id;language;title;abstract;class_1;class_2;class_3;text;DABI;JITA;o-bib;springer ee44d89dd29a60ae702d340b78cea4d9;de;;;3.5.;5.3.;4.2.;Wechsel zum Wissen Im vorherigen Kapitel haben wir den Hintergrund dieses Buches – die konstruktive Designforschung – skizziert und dargelegt, wie konstruktive Designforschung, die teilweise auf Designpraktiken basiert, sowohl der professionellen als auch der akademischen Welt des Designs Respekt zollen muss. Wir haben das Konzept des „Driftens“ als eine demonstrative Methode eingeführt, um zu artikulieren, wie sich Designprozesse ändern und annehmen, wenn neues Wissen aufgebaut wird und die Notwendigkeit besteht, seine Anliegen neu zu formulieren. Metaphorisch formuliert: nicht als Treibholz, sondern wie in der Auto-Rallye, gewollt und kontrolliert. Das Kapitel skizzierte auch, wie konstruktive Entwurfsforschung im Bereich der Steigerung der Selbstwirksamkeit auf ihre besondere Weise Ideen und Arbeitsweisen anderer Disziplinen verbindet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37896-7_2 9f3cfe052161e702eb60d74a847c3848;de;;;3.5.;5.3.;4.2.;Citizen Science-Fallstudien und ihre Auswirkungen auf soziale Innovation Soziale Innovation bringt sozialen Wandel und zielt darauf ab, gesellschaftliche Herausforderungen und soziale Bedürfnisse auf neuartige Weise anzugehen. Wir betrachten Citizen Science daher sowohl als (1) soziale Innovation in der Forschung als auch (2) als einen innovativen Weg, soziale Innovation zu entwickeln und zu fördern. In diesem Kapitel diskutieren wir, wie Citizen Science zu gesellschaftlichen Zielen und der Entwicklung sozialer Innovation beiträgt, und konzeptualisieren Citizen Science als einen Prozess, der soziale Innovation schafft. Wir argumentieren, dass sowohl Citizen Science als auch soziale Innovation anhand von drei Dimensionen analysiert werden können – Inhalt, Prozess und Empowerment (Impact). Anhand dieser drei Dimensionen als Rahmen für unsere Analyse präsentieren wir fünf Citizen Science-Fälle, um zu zeigen, wie Citizen Science zu sozialer Innovation führt. Als Ergebnis unserer Fallstudienanalyse identifizieren wir die größten Herausforderungen für Citizen Science bei der Förderung sozialer Innovation.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58278-4_16 eed769a6de274e95b6eda59dd7f2de7f;de;;;3.5.;5.3.;4.2.;Demokratisierung oder Privilegierung: die Demokratisierung des Wissens und die Rolle des Archivars In diesem Beitrag wird argumentiert, dass in den letzten zehn Jahren eine Herausforderung für das Archiv entstanden ist, die das Potenzial hat, den Archivberuf zu verändern und die Rolle des Archivars, wie er traditionell verstanden wird, zu verändern. Im Zentrum steht die Forderung nach vollständiger Demokratisierung des Wissens. Befürworter dieser Bewegung übernehmen Vorstellungen von Kontrolle und Vermittlung im digitalen Bereich, was die mögliche Umgehung des Privilegierten/Gatekeepers zur Folge hat. Dieser Beitrag wird diesen Wandel untersuchen und argumentieren, dass der Berufsstand heute mehr denn je die transformativen und demokratischen Auswirkungen verstehen und anerkennen muss, die das Archiv durch den Akt der Privilegierung haben kann, da wir uns gerade weiterhin auf das Filtern von Informationen für die Verbreitung verlassen und Erhaltung, die den Beruf im 21. Jahrhundert relevant und wichtig halten wird.;-;-;-;https://link.springer.com/article/10.1007/s10502-015-9262-4 7b9ad9644059d18faeaa2f4d34036521;de;;;3.5.;5.3.;4.2.;Theoretische Perspektiven auf User Engagement In diesem Kapitel werden die theoretischen Grundlagen von User Engagement untersucht. Zunächst wird die Definition von User-Engagement anhand von Schlüsselprinzipien für die Bewertung von Konzepten dekonstruiert: Klarheit, Umfang und Bedeutung. Zweitens werden zwei theoretische Rahmenwerke vorgestellt, Mihaly Csikszentmihalyis Flow Theory und John Deweys Philosophy of Experience, die in den letzten Jahrzehnten viele Arbeiten zur Nutzerbindung beeinflusst haben. Drittens werden verschiedene Mess- und Verhaltensmodelle der Benutzereinbindung formuliert und verglichen. Obwohl es sich nicht um eine erschöpfende Literaturübersicht handelt, werden in diesem Kapitel die wichtigsten Arbeiten zum Nutzerengagement der letzten 30 Jahre sowie Bereiche mit Konsens und Divergenz bei der Konzeption des Nutzerengagements in der Forschung identifiziert. Der Zweck des Kapitels besteht nicht darin, eine einheitliche Theorie des Engagements vorzuschlagen, sondern eine Reihe vereinheitlichender Vorschläge und offener Fragen zu präsentieren, um zukünftige Studien zu informieren und den theoretischen Rahmen des Nutzerengagements in Theorie und Anwendung zu stärken;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27446-1_1 65e4e87c0dcb1d24fb3fff92cb47c98c;de;;;3.5.;5.3.;4.2.;Herausforderungen für virtuelle Menschen in der Human Computing Die Vision von Ambient Intelligence (AmI) setzt eine Vielzahl eingebetteter Dienste und Geräte voraus, die alle bestrebt sind, den Menschen so unauffällig wie möglich bei seinen täglichen Aktivitäten zu unterstützen. Hardware wird in der Umgebung verteilt und nimmt sogar den Stoff unserer Kleidung ein. Die Umgebung ist mit einer Vielzahl von Sensoren ausgestattet, deren Informationen aus dem gesamten AmI-Netzwerk abgerufen werden können. Einzelne Dienste sind über Hardware verteilt, teilen Sensoren mit anderen Diensten und sind in der Regel losgelöst vom klassischen Single-Access-Point-Rechner (siehe auch den Beitrag von Pantic et al. in diesem Band [51]).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72348-6_16 d4425c32f5226b2354e6cc949f2a1566;de;;;3.5.;5.3.;4.2.;Gestaltungsrichtlinien für technologiegestütztes Lernen über mobile Geräte im Kontext der Hochschulbildung in Südafrika Smartphones und Tablets sind in Bildungskontexten allgegenwärtig, in denen Schüler von unterwegs über digitale Geräte auf Lernmaterialien zugreifen, sowohl auf dem Campus als auch außerhalb. Erfolgreiche M-Learning-Erfahrungen können durch mobile Lernumgebungen erleichtert werden, die facettenreich und effektiv sind und die vielseitigen Bedürfnisse der Schüler erfüllen. Diese Studie synthetisiert einen umfassenden Leitfaden für die Gestaltung und Entwicklung von mobilen Lernumgebungen mit dem Ziel, erfolgreiche M-Learning-Erfahrungen zu unterstützen. Die Forschung ist ein sekundäres Ergebnis der Entwicklung und Evaluierung einer realen Lernumgebung für die Hochschulbildung, genannt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25768-6_10 72fcf7b8abc9790c933a23540ffdf9f1;de;;;3.5.;5.3.;4.2.;Entwicklung eines Online-Hassklassifikators für mehrere Social-Media-Plattformen Die Verbreitung sozialer Medien ermöglicht es den Menschen, ihre Meinungen im Internet breit zu äußern. Gleichzeitig hat dies jedoch zu Konflikten und Hass geführt, was Online-Umgebungen für Benutzer nicht einladend macht. Obwohl Forscher festgestellt haben, dass Hass über mehrere Plattformen hinweg ein Problem darstellt, fehlen Modelle für die Online-Hasserkennung mithilfe von Daten aus mehreren Plattformen. Um diese Forschungslücke zu schließen, sammeln wir insgesamt 197.566 Kommentare von vier Plattformen: YouTube, Reddit, Wikipedia und Twitter, wobei 80 % der Kommentare als nicht hasserfüllt und die restlichen 20 % als hasserfüllt gekennzeichnet sind. Anschließend experimentieren wir mit mehreren Klassifikationsalgorithmen (Logistic Regression, Naive Bayes, Support Vector Machines, XGBoost und Neural Networks) und Feature-Repräsentationen (Bag-of-Words, TF-IDF, Word2Vec, BERT und deren Kombination). Während alle Modelle den schlüsselwortbasierten Baseline-Klassifikator deutlich übertreffen, schneidet XGBoost mit allen Funktionen am besten ab (F1 = 0,92). Die Merkmalswichtigkeitsanalyse zeigt, dass BERT-Merkmale für die Vorhersagen am wirkungsvollsten sind. Die Ergebnisse unterstützen die Verallgemeinerbarkeit des besten Modells, da die plattformspezifischen Ergebnisse von Twitter und Wikipedia mit ihren jeweiligen Quellpapieren vergleichbar sind. Wir stellen unseren Code zur Anwendung in realen Softwaresystemen sowie zur Weiterentwicklung durch Online-Hassforscher öffentlich zur Verfügung.;-;-;-;https://link.springer.com/article/10.1186/s13673-019-0205-6 543795776850b97e0018c84232c9b899;de;;;3.5.;5.3.;4.2.;Social-Community-basiertes Blog-Such-Framework Diese Studie schlägt ein Blog-Such-Framework vor, das eine eingehendere Suche zu einem bestimmten Thema ermöglicht, indem die kollektiven Intelligenzfunktionen in sozialen Community-Sites extrahiert und durch die Abfrageerweiterung unter Verwendung dieser Funktionen verwendet werden. Die Merkmale von Blog-Inhalten sind, dass sie viele Informationen enthalten, die aus der Benutzererfahrung bestehen und von den meisten Benutzern mehr vertrauenswürdig sind als die Inhalte, die durch die allgemeine Suche gewonnen werden. Das vorgeschlagene Framework erweitert die Abfrage unter Verwendung der Antwortinformationen bezüglich der Abfrage, die der Benutzer suchen möchte, und wird auf dieser Grundlage auf die Blog-Suche angewendet. Die von verschiedenen Arten von Social-Community-Sites gewonnenen Informationen könnten als eine Form der kollektiven Intelligenz angesehen werden, während dies auf die Blog-Suche angewendet wurde. Das in diesem Papier vorgeschlagene Framework nutzt die wichtigen Q&A-Informationen der sozialen Gemeinschaft, um dem Benutzer zuverlässigere und nützlichere Suchergebnisse zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29023-7_15 39577d57a36cdac51c8d74ef05e8cfc6;de;;;3.5.;5.3.;4.2.;Die Filterblase brechen: Demokratie und Design Es wurde argumentiert, dass das Internet und die sozialen Medien die Zahl der verfügbaren Standpunkte, Perspektiven, Ideen und Meinungen erhöhen, was zu einem sehr vielfältigen Informationspool führt. Kritiker argumentieren jedoch, dass Algorithmen, die von Suchmaschinen, sozialen Netzwerkplattformen und anderen großen Online-Vermittlern verwendet werden, die Informationsvielfalt tatsächlich verringern, indem sie sogenannte „Filterblasen“ bilden. Dies kann eine ernsthafte Bedrohung für unsere Demokratien darstellen. Als Reaktion auf diese Bedrohung haben andere Algorithmen und digitale Werkzeuge entwickelt, um Filterblasen zu bekämpfen. Dieses Papier bietet zunächst Beispiele für verschiedene Softwaredesigns, die versuchen, Filterblasen zu zerbrechen. Zweitens zeigen wir, wie Normen, die von zwei Demokratiemodellen gefordert werden, die Werkzeuge dominieren, die zur Bekämpfung der Filterblasen entwickelt werden, während Normen anderer Modelle in den Werkzeugen völlig fehlen. Das Papier argumentiert abschließend, dass Demokratie selbst ein umstrittenes Konzept ist und weist auf eine Vielzahl von Normen hin. Gestalter von Instrumenten zur Diversitätssteigerung müssen daher mit unterschiedlichen Demokratiekonzepten konfrontiert werden.;-;-;-;https://link.springer.com/article/10.1007/s10676-015-9380-y b8c2617b689c1a76950e55bbe35d1af0;de;;;3.5.;5.3.;4.2.;Ethische Fragen im Interaktionsdesign Wenn wir Informationstechnologie entwerfen, riskieren wir, spezifische Metaphern und Modelle menschlicher Aktivitäten in die Technologie selbst und in die verkörperten Aktivitäten, Arbeitspraktiken, Organisationskulturen und sozialen Identitäten derer einzubauen, die sie nutzen. Dieses Papier ist motiviert durch die Erkenntnis, dass die Annahmen über menschliche Aktivitäten, die zur Steuerung des Designs einer bestimmten Technologie verwendet werden, im Einsatz durch das Interaktionsdesign dieser Technologie aktiv werden. Ein Fragment gemeinsamer Entwurfsarbeit wird verwendet, um eine Untersuchung verschiedener Lösungen für eines der technischen Probleme zu begründen, die auftreten, wenn Technologie verwendet wird, um ähnliche Arbeit über Entfernungen hinweg zu unterstützen. Es wird argumentiert, dass einige Lösungen für Designprobleme besser sind als andere, weil sie die menschliche Interaktion auf unterschiedliche Weise ermöglichen. Einige Lösungen verbessern die Möglichkeiten der menschlichen Handlungsfähigkeit, andere verringern sie. Dies bedeutet, dass es eine moralische Grundlage für die Wahl zwischen alternativen Interaktionsdesignentscheidungen geben kann, die ansonsten in Bezug auf die Funktionalität und Benutzerfreundlichkeit der Technologie als gleichwertig angesehen werden könnten.;-;-;-;https://link.springer.com/article/10.1007/s10676-005-8308-3 479d7a0ed0ad261220672c05d33c8b09;de;;;3.5.;5.3.;4.2.;Weder gut noch schlecht, aber gefährlich: Überwachung als ethisches Paradox Wir plädieren für eine diskursive Überwachungsethik, die den Paradoxien Rechnung trägt, die das Phänomen den heutigen Organisationsmitgliedern präsentiert. Wir entwickeln zunächst eine Genealogie der Privatsphäre und veranschaulichen ihre Beziehung zur Überwachung, wobei wir uns auf die antinomische Beziehung zwischen dem „Öffentlichen“ und dem „Privaten“ konzentrieren. Dann überprüfen wir die gemeinsamen ethischen Spannungen, die in der heutigen technologieintensiven Arbeitswelt entstehen. Schließlich entwickeln wir einen kritischen Ansatz zum ethischen Status von Privatsphäre und Überwachung – eine „Mikro-Ethik“ – der offen bleibt für diskursive Verhandlungen durch diejenigen, die sich gerade im Blickpunkt befinden.;-;-;-;https://link.springer.com/article/10.1023/A%3A1012231730405 aaac4329a36ffbf26000b3f7c57ffba2;de;;;3.5.;5.3.;4.2.;Optimists’ Creed: Schönes neues Cyberlearning, sich entwickelnde Utopien (ca. 2041) Dieser Aufsatz stellt sich vor, welche Rolle Innovationen der Künstlichen Intelligenz in den integrierten Lebens-, Lern- und Forschungsumgebungen des Jahres 2041 spielen. Hier, im Jahr 2041, im Kontext immer komplexerer, böser Herausforderungen, deren Lösungen naturgemäß selbst den fähigsten Experten weiterhin entgehen , haben sich Gesellschaft und Technologie gemeinsam entwickelt, um Cyber-Lernen als wesentliches Werkzeug für die Vision und Verfeinerung von Utopien zu nutzen – nicht existierende Gesellschaften, die sehr detailliert beschrieben werden. Unsere Gesellschaft schätzt, dass die Entwicklung dieser Utopien entscheidend ist, um böse Herausforderungen zu schaffen und zu lösen und um besser zu verstehen, wie wir eine Welt schaffen können, in der wir aktiv „lernen“ – tief engagiert in intrinsisch motivierenden Erfahrungen, die jeden von uns befähigen, unser volles Potenzial zu entfalten Potenzial. Seit 2015 hat sich die Künstliche Intelligenz in der Bildung (AIED) von einem primären Forschungsvorhaben mit pädagogischen Auswirkungen, an dem Millionen von Benutzern/Lernenden beteiligt waren, zu einem zentralen Beitrag zur Demokratisierung des Lernens entwickelt (Dewey;-;-;-;https://link.springer.com/article/10.1007/s40593-016-0096-x 02aa70f740dcfc548c89539c4e160180;de;;;3.5.;5.3.;4.2.;Kollektive Kreativität: Die Potenziale multimodaler Umgebungen nutzen Fortschritte in der Technologie haben die Methoden erweitert, mit denen Benutzer mit computerbasierten Systemen über den Bildschirm hinaus in den physischen Raum interagieren. Um diese Art von innovativen Schnittstellen zu entwerfen, werden neue Designtechniken und -praktiken benötigt, um zu verstehen, wie Benutzer solche multimodalen Umgebungen wahrnehmen und mit ihnen interagieren. Ein Bereich, in dem wir nach solchen neuartigen Ansätzen suchen können, ist der Bereich der interaktiven Medienkunst und des Designs. Eine interaktive Kunstinstallation namens Art Machine: MindCatcher wurde entwickelt, um es Benutzern zu ermöglichen, audiovisuelle Sätze (Artefakte) zu erstellen, indem sie sich durch ein Feld von Sensoren bewegen, die Kreise und Geräusche erzeugen, die je nach der auf dem Sensor verbrachten Zeit variieren. Dieses Forschungsexperiment hat die Absicht, einen Beitrag zum Feld der kollektiven Kreativität und des partizipativen Designs zu leisten, indem es einen Test-of-Concept in Bezug auf die Lebensfähigkeit von interaktiver Medienkunst und -design als Methode darstellt, die zum Repertoire von Techniken und Praktiken beiträgt, um Teilnehmer an Design zu beteiligen Aktivitäten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19743-2_5 4df997526cda947347044c02428e1979;de;;;3.5.;5.3.;4.2.;Lernen in der Smart City: Ein virtuelles und erweitertes Museum, das der Chaostheorie gewidmet ist Dieser Beitrag stellt ein virtuelles Museum vor, das die interaktiven VR- und MEMS-Anwendungen im Zusammenhang mit dem Erlernen der Chaos- und Komplexitätstheorie vorstellt. In diesem Museum kann der Benutzer die Geschichte der dynamischen Systeme und den Aufbau von Chuas Schaltung lernen sowie künstlerische Artefakte realisieren, die Attraktoren in Klänge und Musik verwandeln. Diese Umgebung kann in der Stadt genutzt werden, um neue Wege der Wissenschaftserfahrung zu schaffen, körperliche Aktivitäten in virtuelle zu verwandeln, ein wichtiger Schritt, um das Museum in der Smart City zu haben. Darüber hinaus wurden einige Anwendungen entwickelt, die auf iPad und iPhone funktionieren und als Leitfaden in den realen Ausstellungen verwendet werden können. Um das Virtuelle Museum der Attraktoren von Chua zu implementieren, wurde eine nutzerzentrierte Designstrategie mit 40 Studenten durchgeführt, die darauf abzielt, die Erfahrung in der Smart City zu erweitern und eine beträchtliche öffentliche Beteiligung zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-43454-3_27 ceeefb115e46167c286be281f9c6c73a;de;;;3.5.;5.3.;5.1.;Unterstützung des Informationszugangs und Sensemaking in digitalen Kulturerbeumgebungen Beschrieben wird der nutzerzentrierte Entwurf und die Bewertung eines Systems zur Verbesserung des Informationszugangs und zur Unterstützung der breiteren Informationsaktivitäten von Nutzern in digitalen Sammlungen des kulturellen Erbes. Das System geht über einfache, eigenständige Aufgaben zum Suchen und Abrufen von Informationen hinaus und zielt darauf ab, die „Auffindbarkeit“ von Inhalten zu verbessern und die kognitiven Prozesse der Sinnstiftung, des Lernens und der Kreativität der Benutzer zu unterstützen, indem Werkzeuge für die Informationsnutzung am Zugangspunkt eingebettet werden. Ein verallgemeinertes Benutzerinteraktionsmodell, das aus der Anforderungsanalyse abgeleitet wurde, ist mit Modellen der explorativen Interaktion und der Unterstützung bei der Informationssuche kompatibel, was das Potenzial für ein einzelnes System veranschaulicht, das sich an verschiedene Anwendungsszenarien anpassen kann. Kontrollierte Laborauswertungen zeigen zwar Unterstützung für eine Vielzahl von Informationsaufgaben, zeigen aber auch Unterschiede im Informationssuchverhalten je nach Aufgabentyp und Benutzerprofil, was auf die Notwendigkeit eines Systems hindeutet, mit dem Benutzer ihren bevorzugten Interaktionsmodus im Kontext auswählen können. Interaktionen mit der Pfaderstellungsfunktion heben das Potenzial für Sensemaking- und Kreativitätsunterstützungstools hervor, die in digitale Bibliothekssammlungen eingebettet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08425-1_13 a871c88f9532471cb60fd9b567eca82e;de;;;3.5.;5.3.;5.1.;Usability-Elemente in der Entwicklung digitaler Lehrbücher: Eine systematische Überprüfung Das Wachstum der digitalen Technologie löst eine neue Welle in der Entwicklung neuer Medienalternativen aus, einschließlich digitaler Lehrbücher. Eine Vielzahl digitaler Lehrbuchformate und die leicht transportablen Inhalte crossmedial können zu einer Komplexität der Nutzererwartungen führen. Die Berücksichtigung von Usability-Elementen ist einer der kritischen Erfolgsfaktoren, um sicherzustellen, dass das digitale Lehrbuch die Erwartungen des Benutzers erfüllt. Trotz überwältigender Forschung und Standards zur Usability fehlt es noch an Bemühungen, das Konzept der Usability-Elemente im Kontext der digitalen Schulbuchentwicklung systematisch zu überprüfen. Die Forschung versucht, diese Lücke zu schließen, indem sie die aktuelle Literatur zum Begriff der Usability-Komponenten in der digitalen Lehrbuchentwicklung auswertet. Eine systematische Analyse der Datenbanken Scopus und Web of Science bestätigte 17 verwandte Studien aus 213 Zeitschriftenartikeln, die sich an der Bewertungsmethode des PRISMA-Statements (Preferred Reporting Items for Systematic Reviews and Meta-Analysis) orientieren. Eine weitere Überprüfung dieser Artikel ergab, dass 17 Usability-Faktoren identifiziert wurden. Diese Usability-Faktoren führten weiter zu insgesamt 49 Usability-Eigenschaften. Der Review liefert ein besseres Verständnis von Usability-Faktoren und -Kriterien, die bei der Entwicklung digitaler Lehrbücher berücksichtigt werden müssen, und zeigt, dass Usability-Elemente entscheidend für die Verbesserung der digitalen Lehrbuchqualität sind. Darüber hinaus liefert diese Forschung eine Grundlage für die zukünftige Forschung zu Usability-Elementen digitaler Lehrbücher.;-;-;-;https://link.springer.com/article/10.1007/s12109-019-09675-3 7804b4209631382bdba472af4dc22951;de;;;3.5.;5.3.;5.1.;Englisch lernen mit Second-Screen-Plattformen: Eine länderübergreifende Mixed-Methods-Studie Die zeitgenössische Welt hat neue Stadien technologiegetriebener Transformationen gesetzt. Der Bildung kommt in dieser Hinsicht besondere Aufmerksamkeit zu, da digitale Umgebungen neue Formen der Wissenserweiterung definieren. Blended-Learning-Methoden mit mehreren Bildschirmen haben sich als neue Paradigmen herauskristallisiert, um der jüngsten Aneignung neuer Medien zu begegnen und den Lernprozess in diesem digitalen Szenario voranzutreiben. Um dieser Herausforderung zu begegnen, wurde eine Studie mit 59 Schülern des vorletzten Schuljahres in Chile und Brasilien durchgeführt. Zwei Wochen lang nahmen sie an einem Flipped Classroom teil, um grundlegende Englischkenntnisse zu üben und mit Digitalfernsehen und Smartphone-Nutzung zu experimentieren. Die Ergebnisse zeigten eine Verbesserung der Englischkenntnisse bei den Schülern im Vergleich der Zeit vor und nach dem Test. Es wurde auch beobachtet, dass die Schüler beider Länder während der Aktivität am meisten konzentriert waren, jedoch nahm der Prozentsatz der konzentrierten Schüler während der zweiten Hälfte der Interaktionsphase mit dem Video im Digitalfernsehen im Klassenzimmer ab. Es sollte erwähnt werden, dass es nicht das Ziel dieser Studie war, beide Länder zu vergleichen, sondern diese Strategie in zwei kulturell unterschiedlichen Kontexten zu validieren. Die Studie zeigte, wie das Üben von Sprachen durch die Nutzung des digitalen Fernsehens mit mehreren Bildschirmen in umgedrehten Klassenzimmern von Vorteil sein kann, da die Schüler von der Technologie nicht nur zur Verbesserung ihres Lernens betroffen sind, sondern auch, weil sie Möglichkeiten eröffnet, im Lehrerberuf verwurzelte Strukturen aufzubrechen. Zukünftige Arbeiten würden durch die Durchführung weiterer Sitzungen verbessert, die die Beobachtung der Inhalte und Eigenschaften der Studierenden verstärken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-81996-5_5 152f78c17c08319252ba75192928c6aa;de;;;3.5.;5.3.;5.2.;Eine Untersuchung zu studentischem Engagement, Wissensschaffung und expansivem Lernen in einer virtuellen Welt Dieses Kapitel untersucht das Engagement, die Schaffung von Wissen und das umfassende Lernen von Studenten, die eine virtuelle Welt verwenden. Nach der Erstellung einer 3D-didaktischen, konstruktivistischen virtuellen Welt zeichneten und analysierten die Forscher die Schülergespräche in der Umgebung. Unter Verwendung von Hara et al. (Instr Sci, 28:115–152, 2000) Framework for Student Engagement und Nonaka und Takeuchi (The Knowledge-creating Company: How Japanese Companies Create the dynamics of innovation, The Oxford University Press, New York, 1995) Daten analysiert wurden. Die Theorie des expansiven Lernens diente als Rahmen für die Erforschung von Transformationen in der Umwelt (Engeström, Sannino, Educ Res Rev, 5(1):1–24, 2010). Die Ergebnisse zeigten, dass fünf Formen des Schülerengagements den Lernprozess verstärkten und dass eine vollständige Wissensspirale entstand, die die vier Modi der Wissensumwandlung betonte und auf Elemente des expansiven Lernens hinwies (Engeström, Sannino, Educ Res Rev, 5(1):1–24 , 2010) auftreten. Obwohl in Zeit und Umfang begrenzt, deuten die Ergebnisse weiterhin darauf hin, dass innerhalb der virtuellen 3D-Welt eine hoch engagierte Gemeinschaft von Lernenden mit der Fähigkeit, Probleme kritisch zu lösen, geschaffen wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-5370-2_4 aa752af414b55d1a6aa17b3d0afe2dc0;de;;;3.5.;5.3.;5.2.;Benutzerpräferenzen für pädagogischen E-Content: Eine Nutzwert-/Usability-Umfrage zum griechischen Illustrierten Wissenschaftswörterbuch für Schulen Dieses Kapitel stützt sich auf empirische Daten aus einem Web-Fragebogen, der entwickelt wurde, um den Nutzen und die Nutzbarkeit von ELeFyS, einem E-Content/Online-Wörterbuch für den integrierten Ansatz von Sprache und Naturwissenschaften im mehrsprachigen Unterricht, zu bewerten. Ein 11-Punkte-Fragebogen wurde entwickelt und an 84 Informanten (angehende und zukünftige Lehrer und Grundschüler) in Schulen und Universitäten in Nordgriechenland verteilt. Die gesammelten Daten waren sowohl quantitativ als auch qualitativ: Jedes quantifizierbare Item wurde auf einer 5-Punkte-Likert-Skala bewertet, gefolgt von einer offenen Frage, in der die Benutzer ihre ausgewählte Punktzahl begründeten. Alle 11 Items wurden innerhalb von 3 Faktoren gruppiert. Zur Bestimmung der Faktorenstruktur (Konstruktvalidität) wurde die konfirmatorische Faktorenanalyse verwendet. Die Zuverlässigkeit des Instruments wurde durch interne Konsistenz überprüft. Für die Datenanalyse wurden Vergleiche zwischen den Gruppen mittels nichtparametrischer Statistik angestellt. Die Ergebnisse bestätigen die Anpassungsgüte des Modells und zeigen seine hohe Zuverlässigkeit. Sie vertreten auch die positive Einstellung der Teilnehmer zu ELeFyS. Gleichzeitig zeigen sie die Notwendigkeit auf, eine E-Dictionary/E-Content-Kultur zu etablieren und einen erweiterten Begriff von wissenschaftlicher Kompetenz in die griechische Schulpraxis zu übernehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-64363-8_11 453605551a3734c0e8f137aba1f519e5;de;;;3.5.;5.3.;6.1.;Ein elektronisches Patientenaktensystem mit Behandlungsempfehlungen basierend auf Patientenähnlichkeit Als Kern der Gesundheitsinformationstechnologie (HIT) haben sich elektronische Patientenaktensysteme (EMR) verändert, um den Anforderungen der Gesundheitsversorgung gerecht zu werden. Um ein EMR-System-Framework der neuen Generation mit der Fähigkeit des Selbstlernens und des Echtzeit-Feedbacks zu konstruieren, wodurch das EMR-System selbst intelligenter wird, schlug dieses Papier einen neuartigen EMR-System-Framework vor, indem ein direkter Weg zwischen dem EMR-Workflow und EMR aufgebaut wird Daten. Ein Prototyp dieses Rahmens wurde basierend auf dem Lernen von Patientenähnlichkeit implementiert. Patientendiagnosen, demographische Daten, Vitalparameter und strukturierte Labortestergebnisse wurden für Ähnlichkeitsberechnungen berücksichtigt. Echte Krankenhausaufenthaltsdaten von 12.818 Patienten wurden ersetzt und Precision @ Position-Messungen wurden verwendet, um die Selbstlernleistung zu validieren. Unser EMR-System hat die Art und Weise, wie Bestellungen aufgegeben werden, geändert, indem ein Empfehlungs-Bestellmenü und Shortcut-Anwendungen eingerichtet wurden. Es wurden zwei Lernmodi (EASY MODE und COMPLEX MODE) bereitgestellt, und die Präzisionswerte @ Position 5 beider Modi betrugen 0,7458 bzw. 0,8792. Die Präzisionsleistung des COMPLEX MODE war besser als die des EASY MODE (getestet mit einem gepaarten Wilcoxon-Mann-Whitney-Test,;-;-;-;https://link.springer.com/article/10.1007/s10916-015-0237-z c0fa25a80a42c2cf411e40e8cd0bfa5e;de;;;3.5.;5.3.;6.1.;Aufbau neuer Computermodelle zur Unterstützung der Änderung und Aufrechterhaltung des Gesundheitsverhaltens: neue Möglichkeiten in der Verhaltensforschung Ungefähr 40 % der vermeidbaren Todesfälle sind neben ihren nachteiligen Auswirkungen auf Lebensqualität und Wirtschaftlichkeit auch auf ungünstige und suboptimale Gesundheitsverhalten und -gewohnheiten zurückzuführen. Unser derzeitiges Verständnis des menschlichen Verhaltens basiert weitgehend auf statischen „Schnappschüssen“ menschlichen Verhaltens und nicht auf fortlaufenden, dynamischen Rückkopplungsschleifen des Verhaltens als Reaktion auf sich ständig ändernde biologische, soziale, persönliche und Umweltzustände. In diesem Beitrag wird zunächst erörtert, wie neue Technologien (z. B. mobile Sensoren, Smartphones, Ubiquitous Computing und Cloud-fähige Verarbeitung/Computing) und aufkommende Systemmodellierungstechniken die Entwicklung neuer, dynamischer und empirischer Modelle des menschlichen Verhaltens ermöglichen, die in-time adaptive, skalierbare Interventionen. Das Papier beschreibt dann konkrete Schritte zur Erstellung robuster dynamischer mathematischer Verhaltensmodelle, einschließlich: (1) Etablierung von „Goldstandard“-Messungen, (2) Erstellung einer Verhaltensontologie für gemeinsame Sprache und Verständniswerkzeuge, die beide eine dynamische Theoriebildung über Disziplinen hinweg ermöglichen , (3) die Entwicklung von Ressourcen für die gemeinsame Nutzung von Daten und (4) die Erleichterung einer verbesserten gemeinsamen Nutzung von mathematischen Modellen und Werkzeugen, um eine schnelle Aggregation der Modelle zu unterstützen. Wir schließen mit der Diskussion darüber, was in ein „Wissens-Commons“ aufgenommen werden könnte, das dazu beitragen könnte, diese unterschiedlichen Aktivitäten in einem einheitlichen System und einer einheitlichen Struktur für die Organisation von Wissen über Verhalten zusammenzuführen.;-;-;-;https://link.springer.com/article/10.1007/s13142-015-0324-1 82cbfa4921ee2cda9c6af5767642fcfd;de;;;3.5.;5.3.;6.2.;Erkundung des europäischen Kulturerbes mit Gesprächspartnern Die Paradigmen Semantic Web und Open Data gewinnen in den letzten Jahren an Dynamik und mehr Informationen werden nach dem Linked-Data-Prinzip online veröffentlicht. Dies ermöglicht einen einfachen Zugriff und die Verarbeitung von Daten durch externe Dienste. Ein Beispiel für solche Dienste sind intelligente Konversationsagenten, die den Benutzern die Möglichkeit bieten, mit einem Computersystem in natürlicher Sprache zu interagieren. Eine solche Kommunikation ist viel intuitiver und erleichtert die Nutzung komplexer Dienste für weniger erfahrene Benutzer (z bestimmte Online-Dienste. In diesem Beitrag stellen wir einen Proof-of-Concept Konversationsagenten vor, der Informationen über das europäische Kulturerbe bereitstellen und gespeicherte digitale Inhalte aus der Europeana-Datenbank anzeigen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-05819-7_14 92a8ed031db824cc5c5fd84eb86aebbc;de;;;3.5.;5.3.;6.4.;Brücke zwischen DH und humanistischem HCI Bowkers Age of Potential Memory beschreibt eine neue Ära, die durch eine Kultur der Wissensproduktion gekennzeichnet ist, die bestimmte Formen von Aussagen je nach den zugrunde liegenden Logiken fördert und erstickt. Durch Prozesse der allgegenwärtigen Datenerhebung, -analyse und -rückmeldung werden Individuen zunehmend zu Nutzern reduziert, Nutzer als Datendoppelgänger oder Datendoppelgänger neu geschaffen,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-43687-2_72 6cf8a9ca959ccef2729d0ecac6954da8;de;;;3.5.;5.3.;;Erkundung des Kulturerbes mit Augmented Reality durch Googles Project Tango und ARCore Diese Forschung konzentriert sich auf die Bedeutung des Einsatzes moderner Technologien für die Erhaltung und Erforschung des Kulturerbes (CH). Insbesondere hat Augmented Reality (AR) das Potenzial, die Benutzererfahrung im Zusammenhang mit dem Kulturerbe zu verbessern. Wir stellen kurz die wichtigsten technologischen Ansätze in CH und den Stand der Technik in der mobilen Augmented Reality vor. Das neueste Software Development Kit (SDK) zum Erstellen von AR-Anwendungen wird überprüft und verglichen. Das 3D-Objekt, das die Teilnehmer in der realen Umgebung platzieren konnten, wurde mittels Photogrammetrie gewonnen, einer beliebten und relativ einfach zu verwendenden Digitalisierungstechnik. Das virtuelle Objekt stellt eine Wehrkirche dar und gehört zu einer Gruppe von UNESCO-Denkmälern aus der historischen und ethnografischen Region „Țara Bârsei“ in Brasov, Rumänien. Wir haben auch einige Richtlinien bereitgestellt, um eine genaue 3D-Rekonstruktion jedes Objekts zu gewährleisten. Wir bewerten die Wahrnehmung der Benutzer zu zwei mobilen AR-Anwendungen, von denen eine auf Project Tango basiert und die andere mit ARCore entwickelt wurde. Die Ergebnisse bestätigen, dass AR die Benutzererfahrung verbessert und die Freude am Lernen über kulturelles Erbe steigert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-05819-7_8 eafe238ff265e1bbb9ffa4f086222c34;de;;;3.5.;5.3.;;CORPUS: Online-Plattform der nächsten Generation für geisteswissenschaftliche Forschungskooperationen Zwei wichtige Forschungsressourcen für Geisteswissenschaftler sind Manuskripte und wissenschaftliche Editionen (rigoros rekonstruierte Standardtexte wegweisender Schriftsteller und Denker). Die meisten dieser Ressourcen sind jedoch entweder nicht digitalisiert oder online nicht leicht zugänglich [1]. Folglich müssen Wissenschaftler häufig unnötig Zeit und Mühe aufwenden, um verschiedene Versionen von Materialien (physisch oder digital) aus verschiedenen Quellen zu finden und zu verwalten. Um dieses Problem zu lösen, schlagen wir eine Online-Plattform namens CORPUS vor – a;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07227-2_1 de55f22cc48f612bf708f9656f1f790d;de;;;3.5.;5.3.;;Photogrammetrie und Augmented Reality zur Förderung des religiösen Kulturerbes der Kathedrale San Pedro in Guayaquil, Ecuador Dieser innovative Vorschlag kombiniert die Nutzung der größten Realität und Photogrammetrie zur Modellierung von Strukturen im digitalen Format. Es befasst sich mit zwei Themen, dem Einsatz von Technologien zur Restaurierung von historischen Bauwerken im Falle eines zufälligen Ereignisses und dem Einsatz eines technologischen Werkzeugs, das die Verbreitung des religiösen Kulturerbes der Kathedrale von San Pedro in Guayaquil, Ecuador, auf nationale und ausländische Touristen wird das Interesse, etwas mehr über die Kultur- und Kunstgeschichte zu erfahren, gefördert, wenn es um wirksame Erhaltungsstrategien geht und noch mehr durch den Einsatz von Technologie in Smart Devices. Dies ermöglicht einen einfachen schnellen Zugang mit der richtigen Visualisierung, die Verwendung der Photogrammetrie-Technik wird in mehreren Museen auf der ganzen Welt angewendet und ermöglicht es Touristen, ein bestimmtes Thema auf didaktische und interaktive Weise kennenzulernen. Eine andere Technik ist die Technik der zunehmenden Realität. Diese Technik integriert Daten in virtueller Form durch Links auf das Web, Audio-Video, Videotext oder andere Multimedia durch Markierungen zu Objekten, die als Werkzeug dienen, das dazu anregt, mehr über verschiedene Themen zu erfahren. In dieser Arbeit wurde das religiöse Kulturerbe ausgewählt. Die in Unity entwickelte Schnittstelle und die Verwendung des Vuforia-Entwicklungskits über die mobile Anwendung „My Cathedral“ ermöglichen den Benutzern den Zugriff auf relevante historische Informationen und visualisieren die photogrammetrischen Bilder in zunehmender Realität, genau auf den repräsentativsten Objekten der Kathedrale von San Pedro in Guayaquil.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-42520-3_47 925d0470f6787214e66d0acd05fe26eb;de;;;3.5.;5.3.;;Ermöglichen der kollaborativen Ermittlung von Geschäftsprozessen in virtuellen Umgebungen Mit zunehmend globalisierten Märkten und der zunehmenden Digitalisierung hat die Neugestaltung von Geschäftsprozessen in den letzten Jahren stetig an Bedeutung gewonnen. Trotz zunehmender Relevanz stellt die eigentliche Prozesserhebung nach wie vor eine große Herausforderung dar, da die weltweite Verteilung der Unternehmensstandorte die Durchführung von Prozessmodellierungsworkshops erschwert und insbesondere Anfänger Probleme mit der Modellierung selbst haben. Um diesen Herausforderungen zu begegnen, wurden Virtual-Reality-basierte Systeme als ein effizienter und vielversprechender Weg eingeschätzt. Daher beschäftigt sich dieser Beitrag mit der Entwicklung einer Virtual-Reality-Anwendung zur partizipativen Prozessmodellierung. Anhand des Design Science Paradigmas identifiziert die Arbeit Fragestellungen, die bei der Geschäftsprozesserhebung auftreten, aus der Literatur und übersetzt diese in Meta-Anforderungen. Mit Hilfe dieser Metaanforderungen wurden Gestaltungsprinzipien abgeleitet, die bei der Entwicklung berücksichtigt wurden. Anhand dieser Designrichtlinien wurde ein Prototyp zur kollaborativen Prozesserhebung in VR entwickelt und anschließend von einer Fokusgruppe evaluiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-52306-0_27 121ff2e4151133e8da4e8b54b4db2374;de;;;3.5.;5.3.;;Integration von Computern in den MINT-Lehrplan über CodeBoard Die Einführungsprogrammierung leidet seit jeher unter niedrigen Leistungswerten. Diese niedrigen Leistungsraten sind eng mit hohen Fehlerraten und geringer Retention in einführenden Programmierkursen verbunden. Das Ziel dieser Forschung ist die Entwicklung von Modellen und Instrumenten, die einen Einblick in die Leistungen, Lernmuster und das Verhalten von MINT-Schülern geben können. Diese Erkenntnis soll Aufschluss über niedrige Leistungsraten geben und auch den Weg für prägende Maßnahmen ebnen. CodeBoard ist eine Programmierplattform, die die Programmierung von Schülern mithilfe eines funktionalen, testgetriebenen Ansatzes verwalten und bewerten kann. Die Dozenten entwickeln Programmieraufgaben mit entsprechenden Testfällen, die dann als Benotungsvorlagen zur Bewertung der Schülerprogramme verwendet werden. Die zweite Phase dieser Forschung umfasst die Entwicklung von Modellen zur Messung und Erfassung von Ereignissen, die für die Schülerleistungen im Zeitverlauf relevant sind. Die vorläufigen Ergebnisse zeigen, dass dieses CodeBoard vielversprechend ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-42089-9_36 003f4ab413b02d9133d0a15f0e261e6d;de;;;3.5.;5.3.;;Die Wurzeln der computergestützten Argumentvisualisierung Dieses Kapitel betrachtet einige der „Wurzeln“ der computergestützten Argumentvisualisierung (CSAV). Die obigen Definitionen weisen auf historische Vorfahren und konzeptionelle Grundlagen hin, und dieses Kapitel versucht, die einflussreichsten Werke zu identifizieren, denen CSAV intellektuell verpflichtet ist. Insbesondere werden wir Personen betrachten, die papierbasierte Vorläufer von Argumentlandkarten erfunden haben und/oder die sich die Möglichkeiten vorgestellt haben, die Computer eröffneten. Bei der Kartierung des intellektuellen Terrains von CSAV kann ich wichtige Verzweigungen zu seinen Wurzeln auslassen, die mir noch nicht begegnet sind, hoffe aber, dass dieses Kapitel dazu dient, weitere Verbindungen zu anderen Traditionen zu schmieden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0037-9_1 befa308fabd4d9c04f339d4074919c4c;de;;;3.5.;5.3.;;Ein mehrstufiger Ansatz zur Erleichterung der Interaktion mit intelligenten Umgebungen über natürliche Sprache Aufgrund der Verbreitung von Internet of Things (IoT)-Geräten und dem Aufkommen des Ambient Intelligence (AmI)-Paradigmas ist die Notwendigkeit aufgetaucht, die Interaktion zwischen dem Benutzer und den in intelligente Umgebungen integrierten Diensten zu erleichtern. Daher werden in diesem Zusammenhang zunehmend Conversational Agents eingesetzt, um eine natürliche, intuitive und nahtlose Interaktion zwischen Benutzer und System zu erreichen. Trotz der kontinuierlichen Fortschritte und Weiterentwicklungen im Bereich der Conversational Agents gibt es jedoch noch einige erhebliche Einschränkungen bei den derzeitigen Ansätzen. Das in diesem Papier vorgeschlagene System adressiert einige der Hauptnachteile, indem es: (a) automatisch neue Dienste basierend auf ihrer formalen Spezifikation integriert, (b) Fehlerbehandlung über Folgefragen integriert und (c) mehrere Benutzerabsichten durch die Segmentierung verarbeitet der Eingabe. Das Papier beschreibt die Hauptkomponenten des Systems sowie die Technologien, die sie verwenden. Darüber hinaus analysiert es den Pipeline-Prozess der Benutzereingaben, was zur Generierung einer Antwort und dem Aufruf der entsprechenden intelligenten Dienste führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30712-7_9 cad7b34ad8be589572027b2c3bfc970b;de;;;3.5.;5.3.;;Wahrnehmung für das Verstehen menschlicher Bewegungen Die Tatsache, dass Menschen verkörpert sind, schränkt ihre Bewegung stark ein. Durch die Nutzung dieser Einschränkungen können wir Systeme zur Wahrnehmung menschlicher Bewegungen aufbauen, die schnell und robust sind. Noch wichtiger ist, dass wir durch das Verständnis der Beziehung zwischen diesen Beschränkungssystemen und dem Wahrnehmungsprozess selbst Fortschritte beim Aufbau von Systemen machen können, die menschliche Bewegungen interpretieren und nicht nur erfassen.;-;-;-;https://link.springer.com/chapter/10.1007/11504634_7 1f9e2c43968a0606a65adf39f20d7b36;de;;;3.5.;5.3.;;Auf dem Weg zu unterstützenden Tools für Redakteure digitaler wissenschaftlicher Editionen für Korrespondenzen Digitale (wissenschaftliche) Editionen gelten als unvollkommene Werkzeuge, die die Erwartungen ihrer Benutzer nicht erfüllen können. Basierend auf einer vorangegangenen Studie mit Fachanwendern und Literaturrecherche wurden Aufgaben und Herausforderungen bei der Erstellung einer digitalen (wissenschaftlichen) Edition identifiziert. Unter dem Begriff Computer Aided Digital Humanities haben wir uns mit den unterschiedlichen Aufgabenstellungen beschäftigt und wie Werkzeuge die erforderliche „computergestützte“ Unterstützung leisten können. Im Kontext textbasierter Aufgaben haben wir mehrere Unterstützungsstufen identifiziert, von einfachen Syntaxprüfungen in XML-Editoren über WYSIWYA-Editoren bis hin zu kontextsensitiver Unterstützung, die Daten aus dem gleichen Kontext, z Autor, oder vom gleichen Schreibdatum. Darüber hinaus präsentieren wir Konzepte und Prototypen als work in progress, deren Fokus auf der Unterstützung von Herausgebern digitaler (wissenschaftlicher) Editionen liegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-60700-5_25 121983cb1e07eab097842ce7c9624846;de;;;3.5.;5.3.;;Entwerfen einer Mischung aus synchronen und asynchronen Medien für VMT Die Herausforderungen bei der Gestaltung von Computerunterstützung für die Bildung haben sich in den letzten Jahren stark verschoben, beispielsweise durch das schnelle Wachstum des Webs, des Online-Lernens und der sozialen Netzwerke. Neue Designansätze, Methoden, Werkzeuge und Theorien für die Mensch-Computer-Interaktion (HCI) sind nun erforderlich, um die Interaktionen und das Lernen von Online-Gruppen zu analysieren und zu verstehen. In diesem Kapitel werden zunächst eine Reihe von Fragen im Zusammenhang mit den neuen Software- und pädagogischen Herausforderungen erörtert. Anschließend wird der Ansatz des VMT-Forschungsprojekts vorgestellt, um diese Probleme zu lösen, indem die Unterstützung für integrierte synchrone und asynchrone Kollaborationsmedien kombiniert wird. Das VMT-System integriert eine Lobby, Kleingruppen-Chatrooms, mehrere gemeinsam genutzte Arbeitsbereiche und Community-Wiki-Seiten, um das Lernen auf individueller, Kleingruppen- und Gemeinschaftsebene zu fördern. Es wird über die Verwendung dieses Systems für einen HCI-Hochschulkurs berichtet. Das VMT-Projekt veranschaulicht die Anwendung designbasierter Forschung auf die Systementwicklung, die Theorie der Gruppenkognition als konzeptioneller Rahmen und eine Adaption der Chat-Interaktionsanalyse für das HCI-Design.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-0228-3_16 e77b49272e2fc11e9772463ef4ddbe21;de;;;3.5.;5.3.;;Virtuelle Heimdekoration in Web- und mobilen Plattformen In diesem Beitrag zeigen wir, wie aktuelle Webtechnologie verwendet werden kann, um eine Vorschau von Wohndekoration und -design zu sehen, indem echte Fotos und virtuelle Objekte mit Echtzeit-Visualisierung und -Editierung in einer Webanwendung verwendet werden. Ein Tool hierfür wurde in HTML5 implementiert, mit einer nativen Version für Smartphones, die HTML5 noch nicht vollständig unterstützen. Dieses Papier beschreibt die Anwendung, erklärt ihre Implementierung, die Unterstützung von Benutzerinhalten mit Bildhintergrundentfernung, Kamerakalibrierung für Perspektivenkorrektur und Entfernungsmessungen, wie wir sowohl 2D- als auch 3D-Netze unterstützen können und unsere Designanliegen für Benutzer ohne vorherige Erfahrung damit eine Art Technik.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09144-0_55 be684e012936030492248229b318c8a5;de;;;3.5.;5.3.;;Neue Lösung für die Verpackung und Lieferung der interaktiven Dienste des kubanischen terrestrischen Digitalfernsehens Die interaktiven Dienste des kubanischen terrestrischen Digitalfernsehens (TDT) bieten den Zuschauern nützliche Informationen. Derzeit erfordern die Prozesse, die den Betrieb interaktiver Dienste in Kuba sicherstellen, eine komplexe und teure Hardware-Infrastruktur. Darüber hinaus ist der Diensteanbieter verpflichtet, Lizenzen für die Nutzung von proprietärer Software zu zahlen, die deren Modifikation beschränkt, um sie an die tatsächlichen Bedürfnisse anzupassen. In diesem Beitrag wird eine neue Lösung vorgestellt, die die Interaktivitätsdatenpakete nach dem definierten Standard bezieht und die TS auf zwei Wegen liefert: per IP/UDP und mittels eines Modulationsgeräts. Der gesamte Prozess wurde auf Laborebene getestet und seine ordnungsgemäße Funktion wurde in mehreren verfügbaren STBs und in der Analyse der gebildeten TS nach der Norm überprüft. Die Software namens PaqTVC+ ist plattformübergreifend, souverän und benötigt wenig Ressourcen für den Betrieb, sodass sie als praktisches Werkzeug im kubanischen TDT eingesetzt werden kann und neue Möglichkeiten für ihre Entwicklung eröffnet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-81996-5_4 1453340bda30c4852b3b2f87efeb95c0;de;;;3.5.;5.3.;;Remote Usability Evaluation: Diskussion eines allgemeinen Rahmens und Erfahrungen aus der Forschung mit einem spezifischen Tool Das Ziel dieses Kapitels ist es, einen Entwurfsraum für Werkzeuge und Methoden vorzustellen, die die Remote-Usability-Evaluierung interaktiver Anwendungen unterstützen. Dieser Ansatz gewinnt zunehmend an Bedeutung, da er eine Usability-Evaluierung auch in der täglichen Umgebung des Benutzers ermöglicht. In diesem Bereich wurden mehrere Techniken entwickelt, um verschiedene Arten von Anwendungen zu adressieren, die in verschiedenen Kontexten verwendet werden können. Wir diskutieren sie in einem einheitlichen Rahmen, mit dessen Hilfe die Schwächen und Stärken der verschiedenen Ansätze verglichen und Bereiche identifiziert werden können, die weiterer Forschungsarbeit bedürfen, um alle Möglichkeiten der Fernevaluation auszuschöpfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84628-941-5_9 fd6b3b2163a5a788e4ea9b7a5773760f;de;;;3.5.;5.3.;;Der Entwicklungstrend der intelligenten Sprachinteraktion Computern die Fähigkeit zu geben, zuzuhören, zu sprechen, zu verstehen und sogar zu denken, ist die neueste Entwicklungsrichtung der Mensch-Computer-Interaktion. Als eine der bequemsten und natürlichsten Kommunikationsformen ist Sprache die vielversprechendste Art der Mensch-Computer-Interaktion der Zukunft, die mehr Vorteile bietet als andere Interaktionsmethoden. Als eine der beliebtesten Technologien der künstlichen Intelligenz (KI) wird die intelligente Sprachinteraktionstechnologie in vielen Branchen wie dem elektronischen Handel, dem Smart Home und der intelligenten Industrie sowie der Fertigung weit verbreitet eingesetzt. Es wird die Gewohnheiten des Benutzerverhaltens ändern und zum neuen Modus der menschlichen Eingabe und Ausgabe werden. In diesem Beitrag stellen wir die aktuelle Situation der intelligenten Sprachinteraktion im In- und Ausland dar, illustrieren an vielen Beispielen die Anwendungsszenarien der Sprachinteraktionstechnologie und stellen schließlich ihren zukünftigen Entwicklungstrend vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-23407-2_14 5d3d112506522063346510d91d3df416;de;;;3.5.;5.3.;;Bewertung der kollaborativen Problemlösung mit linearen Gleichungen auf einer greifbaren Tischplatte Der Einsatz von Tangible User Interfaces (TUI) zur Bewertung kollaborativer Probleme wurde in der technologiebasierten Bewertung nur am Rande untersucht. Unsere ersten empirischen Studien konzentrierten sich auf leichte Leistungsmessungen, Benutzerfreundlichkeit, Benutzererfahrung und Gestenanalyse, um unser Verständnis dafür zu verbessern, wie Menschen mit TUI in einem Bewertungskontext interagieren. In diesem Beitrag schlagen wir einen neuen Ansatz zur Bewertung individueller Fähigkeiten zur kollaborativen Problemlösung unter Verwendung der MicroDYN-Methodik mit TUIs vor. Diese sogenannten MicroDYN-Items sind von hoher Qualität und darauf ausgelegt, individuelle Problemlösungsfähigkeiten zu bewerten. Die Items basieren auf linearen Strukturgleichungen. Wir beschreiben, wie dieser Ansatz angewendet wurde, um ein Bewertungselement für ein kollaboratives Setting mit Kindern zu erstellen, das ein vereinfachtes Modell des Klimawandels unter Verwendung des Wissens der vorherigen Studien implementiert. Abschließend schlagen wir eine Reihe von Forschungsfragen sowie eine zukünftige empirische Studie vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08657-6_6 49cf67740ad5cbc062430855e50a395a;de;;;3.5.;5.3.;;Lockbox: Mobilität, Privatsphäre und Werte im Cloud-Speicher Dieses Papier untersucht ein besonderes Problem der Werte im Cloud-Computing: Wie Einzelpersonen die Cloud nutzen können, um Daten zu speichern, ohne ihre Privatsphäre und Autonomie zu beeinträchtigen. Durch die Entwicklung von Lockbox, einer verschlüsselten Cloud-Speicheranwendung, untersuchen wir, wie Designer bei der Gestaltung menschlicher Werte Reflexion nutzen können, um sowohl die Privatsphäre als auch die Benutzerfreundlichkeit in der Cloud zu wahren.;-;-;-;https://link.springer.com/article/10.1007/s10676-013-9328-z 238d4c2b7fd93525f636c8863489c99d;de;;;3.5.;5.3.;;Auf dem Weg zu einem Community-„Spielplatz“: Verbindung von CyberGIS mit seinen Communities Während Hochleistungsrechnen ein grundlegender Bestandteil von CyberGIS ist, ist es ebenso wichtig, eine grundlegende Verbindung zwischen CyberGIS und den verschiedenen Benutzergemeinschaften herzustellen, die dies benötigen. Dies beinhaltet den Austausch, die Kommunikation und die Zusammenarbeit maßgeblicher, relevanter Raumwissenschaften nicht nur zwischen GIS-Spezialisten innerhalb ihrer jeweiligen Organisationen, sondern über verwandte wissenschaftliche Disziplinen, zwischen Regierungsbehörden und sogar interessierten Bürgern, die einen einfachen Zugang zu komplexen Raumanalysen durch ein maßgeschneidertes , vereinfachte Benutzererfahrung. Um eine solche effektive gemeinsame Nutzung und Zusammenarbeit am besten zu erreichen, muss man auch versuchen, die Vorteile und Grenzen des Cloud Computing im Kontext der räumlichen Berechnung zu verstehen. Wir stellen kurz einige Schlüsselkonzepte von Cloud-GIS vor, gefolgt von mehreren Anwendungsfällen, die von der Optimierung von Entscheidungen zur Ressourcenzuweisung in der Gemeinde über die Küsten- und Meeresraumplanung bis hin zur Bewertung des Solarenergiepotenzials in städtischen Gebieten bis hin zum Verständnis der Dynamik von Flüssen und Wassereinzugsgebieten reichen. Diese Beispiele unterstreichen das große Potenzial von CyberGIS, als grundlegende Komponente eine Umgebung für Benutzer unterschiedlicher Herkunft und Fähigkeiten bereitzustellen, eine Umgebung, in der räumliche Analysen in einem „Community Playground“ aus Datensätzen, Karten, Skripten und webbasierter Geoverarbeitung durchgeführt und ausgewertet werden können Dienste und GIS-Analysemodelle. Tatsächlich kann es der größte langfristige Wert von CyberGIS sein, die Leistungsfähigkeit der räumlichen Analyse einem größeren Publikum (dem Nicht-GIS-Publikum) zugänglich zu machen und ihm dabei zu helfen, die ultimativen Ziele zu erreichen, Kommunikation und Zusammenarbeit zu erleichtern, Barrieren zwischen Institutionen, Disziplinen und Kulturen und Förderung einer besseren Verbindung zwischen CyberGIS und seinen vielen Gemeinschaften.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-024-1531-5_14 61f43c02c41ff1766288330d31166246;de;;;3.5.;5.3.;;Analyse des Einflusses demografischer Faktoren auf die Glaubwürdigkeitsbewertung von Websites Das Papier präsentiert Ergebnisse eines Experiments, das 2013 über die Amazon Mechanical Turk Platform (www.mturk.com) durchgeführt wurde, um einen Klassifikator zu erstellen, der Fehleinschätzungstendenzen bei der Bewertung der Glaubwürdigkeit von Online-Inhalten vorhersagt. Das auf groben Sets basierende Modul verarbeitet demographische Variablen, die jeden Teilnehmer beschreiben und sagt seine/ihre Tendenz zu Fehleinschätzungen voraus. Die Datenerhebungsmethode und die Datensatzvorbereitung werden ausführlich beschrieben. Als nächstes wird die grobe Set-Methodik vorgestellt, die den Schulungsprozess und die Validierung unter Verwendung verfügbarer Daten erklärt. Experimentelle Ergebnisse werden im Detail präsentiert und zeigen die Klassifikationsgenauigkeit für verschiedene Konfigurationen von Grobsatzalgorithmen. Die Analyse der Bedeutung nachfolgender demographischer Variablen für die Vorhersageeffizienz wird ebenfalls diskutiert. Das Papier wird mit Zukunftsaussichten und zukünftigen Anwendungen der implementierten Methodik abgeschlossen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07227-2_7 4398fa74906bb8cec359a22b6347ab41;de;;;3.5.;5.3.;;Bewertung der Benutzererfahrung Die Erforschung der haptischen Interaktion hat eine sehr lange Geschichte. Die Integration von haptischer Interaktion und User Experience ist auch heute noch eine zentrale Herausforderung im Bereich der Mensch-Maschine-Interaktion. Im gesamten Interaktionsprozess wird der Status von Interaktionsmodellen aus der Industrie meist als „visuell als Basis, haptisch und akustisch als Assist“ dargestellt. In diesem Kapitel werden Definition, Bedeutung und zukünftige Entwicklungsrichtung der User Experience aus der Perspektive der Nutzer diskutiert. Die Methoden zur Bewertung der Benutzererfahrung in verschiedenen haptischen Schnittstellen werden tief erforscht. Von außen nach innen, von der Verhaltensbeobachtung bis zur physiologischen Messung, wird anhand verschiedener Fallstudien diskutiert, welche Art von qualitativer und quantitativer Forschung helfen kann, die haptische Wahrnehmung, das emotionale Erleben und die Immersion des Benutzers zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-68948-3_6 475e604da458294f60e7c3131d02de27;de;;;3.5.;5.3.;;Empirische Modellierung und die Grundlagen der Künstlichen Intelligenz Dieses Papier schlägt Empirical Modeling (EM) als mögliche Grundlage für die KI-Forschung außerhalb des logistischen Rahmens vor. EM bietet Prinzipien zum Konstruieren von physikalischen Modellen, typischerweise computerbasiert, indem Erfahrung in Form von drei grundlegenden Konzepten konstruiert wird: Observables, Dependency und Agency. EM wird im Kontext von Logikismuskritiken aus verschiedenen Quellen diskutiert, mit besonderem Bezug auf die fünf grundlegenden Fragen, die Kirsh in seinem Artikel aufwirft;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48834-0_18 658cf2c7a938f446eada9e7b885ba0f3;de;;;3.5.;5.3.;;KI-basierter technischer Ansatz zur Gestaltung mobiler Entscheidungshilfen Conversational Voice User Interfaces (VUIs) helfen uns heutzutage bei der Ausführung von Aufgaben in einer Vielzahl von Domänen. Während es mehrere Bemühungen um die Gestaltung von Dialogsystemen und Konversationsabläufen gegeben hat, sind nur wenige Informationen über technische Konzepte verfügbar, um kritische Informationen zu extrahieren, um die Bedürfnisse der Benutzer zu erfüllen. Damit Conversational VUIs angemessen als Entscheidungshilfe funktionieren, ist künstliche Intelligenz (KI), die verschiedene Entscheidungsstrategien der Benutzer erkennt und unterstützt, ein entscheidender Bedarf. Nach dem von Kwon et al. [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-23528-4_23 0a195cf0be23cf3160ac67faa0b0391e;de;;;3.5.;5.3.;;"Android arete: Auf dem Weg zu einer Tugend-Ethik für Computeragenten Traditionelle Ansätze der Computerethik betrachten Computer als Werkzeuge und konzentrieren sich daher auf die Ethik ihres Gebrauchs. Alternativ könnte Computerethik stattdessen als eine Studie über die Ethik von Computeragenten verstanden werden, die beispielsweise die verschiedenen Eigenschaften und Verhaltensweisen untersucht, die einem solchen Agenten bei der Erreichung seiner Ziele zugute kommen könnten. In diesem Aufsatz identifiziere ich eine Liste von Eigenschaften von Computeragenten, die ihre Verfolgung ihres Ziels erleichtern, und behaupte, dass diese Eigenschaften als Tugenden im Rahmen der Tugendethik verstanden werden können. Dieser Rahmen umfasst vier große Kategorien – handelnd, sozial, ökologisch und moralisch –, von denen jede als ein Spektrum von Tugenden verstanden werden kann, das zwischen zwei extremen Unterkategorien liegt. Obwohl die Verwendung eines Tugend-Frameworks eher metaphorisch als wörtlich ist, argumentiere ich, dass eine Studie über Android Arete durch die Bereitstellung eines Rahmens zur Identifizierung und Kritik von Annahmen darüber, was ein ""guter"" Computer ist, Fokus und Richtung für die Entwicklung zukünftiger Computeragenten bietet.";-;-;-;https://link.springer.com/article/10.1023/A%3A1013805017161 c09c70fc21b9ffa986b279ca69c15c10;de;;;3.5.;5.3.;;: Sichere Smartphone-gestützte Anmeldung auf kompromittierten Maschinen Bei modernen Angriffen ist das Ziel des Angreifers oft das illegale Sammeln von Benutzerdaten wie Passwörtern oder Browser-Cookies von einem kompromittierten Webbrowser. Ein Angreifer kompromittiert den Computer zuerst durch eine Art von Angriff und nutzt dann die Kontrolle über das System, um interessante Daten zu stehlen, die er für andere Arten von Angriffen verwenden kann (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37300-8_11 b232756d953e638507b4d828c270fd91;de;;;3.5.;5.3.;;Online-FAQ-Chatbot für den Kundensupport Chatbots und Konversationssysteme werden zu einem wichtigen Forschungsgebiet, und viele Unternehmen beginnen, ihre Fähigkeiten zur Bewältigung grundlegender Kommunikationsaufgaben zu nutzen. Mit einer Vielzahl verfügbarer Frameworks für die Chat-Bot-Entwicklung von Technologiegiganten können Unternehmen schnell und bequem ihre eigenen Systeme erstellen. Diesen Frameworks fehlt jedoch oft ein richtiger Satz ganzheitlicher Tools, um einen Chatbot zu erstellen, der überschaubar, lernfähig und skalierbar ist. Daher werden häufig zusätzliche Mechanismen des maschinellen Lernens benötigt, um die Leistung zu verbessern. In diesem Whitepaper demonstrieren wir ein Chatbot-System, das maschinelles Lernen verwendet, um häufig gestellte Fragen (FAQs) von unserer Schulwebsite zu beantworten. Das System umfasst verschiedene Arten von Benutzerabfragen und eine Komponente zur Vektorähnlichkeitsanalyse, um lange und komplexe Benutzerabfragen zu handhaben. Darüber hinaus wird das DialogFlow-Framework von Google zur Intention Detection verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9323-9_21 f1d6fa2bb31ff1930a4cf27cf6c785a9;de;;;3.5.;5.3.;;Theorie zur Erforschung der Akzeptanz und Einführung digitaler Lehrbücher: Ein Leitfaden für die Buchverlagsbranche Eine unsichere Welt aufgrund der Covid-19-Pandemie veranlasst die Verlage, bei der Gestaltung des digitalen Lehrbuchs die beste Lösung zu finden, um den neuen Normen der Schüler gerecht zu werden. Daher ist es sehr wichtig, die Theorien der Benutzerakzeptanz und der Technologieakzeptanz zu verstehen. Ziel dieser Studie war es daher, die vorhandene Literatur zur Theorie zu analysieren, die zur Untersuchung der Akzeptanz und Akzeptanz digitaler Lehrbücher bei Studierenden verwendet wird. 32 Studien, die sich an PRISMAs Statement of Preferred Reporting Articles for Systematic Reviews and Meta-Analysis orientierten, wurden für die systematische Auswertung von Scopus- und Web of Science-Datenbanken gewürdigt. Diese Arbeit lieferte zwei Hauptbeiträge. Erstens lieferte die Studie komprimierte Informationen über die Theorie, die bei der Akzeptanz und Einführung der Nutzung digitaler Lehrbücher verwendet wird, die die Herausgeber bei der Gestaltung des digitalen Lehrbuchs anleiten werden. Zweitens lieferten die Ergebnisse Erkenntnisse über die Relevanz eines neuen Aspekts für die zukünftige Forschung im Kontext digitaler Lehrbücher.;-;-;-;https://link.springer.com/article/10.1007/s12109-020-09742-0 562fbb0427485d1213f120b9a23703ca;de;;;3.5.;5.3.;;Gerätelose Aktivitätserkennung: Eine Umfrage Mit der zunehmenden Anzahl von WIFI-Hotspots und Videoüberwachungsgeräten hat die gerätelose Aktivitätserkennung basierend auf Video- und WIFI-Signalen breite Aufmerksamkeit auf sich gezogen. Um die aktuelle Arbeit zur gerätefreien menschlichen Bewegungserkennung und den zukünftigen Entwicklungstrend der gerätelosen Wahrnehmung besser zu verstehen, bietet dieses Papier einen detaillierten Überblick über bestehende videobasierte und WIFI-basierte verwandte Arbeiten. Inzwischen wird das Prinzip der gerätelosen Aktivitätserkennung gründlich analysiert. Wir haben die bestehenden Arbeiten in verschiedenen Aspekten verglichen. Schließlich wird durch die Analyse der Mängel der bestehenden Verfahren die zukünftige Forschungsrichtung der gerätefreien Bewegungserkennung vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4214-9_17 df3ad6f4e37e8e9aab4385d0a3900dd6;de;;;3.5.;5.3.;;Automatisierter Klassifikator-Entwicklungsprozess zur Erkennung von Buchseiten aus Videoframes Eine der neuesten Entwicklungen von Verlagen ist die Einführung von Mixed und Augmented Reality in ihre Printmedien (z. B. zur Produktion von Augmented Books). Ein wichtiges Computervisionsproblem, mit dem sie konfrontiert sind, ist die Klassifizierung von Buchseiten aus Videobildern. Das Problem ist nicht trivial, zumal typische Trainingsdaten auf nur ein digitales Original pro Buchseite beschränkt sind, während der trainierte Klassifikator für den Echtzeiteinsatz auf mobilen Geräten geeignet sein sollte, wo die Kamera unterschiedlichsten Bedingungen ausgesetzt werden kann Rechenressourcen sind begrenzt. In diesem Artikel gehen wir dieses Problem an, indem wir einen automatisierten Klassifikator-Entwicklungsprozess vorschlagen, der es ermöglicht, Klassifizierungsmodelle zu trainieren, die in Echtzeit mit hoher Benutzerfreundlichkeit auf Low-End-Mobilgeräten laufen und eine durchschnittliche Genauigkeit von 88,95 % auf unserem intern entwickelten Testset erreichen bestehend aus über 20 000 Bildern aus echten Videos von 5 Büchern für Kinder. Gleichzeitig zeigen Bereitstellungstests, dass sich die Zeit für den Klassifikator-Entwicklungsprozess ungefähr um das 16-fache verringert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-55814-7_14 dfced06b683c76e79b350478a2945347;de;;;3.5.;5.3.;;Unterstützen Sie fallbasierte authentische Lernaktivitäten: Ein Tool zur kollaborativen Fallkommentierung und ein kollaborativer Fallersteller Fälle sind Geschichten über bestimmte Aktivitäten einer Praxis in der Praxis mit dem Zweck, zu erziehen. Häufig mit kontextbezogenen Hintergrundinformationen, stellen Fälle Problemsituationen und Expertenlösungen vor. Fallstudien bieten den Studierenden die authentische Lernerfahrung, „zu sehen“, wie Experten Designprojekte in der Praxis umsetzen. In diesem Papier stellen wir unsere laufende Arbeit an der Gestaltung fallbasierter authentischer Lernaktivitäten in Usability Engineering (UE)-Kursen und der Entwicklung kollaborativer Tools zur Unterstützung der Aktivitäten vor. Wir beschreiben ein kollaboratives Fallkommentar-Tool, das es den Studierenden ermöglicht, die Dokumente aus einer vorhandenen Usability-Fallbibliothek sowohl synchron als auch asynchron gemeinsam zu durchsuchen und zu kommentieren, und ein kollaboratives Fallerstellungstool, das den Studierenden einen virtuellen Arbeitsbereich bietet, um gemeinsam einen Fall basierend auf ihr authentisches Designprojekt. Wir diskutieren drei gemeinsame Aktivitäten zur Fallkommentierung im UE-Kurs im Frühjahr 2006 und eine gemeinsame Aktivität zur Fallbildung im UE-Kurs im Herbst 2006.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73111-5_42 c66cedf15354d1a03e734352d11f48a6;de;;;3.5.;5.3.;;Eine operative Definition des Kontexts Die Definition von Kontext hat im Forschungsgebiet des kontextbewussten Computing eine Evolution erfahren, leidet aber immer noch an Allgemeingültigkeit oder Unvollständigkeit. Darüber hinaus werden viele Definitionen durch die einfache Implementierung getrieben. Dieses Papier stellt zwei Erweiterungen verfügbarer Kontextdefinitionen vor, die Benutzern kontextsensitiver Anwendungen ein natürliches Verständnis dieses Konzepts vermitteln und die Entwicklung dieses Konzepts für Softwareentwickler solcher Anwendungen erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74255-5_42 c3c68a6960d625b52c47ba6317e60500;de;;;3.5.;5.3.;;Bewertung eines gemischten Kurses für japanische Englischlerner: Warum Qualität zählt Mit dem Anstieg der Zahl der Blended-Studiengänge im Hochschulbereich in den letzten Jahren wird es immer wichtiger, die Qualität der Online-Lehre zu sichern, indem Blended- (oder Hybrid-)Studiengänge unter verschiedenen Aspekten bewertet werden, wie z. verwendete Lernmaterialien und Technologien sowie pädagogische und technische Unterstützung. Dieser Artikel beschreibt die Evaluierungsphase eines gemischten Englischkurses für allgemeine akademische Zwecke (EGAP), der sich an japanische Studenten im zweiten Jahr richtet, die hauptsächlich aus den Fakultäten für Jura, Literaturwissenschaft, Wirtschaftswissenschaften und Humanwissenschaften der Universität Osaka stammen. In dieser Studie verfolgten die Forscher einen integrativen Ansatz für die gemischte Kursbewertung. Um die Studienqualität von Anfang an sicherzustellen, wurde die fünfte Ausgabe der Rubrik „Quality Matters Higher Education Course Design“ als Hauptreferenz herangezogen. Im Rahmen des Evaluationsprozesses wurde auch die Wahrnehmung des Nutzens der Lehrveranstaltung durch die Studierenden quantitativ und qualitativ durch ein Instrument der Einstellungserhebung und offene Reflexionsfragen gemessen. Schließlich wurde der gemischte Kurs von einem zertifizierten Gutachter von Quality Matters (QM) begutachtet, nachdem er von den Forschern selbst begutachtet worden war. Die Ergebnisse der Evaluationsumfrage zeigten, dass die Studierenden insgesamt mit dem Kurs zufrieden waren, und ihre Antworten auf die offenen Fragen gaben weitere Einblicke in die pädagogischen und technischen Schwierigkeiten, auf die sie stießen. Auch das QM-Peer-Review ergab eine Punktzahl von 70 von 99, was dazu führte, dass die wesentlichen Standards nicht erfüllt wurden. Die Kommentare des Peer-Reviewers leiteten jedoch die Verfeinerungen und Verbesserungen des Studiendesigns, und der Studiengang erfüllt derzeit alle Anforderungen der Rubrik Studiendesign für Hochschulen (Fünfte Ausgabe) nach Änderung. Diese Studie diskutiert die Implikationen für Design, Entwicklung und Evaluation von Englisch-als-Fremdsprache-Blended-Kursen und gibt praktische Tipps für Online-/Blended-Kurs-Designer. Durch die mehrmalige Durchführung mit verschiedenen Studierendengruppen kann das bestehende Studium in Zukunft weiter verfeinert werden.;-;-;-;https://link.springer.com/article/10.1186/s41239-019-0137-2 e3fdeb2a5eb71e3fccddd359450bfca5;de;;;3.5.;5.3.;;Ein Rahmen für die Arbeit mit digitalisierten Artefakten des Kulturerbes In diesem Beitrag präsentieren wir unsere Arbeit bei der Konzeption, Implementierung und Evaluierung einer Reihe interaktiver 3D-Raummessinstrumente im Kontext der Cultural Heritage Toolbox (CH Toolbox), einem Rahmen für die computergestützte Kulturerbeforschung. Unsere Anwendung verwendet eine bimanuelle, Spaceball- und Maus-gesteuerte Benutzeroberfläche, um dem Benutzer bei der Verwaltung von visualisierten 3D-Modellen zu helfen, die aus echten Artefakten digitalisiert wurden. Wir haben einen virtuellen Radiusschätzer entwickelt, der für die Analyse unvollständiger Teile radialer Artefakte nützlich ist, und ein virtuelles Maßband, das für die Messung geodätischer Abstände zwischen zwei Punkten auf der Oberfläche eines Artefakts nützlich ist. Wir haben die Werkzeuge am Spezialfall der Keramikanalyse getestet.;-;-;-;https://link.springer.com/chapter/10.1007/11902140_43 87b4e96094be2711a80fbf4d197000ab;de;;;3.5.;5.3.;;RE-KONZEPTUALISIEREN ŅSPASSņ Dieses Papier berichtet über die Arbeit aus der ersten Phase eines Projekts zur Untersuchung von filmbasiertem Spaß, der sich auf Inhalte und die Bereitstellung über Breitband zu Hause und auf Mobiltelefone konzentriert. Nach der Betrachtung von „Spaß“ wird der sich ändernde technische und soziale Kontext digitaler Technologien und digitaler Erfahrungen untersucht, um zu verstehen, wie sich die angenehmen Erfahrungen der Menschen ändern. Dann wird ein detailliertes Szenario dessen, was hier als erlebnisreiche Home-Benutzeroberfläche bezeichnet wird, vorgestellt, bevor einige der Designprobleme hervorgehoben werden. Der Artikel schließt mit der Identifizierung der nächsten Phase der Forschung, einer Auseinandersetzung mit der Erfahrung der Menschen mit Filminhalten.;-;-;-;https://link.springer.com/chapter/10.1007/11402985_14 6b20e598471db91303c342969d4474b9;de;;;3.5.;5.3.;;Verteilte kollaborative Hausaufgaben in einem problembasierten Usability-Engineering-Kurs Studententeams eines Usability-Engineering-Studiengangs der oberen Abteilung verwendeten eine kollaborative Umgebung, um eine Reihe von drei verteilten kollaborativen Hausaufgaben durchzuführen. Die Aufgaben bestanden in fallbasierten Analysen, die mit einem Puzzle-Design strukturiert wurden, den Studenten wurde eine kollaborative Softwareumgebung zur Verfügung gestellt und in ein einfaches Modell der Zusammenarbeit eingeführt. Wir fanden heraus, dass die Schüler das Kooperationsmodell nutzen konnten, obwohl die Qualität ihrer Zusammenarbeit sowohl vor als auch nach dem Training schlecht war. Wir fanden heraus, dass die Schüler die verteilten kollaborativen Hausaufgaben mit unserer kollaborativen Softwareumgebung durchführen konnten, obwohl sie häufig persönliche Interaktionen verwendeten und sich manchmal auf diese verließen. Der Einsatz von Chat zur Aufrechterhaltung des Teambewusstseins und zur Koordinierung der Entwicklung gemeinsamer Dokumente war als Praxis unserer erfolgreichsten Teams besonders bemerkenswert. Die Schüler berichteten von einer Vielzahl von Vorteilen und Herausforderungen bei der Durchführung der verteilten kollaborativen Hausaufgaben. Wir spekulieren über zukünftige Richtungen für die Vermittlung von Fähigkeiten zur Zusammenarbeit und für eine bessere Unterstützung des Teambewusstseins und der Arbeitsabläufe bei verteilten kollaborativen Hausaufgaben.;-;-;-;https://link.springer.com/article/10.1007/s10639-013-9304-6 80540a741cd6b73402c43cf7da338045;de;;;3.5.;5.3.;;Perspektiven der Studierenden zum Nutzen mobiler Anwendungen in der Hochschulbildung Der Einsatz von Informations- und Kommunikationstechnologien (IKT) in der Pädagogik und beim Lernen im Hochschulbereich unterstützt das Konzept des Technology Enhanced Learning (TEL). Mobile Geräte und Anwendungen mit Bildungszwecken sind Teil der Nutzung von Online-IKT und ermöglichen autonomes Lernen in der Bildung. Die Nutzung mobiler Anwendungen für die Bildung hat sich in den letzten Jahren deutlich verbessert. Es gibt jedoch noch eine Lücke, in der dieses Konzept noch nicht allgemein bekannt ist und von Lernenden häufig erlebt wird. Um TEL in der Hochschulbildung zu unterstützen und diese Lücke zu schließen, plant die Fakultät für Computer- und Systemwissenschaften der Universität Stockholm in Schweden die Entwicklung einer mobilen Anwendung für das SciPro-System. SciPro ist die computergestützte Kommunikationsplattform zur Verbesserung der Qualität von Abschlussarbeiten und zur Erleichterung des autonomen Lernens im Hochschulbereich, sowohl auf Bachelor- als auch auf Master-Ebene. Diese Studie zielt darauf ab, die Perspektiven der Lernenden zum Nutzen mobiler Anwendungen in der Hochschulbildung zu untersuchen und zu bewerten und insbesondere die SciPro-Funktionalitäten zu unterstützen. Fast 95 % der Befragten nutzen mobile Anwendungen für die Hochschulbildung und glauben an den Nutzen mobiler Anwendungen zur Unterstützung des Lernens in der Hochschulbildung. Allerdings gibt es einige wenige Befragte (weniger als 5 %), die diese Meinung nicht vollständig teilen. Mehr als 70 % der Befragten sind der Meinung, dass eine mobile SciPro-Anwendung einen Mehrwert für ihren Abschlussarbeitsprozess darstellt. Auch wenn es sich nicht direkt auf die Geschwindigkeit und Qualität der Arbeit auswirkt, wird es die Mobilität, Verfügbarkeit und Flexibilität beim Zugriff auf Informationen und Ressourcen in SciPro erhöhen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03737-0_6 106c84dbdd75426c5804a73c3ee99257;de;;;3.5.;5.3.;;NewYouthHack: Nutzung von Design Thinking zur Neugestaltung von Siedlungsdienstleistungen für neue Kanadier In den Jahren 2018–2019 haben wir Design Thinking (DT) angewendet, um Siedlungsdienstleistungen für junge Flüchtlinge und Einwanderer in Kanada neu zu gestalten. DT gewinnt als praktischer Ansatz zur Einbeziehung menschlicher Faktoren in den Designprozess weiterhin Anhänger. Eine Erkenntnis, die DT motiviert, ist, dass Design eine Reihe von Experimenten ist, in denen wir mehr über unsere Benutzer erfahren. Iteratives Prototyping und Benutzerfeedback sind von größter Bedeutung. Aber wir wollten ihnen auch Karrierewege im Zusammenhang mit Softwaredesign und -entwicklung näher bringen. In diesem Papier berichten wir über (1) den NewYouthHack-Prozess, (2) die daraus resultierende App und die zentrale Rolle sozialer Interaktionen und (3) das Framework, das wir entwickelt haben, um diese Arbeit zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37484-6_3 f6d91d8911a687d4dea75eaab24121fa;de;;;3.5.;5.3.;;Anders als andere Medien: Digitale Technologie und die Transformation des Bildungspublikations Dieser Artikel vergleicht das steigende Interesse an Bildungstechnologien mit der technologiegetriebenen Transformation von Geschäftsmodellen in inhaltsorientierten Sektoren wie Musik, Film und Fernsehen. Mit Blick auf den technologischen Einfluss auf pädagogische Lernmaterialien argumentiert er, dass der Vergleich mit Anbietern wie iTunes und Netflix grundsätzlich fehlerhaft ist. In anderen inhaltsbasierten Sektoren hat die Technologie die Wertschöpfungskette und das Benutzererlebnis erheblich verbessert, ohne den Inhalt von Musik, Film oder Büchern grundlegend zu verändern. Bildung ist jedoch anders. Die Bildungstechnologie muss die Natur des Bildungsprozesses verändern. Beim Lernen muss die Beziehung zwischen Schüler und Lerninhalt interaktiv und differenziert sein. Die erfolgreichsten neuen Bildungstechnologien zeigen, wie Verlage individuelle Lernerfahrungen schaffen können, indem sie Technologien einsetzen, um Inhalte zu gestalten, die den tatsächlichen Bedürfnissen echter Schüler entsprechen.;-;-;-;https://link.springer.com/article/10.1007/s12109-015-9423-6 cd33dea9f2c8466da17e70743c2c89c9;de;;;3.5.;5.3.;;Forschung zur Anwendung der VR-Technologie bei der Erhaltung der Kulturstätten von Koguryo Mit der kontinuierlichen Entwicklung der digitalen Informationstechnologie ist die Digitalisierung zu einem der wichtigsten Mittel zum Schutz des touristischen Erbes geworden. Die Virtual-Reality-Technologie hat als neuartige Technologie zum Schutz des kulturellen Erbes die Aufmerksamkeit der Tourismusbranche auf sich gezogen. Die kontinuierliche Weiterentwicklung dieser Technologie wird die Verbesserung der Schutzarbeit für das touristische Kulturerbe weiter vorantreiben. Dieser Beitrag erläutert zunächst die Notwendigkeit des Einsatzes von Virtual-Reality-Technologie bei der Erhaltung der Kulturstätten von Koguryo, konstruiert das digitale Langzeitarchivierungssystem für Koguryo auf der Grundlage der Virtual-Reality-Technologie und erklärt schließlich die Anwendung der Virtual-Reality-Technologie im digitalen Langzeitarchivierungssystem der kulturellen Stätten von Koguryo.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3648-5_145 483df04f601d6b5e7a988dac6f71ad88;de;;;3.5.;5.3.;;Erkunden von Interaktionen, die für Mixed Reality 3D-Modellierungssysteme spezifisch sind Dieses Papier schlägt eine Schnittstelle vor, die speziell auf die Erstellung eines designorientierten realistischen Mixed Reality (MR)-Arbeitsbereichs zugeschnitten ist. Eine MR-Umgebung impliziert eine natürliche Mischung zwischen virtuellen und realen Objekten. Wir bewundern die Erweiterung realer Objekte in die virtuelle Welt, indem wir virtuelle Objekte daran anhängen. Um eine realistische Umgebung zu schaffen, werden auch die Probleme der Okklusion zwischen realen und virtuellen Objekten angesprochen. Unser Prototypsystem bietet intuitivere Eingabemethoden als herkömmliche Desktop-Modellierer oder immersive Virtual Reality (VR)-Systeme und ermöglicht dem Benutzer eine genaue Wahrnehmung der modellierten Formen. Somit kann der Benutzer die räumliche Lage und die tatsächlichen Größen der Modelle richtig erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24837-8_12 b60c793bdd6a36242105f1e22d19869f;de;;;3.5.;6.1.;2.1.;Die Zukunft von CAAD: Vom computergestützten Design zur computergestützten Zusammenarbeit Die primäre Verwendung von Computern in der Bauindustrie hat sich in den letzten vier Jahrzehnten von der Bewertung vorgeschlagener Konstruktionslösungen zu ihrer grafischen (und anderen) Darstellung und in jüngerer Zeit zur Erleichterung der Zusammenarbeit zwischen den verschiedenen Fachleuten verlagert, die an den Designprozess. Das Papier argumentiert, dass das, was wie eine Akzentverschiebung erscheinen mag, tatsächlich eine Konvergenz auf ein einziges, ursprüngliches Ziel darstellt: den Einsatz von Computern, um Designern zu helfen, die Qualität, Erwünschtheit und die Auswirkungen ihrer Kreationen zu beurteilen. Der Beitrag zeigt, wie die ehemals unabhängigen Komponenten zu einer integrierten kollaborativen Designumgebung zusammengefügt werden können, in der sie aufeinander aufbauen und sich gegenseitig verstärken. Darüber hinaus argumentiert das Papier, dass diese Konvergenz die Zukunft der CAAD-Forschung und -Entwicklung darstellt und die angemessene Antwort auf die kommenden Bedürfnisse der Bauindustrie bietet, deren Produkte zu komplex geworden sind und zu viele Anforderungen erfüllen müssen, als dass ein Fachmann alle bewältigen kann selbst. Das Papier argumentiert, dass weitere Verbesserungen der Gesamtqualität der Produkte und des Prozesses ihres Designs nur dann entstehen, wenn die bisher getrennten Lösungen zusammen als integrale Bestandteile einer Gesamtlösung betrachtet werden. Der Artikel beschreibt die Bemühungen der CAD Research Group in Berkeley in den letzten sechs Jahren zur Entwicklung einer integrierten kollaborativen Entwurfsumgebung, die die multidisziplinäre, asynchrone Planung von Gebäuden erleichtern kann. Die Umgebung umfasst mehrere semantisch reiche, gemeinsam genutzte Produktdarstellungen, ein Netzwerk verteilter Bewerter sowie grafisch verbesserte Kollaborations- und Verhandlungstools.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5047-1_2 7cf2f97113bc8fc17e90aadd6fc095ea;de;;;3.5.;6.1.;2.1.;Eine systematische Mapping-Studie der Cloud Large-Scale Foundation – Big Data, IoT und Echtzeitanalyse Cloud Computing ist ein einzigartiges Konzept, das es ermöglicht, Analysen und Daten einfach zu manipulieren. Allerdings ist es manchmal rigoros, ein Forschungsthema in Bezug auf Cloud festzulegen. Eine systematische Karte ermöglicht die Kategorisierung des Studiums in einem bestimmten Bereich unter Verwendung eines exklusiven Schemas, das es ermöglicht, Lücken für die weitere Forschung zu identifizieren. Darüber hinaus kann eine systematische Kartierungsstudie einen Einblick in den Stand der Forschung geben, die in jedem Interessenbereich durchgeführt wird. Die Ergebnisse einer solchen Studie werden anhand einer Karte dargestellt. Die in dieser Studie verwendete Methode umfasste eine Analyse unter Verwendung von drei Kategorien, nämlich Forschungs-, Themen- und Beitragsfacetten. Themen wurden aus den Primärstudien gewonnen, während der Forschungstyp wie Evaluation und der Beitragstyp wie Werkzeug in die Analyse einflossen. Das Ziel dieses Papiers war es, eine systematische Kartierungsstudie der Cloud-Großstiftung durchzuführen. Dies gab einen Einblick in die Häufigkeit der Arbeiten, die in diesem Studienbereich durchgeführt wurden. Die Ergebnisse zeigten, dass die meisten Veröffentlichungen zu IoT in Bezug auf das Modell mit 12,26%, mehr Veröffentlichungen zu Datenanalysen und Metrik mit 2,83 %, mehr Artikel zu Big Data in Bezug auf das Tool mit 11,32%, Methode mit 9,43 % und mehr Forschung zum Datenmanagement in Bezug auf den Prozess mit 6,6 %. Dieses Ergebnis wird für die Cloud-Forschungsgemeinschaft, Dienstanbieter und Benutzer gleichermaßen wertvoll sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9949-8_24 51c30c5be739f8936ecf992b9436e066;de;;;3.5.;6.1.;2.2.;Wiederverwendung archivierter qualitativer Daten – wo, wie, warum? „Qualitative Daten“ sind das zentrale Thema dieses Artikels. Qualitative Daten sind eine besondere Kategorie von Daten innerhalb der Sozialwissenschaften, in denen Daten überwiegend quantitativer Natur waren. Qualitative Daten könnten die sozialwissenschaftliche Forschung in vielerlei Hinsicht bereichern. Die Wiederverwendung dieser besonderen Art von Daten ist jedoch eine neue Herausforderung für sozialwissenschaftliche Datenarchive. Für den Umgang mit diesen Daten muss eine neue Methodik entwickelt werden, die auf einer Kombination aus sozialwissenschaftlicher Methodik und traditionellen Archivbeschreibungen basiert. Eine weitere in dem Artikel diskutierte Frage ist, was der beste Ort für die Archivierung und Verbreitung qualitativer Daten sein sollte: in wissenschaftlichen (sozialwissenschaftlichen) Datenarchiven oder in den eher traditionellen Bibliotheken und Archiven?;-;-;-;https://link.springer.com/article/10.1007/s10502-006-9038-y f3ee606465da67b47f8cbfe73eadb40a;de;;;3.5.;6.1.;2.2.;Infrastrukturen und Dienste für das Management der Fernerkundungsdatenproduktion in mehreren Satellitenrechenzentren Da die Zahl der Satellitensensoren und Rechenzentren kontinuierlich steigt, wird es zum Trend, riesige Fernerkundungsdaten aus mehreren verteilten Quellen zu verwalten und zu verarbeiten. Die Kombination mehrerer Satelliten-Rechenzentren für die kollaborative Verarbeitung von massiven Fernerkundungsdaten (RS) steht jedoch noch vor vielen Herausforderungen. Um die enormen Datenmigrationsmengen zu reduzieren und die Effizienz des kollaborativen Prozesses über mehrere Rechenzentren zu verbessern, stellt dieser Beitrag die Infrastrukturen und Dienste des Datenmanagements sowie des Workflow-Managements für die massive Fernerkundungsdatenproduktion vor. Eine dynamische Datenplanungsstrategie wurde verwendet, um die Duplizierung von Datenanfragen und Datenverarbeitung zu reduzieren. Und durch die Kombination der räumlichen Metadaten-Repositorien der Fernerkundung und des Gfarm-Grid-Dateisystems wurde die einheitliche Verwaltung der Rohdaten, Zwischenprodukte und Endprodukte in der gemeinsamen Verarbeitung erreicht. Darüber hinaus wurden mehrstufige Aufgabenauftrags-Repositorys und Workflow-Vorlagen verwendet, um den Produktionsworkflow automatisch aufzubauen. Mit Hilfe spezifischer heuristischer Scheduling-Regeln wurden die Produktionsaufgaben schnell ausgeführt. Letztendlich wurde das Multi-Datacenter Collaborative Process System (MDCPS) für die groß angelegte Fernerkundungsdatenproduktion basierend auf einem effektiven Management von Daten und Arbeitsabläufen implementiert. Infolgedessen zeigte die Leistung von MDCPS in der Experimentierumgebung, dass diese Strategien die Effizienz der Co-Verarbeitung über mehrere Rechenzentren hinweg erheblich verbessern können.;-;-;-;https://link.springer.com/article/10.1007/s10586-016-0577-6 8fcf43ea123ec4372eb72a311293e94c;de;;;3.5.;6.1.;2.3.;Digitalisierung der Kontaktverfolgung: Balance zwischen Datenschutz und Nutzen für die öffentliche Gesundheit Die COVID-19-Pandemie hat die langjährige Praxis der Kontaktverfolgung im öffentlichen Gesundheitswesen ins öffentliche Rampenlicht gerückt. Während die Kontaktverfolgung und Falluntersuchung sorgfältig zum Schutz der Privatsphäre konzipiert wurden, zeigt die enorme Menge an Rückverfolgung, die als Teil der Pandemiereaktion in den Vereinigten Staaten durchgeführt wird, potenzielle Bedenken in Bezug auf Datenschutz, Rechtmäßigkeit und Gerechtigkeit. Die Kontaktverfolgung während der Pandemie hat besondere Aufmerksamkeit für den neuen Einsatz digitaler Technologien gewonnen – sowohl auf Verbraucherseite in Form von Anwendungen zur Meldung von Expositionen als auch für Gesundheitsbehörden, da digitale Fallmanagement-Softwaresysteme eine massive Skalierung von Operationen ermöglichen. Während die Verbraucheranwendungsseite der digitalen Innovation die Nachrichten und den akademischen Diskurs zum Datenschutz dominiert hat, werden die Menschen wahrscheinlich intensiver mit öffentlichen Gesundheitsbehörden und deren Nutzung digitaler Fallmanagementsysteme interagieren. Die effektive Nutzung des digitalen Fallmanagements für die Kontaktverfolgung erfordert eine Überprüfung der bestehenden rechtlichen Rahmenbedingungen, des Datenschutzes und der Sicherheitspraktiken für die Verwaltung sensibler Gesundheitsdaten. Das Ausmaß dieser Instrumente und die Anforderungen einer beispiellosen Reaktion auf eine Pandemie führen durch die Sammlung riesiger Datenmengen zu neuen Risiken und erweitern die Anforderungen für einen geschickteren Datenaustausch zwischen den Rechtsordnungen. Gesundheitsbehörden müssen ihre bewährten Verfahren für die Datenerhebung und den Datenschutz stärken, auch wenn keine umfassenden oder klaren Leitlinien vorliegen. Dies erfordert eine schwierige Balance zwischen strengem Datenschutz und einer hohen Anpassungsfähigkeit und Agilität.;-;-;-;https://link.springer.com/article/10.1007/s10676-021-09601-2 61d5b8513474901cfe4d2cb4587992c9;de;;;3.5.;6.1.;3.1.;Blindseitig von der Privatsphäre? Digitale Kontaktverfolgung, die Apple/Google API und die neu entdeckte Rolle der Big Tech als globale Gesundheitspolitiker Seit dem Ausbruch von COVID-19 haben Regierungen ihre Aufmerksamkeit auf die digitale Kontaktverfolgung gerichtet. In vielen Ländern hat sich die öffentliche Debatte auf die Risiken konzentriert, die diese Technologie für die Privatsphäre birgt, wobei Befürworter und Experten Alarmglocken über Überwachung und Missionskriechen läuten, die an die Ära nach dem 11. September erinnern. Als Apple und Google im April 2020 ihre Contact-Tracing-API auf den Markt brachten, begrüßten einige der weltweit führenden Datenschutzexperten diese Initiative jedoch für ihre datenschutzwahrenden technischen Spezifikationen. In einer interessanten Wendung wurden die Technologiegiganten als größere Verfechter der Privatsphäre dargestellt als einige demokratische Regierungen. Dieser Artikel schlägt vor, die Apple/Google-API im Sinne eines umfassenderen Phänomens zu betrachten, bei dem Technologieunternehmen in immer neue Bereiche des gesellschaftlichen Lebens vordringen. Aus dieser Perspektive verschafft ihnen der (legitime) Vorteil, den diese Akteure im Bereich der Produktion digitaler Güter erlangt haben, einen (illegitimen) Zugang zu den Bereichen Gesundheit und Medizin und bedenklicher zum Bereich der Politik. Diese Sphärenüberschreitungen bergen zahlreiche Risiken, die durch den Fokus auf Datenschutzverletzungen nicht erfasst werden. Nämlich eine Verdrängung essentieller sphärischer Expertise, neue Abhängigkeiten von Unternehmensakteuren bei der Bereitstellung wesentlicher, öffentlicher Güter, die Gestaltung der (globalen) öffentlichen Politik durch nicht-repräsentative, private Akteure und letztlich die Akkumulation von Entscheidungsmacht über mehrere Sphären. Obwohl die Privatsphäre sicherlich ein wichtiger Wert ist, kann ihre zentrale Bedeutung in der Debatte um die digitale Kontaktverfolgung uns für diese umfassenderen gesellschaftlichen Schäden blind machen und unwissentlich den Weg für immer mehr Sphärenüberschreitungen ebnen.;-;-;-;https://link.springer.com/article/10.1007/s10676-020-09547-x 7d2e46731c534d7b5ed39c1a922efd13;de;;;3.5.;6.1.;3.2.;Stammdatenqualität im Zeitalter der Digitalisierung - Auf dem Weg zur überbetrieblichen Stammdatenqualität in Wertschöpfungsnetzwerken: Eine Problemidentifikation Die zunehmende Digitalisierung in Wirtschaft und Gesellschaft hat zu einschneidenden Veränderungen in den Unternehmen geführt und nahezu alle Unternehmen stehen derzeit vor enormen externen und internen Herausforderungen, um wettbewerbsfähig zu bleiben. Eine dieser Herausforderungen betrifft die Datenqualität in verschiedenen Unternehmenssystemen, sowohl in Unternehmen als auch in ganzen Wertschöpfungsnetzwerken. Da Daten auch weiterhin das Fundament der digitalen Wirtschaft sein werden, ist eine gewisse Datenqualität notwendig, um effiziente Geschäftsprozesse zu gewährleisten. Daher ist ein adäquates Stammdaten-Qualitätsmanagement sowohl auf Unternehmens- als auch auf organisationsübergreifender Ebene unerlässlich. Vor dem Hintergrund einer systematischen Literaturrecherche und Interviewstudie mit mehreren erfahrenen und für das Stammdatenmanagement in ihren Unternehmen verantwortlichen Business-Experten unterstreichen wir nicht nur den Forschungsbedarf zur organisationsübergreifenden Stammdatenqualität, sondern leiten daraus letztlich erste funktionale Anforderungen an Tools, die den interorganisationalen Informationsaustausch in einem Wertschöpfungsnetzwerk unterstützen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-58801-8_9 b753a0f3396bf451d40b1475a2830da8;de;;;3.5.;6.1.;3.2.;Bibliotheken, Urheberrecht und die elektronische Umgebung Dieses Papier wurde für die International Publishers Association erstellt und im April 1996 von ihrem internationalen Komitee angenommen. Das Papier betont, dass die neue elektronische Umgebung ausgereifte internationale Standards des Urheberrechtsschutzes erfordern wird. Verlage haben Bedenken, wie urheberrechtlich geschützte Werke geschützt werden sollten, und begrüßen die Möglichkeit, mit Bibliotheken und Bibliotheksverbänden zusammenzuarbeiten, um die Verwendung digitalisierter Formate zu prüfen, die die Rechte der Urheberrechtsinhaber wahren und gleichzeitig sicherstellen, dass die Verlage ihr Zielpublikum erreichen.;-;-;-;https://link.springer.com/article/10.1007/BF02680574 078810b4649430321135b1a4c16dde44;de;;;3.5.;6.1.;4.2.;SentiBench - ein Benchmark-Vergleich modernster Sentiment-Analysemethoden In den letzten Jahren haben Tausende von wissenschaftlichen Artikeln die Sentimentanalyse untersucht, es sind mehrere Startups entstanden, die Meinungen zu realen Daten messen, und eine Reihe innovativer Produkte zu diesem Thema entwickelt. Es gibt mehrere Methoden zum Messen von Stimmungen, einschließlich lexikalischer und überwachter maschineller Lernmethoden. Trotz des großen Interesses an dem Thema und der großen Popularität einiger Methoden ist unklar, welche Methode besser geeignet ist, um die Polarität (d. h. positiv oder negativ) einer Nachricht zu identifizieren. Dementsprechend ist es dringend erforderlich, einen gründlichen Vergleich der Methoden der Stimmungsanalyse durchzuführen,;-;-;-;https://link.springer.com/article/10.1140/epjds/s13688-016-0085-1 b1adfd9f0febc15351e932e43d64f663;de;;;3.5.;6.1.;4.2.;Erkenntnisse aus einem Jahrzehnt der FLOSS-Datenerfassung Im Jahr 2004 begann ein gemeinsames Forschungsteam der Syracuse University und der Elon University, Daten zu sammeln und zu teilen, um zu verstehen, wie freie Open-Source-Software (FLOSS) hergestellt wird. Dieses Team verkörperte das gleiche FLOSS-Ethos, schuf ein öffentlich zugängliches Repository für seine eigenen Daten und Analysen und ermutigte andere Forscher, es zu verwenden und dazu beizutragen. Dieses Kapitel erzählt, wie das FLOSSmole-Projekt begann, woher die Daten stammen und was wir daraus gelernt haben und wie das Projekt im Laufe der Jahre gewachsen und verändert wurde. Neben der Aufnahme von Momentaufnahmen des aktuellen Zustands der FLOSS-Landschaft dient FLOSSmole auch als Spiegel des größeren FLOSS-Ökosystems, da die Veränderungen in der Mission und den Zielen von FLOSSmole im Laufe der Jahre notwendigerweise einige der kulturellen und technologischen Veränderungen widerspiegeln, die in FLOSS selbst stattfinden . Daher wird sich FLOSSmole auch in Zukunft vielen Herausforderungen stellen, einschließlich der ständigen Notwendigkeit, einen breiteren Zugang sowie ausgefeiltere und relevantere Daten und Analysen bereitzustellen und all dies auf nachhaltige und gemeinschaftsorientierte Weise zu tun.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-59186-5_7 3c9984656e6c55e0f051da9fb34ed0d0;de;;;3.5.;6.1.;4.2.;Open Government: Umwandlung von Daten in städtische Mehrwertdienste Open Data und Open Government sind Themen, die nicht neu sind, aber heute gibt es Initiativen, die Daten in Mehrwertdienste verwandeln. Aber gibt es Beispiele aus der Praxis, in denen diese Dienste die Stadt „smart“ machen? Wir werden Open Urban Government Data im Kontext von E-Government und M-Government definieren. Dieses Kapitel berichtet über eine Untersuchung über die Open Urban Government Data- und Hackathon-Bewegung auf globaler Ebene und wirft einen tieferen Blick auf die realen Beispiele von Amsterdam, Barcelona und Paris. Diskutiert wird, mit welchen Herausforderungen Regierungen bei der Bereitstellung offener Daten konfrontiert sind und welche Rolle Hackathons bei der Entwicklung mobiler Anwendungen auf Basis dieser Daten spielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-287-919-6_11 1b483cbd2d424cf67e816c950d934e95;de;;;3.5.;6.1.;5.2.;Wiki SaGa: Eine interaktive Zeitleiste zur Visualisierung historischer Dokumente Die Suche nach Informationen in einem Archiv digitalisierter historischer Dokumente ist eine sehr häufige Aufgabe. Eine Zeitachsenschnittstelle, die den historischen Inhalt darstellt und dieselbe Suchfunktion ausführen kann, wird Forschern bessere Ergebnisse liefern. In diesem Beitrag wird die Integration von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46578-3_83 ac1c4a57fbd50200d0b40685360620a2;de;;;3.5.;6.1.;6.2.;Open Access im Kontext der sich globalisierenden Welt Globalisierung und Internet sind untrennbar miteinander verbunden. Diese offensichtliche Tatsache hat große Auswirkungen darauf, wie sich die Verlagsbranche in absehbarer Zeit verändern wird. Dieser Wandel mag technologisch bedingt sein, aber es gibt einen Platz für intellektuelle Debatten über die angemessene Regulierung des Bereichs. Dies erfordert eine Prüfung der kommerziellen und moralischen Ansprüche der Autoren bzw. Ersteller und der konventionellen Verlage;-;-;-;https://link.springer.com/article/10.1007/s12109-015-9403-x bc9375872c73a4061569543faca091d6;de;;;3.5.;6.1.;6.2.;Projektbasiertes Lernen mit Betonung offener Ressourcen und studentischer Ideen: Wie kann das Bewusstsein der Schüler für geistiges Eigentum geschärft werden? Dieser Artikel untersucht einen projektbasierten Kurs, der auf der Verwendung offener Ressourcen basiert, bei dem die Studierenden während eines intensiven Zeitraums von 12 Wochen in kleinen Gruppen Open-Data-Anwendungen entwickeln und implementieren. Der Kurs betont die Innovationsfähigkeit der Studierenden und erfordert die Einführung von Technologien, die für die Studierenden normalerweise neu sind. Der Studiengang wird auf Bachelor-Niveau nach einem stark strukturierten Erststudium angeboten, was die Studierenden vor eine große Herausforderung hinsichtlich der Übernahme einer selbstgesteuerten und selbstgesteuerten Arbeitsweise stellt. Der Forschungsschwerpunkt des Artikels liegt auf der Betonung der Rechte des geistigen Eigentums (IPRs) als Lernziel. In der Literatur zur Projektausbildung werden geistige Eigentumsrechte typischerweise in Verbindung mit Kursen diskutiert, in denen Studierende mit externen Kunden zusammenarbeiten. Wir argumentieren, dass der aktuelle Open-Data-Kontext zusammen mit kreativer Gruppenarbeit auch eine angemessene Betonung von IPR-Fragen erfordert. Eine Projektvereinbarungsvorlage und Bildungsaktivitäten werden entworfen und vorgeschlagen, um in von Schülern entwickelten Projekten verwendet zu werden, um das Bewusstsein der Schüler für geistige Eigentumsrechte angemessen zu schärfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-29585-5_17 fb0af9d076e19e37a5df8a980d7a8367;de;;;3.5.;6.1.;6.2.;Metadaten für Großforschungsinstrumente Die Arbeit skizziert die vielfältigen Bemühungen einiger weniger Initiativen für Metadaten und Attributionsmechanismen, die für groß angelegte Instrumente verwendet werden können, die von gemeinsam genutzten Forschungseinrichtungen gehostet werden. Insbesondere wird die Rolle persistenter Identifikatoren und zugehöriger Metadaten in Bezug auf Fälle betrachtet, in denen die Verwendung von Verweisen auf groß angelegte Instrumente Forschungswirkungsstudien und Open Science-Agenda unterstützen kann. Es werden einige Wege für die Einführung von Metadaten von Großinstrumenten mit Hinweisen auf ihre Vorteile und Grenzen skizziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-14401-2_30 3e858ff26e3175743b82cb5c343dee66;de;;;3.5.;6.1.;6.2.;Untersuchung der ethischen, organisatorischen und technologischen Herausforderungen der Kriminalitätskartierung: ein kritischer Ansatz für städtische Sicherheitstechnologien Technologie ist in der aktuellen Polizeipraxis allgegenwärtig und das schon seit langer Zeit. Von CCTV bis Crime Mapping, Datenbanken, Biometrie, Predictive Analytics, Open Source Intelligence, Anwendungen und eine Vielzahl anderer technologischer Lösungen stehen im Mittelpunkt des städtischen Sicherheitsmanagements. Um diese Anwendungen effizient nutzen zu können, müssen jedoch eine Reihe von Herausforderungen hinsichtlich der zu ihrer Verwaltung verwendeten Organisationsstrukturen, ihrer technischen Kapazitäten und Erwartungen sowie der Abwägung positiver und negativer externer Faktoren gestellt werden an der Schnittstelle zwischen Technologie, Gesellschaft und Stadtmanagement. Der Beitrag trägt zu dieser Diskussion bei, indem er die Dynamik untersucht, die die technologische Verbreitung im Bereich der städtischen Sicherheit vorantreibt, die verschiedenen Theorien, die die Beziehung zwischen Kriminalität und Weltraum untermauern, sowie die Geschichte und die technologischen Merkmale von geografischen Informationssystemen, um später spezifische Fallstudien vorzustellen und praktische Beispiele von Crime-Mapping-Systemen. Schließlich befasst sich das Papier kritisch mit Fragen im Zusammenhang mit organisatorischen Zwängen, technologischen Möglichkeiten und gesellschaftlichen Auswirkungen und legt Leitlinien fest, um sicherzustellen, dass der Einsatz von Technologie zur Verwaltung der städtischen Sicherheit nicht zu erhöhter Viktimisierung, Ungleichheit oder Ineffizienz führt. Mit einer der am längsten etablierten Technologien in der Polizeipraxis, der Kriminalitätskartierung und einem multidisziplinären, kritischen Ansatz, um dem technologischen Lösungsismus zu entkommen und die Kluft zwischen der akademischen Literatur (STS, Stadtsoziologie, Umweltkriminologie) und den politischen Bedürfnissen und Empfehlungen zu überbrücken, ist dies Das Papier sendet eine Warnung an diejenigen, die hoffen, dass Technologie allein komplexe städtische und soziale Probleme lösen kann.;-;-;-;https://link.springer.com/article/10.1007/s10676-018-9477-1 4aafcbb6c510b95923067bd350d82cb0;de;;;3.5.;6.1.;6.3.;Von Datenreisen lernen In der Einführung werden die Idee von Data Journeys und ihre Eigenschaften als Untersuchungsinstrument und theoretischer Rahmen für diesen Band und eine breitere Datenforschung diskutiert. Aufbauend auf einem relationalen und historisierten Verständnis von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37177-7_1 47fac475d6098eb649abe71781267d9f;de;;;3.5.;6.1.;6.3.;Wer ist der Datenkurator? Definieren eines Vokabulars Im Jahr 2016 hat die IFLA-Sektion Bibliothekstheorie und -forschung (teilweise) das Forschungsprojekt „Datenkurator wer ist er/sie?“ gefördert. um das Profil des Datenkurators zu klären. Das Hauptziel des Projekts war die Definition von Rollen- und Verantwortlichkeiten von Datenkuratoren im internationalen und interdisziplinären Kontext. Die Forschungsfragen des Projekts waren:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-73165-0_25 053062144111e3eaddac01bf50b589e6;de;;;3.5.;6.1.;6.3.;Modellvorschlag zur Kuration digitaler Objekte eines onkologischen Forschungszentrums Dieser Artikel präsentiert ein Vorschlagsmodell für die Kuratierung digitaler Objekte aus einem onkologischen Forschungszentrum im Bundesstaat Santa Catarina. Hierbei handelt es sich um eine explorative Forschung mit qualitativem Ansatz, bei der das technische Vorgehen der Fallstudie verwendet wurde. Aus der Fallstudie war es möglich, die digitalen Objekte, die den Informationskontext bilden, und die Aktionen der digitalen Kuration im untersuchten Krebsforschungszentrum zu kennen. Die Basalphasen, aus denen das vorgeschlagene Modell besteht, wurden der Literatur entnommen. Daraus ergibt sich ein Modellvorschlag zur Unterstützung der Erhaltung, Pflege, Zugriffsoptimierung, Nutzung, Wiederverwendung und Förderung des Mehrwerts der digitalen Objekte des untersuchten Krebsforschungszentrums.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-50072-6_18 3308be6a4b7ddea0b65405fc9aba7c2d;de;;;3.5.;6.1.;6.3.;Bewertung von Legacy-Sammlungen für die Rettung wissenschaftlicher Daten Weit verbreitete Investitionen in die Erleichterung der Wiederverwendung und Reproduzierbarkeit wissenschaftlicher Forschung haben dazu geführt, dass der potenzielle Wert von Data Bidding in unveröffentlichten Aufzeichnungen und älteren Forschungsmaterialien wie wissenschaftlichen Arbeiten, historischen Veröffentlichungen und Arbeitsdateien zunehmend anerkannt wird. Die Wiedergewinnung verwertbarer wissenschaftlicher Daten aus Altbeständen ist eine Art von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71305-8_25 b4b575af1afae3beb6f3862836977dca;de;;;3.5.;6.1.;6.4.;Signalisieren Verweise in übertragenen Patentdokumenten Lernmöglichkeiten für die aufnehmenden Firmen? In dieser Studie untersuchen wir empirisch die Rolle von Referenzen in Patenten für das technologische Lernen und die Innovation eines Unternehmens, wenn die Patente (d. h. Technologielizenzaktivitäten) an diese Unternehmen übertragen werden. Diese Studie basiert auf einer Stichprobe von 68 chinesischen High-Tech-Firmen, die an der Lizenzierung von Patenttechnologien beteiligt waren, während sie eine übereinstimmende Stichprobe von Nicht-Lizenznehmern verwendet, und untersucht abgedeckte Patente in Lizenzverträgen, die ursprünglich zwischen 2000 . beim Europäischen Patentamt registriert wurden und 2005. Empirische Ergebnisse zeigen, dass der Referenzumfang (definiert als die Anzahl der verschiedenen Patentklassen – Klassen, denen das untersuchte Patent nicht angehört – in den Rückwärtszitierungen) und die zeitliche Verzögerung der Rückwärtszitierungen jeweils einen positiven Effekt hat und a negative Auswirkung auf die Innovationsergebnisse der Lizenznehmerfirmen, gemessen als Anzahl der chinesischen Patentanmeldungen in den 5 Jahren nach dem Lizenzjahr. Es konnte jedoch kein positiver Effekt der wissenschaftsbasierten Zitationen (definiert als Rückwärtszitate zu Zeitschriftenartikeln) wie von uns vorhergesagt festgestellt werden.;-;-;-;https://link.springer.com/article/10.1007/s11192-013-0962-3 33561404afdd99ecf664c69c890854d0;de;;;3.5.;6.1.;6.4.;Wissensraum visualisieren: eine Fallstudie zu chinesischer lizenzierter Technologie, 2000–2012 Um die Regeln des Wissenstransfers und der Anwendungsaktivitäten im Wissensraum, definiert auf zeitlicher und räumlicher Ebene, zu untersuchen, verwendet die vorliegende Studie einen einzigartigen Datensatz der chinesischen Patentlizenzierung im Zeitraum 2000–2012 mit insgesamt 91.551 Patenten. Unsere Ergebnisse zeigen, dass 70 % der Patente in den ersten 3 Jahren auslizenziert wurden. Im Laufe der Zeit nimmt das jahresdurchschnittliche Technologiealter ab. Es gibt einen moderaten Unterschied zwischen den verschiedenen Arten von Lizenzgebern und Patentarten, jedoch nicht zwischen den Technologiebereichen. Hinsichtlich der räumlichen Dimension wurden 86 % der Patente im Umkreis von 1.000 km auslizenziert. Die jahresdurchschnittliche geografische Entfernung zeigt den gleichen Trend wie das Technologiezeitalter. Mit Ausnahme der Technologiedomänen ist ein moderater Unterschied zwischen Lizenzgebern und Patenttypen zu beobachten. Darüber hinaus zeigt die Interaktion zwischen geografischer Entfernung und Technologiezeitalter, dass diese Technologie mit zunehmendem Technologiezeitalter anscheinend über größere Entfernungen übertragen und angewendet wird.;-;-;-;https://link.springer.com/article/10.1007/s11192-013-1135-0 c6453399610b58e46c1b1f91cccc51fa;de;;;3.5.;6.1.;;Verträge und gemeinsame Standards für digitale Lizenzverträge Wer sollte digitale Rechte in der Verlagsbranche kontrollieren und verwerten? Für eine genaue Definition und Diskussion benötigt die Verlagsbranche Grundkenntnisse zum Kauf und Verkauf von elektronischen Rechten und erweiterten Standardverträgen. Dieser Artikel behandelt eine Definition von digitalen Rechten, den Kauf und Verkauf digitaler Rechte, Geschäftsmodelle zum Verkauf digitaler Inhalte und Bedingungen mit entsprechenden Bedingungen.;-;-;-;https://link.springer.com/article/10.1007/s12109-008-9068-9 7dcda6440c867b8d451ba55d3520791f;de;;;3.5.;6.1.;;Lex Genetik: Recht und Ethik der Programmierung biologischer Codes Jüngste Fortschritte in der Gentechnik ermöglichen nun das Design programmierbarer biologischer Artefakte. Eine solche Programmierung kann Nutzungsbeschränkungen beinhalten, die das Gleichgewicht von Eigentum und Kontrolle für biotechnologische Produkte verändern. Ähnliche Veränderungen wurden im Zusammenhang mit digitalen Content-Management-Systemen analysiert, und während diese frühere Arbeit bei der Analyse von Problemen im Zusammenhang mit der biologischen Programmierung nützlich ist, wirft letztere Technologie neue konzeptionelle Probleme auf, die eine umfassendere Bewertung des Zusammenspiels zwischen Recht und technologisch eingebetteten Werten erfordern. Insbesondere die Fähigkeit, Vertragsbedingungen in technologische Artefakte einzubetten, erfordert eine erneute Überprüfung der Offenlegung und Zustimmung bei Transaktionen, die solche Artefakte beinhalten.;-;-;-;https://link.springer.com/article/10.1023/A%3A1019996311122 beb92fbcfb5bfd312a01eb11704bc3bb;de;;;3.5.;6.1.;;Informationsethik und das Recht der Datendarstellung Die von Luciano Floridi und seinen Mitarbeitern formulierten Theorien der Informationsethik haben klare Implikationen für das Recht. Das Informationsrecht, einschließlich des Rechts der Privatsphäre und des geistigen Eigentums, wird besonders wahrscheinlich von einer kohärenten und umfassenden Theorie der Informationsethik profitieren. Dieser Artikel veranschaulicht, wie Informationsethik auf die Rechtslehre angewendet werden könnte, indem er rechtliche Fragen im Zusammenhang mit dem Eigentum und der Kontrolle der Darstellungen personenbezogener Daten untersucht, einschließlich Fotos, Spielavataren und Verbraucherprofilen, die mit der Verbreitung von Informations- und Kommunikationstechnologien allgegenwärtig geworden sind . Die jüngste Kontroverse über die Kontrolle von Spielerleistungsstatistiken in „Fantasy“-Sportligen bietet einen Grenzfall für die Analyse. Solche Datendarstellungen stellen in vielen Fällen die Art von personenbezogenen Daten dar, von denen die Informationsethik behauptet, dass sie eine Informationseinheit darstellen. Die Rechtslehre zeigt in einigen Fällen Verständnis für eine solche Behauptung, bleibt jedoch weitgehend unschlüssig, welche Daten in einem bestimmten Fall eine bestimmte Informationseinheit darstellen könnten. Auch die Informationsethik in ihrem gegenwärtigen Entwicklungsstand ist nicht ganz hilfreich bei der Beantwortung dieser kritischen Frage. Obwohl die Informationsethik einiges verspricht, Kohärenz in diesen Rechtsbereich zu bringen, sind weitere Arbeiten zur Formulierung einer umfassenderen Theorie der Informationsethik erforderlich, bevor dies möglich ist.;-;-;-;https://link.springer.com/article/10.1007/s10676-008-9161-y 1a4bf69731bbd1a5ea9ee05ab908ef99;de;;;3.5.;6.1.;;Design und Realisierung eines Campus-WebGIS auf Basis des B/S-Modells – eine Fallstudie der Polytechnischen Universität Hebei Angesichts der aktuellen Entwicklungssituation und der Bedeutung des digitalen Campus wird ein Gesamtdesign und ein Detaildesign für ein digitales Campussystem in Anlehnung an die Hebei Polytechnic University unter Verwendung von C#, .NET, SQL Server 2000, XML-Sprache, SuperMap IS erarbeitet. NET 5 und SQL Server 2000-Datenbank. Was ich gemacht habe, war die Konzeption und Umsetzung der zehn Module inklusive Einführung in die allgemeine Situation, das Hauseigentum und die Campus-Mission sowie die Sicht auf die Themenkarte. Diese Module implementieren Funktionen wie Kartenausgabe, Informationsansicht, Informationsabfrage, Ausdruck von Karten und Tropenkarte usw. Und dann wird die gemeinsame Nutzung von Geodaten implementiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27503-6_67 e0baf1b217f6ce2be1d38c3c8234725c;de;;;3.5.;6.2.;2.1.;Landwirtschaft in der Biodiversität finden: Metadaten in der Praxis Die umfangreiche Literatur zur Biodiversität, die über die Biodiversity Heritage Library (BHL) verfügbar ist, ist potenziell von großem Nutzen für die Agrarforschung. Es bietet Zugang zu Literatur aus aller Welt und seine Archive dokumentieren die Erde, wie sie vor hundert Jahren und mehr war. Diese Stärke des BHL ist jedoch auch seine Schwäche: Die breite Abdeckung des BHL kann die Suche nach relevanter Literatur erschweren. In diesem kurzen Artikel werden wir die praktischen Probleme untersuchen, die sich aus dem Versuch ergeben, relevante Altliteratur herauszufiltern, um die Agrarforschung zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13674-5_18 8d83c6257425dead9b3183b4232af2fe;de;;;3.5.;6.2.;2.2.;Sammeln und Kontrollieren von verteilten Forschungsinformationen durch Verknüpfung mit Daten externer Behörden - Eine Fallstudie In Bezug auf das World Wide Web sind wissenschaftliche Informationen verteilt und oft redundant auf verschiedenen Serverstandorten gespeichert. Die Vision eines aktuellen Forschungsinformationssystems (CRIS) als Umgebung für die ständige Überwachung und Verfolgung des Forschungsergebnisses eines Forschers ist lebendig geworden, kämpft jedoch immer noch mit Problemen wie Altinformationen und noch zu etablierenden institutionellen Speicherstrukturen. Wir empfehlen daher, diese verstreuten Forschungsinformationen zu sammeln, indem ihre Autoren anhand von bereits mit ihnen verknüpften Normdaten identifiziert werden. Wir führen Autorenseiten als Proof-of-Concept-Anwendung ein, die Forschungsinformationen nicht nur aus einer lokalen Quelle wie einem institutionellen Repositorium, sondern auch aus anderen externen bibliografischen Quellen sammelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-11226-4_26 d5caec234eb9692e67dc12b3fef9907a;de;;;3.5.;6.2.;3.1.;Analyse von bürgerlichen Daten zu kleineren Kulturgütern: Modelle, Versprechen und Herausforderungen Das Citizen-Science-Paradigma und die damit verbundenen Praktiken haben im letzten Jahrzehnt in vielen Anwendungsfeldern über die Wissenschaft hinaus eine breite Aufmerksamkeit erregt, mit der Folge, dass die disziplinspezifischen Forschungsprozesse und die Informationswissenschaften als solche maßgeblich beeinflusst werden. Tatsächlich erscheinen im spezifischen Kontext des kleineren Erbes (materielles und immaterielles Kulturerbe, das von großen offiziellen Kulturerbeprogrammen ausgeklammert bleibt) von Bürgern stammende Beiträge als eine große Chance bei der Erfassung und Anreicherung von Datensätzen. Mit mehr Inhalten, die von einer Vielzahl lokaler Akteure im Netz bereitgestellt werden, haben wir möglicherweise einen Zeitpunkt erreicht, an dem das Sammeln und Analysieren raumgeschichtlicher Informationen „einfacher“ erscheint, wobei Bürger als potenzielle (und legitime) Sensoren fungieren. Aber ist es wirklich „einfacher“? Und wenn ja, zu welchem ​​Preis? Ein genauerer Blick auf praktische Herausforderungen hinter dem Vorhang kann vermeiden, dass die oben genannte Chance vertan wird. In diesem Beitrag werden Rückmeldungen aus einer Forschungsinitiative diskutiert, die darauf abzielt, die zu erwartenden Schwierigkeiten besser einzugrenzen, wenn man Daten zu kleineren Erbesammlungen sammeln und visualisieren und daraus räumliches, zeitliches und thematisches Wissen ableiten will. Der Beitrag konzentriert sich auf vier Hauptaspekte: ein Feedback zu den Informationen und zu den verfügbaren Informationen, ein Beschreibungsraster für zu erwartende Unvollkommenheiten, visuelle Lösungen, die wir zur Unterstützung analytischer Aufgaben ausprobiert haben, und gewonnene Erkenntnisse in Bezug auf Beziehungen zwischen Wissenschaftler und Informationsanbieter.;-;-;-;https://link.springer.com/article/10.1007/s41060-019-00194-0 f9a15b0df9220a40d1c1ae5049e6a59e;de;;;3.5.;6.2.;3.1.;„Frieden, Ordnung und gute Regierung“: Archive in der Gesellschaft Der Ausdruck „Frieden, Ordnung und gute Regierung“, der in der Definition der Bundesbefugnisse sowohl in der australischen als auch in der kanadischen Verfassung gebräuchlich ist, prägt seit mehr als fünf Jahrhunderten die Beziehung zwischen der Krone und dem Bürger. Die Archivaufzeichnung ist von grundlegender Bedeutung für diese Beziehung, da sie ihre maßgebliche Rechtsgrundlage darstellt, ihre Entwicklung dokumentiert und weiterhin an unsere stolzesten Errungenschaften und unsere düstersten Versagen als Gesellschaft erinnert. Dieses Papier reflektiert die Rolle von Archiven in den jüngsten kanadischen Menschenrechtsfragen und beleuchtet sowohl die Stärken als auch die Schwächen der Akte, die Wahrnehmung von Archiven als staatliche Behörde und die Rolle von Archiven bei der Unterstützung der Gesellschaft bei der Bewältigung höchst umstrittener Probleme.;-;-;-;https://link.springer.com/article/10.1007/s10502-011-9168-8 fabb6569cb3b460116d298e8e6cb8e45;de;;;3.5.;6.2.;3.1.;Niederländische Schiffe und Seeleute verknüpfte Daten Wir präsentieren die Dutch Ships and Sailors Linked Data Cloud. Dieser heterogene Datensatz vereint vier kuratierte Datensätze zur niederländischen Schifffahrtsgeschichte als Fünf-Sterne-Linked Data. Die einzelnen Datensätze verwenden separate Datenmodelle, die in enger Zusammenarbeit mit maritimen Geschichtsforschern entwickelt wurden. Die einzelnen Modelle werden auf eine gemeinsame Interoperabilitätsschicht abgebildet, die eine Analyse der Daten auf allgemeiner Ebene ermöglicht. Wir präsentieren die Datensätze, Modellierungsentscheidungen, interne Links und Links zu externen Datenquellen. Wir zeigen Wege des Zugriffs auf die Daten auf und stellen eine Reihe von Beispielen vor, wie der Datensatz für die historische Forschung genutzt werden kann. Die Dutch Ships and Sailors Linked Data Cloud ist ein potenzieller Hub-Datensatz für die digitale Geschichtsforschung und ein Paradebeispiel für die Vorteile von Linked Data für diesen Bereich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11964-9_15 376d303b1d0258c58e1e97fcf770b38d;de;;;3.5.;6.2.;3.1.;Gewinnung großer Geodaten aus natürlichsprachigen Texten In natürlichsprachlichen Texten wie Zeitungen, Wikipedia-Artikeln, Social-Media-Posts, Reiseblogs, Online-Rezensionen und historischen Archiven gibt es eine große Menge an Geodaten. Verglichen mit traditionelleren und strukturierten Geodaten, wie sie beispielsweise vom US Geological Survey und den nationalen Statistikämtern gesammelt werden, haben Geodaten, die aus diesen unstrukturierten Texten gewonnen werden, einzigartige Vorzüge. Sie erfassen wertvolle menschliche Erfahrungen in Bezug auf Orte, spiegeln Situationen in verschiedenen geografischen Gebieten nahezu in Echtzeit wider oder zeichnen wichtige historische Informationen auf, die sonst nicht verfügbar sind. Darüber hinaus sind Geodaten aus diesen unstrukturierten Texten oft;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-55462-0_19 8f54fd70573cd481f7c45746c864fd00;de;;;3.5.;6.2.;3.1.;Sperrfristen für den Zugang zu öffentlichen Aufzeichnungen und Archiven. Vergleichend-historische Analyse Der Artikel untersucht die Anwendung von Sperrfristen für den Zugang zu öffentlichen Akten und Archiven, ihre Entwicklung in einigen beispielhaften Ländern und ihre Auswirkungen auf das öffentlich-staatliche Verhältnis und die Möglichkeiten der öffentlichen Akteneinsicht. Eine Ebene dieser Studie präsentiert eine vergleichende Analyse der aktuellen Gesetzgebung in ausgewählten Ländern (Großbritannien, Vereinigte Staaten von Amerika, Frankreich, Deutschland, Schweden, Schweiz, Tschechien) und in der Europäischen Union insgesamt. Auf der zweiten Ebene soll der Text einige Konturen der historischen Entwicklung der Sperrzeiten seit dem Ende des Zweiten Weltkriegs erfassen, wobei vor allem das Vereinigte Königreich als Beispiel für eine Entwicklung verwendet wird, die in vielen Ländern als Vorbild diente und dieses Ganze vorwegnahm Domain. Die Studie zeigt, dass im Laufe der Zeit eine allmähliche Freigabe in einem ursprünglich sehr restriktiven System des Zugangs zu öffentlichen Aufzeichnungen und historischen Quellen erfolgt, und zeigt auch, wie dies geschieht und wie es geschehen kann. Abschließend wird im Text ausdrücklich auf das Verhältnis von Sperrfristen und öffentlichen Aufzeichnungen und Archiven sowie das Recht auf Zugang zu Informationen hingewiesen.;-;-;-;https://link.springer.com/article/10.1007/s10502-021-09361-4 b5bb53d7d5a4e16bbb6ae82e7fd63e18;de;;;4.1.;6.2.;3.1.;Eintauchen ins tiefe Wasser: Entwicklung einer Rubrik zur Informationskompetenz für die Lehrpläne des Bachelor-Studiums Will man den pädagogischen Schwerpunkt des Bildungsmeeres einer Universität verändern, muss man in die tiefen Gewässer der Lehrplanstruktur eintauchen, eine komplexe Aufgabe für Bibliotheken. In diesem Papier wird die Strategie zur Änderung der akademischen Kurse, der grundlegenden Curriculumblöcke der Bachelor-Programme an der CETYS-Universität, mit einer generischen Rubrik zur Informationskompetenz für Professoren beschrieben. Die von einem Fakultäts- und Bibliotheksausschuss erstellte Rubrik bietet Richtlinien zur Implementierung von pädagogischen Ansätzen zur Informationsflussigkeit und zum Hinzufügen hochwertiger Informationsressourcen zu ihren Lehrplänen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-14136-7_60 52040fca13e5779dc23b962ead4bfb4e;de;;;3.5.;6.2.;3.2.;Going Digital: Literaturübersicht zu E-Lehrbüchern Die Digitalisierung von Lehrbüchern wird in der formalen Bildung immer wichtiger. Während die Hochschulbildung bisher der Hauptfokus der Forschung zu E-Lehrbüchern war, gewinnt das Thema auch in anderen Bereichen der formalen Bildung an Aufmerksamkeit. Dieses Papier berichtet über einen ersten Versuch, Forschungs- und Entwicklungsliteratur zu E-Lehrbüchern zu überprüfen und zu synthetisieren – hauptsächlich im Kontext der K-12-Ausbildung. Während das Projekt noch in Arbeit ist, werden einige vorläufige Ergebnisse, Hauptabgrenzungslinien und sichtbare Richtungen im Feld berichtet und diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07482-5_14 6ce0f4f54af35f3af743f28595313711;de;;;3.5.;6.2.;3.2.;Eine Studie zur Zusammensetzung von Smart Urban Decisions aus Sicht der Bevölkerung und Behörden. Fall St. Petersburg Der Artikel präsentiert Ergebnisse einer Studie zu Problemen, Bedürfnissen und Ideen zur Gestaltung von Entscheidungen einer Smart City bei der Gestaltung des Smart City-Konzepts für St. Petersburg. Es wurde eine unabhängige Umfrage unter Regierungsbeamten durchgeführt. Dies geschah, um ihre Vorstellungen über die Zusammensetzung der notwendigen Entscheidungen für eine Smart City offenzulegen und die Ergebnisse mit einer ähnlichen Studie für die Bevölkerung zu vergleichen. Die Untersuchung der Bevölkerung von St. Petersburg wurde durch eine Massenerhebung und eingehende Fallstudien durchgeführt. Im Ergebnis zeigen sich deutliche Unterschiede in den Erwartungen an eine Smart City zwischen diesen Akteursgruppen. Darüber hinaus gab es Unterschiede in den Erwartungen der Bürger an die Anforderungen internationaler Standards. Die aufgezeigten Effekte bestätigen die Hypothese der Notwendigkeit flexibler und adaptiver Ansätze zur Schaffung von Smart Cities. Smart City sollte als adaptive Stadt für die Bedürfnisse der Bürger positioniert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-39296-3_1 daaaecf1a203b5031a042c064ffae00f;de;;;3.5.;6.2.;3.2.;Verbesserung der Nachhaltigkeit von Software: Eine Fallstudie mit Überwachungssoftware für MGNREGS in Indien Software kann entweder als Ressource oder als Eigenschaft wahrgenommen werden. Software ist eine Ressource, wenn ihr Eigentum gemeinfrei ist, und eine Eigenschaft, wenn es sich um Eigentum handelt. Nicht selten bestimmt die Lizenz, unter der eine Software bereitgestellt wird, ob die Software als Ressource oder als Eigentum behandelt werden kann. Lizenzen wie die GNU General Public License erzwingen die Ressourceneigenschaften der Software. Proprietäre Lizenzen stellen die Software in eine Form von Privateigentum. Üblicherweise wird die Nachhaltigkeit von Projekten durch die Ressourcen-/Eigenschaftseigenschaften ihrer Bestandteile bestimmt. Die Nachhaltigkeit von Softwareprojekten kann verbessert werden, wenn Software so transformiert werden kann, dass sie Ressourceneigenschaften besitzt. Software, die in IKT-Anwendungen eingesetzt wird, hängt oft von Datenstandards und -protokollen ab. Während Eigentumsfragen die Eigenschaften von Datenstandards bestimmen, bestimmen Fragen der Transparenz den Einfallsreichtum von Protokollen. Faire Umsetzung und Zugänglichkeit zum Testen oder Inspizieren sind vor der Öffentlichkeit nur dann gewährleistet, wenn Software-Datenstandards und -Protokolle als Ressourcen zur Verfügung gestellt werden. Durch die Einhaltung offener Datenstandards und transparenter Protokolle können die Ressourceneigenschaften von Softwaredatenstandards und -protokollen durchgesetzt werden. Sobald sich die Ressourceneigenschaften gegenüber Software, Datenstandards und Protokollen durchsetzen, würde die Nachhaltigkeit von Software verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22714-1_24 8e4aad91898e60f3dcdcb854ff074eea;de;;;3.5.;6.2.;3.2.;Eine Einführung in das PREMIS Data Dictionary für Digital Preservation Metadata Das PREMIS Data Dictionary for Preservation Metadata bietet eine umfassende und weit verbreitete Spezifikation, die basierend auf konkreten Erfahrungen und sich ändernden technologischen Umgebungen überarbeitet wird. Darüber hinaus bietet es der Konservierungsgemeinschaft ein gemeinsames Datenmodell zum Organisieren und Nachdenken über die Informationen, die Sie zum Aufbewahren digitaler Objekte benötigen. Es hat sich zum De-facto-Standard für Konservierungsmetadaten entwickelt und ist in viele quelloffene und kommerzielle Archivierungssysteme integriert, sodass wesentliche Konservierungsaktivitäten durchgeführt werden können. Dieses Kapitel befasst sich mit der Entwicklung von PREMIS, jetzt in der Version 3.0, seinen unterstützenden Wartungsaktivitäten, seinen Zielen, Prinzipien und Umfang, seiner Beziehung zu OAIS und stellt die Funktionen des Data Dictionary vor. Als gemeinsamer Gemeinschaftsstandard ist das PREMIS Data Dictionary flexibel, erweiterbar und bietet Interoperabilität zwischen Repositorien digitaler Objekte, Systemen, die den Erhaltungsprozess unterstützen, und Daten, die ausgetauscht und wiederverwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-43763-7_3 b6588b083f1247e13518f261133370af;de;;;3.5.;6.2.;3.2.;Transformation im Maßstab für kontinuierliches Zoomen Dieses Kapitel fasst die Theorien und Methoden des kontinuierlichen Zoomens für Digital Earth zusammen. Es führt in die grundlegenden Konzepte und Probleme des kontinuierlichen Zoomens und der Skalierungstransformation (oder Multiskalentransformation) ein. Es präsentiert die Theorien der Skalentransformation, einschließlich der Konzepte der Multiskalen- vs. der variablen Skala, der Transformation im euklidischen Raum vs. Es befasst sich mit Modellen für maßstabsgetreue Transformationen, einschließlich hierarchischer Raum-Primär-Modelle, hierarchischer Merkmals-Primär-Modelle, maßstabsgetreuer Modelle für irreguläre Triangulationsnetze und Modelle für geometrische Transformation von Kartendaten. Außerdem werden die mathematischen Lösungen für Skalierungstransformationen (einschließlich Hoch- und Herunterskalieren) für Raster- (numerische und kategoriale Daten) und Vektordaten (Punktdaten, Liniendatensätze und Flächendaten) erörtert. Darüber hinaus werden einige abschließende Bemerkungen gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9915-3_8 a40ea1557c503002c19436f545720e16;de;;;3.5.;6.2.;6.4.;Untersuchung des Einflusses von Open Access auf die Obsoleszenz der Zitierweise von Zeitschriften durch Modellierung des tatsächlichen Zitierprozesses Ziel dieser Arbeit ist es, den Einfluss von Open Access (OA) auf die Obsoleszenz-Eigenschaften von Zeitschriften zu quantifizieren und zu analysieren. Für eine longitudinale Obsoleszenzuntersuchung wurden insgesamt 15 Zeitschriften ausgewählt, die 2012 und 2013 ihren Status von Closed auf Open Access geändert haben. Basierend auf dem kumulativen Zitierratenverteilungsmodell wurden zwei Alterungszeitparameter aus dem tatsächlichen Zitierprozess identifiziert, um die Veralterung zitierter Zeitschriften zu quantifizieren. Die experimentellen Ergebnisse zeigen, dass die Zeitschrift drei unterschiedliche obsolete Phänomene präsentiert: „Nachhaltiges Wachstum“, „Schwingender Niedergang“ und „Ein Blitz in die Pfanne“. OA hat einen Einfluss auf die Obsoleszenz-Eigenschaften der Zeitschrift, die sich in einer Erhöhung des Wertes des Alterungszeitparameters für jede Kategorie von Zeitschriften während oder nach ihrem Umstellungsjahr ausdrückt. Dieser Einfluss hält jedoch nicht unbedingt über die Zeit an, insbesondere für die beiden letztgenannten Arten von Zeitschriften. Und OA beeinflusst die Besorgnis der Leser über die alten Artikel in Zeitschriften, aber diese Besorgnis kann auch nur von kurzer Dauer sein. Bei Zeitschriften mit dem Titel „Oscillatory Niedergang“ und „Flash in the pan“ werden ihre kürzlich veröffentlichten Artikel mehr Besorgnis erregen als die alten, was direkt zu einem Anstieg der Journal Impact Factors geführt hat. Bei den meisten Zeitschriften des „Sustainable Growth“ zeigt sich eine „Polarisierungs“-Tendenz der Zitationsverteilung: mehr neue und ältere Publikationen zu zitieren, was auch dazu beiträgt, den Impact Factor von Zeitschriften zu verbessern. Allerdings gibt es noch einige wenige „Sustainable Growth“-Zeitschriften, deren ältere Artikel eher Beachtung finden als neu erschienene. Neben der Verlängerung des Alterungstrends dieser Zeitschriften trägt dies nicht zur Verbesserung der Journal Impact Factors bei. Daher verbessert Open Access nicht unbedingt den Impact Factor von Zeitschriften.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03085-0 be64b93c79545e7d9dcd2822f8ca31d6;de;;;3.5.;6.2.;6.4.;Neun Millionen Buchbeiträge und elf Millionen Zitationen: eine Studie zur buchbasierten Wissenschaftskommunikation mit OpenCitations Bücher sind weit verbreitet, um Informationen auszutauschen und zum menschlichen Wissen beizutragen. Allerdings ist die quantitative Nutzung von Büchern als Methode der wissenschaftlichen Kommunikation im Vergleich zu Zeitschriftenartikeln und Konferenzbeiträgen relativ unerforscht. Diese Studie verwendet den COCI-Datensatz (ein umfassender offener Zitationsdatensatz von OpenCitations), um die Rolle von Büchern in der wissenschaftlichen Kommunikation zu untersuchen. Die von uns analysierten COCI-Daten umfassen 445.826.118 Zitate aus 46.534.705 bibliografischen Entitäten. Durch die Analyse einer so großen Datenmenge bieten wir ein umfassendes, vielfältiges Verständnis von Büchern. Zu den untersuchten Faktoren gehören (1) zeitliche Veränderungen der Buchzitate, (2) Buchzitationsverteilungen, (3) Jahre bis zum Zitationspeak, (4) Zitationshalbwertszeit und (5) Merkmale der meistzitierten Bücher. Die Ergebnisse zeigen, dass Bücher weniger als 4% aller Zitationen erhalten und hauptsächlich in Zeitschriftenartikeln zitiert wurden. Darüber hinaus wurden 97,96 % der Bücher weniger als zehn Mal zitiert. Bücher brauchen länger als andere bibliografische Materialien, um Spitzenzitate zu erreichen, werden aber genauso lange zitiert wie Zeitschriftenartikel. Die am häufigsten zitierten Bücher behandeln allgemeine (aber wesentliche) Themen, Theorien und technologische Konzepte in Mathematik und Statistik.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03311-9 d47061be890667a71849f89286e0e559;de;;;3.4.;6.2.;6.4.;Darstellung der Open-Access-Zeitschriftenlandschaft in den VAE Ziel dieser Studie ist es, die wissenschaftliche Zeitschriftenlandschaft in den Vereinigten Arabischen Emiraten zu kartieren, um eine wissenschaftliche Perspektive auf die Forschungsproduktivität, -verteilung und den Zugang im Land zu bieten und die Grundlage für weitere Forschungen in diesem Bereich zu legen. Die Studie soll auch einen Beitrag zur Forschung leisten, die sich bemüht, ein globales Bild des wissenschaftlichen Publizierens zu zeichnen. Wir haben ein Mapping von in den VAE veröffentlichten wissenschaftlichen Zeitschriften durchgeführt, die aus internationalen und lokalen Quellen zusammengestellt wurden. Die resultierende Zeitschriftenliste wurde untersucht, wobei der Schwerpunkt auf dem Anteil der Open-Access-Titel, der Publikationssprache, der Disziplin und der Art des Verlags lag. Unsere Ergebnisse zeigen, dass: (1) 534 Zeitschriften in den Vereinigten Arabischen Emiraten veröffentlicht werden und der Anteil von OA mit etwa 64% aller Online-Zeitschriften durchaus bemerkenswert ist, (2) das APC-basierte OA-Modell mit etwa 75% der OA vorherrscht Zeitschriften, die eine Publikationsgebühr erheben, (3) Zeitschriften der VAE sind überwiegend in englischer Sprache, während die Anzahl arabischsprachiger Zeitschriften gering ist, (4) Naturwissenschaften, Technologie und Medizin überwiegen als die vorherrschenden Fachgebiete der Zeitschriften und (5) kommerzielle Verlage kontrollieren die meisten Veröffentlichungen vor allem im medizinischen Bereich. Die Studie legt den Grundstein für weitere Studien zu wissenschaftlichen Zeitschriften in den VAE. Die Kombination aus regionalen Indizes und internationalen Verzeichnissen zur Messung des wissenschaftlichen Zeitschriftenoutputs des Landes kann auch für andere Länder repliziert und darauf aufgebaut werden, in denen die großen internationalen bibliometrischen Datenbanken keine umfassende Darstellung der wissenschaftlichen Publikationsaktivitäten bieten.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03349-0 eba3e8c28bacfd830b60391c48da6ec7;de;;;3.4.;6.2.;6.4.;Ist Open Access die Lösung, um die Wirkung wissenschaftlicher Zeitschriften zu erhöhen? Die Natur der wissenschaftlichen Aktivitäten und Informationen, die geteilt werden sollen, ist der Ausgangspunkt für die Definition einer wissenschaftlichen Zeitschrift und die Kriterien, nach denen ihr Wert und ihre Rolle bestimmt werden. Ziel der Autoren ist es, einige Kriterien zu analysieren, die die Qualität wissenschaftlicher Zeitschriften unter Berücksichtigung ihrer Sichtbarkeit und Wirkung definieren. Das Konzept des Open Access für Zeitschriften wird hinsichtlich seiner Vor- und Nachteile analysiert, da es sich stark vom subskriptionsbasierten Zugang unterscheidet, sei es nun von institutionellen oder individuellen Abonnements. Die Autoren befürworten das Konzept des öffentlichen Zugangs, da es einer Zeitschrift mehr Sichtbarkeit verleiht, unter der Bedingung, dass die Bearbeitungsgebühren für Artikel gesenkt werden. Die wesentliche Voraussetzung für die Reputation einer Zeitschrift ist eine möglichst hohe Sichtbarkeit. Das Konzept des Open Access ist förderlich, unterstützt die Lehre durch und für die wissenschaftliche Forschung, unabhängig vom Bildungsniveau. Das Ziel dieses Papiers ist es, die Modalitäten, Besonderheiten und bibliometrischen Leistungen (Prozent der zitierbaren Dokumente, Impact Factor und Unmittelbarkeitsindex) von Open Access gegenüber dem subskriptionellen Zugang hervorzuheben sowie zu untersuchen, ob die Verwendung des Open-Access-Konzepts eine Steigerung der Qualität der Zeitschriften, Studie zur Analyse der Zeitschriften der Hindawi Publishing Company und der Zeitschriften des Multidisziplinären Digital Publishing Institute (MDPI).;-;-;-;https://link.springer.com/article/10.1007/s11192-016-2088-x 14ffd4d20b2daf7f18fb8375c93c81f8;de;;;3.4.;6.2.;6.4.;Patentieren oder nicht patentieren? Eine Umfrage unter italienischen Erfindern zu Motivationen, Anreizen und Hindernissen für die universitäre Patentierung Dieses Papier berichtet über die Ergebnisse einer Umfrage unter 208 italienischen Fakultätsmitgliedern, Erfindern von universitären Patenten, zu ihrer Motivation, sich an universitären Patentierungsaktivitäten zu beteiligen, den Hindernissen, mit denen sie konfrontiert waren, und ihren Vorschlägen, die Kommerzialisierung akademischen Wissens durch Patente zu fördern. Die Ergebnisse zeigen, dass die Befragten sich an Patentierungsaktivitäten beteiligen, um ihr Prestige und ihre Reputation zu stärken, und nach neuen Impulsen für ihre Forschung suchen, das persönliche Einkommen stellt keinen Hauptanreiz dar. Patentvorschriften auf Universitätsebene reduzieren die von Erfindern wahrgenommenen Hindernisse, sofern sie das Engagement der Universitäten für legitime Patentaktivitäten signalisieren. Implikationen für die Innovationspolitik werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s11192-007-0206-5 4948131a10e23a3b73fee9ba9782cc59;de;;;3.4.;6.2.;6.4.;Der Einfluss von Zeitschriftenherausgebermerkmalen auf Trends in der Open-Access-Politik Untersucht die SHERPA/RoMEO-Richtlinien zu Open Access (OA) für 100 Verlage über einen Zeitraum von 13 Jahren (2004–2016), um zu prüfen, ob deren Größe, Art oder Land (Großbritannien oder USA) die Entwicklung ihrer OA-Richtlinie im Laufe der Zeit beeinflusst hat. Der RoMEO-Farbcode eines Verlags, ob er eine Gold-OA-Option anbot, und die durchschnittliche Anzahl der Beschränkungen, wann, wie und wo Papiere selbst archiviert werden dürfen, wurden alle abgebildet. Kruskal-Wallis-Tests wurden durchgeführt, um zu beurteilen, ob die Unterschiede zwischen ihren Positionen von 2004 und 2016 statistisch signifikant waren. Stellt fest, dass das Wachstum der Politikansätze Green und Gold OA nicht gleichmäßig auf die Verlage verteilt ist, mit einigen signifikanten Unterschieden zwischen Verlagen unterschiedlicher Größe, Art und Land (Großbritannien und USA). Große kommerzielle Verlage erhalten eher einen RoMEO-Farbcode, legen aber gleichzeitig hohe Beschränkungen, wo und wie Autoren selbst archivieren dürfen. Kleine Verlage haben seltener einen grünen RoMEO-Farbcode, aber die Beschränkungen, die sie der Selbstarchivierung auferlegen, sind minimal. Universitätspresse scheint sich nicht in nennenswertem Maße mit beiden OA-Agenda zu befassen. Die OA-Politik britischer und US-amerikanischer Verlage scheint von der nationalen OA-Politik beeinflusst zu werden, die angesichts des globalen Charakters des Marktes für wissenschaftliche Zeitschriften ausgeprägter war als erwartet.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2716-8 a8ce0acec7bbf07728538e5c861f7dc1;de;;;3.4.;6.2.;6.4.;Veränderungen in der Umsatzstruktur eines führenden Open-Access-Zeitschriftenverlages: der Fall BMC Während traditionelle Abonnement-Zeitschriftenverlage wie Elsevier seit den 2000er Jahren eine Präsenz auf dem Open-Access-Zeitschriftenmarkt aufgebaut haben, haben einige bahnbrechende Open-Access-Zeitschriftenverlage in letzter Zeit die Anzahl der Artikel in ihren Zeitschriften reduziert. Die Einnahmen von Open-Access-Zeitschriftenverlagen hängen sowohl von der Anzahl der veröffentlichten Artikel als auch von den den Autoren erhobenen Bearbeitungsgebühren für Artikel ab. Daher untersucht diese Studie die zeitlichen Trends bei der Anzahl von Artikeln und den Bearbeitungsgebühren für Artikel, um die Auswirkungen des Wettbewerbs auf BMC, ehemals BioMed Central, einem führenden Herausgeber von Open-Access-Zeitschriften, zu untersuchen. Die Ergebnisse zeigen, dass die jährliche Gesamtzahl der Artikel in BMC-Zeitschriften bis 2015 konstant zugenommen hat, aber 2016 abgenommen hat, unabhängig von der Einführung neuer Zeitschriften. In dieser Studie werden auch die Determinanten von Artikelbearbeitungsgebühren anhand eines Stichprobenauswahlmodells untersucht. Die Ergebnisse zeigen, dass BMC für häufiger zitierte Zeitschriften höhere Gebühren für die Bearbeitung von Artikeln ansetzt, während sie für kürzlich eingeführte Zeitschriften niedrigere Gebühren ansetzt, nachdem andere Faktoren berücksichtigt wurden. Gemessen an der Entwicklung der beiden Umsatzkomponenten ist der Open-Access-Zeitschriftenmarkt ungeachtet des derzeitigen Gesamtmarktwachstums nicht allzu optimistisch.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03200-1 baeb8a771e8f231082b3ec764942ac6c;de;;;3.4.;6.2.;6.4.;Wirkung von Politiken zur Förderung von Open Access im wissenschaftlichen Ökosystem: Fallstudie zur Veröffentlichungspraxis von ERC-Grantees Der Europäische Forschungsrat (ERC) ist weltweit einer der führenden Quellen der Forschungsförderung. Dieser Artikel analysiert die von seinen Stipendiaten veröffentlichten Arbeiten. Das Hauptziel bestand darin, die Zugangspolitik der Zeitschriften zu bestimmen, die von Forschern ausgewählt wurden, die öffentliche Mittel zur Verbreitung ihrer Ergebnisse erhielten, basierend auf einer Analyse von 44.481 Veröffentlichungen, die zwischen 2007 und 2015 veröffentlicht wurden. Open-Access-Zeitschriften, wobei sich 50 bis 60 % der Zitationen auf die Artikel dieser blauen Zeitschriften beziehen. Die durchschnittliche Exzellenzrate betrug 6,4 %, wobei > 11 % für blaue Zeitschriften, fast 8 % für grüne Zeitschriften und 6,5 % für goldene OA-Zeitschriftenpapiere waren. Aus den Bemühungen und Erfahrungen des ERC im internationalen wissenschaftlichen Ökosystem wurden in den ersten zehn Jahren seit seiner Einrichtung zwei Lehren gezogen. Die erste ist, dass die von Wissenschaftlern vorgeschlagene, überprüfte und finanzierte Forschung sehr einflussreiche und sichtbare Ergebnisse liefert. Die zweite ist, dass die Stipendiaten es vorziehen, ihre Arbeiten in Nicht-Gold-OA-Journalen zu veröffentlichen, während sie den Empfehlungen und Mandaten für Open-Access-Publikationen entsprechen.;-;-;-;https://link.springer.com/article/10.1007/s11192-021-03966-3 c337cae71a27d22dd789e0116e8b2613;de;;;3.4.;6.2.;6.4.;Untersuchung des Veröffentlichungsgrads von durch Forschungsstipendien geförderten Artikeln in Open-Access-Zeitschriften der Gesundheits- und Biowissenschaften In der wissenschaftlichen Publikationswelt gibt es immer mehr Open Access (OA)-Zeitschriften. Viele Open-Access-Zeitschriften werden durch die Article Processing Charges (APCs) finanziert, die sie von den Autoren verlangen. Es besteht großes Interesse an der Finanzierungsquelle solcher APCs. In 255 Gesundheits- und Biowissenschaften-OA-Zeitschriften, die APCs berechnen (APC-OA-Zeitschriften) und 183 Gesundheits- und Biowissenschaften-OA-Zeitschriften, die keine APCs berechnen (kostenlose OA-Zeitschriften), die im Thomson Reuters Web of Science indiziert sind, verwendet diese Studie eine bibliometrische Methode zur Untersuchung der Beziehung zwischen zwei Zeitschriftenmerkmalen im Zeitraum 2009–2013: APCs und der Prozentsatz veröffentlichter Artikel, die auf Arbeiten basieren, die durch Stipendien unterstützt werden (Grant-funded Articles). Den erhobenen Daten zufolge steigt der Prozentsatz der durch Zuschüsse finanzierten Artikel mit der Zunahme der zugehörigen APCs. Die durchschnittlichen APCs von APC-OA-Zeitschriften sind in Europa und Nordamerika höher als anderswo. Die Studie untersuchte auch die Top-Ten-Länder in der Anzahl der wissenschaftlichen Publikationen in den untersuchten Open-Access-Zeitschriften. Alle zehn Länder hatten einen geringeren Prozentsatz an durch Zuschüsse finanzierten Artikeln in kostenlosen Open-Access-Zeitschriften als in APC-OA- und Abonnementzeitschriften. Von den zehn Ländern weisen sechs in Europa und Nordamerika einen höheren Prozentsatz an durch Zuschüsse finanzierten Artikeln in APC-OA-Zeitschriften als in Abonnementzeitschriften auf. Die anderen vier Länder, die einen niedrigeren Prozentsatz an förderungsfinanzierten Artikeln in APC-OA-Zeitschriften aufweisen als in Abonnementzeitschriften, befinden sich in Asien und Südamerika, wo APC-OA-Zeitschriften niedrige durchschnittliche APCs aufweisen.;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1624-4 2b20232712631a7f853d1c04d2250561;de;;;3.4.;6.2.;6.4.;Wer unterstützt Open-Access-Publikationen? Geschlecht, Disziplin, Dienstalter und andere Faktoren, die mit der OA-Praxis von Akademikern verbunden sind In diesem Beitrag werden die Ergebnisse einer Umfrage unter britischen Akademikern und ihrem Publikationsverhalten vorgestellt. Ziel dieser Studie ist es, die Einstellung und Praxis von Wissenschaftlern zum Open-Access-Publizieren (OA) zu untersuchen. Die Ergebnisse basieren auf einer Umfrage unter Wissenschaftlern an 12 Universitäten der Russell Group und spiegeln die Antworten von über 1800 Forschern wider. Diese Studie ergab, dass die meisten Akademikern zwar das Prinzip der freien Verfügbarkeit von Wissen für jedermann unterstützen, die Nutzung von Open-Access-Publishing unter britischen Akademikern jedoch trotz einschlägiger etablierter Open-Access-Richtlinien immer noch begrenzt war. Die Ergebnisse legen nahe, dass es Unterschiede im Umfang der OA-Praxis zwischen verschiedenen Universitäten, akademischen Disziplinen, Alter und Dienstalter gab. Die Verwendung von OA-Publikationen durch Akademiker stand auch im Zusammenhang mit ihrem Bewusstsein für OA-Politik und OA-Repositorien, ihrer Einstellung zur Bedeutung von OA-Publishing und ihrem Glauben an OA-Zitatvorteile. Die Implikationen dieser Erkenntnisse sind relevant für die Entwicklung von Strategien zur Umsetzung von OA-Politiken.;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2316-z 4a225c9a156e695413523c0e867df641;de;;;3.4.;6.2.;6.4.;Zusammenarbeit zwischen Forschungsinstituten und großen und kleinen Verlagen zur Veröffentlichung von Open-Access-Zeitschriften Bei der Veröffentlichung von Open-Access-Zeitschriften arbeiten Forschungsinstitute häufig mit gewinnorientierten Verlagen zusammen. Die vorliegende Studie untersucht mit einem Strukturbruchtest die Auswirkungen der Zusammenarbeit zwischen Forschungsinstituten und großen und kleinen gewinnorientierten Verlagen bei der Veröffentlichung von 15 Gold-Open-Access-Zeitschriften auf die Internationalität und den wissenschaftlichen Einfluss der Zeitschriften. Die Ergebnisse zeigen eine Verbesserung der Internationalität und des akademischen Einflusses für die meisten Zeitschriften nach der Zusammenarbeit. Darüber hinaus sind Ausmaß und Dauer der Auswirkungen nicht von der Größe des Herausgebers abhängig. Die Ergebnisse zeigen, dass große Verlage bei der Herausgabe von Zeitschriften für Forschungsinstitute keinen Vorteil gegenüber kleinen Verlagen haben. Dies impliziert, dass kleine Verlage bei der Herausgabe von amtlichen Zeitschriften im Auftrag von Forschungsinstituten mit großen konkurrieren können. Da die Zusammenarbeit mit Forschungsinstituten jedoch die Präsenz großer Verlage im Open-Access-Zeitschriftenmarkt stärkt, ist es notwendig, ihre Aktivitäten zu überwachen, einschließlich der Akquisition kleiner Verlage durch große Verlage.;-;-;-;https://link.springer.com/article/10.1007/s11192-021-03949-4 e32a2ad3877bcae87dfa3746d4d033a7;de;;;3.4.;6.2.;6.4.;Eine Zitationsanalyse iranischer Zeitschriften zu Open Access (OA) Artikeln und Zeitschriften Diese Studie war eine Umfrage zur Zitierforschung von Open Access (OA)-Zeitschriften in englischen Artikeln iranischer Universitätsjournale im Jahr 2007. Die Hauptzwecke dieser Arbeit waren: den Stand englischer Artikel in iranischen Zeitschriften in der Thomson Scientific Master Journal List ( TSMJL) und ihre Sichtbarkeit durch Zitate zu OA-Journalen in der DOAJ-Datenbank zu analysieren. Tatsächlich hat der Forscher die Zitationsanalysetechnik bibliometrischer und groß angelegter soziometrischer Analysen bei etwa 16.219 Zitaten verwendet. Die im ersten Teil dieser Studie verfolgte Methode besteht darin, Daten aus in TSMJL indizierten E-Journal-Artikeln zu erheben, deskriptive Analysen durchzuführen und die Ergebnisse in Tabellen und Abbildungen darzustellen. Im zweiten Teil der Studie wird die DOAJ-Datenbank verwendet, um zitierte Referenzsuchen und andere Zitationsanalysen durchzuführen. Es stellte sich heraus, dass es 960 iranische gedruckte Zeitschriften gibt und nur 37 iranische Zeitschriften in TSMJL indiziert wurden. Sechzehn englische Zeitschriften in TSMJL von acht iranischen Universitäten. In sechzehn Zeitschriften wurde 2007 nur eine Zeitschrift nicht veröffentlicht und es gab 704 Artikel in allen fünfzehn Zeitschriften. Unter Verwendung groß angelegter soziometrischer Analysen zu etwa 16.219 Zitationen in 15 Zeitschriften ist bemerkenswert, dass die Zahl der Zeitschriften ohne Zitierung nach DOAJ 3.101 (99,7%) und die Zahl der Zeitschriften mit Zitierung nach DOAJ 9 (0,3%) betrug. Es zeigt, dass es große Unterschiede zwischen den Zeitschriften gab, die nach DOAJ zitieren und nicht nach DOAJ zitieren.;-;-;-;https://link.springer.com/article/10.1007/s11192-010-0184-x 10b09f19c53e12e2a16cfc48cf64932d;de;;;3.4.;6.2.;6.4.;Open-Access-Szientometrie und UK Research Assessment Exercise Szientometrische Prädiktoren der Forschungsleistung müssen validiert werden, indem gezeigt wird, dass sie eine hohe Korrelation mit dem externen Kriterium aufweisen, das sie vorhersagen wollen. Die UK Research Assessment Exercise (RAE) bietet – zusammen mit der wachsenden Bewegung, Volltexte von Forschungsartikeln frei im Internet verfügbar zu machen – eine einzigartige Gelegenheit, eine Fülle alter und neuer szientometrischer Prädiktoren durch multiple Regressionsanalysen zu testen und zu validieren : Publikationen, Journal Impact Factors, Citations, Co-Citations, Citation Chronometrics (Alter, Wachstum, Latenzzeit bis zur Spitze, Zerfallsrate), Hub/Autoritäts-Scores, h-Index, Vorfinanzierung, Studentenzahlen, Koautoren-Scores, Endogamie Exogamie, textuelle Nähe, Download/Co-Downloads und ihre Chronometrie usw. können alle gemeinsam, Disziplin für Disziplin, gegen ihre RAE-Panel-Rankings in der bevorstehenden parallelen Panel-basierten und metrischen RAE im Jahr 2008 getestet und validiert werden Prädiktor kann kalibriert werden, um die gemeinsame Korrelation mit den Rankings zu maximieren. Open Access Scientometrics wird leistungsstarke neue Mittel zum Navigieren, Bewerten, Vorhersagen und Analysieren der wachsenden Open-Access-Datenbank sowie starke Anreize für ein schnelleres Wachstum bieten.;-;-;-;https://link.springer.com/article/10.1007/s11192-009-0409-z 25ae6f25f687c695cb8cbb2baeb1527f;de;;;3.4.;6.2.;6.4.;Ist Open-Access-Publikation für alle Forschungsfelder sinnvoll? Vorhandensein von Finanzierung, Zusammenarbeit und Wirkung Open Access (OA) zu jedem von Fördergebern geförderten Forschungsergebnis ist ein mittel- bis langfristiges Ziel. Ziel dieser Arbeit ist es herauszufinden, ob Open-Access-Publikationen für alle Forschungsfelder, unabhängig von ihren Besonderheiten, sinnvoll sind. Als Stichprobe werden Artikel aus den WoS-Datenbanken aus zwei unterschiedlichen Disziplinen (eine von SSCI und eine von SCIE) ausgewählt und mehrere Hypothesen bezüglich des Vorhandenseins von Förderungsanerkennungen, Kooperationen und Zitationen getestet. Ein erster Blick auf die allgemeine Verteilung der Publikationen zeigt, dass die Verbund- und Förderforschung einen höheren Anteil an zitierten Artikeln erhält und dieser Anteil bei Open-Access-Publikationen ansteigt. Darüber hinaus zeigt die logistische Regression, dass die Wahrscheinlichkeit, eine Open-Access-Publikation zu finden, in der Disziplin SCIE und durch das Vorhandensein von EU-Fördermitteln, internationaler Zusammenarbeit und Zitationen deutlich erhöht ist. Diese Wahrscheinlichkeit steigt mit einigen Wechselwirkungen (z. B. Vorhandensein von internationaler Förderung und internationaler Zusammenarbeit oder internationale Förderung und Zitationen). In Bezug auf OA-Typen haben Green OA-Publikationen den größten Bezug zur Fondsanerkennung, obwohl Gold-OA/Bronze-OA-Artikel in der internationalen Zusammenarbeit auch signifikant mit der Finanzierung verbunden sind. In Bezug auf die Auswirkungen ist der am häufigsten genannte OA-Typ der Hybrid-OA. Wenn Papiere jedoch Finanzierungsbestätigungen enthalten, erhöhen die Bronze OA- und Green OA-Publikationen ihre Zitierwahrscheinlichkeit. Wenn Gold-OA-Artikel internationale Zusammenarbeit beinhalten, besteht eine größere Chance auf Zitation. Mit diesen Erkenntnissen kann gewagt werden, dass Open-Access-Publikationen für alle Forschungsfelder nützlich sein werden, obwohl ihre Besonderheiten berücksichtigt werden sollten. Folglich sollten sich Geldgeber dieser Besonderheiten bewusst sein, um OA zu fördern, ohne die Qualität der Forschung zu beeinträchtigen.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03652-w 1ebeec508844a287c62bec1d2727ffad;de;;;3.5.;6.2.;7.4.;Text- und Data-Mining-Techniken in der Urteilsfindung Offene Datenanalyse für die Kontrolle der Verwaltungspraxis Dieses Papier stellt die Studienergebnisse der Anwendung von maschinellen Lernmethoden für die Analyse von Urteilen offener Daten dar. Ziel der Studie ist es, empirische Wege zu entwickeln, um die Zusammenhänge und die Struktur von Verwaltungsstrafprozessen auf der Grundlage der halbstrukturierten Datenanalyse zu identifizieren und Empfehlungen zur Verbesserung der Verwaltungsordnung zu geben. Die Forschungsergebnisse können für legislative, analytische und strafrechtliche Aktivitäten im Bereich der staatlichen Regulierung verwendet werden. Im Zuge der Datenanalyse werden die Modelle auf Basis von Entscheidungsbäumen und anderen maschinellen Lernverfahren entwickelt. Darüber hinaus werden die Modelle zur Extraktion von Informationen aus halbstrukturierten Texten von Gerichtsentscheidungen entwickelt. Darüber hinaus wird ein prädiktives Modell des Berufungsergebnisses entwickelt. Die Wirksamkeit der etablierten Methoden wird in den Empfehlungsfällen zur Verbesserung der bestehenden Gesetzgebung am Beispiel des Verwaltungsrechts zur Entlastung der öffentlichen Verwaltung aufgezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-13283-5_13 0f4ed1aab7877c7c68aebcf164de000f;de;;;3.4.;6.2.;7.4.;Untersuchung potenzieller sozioökonomischer Faktoren, die die maschinelle Lernforschung in der AEC-Branche beeinflussen Maschinelles Lernen (ML) dominiert zunehmend die Diskussionen über die Gestaltung der Zukunft der Menschheit und durchdringt fast alle Facetten unserer digitalen und sogar physischen Welt. Doch im Gegensatz zum unaufhaltsamen Vormarsch fast aller anderen Branchen hinkt die Architektur-, Ingenieur- und Baubranche (AEC) bei der Akzeptanz von ML für ihre eigenen Herausforderungen hinterher. Durch eine systematische Überprüfung von ML-Projekten eines führenden globalen Ingenieurbüros untersucht dieses Papier soziale, politische, wirtschaftliche und kulturelle (SPEC) Faktoren, die die Einführung von ML unterstützt oder behindert haben. Darüber hinaus diskutiert das Papier, wie ML an verschiedenen Stellen der Wirtschaftshierarchie wahrgenommen wird, wie effektive Kommunikationsformen in einer hochspezialisierten Belegschaft von entscheidender Bedeutung sind und wie die unerwartete Effektivität von ML politische Entscheidungsträger gezwungen hat, Data Governance und Datenschutz zu überdenken wenn man bedenkt, was dies für die Einführung von ML in der AEC-Branche bedeutet. Diese Untersuchung, ihre Methodik, Hintergrundforschung, systematische Überprüfung und ihre Schlussfolgerung werden vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-8410-3_18 99fe7dcbf47611fef4f3cb9f29e6439f;de;;;3.4.;6.2.;7.4.;Big-Data-Analyse: eine Umfrage Das Zeitalter von Big Data kommt jetzt. Aber die traditionelle Datenanalyse ist möglicherweise nicht in der Lage, solch große Datenmengen zu verarbeiten. Die Frage, die sich jetzt stellt, ist, wie man eine hohe Leistung entwickelt;-;-;-;https://link.springer.com/article/10.1186/s40537-015-0030-3 174e451fb6085f7172a020dedd4a3ea3;de;;;3.4.;6.2.;7.4.;Erfahrungen aus den medizinischen Abruf- und Annotationsaufgaben von ImageCLEF Die medizinischen Aufgaben in ImageCLEF wurden jedes Jahr von 2004 bis 2018 ausgeführt und in diesen Jahren wurden viele verschiedene Aufgaben und Datensätze verwendet. Die geschaffenen Ressourcen werden von vielen Forschern weit über die eigentlichen Evaluierungskampagnen hinaus genutzt und ermöglichen es, die Leistung vieler Techniken auf gleichem Grund und reproduzierbar zu vergleichen. Viele der größeren Datensätze stammen aus der medizinischen Literatur, da solche Bilder leichter zu erhalten und zu teilen sind als klinische Daten, die in einigen kleineren ImageCLEF-Herausforderungen verwendet wurden, die speziell mit dem Krankheitstyp und der anatomischen Region gekennzeichnet sind. In diesem Kapitel werden die wichtigsten Ergebnisse der verschiedenen Aufgaben im Laufe der Jahre beschrieben, einschließlich Daten, Teilnehmer, evaluierte Aufgabentypen und auch die gewonnenen Erkenntnisse bei der Organisation solcher Aufgaben für die wissenschaftliche Gemeinschaft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-22948-1_10 6c445d11cfba97ce6a3a267f586f4a2b;de;;;3.4.;6.2.;7.4.;Twitter-Sentimentanalyse mit maschinellen Lerntechniken Twitter ist eine Microblogging-Site, auf der Benutzer Updates (Tweets) an Freunde (Follower) posten können. Es ist ein immenser Datensatz der sogenannten Sentiments geworden. In diesem Papier stellen wir einen Ansatz zur Auswahl eines neuen Feature-Sets vor, der auf Information Gain, Bigram, Object-Oriented Extraction Methods in der Sentiment-Analyse auf der Seite sozialer Netzwerke basiert. Darüber hinaus schlagen wir auch ein Sentiment-Analysemodell vor, das auf Naive Bayes und Support Vector Machine basiert. Sein Zweck ist es, die Stimmung effektiver zu analysieren. Dieses Modell erwies sich bei der Analyse von Gefühlen als sehr effektiv und genau.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-17996-4_25 daa630e640373ebc9dde7cdedf1e7317;de;;;3.5.;6.2.;;Top-Quark-Physik am Elektron-Positron-Linearcollider CLIC Der Compact Linear Collider (CLIC) ist ein zukünftiger linearer Elektron-Positron-Collider mit hoher Leuchtkraft, der in drei Energiestufen mit nominellen Schwerpunktenergien arbeitet;-;-;-;https://link.springer.com/article/10.1007/JHEP11%282019%29003 c5248ee26625dad717f778cc926bf004;de;;;3.5.;6.2.;;Kartierung der Waldzusammensetzung in China: GIS-Design und -Implementierung Geografische Informationssysteme (GIS)-basierte Kartierungs- und Entscheidungsunterstützungssysteme werden in der Forstwirtschaft in China noch relativ begrenzt verwendet, insbesondere bei großflächigen Kartierungen und spezialisierter Softwareentwicklung. Dieser Anwendungsbereich hat jedoch von verschiedenen Kunden ein Wachstum in seinem Markt erfahren. Diese Forschung hat ein neues Waldform-Mapping-System für Chinas Waldressourcen sowie eine Plattform für Forschung, Bildung und Entscheidungsunterstützung entworfen und implementiert, um das Ziel eines nachhaltigen Umweltmanagements zu erreichen. Das Projekt hat gezeigt, wie GPS-Daten und Daten aus der zweiten nationalen Waldvermessung Chinas in ein .NET- und ArcEngine-basiertes System integriert, visualisiert und gemeldet werden können. Aufgrund seiner flexiblen Architektur und benutzerfreundlichen Oberfläche eignet es sich für eine Vielzahl von Anwendungen im Forstressourcenmanagement.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-49155-3_89 ff2158e2913399439952f5dbf38af550;de;;;3.5.;6.2.;;Kartographie und Globalisierung In diesem Kapitel wird der Forschungskontext der Dissertation in den Bereichen Kartographie und Geographie unter besonderer Berücksichtigung der Rolle der Globalisierung und ihrer Wechselbeziehungen vorgestellt. Die Globalisierung hat nicht nur die Art und Weise verändert, wie die Welt funktioniert, sondern auch die Art und Weise, wie wir als Beteiligte und Beeinflusste von Globalisierungsprozessen den Planeten sehen und wahrnehmen. Grafische Displays haben eine lange Tradition bei der Übersetzung der Komplexität unserer Umwelt in eine verständliche visuelle Darstellung, wobei Karten das grundlegendste Bild sind, das wir im Kopf haben, wenn wir über die Räume, in denen wir leben, nachdenken. Karten und Visualisierungen prägen unseren Blick auf der Welt und wie sie dies im Kontext einer globalisierten Welt tun, wird in diesem Kapitel skizziert und diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34848-8_2 928c51910a64e6e29916530a0e5188be;de;;;3.5.;6.2.;;Messung der atmosphärischen Neutrino-Oszillationsparameter und Einschränkung des 3+1 Neutrinomodells mit zehnjährigen ANTARES-Daten Das Neutrino-Teleskop ANTARES hat eine Energieschwelle von einigen zehn GeV. Dies ermöglicht es, das Phänomen des Verschwindens von atmosphärischen Myon-Neutrinos aufgrund von Neutrino-Oszillationen zu untersuchen. Auf ähnliche Weise können Einschränkungen des 3+1 Neutrinomodells, das die Existenz eines sterilen Neutrinos voraussieht, abgeleitet werden. Mit Daten, die das Neutrino-Teleskop ANTARES von 2007 bis 2016 gesammelt hat, wurde eine neue Messung von Δ;-;-;-;https://link.springer.com/article/10.1007/JHEP06%282019%29113 4fbcefb0b2164c5b533227ec743caa48;de;;;3.5.;6.2.;;Historische Kartenregistrierung über unabhängige Modellanpassung mit affinen Transformationen Dieses Papier präsentiert eine Methodik für die historische Kartenregistrierung mit einer affinen Mehrbildtransformation, die mit einer gleichzeitigen, von den kleinsten Quadraten unabhängigen Modellanpassung geschätzt wird. Das Verfahren basiert auf zwei Gleichungen für (i) Bild-zu-Boden- und (ii) Bild-zu-Bild-Punkte und liefert die Entzerrungsparameter mit einem globalen Ansatz, bei dem alle Unbekannten gleichzeitig geschätzt werden. Es vermeidet die Fehlerakkumulation traditioneller progressiver Registrierungsansätze, die in kommerziellen und Open-Source-Softwarepaketen implementiert sind. Verschiedene Fallstudien mit ihren Vor- und Nachteilen werden illustriert und diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09147-1_4 cb8195490af3f18a6f324b3766a7c886;de;;;3.5.;6.2.;;Crowdsourcing-Diagrammdigitalisierer: Aufgabendesign und Qualitätskontrolle, um ältere offene Daten maschinenlesbar zu machen Trotz jüngster Open-Data-Initiativen in vielen Ländern liegt ein erheblicher Prozentsatz der bereitgestellten Daten in nicht maschinenlesbaren Formaten wie Bildformaten statt in einem maschinenlesbaren elektronischen Format vor, wodurch ihre Verwendbarkeit eingeschränkt wird. Es wurden verschiedene Arten von Software zum Digitalisieren von Datendiagrammbildern entwickelt. Eine solche Software ist jedoch für den manuellen Gebrauch ausgelegt und erfordert daher menschliches Eingreifen, was sie zum automatischen Extrahieren von Daten aus einer großen Anzahl von Kartenbildern ungeeignet macht. Dieses Papier beschreibt das erste einheitliche Framework für die Konvertierung offener Altdaten in Diagrammbildern in ein maschinenlesbares und wiederverwendbares Format mithilfe von Crowdsourcing. Crowdworker werden nicht nur gebeten, Daten aus einem Bild eines Diagramms zu extrahieren, sondern auch die Diagrammobjekte in einer Tabelle zu reproduzieren. Die Eigenschaften der reproduzierten Diagrammobjekte geben ihre Datenstrukturen an, einschließlich Reihennamen und Werten, die für die automatische Verarbeitung von Daten durch Computer nützlich sind. Da Crowdsourcing-Ergebnisse von Natur aus Fehler enthalten, wurde ein Qualitätskontrollmechanismus entwickelt, der die Genauigkeit verbessert, indem von verschiedenen Arbeitern für dasselbe Diagrammbild erstellte Tabellen aggregiert und die aus den reproduzierten Diagrammobjekten erhaltenen Datenstrukturen verwendet werden. Experimentelle Ergebnisse zeigten, dass der vorgeschlagene Rahmen und Mechanismus wirksam sind. Das vorgeschlagene Framework soll nicht mit Software zur Digitalisierung von Diagrammen konkurrieren, und Mitarbeiter können es verwenden, wenn sie der Meinung sind, dass es zum Extrahieren von Daten aus Diagrammen nützlich ist. Experimente, in denen Arbeiter ermutigt wurden, solche Software zu verwenden, zeigten, dass die extrahierten Daten auch dann Fehler enthielten, wenn Arbeiter sie benutzten. Dies weist darauf hin, dass eine Qualitätskontrolle erforderlich ist, selbst wenn Mitarbeiter Software verwenden, um Daten aus Diagrammbildern zu extrahieren.;-;-;-;https://link.springer.com/article/10.1007/s41060-016-0025-y 930ec2573c0d4b6d867e5f88b021830e;de;;;3.5.;6.2.;;Data-Centricity als Schlüsselfaktor der digitalen Regierung: Ist Russland bereit für die digitale Transformation des öffentlichen Sektors? Die Vorreiter der Digitalisierung entwickeln Digital Government als Plattform, die öffentlich-private Partnerschaften bei der Entwicklung innovativer Anwendungen und Dienste anregt. Der primäre und permanente Kern dieser Plattform sind Daten, und zwar die Daten, die für den Informationsaustausch und die Bereitstellung nahtloser öffentlicher Dienste bereit sind. Die wachsende digitale Welt hat die Kultur der Interaktion zwischen Regierung und Gesellschaft auf der Grundlage von Open Data geprägt. Die große Bedeutung hat die Fähigkeit der Verbraucher, die vom Anbieter festgelegte Bedeutung (Semantik) zu verstehen, die für die Veröffentlichung von Linked Open Data unerlässlich ist. Die Anwendung und Verbreitung von Datenmodellen dient der adäquaten semantischen Interpretation beim Informationsaustausch und zielt auf eine semantische Interoperabilität. Sowohl datenzentrierte als auch modellorientierte Ansätze sind grundlegend für die digitale Transformation der öffentlichen Verwaltung. In diesem Papier geben wir einen kurzen Überblick über die Digitalisierungserfahrungen der führenden Länder und skizzieren die Kriterien, die die Implementierung eines datenzentrierten Paradigmas charakterisieren. Wir haben die Studie durchgeführt, die zeigt, ob das russische E-Government in folgenden Bereichen bereit für die Digitalisierung ist: (1) die Praxis des Informationsaustauschs, (2) die Voraussetzungen für den Wandel zu einem datenzentrierten und modellorientierten Paradigma , (3) die regulatorischen Barrieren der digitalen Transformation. Wir glauben, dass der Mangel an Datenzentrierung zu einem ernsthaften Hindernis für die Erfüllung der Pläne des Programms „Digitale Wirtschaft der Russischen Föderation“ werden kann. Daher geben wir einige Empfehlungen zur Einführung des datenzentrierten Ansatzes, der den Einsatz disruptiver digitaler Technologien ermöglichen und die Entwicklung einer digitalen Regierung in Russland unterstützen würde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-13283-5_33 34ae4696266f5e26cf2c182a1fd6f6e6;de;;;3.5.;6.2.;;Eine Klassifikation der Nutzerbeiträge im partizipativen Geoweb „Freiwillige geografische Informationen“ (VGI) ist der am häufigsten verwendete Begriff, um eine Vielzahl von Benutzerbeiträgen im partizipativen Geoweb zu beschreiben. Diese Beiträge reichen von Koordinatenorten und Geometrien über kategoriale Beobachtungen, Attribut-Tags, numerische Messungen und Inhaltsbewertungen bis hin zu komplexen Erzählungen, Fotos und Videos. Obwohl Forscher Geoweb-Anwendungen, verschiedene Arten von VGI und die damit verbundenen Phänomene Neogeographie, Citizen Science und Crowd-Sourcing erstellen und untersuchen, sind systematische Charakterisierungen des von Benutzern beigesteuerten lokalen Wissens selten. In diesem Papier schlagen wir Kriterien vor, um Typen von nutzergenerierten Daten und Inhalten zu unterscheiden und diese mit Typen von Geoweb-Anwendungen in Beziehung zu setzen. Die vorgeschlagene Klassifikation bietet einen konzeptionellen Rahmen, um das partizipative Geoweb zu untersuchen, die Verarbeitung von Benutzerbeiträgen zu erleichtern und mögliche Lücken in den derzeit verwendeten Daten-/Inhaltstypen zu identifizieren. Dieser Ansatz könnte dazu beitragen, die Effektivität aktueller Geoweb-Anwendungen zu verbessern und die Aufnahme der wertvollen geografischen Informationen, die sie generieren, zu erhöhen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19950-4_3 ddc5c1888407a24dcdf63f50f6256046;de;;;3.5.;6.2.;;Mit Daten interagieren, um journalistische Geschichten zu erstellen: Eine systematische Überprüfung Mit der zunehmenden Datenmenge, die in digitalen Medien verfügbar ist, sind im Journalismus neue professionelle Praktiken entstanden, um quantitative Daten zu sammeln, zu analysieren und zu berechnen, die darauf abzielen, potenzielle Informationen zu liefern, die für die Nachrichtenberichterstattung relevant sind. Die ständige Weiterentwicklung des Feldes hat uns dazu motiviert, eine systematische Überprüfung der Literatur zum datengetriebenen Journalismus durchzuführen, um den Stand der Technik in Bezug auf den Prozess zu untersuchen, der durch die „umgekehrte Pyramide des Datenjournalismus“ ausgedrückt wird. Unser Ziel ist es, zu verstehen, welche Techniken und Tools derzeit zum Sammeln, Bereinigen, Analysieren und Visualisieren von Daten verwendet werden. Außerdem möchten wir wissen, welche Datenquellen derzeit in Datenjournalismus-Projekten verwendet werden. Wir haben Datenbanken durchsucht, die Publikationen aus den Bereichen Informatik und Kommunikation enthalten, und die Ergebnisse werden durch Datenvisualisierungen präsentiert und diskutiert. Wir haben die Jahre mit den meisten Publikationen, die Autoren der Publikationen und die Studienrichtungen identifiziert. Dann haben wir diese Werke nach den Veränderungen der quantitativen Praktiken im Journalismus und den Beiträgen in verschiedene Kategorien eingeordnet. Abschließend befassen wir uns mit den Herausforderungen und potenziellen Forschungsthemen im Bereich des Datenjournalismus. Wir glauben, dass die gesammelten Informationen für Forscher, Entwickler und Designer hilfreich sein können, die sich für Datenjournalismus interessieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-92043-6_54 0f7f5b7a826e1d125023fbf4d375731e;de;;;3.5.;6.2.;;GIS in der Regionalforschung In diesem Kapitel werden Geographische Informationssysteme (GIS) im Kontext der Regionalforschung diskutiert. Zunächst werden die Grundprinzipien und Komponenten von GIS erläutert. Als nächstes werden Überlegungen zur digitalen Darstellung und Daten diskutiert. Es folgen anschauliche Beispiele für die Bedeutung von GIS zur Unterstützung der Regionalanalyse. Insbesondere Studien, die Wachstum und Entwicklung, Modellierung von Landnutzungsänderungen, räumliche Cluster-Identifizierung, Wegfindung und Serviceabdeckung untersuchen, werden überprüft, um die Verwendungsmöglichkeiten von GIS aufzuzeigen. Es werden Beobachtungen zur zukünftigen Entwicklung von GIS in der Regionalforschung angeboten, die darauf hindeuten, dass raumanalytische Methoden, die die Regionalwissenschaft unterstützen, weiter vorangetrieben werden und direkt in GIS integriert werden. Zu den Gründen dafür gehören: das Potenzial, bewährte Eigenschaften und abgeleitetes räumliches Wissen zu nutzen, Möglichkeiten, Probleme der Datenunsicherheit auf sinnvolle Weise anzugehen, die die Planung und Analyse unterstützt, und Aussichten zur Identifizierung und Berücksichtigung von Maßstab, Einheitendefinition, Messung und Modell-/Methodenverzerrungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-50590-9_10 4d2c1381307fd1178c76daddc1c53724;de;;;3.5.;6.2.;;Eine Toolbox für die Forschung: Eine komplette Suite für die Analyse in den Digital Humanities Das Georg-Eckert-Institut betreibt angewandte, interdisziplinäre Lehrbuch- und Bildungsmedienforschung und besitzt ein bedeutendes digitalisiertes Dokumentenkorpus. Die aktuellen Technologien der Digitalen Bibliotheken ermöglichen es den Forschern nicht, das Potenzial der Technologien zur Verarbeitung natürlicher Sprache vollständig auszuschöpfen um den Rechercheprozess an den Einzelfall anzupassen, ohne einen Workflow vorzugeben. Das System bietet Funktionalitäten, die Textdigitalisierung, OCR, Spracherkennung, Verwaltung digitaler Bibliotheken, Themenmodellierung, Wortzählung, Textanreicherung und spezifische Berichtselemente in einer flexiblen und hoch skalierbaren Architektur ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36599-8_35 75d468127079e635e0fc43e397779ace;de;;;3.4.;6.2.;;Anwendung der Hauptkomponentenanalyse zur Bewertung des Verhaltens von Wissensmanagement Das meiste Wissen wird zunächst in Form von Artikeln in verschiedenen Zeitschriftenarten veröffentlicht. Eine bessere Verwaltung des Wissens in Form von Artikeln wird der Entwicklung der Wirtschaft und der Gesellschaft großen Nutzen bringen. Wissensmanagement ist schwer einzuschätzen. Die Hauptkomponentenanalyse wurde zum Wissensmanagement mit Wirtschaftsdaten, Bevölkerungsdaten, Bildungsdaten, Forschungsdaten für zwei Entwicklungsländer und zwei Industrieländer verwendet. Es zeigt sich, dass höchstens die ersten beiden Faktoren benötigt werden, um die ursprünglichen Variablen zu ersetzen. Größere Schwankungen des Anteils der Zuladungen verschiedener Zeitschriftentypen an den Gesamtzuladungen finden sich in den Entwicklungsländern im Vergleich zu denen in den Industrieländern. Und die größte Belastung für die Zeitschrift ist fast die gleiche wie für die Bevölkerung. Die durch die Hauptkomponentenanalyse erhaltenen Ausdrücke zwischen dem Faktor und der formalen Standardvariable können verwendet werden, um die Auswirkungen des Wissensmanagements auf die Entwicklung von Gesellschaft und Wirtschaft weiter zu untersuchen. Es wird festgestellt, dass das BIP einen starken positiven Zusammenhang mit der Bevölkerung, den Bildungsausgaben, den Forschern in F&E, den Anmeldungen für Industriedesign, den Markenanmeldungen, der Bruttoeinschulungsquote, den Lehrkräften im Hochschulbereich, den wissenschaftlichen und technischen Zeitschriftenartikeln, verschiedenen Zeitschriften.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1922-2_2 931b19eb0dd9418df000001b7126b6ed;de;;;3.4.;6.2.;;Intelligente Plattform für Rapid Prototyping: Ein erster Lösungsansatz zur Verbesserung der Time-to-Market und Prozesskontrolle in der Kleinserienfertigung Das Fraunhofer IISB bietet Prototyping-Dienstleistungen für elektronische Bauelemente an. Das Prototyping baut auf bewährten Prozessen und Designs auf und ergänzt diese durch kundenspezifische Vorgaben und Ergänzungen. Die Herausforderung besteht darin, vorhandenes Know-how und bewährte Prozess-/Gerätemodule effizient mit F&E-Ergebnissen und neuen Erkenntnissen „on the fly“ zu kombinieren. In diesem Beitrag stellen wir einen ersten Lösungsansatz für eine smarte Plattform für Rapid Prototyping vor, um die Time-to-Market in der Kleinserienfertigung zu verbessern. Diese Lösung umfasst die Erforschung eines digitalen Zwillings zur optimierten Verwaltung von Wafer-Containern, die Entwicklung intelligenter Algorithmen zur Prozess- und Anlagensteuerung sowie einen neuartigen Ansatz für „Smart Experiments“, um eine beschleunigte Überführung der Prozessentwicklung in die ISO-zertifizierte Produktion zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-48602-0_12 205358144c6f0a3b9ac24eb3aeb94e01;de;;;3.4.;6.2.;;Cluster-UY: Kollaboratives wissenschaftliches Hochleistungsrechnen in Uruguay Dieser Artikel beschreibt die nationale Initiative zum Aufbau und Betrieb einer kollaborativen wissenschaftlichen HPC-Infrastruktur in Uruguay (Cluster-UY). Das Projekt wurde als Mittel zur Förderung von Forschungs- und Innovationsprojekten konzipiert, die mit komplexen Problemen mit hohen Rechenanforderungen konfrontiert sind. Die Hauptideen und Motivationen des Cluster-UY-Projekts werden beschrieben. Die technologischen Entscheidungen zur Installation der Plattform werden erläutert und das kollaborative Betriebsmodell zur Gewährleistung der Nachhaltigkeit vorgestellt. Darüber hinaus werden die Perspektiven der nationalen wissenschaftlichen HPC-Initiative beleuchtet und aktuelle beispielhafte Projekte vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-38043-4_16 2ad76e06a2ca04d5cbd0c414a9a0601e;de;;;3.4.;6.2.;;Ein Rahmen für eine Posteriori-Methode der Übergangsanalyse zur Verbreitung von IKT-Diensten basierend auf Text Mining Es ist wichtig zu wissen, wie Kunden ihre Wünsche und Bedürfnisse wahrnehmen und was sie bei der Verbreitung von Diensten der Informations- und Kommunikationstechnologie (IKT) benötigen. Die Wahrnehmung/Anforderungen der Kunden an IKT-Dienste haben sich ständig geändert und waren von neuen technologischen Entwicklungen und Verbesserungen der Benutzerfreundlichkeit abhängig. Daher ist es notwendig, die Wünsche und Bedürfnisse der Kunden durch kontinuierliche Überwachung ihres Verhaltens zu erkennen und im Marketing zu nutzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-42017-7_4 1e76cdac99dc65547daecbff4dcb2564;de;;;3.4.;6.2.;;Meinungen der Fakultät zur Publikationsforschung Forscher haben heute nicht nur die traditionellen Publikationen, sondern auch die Open-Access-Publikationsmethode, bei der sowohl Forschungsarbeiten über das Internet als auch gedruckte Publikationen veröffentlicht werden können. Forscher müssen die Open-Access-Verlage sorgfältig prüfen, um sicherzustellen, dass es sich bei der Publikation um eine legitime wissenschaftliche Publikation handelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-50337-0_7 f7a5624a22fab71c29279555aa7ed895;de;;;3.4.;6.2.;;Oberflächenverstärkte Raman-Spektroskopie als alternative Methode zum Nachweis und zur Identifizierung von Krankheitserregern in der Lebensmittelindustrie in die Vorschriften der International Standard Organization (ISO) aufgenommen Wir zeigen, dass die oberflächenverstärkte Raman-Spektroskopie (SERS) in Verbindung mit der Hauptkomponentenanalyse (PCA) als schnelle, zuverlässige und einfache Methode zum Nachweis und zur Identifizierung von lebensmittelbedingten Bakterien dienen kann, nämlich;-;-;-;https://link.springer.com/article/10.1007/s00216-016-0090-z cf9f1dd80b7283e0e34d56570ddc2e84;de;;;3.4.;6.2.;;Wer veröffentlicht mehr Bücher in US-amerikanischen Englischabteilungen, Männer oder Frauen? Der „Gender Gap“ in den US-amerikanischen Veröffentlichungen englischsprachiger und literaturwissenschaftlicher Bücher ist noch nicht vollständig untersucht. Um die Ungleichheit zwischen den Geschlechtern zu untersuchen, haben wir Daten von 1633 Fakultätsmitgliedern gesammelt, aggregiert und analysiert, die 4835 wissenschaftliche Bücher der 50 führenden US-amerikanischen Ph.D. Abteilungen. Obwohl seit 1987 mehr Frauen als Männer in englischer Sprache promoviert haben, sind die 50 führenden Fakultäten überwiegend männlich, und männliche Fakultätsmitglieder veröffentlichen pro Kopf mehr Bücher. Wer jedoch in diesen Abteilungen mehr Bücher veröffentlicht, variiert: (1) mit der Abteilung, in der sich das Fakultätsmitglied befindet (mit größerer Gleichheit in den mittleren 30 Abteilungen) und (2) mit der weiblichen Fakultät, wann das Fakultätsmitglied sein erstes Buch veröffentlichte die ihr erstes Buch nach 1998 veröffentlichten und pro Person so viele Bücher veröffentlichten wie männliche Lehrkräfte. Dieses Papier bietet auch Empfehlungen, wie Marketingstrategien verwendet werden können, um den „Gender Gap“ in diesem Wissenschaftsbereich zu verringern.;-;-;-;https://link.springer.com/article/10.1007/s12109-017-9548-x 1d6d3eae37dcb722be1e5eb666da56f0;de;;;3.4.;6.2.;;Anwendung von Glukokortikoiden bei Patienten mit akutem Atemnotsyndrom: eine Metaanalyse und eine sequenzielle Studienanalyse Das akute Atemnotsyndrom (ARDS) ist eine häufige und behindernde Erkrankung mit hohen Mortalitäts- und Morbiditätsraten. Die Rolle von Steroiden bei der Behandlung von ARDS bleibt umstritten. Unser Ziel ist es, die Beweise für die Verwendung von Glukokortikoiden bei der Behandlung von ARDS aus den verfügbaren Studien zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s40560-020-00464-1 a71c76d07530aa99c73103cb05f50d41;de;;;3.4.;6.2.;;Zellklassifizierung für die Layouterkennung in Tabellenkalkulationen Tabellenkalkulationen bilden einen bemerkenswert großen und wertvollen Datensatz von Dokumenten innerhalb der Unternehmenseinstellungen und im Web. Obwohl Tabellenkalkulationen intuitiv zu bedienen und mit leistungsstarken Funktionen ausgestattet sind, bleibt das Extrahieren und Wiederverwenden von Daten aus ihnen eine umständliche und meist manuelle Aufgabe. Ihre größte Stärke, die großen Freiheitsgrade, die sie dem Nutzer bieten, ist gleichzeitig auch ihre größte Schwäche, da Daten beliebig strukturiert werden können. Daher schlagen wir in diesem Papier einen überwachten Lernansatz für die Layouterkennung in Tabellenkalkulationen vor. Wir arbeiten auf Zellenebene mit dem Ziel, ihre korrekte Layout-Rolle aus fünf vordefinierten Alternativen vorherzusagen. Für diese Aufgabe haben wir eine große Anzahl von Funktionen berücksichtigt, die bisher nicht von verwandten Arbeiten abgedeckt wurden. Darüber hinaus sammeln wir einen beträchtlich großen Datensatz von annotierten Zellen aus Tabellen, die Format- und Inhaltsvariationen aufweisen. Unsere Experimente mit fünf verschiedenen Klassifikationsalgorithmen zeigen, dass wir Zellen-Layout-Rollen mit hoher Genauigkeit vorhersagen können. Anschließend konzentrieren wir uns in diesem Beitrag auf die Überarbeitung der Klassifikationsergebnisse mit dem Ziel, Fehlklassifikationen zu reparieren. Wir schlagen einen ausgeklügelten Ansatz vor, der aus drei Schritten besteht und eine angemessene Anzahl von ungenauen Vorhersagen effektiv korrigiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99701-8_4 a0df5c98acc59a3901bc567273179db0;de;;;3.4.;6.2.;;Studie zum Kriminalitätsstatus in Kolumbien und Entwicklung einer Bürgersicherheits-App In Kolumbien sind die Indizes der Bürgerunsicherheit in den letzten Jahren nach der Unterzeichnung des Friedensabkommens gestiegen. Viele der demobilisierten Guerilla-Mitglieder sind auf die Straße gegangen, um eine neue Richtung oder Besetzung zu suchen, und sind leider in Kriminalität verfallen, was die Kriminalität von Straftaten wie Raub, Erpressung, Vergewaltigung, Mikrohandel und Personenschäden erhöht. Darüber hinaus hat die Zunahme der Migrantenbevölkerung aus dem Nachbarland Venezuela unter den Bedingungen der Vertreibung den Teil dieser Bevölkerung mit eingeschränkten Beschäftigungsmöglichkeiten gezwungen, in die Kriminalität zu fliehen, da dies ihre einzige Form des Überlebens geworden ist. Angesichts dieses Problems ist es interessant geworden, durch diese Untersuchung das Verhalten dieser Verbrechen in den letzten Jahren zu analysieren und eine technologische Lösung vorzuschlagen, die es ermöglicht, die geologischen Sektoren und die Art der Kriminalität aufzudecken, die am meisten zum sozialen Problem beitragen. Bieten Sie auf diese Weise Alternativen zum Schutz der Bürger mit einer mobilen Anwendung an, die es ihnen ermöglicht, sich der Situation zu stellen, indem sie sie zu einem Teil der Lösung macht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-32475-9_9 7d17685c0315a1ce95ffb09338cc4049;de;;;3.4.;6.2.;;Konkurrierende Records-Management-Modelle im Zeitalter der Teilautomatisierung In den 1990er Jahren entstanden zwei konkurrierende Records Management-Modelle. Das Modell von Duranti beinhaltete das Verschieben von Datensätzen aus Geschäftsanwendungen in ein Repository mit einer für die Aufzeichnungen optimierten Struktur/Schema. Das Modell von Bearman beinhaltete Eingriffe in Geschäftsanwendungen, um sicherzustellen, dass deren Funktionalität und Struktur/Schema für die Aufzeichnung optimiert sind. Im Jahr 2013 begann die US-amerikanische National Archives and Records Administration, Bundesbehörden aufzufordern, wichtige E-Mail-Konten für die dauerhafte Aufbewahrung zu planen. Dieser Ansatz lässt sich weder auf das Duranti- noch auf das Bearman-Modell abbilden. Aus diesem Grund ist ein drittes Datensatzverwaltungsmodell entstanden, ein Modell, bei dem Datensätze innerhalb von Geschäftsanwendungen verwaltet werden, selbst wenn diese Anwendungen eine suboptimale Struktur/Schema aufweisen. Dieses Modell ist auch in den Funktionen zur Aufbewahrung von Datensätzen der Microsoft 365-Cloud-Suite zu sehen. In diesem Beitrag wird gefragt, ob es Umstände gibt, unter denen das In-Place-Modell den Modellen von Duranti und Bearman vorzuziehen ist. Es geht dieser Frage nach, indem es die Entwicklung der Archivtheorie zur Organisation von Aufzeichnungen untersucht. Die verwendeten Hauptperspektiven sind die des Realismus und der Records Continuum-Theorie. Das Papier charakterisiert die ersten zwei Jahrzehnte dieses Jahrhunderts als eine Ära der Teilautomatisierung, in der Unternehmen die Möglichkeit hatten, die Zuordnung von Geschäftskorrespondenz zu einer suboptimalen Struktur/einem nicht optimalen Schema (der ihres E-Mail-Systems und/oder anderer Nachrichtensystem) aber nicht zu einer optimalen Struktur/einem optimalen Schema. In einer solchen Ära kann jedes Beharren auf der Optimierung der Struktur/des Schemas, innerhalb dessen die Korrespondenz verwaltet wird, paradoxerweise zu einer Verringerung der Effizienz und Zuverlässigkeit der Aufzeichnungen führen.;-;-;-;https://link.springer.com/article/10.1007/s10502-020-09354-9 65ad3c41d05d8ef80052b5113e3f8bc3;de;;;3.4.;6.2.;;Relative Häufigkeit und Risikofaktoren für eine langfristige Opioidtherapie nach Operationen und Traumata bei Erwachsenen: ein systematisches Review-Protokoll Wenn Patienten seit mehr als 90 Tagen eine Opioidtherapie erhalten, nehmen mehr als die Hälfte von ihnen noch Jahre später Opioide ein. In dem Wissen, dass ein langfristiger Opioidkonsum zu schädlichen Nebenwirkungen wie Missbrauch, Missbrauch und Sucht führen kann, ist es wichtig, die Risiken eines Übergangs zu einer längeren Opioidtherapie zu verstehen, um deren Auftreten zu reduzieren. Perioperative und traumatische Kontexte sind ideale Modelle, die häufig verwendet werden, um einen solchen Übergang zu untersuchen. Die langfristige Einnahme von Opioiden könnte mit einer Umwandlung von akuten zu chronischen Schmerzen verbunden sein, was ein Beispiel für einen Risikofaktor sein könnte. Ziel dieser Wissenssynthese ist es, die relative Häufigkeit und die Risikofaktoren für den Übergang zu einer langfristigen Opioidtherapie bei Patienten mit einem chirurgischen Eingriff oder einem Trauma zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s13643-018-0760-3 7378771ab9d48ddf9c1ae97806bd4127;de;;;3.4.;6.2.;;Graphenrechensystem und Anwendung basierend auf einem großen Informationsnetzwerk Graph-Computing wird in verschiedenen Bereichen, wie z. B. in räumlichen Informationsnetzwerken und sozialen Netzwerken, immer häufiger verwendet. Die existierenden Graph-Computing-Systeme haben jedoch einige Probleme wie komplexe Programmierung und steile Lernkurve. Dieses Papier stellt GRAPE vor, eine verteilte GRAPh-Engine in großem Maßstab, die die einzigartigen Eigenschaften einer soliden theoretischen Garantie, Benutzerfreundlichkeit, Autoparallelisierung und hoher Leistung aufweist. Das Papier stellt auch mehrere typische Szenarien des Graph-Computing vor, einschließlich Entitätsauflösung, Link-Vorhersage, Community-Erkennung und Graph-Mining von räumlichen Informationsnetzwerken. In diesen Szenarien sind in den bestehenden Systemen verschiedene Probleme aufgetreten, wie beispielsweise das Versäumnis, große Daten aufgrund der hohen Berechnungskomplexität zu berechnen, ein Genauigkeitsverlust aufgrund des Beschneidens von Originaldaten und eine zu lange Ausführungszeit. Angesichts dieser Herausforderungen kann GRAPE diese Rechenszenarien einfach mit einer Reihe von technischen Verbesserungen unterstützen. Mit dem Einsatz von GRAPE in Alibaba wurden sowohl die Effektivität als auch die Effizienz des Graph-Computings stark verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1967-0_12 3be3babe14ce64394dd14bd2bd578dcd;de;;;3.4.;6.2.;;Kartografie und das Meer: Eine JavaScript-basierte Web-Mapping-Anwendung für die Verwaltung der Seeschifffahrt Das Meer hat über Jahrhunderte Forscher verschiedener Disziplinen angezogen. Um die Seeschifffahrt zu verwalten und zu verwalten, verlassen sich die Menschen traditionell auf Papierkarten. Dank moderner Webtechnologien, in JavaScript programmierten kartografischen Fachbibliotheken (leaflet.js) und frei verfügbaren Geodatensätzen kann die moderne Meereskartografie zu interaktiven und animierten Informationssystemen führen. Diese Systeme können an bestimmte Nutzungsszenarien angepasst werden und im Gegensatz zu gedruckten Karten können temporär irrelevante Informationen weggelassen werden. Dieser Artikel konzentriert sich auf eine kartografische Webanwendung, die die Seeschifffahrt im Gebiet der Westerschelde in den Niederlanden unterstützen soll. Der Artikel stellt die Hauptfunktionalitäten der Anwendung vor und diskutiert deren Vorteile gegenüber herkömmlichen praktischen Ansätzen. Die Anwendung wurde in Absprache mit Praktikern entwickelt, d.h. Fachleuten, die auf Schiffen oder im Management arbeiten. In diesem Artikel wird der Begriff Landschaft eher im positivistischen Sinne verstanden. Landschaft wird durch grafische Symbole dargestellt, die verwendet werden, um Informationen und Mengen für effiziente Managementzwecke bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-30956-5_10 0c70335bab890b02ef8f24ecfd3be914;de;;;3.4.;6.2.;;Die Entwicklung von Business-to-Business-Magazinen in China Business-to-Business (B2B)-Publikationen haben in China eine lange Geschichte, beginnend im frühen 20. Jahrhundert. Nach 1949 wurde die chinesische Wirtschaft von der Regierung geplant und reguliert, die ehemaligen B2B-Magazine wurden zu ihrem Zweck, um die Industriepolitik der Regierung zu erklären, die Geschäftsrichtung zu bestimmen und Entwicklungserfahrungen auszutauschen. Als China in den 1980er Jahren seine Reform begann und sich der Marktwirtschaft öffnete, tauchten traditionelle B2B-Magazine wieder auf. Heute informieren knapp 3.000 B2B-Magazine über bestimmte Branchen und Dienstleistungen.;-;-;-;https://link.springer.com/article/10.1007/s12109-008-9043-5 64f515bb405f516740d8b777cd26de50;de;;;3.4.;6.2.;;Die Nutzung von Social Media für private Anliegen in Organisationen: Eine Interviewstudie Social Media (SM) ermöglicht Interaktionen zwischen Menschen, wo und wann immer sie wollen. Viele Organisationen haben freien Zugang zu SM und Mitarbeiter haben während der Arbeitszeit Zugang zu solchen Tools. Ziel der Untersuchung war es herauszufinden, ob und aus welchen Gründen die Interviewer SM für private Anliegen während der Arbeitszeit einsetzten und wie die Einstellung dazu war. Die Studie wurde 2013–2015 mit offenen Tiefeninterviews durchgeführt (der qualitative Teil einer größeren Studie, der quantitative Teil wurde bei IC-ININFO, Madrid, 2014 vorgestellt). In acht Unternehmen wurden gezielt unterschiedliche Mitarbeitergruppen ausgewählt und Interviews mit Führungskräften, Personalverantwortlichen, Spezialisten und allgemeinen Mitarbeitern geführt, je eine an jedem Arbeitsplatz. Die wichtigsten Ergebnisse der Interviewstudie waren, dass Beschäftigte aus verschiedenen Gründen einen erheblichen Teil ihrer Arbeitszeit für den persönlichen Gebrauch von SM nutzten. Die Einstellungen zu einer solchen Verwendung waren je nach Position des Interviewers unterschiedlich. Arbeiten werden zunehmend außerhalb des Büros verrichtet und die Grenzen zwischen Beruf und Privatleben werden immer unübersichtlicher. Aus diesem Grund müssen Führungskräfte die Erfolgsquote und Leistung ihrer Mitarbeiter bewerten und ihre Produktivität und ihren Wert betrachten, anstatt zu hinterfragen, wo und wann sie gearbeitet haben oder wie lange es gedauert hat. Die Ergebnisse könnten für Organisationen von Wert sein, die den Einsatz von SM in ihrer Organisation und ihre Auswirkungen auf ihre Mitarbeiter bei der Arbeit bewerten möchten. Es kann auch einen Grundstein für weitere Forschungen auf diesem Gebiet legen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-33865-1_80 c0e33672c933bae2fba63e0ac3cad2da;de;;;3.4.;6.2.;;Was werden sie sagen?—Spiele mit öffentlichen Ankündigungen Dynamische epistemische Logik beschreibt die möglichen informationsverändernden Aktionen, die einzelnen Agenten zur Verfügung stehen, und ihre Vor- und Nachbedingungen für Wissen. Öffentliche Ankündigungslogik beschreibt beispielsweise Aktionen in Form von öffentlichen, wahrheitsgemäßen Ankündigungen. Allerdings hat sich die Forschung bisher kaum mit der Beschreibung und Analyse der rationalen Wahl zwischen solchen Handlungen beschäftigt, d. h. der Vorhersage, was rationale Eigeninteressenten tatsächlich tun werden oder sollten. Da das Ergebnis des Informationsaustauschs letztendlich von den Aktionen abhängt, die von allen Agenten im System gewählt werden, und unter der Annahme, dass Agenten Präferenzen gegenüber solchen Ergebnissen haben, ist dies a;-;-;-;https://link.springer.com/article/10.1007/s11229-010-9838-8 9e9ef757aa770a74dcde617f475a77f8;de;;;3.4.;6.2.;;Nicht-parametrische und semi-parametrische Unterstützungsschätzung mit SEQuential RESampling Random Walks auf biomolekularen Sequenzen Nicht-parametrische und semi-parametrische Resampling-Verfahren werden häufig verwendet, um eine unterstützende Schätzung in der Computerbiologie und Bioinformatik durchzuführen. Zu den am weitesten verbreiteten Methoden in dieser Klasse gehört die Standard-Bootstrap-Methode, die aus einer Zufallsstichprobe mit Ersetzung besteht. Obwohl keine Annahmen über ein bestimmtes parametrisches Modell für Resampling-Zwecke erforderlich sind, gehen Bootstrap und verwandte Techniken davon aus, dass Sites unabhängig und identisch verteilt (i.d. Die i.i.d. Diese Annahme kann viele Probleme in der Computerbiologie und Bioinformatik zu stark vereinfachen. Insbesondere die sequentielle Abhängigkeit innerhalb biomolekularer Sequenzen ist aufgrund biochemischer Funktionen, evolutionärer Prozesse wie Rekombination und anderer Faktoren oft ein wesentliches biologisches Merkmal. Um die vereinfachende i.i.d. Annahme schlagen wir eine neue nicht-parametrische/semi-parametrische sequentielle Resampling-Technik vor, die gespiegelte „Heads-or-Tails“-Eingaben verallgemeinert, eine einfache, aber clevere Technik von Landan und Graur. Das verallgemeinerte Verfahren nimmt die Form von Random Walks entlang entweder ausgerichteter oder nicht ausgerichteter biomolekularer Sequenzen an. Wir bezeichnen unsere neue Methode als SERES-Methode (oder „SEQuential RESampling“). Um die Leistungsfähigkeit der neuen Technik zu demonstrieren, wenden wir SERES an, um die Unterstützung für das multiple Sequenz-Alignment-Problem abzuschätzen. Anhand simulierter und empirischer Daten zeigen wir, dass die SERES-basierte Unterstützungsschätzung eine vergleichbare oder typischerweise bessere Leistung im Vergleich zu modernsten Methoden liefert.;-;-;-;https://link.springer.com/article/10.1186/s13015-020-00167-0 b19335d0ba146c3570377812c524b343;de;;;3.4.;6.2.;;Der ORTF als Staatssender Broadcast In diesem Kapitel wird untersucht, wie die Regierung ihre Macht über den ORTF ausübte und wie sich ihre Kontrolle auf die Programminhalte des Senders auswirkte. Abschnitt 6.1 listet die Methoden auf, die die Regierung anwendete, um den nationalen Rundfunkveranstalter zu unterwerfen. Abschnitt 6.2 analysiert die Auswirkungen der staatlichen Kontrolle auf die Produktion des Senders, insbesondere auf die politische Berichterstattung und die Berichterstattung des Präsidenten. Abschnitt 6.3 befasst sich mit der Frage des Zugangs zum ORTF, sowohl außerhalb als auch während des Wahlkampfs. In den Abschnitten 6.4 und 6.5 wird argumentiert, dass der nationale Sender aufgrund der politischen Kontrolle als staatliches Fernsehen fungierte und zwischen staatlichen und öffentlich-rechtlichen Sendern unterschieden werden sollte. Ihr Verhältnis zur politischen Autorität ist unterschiedlich und ihre diskursiven und ideologischen Merkmale stehen im Gegensatz zueinander.;-;-;-;https://link.springer.com/chapter/10.1057/9780230554474_6 230f2379c972b809e75467cab5e14efd;de;;;3.4.;6.2.;;OpenLitterMap.com – Offene Daten zur Plastikverschmutzung mit Blockchain-Belohnungen (Littercoin) OpenLitterMap belohnt Benutzer mit Littercoin für die Erstellung offener Daten über Abfall. Offene Daten zu den räumlichen Eigenschaften von Abfall bieten Möglichkeiten, Reaktionen auf die Verschmutzung durch Plastik abzurufen und zu bewerten. OpenLitterMap funktioniert derzeit als Web-App auf allen Geräten mit nativen mobilen Apps in der Entwicklung. Der Stack beinhaltet die Integration des Laravel PHP Frameworks im Backend, Vue für Frontend-Reaktivität, NativeScript-Vue für mobile Apps, Bulma für CSS, Leaflet für Web-Mapping, Turf.js für Geoanalyse, die Ethereum Blockchain für Tokenisierung, Stripe , ChartJS, AWS und mehr. Alles, von einer einzelnen Zigarettenkippe bis hin zum Inhalt eines ganzen Strandes oder einer Straßenreinigung, kann in einem einzigen mit Geotags versehenen Foto protokolliert werden. Alternativ kann ein einfacher Index verwendet werden, wenn der Abfall nicht berechenbar ist. Die offenen Daten umfassen mehr als 100 vordefinierte Müllarten, 20+ Unternehmensmarken, Verifizierungsstatus, Koordinaten, Zeitstempel, Telefonmodell, die neueste OpenStreetMap-Adresse an jedem Standort und die Müllpräsenz als Boolean. Bis heute wurden 100 % aller eingereichten Daten (~ 8200 Fotos, ~ 28.000 Wurf von über 150 Mitwirkenden) manuell verifiziert, die zur Entwicklung von Machine-Learning-Algorithmen verwendet werden.;-;-;-;https://link.springer.com/article/10.1186/s40965-018-0050-y def27e585f19f7cc7184232524123a36;de;;;3.4.;6.2.;;Ökonomische Modellierung von Predatory Journal Publishing Dieser Artikel wendet ein ökonomisches Modell an, um die Angebots- und Nachfragebeziehung des räuberischen Zeitschriftenveröffentlichens zu analysieren. Es verwendet die Anzahl der Zeitschriften und Artikel als Angebotsindex und die Anzahl der Forscher als Nachfrageindex und versucht zu untersuchen, wie sich deren Zustandsänderungen auf ein wirtschaftliches Gleichgewicht auswirken. Anstatt den Preis als Determinante des Marktgleichgewichts zu verwenden, hebt der Artikel die Qualität von Veröffentlichungen als Maßstab hervor. Es deutet darauf hin, dass eine Zunahme der Open-Access-Zeitschriftenveröffentlichung das Wachstum der Forscherpopulation weltweit überholt hat. Insbesondere die rasche und massive Entwicklung von Predatory Journals, die keine Peer-Review haben, aber Gebühren für die Artikelbearbeitung erheben, hat zu einer Verschlechterung der Publikationsqualität geführt.;-;-;-;https://link.springer.com/article/10.1007/s12109-019-09661-9 6c3bb0400782fe6cb097ad29f5071ba8;de;;;3.4.;6.2.;;Simulieren sozial-ökologischer Systeme: das Konsortium Island Digital Ecosystem Avatars (IDEA) Die Systembiologie verspricht, die Medizin zu revolutionieren, aber das menschliche Wohlbefinden ist auch von Natur aus mit gesunden Gesellschaften und Umwelten verbunden (Nachhaltigkeit). Das IDEA Consortium ist eine systemökologische Open-Science-Initiative zur Durchführung der wissenschaftlichen Grundlagenforschung, die erforderlich ist, um nutzungsorientierte Simulationen (Avatare) ganzer sozial-ökologischer Systeme zu erstellen. Inseln sind die wissenschaftlich am besten zugänglichen Orte für diese Studien und wir beginnen mit einem der bekanntesten: Moorea, Französisch-Polynesien. Die Moorea IDEA wird ein Nachhaltigkeitssimulator sein, der Verbindungen und Rückkopplungen zwischen Klima, Umwelt, Biodiversität und menschlichen Aktivitäten in einer gekoppelten marinen und terrestrischen Landschaft modelliert. Als Modellsystem werden die daraus resultierenden Kenntnisse und Werkzeuge unsere Fähigkeit verbessern, menschliche und natürliche Veränderungen auf Moorea und anderswo in einem für Management-/Naturschutzmaßnahmen relevanten Maßstab vorherzusagen.;-;-;-;https://link.springer.com/article/10.1186/s13742-016-0118-5 d59f3bd176c45c25d07542cf3274d113;de;;;3.4.;6.2.;;Die sich entwickelnden Herausforderungen und Chancen im Global Publishing Ein Essay über die Herausforderungen und Chancen im Global Publishing und insbesondere über viele der großen Fragen, denen sich Verlage heute stellen müssen, die sich aus der Verbindung von Inhalt und Technologie ergeben. Beinhaltet die Untersuchung von drei Hauptvertikalen (STM, Education und Trade Publishing) und berücksichtigt die Möglichkeiten, die die branchenübergreifende Zusammenarbeit bietet, um globale Standards zu entwickeln.;-;-;-;https://link.springer.com/article/10.1007/s12109-014-9392-1 5caa096a90d3c710ecb64d62298bdc2c;de;;;3.4.;6.2.;;Vergleichende Wirksamkeit von Glimepirid und Metformin in der Monotherapie des Typ-2-Diabetes mellitus: Metaanalyse randomisierter kontrollierter Studien Die Behandlung mit Metformin ist seit Jahrzehnten die am meisten empfohlene Monotherapie des Typ-2-Diabetes mellitus (T2DM), wird jedoch durch neue Antidiabetika in Frage gestellt. Diese Studie führte eine Metaanalyse von randomisierten kontrollierten Studien (RCT) durch, in denen die Wirksamkeit von Metformin und Glimepirid in der Monotherapie von T2DM verglichen wurde.;-;-;-;https://link.springer.com/article/10.1186/1758-5996-5-70 8e193190d50a2ae8ba4e4029aaf35ae4;de;;;3.4.;6.2.;;De-novo-Produktion von sechs Monoterpenen mit Schlüsseltraubenaroma durch eine auf Geraniol-Synthase hergestellte Monoterpene tragen wesentlich zum Trauben- und Weinaroma bei. Darüber hinaus haben bestimmte Monoterpene nachweislich gesundheitliche Vorteile mit unter anderem antimikrobiellen, entzündungshemmenden, krebshemmenden oder blutdrucksenkenden Eigenschaften. Das Ziel dieser Studie war es, selbstaromatisierende Weinhefen zu konstruieren, um diese Pflanzenmetaboliten in Weinen de novo zu überproduzieren.;-;-;-;https://link.springer.com/article/10.1186/s12934-015-0306-5 cffb0a4b11dc06c75d648bdefb0a5fc1;de;;;3.4.;6.2.;;Workflows für das Management des Wandels in Naturwissenschaften, Technologien, Ingenieurwissenschaften und Mathematik Mathematische Kenntnisse sind ein zentraler Bestandteil in Natur-, Ingenieur- und Technikwissenschaften (Dokumentation). Das meiste davon ist informell vertreten und unterliegt – im Gegensatz zur veröffentlichten Forschungsmathematik – einem ständigen Wandel. Leider ist die maschinelle Unterstützung für das Änderungsmanagement entweder sehr grobkörnig und daher kaum sinnvoll oder auf formale Sprachen beschränkt, in denen eine Automatisierung möglich ist. In diesem Beitrag berichten wir über Bemühungen, das Änderungsmanagement auf Sammlungen semi-formaler Dokumente auszudehnen, die mathematische Formeln und natürliche Sprache flexibel vermischen und in ein semantisches Publikationssystem für mathematisches Wissen zu integrieren. Wir validieren die langjährige Annahme, dass die semantischen Annotationen in diesen flexiformalen Dokumenten, die die maschinengestützte Interaktion mit Dokumenten vorantreiben, gleichzeitig semantische Wirkungsanalysen unterstützen können. Aber im Gegensatz zum vollständig formalen Setting, bei dem Anpassungen betroffener Dokumente bis zu einem gewissen Grad automatisiert werden können, erfordert das flexiformal-Setting viel mehr Benutzerinteraktion und damit eine viel engere Integration in Dokumentenmanagement-Workflows.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22673-1_12 5e8a3e9cadfff1151b925fab1b00655f;de;;;3.4.;6.2.;;Standardisierung und Qualitätssicherung in der Life-Science-Forschung – dringend notwendig oder unnötige und lästige Regulierung? Open Science beschreibt die ständigen Veränderungen in der Art und Weise, wie Forschung betrieben wird, d. h. Forscher zusammenarbeiten, Wissen teilen und Wissenschaft organisieren. Sie wird angetrieben von digitalen Technologien und dem enormen Datenwachstum, der Globalisierung, der Erweiterung der wissenschaftlichen Gemeinschaft und der Notwendigkeit, gesellschaftliche Herausforderungen anzugehen [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00825-3_2 0b8a05495881203c56d45bbe2a08c402;de;;;3.4.;6.2.;;Semantic Publishing Challenge – Bewertung der Qualität des wissenschaftlichen Outputs in seinem Ökosystem Die Semantic Publishing Challenge zielt darauf ab, die Teilnehmer daran zu beteiligen, Daten aus heterogenen Quellen zu wissenschaftlichen Publikationen zu extrahieren und Linked Data zu produzieren, die von der Community selbst verwertet werden können. Die Ausgabe 2014 war der erste Versuch, eine Challenge zu organisieren, um die Qualität des wissenschaftlichen Outputs beurteilen zu können. In der Ausgabe 2015 wurden die potenziellen Techniken, d. h. Informationsextraktion und Verknüpfung, deutlicher formuliert. Die aktuelle Ausgabe 2016 konzentriert sich auf die vielfältigen Dimensionen der wissenschaftlichen Qualität und das große Wirkungspotenzial der Erstellung von Linked Data für diesen Zweck. In diesem Beitrag diskutieren wir die Gesamtstruktur der Semantic Publishing Challenge, wie sie für die Ausgabe 2016 vorliegt, sowie die eingereichten Lösungen und deren Bewertung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-46565-4_19 4788cf6e50254302efbeec3a04e84e64;de;;;3.4.;6.2.;;Open Science Observatory: Monitoring von Open Science in Europa Die prinzipientreue und kontinuierliche Überwachung und Bewertung von Open Science (OS)-Praktiken und Forschungsergebnissen wird als einer der notwendigen Schritte zu ihrer breiteren Einführung angesehen. In diesem Beitrag wird das Open Science Observatory vorgestellt, ein Prototyp einer Online-Plattform, die Daten aus OpenAIRE e-Infrastructure und anderen öffentlichen Datenquellen kombiniert und die Benutzer über umfangreiche Visualisierungen über verschiedene Betriebssystemindikatoren in Europa informiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-55814-7_29 dead6843360f0ed8d3e48a024b7f131d;de;;;3.4.;6.2.;;Soziale Nachhaltigkeit, Nachbarschaftszusammenhalt und Lebensqualität: Eine Geschichte von zwei Vororten in Calgary Calgary ist eine der am schnellsten wachsenden Städte in Nordamerika mit über 90 % dieses Wachstums in den Vororten. Während sich ein Großteil der Planungsrhetorik auf Nachhaltigkeit konzentriert, bleiben die Versuche, soziale Nachhaltigkeit zu erforschen, begrenzt. Die empirische Forschung in diesem Kapitel verwendet einen robusten Ansatz zur Operationalisierung und Messung sozialer Nachhaltigkeit mit multidisziplinären Analysemethoden und konzentriert sich auf den nachbarschaftlichen Zusammenhalt. Es wird argumentiert, dass Nachbarschaften eine Rolle spielen und der Nachbarschaftszusammenhalt in den Vororten relativ hoch ist, aber verschiedene Faktoren beeinflussen die Wahrnehmung und die sozialen Prozesse der Bewohner. Die Forschung evaluiert den Zusammenhalt der Quartiere mit einem Fokus auf drei Dimensionen – psychologisches Gemeinschaftsgefühl, Ortsbindung, soziale Interaktion der Bewohner sowie deren Korrelationen mit der Einzigartigkeit des Quartiers. Mit einer Reihe qualitativer und quantitativer Methoden betrachtet es die Lebensqualität und die Wahrnehmung der Bewohner von den physischen und sozialen Eigenschaften zweier Vorstadtviertel in Calgary, um eine eingehende Interpretation der Ähnlichkeiten und Unterschiede im Stadtteilzusammenhalt und der sozialen Nachhaltigkeit zu ermöglichen. Die Ergebnisse adressieren einen wichtigen Aspekt der Kommunalplanung, der mit der Attraktivität des Wohnens in semi-gated suburbanen Wohngebieten in Siedlungen geringer Dichte, eingebettet in die natürliche Umgebung, verbunden ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-50540-0_19 c6aed5f1554017e3769acff0b03e1a0e;de;;;3.4.;6.2.;;Vergleich intelligenter Klassifikationsalgorithmen für betriebliche Lernsysteme in High-Tech-Service-orientierten Unternehmen Wir untersuchen die Charakteristik mehrerer intelligenter Algorithmen für das Programmdialogmodul des Unterstützungssystems von Entwicklungspersonal von High-Tech-Dienstleistungsunternehmen. Beschreibt kurz das parametrische Modell des betrieblichen Lernens als Grundlage für die Personalentwicklung und die am besten geeigneten Ansätze zur Bildung spezifischer Mitarbeiterkompetenzen. Eines der Elemente des vorgeschlagenen Systems ist die Möglichkeit, fachliche Fragen des Personals zu beantworten. Bei solchen Anwendungen spielt die Vorklassifizierung von Anfragen eine wichtige Rolle, die es ermöglichen, den Suchbereich einzugrenzen und die Relevanz zu erhöhen. Drei Ansätze zur Klassifikation von Fragen wurden verglichen: Der Naive Bayes-Klassifikator, der Random-Forest-Klassifikator und das neuronale Netz. Eine vergleichende Bewertung solcher Ansätze wurde durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-65218-0_27 0a3ef3ddcd7e9574995ec02cca09ce66;de;;;3.4.;6.2.;;Illegitime wissenschaftliche Veröffentlichungen: Ein Bedarf für nachhaltiges globales Handeln Diese Rezension beleuchtet das Problem der illegitimen (räuberischen) wissenschaftlichen Veröffentlichung von Büchern, Monographien, Zeitschriften und Tagungsbänden, das aufgrund des Schadens für die akademische Qualität und die Gesellschaft weltweit ein aktuelles Thema ist. Es befasst sich mit dem Dilemma, mit dem Forscher in Entwicklungsländern bei der Veröffentlichung von Forschungsergebnissen konfrontiert sind. Es versucht, die Qualitäten legitimer und illegitimer wissenschaftlicher Verlage und wissenschaftlicher Konferenzorganisatoren klar zu beschreiben. Es schlägt mehrere Lösungen und Protokolle vor, um illegale Veröffentlichungen auf der Ebene einzelner Forscher, Institutionen und wissenschaftlicher Gesellschaften, Regierung und Gesellschaft sowie internationaler und regionaler Gruppen zu bekämpfen, wobei den länderspezifischen Bedingungen und akademischen Ungleichheiten zwischen den Industrie- und Entwicklungsländern gebührend Rechnung getragen wird. Da das Thema sowohl Forscher in Industrie- als auch in Entwicklungsländern betrifft, wird ein nachhaltiges globales Handeln auf höchster Regierungsebene befürwortet, um das illegale wissenschaftliche Publizieren weltweit auf das Nötigste zu reduzieren.;-;-;-;https://link.springer.com/article/10.1007/s12109-018-9614-z 3f5d259554ed6ba170b4d19fb3f7812b;de;;;3.4.;6.2.;;Explorative Visual Analytics für das Winterstraßenmanagement mit statistisch vorverarbeiteten Sondenfahrzeugdaten Soziale CPSs (Cyber-Physical Systems) bezeichnen die erweiterte Anwendung der Idee von CPSs auf die Überwachung und Steuerung von sozialen Infrastruktursystemen auf urbaner Ebene. Sie nutzen sowohl in Datenbanken gespeicherte Cyberdaten als auch physische Daten aus Sensornetzwerken in der physischen Zielwelt zur Analyse und optimierten Steuerung von städtischen Infrastruktursystemen wie Verkehr, Energie und Wasserversorgung. Dieses Papier konzentriert sich auf das Winterstraßenmanagement in Sapporo, wo wir unter den Städten mit mehr als 1 Million Einwohnern den weltweit größten jährlichen Schneefall haben. Für die Überwachung des Straßenzustands in der gesamten Stadt ist die Verwendung von Sondierungsfahrzeugdaten ohne Verletzung des Schutzes personenbezogener Daten von grundlegender Bedeutung. Dieser Beitrag zeigt zunächst, dass über Straßenverbindungen für ein städtisches Gebiet statistisch vorverarbeitete Sondierungsfahrzeugdaten es uns immer noch ermöglichen, die dynamische Änderung des Verkehrsflusses in Bezug auf das Divergenz- und Flussvektorfeld zu visualisieren. Diese geben uns ausreichende Informationen über die dynamische Änderung von Verkehrsknotenpunkten, Hauptverkehrsströmen und Routenwahlpräferenzen. Das Papier zeigt auch komplexere und fortgeschrittene Analysen solcher Daten, insbesondere für ein besseres Winterstraßenmanagement in Sapporo. Wir erweitern das bekannte Framework für mehrere koordinierte Ansichten für explorative visuelle Analysen um mehrere koordinierte Ansichten und Analysen, indem wir Analysetools mit ihren Ergebnisvisualisierungsansichten in dieselbe Umgebung integrieren. Diese neu hinzugefügten Ansichten können sich auch mit anderen koordinieren und es Benutzern ermöglichen, zur Laufzeit berechnete Cluster oder abgebaute Muster direkt auszuwählen, um die zugrunde liegende Datenbankansicht weiter zu quantifizieren. Explorative visuelle Analysen mit einer solchen Umgebung ermöglichen es uns, Straßenverbindungen für eine effektive punktgenaue Schneeräumung zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-14711-6_6 c66be9e049e35820a0b4ffa4ca928b17;de;;;3.4.;6.2.;;Das falsche Tor öffnen? Der akademische Frühling und das wissenschaftliche Publizieren in den Geistes- und Sozialwissenschaften In diesem Beitrag untersuche ich die Art und Weise, wie der Elsevier-Boykott von 2012 und der daraus resultierende Aufruf zu Open-Access-Stipendien, bekannt als „akademischer Frühling“, von Wissenschaftlern der Geistes- und Sozialwissenschaften aufgegriffen wurden. Ich beginne mit einem Überblick über den aktuellen Stand der Dinge in Bezug auf das Verlagswesen und die Akademie und erläutere die Gründe der Bewegung für die Forderung nach Veränderung. Daraus identifiziere ich zwei moralische Prinzipien, die aus seiner Kritik hervorgehen, und zeige dann auf, wie die Umsetzung der als Alternativen zum Status Quo in Umlauf gebrachten Empfehlungen nicht unbedingt die Grundprinzipien des akademischen Frühlings unterstützt. Abschließend schlage ich eine mögliche alternative Richtung des produktiven Handelns vor und spreche ein letztes Wort der Warnung aus.;-;-;-;https://link.springer.com/article/10.1007/s12109-012-9272-5 a8f143fbae89fca578490081fda9bb03;de;;;3.5.;6.2.;;Data Ethics Decision Aid (DEDA): ein dialogischer Rahmen für die ethische Untersuchung von KI- und Datenprojekten in den Niederlanden Dieser Beitrag diskutiert die Entwicklung der Datenethik-Entscheidungshilfe (DEDA), einem Rahmen zur Überprüfung von staatlichen Datenprojekten, der ihre sozialen Auswirkungen, die eingebetteten Werte und die Verantwortung der Regierung in Zeiten datengetriebener öffentlicher Verwaltung berücksichtigt. Basierend auf unterschiedlichen qualitativen Forschungsansätzen wurde der DEDA-Rahmen in einem iterativen Prozess (2016–2018) entwickelt und wird seitdem von verschiedenen niederländischen Gemeinden, dem Verband niederländischer Gemeinden und dem Ministerium für Allgemeine Angelegenheiten (NL) angewendet. Wir präsentieren das DEDA-Framework als effektiven Prozess, um die Fallberatung zu moderieren und die Entwicklung verantwortungsbewusster Datenpraktiken voranzutreiben. Darüber hinaus legt der DEDA-Rahmen durch die gründliche Dokumentation des Beratungsprozesses Rechenschaftspflicht fest. Erstens beleuchtet dieses Papier die Notwendigkeit einer datenethischen Fallberatung. Zweitens beschreibt es die Prototypen, das endgültige Design des Frameworks und seine Bewertung. Nach einem Vergleich mit anderen Rahmenwerken und einer Diskussion der Ergebnisse schließt das Papier mit der Argumentation, dass das DEDA-Rahmenwerk ein nützlicher Prozess zur ethischen Bewertung von Datenprojekten für die öffentliche Verwaltung und ein wirksames Instrument zur Bewusstseinsbildung für ethische Probleme in der Datenpraxis ist.;-;-;-;https://link.springer.com/article/10.1007/s10676-020-09577-5 cae953c24109a3bd95b706a49af93a7c;de;;;4.1.;6.2.;;Entwicklung eines Online-Autorentools zur Unterstützung von Lehrkräften bei der Gestaltung des designbasierten Unterrichts des 21. Jahrhunderts in der Grundschule Design Based Learning (DBL) als pädagogischer Ansatz, der sich in der Grundschule entwickelt. Aufgrund der begrenzten Verfügbarkeit von vorgeschriebenen Lehrmaterialien für DR werden Lernaktivitäten oft von den Lehrenden selbst entwickelt. Für Lehrer ist es jedoch oft schwierig, DBL-Aktivitäten zu entwickeln. Der Beitrag untersucht, wie Grundschullehrer bei der Entwicklung erfolgreicher DR-Lernaktivitäten unterstützt werden können, bei denen die Schüler sowohl Kernlehrplanziele als auch 21;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-21151-6_8 ef407a019ea12d0dfa0edaefedf16fde;de;;;4.1.;6.2.;;Einflussfaktoren auf die Computernutzung von Studenten im Gesundheitswesen zur Datenanalyse an drei öffentlichen medizinischen Fakultäten in Uganda: eine Querschnittsstudie Die effektive Nutzung von Computern und deren Anwendungen in der medizinischen Ausbildung und Forschung ist für Studierende von größter Bedeutung. Das Ziel dieser Studie war es, den Zusammenhang zwischen dem Besitz eines Computers und der Nutzung von Computern für die Analyse von Forschungsdaten und den anderen Faktoren zu bestimmen, die die Computernutzung von Studenten der Gesundheitsberufe für die Datenanalyse beeinflussen.;-;-;-;https://link.springer.com/article/10.1186/s13104-015-1013-3 f074093a2c58654c65c928e904083128;de;;;3.5.;6.3.;1.2.;Digitale Transformation von Forschungsprozessen in den Geisteswissenschaften Dieser Beitrag stellt die transdisziplinäre Arbeit an digitalen Werkzeugen im Bereich der Textanalyse vor. Die Verfügbarkeit digitalisierter oder digitaler Textquellen bietet Möglichkeiten für automatisierte Analysen und neue Formen der informationstechnischen Unterstützung von Forschenden. Dies kann jedoch nur unter der Bedingung gelingen, dass Geisteswissenschaftler und andere Forscher, die digitale Werkzeuge für ihre Analysen nutzen wollen, und Werkzeugentwickler sich eingehend mit den Prozessen der Textanalyse auseinandersetzen, um jeden Schritt der Forschung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36599-8_30 8ec24dca45e6e2e48ecbba540443e636;de;;;3.4.;6.3.;1.2.;Erstellen von Repliken von Objekten des technischen Erbes in einer virtuellen Umgebung Der Beitrag stellt innovative Informatikmethoden zur Erstellung virtueller Nachbildungen des technischen Erbes vor, die nicht nur für Forscher, sondern für die Öffentlichkeit von erheblicher wissenschaftlicher und praktischer Bedeutung sind. Durch die Durchführung von 3D-Modellierung und Animation von Flugzeugen, Raumschiffen, architekturtechnischen Gebäuden und anderen technischen Objekten wird der Lernprozess erreicht und gleichzeitig die Erhaltung der Nachbauten für zukünftige Generationen gefördert. Moderne Ansätze, die auf dem breiten Einsatz von Computertechnologien basieren, ziehen immer mehr junge Menschen an, sich mit der Geschichte von Wissenschaft und Technik zu beschäftigen und ihr Interesse für den Maschinenbau zu erneuern.;-;-;-;https://link.springer.com/article/10.1007/s11465-016-0363-4 4ac222c96fc8a8235cb752ff65c07f40;de;;;3.4.;6.3.;2.1.;DataStaR: Verknüpfung von XML und OWL im wissenschaftlichen Metadatenmanagement DataStaR ist ein von der Albert R. Mann Library an der Cornell University entwickeltes „Staging-Repository“ für wissenschaftliche Daten, das semantische Metadaten erzeugt und gleichzeitig die Veröffentlichung von Datensätzen und begleitenden Metadaten in disziplinspezifischen Rechenzentren oder im institutionellen Repository von Cornell ermöglicht. DataStaR, das OWL und RDF in seinem Metadatenspeicher einsetzt, dient als webbasierte Plattform für die Produktion und Verwaltung von Metadaten und zielt darauf ab, redundante manuelle Eingaben durch die Wiederverwendung benannter Ontologie-Individuen zu reduzieren. Eine Schlüsselanforderung von DataStaR ist die Fähigkeit, Metadatensätze zu erstellen, die bestehenden XML-Schemas entsprechen, die von wissenschaftlichen Gemeinschaften übernommen wurden. Um dies zu erleichtern, integriert DataStaR Ontologien, die XML-Schemas direkt widerspiegeln, generiert HTML-Bearbeitungsformulare und „senkt“ Ontologie-Axiome in XML-Dokumente, die mit bestehenden Schemas kompatibel sind. Dieses Papier beschreibt unseren Ansatz und die Umsetzung und diskutiert die damit verbundenen Herausforderungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04590-5_13 e5ba846a0b74674b4f0a851c025e6b36;de;;;3.5.;6.3.;2.2.;Aggregierte Dateninfrastrukturen für das Kulturerbe Aggregative Data Infrastructures (ADIs) sind Informationssysteme, in denen Unternehmen die Werkzeuge finden können, um ihre Datenquellen zu integrieren, um einheitliche und umfassendere Informationsräume von Objektmetadatenbeschreibungen zu bilden. Neue nachhaltige Ansätze für die Realisierung von ADIs basieren auf der Einführung von ADI-Enabling-Technologien, die die Realisierung, Wartung und Aktualisierung von ADIs unterstützen und die Wiederverwendung von Funktionen fördern. Die Gemeinschaft des Kulturerbes (CH) ist eine der aktivsten in der Umsetzung von ADIs. Zudem kann die Realisierung von ADIs für CH aufgrund der möglicherweise hohen Heterogenität der beteiligten Datenquellen im Vergleich zu anderen Disziplinen besonders komplex sein. In diesem Beitrag stellen wir das D-NET Software Toolkit als idealen Kandidaten für die Realisierung nachhaltiger, erweiterbarer, skalierbarer und dynamischer ADIs für CH vor. Zu diesem Zweck stellen wir das D-NET-Framework und die Dienste vor und demonstrieren seine Wirksamkeit im CH-Szenario, indem wir seine Anwendung beschreiben, um eine reale ADI für das Projekt Heritage of the People’s Europe zu realisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35233-1_24 695983baa8cf2690eb06ed0cd3b421f0;de;;;3.4.;6.3.;2.2.;Prototyping digitaler Bibliotheken, die mit heterogenen Datenquellen umgehen – Die ETANA-DL-Fallstudie In der Archäologie verwendete Informationssysteme haben mehrere Bedürfnisse: Interoperabilität zwischen heterogenen Systemen, Bereitstellung von Informationen ohne nennenswerte Verzögerung, langfristige Aufbewahrung von Daten und Bereitstellung einer Reihe von Diensten für die Benutzer. In diesem Beitrag zeigen wir, wie digitale Bibliothekstechniken eingesetzt werden können, um Lösungen für drei dieser Probleme bereitzustellen. Wir zeigen dies, indem wir einen Prototyp für eine archäologische digitale Bibliothek (ETANA-DL) beschreiben. Erstens wendet ETANA-DL den Metadaten-Harvesting-Ansatz an und erweitert ihn, um einige der Anforderungen an Interoperabilität, schnellen Zugriff auf Daten und Datenerhaltung zu erfüllen. Zweitens zeigen wir, dass die Verfügbarkeit eines Pools von Komponenten, die gängige DL-Dienste implementieren, bei der schnellen Erstellung des Prototyps geholfen hat, der anschließend zur Ermittlung der Anforderungen verwendet wurde. Das Verständnis komplexer archäologischer Informationssysteme ist jedoch eine schwierige Aufgabe. Drittens beschreiben wir daher unsere Bemühungen, diese Systeme mit dem 5S-Framework zu modellieren, und zeigen, wie das teilweise entwickelte Modell verwendet wurde, um komplexe Dienste zu implementieren, die den Benutzern helfen, wichtige Aufgaben mit den integrierten Daten auszuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30230-8_18 9afeecdc85767ac9bc0e825c5f70d3b2;de;;;3.4.;6.3.;3.1.;Der Enkel des GlaubensheldenHerzog Johann Casimir (1564-1633) und die politischen Folgen der Reformation. Vorbericht zu einer Ausstellung der Landesbibliothek Coburg aus Anlass des 450. Geburtstags Herzog Johann Casimirs von Sachsen (-Coburg).;http://dabi.ib.hu-berlin.de/cgi-bin/dabi/vollanzeige.pl?artikel_id=17278&modus=html;-;-;- d8ee10e93bf714c464c1814858854a90;de;;;3.4.;6.3.;3.2.;Von Korallen und Webportalen: Auf dem Weg zu einer digitalen Risikodarstellung für die Kaltwasserkorallen im Öl- und Gassektor Integrierte Operationen in der Öl- und Gasindustrie hängen von sehr kooperativen, aber computervermittelten und verteilten Arbeitsabläufen über komplexe Informationsinfrastrukturen ab. Insbesondere Offshore-Operationen sind stark auf digitale Technologien angewiesen, um Fernzugriff auf unterseeische Öl- oder Erdgasfelder zu erhalten, und unterliegen gleichzeitig strengen Auflagen der Behörden, um eine Verschmutzung der Meeresumwelt zu verhindern. Die Betreiber sind folglich auf Modelle und Darstellungen angewiesen, um Umweltrisiken zu bewerten und vorherzusagen. Die heterogenen Disziplinen, die ein Feld betreiben, können jedoch nicht auf eine gemeinsame Perspektive auf Umweltrisiken zählen, da ihre Aktivitäten über organisatorische und politische Grenzen hinweg reichen. Wir präsentieren eine Fallstudie eines norwegischen Öl- und Gasunternehmens, das eine Reihe von Werkzeugen und Methoden entwickelt, um heterogenen Benutzern das Risiko für die Kaltwasserkorallenriffe vor den Küsten Norwegens zu sensibilisieren. Ein besonderes Augenmerk liegt dabei auf der Artikulationsarbeit, damit Darstellungen und Modelle das zwangsläufig fehlende gemeinsame Bewusstsein für Umweltrisiken kompensieren und gleichzeitig in die vorhandene soziotechnische Infrastruktur passen. Wir diskutieren Strategien der Akteure, um die Infrastruktur in den Vordergrund zu stellen, indem wir: (1);-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06498-7_7 deba8f4c8e5f989e86ef4c048d7ba178;de;;;3.4.;6.3.;3.2.;Erkenntnisse aus Registern des hämolytisch-urämischen Syndroms: Empfehlungen zur Umsetzung Das hämolytisch-urämische Syndrom (HUS) ist eine seltene Erkrankung, die mit der Trias Thrombozytopenie, mikroangiopathischer hämolytischer Anämie und akuter Nierenschädigung diagnostiziert wird. Es besteht ein hoher Forschungsbedarf, um Therapien zu entdecken. HUS-Register können als wichtige Informationsinfrastruktur genutzt werden. In dieser Studie haben wir die verschiedenen Merkmale von HUS-Registern identifiziert und verglichen, um einen Leitfaden für die Entwicklung und Implementierung von HUS-Registern zu präsentieren.;-;-;-;https://link.springer.com/article/10.1186/s13023-021-01871-9 de79281e803f38d973a070b14a751b79;de;;;3.4.;6.3.;4.2.;Kulturelles Ressourcenmanagement im Kontext In den Vereinigten Staaten wird ein Großteil der Denkmalpflege im Rahmen des Kulturressourcenmanagements durchgeführt. Kulturelles Ressourcenmanagement wird zunehmend als Erbemanagement im größeren Kontext des Ökosystemmanagements oder der ökologischen Verantwortung betrieben. Kulturelle Ressourcen sind ein wichtiger Faktor in der menschlichen Umwelt und müssen im Kontext aller anderen biologischen, sozialen und geophysikalischen Elemente in dieser Umwelt oder diesem Ökosystem verwaltet werden. Eine gute Umweltverantwortung erfordert ein positives Ressourcenmanagement, einschließlich des Managements unserer materiellen und immateriellen kulturellen Ressourcen. Viele Wissenschaftler sind direkt oder indirekt, bewusst oder unbewusst mit dem Kulturressourcenmanagement befasst. Das öffentliche Bewusstsein für den Wert kultureller Ressourcen ist gestiegen, und ihr Schutz erfordert die sachkundige und fürsorgliche Zusammenarbeit von Ressourcenspezialisten (z. B. Anthropologen, Archäologen, Architekten, Archivaren, Ingenieuren, Volkskundlern, Historikern), Materialwissenschaftlern, Landmanagern, die Entscheidungen treffen , und die lebendige Gemeinschaft mit Verbindungen zu den Ressourcen des Kulturerbes. Dies wiederum beinhaltet, dass jede teilnehmende Gemeinschaft und jeder Einzelne (einschließlich der Wissenschaftler) die Schnittstellen untereinander verwaltet. Dies geschieht, indem man etwas über die Werte anderer Gruppen und ihre speziellen Sprachen und ihre betrieblichen Beschränkungen und Möglichkeiten lernt (und lernt, sie wertzuschätzen), sowie über den allgemeinen öffentlichen Nutzen und die Kosten von Entscheidungen über das Management kultureller Ressourcen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1012480729171 f70c0ff4de6bb151cf7b72e8b92cd449;de;;;3.5.;6.3.;5.2.;Im Gespräch mit Wissenschaftlern: Entwicklung einer Forschungsumgebung für Oral History Collections Wissenschaftler müssen die Sammlungen der Oral History noch optimal nutzen. Für die Übernahme digitaler Forschungswerkzeuge in die tägliche Arbeitspraxis von Forschenden sollten bei der Entwicklung gängige Praktiken und Konventionen in den Teilgebieten der Geisteswissenschaften berücksichtigt werden, um die Übernahme digitaler Forschungswerkzeuge in die tägliche Arbeitspraxis zu erleichtern von Forschern. Zu diesem Zweck im;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08425-1_22 3f9485dae34b555861f3e5beec293c0a;de;;;3.4.;6.3.;5.2.;Theoretischer Hintergrund der Dienstleistungsinnovation in kleinen und mittleren Unternehmen: Literaturmapping Ziel dieser Studie war es, die Innovation von Dienstleistungen in kleinen und mittleren Unternehmen, wie sie in den Datenbanken Web of Science und SCOPUS berichtet wird, anhand eines strukturierten Reviews mit 121 zwischen 1946 und 2019 veröffentlichten Arbeiten abzubilden an der Zahl der Studien in den letzten Jahren, die 23 Länder auf sechs Kontinenten abdecken, wobei das Vereinigte Königreich 48,78 % der Studien ausmacht. Es wurden Muster in der Anwendung von Methoden in der Forschung sowie eine konzeptionelle Struktur des Feldes identifiziert. Die Hauptbereiche der Wissenschaft waren Finanzen, Marketing, Energie und Green Engineering. Die Studie leistet einen originellen Beitrag zur Literatur, der das Interesse an der Wissenserweiterung in der akademischen Gemeinschaft unterstreicht und eine tiefere Analyse der Beziehung zwischen den bewerteten Konstrukten ermöglicht.;-;-;-;https://link.springer.com/article/10.1186/s13731-020-00135-3 d9454ea6859772ede0539d885ea50db3;de;;;3.5.;6.3.;6.2.;Analyse wissenschaftlicher Kommunikationsmetadaten von Informatikveranstaltungen of In den letzten 30 Jahren haben wir die Auswirkungen der allgegenwärtigen Verfügbarkeit von Internet, E-Mail und webbasierten Diensten auf die wissenschaftliche Kommunikation beobachtet. Die Erstellung von Manuskripten sowie die Organisation von Konferenzen, von der Einreichung über das Peer Review bis zur Veröffentlichung, sind erheblich einfacher und effizienter geworden. Eine zentrale Frage ist nun, welche messbaren Auswirkungen auf die Wissenschaftskommunikation in der Informatik waren. Von besonderem Interesse sind folgende Fragen: Ist die Zahl der Einreichungen zu Konferenzen gestiegen? Wie haben sich die Auswahlverfahren verändert? Gibt es eine Vielzahl von Veröffentlichungen? Einige dieser Fragen beleuchten wir durch die Analyse umfassender wissenschaftlicher Kommunikationsmetadaten aus einer Vielzahl von Informatikkonferenzen der letzten 30 Jahre. Unsere übertragbare Analysemethodik basiert auf deskriptiver statistischer Analyse sowie explorativer Datenanalyse und nutzt Crowdsourcing, semantisch repräsentierte wissenschaftliche Kommunikationsmetadaten von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67008-9_27 51f1a564bd1e218716e8653ede0f997f;de;;;3.4.;6.3.;6.2.;Verbindung von Regierungen, Unternehmen und Bürgern – ein Vergleich zweier digitaler Infrastrukturen Öffentliche und private Organisationen in verschiedenen Bereichen bauen digitale Informationsinfrastrukturen (IIs) auf, um Regierung, Unternehmen und Bürger miteinander zu verbinden. IIs können Mehrwert schaffen, indem sie Daten mehrerer Akteure teilen und integrieren. Dies kann die Grundlage für Mehrwertdienste sein und insbesondere die Zusammenarbeit öffentlicher und privater Partner kann IIs zum Erfolg führen. Ein leichterer Zugang zu integrierten Diensten und Produkten (gemeinsam), die von Regierungen und Unternehmen angeboten werden, kann Transparenz und Innovationen fördern. IIs werden in vielen Bereichen entwickelt, auch für offene Daten und den internationalen Handel. Es gibt jedoch bemerkenswerte Unterschiede in der Gestaltung, den Eigenschaften und der Implementierung der IIs. Das Ziel dieses Papiers ist es, zwei verschiedene IIs zu vergleichen, um ein besseres Verständnis der gemeinsamen und unterschiedlichen Elemente in den IIs und ihrer Auswirkungen zu erhalten. Zu den Unterschieden zählen die Rollen von Regierungen, Unternehmen und Nutzern bei der Förderung, Entwicklung und Nutzung der IIs.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44426-9_7 6b7b112e79d223fc17f41303bb235ed4;de;;;3.4.;6.3.;6.2.;Die langfristige Aufbewahrung identifizierbarer personenbezogener Daten: eine vergleichende Archivperspektive auf Datenschutzregulierungsmodelle in der Europäischen Union, Australien, Kanada und den USA Dieser Artikel analysiert, inwieweit Archivierungsausnahmen für historische, wissenschaftliche und statistische Forschungen im Datenschutzrecht die Bewahrung in ausgewählten Ländern der Europäischen Union unterstützen, sowie vergleichbare Aspekte des australischen, amerikanischen und kanadischen Rechts aus rechtlicher, ethischer und digitaler Archivperspektive. Die Autoren empfehlen, die datenschutzrechtliche Weiterverarbeitung von personenbezogenen Daten für Zwecke der Archivierung sowohl im öffentlichen als auch im privaten Bereich weiter auszulegen, verbunden mit der Verwendung von Forscher- und Archivcodes in Bezug auf den Zugang zu personenbezogenen Daten. Sie empfehlen auch eine frühzeitige Bewertung und Integration der Privatsphäre in die Informationsfreiheit und Archivierungssysteme.;-;-;-;https://link.springer.com/article/10.1007/s10502-007-9055-5 b38fca9eb92269ba510cc73ec38dc132;de;;;3.4.;6.3.;6.2.;Nutzung von Open-Access-Kanälen für wissenschaftliches Publizieren an kenianischen Universitäten Die Studie untersuchte die Bekanntheit und Nutzung von Open-Access-Kanälen (OA) für wissenschaftliches Publizieren durch Forscher ausgewählter Universitäten in Kenia. Für die Studie wurde eine Stichprobe von 341 Fakultätsmitgliedern von drei öffentlichen Universitäten ausgewählt. Als zentrales Erhebungsinstrument diente ein Fragebogen. Die Ergebnisse zeigten, dass unter den Forschenden ein erheblich hoher Bekanntheitsgrad besteht, Bibliothekare waren der Hauptkanal zur Bewusstseinsbildung, die von Forschenden häufiger genutzten Open-Access-Kanäle sind Open-Access-Journals, Open-Access-Institutionen und Open-Access-E-Books die Forschenden veröffentlichten/verbreiteten meist Dissertationen, Konferenzbände und Workshop-/Seminar-Präsentationen über Open-Access-Kanäle, sowie die Suche und den Zugriff auf Forschungsartikel, die Entwicklung von Forschungsanträgen und die Formulierung von Forschungsproblemen, waren die Hauptgründe für die Nutzung von Open-Access-Kanälen. Es gibt mehrere Gründe, warum Forscher manchmal OA-Kanäle für die Forschung nicht nutzen. Die Studie gibt mehrere Empfehlungen für die Einführung und effektive Nutzung von OA-Kanälen an den ausgewählten Universitäten und darüber hinaus.;-;-;-;https://link.springer.com/article/10.1007/s12109-021-09795-9 9ca2b096fd8dace86d61d1c61d8c880c;de;;;3.4.;6.3.;6.2.;Auf oder abseits der Platte? Aufdeckung von Mustern des Schweigens über den Tod im Nationalen Polizeiarchiv von Guatemala In diesem Beitrag wird untersucht, wie die Erstellung von Polizeiakten mit der Repressions- und Gewaltpolitik während des Bürgerkriegs in Guatemala verbunden war. Wir liefern empirische Beweise aus dem Historischen Archiv der guatemaltekischen Nationalpolizei, dass die Polizei Sprache, Terminologie und Codes verwendet, um Todesfälle auf eine Weise aufzuzeichnen, die zu Schweigen über das Ausmaß der Gewalt während des Höhepunkts der repressiven Militärherrschaft führte. Unter Verwendung eines Datensatzes, der aus einer statistisch validen Stichprobe von Polizeiakten abgeleitet wurde, zusammen mit einer qualitativen Archivanalyse finden wir Beweise für tiefgreifende Änderungen in der Terminologie, die zur Erfassung und Meldung von Todesfällen verwendet wird – Änderungen, die einem Muster folgen, das mit den Richtlinien der Informationskontrolle und Geheimhaltung die drei verschiedenen Militärregime, die Guatemala zwischen 1978 und 1985 regierten. Wir argumentieren, dass Forscher das Schweigen berücksichtigen müssen, das durch die selektive Verwendung von Terminologie in Dokumenten entsteht, wenn sie Archive nutzen, um historisches Wissen zu produzieren. Das Aufspüren und Abfangen von Schweigen wird besonders wichtig sein, da staatliche Aufzeichnungen zunehmend im Dienste des laufenden Strebens nach Wahrheit und Gerechtigkeit über vergangene Gräueltaten gesucht werden.;-;-;-;https://link.springer.com/article/10.1007/s10502-017-9274-3 164efc19d931495322681f1a6e6b025e;de;;;3.5.;6.3.;6.4.;Struktur und Entwicklung indischer Physik-Co-Autorennetzwerke Wir verfolgen die Entwicklung der indischen Physik-Community von 1919 bis 2013, indem wir das Co-Autorennetzwerk analysieren, das aus Artikeln besteht, die von Autoren in Indien in Zeitschriften der American Physical Society (APS) veröffentlicht wurden. Wir ziehen Rückschlüsse auf Indiens Beitrag zu verschiedenen Zweigen der Physik und identifizieren die einflussreichsten indischen Physiker zu verschiedenen Zeiten. Der relative Beitrag Indiens zur globalen Physikpublikation (Forschung) und seine Variation in den Teilgebieten der Physik werden bewertet. Wir extrahieren das sich ändernde Kooperationsmuster von Autoren zwischen indischen Physikern durch verschiedene Netzwerkmaßnahmen. Wir untersuchen die Entwicklung indischer Physikgemeinschaften und verfolgen die mittlere Lebensdauer und Stationarität von Gemeinschaften nach Größe in verschiedenen APS-Zeitschriften. Wir kartieren den Übergang von Autoren zwischen Gemeinschaften unterschiedlicher Größe von 1970 bis 2013 und erfassen ihre Geburt, ihr Wachstum, ihre Fusion und ihren Zusammenbruch. Wir stellen fest, dass indisch-ausländische Kooperationen schneller zunehmen als die indisch-indische. Wir beobachten, dass die Gradverteilung indischer Kooperationsnetzwerke dem Potenzgesetz folgt, mit unterschiedlichen Mustern zwischen Physical Review A, B und E und den Hochenergie-Physikzeitschriften Physical Review C und D sowie Physical Review Letters. Bei fast jeder Messung beobachten wir starke strukturelle Unterschiede zwischen niederenergetischen und hochenergetischen Fachzeitschriften.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-02999-5 ac09dd9b8b737e4fb07556fe8dd492d9;de;;;3.4.;6.3.;6.4.;Innovationseffizienz und der Einfluss der institutionellen Qualität: eine länderübergreifende Analyse mit dem zweistufigen Meta-Frontier Dynamic Network DEA-Modell Die Verbesserung der Entwicklung von Wissenschaft und Technologie durch Innovation ist der Kern der wirtschaftlichen Entwicklung eines Landes. In dieser Studie wurde das zweistufige Meta-Frontier Dynamic Network DEA-Modell verwendet, um die Innovationseffizienz von den F&E-Ressourcen bis hin zu den Gebühren für die Nutzung von geistigem Eigentum und Hochtechnologieexporten in 34 Ländern mit hohem und 23 Ländern mit mittlerem Einkommen ab 2013 zu untersuchen bis 2017. Wir haben die Gesamteffizienzwerte und die Technologielückenquoten jedes Landes sowie die Werte der Input- und Outputvariablen in der Phase Forschung und Entwicklung (F&E) sowie in der Marketingphase berechnet. Die Ergebnisse zeigten, dass die durchschnittlichen Gesamteffizienzwerte der Länder mit mittlerem Einkommen von 2013 bis 2015 höher waren als die der Länder mit hohem Einkommen, aber der Fünfjahres-Gesamtwert der Länder mit hohem Einkommen war höher. Die F&E-Effizienzwerte waren in Ländern mit mittlerem Einkommen höher, während die Marketingeffizienzwerte in Ländern mit hohem Einkommen höher waren. In der FuE-Phase waren die Werte aller Input- und Output-Variablen in Ländern mit mittlerem Einkommen höher, in der Vermarktungsphase waren die Werte der Output-Variablen in Ländern mit hohem Einkommen offensichtlich höher. Hochwertige Institutionen können dazu beitragen, die Innovationseffizienz sowohl in Ländern mit hohem als auch in Ländern mit mittlerem Einkommen zu verbessern. Die Effizienzsteigerungen sind in Ländern mit hohem Einkommen während der F&E-Phase höher und in Ländern mit mittlerem Einkommen während der Vermarktungsphase höher. Daher sollten sowohl Länder mit hohem als auch mit mittlerem Einkommen den institutionellen Aufbau stärken, um die Effizienz der Innovation zu verbessern. Und die Forschung in Ländern mit mittlerem Einkommen sollte lokalen praktischen Problemen und ihren Lösungen mehr Aufmerksamkeit schenken.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03829-3 02501c64900d72b1363897307652bde7;de;;;3.4.;6.3.;6.4.;Die Auswirkungen von elektronischen Warnschreiben für Internetbefragungen von Wissenschaftlern Warnschreiben zu Umfragen verbessern die Rücklaufquoten und versichern potenziellen Befragten, dass die Forschung legitim und von hoher Qualität ist. Die Vorabbenachrichtigung per Post erhöht die Rücklaufquote bei Webumfragen, da sie einen zweiten Kommunikationsweg darstellt und zur Erhöhung des Vertrauens der Befragten und der Studienlegitimität beiträgt. Aufgrund von Heimarbeitsaufträgen als Reaktion auf COVID-19 ist es unwahrscheinlich, dass postalische Warnschreiben die Forschungsteilnehmer an ihrem Arbeitsplatz erreichen. Wir führten drei Experimente durch, um die Auswirkungen des Sendens einer E-Mail-Nachricht an akademische Wissenschaftler auf die Antwortraten von Webumfragen im Vergleich zu keiner E-Mail-Warnnachricht und der zeitlichen Abweichung der Vorabbenachrichtigung zu testen. Die Daten stammen aus drei nationalen Zufallsstichproben von universitären Wissenschaftlern, die in den ersten Monaten der COVID-19-Pandemie durchgeführt wurden. Zwei von drei Experimenten deuten darauf hin, dass Vorbenachrichtigungen per E-Mail einen geringen Einfluss auf die Verbesserung der Antwortraten bei Webumfragen von akademischen Wissenschaftlern haben können. Der Zeitpunkt dieser Vorabmeldungen hatte jedoch keinen Einfluss auf die Umfrageantwort. Diese Ergebnisse deuten darauf hin, dass Nachrichten vor der Benachrichtigung beim Studium von akademischen Wissenschaftlern nützlich bleiben. Zukünftige Forschungen sollten die Auswirkungen der elektronischen im Vergleich zur postalischen Vorankündigung auf die Umfrageantwort unter Wissenschaftlern vergleichen, da die postalische Vorankündigung umfangreiche Ressourcen erfordert.;-;-;-;https://link.springer.com/article/10.1007/s11192-021-04029-3 ec61abc1dfe6f0a11ac31b45a369243d;de;;;3.4.;6.3.;6.4.;Globale Merkmale und Trends der Baustaubforschung: basierend auf bibliometrischen und visualisierten Analysen Die boomende Bauindustrie hat zu vielen Umwelt- und Arbeitsschutzproblemen geführt. Baustaub verursachte irreversible Gesundheitsschäden bei Arbeitern an vorderster Front und verschmutzte die Umgebungsluft, was die Aufmerksamkeit von Forschern und Praktikern auf sich zog. In dieser Studie werden zur systematischen Sortierung und Analyse der Verbreitung der Baustaubforschung (CD), ihrer heißen Bereiche und der Entwicklung ihrer Fronten Beiträge mit dem Schlagwort „Baustaub“ in der Web of Science Core Collection Database seit 2010 werden mit CiteSpace visuell analysiert. Die Merkmale dieser Arbeiten, einschließlich Quantitätstrend, Qualität, Autorengruppe, angeschlossener Institutionstyp und Zeitschriftentyp, werden zusammengefasst, und es werden Wissenslandkarten zu Keyword-Co-Auftritt und Paper-Co-Citation erstellt. Die Ergebnisse zeigen, dass (1) China das Rückgrat der CD-Forschung ist und die Forschungsergebnisse einen erheblichen Anteil am Gesamtvolumen ausmachen. (2) Atemstaub und atmosphärische Aerosole, Marmorstaub, PM;-;-;-;https://link.springer.com/article/10.1007/s11356-020-09723-y e57879892a9b4fc8a0cdeb9f758e1865;de;;;3.4.;6.3.;6.4.;Eine Übersicht und Bewertung von Zitierempfehlungsmodellen Empfehlungssysteme unterstützen Webbenutzer mit personalisierten Vorschlägen basierend auf früheren Präferenzen für Produkte oder Artikel wie Dokumente, Bücher, Filme und Forschungsarbeiten. Die Fülle und Vielfalt von Forschungsarbeiten im Internet und in digitalen Bibliotheken macht es für Forscher schwierig, relevante Publikationen für ihre wissenschaftlichen Interessen zu finden. Um dieser unvermeidlichen Herausforderung zu begegnen, wurden verschiedene Modelle und Algorithmen vorgeschlagen, um Forscher mit personalisierten Zitationsempfehlungen zu unterstützen. Dennoch hat bisher keine Forschungsstudie die Validität und Eignung der für diese Modelle durchgeführten Evaluationen ausgenutzt, um die vielversprechendsten unter ihnen zu finden. Diese Studie untersucht und überprüft die bestehenden Zitierempfehlungsalgorithmen anhand der folgenden Kriterien: verwendete Bewertungsmethoden, verwendete vergleichende Baselines, Komplexität des vorgeschlagenen Algorithmus, Reproduzierbarkeit der experimentellen Ergebnisse sowie Konsistenz und Universalität der Bewertungsmethoden. Darüber hinaus präsentiert unsere Studie eine generische Architektur und den Prozess eines typischen Zitationsempfehlungssystems und gibt einen kurzen Überblick über die in den bestehenden Modellen verwendeten Informationsfiltermethoden. Die Ergebnisse der Studie haben Auswirkungen auf Forscher und Praktiker, die an der Empfehlung von Forschungspapieren und verwandten Bereichen arbeiten.;-;-;-;https://link.springer.com/article/10.1007/s11192-021-03909-y a9528b81767585d382c6ce4c2e55800c;de;;;3.4.;6.3.;7.4.;Eine Umfrage unter Data Scientists in Südafrika Akademische Programme an südafrikanischen Hochschuleinrichtungen haben überwiegend Studenten in der Verwaltung und Speicherung von Daten mit relationalen Datenbanktechnologien ausgebildet. Dies reicht jedoch nicht mehr aus. Südafrika als Land muss mehr Studenten ausbilden, um strukturierte, halbstrukturierte und unstrukturierte Daten zu verwalten und zu verarbeiten. Der Hauptzweck dieser Studie bestand darin, den Status von Datenwissenschaftlern in Südafrika zu untersuchen, eine Rolle, die typischerweise mit der Verwaltung dieser neuen Datensätze verbunden ist. Die Studie untersuchte die Fähigkeiten, Kenntnisse und Qualifikationen, die diese Data Scientists für ihre täglichen Aufgaben benötigen, und bietet Vorschläge, die bei der Gestaltung eines Curriculums für ein akademisches Programm in Data Science berücksichtigt werden sollten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-69670-6_12 11f0b00c832094072b27be95c428644b;de;;;3.4.;6.3.;7.4.;Untersuchung der verzögerungsarmen Deep-Learning-basierten kulturellen Bildrekonstruktion Zahlreiche Kulturgüter besitzen einen hohen historischen und moralischen Wert, der jedoch durch ihre Verschlechterung stark beeinträchtigt wird, da ihre Attraktivität verloren geht. Eine der Lösungen, die die meisten Kulturerbeorganisationen und Museen derzeit wählen, besteht darin, das Wissen von Kunst- und Geschichtsexperten zusätzlich zu den Kuratoren zu nutzen, um die beschädigten Vermögenswerte zu bergen und zu restaurieren. Dieser Prozess ist arbeitsintensiv, teuer und führt oft nur zu einer Annahme über den beschädigten oder fehlenden Bereich. In dieser Arbeit befassen wir uns mit dem Problem, fehlende Bereiche in Kunstwerken durch fortschrittliche Techniken des Deep Learning und der Bildrekonstruktion (Inpainting) zu vervollständigen. Nach unserer Analyse verschiedener Ansätze zur Bildvervollständigung und Rekonstruktion stellten wir fest, dass diese Methoden unter verschiedenen Einschränkungen wie langen Verarbeitungszeiten und harter Generalisierung leiden, wenn sie mit mehreren visuellen Kontexten trainiert werden. Die meisten der existierenden lernbasierten Bildvervollständigungs- und Rekonstruktionstechniken werden an großen Datensätzen mit dem Ziel trainiert, die ursprüngliche Datenverteilung der Trainingsproben abzurufen. Diese Verteilung wird jedoch komplexer, wenn die Trainingsdaten unterschiedlich sind, was den Trainingsprozess schwierig und die Rekonstruktion ineffizient macht. In diesem Papier stellen wir einen Clustering-basierten Ansatz zur Bildvervollständigung und Rekonstruktion mit geringer Verzögerung vor, der überwachtes und unüberwachtes Lernen kombiniert, um die hervorgehobenen Probleme anzugehen. Wir vergleichen unsere Technik mit dem aktuellen Stand der Technik anhand eines realen Datensatzes von Kunstwerken, die von verschiedenen Kulturinstitutionen gesammelt wurden. Unser Ansatz wird mit statistischen Methoden und einem befragten Publikum ausgewertet, um unsere Ergebnisse objektiv und subjektiv besser interpretieren zu können.;-;-;-;https://link.springer.com/article/10.1007/s11554-020-00975-y ba080f86f35e028d30fc835fb6242dad;de;;;3.5.;6.3.;;Verbesserung des Zugangs zu Wissenschaft zum Wohle des Gemeinwohls Eines der wichtigsten Ziele der Wissenschaft ist es, die Welt sozial zu einem lebenswerten Ort zu machen. Das alte Paradigma der wissenschaftlichen Kommunikation durch Publizieren hat enorme Mengen an heterogenen Daten und Metadaten erzeugt. Allerdings sind die meisten wissenschaftlichen Ergebnisse nicht leicht auffindbar, insbesondere solche, die dem sozialen Wohl dienen und auch von Nichtwissenschaftlern ins Visier genommen werden. In diesem Beitrag stellen wir ein auf Knowledge Graph Embedding (KGE) basierendes Empfehlungssystem vor, das von Schülern verwendet werden kann, die an Aktivitäten mit dem Ziel des sozialen Wohls beteiligt sind. Das vorgeschlagene Empfehlungssystem wurde auf einem wissenschaftlichen Wissensgraphen trainiert, der für dieses spezifische Ziel konstruiert wurde. Die erhaltenen Ergebnisse unterstreichen, dass die KGEs erfolgreich die Struktur der KG kodiert haben und daher unser System wertvolle Empfehlungen geben könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-43823-4_52 19626ed1a8dca6f98ab4568aac683b94;de;;;3.4.;6.3.;;Die Bedeutung der digitalen Datenerhaltung und deren Anwendung in Universitäten Der Artikel ist das Ergebnis einer dokumentarischen Untersuchung zur digitalen Datenarchivierung und Datengenerierung und deren Bedeutung in Bildungseinrichtungen. Digitale Informationen haben als kulturelles Produkt und als Wissensquelle einen wichtigen wirtschaftlichen Wert, aber diese generierten Informationen müssen erhalten bleiben, ohne Informationen gibt es kein Erbe oder keine Kultur. Das digitale Erbe unterliegt keinen zeitlichen, geografischen, kulturellen oder Formatgrenzen. Doch das digitale Erbe der Welt droht für die Nachwelt verloren zu gehen, weshalb es wichtig ist, es adäquat zu bewahren, damit es nach internationalen professionellen Standards zugänglich, authentisch und langfristig nutzbar ist. Daten in digitaler Form sind die wichtigste Wissensquelle für unsere Studierenden. Die Repositorien in den Bildungseinrichtungen ermöglichen es, nicht nur die geistige Produktion, sondern auch die von der Verwaltung der Universitäten erstellte Dokumentation zu speichern. Das intellektuelle Kapital der Universitäten soll nicht nur gespeichert, sondern auch erhalten und der Community bekannt gemacht werden. Es ist wichtig, geeignete Techniken für die digitale Langzeitarchivierung von Daten in Universitäten zu untersuchen, indem Modelle für die digitale Langzeitarchivierung angewendet oder erstellt werden, die sich an die einzigartigen Eigenschaften von Universitäten anpassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-81635-3_28 829c71590b3c694e72042444caa7b38e;de;;;3.4.;6.4.;1.2.;Wählt die Financial Times FT50 Zeitschriftenliste die besten Management- und Wirtschaftszeitschriften aus? Das Ranking wissenschaftlicher Zeitschriften und der erhebliche Einfluss von Zeitschriftenlisten werden insbesondere in der Managementforschung zunehmend kritisiert. Um die Effektivität der Peer-Review-Auswahl im Vergleich zur bibliometrischen Bewertung zu beurteilen, wird ein Benchmark der besten Management- und Wirtschaftszeitschriften durchgeführt. Basierend auf mehreren Indikatoren wird die FT50-Liste der Financial Times mit den 100 bestplatzierten Zeitschriften verglichen. Die Position der FT-Zeitschriften in unserem aggregierten bibliometrischen Ranking bestätigt die Wirksamkeit des Peer-Reviews der FT. Es unterstreicht auch die Komplementarität von Peer-Review für die Forschungsbewertung mit den Metriken. Als bester Prädiktor für die FT-Mitgliedschaft erweist sich der h-Index, gefolgt von der durchschnittlichen Zitation. Der Journal Impact Factor wird als Prädiktor für die FT-Inklusion widerlegt, während der SJR-Indikator nur für wirtschaftswissenschaftliche Zeitschriften repräsentativer zu sein scheint. Das FT50 bestätigt die Stabilität der Top-Tier-Zeitschriften. Es krönt den langfristigen Ruf von Zeitschriften. Der FT50 deckt eine gute Ausgewogenheit von Teilbereichen ab und lässt auch Raum für ein Praktikerjournal und Offenheit für Innovationen. Die Dichotomie zwischen Wirtschafts- und General Management Journals bleibt ein Anliegen von Rankings und Zeitschriftenlisten, ebenso wie die Größe der Auswahl und das Streben nach einer ausgewogenen Unterteilung zwischen Teilbereichen.;-;-;-;https://link.springer.com/article/10.1007/s11192-021-03988-x 1a21ccc985816ab676f834da2d330d59;de;;;3.4.;6.4.;1.2.;Aufzeichnungen in der Produktion wissenschaftlichen Wissens: Eine ethnographische Studie Neuere archivwissenschaftliche Forschungen haben „nicht-traditionelle“ Analysemethoden verwendet, um die Natur der Aufzeichnungen und der Aufzeichnungen in organisatorischen Kontexten zu theoretisieren. In dieser Tradition diskutiert dieser Aufsatz die Verwendung der ethnographischen Methodik des Autors, um die Aufzeichnungen in einem akademischen Forschungslabor zu untersuchen. Der Beitrag untersucht, wie die Ethnographie zu unserem Verständnis des Labors als einer Organisation zur Aufzeichnung von Aufzeichnungen und der Schnittmengen zwischen wissenschaftlicher Praxis und den Arten von Aufzeichnungen beiträgt, die Wissenschaftler erstellen und verwenden. Das Papier fordert eine stärkere Analyse der Aufzeichnungen als Informationsinfrastruktur und eine Untersuchung der Art der Aufzeichnungen in anderen Arten von Umgebungen zur Wissensproduktion.;-;-;-;https://link.springer.com/article/10.1007/s10502-005-2600-1 3f10169b5891ec1118c7e8b57d454652;de;;;3.4.;6.4.;1.2.;Warum Katalonien nicht als regionales Innovationssystem betrachtet werden kann Wir präsentieren ein Modell zur Bewertung der Systemhaftigkeit eines Innovationssystems. Patent- und Zitationsdaten mit institutioneller Adresse in Katalonien (1986-1996) wurden hinsichtlich relationaler Verknüpfungen analysiert und die zeitliche Entwicklung dieser Verteilungen mit Methoden der Systemdynamik bewertet. Relationale Verknüpfungen sind äußerst selten. Ein Übergang auf Systemebene konnte um 1990 bei der Verwendung institutioneller Adressen, nicht jedoch bei der Verwendung kognitiver Kategorien angezeigt werden. Die institutionelle Umstrukturierung hat zu Veränderungen im Verknüpfungsmuster geführt (Koautorenschaft etc.), aber die Reproduktion der Wissensbasis des Systems ist differenziert geblieben. Wir kommen zu dem Schluss, dass Katalonien, obwohl es in anderer Hinsicht ein System ist, (noch) nicht als (wissensbasiertes) Innovationssystem betrachtet werden kann. Auf regionaler Ebene konnte nicht auf die Existenz eines Integrationsmechanismus hingewiesen werden.;-;-;-;https://link.springer.com/article/10.1023/A%3A1010517505793 d1d3a81a6b2f6b7f1e3077384d320ccf;de;;;3.4.;6.4.;1.2.;Wissenschaftliche Kommunikation im Wandel: Die Verwendung von Fragezeichen in Titeln wissenschaftlicher Artikel in Medizin, Biowissenschaften und Physik 1966–2005 Den Titeln wissenschaftlicher Artikel kommt eine besondere Bedeutung zu. Wir haben fast 20 Millionen wissenschaftliche Artikel untersucht und die Entwicklung von Artikeln mit einem Fragezeichen am Ende des Titels in den letzten 40 Jahren aufgezeichnet. Unsere Studie beschränkte sich auf die Disziplinen Physik, Life Sciences und Medizin, wo wir einen signifikanten Anstieg von 50 % auf über 200 % bei der Zahl der Artikel mit Fragezeichen-Titeln fanden. Wir haben uns die prinzipielle Funktion und Struktur der Titel wissenschaftlicher Arbeiten angesehen und gehen davon aus, dass Marketingaspekte einer der entscheidenden Faktoren für die zunehmende Verwendung von Fragezeichentiteln in wissenschaftlichen Artikeln sind.;-;-;-;https://link.springer.com/article/10.1007/s11192-007-1984-5 43bd60e321206ea8261870aa9bebc467;de;;;3.4.;6.4.;1.2.;Zeitschriftenbewertungen als Prädiktoren der Artikelqualität in den Kunst-, Geistes- und Sozialwissenschaften: Eine Analyse basierend auf der italienischen Forschungsbewertung Das Ziel dieser Arbeit ist es zu verstehen, ob die Wahrscheinlichkeit, positive Peer-Reviews zu erhalten, durch die Veröffentlichung in einer unabhängig bewerteten, hochrangigen Zeitschrift beeinflusst wird: Wir interpretieren einen positiven Zusammenhang zwischen Peer-Evaluation und Zeitschriftenranking als Beweis für gute Zeitschriftenbewertungen Prädiktoren der Artikelqualität. Die Analyse basiert auf einem großen Datensatz von mehr als 11.500 Forschungsartikeln, die zwischen 2004 und 2010 in Italien in den Bereichen Architektur, Kunst und Geisteswissenschaften, Geschichte und Philosophie, Recht, Soziologie und Politikwissenschaften veröffentlicht wurden. Diese Artikel erhielten während der italienischen Forschungsbewertungsübung (VQR) eine Punktzahl von einer beträchtlichen Anzahl von extern ernannten Gutachtern. Ebenso wurden Zeitschriftennoten in einem Panel-basierten unabhängigen Assessment vergeben, an dem wissenschaftliche Zeitschriften beteiligt waren, in denen italienische Wissenschaftler veröffentlicht wurden, und die nach einem anderen Verfahren durchgeführt wurde. Die Punktzahl eines Artikels wurde mit der der Zeitschrift verglichen, in der er veröffentlicht wurde. Wir schätzen zunächst ein geordnetes Probit-Modell ab und bewerten die Wahrscheinlichkeit, dass die Arbeit aufgrund der höheren Punktzahl der Zeitschrift eine höhere Punktzahl erhält. In einem zweiten Schritt konzentrieren wir uns auf die Top-Papers und bewerten die Wahrscheinlichkeit, dass ein Paper nach der Veröffentlichung in einer erstklassigen Zeitschrift eine hervorragende Bewertung erhält. Dabei kontrollieren wir einige Merkmale des Beitrags und seines Autors, darunter die Sprache der Publikation, das wissenschaftliche Feld und seine Größe, das Alter des Autors und den akademischen Status. Wir ergänzen die Zeitschriftenklassifikationsliteratur, indem wir zum ersten Mal einen groß angelegten Test der Robustheit der Expertenklassifikation anbieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-68554-0_11 f428a08528a0588d381047e95f2d5fba;de;;;3.4.;6.4.;1.2.;Graphbasierte Algorithmen für Rankingforscher: Nicht alle Schwäne sind weiß! Das Ranking der wissenschaftlichen Bedeutung ist seit langem ein wichtiges Forschungsthema in der Szientometrie. Es wurden viele Indizes vorgeschlagen, die auf Zitationszahlen basieren. In den letzten Jahren wurden mehrere grafikbasierte Ranking-Algorithmen untersucht und als sinnvoll und effektiv bezeichnet. Die meisten aktuellen Forschungen verfehlen jedoch eine konkrete Vorstellung davon, was diese graphbasierten Ranking-Algorithmen für die bibliometrische Analyse leisten. In diesem Artikel führen wir eine vergleichende Studie über modernste graphenbasierte Algorithmen unter Verwendung des Datensatzes der APS (American Physical Society) durch. Wir konzentrieren uns auf das Ranking von Forschern. Es werden einige interessante Erkenntnisse gewonnen. Erstens können einfache zitationsbasierte Indizes wie die Zitationszahl überraschend bessere Ergebnisse liefern als viele hochmoderne graphbasierte Ranking-Algorithmen. Zweitens kann die Definition der Bedeutung von Forschern enorme Auswirkungen auf die Rankingleistung haben. Drittens weisen einige auf den ersten Blick völlig unterschiedliche Rankingmethoden hohe Rangkorrelationen auf. Schließlich beeinflussen die Daten, welche Zeiträume für das Ranking ausgewählt werden, die Ranking-Performance stark, bleiben aber noch offen für weitere Untersuchungen. Wir versuchen auch, einen Großteil der oben genannten Erkenntnisse zu erklären. Die Ergebnisse dieser Studie öffnen ein drittes Auge auf den aktuellen Forschungsstand der bibliometrischen Analyse.;-;-;-;https://link.springer.com/article/10.1007/s11192-012-0943-y 299d865ae7709d8cc135acf2e41fbb8b;de;;;3.4.;6.4.;1.2.;Von der biomedizinischen Forschung zur Gesundheitsverbesserung Herkömmliche Methoden zur Analyse von Forschungsergebnissen haben sich auf Zitate von Artikeln in Zeitschriften in anderen Zeitschriftenpublikationen konzentriert. Diese dokumentieren jedoch nur die frühen Stadien, in denen die Forschung in der Biomedizin durch eine bessere Patientenversorgung und durch vorbeugende Maßnahmen in eine Verbesserung der Gesundheit umgewandelt wird. Neue Bewertungsmethoden, die noch auf dem Konzept des Zitierens von Forschung in anderen Dokumenten basieren, werden benötigt und werden derzeit entwickelt. Dazu gehören die Verwendung von Lehrbüchern in der medizinischen Ausbildung und die Analyse von staatlichen Vorschriften und Gesundheitsrichtlinien, die sowohl die Verfügbarkeit neuer Medikamente als auch die Kontrolle toxischer Substanzen in Lebensmitteln und der Umwelt beeinflussen können. Es besteht auch ein Interesse daran, wie Zeitungen über Fortschritte in der biomedizinischen Forschung berichten. Zu den Lesern zählen Politiker, Angehörige der Gesundheitsberufe, die breite Öffentlichkeit (die zunehmend zu aktiven Verbrauchern von Gesundheitsprodukten wird) und andere Forscher, die die Unmittelbarkeit der Berichterstattung zu schätzen wissen. Zeitungsartikel konzentrieren sich tendenziell auf modische Themen und wecken vorzeitige Hoffnungen auf Heilung von Krankheiten, können aber auch wertvolle Dienste leisten, um die Bedeutung von Tierversuchen für den biomedizinischen Fortschritt zu zeigen. Es wäre nützlich, eine internationale Datenbank mit Zeitungszitaten durch ein Konsortium von Partnern in verschiedenen Ländern aufzubauen, die ein gemeinsames Protokoll vereinbaren und regelmäßig Informationen austauschen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1016005710371 df4e54928a8fc7ca4584c6556480a0b0;de;;;3.4.;6.4.;1.2.;Heimkehrende chinesische Forscher: Auswirkungen internationaler Mobilität auf Forschungszusammenarbeit und wissenschaftliche Produktivität Ziel dieser Studie ist es, zur Debatte über den Zusammenhang zwischen wissenschaftlicher Mobilität und internationaler Zusammenarbeit beizutragen. Diese Fallstudie befasst sich mit führenden chinesischen Forschern im Bereich der molekularen Lebenswissenschaften von Pflanzen, die in ihr Heimatland zurückgekehrt sind. Eine Korrelationsanalyse ihrer Mobilitätshistorie, des Publikationsoutputs und der internationalen Kopublikationsdaten zeigt den Zusammenhang zwischen wissenschaftlichem Output, dem Grad der internationalen Zusammenarbeit und verschiedenen individuellen Merkmalen zurückgekehrter Forscher. Das Ergebnis der Analyse deutet darauf hin, dass die Gastländer zwar Humankapital verlieren, wenn chinesische Wissenschaftler in ihre Heimat zurückkehren, der sogenannte „Return Brain Drain“, aber auch in Bezug auf wissenschaftliche Verbindungen innerhalb dieses sich schnell entwickelnden und sich globalisierenden Forschungsfelds gewinnen können.;-;-;-;https://link.springer.com/article/10.1007/s11192-007-1971-x b4f1ca30014eb09fe3abb822f805136b;de;;;3.4.;6.4.;1.2.;Vorsprung durchstarten: Abgabeeffekt zum Monatswechsel für akzeptierte Beiträge in Management-Zeitschriften In verschiedenen Forschungsbereichen, einschließlich der Szientometrie, wurde über faszinierende ungezwungene Regelmäßigkeiten im menschlichen Verhalten berichtet. In dieser Studie untersuchen wir das Manuskripteinreichungsverhalten von Forschern mit einem Fokus auf das monatliche Muster. Mit einem großen und zuverlässigen Datensatz, der die Einreichungshistorie von Artikeln erfasst, die in 10 multidisziplinären Zeitschriften und 10 Management-Zeitschriften über einen Zeitraum von fünf Jahren (2013–2017) veröffentlicht wurden, beobachten wir einen markanten Einreichungseffekt zum Monatswechsel für akzeptierte Beiträge in Management-Zeitschriften, aber nicht in multidisziplinären Zeitschriften. Dieser Effekt wird bei Einreichungen bei hochrangigen Zeitschriften und wenn der erste Tag eines Monats zufällig ein Samstag oder Sonntag ist, ausgeprägter. Als wahrscheinliche Erklärung für diesen Effekt wird ein feierliches Gefühl vorgeschlagen, da der erste Tag eines Monats ein grundlegender zeitlicher Meilenstein ist, der für Forscher einen „Neustarteffekt“ hat. Abschließend wird in dieser Studie über einen originellen und interessanten Tageseffekt in der Wissenschaft berichtet, der mehr Aufmerksamkeit der Forschung erfordert.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03556-9 d995eca6186ec1ea4c000e961be26d02;de;;;3.4.;6.4.;1.2.;Die Vorhersage von Wissenschaftsindikatoren mithilfe der Informationstheorie Die Studie diskutiert die Anwendung verschiedener Formen der Zeitreihenanalyse auf nationale Leistungsdaten für EWG-Länder und die USA. Zunächst wird gezeigt, dass auf aggregierter Ebene eine direkte Beziehung zwischen Output und Input besteht, die mit der Zeit variiert. Es werden verschiedene analytische Techniken zur Berücksichtigung des Zeitfaktors diskutiert. Mithilfe der Informationstheorie kann eine einfache Formel abgeleitet werden, die die beste Vorhersage für die Daten des folgenden Jahres liefert. Anschließend wird dieses Modell auf die multivariate Vorhersage von Verteilungen erweitert. Außerdem kann mit dieser Methode gezeigt werden, dass die Hypothese, dass sich die EWG als ein einziges Publikationssystem entwickelt, in Bezug auf den Anteil am Weltanteil der Publikationen abzulehnen ist. Wenn jedoch die Koautorenschaftsbeziehungen zwischen den EWG-Mitgliedsländern als Indikator verwendet werden, wird die Vorherrschaft eines Systems nahegelegt.;-;-;-;https://link.springer.com/article/10.1007/BF02095353 2dda879d1e2beb62420d7dc94dd36b63;de;;;3.4.;6.4.;1.2.;Warum Autoren glauben, dass ihre Artikel hoch zitiert werden Im Zusammenhang mit einer neuen bibliometrischen Ressource namens Essential Science Indicators (ESI®) wurde eine Umfrage unter Autoren von häufig zitierten Arbeiten in 22 Bereichen durchgeführt. Die Autoren wurden gebeten, ihre Meinung dazu abzugeben, warum ihre Arbeiten häufig zitiert werden. Sie reagierten in der Regel mit der Beschreibung spezifischer interner, technischer Aspekte ihrer Arbeit und bezogen sie auf externe oder soziale Faktoren in ihrem Studienfach. Diese Selbstwahrnehmungen geben Hinweise auf die Faktoren, die zu einer hohen Zitationsrate führen, und auf die Bedeutung des Zusammenspiels von internen und externen Faktoren. Interne Faktoren werden durch die zur Beschreibung der Arbeit verwendete Fachterminologie und ihre Einordnung in die Problemdomäne des Fachgebiets aufgedeckt. Äußere Faktoren werden durch ein anderes Vokabular offenbart, das beschreibt, wie die Arbeit innerhalb des Feldes aufgenommen wurde oder welche Auswirkungen sie auf ein breiteres Publikum hat. Die Reaktion jedes Autors auf ein vielzitiertes Werk wurde auf vier Dimensionen analysiert: die Wahrnehmung des Autors hinsichtlich seiner Neuheit, Nützlichkeit, Bedeutung und Interesse. Eine Ko-Auftrittsanalyse der Dimensionen ergab, dass Interesse, die am stärksten sozial orientierte Dimension, am häufigsten mit einer der anderen eher internen Dimensionen gepaart war, was auf eine Synergie zwischen internen und externen Faktoren schließen lässt.;-;-;-;https://link.springer.com/article/10.1023/B%3ASCIE.0000034376.55800.18 50d2a5f825eaf98e9ef594e47b82e66e;de;;;3.4.;6.4.;1.2.;Länderübergreifende FuE-Effizienzanalyse: Eine Anwendung der Datenumschlaganalyse Diese Studie untersucht die relative Effizienz des F&E-Prozesses in einer Gruppe von 22 Industrie- und Entwicklungsländern mittels Data Envelopment Analysis (DEA). Die technische F&E-Effizienz wird anhand eines Modells mit an Einwohner erteilten Patenten als Output und den Bruttoinlandsausgaben für F&E und der Zahl der Forscher als Input untersucht. Im Rahmen von CRS (Constant Returns to Scale) gelten Japan, die Republik Korea und China als effizient, während im Rahmen des VRS (Variable Returns to Scale) Japan, die Republik Korea, China, Indien, Slowenien und Ungarn als effizient befunden. Das Auftauchen einiger Entwicklungsländer an der Effizienzgrenze zeigt, dass diese Länder auch als Maßstab für ihre effiziente Nutzung von F&E-Ressourcen dienen können. Die in dieser Studie hervorgehobene Ineffizienz bei der Nutzung von FuE-Ressourcen zeigt das zugrunde liegende Potenzial, das für die Entwicklung und das Wachstum von Nationen erschlossen werden kann.;-;-;-;https://link.springer.com/article/10.1007/s11192-007-1896-4 b2265167baa482582e442c256e984084;de;;;3.4.;6.4.;1.2.;Zufällige Entwicklung in massiven Graphen Viele massive Graphen (wie WWW-Graphen und Call-Graphen) teilen bestimmte universelle Eigenschaften, die durch das sogenannte „Potenzgesetz“ beschrieben werden können. In diesem Aufsatz geben wir zunächst einen kurzen Überblick über die Geschichte und frühere Arbeiten zu Potenzgesetzgraphen. Dann geben wir vier Evolutionsmodelle zum Erzeugen von Potenzgesetz-Graphen an, indem wir jeweils einen Knoten/eine Kante hinzufügen. Wir zeigen, dass für jede gegebene Kantendichte und gewünschte Verteilungen für In- und Out-Grade (nicht unbedingt gleich, aber unter Einhaltung bestimmter Rahmenbedingungen) der resultierende Graph fast sicher das Potenzgesetz und die In/Out-Grad-Bedingungen . Wir zeigen, dass unsere allgemeinsten gerichteten und ungerichteten Modelle fast alle bekannten Modelle als Spezialfälle umfassen. Darüber hinaus betrachten wir einen weiteren entscheidenden Aspekt massiver Graphen, der in dem Sinne als „skalenfrei“ bezeichnet wird, dass die Abtastfrequenz (bezogen auf die Wachstumsrate) unabhängig von den Parametern der resultierenden Potenzgesetz-Graphen ist. Wir zeigen, dass unsere Evolutionsmodelle skalenfreie Potenzgesetzgraphen erzeugen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-0005-6_4 3233fc6fd013e6aa1473a8d69f6bd35a;de;;;3.4.;6.4.;1.2.;Neuer Wein in alten Flaschen? Untersuchung der institutionellen Hierarchie in Mobilitätsnetzwerken für Preisträger, 1900–2017 Einer der wichtigsten Trends in der Wissenschaft ist heute die stetig wachsende Mobilität von Wissenschaftlern. Die unausgewogene Mobilität wissenschaftlicher Eliten kann jedoch nicht nur zu einer institutionellen Hierarchie in den Forschungssektoren, sondern auch zu einem Phänomen der „Elitezirkulation“ führen. In dieser Studie haben wir die Informationen über die institutionelle Mobilität von 10.918 Preisträgern von 308 internationalen akademischen Preisen gesammelt und Mobilitätsnetzwerke für Preisträger aufgebaut. Darüber hinaus haben wir die Struktur dieser Netzwerke anhand verschiedener statistischer Ansätze untersucht. Wir stellen fest, dass es hierarchische Strukturen in Mobilitätsnetzwerken für Preisträger gibt, sowohl in verschiedenen wissenschaftlichen Bereichen als auch in verschiedenen historischen Epochen, was darauf hindeutet, dass nur wenige Institutionen eine größere Anzahl von Preisträgern und die meisten Institutionen eine niedrigere Zahl verbinden. Darüber hinaus zeigt der Gini-Koeffizient im Zeitverlauf eine höhere institutionelle Ungleichheit in Mobilitätsnetzwerken der Preisträger.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03477-7 9500f7143ee64287fffe9086f34e4f47;de;;;3.4.;6.4.;1.2.;Zukünftige Erinnerung: Bewahrung unterschiedlicher Stimmen aus und über China in einer Zeit der Vereinheitlichung des Denkens Dieses Kapitel beschreibt die Bemühungen des Digital Archive of Chinese Studies (DACHS), der staatlichen Zensur im heutigen China und dem daraus resultierenden Verlust relevanter Daten in öffentlichen chinesischen Diskussionen sowie in Zeitschriften der Sinologie entgegenzuwirken. Durch die Schaffung von Archiven der zum Schweigen gebrachten Kontroversen und Stimmen gelingt es DACHS, so Wagner, eine chinesische Öffentlichkeit in ihrer ganzen Vielfalt und Spaltung zu rekonstruieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-33373-7_10 be8eb0065b8671e72b8a029ff73df051;de;;;3.4.;6.4.;1.2.;Die Auswirkungen der sozioökonomischen Krise von 2001 auf das Wissenschaftssystem Argentiniens aus szientometrischer Perspektive In den letzten Jahren haben sich eine Reihe von Studien auf die Wirtschaftskrise Argentiniens 2001 und ihre politischen, sozialen und institutionellen Auswirkungen konzentriert. Bisher haben jedoch keine Studien ihre Auswirkungen auf das Wissenschaftssystem des Landes aus einer szientometrischen Perspektive analysiert, in Bezug auf Ressourcen, die für wissenschaftliche Aktivitäten bereitgestellt werden, sowie die endgültige Leistung und Wirkung. Die vorliegende Studie tut dies anhand einer Reihe szientometrischer Indikatoren, die den wirtschaftlichen Aufwand, die für die Forschung eingesetzten Humanressourcen, Publikationen, Kooperationsbeziehungen und die internationale Sichtbarkeit wissenschaftlicher Beiträge widerspiegeln.;-;-;-;https://link.springer.com/article/10.1007/s11192-010-0266-9 03f9709df3f5d85b52a34464279798e1;de;;;3.4.;6.4.;1.2.;Wie schneiden Zeitschriften an der Peripherie im Vergleich zu etablierten wissenschaftlichen Zeitschriften ab? Ausgehend von der Prämisse, dass Zitate in wissenschaftlichen Zeitschriften viel über die Zeitschriften aussagen können, haben wir indische Zeitschriften aus den Bereichen Astronomie, Physik, Chemie, Biochemie, Geologie und Ökologie mit führenden Weltzeitschriften verglichen. Die beiden verglichenen Kriterien sind das Alter der Referenzen und die häufig zitierten Zeitschriften in jeder der betrachteten Zeitschriften. Unsere Ergebnisse zeigen, dass, obwohl die indische Wissenschaft insgesamt mittelmäßig ist, Teile von Indiens wissenschaftlichem Unternehmen kognitiv besser mit der Weltwissenschaft verbunden sind. Die Peripherie ist nicht überall einheitlich, aber einige Bereiche wie Astronomie und bis zu einem gewissen Grad Physik sind näher an der zentralen oder Mainstream-Wissenschaft als andere. Obwohl die Zitationsanalyse normalerweise nicht für bereichsübergreifende Vergleiche verwendet wird, zeigt dieses Papier, dass die Zitationsanalyse bei vernünftiger Anwendung wertvolle Einblicke in Fragen liefern kann, die viele Bereiche betreffen.;-;-;-;https://link.springer.com/article/10.1007/BF02020244 5a136f6e5e70f58d82615e14729062c5;de;;;3.4.;6.4.;1.2.;Der Stand der Technik in der Publikationszählung Die Protokolle der ISSI-Konferenzen in Stockholm, 2005, und Madrid, 2007, enthalten 85 Beiträge, basierend auf der Zählung der Veröffentlichungen. Die in diesen Beiträgen verwendeten Methoden wurden analysiert. Die verwendeten Zählmethoden werden in 26 Beiträgen explizit genannt und können implizit aus der Methodendiskussion in 10 Beiträgen abgeleitet werden. In nur fünf Beiträgen gibt es eine Begründung für die Wahl der Methode. Nur ein Beitrag gibt Auskunft über unterschiedliche Ergebnisse, die mit unterschiedlichen Methoden erzielt wurden. Die nicht-additiven Ergebnisse der ganzen Zählung führen zu Problemen bei der Berechnung der Anteile an sieben Beiträgen, aber diese Probleme werden nicht erwähnt. Nur 11 Beiträge geben einen Begriff (Begriffe) für die verwendete(n) Zählmethode(n) an. Zur Verdeutlichung der Problematik werden 11 der Beiträge ausführlich besprochen. Die Schlussfolgerung ist, dass 40 Jahre Publikationszählung weder zu einer allgemeinen Einigung über Methoden- und Terminologiedefinitionen noch zu irgendeiner Art von Standardisierung geführt haben.;-;-;-;https://link.springer.com/article/10.1007/s11192-007-1991-6 e31b4f549ddbb7fa3fff8236e8d6ee89;de;;;3.4.;6.4.;1.2.;Verwendung detaillierter wissenschaftlicher Karten, um potenzielle Kooperationen zu identifizieren Die Forschung zu den Auswirkungen der Zusammenarbeit in der wissenschaftlichen Forschung hat in den letzten Jahren zugenommen. Auf Institutions- und Länderebene wurde eine Vielzahl von Studien durchgeführt, viele mit Blick auf politische Implikationen. Die Frage, wie die fruchtbarsten Ziele für die zukünftige Zusammenarbeit in leistungsstarken Wissenschaftsbereichen identifiziert werden können, wurde jedoch nicht behandelt. Dieses Papier stellt eine Methode zur Identifizierung von Zielen für die zukünftige Zusammenarbeit zwischen zwei Institutionen vor. Die Nützlichkeit der Methode zeigt sich in zwei unterschiedlichen Anwendungen: Identifizierung konkreter potenzieller Kooperationen auf Autorenebene zwischen zwei Institutionen und Erstellung eines Index, der für strategische Planungszwecke verwendet werden kann. Die Identifizierung dieser potenziellen Kooperationen basiert auf der Suche nach Autoren, die derselben kleinen Gemeinschaft auf Papierebene (oder einem Cluster von Papieren) angehören, unter Verwendung einer Karte von Wissenschaft und Technologie mit fast 1 Million Papieren, die in 117.435 Gemeinschaften organisiert sind. Die hier verwendete Karte ist auch insofern einzigartig, als sie die erste Karte ist, die die ISI-Proceedings-Datenbank mit den Science and Social Science Indexes auf Papierebene kombiniert.;-;-;-;https://link.springer.com/article/10.1007/s11192-009-0402-6 11a5d74e238ec97c79a47c716778f45b;de;;;3.4.;6.4.;1.2.;Szientometrie: Neue Möglichkeiten Wie ich eingangs bemerkte, glaube ich nicht, dass sich die bibliometrische Forschung in einer Krise befindet, die über die der akademischen Welt im Allgemeinen hinausgeht. Aber wir befinden uns in einer Zeit, in der kritische Entscheidungen getroffen werden, die das Wohlergehen unserer Disziplin in den kommenden Jahren bestimmen werden. Es werden nun Anstrengungen unternommen, um den Schwung der Konferenzreihe zu nutzen, um einen Berufsverband für Informatiker zu gründen. Ich glaube, dass es für uns an dieser Stelle am wichtigsten ist, sicherzustellen, dass diese Vereinigung, die sich mit den Problemen befasst, die G-S aufgeworfen hat, stark genug ist, um erfolgreich zu sein.;-;-;-;https://link.springer.com/article/10.1007/BF02018124 55b136e4027892f0875e17dceb355dcb;de;;;3.4.;6.4.;1.2.;Modellierung und Messung multilateraler Co-Autorenschaft in der internationalen wissenschaftlichen Zusammenarbeit. Teil II. Eine vergleichende Studie zu Umfang und Wandel internationaler wissenschaftlicher Kooperationsbeziehungen Die vorliegende Studie konzentriert sich auf die internationale Zusammenarbeit in der Wissenschaft, an der mehr als zwei Länder beteiligt sind. Die Autoren haben in einer früheren Studie ein vielversprechendes Modell entwickelt, um das Ausmaß multilateraler Co-Autorenschaftsbeziehungen zu messen und zu analysieren. Das Modell basiert auf einem Reihenexpansionsansatz, der einen neuen Indikator, den Multilateral Collaboration Index (ρ), auf den Anteil international gemeinsam verfasster Arbeiten (;-;-;-;https://link.springer.com/article/10.1007/BF02459304 c3436581c7436da0fdb3af71e92a0ad6;de;;;3.4.;6.4.;1.2.;Wachstum der Forschungsliteratur in wissenschaftlichen Fachgebieten. Eine Modellierungsperspektive Der Beitrag diskutiert die Anwendung von drei bekannten Diffusionsmodellen und deren modifizierten Versionen auf das Wachstum von Publikationsdaten in vier ausgewählten Bereichen der W&T. Es wird beobachtet, dass alle drei Modelle in ihren modifizierten Versionen im Allgemeinen ihre Leistung in Bezug auf Parameterwerte, Anpassungsstatistiken und grafische Anpassung an die Daten verbessern. Das am besten geeignete Modell wird im Allgemeinen als das modifizierte exponentiell-logistische Modell angesehen.;-;-;-;https://link.springer.com/article/10.1007/BF02459297 0fb1d6d3512c19804b3ca03808d8840b;de;;;3.4.;6.4.;1.2.;Populationsmodellierung der Entstehung und Entwicklung von Wissenschaftsfeldern Wir analysieren die zeitliche Entwicklung aufstrebender Fachgebiete innerhalb mehrerer wissenschaftlicher Disziplinen in Bezug auf Autoren- und Publikationszahlen. Aus bibliografischen Recherchen erstellen wir Datenbanken mit Autoren, Artikeln und deren Veröffentlichungsdaten. Wir zeigen, dass die zeitliche Entwicklung jedes Feldes, obwohl sie im Detail unterschiedlich ist, durch Populationsansteckungsmodelle gut beschrieben wird, die aus der Epidemiologie geeignet angepasst wurden, um die Dynamik der wissenschaftlichen Interaktion widerzuspiegeln. Dynamische Parameter werden geschätzt und diskutiert, um grundlegende Charakteristika des Bereichs widerzuspiegeln, wie zB Ausbildungszeit und Einstellungsquote. Wir zeigen auch, dass Felder durch einfache Skalierungsgesetze gekennzeichnet sind, die die Anzahl neuer Publikationen auf neue Autoren beziehen, mit Exponenten, die steigende oder sinkende Erträge in der wissenschaftlichen Produktivität widerspiegeln.;-;-;-;https://link.springer.com/article/10.1007/s11192-007-1888-4 0165037fa8ec19a568f65c8e01375f50;de;;;3.4.;6.4.;1.2.;Quartäre Landschaftsökologie: Relevante Skalen in Raum und Zeit Zwei Hauptziele von Landschaftsökologen sind (1) die Bewertung von Veränderungen in ökologischen Mustern und Prozessen in Naturlandschaften im Laufe der Zeit und (2) die Bestimmung der ökologischen Folgen der Umwandlung von Naturlandschaften in Kulturlandschaften. Paläoökologische Techniken können verwendet werden, um vergangene Landschaften und ihre Veränderungen im Laufe der Zeit zu rekonstruieren Prozess auf einer verschachtelten Reihe von zeitlichen und räumlichen Skalen. „Naturexperimente“ der Vergangenheit können verwendet werden, um alternative Hypothesen über die relativen Einflüsse von Umweltveränderungen, biologischen Wechselwirkungen und menschlichen Aktivitäten bei der Strukturierung von Lebensgemeinschaften in Landschaftsmosaiken zu testen.;-;-;-;https://link.springer.com/article/10.1007/BF00138906 512111e60711b10d7a617942c254c87f;de;;;3.4.;6.4.;1.2.;Der Arbeitsplatz korreliert und die wissenschaftliche Leistung der Fakultät für klinische Pharmazie Der Arbeitsplatz, insbesondere die akademische Abteilung oder Abteilung, bietet einen faszinierenden Forschungsstandort für das Studium der Korrelate wissenschaftlicher Leistung. Das Ziel dieser Studie war es, ein Korrelationsmodell der dreijährigen wissenschaftlichen Leistung von klinischen Fakultäten an pharmazeutischen Hochschulen zu schätzen. Zweihundertsechsundneunzig klinische Fakultäten in der Pharmazie beantworteten einen vom Autor entwickelten Fragebogen. Die wissenschaftlichen Leistungsitems wurden in drei Dimensionen eingeordnet: „Refereed Research“, „Grants/Books Research“ und „Non-research Scholarship“. Als abhängige Dimension wurde auch eine vierte Einzelelementvariable „Verträge“ verwendet. Acht Korrelate, darunter zwei mit Bezug auf den Arbeitsplatz in der Abteilung, erwiesen sich als Faktoren, die die Unterschiede in den wissenschaftlichen Leistungen signifikant erklären. Die beiden bedeutendsten waren „Off-Campus Conversations“ und „Department: Percent Time in Research“. Diese und andere Ergebnisse wurden mit früheren Korrelationsstudien verglichen und Vorschläge für zukünftige zusätzliche Studien gemacht.;-;-;-;https://link.springer.com/article/10.1007/BF02496700 aeba90c9f04384f7df9311aa98fdd296;de;;;3.4.;6.4.;1.3.;Die Verwendung mehrerer Indikatoren bei der Bewertung der Grundlagenforschung In diesem Beitrag wird argumentiert, dass Evaluationen der Grundlagenforschung am besten mit einer Reihe von Indikatoren durchgeführt werden. Nachdem wir die Gründe dargelegt haben, warum Bewertungen der staatlich geförderten Grundlagenforschung zunehmend erforderlich sind, untersuchen wir die Mehrdimensionalität der Grundlagenforschung. Daran schließt sich eine konzeptionelle Analyse dessen an, was die verschiedenen Indikatoren der Grundlagenforschung tatsächlich messen. Nachdem wir die Grenzen verschiedener Indikatoren erörtert haben, beschreiben wir die Methode zur Konvergenz von Teilindikatoren, die in mehreren SPRU-Bewertungen verwendet wird. Obwohl die meisten, die heute wissenschaftliche Indikatoren verwenden, zustimmen würden, dass eine Kombination von Indikatoren wünschenswert ist, ist die Analyse einer Stichprobe von;-;-;-;https://link.springer.com/article/10.1007/BF02129599 2d1f6cd1f7a24e6e8ccb9071c81b3dfd;de;;;3.4.;6.4.;1.3.;Die Beziehung zwischen Leistungsindikatoren für akademische Forschung und Finanzierung: Entwicklung eines Maßstabs für die Rendite von Investitionen in die Wissenschaft Öffentliche Universitäten spiegeln den Anspruch eines Staates oder einer Gesellschaft an seine Jugend und an sich selbst wider. In dieser Studie lag unser Interesse darin, die Höhe der öffentlichen Finanzierung von Universitäten und ihr Verhältnis zur Qualität zu untersuchen. Um dies zu tun, haben wir Förderdaten für eine amerikanische Stichprobe von Universitäten gesammelt. Darüber hinaus haben wir Daten über die Produktion von Wissenschaft nach Fakultäten an den Institutionen in unserer amerikanischen Stichprobe erhoben. Die Ergebnisse zeigten einen starken Zusammenhang zwischen Investitionen in die Hochschulbildung und Qualität. Anschließend haben wir eine Messgröße für den Return on Investment in der Forschung entwickelt, die diese Maßnahmen der Finanzierung und der Forschungsproduktion kombiniert. Abschließend untersuchen wir die Beziehung zwischen Finanzierung und Forschungsqualität an öffentlichen Universitäten.;-;-;-;https://link.springer.com/article/10.1007/BF02018156 550799bc20fde9bd7c4a2d9095f32952;de;;;3.4.;6.4.;1.3.;Beiträge einer privaten Universität in Peru Die Beziehung zwischen dem Fortschritt in der modernen Gesellschaft und der wissenschaftlichen und technologischen Entwicklung war und ist ein Thema von ständigem Interesse bei Politikern und Forschern. Es ist bemerkenswert, wie Forschung und Forschungsprodukte Veränderungen bewirken, die das Leben der Menschen verändern. Kernenergie, laparoskopische Chirurgie und der Mensch, der auf dem Mond läuft, sind einige Beispiele für technologische Durchbrüche. Gleichzeitig haben Entdeckungen zu neuen Ideen geführt, um Industriegesellschaften in wissensbasierte Ökonomien zu verwandeln. Der Wandel vollzieht sich weiterhin in hohem Tempo. Der wichtigste Faktor für den Fortschritt ist dabei nicht mehr die Verfügbarkeit von Kapital, Arbeitskräften, Rohstoffen oder Energie, sondern die Informationen und das Wissen, die Menschen generieren können (Tünnermann und de Souza 2003).;-;-;-;https://link.springer.com/chapter/10.1057/9781137479389_10 12836aad50ace54d007223fe72398bc1;de;;;3.4.;6.4.;1.3.;Ausbildung von Humanressourcen in Wissenschaft und Technologie in Brasilien: Die Bedeutung eines starken Postgraduiertenprogramms und seine Auswirkungen auf die Entwicklung des Landes Vor fast drei Jahrzehnten wurde ein nationaler Plan zur Einrichtung und Unterstützung der Ausbildung und Entwicklung von Humanressourcen zur Stärkung der Wissenschafts- und Technologieaktivitäten in Brasilien ins Leben gerufen. Dieser Plan mit dem Namen PNPG kann heute in Bezug auf die Qualität seiner allgemeinen Leistung als ein erfolgreiches Programm angesehen werden. In dieser Zeit wurde die Forschungstätigkeit institutionalisiert und einige tausend aktive Gruppen an mehreren Universitäten und Forschungszentren konsolidiert. Zahlreiche technologische Fortschritte in vielen Bereichen wurden erreicht und werden im ganzen Land fortgesetzt. Ein beeindruckendes Ergebnis dieser Bemühungen war die Beschleunigung und Verbesserung einer produktiveren und international wettbewerbsfähigeren Landwirtschaft, des Hüttenwesens einschließlich der metallmechanischen Industrie und der Verwertung von Papier-Zellulose-Komplexen. Diese Ergebnisse stimulierten auch eine bessere Leistung in verwandten Bereichen wie der Agrarindustrie. Die Existenz eines effektiven Systems auf der Grundlage einer Gruppe von Multi-Funding-Agenturen war ein wesentlicher zusätzlicher Faktor.;-;-;-;https://link.springer.com/article/10.1007/BF02019176 3b9fae2189d22e46c9c508a5527ca5c5;de;;;3.4.;6.4.;1.3.;Anhaltender Vetternwirtschaft im Peer-Review In einer Wiederholung des hochkarätigen Beitrags von Wennerås und Wold zum Peer-Review untersuchen wir neue Anträge, die vom medizinischen Forschungsrat in Schweden bearbeitet wurden. Durch die Einführung einer Normalisierungsmethode für das Ranking von Bewerbungen, die die Unterschiede zwischen den Gremien berücksichtigt, verwenden wir auch eine Normalisierung der bibliometrischen Maße nach Bereichen. Abschließend führen wir eine Regressionsanalyse mit Interaktionseffekten durch. Unsere Ergebnisse zeigen, dass weibliche Principal Investigators (PIs) im Vergleich zu ihren männlichen Kollegen einen Bonus von 10% auf die Punktzahl erhalten. Allerdings erhalten männliche und weibliche PIs mit Gutachterzugehörigkeit einen noch höheren Bonus, etwa 15 %. Vetternwirtschaft scheint ein anhaltendes Problem im schwedischen Peer-Review-System zu sein.;-;-;-;https://link.springer.com/article/10.1007/s11192-008-0211-3 bbb23542b210047e7728286213c27c23;de;;;3.4.;6.4.;1.3.;Vergleich der Nutzung von Datenanalyse-Software in der biomedizinischen und gesundheitswissenschaftlichen Forschung: Eine Fallstudie Als Reaktion auf die neue Data-Science-Initiative der University of North Carolina in Chapel Hill (UNC-CH) zielte diese Studie darauf ab, den Einsatz von Data Analytics Software (DAS) in der biomedizinischen und gesundheitswissenschaftlichen Forschung zu untersuchen. Wir wählten drei DAS-Tools (d. h. SAS, R und Python) aus, durchsuchten systematisch PubMed- und PubMed Central-Datenbanken nach UNC-CH-Publikationen, in denen eines der drei Tools übernommen wurde, überprüften manuell abgerufene Artikel und führten dann eine bibliometrische Analyse durch. Wir fanden heraus, dass (1) UNC-Forscher mehr Publikationen mit SAS als mit R oder Python erstellten. (2) Die Zitationswirkung war bei den von drei Tools unterstützten Publikationen ähnlich und höher als der Durchschnitt der NIH-finanzierten Artikel. (3) Die am häufigsten von SAS oder R unterstützten Themen waren Krebs, HIV, Risikofaktoren und -bewertung sowie Zusammenhänge zwischen Krankheiten/Symptomen und klinischen Ergebnissen. Python wurde oft verwendet, um Krebsgene und genetische Schlussfolgerungen, Interaktionen und Sequenzierungen zu untersuchen. Insgesamt hat die weit verbreitete Einführung von SAS durch UNC-Autoren in der biomedizinischen Forschung die Bedeutung der Softwareverfügbarkeit, der Zusammenarbeit zwischen Industrie und Hochschulen und Schulungsprogrammen hervorgehoben. Unsere Ergebnisse lieferten Erkenntnisse für die neue Data-Science-Initiative für eine informierte Entscheidungsfindung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71292-1_11 17ec7c58a439d76f0b7cfb2159aaebdc;de;;;3.4.;6.4.;1.3.;Die Leistung von Forschern in Marokko im Vergleich zu einigen nordafrikanischen Ländern von 1996 bis 2012 und ihre Beziehung zu wichtigen Regierungsentscheidungen über Hochschulbildung und wissenschaftliche Forschung In den 1980er Jahren wurde Marokko als führendes Land für wissenschaftliche Forschung und Leistung in Nordafrika bekannt. Die wissenschaftliche Leistung stagnierte jedoch und ging Mitte der 2000er Jahre sogar zurück, wodurch Marokko auf den letzten Rang der Maghreb-Länder zurückblieb. Die Analyse der Auswirkungen mehrerer wichtiger Regierungsentscheidungen aus den 2000er Jahren zeigt deutliche Auswirkungen auf die Forschungsaktivitäten. Die wichtigsten Entscheidungen mit den stärksten negativen Auswirkungen sind: (1) die Verwendung unterschiedlicher Wissenschaftssprachen in Schulen und Universitäten, (2) Abschaffung der Staatspromotion, (3) das Beförderungssystem der Professoren, (4) der Komplex Bürokratie des Projektmanagements, (5) Initiative Freiwillige Ausreise, (6) administrative Gleichwertigkeit von Master und PhD, (7) Lehrdruck an Universitäten, (8) Überalterung der Professoren und Unterstützung des Verwaltungspersonals, (9) Bevorzugung von Expertise gegenüber Forschungstätigkeit, (10) von Doktoranden geflohen.;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1701-8 87d4307606a9bb593581dde1a06e3357;de;;;3.4.;6.4.;1.3.;Zitationsstruktur eines aufstrebenden Forschungsgebiets am Rande der Anwendung Es wird eine Fallstudie eines aufstrebenden Forschungsgebiets vorgestellt, die sich mit der Herstellung organischer Dünnschichttransistoren beschäftigt, einem Unterthema innerhalb des allgemeinen Bereichs „Kunststoffelektronik“. Der Zweck dieser Fallstudie besteht darin, die strukturellen Eigenschaften des Zitationsnetzwerks zu bestimmen, die für die Entstehung, Entwicklung und Anwendung oder den Untergang eines Forschungsgebiets charakteristisch sein können. Die Forschung zu organischen Dünnschichttransistoren ist stark interdisziplinär und umfasst Zeitschriften und Forschungsgruppen aus Physik, Chemie, Materialwissenschaften und Ingenieurwissenschaften. Es gibt einen klaren Weg zu industriellen Anwendungen, wenn bestimmte technische Probleme überwunden werden können. Trotz des angewandten Charakters und des Potenzials für patentierbare Erfindungen wurden die wissenschaftlichen Veröffentlichungen aus Wissenschaft und Industrie bis 2007 in hohem Tempo fortgesetzt. Die Frage ist, ob die bibliometrischen Indikatoren auf einen Rückgang in diesem Bereich aufgrund einer bevorstehenden Kommerzialisierung oder auf unüberwindbare technische Probleme mit problems diese Materialien.;-;-;-;https://link.springer.com/article/10.1007/s11192-009-0424-0 d31534da9cea0a92c4cfc99f766faafa;de;;;3.4.;6.4.;1.3.;Ein Vergleich des australischen Universitätsoutputs unter Verwendung von Journal Impact Factors Wir haben die Ausgabe von SCI-Items von australischen Universitäten anhand von Journal Impact Factors gewichtet. Dies bietet uns einen zugänglichen Qualitätsindikator für das Publizieren von wissenschaftlichen Zeitschriften und ermöglicht es uns, hinsichtlich der institutionellen Größe in Bezug auf Leistung und Forschungspersonal zu skalieren. Die Verwendung dieses Indikators für die 20 australischen Universitäten aus der Zeit vor 1987 zeigt, dass einige Universitäten zwar einen hohen Stellenwert in Bezug auf ihre Leistung einnehmen, wenn sie jedoch nach ihrer institutionellen Größe skaliert werden, von einigen der kleineren, erst kürzlich gegründeten Universitäten überholt werden.;-;-;-;https://link.springer.com/article/10.1007/BF02018232 e187f5e379f586089f68cd429314b611;de;;;3.4.;6.4.;1.3.;Die multivariate Waring-Verteilung und ihre Anwendung Die multivariate Waring-Verteilung wird entwickelt und untersucht. Als Sonderfall wird die bivariate Waring-Verteilung betrachtet. Es wird gezeigt, dass die Verteilungen einige nette Eigenschaften als multivariate Verteilung haben. Einige Anwendungen auf die Verteilung wissenschaftlicher Produktivität werden diskutiert.;-;-;-;https://link.springer.com/article/10.1023/B%3ASCIE.0000034392.65855.5c 7a6e6b8f28d78ae2b5f0ee12cf635c48;de;;;3.4.;6.4.;1.3.;Das Cambridge-IBM SSME Whitepaper überarbeitet Im Juli 2007 haben IBM und das Institute for Manufacturing (IfM ) der Cambridge University in Zusammenarbeit mit BAE Systems eine Gruppe führender Akademiker und leitender Industrieller zu einem zweitägigen Symposium einberufen, um sich den kritischen Fragen des aufstrebenden Bereichs Service Science , Management . zu widmen und Ingenieurwesen (SSME). Das Treffen hat zusammen mit einem Konsultationsprozess, an dem über hundert internationale Teilnehmer beteiligt waren, ein Weißbuch für Universitäten, Unternehmen und Regierungen weltweit erstellt (IfM und IBM 2008). Der Bericht forderte (1) die Weiterentwicklung von SSME als eigenständiges Forschungs- und Bildungsthema durch intensive disziplinübergreifende Zusammenarbeit und (2) die Erstellung nationaler Service Innovation Roadmaps (SIR) zur Verdoppelung der Investitionen in Dienstleistungsforschung und -ausbildung weltweit bis 2015 Seit der Veröffentlichung des Weißbuchs sind spannende Fortschritte zu verzeichnen, viele Universitäten haben SSME-Kurse gestartet, während verschiedene Regierungen SIR-Berichte veröffentlicht haben (Listen solcher Initiativen siehe Anhänge I und II). Im weiteren Verlauf dieses Kapitels bieten wir eine aktualisierte Zusammenfassung des Weißbuchs und gehen auf seine ursprünglichen Empfehlungen für KMU-Stakeholder ein.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-1628-0_30 bf11a05cdfaf23eeeab39e02662d710d;de;;;3.5.;6.4.;2.1.;Analyse der Entwicklung von Informatikereignissen unter Nutzung eines wissenschaftlichen Wissensgraphen: eine szientometrische Studie zu hochrangigen Ereignissen des letzten Jahrzehnts Die Publizierungs- oder Untergangskultur wissenschaftlicher Kommunikation führt dazu, dass Qualität und Relevanz der Quantität untergeordnet werden. Wissenschaftliche Veranstaltungen wie Konferenzen spielen eine wichtige Rolle für die wissenschaftliche Kommunikation und den Wissensaustausch. Forschende in vielen Bereichen, wie beispielsweise der Informatik, müssen oft nach Veranstaltungen suchen, um ihre Forschungsergebnisse zu veröffentlichen, Verbindungen für Kooperationen mit anderen Forschern herzustellen und über aktuelle Arbeiten auf dem Laufenden zu bleiben. Forscher benötigen ein Meta-Research-Verständnis über die Qualität wissenschaftlicher Veranstaltungen, um an hochwertigen Orten zu veröffentlichen. Für die Bewertung von Ereignissen sind jedoch viele vielfältige und komplexe Kriterien zu untersuchen. Somit wird das Auffinden von Ereignissen mit qualitätsbezogenen Kriterien für Forscher zu einer zeitaufwändigen Aufgabe und führt oft zu einer erfahrungsbasierten subjektiven Bewertung. OpenResearch.org ist eine Crowd-Sourcing-Plattform, die basierend auf einem Wissensgraphen Funktionen bietet, um frühere und kommende Veranstaltungen der Informatik zu erkunden. In diesem Papier entwickeln wir eine Ontologie, die wissenschaftliche Ereignismetadaten repräsentiert. Darüber hinaus stellen wir eine analytische Studie zur Entwicklung von Informatikveranstaltungen vor, die den Wissensgraphen von OpenResearch.org nutzt. Wir identifizieren gemeinsame Merkmale dieser Ereignisse, formalisieren sie und kombinieren sie zu einer Gruppe von Metriken. Diese Metriken können von potenziellen Autoren verwendet werden, um hochwertige Ereignisse zu identifizieren. Neben der verbesserten Ontologie haben wir die Metadaten renommierter Konferenzen in verschiedenen Informatik-Communitys wie VLDB, ISWC, ESWC, WIMS und SEMANTiCS analysiert, um ihr Potenzial als Event-Metriken zu untersuchen.;-;-;-;https://link.springer.com/article/10.1007/s11192-021-04072-0 b3f8ac14be088fd2b2f9a377fea1e406;de;;;3.5.;6.4.;2.1.;Eine auf Zitaten basierende interdisziplinäre Studie zum Altern der Literatur: Teil I – der synchrone Ansatz Wir geben einen Überblick über die Alterungsmerkmale der Literatur in den Natur- und Sozialwissenschaften, auf verschiedenen Aggregationsebenen, von Hauptgebieten, Teilgebieten, Zeitschriften und Einzelarbeiten und aus verschiedenen Perspektiven. Entgegen der weit verbreiteten Annahme, dass wissenschaftliche Literatur schneller veralten könnte, stellten wir fest, dass der Anteil neuerer Referenzen im Jahr 2014 im Allgemeinen deutlich niedriger war als im Jahr 1992, was für alle Aggregationsebenen gilt. Als Ausnahmen beziehen sich die Unterfelder auf;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2289-y be0887936c878679f0b307d609599bdd;de;;;3.5.;6.4.;2.1.;Untersuchung der Verkehrsforschung auf der Grundlage von Social-Media-Analysen: ein systematischer Mapping-Review Social Media ist ein Pool von Gedanken, Meinungen, Umgebung, Situation und anderen von Benutzern. Dieser Pool kann als Echtzeit- und Feedback-Datenquelle für viele Bereiche wie den Transport verwendet werden. Es kann verwendet werden, um sofortiges Feedback von Pendlern, ihre Meinung zum Verkehrsnetz und ihre Beschwerden zu erhalten, zusätzlich zur Verkehrssituation, Straßenzustand, Ereigniserkennung und vielem mehr. Das Problem besteht darin, wie man Social-Media-Daten nutzt, um eines oder mehrere dieser Ziele zu erreichen. Im Bereich der verkehrsbezogenen Forschung auf Basis der Social Media Analyse (TRR-SMA) wurde ein systematischer Review aus den Jahren 2008 bis 2018 durchgeführt, 74 Arbeiten wurden aus einem anfänglichen Satz von 703 Arbeiten aus 4 digitalen Bibliotheken identifiziert. Diese Übersicht wird das Feld strukturieren und einen Überblick geben, basierend auf den folgenden Gründen: Aktivität, Keywords, Ansätze, Social-Media-Daten und -Plattformen und Forschungsschwerpunkte. Es wird den Trend in den Forschungsthemen nach Ländern zeigen, zusätzlich zu den Aktivitätstrends, dem Trend der Plattformnutzung und anderen. Weitere Analysen des am häufigsten verwendeten Ansatzes (Lexikon) und Daten (Text) werden ebenfalls gezeigt. Schließlich werden Herausforderungen und zukünftige Arbeiten gezeichnet und vorgeschlagen.;-;-;-;https://link.springer.com/article/10.1007/s11192-021-04046-2 6a63cfdcfc770ed3013650d5bd22e1c9;de;;;3.5.;6.4.;2.1.;Vorhersage neuer Technologien basierend auf der Analyse des US-Patentzitierungsnetzwerks Das durch Zitate verbundene Patentnetzwerk ist ein sich entwickelnder Graph, der den Innovationsprozess abbildet. Ein Patent, das ein anderes zitiert, impliziert, dass das zitierte Patent ein Stück zuvor vorhandenes Wissen widerspiegelt, auf dem das zitierende Patent aufbaut. Eine hier vorgestellte Methodik (1) identifiziert tatsächliche Cluster von Patenten, d. h. technologische Zweige, und (2) gibt Vorhersagen über die zeitlichen Veränderungen der Struktur der Cluster. Ein Prädiktor, der sogenannte Zitationsvektor, wird zur Charakterisierung der technologischen Entwicklung definiert, um zu zeigen, wie ein von anderen Patenten zitiertes Patent zu verschiedenen Industriebereichen gehört. Die angewandte Clustering-Technik ist in der Lage, die neu aufkommenden Rekombinationen zu erkennen und aufkommende neue Technologie-Cluster vorherzusagen. Die Vorhersagefähigkeit unserer neuen Methode wird am Beispiel der USPTO-Unterkategorie 11, Agriculture, Food, Textiles veranschaulicht. Basierend auf Zitationsdaten bis 1991 wird ein Cluster von Patenten ermittelt, der deutliche Überschneidungen mit der Anfang 1997 gebildeten Klasse 442 zeigt. Diese neuen Werkzeuge der Predictive Analytics könnten politische Entscheidungsprozesse in Wissenschaft und Technologie unterstützen und helfen, Empfehlungen zu formulieren zum Handeln.;-;-;-;https://link.springer.com/article/10.1007/s11192-012-0796-4 598971cfbfad1a18a2e63c7f38d03a5e;de;;;3.5.;6.4.;2.1.;Wie holen Nachzügler zu Vorläufern auf? Analyse von Patenten und Patentzitaten im Bereich Flachbildschirmtechnologien In diesem Beitrag werden die Muster des technologischen Wandels und des Wissensspillovers im Bereich der Flachbildschirmtechnologie (FPD) sowie das Aufholverhalten von Nachzüglern durch die Analyse von US-Patenten und Patentzitaten zwischen 1976 und 2005 untersucht. Unsere Ergebnisse zeigen, dass: (i) der Aufholprozess durch die Nachzügler der FPD-Technologie in der Übergangsphase (1987-1996) begann, als sich das dominante Design in Bereichen mit hohem „aufgedeckten Technologievorteil“ (RTA) etablierte, (ii) es gibt keine offensichtliche Lokalisierung des Wissensspillovers unter den Nachzüglern der FPD-Technologie, stattdessen wurden in den FPD-Patenten der Nachzügler während der Übergangsphase (1987–1996) und der postdominanten Designphase (1997–2005) höhere Zitationshäufigkeiten von Vorläuferpatenten festgestellt und, und ( iii) einige außergewöhnliche Spitzen wurden in der Zitationshäufigkeit von Vorläuferpatenten bei langen Zitationsverzögerungen in FPD-Patenten von Nachzüglern gefunden, insbesondere während der Übergangsphase (1987–1996), was auf das Wissen t . hinweist Schwelle, die Nachzügler überschreiten müssen, um Vorreiter einzuholen.;-;-;-;https://link.springer.com/article/10.1007/s11192-007-2032-1 d68f18fca3915fe5269b9eba6452ca65;de;;;3.5.;6.4.;2.1.;Die für beide Seiten vorteilhafte Beziehung von Patenten und wissenschaftlicher Literatur: Themenentwicklung in den Nanowissenschaften Patente und wissenschaftliche Literatur sind die grundlegenden Innovationsquellen bei der Wissensschaffung und -übertragung. Das Etablieren und Verstehen der komplexen Beziehungen zwischen ihnen kann Wissenschaftlern und Interessenvertretern helfen, den Innovationsprozess vorherzusagen und zu fördern. In diesem Artikel betrachten wir den Bereich der Nanowissenschaften und verwenden eine umfangreiche Sammlung von Patenten und wissenschaftlicher Literatur, um Evolutionsmuster und charakteristische Schlüsselwörter jedes Themas in einem bestimmten Zeitraum zu finden. Durch die Extraktion der Themen auf semantischer Ebene aus einem Datensatz von fast 810.000 wissenschaftlicher Literatur aus dem Web of Science und 160.000 Patenten aus Derwent zeigen die Ergebnisse, dass der Grad der Themenpopularität für beide innovativen Plattformen in den letzten 20 Jahren ab 1995 eine völlig andere Situation zeigt bis 2015. Darüber hinaus haben sich die Top-Keywords von Patenten und wissenschaftlicher Literatur, die den jeweiligen Themeninhalt repräsentieren, im Laufe der Zeit entsprechend geändert. Unsere Analyse kann nicht nur verwendet werden, um bestehende Themen in den Nanowissenschaften zu bestätigen, sondern gibt auch neue Ansichten über das Verhältnis zwischen wissenschaftlicher Literatur und Patenten.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2693-y f3145ca90c74bf66ffd52999a95b926a;de;;;3.5.;6.4.;2.1.;Mapping des Feldes Psychologie: Trends in Forschungsthemen 1995–2015 Wir kartieren die Themenstruktur der Psychologie anhand einer Stichprobe von über 500.000 Abstracts von Forschungsartikeln und Konferenzbänden aus zwei Jahrzehnten (1995–2015). Dazu wenden wir strukturelle Themenmodelle an, um drei Forschungsfragen zu untersuchen: (i) Was sind die gängigsten Forschungsthemen der Disziplin? (ii) Wie hat sich der wissenschaftliche Diskurs in der Psychologie in den letzten Jahrzehnten, insbesondere seit dem Aufkommen der Neurowissenschaften, verändert? (iii) Und wurde dieser Wandel von einflussreichen (HI) oder weniger renommierten Zeitschriften getragen? Unsere Ergebnisse zeigen, dass naturwissenschaftliche Themen im Trend liegen, während ihre geisteswissenschaftlichen „Gegenstücke“ an Popularität verlieren. Diese Trends sind in den führenden Verkaufsstellen der Branche noch ausgeprägter. Darüber hinaus weisen unsere Ergebnisse auf ein anhaltendes Interesse an methodischen Themen hin, begleitet vom Aufkommen der Neurowissenschaften und verwandter Methoden und Technologien (z. B. fMRT). Gleichzeitig verlieren andere etablierte Ansätze (z. B. Psychoanalyse) an Popularität und weisen auf einen relativen Rückgang sozial- und geisteswissenschaftlicher Themen hin.;-;-;-;https://link.springer.com/article/10.1007/s11192-021-04069-9 8b2dee67b927ae373938a99e7d20f427;de;;;3.5.;6.4.;2.1.;Die Muster von Wissensspillovers in Technologiesektoren, die in Patentzitierungsnetzwerken nachgewiesen werden In der Innovationsliteratur wird oft argumentiert, dass bedeutende Erfindungen durch die kumulative Synthese bestehender Komponenten und Prinzipien entstehen. Ein wichtiges wirtschaftliches Phänomen, das mit diesem Argument verbunden ist, ist der Wissensspillover. Obwohl Wissensspillovers als Mittel zur Erfassung von Innovationen zunehmend Beachtung finden, ist über ihre strukturellen Eigenschaften nur wenig bekannt. Diese Studie untersucht die strukturellen Muster des Wissensflusses, die in Patentzitierungen nachgewiesen werden, indem sie sich auf zwei Aspekte konzentriert: die Reziprozität von Zitaten zwischen Technologiesektoren und die Konzentration von Zitieren und zitierten Sektoren. Die Ergebnisse deuten darauf hin, dass der Wissensfluss innerhalb von Technologiesektorpaaren eher reziprok ist als eine klare Richtung zu haben und dass es in den meisten Sektoren relativ geringe Zu- und Abflusskonzentrationen gibt, obwohl es einige Ausnahmen gibt. Diese Ergebnisse legen nahe, dass die meisten Technologiesektoren gleichzeitig sowohl Wissensanbieter als auch Wissenskonsumenten werden und sich durch gegenseitigen Wissensaustausch miteinander entwickeln.;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2329-7 55be3a758b3773b0b56992cf75718c06;de;;;3.5.;6.4.;2.1.;Aus den Augen: Patente, die noch nie zitiert wurden Patentzitate sind zu einem akzeptablen Indikator für die Qualität von Erfindungen geworden. Unsere Studie bietet die erste systematische Untersuchung nicht zitierter Patente. Wir analysieren Daten zu allen US-Patenten, die zwischen 1976 und 2008 erteilt wurden, und untersuchen den Anteil der nicht zitierten Patente an allen erteilten Patenten jedes Jahr. Wir finden ein robustes Muster, das über alle Technologiebereiche hinweg konsistent ist, wobei der Anteil der nicht zitierten Patente zwischen 1976 und Mitte der 1990er Jahre zurückgegangen ist, seither jedoch deutlich zugenommen hat. Wir diskutieren die politischen Implikationen dieser Ergebnisse und schlagen vor, dass der Anteil nicht zitierter Patente als ergänzendes Maß für die Bewertung des Patentsystems dienen kann.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03849-z afe43467220af0d98be6588d706d64f6;de;;;3.5.;6.4.;2.1.;Finanzielle Auswirkungen der Popularität und Verwendung von Code der Technologieklasse bei Wettbewerbern in der Branche Es wurden neue Messgrößen für die Popularität und Nutzung von Technologien entwickelt und getestet, um die Renditen zu bewerten, die aus der Patentierung innerhalb des Mainstreams im Vergleich zu exotischeren Technologieklassifizierungscodes (oder Codepaaren) resultieren.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03185-x a3404ac8d1afdccab7360bd87480f367;de;;;3.4.;6.4.;2.1.;Forschungsqualität und Förderungsvielfalt: Ein Modell, um Forschungsgelder an den Forschungsoutput zu koppeln Wir analysieren die Beziehung zwischen Finanzierung und Output mit bibliometrischen Methoden mit feldnormalisierten Daten. Unser Ansatz besteht darin, die Daten einzelner Forscher zur Finanzierung aus schwedischen Hochschuldatenbanken mit Daten zu eingehenden Stipendien unter Verwendung der spezifischen persönlichen ID-Nummer zu verknüpfen. Angaben zur Förderung beinhalten die für die Förderung verantwortliche Person. Bei der Analyse werden alle Arten von Forschungseinnahmen berücksichtigt, so dass eine Projektdatenbank mit hoher Präzision entsteht. Die Ergebnisse zeigen, dass die Produktivität durch Hintergrundvariablen erklärt werden kann, die Qualität der Forschung jedoch mehr oder weniger unabhängig von Hintergrundvariablen ist.;-;-;-;https://link.springer.com/article/10.1007/s11192-009-0422-2 337492732b245b8bf3d16ab13912b2c5;de;;;3.4.;6.4.;2.1.;Alles zählt in großen Mengen: eine kritisch-realistische Fallstudie zur datenbasierten Produktion Moderne digitale Ökosysteme produzieren täglich riesige Datenmengen. Die Daten sind oft nicht mehr als mikroskopische Protokolleinträge, die von den Elementen einer Informationsinfrastruktur oder eines Systems generiert werden. Obwohl solche Aufzeichnungen eine Vielzahl von Dingen außerhalb des Systems darstellen können, gehen ihre Befugnisse über die Fähigkeit hinaus, semantischen Inhalt zu übertragen. In diesem Artikel nutzen wir kritischen Realismus, um zu erklären, wie solche Daten in bestimmten Geschäftsabläufen von Bedeutung sind. Wir analysieren die Produktion eines Werbepublikums aus Daten-Token, die aus einem Telekommunikationsnetz extrahiert wurden. Die Untersuchung basiert auf einer intensiven Fallstudie eines Mobilfunkbetreibers, der versucht, seine Abonnenten zu einem Werbepublikum zu machen. Wir identifizieren drei Mechanismen, die die datenbasierte Produktion prägen, und drei Eigenschaften, die den zugrunde liegenden Datenpool charakterisieren. Die Ergebnisse fördern das Verständnis vieler organisatorischer Einstellungen, die sich auf die Datenverarbeitung konzentrieren.;-;-;-;https://link.springer.com/chapter/10.1057/9781137509888_9 5fa3abc53979c46aa2dff34de04d1ec5;de;;;3.4.;6.4.;2.1.;Die Klassifikation der Wissenschaft und die Wissenschaft der Klassifikation Im Hinblick auf ein flexibles, angemessenes und eindeutiges System von Wissenschaftsindikatoren wird kurz auf die Klassifikationstheorie eingegangen. Dies wird dann auf drei Situationen angewendet, die sich bei Inputindikatoren für die Wissenschaft ergeben, und es wird gezeigt, wie der derzeit verwendete Formalismus für solche Indikatoren verbessert und damit unnötige Streitigkeiten in der praktischen Anwendung solcher Indikatoren beseitigt werden könnten.;-;-;-;https://link.springer.com/article/10.1007/BF02026040 21694999562fbb4ec20f05ae0754da32;de;;;3.4.;6.4.;2.1.;Innovation in der pharmazeutischen F&E: Abbildung der Forschungslandschaft Als Reaktion auf die zunehmende Zahl und Breite von Innovationsstudien zur pharmazeutischen Industrie haben wir die Literatur kartiert, um die Trends in der jüngsten Forschung aufzuzeigen und Bereiche für weitere Forschung aufzuzeigen. In der ersten Phase haben wir Artikel zur Pharmaindustrie analysiert, die in Innovationsjournalen veröffentlicht wurden. Wir haben die Text- und Zitationsdaten dieser Artikel verwendet und eine Hybrid-Cluster-Analyse angewendet. Drei Hauptcluster wurden basierend auf dem Analyseniveau erstellt, das Innovationswissenschaftler zur Untersuchung der Branche verwendet hatten: Makro, Meso und Mikro. Wir beschreiben die Forschungsthemen innerhalb dieser Cluster und zeigen, dass sich Innovationswissenschaftler insgesamt zunehmend auf die Mesoebene konzentrieren und die Beziehungen zwischen verschiedenen Unternehmen analysieren. Diese Verlagerung des Interesses hin zum kollaborativen Charakter der Wirkstoffforschung und -entwicklung zeigte sich auch in Studien auf Makro- und Mikroebene. Um zu untersuchen, wie diese Literatur von Wissenschaftlern in der Industrie verwendet wird, umfasste unsere zweite Phase die Analyse der Zitierungsartikel, die in pharmazeutischen Fachzeitschriften veröffentlicht wurden. Mit unseren Erkenntnissen schlagen wir Forschungsbereiche vor, die weiter erforscht werden können, um eine engagierte und besser integrierte Literatur zu pharmazeutischen Innovationen zu schaffen.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03707-y 4537e5a1a84a9ebf506022aed0f3c039;de;;;3.4.;6.4.;2.1.;Stand der Physikforschung in Indien: Eine Analyse des Forschungsoutputs 1993–2001 Der Beitrag gibt einen Überblick über den gegenwärtigen Stand der indischen Physikforschung, insbesondere die Art des Forschungssystems, die Art der beteiligten Institutionen, die Art der angebotenen Ausbildung und die Ergebnisse auf Postgraduierten- und Doktorandenebene, das Ausmaß, in dem außeruniversitäre finanzielle Unterstützung verfügbar ist von verschiedenen staatlichen FuE-Agenturen und die Art der beteiligten Berufsorganisationen Die Studie basiert auf der Analyse der indischen Physikergebnisse, wie sie im Expanded Science Citation Index (Web of Science) von 1993 bis 2001 indiziert sind. Die Studie diskutiert auch verschiedene Merkmale der indischen Physikforschung wie das Wachstum in Bezug auf Forschungsarbeiten, die Produktivität der institutionellen Publikationen, die Art der Zusammenarbeit sowie die Qualität und Wirkung ihrer Forschungsergebnisse.;-;-;-;https://link.springer.com/article/10.1007/s11192-007-1926-2 a20a1edd75ac0fc3ca71539ecaa23f3c;de;;;3.4.;6.4.;2.1.;Die Metaphysik der Urteilsfindung: Kontingenz In Kapitel 2 haben wir die Rational-Choice-Theorie (RCT) auf praktische Argumentation kritisiert: Ihre Grundzüge dienen derzeit als Grundlage für einen Großteil der Managementtheorie und der Wirtschaftspädagogik.;-;-;-;https://link.springer.com/chapter/10.1057/9781137472335_3 7278fee99c94a8954c176cc4f143396b;de;;;3.4.;6.4.;2.1.;Der Einfluss europäischer Rahmenprogramme auf die wissenschaftliche Zusammenarbeit in der Nanotechnologie Diese Studie befasst sich hauptsächlich mit den Auswirkungen bestimmter europäischer Rahmenprogramme auf die Publikationsleistung der EU-27-Mitgliedstaaten im Bereich Nanotechnologie mit einem Schwerpunkt auf deren wissenschaftlicher Zusammenarbeit in den letzten zehn Jahren. Die Studie wurde auf drei Ebenen (Kategorie, Zeitschrift und Publikation) durchgeführt. Ziel war es zu überprüfen, ob die neu eingeführte Kategorie ausreichend vollständig ist, sowie die bekanntesten Zeitschriften zu identifizieren und die Produktion der EU-27-Mitgliedstaaten mit der Weltproduktion zu vergleichen. Zu drei Stichtagen (2001, 2006 und 2011) werden zudem Momentaufnahmen der europäischen Vernetzung bereitgestellt, um die Positionen von Schwellen- und Zentralstaaten zu ermitteln und deren zeitliche Veränderungen zu analysieren. Die Ergebnisse bestätigen die rasche Entwicklung auf diesem Gebiet und die Bedeutung der Rolle der EU-27 in der Welt. Sie belegen den engen Zusammenhang zwischen Finanzierung und Leistungssteigerung sowie die Intensivierung der Zusammenarbeit zwischen den Mitgliedstaaten. Schließlich wurden auch die Informationen im Feld „Förderagentur“ der Datenbank Web of Science zusammengestellt, um die Gültigkeit der geschätzten Auswirkungen von EU-Förderprogrammen auf die wissenschaftliche Leistung der Mitgliedstaaten zu belegen.;-;-;-;https://link.springer.com/article/10.1007/s11192-013-1028-2 c3559b0fbe704e71c7cfd937780d818b;de;;;3.4.;6.4.;2.1.;Ein Beobachtungsrahmen für zurückgezogene Publikationen in mehreren Dimensionen Um die Auswirkungen der zurückgezogenen Veröffentlichungen auf die wissenschaftliche Gemeinschaft umfassender zu beschreiben, stellt dieser Artikel die Auswirkungen zurückgezogener Veröffentlichungen auf die Technologie vor. Es erstellt einen mehrdimensionalen Beobachtungsrahmen für zurückgezogene Veröffentlichungen aus vier Dimensionen, einschließlich wissenschaftlicher Auswirkungen, technologischer Auswirkungen, Auswirkungen auf die Finanzierung und altmetrischer Auswirkungen, und schlägt die Verwendung eines neuartigen mehrdimensionalen Blasendiagramms zur Veranschaulichung der mehrdimensionalen Daten vor. Diese Studie schlägt auch eine zweidimensionale Klassifikation von Zurückziehungsgründen vor, um die Sortierung zurückgezogener Papiere zu erleichtern, deren Ergebnisse die korrelierten Merkmale dieser Papiere zeigen. Dieser Artikel nimmt alle zurückgezogenen Veröffentlichungen aus zwei führenden biomedizinischen Zeitschriften als Stichprobe, verwendet den Beobachtungsrahmen, um sie zu analysieren, und beschreibt die Auswirkungen dieser Artikel aus mehreren Dimensionen. Die Ergebnisse zeigen, dass dieser Beobachtungsrahmen im Vergleich zur eindimensionalen Analyse die Wirkungsmerkmale zurückgezogener Publikationen umfassender aufzeigt.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03702-3 fb7d24012c233c08f946247f84ad8124;de;;;3.4.;6.4.;2.1.;Die Entwicklungstendenzen der Wissenschaft in den GUS-Staaten anhand einiger szientometrischer Indikatoren Der Artikel versucht, die Ergebnisse der unabhängigen Entwicklung der GUS-Staaten im Bereich der Wissenschaft im Zeitraum 1990–2009 zu bewerten. Die Analyse der zahlreichen szientometrischen Indikatoren zeigt den Rückgang der Zahl der erfahrenen Forscher und den deutlichen Rückgang des wissenschaftlichen und technischen Outputs. Der Artikel informiert auch über die Dynamik eines Indikatorensets, das Rückschlüsse auf die Effektivität der Forschungsaktivitäten in den GUS-Staaten zulässt.;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0592-6 5da8a1c863ba5520bb473c9247ed8ff4;de;;;3.4.;6.4.;2.1.;Messung der Forschungsleistung postsekundärer Einrichtungen Das Interesse an der Messung der Forschungsleistung von Hochschulen und Universitäten ist weltweit mehr denn je so hoch wie nie zuvor. Es gibt mehrere Faktoren, die zu diesem wachsenden Interesse an der Bewertung der Forschungsproduktivität geführt haben, insbesondere in den Vereinigten Staaten. Erstens konkurrieren Hochschulen und Universitäten zunehmend um Reputation und Prestige, und die Steigerung der Forschungsproduktivität wird oft als Mittel zur Erreichung dieses Ziels angesehen. Basierend auf den Ausgaben für die akademische Forschung wuchs die wissenschaftliche Produktion im 20. Jahrhundert exponentiell (Geiger 2004) und die aktuelle Höhe der Forschungsförderung zeigt, dass der Trend im neuen Jahrhundert anhält. Infolgedessen hat das Hochschulsystem in den Vereinigten Staaten in den letzten Jahren eine beträchtliche „Mission Drift“ erfahren, da Institutionen, die sich zuvor möglicherweise mehr auf die Lehrdimension ihrer Mission konzentriert haben, ihre Forschungsproduktion und Erwartungen an die Fakultät erhöht haben. Einige Wissenschaftler, darunter Geiger (2004) und Slaughter und Rhoades (2004) geben an, dass Universitäten heute in hohem Maße von Bundes- und Industriemitteln für die Finanzierung von Forschung und Entwicklung (F&E) abhängig sind, was zu „akademischem Kapitalismus“ und der Möglichkeit von Forschung für finanziellen Gewinn führt mehr als für die authentische Entdeckung von Wissen. Die Vorteile der Finanzierung und Sichtbarkeit, die sich aus der akademischen Forschung ergeben, werden von vielen gesucht und fließen auch in das Ranking der Institutionen ein. Chinas „2020-Plan“, Koreas Plan, mehr Universitäten von Weltrang zu schaffen (Shin 2009), und das eifrige Streben nach höheren institutionellen Rankings wird mit jährlichen Veröffentlichungen von Veröffentlichungen von Gruppen wie . fortgesetzt;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-1116-7_7 596e6261998efca745b27eb791b0b726;de;;;3.4.;6.4.;2.1.;Makrotrends des 21. Jahrhunderts im institutionellen Gefüge der Wissenschaft: bibliometrische Überwachung und Analyse Manche sagen, dass die Weltwissenschaft in den letzten Jahren „angewandter“ oder zumindest „anwendungsorientierter“ geworden ist. Anstelle der ungenau definierten Unterscheidung zwischen „Grundlagenforschung“ und „angewandter Forschung“ führen wir die Domänen „Forschungsanwendungsorientierung“ als alternativen konzeptionellen und analytischen Rahmen zur Untersuchung von Wachstumsmustern der Forschungsleistung ein. Um mögliche Entwicklungspfade zu unterscheiden, definieren wir drei institutionelle Domänen: „Universität“, „Industrie“, „Krankenhäuser“. Unsere bibliometrische Analyse auf Makroebene wirft einen genaueren Blick auf allgemeine Trends innerhalb und zwischen rund 750 der weltweit größten forschungsintensiven Universitäten. Um Datenbankänderungen zu korrigieren, wurde unsere Zeitreihenanalyse sowohl auf einen festen Zeitschriftensatz (gleiche Forschungszeitschriften und Konferenzberichte im Laufe der Zeit) als auch auf einen dynamischen Zeitschriftensatz (wechselnde Reihe von Veröffentlichungen) angewendet. Wir stellen fest, dass das Outputwachstum in der „Krankenhausforschungsorientierung“ insbesondere seit 2006/2007 deutlich über den anderen beiden Anwendungsdomänen liegt. Dies geschah hauptsächlich aufgrund der Einführung neuer Publikationsorgane im WoS, aber auch teilweise, weil einige Universitäten – insbesondere in China – in diesem Bereich sichtbarer geworden zu sein scheinen. Unser analytischer Ansatz muss weiter ausgebaut und vertieft werden, um eine definitivere Antwort darauf zu geben, ob Krankenhäuser und der medizinische Sektor als Domäne der wissenschaftlichen Wissensproduktion und als Umfeld für Forschungsanwendungen immer dominanter werden.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-2041-z 5e7f5f72c974aaa335140a38e5e8d4bf;de;;;3.4.;6.4.;2.1.;Technologie-Industrie-Netzwerke bei der Technologievermarktung: Beweise aus koreanischen Universitätspatenten Obwohl das Interesse an politischen Fragen zu Hochschulpatenten wächst, konzentrierten sich die Studien bisher auf bestimmte begrenzte Faktoren oder Fallstudien. Durch die Verwendung einer Zwei-Modus-Netzwerkanalyse identifiziert diese Studie idiosynkratische Muster und Unterschiede in Technologie-Industrie-Netzwerken zwischen den beiden Gruppen von koreanischen Universitätspatenten - kommerziell und nicht-kommerziell. Wir sammelten Patentdaten einschließlich bibliografischer Informationen von koreanischen Universitäten, die seit 2005 ein Programm für Patentmanagementberater betreiben. Anschließend wurden eine Netzwerkanalyse und eine Varianzanalyse für die beiden Gruppen durchgeführt, um die Gruppenunterschiede zu untersuchen. Wir fanden heraus, dass die Struktur des Technologie-Industrie-Netzwerks bei kommerzialisierten Patenten wesentlich direkter und einfacher war als bei nicht-kommerziellen Patenten. Insbesondere stellten wir fest, dass sowohl direkte als auch indirekte Verbindungen zwischen Technologie und verwandter Industrie für die nicht-kommerzialisierte Gruppe komplexer waren als für die kommerzialisierte: Die direkte Verbindung war für die kommerzialisierte Gruppe stärker als für die nicht-kommerzielle Gruppe. Unsere Studie legt einen wichtigen Aspekt der Technologievermarktung aus der Perspektive der inhärenten Eigenschaften von Patenten nahe, der im Widerspruch zu den evolutionären Ansätzen früherer Studien steht.;-;-;-;https://link.springer.com/article/10.1007/s11192-013-1131-4 7f22e6e5a6bd51f401466703ffaaad6d;de;;;3.4.;6.4.;2.1.;Ein Überblick über die Spielarten der Systemwissenschaften zweiter Ordnung Die Systemwissenschaften basieren auf einer universellen Sprache von Systemen, die in den meisten akademischen Disziplinen bei ihren Bemühungen um die Erkundung der Welt verwendet werden kann. Derzeit decken die Systemwissenschaften eine Vielzahl unterschiedlicher Ansätze wie komplexe adaptive Systeme, belastbare Systeme oder Systems Engineering ab. Eine der zukünftigen Erweiterungen der Systemwissenschaften kommt durch die Anwendung der Systemwissenschaften zweiter Ordnung als neues Feld reflexiver Studien zur Systemwissenschaft erster Ordnung. Dieser Artikel gibt einen allgemeinen Hintergrund zu den Beziehungen von Wissenschaft erster Ordnung und Wissenschaft zweiter Ordnung im Allgemeinen und skizziert dann einen grundlegenden Entwurf für die Systemwissenschaften zweiter Ordnung und ihre Potenziale zur Qualitätskontrolle und für Innovationen für die Systemwissenschaften bestellen.;-;-;-;https://link.springer.com/article/10.1007/s11518-017-5340-x 9ee38bdd1c4ae1b63fbc47ceaa684dc8;de;;;3.4.;6.4.;2.1.;Multidisziplinarität, Interdisziplinarität und Muster der Forschungszusammenarbeit in Nanowissenschaften und Nanotechnologie Dieser Beitrag beschreibt zunächst die jüngste Entwicklung, dass Wissenschaftler und Ingenieure vieler Disziplinen, Länder und Institutionen in atemberaubender Geschwindigkeit zunehmend nanoskalige Forschung betreiben. Durch Co-Autoren-Analysen von über 600 Papers, die 2002 und 2003 in „Nano Journals“ erschienen sind, untersuche ich, ob diese scheinbare Übereinstimmung von neuen Formen und Graden der Multi- und Interdisziplinarität sowie der institutionellen und geografischen Forschungskooperation begleitet wird. Anhand einer neuen Visualisierungsmethode werden Muster der Forschungskooperation analysiert und mit denen der klassischen disziplinären Forschung verglichen. Ich argumentiere, dass die aktuelle nanoskalige Forschung keine besonderen Muster und Grade von Interdisziplinarität aufweist und dass ihre scheinbare Multidisziplinarität aus verschiedenen, weitgehend monodisziplinären Feldern besteht, die ziemlich unabhängig voneinander sind und kaum mehr als das Präfix „nano“ teilen.;-;-;-;https://link.springer.com/article/10.1023/B%3ASCIE.0000018542.71314.38 83f24ffc63cd7fb26b36115f0af83a8f;de;;;3.4.;6.4.;2.1.;Forschungsstärken durch Wertschätzung und bibliometrische Indikatoren identifiziert: eine Fallstudie an der Universität Wien Die Identifikation der eigenen Forschungsstärken ist für die Forschungsverwaltung an Hochschulen von entscheidender Bedeutung. In dieser Fallstudie wurden zwei unterschiedliche Ansätze auf die Universität Wien angewendet. Der erste stützt sich auf Finanzierungs- und Ranking-Informationen sowie auf andere Wertschätzungsindikatoren. Die zweite basiert auf einer bibliometrischen Analyse des Publikationsoutputs. Wir haben zwei alternative Clusterings für Publikationen für die bibliometrische Analyse verwendet: Web of Science-Themenkategorien und Listen von Forschern, die mit Wertschätzungsindikatoren assoziiert sind. Sowohl Wertschätzungsindikatoren als auch bibliometrische Analysen haben sich als nützlich erwiesen, um Forschungsstärken zu identifizieren, führen zu ähnlichen Ergebnissen und sollen zusammen verwendet werden, um sich gegenseitig zu ergänzen. Wir stellten fest, dass das größte Hindernis des bibliometrischen Ansatzes in den inhärenten Beschränkungen von Zeitschriften-Zuordnungs-basierten Klassifikationssystemen und dem erheblichen Zeit- und Arbeitsaufwand für genauere forschungsbasierte Publikationsanalysen liegt. Weitere Untersuchungen zu diesem Thema, einschließlich neuer und alternativer Metriken, sind erforderlich und werden in Zukunft durchgeführt. Die vorläufigen Ergebnisse zeigen jedoch bereits die Vorteile der Verwendung von Wertschätzungsfaktoren zusammen mit bibliometrischen Analysen zur Definition der Forschungsstärken von Universitäten.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03672-6 19f5beb594c32743f031929e0efcce44;de;;;3.4.;6.4.;2.1.;Untersuchung der Achillesferse: eine quantitative Analyse von 50 Jahren Familienunternehmensdefinitionen Trotz zahlreicher Versuche von Wissenschaftlern aus vielen Disziplinen und unterschiedlichen regionalen Kontexten besteht noch keine Einigkeit über eine Definition von Familienunternehmen. Indem wir 258 Definitionen, die in Arbeiten der letzten 50 Jahre (1964–2013) gefunden wurden, bibliometrischen Techniken der Konsens- und Co-Wort-Analyse unterziehen, um intellektuelle Strukturen aufzudecken, identifizieren wir die Schlüsselbegriffe, die verwendet werden, um das Konzept des Familienunternehmens zu untermauern und die Fortschritte auf dem Weg zu einem Konsens über seine Definition. Wir finden ein Aufkommen von definierenden Schlüsselbegriffen, mit denen Wissenschaftler versuchen, die Konzepte von Familie und Familienunternehmen zu klären, und eine wachsende Übereinstimmung darüber, welche Kriterien bei der Formulierung einer Definition erfüllt werden sollten. Diese Studie trägt zur Literatur bei, indem sie eine Synthese dessen bietet, was ein Familienunternehmen ausmacht, sowie eine systematische und quantitative Analyse seiner Entwicklung über ein halbes Jahrhundert Forschung. Es zeigt auch, wie bibliometrische Werkzeuge verwendet werden können, um Bereiche zu beleuchten, in denen definitorische Mehrdeutigkeiten bestehen bleiben.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2702-1 8bd6ebd4219a5cb286beaf8e568dc683;de;;;3.4.;6.4.;2.1.;Normalisierung der Zitationswirkung in den Wirtschaftswissenschaften Diese Studie soll eine faire wirtschaftswissenschaftliche Evaluation ermöglichen. Die Feld- und Zeitnormierung der Zitationswirkung ist die Standardmethode in der Bibliometrie. Da sich die Zitationsraten für Zeitschriftenartikel je nach Publikationsjahr und Journal of Economic Literature-Klassifikationscodes erheblich unterscheiden, sollten die Zitationsraten für den Vergleich von Artikeln über verschiedene Zeiträume und ökonomische Teilbereiche hinweg normalisiert werden. Ohne Normalisierung können beide von der Forschungsqualität unabhängigen Faktoren zu irreführenden Ergebnissen von Zitationsanalysen führen. Wir wenden zwei normalisierte Indikatoren in den Wirtschaftswissenschaften an, die die wichtigsten Indikatoren in der Bibliometrie sind: (1) der durchschnittliche normalisierte Zitationsscore (MNCS) vergleicht den Zitationseffekt eines Schwerpunktartikels mit dem durchschnittlichen Einfluss ähnlicher Artikel, die im selben ökonomischen Teilbereich veröffentlicht wurden, und Erscheinungsjahr. (2) PP;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03140-w b21f43745e85963730e115d1130b9833;de;;;3.4.;6.4.;2.1.;Probleme und Perspektiven der Modellierung von Computerinformationsnetzen. Eine Rezension Der Bereich der Modellierung von Computerinformationsnetzen (CINs) wird als notwendiges Instrument für die Vorhersage und Schätzung der grundlegenden Betriebseigenschaften von CINs gemäß der Ausarbeitung, dem Aufbau und dem Betrieb solcher Netzwerke entwickelt. Diese CINs umfassen ihre Kontrollierbarkeit, Kompatibilität, Erweiterbarkeit, Skalierbarkeit, Transparenz, Netzwerkkapazität, Verzögerungs- und Reaktionszeit, Sicherheit, Fehlertoleranz und Existenzfaktor.;-;-;-;https://link.springer.com/article/10.3103/S0005105510060038 884729ebcc2dfa264b7855fda78d749b;de;;;3.4.;6.4.;2.1.;Große Firmen und die Schnittstelle zwischen Wissenschaft und Technologie Patente, Patentzitate und wissenschaftliche Ergebnisse multinationaler Konzerne in dünnen Schichten Unternehmen, die in wissenschaftsbasierten Technologiebereichen tätig sind, spiegeln einige der Komplexitäten der Interaktion zwischen Wissenschaft und Technologie wider. Die vorliegende Studie versucht, diese Wechselwirkungen zu untersuchen, indem sie Patentzitate, Veröffentlichungen und Patentergebnisse multinationaler Konzerne (MNCs) in der „Dünnfilm“-Technologie analysiert. Insbesondere untersuchen wir verschiedene Charakteristika der Wissensproduktion und Wissensnutzung dieser Unternehmen. Die Ergebnisse zeigen keinen Zusammenhang zwischen der Intensität der Forschungsaktivitäten und den von den MNCs produzierten Patenten. Die Beziehung zwischen wissenschaftlicher und technologischer Wissensgenerierung sowie die Verbindung zwischen Wissenschaft und Technologie scheinen eher unternehmensspezifisch als von einem Technologie- oder Industriesektor abhängig zu sein. Die Streuung der Zeitschriftenquellen für die Mehrzahl der Patentzitate wissenschaftlicher Literatur sowie für die Mehrzahl der wissenschaftlichen Veröffentlichungen ist gering. Grundlagenzeitschriften spielen eine wichtige Rolle bei der Patentzitation sowie bei der Erforschung von MNCs in der Dünnschichttechnologie.;-;-;-;https://link.springer.com/article/10.1023/A%3A1026284510104 96766a6c0a2465ae1b1b022145cea184;de;;;3.4.;6.4.;2.1.;Messung kognitiver Nähe mit semantischer Analyse: Eine Fallstudie über Chinas IKT-Branche Die Quantifizierung von Wissenstechnologien stellt seit langem eine Herausforderung für die Messung kognitiver Nähe dar. Dieses Papier schlägt eine Methode vor, um kognitive Nähe zu messen, indem Patentbeschreibungstext mit dem LDA-Themenmodell analysiert wird. Mit der Patent-Themenverteilung aus dem LDA-Themenmodell wird die kognitive Nähe zwischen Unternehmen oder innerhalb von Städten gemessen, was den Mangel an bestehenden Messmethoden ausgleichen könnte, die durch die starre IPC, das Branchenklassifizierungssystem oder das nicht standardisierte Interview begrenzt sind Daten. Unsere empirischen Studien zur IKT-Branche zeigen, dass die 20 Themenfelder des Themenmodells eine gute Übereinstimmung mit den Technologien der führenden Produkte und Dienstleistungen dieser Branche aufweisen. Und wir graben die Wissens- und Technologieinformationen im Patenttext aus, um die Technologielandschaft abzubilden, einschließlich der Veränderungen von Technologiethemen im Laufe der Zeit, der unterschiedlichen Verteilung in verschiedenen Städten und des Entwicklungstrends des urbanen Innovationsnetzwerks. Die Wirksamkeit dieser Methode wird auch in dem Modell nachgewiesen, das verschiedene Messmethoden vergleicht, um den Zusammenhang zwischen kognitiver Nähe und Patentproduktivität aufzuzeigen. Schließlich können Forscher diesen Ansatz nutzen, um tiefer in Fragen der urbanen Innovation einzusteigen, und politische Entscheidungsträger können ihn nutzen, um weitere Innovationen zu ermitteln.;-;-;-;https://link.springer.com/article/10.1007/s11192-021-04021-x d970b2d4b8cde53be022cad3368e3b74;de;;;3.4.;6.4.;2.1.;Die Taxonomie der Forschungszusammenarbeit in Wissenschaft und Technologie: Evidenz aus der mechanischen Forschung durch probabilistische Clusteranalyse Dieses Papier schlägt einen empirischen Rahmen vor, um Forschungskooperationen mit entwickelten Indikatoren zu klassifizieren, die einen früheren theoretischen Rahmen (Wagner [Wissenschafts- und Technologiepolitik für Entwicklung, Dialoge an der Schnittstelle,;-;-;-;https://link.springer.com/article/10.1007/s11192-012-0686-9 8368bfca39b514d4c133263ef6301994;de;;;3.4.;6.4.;2.1.;Policy-Change-Analyse basierend auf „Policy Target-Policy-Instrument“-Mustern: eine Fallstudie zu Chinas Atomenergiepolitik Richtliniendokumente sind Träger der Richtlinien und bieten Forschern einen Kanal, um die wichtigsten Inhalte einer Richtlinie und des Richtlinienprozesses zu beobachten. Politische Dokumente unterscheiden sich von traditionellen wissenschaftlichen Texten (einschließlich Papieren und Patenten), da sie der Funktion der Governance und der Blaupausenplanung dienen. Dies macht es unmöglich, den Inhalt von Richtlinientexten genau zu beschreiben, indem man sich ausschließlich auf traditionelle wortbasierte bibliometrische Methoden verlässt. In diesem Papier schlagen wir eine neue bibliometrische Methode vor, um Veränderungen in Politikthemen auf der Grundlage von Mustern zwischen Ziel und Instrument der Politik zu erkennen. Wir sammelten relevante Strategiedokumente zu bestimmten Zielthemen, identifizierten Muster von politischen Zielen und politischen Instrumenten, die in diesen Dokumenten impliziert wurden, und bauten ein Netzwerk zwischen politischen Zielen und politischen Instrumenten auf. Dann identifizierten wir basierend auf den Eigenvektor-Zentralitätsmerkmalen von Netzwerkknoten das Kern-„Politikziel“ und das Kern-„Politikinstrument“ in verschiedenen Zeiträumen und identifizierten schließlich die Entwicklung von Politikinstrumenten und Politikzielen sowie die Kontinuität der Politikziele. Anhand einer Fallstudie zu Chinas Nuklearenergiepolitik wurde die Zuverlässigkeit unserer Methode demonstriert, und die Ergebnisse spiegeln den praktischen Wert dieser Methode bei der quantitativen Analyse von Politikdokumenten wider.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2899-z 18e0010473377e2f8568e6b66ba99377;de;;;3.4.;6.4.;2.1.;Entdecken neuer Forschungsthemen basierend auf SPO-Vorhersagen Angesichts des rasanten Wachstums der wissenschaftlichen Literatur ist es sehr wichtig, das implizite Wissen aus den umfangreichen Informationen genau und effizient zu entdecken. Um dieses Ziel zu erreichen, schlagen wir einen Perkolationsansatz vor, um neue Forschungsthemen zu entdecken, indem wir Text-Mining- und szientometrische Methoden auf der Grundlage von Subject-Predication-Object (SPO)-Prädikationen kombinieren, die aus einem Subjektargument, einem Objektargument und der bindenden Beziehung bestehen Ihnen. Zunächst werden SPO-Prädikationen extrahiert und aus Literaturinhalten bereinigt, um semantische SPO-Netzwerke zu konstruieren. Anschließend wird die Community-Erkennung in den semantischen SPO-Netzwerken durchgeführt. Anschließend werden zwei Indikatoren des Research Topic Age (RTA) und der Research Topic Authors Number (RTAN) in Kombination mit einem hypervolumenbasierten Auswahlalgorithmus (HBS) ausgewählt, um potenzielle neue Forschungsthemen aus Communities zu identifizieren. Schließlich werden wissenschaftliche Literaturen zu Stammzellen als Fallstudie ausgewählt, und das Ergebnis zeigt, dass der Ansatz die neuen Forschungsthemen effektiv und genau aufdecken kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-21451-7_10 102edbc6263f31e1295bf5b1290226c7;de;;;3.4.;6.4.;2.1.;Onkologische Forschung im späten 20. und Jahrhundertwende Portugal: ein szientometrischer Zugang zu seinen institutionellen und semantischen Dimensionen Dieser Beitrag analysiert die Entwicklungsdynamik der onkologischen Forschung in Portugal in der zweiten Hälfte des 20. Ausgehend von einer szientometrischen Analyse einer Publikationsdatenbank für den Zeitraum 1976–2015 zeigt der Beitrag, wie eng die Ausweitung der onkologischen Forschung von Ende der 1990er bis in die 2000er Jahre mit wissenschafts- und technologiepolitischen Entscheidungen im Land zusammenhängt. Die Hauptakteure der institutionellen Entwicklung des Bereichs sind öffentliche Organisationen, sowohl im Krankenhaus als auch im akademischen/forschungsbasierten Bereich, die häufig zusammenarbeiten. Die portugiesische onkologische Forschung konzentrierte sich insbesondere auf organbasierte Krebserkrankungen, was die starke Verbindung zwischen Labor und Klinik unterstreicht. Dementsprechend ist die translationale Forschung ein wichtiger Trend in der onkologischen Forschung, wie die Analyse von Veröffentlichungen in großen Zeitschriften und Inter-Citation-Maps zeigt. Netzwerke institutioneller Koautorenschaften zeigen die Bedeutung regionaler und internationaler Kooperationen. Die Kooperationsmuster im Laufe der Zeit zeigen die Bedeutung nationaler und europäischer Kooperationen in den ersten Jahren, die von unserer Publikationsdatenbank abgedeckt werden, im Einklang mit den großen Auswirkungen der Integration Portugals in die Europäische Union und einer wachsenden Bedeutung regionaler Kooperationen sowie mit Nord und südamerikanischen Institutionen in den letzten Jahren. Portugal bietet eine Fallstudie darüber, wie sich die Politik des 20. Jahrhunderts auf nationaler und europäischer Ebene auf die Entwicklung der onkologischen Forschung in Ländern Südeuropas ausgewirkt hat.;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2491-y 35fcb6cb9ebf073914b1178134e061b1;de;;;3.4.;6.4.;2.1.;Korrelative Indikatoren zwischen Wissenschaft, Technologie und Industrie für die Ausrichtung der Politik auf neue Technologien: Untersuchung der Kernkompetenzen und vielversprechenden Industrien aufstrebender Volkswirtschaften Dieses Papier versucht, eine Reihe von Schritten in Betracht zu ziehen, um die Bereiche Wissenschaft, Technologie und industrielle Produkte zu verbinden. Es wird eine Methode zur Verknüpfung verschiedener Klassifikationen (WoS-IPC-ISIC-Konkordanz) vorgeschlagen. Die folgenden Konkordanztabellen übernehmen die Wurzeln der Gruppschen Sichtweise auf Wissenschaft, Technologie, Produkt und Markt. In der Studie wurde der Verknüpfungsprozess kontextualisiert, da er für die Politikplanung und die Technologieausrichtung von entscheidender Bedeutung sein kann. Die vorgestellte Methode erlaubt es uns, die potentielle Entwicklung der Technologie in Wissenschaft und Industrieprodukten zu postulieren. Die vorgeschlagene Methode und die organisierten Konkordanztabellen sollen politischen Entscheidungsträgern als Orientierungshilfe dienen, um die Aussichten einer Technologie oder Branche von Interesse zu untersuchen. Als Fallstudien für die vorgeschlagene Methode werden zwei Technologien mit hohem Potenzial – traditionelle Medizin und IKT – betrachtet, die von zwei aufstrebenden Volkswirtschaften – Hongkong und Malaysia – gesucht wurden. Die ausgewählten Fälle liefern uns den Kontext der technologischen Forschung sowohl für grundlegendes Wissen als auch für neue Industrien. Sie ermöglichen es uns, den Kontext der politischen Planung und Ausrichtung auf sektorale und regionale Innovationssysteme zu verstehen. Während wir die Einschränkungen bei der Verwendung von Daten zur gemeinsamen Veröffentlichung und gemeinsamen Patentierung zur Untersuchung der Kernkompetenzen von Entwicklungsländern und ihres Entwicklungspotenzials beachten, erkennen wir, dass die vorgeschlagene Methode es uns ermöglicht, die Lücken zwischen Wissenschaft und Technologie und den Kernkompetenzen von der ausgewählten Volkswirtschaften sowie deren Perspektiven in Bezug auf Technologie und Produktentwicklung. Die Ergebnisse liefern nützliche politische Implikationen für die weitere Entwicklung der jeweiligen Fälle.;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2319-9 fbf64e506d9196a166204e59f744e6f5;de;;;3.4.;6.4.;2.1.;Publikationsmuster in den Sozial- und Geisteswissenschaften: Belege aus acht europäischen Ländern Diese Studie untersucht Muster in Sprache und Art von sozial- und geisteswissenschaftlichen (SSH) Veröffentlichungen in nicht englischsprachigen europäischen Ländern, um zu zeigen, dass solche Muster nicht nur mit der Disziplin, sondern auch mit dem kulturellen und historischen Erbe jedes Landes zusammenhängen. Wir untersuchen Publikationsmuster, die in SSH-Publikationen der gesamten SSH sowie in Wirtschafts- und Wirtschafts-, Rechts-, Philosophie- und Theologiepublikationen in Tschechien, Dänemark, Finnland, Flandern (Belgien), Norwegen, Polen, der Slowakei und Slowenien vorkommen . Wir verwenden Daten von 74.022 Peer-Review-Publikationen aus dem Jahr 2014, die in mindestens einer der nationalen Datenbanken der acht Länder registriert sind, und von 272.376 Peer-Review-Publikationen aus dem Zeitraum 2011–2014, die in mindestens einer der nationalen Datenbanken der sieben Länder registriert sind ( für alle Länder außer Slowakei). Unsere Ergebnisse zeigen, dass sich die Veröffentlichungsmuster sowohl zwischen den Fachgebieten unterscheiden (z. B. unterscheiden sich die rechtlichen Muster von denen in den Wirtschafts- und Wirtschaftswissenschaften in Flandern und Finnland in gleicher Weise) als auch innerhalb der Fachgebiete (z ). Wir stellen fest, dass die Veröffentlichungsmuster in westeuropäischen und nordischen Ländern stabil und ziemlich ähnlich sind, während in mittel- und osteuropäischen Ländern die Veröffentlichungsmuster erhebliche Veränderungen aufweisen. Dennoch steigt in allen Ländern der Anteil der Artikel und der Anteil der Veröffentlichungen in englischer Sprache. Wir schließen mit Empfehlungen für die Wissenschaftspolitik und betonen, dass die Internationalisierungspolitik in nicht englischsprachigen Ländern verschiedene Ausgangspunkte und kulturelles Erbe in verschiedenen Ländern berücksichtigen sollte.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2711-0 a4097169133ed3a9583479edc4cb92a9;de;;;3.4.;6.4.;2.1.;Umfang, Merkmale und Verwendung der intramuralen Forschung des US-Landwirtschaftsministeriums Dieser Artikel präsentiert zum ersten Mal ein Porträt der intramuralen Forschung des US-Landwirtschaftsministeriums (USDA). Wir beschreiben die Art, die Merkmale und die Verwendung der USDA-Forschung basierend auf szientometrischen Indikatoren unter Verwendung von Patentanalysen und drei bibliometrischen Methoden: Publikationsanalyse, Zitationsanalyse und Wissenschaftskartierung. Unsere Analysen haben rein deskriptiven Charakter. Sie zeigen, dass das USDA über mehrere wissenschaftliche Kernkompetenzen verfügt und seine Forschung viel breiter ist als die traditionellen Agrarwissenschaften, für die es am besten bekannt ist. Wir veranschaulichen den aktuellen Stand, aktuelle Trends und klare Benchmarks für die Planung und Bewertung der zukünftigen USDA-Forschung in einer Reihe von wissenschaftlichen Disziplinen.;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0359-0 b0240973b9567a6bf2ce3458db40f6c0;de;;;3.4.;6.4.;2.1.;Arbeitsengagement in Organisationen: eine soziale Netzwerkanalyse der Domäne Diese Studie hat die Analysetechnik sozialer Netzwerke verwendet, um die Struktur der Autoren-, Institutions-, Länder- und Zeitschriftennetzwerke des Bereichs Arbeitsengagement effektiv zu zerlegen. Unter Verwendung von Artikeln aus der Web of Science-Datenbank wurden 1406 Publikationen, die zwischen 1990 und 2015 in SCI-, SCI-E-, SSCI- und A&HCI-Outlets veröffentlicht wurden, extrahiert und in die Analyse einbezogen. Nach einer Untersuchung dieser Domäne stellten wir fest, dass das Netzwerk relativ unfragmentiert ist und einen starken Kern hat, der eine große Autorengemeinschaft enthält. Diese Studie fand auch Beweise unter den Kooperationsnetzwerken, die darauf hindeuten, dass die Potenzgesetzverteilung in den Autoren- und institutionellen Netzwerken existiert, in denen die eingehenden Knoten und Links es vorziehen, sich an die bereits gut verbundenen Knoten anzuschließen. Die Studie beleuchtet auch die verborgene Netzwerkzusammenarbeit zwischen Autoren, Ländern und innerhalb des Bereichs des Arbeitsengagements.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-1974-6 1128e3b675ce893ad75b6e122f59749a;de;;;3.4.;6.4.;2.1.;Zitationsmuster in Little Science und Big Science Die zuvor für andere Studien formulierte und verwendete Klassifikation von Zitaten nach ihrem Kontext wird hier verwendet, um zu sehen, ob die Zitationsmuster der großen und kleinen Wissenschaft unterschiedlich sind oder nicht. Auf diese Weise werden theoretische physikalische Artikel aus den Jahren 1935 und 1955 verglichen. Es wurden keine signifikanten Unterschiede gefunden, außer in der Zahl der Referenzen pro Artikel, die von 1935 bis 1955 und erneut bis 1968 deutlich zugenommen hat Zitate, sowohl 1935 als auch 1955, als The Physical Review. Die Interpretation dieses Unterschieds bleibt unklar.;-;-;-;https://link.springer.com/article/10.1007/BF02016662 497c874162af5c81f61068ee5d203edd;de;;;3.4.;6.4.;2.1.;Ein Vorhersagemodell für die Klassifikation von Zitationen im Text für ein wissenschaftliches Suchsystem Wir argumentieren, dass Zitate in wissenschaftlichen Dokumenten nicht immer gleichwertige Funktionen erfüllen oder die gleiche Bedeutung besitzen. Um dieses Problem anzugehen, haben wir mit einem Korpus von über 21 000 Zitaten der Association for Computational Linguistics gearbeitet, von denen 465 Zitate von Experten zufällig als wichtig oder unwichtig annotiert wurden. Wir haben eine Reihe von Machine-Learning-Modellen für diese kommentierten Zitate verwendet: Random Forest (RF), Support Vector Machine (SVM) und Decision Tree (DT). Für die Klassifikationsaufgabe verwendeten die ausgewählten Modelle 15 neue Merkmale: kontextuell, quantitativ und qualitativ. Wir zeigen, dass das HF-Modell das Vergleichsmodell um 9,52% übertraf und eine 92%-Präzisionsrückruffläche unter der Kurve erreichte. Wir präsentieren einen Prototyp eines wissenschaftlichen Publikationssuchsystems basierend auf dem RF-Vorhersagemodell für Feature Engineering. Dies wurde für einen Datensatz von 4138 Volltextartikeln verwendet, der von PLOS ONE indiziert wurde und aus 31.839 eindeutigen Referenzen besteht. Die empirische Auswertung zeigt, dass das vorgeschlagene Suchsystem die Sichtbarkeit eines gegebenen wissenschaftlichen Dokuments verbessert, indem es neben seinen Indexbegriffen auch Begriffe aus den zitierten Werken einbezieht, die als wichtig prognostiziert werden. Insgesamt führt dies zu verbesserten Suchergebnissen gegenüber den Abfragen des Benutzers.;-;-;-;https://link.springer.com/article/10.1007/s11192-021-03986-z 887701e39e37bc820b8de773db76d8f3;de;;;3.4.;6.4.;2.1.;Determinanten der Expertenbeurteilung der Forschungsleistung Die Beziehung zwischen Indikatoren und Expertenurteilen zur Forschungsleistung wurde im Kontext der missionsorientierten pharmazeutischen Forschung verglichen. Das Expertenurteil korreliert sehr stark mit Maßen der Publikationsaktivität, viel stärker als mit sehr plausiblen Maßen für Forschungsoutput und Forschungsqualität. Darüber hinaus scheint das Expertenurteil eine additive Funktion der Veröffentlichungsgröße (ein anderer Name für die Sichtbarkeit sein könnte) und der Veröffentlichungsqualität zu sein, wobei die Hauptkomponente Größe/Sichtbarkeit ist. Diese Ergebnisse sind denen sehr ähnlich, die von . gefunden wurden;-;-;-;https://link.springer.com/article/10.1007/BF02135122 a3428f90c272e14ca89e484fa592b767;de;;;3.4.;6.4.;2.1.;Wachstumsdynamik wissenschaftlicher Zeitschriften Die Ergebnisse werden zur Wachstumsdynamik von Zeitschriften sowohl auf Mikro- als auch auf Makroebene präsentiert und zeigen, dass die Entwicklung von Zeitschriften eindeutig dem Forscherverhalten und den Wachstumsmerkmalen folgt. Auf der Ebene der Fachdisziplinen reagiert das Zeitschriftensystem stark auf Forschungsereignisse. Die allgemeinen Wachstumsmerkmale der Zeitschriften zeigen deutlich die Dominanz von 3,3% des durchschnittlichen jährlichen Wachstums unter einer Reihe unterschiedlicher soziopolitischer Klimata. Es wird vorgeschlagen, dass dies eine untere Grenze für die Wachstumsraten von Zeitschriften darstellt und dass dieses Wachstum das Ergebnis eines sich selbst organisierenden Informationssystems ist, das das Wachstum und die Spezialisierung von Wissen reflektiert. Es werden potentielle Modelle vorgeschlagen, die attraktive theoretische weitere Fragestellungen bilden könnten.;-;-;-;https://link.springer.com/article/10.1023/A%3A1010520913124 5c3398d10a1be4ca45a9d4ba4be640d5;de;;;3.4.;6.4.;2.1.;Szientometrische Kartierung der Informatikforschung in Mexiko Dieses Papier präsentiert eine detaillierte szientometrische und textbasierte Analyse der Forschungsergebnisse der Informatik (CS) aus Mexiko von 1989 bis 2014, die im Web of Science indiziert ist. Die analytische Charakterisierung konzentriert sich auf Ursprünge und Wachstumsmuster der CS-Forschung in Mexiko. Neben der Berechnung der szientometrischen Standardindikatoren von TP, TC, ACPP, HiCP, H-Index, ICP-Mustern usw. werden auch die wichtigsten Publikationsquellen identifiziert, die von mexikanischen Informatikern und den wichtigsten Förderagenturen für die CS-Forschung ausgewählt wurden. Die textbasierte Analyse konzentrierte sich hingegen auf die Identifizierung wichtiger Forschungsthemen der mexikanischen Informatiker und deren Trends. Mexiko, das im genannten Zeitraum den 35. Platz der weltweiten CS-Forschungsleistung belegt, ist auch insofern einzigartig, als 75 % der gesamten CS-Publikationen allein von den zehn besten mexikanischen Institutionen produziert werden. In ähnlicher Weise hat Mexiko höhere ICP-Instanzen als der weltweite Durchschnitt. Die Analyse präsentiert eine detaillierte Charakterisierung dieser Aspekte.;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1654-y 7276aafd13b07b7576a6a16b3c0dd65d;de;;;3.4.;6.4.;2.1.;Replizierbare Science of Science Studies Viele Forschungen in Bibliometrie und Szientometrie werden mit proprietären Datensätzen und Werkzeugen durchgeführt, die es schwierig, wenn nicht unmöglich machen, Ergebnisse zu replizieren. In diesem Kapitel werden kostenlose Tools, Softwarebibliotheken und Onlinedienste beschrieben, die wissenschaftliche Studien mit gängigen Datenformaten unterstützen. Anschließend stellen wir Plug-and-Play-Makroskope vor (Börner, Commun ACM 54(3):60–69, 2011), die den OSGi-Industriestandard verwenden, um modulares Softwaredesign zu unterstützen, dh das Plug-and-Play verschiedener Datenleser, Vorverarbeitungs- und Analysealgorithmen, aber auch Visualisierungsalgorithmen und -werkzeuge. Beispielhaft demonstrieren wir, wie mit dem Open Source Science of Science (Sci2) Tool zeitliche (wann), räumliche (wo), thematische (was) und netzwerkbezogene Fragen (mit wem) auf unterschiedlichen Analyseebenen beantwortet werden können – von Mikro zum Makro. Mit dem Sci2-Tool bieten wir praktische Anleitungen zur Durchführung von Burst-Analysen (siehe Kapitel 10 in diesem Buch), Overlay-Daten auf Geokarten (siehe Kapitel 6 in diesem Buch), Generieren von Science-Map-Overlays und Berechnen verschiedener Netzwerkeigenschaften , zB gewichteter PageRank (siehe Kapitel 4 in diesem Buch) oder Community-Erkennung (siehe Kapitel 3 in diesem Buch), unter Verwendung von Daten aus Scopus, Web of Science oder persönlichen Bibliographiedateien, zB EndNote oder BibTex. Wir veranschaulichen die Verwendung von Werkzeugen, indem wir die sich entwickelnden Forschungsverläufe einer Gruppe von Physikern über den zeitlichen, räumlichen und thematischen Raum sowie ihre sich entwickelnden Co-Autorennetzwerke untersuchen. Zu guter Letzt zeigen wir, wie mit Plug-and-Play-Makroskopen Brücken zwischen bestehenden Werkzeugen, zB Sci2 und dem VOSviewer-Clustering-Algorithmus (siehe Kapitel 13 in diesem Buch), gebaut werden können, damit sie kombiniert werden können, um mehr auszuführen erweiterte Analyse- und Visualisierungsworkflows.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10377-8_14 e8fc3788417afb4337f5f98784839f84;de;;;3.4.;6.4.;2.1.;Triple Helix im Agrarsektor nordostasiatischer Länder: eine Vergleichsstudie zwischen Korea und China In diesem Beitrag werden die landwirtschaftlichen Innovationssysteme zweier nordostasiatischer Länder – Korea und China – aus der Perspektive der Triple-Helix-Innovation untersucht und verglichen. Konkret untersucht die aktuelle Studie die Natur der landwirtschaftlichen Innovation der beiden Länder und betrachtet landwirtschaftliche FuE-Investitionen und -Aktivitäten sowie die Rollen von Universität, Industrie und Regierung (UIG), die die drei Einheiten sind, die die Tripelhelix bilden. Als empirische Erweiterung der qualitativen Analyse haben wir bibliometrische Informationen agrarwissenschaftlicher Veröffentlichungen von 1990 bis 2010 und Patentinformationen von 1980 bis 2010 gesammelt. Durch die Berechnung der Transmission der Unsicherheit, die auf eine Zusammenarbeit zwischen UIG hinweist, verfolgt diese Arbeit die Beziehungsdynamik der Einheiten bestehend aus der Tripelhelix. Darüber hinaus analysieren wir Themen in wissenschaftlichen Publikationen und Patenten, um die Teilbereiche, die in beiden Ländern im Fokus stehen, zu beobachten und zu vergleichen. Die Ergebnisse zeigen sowohl Gemeinsamkeiten als auch Unterschiede zwischen den beiden Ländern auf und liefern so Erkenntnisse und Einblicke in den Agrarsektor.;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0517-4 9454018e3e73775d900cea123b757d5b;de;;;3.4.;6.4.;2.1.;Paper Co-Citation Analysis mit semantischen Ähnlichkeitsmaßen Die Co-Citation-Analyse kann als bibliometrische Technik genutzt werden, um Informationen über die Beziehungen zwischen wissenschaftlichen Arbeiten zu ermitteln. Die vorgeschlagenen Methoden beruhen jedoch auf Co-Citation-Zähltechniken, die den semantischen Aspekt leicht berücksichtigen. Die vorliegende Studie schlägt eine neue Technik vor, die auf dem Maß der semantischen Ähnlichkeit (SS) zwischen den Titeln gemeinsam zitierter Artikel basiert. Mehrere Berechnungsmaße stützen sich auf Wissensressourcen, um die semantische Ähnlichkeit zu quantifizieren, wie zum Beispiel die WordNet-Taxonomie «ist eine». Unser Vorschlag analysiert die SS zwischen den Titeln gemeinsam zitierter Arbeiten mit wortbasierten SS-Maßnahmen. Es werden zwei große analytische Experimente durchgeführt: Das erste beinhaltet die Benchmarks, die zum Testen von wortbasierten SS-Maßnahmen entwickelt wurden, das zweite nutzt das Datenbank-DBLP (DBLP: Digital Bibliography & Library Project.) Zitationsnetzwerk. Als Ergebnis haben wir festgestellt, dass sich die SS-Maßnahmen hinsichtlich der lexikalischen Ähnlichkeit genauso verhalten wie das menschliche Urteilsvermögen und folglich für die automatische Bewertung der Ähnlichkeit zwischen gemeinsam zitierten Arbeiten verwendet werden können. Die Analyse von häufig wiederholten Kozitationen zeigt, dass die verschiedenen SS-Maßnahmen ein fast ähnliches Verhalten zeigen, mit leichten Unterschieden aufgrund der Verteilung der angegebenen SS-Werte. Darüber hinaus stellen wir einen geringen Prozentsatz ähnlicher Artikel in den Kozitationen fest.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-49342-4_26 6e3bb87ac50c6d8829c98dae7b18a22a;de;;;3.4.;6.4.;2.1.;Bewertung von Spitzenforschern der Fakultät und der Anreize, die sie motivieren Um die Auswirkungen unterschiedlicher Beschäftigungsstrukturen und Anreize auf die Forschungsproduktivität zu evaluieren, befragen wir Lehrkräfte mit Tenure Track, die in drei Bereichen an Agrarhochschulen an Land-Grant-Universitäten beschäftigt sind – Agrarökonomie, Agrarwissenschaften und Lebensmittelwissenschaften. Diese Evaluierungen umfassen die Durchführung statistischer Tests, um die Auswirkungen verschiedener akademischer Berufungen zu bewerten, und die Entwicklung eines Regressionsmodells, um die Auswirkungen dieser und anderer Attribute auf die individuelle Forschungsproduktivität zu messen, wie durch die Anzahl der Veröffentlichungen im Thomson ISI Web of Science definiert. Wir stellen fest, dass Fakultäten mit größeren Lehr- und Verlängerungsaufträgen weniger Publikationen produzieren, wir finden auch positive Auswirkungen auf die Anzahl der Publikationen für Stipendien und Hochschulförderung, die institutionenübergreifende Forschungskooperation und die Anzahl der beratenen Doktoranden.;-;-;-;https://link.springer.com/article/10.1007/s11192-013-0987-7 5c45e0e1d8e5c7ddc6d41db337917b9b;de;;;3.4.;6.4.;2.1.;Geschlechterunterschiede bei der Patenttätigkeit: Eine Untersuchung der US-amerikanischen Biotechnologiebranche Das Geschlechtergefälle in Wissenschaft und Technologie hat sowohl von Forschern als auch von politischen Entscheidungsträgern große Aufmerksamkeit erhalten. In dem Bemühen, die Quantität, Qualität und zugrunde liegenden Merkmale weiblicher Forschungsbemühungen besser zu verstehen, integriere ich drei bestehende Datenbanken, um herauszufinden, wie sich die Patenttätigkeit von Frauen von denen von Männern in der US-amerikanischen Biotechnologieindustrie unterscheidet. Es werden Daten darüber untersucht, auf wie viel Wissenschaft die Patente aufbauen, welche Institutionen diese Wissenschaft verfasst hat und wer die Arbeiten finanziert hat, in denen die Wissenschaft erscheint. Darüber hinaus schlage ich unter Verwendung der NBER Patent Citation Data Files ein mögliches geschlechtsbasiertes Lebenszyklusmodell für die Patenttätigkeit vor. Die politischen Implikationen meiner Ergebnisse werden ebenfalls diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s11192-008-2101-0 55e66f94e64eeb704f7af94614f98ef2;de;;;3.4.;6.4.;2.1.;Eine Hybridmethode zur Verfolgung von Technologieentwicklungspfaden: eine Fallstudie zum 3D-Druck Ob es nun darum geht, dass die Länder ihre Fähigkeit zu unabhängiger Innovation verbessern oder dass die Unternehmen ihre internationale Wettbewerbsfähigkeit verbessern, die Verfolgung historischer Fortschritte und die Vorhersage zukünftiger Trends der Technologieentwicklung sind für die Formulierung von Technologiestrategien und -politiken unerlässlich. In diesem Papier wenden wir die Co-Klassifizierungsanalyse an, um den technischen Evolutionsprozess eines bestimmten technischen Gebiets aufzudecken, verwenden die Co-Wort-Analyse, um implizite oder unbekannte Muster und Themen zu extrahieren, und verwenden die Hauptpfadanalyse, um wichtige Hinweise auf Technologie-Hotspots und -Entwicklungen zu finden Aussichten. Wir illustrieren diesen hybriden Ansatz mit dem 3D-Druck und verweisen auf verschiedene Technologien und Verfahren, die zur Synthese eines dreidimensionalen Objekts verwendet werden. Die Ergebnisse zeigen, wie unsere Methode technische Einblicke bietet und Technologieentwicklungspfade verfolgt und Entscheidungsträgern dann hilft, die Technologieentwicklung zu steuern.;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2271-8 176d9247d41ac099e565486575b034dd;de;;;3.4.;6.4.;2.1.;Wissenschaft und Technik in der Standardisierung: Eine statistische Analyse verschmelzender Wissensstrukturen Ziel dieser Arbeit ist es, das Wissensspektrum der Normen abzubilden. Dies geschieht durch die Identifizierung und Analyse externer Effekte, insbesondere von Spillover-Effekten. Die verwendete Datenbank ist Perinorm. Wir verwenden eine Clusteranalyse, um Gruppen von Technologiefeldern für deutsche Normen nach den Feldern der Internationalen Klassifikation der Normen zu bilden. Methodisch werden die Abstände zwischen diesen Objekten oder Clustern durch das gewählte Distanzmaß definiert, das wiederum durch die Summe ihrer Querverweise bestimmt wird. Das angewandte Joining Clustering-Verfahren nutzt diese Abstände zwischen den Objekten und ermöglicht die Abbildung der Daten in einem zweidimensionalen Raum. Die Ergebnisse dieses Mappings zeigen die Existenz von Strukturen innerhalb der Standarddaten, die zu der wohlbekannten Struktur von Patent-Spillovers passen.;-;-;-;https://link.springer.com/article/10.1007/s11192-008-0105-4 6e15f52592c68b48bc2fb2a876f01b5a;de;;;3.4.;6.4.;2.1.;Wissenschaftliche Folgenabschätzung: eine Übersicht über Lösungen zur Gewichtung von Zitationen Wissenschaftliche Folgenabschätzung war schon immer ein heißes Thema. Es hat eine wichtige Rolle bei der Bewertung von Forschern, wissenschaftlichen Arbeiten, wissenschaftlichen Teams und Institutionen in der Wissenschaft der Wissenschaften gespielt. Die wissenschaftliche Folgenabschätzung wird auch verwendet, um grundlegende Fragen wie die Bewertung der Belohnung, die Mittelzuweisung, die Beförderung und die Einstellungsentscheidung zu behandeln. Wissenschaftler sind sich im Allgemeinen einig, dass es sinnvoller ist, gewichtete Zitate zu verwenden, um den wissenschaftlichen Einfluss zu bewerten. Obwohl viele Forschende gewichtete Zitate verwenden, um den wissenschaftlichen Impact zu erfassen, fehlt es an einer systematischen Zusammenfassung von Methoden der Zitationsgewichtung. Um die Lücke zu schließen, fasst dieser Beitrag die bestehenden klassischen Indikatoren und Gewichtungsmethoden zusammen, die zur Messung des wissenschaftlichen Impacts aus der Perspektive von Artikeln, Autoren und Zeitschriften verwendet werden. Wir fassen auch den Schwerpunkt der in diesem Papier beteiligten Indikatoren und die Gewichtungsfaktoren zusammen, die in die Gewichtungsmethoden einfließen. Schließlich diskutieren wir die offenen Fragen, um zu versuchen, die versteckten Trends der Zitationsgewichtung zu entdecken. Durch dieses Papier können wir nicht nur die Gewichtungsmethoden in der wissenschaftlichen Folgenabschätzung besser verstehen, sondern auch tiefer über die zu untersuchenden Gewichtungsfaktoren nachdenken.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2973-6 51474ce6794fa0a83a5210c8a7c9c0d2;de;;;3.4.;6.4.;2.1.;Nur wenige Forschungsfelder spielen eine große Rolle für den interdisziplinären Fördererfolg Interdisziplinäre Forschung ist von entscheidender Bedeutung, um komplexe Probleme der realen Welt anzugehen. Um zu verstehen, wie das wissenschaftliche Personal in die interdisziplinäre Forschung eingebunden ist, ist es wichtig, die Beteiligung verschiedener Forschungsbereiche im Zeitverlauf und die Förderungen, die die Forschungsbemühungen vorantreiben, zu verfolgen. Leider ist dieses Verständnis von interdisziplinärer Forschung und Stipendienerfolg noch sehr wenig erforscht. In diesem Papier haben wir den Beitrag verschiedener Disziplinen innerhalb der multidisziplinären Forschung analysiert, die Zuschüsse erhalten hat. Wir haben diese Beiträge über einen Zeitraum von 10 Jahren verfolgt, um zu verstehen, wie sich verschiedene Forschungsbereiche im Laufe der Zeit entwickelt haben und eine Rolle beim interdisziplinären Fördererfolg gespielt haben. Wir verfolgten einen grundlegenden statistischen Ansatz und schlugen einen netzwerkbasierten Ansatz vor, um die relative Beteiligung verschiedener Disziplinen zu verstehen. Wir fanden Disparitäten innerhalb verschiedener Disziplinen, die zeigten, dass nur wenige Forschungsbereiche mehr zum Erfolg der interdisziplinären Forschungsförderung beigetragen haben.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03043-w 900f12a6df24e4c94f424d86ccfcad43;de;;;3.4.;6.4.;2.1.;Die Leistung der lateinamerikanischen Wirtschaftsforschung Ziel dieses Beitrags ist es, die zitierungsbasierte Leistung der lateinamerikanischen Wirtschafts- und Wirtschaftsforschung anhand skalenbereinigter Indikatoren zu bewerten. Die Ergebnisse zeigen, dass skaleninvariante Eigenschaften die lateinamerikanische Forschungsleistung in der Disziplin Economics & Business bestimmen. Das Potenzgesetz beschreibt treffend die Verteilung der Zitationswirkungen mit Exponent;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03300-y 1e176ff09700eb6dd67e1b779d6a94cc;de;;;3.4.;6.4.;2.1.;Datenerhebung und -verwendung in Forschungsförderungs- und Leistungsorganisationen. Allgemeine Skizzen und erste Ergebnisse eines von Science Europe ins Leben gerufenen Projekts Ein von der Science Europe Working Group on Research Policy and Programme Evaluation geplanter Arbeitsstrang zielt darauf ab, den Stand der Datenerhebung und deren Nutzung bei europäischen Förder- und Forschungsorganisationen abzubilden. Insbesondere identifiziert und schlägt das Projekt Lösungen für Probleme der Mitgliedsorganisationen (MO) in Bezug auf die Sammlung, Standardisierung und Verarbeitung von Daten im Zusammenhang mit der Analyse und Ex-post-Bewertung von Aktivitäten vor, die von MOs finanziert oder durchgeführt werden. Dies wird durch eine Umfrage an die MOs umgesetzt. Die Umfrage wurde unter besonderer Berücksichtigung der besonderen Bedürfnisse von Förder- und Leistungsträgern analysiert. Auf der Grundlage der Ergebnisse und der Diskussion zwischen den Mitgliedern des Arbeitsstrangs und innerhalb der Arbeitsgruppe ziehen wir eine vorläufige Reihe von Schlussfolgerungen, um Leitlinien zu relevanten Themen zu erstellen, einschließlich der Identifizierung von Forschern und Fördermitteln, Potenzial, Eigenschaften und Grenzen von Daten und Indikatoren im Zusammenhang mit der Messung von Forschungsergebnissen und ihrer Bewertung verwendet werden, Klassifikationssysteme, die in wissenschaftlichen Systemen verwendet werden, einschließlich ihrer verschiedenen Arten und Fragen der Verfügbarkeit, Vertraulichkeit und Harmonisierung von Daten und Indikatoren Das Feedback aus solchen Diskussionen wird verwendet, um Bereiche für weitere Maßnahmen von Science Europe zu ermitteln.;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1815-z 7ca639e05e81ebf26a7d323e798be31a;de;;;3.4.;6.4.;2.1.;Umfrage zum technologischen Innovationsverhalten in der brasilianischen Lebensmittelindustrie Dieses Papier basiert auf den Informationen, die durch eine Umfrage zur technologischen Innovation in einer relativ großen Stichprobe von 1000 Unternehmen der brasilianischen Lebensmittelindustrie (im Folgenden BFI) gesammelt wurden. 248 Unternehmen (24,8 %) beantworteten den Fragebogen und 77 (31,0 %) gaben an, im Untersuchungszeitraum (1994–1996) Innovationen eingeführt zu haben. Dieses Papier konzentriert sich sowohl auf die unterschiedlichen Merkmale in Bezug auf Lebensmittelunternehmen und innovative Aktivitäten als auch auf die Art der Innovationen. Zu ersteren haben wir Fragen zu Industriesektor, Hauptaktivitäten, Produktionsstadien, Eigentum, Alter, Umsatz, Exportaufwand, Werbung, F&E und technologischem Innovationsaufwand, Größe (Anzahl der Mitarbeiter), externen Allianzen, Organisation der Managementfunktionen gestellt (technologische Innovationspolitik, langfristiger strategischer Plan, Marktforschung) und wahrgenommene Innovationshemmnisse. In Bezug auf die Art der Innovationen wurden folgende Fragen gestellt: institutionelle Wissensquellen der Innovationen, Innovationsquellen (extern oder intern), Schutzgrad von Innovationen (Patente und andere Mittel), externe Zusammenarbeit, Neuheit von Innovationen (radikal oder inkrementell) , Art der Innovationen (Produkt, Verfahren oder kombiniert), Neuheit der Innovationen (für die Welt, für das Land oder für das Unternehmen) und Auswirkungen von Innovationen auf den Input (Personal, Material, Kapital und Energie). Die Forschungsergebnisse werden in dieser Arbeit anschaulich dargestellt. Daher haben wir keine fortgeschrittenen statistischen Analysen durchgeführt und wir haben nicht versucht, Ursache-Wirkungs-Beziehungen zwischen Variablen herzustellen, sondern nur Verbindungen zwischen ihnen und Trends. Aus der Analyse können wir sagen, dass technologische Innovation tatsächlich ein sehr komplexer Prozess innerhalb von Unternehmen ist, obwohl sie sich in einer sogenannten „Low-Tech“-Branche befinden. Dennoch lassen sich sowohl auf Branchenebene (einige Sektoren sind innovativer als andere) als auch auf Unternehmensebene (große Unternehmen sind in der Regel innovativer als kleine) herausragende Faktoren im Zusammenhang mit diesem Prozess identifizieren.;-;-;-;https://link.springer.com/article/10.1007/BF02458353 8f0c36a8a21e1e7332c9331d5c6a1163;de;;;3.5.;6.4.;2.2.;Symbiose zwischen dem TRECVid-Benchmark und Videobibliotheken am Niederländischen Institut für Ton und Bild Audiovisuelle Archive investieren in groß angelegte Digitalisierungsbemühungen ihrer analogen Bestände und nehmen parallel dazu eine ständig wachsende Menge von ursprünglich digitalen Dateien in ihre digitalen Speichereinrichtungen auf. Die Digitalisierung eröffnet neue Zugangsparadigmen und fördert die Wiederverwendung audiovisueller Inhalte. Query-Log-Analysen zeigen die Unzulänglichkeiten der manuellen Annotation, daher ergänzen Archive diese Annotationen durch die Entwicklung neuartiger Suchmaschinen, die automatisch Informationen aus Audio- und Bildspuren extrahieren. In den letzten Jahren hat der TRECVid-Benchmark eine neuartige Beziehung mit dem Niederländischen Institut für Ton und Bild (NISV) aufgebaut, die über die NISV hinausgeht, nur Daten und Anwendungsfälle für TRECVid bereitzustellen. Prototyp- und Demonstratorsysteme, die als Teil von TRECVid entwickelt wurden, werden zu einem Schlüsselfaktor für die Verbesserung der Qualität von Suchmaschinen am NISV und werden letztendlich anderen audiovisuellen Archiven helfen, einen effizienteren und differenzierteren Zugang zu ihren Sammlungen zu bieten. Dieses Papier berichtet über die Erfahrungen von NISV bei der Nutzung der Aktivitäten des TRECVid-Benchmarks.;-;-;-;https://link.springer.com/article/10.1007/s00799-012-0102-3 ccafefe630ca8b49b82176d5cac97feb;de;;;3.5.;6.4.;2.2.;Domainsuche und -exploration mit Meta-Indizes Um die Navigation und Suche in großen Sammlungen digitaler Bücher zu erleichtern, haben wir eine neue Wissensstruktur entwickelt, den Meta-Index, der die Back-of-Book-Indizes innerhalb eines Themenbereichs aggregiert. Anhand einer Testsammlung digitaler Bücher demonstrieren wir die Verwendung des Metaindex und der zugehörigen Metriken, die die Bücher innerhalb einer digitalen Domäne charakterisieren, und untersuchen einige der Herausforderungen, die die Metaindexstruktur mit sich bringt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40501-3_64 109723986b6f29b4045cce0c76fd283b;de;;;3.5.;6.4.;2.2.;Die Rivalität zwischen Bernini und Borromini aus szientometrischer Perspektive Aus historischer Sicht sind Rom und insbesondere die Universität La Sapienza eng mit zwei Genies der Barockkunst verbunden: Bernini und Borromini. In dieser Studie analysieren wir die Rivalität zwischen ihnen aus einer szientometrischen Perspektive. Diese Studie dient auch als Grundlage für die Untersuchung, welche Datenquellen für eine umfassende Folgenabschätzung von Einzelpersonen und/oder Prominenten geeignet sein können. Besonderes Augenmerk legen wir auf Enzyklopädien, Bibliothekskataloge und andere Datenbanken oder Publikationsarten, die normalerweise nicht für diesen Zweck verwendet werden. Die Ergebnisse zeigen, dass einige Quellen wie Wikipedia nicht nach den Möglichkeiten genutzt werden, die sie bieten, insbesondere solche, die sich auf unterschiedliche Sprachen und Kulturen beziehen. Zudem werden Analysen oft auf ein Minimum an Datenquellen reduziert, was die Relevanz des Ergebnisses verzerren kann. Unsere Ergebnisse zeigen, dass andere Quellen, die normalerweise für diesen Zweck nicht berücksichtigt werden, wie JSTOR, PQDT, Google Scholar, Catalog Holdings usw., relevantere oder umfangreichere Informationen liefern können als die normalerweise verwendete Web of Science Core Collection und Scopus. Schließlich stellen wir auch Chancen und Grenzen alter und neuer (YouTube, Twitter) Datenquellen gegenüber (insbesondere die Aspekte Qualität und Genauigkeit der Suchmethoden). Es wurde viel Raum für Verbesserungen identifiziert, um Datenquellen effizienter und mit höherer Genauigkeit zu nutzen.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03514-5 768c074fcb0b830cb74907cedb74cd0d;de;;;3.5.;6.4.;2.2.;Unsichtbare Wissenschaft? Vertretung von BRICs in der globalen Wissenschaft Eine Umfrage zu wissenschaftlichen Zeitschriftenpublikationen (oder Veranstaltungsorten – im Gegensatz zu Artikeln) von Praktikern aus den BRIC-Ländern zählte mehr als 15.000 nationale Publikationen. Daten aus und über Brasilien, Russland, Indien und China (BRIC-Staaten) zeigen, dass 495 Veranstaltungsorte oder etwa 3 % im Science Citation Index Expanded aufgeführt sind;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0481-z 957011b4c63a49548841e62df5f0bd1f;de;;;3.5.;6.4.;2.2.;Synthese szientometrischer Muster in der spanischen Bildungsforschung Bildungsforschungssysteme wie das spanische können mit szientometrischen Instrumenten untersucht werden. Hier werden 41 sekundärbibliometrische Studien in einer tertiären Studie synthetisiert, die das Wesen dieses Forschungssystems beleuchten und gleichzeitig den zugrunde liegenden Rahmen aufdecken könnten. Ein Clustering-Verfahren zeigt, wie dieses System im Laufe der Zeit szientometrisch angegangen wurde.;-;-;-;https://link.springer.com/article/10.1007/BF02464783 c0e7dc95fc7b15401ce3876ce7bfe665;de;;;3.5.;6.4.;2.2.;Methoden zur Schätzung der Größe von Google Scholar Das Aufkommen akademischer Suchmaschinen (hauptsächlich Google Scholar und Microsoft Academic Search), die das gesamte aktuelle akademische Wissen indizieren möchten, hat das Interesse an der Größe des akademischen Webs wiederbelebt und erhöht. Das Hauptziel dieses Papiers ist es, verschiedene Methoden vorzuschlagen, um den aktuellen Umfang (Anzahl der indizierten Dokumente) von Google Scholar (Mai 2014) zu schätzen und seine Gültigkeit, Genauigkeit und Zuverlässigkeit zu bestimmen. Dazu stellen wir drei empirische Methoden vor, wenden sie an und diskutieren diese: eine externe Schätzung basierend auf empirischen Studien der Google Scholar-Coverage und zwei interne Schätzungsmethoden basierend auf direkten, leeren bzw. absurden Abfragen. Trotz der unterschiedlichen Werte beziffern die Ergebnisse die geschätzte Größe von Google Scholar auf etwa 160 bis 165 Millionen Dokumente. Alle Methoden weisen jedoch erhebliche Einschränkungen und Unsicherheiten aufgrund von Inkonsistenzen in den Suchfunktionalitäten von Google Scholar auf.;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1614-6 32c9d6408bd6d6cd4bb8a9f0ab197d16;de;;;3.5.;6.4.;2.2.;Aufspüren des Wissenstransfers zwischen Universität und Industrie durch einen Text-Mining-Ansatz Diese Studie untersucht den Wissenstransfer der universitären Forschung in die Industrie weg von traditionellen Indikatoren mit Methoden der Computerlinguistik. Wir stellen eine neuartige empirische Anwendung von Mustererkennungs- und Text-Mining-Tools vor, um wissenschaftliche Publikationen mit Unternehmensdokumenten zu vergleichen. Der Beitrag leistet einen doppelten Beitrag: erstens wird eine neue Methode zur Nachverfolgung des Wissenstransfers vorgeschlagen und zweitens wird unser Verständnis von Hochschul-Wirtschafts-Wissenstransfer durch die Einführung einer zusätzlichen Perspektive erweitert. Wir sind der Meinung, dass gängige Text-Mining-Tools geeignet sind, um konkrete Teile des Forschungswissens innerhalb der kooperierenden Industrie zu identifizieren. Die Methode weist direkte Verbindungen zwischen veröffentlichten universitären Forschungsergebnissen und den von Unternehmen auf ihren Websites und Dokumenten offengelegten Informationen nach. Wir bieten eine Erweiterung zu gängigen Konzepten, die entweder auf qualitative Fallstudien oder die Bewertung kommerzieller Indikatoren zur Bewertung der universitären Forschung zurückgreifen. Unsere empirische Evidenz zeigt, dass mit diesem Ansatz der Wissensaustausch erfasst werden kann und mit einigen Ergänzungen bei der Werkzeugauswahl und -anpassung das Potenzial hat, eine ergänzende Methode für die Forschungsgemeinschaft zu werden.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2849-9 37b07b6e6babcd49c03ecfcea8bd427f;de;;;3.4.;6.4.;2.2.;Charakterisierung, Beschreibung und Überlegungen zur Verwendung von Förderbestätigungsdaten im Web of Science In wissenschaftlichen Publikationen gefundene Fördermittelnachweise werden seit den 1970er Jahren verwendet, um die Auswirkungen von Fördermitteln auf die Forschung zu untersuchen. Bis 2008 erfolgte jedoch keine umfassende Indexierung dieses paratextuellen Elements, als das Web of Science von Thomson Reuters begann, seinen bibliografischen Datensätzen Informationen zur Finanzierungsbestätigung hinzuzufügen. Da diese neuen Informationen bibliometrischen Daten eine neue Dimension verleihen, die systematisch verwertet werden können, ist es wichtig, die Merkmale dieser Daten und die zugrunde liegenden Implikationen für ihre Verwendung zu verstehen. In diesem Papier werden das Vorhandensein und die Verteilung von Daten zur Finanzierungsbestätigung analysiert, die im Web of Science behandelt werden. Unsere Ergebnisse zeigen, dass die Abdeckung der Finanzierungsbestätigungen vor 2009 äußerst gering und daher nicht zuverlässig ist. Seit 2008 werden Förderinformationen hauptsächlich für im Science Citation Index Expanded indizierte Publikationen erhoben, seit kurzem (2015) wurde die Aufnahme von Fördertexten für im Social Science Citation Index indexierte Publikationen umgesetzt. Der Inhalt des Arts & Humanities Citation Index wird nicht für Förderanerkennungsdaten indexiert. Außerdem sind englischsprachige Publikationen am zuverlässigsten abgedeckt. Schließlich werden nicht alle Arten von Dokumenten gleichermaßen für die Indexierung von Finanzierungsinformationen abgedeckt, und nur Artikel und Rezensionen weisen eine konsistente Abdeckung auf. Die Charakterisierung der von Thomson Reuters gesammelten Informationen zur Finanzierungsbestätigung kann daher helfen, die Möglichkeiten, die die Daten bieten, aber auch ihre Grenzen zu verstehen.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-1953-y c45026c221cb456b65ecfeff353df3f4;de;;;3.4.;6.4.;2.2.;Die negative Binomialverteilung als Trendverteilung für Ausleihdaten in flämischen öffentlichen Bibliotheken Basierend auf Daten, die von den Autoren in flämischen öffentlichen Bibliotheken gesammelt wurden, zeigen wir, wie die negative Binomialverteilung (NBD) als Trendverteilung für Bibliotheksausleihdaten verwendet werden kann. Obwohl die tatsächlichen Daten mehr Schwankungen aufweisen, als einfache Statistiken erklären können, empfehlen wir die Verwendung des NBD für praktische Verwaltungszwecke. Daher empfehlen wir die Vermittlung dieser Methoden auch in Einführungsveranstaltungen zum Bibliotheksmanagement.;-;-;-;https://link.springer.com/article/10.1007/BF02016846 5b138308c7b0e81280c3bff56ce2e442;de;;;3.4.;6.4.;2.2.;Bibliometrische Auswertung der in Malaysia veröffentlichten Agrarliteratur Es wurde eine bibliometrische Analyse der zwischen 1981 und 1990 in Malaysia veröffentlichten Agrarliteratur durchgeführt. Die Analyse gab Aufschluss über die wichtigsten Zeitschriften, die Agrarliteratur veröffentlichten, über die Publikationsformen, auf die bei der Vermittlung von Forschungsergebnissen zurückgegriffen wird, über die gut geschriebenen und die vernachlässigten Themenbereiche, über die Art der Beiträge von malaysischen Autoren, zur Veröffentlichungspraxis von Körperschaften und zur Zahl der jährlich erscheinenden Veröffentlichungen.;-;-;-;https://link.springer.com/article/10.1007/BF02017973 d86fc5d58844548805dd71374673e6af;de;;;3.4.;6.4.;2.2.;Steigerung der Forschungsproduktivität an russischen Spitzenuniversitäten: die Umstände des Durchbruchs Das russische Projekt zur Steigerung der Wettbewerbsfähigkeit hat 21 Spitzenuniversitäten dazu gebracht, die Forschungsleistung aktiv zu stimulieren. Mit der Verfünffachung der Publikationszahlen von 2010 bis 2016 übertrafen die Ergebnisse die Erwartungen. In diesem Beitrag werden Hintergründe und Gründe für diesen phänomenalen Anstieg diskutiert und die wichtigsten Strategien zur Steigerung der Forschungsproduktivität und des Publikationsoutputs detailliert untersucht. In unserer Studie wird eine Einordnung der Hochschulpublikationen nach den Strategien zur Stimulierung der Publikationstätigkeit vorgeschlagen, die im Wesentlichen dem Maßnahmenpaket der Hochschulleitung entsprechen. Die Analyse ermöglichte eine Rangordnung der Strategien, die zum Wachstum der Publikationstätigkeit beitragen, die führenden Strategien für einzelne Universitäten zu identifizieren und zeigte einen signifikanten Unterschied zwischen den Universitäten in der Menge der explizit oder implizit angewendeten Strategien. Die effektivste Strategie war das mit den Autoren verbundene Zusatzpapier, in dem die Zugehörigkeit der Universität als Ergänzung zu ihrer Haupteinrichtung angegeben wurde. Die zweitwichtigste und am schnellsten wachsende Strategie war die russische Konferenzstrategie dank der Bemühungen der Organisatoren inländischer Konferenzen, ihre Verfahren in Scopus zu fördern. Einen bemerkenswerten Platz nimmt auch die Strategie ein, die mit der Anziehung prominenter Autoren verbunden ist, die wir als Headhunted-Autor bezeichnet haben. Die Rolle der Predatory-Journals-Strategie für das Wachstum der Publikationsaktivität konnte festgestellt werden, glücklicherweise stellte sich diese Strategie nur an 2 der 21 am Projekt beteiligten Universitäten als stark lokalisiert heraus und ist sichtbar rückläufig. Es konnte gezeigt werden, dass der Anteil der Publikationen in inländischen Zeitschriften trotz stetig steigender Präsenz in Scopus bei führenden Universitäten stetig sinkt. Eines der signifikanten Ergebnisse der Studie ist eine Einschätzung der Dynamik der durchschnittlichen Autorenproduktivität, die unbedeutend wächst und fast einen Artikel pro Autor und Jahr erreicht. Diese Tatsache zeigt auch, dass die Zunahme der Publikationstätigkeit russischer Spitzenuniversitäten vor allem mit einer Zunahme der Zahl der beteiligten Fakultäten einhergeht.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2890-8 3b12d779e1e4eeeb90de74f10f2e709a;de;;;3.4.;6.4.;2.2.;Aufstrebende Forschungsfelder identifizieren: eine longitudinale latente semantische Keyword-Analyse Ziel dieser Studie ist es, Einblicke in aufstrebende Forschungsfelder im Bereich Marketing und Tourismus zu gewinnen. Es unterstützt den Einsatz quantitativer Techniken zur Erleichterung der Inhaltsanalyse. Die Autoren präsentieren eine longitudinale latente semantische Analyse von Keywords. Die vorgeschlagene Methode wird an zwei unterschiedlichen Beispielen veranschaulicht: einer wissenschaftlichen Zeitschrift (International Marketing Review) und einem Konferenzbericht (ENTER eTourism Conference). Die Methodik zeigt ein Verständnis des aktuellen Stands der Marketingforschung und des E-Tourismus, indem vernachlässigte, beliebte oder kommende thematische Forschungsschwerpunkte identifiziert werden. Die Ergebnisse werden mit früheren Ergebnissen aus traditionellen Inhaltsanalysetechniken verglichen. Die Ergebnisse bestätigen, dass die vorgeschlagene Methodik das Potenzial hat, die qualitative Inhaltsanalyse zu ergänzen, da die semantische Analyse zum Teil ähnliche Ergebnisse wie die qualitative Inhaltsanalyse liefert. Dieser Artikel gibt einen Überblick über den Inhalt einer Zeitschrift über einen Zeitraum von fast drei Jahrzehnten. Die Autoren argumentieren, dass die vorgeschlagene Methodik die Analyse erheblich erleichtert und daher einfach regelmäßig angewendet werden kann, um die Themenentwicklung innerhalb eines bestimmten Forschungsbereichs zu beobachten.;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2555-z fb6b0c965ac6d51c3a9dfd9961926fdc;de;;;3.4.;6.4.;2.2.;Vergleichende Untersuchung internationaler akademischer Rankings von Universitäten Internationale akademische Rankings, die Universitäten der Welt vergleichen, haben sich in letzter Zeit vermehrt. In Anlehnung an letztere konzeptionelle und methodische Fortschritte bei wissenschaftlichen Ranking-Ansätzen werden fünf Auswahlkriterien definiert und vier internationale Hochschulrankings ausgewählt. Es wird eine vergleichende Analyse der vier Rankings präsentiert, die sowohl die Häufigkeit der Indikatoren als auch deren Gewichtung berücksichtigt. Die Ergebnisse zeigen, dass, obwohl sich einige Indikatoren zwischen ausgewählten Rankings erheblich unterscheiden und sogar viele Indikatoren einzigartig sind, Indikatoren in Bezug auf die Forschung und wissenschaftliche Produktivität von Hochschulpersonal in allen Ansätzen eine herausragende Rolle spielen. Die Implikationen der erhaltenen Daten für die Verbraucher von Hauptrankings werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s11192-007-1653-8 2efa1fbaf9f03b0206d39eaf4e5371e4;de;;;3.4.;6.4.;2.2.;Wie die Europäische Union über die Augenheilkunde schreibt Diese Studie bewertet die Verbreitung der von Autoren der Europäischen Union (EU) in ophthalmologischen Fachzeitschriften von 1995 bis 1997 veröffentlichten Artikel. Die Auswirkungen der ophthalmologischen Forschung in der EU werden mit denen in anderen Ländern verglichen und Forschungstrends werden durch die Schlüsselwortanalyse hervorgehoben. Daten von Artikeln, die in ophthalmologischen Zeitschriften (ISI-Fachkategorie) veröffentlicht wurden, wurden heruntergeladen. Analysiert wurden der Mean Impact Factor, die Bevölkerung des Herkunftslandes und das Bruttoinlandsprodukt. Es wurde eine spezielle Software zur Schlüsselworterstellung verwendet. 11.219 Artikel wurden weltweit in ophthalmologischen Fachzeitschriften veröffentlicht: 34,8% kamen aus der EU (Großbritannien, Deutschland, Frankreich, Italien und die Niederlande stehen an der Spitze) und 40,7% aus den USA. Der durchschnittliche Impact Factor von EU-Papieren betrug 0,8 im Vergleich zu 1,5 in den USA. Trotz der Beschränkungen der bestehenden Methoden sind bibliometrische Ergebnisse für die Beobachtung von Forschungstrends nützlich. Die Schlüsselwortanalyse zeigt, dass die führenden Forschungsgebiete Netzhautpathologien bei Erkrankungen und Keratoplastik bei chirurgischen Eingriffen waren. Es deutet auch darauf hin, dass Schlüsselwörter zu häufig verwendet werden, und fordert eine Minimierung dieser sowie eine Standardisierung unter den Herausgebern von Zeitschriften.;-;-;-;https://link.springer.com/article/10.1023/A%3A1012746927721 26f77664cbc83d3575f5acb9e2b38f97;de;;;3.4.;6.4.;2.2.;Eine Profiling-Studie der Summer Computer Simulation Conference Die Summer Computer Simulation Conference (SCSC) ist Teil der Summer Simulation Multi-Konferenz, die von der Society of Modeling and Simulation International organisiert wird. Der SCSC feierte 2018 sein 50-jähriges Bestehen! Wir hielten es daher für angemessen, eine Profiling-Studie zu SCSC-Konferenzen vorzulegen und über Metriken im Zusammenhang mit Veröffentlichungen zu berichten, z von SCSC-Autoren, Zitationshäufigkeit nach Jahren und Zitationszahl der in SCSC-Prozeduren veröffentlichten Artikel. Der Betrachtungszeitraum erstreckte sich von 2005 bis 2017 und unser Datensatz bestand aus 911 Arbeiten. Unsere Ergebnisse bestätigen den internationalen Charakter dieser Konferenz mit führenden SCSC-Autoren und -Institutionen in Kanada, Europa und Nordamerika. Unsere zitierungsbasierte Analyse zeigt den Atem der von den Autoren zitierten Literatur, die Operations Research, Industrie- und Verfahrenstechnik sowie angewandte Informatik umfasst. Dieses Buchkapitel ergänzt die Profiling-Studien, die von den Autoren im Bereich M&S durchgeführt wurden, und umfasst ein Profil der Zeitschriften Simulation und Journal of Defense Modeling and Simulation sowie der Winter Simulation Conference.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-17164-3_8 7ee257c2dfa5b27b9d80bb32a3d7dc29;de;;;3.4.;6.4.;2.2.;Messung des Forschungsbeitrags von Management-Akademikern anhand des Hirsch-Index Der Einsatz von Metriken zur Bewertung des Forschungsbeitrags von Wissenschaftlern, Fachbereichen, Zeitschriften oder Konferenzen wird immer stärker betont. Der Beitrag hat zwei Dimensionen: Quantität, die anhand der Anzahl/Größe der Ausgaben gemessen werden kann, und Qualität, die sich am einfachsten anhand der Anzahl der Zitate messen lässt. Kürzlich hat Hirsch eine neue Metrik vorgeschlagen, die einfach ist, Qualität und Quantität in einer Zahl kombiniert und robust gegenüber Messproblemen ist. Dieses Papier verwendet den Hirsch-Index (;-;-;-;https://link.springer.com/article/10.1057/jors.2008.94 d0770df4f80f631a2aa0385c2fc494ea;de;;;3.4.;6.4.;2.2.;Eine bibliothökonomische Analyse der Wirkungsfaktoren wissenschaftlicher Disziplinen Es wird versucht, bibliometrische Daten von Zeitschriften (Impact Factors, Half-Life) für wissenschaftliche Disziplinen der exakten Wissenschaften mit bibliometrischen Daten (Abonnementpreise, Preise pro Artikel und Bestand) zu korrelieren. Es werden Daten für 5399 Zeitschriften in 131 Disziplinen präsentiert, wie im;-;-;-;https://link.springer.com/article/10.1007/BF02017213 82d4e9ff9baac09cb5dca56d9d0283d5;de;;;3.4.;6.4.;2.2.;Die Koautorenschaftsnetzwerke der produktivsten europäischen Forscher Die Welt der Wissenschaft weist eine inhärente Ungleichheit in der Verteilung von Forschungsleistung und -wirkung auf. Nur eine kleine Minderheit von Forschern ist für den Großteil der Wissensproduktion verantwortlich. Über die Faktoren, die das Prestige und die Arbeitsgewohnheiten dieser Forscher erklären könnten, ist jedoch wenig bekannt. In diesem Papier untersuchen wir daher die Koautorenschaftsnetzwerke der produktivsten europäischen Forscher über ein 12-Jahres-Zeitfenster zwischen den Jahren 2007 und 2018. Wir betrachten explizit die Auswirkungen dieser kollaborativen Strukturen auf die Zitationen der Forscher. Wir zeigen, dass hochproduktive Forscherinnen und Forscher durch die Steigerung ihres Forschungsoutputs, durch die Einbettung in große, geografisch verteilte Koautorenschaftsnetzwerke sowie durch das Publizieren mit häufig zitierten Kollaborateuren Vorteile in Bezug auf Zitationen erzielen. Diese Ergebnisse belegen einen Prestigeeffekt (die Besten neigen dazu, mit den Besten zusammenzuarbeiten), der das Verhalten der produktivsten Forscher bestimmt. Unsere Studie trägt somit zu der derzeit zusammenwachsenden Literatur zur Profilierung der europäischen Forschungselite bei und wir hoffen, dass sie den politischen Entscheidungsträgern bei ihren Bemühungen, Europa in Richtung eines integrierten Forschungsraums voranzutreiben, aufschlussreich sein wird.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03746-5 6afbdc288a2e6ec2b95b974b5cb0f490;de;;;3.4.;6.4.;2.2.;Von der Fernleihestatistik zum Clearinghouse: Die Nutzung der ILL-Statistik in Belgien Wie in vielen anderen Ländern wurden auch in Belgien bis in die siebziger Jahre Statistiken zum Fernleihverkehr systematisch erhoben. Auch heute noch geben sie nicht immer einen vollständigen Überblick über die ILL-Situation in Belgien (schätzungsweise 200.000 Anfragen pro Jahr). Elektronische Bestellsysteme für Dokumente werden jedoch die gegenwärtige Situation ändern. Sie können verwendet werden, um die Leistung von ILL zu messen, seine Qualität zu verbessern, Schwachstellen im ILL-System zu bewerten, statistische Daten zu sammeln und als Clearinghouse für die ILL-Abrechnung zu fungieren.;-;-;-;https://link.springer.com/article/10.1007/BF02016849 bcc5f742c1791af6e02f813258db6cf9;de;;;3.4.;6.4.;2.2.;Ein Konzept zur Ableitung von „Frontier Research“ in Förderanträgen In diesem Beitrag wird ein Konzept zur Ableitung von Merkmalen der „Frontier Research“ in begutachteten Forschungsanträgen im Rahmen des populären Schemas des Europäischen Forschungsrats (ERC) diskutiert. Das Konzept dient zwei Zwecken: erstens der szientometrischen Konzeption, Definition und Operationalisierung von Merkmalen der Pionierforschung, und zweitens dem Aufbau und Vergleich der Ergebnisse eines statistischen Modells mit der Review-Entscheidung, um weitere Erkenntnisse zu gewinnen und den Einfluss der Pionierforschung zu reflektieren im Peer-Review-Verfahren. Zu diesem Zweck werden Indikatoren für alle wissenschaftlichen Disziplinen und in Übereinstimmung mit der strategischen Definition von Pionierforschung durch den ERC ausgearbeitet, wobei textuelle Antragsinformationen und andere szientometrische Daten der Antragsteller verwendet werden. Anschließend wird ein geeignetes Modell formuliert, um ex post den Einfluss von Attributen der Frontier Research auf die Entscheidungswahrscheinlichkeit eines anzunehmenden Antrags zu messen. Wir präsentieren erste empirische Daten als Proof of Concept zur Ableitung von Pionierforschung in Förderanträgen. Letztendlich zielt das Konzept auf die Weiterentwicklung der Methodik ab, um Signale für die Überwachung der Wirksamkeit von Peer-Review-Prozessen zu liefern.;-;-;-;https://link.springer.com/article/10.1007/s11192-013-1008-6 6e971f5519026eb2743890049be13c6e;de;;;3.4.;6.4.;2.2.;Die Kehrseite der Medaille: Die Feinheiten der Autorenselbstzitate Die vorliegende Studie betrachtet Autorenselbstzitate als eine Mischung aus Erfahrung und Erkenntnis von Autoren. Dieses Papier unterstützt die Betonung des Bewusstseins und der Wahrnehmung von Autoren bei der Bewertung von Autorenselbstzitaten.;-;-;-;https://link.springer.com/article/10.1023/A%3A1016070029935 22ad791af6b35f04779e6ac7708e4de8;de;;;3.4.;6.4.;2.2.;Erkennen von akademischen Experten durch themensensitive Linkanalyse Bei der Problematik der wissenschaftlichen Expertenfindung geht es darum, die Experten auf einem benannten Forschungsgebiet zu finden. Es hat viele reale Anwendungen und hat in letzter Zeit viel Aufmerksamkeit auf sich gezogen. Die bestehenden Methoden sind jedoch nicht vielseitig und für die speziellen Bedürfnisse aus akademischen Bereichen geeignet, in denen die Koautorenschaft und die Zitationsbeziehung eine wichtige Rolle bei der Beurteilung der Leistung von Forschern spielen. In diesem Beitrag schlagen und entwickeln wir ein flexibles Datenschema und einen themensensitiven Co-Pagerank-Algorithmus kombiniert mit einem Themenmodell zur Lösung dieses Problems. Die Hauptidee besteht darin, die Autorität der Autoren zu messen, indem Topic Bias basierend auf ihren sozialen Netzwerken und Zitationsnetzwerken berücksichtigt und dann Expertenkandidaten für die Fragen empfohlen werden. Um die Assoziation zwischen Autoren und Themen abzuleiten, ziehen wir ein Wahrscheinlichkeitsmodell aus dem latenten Dirichlet-Allokationsmodell (LDA). Wir schlagen außerdem verschiedene Techniken vor, wie zum Beispiel die Argumentation der interessierten Themen der Abfrage und die Integration von Ranking-Metriken, um die Praktiken zu ordnen. Unsere Experimente zeigen, dass die vorgeschlagenen Strategien alle wirksam sind, um die Abrufgenauigkeit zu verbessern.;-;-;-;https://link.springer.com/article/10.1007/s11704-009-0038-y 25379cf72f5e2f2caa334c00cb7c0cbe;de;;;3.4.;6.4.;2.2.;Ein Versuch, bibliometrische Indikatoren für szientometrische Zwecke zu erheben und zu klassifizieren Es wird versucht, bibliometrische Indikatoren zu erheben und zu klassifizieren, die für die Bewertung der Publikationsleistung naturwissenschaftlich tätiger Forschender geeignet sind. Indikatoren können als Veröffentlichungs- und Zitierindikatoren klassifiziert werden, die sich auf die Wirkung und Menge der Veröffentlichungsaktivitäten von Forschern, Teams, Instituten oder Ländern beziehen können. Unter Berücksichtigung der möglichen Referenzstandards werden die Indikatoren in einfache, spezifische, ausgewogene, verteilte und relative Indikatoren eingeteilt. Um die Publikationsaktivität sowohl qualitativ als auch quantitativ zu bewerten, können relative Zitierindikatoren empfohlen werden, die erhaltene Zitierungen in Beziehung zur Summe der Impact-Faktoren der Zeitschriften setzen, in denen die Beiträge veröffentlicht wurden, oder das relative Maß für die durchschnittliche Zitierfähigkeit von Beiträgen zu die von Artikeln in Zeitschriften in einem ähnlichen Teilgebiet.;-;-;-;https://link.springer.com/article/10.1007/BF02019961 2bd8026f2b1becf6069af81d6a1e4fe0;de;;;3.4.;6.4.;2.2.;Drei szientometrische Etüden über Entwicklungsländer als Hommage an Michael Moravcsik Die drei in diesem Beitrag vorgestellten szientometrischen Etüden befassen sich mit drei Aspekten der Wissenschaft in Entwicklungsländern: (1) Die Schätzung des wissenschaftlichen Personals und des Publikationspotenzials erfolgt anhand des Waring-Modells der Publikationsproduktivität, (2) werden Koautorenschaftsmuster analysiert, um Schlussfolgerungen zu ziehen dass lokale Interaktionen zwischen Entwicklungsländern dominant sind, aber auch die historisch-politisch-geographischen Zusammenhänge anschaulich sind und (3) ein quasi-4D-Vergleich sozioökonomischer und szientometrischer Indikatoren anhand von „Chernoff-Gesichtern“ präsentiert wird.;-;-;-;https://link.springer.com/article/10.1007/BF02020910 1ea24ce61a12010fdc79d7269f379d65;de;;;3.4.;6.4.;2.2.;Entwicklung und Anwendung von Journal Impact Measures im niederländischen Wissenschaftssystem Dieser Beitrag diskutiert die Entwicklung und Anwendung von Journal Impact Indicators in einer Reihe von bibliometrischen Studien, die von niederländischen Organisationen und Institutionen in Auftrag gegeben und in unserem Institut in den letzten fünf Jahren durchgeführt wurden. Die in diesen Studien behandelten Forschungsfragen und ihr politischer Kontext werden skizziert. Für jede Studie wird die Angemessenheit der Verwendung von Journal Impact Indicators des Instituts für Wissenschaftliche Information (ISI) bewertet. Es wurden alternative Journal Impact Measures entwickelt, die sich in den jeweiligen Forschungs- und Politikkontexten als geeigneter erweisen als die ISI-Maßnahmen. Diese Maßnahmen wurden von den Nutzern als sehr nützlich erachtet. Die Studien haben methodische Mängel der Impact-Faktoren der ISI-Zeitschrift aufgedeckt.;-;-;-;https://link.springer.com/article/10.1023/A%3A1014808709694 b5ce4bbc42713820f51650f7b8cd1352;de;;;3.4.;6.4.;2.2.;Eine Analyse eingestellter Zeitschriften von Scopus Forscher bemühen sich ständig, ihre Ergebnisse an Kollegen weiterzugeben, in der Hoffnung, in nicht allzu ferner Zukunft Anerkennung für ihren Beitrag zu erhalten. Die vorherrschende Idee von „publish or perish“ wird zwingend, wenn sich Forscher um kompetitive Stipendien oder akademische Promotionen bewerben. Die Auswahl einer geeigneten Zeitschrift ist zu einem wichtigen Thema geworden, da Tausende von Zeitschriften verfügbar sind. Einer der Aspekte, die von Forschern berücksichtigt werden, ist der Indexierungsstatus der Zeitschrift. Scopus evaluiert kontinuierlich Zeitschriften, die von Verlagen zur Indexierung und später zur Überprüfung der Qualität eingereicht werden. Während dieses Neubewertungsprozesses können einige Bedenken hinsichtlich der Veröffentlichung auf Zeitschriften- oder Verlagsebene geäußert werden. Daher gibt Scopus regelmäßig eine Liste der eingestellten Zeitschriften heraus. Allerdings aktualisieren nicht alle Zeitschriften ihre Websites, um die Leser über die Einstellung zu informieren. Diese Studie zeigt, dass derzeit 56 Zeitschriften, die 2016 eingestellt wurden, auf ihren Websites bestätigen, dass sie von Scopus indiziert sind. Darüber hinaus enthalten weitere 20 im Jahr 2016 eingestellte Zeitschriften, die nicht ausdrücklich angeben, dass sie von Scopus indexiert sind, ein Widget von SCImago, das Verwirrung über ihre aktuelle Indexierungssituation stiften könnte. Bei einigen Zeitschriften scheint der Schwerpunkt eher auf das Verlagsgeschäft als auf die Verbreitung von Forschungsergebnissen gelegt zu werden. Diese Studie zeigt, dass regelmäßige Aktualisierungen zu den Verantwortlichkeiten der Redaktionen gehören, um die Qualität und Genauigkeit der auf Zeitschriften-Websites veröffentlichten Informationen zu gewährleisten.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2808-5 1adc3b3b48e0b34e85ed118a5ea400b6;de;;;3.4.;6.4.;2.2.;Triple Helix-Innovation in Chinas farbstoffsensibilisierter Solarzellenindustrie: Hybridmethoden mit semantischer TRIZ und Technologie-Roadmapping In den letzten Jahren hat das Triple Helix-Modell praktikable Ansätze zur Messung der Beziehungen zwischen Universitäten, Industrien und Regierungen identifiziert. Die Ergebnisse wurden auf verschiedene Datenbanken, Regionen und Perspektiven ausgeweitet. In diesem Artikel wird untersucht, wie Bibliometrie und Text-Mining Triple-Helix-Analysen beeinflussen können. Es setzt Competitive Technical Intelligence-Konzepte und -Methoden für Studien zu Newly Emerging Science & Technology (NEST) ein, um das Technologiemanagement und die Technologiepolitik zu unterstützen. Ein semantischer TRIZ-Ansatz wird verwendet, um NEST-Innovationsmuster zu bewerten, indem Themen (mit Nominalphrasen zur Adressierung von Subjekten und Objekten) und Aktionen (über Verben) verknüpft werden. Anschließend klassifizieren wir diese Innovationsmuster nach den vorherrschenden Entstehungskategorien: Akademie, Industrie oder Regierung. Anschließend verwenden wir TRIZ-Tags und -Benchmarks, um den NEST-Fortschritt mithilfe von Technology Roadmapping zu lokalisieren. Triple-Helix-Inferenzen können dann mit den visualisierten Mustern in Beziehung gesetzt werden. Wir demonstrieren diese Analysen anhand einer Fallstudie für farbstoffsensibilisierte Solarzellen.;-;-;-;https://link.springer.com/article/10.1007/s11192-013-1090-9 0320b314f09216052fce9c4fed15dd7b;de;;;3.4.;6.4.;2.2.;Art des Artikeltitels und seine Beziehung zur Anzahl der Downloads und Zitationen Der Titel eines Artikels kann beschreibend, deklarativ oder eine Frage sein. Es spielt eine wichtige Rolle sowohl für das Marketing als auch für die Auffindbarkeit von Artikeln. Wir untersuchen den Einfluss der Art der Artikeltitel auf die Anzahl der Zitationen und Downloads von Artikeln. Die Anzahl der Downloads und Zitationen für alle Artikel, die in sechs PLoS-Zeitschriften (Public Library of Science) veröffentlicht wurden (2.172 Artikel), wurden von PLoS bezogen und die Art des Titels jedes Artikels (einschließlich beschreibender, indikativer und Frage) sowie die Anzahl der number wesentliche Wörter im Titel (Titellänge). Es wurden statistische Differenz- und Korrelationstests durchgeführt. Die Ergebnisse zeigten, dass es Unterschiede zwischen Artikeln mit verschiedenen Titeltypen in Bezug auf Downloads und Zitationen gibt, insbesondere Artikel mit Fragetiteln wurden tendenziell häufiger heruntergeladen, aber weniger zitiert als die anderen. Artikel mit längeren Titeln wurden etwas weniger heruntergeladen als Artikel mit kürzeren Titeln. Titel mit Doppelpunkt waren tendenziell länger und erhielten weniger Downloads und Zitate. Erwartungsgemäß korrelierten Anzahl der Downloads und Zitationen positiv.;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0412-z 19ef1b810c9791529a51a6fdd9dcba9e;de;;;3.4.;6.4.;2.2.;Eine modifizierte Methode zur Berechnung der Impact Factors von Zeitschriften in ISI Journal Citation Reports: Polymer Science Category in 1997–2001 Dieser Artikel stellt eine neue modifizierte Methode zur Berechnung des Impact-Faktors von Zeitschriften vor, die auf der aktuellen ISI-Praxis bei der Generierung von Journal-Impact-Faktor-Werten basiert. Der Impact-Faktor-Wert für eine Zeitschrift, der nach der vorgeschlagenen Methode, der sogenannten Cited Half-Life Impact Factor (CHAL)-Methode, berechnet wird, die auf dem Verhältnis der Anzahl der Zitationen von Artikeln aus den letzten X Jahren im laufenden Jahr zu dieser basiert der in den letzten X Jahren veröffentlichten Artikel, wobei der X-Wert dem Wert der zitierten Halbwertszeit der Zeitschrift im aktuellen Jahr entspricht. 34 Zeitschriften der Kategorie Polymer Science aus den ISI-Fachkategorien wurden ausgewählt und geprüft. Gesamtzitate, Impact-Faktoren und zitierte Halbwertszeit der 34 Zeitschriften während der letzten fünf Jahre (1997-2001) wurden vom ISI abgerufen;-;-;-;https://link.springer.com/article/10.1023/B%3ASCIE.0000027794.98854.f6 16d2ef5af7975fbab6a0185acb14831f;de;;;3.4.;6.4.;2.2.;Eine CERIF-Datenmodellerweiterung zur Auswertung und quantitativen Darstellung wissenschaftlicher Forschungsergebnisse Dieses Papier präsentiert einen Vorschlag zur Erweiterung des CERIF-Datenmodells zur Bewertung wissenschaftlicher Forschungsergebnisse. Die Datenmodellerweiterung basiert auf der semantischen Schicht von CERIF, die eine Klassifizierung von Entitäten und Beziehungen zwischen Entitäten gemäß einem Klassifizierungsschema ermöglicht. Das vorgeschlagene Datenmodell wurde mit dem PowerDesigner CASE-Tool erstellt. Das Modell wird unter Verwendung eines physikalischen Datenmodells in der konzeptionellen Notation dargestellt, die in der Literatur zur Darstellung des CERIF-Datenmodells verwendet wird. Dieses Modell wird anhand des Regelwerks zur Bewertung und quantitativen Darstellung wissenschaftlicher Forschungsergebnisse der an der Universität Novi Sad beschäftigten Forscher überprüft.;-;-;-;https://link.springer.com/article/10.1007/s11192-010-0228-2 18a5afc6e2a2c20c022b105f9e71d74a;de;;;3.4.;6.4.;2.2.;Stochastische Modellierung der Erstbezugsverteilung Ein einfaches stochastisches Modell, basierend auf Mischungen von inhomogenen Poisson-Prozessen, wird vorgeschlagen, um den Zitierprozess bei Alterung/Obsoleszenz zu beschreiben. Besonderes Augenmerk wird auf die Untersuchung der Erstzitatverteilung gelegt, bei der gezeigt wird, dass es bei Alterung zwangsläufig zu nie zitierten Artikeln kommt. Es werden Bedingungen angegeben, die zeigen, wie das Modell in der Lage ist, die verschiedenen Formen von Erstzitierungsverteilungen, die in der Literatur beschrieben werden, zu modellieren. Insbesondere wird der wesentliche Zusammenhang zwischen der Erstzitationsverteilung und der Obsoleszenzverteilung hergestellt.;-;-;-;https://link.springer.com/article/10.1023/A%3A1012751509975 7470c7652b936231f30aa6b827523c52;de;;;3.4.;6.4.;2.2.;Bewertung der Pflegeakademiker in der Türkei im Rahmen von Web of Science: Szientometrics of original article Szientometrie, Bibliometrie, Webometrie und Informetrie sind spezifische Forschungsgebiete, die statistische Analysen eines bestimmten Forschungsgebiets umfassen, die Informationen zu Themen zusammenfassen, die in einem bestimmten Zeitraum behandelt wurden, Autoren, Zitate und deren demografische Merkmale, Netzwerkbeziehungen zwischen den Autoren. Diese Studie, die sowohl in die Szientometrie als auch in die Webometrie eingeordnet werden kann, zielt darauf ab, die aktuelle Situation und die Leistung von Akademikern im Pflegebereich in der Türkei durch grundlegende und fortgeschrittene Datenanalysen ihrer veröffentlichten Originalartikel in einem Web of Science aufzuzeigen. Die Rohdaten einschließlich der Details der Veröffentlichungen wurden zunächst in eine neuartige Datenbank geparst, in der die Zugehörigkeit der Autoren in Bezug auf die Daten der Website des türkischen Hochschulrats gespeichert wurde. Über die integrierte Datenbank wurden spezielle Tabellen generiert, die eine Zusammenfassung der wissenschaftlichen und demografischen Verteilung der Publikationen darstellen. Spezifische statistische Tests wurden angewendet, um die Zusammenhänge und Unterschiede aufzudecken. Darüber hinaus wurden im Rahmen des Text Mining Analysen zu Autoren, Titeln, Schlagworten, Abstracts und Referenzen durchgeführt, um die Inhalte und Referenzen der im Datensatz enthaltenen Artikel auf Schlagwortdichten, Themenschwerpunkte, Co-Autorenschaft und Zitierweise zu untersuchen Netzwerke. Einer der herausfordernden Teil dieser Forschung war die Sammlung und Bereinigung von Datensätzen, da die Sonderbuchstaben der türkischen Sprache, z.B. ç, ş, ö, ü. Dieses Problem wurde behoben, als das Darstellungsmuster der Buchstaben entdeckt und Abfragen in Bezug auf diese Muster ausgeführt wurden. Diese Studie hat sowohl für den Bereich der Pflege als auch für die Szientometrie aussagekräftige Erkenntnisse geliefert, da sie die wissenschaftliche Leistung in einem bestimmten Bereich aufzeigt und die aktuelle Situation systematisch darstellt, indem sie die relevanten Studien in einer analytischen Perspektive untersucht.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2641-x bd51d822ba5643c430c98d17b5c8b6bd;de;;;3.4.;6.4.;2.2.;Die Altmetrics der Publikationen von Henk Moed Die wissenschaftlichen Arbeiten von Henk Moed sind bekannt. Er ist ein produktiver Autor, dessen Veröffentlichungen im Laufe der Jahre hoch zitiert wurden. Mit Hunderten von Publikationen, die in verschiedenen Datenbanken indiziert sind, weist sein Profil Tausende von Zitaten und einen hohen h-Index auf. Henks Arbeit umfasst die Zusammenarbeit mit über 60 Autoren aus 30 Ländern auf allen Kontinenten, darunter Europa, Amerika, Asien, Naher Osten, Afrika und Australien. Henk hat in 31 verschiedenen Zeitschriften veröffentlicht, die eine Vielzahl von Disziplinen wie Informatik, Ingenieurwesen, Entscheidungswissenschaften und natürlich Sozialwissenschaften abdecken, die Bibliometrie, Szientometrie und Informetrie umfassen. Zitationsinformationen zu Henks Werken finden Sie leicht auf Scopus, Web of Science und Google Scholar. Über die altmetrische Wirkung seiner Arbeit ist jedoch nicht viel bekannt. Dieses Kapitel konzentriert sich auf einige der wichtigsten altmetrischen Indikatoren von Henks Arbeit, einschließlich Nutzung (Downloads, Ansichten usw.), Leserschaft und Aufmerksamkeit in sozialen Medien. Die Ergebnisse geben Aufschluss darüber, wie seine Veröffentlichungen nicht nur von Fachleuten, sondern auch von Studenten, forschungspolitischen Entscheidungsträgern, Wissenschaftlern und der breiteren Öffentlichkeit, die an Forschungsbewertung und anderen Themen, zu denen Henk bisher veröffentlicht hat, interessiert ist, angesehen, gelesen, geteilt und getwittert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-47665-6_15 7fe70bef7c1cd9e3e51bb81c515d92ed;de;;;3.4.;6.4.;2.2.;Ein neuer Ansatz zur Definition eines multidisziplinären Wissenschaftsgebiets: Der Fall der kardiovaskulären Biologie Dieses Papier beschreibt eine neue und objektive Methode zur Lösung des Problems der Definition eines multidisziplinären Forschungsgebiets für die bibliometrische Analyse. Das Testfeld war die kardiovaskuläre Biologie. Um dieses Forschungsfeld abzugrenzen, wurde ein dreistufiger Prozess gewählt:;-;-;-;https://link.springer.com/article/10.1007/BF02016285 12073982277a55469b45dd8e88771734;de;;;3.4.;6.4.;2.2.;Eine Untersuchung der Literaturverteilungen dreier wissenschaftlicher Fachgebiete Es wurde eine Untersuchung der Verteilungen durchgeführt, die durch historische Behandlungen von drei wissenschaftlichen Spezialitäten erzeugt wurden: Quantenmechanik, Plattentektonik und Endokrinologie. Ein Ansatz der Zitationsanalyse wurde verwendet, um eine Häufigkeitsverteilung für das Jahr der Veröffentlichung von Literatur zu generieren, auf die von Historikern verwiesen wird. Die beobachteten Werte wurden normalisiert und unter Verwendung eines Pearson-Fitness-of-Fit-Tests auf ihre Passgenauigkeit getestet. Die Ergebnisse zeigten, dass die drei Verteilungen nicht äquivalent waren. Andere Parameter der drei Verteilungen zeigten Ähnlichkeiten unter Verwendung von a;-;-;-;https://link.springer.com/article/10.1007/BF02021287 4cb94807fad6103eede525675a29c911;de;;;3.4.;6.4.;2.2.;Universelle und spezifische Merkmale der ukrainischen Wirtschaftsforschung: Publikationsanalyse basierend auf Crossref-Daten Unsere Studie ist eines der ersten Beispiele für multidimensionale und longitudinale disziplinäre Analysen auf nationaler Ebene basierend auf Crossref-Daten. Wir präsentieren eine groß angelegte quantitative Analyse der ukrainischen Wirtschaftsforschung. Diese Studie ist kein weiteres Beispiel für Forschung, die auf das Ranking lokaler Zeitschriften, Autoren oder Institutionen abzielt, sondern vielmehr allgemeine Tendenzen untersucht, die mit anderen Ländern oder Regionen verglichen werden können. Wir untersuchen verschiedene Aspekte der ukrainischen Wirtschaftsforschung. Insbesondere werden der kollaborative Charakter, die geografische Landschaft und einige Besonderheiten der Zitationsstatistik untersucht. Wir haben festgestellt, dass die ukrainische Wirtschaftsforschung durch einen vergleichsweise geringen Anteil an gemeinsam verfassten Publikationen gekennzeichnet ist, jedoch die Tendenz zu mehr kollaborativer Arbeit zeigt. Basierend auf unserer Analyse diskutieren wir spezifische und universelle Merkmale der ukrainischen Wirtschaftsforschung. Die Bedeutung der Unterstützung verschiedener Initiativen zur Bereicherung offener wissenschaftlicher Metadaten wird berücksichtigt. Eine umfassende und qualitativ hochwertige Metabeschreibung von Publikationen ist wahrscheinlich der kürzeste Weg zu einem besseren Verständnis nationaler Trends, insbesondere für nicht englischsprachige Länder. Die Ergebnisse unserer Analyse können verwendet werden, um die ukrainische Wirtschaftsforschung besser zu verstehen und forschungspolitische Entscheidungen zu unterstützen.;-;-;-;https://link.springer.com/article/10.1007/s11192-021-04079-7 556a7c38c776b09356c54de5cdc74ad2;de;;;3.4.;6.4.;2.2.;Aggregationseigenschaften des relativen Impacts und anderer klassischer Indikatoren: Konvexitätsprobleme und das Yule-Simpson-Paradox Unter den klassischen bibliometrischen Indikatoren sind direkte und relative Wirkungsmessungen für Länder oder andere Akteure in der Wissenschaft attraktiv und Standard. Sie können jedoch, wie in diesem Artikel gezeigt, unerwünschte statistische Eigenschaften aufweisen oder zumindest Interpretationsfragen in Evaluations- und Benchmarking-Kontexten aufwerfen. In diesem Artikel behandeln wir zwei solcher Eigenschaften, nämlich die Empfindlichkeit gegenüber dem Yule-Simpson-Effekt und ein Problem im Zusammenhang mit der Konvexität. Der Yule-Simpson-Effekt kann bei direkten Auswirkungen und in einer abweichenden Form bei relativen Auswirkungen auftreten, wodurch eine scheinbare Inkohärenz zwischen Feldwerten und dem Gesamtwert (alle Felder) entsteht. Bei relativen Auswirkungen kann dies zu einer schwerwiegenden Form der „Überschreitung“ der Gesamtwerte führen, bei der sich die relative Auswirkung eines Spielers von „gut“ zu „schlecht“ oder umgekehrt verschiebt. Überschreitungen und fehlende Konvexität im Allgemeinen sind typisch für relative Wirkungsindikatoren. Unter Verwendung empirischer Daten schlagen wir vor, dass bei relativen Wirkungsmaßen „out-range“ aufgrund fehlender Konvexität keine Ausnahme ist. Der Yule-Simpson-Effekt ist seltener und tritt insbesondere bei kleinen Spielern mit bestimmten Spezialisierungsprofilen auf.;-;-;-;https://link.springer.com/article/10.1007/s11192-009-0420-4 14e90a973bb2d314b16918155fc28bcc;de;;;3.4.;6.4.;2.2.;Bradfordsches Gesetz in Bezug auf die Entwicklung eines Feldes. Eine Fallstudie zur Solarstromforschung Basierend auf den Daten des Literaturwachstums auf dem Gebiet der Solarenergie untersucht der vorliegende Beitrag, in welchem ​​Entwicklungsstadium die Streuung von Artikeln über Zeitschriften der Bradford-Kurve ähnelt, d. h. in welchem ​​Stadium das Bradford-Gesetz gilt. Verfolgt die damit verbundenen Veränderungen in der Größe und den Elementen des Kerns während der Entwicklung und des Wachstums der Literatur. Die Studie zeigt, dass mit der Reife des Feldes eine der Bradford-Kurve ähnliche Kurve erhalten wird. Das Ergebnis wurde mit Hilfe eines einfachen mathematischen Modells unterstützt.;-;-;-;https://link.springer.com/article/10.1007/BF02016547 9272e766be67fe287065bef56964dda8;de;;;3.4.;6.4.;2.2.;Messung der Wirkung wissenschaftlicher Publikationen. Der Fall der biomedizinischen Wissenschaften Die bibliometrischen Indikatoren, die derzeit zur Bewertung der wissenschaftlichen Produktion verwendet werden, weisen einen gravierenden Fehler auf: Beim Vergleich verschiedener Teilbereiche entsteht eine bemerkenswerte Verzerrung. In diesem Beitrag zeigen wir die Existenz dieses Bias anhand des Indikators Impact Factor (IF). Der Impact-Faktor hängt mit der Qualität eines veröffentlichten Artikels zusammen, jedoch nur, wenn jedes spezifische Teilfeld separat betrachtet wird: Nur 15,6 % der untersuchten Teilfelder wiesen homogene Mittelwerte auf. Die damit verbundene Verzerrung kann sehr irreführend sein, wenn bibliometrische Schätzer als Grundlage für die Vergabe von Forschungsmitteln verwendet werden. Um diese Situation zu verbessern, schlagen wir einen neuen Schätzer vor, den RPU, der auf einer Normalisierung des Impact-Faktors basiert, der Verzerrungen minimiert und einen Vergleich zwischen Unterfeldern ermöglicht. Der RPU eines Journals wird mit der Formel berechnet: RPU=10(1-exp (-IF/x)), wobei IF der Impact-Faktor des Journals und x der mittlere IF für das Teilfeld ist, zu dem das Journal gehört. Die RPU behält die Vorteile des Impact-Faktors: Einfachheit der Berechnung, Unmittelbarkeit und Objektivität und erhöht homogene Teilfelder von 15,6 % auf 93,7 %.;-;-;-;https://link.springer.com/article/10.1007/BF02018236 60cfb317051282b3942425bc62bab1b8;de;;;3.4.;6.4.;2.2.;Ein ganzzahliges lineares Programmiermodell der Gutachterzuweisung mit Überlegungen zum Forschungsinteresse Im regulären Arbeitsprozess des Peer-Reviews müssen Redakteure die gesamten Einreichungen lesen und verstehen, um geeignete Gutachter auszuwählen. Die manuelle Auswahl der Gutachter wird jedoch aufgrund der Vielzahl von Einreichungen fehleranfällig und zeitaufwendig. In dieser Arbeit wird ein Framework vorgestellt, das verschiedene unverzichtbare Aspekte wie Aktualität, Aktualität und Forschungsinteresse berücksichtigt und ein ganzzahliges lineares Programmierproblem mit praktischen Überlegungen formuliert, um Gutachter für eine Gruppe von Einreichungen zu empfehlen. Konkret werden die Aktualität und die Aktualität genutzt, um relevante und akkreditierte Kandidaten in einreichungsbezogenen Themen zu empfehlen, während das Forschungsinteresse darin besteht, die Bereitschaft der Kandidaten zur Begutachtung einer Einreichung zu prüfen. Um die Wirksamkeit des vorgeschlagenen Ansatzes zu bewerten, wurden Kategorien von vergleichenden Experimenten mit zwei großen wissenschaftlichen Datensätzen durchgeführt. Experimentelle Ergebnisse zeigen, dass der vorgeschlagene Ansatz im Vergleich zu Benchmark-Ansätzen in der Lage ist, das Forschungsinteresse der Gutachterkandidaten ohne signifikante Einbußen bei verschiedenen Bewertungsmetriken zu erfassen. Unsere Arbeit kann für Redakteure hilfreich sein, um passende Experten zu Peer-Reviews einzuladen und die Notwendigkeit hervorzuheben, wertvolle Informationen aus großen wissenschaftlichen Daten für die Expertenauswahl aufzudecken.;-;-;-;https://link.springer.com/article/10.1007/s10479-018-2919-7 192f289535bbaff266a5145fd01a6489;de;;;3.4.;6.4.;2.2.;Multidimensionale quantitative Analyse des kubanischen wissenschaftlichen Outputs und seines regionalen Kontexts Ein multidimensionaler Ansatz wurde angewendet, um Trends der kubanischen Wissenschaftsleistung im Kontext der 21 lateinamerikanischen Länder mit mehr als zwei Millionen Einwohnern zu analysieren. Die Output-Leistungen für jedes Land wurden verglichen. Folgende Parameter wurden analysiert: Output und Zeitschriften, die bei Scopus (SCImago stats, 1996–2018) und der Web of Science Core Collection (1996–2019) indiziert sind, von SciELO abgedeckte Zeitschriften, bei Latindex registrierte wissenschaftliche Zeitschriften und die Anzahl der registrierten Zeitschriften vom Internationalen Zentrum ISSN. Die Vergleichselemente umfassen: Web of Science vs. Scopus-Jahresausgabe und nach kumulativer Häufigkeit, Anteil der wissenschaftlichen Zeitschriftenausgabe nach Land vs. Gesamtausgabe, Ausgabe in nationalen Zeitschriften und Dokumenttypologien. Es zeigte sich, dass das Ranking in der LAC-Region sowohl auf Jahres- als auch auf kumulativer Ebene trotz einiger Änderungen im Zeitraum 2015–2019 recht stabil war. Der Anstieg der brasilianischen Produktion in ausländischen oder brasilianischen Zeitschriften erhöhte seinen kumulierten regionalen Beitrag von 1996 bis 2018 um 11,37 % und stabilisierte oder verringerte gleichermaßen die relativen regionalen Beitragsindizes für die meisten Länder, entweder kumulativ (positive Veränderung nur für Mexiko) oder jährlich (positive Veränderungen für Kolumbien, Ecuador, Chile und Peru). Trotz seines 11. Platzes bei der Bevölkerung und 10. Platz beim BIP rangierte Kuba unter den ersten acht produktivsten Ländern (Platz 7 in den Gesamtdokumenten) und übertraf die LAC-Länder mit mehr BIP und Bevölkerung quantitativ. Sein Ranking wurde stark von den Veröffentlichungen kubanischer Zeitschriften beeinflusst. Es werden einige Überlegungen für eine ausgewogenere Analyse des wissenschaftlichen Outputs in Bezug auf sozioökonomische Aspekte und Aspekte der Datenbankindexierung angeführt.;-;-;-;https://link.springer.com/article/10.1007/s11192-021-03904-3 178797f7a151f3ada2c6fe69fa6684b0;de;;;3.4.;6.4.;2.2.;Intelligente Erstellung von Bibliographien und Markup für Autoren: Ein Schritt hin zu interoperablen digitalen Bibliotheken Der Schritt hin zu integrierten internationalen Digitalen Bibliotheken bietet die Möglichkeit, umfassende Daten zu Zitationsnetzwerken zu erstellen. Diese Daten sind nicht nur unschätzbare Anhaltspunkte für die entsprechende Forschung, sondern auch die Grundlage für Auswertungen wie Impact-Faktoren und die Grundlage intelligenter Suchmaschinen. Die Erstellung korrekter Zitationsnetzwerkdaten bleibt jedoch ein schwieriges Problem, und die Daten sind oft unvollständig und verrauscht. Die einzig gangbare Lösung scheinen Systeme zu sein, die Autoren helfen, korrekte, vollständige und kommentierte Bibliographien zu erstellen und so eine autonome Zitationsindexierung zu ermöglichen, um korrekte und vollständige Zitationsnetzwerke zu erstellen. In diesem Papier beschreiben wir eine allgemeine Systemarchitektur und zwei konkrete Komponenten, um Autoren bei dieser Aufgabe zu unterstützen. Das System führt den Autor von der Literatursuche über die Erstellung von Domänenmodellen und die Erstellung von Literaturverzeichnissen bis hin zum semantischen Markup bibliografischer Metadaten. Das System basiert auf einer modularen und erweiterbaren Architektur: VBA-Makros, die sich nahtlos in die gewohnte Arbeitsumgebung des Benutzers integrieren, die Nutzung vorhandener Datenbanken und Tools zur Informationsbeschaffung sowie eine Webservice-Schicht, die diese verbindet.;-;-;-;https://link.springer.com/chapter/10.1007/11863878_52 37a8233ad780f2ef36a7ea4a80c0628a;de;;;3.4.;6.4.;2.2.;Laserforschung in Indien: Szientometrische Studie und Modellprojektionen Eine Analyse von 785 Veröffentlichungen, Büchern und Berichten im Bereich Laser, die 1967-84 aus Indien veröffentlicht wurden, zeigt, dass die indische Produktion fast 1 % der internationalen Produktion ausmacht. Die Gesamtleistung stammte von 77 Hochschul- und Forschungseinrichtungen, von denen 10 Einrichtungen fast 23% beitrugen. Ein Großteil dieser Veröffentlichungen erschien in renommierten ausländischen Zeitschriften, was sich in ihren Wirkungsfaktoren widerspiegelt. Der Schwerpunkt lag auf theoretischen Aspekten der Laserforschung. Die in Indien durchgeführte Laserforschung scheint ein Teil der Mainstream-Wissenschaft zu sein, wie das Muster der Veröffentlichungen und Zitationen zeigt. Die Studie zeigt auch, dass indische Wissenschaftler auf diesem Gebiet nur wenige internationale Kooperationen haben. Ein mathematisches Modell für das Wachstum der Literaturproduktion zeigt, dass, obwohl die Rate der indischen Literaturproduktion ungefähr zur gleichen Zeit wie die Weltproduktion ihren Höhepunkt erreichte, die indische Produktion ab 1995 an den Rand gedrängt werden könnte Betonung in Indien auf experimentelle und angewandte Aspekte der Laserforschung im Vergleich zum internationalen Durchschnitt.;-;-;-;https://link.springer.com/article/10.1007/BF02029806 a8be1b8d0132c5cd80dc8d4bbdc905cd;de;;;3.4.;6.4.;2.2.;In Scopus und Web of Science indizierte Trends in der russischen Forschungsleistung Trends werden in der jährlichen Anzahl von Dokumenten analysiert, die von russischen Institutionen veröffentlicht und in Scopus und Web of Science indiziert werden, wobei dem Zeitraum ab dem Jahr 2013 besondere Aufmerksamkeit gewidmet wird;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2769-8 7eb8845406f68ee9c1ca988166979d32;de;;;3.4.;6.4.;2.2.;Internationale Sichtbarkeit chinesischer wissenschaftlicher Zeitschriften Wir diskutieren die Internationalisierung und Sichtbarkeit chinesischer Zeitschriften des Institute for Scientific Information (ISI). Die Aufmerksamkeit richtet sich auf Physik- und Chemiezeitschriften. Für diese Zeitschriften werden die Herkunftsländer der veröffentlichten Artikel und deren Zitiermuster analysiert. Als Indikator für Internationalität betrachten wir außerdem die Zusammensetzung ihrer Redaktionen. Es wird der Schluss gezogen, dass selbst die chinesischen Zeitschriften, die von ISI abgedeckt werden, immer noch eher lokal sind und unter einer geringen Sichtbarkeit in der Welt leiden. Dennoch sind wir optimistisch, was die Zukunft der chinesischen Wissenschaft und ihrer wissenschaftlichen Zeitschriften angeht.;-;-;-;https://link.springer.com/article/10.1023/A%3A1014877130166 397a492574e03f8e7f83dc4021d5c371;de;;;3.4.;6.4.;2.2.;Zusammenhänge zwischen Bibliometrie und Peer-Evaluation für alle Disziplinen: die Evaluation brasilianischer Wissenschaftler Dieses Papier korreliert die Ende 2009 von den Disziplinarkomitees von CNPq (einer brasilianischen Förderagentur) durchgeführten Peer-Evaluierungen mit einigen bibliometrischen Standardmaßen für 55 wissenschaftliche Bereiche. Wir haben die Entscheidungen verglichen, das von CNPq finanzierte Forschungsstipendium eines Wissenschaftlers zu erhöhen, aufrechtzuerhalten oder zu verringern. Wir haben diese Entscheidungen für 2.663 brasilianische Wissenschaftler analysiert und ihre Korrelationen (Spearman rho) mit 21 verschiedenen Messgrößen berechnet, darunter: Gesamtproduktion, Produktion in den letzten 5 Jahren, Produktion in Web of Science und Scopus indexiert, Gesamtzahl der erhaltenen Zitate , Scopus und Google Scholar),;-;-;-;https://link.springer.com/article/10.1007/s11192-013-0969-9 870d4008719966a2893ecea19c9313c9;de;;;3.4.;6.4.;2.2.;Fischforschung in China: Wie vergleicht sie sich mit der Fischforschung in Indien? Die Fisch- und Aquakulturforschung in der Volksrepublik China in den sechs Jahren 1994-1999 wurde anhand von Daten aus sechs Datenbanken – drei abstrakten Diensten und drei Zitationsindizes – kartiert. Die Ergebnisse werden mit der fischwissenschaftlichen Forschung in Indien verglichen. In den sechs Jahren hat China 2035 Artikel (ungefähr 4,5 – 5 % der Weltproduktion) und Indien 2454 veröffentlicht. Mehr als 95 % der chinesischen Artikel sind Zeitschriftenartikel, verglichen mit 82,8% der indischen Artikel. Etwa 78 % der chinesischen Zeitschriftenausgaben sind in 143 inländischen Zeitschriften erschienen, verglichen mit 70 % aus Indien in 113 indischen Zeitschriften. Weniger als ein Achtel der von chinesischen Forschern veröffentlichten Zeitschriftenartikel werden in SCI-indizierten Zeitschriften veröffentlicht, verglichen mit 30% der Zeitschriftenartikel von indischen Forschern. Weniger als ein Dutzend Artikel aus jedem dieser Länder sind in Zeitschriften mit einem Impact-Faktor von mehr als 3,0 erschienen. Fischforschungsinstitute und Fischereihochschulen leisten den größten Beitrag zu den chinesischen Forschungsergebnissen in diesem Bereich. In Indien leisten akademische Einrichtungen die größten Beiträge (61%), gefolgt von Einrichtungen der Zentralregierung (>25%). Qingdao, Wuhan, Peking und Shanghai sind die Städte und Shandong, Hubei und Fujian sind die Provinzen, die eine große Anzahl von Beiträgen beisteuern. Da wir in den meisten Arbeiten nicht alle Adressen aller Autoren haben, können wir das Ausmaß der internationalen Zusammenarbeit nicht einschätzen. Obwohl Chinas Forschungsleistung und seine Zitationswirkung geringer sind als die Indiens, sind Chinas Fischproduktion und Exporteinnahmen weit höher als die Indiens. Wahrscheinlich ist China besser darin, die Kluft zwischen Know-how (Forschung) und Do-how (Technologie und Schaffung von Arbeitsplätzen und Wohlstand) zu überbrücken. China ist ziemlich stark in der Ausdehnung.;-;-;-;https://link.springer.com/article/10.1023/A%3A1012742826813 aee19053c637935bb17d5e27246ad934;de;;;3.4.;6.4.;2.2.;Ein Archiv der Identität: die zentralafrikanischen Archive und die südrhodesische Geschichte Zwischen 1943 und 1956 arbeiteten Regierungsarchivare in Südrhodesien (Simbabwe) mit dem Verlag Chatto & Windus zusammen, um eine Reihe von neun Büchern zu produzieren. Die Sammlung wurde als „Oppenheimer-Reihe“ bekannt. Die Bände wurden von den Central African Archives veröffentlicht und boten zum ersten Mal die wichtigsten Quellen – Tagebücher, Korrespondenz, Notizen und Karten – in gedruckter Form an, die die ersten englischsprachigen Europäer aufzeichneten, die Südzentralafrika besuchten. Dieser Beitrag untersucht die Rolle dieser Publikationsveranstaltung beim Aufbau einer festen Identität für Europäer in Südrhodesien. Die Veröffentlichung der Reihe fiel mit den Bemühungen der Rhodesian Archivare zusammen, Manuskripte aus Großbritannien in ihre Sammlung in Salisbury (Harare) zu bringen. Diese Aktivitäten offenbaren eine Strategie, die Geschichte der europäischen Erforschung und Besiedlung in Zentralafrika nicht nur zu veröffentlichen, sondern sie durch die physische Präsenz dieser Bücher und der Archiveinrichtung selbst zu konkretisieren.;-;-;-;https://link.springer.com/article/10.1007/s10502-013-9204-y 2f37b8c1e473a883d5f2bb4ec571e7e9;de;;;3.4.;6.4.;2.2.;Wissenschaftliche Qualität in den Augen des Wissenschaftlers. Eine Fragebogenstudie In einer Fragebogenstudie wurden schwedische Hochschulwissenschaftler verschiedener Forschungsbereiche zu ihren Vorstellungen von wissenschaftlicher Qualität befragt. Die Items betrafen Beziehungen zwischen Qualität und Forschungsaufwand, Forscher, Forschungsumfeld, Forschungseffekte, Forschungspolitik und -organisation, Forschungsfinanzierung und Forschungsevaluation. 224 Personen (56% der Stichprobe) haben geantwortet. Die Ergebnisse zeigten, dass die Forscher ihre Ansichten über die wissenschaftliche Qualität teilten, aber es gab auch eine Reihe von Unterschieden zwischen weichen und harten Wissenschaften. Es wird der Schluss gezogen, dass die Unterschiede die Unterscheidung zwischen „Human“- und Naturwissenschaften sowie zwischen präparadigmatischen und paradigmatischen Wissenschaften weitgehend unterstützen. Implikationen für die Evaluation der Forschung werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF02017752 78a6d20dc6c42058236a1362548ccbf8;de;;;3.4.;6.4.;2.2.;Forschung zur semantisch-basierten Co-Wort-Analyse Durch die Analyse der Probleme von Schlüsselwörtern und Indizes, die in der Co-Wort-Analyse verwendet werden, stellen wir fest, dass der Schlüssel zur Lösung dieser Probleme darin besteht, das Wissen von Experten in die Co-Wort-Analyse zu integrieren. Daher schlägt dieser Beitrag eine neue Co-Wort-Analyse vor: die semantisch-basierte Co-Wort-Analyse, die Expertenwissen effektiv in die Co-Wort-Analyse integrieren kann. Die Leistung dieser Methode hat sich als sehr gut erwiesen. Es kann Probleme mit Schlüsselwörtern und Indizes, die in der Co-Wort-Analyse verwendet werden, effektiv lösen und die Richtigkeit der Co-Wort-Analyse verbessern. Mit dieser Methode wurden die Forschungsdaten zum „Human Intelligence Network“ in China analysiert. Laut Analyseergebnis weisen wir darauf hin, dass es in China mittlerweile vier Forschungsschwerpunkte dazu gibt. Sie sind „Methoden und Theorien des Human Intelligence Network“, „Human Intelligence Network“, „Competitive Intelligence System (kurz CIS)“, „der Aufbau und die Visualisierung des Human Intelligence Network“. Die Ergebnisse dieser Studie bringen nicht nur den Stand der Co-Wort-Analyseforschung voran, sondern geben auch Aufschluss über zukünftige Forschungsrichtungen.;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0563-y b495a96df127be43aa744c51a901cc5a;de;;;3.4.;6.4.;2.2.;Optimales und hierarchisches Clustering großskaliger Hybridnetzwerke für die wissenschaftliche Kartierung Frühere Studien haben gezeigt, dass hybride Clustering-Methoden, die auf Text- und Zitationsinformationen basieren, Clustering-Methoden übertreffen, die nur eine dieser Komponenten verwenden. Frühere Methoden konzentrieren sich jedoch auf das Vektorraummodell. In diesem Beitrag wenden wir eine hybride Clustering-Methode an, die auf dem Graphenmodell basiert, um die Web of Science-Datenbank im Spiegel der von der Datenbank abgedeckten Zeitschriften abzubilden. Im Vergleich zu früheren Hybrid-Clustering-Strategien ist unsere Methode sehr schnell und erreicht sogar eine bessere Clustering-Genauigkeit. Darüber hinaus erkennt es die Anzahl der Cluster automatisch und bietet eine Top-Down-Hierarchieanalyse, die der praktischen Anwendung entspricht. Wir bewerten den Mehrwert einer solchen integrierten Analyse quantitativ und qualitativ und untersuchen, ob das Clustering-Ergebnis eine angemessene Darstellung der Feldstruktur liefert, indem wir mit einem Nur-Text- oder Nur-Zitat-Clustering und einem anderen Hybridverfahren auf Basis einer Linearkombination von Abstandsmatrizen. Unser Datensatz besteht aus etwa 8.000 Zeitschriften, die im Zeitraum 2002–2006 veröffentlicht wurden. Die kognitive Analyse, einschließlich der gerankten Zeitschriften, der Begriffsannotation und der Visualisierung der Clusterstruktur, zeigt die Effizienz unserer Strategie.;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0600-x ad080f847781d97d5b0f1b7a2de203c0;de;;;3.4.;6.4.;2.2.;Forschungsproduktivität in der Bodenkunde auf den Philippinen Das Verständnis der Richtung und des Umfangs der bodenwissenschaftlichen Veröffentlichungen auf den Philippinen ist entscheidend für die Formulierung von Forschungsprioritäten und die Zuweisung von Mitteln. Es besteht kein Konsens über den aktuellen Stand der bodenkundlichen Veröffentlichungen auf den Philippinen, daher wurde diese Studie durchgeführt, um den Trend in der bodenkundlichen Veröffentlichung aufzuklären. Wir führten eine eingehende Analyse der Gesamtzahl der Veröffentlichungen und der Gesamtzahl der Zitate von bodenkundlichen Veröffentlichungen aus der Thomson ISI-Datenbank durch. Die Ergebnisse zeigten einen Anstieg der bodenwissenschaftlichen Veröffentlichungen von 1970 bis 2000 ohne Anzeichen dafür, dass sich dieser Trend verlangsamt. Die Zunahme der Zitationen im Laufe der Zeit steht im Einklang mit der Zunahme der Gesamtzahl der Veröffentlichungen (;-;-;-;https://link.springer.com/article/10.1007/s11192-013-1202-6 cb28df396d14e366043926bb8b76169d;de;;;3.4.;6.4.;2.2.;Eine mehrdimensionale Erweiterung des Hirsch’schen h-Index Der h-Index wird zu einem Referenzinstrument für die Laufbahnbewertung und wird von einigen Agenturen und Institutionen bei Beförderungs-, Vergabe- und Finanzierungsentscheidungen berücksichtigt. In Gebieten, in denen die h-Indizes tendenziell niedrig sind, können Personen mit unterschiedlichen Forschungsleistungen am Ende mit dem gleichen h enden. Dieser Beitrag schlägt eine mehrdimensionale Erweiterung des h-Index vor, bei der das konventionelle h nur die erste Komponente ist. Zusätzliche Komponenten des mehrdimensionalen Index werden durch Berechnen des h-Index für die Teilmenge von Papieren erhalten, die in der unmittelbar vorhergehenden Komponente nicht berücksichtigt wurden. Die Berechnung des multidimensionalen Index für 204 Fakultätsmitglieder in den Abteilungen für Methodik der Verhaltenswissenschaften in Spanien zeigt, dass Individuen mit gleichem h tatsächlich durch ihre Werte in den übrigen Komponenten unterschieden werden können und dass die Stärke der Korrelation der zweiten und dritten Komponenten des mehrdimensionalen Index mit alternativen bibliometrischen Indikatoren ist ähnlich wie die der ersten Komponente (dh das ursprüngliche h).;-;-;-;https://link.springer.com/article/10.1007/s11192-009-2290-1 216f84fcb76c3efbec1f75687b747507;de;;;3.4.;6.4.;2.2.;Meinungen von Forschern und Nutzern zum relativen Stellenwert biomedizinischer Arbeiten in verschiedenen Zeitschriften Einflussfaktoren für die Zitation von Zeitschriften, die häufig als Ersatzmaß für die Forschungsqualität verwendet werden, korrelieren nicht gut mit den subjektiven Ansichten britischer Forscher über die relative Bedeutung von Zeitschriften als Medien für die Kommunikation wichtiger biomedizinischer Forschungsergebnisse. Die Korrelation variiert je nach Teilgebiet: Sie ist in der Pflegeforschung nahezu null, in „wissenschaftlicheren“ Teilgebieten wie der Multiple-Sklerose-Forschung moderat, gekennzeichnet durch viele Autoren pro Beitrag und nennenswerte ausländische Co-Autoren. Wenn die Forschungsevaluation auf zeitschriftenspezifischen Indikatoren basieren soll, müssen diese verschiedene Aspekte des Prozesses abdecken, in dem die Forschung auf andere Forscher und auf die Verbesserung der Gesundheitsversorgung wirkt.;-;-;-;https://link.springer.com/article/10.1023/A%3A1014804608785 ade807ae716c2ae8889ea0c6aa72028a;de;;;3.4.;6.4.;2.2.;Die Verwendung und der Missbrauch von Zeitschriftenmetriken und anderen Zitierindikatoren In diesem Artikel werden Art und Verwendung des Journal Impact Factors und anderer gebräuchlicher bibliometrischer Messgrößen zur Bewertung der Forschung in den Natur- und Sozialwissenschaften auf der Grundlage von Daten von Thomson Reuters untersucht. Journal Impact Factors werden häufig missbraucht, um den Einfluss einzelner Artikel und Autoren zu beurteilen, aber eine solche Verwendung war nie beabsichtigt. Thomson Reuters verwendet auch andere Maße für den Einfluss von Zeitschriften, die dem Impact-Faktor gegenübergestellt werden. Abschließend kommentiert der Autor die sachgerechte Verwendung von Zitationsdaten im Allgemeinen, oft als Ergänzung zum Peer-Review. Diese Überprüfung kann politischen Entscheidungsträgern der Regierung, Universitätsverwaltungen und einzelnen Forschern helfen, die potenziellen Vorteile und Grenzen der Bibliometrie bei der Bewertung von Forschungsergebnissen besser kennenzulernen.;-;-;-;https://link.springer.com/article/10.1007/s00005-009-0008-y 36baa661a942fbc429756227b7a46941;de;;;3.4.;6.4.;2.2.;Community-Evolutionsanalyse basierend auf Co-Autoren-Netzwerk: eine Fallstudie akademischer Communities der Zeitschrift „Annals of the Association of American Geographers“ Die Evolution der akademischen Gemeinschaft zeigt die Entwicklung der wissenschaftlichen Zusammenarbeit zwischen Wissenschaftlern. Diese sozialen Interaktionen von Forschern können durch das Koautorennetzwerk gut reflektiert werden, was es möglich macht, die akademische Gemeinschaft durch Untersuchung des Koautorennetzwerks zu untersuchen und die Entwicklung der Gemeinschaft durch dynamische Koautorennetzwerkanalyse zu untersuchen. Bestehende Metriken messen den Einfluss oder die Zentralität eines Autors im Co-Autorennetzwerk einzeln, anstatt die akademische Gemeinschaft als Ganzes zu berücksichtigen. Außerdem leisten Co-Autoren eines Papers in der Regel unterschiedliche Beiträge, die sich in der Namensreihenfolge widerspiegeln, die in der traditionellen Co-Autoren-Netzwerkanalyse oft ignoriert wird. Darüber hinaus wurde hauptsächlich auf solche Merkmale auf Strukturebene wie dem Small-World-Koeffizient und dem Clustering-Koeffizienten geachtet, die Merkmale auf Inhaltsebene wie Community, Autor und Themen sind jedoch entscheidend für das Verständnis der Community-Entwicklung. Um diese Probleme anzugehen, schlagen wir zunächst einen „umfassenden Wirkungsindex“ vor, um den Autor in einem Co-Autorennetzwerk zu bewerten, indem wir den statistikbasierten Impact und die netzwerkbasierte Zentralität umfassend berücksichtigen. Anschließend wird der umfassende Indexwert aller Autoren einer Community addiert, um die Community als Ganzes zu bewerten. Darüber hinaus wird eine Lebenszyklusstrategie für die Community-Evolutionsanalyse vorgeschlagen. Ausgehend von der Geographie-Akademikergemeinschaft als Pilotstudie wählen wir 919 gemeinsam verfasste Artikel aus dem Flaggschiff-Journal „Annals of the Association of American Geographers“ aus. Die Co-Autorengruppen werden durch die Community-Erkennungsmethode generiert. Die drei wichtigsten Co-Autorengruppen werden durch Berechnungen mit dem vorgeschlagenen Index identifiziert und anhand der vorgeschlagenen Lebenszyklusstrategie aus der Perspektive der Gemeinschaftsstrukturen, der Mitgliedsautoren bzw. der Auswirkungen analysiert. Die Ergebnisse zeigen, dass unser vorgeschlagener Index und unsere Strategie für die Analyse der Entwicklung der akademischen Gemeinschaft effizienter sind als herkömmliche Methoden.;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2515-7 a7bdb8e4f296585ab205928506ccf482;de;;;3.4.;6.4.;2.2.;Fachliche Inhalte der mexikanischen Produktion zu Gesundheit und Umwelt (1982–1993) Diese Arbeit berichtet über das Thema Inhaltsanalyse, die zu 1323 Datensätzen aus internationalen Datenbanken durchgeführt wurde, die sich auf die mexikanische Produktion im Bereich Umweltgesundheit beziehen. Die Medical Subject Headings (MeSH) der U.S. National Library of Medicine und die Health Sciences Descriptors (DeCS) von BIREME wurden als Orientierungshilfe bei der Auswahl des Themeninhalts von Datensätzen verwendet. Insgesamt wurden 97 Deskriptoren identifiziert, 65 entsprachen MeSH-Begriffen und 32 wurden von den Autoren generiert. Die Ergebnisse zeigten, dass der Großteil der Produktion im Zusammenhang mit Umweltverschmutzungsstudien stand, die sich auf die Wasser- und Luftverschmutzung sowie die Umweltüberwachung konzentrierten. Durch die Entwicklung hierarchischer Modelle konnten Muster der abgedeckten und aufgedeckten Themen leicht identifiziert werden. Weitere Handlungs- und Forschungsrichtungen werden von den Autoren vorgeschlagen.;-;-;-;https://link.springer.com/article/10.1007/BF02457415 a71d665d222ef655012870d305740f4e;de;;;3.4.;6.4.;2.2.;Grundlagenforschung wird in China von angewandter Forschung überschattet: eine politische Perspektive Dieser Beitrag zeigt, dass die Grundlagenforschung in China aus Sicht der W&T-Politik jahrzehntelang von der angewandten Forschung überschattet wurde. Die Daten beziehen sich auf 4.707 chinesische W&T-Politiken im Zeitraum zwischen 1949 und 2010, die in fünf Phasen unterteilt sind, basierend auf dem Prozess der W&T-Systemreform in China. Wir haben auch festgestellt, dass die W&T-Politik in China mehr auf Grundlagenforschung ausgerichtet ist und die Kluft zwischen Grundlagenforschung und angewandter Forschung kleiner wird.;-;-;-;https://link.springer.com/article/10.1007/s11192-013-1199-x 9becf757ac1086ea04202b453d0f93d1;de;;;3.4.;6.4.;2.2.;Publikationsrate in Abhängigkeit von der Laborgröße in einer biomedizinischen Forschungseinrichtung An der Rockefeller University war 1977/78 die Zahl aller Veröffentlichungen einer Forschungsgruppe in einem Jahr ungefähr proportional zur Zahl der Personen in dieser Gruppe während des Jahres. Die Anzahl der primären Forschungspublikationen einer Gruppe in einem Jahr war auch ungefähr proportional zur Anzahl der Personen in dieser Gruppe während des Jahres. Die beobachtete Häufigkeitsverteilung der Laborgröße war statistisch nicht unterscheidbar von einer 0-beschnittenen negativen Binomialverteilung, die die Gleichgewichtshäufigkeitsverteilung der Größe ist, die von stochastischen Modellen für die Dynamik frei bildender sozialer Primatengruppen vorhergesagt wurde.;-;-;-;https://link.springer.com/article/10.1007/BF02016598 d6fda766c7ddb9d864915637f6f3b6fb;de;;;3.4.;6.4.;2.2.;Die internationale Publikationsproduktivität lateinamerikanischer Länder in den Bereichen Volkswirtschaftslehre und Betriebswirtschaftslehre Die vorliegende Studie vergleicht die internationale Publikationsproduktivität lateinamerikanischer Länder in den Bereichen Betriebswirtschaftslehre und Volkswirtschaftslehre von 1995 bis 1999. Nur vier Länder – Argentinien, Brasilien, Chile und Mexiko – verfügen über eine nennenswerte Forschungsproduktion in diesen Bereichen. Von diesen Ländern zeigte Chile die günstigsten Ergebnisse nach verschiedenen Indikatoren für die Publikationsproduktivität.;-;-;-;https://link.springer.com/article/10.1023/A%3A1012753601797 1cbd4fe7c7a1c5976ae9b5632b7bd8ad;de;;;3.4.;6.4.;2.2.;Bibliometrische Analyse für die Wissenschaftspolitik: Eine Bewertung der Forschungsleistung des Vereinigten Königreichs in Meeresströmungen und Proteinkristallographie Dieser Beitrag präsentiert die Ergebnisse einer Studie über die wissenschaftliche Leistung Großbritanniens in den Bereichen Meeresströmungen und Proteinkristallographie, die für das Advisory Board for the Research Councils (ABRC) durchgeführt wurde. Anhand einer Reihe von Publikations- und Zitationsindikatoren sollte der potenzielle Wert kostengünstiger szientometrischer Ansätze zur Forschungsevaluation für die wissenschaftspolitische Entscheidungsfindung untersucht werden.;-;-;-;https://link.springer.com/article/10.1007/BF02017247 a652fcc3d8091c20df2328474093e545;de;;;3.4.;6.4.;2.2.;Eine neue Familie wissenschaftlicher Wirkungsmaße: Die generalisierten Kosmulski-Indizes Dieser Artikel stellt die verallgemeinerten Kosmulski-Indizes als eine neue Familie von wissenschaftlichen Wirkungsmaßen für das Ranking der Leistungen wissenschaftlicher Forscher vor. Als Sonderfälle enthält diese Familie den bekannten Hirsch-Index;-;-;-;https://link.springer.com/article/10.1007/s11192-009-2130-0 81c158e9353526bafada6bc28f580bea;de;;;3.4.;6.4.;2.2.;Eine semantische Ähnlichkeitsbereinigte Dokument-Ko-Zitat-Analyse: ein Fall einer touristischen Lieferkette Die Document Co-Citation Analysis (DCA) wird über verschiedene wissenschaftliche Disziplinen und Kontexte hinweg eingesetzt, um die Struktur von Wissen zu charakterisieren. Seit der Einführung der DCA-Methode durch Small (J Am Soc Inf Sci 24(4): 265–269, 1973) wurden von mehreren Forschern verschiedene Modifikationen zur Optimierung der Ergebnisse vorgeschlagen. Wir empfehlen einen neuen Ansatz, um die Ergebnisse von DCA zu verbessern, indem das Konzept des Dokumentähnlichkeitsmaßes darin integriert wird. Unsere vorgeschlagene Methode modifiziert DCA, indem sie die semantische Ähnlichkeit mittels latenter semantischer Analyse für die Abstracts der am häufigsten zitierten Dokumente einbezieht. Das Zusammenspiel dieser beiden Maße führt zu einem neuen Maß, das wir als semantische Ähnlichkeitsbereinigter Ko-Zitat-Index bezeichnen. Die Wirksamkeit der vorgeschlagenen Methode wird durch eine empirische Untersuchung der touristischen Lieferkette (;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03608-0 9b0038254f7326421812c60d7c120c34;de;;;3.4.;6.4.;2.2.;Eugene Garfield: kurze Überlegungen Eugene Garfields allgegenwärtige Präsenz in der Szientometrie maskiert bis zu einem gewissen Grad seine einflussreichen Beiträge in verschiedenen Bereichen. Ausgehend von dieser Prämisse für diese Studie versucht der Artikel, Garfields Beiträge in vier Schlüsselbereichen nachzuvollziehen: in der Datenanalyse, in der Beeinflussung von Wissenschaftlern, die sich mit dem Studium der Wissenschaft als epistemischer Praxis und als Wissensprodukt befassen, seinem Engagement mit Wissenschaftlern in Entwicklungsländern und in Innovation und Unternehmertum. Der Artikel bietet jedoch nur einen kleinen Einblick in sein tiefes Engagement in den oben genannten Bereichen. Die Studie schließt mit der Argumentation, dass die Szientometrie eine starke Verbindung zu den verschiedenen Forschungssträngen in den Wissenschaftsstudien und anderen interdisziplinären Bereichen aufbauen sollte, die Pioniere wie Garfield durch seine Schriften, die Entwicklung sozialer Netzwerke und die Schaffung von Wissensprodukten unternommen haben.;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2620-7 58b71ec3c22de402cb0860c40e25e766;de;;;3.4.;6.4.;2.2.;Theoretische Grundlage der 80/20-Regel Eine strenge Analyse der 80/20-Regel wird unter Verwendung eines Index für die beobachteten Werte der Variablen durchgeführt. Drei wichtige Erkenntnisse werden identifiziert. Erstens wird eine hinreichende Bedingung für Burrells inverse Beziehung zwischen Mindestbeständen und durchschnittlicher Umlaufrate gegeben. Zweitens wird eine indizierte Version des Lotkasschen Gesetzes verwendet, um eine hinreichende Bedingung für Egghes Ergebnis der 80/20-Regel abzuleiten. Drittens identifizieren wir durch die Computersimulationen des Simon-Yule-Modells des Lotkas-Gesetzes die Eintrittsrate neuer Bestände sowie die Anzahl der Auflagen, wenn die Eintrittsrate eine abnehmende Funktion ist, die entscheidende Faktoren für das Muster der 20-Typ-Kurve.;-;-;-;https://link.springer.com/article/10.1007/BF02016899 5c43eb76b1ea127b305607246e5b7d36;de;;;3.4.;6.4.;2.2.;Ausgegebene US-Patente, patentbezogene globale akademische und Medienpublikationen und die US-Marktindizes sind miteinander korreliert, mit unterschiedlichen Wachstumsmustern Der Anstieg der Patente ist eine der wichtigsten treibenden Kräfte für Diskussionen über internationale Wettbewerbsfähigkeit, Wissens-Spillover, Effizienz von Patentämtern und andere. Nach Kenntnis des Autors ist es jedoch interessant, dass keine Arbeit die Auswirkungen des Anstiegs der Anzahl von Patenten auf patentbezogene wissenschaftliche (peer-reviewed) und Medienliteratur (z. Verwandtschaft zwischen diesen drei Literaturen mit denen der US-Marktindizes (nämlich Dow, S&P500, NASDAQ). Hier berichte ich, dass das Wachstum der Zahl der in den USA erteilten Patente, der patentbezogenen Medien und der von Experten begutachteten Veröffentlichungen und diese Indizes statistisch korreliert sind, jedoch mit drastisch unterschiedlichen Wachstumsraten. Dieses allgemeine Ergebnis liefert Daten, die die Hypothese unterstützen, dass börsennotierte Unternehmen als Innovationstreiber ein neues Forschungsgebiet innerhalb der wissenschaftlichen Gemeinschaften begründen und gleichzeitig den Marktwert durch so genannten „Patentjournalismus“ beeinflussen.;-;-;-;https://link.springer.com/article/10.1007/s11192-007-1749-1 83bee3d48316cab00634f3898e08ef61;de;;;3.4.;6.4.;2.2.;Sprachliche Indikatoren Die Lebensqualität einer Gesellschaft kann als Funktion ihrer Komplexität betrachtet werden, die wiederum durch die Komplexität ihrer Sprache angezeigt werden kann. Darüber hinaus ist bekannt, dass eine Charakterisierung einer Sprache oder eines bestimmten Autors statistisch gemessen werden kann. Vor diesem Hintergrund untersucht und vergleicht dieser Beitrag eine Klasse von linguistischen Indikatoren, die Sprachen und Autoren charakterisieren, stellt eine einheitliche Überprüfung des Zipfschen Gesetzes einschließlich Erweiterungen und Erläuterungen vor und stellt einen neuen Ranghäufigkeitsansatz vor, der als linguistischer Indikator nützlich ist.;-;-;-;https://link.springer.com/article/10.1007/BF00286478 c4eee719aaaddc49f6f9f051dee08bf9;de;;;3.4.;6.4.;2.2.;Merkmale von Veröffentlichungen zur Geschlechterforschung: eine bibliometrische Analyse basierend auf einer schwedischen Bevölkerungsdatenbank Gender Studies ist ein wachsendes Feld in der Wissenschaft. Sie ist untrennbar mit Feminismus und politischen Reformen verbunden und genießt in Schweden exklusive Ressourcen und gesetzliche Unterstützung. Die vorliegende Studie zielt darauf ab, Geschlechterstudien zu charakterisieren, die von Autoren mit Sitz in Schweden veröffentlicht wurden, und stellt eine Reihe von Hypothesen bezüglich ihrer Wachstumsrate, ihrer Auswirkungen und anderer bibliographischer Variablen. Dazu wurden Publikationen von Autorinnen und Autoren schwedischer Universitäten zum Thema Gender aus unterschiedlichen Quellen gesammelt und zu einer Populationsdatenbank der Publikationen der Jahre 2000 bis 2010 zusammengestellt. Die Ergebnisse zeigen, aus welchen Universitäten und Disziplinen die Autorinnen der Gender Studies stammen, und in welchen Zeitschriften sie am häufigsten veröffentlicht werden. Wir vergleichen auch den Anteil der Gender Studies an der Gesamtheit der Publikationen aus einer Reihe von Ländern und zeigen, dass er in Schweden schneller gewachsen ist als andere Arten von Publikationen. Ein Vergleich zwischen Literaturen, die sozial konstruiertes Geschlecht oder biologisches Geschlecht berücksichtigen, zeigte, dass ersteres in Zeitschriften mit niedrigerem IF weniger zitiert und veröffentlicht wird als letzteres. Unsere Populationsdatenbank Swedish Gender Studies List, die auch eine internationale, nicht erschöpfende Vergleichsstichprobe enthält, die in einigen Punkten mit der schwedischen Stichprobe übereinstimmt, wird für die weitere wissenschaftliche Untersuchung dieser Literatur zur Verfügung gestellt, beispielsweise durch die Möglichkeit der Extraktion von Zufallsstichproben .;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1702-7 ea2f82f1e643fa628030166e6c4ad8c2;de;;;3.4.;6.4.;2.2.;Autorenzusammenarbeit und Wirkung: Ein Hinweis zu den Zitationsraten von Artikeln mit Einzel- und Mehrfachautoren Die Akzeptanzrate von kollaborativ verfassten Artikeln ist tendenziell höher als die von Einzelautorenbeiträgen, was auf einen insgesamt positiven Zusammenhang zwischen Zusammenarbeit und Qualität schließen lässt. Die Analyse der 10-Jahres-Zitierraten von 270 zufällig ausgewählten Artikeln in drei Anwendungsfeldern zeigt ebenfalls einen ähnlichen Zusammenhang, mit etwas höheren Zitierhäufigkeiten für Multi-Autoren als für Single-Autoren. Die Beziehungen bleiben bestehen, unabhängig davon, ob Selbstzitate eingeschlossen oder ausgeschlossen werden. Diese Unterschiede sind jedoch für Artikel in der klinischen Psychologie oder in der Bildungsmessung statistisch nicht signifikant. Lediglich Mehrautorenartikel in der Betriebswirtschaftslehre weisen eine statistisch signifikant höhere Zitationsrate auf. Andere Aspekte des kollaborativen Prozesses und Auswirkungen werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF02016776 a73547e8c372c98d9688082fdb31d159;de;;;3.4.;6.4.;2.2.;Die Beziehung zwischen Diversitätsprofilen, Gleichmäßigkeit und Artenreichtum basierend auf partieller Ordnung Probleme mit dem Begriff der Gleichmäßigkeit, wie Mehrdeutigkeit, Verbreitung von Indizes, Auswahl von Indizes usw. können durch einen grundlegenderen, mathematischen Ansatz überwunden werden. Wir zeigen, dass die Lorenzkurve eine adäquate Darstellung der Ebenheit ist. Die entsprechende Lorenz-Ordnung induziert eine partielle Ordnung in der Menge äquivalenter Häufigkeitsvektoren. Auch Diversität kann adäquat durch eine Teilordnung untersucht und durch eine aus der klassischen Lorenzkurve abgeleitete Kurve dargestellt werden. Diese Kurve ist als intrinsisches Diversity-Profil (oder k-Dominanz-Kurve) bekannt und wurde von Patil und Taillie (1979) und Lambshead et al. (1981).;-;-;-;https://link.springer.com/article/10.1023/A%3A1009626406418 8362c1e7e1ec94ad3e3ab9c502f26766;de;;;3.4.;6.4.;2.2.;Die Wirkung sozialwissenschaftlicher Grundlagenforschung: Der Fall Bildung Neuere Expertenbewertungen zu Zustand und Finanzierung der Bildungsforschung in den USA gehen davon aus, dass die sozialwissenschaftliche Grundlagenforschung ein entscheidender Faktor ist, um unser Verständnis und letztlich die Praxis der Bildung zu verbessern (siehe z. B. den Bericht von 1977;-;-;-;https://link.springer.com/article/10.1007/BF02101664 790840c9cad03be0591b70fcb5d94549;de;;;3.4.;6.4.;2.2.;Merkmale und Hotspots der medizinischen Professionalitätsforschung: eine bibliometrische 10-Jahres-Analyse von Publikationen von 2010 bis 2019 In den letzten Jahren ist eine Fülle von Veröffentlichungen zur medizinischen Professionalität erschienen. Ziel unserer Studie war es, die externen Merkmale von Publikationen zur Professionalität mittels Bibliometrie zu analysieren, deren aktuelle Entwicklungen und Trends zu beschreiben und Hotspots der Professionalismusforschung mittels Co-Word-Analyse zu erkunden. Wir haben Literatur zum Thema Professionalität, die von 2010 bis 2019 veröffentlicht wurde, aus der Datenbank Web of Science abgerufen. Histcite und CiteSpace wurden verwendet, um externe Merkmale von Publikationen zu analysieren, einschließlich Publikationstrends und Verteilungen von Publikationen nach Land/Region, Institution, Autor und Zeitschrift. Die Co-Wort-Analyse wurde durchgeführt, um Forschungs-Hotspots zu analysieren, wobei der Bibliographic Item Co-Occurrence Matrix Builder und das Graphical Clustering Toolkit verwendet wurden. Wir haben ein strategisches Diagramm erstellt, um den Zustand jedes Forschungs-Hotspots und die Beziehung zwischen den verschiedenen Hotspots in diesem Bereich darzustellen. Die Ergebnisse zeigten, dass die Zahl der Publikationen zur Professionalität von Jahr zu Jahr zugenommen hat. Die USA, einschließlich ihrer Institutionen und Autoren, behaupteten weltweit die Spitzenposition in Bezug auf Publikations- und Zitationszahlen. Unter wissenschaftlichen Zeitschriften,;-;-;-;https://link.springer.com/article/10.1007/s11192-021-03993-0 50c51faa998fb39740daa9fce44c72a8;de;;;3.4.;6.4.;2.2.;Vergleich der Ergebnisse der Publikationszählung mit unterschiedlichen Methoden Mit Hilfe einer beim CEST eingerichteten Publikationsdatenbank, die den Zeitraum 1981 bis 2002 abdeckt, wurden die Unterschiede in den nationalen Scores, die mit verschiedenen Zählmethoden erzielt wurden, gemessen. Die Ergebnisse werden durch die Analyse von Daten aus der Literatur gestützt. Besonderes Augenmerk wurde auf den Vergleich zwischen der EU und den USA gelegt. Es gibt große Unterschiede zwischen den Scores, die mit verschiedenen Methoden erhalten wurden. In einem Fall beträgt die Reduzierung der Scores von ganzer zu vollständig normalisierter (fraktionierter) Zählung 72 Prozent. In der Literatur gibt es oft nicht genügend Informationen über angewandte Methoden, und es gibt keine Anzeichen für eine klare und einheitliche Terminologie und Übereinstimmung über Eigenschaften und Ergebnisse verschiedener Methoden. Tatsächlich ist die Gesamtzählung für bestimmte Länder günstig, insbesondere für Länder mit einem hohen Maß an internationaler Zusammenarbeit. Die Probleme nehmen mit der Zeit aufgrund der immer stärker werdenden nationalen und internationalen Forschungskooperationen und der steigenden durchschnittlichen Autorenzahl pro Publikation zu. Die Notwendigkeit eines gemeinsamen Verständnisses und einer gemeinsamen Anstrengung zur Behebung der Situation wird betont.;-;-;-;https://link.springer.com/article/10.1007/s11192-007-1934-2 42f0daa06bf69e50c8d673c96bf7fd15;de;;;3.4.;6.4.;2.2.;Wirtschaftswissenschaften in Lateinamerika: eine bibliometrische Analyse Bibliometrie ist ein Forschungsgebiet, das das bibliographische Material quantitativ untersucht. Diese Studie analysiert die zwischen 1994 und 2013 in Lateinamerika entwickelte akademische Forschung in den Wirtschaftswissenschaften. Der Artikel verwendet die Datenbank des Web of Science, um die Informationen zu sammeln, und bietet mehrere bibliometrische Indikatoren, darunter die Gesamtzahl der Veröffentlichungen und Zitationen sowie die;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1747-7 b5145c06ada8e41fd15c329dbacd7469;de;;;3.4.;6.4.;2.2.;Eine bibliometrische Analyse neuerer Energieeffizienzliteraturen: ein sich ausdehnender und sich verlagernder Fokus Um den Energiebedarf eines nachhaltigen Wirtschaftswachstums zu decken, haben sich Politiker, Analysten und Wirtschaftsführer zunehmend der Rolle der Energieeffizienz zugewandt. Dies hat zu einer wachsenden Literatur zur Energieeffizienz geführt, die in diesem Papier untersucht wird. Mit bibliometrischen Techniken analysieren wir die Datenbank des Science Citation Index Expanded und des Social Sciences Citation Index für den Zeitraum 1991–2010. Von den 8.244 Publikationen waren 78,8 % Zeitschriftenartikel und etwa 95,5 % wurden in englischer Sprache veröffentlicht. Basierend auf dem h-Index, einem Bewertungsindikator, haben die USA die einflussreichsten Publikationen zum Thema Energieeffizienz hervorgebracht, gefolgt von Kanada, Großbritannien, Japan und China. Im Gegensatz dazu steht China beim Umfang seiner Veröffentlichungen an zweiter Stelle nach den USA. Dementsprechend waren die University of California in Berkeley, die Chinese Academy of Sciences und die Tsinghua University die produktivsten Forschungsorganisationen. Die drei am häufigsten untersuchten Themen in diesem Forschungskollektiv waren „Energie und Brennstoffe“, „Umweltwissenschaften“ und „Elektro- und Elektroniktechnik“.;-;-;-;https://link.springer.com/article/10.1007/s12053-012-9171-9 bd7c341601f09d887278a98d796ae29b;de;;;3.4.;6.4.;2.2.;Institutionelle und zeitschriftenbezogene Indizes auf Meso-Ebene für die malaysische Ingenieurforschung Die Literatur betrachtet den h-Index einer Zeitschrift als Vergleichsmaß, jedoch wurde die Beziehung zwischen dem h-Index auf institutioneller Ebene (IHI) und den Zeitschriftenbezogenen Indizes (JRI) in früheren Studien zur Forschungsbewertung auf Mesoebene nicht untersucht. Diese Studie wendet den szientometrischen Ansatz auf Daten auf Mesoebene an, um die Assoziations-, Funktionsbeziehungs- und Korrelationsanalyse zu untersuchen, um die Zuverlässigkeit von IHI in Bezug auf JRI zu bewerten. Zu diesem Zweck wurden Daten aus dem Web of Science, Journal Citation Report und Time Zitiert Features verwendet. Die Analyseeinheit war die malaysische Ingenieurforschung mit einer größeren Zeitspanne von 10-Jahres-Daten (2001–2010) und einem größeren Satz von Zeitschriften (1381). Wir untersuchten die Interkorrelation von IHI mit einem Satz von acht JRI und wandten die Hauptkomponentenanalyse, Regressionsanalyse und Korrelation an. Auf institutioneller Ebene ergaben die Komponentenanalyse und der funktionale Zusammenhang des kumulativen Wirkungsfaktors und 5 Jahre IF eine stärkere Assoziation mit IHI. Der kumulative Impact-Faktor ist ein starker Prädiktor für IHI, gefolgt vom kumulativen 5-Jahres-Impact-Faktor. Die Ergebnisse der Korrelationsmatrix zeigen, dass der durchschnittliche Impact Factor (AIF) nur mit dem Unmittelbarkeitsindex und dem Eigenfaktor korreliert. AIF und Median Impact Factor (MIF) korrelieren nicht miteinander und IHI korreliert mit allen Indizes außer AIF und MIF. Diese Studie bietet ein besseres Verständnis bei der Berücksichtigung neuer Wirkungsindizes auf Meso-Ebene zum Zweck der Leistungsbewertung.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-1850-4 c708d76aeba754e5102a5141d6ee65af;de;;;3.4.;6.4.;2.2.;Lotka und Zipf: Papierdrachen mit flauschigen Schwänzen Zwischen der Lotka-Frequenz und der Zipf-Rangverteilungsfunktion besteht eine lineare Korrelation. Es wurden relativ gute Korrelationskoeffizienten gefunden, aber Steigungskonstanten stimmen nicht mit der Theorie überein. Sie zeigen, dass Informationsverteilungen nicht homogen sind und nicht vollständig durch zwei Parameterfunktionen beschrieben werden können.;-;-;-;https://link.springer.com/article/10.1007/BF02019964 d6bb9e999d8ee8c43dca9678cdef0f05;de;;;3.4.;6.4.;2.2.;Forschung zu Frauen und Gesundheit in der Medline-Datenbank, 1965–2005: Co-Term-Analyse und Visualisierung der Hauptforschungslinien Dieser Beitrag zeigt die Hauptlinien der Forschung zu Gesundheit und Frauen, wie sie in der Medline-Datenbank registriert sind, aufgeschlüsselt in vier 10-Jahres-Zeiträume: 1965–1974, 1975–1984, 1985–1994 und 1995–2005. Als Analyseeinheiten wurden die Medline „MeSH“-Hauptbegriffe verwendet, die mittels Co-Term-Analyse verarbeitet wurden. Für die grafische Darstellung wurde der Social Network-Ansatz verwendet, wobei das Pruning von Pathfinder Networks (PFNET) durchgeführt wurde, um die Anzeigen zu konzentrieren. Die Faktorenanalyse wurde verwendet, um die Deskriptoren zu gruppieren und die Hauptrichtungen der Forschung zu Gesundheit und Frauen zu identifizieren. Die Ergebnisse zeigen, dass die Forschung zu;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0455-1 af363e25e361663f0c8cad2f5b364c32;de;;;3.4.;6.4.;2.2.;Ein Ansatz zur Interdisziplinarität durch bibliometrische Indikatoren Interdisziplinarität hat in den letzten Jahren in der Wissenschaft zunehmend an Bedeutung gewonnen. Dieser Beitrag ist eine Fallstudie aus dem Bereich Chemie, in der eine Reihe verschiedener bibliometrischer Indikatoren zur Messung von Interdisziplinarität vorgestellt werden. Folgende Indikatoren werden analysiert: a) ISI-Multiklassifizierung von Zeitschriften in Kategorien, b) Zitier- und Referenzmuster außerhalb der Kategorie und c) Mehrfachzuordnung von Dokumenten in Chemical Abstracts-Abschnitten. Die Konvergenz zwischen den verschiedenen Indikatoren wird untersucht. Je nach Größe der analysierten Einheit (Bereich, Kategorie oder Zeitschrift) werden die am besten geeigneten Indikatoren ermittelt.;-;-;-;https://link.springer.com/article/10.1023/A%3A1010529114941 56bded4b55fbce354c2776bdfef9f7a9;de;;;3.4.;6.4.;2.2.;Die Verwendung von Fuzzy-Beziehungen bei der Bewertung der Leistung von Informationsressourcenproduzenten Das Problem der Herstellerbewertung hat viele wichtige praktische Beispiele: Es ist ein abstraktes Modell für intelligente Systeme, die z.B. die Qualität von Computersoftware-Repositorys, Webressourcen, sozialen Netzwerkdiensten und digitalen Bibliotheken. Die Leistung jedes Produzenten wird nicht nur anhand der Gesamtqualität der von ihm produzierten Artikel bestimmt, sondern auch anhand der Anzahl dieser Artikel (die für jeden Agenten unterschiedlich sein können).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11310-4_25 6392954ac6e3de3ec8816d8448a614c8;de;;;3.4.;6.4.;2.2.;Validierung bibliometrischer Indikatoren im Bereich Mathematik Bibliometrische Analysen wissenschaftlicher Publikationen liefern quantitative Informationen, die es Evaluatoren ermöglichen, ein nützliches Bild von der Forschungssichtbarkeit eines Teams zu erhalten. In Kombination mit Peer-Urteilen und anderem qualitativen Hintergrundwissen können diese Analysen als Diskussionsgrundlage für die Qualität der Forschungsleistung dienen. Viele Mathematiker sind jedoch nicht davon überzeugt, dass Zitationszahlen tatsächlich nützliche Informationen im Bereich der Mathematik liefern. Zitier- und Publikationsgewohnheiten unterscheiden sich nach Ansicht dieser Mathematiker völlig von Wissenschaftsgebieten wie Chemie oder Physik. Daher ist es unmöglich, aus Zitationszahlen valide Informationen über die Forschungsleistung abzuleiten. Ziel dieser Studie ist es, einen tieferen Einblick in die Bedeutung zitationsbasierter Indikatoren im Bereich der Mathematik zu gewinnen. Inwieweit spiegeln Citation-Scores die Meinungen von Experten zur Qualität eines Papers oder einer Zeitschrift wider? Um diese Frage zu beantworten, wurde eine Umfrage durchgeführt.;-;-;-;https://link.springer.com/article/10.1007/BF02093488 6e67a81f8e1c1d1938615fcac0825ec9;de;;;3.4.;6.4.;2.2.;Forschungsproduktion in den Kunst- und Geisteswissenschaften In dieser Studie wurden die wichtigsten Einflussfaktoren auf die Forschungsproduktion in den Geistes- und Kulturwissenschaften untersucht. Ein Fragebogen wurde erstellt, um die Auswirkungen verschiedener Faktoren zu identifizieren und zu bewerten, die für die Produktivität des einzelnen Forschers wichtig sind, was sich in der Anzahl der erstellten Arbeiten und Doktortitel widerspiegelt. Zunächst wurde den Befragten die Möglichkeit gegeben, in eigenen Worten eine Reihe wichtiger Faktoren aufzulisten, die die Forschungsproduktivität beeinflussen. Zweitens bewerteten sie auf Ratingskalen die Bedeutung einer Reihe von vorausgewählten Faktoren (z. B. individuelle Merkmale, organisatorische Merkmale, externe Faktoren), die für die Forschungsproduktivität als wichtig erachtet wurden. 50 % einer Stichprobe von 256 Geisteswissenschaftlern antworteten. Die Bewertungen wurden gruppiert, um eine Reihe von Indizes zu erstellen, und diese wurden mehreren Regressionsanalysen unterzogen. Die wichtigsten Ergebnisse zeigten, dass die Produktion von Papieren durch die Anzahl der promovierten Doktoranden vorhergesagt wurde und umgekehrt mit der Bedeutung organisatorischer Faktoren in Beziehung stand. Die Anfertigung von Doktortiteln war abhängig vom Jahr der Promotion. und die Position des Befragten sowie die Anzahl der von ihm erstellten Papiere. Es wurde eine Reihe von Schlussfolgerungen gezogen: a) auch in den Geisteswissenschaften gab es Unterstützung für den akademischen sozialen Positionseffekt, b) spielten organisatorische Faktoren im Vergleich zu individuellen Merkmalen in den Geisteswissenschaften offenbar eine untergeordnete Rolle als in den Naturwissenschaften und c) die Unterschiede in der Produktivität der Arbeiten auch mit dem Geschlecht, nicht aber mit der Größe, dem Bereich oder der Sprache der Veröffentlichungen. Implikationen für weitere Studien wurden vorgeschlagen.;-;-;-;https://link.springer.com/article/10.1007/BF02019256 70b5432fa93ad48e105e35863d8137e8;de;;;3.4.;6.4.;2.2.;Veränderte Trends im Publikationsverhalten von Universitätsdozenten, 1980-2000 Dieser Artikel analysiert Veränderungen der Publikationsmuster über einen Zeitraum von zwanzig Jahren an norwegischen Universitäten. Basierend auf drei Umfragen unter wissenschaftlichem Personal in den Jahren 1982, 1992 und 2001, die alle Arten von Veröffentlichungen umfassten, werden folgende allgemeine Schlussfolgerungen gezogen: Publikum zugenommen hat, (c) der wissenschaftliche Artikel in einer internationalen Zeitschrift seine Position als dominierende Publikationsform gestärkt hat und (d) die Anzahl der Publikationen pro wissenschaftlichem Mitarbeiter gestiegen ist. Die größten Veränderungen haben sich innerhalb der Sozialwissenschaften vollzogen, die sich zunehmend dem Publikationsmuster der Naturwissenschaften annähern. Andererseits sind die großen Produktivitätsunterschiede zwischen den einzelnen Forschern über die zwei Jahrzehnte in allen Lernbereichen bemerkenswert stabil geblieben.;-;-;-;https://link.springer.com/article/10.1023/A%3A1025475423482 ac330b47f9bf0d84c9b8ad4c542ba257;de;;;3.4.;6.4.;2.2.;Evaluation brasilianischer Forschungsergebnisse im Bildungsbereich: Konfrontation mit internationalen und nationalen Kontexten Die wissenschaftliche Produktion hat in den letzten zwei Jahrzehnten in Brasilien erheblich zugenommen, was das Land zu einer aufstrebenden Wissenschaftsmacht macht. Im Bildungsbereich ist das gleiche zu beobachten, wobei die Zahl der von brasilianischen Forschern veröffentlichten Artikel in der jüngeren Vergangenheit stark zugenommen hat. In diesem Artikel werten wir die brasilianischen Forschungsergebnisse im Bildungsbereich von 2007 bis 2016 aus, um zu verstehen, wie nationale Bewertungsstandards im Vergleich zu internationalen Parametern, die von bibliometrischen Indikatoren diktiert werden, im Vergleich stehen. Der Zitierwirkung brasilianischer Publikationen in dieser Zeit begegnen wir mit deren Einordnung in ein expertenbasiertes Zeitschriftenbewertungssystem namens QUALIS. Für diese Analyse haben wir den bibliometrischen Indikator SNIP von Scopus verwendet. Die Studie wurde mit Daten zu 40.825 Artikeln durchgeführt, die in 2719 verschiedenen Zeitschriften veröffentlicht wurden. Die Ergebnisse zeigten, dass nur ein kleiner Prozentsatz dieser Artikel in Scopus-indexierten Zeitschriften (13,28%) enthalten war und die meisten dieser Zeitschriften in Brasilien veröffentlicht wurden (66%). Die Zitierwirkung der Scopus-indizierten Veröffentlichungen nahm in diesem Zeitraum deutlich zu, aber Zeitschriften mit unterschiedlicher Zitierwirkung wurden nicht eindeutig in separate QUALIS-Kategorien verteilt. Diese Ergebnisse zeigen ein bestimmtes Publikationsmuster, das wahrscheinlich mit der Verbindung der brasilianischen Forschungsbewertungs- und -finanzierungssysteme zusammenhängt. Darüber hinaus werfen sie die Frage auf, wie die Festlegung von Bewertungskriterien, die hauptsächlich subjektiv sind und keine spezifischen Metriken enthalten, die Sichtbarkeit von Forschungsergebnissen aus einer globalen Perspektive beeinträchtigen kann.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03617-z 8063a13a3891ace609287544c6220710;de;;;3.4.;6.4.;2.2.;Eine szientometrische Bewertung der Agrarforschung in Südafrika Dieser Artikel berichtet über die Ergebnisse einer szientometrischen Bewertung der Agrarforschung in Südafrika im Zeitraum 1974–1984. Die Science Literature Indicators Database des CHI wird verwendet und Südafrika wird mit 7 anderen Ländern in Amerika, Asien, Ozeanien und Afrika verglichen. Als Bewertungskriterien dienen der Beitrag jedes Landes zur internationalen Agrarliteratur (in Form von Publikationen) und deren Wirkung in der „Schubert-Glänzel-Braun Impact Scale“. Es wurde festgestellt, dass sich der südafrikanische Beitrag in diesem Zeitraum zwar verbessert hat, aber mit dem Brasiliens und Argentiniens vergleichbar ist, dass Nigeria und Israel dreimal mehr produzieren und: dass Australien und Kanada mehr als eine Größenordnung an Publikationen beitragen mehr als Südafrika. Was die Forschungswirkung angeht, wird die „Plant Science“-Forschung in Südafrika auf der Schubert-Glänzel-Braun-Skala mit „fair“ bewertet, während die „Dairy and Animal Science“- und „Veterinary“-Forschung mit „schlecht“ bewertet wird.;-;-;-;https://link.springer.com/article/10.1007/BF02017461 cfac99c90e507e3a9f7ea3eb4db9343a;de;;;3.4.;6.4.;2.2.;TIE-Algorithmus: eine Schicht über die Clustering-basierte Taxonomie-Generierung für den Umgang mit sich entwickelnden Daten Taxonomie wird generiert, um große Datenmengen effektiv zu organisieren und darauf zuzugreifen. Eine Taxonomie ist eine Möglichkeit, Konzepte darzustellen, die in Daten vorhanden sind. Es muss sich ständig weiterentwickeln, um Änderungen der Daten widerzuspiegeln. Bestehende Techniken zur automatischen Taxonomie-Generierung verarbeiten die Datenentwicklung nicht, daher repräsentieren die generierten Taxonomien die Daten nicht wirklich. Die Entwicklung von Daten kann gehandhabt werden, indem entweder die Taxonomie von Grund auf neu generiert wird oder die Taxonomie bei jeder Änderung in den Daten schrittweise weiterentwickelt wird. Der erstgenannte Ansatz ist zeit- und ressourcenschonend. Ein Taxonomy Incremental Evolution (TIE)-Algorithmus, wie vorgeschlagen, ist ein neuartiger Versuch, mit Daten umzugehen, die sich im Laufe der Zeit entwickeln. Es dient als Schicht über einer bestehenden Clustering-basierten Taxonomie-Generierungstechnik und ermöglicht eine inkrementelle Weiterentwicklung einer bestehenden Taxonomie. Der Algorithmus wurde in Forschungsartikeln aus dem Computerbereich evaluiert. Es wurde festgestellt, dass die Taxonomie, die den mit Daten entwickelten Algorithmus verwendet, erheblich kürzere Zeit benötigt und eine bessere Qualität pro Zeiteinheit aufweist als die von Grund auf neu generierte Taxonomie.;-;-;-;https://link.springer.com/article/10.1631/FITEE.1700517 83ada24f8532fd20baf964d015952cf0;de;;;3.4.;6.4.;2.2.;Szientometrische Forschung in Südafrika und erfolgreiche Politikinstrumente Dieses Dokument bietet eine Analyse der szientometrischen Forschung in Südafrika und diskutiert Wachstumsquellen in der Forschungsliteratur des Landes im Allgemeinen. Südafrika verfügt über begrenzte Fachkenntnisse auf diesem Gebiet, die hauptsächlich im letzten Jahrzehnt aufgedeckt wurden. Das Land belegt jedoch weltweit den 21. Platz unter den Ländern, die in der Zeitschrift veröffentlichen;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0581-9 5146c989b69e10c3e6ee6afe6b16a3e3;de;;;3.4.;6.4.;2.2.;Der Markt der akademischen Aufmerksamkeit Diese Arbeit erweitert die Perspektive der akademischen Aufmerksamkeit, um das zentrale ökonomische Problem der Zuweisung knapper Aufmerksamkeit anzugehen und welche Dynamiken diese Situation fördern kann. Mit Fokus auf ausgewählte Bereiche und mit Standardwerkzeugen der Industrieorganisation zeichnen wir über 14 Jahre hinweg die Trends auf dem Markt für wissenschaftliche Aufmerksamkeit auf und versuchen eine Interpretation zu geben. Wir stellen eine Tendenz zur fortschreitenden Marktkonzentration fest, und auch, dass spezifische Strategien der Akteure, abgesehen von den üblichen Vorteilen durch Preisdiskriminierung, Aufmerksamkeitssubventionen von bekannten Zeitschriften auf weniger bekannte Zeitschriften desselben Bündels bewirken können. Dies kann die Entscheidungen von Lesern und Autoren beeinflussen, wie sie ihre Aufmerksamkeit lenken.;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2564-y 796100e6a91c35ed38d228b47a937b5c;de;;;3.4.;6.4.;2.2.;Veröffentlichung Ihrer Forschung Die Veröffentlichung Ihrer Arbeit ist der wichtigste Weg, um sie in den Windschatten der akademischen Ideen einzufügen und so zu vermeiden, dass Ihre Abschlussarbeit zu einer „Regalverbiegen“-Forschung wird, die in Ihrer Universitätsbibliothek sitzt und über die Jahre langsam ein Regal verbiegt. Der Hauptweg besteht darin, Beiträge bei Fachzeitschriften einzureichen. Seltener können Sie Ihre gesamte Abschlussarbeit in Buchform umformen und von einem Verlag als Monographie annehmen lassen. Keine Form der Veröffentlichung ist schnell oder unkompliziert. Sie können Ihr Endspiel weit über das formelle Datum hinaus verlängern, an dem sich Ihr Titel in Dr.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-230-80208-7_9 6057c601c0dd8b21a445e63ab582ed48;de;;;3.4.;6.4.;2.2.;Geschlechterunterschiede in der Forschungsproduktivität: Eine bibliometrische Analyse des italienischen Wissenschaftssystems Die Literatur, die sich der Analyse des Unterschieds in der Forschungsproduktivität zwischen den Geschlechtern widmet, stimmt tendenziell darin überein, dass Männer bessere Leistungen erzielen. Durch die bibliometrische Untersuchung der gesamten Population des in den wissenschaftlich-technologischen Disziplinen des italienischen Universitätssystems tätigen Forschungspersonals bestätigt diese Studie signifikante Produktivitätsunterschiede zwischen Männern und Frauen. Die Unterschiede sind jedoch geringer als in einem großen Teil der Literatur berichtet, was eine anhaltende Tendenz zum Rückgang bestätigt und auch bei quantitativen Leistungsindikatoren als stärker wahrgenommen wird als bei anderen Indikatoren. Die Kluft zwischen den Geschlechtern weist erhebliche sektorale Unterschiede auf. Trotz der generell besseren Leistung von Männern gibt es wissenschaftliche Bereiche, in denen die Leistungen von Frauen nicht unterlegen sind.;-;-;-;https://link.springer.com/article/10.1007/s11192-007-2046-8 ac5c4a5479f2298a762306cf3b0a4829;de;;;3.5.;6.4.;2.3.;Bibliometrische Analyse bibliographischer Verhaltensweisen in den Wirtschaftswissenschaften Eine bibliometrische Studie basierend auf der Analyse von sechs Doktorarbeiten in Wirtschaftswissenschaften. In dieser Studie basiert die Methodik auf der Unterscheidung zwischen zwei verschiedenen Informationsquellen in jeder Arbeit:;-;-;-;https://link.springer.com/article/10.1007/BF02016852 801e7b88e6f87218a184068e45a3d59b;de;;;3.4.;6.4.;2.3.;Eine Klassifizierung der Verwendung von Forschungsindikatoren Leistungsindikatoren für die Forschung werden allgemein für eine Reihe von Zwecken verwendet. Die wissenschaftliche Literatur zu Forschungsindikatoren hat einen starken methodischen Schwerpunkt. Es gibt keine umfassende Übersicht oder Klassifizierung der Verwendung solcher Indikatoren. In diesem Beitrag geben wir eine solche Klassifizierung der Verwendung von Forschungsindikatoren. Verwendung des Tagebuchs;-;-;-;https://link.springer.com/article/10.1007/s11192-016-1904-7 9f5223809693593fb2450f50264af0b5;de;;;3.4.;6.4.;2.3.;Der Impact-Faktor: sein Platz in Garfields Denken, in der wissenschaftlichen Bewertung und im Management von Bibliotheksbeständen Dieses Papier ist eine Antwort auf das von Vanclay, der vorschlägt, dass Thomson Reuters, da der Impact Factor (IF) so gravierend fehlerhaft ist, die Maßnahme entweder korrigieren oder – vorzugsweise – nicht mehr veröffentlichen und sich auf die Zeitschriftenzertifizierung beschränken sollte. Es wird hier argumentiert, dass Vanclays Analyse selbst ernsthaft fehlerhaft ist, da er die Gedankenstruktur von Eugene Garfield, dem Schöpfer von IF, völlig nicht zu kennen scheint. Infolgedessen scheint sich Vanclay der Bedeutung von Total Cities und der engen Verbindung von IF mit Review-Zeitschriften, in denen die Paradigmen der Wissenschaft definiert werden, nicht bewusst zu sein. Der Autor dieses Artikels stimmt zu, dass IF ein fehlerhaftes Maß ist, und analysiert seine Fehler aus der Perspektive der Häufigkeitstheorie der Wahrscheinlichkeit, auf der die moderne Inferenzstatistik basiert. Er behauptet jedoch, dass es kontraproduktiv wäre, es aufzugeben, da es – selbst mit seinen Mängeln – in der Lage ist, kleine wichtige Zeitschriften wie Rezensionsjournale zu identifizieren, was ihm eine wichtige Rolle bei der wissenschaftlichen Bewertung und dem Management von Bibliotheksbeständen zuweist.;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0601-9 0eb28a46062115afc2dbed84a73b1c50;de;;;3.4.;6.4.;2.3.;Disziplinarische Variablen, die die Form von Bradfords Bibliographie beeinflussen Der Einfluss verschiedener Faktoren auf die Form von Bradfords Bibliographie wurde durch eine Untersuchung von 16 Bibliographien, von denen zehn umfassend waren, bewertet. Um einen Vergleich zu ermöglichen, erhielten wir für jede Bibliographie einen Krümmungs-Score, der in einem Standard-Querformat aufgetragen wurde ) hängt vom Status („technisch“ vs. „nichttechnisch“) der disziplinären Quelle einer Bibliographie ab, wobei die technischen Disziplinen weniger Konvexität aufweisen, und (c) ist komplex von den historischen Veränderungen in der Disziplin betroffen. Die Erkenntnisse werden im Rahmen von Fragen zur grafischen Formulierung des Bradfordschen Gesetzes diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF02018384 c18ddda87534f28158e3e306de47ec82;de;;;3.4.;6.4.;2.3.;Analyse der Arbeitsteilung in Chinas hochwertiger Life-Sciences-Forschung Internationale Zusammenarbeit ist seit jeher ein beliebtes Thema in der wissenschaftlichen Forschung. Mit dem Aufkommen von „Autorenbeiträgen“ hat die quantitative Forschung, die die Arbeitsteilung der Autoren in der wissenschaftlichen Forschung nutzt, in jüngster Zeit eine neue Perspektive für das Maß internationaler Zusammenarbeit eröffnet. In diesem Artikel wird die internationale Zusammenarbeit differenzierter analysiert, nämlich unter Berücksichtigung der Bedeutung der Beiträge verschiedener Autoren auf nationaler Ebene. Semantische Strukturen der Arbeitsteilung werden mittels Text Mining aus den Autorenbeiträgen von Life Science-Publikationen in den 68 Zeitschriften des Nature Index extrahiert und mit zwei vordefinierten Regelbibliotheken in entsprechende Spartenkategorien eingeordnet. Anschließend erfolgt eine quantitative Analyse der chinesischen Arbeitsteilung sowohl aus quantitativer als auch aus struktureller Sicht auf nationaler und internationaler Ebene. Aus quantitativer Sicht sind die chinesischen Beiträge sowohl auf nationaler als auch auf internationaler Ebene in den letzten 10 Jahren in allen Kategorien der Arbeitsteilung nicht nur proportional, sondern auch im Vergleich zu anderen Ländern gestiegen, insbesondere in den Kategorie des Experimentierbetriebs. Aus struktureller Sicht sind Chinas Beiträge in den letzten zehn Jahren strukturell ausgeglichener geworden. Chinas Struktur der Arbeitsteilung lag 2017 zwischen BRICS-Staaten und G7-Staaten. Aus der Perspektive der Koautorenschaft spiegeln sich die signifikanten Unterschiede zwischen China und anderen Ländern sowohl in der Stichproben- und Datensammlung als auch in den Tools und Technologien wider.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03582-7 e393180e31db7da6172a451bf6732eb1;de;;;3.4.;6.4.;2.3.;Lotkas Gesetz und Produktivitätsmuster der entomologischen Forschung in Nigeria für den Zeitraum 1900–1973 Eine Bibliographie der entomologischen Forschung in Nigeria, 1900–1973, insgesamt 1720 Veröffentlichungen, wurde analysiert, um die Produktivitätsmuster der Autoren zu untersuchen und die Anwendbarkeit des Lotkasschen Gesetzes für die erhaltenen Verteilungen zu testen. Es wurden vier verschiedene Dateien erstellt, eine für die Veröffentlichungen aller Autoren, eine zweite für die Veröffentlichungen der Erstautoren, eine dritte für einzelne Autoren und eine vierte für Koautoren. Lotkas Gesetz in seiner ursprünglichen Form als inverses Quadratgesetz gilt für keinen der vier Datensätze. Es gilt jedoch in seiner verallgemeinerten Form mit den berechneten Werten des charakteristischen Exponenten α. Die Werte von α wurden mit 1,9, 1,8, 2,2 und 2,4 für die vier verschiedenen Datensätze gefunden. Der statistische K-S-Test wurde angewendet, um die Anwendbarkeit der verallgemeinerten Form des Lotka-Gesetzes zu testen. Der maximale Unterschied zwischen den beobachteten und geschätzten Werten der Autorenanteile erwies sich in jedem der vier Fälle mit einem Signifikanzniveau von 0,01 als sehr insignifikant.;-;-;-;https://link.springer.com/article/10.1007/BF02016688 1e62928d26141dd6e1b35f87d26361eb;de;;;3.4.;6.4.;2.3.;Wahrgenommener Stand der Wissenschaft an nigerianischen Universitäten Nigerianische Universitätswissenschaftler arbeiten unter sehr schwierigen Bedingungen, die durch eine Reihe von Zwängen verursacht werden, von denen der Mangel an Ausrüstung und der Mangel an Informationen die wichtigsten sind. Diese Einschränkungen haben zu einer Reihe von Anpassungen geführt, die sowohl innovativ als auch opportunistisch sind. Strategien zum Umgang mit diesen Einschränkungen werden beschrieben. Auch das soziale Milieu der Wissenschaftler und die Frage der Belohnung für wissenschaftliche Leistungen werden berücksichtigt.;-;-;-;https://link.springer.com/article/10.1007/BF02019960 864d16ff4f2de8c49ceb3a9f93e40d08;de;;;3.5.;6.4.;3.1.;Ein Ort neben Satoshi: Grundlagen der Blockchain- und Kryptowährungsforschung in Wirtschaft und Wirtschaft Die Blockchain-Technologie ist zu einem allgegenwärtigen Phänomen geworden. Während das Thema seinen Ursprung in der Informatik hat, wurde es in der wirtschaftswissenschaftlichen Literatur vergleichsweise langsam aufgegriffen. Um die wissenschaftlichen Grundlagen, aktuelle Entwicklungen und zukünftige Forschungswege des Diskurses besser zu verstehen, werden 9672 zitierte Referenzen von 467 Blockchain- und Kryptowährungsartikeln aus den Bereichen Wirtschaftswissenschaften aus der Web of Science Core Collection gesammelt und analysiert. Durch die Faktorenanalyse werden fünf Hauptforschungsstränge identifiziert. Sie werden überprüft und ihr Zusammenhang wird mittels Social-Network-Analyse abgebildet. Die Forschung zu (I) Markteffizienz und -ökonomie und (II) Asset Pricing und Bewertung ist relativ ausgereift und konzentriert sich auf Kryptowährungen, während Forschung zu (III) den Prinzipien und Anwendungen der Blockchain-Technologie, (IV) Transaktionen und Anonymität und (V) monetären Theorie und Politik fehlt die Reife. Es werden mögliche Wege für die zukünftige Forschung aufgezeigt und abschließend festgestellt, dass dieses junge Forschungsgebiet noch viel Handlungsspielraum lässt. Ein wissenschaftlicher Platz neben Nakamoto (2008) ist noch für bestehende, aufstrebende und neue Forschungsrichtungen frei.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03492-8 c5a3fa1e69e841289aeab54ecaade865;de;;;3.4.;6.4.;3.1.;Der Stand der biomedizinischen Strahlenforschung anhand von Veröffentlichungen, Finanzierung und Personaleinsatz: Ein analytisches Beispiel für die Nutzung der Online-Medizininformatik Die biomedizinische Strahlenforschungsgemeinschaft hat wichtige Ziele. Forschung, Risikobewertung, präventive Gesundheit und Sicherheit gehören zu seinen Aufgaben. Es ist überraschend, dass die Strahlenforschung nur bei 70% der jährlichen Medline-Datenbank wächst. Die Finanzierung ist angesichts des hohen Anteils an Forschung mit Tieren und Zellen (127% (Medline = 100%)) im Vergleich zu dem geringeren Anteil der Strahlung an Humanstudien (60%) vorhersehbar unterfinanziert (89% der erwarteten). Arbeitskraftstudien belegen 4500 Doktoranden seit 1960. 50% sind in Physik, 17% in Chemie und 11% in Biologie. Biochemie, Pharmakologie, Mikrobiologie, Genetik, Pathologie und Psychologie tragen weniger als 3% bei. Diese Indikatoren zeigen Aktivität in der Strahlenforschung, jedoch Defizite.;-;-;-;https://link.springer.com/article/10.1007/BF02016943 9eab78e03634df5967863c9096fa0c83;de;;;3.4.;6.4.;3.1.;"Geschwindigkeitsgenomik projizieren Das primäre Vehikel, das derzeit die Humangenetik trägt, wird gewöhnlich als ""Human Genome Project"" bezeichnet. Viel Aufmerksamkeit wurde der Frage geschenkt, ob das HGP „Big Science“ ist oder nicht, die Form, die als die charakteristischste für technowissenschaftliche Projekte der Nachkriegszeit gilt. Dieser Aufsatz kann als Versuch angesehen werden, die möglichen Auswirkungen einer Verlagerung unseres analytischen Fokus vom Räumlichen auf das Zeitliche abzubilden, um zu sehen, ob „Big Science“ produktiver als „Fast Science“ gedacht werden könnte.";-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4718-7_2 a5ddd983394c7169986aa17684191480;de;;;3.4.;6.4.;3.1.;Imagebildung der Öffentlichen Bibliothek aus der Leserperspektive: Eine Fallstudie zur Northern Haidian Library Das Management von Organisationsbildern wird als wirksames Mittel für Bibliotheken angesehen, ihr öffentliches Bild durch ihre eigenen Bemühungen und Interaktionen mit der Öffentlichkeit wieder aufzubauen. Allerdings untersuchen die bisherigen Studien das Thema meist aus der Perspektive des Bibliothekspersonals, selten jedoch aus der Perspektive der Leser. Dieser Artikel untersuchte den Bedarf der Leser an Bibliotheksdiensten und erstellte ein Modell der Bedarfshierarchie der Leser. Wir untersuchten auch eine Methode, um ein positives Image für Bibliotheken aus der Perspektive der Leserwünsche aufzubauen, und entwickelten das Modell der Imagebildung für öffentliche Bibliotheken. Wir hofften, einen neuen Ansatz zu bieten, um die Bedürfnisse der Leser an die Bibliothek zu verstehen, sowie einen neuen Blick auf die Bildkonstruktion von Bibliotheken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71305-8_41 621794f2c5078193769609fac610a67e;de;;;3.4.;6.4.;3.1.;Zeitalter zitierter Referenzen und wachsender wissenschaftlicher Erkenntnisse: eine Explikation der Gammaverteilung in Wirtschafts- und Managementdisziplinen Ziel dieser Studie war es, die Gammaverteilung als Modell der Altersverteilung zitierter Referenzen in Korpora der wissenschaftlichen Literatur zu bewerten und aus den Parametern der Verteilungen Rückschlüsse abzuleiten. Das Alter der zitierten Referenzen in 2867 Artikeln, die in 40 renommierten Zeitschriften in den Bereichen Rechnungswesen, Wirtschaft, Finanzen, Management, Marketing, Betriebs- und Informationssysteme, Organisationsverhalten und Personalwesen veröffentlicht wurden, wurde analysiert. Die Altersverteilungen der zitierten Referenzen in jedem Themenbereich wurden an Gammaverteilungen angepasst, wobei die Parameter unter Verwendung der Minimalabstandsschätzung geschätzt wurden. Im Gegensatz zu vorhandener Literatur zeigt sich für alle Themenbereiche der Studie, dass die Anpassungsgütestatistiken für Gammaverteilungen denen für Lognormalverteilungen überlegen waren. Die Wissenszuwachsrate und der zeitliche Verlauf des Wissenszuwachses werden aus den Parametern der Gammaverteilungen abgeleitet und differenzieren die Fachgebiete. Die Längsschnittanalyse zeigt, dass die Gammaverteilungsmodelle stabil sind, veranschaulichen jedoch die Entwicklung spezifischer Literaturkorpora im Laufe der Zeit. Die Parameter der Gammaverteilung und abgeleiteten Metriken können diagnostisch und deskriptiv verwendet werden, um Literaturkorpora zu charakterisieren oder prospektiv, um Normen, Erwartungen und Kriterien für neue Forschungen festzulegen. Die Ergebnisse haben Auswirkungen auf zukünftige bibliometrische Studien, Autoren, Herausgeber, Gutachter und Wissensforscher. Durch diesen neuartigen bibliometrischen Ansatz werden Möglichkeiten zur weiteren Forschung und zur Überprüfung der bisherigen Forschung geschaffen.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03761-6 dbc48d2bad246222516235d8aa025bd0;de;;;3.4.;6.4.;3.1.;Eine serviceorientierte Infrastruktur für Early Citation Management Die Zitationsanalyse erfordert eine tiefgreifende Transformation. Aktuelle Systeme stehen seit langem aufgrund von Mängeln wie fehlender Abdeckung und geringer Genauigkeit der Zitationsdaten in der Kritik. Überraschenderweise werden falsche oder unvollständige Daten verwendet, um wichtige Entscheidungen über die Karriere von Forschern zu treffen. Wir argumentieren, dass ein neuer Ansatz, der auf der Sammlung von Zitationsdaten basiert, wenn diese tatsächlich generiert werden (d sowie Nutznießer eines Global Citation Registry, das sich durch hochwertige Zitationsdaten auszeichnet. Das Register wird allen interessierten Parteien zugänglich sein und die Quelle sein, auf die die verschiedenen Wirkungsmodelle angewendet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87599-4_17 ccdb30d8a049445209881f9889d7eb7f;de;;;3.4.;6.4.;3.1.;Messen aktuelle radikale Innovationsmaßnahmen tatsächlich radikale Arzneimittelinnovationen? Bis heute herrscht in der Literatur wenig Einigkeit darüber, was genau eine radikale Arzneimittelinnovation ausmacht und wie dieses wichtige Konstrukt richtig zu messen ist. Ohne eine validierte Maßnahme ist unsere Fähigkeit, radikale Arzneimittelinnovationen zu verstehen, ihre Ursprünge zu erklären und ihre Auswirkungen auf Management und Gesundheitspolitik aufzuzeigen, begrenzt. Dieser Beitrag befasst sich mit der Problematik der Messung radikaler Arzneimittelinnovationen, weist die Grenzen des aktuellen Stands der Technik nach und bietet eine neue Methode auf Basis des deutschen Health Technology Assessments (HTA). Von 2011 bis 2016 wurden Daten zu 147 von der Europäischen Arzneimittel-Agentur zugelassenen Arzneimitteln erhoben. Die Innovationskraft dieser Arzneimittel wurde anhand aktueller Messgrößen der radikalen Arzneimittelinnovation im Vergleich zur neu entwickelten Messgröße bewertet. Die Ergebnisse deuten darauf hin, dass aktuelle Messgrößen für radikale Arzneimittelinnovationen mit sehr inkonsistenten Ergebnissen verbunden sind und nicht das zu messen scheinen, was sie zu messen vorgeben. In dieser Studie wird argumentiert, dass die Bewertung des therapeutischen Werts (gemessen durch die deutsche HTA) besonders wichtig ist, da die Neuheit von Arzneimitteln allein nicht schlüssig anzeigt, ob ein Arzneimittel einen therapeutischen Wert bietet.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03778-x f44a6545e8686d898f039cece343feaf;de;;;3.4.;6.4.;3.1.;Ökonometrische Analyse biomedizinischer Forschungspublikationsmuster Es wurde ein ökonometrisches Modell entwickelt, das den Zusammenhang zwischen biomedizinischer Förderung des Bundes und Anzahl, Fachgebiet und Forschungsniveau (klinisch bis grundlegend) der in biomedizinischen Zeitschriften veröffentlichten Artikel beschreibt. Die Studie umfasste die biomedizinische Finanzierung des Bundes im Zeitraum 1962–1979 und die Zählung der biomedizinischen Literatur im Zeitraum 1965–1979. Eine Besonderheit des Modells war die explizite Einbeziehung der zitationsbasierten Zusammenhänge zwischen den verschiedenen Teilgebieten und Forschungsebenen der Biomedizin.;-;-;-;https://link.springer.com/article/10.1007/BF02020141 62abdf847e2c55fd89ff78161708e7a1;de;;;3.4.;6.4.;3.1.;Die Herausforderung, das Unbekannte zu zeigen und zu diskutieren In den letzten 50 Jahren haben sich Wissenschaft und Technologie mit einer beispiellosen Geschwindigkeit weiterentwickelt. Dies hat dazu geführt, dass die Öffentlichkeit von der Wissenschaft überwältigt wurde und so Verwirrung und Desinteresse verbreitet wurden. Das National Museum of Emerging Science and Innovation (Miraikan) wurde vor vier Jahren in Japan gegründet, um eine Brücke zwischen der für die Öffentlichkeit verwirrenden Welt der Forschung, Wissenschaft und Technologie und den Menschen zu schlagen. Wissenschaftsmuseen konzentrieren sich traditionell auf das öffentliche Verständnis von Wissenschaft (PUS), das etabliertes wissenschaftliches Wissen präsentiert und Anwendungen der Wissenschaft in der Vergangenheit untersucht. Im Gegensatz zu PUS konzentriert sich Miraikan auf das öffentliche Verständnis von Forschung (PUR), das die Forschung im Unbekannten untersucht. PUR muss eine fortlaufende Präsentation sein, die der Forschung folgt, während sie sich entwickelt. Die zukünftigen Auswirkungen und Anwendungen der Forschung werden diskutiert und der Prozess, einschließlich negativer und positiver Aspekte, der Forschung in ihrem Verlauf dargestellt. Es ermöglicht der Öffentlichkeit, mit den Wissenschaftlern in einen Dialog zu treten und diesen Feedback zu geben. Als Basis für die PUR-Aktivitäten in Japan nimmt Miraikan eine wichtige Rolle ein. Sie organisiert beispielsweise spezielle „Live-Talk“-Veranstaltungen, bei denen junge und aufstrebende Wissenschaftlerinnen und Wissenschaftler die Möglichkeit haben, mit Studierenden über ihre Arbeit zu sprechen. Solche Aktivitäten fördern die Interaktion zwischen Wissenschaftlern/Forschern und der Öffentlichkeit und wecken das gesellschaftliche Interesse an Wissenschaft und Technik;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-5358-4_21 d1e3ec00459828754ba3f79f1d1a4f8a;de;;;3.4.;6.4.;3.1.;Ein struktureller Themenmodell-Ansatz zur wissenschaftlichen Neuorientierung der Wirtschaftswissenschaften und der Chemie nach der deutschen Wiedervereinigung Das Auffinden von Unterschieden oder Gemeinsamkeiten in einer Vielzahl wissenschaftlicher Publikationen ist ein offenes Problem in der szientometrischen Forschung. In diesem Beitrag entwickeln und wenden wir daher einen maschinellen Lernansatz basierend auf struktureller Themenmodellierung in Kombination mit Kosinusähnlichkeit und einem linearen Regressionsrahmen an, um Unterschiede in den Dissertationstiteln an ost- und westdeutschen Universitäten vor und nach der deutschen Wiedervereinigung zu identifizieren. Die deutsche Wiedervereinigung und ihr umgebender Zeitraum wird verwendet, weil sie eine Struktur mit kleinen und großen Unterschieden in den Forschungsthemen bietet, die mit unserem Ansatz erkannt werden konnten. Unser Datensatz basiert auf Dissertationstiteln der Wirtschaftswissenschaften und der Chemie von 1980 bis 2010. Anhand der Hochschulzugehörigkeit und des Dissertationsjahrs trainieren wir ein strukturelles Themenmodell und testen das Modell dann an einer Reihe von nicht gesehenen Dissertationstiteln. Anschließend vergleichen wir die resultierende Themenverteilung jedes Titels mit jedem anderen Titel mit Kosinusähnlichkeit. Die Kosinusähnlichkeiten und die regionale und zeitliche Herkunft der Dissertationstitel, aus denen sie stammen, werden dann in einem linearen Regressionsansatz verwendet. Unsere Ergebnisse zu volks- und betriebswirtschaftlichen Forschungsthemen legen erhebliche Unterschiede zwischen Ost- und Westdeutschland vor der Wiedervereinigung und einer raschen Anpassung danach nahe. In der Chemie beobachten wir vor der Wiedervereinigung geringfügige Unterschiede zwischen Ost und West und danach eine leicht erhöhte Ähnlichkeit.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03640-0 cc6497c93fbb0ab101dc9338347e104a;de;;;3.4.;6.4.;3.1.;Bibliometrische Untersuchung von Forschung und Entwicklung für vernachlässigte Krankheiten in den BRICS Viele Menschen leiden an einer Gruppe von Krankheiten, die hauptsächlich Entwicklungsländer betreffen, da es keine verfügbaren oder bezahlbaren Produkte zur Prävention oder Behandlung gibt. Forschung und Entwicklung (FuE) für diese Krankheiten haben auf der Gesundheitsagenda noch immer eine geringe Priorität. Brasilien, Russland, Indien, China und Südafrika (BRICS) sind schnell wachsende Volkswirtschaften und haben immer mehr positive Auswirkungen auf die globale Gesundheit. Darüber hinaus wird angenommen, dass ihre F&E-Kapazität durch jahrzehntelange Investitionen in Bildung und biowissenschaftliche Forschung verbessert wird. Von den BRICS als Gruppe von Schwellen- und Entwicklungsländern wird erwartet, dass sie einen größeren Beitrag zur Lösung des Problems leisten, das hauptsächlich die gesamte Entwicklungsländergemeinschaft betrifft. Es gibt jedoch nur wenige Untersuchungen, um einen makroskopischen Überblick über die Bemühungen der BRICS in der Forschung und Entwicklung für vernachlässigte Krankheiten zu geben. Ziel dieser Studie ist es, die wissenschaftliche Produktion in den BRICS-Staaten in diesem Bereich und deren Forschungsschwerpunkte zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s40249-016-0182-1 d0f80fc23118cfee6e00a8f3cba4f5c9;de;;;3.4.;6.4.;3.1.;Zum Scheitern der wissenschaftlichen Forschung: eine Analyse der von den US-amerikanischen National Institutes of Health finanzierten SBIR-Projekte Das Small Business Innovation Research (SBIR)-Programm ist die Hauptquelle der öffentlichen Finanzierung in den Vereinigten Staaten für die Forschung kleiner Unternehmen zu neuen Technologien, und die National Institutes of Health (NIH) leisten einen wichtigen Beitrag zu dieser Finanzierungsagenda. Obwohl frühere Forschungen die Determinanten des Forschungserfolgs für NIH-SBIR-Projekte untersucht haben, ist wenig über die Determinanten des Scheiterns von Projekten bekannt. Dieses Papier liefert wichtige, neue Beweise für die Merkmale von NIH-SBIR-Projekten, die scheitern. Konkret stellen wir fest, dass Firmen, die einen Gründer mit betriebswirtschaftlichem Hintergrund haben, seltener ihre geförderten Projekte scheitern lassen. Wir stellen auch fest, dass nach Prüfung des endogenen Charakters von Unternehmen im Besitz von Frauen, dass solche Unternehmen auch weniger wahrscheinlich scheitern.;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2353-7 de7016d6b16ff0ef6a4c2e0034a0c3a2;de;;;3.4.;6.4.;3.1.;Messmerkmale wissenschaftlicher Forschung: Ein Vergleich von bibliografischen und Umfragedaten Drei Merkmale der wissenschaftlichen Forschung (Gegenstand, institutionelle Sektoren der Forscher und Finanzierungsquellen) wurden anhand von bibliografischen Daten und Umfragedaten aus einer Studie über die Forschung zu restaurativen Dentalmaterialien verglichen. Beide Arten von Daten lieferten ähnliche Ergebnisse zur Verteilung der Forschung auf die Fachgebiete und zur Verteilung der Forscher in Regierungs-, Hochschul- und Industriesektoren. Die Feststellungen zu den Quellen der Forschungsförderung waren jedoch unterschiedlich und die universitäre Forschungsförderung wurde in den bibliographischen Daten nicht ausreichend ausgewiesen. Im Allgemeinen ergaben Daten zu Publikationen (aus bibliografischen Dateien oder Umfragen) niedrigere Schätzungen der industriellen Beteiligung an der Forschung als Daten zu Projekten.;-;-;-;https://link.springer.com/article/10.1007/BF02017915 70dda3a1e1f8e6b73f29a57f6b9fcb4d;de;;;3.4.;6.4.;3.1.;Alles über Gene: Einige Ergebnisse zur Dynamik der Genomforschung In dieser Studie werden einige neue Indikatoren und Publikationsdatenquellen untersucht, um die Dynamik der Genomforschung auf drei verschiedenen Ebenen zu untersuchen: weltweit, national und an einzelnen Forschungszentren. Unsere Ergebnisse deuten darauf hin, dass sich das Wachstum der Genomforschung weltweit zu stabilisieren scheint, während die Genomforschung in den Niederlanden darauf abzielt, sich auf den nächsten Schritt vorzubereiten. Da auf Ebene der einzelnen Forschungszentren Unterschiede in der Forschungsdynamik festgestellt werden, könnte eine staatliche Förderung in einem „nächsten Schritt“ diesen Unterschieden Rechnung tragen. Zu diesem Zweck stellen wir ein allgemeines Modell der Forschungsdynamik und des Timings des Forschungsmanagements vor, das auf Ideen von Price und Bonaccorsi aufbaut. Basierend auf diesem Modell wird ein Rahmen zur Diskussion von Steuerungsoptionen in Bezug auf die Forschungsdynamik vorgestellt. Wir wenden diesen Rahmen auf Forschungszentren der Netherlands Genomics Initiative (NGI) an und diskutieren die Ergebnisse.;-;-;-;https://link.springer.com/article/10.1007/s11192-009-0404-4 224e556de698ae83390364e0a8fed5a2;de;;;3.4.;6.4.;3.1.;Eine vergleichende Analyse globaler und nationaler Hochschulrankingsysteme Das jüngste Interesse an Hochschulrankings hat zur Entwicklung mehrerer Rankingsysteme auf nationaler und globaler Ebene geführt. Globale Ranglistensysteme stützen sich in der Regel auf international zugängliche bibliometrische Datenbanken und Reputationserhebungen, um Ranglisten auf globaler Ebene zu entwickeln. Aufgrund ihres Zugangs und ihrer fundierten Kenntnisse über lokale Institutionen enthalten nationale Rankingsysteme tendenziell einen umfassenderen Satz von Indikatoren. Ziel dieser Studie ist ein systematischer Vergleich nationaler und globaler Hochschulrankingsysteme hinsichtlich ihrer Indikatoren, Reichweite und Rankingergebnisse. Unsere Ergebnisse zeigen, dass nationale Rankings tendenziell eine größere Anzahl von Indikatoren enthalten, die sich hauptsächlich auf Bildungs- und institutionelle Parameter konzentrieren, während globale Rankingsysteme tendenziell weniger Indikatoren enthalten, die sich hauptsächlich auf die Forschungsleistung konzentrieren. Rangähnlichkeitsanalysen zwischen nationalen Rankings und globalen Rankings, die für jedes Land gefiltert wurden, legen nahe, dass globale Rankings mit Ausnahme einiger Fälle die nationalen Rankings nicht stark vorhersagen.;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1586-6 b2d95aa4427e31ec80a06d83e5db70a3;de;;;3.4.;6.4.;3.1.;Eine Bewertung der Qualität von Buchhaltungsjournalen basierend auf Abteilungslisten Der Karriereerfolg von Akademikern hängt zwangsläufig teilweise von den Zeitschriften ab, in denen ihre Manuskripte veröffentlicht werden. Dementsprechend ist es für einen Akademiker von entscheidender Bedeutung, zu wissen, welche Zeitschriften als prestigeträchtig oder von zweifelhafter Qualität gelten. Glücklicherweise wurden mehrere Rankings von Buchführungszeitschriften veröffentlicht, die den Autoren von Manuskripten Einblicke geben, und diese Studie enthält eine Diskussion mehrerer früherer Studien, die mit verschiedenen Methoden versucht haben, die Qualität von Buchführungszeitschriften genau zu vergleichen. Kritisch wird in dieser Studie aber auch eine Befragung von akkreditierten Business Schools beschrieben, die ihre Fachzeitschriftenlisten eingereicht haben, die von diesen Institutionen zur Bewertung von Fakultätspublikationen herangezogen wurden. Diese abteilungsspezifischen Zeitschriftenlisten mit mehreren Qualitätsstufen wurden verwendet, um ein Zeitschriftenranking zu erstellen, das auf der bewertenden, abteilungsbezogenen Realität basiert, mit der Akademiker konfrontiert sind, anstatt auf Zitationszahlen oder ausgedrückten Wahrnehmungen von Zeitschriften. Während das Zeitschriftenranking dieser Studie eine Übereinstimmung mit vielen früheren Studien zu den fünf führenden Buchführungsjournalen zeigt, zeigt die Studie auch, dass Zeitschriftenlisten der Abteilungen, die die Prioritäten der Schulen widerspiegeln, die sie erstellt haben, der Vielfalt der Zeitschriften oft einen Wert beimessen die sich auf Spezialisierungen, nicht aber auf Zeitschriften konzentrieren, die sich überwiegend an Rechnungslegungspraktiker richten.;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1353-0 b023ea39ab90570163648d300d21f043;de;;;3.4.;6.4.;3.1.;Das Rankingproblem der akademischen Zeitschriften: Ein Fuzzy-Clustering-Ansatz Das Academic Journal Ranking Problem besteht darin, eine formale Bewertung wissenschaftlicher Zeitschriften zu formulieren. Es muss eine Ergebnisvariable konstruiert werden, die einen gültigen Journalvergleich ermöglicht, entweder als Satz von Ebenen (geordnete Klassen) oder als numerischer Index. Ein Teil des Problems besteht jedoch auch darin, ein Verfahren zu entwickeln, um dieses Ergebnis zu erhalten, dh wie man relevante Daten aus Expertenmeinungen oder einer Zitationsdatenbank erhält und verwendet. Wir schlagen einen neuartigen Ansatz für das Problem vor, der die Fuzzy-Cluster-Analyse auf Peer-Reviews und Meinungsumfragen anwendet. Das Verfahren besteht aus zwei Schritten: Zum einen werden die relevantesten qualitativen Bewertungen internationaler Organisationen (zum Beispiel die in der Harzing-Datenbank verfügbaren) gesammelt und als;-;-;-;https://link.springer.com/article/10.1007/s00357-011-9072-1 38560ca572a501ee8b6d5d9ce12b6b35;de;;;3.4.;6.4.;3.1.;Statistische Zusammenhänge zwischen Zeitschriftennutzung und Forschungsleistung an wissenschaftlichen Einrichtungen in Südkorea In dieser Studie haben wir den statistischen Zusammenhang zwischen der Nutzung von E-Journals und Forschungsergebnissen auf institutioneller Ebene in Südkorea analysiert, indem wir vergleichende und diachrone Analysen sowie die Analyse nach Fachgebieten durchgeführt haben. Die Datensätze wurden aus vier verschiedenen Quellen zusammengestellt: nationale Berichte zu Forschungsleistungsindikatoren in Wissenschaftsbereichen, zwei öffentlich zugängliche Statistikdatenbanken zu Hochschuleinrichtungen und Statistiken zur Nutzung elektronischer Zeitschriften von 47 großen Verlagen. Aufgrund der unterschiedlichen verwendeten Datenquellen traten in unseren Datensätzen eine beträchtliche Anzahl fehlender Werte auf und verschiedene Kartierungsprobleme mussten vor der Analyse korrigiert werden. Zwei Techniken zum Umgang mit fehlenden Daten wurden angewendet und die Auswirkungen jeder Technik wurden diskutiert. Um die institutionellen Daten nach Fachgebieten zusammenzustellen, wurden zunächst Zeitschriften kartiert und dann die Statistiken nach Fachgebieten zusammengefasst. Wir beobachteten, dass die E-Journal-Nutzung stärkere Korrelationen mit der Anzahl der Publikationen und den zitierten Zeiten aufwies, im Gegensatz zur Anzahl der Studierenden, Absolventen, Fakultätsmitglieder und der Höhe der Forschungsgelder, und dies unabhängig von der NA-Handhabungsmethode oder Autorentyp. Der Unterschied zwischen der maximalen Korrelation für die Höhe der externen Forschungsförderung mit zwei durchschnittlichen Indikatoren und der Korrelation für die E-Journal-Nutzung war nicht signifikant. Statistisch gesehen war die Rechenschaftspflicht der E-Journal-Nutzung für die durchschnittlichen Zitierungszeiten pro Artikel und die durchschnittliche JIF bei externen Forschungsmitteln recht ähnlich. Es wurde festgestellt, dass die Anzahl der verwendeten E-Journal-Artikel stark positiv korreliert (Pearsons Korrelationskoeffizienten von;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1563-0 678e9ceb62845908dd8c62f2f5b5dfce;de;;;3.4.;6.4.;3.1.;Szientometrische Analyse der Tollwutforschungsliteratur in Indien: 1950–2014 Diese Studie analysiert die indischen Forschungsergebnisse zu Tollwut, einer der anfälligsten Zoonoseerkrankungen in Indien. Die Daten für diese Studie wurden aus der PubMed-Datenbank für den Zeitraum 1950–2014 heruntergeladen. Eine Gesamtzahl von 495 Datensätzen, die während des Studienzeitraums in der Datenbank erfasst wurden. In der Studie werden das Literaturwachstum, Indiens Beitrag im Vergleich zur Weltliteraturproduktion, produktive Autoren und ihr Kooperationsmuster, die Zeitschriftenverteilung, die produktivste Institution und die geografische Verteilung diskutiert. ‘;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1694-3 66f61984a3eeb28cd07953120cb62a7a;de;;;3.4.;6.4.;3.1.;Nachhaltige Wirkung der Veröffentlichungen von C.V. Raman LEBENSLAUF. Raman wird von der weltweiten Physik-Community für seine klassischen Werke anerkannt. Die vorliegende Studie hat sich bemüht, zu analysieren, wie viel Einfluss die Zahl der Zitationen für seine Publikationen hat. Natürlich fehlte es vor einigen Jahren an Werkzeugen für eine solche Studie. Die Studie beschränkt sich auf die Datenbank Science Citation Index für den Zeitraum 1982–2005. Die bemerkenswerten Ergebnisse sind: Ein Drittel seiner Forschungsarbeiten wurde mindestens einmal zitiert, Die in den Jahren 1918-1940 veröffentlichten Forschungsarbeiten konnten bemerkenswerte Auswirkungen haben, Drei seiner Arbeiten zeigten einen Anstieg der Zahl der eingegangenen Zitationen, Die Gesamtzahl der Zitationen auf Aufsätze im Alter von 46 und 54 Jahren im Jahr 1982 machten mehr als 50 Prozent aller eingegangenen Zitierungen aus und analysiert, um die wahre Wirkung seiner Werke zu verstehen.;-;-;-;https://link.springer.com/article/10.1007/s11192-008-1937-7 d0298d684fa4be7035ae323ca8b4faef;de;;;3.4.;6.4.;3.1.;Modellierung und Simulation als wissenschaftliche Disziplin einordnen Das Wissen über Modellierung und Simulation (M&S) stammt aus einer Vielzahl von Konstituenten: (1) Praktikern und Anwendern, (2) Werkzeugentwicklern und (3) Theoretikern und Methodikern. Frühere Arbeiten haben gezeigt, dass die Kategorisierung von M&S als Konzentration in einem bestehenden, breiteren Jünger unzureichend ist, da sie keine einheitliche Grundlage für Forschung und Lehre über alle Institutionen hinweg bietet. Dieser Artikel stellt einen Ansatz zur Einordnung von M&S als wissenschaftliche Disziplin und einen Rahmen für die anschließende Analyse vor. Die Neuheit des Ansatzes liegt in der Anwendung der maschinellen Lernklassifikation auf Dokumente mit unstrukturiertem Text (z. Wir zeigen, dass Klassifikationsmodelle für maschinelles Lernen trainiert werden können, um M&S von verwandten Disziplinen mithilfe der Abstracts von gut indexierten Forschungspublikationsrepositorien genau zu trennen. Wir bewerten die Genauigkeit unserer trainierten Klassifikatoren mittels Cross-Fold-Validierung. Anschließend demonstrieren wir, dass unsere geschulten Klassifizierer eine Reihe von zuvor nicht gesehenen M&S-Finanzierungsanträgen und Zuschussanträgen effektiv identifizieren können. Schließlich nutzen wir unseren Ansatz, um neue Fördertrends im Bereich M&S aufzudecken und eine einheitliche Grundlage für Bildung und Forschung zu unterstützen.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-2050-y b1fedadb5691162ac8d7f5583dcf0503;de;;;3.4.;6.4.;3.1.;Bibliometrische Analyse zum Studium der Bildungsinformatisierung Um den Forschungsstand der Bildungsinformatisierung in China zu meistern, wurden 2.892 Arbeiten in der CNKI-Datenbank aus den Jahren 1995 bis 2012 durchkämmt und nach den Dimensionen Papiermenge pro Jahr, Autor, Institution usw. analysiert. Nach einer bibliometrischen Analyse stellte die Studie fest, dass eine solche Studie die Anfangs- und Akkumulationsperiode durchlaufen hatte und sich jetzt in der Entwicklungsphase befindet. Der Kern der Forschergruppe ist noch nicht reif, was den Forscherinnen und Forschern auf diesem Gebiet deutlich an nachhaltigem und tiefgründigem Geist fehlt. Verschiedene Arten von Projektmitteln zur Förderung der Bildungsinformatisierung fördern die Forschung auf diesem Gebiet.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_85 1ed959d2ddd7ab60cb00bc0e46326c97;de;;;3.4.;6.4.;3.1.;Analyse der Publikationsqualität in einem Krebsforschungsinstitut Der Artikel präsentiert eine experimentelle Methode zur Bewertung wissenschaftlicher Arbeiten im Bereich der Onkologie und verwandter Disziplinen, die am Nationalen Institut für Krebsforschung (IST), Genua, Italien, entwickelt wurde. Die Methode basiert auf der Aufteilung der Kategorien der;-;-;-;https://link.springer.com/article/10.1007/BF02457413 e1b31131acd29d941f14ccb48319fa1b;de;;;3.4.;6.4.;3.1.;Wissenschaft an der Peripherie: eine Zitationsstudie zu drei weniger entwickelten Ländern Berücksichtigt werden die wissenschaftlichen Interaktionen dreier peripherer Nationen in Bezug auf Zitate und Verweise auf wissenschaftliche Literatur. Die ausgewählten Nationen sind Argentinien, Brasilien und Norwegen, wobei jede wissenschaftliche Einrichtung viel kleiner ist als die der zentralen oder großen wissenschaftlichen Nationen. Diese drei Nationen zitieren Veröffentlichungen der Zentralnationen stark im Vergleich zu denen ihres eigenen Landes. Von den Zitationen zu den Veröffentlichungen dieser drei Länder wird der Großteil aus dem jeweiligen Land generiert. Es gibt vergleichsweise wenig Interaktion mit Nachbarn. Es sind weitere Arbeiten erforderlich, um festzustellen, ob diese Muster für die meisten Peripherieländer existieren.;-;-;-;https://link.springer.com/article/10.1007/BF02016310 83d28e138d85d0a9d6ae2f7d32a6bfdf;de;;;3.4.;6.4.;3.1.;Den indirekten gesellschaftlichen Auswirkungen biomedizinischer Forschung auf die Spur kommen: Entwicklung und Pilotierung einer auf Zitaten basierenden Technik Es besteht ein wachsendes Interesse daran, die gesellschaftlichen Auswirkungen der Forschung zu bewerten, beispielsweise die Gesundheitspolitik und die klinische Praxis zu informieren und zu einer verbesserten Gesundheit beizutragen. Bibliometrische Ansätze werden seit langem zur Bewertung von Wissensergebnissen verwendet, aber können sie auch helfen, gesellschaftliche Auswirkungen zu bewerten? Wir wollten herausfinden, inwieweit die gesellschaftlichen Auswirkungen verfolgt werden können, indem wir wichtige Forschungsartikel im Bereich Psychiatrie/Neurowissenschaften identifizierten und ihre gesellschaftlichen Auswirkungen durch die Analyse mehrerer Generationen von Zitierpapieren untersuchten. Ausgehend von einer Literaturrecherche zur Zitationskategorisierung entwickelten wir eine prototypische Vorlage zur qualitativen Bewertung der Bedeutung einer Referenz für das zitierende Paper und testeten es an 96 Papers. Wir haben die Vorlage für eine Pilotstudie verfeinert, um die Bedeutung von Zitaten, einschließlich Selbstzitaten, auf vier zentrale Forschungsartikel zu bewerten. Anschließend bewerteten wir die Zitationen ähnlich wie die zitierten Artikel, bei denen der Schlüsselartikel zentral war, d. h. er war sehr wichtig für die Botschaft des zitierenden Artikels. Wir haben einen Filter von drei oder mehr Zitiergelegenheiten angewendet, um uns auf die Zitierartikel zu konzentrieren, bei denen die Referenz am wahrscheinlichsten zentral war. Wir fanden heraus, dass die Referenz für 4,4 % der Zitierung von Forschungsartikeln insgesamt zentral war und zehnmal häufiger, wenn der Artikel drei oder mehr Zitierungsgelegenheiten enthielt. Wir haben für jedes wichtige Papier einen Zitationsstrom mit Einfluss auf bis zu fünf Zitationsgenerationen erstellt. Wir durchsuchten das Web of Science nach Zitaten zu allen Central Papers und identifizierten gesellschaftliche Auswirkungen, einschließlich internationaler klinischer Leitlinien, in denen Papers über Generationen hinweg zitiert wurden.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-1895-4 367c15b4ae160b661dcfc1e01969accd;de;;;3.4.;6.4.;3.1.;Szientometrics of Big Science: eine Fallstudie der Forschung im Sloan Digital Sky Survey Wissenschaftliche Großprojekte sind ein wichtiger Impulsgeber für den wissenschaftlichen Fortschritt. Aber nur wenige Studien haben speziell analysiert, wie diese Projekte die wissenschaftliche Forschung stärken. Wir gehen dieser Frage aus einer szientometrischen Perspektive nach. Durch die Analyse der bibliografischen Aufzeichnungen von Veröffentlichungen, die für den Sloan Digital Sky Survey (SDSS) relevant sind, stellten wir fest, dass der SDSS Wissenschaftlern aus vielen Ländern dabei half, ihre eigene Forschung weiterzuentwickeln Autoren und die Zahl der Forschungsthemen ist gestiegen, aber die Themenvielfalt bleibt stabil. Darüber hinaus hat sich die Entropieanalysemethode bei der Analyse von Mustern von Forschungsthemen auf makroskopischer Ebene bewährt.;-;-;-;https://link.springer.com/article/10.1007/s11192-010-0318-1 6e5298d1b477f085c03a4d686fb07618;de;;;3.4.;6.4.;3.1.;Untersuchung von wissenschaftlichen Impact-Metriken bei Erhalt hoch angesehener Auszeichnungen Die maßgeblichen Daten, die den Systemen des Forschungsinformationsmanagements (RIM) zugrunde liegen, unterstützen feinkörnige Analysen der Forschungspraktiken und Ergebnisse der Fakultätsmitglieder, datengesteuerte Entscheidungsfindung und organisatorisches Forschungsmanagement. Administratoren der Texas A&M University (TAMU) baten die Universitätsbibliotheken, institutionelle Berichte zu erstellen, die die Forschungspraktiken der Fakultät beschreiben und ihre Forschungsstärken identifizieren. Die Bibliothek betreibt Scholars@TAMU (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-15742-5_13 83b7a7600dc5b4e608ce4386d1b7a912;de;;;3.4.;6.4.;3.1.;Neuinterpretation des akademischen Publizierens aus der Perspektive der Wissenschaft in Australien Das wissenschaftliche Publizieren, das in Stipendien aus der Perspektive der Industrie diskutiert wird, wird neu konzipiert, um das wissenschaftliche Publizieren aus der Perspektive von Akademikern zu erkunden. Das wissenschaftliche Publizieren ist ein „Kommunikationskreislauf“, in dem die Rollen der unterschiedlichen Akteure – Regierung, Universitäten, Verlage und Bibliotheken – nicht nur von Bedeutung sind, sondern auch von den Wissenschaftlern eingehalten werden müssen. Die Bedeutung von Forschungspublikationen aufgrund verschiedener Faktoren, wie leistungsbasierter Ansatz bei der Vergabe von Forschungsstipendien, universitäre Publikationspolitik, die zur Besetzung von Wissenschaftlern beiträgt, erfordert eine sorgfältige Analyse zum Verständnis des Bereichs des wissenschaftlichen Publizierens. Ein ganzheitlicher Ansatz aus der Verwendung der Sozialtheorien ist die Quintessenz für die Untersuchung des wissenschaftlichen Publikationsumfelds, das die Rolle der Hochschulen und ihre Richtlinien einprägt. Dieser Artikel stellt anhand einer Neuinterpretation des Bereichs der wissenschaftlichen Veröffentlichungen fest, dass, obwohl wissenschaftliche Verlage global sind, die Veröffentlichungspraktiken von Wissenschaftlern in jedem Land unterschiedlich sind, da Wissenschaftler von den Interessengruppen, nämlich Universitäten und Regierungen, abhängig sind.;-;-;-;https://link.springer.com/article/10.1007/s12109-019-09690-4 a93c5a6c92575a50ed2e1ec19968f82e;de;;;3.4.;6.4.;3.1.;Modellierung der dynamischen Beziehung zwischen Wissenschaft und Technologie in der Nanotechnologie Die Nanotechnologie ist ein vielversprechender Forschungsbereich mit Potenzial und enormem wirtschaftlichen Wert. Es ist weithin anerkannt, dass die Nanotechnologie als ein aufstrebendes und sich schnell entwickelndes Gebiet mit multidisziplinärem Charakter als naheliegende Gebiete von Wissenschaft und Technologie wahrgenommen wird. Diese Studie liefert eine weitere Beschreibung der Beziehung zwischen Wissenschaft und Technologie auf Makroebene. Das Kernziel dieser Arbeit ist es, die dynamischen Zusammenhänge zwischen wissenschaftlicher Aktivität und technologischem Output zu qualifizieren und zu bewerten. Wir versuchen zu veranschaulichen, wie Wissenschaft und Technik am Innovationssystem zueinander stehen. In diesem Beitrag nutzen wir das Simultangleichungsmodell, um die wechselseitige Abhängigkeit zwischen Wissenschaft und Technologie zu analysieren. Frühere Studien zum Verhältnis von Wissenschaft und Technik übernehmen dieses Modell nur selten. Unser Ergebnis zeigt, dass kein signifikanter Zusammenhang zwischen F&E-Ausgaben und tatsächlicher Forschungspraxis in Bezug auf Publikationen und Patente für die Universitäten in Zone 1 und 2 besteht F&E-Aufwendungen, um eine optimale Ressourcenallokation zu erzielen und maximale Ergebnisse mit geringem Aufwand für wissenschaftliche Forschungs- und Innovationsleistung zu erzielen.;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0520-9 dc1f361b70268ce8e0e7935aa7792ffe;de;;;3.4.;6.4.;3.1.;Zu den Daten und Analysen des Forschungsoutputs von Indien und China: Indien ist deutlich hinter China zurückgefallen Es wird eine Analyse der Zahl der Forschungsarbeiten aus Indien und China in den Bereichen Natur- und Ingenieurwissenschaften zwischen 1975 und 2012 vorgestellt. Die Ergebnisse zeigen, dass die indische Forschungsleistung zwar stetig zugenommen hat, die chinesische Forschungsleistung jedoch weitaus schneller gestiegen ist als die indische. Die Forschungsleistung Chinas hat mit deutlichen Wendepunkten zugenommen, die eine Beschleunigung des Produktionswachstums zeigen. Die Forschungsergebnisse für Indien zeigen periodische Wendepunkte, die entweder eine Beschleunigung oder Verlangsamung des Produktionswachstums zeigen. Die möglichen Gründe für die Wendepunkte werden diskutiert. Zur Analyse der Output-Trends werden einfache statistische Analysen verwendet. Obwohl mehrere Faktoren die Forschungsleistung eines Landes beeinflussen, wird in diesem Papier hervorgehoben, dass die staatlichen Programme zur Steigerung der Forschungsleistung von Universitäten Wendepunkte schaffen können, die zu einer schnellen Steigerung der Forschungsleistung führen. Der Artikel unterstreicht auch, dass Indien in Bezug auf die wissenschaftliche und technische Forschungsleistung weit hinter China zurückgefallen ist, was wichtige Hinweise für das zukünftige Wachstum der beiden Länder liefert.;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1236-4 1a68ec6b8809b974cb975a16e4e4f4a5;de;;;3.4.;6.4.;3.1.;Die Zitierwirkung von geförderter und nicht geförderter wirtschaftswissenschaftlicher Forschung Wird Forschung, die gefördert wird, häufiger zitiert als nicht finanzierte Forschung? Die Antwort auf diese Frage für die Wirtschaftswissenschaften ist – zumindest versuchsweise – bejahend. Bei der Verfolgung dieser Frage werden jedoch mehrere methodische Fragen angetroffen und diskutiert, die von der Wahl des statistischen Modells und der Grundgesamtheit über die Kontrolle der Kovariaten bis hin zur Auswahl der Untersuchungseinheit reichen. Es wird vorgeschlagen, dass trotz ihrer Einschränkungen kleine bibliometrische Studien ausgewählter Populationen, die zumindest einige der relevanten Kovariaten kontrollieren, ein hilfreiches Instrument zur Klärung einiger wissenschaftspolitischer Fragen sein könnten.;-;-;-;https://link.springer.com/article/10.1007/BF02095347 37aaabac3591eb5bae403d603f6d4b39;de;;;3.4.;6.4.;3.1.;Eine Untersuchung szientometrischer Methoden zur Identifizierung neuer Technologien durch Modellierung von Meilensteinen Diese Arbeit untersucht ein szientometrisches Modell, das die Entstehung einer identifizierten Technologie von der ersten Entdeckung (über originale wissenschaftliche und Konferenzliteratur) über kritische Entdeckungen (über originale wissenschaftliche Literatur, Konferenzliteratur und Patente) bis hin zum Übergang durch Technology Readiness Levels (TRLs) und schließlich . verfolgt zur kommerziellen Anwendung. Während des Zeitraums der Innovation und des Technologietransfers werden die Auswirkungen wissenschaftlicher Arbeiten, Patente und Online-Nachrichtenquellen im Internet ermittelt. Im Zuge der Entwicklung von Trends werden die Zitationshäufigkeit, Indikatoren für die Zusammenarbeit und Online-Nachrichtenmuster identifiziert. Die Kombinationen von vier verschiedenen und getrennt durchsuchbaren online vernetzten Quellen (d. h. wissenschaftliche Veröffentlichungen und Zitationen, Patente, Nachrichtenarchive und Online-Mapping-Netzwerke) werden zu einem kollektiven Netzwerk (einem Datensatz zur Analyse von Beziehungen) zusammengestellt. Dieses etablierte Netzwerk wird die Grundlage, um den zeitlichen Aktivitätsfluss (durchsuchbare Ereignisse) für den von uns untersuchten beispielhaften Themenbereich schnell zu analysieren.;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0614-4 42826398e9d99a569aa01ee35b4da60c;de;;;3.4.;6.4.;3.1.;Messung von Veränderungen von Publikationsmustern im Kontext leistungsbasierter Forschungsförderungssysteme: der Fall der Bildungsforschung an der Universität Göteborg (2005–2014) Wir präsentieren einen neuartigen Weg, um eine Diskussion über Veränderungen von Publikationsmustern zu gestalten, die im Kontext von leistungsbasierten Forschungsförderungssystemen (PRFSs) auftreten. In Anlehnung an einen aus der sozialen Epistemologie abgeleiteten Ansatz stellen wir die dialektische Natur des Wissens in den Vordergrund. Dies ermöglicht es uns, Veränderungen in den Publikationsmustern mit PRFS in Verbindung zu bringen und die Spannungen aufzuzeigen, die zwischen relativ unterschiedlichen Forschungsfeldern mit unterschiedlichen Publikationspraktiken und bibliometrischen Indikatoren innerhalb von PRFSs entstehen, die eine einzigartige Sicht auf die Forschungsziele verstärken. Insbesondere weisen wir darauf hin, dass die Verwendung bibliometrischer Indikatoren zu einer festen Hierarchie zwischen den Kommunikationsmedien führt, die den Zielen in Forschungsbereichen, die PRFS unterliegen, im Widerspruch stehen kann. Diese Ideen werden mit einer empirischen Analyse der Veränderungen von Publikationsmustern im Bereich der Bildungsforschung an der Universität Göteborg (GU, 2005–2014) in Schweden illustriert. Den beobachteten Veränderungen stellen wir implizite Prioritäten in den seit 2009 in diesem Kontext tätigen nationalen und institutionellen PRFS gegenüber. Ergebnisse der bibliometrischen Analyse weisen auf eine Abkehr von bisher für die Bildungsforschung charakteristischen Publikationstraditionen hin: die Zunahme der Anzahl von Zeitschriftenartikeln ist größer als die Zahl der Buchkapitel, während die Zahl der Berichte rückläufig ist. In Bezug auf PRFSs zeigen wir, dass eine abschließende Beurteilung der Erwünschtheit der beobachteten Veränderungen kaum möglich ist. Übernimmt man die in PRFS impliziten Ziele, scheint die Forschungsleistung gesteigert. Wenn man sich den Ansichten vieler Bildungsforscher anschließt, könnten einige der Trends ein Hinweis auf unerwünschte Veränderungen sein.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2963-8 2e05f5cea9a251c8a83701f0b9933b13;de;;;3.4.;6.4.;3.1.;Kurzfristige Auswirkungen nicht kompetitiver Förderung auf einzelne Wissenschaftlerinnen und Wissenschaftler Die Forschungsförderung ist unerlässlich, um die wissenschaftliche Tätigkeit der Forscher und die Verbreitung ihrer Ergebnisse zu fördern. Vereinfachend lassen sich Förderprogramme in zwei Kategorien einteilen:;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03449-x 9360f2745e6aa3f07b440da05b5c17af;de;;;3.5.;6.4.;3.2.;Zitationswahl und Innovation im naturwissenschaftlichen Studium Welche Faktoren erhöhen die Wahrscheinlichkeit, dass ein Artikel zitiert wird? Mit der Analyse sozialer Netzwerke von Zitaten zwischen veröffentlichten wissenschaftlichen Arbeiten, dem aufstrebenden Feld;-;-;-;https://link.springer.com/article/10.1007/s11192-012-0881-8 fa7da21a58eba552d0703c5c34c0f3fd;de;;;3.5.;6.4.;3.2.;Verknüpfung von Wissenschaft und Technologie: Verwendung von bibliografischen Referenzen in Patenten zum Aufbau von Verknüpfungsschemata In diesem Papier entwickeln und diskutieren wir eine Methode zum Entwurf eines Verknüpfungsschemas, das die Systeme von Wissenschaft und Technologie durch die Verwendung von Patentzitierungsdaten verknüpft. Nach der konzeptionellen Einbettung des Linkage-Schemas in die aktuelle Literatur zu wissenschaftlich-technischen Interaktionen und Assoziationen werden die Methodik und Algorithmen zur Entwicklung des Linkage-Schemas im Detail diskutiert. Das Verfahren wird anschließend an Untergruppen von USPTO-Patenten getestet und angewendet. Die Ergebnisse weisen auf stark verzerrte Zitationsverteilungen hin, die es uns ermöglichen, zwischen jenen Technologiefeldern zu unterscheiden, die stark wissenschaftsinteraktiv sind, und solchen, in denen die Technologieentwicklung in hohem Maße unabhängig von der wissenschaftlichen Literaturbasis ist.;-;-;-;https://link.springer.com/article/10.1023/A%3A1016034516731 12c13050af2b126e7f12dfa998733396;de;;;3.5.;6.4.;3.2.;Statische ökologische Systemmaßnahmen Eine neue mathematische Methode zur statischen Analyse ökologischer Systeme wurde kürzlich vom Autor entwickelt und in einem eigenen Artikel vorgestellt. Basierend auf dieser Methodik werden in der vorliegenden Arbeit systematisch mehrere neue ökologische Systemmaße und Indizes von Matrix-, Vektor- und Skalartypen vorgestellt. Diese mathematischen Systemanalysewerkzeuge sind quantitative ökologische Indikatoren, die die Flussverteilung und Speicherorganisation überwachen, den direkten, indirekten, azyklischen, zyklischen und Transfer (;-;-;-;https://link.springer.com/article/10.1007/s12080-019-0422-7 c0e2fd88ae9a5bbeb1d7d94b302edc57;de;;;3.4.;6.4.;3.2.;Treibende Faktoren der Drittmittelfinanzierung und Fördereffekte auf die wissenschaftliche Innovationsleistung in der Hochschul-Wirtschaft-Staat-Verflechtung Diese Studie konzentriert sich auf die Analyse der treibenden Faktoren der staatlichen und industriellen Finanzierung und der Auswirkungen einer solchen Finanzierung auf die akademische Innovationsleistung im taiwanesischen Universitäts-Industrie-Regierungssystem (UIG). Diese Forschung definiert die Beziehungen der Tripelhelix im UIG-Kollaborationssystem als eine komplexe verflochtene Kombination, die Demografie, finanzielle Unterstützung und Innovationsleistung umfasst. Diese Beziehungen werden gleichzeitig durch eine multivariate Technik, die Strukturgleichungsmodellierung, modelliert, um die Kausal-Wirkungs-Beziehung zwischen den vorausgehenden Faktoren auf die nachfolgenden zu untersuchen. Dieses Modell wird es uns ermöglichen, drei Fragen zu untersuchen: (1) Ist die Finanzierung durch die Regierung oder die Industrie an die Demografie der Universitäten, an die Innovationsleistung der Universitäten oder an beides gebunden? (2) Ist die staatliche Finanzierung führend in der Industriefinanzierung? (3) Fördert staatliche Förderung oder Industrieförderung mehr universitäre Innovationsleistung? Neben der Verifizierung des Modells gegenüber allen teilnehmenden Universitäten der UIG-Kollaboration kategorisieren wir sie auch in zwei Stufen, ob Universitäten für die Anreizprogramme der UIG-Kollaboration ausgewählt wurden oder nicht, um die Unterschiede zwischen den Gruppen zu untersuchen.;-;-;-;https://link.springer.com/article/10.1007/s11192-012-0864-9 4fd46d35da6707ed9cf5986015e10b06;de;;;3.4.;6.4.;3.2.;Ein netzwerkbasierter Ansatz für die Vergabe von Credits für Co-Autoren Wir führen und evaluieren einen neuartigen netzwerkbasierten Ansatz zur Ermittlung der individuellen Kreditwürdigkeit von Koautoren in mehrfach verfassten Arbeiten. Im vorgeschlagenen Modell wird Koautorenschaft als gerichtetes, gewichtetes Netzwerk konzeptualisiert, in dem Autoren Koautorenschaftspunkte untereinander übertragen. Wir validieren das Modell, indem wir es an empirische Daten über Autorenschaft aus Wirtschaftswissenschaften, Marketing, Psychologie, Chemie und Biomedizin anpassen. Außerdem zeigen wir, dass unser Modell frühere Alternativen wie gebrochenes, geometrisches, arithmetisches und harmonisches Zählen bei der Generierung von Koautorenschafts-Kreditzuweisungen übertrifft, die den empirischen Daten angenähert sind. Die Ergebnisse der empirischen Evaluation sowie die Anpassungsfähigkeit des Modells an Domänen mit unterschiedlichen Normen für die Reihenfolge der Autoren pro Beitrag machen das vorgeschlagene Modell zu einem robusten und flexiblen Rahmen für die Untersuchung inhaltlicher Fragen zur domänenübergreifenden Koautorenschaft.;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1253-3 f4a2ddbee09f8976f6613668663fc8b3;de;;;3.4.;6.4.;3.2.;Die Triple Helix als Modell zur Analyse des israelischen Magnetprogramms und der Lehren für späte Entwicklungsländer wie die Türkei Obwohl der systemische Wandel hin zur Innovationsvernetzung zwischen Universitätsindustrie und staatlichen Akteuren in letzter Zeit einen Platz auf der internationalen Politik- und Literaturagenda gefunden hat, ist die Vernetzung zwischen den Organisationen und Menschen – für das nationale Überleben, die Produktion und das Wachstum – tief im israelischen bereits vor der Gründung des israelischen Staates im Jahr 1948. Interne und internationale Zwänge förderten die Bildung persönlicher Verbindungen ebenso wie institutionelle Rahmenbedingungen, die die Vernetzung förderten. Dieses Papier untersucht das Zusammenspiel von gesellschaftlichen, organisatorischen und kulturellen Merkmalen, die Innovationsnetzwerke in Israel erfolgreich machen. Die Forschung konzentriert sich auf die Auswirkungen des israelischen Magnetprogramms auf das israelische F&E-Wachstum und die Leistung. Die Implikationen von Innovationsnetzwerken für ein Spätentwicklungsland wie die Türkei werden im Kontext des Aufholens und der überregionalen Zusammenarbeit zwischen israelischer und türkischer Industrie und Akademien untersucht.;-;-;-;https://link.springer.com/article/10.1023/A%3A1026280409195 73587fc1c063224b642b11c4483cb267;de;;;3.4.;6.4.;3.2.;Die Wirkung der Förderung auf die Ergebnisse der biomedizinischen Forschung Die Research Outputs Database (ROD) wurde verwendet, um die Auswirkungen verschiedener Eingangsvariablen, einschließlich der Anzahl der Fördereinrichtungen, auf die Auswirkungen von Forschungsarbeiten in einem biomedizinischen Teilgebiet (Gastroenterologie) zu untersuchen. Dies wurde durch die mittelfristige Wirkung der Zeitschriften bestimmt, in denen sie veröffentlicht wurden. Es zeigte sich, dass bei Berücksichtigung der Effekte der anderen Inputfaktoren der mittlere Impact für eine Gruppe von Arbeiten mit der Anzahl der Autoren, der Art der Forschung (grundlegend mehr als klinisch) sowie mit der Anzahl und Identität zunahm der Förderstellen. Wie auch immer, es;-;-;-;https://link.springer.com/article/10.1007/BF02457963 34fb56fdff52c6c62499a2a04fa3a488;de;;;3.4.;6.4.;3.2.;Eine Analyse internationaler Koautorenschaftsnetzwerke im Forschungsbereich Supply Chain Analytics Diese Arbeit prägte die Forschungsgemeinschaft der Supply Chain Analytics (SCA) im Hinblick auf die Koautorenschaft, eine besondere Form der Zusammenarbeit. Es wurde eine Charakterisierung der Koautorenschaft in Bezug auf Länder, Institutionen und Einzelpersonen der Forscher ausgearbeitet, so dass drei verschiedene One-Mode-Netzwerke untersucht wurden. Außerdem ist die SCA-Forschungsgemeinschaft in Bezug auf Supply Chain Management (SCM)-Forschungsströme charakterisiert. Die Koautorenschaft zwischen Forschern, die an verschiedenen Strömungen arbeiten, wird ebenfalls analysiert. Es wurden Metriken untersucht, die die Bedeutung der Netzwerkknoten abbilden, wie Grad, Betweenness und Closeness. Diese Studie ergab eine intensive Zusammenarbeit zwischen den USA und Ländern wie China, Indien, Großbritannien und Kanada. Forschende aus Kanada und Irland sind besser (zentral) im Netzwerk positioniert, obwohl sie noch keine nennenswerten Arbeiten veröffentlicht haben. Auch das Vorhandensein von Cliquen und der Small-World-Effekt wurden in diesen Netzwerken beobachtet. In Bezug auf die Forschungsströme wurde mehr Forschung zu SCA in den Bereichen Strategisches Management, Technologiefokussiert und Logistik gefunden. Die häufigsten Verbindungen zwischen den Forschungsströmen sind einerseits technologieorientiert mit strategischem Management und Logistik und andererseits strategisches Management mit Logistik und organisatorischem Verhalten. SCA-Forscher arbeiten selten mit einem Fokus auf Marketing. Diese Studie trägt zur SCA-Literatur bei, indem sie die wichtigsten Akteure in diesem Bereich identifiziert und den Bereich in Bezug auf SCM-Forschungsströme charakterisiert. Diese Studie kann zur Entwicklung fokussierterer Forschungsanreizprogramme und -kooperationen beitragen.;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2370-6 1767e801da0aa2c11974d8236dd35b06;de;;;3.4.;6.4.;3.2.;Produkt- und Prozessinnovation in produzierenden Unternehmen: eine bibliometrische 30-Jahres-Analyse Aufbauend auf einem 30-jährigen Datensatz, der aus der Web of Science-Datenbank gesammelt wurde, zielt die vorliegende Forschung darauf ab, einen umfassenden Überblick über Veröffentlichungen, Autoren, Forschungsströme und die einflussreichsten Zeitschriften zu bieten, die Produkt- und Prozessinnovationen in der Fertigungsumgebung diskutieren. Der Datensatz setzt sich aus 418 Arbeiten aus mehr als 150 Zeitschriften aus dem Zeitraum 1985 bis 2015 zusammen. Homogenitätsanalysen mittels alternierender kleinster Quadrate (HOMALS) und Social Network Analysis (SNA) werden verwendet, um die oben aufgeführten Ziele durch die angegebenen Schlagworte zu erreichen von Autoren. Zunächst beleuchtet und diskutiert die Arbeit die Ähnlichkeit zwischen den Themen, die von den wichtigsten Zeitschriften in diesem Bereich diskutiert werden. Anschließend wird eine breitgefächerte Themenkarte präsentiert, die fünf Hauptinteressenbereiche hervorhebt, nämlich Leistung, Patent, Kleinunternehmen, Produktentwicklung und Organisation. Eine SNA wird auch durchgeführt, um die Ergebnisse zu validieren, die aus HOMALS hervorgegangen sind. Abschließend werden einige Einblicke in zukünftige Forschungsmöglichkeiten im Bereich der Fertigung gegeben.;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2500-1 8898db95eda37047e8d92b769466c0f3;de;;;3.4.;6.4.;3.2.;Kooperationsstruktur und Wissensverbreitung in der türkischen Management-Akademie Dieser Artikel schlägt einen konzeptionellen Rahmen vor, um die Verbreitung von Wissen über kollaborative soziale Interaktionen zu untersuchen. Der Rahmen leitet die Überlegungen zu (i) der Art des Wissens, (ii) der Kette des Wissensprozesses und (iii) der Arten des Wissenstransfers ein, während Mechanismen der Wissensdiffusion und der Kollaborationsstruktur untersucht werden. Während Information innerhalb eines solchen Differenzierungsschemas als eine Form von gefilterten Daten im Kontext von Relevanz betrachtet wird, wird Wissen als systematisch verarbeitete Information betrachtet, die an individuelle oder kollektive Handlungen und Praktiken gebunden ist. Das Framework wird mit einer empirischen Forschungsmethode angewendet, die auf der Metanetzwerkanalyse basiert. Der Fallbeispiel zeigt, wie wirtschaftswissenschaftliches Wissen verbreitet wird und welche Kooperationsstrukturen die türkische Managementakademie von den 1920er Jahren bis 2008 aufweist Informationsverbreitung und nicht anderswo gefundene Muster des Wissenstransfers. Auf der anderen Seite zeigt sich, dass die kognitive Nachfrage nach Veröffentlichungen in zitationsindizierten globalen Zeitschriften kohäsiven kollaborierenden Teams als Mittel zur kollaborativen Wissensproduktion und -übertragung gewichen ist.;-;-;-;https://link.springer.com/article/10.1007/s11192-012-0641-9 6d08acc7ffe17854e3f7e4c65ea43290;de;;;3.4.;6.4.;3.2.;Aufbauend auf Trends der bibliometrischen Analyse zur Festlegung von Prioritäten für die Erforschung von Biosphärenreservaten im Himalaya Es wurde eine bibliometrische Bewertung der wissenschaftlichen Forschungsergebnisse (N = 676) zum Himalaya-Biosphärenreservat (HBRs) mit besonderem Fokus auf das Nanda-Devi-Biosphärenreservat (NDBR) im Zeitraum 1990–2010 vorgenommen, die das Wachstum, den Beitrag und die Wirkung der Forschung beschrieb. Die Forschungsergebnisse für NDBR zeigten einen bemerkenswerten Beitrag (41,9 %) unter den HBRs und den von der Blumenkategorie (34 %) dominierten Disziplinen der Biodiversität. Die prozentuale Veröffentlichungsrate ist in den HBRs um über 73,7 % und in den Disziplinen der Biodiversität um 43,9 % gestiegen. Die Grenzen der bibliometrischen Begutachtung werden in Bezug auf Standort, Nähe zu Forschungseinrichtungen und Fördermöglichkeiten aufgezeigt. Die aus Publikationsstatistiken gezogenen Muster weisen auf laufende und potenzielle Veränderungen in der wissenschaftlichen Forschung in der indischen Himalaya-Region in der Zukunft hin.;-;-;-;https://link.springer.com/article/10.1007/s40011-016-0803-2 0679e02cfecf700f1f82ecb2e8f0d7e3;de;;;3.4.;6.4.;3.2.;Gemeinschaftsstruktur und Muster der wissenschaftlichen Zusammenarbeit in Wirtschaft und Management Dieser Beitrag untersucht die Rolle von Homophilie und Fokusbeschränkung bei der Gestaltung kollaborativer wissenschaftlicher Forschung. Erstens strukturiert Homophilie die Zusammenarbeit, wenn Wissenschaftler sich an eine Exklusivitätsnorm halten, indem sie ähnliche Partner häufiger auswählen als unähnliche. Zwei Dimensionen, anhand derer Ähnlichkeiten zwischen Wissenschaftlern beurteilt werden können, sind ihre Forschungsschwerpunkte und Statuspositionen. Zweitens prägt Fokusbeschränkungen die Zusammenarbeit, wenn Verbindungen zwischen Wissenschaftlern von Gelegenheiten für soziale Kontakte abhängen. Beschränkungen gibt es in zwei Formen, je nachdem, ob sie ihren Ursprung im institutionellen oder geographischen Raum haben. Institutionelle Beschränkung bezieht sich auf die Tendenz von Wissenschaftlern, Mitarbeiter innerhalb und nicht über institutionelle Grenzen hinweg auszuwählen. Geografische Beschränkungen sind das Prinzip, dass bei Kooperationen, die sich über verschiedene Institutionen erstrecken, eher Wissenschaftler beteiligt sind, die geografisch am gleichen Ort angesiedelt sind als verstreut. Um Homophilie und Fokusbeschränkung zu untersuchen, wird der Beitrag für eine Idee der Zusammenarbeit plädieren, die über die formale Co-Autorenschaft hinausgeht und auch andere Formen des informellen intellektuellen Austauschs umfasst, die sich nicht in der Veröffentlichung gemeinsamer Arbeiten niederschlagen. Ein Community-Erkennungsalgorithmus zur Formalisierung dieser Perspektive wird vorgeschlagen und auf das Co-Autorennetzwerk der Wissenschaftler angewendet, die 2001 an der Research Assessment Exercise in Business and Management im Vereinigten Königreich teilgenommen haben. Während die Ergebnisse die forschungsbasierte Homophilie nur teilweise stützen, deuten sie darauf hin, dass Wissenschaftler Statuspositionen zur Unterscheidung zwischen potenziellen Partnern verwenden, indem sie Mitarbeiter aus Institutionen mit einem ähnlichen Rating auswählen. Es wird starke Unterstützung zugunsten institutioneller und geografischer Beschränkungen geleistet. Wissenschaftler neigen dazu, institutsinterne Kooperationen zu schmieden, aber wenn sie Mitarbeiter außerhalb ihrer eigenen Institutionen suchen, neigen sie dazu, diejenigen auszuwählen, die sich in geografischer Nähe befinden. Die Implikationen dieser Analyse für die Bindungsbildung in gemeinsamen wissenschaftlichen Bemühungen werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0439-1 76aab1db08f0b6a2d4aa924f0ed8dda5;de;;;3.4.;6.4.;3.2.;Produktionsprofile in der brasilianischen Wissenschaft mit besonderem Augenmerk auf Sozial- und Geisteswissenschaften Der Einfluss und die Interaktion der Wissenschaft mit der Gesellschaft sind insbesondere auf nationaler Ebene schwer zu messen. In dieser Studie wurden Daten aus der vierjährigen Evaluation (2013–2016) aller postgradualen Studiengänge in Brasilien verwendet, um die Produktion von Universitäten sowie deren Interaktion mit der Gesellschaft im Sinne der technischen Dienstleistungen zu charakterisieren. Über 4 Millionen Aktivitäten wurden in den 4 Jahren registriert, hauptsächlich im Zusammenhang mit universitären Aktivitäten. Die Produktionsprofile variierten je nach Wissensgebiet. Die meisten Patente (insgesamt über 8700) wurden in den multidisziplinären und medizinischen Bereichen erteilt, gefolgt von technischen, exakten, biologischen und landwirtschaftlichen Patenten, 263 in anderen Ländern. Es gab mehr Karten, die von den Geisteswissenschaften erstellt wurden, und mehr Computeranwendungen (Apps) in den Ingenieurwissenschaften und multidisziplinär. Geisteswissenschaften, angewandte Sozialwissenschaften und Literatur, Literatur und Kunst gaben ebenfalls mehr Kurzkurse und traten in mehr Fernsehprogrammen und in Zeitungen auf und zeigten eine stärkere Interaktion mit der breiten Öffentlichkeit als in anderen Bereichen. Diese Bereiche boten auch mehr technische Dienstleistungen an, die unter anderem die Bewertung, Bearbeitung und Verfassen von Papieren und Projekten, die Teilnahme an Bewertungsausschüssen und die Organisation von Veranstaltungen umfassten. Andere Arten von Material waren Lehrvideos, Ordner zur Verbreitung wissenschaftlicher Aktivitäten usw. In den Sozialwissenschaften, den Geisteswissenschaften und der Literatur werden Buchstaben und Kunstwörter in Verbindung mit Recht (Fall, Gericht), Arbeit (Arbeit, Arbeit, Verwaltung, Planung) und Bildung verwendet offensichtlich. In den Biowissenschaften steht die Gesundheit im Vordergrund, während in den exakten Wissenschaften Analysen zu Landwirtschaft, Toxinen, Wasser und Umwelt im Vordergrund stehen. Die meisten der von Universitätsdozenten registrierten externen Arbeiten waren für Regierungen (lokal, regional oder national) bestimmt. Die Qualität und Standardisierung der auf offiziellem Wege erhobenen Informationen muss verbessert werden, damit nützliche, zeitnahe und relevante Wirkungsanalysen leichter erstellt werden können.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03452-2 8757acc0f6dd994e95d6e8164dce5d75;de;;;3.4.;6.4.;3.2.;Ein Vergleich der Astronomie in fünfzehn Mitgliedsländern der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung Für 15 Mitgliedsländer der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) werden verschiedene Daten erhoben, die mit der Ausübung der Astronomie zu tun haben: der Astronomiefinanzierung, Größe der Forschungsgemeinschaften, relatives Engagement für bodengebundene gegenüber weltraumgestützter Astronomie usw. (2) aus anderen Quellen Bevölkerungsgröße, Bruttosozialprodukt und Größe der gesamten Forschungsgemeinschaft (3, ) aus dem Papier von;-;-;-;https://link.springer.com/article/10.1007/BF02018558 414dc6cddd287792c622610c07b55bdd;de;;;3.4.;6.4.;3.2.;Eine szientometrische Analyse der Social-Media-Forschung (2004–2011) Um die schnell wachsende Social-Media-Forschung besser zu verstehen, präsentiert diese Studie die Ergebnisse einer szientometrischen Analyse der entsprechenden Literatur. Wir führten eine Forschungsproduktivitätsanalyse und Zitationsanalyse von Einzelpersonen, Institutionen und Ländern auf der Grundlage von 610 begutachteten Social-Media-Artikeln durch, die zwischen Oktober 2004 und Dezember 2011 in Zeitschriften und Konferenzbänden veröffentlicht wurden. Die Ergebnisse zeigen, dass die Forschungsproduktivität explodiert und mehrere führende Autoren , Institutionen, Länder und eine kleine Reihe von Grundlagenpapieren sind entstanden. Basierend auf den Ergebnissen – die darauf hindeuten, dass die Social-Media-Domäne eine begrenzte Vielfalt aufweist und immer noch stark von Praktikern beeinflusst wird – wirft das Papier zwei grundlegende Herausforderungen auf, denen sich die Social-Media-Domäne und ihre zukünftige Entwicklung gegenübersieht, nämlich die mangelnde akademische Reife und der Matthäus-Effekt.;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1399-z 0c9b4d04884a7788b33b808ba6182aba;de;;;3.4.;6.4.;3.2.;Kartierung von Interaktionen innerhalb der sich entwickelnden Wissenschafts- und Innovationspolitik-Community Das Programm Science of Science and Innovation Policy (SciSIP) der National Science Foundation (NSF) unterstützt Forschungen zur Weiterentwicklung der wissenschaftlichen Grundlagen der Wissenschafts- und Innovationspolitik. Das Programm wurde 2005 an der NSF als Reaktion auf einen Aufruf von Dr. John Marburger III, damals Wissenschaftsberater des US-Präsidenten, für eine „Wissenschaft“ der Wissenschaftspolitik eingerichtet. Bis Januar 2011 hat es 162 Auszeichnungen kofinanziert, die darauf abzielen, Daten, Analysewerkzeuge und Modelle zu entwickeln, zu verbessern und zu erweitern, die direkt im wissenschaftspolitischen Entscheidungsprozess angewendet werden können. Langfristige Ziele des SciSIP-Programms sind eine wissenschaftlich fundierte und quantitative Basis für die Wissenschaftspolitik und der Aufbau einer internationalen Praxisgemeinschaft. Das Programm hat einen aktiven Listserv, der im Januar 2011 fast 700 Mitglieder aus Wissenschaft, Regierung und Industrie hat. Diese Studie analysierte alle SciSIP-Auszeichnungen (bis Januar 2011), um bestehende Kooperationsnetzwerke und Kofinanzierungsbeziehungen zwischen SciSIP und anderen Wissenschaftsbereichen zu identifizieren. Darüber hinaus wurden Listserv-Daten heruntergeladen und analysiert, um ergänzende Diskursinformationen abzuleiten. Zu den wichtigsten Ergebnissen zählen der Nachweis einer reichen Vielfalt in Kommunikations- und Finanzierungsnetzwerken und wirksame Strategien zur Vernetzung von Forschern und wissenschaftspolitischen Entscheidungsträgern, um Diskussionen anzuregen und Ressourcen auszutauschen.;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0574-8 876413b463717127f1ddeefd56a87516;de;;;3.4.;6.4.;3.2.;Diversifizierte Ressourcen und akademischer Einfluss: Muster der Zusammenarbeit zwischen Universität und Wirtschaft an chinesischen forschungsorientierten Universitäten In diesem Beitrag werden Umfang und Muster von Hochschul-Industrie-Kooperationen (UICs) an chinesischen forschungsorientierten Universitäten untersucht. Basierend auf den Co-Autoren von Veröffentlichungen in internationalen Zeitschriften von Wissenschaftlern chinesischer Universitäten und Forschern aus der Industrie mit der Methode der bibliometrischen und latenten Clusteranalyse liefert diese Studie detaillierte Ergebnisse zu den Charakteren und Clustering-Eigenschaften unter zwei Aspekten, nämlich diversifizierte Ressourcen und akademischer Einfluss . Die Ergebnisse zeigen, dass, obwohl die gemeinsam mit Industrieforschern verfassten Publikationen nur einen kleinen Teil aller Publikationen chinesischer Universitäten ausmachen, die Bedeutung der Kooperation mit der Industrie in der akademischen Forschung und des wissenschaftlichen Beitrags in China gestärkt wurde. Inzwischen verbessert sich der wissenschaftliche Einfluss von gemeinsam verfassten Publikationen periodisch, befindet sich jedoch noch in der Entwicklungsphase der Quantität statt der Qualität. Die Analysen zeigen, dass es signifikante Unterschiede im Matching-Verhältnis von diversifizierten Ressourcen und akademischem Einfluss zwischen den Universitäten gibt. Nur wenige UICs weisen sowohl ein hohes Maß an diversifizierten Ressourcen als auch einen starken akademischen Einfluss auf. Die meisten UICs sollten versuchen, die Vorteile diverser Ressourcen zu wahren und gleichzeitig versuchen, den akademischen Einfluss der Kooperationsergebnisse zu verbessern.;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1618-2 318abaf769c54c78f7de94c3ec5c2513;de;;;3.4.;6.4.;3.2.;Die Entwicklung des südkoreanischen Innovationssystems: Auf dem Weg zum Triple-Helix-Modell? Das Innovationssystem Südkoreas hat sich in den letzten drei Jahrzehnten zusammen mit dem schnellen Wirtschaftswachstum verändert. Um den Evolutionsprozess des Innovationssystems in Korea zu untersuchen, untersucht diese Studie die Trends und Muster der Kooperationsaktivitäten zwischen den Triple-Helix-Akteuren wie Universität, Industrie und Regierung (UIG) anhand von Co-Patentdaten. Das Triple-Helix-Framework wird verwendet, um Innovationsdynamiken innerhalb der Netzwerke der bi- und trilateralen Beziehungen zu analysieren, die in Patentkooperationen eingebettet sind. Die Analysen konzentrieren sich darauf, wie die Triple-Helix-Dynamik im Zuge der Entwicklung des Innovationssystems geformt und transformiert wurde. Die Ergebnisse zeigen, dass die Kooperationsaktivitäten der UIG in drei Entwicklungsphasen von 1980 bis 2012 stark zugenommen haben. In der Anfangsphase wurden strategische F&E-Allianzen zwischen Industrie und öffentlichem Sektor gegründet, um die Innovationsfähigkeit der Unternehmen zu stärken. Wenn die koreanischen Großkonzerne;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1541-6 eea130aa4112596da9f957d8914d55d3;de;;;3.4.;6.4.;3.2.;Die brasilianische akademische Genealogie: Nachweis von Berater-Berater-Beziehungen durch quantitative Analyse Wissenschaft kann aus mehreren Blickwinkeln betrachtet werden, beispielsweise durch eine bibliometrische Analyse des wissenschaftlichen Outputs von Forschern, Forschungsgruppen oder Institutionen. Über die Berater-Berater-Beziehungen oder die wissenschaftliche Betreuung von Forschenden oder zwischen Lehrenden und Studierenden liegen jedoch nur wenige Informationen vor. In diesem Beitrag untersuchen wir die Ergebnisse der akademischen Genealogie von Doktoranden und Masterstudenten in Brasilien, die aus 737.919 Lebensläufen der Lattes-Plattform stammen. Unsere Ergebnisse bringen drei Hauptquellen für Beweise in Bezug auf die brasilianische akademische Genealogie ans Licht: (1) den Grad der Interdisziplinarität zwischen den Hauptwissensbereichen, (2) die strukturellen Merkmale und sich entwickelnden Muster in Bezug auf beide Wissensgebiete und Forscher und (3) die Muster in den Trainingsstufen, die die topologischen Metriken beeinflussen. Wir kommen zu dem Schluss, dass die akademische Genealogie eine großartige Möglichkeit bietet, Forschende und ihre Forschungsgebiete aus der Perspektive der Personalausbildung zu beurteilen.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03023-0 a2218e8493e672f3a86a94163b27dbd6;de;;;3.4.;6.4.;3.2.;Integration von drei Visualisierungsmethoden basierend auf Co-Wort-Analyse Die Visualisierung der Subjektstruktur basierend auf der Co-Wort-Analyse wird verwendet, um das Konzeptnetzwerk und die Entwicklungstendenz in einem bestimmten Bereich zu untersuchen. Es gibt viele Visualisierungsmethoden für die Co-Wort-Analyse. Über die Integration von Ergebnissen mit unterschiedlichen Methoden wird jedoch selten berichtet. Dieser Artikel befasst sich mit der Wissenslücke in diesem Studienbereich. Wir vergleichen drei Visualisierungsmethoden: Clusterbaum, Strategiediagramm und Social Network Maps und integrieren unterschiedliche Ergebnisse durch Co-Word-Analyse der Medizininformatik zu einem Ergebnis. Die drei Visualisierungsmethoden haben ihren eigenen Charakter: Clusterbäume zeigen die Themenstruktur, strategische Diagramme verdeutlichen die Bedeutung von Thementhemen in der Struktur und Social Network Maps interpretieren den inneren Zusammenhang zwischen Themen. Die Integration verschiedener Visualisierungsergebnisse zu einer mehr lesbaren Karte ergänzt sich gegenseitig. Und für Forscher ist es hilfreich, den Begriff Netzwerk und Entwicklungstendenz in einem bestimmten Feld zu kennen.;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0541-4 c6b87bd713f49618ed969decf2714dfe;de;;;3.4.;6.4.;3.2.;Ein Forschungsrahmen zur Erforschung der Wissensentwicklung und der wissenschaftlichen Quantifizierung von Verbundforschung Die meisten der gegenwärtigen Forschungsprobleme erfordern die Beteiligung von Wissenschaftlern, die komplementäre Fähigkeiten mitbringen können. Aus diesem Grund ist die Forschungskooperation zwischen Wissenschaftlern verschiedener Disziplinen in der interdisziplinären Wissenschaft weit verbreitet. Das Verständnis der Wissensentwicklung und der wissenschaftlichen Auswirkungen von Verbundforschung ist sehr wichtig, um ihren Beitrag zum Gesamtfortschritt der Wissenschaft im Laufe der Zeit zu untersuchen. Mit dem Aufkommen moderner Technologien wurde die wissenschaftliche Zusammenarbeit in verschiedenen Forschungsbereichen nicht nur auf verschiedene Sektoren und Industrien, sondern auch über regionale und internationale Grenzen hinweg ausgeweitet. Dies führt schließlich zu wissenschaftlicher Kompetenz und trägt zur Wissensentwicklung bei. Sowohl die wirtschaftlichen Notwendigkeiten als auch die Bereicherung der Beherrschung von Ressourcen und Techniken des Einzelnen zur Bewältigung zunehmend interdisziplinärer Forschungsfragen haben einen Anstieg der kollaborativen Forschungstrends innerhalb und zwischen den Ländern ausgelöst. In der Literatur stehen viele bibliometrische Methoden zur Verfügung, um verschiedene Aspekte solcher kollaborativer Bemühungen zu untersuchen. Bis heute fehlt jedoch ein konzeptualisierter Rahmen, dem man folgen kann, um die Wissensentwicklung und die wissenschaftliche Quantifizierung für jeden Forschungsbereich zu untersuchen. Unter Verwendung von Metadaten aus wissenschaftlichen Publikationen und bibliometrischen Methoden schlug diese Studie zunächst einen Forschungsrahmen zur Erforschung der Wissensentwicklung und der wissenschaftlichen Quantifizierung von Verbundforschung vor. Um die aktuelle Wissensentwicklung, Kooperationsdynamiken und ihre Auswirkungen auf die Forschungsergebnisse zu verstehen, wurde der vorgeschlagene Rahmen dann auf die Projektmanagementforschung angewendet.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03057-4 66ee1736fa9ca1dbba01d4529e33653c;de;;;3.4.;6.4.;3.2.;Wie werden Netzwerkzentren in ihren Veröffentlichungen gewürdigt? Eine Fallstudie der spanischen CIBER-Forschungsstrukturen Die Entstehung neuer vernetzter Forschungsorganisationen erklärt sich aus der Notwendigkeit, Spitzenleistungen in der Forschung zu fördern und die Lösung spezifischer Probleme zu erleichtern. Diese Studie konzentriert sich auf einen spanischen Fall, die Biomedical Research Networking Centers (CIBER), die durch eine Partnerschaft von Forschungsgruppen ohne physische Nähe geschaffen wurden, die an gemeinsamen gesundheitsbezogenen Themen arbeiten. Diese Strukturen sind aufgrund ihrer heterogenen Zusammensetzung und virtuellen Natur eine große Herausforderung für Bibliometrier. Daher besteht das Hauptziel dieses Papiers darin, verschiedene Ansätze basierend auf Adressen, Finanzierungsbestätigungen und Autoren zu bewerten, um herauszufinden, welche Suchstrategie oder -kombination effektiver ist, um CIBER-Publikationen zu identifizieren. Zu diesem Zweck haben wir alle spanischen Publikationen aus den Datenbanken des Web of Science in den Fachgebieten Gastroenterologie/Hepatologie und Psychiatrie im Zeitraum 2008–2011 heruntergeladen. Unsere Ergebnisse zeigten, dass allein der adressenbasierte Datensatz mehr als 60 % aller potenziellen CIBER-Publikationen identifizierte. Das beste Ergebnis wurde jedoch durch die Kombination mit zusätzlichen Datensätzen basierend auf Finanzierungsbestätigungen und Autoren erzielt, wodurch mehr als 80 % aller möglichen CIBER-Publikationen ohne Genauigkeitsverlust wiederhergestellt wurden. In Bezug auf die bibliometrische Leistung lagen alle CIBER-Sets über dem Landesdurchschnitt, was die Relevanz dieser virtuellen Organisationen belegt. Angesichts der zunehmenden Bedeutung dieser Strukturen und der Tatsache, dass die Autoren ihre Verbindung zu CIBER nicht immer erwähnen, werden schließlich einige Empfehlungen gegeben, um klare Richtlinien zu entwickeln, wie, wann und wo diese Beziehung spezifiziert werden soll.;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1564-z 998fb578eb9799e93df3de169c1db476;de;;;3.4.;6.4.;3.2.;Indikatoren für die Dynamik von Forschungsorganisationen: eine biomedizinische Fallstudie Dieser Beitrag berichtet über Ergebnisse einer bibliometrischen Fallstudie zur langfristigen Entwicklung von Forschungsorganisationen am Beispiel eines international führenden biomedizinischen Instituts. Mit szientometrischen Konzepten, Kleingruppentheorie, Organisationsökologie und prozessbasierter Organisationstheorie entwickelten wir ein lebenszyklusbasiertes Theoriemodell zur Analyse der langfristigen Entwicklung von Forschungsgruppen und Instituten. Es werden drei bibliometrische Indikatoren für Wachstum, Stabilität des Aktivitätsprofils und Fokus vorgeschlagen. Damit wird die Forschungsdynamik des Fallinstituts beschrieben. Erstens entspricht das Wachstum des Gesamtoutputs den internationalen Entwicklungen in der Entwicklungsbiologie und Stammzellforschung, und dementsprechend dominiert der Output von Zeitschriftenartikeln zunehmend das Tätigkeitsprofil des Instituts. Zweitens ist der Gesamtwachstumskurve überlagert eine schrittweise Entwicklung zu beobachten, die aus langen Wachstums- und Stabilisierungsphasen besteht. Diese Schritte spiegeln lokale Bedingungen und Ereignisse wider. Historische Quellen aus den Archiven der Institute und Interviews mit den aktuellen Mitarbeitern des Instituts legen nahe, dass die Lebenszyklenmuster einen starken Einfluss von Pionierpersönlichkeiten widerspiegeln. Aber wenn sie sich einmal niedergelassen haben, verzögern wegweisende Direktoren, die viele Jahre im Amt bleiben, die Anpassung der Institutsmission an die Feldentwicklungen. Darüber hinaus haben nationale Wissenschaftspolitiken zur Doktorandenausbildung und zu prioritären Bereichen die Lebenszyklen beeinflusst, ebenso wie die Zusammenlegung mit anderen Instituten. Wie in einem sozialwissenschaftlichen Fall führen auch in dieser Fallstudie stabilisierte lokale Bedingungen zu einer verzögerten Anpassung an die Dynamik des Forschungsfeldes. Im vorliegenden Fall dauerten stabile Leistungsperioden höchstens 15 Jahre, in denen lokale Impulse zu neuem Wachstum der Forschungsleistung führten und damit einen beginnenden Lebenszyklusrückgang verhinderten. Das anhaltende Wachstum im größeren Bereich hat diese lokalen Impulse sowohl gefördert als auch legitimiert.;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1235-5 9cea461c3fde78d6f017e77fa542a322;de;;;3.4.;6.4.;3.2.;Die Lebenswissenschaften in der deutsch-chinesischen Zusammenarbeit: eine institutionelle Kopublikationsanalyse Dieser Beitrag analysiert die wissenschaftliche Zusammenarbeit zwischen deutschen und chinesischen Institutionen im Bereich der Lebenswissenschaften anhand von Kopublikationen, die zwischen 2007 und 2011 in Web of Science Covered Sources veröffentlicht wurden. Nach der Analyse des weltweiten Publikationsoutputs in den Life Sciences und der Identifizierung der wichtigsten internationalen Partner Chinas auf Länderebene konzentriert sich diese Studie auf eine Netzwerk- und Clusteranalyse deutsch-chinesischer Kopublikationen auf institutioneller Ebene. Bei der Bereinigung und Vereinheitlichung aller deutschen und chinesischen Adressen wurden insgesamt 531 deutsche und 700 chinesische Institutionen identifiziert, die im Analysezeitraum gemeinsam publizierten. Durch die Disaggregation der Institute der Chinesischen Akademie der Wissenschaften konnten aussagekräftigere Informationen über bestehende Kopublikationsstrukturen gewonnen werden. Mit VOSviewer wird das deutsch-chinesische Kooperationsnetzwerk in den Lebenswissenschaften visualisiert und Cluster ähnlicher Institutionen identifiziert. Die sieben wichtigsten Cluster der deutsch-chinesischen Kopublikationspartner werden kurz beschrieben und bieten Hintergrundinformationen für Fördereinrichtungen wie das Bundesministerium für Bildung und Forschung oder Forscher aus den Lebenswissenschaften, die Kooperationen mit deutschen oder chinesischen Institutionen eingehen möchten.;-;-;-;https://link.springer.com/article/10.1007/s11192-013-1147-9 23131187107dd0c24f768ae0af928807;de;;;3.4.;6.4.;3.2.;Untersuchung der moderierenden Wirkung von Technologie-Spillovers, die in die intra- und interregionalen kollaborativen Innovationsnetzwerke Chinas eingebettet sind Ein Innovationsnetzwerk, das durch die Zusammenarbeit zwischen Einrichtungen (Firmen, Universitäten und Forschungsinstituten) formuliert wurde, erleichtert die Technologieübertragung, die normalerweise als Schlüsselfaktor zur Förderung der einheimischen Innovationsfähigkeit fungiert. Diese Studie analysiert das kollaborative Innovationsnetzwerk sowohl in intra- als auch in interregionaler Hinsicht. Wir verwenden die chinesischen biomedizinischen Patent-Co-Inventing-Daten zwischen Unternehmen, um die intra- und interregionalen kollaborativen Innovationsnetzwerke aufzubauen, und untersuchen, wie sie den Spillover-Effekt erzeugen, indem sie die Beziehung zwischen F&E-Input und -Output moderieren, sowie wie sie Technologie-Spillover aus Übersee. Die empirische Studie zeigt, dass kollaborative Innovationsnetzwerke einen signifikanten moderierenden Effekt auf das Verhältnis zwischen F&E-Personal und Innovationsoutput haben, während dieser Effekt für F&E-Investitionen unbedeutend ist. In der Dimension des intraregionalen kollaborativen Innovationsnetzwerks erzeugen Clustering-Koeffizient und Netzwerkdichte positive Moderationseffekte, indem sie die positive Beziehung zwischen F&E-Personal und Innovationsleistung verstärken. regionale Dimension, nur der Clustering-Koeffizient moderiert die Beziehung zwischen FuE-Personal und Innovationsleistung positiv. Unsere Studie ist auch für politische Entscheidungsträger relevant.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03084-1 349135074f5b45d13b233045dfd98acb;de;;;3.4.;6.4.;3.2.;Der Einfluss der Zusammenarbeit auf die Forschungsqualität In Anbetracht der Tatsache, dass Maßnahmen zur Terrorismusbekämpfung kostspielig sind und sich ein Scheitern nicht leisten kann, ist es zwingend erforderlich, dass diese Maßnahmen auf evidenzbasierten Analysen basieren. Dennoch wird die Wissensbasis der Terrorismusforschung weiterhin von konzeptuellen Stücken dominiert. Um die Zahl der evidenzbasierten Studien zu erhöhen, die Entscheidungsträgern zur Verfügung stehen, ist es wichtig zu testen, welche Arten von Forschungskooperationsgemeinschaften am ehesten evidenzbasierte Forschung produzieren. Ziel der Studie ist es, diesen Bedarf zu decken. Anhand von Modellen der Wissensproduktion und der Literatur zur Analyse sozialer Netzwerke werden normative und strukturelle Merkmale eines Wissensproduktionssystems als messbare Indikatoren abgegrenzt und operationalisiert, die am ehesten mit der größten Anzahl evidenzbasierter Studien pro Forschungsgemeinschaft korrelieren. Anhand von Regressions- und Clusternetzwerkanalysen von Kollaborationsnetzwerken von Autoren und Organisationen, die zur Terrorismusforschung beitragen, wird eine Hypothesenliste zur Terrorismusforschung entwickelt und getestet, die zwischen 1992 und 2013 veröffentlicht wurde. Die Ergebnisse zeigen, dass heterogene und organisatorisch vielfältige Forschungsgruppen eher eine größere Menge an evidenzbasierter Forschung generieren als homogenere Gruppen. Andere Prädiktoren für die Zunahme der Anzahl evidenzbasierter Studien, die von einer Forschungsgruppe erstellt werden, sind die Gesamtgradzentralität der Gruppe und die Anzahl der internen Links, was darauf hindeutet, dass die wissenschaftliche Zusammenarbeit zwischen Autoren und Organisationen für die Erstellung von Politikforschung auf der Grundlage von Datenanalysen unerlässlich ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16268-3_12 2a070a6bc311019d77d9c772f8ccf39a;de;;;3.4.;6.4.;3.2.;Veröffentlichungen aus dem Biotechnologie-Aktionsprogramm (BAP) der Europäischen Gemeinschaft: Multinationalität, Anerkennung der Unterstützung und Zitate Es werden die Ergebnisse einer Analyse von 1333 vom BAP unterstützten Arbeiten im SCI von 1986–1993 mit ihrem Grad der Transnationalität, dem Grad der Abhängigkeit vom Programm und der Neigung, dies anzuerkennen, sowie ihrer Zitation durch Autoren in verschiedenen Gruppen von Ländern. Die Veröffentlichungen der Papiere sind fast dreimal so transnational wie andere EG-Biotechnologie-Papiere, aber fast 25 % der einzelstaatlichen Papiere hängen von ausländischen Koautoren ab oder erkennen transnationale Unterstützung an. BAP wurde von 80 % der Papiere anerkannt, die 20 % oder mehr Unterstützung erhielten. Zitate von Autoren aus anderen EG-Mitgliedstaaten sind für viele der zusätzlichen Zitationen in BAP-Papieren verantwortlich und zeigen, dass die Ergebnisse des Programms von der Kommission innerhalb der EG effektiv verbreitet wurden.;-;-;-;https://link.springer.com/article/10.1007/BF02018556 5a83f7ee4c37233293a2733290db803c;de;;;3.4.;6.4.;3.2.;Die Dynamik von Wissensnetzwerken in einem mobilen Ökosystem: eine Patentzitierungsanalyse Das Paradigma des mobilen Ökosystems ändert sich rasant, insbesondere seit der Versteigerung von Smart Devices. Neue wichtige Akteure treten auf, und die Reichweite des mobilen Ökosystems erweitert und stößt an die technologischen Grenzen anderer IT-Ökosysteme. Unser Verständnis des mobilen Ökosystems war jedoch aufgrund der wenigen vorhandenen Studien begrenzt. Daher untersuchen wir in diesem Papier empirisch die Netzwerkstruktur eines mobilen Ökosystems, indem wir den Technologie-Wissensfluss zwischen Unternehmen basierend auf einer Patentzitierungsanalyse der mobilen Industrie messen. Wir haben festgestellt, dass sich Plattformanbieter als Zentrum der Wissensflussaktivitäten im Ökosystem entwickeln. Durch die Einführung eines neuen Netzwerkindex, des Network Concentration Index, der das Wissenskonzentrationsverhältnis eines Unternehmens in Bezug auf Teilsektoren misst, stellten wir außerdem fest, dass jeder Plattformanbieter unterschiedliche Muster in seinem Technologiewissensnetzwerk aufweist und dass jeder mit zunehmendem Einfluss auf verbundene Unternehmen.;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2270-9 04dfb941319a959a521e15fbdd574958;de;;;3.4.;6.4.;3.2.;Was ein Doppelpunkt für einen Unterschied macht: Wie oberflächliche Faktoren das spätere Zitieren beeinflussen Zitiert zu werden ist wichtig für Wissenschaftler und für die Institutionen, in denen sie arbeiten. Ob aufgrund des Einflusses auf den wissenschaftlichen Fortschritt oder aufgrund des Rufs von Wissenschaftlern und ihren Institutionen, zu verstehen, warum manche Artikel häufiger zitiert werden als andere, kann Wissenschaftlern helfen, häufiger zitierte Artikel zu schreiben. Dieser Artikel baut auf früherer Literatur auf, die scheinbar oberflächliche Faktoren identifiziert, die die Zitationsrate von Artikeln beeinflussen. Drei Themenkategorien des Journal Citation Report werden analysiert, um diese Effekte zu identifizieren. Aus einer Reihe von 2.016 Artikeln in Soziologie, 6.957 Artikeln in Allgemeine und Innere Medizin und 23.676 Artikeln in Angewandter Physik wurden neben PDFs der vollständigen Artikel auch Metadaten aus dem Web of Knowledge heruntergeladen. Als Analysefaktoren wurden in diesem Artikel die Anzahl der Wörter im Titel, die Anzahl der Seiten, die Anzahl der Referenzen, die Sätze in der Zusammenfassung, die Sätze in der Arbeit, die Anzahl der Autoren und die Lesbarkeit identifiziert.;-;-;-;https://link.springer.com/article/10.1007/s11192-013-1154-x 6d3de5517ef4b86611538c27779e3ebc;de;;;3.4.;6.4.;3.2.;Bestimmende Faktoren der Zentralität von Städten in den interregionalen Innovationsnetzwerken der chinesischen biomedizinischen Industrie Diese Studie analysierte die Determinanten der Gradzentralität der Regionen sowie deren zeitliche Variation in interregionalen Innovationsnetzwerken und verglich die Faktorenunterschiede zwischen entwickelten und weniger entwickelten Regionen (Kern und Peripherie). Wir haben uns auf Chinas biomedizinische Industrie konzentriert und die Daten zu Co-Patenten auf Präfekturebene (2012–2017) verwendet, um Intercity-Netzwerke und die zentrale Bedeutung der Städte für sektorregionspezifische Faktoren zu konstruieren. Wir fanden: (1) In Innovationsnetzwerken zwischen Städten existiert ein „Konvergenz“-Prozess der regionalen Einbettung. (2) Das Volumen der nationalen öffentlichen Förderung für die Grundlagenforschung in der biomedizinischen Industrie spielt die wichtigste Rolle für die Zentralität von Städten, unabhängig von entwickelten oder unbebauten Städten. (3) Für die Zentralitätsposition der entwickelten Städte ist die Intensität der intraregionalen Zusammenarbeit in der biomedizinischen Industrie der sekundäre Einflussfaktor, daneben sind weitere positive Faktoren die Innovationsleistung, die industrielle Marktanwendung und die Cluster-Wettbewerbsfähigkeit, aber die peripheren Städte sind davon nicht betroffen . (4) Der zweitwichtigste Faktor für die Zentralität peripherer Städte ist die Zahl der biomedizinischen Firmen. Wir kamen zu dem Schluss, dass Chinas öffentliche Finanzierung der Grundlagenforschung trotz des Einflusses der Pfadabhängigkeit im Bereich der analytischen Industrie die Lücke in der Vernetzungsfähigkeit zwischen den entwickelten und rückständigen Städten verringert hat.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03853-3 b381c4e190cc22b5e4570f4157cad0de;de;;;3.4.;6.4.;3.2.;F&E im Verteidigungsbereich messen: Ein Hinweis auf Probleme und Mängel Die F&E im Verteidigungsbereich macht weiterhin einen sehr großen Anteil der Forschungsanstrengungen vieler Länder aus und behält ihre Rolle in den nationalen Innovationssystemen oft bei oder baut sie sogar aus. Die quantitative Analyse der Verteidigungsforschungsbemühungen und ihrer Auswirkungen wird jedoch durch Schwierigkeiten bei der Definition von Verteidigungsforschung und -entwicklung beeinträchtigt. Der Artikel untersucht diese Schwierigkeiten und konzentriert sich auf die Frage, was Verteidigungs-FuE ausmacht und was nicht. Er stellt fest, dass der OECD-Ansatz, Verteidigungs-FuE auf der Grundlage der primären Forschungsziele zu definieren, unzureichend ist, insbesondere vor dem Hintergrund der zunehmenden Betonung von Dual-Use-Technologien und -Forschung. Anschließend werden alternative Ansätze analysiert, die eine solidere Grundlage für alle systematischen Bemühungen zur Sammlung internationaler F&E-Daten im Verteidigungsbereich bieten könnten;-;-;-;https://link.springer.com/article/10.1007/BF02458465 845862b8efb2c3a9c89493ee9d9231d6;de;;;3.4.;6.4.;3.2.;Spiegelt sich die Forschungsförderung in bibliometrischen Daten wider? Eine Netzwerkanalyse hochzitierter Arbeiten zu den im Rahmen der Exzellenzinitiative geförderten Exzellenzclustern in Deutschland Im Rahmen der Exzellenzinitiative werden seit 2006 und 2007 mehrere Exzellenzcluster in Deutschland gefördert – darunter jeweils eine begrenzte Zahl kooperierender Einrichtungen. Ziel der vorliegenden Studie ist es zu untersuchen, ob sich die Förderung von Exzellenzclustern seit 2006 und 2007 in bibliometrischen Netzdaten niederschlägt. Dazu wird ein Vergleich zwischen Netzdaten im Zeitraum vor Förderbeginn (2003–2005) und im Zeitraum nach Förderbeginn (2009–2011) durchgeführt. Für diese beiden Zeiträume wird ein Koautorenschaftsnetzwerk (basierend auf den geförderten Institutionen) generiert. Diese basiert auf Publikationen, die in ihrem jeweiligen Fachgebiet und Erscheinungsjahr zu den 1 % der meistzitierten Publikationen gehören und mindestens einen Autor aus Deutschland haben. Wie die Ergebnisse zeigen, unterscheiden sich die Ergebnisse für die Lebenswissenschaften und die Naturwissenschaften voneinander. Während die Naturwissenschaften einen Effekt der Etablierung von Exzellenzclustern auf die bibliometrischen Netzwerke zeigen, trifft dies auf die Lebenswissenschaften nicht zu. Nach Etablierung der Exzellenzcluster umfasste das Netzwerk in den Naturwissenschaften nicht nur mehr Einrichtungen eines Exzellenzclusters, sondern diese Einrichtungen waren auf weniger bibliometrische Cluster im Netzwerk verteilt als vor der Einrichtung. Mit anderen Worten, die Struktur der Exzellenzcluster spiegelte sich besser im Netzwerk wider.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-1925-2 9981048ec37cc6dd92d2d2442e2000ec;de;;;3.4.;6.4.;3.2.;Wissenschaftliche Kooperationen zwischen Organisationen und politische Effekte: eine evolutionäre Perspektive des Ego-Netzwerks der Chinesischen Akademie der Wissenschaften Die Entstehung, Entwicklung und Dynamik der wissenschaftlichen Zusammenarbeit zwischen Industrie, Universität und Forschungsinstitut (IUR) in China wurde in der vorhandenen Literatur nicht vollständig aufgedeckt. Diese Studie versucht, diese Forschungslücke anhand einer neuartigen Stichprobe der China Academy of Sciences (CAS) aus einer Ego-Netzwerk-Perspektive zu schließen und zeigt insbesondere die führende Rolle der Regierungspolitik auf. Indem wir die organisationsübergreifenden wissenschaftlichen Kollaborationssysteme des CAS mit Unternehmen und Universitäten als Stellvertreter für die IUR-Kooperationen in China nehmen, untersuchen wir die dynamische Entwicklung und die Charakteristiken der IUR-Kooperationsnetzwerke in China im Zeitraum von 1978 bis 2015. Unsere Studie zeigt ein gleichzeitiger Trend entsprechend den Auswirkungen der staatlichen Wissenschafts- und Technologiepolitik (W&T) auf die Gestaltung der Verbindungen zwischen öffentlichen Forschungsinstituten, Unternehmen und Universitäten in den letzten Jahrzehnten. Insbesondere stellen wir fest, dass die von der Regierung erlassenen W&T-Richtlinien die dynamische Entwicklung der Small-World-Struktur in den wissenschaftlichen Kooperationsnetzwerken öffentlicher Forschungsinstitute mit Unternehmen und Universitäten im Laufe der Zeit beeinflussen können. Diese Studie bereichert die empirische Forschung zu IUR-Kooperationen im Kontext Chinas, indem sie die Muster der bilateralen oder trilateralen Kooperationen zwischen und zwischen CAS mit Industrien und Universitäten in diesem Land untersucht, was nicht nur zum Verständnis der dynamischen Entwicklung von Chinas IUR-Kooperationen in den Kontext einer Reihe von staatlichen W&T-Politiken, sondern trägt auch dazu bei, unser Verständnis der Merkmale von Chinas nationalem Innovationssystem zu vertiefen.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-2022-2 7bd48cc5d3a0ff852b50f714d6155e61;de;;;3.4.;6.4.;3.2.;Signierter PageRank auf Online-Bewertungssystemen Die Bewertungen in vielen Benutzerobjekt-Online-Bewertungssystemen können widerspiegeln, ob Benutzer die Objekte mögen oder nicht mögen, und in einigen Online-Bewertungssystemen können Benutzer direkt wählen, ob sie ein Objekt mögen. Somit können diese Systeme durch signierte zweiteilige Netzwerke repräsentiert werden, aber der ursprüngliche unsignierte Knotenbewertungsalgorithmus kann nicht direkt in den signierten Netzwerken verwendet werden. Dieses Papier schlägt den Signed PageRank-Algorithmus für signierte bipartite Netzwerke vor, um die Objekt- und Benutzerknoten gleichzeitig auszuwerten. Basierend auf den globalen Informationen können die Knoten nach den Signed PageRank-Werten in absteigender Reihenfolge sortiert werden, und das Ergebnis ist das SR-Ranking. Die Autoren analysieren die Eigenschaften der oberen und unteren Knoten der realen Netzwerke und finden heraus, dass das SR-Ranking für Objekte ein vernünftigeres Ranking liefern kann, das den Grad und die Bewertung des Knotens kombiniert, und der Algorithmus kann uns auch helfen, Benutzer mit zu identifizieren bestimmte Bewertungsmuster. Durch die Diskussion der Lage negativer Kanten und der Empfindlichkeit des Objekt-SR-Rankings gegenüber negativen Kanten untersuchen die Autoren auch, dass die negativen Kanten eine wichtige Rolle im Algorithmus spielen und erklären, warum die schlechten Bewertungen in realen Netzwerken wichtiger sind.;-;-;-;https://link.springer.com/article/10.1007/s11424-021-0124-2 34362ce031ced20181b668448a0b2102;de;;;3.4.;6.4.;3.2.;Die Rolle südafrikanischer Forscher in der interkontinentalen Zusammenarbeit Die hier vorgestellte Analyse konzentriert sich auf die Kartierung der wissenschaftlichen Zusammenarbeit afrikanischer Forscher und die Rolle der südafrikanischen Forschungsgemeinschaft als Kanal für inner- und interkontinentale Kooperationen, basierend auf Publikationsergebnissen. Wir haben 10 wissenschaftliche Bereiche ausgewählt, nämlich Tropenmedizin, Parasitologie, Infektionskrankheiten, Ökologie, Wasserressourcen, Immunologie, Zoologie, Pflanzenwissenschaften, Agrar- und Lebensmittelwissenschaften und Psychologie, um ein klares Bild der oben genannten wissenschaftlichen Tätigkeit zu erhalten. In einem ersten Schritt haben wir Kooperationsnetzwerke erstellt und auf Weltkarten visualisiert. Darüber hinaus wurden Zentralitätsmaße des Netzwerks berechnet, um die Häufigkeit der Beteiligung in Bezug auf verschiedene Länder, mit Schwerpunkt auf Südafrika, im Kooperationsprozess zu sehen. Darüber hinaus wurden Erst- und Letztautorenpositionen der Publikationen zusammengefasst, um den Einfluss der ausgewählten Autorinnen und Autoren auf die Ausrichtung und die bereitgestellten Ressourcen der Publikationen hervorzuheben. Schließlich wurden die prominentesten Förderorganisationen und deren Fokus auf die ausgewählten Bereiche herausgegriffen. Durch die Kombination dieser Analyseschritte erhielten wir ein genaues Bild vom Grad der Beteiligung der südafrikanischen Forschungsgemeinschaft an der inner- und interkontinentalen wissenschaftlichen Zusammenarbeit.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03230-9 32984c8540e92a264981b47caa03f79c;de;;;3.4.;6.4.;3.2.;Wird die Wissenschaft von leitenden Forschern getrieben? In diesem Beitrag gehen wir der Frage nach, wie hoch die wissenschaftliche und berufliche Leistung von Principal Investigators (PI’s) öffentlich geförderter Forschungsprojekte im Vergleich zur wissenschaftlichen Leistung aller Forscher ist. Unsere Studie basiert auf qualitativ hochwertigen Daten über (1) in Slowenien vergebene Forschungsprojekte im Zeitraum 1994–2016 (7508 Projekte mit insgesamt 2725 PIs) und (2) über die wissenschaftliche Produktivität aller Forscher in Slowenien, die in diesem Zeitraum aktiv waren 1970–2016 – es gibt insgesamt 19.598 solcher Forscher, einschließlich der PIs. Wir vergleichen die durchschnittliche Produktivität, Kollaboration, Internationalität und Interdisziplinarität der PIs und aller aktiven Forschenden. Unsere Analyse zeigt, dass für alle vier Indikatoren die durchschnittliche Leistung der PIs im Vergleich zur durchschnittlichen Leistung aller aktiven Forscher viel höher ist. Darüber hinaus analysieren wir die Karrieren beider Forschergruppen. Die Ergebnisse zeigen, dass die PIs im Vergleich zu allen aktiven Forschenden in Bezug auf alle Karriereindikatoren im Durchschnitt eine längere und fruchtbarere Karriere haben. Die PI's, die ein Postdoc-Stipendium erhalten haben, weisen zu Beginn herausragende wissenschaftliche Leistungen auf, weichen später aber vom Durchschnitt ab. Auf lange Sicht weisen die wissenschaftlichen Leiter der Forschungsprogramme (die prestigeträchtigsten Stipendien) im Durchschnitt die beste wissenschaftliche Leistung auf. Im letzten Teil der Arbeit untersuchen wir 23 Koautorenschaftsnetzwerke, die von allen aktiven Forschern in den Zeiträumen 1970–1994, ..., 1970–2016 überspannt wurden. Wir stellen fest, dass sie gut verbunden sind und dass PIs gut über diese Netzwerke verteilt sind, die ihr Rückgrat bilden. Darüber hinaus generieren PIs neue PIs, da mehr als 90% der neuen PIs mit bestehenden PIs verbunden sind (mindestens eine gemeinsame wissenschaftliche Publikation haben). Wir glauben, dass unsere Studie ein neues Licht auf die Beziehungen zwischen der öffentlichen Finanzierung der Wissenschaft und dem wissenschaftlichen Output wirft und als bejahende Antwort auf die im Titel gestellte Frage angesehen werden kann.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2900-x 0058bea4d1faeebcea1aea4b095aea5c;de;;;3.4.;6.4.;3.2.;Anerkennungsnetzwerk und Zitationszahl: die moderierende Rolle des Kollaborationsnetzwerks Die in der Anerkennung einer Arbeit genannten Wissenschaftler (Aknowledgees) spielen eine wichtige Rolle bei der Entwicklung der Arbeit und der Anzahl der Zitationen. Es gibt jedoch nur wenige Studien über die Anerkennungen aus einer Netzwerkperspektive. Basierend auf der Theorie der sozialen Netzwerke schlagen wir vor, dass die Zitationszahl einer Arbeit stark vom Anerkennungsnetzwerk beeinflusst wird. Es wird erwartet, dass das Kooperationsnetzwerk die Beziehung zwischen Anerkennungsnetzwerk und Zitationszahl negativ moderiert. Wir bauen das Anerkennungsnetzwerk mit Knoten als Anerkennungen und Autoren und Bindungen als Anerkennungsbeziehung zwischen ihnen auf. Unter Verwendung der bibliographischen Daten wissenschaftlicher Artikel von 2008 bis 2010 im Bereich Windenergie als Beispiel, die von der Web of Science Core Collection Datenbank bereitgestellt werden, bauen wir sowohl ein Anerkennungsnetzwerk als auch ein Kooperationsnetzwerk auf. Als Untersuchungsmethoden werden ein negatives binomiales Regressionsmodell und mehrere Robustheitstests verwendet. Die Ergebnisse zeigen, dass sich die Zentralität der Anerkennungen im Anerkennungsnetzwerk positiv auf die Zitationszahl auswirkt. Die Zentralität der Autoren im Kooperationsnetzwerk moderiert die Beziehung zwischen der Zentralität der Anerkennungen und der Zitationszahl negativ. Je höher die Zentralität des Autors im Kooperationsnetzwerk ist, desto wahrscheinlicher wird der Effekt der Zentralität der Anerkennungen auf die Zitationszahl des Artikels gehemmt. Abschließend werden die theoretischen und methodischen Beiträge sowie praktische Implikationen diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s11192-021-04090-y e83393d4b1de5e10fa2f00ba9b8290ea;de;;;3.4.;6.4.;3.2.;Kartierung der Zusammenarbeit in der internationalen Kaffeezertifizierungsforschung Ziel dieses Artikels ist es, wissenschaftliche Produktions- und Kooperationsnetzwerke zum Thema zertifizierter Kaffee in den Datenbanken Scopus und Web of Science für den Zeitraum von 2009 bis 2019 abzubilden. Dazu werden bibliometrische Analysetools eingesetzt – kollaborative Netzwerke, Co-Citation, co -Autorenschaft und bibliografische Kopplung – zu einer Reihe von 209 Artikeln von Scopus und 306 Artikeln aus der Datenbank Web of Science. Die Ergebnisse dieser Studie lassen den Schluss zu, dass, obwohl die wissenschaftliche Produktion zu Kaffee und Zertifizierungen in Scopus und Web of Science in den letzten zehn Jahren zugenommen hat, die Forschung zu diesem Thema eine geringe Prävalenz von kollaborativen Netzwerken aufweist und sich auf eine kleine Zahl konzentriert von Zeitschriften. Bemerkenswert ist, dass Umwelt- und Nachhaltigkeitsstudien eine führende Rolle spielen, während es im Wirtschaftsbereich einen Mangel an Studien gibt.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03549-8 30cd330c70c9b3d4902c037df8b44817;de;;;3.4.;6.4.;3.2.;Wissensflüsse in Innovationssystemen nachverfolgen Dieses Papier gibt einen Überblick über quantitative Ansätze, die verwendet werden, um die Verbindung zwischen Wissenschaft und Technologie zu untersuchen. Unsere Diskussion ist geprägt von einer Reihe theoretischer Ansätze, die sich in den letzten Jahren im Bereich der Innovationsforschung herausgebildet haben, die den Austausch von Akteuren im Innovationssystem und eine Verschiebung der Arbeitsteilung zwischen öffentlich geförderter Grundlagenforschung und industrieller Technologieentwicklung betonen . Wir überprüfen die eher quantitative Literatur zu den Bemühungen, solche Verknüpfungsphänomene zu untersuchen, denen die Theoriebildung im wissenschaftspolitischen Bereich große Bedeutung beigemessen hat. Anschließend stellen wir eine Typologie von drei Ansätzen vor, um die Verbindung zwischen Wissenschaft und Technologie zu untersuchen – Patentzitierung, Arbeitswissenschaft und Universitätspatentierung. Für jeden Ansatz werden wir Vorzüge und mögliche Nachteile diskutieren. In einem weiteren Schritt veranschaulichen wir sie anhand von Ergebnissen aus Studien des finnischen Innovationssystems. Schließlich listen wir die wichtigsten Einschränkungen der informetrischen Methoden auf und weisen auf mögliche hybride Ansätze hin, die einige von ihnen beheben könnten.;-;-;-;https://link.springer.com/article/10.1023/A%3A1016057727209 6e290c338dc553460c633a8edccbbf05;de;;;3.4.;6.4.;3.2.;Innovative Wissensgemeinschaften Eine nützliche Analyseebene für das Studium von Innovation können sogenannte „Wissensgemeinschaften“ sein – intellektuell zusammenhängende, organische Formen zwischen Organisationen. Formale Organisationen wie Firmen können die Zusammenarbeit hervorragend fördern, aber Wissensgemeinschaften sind bei der Förderung der Zusammenarbeit überlegen – dem wichtigsten Prozess der Innovation. Anstatt sich darauf zu konzentrieren, was die Leistung in formellen Organisationen fördert, untersuchen wir, welche Merkmale aggregierte überlegene Leistungen in informellen Wissensgemeinschaften in der Informatik fördern. Konkret untersuchen wir die Art und Weise, wie Wissensgemeinschaften sowohl auf früheres Wissen zurückgreifen, wie es in Zitaten zu sehen ist, als auch Rhetorik verwenden, wie sie im Schreiben gefunden wird, um eine Grundlage für unterschiedlichen Erfolg zu suchen. Wir stellen fest, dass erfolgreiche Wissensgemeinschaften bei der Nutzung von Wissen aus einem breiten Spektrum von Quellen schöpfen und äußerst flexibel in Veränderungen und Anpassungen sind. Im Gegensatz dazu neigen erfolgreiche Wissensgemeinschaften bei der Verwendung von Rhetorik dazu, sehr ähnliche Vokabulare und eine Sprache zu verwenden, die sich im Laufe der Zeit nicht verändert oder anpasst und im Vergleich zum Vokabular anderer Gemeinschaften nicht einzigartig oder esoterisch ist. Ein besseres Verständnis dafür, wie organisationsübergreifende kollaborative Netzwerkstrukturen Innovationen fördern, ist wichtig, um zu verstehen, was Innovation antreibt und wie sie gefördert werden kann.;-;-;-;https://link.springer.com/article/10.1007/s11192-009-0102-2 6d33fadd8026aeef93fd28b07b224c71;de;;;3.4.;6.4.;3.2.;Angewandte Szientometrie: Eine Bewertungsmethodik für Entwicklungsländer Ein von den Vereinten Nationen gefördertes Projekt wird beschrieben, um eine praktikable Methode zur Bewertung der Auswirkungen von Wissenschaft und Technologie in den Entwicklungsländern zu formulieren und weitere Forschungen zur Verbesserung der Entwicklung solcher Indikatoren vorzuschlagen. Nach einer Diskussion der Bedeutung des Projekts werden die Ziele von Wissenschaft und Technik zusammengefasst, gefolgt von den Elementen, die bei einem solchen Bewertungsverfahren berücksichtigt werden müssen, und der Struktur der Beziehungen zwischen diesen Elementen. Der erste Schritt im Bewertungsprozess besteht darin, eine Karte des zu bewertenden Teils des Systems zu erstellen. Anschließend werden die verwendbaren Indikatorentypen aufgelistet, und es wird vermutet, dass der Status dieser Indikatoren schwach ist, insbesondere im Hinblick auf ihre Anwendbarkeit auf Entwicklungsländer. Es wird vorgeschlagen, eine kleine Zahl spezifischer Pilotprojekte durchzuführen, um die in der Diskussion enthaltenen allgemeinen Ideen zu testen und mit neuartigen Indikatoren zu experimentieren.;-;-;-;https://link.springer.com/article/10.1007/BF02017144 e570f532ebedabd2538dcae347a0e7f6;de;;;3.4.;6.4.;3.2.;Eine bibliometrische Studie der Veröffentlichungen des französischen Nationalen Instituts für Gesundheit und medizinische Forschung (INSERM) Durch das Herunterladen von Referenzen aus der MEDLINE und dem;-;-;-;https://link.springer.com/article/10.1007/BF02019274 36c6d8f23c8d1258c7c6a5c071af2aca;de;;;3.4.;6.4.;3.2.;Disziplinarische Determinanten bibliometrischer Auswirkungen in der dänischen Industrieforschung: Zusammenarbeit und Sichtbarkeit Unternehmen sind für Innovationen zunehmend von Netzwerken und Netzwerksichtbarkeit abhängig. Der bibliometrische Impact kann als Maß für die Sichtbarkeit eines Unternehmens in wissensproduzierenden Netzwerken angesehen werden und kann erklären, warum Unternehmen ihre Ergebnisse veröffentlichen. Diese Sichtbarkeit variiert jedoch zwischen den Disziplinen. Dieser Artikel untersucht Veröffentlichungen dänischer Unternehmen aus den Jahren 1996, 1998 und 2000, um zu zeigen, wie sich Zitations- und Kooperationsmuster in verschiedenen Disziplinen verhalten. Die wichtigsten Ergebnisse sind, dass für Disziplinen, die durch internationale Zusammenarbeit und viele Autoren pro Paper gekennzeichnet sind, internationale Zusammenarbeit zu einer höheren Anzahl von Zitationen führt. Nationale Zusammenarbeit scheint jedoch keinen Einfluss auf die Zitationswirkung in der industriellen Forschung zu haben. In Disziplinen, in denen multinationale Zusammenarbeit und Multi-Autorenschaft selten sind, lässt sich kein klares Bild der Wirkungsmuster gewinnen. Darüber hinaus kann diese Forschung Erkenntnisse darüber liefern, wie Zitate von Artikeln in wissenschaftlichen Zeitschriften als potenzielles Fenster zu wissenschaftlichen Netzwerken für Unternehmen genutzt werden können.;-;-;-;https://link.springer.com/article/10.1023/B%3ASCIE.0000041651.26664.14 863eeda33a49ca0ede52ad4f251e7c25;de;;;3.4.;6.4.;3.2.;Thematische Verbindungen zwischen den Institutionen innerhalb einer Organisation (institutionelle Koautorenschaften, direkte Zitationslinks und Kozitationen) In den letzten Jahren wurden zahlreiche Studien veröffentlicht, die bibliometrische Daten verwendet haben, um Kooperationen in der Forschung zu untersuchen. Die vorliegende Studie stellt einen Vorschlag vor, mit dem die thematischen Zusammenhänge der Institutionen einer Organisation durch die Analyse von Co-Autorenschaften, direkten Zitationsverknüpfungen und Co-Zitaten untersucht werden können. Anhand verschiedener bibliometrischer Datensätze für eine Organisation, deren Institutionen als Beispiel dienen, veranschaulicht diese Studie die Möglichkeit, das Selbstverständnis von Institutionen dieser Organisation (Ko-Autorenschaften, direkte Zitationslinks) im Hinblick auf (mögliche) gegenseitige Zusammenarbeit mit der Außenwahrnehmung (Co-Citations). Dieser Vergleich erfolgt zum einen für die gesamte Organisation mit Hilfe von Netzwerkgraphen, zum anderen wird der Vergleich für eine bestimmte Institution und deren (mögliche) Kooperationen in der Organisation tabellarisch dargestellt. Insbesondere die tabellarische Aufgliederung der Verbindungen zwischen den Institutionen kann konkrete Hinweise auf mögliche weitere Kooperationen zwischen den Institutionen geben, die sich noch nicht in Koautorenschaften manifestiert haben.;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1425-1 5bf84afdcc543a839e0e9d578b12ccfc;de;;;3.4.;6.4.;3.2.;Vergleichende Trends der Forschungsleistung der russischen Universitäten Wir analysierten vergleichende Trends in der Forschungsleistung der russischen Institutionen auf der Grundlage der quantitativen und qualitativen Daten, die in den internationalen Datenbanken SciVal, Scopus, Web of Science und den nationalen russischen Datenbanken von 2012 bis Dezember 2017 verfügbar waren. Die Russische Föderation repräsentierte 2,0% der Weltbevölkerung und 2% der Forscher, während sie 2,2% der weltweiten Veröffentlichungen (14. Der wissenschaftliche Output der russischen Autoren stieg um 79 %, der feldgewichtete Zitiereffekt um 12 % und der Output in den Top-Zitat-Perzentilen um 21 %, jedoch ohne einen statistisch signifikant positiven Zusammenhang zwischen höheren Investitionen in Forschung und Entwicklung und dem Anstieg des nationalen BIP. Die wissenschaftlichen Leistungen der russischen Publikationen in Mathematik, Physik und Astronomie gehören zu den 5 Top-Ländern. Die feldgewichteten Massenmedienwirkungen, die Anzahl der Zitationen pro Publikation, Zitationen pro Autor und pro Publikation, Metriken der internationalen Zusammenarbeit und der Zusammenarbeit zwischen Wissenschaft und Unternehmen sowie die wirtschaftlichen Auswirkungen der russischen Forschung bleiben jedoch gering. Die routinemäßige Analyse der Forschungsleistung und der wirtschaftlichen Auswirkungen von FuE-Ausgaben sollte sich in einer transparenten Verteilung der staatlichen Forschungsförderung widerspiegeln. Rechtliche Aspekte der internationalen Forschung müssen entwickelt werden, um eine vollständige Integration der russischen Wissenschaft in die internationalen Forschungsaktivitäten zu gewährleisten.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2807-6 1211bf10f5892771e8814f6c21dd7644;de;;;3.4.;6.4.;3.2.;Eine bibliometrische Analyse der exekutiven Funktionen bei der Autismus-Spektrum-Störung Executive Functions (EFs) ist einer der weit verbreiteten Bereiche der Kognitionswissenschaft, der bei der Autismus-Spektrum-Störung (ASS) viel Aufmerksamkeit erhalten hat. Angesichts der Bedeutung sowie der Breite und Komplexität der verschiedenen beteiligten Disziplinen untersucht die vorliegende Studie die EF-Literatur über einen Zeitraum von 30 Jahren. Die im Web of Science (WOS) zwischen 1990 und 2019 indizierten EF-Forschungen wurden mit der bibliometrischen Methode analysiert. Die Ergebnisse zeigten, dass 5514 Dokumente einen signifikanten Zitationsdurchschnitt aufwiesen (Zitate pro Dokument = 30,6). Die Analyse ergab, dass die Vereinigten Staaten die größte Anzahl von Veröffentlichungen (2519) in diesem Bereich aufwiesen und bei den meisten bibliometrischen Indikatoren übertrafen, gefolgt von Großbritannien (819), Kanada (394) und Australien (362). Die meisten Dokumente wurden von Autoren veröffentlicht, die mit der University of London verbunden sind (386). Journal of Autism and Developmental Disorders veröffentlichte den größten Anteil an Dokumenten (508 Dokumente, 9,21% aller Veröffentlichungen). Schließlich zeigte das Ergebnis der Korrelation zwischen bibliometrischen Indikatoren und der globalen Prävalenzrate von ASD in Ländern mit hoher Prävalenz einen moderaten und signifikanten Zusammenhang zwischen den ASD-Prävalenzraten mit zwei Indikatoren: Citations per Document/CPD (rKTB = .39,;-;-;-;https://link.springer.com/article/10.1007/s12144-021-01947-6 b993fa83d2bf41671c72be497ccd1f2b;de;;;3.4.;6.4.;3.2.;Wachstumsphasen in einem Green-Tech-Forschungsnetzwerk: eine bibliometrische Bewertung der Brennstoffzellentechnologie von 1991 bis 2010 Diese Studie deckt die Entwicklung eines Brennstoffzellen-Forschungsnetzwerks anhand einer bibliometrischen Studie mit Schwerpunkt auf einen Zeitraum von 1991 bis 2010 auf. Aus einem Datensatz von 37.435 Forschungsartikeln konzentriert sich die Studie auf die Entwicklung von Brennstoffzellen-Forschungsnetzwerken auf nationaler Ebene. Ausschließlich auf den Ausbau der Forschungsnetzwerke und Kooperationspolitiken fokussiert, stellt der Beitrag drei Forschungsfragen: 3) Können wir einen Cluster unter bestimmten Ländern identifizieren? Zur Beantwortung der Forschungsfragen wurden die Daten mit Erkenntnissen zum weltweiten wissenschaftlichen Gesamtoutput verglichen. Darüber hinaus wurde eine Ego-Netzwerkanalyse durchgeführt und ein Modularitätsalgorithmus verwendet, um Cluster aus den Netzwerkdaten zu identifizieren. Die Studie zeigte, dass sich die Zusammenarbeit in der Brennstoffzellenforschung im Zeitraum der Studie deutlich weiterentwickelt hat. Die Forschung hat sowohl im Umfang als auch in der Kooperation zugenommen, aber die Forschungskooperation ist unkonzentrierter als in der Wissenschaft insgesamt. Nicht-TRIAD-Länder spielen in der Brennstoffzellenforschung eine stärkere Rolle als in der Wissenschaft insgesamt. Cluster in der Forschungskooperation haben sich zu zwei Formen der Zusammenarbeit entwickelt – eine um Asien und Nordamerika und die zweite um die europäische Zusammenarbeit mit den USA und Asien.;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1285-8 2eeb1ee1a5f8f74289952e281ebbc77e;de;;;3.4.;6.4.;3.2.;Link-Proximity-Analyse - Clustering von Websites durch Untersuchung der Link-Proximität Dieses laufende Forschungspapier präsentiert einen neuen Ansatz namens Link Proximity Analysis (LPA) zur Identifizierung verwandter Webseiten basierend auf der Linkanalyse. Im Gegensatz zu aktuellen Techniken, die die Intra-Page-Link-Analyse ignorieren, untersucht die hier vorgestellte die relative Positionierung von Links zueinander innerhalb von Websites. Der Ansatz nutzt die Tatsache, dass auf nahezu jeder Webseite ein klarer Zusammenhang zwischen der Nähe von Links zueinander und der Themenbezogenheit der verlinkten Webseiten zu beobachten ist. Durch die statistische Analyse dieses Zusammenhangs und die Messung der Anzahl von Sätzen, Absätzen etc. zwischen zwei Links können automatisch verwandte Websites identifiziert werden, wie eine erste Studie belegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15464-5_54 73b9bf9c3ba43a950e20db2aeb001ffa;de;;;3.4.;6.4.;3.2.;Bewertung des wissenschaftlichen und technologischen Outputs von EU-Rahmenprogrammen: Evidenz aus den RP6-Projekten im IKT-Bereich Dieses Papier bietet eine quantitative Bewertung der wissenschaftlichen und technologischen Produktivität von RP6-Projekten durch Nutzung einer neuen Datenbank zu Artikeln und Patenten aus EU-finanzierten Projekten. Ab dem RP6 hat sich die Gestaltung der europäischen Technologiepolitik durch die Einführung neuer Förderinstrumente mit dem Ziel einer „kritischen Masse“ an Ressourcen deutlich verändert. Unsere empirischen Ergebnisse stützen die von mehreren Beobachtern geäußerten Bedenken, dass die neuen Förderinstrumente zu künstlich „zu großen“ Forschungskonsortien geführt haben könnten. Die verfügbaren empirischen Beweise zeigen, dass die wissenschaftliche Produktivität mit der Teilnehmerzahl steigt, die einer U-invertierten Form folgt, was auf die Existenz abnehmender Grenzerträge bei einer Vergrößerung der Forschungskonsortien hindeutet. Ein zweites zentrales Ergebnis des Papiers bezieht sich auf die Existenz signifikanter Leistungsunterschiede zwischen den Förderinstrumenten. Insbesondere nach Berücksichtigung der höheren ihnen zugewiesenen Ressourcen schneiden Integrierte Projekte in Bezug auf den wissenschaftlichen Output weniger gut ab als sowohl STRePs als auch Exzellenznetzwerke, und sie weisen keine überlegene Leistung in Bezug auf Patentanmeldungen auf.;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0378-x 042a946821aa45e87304b3db7ff82494;de;;;3.4.;6.4.;3.2.;Kann das Zentrum-Peripherie-Modell Muster der internationalen wissenschaftlichen Zusammenarbeit zwischen Schwellen- und Industrieländern erklären? Der Fall Südafrika und Deutschland Da die wissenschaftliche Zusammenarbeit ein immer wichtiger werdendes Phänomen ist, gibt es zahlreiche Studien zur wissenschaftlichen Zusammenarbeit. Trotz der Vielzahl von Studien zu verschiedenen Dimensionen der Zusammenarbeit fehlt es noch immer an Analysen zu Wirkungen, Motiven und Formen der Zusammenarbeit im Kontext von Entwicklungsländern. In Anlehnung an Wallersteins Weltsystemtheorie verwendet dieser Aufsatz bibliometrische Daten, um das Muster der Zusammenarbeit zwischen Südafrika und Deutschland zu verstehen. Das zentrale Argument ist, dass die Zusammenarbeit zwischen Südafrika und Deutschland von einem Zentrum-Peripherie-Muster geprägt ist. Die Analysen zeigen, dass eine Theorie der wissenschaftlichen Zusammenarbeit, die auf dem Konzept von Marginalität und Zentrum-Peripherie basiert, viele Facetten der südafrikanisch-deutschen Zusammenarbeit erklären kann, wobei Südafrika eine semi-periphere Region, ein Zentrum für die Peripherie und eine Peripherie für das Zentrum.;-;-;-;https://link.springer.com/article/10.1007/s11192-009-0074-2 5bd97f8d2fe97a8322aeabcf323d1a45;de;;;3.4.;6.4.;3.2.;Die Verwendung von Indikatoren in der FuE-Bewertungsaktivität der europäischen Gemeinschaften Ziel der Evaluierung der FuE-Programme der Kommission der Europäischen Gemeinschaften ist es, neben den wissenschaftlichen und technischen Errungenschaften den Mehrwert der Umsetzung dieser Aktivitäten auf europäischer Ebene zu bewerten. Dies erfordert die Entwicklung von Techniken, die sich von denen unterscheiden, die normalerweise für die Messung wissenschaftlicher Ergebnisse verwendet werden. Insbesondere wurde eine Reihe von Indikatoren entwickelt, um die durch EG-Programme geförderte internationale Zusammenarbeit und die sich daraus ergebenden wirtschaftlichen und industriellen Auswirkungen zu bewerten.;-;-;-;https://link.springer.com/article/10.1007/BF02093969 92814a4ffa24a883450e2c90fa2d06e7;de;;;3.4.;6.4.;3.2.;Linking as Voting: Wie das Condorcet-Jurytheorem in der Politikwissenschaft für die Webometrie relevant ist Die Entscheidung eines Webmasters, auf eine Webseite zu verlinken, kann als „Stimme“ für diese Webseite interpretiert werden. Doch wie weit reicht die Parallele zwischen Linking und Voting? In diesem Papier beweisen wir mehrere „Verknüpfungstheoreme“, die zeigen, dass ein linkbasiertes Ranking die Bedeutung im Web in der Grenze verfolgt, wenn die Anzahl der Webseiten wächst, vorausgesetzt, es gibt Unabhängigkeit und minimale Verlinkungskompetenz. Die Theoreme ähneln im Geiste dem Abstimmungs- oder Jury-Theorem, das bekanntlich dem Mathematiker Nicolas de Condorcet aus dem 18. Jahrhundert zugeschrieben wird. Wir argumentieren, dass die Linking-Theoreme eine grundlegende erkenntnistheoretische Begründung für das linkbasierte Ranking im Web liefern, analog zu der Begründung, die Condorcets Theoreme der Mehrheitsentscheidung als grundlegendem demokratischen Verfahren verleihen. Die Analogie erstreckt sich auf die praktischen Beschränkungen, denen sich beide Ergebnisarten gegenübersehen, insbesondere aufgrund der begrenzten Unabhängigkeit bei der Abstimmung/Verknüpfung. Wir argumentieren jedoch unter Bezugnahme auf die vom Jury-Theorem inspirierten theoretischen Entwicklungen, dass ein Teil des in der Webometrie-Literatur geäußerten Pessimismus hinsichtlich der Möglichkeit einer „Theorie der Verlinkung“ unberechtigt sein könnte. Die vorliegende Studie verbindet die beiden akademischen Disziplinen Webometrie in der Informationswissenschaft und epistemische Demokratie in der Politikwissenschaft, indem sie ihre gemeinsame Struktur aufzeigt. Damit eröffnet es neue Möglichkeiten der theoretischen Befruchtung und des interdisziplinären Transfers von Konzepten und Ergebnissen. Insbesondere zeigen wir, wie der relativ junge Bereich der Webometrie von der umfangreichen und anspruchsvollen Literatur zum Condorcet Jury Theorem profitieren kann.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-1837-1 201a5e9e19e75bb86dd41d726f8ccce9;de;;;3.4.;6.4.;3.2.;Ein öffentliches Forschungsinstitut, das einen großen Industriekonzern in Japan gründete und leitete Die Bedeutung des heimischen Technologietransfers aus der öffentlichen Hand (Universitäten und öffentliche Forschungseinrichtungen) in die Industrie nimmt im Zeitalter wissenschaftsgetriebener Innovation zu. Einer der Ziele einer Dreifachhelix der sich entwickelnden Beziehungen zwischen Universitäten und Regierungen ist die Nutzung von Universitäten und öffentlichen Forschungsinstituten für die industrielle Entwicklung. In diesem Beitrag werden zunächst die Mittel des inländischen Technologietransfers erörtert und darauf hingewiesen, dass die Ausgliederung von Unternehmen ein ultimativer Weg zum Technologietransfer ist, nachdem die Beziehung zwischen einer Tripelhelix und dem Technologietransfer erörtert wurde. Dann präsentiert dieser Aufsatz einen einzigartigen Fall eines öffentlichen Forschungsinstituts vor dem Ende des Zweiten Weltkriegs in Japan. Dieses Forschungsinstitut hat 63 Unternehmen gegründet, darunter Ricoh und Okamoto. Gleichzeitig zeichnete sich das Institut auch in der Wissenschaft aus. Die ersten beiden Nobelpreisträger Japans waren Forscher dieses Forschungsinstituts. Das Papier diskutiert das Management dieses Instituts und seiner Konzernunternehmen sowie das Umfeld des Instituts und seiner Konzernunternehmen zu dieser Zeit. Am Ende zieht das Papier einige Lehren für öffentliche Forschungsinstitute und ihre Spin-off-Unternehmen heute.;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0505-8 7c44094adcf39d1b11df0ed87c139156;de;;;3.4.;6.4.;3.2.;Messung der Beiträge chinesischer Wissenschaftler zum Forschungsfeld der Systembiologie von 2005 bis 2013 Die Systembiologie ist ein neues Feld der Biologie, das große Auswirkungen auf Landwirtschaft, Medizin und Nachhaltigkeit hat. In diesem Artikel untersuchen wir die Beiträge chinesischer Autoren zur Systembiologie durch die Analyse der Metadaten von mehr als 9000 Artikeln zur Systembiologie. Unser Big-Data-Ansatz umfasst szientometrische Analysen, GIS-Analysen, Co-Word-Netzwerkanalysen und vergleichende Analysen. Bis 2013 belegte China den zweiten Platz bei der Zahl der Veröffentlichungen zur Systembiologie. Ähnlich wie in früheren Studien zur chinesischen Wissenschaft finden wir in China eine ungleiche Verteilung der Forschungsmacht, die Großstädte und Küstenstädte begünstigt. Insgesamt wurden 75 % der Artikel zur Systembiologie von Wissenschaftlern von Universitäten, 15 % von Wissenschaftlern der Chinesischen Akademie der Wissenschaften und 9 % von anderen Institutionen veröffentlicht. Die Forschungsthemen vieler chinesischer Wissenschaftler ähneln denen in den USA, Japan und Deutschland, aber ein wesentlicher Unterschied besteht darin, dass die traditionelle chinesische Medizin ein wichtiges Thema unter chinesischen Systembiologen ist. 25 % der chinesischen Systembiologen kooperieren mit Wissenschaftlern im Ausland, was darauf hindeutet, dass sie die Öffnungspolitik nutzen. Von 2011 bis 2013 ist der durchschnittliche Impact Factor der Zeitschriften, in denen chinesische Wissenschaftler publizieren, im Allgemeinen niedriger als der ihrer Kollegen in den USA, aber der Trend deutet auf eine allmähliche Zunahme der Wirkung hin.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-2213-x 741ce9e719b33315b69e10f96e9fdfd3;de;;;3.4.;6.4.;3.2.;Kriterien für Leistungsprofile von Fachbereichen und Hochschulen In diesem Beitrag wird ein Vorschlag vorgestellt, wie dem steigenden Bedarf der Öffentlichkeit in Deutschland nach qualifizierten und vergleichbaren Informationen über die Leistungsfähigkeit deutscher Hochschulen Rechnung getragen werden kann. Anstelle eines eindimensional quantifizierenden Ranking-Systems wird ein Berichtssystem für die Fachbereiche und die Universität als Ganzes vorgestellt, das eine Liste von qualifizierenden Aussagen und Kommentaren enthält, die notwendig sind, um die quantitativen Daten und Kennzahlen nachvollziehbar zu machen.;-;-;-;https://link.springer.com/article/10.1007/BF02020697 2737004b4946a9c08d42f8ddad8b5eac;de;;;3.4.;6.4.;3.2.;Internationale Zusammenarbeit im wissenschaftlichen Publizieren: der Fall Westafrika (2001–2010) Bibliographische Daten von im Web of Science indizierten Publikationen mit mindestens einem (Co-)Autor, die einem der 15 westafrikanischen Länder angehören und von 2001 bis 2010 erschienen, werden heruntergeladen. Die Analysen konzentrierten sich auf einen Kollaborationsindikator, insbesondere intraregionale Kollaboration, intraafrikanische Kollaboration und Kollaboration mit der Welt. Die Ergebnisse zeigten, dass die Rate der Veröffentlichungen mit nur einem Autor abnimmt, während die Rate der Veröffentlichungen mit sechs und mehr Autoren zunimmt. Nigeria ist für mehr als die Hälfte der gesamten wissenschaftlichen Leistung der Region verantwortlich. Die wichtigsten afrikanischen Partnerländer sind Südafrika (im südlichen Afrika, Kamerun (im Zentralafrika), Kenia und Tansania (im östlichen Afrika). Die wichtigsten nichtafrikanischen Partnerländer sind Frankreich, die USA und das Vereinigte Königreich, die allein trugen zu über 63 % der Beiträge mit nicht westafrikanischer Adresse bei. Einzelne Länder haben eine höhere internationale Kooperationsrate, außer Nigeria. Westafrikanische Länder kooperierten weniger miteinander und weniger mit afrikanischen und Entwicklungsländern als mit entwickelten. Die Studie schlägt den nationalen Behörden vor, in Maßnahmen ihr Engagement zum Ausdruck zu bringen, mindestens 1 % ihres BIP für die Finanzierung von Wissenschaft und Technologie bereitzustellen, und schlägt den Institutionen der regionalen Integration vor, Forschungsaktivitäten zu fördern und zu finanzieren, an denen mehrere Institutionen aus verschiedenen westafrikanischen Ländern beteiligt sind, regionale wissenschaftliche Zusammenarbeit.;-;-;-;https://link.springer.com/article/10.1007/s11192-013-0963-2 ec8ca40f5051031c5eee35ca0ccb43d1;de;;;3.4.;6.4.;3.2.;Analyse des Buchkreditverhaltens von Benutzern und Knowledge Dependency Mining Knowledge Die Ausleihe von Büchern ist die wichtigste Dienstleistung der Bibliothek. Die Untersuchung des Verhaltensmusters von Benutzern beim Ausleihen von Büchern kann Bibliotheken helfen, proaktivere Dienstleistungen anzubieten. Basierend auf der Buchausleihhistorie der Nutzer in einer Universitätsbibliothek könnten wir ein Buchleihnetzwerk zwischen Nutzern und Büchern aufbauen. Außerdem werden Benutzer, die dieselben Bücher ausleihen, miteinander verknüpft. Die Benutzer und Links bilden dann ein Co-Borrowing-Netzwerk, das als ein Netzwerk zum Teilen von Wissen angesehen werden kann. Sowohl das Buchleihe-Netzwerk als auch das Co-Borrowing-Netzwerk können verwendet werden, um die Verhaltensmuster der Nutzer zum Buchverleih zu untersuchen. Dieses Papier präsentiert eine Studie zur Analyse des Buchverleihverhaltens von Benutzern und der Abhängigkeit von Kenntnissen zwischen Schulen und Abschlüssen an der Peking-Universität. Die Bergbauarbeiten basieren auf dem Book-Borrowing-Netzwerk und dem entsprechenden Co-Borrowing-Netzwerk. Nach unserem besten Wissen ist dies die erste Arbeit, die Wissensabhängigkeit im Bereich der digitalen Bibliothek untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14246-8_22 0244a8703b516636468ef0e60fd75529;de;;;3.4.;6.4.;3.2.;Faktoren- und Fehleranalyse des physischen und Umweltzustands von Gebäuden Gebäude werden für eine Nutzungsdauer von in der Regel 50 Jahren konzipiert und gebaut. Einige Gebäude halten jahrzehntelang ohne nennenswerte Mängel, während viele andere nach wenigen Jahren Bauzeit Mängel entwickeln, die schließlich zu einer Verschlechterung des Gebäudes führen. Die physische Verschlechterung des Gebäudes verringert seine Fähigkeit, seine beabsichtigte Funktion zu erfüllen, während die Umgebungsbedingungen den Komfort und die Gesundheit der Bewohner beeinflussen. Es wurden zahlreiche Studien durchgeführt, um die physikalischen und umweltbedingten Mängel getrennt zu identifizieren, die die Gebäudeleistung während seiner Lebensdauer beeinflussen. Das Ziel dieser Studie ist es, verschiedene Mängel und Faktoren zu konsolidieren und zu überprüfen, die sowohl den bauphysikalischen als auch den Umweltzustand beeinflussen. Diese Studie untersucht und analysiert die veröffentlichten Forschungsarbeiten zur Identifizierung von Faktoren und Mängeln, die den Bauzustand in den letzten Jahren von 1994 bis 2019 verschlechtern. Die Analyse ergab, welche Faktoren in den letzten 25 Jahren stärker erforscht wurden. Diese Studie kann dem Bauaufsichtspersonal helfen, die wahrscheinliche Ursache von Baufehlern zu identifizieren und zu bestimmen. Das Bewusstsein für Faktoren, die den Gebäudezustand negativ beeinflussen, kann bei Facility Managern bei der vorbeugenden Instandhaltung hilfreich sein, was wiederum den Zeit- und Kostenaufwand für größere Reparaturen reduzieren könnte, da sich kleinere Mängel in größere Mängel ausbreiten.;-;-;-;https://link.springer.com/article/10.1007/s41024-020-00084-0 a129dd3979c81df8f4feaea77bb97cbe;de;;;3.4.;6.4.;3.2.;Konfliktthemen von Tradition und Innovation in Einklang bringen: eine Anwendung von Forschungsnetzwerken durch Autorenzugehörigkeit Innovation nimmt verschiedene Formen an: von bahnbrechenden Entdeckungen bis hin zu adaptiven Veränderungen, die externe Veränderungen in der Umgebung überleben. Unser Beitrag untersucht die Natur und den Prozess von Innovation im traditionellen Wissenssystem des Ayurveda, indem er die Spuren verfolgt, die Innovation im akademischen Forschungsnetzwerk veröffentlichter Beiträge aus der PubMed-Datenbank hinterlässt. Traditionelle Wissenssysteme widersetzen sich der Anwendung von Standardmaßen für Innovation wie Patenten und Patentzitierungen. Die inhaltliche Kontinuität dieser Wissenssysteme, die anhand moderner Publikationsstandards, die von wissenschaftlichen Zeitschriften vorgegeben werden, untersucht wird, weist jedoch auf eine Art adaptive Innovation hin, die wir anhand eines autorenzugehörigkeitsbasierten Homophiliemaßes verfolgen. Unsere Untersuchung dieses Maßes und seines Zusammenhangs mit derzeit akzeptierten Standards der Zeitschriftenqualität zeigt deutlich, wie Wissenssysteme in einer ungebrochenen Tradition fortgeführt werden können, ohne auszusterben. Anstatt keine Innovation, entwickeln sich traditionelle Wissenssysteme, indem sie sich an moderne Standards der Wissensverbreitung anpassen, ohne ihren Inhalt wesentlich zu ändern.;-;-;-;https://link.springer.com/article/10.1007/s13596-020-00515-w bafa1d9ffd286ae309e7c24c1050396e;de;;;3.4.;6.4.;3.2.;Netzwerkanalyse zur Unterstützung der öffentlichen Gesundheit: Entwicklung der Zusammenarbeit zwischen Leishmaniose-Forschern Datenbanken zu wissenschaftlichen Publikationen sind eine bekannte Quelle für komplexe Netzwerkanalysen. Die vorliegende Arbeit konzentriert sich darauf, die Entwicklung der Zusammenarbeit zwischen Forschern zu Leishmaniose zu verfolgen, einer vernachlässigten Krankheit, die mit Armut in Verbindung steht und in Brasilien, Indien und vielen anderen Ländern Lateinamerikas, Asiens und Afrikas sehr verbreitet ist. Mit Hilfe von SCOPUS- und PubMed-Datenbanken haben wir Cluster von Publikationen identifiziert, die aus Forschungsbereichen und der Zusammenarbeit zwischen Ländern resultieren. Basierend auf den Kooperationsmustern, Forschungsgebieten und deren Entwicklung in den letzten 35 Jahren haben wir verschiedene Methoden kombiniert, um die Evolution in der Wissenschaft zu verstehen. Die Methoden berücksichtigten die deskriptive Netzwerkanalyse in Kombination mit der lexikalischen Analyse von Publikationen und die durch Verknüpfungen in der Netzwerkstruktur repräsentierten Kollaborationsmuster. Die verwendeten Methoden Land der Veröffentlichungen der Autoren, MeSH-Begriffe und die Kooperationsmuster in sieben fünfjährigen Kooperationsnetzwerk- und Publikationsnetzwerk-Schnappschüssen als Attribute. Die Ergebnisse zeigen, dass Metriken der Netzwerkanalyse Hinweise auf die Entwicklung der Zusammenarbeit zwischen verschiedenen Forschungsgruppen innerhalb eines bestimmten Forschungsbereichs liefern können und dass diese Bereiche Teilnetzwerke haben, die die Strukturen und den Fokus der Zusammenarbeit beeinflussen.;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2346-6 51aa7b7bcecebb87fc38bdca8841efb3;de;;;3.4.;6.4.;3.2.;Expertenempfehlungen basierend auf der Linkvorhersage während des COVID-19-Ausbruchs Seit dem Auftreten von COVID-19 ist die Zahl der Infektionen deutlich gestiegen. April, 8:00 Uhr, hat die Gesamtzahl der weltweiten Infektionen bereits 1.338.415 erreicht, bei 74.556 Todesfällen. Medizinische Experten aus verschiedenen Ländern haben einschlägige Forschungen in ihren eigenen Bereichen und Ländern durchgeführt, und die Entwicklung eines wirksamen Impfstoffs wird in Kürze erwartet. Obwohl bei der Entwicklung von therapeutischen Medikamenten und Impfstoffen einige Fortschritte erzielt wurden, sind interdisziplinäre und kooperative Studien rar. Es ist jedoch leicht, Informationsinseln zu bilden und wiederholt wissenschaftliche Forschungen durchzuführen. Bisher wurde noch kein therapeutisches Medikament oder Impfstoff gegen COVID-19 offiziell zur Vermarktung zugelassen. In diesem Artikel werden die Eigenschaften von Experten in Kooperationsnetzwerken, wie Graphstruktur, Kontextattribut, sequentielle Kookkurrenzwahrscheinlichkeit, Gewichtungsmerkmale und Hilfsmerkmale, umfassend analysiert. Darauf aufbauend wird ein neuartiges graphenneurales Netzwerk + Langzeitgedächtnis + Generatives Adversarial Network (GNN + LSTM + GAN) Expertenempfehlungsmodell basierend auf Linkvorhersage konstruiert, um die Zusammenarbeit zwischen relevanten Experten in sozialen Netzwerken der Forschung zu fördern. Die Suche nach Experten auf verwandten Gebieten, der Aufbau kooperativer Beziehungen mit ihnen und die Erzielung einer multinationalen und bereichsübergreifenden Expertenkooperation sind von Bedeutung, um die Entwicklung von therapeutischen Medikamenten und Impfstoffen zu fördern.;-;-;-;https://link.springer.com/article/10.1007/s11192-021-03893-3 c4f62a5c0b8ff405be9a1ede8f194f29;de;;;3.4.;6.4.;3.2.;Internationale Zusammenarbeit: Wird sie die osteuropäische Forschung am Leben erhalten? Die internationale wissenschaftliche Zusammenarbeit reagiert sehr sensibel auf politische und wirtschaftliche Veränderungen in einem Land oder einer geopolitischen Region. Die Zusammenarbeit in der Forschung spiegelt sich in der entsprechenden Koautorenschaft der veröffentlichten Ergebnisse wider, die mit Hilfe bibliometrischer Methoden analysiert werden können. Basierend auf Daten der;-;-;-;https://link.springer.com/article/10.1007/BF02017317 94bef881c3b55213a6f478e967fc4fc3;de;;;3.4.;6.4.;3.2.;Erforschung zeitlicher Beziehungen zwischen wissenschaftlichen und technischen Fronten: ein Fall aus dem Bereich der Biotechnologie Die Biotechnologie ist ein expandierendes interdisziplinäres Feld, in dem die Wechselwirkungen von Wissenschaft und Technik (W&T) immer stärker werden. Die in Bezug auf die dynamischen Interaktionen zwischen W&T aufgeworfene Frage ermutigt uns, eine Reihe von Untersuchungsmethoden vorzuschlagen. Unter Verwendung von hochwirksamen Veröffentlichungen und Patenten als Proxy-Maßnahmen werden zwei Dokumentensätze jeweils in die wissenschaftliche und technische Frontbahn transformiert, und dann wird jedes Thema entweder in Grundlagenwissenschaften oder angewandte Technologie oder Koexistenz kategorisiert. Die Ergebnisse zeigen, dass sich im Bereich der Biotechnologie die Themen embryonale oder mesenchymale Stammzellen, RNA-Interferenz, microRNA und mikrobielle Brennstoffzelle in der Grundlagenforschung befinden, die der Pflanzenzüchtung, der Saatgutdiversität und der Geschmacksrezeptoren in der Praxis umgesetzt wurden . Es gibt auch Interaktionen zwischen W&T in den Themen Krankheitsbehandlung und Genanalyseplattform, in denen das Verhalten der Technologie der Wissenschaft vorausgeht, die Wissenschaft der Technologie vorausgeht oder synchrone Entwicklung beobachtet werden kann.;-;-;-;https://link.springer.com/article/10.1007/s11192-013-1054-0 29f5db522070d3678c071d404d03b00d;de;;;3.4.;6.4.;3.2.;Erkundung der Web-Sichtbarkeit von Weltklasse-Universitäten Angesichts der rasanten Entwicklung des Internets besteht die Notwendigkeit, die öffentliche Sichtbarkeit von Universitäten im Internet (d. Die Daten wurden im Dezember 2010 mithilfe von Yahoo, einer der am weitesten verbreiteten Suchmaschinen, erhoben. Konkret haben wir „Single Mention“-Daten gesammelt, um zu messen, wie oft jede Universität auf Websites erwähnt wurde. Darüber hinaus haben wir netzwerkbasierte Daten zu Single Mentions erhoben. Wir erhielten einen weiteren Datensatz basierend auf dem Weltranking der Universitäten von 2010 der Shanghai Jiao Tong University (SJTU). Für die Analyse haben wir verschiedene analytische Methoden eingesetzt, darunter Korrelationen, nichtparametrische Tests (z. B. der Mann-Whitney-Test) und multidimensionale Skalierung (MDS). Die signifikant positive Korrelation zwischen Hochschulrankings und Web-Sichtbarkeit legt nahe, dass Indikatoren der Web-Sichtbarkeit als Proxy-Maß für konventionelle Hochschulrankings fungieren können. Eine weitere charakteristische Implikation lässt sich aus dem Muster einer Disparität in der Web-Sichtbarkeit aufgrund der linguistischen Kluft ableiten, d Länder befanden sich in der Peripherie dieser Strukturen. In diesem Zusammenhang sind weitere Forschungen erforderlich, die die Web-Sichtbarkeit mit dem Management, der Planung und der Governance von Universitäten verknüpfen.;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0515-6 f55f3c0b61fb311886cea4d1934ef40b;de;;;3.4.;6.4.;3.2.;Kontextuelle Produktivitätsbewertung von Autoren und Zeitschriften: ein netzwerkszientometrischer Ansatz Informationsnetzwerke, insbesondere Zitationsnetzwerke, haben viele bewährte und potenzielle Anwendungen in der Szientometrie. Die Identifizierung der Produktivität von Autoren und Zeitschriften ist eines der Hauptanliegen von Analysten. Während es viele Indizes gibt, um die Produktivität von AutorInnen oder Zeitschriften zu messen, ist kein Index bekannt, um die Produktivität in Bezug auf einen bestimmten Forschungskontext zu bestimmen. Ein netzwerkszientometrischer Ansatz wird entwickelt, um die Identifizierung kontextbezogener Produktivität zu adressieren. Work-Autor- und Work-Journal-Affiliationen, die als 2-Mode-Netzwerke modelliert sind, bieten effektive Mittel zur Bewertung der Produktivität von Autoren und Zeitschriften in einem bestimmten Forschungskontext. In dieser Arbeit werden gewichtete 2-Mode-Netzwerke für die Analyse von Affiliationsnetzwerken erstellt, sodass Gewichtungen einige Zitationsmerkmale der Werke in ihrem ursprünglichen Zitationsnetzwerk widerspiegeln. Zur Bewertung der kontextuellen Bedeutung von Autoren und Zeitschriften wird eine Reihe von Netzwerkindizes vorgeschlagen, die in der Fallstudie Biotechnology for Engineering veranschaulicht werden. Online-Datenbanken und digitale Bibliotheken können diese Indizes verwenden, um zusammen mit den Suchergebnissen Erkenntnisse über die produktivsten Autoren und Zeitschriften zu sammeln.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-2202-0 e36a65ab05949b3ceac8ab6341e3f15f;de;;;3.4.;6.4.;3.2.;Wo und was veröffentlichen sie? Den Herausgebern und Redaktionsmitgliedern angeschlossene Institutionen und die Zitationszahlen ihrer körpereigenen Publikationen im Bereich Kommunikation Diese Studie untersuchte die geografische Vielfalt und die Publikationsmuster von Redakteuren und Editorial Board-Mitgliedern in Kommunikationszeitschriften. Die Ergebnisse zeigten, dass die Vielfalt der redaktionellen Gemeinschaft mit dem angeschlossenen Verband, der internationalen Ausrichtung und dem interdisziplinären Charakter der Zeitschrift zusammenhing. Bei den Veröffentlichungen war die Veröffentlichung in den eigenen Zeitschriften der Herausgeber und Redaktionsmitglieder nicht selbstverständlich. Darüber hinaus hängt die Art ihrer Veröffentlichungen von der Anzahl der Autoren ab, ein Herausgeber oder ein Mitglied des Editorial Boards veröffentlicht eher eine empirische Arbeit als eine nicht-empirische, wenn sie mit anderen Wissenschaftlern verfasst wird. Bei den Zitationen lag die durchschnittliche Zitationszahl der endogenen Publikationen unter der Zitationszahl der Zeitschriften pro Publikation. Darüber hinaus war die Gesamtzahl der Zitationen der endogenen Publikation nicht davon abhängig, ob die Herausgeber und Mitglieder des Herausgebergremiums Institutionen mit Sitz in den Vereinigten Staaten angehörten. Allerdings bezogen sich die den Zeitschriften angeschlossenen Verbände, die Zahl der Autoren sowie der Publikationstyp und das Jahr auf die Gesamtzahl der Zitationen.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03169-x 4a8aa3422ed08b4b6ef94640cda81931;de;;;3.4.;6.4.;3.2.;Bibliometrische Analyse der Bioökonomieforschung in Südafrika Dieses Dokument bietet eine Analyse der Bioökonomieforschung in Südafrika und diskutiert Wachstumsquellen in der Bioökonomieliteratur des Landes im Allgemeinen. Wir führten eine bibliometrische Analyse gemäß der Indexierung im Web of Science (WoS) für die Anzahl südafrikanischer Publikationen und Zitationen in der Bioökonomie durch und verglichen sie mit Brasilien, Russland, Indien und China (BRICS) und ausgewählten Ländern für den Zeitraum 2008 bis 2018. Der WoS wird für Recherchen zur wissenschaftlichen Dynamik eines bestimmten Themas in den am weitesten verbreiteten Zeitschriften und zur Zitationsanalyse verwendet. Die Ergebnisse zeigen, dass Südafrika in Bezug auf die Anzahl der im ausgewählten Zeitraum produzierten Bioökonomie-Publikationen in der BRICS-Gruppe den letzten Platz belegt und einen weltweiten Anteil von 0,8% hat, der über dem nationalen Forschungsdurchschnitt von 0,5% liegt. Das Zitationswachstum der südafrikanischen Bioökonomie-Publikation stieg im Berichtszeitraum um 6,8 % und lag damit höher als in Brasilien, Russland und der Welt. Die University of Cape Town ist führend bei Bioökonomie-Publikationen in Südafrika, gefolgt von der University of Stellenbosch und der University of KwaZulu Natal, wobei die Mehrheit der Veröffentlichungen über Umweltwissenschaften und Ökologie erfolgt. Südafrika arbeitet in der Bioökonomieforschung am stärksten mit Institutionen aus den Vereinigten Staaten von Amerika zusammen, und der Prozentsatz der internationalen Zusammenarbeit ist ähnlich wie bei nationalen wissenschaftlichen Publikationen. Allerdings verzeichnete Südafrika in diesem Zeitraum einen Rückgang der Veröffentlichungen zur Zusammenarbeit mit der Bioökonomie-Industrie.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03626-y 6fd10c64740ceb2d35d27cee16fdfca8;de;;;3.4.;6.4.;3.2.;Szientometrische Analyse des Ist-Zustands und der Perspektiven der Entwicklung von Quantentechnologien Es wird eine szientometrische Analyse eines sich schnell entwickelnden interdisziplinären Gebiets durchgeführt, das Probleme der Schaffung und Entwicklung von Quantentechnologien umfasst. Es werden allgemeine Charakteristika des Themas gegeben und Forschungsschwerpunkte identifiziert. Die Publikationsaktivitäten verschiedener Länder werden für den Zeitraum 2000–2016 basierend auf der Analyse der in der Datenbank Web of Science indizierten Beiträge ausgewertet. Die führenden Länder (USA und China) werden ermittelt. Dabei werden die am aktivsten fortschreitenden Forschungsbereiche berücksichtigt. Es wird eine kurzfristige Vorhersage über die erwartete Anzahl von Veröffentlichungen für die USA und China gemacht. Besondere Aufmerksamkeit wird der Publikationstätigkeit russischer Wissenschaftler zu den Themenkategorien des Web of Science-Index gewidmet. Untersucht werden die Intensität der internationalen Zusammenarbeit im Bereich der Quantentechnologien und der Grad der Internationalisierung der Forschung.;-;-;-;https://link.springer.com/article/10.3103/S000510551803007X d63d6c44598bbbe443ea2daa08789eba;de;;;3.4.;6.4.;3.2.;Die Stärke starker Bindungen: Wie wirkt sich Co-Autorenschaft auf die Produktivität akademischer Ökonomen aus? Verstärkte Spezialisierung und umfassende Zusammenarbeit sind gängige Verhaltensweisen in der wissenschaftlichen Gemeinschaft, ebenso wie die Bewertung wissenschaftlicher Forschung anhand bibliometrischer Indikatoren. Ziel dieses Papiers ist es, den Effekt der Zusammenarbeit (Co-Autorenschaft) auf den wissenschaftlichen Output italienischer Ökonomen zu analysieren. Wir verwenden soziale Netzwerkanalysen, um die Struktur der Co-Autorenschaft zu untersuchen, und ökonometrische Analysen, um die Produktivität einzelner italienischer Ökonomen in Bezug auf „Attributionsvariablen“ (wie Alter, Geschlecht, akademische Position, Amtszeit, wissenschaftliche geografische Lage), „relationale“ Variablen (wie Kooperationsbereitschaft und Stabilität von Kooperationsmustern) und „positionale“ Variablen (wie Betweenness- und Closeness-Zentralitätsindizes und Clustering-Koeffizienten).;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1421-5 3614250cdb8c0c0c75b6a68bb1a41c5e;de;;;3.4.;6.4.;3.2.;Mitarbeiter-Koinventionsnetzwerk-Dynamik und unternehmensexplorative Innovation: die Moderation der Mitarbeiter-Koinventionsnetzwerk-Zentralisierung und des Wissens-Mitarbeiter-Netzwerk-Gleichgewichts Ausgehend von einem dynamischen Ansatz untersucht die Forschung in den letzten Jahren zunehmend die Netzwerkdynamik auf zwischenbetrieblicher Ebene. Über die Dynamik von Mitarbeiternetzwerken innerhalb von Unternehmen und ihre Konsequenzen für die explorative Innovation von Unternehmen ist jedoch wenig bekannt. Dieses Papier befasst sich mit der Lücke, indem es sich auf die Dynamik des Mitarbeiternetzwerks zur Miterfindung konzentriert, das als Mitarbeiterfluktuation und teamübergreifende Bewegung konzeptualisiert wird. Basierend auf der wissensbasierten Sichtweise und der Theorie des transaktiven Gedächtnissystems arbeitet diese Forschung den dualen Mechanismus der Netzwerkdynamik von Mitarbeiter-Koinventionen aus und schlägt eine umgekehrte U-förmige Beziehung zwischen Mitarbeiter-Koinventions-Netzwerkdynamik und explorativer Innovation vor. Darüber hinaus sind Mitarbeiter und deren Innovation strukturell in die innerbetrieblichen Netzwerke eingebettet. In diesem Beitrag wird der Moderationseffekt unternehmensinterner Netzwerkstrukturen untersucht. Erstens kann die Zentralisierung des Mitarbeiter-Co-Invention-Netzwerks, die auf eine Kern-Peripherie-Co-Invention-Struktur unter Mitarbeitern hinweist, die umgekehrte U-förmige Beziehung negativ moderieren. Zweitens kann das Gleichgewicht des Wissens-Mitarbeiter-Netzwerks, das auf eine gleichmäßig und breit verteilte Wissensstruktur unter den Mitarbeitern hinweist, die umgekehrte U-förmige Beziehung positiv moderieren. Basierend auf Patentdaten von 76 Hightech-Firmen über 31 Jahre von 1990 bis 2020 entwickelt dieses Papier neuartige quantitative Messgrößen und führt Panel-Regressionsanalysen durch. Die Ergebnisse unterstützen alle oben genannten Vorhersagen.;-;-;-;https://link.springer.com/article/10.1007/s11192-021-04089-5 13ba2a39b206633cf0434777b6cbc794;de;;;3.4.;6.4.;3.2.;Entwicklung von Kohäsionsmetriken eines Forschungsnetzwerks zu seltenen Krankheiten: eine Längsschnittstudie über 14 Jahre Forschungszusammenarbeit ist notwendig, lohnend und nützlich. Der Zusammenhalt zwischen den Teammitgliedern hängt mit ihrer kollektiven Effizienz zusammen. Um Kollaborationsprozesse und ihre letztendlichen Ergebnisse zu bewerten, benötigen Agenturen innovative Methoden – und Ansätze sozialer Netzwerke kristallisieren sich als nützliches Analyseinstrument heraus. Wir identifizierten die Forschungsergebnisse und Zitationsdaten eines Netzwerks von 61 Forschungsgruppen, die zwischen 2000 und 2013 formell an der Veröffentlichung von Forschungen zu seltenen Krankheiten beteiligt waren. Wir zeichneten die Kooperationsnetzwerke für jedes Jahr und berechneten die globalen und lokalen Maßnahmen während des gesamten Zeitraums. Obwohl die globalen Netzwerkkennzahlen über den gesamten Zeitraum konstant blieben, zeigten die lokalen und Teilkonzernkennzahlen einen wachsenden Zusammenhalt zwischen den Teams. Transitivität und Dichte zeigten während des gesamten Zeitraums nur geringe oder keine Variationen. Im Gegensatz dazu deuteten die folgenden Punkte auf eine Entwicklung hin zu einem größeren Netzwerkzusammenhalt hin: das Aufkommen einer riesigen Komponente (die von nur 30 % auf 85 % der Gruppen anwuchs), die abnehmende Anzahl von Gemeinschaften (nach einer Verdreifachung der durchschnittlichen Mitgliederzahl) , die wachsende Zahl vollständig verbundener Untergruppen und die zunehmende Durchschnittsstärke. Darüber hinaus zeigen Assortativitätsmessungen, dass die Zusammenarbeit nach einer anfänglichen Phase, in der Fächeraffinität und ein gemeinsamer geografischer Standort eine gewisse Rolle bei der Begünstigung der Verbindung zwischen Gruppen spielten, in der Endphase durch andere Faktoren und Komplementaritäten vorangetrieben wurde. Das spanische Forschungsnetzwerk zu seltenen Krankheiten hat sich zu einem wachsenden Zusammenhalt entwickelt – wie lokale und Subgruppen-Metriken nach der Analyse sozialer Netzwerke zeigen.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-1952-z 278792fd00d96d183e5bf91cf0fadb42;de;;;3.4.;6.4.;3.2.;Aktuelle Trends in der Nanotechnologieforschung bei weltweiten geoökonomischen Akteuren Der Zweck dieses Papiers besteht darin, die aktuellen zeitlichen und räumlichen Verläufe in der Nanotechnologieforschung zu analysieren, um die weltweiten Muster wissenschaftlicher Domänen über die wichtigsten geoökonomischen Akteure hinweg darzustellen. Aktuelle Trends der Nanotechnologie haben in Chemie und Medizin aufgrund technologischer Anwendungen neuer Nanomaterialien vor allem in der Verfahrenstechnik, Biochemie, Genetik und Molekularbiologie zugenommen. Darüber hinaus zeigen die Ergebnisse, dass die Labore in Europa und Nordamerika intensive wissenschaftliche Kooperationen mit ausländischen Wissenschaftlern im Bereich Nanotechnologie unterhalten. Dieses Papier kann wichtige Erkenntnisse liefern, um neue Forschungs- und Innovationspolitiken zu unterstützen, um die Entwicklung dieser treibenden konvergierenden Technologien für zukünftige Muster des Wirtschaftswachstums zu fördern.;-;-;-;https://link.springer.com/article/10.1007/s10961-011-9219-6 0ca007bde6dca6f7fa58f3940da13c88;de;;;3.4.;6.4.;3.2.;Die entstehende Dynamik eines technologischen Forschungsthemas: der Fall von Graphen Technologische Forschungsthemen könnten ungeachtet noch unklarer Kommerzialisierungsaussichten dramatisch an Popularität gewinnen. Der Artikel analysiert das Beispiel von Graphen, einem fortschrittlichen Material, das erstmals 2004 vorgestellt wurde und von der Sichtbarkeit und den Erwartungen von politischen Entscheidungsträgern, Investoren und F&E-Tätern profitierte. Die bibliometrische Analyse hilft, die anfängliche Ära der Fermentation im Technologiezyklus besser zu verstehen, bevor die technische und kommerzielle Machbarkeit von Graphen bestätigt wurde. Es bietet Einblicke in die zugrunde liegende Dynamik, die die Entstehung des Themas und den darauf folgenden Hype begleitet. Dem exponentiellen Wachstum der Artikelzahlen stehen sinkende Zitationen pro Artikel und der Anteil hochzitierter Publikationen gegenüber. Die wachsende Komplexität des Forschungsfeldes wird durch die Zerlegung des Diskurses in Publikationen zur Herstellung von Graphen, seiner Charakterisierung und möglichen Anwendungen in den nicht-elektronischen Bereichen Gesundheit, Umwelt und Energie gezeigt. Die Aktivitäten von Publikationsorganen werden verfolgt, wobei eine kleine Anzahl von Zeitschriften den Großteil der Veröffentlichungen und Zitationen ausmacht, und die Präsenz von Graphen in einzelnen Zeitschriften allmählich zunimmt. Internationale Muster der Koautorenschaft entwickeln sich im Laufe der Zeit, und während die Netzwerkdichte und die durchschnittliche Zentralität zwischen den Akteuren zunehmen, wurde festgestellt, dass die internationale Konzentration einem U-förmigen Muster folgt, das zunächst die Offenheit des Feldes fördert, es später jedoch weniger zugänglich macht dass nur einige Forscher von diesem „Fenster der Gelegenheit“ profitieren. Die beobachteten Regelmäßigkeiten folgen einem modischen Muster, wobei sich Forscher dem Zug anschließen, um von der Popularität des Themas zu profitieren. Der Zeitpunkt des Eintritts in ein aufstrebendes Forschungsgebiet ist wichtig, um die wissenschaftliche Wirkung von Forschern, Institutionen, Zeitschriften und Ländern zu maximieren.;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1780-6 ec465fa83a5fe364a4c7a405d7f85b68;de;;;3.4.;6.4.;3.2.;Eine vergleichende Untersuchung der Patentzählungen nach dem Land des Erfinders und des Landes des Abtretungsempfängers In dieser Arbeit wurden Patentzählungen verglichen und gegenübergestellt, indem das Land des Erfinders und das Land des Abtretungsempfängers untersucht wurden. Eine empirische Analyse der Patentdaten ergab, dass Zuordnungsprinzipien (d. h. nach dem Erfinderland und nach dem Kreis des Zessionars) und Zählmethoden (d. h. ganze Zählungen, erste Länder und Bruchzahlen) zu unterschiedlichen Ergebnissen führen. Zur Darstellung der Patentdaten der 33 ausgewählten Länder wurden Quadrantendiagramme verwendet. Wenn Länder ähnliche Patentzahlen nach Erfinderland mit Patentzahlen nach Abtretungsland aufwiesen, waren alle Länder, die entlang der diagonalen Linie im Quadrantendiagramm zugeteilt wurden, entwickelte Länder. Wenn Länder mehr Patente nach Erfinder als nach Zessionar aufwiesen, befanden sich die entwickelten Länder eher im rechten oberen Abschnitt des Quadrantendiagramms, während sich mehr Entwicklungsländer im linken unteren Abschnitt befanden. Länder mit höheren Patentzahlen nach Zessionar als nach Erfinder waren eher Steueroasen. Ein wesentlicher Beitrag dieses Papiers liegt in der Empfehlung, Patentzählungen gleichzeitig mit dem Erfinder- und dem Zessionarland zu analysieren, wenn aussagekräftige Implikationen aus der Patentstatistik gewonnen werden sollen.;-;-;-;https://link.springer.com/article/10.1007/s11192-013-1192-4 75dadffe8b04c27e7e66a92f06dc749f;de;;;3.4.;6.4.;3.2.;Altmetrics für die Forschungsbewertung auf Länderebene In der wissenschaftlichen Kommunikation und der Geographie der Wissenschaften vollziehen sich Veränderungen. Politische Entscheidungsträger und Forschungsfördereinrichtungen suchen nach Wegen, um die umfassende Wirkung der Forschung zu messen und von den Forschungserfahrungen anderer Nationen zu profitieren. In letzter Zeit wurden Altmetrics verwendet, um breitere Auswirkungen von Forschungsaktivitäten zu messen. In diesem Artikel untersuchen wir Altmetrics basierend auf den Auswirkungen auf Länderebene und stellen fest, dass Altmetrics die Forschungsbewertung für alle untersuchten Länder unterstützen können. Wir vergleichen Altmetrics mit mehreren traditionellen Metriken und finden signifikante Beziehungen zwischen Altmetrics auf Länderebene und der Anzahl von Veröffentlichungen, Zitationen, dem h-Index und den Bruttoinlandsausgaben für Forschung und Entwicklung (GERD). Wir stellen auch einen signifikanten jährlichen Anstieg der Anzahl der zwischen 2010 und 2014 veröffentlichten Artikel fest, die altmetrics erhalten haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12823-8_7 4fc6eb244e1243c01bb72c40ac43744b;de;;;3.4.;6.4.;3.2.;Anwendungen und Forschungen geographischer Informationssystemtechnologien in der Bibliometrie Obwohl die Erforschung und Anwendung eines geografischen Informationssystems (GIS) in der Bibliometrie noch in den Anfängen steckt, wurden in den letzten Jahren einige wertvolle Versuche unternommen. Dieses Papier bietet unseren Überblick zu diesem Bereich. Wir überprüften zunächst das aus der Literatur abgeleitete Spatial Information Mining, einschließlich strukturierter und unstrukturierter Daten. Anschließend wurden die räumliche Darstellung und die grundlegenden räumlichen Operationen für die aus der Literatur abgeleiteten geographischen Informationen vorgestellt, wodurch gezeigt wurde, dass GIS direkt zum Aufbau digitaler Bibliotheken verwendet werden kann. Einige Literaturdatenbank-Websites haben damit begonnen, WEBGIS zu verwenden, um die räumliche Verteilung des Standorts eines Autors anzuzeigen. Darüber hinaus können die Informationen zur räumlichen Verteilung mit anderen spezialisierten Werkzeugen in verschiedenen Modi angezeigt werden. Anschließend wurden mögliche räumliche Analysen in der Bibliometrie diskutiert, wobei als Fallstudien geostatistische und Pufferanalysen vorgestellt wurden. Schließlich wurden mehrere bibliometrische Indikatoren untersucht, die mit Forschungseinheiten verbunden sind. Durch die Verknüpfung der quantitativen Forschungsindexeinheiten mit der Forschungsraumposition können diese räumlich angezeigt, abgefragt und abgerufen werden. Zukünftige Arbeiten zur Weiterentwicklung der Anwendung und Erforschung von GIS in der Bibliometrie sind noch gerechtfertigt.;-;-;-;https://link.springer.com/article/10.1007/s12145-013-0132-4 4a4825f073d736468b74ee1f6ec25349;de;;;3.4.;6.4.;3.2.;Eine bibliometrische Analyse der Veröffentlichungen von Ronald R. Yager Diese Studie präsentiert eine bibliometrische Analyse der im Web of Science verfügbaren Veröffentlichungen von Ronald R. Yager. Derzeit hat Professor Yager mehr als 500 Publikationen in dieser Datenbank. Er gilt als einer der einflussreichsten Autoren der Welt in der Informatik. Die bibliometrische Überprüfung berücksichtigt ein breites Spektrum von Themen, einschließlich einer spezifischen Analyse seiner Publikationen, Mitarbeiter und Zitationen. Die VOS-Viewer-Software wird verwendet, um sein Publikations- und Zitationsnetzwerk durch bibliografische Kopplung und Kozitationsanalyse zu visualisieren. Die Ergebnisse zeigen deutlich seinen starken Einfluss in der Informatik, obwohl er auch einen starken Einfluss in den Ingenieurwissenschaften und der angewandten Mathematik zeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-40314-4_12 a79c8eb4ff2dd33e36c3898f54db713a;de;;;3.4.;6.4.;3.2.;Wissenschaftskommunikation und ihre forschungspolitische Relevanz Dieser Beitrag befasst sich mit dem Zusammenhang zwischen Entwicklungen in der Wissenschaftskommunikation und der Forschung. Die Entwicklungen in der Wissenschaftskommunikation stehen im Zusammenhang mit Entwicklungen, die sich aus den Möglichkeiten ergeben, die sich aus der Entwicklung und flächendeckenden Einführung moderner Informations- und Kommunikationstechnologien ergeben. Dieser Beitrag konzentriert sich jedoch nicht auf technologische Entwicklungen, sondern diskutiert vielmehr, wie diese neuen Entwicklungen in der Wissenschaftskommunikation Entwicklungen in Forschung und Forschungspolitik ermöglichen und umgekehrt. Die Rolle der Szientometrie und Bibliometrie in diesem Zusammenhang wird kurz diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF02458492 6e47285e24134b117d445efad60f7748;de;;;3.4.;6.4.;3.2.;Nachverfolgung von Selbstzitaten im wissenschaftlichen Publizieren Zitationsmetriken haben einen Wert, da sie darauf abzielen, wissenschaftliche Bewertungen zu gleichen Wettbewerbsbedingungen zu machen, aber dringende auf Transparenz basierende Anpassungen sind erforderlich, um sicherzustellen, dass die Messungen ein möglichst genaues Bild von Wirkung und Exzellenz liefern. Ein problematischer Bereich ist der Umgang mit Selbstzitaten, die bei der Verwendung bibliometrischer Indikatoren zur Forschungsevaluation entweder ausgeschlossen oder nicht angemessen berücksichtigt werden. Hier berichten wir zugunsten des offenen Trackings von Selbstzitaten über selbstreferenzierendes Verhalten verschiedener akademischer Disziplinen, wie es von der kuratierten Clarivate Analytics Web of Science-Datenbank erfasst wird. Konkret haben wir das Verhalten von 385.616 Autoren untersucht, die in 15 Fachgebiete wie Biologie, Chemie, Naturwissenschaften und Technik, Ingenieurwissenschaften und Physik gruppiert sind. Diese Autoren haben 3.240.973 Artikel mit insgesamt 90.806.462 Zitaten veröffentlicht, von denen etwa fünf Prozent Selbstzitate sind. Über den Aufbau von Selbstzitaten auf Autorenebene und in fachspezifischen Kontexten ist bisher wenig bekannt. Unserer Ansicht nach ist das Verbergen von Selbstzitatdaten nicht zu rechtfertigen und verwirren unnötig alle Versuche, die bibliometrische Wirkung der eigenen Arbeit zu verstehen. Stattdessen fordern wir Wissenschaftler auf, die Sichtbarkeit von Zitationsdaten in einer Gemeinschaft von Kollegen zu fördern, die auf Nuancen und Offenheit beruht und nicht auf kuratierte Punkteverwaltung.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03413-9 4247b181380c6f05bc55303d64a41b6a;de;;;3.4.;6.4.;3.2.;Ausgrenzung am Arbeitsplatz in verschiedenen Organisationen: eine systematische Überprüfung und bibliometrische Analyse Ausgrenzung am Arbeitsplatz (WO) wirkt sich ungünstig auf die Arbeitsergebnisse der Mitarbeiter aus. In den letzten Jahren ist seine Macht als eine Art „kalte Gewalt“ in mehreren Kategorien von Organisationen gewachsen. Der Zweck der vorliegenden Forschung ist es, bedeutende Mitwirkende, aktuelle Dynamiken, Domänen und Befürworter weiterer Richtungen in der Studienarena der Ausgrenzung am Arbeitsplatz zu finden. Das Papier verwendete Inhaltsanalyse (CA), Bibliometrie und Netzwerkanalyse (NA) an einer Stichprobe von 144 Dokumenten, die aus der Web of Science- und Scopus-Datenbank extrahiert wurden, um die Forschungsereignisse zu beobachten, die einen Platz zu diesem Thema eingenommen haben. Der Forschungsschwerpunkt liegt hauptsächlich auf der Theorieprüfung im Zusammenhang mit WO. Vorläufer der Ausgrenzung am Arbeitsplatz, Konsequenzen, Arbeitsleistung, soziale Ausgrenzung, Unhöflichkeit am Arbeitsplatz, soziale Ausgrenzung, emotionale Erschöpfung, psychologische Ermächtigung, kontraproduktives Arbeitsverhalten, proaktive Kundenserviceleistung, proaktive Persönlichkeit und politisches Geschick, emotionales Schweigen und Modell der Ausgrenzung am Arbeitsplatz sind ebenfalls prominente Forschungen Probleme in diesem Bereich. Nach Betrachtung der verschiedenen Perspektiven der Studie, wie anfängliche Datenstrukturen, bibliometrische, Netzwerk- und Inhaltsanalyse, wird die Studie als grundlegende Grundlage für das Verständnis des Konzepts von WO in verschiedenen Organisationen, seiner jüngsten Fußspuren und der Richtung, in die sich die Forschung entwickelt, dienen. Im Gegensatz zur vorherigen Analyse ist die in dieser Forschung verwendete Studienmethodik eine Verschmelzung von Netzwerk- und Inhaltsanalyse und systematischer Literaturrecherche, die es ermöglichte, die intellektuelle Struktur zu erkennen, um eine umfassende Zusammenfassung des Untersuchungsgebiets zu erstellen.;-;-;-;https://link.springer.com/article/10.1007/s11301-020-00200-x f0abca3eb2223bf5a829b3efa79b15c5;de;;;3.4.;6.4.;3.2.;Bewertung von Score- und Publikations-Ähnlichkeitsfunktionen in digitalen Bibliotheken Digitale Bibliotheken weisen ihren Veröffentlichungen, Autoren oder Publikationsorten keine Wichtigkeits-/Relevanzbewertungen zu, obwohl Bewertungen potenziell nützlich sind, um (a) eine vergleichende Bewertung oder „Bedeutung“ von Publikationen, Autoren, Publikationsorten, (b) Rankings zu liefern Veröffentlichungen, die in Suchausgaben zurückgegeben werden, und (c) Verwenden von Bewertungen beim Auffinden ähnlicher Veröffentlichungen. Mithilfe von sozialen Netzwerken und Bibliometrie kann man mehrere Score-Funktionen definieren.;-;-;-;https://link.springer.com/chapter/10.1007/11599517_66 1ce8c6bd49d4b564e82e8f8295a479cd;de;;;3.4.;6.4.;3.2.;Sicherheitsinteressen der Vereinigten Staaten in der Arktis Die Arktis ist aus verschiedenen Gründen von strategischer Bedeutung für die Vereinigten Staaten. Erstens ist es die einzige Region, in der die Vereinigten Staaten eine gemeinsame Grenze mit ihrem Supermacht-Rivalen, der Sowjetunion, teilen (Abbildung 13-1 .).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-5262-7_13 3e8ab2f808a326159f8ef595b024e6bc;de;;;3.4.;6.4.;3.2.;Räumliche Spillover und Spillover der Wertschöpfungskette: Bewertung der regionalen F&E-Effizienz und ihrer Spillover-Effekte in China Die Effizienzbewertung von Forschung und Entwicklung (FuE) ist ein wirksames Mittel für politische Entscheidungsträger, Strategien zu entwickeln, um die positiven Auswirkungen von FuE zu erhöhen. Diese Studie misst die regionale FuE-Effizienz aus einer mehrstufigen FuE-Perspektive. Es untersucht die räumlichen Spillover-Effekte und die Wertschöpfungsketten-Spillover-Effekte von F&E anhand von Paneldaten von 2009 bis 2016 für 30 Provinzen in China. Durch die Schätzung eines räumlichen Durbin-Modells finden wir Hinweise auf eine starke räumliche Abhängigkeit der F&E-Effizienz in China. In Bezug auf die Auswirkungen der F&E-Wertschöpfungskette stellen wir fest, dass F&E-Wertschöpfungsketten-Spillovers zwar intraregional, aber nicht interregional stattfanden. Dieses Ergebnis weist darauf hin, dass es im Kontext des Wissensflusses wechselseitige Ausstrahlungen in die F&E-Wertschöpfungskette gibt, bei denen die Vorwärts-Spillover-Effekte stärker sind als die Rückwärts-Spillover-Effekte. Dieser Befund ergänzt die Forschung zu Wissens-Spillovers um wichtige neue Erkenntnisse: Die Unterscheidung zwischen Wertschöpfungsketten-Spillovers und räumlichen Spillovers eröffnet neue Wege für zukünftige empirische Untersuchungen.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03054-7 cbe27b8bd968f4477e63227e85b0bd58;de;;;3.4.;6.4.;3.2.;Eine Analyse der wissenschaftlichen Aktivitäten von Forschern aus Weißrussland nach bibliometrischen Indikatoren In diesem Beitrag werden die Ergebnisse der wissenschaftlichen Forschung der Zentralen Wissenschaftlichen Bibliothek der Nationalen Akademie der Wissenschaften von Belarus (CSL NAS of Belarus) unter Verwendung der bibliometrischen Indikatoren der Web of Science Core Collection Database (WoS CC) betrachtet: Zitieren von Artikeln belarussischer Autoren in dieser Datenbank. Auf die Bewertung der Forschungsinstitute der NAS von Weißrussland nach der wissenschaftlichen Produktivität wird geachtet. Die Bereiche der wissenschaftlichen Arbeit belarussischer Wissenschaftler werden gezeigt. Das Papier schätzt die Produktivität der gemeinsamen wissenschaftlichen Tätigkeit belarussischer Wissenschaftler und Wissenschaftler verschiedener Länder, die ein Indikator für den Grad der Integration des Landes in die internationale wissenschaftliche Gemeinschaft ist.;-;-;-;https://link.springer.com/article/10.3103/S0005105516050034 1fa101c24f3951b2c933be448ac6cc67;de;;;3.4.;6.4.;3.2.;Eine szientometrische Analyse der Reproduktionsmedizin Hier haben wir eine szientometrische Analyse der wissenschaftlichen Literatur auf dem Gebiet der Reproduktionsmedizin (RM), einem wichtigen und sich schnell entwickelnden Zweig der Medizin, durchgeführt. Zu diesem Zweck haben wir die im Zeitraum 1996–2011 in RM veröffentlichten Forschungsarbeiten analysiert und die bibliometrischen Parameter (Anzahl zitierbarer Dokumente, Zitate pro Dokument und H-Index) sowie den Umfang der internationalen Zusammenarbeit zwischen verschiedenen geografischen Regionen und Ländern bewertet . Darüber hinaus haben wir die Verbindung von RM mit anderen Disziplinen in einer Ko-Zitationsstudie von Journals untersucht, dann wurden die Keyword-Zitat-Bursts bewertet. Letztlich wurde das Sozialverhalten von Autoren, die an RM beteiligt sind, in einer Studie über soziale Netzwerke analysiert. Als Ergebnis stellte der Hof fest, dass es immer noch deutliche Unterschiede in Bezug auf Quantität und Qualität der Produktion von Rohstoffen zwischen den verschiedenen Regionen und Ländern gibt, wahrscheinlich aufgrund der unterschiedlichen wirtschaftlichen Bemühungen zur Aufrechterhaltung der Forschung. Die produktivsten Länder, Westeuropa und Nordamerika sowie die USA und Großbritannien, weisen einen langsamen Produktionsrückgang auf, während Asien (und China) erstaunlich wachsen. Leider sind Osteuropa, Lateinamerika und Afrika noch sehr rückständig. Darüber hinaus ist RM direkt mit Grundlagendisziplinen, aber nicht mit anderen medizinischen Fachgebieten verbunden, und die am häufigsten zitierten Schlagworte deuten auf eine Verlagerung von der Grundlagen- hin zur angewandten Forschung hin. Schließlich bilden die an RM beteiligten Autoren eine kleine Weltgemeinschaft, in der es möglich ist, die Vermittler des Informationsflusses zu identifizieren. Zusammenfassend kann diese Analyse zu den Erkenntnissen der wissenschaftlichen Produktion im Zusammenhang mit dem RM-Bereich beitragen.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-1969-3 a61d0d469fc5741804b7488880e0d15e;de;;;3.4.;6.4.;3.2.;Eine szientometrische Bewertung der Entwicklungsgemeinschaft des südlichen Afrika: Wissenschaft an der Spitze Afrikas Dieser Artikel berichtet über die Ergebnisse einer szientometrischen Bewertung der Länder der Entwicklungsgemeinschaft des südlichen Afrika. Die Datenbank National Science Indicators von Thomson-Reuters und das Online-ISI Web of Knowledge werden verwendet, um die Anzahl der Veröffentlichungen der 15 Länder über einen Zeitraum von 15 Jahren, die Aktivitäts- und relativen Wirkungsindikatoren von 22 wissenschaftlichen Disziplinen für jedes Land zu ermitteln und ihre kollaborativen Muster. Es wird festgestellt, dass Südafrika mit 19% der Bevölkerung in der Region für 60% des regionalen BIP und 79% der Veröffentlichungen der Region verantwortlich ist. Alle Länder neigen dazu, in ihren disziplinären Prioritäten denselben Schwerpunkt zu setzen und Disziplinen wie Ingenieurwissenschaften, Materialwissenschaften und Molekularbiologie unterzuheben. Es wird seine Besorgnis darüber geäußert, dass die derzeitigen Forschungsinfrastrukturen nicht ausreichen, um zur Erreichung der Ziele des regionalen indikativen strategischen Entwicklungsplans der Gemeinschaft beizutragen.;-;-;-;https://link.springer.com/article/10.1007/s11192-010-0260-2 6581d7e74f71b49daa330f6332a52bc8;de;;;3.4.;6.4.;3.2.;Vergleichende Analyse des wissenschaftlichen Outputs von Armenien, Aserbaidschan und Georgien Der Artikel diskutiert die wissenschaftlichen Ergebnisse der drei Südkaukasus-Republiken: Armenien, Aserbaidschan und Georgien (Armenien, Aserbaidschan und Georgien werden allgemein als Transkaukasische Republiken oder Südkaukasus-Republiken bezeichnet). Es konzentriert sich auf die wissenschaftlichen Veröffentlichungen Armeniens, Aserbaidschans und Georgiens, die in der internationalen Datenbank Web of Science indiziert sind. Der Artikel untersucht zunächst die Rolle der drei Republiken in der sowjetischen Wissenschaft und die wissenschaftlichen Arbeiten, die sie während des letzten Jahrzehnts der Union der Sozialistischen Sowjetrepubliken erstellt haben. Der Artikel untersucht dann die wissenschaftliche Situation in Armenien, Aserbaidschan und Georgien nach der Wiederherstellung ihrer Unabhängigkeit im Jahr 1991 und überprüft die wissenschaftlichen Veröffentlichungen der drei Republiken, ihre Zitate und ihre wissenschaftliche Zusammenarbeit sowie andere wissenschaftliche Indikatoren.;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1452-y 053d13fc2486249476b82f002a3c1cf4;de;;;3.4.;6.4.;3.2.;Untersuchung von Zeitfaktoren bei der Messung des wissenschaftlichen Einflusses von Wissenschaftlern Unter Ausnutzung des einfachen Zugangs zu den reichhaltigen und massiven wissenschaftlichen Daten konzentrieren sich immer mehr Forscher auf Studien zur Analyse und Nutzung wissenschaftlicher Big Data. Unter ihnen kommt der Bewertung der wissenschaftlichen Wirkung von Wissenschaftlern eine große Bedeutung zu. Die Messung der wissenschaftlichen Wirkung von Wissenschaftlerinnen und Wissenschaftlern kann nicht nur Grundlage für die Beantragung von wissenschaftlichen Stiftungen und Auszeichnungen sein, sondern auch Aufschluss über die Forschungsrichtungen für Wissenschaftlerinnen und Wissenschaftler geben. Derzeit sind zitationsbasierte Methoden und netzwerkbasierte Metriken die am häufigsten verwendeten Methoden, um die wissenschaftlichen Auswirkungen zu bewerten. Diese Ansätze ignorieren jedoch einige wichtige Tatsachen, nämlich die Dynamik von Zitationen und die Ausgangsqualitäten verschiedener Artikel. Um ihre Mängel zu beheben, schlagen wir einen zeitbewussten Ranking-Algorithmus (TRank) vor, um den Einfluss von Wissenschaftlern zu bewerten. Aufgrund des nachhaltigen Hauptinteresses der Wissenschaftler an wissenschaftlichen Innovationen vergibt der TRank-Algorithmus mehr Credits auf die neu veröffentlichten wissenschaftlichen Arbeiten sowie deren Referenzen gemäß den repräsentativen Zeitfunktionen. Unsere Methode kombiniert auch die Vorzüge von Random-Walk-Algorithmen und heterogener Netzwerktopologie, d. h. die gegenseitige Beeinflussung verschiedener wissenschaftlicher Einheiten in heterogenen akademischen Netzwerken. Um die geeignete Zeitfunktion für den TRank-Algorithmus zu validieren und seine Leistung zu untersuchen, konstruieren wir die Experimente an zwei realen Datensätzen: (1) Digital Bibliography and Library Project und (2) American Physical Society. Die experimentellen Ergebnisse zeigen, dass unser Algorithmus andere Methoden bei der Auswahl herausragender Wissenschaftler und die Bewertungsergebnisse zur Gesamtwirkung von Wissenschaftlern übertrifft.;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2458-z 195d828af516e801e214c5342374fbb7;de;;;3.4.;6.4.;3.2.;Die Rolle chinesischer Universitäten in der Zusammenarbeit zwischen Unternehmen und Universitäten In diesem Beitrag wird die Rolle chinesischer Universitäten in der Forschungskooperation zwischen Unternehmen und Universitäten untersucht. Diese Studie konzentriert sich auf einen besonderen Aspekt der Zusammenarbeit – gemeinsam verfasste Artikel. Die beiden Fälle werden analysiert: (1) Forschungszusammenarbeit zwischen der Baosteel Group Corporation und chinesischen Universitäten, (2) Forschungszusammenarbeit zwischen der China Petroleum & Chemical Corporation und chinesischen Universitäten. Die Daten zur Koautorenschaft im Zeitraum 1998–2007 wurden in der CNKI-Datenbank, der größten chinesischen Publikations- und Zitationsdatenbank, recherchiert. Die wichtigsten Ergebnisse sind: Die Zahl der von Unternehmens- und Universitätswissenschaftlern gemeinsam verfassten Artikel nimmt rapide zu, der Anteil der gemeinsam verfassten Artikel nimmt zu, die Autoren von Universitäten können eher Erstautoren sein, da Ganze, von Unternehmen und Universitäten gemeinsam verfasste Artikel werden tendenziell häufiger zitiert und häufiger heruntergeladen, eine mathematische Ausrichtung zeichnet sich in den Artikeln von Unternehmen und Universitäten ab. Um einen solchen Trend aufzudecken und zu beschreiben, werden die Methoden der Keyword-Analyse und der Kookkurrenz-Analyse angewendet. Die politischen Instrumente der chinesischen Regierung und wesentliche Unterstützungen zur Förderung und Verbesserung der Zusammenarbeit zwischen Unternehmen und Universitäten werden vorgestellt und analysiert.;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0503-x 865c0e32f6d4e378385c0eb5130155a6;de;;;3.4.;6.4.;3.2.;Kooperationsnetzwerk und Musteranalyse: Fallstudie zu farbstoffsensibilisierten Solarzellen Heutzutage ist die Entwicklung neuer Technologien in der wissenschaftlichen Welt zu einem zweischneidigen Schwert geworden. Sie kann nicht nur viele Innovationen in die Gesellschaft bringen, sondern kann aufgrund ihrer unbekannten Faktoren auch schreckliche Folgen haben. Internationale Zusammenarbeit kann Risiken reduzieren, was für die Erforschung der aufkommenden Technologie viel bedeutet. Am Beispiel farbstoffsensibilisierter Solarzellen (DSSCs) untersucht dieser Beitrag das schnelle Wachstum der chinesischen DSSC-Forschung und die Zunahme der Zusammenarbeit zwischen China und anderen Ländern/Regionen. Wir verwenden bibliometrische und soziale Netzwerkanalysemethoden, um die Muster der wissenschaftlichen Zusammenarbeit auf Länder-, Institutions- und individueller Ebene anhand von Daten aus dem Science Citation Index zu untersuchen. Die Untersuchung der allgemeinen Trends zeigt, dass China seine Position in DSSCs auf der ganzen Welt ausgebaut hat. Wenn wir uns auf die individuelle Ebene konzentrieren, stellen wir außerdem fest, dass die einflussreichsten Autoren dazu neigen, feste Co-Autoren-Netzwerke und eine feste Reihenfolge der Autorennamen zu haben, was eine Überlegung wert ist. Wir verwenden unabhängig entwickelte Co-Autoren-Analyse-Software, um drei Arten von festen Co-Autoren-Netzwerken zu überprüfen, um Autorenbeiträge, Einfluss und den Rang des Autorenaktivitätsindex in Kooperationsnetzwerken zu untersuchen, und verwenden den von uns berechneten Rang, um Autorenbeiträge in den Netzwerken weiter zu erklären. Die Ergebnisse zeigen, dass chinesisch-amerikanische (z. Die modifizierte Rangliste des Autorenaktivitätsindex kann das tatsächliche Forschungsniveau widerspiegeln. Die Zusammenarbeit zwischen Autoren wurde in gewissem Maße durch die Art ihrer Institutionen beeinflusst. Diese Ergebnisse können zweifellos die internationale Zusammenarbeit und den Innovationsprozess in ähnlichen aufstrebenden Technologiefeldern fördern.;-;-;-;https://link.springer.com/article/10.1007/s11192-013-1180-8 d915c94fd23930a9072bd9a494a985ff;de;;;3.4.;6.4.;3.2.;Medianer Altersunterschied der Referenzen als Indikator für die Informationsaktualisierung von Forschungsgruppen: Eine Fallstudie in der spanischen Lebensmittelforschung Der mediane Altersunterschied (D) wird durch Subtrahieren des Medianwerts der Altersverteilung der Referenzen einer wissenschaftlichen Arbeit von der Zitierung der Halbwertszeit der Zeitschrift, die sie veröffentlicht hat, erhalten. Ein solcher Indikator kann mit dem Wissensstand von Forschungsgruppen in Verbindung gebracht werden und kann einige interessante Eigenschaften aufweisen: 1) er muss mit der informellen Einarbeitung von Informationsteilen in Verbindung gebracht werden, beispielsweise der Rate der Selbstzitate, 2) er muss folgen der natürlichen Tendenz der Gruppen zu einem fortschreitend aktualisierten Wissensstand und 3) produktivere Gruppen werden dazu neigen, neuere Informationen zu verwenden. Diese natürlichen Hypothesen wurden anhand einer Fallstudie einer mittelgroßen spanischen Institution untersucht, die sich der Lebensmittelforschung widmet. Der wissenschaftliche Output umfasste 439 Artikel, die zwischen 1999 und 2004 von 16 Forschungsteams in SCI-Zeitschriften veröffentlicht wurden. Ihre 14.617 Referenzen wurden analysiert. Die untersuchten Variablen waren die Anzahl der veröffentlichten Artikel von jedem Team, die Anzahl der Autoren pro Artikel, die Anzahl der Referenzen pro Artikel, die Art der zitierten Dokumente, die Selbstzitierungsrate und der chronologische Bereich der Referenzlisten.;-;-;-;https://link.springer.com/article/10.1007/s11192-007-1993-4 a1c5cad629ff46919521fd1f8ca74e2f;de;;;3.4.;6.4.;3.2.;Einführung in die „Facilitymetrics“: eine erste Überprüfung und Analyse häufig verwendeter Maßnahmen zur wissenschaftlichen Führung unter Synchrotronstrahlungseinrichtungen weltweit Beschleunigerkomplexe von Big Science sind nicht mehr nur Werkzeuge für die Kern- und Teilchenphysik, sondern moderne experimentelle Ressourcen für eine Vielzahl von Naturwissenschaften und werden oft als Instrument der wissenschaftlichen und technologischen Entwicklung für Innovation und Wirtschaftswachstum bezeichnet. Einrichtungen konkurrieren auf einem globalen Markt, um die besten Benutzer zu gewinnen und die beste Wissenschaft zu ermöglichen und die Leistung ihrer Benutzer als Marker für Qualität und Produktivität zu bewerben. Damit ist der Bedarf an einer (quantitativen) Qualitätsbewertung der Wissenschaft auf der Ebene der Einrichtungen gestiegen. In diesem Artikel untersuchen wir einige quantitative Leistungsmessungen, die häufig von Einrichtungen verwendet werden, um Qualität anzuzeigen: technische Zuverlässigkeit, Wettbewerb um Zugang und Veröffentlichungsdatensätze. Wir berichten über Daten der drei größten Synchrotronstrahlungsanlagen der Welt aus den Jahren 2004–2010 und diskutieren deren Bedeutung und Bedeutung im richtigen Kontext. Obwohl wir argumentieren, dass Qualität in diesen quantitativen Metriken nicht vollständig erfasst werden kann, erkennen wir ihre offensichtliche Bedeutung an und stellen daher Facilitymetrics als neues Merkmal des Studiums der modernen großen Wissenschaften und als neuen empirischen Schwerpunkt für szientometrische . vor und schlagen sie vor in der Hoffnung, dass zukünftige Studien zu einer tieferen, dringend benötigten Analyse des Themas beitragen können.;-;-;-;https://link.springer.com/article/10.1007/s11192-012-0945-9 98822b17e6726649ab79bff9aae791a5;de;;;3.4.;6.4.;3.2.;Wer führt das Wachstum der Forschungsproduktivität an? Leitlinien für F&E-Politiker In diesem Papier wird bewertet, inwieweit es der Politik gelungen ist, den Aufbau und die Konsolidierung umfassender Forschungsgruppen zu fördern, die zur Umsetzung eines erfolgreichen Innovationssystems beitragen. Im Fall des spanischen Lebensmitteltechnologieprogramms werden Malmquist-Produktivitätsindizes verwendet, wobei festgestellt wird, dass eine große Größe und ein umfassendes mehrdimensionales Forschungsergebnis die Hauptmerkmale der führenden Gruppen sind, die ein hohes Effizienz- und Produktivitätsniveau aufweisen. Wir identifizieren diese Gruppen als Benchmarks, kommen jedoch zu dem Schluss, dass die vom Programm gewährten finanziellen Zuschüsse, die typischerweise an kleine und teilweise orientierte Forschungsgruppen gerichtet sind, nicht erfolgreich waren, sie rechtzeitig neu auszurichten, um ihre Grenzen zu überwinden. Wir schlagen vor, dass diese Methodik relevante Schlussfolgerungen für Methoden der Politikbewertung bietet und politischen Entscheidungsträgern hilft, Politiken und die damit verbundenen Mittel, insbesondere die Ressourcenzuweisung (Finanzpläne), anzupassen und neu auszurichten, um besser auf die tatsächlichen Bedürfnisse von Forschungsgruppen bei ihrer Suche Exzellenz (Perspektive auf Mikroebene) und Anpassung der künftigen Politikgestaltung an die Erreichung mittelfristiger politischer Ziele (Meso- und Makroebene).;-;-;-;https://link.springer.com/article/10.1007/s11192-012-0763-0 7a456d7d0e49b8c1ec26529c321f6ce9;de;;;3.4.;6.4.;3.2.;Grundlagenforschungsintensität und diversifizierte Leistung: Die moderierende Rolle der staatlichen Förderintensität Der Zusammenhang zwischen Grundlagenforschungsintensität und diversifizierter Leistung ist ein sehr wichtiges Problem, das theoretisch nicht beantwortet wurde. Ausgehend von den Paneldaten von Hochschulen, die direkt dem Bildungsministerium unterstehen, unter Berücksichtigung der drei Aufgaben der Hochschule und der typischen Merkmale der Grundlagenforschung unterteilen wir die diversifizierte Leistung in Innovationsleistung, wirtschaftliche Leistung, soziale Leistung und internationale Kooperationsleistung. Wir stellen fest, dass eine Steigerung der Intensität der Grundlagenforschung die Zahl der Patentanmeldungen und Erfindungspatente erhöhen kann, jedoch nicht die Gesamtzahl der Veröffentlichungen in Papierform und die Zahl der englischsprachigen Veröffentlichungen. Währenddessen fördert die Verbesserung der Grundlagenforschungsintensität nicht unbedingt die wirtschaftliche Leistungsfähigkeit, während die Förderungswirkung auf die soziale Leistungsfähigkeit eine Verzögerung von 1 Jahr benötigt. Darüber hinaus führt eine Erhöhung der Grundlagenforschungsintensität nicht unbedingt zu einer signifikanten Verbesserung der internationalen Kooperationsleistung und hat sogar nach verzögerten 2-Phasen erhebliche negative Auswirkungen. Schließlich spielt die staatliche Förderintensität nur eine moderierende Rolle zwischen Grundlagenforschungsintensität und Innovationsleistung, nicht jedoch zwischen Grundlagenforschungsintensität und anderen Leistungsarten. Dies zeigt, dass der Staat in der Phase der Wissensproduktion eine Schlüsselrolle spielt, seine Rolle in der Phase der Wissenstransformation jedoch relativ begrenzt ist.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03635-x 71d579b0c66114daa0d70651c547fc0a;de;;;3.4.;6.4.;3.2.;Vergleich der wissenschaftlichen Qualität von Förderinstrumenten für Einzelstipendiaten und für kollaborative Netzwerke innerhalb eines Forschungssystems: Einige Beobachtungen Die Förderung der akademischen Forschung erfolgt zunehmend durch die Förderung von Kooperationen und nicht mehr durch Einzelstipendien an einen einzelnen Stipendiaten. Die Praxis wird gut durch Beweise gestützt, dass größere, netzwerkbasierte Forschung eine hohe Qualität erreicht und gleichzeitig zu einer Reihe von Vorteilen beim Aufbau von Kapazitäten für das Forschungssystem führt, wenn auch mit erheblichen Transaktionskosten. Die Frage, welche Förderprogramme Forschern zur Verfügung gestellt werden sollten, ist jedoch keine einfache Dichotomie zwischen einzelnen Stipendiatenprojekten und Netzwerken. Eine zentrale Frage ist, wie in den einzelnen Fachgebieten ein Gleichgewicht zwischen den verschiedenen eingesetzten Förderinstrumenten erreicht werden kann und gleichzeitig sichergestellt werden kann, dass die verschiedenen Förderformen den Ruf erhalten, Forschung von hoher wissenschaftlicher Qualität hervorzubringen. Dieser Beitrag berichtet über die Ergebnisse eines systematischen Vergleichs der wissenschaftlichen Qualität von 1010 wissenschaftlichen Arbeiten aus der ISI-Datenbank, die unter zwei gegensätzlichen Förderinstrumenten für ein Jahr im österreichischen Wissenschaftssystem erstellt wurden. Der Vergleich der arcsinh-transformierten Zitationszahlen von Arbeiten aus den beiden Hauptförderungsformen der Grundlagenwissenschaft auf der Ebene des Wissenschaftsschwerpunktes zeigt keinen statistisch signifikanten Unterschied in der Qualität der beiden Förderformen. Dies könnte darauf hindeuten, dass es Förderern und Forschungsleistungsträgern gelungen ist, sicherzustellen, dass unterschiedliche Forschungsinstrumente dennoch ein sehr ähnliches Niveau an wissenschaftlicher Exzellenz erreichen.;-;-;-;https://link.springer.com/article/10.1007/s11192-007-1970-y 7157f638542d247f3259fb773e1a4316;de;;;3.5.;6.4.;6.2.;Relevante Änderungen im wissenschaftlichen Publizieren in Mathematik und Physik Das wissenschaftliche Publizieren in Mathematik und Physik (wie in anderen exakten Wissenschaften) verändert sich schnell, und es ist wichtig, relevante Veränderungen und deren mögliche Folgen zu erkennen und vorherzusagen. Um solche Veränderungen zu verstehen, beginnen die Autoren mit einer kurzen Geschichte des wissenschaftlichen Publizierens und dem Aufstieg des digitalen Publizierens. Die Studie stellt einen qualitativen Vergleich der Grundzüge traditioneller und digitaler Publikationsformen (Bücher, Zeitschriften, Bibliotheken und Datenbanken, Archive, Webinare, Foren, digitale Lernmaterialien) vor, auf deren Grundlage relevante Veränderungen (spezifisch für Mathematik und ) identifiziert und vorhergesagt. Es sind mehrere Tabellen aufgeführt, die die beliebtesten und nützlichsten wissenschaftlichen Online-Tools für Wissenschaftler, Professoren, Studenten und Ingenieure beschreiben.;-;-;-;https://link.springer.com/article/10.1007/s12109-012-9300-5 4cfa4a2de44fa90c78ec7a6e5ad35b7e;de;;;3.5.;6.4.;6.2.;Die Wirkung elektronischer Abschlussarbeiten: eine Studie zum institutionellen Repositorium einer Universität in Südafrika Dieser Beitrag untersucht die akademischen und gesellschaftlichen Auswirkungen der ingenieurelektronischen Abschlussarbeiten (ETDs) an der North-West University. Die von Google Scholar (GS) erhaltenen Zitationszahlen und die Altmetrics-Daten von Dspace aus dem institutionellen Repository der North-West University werden verwendet, um diese Auswirkungen zu bestimmen. Darüber hinaus werden die Umwandlungsraten von ETDs von einem Bildungsergebnis in ein akademisches Forschungsergebnis unter Verwendung von Daten von GS und dem institutionellen Repositorium der North-West University bestimmt. Die Ergebnisse zeigen, dass die 612 Abschlussarbeiten und Dissertationen 931 Zitationen verzeichneten, was durchschnittlich 1,52 Zitationen pro Dissertation entspricht. Insgesamt 41,2 % der Abschlussarbeiten und Dissertationen wurden mindestens einmal zitiert und die Umwandlungsrate in wissenschaftliche Forschungsleistungen betrug 16,8 %. Die Conversion-Raten in den letzten 3 Jahren, die Teil dieser Studie sind, betragen 27,3%, was auf eine Verbesserung hindeutet. Pro Abschlussarbeit gingen durchschnittlich 323 PDF-Ansichten ein. Die Zitations- und PDF-Ansichtsdaten zeigen, dass die Engineering ETDs lobenswerte akademische und gesellschaftliche Auswirkungen haben. Dennoch zeigen die akademischen Auswirkungen eine geringe Korrelation mit den gesellschaftlichen Auswirkungen, obwohl einige positive Trends erkennbar sind, wenn man die Herkunft von PDF-Ansichten und Zitationen nach Ländern betrachtet.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2657-2 0ddcc351d2322e6a8a55b5bd61e18c75;de;;;3.5.;6.4.;6.2.;Die narrativen Funktionen der Visualisierung in Publikationen der Digital Humanities verstehen Der Einsatz und die Wirkung von visuellen Repräsentationen in der Wissensproduktion sind ein viel diskutiertes Thema in der wissenschaftlichen Forschung. In den Geisteswissenschaften bleibt dieses Thema jedoch trotz der zunehmenden Anwendung der Datenvisualisierung in diesem Bereich zu wenig beachtet. Dieses Papier zielt darauf ab, zu verstehen, wie visuelle Darstellungen die narrative Konstruktion in veröffentlichten Artikeln im aufstrebenden Bereich der Digital Humanities (DH) erleichtern. Mit den Methoden der Inhaltsanalyse und des Close Reading haben wir anhand einer ausgewählten Stichprobe von Forschungsartikeln, die im;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71292-1_34 619cb94dbc71c0680f41a43de784d40b;de;;;3.5.;6.4.;6.2.;Digitales Publizieren und Chinas wichtigste wissenschaftliche Zeitschriften: ein Positionspapier In diesem Positionspapier diskutieren wir den aktuellen Stand der wichtigsten wissenschaftlichen Zeitschriften in China. Basierend auf Diskussionen über die Beziehung von Zeitschriften zu einer kleinen Gruppe von Anbietern von Volltextdatenbanken, Open-Access-Publishing und Urheberrechtsproblemen kommen wir zu dem Schluss, dass sich Chinas digitale Verlagsbranche noch nicht in einem gesunden Zustand befindet und einige Schlüsselprobleme in Bezug auf Einnahmen, digitale Piraterie Urheberrecht muss gelöst werden.;-;-;-;https://link.springer.com/article/10.1007/s11192-012-0873-8 18f9ac7a61306e7ffd9676e12b37652b;de;;;3.4.;6.4.;6.2.;Forschungsförderung in Brasilien Die Finanzierung ist überlebenswichtig für die Wissenschaft und damit für die Entwicklung und Souveränität eines Landes und sollte auf die Qualität des Produkts achten. Dieses Papier befasst sich mit Funding-Zitaten in Incites;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03762-5 3d7ab338fb83d0f3d8324ea70d0a4de1;de;;;3.4.;6.4.;6.2.;Die Ausdifferenzierung des strategischen Profils der Hochschulen. Neue Positionsindikatoren auf Basis von Mikrodaten Wir adressieren das Thema Differenzierung des Hochschulprofils und bieten eine Reihe neuer Indikatoren auf der Grundlage von Mikrodaten auf individueller Ebene und der Anwendung robuster nichtparametrischer Effizienzmaße an.;-;-;-;https://link.springer.com/article/10.1007/s11192-008-0101-8 f26e643deb188bbc554b40aa67454e64;de;;;3.4.;6.4.;6.2.;Szientometrics als Werkzeug zur Analyse der industriellen Beziehungen zweier Abteilungen eines großen französischen Instituts für angewandte Forschung, 1988–1992 Um die Art der Wechselwirkungen zwischen den Arbeitsbeziehungen der Laboratorien und ihrer wissenschaftlichen Politik zu untersuchen, gehen wir davon aus, dass durch die Nutzung erweiterter Kenntnisse über diese Wechselwirkung Empfehlungen zum Management von Arbeitsbeziehungen formuliert werden können.;-;-;-;https://link.springer.com/article/10.1007/BF02093629 2f7779c7f9e091053f480e88fa70f602;de;;;3.4.;6.4.;6.2.;Öffentlich-privater Beitrag zu biopharmazeutischen Entdeckungen: eine bibliometrische Analyse der biomedizinischen Forschung in Großbritannien Grundlagenforschung schafft neues Wissen, das den technologischen Fortschritt befeuert. Haushaltsbedenken und steigende F&E-Preise fordern Unternehmen jedoch heraus, Erträge aus Investitionen in die wissenschaftliche Forschung nachzuweisen. Es werden nur wenige Versuche unternommen, Forschungen zu analysieren, die zu pharmazeutischen Innovationen führen. Insbesondere der finanzielle Beitrag öffentlicher und privater Organisationen zum riskantesten Stadium der biomedizinischen Entdeckung blieb unklar und teilweise unerforscht. Diese Studie ist ein erster Versuch, die finanzielle Unterstützung der Grundlagenforschung durch den öffentlichen und privaten Sektor anhand von Publikationsdaten zu beleuchten. Wir führten eine explorative Analyse der Finanzierungsbestätigungen von Publikationen durch, die von den Gründungswissenschaftlern von 91 „Drug Originator“-Unternehmen im Vereinigten Königreich verfasst wurden. Die Art und Verteilung der Unterstützung, die der vor der Firmengründung durchgeführten Forschung bestätigt wurde, wurde analysiert und die Wirkung von Veröffentlichungen und die Art der Unterstützung wurden statistisch überprüft. Wir stellten fest, dass die Mehrheit der Veröffentlichungen öffentliche Institutionen anerkannte, während kommerzielle Organisationen wahrscheinlich diejenigen mit privaten Autoren unterstützten. Auf der Grundlage dieser Ergebnisse diskutierten wir die Notwendigkeit, kollaborative Forschung zu fördern und angemessene Anreize für gemeinsame Risiken und Vorteile von Investitionen in die Wissensschaffung zu setzen.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03429-1 8b1a8717aaac9f42d79bd3be1f9f5014;de;;;3.4.;6.4.;6.2.;Neuer Dialog, neue Services mit Altmetrics: Lingnan University Library Experience Dieser Artikel beschreibt den Ansatz der Bibliothek der Lingnan-Universität, Altmetrics in ihr institutionelles Repositorium zu integrieren, einen neuen Dialog mit den Lingnan-Forschern anzustoßen und ihre Aufmerksamkeit auf die wissenschaftlichen Kommunikationsdienste mit einer neuen Perspektive zu lenken.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1053-9_5 3d57924d999744ffeb8fab99235ba4fa;de;;;3.4.;6.4.;6.2.;Spam-E-Mails in der Wissenschaft: Probleme und Kosten Die wissenschaftliche Forschungsleistung wächst pro Jahr sehr schnell. Angesichts dieser Expansion werden neue Verlage auf den Markt kommen oder bestehende Verlage neue Zeitschriften einführen, um die schnell wachsenden intellektuellen Beiträge im wissenschaftlichen Publizieren zu erfassen. Es ist daher natürlich, dass, wenn konkurrierende Fraktionen, neue und bereits bestehende Verlage, um diese Expansion wetteifern, ein Wettbewerb zwischen Zeitschriften und Verlagen entsteht. Dieses Wettbewerbsumfeld kann einen ungesunden Wettbewerb mit unangemessenen oder inakzeptablen Taktiken auslösen, um einen Anteil am wachsenden Markt zu gewinnen. In der jüngsten Open-Access-Ära werden fragwürdige Überprüfungs-, Preis-, Management- und Marketingpraktiken von Zeitschriften oder Verlagen, die behaupten, wissenschaftlich zu sein, allgemein als „räuberisch“ bezeichnet. Eine Möglichkeit, einen Teil des wachsenden Marktes zu erobern, besteht darin, unerwünschte E-Mails, sogenannte Spam-E-Mails, zu verwenden, um Kunden zu gewinnen. Diese Methode war schon immer eine fragwürdige Geschäftspraxis, die Kosten verursacht. In diesem Papier behandeln wir Probleme im Zusammenhang mit Spam-E-Mails, und unsere konservative Schätzung der externen Kosten von Spam von Verlagen und Zeitschriften beläuft sich auf 1,1 Milliarden US-Dollar pro Jahr. Berücksichtigt man alle Spam-E-Mails in der Berechnung, steigen die Kosten auf ca. 2,6 Milliarden US-Dollar pro Jahr. Akademiker, die auf Spam-E-Mails von Zeitschriften antworten, die keine Peer-Reviews durchführen, riskieren ebenfalls, ihre Karriere zu schädigen, indem sie ihren Intellekt in solchen Medien veröffentlichen. Schließlich können Spam-E-Mails Phishing-Angriffe beinhalten, die auch zu finanziellen Verlusten führen. Indem wir Wissenschaftler auf diese Kosten aufmerksam machen, hoffen wir, dass betroffene Institute Maßnahmen ergreifen können, um die negative Externalität von Spam-E-Mails zu reduzieren und einige mögliche Lösungen anzubieten.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03315-5 ad4248112d423346d4aa1a0d88129e0e;de;;;3.4.;6.4.;6.2.;Was ist falsch an der Wissenschaft? Es besteht ein zunehmender Druck auf Wissenschaftler, zu veröffentlichen, um eine akademische Karriere zu fördern oder zu erhalten. Regierungen und Förderorganisationen sind gierig nach Indikatoren, die auf der wissenschaftlichen Produktion basieren, um den wissenschaftlichen Output zu messen. Aber was genau wissen wir über den Zusammenhang zwischen Publikationsstand und wissenschaftlichem Fortschritt? Wie beeinflussen gesellschaftliche Dynamiken und Normen die Qualität der wissenschaftlichen Produktion? Gibt es unterschiedliche Regime der wissenschaftlichen Dynamik? Die vorliegende Studie schlägt einige Konzepte vor, um über wissenschaftliche Dynamiken nachzudenken, durch die Modellierung der Beziehung zwischen Wissenschaftspolitik und Explorations-Ausbeutungs-Dilemmata der Wissenschaftler. Im Vorbeigehen analysieren wir im Detail die Auswirkungen der „Publish or Perish“-Politik, die sich als keine signifikanten Auswirkungen auf die Entwicklungen aufstrebender wissenschaftlicher Felder, aber nachteilig auf die Qualität der Produktion von reifen Feldern herausstellt.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-2109-9 3063cc7bd76ae6f5942fc8cedfa1acc1;de;;;3.4.;6.4.;6.2.;Bibliometrische Analyse von Output und Impact basierend auf CRIS-Daten: eine Fallstudie zum registrierten Output einer niederländischen Universität In dieser Studie kombinieren wir den registrierten Output einer ganzen Universität in den Niederlanden mit Daten aus dem Web of Science. Die anfängliche Forschungsfrage lautete: Ist es möglich, die Wirkung der Universität in ihrer ganzen Breite darzustellen, wenn man die Vielfalt der im Forschungsprofil der Universität abgedeckten Disziplinen berücksichtigt? Um diese Frage zu beantworten, haben wir den Output der im CRIS-System METIS registrierten Universität über die Jahre 2004–2009 analysiert. Die Registrierung umfasst eine Vielzahl von wissenschaftlichen Leistungen, die alle in der Analyse berücksichtigt werden. In der Studie führen wir Analysen zur Abdeckung des Outputs der Universität durch, sowohl aus Sicht des Outputs selbst gegenüber dem Web of Science („extern“), als auch aus der Web of Science-Perspektive selbst („intern“ ). Dies liefert uns die notwendigen Informationen, um klare Schlussfolgerungen über die Validität der Anwendung bibliometrischer Standardmethoden in der Forschungsbewertung von Universitäten mit einem solchen Forschungsprofil ziehen zu können.;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1788-y e5cd4a082574f3740593cd3084891fa2;de;;;3.4.;6.4.;6.2.;Wissenschaftliche Buchverlage als Werbeagenten für SSH-Titel auf Twitter Der Zweck dieses Papiers war es, die Präsenz wissenschaftlicher Buchverlage auf Twitter und Tweets über Bücher in 10 SSH-Disziplinen (2014–2018) zu untersuchen. Dies beinhaltete die Zeit des Tweets im Verhältnis zum Erscheinungsdatum des Buches und die Zeitspanne der Twitter-Aktivität. Wir haben auch die „Kategorien der Konversation“ in den Tweets von Publishern untersucht, mit einem Fokus auf Hashtags und @-Erwähnungen. Die Datenerhebung umfasste den Abgleich von 15.454 einzigartigen Buchtiteln aus dem BKCI-Web of Science mit Tweets, die von Altmetrics.com unter Verwendung von ISBNs abgerufen wurden. Dies führte zu einem Arbeitsdatensatz von;-;-;-;https://link.springer.com/article/10.1007/s11192-021-03947-6 dbfdf4db71c44528ddaaae50484d5e8f;de;;;3.4.;6.4.;6.2.;Eine bibliometrische Analyse der Malariaforschung in China in den Jahren 2004–2014 China hat große Fortschritte bei der Malaria-Prävention und -Kontrolle gemacht, aber es gab keine Forschung, die einen makroskopischen Überblick über die Malaria-Forschung in China geben könnte. Diese bibliometrische Analyse wurde anhand internationaler Datenbanken durchgeführt, um die Merkmale von Malaria-Untersuchungen in China zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s12936-015-0715-2 367810108def222e46bb4f3e82aad6ca;de;;;3.4.;6.4.;6.2.;Die Beziehung zwischen akademischer Patentierung und wissenschaftlichem Publizieren in Norwegen Dieses Papier ergänzt die wachsende empirische Evidenz zum Zusammenhang zwischen Patentierung und Veröffentlichung unter Universitätsmitarbeitern. Es werden Daten von allen norwegischen Universitäten und einer breiten Palette von Disziplinen verwendet, bestehend aus bestätigten Patenterfindern und einer Gruppe von Peers ohne Patente, die den Erfindern durch Kontrolle von Geschlecht, Alter, Zugehörigkeit und Position zugeordnet werden. Im Allgemeinen stützen die Ergebnisse frühere Untersuchungen, die zu dem Schluss kamen, dass zwischen Patentierung und Veröffentlichung ein positiver Zusammenhang besteht. Es gibt jedoch wichtige Unterschiede zwischen den Fachbereichen, Universitäten und möglicherweise Arten von akademischen Unternehmern, was die Notwendigkeit unterstreicht, bei der Untersuchung der Auswirkungen von Patenten nuancierte und kontextuelle Faktoren zu berücksichtigen.;-;-;-;https://link.springer.com/article/10.1007/s11192-009-0050-x 22a0686c642331f2f1c62e87cc8e12f3;de;;;3.4.;6.4.;6.2.;Natürliche Auswahl wissenschaftlicher Arbeiten Wissenschaftliche Arbeiten wie Gene, Codes für Ideen oder technologische Innovationen, die den wissenschaftlichen Organismus und damit die Gesellschaft insgesamt strukturieren und transformieren. Gene unterliegen dem Prozess der natürlichen Selektion, der sicherstellt, dass nur die Stärksten überleben und zum Phänotyp des Organismus beitragen. Der Auswahlprozess wissenschaftlicher Arbeiten ist jedoch alles andere als selbstverständlich. Kommerzielle gewinnorientierte Verlage haben die Kontrolle über die Auswertung und den Zugang zu wissenschaftlichen Informationen mit schwerwiegenden Folgen für die Verbreitung und Weiterentwicklung von Wissen übernommen. Akademische Autoren und Bibliothekare reagieren darauf mit der Entwicklung eines alternativen Publikationssystems basierend auf frei zugänglichen Zeitschriften und der Selbstarchivierung in institutionellen Repositorien und globalen Fachbibliotheken. Trotz des Aufkommens solcher Trends hat das Zeitschriftenmonopol und nicht die wissenschaftliche Gemeinschaft immer noch die Kontrolle über die Auswahl von Artikeln und die Festlegung wissenschaftlicher Standards. Hier schlagen wir einen dynamischen und transparenten Peer-Review-Prozess vor, von dem wir glauben, dass er den Übergang zu einer vollständig offenen und freien Wissenschaft beschleunigen wird, die die natürliche Auswahl der geeignetsten Ideen ermöglicht.;-;-;-;https://link.springer.com/article/10.1007/s11192-010-0253-1 57db3dd96d4c827b3bc506e8e415ab80;de;;;3.4.;6.4.;6.2.;Predatory Publishing in Scopus: Beweise für länderübergreifende Unterschiede Predatory Publishing stellt eine große Herausforderung für die wissenschaftliche Kommunikation dar. Dieser Artikel bildet die Infiltration von Zeitschriften, die räuberischer Praktiken verdächtigt werden, in die Zitationsdatenbank Scopus ab und untersucht länderübergreifende Unterschiede in der Neigung von Wissenschaftlern, in solchen Zeitschriften zu publizieren. Unter Verwendung der Namen von „potentiellen, möglichen oder wahrscheinlichen“ räuberischen Zeitschriften und Verlagen auf Bealls Listen haben wir die ISSNs von 3.293 Zeitschriften aus Ulrichsweb abgeleitet und Scopus damit durchsucht. Es wurden 324 Zeitschriften identifiziert, die sowohl in Bealls Listen als auch in Scopus mit 164 000 Artikeln erscheinen, die im Zeitraum 2015–2017 veröffentlicht wurden. Die Analyse von Daten für 172 Länder in 4 Forschungsbereichen zeigt eine bemerkenswerte Heterogenität. In den am stärksten betroffenen Ländern, darunter Kasachstan und Indonesien, fallen rund 17% der Artikel in die Kategorie der Raubtiere, während es in einigen anderen Ländern überhaupt keine räuberischen Artikel gibt. Länder mit großen Forschungssektoren auf mittlerer wirtschaftlicher Entwicklung, insbesondere in Asien und Nordafrika, sind tendenziell am anfälligsten für Predatory Publishing. Auch arabische, ölreiche und/oder östliche Länder scheinen besonders gefährdet zu sein. Politische Entscheidungsträger und Interessenvertreter in diesen und anderen Entwicklungsländern müssen der Qualität der Forschungsevaluation mehr Aufmerksamkeit schenken.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03852-4 ae0be76acc8d8a3127e34db603ff738b;de;;;3.4.;6.4.;6.2.;Visualisierung des Wissensausbruchs in der globalen Forschung zu COVID-19 Die wissenschaftlichen Ergebnisse der neuen Coronavirus-Forschung nehmen zu. Innerhalb von fünf Monaten wurden 14.588 wissenschaftliche Publikationen zu nCoV-2 und COVID-19 intensiv erstellt (indiziert in Scopus am 31.05.2020). Ein solcher Wissensausbruch hat großes Interesse geweckt, die Forschungslandschaft dieses neu gestalteten Gebiets zu verstehen. Dieses Papier demonstriert die szientometrischen Dimensionen der Forschung zum neuartigen Coronavirus (2019-nCov) unter Verwendung quantifizierbarer Merkmale des Publikationsdatensatzes. Die Ergebnisse zeigen, dass die Rate des Publikationswachstums (1600%) sehr signifikant ist für eine synergetische Reaktion der Forscher auf die Bekämpfung der am weitesten ausgedehnten Sequenz eines RNA-Virus. Tatsächlich hat sich ihre Reaktion auf durchschnittlich 100 Artikel pro Tag eingestellt. Viele wissenschaftliche Verlage haben ihre Preprint-Server offengelegt, um die Publikationen auch durch Open Access sofort verfügbar zu machen. Die wissenschaftlichen Inhalte wurden in mehr als 500 Zeitschriften von 240 wissenschaftlichen Verlagen veröffentlicht. Während die Top-Ten-Verlage knapp 70 % der Artikel belegten, wurden rund 25 % der Studien von 300 Fördergebern gesponsert. Unter den bemerkenswerten Zeitschriften sind Lancet, Nature, BMJ, JAMA, JMV und NEJM prominent. Die Ergebnisse zeigen auch, dass die meisten Beiträge in der Medizinwissenschaft entstanden sind, mit Schwerpunkt auf Virologie, Immunologie, Epidemiologie, Pharmakologie, öffentliche Gesundheit, Intensivmedizin und Notfallmedizin. Die eng damit verbundenen Begriffe sind jedoch Virusübertragung, Infektionskontrolle, asymptomatisch, Quarantäne, Lungenentzündung, Mensch, Schwere der Erkrankung, klinische Studien, virale Pathogenese, Pandemie, Risiko und Mortalität. Die Studie legt nahe, dass sich akademische Zentren hauptsächlich in den USA, China, Italien und Großbritannien befinden. Unter den produktiven Institutionen sind die Huazhong Univ (China), Tongji Med. College (China), Harvard Med. School (USA), Univ of Milan (Italien), INSERM (Frankreich), UCL (UK) sind herausragend. Die G7-Staaten produzierten zusammen 50 % der weltweiten Forschungsleistung zu nCov-2. Es stellte auch einen ermutigenden Trend zur kollaborativen Forschung in vielen Ländern und Disziplinen fest, in denen die Werte von CI (6,46), DC (0,79) und CC (0,59) sehr signifikant sind. Es untersucht die geografische Diversität der kollaborierenden Autoren und visualisiert dabei deren Verknüpfungen über Koautorenschaftsereignisse. Schließlich analysierte es die Auswirkungen der Veröffentlichungen, um die einflussreichsten Beiträge der neuen Coronavirus-Forschung zu präsentieren.;-;-;-;https://link.springer.com/article/10.1007/s11192-021-03912-3 d38285443f8dbee1f0f23ec19dbb0443;de;;;3.4.;6.4.;6.2.;Sollten Sie Ihr Papier veröffentlichen? Fragen, die Sie sich stellen sollten, bevor Sie mit dem Schreiben beginnen Wie entscheiden Sie, ob ein Forschungsprojekt publikationswürdig ist? Wie identifizierst und ziehst du ein Publikum an? Wie wählen Sie eine Zeitschrift für Ihr Manuskript aus? Dieses Kapitel beantwortet diese Fragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-935704-03-4_2 1a6647ac57cb7472d930d722cf943b8b;de;;;3.4.;6.4.;6.2.;Eine grafische Metrik auf Artikelebene für den intuitiven Vergleich umfangreicher Literatur Mit den Fortschritten aller Forschungsgebiete ist der Umfang der wissenschaftlichen Literatur in den letzten Jahrzehnten exponentiell gewachsen, und die Verwaltung und Erforschung wissenschaftlicher Literatur wird zu einer immer komplizierteren Aufgabe. Gefragt ist ein Instrument, das wissenschaftliche Wirkungen und gesellschaftliche Schwerpunkte kombiniert, um relevante Beiträge aus einem bestimmten Forschungsbereich und Zeitraum zu visualisieren und wichtige und interessante Beiträge zu finden. Daher schlagen wir eine grafische Metrik auf Artikelebene vor (;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1782-4 52ef106d8a5a922656b04a43df7b1b7e;de;;;3.4.;6.4.;6.2.;Einsatz von Web Mining bei der Erforschung von Innovation Da Unternehmen expandieren und zunehmend Informationen über ihre Geschäftsaktivitäten auf ihren Websites veröffentlichen, versprechen Website-Daten eine wertvolle Quelle für die Untersuchung von Innovationen. Dieser Artikel untersucht die Praktikabilität und Wirksamkeit von Web Mining als Forschungsmethode für Innovationsstudien. Wir nutzen Web-Mining, um die F&E-Aktivitäten von 296 in Großbritannien ansässigen kleinen und mittleren Unternehmen für grüne Produkte zu untersuchen. Wir stellen fest, dass Website-Daten im Vergleich zu anderen traditionellen, unauffälligen Recherchemethoden wie Patent- und Publikationsanalysen zusätzliche Erkenntnisse bieten. Wir untersuchen die Stärken und Grenzen des Enterprise Innovation Web Mining in Bezug auf eine Vielzahl von Datenqualitätsdimensionen, einschließlich Genauigkeit, Vollständigkeit, Aktualität, Quantität, Flexibilität und Zugänglichkeit. Wir stellen fest, dass in unserem Beispielbericht weit mehr Unternehmen F&E-Aktivitäten auf ihren Websites durchführen, als dies bei einer reinen Betrachtung herkömmlicher Datenquellen vermuten würde. Während traditionelle Methoden durch Veröffentlichungen und Patente Informationen über die frühen Phasen von F&E und Erfindung bieten, bietet Web Mining Erkenntnisse, die im Innovationsprozess weiter nachgelagert sind. Der Umgang mit Website-Daten ist nicht so einfach wie bei alternativen Datenquellen, und bei der Ausführung von Suchstrategien ist Vorsicht geboten. Website-Informationen werden auch selbst gemeldet und Unternehmen können in ihren Beweggründen für die Veröffentlichung (oder Nicht-Veröffentlichung) von Informationen über ihre Aktivitäten auf Websites variieren. Nichtsdestotrotz stellen wir fest, dass Web Mining eine wichtige und nützliche Ergänzung zu aktuellen Methoden ist und neue Erkenntnisse bietet, die aus anderen unauffälligen Quellen nicht leicht zu gewinnen sind.;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1434-0 1c6d73a3783b4286a82698a1ac7c7b72;de;;;3.4.;6.4.;6.2.;Wissenschaftliche Publikationen jenseits von Paywalls: Erhöhter Zitationsvorteil für Open Publishing Zunächst wollen wir die Gesamtzahl der im Internet frei verfügbaren wissenschaftlichen Artikel ermitteln. Zweitens wollen wir beweisen, ob ein Zitationsvorteil für Open Publishing besteht. Die gesamte wissenschaftliche Publikationsleistung Norwegens ist in Cristin, dem aktuellen Informationssystem in Norwegen, verzeichnet. Basierend auf diesen Daten haben wir Google Scholar entweder nach DOIs oder Titeln durchsucht und ein Dokument als offen verfügbar (OAv) gekennzeichnet, wenn ein Link zu einem Volltext bereitgestellt wurde. Wir haben die extrahierten Daten nach Erscheinungsjahr, Zitationen, Verfügbarkeit und Anbieter analysiert. Basierend auf zusätzlichen Informationen, die in Cristin indiziert sind, haben wir die Daten außerdem nach Jahr, Institution, Verlag und Disziplin analysiert. Wir stellen fest, dass der Gesamtanteil der frei verfügbaren Artikel 68 % beträgt. Nicht verfügbare Artikel stammen von renommierten Verlagen wie Elsevier, Springer, Routledge und Universitetsforlaget (dem größten norwegischen akademischen Verlag), die für Wissenschaftler weltweit besonders wichtig sein können. Der größte Anbieter ist laut der Hauptlink-Bereitstellung von Google Scholar ResearchGate. Darüber hinaus spielen institutionelle Repositorien eine wichtige Rolle bei der Bereitstellung kostenloser Artikelversionen. Artikel aus den Naturwissenschaften und der Technik sowie aus Medizin und Gesundheit waren eher offen als Artikel aus den Sozial- und Geisteswissenschaften. Ihre jeweiligen OAv-Anteile betragen 72, 58 und 55%. Wir sehen einen klaren Zitiervorteil für Open Publishing, im Durchschnitt wurden diese Dokumente doppelt so oft zitiert, was darauf hindeutet, dass Open Access die Zukunft im Publizieren ist. Diese Studie beschränkt sich ausschließlich auf wissenschaftliche Artikel. Ausgenommen sind Bücher und Buchkapitel, die in den Geistes- und Sozialwissenschaften übliche Publikationsformate sind. Die Ergebnisse spiegeln daher die Situation für diese Disziplinen nicht ausreichend wider. Darüber hinaus beschränkt sich diese Studie auf im Internet frei verfügbare Dokumente, unabhängig vom „rechtlichen“ Status des eingestellten Volltextes. Mit den vorliegenden Daten konnten wir nicht zwischen goldenen, grünen, hybriden, reinen Paywall- und illegal geposteten Dokumenten unterscheiden. Normalerweise sind Artikel, die im Web of Science oder SCOPUS indiziert sind, Gegenstand der Untersuchung. Allerdings decken diese Datenbanken die Geistes- und Sozialwissenschaften nicht ausreichend ab und können daher nicht repräsentativ für die gesamte wissenschaftliche Artikelproduktion sein. Diese Studie erfasst den gesamten Artikeloutput eines Landes, unabhängig von der Disziplin und bietet neue Einblicke in Open Publishing.;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2554-0 43611a902d1a200659bf5671430970c8;de;;;3.4.;6.4.;6.2.;Artikelbearbeitungsgebühren in Open-Access-Zeitschriften: Verhältnis zwischen Preis und Qualität Die Abonnementpreise von peer-reviewed Zeitschriften standen in der Vergangenheit nicht in engem Zusammenhang mit der wissenschaftlichen Qualität. Diese Beziehung wurde durch gebündelte E-Lizenzen weiter verschleiert. Anders sieht es bei Open Access (OA)-Zeitschriften aus, die ihren Betrieb über Artikelbearbeitungsgebühren (APCs) finanzieren. Aufgrund des Wettbewerbs und der Tatsache, dass Autoren oft direkt aus eigenen oder anderen begrenzten Mitteln an APC-Zahlungen beteiligt sind, war die Preisgestaltung von APC bisher sensibel für die Qualität und die von den Zeitschriften angebotenen Dienstleistungen. Wir führten eine systematische Umfrage zu den Preisen von Open-Access-Zeitschriften durch, die in Scopus indiziert sind, und diese ergab eine moderate (0,40) Korrelation zwischen den APCs und den quellennormalisierten Impact-pro-Papier-Werten, einem Maß für die Zitationsrate. Gewichtet nach Artikelmengen waren die Korrelationen zwischen Qualität und Preis deutlich höher (0,67). Dies scheint darauf hinzudeuten, dass Verlage bei der Preisgestaltung ihrer Zeitschriften zwar bis zu einem gewissen Grad die Qualität berücksichtigen, Autoren jedoch bei der Wahl des Einreichungsorts für ihre Manuskripte noch empfindlicher auf das Verhältnis zwischen Preis und Qualität achten.;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1556-z 8cce6353c58bc4f4e410ac68378d99e0;de;;;3.4.;6.4.;6.2.;Die redaktionelle Verzögerung von Artikeln zur Lebensmittelforschung wird durch die Erfahrung der Autoren beeinflusst, nicht jedoch durch das Herkunftsland der Manuskripte Die redaktionelle Verzögerung, die Zeit zwischen Einreichung und Annahme wissenschaftlicher Manuskripte, wurde für eine Reihe von 4.540 Artikeln untersucht, die in 13 führenden Zeitschriften der Lebensmittelforschung veröffentlicht wurden. Als beschleunigte Veröffentlichungen wurden Gruppen definiert, die in das untere Quartil der Verteilung der Redaktionsverzögerung der untersuchten Zeitschriften fielen. Verzögerte Papiere sind diejenigen im oberen Quartil der Verteilung. Die redaktionelle Phase hängt mit dem Peer-Review-Prozess zusammen, und zwei Variablen wurden auf der Suche nach Verzerrungen in der redaktionellen Begutachtung untersucht, die die Veröffentlichungsverzögerung beeinflussen könnten: Herkunftsländer des Manuskripts und vorherige Veröffentlichungserfahrung der Autoren in derselben Zeitschrift. Basierend auf Beiträgen in den führenden Lebensmittelforschungsjournalen im Zeitraum 1999-2004 wurde ein Länderranking erstellt und vier Kategorien mit schweren, mittleren, leichten und gelegentlichen Länderproduzenten erstellt. Chi-Quadrat-Tests zeigen nur für eine Zeitschrift signifikante Unterschiede in der Herkunft der Manuskripte. Die Ergebnisse zum Einfluss auf die redaktionelle Verzögerung von länderübergreifender Forschung und internationaler Zusammenarbeit, durchgeführt mit Hilfe des Fisher-Statistiktests, waren ähnlich. Ein zweiseitiger Student-t-Test zeigt signifikante Unterschiede (p<0,05) in der Verteilung erfahrener und neuer Autoren auf die verzögerten und beschleunigten Gruppen von Arbeiten. Obwohl diese Ergebnisse zeitlich und disziplinär begrenzt sind, kann der Schluss gezogen werden, dass die Veröffentlichungserfahrung der Autoren eine schnellere Überprüfung und Akzeptanz ihrer Arbeiten bewirkt und dass weder das Herkunftsland noch die länderübergreifende Forschung den Zeitaufwand für die redaktionelle Akzeptanz der Arbeiten beeinflusst.;-;-;-;https://link.springer.com/article/10.1007/s11192-008-2164-y 4b5f1b04990d34f217f1dac586bb7b3f;de;;;3.4.;6.4.;6.2.;Überschneidungen zwischen Business Intelligence und Customer Relationship Management – ​​Gibt es einen Platz für E-Commerce? In diesem Beitrag soll ermittelt werden, ob E-Commerce in der Literatur zum Thema Überschneidungen zwischen Business Intelligence (BI) und Customer Relationship Management (CRM) Platz hat, mit Auswirkungen auf andere Bereiche wie Social Media, Big Data und Maschinelles Lernen. Akademische Forschende sollten auch bei Überschneidungen zwischen CRM und BI darauf abzielen, im Studium vermehrt E-Commerce-Anwendungen zu nutzen. Die praktischen Implikationen berücksichtigten die von der Wissenschaft anerkannten Schritte für eine systematische Überprüfung und die Ergebnisse wurden sowohl quantitativ als auch qualitativ analysiert. Durch den Einsatz modernster, auf Reviews spezialisierter Softwaretools führte die Forschungsmethodik zu einer empirischen Antwort, die als Beitrag dieses Artikels zur wissenschaftlichen Relevanz für Wissenschaftler und Praktiker gewertet werden kann. E-Commerce hat zwar einen Platz in den Überschneidungen zwischen BI und CRM, aber nicht in allen Reden aller Autoren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72651-5_5 4c1e0ab2cc9206e3b40c8c48a4ce5418;de;;;3.4.;6.4.;6.2.;Digitaler Fußabdruck kultureller Ereignisse: Der Fall der Museumsnacht in Russland Jedes Jahr finden weltweit zahlreiche kulturelle Veranstaltungen statt. Besucher hinterlassen nach dem Besuch solcher Veranstaltungen einen digitalen Fußabdruck, der eine gute Quelle für Datenanalysen im Tourismusverhalten und in der Kulturwissenschaft ist. Diese Untersuchung bietet eine Kartierung von Festivalthemen im Zusammenhang mit der jährlichen Kulturveranstaltung „Museumsnacht“ auf der in Russland beliebtesten sozialen Netzwerkseite (SNS) VKontakte (VK). Alle Beiträge mit dem offiziellen Hashtag der Veranstaltung in russischer Sprache (#нoчьмyзeeв) wurden von VK gesammelt. Zur Analyse der Daten werden mehr als 38.000 Beiträge aus den Jahren 2012 bis 2019 verwendet. Die Ergebnisse zeigen die Dynamik der Event-Web-Aktivitäten und die Veränderungen in den letzten Jahren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37858-5_35 89b85719bb4d4805297d360e2d2c1692;de;;;3.4.;6.4.;6.2.;Ein effizientes System zur Finanzierung der Wissenschaft: von der Antragsprüfung bis zur Peer-to-Peer-Verteilung Dieser Beitrag stellt ein neuartiges Modell der Wissenschaftsfinanzierung vor, das die Weisheit der wissenschaftlichen Masse nutzt. Jeder Forscher erhält jährlich einen gleichen, bedingungslosen Teil aller verfügbaren wissenschaftlichen Mittel, ist jedoch verpflichtet, einen bestimmten Bruchteil dessen, was er erhält, individuell an andere Wissenschaftler zu spenden. Die Wissenschaftsförderung wandert also von einem Wissenschaftler zum nächsten, so dass Wissenschaftler, die viele Spenden erhalten, auch am meisten umverteilen müssen. Da die Finanzierung durch die wissenschaftliche Gemeinschaft zirkuliert, wird mathematisch erwartet, dass sie sich einer von der gesamten wissenschaftlichen Gemeinschaft bevorzugten Verteilung der Mittel annähert. Dies wird ohne Einreichung von Vorschlägen oder Überprüfungen erreicht. Das Modell finanziert außerdem Wissenschaftler anstelle von Projekten, wodurch ein Großteil des Overheads und der Voreingenommenheit des gegenwärtigen Peer-Review-Systems für Zuschüsse reduziert wird. Die Modellvalidierung anhand umfangreicher Zitationsdaten und Finanzierungsaufzeichnungen der letzten 20 Jahre zeigt, dass das vorgeschlagene Modell Finanzierungsverteilungen ergeben könnte, die denen der NSF und NIH ähnlich sind, und das Modell könnte möglicherweise gerechter und gerechter sein. Wir diskutieren mögliche Erweiterungen dieses Ansatzes sowie wissenschaftspolitische Implikationen.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-2110-3 464d4bb9efa558e33650f3e543890463;de;;;3.4.;6.4.;6.2.;Einschätzung der intellektuellen Komponente in der wirtschaftlichen Entwicklung Intellektuelle Faktoren sind der Schlüssel zur Sicherung des Wirtschaftswachstums der Länder und ihrer hohen Wettbewerbsfähigkeit. Der Artikel strukturiert intellektuelle Ressourcen nach Typen, bewertet die Auswirkungen verschiedener Typen und einzelner Formen intellektueller Ressourcen auf das BIP des Landes. Die Korrelationsanalyse ermöglichte die Beurteilung des Einflusses bestimmter intellektueller Faktoren auf das BIP des Landes auf der Grundlage der Auswahl: Ressource (Verfügbarkeit grundlegender intellektueller Ressourcen) und resultierender Indikatoren (Patente, Lizenzen, Know-how, Veröffentlichungen usw. ). Die Simulation basiert auf Daten von 40 Indikatoren, 44 Ländern, über 10 Jahre. Die einflussreichsten Faktoren wurden identifiziert und eingeordnet (unter den Ressourcen – Bildungskosten, Hochschulkosten, Anzahl der F&E-Mitarbeiter und Doktoranden, darunter – Kosten für Öffentlichkeitsarbeit, Publikationen, Anteil der Internetnutzer , der wachsende Anteil innovativer Unternehmen, Informationsinfrastruktur, Zahl der Anmeldungen von Gebietsfremden für Marken). Es wird bestätigt, dass die Liste der einflussreichsten Faktoren für verschiedene Ländergruppen unterschiedlich ist. Dies ist wichtig für die Wahl der Instrumente der öffentlichen Politik zur Stimulierung der wirtschaftlichen und innovativen Entwicklung.;-;-;-;https://link.springer.com/article/10.1007/s11192-021-03958-3 1ea37b1b5e9959532ac6a640ba081210;de;;;3.5.;6.4.;7.4.;Turing-Award-Eliten erneut besucht: Muster von Produktivität, Zusammenarbeit, Autorenschaft und Wirkung Der Turing Award gilt als der einflussreichste und renommierteste Preis im Bereich der Informatik (CS). Mit dem Aufkommen der Wissenschaftswissenschaft wurde eine große Menge bibliographischer Daten analysiert, um den verborgenen Mechanismus der wissenschaftlichen Evolution zu verstehen. Dazu gehören die Analyse des Nobelpreises, einschließlich Physik, Chemie, Medizin usw. In diesem Artikel extrahieren und analysieren wir die Daten von 72 Turing-Preisträgern aus den vollständigen bibliographischen Daten, füllen die Lücke in der fehlenden Turing-Preis-Analyse, und entdecken Sie die Entwicklungsmerkmale von CS als eigenständige Disziplin. Erstens weisen die meisten Turing-Preisträger einen langjährigen und qualitativ hochwertigen Bildungshintergrund auf, und mehr als 61 % von ihnen haben einen Abschluss in Mathematik, was darauf hindeutet, dass Mathematik eine bedeutende Rolle bei der Entwicklung von CS gespielt hat. Zweitens zeigen die Daten, dass nicht alle Wissenschaftlerinnen und Wissenschaftler eine hohe Produktivität und einen hohen h-Index aufweisen, d. h. die Anzahl der Publikationen und der h-Index sind nicht der führende Indikator für die Bewertung des Turing-Preises. Drittens ist das Durchschnittsalter der Preisträger in den letzten Jahren von 40 auf rund 70 Jahre gestiegen. Dies kann daran liegen, dass neue Durchbrüche länger dauern und einige neue Technologien Zeit brauchen, um ihren Einfluss zu beweisen. Außerdem haben wir auch festgestellt, dass die internationale Zusammenarbeit in den letzten 10 Jahren ein explosives Wachstum erfahren hat und ein neues Paradigma in Form der Zusammenarbeit aufgezeigt hat. Es ist auch erwähnenswert, dass in den letzten Jahren auch das Auftauchen von weiblichen Gewinnern auffällig war. Schließlich stellen wir bei der Analyse der persönlichen Veröffentlichungsdatensätze fest, dass viele Menschen in ihrer ertragreichen Zeit eher Artikel mit hoher Wirkung veröffentlichen.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03860-4 287b4bdbf96080254eaf72fe6adcbdd5;de;;;3.5.;6.4.;7.4.;Wissenschaft hinter KI: die Entwicklung von Trend, Mobilität und Zusammenarbeit In dieser Ära der interdisziplinären Wissenschaft haben viele wissenschaftliche Errungenschaften wie die künstliche Intelligenz (KI) der menschlichen Gesellschaft dramatische Revolutionen gebracht. Die zunehmende Verfügbarkeit digitaler Daten zu wissenschaftlichen Ergebnissen bietet beispiellose Möglichkeiten, Science of Science (SciSci) zu erforschen. Obwohl viele bedeutende Arbeiten zu SciSci durchgeführt wurden, machen erhebliche disziplinäre Unterschiede in verschiedenen Bereichen einige Erkenntnisse in bestimmten Bereichen unzureichend. Auffallend ist, dass das Wissen über die Wissenschaft hinter der KI schmerzlich fehlt. In dieser Arbeit untersuchen wir die Entwicklung der KI aus drei Dimensionen, einschließlich der Entwicklung von Trend, Mobilität und Zusammenarbeit. Wir stellen fest, dass sich die Hotspots der KI-Forschung von der Theorie zur Anwendung verlagert haben. Die USA, die die meisten angesehenen KI-Wissenschaftler haben, sprechen die globalen KI-Talente am meisten an. Das Problem der Abwanderung von Fachkräften bei KI-Wissenschaftlern wird in Entwicklungsländern immer gravierender. Die Verbindungen zwischen den KI-Eliten sind im Kollaborationsnetzwerk stark geclustert. Insgesamt zielt unsere Arbeit darauf ab, als Starter zu dienen und die Entwicklung der KI-Erforschung auf visionäre Weise zu unterstützen. Die entsprechenden Demos sind online in AMiner verfügbar (;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03423-7 4a7c4049dbb591275079f6cab0183800;de;;;3.4.;6.4.;7.4.;Anwendung des maschinellen Lernens im technischen Schuldenmanagement: Chancen und Herausforderungen der Zukunft Technisches Schuldenmanagement (TDM) ist ein schnell wachsendes Feld, das in den letzten Jahren sowohl die Wissenschaft als auch die Industrie auf sich gezogen hat. TDM ist ein komplexer Prozess in dem Sinne, dass er auf mehreren und heterogenen Datenquellen (z. B. Quellcode, Funktionsanfragen, Fehlern, Entwickleraktivitäten usw.) empirische Methoden. Empirische Studien, die Expertenurteile beinhalten, sind jedoch im Vergleich zu automatisierten oder halbautomatischen Ansätzen von Natur aus verzerrt. Um diese Einschränkung zu überwinden, hat die breitere (nicht TDM) Software-Engineering-Community damit begonnen, Technologien des maschinellen Lernens (ML) einzusetzen. Unser Ziel ist es, die Möglichkeit der Anwendung von ML-Technologien für TDM durch eine Systematic Literature Review (SLR) zur Anwendung von ML auf Software-Engineering-Probleme zu untersuchen (da ML-Anwendungen auf TDM begrenzt sind). Daher haben wir eine breiter angelegte Studie durchgeführt, d. h. zum maschinellen Lernen für die Softwareentwicklung, und synthetisieren dann die Ergebnisse, um unser übergeordnetes Ziel (d. h. mögliche Anwendung von ML in TDM) zu erreichen. Aus diesem Grund haben wir eine Literaturrecherche durchgeführt, indem wir den in fünf hochwertigen SE-Zeitschriften veröffentlichten Forschungskorpus durchsucht haben, mit dem Ziel, Folgendes zu katalogisieren: (a) die Softwareentwicklungspraktiken, in denen ML verwendet wird, (b) die maschinellen Lerntechnologien, die verwendet werden, um sie zu lösen, und (c) der Schnittpunkt der beiden: Entwicklung einer Problem-Lösungs-Abbildung. Die Ergebnisse sind sowohl für Wissenschaftler als auch für die Industrie von Nutzen, da erstere mögliche Lücken und interessante zukünftige Forschungsrichtungen identifizieren können, während letztere Vorteile durch die Einführung von ML-Technologien erzielen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58793-2_5 5d43d06d9cfb50164b3d64d732e451a1;de;;;3.4.;6.4.;7.4.;Data-Mining zur technologischen Bedeutung staatlich finanzierter Patente im Privatsektor Eine immerwährende Herausforderung für Träger der Grundlagenforschung besteht darin, die technologische Bedeutung ihrer Investitionen in die Privatwirtschaft zu bewerten. Dies ist zum großen Teil auf Schwierigkeiten zurückzuführen, wie privatwirtschaftliche Unternehmen und Technologien von den wichtigsten Ergebnissen der wissenschaftlichen Forschung wie Papieren, Patenten und Konferenzberichten profitieren. Hier schlagen wir ein Data-Mining-Verfahren vor, um die technologische Bedeutung von Patenten, unterstützt durch eine Grundlagenforschungsförderung, über akademische und öffentliche Einrichtungen hinaus zu bewerten. Wir haben diesen Ansatz auf Patente angewendet, die teilweise vom Air Force Office of Scientific Research (AFOSR) finanziert wurden. Unser Verfahren beginnt mit der Identifizierung einer großen Stichprobe von AFOSR-finanzierten Patenten und der Klassifizierung ihrer jüngsten Patentinhaber als in der US-Patentübertragungsdatenbank aufgeführt, in der Aufzeichnungen über die Übertragung von Patentrechten zwischen Einzelpersonen oder Institutionen zu finden sind. Als nächstes werden die Patente, die diese Stichprobe von AFOSR-finanzierten Patenten zitieren, analysiert und wiederum klassifizieren wir die zugehörigen Rechtsnachfolger, um die nachgelagerte technologische Bedeutung von Investitionen in die Grundlagenforschung abzuschätzen. Während Patente, die direkt von AFOSR finanziert werden, in bescheidenem Umfang an Organisationen des Privatsektors vergeben werden (~20 %), werden Patente, die diese AFOSR-finanzierten Patente zitieren, interessanterweise überwiegend dem Privatsektor zugewiesen (~86 %). Nach der Datenerhebung prüfen wir, ob Muster, die sich aus den Daten von Abtretungsempfängern sowohl von AFOSR-finanzierten Patenten als auch von Patenten ergeben, die AFOSR-finanzierte Patente zitieren, Einblicke in reale Beispiele für die Auswirkungen staatlich geförderter Erfindungen geben. Als Fallstudie haben wir den häufigsten Anmelder für Patente untersucht und dabei unsere Stichprobe von AFOSR-finanzierten Patenten zitiert: Digimarc Corporation. Die Untersuchung der Beziehung zwischen der AFOSR-finanzierten Erfindung und Digimarc ergab, dass mehrere häufig zitierte Patente auf der Grundlage staatlich finanzierter akademischer Forschung in Mathematik und Signalverarbeitung erteilt wurden. Diese Patente wurden zum Kern eines Tech-Start-ups der Erfinder Cognicity, das später von Digimarc übernommen wurde. Diese Patente tragen weiterhin zum Patentportfolio dieses großen Technologiedienstleisters bei. Wir stellen fest, dass man mit unserer Data-Mining-Methodik sowohl verstärkte nachgelagerte Effekte öffentlich finanzierter Forschung auf den Privatsektor als auch Erkenntnisse für potenzielle reale Wirkungsdemonstrationen im Privatsektor beobachten kann.;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1616-4 38b5e70cc60783875cbfbd5abde33076;de;;;3.4.;6.4.;7.4.;Verfolgung der Entwicklungen in der Forschung zu künstlicher Intelligenz: Aufbau und Anwendung einer neuen Suchstrategie Künstliche Intelligenz als aufstrebender und multidisziplinärer Bereich der Forschung und Innovation hat in den letzten Jahren zunehmend an Aufmerksamkeit gewonnen. Die Abgrenzung der Domänenzusammensetzung der künstlichen Intelligenz ist von zentraler Bedeutung für die Profilerstellung und Verfolgung ihrer Entwicklung und Trajektorien. Dieses Papier enthält eine bibliometrische Definition für künstliche Intelligenz, die leicht angewendet werden kann, auch von Forschern, Managern und Politikanalysten. Unser Ansatz beginnt mit Benchmark-Aufzeichnungen zu künstlicher Intelligenz, die mithilfe eines zentralen Schlüsselworts und einer spezialisierten Zeitschriftensuche erfasst wurden. Anschließend extrahieren wir Kandidatenbegriffe aus hochfrequenten Keywords von Benchmark-Datensätzen, verfeinern die Keywords und ergänzen sie mit der Themenkategorie „Künstliche Intelligenz“. Wir bewerten unseren Suchansatz, indem wir ihn mit anderen drei neueren Suchstrategien der künstlichen Intelligenz vergleichen, wobei wir eine gemeinsame Quelle von Artikeln aus dem Web of Science verwenden. Anhand dieser Quelle profilieren wir dann Wachstumsmuster und internationale Verbreitung der wissenschaftlichen Forschung im Bereich Künstliche Intelligenz in den letzten Jahren, identifizieren Top-Forschungsförderer zur Finanzierung von Künstlicher Intelligenz und zeigen, wie unterschiedliche Disziplinen zur multidisziplinären Entwicklung Künstlicher Intelligenz beitragen. Wir schließen mit Implikationen für die Entwicklung von Suchstrategien und Vorschlägen für Linien für die weitere Forschung.;-;-;-;https://link.springer.com/article/10.1007/s11192-021-03868-4 f5de65c25f32d55680a3de807c3f9751;de;;;3.4.;6.4.;7.4.;Analyse der Qualität wissenschaftlicher Arbeiten anhand der Wörter in Abstracts Die Untersuchung verwandter Forschungen ist für Forschungsaktivitäten von großer Bedeutung. Es ist jedoch nicht einfach, aus der Vielzahl möglicher Arbeiten eine geeignete und wichtige wissenschaftliche Arbeit auszuwählen. Der Forscher sucht durch die Kombination von Schlagworten und wählt dann eine zu prüfende Arbeit aus, da sie einen auswertbaren Index verwendet. Die Zitationszahl wird häufig als dieser Index verwendet, aber Informationen über kürzlich veröffentlichte Artikel können nicht abgerufen werden. Bei dieser Untersuchung wurde versucht, gute Artikel zu identifizieren, indem nur die Wörter verwendet wurden, die in der Zusammenfassung enthalten sind. Wir haben einen Klassifikator durch maschinelles Lernen konstruiert und mittels Kreuzvalidierung bewertet. Als Ergebnis wurde festgestellt, dass ein gewisser Grad an Diskriminierung möglich ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-58524-6_34 c85217f77b82706263c3591118bbb7d5;de;;;3.4.;6.4.;7.4.;Bewertung der Leistung von menschlichem und maschinellem Lernen bei der Klassifizierung von Forschungszusammenfassungen Wir untersuchen, ob Klassifikationsmodelle des Menschen oder des maschinellen Lernens (ML) besser darin sind, wissenschaftliche Forschungszusammenfassungen nach einem festen Satz von Disziplingruppen zu klassifizieren. Wir rekrutieren sowohl grundständige als auch postgraduale Hilfskräfte für diese Aufgabe in getrennten Phasen und vergleichen ihre Leistung mit dem ML-Algorithmus der Support Vectors Machine bei der Klassifizierung der Abstracts des European Research Council Starting Grant-Projekts zu ihren tatsächlichen Bewertungsgremien, die nach Disziplingruppen organisiert sind. Im Durchschnitt ist ML in einer Vielzahl von Trainings- und Testdatensätzen und in Bewertungsgremien genauer als menschliche Klassifikatoren. ML-Klassifikatoren, die auf verschiedenen Trainingssätzen trainiert wurden, sind auch zuverlässiger als menschliche Klassifikatoren, was bedeutet, dass verschiedene ML-Klassifikatoren im Vergleich zu verschiedenen menschlichen Klassifikatoren konsistenter bei der Zuweisung derselben Klassifizierungen zu einem bestimmten Abstract sind. Während die obersten fünf Perzentile der menschlichen Klassifikatoren ML in begrenzten Fällen übertreffen können, ist die Auswahl und das Training solcher Klassifikatoren im Vergleich zum Training von ML-Modellen wahrscheinlich kostspielig und schwierig. Unsere Ergebnisse legen nahe, dass ML-Modelle eine kostengünstige und hochgenaue Methode sind, um Probleme in der vergleichenden bibliometrischen Analyse anzugehen, wie z.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03614-2 3e5679fac64fb1f11a64e01ebbcbd579;de;;;3.5.;6.4.;;Wie teuer ist Big Science? Folgen der Verwendung einfacher Publikationen zählen zur Leistungsbewertung großer wissenschaftlicher Einrichtungen Obwohl das Atomzeitalter und die Konkurrenz um die Supermächte des Kalten Krieges längst vorbei sind, investieren Regierungen immer noch in Big Science, obwohl diese großen Anlagen heute meist auf nutzbringende Nutzungsbereiche ausgerichtet sind. Investitionen in Big Science werden auch nicht nur durch das Versprechen wissenschaftlicher Durchbrüche motiviert, sondern auch durch Erwartungen (und Forderungen) von messbaren Auswirkungen, und mit einem aufstrebenden globalen Markt konkurrierender nutzerorientierter Big Science-Einrichtungen sind quantitative Messungen von Produktivität und Qualität zum Mainstream geworden . Dazu zählen eher einfache und einseitige Publikationszahlen. In diesem Artikel werden Publikationszahlen und Ausgabenzahlen für drei unterschiedliche Fälle verwendet, die jedoch alle den aktuellen Stand der Big Sciences ihrer Zeit repräsentieren . Ganz trivial zeigen, dass Big Science ist;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1249-z ebed67df2a8de3159671cf09bbd7ee27;de;;;3.5.;6.4.;;Um einzubeziehen oder nicht: die Rolle von Review-Artikeln in der zitierungsbasierten Analyse Zitationsinformationen helfen Forschern, die Entwicklung des Wissens zu beobachten. In wissenschaftlichen Publikationen diskutiert ein Review Paper ein Berufsfeld und wird daher tendenziell häufiger zitiert als allgemeine Papers. In dieser Studie wurde untersucht, ob spezifische Eigenschaften von Übersichtsartikeln zu unterschiedlichen Ergebnissen in der zitierungsbasierten Analyse führen. Aus der Scopus-Datenbank haben wir wissenschaftliche Publikationen in einem bestimmten Forschungsgebiet, dem E-Tourismus, gesammelt, um die Rolle von Review-Artikeln in der zitierungsbasierten Analyse zu untersuchen. Der Datensatz umfasst 1421 Publikationen aus dem Zeitraum 1988–2015. Empirische Statistiken zeigen, dass die spezifischen Zitiermuster von Übersichtsartikeln die Zitieranalyse beeinflussen. Erstens drückt das Ergebnis in der Main-Path-Analyse die integrative Rolle der Review-Papiere bei der Verknüpfung von Papieren aus verschiedenen Perspektiven zu einem klaren Mainstream-Thema aus. Zweitens führen Review-Artikel in einem klar definierten Forschungskontext zu Verzerrungen in der zitierungsbasierten Clustering-Analyse, da das spezifische hohe Zitationsmuster in Review-Artikeln den Gruppierungsprozess verschleiert. Bei der Verwendung von Zitationsinformationen in der Analyse müssen Wissenschaftler den Zweck der Studie berücksichtigen und Review-Artikel eindeutig behandeln, um Verzerrungen bei der Verwendung bestimmter Analysemethoden und Datensätze zu vermeiden.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-2158-0 5336f89d45daff075ceb16e18f523757;de;;;3.5.;6.4.;;Zitationsfehler, Kopien von Zitaten und Aussterben von Ameisen auf Madeira Viele Autoren haben darüber geschrieben, wie exotische Ameisen auf die atlantischen Inseln von Madeira eingedrungen sind und ihre einheimischen Ameisen negativ beeinflusst oder sogar vollständig ausgerottet haben, obwohl es keine eigenen Beobachtungen über solche Auswirkungen gibt. Ich untersuche, wie Zitationsfehler (falsche Darstellung früherer Arbeiten) und Zitationskopien (Zitieren ungeprüfter Veröffentlichungen, auf die von anderen verwiesen wird) zur Entstehung und Verbreitung der irrigen Geschichte vom Aussterben von Ameisen auf Madeira führten. Zitationsfehler und das Kopieren von Zitaten können häufiger vorkommen, als den meisten Wissenschaftlern bewusst ist, insbesondere wenn Autoren Referenzen zitieren, die in Sprachen verfasst sind, die sie nicht verstehen.;-;-;-;https://link.springer.com/article/10.1556/Scient.67.2006.3.2 e0b11a530a9bcb21eae5e4adb83c747b;de;;;3.5.;6.4.;;Goldener Schnitt als Ersatz für geometrisches und harmonisches Zählen, um die Anerkennung von Publikationen mit mehreren Autoren zu bestimmen Unzählige bibliometrische Indizes wurden vorgeschlagen, um die Produktivität von Forschern zu bewerten, insbesondere in Bereichen, in denen die Autorenreihenfolge als hilfreich bei der Bestimmung der individuellen Leistungspunkte der Autoren angesehen wird. Leider ignoriert der beliebteste h-Index die Autorenränge und führt zu Verzerrungen bei Veröffentlichungen mit mehreren Autoren, und von den vielen bibliometrischen Zählmethoden, die für die Zuweisung von Autorenangaben vorgeschlagen wurden, wie das harmonische oder geometrische Zählen, scheint noch keine weit verbreitet zu sein . In dieser Arbeit hinterfrage ich die Annahme, dass der Gesamtkredit für eine Veröffentlichung gleich 1 ist;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2632-3 e5f028f69b2f7a89158cc45785479b21;de;;;3.5.;6.4.;;Ein neues Hybridmodell zur Qualitätsbewertung wissenschaftlicher Konferenzen auf Basis von Rough BWM und SERVQUAL Die Organisation von wissenschaftlichen Konferenzen erfordert die Durchführung einer Reihe von Aktivitäten, die darauf abzielen, die Qualität in Bezug auf veröffentlichte Arbeiten, abgeschlossene Rezensionen, rechtzeitige Weitergabe von Informationen an die Teilnehmer bis hin zur Zusammenstellung einer außergewöhnlichen Veranstaltung insgesamt sicherzustellen. Dies ist im Wesentlichen keine leichte Aufgabe und erfordert die Beteiligung einer Vielzahl von Personen, die täglich, oft den ganzen Tag, organisatorische Verpflichtungen erfüllen. Die Qualität bzw. Zufriedenheit der Konferenzteilnehmer lässt sich anhand von fünf Aspekten ablesen: Zuverlässigkeit, Reaktionsfähigkeit, Sicherheit, Empathie und Greifbarkeit – Dimensionen, die das SERVQUAL-Modell ausmachen. In diesem Beitrag wurde ein neues Hybridmodell entwickelt, das die Vorteile der Grobmengentheorie, der multikriteriellen Entscheidungsfindung und der Qualitätsbewertungsmodelle nutzt. Das vorgeschlagene Modell verwendet das Rough BWM (Best-Worst-Methode), um die Signifikanz von fünf Aspekten zu bestimmen, während das modifizierte SERVQUAL-Modell, basierend auf 28 Items, zur Bestimmung von Erwartungen und Beobachtungen verwendet wird. Das Modell wurde für die Qualitätsbewertung der New Horizons Konferenz vom 17.–18. November 2017 in Doboj angewendet. An der Konferenz nahmen Autoren aus allen sechs Kontinenten teil, die insgesamt 58 verschiedene Institutionen repräsentierten. Daher war es notwendig, den Wünschen und Ansprüchen zahlreicher Autoren gerecht zu werden, die sich naturgemäß durch die unterschiedlichen geografischen Gebiete, aus denen sie stammen, unterscheiden. Die Gesamtstichprobe, anhand derer die Qualität der wissenschaftlichen Konferenz beurteilt wurde, umfasst 104 Autoren, die den Fragebogen ausgefüllt haben. Insgesamt wurden sechs Hypothesen aufgestellt, die anschließend mit dem Signum-Test getestet wurden.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03032-z ef1175292a0469dce784fb236958caf7;de;;;3.5.;6.4.;;Die vielen Dimensionen der Interdisziplinarität von Laboren Interdisziplinarität ist so trendy wie schwer zu definieren. Anstatt zu versuchen, ein mehrdimensionales Objekt mit einem einzigen Indikator zu erfassen, schlagen wir sechs Indikatoren vor, die drei verschiedene Operationalisierungen einer Disziplin, zwei Ebenen (Artikel oder Labor) der Integration dieser Disziplinen und zwei Maße der interdisziplinären Vielfalt kombinieren. Dies führt zu einer aussagekräftigeren Charakterisierung der Interdisziplinarität der Publikationspraxis von Laboratorien. Dank einer statistischen Analyse dieser Indikatoren an 600 CNRS-Laboratorien legen wir nahe, dass sich verschiedene Laboratorien neben einem Durchschnittswert der Interdisziplinarität hauptsächlich durch die „Distanz“ zwischen den Disziplinen, in denen sie publizieren, und durch das Ausmaß der interdisziplinären Integration unterscheiden können distinguished erreicht wird (Artikel oder Labor).;-;-;-;https://link.springer.com/article/10.1007/s11192-013-1129-y 036b5a2c03640f556adee4b518c0817d;de;;;3.5.;6.4.;;Mehrfache Regressionsanalyse der Zitationshäufigkeit und quantitativen Merkmale eines Patents: der Fall japanischer Patente Obwohl viele Studien durchgeführt wurden, um die Faktoren zu klären, die die Zitierhäufigkeit von „wissenschaftlichen Arbeiten“ beeinflussen, gibt es nur wenige Studien, in denen die Zitierhäufigkeit von „Patenten“ auf der Grundlage statistischer Analysen, wie etwa der Regressionsanalyse, vorhergesagt wurde. Unter der Annahme, dass ein Patent, das auf einer Vielzahl von technologischen Grundlagen beruht, tendenziell ein wichtiges Patent ist, das häufiger zitiert wird, untersucht diese Studie den Einfluss der Anzahl der Klassifizierungen zitierter Patente und vergleicht diese mit anderen Faktoren wie der Anzahl der Erfinder Klassifikationen, Seiten und Ansprüche. Es werden mehrere lineare, logistische und null-aufgeblähte negative binomiale Regressionsanalysen unter Verwendung dieser Faktoren durchgeführt. Für alle Modelle werden signifikante positive Korrelationen zwischen der Anzahl der Klassifikationen zitierter Patente und der Zitierhäufigkeit beobachtet. Darüber hinaus zeigen die multiplen Regressionsanalysen, dass die Anzahl der Klassifikationen zitierter Patente mehr zur Regression beiträgt als andere Faktoren. Dies impliziert, dass, wenn die Verwechslung zwischen Faktoren berücksichtigt wird, die Vielfalt der Klassifikationen, die Rückwärtszitationen zugeordnet werden, die Anzahl der Vorwärtszitationen stärker beeinflusst.;-;-;-;https://link.springer.com/article/10.1007/s11192-013-0953-4 964cbf1807d562c489e56978b01a5ee7;de;;;3.5.;6.4.;;Die zentrale Position der Bildung in der Wissensmobilisierung: Erkenntnisse aus Netzwerkanalysen der fachübergreifenden Raumforschung Die Mobilisierung von Wissen wird für Forschungskooperationen immer wichtiger, aber nur wenige Methoden unterstützen einen verstärkten Wissensaustausch. Die vorliegende Studie gibt mit Hilfe einer reflexiven Erzählung Einblicke in eine transdisziplinäre, wissensaustauschende Untersuchung der Konnektivität der Bildungsforschung zu anderen Disziplinen. Als Beispiel für die Bildungsforschung evaluierte die Studie die Verwendung räumlicher Suchbegriffe aus dem Mathematikunterricht anhand: 1) einer ersten deskriptiven statistischen Analyse kombiniert mit einer bimodalen Netzwerkanalyse von vielzitierten Artikeln und 2) einer zweiten umfassenderen unimodalen Analyse mit Bibliographische Kopplungsnetzwerke. Dieser iterative Analyseprozess lieferte einen wichtigen, wenn auch überraschenden Einblick – obwohl Bildung nicht besonders gut bidirektional mit vielen Fachgebieten verbunden ist, scheint sie als Verteilungszentrum für die Wissensmobilisierung zu fungieren und bietet eine zentrale Drehscheibe für die Sammlung und Analyse von Wissen aus verschiedenen Disziplinen in der richtigen Reihenfolge das komplexe Informationssystem zu generieren, das der Gesellschaft zugrunde liegt.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03692-2 f2dd6a64f3df22e861b57b4a7cfea7f5;de;;;3.5.;6.4.;;Auf dem Weg zur Entdeckung wissenschaftlicher Revolutionen bei szientometrischen Daten Paradigmen und Revolutionen sind populäre Konzepte in der Wissenschaftsforschung und darüber hinaus, doch ihre Bedeutung ist notorisch vage und ihre Existenz ist weithin umstritten. Ausgehend von den jüngsten Entwicklungen in der agentenbasierten Modellierung und szientometrischen Daten bietet dieser Artikel eine präzise Konzeptualisierung von Paradigmen und ihrer Dynamik sowie eine Reihe von Hypothesen, die im Prinzip verwendet werden könnten, um die Existenz wissenschaftlicher Revolutionen bei szientometrischen Daten zu testen.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-2108-x 6b80dc2d4d2f53efb274723b5996869c;de;;;3.5.;6.4.;;Wachstum und Dynamik der Ökonophysik: eine bibliometrische und Netzwerkanalyse Die Digitalisierung von Publikationen, der Fortschritt in der Kommunikationstechnologie und die Verfügbarkeit bibliografischer Daten haben es den Forschern erleichtert, das Wachstum und die Dynamik jeder Disziplin zu untersuchen. Wir präsentieren eine Studie zu „Econophysics“-Metadaten, die aus dem Web of Science extrahiert wurden, das von Clarivate Analytics von 2000 bis 2019 verwaltet wurde Beteiligung, länderweise Verbreitung etc. Wir untersuchen alle fünf Jahre den Einfluss von Selbstzitaten auf Zitationen. Auch finden wir den Beitrag anderer Disziplinen durch die Analyse der zitierten Referenzen. Ergebnisse aus Mikro-, Meso- und Makro-Ebenen-Analysen von Kooperationen zeigen, dass die Verteilungen zwischen Autorenkollaborationen und Autorenzugehörigkeiten einem Machtgesetz folgen. Daher produzieren nur sehr wenige Autoren die meisten Veröffentlichungen und stammen von wenigen Institutionen. Wir stellen fest, dass China bei der Produktion einer Reihe von Autoren und einer Reihe von Veröffentlichungen führend ist, jedoch mehr nationale als internationale Zusammenarbeit teilt, während die USA mehr internationale Zusammenarbeit teilen. Schließlich zeigen wir die Entwicklung der Kooperations- und Affiliationsnetzwerke des Autors von 2000 bis 2019. Insgesamt zeigt die Analyse die „Small-World“-Eigenschaft des Netzwerks mit durchschnittlicher Pfadlänge 5. Als Konsequenz unserer Analyse kann diese Studie als ein fundiertes Wissen, um das Wachstum und die Dynamik des Econophysics-Netzwerks sowohl qualitativ als auch quantitativ zu verstehen.;-;-;-;https://link.springer.com/article/10.1007/s11192-021-03884-4 53a94ccf293ec8c2f53ceb4f408cd8cc;de;;;3.5.;6.4.;;Digitale Technologie hilft, geschlechtsspezifische Vorurteile in der Wissenschaft zu beseitigen Die Wissenschaft versucht, eine Meritokratie zu sein, jedoch gibt es in den letzten Jahren zunehmend Beweise für eine systematische geschlechtsspezifische Voreingenommenheit gegenüber Frauen. Diese Verzerrung ist in vielen Metriken vorhanden, die häufig zur Bewertung der wissenschaftlichen Produktivität verwendet werden, was wiederum den Einstellungs- und Karriereerfolg beeinflusst. Hier untersuchen wir eine neue Metrik, den Altmetric Attention Score, und finden in vielen großen Zeitschriften (Nature, PNAS, PLOS One, New England Journal of Medicine, Cell und BioRxiv) keine Hinweise auf Verzerrungen, wobei Artikeln von . die gleiche Aufmerksamkeit gewidmet wird Männer und Frauen gleichermaßen. Die Ausnahme von dieser Regel ist die Zeitschrift Science, die 2018 eine geschlechtsspezifische Voreingenommenheit gegenüber Frauen aufwies, was einem Durchschnitt von 88 mehr Tweets oder 11 mehr Nachrichtenartikeln und einem Median von 20 mehr Tweets oder 3 mehr Nachrichtenartikeln für Männer als Frauen entspricht Autoren. Unsere Ergebnisse qualifizieren Altmetric für viele Arten und Disziplinen von Zeitschriften als potenziell unvoreingenommenes Maß der Wissenschaftskommunikation in der Wissenschaft und legen nahe, dass neue Technologien, wie sie auf Altmetric basieren, zur Demokratisierung der akademischen Evaluation beitragen könnten.;-;-;-;https://link.springer.com/article/10.1007/s11192-021-03911-4 b59f5a0d8d3982abd81b510c2dad598c;de;;;3.5.;6.4.;;Entwicklung von interdependenten Co-Autorenschafts- und Zitationsnetzwerken Studien zu bibliografischen Daten legen eine starke Korrelation zwischen dem Wachstum von Zitationsnetzwerken und ihren entsprechenden Co-Autorenschaftsnetzwerken nahe. Wir untersuchen die Interdependenz zwischen sich entwickelnden Zitations- und Co-Autorennetzwerken, die sich auf die Veröffentlichungen indischer Autoren in Zeitschriften der American Physical Society zwischen 1970 und 2013 konzentrieren in Zitaten, sie tauschten sich aus und zweitens, indem sie den kürzesten Weg zwischen Autoren im Co-Autorenschaftsnetzwerk nachzeichneten. Wir erstellen diese Daten für jedes Jahr des Analysezeitraums. Wir verwenden Wahrscheinlichkeitsverfahren, um die Korrelation zwischen Zitationen und kürzesten Pfaden sowie die Auswirkung auf die Dynamik des Zitations-Ko-Autorenschaft-Systems zu quantifizieren. Wir stellen fest, dass Autorenpaare, die einen Co-Autorenschaftsabstand haben;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03616-0 93ce7464dcced07382a74f91cc8469b5;de;;;3.5.;6.4.;;Zitationsrang bei geografischer Wissensverbreitung und räumlicher Vielfalt Dieses Papier schlägt einen Zitationsrang basierend auf der räumlichen Vielfalt (SDCR) in Bezug auf Städte und Länder vor, wobei der Schwerpunkt auf der Messung des „räumlichen“ Aspekts in Zitationsnetzwerken liegt. Unser Hauptziel ist es, den Zitierfehler zu lösen, der durch unterschiedliche geografische Standorte von Zitaten verursacht wird. Wir untersuchen empirisch räumliche Eigenschaften von Zitierentfernungen, Zitiermustern und räumlicher Diversität, um geographische Wissensdiffusion zu verstehen, basierend auf den Daten der Themenkategorie „Transportation Science and Technology“ im Web of Science (1966–2009). Wir vergleichen die vorgeschlagene Ranking-Methode auch mit anderen bibliometrischen Maßen und führen eine Fallstudie durch, um die jüngsten Ränge der etablierten Autoren in;-;-;-;https://link.springer.com/article/10.1007/s11192-012-0715-8 f5c4f0730cb538e916735e9bf67b1c88;de;;;3.5.;6.4.;;Validierung von Indikatoren der Interdisziplinarität: Verknüpfung bibliometrischer Maßnahmen mit Studien in Ingenieurforschungslabors In diesem Beitrag wird untersucht, inwieweit sich spezifische Merkmale interdisziplinärer Forschung in ausgewählten bibliometrischen Maßen wissenschaftlicher Publikationen im Zeitverlauf widerspiegeln. Um die Validität dieser Maßnahmen zu testen, vergleichen wir das Wissen über Forschungsprozesse und -wirkungen basierend auf ethnographischen Studien eines etablierten Forscherlabors zusammen mit persönlichen Interviewdaten mit bibliometrischen Indikatoren der kognitiven Integration, Diffusion und Wirkung, die im gesamten Portfolio repräsentiert sind der von diesem Forscher im Laufe der Zeit erstellten Arbeiten.;-;-;-;https://link.springer.com/article/10.1007/s11192-012-0872-9 07496fd53a32d14543432d7fbde5cf18;de;;;3.5.;6.4.;;Gatekeeping Afrikastudien: Was sagt „editormetrics“ über Journal Governance aus? Dieser Artikel untersucht die interne Governance von Forschungszeitschriften, indem er sich auf die Editorial Boards führender wissenschaftlicher Zeitschriften für Afrikastudien konzentriert. Wir unterziehen Herausgeberschaften einer systematischen Überprüfung unter verschiedenen Perspektiven: Geographie, Gender, institutionelle Zugehörigkeit, Forschungsleistung, Einstieg/Ausstieg etc. Insgesamt sind führende Zeitschriften im Bereich der Afrikawissenschaften weniger inklusiv als erwartet: unter einem Viertel der Redakteure sind in Afrika ansässige Wissenschaftler, während Frauen noch seltener sind. Auch Beobachtungen zu redaktioneller Inflation, Wiederholungsherausgebern, ineinandergreifenden Herausgeberschaften und differenzierten Zeitschriftenpositionierungen werden durch einen quantitativen Ansatz zur redaktionellen Evidenz ermöglicht. Was wir als „Editormetrics“ bezeichnen, legt daher nahe, dass eine weitere Debatte über die Managementregeln und -rollen von Zeitschriften erforderlich ist. Diese Perspektive kann und sollte möglicherweise andere evidenzbasierte Bewertungen der Zeitschrift „Industry“ und der forschungspolitischen Szene insgesamt beeinflussen.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2909-1 eaa9c77d2b6469baa9898479a9872184;de;;;3.5.;6.4.;;Publikationsproduktivität und berufliche Position: Länderübergreifende Evidenz zur Rolle von Organisationen Studien zur Strafication in der Wissenschaft haben zunehmend die Idee akzeptiert, dass die Wissenschaft ein stark geschichtetes und elitäres System mit verzerrten Verteilungen von Produktivität und Belohnungen ist. Versuche, die höhere Produktivität von Wissenschaftlern mit höherem Status durch den Hinweis auf deren leichtere Veröffentlichung im Hinblick auf die Akzeptanz ihrer Arbeiten durch Zeitschriften und Verlage zu erklären, wurden durch die Daten einiger neuerer Studien nicht gestützt. Wenn der Status im Allgemeinen die Veröffentlichung nicht erleichtert, argumentiert die vorliegende Arbeit, dass die Position innerhalb einer Forschungsorganisation die Autorschaft – oder Co-Autorenschaft – erleichtert, und dies ist die wichtigste erklärende Variable, die Produktivitätsunterschiede innerhalb von Forschungslaboratorien erklärt, soweit Menge an Artikeln (und Büchern) betroffen ist. Aufwärtsbewegungen in der formalen oder informellen Positionshierarchie eines Labors gehen mit einem Wechsel des Forschungsengagements eines Wissenschaftlers von zielführenden zu zielsetzenden Funktionen sowie mit einem zunehmenden Zugang zu wissenschaftlichem Personal und Projektgeldern einher. Zielsetzungsaufgaben ermöglichen eine deutliche Reduzierung des Zeitaufwands in der Forschung, der erforderlich ist, um die Identifikation des Wissenschaftlers mit den Forschungsergebnissen sicherzustellen, und ermöglichen somit eine Beteiligung an mehr Forschungsaufgaben als ursprünglich. Entsprechend wirken Ressourcen an wissenschaftlichen Arbeitskräften und Projektgeldern als multiplizierendes Element, was die Outputmenge betrifft.;-;-;-;https://link.springer.com/article/10.1007/BF02279362 965bdf11776cc1e09ae4302f7f296402;de;;;3.5.;6.4.;;Raus aus der Komfortzone: Versprechen und Fallstricke interdisziplinärer Migrationsforschung in Europa Als Akademiker stehen wir zunehmend unter dem Druck, die Auswirkungen unserer Forschung auf die Welt nachzuweisen. Vom Klimawandel bis zur Bevölkerungsexplosion, von wirtschaftlichen Instabilitäten bis hin zu ethnisch und religiös bedingten Unruhen, von grassierendem Rechtspopulismus bis zu Wasserknappheit und Hungersnot – Wissenschaftlerinnen und Wissenschaftler werden zunehmend interdisziplinär zusammenarbeiten, um die großen Herausforderungen unserer Gesellschaft zu lösen society . Leider ist es schwieriger, Forschung, die konventionelle disziplinäre Grenzen überschreitet, zu finanzieren, durchzuführen, zu überprüfen und sogar zu veröffentlichen. Diejenigen, die es versuchen, werden möglicherweise um Anerkennung, Unterstützung und wissenschaftlichen Fortschritt kämpfen. Die Erforschung der internationalen Migration gilt als interdisziplinäres Forschungsfeld par excellence, da sie Aspekte aus unterschiedlichsten wissenschaftlichen Disziplinen wie Wirtschaftswissenschaften, Soziologie, Politikwissenschaft und Geographie vereint. Aber während die Koexistenz verschiedener Perspektiven eine umfangreichere Literatur zum Thema Migration ermöglicht, beleuchtet dieses Kapitel kognitive und kollaborative Herausforderungen im Zusammenhang mit der interdisziplinären Migrationsforschung und/oder Hürden im Überprüfungsprozess, die zu einer geringeren Produktivität führen können. Ich argumentiere, dass die disziplinenübergreifende Zusammenarbeit zwar für die Forschung von Vorteil ist, da sie es Wissenschaftlern ermöglicht, Verbindungen zwischen den Fachgebieten zu erkennen, in der Praxis jedoch oft aufgrund mangelnder Interdisziplinarität in akademischen Systemen und Publikationsinfrastrukturen benachteiligt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-76861-8_4 0550ca20592956d70c979598736000df;de;;;3.5.;6.4.;;Identifizierung erfolgreicher Mentoring-Communities durch netzwerkbasierte Analyse der Mentor-Mentee-Beziehungen bei Nobelpreisträgern Die Fähigkeiten, die wissenschaftlicher Innovation und Entdeckung zugrunde liegen, entwickeln sich im Allgemeinen innerhalb einer akademischen Gemeinschaft, oft beginnend mit dem Labor eines Absolventen-Mentors. In diesem Beitrag zeigt eine Netzwerkanalyse der Beziehungen zwischen Doktoranden und Dissertationsberatern in The Academic Family Tree, dass das Muster der Mentoring-Beziehungen von Nobelpreisträgern nicht zufällig ist. Nobelpreisträger hatten eine größere Anzahl von Nobelpreisträger-Vorfahren, Nachkommen, Mentees/Grandmentees und lokale akademische Familien, was die Vorstellung unterstützt, dass bei der Auswahl von Mentoren und Mentees assortative Prozesse stattfinden. Teilnetze, die ausschließlich aus Nobelpreisträgern bestanden, erstreckten sich über bis zu vier Generationen. Gemessen an der Zahl der Nobelpreisträger innerhalb der Gemeinschaft wurden mehrere erfolgreiche Mentoring-Gemeinschaften in der hochrangigen Wissenschaft identifiziert. Diese Gemeinschaften konzentrierten sich im späten 19. Jahrhundert auf die Cambridge University und im frühen 20. Jahrhundert auf die Columbia University. Die derzeitige Praxis des Aufbaus webbasierter akademischer Netzwerke, die auf eine breitere Palette von Messgrößen für den akademischen Erfolg ausgedehnt wird, würde die Identifizierung moderner erfolgreicher wissenschaftlicher Gemeinschaften ermöglichen und sollte gefördert werden.;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2364-4 04d37c4795cdffc5719a9cb183fc5158;de;;;3.5.;6.4.;;Kognitive Determinanten der Risikowahrnehmung im Zusammenhang mit Biotechnologie Frühere Forschungen zur Risikowahrnehmung legen nahe, dass Bildungs- und Informationsniveau die Bedenken hinsichtlich der Auswirkungen neuer Technologien beeinflussen. In diesem Artikel werden die Auswirkungen verschiedener kognitiver Faktoren (einschließlich Bildung und Wissen) auf die Wahrnehmung von Risiken analysiert, die den Anwendungen moderner Biotechnologie (auf der Grundlage der Gentechnik) auf die Lebensmittelproduktion und die Landwirtschaft zugeschrieben werden. Anhand von Daten aus einer landesweiten Telefonumfrage aus dem Jahr 1992 identifiziert die statistische Untersuchung jene kognitiven Faktoren, die die Risikowahrnehmung signifikant beeinflussen. Darüber hinaus zeigt die Studie jene potenziellen Einflüsse auf, die trotz ihrer Prominenz in politischen und populären Debatten über Risikokommunikation und naturwissenschaftliche Bildung die Wahrnehmung von Risiken in der Biotechnologie nicht wesentlich bestimmen.;-;-;-;https://link.springer.com/article/10.1007/BF02457441 10d3972d9293461af26ae1e756269971;de;;;3.5.;6.4.;;Ermittlung der Abschreibungsrate von technologischem Wissen anhand von Patentzitierungsdaten: eine Fallstudie der Photovoltaikindustrie Technologisches Wissen kann durch F&E-Investitionen geschaffen, aber auch durch Abschreibungen erodiert werden. Zu wissen, wie schnell Wissen abfällt, ist aus verschiedenen Gründen für Praktiker und Entscheidungsträger gleichermaßen wichtig, insbesondere wenn es um Fragen geht, wie Wissensproduktionsprozesse in einem sich ständig verändernden globalen System „aufgeladen“ werden können. In dieser Studie verwenden wir Patentzitierungsdaten, um die Abschreibungsraten von technologischem Wissen zu ermitteln, indem wir die exogene Zitationsinflation ausgleichen und die präferenzielle Bindungsdynamik des Zitationswachstums entwirren. Als Fallstudie wird die Solar-Photovoltaik (PV)-Technologie eingesetzt. Die mit unserer Methode berechneten Raten sind vergleichbar mit den wenigen verfügbaren Schätzungen zu Technologie-Abschreibungsraten in der PV-Industrie. Einer der Vorteile der vorgeschlagenen Methode besteht darin, dass die zugrunde liegenden Daten leichter verfügbar sind und somit für die Untersuchung der Abschreibungsraten von Wissen in anderen relevanten Technologiebereichen besser reproduzierbar sind.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03740-x 70c805e90742aba897cf279505eecf4f;de;;;3.5.;6.4.;;Ein Jahrhundert wissenschaftlicher Publikationen: Auf dem Weg zu einer Theorie des Wachstumsverhaltens und der Forschungsorientierung Dieser Beitrag versucht, einen Überblick über wissenschaftliche Publikationstrends über den Zeitraum eines Jahrhunderts (1900–2017) zu geben. Es geht dann auf drei wichtige Untersuchungen ein, die Welttrends und die Entwicklung der Wissenschaft abbilden, nämlich: das Wachstumsverhalten verschiedener Zeiträume, Felder und Forschungsorientierungen sowie kumulative Leistungsmuster verschiedener Länder nach Bevölkerungsgröße. Um das Wachstumsverhalten zu untersuchen, haben wir die logistische Wachstumsfunktion verwendet, um den weltweiten Publikationsverlauf zu modellieren. Wir haben festgestellt, dass die Tragfähigkeit der weltweiten Veröffentlichungsbahn zugenommen hat und ein viel höheres Produktionsniveau erreicht wurde. Die Veröffentlichungsrate für den Zeitraum 1990–2017 hat den Zyklus verlängert und einen längeren Trend zur Sättigung verzeichnet. Bei den Forschungsaktivitäten der letzten Jahrzehnte haben wir festgestellt, dass sie von koordinierten Einheiten durchgeführt wurden, die dazu befähigt sind, einen multidisziplinären/interdisziplinären Forschungspfad zu verfolgen. Es wurde festgestellt, dass Veröffentlichungen auf medizinische und industrielle Anwendungen ausgerichtet sind, was auf die Versuche von Schwellenländern zurückzuführen ist, die wissenschaftsbasierte Industrien entwickeln wollen. Die Analysen und Beobachtungen in diesem Beitrag haben es uns ermöglicht, unsere bisherigen Erkenntnisse zum Wachstumsverhalten wissenschaftlicher Publikationen zu untermauern. Wir glauben, dass diese Ergebnisse es uns ermöglichen werden, weitere Theorien über die weltweite Entwicklung der Wissenschaft zu erstellen und in naher Zukunft ein starkes theoretisches Narrativ für ein Jahrhundert der Veröffentlichung zu verwirklichen.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03048-5 38ddd7b58d8f8b2d4d26503c9b60713d;de;;;3.5.;6.4.;;Forschungstrends im Bereich Bildungstechnologie von 2002 bis 2014 Diese Studie untersuchte Themen- und Forschungsmethodentrends im Bereich der Bildungstechnologie von 2002 bis 2014. Die Inhaltsanalyse wurde angewendet, um 1255 Artikel zu analysieren, die in BJET- und ETR&D-Zeitschriften mit dem Klassifizierungsformular für Bildungstechnologiepapiere veröffentlicht wurden. Den Ergebnissen zufolge waren Lernansätze/-theorien und Lernumgebungen das von Forschern am meisten bevorzugte Thema. Die am häufigsten verwendeten Forschungsmethoden waren quantitative, qualitative, andere (Review oder Meta-Analyse) und gemischte Methoden, in dieser Reihenfolge. Die Forscher neigten dazu, Fragebögen, Dokumente und Interviews als Instrumente zur Datenerhebung zu verwenden. Der am häufigsten bevorzugte Stichprobentyp war die Zweckstichprobe, und Studenten im Grundstudium waren die am häufigsten gewählte Stichprobengruppe, wobei die häufigste Stichprobengröße Gruppen von 31 bis 100 waren. Häufigkeiten, Prozentsätze und Tabellen waren die am häufigsten verwendeten Präsentationsformate für Daten in quantitativen Studien, während qualitative Studien am häufigsten Inhaltsanalysen verwendeten.;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1693-4 2f8ed942fe51ba17ba1eb3ab321c1bad;de;;;3.5.;6.4.;;Vertrauen der Prüfer in Anmelder beim Europäischen Patentamt: Länderspezifika Indikatoren, die auf der Wahrscheinlichkeit von Nennungen von Anmeldern in Patenten basieren, wurden verwendet, um die Bedeutung der Unterscheidung von Nennungen von Anmeldern und Prüfern hervorzuheben. Die Interpretation dieser Indikatoren und des Vorhandenseins von Anmelderzitaten in Prüferberichten des Europäischen Patentamts (EPA) ist jedoch noch ungewiss. Basierend auf Interviews mit Patentprüfern und Patentanmeldern entwickeln wir die Idee, dass Anmelderzitate in EPA-Prüferberichten auf das Vertrauen der Prüfer in die Anmelder hinweisen, und dass dieses Vertrauen je nach nationalem Muster variiert. Anhand von EPA-Daten für über 3.500.000 Zitate im Zeitraum 1997–2007 stellen wir fest, dass das Vertrauen der Prüfer in die Anmelder bei erteilten Patenten höher ist. Prüfer vertrauen Anmeldern aus wissenschaftlich oder wirtschaftlich starken Ländern, aus Mitgliedsstaaten der Europäischen Patentorganisation und aus dem gleichen Land der Prüfer.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2894-4 af680543d72b9b213022cddca601389a;de;;;3.5.;6.4.;;Robert K. Mertons Perspektive auf Priorität und die Bereitstellung von Wissen für das Gemeinwohl Dieser Aufsatz untersucht die Perspektive von Robert K. Merton, wie sich Priorität auf die Bereitstellung des öffentlichen Wissens bezieht. Ökonomen interessieren sich seit langem für die Bereitstellung von Gütern, die als „öffentlich“ bezeichnet werden. Öffentliche Güter werden definitionsgemäß beim Konsum nicht verbraucht und sind Güter, von denen potenzielle Nutzer nur schwer auszuschließen sind. Die Bereitstellung öffentlicher Güter stellt den Markt vor besondere Herausforderungen, die es bei der Bereitstellung privater Güter nicht gibt. Wissenschaftliche Forschung hat Eigenschaften eines öffentlichen Gutes. Merton erkannte den öffentlichen Charakter der Wissenschaft an. Damit war er nicht allein. Das Genie von Merton besteht darin, dass er nicht nur erkannte, dass Wissenschaft Eigenschaften eines öffentlichen Gutes hat, sondern die Unterscheidung zwischen öffentlich und privat auf den Kopf stellte und vorschlug, dass die Belohnungsstruktur der Wissenschaft, basierend auf Priorität, dazu dient, ein öffentliches Gut privat zu machen. In wirtschaftlicher Hinsicht erkannte Merton, dass es der öffentliche Charakter des Wissens ist, der es erleichtert, die Idee als Privateigentum des Wissenschaftlers zu etablieren.;-;-;-;https://link.springer.com/article/10.1023/B%3ASCIE.0000027311.17226.70 9fc17e0ca9889c34ef1d27ecd0772adc;de;;;3.5.;6.4.;;Die Implikationen des pädagogischen und methodischen Hintergrunds für den Karriereerfolg von Nobelpreisträgern: eine Untersuchung wichtiger Auszeichnungen Nobelpreisträger haben die höchste Anerkennung in der akademischen Welt erreicht und die Grenzen des menschlichen Wissens und Verständnisses erreicht. Aufgrund früherer Forschungen haben wir ein gutes Verständnis für die Karrieremuster, die hinter ihrer Leistung stehen. Wir haben jedoch nur begrenzte Kenntnisse über die Faktoren, die ihre Anerkennung im Hinblick auf große institutionalisierte wissenschaftliche Ehrungen ausmachen. Wir betrachten daher die Lebenszyklusleistungen der Nobelpreisträger 1901–2000 in Physik, Chemie und Physiologie oder Medizin. Die Ergebnisse zeigen, dass Nobelpreisträger mit theoretischer Ausrichtung mehr Auszeichnungen erhielten als Preisträger mit empirischer Ausrichtung. Darüber hinaus scheint ihr Bildungshintergrund ihre zukünftige Anerkennung zu formen. In Großbritannien und den USA ausgebildete Forscher erhalten tendenziell mehr Auszeichnungen als andere Nobelpreisträger, obwohl es Unterschiede in den Karrieremustern gibt. Unter diesen sind die in Cambridge oder Harvard ausgebildeten Preisträger in Chemie erfolgreicher, diejenigen aus Columbia und Cambridge in Physik überragend, während in Kolumbien gebildete Preisträger in Physiologie oder Medizin dominieren.;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1367-7 dc09cf0e6b7a26748661cac9e235700a;de;;;3.5.;6.4.;;Die Verwendung von Zitaten gilt als Qualitätsmaßstab in der Wissenschaft und misst eher das Messbare als das Gültige Die empirische Arbeit in den Sozialwissenschaften ist mit der Verfügbarkeit und Entwicklung der Zitationsindizes rasant vorangekommen. Zitationszahlen sind zu einem weithin akzeptierten Maß für die Qualität eines wissenschaftlichen Beitrags geworden. Die Verwendung von Zitationszahlen als Qualitätsmaßstab in der Wissenschaft ist jedoch mit mehreren Problemen verbunden. Erstens sind Zitationszahlen empfindlich gegenüber populären Trends in der Wissenschaft. In diesem Sinne kommen sie einem Nielsen-Rating für Wissenschaft nahe. Zweitens beschränkt die Verteilung der Zitate ihren Nutzen auf die Trennung der Extreme. Drittens sind Zitationszahlen nicht sensibel für die ethische und moralische Dimension der Qualität eines wissenschaftlichen Beitrags. Viertens unterschätzen Zitationszahlen den Beitrag der angewandten Wissenschaftler. Dieses Papier untersucht diese Einschränkungen.;-;-;-;https://link.springer.com/article/10.1007/BF02017198 3c7e38036ae38277874488e8e1a3da21;de;;;3.5.;6.4.;;Beziehungen zwischen wissenschaftlichen Indikatoren oder allgemeiner zu allem, was man über Texte zählen möchte In einer Reihe von zwei Artikeln werde ich zeigen, dass der erwartete Informationsgehalt von Verteilungen uns eine einfache Möglichkeit bietet, ein statisches und ein dynamisches Modell für die Entwicklung der Wissenschaften zu entwickeln. In der ersten Studie analysiere ich, wie das Wissen über einen Indikator (nominale Variable) unsere Unsicherheit bei der Vorhersage anderer Indikatoren reduzieren kann und wie Beziehungen über verschiedene Aggregationsebenen hinweg bewertet werden können. In der zweiten Studie werde ich das Problem der Verwendung von Indikatoren und deren Beziehungen für Vorhersagen und Rekonstruktionen ansprechen.;-;-;-;https://link.springer.com/article/10.1007/BF02017766 ba211e77a5f02aba080be3a5df0c0e77;de;;;3.5.;6.4.;;Ein Indikator für technisches Aufkommen Die Entwicklung nützlicher Erkenntnisse über wissenschaftliche und technologische Entwicklungen stellt diejenigen vor eine Herausforderung, die F&E-Portfolios verwalten, Forschungsprogramme bewerten oder Innovationen verwalten würden. Vor kurzem hat das US-Intelligence Advanced Research Projects Activity Foresight and Understanding from Scientific Exposition Program Möglichkeiten zur Erkennung von Emergenzen durch Textanalysen untersucht. Wir waren daran beteiligt, konzeptionelle Grundlagen für Emergenz zu setzen, Kandidatenindikatoren zu entwickeln und Implementierungen zu entwickeln. Wir präsentieren nun ein Softwareskript zum Generieren einer Familie von Emergenzindikatoren für ein interessantes Thema. Dieses Papier bietet einige Hintergrundinformationen, diskutiert dann die Entwicklung dieses Skripts durch iterative Testrunden und bietet dann Beispielergebnisse. Die Ergebnisse weisen auf vielversprechende und umsetzbare Erkenntnisse für Entscheidungsträger in Forschung und Entwicklung hin.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2654-5 69db73348161ed8e26706acc41445ead;de;;;3.5.;6.4.;;Qualifizierung der Leistungsbewertung von Big Science über Produktivität, Wirkung und Kosten hinaus Die Verwendung quantitativer Leistungsmaße zur Bewertung der Produktivität, Wirkung und Qualität der Forschung hat sich auf fast alle Bereiche öffentlicher F&E-Systeme ausgeweitet, einschließlich Big Science, wo traditionelle Messungen der technischen Zuverlässigkeit von Instrumenten und Benutzerüberbelegungen durch die Zahl der Veröffentlichungen zur Bewertung wissenschaftlicher Produktivität. Es hat sich jedoch gezeigt, dass eine solche Leistungsbewertung zu Absurditäten führt, da die berechneten durchschnittlichen Kosten für einzelne Zeitschriftenpublikationen leicht Hunderte Millionen Dollar erreichen können. In diesem Artikel wird das Thema Produktivität und Wirkung daher durch den Einsatz zusätzlicher Messgrößen wie dem Immediacy-Index sowie der Netzwerkanalyse weiter qualifiziert, um qualitative Aspekte der Wirkung heutiger Big Science Labs zu bewerten. In Anknüpfung an frühere Arbeiten im Bereich der sogenannten „Facilitymetrics“ setzt der Artikel die Suche nach relevanten bibliometrischen Messgrößen der Leistung von Big Science-Labors unter Verwendung einer Fallstudie einer kürzlich eröffneten Einrichtung fort, die als Beitrag zum „Durchbruch“ beworben wird. Forschung, indem sie mehrere weitere Maßnahmen einsetzt und damit das Thema Leistungsbewertung in der zeitgenössischen Big Science über das bloße Zählen von Publikationen, Zitationen und Kosten hinaus qualifiziert.;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1577-7 7cf1d8c497ed875ef4dfb06e17a8f5f8;de;;;3.5.;6.4.;;Psychologische Reaktionen von Autoren auf Peer-Reviews verstehen: ein Text-Mining-Ansatz Peer Reviews spielen eine wichtige Rolle im wissenschaftlichen Publizieren. Autoren haben unterschiedliche Gefühle gegenüber Peer Reviews. Diese Studie analysiert die Erfahrungen der Autoren in Scirev.org, um die psychologischen Reaktionen dieser Autoren auf verschiedene Aspekte von Peer Reviews zu verstehen, einschließlich Entscheidungen, Bearbeitungszeit, Anzahl der Reviews und Qualität der Reviews. Text Mining wurde verwendet, um verschiedene Arten von psychologischen Reaktionen von Autoren zu extrahieren, einschließlich affektiver Prozesse und kognitiver Prozesse. Die Ergebnisse zeigen, dass die psychologischen Reaktionen der Autoren auf Peer Reviews komplex sind und nicht durch eine einzige numerische Bewertung zusammengefasst werden können, die direkt von den Autoren gegeben wird. Ablehnung ruft Wut, Traurigkeit und Meinungsverschiedenheit hervor, aber keine Angst. Ein schneller Turnaround weckt positive Emotionen bei den Autoren, aber langsame Peer-Review-Prozesse verstärken negative Emotionen nicht so sehr. Bewertungen von geringer Qualität führen zu einer Vielzahl von negativen Emotionen, einschließlich Angst, Wut und Traurigkeit.;-;-;-;https://link.springer.com/article/10.1007/s11192-021-04032-8 018be7c07e91192ba60677973fe08d16;de;;;3.5.;6.4.;;Spezialisierung und Umfang der wissenschaftlichen Aktivitäten: Eine bibliometrische Analyse fortgeschrittener Länder Der Zusammenhang zwischen dem Umfang nationaler wissenschaftlicher Aktivitäten fortgeschrittener Länder und dem Spezialisierungsgrad nach Wissenschaftsbereichen wird anhand bibliometrischer Indikatoren zur Anzahl der Arbeiten und der Zitationen untersucht. Es hat sich ein negativer Zusammenhang zwischen dem Umfang der wissenschaftlichen Tätigkeit und dem Grad der wissenschaftlichen Spezialisierung herausgestellt, wobei Japan und in geringerem Maße Italien einen höheren Spezialisierungsgrad aufweisen als erwartet. Länder mit etablierten wissenschaftlichen Traditionen (wie die USA, das Vereinigte Königreich, die Niederlande und die Schweiz) haben einen geringeren Spezialisierungsgrad als erwartet, was auf ein breiteres Spektrum an Forschungsaktivitäten schließen lässt. Im Laufe der Zeit haben die meisten Länder jedoch ihre wissenschaftliche Spezialisierung reduziert, ein Muster, das im Gegensatz zu den jüngsten Forschungen zu Patenten und technologischer Spezialisierung steht.;-;-;-;https://link.springer.com/article/10.1007/BF02019767 a80f04138a097da4768143c1dc175456;de;;;3.5.;6.4.;;Publikationstrends und Co-Citation Mapping der Translationswissenschaft zwischen 2000 und 2015 Die Literatur zur Translationswissenschaft hat in den letzten Jahrzehnten stark zugenommen, dennoch gibt es nur wenige empirische Studien, die den Forschungskontext der Translationswissenschaft auf globaler Ebene untersuchen. In dieser Studie wurde eine bibliometrische Analyse durchgeführt, um den aktuellen Stand und die Forschungsthemen der zwischen 2000 und 2015 veröffentlichten Publikationen der Translationswissenschaft in allen Zeitschriften zu untersuchen, die von der Datenbank Web of Science indiziert wurden. Bibliometrische Methoden und Technologien zur Wissensvisualisierung wurden eingesetzt, um Publikationsaktivitäten, geografische Verbreitungen, Kernliteratur und die besonderen Forschungsgebiete der Translationsforschung gründlich zu untersuchen. Die Studie unterscheidet drei Forschungsbereiche der Translationswissenschaft, nämlich die theoretische Übersetzungswissenschaft, die Übersetzungs- und Dolmetscherausbildung und die deskriptive Übersetzungswissenschaft. Die Wissensvermittlung in diesen Bereichen erfolgt durch Publikationsquellen der Fachrichtungen Sprache und Linguistik, Angewandte Linguistik und Pragmatik, Phonetik und Akustik sowie Übersetzen und Dolmetschen. Die Kernliteratur der Translationswissenschaft konzentriert sich auf linguistische Theorien, Forschungsmethodik, theoretische Modelle, Interpretation und neue Perspektiven. Diese Studie bietet Forschern mehrere nützliche Erkenntnisse, um die Entwicklungen in der Translationswissenschaft besser zu verstehen.;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1769-1 c7e2ac80fdce70cf4722cbc823ed232a;de;;;3.5.;6.4.;;Cloud-Robotik für Industrie 4.0 – Ein Literaturüberblick Roboter in der Industrie werden seit Jahrzehnten eingesetzt, lange vor der sogenannten vierten industriellen Revolution. Sie wurden auf vielfältige Weise in industrielle Prozesse integriert, zum Beispiel bei mechanischen Armen, in Montageprozessen, Schweißen und Lackieren. Industrieroboter befinden sich an Orten mit eingeschränktem Zugang und ihr Raum wird durch physische Barrieren und Sicherheitsmaßnahmen abgegrenzt. In den letzten Jahren schlägt Industrie 4.0 den Einsatz von Robotern vor, die mit Personen kollaborieren können, sogenannte kollaborative Roboter oder „Cobots“. Cobots zeichnen sich dadurch aus, dass sie mit menschlicher Arbeit kooperieren, denselben Arbeitsbereich teilen und auf einfache Mensch-Maschine-Interaktionen reagieren können. Angesichts der Vorteile des Einsatzes von Cloud Computing in der Industrie 4.0 wurde darüber hinaus die Anwendung solcher Technologien auf Roboter untersucht. Der Ansatz wird als „Cloud-Robotik“ bezeichnet und erscheint als aufstrebendes Thema. Ziel dieser Arbeit ist es, eine systematische Literaturrecherche zur Cloud-Robotik für die Industrie 4.0 durchzuführen, um den Stand der Technik auf diesem Gebiet darzustellen und Möglichkeiten für zukünftige Forschungen aufzuzeigen. Aus der Analyse der Ergebnisse beobachten wir ein sich abzeichnendes Interesse in diesem Bereich und identifizieren Haupttechnologien, Forschungsthemen und Anwendungsbereiche sowie ein besonderes Interesse an Sicherheitsaspekten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-61218-4_1 3e9d487f9c1ea2f2c7411a5c36ccc048;de;;;3.5.;6.4.;;Debatte über systematische Literaturrecherchen (SLR) und ihre Auswirkungen auf den IS: eine Erwiderung an Mike Chiasson, Briony Oates, Ulrike Schultze und Richard Watson Systematic Literature Reviews (SLRs) halten Einzug in die IS-Disziplin. Durch die Beantwortung der Kommentare trägt diese Erwiderung zu einer Debatte über mögliche Vorzüge, Einschränkungen und weiterreichende Auswirkungen von SLR für die IS-Disziplin bei. Konkret beschäftigen wir uns mit den Fragen: Was ist eine SLR und kann sie teilweise durchgeführt werden? Wie können Literaturreviews und SLR verbessert werden? Was ist die Auffassung von „Evidenz“ in SLRs und der evidenzbasierten Praxisbewegung und was sind mögliche Auswirkungen auf die „Forschung, die die IS-Praxis informiert“? Wie können Effizienz und Effektivität von Literaturreviews verbessert werden? Insgesamt plädieren wir für eine Praxis der Kritik, die Methoden wie SLR im Lichte der Werte und Ziele hinterfragt, die wir in der IS-Disziplin erreichen wollen.;-;-;-;https://link.springer.com/article/10.1057/jit.2015.15 4e47dff3676de62932127adde332d1b1;de;;;3.5.;6.4.;;Geschlossene vs. offene Begutachtung von Zeitschriftenmanuskripten: Inwieweit unterscheiden sich Kommentare im Sprachgebrauch? Während beim traditionellen Closed Peer Review (CPR) einige wenige, ausgewählte Wissenschaftler (Peers) in den Prozess der Manuskriptbegutachtung einbezogen werden, umfasst das Public Peer Review (PPR) neben eingeladenen Gutachtern einen breiteren Kreis interessierter Wissenschaftler ein Manuskript und möchten einen Kommentar dazu schreiben. In dieser Studie werden anhand der Daten zweier umfassender Evaluationsstudien zum CPR-Prozess bei;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0569-5 bbfcbda4870e96808ea6f621d0fb0447;de;;;3.4.;6.4.;;Eine qualitative Analyse der Marketing-Analytics-Literatur: Wo würden ethische Fragen und Legalität stehen? Als Reaktion auf die Bedenken der globalen datengetriebenen Disruption im Marketing untersucht diese qualitative Studie die Probleme und Herausforderungen, die das Potenzial von Marketinganalysen erschließen könnten. Dies könnte nicht nur den Weg ebnen, um die Lücke zwischen Wissenschaft und Praxis zu schließen, sondern auch für ein besseres Verständnis der Menschen, die technologisch disruptive Marketingtrends nutzen, anstatt sie zu einem Feind zu machen. Die Fülle an Marketingthemen und Herausforderungen wurde in 45 Segmente destilliert, und eine detaillierte tabellarische Aufstellung der wichtigsten wurde zur Analyse und Diskussion dargestellt. Darüber hinaus wurden die konzeptionell dicken fünf literarischen Container entwickelt, indem die Konstrukte nach Ähnlichkeit in ihrer kategorialen Natur und ihren Verbindungen gekoppelt wurden. Die „ethischen Fragen und die Legalität“ wurden an erster Stelle identifiziert, was ein literarisches Verständnis und Managementimplikationen für die Konzeptualisierung der Marketinganalytik in der Ära der vierten industriellen Revolution lieferte.;-;-;-;https://link.springer.com/article/10.1057/s41270-021-00119-6 ebe4f8605e4dbf977ddfe4bd74864f05;de;;;3.4.;6.4.;;Sind Finanzen, Management und Marketing eigenständige Bereiche der wissenschaftlichen Forschung? Eine Analyse basierend auf Zeitschriftenzitaten Obwohl es weitgehenden Konsens darüber gibt, dass Finanzen, Management und Marketing „Wissenschaft“ sind, bleibt eine Diskussion darüber, ob diese drei Bereiche autonome, organisierte und angesiedelte wissenschaftliche Forschungsfelder darstellen. In diesem Beitrag wollen wir dieser Frage nachgehen, indem wir die Häufigkeit von Zitationen in den Top-Zeitschriften in den Bereichen Finanzen, Management und Marketing analysieren. Wir stellen eine modifizierte Version des Modells der Wissenschaft als Netzwerk vor, vorgeschlagen von Klamer und Van Dalen (J Econ Methodol 9(2):289–315,;-;-;-;https://link.springer.com/article/10.1007/s11192-010-0292-7 8ddea24f44c3adac34691033ced1e0f7;de;;;3.4.;6.4.;;Die Auswirkungen von Veränderungen in der Finanzierungsstruktur der flämischen Universitäten auf ihre Forschungskapazität, Produktivität und Wirkung in den 1980er und frühen 1990er Jahren Dieser Artikel befasst sich mit folgenden Fragen: Wie hat sich die externe Finanzierung der flämischen akademischen Forschung in den 1980er und frühen 1990er Jahren entwickelt? Welche Auswirkungen hat die Erhöhung der externen Finanzierung auf den Umfang und die Zusammensetzung der Forschungskapazitäten an flämischen Universitäten und auf die Forschungsleistung, die sich in bibliometrischen Indikatoren widerspiegelt? Wir präsentieren Ergebnisse einer quantitativen Analyse von 340 Forschungsabteilungen in den Natur- und Lebenswissenschaften an drei flämischen Universitäten. Wir stellten fest, dass die drittmittelfinanzierte Forschungskapazität stark zugenommen hat und sich immer mehr auf eine begrenzte Zahl von Abteilungen konzentriert. Departemente mit hoher internationaler Ausstrahlung haben stärker von Drittmitteln profitiert als Gruppen mit geringer Wirkung. In der Klasse der Abteilungen mit der stärksten Zunahme der Drittmittelforschungskapazität stieg das Verhältnis von Nachwuchs- und Seniorwissenschaftlern in diesen Abteilungen stark an, während die Publikationsproduktivität abnahm. Unsere Ergebnisse weisen auf das Problem hin, dass bei einer weiteren Entwicklung dieser Trends eine Situation entstehen kann, in der die normalerweise von der Universität selbst bereitgestellte Basis für drittmittelfinanzierte Forschungsaktivitäten zu klein geworden ist.;-;-;-;https://link.springer.com/article/10.1007/BF02458409 619830b3b40bf6b5c97d16736b2b666a;de;;;3.4.;6.4.;;Die Verteilungsungleichheit der Forschungsförderung unter- oder überschätzt? Der Einfluss von Finanzierungsquellen und Unterteilung Die Forschungsförderung ist eine wesentliche Unterstützung für die Entwicklung der wissenschaftlichen Forschung. Die Ungleichheit der Forschungsförderung ist ein wesentliches Merkmal der Wissenschaft, und die politischen Entscheidungsträger haben die Überkonzentration der Mittelzuweisung erkannt. In früheren Studien wurde versucht, den Gini-Koeffizienten zu verwenden, um diese Ungleichheit zu messen, jedoch wurden die Phänomene mehrerer Finanzierungsquellen und Finanzierungsunterteilungen aufgrund der begrenzten Datenverfügbarkeit nicht eingehend diskutiert und empirisch untersucht. Dieser Beitrag analysiert die Verteilungsungleichheit der Forschungsförderung genauer und betrachtet alle Förderquellen im Fördersystem und die Aufteilung der Förderung auf Nachwuchswissenschaftlerinnen und Nachwuchswissenschaftler innerhalb von Forschungsteams. Unser Ziel ist es, den Einfluss dieser beiden Aspekte auf die Gini-Ergebnisse auf individueller Ebene zu bestimmen. Zur Validierung des Problems wird ein Datensatz mit 68.697 Projektdatensätzen und 80.380 Teilprojektdatensätzen der Chinesischen Akademie der Wissenschaften im Zeitraum von 2011 bis 2015 erhoben. Die empirischen Ergebnisse zeigen, dass (1) der Gini-Koeffizient für eine einzelne Finanzierungsquelle verzerrt ist und über- oder unterschätzt werden kann und die häufigste Datenquelle, die National Natural Science Foundation of China (NSFC), bewirkt, dass der Gini-Koeffizient unterschätzt werden, und (2) die Berücksichtigung der Aufteilung der Forschungsförderung verringert die Ungleichheit der Forschungsförderung mit einem kleineren Gini-Koeffizienten, wenngleich der Rückgang moderat ausfällt.;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2402-2 2fbf472c30c7e9e81cb96e1cf9719b8e;de;;;3.4.;6.4.;;Fördermittelallokation, Ungleichheit und wissenschaftlicher Forschungsoutput: eine empirische Studie basierend auf dem Life-Science-Sektor der Natural Science Foundation of China Die wissenschaftliche Forschungstätigkeit erzeugt den „Matthew-Effekt“ auf die Ressourcenallokation. Basierend auf einem Datensatz im Bereich Life Sciences der National Natural Science Foundation of China (NSFC) während des 11. die institutionelle Ebene und die Stadtebene wirken sich auf die Ergebnisse der wissenschaftlichen Forschungsaktivitäten aus. Mit der Auswertung des Gini-Koeffizienten, der deskriptiven statistischen Analyse und dem Poisson-Regressionsmodell haben wir festgestellt, dass der Konzentrationsgrad der Mittelzuweisung zwischen Institutionen und Städten rapide zugenommen hat. Innerhalb von 5 Jahren sind die Gini-Koeffizienten der Gesamtförderung von Institutionen und Städten als Maßeinheiten von 0,61 bzw. 0,74 auf 0,67 bzw. 0,79 gestiegen. Aus dieser Konzentration bei der Mittelvergabe ergab sich jedoch kein wesentlicher Zusatznutzen. Institutionen, denen mehr Mittel gewährt wurden, hatten nicht den erwarteten positiven Spillover-Effekt auf ihre wissenschaftlichen Forschungsaktivitäten. Stattdessen wurde ein „invertiertes U-förmiges“ Muster abnehmender Skalenerträge entdeckt, unter dem sich die interne wissenschaftliche Forschungsaktivität in der Mehrzahl der Institutionen mit konzentrierter Mittelvergabe negativ auswirkte. Inzwischen zeigt das Ergebnis, dass Young Scholars-Projekte im Rahmen des NFSC hochrangige Ergebnisse erbracht haben. Wir schließen die Studie ab, indem wir die möglichen Gründe für das umgekehrte U-förmige Muster und seine politischen Implikationen diskutieren.;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1773-5 f5afbc05eb777e97da3b996f4dccf11e;de;;;3.4.;6.4.;;Einfluss von Grundlagenforschung und angewandter Forschung auf die Innovationsfähigkeit der Hochschulen: die moderierende Rolle der privaten Forschungsförderung Dieser Beitrag untersucht die Auswirkungen von Grundlagenforschung und angewandter Forschung auf die Innovationsfähigkeit der Hochschulen und untersucht die Rolle der privaten Forschungsförderung. Erstens unterteilt dieses Papier die Innovationsfähigkeiten der Universitäten in wissenschaftliche Innovationsfähigkeiten und technologische Innovationsfähigkeiten gemäß dem Paradigma des Pasteur-Quadranten. Zweitens führt diese Studie auf der Grundlage einer Befragung von 61 Universitäten, die direkt dem chinesischen Bildungsministerium unterstehen, eine empirische Analyse unter Verwendung des Modells der partiellen kleinsten Quadrate durch. Die Ergebnisse weisen darauf hin, dass die komplementäre bzw. substituierbare Wirkung von Grundlagenforschung und angewandter Forschung auf die Förderung der Innovationsfähigkeit von Hochschulen in beiden Dimensionen unterschiedlich ist. Darüber hinaus moderiert die private Forschungsförderung den Effekt der angewandten Forschung auf die Innovationsfähigkeit der Hochschulen sowie die beiden Dimensionen negativ. Das Papier liefert quantitative Evidenz für die chinesische Praxis aus Sicht der Universitäten und schlägt Empfehlungen für die zukünftige Entwicklung vor.;-;-;-;https://link.springer.com/article/10.1007/s11192-021-03998-9 be5b10baaabf7e01db015abc8257f919;de;;;3.4.;6.4.;;Muster und strukturelle Einflüsse in der wissenschaftlichen Vermittlung von Wirtschaftswissen erkennen Diese Studie verwendet mehrere quantitative Techniken, um eine mehrdimensionale Analyse von 47 wichtigen Wirtschaftszeitschriften zu ermöglichen, indem die wissenschaftlichen Kommunikationsmuster und strukturellen Einflüsse dieser Zeitschriften analysiert werden. Neben der Verwendung von Clustering-Techniken zur Etablierung von Forschungsclustern im Bereich Wirtschaft wenden wir eine verfeinerte PageRank-Methode an, indem wir zwischen den Zitationstypen unterscheiden, um eine Querschnittsbewertung der ausgewählten Zeitschriften zu ermöglichen. Die Ergebnisse zeigen, dass die fünf einflussreichsten Zeitschriften aus den Bereichen Finanzen und Wirtschaft stammen. Die ausgewählten Finance-Zeitschriften sind Wissenszentren und die ausgewählten Economics-Zeitschriften sind Wissensquellen, wenn die gesamte Zeitschriftendatenbank des ISI berücksichtigt wird. Innerhalb des Wirtschaftsbereichs scheinen die ausgewählten Finanzzeitschriften jedoch hochwirksame Wissenszentren zu sein, während die ausgewählten Wirtschaftszeitschriften trotz schwacher Zitiertätigkeit hochwirksame Zeitschriften sind. Alles in allem sind solche Analysen für Wissenschaftler von Vorteil, wenn sie Publikationen auswählen, um ihre Forschung zu präsentieren, und für Agenturen wie Financial Times und Bloomberg, wenn sie ihren Zeitschriftenkorb für ihre jährlichen Zeitschriftenbewertungsübungen auswählen.;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1518-x 758b2fff17e3bfb13087b39e90f08a85;de;;;3.4.;6.4.;;Gemeinsame Modellierung des Zusammenhangs zwischen NIH-Finanzierung und ihren drei Hauptergebnissen: Patente, Veröffentlichungen und Zitationswirkung Dieses Papier untersucht die Auswirkungen der NIH-Finanzierung auf Forschungsergebnisse anhand von Daten aus 108.803 von NIH finanzierten Projekten zwischen Januar 2009 und März 2017. Wir erweitern das Vorwissen zu diesem Thema, indem wir die Korrelationsstruktur mehrerer Forschungsergebnisse sowie eine umfassende Liste einbeziehen von Merkmalen auf Zuschussebene, die Informationen über den Umfang der Finanzierung, die Zusammensetzung der Geschlechter und die Art der Finanzierung erfassen. Insbesondere verwenden wir die partielle Regression der kleinsten Quadrate (PLS), um alle drei primären Ergebnisse (Veröffentlichungen, Patente und Zitationswirkung) gemeinsam zu modellieren und die Auswirkungen von Merkmalen auf Förderebene auf Forschungsergebnisse zu identifizieren. Unsere Ergebnisse zeigen, dass die gemeinsame Modellierung von Forschungsergebnissen über PLS eine genauere Vorhersage liefert als die separate Analyse jedes Ergebnisses. Darüber hinaus stellen wir fest, dass eine um 2 Jahre längere Projektlaufzeit eine ähnliche Verbesserung der Forschungsergebnisse bewirken würde, wenn andere Merkmale auf Zuschussebene konstant gehalten werden, wie dies durch zusätzliche Mittel in Höhe von 1 Million US-Dollar erreicht wird. Aufgrund dieser Erkenntnis empfehlen wir eine kostenfreie Verlängerung der geförderten Projekte anstelle einer verstärkten Förderung, um eine vergleichbare Steigerung der Forschungsleistungen zu erreichen. Es hat sich herausgestellt, dass die Förderung von Zuschüssen durch mehrere Organisationen effektiver ist, um Patente zu steigern, während die Förderung von Mehrfach-PI-Zuschüssen in Bezug auf Veröffentlichungen und Zitationswirkung produktiver ist. Von den verschiedenen Arten von NIH-Stipendien sind Programmprojekt-/Zentrumsstipendien (P-Reihe) und Forschungsausbildungsstipendien (T-Reihe) die beiden produktivsten und wirkungsvollsten. Die Ergebnisse deuten auch darauf hin, dass Projekte mit einem höheren Anteil männlicher PIs tendenziell mehr Forschungsergebnisse hervorbringen. Dieser Befund ist jedoch aufgrund der Einschränkung unseres Datensatzes mit Vorsicht zu interpretieren.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2846-z ab84ad0da2fcba185220c09a33bf3b58;de;;;3.4.;6.4.;;Wirtschaftsstatistik und Szientometrie Dieses Papier bietet Scientometrikern einen kurzen Überblick über die Geschichte der Wirtschaftsstatistik und ihrer internationalen Standards. Zu Letzterem gehört die Frascati-Standardfamilie für die Statistik des wissenschaftlichen und technologischen Inputs. Es werden einige Empfehlungen für Verbesserungen dieser Standards gegeben. Es werden Vorschläge entwickelt, um Forschungsergebnisse, wie im Frascati-Handbuch definiert, und bibliometrisch gemessene Ergebnisse in Beziehung zu setzen.;-;-;-;https://link.springer.com/article/10.1007/s11192-013-0960-5 1076a3d696ba02572487c801254250d1;de;;;3.4.;6.4.;;Die Auswirkungen hybrider öffentlicher und marktorientierter Finanzierungsmechanismen auf das wissenschaftliche Portfolio und die Leistungen öffentlicher Forschungslabore: eine szientometrische Analyse Das wissenschaftliche Problem dieser Studie ist die Analyse des Leistungsportfolios öffentlicher Forschungslabors in Gegenwart von hybriden Förderprogrammen auf der Grundlage öffentlicher und marktorientierter Finanzierungsmechanismen. Forschungsinstitute gelten als Decision Making Units, die mit Hilfe von Inputs zwei verschiedene Arten von wissenschaftlichen Outputs produzieren. Wir betrachten einige wissenschaftliche Ergebnisse mit mehr internationaler Sichtbarkeit (High Visibility Outputs-HVOs) als andere, die als Low Visibility Outputs (LVOs) bezeichnet werden. Wir begegnen diesem Problem mit einem szientometrischen Ansatz unter Verwendung von Modellen der Directional Output Distance Function, die bestrebt ist, die Auswirkungen der hybriden Finanzierung öffentlicher Forschungslabore im Hinblick auf potenzielle Verluste an hochwertigen wissenschaftlichen Ergebnissen zu messen und zu analysieren, insbesondere wenn der Marktanteil -orientierten Fonds einen bestimmten Schwellenwert überschreitet. Die Ergebnisse unter Berücksichtigung von F&E-Organisationen der „harten Wissenschaften“ scheinen zu zeigen, dass ein hybrides Finanzierungssystem, das zu marktorientiert ist, um den Betrieb (und das Überleben) von Forschungslabors zu unterstützen, tendenziell das wissenschaftliche Leistungsportfolio beeinflusst, indem es wissenschaftliche Leistungen und HVOs verringert. Die Studie schlägt hier auch eine vorläufige Analyse des optimalen Niveaus der Marktfinanzierung im Verhältnis zu den gesamten Finanzmitteln für eine fruchtbare Koexistenz von Markt- und öffentlichen Förderprogrammen vor, um den wissenschaftlichen Output (Publikationen) von F&E-Labors zu maximieren. Die Ergebnisse zeigen die Hauptunterschiede zwischen den wissenschaftlichen Abteilungen und einige kritische Schwachstellen und Bedrohungen durch öffentliche Forschungslabors für die Produktion wissenschaftlicher Ergebnisse.;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1427-z 982d9416cca5ad902aa2b65ce54d5b4e;de;;;3.4.;6.4.;;Genauigkeit der Finanzierungsinformationen in Scopus: eine vergleichende Fallstudie Als aufstrebende bibliografische Datenbank wird Scopus zunehmend in der akademischen Forschungs- und Evaluationspraxis eingesetzt. Im Vergleich zum Web of Science ist die Datenqualität/Zuverlässigkeit noch relativ wenig erforscht. Unter Verwendung der 26 englischsprachigen Artikel des Autors, die in den Jahren 2014 und 2019 veröffentlicht wurden, untersucht diese Fallstudie die Genauigkeit der Finanzierungsinformationen in Scopus und zeigt, dass die Genauigkeit der vom Web of Science gesammelten Finanzierungsinformationen besser ist als die von Scopus. Einige offensichtliche Fehler im Text der Finanzierungsbestätigung und in den Feldern der Finanzierungsagentur sind in Scopus noch vorhanden. Daher muss Scopus die Identifizierungsmethode für den Text der Förderbestätigung optimieren und die Extraktions- und Standardisierungsstrategie der Förderagentur verbessern.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03458-w b259e5f8306452bde242f2ec6f6b04ce;de;;;3.4.;6.4.;;Bewertung der wirtschaftlichen Auswirkungen von Brite-Euram-Programmen auf die europäische Industrie Dieser Artikel befasst sich mit einer von der BETA-Gruppe durchgeführten Bewertung der wirtschaftlichen Auswirkungen von EU-FuE-Programmen (Brite, Euram und Brite-Euram I) auf die europäische Industrie. Der verwendete Ansatz basiert auf einer von BETA entwickelten Originalmethodik, die darauf abzielt, diese Auswirkungen auf der Mikroebene (d. h. den Programmteilnehmern) durch direkte Interviews mit 176 Partnern aus 50 Projekten zu bewerten. Zunächst werden die Definition dieser ökonomischen Effekte sowie die verschiedenen Schritte der Evaluationsarbeit beschrieben. Anschließend werden die Gesamtergebnisse der Studie präsentiert, die die Bedeutung sowohl der „direkten“ als auch der „indirekten“ beobachteten Effekte in monetärer Hinsicht aufzeigen. Schließlich verdeutlichen einige detailliertere Ergebnisse den positiven Einfluss einiger Aspekte der für die analysierten F&E-Projekte eingerichteten Organisationsstruktur auf die Höhe der beobachteten Effekte: i) die Beteiligung eines Universitätslabors, ii) die Beteiligung mindestens eines Partner, der an einer Grundlagenforschungsarbeit beteiligt ist, iii) die Vielfalt der Forschungsaufgaben über eine Skala von der Grundlagenforschung bis zur Industrialisierungsarbeit, iv) die Kombination von „Nutzertyp“ und „Produzententyp“ von Aktivitäten in einer bestimmten Organisation (Integration Effekt) oder in einem bestimmten Projekt (Konsortialeffekt), etc...;-;-;-;https://link.springer.com/article/10.1007/BF02018003 2630c265453d1864ee61a20480e18a9c;de;;;3.4.;6.4.;;Alterseffekte in der wissenschaftlichen Produktivität Alterseffekte in der wissenschaftlichen Produktion sind eine konsolidierte stilisierte Tatsache in der Literatur. Auf der Ebene der Wissenschaftler nimmt die Produktivität mit dem Alter nach einem vorhersehbaren Muster ab. Das Problem des Einflusses der Altersstruktur auf die wissenschaftliche Produktivität auf Institutsebene wird weit weniger untersucht. Das Papier untersucht Beweise des italienischen Nationalen Forschungsrats. Der Weg der Nachwuchsgewinnung entlang der Geschichte der Institution wird rekonstruiert. Wir stellen fest, dass die Altersstruktur einen deprimierenden Effekt auf die Produktivität hat und leiten daraus politische Implikationen ab. Als vielversprechendes Forschungsfeld wird die Wachstumsdynamik von Forschungsinstituten vorgestellt.;-;-;-;https://link.springer.com/article/10.1023/A%3A1025427507552 0574585c2ae3e19779d71edfe8ba069e;de;;;3.4.;6.4.;;Sozioökonomische Indikatoren zu Forschung und Entwicklung in Spanien Dieser Aufsatz analysiert einige Aspekte der Situation der Wissenschaftspolitik in Spanien, hauptsächlich aus sozioökonomischer Sicht. Es werden die für FuE bestimmten Mittel, ihre Quellen, die Entwicklung nach Jahren und die Verteilung in Bezug auf das BSP und verschiedene Sektoren wie öffentliche Einrichtungen und private Unternehmen untersucht sowie die Beziehungen dieser Mittel mit den Einwohnern des Landes und mit die Zahl der wissenschaftlichen Forscher, die Forschungsbereiche und die Prozentsätze für angewandte Forschung und Entwicklung In ähnlicher Weise werden die in Forschung und Entwicklung tätigen Mitarbeiter, ihre Zahl, die Art der Forscher, die Zentren und die wissenschaftlichen Forschungsbereiche dargestellt.;-;-;-;https://link.springer.com/article/10.1007/BF02026474 98f1a2e09058d962e27fe5f87f34c672;de;;;3.4.;6.4.;;Technische Universitäten in Deutschland: Zur Begründung des Hochschul- und Forschungsmarktes Das Kapitel präsentiert sowohl einen Überblick über Technische Universitäten (TUs) in Deutschland, als auch wie die methodische und theoretische Herangehensweise des Ordnungsrahmens von Boltanski und Thévenot (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-50555-4_7 c4a78d93f0b90fc8956ed26b4e328bb4;de;;;3.4.;6.4.;;Nachwuchsförderung und wissenschaftliche Exzellenz Das Emmy-Noether-Programm der Deutschen Forschungsgemeinschaft (DFG) zielt darauf ab, exzellenten wissenschaftlichen Nachwuchs in der Postdoc-Phase zu fördern und insbesondere eine Alternative zum klassischen Weg zur Habilitation (venia legendi) zu eröffnen.;-;-;-;https://link.springer.com/article/10.1007/s11192-009-0411-5 dd7cf66678bbb749bddc438d35da10e1;de;;;3.4.;6.4.;;Die Folgen des Wettbewerbs: Simulation der Auswirkungen von Strategien zur Vergabe von Forschungsgeldern Forschende müssen in einem zunehmend wettbewerbsorientierten Umfeld agieren, in dem die Finanzierung zu einer knappen Ressource wird. Förderagenturen können mit ihrer Zuteilungspolitik nicht experimentieren, da selbst kleine Änderungen dramatische Auswirkungen auf die Wissenschaft haben können. Wir stellen ein Proposal-Evaluation-Grant-System (PEGS) vor, das es uns ermöglicht, verschiedene Richtlinien zur Vergabe von Forschungsgeldern zu simulieren. Wir haben vier Ressourcenallokationsstrategien (RAS) mit den Titeln Kommunismus, Lotterie, Realistisch und Ideal implementiert. Die Ergebnisse zeigen, dass die RAS einen starken Einfluss auf die Karrieren der Forschenden hat. Darüber hinaus untersuchte die PEGS den Einfluss der Schreibfertigkeit von Papieren und der Fehler bei der Bewilligungsprüfung.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-1940-3 118fd4c92906cc0dc3b71dc778307166;de;;;3.4.;6.4.;;Kontextanalyse – Eine Technik zur Analyse der Forschung in einem Bereich, angewendet auf die Literatur zum Management von F&E auf Sektionsebene Die Kontextanalyse ist eine neue Methode zur Bewertung von Publikationen. Der Prozess besteht darin, eine Datenbank mit Attributen zu erstellen, die der Gutachter jedem Beitrag zuweist, und dann nach interessanten Beziehungen in den Daten zu suchen. Die Zuordnung der Attribute erfordert ein Verständnis der Thematik der Arbeiten. Wir präsentieren Ergebnisse zu einem bestimmten Forschungsfeld, dem Management von F&E auf Sektionsebene. Unsere Ergebnisse stützen die Ansicht, dass diese wissenschaftlichen Publikationen nicht den Bedürfnissen von F&E-Managern in der Praxis entsprechen. Der Beitrag diskutiert praktische Aspekte der Anwendung der Methode in anderen Bereichen.;-;-;-;https://link.springer.com/article/10.1007/BF02458351 474cfbb8a62ada331102659cd65a85d3;de;;;3.4.;6.4.;;Häufigkeit und Umfang der Co-Autorenschaft in der Umwelt- und Ressourcenökonomie: Evidenz aus der from Wir untersuchen die Häufigkeit und das Ausmaß von Co-Autorenschaften in der Umwelt- und Ressourcenökonomie, indem wir die führende Zeitschrift für Umwelt- und Ressourcenökonomie untersuchen: die;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1248-0 5db47d29a179d541e7b20d0e143112b5;de;;;3.4.;6.4.;;Globales Muster der Wissenschaftsförderung in den Wirtschaftswissenschaften Basierend auf den Originaldaten von 100.275 SSCI-indexierten Papieren im Bereich der Wirtschaftswissenschaften in den Jahren 2009–2014 wurden in dieser Arbeit szientometrische und netzwerkanalytische Methoden angewendet, um das Finanzierungsmuster des Finanzierungsverhältnisses, der Auswirkungen, der Indexbeziehung und der Kooperationsstruktur in den wichtigsten Ländern/Gebieten zu untersuchen . Die Ergebnisse zeigen, dass im Gegensatz zum bemerkenswerten Ansehen der Wirtschaftswissenschaften die globale Finanzierungsquote der Wirtschaftswissenschaften in den Jahren 2009–2014 mit nur 8,3 % deutlich unter dem durchschnittlichen Niveau der Sozialwissenschaften liegt. Obwohl die USA bei der Innovation der Wirtschaftswissenschaften weit voraus zu sein scheinen, war die Abdeckung ihrer Wissenschaftsförderung nicht weit verbreitet. Im Gegensatz dazu rangiert Chinas Finanzierungsgrad am höchsten, aber die Wirkung der Finanzierung muss verstärkt werden. Wir beobachten eine ungefähre Macht-Gesetz-Beziehung zwischen drei grundlegenden Maßen für finanzierte wirtschaftswissenschaftliche Arbeiten, einschließlich Zitationen, Gesamtzahlen und h-Indizes. Die wirtschaftswissenschaftlichen Kooperationsforschungen weisen eine Schlüsselstruktur aus drei Hauptkomponenten auf: den USA als zentralem Teil, einer Kerngruppe des asiatisch-pazifischen Raums und einer weiteren Kerngruppe Europas. Das Kooperationsmuster der Kontinente basiert weitgehend auf der Verbindung zwischen Europa und den USA.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-1961-y 5b4a24d2345e4bcf3d6af8f8f600d9c6;de;;;3.4.;6.4.;;Am Horn eines Dilemmas: Führt mehr Forschungsförderung zu mehr Forschung oder Ressourcenverschwendung, die eine Optimierung des Forscherportfolios erfordert? Eine Analyse anhand von Förderbestätigungsdaten Der zunehmende Druck auf die Budgets von Fördereinrichtungen hat zu Diskussionen darüber geführt, wie die finanziellen Mittel weiter ausgeschöpft werden können, und zu der Besorgnis, dass einige Forscher von Fördereinrichtungen für ein bestimmtes Projekt mehr Geld nehmen als nötig, eine Praxis, die als „Double-Dipping“ bezeichnet wird “. Es gibt Hinweise darauf, dass dies der Fall sein könnte, und vor dem Hintergrund plötzlich zunehmender Mittelknappheit, wenn auch in einem System mit stärkeren Unterstützungsformen, wurde vorgeschlagen, dass die Fördereinrichtungen die einzelnen Forscherportfolios überwachen und verwalten, um die Ressourcennutzung zu optimieren. Unser Papier liefert Beweise, die sowohl für das Thema „Double Dipping“ als auch für den Vorschlag zur Portfolioverwaltung relevant sind. Wir zeigen, dass dort, wo bestimmte Voraussetzungen für das „Double Dipping“ erfüllt sind (dh wenn die Finanzierung von mehr als einer Organisation kommt und die Organisationen Forschung in einem sehr ähnlichen Bereich finanzieren) und daher ein Argument für die Überwachung von Forscherportfolios anwendbar sein könnte die unter diesen Bedingungen erstellte Forschung hat eine größere Zitationswirkung. Wir stellen die Behauptung in Frage, dass die Anerkennung von mehr Fördermitteln grundsätzlich unerwünscht ist, und äußern unsere Zweifel, dass eine bürokratische Verwaltung der Mittelzuweisung an Forscher zwangsläufig die Wirkung der Forschung erhöhen wird.;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1259-x b4a9fae2aa931efa187fd6782063d22c;de;;;3.4.;6.4.;;Bewertung der Leistung der gesponserten chinesischen Kräutermedizinforschung Die chinesische Kräutermedizin hat sich in letzter Zeit international zu einem heißen Forschungsgebiet entwickelt, immer mehr pharmazeutische Forscher und Wissenschaftler haben sich solchen Forschungsarbeiten verschrieben. Basierend auf Papieren im;-;-;-;https://link.springer.com/article/10.1007/s11192-007-0105-9 ecfe82e1f737052e04ca3904a68c2cdf;de;;;3.4.;6.4.;;Heuristiken als konzeptionelle Linse zum Verständnis und zur Untersuchung der Verwendung von Bibliometrie in der Forschungsevaluation Während Bibliometrie weit verbreitet für Forschungsbewertungszwecke verwendet wird, fehlt ein gemeinsamer theoretischer Rahmen für das konzeptionelle Verständnis, das empirische Studium und die effektive Vermittlung ihrer Verwendung. In diesem Beitrag skizzieren wir einen solchen Rahmen: Das ursprünglich im Kontext der Kognitions- und Entscheidungswissenschaften vorgeschlagene Forschungsprogramm Fast-and-frugal-Heuristik eignet sich besonders gut, um die Verwendung von Bibliometrie in Forschungsevaluationen zu verstehen und zu untersuchen. Solche Bewertungen stellen Urteile unter Unsicherheit dar, bei denen typischerweise nicht alle möglichen Optionen, ihre Konsequenzen und deren Eintrittswahrscheinlichkeiten bekannt sind. In diesen Situationen unvollständiger Informationen sind in Frage kommende deskriptive und präskriptive Modelle menschlichen Verhaltens Heuristiken. Heuristiken sind einfache Strategien, die durch Ausnutzung der Struktur von Umgebungen Menschen helfen können, intelligente Entscheidungen zu treffen. Sich auf Heuristiken zu verlassen bedeutet nicht, Genauigkeit gegen Aufwand abzuwägen: Heuristiken können zwar die Komplexität reduzieren, aber in vielen Entscheidungsumgebungen zu besseren Entscheidungen führen als informationsgierige Verfahren. Die präskriptive Kraft von Heuristiken ist in einer fachübergreifenden Literatur dokumentiert, die Medizin, Kriminalität, Wirtschaft, Sport und andere Bereiche umfasst. Wir skizzieren das Forschungsprogramm Fast-and-frugal-Heuristik, stellen Beispiele für bisherige empirische Arbeiten zu Heuristiken außerhalb der Bibliometrie vor, erläutern, warum Heuristiken besonders geeignet sein können, um die Verwendung von Bibliometrie zu untersuchen, und schlagen einen entsprechenden konzeptionellen Rahmen vor.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03018-x d601b3654db1785457be870d14423cb6;de;;;3.4.;6.4.;;Die Rolle der öffentlichen Finanzierung in der wissenschaftlichen Produktion der Nanotechnologie: Wo steht Kanada im Vergleich zu den Vereinigten Staaten Dieses Papier präsentiert länderübergreifende Vergleiche zwischen Kanada und den Vereinigten Staaten im Hinblick auf die Auswirkungen öffentlicher Zuschüsse und wissenschaftlicher Kooperationen auf nachfolgende Veröffentlichungen im Zusammenhang mit Nanotechnologie. In dieser Studie stellen wir die unterschiedliche Beteiligung akademischer Forscher und staatlicher Fördermittel dar, um den Einfluss geförderter Forschung zu erfassen und Regierungsbehörden dabei zu helfen, ihre Effizienz bei der Finanzierung der Nanotechnologieforschung zu bewerten. Wir analysieren die Maße der Quantität und Qualität von Forschungsergebnissen anhand zeitbezogener ökonometrischer Modelle und vergleichen die Ergebnisse zwischen Nanotechnologie-Wissenschaftlern in Kanada und den USA. Die Ergebnisse zeigen, dass sowohl Forschungsstipendien als auch die Position von Forschenden in Ko-Publikationsnetzwerken einen positiven Einfluss auf den wissenschaftlichen Output haben. Unsere Ergebnisse zeigen, dass die Forschungsförderung in Kanada einen signifikant positiven linearen und in den USA einen positiven nichtlinearen Einfluss auf die Zahl der Veröffentlichungen hat und bei der Zahl der Zitationen nur in den USA einen positiven Einfluss beobachtet. Unsere Forschung zeigt, dass die Position von Wissenschaftlern in früheren wissenschaftlichen Netzwerken eine wichtige Rolle für die Quantität und Qualität der von Nanotechnologie-Wissenschaftlern veröffentlichten Arbeiten spielt.;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1432-2 cbf7e5741488ed2c9436dab1aa4daff4;de;;;3.4.;6.4.;;Wie misst man die Leistung eines Sonderforschungsbereichs New Public Management unterstützt Hochschulen und Forschungseinrichtungen dabei, in einem wettbewerbsintensiven Forschungsumfeld zu bestehen. Die Evaluierung öffentlich finanzierter Forschung verbessert die Transparenz, hilft bei der Reflexion und Selbsteinschätzung und liefert Informationen für strategische Entscheidungen. In diesem Papier liefern wir empirische Evidenz anhand von Daten eines Sonderforschungsbereichs (SFB) zu Finanzinputs und Forschungsergebnissen von 2005 bis 2016. Nach Auswahl von Leistungsindikatoren, die für ein SFB geeignet sind, beschreiben wir die wichtigsten Eigenschaften der Daten mithilfe von Visualisierungstechniken. Um die Beziehung zwischen den Dimensionen der Forschungsleistung zu untersuchen, verwenden wir ein Panel-Datenmodell mit festen Effekten und ein Poisson-Modell mit festen Effekten. Mit Hilfe von Dummy-Variablen für das Jahr zeigen wir, wie sich das Muster der Forschungsproduktivität im Laufe der Zeit nach der Kontrolle von Personal- und Reisekosten ändert. Die gemeinsame Darstellung der zeitlich fixierten Effekte und des Lebenszyklus des Forschungsprojekts ermöglicht ein besseres Verständnis der Entwicklung der Anzahl der Diskussionspapiere im Zeitverlauf.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2910-8 7fdd1ef8d2bed2ff32e20ec4c22aac98;de;;;3.4.;6.4.;;Auswirkungen der SERC-Förderung auf die Forschung in den chemischen Wissenschaften Das Papier bewertet die Auswirkungen der Finanzierung des Science and Engineering Research Council (SERC) in den chemischen Wissenschaften zwischen 1976 und 1989 unter Verwendung szientometrischer Techniken. Andere Indikatoren wie gewonnene Auszeichnungen, Stipendien an renommierten Akademien, Mitgliedschaft in Herausgebergremien, die von den Projektforschern erhalten wurden, Ph.D. Studienabschlüsse, Kooperationen aufgebaut und neue Studiengänge aufgrund der SERC-Förderung wurden ebenfalls analysiert. Die Studie zeigt, dass der Aktivitätsindex der Forschungsleistung in verschiedenen Grenzbereichen der chemischen Wissenschaften gestiegen ist, obwohl der indische Aktivitätsindex in diesen Bereichen gesunken ist. Das Wachstumsmuster der Papiere für „Organometallic and Organometalloidal Compounds“ ist für Indien und die Welt ähnlich. Die Beiträge der Projektforscher des SERC in Zeitschriften mit hohem Impact Factor (≥2) und die Zitationen der von ihnen veröffentlichten Artikel sind höher als die indischen Beiträge in den chemischen Wissenschaften. Die SERC-Förderung hat zu einer Verdreifachung der Zahl der Doktoranden geführt. Abschlüsse in chemischen Wissenschaften und SERC-Projektforscher haben viele renommierte Auszeichnungen, Stipendien an Akademien und Mitgliedschaften im Editorial Board der Zeitschriften gewonnen. Die vom SERC geförderte Forschung hat auch zu neuen Studiengängen an verschiedenen Universitäten geführt.;-;-;-;https://link.springer.com/article/10.1007/BF02459051 971774b99ea7c097ca32e659e2a0f1cf;de;;;3.4.;6.4.;;Indikatoren für „Innovation als Prozess“ Innovation als Prozess bezieht sich auf das Geschäft als Prozess. Ein Prozess kann nicht durch die Input-/Output-Indikatoren erfasst werden, die die am häufigsten akzeptierten Variablen sind. Auch Indikatoren für technologische Eigenschaften schränken den Messumfang ein. Darüber hinaus müssen diese Indikatoren häufig auf nicht-gaußschen Variablen aufgebaut werden, die für additive Operationen nicht zugänglich sind. Dieses Papier identifiziert eine Methodik zur Identifizierung von Prozessinnovationsvariablen, von denen einige Gaußsche Werte sind und andere nicht. Anschließend werden unter Verwendung additiver Operationen einige einfache Indikatoren für additive und nicht-additive Variablen konstruiert. Die additiven Variablen ergeben verallgemeinerbare Indikatoren und die nicht-additiven Variablen ergeben Indikatoren vom Typ der Selbstbewertung. Beide Typen können als Messsysteme für die Prozessleistung verwendet werden. Beispiele für die Werte, die diese Indikatoren annehmen, wurden für neun Unternehmen gezeigt. Dies bestätigt die Annahme über die Anwendbarkeit dieser Indikatoren.;-;-;-;https://link.springer.com/article/10.1007/BF02457403 83ae2fba2de4f62a907ffe503c4af194;de;;;3.4.;6.4.;;Die Gefahren einer leistungsorientierten Forschungsförderung in nicht kompetitiven Hochschulsystemen Immer mehr Nationen weisen Forschungseinrichtungen öffentliche Mittel auf der Grundlage von Rankings aus nationalen Evaluierungen zu. Daher besteht in nicht wettbewerbsorientierten Hochschulsystemen, in denen Spitzenwissenschaftler auf alle Universitäten verstreut und nicht auf wenige konzentriert sind, ein hohes Risiko, Spitzenwissenschaftler zu benachteiligen, die an Universitäten mit geringerer Leistung arbeiten. Anhand einer 5-jährigen bibliometrischen Analyse, die an allen italienischen Universitäten, die in den Hard Sciences von 2004 bis 2008 tätig waren, durchgeführt wurde, analysiert diese Arbeit die Verteilung von Publikationen und relevanten Zitaten von Wissenschaftlern innerhalb der Universitäten, misst die Forschungsleistung einzelner Wissenschaftler, quantifiziert die Intensität der Konzentration von Spitzenwissenschaftlern an jeder Universität, erstellt Leistungsrankings für die Universitäten und zeigt die Auswirkungen einer selektiven Förderung auf die Spitzenwissenschaftler von Universitäten mit niedrigem Rang auf.;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0355-4 d2d22f5ec829d8e5f8b27595c57869a2;de;;;3.4.;6.4.;;Finanzierungsbestätigungsanalyse: ein verbessertes Instrument zur Untersuchung der Auswirkungen von Forschungsförderung: der Fall der Nanotechnologie Es besteht ein zunehmendes Interesse daran zu beurteilen, wie die geförderte Forschungsförderung die Entwicklung und den Weg von Wissenschaft und Technologie beeinflusst. Traditionell sind Verbindungen zwischen Forschungsförderung und späteren Ergebnissen schwer nachzuvollziehen und erfordern oft den Zugang zu separaten Finanzierungs- oder Leistungsberichten, die von Forschern oder Sponsoren veröffentlicht werden. Die Rückverfolgung von Forschungsförderung und Output-Verknüpfungen ist noch schwieriger, wenn Forscher mehrere Förderpreise erhalten und mit einer Vielzahl unterschiedlich geförderter Forschungskollegen zusammenarbeiten. In diesem Artikel wird ein neuartiger bibliometrischer Ansatz zur Durchführung einer Finanzierungsbestätigungsanalyse vorgestellt, der Forschungsergebnisse mit ihren Finanzierungsquellen verknüpft. Mit diesem Ansatz im Kontext der Nanotechnologieforschung untersucht der Artikel die Finanzierungsmuster führender Länder und Agenturen einschließlich der Muster der grenzüberschreitenden Forschungsförderung. Wir identifizieren mehr als 91.500 Nanotechnologie-Artikel, die in einem Zeitraum von 12 Monaten in den Jahren 2008–2009 weltweit veröffentlicht wurden. Etwa 67 % dieser Veröffentlichungen enthalten Informationen zu Förderzusagen. Wir vergleichen Artikel, die über Finanzierung berichten, mit denen, die dies nicht tun (aus Gründen, die das Vertrauen auf interne Kernfinanzierung statt auf externe Auszeichnungen sowie Auslassungen in der Berichterstattung umfassen können). Obwohl wir einige Länder- und Feldunterschiede feststellen, sind wir der Meinung, dass die Berichterstattung über die Finanzierungsquellen ausreichend hoch ist, um eine Analysegrundlage zu bieten. Die Daten der Förderanerkennung werden verwendet, um die Förderpolitiken und -programme für die Nanotechnologie in ausgewählten Ländern zu vergleichen und ihre Auswirkungen auf die wissenschaftliche Leistung zu untersuchen. Darüber hinaus untersuchen wir die Internationalisierung der Forschungsförderung durch das Zusammenspiel verschiedener Förderquellen auf nationaler und organisatorischer Ebene. Wir stellen fest, dass die meisten Nanotechnologie-Fördermittel national ausgerichtet sind, aber Internationalisierung und Wissensaustausch durch die grenzüberschreitende Zusammenarbeit von Forschern stattfinden. Unsere Methode bietet einen neuen Ansatz, nicht nur die Finanzierungsquellen von Publikationen zu identifizieren, sondern auch groß angelegte Analysen über Wissenschaftsbereiche, Institutionen und Länder hinweg durchzuführen.;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0362-5 21d49e31d70df8626ec96adce6ba67c6;de;;;3.4.;6.4.;;Drittmittel deutscher Hochschulen. Ein Indikator für die Forschungsaktivität? Dieser Artikel befasst sich mit der Drittmittelfinanzierung der Forschung an deutschen Hochschulen. Die zentrale Frage ist, ob Förderdaten als geeignete Indikatoren für die Messung der Forschungsleistung von Hochschulen dienen können. Nach einer kurzen Darstellung der Bedeutung und des Umfangs der Drittmittel im deutschen Forschungsförderungssystem wird die Datenqualität diskutiert und der Förderindikator mit bibliometrischen Indikatoren verglichen. Daraus ergibt sich, dass in Fächern, in denen Forschungsdrittmittel üblich sind, der Förderindikator in die gleiche Richtung weist wie andere Indikatoren. Aufgrund des Peer-Review-Verfahrens bei der Vergabe von Fördermitteln ist ein Förderindikator in vielen Fächern ein geeigneter Indikator zur Bewertung von FuE-Wirkungen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1010566916697 c1227b9bece4e3a1340bd0ce258d0131;de;;;3.4.;6.4.;;Förderquoten in den Sozialwissenschaften: die Perspektive der Länder-/Gebietsebene und der Vergleich mit den Naturwissenschaften Die Forschungsförderung spielt in der aktuellen Wissenschaft eine Schlüsselrolle und ist damit eine aggregierte interessante Ebene in der szientometrischen Analyse geworden. In dieser Arbeit versuchen wir, die Finanzierungsquoten von 21 großen Ländern/Gebieten in den Sozialwissenschaften auf der Grundlage von 813.809 Forschungsartikeln zu untersuchen, die aus dem Web of Science gesammelt und vom Social Sciences Citation Index für den Zeitraum von 2009 bis 2013 indiziert wurden. Die Ergebnisse zeigen dass die Förderquoten der Stichprobenländer/-gebiete in den Sozialwissenschaften weit unter denen in den Naturwissenschaften und einigen spezifischen Fächern (Chemie, Ingenieurwissenschaften, Physik, Neurowissenschaften) liegen. Es gibt jedoch einen positiven Zusammenhang zwischen ihnen. Die Refinanzierungsquoten der Volksrepublik China, Schwedens und Japans rangieren unter den Top 3 (über 30 %). Im Allgemeinen sind die Deckungsgrade der Top 1 % und Top 10 % der am häufigsten zitierten Artikel höher als die der übrigen Artikel, und in den meisten Fällen hängt der hohe Deckungsgrad aller Artikel mit dem hohen Deckungsgrad der häufig zitierten Artikel zusammen Artikel.;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1633-3 22ea9bed15f76b9b49716dcd156b8746;de;;;3.4.;6.4.;;Wissenschaftlicher Beitrag zur industriellen Innovation nach Förderart Universitäten sind ein wichtiger Akteur für Innovation. Ihre Beiträge zur technologischen und wissenschaftlichen Wissensentwicklung wurden durch verschiedene Förderformen unterstützt. Die aktuelle Studie untersucht die Auswirkungen zweier Quellen zur Finanzierung der akademischen Forschung – Industrie und Wettbewerb – auf akademische Patente. Wir messen die Effekte mit zwei Indikatoren – der Entstehung von Vorläufererfindungen und dem Grad der Verbreitung. Dieses Papier identifiziert anhand einer Patentdatenbank eine Vorläufererfindung, wenn ein Patent ohne Rückwärtszitate erteilt wird, und misst den Verbreitungsgrad mit Patentzitaten. Das Hauptergebnis dieses Papiers, das sich auf japanische Universitätspatente konzentriert, ist, dass wettbewerbsorientierte Finanzierung dazu neigt, Vorläufererfindungen hervorzubringen, während die Finanzierung durch die Industrie dies wahrscheinlich nicht tun wird. Im Gegensatz dazu werden sich Erfindungen, die durch wettbewerbliche Finanzierung hergestellt werden, wahrscheinlich nicht verbreiten, während diejenigen, die durch Industriefinanzierung hergestellt werden, wahrscheinlich diffundieren werden. Basierend auf unseren Ergebnissen argumentieren wir, dass die kompetitive Finanzierung möglicherweise besser funktioniert, wenn ein Diffusionsmechanismus eingeführt wird. Ein Beispiel ist, die Nähe akademischer Forscher zur Industrie zu erhöhen. Darüber hinaus implizieren unsere Ergebnisse auch, dass es wichtig ist zu verstehen, welche Ergebnisse von der Finanzierungsmethode erwartet werden, wenn eine neue Finanzierung festgelegt oder das akademische Finanzierungssystem geändert wird, z. B. die Blockfinanzierung durch andere Arten ersetzt wird.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03420-w 3e9b2e8ed66f4cb081a6438d42ba5479;de;;;3.4.;6.4.;;Peer Review von Stipendienanträgen in Biologie und Medizin. Zuverlässigkeit, Fairness und Validität Dieser Beitrag untersucht das Peer-Review-Verfahren einer nationalen Wissenschaftsförderorganisation (Schweizerischer Nationalfonds) anhand der drei am häufigsten untersuchten Kriterien Reliabilität, Fairness und Validität. Die analysierten Daten bestehen aus 496 Anträgen auf projektbezogene Förderung aus Biologie und Medizin aus dem Jahr 1998. Die Gesamtzuverlässigkeit wird mit einem klasseninternen Korrelationskoeffizienten von 0,41 mit erheblichen Unterschieden zwischen Biologie (0,45) und Medizin (0,20) als angemessen befunden. Multiple logistische Regressionsmodelle zeigen nur wissenschaftliche Leistungsindikatoren als signifikante Prädiktoren für die Förderentscheidung, während alle potenziellen Verzerrungsquellen (Geschlecht, Alter, Nationalität und akademischer Status des Antragstellers, beantragter Förderbetrag und institutionelles Umfeld) nicht signifikante Prädiktoren sind . Bibliometrische Analysen belegen, dass die Entscheidungen einer öffentlichen Förderorganisation für projektbasierte Grundlagenforschung mit dem zukünftigen Publikationserfolg der AntragstellerInnen im Einklang stehen. Das Papier plädiert auch für eine Erweiterung von Ansätzen und Methoden in der Peer-Review-Forschung, indem man sich zunehmend auf den Prozess statt auf das Ergebnis konzentriert und ein vielfältigeres Set von Methoden einbezieht, z. Inhaltsanalyse. Eine solche Erweiterung wird notwendig sein, um die Peer-Review-Forschung über die reichlich behandelten Fragen der Reliabilität, Fairness und Validität hinaus voranzutreiben.;-;-;-;https://link.springer.com/article/10.1007/s11192-008-2220-7 e8efbb93353587d4b4cc757d6de78a43;de;;;3.4.;6.4.;;Institutioneller Wandel und die optimale Größe der Universitäten Die letzten Jahre waren geprägt von einem enormen institutionellen Wandel im Hochschulbereich, der durch weitreichende Hochschulreformen (z. B. Bologna) ausgelöst wurde. Aufbauend auf der Theorie der losen Kopplung gehen wir davon aus, dass sich kleinere Universitäten besser an die Hochschulreformen der letzten Jahre anpassen konnten, was einen Rückgang der optimalen Universitätsgröße in der Reformperiode auslöste. Unter Verwendung eines 12-Jahres-Paneldatensatzes zu den Inputs und Outputs deutscher Universitäten finden wir einen enormen Rückgang der optimalen Universitätsgröße, der durch den Rückgang des optimalen Maßstabs für die Bereitstellung von Lehraktivitäten getrieben wird. Unsere Ergebnisse deuten auch darauf hin, dass dieser Rückgang auch darauf zurückzuführen ist, dass der relativ höhere Verwaltungsaufwand größerer Universitäten in Zeiten des schnellen institutionellen Wandels zu einer organisatorischen Belastung wird.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-2015-1 d81493089d1662dc1d3ece77a37a5a18;de;;;3.4.;6.4.;;„Die Triple-Helix-Kollaboration: Warum arbeiten Forscher mit der Industrie und der Regierung zusammen? Welche Faktoren beeinflussen die wahrgenommenen Barrieren?“ Dieses Papier befasst sich mit vier Fragen: Wie weit ist die Zusammenarbeit zwischen Natur- und Ingenieurwissenschaftlern an kanadischen Universitäten, Regierungsbehörden und Industrie? Was sind die Determinanten dieser Zusammenarbeit? Welche Faktoren erklären die Barrieren für die Zusammenarbeit zwischen Hochschule, Wirtschaft und Regierung? Gibt es Ähnlichkeiten und Unterschiede zwischen den Faktoren, die die Zusammenarbeit erklären, und den Hindernissen für die Zusammenarbeit? Basierend auf einer Umfrage unter 1554 Forschern, die vom Natural Sciences and Engineering Research Council of Canada (NSERC) finanziert wurde, zeigen die Ergebnisse der multivariaten Regressionen, dass verschiedene Faktoren die Entscheidung für eine Zusammenarbeit mit der Industrie und der Regierung erklären. Auch die Ergebnisse unterschieden sich nach den untersuchten Bereichen. Insgesamt zeigen die Ergebnisse, dass die Variablen, die sich auf die strategische Positionierung des Forschers, auf den Aufbau strategischer Netzwerke, auf die Kosten der Produktion des transferierten Wissens und der Transaktionen beziehen, die Zusammenarbeit des Forschers zum großen Teil erklären. Die Ergebnisse der linearen Regression wiesen auf verschiedene Faktoren hin, die die Zusammenarbeit mit Forschenden beeinflussen: Forschungsbudget, Universitätslokalisierung, Radikalität der Forschung, Grad der Risikobereitschaft und Publikationen der Forschenden. Im letzten Teil des Beitrags werden schließlich die Ergebnisse und ihre Bedeutung für die zukünftige Forschung und Theoriebildung vorgestellt.;-;-;-;https://link.springer.com/article/10.1007/s11192-007-0205-6 be546cceb1c9ca87996cc796089d072d;de;;;3.4.;6.4.;;Modellierung der Wissensdiffusion in wissenschaftlichen Innovationsnetzwerken: ein institutioneller Vergleich zwischen China und den USA mit Illustration zur Nanotechnologie Wissen ist ein entscheidendes Gut in Organisationen und seine Diffusions- und Rekombinationsprozesse können durch zahlreiche Faktoren beeinflusst werden. Diese Studie untersucht den Einfluss des Status einzelner Forscher in sozialen Netzwerken auf den Wissensdiffusions- und Rekombinationsprozess. Wir behaupten, dass Wissensdiversität, zufällige Diffusion und parallele Duplikation drei Hauptfaktoren sind, die Diffusionspfade in Wissensnetzwerken charakterisieren. Anhand mehrerer sozialer Netzwerkmaßnahmen untersuchen wir, wie Individuen in den jeweiligen institutionellen Kooperationsnetzwerken die Wissensdiffusion durch wissenschaftliche Arbeiten beeinflussen. Wissenschaftliche Publikationsdaten und Zitationsdaten von sechs produktiven Institutionen in China (Chinese Academy of Sciences) und den Vereinigten Staaten (University of California at Berkeley, University of Illinois, Massachusetts Institute of Technology, Northwestern University und Georgia Institute of Technology) im Bereich Nanotechnologie im Zeitraum 2000–2010 wurden für empirische Analysen verwendet, und das Cox-Regressionsmodell wurde genutzt, um die zeitlichen Beziehungen zwischen Wissensdiffusion und sozialen Netzwerkmessungen von Forschern dieser führenden Institutionen zu analysieren. Die Ergebnisse zeigen, dass strukturelle Lücken und Gradzentralität die effektivsten Maßnahmen sind, um den Wissensverbreitungsprozess innerhalb dieser sechs Institutionen zu erklären. Die Rekombination von Wissen wird hauptsächlich durch parallele Duplizierung innerhalb von Gruppen und die Rekombination unterschiedlichen Wissens über verschiedene Gruppen hinweg erreicht. Die Ergebnisse sind für alle sechs Institutionen ähnlich, mit Ausnahme der Bonacich-Power- und Eigenvektor-Maßnahmen, die kulturelle Unterschiede zwischen Ländern und Institutionen postulieren können.;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1761-9 12fffe35b772dcf6b17867aed7f9f782;de;;;3.4.;6.4.;;Koexistenz von Hochschul-Wirtschaftsbeziehungen und akademischer Forschung: Hemmnis oder Anreiz für wissenschaftliche Produktivität In diesem Artikel analysieren wir, ob und inwieweit Hochschul-Wirtschaftsbeziehungen (UIR) die Forschungstätigkeit benachteiligen und die wissenschaftliche Produktivität von Hochschulforschern hemmen. Die Analyse basiert auf einer Fallstudie von zwei spanischen Universitäten. Wir stellen fest, dass sich UIR nur dann positiv auf die wissenschaftliche Produktivität der Universität auswirken, wenn sie auf der Entwicklung von FuE-Verträgen basieren und die durch diese Aktivitäten erhaltenen Mittel 15% des Gesamtbudgets des Forschers nicht überschreiten. Wir stellen auch fest, dass Forscher, die Forschungs- und UIR-Aktivitäten kombinieren, mehr Mittel aus wettbewerbsfähigen öffentlichen Quellen erhalten als Forscher, die nur Forschung betreiben. Zudem ist ihre durchschnittliche wissenschaftliche Produktivität höher und sie erreichen einen höheren Stellenwert innerhalb ihrer Einrichtungen als die rein forschungsorientierten Lehrenden.;-;-;-;https://link.springer.com/article/10.1007/s11192-007-1877-7 d66ebf3cbdc57751ad61b36e690a2c34;de;;;3.4.;6.4.;;Ein Inno-Qual-Leistungssystem für die Hochschulbildung Aufgrund des allgemeinen Qualitätsverlusts der taiwanesischen Universitäten in den letzten Jahren und des daraus resultierenden drastischen Verlusts von Wettbewerbsvorteilen gegenüber dem Ausland ist die Verbesserung des taiwanesischen Universitätssystems zu einem dringenden Thema geworden, das sofortiger Aufmerksamkeit bedarf. Es gibt Hinweise darauf, dass die Konzentration auf Total Quality Management (TQM) und Innovation der Schlüssel zur effektiven Verbesserung der Betriebsleistung ist und daher dringend empfohlen wird. Obwohl es eine Reihe von Messmodellen für TQM und Innovation gibt, bewerten frühe Modelle die Leistung jedes Elements separat, was die Bewertung ineffizient und für die Praxis ungeeignet macht. Es gibt ein neues Messsystem, das Network Hierarchical Feedback System (NHFS), das das Konzept und die Eigenschaften beider Elemente integriert. Das Hauptanliegen ist jedoch, dass das NHFS keine externe organisationsorientierte Verbesserung wie die Servicequalität berücksichtigt in der Hochschulbildung, insbesondere in der Innovationsorientierung. Aufgrund der oben genannten Dilemmata, mit denen taiwanesische Universitäten konfrontiert sind, hat die Gewinnung von mehr Studenten jetzt außerdem eine große Priorität. Daher argumentieren wir, dass sich die Verbesserung von TQM und Innovation nicht nur auf die interne organisationsorientierte Verbesserung konzentrieren kann, um potenzielle Studenten erfolgreich zu gewinnen, und wir erweitern die Wirksamkeit und Eignung des NHFS zu einem neuartigen und besser nutzbaren Leistungsmessungssystem, dem solid Inno-Qual-Leistungssystem (IQPS). Ein hybrides Modell basierend auf einem Entscheidungsfindungs- und Bewertungslabor, einem Fuzzy-Analytic-Network-Prozess (FANP), einer Wichtigkeits-Leistungs-Analyse nebst Tiefeninterviews, einem Fuzzy-Analytic-Hierarchieprozess und einer Technik zur Reihenfolgepräferenz nach Ähnlichkeit zu einer idealen Lösung wurden angenommen, um den Bau abzuschließen. Das IQPS ist das erste Messsystem mit den effektivsten Eigenschaften von TQM und Innovation, das sowohl für neue als auch für traditionelle Universitäten unterschiedlicher Art eingebettet ist. Es soll die Leistung sowohl auf externer als auch auf interner organisationsorientierter Ebene verbessern und bewerten, um Synergien und Leistungssteigerungen zu generieren.;-;-;-;https://link.springer.com/article/10.1007/s11192-012-0759-9 960b00f28a2e1539431bb667f772b3ba;de;;;3.4.;6.4.;;Führung als autonomes Forschungsfeld: Eine bibliometrische Analyse Dieser Beitrag untersucht, ob Führung als Forschungsgebiet zu einem eigenständigen Feld wird. Unser Hauptargument ist, dass Leadership zu einem der am schnellsten wachsenden akademischen Bereiche in der Hochschulbildung wird, was einen erheblichen Anstieg der Zahl der Veröffentlichungen und Zitationen in diesem Bereich zeigt. Dieses Wachstum wird durch den geringen Förderanteil in diesem Forschungsbereich nicht beeinflusst. Der Anstieg der Zahl der Autoren und wissenschaftlichen Beiträge sichert die Weiterentwicklung dieses Feldes. Darüber hinaus wird Leadership als Studienrichtung in der Wissenschaft institutionalisiert. Vor diesem Hintergrund argumentieren wir, dass es positive Anzeichen dafür gibt, dass Führung in naher Zukunft zu einem eigenständigen Forschungsfeld wird.;-;-;-;https://link.springer.com/article/10.1007/s12115-020-00522-2 be0d0e1f9b67768afd7def9aafcbcdc4;de;;;3.4.;6.4.;;Shapley-Werte zur Bewertung der Forschungsleistung und Wirkung von Schulen und Wissenschaftlern Leistungsmaße einzelner Wissenschaftler neigen dazu, den Kontext zu ignorieren. Ich führe kontextualisierte Metriken ein: kardinale und ordinale Pseudo-Shapley-Werte, die den Beitrag einer Gelehrten zu (vielleicht Macht über) ihrer eigenen Schule und ihren Marktwert für andere Schulen messen, sollte sie den Arbeitsplatz wechseln. Ich veranschauliche die vorgeschlagenen Maßnahmen mit Wirtschaftswissenschaftlern und Wirtschaftshochschulen in Irland. Obwohl konzeptionell überlegen, implizieren die Machtindikatoren ein Ranking der Schüler innerhalb einer Schule, das mit den entsprechenden konventionellen Leistungsmaßen identisch ist. Die Marktwertindikatoren implizieren ein identisches Ranking innerhalb der Schulen und ein sehr ähnliches Ranking zwischen den Schulen. Die ordinalen Indizes kontextualisieren Leistungskennzahlen weiter und weichen somit weiter von den entsprechenden konventionellen Indikatoren ab. Da die Ordnungsmaße konstruktionsbedingt diskontinuierlich sind, ergibt sich eine natürliche Klassifikation der Gelehrten. Über Schulen gemittelt, bieten die Marktwerte kaum zusätzliche Informationen über die entsprechenden Produktions- und Wirkungsmaße. Das Ordnungsmachtmaß zeigt die Robustheit oder Fragilität des Platzes eines Instituts in der Rangordnung an. Sie korreliert nur schwach mit der Konzentration von Publikationen und Zitationen.;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0555-y f8abaa8a6947e305a0238c9c6b1fece4;de;;;3.4.;6.4.;;Tanzen mit der akademischen Elite: Förderung oder Hemmung der Forschungsproduktion? Die akademische Elite verfügt über herausragende Fähigkeiten zur Wissensinnovation, während sie einen Spillover-Effekt auf andere Forschende ausübt. Diese Studie verwendet Daten auf Mikroebene aus Projekten des Management Science Sector der National Natural Science Foundation of China zwischen 2006 und 2010, um die drei Kategorien der finanzierten Elite, der angesehenen jungen Elite und der Cheung Kong-Stipendiaten zu definieren als „Elite“ und ihren individuellen Projektoutput, um den Spillover-Effekt der Elite auf den Wissensoutput anderer Projektleiter innerhalb der Organisation zu untersuchen. Wir fanden heraus, dass die drei Kategorien von Eliten mehr Leistung hatten, während sie einen gemischten Spillover-Effekt auf die Leistung ihrer Institutsforscher erzeugten. Am Ende diskutieren wir die Gründe und die politischen Auswirkungen dieses Phänomens.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-2151-7 616dbddf3abd0c3ca4c633d47987a887;de;;;3.4.;6.4.;;Messung und Bewertung der Entwicklung der Nanotechnologie Die Nanotechnologie verdient einen großen Einfluss auf die Weltwirtschaft, da ihre Anwendungen in praktisch allen Sektoren zum Einsatz kommen werden. Wissenschaftler, Forscher, Manager, Investoren und politische Entscheidungsträger weltweit erkennen dieses enorme Potenzial und haben den Nano-Wettlauf gestartet. Ziel dieses Beitrags ist es, den Stand der Nanotechnologie aus ökonomischer Sicht zu analysieren, indem Daten zu Märkten, Finanzierung, Unternehmen, Patenten und Publikationen präsentiert werden. Es wird sich auch die Frage stellen, wie viel der Nano-Hype auf Wirtschaftsdaten und wie viel auf Wunschdenken beruht. Es konzentriert sich auf einen Vergleich zwischen Weltregionen und konzentriert sich dabei auf Europa und die Europäische Union im Verhältnis zu ihren Hauptkonkurrenten – den Vereinigten Staaten und Japan sowie den aufstrebenden „Nanomächten“ China und Russland.;-;-;-;https://link.springer.com/article/10.1007/s11192-007-0310-6 f61199883d5b146d4b51fea35d1da834;de;;;3.4.;6.4.;;Die Evaluation von Fakultäten und deren Wissenschaftlerinnen und Wissenschaftlern: Einige allgemeine Überlegungen mit Bezug auf exemplarische bibliometrische Publikations- und Zitationsanalysen für eine Fakultät für Psychologie Anhand einer exemplarischen bibliometrischen Publikations- und Zitationsanalyse für einen Universitätslehrstuhl für Psychologie werden einige allgemeine konzeptionelle und methodische Überlegungen zur Evaluation von Universitätslehrstühlen und deren Wissenschaftlerinnen und Wissenschaftlern vorgestellt. Die Daten beziehen sich auf Publikations- und Citation-by-Others-Analysen (PsycINFO, PSYNDEX, SSCI und SCI) für 36 wissenschaftliche Mitarbeiter/innen aus dem Tenure-Personal des zu untersuchenden Departments sowie vertrauliche Interviews mit Selbst- und Kollegen- Wahrnehmungen mit sieben der untersuchten Stichprobe. Die Ergebnisse deuten auf (1) schiefe (Pareto-)Verteilungen aller bibliometrischen Variablen, die nichtparametrische statistische Analysen erfordern, (2) drei persönlich identische Ausreißer, die von einigen statistischen Analysen ausgeschlossen werden müssen, (3) eher niedrige Rangkorrelationen der Publikation und Zitationshäufigkeit mit einer gemeinsamen Varianz von ca. 15 %, (4) nur schwache Interdependenzen bibliometrischer Variablen mit Alter, Berufserfahrung, Geschlecht, akademischem Status und Engagement in der Grundlagenforschung gegenüber angewandter Forschung, (5) empirische Angemessenheit und Nützlichkeit eines normativen typologischen Modells zur Bewertung der Forschungsproduktivität und -wirkung von Wissenschaftlern, die auf Kreuzklassifikationen in Bezug auf die Anzahl der Publikationen und die Häufigkeit der Zitationen anderer Autoren basiert, und (6) geringe Interrater-Reliabilitäten und Validität von;-;-;-;https://link.springer.com/article/10.1007/s11192-007-1900-z 3d88a7a771de817311cd48deefd28735;de;;;3.4.;6.4.;;Quantifizierung des Nutzens der Teilnahme an einem Forschungszentrum der Industrieuniversität: Eine Untersuchung zur Vermeidung von Forschungskosten Die Herausforderungen bei der Durchführung valider und vollständiger Ergebnisbewertungen kooperativer Forschungsaktivitäten, wie dem Programm der National Science Foundation Industry/University Cooperative Research Centers (IUCRC), sind entmutigend. Die aktuelle Studie versucht einen kleinen, aber wichtigen Beitrag zu diesem Bereich zu leisten, indem versucht wird, quantitative Schätzungen des Nutzens eines Zentrums – der Vermeidung von FuE-Kosten – zu entwickeln. Kostenvermeidung wird operationalisiert als F&E-Kosten, die den Industriemitgliedern entstanden wären, aber nicht entstanden sind, weil sie an universitären Industriekonsortien beteiligt waren, abzüglich der Kosten für die Zugehörigkeit zu den Konsortien. Es wurden Daten von insgesamt 18 Industriesponsoren von drei IUCRCs zu 35 verschiedenen Forschungsprojekten gesammelt. Die Ergebnisse deuten darauf hin, dass einige Unternehmen FuE-Kosten vermeiden, indem sie an einer IUCRC teilnehmen, aber die Prävalenz dieses Vorteils variiert zwischen den Zentren und zwischen den Unternehmen. Die Implikationen dieser Ergebnisse für Politik, Praxis und zukünftige Forschung werden diskutiert.;-;-;-;https://link.springer.com/article/10.1023/A%3A1026236626942 5d5e718d4dda935d205d6c702d01ff54;de;;;3.4.;6.4.;;Nutzung von Patentinformationen in der F&E-Outputanalyse für die Politikgestaltung Dieses Papier gibt einen Einblick in die wachsende Bedeutung und Bedingungen der Untersuchung von FuE-Output und -Auswirkungen sowie der Internationalisierung von FuE. Es konzentriert sich auf politische Bedürfnisse und trägt zur Entwicklung der Informationsbasis und zur Erarbeitung neuer Ansätze bei, die auf die Nutzung unerforschter Patentinformationen für die Analyse der industriellen F&E-Leistung und Verlagerung abzielen. Dieser Ansatz ergänzt die im Rahmen des EU-Anzeigers für industrielle FuE-Investitionen der Europäischen Kommission gesammelten Informationen.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03236-3 bcf83d1ca9a830ec60a2aaf39a489733;de;;;3.4.;6.4.;;Organisatorische Einflussfaktoren auf die wissenschaftliche Leistung: eine multivariate Studie biomedizinischer Forschungsgruppen Bibliometrische Studien messen und vergleichen häufig wissenschaftliche Leistungen, aber sie untersuchen selten, warum Universitäten, Fachbereiche und Forschungsgruppen unterschiedliche Leistungen aufweisen. In diesem Beitrag versuchen wir, Unterschiede in der wissenschaftlichen Leistung von Forschungsgruppen anhand von organisatorischen Variablen zu erklären. Dazu prüfen wir ausführlich die einschlägige Literatur und entwickeln ein Modell mit zwei theoretischen Ansätzen. Eine multivariate Analyse zeigt, welche der unabhängigen Variablen in den verschiedenen wissenschaftlichen Leistungsdimensionen eine Rolle spielen. Die Studie zeigt, welche organisatorischen Strategien zur Leistungsoptimierung in verschiedenen Dimensionen beitragen können. Implikationen werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1437-x cb19d1759ed146bdb603e5a7f5a95dbc;de;;;3.4.;6.4.;;Akademische Innovationsforschung: eine Länderanalyse Viele Länder investieren viel in Innovation, um ihre Volkswirtschaften zu modernisieren. Ein wichtiger Schritt in diesem Prozess ist die Entwicklung der akademischen Innovationsforschung. Dieser Artikel analysiert die führenden Länder in der Innovationsforschung zwischen 1989 und 2013 aus wissenschaftlicher Perspektive. Ziel der Studie ist es, die relevantesten Länder in diesem Bereich und die führenden Trends der letzten Jahre zu identifizieren. Die Arbeit führt auch eine allgemeine Perspektive ein, die die in mehreren supranationalen Regionen entwickelte Forschung analysiert. Der Hauptvorteil dieses Beitrags besteht darin, dass er einen globalen Überblick über den aktuellen wissenschaftlichen Stand in diesem Bereich gibt. Die Analyse konzentriert sich auf die produktivsten und einflussreichsten Länder in der Innovationsforschung und ordnet die Ergebnisse in Zeiträume von 5 Jahren ein. Die führenden Zeitschriften auf diesem Gebiet werden auch einzeln untersucht, wobei die produktivsten Länder in jeder der Zeitschriften identifiziert werden. Die Ergebnisse zeigen, dass die Veröffentlichungen jedes Landes von der Herkunft der Zeitschrift beeinflusst werden. Die USA und Großbritannien sind die führenden Länder in diesem Bereich, wobei Großbritannien unter den großen Ländern das pro Kopf produktivste ist.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-1984-4 e4faed19d3f8f38c4d2cc8237e9c5bdd;de;;;3.4.;6.4.;;Direkte Interaktionen der Fakultätsmitglieder der medizinischen Fakultät mit Fach- und Führungskräften, die in Organisationen des öffentlichen und privaten Sektors arbeiten: Eine Querschnittsstudie Die Forschungsfragen lauten wie folgt: Inwieweit haben die Fakultätsmitglieder der kanadischen medizinischen Fakultäten persönliche Interaktionen mit Personen, die in Organisationen des öffentlichen und privaten Sektors arbeiten? Was sind die Merkmale der Fakultätsmitglieder der kanadischen medizinischen Fakultät, die mit Personen interagieren, die in diesen Arbeitsumgebungen arbeiten? Sind diese unterschiedlichen Netzwerkmuster komplementär oder ersetzen sie? Die für diese Studie verwendeten Daten stammen aus einer Querschnittsbefragung von Fakultätsmitgliedern kanadischer medizinischer Fakultäten (n = 907). Strukturelle multivariate geordnete Probit-Modelle wurden geschätzt, um die Eigenschaften von Fakultätsmitgliedern mit unterschiedlichen Netzwerkmustern zu untersuchen und zu sehen, ob diese Netzwerkmuster komplementär oder ersetzend sind. Die Studienergebnisse legen nahe, dass die verschiedenen in der Studie betrachteten Netzwerkmuster nicht widersprüchlich sind, sondern dass einige Muster unterschiedlichen Profilen von Fakultätsmitgliedern entsprechen.;-;-;-;https://link.springer.com/article/10.1007/s11192-007-1731-y 82d61582b9a5a5bdca0e982ea3f5f0fd;de;;;3.4.;6.4.;;Auf der Suche nach den Auswirkungen von Peer-Reviews: Sagt die Anzahl der Förderbestätigungen wirklich die Auswirkungen der Forschung voraus? Eine kleine Anzahl von Studien hat versucht, festzustellen, dass Forschungsarbeiten mit mehr Förderanerkennungen eine größere Wirkung erzielen, und haben behauptet, dass eine solche Verbindung besteht, weil Forschung, die von mehr Fördereinrichtungen unterstützt wird, mehr Peer-Reviews unterzogen wird. In diesem Artikel wird dieser Link anhand kürzlich verfügbarer Daten aus dem Web of Science getestet, einer Quelle für bibliografische Daten, die jetzt auch Finanzierungsbestätigungen enthält. Die Analyse verwendet 3.596 Artikel aus einem einzigen Jahr, 2009, und einer einzigen Zeitschrift, dem Journal of Biological Chemistry. Die Analyse dieser Daten mittels OLS-Regression und Zwei-Rang-Tests zeigt, dass der Zusammenhang zwischen der Anzahl der Finanzierungsbestätigungen und hochwirksamen Papieren statistisch signifikant, aber schwach ist. Es wird der Schluss gezogen, dass die Zahl der Förderzusagen nicht als zuverlässiger Indikator für die Forschungswirkung auf dieser Ebene angesehen werden sollte. Dementsprechend sind Indikatoren, die auf Annahmen basieren, die auf einer Analyseebene zutreffen können, auf anderen Ebenen möglicherweise nicht angemessen.;-;-;-;https://link.springer.com/article/10.1007/s11192-012-0779-5 ff8502872cf39bd69c818a1ef97ff10b;de;;;3.4.;6.4.;;Entwicklung eines Tools zur genauen Vorhersage der Zuweisung von britischen REF-Mitteln Das Verständnis der Determinanten der Zuweisung von Forschungsmitteln durch Fördereinrichtungen, wie das Research Excellence Framework (REF) im Vereinigten Königreich, ist von entscheidender Bedeutung, um Institutionen bei der Vorbereitung ihrer Forschungsqualitätsbewertungen zu unterstützen. In diesen Bewertungen würden nur Publikationen mit einer Bewertung von 4* oder 3* (aber nicht 2* oder weniger) gefördert. Korrelationsstudien haben gezeigt, dass der Impact Factor (IF) einer Publikation mit REF-Rankings verknüpft ist. Die genauen IF-Grenzen, die zu jedem Rang führen, sind jedoch unbekannt. Würde beispielsweise eine Publikation mit einem IF von 5 mit 4* oder weniger eingestuft werden? Hier stellen wir ein Tool zur Verfügung, das den Rang jeder eingereichten Publikation vorhersagt, um (1) Forschern bei der Auswahl einer Publikationsplattform zu helfen, die mit größerer Wahrscheinlichkeit zur Einreichung ihrer Forschungsergebnisse durch die Fakultätsleiter bei der nächsten REF-Bewertung führen würde, wodurch potenziell Verbesserung ihres akademischen Profils und (2) Unterstützung der Fakultätsleiter bei der Entscheidung, welche Ergebnisse zur Bewertung eingereicht werden sollen, wodurch ihre zukünftigen REF-Ergebnisse und letztendlich ihre Forschungsförderung maximiert werden. Zunächst haben wir unser Tool auf die REF (: Institutions Ranking by Subject (;-;-;-;https://link.springer.com/article/10.1007/s11192-021-04030-w f2b6c313540a3dcb5195f94b84ab042e;de;;;3.4.;6.4.;;Die Gap-Analyse zwischen der chinesischen pharmazeutischen Wissenschaft und der Industrie von 2000 bis 2018 Die Zahl der Veröffentlichungen in Pharmazeutika von chinesischen Hochschulen weltweit belegte 2014 weltweit den zweiten Platz. Die F&E-Kapazität der chinesischen Pharmaindustrie bleibt jedoch mit 373 Milliarden USD deutlich hinter ihrem weltweit zweiten Markt zurück. Die Studie zielt darauf ab, die Lücken zwischen der chinesischen Wissenschaft und der Industrie in der Pharmazie zu analysieren. Publikationen, nationale Förderprogramme und postgraduale Ausbildung wurden analysiert, um den akademischen Output zu identifizieren. F&E-Ausgaben, Forschungswissenschaftler und vermarktete Produkte wurden untersucht, um die industrielle Nachfrage zu bewerten. Die chinesische Publikationszahl in der Pharmazie wächst stark und belegt 2017 weltweit den ersten Platz. Die heißen Felder chinesischer Wissenschaftler konzentrierten sich auf Nanomedizin und Genverabreichung, während die Mehrheit der Produkte in chinesischen Pharmaunternehmen noch konventionelle Darreichungsformen (z. B. Tabletten, Kapseln und Injektionen) waren. . Auf der anderen Seite ist die Zahl der Ph.D. Absolventen der Pharmazie hielten von 2000 bis 2018 eine relativ niedrige Produktion, die die wachsende Nachfrage hochrangiger Formulierungswissenschaftler aus der chinesischen Pharmaindustrie ernsthaft verfehlte. Darüber hinaus wurde die Entwicklung des chinesischen Arzneimittelverwaltungssystems von 1978 bis 2018 detailliert zusammengefasst, analysiert und diskutiert, da die Regierungspolitik die Wissenschaft und die pharmazeutische Industrie stark beeinflusst. Es werden zwei Vorschläge gemacht, um die Lücken zwischen der chinesischen Wissenschaft und der pharmazeutischen Industrie zu schließen. Einerseits sollten chinesische Universitäten das akademische Bewertungssystem von der Publikationsorientierung hin zu einer vielfältigeren Wissenschaft und bedarfsorientierten Forschung verlagern. Auf der anderen Seite sind eher industrieorientierte Ph.D. Absolventen sollen für die steigende Nachfrage der Pharmaindustrie ausgebildet werden. Als zweitgrößter Markt der Welt wird die chinesische Pharmaindustrie in den nächsten 5–10 Jahren mit enormen Fortschritten konfrontiert sein.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03313-7 cf550bdbbcfa8d022bbe70453b55e7c0;de;;;3.4.;6.4.;;Die Wirkung einer Forschungsprofessur auf die Produktivität von Wissenschaftlern Nach der Kombination von Daten zur Finanzierung von Wissenschaftlern aus Quebec und zur Veröffentlichung in Zeitschriften testet dieses Papier die Auswirkungen der Besetzung eines Forschungslehrstuhls auf die Leistung eines Wissenschaftlers. Die Neuheit dieser Arbeit besteht darin, mithilfe einer Matching-Technik zu verstehen, ob die Besetzung eines Forschungslehrstuhls zu einer besseren wissenschaftlichen Leistung beiträgt. Diese Methode vergleicht zwei verschiedene Regressionssätze, die an unterschiedlichen Datensätzen durchgeführt werden: einen mit allen Beobachtungen und einen anderen nur mit den Beobachtungen der übereinstimmenden Wissenschaftler. Zwei Lehrstuhl- und Nichtlehrstuhl-Wissenschaftler gelten als übereinstimmend, wenn sie in Bezug auf Geschlecht, Forschungsgebiet und Förderhöhe den besten Propensity-Score aufweisen. Die Ergebnisse zeigen, dass die Besetzung eines Forschungslehrstuhls eine signifikante Determinante der wissenschaftlichen Produktivität im gesamten Datensatz ist. Wenn jedoch nur übereinstimmende Wissenschaftler im Datensatz gespeichert werden, hat die Besetzung eines kanadischen Forschungslehrstuhls einen signifikanten positiven Einfluss auf die wissenschaftliche Leistung, während andere Arten von Lehrstühlen keinen signifikanten Einfluss haben. Mit anderen Worten, bei zwei ähnlichen Wissenschaftlerinnen und Wissenschaftlern in Bezug auf Geschlecht, Forschungsförderung und Forschungsfeld beeinflusst die alleinige Besetzung eines kanadischen Forschungslehrstuhls die wissenschaftliche Leistung signifikant.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-1848-y df6c5ba17ff676895c69408eb2c45d03;de;;;3.4.;6.4.;;Veränderungen der wissenschaftlichen Wissensproduktion und Forschungsproduktivität in einer Übergangsgesellschaft Das Hauptziel dieser Arbeit ist es, einen empirischen Einblick in die Veränderungen der grundlegenden Eigenschaften des Wissensproduktionsmodus und der wissenschaftlichen Produktivität im kroatischen Forschungssystem in der Übergangszeit zu geben. Die empirische Analyse basiert auf den Ergebnissen zweier vergleichbarer Fragebogenstudien. Die erste Umfrage wurde 1990 durchgeführt und umfasst 921 Teilnehmer, während die zweite Umfrage 2004 mit 915 Teilnehmern durchgeführt wurde. Die zentralen Merkmale des Wissensproduktionsmodus und der Produktivität bestätigen eine erwartete Dualität: die mit der Einführung eines kompetitiven Forschungsförderungs- und Evaluationssystems einhergehenden Merkmale einerseits und die anachronistische und neu erworbene Eigentümlichkeit des Forschungssystems andererseits . Damit hat sich die Kluft zwischen der verbesserten wissenschaftlichen Leistung der Forscher und den Bedingungen, unter denen sie arbeiten, vertieft. Die wissenschaftliche Produktivität hinkt der Produktivität der (entwickelten) Länder noch hinterher. Obwohl kroatische Forscher weniger veröffentlichen, folgen sie grundlegenden globalen Trends in der Publikationsstruktur, insbesondere dem Anstieg ausländischer und gemeinsam verfasster Werke.;-;-;-;https://link.springer.com/article/10.1007/s11192-007-1760-6 629f0cc7c3b48f94c4f6b7c5e53172e0;de;;;3.4.;6.4.;;Beweis statt Versprechen: Hin zu einem inklusiveren Ranking niederländischer Akademiker in Wirtschaftswissenschaften Die Top-40 der Dutch Economics, basierend auf Veröffentlichungen in ISI-gelisteten Zeitschriften, ist nach unserem besten Wissen das älteste Ranking einzelner Wirtschaftswissenschaftler und wird in der niederländischen akademischen Gemeinschaft gut akzeptiert. Dieses Ranking basiert jedoch auf Veröffentlichungen;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1370-z 5802e5092779dda371360ba4b21301bf;de;;;3.4.;6.4.;;Wie kann man die wissenschaftliche Produktion steigern? Eine statistische Analyse der Forschungsförderung und anderer Einflussfaktoren Dieser Beitrag analysiert den Einfluss verschiedener Einflussfaktoren auf die wissenschaftliche Produktion von Forschern. Zeitbezogene statistische Modelle für den Zeitraum 1996 bis 2010 werden geschätzt, um die Auswirkungen der Forschungsförderung und anderer bestimmender Faktoren auf die Quantität und Qualität der wissenschaftlichen Leistung einzelner geförderter Forscher in den kanadischen Natur- und Ingenieurwissenschaften zu bewerten. Die Ergebnisse bestätigen einen positiven Einfluss der Förderung auf die Quantität und Qualität der Publikationen. Darüber hinaus wird die Existenz des Matthäus-Effekts teilweise bestätigt, so dass die Reichen reicher werden. Obwohl ein positiver Zusammenhang zwischen dem Erwerbsalter und der Veröffentlichungsrate beobachtet wird, zeigt sich, dass sich das Erwerbsalter negativ auf die Qualität der Werke auswirkt. Darüber hinaus deuten die Ergebnisse darauf hin, dass junge Forscher, die in großen Teams arbeiten, eher qualitativ hochwertige Publikationen produzieren. Wir fanden auch heraus, dass, obwohl akademische Forscher eine größere Menge an Veröffentlichungen produzieren, die Forscher mit Industriebezug von höherer Qualität sind. Schließlich haben wir festgestellt, dass strategische, zielgerichtete und hochpriorisierte Förderprogramme zu einer höheren Quantität und Qualität der Publikationen führen.;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1825-x c363af83b8bfe871c63f3ff05b2f033e;de;;;3.4.;6.4.;;Eine eingehende Analyse der staatlichen Förderung und der internationalen Zusammenarbeit in der wissenschaftlichen Forschung Basierend auf Veröffentlichungen, die im Web of Science indiziert sind, konzentrierte sich die aktuelle Studie auf international kollaborierte Veröffentlichungen und Veröffentlichungen, die die staatliche Förderung von Entwicklungs- und Industrieländern wie China, USA, Deutschland, Niederlande, Südafrika und Brasilien anerkennen. Ein besonderer Fokus liegt auf nationalen Förderagenturen (d. h. Focal Agency), die wettbewerbsfähige Forschung in der Wissenschaft unterstützen. Zu den Schwerpunktagenturen der sechs Länder gehören die National Natural Science Foundation of China (NSFC), die US National Science Foundation (NSF), die Deutsche Forschungsgemeinschaft, die Niederländische Organisation für wissenschaftliche Forschung (NWO), die National Research Foundation of South Africa (NRF .). ) und Nationaler Rat für wissenschaftliche und technologische Entwicklung Brasiliens (CNPq). Die Ergebnisse zeigen, dass verschiedene Länder unterschiedliche staatliche Finanzierungsquellen zur Unterstützung wettbewerbsfähiger Forschungsprojekte arrangieren. China und Brasilien sind bei NSFC und CNPq zentralisiert, während die verbleibenden vier Länder relativ dezentrale Quellen haben. Die sechs zentralen nationalen Förderagenturen der aktuellen Studie sind bei der Steigerung der Zitationswirkung effizienter als nicht-fokussierte Agenturen, wobei NWO, NSF und NSFC besser abschneiden als nicht-fokussierte Agenturen der entsprechenden Länder. Die internationale Zusammenarbeit verbessert die Zitationswirkung, die Entwicklungsländer profitieren stärker. Auch in der internationalen Zusammenarbeit spielt die Autorenschaft (Erst- oder Korrespondenzautorschaft) eine Rolle. Die Zusammenarbeit von Autoren aus Industrieländern hat einen positiven Effekt, während die Zusammenarbeit von Autoren aus Entwicklungsländern in der Regel negative Auswirkungen auf die Zitationswirkung hat. Die Interaktion zwischen Finanzierung und Zusammenarbeit kann zu anderen Ergebnissen führen als bei einer getrennten Betrachtung dieser beiden Faktoren, was darauf hindeutet, bei der Diskussion der Auswirkungen eines der beiden Faktoren vorsichtig zu sein.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03595-2 fe44b5c2c418a68a353ba85eaf714f6b;de;;;3.4.;6.4.;;Hinweis zur geografischen Konzentration des wissenschaftlichen Personals in den USA Theorien über die Größe und das Wachstum von Städten gehen davon aus, dass Innovation in größeren Städten häufiger vorkommt. In diesem Papier wird die Beziehung zwischen drei Maßen für die wissenschaftliche Beschäftigung und der Bevölkerung von US-amerikanischen Metropolregionen getestet. Elastizitäten der wissenschaftlichen Beschäftigung in Bezug auf die Stadtgröße und nichtlineare Funktionen der Stadtgröße deuten darauf hin, dass die Innovationsfähigkeit der größten städtischen Gebiete von 196 bis 1972 etwas zurückgegangen ist die Vorteile der urbanen Größe.;-;-;-;https://link.springer.com/article/10.1007/BF02025633 6dbe3aa9b8fe6d7a4ad71a20bae53d6c;de;;;3.4.;6.4.;;Forschungsorientierte Klassifikation und Rangordnung im Hochschulbereich: eine empirische Bewertung einer rumänischen Politikerfahrung In diesem Beitrag untersuchen wir das Problem der Hochschulklassifikation und ihre Beziehung zu Ranking-Praktiken im politischen Kontext einer offiziellen Evaluation rumänischer Hochschulen und ihrer Studienprogramme. Wir diskutieren zunächst die Bedeutung der Forschung im staatlich unterstützten Bewertungsprozess und analysieren die Bewertungsmethodik und die daraus resultierenden Ergebnisse. Basierend auf offiziellen Dokumenten und Daten zeigen wir, dass die rumänische Klassifikation der Universitäten in ihrer Konzeption implizit hierarchisch war und daher aufgrund ihrer engen Verbindung mit dem Ranking von Studiengängen und ihrer starken Abhängigkeit von Forschungsergebnissen auch hierarchische Ergebnisse hervorbrachte. Anschließend untersuchen wir anhand eines eindeutigen Datensatzes zur Forschungsleistung von 1385 Fakultätsmitgliedern, die in den Bereichen Politikwissenschaft, Soziologie und Marketing arbeiten, die Unterschiede zwischen Universitätskategorien. Wir stellen fest, dass unsere alternative Einschätzung der Forschungsproduktivität – gemessen mit Hilfe von Hirschs;-;-;-;https://link.springer.com/article/10.1007/s11192-016-1860-2 731918dbb2e617320d3fd902fd024595;de;;;3.4.;6.4.;;Supply Chain Management: Erkundung der intellektuellen Struktur Der Zweck dieses Artikels besteht darin, die intellektuelle Struktur des Supply Chain Management-Bereichs durch den Einsatz einer Co-Citation-Methode zu untersuchen. Die Daten (4652 Artikel und 145.242 Referenzen) wurden aus der Online-Datenbank Web of Science gesammelt. Die Autorenproduktivität und 41 häufig zitierte Artikel wurden durch Zitier- und Dokument-Ko-Zitat-Analysen identifiziert. Als Ergebnis dieser Studie wurden vier Kernthemen der Supply-Chain-Management-Forschung identifiziert: nachhaltiges Supply-Chain-Management, strategischer Wettbewerb, Informationswert und Entwicklung des Supply-Chain-Managements. Diese Studie veranschaulicht die Verschiebung der intellektuellen Struktur von SCM und zeigt Forschungsprioritäten wie Nachhaltigkeit im Supply Chain Management, Beziehungen zwischen Organisationen, Bullwhip-Effekt innerhalb der Supply Chain und Leistungsmessung im Supply Chain Management auf. Diese Studie impliziert, dass Manager sich bemühen sollten, effektive Leistungsmessungen im Lieferkettenmanagement zu formulieren und Informationen innerhalb der Lieferkette auszutauschen, um den Bullwhip-Effekt zu mildern.;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1680-9 22bc36ad3dca6f1967ee5254ae4dbf43;de;;;3.4.;6.4.;;"Aufbau der Genealogie der Internationalisierung von Familienunternehmen: ein bibliometrischer Mixed-Method-Ansatz Das Papier zielt darauf ab, die Genealogie der Literatur zur Internationalisierung von Familienunternehmen (IFB) aufzubauen, indem die ""Väter"" (die wichtigsten Papiere auf diesem Gebiet), ""Vorfahren"" (diejenigen, auf denen die Väter aufgebaut wurden) und "" Nachkommen' (die neuesten Veröffentlichungen und Themen) des Forschungsgebiets. Die Ergebnisse stammen aus einer vollständigen Datenbank, auf der wir einen bibliometrischen Mixed-Method-Ansatz verwendet haben, indem wir nacheinander Zitationsanalysen, Kozitationsanalysen und bibliografische Kopplungen einsetzten. Unsere Analyse bereichert die akademische Debatte zum IFB um ein besseres Verständnis der Wissensstruktur des Feldes (Ursprünge, theoretische Wurzeln und Entwicklungen), schlägt gleichzeitig eine sequentielle Verwendung verschiedener bibliometrischer Methoden vor und liefert einen methodischen Beitrag.";-;-;-;https://link.springer.com/article/10.1007/s11192-020-03755-4 29c09e84c85bffc333963de14f76b88b;de;;;3.4.;6.4.;;Peer-Review und überwettbewerbliche Forschungsfinanzierung fördern die Mainstream-Meinung zum Monopol Ziel des Peer-Reviews ist es, die Spreu vom Weizen für die Publikations- und Forschungsförderung zu trennen. Im übermäßigen Wettbewerb würde dieser Mechanismus nur den Weizen des Mainstreams selektieren. Bisher beschränken sich fast alle Diskussionen über die Folgen der Mängel von Peer Review auf die qualitative Beschreibung. Ich schlage ein Modell eines „Peer-Group-Assessed-Grant-Based-Funding-Systems“ in Kombination mit einem Tenure-System und einem überwettbewerblichen Begutachtungsprozess für die Forschungsförderung vor. Es ist das erste zur quantitativen Untersuchung, das die gegenwärtigen Mängel des Prozesses dramatisiert. Meine Simulation zeigt, dass es etwa zwei oder drei Generationen von Forschern braucht, bis der Mainstream eines komplizierten Forschungsthemas allein mit Hilfe des im Modell beschriebenen Mechanismus die Monopolherrschaft erlangt. Basierend auf den Berechnungsergebnissen werden Vorschläge gemacht, um den Verlust der Selbstkorrekturfähigkeit bei Popularitäts-bestimmter einzelner Forschungsrichtung zu vermeiden, die bei sehr komplizierten Forschungsthemen falsch sein könnte.;-;-;-;https://link.springer.com/article/10.1007/s11192-010-0323-4 1be74fe1d1cefaf9691cc9d8d8ebb142;de;;;3.4.;6.4.;;Öffentlich-private Interaktionen, die sich in den Finanzierungsbestätigungen widerspiegeln Die Partnerschaft zwischen dem öffentlichen und dem privaten Sektor wurde mit verschiedenen Methoden untersucht, unter anderem bieten wissenschaftliche Artikel eine objektive Möglichkeit, einige dieser öffentlich-privaten Interaktionen zu quantifizieren und zu bewerten. Das vorliegende Papier nutzt den Abschnitt „Finanzierungsbestätigungen“ (FA), der in englischsprachigen WoS-Artikeln enthalten ist, und untersucht einige Merkmale der geförderten Forschung, wie z. B. Wirkung und Zusammenarbeit. Zu diesem Zweck werden Artikel mit;-;-;-;https://link.springer.com/article/10.1007/s11192-016-2032-0 347acbfd38a6bf101ab0181a86b719ed;de;;;3.4.;6.4.;;Organisatorische Ambidextrie: Erkundung der Wissensbasis Die vorliegende Forschungsarbeit zeigt die Ergebnisse einer Analyse der vorhandenen Literatur zu einem der „Themen“, das derzeit bei Wissenschaftlern und Forschern in den Bereichen Strategisches Management und Organisationswissenschaft zunehmendes Interesse weckt, nämlich: organisationale Ambidextrie. Genauer gesagt, um die intellektuelle Struktur oder Wissensbasis der in Bezug auf dieses Konstrukt entwickelten Forschung zu identifizieren und zu visualisieren, wurde beschlossen, insgesamt 283 Forschungsarbeiten zu analysieren, die nach der Veröffentlichung in der Zeitschrift erschienen sind;-;-;-;https://link.springer.com/article/10.1007/s11192-016-1897-2 f00930eec53e9762aef9cc43c1e75497;de;;;3.4.;6.4.;;Peer-Review und überwettbewerbliche Forschungsfinanzierung, die die Mainstream-Meinung zum Monopol begünstigen. Teil II In unserer bisherigen Arbeit (Scientometrics 87:293-301, 2011) wurde ein numerisches Modell der überkompetitiven Forschungsförderung im „Peer-Group-Assessed-Grant-Based-Funding-System“ vorgeschlagen und der Prozess zunächst quantitativ untersucht. Die Simulationsergebnisse zeigen, dass der Mainstream eines sehr komplizierten Forschungsthemas allein mit Hilfe des im Modell beschriebenen Mechanismus die Monopolherrschaft erlangen könnte. Dabei werden die Veröffentlichungszahlen der Kosmologie bis 1950 herangezogen, um diesen positiven Rückkopplungsmechanismus empirisch zu testen. Die Entwicklung der drei Haupttheorien der Kosmologie, Urknall, Steady State und Plasmauniversum, wird erneut untersucht. Die beiden letzteren, die nicht zum Mainstream gehören, erklären beide in ihren von Experten begutachteten Papieren, dass ihre Theorien zu den Phänomenen passen, die die Standardtheorie unterstützen. Die Quoten der Veröffentlichungen der orthodoxen Theorie Urknall genügen in etwa den numerischen Rechenergebnissen unseres Modells. Der Grund für die Diskrepanz zwischen Modell und Ist-Situation wird diskutiert. Eine weitere Frage zur Kontroverse wird gestellt.;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0526-3 f74481a7c590c69ce3e7f938c56b2a49;de;;;3.4.;6.4.;;Abbildung der Dynamik der Wissensbasis von Innovationen von F&E in Bangladesch: Triple-Helix-Perspektive Triple Helix (TH)-Kooperationen zwischen Universität, Industrie und Regierung bieten eine vernetzte Infrastruktur, um die dynamischen Wissensflüsse von Innovationen vor Ort zu gestalten, und diese Flüsse bleiben innerhalb der Domänen entstehen. Diese Studie bildet diese Emergenzdynamik der Wissensbasis von Innovationen von Forschung & Entwicklung (F&E) ab, indem sie den Längsschnitttrend der Systemhaftigkeit innerhalb der vernetzten Forschungsbeziehungen in Bangladesch nach dem TH-Modell untersucht. Die bibliometrischen Daten von Veröffentlichungen aus dem Science Citation Index (SCI), den Sozialwissenschaften und den Geisteswissenschaften zur Analyse von Wissenschaftsindikatoren und die vom US-Patentamt gesammelten Patentdaten zur Analyse der Patenterfolgsquote als Maß für Innovation innerhalb von TH-Domains. Die Ergebnisse zeigen, dass sich die Netzwerkdynamik je nach F&E-Politik der Regierung stark verändert hat. Die Kooperationsmuster der Co-Autorenschaftsbeziehungen in den SCI-Publikationen nahmen von 1996 bis 2006 mit einigen Abweichungen deutlich zu. Dennoch wurde die interinstitutionelle Zusammenarbeit in den letzten 5 Jahren durch die nationale Wissenschafts- und Technologieforschungspolitik (W&T) negativ beeinflusst aufgrund deren Bewertungskriterien. Schließlich zeigen die Ergebnisse, dass sich das F&E-System Bangladeschs noch immer in einem Prozess der Institutionalisierung von W&T befindet und es versäumt hat, seine Forschungskapazität zum Aufbau der Wissensbasis von Innovationen durch Vernachlässigung der Netzwerkeffekte der TH-Dynamik zu stärken.;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0507-6 33ee5dcb4ee535a660ef1da86e098087;de;;;3.4.;6.4.;;Auswirkungen des Geschlechts und der beruflichen Stellung des Wissenschaftlers auf die Publikationsproduktivität in verschiedenen Publikationstypen. Analyse einer finnischen Universität Dieser Beitrag untersucht die Auswirkungen der Position und des Geschlechts eines Wissenschaftlers auf die Veröffentlichungsproduktivität in verschiedenen Arten von wissenschaftlichen Publikationen: Monographien, Artikel in Zeitschriften, Artikel in herausgegebenen Büchern und Artikel in Konferenzbänden. Die Daten bestehen aus 1.367 Wissenschaftlern, die im Zeitraum 2002-2004 an der Universität Helsinki, Finnland, gearbeitet haben. Die Analyse zeigt, dass Professoren am produktivsten sind, Doktoranden mehr veröffentlichen als Nicht-Doktoranden und Männer besser abschneiden als Frauen, auch wenn andere wissenschaftliche Merkmale berücksichtigt werden. Diese Unterschiede sind bei Monographien und Artikeln in Sammelbänden größer als bei Artikeln in Zeitschriften. Bei den Tagungsbänden wurden keine nennenswerten Produktivitätsunterschiede festgestellt.;-;-;-;https://link.springer.com/article/10.1007/s11192-009-0037-7 d08cb62cb6aacebd44b7153785389f4f;de;;;3.4.;6.4.;;Internationalists and Locals: Internationale Forschungskooperationen in einem ressourcenarmen System In dieser Studie wird hauptsächlich zwischen „Internationalisten“ und „Einheimischen“ unterschieden. Erstere sind Wissenschaftler, die an internationalen Forschungskooperationen beteiligt sind, während letztere nicht. Diese beiden unterschiedlichen Arten von Wissenschaftlern konkurrieren um akademisches Prestige, Forschungsfinanzierung und internationale Anerkennung. Die internationale Forschungskooperation erweist sich als starke stratifizierende Kraft. Als klar definierte Untergruppe sind Internationalisten eine andere akademische Spezies, die 51,4% der polnischen Wissenschaftler ausmachen, überwiegend männlich und älter, sie haben längere akademische Erfahrung und höhere akademische Abschlüsse und besetzen höhere akademische Positionen. Über alle akademischen Cluster hinweg produzieren Internationalisten durchweg mehr als 90 % der international gemeinsam verfassten Publikationen, was 2320 % der Produktivität der Einheimischen für von Experten begutachtete Artikel und 1600 % für von Experten begutachtete Artikeläquivalente ausmacht. Internationalisten verbringen tendenziell weniger Zeit mit lehrbezogenen Aktivitäten, mehr Zeit mit Forschung und mehr Zeit mit administrativen Aufgaben als Einheimische. Basierend auf einer groß angelegten wissenschaftlichen Umfrage (;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03460-2 af61e6b2ef4912536e9e7ae8728c8c5a;de;;;3.4.;6.4.;;Die mathematische Modellierung der wissenschaftlichen Personalbewegung unter Berücksichtigung des Produktivitätsfaktors Es wird ein Ansatz zur dynamischen Optimierung der Altersstruktur von wissenschaftlichem Personal in einer Organisation vorgestellt. Das geeignete mathematische Modell zur Beschreibung der Altersrotation wissenschaftlicher Mitarbeiter wird formuliert und das Kriterium zur Maximierung der integralen Produktivität des verfügbaren wissenschaftlichen Personals über einen gegebenen Zeithorizont eingeführt. Das Kriterium wird unter Verwendung eines szientometrischen Instruments wie der „Kurven der Altersproduktivität“ konstruiert. Die praktische Anwendung der vorgeschlagenen Vorgehensweise wird anhand eines realen Beispiels demonstriert.;-;-;-;https://link.springer.com/article/10.1007/BF02020570 210e916f95c97f0eda47e4a377c3ef10;de;;;3.4.;6.4.;;Wettbewerbsfähige Projektförderung und dynamische komplexe Netzwerke: Evidenz aus Projects of National Interest (PRIN) Dieses Papier zielt darauf ab, die Zusammenarbeit zwischen Forschern in einem spezifischen italienischen Förderprogramm zu untersuchen, den Projekten von nationalem Interesse (PRIN), die die akademische Forschung unterstützen. Das Papier verwendet zwei Ansätze, um die dynamischen komplexen Netzwerke zu untersuchen: Zuerst identifiziert es die beobachtete Verteilung von Verbindungen zwischen Forschern in den vier Interessengebieten (Chemie, Physik, Wirtschaft und Soziologie) durch Verteilungsmodelle, dann verwendet es ein stochastisches Modell, um zu verstehen, wie die Links ändern sich im Laufe der Zeit. Die Analyse basiert auf einem großen und einzigartigen Datensatz von 4322 Forschern von 98 Universitäten und Forschungsinstituten, die von 2000 bis 2011 für die PRIN-Vergabe ausgewählt wurden. Die Originalität dieser Arbeit besteht darin, dass wir wettbewerbsfähige Förderprogramme durch dynamische Netzwerkanalysetechniken untersucht haben.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-1976-4 1330ddec6cfc97077038738bf7c79b28;de;;;3.4.;6.4.;;Verteilung akademischer Forschungsgelder: ein Fall japanischer nationaler Forschungsstipendien Basierend auf einer Datenbank der kompetitiven Forschungsgelder in der japanischen Wissenschaft untersucht diese Studie die Verteilung der Forschungsstipendien auf Universitäts- und Individualebene. Die Daten weisen auf eine hohe Ungleichheit auf Hochschulebene und eine etwas geringere Ungleichheit auf individueller Ebene hin. In den letzten drei Jahrzehnten hat sich das Gesamtbudget der Stipendien stark erhöht, und immer mehr Forscher haben die Mittel erhalten. Gleichzeitig sind großvolumige Stipendien häufiger geworden und Mehrfachvergaben (d. h. ein Forscher erhält gleichzeitig mehrere Stipendien) häufiger. Durch diese Veränderungen zusammengenommen hat sich das Ausmaß der Ungleichheit nicht wesentlich geändert. Das Ausmaß der Ungleichheit unterscheidet sich stark zwischen den Wissenschaftsbereichen, besonders hoch in den naturwissenschaftlichen Grundlagen und relativ gering in den Sozialwissenschaften. Eine genaue Untersuchung der Ungleichheit in der Laufbahn von Forschern zeigt unterschiedliche Übergangsmuster zwischen Feldern und Kohorten. Schließlich wird sowohl auf universitärer als auch auf individueller Ebene die Verteilung der Mittel als ungleicher empfunden als die Verteilung der Publikationen als Output-Indikator.;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0392-z c83bb95cc1f986fabe13c0e4155b0e86;de;;;3.4.;6.4.;;Zitiererfolg verschiedener Publikationstypen: Eine Fallstudie zu allen Referenzen in Psychologie-Publikationen aus dem deutschsprachigen Raum (D–A–CH–L–L) in den Jahren 2009, 2010 und 2011 Präsentiert werden szientometrische Daten zum Zitiererfolg verschiedener Publikationstypen und Publikationsgattungen in psychologischen Publikationen. Die Daten beziehen sich auf Literaturstellen, die in diesen wissenschaftlichen Publikationen zitiert und in PSYNDEX, der umfassenden Datenbank der deutschsprachigen Psychologie-Publikationen in deutscher oder englischer Sprache, dokumentiert sind. Datenanalysen beziehen sich zum einen auf die zitierten Literaturstellen in Publikationen von 2009 vs. 2010 vs. 2011. Bezogen auf alle zitierten Literaturstellen beträgt der Anteil der Zeitschriftenartikel 57 bis 61 %, der Bücher 22 bis 24 % und Kapitel von 14 bis 15 %, mit einer recht hohen Stabilität über die drei analysierten Publikationsjahre. Zweitens beziehen sich Datenanalysen auf die Zahlen zitierter Referenzen aus dem deutschsprachigen Raum, die auch in PSYNDEX dokumentiert sind. Diese machen etwa 11 % aller zitierten Literaturstellen aus, was bedeutet, dass fast 90 % der zitierten Literaturstellen von internationalen und/oder interdisziplinären Publikationen stammen, die nicht aus dem deutschsprachigen Raum stammen. Die Teilstichprobe zeigt den Anteil von Zeitschriftenartikeln, Büchern und Kapiteln, und diese sind den Prozentsätzen, die für alle zitierten Referenzen identifiziert wurden, sehr ähnlich. Drittens beziehen sich die Analysen auf Dokumententyp, wissenschaftliche Gattung und psychologische Teildisziplin der am häufigsten zitierten Referenzen in den psychologischen Publikationen. Die Häufigkeit der am häufigsten zitierten Referenzen von Büchern und Buchkapiteln ist nahezu gleich der von Zeitschriftenartikeln, zwei Drittel der meistzitierten Referenzen sind nicht-empirische Publikationen, nur ein Drittel sind empirische Publikationen. Die am häufigsten zitierten Referenzen stammen insbesondere aus der Klinischen Psychologie, der Experimentellen Psychologie sowie aus Tests, Testing und Psychometrie. Zusammenfassend weisen die Ergebnisse darauf hin, dass Zitationsanalysen, die sich auf Zeitschriftenartikel beschränken, tendenziell sehr hohe Anteile an Referenzen vernachlässigen, die in wissenschaftlichen Publikationen zitiert werden.;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1573-y 24f12b8edf6382fcda51ce481c34c582;de;;;3.4.;6.4.;;Länderübergreifende Distanz und internationales Geschäft: eine Analyse der einflussreichsten Modelle der letzten Zeit Die länderübergreifende Distanz zwischen den Ländern ist von zentralem Interesse in der internationalen Wirtschafts- und Managementforschung. Daher wurden verschiedene Anstrengungen unternommen, um Modelle/Messungen zu entwickeln, um dieses Problem anzugehen. In diesem Artikel identifizieren wir die Modelle/Messungen der grenzüberschreitenden Distanz, die seit Beginn des 2000er Jahrzehnts entwickelt wurden. Nachdem wir die Besonderheiten jedes Modells kurz vorgestellt haben, bewerten wir ihre Auswirkungen auf das Forschungsfeld anhand einer Vielzahl bibliometrischer Techniken (direkte, indirekte und angepasste Zitationswirkungen, Altmetrics, wissenschaftliche Rezensionen, Zeitschriften und Verlagsprestige). Unsere Analyse zeigt, dass das Konstrukt der engeren kulturellen Distanz gegenüber dem der größeren psychischen Distanz an Boden verloren hat. Darüber hinaus legen Forscher großen Wert auf Modelle und Messungen, die über die Konstrukte der kulturellen und psychischen Distanz hinausgehen und einen mehrdimensionalen Rahmen zur Analyse und Messung der länderübergreifenden Distanz zwischen Ländern bieten. Unsere Analyse der Wirkung dieser Modelle zeigt, dass dies ein herausragendes Thema im gesamten Forschungsfeld und ein zentrales Thema in den bestplatzierten Zeitschriften in International Business and Management ist.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03203-y d8c0cb2a447d9836718cdb77c3c54564;de;;;3.4.;6.4.;;Zeitreihenanalyse der Publikationszahlen einer Universität: Was sind die Implikationen? Jährliche Publikationszahlen von Forschungseinrichtungen und Universitäten sind weiterhin ein weit verbreiteter Parameter zur Bewertung ihrer Forschungsproduktivität, und solche Bewertungen wurden erfolgreich verwendet, um den Einfluss von Forschungsförderungspolitiken auf verschiedenen Ebenen zu analysieren. Diese Studie wurde entwickelt, um die jährliche Anzahl von Artikeln zu analysieren, die eine Adresse der Akdeniz-Universität hatten und die von 1996 bis 2009 in den Datenbanken des Web of Science erschienen der Fakultätsmitglieder und der Forschungsförderung sowie Änderungen der institutionellen und landesweiten Forschungsförderungspolitiken und Fördermechanismen. Es wurde beobachtet, dass Veränderungen sowohl bei der Zahl der in der Forschung tätigen Fakultätsmitglieder als auch bei der Gesamthöhe der Forschungsförderung pro Jahr das allgemeine Muster der veröffentlichten Artikel erklären können. Es gibt jedoch einen Zeitraum mit signifikanten Abweichungen von dem durch diese Beziehungen vorhergesagten Trend. Dieser Zeitraum, der den Jahren 2002–2008 entspricht, wird im Hinblick auf die Auswirkungen politischer Änderungen diskutiert, die positive und negative Beiträge zum prognostizierten Muster haben können. Die mathematische Analyse von Zeitreihen von Veröffentlichungen kann zusammen mit Parametern, von denen erwartet wird, dass sie die Forschungsergebnisse beeinflussen, wertvolle Einblicke in die Wirksamkeit von Mechanismen zur Forschungsunterstützung liefern.;-;-;-;https://link.springer.com/article/10.1007/s11192-010-0298-1 53e7e9629fee8c3b78e42bd43c49bccb;de;;;3.4.;6.4.;;Gibt es geschlechtsspezifische Unterschiede bei Forschenden aus der Arbeits-/Organisationspsychologie? Fragen zu geschlechtsspezifischen Unterschieden am Arbeitsplatz ziehen normalerweise viel Aufmerksamkeit auf sich – erzeugen aber oft mehr Wärme als Licht. Um Geschlechterunterschiede in mehreren Facetten der wissenschaftlichen Produktivität und Wirkung zu untersuchen, wird ein quantitativer, szientometrischer Ansatz verwendet. Analyse einer Stichprobe von Arbeits- und Organisationspsychologen (;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1646-y d48f8a3f53821d2b2c7be888d7f889d5;de;;;3.4.;6.4.;;Input-Output-Analyse internationaler Forschungskooperationen: eine Fallstudie von fünf US-Universitäten Die internationale Zusammenarbeit in der Forschung wird von Hochschulen zunehmend als wichtiger Bestandteil sowohl der Forschungs- als auch der Internationalisierungsprioritäten anerkannt. Diese Studie analysierte die Input-Output-Trends internationaler Forschungskooperationen an fünf öffentlichen US-Universitäten anhand quantitativer Forschungsmetriken. Wir haben diese Reihe von Metriken auch getestet, um ihre individuelle direkte Beziehung zur internationalen Forschungskooperation mittels binärer logistischer Regression zu verstehen. Die Ergebnisse zeigten, dass internationale Fakultät, Forschungsförderung, Forschungseinfluss und akademischer Einfluss statistisch signifikant waren (;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2313-2 4f8773a1c706fdc52697329dd3b1c0a7;de;;;3.4.;6.4.;;Auf nachhaltige Entwicklung ausgerichteter Technologietransfer: Vorschlag eines theoretischen Modells basierend auf Barrieren und Chancen Bis zum Jahr 2030 müssen die in der Agenda für nachhaltige Entwicklungsziele vorgeschlagenen Ziele und Vorgaben erreicht werden, um verschiedene globale Probleme zu minimieren. Angesichts dieser Dringlichkeit ist es notwendig, dass Studien durchgeführt werden, um diese Ziele zu erreichen. Ziel dieser Arbeit war es daher, eine systematische Literaturrecherche der in der Literatur existierenden Technologietransfermodelle durchzuführen, da der Prozess zur Förderung einer nachhaltigen Entwicklung beitragen kann, sowie mögliche Barrieren und Chancen für nachhaltige Technologietransferprozesse. Die Ergebnisse zeigen, dass trotz der Vielfalt der in der Literatur verfügbaren Modelle ein Modell fehlt, das den Bereich der nachhaltigen Entwicklung und die möglichen Barrieren und Chancen bei der Formulierung seiner Stufen berücksichtigt. Darauf aufbauend wurde ein konzeptionelles auf Barrieren und Chancen basierendes Modell mit Fokus auf nachhaltige Entwicklung vorgeschlagen, das darauf abzielt, die gefundene wissenschaftliche Lücke zu schließen und so zu den Zielen für nachhaltige Entwicklung beizutragen. Das Modell umfasst vier Makroschritte: Planen, Aktivieren, Implementieren und Evaluieren, die von der Identifizierung des technologischen Bedarfs über die Dokumentation, Registrierung und Rückmeldung zur Implementierung reichen. Dadurch kann das Modell mögliche Barrieren antizipieren und adressieren und Chancen als Vermittler nutzen. Auch diese Forschung leistet einen Beitrag zum Regierungsbereich, da von der Anwendung des Modells erwartet wird, dass sie zur Erfüllung der Ziele für nachhaltige Entwicklung beitragen kann.;-;-;-;https://link.springer.com/article/10.1007/s11192-021-03969-0 ccfd42e694153ea2a4a0a68aeebc4e43;de;;;3.4.;6.4.;;Welche akademischen Mobilitätskonfigurationen zu hoher Leistung beitragen: eine fsQCA-Analyse von CSC-finanzierten Gastwissenschaftlern Vor dem Hintergrund der Globalisierung erlebt die Welt eine immer häufigere transnationale Mobilität, die die wissenschaftliche Mobilität in den Mittelpunkt rückt. Hoch wettbewerbsfähige Forscher mit internationaler Vision gelten als Motoren, die für jede Nation den wissenschaftlichen und technologischen Fortschritt und die gesellschaftliche Entwicklung vorantreiben. In den letzten zwei Jahrzehnten hat der China Scholarship Council (CSC) nachhaltige finanzielle und politische Unterstützung zur Förderung der akademischen Mobilität bereitgestellt. Diese Studie zielt darauf ab, komplexe Vorläuferkonfigurationen zu identifizieren, die zur hohen Forschungsleistung von Wissenschaftlern nach ihren vom CSC finanzierten Forschungsaufenthalten beitragen. Fuzzy Set Qualitative Comparative Analysis (fsQCA) wird verwendet, um eine Kausalanalyse von 630 Forschern durchzuführen, die 2012 CSC-Fördermittel für akademische Mobilität erhalten haben. Anschließend werden bibliometrische Indizes und fsQCA kombiniert, um die vorausgehenden Konfigurationen (Kombinationen) zu identifizieren, die zu der hohen Forschungsleistung führen dieser Forscher. Aus experimentellen Ergebnissen identifizieren wir sechs Kombinationen (Konfigurationen) von Gastwissenschaftlern und vier Kombinationen von Postdocs, die nach ihren Forschungsaufenthalten zu einer hohen Forschungsleistung führen. Genauer gesagt spielt die aktive internationale Zusammenarbeit vor ihrem Aufenthalt eine zentrale Rolle für die hohe Forschungsleistung von Wissenschaftlerinnen und Wissenschaftlern nach der Mobilität. Die Reputation von Institutionen und die akademische Position sind mittlerweile ein wichtiger Bestandteil der Kombinationen, die zu einer hohen Forschungsleistung führen. Darüber hinaus ist die Rolle der Dauer des Forschungsaufenthalts für die Leistungsfähigkeit der Forschenden nicht zu vernachlässigen. Das Geschlecht ist kein entscheidender Teil der Kausalkombinationen, die eine hohe Leistung erklären. Diese Studie liefert Erkenntnisse zur Gestaltung und Verbesserung ähnlicher akademischer Mobilitätsprogramme weltweit.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03783-0 ec276aa2fc552c28c1bc8a6c1b8ca882;de;;;3.4.;6.4.;;Ineffizienz bei der Auswahl von Produkten für die Einreichung bei nationalen Forschungsbewertungsübungen Eine der kritischen Fragen bei nationalen Forschungsbewertungsübungen betrifft die Entscheidung, ob das gesamte wissenschaftliche Portfolio der Institutionen oder eine Teilmenge der besten Produkte bewertet werden soll. Bei der zweiten Option wird die Fähigkeit der Institutionen zur Auswahl der geeigneten Forscher und ihrer besten Produkte (der Fall Großbritannien) oder einfach die besten Produkte jedes Forschers (der Fall Italiens) entscheidend, beides für die korrekte Bewertung der tatsächlichen Qualität der Forschung in den evaluierten Einrichtungen und für die anschließende selektive Förderung. In dieser Arbeit analysieren wir anhand von Fallstudien von drei italienischen Universitäten die Effizienz der Produktauswahl, die darauf abzielt, die Ergebnisse der Universitäten in der aktuellen nationalen Forschungsbewertung zu maximieren, deren Ergebnisse die Grundlage für die Zuweisung eines wichtigen Anteils sein werden der öffentlichen Finanzierung in den nächsten Jahren.;-;-;-;https://link.springer.com/article/10.1007/s11192-013-1177-3 da6a8d73791777dc0036910d65ec34e9;de;;;3.4.;6.4.;;Bibliometrische Analyse zur Entwicklung von Forschungsstrategien in der Agrartechnologie: der Fall Taiwan Aufgrund des schnellen Umweltwandels entscheiden sich Politiker nicht mehr für Fragen der Vorausschau aufgrund ihrer eigenen Erfahrung. Stattdessen müssen sie alle möglichen Faktoren berücksichtigen, die neue technologische Entwicklungen beeinflussen und über das Technology Foresight-System eine geeignete zukünftige Technologieentwicklungsstrategie für das Land formulieren. Um objektivere Beweise zu sammeln, um Interessengruppen davon zu überzeugen, die Fragen der Vorausschau zu unterstützen, können Forscher bibliometrische Analysen verwenden, um die aktuelle wissenschaftliche Entwicklung zu beschreiben und mögliche zukünftige Entwicklungstrends vorherzusagen. Durch diesen Prozess wird ein Konsens über die Richtung der zukünftigen Technologieentwicklung erreicht. Wir glauben jedoch, dass bibliometrische Analysen mehr für die Formulierung von Technologiepolitiken leisten können, wie zum Beispiel (1) quantitative Daten als Beweise für die Ergebnisse qualitativer Analysen anbieten, (2) die Situation der Literaturveröffentlichung in bestimmten technologischen Bereichen überprüfen, um die aktuelle Stadium der Technologieentwicklung und (3) helfen uns, den relativen Vorteil der Entwicklung von Vorausschauthemen in Taiwan und der Welt zu erkennen und eine tiefgreifende strategische Planung in Übereinstimmung mit dem Konzept des Offenbarten Vergleichsvorteils zu entwickeln. Aus diesen Gründen wird unsere Forschung die Rolle der bibliometrischen Analyse für Nationen bei der Auswahl der Voraussichtsfragen überprüfen. Darüber hinaus werden wir die Entwicklung der Technologiepolitik in Taiwan auf der Grundlage bibliometrischer Analysen analysieren und die Auswahl der Vorausschauthemen durch die Verarbeitung von Schlüsselthemenintegration, Schlüsselwortsammlung in diesem Bereich, Suche und Bestätigung von Literatur, Exploration von vergleichende Entwicklungsvorteilsanalyse und die Innovation-Foresight-Matrixkonstruktion etc.;-;-;-;https://link.springer.com/article/10.1007/s11192-012-0833-3 977d4585a695681e7e9b9c2b77edb1ec;de;;;3.4.;6.4.;;Wissenschaftliche Zusammenarbeit zwischen „alten“ und „neuen“ Mitgliedstaaten: Hat der Beitritt zur Europäischen Union etwas gebracht? Dieses Papier liefert neue Erkenntnisse zu den Auswirkungen der Erweiterung der Europäischen Union (EU) und der europäischen Integration, indem es die Frage der wissenschaftlichen Zusammenarbeit innerhalb der neuen EU-Mitgliedstaaten untersucht;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1824-y 526570a4141fe18329b2b275d479083a;de;;;3.4.;6.4.;;Eine Neubewertung der Exzellenzprogramme im asiatisch-pazifischen Raum in der Hochschulbildung: die Taiwan-Erfahrung Mit dem zunehmenden Wettbewerb zwischen den Nationen in unserer wissensbasierten Weltwirtschaft werden Exzellenzprogramme sowohl in den Entwicklungsländern als auch in den entwickelten asiatischen Ländern zu einem nationalen Tagesordnungspunkt. Der Hauptzweck dieses Papiers besteht darin, die Ziele, Förderpolitik und Auswahlkriterien von Exzellenzprogrammen in China, Japan, Korea und Taiwan zu vergleichen und die akademischen Leistungen ihrer Spitzenuniversitäten in drei Bereichen zu analysieren: Forschungsleistung, Internationalisierung und Exzellenz , unter Verwendung von Daten aus den Rankings Shanghai Jiao Tong, QS und HEEACT. Die Wirksamkeit von Taiwans „Entwicklungsplan für Weltklasse-Universitäten und Forschungszentren für Exzellenz“ wurde in dem Papier anhand einer Umfrage unter 138 Top-Administratoren von 11 taiwanischen Universitäten und 30 Gutachtern als Fallstudie bewertet. Die Studie ergab, dass die Länder mit mehr Geldern mehr Outputs und Ergebnisse erzielen würden, zum Beispiel China. Der Fall Taiwan zeigt, dass in asiatischen Ländern trotz der von ihnen geäußerten Besorgnis über die Ungleichheit Universitäten und Forschungszentren von Weltrang benötigt werden.;-;-;-;https://link.springer.com/article/10.1007/s11192-012-0727-4 63b9d4931e522895a72b4e3413ae56e0;de;;;3.4.;6.4.;;Krankheitslast und Weiterentwicklung des biomedizinischen Wissens Trotz der Bedeutung und des Umfangs der biomedizinischen Forschung ist wenig über ihre Entwicklung und Reaktion auf die aktuellen Gesundheitsbedürfnisse bekannt. Hier haben wir die Entwicklung der krankheitsspezifischen biomedizinischen Forschung charakterisiert und die Ausrichtung von Forschungs- und Translationsbemühungen auf die Krankheitslast bewertet. Veröffentlichungsmuster für ungefähr 2700 Krankheiten deuteten auf eine fließende Landschaft moderner biomedizinischer Interessen hin. Bei der Untersuchung einer Teilmenge von Krankheiten mit verfügbaren Daten erklärten Gesamtmessungen der Krankheitslast einen großen Teil der Publikationsvarianz, aber nur einen kleinen Teil der NIH-Finanzierungsvarianz. Darüber hinaus wirkten sich diskrete Messungen der Sterblichkeit und Morbidität unterschiedlich auf das Finanzierungsniveau der NIH, die Forschungsanstrengungen und die Anzahl klinischer Studien in den USA aus. Unsere Ergebnisse hinterfragen nicht nur die Relevanz unseres aktuellen biomedizinischen Unternehmens, sondern können auch als Ressource für die Förderung von Strategien dienen, die die wissenschaftliche Gemeinschaft angemessen auf zukünftige Gesundheitsbedürfnisse vorbereiten und die Verantwortlichkeit bei der Zuweisung von Ressourcen fördern.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-2169-x 9fd21fcf2cf1d254c5acbbc467545674;de;;;3.4.;6.4.;;Bewertung und Auswahl von Forschungsprojekten: eine regelbasierte Methode zur Beweisführung zur Aggregation von Peer-Review-Informationen mit Zuverlässigkeit Die Bewertung und Auswahl von Forschungsprojekten befasst sich hauptsächlich mit der Bewertung einer Reihe von Forschungsprojekten und deren anschließender Auswahl für die Durchführung. Es beinhaltet einen komplexen Entscheidungsfindungsprozess mit mehreren Experten und mehreren Kriterien. Somit präsentiert dieser Beitrag eine effektive Methode zur Bewertung und Auswahl von Forschungsprojekten unter Verwendung der neu entwickelten Evidenzial Reasoning (ER)-Regel. Die vorgeschlagene regelbasierte Bewertungs- und Auswahlmethode des ER umfasst hauptsächlich (1) die Verwendung von Überzeugungsstrukturen zur Darstellung von Peer-Review-Informationen, die von mehreren Experten bereitgestellt werden, (2) die Verwendung einer Verwirrungsmatrix zur Generierung der Zuverlässigkeit der Experten, (3) die Implementierung einer nutzwertbasierten Informationstransformation zur Handhabung qualitative Bewertungskriterien mit unterschiedlichen Bewertungsstufen und (4) Aggregation der Bewertungsinformationen mehrerer Experten zu mehreren Kriterien unter Verwendung der ER-Regel. Eine experimentelle Studie zur Bewertung und Auswahl von Forschungsanträgen, die bei der National Science Foundation of China eingereicht wurden, zeigt die Anwendbarkeit und Wirksamkeit der vorgeschlagenen Methode. Die Ergebnisse zeigen, dass (1) die regelbasierte ER-Methode konsistente und informative Unterstützung bieten kann, um fundierte Entscheidungen zu treffen, und (2) die Verlässlichkeit der Review-Informationen verschiedener Experten bei einer rationalen Bewertung und Auswahl von Forschungsprojekten berücksichtigt werden sollte Prozess, da sie einen erheblichen Einfluss auf die Auswahl der in Frage kommenden Projekte für die Begutachtung durch das Gremium haben.;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1770-8 3fdef94fc1df52df2f0dbb5978cfe6d3;de;;;3.4.;6.4.;;Bibliometrische Indikatoren spiegeln Publikations- und Managementstrategien wider In einer bibliometrischen Studie an neun Forschungsabteilungen im Bereich Biotechnologie und Molekularbiologie wurden Indikatoren für Forschungskapazität, Output und Produktivität unter Berücksichtigung der in Kopublikationen ausgedrückten Beteiligung der Forscher an der wissenschaftlichen Zusammenarbeit berechnet. In einem quantitativen Ansatz wurden Rankings von Fachbereichen anhand verschiedener Forschungsleistungsindikatoren miteinander verglichen. Die Ergebnisse wurden mit Mitgliedern aus allen neun beteiligten Abteilungen diskutiert. Es wurden zwei Publikationsstrategien identifiziert, die als Publikationsquantität und eine Qualität der Publikationsstrategie bezeichnet werden, und zwei Strategien in Bezug auf die wissenschaftliche Zusammenarbeit wurden skizziert, eine auf multilaterale und eine auf bilaterale Kooperationen. Unsere Ergebnisse legen nahe, dass Rankings von Abteilungen durch spezifische Publikations- und Managementstrategien beeinflusst werden können, die wiederum von der Entwicklungsphase der Abteilungen oder ihrer Personalstruktur abhängen können. Infolgedessen können Rangunterschiede nicht nur im Hinblick auf die Qualität oder Bedeutung der Forschung interpretiert werden. Es wird vermutet, dass das Problem der Zuordnung von Arbeiten aus multilateraler Zusammenarbeit zu den beteiligten Forschungsgruppen noch nicht richtig gelöst ist und dass der Einfluss des Entwicklungsstands und der Personalstruktur eines Fachbereichs auf die Werte bibliometrischer noch weiter erforscht werden muss Indikatoren. Eine mögliche Folgerung auf wissenschaftspolitischer Ebene ist, dass für Fachbereiche unterschiedlicher Alters- oder Personalstruktur unterschiedliche Anforderungen gelten sollten.;-;-;-;https://link.springer.com/article/10.1023/A%3A1005695111622 f46c3f9217a28bf0af8672e6a9d3f99a;de;;;3.4.;6.4.;;Welche Indikatoren sagen uns (oder nicht) über regionale Innovationssysteme Dieses Papier analysiert einige der Methoden und F&E- und Innovationsindikatoren, die zur Messung der regionalen Innovationsfähigkeit in Spanien im Zeitraum 1996-2000 verwendet wurden. Die Ergebnisse legen nahe, dass die untersuchten Ansätze nicht streng genug sind, sie variieren je nach Methodik und verwendeten Indikatoren.;-;-;-;https://link.springer.com/article/10.1007/s11192-007-0106-8 9fff0007d57e0e935e5521d57bed910e;de;;;3.4.;6.4.;;Nationale Forschungsleistungsbewertung auf individueller Ebene Es gibt einen offensichtlichen und raschen Trend zur Einführung von Evaluierungsübungen für nationale Forschungssysteme, um unter anderem die Allokationseffizienz bei der öffentlichen Finanzierung einzelner Institutionen zu verbessern. Allerdings könnten die angestrebten makroökonomischen Ziele gefährdet werden, wenn die interne Umverteilung staatlicher Ressourcen innerhalb jeder Forschungseinrichtung nicht einer konsistenten Logik folgt: Die beabsichtigten Wirkungen nationaler Bewertungssysteme können nur dann entstehen, wenn auf allen Entscheidungsebenen eine „Funds for Quality“-Regel eingehalten wird -Herstellung. Ziel dieser Studie ist es, eine bibliometrische Methodik vorzuschlagen für: (i) eine groß angelegte vergleichende Bewertung der Forschungsleistung einzelner Wissenschaftler, Forschungsgruppen und Abteilungen innerhalb einer Forschungseinrichtung, um selektive Mittelzuweisungen zu informieren und (ii) die Bewertung von Stärken Schwächen nach Forschungsbereichen, um strategische Planung und Kontrolle zu unterstützen. Die vorgeschlagene Methodik wurde für den Zeitraum 2004–2006 auf die harten Wissenschaftsdisziplinen des italienischen Universitätsforschungssystems angewendet.;-;-;-;https://link.springer.com/article/10.1007/s11192-010-0297-2 6f23b46e1cc69aa64a711c29d2982c69;de;;;3.4.;6.4.;;Verdienen norwegische Akademiker, die mehr publizieren, höhere Gehälter? Diese Studie korrelierte Gehaltsdaten mit Publikationsdaten für wissenschaftliche Mitarbeiter einer der größten Hochschulen in Norwegen. Die Ergebnisse zeigen, dass insgesamt eine schwache Korrelation zwischen Publikationsoutput und Gehalt bestand. Sowohl das Gehalt als auch die Publikationsleistung variierten zwischen den Rängen (niedrig, mittel, oben). Abgesehen von außerordentlichen und ordentlichen Professoren gab es keine signifikanten Korrelationen zwischen der Produktivität eines Wissenschaftlers und dem, was ein Wissenschaftler zwischen den verschiedenen Gruppen verdient. Tatsächlich zeigen die Ergebnisse beim Vergleich von nicht veröffentlichenden und veröffentlichenden niederrangigen Auftragsforschern, dass veröffentlichende Forscher deutlich weniger verdienten als ihre nicht veröffentlichenden Kollegen. Eine schwache Korrelation zwischen qualitativ hochwertigen Publikationen und dem Gehalt wurde nur bei außerordentlichen Professoren gefunden. Bei Wissenschaftlerinnen und Wissenschaftlern mit hochwertigen Publikationen wurden jedoch keine signifikanten Gehaltsunterschiede im Vergleich zu denen mit gewöhnlichen Publikationen beobachtet. Insgesamt deuten die Ergebnisse darauf hin, dass die Publikationsleistung nicht verwendet wurde, um die Gehälter in akademischen Gruppen mit wenigen Forschungsaufgaben festzulegen.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2639-4 aef9b41d4ea4731346a78b719028115f;de;;;3.4.;6.4.;;Europäisierung des Marktes für Auftragsforschung Dieses Papier skizziert die Ergebnisse einer kürzlich durchgeführten Untersuchung des britischen Vertragsforschungsmarktes, der auf 900 Mio. ECU geschätzt wird (1988/89). Die meisten britischen Auftragsforschungsinstitute (CROs) führen einen kleinen, aber erheblichen Anteil an Auftragsforschung und -entwicklung im Ausland (sowohl für andere Mitgliedstaaten als auch anderswo) durch und sehen diese Zunahme mit der Entwicklung des europäischen Binnenmarkts (SEM). Die meisten CROs im Vereinigten Königreich haben an EG-FuE-Programmen teilgenommen und die Beteiligung als generell positive Erfahrung angesehen. Britische Industriekunden von F&E im Vertrag sind zwar stärker auf Großbritannien ausgerichtet, glauben aber auch, dass das SEM die Auftragseingänge aus den Mitgliedstaaten erhöhen wird. Auch Industrieunternehmen, die an FuE-Programmen der EG beteiligt sind, stellten fest, dass die Beteiligung Vorteile bringt. Sowohl britische CROs als auch die industriellen Kundenorganisationen sahen im SEM und dem damit verbundenen Europäisierungsprozess eine Verbesserung der kommerziellen Kontakte mit Organisationen in anderen Mitgliedstaaten.;-;-;-;https://link.springer.com/article/10.1007/BF02093971 94824ab3b1cf60e248c531eae0c756d5;de;;;3.4.;6.4.;;Verbreitung und Akzeptanz: ein Erklärungsmodell für „Fragezeichen“- und „Aufsteiger“-Artikel Der kreative Prozess ist im Wesentlichen darwinistisch und nur ein kleiner Teil der kreativen Ideen wurde für die weitere Entwicklung ausgewählt. Dieser Artikel baut ein Diffusions-Adoptions-Modell wissenschaftlicher Artikel auf und untersucht die Einflussfaktoren von „stark genutzten, aber selten zitierten“ und „wenig genutzten, aber häufig zitierten“ Artikeln. Ein Blick durch die Linse der Innovationsdiffusionstheorie von Rogers bietet eine neue Perspektive auf den Zitiermechanismus und verbessert unser Verständnis davon, was Zitieren zählt. Hier nehmen wir stark genutzte (Top 1%) Artikel aus dem Jahr 2013 in;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03478-6 2e6ac6fcb4e185c0345a7a6dc053e1f5;de;;;3.4.;6.4.;;Welchen Unterschied macht es? Einfluss von Peer-Review-Stipendien auf die wissenschaftliche Produktion Wir haben untersucht, inwieweit sich unterschiedliche Auswahlmechanismen für die Vergabe von Stipendien in ihren kurz- und längerfristigen Auswirkungen auf die Leistung der Stipendiaten in der wissenschaftlichen Produktion unterscheiden. Wir führten eine Wirkungsbewertungsstudie zu Forschungsstipendien für Bachelor-, Master- und PhD-Studien durch und verglichen zwei verschiedene Finanzierungsquellen in Brasilien: Zum einen basierte der Auswahlmechanismus auf einem Peer-Review-System, zum anderen auf einem anderen institutionellen System als Peer-Review . Über 8.500 Fragebögen wurden im Zeitraum 1995–2009 erfolgreich ausgefüllt. Die beiden Gruppen wurden hinsichtlich ihrer wissenschaftlichen Leistung mit einem Propensity-Score-Ansatz verglichen. Wir fanden heraus, dass die Peer-Review-Stipendiaten eine bessere Leistung zeigten: Sie veröffentlichten häufiger und in Zeitschriften mit höheren Impact Factors als Stipendiaten aus der anderen Gruppe. Zwei weitere Ergebnisse weisen jedoch auf eine andere Situation hin. Erstens steigerten die Stipendiatinnen und Stipendiaten im Peer-Review-System langfristig ihre Publikationsrate weiter und publizierten in höherwertigen Zeitschriften, jedoch nahmen die Unterschiede zur Kontrollgruppe nach der Promotion eher ab. Zweitens wurde die bessere Leistung von Peer-Review-Stipendien nicht in allen Fachgebieten beobachtet. Die wichtigsten politischen Implikationen dieser Studie beziehen sich auf ein besseres Verständnis von Auswahlmechanismen und die Heterogenität in Bezug auf die Beziehung zwischen Auswahlprozessen und wissenschaftlichem und akademischem Output.;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1462-9 596b55ae15fcff874f2f5ed6bad42d2c;de;;;3.4.;6.4.;;Wird der Anstieg der Publikationsmengen die Impact-Faktoren renommierter Zeitschriften „verwässern“? Eine Trendanalyse der FT50-Zeitschriften Ziehen nach dem beispiellosen weltweiten wissenschaftlichen Output-Boom Spitzenzeitschriften wie die FT50-Zeitschriften nach? Wenn diese renommierten Zeitschriften ihr Publikationsvolumen kontinuierlich steigern, werden ihre Impact-Faktoren beeinflusst? In Anlehnung an die Mann-Kendall-Trendtestmethode wurden in dieser Studie Zeitreihentrends der jährlichen Publikationsvolumina und Impact Factor Ratios (IFR) der FT50-Zeitschriften über einen Zeitraum von 15 Jahren analysiert. Die Ergebnisse zeigen, dass die Hälfte der FT50-Zeitschriften ihr Publikationsvolumen im Laufe der Jahre kontinuierlich erhöht hat. Obwohl es riskanter ist, das Publikationsvolumen zu erhöhen, als zu bleiben, besteht eine deutlich höhere Wahrscheinlichkeit, den IFR zu erhöhen und damit mit anderen Top-Zeitschriften Schritt zu halten. Die Ausweitung der Publikationsmengen muss jedoch mit Vorsicht erfolgen, da die Studie auch feststellt, dass ein zu schnelles Wachstum zu gegenteiligen Effekten führen kann.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03736-7 b8906cf5149e6f46417be64791b2783e;de;;;3.4.;6.4.;;Eine quantitative Analyse der Beschäftigung und wirtschaftlichen Entwicklung der indischen Wissenschaft und Technologie In diesem Beitrag wurde versucht, die Beschäftigung von Arbeitskräften in Wissenschaft & Technologie (einfach W & T) in Bezug auf die wirtschaftliche Entwicklung auf der Grundlage einer quantitativen Analyse zu analysieren. Die Ergebnisse verschiedener Analysen haben gezeigt, dass ein Zusammenhang zwischen der Schaffung von W&T-Beschäftigung und der wirtschaftlichen Entwicklung besteht. Mehrere multiple Regressionsanalysen haben quantitativ das Ausmaß des erwarteten Wachstums des Bruttosozialprodukts (BSP), der Industrieproduktion und der FuE-Ausgaben aufgezeigt, um das verfügbare Angebot an W&T-Personal zu absorbieren.;-;-;-;https://link.springer.com/article/10.1007/BF02134323 1f69788f1fe7b6ff74d7c2d622bafb9b;de;;;3.4.;6.4.;;Ein Propensity-Score-Ansatz in der Wirkungsbewertung der wissenschaftlichen Produktion in der brasilianischen Biodiversitätsforschung: das BIOTA-Programm Evaluation ist zu einer regelmäßigen Praxis im Management von Wissenschafts-, Technologie- und Innovationsprogrammen (W&I) geworden. Es wurden verschiedene Methoden entwickelt, um die Ergebnisse und Auswirkungen solcher Programme zu ermitteln. Die meisten Evaluierungen, die einen solchen Ansatz verfolgen, kommen zu dem Schluss, dass die betreffenden Interventionen, in diesem Fall W&I-Programme, eine positive Wirkung im Vergleich zum Ausgangswert hatten, aber nicht auf Effekte kontrolliert werden, die die Indikatoren auch ohne Intervention verbessert hätten, wie z Verbesserungen im sozioökonomischen Kontext. Der quasi-experimentelle Ansatz ist daher ein geeigneter Weg, um die tatsächlichen Beiträge einer bestimmten Intervention zu identifizieren. Dieses Papier beschreibt und diskutiert die Verwendung des Propensity Score (PS) in Quasi-Experimenten als Methode zur Bewertung der Auswirkungen auf die wissenschaftliche Produktion von Forschungsprogrammen und präsentiert eine Fallstudie des BIOTA-Programms, das von FAPESP, der Forschungsstiftung des Staates São Paulo, durchgeführt wird (Brasilien). Es werden die Grundlagen von Quasi-Experimenten und kausalen Inferenzen vorgestellt, die die Notwendigkeit betonen, Verzerrungen aufgrund fehlender Randomisierung zu kontrollieren, sowie eine kurze Einführung in die PS-Schätz- und Gewichtungstechnik, die zur Korrektur beobachteter Verzerrungen verwendet wird. Die Anwendung der PS-Methodik wird mit der üblicherweise verwendeten traditionellen multivariaten Analyse verglichen.;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1397-1 04b1b7f6c1f215c9b58718fa4a5b172c;de;;;3.4.;6.4.;;Was messen globale Hochschulrankings wirklich? Die Suche nach dem X-Faktor und der X-Entität Die meisten akademischen Rankings versuchen, die Qualität der universitären Ausbildung und Forschung zu messen. Bisherige Studien, die die einflussreichsten Rankings untersuchen, kommen jedoch zu dem Schluss, dass die verwendeten Variablen ein Epiphänomen eines X-Faktors sein könnten, der wenig mit Qualität zu tun hat. Ziel dieser Studie ist es, die Existenz dieses versteckten Faktors oder Profils in den beiden einflussreichsten globalen Hochschulrankings der Welt zu untersuchen:;-;-;-;https://link.springer.com/article/10.1007/s11192-013-0986-8 5f696c0eb0b17b140627d816407e798d;de;;;3.4.;6.4.;;Das Ende vom Anfang: Ein Rückblick auf die ersten fünf Jahre der HRI-Konferenz Diese Studie bietet einen historischen Überblick über die International Conference on Human Robot Interaction (HRI). Es fasst Wachstum, Internationalisierung und Zusammenarbeit zusammen. Es werden Rankings für Länder, Organisationen und Autoren bereitgestellt. Darüber hinaus wird eine Analyse der Militärfinanzierung für HRI-Papiere durchgeführt. Ungefähr 20 % der Papiere werden vom US-Militär finanziert. Der Anteil der US-Papiere beträgt rund 65 % und die dominierende Rolle der USA wird nur durch die starke Position Japans, insbesondere durch die Beiträge der ATR, in Frage gestellt.;-;-;-;https://link.springer.com/article/10.1007/s11192-010-0281-x 98709548b57c467dd50a254b4f24cfa9;de;;;3.4.;6.4.;;Grundlagen und Trends im Performance Management. Eine 25-jährige bibliometrische Analyse im Bereich der Wirtschaft und der öffentlichen Verwaltung Unser Papier analysiert 25 Jahre Performance-Management-Forschung, die in englischsprachigen Zeitschriften veröffentlicht wurde, die in die SSCI-Datenbank aufgenommen wurden, und die den Unternehmensbereich vom öffentlichen Sektor trennt. Wir haben eine Inhaltsanalyse verwendet, um die Zusammenhänge zwischen den Teilbereichen des Leistungsmanagements und der Zeitentwicklung aufzuzeigen. Durch eine multiple Korrespondenzanalyse basierend auf Schlüsselwörtern bieten wir einen Rahmen, um diese Literatur über den Zeitraum von 25 Jahren zu verfolgen. Wir schließen den Beitrag mit einer Diskussion über zukünftige Pfade in der Literatur zum Leistungsmanagement ab.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-1948-8 61218cdfcfed22285edc044a661fca44;de;;;3.4.;6.4.;;Organisatorisches Umfeld und Leistung von Forschungsgruppen – Eine typologische Analyse In diesem Beitrag wird versucht, eine Typologie von Forschungseinheiten nach einer Reihe von organisatorischen Merkmalen zu konstruieren und die resultierende Klassifikation auf eine Reihe von Leistungsmaßen zu beziehen. Die organisatorischen Merkmale umfassen (i) Ressourcen und Einrichtungen für die Forschung, (ii) Kommunikation und Transfer neuer Ideen, (iii) Planung und Organisation der Forschung und (iv) sozialpsychologisches Umfeld für die Forschung. Zu den Leistungsmaßen zählen (i) Allgemeine FuE-Effektivität, die im Wesentlichen die Qualitätsdimension der Forschungsleistung konnotiert, (ii) Anerkennung der Arbeit der Forschungseinheit durch die Wissenschaft, (iii) Nutzerorientierte Effektivität und (iv) Administrative Effektivität (Budget- und Termintreue).;-;-;-;https://link.springer.com/article/10.1007/BF02457405 d7a9013e3e62793bfc80a767b090b19d;de;;;3.4.;6.4.;;Crowdsourcing und seine Beziehung zu Weisheit der Menge und Erkenntnisgewinnung: eine bibliometrische Studie Der Begriff „Crowdsourcing“ wurde erstmals 2006 geprägt und tauchte um 2009 als Begriff in der wissenschaftlichen Literatur auf. Seitdem zeigt die wissenschaftliche Forschung zu diesem Thema einen steigenden Trend, vor allem in der Informatik und ihren Teilgebieten. Die Analyse der Motivationstypen für den Einsatz von Crowdsourcing zeigt, dass extrinsische Motivationen in der Literatur häufiger genannt werden als intrinsische. Dies dient dazu, die Wahrnehmung von Crowdsourcing als Forschungsmethode zur Gewinnung solider Erkenntnisse zu einem Thema und nicht als Freizeitaktivität zur persönlichen Entwicklung zu etablieren. Schließlich zeigen die Ergebnisse dieser Studie, dass China sich als Hauptförderer und Produzent von Artikeln zum Thema Crowdsourcing entwickelt.;-;-;-;https://link.springer.com/article/10.1007/s11192-021-03932-z 4054ac638346fc4a9d89afba28e0c2d2;de;;;3.4.;6.4.;;Forschungsproduktivität: Sind höhere akademische Ränge produktiver als niedrigere? Diese Arbeit analysiert die Zusammenhänge zwischen individueller Forschungsleistung und akademischem Rang. Eine typische bibliometrische Methode wird verwendet, um die Leistung aller italienischen Universitätsforscher, die in den Hard Sciences tätig sind, für den Zeitraum 2004–2008 zu untersuchen. Ziel ist es, die Leistung der Ränge von ordentlichen (FPs), außerordentlichen und Assistenzprofessoren (APs) entlang verschiedener Dimensionen zu charakterisieren, um das Bestehen von Leistungsunterschieden zwischen den Rängen allgemein und für einzelne Disziplinen zu überprüfen.;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0426-6 299e2c5a4f31eb6e19efc74d23ba18fc;de;;;3.4.;6.4.;;Erhalt von Informationen an koreanischen und taiwanesischen Universitäten, der Industrie und GRIs Dieser Artikel untersucht die Anreizstruktur, die dem Informationstransfer zugrunde liegt, den die drei Hauptakteure des Triple-Helix-Paradigmas erhalten: Universitäten, Industrie und staatliche Forschungsinstitute (GRIs). Für die hier untersuchten Fälle Korea und Taiwan wurde eine solche empirische Untersuchung auf quantitativer Ebene noch nicht durchgeführt. Anhand eines einzigartigen Datensatzes von Umfrageantworten von maximal 325 Forschern aus koreanischen und taiwanesischen Universitäten, der Industrie und GRIs zeigt dieser Artikel, dass es einige signifikante Unterschiede zwischen und innerhalb von Ländern gibt. Am wichtigsten ist, dass politische Interventionen zur Förderung der Interaktion zwischen Universität, Industrie und GRI den Grad beeinflussen, in dem spezifische Informationstransfers als nützlich angesehen werden. In Korea wird der Schwerpunkt auf formelle Transfers gelegt, während in Taiwan sowohl formelle als auch insbesondere informelle Transfers betont werden.;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0501-z b469296969f59706d7044a1ae96dc71d;de;;;3.4.;6.4.;;Ausgewählte Modelle zur Dynamik von Forschungsorganisationen und Forschungsproduktion Das Verständnis der Dynamik von Forschungsorganisationen und Forschungsproduktion ist für deren erfolgreiches Management sehr wichtig. Im Folgenden werden ausgewählte deterministische und Wahrscheinlichkeitsmodelle der Forschungsdynamik diskutiert. Die Auswahl soll hauptsächlich die Bereiche Publikationsdynamik, Zitationsdynamik und Alterung wissenschaftlicher Informationen abdecken. Aus der Klasse der deterministischen Modelle diskutieren wir Modelle im Zusammenhang mit Forschungspublikationen (SI-Modell, Goffmann-Newill-Modell, Preismodell für Wissenswachstum), deterministisches Modell im Zusammenhang mit der Dynamik von Zitaten (Nukleationsmodell der Wachstumsdynamik von Zitaten), deterministische Modelle der Forschungsdynamik (Logistikkurvenmodelle, Wettbewerbsmodell zwischen Ideensystemen, Reproduktions-Transport-Gleichungsmodell der Evolution wissenschaftlicher Teilbereiche) und ein Modell der Wissenschaft als Bestandteil des Wirtschaftswachstums eines Landes. Aus der Klasse der Wahrscheinlichkeitsmodelle diskutieren wir ein Wahrscheinlichkeitsmodell in Verbindung mit Forschungspublikationen (basierend auf dem Yule-Prozess), Wahrscheinlichkeitsmodelle in Verbindung mit der Dynamik von Zitaten (Poisson- und gemischte Poisson-Modelle, Modelle der Alterung wissenschaftlicher Informationen (stochastisches Prozessmodell und stochastisches Prozessmodell verbunden mit Waring-Verteilung)). Die abgeschnittene Waring-Verteilung und die multivariate Waring-Verteilung werden beschrieben und ein Variationsansatz für die wissenschaftliche Produktion diskutiert. Mehrere Wahrscheinlichkeitsmodelle des Produktions-/Zitierprozesses (Paretsche und Poisson-Verteilungsmodelle;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-41631-1_5 a13352ab6537e37d5d0519670af96438;de;;;3.4.;6.4.;;Die Wirkung von Kooperationen auf die wissenschaftliche Forschungsleistung: der Fall der Nanowissenschaften in chinesischen Regionen Das Muster und die Wirkung von wissenschaftlichen Kooperationen hängen vom Entwicklungsstadium eines Landes oder einer Region ab. Vor der Förderung wissenschaftlicher Kooperationen ist es entscheidend zu verstehen, welche Arten von Kooperationen vorteilhafter sind. Unter Berücksichtigung des Standes der regionalen wissenschaftlichen Entwicklung untersucht dieser Beitrag die Wirkung verschiedener Kooperationen auf den regionalen wissenschaftlichen Output. Unsere Ergebnisse verdeutlichen die Unterschiede zwischen den Kooperationseffekten zwischen den Regionen auf verschiedenen Leistungsstufen. Wissenschaftlich schwache Regionen profitieren von einer konzentrierteren Zusammenarbeit, insbesondere mit fortgeschrittenen Binnenregionen. Wissenschaftlich starke Regionen können jedoch von einer zentralen Lage in einem breiteren Kooperationsnetzwerk profitieren. Die Ergebnisse dieser Analyse deuten darauf hin, dass internationale Kooperationen möglicherweise nicht von vornherein vorteilhaft sind. Ob eine Region von internationalen Kooperationen profitiert oder nicht, hängt von der lokalen Kapazität dieser Region ab. Die Einbettung in eine breite Netzwerkstruktur kann dazu beitragen, den Publikationsoutput einer Region zu steigern. Dieser Nutzen ist jedoch nur auf Regionen beschränkt, die über eine relativ höhere Forschungskapazität verfügen.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03220-x ca776ec7b4b5ce3e5ce6ae6e17ed3564;de;;;3.4.;6.4.;;Beeinflusst die Geschlechterstruktur die F&E-Effizienz? Eine regionale Perspektive Der Geschlechterstruktur in Forschung und Entwicklung (FuE) wird im Hinblick auf ihre zunehmende Bedeutung im FuE-Management immer mehr Aufmerksamkeit geschenkt, jedoch ist noch nicht klar, worin die FuE-Effizienzunterschiede zwischen weiblichem und männlichem Personal in Wissenschaft und Technik bestehen ( W&T) und ob sich die Geschlechterstruktur auf die F&E-Effizienz auswirkt. Basierend auf dem Panel-Datensatz der chinesischen Forschungsinstitute auf regionaler Ebene verwendet diese Studie vier Arten von F&E-Outputs (Papiere, Bücher, Patente und Standards) zusammen und einzeln, um die F&E-Effizienzbewertung zu messen, um dieses Thema aufzudecken. Bei der gemeinsamen Betrachtung von vier Arten von FuE-Outputs wendet dieses Papier die stochastische Grenzanalyse mit mehreren Outputs an und stellt fest, dass im Allgemeinen der höhere Anteil an männlichem FuE-Personal die höhere FuE-Effizienz erzeugt. Bezogen auf W&T-Papiere oder W&T-Bücher als einzelnes F&E-Output stellen wir jedoch fest, dass der höhere Anteil an weiblichem F&E-Personal zur höheren F&E-Effizienz führt. Im Gegenteil, die F&E-Effizienz ist mit dem höheren Anteil an weiblichem F&E-Personal geringer, wenn der einzelne F&E-Output anhand von Erfindungspatentanmeldungen bzw. nationalen/industriellen Standards gemessen wird. Unsere Ergebnisse legen nahe, dass weibliches F&E-Personal effektiver bei der Durchführung wissenschaftlicher Forschungsaktivitäten ist, während ihre Kollegen effektiver bei der Durchführung von Technologieentwicklungsaktivitäten sind.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03282-x 94cd39870a647b96042a571d89540170;de;;;3.4.;6.4.;;Wissen erzeugt Wissen: Spillover von Universitätswissen und das Ergebnis wissenschaftlicher Arbeiten aus US-amerikanischen Small Business Innovation Research (SBIR)-Projekten Wissenschaftliche Arbeiten, die von US Small Business Innovation Research (SBIR)-finanzierten Forschungsprojekten zur Veröffentlichung eingereicht wurden, sind ein innovatives Ergebnis, das noch systematisch untersucht werden muss. Unter Verwendung eines Wissensproduktionsrahmens identifizieren wir empirisch Kovariaten mit der Anzahl wissenschaftlicher Arbeiten aus SBIR-Projekten im Zeitraum 1992 bis 2001. Wir stellen empirisch fest, dass mehr wissenschaftliche Arbeiten entstehen, wenn das Unternehmen eine Universität in sein gefördertes Projekt einbezieht. Berücksichtigt man die Form der Hochschulbeteiligung, so stellen wir fest, dass der größte Einfluss auf das Ergebnis wissenschaftlicher Arbeiten aus der Einbeziehung einer Person aus der Hochschule resultiert, die ursprünglich die von der Firma verfolgte Technologie in ihr SBIR-Projekt entwickelt hat. Das heißt, das projektspezifische technische Humankapitalwissen der Universität, das auf das Projekt des Unternehmens überspringt, erzeugt (d. h. bringt) zusätzliches Wissen in Form von zur Publikation eingereichten wissenschaftlichen Arbeiten.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03260-3 588c5a4c292f15db6f6e3f020fc48305;de;;;3.4.;6.4.;;Wie das Publish-or-perish-Prinzip eine Wissenschaft teilt: der Fall der Ökonomen Das Publish-or-perish-Prinzip hat sich im akademischen Leben bei der Erlangung einer Position oder Beförderung durchgesetzt. Es gibt immer mehr Belege dafür, dass den Vorteilen dieses Drucks die Schattenseiten gegenüberstehen, wie Formen der Zielverschiebung durch Wissenschaftler oder unethische Praktiken. In diesem Papier untersuchen wir, ob der wahrgenommene Arbeitsdruck (Publikation, Akquise, Lehre, Verwaltung) mit unterschiedlichen Einstellungen gegenüber Wissenschaft und Arbeitsplatz bei Wirtschaftswissenschaftlern an niederländischen Universitäten verbunden ist. Der Publikationsdruck ist hoch und hängt mit der Position der Fakultät und dem Hochschulranking zusammen. Basierend auf einer latenten Klassenanalyse können wir eine deutliche Kluft unter den Ökonomen feststellen. Rund zwei Drittel der Ökonomen sehen, dass dieser Druck sowohl Vorteile als auch gravierende Nachteile hat und ein Drittel sieht nur Vorteile und keine Nachteile. Ordentliche Professoren sehen mehr als andere Fakultätsmitglieder die positiven Seiten des Publish-or-perish-Prinzips und praktisch keine Nachteile. Diese unterschiedlichen Wahrnehmungen spiegeln sich auch in der Wertschätzung des wissenschaftlichen Arbeitsumfelds wider.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03786-x ab562277022d08d079c256296955327e;de;;;3.4.;6.4.;;Tracking von Forschern und ihren Ergebnissen: neue Erkenntnisse aus ORCIDs Die Fähigkeit, wissenschaftliche Autoren genau zu identifizieren, ist von zentraler Bedeutung für die bibliometrische Analyse. Bemühungen, Autorennamen mithilfe von Algorithmen oder nationalen oder gesellschaftlichen Registern eindeutig zu machen, werden weniger effektiv, da die Zahl der Veröffentlichungen aus China und anderen Ländern zunimmt, in denen gemeinsame und ähnliche Namen weit verbreitet sind. Diese Arbeit analysiert die Einführung und Integration eines Open Source, länderübergreifenden Identifikationssystems, des Open Researcher and Contributor ID Systems (ORCID), in Web of Science Metadaten. Die Ergebnisse auf Artikelebene zeigen, dass der ORCID-Identifikator in Europa bis heute im Vergleich zu Asien und den USA stärker angenommen wird. Die Fokussierung der Analyse auf einzelne häufig zitierte Forscher mit dem gemeinsamen chinesischen Nachnamen „Wang“ deuten auf Einschränkungen bei der Einführung von ORCID hin. Die Mechanismen zur Integration von ORCID-Identifikatoren in Artikel werden auch bei einer Analyse von Co-Autoren eines bestimmten hochzitierten Forschers in Frage gestellt, die unterschiedliche Prozentsätze von Artikeln mit ORCID-Identifikatoren aufweisen. Diese Ergebnisse legen nahe, dass systematische Variationen bei der Übernahme und Integration von ORCID in Publikationsmetadaten bei jeder darauf basierenden bibliometrischen Analyse berücksichtigt werden sollten.;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2473-0 177369f581a5d299018625d59997d98a;de;;;3.4.;6.4.;;Indikatoren der Forschungsplanung: Eine vergleichende Studie von Forschungsgruppen in sechs Ländern In diesem Beitrag wurde versucht, die Merkmale der Forschungsplanung auf der mikrososmischen Ebene der Forschungsgruppe in sechs Ländern – Argentinien, Ägypten, Indien, Republik Korea, Polen und UkSSR – zu untersuchen. Der Beitrag fokussiert auf folgende Aspekte: (1) intrinsische und extrinsische Einflussfaktoren auf die Wahl der Forschungsthemen und Ausrichtung des Forschungsprogramms, (2) Qualität der Forschungsplanung gemessen an Dimensionen wie Planungskonsistenz, Aufgabeninterdependenz und Vorkontakt mit potenziellen Nutzern und (3) Finanzierungsmuster von Forschungsgruppen. Es wurden Unterschiede in den Merkmalen von Forschungsplanungs- und Finanzierungsmechanismen in verschiedenen institutionellen und soziokulturellen Kontexten (Ländern) untersucht.;-;-;-;https://link.springer.com/article/10.1007/BF02016588 4a59356c5e51157605a1fa405676695e;de;;;3.4.;6.4.;;Entschlüsselung der wissenschaftlichen Forschung zu phenolischen Verbindungen von Trauben und Wein: eine bibliometrische Studie Die antioxidative Natur und die bedeutende Rolle, die phenolische Verbindungen bei den organoleptischen Eigenschaften von Wein spielen, machen diese Moleküle zu einem wichtigen Bestandteil der Weinbau- und Önologieforschung. Trotz des großen Umfangs an Trauben- und Weinphenolforschung ist das Verständnis der Phenolchemie und ihrer Rolle bei der Weinqualität immer noch nicht schlüssig. Bibliometrische Studien sind ein wertvolles Instrument, um den Forschungsstand eines bestimmten Themas kritisch zu bewerten. Die Evaluation quantitativer Methoden dient der Verarbeitung messbarer Ergebnisse der Forschungstätigkeit aus Artikeln, die in wissenschaftlichen Zeitschriften veröffentlicht und in Datenbanken aufgenommen wurden. Das Hauptziel dieser Studie war es daher, einen bibliometrischen Ansatz zu phenolischen Verbindungen mit einem ausschließlichen Fokus auf Trauben- und Weinphenole aus einer strengen Weinbau- und Weinbereitungsperspektive bereitzustellen. Um die wissenschaftliche Struktur phenolischer Verbindungen zu bewerten, wurde eine bibliometrische Suche unter Verwendung der Web of Science Core Collection-Plattform von Clarivate Analytics ausgewertet. Die kritische Auswertung der Ergebnisse zeigte, dass erhebliche Anstrengungen zum Verständnis der organoleptischen Rolle phenolischer Verbindungen unternommen wurden. Trotz eines beträchtlichen Umfangs an derzeit verfügbarer Forschung wird erwartet, dass sich die Forschungsbemühungen in Richtung einer umfassenderen Interpretation des Phänomens der Adstringenz und Bitterkeit bewegen werden. Darüber hinaus kann auch spekuliert werden, dass zukünftige Forschungsthemen auf das Verständnis von Weinaromastoffen hindeuten, bei denen auch phenolischen Substanzen eine entscheidende Rolle zugeschrieben wird.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03029-8 f8f8d6748fc64ac549030d9b4dd5f93c;de;;;3.4.;6.4.;;Innovationseffizienz im Ländervergleich Der Zweck dieses Papiers besteht darin, die Schwächen innovativer Aktivitäten aufzuzeigen und die Verbesserung der Innovationseffizienz auf Länderebene durch einen sorgfältigen Vergleich der Innovationseffizienz zwischen den Ländern anzuleiten. Dem konzeptionellen Rahmen folgend, der Innovationsprozesse in Wissensproduktionsprozess (KPP) und Wissenskommerzialisierungsprozess (KCP) unterteilt und duale Netzwerk-DEA-Modelle anwendet, versucht dieser Beitrag den wirtschaftlichen Nutzen von F&E-Outputs zu berücksichtigen. Darüber hinaus konstruieren wir die Produktionsgrenze der Innovationsprozesse und zweier Komponentenprozesse unter unterschiedlichen Annahmen (z. B. konstante Skalenerträge, variable Skalenerträge und nicht steigende Skalenerträge) für 35 Länder über den Zeitraum 2007–2011. Basierend auf der Produktionsgrenze schätzen wir nicht nur die technische Effizienz und Skaleneffizienz für jedes Land, sondern untersuchen und überprüfen auch, ob die Skalenerträge jedes Landes sinken oder steigen. Darüber hinaus addieren wir die radiale Bewegung und die lockere Bewegung, um eine Eingaberedundanz zu erhalten. Wir zerlegen die Eingangsredundanz in zwei Teile:;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1288-5 198b70458fb69d930756ab8168ccea19;de;;;3.4.;6.4.;;Der schwindende wissenschaftliche Reichtum Hongkongs und Singapurs In einer Zeit, in der der Wissenswettlauf am intensivsten ist, wird der wissenschaftliche Reichtum der Nationen immer wichtiger, um die Bereitschaft und Wettbewerbsfähigkeit der Gesellschaften in einer globalisierten, zunehmend unsicheren und integrierten globalen Wissenswirtschaft sicherzustellen. Wissenschaftlicher Reichtum hilft Nationen auch, angesichts des ständig wachsenden Wissens und des technologischen Wandels widerstandsfähig zu werden. Hongkong und Singapur, multikulturelle, internationalisierte und kapitalistische Territorien, waren von Anfang an Teil der Globalisierung und bekannt für ihre lebendigen Forschungsgemeinschaften. Da sich Ostasien und Südostasien jedoch zu weltweiten Forschungszentren entwickeln und mit zunehmender regionaler Wettbewerbsfähigkeit konfrontiert sind, bleibt die Frage, ob die beiden Gebiete im Wettbewerb mithalten und im globalen Wissenswettlauf eine Schlüsselrolle spielen. Die Analyse ihres Wissensaufbaus und ihrer weltweiten Auswirkungen in den letzten 20 Jahren zeigt, dass diese beiden Gebiete Schwierigkeiten haben, Schritt zu halten und eine nachlassende Wettbewerbsfähigkeit aufweisen. Dieser Verlust an Wettbewerbsfähigkeit, auch in wichtigen Themenbereichen wie Entscheidungswissenschaften und Wirtschaft, in denen sie in der Vergangenheit erhebliche Vorsprünge hatten, macht diese Gebiete als Wissenszentren nicht von anderen zu unterscheiden, und sie sind daher potenziell weniger sichtbar und weniger attraktiv für potenzielle wissensrelevante Investoren. Da sie weiterhin stark internationalisiert sind, scheint der Hauptgrund für diese Trends in der kritischen Unterinvestition in ihre Forschungssysteme zu liegen.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2845-0 7943e97ac0797beca6810cb37f4c0f98;de;;;3.4.;6.4.;;Messung des Einflusses und der Wirkung von Wettbewerbsforschung: ein Web of Science-Ansatz Der Zweck dieses Papiers besteht darin, den Einfluss und die Auswirkungen der Wettbewerbsforschung zu messen, indem die 100 am häufigsten zitierten Artikel zum Thema Wettbewerbsfähigkeit identifiziert werden, die zwischen 1980 und 2013 in akademischen Zeitschriften veröffentlicht wurden, die in der Datenbank des Web of Science des Institute for Scientific Information indiziert sind Zitationsanalyse untersuchten wir die Anzahl der Zitate, die in diesem 34-jährigen Zeitraum zu den 100 meistzitierten Artikeln gemacht wurden, die sich mit Wettbewerbsfähigkeit befassen. Wir identifizierten auch Artikel, Autoren, Zeitschriften, Institutionen und Länder, die den größten Beitrag zur Wettbewerbsliteratur geleistet haben. Außerdem haben wir festgestellt, in welchen Kategorien des Web of Science diese Artikel veröffentlicht wurden und wie die zeitliche Verteilung ihrer Veröffentlichung ist. Darüber hinaus haben wir den Grad der Wettbewerbsfähigkeit untersucht, der die meiste Aufmerksamkeit erhalten hat, und den neuesten Analysestand in der Wettbewerbsforschung. Wir untersuchten auch die Art des Forschungsdesigns, das diese Artikel verwendeten. Schließlich haben wir die beliebtesten behandelten Themen und die Art des Unternehmens oder der Branche/den Namen der Nation oder Region bestimmt, die von diesen Artikeln analysiert wurden. Die Ergebnisse dieser Forschung bieten eine zuverlässige Grundlage für Wettbewerbsforscher, um ihre Studien besser zu planen und den Einfluss und die Wirkung ihrer Forschungsarbeiten zu erhöhen. Die am häufigsten zitierten Artikel, die in anderen Datenbanken und Kategorien veröffentlicht wurden, und das Zitieren dieser Artikel in anderen Veröffentlichungen und Ressourcen verdienen jedoch möglicherweise zukünftige Forschung.;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1731-2 d902185f9e3d09ccb6c827eb3c7609d2;de;;;3.4.;6.4.;;Forschungskultur und Neuseelands leistungsbasierter Forschungsfonds: einige Erkenntnisse aus bibliografischen Zusammenstellungen von Forschungsergebnissen Die Trends der Forschungsergebnisse im Jahresvergleich zeigen eine Zunahme der Forschungsaktivität, wenn das Datum der Forschungsbewertung – in Neuseeland der Performance-Based Research Fund (PBRF) – abzeichnet. Darüber hinaus weisen zeitliche Veränderungen in Anzahl und Art der Konferenzpräsentationen darauf hin, dass auch das Publikationsvehikel vom PBRF beeinflusst wird. Innerhalb der neuseeländischen Business Schools zeigt der Vergleich der veröffentlichten Zeitschriftenartikel mit der Rangliste des Australian Business Deans Council einen Trend zu mehr Veröffentlichungen mit niedrigerem Rang, was Zweifel aufkommen lässt, ob die Rhetorik über die Verbesserung der Forschungsqualität durch die PBRF wirklich gerechtfertigt ist. Dieser „Trieb“ zu immer mehr Forschungsergebnissen wird auch durch einen zunehmenden Trend zur Co-Autorenschaft im Publizieren über alle Disziplinen hinweg gefördert.;-;-;-;https://link.springer.com/article/10.1007/s11192-010-0201-0 072a9d74d88d417fb3f59b6994641004;de;;;3.4.;6.4.;;Bewertung öffentlich-privater Forschungskooperationen: Ist ein Vergleich der Hochschulleistungen möglich? Es ist allgemein anerkannt, dass die Zusammenarbeit zwischen dem öffentlichen und dem privaten Forschungssektor angeregt und unterstützt werden sollte, um Innovation und regionale Entwicklung zu fördern. Diese Arbeit verfolgt einen bibliometrischen Ansatz, der auf der Co-Autorenschaft wissenschaftlicher Publikationen basiert, um ein Modell zur vergleichenden Messung der Leistung öffentlicher Forschungseinrichtungen in Zusammenarbeit mit der heimischen Industrie in Zusammenarbeit mit dem Privatsektor vorzuschlagen. Das Modell beruht auf einem von den Autoren entwickelten Identifizierungs- und Begriffsklärungsalgorithmus, um jede Publikation mit ihren tatsächlichen Autoren zu verknüpfen. Es wird ein Anwendungsbeispiel des Modells für das akademische System und private Unternehmen in Italien gegeben. Die Studie zeigt, dass für jede Wissenschaftsdisziplin und jede Landesverwaltungsregion die Leistung einzelner Hochschulen sowohl in der intra- als auch in der außerregionalen Zusammenarbeit, normiert auf Standortvorteile, gemessen werden kann. Solche Ergebnisse können nützlich sein, um regionale Politiken und leistungsorientierte öffentliche Finanzierung von Forschungsorganisationen zu informieren.;-;-;-;https://link.springer.com/article/10.1007/s11192-009-0104-0 5d67974b3576ce8826ef68f331b8f111;de;;;3.4.;6.4.;;Rang-normalisierter Journal Impact Factor als Vorhersageinstrument Die Zitationsdaten von Artikeln aus den Top 25 der nach Impact Factor (IF) eingestuften internationalen Zeitschriften werden anhand von 59 internationalen geowissenschaftlichen Zeitschriften aus dem Jahr 1998 und 378 polnischen geologischen Artikeln aus den Jahren 1989 bis 1994 verglichen. Es besteht ein geringes Risiko, nicht zitiert zu werden, wenn Ergebnisse in Zeitschriften mit hohem IF veröffentlicht werden, da die durchschnittliche Nichtzitationsrate über einen Zeitraum von 10 Jahren in dieser sich nicht sehr schnell entwickelnden wissenschaftlichen Disziplin 0,88 beträgt. Ebenso gering ist die etablierte Fehlerquote bei der Prognose des erwarteten Zitiererfolgs gegenüber dem Misserfolg anhand der extremen IF-Quartile als Bewertungsinstrument (maximal 12,5). Somit ist der Einsatz der rangnormalisierten Zeitschrift IF als Proxy der realen Zitierhäufigkeit und damit als prädiktives Instrument bei der a priori Qualifizierung von kürzlich erschienenen Publikationen eine rationale zeit- und kostensparende Alternative (oder zumindest eine signifikante Ergänzung) zum traditionellen informierten Peer-Review. Die pauschale Kritik an der Nutzung von IF für Entscheidungen in der Forschungsförderung ist daher zumindest teilweise übertrieben.;-;-;-;https://link.springer.com/article/10.1007/s00005-009-0006-0 bb87366a04b732fe952e726f2e8aa1a5;de;;;3.4.;6.4.;;Patentbezogene Aktivitäten in Serbien von 1921 bis 1995 1883 war das Königreich Serbien Mitbegründer der bekannten Pariser Verbandsübereinkunft zum Schutz des gewerblichen Eigentums. Dieser Beitrag präsentiert die Analyse der erfinderischen Aktivitäten in Serbien im Zeitraum von 1921 bis 1995. Die verfügbaren Patentstatistiken werden unter folgenden Aspekten analysiert: (a) Patentstruktur gemäß den Abschnitten der Internationalen Patentklassifikation und (b) Patentdynamik. Die Analyseergebnisse zeigen: (1) die Bereiche, in denen in Serbien Technologieentwicklungspotenziale geschaffen werden, und (2) die Schwankungen der Erfinderproduktivität als direkte Folge der unterschiedlichen Innovationspolitik des Landes.;-;-;-;https://link.springer.com/article/10.1007/BF02458354 97ba89fa4cde472587a9a900e40cd481;de;;;3.4.;6.4.;;Mehrschichtiges heuristikbasiertes Clustering-Framework (MHCF) zur Disambiguierung von Autorennamen name Die Mehrdeutigkeit des Autorennamens ist ein nicht triviales Problem, mit dem digitale Bibliotheken und wissenschaftliche Datensuchmaschinen derzeit konfrontiert sind und ihre Ergebnisse in Bezug auf die von ihnen bereitgestellten Autorendaten beeinflussen. Die meisten existierenden Lösungsvorschläge sind komplex, unflexibel, funktionsabhängig, konzentrieren sich auf spezifische Szenarien, beruhen auf schlüsselwortbasierten Ähnlichkeiten und unterscheiden Autoren mit einer geringeren Anzahl von Zitaten als andere (mit mehr Veröffentlichungen) mit demselben Namen ineffektiv. All dies erfordert ein flexibles Rahmenwerk zur Namensdisambiguierung, das einfach, generisch und kontextbewusst ist und Autoren mit gleichen Namen, aber unterschiedlicher Anzahl von Zitaten effektiv disambiguieren kann. In diesem Papier schlagen wir ein mehrschichtiges, heuristikbasiertes Clustering-Framework vor. Globale und strukturbewusste Funktionen werden verwendet, um Publikationen mithilfe unseres vorgeschlagenen Research2vec-Modells zu gruppieren. Im Gegensatz zu vielen heuristikbasierten mehrschichtigen Ansätzen verwendet unser vorgeschlagenes Framework besser unterscheidende Leistungsmerkmale, die unserem vorgeschlagenen Merkmalsrang inkrementell folgen, um falsch positive Ergebnisse nach jeder Zusammenführung zu minimieren. Außerdem verwendet unser vorgeschlagenes Framework im Gegensatz zu anderen ähnlichen Ansätzen Kontextinformationen, um ähnliche Publikationen zu gruppieren, anstatt dieselben Schlüsselwörter zu finden. Wir haben unser vorgeschlagenes Framework unter Verwendung von drei verschiedenen Datensätzen sorgfältig gegen zwei auf der Worteinbettung basierende Ansätze, zwei heuristikbasierte, zwei hybride und ein graphbasierter Ansatz evaluiert. Die Ergebnisse zeigen deutlich die bessere Leistung unseres Frameworks als alle, dh MHCF-G (+ 5 % pF1), MHCF-GL (+ 10 % pF1), MDC (+ 12 % pF1), HHC (+ 32 % pF1), SAND- 1 (+ 31 %), SAND-2 (+ 22 %) und GFAD (+ 18 %). Unsere vorgeschlagene Lösung wird auch anhand unseres neu vorgeschlagenen Datensatzes „CustAND“ bewertet, der mehr als 11 diskriminierendste Funktionen umfasst, die in aktuellen UND-Datensätzen zusammen nicht verfügbar sind. Die experimentellen Ergebnisse mit der CustAND-Sammlung zeigen, dass unser Framework mit nur drei Funktionen einen Gesamt-pF1 von 93,3 % erreichen kann, was seine Wirksamkeit weiter demonstriert.;-;-;-;https://link.springer.com/article/10.1007/s11192-021-04087-7 7400109fed43bb28251eb6a40114b7d1;de;;;3.4.;6.4.;;Die wissenschaftliche Ökonomie der Aufmerksamkeit: Ein neuer Zugang zur kollektiven Rationalität der Wissenschaft Wissenschaft ist der Kernbereich der heutigen Wissensproduktion. Die Mechanismen der Wissenschaft als Industrie sind jedoch kaum verstanden. Die ökonomische Wissenschaftstheorie steckt noch in den Kinderschuhen, und die Wissenschaftsphilosophie hat sich nur spärlich mit der Frage der ökonomischen Rationalität auseinandergesetzt. Forschung ist jedoch teuer. Der ineffiziente Ressourceneinsatz der wissenschaftlichen Industrie ist dem kollektiven Erkenntnisfortschritt ebenso abträglich wie methodische Mängel. Ökonomische Ineffizienz umfasst methodische Unzulänglichkeit. Methoden sind unzureichend, wenn sie dazu neigen, Zeit und Aufwand falsch zu verteilen. Lässt man die Frage weg, wie bei der selbstorganisierten Wissensproduktion Inputs in Outputs umgewandelt werden, so vernachlässigt man einen wesentlichen Aspekt der kollektiven Rationalität der Wissenschaft. Eine selbstorganisierte Tendenz zur Effizienz tritt in den Vordergrund, sobald Wissenschaft als Ökonomie beschrieben wird, in die Forschende ihre eigene Aufmerksamkeit investieren, um die Aufmerksamkeit anderer zu gewinnen. So gesehen scheint die Wissenschaftskommunikation ein Markt zu sein, auf dem Informationen gegen Aufmerksamkeit ausgetauscht werden. Wissenschaftliche Informationen werden an der Aufmerksamkeit gemessen, die sie verdienen. Da Wissenschaftler wissenschaftliche Informationen als Produktionsmittel fordern, ist die Aufmerksamkeit, die eine Theorie auf sich zieht, ein Maß für ihren Wert als Investitionsgut. Auf der anderen Seite wird die Aufmerksamkeit, die ein Wissenschaftler verdient, in dem Vermögenswert namens Reputation kapitalisiert. Ausarbeitung der in vorgestellten Ideen;-;-;-;https://link.springer.com/article/10.1023/A%3A1016059402618 240c3ba91c62678f2c90d441e0098771;de;;;3.4.;6.4.;;In welchen Regionen patentieren und veröffentlichen Universitäten mehr? Das Hauptziel dieses Beitrags ist es zu prüfen, ob Hochschulpatente gemeinsame Determinanten mit Hochschulpublikationen auf regionaler Ebene haben. Wir bauen einige universitäre Produktionsfunktionen mit 1.519 Patenten und 180.239 Veröffentlichungen für die 17 spanischen autonomen Regionen (NUTS-2) in einem Zeitraum von 14 Jahren (1988–2001) auf. Wir verwenden ökonometrische Modelle, um ihre Determinanten zu schätzen. Unsere Ergebnisse legen nahe, dass die Regionalpolitik wenig Spielraum hat, um die Produktion von Patenten gegenüber Veröffentlichungen durch verschiedene universitäre oder gemeinsame Forschungseinrichtungen zu kompensieren. Im Gegenteil, während Patente stärker auf FuE-Ausgaben reagieren, reagieren Veröffentlichungen stärker auf die Zahl der Forscher, so dass die nachhaltige Förderung beider es für die Regionen vereinbar macht, ihre gemeinsame Produktion zu produzieren. Um sich jedoch bei der Erzeugung beider Outputs hervorzuheben, sind kostspielige Investitionen in verschiedene Inputs erforderlich.;-;-;-;https://link.springer.com/article/10.1007/s11192-007-0202-9 4f3e182682ae296cb66a8d85b1c4284d;de;;;3.4.;6.4.;;Die Auswertung der indischen Krebsforschung, 1990–2010 Die Ergebnisse der Krebsforschung in Indien haben in den letzten Jahren stark zugenommen, mit einem gewissen Anstieg ihrer Zitationszahlen. Ein Teil des Anstiegs des Outputs ist auf die größere Berichterstattung im Web of Science indischer Zeitschriften zurückzuführen, die klinischer als internationale sind und viel seltener zitiert werden. Andere Wertschätzungsmaßstäbe sind ebenfalls gestiegen, wie der Prozentsatz der Rezensionen und die Unmittelbarkeit, mit der indische Krebsartikel zitiert werden. Der größte Teil der Produktion stammte aus nur neun der 35 indischen Bundesstaaten und Unionsterritorien, angeführt von Neu-Delhi und Maharashtra. Die Verteilung des Forschungsaufwands nach Krebsherden korreliert mäßig positiv mit der relativen Krankheitslast, wobei Mundkrebs (Kopf-Hals-Krebs) (oft durch das Kauen von Tabak oder Areca, Betel oder Paan verursacht) die meisten Todesfälle verursacht und auch causing gut recherchiert werden. Wir analysierten die Artikel auch nach Art der Forschung, wobei Artikel über Genetik und Chemotherapie am zahlreichsten waren. Für in den Jahren 2009–2010 veröffentlichte Artikel lagen Daten zu den Förderzusagen vor, und wir fanden erwartungsgemäß, dass Artikel in klinischen Fächern seltener durch Drittmittel gefördert wurden als in der Grundlagenforschung. Die wichtigste Quelle der Unterstützung war die indische Regierung mit relativ geringen Beiträgen von Wohltätigkeitsorganisationen und der Industrie, anders als in Großbritannien und anderen westeuropäischen Ländern.;-;-;-;https://link.springer.com/article/10.1007/s11192-012-0633-9 f08f6744fb666c431526a8c8eaf86442;de;;;3.4.;6.4.;;Forschung evaluieren: vom informierten Peer Review zur Bibliometrie In immer mehr Ländern werden nationale Übungen zur Forschungsbewertung zu regelmäßigen Veranstaltungen. Die vorliegende Arbeit kontrastiert die Peer-Review- und Bibliometrie-Ansätze bei der Durchführung dieser Übungen. Der Vergleich erfolgt in Bezug auf die wesentlichen Parameter jedes Messsystems: Genauigkeit, Robustheit, Validität, Funktionalität, Zeit und Kosten. Empirische Evidenz zeigt, dass für die Natur- und Formwissenschaften die bibliometrische Methodik dem Peer-Review weit vorzuziehen ist. Die Einrichtung nationaler Datenbanken mit Publikationen einzelner Autoren, die aus Web of Science- oder Scopus-Datenbanken abgeleitet werden, würde viel bessere, billigere und häufigere nationale Forschungsbewertungen ermöglichen.;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0352-7 ea7037d07669ef7221b593f7478c0a9c;de;;;3.4.;6.4.;;Die Determinanten der Forschungsleistung an europäischen Universitäten: eine groß angelegte Mehrebenenanalyse Das Papier untersucht die Forschungsleistung europäischer Universitäten auf disaggregierte Weise unter Verwendung einer Vielzahl von Indikatoren aus Scopus-Publikationen, einschließlich Volumenindikatoren (Anzahl der Artikel, Anzahl der Zitationen) und Qualitätsindikatoren (Prozentsatz der Publikationen in den oberen 10 % und Top 25 % SNIP-Zeitschriften, Prozentsatz der Zitationen aus Top 10 % und Top 25 % Zeitschriften). Diese Indikatoren gelten als abhängige Variablen in einem mehrstufigen Schätzrahmen, in dem die Forschungsleistung in einem wissenschaftlichen Bereich von Variablen auf Hochschulebene und auf der Ebene des externen regionalen Umfelds abhängt. Der untersuchte Bereich ist Medizin für den Zeitraum 2007–2010. Das Papier nutzt zum ersten Mal die Integration von Publikationsdaten mit der Erhebung europäischer Universitäten (ETER). Eine Vielzahl von Hypothesen wird getestet und diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2442-7 5697c8e4760820596aeb86f7b5d1ff01;de;;;3.4.;6.4.;;Wie beeinflussen produktive Professoren die Zitierwirkung ihrer Fakultäten? Professoren und außerordentliche Professoren („Professoren“) in Vollzeitstellen sind Schlüsselpersonen in der wissenschaftlichen Tätigkeit der universitären Fakultäten, sowohl in ihrer eigenen Forschung als auch in ihrer Rolle als Projektleiter und Mentoren für Nachwuchswissenschaftler. Typischerweise trägt diese Personalgruppe auch wesentlich zum Publikationsoutput der Fachbereiche bei, aber auch andere MitarbeiterInnen (z.B. DoktorandInnen, Postdocs, GastwissenschaftlerInnen, Studierende und Pensionäre) tragen maßgeblich dazu bei. Die wissenschaftliche Produktivität ist jedoch auf der Ebene des Einzelnen sehr verzerrt, auch bei Professoren, wo typischerweise ein kleiner Bruchteil der Professoren einen großen Teil der Veröffentlichungen ausmacht. In dieser Studie untersuchen wir, wie sich das Produktivitätsprofil eines Fachbereichs (d. h. das Niveau der symmetrischen/asymmetrischen Produktivität bei Professoren) auf die Zitationswirkung ihrer Fachbereiche auswirkt. Der Schwerpunkt liegt auf den Beiträgen der produktivsten Professoren. Die Ergebnisse deuten darauf hin, dass sich der Einfluss der produktivsten Professoren je nach Wissenschaftsbereich und dem Grad der Produktivitätsschiefe ihrer Fakultäten unterscheidet. Dennoch ist der Einfluss der produktivsten Professoren auf die Zitationswirkung ihrer Fakultäten insgesamt bescheiden.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-1900-y bcc4cd052673cb00d7eab0313067e6c2;de;;;3.4.;6.4.;;Untersuchung, wie die Wissenschaftspolitik auf Landesebene Veröffentlichungsmuster beeinflusst: der Fall Polen case Diese Länderfallstudie beschreibt, wie wissenschaftspolitische Instrumente zur Gestaltung von Publikationsmustern konzipiert sind, und identifiziert die Veränderungen der Produktivität von Forschern, die im Zeitraum 2009–2016 in Polen beobachtet werden können, indem Daten zu 452.277 Publikationen analysiert werden, die an das nationale Forschungsbewertungssystem des Landes übermittelt wurden. Unsere Analyse zeigt, dass politische Instrumente im nationalen Forschungsevaluationssystem, akademische Promotionsverfahren und kompetitive Stipendien die Zahl der Artikel mit Impact-Faktor erhöht haben, ohne die Publikationsqualität, gemessen an einem bibliometrischen Indikator, zu beeinträchtigen. Unsere Ergebnisse zeigen, dass nur klare und stabile Anreize die Veröffentlichungen von Forschern beeinflusst haben. Daher sind Muster in wissenschaftlichen Buchpublikationen, für die keine klaren und stabilen Regelungen vorhanden waren, von der Wissenschaftspolitik nicht wesentlich geprägt.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03092-1 b7add882397f7023cece324dcd3e465b;de;;;3.4.;6.4.;;Internationalisierung von Patenten durch öffentliche Forschungsorganisationen aus historischer und wirtschaftlicher Perspektive Im Bereich der Wissenschaftsorganisation konzentrieren sich die Bedenken hinsichtlich der Art und Weise, wie Wissenschaftler Patente generieren, auf einen einzigen Satz nationaler oder internationaler Patente. Das Hauptziel dieser Forschung ist es, sowohl nationale als auch internationale Patente zu untersuchen, um ihre Unterschiede zu verstehen. Wir haben dieses Thema sowohl aus historischer als auch aus wirtschaftlicher Sicht angegangen und dabei Daten des spanischen Nationalen Forschungsrats (CSIC), der größten PRO in Spanien, verwendet. In der Geschichte des CSIC lassen sich je nach politischem Kontext drei Perioden unterscheiden, nämlich die Diktatur (1939–1975), der Übergang zur Demokratie (1976–1986) und die Demokratie (1987-bis heute). Der vorherrschende rechtliche und institutionelle Rahmen hat die Entwicklung der Patentierung durch CSIC in jeder dieser Perioden geprägt. Die gegenwärtige Situation zeichnet sich durch eine starke Internationalisierung der Patenttätigkeit aus, und in dieser jüngsten Periode untersuchen wir Trends bei einigen wirtschaftlichen Einflüssen auf die Patenttätigkeit. Wir schließen daraus, dass der politische und normative Kontext die Kultur der internationalen Patentierung bei PROs wie dem CSIC prägen kann und dass die zunehmende technologische Zusammenarbeit diese Internationalisierung unterstützt hat. Sehr häufig werden jedoch ausländische Partner in den Antrag aufgenommen, um aus wirtschaftlichen Gründen den Schutz ins Ausland zu erweitern, sodass ihre Zahl möglicherweise kein guter Indikator für erfinderische Tätigkeit ist.;-;-;-;https://link.springer.com/article/10.1007/s11192-009-0421-3 3a7bfe18a372a953dc4c4a9fb532de72;de;;;3.4.;6.4.;;Kollagenforschung in den 1970er Jahren Die Spezialität der Kollagenforschung wird über einen Zeitraum von zehn Jahren, 1970–1979, unter Verwendung der Methodik von Co-Citation-Cluster-Strings verfolgt. Unabhängig erhaltene jährliche Cluster werden im Laufe der Zeit durch den Prozentsatz der häufig zitierten Dokumente, die von Jahr zu Jahr zählen, miteinander verknüpft. Alle Inter-Jahres-Links werden durch Single-Linkage zu den Strings gebündelt, von denen einer der Collagen-Spezialität entspricht. Karten der einzelnen Jahrescluster innerhalb des Strings zeigen ein abwechselndes Muster von Expansion/Innovation gefolgt von Kontraktion/Konsolidierung. Gleichzeitig verschiebt sich der thematische Schwerpunkt der Forschung nach und nach. Die institutionelle Zugehörigkeit und die Finanzierungsquellen für häufig zitierte Dokumente zeigen einen Trend von der frühen Dominanz einiger weniger Institutionen und Quellen zu einer späteren Multiplizität und Zusammenarbeit von Zentren und Quellen, auch aufgrund der Abwanderung von Forschern aus einer zunächst dominanten Institution.;-;-;-;https://link.springer.com/article/10.1007/BF02016863 14854bb7297b7cfc94e683ea7633fc3d;de;;;3.4.;6.4.;;Fallstricke bei der Bewertung der Forschungsleistung nach Stipendieneinnahmen Die Strategie, die Qualität wissenschaftlicher Forschung nach der Höhe der Fördermittel zu beurteilen, wird kritisch hinterfragt. Es wird argumentiert, dass ein Index wie das Pro-Kopf-Forschungseinkommen, das auf einem Peer-Review-Verfahren basiert, ein unbefriedigendes Maß für die wissenschaftliche Leistung liefert. Er erfüllt eine grundlegende Anforderung eines Leistungsindikators nicht, nämlich dass er Outputs zu Inputs in Beziehung setzen sollte. Es hat an sich eine geringe Validität und ist stark mit einer Vielzahl von Fremdfaktoren verbunden, die nichts mit der Forschungsleistung zu tun haben.;-;-;-;https://link.springer.com/article/10.1007/BF02020000 7470fcec06601082b8e8641e8ad40762;de;;;3.4.;6.4.;;Was bedeuten vom Patentprüfer eingefügte Zitate für eine Region mit geringer Absorptionskapazität? Die meisten Studien zu Patentzitaten konzentrieren sich auf nationale oder internationale Kontexte, insbesondere auf Kontexte mit hoher Aufnahmefähigkeit, und verwenden Prüferzitate. Wir argumentieren, dass die Ergebnisse variieren können, wenn wir die Region als Analysekontext verwenden, insbesondere wenn es sich um eine Region mit geringer Absorptionsfähigkeit handelt, und wenn wir Bewerberzitate und von Prüfern eingefügte Zitate getrennt untersuchen. Anhand einer Stichprobe aus der Valencianischen Gemeinschaft (Spanien) kommen wir zu dem Schluss, dass (i) die Verwendung von von Prüfern eingefügten Zitaten als Stellvertreter für die Zitate von Anmeldern, (ii) die Interpretation von Nichtpatentreferenzen als Indikatoren für Verbindungen zwischen Wissenschaft und Industrie und (iii) die traditionellen Ergebnisse der geografischen Lokalisierung sind nicht auf alle Regionen mit geringer Absorptionskapazität übertragbar.;-;-;-;https://link.springer.com/article/10.1007/s11192-008-2081-0 443c64deee4a6ad1e071b81c28a2b8bf;de;;;3.4.;6.4.;;Interdisziplinäre Zusammenarbeit innerhalb einer Universität messen: Die Auswirkungen des multidisziplinären Forschungsprogramms Ein Multidisziplinäres Forschungsprogramm (MRP) wird seit 1989 an der Universidad Complutense de Madrid (UCM), Spanien, entwickelt, um disziplinübergreifende Forschungsprojekte zu unterstützen. Dieser Artikel analysiert das Auftreten von Interdisziplinarität in den wissenschaftlichen Publikationen der UCM im Zeitraum 1990-96 und versucht, den Erfolg des Programms bei der Förderung disziplinübergreifender Forschung zu bestimmen. Interdisziplinarität in der UCM wird durch die Zusammenarbeit von Autorinnen und Autoren verschiedener institutioneller Adressen innerhalb der UCM gemessen, sowohl in wissenschaftlichen Publikationen als auch in Forschungsprojekten. Veröffentlichungen, die von den verschiedenen Teams, die an den Projekten zusammenarbeiten, gemeinsam unterzeichnet wurden, wurden als Indikator für den Erfolg des Programms bei der Integration von Disziplinen identifiziert. Die interdisziplinäre Zusammenarbeit innerhalb der UCM zeigte im Zeitverlauf einen Aufwärtstrend. Publikationen von MRP-Gruppen zeigten eine höhere interdisziplinäre Kooperationsrate als der Rest der UCM (17 % vs. 9 %). Dramatische Auswirkungen des Programms waren aufgrund seines begrenzten Umfangs nicht zu erwarten, aber es wirkte als Katalysator und förderte die interdisziplinären Beziehungen innerhalb der UCM. Das Interesse eines solchen Programms wird durch seine Auswirkungen unterstützt, sowohl direkte Auswirkungen auf gewährte Teams als auch indirekt auf die gesamte UCM-Community.;-;-;-;https://link.springer.com/article/10.1007/BF02459599 ee8fd11a6257166aa518155d7059bf3b;de;;;3.4.;6.4.;;Nationale Forschungsbewertungsübungen: ein Maß für die Verzerrung von Leistungsrankings, wenn Arbeitseinsatz als einheitlich behandelt wird Die Messung der Effizienz der wissenschaftlichen Forschungstätigkeit birgt kritische methodische Aspekte, von denen viele nicht ausreichend untersucht wurden. Obwohl viele Studien die Beziehung zwischen Qualität und Forschungsproduktivität und akademischem Rang untersucht haben, ist nicht viel über das Ausmaß der Verzerrung nationaler Hochschulleistungsrankings bekannt, wenn der akademische Rang und die anderen Arbeitsfaktoren nicht als Faktor der Normalisierung betrachtet werden. Diese Arbeit präsentiert eine vergleichende Analyse, die darauf abzielt, die Sensitivität bibliometrischer Rankings gegenüber der Wahl des Inputs zu quantifizieren, wobei Input nur als Anzahl der Forscher im Personal oder alternativ auch deren Kosten berücksichtigt werden. Das Beobachtungsfeld umfasst alle 69 italienischen Universitäten, die in den harten Wissenschaften tätig sind. Die Leistungskennzahlen basieren auf den 81.000 Publikationen, die im Triennium 2004–2006 von allen 34.000 wissenschaftlichen Mitarbeitern erstellt wurden, mit Analysen auf Ebene der einzelnen Disziplinen, insgesamt 187. Der Effekt der Umstellung von Arbeit auf Kosten scheint bis auf einige Ausreißer minimal zu sein.;-;-;-;https://link.springer.com/article/10.1007/s11192-010-0164-1 861831d2da313fe650bdc1e875e59487;de;;;3.4.;6.4.;;Sind organisatorische und wirtschaftliche Nähe treibende Faktoren für die wissenschaftliche Zusammenarbeit? Nachweise von spanischen Universitäten, 2001–2010 Dieses Papier zielt darauf ab, die Auswirkungen der organisatorischen und wirtschaftlichen Nähe auf die wissenschaftliche Zusammenarbeit (SC) zwischen spanischen Universitäten zu untersuchen, die Einrichtungen in einem peripheren Land der EU-15 sind. Die Methodik für unsere Forschung basiert auf Daten aus einer Reihe von gemeinsam verfassten Artikeln, die im Science Citation Index von Web of Science indiziert und zwischen 2001 und 2010 von 903 zusammenarbeitenden Universitäten veröffentlicht wurden. Dieser Beitrag trägt in mehrfacher Hinsicht zur vorhandenen Literatur bei. Zunächst wollen wir untersuchen, wie sich die spanische akademische SC im Zeitraum 2001–2010 entwickelt hat, um herauszufinden, welche Universitäten anfälliger für eine Zusammenarbeit waren. Zweitens analysieren wir, wie sich die Zusammenarbeit über Distanzen im Laufe der Zeit entwickelt hat, wobei wir zwei Zeiträume berücksichtigen: 2001–2005 und 2006–2010. Schließlich stellen wir ein ökonometrisches Modell vor, um zu analysieren, wie sich geografische, kognitive, institutionelle, soziale, organisatorische und wirtschaftliche Nähe auf SC auswirken. Unter anderem stellen wir fest, dass Unterschiede in der Größe der kooperierenden Universitäten für die Erklärung des akademischen SC nicht relevant sind, während Unterschiede in Alter und internationaler Berufung das SC beeinflussen. Hinsichtlich der wirtschaftlichen Nähe sind Unterschiede im BIP nicht relevant, während Unterschiede in der Finanzierung auf eine stärkere Kooperation zwischen Hochschulen mit unterschiedlicher Finanzierung hindeuten. Aufbauend auf unseren Ergebnissen liefern wir einige politische Implikationen.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03748-3 932245799618fd2d971dcf2fa0558468;de;;;3.4.;6.4.;;Forschung und Innovation im Hochschulbereich: Empirische Evidenz aus Forschung und Patentierung in Brasilien Diese Studie präsentiert ein hierarchisches Differenzierungsspiel zwischen Universitäten und Wissenschaftlern, um Innovation und Forschung im Hochschulbereich zu untersuchen. In diesem stilisierten Setup maximieren Wissenschaftler die Wirkung ihrer Forschung und Universitäten maximieren ihren Marktwert. Innovationen spielen eine zentrale Rolle bei den Anreizen der Universität zur Steigerung der Produktivität der Wissenschaftler, gemessen an wissenschaftlichen Publikationen und Zitationen, die sich im beruflichen Erfolg der Wissenschaftler niederschlagen. Die akademische Produktivität der Stipendiaten erhöht die Reputation und den Marktwert der Universität. Unter Verwendung brasilianischer Daten deuten scheinbar unzusammenhängende Regressionsschätzungen darauf hin, dass die Zahl der veröffentlichten Arbeiten mit Drittmitteln und dem Prozentsatz der promovierten Fakultäten wächst, während die Zahl der Zitationen mit dem Vorhandensein von Graduiertenprogrammen und einer höheren Lehrqualität verbunden ist. Die Marktbewertung wird jedoch durch Innovationen negativ beeinflusst, was auf einen fehlenden Fokus auf Patentierung und Technologietransfer in Brasilien schließen lässt.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2744-4 d06e64e55f20b939c482963bcaba4b0c;de;;;3.4.;6.4.;;Die Rolle von Web of Science-Publikationen im chinesischen Tenure-Systemure Tenure bietet eine unbefristete Stelle für Dozenten an Hochschulen. In Nordamerika wird er an Personen verliehen, die in Forschung, Lehre und Dienstleistungen in einem begrenzten Zeitraum herausragende Leistungen erbracht haben. Allerdings wird in China die Forschungsexzellenz (repräsentiert durch die Anzahl der Web of Science-Publikationen) im Tenure-Assessment im Vergleich zu Exzellenz in Lehre und Dienstleistungen stark gewichtet, was jedoch nie systematisch untersucht wurde. Durch die Analyse der Tenure-Assessment-Dokumente chinesischer Universitäten zeigt diese Studie die Rolle von Web of Science-Publikationen im chinesischen Tenure-System und präsentiert die Landschaft des Tenure-Assessment-Prozesses an chinesischen Hochschuleinrichtungen.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03339-x 158cebc75a450f7ff4b5fbff766fc956;de;;;3.4.;6.4.;;Stärkung der Kompetenzverknüpfung mit Innovation an koreanischen Universitäten Die Ära der offenen und nachhaltigen Innovation hat neue Arten der Personalentwicklung (HR) an koreanischen Universitäten eröffnet und erfordert. Die typische akademische und berufliche Bildung an Universitäten funktioniert im Zeitalter der technologischen Konvergenz und offenen Innovation nicht effektiv. Wissen und Fähigkeiten für grünes Wachstum und schnelle technologische Innovation erfordern sehr geschickte, breite und komplexe Kompetenzen von HRs. In dieser Studie werden Kompetenzen für grünes Wachstum und disruptive Innovation skizziert und verschiedene Methoden zur Kompetenzsteigerung an koreanischen Universitäten vorgeschlagen. Diese Studie untersucht die Arten von Kompetenzen für die zukünftige Gesellschaft und schlägt vor, wie die Universität dazu beitragen kann, Talente für HRs mit multifunktionalen und hohen Kompetenzen zu fördern. Der Autor zeichnet eine Kompetenz- und Fähigkeitsstruktur in Korea, zusammengefasst in der Wertschöpfungskette von Kompetenzen zwischen HRs mit hohen Kompetenzen, HRs mit mittleren Kompetenzen und HRs mit niedrigen Kompetenzen. Insbesondere befasst sich der Autor mit innovationsorientierten Bereichen wie Maschinenbau und Chemie/Pharma, daher kann sich das Bild von typischen Fertigungsbranchen wie Automobil- und Schiffbau unterscheiden. Aber auch die Fertigungsbereiche entwickeln sich zu innovationsorientierten Sektoren. Und dann untersucht der Autor den Fluss der einzelnen HRs nach Ebenen und Bereichen und wie sie sich auf das koreanische Innovationssystem auswirken.;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0497-4 128b94396ff8d81a9eae74b5896035c8;de;;;3.4.;6.4.;;Patente oder Zeitschriftenartikel erstellen? Ein länderübergreifender Vergleich der F&E-Produktivitätsänderung Dieses Papier vergleicht die Entwicklung der FuE-Produktivität in den einzelnen Ländern unter Berücksichtigung der Tatsache, dass nationale FuE-Ausgaben zu mehreren Ergebnissen führen können, darunter Patente und Zeitschriftenartikel. Basierend auf dem Konzept der gerichteten Distanzfunktion und dem Luenberger-Produktivitätsindex entwickelt dieses Papier einen Luenberger-F&E-Produktivitätsänderungsindex (LRC) und zerlegt ihn dann in F&E-Effizienzänderung (Aufholeffekt) und F&E-Technischer Wandel (Innovationseffekt). Unter Verwendung eines Panel-Datensatzes von 29 Ländern über den Zeitraum 1998-2005 zur Umsetzung der empirischen Schätzung zeigen die Ergebnisse, dass das Produktivitätswachstum in Forschung und Entwicklung hauptsächlich auf den Innovationseffekt zurückzuführen ist, während Nicht-OECD-Länder sowohl bei Effizienzänderungen als auch bei technischen ändern als ihre OECD-Pendants. Darüber hinaus ist das patentorientierte F&E-Produktivitätswachstum die Hauptquelle des nationalen F&E-Produktivitätswachstums als das zeitschriftenartikelorientierte.;-;-;-;https://link.springer.com/article/10.1007/s11192-012-0811-9 4aaf84bb007417d63e890a8bc7160e3b;de;;;3.4.;6.4.;;Kritische Masse und Abhängigkeit der Forschungsqualität von der Gruppengröße Akademische Forschungsgruppen werden als komplexe Systeme behandelt und ihr kooperatives Verhalten aus mathematisch-statistischer Sicht analysiert. Entgegen der naiven Erwartung, dass die Qualität einer Forschungsgruppe lediglich durch das mittlere Kaliber ihrer einzelnen Wissenschaftler bestimmt wird, zeigen wir, dass gruppeninterne Interaktionen eine dominierende Rolle spielen. Unser Modell manifestiert Phänomene, die Phasenübergängen ähnlich sind, die durch diese Wechselwirkungen hervorgerufen werden und die die Quantifizierung des Begriffs der kritischen Masse für Forschungsgruppen erleichtern. Wir stellen diese kritischen Massen für viele wissenschaftliche Bereiche vor. Eine Konsequenz unserer Analyse ist, dass die Gesamtforschungsleistung einer bestimmten Disziplin durch die Unterstützung mittlerer Gruppen gegenüber großen verbessert wird, während kleine Gruppen danach streben müssen, eine kritische Masse zu erreichen.;-;-;-;https://link.springer.com/article/10.1007/s11192-010-0282-9 1df51c5cc298a74f3f7aee6276ae7c71;de;;;3.4.;6.4.;;Forschungsdiversifizierung und -wirkung: der Fall der nationalen Entwicklung der Nanowissenschaften Newcomer-Nationen, gefördert von Entwicklungsstaaten, haben Ressourcen in die Nanotechnologie-Entwicklung gesteckt und ihren Einfluss auf die Nanowissenschaftsforschung, gemessen an Forschungszitaten, dramatisch gesteigert. Einige erreichten diese Zuwächse, indem sie Papiere mit deutlich höherer Wirkung produzierten, anstatt einfach mehr Papiere zu produzieren. Die Nationen, die an relativer Stärke am meisten zunahmen, bauten keine Spezialisierungen auf bestimmte Teilbereiche auf, sondern diversifizierten stattdessen ihre Forschungsportfolios im Bereich Nanotechnologie und ahmten den globalen Forschungsmix nach. Wir zeigen dies anhand eines Panel-Datensatzes, der die Nanotechnologie-Forschungsleistung von 63 Ländern über 12 Jahre abdeckt. Die umgekehrte Beziehung zwischen Forschungsspezialisierung und Wirkung ist robust gegenüber verschiedenen Methoden zur Messung beider Variablen, der Einführung von Kontrollen für die Länderidentität, des Umfangs der nanowissenschaftlichen Forschungsleistung (ein Proxy für die wissenschaftliche Leistungsfähigkeit eines Landes) und der Herkunftslandverzerrung bei der Zitation und verschiedene Versuche, die Stichproben der beteiligten Länder und Zeitschriften neu zu gewichten und aufzuteilen. Die Ergebnisse stimmen damit überein, dass der wissenschaftliche Fortschritt von Neuankömmlingen besser durch Diversifizierung als durch Spezialisierung erreicht wird.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-2062-7 03c586ca3f4f5e9cedaf2af47911e1d3;de;;;3.4.;6.4.;;Szientometrics for Science Management: Kollaboration und Wissensstrukturen und -komplexitäten in einem interdisziplinären Forschungsprojekt Die wissenschaftliche Forschung steht vor dem Problem der Zunahme an Größe und Komplexität. Daher wurde der Einsatz szientometrischer Methoden für das Wissenschaftsmanagement aufgrund des Bedarfs an einem strategischen und organisatorischen Management der wissenschaftlichen Grundlagenforschung und akademischen Forschung erwartet. Die vorliegende Studie konzentriert sich auf Kollaborations- und Wissensstrukturen in einem interdisziplinären Forschungsprojekt und schlägt einen Bewertungsrahmen vor, der die datengetriebene Entscheidungsfindung in der wissenschaftlichen Forschung durch die Messung der Komplexität dieser Strukturen unterstützt. Aus den bibliographischen Informationen von Publikationen, die in einem interdisziplinären Forschungsprojekt generiert wurden, wurden Co-Autoren- und Co-Wort-Netzwerke konstruiert und durch Berechnung der Graphentropie wurden Querschnitts- und Längsschnittanalysen zur Komplexität durchgeführt. Beobachtungen dieser Netzwerke zeigten die verschiedenen strukturellen Merkmale und Modi der Zeitentwicklung. Die Ergebnisse der Querschnittsanalyse zeigten, dass die Korrelationen zwischen dem Ausmaß der Änderung dieser Komplexitäten die Möglichkeit einer Induktion in die Wissensstruktur durch die Kollaborationsstruktur nahelegen. Die Ergebnisse der Längsschnittanalyse zeigten, dass die Abnahme der Komplexitätszunahme im Laufe der Zeit den Übergang der Strategie der beobachteten Fälle von der Förderung interdisziplinärer Forschung zur Integration von Forschungsergebnissen zur Verwirklichung der Vision widerspiegelt. Der vorgeschlagene Rahmen wird es ermöglichen, Echtzeit- und evidenzbasierte Managementpraktiken in der wissenschaftlichen Forschung zu implementieren.;-;-;-;https://link.springer.com/article/10.1007/s11192-021-04080-0 c72b6d10531b220f8ac597415f22cf4d;de;;;3.4.;6.4.;;Elektromobilitätsforschung in Deutschland und China: strukturelle Unterschiede Elektromobilität (E-Mobilität) ist anwendbar auf Themen von nachhaltigem Transport bis hin zu revolutionärem Fahrverhalten. Der weitreichende Einfluss dieses Konzepts erfordert eine Verschiebung hin zu einer Internationalisierung der Elektromobilitätsforschung in Industrie- und Entwicklungsländern gleichermaßen. Deutschland und China als größte Exporteure und Volumenproduzenten der Automobilindustrie haben sich zum Ziel gesetzt, bis 2020 Marktführer in der E-Mobilität zu werden. Im Vergleich zu China liegt Deutschland als Vorreiter im Bereich E-Mobilität unerwartet sowohl beim Verkaufsvolumen von Elektrofahrzeugen (EV) als auch beim Anteil der internationalen Publikationen hinterherhinken. Seit 2006 ist China nach den Vereinigten Staaten der zweitgrößte einzelne „Produzent“ von veröffentlichten Forschungsergebnissen zu Elektrofahrzeugen. Die technologischen Fähigkeiten – die Anwendung von Wissenschaft auf reale Probleme – scheinen jedoch in diesen Veröffentlichungen unterrepräsentiert zu sein. Dieser Beitrag untersucht strukturelle Unterschiede in E-Mobility-Forschungslandschaften und untersucht mögliche kontextuelle Erklärungen für die Unterschiede zwischen Deutschland und China. Die Studie umfasst einen detaillierten Vergleich von Artikeln aus beiden Ländern, beginnend mit einem breiten Überblick über die aktuelle Forschung und endend mit einer kurzen Inhaltsanalyse der Stellungnahme zu aktuellen Fortschritten und praktischen Herausforderungen für die Entwicklung der Elektromobilität in Deutschland und China. Die Schlussfolgerung ist, dass beide Länder Themen in Bezug auf EV-Modi, Batterien, Energiemanagement und Smart Grid untersucht haben, sich jedoch die spezifischen Interessen in den beiden Ländern unterschiedlich entwickelt haben. Deutschland hat im Vergleich zu China keinen rasanten Anstieg der Zahl der internationalen Publikationen erreicht, aber dennoch durch die wissenschaftliche Zusammenarbeit zwischen Wissenschaft und Industrie ein riesiges Reservoir an wissenschaftlichen Talenten und technologischen Ressourcen aufgebaut. Universitäten als Hauptstandorte der wissenschaftlichen Forschung in China haben sich aktiv in der internationalen Zusammenarbeit engagiert und Probleme ohne erkennbare Unterschiede zu denen in Deutschland angegangen. Die Ansichten der Autoren zur Entwicklung der Elektromobilität in den beiden Ländern sind von Gruppe zu Gruppe sehr unterschiedlich, was darauf hindeutet, dass Unterschiede sowohl im Muster der Wissensproduktion als auch im Forschungskontext berücksichtigt werden sollten.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2873-9 a72c58959cb5b12288fcf9913e7f85b8;de;;;3.4.;6.4.;;Neurowissenschaften als Brücke zwischen wissenschaftlichen Disziplinen im Gesundheitsbereich: Wer baut die Brücke, wer bezahlt sie? Ziel dieser Studie ist es, die Dynamik der interdisziplinären Forschung in gesundheitsbezogenen Feldern in Abhängigkeit von individuellen und institutionellen Faktoren zu untersuchen. In den Jahren 1996–2014 untersuchen wir die Themen von mehr als 500.000 Dissertationen von US-amerikanischen Institutionen in sechs Hauptdisziplinen. Wir stellen fest, dass (1) der Gesamtumfang interdisziplinärer Studien im Laufe der Jahre konstant geblieben ist, während es einen zunehmenden Trend zur interdisziplinären Forschung zwischen den Biowissenschaften und den Ingenieurwissenschaften sowie den Biowissenschaften und den Verhaltenswissenschaften gibt, insbesondere in den letzten Jahren Jahren und (2) auf Fachebene nimmt die interdisziplinäre Forschung rund um die Neurowissenschaften rapide zu und die Neurowissenschaften werden zu einer der wichtigsten Brücken zwischen den Fächern in verschiedenen Disziplinen. Eine weitere Untersuchung zeigt, dass die Tendenz zur interdisziplinären neurowissenschaftlichen Forschung durch einen institutionellen Trend getrieben wird, der über verschiedene Abteilungen hinweg auftritt, und dass ein Zusammenhang zwischen verzögertem neurowissenschaftlichem Fördereinsatz und der Erstellung disziplinübergreifender neurowissenschaftlicher Dissertationen besteht. Insgesamt bieten unsere Ergebnisse neue Einblicke in die Dynamik interdisziplinärer Gesundheitsforschung, die Rolle von Themen als Brückenschlag zwischen verschiedenen Disziplinen sowie Human- und Finanzierungskapital beim Brückenschlag.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2887-3 a8e32a748573d4fc69f948c94935c0d7;de;;;3.4.;6.4.;;Identifizierung potenzieller Technologienutzer für den Technologietransfer mittels Patentzitationsanalyse: eine Fallanalyse eines koreanischen Forschungsinstituts Das Ziel dieser Studie ist es zu untersuchen, ob die Patentzitierungsanalyse für Entscheidungen über den Technologietransfer verwendet werden kann. Genauer gesagt interessieren sich die Autoren dieses Papiers für die Identifizierung potenzieller Technologienutzer durch Patentzitierungsanalyse. Frühere Forschungen stützten sich auf die Schlüsselwörter von Patenten und waren daher in der Praxis schwierig umzusetzen, wenn Unternehmen eine große Anzahl von Patenten zur Übertragung behalten. In dieser Studie versuchen wir, IPCs anstelle von Schlüsselwörtern zu verwenden. Unser Ansatz besteht darin, dominante IPC und Unterklassen einer Organisation durch Anwendung der Co-Klassifizierungsanalyse zu identifizieren und Firmen zu untersuchen, die die Patente in der dominanten IPC zitiert haben. Unserer Ansicht nach können die in diesem Prozess untersuchten Organisationen potenzielle Nutzer von Technologie sein. Um unsere Ansicht zu verifizieren, haben wir die Patente und Technologietransferfälle von zwei Abteilungen des K Research Institute in Korea untersucht. Die Ergebnisse zeigen, dass unsere Ansicht nur für einen begrenzten Bereich richtig war. Wir vermuten, dass die Gründe in den technologischen Merkmalen und dem Firmengrößeneffekt liegen. Daher schlagen wir vor, dass weitere Untersuchungen unter Berücksichtigung der technologischen Merkmale und der Unternehmensgröße durchgeführt werden sollten.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2792-9 0a8a2b8faf405ee1310f48045523bf4b;de;;;3.4.;6.4.;;Bewertung der sozialen Wirkung der Gesundheitsforschung: ein systematischer Review In den letzten Jahren wird der Bewertung der gesellschaftlichen Auswirkungen der Forschung eine wachsende Aufmerksamkeit gewidmet. Während sich die bisherige Forschung oft mit Forschungsergebnissen beschäftigt hat, hat das letzte Jahrzehnt damit begonnen, Erkenntnisse über die Bewertung der sozialen Auswirkungen der Gesundheitsforschung zu generieren. Dieses Wissen ist jedoch über verschiedene Disziplinen, Forschungsgemeinschaften und Zeitschriften verstreut. Daher analysiert dieser Beitrag das heterogene Bild, das die Forschung in den letzten Jahren gezeichnet hat, mit Fokus auf die gesellschaftlichen Auswirkungen der Gesundheitsforschung auf unterschiedliche Akteure durch eine interdisziplinäre, systematische Übersicht. Durch die Konsultation wichtiger Forschungsdatenbanken haben wir 53 wichtige Zeitschriftenartikel bibliografisch und thematisch analysiert. Wir argumentierten, dass die Einführung eines Multi-Stakeholders eine Weiterentwicklung der bestehenden Methoden sein könnte, die zur Bewertung der Wirkung der Forschung verwendet werden. Nachdem wir ein Modell zur Bewertung der gesellschaftlichen Wirkung der Gesundheitsforschung mit einer Multi-Stakeholder-Perspektive vorgestellt haben, schlagen wir die Implementierung in den Forschungsprozess von drei Praktiken vor: einem Multi-Stakeholder-Workshop zur Forschungsagenda, einem Multi-Stakeholder-Aufsichtsrat, einem Multi-Stakeholder-Review-Prozess .;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2585-6 51ef9e662c313cd4bc5277463089f788;de;;;3.4.;6.4.;;Der Wettlauf zwischen den USA und der EU um die Führung in Wissenschaft und Technologie: Qualitative und quantitative Indikatoren Sowohl die Vereinigten Staaten als auch die Europäische Union haben sich Ziele für eine weltweite Führungsrolle in Wissenschaft und Technologie gesetzt. Während die USA bei den meisten quantitativen Inputindikatoren führend sind, können Outputindikatoren spezifischer sein, um die gegenwärtige Führungsposition zu bestimmen. Sie zeigen, dass die EU bei wichtigen Kennzahlen die Führung übernommen hat und bei anderen die USA herausfordert. Qualitative Indikatoren für Forschungs- und Entwicklungsbereiche, basierend auf von den Autoren organisierten Expertenstudien, bestätigen, dass viele EU-Labors denen in den USA gleich oder besser sind.;-;-;-;https://link.springer.com/article/10.1023/B%3ASCIE.0000034379.75236.d9 512e7a0fd7f8454ccf97042ce2282540;de;;;3.4.;6.4.;;Die Determinanten von Forschungskooperationen: Untersuchung der Auswirkungen von Forschung und Forschermerkmalen auf die Koautorenschaft Angesichts der hohen Priorität, die der Forschungszusammenarbeit unter der Annahme, dass sie eine höhere Produktivität und Wirkungsrate liefert als nicht-kollaborative Ergebnisse, eingeräumt wird, werden Forschungszusammenarbeitsformen vor ihrer Durchführung auf ihren Nutzen und ihre Kosten bewertet. Forscher sind verantwortlich für die Auswahl ihrer Kooperationsmodi, eine Entscheidung, die durch strategische Entscheidungen getroffen wird, die von ihrer Umgebung und den Kompromissen zwischen Alternativen beeinflusst werden. In diesem Zusammenhang untersucht dieses Papier unter Verwendung bibliografischer Informationen und verwandter interner Daten des Korea Institute of Machinery and Materials (KIMM, einem repräsentativen koreanischen Regierungsinstitut für mechanische Forschung) die vorgeschlagenen, aber noch nicht bewiesenen Determinanten von Forschungskooperationsmodi, die der SCI-Datensatz kann nicht durch ein multinomiales Probit-Modell aufgedeckt werden. Die Ergebnisse deuten darauf hin, dass informelle Kommunikation, kulturelle Nähe, akademische Exzellenz, externe Finanzierung und technologische Entwicklung eine bedeutende Rolle bei der Bestimmung spezifischer Kooperationsmodi wie Einzelforschung, interne Zusammenarbeit, nationale Zusammenarbeit und internationale Zusammenarbeit spielen. Dieses Papier verfeinert Kollaborationsmodus-Studien, indem es das tatsächliche Kollaborationsphänomen beschreibt, wie es in Forschungsinstituten auftritt, und die Motivationen, die eine Forschungszusammenarbeit auslösen, und es Forschungsmanagern ermöglicht, Forscher zur Zusammenarbeit in einem geeigneten Kontext der Entscheidungsfindung zu ermutigen.;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0474-y 03d03f29729afde07d03e4788665b1c5;de;;;3.4.;6.4.;;Variabilität der Forschungsleistung zwischen den Disziplinen innerhalb von Universitäten in nicht kompetitiven Hochschulsystemen Viele Nationen verfolgen Strategien für die Hochschulbildung, die die Entwicklung von Eliteuniversitäten betonen, die in der Lage sind, auf internationaler Ebene bei der Anziehung von Fähigkeiten und Ressourcen zu konkurrieren. Eliteuniversitäten streben Exzellenz in all ihren Disziplinen und Handlungsfeldern an. Es entsteht der Eindruck, dass dies in „nicht-kompetitiven“ Bildungssystemen nicht der Fall ist, sondern dass innerhalb einzelner Universitäten exzellente Disziplinen mit mittelmäßigen koexistieren. Um dies zu testen, messen die Autoren die Forschungsproduktivität in den Hard Sciences für alle italienischen Universitäten im Zeitraum 2004–2008 auf Ebene der Institution, ihrer einzelnen Disziplinen und Fachgebiete. Die Ergebnisse zeigen, dass sich die Verteilung exzellenter Disziplinen nicht auf wenige Universitäten konzentriert: Spitzenuniversitäten weisen oft mittelmäßige Disziplinen und Fachgebiete auf, während in der Regel mittelmäßige Universitäten oft Spitzendisziplinen umfassen.;-;-;-;https://link.springer.com/article/10.1007/s11192-013-1088-3 3efabc672f391b31fb7f28b291e145fd;de;;;3.4.;6.4.;;Wenn internationale akademische Konferenzen virtuell werden Diese Studie untersucht, inwieweit internationale akademische Konferenzen das Format in virtuelle ändern, wenn sie mit einer plötzlichen Immobilität im Zusammenhang mit Covid-19 konfrontiert sind. Daten zu 587 Konferenzen aus den Bereichen Betriebswirtschaftslehre, Informatik, Management und andere Sozialwissenschaften, die zwischen März und August 2020 geplant waren, werden aus autorisierten Konferenzverzeichnissen abgerufen. Etwa 28 % der Konferenzen wechselten im untersuchten Zeitraum in das virtuelle Format. Probit-Schätzungen zeigen, dass die Wahrscheinlichkeit des Formatwechsels auf virtuell mit dem Land des Standorts (USA), dem Planungshorizont und der verfügbaren Qualität der Breitbandinfrastruktur im geplanten Konferenzland steigt. Die Rolle des Planungshorizonts unterscheidet sich jedoch je nach Fachgebiet und Ort der Konferenz. Die Wahrscheinlichkeit virtueller Konferenzen ist in den USA und bei akademischen Konferenzen im Bereich der Informationstechnologie am höchsten.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03754-5 76a9dba786e9172f917b086e4076f324;de;;;3.4.;6.4.;;Nationale Peer-Review-Forschungsbewertungsübungen für die harten Wissenschaften können eine komplette Geldverschwendung sein: der Fall Italien Es wurde reichlich gezeigt, dass die Bibliometrie dem Peer-Review für nationale Forschungsbewertungsübungen in den Hard Sciences überlegen ist. In diesem Beitrag untersuchen wir den italienischen Fall, wobei die bibliometrische Rangliste der Hochschulleistungen 2001–2003 als Maßstab dient. Wir vergleichen die Genauigkeit der ersten nationalen Bewertung, die ausschließlich durch Peer-Review durchgeführt wurde, mit anderen kostenlos erstellten Ranglisten, die auf indirekt mit der Leistung verknüpften oder im Internet verfügbaren Indikatoren basieren. Die Ergebnisse zeigen, dass für die Hard Sciences die Kosten für die Durchführung der italienischen Evaluation von Forschungseinrichtungen vollständig hätten vermieden werden können.;-;-;-;https://link.springer.com/article/10.1007/s11192-012-0875-6 2b61ebc5a8e5b38410890f4da1cf3671;de;;;3.4.;6.4.;;Effizienzbewertung und Konvergenz in Lehre und Forschung an italienischen öffentlichen Universitäten Dieses Papier untersucht das Muster der Lehr- und Forschungsleistungen, die Beziehung zwischen ihnen und die Konvergenz für italienische öffentliche Hochschulen im Zeitraum 2000–2010, indem es verschiedene Bootstrap-robuste nichtparametrische Grenzschätzer vergleicht. Insgesamt finden wir eine Effizienzsteigerung, hauptsächlich getrieben durch die Forschung, während die Lehreffizienz nur in den allerersten Jahren des Stichprobenzeitraums zunimmt. Auch stellen wir einen leicht positiven Zusammenhang zwischen Forschungs- und Lehrleistungen fest. Darüber hinaus stellen wir fest, dass die italienischen Hochschulen im beobachteten Zeitraum konvergieren, obwohl Forschung und Lehre dies in unterschiedlichem Tempo tun. Unsere empirischen Ergebnisse sind robust gegenüber alternativen Schätzern und Bootstrapped-Bias-Korrektur.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-1903-8 fe1f5cabe053f6cb1e5c9df3215411ec;de;;;3.4.;6.4.;;Internationalisierung, Innovation und wissenschaftlich-unternehmensbezogene Kopublikationen Die Forschungspolitik fordert oft internationale akademische Zusammenarbeit oder Kooperationen zwischen Universitäten und anderen gesellschaftlichen Akteuren. Um das Verständnis solcher Kooperationen zu verbessern, wurde eine systematische Analyse von wissenschaftlich-unternehmensbezogenen Kopublikationen mit Fokus auf die internationale Dimension durchgeführt. Basierend auf dem weltweiten Publikationsvolumen in der Scopus-Datenbank ergibt sich, dass Kopublikationen aus Wissenschaft und Unternehmen einen höheren Zitiereffekt aufweisen als andere Publikationsarten. Ein weiteres Ergebnis ist, dass solche Co-Publikationen zu einem großen Teil international gemeinsam verfasst wurden. Studien in zehn Ländern und den zehn plus zehn größten akademischen und unternehmerischen Institutionen in diesen Ländern in Bezug auf wissenschaftlich-unternehmensbezogene Kopublikationen bestätigen diese Ergebnisse und liefern weitere Details. Schließlich weisen die Ergebnisse auf eine positive Korrelation zwischen dem Anteil der Kopublikationen zwischen Wissenschaft und Unternehmen in einem Land und der Innovationsleistung in Indizes wie dem Global Innovation Index und dem European Innovation Scoreboard hin. Diese Studie unterstreicht die Notwendigkeit, die Zahl der Koautoren und den hohen Anteil internationaler Kopublikationen zu berücksichtigen, wenn Analysen auf wissenschaftlich-unternehmensbezogenen Kopublikationen basieren. Auch wenn Kopublikationen zwischen Wissenschaft und Unternehmen nur einen kleinen Teil aller Kooperationen zwischen Wissenschaft und Unternehmen widerspiegeln, erweisen sich Kopublikationen zwischen Wissenschaft und Unternehmen als eines von vielen potenziellen Instrumenten zur Bewertung von Kooperationen zwischen akademischen und unternehmerischen Akteuren und damit verbundenen Investitionen in die Forschung useful und Innovation. Es wird auch argumentiert, dass die Ergebnisse der Studie eine Politik unterstützen, die die Zusammenarbeit zwischen Wissenschaft und Unternehmen fördert, die zu Ko-Publikationen führt.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03799-6 8f48d53a96db531711e0b35b8192f949;de;;;3.4.;6.4.;;Bewertung der Publikationsleistung von Forschungseinheiten: Erweiterungen durch operative Forschung und wirtschaftliche Techniken Es gibt viele quantitative Messgrößen, um die Publikationsleistungen von Forschungseinheiten wie Universitätsabteilungen oder Instituten zu bewerten. Zu den weiteren Mängeln zählen neben den bekannten Problemen solcher Maßnahmen unzureichende Anpassungen der relativen Unternehmensgröße und der Forscherintensität, die Konzentration der Forschung auf einige wenige und nicht auf alle Forscher und Verzögerungen zwischen Personal und Veröffentlichung. Dieser Artikel stellt eine weitere Reihe möglicher Messindizes auf der Grundlage von operativem Research und ökonomischen Kennzahlen vor, die sich um jedes dieser Defizite anpassen können und die Analysten mit relativ geringem Aufwand in bestehende Kennzahlen integrieren können.;-;-;-;https://link.springer.com/article/10.1007/s11192-010-0210-z 9e5f0a9b24f15fa64c91ced69c4c39d7;de;;;3.4.;6.4.;;Analyse der medizinischen und biologischen Schmerzforschungsliteratur in der Europäischen Union: Eine Momentaufnahme aus dem Jahr 2006 Diese Studie analysierte 2443 Artikel, die 2006 von Autoren der Europäischen Union zur Schmerzforschung veröffentlicht wurden. Fünf EU-Länder (Großbritannien, Deutschland, Italien, Niederlande und Frankreich) veröffentlichten jeweils > 200 Artikel, während drei Länder (Zypern, Malta und Estland) keine veröffentlichten. Sozioökonomische Indikatoren bezogen sich auf die Produktivität jedes Landes. Die 2443 Artikel wurden in 592 Zeitschriften veröffentlicht und;-;-;-;https://link.springer.com/article/10.1007/s11192-008-2102-z b83b12f12ed87e2b760cad8660923a8a;de;;;3.4.;6.4.;;Einflussfaktoren auf die wissenschaftliche Leistung von Momentum-Stipendiaten: eine Bewertung der ersten 117 Forschungsgruppen Das 2009 gestartete Momentum-Programm fördert den Aufbau neuer, unabhängiger Forschungsgruppen an ungarischen Hochschulen mit bis zu 1 Million Euro. Hier war es unser Ziel, Faktoren zu bestimmen, die mit dem wissenschaftlichen Output dieser Forschungsgruppen zusammenhängen. Die Publikationsdaten wurden aus dem Ungarischen Archiv für wissenschaftliche Arbeiten heruntergeladen (;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2852-1 f03a1bc79f506aa0af7343ad155a5958;de;;;3.4.;6.4.;;Wissensquellen von Innovationsstudien in Korea: Eine Zitationsanalyse Dieses Papier untersucht die Wissensquellen koreanischer Innovationsstudien mittels Zitationsanalyse, basierend auf einer koreanischen Datenbank von 1993 bis 2004. Etwa zwei Drittel des Wissens stammen aus ausländischen Quellen und 94% davon stammen aus englischen Materialien.;-;-;-;https://link.springer.com/article/10.1007/s11192-007-1826-5 0f51006ab5481a7d7e40c59ad96d60cd;de;;;3.4.;6.4.;;Quantifizierung der Forschungswirkung Die Entwicklung von Methoden zur Quantifizierung von Forschungswirkungen hat verschiedene Formen angenommen: die Wirkung von Forschungsergebnissen auf andere Forschung, durch verschiedene Formen der Zitationsanalyse, die Wirkung von Forschung und Technologie, durch aus Patenten abgeleitete Daten, die wirtschaftlichen Auswirkungen von Forschungsprojekte und -programme, durch eine Vielzahl von Kosten-Nutzen-Analysen, den Einfluss der Forschung auf die Unternehmensleistung, wo kein Zusammenhang mit dem Gewinn besteht, aber eine starke positive Korrelation mit dem Umsatzwachstum festgestellt wurde, und Berechnungen der sozialen Rendite über die Investitionen in die Forschung.;-;-;-;https://link.springer.com/article/10.1007/BF02018009 3a90bd5fd543e24f2104d66ec49477e1;de;;;3.4.;6.4.;;Die F&E-Zusammensetzung der europäischen Länder: konzentrierte versus verteilte Profile In dieser Studie verwenden wir einen einzigartigen Datensatz, der alle Hochschulen, öffentliche Forschungseinrichtungen und private Unternehmen umfasst, die sich im Zeitraum 2007–2017 um Fördermittel für die Europäischen Rahmenprogramme für Forschung und Innovation beworben haben.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03062-7 25fe986d1f6b36fd3e59fa2118b4794a;de;;;3.4.;6.4.;;Bewertung des Aufwands für die Probenahme von Fischen in Studien an brasilianischen Bächen Neotropische Bachfischansammlungen haben in den letzten Jahrzehnten viel wissenschaftliche Aufmerksamkeit auf sich gezogen. Allerdings bleiben die räumlichen und zeitlichen Muster bei der Stichprobenerhebung und die in den Studien verwendeten Methoden unklar. Hier führten wir eine eingehende Überprüfung der veröffentlichten Literatur zu brasilianischen Bachfischansammlungen durch und zeichneten auf, wo und wie diese Erhebungen durchgeführt wurden. Wir stellten fest, dass die Zahl der Studien im Laufe der Zeit zugenommen hat, jedoch weiterhin erhebliche geografische Verzerrungen bestehen, wobei die meisten Studien im Südosten und Süden Brasiliens durchgeführt wurden. In den Studien wurde eine Vielzahl von Probenahmemethoden eingesetzt, aber wir fanden einen zunehmenden Trend zur Verwendung des Elektrofischens, Probenahmen von Bachlängen von 50 Metern und über eine Dauer von 60 Minuten. Rarefaction-Kurven zeigten, dass der Probenahmeaufwand im Verhältnis zur Anzahl der beprobten Flüsse in allen untersuchten Becken gering ist, insbesondere im Amazonas, in den Becken von Tocantins Araguaia, São Francisco und Uruguay sowie im Nordosten Brasiliens. Daher betonen wir die Bedeutung weiterer Erhebungen in diesen Regionen, da selbst grundlegende Parameter für ökologische Studien und Naturschutz, wie der Artenreichtum, stark unterschätzt werden. Angesichts der jüngsten Kürzungen der öffentlichen Mittel für die wissenschaftliche Forschung in Brasilien betonen wir auch die Bedeutung von Netzwerken und Kooperationen zwischen brasilianischen Ichthyologen, um der wissenschaftlichen Produktion mehr Wert zu verleihen und zu einer größeren Standardisierung von Daten beizutragen.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03418-4 bc4aee4b6f3289deef08de6e201a1bee;de;;;3.4.;6.4.;;Unter Berücksichtigung der Entrepreneurship-Theorie Diese Studie analysiert mehr als drei Jahrzehnte Theorietests, die in führenden Entrepreneurship-Zeitschriften veröffentlicht wurden. Es deckt den Umfang der Theorieprüfung auf, das Ausmaß der Mehrfachprüfung von Theorien und die disziplinären Ursprünge der geprüften Theorien. Die Analyse zeigt, dass empirische Forscher im Laufe der Zeit zunehmend auf die Nachfrage nach mehr theoriegeleitetem Wissen durch inländische Theoriebildung und umfassende Übernahme von Theorien aus anderen Bereichen reagiert haben. Es wird beobachtet, dass die am meisten getesteten Theorien aus anderen wissenschaftlichen Bereichen übernommen werden. Der Wert der am weitesten verbreiteten Agency-Theorie wird über ein Screening-Modell für ausländische Theorien bewertet. Das Ergebnis legt nahe, dass Forscher nicht vorsichtig genug sein können, wenn sie ausländische Theorien für die inländische Wissensentwicklung in Betracht ziehen. Letztendlich wird Forschern dringend empfohlen, die zahlreichen inländischen Theorien zu testen, die speziell entwickelt wurden, um die dringenden, praktischen Probleme der unternehmerischen Disziplin zu beantworten.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2699-5 324faf0f74f494fac5a166869f42ffc5;de;;;3.4.;6.4.;;Wissenschaftliche Verbindungen zwischen wissenschaftlichen Artikeln und Patenten für führende Wissenschaftler im Bereich der Bio- und Medizinwissenschaften: der Fall Japan Wir analysieren die Verteilung von Papier-Papier- und Papier-Patent-Zitaten und schätzen die Beziehung zwischen ihnen basierend auf einer 4763-Papier-Stichprobe unter den 100 besten Forschern in den Bereichen Biowissenschaften und Medizin in Japan. Wir stellen fest, dass Zitationen in Papierform im Durchschnitt über 4 Jahre ihren Höhepunkt erreichen, während die entsprechende Verzögerung für Zitationen in Papierform 6 Jahre beträgt. Darüber hinaus zeigen wir, dass die Papierqualität wichtig ist, um von einem Patent zitiert zu werden. Zwischen dem Forschungsstipendium und der Forschungsqualität besteht eine inverse U-förmige Beziehung, während zwischen der Forschungsqualität und der Gesamtzahl der Arbeiten eine U-förmige Beziehung besteht.;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1795-z e9248464112672ae4aa460ba7f050f05;de;;;3.4.;6.4.;;Blinde Überprüfung von Forschungsanträgen in Korea: Ihre Wirksamkeit und Faktoren, die die Bewerbererkennung beeinflussen Dieser Artikel befasst sich mit der potentiellen Wirksamkeit von Blind Reviews bei der Auswahl und Finanzierung von Forschungsanträgen in einem „wissenschaftlich kleinen“ Land. Durch die Analyse von 474 Antworten der verblindeten Gutachter, die jemals für den Korea Science and Engineering Fund gearbeitet haben, wurde festgestellt, dass die Blindprüfung ziemlich effektiv ist. Etwa zwei Drittel der verblindeten Gutachterinnen und Gutachter konnten die Bewerberinnen und Bewerber nicht genau erkennen. Beeinflusst wurde die Bewerbersuche durch (1) körperliches Alter, (2) Berufserfahrung und (3) geografische Lage der Promotionsausbildung des Bewerbers, (4) Gutachtererfahrung, (5) Rang der berufstätigen Hochschulen der Gutachterinnen und Gutachter und ( 6) Ähnlichkeit des Forschungsinteresses zwischen einem Antragsteller und einem Gutachter. Es wurde auch festgestellt, dass blinde Überprüfungen stärker von denjenigen befürwortet wurden, die eine falsche Schätzung abgegeben oder das Raten aufgegeben hatten. Implikationen der Ergebnisse und zukünftige Forschungsrichtungen wurden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF02458466 666754be8b7149303fd19aa6f2d2940e;de;;;3.4.;6.4.;;Vergleich brasilianischer Forscher in der klinischen Medizin: Sind Kriterien für das Ranking gut angepasst? Die Quantifizierung der relativen Leistung einzelner Wissenschaftlerinnen und Wissenschaftler ist zu einem festen Bestandteil der forschungspolitischen Entscheidungsfindung geworden. Das Ziel der vorliegenden Studie war zu bewerten, ob der Stipendienrang der Forscher des Brasilianischen Rates für wissenschaftliche und technologische Entwicklung (CNPq) in der Medizin mit ihrer wissenschaftlichen Produktivität übereinstimmt. Die Lattes-Curricula von 411 Forschern (2006–2008) wurden in die Studie einbezogen. Die Kategorie Stipendium war die Variable von Interesse. Weitere analysierte Variablen waren: Zeit seit der Promotion, Lehrtätigkeit (Bachelor-, Master- und Doktoranden), Anzahl der veröffentlichten Artikel und Anzahl der vom Institut für Wissenschaftliche Information (ISI) und Scopus-Datenbanken indizierten Artikel. Weitere enthaltene Leistungsindikatoren waren: Zitationen,;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0492-9 22b9115a563bba9d275f61847c548b66;de;;;3.4.;6.4.;;Die Evaluation der Pflanzenbiomasseforschung: Eine Fallstudie zur Problematik bibliometrischer Indikatoren Ziel dieses Projektes war es, Forschungsgruppen zu evaluieren, die im weiten Feld der pflanzlichen Biomasse in den Gebieten außerhalb der USA und der EG arbeiten. Die Bewertung hatte zwei Schlüsselelemente: die Messung der wissenschaftlichen Produktivität und die Untersuchung von Faktoren, die die Forschungsleistung beeinflussen. Forschungsgruppen wurden aus einer Reihe von Informationsquellen identifiziert. Im Rahmen von Interviews wurden Daten zu Finanzierung, Informationszugang, Personalausstattung, Publikationspolitik und Bekanntheitsgrad anderer Forschungsgruppen im Feld erhoben. Zwei Ansätze – bibliometrische Analyse und Peer-Review – wurden als Mittel zur Erstellung von Indikatoren zur Bewertung der Forschungsergebnisse untersucht.;-;-;-;https://link.springer.com/article/10.1007/BF02020920 636247b9dc4156d2ffe952029be0d48e;de;;;3.4.;6.4.;;Bewertung der Zeitschriftenauswirkungen basierend auf gewichteten Zitaten Die Veröffentlichung in hochrangigen Zeitschriften ist für die meisten Forscher ein gemeinsames Ziel, und es besteht ein entscheidender Bedarf an einem Journal-Ranking-System mit universeller Anerkennung. In diesem Beitrag wird ein quantitativer Ansatz zum Ranking von wissenschaftlichen Zeitschriften vorgestellt. Der Ansatz HR-PageRank kombiniert den gewichteten PageRank nach dem H-Index des Autors und die Relevanz zwischen zitierenden und zitierten Artikeln. Die Ergebnisse des vorgeschlagenen Ansatzes werden mit dem Journal Impact Factor, dem H5-Index, dem PageRank-Algorithmus und der China Computer Federation Rangliste verglichen. Die Experimente zur objektiven Quantifizierung des wissenschaftlichen Einflusses werden in zwei echten wissenschaftlichen Datensätzen durchgeführt: (1) Microsoft Academic Graph und (2) Digital Bibliography and Library Project. Unsere experimentellen Ergebnisse zeigen, dass der HR-PageRank-Algorithmus den bekannten PageRank-Algorithmus beim Auffinden der einflussreichen Zeitschriften gemäß dem Rangkorrelationskoeffizienten von Spearman, dem diskontierten kumulierten Gewinn und der Korrelation übertrifft;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2510-z 14ab2e71fc75cbec4f3c51c731d625d4;de;;;3.4.;6.4.;;Vielfalt der Forschungspublikationen: Verhältnis zur landwirtschaftlichen Produktivität und mögliche Auswirkungen auf die WTI-Politik Technologien können erhebliche Auswirkungen auf die Produktivität im Agrarsektor haben, wie in der einschlägigen Literatur dokumentiert. Diese Auswirkungen sind jedoch von Land zu Land unterschiedlich. Diese Unterschiede könnten teilweise die unterschiedlichen Wissenschaftslandschaften, Wissenschaftstechnologie- und Innovationspolitiken (WTI) und F&E-Ansätze widerspiegeln. Um die länderübergreifende Volatilität der landwirtschaftlichen Produktivität zu erklären, wollen wir Fragen der STI-Entwicklung im Agrarsektor in jedem Land untersuchen. Neben anderen Merkmalen der WTI im Allgemeinen und der Wissenschaftslandschaft im Besonderen haben wir uns mit der Diversifizierung von Forschungspublikationen zwischen Teilbereichen der Agrarwissenschaften befasst. Wir haben den Diversifizierungsparameter der Forschung geschätzt und seine Beziehung zur Wirtschaftsleistung eines Agrarsektors untersucht. Unser Hauptergebnis zeigt, dass die F&E-Finanzierung, wenn sie sorgfältig mit der Diversifizierung der Agrarwissenschaften abgewogen wird, die Forschungsleistung und letztendlich die Produktivität in einem Agrarsektor verbessern könnte.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2799-2 4cdabab8623a4b14f0e317a365e66793;de;;;3.4.;6.4.;;Korrelation zwischen den 100 besten Universitäten in den sechs wichtigsten globalen Rankings: politische Implikationen Die Diskrepanzen zwischen verschiedenen globalen Hochschulrankings veranlassen uns, ihre Ergebnisse zu vergleichen und zu korrelieren. So werden die Ergebnisse aus dem Jahr 2015 von sechs großen globalen Rankings gesammelt, verglichen und qualitativ und quantitativ analysiert, wobei sowohl Rangordnungen als auch Scores der Top 100 Universitäten verwendet werden. Die ausgewählten sechs globalen Rankings umfassen: Academic Ranking of World Universities (ARWU), Quacquarelli Symonds World University Ranking (QS), Times Higher Education World University Ranking (THE), US News & World Report Best Global University Rankings (USNWR), National Taiwan Hochschulranking (NTU) und Hochschulranking nach akademischer Leistung (URAP). Zum Vergleich werden zwei Indizes verwendet, nämlich die Anzahl der sich überschneidenden Universitäten und die Korrelationskoeffizienten nach Pearson/Spearman zwischen jedem Paar der untersuchten sechs globalen Rankings. Die Studie wird erweitert, um die Intrakorrelation der ARWU-Ergebnisse der Top 100 Universitäten über einen Zeitraum von 5 Jahren (2011–2015) sowie die Korrelation des ARWU-Gesamtscores mit seinen einzelnen Indikatoren zu untersuchen. Die auf 49 Hochschulen limitierten Rankingergebnisse erschienen unter den Top 100 in allen sechs Rankings werden verglichen und diskutiert. Mit einer sorgfältigen Analyse der Leistungskennzahlen dieser 49 Universitäten lassen sich die Gemeinsamkeiten einer Weltklasse-Universität leicht definieren. Die Ergebnisse zeigen, dass, obwohl jedes Rankingsystem eine andere Methodik anwendet, zwischen den untersuchten sechs Rankings mäßige bis hohe Korrelationen bestehen. Um zu sehen, wie sich die Korrelation auf verschiedenen Ebenen verhält, werden die Korrelationen auch für die Top 50 und die Top 200 Universitäten durchgeführt. Der Vergleich zeigt, dass mit zunehmender Listenlänge der Korrelationsgrad und die überlappenden Hochschulen zunehmen. Die Ergebnisse von URAP und NTU zeigen die stärkste Korrelation zwischen den untersuchten Rankings. Kurz gesagt, ein sorgfältiges Verständnis der verschiedenen Ranking-Methoden ist von größter Bedeutung, bevor die Ranking-Ergebnisse analysiert, interpretiert und verwendet werden. Die Ergebnisse der vorliegenden Studie könnten politische Entscheidungsträger auf verschiedenen Ebenen dazu bringen, Maßnahmen zu entwickeln, die auf eine Leistungssteigerung und damit eine Verbesserung der Rankingposition abzielen.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-2065-4 1d659651458a0587cac7e66046139cf3;de;;;3.4.;6.4.;;Zurück im Spiel Diese Forschung soll dazu beitragen, das neue Interesse an analogen Spielen zu verstehen. Wir enthüllen den Ursprung und die Charakteristiken moderner Brettspiele, Taxonomie und Zeitleiste und zeigen das wachsende Interesse an diesem Thema, indem wir aktuelle Trends, Hauptbeiträge, Themen und einige potenzielle Forschungslücken für zukünftige Forscher präsentieren, alles über eine bibliometrische Umfrage im Scopus und im Web von Wissenschaftsdatenbanken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37983-4_6 8d605ec2e0486f65051065d7dc994b1b;de;;;3.4.;6.4.;;Wissenschaftliche Leistung auf Augenhöhe vergleichen Die Messung der wissenschaftlichen Leistung ist derzeit eine gängige Praxis von Förderagenturen, Stipendienbewertungen und Einstellungseinrichtungen. Wie jedoch bereits von vielen Autoren erkannt wurde, ist der Vergleich der Leistungen in verschiedenen wissenschaftlichen Bereichen aufgrund der unterschiedlichen Publikations- und Zitiermuster in jedem Bereich eine schwierige Aufgabe. In diesem Artikel verteidigen wir, dass die wissenschaftliche Leistung eines einzelnen Wissenschaftlers, Labors oder einer Institution im entsprechenden Kontext analysiert werden sollte und stellen objektive Werkzeuge zur Verfügung, um diese Art von vergleichender Analyse durchzuführen. Die Anwendung der neuen Tools wird anhand von zwei Kontrollgruppen veranschaulicht, auf die sich mehrere Leistungsmessungen beziehen: Eine Gruppe sind die Physik- und Chemie-Nobelpreisträger von 2007 bis 2012, die andere besteht aus einer Liste herausragender Wissenschaftler, die zwei verschiedenen Institutionen.;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1368-6 9caf5f4de888eadb28ab22e049f1a07b;de;;;3.4.;6.4.;;Messung, Analyse und Visualisierung der Forschungskapazität der Universität auf Abteilungs- und Mitarbeiterebene Dieser Beitrag widmet sich den Herausforderungen der Messung, Analyse und Visualisierung der Forschungskapazität von Universitäten. Wir identifizieren die damit verbundenen methodischen Fragen, schlagen Lösungsvorschläge vor und wenden diese Lösungen auf eine komplexe Analyse des Forschungspotenzials von drei Fakultäten einer russischen Universität an. Zunächst geben wir einen kurzen Überblick über die aktuelle Literatur zu verschiedenen Aspekten einer Analyse der Forschungskapazität von Universitäten. Im nächsten Schritt werden die zentralen Herausforderungen bei der Analyse der Publikationstätigkeit einer Hochschule diskutiert. Darüber hinaus diskutieren wir die Möglichkeiten und Grenzen der Nutzung der Datenbanken Web of Science und Scopus, um die Forschungskapazitäten von Universitäten zu bestimmen. Im empirischen Teil der Arbeit analysieren wir die Forschungskapazität von Universitätsinstituten und einzelnen Mitarbeitern mit einfachen, aber anschaulichen Werkzeugen der bibliometrischen Analyse. Wir geben auch Empfehlungen für das Hochschulverwaltungspersonal, die sich aus unserer Analyse ableiten lassen.;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2450-7 fad84bd7e46a62ecda6de787142af174;de;;;3.4.;6.4.;;Forschungsproduktivität der Fakultät für Physiotherapie im Westen der USA gefördert Es gibt nur wenige Informationen über die Forschungsproduktivität der erfolgreich beförderten Fakultät für Doktor der Physiotherapie (DPT) mit Tenure-Track. Öffentlich verfügbare Lebensläufe (CV) wurden von Tenure-Track-DPT-Fakultäten gesammelt, die zwischen 2000 und 2016 im Westen der Vereinigten Staaten befördert wurden, um die Forschungsproduktivität der beförderten DPT-Fakultät durch Veröffentlichungszahl, Journal Impact Factor, Finanzierung, Zitationen und andere Metriken. Zweiundvierzig Probanden aus 16 der 56 CAPTE-akkreditierten DPT-Programme im Westen wurden eingeschlossen. Die in die Studie eingeschlossene Fakultät wies eine mediane Publikationszahl von 3 auf, von 0 bis 18, Median der durchschnittlichen Zitationszahl von 25,5, von 0 bis 752, Median des durchschnittlichen Journal Impact Factors von 2,603, von 0 bis 8,330, Median externe Finanzierung in Höhe von 0,00 US-Dollar im Bereich von 0,00 US-Dollar bis 3.270.000 US-Dollar und medianer Autoren-h-Index von 2 im Bereich von 0 bis 13. Die mediane Anzahl der Jahre vor der Beförderung betrug 6 Jahre, wobei er zwischen 4 und 21 Jahren lag. 57 % (24 von 46) erhielten vor der Förderung keine Drittmittel und 21 % (9 von 46) hatten einen 0 h-Index. Die lineare Regressionsanalyse weist auf eine schlechte Anpassung ohne signifikante Korrelation zwischen den Jahren vor der Beförderung und den untersuchten Metriken hin (;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03042-x c7ad29d14fd9a7e5197569223e3a010b;de;;;3.4.;6.4.;;Was könnte in Management und angewandter Psychologie veröffentlicht werden? Experimentelle Manipulation impliziter Erwartungen von Gutachtern in Bezug auf Hedges Die Karrieren von Forschern hängen von der Veröffentlichung von Papieren ab. Es gibt explizite Erwartungen (z. B. Papierstruktur), die die Wahrnehmung von Manuskripten durch Herausgeber und Gutachter beeinflussen und damit die Chancen der Veröffentlichung von Beiträgen, die sich in schriftlichem Feedback leicht vermitteln lassen. Frühere Forschungen haben jedoch ergeben, dass einige Erwartungen eher implizit sein könnten, sodass Gutachter und Herausgeber möglicherweise nicht wissen, dass diese ihre Wahrnehmung von Manuskripten beeinflussen können. Insbesondere die Verwendung von Absicherungen (d. h. Wörter, die Unklarheiten erzeugen, z. B. „die Ergebnisse zeigen“ vs. „die Ergebnisse“;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03164-2 6783b612ecf8e0d097c1af69a42d885e;de;;;3.4.;6.4.;;Peer Review versus Bibliometrie: Welche Methode sagt den wissenschaftlichen Impact von Publikationen besser voraus? In dieser Arbeit versuchen wir die Frage zu beantworten, welche Methode, Peer Review versus Bibliometrie, die zukünftige wissenschaftliche Gesamtwirkung wissenschaftlicher Publikationen besser vorhersagt. Wir messen die Übereinstimmung zwischen Peer-Review-Bewertungen von Web of Science-indexierten Publikationen, die bei der ersten italienischen Forschungsbewertung eingereicht wurden, und langfristigen Zitaten derselben Publikationen. Dasselbe machen wir für einen frühen zitationsbasierten Indikator. Letztere zeigt eine stärkere Vorhersagekraft, d. h. sie sagt späte Zitationen in allen untersuchten Disziplinen und für jedes Zitationszeitfenster ab 1 Jahr nach Veröffentlichung zuverlässiger voraus.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03184-y d2a4c64a595ec50c6f7159ca13dc8755;de;;;3.4.;6.4.;;Fokus China: der aktuelle Stand der Entrepreneurship-Forschung in China Diese Übersichtsstudie ist ein erster Versuch, den Stand der Unternehmertumsforschung in China abzubilden, indem sie sich auf die Beiträge chinesischer Forscher konzentriert. Es werden führende Mitwirkende, Forschungskooperationen und theoretische Grundlagen sowohl in der national orientierten als auch in der international orientierten Forschung diskutiert. Der Review umfasst 508 Artikel, die zwischen 2000 und 2011 in inländischen chinesischen Zeitschriften, die vom Chinese Social Science Citation Index indexiert wurden, und 189 Artikeln, die in internationalen Zeitschriften, die vom Social Science Citation Index indexiert wurden, veröffentlicht wurden , genutzt wurden. Die Ergebnisse zeigen, dass die Entrepreneurship-Forschung in China durch eine klare Trennung gekennzeichnet ist, nicht nur in Bezug auf Forscher in jeder Gemeinschaft, Kooperationsnetzwerk, sondern auch in Bezug auf die theoretische Fundierung. Die innenpolitische Forschung steckt noch in den Kinderschuhen. Die Forschungsgemeinschaft hat eine Mehrheit chinesischer Forscher angezogen, die sich auf die interinstitutionelle Zusammenarbeit auf der Grundlage von Mentoring und leitender Beziehung konzentrieren. Wissenschaftlerinnen und Wissenschaftler, die in der international ausgerichteten Forschung tätig sind, engagieren sich für eine offenere Kommunikation, indem sie nicht nur mit Wissenschaftlern anderer chinesischer Institutionen, sondern auch mit solchen aus dem Ausland zusammenarbeiten. Gleichzeitig tragen sie zum Verständnis des chinesischen Unternehmertums bei, indem sie das Entrepreneurship-Phänomen im chinesischen Kontext mit theoretischen Rahmenbedingungen verknüpfen.;-;-;-;https://link.springer.com/article/10.1007/s11192-013-1114-5 f04a05ba3fce02d04e8d6db113774689;de;;;3.4.;6.4.;;Eine Bewertung der prozentualen Maße der Zitationswirkung und ein Vorschlag zu deren Verbesserung Perzentile sind Statistiken, die auf den Stellenwert der Zitationswirkung eines Artikels im Vergleich zu anderen Artikeln in einer bestimmten Zitationsverteilung hinweisen. Perzentilränge (;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03512-7 136db6a4eb17f98803b54074da2b65f9;de;;;3.4.;6.4.;;Informationstheorie und Wissenschaftskommunikation Informelle und formale Kommunikationsprozesse sind in der primären Zeitschriftenliteratur dokumentiert. Beide Prozesse legen den Autoren, die ihre Forschung veröffentlichen, Strukturen auf, und der formale Prozess legt den Zeitschriften, die wissenschaftliche Arbeiten veröffentlichen, eine Struktur auf. In diesem Beitrag wird gezeigt, dass die Informationstheorie auf diese Strukturen angewendet werden kann, um den Beitrag von Autoren und Zeitschriften zur Vermittlung wissenschaftlicher Informationen zu bewerten. Experimentelle Ergebnisse identifizieren die kommunikativsten Autoren und Zeitschriften in einem Bereich aktiver Forschung.;-;-;-;https://link.springer.com/article/10.1007/BF02101668 f658ca7a2d3ee87ac0c4f5e0144d76fd;de;;;3.4.;6.4.;;Frühzeitige Identifizierung der intellektuellen Struktur anhand von Co-Wort-Analysen aus Forschungsförderung Von der ersten Idee über das Schreiben, Einreichen und Begutachten bis zur Online-Präsentation einer Forschungsarbeit dauert es lange. Die identifizierte intellektuelle Struktur einer Forschungsarbeit kann eine gewisse Zeitverzögerung aufweisen. Angesichts dieses Problems haben Wissenschaftler vorgeschlagen, dass Forschungsstipendien ein alternativer Weg sein könnten, um die intellektuelle Struktur so früh wie möglich zu erkennen. Diese Kommentare werden jedoch qualitativ erwähnt. Nur wenige Forscher haben das Forschungsstipendium durch eine frühzeitige Identifizierung der intellektuellen Struktur eines Feldes mit einer quantitativen Methode verifiziert. Daher schlägt dieses Papier einen neuen Methodenrahmen vor, um die Lead-Lag-Beziehung zwischen den durch das Forschungsstipendium identifizierten intellektuellen Strukturen und dem Forschungspapier quantitativ zu bestätigen. In der empirischen Analyse wurde Operations Research and Management Science in China als spezifischer Forschungsbereich ausgewählt. Die Ergebnisse zeigen, dass die durch das Forschungsstipendium identifizierte intellektuelle Struktur der intellektuellen Struktur einer Forschungsarbeit um ca. 1-2 Jahre vorauseilt. Diese Entdeckungen bestätigen in gewissem Maße die frühe Identifizierung der intellektuellen Struktur auf der Grundlage des Forschungsstipendiums. Darüber hinaus weisen die Ergebnisse auch auf eine hohe Ähnlichkeit zwischen der im Forschungsstipendium identifizierten intellektuellen Struktur und derjenigen in der Forschungsarbeit des Vorjahres hin.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03187-9 9913057edffd6c27e42cdc84797b262f;de;;;3.4.;6.4.;;Alphabetische Reihenfolge der Autoren in wissenschaftlichen Publikationen: eine bibliometrische Studie für 27 Wissenschaftsgebiete Autorschaft auf Papier und Autorenplatzierung haben erhebliche Konsequenzen für die Rechenschaftspflicht und die Vergabe von Credits. Darüber hinaus verfolgen Autoren unterschiedlicher Wissenschaftsbereiche unterschiedliche Ansätze bei der Ordnung in wissenschaftlichen Publikationen. Dieses Manuskript präsentiert eine bibliometrische Studie mit dem Ziel, die Tendenzen bei der Übernahme alphabetisch geordneter Autorenlisten in wissenschaftliche Publikationen für 27 Wissenschaftsgebiete zu charakterisieren. Die Studie wird durch zwei verschiedene Datensätze (mit 83 und 32 Tausend Artikeln mit zwei oder mehr Autoren) unterstützt und verwendet zwei Indikatoren, die den Ordnungsgrad der Autorenliste einer Reihe von Artikeln messen. Die Hauptergebnisse zeigen, dass drei Fachgebiete (Wirtschaft, Mathematik und Betriebswirtschaft, Management und Rechnungswesen) eine starke alphabetische Sortierung aufweisen, während andere fünf wissenschaftliche Gebiete eine Tendenz aufweisen, Autorenlisten in alphabetischer Reihenfolge zu verwenden.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03686-0 844d7e89601a2fe1a0a45ae46442b748;de;;;3.4.;6.4.;;Bibliometrische Analyse der tschechischen Forschungspublikationen von 1994 bis 2005 Wir haben bibliometrische Daten tschechischer Forschungsarbeiten von 1994 bis 2005 mit Arbeiten aus sechs anderen EU-Ländern verglichen: Österreich, Ungarn, Polen, Finnland, Irland und Griechenland. Die Tschechische Republik belegte den fünften Platz bei der Zahl der Veröffentlichungen pro Tausend Einwohner und den sechsten Platz bei der Zahl der Zitationen/Papiere. Relativ am häufigsten zitiert wurden tschechische Arbeiten aus den Bereichen Ingenieurwissenschaften und Mathematik an dritter Stelle und Informatik, Umwelt/Ökologie und Molekularbiologie an vierter Stelle von 7 EU-Ländern. Unsere Analyse zeigt, dass die tschechische Forschung hinter den führenden EU-Ländern zurückbleibt, ihr Output aber proportional zu den FuE-Ausgaben ist.;-;-;-;https://link.springer.com/article/10.1007/s11192-007-1986-3 c4cfff462b3efcd9a60f670104715de4;de;;;3.4.;6.4.;;Wissenschaftliche Veröffentlichungen Chinas 1994: Evolution oder Revolution? SCI-Datenbanken werden häufig verwendet, um die wissenschaftliche Produktion verschiedener Nationen, ihre Position in der internationalen Forschungsgemeinschaft sowie ihre Fachgebiete zu analysieren. In der vorliegenden Studie untersuchten wir im gleichen methodischen Rahmen die Auswirkungen der drastischen Neuausrichtung der Wissenschaftsfinanzierungssysteme, die Mitte der 80er Jahre in China (VR China) vollzogen wurde. Ein Jahrzehnt nach diesem Wendepunkt spiegelt das Muster der chinesischen Veröffentlichungen des SCI-CDRom von 1994 die anderer Länder wider, wenn auch mit eigenen Besonderheiten, d. Einige Auswirkungen der Politik der PRC konnten dennoch auf diesem SCI-Profil festgestellt werden, wie z.B. eine ordentliche Zunahme internationaler Veröffentlichungen nach der Öffnung des Landes oder das relativ hohe Gewicht der Zusammenarbeit mit Labors aus Hongkong. Wir schlagen vor, dass die SCI-Datenbank aufgrund der Enge des SCI-Fensters bezüglich angewandter Forschung am besten für die Analyse öffentlicher Forschung von internationalem Standard geeignet ist.;-;-;-;https://link.springer.com/article/10.1007/BF02465009 603b4f08c4c5ddd07933e173c71bde99;de;;;3.4.;6.4.;;Brasilianische Informatikforschung: Geschlechter- und regionale Verteilungen Dieser Beitrag analysiert die Verteilung einiger Merkmale von Informatikern in Brasilien nach Regionen und Geschlecht. Als Informatiker wird die Fakultät einer Informatikabteilung auf Graduiertenebene bezeichnet. Nach dieser Definition gab es in Brasilien im November 2006 886 Informatiker.;-;-;-;https://link.springer.com/article/10.1007/s11192-007-1944-0 ddfcf506260821210d3996778caf93d3;de;;;3.4.;6.4.;;Das Editor-Manuskript-Spiel Wissenschaftliche Zeitschriften erhalten eine steigende Zahl von Einreichungen, und viele von ihnen werden ohne detailliertes Feedback von den Gutachtern abgelehnt. Tatsächlich ist die Zahl der Ablehnungen von Schreibtischen in den letzten zehn Jahren dramatisch gestiegen. In diesem Papier tragen wir zur Literatur bei, indem wir die Anreize eines Herausgebers untersuchen, entweder eine Schreibtischentscheidung zu treffen, die ausschließlich auf seinen unvollständigen privaten Informationen über die Qualität des Manuskripts basiert, oder das Papier an externe Peer-Reviewer zu senden, die seine Qualität besser erkennen lassen. In unserem Modell erhält der Herausgeber der Zeitschrift ohne externe Begutachtung ein informatives, aber unvollständiges Signal über die Qualität des Manuskripts. Wir konzentrieren uns auf den Fall, in dem sich Herausgeber in ihrer Entscheidungsgenauigkeit unterscheiden können, und weisen auf die Überlegung hin, dass selbst ein Herausgeber mit der besten Expertise und den besten Absichten möglicherweise nicht in der Lage ist, die Qualität des Manuskripts perfekt zu beurteilen. In unserem Basismodell wird der Herausgeber einer Zeitschrift nicht von finanziellen Interessen getrieben, ist aber dennoch unrein altruistisch, da der Herausgeber eine Reputationsüberlegung hat, die mit dem beobachtenden Lernen des Autors über den Entscheidungsweg des Herausgebers verbunden sein kann (dh den Prozess, um die letztendliche redaktionelle Entscheidung, die eine externe Peer-Review beinhalten kann oder nicht). Außerdem ist der Lektor in unserem Umfeld nicht perfekt über die Qualität des Manuskripts informiert, es sei denn, er sendet das Manuskript zur Überprüfung aus. Unser Papier zeigt, dass hochqualifizierte Redakteure dazu neigen, weniger Papiere zur externen Überprüfung zu schicken, als sie sollten, um ihre Fähigkeiten zu signalisieren. Dies liegt daran, dass sich externes Peer-Review und die Entscheidungskompetenz des Herausgebers gegenseitig ersetzen können.;-;-;-;https://link.springer.com/article/10.1007/s11192-021-03918-x 5681c3319e6bd2b299855ccfe99059f3;de;;;3.4.;6.4.;;Einfluss von Fachkompetenz, Führungsrolle und Status von Gruppenleitern auf die F&E-Leistung In diesem Beitrag werden die folgenden Grundfragen der Führung in Forschungseinheiten untersucht: (1) Eigenschaften des Leiters und die von ihm ausgeübten Funktionen, die das Image seiner Qualität vorhersagen, und (2) die Rolle der Führung bei der Leistungssteigerung der Forschungseinheit . Die Analyse basiert auf Daten, die von 1460 Forschungseinheiten in sechs Ländern für die zweite Runde der Internationalen Vergleichsstudie zur Organisation und Leistung von Forschungseinheiten gesammelt wurden. Variationen in den Merkmalen und der Rolle der Führung in verschiedenen institutionellen Umgebungen und Ländern werden durch POSCOR (Ranking-Programm basierend auf teilweise geordneten Mengen) analysiert. Die schrittweise multiple Regressionsanalyse wurde verwendet, um das gemeinsame Muster der Beziehung verschiedener Führungsindizes mit dem Image der Führungsqualität und drei Wirksamkeitsmaßen zu untersuchen – wissenschaftlich, nutzerorientiert und administrativ. Die Analyse wurde für jedes Land wiederholt, um die Stabilität des Beziehungsmusters zu untersuchen und universelle Indizes mit konsistenten Beziehungen zwischen den Ländern zu identifizieren. Implikationen der Ergebnisse werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF02026415 635b3fe890f3636ce7ea8f9993469dfe;de;;;3.4.;6.4.;;Datenintegration in Skandinavien Die jüngsten Entwicklungen in Skandinavien könnten im Hinblick auf die Entwicklung einer integrierten europäischen Forschungsinformationsstruktur von Interesse sein, die die Grundlage für eine verbesserte Wissensbasis für die Forschungspolitik bilden könnte. Dieser Artikel beschreibt, wie zuverlässige bibliografische Daten in institutionellen oder nationalen Forschungsinformationssystemen in Dänemark, Finnland, Norwegen und Schweden mit leistungsbasierten institutionellen Finanzierungsmodellen als Triebkraft entwickelt wurden. Darüber hinaus werden die Grenzen und Potenziale der Nutzung von Daten aus Forschungsinformationssystemen in der bibliometrischen Analyse und in den Sozialwissenschaften der Wissenschaft allgemeiner diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1817-x fa858cdec24e246a3bee3124d1b56f65;de;;;3.4.;6.4.;;Liebesdynamik zwischen Wissenschaft und Technologie: einige Beweise in Nanowissenschaften und Nanotechnologie Dieser Artikel entlehnt das dynamische Modell von Strogatz für die Liebesbeziehung zwischen Romeo und Julia und erweitert dieses Modell auf das nichtlineare simultane Differentialgleichungsmodell, um die dynamischen Interaktionsmechanismen und -stile zwischen Wissenschaft und Technologie (W&T) zu charakterisieren. Dann wenden wir das vorgeschlagene neue Modell weiter auf den Bereich der Nanowissenschaften und Nanotechnologie (N&N) an, um die gegenseitige Abhängigkeit zwischen W&T zu analysieren. Die empirischen Ergebnisse liefern ein Verständnis für den Zusammenhang zwischen W&T und ihrem dynamischen Interdependenzpotential an den ausgewählten 20 führenden Universitäten im Bereich N&N. Wir stellen fest, dass die Nanotechnologie derzeit hauptsächlich vom wissenschaftlichen Impuls abhängt und nicht vom Technologie-Pull, und die Nanotechnologie ist ein wissenschaftsbasiertes Feld. Eine parallele Entwicklung der Technologie ist dagegen nicht erkennbar. Auf der Grundlage der verschiedenen interessanten Ergebnisse zu den Interaktionsmechanismen zwischen W&T in diesem Bereich werden schließlich politische Implikationen dargelegt.;-;-;-;https://link.springer.com/article/10.1007/s11192-012-0785-7 4e9d5163a90a52169e6d887d3767deec;de;;;3.4.;6.4.;;Empirische Studie zum Einfluss der Hochschul-Wirtschafts-Kooperation auf die Forschungsleistung und die moderierende Wirkung von Sozialkapital: Evidenz von Ingenieurwissenschaftlern in China Der Einfluss von Hochschul-Industrie-Kooperationen auf die Forschungsleistung und die moderierende Wirkung von Sozialkapital wurden empirisch anhand eines Datensatzes von 804 Ingenieurwissenschaftlern des Harbin Institute of Technology untersucht, wobei Sozialkapital in Bezug auf Netzwerkbindungen und Bindungsstärke untersucht wurde. Es zeigte sich, dass die Intensität der Zusammenarbeit zwischen Hochschule und Wirtschaft einen negativen Einfluss auf die Forschungsleistung der Wissenschaftler (h-Index) hatte und die Bindungsstärke einen positiven Moderationseffekt hatte, der den Moderationseffekt von Netzwerkbindungen nicht unterstützte. Daher wird der Schluss gezogen, dass Universitätsverwaltungen keine Richtlinien erlassen sollten, um Forscher zu ermutigen, Kooperationen mit der Industrie zu suchen, ohne die Forschungsleistung zu berücksichtigen, während Forscher mit starken Beziehungen ermutigt werden sollten, an der Zusammenarbeit zwischen Universitäten und Industrien teilzunehmen.;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2464-1 b2a3995cdf35cca17e3f3ee1f4b27ce5;de;;;3.4.;6.4.;;Eine Bewertung der Effizienz regionaler Innovationssysteme in Russland: die Anwendung des DEA-Ansatzes Das Hauptziel dieser Studie ist es, russische Regionen hinsichtlich ihrer Fähigkeit zur effizienten Entwicklung neuer Technologien zu vergleichen und Faktoren zu identifizieren, die diese Unterschiede über einen langen Zeitraum bestimmen. Wir wenden Data Envelope Analysis (DEA) an, um den Zusammenhang zwischen den Ergebnissen einer Patentierung und den Ressourcen eines regionalen Innovationssystems (RIS) zu bewerten. Im Gegensatz zu früheren Studien wenden wir die DEA-Methode über einen langen Zeitraum an und vergleichen Regionen miteinander und im Zeitverlauf. Im Allgemeinen stieg die RIS-Effizienz in Russland im Berichtszeitraum, insbesondere in den am wenigsten entwickelten Gebieten. Es gab eine deutliche regionale Differenzierung. Die effizientesten RIS wurden in den größten Agglomerationen mit führenden Universitäten und Forschungszentren gebildet: den Städten Moskau und Sankt Petersburg sowie den Regionen Nowosibirsk, Woronesch und Tomsk. Ökonometrische Berechnungen zeigen, dass die RIS-Effizienz in technologisch höher entwickelten Regionen mit den ältesten Universitäten und einem größeren Patentbestand höher war. Zeit ist ein entscheidender Faktor für die Ansammlung von Wissen und die Schaffung von Verbindungen zwischen innovativen Akteuren innerhalb von RIS. Auch die unternehmerische Tätigkeit war ein wesentlicher Faktor, da sie dazu beiträgt, Ideen und Forschung in Erfindungen und neue Technologien umzusetzen und die Interaktion zwischen innovativen Akteuren zu verbessern. Aufgrund intensiverer interregionaler Wissensübertragungen ist die Nähe zu großen Innovationszentren von Vorteil. Die öffentliche Unterstützung effizienterer Regionen kann zu einer produktiveren regionalen Innovationspolitik führen.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03130-y bc8af7ba849bf6ec4d1ae36b20361f52;de;;;3.4.;6.4.;;Bibliometrie und britische Wissenschaftspolitik Wir skizzieren die Aufgaben des UK Advisory Board for the Research Councils im Kontext der Wissenschaftspolitik des Landes und beschreiben ein wissenschaftspolitisches Studienprogramm, das vom Board als Reaktion auf den wachsenden Bedarf an strategischer Sichtweise bei wissenschaftspolitischen Entscheidungen entwickelt wurde. Die Ergebnisse der Studien, in denen bibliometrische Techniken verwendet wurden, werden kurz beschrieben, und das Papier schlägt vor, wie solche Techniken in Zukunft für politische Entscheidungsträger von Nutzen sein könnten.;-;-;-;https://link.springer.com/article/10.1007/BF02020074 1f148777ec226a4037774f64961ef408;de;;;3.4.;6.4.;;Analyse der theoretischen Wurzeln der Entstehung von Technologien: eine evolutionäre Perspektive Seitdem Wissen als Hauptmotor des Wirtschaftswachstums akzeptiert wurde, wurde viel über die Entstehung von Technologien geforscht. Trotz einer wachsenden Zahl von Veröffentlichungen bleibt das Konzept jedoch mehrdeutig. In dieser Studie wollen wir Emergenzdiskussionen verfolgen, um die Entwicklung verwandter Konzepte zu finden, um die Nutzung im technologischen Kontext zu untersuchen. Dazu werden wissenschaftstheoretische, Komplexitäts- und Wirtschaftsliteraturen nach dem Emergenzkonzept qualitativ überprüft. Dann wird eine bibliometrische Studie durchgeführt, um das qualitative Argument zu stärken und Beweise für die Entstehung in Technologiestudien zum Vergleich zu finden. Basierend auf den Ergebnissen können wir feststellen, dass die Definition von Technologieemergenz unter Berücksichtigung ihrer theoretischen Grundlagen überarbeitet werden muss. Darüber hinaus werden im Anschluss an die Diskussion Forschungsfragen für die zukünftige Forschung gestellt.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03033-y bc2d5d8f4444be9d57a31a587ac98470;de;;;3.4.;6.4.;;Substanz ohne Zitat: Bewertung der Online-Wirkung grauer Literatur Einzelpersonen und Organisationen, die Informationen oder Wissen für andere produzieren, müssen manchmal in der Lage sein, den Wert ihrer Arbeit auf die gleiche Weise zu belegen, wie Wissenschaftler Einflussfaktoren und Zitate aus Zeitschriften verwenden, um den Wert ihrer Veröffentlichungen zu belegen. Es gibt jedoch viele Fälle, in denen Organisationen mit der Erstellung von Berichten beauftragt werden, aber keine wirkliche Möglichkeit haben, ihre Wirkung zu messen, auch wenn sie kostenlos verteilt werden, keine akademischen Zitate erhalten und ihre Verkäufe nicht verfolgt werden können. Als neuartige Lösung für dieses Problem wird hier der Web Impact Report (WIRe) vorgeschlagen. Ein WIRe besteht aus einer Reihe von aus dem Internet abgeleiteten Statistiken über die Häufigkeit und den geografischen Standort von Online-Erwähnungen der Berichte einer Organisation. WIRe-Daten werden typischerweise von kommerziellen Suchmaschinen abgeleitet. Dieser Artikel definiert die Bestandteile eines WIRe und beschreibt, wie die erforderlichen Daten gesammelt und analysiert werden. Der Prozess wird durch einen Vergleich der Web-Impacts der Berichte einer großen britischen Organisation veranschaulicht. Obwohl keine formelle Bewertung durchgeführt wurde, deuten die Ergebnisse darauf hin, dass WIRes zwischen Berichten unterschiedliche Ausmaße der Web-Auswirkungen angeben und die Art der Online-Auswirkungen der Berichte aufzeigen können.;-;-;-;https://link.springer.com/article/10.1007/s11192-013-1068-7 6249752ef14b404152077d7405c36c54;de;;;3.4.;6.4.;;Welche sind die besten Infrastrukturen zur Innovationsförderung für Universitäten? Nachweise aus F&E-Output und kommerziellen Aktivitäten Wir untersuchen, welche Infrastrukturen zur Innovationsförderung Hochschulen (Hochschulen) bei der Produktion von Forschung und Technologie (F&T) und der Wissensvermarktung unterstützen. Die Ziele bestehen darin, (1) die Zeit, die Innovationsförderinfrastrukturen wie Wissenschaftsparks (SPs) benötigen, um Forschungsaktivitäten zu fördern, und die Faktoren, die diese beeinflussen können, zu bestimmen und (2) ob die F&T-Leistung und die kommerzielle Leistung einer Hochschule durch Innovationsförderung unterstützt werden Infrastrukturen wie SPs oder Inkubatoren. Die Analyse basiert auf Veröffentlichungen von Firmen im Park (1975–2010) sowie auf Patenten und quantitativen Daten nationaler Hochschulen mit Kooperationsbeziehungen zu 92 unterstützenden Infrastrukturen. Statistische Analysen zeigen, dass Forschungsparks und Campusse sowie SPs die Infrastrukturen sind, die am ehesten schnelle FuT-Aktivitäten fördern, und die Zusammenarbeit zwischen Universität und Industrie (U-I) für ihre Bewohner und neuere Parks scheinen am erfolgreichsten zu sein, um U-I-Interaktionen zu fördern . Die Bemühungen der Hochschulen, ihre akademische Forschungsbasis durch unterstützende Infrastrukturen zu nutzen, haben keine signifikanten Auswirkungen auf das Volumen der von ihnen erstellten Patente oder Forschungspublikationen und auf unternehmerische Aktivitäten mit weniger institutionalisierter Unterstützung wie gemeinsame Forschung, Auftragsforschung oder Beratung. Die Beziehungen zu SPs und Inkubatoren sind jedoch stark mit der kommerziellen Leistung von Universitäten in Bezug auf ihre akademischen Spin-offs und Einrichtungen und Ausrüstungsdienste verbunden.;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1458-5 e4b257cd1d69c7113e75329d8d47ba9c;de;;;3.4.;6.4.;;Karriereförderung und wissenschaftliche Leistung an Universitäten Viele Regierungen haben der Exzellenz in der Hochschulbildung als Teil ihrer politischen Agenden Priorität eingeräumt. Prozesse zur Rekrutierung und Karriereförderung an Hochschulen spielen daher eine entscheidende Rolle. Die Effizienz von Fakultätsauswahlverfahren kann durch den Vergleich der späteren Leistungen der Wettbewerbssieger mit denen der Verlierer und der bereits vorhandenen wissenschaftlichen Mitarbeiter bewertet werden. Unsere Studie präsentiert eine empirische Analyse der Einstellungsverfahren für außerordentliche Professoren im italienischen Hochschulsystem. Die Ergebnisse einer bibliometrischen Analyse der Hard-Science-Bereiche zeigen, dass neue außerordentliche Professoren im Durchschnitt produktiver sind als die Amtsinhaber. Es gibt jedoch eine Reihe von entscheidenden Bedenken, insbesondere hinsichtlich des Auftretens von Nicht-Gewinner-Kandidaten, die im folgenden Dreijahreszeitraum produktiver sind als die Gewinner, und Fällen von Gewinnern, die völlig unproduktiv sind. Über die Implikationen für den Fall Italien hinaus bietet die Analyse allen Entscheidungsträgern Überlegungen zur Ex-post-Evaluierung der Effizienz des Einstellungsverfahrens und zur Erwünschtheit der Bereitstellung bibliometrischer Indikatoren für die Auswahlkommissionen zur Unterstützung der Evaluierung (d. h. informierte Peer-Reviews).;-;-;-;https://link.springer.com/article/10.1007/s11192-013-1075-8 3d03da7527d478ef2ea44d6ded7a862f;de;;;3.4.;6.4.;;Frauen als politische Führerinnen: eine bibliometrische Analyse der Literatur Literatur Die Forschung zu weiblichen Führungspersönlichkeiten in der Politik weist auf die wichtigen Veränderungen in der Weltpolitik hin, die in den 1970er Jahren begannen und sich langsam fortsetzen. Da immer mehr Frauen Machtpositionen besetzen, wächst das akademische Interesse am Führungsstil von Frauen. Unsere auf bibliometrischer Analyse basierende Studie spiegelt die Publikationsentwicklung zu diesem Thema von 1967 bis 2017 wider.;-;-;-;https://link.springer.com/article/10.1007/s12115-018-0248-8 3f220dc2ff0114c2f829fcca08fbfef2;de;;;3.4.;6.4.;;Überlegungen zur Ernennung eines externen Prüfers für einen Doktortitel in biomedizinischen Wissenschaften in Schweden: eine fragebogenbasierte Umfrage Eine Umfrage unter 170 schwedischen Mentoren von Doktoranden ergab, dass Expertise im Forschungsbereich und Vermeidung von Interessenkonflikten große Motive dafür waren, einen ausländischen Prüfer für Doktorarbeiten zu finden. Die Umfrage ergab auch, dass das Anliegen der Betreuerinnen und Betreuer, jungen Wissenschaftlerinnen und Wissenschaftlern die Karrierewege im Hinblick auf die Einführung in potenzielle Labore für Postdoc-Arbeiten und eine qualitativ hochwertige neutrale Begutachtung der eigenen Forschung zu erleichtern, ebenso wichtig ist wie der Wunsch nach Kooperationen. Auch die Erwartung der Hochschulleitung an den PR-Wert einer ausländischen leitenden Person als Prüfer spielte eine Rolle. Obwohl nur wenige bereit waren zuzugeben, dass PR für die eigene Gruppe ein motivierender Faktor war. Ein kleiner Teil der Befragten äußerte Bedenken, dass die Kosten der Promotionsprüfung teilweise auf die Forschungsgruppen selbst abgewälzt würden, was sich auf die aktuelle Situation auswirken könnte. Auch die Sprache spielte eine untergeordnete Rolle. Um das Beste aus dem Gastprüfer herauszuholen, war es wichtig, ihn in seiner Rolle in einem schwedischen PhD-Prüfungsprotokoll auszubilden und zu unterweisen. Männliche Betreuer hatten mehr Doktoranden als weibliche, aber sie hatten auch mehr in Schweden ansässige Prüfer als ihre Kolleginnen eingesetzt. Wir schließen daraus, dass der Einsatz eines ausländischen Prüfers durch Faktoren motiviert war, die wahrscheinlich auf absehbare Zeit vorherrschen werden. Diese schwedische Praxis kann auch als Vorlage für einen gemeinsamen Standard dienen.;-;-;-;https://link.springer.com/article/10.1007/s11192-013-1150-1 b4a24e8118a5dc61b0c04c8f46581bb9;de;;;3.4.;6.4.;;Wissenschaftsindikatoren und Politikanalyse In diesem Papier wird die Verwendung von wissenschaftlichen Indikatoren durch politische Analysten mit begrenzten Zeit- und Ressourcenressourcen erörtert. Sie beschreibt am Beispiel der Innovationspolitik, welche politikrelevanten Aussagen aus wissenschaftlichen Indikatoren gewonnen werden können und zeigt die inhärenten Grenzen von Indikatoren als Instrument der Politikgestaltung auf. Es zeigt, wie wissenschaftliche Indikatoren mit anderen Quellen kombiniert werden können und müssen, um alternative Entscheidungsstrategien zu entwickeln. Es schließt mit einer Diskussion über die Verwendung von Wissenschaftsindikatoren bei der Konstruktion konsistenter Argumentations- und Argumentationslinien für die Politikgestaltung und die Überprüfung der bisherigen Politik.;-;-;-;https://link.springer.com/article/10.1007/BF02095076 7eac8f431147e50f04ed4f4f65d20c5f;de;;;3.4.;6.4.;;Anwendung von Methoden und Konzepten der statistischen Physik auf das Studium naturwissenschaftlicher und technischer Systeme Wir wenden Methoden und Konzepte der statistischen Physik auf das Studium von Science & Technology(W&T)-Systemen an. Unsere Forschung wird insbesondere durch zwei Konzepte von grundlegender Bedeutung in der modernen statistischen Physik motiviert: Skalierung und Universalität. Wir versuchen, robuste, universelle Merkmale der Entwicklung von W&T-Systemen zu identifizieren, die eine Orientierungshilfe für die Vorhersage der Auswirkungen von Finanzierungsänderungen bieten können. Wir quantifizieren die Forschungsproduktion auf neuartige Weise, inspiriert von unserer vorherigen Studie zur Wachstumsdynamik von Unternehmen. Wir untersuchen die Forschungsproduktion sowohl aus der Sicht der Inputs (F&E-Förderung) als auch der Outputs (Publikationen und Patente) und finden die Existenz von Skalierungsgesetzen, die das Wachstum dieser Größen beschreiben. Wir analysieren auch F&E-Systeme verschiedener Länder, um die Universalität zu testen unserer Ergebnisse.Wir gehen davon aus, dass die vorgeschlagenen Methoden besonders nützlich für Bereiche der W&T (oder für Aggregationsebenen) sein können, für die entweder nicht genügend Informationen verfügbar sind oder für die die Evolution so schnell ist, dass nicht genug Zeit bleibt, um genügend Daten zu sammeln eine informierte Entscheidung treffen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1010556426328 f9f57179011e49044d2581d9ecd9fcf0;de;;;3.4.;6.4.;;Verspätete Anerkennung von Judah Folkmans Hypothese zur Tumorangiogenese: Wenn ein Prinz durch Selbstzitat ein Dornröschen erweckt Judah Folkman gilt als Vater der Angiogeneseforschung. Seine Hypothese zur Tumorangiogenese stieß jedoch zunächst auf erhebliche Skepsis. Wissenschaftlicher Widerstand wird in der Wissenschaftssoziologie beschrieben und führt zu einer verzögerten Anerkennung von Pionierleistungen. In der Bibliometrie ist die verzögerte Erkennung durch Arbeiten gekennzeichnet, die als „schlafende Schönheiten“ bezeichnet werden. Schlafende Schönheiten werden in Bezug auf Zitate erst einige Jahre nach ihrer Erstveröffentlichung erweckt. Das Studium der schlafenden Schönheiten ist notwendig, um wissenschaftliche Erkenntnisse besser zu verstehen. Der vorliegende Beitrag untersucht, inwieweit das Phänomen der verzögerten Anerkennung Folkmans Werk beeinflusst hat, indem er seine wissenschaftliche Produktion und die Zitationsdauer seiner Publikationen analysiert. Zitationsanalysen zeigen, dass Folkmans bahnbrechendes Papier, das 1971 veröffentlicht wurde, eine schlafende Schönheit ist. Die szientometrische Analyse wurde mit einer qualitativen Analyse des Folkman-Falls kombiniert, um die Gründe für diese verspätete Anerkennung und das Erwachen des „Dornröschens“ durch einen „Prinzen“ zu beleuchten und damit viel Aufmerksamkeit in Bezug auf Zitate auf sich zu ziehen . Interessanterweise stellt die Tatsache, dass Judah Folkman einer der Mitautoren des Prince-Papiers war, die Praxis des Ausschlusses von Selbstzitaten bei der Durchführung bibliometrischer Analysen in Frage. Indem Folkman nach jahrelangem Schlaf ständig seine eigene Arbeit zitierte, demonstrierte er seine Beharrlichkeit und seinen Glauben an die Bedeutung seiner Theorie. Konstanz und Kontinuität in der Forschung sind wichtige Bestandteile, um die Akzeptanz unpopulärer Hypothesen und die Erschließung neuer Forschungsfelder sicherzustellen.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2752-4 9fc8ce50336846bd7cf4b164819ac994;de;;;3.4.;6.4.;;Schwedens technologisches System für Elektronik und Computertechnologie Die Elektronik und Computertechnik (im Folgenden Elektroniktechnik) ist heute genauso durchdringend wie die Mechanik, immer weniger Wirtschaftsbereiche bleiben unberührt. Diese Entwicklung lässt sich auf den Transistor 1948 und den integrierten Schaltkreis 1960 zurückführen. Seitdem haben wir eine Reihe von Schlüsselinnovationen erlebt, die das technologische und kommerzielle Potenzial der Elektronik stark erhöht haben. Einige davon waren der Mikroprozessor (1969), der Halbleiterlaser (Ende der 1960er Jahre), der dynamische Speicher (Anfang der 1970er Jahre) und optische Fasern (mit ihren ersten kommerziellen Anwendungen in der Telekommunikation Mitte der 1970er Jahre). Ebenso wichtig war die Hinzufügung eines kontinuierlichen Stroms von Computersprachen und Programmen zu diesen Hardwareentwicklungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-6133-0_4 1f10315c0d3b7558ba0a04537fe85550;de;;;3.4.;6.4.;;Große Herausforderungen bei Altmetrics: Heterogenität, Datenqualität und Abhängigkeiten Mit zunehmender Akzeptanz unter Forschern halten Social Media Einzug in die wissenschaftliche Kommunikation und werden unter dem Oberbegriff Altmetrics in der Forschungsevaluation eingesetzt. Angetrieben von technologischen Möglichkeiten und einer steigenden Nachfrage, Auswirkungen über die wissenschaftliche Gemeinschaft hinaus zu demonstrieren, haben Altmetrics als potenzielle Demokratisierung des wissenschaftlichen Belohnungssystems und als Indikatoren für gesellschaftliche Auswirkungen große Aufmerksamkeit erhalten. Dieses Papier konzentriert sich auf die aktuellen Herausforderungen für Altmetrics. Heterogenität, Datenqualität und besondere Abhängigkeiten werden als die drei Hauptthemen identifiziert und ausführlich mit einem Schwerpunkt auf vergangene Entwicklungen in der Bibliometrie diskutiert. Die Heterogenität von altmetrics spiegelt die Vielfalt der Acts und Online-Events wider, die größtenteils auf Social Media-Plattformen stattfinden. Diese Heterogenität hat es schwierig gemacht, eine gemeinsame Definition oder einen konzeptionellen Rahmen zu etablieren. Probleme mit der Datenqualität zeigen sich in der mangelnden Genauigkeit, Konsistenz und Replizierbarkeit verschiedener Altmetrics, die stark von der Dynamik von Social Media-Ereignissen beeinflusst werden. Darüber hinaus sind Altmetrics von technischen Möglichkeiten geprägt und insbesondere abhängig von der Verfügbarkeit von APIs und DOIs, stark abhängig von Datenanbietern und Aggregatoren und potenziell beeinflusst durch die technischen Möglichkeiten der zugrundeliegenden Plattformen.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-1910-9 32c8298a665223e5474cc25ce5819ba0;de;;;3.4.;6.4.;;Interdisziplinarität und Wissenszufluss/-abfluss-Struktur in der wissenschaftlichen und technischen Forschung in Korea research Interdisziplinäre Forschung wurde durch die Politik vieler staatlicher und institutioneller Förderorganisationen in Korea gefördert. In dieser Arbeit wurde der Grad der Interdisziplinarität in Einzel- und Verbundforschung gemessen und die Faktoren analysiert, die diese beeinflussen. Dieses Papier untersuchte auch den Wissensfluss zwischen verschiedenen Disziplinen der Wissenschafts- und Ingenieurforschung unter Verwendung einer Datenbank, die aus Forschungsvorschlägen stammt, die der Korea Science and Engineering Foundation (KOSEF) vorgelegt wurden. Die Analyse ergab, dass 54,6% der Verbundforschungsanträge interdisziplinär waren, während 35,8% der Einzelforschungsanträge interdisziplinär waren. Die Analyse der Wissenszufluss-/Abflussstruktur zeigte, dass die Naturwissenschaft als Bindeglied zwischen Life Science und Engineering diente.;-;-;-;https://link.springer.com/article/10.1023/A%3A1025483625299 44457832c5ed5cfe608730127fc399af;de;;;3.4.;6.4.;;Quantitative Qualität: eine Studie darüber, wie leistungsbasierte Maßnahmen die Publikationsmuster dänischer Forscher verändern können Nationen auf der ganzen Welt wenden sich zunehmend quantitativen leistungsbasierten Metriken zu, um die Qualität von Forschungsergebnissen zu bewerten, da diese Metriken reichlich vorhanden sind und ein einfaches Maß für das Ranking der Forschung bieten. Im Jahr 2010 folgte das dänische Ministerium für Wissenschaft und Hochschulbildung diesem Trend und begann, einen Prozentsatz der verfügbaren Forschungsmittel entsprechend der Forschungsleistung jeder dänischen Universität zu verteilen. Nicht alle Forschungsergebnisse sind förderfähig: Es werden nur diejenigen berücksichtigt, die in einer kuratierten Liste wissenschaftlicher Zeitschriften und Verlage, der sogenannten BFI-Liste, veröffentlicht wurden. Die BFI-Liste ist rangiert, was Anreize für wissenschaftliche Autorinnen und Autoren schaffen kann, bestimmte Publikationsorgane oder Publikationsarten anderen gegenüberzustellen. In dieser Studie untersuchen wir die potenziellen Auswirkungen dieser relativ neuen Forschungsbewertungsmethoden auf die Publikationsmuster von Forschern in Dänemark. Die Studie stellt fest, dass sich das Publikationsverhalten in den Natur-, Sozial- und Geisteswissenschaften (SSH) verändert hat, während die Gesundheitswissenschaften unberührt erscheinen. Forscher in Naturwissenschaften und Technologie scheinen sich auf Zeitschriften mit hoher Wirkung zu konzentrieren, die mehr BFI-Punkte einstreichen. Während die SSH-Forscher ihren Fokus auch auf die Wirkung des Publikationsangebots verstärkt haben, scheinen sie auch ihre bevorzugten Publikationstypen geändert zu haben und mehr Zeitschriftenartikel in den Sozialwissenschaften und mehr Anthologien in den Geisteswissenschaften zu veröffentlichen.;-;-;-;https://link.springer.com/article/10.1007/s11192-021-03881-7 f7417b25c5935f43a0aaaeaecc0203d4;de;;;3.4.;6.4.;;Messung und Determinanten akademischer Forschungseffizienz: eine systematische Überprüfung der Evidenz Was ist akademische Forschungseffizienz und was bestimmt die Unterschiede zwischen der akademischen Forschungseffizienz von Wissenschaftlerinnen und Wissenschaftlern? Die Literatur zu diesem Thema hat sich in den letzten Jahrzehnten exponentiell entwickelt. Die Divergenz der verwendeten Ansätze, die Unterschiede in den Bündeln von Outputs und Inputs, die zur Schätzung der Effizienzgrenzen berücksichtigt werden, und die Unterschiede in den Prädiktoren der Effizienzvariabilität zwischen Wissenschaftlern, die in früheren Studien berücksichtigt wurden, machen jedoch einen Überblick interessant der Literatur zu diesem Thema. Basierend auf einer systematischen Überprüfung empirischer Studien, die zwischen 1990 und 2012 veröffentlicht wurden, schlägt und diskutiert dieser Artikel einen Rahmen vor, der eine Reihe von Ergebnissen und Inputs in Bezug auf die Effizienz der akademischen Forschung und die individuellen, organisatorischen und kontextuellen Faktoren zusammenfasst, die diese treiben oder behindern. Die daraus resultierenden Ergebnisse heben mehrere Wege hervor, die Hochschulverwaltungen und politischen Entscheidungsträgern dabei helfen würden, die Effizienz der akademischen Forschung besser zu fördern und Forschern dabei zu helfen, ihre Bemühungen bei der Erforschung des Phänomens besser zu bündeln.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-2173-1 5d968f4a46db1017780f3865350d7c2d;de;;;3.4.;6.4.;;Erfahrung der britischen Regierungsabteilungen mit der Evaluierung und Methodik von F&E-Programmen Das britische Umweltministerium ist für eine Reihe von politischen Fragen innerhalb der Regierung zuständig, die sich auf viele Aspekte der Umwelt im weitesten Sinne beziehen. Es gibt jährlich etwa 100 Mio. £ für Wissenschaft und Technologie zur Unterstützung seiner politischen Aufgaben aus. In den letzten Jahren hat sich ein System der Forschungsbewertung etabliert, das aus der Entwicklung von ROAME-Statements zur Bewertung von Programmen und der regelmäßigen unabhängigen Evaluierung von Forschungserfolg und -wirkung auf der Grundlage eines Fünfjahreszyklus besteht. Die Mechanismen und der Prozess des Bewertungssystems werden beschrieben. Die wirksame Evaluierung politikorientierter Forschungsprogramme hat der Abteilung wertvolle Informationen über den Erfolg und die Wirkung der Forschung sowie Hinweise auf die zukünftige Ausrichtung und Ausgewogenheit der Programme geliefert.;-;-;-;https://link.springer.com/article/10.1007/BF02018005 8a0ce6a2ce5be21c038059417fe14eed;de;;;3.4.;6.4.;;Feldnormalisierte Zitationsraten, feldnormalisierte Zeitschriftenauswirkungen und norwegische Gewichte für die Zuweisung von Hochschulforschungsmitteln Wir haben drei unterschiedliche bibliometrische Bewertungsansätze verglichen: zwei zitierungsbasierte Ansätze und einen auf der manuellen Einteilung von Veröffentlichungskanälen in Qualitätsstufen. Es wurden Publikationsdaten von zwei Universitäten verwendet, und wir arbeiteten mit zwei Analyseebenen: Artikel und Abteilung. Auf Artikelebene untersuchten wir die Vorhersagekraft der feldnormalisierten Zitationsraten und der feldnormalisierten Journalwirkung in Bezug auf die Zeitschriftenebene. Die Ergebnisse für die Artikelebene zeigen, dass die Bewertung von Zeitschriften nach Citation Impact relativ gut mit der manuellen Einordnung von Zeitschriften in Qualitätsstufen korreliert. Allerdings war die Vorhersage von feldnormalisierten Zitationsraten auf Zeitschriftenebene nur unwesentlich besser als zufällige Schätzungen. Auf Departementsebene haben wir drei verschiedene Indikatoren im Kontext der Forschungsmittelvergabe innerhalb der Universitäten untersucht und inwieweit die drei Indikatoren unterschiedliche Verteilungen von Forschungsmitteln bewirken. Es stellte sich heraus, dass die drei Verteilungen der relativen Indikatorwerte sehr ähnlich waren, was wiederum ergibt, dass die entsprechenden Verteilungen der hypothetischen Forschungsmittel sehr ähnlich wären.;-;-;-;https://link.springer.com/article/10.1007/s11192-012-0632-x f851f8f8321589b47d3811136c4a1902;de;;;3.4.;6.4.;;Geistiges Eigentum und öffentliche Forschung in der Biotechnologie: die Meinung der Wissenschaftler Brasilien gilt als ein unausgereiftes nationales Innovationssystem. Eine wichtige Situation, die dazu beiträgt, ist, dass Brasilien seine Forschungsanstrengungen und seinen Erfindungsreichtum im akademischen Umfeld konzentriert, während der Privatsektor nur sehr wenig Zugang zu dieser Aktivität hat. Es werden Maßnahmen ergriffen, um diese Situation zu korrigieren. Dennoch wird die Einstellung der Wissenschaftler zur neuen Situation entscheidend für den Erfolg solcher Maßnahmen sein. Aus diesem Grund haben wir das Verhalten brasilianischer Wissenschaftler aus den biotechnologischen Bereichen in Bezug auf geistige Eigentumsrechte untersucht. In dieser Studie wurden 1032 Forscher elektronisch kontaktiert und 150 antworteten. Die 41 Fragen beinhalten Indikatoren über die Wahrnehmung der Befragten über die Unterstützung ihrer Institutionen bei der Patentierung von Forschungsergebnissen, ihre Einstellung zu den jüngsten Änderungen in der Gesetzgebung zum Schutz des geistigen Eigentums und zur Interaktion von Forschern mit Forderungen externer Interessen.;-;-;-;https://link.springer.com/article/10.1023/B%3ASCIE.0000006885.67651.9e 39a49bc8f18f73b9aa621951434f276d;de;;;3.4.;6.4.;;Vergleich der Veröffentlichungsgeschichten der Ozeanographie und der marinen Geowissenschaften nach dem Zweiten Weltkrieg Ozeanographie und marine Geowissenschaften sind eng verwandte Fächer, die jedoch unterschiedliche Einflüsse hatten. Das Vereinigte Königreich, das die finanziellen Vorteile von Nordsee-Öl und -Gas erlebt hat und gleichzeitig über eine umfangreiche Fischereiindustrie und eine mit anderen englischsprachigen Ländern und europäischen Ländern verbundene Wissenschaftsbasis verfügt, veranschaulicht möglicherweise einige sich ändernde Einflüsse und Kooperationstendenzen gut. In diesem Artikel werden Unterschiede bei den Veröffentlichungsraten von Artikeln und Tendenzen zur Zusammenarbeit sowohl weltweit als auch für Großbritannien anhand von Web of Science™, Scopus™ und Georef™ für den Zeitraum 1946–2018 untersucht. Die Ergebnisse zeigen, dass die Veröffentlichungsraten von Artikeln zur globalen Ozeanographie von Mitte der 1960er bis 1980 exponentiell schneller gestiegen sind als alle globalen wissenschaftlichen Veröffentlichungen. Die Veröffentlichungsraten der Global Marine Geoscience stiegen bis in die späten 1980er Jahre, sind aber seitdem zurückgegangen. Die britische Ozeanographie ist in etwa den globalen Trends gefolgt, obwohl ihr Anteil an den globalen ozeanographischen Publikationen von 28 % in den 1950er Jahren auf 8 % im Jahr 2018 zurückgegangen ist. Auch die britischen Marine Geoscience-Publikationen sind in diesem Bereich im Allgemeinen globalen Trends gefolgt. Sein Anteil an den weltweiten Veröffentlichungen stieg jedoch abrupt von 4,9% (Durchschnitt 1960-1980) auf 13,2% bis 1990, hauptsächlich aufgrund von Artikeln aus der britischen Beteiligung am Deep-Sea Drilling Project and Ocean Drilling Program. Ozeanographie und marine Geowissenschaften haben in den letzten vier Jahrzehnten auch eine stark unterschiedliche Geschichte von kollaborativen Artikeln erlebt. Während der Anteil ozeanografischer Artikel, die gemeinsam mit Forschern in anderen Ländern verfasst wurden, an den gesamten Artikeln der britischen Ozeanografie stetig zugenommen hat, erreichten die der marinen Geowissenschaften 1990 ihren Höhepunkt und sind seitdem zurückgegangen, blieben jedoch auf einem ähnlichen Niveau wie 2018 in der Ozeanografie. Der Vergleich der weltweiten Veröffentlichungsraten in beiden Bereichen mit Datenmessungen und Probensammlungen auf See deutet auf grundlegende Veränderungen in der Art und Weise der Forschung hin. Beispielsweise korrelierten die Publikationsraten der Marine Geoscience für das Jahrzehnt bis 1970 stark mit den geophysikalischen Track-Line-Distanzen, waren aber für das Jahrzehnt danach umgekehrt korreliert. Dies spiegelt beispielsweise die Entwicklung der Plattentektonik wider, die teilweise die Analyse vorhandener mariner geophysikalischer Daten beinhaltete, verbesserte Ausrüstungsfähigkeiten und die zunehmende Rolle wissenschaftlicher Bohrungen.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03498-2 c54915ff93bbf8b58f89c38fd4407924;de;;;3.4.;6.4.;;Struktur und Wandel des Forschungskooperationsnetzwerks in Korea (2000–2011): Netzwerkanalyse gemeinsamer Patente Diese Studie soll die Struktur, Eigenschaften und Veränderungen eines Forschungskooperationsnetzwerks anhand von Informationen von Mitabtretern gemeinsamer Patente in Korea untersuchen. Die Studie wurde in drei Phasen durchgeführt: Datenerhebung, Netzwerkaufbau und Netzwerkanalyse. Für die Netzwerkanalyse wurden nacheinander eine Netzwerktopologieanalyse, eine Knotenzentralitätsanalyse und eine Blockmodellierung durchgeführt. Die Analyseergebnisse zeigten, dass das Netzwerk Small-World-Eigenschaften hat. Die Ergebnisse zeigten auch, dass in den frühen 2000er Jahren staatlich geförderte Forschungsinstitute (GRIs) eine Rolle als Drehscheibe und Brücke im Netzwerk spielten, Universitäten jedoch allmählich eine Schlüsselrolle als Drehscheibe und Brücke im Netzwerk eingenommen haben. Darüber hinaus zeigte die Analyse der Blockmodellierung, dass die GRI-zentrierte Netzdichte in den frühen 2000er Jahren zwar hoch war, sich jedoch nach 2004 auf Universitäten konzentrierte und sich diese Tendenz nach 2008 verstärkte empirischen Studien zu organisationsübergreifenden Forschungskooperationsnetzwerken unter Verwendung von Patentdaten leistete diese Studie einen wissenschaftlichen Beitrag, indem sie gezielt die Struktur und Veränderung von Forschungskooperationsnetzwerken analysierte, indem sie sich an Koreas wichtigste innovative Akteure richtete. Aus politischer Sicht liefert es wichtige Implikationen für die Ermittlung der Auswirkungen der bisher implementierten Kooperationspolitiken zwischen Universität, Industrie und GRI (UIG) und kann bei der Erstellung evidenzbasierter Strategien zum Aufbau eines effektiveren UIG-Kooperationsnetzwerks hilfreich sein oder ein neues nationales wissenschaftliches und technologisches Innovationssystem einrichten.;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2321-2 ad07877956c6f30de34f9bf13c99b04c;de;;;3.4.;6.4.;;Wie hängt die Forschungsproduktivität mit dem Geschlecht zusammen? Analyse der Geschlechterunterschiede für mehrere Publikationsdimensionen Messgrößen der Forschungsproduktivität werden häufig verwendet, um Anstellungsverhältnisse, Drittmittel und zusätzliche Ressourcen von Universitäten zu erhalten. Frühere Studien weisen jedoch darauf hin, dass Männer möglicherweise eine höhere Forschungsleistung haben als Frauen, mit gemischten Schlussfolgerungen über die Faktoren, die diese Unterschiede verursachen. In dieser Studie wird untersucht, inwieweit die Forschungsproduktivität von Psychologieprofessoren in Deutschland geschlechtsbezogen ist und darüber hinaus, wie sich etwaige Gender Gap durch das Controlling individueller und organisationaler Faktoren erklären lassen. Darüber hinaus werden drei Publikationsdimensionen (Publikationen in Top-10%-Zeitschriften, Zeitschriftenartikel sowie Buch- und Sammelkapitel) unterschieden, um den Einfluss von Geschlecht auf die Forschungsproduktivität möglichst genau zu bestimmen. Es wird ein einzigartiger Datensatz verwendet, der auf allen ordentlichen Psychologieprofessoren in Deutschland und deren Publikationszahlen in den Jahren 2013 und 2014 basiert (;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2933-1 4b20c245a65ef5c5ac9502fa00014987;de;;;3.4.;6.4.;;Linkbasierter Ansatz für bibliometrisches Zeitschriftenranking Der ISI Impact Factor ist als mögliches Maß für die Qualität wissenschaftlicher Zeitschriften weithin anerkannt. Diese Verwendung wurde jedoch in letzter Zeit viel diskutiert, und es wurde über mehrere komplexe alternative Indikatoren für die Wirkung von Zeitschriften berichtet. Um Verzerrungen zu vermeiden, die durch die Verwendung eines einzigen Qualitätsindikators verursacht werden können, ist das Ensemble mehrerer Indikatoren eine vielversprechende Methode zur Erstellung einer robusteren Qualitätsschätzung. In diesem Beitrag wird ein auf Verknüpfungen zwischen Zeitschriften basierender Ansatz zur Erfassung und Verschmelzung von Wirkungsindikatoren vorgeschlagen. Insbesondere werden eine Reihe beliebter Indikatoren kombiniert und in Fusionslinks zwischen akademischen Zeitschriften umgewandelt, und zwei Distanzmetriken: Euklidische Distanz und Manhattan-Distanz werden verwendet, um die Entwicklung und Analyse der Fusionsverbindungen zu unterstützen. Der Ansatz wird sowohl auf überwachtes als auch auf unüberwachtes Lernen angewendet, um die Wirkung und damit das Ranking von Zeitschriften abzuschätzen. Ergebnisse systematischer experimenteller Auswertungen zeigen, dass durch die Nutzung der Fused-Links einfache Algorithmen wie;-;-;-;https://link.springer.com/article/10.1007/s00500-013-1052-4 da6081267ef8f2a9cef4d924cea3e8d8;de;;;3.4.;6.4.;;Die Organisation wissenschaftlichen Wissens: die strukturellen Merkmale von Keyword-Netzwerken Das Verständnis wissenschaftlichen Wissens selbst kann weitere Fortschritte in der Wissenschaft fördern, und die Forschung zur Organisation von Wissen kann eine Initiative zu diesem Bemühen sein. Dieser Forschungsstrom wurde jedoch hauptsächlich durch die Analyse von Zitationsnetzwerken vorangetrieben. Diese Studie verwendet als alternatives Wissenselement Informationen zu den Schlagworten von Beiträgen aus der Wirtschaftsforschung und untersucht, wie diese miteinander verknüpft sind, um einen wissenschaftlichen Wissensbestand zu bilden. Die Ergebnisse zeigen, dass Keyword-Netzwerke im Gegensatz zu den meisten Zitationsnetzwerken keine Small-Word-Netzwerke sind, sondern lokal geclusterte skalenfreie Netzwerke mit hierarchischer Struktur. Diese strukturellen Muster sind robust gegenüber dem Umfang der beteiligten wissenschaftlichen Gebiete. Darüber hinaus diskutiert dieser Beitrag die Ursprünge und Implikationen der identifizierten strukturellen Merkmale von Keyword-Netzwerken.;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0560-1 dc32d70c09f03da2f90ce99f973cef90;de;;;3.4.;6.4.;;Organisatorische Umsetzung bibliometrischer Indikatoren Der Beitrag beschäftigt sich mit den verschiedenen Problemen einer Implementierung von Publikationsindikatoren auf Fachbereichsebene an westdeutschen Hochschulen. Das deutsche Hochschulsystem stützt sich vor allem auf soziale und informelle Kontrollmechanismen. Bibliometrische Indikatoren können in einem solchen System ausreichende Informationen für eine wirksame soziale Kontrolle liefern. Sie werden jedoch nur akzeptiert und wirksam, wenn sie valide, absolut zuverlässig und robust sind. Eine erfolgreiche Anpassung individueller Ziele und Verhaltensweisen hängt maßgeblich von den besonderen Interessen und Anreizen der Fakultätsmitglieder über die verschiedenen Fachbereiche hinweg ab.;-;-;-;https://link.springer.com/article/10.1007/BF02020701 e47b784835893dff4a94f938fab69e8e;de;;;3.4.;6.4.;;Eine vergleichende Analyse wissenschaftlicher Veröffentlichungen in Managementzeitschriften von Autoren aus Festlandchina, Hongkong, Taiwan und Macau: 2003–2012 Der Zweck dieser Arbeit ist es, die Quantität und Qualität von Managementartikeln zu vergleichen, die in internationalen Zeitschriften von Autoren aus den vier großen Regionen Chinas veröffentlicht wurden. Die Ergebnisse zeigten, dass sich sowohl die Qualität als auch die Quantität der in Management-Zeitschriften von ML, HK und TW veröffentlichten Artikel von 2003 auf 2012 stark verbessert haben. Auch die Veröffentlichungen von MC nahmen zu. TW übertraf ML und HK in den kumulierten Faktoren. HK und TW hatten den höchsten mittleren Impact-Faktor. ML veröffentlichte die meisten Artikel, und der am häufigsten zitierte Artikel kam von ML. Allerdings waren die Veröffentlichungen aus ML ungleich auf die Provinzen verteilt.;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1665-8 4336755adc553bbdb4c246014ec75101;de;;;3.4.;6.4.;;Sektorale Innovationssysteme: der Fall von Robotik-Forschungsaktivitäten Die Robotik-Technologie verspricht ein bedeutendes Potenzial für die Verbesserung der industriellen Automatisierung und Produktionslinien, die Durchführung komplexer chirurgischer Verfahren, die Durchführung von Weltraum- und Sicherheitsmissionen und die Bereitstellung von Dienstleistungen zur Unterstützung, Bildung und Unterhaltung von Menschen. Der Schwerpunkt dieses Beitrags liegt hauptsächlich auf den wissenschaftlichen Entwicklungen von Robotik-Innovationssystemen in einer globalen Perspektive, wobei Akteure und Institutionen identifiziert werden, die an der Entwicklung und Verbreitung dieser innovativen Technologie beteiligt sind. Diese quantitative Forschung basiert auf;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1611-9 0dff17e6a0ca4db6eeac39cecf8e9f0b;de;;;3.4.;6.4.;;Gibt es eindeutig ein Geschlechtergefälle? Nachweise aus der Forschungsleistung 1958–2008 Wissenschaftlerinnen publizieren seltener als Männer, sie können auch in von Männern dominierten Disziplinen diskriminiert und geschlechtsspezifisch voreingenommen sein. Zitationsmetriken werden von Bewertungsstellen und Beratungsstellen befürwortet, um die Forschungsbewertung zu standardisieren. Wir konzentrieren uns auf die zur Bewertung vorgeschlagenen Metriken und neuere Metriken, die zusätzliche Leistungsdimensionen erfassen. Unsere Daten stammen aus einer Stichprobe von Buchhaltern von 1958 bis 2008. Die Ergebnisse deuten darauf hin, dass Zitationsmetriken, die überzählige Zitate berücksichtigen, wie z;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2327-9 09a3c4388174d59baf7dd7c6f738ba71;de;;;3.4.;6.4.;;Quantitative Studie zur australischen akademischen Wissenschaft Ende 2009 existierten 50 Millionen wissenschaftliche Arbeiten, und der Wandel im globalen Hochschulsektor lässt diese Zahl rasant ansteigen. Mit dem Einfluss von Hochschulrankings haben sich im wissenschaftlichen Publikationssystem dramatische Veränderungen vollzogen, sowohl die Zahl der Publikationen als auch die Zahl der Wissenschaftler nimmt rapide zu. In dieser Forschung führen wir eine fokussierte Studie zu den quantitativen Beziehungen in der australischen akademischen Wissenschaft durch. Die Stichprobendaten werden von drei Institutionen ausgewählt, die drei Arten von Universitäten in Australien repräsentieren: eine führende Universität, eine Universität der mittleren Ebene und eine nicht umfassende Universität. Für unsere Analyse werden bibliometrische Daten von 32.056 Wissenschaftlern und 353.334 Publikationen heruntergeladen. Die Ergebnisse zeigen, dass unterschiedliche Wachstumsraten bei Wissenschaftlern (5,6, 6,1 bzw. 7,7 %) und Zeitschriftenpublikationen (6,7, 7,4 bzw. 9,7 %) für die Leituniversität, die Mitteluniversität bzw. Wir bewerten auch, wie sich wissenschaftliche Veröffentlichungen zwischen diesen drei australischen Universitätstypen unterscheiden, unter sechs Aspekten: durchschnittliche Anzahl von Veröffentlichungen pro Wissenschaftler, Prozentsatz der Erstautoren, Kooperationsmuster, Durchschnitt;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2499-3 129eb1d39183a1e6231ff311df7209dd;de;;;3.4.;6.4.;;Effektivität und Effizienz der Forschung in Deutschland im Zeitverlauf: eine Analyse deutscher Business Schools zwischen 2001 und 2009 Dieser Artikel analysiert die Entwicklung der Effektivität und Effizienz der Forschungsproduktion deutscher Business Schools zwischen 2001 und 2009. Die Ergebnisse deuten darauf hin, dass die Effektivität für die meisten der untersuchten Business Schools zunächst zunimmt. Dann ist jedoch im weiteren Zeitverlauf ein rückläufiger Trend zu beobachten. Bei der Effizienz lassen sich ähnliche Tendenzen feststellen, wenn auch etwas weniger ausgeprägt. Eine Analyse der Gründe für diese Beobachtungen zeigt, dass die anfänglichen positiven Entwicklungen der Effektivität und der Effizienz hauptsächlich auf technologische Fortschritte zurückzuführen sind, während die folgenden Rückgänge im Wesentlichen auf Technologierückstand zurückzuführen sind. In Bezug auf verschiedene Arten von Business Schools zeigt sich ein starker Zusammenhang zwischen der Reputation einer Schule und der Forschungseffizienz dieser Schule. Bezogen auf die geografischen Regionen weisen west- und süddeutsche Business Schools eine höhere Effektivität auf als ihre nord- oder ostdeutschen Pendants. Diese Aussage ist jedoch hinsichtlich der Effizienz nicht gültig.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-2013-3 9f02d482b7de66cdcb253b23655df3cc;de;;;3.4.;6.4.;;Korrelation zwischen Struktur der wissenschaftlichen Forschung, szientometrischen Indikatoren und BIP in EU- und Nicht-EU-Ländern Signifikante Diskrepanzen wurden im Verhältnis und relativen Einfluss der Zeitschriftenartikel mehrerer wissenschaftlicher Bereiche einiger mittel- und osteuropäischer (MOE) Länder im Vergleich zu den Mitgliedstaaten der Europäischen Gemeinschaft, den USA und Japan (EUJ-Länder) festgestellt. Ein neuer Indikator, der die mittlere strukturelle Differenz von Wissenschaftsbereichen zwischen Ländern charakterisiert, wurde eingeführt und für CEE-Länder berechnet. Für EUJ-Länder erwies sich die Korrelation zwischen dem BIP und der Anzahl der Veröffentlichungen eines bestimmten Jahres als nicht signifikant. Längsschnittstudien zeigten jedoch signifikante Korrelationen zwischen den Jahreswerten des BIP und der Zahl der veröffentlichten Arbeiten. Die Untersuchung von Daten zu aufeinanderfolgenden Zeiträumen ergab, dass es keinen direkten Zusammenhang zwischen dem BIP und der Informationsproduktion der Länder gibt. Es ist davon auszugehen, dass Zuschüsse für F&E nicht vom tatsächlichen Bedarf abhängen, aber Tatsache ist, dass reiche Länder mehr Geld ausgeben können, während arme Länder nur weniger Geld für wissenschaftliche Forschung ausgeben.;-;-;-;https://link.springer.com/article/10.1007/s11192-008-0215-z cec61c541b55983f4e294ef283572440;de;;;3.4.;6.4.;;Vor- und Nachteile der neuen Förderpolitik für türkische Forscher 2015 wurde in der Türkei eine neue Ex-post-Anreizpolitik eingeführt, um die akademische Produktivität von Forschern zu steigern. Diese konvergente parallele Designstudie zielt darauf ab, eine Antwort auf die folgenden Forschungsfragen zu finden: (1) Was sind die Nachteile des Ex-post-Finanzierungssystems (EPFS) im wissenschaftlichen Publizieren unter türkischen Forschern? (2) Welche Beiträge leistet die EPFS zum wissenschaftlichen Publizieren in der Türkei? Die Ergebnisse zeigten, dass die EPFS ein motivierender Faktor war, der es den Forschern ermöglichte, mehr Zeit für akademische Studien zu haben. Außerdem hat die EPFS ein stärker wettbewerbsorientiertes Umfeld geschaffen, daher wurden einige Forscher von diesem Wettbewerbsumfeld beeinflusst und neigten zu akademischen Studien. Es wurde der Schluss gezogen, dass die EPFS die Anzahl der Artikel in nationalen Zeitschriften, Artikeln in internationalen Zeitschriften (indiziert in anderen Indizes als SSCI/SCI/AHCI) sowie der auf Kongressen und Projekten präsentierten Beiträge erhöht hat. Die Daten zeigten, dass die EPFS neben ihrem positiven Beitrag zur akademischen Produktivität auch unerwünschte und erwartete Auswirkungen hatte. Insbesondere die Zahl der Veröffentlichungen in potenziell gefälschten Zeitschriften und fragwürdigen Konferenzen stieg nach EPFS. Ein weiterer offensichtlicher Nachteil der EPFS war, dass Forscher ohne Beitrag zum Artikel als Autor für wissenschaftliche Arbeiten aufgenommen wurden.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2833-4 aacc72884f6bb7ef4c40d99338752942;de;;;3.4.;6.4.;;Messung und Erklärung der Produktionseffizienz spanischer Universitäten mit einem nicht-parametrischen Ansatz und einer Bootstrapped-Trunkated-Regression Die Identifizierung von Umweltfaktoren, die Effizienzunterschiede erklären, ist für die Verbesserung der Ergebnisse öffentlicher Universitäten unerlässlich. In diesem Artikel wurde für gültige Schlussfolgerungen über den Einfluss von Umweltfaktoren auf die Effizienz der Universitäten zu ziehen. In der ersten Phase wurde ein Effizienzschätzer der Data Envelopment Analysis (DEA) verwendet, um die technischen Effizienzwerte für öffentliche spanische Universitäten zu schätzen. Es ist üblich, die Determinanten der (In-)Effizienz in einem zweiten Schritt zu untersuchen. Um eine gültige Schlussfolgerung zu ziehen, schlugen Simar und Wilson (2007) einen parametrischen Bootstrap der verkürzten Regression vor (Algorithmus #1). Alternativ empfahlen sie ein Bootstrap-Verfahren, um verzerrte technische Effizienzwerte zu erhalten, die in der verkürzten Regression der zweiten Stufe verwendet werden. Bei beiden Algorithmen waren drei Umweltfaktoren statistisch signifikante Prädiktoren für die Effizienz. Unsere Ergebnisse bestätigten, dass Universitäten mit einem höheren Anteil an Akademikern mit Festanstellung, ausgehenden Erasmus-Studenten und staatlichen Stipendiaten weniger ineffizient sind.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03324-4 be223e06d29211dca14acb40c0e06708;de;;;3.4.;6.4.;;Konvergenz oder Polarisierung? Die Auswirkungen von Forschungsbewertungsübungen im italienischen Fall In Italien fanden zwei Forschungsbewertungen mit Auswirkungen auf die Hochschulfinanzierung statt, die die Zeiträume 2004–2010 und 2011–2014 abdecken. Nachdem die Notenschemata korrigiert wurden, um die Vergleichbarkeit der beiden Übungen zu gewährleisten, zeigen wir, dass die Endergebnisse der Universitäten eine gewisse Konvergenz aufweisen. Wir stellen fest, dass die Konvergenz hauptsächlich auf Veränderungen in der relativen Produktivität der Forscher, die an beiden Übungen teilgenommen haben, sowie auf Einstellungen und Beförderungen zwischen den beiden Übungen zurückzuführen ist. Die Ergebnisse werden auch dann bestätigt, wenn wir die Anzahl der Produkte in den beiden Übungen angleichen. Wenn wir die Fakultäten innerhalb der Universitäten betrachten, finden wir immer noch Konvergenz, obwohl die Struktur und Zusammensetzung der Fakultäten nicht genau vergleichbar ist, da die Kartierung von Forschern eine gewisse Willkür beinhaltet. Diese Ergebnisse legen nahe, dass Konvergenz echte Veränderungen im Verhalten von Forschern und in den Strategien der bewerteten Institutionen widerspiegelt, die durch Anreize hervorgerufen werden, die durch die nationalen Forschungsbewertungsübungen geschaffen wurden.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03517-2 79c779fd095f3ea04ca493819bbfd68f;de;;;3.4.;6.4.;;Erforschung von Herz-Kreislauf-Erkrankungen in Saudi-Arabien: eine bibliometrische Analyse In den letzten drei Jahrzehnten hat in Saudi-Arabien die Prävalenz von Herz-Kreislauf-Erkrankungen (CVD) zugenommen und die Regierung hat erheblich in Bildung, Gesundheitsversorgung und Forschung investiert. Diese Studie untersuchte die Trends der Forschungsproduktivität und charakterisierte die Art und den Schwerpunkt aller CVD-Forschungsstudien aus Saudi-Arabien. Die Daten wurden aus bis Dezember 2015 veröffentlichten Studien extrahiert und in der PubMed-Datenbank indiziert. Zu den Zulassungskriterien für die Studie gehörten: (1) innerhalb Saudi-Arabiens ausgewählte Stichprobe und (2) CVD oder ein Risikofaktor für CVD als Endpunkt oder (3) Patienten mit CVD als Studienteilnehmer. Bibliometrische Daten und Studienmerkmale wurden aus jeder Studie extrahiert, Beispiele sind Autorschaft (Anzahl, Geschlecht, Zugehörigkeit), Zeitschrift, Erscheinungsjahr, Studienort, Forschungsdesign, Stichprobengröße, Stichprobentyp (allgemein oder Patient), Stichprobenzusammensetzung (männlich oder weiblich) ) und Stichprobenstrategie (zufällig oder nicht zufällig). Die Analyse umfasste 295 Studien, die sich auf 19 Arten von Herz-Kreislauf-Erkrankungen bezogen, die häufigsten waren koronare Herzkrankheit (18%), Bluthochdruck (16%), Schlaganfall (14%), periphere arterielle Verschlusskrankheit (11%) und angeborene Herzfehler (10). %). In den letzten 30 Jahren sind die Gesamtproduktivität, die Verwendung eines Hypothesentestdesigns (d. Das experimentelle Design machte nur 3% aller Studien und weniger als 10% der hypothesentestenden Designstudien aus. Die wissenschaftliche Literatur aus Saudi-Arabien befasste sich mit vielen der CVD-Typen. Allerdings wurden bisher nur sehr wenige experimentelle Studien durchgeführt. Förderagenturen sollten erwägen, mehr Studien mit einem hypothesenprüfenden Design zu bevormunden.;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2393-z 276b6063c2d353334b76defe6173d6dc;de;;;3.4.;6.4.;;Bewertung von Forschung, Technologie und Entwicklung in der kanadischen Industrie: Bewältigung der Herausforderungen industrieller Innovation Kanadische Firmen reagieren auf die Herausforderungen und Chancen des globalen Wettbewerbs, indem sie ihre Forschungsproduktivität und Innovationsrate steigern. Der Wettbewerbsvorteil der kanadischen Industrie muss nun auf einer neuen Einschätzung der Dynamik von Forschung und Entwicklung sowie auf Managementpraktiken und -strategien beruhen, die für die innovationsunterstützenden Systeme relevant sind. Unternehmen übernehmen neue FuE- und Managementmodelle, um der dynamischen und komplexen Natur der Innovation, der wachsenden Bedeutung von Transaktionen und Verknüpfungen innerhalb von Innovationssystemen und der Bandbreite finanzieller, menschlicher, sozialer und ökologischer Faktoren, die sich jetzt auf die Technologie auswirken, zu begegnen Einschätzung und Entscheidung. Angesichts dieses neuen Paradigmas werden Bewertungstechniken entwickelt und von der kanadischen Industrie übernommen, die ihnen ein besseres Verständnis des Wertes ihrer Forschung vermitteln und die Agilität ihres Technologiemanagements verbessern. Diese Entwicklungen sind jedoch nicht auf die Industrie beschränkt. Ebenso wichtig ist die Konvergenz der Bewertungsmethoden, die sowohl in der Industrie als auch in Regierungen zur Bewertung von Forschung und Technologie verwendet werden. Die von der Industrie verwendeten Methoden sind heute die Techniken, die Regierungen verwenden, um ihre eigene F&E zu bewerten und industrielle W&T-Politiken und -Strategien zu formulieren.;-;-;-;https://link.springer.com/article/10.1007/BF02018019 ecf627e88f3bfc74dd97f2c10f54a040;de;;;3.4.;6.4.;;Das F&E-Logikmodell: Funktioniert es wirklich? Eine empirische Überprüfung mit sukzessiven binären logistischen Regressionsmodellen Die vorliegende Studie untersucht, dass ein Leistungserstellungsprozess für Forschung und Entwicklung (FuE) der schrittweisen Kettenstruktur eines typischen FuE-Logikmodells in Bezug auf ein nationales Technologieinnovations-FuE-Programm entspricht. Basierend auf einer Reihe von sukzessiven binären logistischen Regressionsmodellen, die in der vorliegenden Studie neu vorgeschlagen wurden, wurde eine Stichprobe von;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1764-6 5fe3dfd032487ffbfd577f1af64cd9cf;de;;;3.4.;6.4.;;Eine bibliometrische Analyse der globalen Waldökologieforschung in den Jahren 2002–2011 Bibliometrie wird zunehmend für die Analyse der Disziplindynamik und der managementbezogenen Entscheidungsfindung verwendet. Diese Studie analysiert 937.923 Schlagwörter aus 78.986 Artikeln zur Waldökologie und führt eine serielle Analyse der Eigenschaften dieser Artikel durch. Die Datensätze der Artikel, die zwischen 2002 und 2011 veröffentlicht wurden, wurden aus dem Web of Science heruntergeladen und ihre Schlüsselwörter wurden von Java-Verarbeitungsprogrammen exportiert. Das Ergebnis zeigt, dass sich forstökologische Studien im letzten Jahrzehnt auf Waldvielfalt, Naturschutz, Dynamik und Vegetation konzentrierten. Industrieländer wie die USA, Kanada und Deutschland waren die produktivsten Länder auf dem Gebiet der forstökologischen Forschung. Von 2002 bis 2011 ist die Zahl der jährlich veröffentlichten Artikel zum Thema Waldökologie stabil gestiegen, wie die Anpassung eines hohen Bestimmungskoeffizienten (R;-;-;-;https://link.springer.com/article/10.1186/2193-1801-2-204 427c8e767891bc1a1070b9ca607b9ee8;de;;;3.4.;6.4.;;Innovationsbezogene Eigenschaften des Top-Management-Teams und explorative F&E des Unternehmens: eine Analyse basierend auf Patentdaten Diese Studie untersucht den Zusammenhang zwischen den Eigenschaften des Top-Management-Teams (TMT) des Unternehmens und seinen Forschungs- und Entwicklungsaktivitäten (F&E). Diese Forschung analysiert insbesondere, wie sich beobachtbare Merkmale des TMT, wie funktionale Erfahrungen oder Bildungshintergrund und durchschnittliche Betriebszugehörigkeit, auf den Anteil der explorativen F&E-Aktivitäten des Unternehmens auswirken. Aus der Perspektive der Oberstufentheorie gehen wir davon aus, dass die funktionalen Erfahrungen des TMT mit F&E oder naturwissenschaftlichem oder technischem Bildungshintergrund die Tendenz des Unternehmens zu explorativer F&E erhöhen. Darüber hinaus schlagen wir vor, dass die durchschnittliche Amtszeit von TMT-Mitgliedern mit innovationsbezogenen Erfahrungen einen positiven Moderationseffekt auf diese Beziehungen haben würde. Die Hypothesen werden anhand eines Datensatzes mit biografischen Informationen der TMT-Mitglieder, Finanz- und Patentdaten von 89 Unternehmen in US-Hightech-Industrien von 2006 bis 2009 getestet Nichtpatentreferenzen. Die empirische Analyse zeigt, dass sich der natur- oder ingenieurwissenschaftliche Bildungshintergrund der Topmanager sowie ihre bisherigen funktionalen Erfahrungen mit F&E positiv auf die explorative Innovationstätigkeit des Unternehmens auswirken. Wir stellen auch fest, dass das Ausmaß dieser Effekte mit einer längeren Amtszeit dieser TMT-Mitglieder zunimmt. Unsere Ergebnisse liefern Implikationen in Bezug auf die Auswirkungen von Organisationsmerkmalen auf die Etablierung einer F&E-Strategie und unterstreichen die Rolle von TMT-Mitgliedern mit innovativen Erfahrungen bei der Steuerung der F&E-Aktivitäten und -Ergebnisse eines Unternehmens.;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2322-1 df69b86fe256ab1ceb5b3a073e0ce664;de;;;3.4.;6.4.;;Wissenschaftliche Forschungsgebiete in Mexiko: Wachstumsmuster Ende der 70er Jahre Ende der 1970er Jahre wurde eine Längsschnittstudie zu zehn mexikanischen Forschungsgebieten durchgeführt. In der Studie wurden Forschungseinrichtungen je nach Qualität und Quantität der Forschungsleistung von einer Expertengruppe in primär und sekundär eingeteilt. Neugründungen in diesem Zeitraum wurden ebenfalls als primäre oder sekundäre Institutionen klassifiziert. Die Untersuchung der Daten zeigt eine stärkere Zunahme des wissenschaftlichen Personals in den Primäreinrichtungen, ein Hinweis auf eine ungleiche Verteilung der Ressourcen. Darüber hinaus haben sie aufgrund der hohen Fluktuation von qualifiziertem Personal an sekundären Einrichtungen den Nachteil, reife, stabile Forschungsgruppen zu bilden, und werden oft davon ausgeschlossen, erstklassige Forschungszentren zu werden. Da das nationale Wissenschafts- und Technologiesystem den Wechsel von Einrichtungen von der Sekundarstufe in die Primarstufe nicht erleichtert, wird empfohlen, bei jeder Einrichtung einer neuen Einrichtung geeignete personelle und materielle Ressourcen bereitzustellen, um sicherzustellen, dass sie von Anfang an als erster Rang angesehen. Um die Kluft zwischen Primär- und Sekundäreinrichtungen zu verringern, sollten außerdem langfristige Strategien, einschließlich der Bereitstellung hochqualifizierter Forscher, entwickelt werden, um die Aufwertung der Sekundäreinrichtungen zu erleichtern.;-;-;-;https://link.springer.com/article/10.1007/BF02017244 b37a0bf71f5b6c86af075e62924ad651;de;;;3.4.;6.4.;;Globalisierung und De-Globalisierung in der Nanotechnologieforschung: die Rolle Chinas Der Anteil der Nanotechnologie-Publikationen mit Autoren aus mehr als einem Land hat sich in den 1990er Jahren mehr als verdoppelt, ging dann aber bis 2004 wieder zurück und erholte sich in den letzten Jahren des Jahrzehnts wieder etwas. Unterdessen ist der Anteil der Nanotechnologie-Veröffentlichungen, an denen mindestens ein chinesischer Autor beteiligt ist, in den letzten zwei Jahrzehnten erheblich gestiegen. Bei Arbeiten mit chinesischen Autoren ist die Wahrscheinlichkeit weitaus geringer, dass sie international gemeinsam verfasst wurden als bei Arbeiten mit Autoren aus anderen Ländern. Dies scheint sich jedoch zu ändern, da die chinesische Nanotechnologieforschung weiter fortgeschritten ist. Eine arithmetische Zerlegung bestätigt, dass Chinas wachsender Anteil an solchen Forschungen zum großen Teil für die beobachtete Stagnation der internationalen Zusammenarbeit verantwortlich ist. So können zwei Aspekte der Globalisierung der Wissenschaft gegenläufig wirken: Die Verbreitung in zunächst weniger wissenschaftlich fortgeschrittene Länder kann die internationale Kooperationsrate drücken, während gleichzeitig der wissenschaftliche Fortschritt in diesen Ländern diesen Trend umkehren kann. Wir stellen fest, dass das Wachstum der chinesischen Wissenschaftsgemeinschaft einige, aber nicht alle Dynamiken von Chinas internationaler Kooperationsrate erklärt. Wir geben daher eine institutionelle Darstellung dieser Dynamiken und stützen sich dabei auf Stichwehs [Social Science information 35(2):327–340, 1996] Originalarbeit über internationale wissenschaftliche Zusammenarbeit, die bei der Untersuchung der wechselseitigen Entwicklung nationaler und internationaler wissenschaftlicher Netzwerke prognostiziert: eine Übergangsphase, in der die Wissenschaft zu einem nationaleren Unternehmen wird, gefolgt von einer Phase, die durch die Beschleunigung der internationalen Zusammenarbeit gekennzeichnet ist. Wir validieren die Anwendung dieses Ansatzes und zeigen, dass Stichwehs Vorhersagen, die auf europäischen wissenschaftlichen Gemeinschaften im 18. und 19. Jahrhundert basieren, auf die chinesische wissenschaftliche Gemeinschaft im 21. Jahrhundert zutreffen scheinen.;-;-;-;https://link.springer.com/article/10.1007/s11192-012-0687-8 566009b7555e22b819fdf02bf006df0e;de;;;3.4.;6.4.;;Eine Methodik zur Entwicklung einer wissenschaftlichen Diversifizierungsstrategie von Ländern Die Ermittlung der Stärken und Schwächen des Wissenschaftssystems ist ein Anliegen der Wissenschaftspolitik in jedem Land. Diese Forschung zielte darauf ab, eine Methodik vorzustellen, um die Stärken und Schwächen der Wissenschaft in verschiedenen Ländern durch Anwendung der Methode der wirtschaftlichen Komplexität zu erkennen. Anschließend wird der Formulierungsmodus wissenschaftlicher Diversifizierungsstrategien verschiedener Länder unter Verwendung des Komplexitätsansatzes eingeführt. Bei dieser Methode werden zunächst die wissenschaftliche Diversität jedes Landes und die Ubiquität der Wissenschaftsdomänen berechnet und dementsprechend die Eignung der Länder und die wissenschaftliche Komplexität der Domänen abgeschätzt. Anschließend werden die wissenschaftlichen Bereiche, die die höchste Komplexität, die geringste Distanz zum Land und den größten Chancengewinn für dieses Land schaffen, als wissenschaftliche Produktivität und Strategiegrenze des Landes zur Diversifizierung des wissenschaftlichen Systems des Landes eingeführt. Darüber hinaus wurden die Stärken und Schwächen sowie Diversifizierungsstrategien des iranischen Wissenschaftssystems als Fallbeispiel dargestellt. Die Ergebnisse zeigten, dass die wissenschaftlichen Bereiche, die sich als Effizienzgrenze wissenschaftlicher Fähigkeiten herausstellen, von den politischen Entscheidungsträgern der Länder zur wissenschaftlichen Diversifizierung genutzt werden können.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03685-1 bf79f80332abb196746fd52accb5e13b;de;;;3.4.;6.4.;;Der Transfer öffentlicher Wissenschaft zu patentierter Technologie: Eine Fallstudie in der Agrarwissenschaft Eine der schwierigsten Herausforderungen beim Technologietransfer besteht darin, den Wissenstransfer von der wissenschaftlichen Grundlagenforschung in die industrielle Technologie zu messen. Dieses Papier wird über eine Studie über die Verbindung zwischen der Wissenschaft, die vom Agricultural Research Service (ARS) unterstützt wird, und patentierter Technologie berichten. Diese Studie verfolgte die Zitate von US-Patenten, die 1987–88 und 1993–94 erteilt wurden, bis hin zu wissenschaftlichen Forschungsarbeiten, die mit dem US-Landwirtschaftsministerium (USDA) in Verbindung standen. Die Zahl der Patentzitate zu ARS-Papieren und zu anderen USDA-unterstützten Papieren hat sich in den sechs Jahren vervierfacht. Ein deutlicher Unterschied besteht auch zwischen den patentzitierten ARS-Papieren und den patentzitierten extramuralen USDA-unterstützten Papieren: ARS-Papiere befinden sich in mehr landwirtschaftlich bezogenen Zeitschriften, während die außeruniversitären Papiere in grundlegenderen und biomedizinischen Zeitschriften enthalten sind. USDA-unterstützte Papiere wurden überwiegend von US-erfundenen Patenten zitiert (in einem Patentsystem, in dem die Hälfte der Patente im Ausland erfunden sind). Im primären Bereich der ARS-Papiere (Biologie) werden sie von Patenten viel häufiger zitiert als Biologie-Papiere anderer Verlage. Da nun die Verlagsorganisationen und Support-Quellen aller in diesen Patenten zitierten Veröffentlichungen identifiziert wurden, können wir die Übertragung wissenschaftlicher Ergebnisse auf patentierte Technologien nach Institutionen, Behörden oder jeder anderen Kategorie von Patent- oder Papierinhabern untersuchen.;-;-;-;https://link.springer.com/article/10.1007/BF02509164 a58301dfa54bc4060f307e4d3e7dfdc5;de;;;3.4.;6.4.;;Gestaltung der europäischen Forschungskooperation im Themenbereich Gesundheit des 6. Rahmenprogramms durch Netzwerkanalyse Ziel dieses Papiers ist es, das Kooperationsnetzwerk des 6. EU-Rahmenprogramms zu analysieren, insbesondere den Themenbereich „Life Sciences, Genomics and Biotechnology for Health“. Ein Kooperationsnetzwerk von 2.132 teilnehmenden Organisationen wurde aufgebaut und mehrere Variablen wurden hinzugefügt, um die Visualisierung zu verbessern, z. Mehrere statistische Tests und strukturelle Indikatoren wurden verwendet, um das Hauptmerkmal dieses Kooperationsnetzwerks aufzudecken. Die Ergebnisse zeigen, dass das Netzwerk aus einem dichten Kern von staatlichen Forschungseinrichtungen und Universitäten besteht, die als große Hubs fungieren, die neue Partner für das Netzwerk gewinnen, hauptsächlich Unternehmen und gemeinnützige Organisationen.;-;-;-;https://link.springer.com/article/10.1007/s11192-010-0218-4 0d06e9d1c832e6b366d5f3645ff09b10;de;;;3.4.;6.4.;;Die imaginäre Karotte: Kein Zusammenhang zwischen Mittelbeschaffung und Forschungsproduktivität in den Geowissenschaften Die Fähigkeit der Forschenden, Mittel zu beschaffen, ist von zentraler Bedeutung für die wissenschaftliche Leistung. Ob der Erfolg bei der Beschaffung von Forschungsgeldern jedoch mit der Produktivität, Qualität oder Wirkung eines Forschers korreliert, ist umstritten. Hier analysieren wir 10 Jahre Stipendienförderung des Schweizerischen Nationalfonds für Geo- und Umweltwissenschaften und vergleichen sie mit der Publikationsbilanz der geförderten Forschenden. Es kann kein signifikanter statistischer Zusammenhang zwischen dem Publikations- oder Zitationseintrag eines Forschers und der Höhe des Geldes hergestellt werden, das dieser Forscher in der Stipendienfinanzierung erhält. Diese Ergebnisse implizieren, dass Forscher, die erfolgreich Mittel beschaffen, nicht unbedingt in der Lage sind, produktiver zu sein oder wirkungsvollere Veröffentlichungen zu produzieren. Diese Ergebnisse sollten bei der Entscheidung berücksichtigt werden, ob Stipendienmittel als Kriterium für Laufbahnförderungsverfahren herangezogen werden sollen.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03855-1 0b3409f82bc993e540b1da0107b9f3eb;de;;;3.4.;6.4.;;Vergleichende Analyse der Korrelationen von Forschungs- und Entwicklungsindikatoren für seltene Krankheiten zwischen Japan, den USA und Europa Es gibt viele seltene Krankheiten und biomedizinische Forschungsbemühungen zur Behandlung jeder Krankheit sind im Gange. Es sind jedoch nur wenige Berichte verfügbar, um allgemeine Trends zu analysieren, wie Forschung und Entwicklung für seltene Krankheiten im Allgemeinen durchgeführt wurden. In dieser Studie wurden die Zusammenhänge zwischen Forschungs- und Entwicklungsindikatoren seltener Krankheiten mit internationalen Vergleichen zwischen Japan, den USA und Europa untersucht. Die Korrelation zwischen der Zahl der klinischen Studien und der Orphan-Drug-Designation war in Japan geringer als in den USA und Europa, während die Korrelation zwischen der Zahl der Orphan-Drug-Designationen und Orphan-Drug-Zulassungen in Japan höher war als in den USA und Europa. Diese Analyse verdeutlichte Unterschiede im System der Orphan-Drug-Designation, den betrieblichen Merkmalen und den Vorteilen in den Regionen. Basierend auf den Ergebnissen der Analyse des Forschungs-/Regulierungssystems wurde eine frühere Ausweisung von Orphan Drugs in Japan als politische Implikation vorgeschlagen.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03129-5 706f2a1a45ff3ce9ede8109e7e428cad;de;;;3.4.;6.4.;;Offshore versus Inland: Können EM-MNU im Ausland eine höhere FuE-Qualität erreichen? Im aktuellen Diskurs über die technologische Entwicklung von Schwellenländern multinationaler Unternehmen (EM MNCs) wird die Internationalisierung von Forschungs- und Entwicklungsaktivitäten (FuE) zunehmend als Aufholstrategie gegenüber etablierten MNCs diskutiert. EM-MNCs versuchen, durch internationale F&E technologisch überlegene Ressourcen im Ausland zu erschließen, die ihnen auf ihrem Heimatmarkt nicht zur Verfügung stehen. Diese Studie vergleicht die Leistung von inländischen und Offshore-F&E-Aktivitäten, um die Fähigkeit von MNUs in Schwellenländern zu untersuchen, qualitativ hochwertige F&E im Ausland durchzuführen. Als Best-Practice-Fallstudie verwenden wir den chinesischen Telekommunikationsgerätehersteller Huawei. Um ihr weltweites Patentqualitätsmuster abzubilden, schlagen wir einen Multi-Patent-Office-Ansatz vor, um eine ausgewogene Sicht auf ihre Aktivitäten mit Daten von SIPO, USPTO und EPO sicherzustellen. Darüber hinaus verwenden wir drei verschiedene Maßnahmen, um verschiedene Dimensionen der Patentqualität zu erfassen. Die Ergebnisse des empirischen Modells unterstützen die Annahme einer höheren Qualität für Patente mit Wissen aus fortgeschrittenen Offshore-Standorten.;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2533-5 ff29c13252772c39081f9359a20fe9a1;de;;;3.4.;6.4.;;Kein kostenloses Mittagessen in der Natur? Eine Analyse der regionalen Verteilung der Zugehörigkeiten von Nature-Publikationen Nature gehört zu den weltweit am häufigsten zitierten multidisziplinären Wissenschaftszeitschriften mit einem der höchsten Impact Factors von 38.597 (Nature Publishing Group (NPG);-;-;-;https://link.springer.com/article/10.1007/s11192-014-1252-4 4f3e9de4c3aaf4a75cb97a79ff122560;de;;;3.4.;6.4.;;Die Analyse nationaler Teilbereiche: eine Fallstudie zur niederländischen Süßwasserökologie Die bibliometrische Analyse wird mit einer psychometrischen Analyse der Wahrnehmungen kombiniert, die Forscher einer Gemeinschaft niederländischer Süßwasserökologen von ihrem beruflichen Umfeld haben. Die Ergebnisse dieser beiden Arten von Analysen konvergieren und können durch eine Untersuchung der institutionellen und intellektuellen Entwicklung der Gemeinschaft und der intellektuellen Kontinuitäten in den Karrieren der beteiligten Forscher verstanden werden. Internationale Entwicklungen scheinen in einer Weise aufgegriffen zu werden, die die besondere sozio-kognitive Organisation des nationalen Teilfelds widerspiegelt. Der Artikel behauptet, dass solche nationalen Teilbereiche der Wissenschaft einen strategischen Forschungsstandort für die Sozialwissenschaften der Wissenschaften darstellen, der auch für die wissenschaftspolitische Analyse unmittelbar relevant ist. Sie plädiert für den Einsatz einer Methodenkombination bei der synchronen und diachronen Analyse der Strukturen solcher Teilfelder.;-;-;-;https://link.springer.com/article/10.1007/BF02017067 2b1b7de4eaa563d14c7b093a19b30dbc;de;;;3.4.;6.4.;;Indikatoren zur Identifikation strategischer Themen innerhalb eines Forschungsprogramms Die Co-Word-Methode (Programm Leximappe) wird verwendet, um die wesentlichen Themen der internationalen Forschung auf der Grundlage der Computeranalyse von Datenbanken wissenschaftlicher Artikel und Patente zu veranschaulichen. Außerdem veranschaulichen wir, dass diese Themen oft charakteristischen Zyklen folgen. Forschungsprojekte, die bei einer Forschungsförderorganisation eingereicht wurden, wurden einer ähnlichen Analyse unterzogen. Damit konnte in gewisser Weise die Relevanz der Förderung, insbesondere im Hinblick auf den Reifegrad der internationalen Forschung, bewertet werden.;-;-;-;https://link.springer.com/article/10.1007/BF02093980 5fc0f30f6939b124acc1cb516b0db1bf;de;;;3.4.;6.4.;;Die im Konflikt entstandene Ausgliederung der medizinischen Forschung in die zivile medizinische Praxis in Großbritannien und den USA research Das Know-how in der Behandlung von verwundeten und psychisch geschädigten Militärangehörigen kann durch wissenschaftliche Veröffentlichungen und die Zusammenarbeit mit zivilen Kollegen von Militärklinikern auf die klinische Versorgung ziviler Patienten übertragen werden. Zitate auf Aufsätze militärischer Autoren ziviler Forscher können den Transfer dieses militärischen Wissens in die zivile Praxis zeigen. Wir untersuchten Zitate zu britischen und US-amerikanischen wissenschaftlichen Artikeln zu militärischen physischen und psychischen Verletzungen von 2001 bis 2018 im Web of Science und ermittelten die Zahlen aus zivilen und militärischen Quellen im eigenen Land der Autoren und für die US-Artikel auch die Veterans Verwaltung. Im Jahr 2006 trugen zivile Forscher der USA zu 52 % der US-Zitate bei, im Jahr 2018 waren es 65 %. Die Zahl der US-Zitate aus den einzelnen Bundesstaaten korrelierte recht gut mit deren Bevölkerungszahl. Im Vereinigten Königreich nahmen auch die zivilen Zitate in seinen Zeitungen mit der Zeit zu, konzentrierten sich jedoch stark auf London und Birmingham. Diese Studie zeigt, dass es möglich ist, die Wissensdiffusion in der Behandlung von Kriegsopfern von militärischen Autoren bis hin zu nachfolgenden militärischen und zivilen Veröffentlichungen durch die Analyse der Zitationsgeschichte der Originalarbeiten zu verfolgen.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03738-5 b2e9a58fd5241a720b763645147bd691;de;;;3.4.;6.4.;;Die Geographie der universitären wissenschaftlichen Produktion in Europa: eine Erkundung im Bereich der Lebensmittelwissenschaft und -technologie Dieser Beitrag leistet einen Beitrag zur Literatur zu den Faktoren, die die regionale universitäre Wissenschaftsproduktion und ihre Qualität im Bereich der Lebensmittelwissenschaft und -technologie (FS&T) erklären. Wir stellten die Hypothese auf, dass die regionale Menge an Wissenschaft, die von Universitäten generiert wird, nicht nur durch die Höhe der Forschungs- und Entwicklungsgelder (FuE) bestimmt wird, wie die Mainstream-Literatur nahelegt, sondern auch durch die Nachfrage nach Wissenschaft auf regionaler Ebene. Angesichts des evolutionären Charakters der Wissensproduktion vermuten wir außerdem, dass die Zahl der Veröffentlichungen einen signifikanten Einfluss auf die Qualität der wissenschaftlichen Forschung auf regionaler Ebene hat. Anhand einer Stichprobe von 48.207 wissenschaftlichen Arbeiten in FS&T im Zeitraum 1998–2010 kartieren und untersuchen wir zunächst die regionale Verteilung der Wissenschaft und ihre Qualität in Europa-15. Zweitens gehen wir auf unsere Hypothesen ein, indem wir mehrere ökonometrische Modelle spezifizieren, um die Faktoren zu identifizieren, die die Quantität und Qualität der wissenschaftlichen Produktion beeinflussen. Unsere Ergebnisse zeigen, dass die regionale Nachfrage nach FS&T – erfasst durch die regionale Beschäftigung in der Lebensmittel- und Getränkeindustrie – für die Wissenschaftsgeneration von Bedeutung ist. Darüber hinaus stützen unsere Ergebnisse die Hypothese eines positiven und signifikanten Einflusses der Erstellung von Papieren auf die wissenschaftliche Qualität auf regionaler Ebene.;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2355-5 f65053aa00badd048da2d26b41cc156d;de;;;3.4.;6.4.;;Die Widerstandsfähigkeit regionaler afrikanischer HIV/AIDS-Forschungsnetzwerke gegenüber dem Rückzug internationaler Autoren aus dem Teilbereich öffentliche Verwaltung und Regierungsführung: Lehren für Geldgeber und Kooperationspartner Dieses Papier vergleicht die Position und Leistung von Afrikanern in internationalen Forschungsnetzwerken und vergleicht ein gut finanziertes und international ausgerichtetes Forschungsnetzwerk mit einem Netzwerk, das sich organisch mit weniger Finanzierung und Aufsicht entwickelt. Konkret kartieren wir die Koautorenschaftsnetzwerke in Bezug auf afrikanische Regierungsführung und öffentliche Politik (1) im Allgemeinen und (2) in Bezug auf HIV/AIDS. In beiden Forschungsnetzwerken sind Afrikaner global gut aufgestellt, aber afrikanische Autoren haben eine geringere Konnektivität und einen geringeren Status im HIV/AIDS-Netzwerk als im allgemeinen Netzwerk. Verbindungen zwischen Autoren in verschiedenen afrikanischen Ländern werden oft von Nicht-Afrikanern überbrückt. Dies macht die afrikanischen Forschungsnetzwerke anfällig für wechselnde Förderprioritäten, und internationale Studienabbrecher würden das HIV/AIDS-Netzwerk stärker fragmentieren als das allgemeine Netzwerk. Wir kommen zu dem Schluss, dass Geldgeber und Forscher direkte afrikanische Kooperationen zwischen Ländern priorisieren sollten, um die Widerstandsfähigkeit afrikanischer Forschungsnetzwerke zu verbessern.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2863-y 3298f06c6666b966a1d225bd52ef330a;de;;;3.4.;6.4.;;Äpfel und Orangen: Das Aggregationsproblem in der Publikationsanalyse Eine Hauptschwierigkeit bei bibliometrischen Messungen von Forschungsbeiträgen von Abteilungen auf der Grundlage von Publikationszahlen betrifft die Summierung von Publikationen unterschiedlicher Art. In diesem Beitrag wird versucht, dieses Aggregationsproblem durch den Rückgriff auf die Methoden der Data Envelopment Analysis (DEA) zu umgehen. Auf diese Weise untersuchen wir die technische Leistungsfähigkeit britischer wirtschaftswissenschaftlicher Fakultäten als Forschungsproduzenten. Bei dem verwendeten Datensatz handelt es sich um eine erweiterte Version des Datensatzes, der dem jüngsten Peer-Review des Hochschulförderungsrats zugrunde lag, und die hier erzielten Ergebnisse werden mit denen des Rates verglichen. Wir kommen zu dem Schluss, dass, obwohl bei der Interpretation der Ergebnisse gebührende Vorsicht geboten ist, die DEA einen positiven Beitrag zur Entwicklung aussagekräftiger Indikatoren für die universitäre Leistung leisten kann.;-;-;-;https://link.springer.com/article/10.1007/BF02028091 c0575271341fc2e664517cc4a7622323;de;;;3.4.;6.4.;;CERIF: Ein Forschungsinformationsmodell für das Entscheidungsunterstützungssystem für Elektrofahrzeuge In diesem Papier wird die Anwendung von CERIF auf das Entscheidungsunterstützungssystem für Elektrofahrzeuge vorgestellt. Zunächst wird diskutiert, warum wir uns für die Elektrofahrzeugindustrie entschieden haben und welche besonderen Anforderungen sie hat, wie wir mit CERIF auf die Herausforderung der datengetriebenen Entscheidungsunterstützung reagieren und wie wir unser Datenmanagement betreiben. Schließlich schlagen wir eine Liste mit Zusammenfassungen für die Anwendung von CERIF bei den Aktivitäten zur Entscheidungsunterstützung bei Elektrofahrzeugen vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-5041-1_58 6f116750c47bacfc9d8e02f971052990;de;;;3.4.;6.4.;;Zu den ergänzenden Funktionen von Wissenschafts- und Technologieindikatoren Ausgehend von einem einfachen Phasenmodell für den wissenschaftlich-technischen Fortschritt werden die ergänzenden Funktionen verschiedener Wissenschafts- und Technologieindikatoren diskutiert. Insbesondere Patent- und Literaturindikatoren im Bereich Telekommunikation;-;-;-;https://link.springer.com/article/10.1007/BF02020707 53eb3cb44fb849388d7f7dc978aeb054;de;;;3.4.;6.4.;;Internationale Indikatoren für Wissenschaft und Technologie: Wie schneiden die USA im Vergleich ab? Da die grundlegenden Determinanten des Innovationserfolgs kaum bekannt sind, können die Daten in SI-76 keine eindeutige zusammenfassende Bewertung der US-Wissenschaft stützen. Während einige Nationen heute bei den relativen Ausgaben für F&E mit den USA konkurrieren, stellen die absoluten Ausgaben der USA immer noch die aller anderen Nationen außer der USA in den Schatten, und die USA bleiben bei den meisten Messungen der technologischen Kapazität überragend. Die technologische Kluft wird jedoch weiter kleiner, was den USA sowohl Kosten als auch Vorteile bringt. Fortschritte im Ausland bedrohen die Position der USA auf einigen Märkten und verschärfen die Handelsanpassungsprobleme des Landes. Aber die Nation kann auch erheblich von neuen Möglichkeiten profitieren, fortschrittliche Technologien zu importieren und zu exportieren.;-;-;-;https://link.springer.com/article/10.1007/BF02095078 17c806ab9f3e36c4a553e56c9914015d;de;;;3.4.;6.4.;;Geförderte Kooperationsforschung in Mathematik in China Basierend auf mathematischen Veröffentlichungen chinesischer Autoren, die in chinesischen nationalen und internationalen Datenbanken, nämlich dem CNKI und dem Web of Science, indiziert sind, versucht die vorliegende Arbeit, die Auswirkungen von Zusammenarbeit und finanzieller Unterstützung auf die akademische Produktivität zu untersuchen. Die Zusammenarbeit wird in nationale und internationale Zusammenarbeit unterteilt, und die nationale Zusammenarbeit wird weiter in institutionelle Zusammenarbeit und institutionenübergreifende Zusammenarbeit unterteilt. Die regionale Leistung in Bezug auf Zusammenarbeit und finanzielle Unterstützung wurde ebenfalls untersucht. Die Ergebnisse zeigen, dass Zusammenarbeit und finanzierte Unterstützung in chinesischen Regionen stark verzerrt sind. Peking, Jiangsu, Shanghai und Zhejiang sind am aktivsten in der Zusammenarbeit und sind die Hauptgewinner von Forschungsgeldern. Zhejiang und Shaanxi treten dagegen auf: Ersteres veröffentlicht hauptsächlich international, Letzteres hauptsächlich im Inland. Im Vergleich zur institutioneninternen Zusammenarbeit schneidet die institutionenübergreifende und internationale Zusammenarbeit besser ab, um die Produktivität zu steigern und Forschungsgelder zu erzielen.;-;-;-;https://link.springer.com/article/10.1007/s11192-013-1212-4 3527bb4eed52582991d644a258b1d3a0;de;;;3.4.;6.4.;;Untersuchung wissenschaftlicher Publikationen von Unternehmen: Welche Rolle spielen akademische und Unternehmenspartner für Publikationen in renommierten oder einflussreichen Zeitschriften? Neuere Forschungen legen nahe, dass Unternehmen, insbesondere in wissenschaftsbasierten Branchen, wissenschaftliche Artikel veröffentlichen können, um strategische Ziele zu erreichen. In diesem Beitrag wird untersucht, ob die Reputation von Veröffentlichungen in Zeitschriften mit hohen Impact-Faktoren und die Auswirkungen von Zitaten solcher wissenschaftlicher Publikationen aus Unternehmen von FuE-Allianzen mit unterschiedlichen Partnern profitieren. Unsere empirische Analyse basiert auf einem einzigartigen Datensatz in der pharmazeutischen Krebsforschung. Wir analysieren Publikationen aus Biotechnologie- und Pharmaunternehmen und vergleichen die Ergebnisse mit Publikationen, bei denen kein firmeneigener Autor involviert ist. Unsere Ergebnisse deuten darauf hin, dass die Renditen auf die Anzahl der Partner sinken und nach einem Wendepunkt negativ sind. Überraschenderweise legen unsere Ergebnisse nahe, dass sich Biotechnologie- und Pharmaunternehmen auf den Aufbau von FuE-Allianzen mit Pharmaunternehmen konzentrieren sollten, um die Wahrscheinlichkeit der Veröffentlichung in Zeitschriften mit hoher Reputation zu erhöhen. In Bezug auf den wissenschaftlichen Impact, d. h. Forward Citations, profitieren Publikationen aus Unternehmen jedoch nicht vom Zugang zu verschiedenen Arten von Allianzpartnern.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03344-5 8ed1076e902f61b00c9268182d5e122d;de;;;3.4.;6.4.;;Zur Vorhersage des Erfolgs von Forschungsanträgen Zitationsanalyse und Diskursanalyse von 369 R01 NIH-Vorschlägen werden verwendet, um mögliche Prädiktoren für den Erfolg von Vorschlägen zu entdecken. Wir konzentrierten uns auf zwei Themen: den Matthäus-Effekt in der Wissenschaft – Mertons Behauptung, dass herausragende Wissenschaftler einen inhärenten Vorteil im Wettbewerb um Gelder haben – und die Qualität des Schreibens oder die Klarheit. Unsere Ergebnisse legen nahe, dass ein klar artikulierter Antrag eher gefördert wird als ein Antrag mit geringerer Diskursqualität. Wir stellen auch fest, dass der Antragserfolg mit einer hohen thematischen Überschneidung zwischen den Antragsreferenzen und den Vorveröffentlichungen des Antragstellers korreliert. Implikationen im Zusammenhang mit der Analyse von Angebotsdaten werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2609-2 75f602eb5531670b8a8f12df6eb78d5b;de;;;3.4.;6.4.;;Eine Charakterisierung der Fachmedien und ihre Verbindungen zur Forschung Die Verlagsbranche ist ein riesiges System, dessen Elemente ein metaphorisches Ökosystem bilden, in dem Wissen durch Verbindungen zwischen heterogenen Elementen fließt. In diesem Beitrag streben wir ein solideres Verständnis der verschiedenen Arten von Literatur an und ob und wie sie sich bei der Wissensverbreitung gegenseitig unterstützen. Wir analysieren ein Korpus, das professionelle elektronische Medien in der US-amerikanischen Zahnmedizin umfasst, und seine Beziehung zu der von Experten begutachteten Zeitschriftenliteratur. Unser Korpus enthält Volltexte aus Zeitschriften, Nachrichtenseiten und Blogs, die Ärzten Informationen zur Verfügung stellen. Wir stellen fest, dass Links zur Forschung über verschiedene Mechanismen hergestellt werden: Artikel, die neue klinische Leitlinien beschreiben, Referenzen, Zusammenfassungen kürzlich veröffentlichter Zeitschriftenartikel und Crossover-Autoren. Die Verbreitung von Informationen aus der Forschungsliteratur in die Fachmedien ist kaum bis gar nicht zeitverzögert.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03072-5 44c9537e2dc047a536a2af15e8769aa9;de;;;3.4.;6.4.;;Eine globale Analyse der Auswirkungen der Forschungsleistung auf das Wirtschaftswachstum Die vorliegenden Papiere zu den wirtschaftlichen Auswirkungen von Forschungsergebnissen haben sich entweder auf ein einzelnes Land oder einen Block ausgewählter Länder konzentriert. Ziel dieses Papiers ist es, die Auswirkungen der Forschungsleistung auf das Wirtschaftswachstum in 169 Ländern für den Zeitraum 1996–2013 zu untersuchen. Um die Beziehung zu testen, wird eine System-GMM-Schätzung verwendet, die Endogenität, unbeobachtete Effekte und kleine Stichprobenverzerrungen vorsieht. Innerhalb des neoklassischen Rahmens verwenden wir verschiedene Indikatoren, um die Forschungsleistung zu repräsentieren, und es wurden auch einige Sensitivitätsanalysen durchgeführt. Insgesamt zeigen die Ergebnisse, dass sich die Forschungsleistung positiv auf das Wirtschaftswachstum auswirkt, unabhängig davon, ob die Stichprobe für Entwicklungs- oder Industrieländer bestimmt ist. Die politischen Implikationen der Ergebnisse werden im Hauptteil des Papiers detailliert beschrieben.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-2002-6 07cc619fde1b0d59a56cbb7ff876a4e9;de;;;3.4.;6.4.;;Bestätigungsverzerrungen bei Peer-Review Eine Minderung der Empfehlungsqualität des Gutachters kann durch eine zeitliche Begrenzung oder eine kognitive Überlastung verursacht werden, die sich aus der Redundanz, Widersprüchlichkeit und Inkonsistenz in der Forschung ergibt. Einige Anpassungsmechanismen von Gutachtern, die mit Situationen der Informationsüberflutung umgehen, können das Aufteilen einzelner Manuskriptinformationen in generische Begriffe, das unsystematische Auslassen von Forschungsdetails, das Anstellen der Informationsverarbeitung und das vorzeitige Beenden der Manuskriptbewertung sein. Wie würde ein Gutachter dann die Aufmerksamkeit auf positive und negative Eigenschaften eines Manuskripts optimieren, bevor er eine Empfehlung ausspricht? Wie wirken sich die Merkmale einer Gutachterin, wie ihre vorherige Meinung über die Manuskriptqualität und die Kosten der Manuskriptbewertung, auf ihre Aufmerksamkeitsverteilung und endgültige Empfehlung aus? Um diese Fragen zu beantworten, verwenden wir ein probabilistisches Modell, bei dem ein Gutachter die optimale Bewertungsstrategie wählt, indem er den Wert und die Kosten der Überprüfungsinformationen über die Manuskriptqualität abwägt. Wir stellen fest, dass eine Gutachterin ein bestätigendes Verhalten zeigen könnte, bei dem sie der Art der Manuskriptattribute mehr Aufmerksamkeit schenkt, die ihre vorherige Überzeugung über die Manuskriptqualität begünstigen. Dann könnte ein konfirmatorischer Bias ein optimales Verhalten der Gutachter sein, das die Aufmerksamkeit auf positive und negative Manuskriptattribute bei Informationsüberflutung optimiert. Wir zeigen auch, dass die Manuskriptbewertungskosten der Gutachterin eine Schlüsselrolle bei der Bestimmung spielen, ob sie einen konfirmatorischen Bias aufweisen könnte. Darüber hinaus sinkt die Wahrscheinlichkeit, ein positives Begutachtungssignal zu erhalten, mit den Kosten für die Manuskriptbewertung des Gutachters bei ausreichend hohen Kosten, wenn die vorherige Überzeugung des Gutachters bezüglich der Qualität des Manuskripts niedrig genug ist.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03357-0 18b37974e473a2e6b3cac732039f24db;de;;;3.4.;6.4.;;Interessenkonflikte zu biomedizinischen Papieren Dieser Beitrag untersucht die unterschiedliche Prävalenz von Interessenkonflikten (COI) und „kein Konflikt“, Aussagen zu biomedizinischen Forschungsarbeiten, die von Zeitschriftenredakteuren zunehmend gefordert werden. Sie sind wichtig, da sie die wahrgenommene Objektivität der Ergebnisse beeinträchtigen können, wenn die Autoren von kommerziellen Unternehmen bezahlt werden. Allerdings beträgt die Häufigkeit dieser Aussagen im Web of Science (WoS) nur wenige Prozent der Gesamtzahl der biomedizinischen Arbeiten. Eine Umfrage unter Zeitschriftenredakteuren ergab, dass viele COI-Statements vom WoS ausgeschlossen sind, weil sie getrennt vom Anerkennungsteil des Papiers gedruckt werden. Eine Folge des Erscheinens von COI-Statements auf Papieren ist, dass der WoS fälschlicherweise Unternehmen, die einigen Forschern Geld für nicht verwandte Arbeiten gegeben haben, zu den Sponsoren zählt, die unter den Förderorganisationen aufgeführt sind, und dies wird die Analyse der Finanzierung der Forschung verzerren in einigen der Zeitungen berichtet und scheint die scheinbare Bilanz der Unternehmen fast zu verdoppeln.;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1507-0 c2466645db4a87f2c221837bcd357955;de;;;3.4.;6.4.;;Internationalisierung der Hochschulen: Umsetzung des DMAIC-Zyklus In den letzten Jahrzehnten hat sich das Thema Internationalisierung zu einem der bestimmenden Themen der Hochschulbildung weltweit entwickelt. Für den Internationalisierungsprozess ergeben sich unterschiedliche Ansätze für den Internationalisierungsprozess je nach Hochschulstruktur und Strategieplanung, jedoch stehen Hochschulen nach wie vor vor dem Problem, grundlegende Schritte zu identifizieren, durch die eine Transformation der Hochschulbildung hin zur Internationalisierung möglich ist. Diese Studie schlug einen Rahmen für die Hochschulbildung in Pakistan vor. Um den gesamten Prozess in Richtung Internationalisierung voranzutreiben, wurde ein dreistufiger Rahmen für die Internationalisierung der Hochschulbildung in Pakistan verwendet. Studie identifiziert die grundlegenden Dimensionen für die Verbesserung der Dienste und Strukturen, die zu einer Internationalisierung der Hochschulbildung in Pakistan führen. Die Studie schlug die Verwendung von Definitions-, Mess-, Analyse-, Verbesserungs- und Kontrollzyklen für kontinuierliche Verbesserungen in den Hochschuleinrichtungen in Pakistan vor.;-;-;-;https://link.springer.com/article/10.1007/s11192-013-1163-9 5b61325dcab15dfa26ee61a743f3006c;de;;;3.4.;6.4.;;iSEER: ein intelligentes automatisches Computersystem zur wissenschaftlichen Bewertung von Forschern Die Förderung ist einer der entscheidenden Treiber wissenschaftlicher Aktivitäten. Die steigende Zahl von Forschern und die begrenzten finanziellen Mittel haben zu einem harten Wettbewerb unter den Wissenschaftlern um die Forschungsförderung geführt. Auf der anderen Seite ist es für die Mittelzuweisungsorganisationen jetzt noch schwieriger, die geeignetsten Forscher auszuwählen. Auf der Grundlage der Publikationszahlen und der Zitationszahl basierte Indikatoren sind die in der Literatur am häufigsten verwendeten Methoden zur Analyse der Leistung von Forschern. Die genannten Indikatoren korrelieren jedoch stark mit dem Karrierealter und dem Ansehen der Forscher, da sie sich im Laufe der Zeit akkumulieren. Dies macht es fast unmöglich, die Leistung eines Forschers anhand von Menge und Wirkung seiner Artikel zum Zeitpunkt der Veröffentlichung zu bewerten. Dieser Artikel schlägt eine;-;-;-;https://link.springer.com/article/10.1007/s11192-016-1852-2 3faaee426d802bcc2b6ee54dbcf3384b;de;;;3.4.;6.4.;;Nationale Forschungsprofile in einem sich wandelnden Europa (1983–2003) Eine explorative Studie zu sektoralen Merkmalen in der Triple Helix Acht osteuropäische Länder sind 2004 der Europäischen Union beigetreten. In diesem Beitrag wird mit bibliometrischen Methoden analysiert, ob die Integration dieser Länder in die EU mit entsprechenden Veränderungen ihrer sektoralen Forschungsprofile einherging. Darüber hinaus diskutieren die Autoren die Veränderungen der nationalen Profile von drei Beitrittsländern und drei EU15-Mitgliedstaaten in den letzten zwei Jahrzehnten. Die Ergebnisse bestätigen, dass ein Prozess der europäischen Homogenisierung und Konvergenz stattfindet, zeigen aber auch, dass dieser Prozess langsam ist und die Mitgliedsländer ihre individuellen Besonderheiten und Präferenzen während dieser Entwicklung beibehalten haben.;-;-;-;https://link.springer.com/article/10.1007/s11192-007-0203-8 e97f14ce6a84def907f723a13e8f6ad8;de;;;3.4.;6.4.;;Kartierung der Nutztierschutzforschung in einem erweiterten Europa: internationale Zusammenarbeit, bibliometrische Ergebnisse, Forschungsressourcen und Bezug zu Wirtschaftsindizes Vor dem Hintergrund unterschiedlicher politischer Entwicklungen in Europa hat sich die Nutztierschutzwissenschaft (FAW) in den letzten drei Jahrzehnten zu einem interdisziplinären Forschungsgebiet entwickelt. Zu den jüngsten Errungenschaften zählen europaweite Forschungsprojekte und die Einführung von Tierschutzbewertungssystemen in landwirtschaftlichen Betrieben. Ziel dieser Studie war es, Aktivitäten für die FAW-Wissenschaft zu kartieren und geografische Unterschiede in der FAW-Forschung in Europa (EU28 + Kandidatenländer und der Europäische Wirtschaftsraum) in Bezug auf verfügbare Ressourcen (z. B. Humanressourcen, Infrastruktur, Finanzierung) und Forschungsleistung (z Kooperationen und Publikationen). Darüber hinaus fragten wir, ob ökonomische Attribute wie der Koeffizient der Nationalen Innovationsfähigkeit (NIC) mit den gemeldeten verfügbaren Ressourcen und Forschungsoutputfaktoren (Publikationen und Kooperationen) der FAW-Forschung verbunden sind. Auf der Grundlage von Fragebögen, die an ein breites Forschernetzwerk in Regionen eines erweiterten Europas versandt wurden, fanden wir Unterschiede in Bezug auf „Inputfaktoren“ wie Humanressourcen, Tier- und Laboreinrichtungen sowie nationale und internationale Forschungsförderung und „Outputfaktoren“ wie z /nationale Zusammenarbeit, Teilnahme an EU-finanzierten Projekten im Zusammenhang mit FAW und Anzahl der Veröffentlichungen. Die Befragten wurden 4 westlichen und 4 östlichen geografischen Länderclustern („Hubs“) zugeordnet. In den westlichen Zentren gab es eine größere Anzahl von Forschern, Studenten und technischem Personal pro Labor als in den östlichen Zentren. Ein deutlicher Unterschied wurde bei der Finanzierung festgestellt, da 35 % der Befragten in den östlichen Hubs angaben, dass ihnen keine finanzierten FAW-Projekte fehlen, verglichen mit 4 % im Westen. Generell gaben Befragte aus den westlichen Hubs deutlich häufiger an, Projekte im Bereich der FAW-Forschung zu betreiben (;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2505-9 9bd1268272c8d6aeaeba5f3c1eee1d56;de;;;3.4.;6.4.;;Befolgen Wissenschaftler das Betteridge-Gesetz? Die Verwendung von Fragen in Zeitschriftenartikeltiteln In journalistischen Veröffentlichungen schreibt Betteridges Law of Headlines vor: „Jede Schlagzeile, die mit einem Fragezeichen endet, kann mit dem Wort „Nein“ beantwortet werden. Auf die Titel wissenschaftlicher Publikationen angewendet, wird die Behauptung als Hinchcliffe-Regel bezeichnet und verunglimpft die Verwendung des Fragezeichens in Titeln als „Klick-Köder“-Marketingstrategie. Wir untersuchen die Titel aller im Jahr 2014 erschienenen Artikel aus fünf Top- und fünf Midrange-Zeitschriften in jeweils sechs Wissenschaftsbereichen (;-;-;-;https://link.springer.com/article/10.1007/s11192-016-2030-2 dff846323c9fe2a469caa80b39eb4ce8;de;;;3.4.;6.4.;;Statistische Auswertung bibliografischer Daten: Auswertung von Zeitschriften, Wissenschaftlern und Institutionen Dieses Kapitel fasst kurz verschiedene bibliometrische Messgrößen zur Bewertung von Zeitschriften, Wissenschaftlern und Institutionen zusammen. Die am häufigsten verwendeten Leistungsmaße, d. h. der Impact Factor und die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38646-6_6 e77813480a6c5c99eda7f6ba983d1477;de;;;3.4.;6.4.;;Länderübergreifende Unterschiede in der Publikationsproduktivität von Akademikern an Forschungsuniversitäten Die wichtigsten bibliometrischen Datenbanken weisen auf große Unterschiede in der Produktivität wissenschaftlicher Veröffentlichungen auf Länderebene hin, mit einem hohen Wachstum in vielen ostasiatischen Ländern. Aufgrund der länderübergreifenden Unterschiede in der Größe und Zusammensetzung des wissenschaftlichen Personals sowie der begrenzten Abdeckung von Veröffentlichungen in den Sozial- und Geisteswissenschaften ist es jedoch schwierig, die Produktivität der Veröffentlichungen auf Länderebene auf die Produktivität des Einzelnen zu übertragen. Alternative Datenquellen, wie zum Beispiel selbstberichtete Veröffentlichungsdaten auf individueller Ebene, können ein breiteres Spektrum von Veröffentlichungskanälen erfassen, umfassen jedoch möglicherweise nicht von Experten begutachtete Ergebnisse und Forschungsergebnisse, die in verschiedenen Sprachen erneut veröffentlicht wurden. Unter Verwendung von Daten aus wissenschaftlichen Umfragen auf individueller Ebene in 11 Ländern stellt diese Studie große Unterschiede zwischen den Ländern in der Produktivität der Veröffentlichungen auf individueller Ebene fest. Bei der Fraktionierung für englischsprachige und von Experten begutachtete Veröffentlichungen sind die Unterschiede zwischen den Ländern jedoch relativ geringer. Dies deutet darauf hin, dass die Verlagsproduktivität in bestimmten Ländern durch die Tendenz, in nicht von Experten begutachteten Medien zu veröffentlichen, aufgebläht wird. Akademiker in großen, nicht englischsprachigen Ländern profitieren potenziell auch von einem breiteren Spektrum inländischer Veröffentlichungskanäle. Demografische, motivationale und institutionelle Merkmale, die mit einer hohen Verlagsproduktivität auf individueller Ebene verbunden sind, sind für einen Teil der Produktivitätsunterschiede im Verlagswesen innerhalb und zwischen den Landkreisen in der englischsprachigen und von Experten begutachteten Verlagsproduktivität verantwortlich, jedoch nicht in der Gesamtproduktivität des Verlagswesens, wenn diese Personalmerkmale nur für innerstaatliche Unterschiede.;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1430-4 f1aec510a0f69c16dc0e1c39d2d61388;de;;;3.4.;6.4.;;Messung der Entwicklung nationaler Agrarforschungssysteme Seit 1986 arbeitet ein kleines Team bei ISNAR daran, eine globale Datenbank zu nationalen Agrarforschungssystemen aufzubauen. Dieses Papier gibt einen Überblick über die konzeptionellen und praktischen Schwierigkeiten bei der Messung der Kapazität nationaler Agrarforschungssysteme. Besonderes Augenmerk wird auf alternative Verfahren zur Umrechnung von Forschungsausgaben in aktuellen lokalen Währungseinheiten in einen konstanten gemeinsamen Zahlenwert gelegt. Der Beitrag schließt mit einer vorläufigen Einschätzung der Entwicklung nationaler Agrarforschungssysteme im Zeitraum 1961–65 bis 1981–85.;-;-;-;https://link.springer.com/article/10.1007/BF02020921 f81d114743ae439ca27d94d8e19b218d;de;;;3.4.;6.4.;;Ein Standortauswahlmodell für Hightech-Fertigungsunternehmen in den USA United Dieser Artikel bietet ein quantitatives Modell für die Standortauswahl durch hochtechnologische Fertigungsunternehmen. In der Vergangenheit waren Studien zur Standortauswahl in der Regel qualitativer Natur und sehr subjektiv. Dies ist ein Versuch, einen objektiveren quantitativen Ansatz einzuführen. Die Standortauswahlfaktoren, die für Hochtechnologieunternehmen am wichtigsten sind, wurden anhand einer Umfrage des Gemeinsamen US-Wirtschaftsausschusses unter diesen Unternehmen ermittelt, eingestuft und gewichtet. Die acht wichtigsten Faktoren waren: Verfügbarkeit von technischen und professionellen Arbeitskräften, Arbeitskosten, Steuerklima, akademische Einrichtungen, Lebenshaltungskosten, Transport der Menschen und Zugang zu Märkten. Für 32 sich entwickelnde Hochtechnologiebereiche in den Vereinigten Staaten wurden demografische Daten zu diesen Faktoren gesammelt und analysiert. Unter Verwendung des quantitativen Modells wurde für jeden Bereich ein Score entwickelt, der es ermöglicht, sie als F & E-Fertigungsumgebungen einzustufen. Dieses Modell sollte sich sowohl für Regionalplaner als auch für ansiedelnde Hightech-Unternehmen als nützliches Instrument erweisen.;-;-;-;https://link.springer.com/article/10.1007/BF02025224 9d3ecc1cbb4e86d0113c7530c9f96ea0;de;;;3.4.;6.4.;;Warum sind die Gutachterberichte, die ich als Redakteur erhalte, so viel besser als die Berichte, die ich als Autor erhalte? Autoren neigen dazu, die Akzeptanz von Manuskripten ihrer eigenen Fähigkeit zuzuschreiben, qualitativ hochwertige Arbeiten zu schreiben, und gleichzeitig die Ablehnung einer negativen Voreingenommenheit im Peer-Review zuzuschreiben, was eine eigennützige Attributionsverzerrung zeigt. Hier liefert ein formales Modell rationale Erklärungen für diese eigennützige Voreingenommenheit in einem Bayesschen Rahmen. Für hochqualifizierte Autoren in einem sehr aktiven wissenschaftlichen Bereich sind die Modellvorhersagen: (1) Bayesianisch-rationale Autoren sind sich ihrer Wahrscheinlichkeit der Manuskriptakzeptanz relativ zu sicher, während Autoren, die die Rolle von Gutachtern spielen, Manuskripten anderer . weniger Vertrauen entgegenbringen Autoren, (2) wenn die endgültige Disposition seines Manuskripts die Annahme ist, führt der Bayesian-rationale Autor diese Entscheidung mit ziemlicher Sicherheit mehr auf seine eigenen Fähigkeiten zurück, (3) wenn die endgültige Disposition Ablehnung ist, der Bayesian-rationale Autor führt diese Entscheidung mit ziemlicher Sicherheit eher auf einen negativen Bias im Peer-Review zurück, (4) einige rationale Autoren lernen im Falle einer Ablehnung nicht so viel aus den Kommentaren der kritischen Gutachter, wie sie aus Sicht der Zeitschriftenredaktion sollten. Um die Modellvorhersagen zu validieren, präsentieren wir Ergebnisse einer Befragung von 156 Autoren. Die Teilnehmer der experimentellen Studie sind Autoren von Artikeln, die von 2000 bis 2012 in Scientometrics veröffentlicht wurden.;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1827-8 79572f3fae9876307960dcb9f198c7f1;de;;;3.4.;6.4.;;Technische Effizienz der Produktion in der Agrarforschung Wir definieren und modellieren die Forschungsproduktion bei Embrapa, der größten brasilianischen Institution, die für angewandte Agrarforschung zuständig ist. Der hauptsächlich verwendete theoretische Rahmen ist die Data Envelopment Analysis – DEA. Die ökonomische Interpretation dieser Modelle wird untersucht, um Umfang, Überlastung und Kosteneffizienz zu bewerten. Die Effizienzergebnisse werden verwendet, um Unterschiede zwischen den Arten von Forschungseinheiten und den Umfang des Betriebs zu testen. Eine weitere Analyse der Agrarforschung in Brasilien erfolgt unter Einbeziehung von drei Forschungszentren in Argentinien. Schließlich werden DEA-Schätzungen mit der Anpassung einer stochastischen Grenze verglichen.;-;-;-;https://link.springer.com/article/10.1007/BF02766299 ce4e18d27b2115cc32b7ca5dea4368b8;de;;;3.4.;6.4.;;Profilierung der Zitationswirkung: Eine neue Methodik Eine Methodik zur Erstellung bibliometrischer Wirkungsprofile wird beschrieben. Die Vorteile solcher Profile als Managementinstrument zur Ergänzung der Berichtsleistung traditioneller durchschnittlicher Wirkungsmetriken werden diskutiert. Das Wirkungsprofil für das Vereinigte Königreich insgesamt zeigt, inwieweit die medianen und modalen Wirkungswerte des Vereinigten Königreichs von den durchschnittlichen Wirkungen abweichen und deutlich darunter liegen. Nur ein Drittel der britischen Produktion für 1995-2004 liegt über dem weltweiten Durchschnitt, obwohl die durchschnittliche weltweite normalisierte Wirkung des Vereinigten Königreichs 1,24 beträgt.;-;-;-;https://link.springer.com/article/10.1007/s11192-007-1696-x e0ee00336a196cb88ce09058d2133587;de;;;3.4.;6.4.;;Die optimale Menge an Informationen für ein wissenschaftliches Manuskript Autoren mögen glauben, dass mehr Informationen über die Forschung den Gutachtern helfen können, bessere Empfehlungen abzugeben. Zu viele Informationen in einem Manuskript können jedoch den Gutachtern Probleme bereiten und zu schlechteren Empfehlungen führen. Eine Informationsüberflutung seitens des Gutachters kann ein Zustand sein, in dem er mit einer Informationsmenge konfrontiert ist, die die Anhäufung von Manuskript-Informationshinweisen umfasst, die es dem Gutachter behindern, die bestmögliche Empfehlung zur Annahme oder Ablehnung des Manuskripts optimal zu bestimmen. Daher möchte der Autor bestimmen, wie viele Manuskriptattribute den Gutachtern zur Verfügung gestellt werden. Mit diesem Ziel vor Augen zeigen wir, dass es eine mittlere Anzahl von Manuskriptattributen gibt, die die Annahmewahrscheinlichkeit maximiert. Wenn zu viele Forschungsinformationen bereitgestellt werden, sind einige davon nicht so hilfreich für eine Akzeptanzempfehlung, die durchschnittliche Aussagekraft pro Forschungsattributbewertung ist zu gering und Gutachter empfehlen am Ende eine Ablehnung. Wenn zu wenige Informationen über die Forschung bereitgestellt werden, können Gutachter am Ende nicht genügend Details haben, um ihre Annahme zu empfehlen. Wir zeigen auch, dass Autoren Gutachtern mit einer günstigeren anfänglichen Bewertung der Forschung mehr Informationen zur Verfügung stellen sollten. Für Gutachter mit einer weniger günstigen Voreinstellung sollte der Autor nur die wichtigsten Manuskriptattribute angeben. Da Fachgutachter weniger belastet werden als potenzielle Leser, besteht die optimale Strategie des Autors auch im Hinblick auf das Zielpublikum darin, die Menge der im Manuskript enthaltenen Forschungsinformationen mit der durchschnittlichen Aussagekraft dieser Items durch die Wahl einer Zwischenzahl abzuwägen von Attributen.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03270-1 a46bf100e95ae475e31021d8706cf681;de;;;3.4.;6.4.;;Eine zeitübergreifende Analyse der universitären Forschungsleistung auf nationaler Ebene Die Forschungspolitik in den entwickelten Ländern ist immer stärker auf die Einführung von Produktivitätsanreizen und Wettbewerbsmechanismen zur Effizienzsteigerung in Forschungseinrichtungen ausgerichtet. Bewertungen der Auswirkungen dieser politischen Interventionen auf die öffentliche Forschungstätigkeit vernachlässigen oft die normale, inhärente Variation der Leistung von Forschungseinrichtungen im Zeitverlauf. In dieser Arbeit schlagen wir eine bibliometrische zeitübergreifende Analyse der Forschungsleistung aller italienischen Universitäten in zwei aufeinanderfolgenden Zeiträumen (2001–2003 und 2004–2008) vor, die nicht von nationalen politischen Interventionen betroffen waren. Die Ergebnisse zeigen, dass Produktivität und Wirkung auf der Ebene einzelner Wissenschaftler zugenommen haben. Auf Universitätsebene wurde eine signifikante Variation im Rang beobachtet.;-;-;-;https://link.springer.com/article/10.1007/s11192-010-0319-0 6f7e971bb5e501d62f5dec861531ef49;de;;;3.4.;6.4.;;Publikationsmuster der Mitarbeiter eines internationalen Fischereiforschungszentrums Untersucht wurde die wissenschaftliche Produktivität, gemessen als Anzahl der Publikationspunkte pro Jahr, von 105 BS-, MS- und PhD-Absolventen der Autoreninstitution – einer gemeinnützigen internationalen Fischereiforschungsorganisation mit Sitz in Manila. Alle von diesen Mitarbeitern erstellten und bearbeiteten Artikel von 1978 bis 1993, die derzeit veröffentlicht oder im Druck sind, wurden berücksichtigt und je nach Dokumenttyp, Seitenzahl und Rang des Namens bei Mehrfachautorenschaft oder Herausgeberschaft gewichtet. Der Output der Mitarbeiter an Konferenzbeiträgen und technischen Berichten überwog die Beiträge zur primären (Zeitschriften-)Literatur. Prädiktoren für die Produktivität waren Position/Gehalt, Bildung und Alter. Es blieb jedoch eine große ungeklärte Varianz, was darauf hindeutet, dass individuelle Faktoren die Produktivität weitgehend bestimmen.;-;-;-;https://link.springer.com/article/10.1007/BF02020189 de77e8499313a72e9bf7f1eab2838600;de;;;3.4.;6.4.;;Nationale Forschungsbewertungsübungen: die Auswirkungen einer Änderung der Spielregeln während des Spiels Nationale Forschungsbewertungsübungen bieten ein vergleichendes Maß für die Forschungsleistung der nationalen Institutionen und stellen als solche ein Instrument zur Stimulierung der Forschungsproduktivität dar, insbesondere wenn die Ergebnisse verwendet werden, um eine selektive Finanzierung durch die Regierung zu unterstützen. Während eine Denkschule häufige Änderungen der Bewertungskriterien begrüßt, um zu verhindern, dass die bewerteten Probanden opportunistische Verhaltensweisen annehmen, ist es offensichtlich, dass die „Spielregeln“ vor allem auf politische Ziele ausgerichtet sein und daher mit angemessener Vorwarnung bekannt sein sollten vor dem Auswertungszeitraum. Andernfalls besteht die Gefahr, dass die Politik vor ein Dilemma gerät: Sollten sie Universitäten belohnen, die zu Beginn des Beobachtungszeitraums am besten auf die geltenden Kriterien reagiert haben oder diejenigen, die nach den während oder nach entstandenen Regeln am besten abschneiden? der Beobachtungszeitraum? Diese Studie überprüft, ob und inwieweit einige Universitäten für gutes Verhalten bestraft statt belohnt werden, um die Ziele der „bekannten“ Spielregeln zu verfolgen, indem sie die Forschungsleistungen italienischer Universitäten für den Zeitraum der nächsten nationalen Evaluierung vergleicht Ausübung (2004–2008): zuerst nach den zu Beginn der Periode verfügbaren Kriterien und dann nach den am Ende der Periode bekannt gegebenen Kriterien;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0373-2 0b30a9d0d64639cec044628696dc92f3;de;;;3.4.;6.4.;;Porter vs. Porter: Modellierung der technologischen Wettbewerbsfähigkeit von Nationen Der Autor bewertet zwei Hauptmodelle der technologischen Wettbewerbsfähigkeit von Nationen und schlägt ein synthetisiertes Modell basierend auf ihren Stärken vor und ergänzt es dann durch zusätzliche Maßnahmen. Das Papier befasst sich mit Definitionsunterschieden zwischen den Begriffen „Wettbewerb“ und „Innovation“, erörtert die unterschiedlichen Ansichten darüber, ob bestimmte Statistiken entweder Input- oder Output-Indikatoren sind, und überdenkt die Relevanz der Analyseeinheit.;-;-;-;https://link.springer.com/article/10.1023/A%3A1024193803372 1a84cf29573d83c511b3cfa5c1a8dc29;de;;;3.4.;6.4.;;Struktur und Entwicklung des wissenschaftlichen und technologischen Potenzials in der Republik Kuba Die wissenschaftliche Statistik liefert die notwendigen Grundlagen für jede Wissenschaftspolitik. Vor diesem Hintergrund stellen sich die Entwicklungsländer vor besondere Probleme. Im Folgenden finden Sie eine Präsentation und Diskussion der Erfahrungen und Ergebnisse, die im Zuge des Aufbaus der Statistik über Wissenschaft und Technik in der Republik Kuba gewonnen wurden, mit Einschätzungen und Schlussfolgerungen aus einer Analyse der bisher verfügbaren Daten. Daher befasst sich diese Arbeit mit dem wissenschaftlichen und technologischen Potenzial Kubas als Ganzes (W/T), ohne zwischen Wissenschaft und Technologie zu unterscheiden.;-;-;-;https://link.springer.com/article/10.1007/BF02019166 7f5c8e6fa545f5fbe4ee995b3afce80d;de;;;3.4.;6.4.;;Geförderte Forschung, Mehrfachautorenschaft und Unterautorenschaftszusammenarbeit in vier Disziplinen Die verstärkte finanzielle Förderung der Wissenschaft hat zu einer Veränderung der gesellschaftlichen Struktur der Forschung beigetragen, wie die Zunahme der Verbundforschung zeigt. Der vorliegende Beitrag untersucht den Zusammenhang zwischen finanzieller Förderung, Mehrfachautorenschaft und Unterautorenschaft in vier Disziplinen. Es zeigt sich, dass die finanzielle Förderung der Forschung mit einer Erhöhung der Gesamtzahl der an der Wissensproduktion beteiligten Personen pro Zeitschriftenartikel einhergeht. Die Wirkung der Finanzierung ist jedoch nicht für alle Formen der Zusammenarbeit und auch nicht für alle Disziplinen gleich.;-;-;-;https://link.springer.com/article/10.1007/BF02021860 a7f58a10e65ef92286d4b872c2171a05;de;;;3.4.;6.4.;;Die Zitierwirkung von Artikeln, für die Autoren auf der Grundlage von Zeitschriftenmetriken monetäre Belohnungen erhielten Geldprämien, die einzelnen Autoren pro Veröffentlichung gewährt werden, sind ein wichtiges politisches Instrument zur Förderung der wissenschaftlichen Forschung. Ein inkonsistentes Merkmal vieler Artikelbelohnungssysteme ist, dass sie they;-;-;-;https://link.springer.com/article/10.1007/s11192-021-03944-9 c3b20b672f68f8f16b9224e6fa8e964a;de;;;3.4.;6.4.;;Neue Indikatoren zur Verknüpfung von Patenten und F&E-Ausgaben der Unternehmen Das Papier präsentiert einen neuen Indikator auf nationaler Ebene, der auf den Anteilen der aggregierten „externen“ Patentanmeldungen der OECD weltweit basiert. Es liefert die ersten verlässlichen Trenddaten für Patentanmeldungen seit Einführung neuer Patentanmeldungsverfahren in den 1980er Jahren. Die Trends zeigen eine starke Korrelation mit den Trenddaten zu den FuE-Ausgaben (BERD) der Unternehmen, die auf ähnliche Weise auf den Anteilen der OECD-Gesamt-BERD basieren, was einen Zusammenhang bestätigt, der in früheren Studien mit erteilten Patenten beobachtet wurde. Die Zuverlässigkeit des aktuellen Indikators über einen längeren Zeitraum von 20 Jahren zeigt jedoch, dass in zwei Fällen, in den USA und im Vereinigten Königreich, über einen Teil des untersuchten Zeitraums eine Divergenz in der Korrelation besteht. Dieser Aspekt der Studie belegt, dass der Anstieg der externen Patentanmeldungen in den USA im Zeitraum 1989 bis 1996 nicht vom BERD getrieben wird und weist stark auf die Forschung des öffentlichen Sektors als Triebkraft hin. Dieses Ergebnis zeigt, dass der neue Indikator für Patentanmeldungen Faktoren in nationalen Systemen überwachen kann, die mit anderen Mitteln nicht leicht zu beobachten sind. In diesem Fall zeigt es Potenzial für die Überwachung des Erfolgs politischer Maßnahmen, um die Forschung des öffentlichen Sektors zu kommerziellen Ergebnissen zu führen.;-;-;-;https://link.springer.com/article/10.1007/s11192-007-1631-1 287ae98865a84957e397d78a581eb874;de;;;3.4.;6.4.;;Publikationen aus universitätsnahen Anästhesiologie-Abteilungen: Ein Blick auf Belgien, Frankreich und die Niederlande von 2001 bis 2015 Die Publikationsleistung der wissenschaftlichen Fakultäten weist auf Forschungstätigkeit und Attraktivität für Mitarbeiter hin. Das Ziel dieser retrospektiven bibliographischen Studie war es, die Publikationsleistung akademischer Anästhesiologie-Abteilungen in Belgien, Frankreich und den Niederlanden zu vergleichen. Ergebnismaße waren Anzahl der Publikationen, Originalartikel und Anzahl der Zitationen pro Abteilung, Anzahl der Publikationen pro Anästhesist und pro Kopf und durchschnittlicher Impact Factor pro Abteilung. Einbezogen wurden Artikel, die zwischen dem 1. Januar 2001 und dem 31. Dezember 2015 von universitätsnahen Anästhesiologie-Abteilungen veröffentlicht wurden. Artikel wurden mit „Perl-Scripts“ aus Medline in die Datenbank importiert und entsprechend dem Zugehörigkeitsfeld des korrespondierenden Autors elektronisch mit den akademischen anästhesiologischen Abteilungen verknüpft. Die Publikationsleistung wurde für die Zeiträume 2001–2005, 2006–2010, 2011–2015 und 2001–2015 beurteilt. Von 2001 bis 2015 stieg in allen drei Ländern die absolute Zahl der Artikel (+ 110 %), während die Zahl der ursprünglichen Forschungsartikel zurückging (− 53 %). Paris Diderot (Paris 7) verzeichnete die meisten Publikationen und erzielte den höchsten durchschnittlichen Impact Factor, während Pierre et Marie Curie (Paris 6) die meisten Originalartikel veröffentlichte und die meisten Zitationen erzielte. Besançon hatte den höchsten durchschnittlichen Impact Factor pro Artikel und die Niederlande die größte Anzahl von Veröffentlichungen pro Kopf. In Belgien, Frankreich und den Niederlanden stieg die Zahl der Veröffentlichungen von 2001 bis 2015. Von 2001 bis 2015 stieg die Zahl der Veröffentlichungen, während die Zahl der Originalartikel zurückging. Frankreich weist die meisten Veröffentlichungen auf, während Belgien und die Niederlande mehr Veröffentlichungen pro Kopf aufweisen.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03075-2 2820293258d2b1ed0465a8e207fc3412;de;;;3.4.;6.4.;;Wie spielen die BRIC-Staaten ihre Rolle in der globalen Innovationsarena? Eine Studie basierend auf USPTO-Patenten in den Jahren 1990–2009 Dieses Papier schlägt eine neue Taxonomie für die Internationalisierungsmuster der Innovation der BRIC-Staaten innerhalb der globalen Innovationslandschaft im Zeitraum 1990–2009 vor. Basierend auf den vom USPTO erteilten Patenten der BRICs stellen wir fest, dass (1) die BRICs ihre Rolle in der globalen Innovationsarena mit unterschiedlichem Internationalisierungsgrad allmählich ausgebaut haben, (2) das inländische Dominanzmuster der ausländischen Dominanz der Innovation weitgehend entgegengewirkt hat, während das kollaborative, multidominante Muster zugenommen hat, (3) eine Divergenz des globalen Wachstums der Innovationsleistung der BRICs aufgetreten ist, während sich ihre Internationalisierungsmuster-Portfolios zu größerer Ähnlichkeit entwickelt haben, und (4) China sich durch die Erhöhung seines globalen Innovationseinflusses differenziert hat.;-;-;-;https://link.springer.com/article/10.1007/s11192-013-1141-2 9cfee891eb7dac0bd75034701e81e6b5;de;;;3.4.;6.4.;;Länderspezifische Determinanten von Hochschulrankings In diesem Beitrag werden länderspezifische Faktoren untersucht, die die drei einflussreichsten Hochschulrankings der Welt (Academic Ranking of World Universities, QS World University Ranking und Times Higher Education World University Ranking) beeinflussen. Wir führen eine Querschnittsregression durch, die 42–71 Länder abdeckt (je nach Ranking und Datenverfügbarkeit). Wir zeigen, dass die Position der Hochschulen eines Landes im Ranking von folgenden länderspezifischen Variablen bestimmt wird: wirtschaftliches Potenzial des Landes, Forschungs- und Entwicklungsausgaben, langfristige politische Stabilität (Kriegsfreiheit, Besatzung, Staatsstreiche und große Veränderungen) im politischen System) und institutionelle Variablen, einschließlich der Effektivität der Regierung.;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2634-1 8932fb7736b686c7d5aac59d83816976;de;;;3.4.;6.4.;;Forschungsinfrastrukturen in weniger entwickelten Ländern: der Fall Brasilien Für die Durchführung von W&T-Aktivitäten ist eine qualitativ hochwertige Forschungsinfrastruktur erforderlich, die dazu beitragen kann, nationale Herausforderungen zu bewältigen und zu Innovationsprozessen beizutragen. Vor diesem Hintergrund hat eine umfassende Umfrage des brasilianischen Instituts für angewandte Wirtschaftsforschung (;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03245-2 d8e6f9f0b5c77b53d2b2018736a24257;de;;;3.4.;6.4.;;Kommentare zu „eine vergleichende Analyse wissenschaftlicher Veröffentlichungen in Management-Zeitschriften von Autoren aus Festlandchina, Hongkong, Taiwan und Macau: 2003–2012“ Nach einer genauen Lektüre eines kürzlich erschienenen Artikels mit dem Titel „Eine vergleichende Analyse wissenschaftlicher Publikationen in Management-Journals von Autoren aus Mainland China, Hongkong, Taiwan und Macau: 2003–2012“ in;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1809-x 28f75eb070efdc5478d5d8406c54b79a;de;;;3.4.;6.4.;;Der Beitrag von Starwissenschaftlern zu den allgemeinen Geschlechtsunterschieden in der Forschungsproduktivität Der Stand der Technik zum Thema geschlechtsspezifische Unterschiede in der Forschungseffizienz stimmt bei der Anerkennung höherer Leistungen bei Männern überein, jedoch gibt es unterschiedliche Erklärungsansätze für die möglichen Ursachen. Eine der vorgebrachten Ursachen ist, dass es geschlechtsspezifische Unterschiede in der Verfügbarkeit von Eignung am „High-End“ gibt. Durch den Vergleich der Geschlechtsunterschiede in Konzentration und Leistung italienischer akademischer Starwissenschaftler mit dem Fall in der Populationskomplementierung zielt diese Arbeit darauf ab, zu überprüfen, ob Star- oder „High-End“-Wissenschaftler eine überragende Rolle bei der Bestimmung der höheren Leistung bei Männern spielen. Die Studie zeigt eine höhere relative Konzentration von Männern unter den Starwissenschaftlern sowie ein Leistungsgefälle zwischen männlichen und weiblichen Starwissenschaftlern, das größer ist als bei der übrigen Bevölkerung. In der letztgenannten Teilpopulation wird das Leistungsgefälle zwischen den beiden Geschlechtern als wirklich marginal angesehen.;-;-;-;https://link.springer.com/article/10.1007/s11192-008-2131-7 400b8bc5cee8876de539b1df4623c2f1;de;;;3.4.;6.4.;;US-Bundeslaboratorien und ihre Forschungspartner: eine quantitative Fallstudie Der Stevenson-Wydler Technology Innovation Act von 1980 machte die Verantwortung der US-Bundeslabors für den Technologietransfer deutlich. Das Federal Technology Transfer Act von 1986 und das National Competitiveness Technology Transfer Act von 1989 verbesserten die Technologietransferaktivitäten von Laboratorien weiter, indem sie Kooperationsvereinbarungen für Forschung und Entwicklung (CRADAs) erlaubten. Über die Eigenschaften der CRADA-Aktivität in Bundeslaboratorien ist jedoch nur sehr wenig bekannt. Anhand eines neuen, robusten Datensatzes der CRADA-Aktivitäten am National Institute of Standards and Technology (NIST) beschreiben wir Forschungspartnerschaften über die Jahre 1978 bis 2014 und untersuchen verschiedene Forschungsfragen. Wann hatte das Bundestechnologietransfergesetz Auswirkungen auf die CRADA-Aktivitäten am NIST? Ist die CRADA-Aktivität am NIST ein zyklisches Phänomen? In welcher Häufigkeit beteiligen sich Einrichtungen des Privatsektors an CRADA-Aktivitäten mit NIST? Wir finden Anhaltspunkte dafür, dass das Bundesgesetz über den Technologietransfer die CRADA-Aktivität von NIST innerhalb von 2-3 Jahren nach seiner Verabschiedung zu beeinflussen begann, und wir stellen fest, dass sich die CRADA-Aktivität mit dem Konjunkturzyklus bewegt. Wir stellen auch fest, dass die meisten Einrichtungen, die an CRADA-Aktivitäten beteiligt waren, in diesem Zeitraum nur einmal engagiert waren, es waren nur die größeren Einrichtungen, die weiterhin an CRADAs mit NIST teilnahmen. Wir spekulieren über die Auswirkungen dieser Ergebnisse und schlagen eine breiter angelegte Forschungsagenda zu CRADA-Aktivitäten in Bundeslaboratorien vor.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2665-2 2ceb233a8f794dd44e1468b65fb1018f;de;;;3.4.;6.4.;;Hürden überwinden: die Determinanten individueller wissenschaftlicher Leistung Um die Determinanten wissenschaftlicher Forschungsproduktion auf individueller Ebene zu analysieren, wird ein originaler Querschnittsdatensatz mit Bezug auf eine mittelgroße italienische Universität implementiert. Der Datensatz umfasst 942 ständige Forschende verschiedener Wissenschaftsbereiche für einen Zeitraum von 3 Jahren (2008–2010). Als Antwortvariablen kommen drei verschiedene Indikatoren – basierend auf der Anzahl der Publikationen und/oder Zitationen – in Betracht. Die entsprechenden Verteilungen sind stark verzerrt und weisen einen Überschuss an nullwertigen Beobachtungen auf. In diesem Setting wird die Anpassungsgüte mehrerer Poisson-Mischungsregressionsmodelle untersucht, indem ein umfangreicher Satz erklärender Variablen angenommen wird. Was die persönlich beobachtbaren Merkmale der Forscher anbelangt, so betonen die Ergebnisse den Alterseffekt und das geschlechtsspezifische Produktivitätsgefälle – wie bereits durch bestehende Studien belegt. Analog bestätigt die Analyse, dass die Produktivität stark von der Publikations- und Zitierpraxis in verschiedenen wissenschaftlichen Disziplinen beeinflusst wird. Die empirische Evidenz zum Zusammenhang von Lehr- und Forschungstätigkeit legt nahe, dass keine eindeutige Substitutions- oder Komplementaritätsthese behauptet werden kann: Ein hoher Lehrauftrag beeinträchtigt nicht die Chancen, nicht aktiv zu sein und reduziert die Zahl der Publikationen für aktive Forscher. Darüber hinaus gibt es neue Erkenntnisse über die Wirkung von Verwaltungsaufgaben von Forschern – die in einem negativen Zusammenhang mit der Produktivität der Forscher zu stehen scheinen – und auf die Zusammensetzung der Abteilungen. Die Produktivität der Forscher wird offenbar durch die Arbeit in Abteilungen mit mehr administrativem und technischem Personal erhöht und wird nicht wesentlich durch die Zusammensetzung der Abteilung in Bezug auf Senior/Junior-Forscher beeinflusst.;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1395-3 a9b4885834c58d5da9cbc03f8909921f;de;;;3.4.;6.4.;;Wie weisen Zeitschriften unterschiedlichen Ranges Peer Reviewer an? Gutachterleitfaden im Bereich Management Das derzeitige Wissen über Peer-Review besteht aus allgemeinen Formulierungen seiner Ziele und Berichten auf Mikroebene seiner Praxis, während die Versuche von Zeitschriften, Peer-Review zu leiten und zu gestalten, bisher kaum untersucht wurden. Dieser Artikel schließt diese Lücke, indem er den Inhalt der Gutachterleitlinien (RG) von 46 Zeitschriften im Bereich Management untersucht, da Redakteure Leitlinien verwenden können, um Gutachter unter Berücksichtigung aller relevanten Kriterien richtig und in Übereinstimmung mit den Bedürfnissen der Zeitschrift anzustoßen. Die Analyse zeigt bemerkenswerte Unterschiede zwischen den Anweisungen für Gutachterinnen und Gutachter von Zeitschriften unterschiedlichen Ranges. Durchschnittliche und niedrigrangige Zeitschriften verwenden meist Bewertungsbögen, sie betonen den empirischen Beitrag und die Qualität der Kommunikation. RG hochrangiger Zeitschriften sind Texte, die den theoretischen Beitrag und die methodische Validität streng betonen. RG von sehr hochrangigen Zeitschriften stehen noch weiter auseinander, da sie 45 % weniger Gatekeeping-Anweisungen, aber viermal mehr Entwicklungsanweisungen enthalten. Während Entwicklungsanweisungen dazu beitragen können, die innovativsten Beiträge zu erhalten, kann die Tatsache, dass sie nur in sehr hochrangigen Zeitschriften üblich sind, einen weiteren Fall von kumulativem Vorteil in der Wissenschaft darstellen.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03343-1 3f5a9e2a6f48fca041361494d0a1e3cf;de;;;3.4.;6.4.;;Forschungspublikationen zu Nanowissenschaften und Nanotechnologie: ein Vergleich zwischen Australien und dem Rest der Welt Nanowissenschaften und Nanotechnologie sind Forschungsgebiete multidisziplinärer Natur. Eine gute Kenntnis der sich schnell entwickelnden Natur dieser Forschungsbereiche ist wichtig, um die Forschungspfade sowie die nationalen und globalen Entwicklungen in diesen Bereichen zu verstehen. Dementsprechend wurde in dieser berichteten Studie die weltweit durchgeführte Nanowissenschafts- und Nanotechnologieforschung anhand der Analyse von Forschungspublikationen mit der Australiens verglichen. Zunächst wurden vier verschiedene bibliometrische Boolean-basierte Suchmethoden verwendet, um Publikationen in der Web of Science-Datenbank (Thomson Reuters ISI Web of Knowledge) zu analysieren. Diese Methoden waren (a) lexikalische Abfrage, (b) Suche in Nanowissenschaften und Nanotechnologie-Zeitschriften, (c) Kombination aus lexikalischer Abfrage und Zeitschriftensuche und (d) Suche in den zehn Nano-Zeitschriften mit den höchsten Impact-Faktoren. Basierend auf den erhaltenen Ergebnissen wurde festgestellt, dass die dritte Methode der umfassendste Ansatz ist. Folglich wurde diese Suchmethodik verwendet, um globale und australische Nanowissenschafts- und Nanotechnologie-Publikationen für den Zeitraum 1988–2000 zu vergleichen. Die Ergebnisse zeigten, dass Australien, abhängig von der verwendeten Suchmethode, international auf den Plätzen 14 bis 17 liegt, mit einer über dem Weltdurchschnitt liegenden Anzahl an Veröffentlichungen zu Nanowissenschaften und Nanotechnologie. In den letzten zehn Jahren wies Australien eine relative Wachstumsrate bei Nanowissenschaften und Nanotechnologie-Publikationen von 16 % auf, verglichen mit 12 % im Rest der Welt. Forscher aus China, den USA und Großbritannien kommen aus den wichtigsten Ländern, die mit australischen Forschern an Publikationen zu Nanowissenschaften und Nanotechnologie zusammenarbeiten.;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1287-6 5c5988ac72e39735a6880c94c854e860;de;;;3.4.;6.4.;;Ein Zusammenhang zwischen Technologieindikatoren und Börsenperformance Eines der Hauptziele von Technologieanalysen besteht darin, zu verstehen, wie Investitionen in technologische Innovationen wirtschaftliche Vorteile haben können. Empirische Studien zum Zusammenhang zwischen Investitionen in Technologie und späterer Wirtschaftsleistung sind jedoch relativ rar. Dieses Papier bietet eine solche Analyse, indem es zeigt, wie quantitative F&E-Technologieindikatoren verwendet werden können, um die Entwicklung des Aktienkurses von Unternehmen vorherzusagen. Der Zweck der Analyse besteht darin, eine einzigartige Patentdatenbank und die daraus entwickelten wissenschaftlichen und technologischen Indikatoren zu nutzen, um diese Frage der technologischen Kompetenz und wirtschaftlichen Leistungsfähigkeit zu untersuchen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1010597502646 110edf1e7697c859e9c546a7a5da158b;de;;;3.4.;6.4.;;Forschung an Universitäten außerhalb der Metropolen als neue Stufe der wissenschaftlichen Entwicklung in Russland Die gewaltigen sozialen und politischen Veränderungen, die in der Auflösung der Sowjetunion gipfelten, hatten große Auswirkungen auf die russische Wissenschaftsgemeinschaft. Durch die russische Transformation zur Marktwirtschaft entstand ein neues F&E-Modell auf der Grundlage des Hochschulsystems (F&E an Universitäten). Dieses Papier ist Teil eines Projekts, dessen Hauptziele darin bestanden, die Auswirkungen kompetitiver Förderung auf F&E an Provinzuniversitäten, die Verteilung der Mittel der Russischen Stiftung für Grundlagenforschung und den Grad der sektorübergreifenden und internationalen Zusammenarbeit zu analysieren. Dieser Beitrag gibt einen deskriptiven Überblick über die an den 380 Landesuniversitäten durchgeführten F&E mit 9.800 Anträgen, 1.950 Forschungsprojekten, 19.981 Personen und mehr als 29.600 Publikationen für den Zeitraum 1996–2001. Unsere Daten zeigten eine positive Tendenz in der Bevölkerungsstatistik in den Provinzen. Es wurde eine Karte der intranationalen Zusammenarbeit erstellt, die 1995–2002 an Provinzuniversitäten in verschiedenen Wirtschaftsregionen stattfand. Unsere Daten zeigen eine starke Zusammenarbeit innerhalb der Regionen, die ein wichtiger Faktor der Nachhaltigkeit ist. Die Publikationsleistung wuchs in sechs Jahren um den Faktor zwei oder zweieinhalb. Der Anteil am Output in Mathematik war mit ca. 45 % am höchsten, Physik und Chemie hatten mit jeweils ca. 20 % den gleichen Anteil. Forscher aus den Regionen Ural und Povolzh'e waren bei der Wissensverbreitung aktiver als ihre Kollegen aus den anderen neun wirtschaftsgeografischen Regionen. Die bibliometrische Analyse von mehr als 1.450 internationalen kollaborativen Publikationen für 1999‘2001 zeigte eine starke Verschiebung der Kooperationspartner aus dem ehemaligen Ostblock und ehemaligen UdSSR-Ländern nach Westeuropa, den USA und Japan. Unter den Regionen zeigten Povolzh'e, Ural, Wolgo-Vyatsky und Central Chernozem'e eine stärkere Tendenz zur Zusammenarbeit. Diese Zusammenarbeit hängt stark von der finanziellen Unterstützung aus dem Ausland ab.;-;-;-;https://link.springer.com/article/10.1023/B%3ASCIE.0000034380.12874.cc 99b42c1b02fa08175cf90f8d3c42f387;de;;;3.4.;6.4.;;Beziehungen zwischen nationalen Forschungsinvestitionen und Publikationsleistung: Anwendung auf ein amerikanisches Paradox Der Begriff „Europäisches Paradox“ beschreibt das wahrgenommene Versagen der EU, die Vorteile ihrer Führungsrolle in der Wissenschaft, gemessen an Veröffentlichungen und einigen anderen Indikatoren, voll auszuschöpfen. Dieser Artikel untersucht das, was man das „amerikanische Paradoxon“ nennen könnte, den Rückgang des Anteils an wissenschaftlichen Publikationen in den USA trotz weltweit führender Investitionen in Forschung und Entwicklung (F&E) – zumal sich dieser Rückgang in den letzten Jahren beschleunigt hat. Es wurde eine multiple lineare Regressionsanalyse durchgeführt, welche Inputs für das wissenschaftliche Unternehmen am stärksten mit der Anzahl der erstellten wissenschaftlichen Arbeiten korreliert. Es wurde festgestellt, dass die Forschungsinvestitionen viel bedeutender waren als der Arbeitseinsatz, die staatlichen Investitionen in F&E viel bedeutender waren als die der Industrie, und die staatlichen Nichtverteidigungsinvestitionen waren etwas bedeutender als ihre Verteidigungsinvestitionen. Da die EU in dieser Schlüsselkomponente die USA tatsächlich anführt, könnte dies den allmählichen Verlust des US-Papieranteils und die Übernahme der Führungsrolle der EU bei wissenschaftlichen Veröffentlichungen Mitte der 1990er Jahre erklären. In jüngerer Zeit hat sich der Verlust von US-Aktien beschleunigt, und drei Ansätze analysierten dieses Phänomen: (1) Ein Begleitpapier zeigt, dass sich die SCI-Datenbank nicht wesentlich verändert hat, um für die USA weniger günstig zu sein, daher ist der Rückgang real und kein Artefakt der Messmethoden. (2) Die Budgets einzelner US-Forschungsagenturen wurden mit der Gesamtpapierproduktion und mit den Arbeiten in ihren Disziplinen korreliert. Die Finanzierung des zivilen Nicht-Gesundheitssektors der US-Regierung blieb in den letzten zehn Jahren unverändert, was zu einem rückläufigen Anteil der Papiere führte. Die Mittel für den Gesundheitssektor stiegen stark an, aber es gab nur wenige zusätzliche US-amerikanische Gesundheitspapiere. Diese Ineffizienz trägt zwar zum Verlust von US-Aktien bei, ist jedoch nur ein spezifisches Beispiel für das allgemeine Syndrom, dass erhöhte amerikanische Investitionen nicht zu einer erhöhten Publikationsleistung geführt haben. (3) Tatsächlich scheint der Rückgang des Publikationsanteils auf die rasch steigenden FuE-Investitionen Chinas, Taiwans, Südkoreas und Singapurs zurückzuführen zu sein. Ein Modell zeigt, dass es in den letzten Jahren ein Land;-;-;-;https://link.springer.com/article/10.1007/s11192-008-0212-2 ba5250f8e67c76ec25d5ea4fdb09455f;de;;;3.4.;6.4.;;Antriebsfaktoren für hohe Leistungen in den brasilianischen Managementwissenschaften im Zeitraum 1981–1995 Als Fortsetzung des früheren Studiums wird die Leistungsfähigkeit in den brasilianischen Managementwissenschaften im Zeitraum 1981 bis 1995 auf den Prüfstand gestellt. Informationen zu den 66 Papieren, die für dieses Zeitintervall in diesem Feld in den ISI-Datenbanken registriert sind, wurden abgerufen, bearbeitet und verarbeitet, um Muster zu eruieren.;-;-;-;https://link.springer.com/article/10.1023/A%3A1010525304244 84124796a2a8c2e3897beb562c8ff956;de;;;3.4.;6.4.;;Verwandte in derselben Fakultät: Vetternwirtschaft oder Verdienst? In vielen Ländern hemmen Kultur, Praxis oder Vorschriften die gemeinsame Anwesenheit von Angehörigen innerhalb der Universitätsfakultät. Wir testen die Legitimität solcher Einstellungen und Bestimmungen und untersuchen das Phänomen der Vetternwirtschaft in Italien, einer Nation mit hohen Günstlingsquoten. Wir vergleichen die individuelle Forschungsleistung von „Kindern“, die „Eltern“ an derselben Hochschule haben, mit der von „Nicht-Kindern“ mit gleichem akademischen Rang und Dienstalter im gleichen Fachgebiet. Die Ergebnisse zeigen nicht signifikante Leistungsunterschiede. Aufstiegsanalysen zeigen, dass die Forschungsleistungen der Kinder im Durchschnitt denen ihrer nicht aufgestiegenen Kollegen überlegen sind. Die Ergebnisse der Studie schließen nicht die Existenz von Vetternwirtschaft aus, die in einem geringen Prozentsatz tatsächlich festgestellt wurde, beweisen aber auch nicht die schwerwiegendsten vermuteten Folgen der Vetternwirtschaft, nämlich dass leistungsschwache Verwandte Verwandte, die bessere Leistungen erbringen. Angesichts dieser Ergebnisse sollten viele Einstellungen und Normen zur elterlichen Bindung in der Wissenschaft überdacht werden.;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1273-z bf632ac2755add1f06b42a4e197122d8;de;;;3.4.;6.4.;;Unterschiede in den Mustern der Forschungszusammenarbeit zwischen den akademischen Rängen Die Fähigkeit, effektive Kooperationen zu aktivieren und zu managen, wird zu einem immer wichtigeren Kriterium in der Politik zur wissenschaftlichen Karriereförderung. Das Aufkommen solcher Politiken führt zur Entwicklung von Indikatoren, die es ermöglichen, die Kooperationsbereitschaft von Wissenschaftlern unterschiedlichen Ranges zu messen und die Rolle mehrerer Variablen in der Zusammenarbeit zu untersuchen, darunter zunächst die Disziplinen der Forscher. In dieser Arbeit wenden wir einen innovativen bibliometrischen Ansatz an, der auf der individuellen Neigung zur Zusammenarbeit basiert, um die Unterschiede in der Neigung zwischen akademischen Rängen, nach Disziplinen und bei der Wahl der Kooperationsformen – intra-, außeruniversitär im In- und Ausland – zu messen. Die Analyse basiert auf der wissenschaftlichen Produktion italienischer Akademiker für den Zeitraum 2006–2010 mit insgesamt über 200.000 im Web of Science indizierten Publikationen. Es zeigt sich, dass Assistenzprofessorinnen und Assistenzprofessoren eine deutlich höhere Neigung zur intramuralen Zusammenarbeit verzeichnen als höherrangige Professorinnen und Professoren. Umgekehrt registrieren die höheren Ränge, wenn auch nicht ganz so deutlich, eine stärkere Bereitschaft zur Zusammenarbeit auf internationaler Ebene.;-;-;-;https://link.springer.com/article/10.1007/s11192-013-1185-3 65851264dbb189addf8b60928edccb41;de;;;3.4.;6.4.;;Entwirrung des Corporate Entrepreneurship-Konstrukts: Konzeptualisierung durch Co-Words Diese Studie definiert die konzeptionelle Struktur von Corporate Entrepreneurship (CE) anhand der Begriffe, die Wissenschaftler in den letzten 26 Jahren der Forschung verwendet haben. Mithilfe einer Co-Wort-Analyse werden fünf charakteristische Dimensionen von CE und die Entwicklung verwandter Schlüsselbegriffe identifiziert: nachhaltige Regeneration, Wettbewerbsvorteil, externes Unternehmertum, organisatorische Verjüngung und Domänenneudefinition. Im Laufe der Zeit hat sich die Aufmerksamkeit der Wissenschaftler von der Strategie auf das Unternehmertum verlagert, indem sie die Relevanz der Begriffe „Intrapreneurship“ und „Unternehmerische Ausrichtung“ hervorgehoben haben. Überraschenderweise sind Konzepte im Zusammenhang mit strategischem Unternehmertum und strategischer Erneuerung weniger relevant als erwartet. Diese Studie legt nicht nur die Grundlage für eine gemeinsame Konzeptualisierung von CE, sondern zeigt auch, wie Bibliometrie dazu beitragen kann, konzeptionelle Mehrdeutigkeiten in aufstrebenden Forschungsfeldern wie dem Unternehmertum zu verringern. Implikationen für Manager zur strategischen Erstellung und Entwicklung von CE in unterschiedlichen Organisationsumgebungen werden ebenfalls erörtert.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03846-2 26194dc1315c7a66acda72391b9cb7e2;de;;;3.4.;6.4.;;Ausbreitungsmaßnahmen für Obwohl der h-Index als wichtiger Indikator zur Bewertung der Leistung der Forschenden gilt, da er gleichzeitig Aspekte in Bezug auf ihre wissenschaftliche Produktivität und ihre Zitationswirkung misst, haben mehrere Studien auf seine Mängel und Grenzen hingewiesen. In diesem Zusammenhang zielt diese Studie darauf ab, den Beitrag der Indikatoren dci und dco, zwei Indizes vom Hirsch-Typ, zu bewerten, um die Angemessenheit des h-Index als Repräsentation der wissenschaftlichen Leistung des Forschers zu messen. Das Analyseuniversum bestand aus 116 brasilianischen Mathematikern, die CNPq-Stipendien erhielten. In der Scopus-Datenbank wurden für jeden Forscher die Anzahl der Artikel, die Anzahl der Zitationen pro Artikel und das Jahr der Veröffentlichung erfasst. Dann wurden für jeden Forscher der h-Index und die dci- und dco-Indizes berechnet. Die Indikatoren dci und dco ermöglichten eine genauere Unterscheidung selektiver und produktiver Forscher. Darüber hinaus trugen sie dazu bei, die Möglichkeit des Forschers einzuschätzen, seinen h-Index zu erhöhen. Die Studie kommt zu dem Schluss, dass die dci- und dco-Indizes die Verteilungsstreuung der Zitationswirkung der Forscher zusammen mit ihrem h-Index zuverlässig messen konnten. Folglich ist es ihnen gelungen, die Repräsentativität des h-Index als Indikator für die wissenschaftliche Leistung der Forscher auf dem Gebiet der Mathematik in Brasilien abzuschätzen.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03848-0 eab070187f75d51b9549ddb4c304f075;de;;;3.4.;6.4.;;Konkurrierende, komplementäre und koexistierende Paradigmen in der technisch-wissenschaftlichen Literatur: Eine Fallstudie zur Nanotechnologie für die Ingenieurwissenschaften Die Nanotechnologie ist ein Forschungsgebiet, das das Potenzial hat, den Fortschritt der Menschheit in den nächsten Jahrzehnten voranzutreiben. Seine Anwendung findet sich in allen Disziplinen, von der Materialwissenschaft bis zur Weltraumkommunikation. Aufgrund ihres Potenzials zur Allgegenwart und der Fähigkeit, viele Allzwecktechnologien zu ersetzen, wird in der Nanotechnologie die Koexistenz mehrerer Paradigmen erwartet. Der Flow Vergence (FV)-Gradient wurde kürzlich als Metrik eingeführt, um das Netzwerk der wissenschaftlichen Literatur zur Erkennung von Paradigmenwechseln zu durchsuchen. In diesem Artikel haben wir eine Zitationsnetzwerkanalyse von wissenschaftlichen Publikationen in der Nanotechnologie aus dem Forschungsbereich „Engineering“ durchgeführt, um damit verwandte Paradigmen zu identifizieren. Der Flussvergenzgradient zeigte 18 Subnetzwerke, die sich mit 25 wahrscheinlichen Drehpunkten von Paradigmenwechseln befassen. Große Paradigmenwechsel sind im Bereich der zielgerichteten Wirkstoffabgabe zu beobachten. Nanonetzwerke, ein Crossover aus IT, BT und Nanotechnologie, sind ein weiterer interessanter Paradigmenwechsel, der identifiziert wurde. Eine erweiterte Teilnetzanalyse wurde durchgeführt, um die konkurrierende oder komplementäre Natur der aufkommenden Paradigmen in den Teilnetzen zu identifizieren. Auch hierfür wurde ein Rahmen geschaffen. Diese Analyse ergab, dass die meisten Paradigmen in der zielgerichteten Bereitstellung konkurrierende Paradigmen sind. Komplementäre Paradigmen werden auch in der Nanoelektronik und der gezielten Wirkstoffabgabe identifiziert. Außerdem werden politische Implikationen aus dieser Identifizierung für verschiedene Zielgruppen diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03013-2 bf0734f2fc2d7bc221122e723e4daa69;de;;;3.4.;6.4.;;Zeitschriftenbezug: Eine Akteur-Schauspieler- und Akteur-Ziele-Fallstudie Mittels der MACTOR-Methode (Matrix of Alliances and Conflicts: Tactics, Objectives and Recommendations) wurde ein Set von 13 verwandten Zeitschriften zum Themenbereich „Chemie, Multidisziplinär“ hinsichtlich direkter und indirekter wechselseitiger Beeinflussungen (gemessen anhand des Bezugsindexes Rji) analysiert. , ihre Positionen zu einem allgemeinen Satz gemeinsamer Ziele (Gesamtzitate, Impact-Faktor, Unmittelbarkeitsindex, Anzahl der veröffentlichten Artikel, zitierte Halbwertszeit) und die Konvergenzen (Akteure x Akteure und Akteure x Zielsetzungen), die im oben genannten Verbundenheitsnetzwerk bestehen. Die Studie identifizierte 4 Arten von Akteuren: dominant (3), unabhängig (8), Relais (1) und dominiert (1). Karten zu: Einflüssen und Abhängigkeiten zwischen Akteuren, Konvergenz zwischen Akteuren, Nettodistanzen zwischen Akteuren und Akteure-Ziel-Beziehungen werden zusammen mit kurzen Interpretationen dargestellt. Wissenschaftliche Zeitschriften als Akteure auf einem bestimmten „Wissensmarkt“ zu definieren, Einflüsse und Abhängigkeiten zwischen ihnen zu identifizieren und diese Zeitschriften auf eine Reihe messbarer Ziele zu positionieren, schafft eine interessante Möglichkeit, „Machtverhältnisse“ strategischer Art zu definieren und ermöglicht die Einführung von mehr komplexere zukunftsorientierte szientometrische Analysen als solche, die ausschließlich auf bibliometrischen Standardindikatoren wie dem Impact-Faktor basieren.;-;-;-;https://link.springer.com/article/10.1007/s11192-007-1735-7 5cc39ad5e6e7623ce2551678a3d53199;de;;;3.4.;6.4.;;Vorhersage der langfristigen Zitationszahlen für Artikel in Top-Wirtschaftsjournalen Wir untersuchen die relative Stärke kurzfristiger Zitationszahlen, bibliometrischer Messgrößen wie Journal Impact Factors und Journalrankings im Hinblick auf die Vorhersage langfristiger Zitationen. Anhand einer Reihe von Artikeln, die 1994 in sechzig der angesehensten Wirtschaftszeitschriften veröffentlicht wurden, stellen wir fest, dass Zitationen, die über einen relativ kurzen Zeitraum (zwischen 1 und 2 Jahren nach der Veröffentlichung) eingehen, viel stärkere Prädiktoren für die langfristige Zitationszahl sind als die Einflussfaktoren von Zeitschriften oder andere Zeitschriftenrankings. Unsere Ergebnisse sind robust gegenüber einer Reihe von Robustheitsprüfungen. Diese Ergebnisse legen nahe, dass Abteilungsleiter und Tenure- und Promotionskomitees bei Personalentscheidungen auf kurzfristige Zitationen im Vergleich zur Platzierung von Artikeln mehr Gewicht legen sollten.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2703-0 b361f0d6e81a5e956eb95d78592c4693;de;;;3.4.;6.4.;;Vernachlässigte Erwägungen bei der Analyse der Übereinstimmung zwischen den Gutachtern von Zeitschriften Studien an repräsentativen Stichproben von Einreichungen bei wissenschaftlichen Zeitschriften zeigen statistisch signifikante Zusammenhänge zwischen den Empfehlungen der Gutachter. Diese Assoziationen sind angesichts des mehrdimensionalen und instabilen Charakters der wissenschaftlichen Bewertungen von Arbeiten mäßig groß, und Zusammenstellungen von Empfehlungen von Gutachtern können Herausgebern bei der Auswahl von Manuskripten für die Veröffentlichung erheblich helfen, insbesondere wenn die Qualität der Einreichungen stark schwankt und die Akzeptanzraten niedrig sind . Bewertungen des Werts von Peer-Review-Verfahren bei der Bewertung von Zeitschriftenmanuskripten sollten die Merkmale des gesamten wissenschaftlichen Kommunikationssystems in einem Bereich berücksichtigen.;-;-;-;https://link.springer.com/article/10.1007/BF02130467 0cb75bb7cdb039b0c4bc969eaf340a21;de;;;3.4.;6.4.;;Interdisziplinärer Informations-Input und -Output eines Nanotechnologie-Projekts Die Input- und Output-Informationen eines nationalen Projekts Japans für Nanotechnologie werden analysiert. 1996 hat die japanische Regierung eine Richtlinie zur Bewertung nationaler Technologieprojekte sowohl nach wirtschaftlichen als auch nach technologischen Kriterien erlassen. Zusätzlich zu den wirtschaftsimmanenten, aber technologieextrinsischen und technikunfreundlichen Kriterien kann jedoch auch eine andere technologieimmanente Sichtweise nützlich sein. In dieser Studie wird versucht, die staatlich vorgeschriebene Bewertungsmethode durch eine bibliometrische zu ergänzen. In Anbetracht des interdisziplinären Ansatzes als Verdienst nationaler Projekte wird in dieser Studie analysiert, wie interdisziplinäre Informationen als Input verwendet und als Output des Projekts veröffentlicht wurden. Fokussiert auf das Publikationsverhalten des Projekts wird der Informationsfluss von der Technik in die Wissenschaft oder ein von der Technik gezogenes Entwicklungsmuster der Wissenschaft diskutiert. Abschließend wird die Anpassung der Bewertungskriterien an die Technologieentwicklung und die Freundlichkeit von Bewertungsmethoden für Technologen diskutiert.;-;-;-;https://link.springer.com/article/10.1023/A%3A1025423406643 22d020484fe796178a24e62cc65489ee;de;;;3.4.;6.4.;;Abbildung der wissenschaftlichen Forschung im ökologischen Landbau: eine bibliometrische Übersicht Das Hauptziel dieser Studie war es, die wissenschaftliche Produktivität, Zusammenarbeit und Wirkung der Forschung zum ökologischen Landbau durch bibliometrische Analysen von Artikeln zu analysieren, die in der Science Citation Index Expanded-Datenbank für den Zeitraum 1954–2013 enthalten sind. Eine Reihe von 1009 Forschungsartikeln wurden in 359 Zeitschriften veröffentlicht, die verschiedenen Fachgebieten angehören, wobei Landwirtschaft multidisziplinär, Agronomie und Umweltwissenschaften am produktivsten waren. Eine soziale Netzwerkanalyse der Zusammenarbeit zwischen kleinen Ländern und Co-Words wurde durchgeführt, um die stärkste wissenschaftliche Zusammenarbeit zu analysieren. Die Ergebnisse unterstreichen die Bedeutung der Zusammenarbeit zwischen kleinen Ländern aus Nord- und Osteuropa sowie vier außereuropäischen Ländern zusammen mit den USA: Kanada, Australien, Brasilien und China, was der Bedeutung des Konsums von Produkten entspricht aus ökologischem Landbau gewonnen hat, hat in diesen Ländern.;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1677-4 c2dc1e01e1279c4f4c2b8d3960561ad4;de;;;3.4.;6.4.;;Evaluierungsaktivitäten in den nordischen Ländern In den nordischen Ländern liegen umfangreiche Erfahrungen mit Evaluierungen vor. Der Beitrag gibt einen kurzen Überblick über Arbeiten zu folgenden Themen: Evaluierungen von Forschungsfeldern, bibliometrische Studien, Evaluierungen von Forschungsprogrammen, Leistung von Forschungsinstituten, Evaluierung von forschungsfördernden Einrichtungen, Evaluierung von Universitäten, Indikatoren und Datenbanken.;-;-;-;https://link.springer.com/article/10.1007/BF02018007 f4a84257cc88681c7b920a94e6d1bf3b;de;;;3.4.;6.4.;;Anzahl, Herkunft, wirtschaftlicher Wert und Qualität der technisch ausgebildeten Einwanderer in die Vereinigten Staaten Diese Studie aktualisiert die Daten über die Zahl und die sich ändernde Herkunft von Einwanderern in die USA mit technischen Qualifikationen und Fähigkeiten und den wirtschaftlichen Gewinn für die USA daraus. Es liefert auch neue Daten über die Qualität dieses Personals, indem es die Zahl der Einwanderer untersucht, die in die US-amerikanischen National Academies of Engineering and of Science gewählt werden und auch Nobelpreise gewinnen. Es wird gezeigt, dass diese Einwanderung einen wesentlichen anhaltenden Beitrag zu den USA darstellt und einen erheblichen Anteil (ein Drittel bis die Hälfte) bestimmter Kategorien von höheren Abschlüssen ausmacht. Durch unterschiedliche Berechnungsmethoden für den Wert der so übertragenen Bildung kommt man zu dem allgemeinen Schluss, dass dieser ungefähr im Gleichgewicht mit der gesamten Wirtschaftshilfe der USA ist (d. h. in der Größenordnung von mehreren Milliarden Slyear in den letzten zwei Jahrzehnten). Ingenieure/Wissenschaftler mit Migrationshintergrund machen etwa ein Fünftel der Mitglieder der National Academy und zwischen 20 und 50 % der Nobelpreisträger aus, je nach Disziplin, wobei die Chemie als die einheimische nationale Stärke der USA erscheint.;-;-;-;https://link.springer.com/article/10.1007/BF02279359 497e99bc3663f63904e328a9eb27b2ec;de;;;3.4.;6.4.;;Die Objektivität des Peer-Reviews der nationalen Forschungsstiftung in Südafrika anhand bibliometrischer Indizes bewertet index Dieses Papier untersucht die Stärke der Assoziation zwischen den Ergebnissen der Peer-Review-basierten Bewertungsmechanismen der National Research Foundation (NRF) und einer Reihe objektiver Leistungsindikatoren von Forschern. Die Analyse wird an 1932 Wissenschaftlern durchgeführt, die ein NRF-Rating oder einen NRF-Forschungslehrstuhl erhalten haben. Wir stellen fest, dass Wissenschaftler mit höheren NRF-Bewertungen im Durchschnitt eine höhere Leistung im Vergleich zu Forschungsergebnissen und Wirkungsmetriken erzielen. Wir erfassen jedoch auch Anomalien in den Wahrscheinlichkeiten verschiedener NRF-Bewertungen, wenn sie anhand von bibliometrischen Leistungsmaßen bewertet werden, und verzeichnen eine überproportional hohe Inzidenz von Wissenschaftlern mit hohen Bewertungen auf der Grundlage von Peer-Reviews mit geringen aufgezeichneten Forschungsergebnissen und -wirkungen. Darüber hinaus finden wir starke interdisziplinäre Unterschiede in Bezug auf den Einfluss, den objektive Leistungsniveaus auf die Wahrscheinlichkeit haben, unterschiedliche NRF-Ratings zu erreichen. Schließlich berichten wir über Beweise dafür, dass NRF-Peer-Review-Ergebnisse mit geringerer Wahrscheinlichkeit Forschungsergebnisse von mehreren Autoren honorieren als Ergebnisse von Einzelautoren. Behauptungen über mangelnde Voreingenommenheit bei NRF-Peer-Reviews sind daher schwer aufrechtzuerhalten.;-;-;-;https://link.springer.com/article/10.1007/s11192-013-0981-0 f42eb789d9a935f831cd53b45db25689;de;;;3.4.;6.4.;;Wie stark wird die Forschung in den Top-Zeitschriften der Arbeits-/Organisationspsychologie von Autoren aus den USA dominiert? Die Arbeits-/Organisationspsychologie (I/O), das auf den Arbeitskontext angewandte Teilgebiet der Psychologie, wird als von US-Autoren dominiert kritisiert, da diese Dominanz die Verallgemeinerbarkeit von Ergebnissen und die Bereicherung von Theorien, Paradigmen und Ansätzen durch . verhindern könnte Forscher aus anderen Teilen der Welt. Frühere Schätzungen zum Ausmaß der US-Dominanz sind jedoch wahrscheinlich in ihrem Umfang eingeschränkt, veraltet und wahrscheinlich voreingenommen von Nicht-US-Forschern, die in den USA sozialisiert wurden oder von US-Koautoren Hilfe erhalten haben. Daher haben wir den Grad der US-Dominanz gemessen, indem wir 5626 Veröffentlichungen aus den Top-Ten-Journalen im Bereich der I/O-Psychologie in den letzten elf Jahren und deren Autoren analysiert haben. Die Ergebnisse zeigen, dass die Dominanz der USA anhält, obwohl die Internationalisierung der I/O-Psychologie stetig zugenommen hat. Eine zusätzliche Analyse der Geschlechterverteilung in unserer Stichprobe ergab, dass weibliche Erstautoren bei Autoren ohne US-Zugehörigkeit etwas häufiger vorkommen. Wir schlagen mehrere Schritte vor, um den Internationalisierungsgrad weiter zu erhöhen.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03180-2 a1123f7f494e146d75050b024dc69d71;de;;;3.4.;6.4.;;Zusammenarbeit in der pharmazeutischen Forschung: Erforschung von Determinanten auf Länderebene In diesem Beitrag konzentrieren wir uns auf die Nähe als eine der Hauptdeterminanten der internationalen Zusammenarbeit in der pharmazeutischen Forschung. Wir verwenden verschiedene Zähldatenspezifikationen des Gravitationsmodells, um die Intensität der Zusammenarbeit zwischen Länderpaaren abzuschätzen, die durch die geografischen, kognitiven, institutionellen, sozialen und kulturellen Dimensionen der Nähe erklärt wird. Unsere Ergebnisse legen nahe, dass die geografische Entfernung eine signifikant negative Beziehung zur Intensität der Zusammenarbeit zwischen den Ländern hat. Die Anzahl der bisherigen Kooperationen als Proxy für die soziale Nähe steht in positivem Zusammenhang mit der Anzahl länderübergreifender Kooperationen. Wir finden keine robusten signifikanten Assoziationen zwischen kognitiver Nähe oder institutioneller Nähe mit der Intensität der internationalen Forschungszusammenarbeit. Unsere Ergebnisse zur kulturellen Nähe lassen keine eindeutigen Rückschlüsse auf deren Einfluss auf die Kooperationsintensität zwischen Ländern zu.;-;-;-;https://link.springer.com/article/10.1007/s11192-013-1182-6 2330a1863bd037de5535d6066009be56;de;;;3.4.;6.4.;;Forschungsleistung und Zusammenarbeit in der Region Nowosibirsk Die Region Nowosibirsk ist eine der am stärksten industrialisierten in Sibirien. 1957 wurde die Sibirische Abteilung der Akademie der Wissenschaften der UdSSR (jetzt Sibirische Abteilung der RAS (SBRAS)) gegründet, um eine schnelle Entwicklung der sibirischen und fernöstlichen Forschungskräfte zu fördern. Das Ziel dieser hauptsächlich bibliometrischen, empirischen Studie ist es, Einblicke in die FuE-Leistung in der Region Nowosibirsk, nationale und internationale Kooperationen und die Auswirkungen neuer staatlicher Wissenschaftspolitiken zu gewinnen, die auf die Förderung der Forschungs- und Innovationsaktivitäten regionaler Universitäten ausgerichtet sind. Wesentliche Treiber der Forschungsleistung sind Einrichtungen der SBRAS. Den zweiten Platz in Bezug auf die Forschungsleistung belegt die Staatliche Universität Nowosibirsk. Seine Forschung konzentriert sich auf harte Wissenschaften. 75% seiner Veröffentlichungen wurden in Zusammenarbeit mit SBRAS-Institutionen veröffentlicht. Die Forschungsleistung wächst. Der Anteil des Gebiets Nowosibirsk an den RFBR-Zuschüssen blieb bei etwa 8 % stabil. Publikationen von RFBR-Stipendiatinnen und -Stipendiaten in 34 Themenkategorien hatten einen stufenaggregierten Indikatorwert von eins oder höher. In diesen harten Wissenschaftsbereichen entwickelt sich die russische Forschung im Einklang mit globalen Trends. Wir beobachteten eine Konzentration der inländischen Zusammenarbeit im Raum Nowosibirsk sowie eine starke internationale Zusammenarbeit mit fortgeschrittenen Volkswirtschaften, insbesondere im asiatisch-pazifischen Raum.;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0597-1 63cde56df1444de4b58cd949f593467d;de;;;3.4.;6.4.;;Mechanismen zum Schutz des geistigen Eigentums und die Eigenschaften von Gründungsteams Mechanismen zum Schutz des geistigen Eigentums (IPPMs) sind entscheidend für die Förderung von Wissenschaft, Technologie und Innovation, und ihre Bedeutung hat mit dem zunehmenden Handel mit Waren und Dienstleistungen mit patentierbaren Technologien enorm zugenommen. Wissenschaftler haben Faktoren untersucht, die die Anwendung solcher Strategien zum Schutz des geistigen Eigentums erleichtern oder behindern, indem sie verwandte Länder-, Sektor- und Firmenmerkmale identifiziert haben. Die vorhandene Literatur hat jedoch die Rolle der Merkmale des Gründungsteams eines Unternehmens bei der Wahl einer IPPM-Strategie übersehen. Anhand von Daten aus einer großen Querschnittsstichprobe europäischer kleiner, junger und innovativer Unternehmen zeigen wir, dass die Kontrolle der Unternehmensgröße, der F&E-Intensität und anderer Unternehmens- und Markteffekte, Gründungsteammerkmale wie Geschlecht und Bildung einen großen Einfluss auf Wahl einer Strategie. Insbesondere in Übereinstimmung mit der allgemeinen Feststellung, dass Frauen weniger patentieren, stellen wir fest, dass Unternehmen mit mehr Frauen im Gründungsteam weniger patentieren als Unternehmen mit mehr männlichen Gründern, aber im Gegensatz zu der Literatur, die sich hauptsächlich auf große Unternehmen konzentriert hat, stellen wir fest, dass Da die Zahl der Gründerinnen zunimmt, verwenden kleine, junge Unternehmerfirmen tendenziell weniger informelle IPPMs als formelle IPPMs. Im Kontext der Unternehmertumspolitik stellen wir auch fest, dass die Bildungs- und;-;-;-;https://link.springer.com/article/10.1007/s11192-021-04098-4 0805ae47128e36bd0be9eef9da6489f3;de;;;3.4.;6.4.;;Effizienz in der Zusammenarbeit zwischen Universität und Industrie: eine Analyse britischer Hochschuleinrichtungen Wir untersuchen die Determinanten der universitären Beteiligung an Wissenstransferaktivitäten und konzentrieren uns dabei auf den Wert externer Dienstleistungen der Hochschulen. Die Daten stammen von 164 Universitäten im Vereinigten Königreich und stammen aus der HE Business and Community Interaction Survey (HE-BCI), wobei eine Vielzahl von universitäts- und regionenspezifischen erklärenden Variablen auf die Daten aus anderen offiziellen Quellen übertragen wurden. Die Produktionsfunktion für solche externen Dienstleistungen wird mit geeigneten stochastischen Frontier-Methoden geschätzt und der unbeobachteten Heterogenität zwischen den Hochschulen durch die Annahme eines latenten Klassenrahmens für die Modellierung Rechnung getragen. Wir finden starke Skaleneffekte und Forschungsorientierung auf das Niveau des Wissenstransfers. Allerdings gibt es zwei unterschiedliche latente Hochschulklassen, die sich insbesondere darin unterscheiden, wie die externe Leistungserbringung auf die fachliche Spezialisierung der Hochschulen und auf die wirtschaftlichen Rahmenbedingungen in der Region reagiert. Forschungsintensive Hochschulen sind in einer der Latenzklassen konzentriert und in diesen Einrichtungen erscheint die Erbringung externer Dienstleistungen hocheffizient, während in der zweiten Latenzklasse die Leistungsfähigkeit der Universitäten stärker variiert.;-;-;-;https://link.springer.com/article/10.1007/s11192-021-04076-w a650de5ac41ee20fc818b3c775c9531c;de;;;3.4.;6.4.;;Evidenzbasiertes Verständnis von Einleitungen von Forschungsartikeln Das Erzielen von Veröffentlichungen in einflussreichen Zeitschriften ist ein wichtiger Eckpfeiler für akademische Karrieren in den USA und anderswo auf der Welt. Abgesehen von neuen Erkenntnissen und relevanten Beiträgen zu diesem Gebiet gibt es jedoch Erwartungen von Herausgebern und Gutachtern an die Struktur und Sprache von Manuskripten, an die sich potenzielle Mitwirkende halten müssen. Da diese Erwartungen meist anhand von Best-Practice-Beispielen kommuniziert werden, fragen sich gerade internationale Forscher oft, wie sie diese in ihren Manuskripten umsetzen können. Durch Anwendung eines Modells der angewandten Linguistik auf 60 Artikel, die in US-amerikanischen und indischen Management-Zeitschriften veröffentlicht wurden, leiten wir evidenzbasierte Ratschläge für das Verfassen von Einführungen ab.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03475-9 34233285b3dbf83757ab02a7564ff327;de;;;3.4.;6.4.;;Ist das Hochschulmodell eine organisatorische Notwendigkeit? Skalen- und Agglomerationseffekte in der Wissenschaft In diesem Beitrag argumentieren wir, dass die Entstehung des vorherrschenden Modells der Hochschulorganisation, das durch eine große Agglomeration vieler (oft lose verbundener) kleiner Forschungsgruppen gekennzeichnet ist, eine ökonomische Erklärung haben könnte, die sich auf die Merkmale des wissenschaftlichen Produktionsprozesses bezieht. Insbesondere argumentieren wir, dass es auf der Ebene der einzelnen Forschungsgruppen sinkende Skalenerträge gibt, die ein Übermaß verhindern, während wir für positive Agglomerationseffekte auf der forschungsübergreifenden Ebene innerhalb der Universität argumentieren. Folglich bestünde eine effiziente Hochschulorganisation gerade darin, viele kleine einzelne Forschungsgruppen zusammenzufassen, ohne sie zusammenzufassen. Basierend auf unserer empirischen Analyse auf einem mehrstufigen Datensatz für deutsche Forschungsinstitute aus vier Disziplinen können wir starke Belege für das Vorhandensein dieser Effekte finden. Dies lässt vermuten, dass die Entstehung des vorherrschenden Modells der Hochschulorganisation auch auf diese Besonderheiten des Produktionsprozesses zurückzuführen sein könnte, wobei wir zumindest sagen können, dass dieses Modell unter den gegebenen Umständen sehr effizient ist.;-;-;-;https://link.springer.com/article/10.1007/s11192-012-0834-2 3e166adf1f7d5662d1feebcef2e2974c;de;;;3.4.;6.4.;;Bewertung der Reife eines Forschungsbereichs: bibliometrische Überprüfung und vorgeschlagener Rahmen In den letzten Jahren haben viele Disziplinen begonnen, systematischere und standardisiertere Ansätze zu verfolgen, um die Auswirkungen und die Entwicklung eines Forschungsbereichs mit einem stärkeren Schwerpunkt auf quantitativen Techniken zu bewerten. Insbesondere das Identifizieren und Analysieren der veröffentlichten Literatur ist für viele Disziplinen zu wichtigen Übungen geworden und Methoden wie die systematische Literaturrecherche und die bibliometrische Analyse werden immer häufiger verwendet, um ein tieferes Verständnis eines Forschungsgebiets zu erlangen. Von besonderem Interesse ist der Reifegrad bzw. der Entwicklungsstand eines Forschungsgebiets. Obwohl dieses Konzept in vielen Arbeiten erwähnt wurde, wurde es noch nicht formalisiert, was zu einem Mangel an Konsens über die Definition von Forschungsbereichsreife und Analysetechniken zur Bewertung der Reife führte. Daher berücksichtigen die meisten Bewertungen der Forschungsfeldreife nur eine Teilmenge der möglichen Kriterien mit signifikanten Unterschieden in den Metriken und Analysen, die zwischen den verschiedenen Disziplinen verwendet werden. Aufgrund der Inkonsistenzen in der Definition und Bewertung dieses Konzepts ist eine umfassende Synthese dieses Literaturbereichs erforderlich. In diesem Beitrag werden die Ergebnisse einer Studie vorgestellt, um die Literatur zu identifizieren und zu analysieren, den Reifegrad eines Forschungsgebiets zu definieren und die Kriterien zur Bewertung des Reifegrades zusammenzufassen. Die Ergebnisse werden verwendet, um einen verallgemeinerten Reifegradbewertungsrahmen zu entwickeln, der einen umfassenden Satz von Kriterien festlegt, der für den Einsatz in einer Vielzahl von Forschungsbereichen angepasst werden kann.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-2096-x 7c9589115a33c6510fa308831615659f;de;;;3.4.;6.4.;;Wahrnehmung der gesellschaftlichen und politischen Implikationen ihrer Forschung durch Wissenschaftler Scientist Wir untersuchen einen empirischen Ansatz zur Untersuchung der sozialen und politischen Implikationen der Wissenschaft, indem wir die Wahrnehmungen der Wissenschaftler zu den sozialen Auswirkungen ihrer Forschung erfassen. Es wurde festgestellt, dass 78 Prozent der befragten Wissenschaftler aus verschiedenen Bereichen, die auf eine Umfrage antworteten, angaben, dass die Forschung im Zusammenhang mit einem kürzlich zitierten Artikel solche Auswirkungen hatte. Gesundheitsbezogene Auswirkungen waren am häufigsten, aber andere Arten von Auswirkungen waren technologische Nebeneffekte, öffentliches Verständnis, wirtschaftliche und politische Vorteile. Überraschenderweise betrachteten viele Wissenschaftler den Fortschritt der Wissenschaft selbst als eine gesellschaftliche Implikation ihrer Forschung. Die Beziehungen dieser Implikationen zu Forschungsfeldern und -themen werden untersucht, und eine Implikationskartierung gibt einen Überblick über die wichtigsten Dimensionen der gesellschaftlichen Auswirkungen von Wissenschaft.;-;-;-;https://link.springer.com/article/10.1007/s11192-008-0213-1 9fb47c597b0bc2cda96678de8199e628;de;;;3.4.;6.4.;;Auf der Suche nach Leistungsträgern: Pilotstudie zur Bewertung von Wissenschaftsparks Wissenschaftsparks sind komplexe Institutionen, die darauf abzielen, Innovation und Unternehmertum auf lokaler Ebene zu fördern. Ihre Aktivitäten unterhalten eine Vielzahl von Interessengruppen, die von internen und externen Forschern bis hin zu Unternehmern, der öffentlichen Verwaltung auf lokaler Ebene und Universitäten reichen. Infolgedessen erstrecken sich ihre Leistungen auf eine Vielzahl von Dimensionen, die sich gegenseitig beeinflussen. Diese Eigenschaft macht es besonders schwierig, Science Parks richtig zu vergleichen. Eine vergleichbare Bewertung ihrer Leistungen kann jedoch aus mindestens drei Gründen wichtig sein: (1) um in jeder Aktivität bewährte Verfahren zu ermitteln und eine schnellere Verbreitung dieser Verfahren zu ermöglichen, (2) um potenzielle Unternehmer über Institutionen zu informieren, die die Gründung Geburts- und Anfangsstadien zu fördern und (3) die öffentliche Politik bei der Verteilung von Geldern und Anreizen zu leiten. Der multidimensionale Charakter von Science Parks wirft das Problem auf, Leistungen in einfachen Indizes zusammenzufassen, auf die Interessengruppen zugreifen können, die bereit sind, verschiedene Strukturen auf der Grundlage ihrer eigenen Präferenzen zu vergleichen. Dieses Papier nutzt einen neuen Datensatz über italienische Wissenschaftsparks, um eine Pilotstudie in diese Richtung bereitzustellen. Insbesondere wenden wir die Choquet-Integral-basierte Multi-Attribute-Value-Theorie an, um die Präferenzen der Stakeholder in Bezug auf verschiedene Dimensionen der Leistung von Science Parks zu ermitteln und einen robusten Index zu erstellen, der es ermöglicht, sie einzuordnen. Dieses Tool kann verwendet werden, um den Entscheidungsprozess mehrerer Interessengruppen zu unterstützen, die nach den besten (oder schlechtesten) Leistungsträgern suchen, und ermöglicht es, sowohl die subjektive Natur des Bewertungsprozesses als auch die Wechselwirkungen zwischen den Entscheidungsmerkmalen zu berücksichtigen. Obwohl die vorliegende Studie nur eine begrenzte Anzahl von Befragten und Leistungskennzahlen verwendet, kann das von uns vorgestellte Verfahren problemlos an viel reichhaltigere Umgebungen angepasst werden.;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1804-2 c8a7419bdbbdae198efa115924e76d70;de;;;3.4.;6.4.;;Auf dem Weg zu einer neuen Perspektive des kontextbasierten Zitationsindex von Forschungsartikeln Der Zitationsindex misst die Wirkung oder Qualität einer Forschungspublikation. Derzeit werden alle Standard-Zitat-Indizes für Zeitschriften verwendet, um die Wirkung einzelner in diesen Zeitschriften veröffentlichter Forschungsartikel zu messen, und basieren auf der Anzahl der Zitationen, wodurch sie ein rein quantitatives Maß sind. Um dies anzugehen, schlagen wir als ersten Beitrag vor, den Kanten des Zitationsnetzwerks anhand von drei kontextbasierten Qualitätsfaktoren Gewichte zuzuweisen: Semantische Ähnlichkeit zwischen Zitieren und zitiertem Artikel. Frühere Ansätze verwenden den PageRank-Algorithmus, um die Zitationsbewertungen zu berechnen. Dies ist ein iterativer Prozess, der für azyklische Zitationsnetzwerke nicht unbedingt erforderlich ist. Als zweiten Beitrag schlagen wir einen nicht-iterativen Graph-Traversal-basierten Ansatz vor, der die Kantengewichte und die Anfangsbewertungen der nicht zitierten Knoten verwendet, um die Zitationsindizes zu berechnen, indem die Knoten in topologischer Reihenfolge besucht werden. Experimentelle Ergebnisse zeigen, dass die Rankings von Zitationsindizes, die durch unseren Ansatz erhalten wurden, gegenüber den traditionellen auf Zitationszahlen basierenden Rankings verbessert sind. Auch unsere Rankings ähneln denen von PageRank-basierten Methoden, aber unser Algorithmus ist einfacher und 70 % effizienter. Schließlich schlagen wir ein neues Modell für zukünftige Referenzen vor, das die Zitationsindizes basierend auf der Lösung des Systems der linearen Ungleichungen berechnet, in dem das Urteil von Mensch-Experte durch geeignete lineare Bedingungen modelliert wird.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-1844-2 27df792c3407cd336ad8494d45872db3;de;;;3.4.;6.4.;;Erforschung des wissenschaftlichen Rufs: Es geht um mehr als nur Produktivität Wir untersuchen die wahrgenommene Kreativität in der Wissenschaft in Bezug auf die wissenschaftliche Reputation im Bereich des Managements. Berücksichtigt werden auch die Auswirkungen der Dimensionen Quantität (insgesamt referierte Publikationen, nationale Präsentationen) und Qualität (Anteil von Artikeln in führenden Zeitschriften, redaktionelle Tätigkeit, Forschungspreise) der wissenschaftlichen Tätigkeit. Unsere Ergebnisse legen nahe, dass die Qualitätsdimensionen positiv mit Reputation verbunden sind, dass jedoch die wahrgenommene Kreativität der Arbeit eines Wissenschaftlers die Reputation weiter beeinflusst und teilweise die Beziehung zwischen einigen Qualitätsmaßen und Reputation vermittelt. Diese Ergebnisse legen nahe, dass Qualität, insbesondere Kreativität, wichtiger ist als Quantität für den Aufbau von Reputation.;-;-;-;https://link.springer.com/article/10.1023/B%3ASCIE.0000027796.55585.61 9c2edca8c45fea549e6ea5968595460b;de;;;3.4.;6.4.;;Analyse von Retraktionen in der indischen Wissenschaft Ein zunehmendes Problem auf der ganzen Welt, Plagiate und damit verbundenes unehrliches Verhalten, beeinflussen seit geraumer Zeit die indische Wissenschaft. Um dieses Problem einzudämmen, hat die indische Regierung eine Reihe von Maßnahmen eingeleitet, beispielsweise die kostenlose Bereitstellung von Software zur Erkennung von Plagiaten an alle Universitäten. Dennoch werden viele unfaire oder falsche Papiere veröffentlicht. Verlage setzen seit einiger Zeit ein effizientes Instrument ein, um mit solchen Situationen umzugehen: Widerrufe. Eine veröffentlichte Arbeit, bei der sich später herausstellt, dass sie keine Veröffentlichung verdient – ​​was eine Reihe von Gründen haben kann – kann vom Verlag zurückgezogen (und oft aus den Online-Inhalten der Zeitschrift entfernt) werden. Diese Studie zielt darauf ab, (1) zurückgezogene Publikationen zu identifizieren, die von Forschern indischer Institutionen verfasst oder mitverfasst wurden, und (2) die Gründe für die Zurückziehungen zu analysieren. Um diese Ziele zu erreichen, durchsuchten wir die SCOPUS-Datenbank nach Widerrufshinweisen für Artikel, die von indischen Autoren verfasst oder mitverfasst wurden. Der erste Widerruf wurde bereits 1996 veröffentlicht, ein außergewöhnlich früher Widerruf, da der nächste im Jahr 2005 veröffentlicht wurde. So haben wir 239 Widerrufe (195 aus Zeitschriften und 44 aus Konferenzbänden) analysiert, die zwischen 2005 und dem 3. August 2018 veröffentlicht wurden (aber die meisten wurden nach 2010 veröffentlicht) in Bezug auf die folgenden qualitativen Parameter für den Widerruf: Hauptgrund für den Widerruf, Autorschaft, Kooperationsebene, kooperierende Länder, Quellen für den Widerruf (eine Zeitschrift oder ein Konferenzbericht) und Finanzierungsquellen der Forschung. Wir entdeckten auch Zeitschriften mit hohen Rückzugsfrequenzen. Hauptsächlich zwei Formulierungen – „Widerrufshinweis zu“ und „Zurückgezogener Artikel“ – wurden verwendet, um Veröffentlichungen zurückzuziehen. Der häufigste Grund für den Widerruf waren Plagiate.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03079-y 7e52bb260b2f344c410bb4da48052d0d;de;;;3.4.;6.4.;;Der wissenschaftliche Impact und die Partnerauswahl in der Verbundforschung an koreanischen Universitäten Diese Studie versucht, die Lücke zwischen der szientometrischen Literatur zur wissenschaftlichen Zusammenarbeit und der Literatur zum Wissenschafts- und Technologiemanagement zur Partnerauswahl zu schließen, indem sie die Präferenzen der Wissenschaftler mit dem marginalen Vorteil in der Zitationswirkung verknüpft. Die 1981–2010;-;-;-;https://link.springer.com/article/10.1007/s11192-013-1201-7 9dea0660fc5d81b28254739943ea0dd2;de;;;3.4.;6.4.;;Wissenschaftsindikatoren und Wissenschaftspolitik Das Verhältnis von Wissenschaftsindikatoren zur Wissenschaftspolitik wirft mehrere Fragen auf. Die erste ist die Definition des Systems, sei es nur die akademische Wissenschaft oder das gesamte System der technischen Innovation von der Forschung über die Herstellung und das Marketing oder die Regierungspolitik und den Betrieb. Zweitens die Erwartungen der Gesellschaft, deren Verwirklichung mehr von politischen sozialen Faktoren als von der Wissenschaft selbst abhängt. Drittens, wie der Output der Forschung mit den Inputs verglichen werden kann, wenn es keine andere Norm als die vergleichende internationale Leistung gibt.;-;-;-;https://link.springer.com/article/10.1007/BF02095075 5f6a4173541cd0c159fd5031255a3da9;de;;;3.4.;6.4.;;Vereintes Deutschland: Die neue wissenschaftliche Supermacht? Als Folge der dramatischen Umwälzungen in Osteuropa ist die deutsche Wiedervereinigung zu einem der zentralen Probleme unserer Zeit geworden. Mehrere einschlägige Publikationen haben den Aufstieg einer neuen Supermacht mitten in Europa mehr oder weniger vorsichtig prognostiziert. Die vorliegende Studie versucht, einige quantitative Aspekte der Forschungsleistung in beiden Teilen Deutschlands zu beleuchten. Anhand ausgewählter zitationsbasierter Indikatoren werden Ausgangslage und Zukunft des Vereinigten Deutschlands in der wissenschaftlichen Forschung ermittelt. Obwohl die Wiedervereinigung eine wesentliche Erhöhung des „wissenschaftlichen Potenzials“ bedeutet, mahnen die aktuellen Indikatorwerte zu eher vorsichtigen Erwartungen hinsichtlich einer sofortigen Intensivierung der Forschungsleistung.;-;-;-;https://link.springer.com/article/10.1007/BF02020712 bcdf77f4df7bb7a1044c0975ab0e3e5c;de;;;3.4.;6.4.;;Wer sind die internationalen Forschungskooperationspartner für China? Eine neuartige Datenperspektive basierend auf NSFC-Zuschüssen Internationale Forschungszusammenarbeit ist für den Erfolg der wissenschaftlichen Entwicklung Chinas von entscheidender Bedeutung, und die Identifizierung von Kooperationspartnern ist die grundlegende Einheit der Zusammenarbeit. Während viele Forscher internationale Forschungskooperationen anhand von Publikationsdaten untersucht haben, wurden Förderdaten selten verwendet. Dieses Papier untersucht die internationalen Forschungskooperationspartner Chinas aus einer neuen Datenperspektive, basierend auf Förderdaten. Anhand von Daten der National Natural Science Foundation of China (NSFC) Joint Grants zwischen China und 75 Ländern von 2006 bis 2016 untersucht diese Studie die Kooperationspartner in drei Aspekten: Gesamtkooperationsaktivität, relativer Forschungsaufwand und Kooperationsgruppen von Ländern. Einige interessante Ergebnisse werden wie folgt erhalten. Von den 75 Partnern machen die Top 15 95,42 % der gesamten Zuschüsse aus, aber sie sind ziemlich ungleichmäßig in Bezug auf die Zahl der zusammenarbeitenden Zuschüsse und Anteile. Die USA liegen mit einem Anteil von 53,27 % weit vor den anderen, aber China hat von 2006 bis 2016 eine konstante, ungefähr durchschnittliche Zusammenarbeit mit ihnen beibehalten. China zeigt eine wachsende Präferenz für die Zusammenarbeit mit Australien, den Niederlanden und Spanien, während die die Präferenzen für Japan, Deutschland und Schweden sind das Gegenteil. Die Anzahl der kollaborativen Stipendien zwischen fünf Kooperationsgruppen variiert stark aufgrund der unterschiedlichen Merkmale der Länder der Mitgliedsgruppen. Die G7 und Asien-Pazifik besitzen beide mehr als 75 % aller Zuschüsse, während die BRICS und „The Belt and Road“ relativ schwach in der Forschungskooperation sind, aber China hat in den letzten 11 Jahren einen steigenden Trend der Zusammenarbeit mit ihnen beibehalten .;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2753-3 96d647c74f34ae9fa3bc40ade5eacd45;de;;;3.4.;6.4.;;Vergleich eines zitierungsbasierten Indikators und Peer-Review für absolute und spezifische Messgrößen der Forschungsgruppenexzellenz Um die Exzellenz der akademischen Forschung zu bewerten, werden viele verschiedene Maßnahmen verwendet, die in der szientometrischen Gemeinschaft, der Hochschulleitung und der Politik auf internationaler Ebene ständig diskutiert und diskutiert werden. Ein Thema von anhaltender Bedeutung ist der Vergleich zwischen zitationsbasierten Indikatoren und Peer-Review-basierten Evaluationen. Hier analysieren wir die Korrelationen zwischen Werten eines bestimmten zitationsbasierten Wirkungsindikators und Peer-Review-Ergebnissen in mehreren akademischen Disziplinen, von Natur- über Sozial- und Geisteswissenschaften. Wir führen den Vergleich für die Forschung durch;-;-;-;https://link.springer.com/article/10.1007/s11192-013-1058-9 bebb8a491d49e36b013ac1d2f5b09bad;de;;;3.4.;6.4.;;Garfields Dämon und „überraschende“ oder „unerwartete“ Ergebnisse in der Wissenschaft Das relative Vorkommen der Wörter „überraschend“ und „unerwartet“ in den Titeln wissenschaftlicher Arbeiten war in den Jahren 2001–2005 11-mal häufiger als in den Jahren 1900–1955. Arbeiten mit Titeln, die eines dieser Wörter enthielten, erhielten jedoch keine erhöhte Anzahl von Zitaten. Beide Wörter (und auch Adjektive „ungewöhnlich“ und „leider“) werden in den Naturwissenschaften deutlich häufiger verwendet als in den Sozial- und Geisteswissenschaften. Die Verteilung der Überraschungsaussagen ist in der wissenschaftlichen Literatur nicht zufällig (Chemiezeitschriften rangieren am höchsten in der Anzahl der Veröffentlichungen mit „überraschenden“ oder „unerwarteten“ Ergebnissen) und können den Reifegrad einer Disziplin widerspiegeln.;-;-;-;https://link.springer.com/article/10.1007/s11192-007-1979-2 fdd95b5084d7ee7941b1e46fe38472c9;de;;;3.4.;6.4.;;Eine eingehende empirische Analyse der Anzahl von Patentzitierungen unter Verwendung des Datenmodells für die überhöhte Anzahl von Patenten: Der Fall von KIST Die Zahl der Patentzitate stellt einen Aspekt der Patentqualität und des Wissensflusses dar. Insbesondere Zitierdaten von US-Patenten enthalten die wertvollsten Informationen unter anderen Patenten. Dieses Papier identifiziert die Faktoren, die die Zahl der Patentzitate beeinflussen, indem US-Patente verwendet werden, die dem Korea Institute of Science and Technology (KIST) gehören. Für das Modell zum Zählen von Patentzitierungen werden Null-aufgeblähte Modelle angekündigt, um die überschüssigen Nulldaten zu verarbeiten. Als erklärende Faktoren werden die Merkmale des Forschungsteams, erfindungsspezifische Merkmale und geographische domänenbezogene Merkmale vorgeschlagen. Als Ergebnis beeinflussen die Größe der Erfindung und der Grad der Abhängigkeit vom japanischen Technologiebereich die Anzahl der Patentzitate von KIST erheblich.;-;-;-;https://link.springer.com/article/10.1007/s11192-007-0102-z 8c468dcfde6085b907f93bb62c93055e;de;;;3.4.;6.4.;;Wirtschaftliche Leistungskennzahlen zur Bewertung staatlich geförderter Forschung Der Zweck dieses Papiers besteht darin, Bewertungsfragen im Zusammenhang mit staatlich geförderter Forschung allgemein zu erörtern und die Nützlichkeit von Wirtschaftsleistungskennzahlen für die Bewertung solcher Aktivitäten zu beschreiben und zu kritisieren. Hier wird ein Überblick über die ökonomische Rechtfertigung staatlich geförderter Forschung und die Begründung für ihre Bewertung gegeben. Außerdem werden grundlegende Bewertungsmethoden beschrieben. Das Papier endet mit der Empfehlung, dass die Nutzen-Kosten-Analyse das am besten geeignete Maß für die wirtschaftliche Leistungsfähigkeit bei der Bewertung staatlich geförderter Forschung sein kann, wenn sie vorsichtig und mit einem Verständnis ihrer inhärenten Subjektivität verwendet wird.;-;-;-;https://link.springer.com/article/10.1007/BF02129598 698ccb13b5d90de4f367470c7b6b902c;de;;;3.4.;6.4.;;Charakterisierung einer wissenschaftlichen Elite: die sozialen Merkmale der meistzitierten Wissenschaftler in Umweltwissenschaften und Ökologie In der Wissenschaft verzeichnet ein relativ kleiner Forscherpool überproportional viele Zitate. Über die sozialen Eigenschaften der vielzitierten Wissenschaftler ist noch sehr wenig bekannt. Dies ist bedauerlich, da diese Forscher einen unverhältnismäßigen Einfluss auf ihre Fachgebiete ausüben und das Studium häufig zitierter Wissenschaftler unser Verständnis der Bedingungen verbessern kann, die häufig zitierte Arbeiten, die systematischen sozialen Ungleichheiten in der Wissenschaft und wissenschaftliche Karrieren im Allgemeinen fördern. Diese Studie liefert Informationen zu diesem wenig beachteten Thema, indem sie die sozialen Merkmale und Meinungen der 0,1% der am häufigsten zitierten Umweltwissenschaftler und Ökologen untersucht. Insgesamt spiegeln die sozialen Merkmale dieser Forscher tendenziell breitere Muster der Ungleichheit in der globalen wissenschaftlichen Gemeinschaft wider. Die sozialen Merkmale dieser Forscher spiegeln zwar die der anderen wissenschaftlichen Eliten in wichtiger Weise wider, unterscheiden sich jedoch in anderen, was sowohl neue als auch überraschende Ergebnisse enthüllt, die möglicherweise auf mehrere Wege hinweisen, um häufig zitiert zu werden.;-;-;-;https://link.springer.com/article/10.1007/s11192-010-0234-4 0d763a66c3ebe7774920d29266bb38cc;de;;;3.4.;6.4.;;Selektivitätsindex für Top-Journals und „Me-too“-Drogen Um die Erfolgswahrscheinlichkeit eines Analgetikums zu beurteilen, haben wir einen bibliometrischen Indikator vorgeschlagen, den Top Journals Selectivity Index (TJSI) (Kissin;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0556-x ff017e5829d0e6fff6bd91d483d45e43;de;;;3.4.;6.4.;;Eine empirische Studie zum Hype-Zyklus der Nutzer auf Basis des Suchverkehrs: die Fallstudie zu Hybridautos Viele Formen von Technologiezyklusmodellen wurden entwickelt und verwendet, um neue/konvergente Technologien zu identifizieren und gesellschaftliche Veränderungen zu prognostizieren, und unter diesen hat sich der von Gartner eingeführte Technologie-Hype-Zyklus als effektive Methode etabliert, die in diesem Bereich weit verbreitet ist. Trotz der Popularität dieses gebräuchlichen Modells wird jedoch in der gegenwärtig existierenden Forschungsliteratur weder der theoretische Rahmen noch seine empirische Überprüfung ausreichend berücksichtigt. In diesem Beitrag wird eine neue Methode zur empirischen Messung dieses Hype-Zyklus-Modells vorgestellt. Sie stellt insbesondere eine Methode zur Messung des Hypes der Nutzer und nicht des durch Rechercheaktivitäten oder durch die Medien erzeugten Hype-Zyklus durch Analyse des Hype-Zyklus mittels Search-Traffic-Analyse vor. Die aus der Fallstudie Hybridautos abgeleiteten Analyseergebnisse zeigten empirisch, dass nach der Einführungsphase und der frühen Wachstumsphase des Lebenszyklus mit der positiven Hype-Kurve und der negativen Hype-Kurve die repräsentativen Zahlen des Hype-Zyklus im Glockenkurve für das Suchverhalten der Nutzer. Basierend auf dieser Erkenntnis schlägt dieses Papier eine neue Methode zur Messung der Nutzererwartungen vor und schlägt eine neue Richtung für die zukünftige Forschung vor, die die Vorhersage vielversprechender Technologien und technologischer Möglichkeiten in Verbindung mit dem herkömmlichen Technologielebenszyklusmodell ermöglicht. Insbesondere durch die Interpretation der empirischen Ergebnisse anhand des Konsumverhaltensmodells und des Adoptionsmodells zeigt diese Studie empirisch, dass die Merkmale jeder Benutzerkategorie durch Unterschiede im Hype-Zyklus im Prozess der Verbreitung neuer technologischer Produkte identifiziert werden können, die in die Vergangenheit.;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0550-3 4406874e63aa60635f8a561f51a359c7;de;;;3.4.;6.4.;;Szientometrische Analyse und Dimensionen zur internationalen Wirtschaftsliteratur Der Beitrag diskutiert die Entwicklung der Weltliteratur zum Thema „International Business“ im Hinblick auf den Output der im Social Sciences Citation Index erfassten Forschungspublikationen im Zeitraum von 2004 bis 2013. Insgesamt wurden 3131 Zeitschriften und 1623 Artikel zum internationalen Geschäft erschlossen in der Datenbank während des 10-jährigen Studienzeitraums. Die durchschnittliche Zahl der pro Jahr veröffentlichten Artikel betrug 162,30. Die meisten Veröffentlichungen wurden im Jahr 2010 mit 268 (16,513 %) veröffentlicht. Den Spitzenplatz teilen sich die Autoren Eden L und Causgil ST, die mit jeweils 13 (0,801 %) die meisten Publikationen verfasst haben. Der Quelltitel Journal of International Business Studies enthielt mit 359 (22,12 %) Publikationen die höchste Zahl. Der beliebteste Forschungsbereich ist die Betriebswirtschaftslehre, in der mit 1442 (88,848 %) die meisten Publikationen gezählt wurden. Die Vereinigten Staaten steuerten die meisten Veröffentlichungen bei, d. h. 616 (37,954 %) unter den insgesamt 62 Landkreisen, die zu diesem Thema beigetragen haben. Die produktivste Institution war die University of Leeds, die insgesamt 28 (1.1164 %) Veröffentlichungen unter den insgesamt 513 Organisationen beisteuerte. Artikel umfassten 1329 (81,885%) der Literatur zum internationalen Geschäft. Die Studie wird Forschern und Autoren helfen, die am besten geeigneten und einflussreichsten Zeitschriften zu identifizieren, in denen sie veröffentlichen möchten, sowie den Status der Zeitschriften, in denen sie veröffentlicht haben, bestätigen können (Hasan et al. in Proceedings of the four international conference of the digital library , 27.–29. November 2013 Neu-Delhi, Indien TERI, Neu-Delhi, S. 319–329,;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1777-1 a9d9baa74d6a8f1878331aebfcaa6c88;de;;;3.4.;6.4.;;Modellierung der nationalen technologischen Kapazität mit Patentindikatoren Für 128 Länder werden wissenschaftliche, technologische und wirtschaftliche Daten untersucht. Die Daten werden einer schrittweisen Regressionsanalyse unterzogen, wobei die Zahl der inländischen Patente als abhängige Variable verwendet wird. Die Form der Regressionsgleichungen ist die Cobb-Douglas-Produktionsfunktion. Die Analyse zeigt, dass inländische Patente (als Indikator für die nationale technologische Kapazität und hier als abhängige Variable behandelt) eng mit dem BSP (einem Maß für die nationale wirtschaftliche Größe), der Anzahl wissenschaftlicher Publikationen (einem Indikator für die wissenschaftliche Kapazität) und der in den USA erlangten nationalen Patente (ein Maß für die technologische Leistungsfähigkeit von Weltrang). Zusammen machen diese drei unabhängigen Variablen mehr als 92 Prozent der Varianz der abhängigen Variablen aus.;-;-;-;https://link.springer.com/article/10.1007/BF02019766 a32d7a756ecf939f65b77c7a2ae56f25;de;;;3.4.;6.4.;;Der Informationswert der frühen Karriereproduktivität in der Mathematik: eine ROC-Analyse von Vorhersagefehlern bei der bibliometrischen Entscheidungsfindung Das Ziel dieser Studie war es, einen Rahmen zu schaffen, um bibliometrische Indikatoren als Entscheidungshilfen aus der Perspektive der Entscheidungsfindung zu bewerten und den Informationswert der Veröffentlichungsrate im Berufseinstieg als Prädiktor für die zukünftige Produktivität zu untersuchen. Wir haben die ROC-Analyse verwendet, um einen bibliometrischen Indikator als Werkzeug für die binäre Entscheidungsfindung zu bewerten. Der Datensatz bestand aus 451 Nachwuchswissenschaftlern im mathematischen Teilgebiet der Zahlentheorie. Wir untersuchten die Wirkung von drei unterschiedlichen Definitionen von Top-Leistungsgruppen – Top 10, Top 25 und Top 50 %, die Konsequenzen der Verwendung unterschiedlicher Schwellenwerte in den Vorhersagemodellen und den Vorhersagemehrwert von Informationen über die Zusammenarbeit in der Nachwuchsforschung und Publikationen in Prestige-Zeitschriften. Wir kommen zu dem Schluss, dass die Leistungsproduktivität in der frühen Karriere in allen getesteten Entscheidungsszenarien einen Informationswert hat, die zukünftige Leistung jedoch vorhersehbarer ist, wenn die Definition einer Hochleistungsgruppe exklusiver ist. Geschätzte optimale Entscheidungsschwellen unter Verwendung des Youden-Index zeigten, dass das Top-10-%-Entscheidungsszenario 7 Artikel verwenden sollte, das Top-25-%-Szenario sollte 7 Artikel verwenden und die Top-50% sollten 5 Artikel verwenden, um Vorhersagefehler zu minimieren. Eine vergleichende Analyse zwischen den Konsequenzen berücksichtigenden Entscheidungsschwellen des Youden-Index und einer in der evaluativen Bibliometrie gebräuchlichen Methode, die bei der Bestimmung von Entscheidungsschwellen keine Konsequenzen berücksichtigt, ergab, dass die Unterschiede zwischen den Top 25 und den 50 % Gruppen. Für die Top-10%-Gruppe wurde jedoch ein statistisch signifikanter Unterschied zwischen den Methoden gefunden. Informationen zur Zusammenarbeit in der frühen Karriere und zu Veröffentlichungsstrategien trugen in keinem der Modelle zur Veröffentlichungsrate des bibliometrischen Indikators bei. Die wichtigsten Beiträge dieser Forschung sind der Fokus auf Konsequenzen in Bezug auf Vorhersagefehler und die Idee, Unsicherheit in Risiko umzuwandeln, wenn wir Entscheidungsschwellen bei der bibliometrischen Entscheidungsfindung wählen. Die Bedeutung unserer Ergebnisse wird aus wissenschaftspolitischer und wissenschaftspolitischer Sicht diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-2097-9 ced6098417ff0dd675d892fa95895e36;de;;;3.4.;6.4.;;Ein innovativer Ansatz zur Identifizierung des Wissensdiffusionspfads: der Fall der ressourcenbasierten Theorie Diese Studie präsentiert einen innovativen Ansatz zur Identifizierung des Wissensdiffusionspfades eines Zielforschungsfeldes. Wir nehmen die Resource Based Theory (RBT) als Beispiel, um die Nützlichkeit dieser Methodik zu demonstrieren. Mehrere Umfragestudien haben dem RBT wertvolle Zusammenfassungen und Kommentare aus verschiedenen Perspektiven geliefert. Diese Analysen sind nützlich und sachdienlich, um die Entwicklung von RBT zu verstehen. Aufgrund der von ihnen verwendeten Methodiken können jedoch frühere Wissenschaftler nur einen Teil der RBT-Literatur auswählen, um die Erhebungsarbeit durchzuführen. Um die Einschränkung zu beseitigen, entwickelt diese Studie einen innovativen Ansatz, der Tausende von Artikeln verarbeiten kann. Diese Studie analysiert einen Datensatz mit 2.105 theoretischen Entwicklungen, empirischen Studien und Übersichtsarbeiten, um den Wissensverbreitungspfad des RBT zu untersuchen. Zitationsdaten werden verwendet, um das Zitationsnetzwerk aufzubauen. Die Hauptpfade werden dann durch die Methodik der Analyse sozialer Netzwerke sondiert und visualisiert. Um das Gesamtbild des Wissensdiffusionspfades zu ermitteln, integriert diese Studie verschiedene Hauptpfadanalysen, um den traditionellen Ansatz zu ergänzen. Die traditionelle Hauptpfadanalyse untersucht die Wissensdiffusion aus lokaler Sicht. Die globale Analyse bietet einen Hauptpfad aus einer Makroansicht. Die Schlüsselroutenanalyse hilft, ein vollständiges Bild des Konvergenz-Divergenz-Phänomens zu untersuchen und zu klären. Wir glauben, dass neue Forscher mit diesem neuartigen Werkzeug leicht die Veröffentlichungen identifizieren können, die wichtige Beiträge zur Verbreitung von RBT-Wissen geleistet haben, und die Wechselbeziehungen zwischen ihnen aufdecken können.;-;-;-;https://link.springer.com/article/10.1007/s11192-012-0744-3 fc0338c740533dd5181d36fb20b73c2e;de;;;3.4.;6.4.;;Auswirkungen der Patentpolitik auf Innovationsergebnisse und Kommerzialisierung: Beweise von Universitäten in China Als wichtige Quelle wissenschaftlicher und technologischer Innovation in China ist die Verbesserung der Produktivität durch die Patentvermarktung in Universitäten und Forschungsinstituten von großer Bedeutung für die Förderung der nachhaltigen wirtschaftlichen Entwicklung Chinas. Obwohl die Zahl der Patentanmeldungen von Universitäten in den letzten Jahren dramatisch zugenommen hat, ist die Rate der Patentvermarktung etwas niedriger als von uns erwartet. Der Zweck unserer Studie besteht darin, zu untersuchen, ob die Anreizpatentpolitik die Patentergebnisse und die Kommerzialisierung von Universitäten in China effektiv verbessert hat. Anhand der Informationssammlung ermitteln wir die konkrete Patentpolitik und messen die konkrete Wirkung der Patentpolitik anhand der Daten der 64 Universitäten, die von 2009 bis 2015 direkt dem Bildungsministerium unterstellt waren Die Politik hat den Patentoutput einer Universität erhöht, sie fördert jedoch nicht die Kommerzialisierung des Patents. Dies liegt daran, dass die Politik bis zu einem gewissen Grad einen negativen Einfluss auf die Begeisterung für die universitäre Patentvermarktung hat. Daher argumentieren wir, dass eine auf die Quantität ausgerichtete Patentpolitik kurzfristig den Innovationsoutput verbessern kann, sich jedoch langfristig negativ auf die nachhaltige Entwicklung der Universität auswirkt.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2893-5 a6b9cdcd04dc8e714427e7c77ab280ff;de;;;3.4.;6.4.;;Wissenschaftliche Forschungsressourcen und akademische Qualität: eine länderübergreifende Analyse Fördert die Bereitstellung von mehr akademischen Forschungsressourcen die akademische Qualität? Ziel dieser Studie ist es, den Einfluss von FuE-Ausgaben im Hochschulbereich zu untersuchen (;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1362-z c8bb2a051c0a95c70dab9a9e1be2afb9;de;;;3.4.;6.4.;;Integrierte Gütezahl der Forschungsevaluation des öffentlichen Sektors Es wird ein Ansatz zur Bewertung der Forschung beschrieben, der Output-Indikatoren von vier dem Innovationsprozess nachgelagerten Stufen integriert: unmittelbare, mittlere, vorletzte und letzte Ergebnisse. Es werden Indizes von führenden Output-Indikatoren erstellt. Die Indizes werden kumulativ integriert, um einen Gesamtindex der wichtigsten Output-Indikatoren zu bilden, der die integrierte Leistungszahl (IFM) ist. Daten für die Indikatoren stammen aus Aufzeichnungen und Schlüsselinformanten, und die Indikatoren sind nach normalisierten Gewichten gruppiert. Der Beitrag diskutiert auch die Grenzen und die methodischen, konzeptionellen und politisch-organisatorischen Fragen eines solchen Ansatzes der Forschungsevaluation.;-;-;-;https://link.springer.com/article/10.1007/BF02129601 e0e322a8664852df91f542ae63df0d91;de;;;3.4.;6.4.;;Untersuchung der Heterogenität europäischer Hochschulen Die Heterogenität der Hochschulen (Hochschulen) ist einer der wichtigsten kritischen Punkte bei der Bewertung ihrer Leistung. Dieses Papier nimmt eine mehrstufige und mehrdimensionale Perspektive ein, kombiniert Daten auf nationaler (Makro-) und institutioneller (Mikro-)Ebene und misst sowohl die Forschungs- als auch die Lehrtätigkeit unter Verwendung von Leistungsindikatoren, die aus dem Europäischen Hochschulregister, dem CWTS Leiden Ranking und PATSTAT-Patentdatenbank. Clustering und Effizienzanalyse werden kombiniert, um die Heterogenität der nationalen Hochschulsysteme in europäischen Ländern zu charakterisieren und das Potenzial der Verwendung von Daten auf Mikroebene zur Charakterisierung der Leistung auf nationaler Ebene aufzuzeigen. Zwischen den europäischen Ländern sind große Unterschiede zu beobachten, zum Teil aufgrund der Tatsache, dass sie sich in unterschiedlichen Phasen ihrer wissenschaftlichen (und wirtschaftlichen) Entwicklung und der Umstrukturierung ihrer Hochschulsysteme befinden. Es zeigt sich, dass Hochschulen, die entweder auf Lehre oder Forschung spezialisiert sind, tendenziell eine höhere Effizienz aufweisen als Institutionen, die Forschung und Lehre ausgleichen. Es werden Kompromisse zwischen Bachelor- und Postgraduiertenaktivitäten beobachtet, und bei den analysierten europäischen Institutionen scheint ein „Matthäus-kumulativer Effekt“ vorhanden zu sein: Hochwertige Forschung kann externe Mittel anziehen, die innovative und Patentierungsaktivitäten anregen, die sich wiederum selbst verstärken die wissenschaftlichen Tätigkeiten. Die Ergebnisse zeigen einmal mehr die Grenzen und Gefahren eindimensionaler Ansätze zur Leistungsfähigkeit von Hochschulen auf.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03717-w 2a4a1714e8254b028514b2b1497e121a;de;;;3.4.;6.4.;;Was ist sinnvolle Forschung und wie sollten wir sie messen? Wir diskutieren den Trend zur Verwendung quantitativer Metriken zur Bewertung von Forschung. Wir behaupten, dass rein metrikbasierte Forschungsbewertungsschemata, anstatt sinnvolle Forschung zu fördern, potenziell zu einer dystopischen akademischen Realität führen und keinen Raum für Kreativität und intellektuelle Initiative lassen. Nachdem wir skizziert haben, wie die Zukunft aussehen könnte, wenn quantitative Metriken verbreitet werden dürfen, diskutieren wir ausführlicher, warum Forschung so schwer zu bewerten ist, und skizzieren Ansätze zur Vermeidung einer solchen Situation. Insbesondere charakterisieren wir sinnvolle Forschung als ein grundsätzlich umstrittenes Konzept und argumentieren, dass quantitative Metriken immer von operationalisierten Anleitungen zur richtigen Anwendung begleitet und über Feedbackschleifen kontinuierlich evaluiert werden sollten. Darüber hinaus analysieren wir einen Datensatz, der Informationen zu Informatikpublikationen und deren Zitationsgeschichte enthält, und zeigen auf, wie quantitative Metriken möglicherweise durch alternative Bewertungsmethoden wie den Test von Zeitvergaben kalibriert werden könnten. Schließlich argumentieren wir, dass Forschungsumgebungen in erster Linie auf Vertrauen und Eigenverantwortung basieren sollten, anstatt sich zu sehr auf Indikatoren zu verlassen.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03649-5 73013f9b236a15ec9d9e619c9a087cd7;de;;;3.4.;6.4.;;Erkundung der Forschungsfronten und Hauptpfade der Literatur: eine Fallstudie zur Aktionärsaktivismusforschung Als relativ junge und dynamische Disziplin hat sich der Aktionärsaktivismus zu einem kritischen Element der Corporate Governance-Forschung entwickelt. Während sowohl Finanz- als auch Rechtswissenschaftler ein starkes Interesse am Aktionärsaktivismus gezeigt haben, macht die Heterogenität in der Forschungskonzentration dieser beiden Bereiche den Aktionärsaktivismus zu einer fragmentierten Disziplin. Wir glauben, dass es interessant und aufschlussreich wäre, eine zitationsbasierte Analyse anhand der Fallstudie durchzuführen, die verwandte Artikel zu diesem Thema umfasst, die sowohl in Finanz- als auch in Rechtszeitschriften veröffentlicht wurden. Wir haben die Hauptpfadanalyse eingeführt, um die Entwicklung und die Forschungsfronten des Aktionärsaktivismus über einen Zeitraum von 30 Jahren aufzuzeigen. Die Ergebnisse zeigten, dass sich die Aktionärsaktivismus-Forschung in mehreren Phasen entwickelt hat: Diskussionen über die theoretische Grundlage, Untersuchungen zur Korrelation „Aktionärsaktivismus versus Unternehmensleistung“, Ausnahmen von der „Eine Aktie, eine Stimme“-Regel, die Entstehung von Hedgefonds Aktivismusforschung und die jüngsten „Say-on-Pay“-Kampagnen. Edge-Betweenness-basiertes Clustering wurde verwendet, um das Zitationsnetzwerk in kohärente Gruppen zu kategorisieren, mit den beliebtesten Themen für den Zeitraum 2003–2013, darunter „Druck und Überwachung durch institutionelle Investoren“, „Aktionärsaktivismus in CSR und Klimawandel“, „Sag- Entgeltfortzahlung und Reaktionsfähigkeit des Vorstands“ und „Aktionärsstimme und Aktionärsrechte“. Auch die Trends werden hier diskutiert. Diese Fallstudie soll zu zukünftigen Studien sowohl im praktischen als auch im akademischen Bereich beitragen.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-2035-x 7a69e863ef1f9a65b5912edc698cc2d6;de;;;3.4.;6.4.;;Die Verwendung der Konominierungsanalyse bei der Echtzeitbewertung eines F&E-Programms Dieser Artikel beschreibt die Anwendung der Co-Nominierungsanalyse, einer Technik, die entwickelt wurde, um die Struktur einer Forschungsgemeinschaft abzubilden. Die Technik wurde als Teil der Evaluierung des britischen nationalen Informationstechnologieprogramms verwendet, das die gemeinsame Forschung zwischen Unternehmen sowie zwischen Unternehmen und Universitäten fördert. Ko-Nominierungsnetzwerke basieren auf Antworten auf Fragebögen, in denen Forscher gebeten werden, andere Forscher zu nominieren, deren Arbeiten ihrer eigenen ähnlich oder relevant sind. Bei Forschern, die in derselben Antwort nominiert wurden, wird davon ausgegangen, dass sie miteinander verbunden sind, und wenn diese Verbindungen mehrfach vorkommen, erhöht sich die Wahrscheinlichkeit, dass sie signifikant sind. Der Artikel beschreibt die Erweiterung eines zuvor identifizierten Netzwerks und vergleicht die Zitationsscores der in den Netzwerken identifizierten Forscher. Es wird der Schluss gezogen, dass die dargestellten Netzwerke realistisch waren und einen nützlichen Beitrag zur Bewertung leisteten. Forscher aus Industrie und Regierung mit niedrigen Zitationswerten waren in einigen Fällen von zentraler Bedeutung für die Netzwerke, was darauf hindeutet, dass eine gemeinsame Nominierung in Bereichen nützlich ist, in denen die Veröffentlichung eingeschränkt ist oder als weniger wichtig angesehen wird. Eine Weiterentwicklung der Technik ist geplant.;-;-;-;https://link.springer.com/article/10.1007/BF02020079 44893cb9cf3733a376c4794a947cd04b;de;;;3.4.;6.4.;;Sektorale strategische Unterschiede der technologischen Entwicklung zwischen Elektronik und Chemie: ein historischer Blick auf Analysen von koreanischen US-Patenten im Zeitraum 1989–1992 Da Forschung und Entwicklung in den Bereichen Elektronik und Chemie bedeutende Beiträge zur wirtschaftlichen Entwicklung Südkoreas geleistet haben, werden frühere Strategien der Technologieentwicklung in diesen Bereichen behandelt. Die Möglichkeit, nationale Technologiestrategie- und Politikmerkmale aus Patentanalysen zu erfassen, wird untersucht. Für die Analyse wurden Daten von 557 US-Patenten in Elektronik und 108 US-Patenten in Chemie analysiert, die von koreanischen Erfindern zwischen 1989 und 1992 angemeldet wurden. Deskriptive Statistiken aggregierter Patentinformationen wurden jeder Strategie in den beiden Bereichen gleichwertig zugeordnet. Branchenspezifische Besonderheiten und bisherige Technologiestrategien in Elektronik und Chemie werden identifiziert. Die Elektronik wurde vom privaten Sektor vorangetrieben, während die Chemie vom öffentlichen Sektor vorangetrieben wurde. Erfinder in beiden Bereichen suchen geclusterte Innovation, auf der nachfolgende Innovationen akkumuliert und/oder auf zahlreiche heterogene Bereiche angewendet werden können. Entgegen der genannten Annahme basierten viele koreanische elektronische Innovationen auf wissenschaftlichen Ergebnissen wie Veröffentlichungen. Von den Variablen der Wissensstrategie werden die Größe der Erfindung und die Anzahl der heterogenen Klassifikationen als wichtiger Faktor angesehen, der die Zahl der Patentzitate in beiden Bereichen beeinflusst.;-;-;-;https://link.springer.com/article/10.1007/s11192-009-0052-8 6bc44c53f43cd09ffb589a208b7d55c6;de;;;3.4.;6.4.;;Bewertung der großen Wissenschaft: Die bisherige Leistung des CERN und die Zukunftsaussichten Nach der Erläuterung der Gründe, warum Wissenschaftspolitiker einen wachsenden Bedarf an strengeren Formen der Forschungsevaluation haben, skizzieren wir einen Ansatz, der bibliometrische Daten und Peer-Evaluation-Daten kombiniert, die im Rahmen eines Studiums am Forschungsbereich Wissenschaftspolitik entwickelt wurden der Big Science-Spezialitäten. Das Papier beschreibt die Ergebnisse, die erhalten werden, wenn diese „Methode der Konvergenz von Teilindikatoren“ angewendet wird, um die bisherige Forschungsleistung der Beschleuniger am CERN – dem gemeinsamen europäischen Labor für Teilchenphysik – mit der der anderen großen Beschleuniger der Welt zu vergleichen. Der Beitrag schließt mit der Darstellung, wie auf der Grundlage einer Analyse der Faktoren, die die Forschungsleistung in der Vergangenheit strukturiert haben, systematische Aussagen über die Zukunftsaussichten einer neuen Großforschungseinrichtung wie einem Beschleuniger möglich sind .;-;-;-;https://link.springer.com/article/10.1007/BF02017150 be17d7086b0d1bfc138c85f7a198931a;de;;;3.4.;6.4.;;Verbesserung der Qualitätsbewertung zusammengesetzter Indikatoren in Hochschulrankings: eine Fallstudie französischer und deutscher Exzellenzuniversitäten Zusammengesetzte Indikatoren spielen eine wesentliche Rolle für das Benchmarking von Hochschulen. Eine der Hauptquellen der Unsicherheit beim Aufbau zusammengesetzter Indikatoren und zweifellos das am meisten diskutierte Problem beim Aufbau zusammengesetzter Indikatoren sind die Gewichtungsschemata (die Gewichtung der einfachen Indikatoren oder Teilindikatoren) zusammen mit den Aggregationsschemata (endgültige zusammengesetzte Indikatorenformel). Abgesehen von der idealen Situation, in der Gewichtungen durch die Theorie bereitgestellt werden, besteht eindeutig ein Bedarf an einer Verbesserung der Qualitätsbewertung des endgültigen Rangs, der mit einem festen Gewichtungsvektor verbunden ist. Wir schlagen vor, Simulationstechniken zu verwenden, um zufällige Störungen um jeden anfänglichen Gewichtungsvektor herum zu erzeugen, um robuste und zuverlässige Ränge zu erhalten, die es ermöglichen, Universitäten in einer Range-Klammer einzustufen. Die vorgeschlagene Methodik ist allgemein genug, um unabhängig vom Gewichtungsschema des zusammengesetzten Indikators angewendet zu werden. Der unmittelbare Nutzen besteht in einer Verringerung der Unsicherheit bei der Bewertung eines bestimmten Rangs, der nicht für die tatsächliche Leistung der Universität repräsentativ ist, und in einer Verbesserung der Qualitätsbewertung von zusammengesetzten Indikatoren, die für das Ranking verwendet werden. Um die vorgeschlagene Methodik zu veranschaulichen, ordnen wir die französischen und deutschen Universitäten ein, die an ihren jeweiligen 2008;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0419-5 45b717d3aed4997bc63f3b79d01c5784;de;;;3.4.;6.4.;;Schreibstile in verschiedenen wissenschaftlichen Disziplinen: ein Data Science-Ansatz Wir haben mehrere verschiedene Elemente quantifiziert, die den Schreibstil wissenschaftlicher Arbeiten in vier verwandten Disziplinen widerspiegeln: Physik, Astrophysik, Mathematik und Informatik. Textdeskriptoren wie die Verwendung von Satzzeichen, die Verwendung von Großbuchstaben, die Verwendung von Anführungszeichen und andere Deskriptoren, die nicht auf den in den Arbeiten verwendeten Wörtern basieren, wurden aus jedem Dokument extrahiert. Allein aufgrund dieser Merkmale war ein automatischer Klassifikator in der Lage, die Disziplin der Arbeit mit einer viel höheren Genauigkeit als dem bloßen Zufall zu identifizieren, und zeigte, dass verschiedene Disziplinen durch ihren Schreibstil unterschieden werden können, und ohne ihren Inhalt direkt zu verwenden, wie er sich in gebräuchlichen Wörtern widerspiegelt die Papiere. Die Studie zeigte statistisch signifikante Unterschiede zwischen den verschiedenen Disziplinen wie Verwendung von Akronymen, Satzlänge, Wortlänge und mehr. Unsere Ergebnisse zeigen auch Veränderungen des Schreibstils in bestimmten Disziplinen im Laufe der Zeit. Mathematiker und Informatiker verwenden beispielsweise ab 2006 weniger Akronyme, und der Durchschnitt der Satzzeichen in Mathematikarbeiten ist dramatisch zurückgegangen. Diese Beobachtungen legen nahe, dass es auch in eng verwandten Disziplinen Unterschiede in der wissenschaftlichen Kommunikation gibt, die sich durch Schreibstile ausdrücken, was die Existenz eines in jeder Disziplin entwickelten „signaturen“ Schreibstils belegt. Diese Erkenntnisse sollten auch berücksichtigt werden, wenn eine multidisziplinäre Gruppe von Mitarbeitern Schreibaufgaben an einem gemeinsamen wissenschaftlichen Manuskript zuweist.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2688-8 e2d0b8bbf9e3f24cde6b8519ac40f6d9;de;;;3.4.;6.4.;;Die wahrgenommene Wirkung von Publikationen zu vernachlässigten tropischen Zoonosen, gemessen an ihrem Wirkungsfaktor Wir haben untersucht, ob Artikel zu vernachlässigten tropischen Zoonosen in Zeitschriften mit geringeren Impact Factors veröffentlicht werden als Forschungen zu Krankheiten mit einer ähnlichen globalen Gesundheitsbelastung. Wir fanden heraus, dass die Artikel über vernachlässigte tropische Zoonosen trotz gleicher Häufigkeit in Zeitschriften mit niedrigeren Impact-Faktoren veröffentlicht wurden. Der Umfang dieser Zeitschriften beschränkt sich hauptsächlich auf die Tropenmedizin. Eine Clustering-Analyse ergab, dass The Lancet, ein hochwirksames allgemeines medizinisches Journal, den vernachlässigten tropischen Zoonosen Aufmerksamkeit schenkt. Wir diskutieren unsere Ergebnisse im Kontext der laufenden Diskussion um die Publikationspolitik medizinischer Fachzeitschriften. Darüber hinaus unterstreichen unsere Ergebnisse die Bedeutung der jüngsten Vorschläge, dass Impact-Faktoren nicht für die Vergabe öffentlicher Mittel für die Forschung (Programme) zu vernachlässigten tropischen Zoonosen verwendet werden sollten.;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0488-5 af1295bc20aa348e4b737be60d5387f1;de;;;3.4.;6.4.;;Auf Zeitschriften des ersten Quartils, die nicht den höchsten Einfluss haben Hier untersuchen wir den Zusammenhang zwischen Journal-Quartil-Rankings des ISI Impact Factors (im Jahr 2010) und der Klassifizierung von Zeitschriften in vier Wirkungsklassen, dh höchste Wirkung, mittlere höchste Wirkung, mittlere, geringste Wirkung und Zeitschrift mit geringster Wirkung in der Fachkategorie Informatik künstliche Intelligenz . Zu diesem Zweck verwenden wir Fuzzy Maximum Likelihood Schätz-Clustering, um Gruppen von Zeitschriften zu identifizieren, die ähnliche Merkmale in einem multivariaten Indikatorraum aufweisen. Die sieben Variablen, die in dieser Analyse verwendet werden, sind: (1) Scimago Journal Ranking (SJR), (2) H-Index (H), (3) ISI Impact Factor (IF), (4) 5-Year Impact Factor (5IF) , (5) Unmittelbarkeitsindex (II), (6) Eigenfaktor-Score (ES) und (7) Artikeleinfluss-Score (AIS). Das Fuzzy-Clustering ermöglicht eine Überlappung von Wirkungsklassen, wodurch Unsicherheiten im Zusammenhang mit der Verwirrung über die Zuordnung von Wirkungsklassen für eine Zeitschrift und Unklarheiten bei der Definition von Wirkungsklassen ausgeglichen werden. Dieses Papier zeigt die komplexe Beziehung zwischen Quartilen des ISI-Impact-Faktors und Journal-Impact-Klassen im multivariaten Indikatorraum. Und dass mehrere Indikatoren für eine eindeutige Analyse struktureller Veränderungen bei der Notenverteilung von Zeitschriften in einer Fachkategorie verwendet werden sollten. Hier schlagen wir vor, dass es in einem multivariaten Indikatorraum unter Verwendung eines Fuzzy-Klassifikators durchgeführt werden kann.;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0534-3 ac6609eaa108c99253ae7d1d5c311efb;de;;;3.4.;6.4.;;Eine Untersuchung des Geschlechtergefälles mit fortschrittlichen Data-Science-Tools: versicherungsmathematische Forschungsgemeinschaft Dieses Papier untersucht die Rolle des Geschlechtergefälles in der versicherungsmathematischen Forschungsgemeinschaft mit fortschrittlichen datenwissenschaftlichen Tools. Die Web-Scraping-Tools wurden verwendet, um eine Datenbank mit Publikationen zu erstellen, die sechs große versicherungsmathematische Zeitschriften umfasst. Diese Datenbank enthält die Artikelnamen, Autorennamen, Erscheinungsjahr, Band und die Anzahl der Zitationen für den Zeitraum 2005–2018. Die fortschrittlichen Tools, die als Teil der R-Software erstellt wurden, wurden verwendet, um die Geschlechtsklassifikation basierend auf dem Namen des Autors durchzuführen. Darüber hinaus haben wir eine soziale Netzwerkanalyse nach Geschlecht entwickelt, um die kollaborative Struktur und andere Formen der Interaktion innerhalb der aktuariellen Forschungsgemeinschaft zu analysieren. Ein Poisson-Mischungsmodell wurde verwendet, um Hauptcluster in Bezug auf die Häufigkeit der Zitationen nach Geschlecht in den sechs Zeitschriften zu identifizieren. Die Analyse zeigte, dass weibliche Publikations- und Zitationsnetzwerke isolierter sind und weniger Verbindungen haben als männliche Netzwerke. Das Papier trägt zur breiteren Literatur zum „Matthew-Effekt“ in der Wissenschaft bei. Wir hoffen, dass unsere Studie das Verständnis des Geschlechtergefälles innerhalb der versicherungsmathematischen Forschungsgemeinschaft verbessern und eine Diskussion anstoßen wird, die zur Entwicklung von Strategien für eine vielfältigere, integrativere und gerechtere Gemeinschaft führt.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03412-w 700c3fb8a8a77269ecf99e107e8fa86c;de;;;3.4.;6.4.;;Ein bibliometrischer Überblick über die Forschung zu internationalen Studentenmobilitäten in Asien mit Scopus-Datensätzen zwischen 1984 und 2019 In letzter Zeit hat sich Asien neben den traditionellen Gastgebern wie Nordamerika, Europa oder Australien zu einem neuen Zentrum für internationale Studierende entwickelt. Einhergehend mit diesem Phänomen gibt es immer mehr internationale Bildungswissenschaftler, die internationale Studentenmobilitäten in Asien als Forschungsgegenstand auswählen. Dennoch gibt es noch keine systematischen Kenntnisse über die vorhandene Literatur zu internationalen Studierendenmobilitäten in asienbezogenen Studien. Dieses Projekt zielt darauf ab, diese Lücke zu schließen, indem es Daten aus dem Scopus-Datensatz von 1984 bis 2019 analysiert. Mithilfe deskriptiver Statistiken sowie fortgeschrittener bibliometrischer Analysen identifizierte die Überprüfung einflussreiche Dokumente, Themen und Quellen, deren Wirkung seit mehreren Jahrzehnten anhält. Der Review identifizierte auch prominente Autoren und Forschungsgruppen, deren Publikationen am häufigsten zitiert werden.;-;-;-;https://link.springer.com/article/10.1007/s11192-021-03965-4 7f06631b24d090b6f825816ee89e7c04;de;;;3.4.;6.4.;;Beeinflusst Forschungskooperation die „Disruption“ von Artikeln? Beweise aus den Neurowissenschaftenscience Kürzlich wurde ein neuer Indikator (der Disruptionsindex) eingeführt, der quantifiziert, inwieweit ein Papier etabliertes Wissen stört oder festigt, aus der Perspektive der späteren Nutzung des aktuellen Wissens. In dieser Studie wurde untersucht, ob verschiedene Arten der Zusammenarbeit (d. h. auf Autor-, Institutions- und Länderebene) die Unterbrechung von Papieren gleichermaßen beeinflussen. Wir wählten 505.168 Papiere aus Neurowissenschaften aus, die im Web of Science von 1954 bis 2011 indiziert waren, und verwendeten logistische Regressionsanalysen. Unsere wichtigsten Ergebnisse sind, dass Teamgröße und internationale Zusammenarbeit negativ mit der Störung von Artikeln verbunden sind, während eine zusätzliche Zunahme der Anzahl inländischer Institutionen eines Teams eine Störung statistisch begünstigt.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03757-2 7d2d539eb5ade80e67b0bf76d9747b0a;de;;;3.4.;6.4.;;Das Wachstum der chinesischen wissenschaftlichen Forschung, 1973–84 Während der Kulturrevolution (1966–1976) kam die wissenschaftliche Arbeit in China zum Erliegen. Universitäten wurden geschlossen, Grundschulen und weiterführende Schulen geschlossen, und Intellektuelle (einschließlich Wissenschaftler und Ingenieure) wurden zur Arbeit aufs Land oder in Fabriken geschickt. Die Auswirkungen der Kulturrevolution spiegeln sich in Chinas wissenschaftlicher Literatur wider. 1973 erschien beispielsweise nur eine chinesische Zeitung in einer der 2300 zentralsten Zeitschriften der Welt, die von der;-;-;-;https://link.springer.com/article/10.1007/BF02016694 9c8ec609c0fd1edd26c3727de71b999f;de;;;3.4.;6.4.;;Szientometrische Analyse der relativen Leistung an einer wichtigen Universität in Rumänien Es wird eine szientometrische Analyse der Babeş-Bolyai-Universität in Rumänien vorgelegt, die die Stärken und Schwächen einer Reihe führender internationaler Universitäten hervorhebt und teilweise auf landesweite Daten aus mehreren Ländern verweist. Berücksichtigt werden Angaben wie Gesamtzahl der Publikationen, Analysen pro Fachgebiet oder pro Forschungsfeld, Anzahl der Zitationen, Publikationsarten, Hirsch-Indexe und Bücher. International werden Chemie, Physik, Mathematik, Informatik, Religion, Landeskunde, Geologie, Paläontologie und öffentliche Verwaltung als die aktivsten Bereiche identifiziert. Auf nationaler Ebene werden eine Reihe zusätzlicher Stärken wie Psychologie, Geschichte und Umweltwissenschaften identifiziert. Der Anteil der Forscher mit relativ hoher Aktivität (z. B. mindestens ~ eine Publikation pro Jahr, wie in großen Datenbanken indiziert) ist relativ gering (~10 %) und der Anteil mit relativ hoher internationaler Wettbewerbsfähigkeit (basierend auf Zitationszahlen, Anzahl der Publikationen , in internationalen Bibliotheken indizierte Bücher) liegt bei nur ~2 %. Ausschlaggebend für einen exponentiellen Anstieg der Publikationen seit ~2000–2004 scheint ein konservativ gehandhabter exponentieller Anstieg des nationalen BIP und implizit der Forschungsbudgets gewesen zu sein.;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1232-8 675bdaa651b87704600bdde20ce638b3;de;;;3.4.;6.4.;;Verbessert Open Peer Review die Zitationszahl? Nachweis aus einer Propensity-Score-Matching-Analyse von PeerJ Diese Studie soll untersuchen, ob Open Peer Review die Anzahl der Zitationen verbessern kann. Als Datensatz wurden Artikel ausgewählt, die 2013 und 2015 in PeerJ veröffentlicht wurden. Es wurden zwei Kategorien von Artikeln generiert: Artikel mit geschlossener Peer-Review-Historie und Artikel mit offener Peer-Review-Historie. Ein Propensity-Score-Matching mit der Radius-Matching-Methode wurde unter Verwendung von 14 Störvariablen durchgeführt. Die anderen fünf gängigen Matching-Methoden des Propensity-Score-Matchings, der von Abadie und Imbens entwickelte Bias-adjusted Matching Estimator (Simple and bias-corrected Matching Estimators for Average Treatment Effects, National Bureau of Economic Research, Cambridge, S. 1–57, 2002) , und der Datensatz ohne Artikel mit extrem hoher Zitationszahl wurden verwendet, um die Robustheit der Ergebnisse zu überprüfen. Die Ergebnisse dieser Studie zeigten, dass bei Artikeln mit offener Peer-Review-Historie eine signifikant höhere Zitationszahl zu erwarten ist als bei Artikeln mit geschlossener Peer-Review-Historie. Unsere Ergebnisse deuten darauf hin, dass Open Peer Review die Anzahl der Zitationen verbessern kann und dass die beste Vorgehensweise für Open Peer Review eine kompromittierende Open Peer Review sein könnte.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03545-y 1c249ae3d407f28aa152c3b49432f575;de;;;3.4.;6.4.;;Zur Entwicklung der Führungsrolle Chinas in internationalen Kooperationen Dieser Artikel untersucht die Beziehung zwischen Führung, Teamgröße und Zitationswirkung in Chinas internationaler Forschungsleistung von 1980 bis 2016, gemessen an der Anzahl der Autoren, Institutionen, Länder und Zitationen. Dabei wird zwischen führenden und nicht-führenden chinesischen internationalen Kooperationen unterschieden, die sich jeweils auf Arbeiten beziehen, deren Erst- bzw. Analysen auf individueller, institutioneller und Länderebene zeigen, dass, während die durchschnittliche Teamgröße nach Papier im Laufe des Zeitraums zunimmt, der Hauptmodus der Zusammenarbeit auf Länderebene weiterhin bilateral bleibt. Wir beobachten bis zu einem gewissen Punkt auch eine positive Beziehung zwischen der Teamgröße und der Forschungswirkung, aber chinesisch geführte internationale Kooperationen implizieren tendenziell kleinere Teams und haben eine geringere Wirkung als nicht-führende Kooperationen.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03111-1 6e362809c8007733b4799ef8f5b3d941;de;;;3.4.;6.4.;;Unsichtbare Hochschulen als wissenschaftliche Eliten Eine intensive Untersuchung des amerikanischen Wissenschaftsberatungssystems hat keine Hinweise auf eine Elitenstruktur in der Auswahl oder den Dienstleistungsmustern der Berater gefunden. Beratungsgruppen können nicht als Elemente der unsichtbaren Hochschulkreise fungieren, die;-;-;-;https://link.springer.com/article/10.1007/BF02017154 d3e5fa152828a90c5fa9d7eabc21eeb2;de;;;3.4.;6.4.;;Stratifizierung zwischen Zeitschriften in der Managementforschung: Eine bibliometrische Studie zur Interaktion zwischen europäischen und amerikanischen Zeitschriften Die Hauptmerkmale der Wissenschaft sind ihr schnelles Wachstum und ihre kontinuierliche Differenzierung. Die Etablierung neuer Zeitschriften kann als Ausdruck von Wachstum und Differenzierung gesehen werden. In dieser Studie zum Netzwerk der Management-Zeitschriften stehen Formen der Differenzierung, d. h. das Verhältnis von Schichtung und Spezialisierung in einem Zeitschriftennetzwerk, im Fokus. In dieser Studie wird die Frage gestellt, ob die unterschiedliche Positionierung amerikanischer und europäischer Zeitschriften mit unterschiedlichen Spezialisierungsgraden korrespondiert. Eine Tendenz zu einer solchen Strukturierung des Zeitschriftennetzwerks würde auf eine überregionale Integration der Managementforschung hindeuten. Artikel aus sechs der einflussreichsten amerikanischen und europäischen Zeitschriften aus dem Zeitraum von 1981 bis 1998 wurden heruntergeladen. Die Ergebnisse dieser Studie zeigen, dass europäische Zeitschriften zwar eine Peripherie gegenüber den amerikanischen Zeitschriften in Bezug auf deutlich asymmetrische Austauschbeziehungen bildeten, die europäischen Zeitschriften jedoch umfassender zu sein schienen. Die Tendenz im Untersuchungszeitraum deutet eher auf eine Differenzierung hinsichtlich der Segmentierung als der Spezialisierung hin.;-;-;-;https://link.springer.com/article/10.1023/A%3A1005605123831 eab7caaf2e7a069be74e10a8ea54fb5e;de;;;3.4.;6.4.;;Zurückgezogene Artikel in der biomedizinischen Literatur von indischen Autoren Ziel der vorliegenden Studie ist es, zurückgezogene Artikel in der biomedizinischen Literatur (mit) indischer Autoren zu identifizieren und die Merkmale zurückgezogener Artikel zu untersuchen. Die PubMed-Datenbank wurde durchsucht, um die zurückgezogenen Artikel zu finden, um das Ziel zu erreichen. Die Suche ergab 508 Datensätze und wurde für die detaillierte Analyse von: Autorenschaften und Art der Zusammenarbeit, Finanzierungsinformationen, wer zieht zurück? Zeitschriften und Impact-Faktoren sowie Gründe für den Widerruf. Die Ergebnisse zeigen, dass die meisten zurückgezogenen biomedizinischen Artikel nach 2010 veröffentlicht wurden und häufige Gründe dafür sind Plagiate und gefälschte Daten für den Widerruf. Mehr als die Hälfte der zurückgezogenen Artikel wurden innerhalb der Institutionen mitverfasst und es gibt keinen Wiederholungstäter. 25% der zurückgezogenen Artikel wurden in den Top-15-Zeitschriften und 33% in den Non-Impact-Factor-Journalen veröffentlicht. Die durchschnittliche Zeit von der Veröffentlichung bis zum Widerruf wird mit 2,86 Jahren berechnet und der Widerruf aufgrund gefälschter Daten dauert unter den Gründen am längsten. Der Großteil der finanzierten Forschung wurde aufgrund gefälschter Daten zurückgezogen, während es sich bei nicht finanzierten um Plagiate handelt.;-;-;-;https://link.springer.com/article/10.1007/s11192-021-03895-1 82122683e7ce279ad76253d34034fecf;de;;;3.4.;6.4.;;Erkundung des Umfangs von Open Innovation: ein bibliometrischer Überblick über ein Jahrzehnt der Forschung Das Konzept der offenen Innovation hat beträchtliche Aufmerksamkeit auf sich gezogen, seit Henry Chesbrough es zum ersten Mal geprägt hat, um die zunehmende Abhängigkeit von Unternehmen von externen Innovationsquellen zu erfassen. Obwohl Open Innovation als Thema innerhalb der Innovationsmanagementforschung floriert, hat es auch Debatten über die Kohärenz der unter diesem Dach verfolgten Forschungsanstrengungen einschließlich ihrer theoretischen Grundlagen ausgelöst. In diesem Beitrag möchten wir durch einen bibliometrischen Überblick über das erste Jahrzehnt der Open-Innovation-Forschung zu diesen Debatten beitragen. Wir kombinieren zwei Techniken – bibliografische Kopplung und Co-Citation-Analyse – um (1) das Netzwerk von Publikationen zu visualisieren, die explizit das Label „Open Innovation“ verwenden, und (2) um zu unterschiedlichen Clustern thematisch verwandter Publikationen zu gelangen. Unsere Ergebnisse verdeutlichen, dass die Open-Innovation-Forschung im Wesentlichen auf vier verwandten Forschungsrichtungen aufbaut, während das bibliografische Netzwerk der Open-Innovation-Forschung zeigt, dass sieben thematische Cluster beharrlich verfolgt wurden. Während eine solche Beharrlichkeit zweifellos nützlich ist, um zu fundierten und belastbaren Erkenntnissen zu gelangen, signalisieren die beobachteten Muster auch das Fehlen neuer, aufkommender Themen. Daher könnte „Open Innovation“ von der Anwendung eigener Ideen profitieren: Die Beschaffung von Konzepten und Modellen aus einem breiteren Spektrum theoretischer Perspektiven sowie die Verfolgung eines breiteren Themenspektrums könnten Dynamiken einführen, die zu mehr Wirkung und Verbreitung führen.;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1628-0 e09e3a45ea889c11d6264f3daed830e7;de;;;3.4.;6.4.;;Validierung von Online-Referenzmanagern zur Messung der wissenschaftlichen Wirkung Dieser Artikel untersucht anhand einer Stichprobe von 1.613 Artikeln, die 2007 in Nature and Science veröffentlicht wurden, ob CiteULike und Mendeley zur Messung des wissenschaftlichen Einflusses nützlich sind der die Artikel auf einer der beiden kostenlosen Online-Referenzmanager-Sites mit einem Lesezeichen versehen hat. Es wurden statistisch signifikante Korrelationen zwischen den Nutzerzahlen und den entsprechenden WoS-Zitatzahlen gefunden, was darauf hindeutet, dass diese Art des Einflusses in gewisser Weise mit der traditionellen zitationsbasierten wissenschaftlichen Wirkung zusammenhängt, die Nutzerzahl dieser Systeme jedoch noch zu gering für sie zu sein scheint traditionelle Zitationsindizes herauszufordern.;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0580-x 1cacfba1a74f9a3d17e47f2c4f3c7742;de;;;3.4.;6.4.;;Wissenschaftliche Publikationsleistung in postkommunistischen Ländern: noch weit hinterher Wir präsentieren einen bibliometrischen Vergleich der Publikationsleistung in 226 Wissenschaftsdisziplinen im Web of Science (WoS) für sechs postkommunistische EU-Mitgliedstaaten im Vergleich zu sechs EU-15-Ländern vergleichbarer Größe. Wir vergleichen nicht nur die Gesamtzahl der Veröffentlichungen auf Länderebene, sondern auch qualitativ hochwertige Veröffentlichungen, bei denen die Veröffentlichungsqualität aus den Zeitschriftenartikel-Einflusswerten abgeleitet wird. Von 2010 bis 2014 hinken die postkommunistischen Länder ihren EU-Pendants immer noch weit hinterher, mit Ausnahme einiger weniger wissenschaftlicher Disziplinen hauptsächlich in Slowenien. Darüber hinaus konzentriert sich die Forschung in postkommunistischen Ländern eher auf Quantität als auf Qualität. Die relative Publikationsleistung der postkommunistischen Länder im WoS ist in den Natur- und Ingenieurwissenschaften am stärksten. Zukünftige Forschung ist erforderlich, um die zugrunde liegenden Ursachen dieser Leistungsunterschiede aufzudecken, darunter Finanzierungs- und Produktivitätslücken, das historische Erbe der kommunistischen Ideologie und Unterschiede in der Abdeckung des Web of Science.;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2389-8 38da933a8f6ecae917f06db900b3a6a3;de;;;3.4.;6.4.;;Eine Netzwerkanalyse interdisziplinärer Forschungsbeziehungen: das F&E-Stipendienprogramm der koreanischen Regierung Diese Studie untersucht Netzwerktopologien interdisziplinärer Forschungsbeziehungen in Wissenschaft und Technik (W&T) und untersucht die relationalen Verknüpfungen zwischen den interdisziplinären Beziehungen und der Qualität der Forschungsleistung. Zur Bewertung des General Research Grant (GRG) Programms, einem interdisziplinären Forschungsförderprogramm der Korea Science and Engineering Foundation (KOSEF), wurde eine Netzwerkanalyse durchgeführt, der Datensatz deckte den Zeitraum 2002–2004 ab. Die Analyseergebnisse offenbaren die verborgene Netzwerkstruktur interdisziplinärer Forschungsbeziehungen und zeigen, dass die Qualität der Forschungsleistung nicht nur durch interdependenten Druck auf verschiedene Forschungsfelder, sondern auch durch angesammelte Forschungskapazitäten, die für andere Forschungen relativ schwer zugänglich und reproduzierbar sind, verbessert werden könnte Felder.;-;-;-;https://link.springer.com/article/10.1007/s11192-010-0157-0 ca516ac20b2c4beef5b4a936d897d289;de;;;3.4.;6.4.;;Mechanismuswechsel in einer Peer-Review-Simulation: von Junk-Support zu Elitismus Peer Review fungiert als Scharnier des wissenschaftlichen Prozesses und vermittelt zwischen Forschung und der Wahrnehmung/Akzeptanz ihrer Ergebnisse. Während es offensichtlich erscheinen mag, dass sich die Wissenschaft selbst wissenschaftlich regulieren würde, erodiert der Konsens über Peer-Reviews, ein tieferes Verständnis ihrer Funktionsweise und potenzieller Alternativen ist dringend erforderlich. Mit einem theoretischen Ansatz, der durch agentenbasierte Simulation unterstützt wurde, untersuchten wir Computermodelle der Peer-Review und führten das durch, was wir nennen möchten;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1239-1 536837e89ee4e6fe7071969d5b4e3aca;de;;;3.4.;6.4.;;Struktur und Entwicklung der Innovationsforschung in den letzten 60 Jahren: Rückblick und zukünftige Trends in der Wirtschaft durch die Citations- und Co-Citations-Analyse Das Feld der Innovationsforschung ist in den letzten vier Jahrzehnten stark gewachsen, was dazu geführt hat, dass neue Ansätze und theoretische Aspekte entstanden sind, die untersucht und berücksichtigt werden müssen. Daher zielt dieser Beitrag darauf ab, zu verstehen, was die wichtigsten theoretischen Säulen sind, die die Struktur von Innovationstheorien und -feldern stützen, wie sie sich im Laufe der Jahre entwickelt haben und welche Richtungen zu zukünftigen Trends in der Innovationsforschung führen. Das Verfahren besteht aus einem Mix-Verfahren unter Verwendung der Zitier- und Kozitationsanalyse verbunden mit bibliometrischen Methoden, der Sozialen Netzwerkanalyse und einer systematischen Literaturrecherche. Die Ergebnisse wurden von Delphi mit akademischen Innovationsspezialisten validiert. Betrachtet man die Publikationen zwischen 1956 und 2016, die in vier 15-jährige Zeiträume unterteilt sind, zeigen die Ergebnisse der Längsschnittanalyse die Entwicklung der Hauptgedankenströme, die die aktuellen Innovationsforschungsfelder unterstützen, und zeigen eine Forschungsorientierung für zukünftige Arbeiten, die entwickelt werden können, um relevante Beiträge zu generieren für die theoretische Entwicklung des Gebietes. Dieser Beitrag unterscheidet sich durch Ergebnisse auf der Grundlage einer großen Datenbasis, durch die verwendeten Forschungsmethoden und durch die eingenommene Perspektive und liefert solide Beiträge zum Verständnis der Vergangenheit, Gegenwart und Zukunft der wissenschaftlichen Innovationsforschung im Bereich der Betriebswirtschaftslehre.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2709-7 395e123c3de76f14844eec56817e0731;de;;;3.4.;6.4.;;Einige Anreize und Einschränkungen wissenschaftlicher Leistung in wirtschaftswissenschaftlichen Fakultäten Der Hauptzweck dieser Arbeit besteht darin, zu untersuchen, warum sich die Veröffentlichungsdatensätze zwischen den niederländischen Wirtschaftsabteilungen unterscheiden. Die Ergebnisse groß angelegter Leistungsbewertungen wurden verwendet, um Forschungseinheiten in Teilstichproben von High- und Low-Performern zu klassifizieren. Nach der Erhebung von Daten zu organisatorischen Merkmalen wirtschaftswissenschaftlicher Forschungseinheiten wurden univariate und multivariate Statistik angewendet, um Hypothesen zu Determinanten der wissenschaftlichen Produktivität in den Wirtschaftswissenschaften zu testen.;-;-;-;https://link.springer.com/article/10.1007/BF02017764 d022847ac8d9c6cea5350fc8042bea67;de;;;3.4.;6.4.;;Gender Bias bei der Vergabe von Stipendien Mehrere Studien haben gezeigt, dass die Wahrscheinlichkeit, Forschungsförderung zu erhalten, bei Frauen geringer ist als bei männlichen Kollegen. Bisher hat sich die gesamte Forschung zu diesem Gender Gap in der Wissenschaft auf Post-PhD-Wissenschaftler konzentriert, so dass es schwer zu erkennen ist, ob die weibliche Benachteiligung bei der Anzahl der Publikationen, früheren Stipendien, Mutterschaftsurlaub und h-Indizes die Wurzel des Geschlechts ist Lücke in der erhaltenen Finanzierung oder ob sie auf eine grundlegendere geschlechtsspezifische Voreingenommenheit in der Wissenschaft zurückzuführen ist. Daher haben wir untersucht, ob Studentinnen bereits beim ersten Stipendium in ihrer wissenschaftlichen Karriere benachteiligt sind. Wir analysierten Daten zu Bewerbungen (;-;-;-;https://link.springer.com/article/10.1007/s11192-021-03985-0 341dc39dc6e1c8e028eb02f0d2384bf5;de;;;3.4.;6.4.;;Analyse des Einflusses der Patentperformance auf den Marktwert der US-Pharmaunternehmen mit neuronalen Netzen Diese Studie wendet die Technik des künstlichen neuronalen Netzes an, um den Einfluss quantitativer und qualitativer Patentindikatoren auf den Marktwert der Pharmaunternehmen in den USA zu untersuchen. Die Ergebnisse zeigen, dass der Herfindahl-Hirschman-Index der Patente den Marktwert der Pharmaunternehmen in den USA negativ beeinflusst und ihre technologische Unabhängigkeit sich positiv auf ihren Marktwert auswirkt. Darüber hinaus findet diese Studie auch heraus, dass Patentzitate der amerikanischen Pharmaunternehmen einen inversen U-förmigen Effekt auf deren Marktwert haben.;-;-;-;https://link.springer.com/article/10.1007/s11192-009-2095-2 c371366ca93514d9264f236892c7d96b;de;;;3.4.;6.4.;;Ansatz zur Identifizierung eines alternativen technologischen Innovationsindex Es besteht ein starkes Interesse an der Identifizierung und Gestaltung standardisierter Indikatoren zur Messung und Visualisierung der Fortschritte der Länder in Bezug auf Wissenschaft, Technologie und Innovation, um Strategien für die Länder zur Steigerung ihrer Wettbewerbsfähigkeit festzulegen. Der Hauptzweck dieser Studie bestand darin, einen ersten Ansatz zur Identifizierung eines alternativen Index für technologische Innovation vorzustellen, der auf der Gruppierung von Indikatoren basiert, die von der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung als Input- und Output-Subindizes gemeldet wurden. Der identifizierte Index ermöglichte es, mittels Längsschnittdatenanalyse ein Ranking (A) der Positionen von 37 Ländern und drei Ländergruppen zu erstellen. Die zur Validierung des alternativen technologischen Innovationsindex verwendete Methode basiert auf der Berechnung der Korrelationen von Person zwischen unserem A-Ranking und dem World Economic Forum-Ranking, dem Global Competitiveness Index-Ranking und dem Subindex Innovation and Sophistication Factors-Ranking, zusätzlich zu dem vorgestellten Ranking ranking im Global Innovation Index der World Intellectual Property Organization bestätigten hohe Korrelationen unseren Index und unser Ranking.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03292-9 952c77623de70485edf2b04ce1148004;de;;;3.4.;6.4.;;Erfolgreiche Fische schwimmen mit dem Strom: Zitationswirkungsvorhersage basierend auf Zentralitätsmaßen für Term-Dokument-Netzwerke In dieser Arbeit beschäftigen wir uns mit der Herausforderung, die Dokumente aus einem bestimmten Satz von Texten zu identifizieren, die in der Zukunft am wahrscheinlichsten erhebliche Auswirkungen haben werden. Dazu entwickeln wir eine rein inhaltsbasierte Methodik, um eine bestimmte Menge von Dokumenten, beispielsweise Abstracts von wissenschaftlichen Publikationen, nach ihrem Wirkungspotenzial, gemessen an der Zahl der Zitationen, die die Artikel in Zukunft erhalten, zu ordnen . Wir konstruieren ein bipartites Netzwerk bestehend aus Dokumenten, die mit darin enthaltenen Schlüsselwörtern und Begriffen verknüpft sind. Wir untersuchen rekursive Zentralitätsmaße für solche Netzwerke, die quantifizieren, wie viele verschiedene Begriffe ein Dokument enthält und wie diese Begriffe miteinander in Beziehung stehen. Daraus leiten wir einen neuartigen Indikator ab – Dokumentzentralität –, der sich in sechs verschiedenen Fallstudien als hochprädiktiv für die Zitationswirkung erwiesen hat. Wir vergleichen diese Ergebnisse mit Ergebnissen aus einem multivariablen Regressionsmodell und aus konventionellen netzwerkbasierten Zentralitätsmessungen, um zu zeigen, dass Dokumentenzentralität tatsächlich eine vergleichbar hohe Leistung bei der Identifizierung von Artikeln bietet, die eine große Anzahl von Schlüsselwörtern mit hoher Wirkung enthalten. Unsere Ergebnisse legen nahe, dass Artikel, die dem Mainstream innerhalb eines bestimmten Forschungsgebiets entsprechen, tendenziell häufiger zitiert werden als sehr originelle und innovative Artikel.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-1926-1 787bfcc96e95cd12bc03b282e12edc32;de;;;3.4.;6.4.;;Effizienz öffentlicher Hochschulen in Europa: ein zweistufiger Mehrländeransatz Der Zweck dieser Studie besteht darin, die Effizienz und ihre Determinanten in einer Reihe von Hochschuleinrichtungen (HEIs) aus mehreren europäischen Ländern mit Hilfe nicht parametrischer Grenztechniken zu untersuchen. Unsere Analyse basiert auf einer Stichprobe von 259 öffentlichen Hochschulen aus 7 europäischen Ländern im Zeitraum 2001–2005. Wir führen eine zweistufige DEA-Analyse durch (Simar und Wilson in J Economet 136:31–64,;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0484-9 eff260f9c0ad8e18e99f2cf00cd4328d;de;;;3.4.;6.4.;;Globale Netzwerke gentechnisch veränderter Pflanzentechnologie: eine Patentzitationsnetzwerkanalyse Dieses Papier verwendet die Patentdaten von vier großen gentechnisch veränderten (GV) Pflanzen, Sojabohnen, Baumwolle, Mais und Raps, um zu veranschaulichen, wie sich die Innovation der GV-Technologie im Laufe der Zeit weltweit verbreitet und verbreitet hat. Daten, die aus dem Derwent Innovation Index gesammelt wurden, wurden von 1984 bis 2015 verwendet, um Länderpatentzitierungsnetzwerke aufzubauen, und die Ergebnisse zeigten, dass die Industrieländer Early Adopters und die Hauptakteure bei der Innovation der GV-Pflanzentechnologie waren. Nur sieben Entwicklungsländer erschienen im Länderzitationsnetzwerk. Die meisten entwickelten Länder zögerten, gentechnisch veränderte Pflanzentechnologie für den kommerziellen Anbau einzusetzen. Private Unternehmen ragten im Patentzitierungsnetzwerk heraus. Die frühe Einführung und bessere Leistung der entwickelten Länder kann durch die Aktivitäten großer etablierter Privatunternehmen erklärt werden.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03006-1 9ed31158f6e4369b9e85688df5c0975f;de;;;3.4.;6.4.;;Aufzeigen von Schlüsselthemenverschiebungen bei Wärmedämmschichten (TBC) als Indikatoren für technologische Entwicklungen bei Flugzeugtriebwerken Wärmedämmbeschichtungssysteme (TBC) reduzieren die Temperatur des metallischen Substrats von Flugzeugtriebwerken, was zu einer verbesserten Lebensdauer der Komponenten, einem besseren Kraftstoffverbrauch und einer besseren Leistung führt. Wissenschaftliche Forschung und Innovation zu TBC-Systemen entwickeln sich im Laufe der Jahre schnell und vielfältig. Daher ist ein Verständnis der Forschungs- und Innovationspfade von TBC-Systemen für die zukünftige Entwicklung von Luft- und Raumfahrttriebwerken äußerst wichtig. Diese Studie untersucht Forschungspublikationen und Patente zu TBC im Zeitraum 1980–2019. Während die USA von 1980 bis 2010 die TBC-Publikationsausgaben anführten, übernimmt China nach 2011 die Führung und auch Indien tritt in der TBC-Forschung deutlich hervor. Die Zitierwirkung von Publikationen lässt zentrale Themenverschiebungen erkennen. Ausgeprägte Spitzenwerte für (1) Materialwissenschaften von 1998–2003, (2) Energie von 2001–2007 und (3) Chemieingenieurwesen von 2009–2018 identifiziert. Die visuellen Zuordnungen der Autorenschlüsselwörter der Publikationen zeigen den Fortschritt der TBC-Technologie. Die Ergebnisse zeigen Veränderungen bei den Abscheidungstechniken für die TBC-Beschichtungsvorbereitung und das Wärmemanagement in den Triebwerken. Die von Patenten zitierten Zeitschriftenartikel weisen eine geringe Korrelation zu den häufig zitierten Artikeln auf. In diesem Papier wurde ein Indikator für die Innovationsrelevanz eingeführt, um die Relevanz der wissenschaftlichen Forschung einer Institution für technologische Innovationen zu messen. Dieser neuartige Indikator zeigt die branchenrelevante Arbeit unter den aktiven Institutionen und Unternehmen mit Patenten in TBC-Technologien. Universitäten mit einer signifikanten Anzahl von TBC-Patenten fallen in zwei große Kategorien, (1) diejenigen, die eine hohe (> 70%) Zusammenarbeit bei angemeldeten Patenten haben, und (2) diejenigen, die Patente ohne bestehende externe Zusammenarbeit eingereicht haben.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03667-3 faa2ffda4524c1bc5521a19d0576959b;de;;;3.4.;6.4.;;Spanische wissenschaftliche Produktivität und Ausrüstung in der Magnetresonanz aus regionaler und europäischer Perspektive Das Ziel dieser Arbeit war es, einen rationalen Rahmen für die Gestaltung wissenschaftlicher Richtlinien bei der Implementierung von MR-Infrastrukturen bereitzustellen. Zu diesem Zweck haben wir die Beziehungen zwischen MR-Instrumenten, ihrer wissenschaftlichen Produktivität oder medizinischen Leistung und mehreren sozioökonomischen, F&E- oder Gesundheitsindikatoren im spanischen und europäischen Kontext untersucht. Die Verteilung von MR-Spektroskopie-Instrumenten unter den spanischen Autonomen Gemeinschaften deutet darauf hin, dass die Zuteilungspolitik aus einem Kompromiss zwischen der Nachfrage nach regionaler Stärke bei F&E-Aktivitäten und dem Streben nach Konvergenzkriterien resultierte, um unterentwickelte Regionen auf einen nationalen Standard zu bringen. Insgesamt lag der Durchschnittswert für spanische MR-Spektroskopiegeräte (1,6 Einheiten pro TRDP) innerhalb des in 6 europäischen Ländern gefundenen Durchschnittswerts von 1,7. Die wissenschaftliche Produktivität dieser Spektrometer in Spanien (10,3 Veröffentlichungen pro Einheit) ist vergleichbar mit dem Verhältnis (12,4) im Vereinigten Königreich und lag über dem Durchschnitt der sechs Länder (8,3). Zwischen den spanischen Autonomen Gemeinschaften wurden größere Produktivitätsunterschiede beobachtet, was auf die Existenz einer bedeutenden Lagune auf der Verteilungsseite der Zuteilungspolitik hindeutet. In Übereinstimmung mit ihrer sozio-sanitären Bedeutung korrelierte die regionale Verteilung von MR-Bildgebungsgeräten in Spanien mit der Anzahl des sanitären Personals und der regionalen Bevölkerung bzw. Die durchschnittliche Zahl der installierten Einheiten pro Million Einwohner in Spanien (3,3) liegt sehr nahe am Durchschnitt in fünf europäischen Ländern und die Diagnoseverfahren pro installierter Einheit liegen nahe an den Durchschnittswerten der fünf Länder von 3400/Jahr. Allerdings war die wissenschaftliche Produktivität von MR-Bildgebungsgeräten in Spanien (1,6 Veröffentlichungen pro installierter Einheit im Fünfjahreszeitraum) im Vergleich zu anderen europäischen Ländern (durchschnittlich 3,7) sehr gering. Ein höherer diagnostischer Bedarf oder ein geringerer Publikationsdruck könnten diese Unterschiede ebenso gut erklären. Unsere Ergebnisse deuten darauf hin, dass die Steigerung der wissenschaftlichen Produktivität und der medizinischen Leistung von MR-Instrumenten in den spanischen Autonomen Gemeinschaften nicht unbedingt mit einer Nettozunahme der Anzahl von MR-Instrumenten einhergehen muss, sondern eher mit einer Verbesserung des globalen sozioökonomischen Durchsatzes, die sich aus der Organisation von F&E und medizinischen Service-Politik.;-;-;-;https://link.springer.com/article/10.1023/A%3A1010594718356 66fa312fd8cfc0178b1ab5122954a159;de;;;3.4.;6.4.;;Politische Dokumente als Quellen zur Messung gesellschaftlicher Auswirkungen: Wie oft wird die Klimaforschung in politikbezogenen Dokumenten erwähnt? Im aktuellen UK Research Excellence Framework (REF) und dem Excellence in Research for Australia (ERA) sind Messungen der gesellschaftlichen Wirkung fester Bestandteil der nationalen Bewertungssysteme. In dieser Studie beschäftigen wir uns mit einer relativ neuen Form gesellschaftlicher Wirkungsmessungen. Vor kurzem hat Altmetric – ein Start-up, das Metriken auf Publikationsebene bereitstellt – damit begonnen, Daten für Publikationen bereitzustellen, die in Richtliniendokumenten erwähnt wurden. Wir sehen diese Datenquelle als interessante Möglichkeit, den (gesellschaftlichen) Impact von Forschung gezielt zu messen. Am Beispiel eines umfassenden Datensatzes mit Publikationen zum Klimawandel untersuchen wir den Nutzen der neuen Datenquelle für die Wirkungsmessung. Nur 1,2 % (;-;-;-;https://link.springer.com/article/10.1007/s11192-016-2115-y a37d03cfe0566c1f50c57fa87beee710;de;;;3.4.;6.4.;;UK Research Assessment Exercises: Fundierte Beurteilungen der Forschungsqualität oder -quantität? Eine Längsschnittanalyse der britischen Wissenschaft über fast 20 Jahre ergab in den Jahren vor einer Forschungsbewertungsübung (RAE 1992, 1996 und 2001) drei unterschiedliche bibliometrische Muster, die als Reaktionen der Wissenschaftler auf die wichtigsten Bewertungskriterien interpretiert werden können, die in ein RAE. Als in der RAE 1992 die Gesamtzahl der Veröffentlichungen angefordert wurde, steigerten britische Wissenschaftler ihre Artikelproduktion erheblich. Als im RAE 1996 eine Verschiebung der Bewertungskriterien von „Quantität“ zu „Qualität“ angekündigt wurde, erhöhten britische Autoren nach und nach die Zahl ihrer Veröffentlichungen in Zeitschriften mit relativ hoher Zitierwirkung. Und während 1997–2000 erhöhten die Institutionen ihre Zahl der aktiven wissenschaftlichen Mitarbeiter, indem sie ihre Mitarbeiter dazu anregten, intensiver zusammenzuarbeiten oder zumindest intensiver mitzuverfassen, obwohl dies bei ihrer gemeinsamen Papierproduktivität nicht der Fall war. Dieser Befund legt nahe, dass sich die bewerteten Einheiten auf dem Weg zum RAE 2001 gewissermaßen von „Qualität“ zu „Quantität“ zurückverlagert haben. Die Analyse beobachtete auch einen leichten Aufwärtstrend bei der Gesamtwirkung von Zitationen im Vereinigten Königreich, was die Schlussfolgerungen einer früheren Studie bestätigt. Die Implikationen der Ergebnisse für den Einsatz der Zitationsanalyse in der RAE werden kurz diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s11192-008-0108-1 aab0bc51062ea7410f2f6bd6617d6cc8;de;;;3.4.;6.4.;;Mimikry in der Wissenschaft? Da bibliometrische Indikatoren eine allgemeine wissenschaftspolitische Akzeptanz und Anwendungsrelevanz in der Forschungsevaluation erlangt haben, wird über Rückkopplungseffekte auf das Verhalten von Wissenschaftlerinnen und Wissenschaftlern berichtet, die sich aus der Verwendung dieser Indikatoren für Wissenschaftsförderungsentscheidungen ergeben. Diese Anpassungsstrategien könnten in der Wissenschaft als Mimikry bezeichnet werden. Wissenschaftler wenden Strategien an, die es ihnen ermöglichen sollen, der bibliometrischen Rechenschaftspflicht nachzukommen und Gelder für ihre eigene Forschung zu sichern.;-;-;-;https://link.springer.com/article/10.1007/s11192-010-0222-8 25ffd3673004d6f7b4245585f1aaf312;de;;;3.4.;6.4.;;Wie soll die gesellschaftliche Wirkung von Forschung generiert und gemessen werden? Ein Vorschlag für einen einfachen und praktikablen Ansatz, um interdisziplinäre Vergleiche zu ermöglichen Seit den 1990er Jahren hat sich der Umfang der Forschungsevaluation auf die gesellschaftlichen Produkte (Outputs), die gesellschaftliche Nutzung (gesellschaftliche Bezüge) und den gesellschaftlichen Nutzen (gesellschaftliche Veränderungen) der Forschung ausgeweitet. Die Forschungsevaluation wurde um Maßnahmen der (1) sozialen, (2) kulturellen, (3) ökologischen und (4) wirtschaftlichen Erträge aus öffentlich geförderter Forschung erweitert. Auch wenn noch keine robusten oder zuverlässigen Methoden zur Messung gesellschaftlicher Auswirkungen entwickelt wurden. In dieser Studie möchten wir einen Ansatz vorstellen, der im Gegensatz zum derzeit üblichen Fallstudienansatz (und anderen) relativ einfach ist, in nahezu allen Fachgebieten anwendbar ist und disziplinenvergleichbare Ergebnisse zur gesellschaftlichen Wirkung liefert. Unser Ansatz zu gesellschaftlicher Wirkung beginnt mit der eigentlichen Funktion der Wissenschaft in der Gesellschaft: verlässliches Wissen zu generieren. Deshalb stellt eine Studie, die den Stand der Forschung zu einem bestimmten Thema zusammenfasst (die wir als Sachstandsbericht bezeichnen möchten), Wissen dar, das der Gesellschaft zugänglich ist. Gesellschaftliche Wirkung ist gegeben, wenn der Inhalt eines Berichts außerhalb der Wissenschaft behandelt wird (z. B. in einem Regierungsdokument).;-;-;-;https://link.springer.com/article/10.1007/s11192-013-1020-x 6101a27c63796d607816914f09f8f886;de;;;3.4.;6.4.;;W&T-Ausbildung in Indien: Perspektiven und Herausforderungen Mit der Globalisierung des Arbeitsmarktes unterliegt die Hochschulbildung strukturellen Veränderungen und das Bildungsszenario weltweit erlebt dramatische und sich beschleunigende Veränderungen in den Mustern der Schaffung neuen Wissens. Ähnliche Aktivitäten sind in Indien bei der Produktion von hochqualifiziertem W&T-Personal in verschiedenen Disziplinen zu beobachten. In dieser Arbeit wird eine vergleichende Analyse von Promotionen, die in Indien in den Jahren 1974 bis 1999 in verschiedenen Bereichen erstellt wurden, mit Hilfe mathematischer Modelle durchgeführt. Neben der Analyse der Trends von hochqualifiziertem W&T-Personal mit Hilfe bekannter mathematischer Modelle wurden einige neue Substitutionsmodelle vorgeschlagen und angewendet, um den Wechsel von Forschern von einer Disziplin zur anderen zu erklären. Die Ergebnisse deuten darauf hin, dass Kunst, Handel, Bildung und Medizin wachsende Trends aufweisen, während Landwirtschaft, Wissenschaft und Veterinärmedizin einen rückläufigen Weg einschlagen. Darüber hinaus erweisen sich vorgeschlagene Modelle als flexibel und können die Schaltmuster sehr gut erfassen und erklären. Diese Modelle sind mit anderen bekannten Modellen vergleichbar, die sich mit der Technologiesubstitution beschäftigen.;-;-;-;https://link.springer.com/article/10.1023/B%3ASCIE.0000041646.78833.37 554d1de2075985e50e35a2f7b4a635e2;de;;;3.4.;6.4.;;Generieren automatisch gekennzeichneter Daten zur Disambiguierung des Autorennamens: eine iterative Clustering-Methode Um Algorithmen für die Disambiguierung von überwachten Autorennamen zu trainieren, haben sich viele Studien auf handbeschriftete Wahrheitsdaten verlassen, deren Generierung sehr aufwendig ist. Dieses Papier zeigt, dass gekennzeichnete Daten mithilfe von Informationsmerkmalen wie E-Mail-Adresse, Namen von Mitautoren und zitierten Referenzen, die aus Publikationsdatensätzen verfügbar sind, automatisch generiert werden können. Zu diesem Zweck werden hochpräzise Regeln zum Abgleichen von Namensinstanzen für jedes Merkmal unter Verwendung einer Datenbank einer externen Autorität entschieden. Anschließend durchlaufen ausgewählte Namensinstanzen in mehrdeutigen Zieldaten den Prozess des paarweisen Abgleichs basierend auf den Regeln. Als nächstes werden sie durch einen generischen Entitätsauflösungsalgorithmus zu Clustern zusammengeführt. Die Clustering-Prozedur wird über andere Merkmale wiederholt, bis eine weitere Zusammenführung unmöglich ist. Dieses iterative Clustering wurde an 26 K. Instanzen der 228 Kreis-Instanzen mit Autorennamen getestet und lieferte mit paarweisen;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2968-3 9afea432c16637891e5ccd13a7129cd5;de;;;3.4.;6.4.;;Die Blackbox des akademischen Unternehmertums öffnen: eine bibliometrische Analyse Die zunehmende Bedeutung des akademischen Unternehmertums als Schlüsselmechanismus für neue innovative Fortschritte und regionale wirtschaftliche Entwicklungen förderte eine Entwicklung dieses Forschungsbereichs. Die aufkeimende Literatur zu wichtigen Vorläufern und Konsequenzen akademischen Unternehmertums führte zu einer komplexen, vielschichtigen Konzeptentwicklung, die sowohl die Möglichkeiten zum Erfassen der entscheidenden Zusammenhänge als auch eine umfassende Bewertung der neuesten theoretischen Beiträge erschwert. Um das derzeitige Risiko einer weiteren Fragmentierung des Feldes zu verringern und den Vergleich mit den neu entstehenden Mustern zu unterstützen, versucht dieser Artikel daher, neue bibliometrische Erkenntnisse zu entwickeln und eine nuancierte Forschungsagenda für weitere Fortschritte zu skizzieren. Um eine quantitative Literaturrecherche durchzuführen, verwendet dieser Artikel eine bibliographische Kopplung an einer Stichprobe von 615 Web of Science-Peer-Review-Artikeln zum akademischen Unternehmertum. Um eine umfassende Interpretation der bibliometrischen Befunde durchführen zu können, führe ich eine zusätzliche hierarchische Clusterung der häufigen Begriffe und eine Inhaltsanalyse der Publikationen durch. Die Ergebnisse deuten darauf hin, dass das Forschungsfeld des akademischen Entrepreneurship auf vier miteinander verbundenen Clustern basiert: (1) die Anatomie einer unternehmerischen Universität und ihre Hauptkomponenten, (2) universitäre Ausgründungen und Technologiekommerzialisierung, (3) die Identität akademischer Unternehmer und ihre Motivationen und Hindernisse bei unternehmerischen Aktivitäten und (4) Wissenstransfer und regionale wirtschaftliche Auswirkungen. Diese Ergebnisse sind von großer Bedeutung für Akademiker, die unternehmerische Prozesse verbessern möchten, und für politische Entscheidungsträger, die an der Förderung des akademischen Unternehmertums interessiert sind.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03116-w 0cbdc60227bede086a39dc1024e6ece4;de;;;3.4.;6.4.;;Nationale Verbindungen internationaler wissenschaftlicher Zusammenarbeit und Forschermobilität gefunden in In den letzten Jahrzehnten hat die Internationalisierung der Forschungsaktivitäten zugenommen, wie die Phänomene der internationalen wissenschaftlichen Zusammenarbeit und der internationalen Mobilität von Forschern zeigen. In diesem Beitrag wird untersucht, ob die internationale wissenschaftliche Zusammenarbeit sowohl durch die Motivation der Forschenden als auch durch ihre internationale Migration erklärt wird. Verwenden von Metadaten aus Artikeln, die in . veröffentlicht wurden;-;-;-;https://link.springer.com/article/10.1007/s11192-016-2183-z 60e9cbb9d5156035f052b147dfcfdfb9;de;;;3.4.;6.4.;;Skaleneffekte in Wissenschafts- und Technologieagenturen Diese Studie ist die erste, die Schätzungen der Skaleneffekte in Wissenschafts- und Technologieagenturen liefert. Als solche wirft sie ein neues Licht auf Themen, die für politische Entscheidungsträger von Interesse sind. Die Studie stellt fest, dass Unternehmen mit einem Budget von weniger als 200 Millionen US-Dollar starke Skaleneffekte erzielen können. Die am wenigsten effiziente Agentur in der Studie benötigt 136-mal mehr Input pro Outputeinheit als die effizienteste. Die Studie war nicht in der Lage, Größennachteile von bis zu 3 Milliarden US-Dollar zu identifizieren. Die politischen Implikationen für Länder, die insbesondere in der Wissenschaft klein sind, werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF02026518 09ea98dabec0b4ebfaf04af6db6aaade;de;;;3.4.;6.4.;;Forschungsbewertung anhand früher Zitationsinformationen Peer-Review-basierte Forschungsbewertungen, wie sie in Australien, dem Vereinigten Königreich und einigen anderen Ländern durchgeführt werden, sind sehr kostspielig. Wir zeigen, dass Hochschulrankings in Wirtschaftswissenschaften auf der Grundlage langfristiger Zitationszahlen anhand von frühen Zitationen leicht vorhergesagt werden können. Dies würde es einer Forschungsbewertung ermöglichen, die relative langfristige Wirkung von Artikeln, die von einer Universität veröffentlicht wurden, unmittelbar am Ende des Evaluierungszeitraums vorherzusagen. Wir vergleichen diese auf Zitaten basierenden Hochschulrankings mit den Rankings der 2010 Excellence in Research Assessments in Australien und der 2008 Research Assessment Exercise in Großbritannien. Rangkorrelationen sind ziemlich stark, aber es gibt einige Unterschiede zwischen den Ranglisten. Wenn Gutachter jedoch bereit sind, die Zitationsanalyse zur Beurteilung einiger Disziplinen in Betracht zu ziehen, wie dies bei den Naturwissenschaften und der Psychologie in Australien der Fall ist, erscheint es sinnvoll, auch die Wirtschaftswissenschaften in diese Gruppe einzubeziehen.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-1979-1 bbc2df23c558ecd58283ad124e580925;de;;;3.4.;6.4.;;Aufbau eines synthetischen Indikators der Forschungsaktivität Die Anforderungen an die Hochschulen, transparent in Bezug auf Ressourceneinsatz und Zielerreichung zu agieren, erhöhen den Druck, ihre Position gegenüber anderen Hochschulen auf nationaler und internationaler Ebene zu klären. Es gibt jedoch mehrere Herausforderungen, die mit der Festlegung ihrer relativen Positionierung verbunden sind. Das erste Thema beschäftigt sich mit der Messung oder der Erfassung relevanter, relevanter und zweckdienlicher Daten. Zweitens müssen die Universitäten einen Gesamtindikator oder ein Ordnungsmittel erhalten, das hilft, die verschiedenen Indikatoren zu synthetisieren, und drittens müssen sie entscheiden, wie sie gewichtet werden. Jene Hochschulrankings, die versuchen, diese Fragen zu beantworten, stoßen auf Kritik, weil sie die Indikatoren subjektiv oder inkonsistent quantifizieren. Ziel der vorliegenden Arbeit ist es, ein Verfahren zu entwickeln, um alle Indikatoren zur objektiven Messung von universitärer F&E und Innovation in einem einzigen oder zusammenfassenden Konzept zusammenzufassen. Mit anderen Worten, ein Verfahren zu etablieren, das keine subjektiven Kriterien erfordert und das sowohl für absolute als auch für relativierte Indikatoren angewendet werden kann. Dieser Ansatz leistet einen doppelten Beitrag. Zunächst wird eine spezifische Anwendung, in diesem speziellen Fall für das spanische Hochschulsystem, erstellt, um einen synthetischen Indikator für die Forschungstätigkeit zu erhalten. Dies wird uns ermöglichen, ein F&E- und Innovationsranking für spanische Universitäten zu erreichen. Zweitens leistet die Arbeit einen methodischen Beitrag durch die Verwendung einer neuen Technik zur Synthese dieser Art von Indikator, nämlich Partial Least Squares (PLS).;-;-;-;https://link.springer.com/article/10.1007/s11192-016-2037-8 4ef49ea65537659b214c023978961f3b;de;;;3.4.;6.4.;;Wissenschaftliche Veröffentlichungen in US-Bundesforschungslabors In diesem Papier konzentrieren wir uns auf wissenschaftliche Veröffentlichungen als innovatives Ergebnis der Forschungsbemühungen in US-Bundeslaboratorien. Die verwendeten Daten beziehen sich auf vom Bund finanzierte Forschungs- und Entwicklungszentren (FFRDCs). Das Verhältnis zwischen den FuE-Ausgaben dieser Bundeslabore und ihren begutachteten wissenschaftlichen Publikationen lässt Rückschlüsse auf die Rendite der öffentlichen FuE zu. Wir untersuchen zwei komplementäre statistische Modelle. Aus dem ersten Modell geht hervor, dass ein Anstieg der öffentlichen FuE im öffentlichen Sektor um 10 % mit einem Anstieg der wissenschaftlichen Veröffentlichungen zwischen 15,5 und 21,5% verbunden ist. Aus dem zweiten Modell geht hervor, dass die jährliche Rendite, die durch zusätzliche 1 Million US-Dollar an FuE-basiertem Wissensbestand generiert wird, in den FFRDCs variiert und durchschnittlich etwa 93 zusätzliche wissenschaftliche Veröffentlichungen beträgt, wobei die statistisch signifikanten Werte zwischen etwa 1 und sogar rund 400 weitere wissenschaftliche Publikationen.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03854-2 82db1a6fbbd48b435c050605b15b56cf;de;;;3.4.;6.4.;;Wirtschaftssanktionen und F&E Dieser Artikel identifiziert die Auswirkungen von Desinvestitionen auf die F&E-Aktivitäten in Südafrika. Die Bedeutung des Artikels liegt in seiner wissenschafts- und handelspolitischen Relevanz und in der Auseinandersetzung mit diesem Sanktionswinkel gegen Südafrika. Die Ergebnisse deuten darauf hin, dass ausländische Unternehmen ihre F&E-Aktivitäten mit zunehmender Desinvestitionsgefahr verstärken. Das gleiche Phänomen gilt für das neue Management von Unternehmen, die desinvestieren. Ein wichtiges Nebenergebnis ist die Tatsache, dass nur ein kleiner Teil (3%) der FuE-Aktivitäten im Land von Unternehmen in ausländischem Besitz durchgeführt wird. Für die beobachteten Verhaltensweisen werden eine Reihe von Erklärungen angeboten.;-;-;-;https://link.springer.com/article/10.1007/BF02016929 b9e18bccfbb605501f5c0d082ed6b55d;de;;;3.4.;6.4.;;Pfadabhängigkeiten von Wissenschaftssystemen und ihre Einflüsse: Nanotechnologieforschung in Russland In diesem Papier untersuchen wir den Einfluss von Pfadabhängigkeiten auf die Entwicklung einer neuen Technologie in einer Übergangswirtschaft. Unser Fokus liegt auf der Entwicklung der Nanotechnologie in Russland im Zeitraum zwischen 1990 und 2012. Durch die Untersuchung von Ergebnissen, Publikationspfaden und Kooperationsmustern identifizieren wir eine Reihe von Faktoren, die dazu beitragen, den begrenzten Erfolg Russlands bei der Nutzung seiner ehrgeizigen nationalen Nanotechnologie-Initiative zu erklären. Die Analyse hebt vier pfadabhängige Tendenzen der russischen Nanotechnologieforschung hervor: Publikationswege und die Gatekeeper-Rolle der Russischen Akademie der Wissenschaften, zunehmende geografische und institutionelle Zentralisierung der Nanotechnologieforschung, begrenzte institutionelle Verbreitung und Muster im Zusammenhang mit der Internationalisierung der russischen Forschung. Wir diskutieren politische Implikationen im Zusammenhang mit der Pfadabhängigkeit, der Nanotechnologieforschung in Russland und der umfassenderen Reform des russischen Wissenschaftssystems.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-1916-3 652591d0c439ec597dc3b8c6fb4dc929;de;;;3.4.;6.4.;;Veröffentlichen oder nicht veröffentlichen? Zur Aggregation und den Treibern der Forschungsleistung In diesem Beitrag wird eine Methodik zur Aggregation multidimensionaler Forschungsergebnisse vorgestellt. Mit einer maßgeschneiderten Version des nichtparametrischen Data Envelopment Analysis-Modells tragen wir der großen Heterogenität des Forschungsoutputs und den individuellen Forscherpräferenzen durch eine endogene Gewichtung der verschiedenen Outputdimensionen Rechnung. Der Ansatz bietet gegenüber den traditionellen Ansätzen drei wichtige Vorteile: (1) Flexibilität bei der Aggregation unterschiedlicher Forschungsergebnisse zu einer Gesamtbewertungsnote, (2) Reduzierung der Auswirkungen von Messfehlern und atypischen Beobachtungen und (3) eine Korrektur für die Einflüsse einer Vielzahl von Faktoren, die außerhalb der Kontrolle des evaluierten Forschers liegen. Im Ergebnis sind Forschungsevaluationen effektivere Darstellungen der tatsächlichen Forschungsleistung. Die Methodik wird anhand eines Datensatzes aller Fakultätsmitglieder einer großen polytechnischen Universität in Belgien veranschaulicht. Die Stichprobe umfasst Fragebogenitems zur Motivation und Wahrnehmung des Forschers. Auf diese Weise können wir untersuchen, ob Motivation und Hintergrundmerkmale (wie Alter, Geschlecht, Verbleib usw.) der Forscher Variationen in der gemessenen Forschungsleistung erklären.;-;-;-;https://link.springer.com/article/10.1007/s11192-010-0286-5 1bb634d6f0102e533a5a3d79480c8bfe;de;;;3.4.;6.4.;;Überblick über die wissenschaftliche Produktion im Bereich Pharmazie in Brasilien: Profil und Produktivität von Forschern, die mit Stipendien des Nationalen Rates für wissenschaftliche und technologische Entwicklung gefördert werden In Brasilien vergibt der Nationale Rat für wissenschaftliche und technologische Entwicklung (CNPq) Produktivitätsstipendien in der Forschung (RS) als Anerkennung an Personen mit herausragender Produktivität in ihrem Bereich. Das Ziel dieser Studie ist es, die wissenschaftliche Leistung des brasilianischen Pharmaziebereichs, einer Abteilung des Gesundheitswissenschaften Great Area von CNPq, unter Berücksichtigung des Profils und der Produktivität der RS-Stipendiaten zu bewerten. Die Ergebnisse zeigten, dass die meisten der 156 aktiven RS-Stipendiaten im Jahr 2015 Frauen waren, die in der Region Südost (hauptsächlich an der Universität São Paulo) promoviert wurden und in den Regionen Süd und Südost Forschungsaktivitäten entwickelt haben. Die meisten ihrer Arbeiten wurden in Zeitschriften veröffentlicht, die von der Koordination für die Verbesserung des Hochschulpersonals (CAPES) als B1 und B2 Qualis in Pharmacy klassifiziert wurden, mit hoher Verbreitung in lokalen Zeitschriften und/oder spezialisierten auf Heilpflanzen. Außerdem wiesen sie eine große Abhängigkeit von Beratungs- und Produktivitätsindizes in Bezug auf die Kategorie und das Niveau der RS-Gemeinschaft auf. Die Entwicklung dieser Daten muss kontinuierlich ausgewertet werden, um den Einfluss der CNPq-Produktivitätsstipendien auf die Leistung und die Stratifizierung von Forschern im Pharmaziebereich in Brasilien zu bestimmen.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-2210-0 51354f2f6b440ff0f5729377fe2c9c2d;de;;;3.4.;6.4.;;Wie lange ist der Publikationszeitraum angemessen, um die Forschungsleistung zu bewerten? Nationale Forschungsbewertungsübungen werden in verschiedenen Ländern über unterschiedliche Zeiträume hinweg durchgeführt. Die Wahl des zu beachtenden Publikationszeitraums muss häufig gegensätzlichen Bedürfnissen Rechnung tragen: Er muss die Verlässlichkeit der Ergebnisse der Evaluation gewährleisten, aber auch das Erreichen häufiger Bewertungen erreichen. In dieser Arbeit versuchen wir herauszufinden, welcher Publikationszeitraum am besten geeignet oder optimal ist. Dazu analysieren wir die Variation der Produktivitätsrankings einzelner Forscher mit der Länge des Publikationszeitraums im Zeitraum 2003–2008 von den über 30.000 italienischen Universitätswissenschaftlern in den Hard Sciences. Zunächst analysieren wir die Variation in den Rankings, die sich auf Paare von zusammenhängenden und überlappenden Publikationszeiträumen beziehen, und zeigen, dass die Variationen mit Zeiträumen über 3 Jahren deutlich abnehmen. Dann zeigen wir die starke Zufälligkeit von Leistungsrankings über Veröffentlichungszeiträume unter 3 Jahren. Wir kommen zu dem Schluss, dass die Wahl eines dreijährigen Publikationszeitraums insbesondere für Physik, Chemie, Biologie und Medizin zuverlässig erscheint.;-;-;-;https://link.springer.com/article/10.1007/s11192-012-0714-9 d8622535f8bd1abf886a149b8c0ffd14;de;;;3.4.;6.4.;;Brasilianische wissenschaftliche Produktion in Bereichen der Biowissenschaften: eine vergleichende Studie zu den Modalitäten der vollständigen Promotion in Brasilien oder im Ausland Es kann wichtig sein, die brasilianische wissenschaftliche Leistung von Forschern zu kennen und zu vergleichen, die in Brasilien oder im Ausland promoviert haben, um die Entwicklung der Wissenschaft im Land zu bewerten. In diesem Zusammenhang sollte die aktuelle Studie die Entwicklung der wissenschaftlichen Produktion von Forschern überprüfen, die zwischen 1997 und 2002 in Brasilien oder im Ausland promoviert haben 9 Jahre nach Abschluss der Promotion. Die Daten stammen aus der Datenbank von CAPES (Foundation for Higher Education Development in Brazil), CNPq (National Council of Technological and Scientific Development), Lattes, Web of Science (Institute for Scientific Information (ISI) und Scival – Scopus). In Bezug auf die Quantität haben Forscher, die in Brasilien eine vollständige Doktorarbeit gemacht haben, mehr Artikel veröffentlicht als die Forscher, die es im Ausland gemacht haben. Artikel von Forschern, die in Brasilien promovierten, wurden jedoch in Zeitschriften mit einem geringeren Impact Factor veröffentlicht und erhielten weniger Zitate als die Artikel von Forschern, die im Ausland promovierten. Die Ergebnisse zeigen, dass die qualitative Leistung von Forschern, die im Ausland promovierten, besser war als die von Forschern, die in Brasilien promovierten. Folglich muss die Politik der brasilianischen Regierung darauf ausgerichtet sein, die Relevanz brasilianischer Artikel in Bezug auf wissenschaftliche Qualität und internationale Einbindung zu erhöhen.;-;-;-;https://link.springer.com/article/10.1007/s11192-013-1017-5 0b60426c937158ab6151d50efc1e43b3;de;;;3.4.;6.4.;;„Auflistungsautorenbeitrag“ ändert nichts an der Autoreninflation in den Veröffentlichungen in der Grundlagenforschung in vier großen gastroenterologischen Fachzeitschriften in 10 Jahren Die Zahl der Autoren und deren Beiträge in wissenschaftlichen Originalpublikationen ziehen seit Jahren die Aufmerksamkeit der Herausgeber auf sich. Einige Zeitschriften verlangen ausdrücklich, dass die Autoren ihre Beiträge auf der Titelseite auflisten. Ob diese Anforderung sinnvoll ist, bleibt jedoch unklar. Die vorliegende Studie sollte den Trend der Autorenzahlen der letzten 10 Jahre in vier großen gastroenterologischen Fachzeitschriften aufzeigen. Es wurden vier große Zeitschriften der Gastroenterologie (Gastroenterology, Gut, Journal of Hepatology and Hepatology) zwischen dem 1. Januar 2005 und dem 31. Dezember 2014 durchsucht. Wir haben uns auf die Grundlagenforschung beschränkt. Die durchschnittliche Anzahl der Autoren der in jeder Zeitschrift veröffentlichten Artikel wurde berechnet und alle Änderungen der Autorenzahlen über den Suchzeitraum verglichen. Wir fanden heraus, dass Gastroenterology und Gut seit 2010 von den Autoren verlangen, Beiträge aufzulisten, und Journal of Hepatology and Hepatology tat dasselbe im Jahr 2012. Wir untersuchten daher auch, ob sich die Autorenzahlen in Studien, die in Gastroenterology und Gut vor und nach 2010 und davor veröffentlicht wurden, geändert haben und nach 2012 im Journal of Hepatology and Hepatology. Die Autorenzahlen sind in den letzten 10 Jahren gestiegen. Diese Zahl wurde in den zwischen 2010 und 2014 veröffentlichten Papieren im Vergleich zu denen zwischen 2005 und 2009 deutlich erhöht (;-;-;-;https://link.springer.com/article/10.1007/s11192-016-1923-4 e16184dc21b15ea04696d94320462f6f;de;;;3.4.;6.4.;;Messung der Verlagsproduktivität von Wirtschaftsabteilungen in Europa In diesem Beitrag bewerten wir die relative Leistung der Wirtschaftswissenschaften in Europa anhand von Publikationsdaten in einem Kernsatz von fünfunddreißig führenden wirtschaftswissenschaftlichen Zeitschriften im Zeitraum 2007–2011. Wir messen die Leistung auf der Grundlage eines Veröffentlichungsproduktivitätsindex, der es ermöglicht, Unterschiede in den Forschungsleistungen zwischen den Abteilungen zu berücksichtigen. Die Messung des Publikationsproduktivitätsindex basiert auf der Zählung von qualitätsbereinigten Artikeln pro Fakultät unter Verwendung von Zeitschriftengewichtungen, die über den gleichen Zeitraum wie unsere Studie berechnet wurden. Basierend auf der Veröffentlichungsproduktivität werden umfassende Rankings auf Abteilungs- und Länderebene erstellt.;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2509-5 b818882c4a064621645addcaddad431d;de;;;3.4.;6.4.;;Mining-Eigenschaften von Twitter-Altmetrics-Daten auf Netzwerkebene Social-Networking-Sites spielen eine wichtige Rolle bei Altmetrics. Während 90% aller Altmetric-Erwähnungen von Twitter stammen, sind die bekannten mikroskopischen und makroskopischen Eigenschaften von Twitter-Altmetrics-Daten begrenzt. In dieser Studie präsentieren wir eine groß angelegte Analyse von Twitter-Altmetrics-Daten unter Verwendung von Analysetechniken für soziale Netzwerke im „Erwähnungsnetzwerk“ von Twitter-Nutzern. Diese Studie nutzt die Eigenschaften von über 1,4 Millionen Tweets auf Netzwerkebene, die 77.757 wissenschaftlichen Artikeln entsprechen, und konzentriert sich auf die folgenden Aspekte von Twitter-Altmetrics-Daten: (a) der Einfluss von Unternehmenskonten, (b) die Bildung von Disziplinargemeinschaften, (c ) die interdisziplinäre Interaktion zwischen Twitter-Nutzern, (d) die Netzwerkmotive einflussreicher Twitter-Nutzer und (e) das Testen der Small-World-Eigenschaft. Die Ergebnisse zeigen, dass Twitter-basierte Social-Media-Communitys einzigartige Merkmale aufweisen, die sich direkt oder indirekt auf die Anzahl der Social-Media-Nutzung auswirken können. Anstatt Altmetrics-Daten als Blackbox zu behandeln, müssen daher die zugrunde liegenden Social-Media-Netzwerke, die die Anzahl der Social-Media-Nutzung entweder erhöhen oder verringern können, einer weiteren Prüfung unterzogen werden.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03112-0 3d437b64ed401df8bd2acf618a0fd5e3;de;;;3.4.;6.4.;;Wissenschaftliche Forschungspublikationen an medizinischen Universitäten der Russischen Föderation. Eine 24-Jahres-Perspektive Der Artikel konzentriert sich auf die Dynamik der Publikationstätigkeit medizinischer Universitäten in der Russischen Föderation im Zeitraum 1996–2019. Basierend auf der Anzahl der in der Scopus-Datenbank indizierten Publikationen wurden 28 Institutionen für die Analyse ausgewählt, die einen signifikanten Beitrag geleistet haben. Insgesamt haben die russischen medizinischen Universitäten in den letzten Jahren ein schnelles Wachstum der Publikationstätigkeit gezeigt. Es wurden mehrere typische Wachstumsmuster identifiziert, die von der Mehrheit der Institute geteilt werden. Es wurde festgestellt, dass diese Muster unabhängig von Finanzierung und Anzahl des Personals oder geografischer Lage sind und höchstwahrscheinlich die Auswirkungen der einzelnen institutionellen Richtlinien im Bereich der wissenschaftlichen Forschung widerspiegeln. Darüber hinaus untersuchten wir die Struktur des gesamten wissenschaftlichen Outputs jeder Institution in Bezug auf wissenschaftliche Bereiche, Häufigkeit internationaler Kooperationen und Publikationssprache, die alle eine signifikante Variabilität gezeigt haben. Die Dynamik des Zitierens wurde ebenfalls analysiert. Während medizinische Universitäten in der Russischen Föderation Fortschritte bei der Publikationstätigkeit machen, muss sich das Zitationsprofil noch verbessern.;-;-;-;https://link.springer.com/article/10.1007/s12109-021-09816-7 6171be7723410a3a3fbdd69ba0b5db4f;de;;;3.4.;6.4.;;Optimale Zusammensetzung des Forschungsteams: Datenumhüllungsanalyse von Fermilab-Experimenten Wir verwenden Datenumhüllungsanalysen für eine Reihe von Experimenten, die im Fermilab, einem der größten Hochenergiephysik-Labors der Welt, durchgeführt wurden, um ihre Effizienz (gemessen an Veröffentlichungs- und Zitationsraten) in Bezug auf Variationen der Teamgröße, Anzahl der Teams pro Experiment und Abschlusszeit. Wir präsentieren die Ergebnisse und analysieren sie, wobei wir uns insbesondere auf inhärente Zusammenhänge zwischen quantitativer Teamzusammensetzung und Diversität konzentrieren und sie in Bezug auf andere Faktoren diskutieren, die zur wissenschaftlichen Produktion im weiteren Sinne beitragen. Unsere Ergebnisse stimmen mit den Ergebnissen anderer wissenschaftlicher Studien überein, die zeigen, dass kleinere Forschungsteams produktiver sind, und mit der Vermutung über eine krummlinige Abhängigkeit von Teamgröße und Effizienz.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-1947-9 a1d8ce595fb663f21a32b281b3ac8bfb;de;;;3.4.;6.4.;;Was macht ein großartiges Journal in den Wissenschaften großartig? Was war zuerst da, das Huhn oder das Ei? Der Artikel befasst sich mit der Analyse dessen, was eine großartige Zeitschrift in den Wissenschaften ausmacht, basierend auf quantifizierbaren Research Assessment Measures (RAM). Alternative RAM werden diskutiert, wobei der Schwerpunkt auf der Thomson Reuters ISI Web of Science-Datenbank (im Folgenden ISI) liegt. Verschiedene jährlich berechnete oder täglich aktualisierte ISI RAM werden definiert und analysiert, darunter der klassische 2-Jahres-Impact-Faktor (2YIF), 5-Jahres-Impact-Faktor (5YIF), Immediacy (oder 0-Jahres-Impact-Faktor (0YIF)), Eigenfaktor , Article Influence, C3PO (Citation Performance Per Paper Online), h-index, Zinfluence, PI-BETA (Papers Ignored – By the Authors), Impact Factor Inflation (IFI) und drei neue RAM, nämlich Historical Self-Citation Threshold Zulassungsbewertung (H-STAR), 2-Jahres-Selbstzitatschwellenbewertung (2Y-STAR) und Einfluss auf zitierte Artikel (CAI). Die RAM-Daten werden für die 6 meistzitierten Zeitschriften in 20 sehr unterschiedlichen und bekannten ISI-Kategorien in den Wissenschaften analysiert, wobei die Zeitschriften auf Basis von 2YIF ausgewählt werden. Die Bewerbung für diese 20 ISI-Kategorien könnte als Vorlage für andere ISI-Kategorien in den Natur- und Sozialwissenschaften und als Benchmark für neuere Zeitschriften in einer Reihe von ISI-Disziplinen verwendet werden. Neben der Bewertung der 6 am häufigsten zitierten Zeitschriften in jeder der 20 ISI-Kategorien hebt der Artikel auch die Ähnlichkeiten und Unterschiede bei alternativem RAM hervor, stellt fest, dass mehrere RAM ähnliche Leistungsmerkmale für die am häufigsten zitierten wissenschaftlichen Zeitschriften aufweisen, stellt fest, dass PI-BETA ist nicht stark mit dem anderen RAM korreliert und vermittelt daher zusätzliche Informationen über die Forschungsleistung. Um eine Metaanalyse-Zusammenfassung des RAM zu liefern, bei dem es sich überwiegend um Verhältnisse handelt, werden harmonische Mittelwerte der 13 RAM für die 6 am häufigsten zitierten Zeitschriften in jeder der 20 ISI-Kategorien präsentiert. Es zeigt sich, dass die Betonung DES Impact-Faktors, insbesondere des 2-Jahres-Impact-Faktors, einer Zeitschrift unter Ausschluss anderer informativer RAMs zu einer verzerrten Bewertung der Zeitschriftenleistung und des Einflusses auf verschiedene Disziplinen führen kann, insbesondere im Hinblick auf überhöhte Zeitschriften-Selbstzitate .;-;-;-;https://link.springer.com/article/10.1007/s11192-010-0335-0 c40131b68ec65b26e4d507a7a67f319e;de;;;3.4.;6.4.;;Muster der Wissensproduktion: Der Fall des Informations- und Telekommunikationssektors in Korea In den letzten Jahren wurde das Thema Wissensproduktion in den fortgeschrittenen Ländern intensiv untersucht. Der Prozess der Wissensproduktion in den Entwicklungsländern ist jedoch noch nicht vollständig erforscht oder charakterisiert. In Korea spiegeln die naturwissenschaftlichen und ingenieurwissenschaftlichen Bereiche stark die Systeme der Wissensproduktion an den Universitäten wider und demonstrieren die Dynamik von Innovationssystemen zur Wissensproduktion. Anhand einer Fallstudie mit Daten zur Wissensproduktion im Bereich Information und Telekommunikation wurden die folgenden allgemeinen Trends beobachtet. Erstens gibt es einen Trend zur Erhöhung der Fähigkeiten zur Wissensproduktion durch in- und ausländische Kooperationen. Zweitens gibt es einen zunehmenden Trend zur Diversifizierung von Wissensquellen wie der universitären Industrie und universitären öffentlichen Forschungsinstituten. Schließlich wird der Aufbau der Wissensbasis einer Nation durch die Forschungs- und Entwicklungspolitik der Regierung beeinflusst.;-;-;-;https://link.springer.com/article/10.1023/A%3A1025431608461 e4711d7e69a39578510f9fb0c0c82da0;de;;;3.4.;6.4.;;Zeitschriften, die ihren Impact Factor in wenigen Jahren mindestens vervierfachen: Die Rolle der Zeitschriften-Selbstzitate Ziel dieser Studie war es, den möglichen Effekt von Zeitschriften-Selbstzitaten auf die Erhöhung der Impact-Faktoren von Zeitschriften zu ermitteln, bei denen sich dieser szientometrische Indikator in nur wenigen Jahren um mindestens das Vierfache erhöht hat. Aus den Thomson-Reuters (ehemals ISI) Journal Citation Reports wurden 43 Zeitschriften ausgewählt, die das obige Kriterium erfüllen. Acht Zeitschriften, bei denen die absolute Zahl der Zitationen in mindestens zwei Jahren unter 20 lag, wurden ausgeschlossen, sodass die Endstichprobe aus 35 Zeitschriften bestand. Wir fanden keinen Beweis für eine weit verbreitete Manipulation des Impact-Faktors durch den massiven Einsatz von Zeitschriften-Selbstzitaten.;-;-;-;https://link.springer.com/article/10.1007/s11192-008-2085-9 4b77749e36d4f91d6997403f4d019502;de;;;3.4.;6.4.;;Die Schönheit des Zitronenfalters: Neuheit von Patenten, die durch eine Umgebungsanalyse auf der Grundlage von Text Mining identifiziert wurden Die Neuheit eines Patents kann als Muster angesehen werden, das es von anderen Patenten und wissenschaftlicher Literatur unterscheidet. Sein Verständnis kann für viele Zwecke dienen, sowohl für die szientometrische Forschung als auch für das Management technologischer Informationen. Während es viele Methoden gibt, die sich mit den Metainformationen eines Patents befassen, wie z. B. Zitationsnetzwerke oder Co-Klassifikationsanalysen, steht die Neuheitsanalyse im Volltext eines Patents noch am Anfang der Forschung und in der Praxis eine zeitaufwändige manuelle Aufgabe. Wir stellen uns die Frage, ob computerbasierte Text-Mining-Methoden in der Lage sind, diejenigen Elemente eines solchen Patents zu identifizieren, die es aus technologischer und Anwendungs-/Marktperspektive neu machen. Zu diesem Zweck führen wir das Konzept der Nahumgebungsanalyse ein und operationalisieren es und wenden einen dreistufigen Text-Mining-Ansatz auf eines der Patente an, die als Finalist des European Inventor Award 2012 nominiert wurden. Wir zeigen, dass ein solcher Ansatz in der Lage ist, die Neuheit des Patents in einer nahen Umgebung inhaltlich herauszuheben. Das Verfahren kann auch für andere Patente und – unter Anpassung der Nahumgebungsanalyse – für wissenschaftliche Literatur verwendet werden.;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2267-4 44d538625309d3089e060f10e5a3b21c;de;;;3.4.;6.4.;;Wer wird von Experten begutachtet? Vergleich der Publikationsmuster von peer-reviewed und non peer-reviewed Papers in der japanischen Politikwissenschaft Bis vor kurzem haben sich einige Bereiche der Sozial- und Geisteswissenschaften ohne Peer-Review (PR)-Systeme entwickelt. Seit der Einführung des PR-Systems wurden nicht-peer-reviewed Studien in großem Umfang veröffentlicht und es haben sich unterschiedliche Publikationsmuster zwischen peer-reviewed (PRd) und non-peer-reviewed (NPRd) Artikeln herausgebildet. Diese Studie untersucht die Muster von PRd- und NPRd-Papieren in politikwissenschaftlichen Zeitschriften in Japan. Nach der Analyse dieser Studie werden PRd-Papiere hauptsächlich von jungen Forschern in den Dreißigern veröffentlicht. Mit zunehmendem Alter der Forscher nimmt der Anteil der von ihnen veröffentlichten PRd-Papiere ab. Das Lebenszyklusmuster eines Forschers ist unabhängig von den Zeitschriften oder den Forschungsmethoden strukturiert. Wenn die verallgemeinerten Normen und Verhaltensmuster in Bezug auf PR als PR-Kultur bezeichnet werden, dann gibt es die PR-Kultur in diesem Bereich, die festlegt: „PR ist ein Spiel der jungen Leute“. Dabei wird vom PR-System erwartet, dass es nicht nur Forschungsinhalte bewertet, sondern auch Neueinsteiger auf dem Gebiet bewertet.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03197-7 916099bd8516b531a9ada238eb8d3ab1;de;;;3.4.;6.4.;;Field-Weighting-Leserschaft: Wie vergleicht es sich mit Field-Weighting-Zitaten? Die jüngsten Fortschritte bei der Rechenleistung und die Weiterentwicklung des Internets bedeuten, dass wir heute Zugang zu einem breiteren Datenspektrum haben als je zuvor. Bei sachgemäßer Anwendung und in Verbindung mit Peer-Evaluation und sorgfältiger Interpretation können Metriken die Forschungsbewertung durch die Vorteile ihrer Unparteilichkeit, Vergleichbarkeit und Skalierbarkeit informieren und verbessern. Es wurde mehrfach gefordert, einen „Korb von Metriken“ in die Forschungsevaluation einzubeziehen. Forschung ist jedoch ein vielschichtiges und komplexes Unterfangen. Die Ergebnisse und Ergebnisse variieren insbesondere je nach Bereich, sodass die Messung der Forschungswirkung eine Herausforderung darstellen kann. In diesem Beitrag reflektieren wir das Konzept der Feldgewichtung und diskutieren Methoden zur Feldgewichtung. Wir untersuchen Anwendungen der Feldgewichtung für Mendeley-Reads und präsentieren vergleichende Analysen des feldgewichteten Citation Impact (FWCI) und des feldgewichteten Readership Impact (FWRI). Wir sehen, dass es eine starke Korrelation zwischen der Anzahl der zitierten und gelesenen Artikel pro Land gibt. Insgesamt liegen die FWCI- und FWRI-Werte pro Fachgebiet für die produktivsten Länder nahe beieinander. Variationen pro Land gelten tendenziell pro Feld. FWRI scheint eine robuste Metrik zu sein, die eine nützliche Ergänzung zu FWCI bieten kann, da sie Einblicke in einen anderen Teil des wissenschaftlichen Kommunikationszyklus bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1053-9_8 3d29f55d61bdc7a597502c4a023a72ca;de;;;3.4.;6.4.;;Wachstum und Veralterung der Literatur zur theoretischen Populationsgenetik Untersucht die Beziehung zwischen Wachstumsraten und Obsoleszenzraten und der Halbwertszeit der theoretischen Literatur zur Populationsgenetik. Untersucht die Anwendung der Lognormalverteilung bei der Altersverteilung von Zitaten über einen bestimmten Zeitraum.;-;-;-;https://link.springer.com/article/10.1007/BF02458376 8aa46ea899081e3aa5f727e4550891d8;de;;;3.4.;6.4.;;Die Rolle der Fachliteratur im Kommunikationssystem Bibliometrische Methoden unterschätzen die technologische Forschung im Allgemeinen. Diese Studie untersucht die Beziehung in der Literatur zwischen technisch-industriellen Zeitschriften und wissenschaftlichen Zeitschriften im Fall der Kunststoffindustrie und der Polymerwissenschaften. Fachzeitschriften können nicht direkt bibliometrisch verwendet werden, können aber eine Hilfe bei der Zuordnung der verschiedenen Gruppen sein und die „versteckte“ Kommunikation zwischen Technologie- und Wissenschaftsgemeinschaften aufdecken.;-;-;-;https://link.springer.com/article/10.1007/BF02017176 199da7e9e0caf73d934b7d0b5a103dd5;de;;;3.4.;6.4.;;Strukturwandel in der W&T-Forschung in Indien Bevor Indien ein unabhängiges Land wurde, konnten seine Wissenschaftler und politischen Entscheidungsträger die Bedeutung der Wissenschaft für seine Entwicklung vorhersehen, und dementsprechend wurden eine Reihe von Forschungs- und Entwicklungseinrichtungen (FuE) gegründet. Während dieser fünf Jahrzehnte der Unabhängigkeit war die Wahl zwischen Grundlagenwissenschaften und Technologie jedoch immer ein Diskussionsthema. Es ist jetzt angebracht, die sich ändernden Muster des Arbeitskräftewachstums in Wissenschaft und Technologie (W&T) zu untersuchen, um die grundlegende Wahrheit herauszufinden. Die vorliegende Studie bezieht sich auf die Analyse von W&T-Ergebnisdaten in verschiedenen Bereichen der wissenschaftlichen Forschung, die als Grundlage für W&T-Planung und Politikgestaltung dienen können. Diese W&T-Indikatoren werden bei der Einschätzung des zukünftigen Bedarfs hilfreich sein, was wiederum in hohem Maße bei der Formulierung von Wissenschafts- und Technologiepolitik nützlich sein kann. Diese Schätzungen und Zukunftsprognosen basieren auf einer mathematischen Modellierung der Daten über die Leistung von hochqualifiziertem wissenschaftlichem und technischem (W&T)-Personal in Indien aus verschiedenen Fakultäten im Zeitraum 1990-1998. Aus der Trendanalyse geht hervor, dass die Forschung nur im Ingenieur- und Medizinbereich als interessanter Beruf wahrgenommen wird. Die Ergebnisse deuten ferner darauf hin, dass es eine deutliche Verschiebung von den Grundlagenwissenschaften zur Technologie gibt.;-;-;-;https://link.springer.com/article/10.1023/A%3A1010529908519 3bacd3222eb54c00467980e8fc171453;de;;;3.4.;6.4.;;Power-Law-Verteilungen der Innovationsleistung von Unternehmen: Beweise aus US-Patentdaten Ziel dieser Studie ist es, die Existenz und die Eigenschaften von Machtgesetzen bei der Verteilung der Innovationsleistung von Unternehmen zu untersuchen. Anhand eines Datensatzes mit Informationen zu 1.102.839 US-Patentanmeldungen von 94.103 US-Privatfirmen im Zeitraum 1976–2000 stellen wir fest, dass die Innovationsleistung von Unternehmen, gemessen entweder durch einfache oder qualitätsbereinigte Patentzahlen, Potenzgesetz-Verteilungen folgt, die theoretisch unendliche Varianzen und in einigen Fällen unendliche Mittelwerte. Darüber hinaus stellen wir fest, dass die Innovationsleistung von Unternehmen in allen technologischen Bereichen nach dem Potenzgesetz verteilt ist. Wir stellen ferner fest, dass die Verteilung des Innovationsoutputs von Unternehmen nach dem Potenzgesetz tendenziell stärker ist (d. h. die Konzentration des Innovationsoutputs der Unternehmen auf wenige Firmen ist stärker ausgeprägt) in Technologiefeldern mit reichlicheren technologischen Möglichkeiten und für Unternehmen mit höherer technologischer Kompetenz.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03304-8 44af2df8eb6c625a3d39edc8612facc8;de;;;3.4.;6.4.;;Die Auswirkungen der nationalen Bewertungsübungen auf die Selbstzitationsrate und den Publikationsort: eine empirische Untersuchung zum ingenieurwissenschaftlichen akademischen Sektor in Italien Das Ziel der vorliegenden Studie ist es, einen Überblick über die Forschungsaktivitäten in Bezug auf Produktivität und Wirkung der italienischen öffentlichen Universitäten und ihres akademischen Personals im Ingenieursektor (EngSec) zu geben, das sind etwa 7000 Forscher. Neben der gestiegenen bibliometrischen Leistung des betrachteten Forschungsbereichs in den letzten zehn Jahren wird die Aufmerksamkeit auf mögliche Rückkopplungen zu Veröffentlichungsgewohnheiten gerichtet, die durch Regulierungen verursacht werden, die in der Forschungswelt nach und nach starke Wettbewerbselemente wie Evaluierungsübungen eingeführt haben, die sowohl die einzelne Forscherkarriere und das Fördersystem. Die Auswirkungen dieses Feedbacks werden auch unter dem Gesichtspunkt des Phänomens der Selbstzitation untersucht, das zunehmend die Forschungswelt insgesamt betreffen soll. Der EngSec wird sowohl als Ganzes als auch in kulturelle Bereiche zerlegt, um einen umfassenderen Überblick über dieses wichtige kulturelle Segment der Wissenschaft zu geben. In 10 Jahren wird die Produktivität des Sektors in Bezug auf Scopus-Dokumente ungefähr verdoppelt, mit einer konsequenten Verlagerung von Konferenzbeiträgen zu Zeitschriftenartikeln. Auch die Auswirkungen zeigten einen ähnlichen Trend, wobei die Selbstzitate im Jahr 2013 einen offensichtlichen Höhepunkt aufwiesen.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2913-5 8c50a7c9820f135aecfa50a57d4fcfec;de;;;3.4.;6.4.;;Kartierung vergangener, aktueller und zukünftiger Energieforschungstrends in Pakistan: eine szientometrische Bewertung Diese Arbeit beschreibt den Beitrag von Forschern auf dem Gebiet der Energie aus Pakistan im Zeitraum 1990–2016. Ein szientometrischer Ansatz wurde angewendet, um die wissenschaftlichen Veröffentlichungen auf diesem Gebiet unter Verwendung der Scopus Elsevier-Datenbank zu analysieren. Es wurden verschiedene Aspekte der Publikationen analysiert, wie Publikationstyp, Forschungsschwerpunkte, Zeitschriften, Zitationen, Autorschaftsmuster, Zugehörigkeiten sowie die Häufigkeit der Keyword-Auftritte. Die aktuellen Forschungstrends werden analysiert und zukünftige Forschungsrichtungen skizziert. Anhand des Impact-Faktors, des h-Index und der Anzahl der Zitationen wurde die Stärke aktiver Institute, Autoren und Zeitschriften im Energiebereich in Pakistan untersucht. Von 1990 bis 2016 wurden 991 Artikel von 2139 Autoren aus 213 Forschungsinstituten veröffentlicht. Die Gesamtzahl der Zitationen und der Impact-Faktor betragen 10.287 bzw. 2301, was 10 Zitationen pro Beitrag und einem Impact-Faktor von 2,32 pro Publikation entspricht. Die Forschungsartikel stammen hauptsächlich von COMSATS, NUST, PIEAS und PINSTECH. Pakistan hat 60 % der Veröffentlichungen in Zusammenarbeit mit ausländischen Instituten, hauptsächlich aus den Vereinigten Staaten, Großbritannien, China und Malaysia, veröffentlicht. Die Kernforschungsaktivitäten in diesem Bereich konzentrieren sich hauptsächlich auf Ressourcenbewertung, Energiepolitik, Energieeffizienz, Machbarkeitsstudien, Energiewirtschaft und Leistungsbewertung. Die produktivsten Zeitschriften, Autoren und Institutionen sind die Zeitschrift für erneuerbare und nachhaltige Energien, Shahbaz M., bzw. COMSATS.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2939-8 77ba4733957cc0eb821d801e6481e99a;de;;;3.4.;6.4.;;Die Verwendung eines algorithmischen Ansatzes zur Bewertung der Forschungsqualität In den letzten Jahren ist das Interesse an der Verwendung quantitativer Parameter zur Beurteilung der Qualität der Forschung an Hochschulen gewachsen. In Großbritannien werden die Fakultäten der Universitäten nun regelmäßig auf ihren Forschungsstand überprüft. Im Rahmen dieser Untersuchungen werden aus jeder Abteilung eine beträchtliche Menge an quantitativen (wie auch qualitativen) Informationen erhoben. Diese wird den Gremien zur Beurteilung der Forschungsqualität in den jeweiligen Fachgebieten zur Verfügung gestellt. Eine Frage, die aufgeworfen wurde, ist, ob die Daten in irgendeiner Weise kombiniert werden können, um einen Index bereitzustellen, der als Orientierungshilfe für die Beratungen der Gremien dienen kann. Dieser Frage wird hier anhand einer detaillierten Untersuchung der Rückflüsse von vier Universitäten für die jüngste (1992) Forschungsbewertung nachgegangen. Die Ergebnisse legen nahe, dass Versuche, einen Algorithmus abzuleiten, wahrscheinlich nur für einen begrenzten Themenbereich hilfreich sind.;-;-;-;https://link.springer.com/article/10.1007/BF02018229 f82d37d279f299c768726581cd1244c4;de;;;3.4.;6.4.;;Vergleichende Analyse der Faktoren, die mit Zitation und Medienberichterstattung über klinische Forschung verbunden sind Unser Ziel war es, den Zusammenhang zwischen Design und Inhalt von randomisierten klinischen Studien (RCTs) und der daraus resultierenden Anzahl von Zitaten in der medizinischen Literatur und Aufmerksamkeit in Online-Nachrichten und sozialen Medien zu untersuchen. Wir untersuchten RCTs, die 2014 in fünf hochzitierten medizinischen Fachzeitschriften veröffentlicht wurden. Dies war eine retrospektive Überprüfung, die sich auf die Charakteristika der einzelnen Studien und auf die Zitier- und Laienmedienaufmerksamkeit konzentrierte. Zu den primären Zielparametern gehörten Zitationszahl und Altmetric;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2428-5 94da9d4b72a09421f03d9929008b98c8;de;;;3.4.;6.4.;;Schlafende Schönheiten in der Augenheilkunde Um Veröffentlichungen mit verzögerter Anerkennung oder „Sleeping Beauties“ (SBs) zu identifizieren, die in den Jahren oder Jahrzehnten nach ihrer Veröffentlichung kaum zitiert werden, dann aber stark zitiert werden, haben wir die Zitationsgeschichten von 184.606 Artikeln in 52 ophthalmologischen Fachzeitschriften mithilfe der Science Citation Index-Expanded (Thomson Reuters). Neun Artikel wurden als SBs identifiziert, die 0,005% des Grundmaterials ausmachten. Die SBs wurden in Archives of Ophthalmology (;-;-;-;https://link.springer.com/article/10.1007/s11192-012-0667-z 199cc0b02af7fc02edd31cf5a9ad244b;de;;;3.4.;6.4.;;Eine Einführung in die Modellierungswissenschaft: Grundlegende Modelltypen, Schlüsseldefinitionen und ein allgemeiner Rahmen für den Vergleich von Prozessmodellen Wissenschaftsmodelle zielen darauf ab, die Struktur und/oder Dynamik der Wissenschaft selbst zu erfassen. Daten zum Wissenschaftssystem – Wissenschaftler, Papiere, Patente, Stipendien, Jobs usw. und deren komplexe Interdependenzen und Dynamiken – werden verwendet, um sie zu validieren. Dieses Kapitel bietet eine allgemeine Einführung in die Modellierung der Wissenschaft zusammen mit einer Diskussion verschiedener Modelltypen, grundlegender Definitionen und einem Überblick über die wichtigsten Vorhersagemodelle der Wissenschaft, die in diesem Buch behandelt werden. Der Anhang enthält Definitionen allgemeiner Terminologie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23068-4_1 690dcecf2416796d158883c92ac235df;de;;;3.4.;6.4.;;Ein Profil der kanadischen Kohle- und Erdölforschungsgemeinschaften Ziel dieser Arbeit ist es aufzuzeigen, dass verschiedene bibliometrische Indikatoren ein guter Ausgangspunkt sind, um eine nationale Forschungsgemeinschaft sowie die Verbindungen zwischen Forschungseinrichtungen, den Nutzern der Forschung und den Geldgebern der Forschungsgemeinschaft zu beschreiben. Wir stellen die kanadischen Forschungsgemeinschaften für Kohle und Erdöl vor. Die Rolle von CANMET, einem staatlichen Forschungslabor, wird als Beispiel dafür untersucht, wie unsere Analyse für politische Entscheidungsträger und Entscheidungsträger nützlich sein kann.;-;-;-;https://link.springer.com/article/10.1007/BF02016931 39b3c4e455aa5f80d7f089be23ea757e;de;;;3.4.;6.4.;;Signifikanztests für Nullhypothesen. Eine Verwechslung zweier unterschiedlicher Theorien: die Grundlage für weit verbreitete Verwirrung und zahlreiche Fehlinterpretationen Statistische Signifikanztests mit Nullhypothesen (NHST) werden häufig in der quantitativen Forschung in den empirischen Wissenschaften einschließlich der Szientometrie verwendet. Dennoch sind Signifikanztests seit ihrer Einführung vor fast einem Jahrhundert umstritten. Vielen Forschern sind die zahlreichen Kritikpunkte gegen NHST nicht bekannt. In seiner Praxis wurde NHST als „Null-Ritual“ charakterisiert, das überstrapaziert und zu oft falsch angewendet und falsch interpretiert wird. NHST ist in der Tat ein Flickenteppich aus zwei grundlegend unterschiedlichen klassischen statistischen Testmodellen, die oft mit einigen sehnsüchtigen quasi-bayesischen Interpretationen vermischt werden. Dies ist zweifellos ein Hauptgrund, warum NHST sehr oft missverstanden wird. Aber NHST hat auch intrinsische logische Probleme, und der epistemische Umfang der Informationen, die durch solche Tests geliefert werden, ist viel begrenzter, als die meisten Forscher erkennen. In diesem Artikel stellen wir der szientometrischen Gemeinschaft die theoretischen Ursprünge von NHST vor, die in statistischen Standardlehrbüchern meistens fehlen, und diskutieren einige der häufigsten Probleme in Bezug auf die Praxis von NHST und führen diese Probleme auf die Verwechslung die zwei unterschiedlichen theoretischen Ursprünge. Schließlich veranschaulichen wir einige der Missverständnisse mit Beispielen aus der szientometrischen Literatur und geben einige bescheidene Empfehlungen für eine fundiertere Praxis der quantitativen Datenanalyse.;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1251-5 254a37da8b770e8d70143ed08ab0e6cd;de;;;3.4.;6.4.;;Der Vorwurf wissenschaftlichen Fehlverhaltens erhöht die Aufmerksamkeit von Twitter Twitter Die webbasierte Microblogging-Plattform Twitter ist eine sehr beliebte Altmetrics-Quelle, um den breiteren Einfluss der Wissenschaft zu messen. In dieser Fallstudie zeigen wir, wie problematisch die Nutzung von Twitter-Daten für die Forschungsevaluation sein kann, auch wenn der Messanspruch von Wirkungs- hin zu Aufmerksamkeitsmessung degradiert wird. Wir haben die Twitter-Daten für das von Yamamizu et al. (Stammzellrep. 8(3):634–647,;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2698-6 8f3b9f12e2ba21899b7a163effc3dee6;de;;;3.4.;6.4.;;Näherungsdimensionen und wissenschaftliche Zusammenarbeit zwischen akademischen Einrichtungen in Europa: Je näher, desto besser? Das Hauptziel dieser Arbeit ist es, die Wirkung verschiedener Nähedimensionen (geografisch, kognitiv, institutionell, organisatorisch, sozial und wirtschaftlich) auf akademische wissenschaftliche Kooperationen (SC) zu untersuchen. Die Daten zur Erfassung von SC bestehen aus einer Reihe von gemeinsam verfassten Artikeln, die zwischen 2006 und 2010 von Universitäten in EU-15 veröffentlicht wurden und vom Science Citation Index (SCI Expanded) der ISI Web of Science-Datenbank indiziert sind. Wir verknüpfen diese Daten mit Informationen auf Institutsebene, die vom EUMIDA-Datensatz bereitgestellt werden. Unsere endgültige Stichprobe besteht aus 240.495 gemeinsam verfassten Artikeln von 690 europäischen Universitäten, die in beiden Datensätzen enthalten sind. Darüber hinaus haben wir auch Daten zur regionalen FuE-Finanzierung von Eurostat abgerufen. Basierend auf der Gravitationsgleichung schätzen wir mehrere ökonometrische Modelle mit aggregierten Daten aus allen Disziplinen sowie getrennten Daten für;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1819-8 fcb3f50e9eead2902ae7978e909cfb0b;de;;;3.4.;6.4.;;Das W&T-Potenzial von Mexiko und Ungarn Mexiko und Ungarn führten 1985–86 im Rahmen der UNESCO International Comparative Study on the Organization and Performance of Research Units (ICSOPRU) eine Erhebung ihres nationalen W&T-Potenzials durch. Eine Reihe von Fragebögen wurde an Leiter von Forschungseinrichtungen, Leiter von Forschungseinheiten und Kernmitglieder von Forschungseinheiten verteilt. Der Vergleich beider W&T-Systeme zeigt, dass sich die Wissenschaft in Ungarn in einem weiter fortgeschrittenen Entwicklungsstadium befindet als in Mexiko. Die ungarische wissenschaftliche Infrastruktur ist um den Faktor vier größer als die mexikanische. Außerdem ist die Wissenschaft als organisierte Forschergruppe in Ungarn älter als in Mexiko. Die Wissenschaft in Ungarn ist stärker praxisorientiert als in Mexiko. Das W&T-System in Ungarn ist eng mit dem produktiven Sektor verbunden und erhält daher erhebliche Unterstützung von diesem. Im Gegensatz dazu ist die mexikanische Wissenschaft nicht stark mit dem produktiven Sektor verbunden und erhält von diesem auch keine große finanzielle Unterstützung. Die ungarische Wissenschaft ist stärker international ausgerichtet. Ungarische Forscher veröffentlichen mehr als mexikanische Forscher, obwohl ein Bruchteil der mexikanischen Einheiten eine Veröffentlichungsrate aufweist, die mit hochproduktiven ungarischen Einheiten vergleichbar ist. Beide S&T-Systeme haben viele personelle und materielle Ressourcen für die Arbeit in den nächsten vier bis sechs Jahren. Eine eingehende Analyse der verfügbaren Daten wird mehr Aufschluss über das W&T-Potenzial beider Länder geben.;-;-;-;https://link.springer.com/article/10.1007/BF02020241 251964569e277a257dd9f924f187dd4c;de;;;3.4.;6.4.;;Akademische Personalauswahl: Beschreibung und Prognose der Entscheidungen des Ausschusses zur Auswahl von Kandidatinnen und Kandidaten für eine ordentliche Professur Am Beispiel der Besetzung einer ordentlichen Professur für Allgemeine Psychologie wird die Nützlichkeit der Least-Squares-Variante der Guttmanschen Skalogrammanalyse (Methode der Hauptkomponenten für Multicategory Items) zur Unterstützung des Personalauswahlprozesses demonstriert. Unter Verwendung einiger Kriterien, die pro Bewerber verfügbar sind, wie Angemessenheit des Arbeitsfelds, Alter und Anzahl der Veröffentlichungen, führt dieses Skalierungsverfahren zu Gewichten für jede der Kategorien der Kriterien, die die relative Bedeutung jedes Kriteriums angeben, und zu Punktzahlen für alle Bewerber, die auf ihre Eignung. Da die aus den Noten der Bewerberinnen und Bewerber abgeleiteten Empfehlungen in hohem Maße mit den Entscheidungen des Auswahlgremiums übereinstimmten, konnten einige Aspekte des Entscheidungsprozesses des Auswahlgremiums rekonstruiert und die Vorhersagekraft der Methode der Hauptkomponenten veranschaulicht werden. Aus der Beobachtung, dass diese Methode bei 46 Bewerbern und bis zu 7 Kriterien mit insgesamt 18 Kategorien gut funktionierte, aber bei nur 9 Bewerbern versagte, lässt sich ihre Eignung für moderate Stichprobengrößen ableiten, die als typisch für die ersten Screening-Schritte in einem mehrstufigen Auswahlverfahren.;-;-;-;https://link.springer.com/article/10.1007/BF02016928 a71c7a9e0670f6b05e9bb94c313abb5c;de;;;3.4.;6.4.;;Überdenken der Ausfallprognose für KMU: eine systematische Literaturrecherche und Zukunftsperspektiven In den letzten zwölf Jahren hat sich das Thema Ausfallvorhersage kleiner und mittlerer Unternehmen (KMU) zu einem relevanten Forschungsgebiet entwickelt, das aus wichtigen Gründen exponentiell über mehrere Disziplinen hinweg gewachsen ist, darunter Finanzen, Management, Rechnungswesen und Statistik. Motiviert durch die enorme Belastung der KMU durch die globale Finanzkrise 2007–2009 sowie die jüngste COVID-19-Krise und die daraus resultierende Notwendigkeit, neue KMU-Ausfallprädiktoren zu entwickeln, bietet dieses Papier eine systematische Literaturrecherche auf der Grundlage einer statistischen, bibliometrischen Analyse von über 100 von Experten begutachteten Artikeln, die über einen Zeitraum von 34 Jahren, 1986 bis 2019, über die Modellierung von KMU-Ausfallvorhersagen veröffentlicht wurden. Wir identifizierten, analysierten und überprüften fünf Forschungsrichtungen und schlagen eine Reihe zukünftiger Forschungswege vor, um Wissenschaftler und Praktiker dabei zu unterstützen, die neuen Herausforderungen und aufkommenden Probleme in einem sich wandelnden wirtschaftlichen Umfeld. Die Forschungsagenda schlägt einige neue innovative Ansätze zur Erfassung und Nutzung neuer Datenquellen unter Verwendung moderner Analysetechniken wie künstliche Intelligenz, maschinelles Lernen und Makrodateneingaben vor, mit dem Ziel, verbesserte Vorhersageergebnisse zu liefern.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03856-0 307003eae624dcb49ac348a5419a27df;de;;;3.4.;6.4.;;Genauigkeitsbewertung der Scopus-Autoren-ID basierend auf der größten Finanzierungsdatenbank in Japan In dieser Studie wurde die Richtigkeit der Autoren-ID (Autorenidentifikation) in der bibliografischen Datenbank von Scopus bewertet. Dazu haben wir die KAKEN-Datenbank als Quelle für „richtige Daten“ übernommen. KAKEN ist eine offene Datenbank und die größte Förderdatenbank in Japan, da sie alle Informationen des größten öffentlichen Fonds für akademische Forscher verwaltet. In der KAKEN-Datenbank hat jeder Forscher eine eindeutige Forschernummer, die verwendet werden muss, wenn ein Antrag oder ein Jahresbericht an die Datenbank übermittelt wird. Somit wird die Übereinstimmung zwischen jedem Forscher und der zugehörigen Forschernummer automatisch und ständig überprüft. Aus diesem Grund haben wir diese Nummer verwendet, um die Scopus Author ID auszuwerten. Nachdem wir die bibliografischen Datensätze zwischen Scopus und KAKEN abgeglichen hatten, berechneten wir den Wiedererkennungswert und die Präzision der Scopus-Autoren-ID für japanische Forscher. Wir stellten fest, dass Recall und Precision bei etwa 98 bzw. 99 % lagen. Dieses Ergebnis zeigte, dass die Autoren-ID, obwohl sie hinsichtlich der individuellen Identifizierung nicht ganz genau war, zuverlässig genug war, um als neues Werkzeug für die Bibliometrie verwendet zu werden. Wir hoffen, dass auch akademische Forscher außerhalb Japans die Genauigkeit der Scopus-Autoren-ID als Instrument zur eindeutigen Identifizierung einzelner Forscher bewerten werden.;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1580-z 4927d6b3d21ff7ca2815f68e00b61ca6;de;;;3.4.;6.4.;;Das Albuquerque-Modell und Effizienzindikatoren der nationalen wissenschaftlichen Produktivität in Bezug auf Arbeitskräfte und Finanzierung in der Wissenschaft Aufgrund der Rezession in der Weltwirtschaft gibt es in den G7-Staaten einen Trend zu einem geringeren Wachstum der FuE-Ausgaben. Gleichzeitig investieren Länder wie China und Korea verstärkt in die wissenschaftliche Forschung. Wir vergleichen die Unterschiede in den Beiträgen zur Wissenschaft für verschiedene Länder und untersuchen das Niveau der;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1254-2 cb0fadab97cb3c1b4515e9e0568722ef;de;;;3.4.;6.4.;;Die Wirkung der leistungsorientierten Forschungsförderung auf den Output von F&E-Ergebnissen in der Tschechischen Republik Wir haben die Auswirkungen der leistungsorientierten Forschungsförderung, die 2008 in das tschechische (CZ) F&E-System eingeführt wurde, auf die Ergebnisse der F&E-Ergebnisse untersucht. Wir haben die jährlichen Änderungen der Anzahl verschiedener Arten von Veröffentlichungen und Anmeldungen, einschließlich Patenten, vor und nach dieser Änderung analysiert. Die Wachstumsrate fast aller Ergebnisarten hat sich in den Jahren 2005 oder 2006 beschleunigt und der Anstieg bis 2010 fortgesetzt. Das Wachstum der Ergebnismenge in der CZ war schneller als in sieben anderen zum Vergleich ausgewählten europäischen Ländern. Da das beschleunigte Wachstum bereits vor 2008 eingesetzt hat, kann die Umsetzung der leistungsorientierten Förderung nicht deren Ursache gewesen sein. Wahrscheinliche Ursache für das Wachstum könnte entweder die Bewertung der im Jahr 2004 eingeführten FuE-Institutionen selbst und/oder die Zunahme der öffentlichen FuE-Finanzierung im letzten Jahrzehnt sein. Da die Zunahme der Zitationswirkung von Publikationen hinter der Zunahme ihrer Quantität zurückblieb, kommt man zu dem Schluss, dass die Bewertung nicht auf optimalen Indikatoren basiert.;-;-;-;https://link.springer.com/article/10.1007/s11192-013-1061-1 fd272f5e057a04233aaa913dc40986e0;de;;;3.4.;6.4.;;Die Geographie der Wissenschaft in 12 europäischen Ländern: eine Analyse auf NUTS2-Ebene Europa hat eine lange Geschichte als globales Zentrum der wissenschaftlichen Forschung, aber nicht alle europäischen Regionen sind gleich. Regionen wie die Île de France und der Korridor, der sich von Cambridge über London nach Oxford erstreckt, produzieren einen überproportionalen Anteil an der Wissenschaftsleistung Europas. Eine ökonometrische Analyse beleuchtet die Faktoren, die die räumliche Verteilung der europäischen Wissenschaft erklären. Ein Ergebnis ist, dass der regionale Umfang der Web of Science-Publikationen von der regionalen Zahl der Forschenden an den Hochschulen abhängt. Dies ist jedoch nicht die einzige Ursache für eine hohe Leistung. Universitäten und ihre umliegenden Regionen entwickeln langsam institutionelle Strukturen. Einige Regionen beherbergen Universitäten, die mehr als 500 Jahre alt sind. Ein zweites zentrales Ergebnis ist, dass eine Erhöhung des Alters der ältesten Universität einer Region unter sonst gleichen Bedingungen mit einem höheren Output verbunden ist. Drittens ist die interregionale Erreichbarkeit über Straßen-, Schienen- und Luftverkehrsnetze für kleine Regionen wichtig, aber nicht für große. Umgekehrt sind regionale Hightech-FuE-Beschäftigungen für große, aber nicht für kleine Regionen wichtig.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03510-9 3e4d910887d2a969c3718eeb5d37307b;de;;;3.4.;6.4.;;Ranking der Forschungsproduktivität von Wirtschafts- und Managementinstitutionen im asiatisch-pazifischen Raum: empirische Forschung in führenden ABS-Zeitschriften Das periodische Ranking der Forschungsproduktivität von Institutionen ist heutzutage eine große Notwendigkeit, denn dies kann nicht nur helfen, den neuesten Entwicklungsstand verwandter Bereiche zu verstehen, sondern auch dazu beitragen, Lücken zu finden und schnell zu verbessern. In früheren Studien sind die Anzahl der Veröffentlichungen und weitere Impact-Faktoren von Zeitschriften zwei weit verbreitete Indizes zur Messung der Forschungsproduktivität. Impact-Faktoren stimmen jedoch nicht immer mit der Qualität der Zeitschrift überein, was zu einer Verzerrung der Forschungsproduktivität führt. Vor diesem Hintergrund wird in diesem Beitrag ein neuer Journal Rating Adjusted Publications (JRAP) Index erstellt, der auf dem Journal Rating des ABS Journal Guide basiert. Es berücksichtigt gleichzeitig die Quantität der Veröffentlichungen und die Qualität der Veröffentlichungen. Im Vergleich zu Impact-Faktoren kann der Leitfaden für wissenschaftliche Zeitschriften eine aussagekräftigere und genauere Messung der Qualität von Zeitschriften ermöglichen. Es werden Experimente durchgeführt, um asiatisch-pazifische Institutionen im Geschäfts- und Managementbereich basierend auf JRAP zu bewerten, und es ist das erste Mal, dass asiatisch-pazifische Institutionen systematisch eingestuft werden. Es wird auch ein Ranking der Institutionen angegeben, die mit drei Methoden gemessen werden. Verglichen mit den Ergebnissen, die mit drei verschiedenen Rangverfahren erhalten wurden, obwohl die Einrichtungen auf den ersten Plätzen gleich bleiben, unterscheidet sich der spezifische Rang. Die Ergebnisse zeigen, dass JRAP es bevorzugt, dass die Institutionen gute Leistungen in Bezug auf die Papiermenge und die Qualität der Zeitschriften erzielen.;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1752-x fbdb812484dcb9a5bd99095be040ba0d;de;;;3.4.;6.4.;;Wissenschaftsförderung und Forschungsergebnisse: eine Studie zu 10 Ländern Diese Studie berichtet über Forschungsarbeiten zur Analyse der Auswirkungen staatlicher Förderung auf die Forschungsleistung. 500.807 SCI-Papiere, die 2009 in 10 Ländern veröffentlicht wurden, werden gesammelt und analysiert. Die Ergebnisse zeigen, dass in China 70,34 % der SCI-Papiere durch Forschungsförderung unterstützt werden, darunter 89,57 % von der National Natural Science Foundation of China (NSFC). Die durchschnittliche Förderung pro förderungsunterstütztem Papier beträgt in China 2,95, in den USA 2,93 und in Japan 2,40. Die Ergebnisse der Analyse der Finanzierungsagenturen zeigen, dass China, Deutschland und Spanien von einer einzigen Finanzierungsagentur dominierte Länder sind, während die USA, Japan, Kanada und Australien von zwei Finanzierungsagenturen dominierte Länder sind und die Finanzierungsquellen in Großbritannien, Frankreich und Italien diversifiziert sind.;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0576-6 cb4f1dbff7f5fa190fab5fc27ab30d3c;de;;;3.4.;6.4.;;Szientometrische Gesetze, die Veröffentlichungen mit nationaler Forschungsförderung verbinden Szientometrische Gesetze wie die von Lotka, Bradford und Zipf liefern nützliche Modelle für das Verhalten von Indikatoren. Hier werden zusätzliche Gesetze vorgeschlagen, die die Zahl der wissenschaftlichen Veröffentlichungen mit der nationalen Förderung von Forschung und Entwicklung (GERD) verbinden. Die Gesetze basieren auf experimentellen Beweisen für einen eindeutig kausalen Zusammenhang: Für publikationsfähige Forschung ist eine Finanzierung notwendig, wenn nicht immer ausreichend. Die Beweise stammen aus ganzzahligen und gebrochenen Zählungen von Scopus und Web of Science. Die erklärenden Variablen stammen aus einem UNESCO-Datensatz, der Daten aus 93 Ländern, einer Teilmenge von 43 Industrienationen der OECD und einer weiteren von 50 weniger industrialisierten Ländern lieferte. Modelle wurden aus Querschnittsdaten sowie Paneldatenmodellen erstellt, die Längs- und Querschnittsdaten kombinierten. GERD erwies sich als ausgezeichnete erklärende Variable. Wenn dem Modell eine zweite erklärende Variable hinzugefügt wird, erhöht die Anzahl der Forscher eine gewisse Genauigkeit. Zu den Anwendungen gehören die Vorhersage der Veröffentlichungszahlen aus veröffentlichten Finanzierungsplänen, die Schätzung der Finanzierung, die ein Land zur Verbesserung seiner Veröffentlichungsleistung benötigt, und die Verwendung von Modellen für „Was-wäre-wenn“-Experimente.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03392-x 13be20ff6a87f70fa835326414db6ec0;de;;;3.4.;6.4.;;Bestimmung der Kollaborationsreife von Organisationsteams: Eine Studie in der Automobilindustrie Viele Forscher argumentieren, dass sich die Qualität der Zusammenarbeit direkt auf die Qualität der Ergebnisse und Leistung einer Organisation auswirkt. Dieser Beitrag berichtet über die erste Feldanwendung eines Collaboration Maturity Model (Col-MM) durch eine Automotive-Feldstudie. Dieses Modell wurde während einer Reihe von Fokusgruppensitzungen mit professionellen Kollaborationsexperten empirisch entwickelt, um seine Relevanz und praktische Anwendbarkeit zu maximieren. Col-MM soll generisch genug sein, um auf jede Art von Zusammenarbeit angewendet zu werden, und verwendbar sein, um die Kollaborationsreife eines bestimmten Teams ganzheitlich durch Selbstbewertungen durch Praktiker zu bewerten. Der Zweck der in diesem Papier berichteten Studie bestand darin, den Einsatz des Col-MM in der Praxis anzuwenden und zu bewerten. Die Ergebnisse sollten für akademische Forscher und Praktiker von Informationssystemen von Interesse sein, die an der Bewertung der Reife der Zusammenarbeit interessiert sind. Das Papier dient auch als Ausgangspunkt für zukünftige Forschungen in diesem Bereich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37186-8_26 114a9c8fc4ee0b8377b29e9008693c64;de;;;3.4.;6.4.;;Bibliometrische Indikatoren und das Wettbewerbsumfeld von F&E-Labors Die Organisation des F&E-Labors versucht zu gestalten und wird von komplexen und sich verändernden Umgebungen beeinflusst. Neue Kontexte wirken sich auf die erforderlichen Auswertungsarten aus. Traditionelle Ansätze der FuE-Laborbewertung sind somit zu hinterfragen. Die sich ändernden Wettbewerbskontexte der FuE-Organisation legen vier Innovationswelten nahe: (i) Technologierennen, (ii) Effizienz in technologischen Systemen, (iii) technische Parität und (iv) Marktwettbewerbe. Im aufstrebenden Wettbewerbsumfeld entwickelt sich das F&E-Labor zu einer Netzwerkorganisation, die mit vielen verschiedenen Partnern verbunden ist und als halbautonome Geschäftseinheit agiert. Von solchen Labors werden neue Rollen erwartet. Sie müssen strategische Kernkompetenzen entwickeln, wettbewerbsfähige Ergebnisse bieten, Kundenspezifikationen erfüllen, neue Technologiestandards schaffen und ihre Führungspositionen behaupten oder ausbauen. Bibliometrische Analysen müssen in Ergänzung zu vielen anderen Methoden verwendet werden.;-;-;-;https://link.springer.com/article/10.1007/BF02129603 5e257531d555f5d228b17e6d02b168f9;de;;;3.4.;6.4.;;Die Blockbuster-Hypothese: Die Grenzen des Wissens beeinflussen Wir argumentieren, dass die Schaffung von neuem Wissen sowohl schwierig als auch selten ist. Konkret gehen wir davon aus, dass die Schaffung von neuem Wissen von einigen wenigen Schlüsselerkenntnissen dominiert wird, die die Art und Weise, wie Menschen über eine Idee denken, herausfordern und ein hohes Interesse und Nutzen wecken. Wir bezeichnen dies als Blockbuster-Hypothese. Anhand von zwei großen Stichproben veröffentlichter Managementstudien aus dem Zeitraum 1998–2007 finden wir Unterstützung für die Blockbuster-Hypothese. Wir stellen auch fest, dass zahlreiche Studien in den führenden Management-Fachzeitschriften Flops sind, die, gemessen anhand von Zitationsdaten, nur geringe Auswirkungen auf den Beruf haben. Zusätzliche Tests weisen darauf hin, dass die „Qualität“ von Zeitschriften mit dem Verhältnis von Blockbustern zu Flops zusammenhängt, die eine Zeitschrift veröffentlicht, und dass Zeitschriftenrankings ein schlechter Indikator für den Studieneinfluss sind. In Übereinstimmung mit der Vorstellung, dass Editorial Boards in der Lage sind, neues Wissen zu identifizieren, stellen wir fest, dass Forschungsnotizen sowohl Artikel in derselben Zeitschrift als auch Artikel, die in Zeitschriften mit niedrigerem Rang veröffentlicht wurden, deutlich schlechter abschneiden. Zusammengenommen bedeuten die Ergebnisse, dass nur wenige wissenschaftliche Studien von Tausenden, die in einem bestimmten Bereich veröffentlicht wurden, die Grenzen des Wissens verändern oder beeinflussen, wobei viele scheinbar nur geringe Auswirkungen auf die Grenzen des Wissens haben. Insgesamt zeigt diese Analyse, dass die Entwicklung von neuem Wissen selten ist, obwohl es für Wissens-Gatekeeper wie Zeitschriftenredakteure erkennbar zu sein scheint.;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0540-5 12eb2eb1de8b5fe6ad1c6b1aae160cb2;de;;;3.4.;6.4.;;Zusammenarbeit und Wirkung von Forschung in verschiedenen Disziplinen mit internationaler Förderung (aus der EU und anderen ausländischen Quellen) Die Förderung der wissenschaftlichen Forschung erfordert angemessene Investitionen, die die Förderung gerechter politischer Entscheidungen über die Verteilung begrenzter Ressourcen erfordern. In diesem Zusammenhang müssen Geldgeber angemessen informiert werden, um die Ergebnisse von Forschungslinien oder -programmen bewerten zu können. Die WoS-Datenbanken können bei der Entscheidungsfindung helfen, da sie die Förderbestätigungen von Dokumenten sowie weitere nützliche Daten enthalten. Der Zweck dieses Papiers besteht darin, in vier verschiedenen Disziplinen die mögliche Beziehung zwischen internationaler Finanzierung (aus der EU und anderen ausländischen Quellen) und Zusammenarbeit und Wirkung zu analysieren. WoS-Artikel mit spanischer Adresse und in englischer Sprache werden ausgewählt (Zeitraum 2010–2014), sie werden nach Vorliegen oder Fehlen von Förderbestätigungen klassifiziert und internationales Sponsoring sowie das Vorhandensein von EU-Mitteln identifiziert. Nach Anwendung einiger logistischer Regressionsmodelle bestätigen die Ergebnisse die Hypothesen, mit Ausnahme einiger unerwarteter Befunde. Im Allgemeinen weisen Artikel mit internationaler Finanzierung eine stärkere Zusammenarbeit auf, insbesondere international und umfassender für diejenigen, die nur durch andere Nicht-EU-Auslandsfonds unterstützt werden, mit einigen Unterschieden zwischen den Disziplinen. Diese international finanzierte Forschung erzielt auch die höchsten Zitationsraten, die bei aus EU-Mitteln geförderten Publikationen unerwartet höher sind und sogar weniger kooperieren als solche, die aus anderen ausländischen Mitteln gefördert werden. Ebenso wird der Anteil der Artikel mit nur nationaler Finanzierung nicht durch ihren begrenzten Anteil an Mitarbeit geschmälert. Zusammenfassend bietet dieses Papier sowohl für Förderer als auch für Forschende interessante Informationen, die die verschiedenen Merkmale und Unterschiede zwischen Disziplinen und Förderquellen diskutieren.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03150-8 e029357831721bc34f6fc5446928a419;de;;;3.4.;6.4.;;Editorial Governance und Journal Impact: eine Studie über Management- und Wirtschaftszeitschriften Im Streben nach wissenschaftlicher Relevanz und Anerkennung nehmen Herausgeberinnen und Herausgeber maßgeblichen Einfluss auf die Mission und den Inhalt einer Zeitschrift. Wir untersuchen, wie die Eigenschaften von Herausgebern, insbesondere die Vielfalt der Redaktionen, mit der Wirkung von Zeitschriften zusammenhängen. Unsere Stichprobe umfasst 2244 Redakteure, die mit 645 Bänden von 138 Wirtschafts- und Managementzeitschriften verbunden waren. Mittels Mehrebenenmodellierung setzen wir die Merkmale des Redaktionsteams mit der Wirkung von Zeitschriften in Beziehung, was sich in drei weit verbreiteten Messgrößen widerspiegelt: Fünf-Jahres-Impact Factor, SCImago Journal Rank und Google Scholar h5 Index. Die Ergebnisse zeigen, dass mehrere Herausgeberschaften und die Zugehörigkeit von Redakteuren zu Institutionen mit hoher Reputation einen positiven Zusammenhang mit der Wirkung von Zeitschriften haben, während die Länge der Amtszeiten der Redakteure negativ mit den Impact-Scores verbunden ist. Überraschenderweise stellen wir fest, dass die Vielfalt der Redaktionen in Bezug auf Geschlecht und Nationalität weitgehend unabhängig von der Wirkung der Zeitschrift ist. Unsere Studie erweitert das knappe Wissen über Redaktionsteams und ihre Relevanz für die Wirkung von Zeitschriften, indem sie verschiedene Literaturstränge integriert und mehrere demografische Faktoren gleichzeitig untersucht. Die Ergebnisse zeigen, dass die wissenschaftliche Leistung des Redaktionsteams für den Journal Impact entscheidender ist als die Teamvielfalt. Die Studie hat nützliche Implikationen für die Zusammensetzung der Redaktionsteams.;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2434-7 2e57c39a877a0b66d337188623c92920;de;;;3.4.;6.4.;;Die Determinanten der Forschungsleistung von Hochschulen: Spezialisierung, Qualität und Ineffizienzen Die Analyse der Produktivität der Hochschulen (Hochschulen) auf europäischer Ebene zeigt enorme Unterschiede im Output pro Forscher zwischen den Ländern. Diese Studie entwickelt eine 5-Stufen-Methodik, die explizit die Qualität des wissenschaftlichen Outputs an EU-Universitäten und deren Spezialisierungen berücksichtigt, um die Unterschiede im Output pro Universitätsforscher in Bezug auf (a) Effizienzunterschiede innerhalb jedes Wissenschaftsbereichs (FOS) , (b) Unterschiede in der FOS-Spezialisierung der Hochschulen in jedem Land, (c) Unterschiede in der Qualität und (d) Unterschiede bei der Zuweisung von Ressourcen pro Forscher. Die geschätzten Ineffizienzen zeigen, dass in der gesamten EU ein erheblicher Spielraum für die Steigerung der Forschungsleistung besteht, ohne dass mehr Ressourcen aufgewendet werden müssen. Auch hinsichtlich der Ineffizienz gibt es große Unterschiede zwischen den Ländern. Die Hauptursachen für die Heterogenität der wissenschaftlichen Leistung an den Hochschulen der EU sind die Unterschiede bei der Mittelzuweisung pro Forscher und in geringerem Maße die Effizienzunterschiede innerhalb der einzelnen Wissensbereiche. Auch die Unterschiede in Qualität und Spezialisierung spielen eine geringere Rolle bei der Bestimmung von Leistungsunterschieden.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-2102-3 4609f0d9a117db85a899f03b55b9aafa;de;;;3.4.;6.4.;;Wissenschafts- und Technologiepolitik: Eine Geschichte über die politische Nutzung, den Missbrauch und den Missbrauch traditioneller F&E-Indikatoren Zukünftige politische Prioritäten für die Politikformulierung im Bereich Wissenschaft und Technologie (W&T) beruhen normalerweise auf einer eher vereinfachten Interpretation vergangener Ereignisse. Dies kann zu gravierenden Fehlern und Verzerrungen führen und sich negativ auf das Innovationssystem auswirken. In diesem Artikel versuchen wir, die Risiken einer Politikgestaltung auf der Grundlage traditioneller F&E-Indikatoren und -Trends aufzuzeigen. Wir möchten betonen, dass dieser Ansatz strukturelle Aspekte, die für die Analyse des Innovationssystems entscheidend sind, nicht berücksichtigt. Wir untersuchen die Auswirkungen der politischen Herausforderung der FuE-Konvergenz in einer peripheren EU-Region auf die Wissenschafts-, Technik- und Personalpolitik. Drei Szenarien werden entwickelt, die auf der Anwendung der gleichen Kriterien auf die bei traditionellen FuE-Inputindikatoren beobachteten Trends basieren.;-;-;-;https://link.springer.com/article/10.1007/s11192-009-2132-6 9c5581f4a7040764a3d6ed6af0ecb0c7;de;;;3.4.;6.4.;;Forschungsleistung und Bürokratie in öffentlichen Forschungslabors Ziel dieser Arbeit ist es, den Zusammenhang zwischen Bürokratie und Forschungsleistung in öffentlichen Forschungseinrichtungen zu analysieren. Die Forschungsmethodik wird auf eine Stichprobe von 100 Befragten angewendet, die 11 Instituten des Nationalen Forschungsrats Italiens angehören. Das wichtigste Ergebnis ist, dass es innerhalb des italienischen öffentlichen Forschungsrats eine akademische Bürokratisierung gibt, die die Leistung und Effizienz der Institute verringert. Tatsächlich haben Institute zwei organisatorische Verhaltensweisen: hohe Bürokratie – geringe Leistung und niedrige Bürokratie – hohe Leistung. Diese bürokratischen Tendenzen sind auch in anderen Ländern vorhanden und insbesondere: Die öffentlichen Forschungslabore haben eine akademische Bürokratisierung aufgrund des für die Verwaltung der Strukturen erforderlichen Verwaltungsaufwands, während die Universitäten hauptsächlich eine Verwaltungsbürokratisierung aufweisen, die durch den Anstieg des Verwaltungspersonals im Vergleich zu Forscher und Dozenten.;-;-;-;https://link.springer.com/article/10.1007/s11192-009-0406-2 80e3f254806cdd81d5af76edc246277a;de;;;3.4.;6.4.;;„Die Vergangenheit ist ein Prolog zur Zukunft“: ein introspektiver Blick auf die Gastgewerbe- und Tourismusforschung Seit den frühen 1970er Jahren haben Wissenschaftler ihr Talent und ihren Intellekt zur Etablierung der Disziplin und zur Ausbildung der nächsten Generation von Hotel- und Tourismusfachleuten beigetragen. Unter dem populären Begriff „publish or perish“ haben zahlreiche Wissenschaftlerinnen und Wissenschaftler die Forschungsgrundlagen der Disziplin aus einer Reihe unterschiedlicher Perspektiven untersucht, wie zum Beispiel das Ranking und die Bewertung von Wissenschaftlern, Zeitschriftenpublikationen und Institutionen. Dieses neuartige empirische Unterfangen zielt darauf ab, das vorhandene intellektuelle Kapital zu bereichern, indem es die Publikationsstrategien von 44 produktiven Gastgewerbe- und Tourismuswissenschaftlern untersucht, indem es sich auf drei unterschiedliche Themenbereiche konzentriert, nämlich den Impact Factor und die Zitationen einer Zeitschrift, die Besonderheiten der Autorenschaft und Forschungsthemen. Die Ergebnisse sind sowohl für aktuelle als auch für zukünftige Wissenschaftler von Interesse, um wissenschaftliche Exzellenz und Beiträge zu erzielen, die die Disziplin Gastgewerbe und Tourismus weiter verbessern.;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1431-3 ad649629b26f35a111d59ce6d2643ee4;de;;;3.4.;6.4.;;Die Wissensdomäne der Konferenzen der Akademie für internationale Betriebswirtschaftslehre (AIB): eine longitudinale szientometrische Perspektive für die Jahre 2006–2011 Konferenzen spielen eine wichtige Rolle für die Entwicklung wissenschaftlicher Domänen. Während Zeitschriften- und Artikelbeiträge im Bereich International Business (IB) ein allgemeiner und gut erforschter Bereich szientometrischer Studien sind, sind Konferenzen dies nicht. Erstaunlich ist das Fehlen einer systematischen Bewertung internationaler Wirtschaftskonferenzen als Hinweis auf den kollektiven Status der Community der Academy of International Business (AIB). Welche Gründe auch immer für diese Tatsache verantwortlich sind, dieses Papier beginnt, diese Lücke zu füllen. Es baut ein Wissensnetzwerk auf, das sich aus den AIB-Konferenzen der letzten sechs Jahre zusammensetzt. Wir haben alle Beiträge im Volltext mit ihren Abstracts und Schlagworten von 2006 bis 2011 gesammelt. Alle Daten wurden in einem Datensystem organisiert und wir verwendeten die informationstheoretische Clustering-Methode, die verschiedene analytische Sichtweisen durch den gesamten Wissenskorpus ermöglicht. Die Ergebnisse zeigen signifikante statistische Unterschiede zwischen Themenmodulen und Keyword-Threads der Jahreskonferenzen. Es gibt drei Schlagworte, die zwischen 2006 und 2011 als Leitmotiv dominieren, die detaillierte Struktur ändert sich jedoch von Konferenz zu Konferenz deutlich.;-;-;-;https://link.springer.com/article/10.1007/s11192-012-0909-0 a6f3e056f452be61c92bb32cc3c26dc9;de;;;3.4.;6.4.;;Auswirkungen der Standardisierung von Innovationsmanagementsystemen auf Unternehmen: Belege aus Text-Mining-Jahresberichten Die Verwendung einer Managementformel zur Standardisierung des Innovationsmanagements kann als zutiefst widersprüchlich angesehen werden, jedoch wurden mehrere erfolgreiche Unternehmen in Spanien nach dem Pionier-Innovationsmanagement-Standard UNE 166002 zertifiziert. Dieses Papier analysiert die Auswirkungen der Standardisierung auf die Einstellungen und Werte in Bezug auf values auf Innovation für eine Stichprobe von Unternehmen durch Text-Mining ihrer Unternehmensangaben. Veränderungen in der Relevanz der Konzepte, Co-Word-Netzwerke und Emotionsanalyse wurden verwendet, um zu dem Schluss zu kommen, dass die Auswirkungen der Zertifizierung auf das Innovationsverhalten von Unternehmen mit den Open Innovation- und Transversalisierungskonzepten übereinstimmen, die UNE 166002 fördert.;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2345-7 515d91d7f25376cc8e4be233eabdfb99;de;;;3.4.;6.4.;;Förderung, ist sie entscheidend, um im Hochschulranking herauszustechen? Dieser Beitrag untersucht den Einfluss der Finanzierung auf die Position der Top 300 Universitäten (Institutionen) des Quaccarelly Symond World University Ranking 2018. Geografische Lage, Eigentumsverhältnisse (öffentlich/privat), Größe und finanzielle Ressourcen dieser Top-Universitäten werden untersucht. Unsere Analyse zeigt, dass die öffentliche Finanzierung für bis zu 84% dieser Spitzenuniversitäten kritisch wird, insbesondere für die europäischen Universitäten. Darüber hinaus erklärt die Förderung bis zu 51 % der Variabilität der von den Hochschulen im Ranking erreichten Positionen. Auch der Einfluss der Förderung auf die Verbesserung des Rankings der Hochschulen wird untersucht. Wir belegen, dass die Top-100-Universitäten die Mittel der Hochschulen auf den Plätzen 101–200 verdoppeln und die Mittel der Hochschulen auf den Plätzen 201–300 des Rankings verdreifachen. Dies ist eine außergewöhnliche Übung in Bezug auf Hochschulfinanzierung und Exzellenz, die normalerweise für Hochschulsysteme (Länder) und nicht für Hochschulen selbst untersucht werden.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03202-z ce1ed540c64529c3743794dcce5fc014;de;;;3.4.;6.4.;;Eine bibliometrische Ko-Zitat-Analyse der strategischen Managementforschung Strategisches Management bleibt ein junges Forschungsgebiet, das dynamisch ist und sich mit der globalen Unternehmenswirtschaft verändert. Angesichts der Bedeutung der Forschung zu diesem Feld der Betriebswirtschaftslehre zielt dieser Beitrag darauf ab, eine bibliometrische Kozitationsanalyse der strategischen Managementforschung durchzuführen. Wir bilden die Autoren und die relevantesten Ansätze ab und erläutern die neuen theoretischen Perspektiven der strategischen Managementtheorie. Die durchgeführte Analyse verwendet neben der Kozitationsmatrix drei multivariate statistische Analysetechniken, um diese Fragen zu beleuchten. Unter Einbeziehung aller Zitate, die im Science Citation Index und im Social Science Citation Index enthalten sind, analysieren wir Ko-Zitatmuster des strategischen Managements im Zeitraum 1971–2014 und identifizieren sechs Teilfelder (Cluster), die die intellektuelle Struktur und untersuchen ihre gegenseitigen Beziehungen. Die wesentlichen Ergebnisse der Faktorenanalyse legen nahe, dass es eine klare Trennung zwischen strategischem Unternehmertum und unternehmerischem Unternehmertum gibt. Darüber hinaus beeinflusst das Konzept des strategischen Verhaltens die meisten strategischen Managementforschungen, wie die Co-Citation-Analyse zeigt. Es wird eine Debatte über zukünftige Richtungen in der Literatur zum strategischen Management diskutiert, die die Bedeutung einer stärkeren Kombination einer strategischen Unternehmerperspektive basierend auf Verhaltensabsichten mit der aufkommenden Forschung hervorhebt.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-2008-0 222bbd7efe6e945900669ea6db65a870;de;;;3.4.;6.4.;;Themen in der Literatur zu Transformationsländern und Schwellenländern Die Forschungsströme von Transformationsländern und Schwellenländern haben einige Gemeinsamkeiten, unterscheiden sich aber dennoch. Ziel dieser Studie ist es, die Gemeinsamkeiten und Unterschiede in Bezug auf Trends und Themen dieses interdisziplinären Forschungsgebiets besser zu verstehen. Wir wenden die neuartige Methode der Themenmodelle an einem Korpus von fast 6.000 Artikeln in mehr als 600 Zeitschriften von 1995 bis 2012 an, um 25 Themen zu identifizieren und deren Trends und Verwendung in verschiedenen Bereichen (Transition oder Emerging), Disziplinen (Wirtschaft oder Volkswirtschaft) und Geographie zu analysieren (Länder oder Regionen).;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1513-2 0ff631ce70e24e86e9bc5f0ddf5d1e01;de;;;3.4.;6.4.;;Datengetriebenes Journal-Meta-Ranking in Wirtschaft und Management Das Ranking von Zeitschriften ist ein seit langem bestehendes Problem und kann quantitativ, qualitativ oder mit einer Kombination beider Ansätze angegangen werden. In den letzten Jahrzehnten wurde der Impact Factor (d. h. der bekannteste quantitative Ansatz) vielfach in Frage gestellt, und so wurden andere Indizes entwickelt und populär. Frühere Studien haben Stärken und Schwächen der einzelnen Indizes aufgezeigt und Meta-Indizes entwickelt, um Zeitschriften in einem bestimmten Studienbereich einzuordnen. Allerdings weisen die vorgeschlagenen Meta-Indizes einige intrinsische Einschränkungen auf: (1) die zu kombinierenden Indizes werden nicht immer nach fundierten Prinzipien ausgewählt, (2) Kombinationsmethoden sind in der Regel ungewichtet und (3) einige der vorgeschlagenen Meta-Indizes Indizes sind parametrisch, was die Annahme einer bestimmten zugrunde liegenden Datenverteilung erfordert. Wir schlagen eine datengesteuerte Methodik vor, die eine beliebige Anzahl von Indizes linear kombiniert, um ein aggregiertes Ranking zu erstellen, wobei verschiedene Techniken aus Statistik und maschinellem Lernen verwendet werden, um die Kombinationsgewichte zu schätzen. Wir betrachten zusätzlich Korrelationen zwischen Indizes und Meta-Indizes, um deren Unterschiede quantitativ zu bewerten. Schließlich zeigen wir empirisch, dass die betrachteten Meta-Indizes auch gegenüber signifikanten Störungen der Werte der kombinierten Indizes robust sind.;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1751-y 692f78134f542b8801ec01ac471fd038;de;;;3.4.;6.4.;;Tagungsband zum Thema Bibliometrie: Academy of International Business 2006–2008 Diese Studie führt eine bibliometrische Analyse anhand von Schlüsselwörtern aus Konferenzbänden durch. Szientometrische Untersuchungen von Tagungsbänden sind ein neuer und innovativer, wenig verbreiteter Ansatz. Die vorgelegten Studien und Arbeiten können als Frühindikatoren der wissenschaftlichen Entwicklung interpretiert werden. Die Academy of International Business (AIB) wurde als führende Organisation für Studien im Bereich International Business mit Beiträgen über einen Zeitraum von 3 Jahren (2006–2008) ausgewählt. Die Studie stellt die allgemeine Struktur des aktuellen wissenschaftlichen Interesses an der internationalen Betriebswirtschaftslehre dar, gruppiert die Schlagworte und reflektiert Details zu den Forschungsschwerpunkten der analysierten Arbeiten. Die bibliometrische Analyse zeigt drei Cluster: den Kern, die Halbperipherie und die Peripherie. Die fünf am häufigsten vorkommenden Schlüsselwörter waren multinationale Unternehmen, Schwellenländer, ausländische Direktinvestitionen, Internationalisierung und Wissensmanagement in absteigender Reihenfolge. Die Analysen konzentrieren sich auf Konzepte, die den Kern bilden (insgesamt zehn Schlagworte), die von Leistung und verwandten Themen geprägte Halbperipherie (60 Schlagworte) und die Peripherie des Studiums mit Governance und spezifischen Facetten davon (199 Schlagworte).;-;-;-;https://link.springer.com/article/10.1007/s11192-010-0216-6 496cbf55c1bc98a624bc7ae9f920733f;de;;;4.1.;6.4.;;Zusammenarbeit in der medizinischen Forschung: eine Fallstudie aus Indien In dieser Fallstudie wurde versucht herauszufinden, wie man maximale Zitationen erreicht. In dieser Studie wurden die 50 besten medizinischen Institute über die „Scopus“-Datenbank auf der Grundlage der Leistung ihrer Forschungsleistungen im Zeitraum 2003–2012 ausgewählt. Das Hauptziel dieser Studie war es, die Faktoren herauszufinden, die die Zitationen von Gesundheitsfachkräften in Indien beeinflussen, und wie man sie auf die positiven Auswirkungen aufmerksam macht, die ihnen bei der Verbesserung ihrer Zitationszahl helfen. Die Ergebnisse der Studie zeigen, dass die in internationaler Zusammenarbeit erstellten Publikationen problemlos in internationalen Zeitschriften veröffentlicht werden und mehr Zitate erhalten als die in indischen Zeitschriften veröffentlichten Publikationen. Es wurde eine positive Beziehung zwischen häufig zitierten Papieren und internationalen kollaborativen Papieren hergestellt. Indien verzeichnete auch ein gutes Wachstum bei der medizinischen Literatur, die in internationaler Zusammenarbeit erstellt wurde.;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1691-6 de7c75e9edf17abcf221ff05beb5b381;de;;;4.1.;6.4.;;Digitale Kompetenz zukünftiger Lehrkräfte Zukünftige Lehrkräfte sind Mitglieder der digitalen Generation, daher interessieren sich die Autoren dafür, was Studierende (angehende Lehrkräfte) als wesentliche digitale Kompetenz für ihren zukünftigen Lehrberuf erachten. Uns interessiert auch, ob sie der Meinung sind, dass Kompetenz, die in bestehenden Lehrplänen entwickelt wird, gemäß den modernen Bildungstrends weiterentwickelt werden sollte. Wir haben eine Stichprobe von Studenten der Geistes- und Sozialwissenschaften untersucht, die auf Bachelor- und Masterebene für Lehrer an der Fakultät für Geistes- und Sozialwissenschaften der Universität Zagreb, der größten Lehrfakultät in der Republik Kroatien, studieren. Die Recherche wurde mit einer Umfrage mit offenen und geschlossenen Fragen durchgeführt. Die Schülerinnen und Schüler wurden gebeten, ihre Einstellungen zur notwendigen digitalen Kompetenz zukünftiger Lehrkräfte, die künftige Generationen digitaler Schülerinnen und Schüler mit Hilfe von Likert-Skalen ausbilden werden, einzuschätzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-74334-9_36 2ab09ba471f02b841ea5e20690102883;de;;;4.1.;6.4.;;Mapping-Wissensdomänenanalyse der medizinischen Informatikausbildung Diese Forschung analysiert die Mapping-Wissensdomäne der medizinischen Informatikausbildung durch das Programm CiteSpaceII. Das Datenbeispiel wird vom SCI-E heruntergeladen. Als Suchbegriffe werden Wörter verwendet, die sich auf den Bereich der Medizininformatik beziehen, Artikel werden aus der Suchmaschine Web of Science gesucht. Durch die Visualisierung der heruntergeladenen Artikel mit CiteSpaceII werden die Forschungsgrenzen, Länder (Regionen) im Bereich Medizininformatik Forschung und Ausbildung gefunden. Abschließend werden einige Anregungen gegeben, um die Entwicklung der Medizininformatik-Ausbildung zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_269 7e577910ebb1aeecee19acf910d02957;de;;;4.1.;6.4.;;Nutzer zu gesünderen Entscheidungen anregen: Ein Designansatz, um Fehlinformationen in Gesundheitsforen zu begegnen Gesundheits-Websites sind immer mehr zu einer der wichtigsten Quellen für Gesundheitsinformationen für Menschen auf der ganzen Welt geworden. Obwohl Gesundheitssuchende potenziell von diesen Quellen profitieren, führen Fehlinformationen in Gesundheitsforen die Menschen erheblich in die Irre. Wir gehen davon aus, dass es ein effektiver Ansatz sein könnte, Benutzer dazu zu bringen, kritisch über die Informationen nachzudenken, um den Auswirkungen von Fehlinformationen auf ihre Gesundheit zu begegnen. Zu diesem Zweck wendeten wir das Elaboration-Likelihood-Modell (ELM) im Webdesign an, um zu untersuchen, wie zentrale und periphere Cues die Informationsauswertung und Augenbewegungsdaten beeinflussen. Die Ergebnisse zeigen, dass die Bereitstellung zentraler Hinweise wie vertrauenswürdige Links und Diskussionsstränge die Teilnehmer dazu anregt, die Informationen kritischer zu betrachten als die peripheren Hinweise wie Anzahl der Sterne und Likes. In ähnlicher Weise bestätigten die Fixierungsdauer und die in jedem Szenario verbrachte Zeit, dass Benutzer eine höhere kognitive Verarbeitung und kritisches Denken betreiben, wenn zentrale Hinweise von ELM-Initiatoren dominiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20500-3_1 32f5daa0fb538fcb5dfcfc8263789204;de;;;3.5.;7.3.;1.3.;Maximierung des Einsatzes von Kommunikationstechnologien in der geografischen Bildung Der Einsatz von Informations- und Kommunikationstechnologien im Geographieunterricht hat in den letzten Jahrzehnten stark zugenommen, aber dieser Trend wirft eine Reihe wichtiger Fragen auf. Sind wir in der Lage, diese Technologie ausreichend effektiv zu nutzen? Verbessert es das Lernen? Welche Chancen haben Geographielehrer und -lerner in den Entwicklungsländern, von solchen Trends zu profitieren?;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1942-1_4 7534dc6f0203eafca1af2cbae386218b;de;;;3.4.;7.3.;1.3.;Verwenden von PKI zum Bereitstellen von Anmeldeinformationen in nicht webbasierten Föderationenbased Die Authentifizierung ist eine grundlegende Funktionalität, die von den meisten Diensten benötigt wird, die Zugriff auf geschützte Ressourcen oder personalisierte Inhalte bieten. Um sich bei Diensten zu authentifizieren, verwalten Benutzer Anmeldeinformationen, die sie zum Nachweis ihrer Identität verwenden. Die Delegierung von Anmeldeinformationen ermöglicht Benutzern den nahtlosen Zugriff auf mehrere Dienste im gesamten Netzwerk. Das Konzept manifestierte seine Nützlichkeit im Bereich von Single-Domain-Authentifizierungsmechanismen. Daher wird erwartet, dass auch neu entstehende Identitätsföderationen ähnliche Funktionen bereitstellen. In letzter Zeit sind verschiedene nicht webbasierte Föderationsmodelle aufgetaucht, die die Delegierung von Anmeldeinformationen leider nicht richtig abdecken. In diesem Whitepaper stellen wir einen Mechanismus vor, der digitale Zertifikate und PKI verwendet und die Delegierung von Anmeldeinformationen in nicht webbasierten Föderationen unterstützt. Die Realisierbarkeit des Konzepts wird durch die Integration des Mechanismus mit dem Moonshot-Föderationsrahmen demonstriert. Die Lösung bildet jedoch eine unabhängige Middleware-Schicht, die von mehreren Föderationsmodellen verwendet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46578-3_62 1b4a076b1d57979cea9a70defbc12c8e;de;;;3.5.;7.3.;2.1.;Meditationen zum semantischen Netz: Orientierter Bibliotheksinformationsdienst im Cloud-Computing-Zeitalter Semantic Net und Cloud Computing, die als Inbegriff des immensen Einflusses der IT auf den Bibliotheksinformationsdienst herausragen, haben ihren Weg in die Verarbeitung der expandierenden digitalen Produkte gefunden. Intellektualisierung und Humanisierung wurden mit der Anwendung von RDF und RSS auf die Cloud-Cyber-Source-Plattform projiziert, die die traditionelle Bibliothek sowie die Art des digitalen Dienstes ständig verändert.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_219 3c84bdce2f5d8d4700858a56ca36d47f;de;;;3.5.;7.3.;2.1.;Herausforderungen des Open Source Component Marketplace in der Industrie Die Wiederverwendung von im Internet verfügbaren Open Source Softwarekomponenten spielt eine große Rolle bei der Entwicklung komponentenbasierter Softwaresysteme. Nichtsdestotrotz hat die Besonderheit des OSS-Marktplatzes das „klassische“ Konzept der Software-Wiederverwendung auf der Grundlage zentralisierter Repositorys auf eine völlig andere Ebene geführt, die auf der massiven Wiederverwendung über das Internet basiert. In diesem Whitepaper geben wir einen Überblick über den aktuellen Stand des OSS-Marktplatzes und berichten über vorläufige Erkenntnisse darüber, wie Unternehmen mit diesem Marktplatz interagieren, um OSS-Komponenten wiederzuverwenden. Diese Daten stammen aus Interviews mit Softwareunternehmen in Spanien und Norwegen. Basierend auf diesen Ergebnissen identifizieren wir einige Herausforderungen, die darauf abzielen, die industrielle Wiederverwendung von OSS-Komponenten zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02032-2_19 3a96d415d1229a5f951699c4e3602e5a;de;;;3.5.;7.3.;2.1.;Webservice-Spezifikation und -Erkennung Jüngste Fortschritte bei Internet-Technologien haben das Web mit einer großen Anzahl von Diensten bevölkert. Die Servicespezifikation ist der erste Schritt in der SOA für die Implementierung der Servicepublikation, Serviceerkennung, Serviceauswahl und -komposition. Mehrere Spezifikationsstandards wurden unter Berücksichtigung der unterschiedlichen Leistungsmerkmale von Diensten entwickelt, nämlich Dienstoperationen, Eingabe/Ausgabe, Dienstgüte (QoS) usw. Dienste werden im ausgewählten Spezifikationsstandard spezifiziert und über Repositories/Web veröffentlicht. Die veröffentlichten Dienste werden von Benutzern erkannt, wenn sie die Repositorys mit den spezifischen bereitgestellten APIs abfragen oder mit Abfragen im Web surfen. Dieses Kapitel gibt einen Überblick über die bestehenden Spezifikationsstandards und deren Eigenschaften und diskutiert darüber hinaus verschiedene Ansätze der Service Discovery.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3224-1_2 c339a2243d0c7d789864bb82ad3d842a;de;;;3.5.;7.3.;2.1.;Ein neues Modell des Web Service Composition Framework Mit der rasanten Entwicklung von Webservices sowie deren Mengenausweitung kann ein einzelner Webservice die Bedürfnisse der Kunden nicht mehr befriedigen. Es war ein heißes Forschungsthema, wie die mehreren Webdienste zu einem zusammengesetzten Dienst kombiniert werden können, um den steigenden Anforderungen der Kunden gerecht zu werden. Zu den Problemen, die in den aktuellen Webservice-Frames bestanden, insbesondere den Unzulänglichkeiten bei der Webservice-Zusammensetzung, implementierte dieser Artikel den Algorithmus durch seine eigene entwickelte Agenten-Middleware Proxy und kombinierte Proxy mit dem aktuellen Webservice-Frame, um schließlich ein neues Frame-Modell von Zusammensetzung des Dienstes. Die Anwendung eines heuristischen Service-Kompositionssystems kann die logische Service-Komposition des Geschäfts und die Qualitätsoptimierung des Web-Service besser vervollständigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25255-6_61 1edd7d357ada8360300a6b6d1030149c;de;;;3.4.;7.3.;2.1.;Webbasierter intelligenter Service zur Unterstützung von Koalitionsoperationen in vernetzten Organisationen Heutzutage müssen sich Organisationen ständig an Markt- und Organisationsveränderungen anpassen, um ihre wichtigsten Ziele zu erreichen. Die Migration zu Business Services und serviceorientierten Architekturen bietet eine wertvolle Möglichkeit, die Unternehmensziele zu erreichen. Die Migration führt zu einer Weiterentwicklung sowohl der Organisationsstruktur als auch der Technologie, die es Unternehmen ermöglicht, Anbieter oder Dienstleistungen dynamisch zu ändern. Das Papier schlägt eine Sichtweise vor, die das Konzept der vernetzten Organisation & Web Intelligence & Web Services in eine Zusammenarbeitsumgebung einer vernetzten Organisation integriert. Es wird ein Ansatz für ein Wissenslogistikproblem basierend auf den Konzepten von Web Intelligence und Web Services in der vernetzten intelligenten Organisationsumgebung beschrieben. Die Anwendbarkeit des Ansatzes wird durch eine „Binni-Szenario“-basierte Fallstudie einer tragbaren Krankenhauskonfiguration als E-Business- und E-Government-Koalitionsoperation veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24694-7_16 52a356501b06a9db2eb7a5e763f84fdc;de;;;3.4.;7.3.;2.1.;Erkennung von Wettervorhersage-Webressourcen basierend auf Ontologie und inhaltsgesteuerter hierarchischer Klassifikation Die Überwachung von Umweltinformationen ist sowohl für die Entwicklung wichtiger Umweltereignisse als auch für alltägliche Aktivitäten von entscheidender Bedeutung. In dieser Arbeit konzentrieren wir uns auf die Entdeckung von Webressourcen, die Wettervorhersagen bereitstellen. Zu diesem Zweck senden wir domänenspezifische Anfragen an eine Allzwecksuchmaschine und verarbeiten die Ergebnisse nach, indem wir ein hierarchisches zweischichtiges Klassifizierungsschema einführen. Die oberste Schicht umfasst zwei Klassifikationsmodelle: a) das erste wird unter Verwendung von Ontologiekonzepten als Textmerkmale trainiert, b) das zweite wird unter Verwendung von Textmerkmalen trainiert, die aus einem Trainingskorpus gelernt werden. Die untere Schicht enthält einen Hybridklassifikator, der die Ergebnisse der obersten Schicht kombiniert. Wir bewerten die vorgeschlagene Technik, indem wir Wettervorhersage-Websites für Städte in Finnland entdecken und die Ergebnisse mit früheren Arbeiten vergleichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41013-0_23 bf97cab01c9669aa98568b8e22828a3f;de;;;3.4.;7.3.;2.1.;Wissenschaftliche Zeitschriften im Internet Während viele Forschungsarbeiten den Einfluss des Internets auf das „elektronische Geschäft“ untersuchen, kann die Informationstechnologie einen ebenso tiefgreifenden Einfluss auf das haben, was als „elektronische Wissenschaft“ bezeichnet werden könnte. Obwohl das Internet das Potenzial hat, die Forschung zu revolutionieren, ist unklar, in welcher Weise die Struktur von Zeitschriften und die damit verbundenen Forschungsprozesse beeinflusst werden. Der Zweck dieses Artikels besteht darin, eine bessere Grundlage für das Engineering wissenschaftlicher Wissensinfrastrukturen im Internet zu schaffen. Es werden alternative Modelle wissenschaftlicher Standorte untersucht, die sich der Schaffung und Verbreitung wissenschaftlicher Erkenntnisse verschrieben haben. Merkmale verschiedener Kategorien elektronischer Zeitschriften, z.B. traditionelle elektronische Zeitschriften, Wissensdatenbanken, Kollaborationen usw. werden untersucht und zu einer Liste von Schlüsselmerkmalen zusammengefasst, die dann als Grundlage für den Entwurf und die Untersuchung der Entwicklung solcher Systeme verwendet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-58663-7_6 7f7596d65b46e3bde90f1d632ab12cfa;de;;;3.4.;7.3.;2.1.;Ein ontologiebasiertes Framework für die Integration und Bereitstellung von Webdiensten für Benutzer mit eingeschränkter Mobilität Dieses Papier beschreibt ein ontologiebasiertes Framework, dessen Zweck es ist, Inhalte aus verschiedenen bestehenden Webdiensten zu sammeln, um die Informationsbedürfnisse von mobilitätseingeschränkten Benutzern zu erfüllen, während sie eine Reise planen, von einer Stadt in eine andere ziehen oder Hauskontrollen durchführen während des Ausflugs. Um auf die vom Benutzer angeforderten Inhalte zuzugreifen, ist das Tool mit semantischen Webservice-Such- und Discovery-Mechanismen ausgestattet. Das Service-Alignment-Tool, das Teil des vorgestellten Frameworks ist, ermöglicht es verschiedenen Service-Providern, ihre Webservices mit einer Reihe von Ontologien abzubilden, um die Erkennung und den Aufruf von Services zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16318-0_71 03d748b1dbd1a86e265ade086a55ba37;de;;;3.4.;7.3.;2.1.;Anwendung des Biba-Integritätsmodells auf das Beweismanagement Dieses Papier beschreibt das Design eines integritätsbewussten Forensic Evidence Management Systems (FEMS). Das bekannte Biba-Integritätsmodell wird verwendet, um die Integrität gespeicherter Beweise zu bewahren und zu begründen. Die Sicherheitsskala von Casey bietet das Integritätsklassifizierungsschema, das für die Anwendung des Biba-Modells erforderlich ist. In dem Papier werden auch die Vorteile der Verwendung eines integritätsbewussten Systems für die Verwaltung digitaler Beweise erörtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-73742-3_22 7c9e4bfa3ae8b0c39b7ea9198854da7c;de;;;3.5.;7.3.;2.2.;Suchen und Erkennen von Text in WWW-Bildern Das explosive Wachstum des World Wide Web hat zu einer verteilten Datenbank geführt, die aus Hunderten von Millionen Dokumenten besteht. Während bestehende Suchmaschinen eine Seite auf der Grundlage des Textes indizieren, der leicht aus ihrer HTML-Kodierung extrahiert werden kann, werden immer mehr Informationen im Web in Bilder eingebettet. Diese Situation stellt eine neue und spannende Herausforderung für die Bereiche Dokumentenanalyse und Information Retrieval dar, da WWW-Bildtext typischerweise in Farbe und mit sehr geringer räumlicher Auflösung wiedergegeben wird. In diesem Beitrag fassen wir die Ergebnisse unserer mehrjährigen Arbeit in diesem Bereich zusammen. Für das Problem des Auffindens von Text in Webbildern beschreiben wir ein Verfahren, das auf Clustering im Farbraum und anschließender Connected-Components-Analyse basiert, die vielversprechend erscheint. Für die Zeichenerkennung diskutieren wir Techniken, die polynomiale Oberflächenanpassung und „fuzzy“ n-Tupel-Klassifikatoren verwenden. Außerdem werden die Ergebnisse mehrerer Experimente präsentiert, die zeigen, wo unsere Methoden gut funktionieren und wo noch mehr Arbeit geleistet werden muss. Wir schließen mit einer Diskussion von Themen für die weitere Forschung.;-;-;-;https://link.springer.com/article/10.1023/A%3A1009954710479 f2a9e5f77205ec014a72910abe4a408d;de;;;3.4.;7.3.;2.2.;Natur des automatischen Aufbaus des chinesischen Thesaurus und seine Untersuchung wichtiger Technologien in digitalen Bibliotheken Moderne Informationsnetzwerke wie digitale Bibliotheken enthalten viel mehr Daten als je zuvor. Diese Daten sind global verteilt und für große, heterogene Benutzer leicht zugänglich. Andererseits erfordert die enorme Informationsmenge leistungsfähige Werkzeuge, damit der Nutzer die relevanten Daten findet. Ein solches Werkzeug ist Thesaurus. Der Thesaurus als Ontologie spielt eine immer wichtigere Rolle im Wissensmanagement und der Informationsbeschaffung digitaler Bibliotheken. Der Beitrag überdenkt die Natur des Thesaurus aus der Sicht der Ontologie. Es schlägt den Ansatz und die Ideen der automatischen Konstruktion von chinesischen Thesaurus vor. Einige Versuchsergebnisse und zukünftige Arbeiten werden ebenfalls in dem Papier beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16515-3_14 a2687704f70a8f0e03b04b166ae012e5;de;;;3.4.;7.3.;2.2.;Ein automatischer Serviceklassifizierungsansatz Mit der Entwicklung der Servicetechnologie veröffentlichen immer mehr Organisationen ihre Geschäftsfunktion als Service über das Internet. Die Dienstklassifizierung ist ein wichtiger Ansatz für das Dienstmanagement. Mit dem schnellen Anstieg der Servicenummer wird der Aufwand für die Klassifizierung dieser Dienste durch manuelle Arbeit immer höher. In dem Beitrag wurde ein Ansatz für die automatische Klassifizierung von Diensten basierend auf WordNet vorgestellt, der Text Mining, semantische Technologie und maschinelle Lerntechnologie kombiniert. Die Methode stützt sich nur auf die Textbeschreibung von Diensten, damit sie verschiedene Diensttypen klassifizieren kann, wie z. B. WSDL-Webdienst, RESTfulWeb-Dienst und traditionelle netzwerkbasierte Softwarekomponentendienste. Obwohl Text-Mining und die Anwendung von Begriffsklärungsmodellen für den Wortsinn verwendet werden, kann ein Dienst ohne Mehrdeutigkeit als Sinnvektor beschrieben werden. Dann wird ein K-Means-Algorithmus verwendet, um diese Dienste zu klassifizieren. Experimentelle Auswertungen zeigen, dass unsere Klassifikationsmethode eine gute Präzision und Erinnerung hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25661-5_65 e5e460edabe3459802cdf71c8a38b1e3;de;;;3.4.;7.3.;2.2.;Ein mehrschichtiges Topic-Map-basiertes Modell für die Organisation von Dokumentressourcen Heutzutage mit der weltweiten Verbreitung von Computern mit Internetverbindung werden Webressourcen und Ad-hoc-Ressourcen für elektronische Dokumente überflutet. Wie man eine überwältigende Menge an Informationen organisiert und damit effizient aus dem Internet recherchiert, ist sowohl im Wissensmanagement als auch im Information Retrieval immer ein heißes Thema. Die Topic Map (TM) bietet einen Rahmen zur Modellierung und Darstellung von Wissensressourcen und spielt als „GPS“ im Informationsuniversum eine Rolle. Es wird hiermit in unsere Studie eingeführt, um Dokumentenressourcen zu organisieren. Unter Verwendung des TM-Konzepts wird in diesem Beitrag ein mehrschichtiges Topic-Map-basiertes Modell vorgeschlagen. Es organisiert die aus Domänendokumentinhalten verallgemeinerten Konzepte hierarchisch und führt den Suchprozess in einem engeren Themenraum. Das vorgeschlagene Modell wurde für die chinesische Dokumentenorganisation verwendet, die die Wissensnavigation effizienter macht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-37256-1_92 14479c1c78cff9ac0cb68ab48902d2ea;de;;;3.5.;7.3.;2.4.;WISSENSCHAFTLICHE KOMMUNIKATIONSFÄHIGKEITEN IM WISSENSCHAFTSSTUDIEN UNTERRICHTEN: MACHT DAS EINEN UNTERSCHIED? Diese Studie untersucht die Auswirkungen des Kompetenzunterrichts „Wissenschaftliche Kommunikation“ (SC) auf die Leistungen der Schüler bei Aufgaben zur Bewertung der wissenschaftlichen Kompetenz. Wir stellen ein allgemeines Modell für den Kompetenzunterricht vor, der sich durch expliziten und spiralförmigen Unterricht, Integration in das inhaltliche Lernen, Praxis in mehreren wissenschaftlichen Themen und Anwendung von Leistungsaufgaben auszeichnet. Das Modell wurde durch ein Lehrprogramm angewendet, das sich auf die folgenden Lernfähigkeiten konzentriert: Informationsbeschaffung, wissenschaftliches Lesen und Schreiben, Zuhören und Beobachten, Datendarstellung und Wissenspräsentation. Während der 7. bis 8. Klasse lernten 160 Schüler das gesamte Programm oder einen seiner Bestandteile:;-;-;-;https://link.springer.com/article/10.1007/s10763-009-9150-6 879224f2253f57c244d411014e33e3b2;de;;;3.5.;7.3.;2.4.;Auf dem Weg zu globaler Weisheit im Zeitalter der Digitalisierung und Kommunikation Die Bildungsreform erfordert die synergetischen Bemühungen der UNESCO, der EU, nationaler und lokaler Regierungen, politischer Entscheidungsträger, Pädagogen, Wirtschaftskreise, öffentlicher Interessengruppen, Eltern, Bürger und Nichtregierungsorganisationen wie IFIP und der Internationalen Vereinigung zur Bewertung Bildungsleistungen (IEA). Es ist von entscheidender Bedeutung, dass sich Übergangsländer an den Bildungs- und Ausbildungsinitiativen und -programmen der EU wie PHARE (einschließlich TEMPUS), COPERNICUS, SOKRATES und LEONARDO sowie an allen Initiativen und Projekten der UNESCO beteiligen.;-;-;-;https://link.springer.com/article/10.1007/BF02736641 517d49489b2048ffa46a6e034ea4878a;de;;;3.5.;7.3.;2.4.;Ein Blick von der Straße: Aktive Täter, der Lebensverlauf, Technologie und Implikationen für die Sicherheit Die Forschung mit aktiven Tätern nimmt einen zentralen Platz in der Entwicklung der Kriminologie ein. Von Shaws (1930) Darstellung von Stanley the Jack Roller und Sutherlands (1937) Beschreibung des professionellen Diebes bis hin zu zeitgenössischen Berichten über Straftäter auf der Straße (Decker und van Winkle, 1996, Jacobs und Wright, 1999, Jacques und Wright, 2011, Wright und Decker, 1994, 1997) waren aktive Straftäter entscheidend für die Erarbeitung der Mechanismen und Prozesse, die Kriminalität, insbesondere Straßengewalt, förderlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-67284-4_23 8f1e079ab83e765198ef03645f43958b;de;;;3.4.;7.3.;2.4.;Forschung zum Kundenbeziehungsmanagement basierend auf Web Mining Kunden identifizieren, gewinnen und pflegen ist der Hauptinhalt des Kundenbeziehungsmanagements. In diesem Artikel wird Web-Mining-Technologie verwendet, die sich auf die Anwendungsforschung für den elektronischen Handel konzentriert und potenzielle und treue Kundeninformationen aus den Daten von Benutzern erhält, die die Website des Unternehmens besuchen. Mit umfassendem Verständnis des Kunden besuchen Sie die Website des Unternehmens mit Zeitangaben, Präferenzen und anderen relevanten Informationen, um die Nachfrage des Kunden effektiv zu verstehen. An die angepasste Struktur der Unternehmenswebsite, Marktstrategie, die die E-Commerce-Aktivitäten stärker auf den Kunden ausrichtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27948-5_29 92e289d55cf244036212846e6f5e803e;de;;;3.4.;7.3.;2.4.;Erstellen paralleler Korpora durch automatische Titelausrichtung Die sprachübergreifende semantische Interoperabilität hat in letzter Zeit erhebliche Aufmerksamkeit in der Forschung auf sich gezogen, da die Zahl der digitalen Bibliotheken in nicht-englischen Sprachen exponentiell zugenommen hat. Cross-lingual Information Retrieval (CLIR) in verschiedenen europäischen Sprachen wie Englisch, Spanisch und Französisch wurde umfassend untersucht, aber CLIR in europäischen und orientalischen Sprachen befindet sich noch in der Anfangsphase. Um die Sprachgrenze zu überschreiten, verspricht ein korpusbasierter Ansatz, die Grenzen wissensbasierter und kontrollierter Vokabularansätze zu überwinden. Es ist jedoch keine leichte Aufgabe, parallele Korpora zwischen europäischen und orientalischen Sprachen zu sammeln. Längenbasierte und textbasierte Ansätze sind zwei Hauptansätze zum Ausrichten paralleler Dokumente. In diesem Papier untersuchen wir verschiedene Techniken, die diese Ansätze verwenden, und vergleichen ihre Leistung beim Abgleichen englischer und chinesischer Titel paralleler Dokumente, die im Web verfügbar sind.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36227-4_38 29a929a92d00b618872132e41900cc5f;de;;;3.5.;7.3.;3.2.;Entlarvung als Hobby, Unterhaltung, wissenschaftliche Verfolgung und öffentlicher Dienst Das Buch hat sich bisher nur auf zwei Arten von Aktivitäten konzentriert, die eine genaue Überprüfung, die Entlarvung von urbanen Legenden und die Überprüfung politischer Fakten beinhalten. Der Hauptzweck dieses Kapitels besteht darin, zu zeigen, dass es im Zeitraum 1990–2015 eine breitere Palette von Aktivitäten gab, die mit der Kontrolle verbunden waren. Bevor sich dieses Kapitel diesem Hauptthema zuwendet, untersucht das Kapitel das Jahrzehnt vor der Schaffung des öffentlichen Internets in den frühen 1990er Jahren und zeigt, wie urbane Legenden verbreitet wurden, sowie Studien zu Technologien vor dem Internet wie Fax, Bulletin Boards und proprietäre Online-Dienste Anbieter wie America OnLine und Prodigy. Das Kapitel wendet sich dann der Schaffung – beginnend in den 1980er Jahren – einer neuen akademischen Teildisziplin zu, der Erforschung zeitgenössischer Legenden, vor allem aus den Disziplinen Volkskunde und Soziologie. Der Fokus liegt auf einer bestimmten Organisation, der International Society for Contemporary Legend Research. Der nächste Abschnitt konzentriert sich auf Organisationen wie Hoaxbusters, Scambusters und VMyths, die als öffentlicher Dienst geschaffen wurden, um Einzelpersonen und Organisationen zu helfen, Computerviren, Stuhlbriefe und Internet-Schwindel durch eine angemessene Prüfung zu vermeiden. Im folgenden Abschnitt geht es um Unterhaltung. Es gibt zwei Arten von Unterhaltung, die hier in Betracht gezogen werden: Eine Art sind Wahrheits- oder Fiktionsfernsehsendungen wie;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-22952-8_4 e5b744c1944205251b0f35d6dac1800f;de;;;3.4.;7.3.;3.2.;Segeln auf dem Siliziummeer – Der Entwurf eines virtuellen Schifffahrtsmuseums Im Anschluss an die Entwicklung eines virtuellen Museums theoretisiert dieser Aufsatz die Auswirkungen, die dies für das Western Australian Maritime Museum (http://www.mm.wa.gov.au/) hatte. Es ist eine Gelegenheit, die Beziehung zwischen Theorie und Praxis zu erkunden. Der Kontext für die Analyse ist das Internetprojekt Diving into Shipwrecks (http://www.mm.wa.gov.au/Museum/excavate/intro/intro_frame.html), das als Konstellation von Schiffswrackgrabungen entwickelt wurde. Der Erfolg des Projekts wird durch die Auswertung statistischer Daten und qualitativere Formen des Feedbacks hervorgehoben. Nachdem ein Modell in einem virtuellen Museum etabliert wurde, reflektiert dieses Papier dann andere Formen der Webmuseen, die im Internet erscheinen. Die Diskussion hat Auswirkungen auf kulturelle Organisationen, die versuchen, Online-Umgebungen zu schaffen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1009099116304 2b94bfd40cf4b9b316210f89b4b6a9f5;de;;;3.4.;7.3.;3.2.;Eine qualitative Metaanalyse zur Konvergenz im IKT-Sektor Konvergenz ist ein Begriff, der häufig verwendet wird, um den Wandel der gegenwärtigen Gesellschaft zu erklären, aber die Bedeutung der Konvergenz unterscheidet sich je nach Kontext. Dieses Papier definiert Konvergenz basierend auf anderen Forschungsergebnissen und analysiert 40 Artikel über Konvergenz im IKT-Bereich. Jeder Artikel wurde im August 2010 aus Zeitschriften und Datenbanken zusammengetragen und durch eine qualitative Metaanalysemethode basierend auf dem PEST-Konzept analysiert. Das Ergebnis der Metaanalyse kann verwendet werden, um die aktuellen Konvergenztrends in IKT-Umgebungen zu verstehen und eine zukünftige Konvergenzstrategie zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17644-9_22 ce2b2dd4924a4ceefe9c67c8a2d27a88;de;;;3.4.;7.3.;3.2.;Elektronischer Handel: Datenschutz, Sicherheit und Kontrolle In diesem Kapitel werden technische und nicht-technische Fragen im Zusammenhang mit Datenschutz, Sicherheit und Kontrolle im elektronischen Geschäftsverkehr untersucht. Diese Themen sind für Verbraucher und Unternehmen von großer Bedeutung und entwickeln sich mit beeindruckender Geschwindigkeit weiter. In diesem Kapitel werden viele der häufiger auftretenden Probleme und Ängste vorgestellt, die mit elektronischen Transaktionen einhergehen, sowie viele Verhaltens- und technische Reaktionen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-58327-8_31 aab0a0cb991b186ed085ee333ec3f0bb;de;;;3.4.;7.3.;3.2.;Die Bereitschaft zum E-Publishing bei malaysischen Buchverlagen Fortschritte in der digitalen Technologie schlagen in der Verlagsbranche Wellen, und E-Publishing beginnt, sich auf dem Markt zu etablieren. Obwohl Verlage E-Publishing als Chance sehen, Produkte und neue Vertriebskanäle zu erschließen, sehen manche diese Entwicklung eher als Risiko denn als Chance und sind daher nicht bereit, an diesen Veränderungen teilzuhaben. Diese Studie wurde durchgeführt, um die Bereitschaft zum E-Publishing bei malaysischen Buchverlagen basierend auf dem E-Publishing Readiness Assessment Model zu bestimmen. Die Ergebnisse ergaben, dass Verlage in Malaysia in Bezug auf Infrastruktur und Personal vorbereitet sind. Allerdings ist nur ein kleiner Prozentsatz von ihnen bereit, E-Publishing zu praktizieren, indem sie mindestens ein E-Book veröffentlichen, während die Mehrheit abwartend vorgeht, bevor sie mit der Herausgabe von E-Books beginnen. Interviews mit zwei Unternehmen mit hoher E-Readiness und niedriger E-Readiness zeigten, dass die Bereitschaft von der Entscheidung der Unternehmensspitze abhängt. Darüber hinaus wirken sich externe Faktoren wie Marktnachfrage, technologischer Druck, Wettbewerb, Konsumgewohnheiten sowie Polizei- und Regierungspolitik auch auf die Ergebnisse des Top-Managements aus, E-Publishing in ihren jeweiligen Unternehmen zu betreiben. Anhand dieser Ergebnisse können die in der Verlagsbranche tätigen Regierungen und Behörden möglicherweise bei der Entwicklung einer Strategie zur Verbesserung der E-Publishing-Praktiken in Malaysia helfen, eine Lösung zu finden.;-;-;-;https://link.springer.com/article/10.1007/s12109-018-9589-9 5745ad57cc22a35f0eb93b18a20df7e3;de;;;3.4.;7.3.;3.2.;Exploring Online Diasporas: Londons französische und lateinamerikanische Gemeinschaften im britischen Webarchiv Das Ziel des UK Web Archive, die gesamte britische Web-Domain zu sammeln und zu bewahren, stellt sicher, dass es die Vielfalt der Stimmen und Gemeinschaften im offenen Web widerspiegeln kann, einschließlich Migrantengemeinschaften, die in digitalen und physischen Umgebungen präsent sind. Gleichzeitig führen Muster breiterer sozialer und politischer Ausgrenzung sowie die Verwendung anderer Sprachen als Englisch dazu, dass die Webpräsenz dieser Gemeinschaften in allgemeineren und anglophonen Webarchivierungs- und (Forschungs-)Praktiken oft übersehen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63291-5_15 f84a3e55d2a5134a7bcd191345471db1;de;;;3.4.;7.3.;3.2.;Visual Studio it ASP.NET haben Sie mehrere Möglichkeiten, Webanwendungen zu entwickeln. Wenn Sie Lust haben (und die Arbeit nicht stört), können Sie jede Webseite und Klasse mit einem einfachen Texteditor von Hand codieren. Dieser Ansatz ist ansprechend einfach, aber für alles andere als eine einfache Seite mühsam und fehleranfällig. Professionelle ASP.NET-Entwickler gehen diesen Weg selten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-0432-9_2 7f6a46538117b44ece492d5eba16c0e3;de;;;3.4.;7.3.;3.2.;Ein integriertes Modell technologischer und verhaltensbezogener Perspektiven für die Einführung des Internets in Haushalten: Eine empirische Studie zu iranischen Gemeinschaften Die bestehenden Theorien in den Bereichen Technologieakzeptanz und Internetadoption könnten in technologische und verhaltensbezogene Ansätze eingeordnet werden. In diesem Beitrag schlagen wir ein integriertes Haushalts-Internet-Adoptionsmodell vor, das beide Perspektiven kombiniert, so dass die drei Primärmodelle des Technologieakzeptanzmodells (TAM), der Theorie des geplanten Verhaltens (TPB) und der Nutzungs- und Befriedigungstheorie (U&G) ausgewählt werden, um die integriertes Modell. Die Beziehungen zwischen den Konstrukten des vorgeschlagenen Modells werden dann basierend auf den Literaturergebnissen hypothetisiert und in einer Fallstudie zur Internetakzeptanz bei iranischen Haushaltsnutzern untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22603-8_57 53bd9215ac2720df436d660bc7e64a4a;de;;;3.5.;7.3.;3.3.;Netzwerkbasiertes wissenschaftliches Rechnen Rasante Fortschritte bei modernen Netzwerktechnologien und handelsüblichen Hochleistungscomputersystemen führen das Gebiet der Computer in einem neuen Paradigma, das als netzwerkbasiertes Computing (NC) bezeichnet wird, an. Dieses Paradigma betrachtet eine große Anzahl geografisch verteilter Computerressourcen wie PCs, Workstations, symmetrische Multiprozessoren (SMP) und Massively Parallel Processing (MPP)-Systeme, die über ein Hochgeschwindigkeitsnetzwerk als ein einzelner Metacomputer oder Rechengitter verbunden sind [2] . In diesem Papier konzentrieren wir uns auf die Internet- (WAN) und Intranet- (LAN) basierten Rechengitter und ihre Fähigkeit, skalierbares und robustes „tiefes“ Computing zu unterstützen. Wir präsentieren verschiedene Implementierungen des NC-Paradigmas unter Verwendung von Standard- und kundenspezifischer Software im Kontext der bestehenden PELLPACK-Problemlösungsumgebung [8], der ITPACK-Bibliothek, wie sie im PELLPACK-System implementiert wurde, und einer Muti-Physik-Anwendung für den Entwurf von Gasturbinentriebwerke [11]. Mit dieser Studie versuchen wir die Machbarkeit und Effizienz mehrerer NC-Paradigmen für wissenschaftliche Anwendungen unter Verwendung vorhandener Middleware zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35407-1_1 4faa1194d4de5b67061e94e8b65b100f;de;;;3.5.;7.3.;3.3.;Benutzeroberflächenmodellierung für barrierefreie Webanwendungen mit der Unified Modeling Language Die Gestaltung barrierefreier Web-Benutzeroberflächen (UIs) ist eine komplexe Herausforderung für Software-Architekten und -Entwickler, da die Anforderungen oft zu spät im Entwicklungsprozess berücksichtigt werden. Die UI-Modellierung ermöglicht die Erforschung bestimmter Aspekte von Barrierefreiheitsanforderungen während des Entwicklungsprozesses – insbesondere während der Analyse und des Designs. Es basiert auf der Beschreibung des Arbeitsablaufs des Benutzers. Wesentliche UI-Modelle werden beschrieben. Mit;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33389-7_70 3d0c46edbf70b2aaaef198fec0a32ec2;de;;;3.5.;7.3.;3.3.;Verwenden von UDDI zum Veröffentlichen von Metadaten des Semantic Web Obwohl UDDI keine Unterstützung für semantische Suche, Retrieval und Speicherung bietet, ist es bereits als Industriestandard akzeptiert und eine Vielzahl von Diensten speichern ihre Leistungsbeschreibungen bereits in UDDI. Ziel dieses Papiers ist es, Möglichkeiten und Wege zu analysieren, UDDI-Registry zu verwenden, um die Nutzung von Metadaten, die nach Semantic Web-Standards kodiert sind, für die semantikbasierte Beschreibung, Entdeckung und Integration von Webressourcen im Kontext der Bedürfnisse von zwei Forschungsprojekten zu ermöglichen: Adaptive Services Grid“ und „SmartResource“. Wir präsentieren einen Ansatz zum Abbilden von RDFS-Oberkonzepten auf das UDDI-Datenmodell unter Verwendung der tModel-Struktur, die es ermöglicht, semantisch annotierte Ressourcen intern in UDDI zu speichern. Wir betrachten UDDI als eine ermöglichende Spezifikation für die Erstellung einer semantischen Registrierung nicht nur für Dienste, sondern auch für Webressourcen im Allgemeinen.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-29248-9_8 7f700c4908e1fde3ec536c3fd8f04489;de;;;3.5.;7.3.;3.3.;"Digitale Kluft oder diskursives Design? Zur aufkommenden Ethik des Informationsraums Dieser Artikel versucht theoretisch einige allgemeine ethische Fragen über die Art des Raums zu identifizieren, zu dem das Internet wird, Fragen, die eng mit der Entwicklung neuer Agendas für die empirische Forschung zur Internetnutzung verbunden sind. Es versucht, sich von dem Konzept der ""digitalen Kluft"" zu entfernen, das die Debatte in diesem Bereich dominiert hat, und geht dabei von einer eher statischen Vorstellung des Raums aus, der das Internet ist oder werden könnte. Stattdessen stützt es sich auf die Theorie der deliberativen Demokratie im Allgemeinen und John Dryzeks Konzept des „diskursiven Designs“ im Besonderen, um sechs Arten von Themen (Konvergenz, Wer konvergiert?, Deliberation, öffentliches Handeln, Beziehungen zum Staat und langfristige Praxismuster) zu formulieren die sowohl empirische Forschung als auch ethische Debatte fokussieren können und die zusammengenommen helfen zu beantworten, ob das Internet zum Teil ein ""diskursives Design"" ist oder sein kann, das zu den Bedingungen des demokratischen öffentlichen Lebens beiträgt.";-;-;-;https://link.springer.com/article/10.1023/A%3A1024916618904 9ad55542c086f28ed448e9b6dafb422a;de;;;3.4.;7.3.;3.3.;Big Data im Product Lifecycle Management In jüngster Zeit hat „Big Data“ neben der Entwicklung der Informationstechnologie nicht nur die Aufmerksamkeit von Forschern, sondern auch von Herstellern auf sich gezogen. In diesem Beitrag werden zunächst Konzept, Eigenschaften und Anwendungen von „Big Data“ kurz vorgestellt. Anschließend werden die verschiedenen Daten der drei Hauptphasen des Product Lifecycle Management (PLM) (d. h. Beginn des Lebens, Lebensmitte und Lebensende) zusammengefasst und analysiert. Doch in welcher Beziehung stehen diese PLM-Daten zum Begriff „Big Data“? Ob das Konzept und die Techniken von „Big Data“ in der Fertigung eingesetzt werden können, um die Intelligenz und Effizienz von Konstruktions-, Produktions- und Serviceprozessen zu verbessern, und welche Anwendungsmöglichkeiten gibt es? Um diese Fragen zu beantworten, werden daher die bestehenden Anwendungen von „Big Data“ im PLM zusammengefasst und die Anwendungsmöglichkeiten von „Big Data“-Techniken im PLM untersucht und aufgezeigt.;-;-;-;https://link.springer.com/article/10.1007/s00170-015-7151-x 7abee12d7105c82d9dadd0f4496af965;de;;;3.4.;7.3.;3.3.;Die Rolle von Logistiklabors in Forschung und Hochschulbildung Laborbasierte Logistikforschung dient mehreren Zielen. Es schließt die Lücke zwischen Grundlagen- und angewandter Forschung, dient als Demonstrationsinfrastruktur für neue Entwicklungen und unterstützt so unternehmerische Innovationen und bietet Ausbildungs- und Beteiligungsmöglichkeiten für Studierende und Praktiker. Kein Wunder, dass es zahlreiche universitäre und industrielle Logistikforschungslabore gibt. Allerdings ist die Rolle der Logistiklabore für Forschung und Lehre noch nicht im Detail erforscht und der Übergang von der Inhouse-Logistik zur Versorgungsnetzforschung noch nicht auf Logistiklabore übertragen. Zudem verändern neue Entwicklungen wie das Internet der Dinge und das Web 2.0 den Fokus der Logistiklabore und erhöhen die Bedeutung interdisziplinärer Forschung mit Informatikfakultäten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28816-6_1 96b83826ecf6db9c40fd4e09872361d3;de;;;3.4.;7.3.;3.3.;Rechengitter In diesem einleitenden Kapitel legen wir die Grundlage für den Rest des Buches, indem wir ein detaillierteres Bild des erwarteten Zwecks, der Form und der Architektur zukünftiger Gittersysteme liefern. Wir gliedern das Kapitel in sechs Fragen, die unserer Meinung nach zentral für diese Diskussion sind: Warum brauchen wir Rechengitter? Für welche Arten von Anwendungen werden Raster verwendet? Wer wird Gitter verwenden? Wie werden Gitter verwendet? Worauf kommt es beim Aufbau eines Netzes an? Und welche Probleme müssen gelöst werden, um Grids alltäglich zu machen? Wir geben hier einen Überblick über jedes dieser Probleme und verweisen auf die nachfolgenden Kapitel für eine detailliertere Diskussion.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44942-6_2 3d6605ef48bc842a1b7b6a2e7259d883;de;;;3.4.;7.3.;3.3.;Software Birthmark Design und Schätzung: Eine systematische Literaturübersicht Das Konzept des Software-Muttermals wurde für die Erkennung von Diebstahl und Piraterie in Softwareanwendungen entwickelt. Die Originalität von Software kann durch den Vergleich von Softwareprogrammen anhand ihrer Muttermale bewertet werden. Es wurde eine Anzahl von Muttermaldesigns vorgeschlagen, die verwendet werden, um Muttermal für Quellcode und ausführbaren Code in Bezug auf bestimmte Programmiersprachen zu spezifizieren. Diese Studie präsentiert eine systematische Literaturübersicht über verfügbare Software-Muttermaldesigns und verwandte Techniken zum Vergleich von Muttermalen, um Raubkopien von Software zu identifizieren. Diese Forschung konzentriert sich auf die Identifizierung verschiedener Anwendungen von Software-Muttermalen, insbesondere die Schätzung von Software-Muttermalen, um das Ausmaß der Piraterie in einer Software zu identifizieren. Ziel ist es, durch Ansammlung und Analyse des in der Literatur bereitgestellten Wissens einen Einblick in komplexe Details von Software-Muttermalen zu gewinnen, um die weitere Forschung zu Software-Muttermal und ihren Anwendungen zu erleichtern. Die Studie wird nach dem Protokoll der systematischen Literaturrecherche durchgeführt. Die Daten stammen aus Primärstudien, die von 1992 bis April 2018 in bestimmten Zeitschriften und Tagungs-/Workshopbänden veröffentlicht wurden. Insgesamt werden 143 Primärstudien basierend auf vordefinierten Ausschluss-, Einschluss- und Qualitätskriterien ausgewählt. Die Studie identifiziert 22 Software-Muttermaltechniken, die von Forschern und der Industrie häufig verwendet und diskutiert werden. Die Studie identifiziert auch eine Reihe wichtiger Anwendungen von Software-Muttermalen. Diese Anwendungen definieren die Verwendung von Software-Muttermalen bei der Erkennung von Softwarediebstahl und Plagiaten, intellektuellem Software-Asset-Management, Erkennung von binärem Diebstahl, Malware-Erkennung, Erkennung des Diebstahls natürlicher Sprache und semantikbasierter Neuverpackungserkennung für mobile Apps. Die Ergebnisse zeigen, dass es trotz umfangreicher Forschung und Entwicklung verschiedener Muttermaltechniken an organisiertem Wissen mangelt, das erforderlich ist, um die Verwendung von Software-Muttermalen für kritische Anwendungen wie Klonerkennung und Malware-Erkennung zu erleichtern. Darüber hinaus zeigt sich, dass der Bereich der Software-Muttermalschätzung nicht gut erforscht ist und weiter erforscht werden muss. Die Studie empfiehlt, dass der Bereich der Software-Muttermale erforscht werden muss, um einen zuverlässigen und authentischen Mechanismus zu entwickeln, der Softwarediebstahl genau und einfach erkennen und letztendlich Softwarepiraterie verhindern kann.;-;-;-;https://link.springer.com/article/10.1007/s13369-019-03718-9 d46813bad18d7d286829913d7b11b853;de;;;3.4.;7.3.;3.3.;Cloud-Services-Plattform für die Integration des Handels mit öffentlichen Ressourcen In Anbetracht der Tatsache, dass Chinas Handelsplattform für öffentliche Ressourcen nicht im eigentlichen Sinne der Integration implementiert ist, existiert der Informationsaustausch immer noch isoliert, die Sicherheit ist nicht stark, große Ressourcen, schlechte Aktualität und Effizienz sind gering Cloud-Services. Dieses System realisiert nicht nur den Insider des Handelszentrums für öffentliche Ressourcen, den Reichtum und die Einheit des Geschäftsprozessmanagements, währenddessen Ressourcenvirtualisierung zu erreichen, Dienstleistungen quantifiziert werden können und One-Stop-Service online.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-05506-0_16 4c6055e13670ee022758ba1f16dcdb83;de;;;3.4.;7.3.;3.3.;LiDARHub: eine kostenlose Open-Source-Softwareplattform für die webbasierte Verwaltung, Visualisierung und Analyse von LiDAR-Daten LiDAR ist eine aktive Fernerkundungstechnik mit der einzigartigen Fähigkeit, dreidimensionale Informationen der Erdoberfläche auch in stark bewachsenen Gebieten zu erfassen und hat sich in vielen Forschungsanwendungen als nützlich erwiesen. Obwohl es sich zur bevorzugten Fernerkundungsplattform für Planungs- und Naturressourcenbehörden entwickelt, die dreidimensionale Informationen benötigen, machen die enormen generierten Daten und der Mangel an verfügbaren Software-Analysepaketen LiDAR für einen typischen Benutzer von Geodaten immer noch nicht verfügbar. LiDARHub ist eine kostenlose Open-Source-Plattform zur webbasierten Verwaltung, Visualisierung und Analyse von LiDAR-Daten, die die Entwicklung von Online-Tools für die LiDAR-Datenverarbeitung in einem Webbrowser ermöglicht. Das Framework bietet eine Grundlage für die Entwicklung von Online-Tools für die LiDAR-Datenverarbeitung und Tools können gemeinsam genutzt werden. Das Framework ist außerdem flexibel, sodass die entwickelten Tools einfach auf High Performance Computing (HPC)-Umgebungen portiert werden können, die die rechenintensive LiDAR-Datenverarbeitung beschleunigen. Zwei beispielhafte LiDARHub-Tools werden als Fallstudien vorgestellt, um mögliche Softwareentwicklungsszenarien aufzuzeigen. Die entwickelten Tools bieten eine einfach zu bedienende Benutzeroberfläche und verbergen komplexe Berechnungen, sodass Benutzer die LiDAR-Technologie mit nur einem Webbrowser nutzen können. Der LiDARHub ermöglicht nicht nur den Austausch großer Mengen an LiDAR-Daten, sondern auch die Entwicklung einer Online-LiDAR-Verarbeitungsplattform für ein großes Publikum.;-;-;-;https://link.springer.com/article/10.1007/s12303-015-0003-8 0caef0c97484b42e439ee74625e41c90;de;;;3.4.;7.3.;3.3.;Auf E-Government angewendete Dienstleistungszusammensetzung Eine der großen Herausforderungen der öffentlichen Verwaltung ist die Notwendigkeit, Dienste zu integrieren, um eine Vielzahl neuer, besser geeigneter und besser gestalteter Dienste anzubieten, auf die auf einheitliche Weise elektronisch zugegriffen werden kann. Vor kurzem erschien die Web Service-Technologie mit dem Versprechen, Dienste auf einfache Weise über das Internet zusammenzustellen. Trotz der Vorteile von Web Services ist eine minimale Technologieunabhängigkeit bei der Gestaltung solcher Kompositionen wünschenswert, um alle in die Entwicklung von Services investierten Anstrengungen zu gewährleisten und zu erhalten. In diesem Artikel wird ein Service Composition Management Framework vorgeschlagen, das sich auf eine technologieunabhängige Beschreibung konzentriert. Das genannte Framework ist Teil einer umfassenderen Plattform, die für die elektronische Bereitstellung von Regierungsdiensten entwickelt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-8155-3_17 aa0800c912fb83fd71d892498b5f3fa1;de;;;3.4.;7.3.;3.3.;UMapIT© (Unrestricted Mapping Interactive Tool): Zusammenführung des Datacube-Paradigmas mit einem ereignisbasierten Ansatz zur Unterstützung von On-Demand-Web-Mapping UMapIT ist ein On-Demand-Web-Mapping-Tool, das entwickelt wird, um Internetbenutzern flexible Möglichkeiten zur Personalisierung von Karten und zur interaktiven Navigation in ihnen bereitzustellen. Basierend auf einer spezifischen Datenbankstruktur mit mehreren Repräsentationen bietet es neue Funktionalitäten zur Anwendung auf der Vorkommensebene. Diese innovativen Funktionalitäten stammen aus dem Datacube-Paradigma. Sie umfassen geometrische Bohrer, die es dem Benutzer ermöglichen, zwischen den verschiedenen LoDs (Level of Detail) zu navigieren, die einem Objekt zugeordnet sind, oder zu den verschiedenen Geometrien derselben LoD, die auf unterschiedliche Zwecke ausgerichtet sind. Diese Funktionalitäten adressieren auch die semantischen und grafischen Aspekte und bieten den Benutzern, die daran interessiert sind, zwischen den verschiedenen Bedeutungen eines Objekts zu navigieren oder seine visuellen Variablen (z. B. Farbe, Symbol) zu ändern, weitere Flexibilität, ohne andere Vorkommen derselben Klasse zu beeinflussen . Darüber hinaus ermöglicht die zugrunde liegende Struktur von UMapIT die Unterstützung von „GenZoom“-Operationen, die die Geometrie jedes Objekts individuell an den Kartenmaßstab anpassen und so eine spontane kartografische Generalisierung simulieren. Das Ziel dieses Kapitels besteht darin, die neuen Möglichkeiten zu veranschaulichen, die durch die Zusammenführung des Datacube-Paradigmas mit einem ereignisbasierten Ansatz für On-Demand-Web-Mapping geboten werden. Der Schwerpunkt liegt auf grundlegenden Konzepten und deren Umsetzung in UMapIT. Eine solche Verschmelzung von GIS- und Datacube-Konzepten, die aus dem Bereich Business Intelligence (BI) hervorgegangen sind, hat in Kanada großes Interesse und Forschungsförderung geweckt, was die Entwicklung in diesem Land vom Geodatenmanagement (unter Verwendung von Transaktionssystemen) zu hochgradig flexible räumliche Analysesysteme (unter Verwendung von Geospatial Intelligence-Technologien). Dieses Kapitel bietet auch eine Lösung für den Wunsch kanadischer Organisationen, bessere Map-on-Demand-Webdienste anzubieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72029-4_13 0e8828a8749c8e87e3020e24911f624a;de;;;3.4.;7.3.;3.3.;Informationssicherheitsmodell der Blockchain basierend auf Intrusion Sensing in der IoT-Umgebung Blockchain ist eine dezentralisierte Kernarchitektur, die in aufkommenden digitalen Verschlüsselungswährungen weit verbreitet ist. Es hat viel Aufmerksamkeit auf sich gezogen und wurde mit der allmählichen Akzeptanz von Bitcoin erforscht. Die Blockchain-Technologie zeichnet sich durch Zentralisierung, Datenblockierung, Manipulationsfreiheit und Vertrauen aus und wird daher von Unternehmen, insbesondere Finanzinstituten, nachgefragt. Dieses Papier erläutert das Kerntechnologieprinzip der Blockchain-Technologie, diskutiert die Anwendung der Blockchain-Technologie, die bestehenden regulatorischen Probleme und Sicherheitsprobleme, um eine Hilfestellung für die damit verbundene Forschung zur Blockchain-Technologie zu geben. Intrusion Detection ist ein wichtiger Weg, um die Sicherheit von Informationssystemen zu schützen. Sie ist in den letzten Jahren in den Fokus der Sicherheitsforschung gerückt. Dieses Papier stellt die Geschichte und die aktuelle Situation von Intrusion Detection Systemen vor, erläutert die Klassifizierung von Intrusion Detection Systemen und den Rahmen der allgemeinen Intrusion Detection und diskutiert alle Arten von Intrusion Detection-Technologien im Detail. Die Intrusion Detection-Technologie ist eine Art Sicherheitstechnologie zum Schutz von Netzwerkressourcen vor Hackerangriffen. IDS ist eine sinnvolle Ergänzung zur Firewall, die dem Netzwerksystem helfen kann, Angriffe schnell zu erkennen und die Integrität der Informationssicherheitsinfrastruktur zu verbessern. In diesem Papier wird die Intrusion Detection-Technologie auf das Blockchain-Informationssicherheitsmodell angewendet, und die Ergebnisse zeigen, dass das vorgeschlagene Modell eine höhere Erkennungseffizienz und Fehlertoleranz aufweist.;-;-;-;https://link.springer.com/article/10.1007/s10586-018-2516-1 48bf892e5fdb1d19897b5fc613f543d8;de;;;3.4.;7.3.;3.3.;Auf dem Weg zu einer gemeinsamen Plattform zur Unterstützung von Geschäftsprozessen, Services und Semantik Die Suche nach dem Heiligen Gral, um die Interoperabilität von Geschäftsprozessen, Services und Semantik zu erreichen, geht mit jeder neuen Art oder Suche nach dem Silver Bullet weiter. Die meisten Ansätze zur Interoperabilität konzentrieren sich entweder eng auf die vereinfachte Idee, eine Technologie zu verwenden, die eine Entwicklung im Cowboy-Stil unterstützt, ohne viel Rücksicht auf Metadaten oder Semantik zu nehmen. Gleichzeitig helfen uns die Verzerrungen der Semantik, die durch viele aktuelle Modellierungsparadigmen und -ansätze verursacht werden – einschließlich der Disharmonie, die durch eine Vielzahl paralleler Standardisierungsansätze entsteht – nicht dabei, die wirklichen Probleme zu lösen, denen sich Wissens- und Semantikmanagement gegenübersieht. Dieses Papier wird einige der Probleme ansprechen, mit denen wir konfrontiert sind, wie zum Beispiel: Was haben wir erreicht? Wo haben wir einen Fehler gemacht? Was machen wir richtig? – Bereitstellung einer ipso-facto-gekapselten offenen Momentaufnahme zu einem Ansatz zur Harmonisierung unseres Ansatzes zur Interoperabilität und Vorschlag einer gemeinsamen Plattform zur Unterstützung von Geschäftsprozessen, Diensten und Semantik.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05290-3_79 06415675ea8bb4e978f4755f18b99df6;de;;;3.4.;7.3.;3.3.;Identitätsmanagement für Cloud Computing Cloud Computing ist eine Technologie, die darauf abzielt, über Cloud-Anbieter für Unternehmen mit mehreren Mandanten skalierbare On-Demand-Dienste über das Internet bereitzustellen. Unternehmen sind daran interessiert, ihre lokale Infrastruktur in Cloud Computing zu verlagern. Sie sind jedoch weiterhin besorgt über die Sicherheitsrisiken, die durch die Einbettung ihrer Ressourcen in die Cloud-Computing-Umgebung entstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28959-0_11 0c4b96fe5382d3f7cc4cefa4018e2510;de;;;3.5.;7.3.;3.4.;Nutzung der Digitalisierung zur Modernisierung der chinesischen Verlagsbranche Die Entwicklung des digitalen Publizierens ist ein wichtiger Bestandteil für Chinas Fortschritt zu einem informierten Land und die neue Richtung für die Entwicklung der Verlagsbranche in China. Dieser Artikel stellt die Makroplanung für die Entwicklung des digitalen Publizierens in China, den aktuellen Status und die Probleme dieser Branche sowie persönliche Standpunkte zur Entwicklung einer digitalen Publishing-Branche in naher Zukunft vor.;-;-;-;https://link.springer.com/article/10.1007/s12109-008-9064-0 ab9461d0d5e39de070f08094dff09111;de;;;3.5.;7.3.;3.4.;Entwicklung eines klinischen Entscheidungsunterstützungssystems mit KI, Medical Data Mining und Webanwendungen Web Der Bedarf an einem fortschrittlichen Krankenhausinformationssystem ist unmittelbar, da es die elektronische Verwaltung von Patientenakten und den Einsatz von Entscheidungshilfen unterstützt, die zu einer effektiven Diagnose und Behandlung führen. Data-Mining-Algorithmen und -Techniken spielen eine Schlüsselrolle in diesem Prozess, indem sie den Zugang zu kritischen Daten durch das medizinische Personal verbessern und die Funktionalität für die Entscheidungsunterstützungsdienste optimieren. Darüber hinaus ermöglichen Webdienste den Zugriff auf wichtige Informationen von jedem Ort, zu jeder Zeit und von jedem Gerät aus. Im aktuellen Paper DEUS wird ein klinisches Entscheidungsunterstützungssystem vorgeschlagen und vorgestellt, das effizientes Data Mining, künstliche Intelligenz und Webdienste kombiniert, um Diagnose und Behandlungsplanung zu unterstützen. Das System wird in zwei Fallstudien getestet: a) Schilddrüsenkrebs und b) Hepatitis.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41016-1_19 e6d58d3a5635bc71a54d7fe1297526bc;de;;;3.5.;7.3.;3.4.;Perspektiven des Publikationsrechts: Globale Ungleichheiten, digitale Publikationen und das Erbe des revolutionären Frankreich Bereits 1789 hatte die französische Aufklärung festgestellt, dass die Bürgerrechte das Recht auf freie Rede, Schrift und Druck einschließen. Dieses Recht ist seitdem in verschiedenen nationalen und internationalen Dokumenten verankert, bleibt aber in weiten Teilen der Welt schwer fassbar. Eine Möglichkeit, diese Freiheiten in Betracht zu ziehen, besteht darin, nicht nur die Welt zu vergleichen und Nationen zu vergleichen, die Freiheit haben oder nicht, sondern beim ersten Versuch, diese neuen Rechte zu verkünden – die Französische Revolution – im Laufe der Zeit zurückzublicken. Als die französische Revolution 1789 die Pressefreiheit schuf, wurde der französische Buchverlag für fünf Attribute bekannt: vollständige Zensur aller Veröffentlichungen, ein streng erzwungenes Druckmonopol, Urheberrechtsschutz für alle Autoren, versteinerte Inhalte und die Verbreitung illegaler Druckereien. Die digitale Technologie ermöglicht eine zweite Morgendämmerung der Pressefreiheit, aber die fünf Probleme, die Frankreich vor zwei Jahrhunderten vorgefunden hatte, können immer noch in unterschiedlicher Form gesehen werden, insbesondere im massiven Buchverlagsmonopol einiger Länder. Die Antworten, die Frankreich 1810 geschaffen hat, stellen eine getrennte Grundlage dafür dar, wie die gegenwärtigen Regierungen auf die zeitgenössischen Probleme der Pressefreiheit reagieren könnten. Richtig eingesetzt bietet die neue Digitaltechnik auch die Chance, eine der Grundfreiheiten der Zivilisation endlich zu ermöglichen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1024920719812 b275b64a0a9f9bf8d682c6bdbb7dfa6f;de;;;3.5.;7.3.;3.4.;Entscheidungsfindung in Multiagent Web Services basierend auf Soft Computing Webservices spielen eine wichtige Rolle bei der erfolgreichen Geschäftsintegration und anderen Anwendungsfeldern wie E-Commerce und E-Business. Multiagentensysteme und Soft Computing sind intelligente Technologien, die bei Webservices zunehmend an Aufmerksamkeit gewonnen haben. In diesem Kapitel wird die Entscheidungsfindung in Multiagenten-Webdiensten auf Basis von Soft Computing untersucht. Insbesondere schlägt es eine vereinheitlichte Mehrschichtarchitektur SESS und eine intelligente Systemarchitektur WUDS vor. Das SESS vereint elektronische Dienste, Webdienste und Infrastrukturdienste in einem integrierten hierarchischen Rahmen. Das WUDS zielt darauf ab, Entscheidungsfindung in Multiagenten-Webservices basierend auf Soft-Computing- und Implementierungsstrategien zu implementieren. Beide Architekturen verbinden Methodiken wie Multiagentensysteme, Soft-Computing-Techniken wie Case-Based Reasoning (CBR), Fuzzy-Logik und ihre Anwendungen in Webservices zu einem einheitlichen Framework, das sowohl logische als auch intelligente Verkörperungen der Entscheidungsfindung in Webservices umfasst. Das Kapitel schlägt auch einen nachfragegesteuerten Webservice-Lebenszyklus für Serviceprovider, Broker und Anforderer vor, der ihre Entscheidungsfindung berücksichtigt. Schließlich untersucht das Kapitel vereinheitlichte fallbasierte Webdienste für die Entdeckung, Zusammenstellung und Empfehlung auf der Grundlage von Fuzzy-Logik. Der vorgeschlagene Ansatz wird die Erforschung und Entwicklung von Webdiensten, elektronischen Diensten, intelligenten Systemen und Soft-Computing erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15606-9_22 3b0e0404f343cf757bf215dd89dd59a4;de;;;3.5.;7.3.;3.4.;Wissenschaftsnachrichten im Netz Die Auswirkungen des Internets auf die Wissenschaftskommunikation waren allgegenwärtig, aber auch oft paradox. Quellen und Formate wissenschaftlicher Informationen haben sich vervielfacht, wodurch es für Internetnutzer immer schwieriger wird, gültige Informationen zu erkennen. Viele wissenschaftliche Einrichtungen nutzen das Internet hauptsächlich, um sich bei bestimmten Gruppen zu bewerben, was die Schwierigkeiten der Benutzer erhöht. Die traditionelle Qualitätssicherung wissenschaftlicher Informationen durch Peer Review und formale Veröffentlichung ist nicht mehr wirksam. Diejenigen, die Wissenschaft im Internet kommunizieren, haben eine besondere Verantwortung, den Nutzern zu helfen, indem sie deutlich machen, wie Informationen gesammelt und verarbeitet wurden;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-5358-4_10 1ee22d58461712fd3c1a1d7f7eedd9dd;de;;;3.5.;7.3.;3.4.;OWL Ontologieentwicklung für Destinationsmarketing Das Internet als Marketingmedium in der Tourismusbranche ist ein sehr wertvolles Instrument des Destinationsmarketings. Als Marketing- und Serviceanbieter fungieren verschiedene Tourismusbehörden und -organisationen. Sie profitieren von der Nutzung des Internets im Rahmen der Marketingmaßnahmen. Eine neue Technologie, Semantic Web, brachte inkrementelle Veränderungen, indem sie maschinenlesbare Beschreibungen in die aktuellen Webschnittstellen dieser Organisationen einbrachte. Dieses Papier bietet den notwendigen Rahmen für die Anwendbarkeit der Semantic Web-Technologie auf Destinationsmarketing. Es erstellt eine Methodik zur Erstellung und Analyse von Webseiten mit Mehrwert-Tourismus-Marketing-Zwecken. Die Semantic Web-Technologie erreicht eine solche Interoperabilität durch Bezugnahme auf Ontologiemodelle. Die hier vorgestellte Ontologie bestimmt den Wert dieser Integration in Destinationsmarketingorganisationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24731-6_12 c2837fc440718c1f2310d8b3806f0c57;de;;;3.5.;7.3.;3.4.;Informationsdienst der Intelligenten Bibliothek auf Basis des Internets der Dinge Die rasante Entwicklung der Internet-of-Things-Technologie fördert die Entwicklung der Bibliothek in Richtung Digitalisierung und Automatisierung und führt so zum Aufbau der intelligenten Bibliothek. Die intelligente Bibliothek auf Basis der Internet-of-Things-Technologie kann die Effizienz und Qualität von Informationsdiensten verbessern und das Leseerlebnis durch „eingebetteten Service, One-Card-Service, Self-Service, bibliotheksübergreifenden Ressourcenaustausch und personalisierte Informationsdienste“ optimieren. In dieser Arbeit wurde das Konzept der intelligenten Bibliothek mit Unterstützung der Internet-of-Things-Technologie diskutiert und die Informationsinnovationsdienstleistungsform der intelligenten Bibliothek unter Anleitung der Internet-of-Things-Technologie erforscht. Diese Studie trägt dazu bei, den intelligenten Bibliotheksbau zu fördern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3250-4_170 378cb132f3d363f6a7f049d0913be5ba;de;;;3.5.;7.3.;4.1.;Web 2.0-Trennung zwischen ungezogenen Insidern, besorgten Außenseitern und unsichtbaren Monitoren: Eine Fallstudie In einem Fokusgruppeninterview führte dieses Papier eine Fallstudie in einer Sekundarschule in Hongkong über den Einsatz von Web 2.0-Technologien bei Schülern, Eltern und Lehrern durch. Die Ergebnisse deuten darauf hin, dass es keine Kluft in Bezug auf Zugang und Nutzung gab, aber eine Kluft zwischen den verwendeten Web 2.0-Technologien. Abschließend spekulierte unser Forschungsteam über die Rollen, die all diese Interessengruppen spielten, und versuchte, sie als ungezogene Insider, besorgte Außenseiter und unsichtbare Beobachter zu beschreiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22383-9_5 3783cc694d26a2e8f3df69a47f106344;de;;;3.5.;7.3.;4.2.;Vertretungen oder Personen? Die meisten Leitlinien und Vorschläge zur Ethik der Internetforschung basieren auf Vorschriften für die Forschung am Menschen. In der einschlägigen Forschung wird Internetmaterial als animiert betrachtet und als Menschen beschrieben. Geisteswissenschaftler waren selten Teil der Debatte über die Ethik der Internetforschung, und die Praktiken dieser Wissenschaftler wurden bei der Erstellung der meisten Leitlinien nicht berücksichtigt. Dies droht die Art der Internetrecherche, die durchgeführt werden kann – von kritischen Strategien wird besonders abgeraten – und die Art und Weise, wie Forscher und andere Benutzer das Internet verstehen, einzuschränken. Betrachtet man Internet-Material als kulturelle Produktion, dann wären die Modelle für die Internet-Forschung Kunstgeschichte und Visuelle Kultur, Anglistik und Literaturwissenschaft, Film- und Medienwissenschaft, Musik- und Klangwissenschaft sowie Theater- und Performancewissenschaft. Eine vollständigere Integration dieser Ansätze in die Internet Studies – entweder als alleinige Untersuchungsstrategie oder zusammen mit anderen Untersuchungsformen – würde die ethischen Fragen der Forscher verändern. Es würde auch Fälle aufzeigen, in denen menschliche Subjektrichtlinien nicht für komplexes Internetmaterial gelten. Es ist zwingend zu zeigen, dass Internet-Material keine Menschen sind, weil diese Auffassung hochkonstruierte Wörter und Bilder natürlich erscheinen lässt und stereotype Darstellungen real erscheinen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1021376727933 683a0414fe12cf40acb050ad0eb30f5e;de;;;3.5.;7.3.;4.2.;Fortschritte bei der globalen digitalen Kluft: eine ethische Perspektive basierend auf dem Kompetenzmodell von Amartya Sen Sen Dieses Papier untersucht die sich entwickelnden technologischen Fähigkeiten in Entwicklungsländern. Die Anzahl der Websites zeigt, dass in einigen der ärmsten Länder der Welt einige Fortschritte erzielt werden, aber die Zahlen zeigen, dass trotz dieser Fortschritte die Kluft zwischen Industrie- und Entwicklungsländern tatsächlich wächst. Gibt es also Fortschritte bei der Schließung der globalen digitalen Kluft? Die Bedeutung von Websites für den Zugriff auf notwendige medizinische Informationen, lokale kulturelle Informationen und die allgemeine Sichtbarkeit der Entwicklungsländer wird beschrieben und das aktuelle Umfeld bewertet. Die durch den gegenwärtigen Status geschaffene moralische Situation wird anhand von ethischen Theorien des Nobelpreisträgers Amartya Sen überprüft. Durch die Überprüfung eines Instruments für den Informationstransfer – der Website – hofft der Autor, die Bedeutung dieses Instruments hervorzuheben und einen allgemeinen Überblick über die Fortschritte, die weltweit gemacht werden.;-;-;-;https://link.springer.com/article/10.1007/s10676-009-9205-y b749a9bf3cbe5d786f148c46ee075de3;de;;;3.5.;7.3.;4.2.;„Was machen diese Forscher in meiner Wikipedia?“: Ethische Prämissen und praktische Beurteilung in der internetbasierten Ethnographie Der Artikel verbindet kodifizierte ethische Prämissen, Verfahren ethischer Argumentation und fachspezifische ethische Reflexionen, um die Ethnographie eines internetbasierten kollaborativen Projekts zu informieren. Sie argumentiert, dass die praktische Urteilskraft nicht nur formalen Gesetzen gehorchen muss, sondern auch multiplen Verständnissen ethischer Fragen im Forschungsfeld sowie der Selbstbestimmung reflexiver Teilnehmer Rechnung tragen muss. Der Artikel reflektiert die Heuristiken, die die Entscheidungen einer 4-jährigen teilnehmenden Beobachtung in der englisch- und deutschsprachigen Wikipedia-Ausgabe geleitet haben. Aus mikrosoziologischer Perspektive werden die technologischen, sozialen und rechtlichen Implikationen von Öffentlichkeit und Informationssensibilität als zentrale ethische Anliegen von Wikipedia-Autoren untersucht. Der erste Problembereich des Umgangs mit Barrierefreiheit und Anonymität stellt den Umgang mit den technisch verfügbaren Tätigkeitsaufzeichnungen, die Offenlegung personenbezogener Daten und die gesetzlichen Verpflichtungen, die Urheberschaft anzurechnen, dem Recht der Urheber auf anonyme Arbeit und dem Schutz ihrer Identität gegenüber. Der zweite Bereich konfrontiert die kontingente Adressierbarkeit von Redakteuren mit dem Anspruch, informierte Einwilligungen zu sichern und zu erhalten. Unter Berücksichtigung dieser Problemfelder schlägt die ethische Argumentation einerseits Möglichkeiten zur Beobachtung und Dokumentation von Episoden vor. Zum anderen berät sie über die Machbarkeit und die Notwendigkeit der Einholung einer informierten Einwilligung.;-;-;-;https://link.springer.com/article/10.1007/s10676-017-9423-7 457d96c064956ce59a48ca82996d4ce8;de;;;3.5.;7.3.;4.2.;Forschungsethik in der internetgestützten Forschung: Fragen des Menschen und methodische Myopie Da Internet-Ressourcen häufiger für die Erforschung des sozialen und psychologischen Verhaltens verwendet werden, wächst die Besorgnis darüber, ob sich die Merkmale dieser Forschung auf den Schutz menschlicher Subjekte auswirken. Frühe Bemühungen, solche Bedenken auszuräumen, haben mehr dazu beigetragen, potenzielle Probleme zu identifizieren, als sie zu bewerten oder nach Lösungen zu suchen, und die Körper, die mit der Aufsicht über menschliche Subjekte betraut sind, im Sumpf zurückgelassen. Dieser Artikel kritisiert einige dieser Fragen im Lichte der Richtlinien des US-amerikanischen Bundesgesetzes zum Schutz menschlicher Subjekte und argumentiert, dass einige der Fragen keine Relevanz haben, wenn sie im Kontext gängiger methodologischer Ansätze untersucht werden, die frühere Kommentatoren nicht berücksichtigt haben. Durch die Trennung der anwendbaren Kontexte von den nicht zutreffenden und die Identifizierung von Fällen, in denen die Merkmale der Versuchspersonen irrelevant und/oder nicht anzugeben sind, können Aufsichtsgremien Forschungsanträge möglicherweise angemessener prüfen, und Forscher können weniger ethisch verpflichtet sein, diese Merkmale zu ermitteln und nachzuweisen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1021368426115 0cc827a5ef357b706a4d6921e928c1df;de;;;3.5.;7.3.;4.2.;"Studieren des Amateurkünstlers: Eine Perspektive auf die Verschleierung von Daten, die in der Humanforschung im Internet gesammelt wurden Mitte der 90er Jahre wandelte sich das Internet rasch von einem Ort, der von wenigen Wissenschaftlern genutzt wurde, zu einem populären Phänomen, das alle Aspekte des Lebens in den Industrienationen beeinflusste. Wissenschaftler verschiedener Disziplinen haben ein Interesse daran gezeigt, das Internet und die Internetnutzer zu verstehen. Wie eine Reihe von Forschern festgestellt haben, kann es jedoch schwierig sein, Leitlinien für ethische Forschung am Menschen, die vor dem Wachstum des Internets geschrieben wurden, auf die Forschung an Internetnutzern auszuweiten . Während einige argumentieren, dass gefährdete menschliche Subjekte zu ihrem eigenen Schutz in Veröffentlichungen immer anonymisiert werden müssen, argumentieren andere, dass Internetnutzer für ihre kreative und intellektuelle Arbeit Anerkennung verdienen. Wieder andere argumentieren, dass viel online verfügbares Material als „veröffentlicht“ behandelt werden sollte. Um zu versuchen, diese Probleme zu lösen, betrachte ich zunächst meine eigenen Erfahrungen mit der Verschleierung von Material in Forschungsberichten von 1992 bis 2002. Einige der heikelsten Probleme treten an den Grenzen zwischen den Forschungsdisziplinen auf. Darüber hinaus haben viele geisteswissenschaftliche Disziplinen ihre Tätigkeit als Humanforschung nicht historisch gesehen. Als nächstes untersuche ich, was es bedeutet, Humansubjects-Forschung in den Geisteswissenschaften zu betreiben. Inspiriert von Problemen, die von Kollegen in den Geisteswissenschaften aufgeworfen wurden, argumentiere ich, dass die traditionelle Vorstellung eines ""menschlichen Subjekts"" Internetnutzer nicht angemessen charakterisiert. Ein nützliches Alternativmodell wird vorgeschlagen: Internetnutzer sind Hobbykünstler. Das Internet kann als Spielplatz für Amateurkünstler angesehen werden, die halbveröffentlichte Werke schaffen. Ich behaupte, dass dieser Ansatz dazu beiträgt, einige ethische Dilemmata leichter zu klären, da er wichtige neue Aspekte der Situation hervorhebt, insbesondere in Bezug auf Verkleidungsmaterial. Schließlich schließe ich, indem ich eine Reihe praktischer Richtlinien für die Verschleierung von Material vorschlage, das in veröffentlichten Berichten im Internet gesammelt wurde, auf einem Kontinuum von keiner Verschleierung, einer leichten Verschleierung, einer moderaten Verschleierung und einer schweren Verschleierung.";-;-;-;https://link.springer.com/article/10.1023/A%3A1021316409277 c1119daf03dce91b89447655f1bab443;de;;;3.4.;7.3.;4.2.;Die drei grundlegenden E-Business-Modelle Dieses Papier unterscheidet drei grundlegende Geschäftsdesignmuster: Kontrolle, Kooperation und Autonomie. Heutzutage sind die meisten E-Business-Designs nicht ausgewogen, weil sie der Kontrolle zu viel Priorität einräumen. Balance wird erreicht, wenn ein Grundmuster oberste Priorität hat, während die anderen beiden Muster nicht ignoriert werden. Dieses Papier erklärt, wie Sie diese Muster verwenden, um ein ausgewogenes E-Business-Modell zu erstellen: E-Commerce, E-Broker oder E-Barter. Marktkräfte treten nun auf, um Unternehmen Anreize zu geben, anpassungsfähiger zu werden. Dies kann eine von zwei Formen annehmen: ein ausgewogeneres E-Commerce-Design oder eine Verlagerung vom E-Commerce zum E-Broker. Dieses Papier stellt adaptive Designarchitekturen für E-Commerce und E-Broker vor und schließt mit der Angabe mehrerer Gründe, warum ein ausgewogenes E-Barter-Design derzeit nicht zuverlässig vermutet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20077-9_3 8745ecb9d4422887184b252086c07bb8;de;;;3.4.;7.3.;4.2.;Webmarketing-Strategien für digitale Städte in Italien: Der Weg zur Stärkung der Bürgerinnen und Bürger Das Konzept der „digitalen Stadt“ wurde als strategischer Weg zur Gestaltung einer Stadt eingeführt, indem insbesondere die Bedeutung der Informations- und Kommunikationstechnologien hervorgehoben wird. Die Leistungsfähigkeit unserer Städte hängt heute nur noch zu einem geringen Teil von ihrer Infrastruktur ab, da der Verfügbarkeit, Qualität und Bereitstellung öffentlicher Dienstleistungen eine immer größere Bedeutung beigemessen wird. In diesem Zusammenhang haben die Bürger neue Erwartungen, die auf Beteiligung, Zusammenarbeit und Beteiligung basieren. Das Ziel bei der Verwaltung einer Stadt besteht darin, Bürger zu Akteuren im Entscheidungsprozess zu machen, Engagement und Beteiligung zu schaffen und Wege für direkte Beziehungen zu Politikern und Beamten zu schaffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44788-8_9 0f120eac5b7da8f1717747603e733f00;de;;;3.4.;7.3.;4.2.;Ethische Lücken in Studien zur digitalen Kluft Es gibt viele Berichte über die digitale Kluft und viele abweichende Interpretationen dessen, was die Berichte zeigen. Dieses Muster konkurrierender Analysen, oft in Bezug auf identische Datensätze, hat sich über einen guten Teil des letzten Jahrzehnts gehalten. Hier wird argumentiert, dass ein Hauptproblem bei einem Großteil der Forschung zur digitalen Kluft darin besteht, ethische Bedenken nicht als expliziten Teil der Analyse und Interpretation von Lücken der digitalen Kluft einzubeziehen. Wenn Forscher in ihren Ergebnissen über Spaltungslücken eine stärkere Anerkennung der Ethik einbeziehen, ist es wahrscheinlich, dass sie bessere Forschung und Ergebnisse sowie vertretbarere Verbindungen zwischen Studienberichten und politischen Überlegungen produzieren werden.;-;-;-;https://link.springer.com/article/10.1023/A%3A1024968602974 44d4f76e11fde6a5f63b21ba54c252c0;de;;;3.4.;7.3.;4.2.;Zeitgenössische und kollaborative Webkonzepte als Teil eines Geo-Wissenstools zur Unterstützung des Parkmanagements In einem Forschungsprojekt wird untersucht, ob der Zugang zu einem bestehenden, georeferenzierten Parkmanagement-Datenarchiv durch das Konzept eines Geo-Knowledge-Tools (GKT) verbessert werden kann. Das Tool basiert auf den kollaborativen und partizipativen Konzepten des Web 2.0 und den zugehörigen, potenziell nützlichen, von Benutzern beigesteuerten Informationen. Können die bestehenden traditionellen Daten mit nicht-traditionellen Datenquellen – die im Web verfügbar sind oder durch partizipative Web 2.0-Tools generiert werden – zusammengeführt werden, um ein effektives Werkzeug für den Datenzugriff zu schaffen und das vorhandene Archiv zu erweitern?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19143-5_15 7559034423bb1780bb7e0886718fef3b;de;;;3.4.;7.3.;4.2.;Geografische Gemeinschaften und virtuelle Gemeinschaften: Das Web 2.0 bei der Erstellung von Touristeninformationen Die Verbreitung und der leichte Zugang zu geographischer und computergestützter Ausrüstung haben nicht nur die Kommunikationsmodelle, sondern auch die Techniken der Produktion und Verbreitung von geographischen Informationen revolutioniert, indem sie eine immer objektivere Dimension des Wissens mit dieser subjektiven und wahrnehmungsbezogenen verbinden. Gleichzeitig hat durch den Virtuellen Globus (Google Earth, GPS etc.) oder die sogenannten Volunteered Geographic Information (Wikimapia, Open street map, Google My Maps etc.) auch die räumliche Dimension des Wissens neues Leben gefunden in der Welt der digitalen Kommunikation und des Web 2.0.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-42092-9_25 383199b5f7a83d6dace933078ac8be39;de;;;3.4.;7.3.;4.2.;Internet der Dinge: Telekommunikation der Zukunft Der Artikel untersucht mögliche Veränderungen gesellschaftlicher Muster der Bereitstellung von Telekommunikationsdiensten unter dem Einfluss der Nutzung der Internet of Things Technologie. Insbesondere soziale Modelle von Telekommunikationsbetreibern und Modelle der Anforderungen von Subjekten an den Empfang von Telekommunikationsdiensten. Die Auswirkungen des Einsatzes von IoT-Technologien auf die Aktivitäten der Telekommunikationsbetreiber werden analysiert. Es werden die Richtungen einer möglichen Transformation des Geschäftsmodells eines Telekommunikationsbetreibers betrachtet, die dazu beitragen wird, die Bedürfnisse der Benutzer der Technologie des Internet der Dinge zu erfüllen. Dabei werden die Besonderheiten des Aufbaus der Telekommunikationsinfrastruktur des Betreibers im Interesse der Nutzerbedürfnisse berücksichtigt. Es zeigt sich, dass der Einsatz von Technologien des Internets der Dinge die Belastung der Ressource Hochfrequenz deutlich erhöht. Es werden die technischen Merkmale und rechtlichen Modelle zur Steigerung der Effizienz der Nutzung der Hochfrequenzressourcen der Ukraine betrachtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-16770-7_1 3d30a9a815767cc60d87ce133673529b;de;;;3.4.;7.3.;4.2.;Ein personalisiertes intelligentes Empfehlungs- und Annotator-Testbed für textbasiertes Abrufen und Klassifizieren von Inhalten: Das PIRATES-Projekt In diesem Beitrag wird das Projekt PIRATES (Personalized Intelligent Recommender and Annotator TESTbed for text based content Retrieval and Classification) vorgestellt. Dieses Projekt begegnet dem Problem der Informationsüberflutung, indem es semantische und soziale Aspekte berücksichtigt: Ein integrierter Satz von Tools ermöglicht es den Benutzern, die Art und Weise, wie sie Webressourcen abrufen, filtern und organisieren, anzupassen und zu personalisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27302-5_19 b976371fe0c3b800a1bbb91d7dcdc5ff;de;;;3.4.;7.3.;4.2.;Von der Entlarvung urbaner Legenden bis zum politischen Faktencheck Dieses Kapitel bietet ein neues, breiteres Verständnis des politischen Faktenchecks, der in den Vereinigten Staaten seit den Präsidentschaftswahlen 2016 so prominent ist, der aber auch in vielen anderen Ländern zu einem wichtigen Trend wird. Die Hauptgeschichte in diesem Kapitel ist die Entstehung von Snopes, einer der führenden politischen Organisationen zur Überprüfung von Fakten, aus der Usenet-Newsgroup alt.folklore.urban (AFU), als zwei der aktivsten Mitglieder der AFU, David und Barbara ( Hamel) Mikkelson, holten ihr Material von AFU, um Snopes zu erstellen, und nutzten das neu geschaffene öffentliche Internet. Das Kapitel beschreibt die Entstehung und Kultur der AFU, das Konzept der urbanen Legenden und den Stil, den Zweck und die Methoden, die von den AFU-Mitgliedern verwendet werden, um urbane Legenden zu bewerten. Das Kapitel zeichnet dann die Geschichte von Snopes nach, während sie sich vom Studium urbaner Legenden bis hin zur politischen Faktenprüfung entwickelt. Die wachsende Popularität von Snopes, die Methoden und Praktiken, denen sie folgt, und einige Kritik an diesen Methoden durch den Informationswissenschaftler Kalev Leetaru werden berücksichtigt. Das Kapitel schließt mit der Krise für Snopes, die auftritt, wenn sich die beiden Gründer scheiden lassen und die Organisation mit rechtlichen Herausforderungen durch ihre Marketing- und Technologieunterstützungsorganisation belastet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-22952-8_2 5e448f928d5829215def7e4f506a258b;de;;;3.4.;7.3.;4.2.;Die soziale Konstruktion eines sicheren, anonymen elektronischen Zahlungssystems: Rahmenanpassung und Mobilisierung rund um Ecash Dieses Papier untersucht den öffentlichen Diskurs, um die Prozesse zu beleuchten, durch die Fragen der Anonymität, Überwachung, Sicherheit und Privatsphäre in das öffentliche Verständnis von und die Interaktionen mit Verbraucherzahlungssystemen integriert werden. Anhand von Theorien der sozialen Konstruktion von Technologie und Gamsons Modell der Issue-Konstruktion analysiert es das vom Entwickler des elektronischen Zahlungssystems Ecash eingesetzte Issue-Paket. Ein Themenpaket ist ein Satz von Framing-Geräten, die die Diskussion eines bestimmten Themas fokussieren und einschränken. Das Papier analysiert dann drei verschiedene diskursive Sites (Printmedien, Beratungen des US-Kongresses und eine elektronische Mailingliste), um den Erfolg dieses Pakets anhand seiner Präsenz und seiner Resonanz innerhalb jeder Site zu messen. Unter Verwendung von Theorien der Rahmenausrichtung und sozialer Mobilisierung wird das Paket als eine globalisierende Rahmenstrategie identifiziert. Sein Scheitern erklärt sich aus den Schwierigkeiten, die ein Rahmen mit einer solchen Struktur haben wird, sich mit der diskursiven Praxis jedes Ortes zu verbinden, mit den kulturellen Themen jedes Ortes in Resonanz zu treten und soziale Aktionen zu provozieren.;-;-;-;https://link.springer.com/article/10.1057/jit.1998.6 e8fa5a25cd5e42faeaf267a3ae4c9f2b;de;;;3.4.;7.3.;5.1.;LKMS – Ein juristisches Wissensmanagementsystem, das Semantic-Web-Technologien nutzt Semantic Web, das formale Sprachen zur Darstellung von Dokumentinhalten verwendet und Möglichkeiten zur Aggregation von verbreiteten Informationen bereitstellt, kann die Funktionalitäten verbessern, die heute von KM-Tools bereitgestellt werden. Dieser Beitrag beschreibt ein Wissensmanagementsystem für Rechtsanwälte, das mit Semantic Web-Technologien erweitert wurde. Das System unterstützt Anwälte bei ihrer täglichen Arbeit und ermöglicht ihnen, ihre Informationen und ihr Wissen zu verwalten. Dem System wurde eine semantische Schicht hinzugefügt, die Funktionen bereitstellt, die die Systemnutzung einfacher und viel leistungsfähiger machen und neue und fortschrittliche Mittel für die Erstellung, den Austausch und den Zugriff auf Wissen hinzufügen.;-;-;-;https://link.springer.com/chapter/10.1007/11574620_62 fd6c94b1889b9bb717d3faadba593561;de;;;3.4.;7.3.;5.1.;Verknüpfte persönliche Story-Informationen und Benutzerinteresse am Weblog von RSS, FOAF und SIOC Technology Verknüpfte persönliche Story und das Interesse der Benutzer an Weblogs, Informationen in den Blog-Inhalten wiederzuverwenden, ist eine neue Art der Kommunikation in einem Weblog-Bereich. Mit vielen existierenden Vokabulare wie Rich Site Summary (RSS), Friend of a friend (FOAF) und Semantical Interlinked Online Community (SIOC) kann die Verlinkung zwischen Blogs Benutzern, insbesondere Bloggern, dabei helfen, die Beziehung zwischen den Inhalten der Blogs zu finden selbst. Darüber hinaus sind heutzutage persönliche Blog-Inhalte nützlicher, um als Antwort auf die Suche der Internetnutzer nach Informationen zu dienen, als bestehende Suchmaschinen, bei denen persönliche Blog-Inhalte ständig aktualisiert werden. Unser vorgeschlagenes Rahmensystem wurde entwickelt, um die Motivation zur Verknüpfung von Weblogs mit persönlichen Informationen zu erreichen und auch die Nutzung des Blogs durch die Online-Community zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11289-3_11 3049f8a9b72f9ee690e4eba2ce58822f;de;;;3.4.;7.3.;5.1.;Internet am Scheideweg der Bildung Das Internet ist in den letzten Jahren rasant gewachsen und hat sich auf alle Aspekte des modernen Lebens ausgewirkt. Während viele Bereiche des Internets, wie der Handel, enorme Verbesserungen bei der Bereitstellung bequemer und komplexer Transaktionsdienste vom Einkaufen bis zum Bankgeschäft gezeigt haben, hat sich der Bildungsbereich weniger entwickelt, um das Potenzial des Internets für den Bildungsbereich auszuschöpfen. Die Zahl der Websites im Zusammenhang mit Bildung und der Art der pädagogischen Nutzung im Internet hat eindeutig zugenommen, aber der allgemeine Konsens ist, dass im Bereich der Nutzung des Internets mehr getan werden sollte, um die Bildungserfahrung der Lernenden zu verbessern. Viele technologische Innovationen wurden zuvor als neues Paradigma für die Bildung angepriesen, nur um zu sehen, dass sie mit der Zeit leise aus dem Blickfeld verschwinden. Um sicherzustellen, dass das enorme Potenzial des Internets für die Bildung voll ausgeschöpft wird, bedarf es eines strukturierteren Ansatzes und eines Umdenkens der Pädagogen.;-;-;-;https://link.springer.com/chapter/10.1007/11527725_10 e51866445c07094370396bbe0aa21480;de;;;3.4.;7.3.;5.2.;Genomik für Pilze Seit 1995 wurden die Genome von Dutzenden von Bakterien und mehreren Modelleukaryoten vollständig sequenziert und diese Daten in öffentlichen Datenbanken hinterlegt. Mit Ausnahme der Hefe;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-06101-5_13 9c73c51fce0858de0720c6c453f63da3;de;;;3.4.;7.3.;5.2.;Ist der Markt von Bitcoin vorhersehbar? Analyse von Websuche und Social Media In den letzten Jahren hat das Internet die Funktionsweise des wirklichen Lebens grundlegend verändert. Insbesondere konnte das Aufkommen von Web 2.0-Diensten, die als Kommunikationsmedium weit verbreitet sind, online miterlebt werden. Einerseits erfreuen sich Dienste wie Blogs, Tweets, Foren, Chats, E-Mail großer Beliebtheit. Auf der anderen Seite ist die Suche aufgrund der großen Menge an verfügbaren Informationen bei der Nutzung des Internets dominant geworden. Millionen von Benutzern interagieren täglich mit Suchmaschinen und produzieren wertvolle Quellen interessanter Daten zu verschiedenen Aspekten der Welt. Bitcoin, eine dezentralisierte elektronische Währung, stellt einen radikalen Wandel in den Finanzsystemen dar, der eine große Anzahl von Benutzern und viel Medienaufmerksamkeit anzieht. In dieser Arbeit haben wir untersucht, ob das Handelsvolumen von Bitcoin mit der Websuche und dem sozialen Volumen über Bitcoin zusammenhängt. Wir haben untersucht, ob die öffentliche Meinung, die in großen Sammlungen täglicher Twitter-Posts ausgedrückt wird, auch verwendet werden kann, um den Bitcoin-Markt vorherzusagen. Wir haben signifikante Kreuzkorrelationsergebnisse erzielt, was die Macht der Suche und des sozialen Volumens demonstriert, das Handelsvolumen der Bitcoin-Währung zu antizipieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-52758-1_10 ac19ff3d288b9de277e7ec9deceb59af;de;;;3.4.;7.3.;5.2.;Flexible Webservice-Komposition basierend auf Schnittstellenabgleich Die Zusammensetzung von Webdiensten hat im Bereich der Business-to-Business- oder Unternehmensanwendungsintegration großes Interesse gefunden. In unserer Arbeit schlagen wir eine Kompositionsmethode vor, die auf dem Service-Interface-Matching basiert. Im Vergleich zu früheren Arbeiten verwendet unser Ansatz nur die Informationen, die bereits in Service-Interface-Definitionen vorhanden sind. Es ist nicht erforderlich, dass Dienstanbieter ihre Schnittstellen mit semantischem Markup beschreiben. Wir schlagen einen Datentyp-Matching- und Service-Composition-Algorithmus vor. Die von unserem Algorithmus berechnete Ähnlichkeitsbewertung ermöglicht eine flexible Zusammensetzung von Webdiensten. Benutzer können unterschiedliche Score-Schwellenwerte für entweder entspannte oder genaue Servicezusammensetzung definieren. Die experimentellen Ergebnisse zeigen, dass der Matching-Algorithmus eine gute Präzision und Erinnerung hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30497-5_74 d00375cd669e989f0e96595af1dd8677;de;;;3.4.;7.3.;5.2.;Abfrageübersetzung und -erweiterung für die Suche nach normalem und OCR-degradiertem arabischen Text Dieses Dokument bietet ein neuartiges Modell für die Übersetzung von Englisch/Arabisch-Abfragen, um arabischen Text zu durchsuchen, und erweitert dann die arabische Abfrage, um arabischen OCR-degradierten Text zu verarbeiten. Dies umfasst das Erkennen und Übersetzen von Wortkollokationen, das Übersetzen einzelner Wörter, das Transliterieren von Namen und das eindeutige Übersetzen und Transliterieren durch verschiedene Ansätze. Es erweitert auch die Abfrage mit den erwarteten OCR-Fehlern, die aus dem arabischen OCR-Fehler-Simulationsmodell generiert werden, das in der Arbeit vorgeschlagen wurde. Das Modell der Abfrageübersetzung und -erweiterung wurde von verschiedenen Bibliotheken unterstützt, die in der Arbeit vorgeschlagen wurden, wie ein Wörterbuch für Wortkollokationen, Wörterbücher für einzelne Wörter, ein Korpus für modernes Arabisch und andere Tools. Das Modell bietet eine hohe Genauigkeit bei der Übersetzung der Abfragen vom Englischen ins Arabische, löst die Übersetzungs- und Transliterationsmehrdeutigkeiten und mit der orthografischen Abfrageerweiterung bietet es ein hohes Maß an Genauigkeit bei der Behandlung von OCR-Fehlern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00382-0_39 f5a592018c8b55d2c968515ad7c58c91;de;;;3.4.;7.3.;5.2.;Suchmaschinenoptimierung Stellen Sie sich eine riesige Bibliothek ohne Licht vor, in der alle Bücher auf dem Boden liegen, viele zerstückelt sind und an einem bestimmten Tag Tausende einfach ohne Vorwarnung verschwinden, während Tausende weitere ohne jede Kategorisierung darauf geworfen werden. Dies ist, kurz gesagt, das Organisationsmodell des Webs. Es hält sich konstruktionsbedingt an keine Hierarchie – es ist nur ein Berg aus Text, Bildern und Multimedia. Weil diesen Millionen und Abermillionen von Dokumenten jeglicher Anschein von Ordnung fehlt, macht das dezentrale System des Internets die Suche zur einzigen gangbaren Antwort für die Informationsbeschaffung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-0262-2_13 d105f7409faccef7430c6f0e3cde7888;de;;;3.5.;7.3.;5.3.;Meinungsbasierte SNS-Empfehlung für den eTourismus: Ein Beispiel für ein Restaurant in Taipeh Durch den Einsatz von Internet-Technologie in der Reise- und Tourismusbranche wird den Touristen eine wichtigere Rolle bei der Planung und Gestaltung von tourismusbezogenen Produkten und Dienstleistungen zugeschrieben. Die Menge an Informationen, die aus dem Internet bezogen werden kann, kann bei weitem das Maß übersteigen, das man verarbeiten kann, und macht die Entscheidungsüberlegungen im Reiseplanungsprozess ziemlich kompliziert. Yu [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-48319-0_32 1f1173c47ea5ad6cac1a8287ba90d056;de;;;3.5.;7.3.;5.3.;Von der Idee zum Produkt – Beteiligung der Nutzer am Entwicklungsprozess einer multimedialen Plattform zur Elternbeteiligung im Kindergarten Die Einbeziehung der Eltern in den Kindergarten wurde als wichtiger Faktor für die kognitive Entwicklung, das kindliche Verhalten und die schulische Anpassung herausgestellt. Im Kindergarten können sich Eltern auf verschiedene Weise einbringen. Webtechnologien können zwei Arten der elterlichen Beteiligung erleichtern: die Kommunikation mit der Erzieherin, um mehr über den Lernprozess des Kindes im Kindergarten zu erfahren, und pädagogische Aktivitäten zu Hause unter Verwendung digitaler Bildungsinhalte. In diesem Sinne richtete das Forschungsteam eine Designforschung ein, die darauf abzielte, eine Multimedia-Plattform zu entwickeln, die die Kommunikation und den Ressourcenaustausch zwischen Pädagogen, Eltern und Kindern fördert, um die Einbeziehung der Eltern in das Lernen zu erleichtern. In diesem Artikel wird die Entwicklung der Plattform von den Vorstudien bis zur Evaluation des Funktionsprototyps unter Beteiligung von Eltern und Pädagogen in allen Phasen des Entwicklungsprozesses vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94640-5_21 5bf9dcfbde1c5d57e9c90a93e8984288;de;;;3.5.;7.3.;5.3.;Nicht-technologische Aspekte für den Erfolg der Websuche Dieses Papier untersucht den Einfluss des sozialen, kulturellen und emotionalen Hintergrunds typischer Web-Benutzer auf den Web-Suchprozess. Mehrere Variablen, die solche Aspekte beschreiben, werden dargestellt und mit bekannten Cluster- und Klassifikationsalgorithmen wie COBWEB, J48, Bayes-Klassifikation und Korrespondenzanalyse statistisch analysiert. Die Ergebnisse zeigen, dass die Effizienz des gesamten Prozesses der Informationsbeschaffung ohne Berücksichtigung von Subjektivität und Persönlichkeitsfakten nicht vollständig verstanden werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-8735-6_31 c24dd281f98d93086ad83a0e560a83c7;de;;;3.5.;7.3.;5.3.;Interoperabilität und Koexistenz von interaktivem Fernsehen: Das GLOBAL ITV Project Eine der größten Herausforderungen in der Zukunft des Rundfunkfernsehens besteht darin, neue technologische Plattformen, Standards und Trends in der Konsumlandschaft von Multimedia-Inhalten sowie neue Verhaltensweisen und Gewohnheiten der Benutzer zu berücksichtigen. Second Screen und Multiplatform Experiences, Social Media und Breitbandinhalte sind als permanenter Wandel entstanden und müssen im zukünftigen Geschäftsmodell berücksichtigt werden. Dennoch sind Interoperabilitäts- und Koexistenzprobleme kritische und grundlegende Aspekte, die in einer weltweiten Perspektive weiter umgesetzt werden müssen, da viele der Fernsehnormen entwickelt wurden, um hauptsächlich regionale Märkte abzudecken, was Einschränkungen beim Teilen von Inhalten und Anwendungen und Hindernisse für die technologische Kompatibilität schafft Lagen. Ziel dieses Papiers ist es, die laufende Arbeit von „GLOBAL ITV: Interoperability of Interactive and Hybrid TV systems – A new advanced scheme for future services and applications in a global environment“, einem internationalen Forschungsprojekt aus Brasilien und Ländern der Europäischen Union, das Union will neue Wege im interaktiven Fernsehmodell und Plattformen mit globaler Wirkung beschreiten. Die Beschreibung konzentriert sich hauptsächlich auf die Arbeiten in der interaktiven TV-Landschaftsdefinition, Playout- und Set-Top-Box-Entwicklung und zeigt, wie sich die entwickelten Lösungen von anderen etablierten Modellen unterscheiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22656-9_1 c93801734e2a105226eb458e1c20df75;de;;;3.4.;7.3.;5.3.;Embodied Agents, E-SQ und Stickiness: Verbesserung bestehender kognitiver und affektiver Modelle Dieses Papier synthetisiert Ergebnisse aus zwei früheren Studien zu verkörperten virtuellen Agenten auf kommerziellen Websites. Wir analysieren und kritisieren die vorgeschlagenen Modelle und diskutieren die Grenzen der experimentellen Erkenntnisse. Ergebnisse aus anderen wichtigen Forschungen in der Literatur sind integriert. Wir integrieren auch Konzepte aus einer tiefgreifenden, eher geschäftsbezogenen Analyse, die die Mechanismen der Rhetorik in Marketing und Kommunikation und die mögliche Rolle von E-SQ in der Interaktion zwischen Managern und Agenten vertieft. Schließlich schlagen wir ein verfeinertes Modell für die Auswirkungen dieser Agenten auf Website-Benutzer vor, und die Grenzen des verbesserten Modells werden kommentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13226-1_28 54f24fb8036f8e919015c96bb22febfb;de;;;3.4.;7.3.;5.3.;Was für ein Unterschied eine Standardeinstellung macht Dieses Papier untersucht die Auswirkungen der Standardsprache der Benutzeroberfläche auf die Nutzung einer zweisprachigen digitalen Bibliothek. Im Jahr 2005 wurde die Standardsprache der Benutzeroberfläche einer zweisprachigen digitalen Bibliothek monatlich zwischen Māori und Englisch gewechselt. Eine umfassende Transaktionsprotokollanalyse über diesen Zeitraum zeigt, dass nicht nur die Verwendung in einer bestimmten Sprache zunahm, wenn die Standardsprache der Benutzeroberfläche auf diese Sprache eingestellt wurde, sondern dass die Art und Weise, wie die Benutzeroberfläche in beiden Sprachen verwendet wurde, je nach Standardsprache sehr unterschiedlich war .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87599-4_28 fc0e3e7510b875cdb4f5c27f2287a0b4;de;;;5.2.;7.3.;5.3.;Der ROPO-Effekt im Online-ReisebuchungsprozessIn relativ kurzer Zeit hat das Internet die Tourismusbranche nachhaltig verändert. Jahrelang vorherrschende Distributionsstrukturen und Wege der Kundenansprache wurden infrage gestellt und adaptiert. In diesem Zusammenhang ist die zentrale Aufgabenstellung der touristischen anbieter, gesuchte Leistungen zu finden sowie die Nachfrager bis zur Buchung zu binden, um den Geschäftserfolg nachhaltig zu steigern. Der Online-Reisebuchungsprozess umfasst sämtliche Such- und Buchungsaktivitäten des Kunden im Internet und unterteilt sich in sieben aufeinander aufbauende Stufen. Suchmaschinen spielen dabei eine führende Rolle. Sie nehmen die Rolle des »Gatekeepers« zu den relevanten Marktinformationen in Kombination mit dem hohen Nutzervertrauen in ihren Fähigkeiten ein und sind entscheidend bei der Präferenzbildung des Kunden für einen Reiseanbieter. Eine Studie zu Suchen und Buchen im Tourismus wurde durchgeführt: Als ein wesentliches Ergebnis kann festgehalten werden, dass ein Wechsel zwischen Anbietern am ehesten beim übergang der Aktivitäten »Präsentation« zu »auswahl« auftritt.;-;-;-;https://link.springer.com/article/10.1007/BF03340418 bc06b10f40f71325187ecbaa22fc7a9f;de;;;3.5.;7.3.;6.1.;Von der Bank bis zum Krankenbett im Big-Data-Zeitalter: Ethik und Praktiken der Einwilligung und Privatsphäre für klinische Genomik und personalisierte Medizin Wissenschaftler und Kliniker beginnen, genomische Entdeckungen aus Forschungslabors in die klinische Umgebung zu übertragen. Dabei sind genomische Big-Data-Technologien sowohl ein Risiko für die Privatsphäre des Einzelnen als auch ein Vorteil für die personalisierte Medizin. Es besteht die Möglichkeit, auf die sozialen und ethischen Anforderungen verschiedener Interessengruppen einzugehen und die Einführung diagnostischer Genomtechnologien zu gestalten. Wir diskutieren ethische und praktische Fragen im Zusammenhang mit der Vernetzung der Genomik, indem wir vergleichen, wie die Europäische Union (EU) und Nordamerika die Begriffe Privatsphäre und Einwilligung in der Forschung verstehen und praktizieren. Ein Überblick über die internationale Politik legt nahe, dass die Einbettung von Genomik in digitale Netzwerke und das Internet Bedingungen schafft, die das Management von Privatsphäre und Einwilligung im Zeitalter von Big Data herausfordern. Die Risiken der Neuidentifizierung, Informationsschäden und Datensicherheitslücken sind Themen, die im klinischen Umfeld besser angegangen werden müssen, um den unvorhersehbaren Weg von Forschung und Praxis in der vernetzten Informationsgesellschaft in Einklang zu bringen.;-;-;-;https://link.springer.com/article/10.1007/s10676-015-9373-x 9f15a580a0a924c8d729da1bde23f2f0;de;;;3.4.;7.3.;6.1.;SICS auf der iCLEF 2002: Bewertung der sprachübergreifenden Relevanz und Aufgabenkontext Es wird über ein Experiment berichtet, wie Benutzer die Relevanz in einer Fremdsprache einschätzen, die sie gut beherrschen. Die Ergebnisse zeigen, dass die Relevanzbewertung in einer Fremdsprache im Vergleich zur Bewertung in der Erstsprache des Lesers zeitaufwändiger und fehleranfälliger ist. Die Ergebnisse beziehen sich auf Aufgabe und Kontext, und es wird über eine verbesserte Methodik zur Durchführung kontextsensitiver Studien berichtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45237-9_34 23e0348b6d1dbc40a8c92c94e65b8cc2;de;;;3.4.;7.3.;6.1.;Ontologien im Semantic Web verwenden: Eine Umfrage Das Semantic Web ist als effektive Infrastruktur zur Verbesserung der Sichtbarkeit von Wissen im Web anerkannt. Der Kern des Semantic Web ist die „Ontologie“, mit der wir unsere Konzeptualisierungen explizit darstellen. Ontology Engineering im Semantic Web wird hauptsächlich von Sprachen wie RDF, RDFS und OWL unterstützt. Dieses Kapitel diskutiert die Anforderungen der Ontologie im Kontext des Webs, vergleicht die oben genannten drei Sprachen mit existierenden Wissensrepräsentationsformalismen und untersucht Werkzeuge zur Verwaltung und Anwendung von Ontologie. Die Vorteile der Verwendung von Ontologie sowohl in Wissensdatenbank- als auch in Datenbankanwendungen werden anhand von drei realen Anwendungen demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-37022-4_4 4a2c2bd32829a2d0387b316e0684fe82;de;;;3.4.;7.3.;6.1.;Vernetzung von Semantic Web und Web2.0-Technologien zur Erstellung von Profilen: Fallstudie von Mitgliedern der Academia Europeaa Das Web gewinnt mit jeder verstrichenen Sekunde eine riesige Datenmenge. Es wird oft behauptet, dass sich Informationen zehnmal so schnell verdoppeln wie Wissen. Diese Datenflut stellte die wahren Herausforderungen der Suche und des Informationsmanagements dar. Ein naiver Webbenutzer hat heute Schwierigkeiten, seine Informationen an einem Ort zu finden, z. Wenn der Benutzer nach Informationen zu einem Thema sucht, findet er wahrscheinlich viele Links zu einer Site mit Informationen zu diesem Thema, aber es ist der Benutzer, der dann viele Schnipsel durcharbeiten muss, um sie zu einer zusammenhängenden Information zusammenzufassen die Antwort bekommen. Die Idee, konsolidierte Informationen zu erhalten, ist noch immer ein ungelöstes Problem. Herkömmliche Suchansätze erzeugen aufgrund des bedeutungslosen Zustands der meisten Daten keine konsolidierte und aggregierte Datenansicht. Inzwischen gewinnt Semantic Web mit strukturierten, vernetzten, maschinenlesbaren Datenbanken an Bedeutung und öffnet neue Tore zur Datenverbesserung. Das Ziel dieses Papiers ist es, einen Ansatz zu beschreiben, der Web 2.0- und Semantic-Web-Technologien umfasst, um relevante Informationen einer Person zu finden und in einem Benutzerprofil zusammenzufassen. In dieser Studie haben wir mit unseren Ansätzen an Wissenschaftlern der Academia Europaea experimentiert, um ihre konsolidierten Informationen zu erhalten. Wir schlagen eine Anwendung vor, bei der diese gefundenen Informationen konsolidiert und in kohärenter / wahrnehmbarer Weise präsentiert werden können. Wir haben auch ein Tool vorgeschlagen, das Redakteuren bei der Auswahl und Sammlung von verwandten Informationen von verschiedenen Websites helfen kann, indem sie zusammengefassten Links folgen, ohne das Urheberrecht zu verletzen. Wir hoffen, dass die Kombination von Web 2.0 und Linked Data-Technologien zu einer besseren Verwaltung von Informationen führen kann und unsere vorgeschlagene Anwendung den Benutzern helfen kann, einen besseren Überblick über die Personeninformationen zu erhalten, die in anderen Fällen im Web verbreitet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22185-9_28 8fe4e1856df65d82345bf3a2a0ff73bb;de;;;3.4.;7.3.;6.1.;Eine XML-Abfrage-Engine für netzwerkgebundene Daten XML ist zur Lingua Franca für den Datenaustausch und die Integration über Verwaltungs- und Unternehmensgrenzen hinweg geworden. Fast alle Datenanbieter fügen XML-Import- oder -Exportfunktionen hinzu, und Standard-XML-Schemas und -DTDs werden für alle Arten der Datenfreigabe gefördert. Die Allgegenwart von XML hat eines der Haupthindernisse bei der Integration von Daten aus sehr unterschiedlichen Quellen beseitigt – nämlich die Heterogenität der Datenformate. Die universelle Integration von Daten in den weiten Bereichen erfordert jedoch auch einen Abfrageprozessor, der Datenquellen bei Bedarf abfragen, gestreamte XML-Daten von ihnen empfangen und die Daten in neue XML-Ausgaben kombinieren und umstrukturieren kann – bei gleichzeitig guter Leistung für beide Batch-orientierte und ad hoc, interaktive Abfragen. Dies ist das Ziel des Tukwila-Datenintegrationssystems, dem ersten System, das sich auf netzwerkgebundene, dynamische XML-Datenquellen konzentriert. Im Gegensatz zu früheren Ansätzen, die vor der Abfrage ganze XML-Objekte lesen, parsen und oft speichern müssen, kann Tukwila Abfrageergebnisse zurückgeben, selbst wenn die Daten in das System gestreamt werden. Tukwila ist mit einer neuen Systemarchitektur ausgestattet, die adaptive Abfrageverarbeitung und relationale Engine-Techniken auf den XML-Bereich ausdehnt, was durch ein Operatorpaar erleichtert wird, das die Eingabepfadausdrücke einer Abfrage beim Lesen der Daten inkrementell auswertet. In diesem Papier beschreiben wir die Tukwila-Architektur und ihre neuartigen Aspekte und wir zeigen experimentell, dass Tukwila insgesamt eine bessere Abfrageleistung und schnellere Anfangsantworten als vorhandene Systeme bietet und eine hervorragende Skalierbarkeit aufweist.;-;-;-;https://link.springer.com/article/10.1007/s00778-002-0078-5 41def59f43cd2282eaf19953a0bfd242;de;;;3.4.;7.3.;6.4.;PageRank für bibliografische Netzwerke In diesem Papier stellen wir mehrere Modifikationen der klassischen PageRank-Formel vor, die für bibliografische Netzwerke angepasst wurden. Unsere Versionen von PageRank berücksichtigen nicht nur die Zitation, sondern auch den Graphen der Co-Autorenschaft. Wir überprüfen die Lebensfähigkeit unserer Algorithmen, indem wir sie auf die Daten aus der digitalen DBLP-Bibliothek anwenden und die resultierenden Ranglisten der Gewinner des ACM E. F. Codd Innovations Award vergleichen. Rankings, die sowohl auf den Zitations- als auch auf Co-Autoreninformationen basieren, erweisen sich als „besser“ als das Standard-PageRank-Ranking.;-;-;-;https://link.springer.com/article/10.1007/s11192-007-1908-4 552b4b8f242c748af88a69844417a58a;de;;;5.2.;7.3.;7.2.;Unterstützung für die Nutzer des KISIn diesem Kapitel wollen wir die Werkzeuge vorstellen, die unter Nutzung der in Kapitel 6 entwickelten Konzepte zur Erfüllung der ebenfalls dort aufgezeigten Funktionalität realisiert wurden. Wir werden die Werkzeuge dazu aus zwei ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-95343-8_7 59734c5d8d97019fd83bcaad98da4373;de;;;3.5.;7.3.;7.4.;Datenverarbeitungsmodell und Leistungsanalyse von Cognitive Computing basierend auf maschinellem Lernen in einer Internetumgebung Um das Problem zu lösen, dass das schnelle Wachstum der Datengröße in der Internetumgebung es schwieriger macht, aussagekräftige Informationen aus massiven Daten zu extrahieren, wird ein Cognitive Computing-Modell vorgeschlagen und die Datenverarbeitungstechnologie, die das Modell verwenden kann, und der Task-Scheduling-Algorithmus unter verteilte Hintergrundbedingungen werden untersucht. Darüber hinaus wird ein kognitiver Entscheidungsalgorithmus vorgeschlagen, der auf dem Deep Confidence Network und dem linearen Perzeptron basiert, um das Entscheidungsproblem der Verfügbarkeit massiver Informationen im Internet zu lösen. Gemäß dem Ergebnis des Netzwerktrainings mit tiefem Vertrauen wird ein kognitives Entscheidungsmodell mit Fehlerkontrollfunktion erstellt, und das Entscheidungsergebnis, ob die Informationen effektiv sind oder nicht, wird durch eine umfassende Betrachtung der Informationen selbst und der Kontextinformationen gegeben. Die experimentellen Ergebnisse zeigen, dass das kognitive Entscheidungsmodell basierend auf Deep Belief Network und linearem Perceptron in der späten Trainingsphase gut abschneidet. Darüber hinaus werden entsprechend den experimentellen Ergebnissen die am besten geeigneten Betriebsparameter ausgewählt. Die Genauigkeit des Algorithmus ist viel höher als die des Deep-Belief-Netzwerks und des mehrschichtigen Perzeptrons, was darauf hindeutet, dass dieser Algorithmus eine gewisse Verbesserung der kognitiven Entscheidungsgenauigkeit aufweist.;-;-;-;https://link.springer.com/article/10.1007/s00500-018-03722-5 532c87dec27b4b2c4fee52bcefb1d827;de;;;3.4.;7.3.;7.4.;Ein Rahmen für die Kategorisierung von betitelten Dokumenten mit modifiziertem multinomialem Naivebayes-Klassifikator Titled Documents (TD) sind kurze Textdokumente, die in zwei Teile unterteilt sind: Überschriftenteil und Auszugsteil. Mit der Entwicklung des Internets werden TDs häufig als Zeitungen, Nachrichten, Nachrichten usw. verwendet. In diesem Artikel diskutieren wir das Problem der automatischen Kategorisierung von TDs. Im Gegensatz zu herkömmlichen Textdokumenten haben TDs kurze Überschriften, die im Vergleich zu ihren Auszügen weniger nutzlose Wörter enthalten. Obwohl Überschriften normalerweise kurz sind, sind ihre Wörter wichtiger als andere Wörter. Basierend auf dieser Beobachtung schlagen wir einen betitelten Dokumentklassifikationsrahmen vor, der den weit verbreiteten MNB-Klassifikator verwendet. Dieser Rahmen legt den Überschriftenwörtern auf Kosten einiger Wortauszüge ein höheres Gewicht bei. Auf diese Weise spielen Überschriftenwörter bei der Klassifikation eine wichtigere Rolle als die traditionelle Methode. Nach unseren Experimenten mit vier Datensätzen, die drei Dokumenttypen abdecken, wird die Leistung des Klassifikators durch unseren Ansatz verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73871-8_31 a9907d1261d66f3f027e722ae12bb4fd;de;;;3.4.;7.3.;7.4.;Personalisierte Themenmodellierung zur Empfehlung von nutzergenerierten Inhalten User Generated Content (UGC) wie Blogs und Twitters explodieren in modernen Internetdiensten. In solchen Systemen werden Empfehlungssysteme benötigt, um Menschen dabei zu helfen, große Mengen an UGC zu filtern, die von anderen Benutzern erzeugt werden. Herkömmliche Empfehlungsmodelle verwenden jedoch keine Benutzerautorenschaft für Elemente. In diesem Papier zeigen wir, dass wir mit diesen zusätzlichen Informationen die Leistung von Empfehlungen deutlich verbessern können. Es wird ein generatives Modell vorgeschlagen, das hierarchische Themenmodellierung und Matrixfaktorisierung kombiniert. Empirische Ergebnisse zeigen, dass unser Modell andere State-of-the-Art-Modelle übertrifft und interpretierbare Themenstrukturen für Benutzer und Items bereitstellen kann. Da aus deren Produktionen Nutzerinteressen abgeleitet werden können, können zudem Empfehlungen für Nutzer ohne Bewertungen zur Lösung des Kaltstartproblems ausgesprochen werden.;-;-;-;https://link.springer.com/article/10.1631/FITEE.1500402 a7e88f18e1161a48f023a5659f15880c;de;;;5.2.;7.3.;7.4.;Änderungen des Käuferverhaltens in B2C-MärktenKaum eine Entwicklung hat eine derartige Euphorie erzeugt wie die zunehmende Verbreitung und Kommerzialisierung des Internet Mitte der neunziger Jahre. Anscheinend losgelöst von klassischen Wettbewerbs- und Marktmechanismen konnten Start-Ups mit vermeintlich innovativen Geschäftsideen Börsenkapitalisierungen in Schwindel erregender Höhe erzielen. Gerade die Anfänge des B2C waren durch eine bunte Vielfalt unterschiedlichster Geschäftskonzepte gekennzeichnet, die letztendlich auf ein Ziel hinausliefen: möglichst viele Besucher anziehen, denn die Marktkapitalisierung hing in entscheidendem Maße von eben diesen Benutzerzahlen ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-84478-1_5 e182ffe5c7602f388af48fbbb98dc03b;de;;;5.2.;7.3.;7.4.;Reaktionspflichten des StaatesAuf Basis der grundrechtsdogmatischen Einordnung und der Ausführungen zur strukturellen Rolle von Suchmaschinen gilt es nun der Frage nachzugehen, ob eine Pflicht des Staates zur gesetzgeberischen Reaktion auf die veränderte Kommunikationslandschaft und die Bedeutung von Suchmaschinen zum jetzigen Zeitpunkt hinreichend begründet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-16827-8_6 368db00917abf697e804c212006e93ac;de;;;5.2.;7.3.;7.4.;Informieren und Informiertheit onlineIm vorherigen Kapitel haben wir die Angebotsseite betrachtet. Journalistische Nachrichten, alternative Medien und öffentliche Bürgerkommunikation können als die wesentlichen Quellen politischer Informationen gelten. In diesem Kapitel wenden wir uns der Publikums- bzw. Nutzerseite zu und fragen, wie Bürger Informationsquellen wahrnehmen, beurteilen, auswählen, nutzen und weitergeben. Dabei werden einige Besonderheiten zutage treten, die die Befürchtung nähren, dass das Internet unter den aktuellen Bedingungen die Informiertheit und Diskursfähigkeit der Bevölkerung tatsächlich schwächt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-16058-6_3 99450fdcd4a50dcbc0a39d279196b3f1;de;;;5.2.;7.3.;7.4.;Länder im UmbruchNach der Fukushima-Katastrophe am 11. März 2011 beschloss die deutsche Bundesregierung unter Rückgängigmachung der von ihr in 2010 beschlossenen Laufzeitverlängerung der Kernkraftwerke, acht dieser Werke sofort und die übrigen neun bis 2022 für immer abzuschalten. Begründet wurde diese Energiewende mit der unzutreffenden Behauptung, der Fukushima-GAU sei auf ein unterschätztes Restrisiko wassermoderierter Kernreaktoren zurückzuführen. In den Folgejahren sind in Deutschland die auf den Inlandsverbrauch elektrischer Energie bezogenen CO;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-57858-2_5 59432a189700ae7b80cfb2c25e3be462;de;;;5.2.;7.3.;7.4.;Aufnahme in den DatenbestandDie Aufnahme in den Datenbestand stellt das eigentliche Ziel jeder Suchmaschinen basierten Marketing Maßnahme dar. Entspricht ein Dokument den zulässigen Dokumententypen und verstößt es nicht gegen die Spam-Regeln der Suchmaschinen, wird im allgemeinen eine Website von den Suchmaschinen indexiert und die Keywords entsprechend ihrer Relevanz für ein Dokument gewichtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-59321-5_9 1c4dca212711359a0b304399da7ec811;de;;;5.2.;7.3.;7.4.;Einfluss der digitalen Transformation verstehenEntscheidend für den Erfolg digitaler Organisationen ist es, dass die Entscheider die ganzheitlichen Auswirkungen der Digitalisierung auf Mensch, Organisation und Gesellschaft verstehen. Dieses Kapitel liefert eine differenzierte Betrachtung der disruptiven „Störsignale“ im Markt und zeigt, mit welchen Methoden diese identifiziert werden können. Neben dem „Wie“ wird auch das „Was“ diskutiert und die verschiedenen Veränderungsebenen der Digitalisierung analysiert, u. a. die Wirkungen der Digitalisierung auf gesellschaftlicher, organisationaler und individueller Ebene. Speziell der Bereich der Verhaltensveränderungen der Menschen wird einer näheren Betrachtung unterzogen und ein Modell der digitalen Bedürfnisse vorgestellt, anhand dessen sich die Bedürfnismuster des „homo digitalis“ erklären lassen. Ob es sich bei allen Veränderungen um eine „echte“ Revolution handelt, wird abschließend besprochen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-28630-9_3 60a1371fc85eac8b55368e6b4f5371bd;de;;;5.2.;7.3.;7.4.;Digitalisierung 4.0: PerspektivenDie folgenden weitergehenden Erläuterungen der technischen Möglichkeiten für die Digitalisierung 4.0 sollen verdeutlichen, welche Informations- und Kommunikationstechnologien als Treiber für diese digitale Transformation gelten können. Ihre detailliertere Beschreibung soll auch dazu dienen abzuleiten, welche Weiterentwicklungen des betrieblichen Handelns, bis hin zum Ausbrechen aus tradierten Vorgehensmustern, die Nutzung dieser Technologien zur Folge haben können und welche dieser Änderungen möglicherweise sogar die Voraussetzung für die Digitalisierung 4.0 sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-19628-8_3 86ba586d3249d52a0a567a4a12cd5a9e;de;;;5.2.;7.3.;7.4.;Herausforderungen und Chancen neuer Kommunikationsinstrumente für die Corporate Brand erkennenMedien und Kommunikationsformen sind in einem signifikanten Wandel begriffen. Für die Marketingkommunikation und das Brand Management kristallisieren sich neue Instrumente heraus, die u. a. durch Vernetzung, Partizipation und Multimedialität gekennzeichnet sind. Diese neuen Instrumente verändern die Möglichkeiten, eine Unternehmensmarke sichtbar und erlebbar zu machen. Wichtige Auswirkungen dieser Veränderungen auf die Möglichkeiten für die Markenkommunikation werden in diesem Kapitel erläutert. Auch die Grenzen werden angesprochen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-3862-6_24 05ab053b0ef3798ddda45cc2d51b85c6;de;;;5.2.;7.3.;7.4.;Lebensraum AutoWelchen Stellenwert nimmt das Fahrzeug derzeit ein? Anhand ganzheitlicher Mobilitätsuntersuchungen lassen sich Positionsbestimmungen dedizierter durchführen als in einer isolierten auf die Automobilindustrie reduzierten Betrachtung. Die Frage der Wertigkeit eines Fahrzeugs richtet sich nicht mehr nach dem alleinigen Anspruch, etwas zu besitzen. Der Lebensraum im Auto hängt dabei maßgeblich von seinem Umfeld ab. Wie sehr sich das Auto mit seinen Bewohnern und Besuchern vernetzt, beschäftigt Entscheider sowohl in urbanen wie auch ländlichen Räumen. Dabei stehen Personaanalysen und Bedarfsparameter wie Zeit, Komfort und Budget zur Verfügung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-21960-4_2 53d8ab0ad38c7e6b7557a519562062dd;de;;;5.2.;7.3.;7.4.;Was bedeutet „Freiheit“ in einem sozio-technischen Kontext?Der Zusammenhang zwischen Freiheit und Technik muss grundlegend neu gedacht werden. In den letzten zwei Jahrzehnten hat es im Rahmen der Digitalisierung eine breite öffentliche Debatte über das Verhältnis von Freiheit und Technik gegeben. Dieser Dialog wird meist bloß implizit geführt. Die Annahmen, welche die Debatte bestimmen, werden jedoch nicht deutlich genug definiert. Gleichzeitig ist in vielen Fällen nicht klar, welche Konsequenzen solche Annahmen mit sich bringen, da sie nicht trennscharf voneinander abgegrenzt und entwickelt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-30997-8_10 fb98e353ccf76115036c27ccee2782aa;de;;;5.2.;7.3.;7.4.;Content-Management-SystemeDie nachfolgenden Kapitel beschreiben die bestehende sowie die geplante Systemarchitektur des Multi-Access-Portals von E-Plus. Die Systemarchitektur zum Zeitpunkt der Live-Schaltung des Portals basierte auf dem ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55559-6_5 d468c628ac42e5c7f7e739ee20eb8fd4;de;;;5.2.;7.3.;7.4.;Der Produktionsprozeß ökonomischer Güter und deren Wertschöpfung in der DVWIm Mittelpunkt dieses Kapitels steht die Auseinandersetzung mit den Produktionsprozessen der realen Welt und der DVW und deren ökonomische Güter (vgl. Abbildung 3.1/1). Die Beantwortung der Fragen, welche ökonomischen Güter gehandelt und wie diese erzeugt werden können, ist die zentrale Herausforderung dieses Kapitels.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-87392-7_3 5d2d1994550ddc2080ec69c818f2da27;de;;;5.2.;7.3.;7.4.;Erste SchritteBevor es nun richtig losgeht, noch eine kurze Anmerkung zur Planung von Projekten für das Internet. Das Internet ist ein unermesslicher Pool an Wissen und Informationen für alle nur denkbaren Bereiche. Viele von engagierten Usern und Programmierern bereitgestellte Webseiten helfen bei den unterschiedlichsten Problemen und geben jedem Suchenden die (fast immer) richtigen Hilfsmittel zur Lösung seines Problems an die Hand. Neue Projekte zu entwickeln, die neue Eigenschaften mitbringen, ist daher eigentlich so gut wie unmöglich und bedarf neuer Problemstellungen, die leider nicht wie Sand am Meer herumliegen. Denken Sie daher bei Ihren Ideen zu einem Projekt immer daran, dass es dies bereits geben könnte und Sie nach vollendeter Arbeit keinen oder nur mäßigen Zuspruch der Community erhalten, weil sich das Thema vielleicht schon tot gelaufen hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8348-8114-4_4 a204ee3be24d37d376e2d7b56c3450b1;de;;;5.2.;7.3.;7.4.;Empirische Studie zur wahrgenommenen PreiskomplexitätUm die aufgestellten Hypothesen und das in Abbildung 4 dargestellte Forschungsmodell zu untersuchen, wurde eine für die volljährige, deutsche Bevölkerung repräsentative Onlinestudie durchgeführt. Den Probanden der empirischen Studie wurde dabei der fiktiv gewählte ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-16344-0_4 412ac1ffad88afb8c5bb2edbea7005ff;de;;;5.2.;7.3.;7.4.;Intermediation: Direkte und indirekte Verknüpfung von Angebot und NachfrageDie ökonomischen Transaktionen auf Märkten werden durch Intermediäre (Mittler) geprägt. Sie haben die Funktion, die Transaktionen zwischen Akteuren möglichst zweckmäßig zu gestalten und Transaktionskosten in den einzelnen Phasen zu reduzieren. Zur Beurteilung der Transaktionsbeziehungen lässt sich ein Vergleich von digitalen und realen Märkten unter dem Gesichtspunkt der Transaktionskosten vornehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-59829-0_7 e14eaf631f52d61b96c718439dfb82bc;de;;;3.5.;7.3.;;Umsetzung der Virtuellen Schule: Beste Cyber ​​Academy Der Artikel diskutiert die Architektur- und Implementierungsprobleme einer virtuellen Schule --- Best Cyber ​​Academy. Die Best Cyber ​​Academy wird nach den Prinzipien des verteilten Lernens implementiert, um eine webbasierte Lernumgebung für Grund- und Mittelstufenschüler zu schaffen, die konstruktiv und authentisch kollaborativ lernen können. Es wird vorgeschlagen, dass die Architektur einer virtuellen Schule aus drei Komponenten bestehen sollte: (1) den hochgradig interaktiven eLearning-Umgebungen, (2) den fundierten eLearning-Inhalten und (3) der konkreten eLearning-Community. Um eine virtuelle Schule erfolgreich zu implementieren und aufrechtzuerhalten, sind vor allem drei Komponenten unerlässlich.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45453-5_41 5bec905a0ef601bce7afb71fc3462eb9;de;;;3.5.;7.3.;;Eine statistische und grafische Methodik zum Vergleich von zweisprachigem mit einsprachigem mehrsprachigem Informationsabruf Es wird eine neue Methodik zur Bewertung von Systemen des mehrsprachigen Informationszugangs (MLIA) vorgeschlagen. Diese zweifache Methodik nutzt sowohl statistische Analysen als auch grafische Werkzeuge, um MLIA-Forschern Richtlinien, Hinweise und Anweisungen zur Verfügung zu stellen, um das Design und die Entwicklung der Systeme der nächsten Generation voranzutreiben und ein Mittel zur Interpretation und zum Vergleich von experimentellen Ergebnissen und zur Präsentation bereitzustellen diese Ergebnisse an andere Forschungsgemeinschaften weiter. Ein Beispiel für die Anwendung dieser Methodik wird in der realen Fallstudie der ein- und zweisprachigen Aufgaben des CLEF 2005 und 2006 angewendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75134-2_9 1d0ccab69e224dd90f98192363180ece;de;;;3.5.;7.3.;;Symmetrisches Kryptografieprotokoll zum Signieren und Authentifizieren digitaler Dokumente Das schnelle technologische Wachstum und die Anforderungen der zeitgenössischen Globalisierung haben dazu geführt, dass die meisten Unternehmen elektronische Mittel zur Kommunikation und Formalisierung von Dokumenten verwenden. Eines der Hauptprobleme der Prüfer ist das Erkennen gefälschter Dokumente. Die elektronische Signatur von Dokumenten ist eine vorläufige Lösung des Problems. In unserer Forschung sind wir daran interessiert, einen Webservice zu entwickeln, der es ermöglicht, Dokumente zu signieren und deren Authentizität zu überprüfen. Um diesen Webservice vor böswilligen Aktivitäten zu schützen, müssen Aspekte der Computersicherheit berücksichtigt werden, wie beispielsweise Steganographie, Kryptographie und Sicherheitsprotokolle. In diesem Artikel stellen wir ein Sicherheitsprotokoll vor, das ein symmetrisches Kryptographieschema verwendet, um digitale Dokumente zu signieren und zu authentifizieren. Wir haben dieses Protokoll formal verifiziert und festgestellt, dass es die vierte Authentifizierungsebene gemäß der Lowe-Hierarchie bietet. Darüber hinaus befassen wir uns auch mit Sicherheitsaspekten, die bei solchen Anwendungen und einigen von uns entwickelten Implementierungen berücksichtigt werden müssen, um Angriffe zu vermeiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22389-1_2 ab61e00a87c54b95264547486acf59af;de;;;3.5.;7.3.;;Zur Modellierung von Internettransaktionen als zeitabhängiger Random Walk: Eine Anwendung des Retail Aggregate Space-Time Trip (RASTT)-Modells Die mathematische Beschreibung des Internets ist eine neue Herausforderung für angewandte Modellierer. Es sind nun neue räumliche und zeitliche Erreichbarkeiten zu berücksichtigen und neue Konzepte entstehen, wie zum Beispiel „E-Tailing“, bei dem Handelstransaktionen global und nahezu augenblicklich stattfinden können. Dieser freie Zugang zum Internet für Verbraucher bedeutet, dass Fragen des physischen Standorts, der Reisezeit oder des Marktgebiets möglicherweise weniger relevant sind und die Forschungsgrenze sich mit Dingen wie „virtueller Distanz“ und uneingeschränkten Einkaufsmöglichkeiten zwischen Ländern befassen muss. Es scheint sogar eine Art Zeitersatz für die räumliche Interaktion zu geben (insbesondere aus zeitarmen wohlhabenden Haushalten). Eine zentrale theoretische Frage ist, ob der Cyberspace ein Produkt dessen ist, was Marx als „zeitvernichtenden Raum“ bezeichnete.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-2296-4_15 6f8ce1e6c9e5d34a76668501fb6dcaa0;de;;;3.5.;7.3.;;Hinterfragen von WELL Use im chinesischen Hochschulkontext: Forschungsfragen und Methoden Um die Komplexität der Entscheidungen und Verhaltensweisen von L2-Lernenden in Bezug auf die Online-Technologie aufzudecken und zu verstehen, berichtet dieses kurze Kapitel über das Forschungsdesign mit gemischten Methoden und die Datensammlung mit 1485 chinesischen Studenten. Insbesondere beginnt dieses Kapitel mit der Einführung in die drei Forschungsfragen, die durch eine Überprüfung der vorhandenen Literatur formuliert wurden. Anschließend werden das Design, die Instrumente und die Stichprobe der groß angelegten Forschung diskutiert. Dieser Diskussion folgt eine genaue Beschreibung der Forschungsstandorte. Diese Darstellungen ebnen den Weg für das Verständnis der Diskussionen in den verbleibenden Kapiteln.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2499-4_4 12ef45344a3b7f9f162cd03de87fc443;de;;;3.4.;7.3.;;Social Media Research in und von Indien: Eine Momentaufnahme Obwohl es sich um einen großen und am schnellsten aufstrebenden Markt handelt, ist die bestehende Landschaft der Social-Media-Forschung in und von Indien nicht bekannt. Die Literatur ist in zwei Achsen unterteilt – Analyseebene (Menschen und Gesellschaft, Plattformen und Unternehmen) und Aktivitäten (Merkmale, Taktiken, Management und Messung). Der Review weist darauf hin, dass Informatiker das Feld dominieren, deren Forschung nicht spezifisch für den indischen Kontext ist. Adoptions- und Wirkungsstudien werden in beträchtlicher Zahl durchgeführt. Andere Forschungsbereiche – Geschäftsmodelle und Operationen von Plattformen in Indien, Management der Social-Media-Strategie innerhalb von Organisationen, Nutzung spezifischer Funktionen von Plattformen und hausgemachten Plattformen – sind noch unerforscht. Das Papier verwendete eine schnelle Literaturrecherche, um die Ergebnisse aus der SCOPUS-Datenbank zu erhalten, und wurde mit Rayyan, einem Tool für die systematische Überprüfung, analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-75013-2_12 f915c137446825ec64d397e5393104de;de;;;3.4.;7.3.;;Verdauen zweisprachiger Webnachrichten über finanzielle Aktivitäten und Veranstaltungen im Bergbau Wir versuchen, ein Finanzwissensmanagementsystem, bekannt als FAM (Financial Activity Mining), zu entwickeln, das in der Lage ist, mehrsprachige Online-Nachrichten zu verarbeiten und Finanzaktivitäten-Mining durchzuführen. FAM ist in der Lage, Neuigkeiten zu entdeckten Aktivitäten oder Ereignissen zu präsentieren. Unser System ist besonders hilfreich, um die Aktienperformance eines Zielunternehmens oder einer Veranstaltung zu verfolgen, wobei alle zugehörigen Nachrichten gesammelt werden. Eine klare Darstellung der Beziehungen zwischen verwandten Aktivitäten bietet Benutzern eine bequeme Umgebung zur Überwachung des Finanzmarktes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24594-0_76 dd547ccc80be83f199001efcf995e695;de;;;3.4.;7.3.;;Konvergenz: Eine Anlageperspektive Konvergenz ist ein sehr spannendes Modell und bietet ungeahnte Möglichkeiten. Im aktuellen wirtschaftlichen Umfeld zögert die Anlegergemeinde jedoch, Kommunikationsunternehmen zu empfehlen, viele Ressourcen in diesem Bereich einzusetzen. Der Konvergenzmodus muss beweisen, dass er Umsatz und Gewinn generieren kann. Es ist jedoch auf ein werbegestütztes Modell beschränkt – ein Teil der Kommunikationsbranche, der im vergangenen Jahr aufgrund der Rezession Probleme hatte. Die erhöhten Werbeeinnahmen, die durch das Konvergenzmodell generiert würden, sind verdorben – höchstwahrscheinlich wird den traditionellen Mediensegmenten, die das Modell unterstützen, der Werbeanteil weggenommen. Mit dem Konvergenzmodell verbunden ist eine hohe Abhängigkeit vom Internet. Internetwerbung ist nicht lokal. Darüber hinaus zeigen Finanzdaten deutlich, dass die Gewinnmargen durch das Internet erheblich gesunken sind, was das traditionelle Medienunternehmen, das das Konvergenzmodell unterstützt, nicht zulassen kann. Schließlich wird sich die Deregulierung der FCC in Bezug auf Beschränkungen für die Obergrenze von Fernsehsendern, Kabelnetzbetreiber, die Sender auf demselben Markt besitzen, und gemeinsame Eigentümerschaft von Zeitungen und Fernsehsendern auf demselben Markt höchstwahrscheinlich negativ auf das Konvergenzmodell auswirken.;-;-;-;https://link.springer.com/article/10.1007/BF02687804 bd47d0cd424fcf7369465bf6369a1e47;de;;;3.4.;7.3.;;Webservice-basierter geschützter Medi-Helper Die Wahrhaftigkeit und Geheimhaltung medizinischer Informationen, die über das Internet abgewickelt werden, ist anfällig für Angriffe. Die Transaktion solcher Daten ist jedoch zwingend erforderlich, um den Luxus medizinischer Leistungen überall und jederzeit in Anspruch zu nehmen. Insbesondere in einem Webservice-fähigen System für das Krankenhausmanagement wird es notwendig, diese Sicherheitsprobleme anzugehen. Dieses Papier präsentiert eine VDM++-basierte Spezifikation für die Modellierung eines Sicherheits-Frameworks für Webdienste mit Nicht-Ablehnung, um sicherzustellen, dass eine Streitpartei eine Erklärung oder einen Vertrag nicht ablehnen oder die Gültigkeit widerlegen kann. Dieses Modell stellt das Verfahren und die technischen Möglichkeiten dar, um eine sichere Kommunikation über das Internet mit Webdiensten zu ermöglichen. Basierend auf dem Modell wurde der Medi - Helper entwickelt, um die Technologien von WS-Security und WS-Policy, WSRN zu verwenden, um verschlüsselte Nachrichten zu erstellen, damit die Krankenakten des Patienten bei der Weiterleitung über das Internet nicht manipuliert und eingeschickt werden eine zuverlässige Art und Weise. Zusätzlich zu Authentifizierung, Integrität und Vertraulichkeit, wie in diesem Papier vorgeschlagen, ist der Sicherheitsrahmen für gesundheitsbasierte Webdienste mit einer Nichtabstreitbarkeit ausgestattet, die in vielen bestehenden Rahmen nicht enthalten ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17878-8_3 00a30e7916c851ea8444a5e553c9030e;de;;;3.4.;7.3.;;Dynamisches Mining für Web-Navigationsmuster basierend auf dem Markov-Modell Webbenutzermuster können verwendet werden, um einen robusteren Webinformationsdienst bei der Personalisierung zu erstellen. Aber die Benutzerinteressen sind veränderlich, das heißt, sie unterscheiden sich von einem Benutzer zum anderen und ändern sich ständig für einen bestimmten Benutzer. Dieses Papier präsentiert einen dynamischen Mining-Ansatz basierend auf dem Markov-Modell, um dieses Problem zu lösen. Das Markov-Modell wird eingeführt, um die Änderungen des Benutzerinteresses gemäß seinem Navigationsverhalten zu verfolgen. Einige neue Konzepte im Modell werden definiert. Ein auf dem Modell basierender Algorithmus wird dann entwickelt, um die bevorzugten Navigationspfade des Benutzers zu lernen. Der Ansatz wird in einer Beispielwebsite implementiert und die experimentellen Ergebnisse haben die Wirksamkeit unseres Ansatzes bewiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30497-5_125 641b6d1f054be8566596dbfccfac8228;de;;;3.4.;7.3.;;Auf dem Weg zu einer automatisierten Werbestrategiedefinition basierend auf Analysen In der heutigen Welt ist Werbung zu einem der wichtigsten Aspekte des modernen Lebens geworden und hat die Gesellschaft in vielerlei Hinsicht beeinflusst. Wir könnten sagen, dass es (sogar heimlich) in das menschliche Symboluniversum eingebettet ist. Andererseits spielen soziale Netzwerke eine fast allgegenwärtige Rolle sowohl bei der Nachrichtenproduktion und -übertragung als auch bei der Bereitstellung einzigartiger Erkenntnisse, die über andere Kanäle nicht ohne weiteres verfügbar sind. Es ist daher nur natürlich, Strategien zu entwickeln, die in der Lage sind, die Informationsbeschaffung und -verarbeitung zu automatisieren. Unser Hauptziel ist der Aufbau eines automatisierten Prozesses zur Erstellung einer Werbestrategie basierend auf der Verwendung von Daten aus sozialen Netzwerken und von Benutzern bereitgestellten Informationen. Das zugrunde liegende Modell berücksichtigt Text-Mining-Algorithmen zusammen mit einem innovativen inhaltsbasierten Entscheidungsprozess, der im Sinne der theoretisch-semiotischen Annahmen des Pragmatismus von Charles Sanders Peirce konstruiert wurde. Wir beschreiben eine praktische Anwendung der vorgeschlagenen Methodik, um die erforderlichen Erkenntnisse für die zukünftige Konstruktion der Werbestrategie einer akademischen Einrichtung in Kolumbien basierend auf Facebook, Twitter und Studentenbefragungen als einen ersten Schritt in der Entwicklung einer automatisierten Lösung zu erhalten .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-01535-0_4 ada9fa4775a12c469a96982333471563;de;;;3.4.;7.3.;;Rücklaufquote, Schnelligkeit und Vollständigkeit: Internetbasierte und Mailbefragung im Vergleich Aufgrund ihrer Schnelligkeit und Zugänglichkeit hat die Nutzung von Online-Recherchetools in den letzten Jahren stark zugenommen. In der vorliegenden Studie wurden zwei Möglichkeiten zur Bereitstellung von Umfragen verglichen: internetbasierte und Mail-Zustellungsmethoden. Obwohl internetbasierte Umfragen und E-Mail-Umfragen eine ähnliche Rücklaufquote erzielten, können internetbasierte Umfragen in einer Umgebung effektiver sein als E-Mail-Umfragen, wenn die Zielbevölkerung sowohl über E-Mail- als auch Internetzugang verfügt.;-;-;-;https://link.springer.com/article/10.3758/BF03195422 cd47dd01745339787e4c7300389401f2;de;;;5.2.;7.3.;;Best PracticesIn diesem Kapitel werden verschiedene Best-Practice-Beispiele vorgestellt. Andreas Kulpa beschreibt zunächst, wie Deep Learning bzw. Lead Prediction neue Wege der Kunden- und Marktgewinnung ermöglichen. Prof. Dr. Nils Hafner zeigt auf, welche Möglichkeiten sich aus der intelligenten Nutzung vieler unterschiedlicher Informationen aus verschiedenen Quellen und in diversen Formaten sowie durch die Anwendung von AI und Machine Learning im Kundenkontakt ergeben. Vorgehen, Chancen und Risiken zum Einsatz von Bots in Service und Marketing untersucht Dr. Thomas Wilde. Innovative Tech-Companies haben den Mediamarkt mit algorithmenbasierten Technologie-Plattformen betreten und ermöglichen auf Basis von Künstlicher Intelligenz transparente und effiziente Mediaplanung: Diesem Thema widmet sich Andreas Schwabe. Wie Algorithmen und AI zur Generierung und Verteilung von Content eingesetzt werden können und wie die Bot-Revolution das Content Marketing verändert, untersucht Klaus Eck. Der Beitrag von Jens Scholz und Michael Thess widmet sich den Recommendation-Systemen für den Handel: Ausgehend vom aktuellen Stand der Entwicklung werden die Herausforderungen für Weiterentwicklungen aufgezeigt. Zu deren Lösung wird ein Ansatz in Form von Reinforcement Learning beschrieben. Unter dem Stichwort Intelligent Automation untersucht Andreas Klug, wie AI und Robotic Process Automation Arbeitsplätze und Abläufe in Verwaltung und Kundenservice verändern. Am Beispiel der privaten Krankenversicherung geben Eleftherios Hatziioannou und Darko Obradovic einen Einblick in Lösungen für eine zeitgemäße und effiziente Kundenkommunikation mittels moderner Technologien, und AI. Prof. Dr. Martin Grothe stellt dar, wie im digitalen Raum vielschichtige Bedrohungen entstehen können und welche computerlinguistische Technologie zur Früherkennung geeignet ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-19147-4_7 17b360760eb35bbdde856f38d8181633;de;;;5.2.;7.3.;;Organisationales EinflusspotenzialIm folgenden Abschnitt soll zunächst die Rolle der Mitarbeiter als wichtige Stakeholdergruppe für Organisationen dargelegt werden. Darauf folgend werden die interne Kommunikation, ihre zentralen Ziele, ihr Mehrwert, ihre Außenwirkung sowie ihre Rolle in kritischen Zeiten erläutert. Die Relevanz der organisationalen Identifikation für das hier skizzierte Forschungsinteresse soll dabei insbesondere erörtert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-19081-1_4 a2ec5654edd7da5e79dfbe95d3d687b0;de;;;5.2.;7.3.;;Regulierungsoptionen (de lege ferenda)Die Frage nach potentiell ausgestaltungstauglichen Handlungsoptionen des Gesetzgebers de lege ferenda ist denkbar offen. Es wird sich hier kaum ein abschließendes Portfolio an Optionen finden lassen. Im Folgenden werden daher vornehmlich die in jüngster Zeit im Schrifttum sowie der rechtspolitischen Diskussion diskutierten Ansätze aufgegriffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-16827-8_7 c902f2dbb771b8ae386cba3bb0241907;de;;;5.2.;7.3.;;Soziale Netzwerke und inhaltsbasierte Suchein P2P-SystemenIm Folgenden präsentieren wir eine Anwendung der netzwerkbasierten Analyse von sozialen Strukturbildungsprozessen in der Informatik für eine Verbesserung der Dokumentensuche in Netzwerken, die auf sog. Peer-to-Peer (P2P)-Systemen beruhen. P2P-Systeme setzen sich aus einer Menge von gleichartigen oder zumindest mit kompatiblen Interfaces versehenen Softwareagenten zusammen, welche auf i.a. verschiedenen, durch ein Verbindungsnetzwerk (typischerweise das Internet) verbundenen, Computern „leben“. Kennzeichnendes Merkmal dieser Softwareagenten ist, dass jeder sowohl als Client als auch als Server agieren kann. Diese Softwareagenten werden daher auch als Servents;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-93336-8_14 f6dfd9055fe39f33e3a9c1fac509ca9e;de;;;5.2.;7.3.;;Wissen, was es ist!Vergangenen Sommer im Louvre, der seine unendlich vielen Kunstschätze aus über vier Jahrtausenden auf einer Ausstellungsfläche von tausenden Quadratmetern präsentiert, fühlte ich mich angesichts dieser Fülle an die Vielfalt des Cyberspace bzw. die Entscheidungsanforderungen beim Suchen und Entdecken im World Wide Web erinnert Die Vielzahl der Werke ist faszinierend und gleichzeitig erschlagend. Jedes Ausstellungsstück erzählt seine eigene Geschichte, die es wert ist, ihr zuzuhören. Auf welche Geschichte man sich einlässt und welche man lieber überhört, muss jedoch jeder für sich selbst entscheiden. Man kann sich von den Eindrücken und Sinneswahrnehmungen treiben lassen oder aber gezielt die Nike, die Venus von Milo oder Amor und Psyche ansteuern. Alles ist erreichbar, alles ist auffindbar, wenn man weiß, dass es diese Schätze gibt und wie man sie aufspürt. Mit dem Eintritt ins Museum ist jedoch nicht nur der physische Weg zu allen Kunstwerken — und damit die Möglichkeit ihrer Betrachtung - geebnet, sondern gleichzeitig taucht das individuelle Problem der richtigen Auswahl und somit das Treffen von Entscheidungen auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-80482-2_14 42c6e29a572574a601024ae51e7f8af9;de;;;5.2.;7.3.;;Touristisches MarketingIm Zuge einer immer größeren touristischen Angebotspräsenz wird es für Reiseveranstalter und touristische Leistungsträger zunehmend schwieriger, ihre Angebote gegenüber potenziellen Kunden hinreichend zu kommunizieren. Viele Angebote gehen in der Informationsflut unter oder werden nur unzureichend wahrgenommen, was in den zurückliegenden Jahren zu verstärkten touristischen Werbe- und Marketingmaßnahmen geführt hat. Eine breite Streuung von Werbeaktivitäten soll dabei helfen, möglichst viele unterschiedliche Kundengruppen anzusprechen und dort zu erreichen, wo ihre Informationspräferenz liegt. Dieses Kapitel beschäftigt sich mit psychologischen Aspekten der touristischen Werbebegegnung, ihrer Informationsverarbeitung und der Reproduktion entsprechender Inhalte. Ohne das Erzielen von Aufmerksamkeit und die Aufnahme dargebotener Informationen sind alle Folgeschritte der Informationsverarbeitung nichtig. In diesem Zusammenhang werden neue Werbeformen und die Anwendung der Push-Werbestrategie im Tourismus kurz thematisiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-50286-0_3 0339afff9a46028bb62678a00e6793bd;de;;;5.2.;7.3.;;Female, Male, Neuter, Either: Gibt es ein Geschlecht im Cyberspace?Über den Körper wird viel geredet. Die anhaltende Rhetorik über Verschwinden und Wiederkehr des Körpers ist begleitet von zahlreichen Ausstellungen und theoretischen Abhandlungen, die den “future body” entweder euphorisch überhöhen, um die Überwindung körperlicher Hinfälligkeit und Vergänglichkeit zu imaginieren oder aber pessimistisch verdammen, um vor der Überheblichkeit eines scheinbar unvergänglichen Körpererlebens zu warnen. Neben den medizinischen und erkenntnistheoretischen Diskursen lassen sich ästhetische Unternehmungen und spektakuläre Performances beobachten, die den Körper als ein modifizier- und optimierbares Gestaltungsobjekt betrachten, das letztendlich in der Ailtagswelt durch ausdifferenzierte Körperpraktiken seine pragmatische Umsetzung findet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-80482-2_8 010758070ff41543969ec67cfa54b462;de;;;5.2.;7.3.;;Die Zukunft der Telekommunikation — Convenience als Wachstums- und InnovationstreiberDie weiterhin fortschreitende Entwicklung der Telekommunikations- und IT-Welt hat in den letzten Jahren eine enorme Vielfalt an Technologien, Endgeräten und Diensten hervorgebracht. Die sich neu entwickelnden Kommunikationsmöglichkeiten gehen mit dem Trend einher, dass die Komplexität zunimmt und damit die Beherrschbarkeit der Produkte immer schwieriger wird, so dass wir uns von der Vision „any application, anywhere, anytime, on any device“ eher entfernen als dass wir uns ihr nähern. In diesem Beitrag wird gezeigt, was Anwender von Applikationen, Diensten und Technologien erwarten können, welche Rolle Netz- und Dienstekonvergenz einnehmen und wie sowohl der heute erreichte Reifegrad von Fest- und Mobilfunknetzen als auch neue Technologien wie etwa Bluetooth/WLAN und Security/Authentifizierung entscheidende Katalysatoren für erfolgreiche Konvergenzprodukte sind. Ein wesentliches Thema der Netzevolution der nächsten Jahre heißt damit Integration, in deren Fokus die Konvergenz von Netztechnologien, Diensten und Endgeräten steht. Es wird die These aufgestellt, dass Convenience—die bequeme und komfortable Nutzung netzübergreifender Dienste über unterschiedliche Endgeräte — als wesentlicher Innovations- und Wachstumsmotor in den Vordergrund rücken und für die nächsten Jahre die Rolle der Killerapplikation übernehmen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55550-3_2 bedf84d613fa8f3833806dd7d0df0081;de;;;5.2.;7.3.;;Marken in der MedienindustrieDer steigende Wettbewerbsdruck und die Dynamik der Rahmenbedingungen stellen das Management von Medienunternehmen vor große Herausforderungen. Hierbei scheint die Markierung von Medienprodukten eine geeignete Strategie, um dem Mediengut einen gewissen Grad an Alleinstellung zu sichern. Bevor die Potenziale solcher Medienmarken und deren Ausschöpfung durch das Management näher untersucht werden, soll in diesem Kapitel ein Überblick über die Spezifika der Medienindustrie und über das Begriffsverständnis von (Medien-)Marken erfolgen. Im ersten Teilkapitel sind zunächst die Darstellung der Medienbranche und ihrer Charakteristika Gegenstand der propädeutischen Ausführungen. Anschließend werden die spezifischen Merkmale von Medieninhalten herausgearbeitet. Dies soll dazu beitragen, die Spezifika von markierten Mediengütern bzw. Medienmarken zu verdeutlichen. Darüber hinaus wird das Spannungsfeld der Umfeldveränderungen in dem sich Medienunternehmen bewegen dargelegt (I.1). Die terminologische Konkretisierung des Markenbegriffs und die Identifizierung wesentlicher Aspekte von Medienmarken stehen im Fokus des abschließenden Teilkapitels (I.2).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-8498-2_2 f6bfd31380fdcb317ac32c5cab465146;de;;;3.4.;7.4.;3.1.;Forschung zur urbanen Straßenordnung basierend auf Data-Mining-Technologie Mit der Förderung der Urbanisierung genießen immer mehr Menschen das Glück, das die Stadtentwicklung mit sich bringt, aber die Art der Probleme und die Anzahl der Probleme im Stadtmanagement nehmen zu. Vor dem Hintergrund der neuen Ära hat sich die Ausrichtung und Anforderung der Stadtverwaltung beeinflusst durch die „Internet Plus“-Strategie und Big-Data-Strategie gefördert. In der Informationskonstruktion und intelligenten Konstruktion des Stadtmanagements ist eine Vielzahl von Stadtbetriebs- und Managementdaten entstanden und akkumuliert, die günstige Rahmenbedingungen für die Stadtforschung bieten. Durch die Lektüre von Literatur und Feldforschung wurde in diesem Artikel eine eingehende Untersuchung der aktuellen Situation des Stadtmanagements in einer Stadt der Provinz Zhejiang durchgeführt. Angesichts des tatsächlichen Bedarfs einer Stadt in der Straßenordnung wird in diesem Beitrag die Datenfusionsbereinigung der Straßensequenzdaten kombiniert mit Data-Mining-Technologie vorgenommen. Es erstellt ein Straßenklassifizierungs- und Vorhersagemodell unter Verwendung des C5.0-Algorithmus des Entscheidungsbaums und ein Vorhersagemodell für die Gebietsklassifizierung mit hoher Inzidenz unter Verwendung des Apriori-Algorithmus. Die Informationen und Kenntnisse der Straßenordnung werden analysiert. Auf dieser Grundlage entwirft dieser Beitrag ein Street-Order-Entscheidungsunterstützungssystem und realisiert mittels Web- und Visualisierungstechnologie die Funktionsmodule Street-Order-Datendienst, Analyseanwendung, Szenendarstellung und Entscheidungsunterstützung. Der Forschungsinhalt dieser Arbeit orientiert sich am tatsächlichen Bedarf in der städtischen Straßensequenzierungsarbeit, die eine günstige Unterstützung für das eigentliche Geschäft des Stadtmanagements bietet und auch eine Entscheidungshilfe für das Stadtmanagement bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2922-7_15 e0a261929cffe72f69a875417507682e;de;;;3.4.;7.4.;3.1.;Räumliche Untergruppenerkennung für die Analyse von Vegetationsdaten Discover Wir erforschen die Anwendung von Spatial Data Mining, der teilautomatisierten Suche nach versteckten Mustern in georeferenzierten Datenbanken, zur Analyse ökologischer Daten. Es wird eine Version des Subgruppen-Mining-Algorithmus beschrieben, die direkt in einer räumlichen Datenbank nach Abweichungsmustern sucht, wobei in einem GIS gespeicherte räumliche Informationen automatisch in den Hypothesenraum einer Data-Mining-Suche integriert werden. Wir diskutieren Ergebnisse aus einem multirelationalen Biodiversitätsdatensatz, der in Niger aufgenommen wurde. Vegetationsaufzeichnungen sind georeferenziert und mit einer Reihe von Umweltparametern verknüpft. Weitere Daten geben Auskunft über Klima, Bodenbeschaffenheit und Lage von Raumobjekten wie Flüssen, Straßen und Städten. Die Untergruppe Bergbau findet Abhängigkeiten einer Pflanzenart von anderen Arten, von lokalen Parametern und nicht lokalen Umweltparametern.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36277-0_6 b3d4d1a503e8fa55f685b08b2b19804f;de;;;3.4.;7.4.;3.1.;Ein Spektrum von Big-Data-Anwendungen für die Datenanalyse Während die Technologie ihre Erkenntnisse gewinnt, werden riesige Datenmengen aus verschiedenen Ressourcen gesammelt. Die komplexeste Natur von Daten stellt für die Forscher eine Herausforderung dar, Big Data zu speichern, zu verarbeiten und zu analysieren. Gegenwärtig ist Big Data Analytics ein aufstrebender Bereich, der potenziell unbegrenzte Möglichkeiten für mögliche zukünftige Ergebnisse bietet. Big Data Mining bietet jedoch Anwendungsfunktionen, um versteckte Informationen aus großen Datenmengen für den Wissensentdeckungsprozess zu extrahieren. Tatsächlich zeigt Big Data Mining vielfältige Herausforderungen und enorme Chancen für Forscher und Wissenschaftler für ein weiteres kommendes Jahrzehnt. Dieses Kapitel bietet einen umfassenden Überblick über Big Data im medizinischen Anwendungsbereich. Darüber hinaus wird ein Framework entworfen und implementiert, das Big Data verarbeiten kann, indem verschiedene Vorverarbeitungs- und Data-Mining-Techniken verwendet werden, um verborgenes Wissen aus großen Datenbanken zu entdecken. Das vorgeschlagene Kapitel diskutiert auch die Herausforderungen bei Big Data, um Erkenntnisse für zukünftige Ergebnisse zu gewinnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16598-1_7 c7eb1fa5f25e7174c4f19b4672f629d8;de;;;3.5.;7.4.;3.2.;Leistungsanalyse von Telugu-Zeichen mithilfe von Deep Learning-Netzwerken Die Zeichenerkennung ist ein aktives Forschungsgebiet zur Erkennung handgeschriebener oder optischer Zeichen mit Computern. Die Zahl der Sprachen auf der Welt beträgt etwa 7000, was verschiedene Technologien erfordert, um mit den Zeichen umzugehen. Verschiedene Tools helfen dabei, die gescannten Dokumente in Form von Bildern zu erhalten und dann werden Technologien zur Erkennung der Zeichen verwendet. In diesem Artikel wird ein Convolution Neural Network (CNN)-Modell zur Erkennung von 52 Telugu-Zeichen vorgeschlagen. Die Leistung des vorgeschlagenen Modells wurde von Optimierern wie Adam, Adagrad, Adadelta und Stochastic Gradient Descent bewertet. Der Vorverarbeitungsschritt wird auch bei der Verbesserung der Genauigkeit unterstützt. Das CNN-Modell wird mit VGG-16 verglichen und die erhaltene Genauigkeit ist geringer. Eine höchste Genauigkeit von 90,8 % wird von Adam für das vorgeschlagene CNN-Modell erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9019-1_28 079f67d623317f34d6d2bdd3c013cb17;de;;;3.5.;7.4.;3.2.;Forschungsherausforderungen bei der Offline-Erkennung alter Handschriften – ein Ansatz des Deep Learning In verschiedenen Bibliotheken, Ämtern, Museen und verschiedenen Archiven auf der ganzen Welt gibt es riesige Mengen an alten handschriftlichen Dokumenten, die eine Fülle von Informationen und Wissen in Form von Büchern, Manuskripten oder gescannten Bildern enthalten. Um diese Rohstoffe weiter zu verwenden, müssen sie jedoch in eine digitale Form umgewandelt werden, die es den Benutzern ermöglicht, zu lesen, zu indizieren, zu durchsuchen und abzufragen oder sogar weiter zu verstehen. Es ist eine Herausforderung, die papierbasierten Dokumente zu pflegen und zu verstehen. In diesem Beitrag werden einige Deep-Learning-basierte Ansätze vorgestellt, um mit dieser Art von Dokumenten umzugehen. Dieses Papier schlug auch einen Rahmen für ein solches System und zukünftige Richtungen für die angehenden Forscher auf diesem Gebiet vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6318-2_51 0e8d443ffe7b05597261032a278c6790;de;;;3.4.;7.4.;3.2.;GRU-basiertes Kapselnetzwerk mit einem verbesserten Verlust für die Vorhersage der Personalleistung Die Personalleistung ist ein Schlüsselfaktor, um zentrale Wettbewerbsvorteile zu erhalten. Daher ist die Vorhersage der zukünftigen Personalleistung ein bedeutender Forschungsbereich im Human Resource Management (HRM). In diesem Papier schlagen wir zur Verbesserung der Leistung eine neuartige Methode zur Vorhersage der Personalleistung vor, die Entscheidungsträgern bei der Auswahl von Talenten mit hohem Potenzial hilft. Konkret zur Modellierung der Personalleistung entwickeln wir zunächst ein GRU-Modell, um ohne Fachkenntnisse sequentielle Informationen aus Personalleistungsdaten zu lernen. Um die Funktionen besser zu clustern, nutzen wir das Kapselnetzwerk. Um präzise Vorhersagen zu treffen, entwerfen wir schließlich eine Strategie, d. h. eine verbesserte Verlustfunktion, und betten sie in das Kapselnetzwerk ein. Darüber hinaus kann unser vorgeschlagenes Modell durch die Einführung dieser Strategie gut mit dem Problem der unausgewogenen Daten umgehen. Umfangreiche Experimente mit realen Daten zeigen deutlich die Wirksamkeit des vorgeschlagenen Ansatzes.;-;-;-;https://link.springer.com/article/10.1007/s10489-020-02039-x 56770991a5a2d5045274abe482ad4d00;de;;;3.4.;7.4.;3.2.;Marktsegmentierung mit Data-Mining-Techniken in sozialen Netzwerken Soziale Netzwerke haben in den letzten zehn Jahren aufgrund des Fortschritts neuer Technologien und des wachsenden Interesses der Menschen, Inhalte zu generieren und diese mit ihren Kontakten zu teilen, an Popularität gewonnen. Dadurch wachsen die in sozialen Netzwerken generierten Daten im Laufe der Zeit exponentiell.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20787-8_16 ab9481c75e6b8dfecd5252518edbbc18;de;;;3.4.;7.4.;3.2.;Seed Selection für die Verbreitung von Einfluss in sozialen Netzwerken: Zeitlicher vs. statischer Ansatz Das Problem, eine optimale Gruppe von Benutzern zu finden, um andere in dem sozialen Netzwerk zu beeinflussen, wurde umfassend untersucht. Da es NP-schwer ist, wurden einige Heuristiken vorgeschlagen, um suboptimale Lösungen zu finden. Dennoch ist eine der häufig verwendeten Annahmen die, dass Seeds im statischen Netzwerk ausgewählt werden, nicht im dynamischen. Dieser statische Ansatz ist in der Tat weit entfernt von den realen Netzwerken, in denen neue Knoten auftauchen und alte im Laufe der Zeit dynamisch verschwinden.;-;-;-;https://link.springer.com/article/10.1007/s00354-014-0402-9 c74151bcba92d5aecb80a7caa7553bb7;de;;;3.4.;7.4.;3.2.;Erlernen von Angriffsfunktionen durch statische und dynamische Analyse von Malware Die Malware-Erkennung ist eine große Herausforderung in der heutigen Software-Sicherheitsbranche. Es gibt Arbeiten zur Malware-Erkennung basierend auf statischer Analyse wie Funktionslängenhäufigkeit, druckbare Zeichenfolgeninformationen, Bytesequenzen, API-Aufrufe usw In dieser Arbeit haben wir einen Reverse-Engineering-Prozess angewendet, um statische und Verhaltensmerkmale aus Malware zu extrahieren, basierend auf der Annahme, dass das Verhalten einer Malware durch ihre Ausführung und Beobachtung ihrer Auswirkungen auf die Betriebsumgebung aufgedeckt werden kann. Wir haben alle Aktivitäten erfasst, einschließlich Registrierungsaktivität, Dateisystemaktivität, Netzwerkaktivität, API-Aufrufe und DLLs, auf die für jede ausführbare Datei zugegriffen wurde, indem wir sie in einer isolierten Umgebung ausgeführt haben. Unter Verwendung der extrahierten Merkmale aus dem Reverse-Engineering-Prozess und statischen Analysefunktionen haben wir zwei Datensätze vorbereitet und Data-Mining-Algorithmen angewendet, um Klassifizierungsregeln zu generieren. Wesentliche Merkmale werden identifiziert, indem der Entscheidungsbaum-Klassifizierer J48 von Weka auf 1103 Software-Samples, 582 Malware und 521 harmlose, die aus dem Internet gesammelt wurden, angewendet wird. Die Leistung aller Klassifikatoren wird durch 5-fache Kreuzvalidierung mit 80-20 Splits von Trainingssätzen bewertet. Experimentelle Ergebnisse zeigen, dass der Naive Bayes-Klassifikator bei dem kleineren Datensatz mit 15 umgekehrten Merkmalen eine bessere Leistung aufweist, während J48 bei dem Datensatz, der aus dem API-Call-Datensatz mit 141 Merkmalen erstellt wurde, eine bessere Leistung aufweist. Darüber hinaus haben wir ein grobes Set-basiertes Tool BLEM2 verwendet, um die Identifizierung von Reverse-Engineering-Features im Gegensatz zu Entscheidungsbäumen zu generieren und zu bewerten. Vorläufige Ergebnisse deuten darauf hin, dass BLEM2-Regeln interessante Erkenntnisse für die Identifizierung wesentlicher Merkmale liefern können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37186-8_7 28a98914631f520a84dd9852e51ff857;de;;;3.4.;7.4.;3.2.;Forschung zu Methode und Technologie der Notfalllogistik Intelligent System Engineering Mit Fokus auf den zukünftigen Bedarf an Notfalllogistikunterstützung untersucht dieses Papier den Evolutionstrend und den Anwendungsfokus von System-Engineering-Methoden und intelligenten Technologien im Bereich der Notfalllogistik, analysiert die Anwendung verschiedener System-Engineering-Methoden und Schlüsseltechnologien in der Logistikmodellierung, Simulation, Analyse , Vorhersage, Bewertung, Entscheidungsfindung, Management, Kontrolle und Planungsdesign. Durch den Einsatz intelligenter System-Engineering-Methoden für eine genaue Vorhersage, optimale Planung, schnelle Entscheidungsfindung, unabhängige Verwaltung und Echtzeitsteuerung der Notfalllogistik wird die Nutzungseffizienz der Notfalllogistikressourcen verbessert und die Effektivität der Materialsicherheit voll ausgeschöpft. Es bietet systematische Engineering-Grundlagen und technische Lösungen für die Realisierung der Leapfrog-Entwicklung der Notfalllogistik.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5697-5_19 8d35a2cec26eec7b17acef035cb726da;de;;;3.4.;7.4.;3.2.;Zweiphasige geschichtete Lernempfehlung über Kategoriestruktur Kontext- und soziale Netzwerkinformationen wurden eingeführt, um Empfehlungssysteme zu verbessern. Die meisten bestehenden Arbeiten modellieren jedoch immer noch die Benutzerbewertungen für jedes Element direkt. Dieser Ansatz hat zwei Nachteile: hohe Kosten für die Handhabung einer großen Menge von Elementen und Unfähigkeit, die dynamische Aktualisierung von Elementen zu handhaben. Im Allgemeinen werden Artikel in viele Kategorien eingeteilt. Artikel in derselben Kategorie haben ähnliche/relevante Inhalte und können daher Nutzer mit gleichem Interesse anziehen. Diese Eigenschaften bestimmen, dass wir die inhaltliche Ähnlichkeit des Gegenstands nutzen können, um die Schwierigkeiten einer großen Menge und dynamischen Aktualisierung von Gegenständen zu überwinden. In diesem Papier, das darauf abzielt, die Kategoriestruktur zu verschmelzen, schlagen wir einen neuartigen zweiphasigen geschichteten Lernempfehlungsrahmen vor, der einen Matrixfaktorisierungsansatz darstellt und als gieriges schichtweises Training angesehen werden kann: zuerst die durchschnittliche Bewertung des Benutzers für jede Kategorie lernen und Auf dieser Grundlage erfahren Sie genauere Schätzungen der Benutzerbewertung für ein einzelnes Element mit Inhalt und sozialer Beziehung. Basierend auf zwei Arten von Klassifikationen entwerfen wir in unserem Framework zweischichtige Gradientenalgorithmen. Systematische Experimente mit realen Daten zeigen, dass unsere Algorithmen andere hochmoderne Methoden insbesondere bei der Empfehlung neuer Artikel übertreffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06605-9_2 320a0207f962e74dbe253fed6fd581c9;de;;;3.4.;7.4.;3.2.;Effizientes Data Mining zum Schutz der Privatsphäre in einem bösartigen Modell In vielen verteilten Data-Mining-Einstellungen ist die Offenlegung der ursprünglichen Datensätze aus Datenschutzgründen nicht akzeptabel. Um solche Bedenken auszuräumen, war Data Mining zur Wahrung der Privatsphäre in den letzten Jahren ein aktives Forschungsgebiet. Während Vertraulichkeit ein zentrales Thema ist, ist die Skalierbarkeit auch ein wichtiger Aspekt, um die Leistung eines datenschutzwahrenden Data-Mining-Algorithmus für praktische Anwendungen zu bewerten. Vor diesem Hintergrund haben Kantarcioglu et al. vorgeschlagenes sicheres Punktprodukt und sichere Satzüberschneidungsprotokolle für ein die Privatsphäre schützendes Data Mining in einem böswilligen Gegnermodell unter Verwendung von Null-Wissensbeweisen, da die Annahme eines halbehrlichen Gegners in einigen Situationen unrealistisch ist. Sowohl die Rechen- als auch die Kommunikationskomplexität sind linear mit der Anzahl der Datenelemente in den von Kantarcioglu et al. vorgeschlagenen Protokollen. In diesem Whitepaper erstellen wir effiziente und sichere Punktprodukt- und Set-Intersection-Protokolle in einem bösartigen Modell. In unserer Arbeit ist die Komplexität der Berechnung und Kommunikation für den Wissensnachweis immer konstant (unabhängig von der Anzahl der Datenelemente), während die Komplexität der Berechnung und Kommunikation für die verschlüsselten Nachrichten die gleiche bleibt wie bei Kantarcioglu et al (linear mit der Anzahl der Datenelemente). Darüber hinaus stellen wir das Sicherheitsmodell im Universal Composability Framework zur Verfügung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17316-5_36 c062870bc37c9ffbefcfd6741779b899;de;;;3.4.;7.4.;3.2.;Beziehung zwischen abduktiven und induktiven Formen des Pflegerisikomanagements In diesem Beitrag stellen wir induktives Pflegerisikomanagement und abduktives Pflegerisikomanagement gegenüber, weisen auf die Bedeutung des abduktiven Typs hin und schlagen eine Zusammenarbeit zwischen ihnen vor. Im allgemeinen Risikomanagement wird in der Regel induktives Management angewendet. Wenn wir induktives Management rechnerisch durchführen, ist es wichtig, eine beträchtliche Anzahl von Beispielen zu sammeln, um maschinelles Lernen durchzuführen. Für das Pflegerisikomanagement führen Risikomanagementexperten normalerweise manuelles Lernen durch, um Lehrbücher zu erstellen. Auf der Startseite der Unfall- oder Unfallberichtsdatenbank können wir verschiedene Arten von Unfällen oder Vorfällen überprüfen. Da Berichte jedoch von verschiedenen Pflegekräften verfasst werden, reichen die Granularität und Qualität der Berichte für maschinelles Lernen nicht aus. Wir erläutern daher die Bedeutung eines dynamischen Pflegerisikomanagements, das durch Abduktion erreicht werden kann, und zeigen dann die Zusammenarbeit zwischen abduktiven und induktiven Formen des Pflegerisikomanagements.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69902-6_33 21e24dbaaa6b8705ee1a9d89b197d350;de;;;3.4.;7.4.;3.2.;Charakteristische Praxis beim Aufbau der chinesischen medizinischen Digitalen Bibliothek – Wanfang MED ONLINE am Beispiel der charakteristischen Ressourcenorganisation und -präsentation sowie Data Mining der medizinischen Literatur Dieses Papier verwendet Wanfang Data MED Online (WFMO) [1] als Beispiel, um die charakteristische Praxis der Ressourcenorganisation und -präsentation sowie des Data Mining der medizinischen Literatur in CMDL eingehend zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24826-9_51 c3d2f36bf5136e4e0e90b2b42b78397c;de;;;3.4.;7.4.;3.2.;Eine Data-Mining-Bibliothek für miRNA-Annotation und -Analyse Die Schlüsselrolle, die miRNAs bei der Regulation der Genexpression spielen, zu verstehen, ist eine der wichtigsten Herausforderungen der modernen Molekularbiologie. Eine Standard-Gen-Set-Anreicherungsanalyse (GSEA) ist in diesem Zusammenhang aufgrund der geringen Spezifität der Beziehung zwischen miRNAs und ihren Zielgenen nicht geeignet. Wir haben alternative Strategien entwickelt, um bessere Einblicke in die Unterschiede biologischer Prozesse unter verschiedenen experimentellen Bedingungen zu gewinnen. Wir beschreiben hier eine neuartige Methode zur korrekten Analyse und Interpretation von miRNA-Expressionsdaten und zeigen, dass die direkte Annotation von miRNA über ihre Zielgene an biologische Prozesse (was jedoch der einzige Weg ist) eine nicht triviale Aufgabe ist. Wir verwenden derzeit dieselbe Strategie, um miRNA-Expressionsmuster direkt mit Signalweginformationen in Verbindung zu bringen, um neue Hypothesen zu generieren, die für die Interpretation ihrer Rolle in den regulatorischen Prozessen der Genexpression relevant sein könnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22218-4_10 c99e2d62697baaa94682900716dde3e2;de;;;3.4.;7.4.;3.2.;Ensemble-Lernen für die Extraktion von Schlüsselphrasen aus wissenschaftlichen Dokumenten Die Schlüsselphrasenextraktion ist eine Aufgabe mit vielen Anwendungen im Bereich Information Retrieval, Text Mining und Natural Language Processing. In diesem Beitrag wird ein Ansatz zur Extraktion von Schlüsselphrasen basierend auf neuronalen Netzwerkensembles vorgeschlagen. Um zu bestimmen, ob eine Phrase eine Schlüsselphrase ist, werden die folgenden Merkmale einer Phrase in einem bestimmten Dokument verwendet: ihre Begriffshäufigkeit, ob sie im Titel, in der Zusammenfassung oder in den Überschriften (Untertiteln) erscheinen soll, und ihre Häufigkeit in den Absätzen des angegebenen Dokuments dokumentieren. Der Ansatz wird durch die Standard-Informationsabruf-Metriken Präzision und Wiedererinnerung bewertet. Versuchsergebnisse zeigen, dass das Ensemble-Lernen die Präzision und Erinnerungsfähigkeit deutlich steigern kann.;-;-;-;https://link.springer.com/chapter/10.1007/11759966_188 3e73e07f074a8f2aab1c906b8ffedd2d;de;;;3.4.;7.4.;3.2.;Im Detail graben: Eine Fallstudie zum Network Data Mining Network Data Mining baut Netzwerkverknüpfungen (Netzwerkmodelle) zwischen Myriaden einzelner Datenelemente auf und verwendet spezielle Algorithmen, die die Visualisierung „auftauchender“ Muster und Trends in der Verknüpfung unterstützen. Es ergänzt konventionelle und statistisch basierte Data-Mining-Methoden. Statistische Ansätze kennzeichnen typischerweise, Warnungs- oder Alarminstanzen oder -ereignisse, die aufgrund einer Übereinstimmung mit vordefinierten Mustern oder Regeln anomales Verhalten oder Unregelmäßigkeiten darstellen könnten. Sie dienen als Methoden zur „Ausnahmeerkennung“, bei denen die Regeln oder Definitionen dessen, was eine Ausnahme darstellen könnte, im Voraus bekannt und spezifiziert werden können. Viele Probleme sind für diesen Ansatz geeignet. Viele Probleme, insbesondere komplexere, sind jedoch nicht gut geeignet. Die Regeln oder Definitionen können einfach nicht angegeben werden, es sind keine verdächtigen Transaktionen bekannt. In diesem Beitrag wird eine nutzerzentrierte Data-Mining-Methodik für Netzwerke vorgestellt. Eine Fallstudie aus dem Bereich Sicherheit veranschaulicht die Anwendung der Methodik und entsprechender Data-Mining-Techniken. Das Papier argumentiert, dass für viele Probleme eine „Entdeckungsphase“ im Untersuchungsprozess auf der Grundlage von Visualisierung und menschlicher Kognition ein logischer Präzedenzfall und eine Ergänzung zu stärker automatisierten Phasen der „Ausnahmeerkennung“ ist.;-;-;-;https://link.springer.com/chapter/10.1007/11427995_2 88819105d605c99676a23701c2948e4f;de;;;3.4.;7.4.;3.2.;MapReduce-basierter Bayesian Automatic Text Classifier, der in der digitalen Bibliothek verwendet wird Der Bayessche Satz ist eine effektive Methode zur Textklassifizierung. Aber es wird zu viel Zeit und Ressourcen verbrauchen, wenn es in großen Datenbanken wie einer digitalen Bibliothek verwendet wird. Die effiziente Verarbeitung von Daten wird zu einem entscheidenden Problem für die Weiterentwicklung der digitalen Bibliothek. Da das Mapreduce-Modell über eine starke Kapazität zur Verarbeitung von Massendaten verfügt, kann der auf Mapreduce basierende Bayes-Klassifikator die Zeit reduzieren, die durch maschinelles Lernen verursacht wird, und somit die Gesamteffizienz verbessern. Die neue Methode kann Dokumente nach ihrem Thema in verschiedene Gruppen einteilen. Auf diese Weise ist es hilfreich für die Verwaltung und Speicherung von Informationen. Somit kann der auf Mapreduce basierende Bayes'sche Textklassifizierer erfolgreich in einer digitalen Bibliothek verwendet werden, was den Menschen einen besseren Service bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34289-9_14 1790d32654b8bca3e5a39d89b55c5438;de;;;3.4.;7.4.;3.2.;Stadtbilder von Touristen anhand von Fotos mit Geotagging mithilfe von neuronalen Faltungsnetzen verstehen Diese Studie zielt darauf ab, repräsentative Bilder und Elemente von Sehenswürdigkeiten aufzuspüren, indem die von Seoul-Touristen auf Flickr hochgeladenen Fotos mit der Image-Mining-Technik analysiert werden. Dazu haben wir die auf Flickr hochgeladenen Fotos gecrawlt und Nutzer in Einwohner und Touristen eingeteilt, 11 Region of Attractions (RoA) in Seoul durch Analyse der räumlichen Dichte der Fotos gezeichnet, die Fotos in 1000 Kategorien und dann 14 Kategorien nach Gruppierung eingeteilt 1000 Kategorien unter Verwendung des Inception V3-Modells, analysierte die Eigenschaften des Fotobilds von RoA. Die wichtigsten Ergebnisse dieser Studie sind, dass Touristen an alten Palästen, historischen Monumenten, Geschäften, Essen usw. interessiert sind und diese Schlüsselelemente von den wichtigsten Sehenswürdigkeiten in Seoul unterschieden werden. Genauer gesagt interessieren sich Touristen mehr für Paläste und Kulturgüter in Jongno und Namsan, Essen und Restaurants in Shinchon, Hongdae, Itaewon, Yeouido, Garosu-gil und Apgujeong, Kriegsdenkmäler oder bestimmte Artefakte im War Memorial und dem National Museum of Korea , Einrichtungen, Tempel und Bilder von Kulturgütern in der Samsung Station und Spielwarenläden in Jamsil. Diese Studie ist in dreifacher Hinsicht aussagekräftig: Erstens versucht sie, das Stadtbild anhand der von Touristen auf SNS veröffentlichten Fotos zu analysieren. Zweitens verwendet es eine Deep-Learning-Technik, um die Fotos zu analysieren. Drittens klassifiziert und analysiert es die gesamten Fotos, die von Seoul-Touristen gepostet wurden, während sich die meisten anderen Forschungen nur auf bestimmte Objekte konzentrieren. Diese Studie hat jedoch eine Einschränkung, da das Inception v3-Modell, das in dieser Studie verwendet wurde, ein vortrainiertes Modell ist, das durch das Training der ImageNet-Daten erstellt wurde. In zukünftigen Forschungen ist es notwendig, Fotokategorien nach dem Zweck des Tourismus zu klassifizieren und das Modell umzuschulen, indem ein neuer Trainingsdatensatz erstellt wird, der sich auf Elemente von Korea konzentriert.;-;-;-;https://link.springer.com/article/10.1007/s41324-019-00285-x 8f6688d33a9d739969d599bf7d1c9e6c;de;;;3.4.;7.4.;3.2.;Data Mining — Die polnische Erfahrung Data Mining wird verwendet, um Daten in Informationen umzuwandeln und verknüpft mehrere Bereiche, darunter Statistik, künstliche Intelligenz, Datenbankverwaltung, maschinelles Lernen, Mustererkennung und Datenvisualisierung. Es wurde in den frühen 90er Jahren zu einem Interessengebiet. Seitdem hat sich das Interesse am Data Mining weltweit verbreitet. Auch in Polen gibt es Forschungsinstitute auf diesem Gebiet, Softwareentwickler, die spezialisierte Software und erfolgreiche Anwendungen von Data-Mining-Techniken anbieten. In diesem Beitrag stellen wir die Entwicklung des Data Mining in Polen vor.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-26981-9_26 3f1ea44ca22bd692880ed9f70f20d928;de;;;3.4.;7.4.;3.2.;FIU-Miner (ein schnelles, integriertes und benutzerfreundliches System für Data Mining) und seine Anwendungen Das Aufkommen der Big-Data-Ära treibt Datenanalysten aus verschiedenen Bereichen dazu, Data-Mining-Techniken für die Datenanalyse zu verwenden. Die Durchführung einer Datenanalyse in einer bestimmten Domäne ist jedoch nicht trivial, sie erfordert oft eine komplexe Aufgabenkonfiguration, eine aufwendige Integration von Algorithmen und eine effiziente Ausführung in verteilten Umgebungen. Es wurden nur wenige Anstrengungen unternommen, um wirksame Werkzeuge zu entwickeln, die Datenanalysten bei der Durchführung komplexer Datenanalyseaufgaben unterstützen. In diesem Papier entwerfen und implementieren wir FIU-Miner, a;-;-;-;https://link.springer.com/article/10.1007/s10115-016-1014-0 b4a2da24f94359dbc3937f6a051b7726;de;;;3.4.;7.4.;3.2.;Die Rolle technologischer Veränderungen bei der Ineffizienz des Devisenmarktes Um die Marktineffizienz zu untersuchen, die aus der sich schnell entwickelnden Software und dem technologischen Fortschritt insgesamt resultiert, führen wir technologische Verzerrungen in den Wechselkursmarkt ein. Die Idee des technologischen Bias ergibt sich aus der Tatsache, dass in letzter Zeit innovative Ansätze verwendet wurden, um Handelsaufgaben zu lösen und die besten Handelsstrategien zu finden. Wenn wir das gleiche Tempo des technologischen Fortschritts der Handelsinfrastruktur und der Computerwerkzeuge sowie der Software in den kommenden Jahren berücksichtigen, werden die Händler, die sich an diese technologischen Veränderungen anpassen können, profitablere Handelslösungen erhalten als diejenigen, die mehr Zeit benötigen, um sich anzupassen. Die beschriebene Situation zeigt Marktineffizienzen, die die Idee der effizienten Markttheorie in Frage stellen, aber mit der adaptiven Markthypothese übereinstimmen. Um unseren Vorschlag zu technologischen Verzerrungen zu untermauern, vergleichen wir die Leistung von Deep-Learning-Methoden, flachen neuronalen Netzwerken mit der ARIMA-Methode und dem Random-Walk-Modell unter Verwendung des täglichen Abschlusses zwischen drei Währungspaaren: Euro und US-Dollar (EUR/USD), Britisches Pfund und US-Dollar GBP/USD) und US-Dollar und japanischer Yen (USD/JPY). Die Ergebnisse zeigen die überzeugende Genauigkeit von tiefen neuronalen Netzen im Vergleich zu anderen Methoden und demonstrieren die Leistungsfähigkeit neuer Rechenmethoden auf der Grundlage sich entwickelnder Software. Flache neuronale Netze übertreffen das Random-Walk-Modell, das die Idee der Marktineffizienz bestätigt, aber die Genauigkeit von ARIMA nicht wesentlich übertreffen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-40111-9_4 b1364842ad6c3dfbee7b3f10d5155de5;de;;;3.4.;7.4.;3.2.;Humanoide Roboter und Fuzzy-Sets Humanoider Roboter ist ein Forschungsgebiet der Robotik. Humanoide Roboter sind so geformt, dass sie der menschlichen Form ähneln. Diese Roboter werden für verschiedene Zwecke in verschiedenen Branchen wie Gesundheit, Raumfahrt, Bildung und Fertigung eingesetzt. In diesem Kapitel versuchen wir, den gegenwärtigen Status humanoider Roboter in der Welt zusammenzufassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-67163-1_1 45b71fa425093ab97ce9611ca75aa420;de;;;3.4.;7.4.;3.2.;Reduzierung der Fallbibliothek bei Pfahlgründungen Das Paradigma der fallbasierten Argumentation wird zur Unterstützung von Entscheidungsprozessen im Zusammenhang mit Pfahlgründungen angewendet. Basierend auf diesem Paradigma sammelt das System Erfahrungen aus bereits realisierten Pfahlgründungen. Diese Erfahrung kann gemacht werden, wenn neue Situationen mit ähnlichen Eigenschaften der geotechnischen Situation des Standorts und geometrischen Merkmalen der Pfähle angetroffen werden. Basierend auf zuvor realisierten Sites wurden zwei Fallbibliotheken erstellt. Die Repräsentativität der Fallbibliotheken und die Effizienz des Suchprozesses werden durch den Einsatz einer genetischen Algorithmusreduktion erleichtert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48508-2_17 e61401f906555bd5f5a0f5dadbf2f890;de;;;3.4.;7.4.;3.2.;Gewinnung von Daten aus sozialen Netzwerken für die prädiktive Persönlichkeitsmodellierung durch den Einsatz maschineller Lerntechniken Facebook, Twitter, LinkedIn und Tumblr sind Online-Social-Networking-Plattformen, auf denen die Benutzer Nachrichten zu einem Thema ihrer Wahl senden und empfangen und ihre Gefühle zum Ausdruck bringen. Die Nutzung dieser Websites hat in den letzten Jahren exponentiell zugenommen, wodurch die auf Social-Media-Websites veröffentlichten Informationen zugenommen haben. Die Menge an Informationen/Tweets nimmt täglich zu. Twitter hat sich zu einer stabilen Plattform entwickelt, um persönlichkeitsbezogene Indikatoren zu identifizieren und in Benutzerprofilen und Seiten zu einem Thema verschlüsselt zu werden. In dieser vorgeschlagenen Arbeit präsentieren wir ein skalierbares Echtzeitsystem zur Sentimentanalyse von Twitter-Daten. Diese Arbeit sammelt Tweets der Benutzer in Echtzeit und bietet so eine Grundlage, um jeden Tweet basierend auf der Einstellung des Benutzers entweder positiv oder negativ zu identifizieren, wodurch eine Echtzeitanalyse der Benutzer zu einem bestimmten Thema bereitgestellt wird. Das System basiert auf der Merkmalsextraktion aus den in Echtzeit generierten Tweets. Ein auf Ensemble-Lernen basierender überwachter Lernansatz wird verwendet, um verschiedene Klassifikatoren basierend auf den extrahierten Merkmalen zu trainieren. Es wurde ein Design und eine Implementierung in Flask and Celery durchgeführt, das die Aufgaben der Merkmalsextraktion und -klassifizierung enthält. Das System ist hinsichtlich der Größe der Eingabedaten und der Datenankunftsrate skalierbar. Die Vorzüge des vorgeschlagenen Systems in Bezug auf Skalierbarkeit, Leistung und Klassifikationsgenauigkeit wurden experimentell bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-8687-9_11 3b78d9dee84193ff54b2b8b71195975b;de;;;3.4.;7.4.;3.2.;Ein hybrider Data-Mining-Ansatz für die Analyse des Kreditkartennutzungsverhaltens Die Kreditkarte ist einer der beliebtesten E-Payment-Ansätze im aktuellen Online-E-Commerce. Um wertvolle Kunden zu konsolidieren, investieren Kartenherausgeber viel Geld, um eine gute Beziehung zu ihren Kunden aufrechtzuerhalten. Obwohl mehrere Anstrengungen unternommen wurden, um die Motivation der Kartennutzung zu untersuchen, betonen nur wenige Untersuchungen die Analyse des Kreditkartennutzungsverhaltens, wenn sich die Zeiträume von t auf t+1 ändern. Um dieses Problem anzugehen, wird in diesem Papier ein integrierter Data-Mining-Ansatz vorgeschlagen. Zuerst werden das Kundenprofil und ihre Transaktionsdaten zum Zeitpunkt t aus Datenbanken abgerufen. Zweitens gruppiert ein neuronales LabelSOM-Netzwerk Kunden in Segmente und identifiziert kritische Merkmale für jede Gruppe. Drittens wird ein Fuzzy-Entscheidungsbaum-Algorithmus verwendet, um Nutzungsverhaltensregeln interessanter Kundengruppen zu konstruieren. Schließlich werden diese Regeln verwendet, um die Verhaltensänderungen zwischen den Zeiträumen t und t+1 zu analysieren. Ein Implementierungsfall unter Verwendung einer praktischen Kreditkartendatenbank, die von einer Geschäftsbank in Taiwan bereitgestellt wird, wird veranschaulicht, um die Vorteile des vorgeschlagenen Rahmens aufzuzeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88653-2_6 4a7c4bb13c598ce601ebf2e9a9f63ad0;de;;;5.2.;7.4.;3.2.;Code-Empfehlung für die Android-Entwicklung: Wie funktioniert es und was kann verbessert werden? Android-Anwendungen werden auf Basis von Frameworks entwickelt und sind immer musterbasiert. Für Android-Entwickler können sie durch Codeempfehlungen erleichtert werden, um eine hohe Entwicklungseffizienz und -qualität zu gewährleisten. Bestehende Forschungsarbeiten haben verschiedene Methoden und Werkzeuge vorgeschlagen, um Empfehlungen auf unterschiedliche Weise zu unterstützen. Wie Codeempfehlungen in der Android-Entwicklung funktionieren und was weiter verbessert werden kann, um die Android-Entwicklung besser zu unterstützen, ist jedoch nicht geklärt. Um die Realität zu verstehen, führen wir eine qualitative Überprüfung der aktuellen Codeempfehlungstechniken und -instrumente durch, die in der Hauptliteratur beschrieben werden. Die gesammelten Arbeiten werden zunächst anhand eines mehrdimensionalen Rahmens in drei Kategorien gruppiert. Anschließend wird die Überprüfung durchgeführt, um ein umfassendes Bild der Annahme von Empfehlungen in der Android-Entwicklung zu zeichnen, wenn bestimmte Entwicklungsanforderungen erfüllt werden. Basierend auf der Überprüfung geben wir mögliche Verbesserungen der Codeempfehlung aus zwei Aspekten heraus. Zuerst wird eine Reihe von Verbesserungsvorschlägen präsentiert, um die Fähigkeit der Codeempfehlungstechniken nach dem Stand der Technik zu verbessern. Zweitens wird ein anpassbarer Werkzeugrahmen vorgeschlagen, um den Entwurf von Codeempfehlungswerkzeugen zu erleichtern, und der Werkzeugrahmen ist in der Lage, die Empfehlungsmerkmale einfacher zu integrieren.;-;-;-;https://link.springer.com/article/10.1007/s11432-017-9058-0 905151153b42979ea1739d08e47d434c;de;;;5.2.;7.4.;3.2.;Eine Bayessche Methode zur Induktion probabilistischer Netzwerke aus Daten In diesem Beitrag wird eine Bayessche Methode zur Konstruktion probabilistischer Netzwerke aus Datenbanken vorgestellt. Insbesondere konzentrieren wir uns auf die Konstruktion von Bayes'schen Glaubensnetzwerken. Mögliche Anwendungen umfassen computergestützte Hypothesentests, automatisierte wissenschaftliche Entdeckungen und den automatisierten Aufbau probabilistischer Expertensysteme. Wir erweitern die grundlegende Methode, um fehlende Daten und versteckte (latente) Variablen zu behandeln. Wir zeigen, wie man probabilistische Inferenz durch Mittelung über die Inferenzen mehrerer Glaubensnetzwerke durchführt. Es werden Ergebnisse einer vorläufigen Bewertung eines Algorithmus zum Konstruieren eines Glaubensnetzwerks aus einer Datenbank von Fällen präsentiert. Schließlich beziehen wir die Methoden in diesem Papier auf frühere Arbeiten und diskutieren offene Probleme.;-;-;-;https://link.springer.com/article/10.1023/A%3A1022649401552 bc5536f8e18a570fe32f9e1d390d0d56;de;;;5.2.;7.4.;3.2.;Dialogmodellierungsexperimente mit finnischen One-to-One-Chat-Daten Wir analysierten zwei Konversationskorpora auf Finnisch: Eine Frage-Antwort-(QA-)Datenbank einer öffentlichen Bibliothek und eine private medizinische Chat-Daten. Wir entwickelten Antwortabruf-(Ranking-)Modelle mit TF-IDF, StarSpace, ESIM und BERT-Methoden. Diese vier stellen Techniken dar, die von einfachen und klassischen bis hin zu neuen vortrainierten neuronalen Transformatorennetzen reichen. Wir evaluierten die Wirkung verschiedener Vorverarbeitungsstrategien, einschließlich Rohdaten, Groß-/Kleinschreibung, Lemmatisierung und Rechtschreibprüfung für die verschiedenen Methoden. Unter Verwendung unserer medizinischen Chat-Daten haben wir außerdem eine neuartige dreistufige Vorverarbeitungspipeline mit Sprecherrollenklassifizierung entwickelt. Wir haben festgestellt, dass das mit Finnisch (FinBERT) vortrainierte BERT-Modell einen eindeutigen Gewinner in Bezug auf die Ranking-Genauigkeit darstellt und 92,2% für den medizinischen Chat und 98,7% für die Bibliotheks-QA in der 1-aus-10-Antwort-Ranking-Aufgabe erreichte, bei der die Wahrscheinlichkeit bei 10 lag %. Die besten Genauigkeiten wurden mit Text ohne Groß-/Kleinschreibung mit Rechtschreibprüfung (BERT-Modelle) oder Lemmatisierung (Nicht-BERT-Modelle) erreicht. Die Rolle der Vorverarbeitung hatte bei BERT-Modellen im Vergleich zu den klassischen und anderen neuronalen Netzmodellen weniger Einfluss. Darüber hinaus fanden wir, dass die TF-IDF-Methode immer noch eine starke Grundlage für die vokabularreiche Bibliotheks-QS-Aufgabe ist und sogar die fortgeschrittenere StarSpace-Methode übertrifft. Unsere Ergebnisse verdeutlichen das komplexe Zusammenspiel zwischen Vorverarbeitungsstrategien und Modelltyp bei der Wahl des optimalen Ansatzes in der Chat-Datenmodellierung. Unsere Studie ist die erste Arbeit zur Dialogmodellierung mit neuronalen Netzen für die finnische Sprache. Es ist auch das erste Mal, dass echte medizinische Chat-Daten verwendet werden. Unsere Arbeit trägt zur Entwicklung automatisierter Chatbots im professionellen Bereich bei.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-59082-6_3 56e5e41436233b8a9e8a0cafe4618064;de;;;5.2.;7.4.;3.2.;Eine Bayessche Methode zur Induktion von Wahrscheinlichkeitsnetzwerken aus Daten In diesem Beitrag wird eine Bayessche Methode zur Konstruktion probabilistischer Netzwerke aus Datenbanken vorgestellt. Insbesondere konzentrieren wir uns auf die Konstruktion von Bayes'schen Glaubensnetzwerken. Mögliche Anwendungen umfassen computergestützte Hypothesentests, automatisierte wissenschaftliche Entdeckungen und den automatisierten Aufbau probabilistischer Expertensysteme. Wir erweitern die grundlegende Methode, um fehlende Daten und versteckte (latente) Variablen zu behandeln. Wir zeigen, wie man probabilistische Inferenz durch Mittelung über die Inferenzen mehrerer Glaubensnetzwerke durchführt. Es werden Ergebnisse einer vorläufigen Bewertung eines Algorithmus zum Konstruieren eines Glaubensnetzwerks aus einer Datenbank von Fällen präsentiert. Schließlich beziehen wir die Methoden in diesem Papier auf frühere Arbeiten und diskutieren offene Probleme.;-;-;-;https://link.springer.com/article/10.1007/BF00994110 feed0e8d2305280fb6ab92cbd1b4776f;de;;;3.2.;7.4.;3.5.;Verzeichnis der Ausbildungsgänge: Innerhalb der einzelnen Berufe sind die Ausbildungsgänge alphabetisch nach Ortsnamen sortiert. Auch innerhalb der einzelnen Ausbildungsgänge sind Orte und Bundesländer alphabetisch geordnet. Aktivitäten auf Bundesebene sind unter dem Stichwort “Bund” alphabetisch zwischen die Länder Bremen und Hamburg eingestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-97601-8_6 c2b1913c45e4c1e7e55d001c1b71db8a;de;;;5.2.;7.4.;7.1.;Die Digitale Wertschöpfungskette: Künstliche Intelligenz im Einkauf und Supply Chain ManagementKünstliche Intelligenz (KI) erweist sich als mächtige und reife Technologie. Es sind große Datenmengen mit unternehmensrelevantem Bezug verfügbar und diese vervielfachen sich permanent. Dabei handelt es sich sowohl um unternehmensinterne Daten, die bisher als „Datenschätze“ mit jahrelangen Erfahrungswerten bezeichnet wurden, als auch um strukturierte sowie unstrukturierte Daten, die außerhalb des Unternehmens im weltweiten Netz nutzbar sind. Da der Informationsvorsprung immer entscheidend für wirtschaftlichen Erfolg gewesen ist, werden diejenigen Unternehmen wettbewerbsstärker sein, die die relevanten Daten unmittelbar in die unternehmerischen Entscheidungsprozesse einfließen lassen. Die Möglichkeiten der Nutzung aktueller und spezifischer Daten bei Einkaufsverhandlungen, dem kurzfristigen Auffinden einer Alternative für einen ausgefallenen Lieferanten, dem Aufbau eines neuen Innovationslieferanten oder der Risikoüberwachung der Lieferantenkette steigen ebenfalls ständig an. Machbar wird dies durch den Einsatz einer lernfähigen KI, die Kunden-Lieferanten-Beziehungen und viele dazugehörige Datenquellen analysiert und durch Algorithmen für das jeweilige Unternehmen und den Einkäufer sowie Supply-Chain-Manager als valide Handlungsempfehlung aufbereitet. Im Folgenden werden theoretische Hintergründe zu KI und Deep-Learning-Algorithmen vermittelt und zugleich ihre Anwendung im Feld der Supply Chain an einem Praxisbeispiel illustriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-18745-3_4 3eabc526e99a9563907156e9d7f63414;de;;;7.2.;7.4.;;Machine Learning-basierte Wartung von domänenspezifischen Anwendungsontologien Ontologien sind ein wesentlicher Bestandteil von Informationssystemen, da sie die Wiederverwendung und den Austausch von Wissen auf formale, homogene und eindeutige Weise ermöglichen. Eine Domänenontologie erfasst Wissen statisch, da es sich um eine Momentaufnahme von Wissen aus einem bestimmten Blickwinkel in einem bestimmten Zeitraum handelt. In offenen und dynamischen Umgebungen, in denen sich Wissen ändert und weiterentwickelt, sind jedoch Ontologie-Pflegemethoden erforderlich, um das Wissen auf dem neuesten Stand zu halten. In diesem Kapitel behandeln wir das Problem der Ontologiepflege als ein Ontologie-Populationsproblem der sich entwickelnden Ontologien und schlagen eine inkrementelle Ontologie-Populationsmethodik vor, die Techniken des maschinellen Lernens nutzt und mit einer Bootstrapping-Technik durchgesetzt wird, um groß angelegte Probleme anzugehen. Die Methodik wird mit Feinabstimmungsmethoden angereichert, um die Qualität und die Anzahl der entdeckten Instanzen zu verbessern. Abschließend werden experimentelle Ergebnisse gezeigt, die die Anwendbarkeit und Wirksamkeit der vorgeschlagenen Methodik belegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-37022-4_12 5739eedac6c5102c3500395bdb395126;de;;;7.2.;7.4.;;Ein Vorgehensmodell zur Ideengenerierung und -bewertung: Der Einsatz von Machine Learning und Visual Analytics zur Unterstützung des Idea Mining Die Bedeutung und Möglichkeiten der Ideengenerierung und -bewertung nehmen durch die steigenden Anforderungen an digitale Innovation und die Fülle an textuellen Daten zu. Textdaten wie soziale Medien, Veröffentlichungen, Patente, Dokumente usw. werden verwendet, um Ideen zu generieren, doch die manuelle Analyse ist von Voreingenommenheit und Subjektivität beeinflusst. Werkzeuge für maschinelles Lernen und visuelle Analyse könnten verwendet werden, um die Ideengenerierung und -bewertung zu unterstützen, die als Ideenmining bezeichnet werden, um das Potenzial umfangreicher Textdaten zu erschließen. Idea Mining wird angewendet, um die Extraktion nützlicher Informationen aus Textdaten zu unterstützen. Die vorhandene Literatur konzentriert sich jedoch lediglich auf das Ergebnis und übersieht die Strukturierung und Standardisierung des Prozesses selbst. In diesem Papier haben wir zur Unterstützung des Ideen-Minings ein Modell im Anschluss an die Design-Science-Forschung entworfen, das sich mit dem Cross-Industry-Standard-Process for Data Mining (CRISP-DM)-Prozess überschneidet und etablierte Modelle für das Technologie-Scouting adaptiert. Das vorgeschlagene Modell trennt die Aufgaben der Akteure beim Ideen-Mining in zwei Schichten. Die erste Schicht stellt die Business-Schicht dar, in der die Aufgaben von Technologie-Scouts, Inkubatoren, Acceleratoren, Beratern und Wettbewerbsmanagern detailliert beschrieben werden. Die zweite Schicht stellt die technische Schicht dar, in der sich Aufgaben von Datenwissenschaftlern, Dateningenieuren und ähnlichen Experten detailliert mit CRISP-DM überschneiden. Für zukünftige Forschungen schlagen wir eine Ex-post-Evaluierung und Anpassung des Modells an andere Techniken des Ideen-Minings vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58957-8_14 41f8bf367eae99d4fe1b40390b56c3a3;de;;;7.2.;7.4.;;Heterogene Informationsintegration in der hierarchischen Textklassifikation Frühere Arbeiten haben gezeigt, dass die Berücksichtigung des Kategorieabstands im Taxonomiebaum die Leistung von Textklassifizierern verbessern kann. In diesem Papier schlagen wir einen neuen Ansatz vor, um mehr kategoriale Informationen in das Textkorpus zu integrieren, indem wir das Prinzip der Multi-Objective-Programmierung (MOP) verwenden. Das heißt, wir betrachten nicht nur den Abstand zwischen Kategorien, die durch die Verzweigung des Taxonomiebaums definiert werden, sondern berücksichtigen auch die Ähnlichkeit zwischen Kategorien, die durch die Dokument-/Begriffsverteilungen im Merkmalsraum definiert sind. Folglich erhalten wir eine verfeinerte Kategorieentfernung, indem wir MOP verwenden, um diese beiden Arten von Informationen zu nutzen. Experimente mit synthetischen und realen Datensätzen zeigten die Wirksamkeit des vorgeschlagenen Algorithmus bei der hierarchischen Textklassifikation.;-;-;-;https://link.springer.com/chapter/10.1007/11731139_29 cda09bcc83d834246c97f415b4da9eeb;de;;;7.2.;7.4.;;Ein Überblick über die ein- und mehrsprachige Zeichenerkennung mit tiefen und flachen Architekturen: indische und nicht-indische Schriften Die kulturelle und regionale Vielfalt auf der ganzen Welt und speziell in Indien hat eine große Anzahl von Schriftsystemen und Skripten mit einer Vielzahl von Zeichensätzen hervorgebracht. Für Skripte mit einem größeren Zeichensatz ist eine einfache Tastatur mit begrenztem Zeichensatz nicht der optimale Weg, um dem Computer Eingaben zu geben. Variationen in der individuellen Handschrift aufgrund von Stimmungsschwankungen, Änderungen des Schreibmediums, Änderungen des Schreibstils usw. stellen eine Herausforderung für die Forschungsgemeinschaft der Zeichenerkennung (CR) dar. Ähnliche Arten von Symbolen in verschiedenen Schriften und Sprachen stellen eine große Barriere in mehrsprachiger CR dar. Fehlende Benchmark-Ergebnisse und Korpora für mehrsprachige CR behindern die Forschung zu mehrsprachiger CR. Zur optimalen Kombination von Merkmalen und Klassifikatoren zur Verarbeitung mehrsprachiger Daten gibt es nur eine begrenzte Anzahl von Artikeln. Mehrsprachiges CR hat die indischen Schriften am wenigsten erforscht. Dieses Papier präsentiert eine detaillierte Übersicht und Analyse der Arbeit in mehrsprachigen Online- und Offline-CR für indische und nicht-indische Schriften. Der Beitrag leistet vor allem in zweierlei Hinsicht einen Beitrag: Erstens liefert er eine klare Perspektive auf verschiedene Phasen ein- und mehrsprachiger CR, und zweitens identifiziert er die größten Mängel ein- und mehrsprachiger CR für gedruckten und handgeschriebenen Text. Es trägt dazu bei, dass es einen detaillierten Überblick über die in jeder Phase geleistete Arbeit gibt, einschließlich Datenerfassung, Vorverarbeitung, Segmentierung, Merkmalsextraktion, Erkennung und Nachverarbeitung von CR. In jeder Phase zu lösende Probleme wurden ebenfalls ausgearbeitet. Die jüngsten Arbeiten mit Deep- und Shallow-Architekturen wurden analysiert. Die für diese Architekturen verwendeten Tools wurden verglichen, um ihre Vor- und Nachteile hervorzuheben. Die vorliegende Arbeit schlägt auch vor, wie im Bereich der ein- und mehrsprachigen CR weiter geforscht werden kann. Die Probleme wie CR in Hybriddokumenten, die Identifizierung zuverlässigerer Merkmale, die Lösung von Problemen mit ähnlichen Merkmalen, die Identifizierung optimaler Kombinationsstrategien für tiefe und flache Architekturen usw. müssen in zukünftigen Forschungen angegangen werden.;-;-;-;https://link.springer.com/article/10.1007/s10462-019-09720-9 d6085fe547104a73b6d7e570c5008246;de;;;7.2.;7.4.;;Lernalgorithmen für die Linkvorhersage basierend auf Zufallsbeschränkungen In diesem Papier betrachten wir das Link-Prediction-Problem, bei dem wir zu einem bestimmten Zeitpunkt eine partielle Momentaufnahme eines Netzwerks erhalten und das Ziel darin besteht, die zu einem späteren Zeitpunkt gebildeten zusätzlichen Links vorherzusagen. Die Genauigkeit aktueller Vorhersageverfahren ist aufgrund des extremen Klassenversatzes und der großen Anzahl möglicher Verknüpfungen recht gering. Hier beschreiben wir Lernalgorithmen basierend auf zufallsbeschränkten Programmen und zeigen, dass sie alle Eigenschaften aufweisen, die für einen guten Link-Prädiktor erforderlich sind, nämlich dass sie;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15880-3_28 843dca052a608550b7eaa41c72cfebd5;de;;;7.2.;7.4.;;Die Machbarkeit von maschinellem Lernen für die Beantwortung von Anfragen – ein Experiment in zwei Domänen Domain Wir präsentieren ein Experiment, in dem ein Information-Retrieval-System, das einen Wald von Entscheidungsbäumen verwendet, mit dem ITI-Algorithmus von Utgoff an zwei Testkollektionen trainiert wurde. Das System wurde dann mit einer herkömmlichen umgekehrten Indexierungsmaschine verglichen und es wurde festgestellt, dass es eine überlegene Leistung liefert. Wir argumentieren, dass die Methode das Potenzial hat, in realen Anwendungen eingesetzt zu werden, in denen der Aufgabenbereich homogen ist.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45750-X_15 279c0c5c4231a5b4b001ae048c9e3c4f;de;;;7.2.;7.4.;;Ontologische evolutionäre Kodierung als Brücke zwischen maschinellem Lernen und konzeptionellen Modellen: Ansatz und industrielle Evaluierung In dieser Arbeit schlagen wir einen evolutionären ontologischen Kodierungsansatz vor, der es ermöglicht, maschinelle Lerntechniken zur Ausführung von Software-Engineering-Aufgaben in Modellen einzusetzen. Der Ansatz basiert auf einer Domänenontologie zur Kodierung eines Modells und auf einem Evolutionären Algorithmus zur Optimierung der Kodierung. Als Ergebnis kann das vom Ansatz zurückgegebene codierte Modell dann von Machine Learning-Techniken verwendet werden, um Software-Engineering-Aufgaben wie Konzeptlokalisierung, Rückverfolgbarkeitslinkabruf, Wiederverwendung, Auswirkungsanalyse usw Fallstudie, um die Rückverfolgbarkeitsverbindung zwischen den Anforderungen und den Modellen durch eine Machine Learning-Technik (RankBoost) wiederherzustellen. Unsere Ergebnisse in Bezug auf Recall, Präzision und die Kombination von beidem (F-Maß) zeigen, dass unser Ansatz die Basislinie (Latent Semantic Indexing) übertrifft. Wir führten auch eine statistische Analyse durch, um das Ausmaß der Verbesserung zu beurteilen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-69904-2_37 1d1664df2a3cc728138ae2cbdbdd44e3;de;;;7.2.;7.4.;;Vorhersage des Schlaganfalls mithilfe des Deep-Learning-Modells Viele prädiktive Techniken wurden bei der klinischen Entscheidungsfindung weit verbreitet angewendet, wie zum Beispiel die Vorhersage des Auftretens einer Krankheit oder Diagnose, die Bewertung der Prognose oder des Ergebnisses von Krankheiten und die Unterstützung von Klinikern bei der Empfehlung der Behandlung von Krankheiten. Die herkömmlichen Vorhersagemodelle oder -techniken sind jedoch immer noch nicht effektiv genug, um das zugrunde liegende Wissen zu erfassen, da sie nicht in der Lage sind, die Komplexität der Merkmalsdarstellung der medizinischen Problembereiche zu simulieren. Diese Studie berichtet über prädiktive Analysetechniken für Schlaganfälle unter Verwendung eines Deep-Learning-Modells, das auf Herzkrankheiten-Datensätze angewendet wird. Die Symptome von Vorhofflimmern bei Herzpatienten sind ein Hauptrisikofaktor für Schlaganfälle und haben gemeinsame Variablen zur Vorhersage von Schlaganfällen. Die Ergebnisse dieser Forschung sind genauer als medizinische Bewertungssysteme, die derzeit verwendet werden, um Herzpatienten zu warnen, wenn sie wahrscheinlich einen Schlaganfall entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-70139-4_78 8027d4fab5bc8bd6c60f4d482375c351;de;;;7.2.;7.4.;;Forschungsstand zur Verarbeitung natürlicher Sprache in Mexiko – eine bibliometrische Studie Diese Arbeit gibt einen Überblick über den Stand der Forschung zur Verarbeitung natürlicher Sprache in Mexiko unter Verwendung bibliometrischer Methoden, wobei dies als Methoden zur Verarbeitung menschlicher Sprache verstanden wird, einschließlich semantischer Techniken, statistischer Techniken oder einer Kombination aus beiden. Es umfasst eine Identifizierung der produktivsten Gruppen des Landes, der Hauptakteure, die an der Forschung beteiligt sind, ihrer Kooperationsverbindungen sowie der Hauptthemen, die untersucht werden. Dieser letzte Aspekt wird mit den in der internationalen Literatur beschriebenen Themen verglichen, um Unterschiede und Ähnlichkeiten in den Forschungsinteressen zwischen Forschern, die in Mexiko arbeiten, und denen in der Mainstream-Literatur zu identifizieren. Wir schließen mit einer Charakterisierung der in Mexiko durchgeführten Forschung zu Sprachtechnologien und fanden heraus, dass die untersuchten Forschungsthemen denen in der internationalen Literatur ähnlich sind, wenn die Zeit bei der Analyse nicht berücksichtigt wird. Wenn man diese Variable einbezieht, gibt es jedoch praktisch keine Ähnlichkeiten zwischen den in Mexiko untersuchten Themen und den in der Welt untersuchten Themen.;-;-;-;https://link.springer.com/article/10.1007/s42488-021-00051-5 0e5fab1b64836dd97232cd8a3551fafc;de;;;7.2.;7.4.;;Vorhersage von Teilbestellungen: Ranking mit Enthaltung Die Vorhersage von strukturierten Outputs im Allgemeinen und Rankings im Besonderen hat im maschinellen Lernen in den letzten Jahren erhebliche Aufmerksamkeit auf sich gezogen und verschiedene Arten von Rankingproblemen wurden bereits untersucht. In diesem Papier schlagen wir eine Verallgemeinerung oder, sagen wir, eine Lockerung der Standardeinstellung vor, die es einem Modell ermöglicht, Vorhersagen in Form von Teil- statt Gesamtordnungen zu treffen. Eine solche Vorhersage interpretieren wir als Rangfolge mit teilweiser Enthaltung: Ist das Modell hinsichtlich der relativen Reihenfolge zweier Alternativen nicht hinreichend sicher und kann daher nicht zuverlässig entscheiden, ob erstere der letzteren vorangehen oder umgekehrt, kann es sich enthalten von dieser Entscheidung ab und deklarieren diese Alternativen stattdessen für unvergleichbar. Wir schlagen einen allgemeinen Ansatz für das Ranking mit teilweiser Enthaltung sowie Bewertungsmetriken zur Messung der Richtigkeit und Vollständigkeit von Vorhersagen vor. Für zwei Arten von Rankingproblemen zeigen wir experimentell, dass dieser Ansatz in der Lage ist, einen vernünftigen Kompromiss zwischen diesen beiden Kriterien zu erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15880-3_20 39612efef4ab91f0b85e6523cb379f0a;de;;;7.2.;7.4.;;Lernen, die Expertensuche mit Unterthemen zu diversifizieren Bei der Expertensuche geht es darum, Personen zu finden, die sich mit einem bestimmten Thema auskennen. Es hat viele Anwendungen in der Unternehmenssuche, in sozialen Netzwerken und in der kollaborativen Verwaltung. In diesem Beitrag untersuchen wir das Problem der Diversifikation für die Expertenfindung. Konkret wollen wir anhand eines wissenschaftlichen sozialen Netzwerks als Basis für unsere Experimente folgende Frage beantworten: Wie lässt sich die Rangliste bei einer Anfrage und einem wissenschaftlichen sozialen Netzwerk so diversifizieren, dass sie das gesamte Spektrum der relevanten Autorenexpertise erfasst? ? Wir definieren das Problem genau und schlagen eine neue Zielfunktion vor, indem wir themenbasierte Diversität in die Relevanz-Ranking-Messung einbeziehen. Zur Lösung der Zielfunktion wird ein lernbasiertes Modell vorgestellt. Unsere empirische Studie in einem realen System bestätigt die Wirksamkeit der vorgeschlagenen Methode, die signifikante Verbesserungen (+15,3%-+94,6% nach MAP) gegenüber alternativen Methoden erzielen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30217-6_28 339e4c8ba3aa8e4223bdd88febd3300f;de;;;7.2.;7.4.;;Evaluierung von Machine-Learning-Algorithmen zur automatischen Modulationserkennung Die automatische Modulationserkennung (AMR) gewinnt an Bedeutung, da sie in fortschrittlicher Allzweckkommunikation wie kognitivem Funk sowie in spezifischen Anwendungen verwendbar ist. Daher sollten für weit verbreitete Modulationsarten Entwicklungen gemacht und maschinelle Lerntechniken für dieses Problem ausprobiert werden. In dieser Studie bewerten wir die Leistung verschiedener maschineller Lernalgorithmen für AMR. Insbesondere schlagen wir eine nichtnegative Matrixfaktorisierungstechnik (NMF) vor und bewerten zusätzlich die Leistung von künstlichen neuronalen Netzen (ANN), Support Vector Machines (SVM), Random Forest Tree, k-nächster Nachbar (k-NN), Hoeffding-Baum, logistische Regression und Naive Bayes-Methoden, um vergleichende Ergebnisse zu erhalten. Dies sind die in der Literatur am meisten bevorzugten Merkmalsextraktionsverfahren, und sie werden für einen Satz von Modulationsarten für die universelle Kommunikation verwendet. Wir vergleichen ihre Erkennungsleistung in der Genauigkeitsmetrik. Darüber hinaus bereiten wir den ersten Datensatz im Zusammenhang mit AMR vor und spenden ihn an das Machine Learning Repository der University of California.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-26532-2_23 6f7e3c6d88accdcde14993499a5702e6;de;;;7.2.;7.4.;;Meta-Learning-Framework für die Evaluierung von Vorhersagestrategien Das Papier stellt einen Rahmen vor, der die notwendigen Werkzeuge zusammenbringt, um neue Probleme zu analysieren und Vorhersagen in Bezug auf die Leistung der Lernalgorithmen zu treffen und die Arbeit des Analytikers zu automatisieren. Wir konzentrieren uns darauf, die Systemabhängigkeit von Benutzereingaben zu minimieren und gleichzeitig die Möglichkeit einer geführten Suche nach einem geeigneten Lernalgorithmus durch Leistungsmetriken bereitzustellen. Vorhersagen werden mit verschiedenen Strategien berechnet, um den Abstand zwischen Datensätzen zu berechnen, Nachbarn auszuwählen und vorhandene Ergebnisse zu kombinieren. Das Framework steht kostenlos im Internet zur Verfügung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19802-1_20 e1207580c22175901008503eb47f6c4a;de;;;7.2.;7.4.;;Sicheres teilüberwachtes Lernen: eine kurze Einführung Semi-überwachtes Lernen konstruiert das Vorhersagemodell, indem es aus einigen gekennzeichneten Trainingsbeispielen und einem großen Pool von nicht gekennzeichneten Trainingsbeispielen lernt. Es hat ein breites Spektrum an Anwendungsszenarien und hat in den letzten Jahrzehnten viel Aufmerksamkeit erregt. Es ist jedoch bemerkenswert, dass, obwohl erwartet wird, dass die Lernleistung durch die Nutzung nicht gekennzeichneter Daten verbessert wird, einige empirische Studien zeigen, dass es Situationen gibt, in denen die Verwendung von nicht gekennzeichneten Daten die Leistung beeinträchtigen kann. Daher ist es ratsam, unbeschriftete Daten sicher verwerten zu können. Dieser Artikel gibt einen Überblick über einige Forschungsfortschritte beim sicheren halbüberwachten Lernen, wobei der Schwerpunkt auf drei Arten von Sicherheitsproblemen liegt: Datenqualität, bei der die Trainingsdaten riskant oder von geringer Qualität sind, Modellunsicherheit, bei der der Lernalgorithmus die Unsicherheit während des Trainings nicht handhabt , Vielfalt messen, wobei die sichere Leistung an verschiedene Maßnahmen angepasst werden könnte.;-;-;-;https://link.springer.com/article/10.1007/s11704-019-8452-2 1f3eb273de053c9f216942a04d2e590c;de;;;7.2.;7.4.;;Diversifizierung zu Big Data in der Anfrageverarbeitung Im Bereich Big Data stehen in letzter Zeit einige gängige Anwendungen wie Websuchmaschinen und Empfehlungssysteme vor dem Problem, die Ergebnisse während der Abfrageverarbeitung zu diversifizieren. In diesem Sinne ist es wichtig und essentiell, Methoden zum Umgang mit Big Data vorzuschlagen, um die Vielfalt der Ergebnismenge zu erhöhen. In diesem Papier definieren wir zunächst die Vielfalt einer Menge und die Fähigkeit eines Elements, die Gesamtvielfalt zu verbessern. Basierend auf diesen Definitionen schlagen wir einen Diversifizierungsrahmen vor, der in Bezug auf Effektivität und Effizienz gut abschneidet. Außerdem hat dieser Rahmen eine theoretische Garantie für die Erfolgswahrscheinlichkeit. Zweitens entwerfen wir Implementierungsalgorithmen basierend auf diesem Framework sowohl für numerische als auch für Stringdaten. Drittens führen wir für numerische bzw. String-Daten umfangreiche Experimente mit realen Daten durch, um die Leistung unseres vorgeschlagenen Frameworks zu überprüfen, und führen auch Skalierbarkeitsexperimente mit synthetischen Daten durch.;-;-;-;https://link.springer.com/article/10.1007/s11704-019-8324-9 a25c75049be07522adf8135a85a26663;de;;;7.2.;7.4.;;Nutzung von Deep Convolutional Neural Networks mit mehreren Kanälen für die multivariate Zeitreihenklassifizierung Die Zeitreihenklassifizierung bezieht sich auf viele verschiedene Domänen, wie Gesundheitsinformatik, Finanzen und Bioinformatik. Aufgrund ihrer breiten Anwendung haben Forscher viele Algorithmen für diese Art von Aufgaben entwickelt, z. Unter den Klassifikationsalgorithmen;-;-;-;https://link.springer.com/article/10.1007/s11704-015-4478-2 65f185520f8dc702124c0b4be502c1de;de;;;7.2.;7.4.;;Eine Umfrage zur Fehlerpriorisierung Täglich gehen in großen Open- und Close-Source-Bug-Tracking-Systemen eine große Anzahl von Fehlerberichten ein. Die manuelle Bearbeitung dieser Berichte verbraucht Zeit und Ressourcen, was dazu führt, dass die Behebung wichtiger Fehler verzögert wird. Als wichtiger Prozess bei der Softwarewartung analysiert der Fehlertriaging-Prozess diese Fehlerberichte sorgfältig, um beispielsweise festzustellen, ob die Fehler doppelt oder eindeutig, wichtig oder unwichtig sind und wer sie beheben wird. Die Zuweisung von Fehlerberichten basierend auf ihrer Priorität oder Wichtigkeit kann eine wichtige Rolle bei der Verbesserung des Fehlertriaging-Prozesses spielen. Die genaue und zeitnahe Priorisierung und damit Behebung dieser Fehlerberichte verbessert nicht nur die Qualität der Softwarewartungsaufgaben, sondern bietet auch die Grundlage, um bestimmte Software am Leben zu erhalten. In den letzten zehn Jahren wurden verschiedene Studien durchgeführt, um Fehlerberichte mithilfe von Data-Mining-Techniken wie Klassifizierung, Informationsabruf und Clustering zu priorisieren, die eine falsche Priorisierung überwinden können. Aufgrund ihrer Popularität und Bedeutung untersuchen wir die automatisierten Fehlerpriorisierungsprozesse systematisch. Insbesondere bietet dieses Papier eine kleine theoretische Studie zu Fehlerberichten, um die Notwendigkeit der Arbeit an der Fehlerpriorisierung zu motivieren. Die bestehenden Arbeiten zur Fehlerpriorisierung und einige mögliche Probleme bei der Arbeit mit der Fehlerpriorisierung werden zusammengefasst.;-;-;-;https://link.springer.com/article/10.1007/s10462-016-9478-6 fba76b73e525e5cac8a2ccd0616458e4;de;;;7.2.;7.4.;;MUSIPER: ein System zur Modellierung der Musikähnlichkeitswahrnehmung basierend auf der Auswahl einer objektiven Merkmalsuntergruppe Wir untersuchen die Verwendung objektiver Audiosignalmerkmale, um die individualisierte (subjektive) Wahrnehmung der Ähnlichkeit zwischen Musikdateien zu modellieren. Wir präsentieren;-;-;-;https://link.springer.com/article/10.1007/s11257-007-9035-8 24c4d674c2f387ff96897990cca734a7;de;;;7.2.;7.4.;;Über prägnante Darstellungen häufiger Muster, die Negation zulassen Das Auffinden häufiger Muster ist eines der wichtigsten Themen im Data-Mining-Bereich. Eine umfangreiche Forschung wurde durchgeführt, um positive Muster zu entdecken, jedoch wurde nur sehr wenig zum Entdecken von Mustern mit Negation angeboten. Eine der Hauptschwierigkeiten bei häufigen Mustern mit Negation ist die große Menge an entdeckten Mustern. Es übertrifft die Zahl der häufigen positiven Muster um Größenordnungen. Das Problem kann erheblich gemildert werden, indem prägnante Darstellungen angewendet werden, die verallgemeinerte disjunktive Regeln verwenden, um über häufige Muster mit und ohne Negation nachzudenken. In diesem Beitrag untersuchen wir drei Typen verallgemeinerter disjunktionsfreier Darstellungen und leiten die Beziehungen zwischen ihnen her. Wir stellen auch zwei Varianten von Algorithmen zum Erstellen solcher Darstellungen vor. Die auf theoretischer Basis gewonnenen Ergebnisse werden experimentell verifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05179-1_13 49ecb2cffe3e11f270fef78594ea4e74;de;;;7.2.;7.4.;;Modellierung von aus Crowdsourcing stammenden Keywords innerhalb der Leichtathletik-Domäne Die Bildklassifizierung entsteht als eine wichtige Phase im Gesamtprozess der automatischen Bildanmerkung und des Bildabrufs. Normalerweise wird ein Satz manuell kommentierter Bilder verwendet, um überwachte Systeme zu trainieren und Bilder in Klassen zu klassifizieren. Der Akt des Crowdsourcing hat sich weitgehend darauf konzentriert, Strategien zu untersuchen, um den Zeit-, Kosten- und Arbeitsaufwand für die Erstellung der annotierten Daten zu reduzieren. In diesem Artikel experimentieren wir mit der Effizienz verschiedener Klassifikatoren beim Erstellen visueller Modelle für Keywords durch Crowdsourcing mit Hilfe des Weka-Tools und einer Vielzahl von Low-Level-Funktionen. Eine Gesamtzahl von 500 manuell kommentierten Bildern aus dem Bereich Leichtathletik werden verwendet, um 8 visuelle Modelle zu erstellen und zu testen. Die experimentellen Ergebnisse wurden anhand der Klassifikationsgenauigkeit untersucht und sind sehr vielversprechend und zeigen die Fähigkeit der visuellen Modelle, die Bilder in die entsprechenden Klassen mit der höchsten durchschnittlichen Klassifikationsgenauigkeit von 74,38 % im Sinne des SMO-Datenklassifizierers einzuordnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33409-2_42 8690f428f2a57b9f0f125fd9606f5fd7;de;;;7.2.;7.4.;;Ein hybrides Nutzermodell für die Klassifizierung von Nachrichtenmeldungen Wir präsentieren einen intelligenten Agenten, der für einzelne Benutzer ein tägliches Nachrichtenprogramm zusammenstellt. Basierend auf dem Feedback des Benutzers passt sich das System automatisch an die Vorlieben und Interessen des Benutzers an. In diesem Papier konzentrieren wir uns auf die Benutzermodellierungskomponente des Systems. Erstens motivieren wir die Verwendung eines maschinellen Lernansatzes mit mehreren Strategien, der die Einführung von Benutzermodellen ermöglicht, die aus separaten Modellen für langfristige und kurzfristige Interessen bestehen. Zweitens untersuchen wir die Nützlichkeit der expliziten Modellierung von Informationen, die das System dem Benutzer bereits präsentiert hat. Damit können wir ein wichtiges Thema ansprechen, das in der Information Retrieval-Community bisher kaum beachtet wurde: die Tatsache, dass sich der Informationsbedarf eines Benutzers als direkte Folge der Interaktion mit Informationen ändert. Wir evaluieren die vorgeschlagenen Algorithmen anhand von Benutzerdaten, die mit einem Prototyp unseres Systems gesammelt wurden, und bewerten die individuellen Leistungsbeiträge beider Modellkomponenten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-2490-1_10 fdd373bc9bd190a5dd6fe478c6f3674f;de;;;7.2.;7.4.;;Ein neuronaler Rahmen für die englisch-hindi-übergreifende Inferenz natürlicher Sprache Das Erkennen von Textual Entailment (RTE) zwischen zwei Textteilen ist ein sehr entscheidendes Problem bei der Verarbeitung natürlicher Sprache (NLP) und fügt weitere Herausforderungen hinzu, wenn zwei verschiedene Sprachen einbezogen werden, z. Der Mangel an großen Datensätzen für dieses Problem ist zum zentralen Flaschenhals der Ernährungsforschung in dieser Richtung geworden. In diesem Papier bieten wir einen tiefen neuronalen Rahmen für die sprachübergreifende Textbindung mit Englisch und Hindi. Da für diese Aufgabe kein großer Datensatz zur Verfügung steht, erstellen wir diesen zunächst durch die Übersetzung der Prämissen- und Hypothesenpaare der Stanford Natural Language Inference (SNLI) (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63830-6_55 bc3ed23af7158698924cceaa2be52c1a;de;;;7.2.;7.4.;;Skalierbarkeits- und Sparsity-Probleme in Empfehlungsdatensätzen: eine Umfrage Empfehlungssysteme sind in verschiedenen Bereichen, einschließlich Filmen, Nachrichten und Musik, weit verbreitet mit dem Ziel, Benutzern die relevantesten Vorschläge aus einer Vielzahl von verfügbaren Optionen bereitzustellen. Empfehlungssysteme werden mit Techniken aus vielen Bereichen entwickelt, darunter: maschinelles Lernen, Informationsabruf, Data Mining, lineare Algebra und künstliche Intelligenz. Obwohl die In-Memory-Nearest-Neighbor-Berechnung aufgrund ihrer hohen Empfehlungsgenauigkeit ein typischer Ansatz für kollaboratives Filtern ist, ist ihre Leistung bei der Skalierbarkeit angesichts einer großen Benutzer- und Elementbasis und der Verfügbarkeit von nur wenigen Bewertungen (dh Datensparsität) in archetypischentyp immer noch schlecht Merchandising-Anwendungen. Um Skalierbarkeits- und Sparsity-Probleme in Empfehlungssystemen zu mildern, wurden in der Vergangenheit mehrere modellbasierte Ansätze vorgeschlagen. Wenn die Forschung in Empfehlungssystemen jedoch ihr Potenzial ausschöpfen soll, müssen die bekannten Techniken, die direkt zum Aufbau von Empfehlungssystemen oder zur Vorverarbeitung von Empfehlungsdatensätzen verwendet werden, zusammen mit ihren Stärken und Schwächen verstanden werden einige der bekanntesten traditionellen sowie fortgeschrittenen Techniken, die Datendimensionalität und Datensparsität effektiv handhaben können. Der Schwerpunkt dieser Umfrage liegt darin, einen Überblick über die Anwendbarkeit einiger fortgeschrittener Techniken zu geben, insbesondere Clustering, Biclustering, Matrixfaktorisierung, Graphentheorie und Fuzzy-Techniken in Empfehlungssystemen. Darüber hinaus werden die Anwendbarkeit und die neuesten Forschungsarbeiten, die mit jeder Technik durchgeführt wurden, hervorgehoben.;-;-;-;https://link.springer.com/article/10.1007/s10115-018-1254-2 273dcb5ba8d2381cc5f2f48b3ae6b66e;de;;;7.2.;7.4.;;ConfDTree: Eine statistische Methode zur Verbesserung von Entscheidungsbäumen Entscheidungsbäume haben drei Hauptnachteile: reduzierte Leistung bei kleinen Trainingsmengen, starre Entscheidungskriterien und die Tatsache, dass ein einzelnes „uncharakteristisches“ Attribut den Klassifikationsprozess „entgleisen“ kann. In diesem Papier stellen wir ConfDTree (Confidence-Based Decision Tree) vor – eine Nachbearbeitungsmethode, die es Entscheidungsbäumen ermöglicht, Ausreißer-Instanzen besser zu klassifizieren. Diese auf jeden Entscheidungsbaum-Algorithmus anwendbare Methode verwendet einfach zu implementierende statistische Methoden (Konfidenzintervalle und Zwei-Proportions-Tests), um schwer klassifizierbare Fälle zu identifizieren und alternative Routen vorzuschlagen. Die experimentelle Studie zeigt, dass die vorgeschlagene Nachbearbeitungsmethode die Vorhersageleistung von Entscheidungsbäumen konsistent und signifikant verbessert, insbesondere für kleine, unausgeglichene oder mehrklassige Datensätze, in denen eine durchschnittliche Verbesserung der AUC-Leistung von 5 bis 9 % berichtet wird.;-;-;-;https://link.springer.com/article/10.1007/s11390-014-1438-5 a999e2547cfb998efda3173a65dc0057;de;;;7.2.;7.4.;;Kostenkomplexitätsbasiertes Pruning von Ensemble-Klassifikatoren In diesem Papier untersuchen wir Methoden, die mehrere Klassifikationsmodelle kombinieren, die über separate Datensätze gelernt wurden. Zahlreiche Studien postulieren, dass solche Ansätze die Möglichkeit bieten, das Lernen effizient auf große Datensätze zu skalieren und gleichzeitig die Genauigkeit einzelner Klassifikatoren zu erhöhen. Diese Gewinne gehen jedoch zu Lasten eines erhöhten Bedarfs an Laufzeitsystemressourcen. Der endgültige Ensemble-Meta-Klassifizierer kann aus einer großen Sammlung von Basisklassifizierern bestehen, die erhöhte Speicherressourcen benötigen, während sie gleichzeitig den Klassifikationsdurchsatz verlangsamen. Hier beschreiben wir einen Algorithmus zum Beschneiden (dh Verwerfen einer Teilmenge der verfügbaren Basisklassifikatoren) des Ensemble-Meta-Klassifikators als Mittel, um seine Größe zu reduzieren, während seine Genauigkeit beibehalten wird, und wir präsentieren eine Technik zum Messen des Kompromisses zwischen der Vorhersageleistung und verfügbare Laufzeitsystemressourcen. Der Algorithmus ist unabhängig von der anfänglich verwendeten Methode bei der Berechnung des Meta-Klassifikators. Es basiert auf Verfahren zum Beschneiden von Entscheidungsbäumen und beruht auf der Abbildung eines beliebigen Ensemble-Metaklassifikators auf ein Entscheidungsbaummodell. Durch eine umfangreiche empirische Studie zu Meta-Klassifikatoren, die über zwei reale Datensätze berechnet wurden, veranschaulichen wir unseren Pruning-Algorithmus als robusten und wettbewerbsfähigen Ansatz zum Verwerfen von Klassifikationsmodellen, ohne die Gesamtvorhersageleistung des kleineren Ensembles zu verschlechtern, die über die nach dem Pruning verbleibenden berechnet wird.;-;-;-;https://link.springer.com/article/10.1007/PL00011678 1009a3176284339b5f348d9ec498fc3b;de;;;7.2.;7.4.;;ROC ‘n’ Rule Learning – Hin zu einem besseren Verständnis von Covering-Algorithmen Dieses Paper bietet eine Analyse des Verhaltens von Separate-and-Conquer- oder Covering Rule-Lernalgorithmen durch Visualisierung ihrer Bewertungsmetriken und ihrer Dynamik im Coverage-Raum, einer Variante des ROC-Raums. Unsere Ergebnisse zeigen, dass die am häufigsten verwendeten Metriken, einschließlich Genauigkeit, gewichtete relative Genauigkeit, Entropie und Gini-Index, einem von zwei grundlegenden Prototypen entsprechen: Präzision, die versucht, die Fläche unter der ROC-Kurve für unbekannte Kosten zu optimieren, und Kosten -gewichtete Differenz zwischen abgedeckten positiven und negativen Beispielen, die versucht, den optimalen Punkt unter bekannten oder angenommenen Kosten zu finden. Wir zeigen auch, dass eine einfache Verallgemeinerung der;-;-;-;https://link.springer.com/article/10.1007/s10994-005-5011-x 0cb5c52832b33608c35629d8f4975529;de;;;7.2.;7.4.;;Contrast Pattern Mining in der Volksmusikanalyse Der Vergleich von Gruppen in Daten ist ein häufiges Thema in der Musikanalyse auf Korpusebene und im explorativen Data Mining. Kontrastmuster beschreiben signifikante Unterschiede zwischen den Gruppen. Dieses Kapitel führt in die Aufgaben und Techniken des Contrast Pattern Mining ein und gibt einen Überblick über die Arbeit in der quantitativen und computergestützten Volksmusikanalyse als Mining für Kontrastmuster. Drei Fallstudien werden im Detail vorgestellt, um unterschiedliche Musterdarstellungen, Datensätze und Gruppierungen von Volksmusikkorpora und Muster-Mining-Methoden zu veranschaulichen: Untergruppen-Entdeckung globaler Merkmalsmuster in europäischer Volksmusik, aufkommendes Muster-Mining von sequentiellen Mustern in kretischen Volksliedern und Assoziation Rule Mining positiver und negativer Muster in der baskischen Volksmusik. Während sich dieses Kapitel auf Beispiele aus der Volksmusikanalyse konzentriert, bietet das Konzept der Kontrastmuster allgemeiner Möglichkeiten für die computergestützte Musikanalyse, die sowohl auf musikwissenschaftliche Traditionen der quantitativen vergleichenden Analyse als auch auf die Forschung im Kontrast-Data-Mining zurückgreifen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25931-4_15 30e1d63fb269e7ad186f10ca7740c055;de;;;7.2.;7.4.;;Abstimmungstheorie zur Konzepterkennung In diesem Beitrag wird das Problem der Erkennung von Konzepten für das Ontologie-Lernen aus Text untersucht. Mit unserem Tool OntoCmaps untersuchen wir verschiedene Metriken aus der Graphentheorie und schlagen auf Basis dieser Metriken Abstimmungsschemata vor. Die Idee hat ihre Wurzeln in der Social-Choice-Theorie, und unser Ziel ist es, den Konsens in automatischen Lernmethoden nachzuahmen und das Vertrauen in die Konzeptextraktion durch die Identifizierung der leistungsstärksten Metriken, den Vergleich dieser Metriken mit Standard-Informationsabruf-Metriken (wie z TF-IDF) und die Bewertung verschiedener Abstimmungsschemata. Unsere Ergebnisse zeigen, dass die drei grafikbasierten Metriken Degree, Reachability und HITS-Hub am erfolgreichsten bei der Identifizierung relevanter Konzepte waren, die in zwei Goldstandard-Ontologien enthalten sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30284-8_28 f9ebef80bdba75d10fd809e11ea6a016;de;;;7.2.;7.4.;;Verwenden des zweistufigen modifizierten parallelen SOM für die Song-Jahresvorhersage Dieses Papier verwendet eine einfache Modifikation des klassischen Kohonen-Netzwerks (SOM), das eine parallele Verarbeitung von Eingabedatenvektoren oder eine Partitionierung des Problems im Falle von unzureichendem Speicher für alle Vektoren aus dem Trainingssatz für die Berechnung von SOM durch CUDA auf YearPredictionMSD Data Set ermöglicht. Der Algorithmus, der in einem früheren Artikel vorgestellt wurde, wählt potenzielle Schwerpunkte von Datenclustern vorab aus und verwendet sie als Gewichtungsvektoren im endgültigen SOM-Netzwerk. Die Eignung dieses Algorithmus wurde bereits an Bildern sowie an zwei bekannten Datensätzen handgeschriebener Ziffern demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22389-1_15 1c51e2d91f1f706b4d46f1eeed351a10;de;;;7.2.;7.4.;;Verbesserung der Börsenprognose durch Integration von Marktnachrichten und Aktienkursen Die Börse ist ein wichtiger und aktiver Teil der heutigen Finanzmärkte. Um die Frage zu beantworten, wie Finanzinformationen aus zwei Quellen modelliert werden können, konzentrieren wir uns in dieser Studie auf die Verbesserung der Genauigkeit einer computergestützten Vorhersage durch die Kombination von Informationen, die in Marktnachrichten und Aktienkursen verborgen sind. Unter Verwendung der Multi-Kernel-Lerntechnik wird ein System vorgestellt, das Vorhersagen für den Hongkonger Aktienmarkt macht, indem es diese beiden Informationsquellen einbezieht. Experimente wurden durchgeführt und die Ergebnisse haben gezeigt, dass unser System sowohl in der Kreuzvalidierung als auch in unabhängigen Tests eine bessere Richtungsgenauigkeit erreicht hat als das Basissystem, das auf einer einzigen Informationsquelle basiert, sowie das System, das Informationsquellen in ein einfacher Weg.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23091-2_24 e347635497a057299bc843ef97b5b376;de;;;7.2.;7.4.;;Klassifizieren von High-Speed-Textstreams In letzter Zeit wird eine neue Klasse datenintensiver Anwendungen allgemein anerkannt, bei denen Daten am besten als transiente Open-End-Streams und nicht als persistente Tabellen auf der Festplatte modelliert werden. Dies führt zu einem neuen Anstieg des Forschungsinteresses, der als Datenströme bezeichnet wird. Die meisten der berichteten Arbeiten konzentrieren sich jedoch auf Strukturdaten wie Bitfolgen und konzentrieren sich selten auf nichtstrukturelle Daten wie Textdokumente. In diesem Papier schlagen wir einen effizienten Klassifizierungsansatz zur Klassifizierung von Hochgeschwindigkeits-Textströmen vor. Der vorgeschlagene Ansatz basiert auf Skizzen, so dass er in der Lage ist, die Streams effizient zu klassifizieren, indem er sie nur einmal scannt, während er sowohl bei der Modellpflege als auch beim Betrieb nur wenig Speicher verbraucht. Umfangreiche Experimente mit Benchmarks und einer realen Nachrichtenartikelsammlung werden durchgeführt. Die ermutigenden Ergebnisse zeigten, dass unser vorgeschlagener Ansatz sehr machbar ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45160-0_15 8b1d5b9495857c386b53269fc286b1b1;de;;;7.2.;7.4.;;Statistische Semantik zur Verbesserung der Dokumenten-Clustering Dokumentenclustering-Algorithmen verwenden normalerweise das Vektorraummodell (VSM) als ihr zugrunde liegendes Modell für die Dokumentdarstellung. VSM geht davon aus, dass Begriffe unabhängig sind und ignoriert dementsprechend alle semantischen Beziehungen zwischen ihnen. Dies führt dazu, dass Dokumente auf einen Raum abgebildet werden, in dem die Nähe zwischen Dokumentvektoren nicht ihre wahre semantische Ähnlichkeit widerspiegelt. In diesem Artikel werden neue Modelle für die Dokumentdarstellung vorgeschlagen, die die semantische Ähnlichkeit zwischen Dokumenten basierend auf Korrelationsmessungen zwischen ihren Begriffen erfassen. Das Papier verwendet die vorgeschlagenen Modelle, um die Effektivität verschiedener Algorithmen für das Dokumentenclustering zu verbessern. Die vorgeschlagenen Repräsentationsmodelle definieren eine korpusspezifische semantische Ähnlichkeit, indem sie Maße von Term-Term-Korrelationen aus den zu clusternden Dokumenten schätzen. Das Korpus von Dokumenten definiert demnach einen Kontext, in dem semantische Ähnlichkeit berechnet wird. Es wurden Experimente mit dreizehn Benchmark-Datensätzen durchgeführt, um die Wirksamkeit der vorgeschlagenen Modelle empirisch zu bewerten und sie mit VSM und anderen bekannten Modellen zur Erfassung semantischer Ähnlichkeit zu vergleichen.;-;-;-;https://link.springer.com/article/10.1007/s10115-010-0367-z 22ec2e55ab3aad44a597dc926838be26;de;;;7.2.;7.4.;;Unüberwachte Duplikaterkennung mit Beispiel-Nichtduplikaten Das Problem der Identifizierung von Objekten in Datenbanken, die sich auf dieselbe reale Entität beziehen, ist unter anderem als Duplikaterkennung oder Datensatzverknüpfung bekannt. Objekte können Duplikate sein, auch wenn sie aufgrund von Fehlern und fehlenden Daten nicht identisch sind. Typische aktuelle Methoden erfordern ein tiefes Verständnis der Anwendungsdomäne oder ein gutes repräsentatives Trainingsset, was mit erheblichen Kosten verbunden ist. In diesem Artikel präsentieren wir einen unbeaufsichtigten, domänenunabhängigen Ansatz zur Duplikaterkennung, der mit einem breiten Alignment potenzieller Duplikate beginnt und die Verteilung der beobachteten Ähnlichkeitswerte zwischen diesen potenziellen Duplikaten und repräsentativen Stichproben-Nichtduplikaten analysiert, um das anfängliche Alignment zu verbessern. Darüber hinaus ist der vorgestellte Ansatz nicht nur in der Lage, flache Datensätze auszurichten, sondern verwendet auch verwandte Objekte, was die Ausrichtungsgenauigkeit erheblich erhöhen kann. Auswertungen zeigen, dass unser Ansatz andere unüberwachte Ansätze verdrängt und fast die gleiche Genauigkeit erreicht wie selbst vollständig überwachte, domänenabhängige Ansätze.;-;-;-;https://link.springer.com/chapter/10.1007/11890591_5 acdeb35cc92609a111d9d735bbf74f78;de;;;7.2.;7.4.;;Automatisierung der Wissensarbeit: Ein Framework für Soft Computing Moderne Informationstechnologien haben unsere Welt in den letzten Jahren dramatisch verändert. Wir sehen, wie eine Reihe traditioneller Berufe ausgestorben sind und wie unter dem Druck neuer Technologien eine Reihe neuer Fachgebiete und Arbeitsplätze entstanden. Die Technologien entwickeln sich so schnell und in so viele Richtungen, dass es schwierig wird, auch nur ein allgemeines Bild im Auge zu behalten. In diesem Artikel diskutieren wir kurz eine der sichtbarsten disruptiven Technologien – die Automatisierung von Wissensarbeit und haben versucht, unsere Vision zu formulieren, warum und wie wir Soft-Computing-Frameworks in diesem Bereich einsetzen können. Die wichtigsten Ideen werden an einer sehr zentralen Aktivität in jeder Gesellschaft veranschaulicht – intelligentes Lernen für die Bildung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49700-6_41 5ab3baf1675a6f48dc58c1ed60922314;de;;;7.2.;7.4.;;Bewertung eines Klassifikationsregel-Mining-Algorithmus basierend auf sekundären Differenzen Rule Mining gilt als eine der verwendbaren Mining-Methoden, um wertvolle Erkenntnisse aus gespeicherten Daten auf Datenbanksystemen zu gewinnen. Obwohl viele Rule-Mining-Algorithmen entwickelt wurden, verwenden fast aktuelle Rule-Mining-Algorithmen nur die primäre Differenz eines Kriteriums, um Attribut-Wert-Paare auszuwählen, um einen Regelsatz für einen bestimmten Datensatz zu erhalten. In diesem Papier stellen wir eine Methode zur Regelgenerierung vor, die auf sekundären Unterschieden zweier Kriterien basiert, um den Kompromiss zwischen Abdeckung und Genauigkeit zu vermeiden. Dann haben wir eine Bewertung des vorgeschlagenen Algorithmus unter Verwendung von UCI-allgemeinen Datensätzen durchgeführt. In dieser Fallstudie haben wir die Vorhersagegenauigkeit von Regelsätzen, die unser Algorithmus gelernt hat, mit der von drei repräsentativen Algorithmen verglichen. Das Ergebnis zeigt, dass unser Rule-Mining-Algorithmus nicht nur genaue Regeln, sondern auch Regeln mit den anderen Funktionen erhalten kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04592-9_4 eb9dd1a33aed3333037f6a78886d731c;de;;;7.2.;7.4.;;Die Nutzung von Grobmengentheorie und Datenreduktion basierend auf künstlicher Intelligenz im Empfehlungssystem Um die Wirksamkeit der Zuweisung von Umweltressourcen für die Bildung in der Hochschulmusik zu verbessern, wird ein Zuweisungsmodell für Umweltressourcen für Bildung basierend auf groben Sets und Datenreduktion vorgeschlagen. Zuerst wird ein Allokationsmodell der Risikopräferenz für Bildungsumweltressourcen basierend auf einem groben Set und einem Datenreduktionsklassifikator entwickelt. Dieses Modell unterteilt die Risikopräferenz in die bestehende Risikopräferenz und die nicht vorhandene Risikopräferenz. Außerdem trainiert und optimiert es den Datensatz für die Zuweisung von Bildungsumweltressourcen durch Grobsatz und Datenreduktionsklassifikator. Zweitens, da der Grobsatz und der Datenreduktionsklassifikator manchmal bei der Vorhersage der Zuteilung von Bildungsumweltressourcen versagen können, wird das Fuzzy-Clustering basierend auf dem Grobsatz optimiert und mit der Datenreduktionstheorie kombiniert, um die Effektivität der Zuweisung der Bildungsumweltressourcen zu verbessern. Schließlich kann der vorgeschlagene Algorithmus basierend auf der Simulationsforschung zum Allokationsmodell von Bildungsumweltressourcen eine vernünftigere Zuteilung von Bildungsumweltressourcen erhalten, die die Effektivität des Algorithmus verkörpert. Der Datenreduktionsklassifizierer eines Grobsatzes wird verwendet, um den Datensatz der Zuweisung von Umweltressourcen im Bildungsbereich zu trainieren und zu optimieren, und visuelles c++ wird verwendet, um die Zuweisung von Umweltressourcen im Bildungsbereich zu realisieren. Die Simulationsergebnisse zeigen, dass der Algorithmus Bildungsumweltressourcen effektiv zuordnen kann. Das Modell berücksichtigt bei der Bewertungsentscheidung die Merkmale der Inkompatibilität zwischen der Auswertung historischer Daten und dem komplexen Indexsystem. Sie kann die Bewertungsentscheidungstabelle sinnvoll unterteilen und die objektive Berechnung der Gewichte jedes Bewertungsindex basierend auf der grob eingestellten Bedingung durch hierarchische Berechnung realisieren.;-;-;-;https://link.springer.com/article/10.1007/s00500-020-05286-9 246e537887cb43ceb7a9052f47883a97;de;;;7.2.;7.4.;;Aufbau thematischer Hierarchien in heterogenen Informationsnetzwerken Viele digitale dokumentarische Datensammlungen (z. B. wissenschaftliche Veröffentlichungen, Unternehmensberichte, Nachrichtenartikel und soziale Medien) können als heterogenes Informationsnetzwerk modelliert werden, das Text mit mehreren Arten von Entitäten verknüpft. Der Aufbau hochwertiger Hierarchien, die Themen mit mehreren Granularitäten darstellen können, bietet Vorteile für Aufgaben wie Suche, Informationssuche und Pattern-Mining. In dieser Arbeit stellen wir einen Algorithmus zur rekursiven Konstruktion multitypisierter topischer Hierarchien vor. Im Gegensatz zur traditionellen textbasierten Themenmodellierung verarbeitet unser Ansatz sowohl Textphrasen als auch mehrere Arten von Entitäten durch einen neu entwickelten Clustering- und Ranking-Algorithmus für heterogene Netzwerkdaten sowie das Mining und Ranking von Themenmustern verschiedener Typen. Unsere Experimente mit Datensätzen aus zwei verschiedenen Domänen zeigen, dass unser Algorithmus hochwertige, multitypisierte thematische Hierarchien liefert.;-;-;-;https://link.springer.com/article/10.1007/s10115-014-0777-4 8d798d894ae786a6b2612508404f1f88;de;;;7.2.;7.4.;;Orthogonale nichtnegative Matrix-Trifaktorisierung für halbüberwachtes Dokument-Co-Clustering Semi-überwachtes Clustering wird oft als Verwendung von gekennzeichneten Daten angesehen, um den Clustering-Prozess zu unterstützen. Bestehende Algorithmen berücksichtigen jedoch keine dualen Beschränkungen zwischen Datenpunkten (z. B. Dokumenten) und Merkmalen (z. B. Wörtern). Um dieses Problem anzugehen, schlagen wir in diesem Artikel ein neues semi-überwachtes Dokument-Co-Clustering-Modell OSS-NMF über orthogonale nichtnegative Matrix-Trifaktorisierung vor. Unser Modell berücksichtigt Vorkenntnisse sowohl auf der Dokument- als auch auf der Wortseite, um die neue Wortkategorie- und Dokumentcluster-Matrizenkonstruktion zu unterstützen. Außerdem beweisen wir die Korrektheit und Konvergenz unseres Modells, um seine mathematische Strenge zu demonstrieren. Unsere experimentellen Auswertungen zeigen, dass das vorgeschlagene Dokument-Clustering-Modell bemerkenswerte Leistungsverbesserungen mit bestimmten Einschränkungen bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13672-6_19 98a7906c432d3740e6b60580fd5f6a16;de;;;7.2.;7.4.;;L2RLab: Integrierte Experimentierumgebung zum Erlernen von Rankings L2RLab ist eine Entwicklungsumgebung, die es uns ermöglicht, alle Phasen zu integrieren, um die Leistung neuer Learning-to-Rank-Modelle zu entwickeln, zu bewerten, zu vergleichen und zu analysieren. Es enthält Werkzeuge zur individuellen und mehrfachen Vorverarbeitung der Datenerhebungen, es erlaubt uns auch, den Einfluss der Merkmale im Ranking, der Formatkonvertierung (z.B. Weka's .ARFF) und Visualisierung zu untersuchen. Diese Software erleichtert den Vergleich zwischen zwei oder mehr Methoden, wobei die im Ranking erzielte Leistung als Parameter verwendet wird, und enthält auch Funktionen zur statistischen Analyse der Genauigkeit des vorgeschlagenen Algorithmus auf Abfrageebene in Bezug auf die in der Literatur zitierten. Die Untersuchung des Verhaltens der Lernkurven der verschiedenen Methoden ist ein weiteres Merkmal des Tools. L2RLab ist in Java programmiert und als auf Erweiterbarkeit ausgerichtetes Werkzeug konzipiert, daher ist das Hinzufügen neuer Funktionalitäten eine leichte Aufgabe. L2RLab hat eine einfach zu bedienende Oberfläche, die die Neuprogrammierung der Anwendungen für unsere Experimente vermeidet. Grundsätzlich gliedert sich L2RLab in zwei Hauptmodule: die visuelle Anwendung und ein Framework, das die Einbindung der neuen Algorithmen und der vom Forscher entwickelten Leistungsmaße erleichtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40769-7_47 71b50fa62f4d2661e2590812dc2e6787;de;;;7.2.;7.4.;;Experimente an Kernel Tree Support Vector Machines für die Textkategorisierung Textkategorisierung ist aufgrund der extremen Zunahme digitaler Dokumente eines der interessantesten Themen. Der Support Vector Machine Algorithmus (SVM) ist eine der effektivsten Techniken zur Lösung dieses Problems. SVM erfordert jedoch, dass der Benutzer die Kernelfunktion und Parameter der Funktion wählt, die sich direkt auf die Leistung der Klassifizierer auswirken. Dieses Papier schlägt eine neuartige Methode namens Kernel Tree SVM vor, die die multiple Kernel-Funktion mit einer Baumstruktur darstellt. Die Funktionen werden unter Verwendung der genetischen Programmierung (GP) ausgewählt und gebildet. Darüber hinaus wird das Gradientenabstiegsverfahren verwendet, um eine Feinabstimmung der Parameterwerte in jedem Baum durchzuführen. Die Methode wird anhand von WebKB- und 20Newsgroup-Datensätzen verglichen. Die Ergebnisse beweisen, dass die Methode eine bessere optimale Lösung finden kann als die mit der Gradientenmethode abgestimmte SVM.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71701-0_78 9748e50ab901412b68eb5170d4b6f58a;de;;;7.2.;7.4.;;AutoPCS: Ein Phrasenbasiertes Textkategorisierungssystem für ähnliche Texte Nahezu alle Textklassifikationsverfahren klassifizieren Texte anhand der in Texten vorkommenden Begriffe in vordefinierte Kategorien. Die moderne Textklassifikation zieht es vor, einfach ein Wort als Begriff zu nehmen, da es bei einigen berühmten Datensätzen gut abschneidet, einige Experten wiesen sogar darauf hin, dass Phrasen die Klassifikationsgenauigkeit nicht oder nur geringfügig verbessern. Wir haben jedoch festgestellt, dass dies nicht immer der Fall ist, wenn wir versuchen, Texte zu ähnlichen Themen in derselben Domäne zu kategorisieren. Nur mit Wörtern können wir diese Texte nicht effektiv kategorisieren, da sie fast den gleichen Wortsatz haben. Dann nehmen wir an, dass die Ergebnisse verbessert werden könnten, wenn wir auch Phrasen als Begriffe verwenden. Um unsere Vermutung zu bezeugen, schlagen wir unseren eigenen Weg zur Phrasenextraktion vor und wählen die geeignete Merkmalsauswahlmethode und den richtigen Klassifikator aus, indem wir eine experimentelle Studie an einem Datensatz durchführen, der aus Paper Abstracts im Bereich der;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00672-2_33 5670bef15d20ff3aaa6d54357ac11bf3;de;;;7.2.;7.4.;;Mining-Kategorien für E-Mails durch Clustering und Pattern Discovery Der kontinuierliche Informationsaustausch über den beliebten E-Mail-Dienst hat das Problem aufgeworfen, die riesigen Nachrichtenmengen der Benutzer effektiv und effizient zu verwalten. Wir behandeln das Problem der E-Mail-Klassifizierung, indem wir geeignete Strategien konzipieren, um: (1) Nachrichten in homogene Gruppen zu organisieren, (2) weitere eingehende Nachrichten entsprechend einer anfänglichen Organisation umzuleiten und (3) zuverlässige Beschreibungen der gefundenen Nachrichtengruppen zu erstellen. Wir schlagen ein einheitliches Framework für die Handhabung und Klassifizierung von E-Mail-Nachrichten vor. In unserem Framework werden Nachrichten mit ähnlichen Funktionen in einer Ordnerorganisation geclustert. Clustering- und Pattern-Discovery-Techniken zum Mining strukturierter und unstrukturierter Informationen aus E-Mail-Nachrichten sind die Grundlage eines Gesamtprozesses der Ordnererstellung/-wartung und E-Mail-Umleitung. Die Mustererkennung wird auch genutzt, um geeignete Clusterbeschreibungen zu generieren, die eine führende Rolle bei der Clusteraktualisierung spielen. Die experimentelle Auswertung mehrerer persönlicher Postfächer zeigt die Wirksamkeit unseres Ansatzes.;-;-;-;https://link.springer.com/article/10.1007/s10844-006-0024-x de0dca52d563608eeb5c6d9937b29c80;de;;;7.2.;7.4.;;Undersampling-Ansatz für unausgewogene Trainingssätze und Induktion von Textkategorisierungsdomänen mit mehreren Labels Die Textkategorisierung ist eine wichtige Anwendungsdomäne der Multi-Label-Klassifizierung, bei der jedes Dokument gleichzeitig zu mehr als einer Klasse gehören kann. Der gebräuchlichste Ansatz besteht darin, das Problem von Beispielen mit mehreren Labels anzugehen, indem für jede Klasse ein separater binärer Klassifikator induziert wird und diese Klassifikatoren dann parallel verwendet werden. Was die Information-Retrieval-Community jedoch fast ignoriert hat, ist, dass solche Klassifikatoren fast immer von stark unausgewogenen Trainingssätzen induziert werden. Die in diesem Papier berichtete Studie zeigt, wie die Berücksichtigung dieses Aspekts mit einer hier verwendeten Unterabtastung der Mehrheitsklasse die Klassifikationsleistung tatsächlich verbessern kann, gemessen an den in der Textkategorisierung üblichen Kriterien: Makro-/Mikropräzision, Erinnerung und;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14640-4_4 a16a6560dd247cbdb8e3c6aa03f1e54b;de;;;7.2.;7.4.;;Hybrider Ansatz zur Diagnose von Schilddrüsen-, Hepatitis- und Brustkrebs basierend auf korrelationsbasierter Merkmalsauswahl und naiven Bayes Merkmalsauswahltechniken sind für Forscher in der Informatik und vielen anderen Wissenschaftsbereichen zu einem offensichtlichen Bedarf geworden. Ob die Zielforschung in der Medizin, Landwirtschaft, Wirtschaft oder Industrie liegt, es besteht die Notwendigkeit, große Datenmengen zu analysieren. Darüber hinaus könnte die Suche nach der besten Merkmalsauswahltechnik, die einen bestimmten Lernalgorithmus am besten erfüllt, für Forscher von Vorteil sein. Aus diesem Grund haben wir eine neue Methode zur Diagnose einiger Krankheiten vorgeschlagen, die auf einer Kombination von Lernalgorithmen und Merkmalsauswahltechniken basiert. Die Idee besteht darin, einen hybriden Ansatz zu erhalten, der die leistungsstärksten Lernalgorithmen und die leistungsstärksten Merkmalsauswahltechniken in Bezug auf drei bekannte Datensätze kombiniert. Experimentelle Ergebnisse zeigen, dass die Koordination zwischen korrelationsbasierten Merkmalsauswahlverfahren zusammen mit dem Naive Bayse-Lernalgorithmus vielversprechende Ergebnisse liefern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34478-7_34 265f7d33855a066bf922cf331d305a2b;de;;;7.2.;7.4.;;Bewertung von Normalisierungstechniken in der Textklassifikation für Portugiesisch Die Textklassifizierung ist eine wichtige Aufgabe der Künstlichen Intelligenz. Normalerweise verwendet diese Aufgabe große Textdatensätze, deren Darstellung aufgrund von Normalisierungs- und Auswahltechniken möglich ist. In der Literatur finden wir drei Normalisierungstechniken: Stemming, Lemmatisierung und Nominalisierung. Dennoch ist es schwierig, die am besten geeignete Technik für die Textklassifikationsaufgabe auszuwählen. In diesem Artikel untersuchen wir diese Frage experimentell, indem wir fünf verschiedene Klassifikatoren auf vier Textdatensätze in der portugiesischen Sprache anwenden. Zusätzlich werden die Klassifikationsergebnisse anhand von Unigrammen, Bigrammen und der Kombination von Unigrammen und Bigrammen ausgewertet. Die Ergebnisse zeigen, dass im Allgemeinen die Anzahl der Terme in jedem der Fälle und die erforderliche Verständlichkeit der Ergebnisse der Klassifikation als Kriterien verwendet werden können, um die am besten geeignete Technik für die Textklassifikationsaufgabe zu definieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31137-6_47 24ffe4adddf55b6ea43a1de0d0edee22;de;;;7.2.;7.4.;;Dynamische exponentielle Familienmatrix-Faktorisierung Wir schlagen einen neuen Ansatz zur Modellierung zeitvariabler relationaler Daten wie E-Mail-Transaktionen basierend auf einer dynamischen Erweiterung der Matrixfaktorisierung vor. Um die wahren Beziehungen hinter einer Folge von rauschbehafteten relationalen Matrizen effektiv abzuschätzen, werden ihre dynamischen Entwicklungen in einem Raum von Matrizen mit niedrigem Rang modelliert. Es wird davon ausgegangen, dass die beobachteten Matrizen aus einer exponentiellen Familienverteilung stammen, die die niederrangige Matrix als natürliche Parameter hat. Wir wenden das sequentielle Bayes-Framework an, um die Variationen echter Parameter zu verfolgen. In den Experimenten, die sowohl künstliche als auch reale Datensätze verwenden, zeigen wir, dass unsere Methode zeitvariable wahre Beziehungen basierend auf verrauschten Beobachtungen effektiver als bestehende Methoden abschätzen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01307-2_41 b8daeabfb3e064b3ea2a31e77c1c7b63;de;;;7.2.;7.4.;;Eine Frage-Routing-Technik, die ein tiefes neuronales Netzwerk für Gemeinschaften zur Beantwortung von Fragen verwendet Online-Communitys für die Beantwortung von Fragen (CQA) wie Quora und Stack Overflow stehen vor der Herausforderung, qualitativ hochwertige Antworten auf die Fragen ihrer Benutzer bereitzustellen. Obwohl CQA-Frameworks linear neue Fragen erhalten, steigt die Rate der unbeantworteten Fragen exponentiell an. Diese Variation beeinträchtigt schließlich die Wirksamkeit der CQA-Frameworks als Plattformen für den Wissensaustausch. Die Hauptursache für diese Herausforderung ist die unsachgemäße Weiterleitung von Fragen an potenzielle Beantworter, Feldexperten oder interessierte Benutzer. Die vorgeschlagene Technik;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-55753-3_3 c9344d80e9d31290a801967de155ba85;de;;;7.2.;7.4.;;Ein Ansatz zur Verbesserung der Effizienz der Textklassifizierung Die Textklassifizierung wird mit dem schnellen Wachstum der verfügbaren Online-Informationen immer wichtiger. In diesem Beitrag schlagen wir einen Ansatz zur Beschleunigung des Prozesses der Textklassifizierung vor, der auf dem Beschneiden des Trainingskorpus basiert. Es wurde ein effektiver Algorithmus zum Beschneiden des Textkorpus entwickelt. Es werden Experimente mit realen Textkorpus durchgeführt, die die Wirksamkeit und Effizienz des vorgeschlagenen Ansatzes validieren. Unser Ansatz eignet sich besonders für Anwendungen der Online-Textklassifikation.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45710-0_6 1f776df9a55792a2f71f0de9bf9afacb;de;;;7.2.;7.4.;;Kurze Textähnlichkeit basierend auf wahrscheinlichkeitstheoretischen Themen In diesem Beitrag schlagen wir eine neue Methode vor, um die Ähnlichkeit zwischen zwei kurzen Textschnipseln zu messen, indem wir sie jeweils mit den probabilistischen Themen vergleichen. Konkret beginnt unsere Methode damit, zunächst die unterscheidenden Begriffe zwischen den beiden kurzen Textschnipseln zu finden und sie mit einer Reihe probabilistischer Themen zu vergleichen, die durch den Gibbs-Sampling-Algorithmus extrahiert wurden. Die Beziehung zwischen den unterscheidenden Begriffen der kurzen Textschnipsel kann durch Untersuchen ihrer Wahrscheinlichkeiten unter jedem Thema entdeckt werden. Die Ähnlichkeit zwischen zwei kurzen Textschnipseln wird basierend auf ihren gemeinsamen Begriffen und der Beziehung ihrer unterscheidenden Begriffe berechnet. Umfangreiche Experimente zur Paraphrasierung und Fragekategorisierung zeigen, dass die vorgeschlagene Methode die Ähnlichkeit von kurzen Textschnipseln genauer berechnen kann als andere Methoden einschließlich der reinen TF-IDF-Messung.;-;-;-;https://link.springer.com/article/10.1007/s10115-009-0250-y 41b641c81cacb70c0e651eb90738baf4;de;;;7.2.;7.4.;;Klassifizierung von Protein-Interaktionssätzen über Gauß-Prozesse Die zunehmende Verfügbarkeit von Proteininteraktionsstudien im Textformat in Verbindung mit der Forderung nach einem leichteren Zugang zu den wichtigsten Ergebnissen hat zu einem Bedarf an Text-Mining-Lösungen geführt. In der Textverarbeitungspipeline ist die Klassifizierung ein wichtiger Schritt für die Extraktion kleiner Abschnitte von relevantem Text. Folglich untersuchen wir für die Aufgabe, Protein-Protein-Interaktionssätze zu lokalisieren, die Verwendung eines Klassifikators, der selten auf Text angewendet wurde, der Gauß-Prozesse (GPs). GPs sind ein nicht parametrisches probabilistisches Analogon zu den populäreren Support Vector Machines (SVMs). Wir stellen fest, dass GPs die SVM- und naiven Bayes-Klassifikatoren bei binären Satzdaten übertreffen, während sie bei abstrakten und mehrklassigen Satzkorpora eine gleichwertige Leistung zeigen. Darüber hinaus machen das Fehlen des Margin-Parameters, der eine kostspielige Abstimmung erfordert, zusammen mit den prinzipiellen Mehrklassenerweiterungen, die durch das probabilistische Framework ermöglicht werden, GPs zu einer attraktiven Alternative, die es wert ist, weiter angenommen zu werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04031-3_25 02c088188a48f9ceaf3369c2f5233e3c;de;;;7.2.;7.4.;;Benutzermodellierung zum Erstellen eines Algorithmus für mobile Werbung Digital Signage ist eine Form der elektronischen Anzeige, die Informationen, Werbung und andere Botschaften präsentiert. Mit der Verschmelzung der Mobiltechnologie und dem exponentiellen Wachstum des Rundfunknetzes wurde eine überwältigende Menge an Digital Signage für ungleiche Verbraucher bereitgestellt. Dieses Papier stellt einen Algorithmus vor, der auf der Na-ve-Bayes-Technik basiert, um eine Benutzermodellierung zu erstellen, die verwendet wird, um Kunden eine geeignete Beschilderung zu empfehlen. Unser Ziel ist es, die Beschilderung zu personalisieren, indem wir die richtigen Produkte für die richtigen Kunden auswählen. Dieser Weg ist vielversprechend, um einen automatisierten Algorithmus zu präsentieren, um einen anpassungsfähigen Inhalt zu erstellen, der leichter ausgetauscht werden kann und sich die Schilder an den Kontext und das Publikum anpassen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22410-2_35 49a11a7c0e914ae3c8c81ee1e09adcb5;de;;;7.2.;7.4.;;Dimensionsreduktion für eine schnelle Ähnlichkeitssuche in großen Zeitreihendatenbanken Das Problem der Ähnlichkeitssuche in großen Zeitreihendatenbanken hat in letzter Zeit viel Aufmerksamkeit auf sich gezogen. Dies ist aufgrund der inhärenten hohen Dimensionalität der Daten ein nicht triviales Problem. Die vielversprechendsten Lösungen bestehen darin, zuerst eine Dimensionsreduktion der Daten durchzuführen und dann die reduzierten Daten mit einem räumlichen Zugriffsverfahren zu indizieren. Drei Haupttechniken zur Dimensionsreduktion wurden vorgeschlagen: Singular Value Decomposition (SVD), die diskrete Fourier-Transformation (DFT) und neuerdings die diskrete Wavelet-Transformation (DWT). In dieser Arbeit stellen wir eine neue Dimensionsreduktionstechnik vor, die wir Piecewise Aggregate Approximation (PAA) nennen. Wir vergleichen sie theoretisch und empirisch mit den anderen Techniken und zeigen ihre Überlegenheit. Neben der Wettbewerbsfähigkeit mit oder schneller als die anderen Methoden bietet unser Ansatz zahlreiche weitere Vorteile. Er ist einfach zu verstehen und zu implementieren, ermöglicht flexiblere Entfernungsmessungen, einschließlich gewichteter euklidischer Abfragen, und der Index kann in linearer Zeit erstellt werden.;-;-;-;https://link.springer.com/article/10.1007/PL00011669 f7f8346429c4be229f5c60ba7ad7bc7b;de;;;7.2.;7.4.;;Interpretierbares und rekonfigurierbares Clustering von Dokumentdatensätzen durch Ableitung wortbasierter Regeln Cluster von Textdokumenten, die von Clustering-Algorithmen ausgegeben werden, sind oft schwer zu interpretieren. Wir beschreiben motivierende reale Szenarien, die eine Rekonfigurierbarkeit und hohe Interpretierbarkeit von Clustern erfordern und skizzieren das Problem der Clusterbildung mit interpretierbaren und rekonfigurierbaren Clustermodellen. Wir entwickeln zwei Clustering-Algorithmen mit dem skizzierten Ziel interpretierbare und rekonfigurierbare Clustermodelle zu erstellen. Sie generieren Cluster mit zugehörigen Regeln, die sich aus Bedingungen für Wortvorkommen oder Nichtvorkommen zusammensetzen. Die vorgeschlagenen Ansätze variieren in der Komplexität des Formats der Regeln, RGC verwendet Disjunktionen und Konjunktionen bei der Regelgenerierung, während RGC-D-Regeln einfache Disjunktionen von Bedingungen sind, die das Vorhandensein verschiedener Wörter anzeigen. In beiden Fällen besteht jeder Cluster aus genau der Menge von Dokumenten, die die entsprechende Regel erfüllen. Regeln der letztgenannten Art sind leicht zu interpretieren, während die erstere zu einer genaueren Clusterbildung führt. Wir zeigen, dass unsere Ansätze sowohl den unüberwachten Entscheidungsbaum-Ansatz für regelgenerierendes Clustering als auch einen von uns bereitgestellten Ansatz zur Generierung interpretierbarer Modelle für allgemeine Clusterings mit deutlichen Margen übertreffen. Wir zeigen empirisch, dass die Reinheits- und f-Messverluste, um eine Interpretierbarkeit zu erreichen, unter Verwendung der hier vorgestellten Algorithmen nur 3 bzw. 5% betragen können.;-;-;-;https://link.springer.com/article/10.1007/s10115-011-0446-9 9b9d7986a95e5d6ca63f3feb54bc77a4;de;;;7.2.;7.4.;;ATLRec: Ein aufmerksames konträres Lernnetzwerk für domänenübergreifende Empfehlungen Entity Linking ist eine neue Technik in Empfehlungssystemen, um das Interaktionsverhalten von Benutzern in verschiedenen Domänen zu verknüpfen, um die Leistung der Empfehlungsaufgabe zu verbessern. Verknüpfungsbasierte domänenübergreifende Empfehlung zielt darauf ab, das Problem der Datenknappheit zu lindern, indem das domänenteilbare Wissen aus Hilfsdomänen genutzt wird. Bestehende Verfahren verhindern jedoch nicht, dass domänenspezifische Merkmale übertragen werden, was zu suboptimalen Ergebnissen führt. In diesem Papier wollen wir dieses Problem angehen, indem wir ein auf kontradiktorischem Transferlernen basierendes ATLRec-Modell vorschlagen, das effektiv domänenteilbare Funktionen für domänenübergreifende Empfehlungen erfasst. In ATLRec nutzen wir kontradiktorisches Lernen, um Darstellungen von Benutzer-Item-Interaktionen sowohl in der Quell- als auch in der Zieldomäne zu generieren, sodass der Diskriminator nicht identifizieren kann, zu welcher Domäne sie gehören, um domänenteilbare Merkmale zu erhalten. Währenddessen lernt jede Domäne ihre domänenspezifischen Merkmale durch einen privaten Merkmalsextraktor. Die Empfehlung jeder Domäne berücksichtigt sowohl domänenspezifische als auch domänenübergreifende Funktionen. Wir verwenden außerdem einen Aufmerksamkeitsmechanismus, um latente Item-Faktoren beider Domänen zu lernen, indem wir die geteilten Benutzer mit Interaktionshistorie verwenden, so dass die Darstellungen aller Items in einem geteilten Raum ausreichend gelernt werden können, selbst wenn wenige oder gar keine Items von verschiedenen geteilt werden Domänen. Mit dieser Methode können wir alle Elemente aus der Quell- und Zieldomäne in einem gemeinsamen Raum darstellen, um Elemente in verschiedenen Domänen besser zu verknüpfen und domänenübergreifende Element-Element-Beziehungen zu erfassen, um das Erlernen von domänenübergreifendem Wissen zu erleichtern. Das vorgeschlagene Modell wird an verschiedenen realen Datensätzen evaluiert und zeigt, dass es mehrere hochmoderne Einzeldomänen- und domänenübergreifende Empfehlungsmethoden in Bezug auf die Empfehlungsgenauigkeit übertrifft.;-;-;-;https://link.springer.com/article/10.1007/s11390-020-0314-8 30fadf84a2e8e3b037408a25196e9dc2;de;;;7.2.;7.4.;;Satzkomprimierung durch Nachrichtenschlagzeile für die Anzeige auf kleinen Geräten Eine automatische Dokumentenzusammenfassung ist eine der wesentlichen Techniken zur Anzeige auf kleinen Geräten wie Mobiltelefonen und anderen Handheld-Geräten. Die meisten Forschungen zur automatischen Dokumentenzusammenfassung haben sich auf die Extraktion von Sätzen konzentriert. Als Zusammenfassung extrahierte Sätze sind so lang, dass selbst eine Zusammenfassung in einem kleinen Gerät nicht einfach angezeigt werden kann. Daher ist das Komprimieren von Sätzen praktisch hilfreich für die Anzeige auf einem kleinen Gerät. In diesem Beitrag stellen wir ein Pilotsystem vor, das automatisch einen koreanischen Satz komprimieren kann, indem das Wissen aus Nachrichtenartikeln und ihren Schlagzeilen verwendet wird. Ein von unserem System erzeugter komprimierter Satz ähnelt einer Schlagzeile von Nachrichtenartikeln und kann daher eine der kürzesten Formen sein, die die Kernbedeutung eines ursprünglichen Satzes bewahren. Unser Verdichtungssystem hat sich in einem Vorversuch als vielversprechend erwiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-31871-2_6 e27ee8139e0c2fcdb2e0d6385bb614df;de;;;7.2.;7.4.;;Ungefähre Erkennung von Dokumentausreißern mit zufälliger Spektralprojektion Ausreißererkennung ist ein wichtiger Prozess für Textdokumentsammlungen, aber wenn die Sammlung wächst, wird der Erkennungsprozess zu einer rechenintensiven Aufgabe. Es hat sich gezeigt, dass die Zufallsprojektion eine gute schnelle Annäherung von spärlichen Daten, wie beispielsweise Dokumentvektoren, für die Ausreißererkennung liefert. Es hat sich gezeigt, dass die Zufallsstichproben des Fourier- und Kosinusspektrums gute Näherungen von spärlichen Daten liefern, wenn Dokumentclustering durchgeführt wird. In diesem Artikel untersuchen wir den Nutzen der Verwendung dieser zufälligen Fourier- und Cosinus-Spektralprojektionen zur Erkennung von Dokumentausreißern. Wir zeigen, dass Zufallsstichproben des Fourier-Spektrums für die Ausreißererkennung im Vergleich zur Zufallsprojektion eine bessere Genauigkeit bieten und weniger Speicherplatz benötigen. Wir zeigen auch, dass Zufallsstichproben des Kosinusspektrums für die Ausreißererkennung im Vergleich zur Zufallsprojektion eine ähnliche Genauigkeit und Rechenzeit bieten, aber viel weniger Speicherplatz benötigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35101-3_49 35ab7224c5feed9775a34521316765ea;de;;;7.2.;7.4.;;Mensch-Computer-Interaktion und Wissensentdeckung (HCI-KDD): Was ist der Vorteil der Zusammenarbeit dieser beiden Bereiche? Eine große Herausforderung in unserer vernetzten Welt sind die steigenden Datenmengen, die effiziente und benutzerfreundliche Lösungen erfordern. Ein aktuelles Beispiel ist der biomedizinische Bereich: Der Trend zur personalisierten Medizin hat zu einer schieren Masse der generierten (-omics) Daten geführt. Im Bereich Life Sciences zeichnen sich die meisten Datenmodelle durch Komplexität aus, was eine manuelle Analyse sehr zeitaufwendig und häufig praktisch unmöglich macht. Rechenmethoden können helfen, aber wir müssen anerkennen, dass das Problemlösungswissen im menschlichen Verstand und nicht in Maschinen verortet ist. Ein strategisches Ziel, Lösungen für datenintensive Probleme zu finden, könnte in der Kombination zweier Bereiche liegen, die ideale Voraussetzungen mitbringen: Human-Computer Interaction (HCI) und Knowledge Discovery (KDD). Das HCI beschäftigt sich mit Fragen der menschlichen Wahrnehmung, Kognition, Intelligenz, Entscheidungsfindung und interaktiven Visualisierungstechniken und konzentriert sich daher hauptsächlich auf überwachte Methoden. KDD beschäftigt sich hauptsächlich mit Fragen der maschinellen Intelligenz und des Data Mining, insbesondere mit der Entwicklung skalierbarer Algorithmen zum Auffinden bisher unbekannter Zusammenhänge in Daten, setzt also auf automatische Rechenverfahren. Ein vielleicht fälschlicherweise Albert Einstein zugeschriebenes Sprichwort illustriert dies perfekt: „Computer sind unglaublich schnell, genau, aber dumm. Menschen sind unglaublich langsam, ungenau, aber brillant. Zusammen können sie über jede Vorstellungskraft hinaus mächtig sein.“ Folglich besteht ein neuer Ansatz darin, HCI & KDD zu kombinieren, um die menschliche Intelligenz durch Computerintelligenz zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40511-2_22 369c70be58e79b6fa067526910499ba7;de;;;7.2.;7.4.;;Ein effizientes konzeptbasiertes Suchmodell zur Verbesserung der Textsuchqualität text Die meisten gängigen Techniken zur Textsuche basieren auf statistischen Analysebegriffen (Wörtern oder Phrasen). Die statistische Analyse der Begriffshäufigkeit erfasst nur die Bedeutung des Begriffs innerhalb eines Dokuments. Um eine genauere Analyse zu erzielen, sollte das zugrunde liegende Modell daher Begriffe angeben, die die Semantik von Text erfassen. In diesem Fall kann das Modell Begriffe erfassen, die die Konzepte des Satzes darstellen, was dazu führt, das Thema des Dokuments zu entdecken. In diesem Beitrag wird ein neues konzeptbasiertes Retrievalmodell vorgestellt. Das vorgeschlagene konzeptbasierte Abrufmodell besteht aus einer konzeptionellen ontologischen Graphendarstellung (COG) und einem konzeptbasierten Gewichtungsschema. Die COG-Darstellung erfasst die semantische Struktur jedes Begriffs innerhalb eines Satzes. Dann werden alle Begriffe entsprechend ihrem Beitrag zur Bedeutung des Satzes in die COG-Darstellung eingefügt. Die konzeptbasierte Gewichtung analysiert Begriffe auf Satz- und Dokumentebene. Dies unterscheidet sich vom klassischen Ansatz, Begriffe nur auf Dokumentebene zu analysieren. Die gewichteten Begriffe werden dann in eine Rangfolge gebracht, und die Top-Konzepte werden verwendet, um einen konzeptbasierten Dokumentenindex für die Textsuche zu erstellen. Das konzeptbasierte Abrufmodell kann effektiv zwischen unwichtigen Begriffen in Bezug auf die Satzsemantik und Begriffen unterscheiden, die die Konzepte darstellen, die die Satzbedeutung erfassen. Es werden Experimente mit dem vorgeschlagenen konzeptbasierten Retrievalmodell an verschiedenen Datensätzen im Textretrieval durchgeführt. Die Experimente liefern einen Vergleich zwischen traditionellen Ansätzen und dem konzeptbasierten Retrievalmodell, das durch den kombinierten Ansatz des konzeptionellen ontologischen Graphen und des konzeptbasierten Gewichtungsschemas erhalten wird. Die Bewertung der Ergebnisse erfolgt anhand von drei Qualitätsmaßen, dem Präferenzmaß (bpref), der Präzision bei 10 abgerufenen Dokumenten (P(10)) und der mittleren uninterpolierten durchschnittlichen Präzision (MAP). Alle diese Qualitätsmaße werden verbessert, wenn das neu entwickelte konzeptbasierte Suchmodell verwendet wird, was bestätigt, dass ein solches Modell die Qualität der Textsuche verbessert.;-;-;-;https://link.springer.com/article/10.1007/s10115-012-0504-y aca94950cee4518cf748703402479062;de;;;7.2.;7.4.;;Automatisierte Klassifikation und Kategorisierung von mathematischem Wissen Es gibt ein allgemeines System zur Fächerklassifizierung (MSC) der Mathematik, das zur Kategorisierung von mathematischen Arbeiten und Wissen verwendet wird. Wir präsentieren Ergebnisse des maschinellen Lernens des MSC an Volltexten von Arbeiten in den mathematischen digitalen Bibliotheken DML-CZ und NUMDAM. Das F1-Maß, das bei der Klassifizierungsaufgabe der MSC-Kategorien der obersten Ebene erreicht wurde, übersteigt 89%. Wir beschreiben und evaluieren unsere Methoden zur Messung der Ähnlichkeit von Arbeiten in der Digitalen Bibliothek anhand von Papiervolltexten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85110-3_44 e72eaa6e3d13c93aa9651255f83848ab;de;;;7.2.;7.4.;;Internationaler Workshop zu Algorithmic Bias in Search and Recommendation (Bias 2020) Sowohl Such- als auch Empfehlungsalgorithmen liefern Ergebnisse basierend auf ihrer Relevanz für den aktuellen Benutzer. Um dies zu tun, wird eine solche Relevanz normalerweise durch Modelle berechnet, die auf historischen Daten trainiert wurden, was in den meisten Fällen verzerrt ist. Daher verbreiten und verstärken die von diesen Algorithmen erzeugten Ergebnisse auf natürliche Weise in den Daten verborgene Verzerrungen und verstärken folglich Ungleichheiten. In der Lage zu sein, diese Verzerrungen zu messen, zu charakterisieren und zu mindern und gleichzeitig eine hohe Effektivität beizubehalten, ist ein Thema von zentralem Interesse für die Information Retrieval Community. In diesem Workshop möchten wir neue Beiträge zu diesem aufstrebenden Gebiet sammeln und interessierten Forschern und Praktikern eine gemeinsame Basis bieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-45442-5_84 adf121bdbe75abd8817a5c82711a8211;de;;;7.2.;7.4.;;Ein hybrider Ansatz zur Verbesserung der Vorhersageabdeckung kollaborativer Filter In diesem Artikel stellen wir einen hybriden Filteralgorithmus vor, der versucht, mit geringer Vorhersageabdeckung umzugehen, einem Problem, das insbesondere bei dünn besetzten Datensätzen auftritt. Wir konzentrieren uns auf Item HyCoV, eine Implementierung des vorgeschlagenen Ansatzes, die einen zusätzlichen benutzerbasierten Schritt zum elementbasierten Algorithmus enthält, um den möglichen Beitrag von Benutzern ähnlich dem aktiven Benutzer zu berücksichtigen. Es wurde eine Reihe von Experimenten durchgeführt, um den vorgeschlagenen Ansatz hinsichtlich Abdeckung und Genauigkeit zu bewerten. Die Ergebnisse zeigen, dass Item HyCov beide Performance-Maßnahmen deutlich verbessert, da keine zusätzlichen Daten und nur minimale Änderungen an bestehenden Filtersystemen erforderlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-0221-4_57 289090223db695324b1490a84d49cb6f;de;;;7.2.;7.4.;;Der zerlegte K-Nearest Neighbor-Algorithmus für die unausgeglichene Textklassifizierung Da Textdaten exponentiell zugenommen haben, besteht der Schwerpunkt auf der Notwendigkeit einer automatischen Klassifizierung relevanter Daten in eine der vordefinierten Klassen. In vielen praktischen Anwendungen gehen sie davon aus, dass die Trainingsdaten gleichmäßig auf alle Klassen verteilt sind, leiden jedoch an einem unausgewogenen Problem. Mehrere Algorithmen und Resampling-Methoden wurden vorgeschlagen, um ein unausgeglichenes Problem zu überwinden, aber sie sehen sich immer noch der Überanpassung und fehlenden Informationen gegenüber. Dieses Papier schlägt den zerlegten K-Nearest Neighbor (DCM-KNN) vor. Im Trainingsschritt zerlegt das DCM-KNN Trainingsdaten in fehlklassifizierte und korrekt klassifizierte Datensätze basierend auf dem Ergebnis des traditionellen KNN und findet für jeden Satz den passenden KNN. Im Testschritt schätzt das DCM-KNN, ob Testdaten einem falsch klassifizierten und korrekt klassifizierten Datensatz ähnlich sind, und wendet die entsprechenden KNNs an. Experimentelle Ergebnisse zeigen, dass der vorgeschlagene Algorithmus in einem unausgeglichenen Zustand genauere Ergebnisse erzielen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35585-1_12 523afb8ffdc61b236eaabff086150d83;de;;;7.2.;7.4.;;Co-Clustering der zeitlichen Beziehungen in direktionalen sozialen Netzwerken und der Entwicklung von Autorenthemen Die Analyse von Drei-Wege-Daten hat in letzter Zeit viel Aufmerksamkeit auf sich gezogen, da solche Daten intrinsisch reiche Strukturen aufweisen und natürlich in vielen realen Anwendungen vorkommen. Ein typischer Typ von Drei-Wege-Daten sind mehrere Zwei-Wege-Daten/Matrizen mit unterschiedlichen Zeiträumen, z. Wir schlagen vor, das PARATUCKER-Modell zur Analyse von Drei-Wege-Daten zu verwenden. Das PARATUCKER-Modell kombiniert die Achsenfähigkeiten des Parafac-Modells und die strukturelle Allgemeingültigkeit des Tucker-Modells und kann somit als Kombination von Tucker und Parafac angesehen werden. Es erfordert weder die Symmetrie der Daten noch die gleiche Dimensionalität von Modus 1 und Modus 2. Es wurden jedoch keine Algorithmen entwickelt, um das PARATUCKER-Modell anzupassen, insbesondere um nicht-negative Lösungen zu erhalten, die intuitiv zu verstehen und zu erklären sind. In diesem Papier schlagen wir vor;-;-;-;https://link.springer.com/article/10.1007/s10115-010-0289-9 7cb113d15bd72292788cf06e460456d2;de;;;7.2.;7.4.;;ListOPT: Optimieren für XML-Ranking lernen Viele Klassifikationstechnologien des maschinellen Lernens wie Boosting, Support Vector Machine oder neuronale Netze wurden auf das Ranking-Problem beim Informationsabruf angewendet. Da der Zweck dieser Learning-to-Rank-Methoden jedoch darin besteht, die sortierten Ergebnisse anhand der Merkmale von Dokumenten direkt zu erfassen, können sie die bewährten Ranking-Methoden wie BM25 und PageRank nicht kombinieren und nutzen. Um diesen Fehler zu beheben, haben wir eine Studie zum Learning-to-Optimieren durchgeführt, das heißt, ein Lernmodell oder eine Methode zur Optimierung der freien Parameter in Rankingfunktionen zu konstruieren. Dieses Papier schlägt einen listenweisen Lernprozess zum Optimieren ListOPT vor und stellt drei alternative differenzierbare Verlustfunktionen auf Abfrageebene vor. Die experimentellen Ergebnisse des XML-Datensatzes von Wikipedia English zeigen, dass diese Ansätze erfolgreich auf das Tuning der Parameter angewendet werden können, die in einer bestehenden häufig zitierten Rankingfunktion BM25 verwendet werden. Darüber hinaus haben wir festgestellt, dass die Formeln mit optimierten Parametern die Wirksamkeit im Vergleich zu den Originalrezepturen tatsächlich verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20847-8_40 d5e3733af38cdf4120e92eba6c7f8065;de;;;7.2.;7.4.;;Lernen von Mustern aus Daten durch einen evolutionär-fuzzy-Ansatz Es gibt verschiedene Techniken für Data Mining und Datenanalyse. Unter ihnen gewinnen hybride Ansätze, die zwei oder mehr Algorithmen kombinieren, an Bedeutung, da die Komplexität und Dimension von realen Datensätzen wächst. In diesem Beitrag stellen wir eine Anwendung der evolutionären Fuzzy-Klassifikationstechnik auf das Data Mining vor. Genetische Programmierung wird eingesetzt, um einen Fuzzy-Klassifikator zu entwickeln, der einen Satz anomaler Muster in Daten beschreibt, und der Klassifikator wird weiter verwendet, um die Produktion fehlerhafter Produkte zu verhindern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19644-7_14 752ca7426a7bdeedfdf86e4a2f3b9374;de;;;7.2.;7.4.;;Data Mining von Vektor-Element-Mustern mit Nachbarschaftshistogrammen Die Darstellung mehrerer kontinuierlicher Attribute als Dimensionen in einem Vektorraum gehört zu den einflussreichsten Konzepten im maschinellen Lernen und im Data Mining. Wir betrachten Sätze zusammenhängender kontinuierlicher Attribute als Vektordaten und suchen nach Mustern, die ein Vektorattribut mit einem oder mehreren Elementen in Beziehung setzen. Das Vorhandensein einer Elementmenge definiert eine Teilmenge von Vektoren, die unerwartete Dichteschwankungen aufweisen können oder nicht. Wir testen auf Fluktuationen, indem wir Dichtehistogramme studieren. Ein Vektor-Element-Muster wird als signifikant angesehen, wenn sein Dichtehistogramm signifikant von dem abweicht, was für eine zufällige Teilmenge von Transaktionen erwartet wird. Mit zwei unterschiedlichen Dichtemaßen evaluieren wir den Algorithmus an zwei realen Datensätzen und einem, der künstlich aus Zeitreihendaten konstruiert wurde.;-;-;-;https://link.springer.com/article/10.1007/s10115-009-0201-7 aa188a2e056df283eba98fb326fcf4be;de;;;7.2.;7.4.;;Vorläufige Bewertung von Discovered-Rule-Filtering-Methoden Data-Mining-Systeme entdecken halbautomatisch Wissen, indem sie große Datenmengen untersuchen, aber das so entdeckte Wissen ist für Benutzer nicht immer neu. Wir stellen einen Ansatz zur Filterung von entdeckten Regeln vor, der Ergebnisse des Informationsabrufs aus dem Internet verwendet, um durch Data Mining entdeckte Regeln zu bewerten und diejenigen zu finden, die für den Benutzer neu sind. Um diesen Ansatz zu implementieren, erstellen wir 2 Methoden: die Micro-View-Methode und die Macro-View-Methode. Bei der Mikroansichtsmethode extrahieren wir Schlüsselwörter aus einer entdeckten Regel und ordnen die Regel in Bezug auf die Anzahl der zurückgegebenen Treffer, wenn die Schlüsselwörter an eine geeignete Datenbank übermittelt werden. Bei der Makroansichtsmethode rufen wir zuerst Dokumente ab, indem wir jedes Paar extrahierter Schlüsselwörter übermitteln und dann entsprechend den Ergebnissen Schlüsselwortcluster bilden. Wir evaluierten die Methoden, indem wir einen Fragebogen an Medizinstudenten verschickten und die MEDLINE-Datenbank als Internetquelle nutzten. Die Auswertung zeigt, dass die Makro-View-Methode vielversprechend ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71009-7_47 6823dd723d4359f6db1bbb69d3ae39e1;de;;;7.2.;7.4.;;Vom Text zum Wissen: Dokumentenverarbeitung und Visualisierung: ein Text-Mining-Ansatz Die Dokumentenverarbeitung und Visualisierung wurde als eines der Schlüsselthemen im Bereich Text Mining identifiziert. Aus diesem Grund wurde im Projekt NEMIS die Arbeitsgruppe WG1 geschaffen. In den von ihr abgedeckten Bereichen trägt diese Arbeitsgruppe zur Erstellung einer Roadmap für Folgeforschung und technologische Entwicklung im Text Mining bei, was das übergeordnete Ziel des NEMIS-Projekts ist. In den Bereichen Dokumentenverarbeitung und Visualisierung wurden relevante Forschungsthemen identifiziert. Eine Analyse der zugehörigen State-of-the-Art-Techniken und State-of-the-Software-Tools wurde durchgeführt. Die Ergebnisse dieser Analyse werden präsentiert, um die Diskussion anzuregen und zu einer gemeinsamen Verbesserung der Roadmap-Inhalte beizutragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45219-5_2 c4dc9fafdd682be595df48fd58f57871;de;;;7.2.;7.4.;;Machine Learning Ranking und INEX’05’ Wir präsentieren ein auf maschinellem Lernen basierendes Ranking-Modell, das seine Parameter mithilfe eines Trainingssatzes kommentierter Beispiele, bestehend aus Abfragen und Relevanzbeurteilungen einer Teilmenge der Dokumentelemente, automatisch lernen kann. Unser Modell verbessert die Leistung eines Basis-Informationsabrufsystems, indem es ein Rankingverlustkriterium optimiert und aus Doxeln und ihrem lokalen strukturellen Kontext berechnete Scores kombiniert. Wir analysieren die Leistung unseres Algorithmus bei CO-fokussierten und CO-durchgehenden Aufgaben und vergleichen sie mit dem Basismodell, das eine Anpassung von Okapi an Structured Information Retrieval ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-34963-1_25 c113bd0d2c55f7180b058ca18efb0544;de;;;7.2.;7.4.;;Erkennen von Mustern von Musiksignalen zur Klassifizierung von Songs mit einem modifizierten AIS-basierten Klassifikator Die menschlichen Fähigkeiten, verschiedene Musikarten zu erkennen und sie in Genre-Kategorien zu gruppieren, sind so bemerkenswert, dass Musikexperten eine solche Klassifizierung mithilfe ihres Gehörs und ihrer logischen Urteilskraft vornehmen können. Seit Jahrzehnten beschäftigt sich die wissenschaftliche Gemeinschaft mit der Forschung, um den menschlichen Prozess der Erkennung von Liedergenres zu automatisieren. Diese Bemühungen würden normalerweise die menschliche Methode des Erkennens der Musik nachahmen, indem alle wesentlichen Komponenten der Lieder von der Stimme des Künstlers über die Melodie der Musik bis hin zur Art der verwendeten Instrumente berücksichtigt werden. Als Ergebnis werden verschiedene Ansätze oder Mechanismen vorgestellt und entwickelt, um den Klassifizierungsprozess zu automatisieren. Die bisherigen Ergebnisse dieser Studien sind bemerkenswert, können aber noch verbessert werden. Das Ziel dieser Forschung ist es, den Bereich des künstlichen Immunsystems (AIS) zu untersuchen, indem man sich auf den modifizierten AIS-basierten Klassifikator konzentriert, um dieses Problem zu lösen, wobei der Schwerpunkt auf den Zensur- und Überwachungsmodulen liegt. In diesem Highlight werden Phasen der Musikerkennung hervorgehoben, in denen Merkmalsextraktions-, Merkmalsauswahl- und Merkmalsklassifizierungsprozesse erklärt werden. Der Leistungsvergleich zwischen dem vorgeschlagenen Klassifikator und der WEKA-Anwendung wird diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22191-0_64 d056079dc265dffe4d58022797fed7ba;de;;;7.2.;7.4.;;Wortpaarrelevanzmodellierung mit neuronalem Aufmerksamkeitsmechanismus mit mehreren Ansichten zur Satzausrichtung Die Satzausrichtung bietet mehrsprachige oder mehrsprachige Anwendungen zur Verarbeitung natürlicher Sprache (NLP) mit hochwertigen parallelen Satzpaaren. Normalerweise enthält ein ausgerichtetes Satzpaar mehrere ausgerichtete Wörter, die bei der Satzausrichtung intuitiv unterschiedliche Rollen spielen. Inspiriert von dieser Intuition schlagen wir vor, das Problem der Satzausrichtung durch die Untersuchung der semantischen Interaktion zwischen feinkörnigen Wortpaaren im Rahmen eines neuronalen Netzes zu behandeln. Insbesondere verwenden wir zunächst verschiedene Relevanzmaße, um verschiedene Arten semantischer Interaktionen zwischen Wortpaaren mithilfe eines Wortpaar-Relevanznetzwerks zu erfassen, und modellieren dann ihre Bedeutung mithilfe eines Multi-View-Aufmerksamkeitsnetzwerks. Experimentelle Ergebnisse sowohl zu monotonen als auch zu nicht monotonen Bitexten zeigen, dass unser vorgeschlagener Ansatz die Leistung der Satzausrichtung signifikant verbessert.;-;-;-;https://link.springer.com/article/10.1007/s11390-020-9331-x 74db4d2b0969dcc403cb52afd498f7ac;de;;;7.2.;7.4.;;Merkmalsauswahl höherer Ordnung für die Textklassifizierung In diesem Papier. präsentieren wir die MIFS-C-Variante der Mutual Information Feature-Selection-Algorithmen. Wir präsentieren einen Algorithmus, um den optimalen Wert des Redundanzparameters zu finden, der ein Schlüsselparameter in den Algorithmen des MIFS-Typs ist. Darüber hinaus stellen wir einen Algorithmus vor, der die Ausführungszeit aller MIFS-Varianten beschleunigt. Insgesamt hat das vorgestellte MIFS-C eine vergleichbare Klassifikationsgenauigkeit (teilweise sogar besser) im Vergleich zu anderen MIFS-Algorithmen bei schnellerer Laufzeit. Wir haben diesen Feature-Selektor mit anderen Feature-Selektoren verglichen und festgestellt, dass er in den meisten Fällen besser funktioniert. Der MIFS-C schnitt besonders gut zum Break-Even ab und;-;-;-;https://link.springer.com/article/10.1007/s10115-005-0209-6 4061f82119efb9d1ec07969fc0615887;de;;;7.2.;7.4.;;Generatives modellbasiertes Dokumentenclustering: eine vergleichende Studie Dieses Papier präsentiert eine detaillierte empirische Studie von 12 generativen Ansätzen zum Textclustering, die durch Anwendung von vier Arten von Dokument-zu-Cluster-Zuweisungsstrategien (harte, stochastische, weiche und deterministische Zuweisungen (DA)) auf jedes der drei Basismodelle nämlich Mischungen aus multivariaten Bernoulli-, Multinomial- und von Mises-Fisher (vMF)-Verteilungen. Eine Vielzahl von Textsammlungen, sowohl mit als auch ohne Merkmalsauswahl, werden für die Studie verwendet, die mehrere Erkenntnisse liefert, einschließlich (a) das Aufzeigen von Situationen, in denen die vMF-zentrierten Ansätze, die auf Richtungsstatistiken basieren, besser abschneiden als das multinomiale Modell -basierte Verfahren und (b) Quantifizieren des Kompromisses zwischen erhöhter Leistung der Soft- und DA-Zuweisungen und ihren erhöhten Rechenanforderungen. Außerdem vergleichen wir alle modellbasierten Algorithmen mit zwei hochmodernen diskriminativen Ansätzen zum Dokumentenclustering, die jeweils auf Graphpartitionierung (CLUTO) und einer spektralen Coclustering-Methode basieren. Insgesamt schneiden DA und CLUTO am besten ab, sind aber auch am rechenintensivsten. Die vMF-Modelle bieten eine gute Leistung zu geringen Kosten, während der spektrale Coclustering-Algorithmus für die meisten Datensätze schlechter abschneidet als vMF-basierte Methoden.;-;-;-;https://link.springer.com/article/10.1007/s10115-004-0194-1 19929e3b0c304dd2ddb96d7c23bf311c;de;;;7.2.;7.4.;;Modellierung der zeitlichen Dynamik des Kaufverhaltens von Benutzern für die Vorhersage des nächsten Einkaufskorbs Die nächste Warenkorbvorhersage versucht, Benutzern basierend auf einer Abfolge der vorherigen Einkäufe des Benutzers sequenzielle Empfehlungen zu geben. Im Idealfall sollte ein gutes Vorhersagemodell in der Lage sein, die personalisierte Präferenz der Benutzer sowie die sequentiellen Beziehungen der Items zu untersuchen. Dieses Ziel der Modellierung wird noch anspruchsvoller, wenn beide Faktoren zeitabhängig sind. Bestehende Verfahren betrachten diese beiden Aspekte jedoch entweder als statisch oder berücksichtigen nur die zeitliche Dynamik für einen der beiden Aspekte. In dieser Arbeit schlagen wir den dynamischen Repräsentationslernansatz für die zeitabhängige nächste Korbempfehlung vor, der gemeinsam die dynamische Natur von Benutzerpräferenzen und Artikelbeziehungen modelliert. Dazu modellieren wir explizit die Transaktionszeitstempel sowie die dynamische Darstellung von Benutzern und Artikeln, um die personalisierte Benutzerpräferenz für jeden einzelnen Artikel dynamisch zu erfassen. Experimente mit drei realen Einzelhandelsdatensätzen zeigen, dass unsere Methode mehrere hochmoderne Methoden für die nächste Warenkorbempfehlung deutlich übertrifft.;-;-;-;https://link.springer.com/article/10.1007/s11390-019-1972-2 fd0eeed59342aeddf488e6565248b696;de;;;7.2.;7.4.;;Leistungsvorhersage für Qualitätsempfehlungen Im Fokus der Arbeiten im Bereich des kollaborativen Filterns steht weiterhin vor allem die Vorhersagegenauigkeit als Maß für die Qualität der Systeme. Andere Qualitätsmaßstäbe dieser Systeme wurden untersucht, jedoch nicht in gleichem Maße. Die in diesem Kapitel beschriebene Arbeit betrachtet Qualität aus der Perspektive der Leistungsprognose. Pro Benutzer wird die Leistung eines kollaborativen Filtersystems basierend auf durch einen maschinellen Lernansatz gelernten Regeln vorhergesagt. Die skizzierten Experimente zielen darauf ab, anhand von drei verschiedenen Datensätzen erstens die Regeln zur Leistungsvorhersage zu lernen und zweitens die Genauigkeit der erstellten Regeln zu testen. Die Ergebnisse zeigen, dass für alle drei Datensätze eine gute Leistungsvorhersagegenauigkeit gefunden werden kann. Die Arbeit geht nicht zu weit von der Idee der Vorhersagegenauigkeit als Qualitätsmaßstab ab, betrachtet die Vorhersagegenauigkeit jedoch aus einer anderen Perspektive, nämlich der Vorhersage der Leistung eines kollaborativen Filtersystems pro Benutzer vor der Empfehlung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37688-7_3 d5e0caf2a06e4f01147d48b869961527;de;;;7.2.;7.4.;;Approximationsräume, Reduktionen und Repräsentanten Das Hauptziel dieses Kapitels besteht darin, verschiedene Ansätze zur Suche nach optimalen Approximationsräumen zu diskutieren. Grundlegende Begriffe zum Grobsatzkonzept basierend auf verallgemeinerter Approximation spaced werden vorgestellt. Es werden verschiedene Konstruktionen von Näherungsräumen beschrieben. Die Probleme der Attribut- und Objektauswahl werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-1883-3_6 7e384b79c6279d5529ecfdf40ba71080;de;;;7.2.;7.4.;;Verbesserte N-Gramm-Extraktion mit Relevanzmerkmalserkennung Die Qualität von extrahierten Merkmalen zu garantieren, die Benutzern oder Themen relevantes Wissen beschreiben, ist aufgrund der großen Anzahl extrahierter Merkmale eine Herausforderung. Die meisten populären existierenden begriffsbasierten Merkmalsauswahlverfahren leiden unter einer verrauschten Merkmalsextraktion, die für die Benutzerbedürfnisse irrelevant ist (verrauscht). Eine beliebte Methode ist das Extrahieren von Phrasen oder;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03680-9_46 f179776eac73e41bd2402cc52de2770f;de;;;7.2.;7.4.;;Ein vielversprechender Ansatz zum Erlernen des Rankings mithilfe von SVD mit teilweise gekennzeichneten Daten Das Erlernen von Rankings ist zu einem heißen Thema in der Community des Information Retrieval geworden. Es kombiniert die Relevanzbeurteilungsinformationen mit den Ansätzen sowohl des Informationsabrufs als auch des maschinellen Lernens, um eine genauere Ranking-Funktion für den Abruf zu lernen. Die meisten früheren Ansätze verlassen sich nur auf die bereitgestellten gekennzeichneten Relevanzinformationen und leiden somit unter der begrenzten verfügbaren Trainingsdatengröße. In diesem Papier versuchen wir, die Singular Value Decomposition (SVD) zu verwenden, um den unbeschrifteten Datensatz zu verwenden, um neue Merkmalsvektoren zu extrahieren, die dann in ein RankBoost-Lern-Framework eingebettet werden. Wir vergleichen experimentell die Leistung unseres Ansatzes damit, ohne neue von SVD generierte Funktionen zu integrieren. Die experimentellen Ergebnisse zeigen, dass unser Ansatz die Abrufleistung über mehrere LETOR-Datensätze hinweg konsistent verbessern kann, was die Wirksamkeit neuer SVD-generierter Funktionen zum Erlernen der Ranking-Funktion anzeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04769-5_29 aa5c8a63633c37e1201d8d13dbadc9e3;de;;;7.2.;7.4.;;Fragenbeantwortung von Anwaltsprüfungen durch Paraphrasierung und juristische Textanalyse Unser System zur Beantwortung von Rechtsfragen kombiniert das Abrufen von rechtlichen Informationen und die Textauslegung und nutzt die Paraphrasierung und Analyse auf Satzebene von Anfragen und Gesetzestexten. Wir haben unser System anhand der Trainingsdaten des Wettbewerbs zur Gewinnung von Rechtsinformationen (COLIEE)-2016 evaluiert. Der Wettbewerb konzentriert sich auf die rechtliche Informationsverarbeitung, die erforderlich ist, um Ja/Nein-Fragen aus japanischen Anwaltsprüfungen zu beantworten, und besteht aus drei Phasen: rechtliche Ad-hoc-Informationsabfrage (Phase 1), Texteinbindung (Phase 2) und eine Kombination aus Informationsbeschaffung und Textbindung (Phase 3). Phase 1 erfordert die Identifizierung von Artikeln zum japanischen Zivilrecht, die für eine juristische Anwaltsprüfungsabfrage relevant sind. Für diese Phase haben wir einen Information Retrieval-Ansatz unter Verwendung von TF-IDF und einer Ranking-SVM verwendet. Phase 2 erfordert die Entscheidung über eine Ja/Nein-Antwort für zuvor nicht gesehene Anfragen, an die wir herangehen, indem wir die ungefähre Bedeutung von Anfragen mit relevanten Artikeln vergleichen. Unser Bedeutungsextraktionsprozess verwendet eine Auswahl von Merkmalen basierend auf einer Art Paraphrase, gekoppelt mit einer Zustands-/Schlussfolgerungs-/Ausnahmeanalyse von Artikeln und Abfragen. Wir identifizieren auch Synonymbeziehungen durch Worteinbettung und erkennen Negationsmuster aus den Artikeln. Unsere heuristische Auswahl von Attributen wird verwendet, um ein SVM-Modell aufzubauen, das die Grundlage für das Ranking einer Entscheidung über die Ja/Nein-Fragen liefert. Experimentelle Auswertungen zeigen, dass unsere Methode bisherige Methoden übertrifft. Unser Ergebnis belegte den höchsten Platz in Phase 3 des COLIEE-2016-Wettbewerbs.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-61572-1_20 d2070b660d2744edbf36c1139670b7c4;de;;;7.2.;7.4.;;Ein Klassifizierungsmodell basierend auf unvollständigen Informationen über Merkmale in Form ihrer Durchschnittswerte average Dieser Beitrag stellt ein Modell der Klassifikation unter unvollständiger Information in Form mathematischer Erwartungshaltungen von Merkmalen vor, das auf der Minimax-(Minimin-)Strategie der Entscheidungsfindung basiert. Die Diskriminanzfunktion wird durch Maximierung (Minimierung) des Risikofunktionals als Maß für die Fehlklassifizierung, durch einen Satz von Wahrscheinlichkeitsverteilungen mit durch Informationen über Merkmale bestimmten Grenzen und durch Minimierung durch den Satz von Parametern berechnet. Der Algorithmus wird auf die Lösung des parametrischen Problems der linearen Programmierung reduziert.;-;-;-;https://link.springer.com/article/10.3103/S0147688212060068 c07c0decd89dc1c6054c57fb0eb09e38;de;;;7.2.;7.4.;;Verwendung linguistischer Informationen und Techniken des maschinellen Lernens zur Identifizierung von Entitäten aus juristischen Dokumenten Die Informationsextraktion aus juristischen Dokumenten ist ein wichtiges und offenes Problem. In diesem Papier wird ein gemischter Ansatz beschrieben, der linguistische Informationen und maschinelle Lerntechniken verwendet. Bei diesem Ansatz werden rechtliche Konzepte der obersten Ebene identifiziert und für die Dokumentenklassifizierung mithilfe von Support Vector Machines verwendet. Benannte Entitäten, wie beispielsweise Standorte, Organisationen, Daten und Dokumentverweise, werden unter Verwendung semantischer Informationen aus der Ausgabe eines Parsers in natürlicher Sprache identifiziert. Diese Informationen, Rechtskonzepte und benannten Entitäten können verwendet werden, um eine einfache Ontologie zu erstellen, die die Anreicherung von Dokumenten und die Erstellung von Systemen zum Abrufen von Rechtsinformationen auf hoher Ebene ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12837-0_3 c217c70cd22491600c563eec761bef9d;de;;;7.2.;7.4.;;Subspace-Lernen mit mehreren Funktionen über Sparse Correlation Fusion und Embedding Subraum-Lernen ist am traditionellsten und wichtigsten in der Multimedia-Analyse. Zahlreiche Forschungen haben sich darauf konzentriert, wie maschinelles Lernen und statistische Methoden zum semantischen Verständnis und zur Rauschunterdrückung in das multimediale Subraum-Lernen eingeführt werden können, und haben bemerkenswerte Erfolge in verschiedenen Multimedia-Anwendungen erzielt, wie z. die meisten dieser Forschungen basieren auf multimedialen Daten einzelner Modalitäten. Heutzutage, mit der rasanten Entwicklung der Multimedia- und Informationstechnologie, existieren Multimediadaten verschiedener Modalitäten oft nebeneinander, und das Vorhandensein des einen wirkt sich in gewissem Maße komplementär auf das andere aus. Da verschiedene Multimediadaten üblicherweise mit heterogenen Low-Level-Merkmalen dargestellt werden und es die bekannte semantische Lücke gibt, ist es interessant und herausfordernd, Multimedia-Semantik durch Multi-Merkmals-Unterraumlernen verschiedener Modalitäten zu erlernen. In diesem Artikel analysieren wir die kanonische Korrelation zwischen Merkmalsmatrizen verschiedener Multimediadaten, konstruieren einen isomorphen dünnbesetzten Multi-Feature-Unterraum Korrelation. Unser Algorithmus wurde auf inhaltsbasierte multimodale Abfrage und Datenklassifizierung angewendet. Umfangreiche Experimente haben die Überlegenheit unserer Methode gegenüber mehreren bestehenden Algorithmen gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03731-8_55 5b8e1132fde50fd8cab0106c550ab36f;de;;;7.2.;7.4.;;Inhalt + Attribute: Ein Latent Factor Model zur Empfehlung wissenschaftlicher Arbeiten in heterogenen akademischen Netzwerken Dieser Beitrag konzentriert sich auf die präzise Empfehlung von wissenschaftlichen Arbeiten in akademischen Netzwerken, in denen die soziale Struktur der Nutzer, Inhalte und Eigenschaften von Gegenständen vorhanden sind und umfassend genutzt werden müssen. Anders als bei herkömmlichen kollaborativen Filterfällen mit nur einer User-Item-Nutzen-Matrix untersuchen wir das Standardmodell der latenten Faktoren und erweitern es auf ein heterogenes Modell, das die Interaktion verschiedener Arten von Informationen modelliert. Dieses latente Modell heißt „Content + Attributes“, das latente Themen und beschreibende Attribute unter Verwendung probabilistischer Matrixfaktorisierung und Themenmodellierung umfasst, um die endgültigen Empfehlungsergebnisse in heterogenen Szenarien zu ermitteln. Darüber hinaus schlagen wir eine Lösung vor, um das Kaltstartproblem neuer Benutzer durch die Übernahme sozialer Strukturen zu bewältigen. Wir führen umfangreiche Experimente mit dem DBLP-Datensatz durch und die experimentellen Ergebnisse zeigen, dass unser vorgeschlagenes Modell die Basismethoden übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06028-6_4 9e5b93cbd4ab21c60dd7eb89e6830a4e;de;;;7.2.;7.4.;;Bewertungs- und Empfehlungsmethoden basierend auf dem Graphenmodell Evaluation und Empfehlung sind unterschiedliche Maßnahmen, aber sie sind konsistent beim Mining und der effizienten und effektiven Nutzung von Informationen, um ihre Überzeugungskraft und Genauigkeit zu verbessern. Aus Sicht der Informationsverarbeitung baut die Arbeit ein zweidimensionales Graphenmodell auf, das die Beziehungen zwischen Evaluatoren und Objekten ausdrückt. Dieses Graphenmodell spiegelt die Originalinformationen von Bewertungs- oder Empfehlungssystemen wider und hat die entsprechende Matrixform. Als nächstes kann das Prinzip der Matrixprojektion angewendet werden, um den Bewertungs- oder Empfehlungsvektor durch Lösen der Matrixmaximierungsprobleme zu erhalten. Darüber hinaus wird ein Bewertungsdatensatz des Online-Umzugs ausgewählt, um das Modell und die Methode zu verifizieren. Zusammenfassend ergibt sich aus der Beispielanalyse, dass die vorgeschlagene Bewertungsmethode sinnvoll ist, und aus dem numerischen experimentellen Vergleich erweist sich die vorgeschlagene Empfehlungsmethode als zeitsparend und genauer als die allgemein üblichen Empfehlungsmethoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23605-1_26 619ec020d507856076aa4accde253b58;de;;;3.5.;7.4.;;Digitaler Assistent zur Unterstützung des Bankkundenservice Digitale Assistenten liegen in den meisten Branchen im Trend. Obwohl es vor einigen Jahren in die Bankenbranche eindrang, ist das Konzept im srilankischen Bankenkontext noch neu. Ein Chat-Bot verbessert die Kundenzufriedenheit, indem er Lösungen für Kunden bereitstellt, indem er die am meisten bevorzugte Benutzerinteraktionsmethode namens Chat-Anwendung als Lösung für die normalerweise ineffizienten, zeitraubenden Prozesse verwendet, die in Callcentern befolgt werden. Das vorgeschlagene System ist ein Frage-Antwort-System, das es Kunden erleichtert, ihre alltäglichen bankbezogenen Fragen zu lösen. Das System bietet Antworten auf eine Reihe von häufig gestellten Fragen (FAQ) im Zusammenhang mit dem Bankenbereich. Kundenanfragen werden mithilfe natürlicher Sprachverarbeitungstechniken extrahiert und konvertiert, die vom System verstanden werden. Es formuliert und präsentiert eine geeignete Antwort unter Verwendung eines Satzes vorkonfigurierter Vorlagen, die sich auf die in einer Wissensdatenbank gespeicherte Antwort beziehen. Wissen wird in Form einer Ontologie dargestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9129-3_13 14ac6591e5fc52be13c207fc52343ace;de;;;3.5.;7.4.;;Ein neuartiges Framework zur künstlichen intelligenten Erkennung geologischer Gefahren durch umfassende Fernerkundung Nationale Berichte über den wirtschaftlichen Gesamtverlust geologischer Gefahren zeigen, dass Erdrutsche schwerwiegende negative wirtschaftliche Auswirkungen haben, insbesondere im Südwesten Chinas. Die meisten geologischen Gefahren sind weit verbreitet, stark verdeckt, abrupt und verheerend, was die Erkennung von Erdrutschen im Frühstadium vor größere Herausforderungen stellt. Die Erkennung langsamer Erdrutschbewegungen und die Vorhersage der Neigung von Erdrutschen in Berggebieten haben ein großes Potenzial für die Krisengebietsbestimmung, Gefahrenabwehr und den Personenschutz. Dementsprechend schlagen wir in dieser Studie zunächst einen neuartigen Rahmen für die künstliche intelligente Erdrutscherkennung über eine umfassende Fernerkundungstechnik aus InSAR und hochauflösenden Fernerkundungsbildern vor. Anschließend wird ausführlich beschrieben, wie eine Hintergrunddatenbank mit typischen Elementen erstellt wird, indem Beispiel-Unterdatenbanken nach vielseitigen Datenmerkmalen kategorisiert werden. Darüber hinaus wurde eine Reihe relevanter Schlüsseltechniken von Bedeutung, darunter heterogene Datenfusion, objektorientierte Erkennung von Oberflächenbedeckungsänderungen und intelligente umfassende Identifizierung versteckter Geogefahren, gründlich untersucht. Das neue Framework wurde in Jinsha River, China, erfolgreich angewendet und verifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3947-3_35 4e232fb193c769d4ba24391f8049ece7;de;;;3.5.;7.4.;;Eine auf maschinellem Lernen basierende Methodik für das codelose Testen von Websystemen mit Selenium Das Testen von Websystemen ist ein entscheidender Softwareentwicklungszyklus. Obwohl es einen echten Bedarf für das Testen dieser komplexen Systeme gibt, erfordert es jedoch oft spezifische Fähigkeiten im Testen und/oder in der technischen Programmierung. Zudem sind die Lebenszyklen von Websystemen heute sehr dynamisch. Sie werden häufig modifiziert, aktualisiert, integrieren neue Daten, Links, Widgets usw. Daher müssen auch die Testprozesse und Skripte für diese Systeme modifiziert werden, was sehr zeit- und ressourcenintensiv sein kann. Basierend auf diesem Kontext zielt dieses Papier darauf ab, diese Voraussetzungen und Einschränkungen für Tester zu reduzieren, indem ein codeloses Testautomatisierungs-Framework vorgeschlagen wird. Unser Ansatz basiert auf Selenium und einer maschinellen Lerntechnik, um generische Testskripte vorzuschlagen, die automatisch auf die getesteten Anwendungsfälle abgestimmt werden können. Es werden Experimente bereitgestellt, die zu relevanten Ergebnissen führen, die den Erfolg unserer Methodik belegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-83007-6_9 6e11902e52a7bd0b56a8056bdb8e4d40;de;;;3.5.;7.4.;;Vorhersage der Song-Popularität mithilfe von Konzepten des maschinellen Lernens Musik spielt eine wesentliche Rolle für das Wohlbefinden vieler Menschen. Es kann therapeutisch, motivierend und sogar verbindend sein. Allerdings hat nicht jeder Song die Kraft, große Gruppen von Menschen zu vereinen und sie ihre Unterschiede vergessen zu lassen. Jedes Lied, das von den Musikschaffenden und der Masse allgemein anerkannt wird, muss bestimmte Merkmale haben, die ähnlich sind. Das Ziel dieser Arbeit ist es, vorherzusagen, ob ein Lied anhand von Merkmalen und Attributen dieses Liedes, die durch maschinelles Lernen quantifiziert werden können, universell erkannt wird. Die Techniken, die die beste Genauigkeit bieten, werden vorgestellt. Die Anwendung findet Verwendung beim Abspielen relevanter Lieder zur Sammlung und Verbesserung der Stimmung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0336-5_4 2b411adc94bd7619ea5a8f5ea290a7d3;de;;;3.5.;7.4.;;Erkennung von DDoS-Angriffen in IoT-Netzwerken mithilfe von Deep-Learning-Modellen in Kombination mit Random Forest als Funktionsauswahl Aufgrund der großen Fortschritte und Finessen in der Technologie haben die Bereiche Internet und Kommunikation einen bahnbrechenden Durchbruch erlebt, indem sie sich in „Dinge“ integriert haben, die als Ergebnis vernetzte Systeme geschaffen und einem einzigen Gerät mehrere Dienstprogramme gegeben haben. Aber durch die Digitalisierung von Technologien und immer online und vernetzten Funktionen werden sie anfälliger für Cyberangriffe, vor allem aufgrund der weit verbreiteten Distributed Denial of Services (DDoS)-Angriffe. Da DDoS-Angriffe mehrere Agenten erzeugen, um ein Opfernetzwerk anzugreifen, bieten die immer verbundenen Internet of Things (IoT)-Geräte, die über verschiedene Kommunikationsprotokolle kommunizieren, die perfekte Plattform für solche Angriffe und diese Art von Angriffen nimmt von Tag zu Tag zu. Daher muss das Aufkommen eines effizienten und hochpräzisen Modells zur Erkennung von DDoS-Angriffen angegangen werden. Motiviert durch die zunehmende Anzahl von DDoS-Angriffen, die Anfälligkeit von IoT-Geräten gegenüber solchen Angriffen und um diese Situation zu bewältigen, wurden zwei Deep-Learning-basierte Modelle vorgeschlagen. Die Modelle basieren auf der Kombination von Random Forest als Feature-Selektor und 1D Convolutional Neural Network und Multilayer Perceptron Methoden zur Erkennung von DDoS-Angriffen. Das Hauptziel der vorgeschlagenen Modelle ist es, DDoS-Angriffe genau und so früh wie möglich zu erkennen. Die Modelle wurden anhand des CICIDS2017-Datensatzes evaluiert, was zu einer hohen Genauigkeit von 99,63 % beim RF-1DCNN und 99,58 % beim RF-MLP-Modell führte.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6835-4_8 d2854962424a4a596292ff2562caafd7;de;;;3.5.;7.4.;;Zellsegmentierung in histopathologischen Bildern mit Deep-Learning-Algorithmen unter Nutzung räumlicher Beziehungen Bei vielen computergestützten Verfahren zur Zelldetektion, -segmentierung und -klassifikation in der digitalen Histopathologie, die in letzter Zeit aufgetaucht sind, bleibt die Aufgabe der Zellsegmentierung ein Hauptproblem für die Bildverarbeitung beim Entwurf computergestützter Diagnose-(CAD)-Systeme. In der Krebsforschung und -diagnostik können Pathologen CAD-Systeme als Zweitleser nutzen, um hochauflösende histopathologische Bilder zu analysieren. Da die Zellerkennung und -segmentierung für die Beurteilung des Krebsgrades von entscheidender Bedeutung sind, sollten zelluläre und extrazelluläre Strukturen in erster Linie aus histopathologischen Bildern extrahiert werden. Als Reaktion darauf versuchten wir, mit histopathologischen Bildern einen nützlichen Zellsegmentierungsansatz zu identifizieren, der nicht nur bekannte Deep-Learning-Algorithmen (dh Convolutional Neural Networks, Stacked Autoencoder und Deep Belief Networks) verwendet, sondern auch räumliche Beziehungen, deren Informationen entscheidend sind für bessere Ergebnisse bei der Zellsegmentierung zu erzielen. Zu diesem Zweck sammelten wir zelluläre und extrazelluläre Proben aus histopathologischen Bildern, indem wir in kleinen Flecken unterschiedlicher Größe Fenster zeigten. In Experimenten verbesserten sich die Segmentierungsgenauigkeiten der verwendeten Verfahren mit zunehmender Fenstergröße aufgrund der Hinzufügung lokaler räumlicher und kontextbezogener Informationen. Nachdem wir die Auswirkungen der Trainingsstichprobengröße und des Einflusses der Fenstergröße verglichen hatten, zeigten die Ergebnisse, dass die Deep-Learning-Algorithmen, insbesondere konvolutionelle neuronale Netze und teilweise gestapelte Autoencoder, bei der Zellsegmentierung besser abschneiden als herkömmliche Methoden.;-;-;-;https://link.springer.com/article/10.1007/s11517-017-1630-1 d1ab396d8ee5c6bb08bdc12b7a5e5c73;de;;;3.5.;7.4.;;Eine operative Deep-Learning-Pipeline zur Klassifizierung von Lebensereignissen aus einzelnen Tweets Wir präsentieren hier eine operative Deep-Learning-Pipeline zur Klassifizierung von Lebensereignissen aus einzelnen Tweets, wobei der Verlust von Arbeitsplätzen als Anwendungsfall und Twitter-Daten verwendet werden, die zwischen 2010 und 2013 gesammelt wurden (historische Stichprobe aus dem öffentlichen Stream). Die Pipeline umfasst die Identifizierung von Schlüsselwörtern durch Schneeball-Sampling, manuelle Annotation mit mehreren Bewertern, überwachtes Deep Learning, Textverarbeitung (Worteinbettung, Wortschatz) und Architekturauswahl (Faltung, flache und breite Faltung und Langzeit-Kurzzeitgedächtnis). mit Parameteroptimierung, externer Validierung und Feedback-Lernen. Nach der Modelloptimierung erreichte ein flaches und breites Netzwerk mit einem vortrainierten 200-dimensionalen word2vec eine Genauigkeit von 78% (über einer durchschnittlichen Einzelschlüsselwortgenauigkeit von 50%) und eine Fläche unter der Empfängerbetriebscharakteristik von 86%. Präzision und Erinnerungsvermögen stiegen auch um 5 % durch die Verwendung von Wörtern. Beim Testen von Tweets mit mehrdeutigen Anmerkungen (d. h. Tweets, die für menschliche Kommentatoren schwer zu klassifizieren waren) erreichte das Netzwerk eine Genauigkeit von 65 %. Schließlich wurden bei einer zufälligen Reihe von Tweets, die keines der schneeballartigen Schlüsselwörter enthielten, 30% als Ereignisse zum Verlust des Arbeitsplatzes eingestuft. Diese vermeintlich falsch positive Menge kann verwendet werden, um das Training des Lernenden zu verstärken. Zusammenfassend lässt sich sagen, dass die Pipeline sowohl den manuellen als auch den automatisierten Prozess rationalisiert, indem sie Feedbackverstärkung (Snowballing und externe Tweets) bietet und eine gute Leistung bei der Klassifizierung einzelner Tweets im Anwendungsfall zeigt, wodurch möglicherweise Personal eingespart wird, das für die Sammlung solcher Daten für Forschungsstudien erforderlich ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-11680-4_7 98c82c7713e38e4f4c61aa63c9a00394;de;;;3.5.;7.4.;;Kombination von Techniken des maschinellen Lernens und der Verarbeitung natürlicher Sprache, um Emotionen mithilfe des spanischen Twitter-Korpus abzuleiten In den letzten Jahren haben sich Microblogging-Dienste wie Twitter zu einem beliebten Instrument entwickelt, um Gefühle und Meinungen auszudrücken, Nachrichten zu verbreiten und mit Freunden zu kommunizieren. Twitter-Nutzer produzierten täglich mehr als 340 Millionen Tweets, die als reichhaltige Quelle für Nutzerinformationen angesehen werden können. Wir gehen das Problem überwacht an, nutzen aber vorhandene Hashtags in Twitter, um unsere Trainingsdaten zu erstellen. Schließlich haben wir den spanischen Emotionskorpus getestet, indem wir zwei verschiedene maschinelle Lernalgorithmen zur Emotionsidentifikation mit einer Genauigkeit von etwa 65 % angewendet haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38061-7_15 aa45747de9b54c0ccb7349a57d65fecb;de;;;3.5.;7.4.;;Deep Learning für Predictive Analytics im Gesundheitswesen Trotz der jüngsten Fülle von Daten und Informationen fehlt es dem Gesundheitswesen an verwertbarem Wissen. Die Gesundheitsbranche steht vor Herausforderungen in wesentlichen Bereichen wie der elektronischen Aktenverwaltung, der Datenintegration sowie der computergestützten Diagnose und Krankheitsvorhersage. Es ist notwendig, die Gesundheitskosten und die Entwicklung hin zu einer personalisierten Gesundheitsversorgung zu senken. Die schnell expandierenden Bereiche Deep Learning und Predictive Analytics haben begonnen, eine zentrale Rolle bei der Entwicklung großer Mengen von Gesundheitsdatenpraktiken und -forschung zu spielen. Deep Learning bietet eine breite Palette von Tools, Techniken und Frameworks, um diese Herausforderungen zu bewältigen. Die prädiktive Analyse von Gesundheitsdaten entwickelt sich zu einem transformativen Werkzeug, das proaktivere und präventivere Behandlungsoptionen ermöglichen kann. Kurz gesagt, dieser Artikel konzentriert sich auf den Rahmen für die Deep-Learning-Datenanalyse zur klinischen Entscheidungsfindung und zeigt die Studie zu verschiedenen Deep-Learning-Techniken und -Tools in der Praxis sowie die Anwendungen von Deep Learning im Gesundheitswesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-14118-9_4 f3d8b081704f716e3e98f9fb09a9e56e;de;;;3.5.;7.4.;;Alice: Ein universelles Framework für virtuelle Assistenten In diesem Papier wird ein virtuelles Assistenten-Framework namens Alice vorgestellt. Dieser virtuelle Assistent ist eine Kombination aus 3D-Avatar, Gesichtserkennung, Gesichtserkennung und Gesichtsausdruckserkennung mit einem Sprachassistenten, der Amazons Alexa ähnelt. Der 3D-Avatar (Alice) ist eine weibliche Figur, die mit Unity animiert wurde, und die Lippe wird animiert, um sich mit der Sprache zu synchronisieren, damit sie wie Sprechen aussieht. Außerdem kann der 3D-Avatar verschiedene Gesichtsausdrücke wie fröhlich, traurig und aufgebracht darstellen. Die Gesichtserkennung und -erkennung macht das System auf die Identität des menschlichen Benutzers aufmerksam. Dagegen ermöglicht die Gesichtsausdruckerkennung dem System, den Gesichtsausdruck des menschlichen Benutzers zu erkennen. Immer wenn eine Frage gestellt wird, verwendet das System das Speech-to-Text-System, um menschliche Sprache in Text umzuwandeln, und Natural Language Processing, um die Absicht hinter dem Text zu interpretieren. Basierend auf dem Ergebnis der Interpretation entscheidet das System, welche Audiodatei als Antwort verwendet werden soll. Dann wird eine realistische künstliche Stimme als Reaktion auf den menschlichen Benutzer erzeugt. Das System kann basierend auf der Identität des Benutzers auf die Datenbank zugreifen, um Informationen über diesen Benutzer abzurufen. Dies kann eine personalisierte Erfahrung für den menschlichen Benutzer schaffen. Dieses Framework kann für andere Anwendungen für verschiedene Bereiche angepasst werden. Für dieses Alice-Framework wurden zwei Anwendungen entwickelt, nämlich ein Chatbot zur Beantwortung von Fragen und ein Kundendienstmitarbeiter.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4069-5_31 6fdb3a05a47d1133e5c94ef23514bd0f;de;;;3.4.;7.4.;;Cloud-basiertes Management von durch maschinelles Lernen generiertem Wissen zur Verfeinerung von Flottendaten Data Die modernen mobilen Maschinen verfügen über fortschrittliche Bordcomputersysteme. Sie können verschiedene Arten von Anwendungen ausführen, die den Maschinenbetrieb basierend auf Sensordaten beobachten (wie zum Beispiel Feedback-Generatoren für einen effizienteren Betrieb). Die Messdatennutzung erfordert eine Vorverarbeitung vor der Verwendung (z. B. Ausreißererkennung oder Datensatzkategorisierung). Da immer mehr Daten aus dem Maschinenbetrieb gesammelt werden, können mit Datenanalysen bessere Erkenntnisse zur Datenvorverarbeitung generiert werden. Um dieses Wissen wiederholt auf Maschinen im Betrieb anwenden zu können, muss das Informationsmanagement berücksichtigt werden, was insbesondere bei geografisch verteilten Flotten eine Herausforderung darstellt. Diese Studie betrachtet sowohl das Datenverfeinerungsmanagement als auch den für die Datennutzung erforderlichen Verfeinerungsworkflow. Die Rolle des maschinellen Lernens bei der Wissensgenerierung durch Datenverfeinerung wird ebenfalls berücksichtigt. Ein funktionsfähiger Prototyp einer Cloud-verwalteten Datenverfeinerungskomponente wurde implementiert und ein Experiment mit Forstdaten durchgeführt. Die Ergebnisse zeigen, dass das Konzept erhebliches Geschäftspotenzial hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99701-8_13 93c6b608e2404546fd94ff6f0d6ea292;de;;;3.4.;7.4.;;Data Mining in der Marktsegmentierung: Eine Literaturübersicht und Vorschläge Die Bedeutung von Data-Mining-Techniken für die Marktsegmentierung wird im Bereich der Marktforschung unverzichtbar. Dies ist die erste identifizierte wissenschaftliche Literaturrecherche der verfügbaren Data-Mining-Techniken im Zusammenhang mit der Marktsegmentierung. Dieses Forschungspapier bietet einen Überblick über die verfügbare Literatur zu Data-Mining-Techniken in der Marktsegmentierung. Basierend auf den verfügbaren Data-Mining-Techniken, die bei der Marktsegmentierung verwendet werden, wurde eine Kategorisierung bereitgestellt. Acht Online-Zeitschriftendatenbanken wurden für die Suche verwendet, und schließlich wurden 103 Artikel ausgewählt und anhand von Data-Mining-Techniken in 13 Gruppen kategorisiert. Die Nützlichkeit von Data-Mining-Techniken und -Vorschläge werden ebenfalls diskutiert. Die Ergebnisse dieser Studie zeigen, dass neuronale Netze die am häufigsten verwendete Methode und Kernel-basierte Methoden die vielversprechendsten Data-Mining-Techniken sind. Unsere Forschungsarbeit bietet ein umfassendes Verständnis vergangener, gegenwärtiger und zukünftiger Forschungstrends zu Data-Mining-Techniken in der Marktsegmentierung. Wir hoffen, dass dieses Papier sowohl der Industrie als auch akademischen Forschern einen vernünftigen Einblick und ein klares Verständnis bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-81-322-2217-0_8 73b07e573cc193b0ddac45f52732a9a3;de;;;3.4.;7.4.;;Bessere Ansprache von Verbrauchern: Modellierung von multifaktoriellem Geschlecht und biologischem Geschlecht aus Instagram-Posts Zusammen mit dem schnell zunehmenden Einfluss und der Bedeutung von Werbung und Werbung in sozialen Netzwerkdiensten (SNS) werden erhebliche Anstrengungen unternommen, um durch das Verständnis von SNS-Inhalten benutzerindividuelle Dienste bereitzustellen. Es wurden auch Studien zu Online-Kaufmustern auf der Grundlage von Benutzerattributen durchgeführt, die jedoch entweder nur experimentelle Methoden (z. B. Umfragen oder ethnografische Konten) oder einfache Benutzerattribute (z . Dieses Papier identifiziert durch Interviews mit professionellen Vermarktern deren Bedürfnisse, multifaktorielle SNS-Benutzermerkmale (potenzielle Kunden) – Geschlecht (d. Basierend auf 33.752 Instagram-Posts entwickeln wir ein auf Deep Learning basierendes Klassifizierungsmodell, das mit drei Modalitäten zusammengeführt wird – Bild (dh VGG16-Funktion und -Geste), Text (dh Sprache, Tag, Satz und Kategorie) und Aktivität (dh Antwort und Tag). Unser Modell erzielt eine bessere Leistung bei der Klassifizierung von drei Geschlechtstypen in den Fällen männlich, weiblich und männlich + weiblich als die traditionellen Modelle des maschinellen Lernens. Unsere Studienergebnisse zeigen die Anwendbarkeit der Identifizierung von Geschlechtsmerkmalen aus Stellen im Marketingbereich.;-;-;-;https://link.springer.com/article/10.1007/s11257-020-09260-w ed34e4498680def0d46cb50408202432;de;;;3.4.;7.4.;;Kombination von Machine Learning und Operations Research-Methoden zur Förderung der Projektmanagementpraxis Projektmanagement ist eine komplexe Praxis, die mit einer Reihe von Herausforderungen verbunden ist, wie z Projekte und Unternehmensziele. Traditionell basieren Methoden und Werkzeuge zur Bewältigung dieser Probleme auf analytischen Ansätzen, die im Bereich der Disziplin Operations Research entwickelt wurden. Mit dem Ziel, die Qualität der Projektmanagementpraxis zu erleichtern und zu verbessern, schlägt dieses Papier einen hybriden Ansatz vor, der auf der Synergie zwischen modernen Techniken des maschinellen Lernens und des Operations Research aufbaut. Basierend auf Daten aus der Vergangenheit können Machine-Learning-Techniken unerwünschte Situationen vorhersagen, rechtzeitig warnen und vorbeugende Maßnahmen bei problematischer Ressourcenbelastung oder Abweichungen von Geschäftsprioritätenlisten empfehlen. Die Anwendbarkeit unseres Ansatzes wird anhand von zwei realen Beispielen demonstriert, die zwei verschiedene Datensätze ausarbeiten. In diesen Beispielen kommentieren wir die richtige Orchestrierung der zugehörigen Operations Research- und Machine Learning-Algorithmen, wobei sowohl Optimierungs- als auch Big-Data-Manipulationsfragen gleichermaßen berücksichtigt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37584-3_7 cf042771efd1294628de116f2d78c21d;de;;;3.4.;7.4.;;Forschung zur Vorhersagemethode für Telekommunikationskundenabwanderung basierend auf Data Mining Mit dem Ziel, die Unzulänglichkeiten gängiger Abwanderungsvorhersagemodelle für Telekommunikationskunden als Einzelmodell und schlechte Klassifikationsleistung zu überwinden, wird ein Vorhersagemodell für ein Gradientenentscheidungsbaum-Integrationsmodell (GBDT) vorgeschlagen, und die wichtigen Parameter werden durch einen harmonischen Suchalgorithmus (HS) gesucht. Wir haben ein Vorhersagemodell für die Abwanderung von Telekommunikationskunden erstellt, das auf dem HS-GBDT-Algorithmus basiert. Dieses Modell vergleicht die im GBDT-Algorithmus zu optimierenden Parameterkombinationen mit der synthetisierten Harmonie im HS-Algorithmus und sucht die optimale Parameterkombination des GBDT-Modells durch kontinuierliche Iteration der Harmonie. Die experimentellen Ergebnisse zeigen, dass das kombinierte Modell eine höhere Klassifikationsgenauigkeit als logistische Regression, Support Vector Machine und Random Forest aufweist und große Telekommunikationsbetreiber im Prozess des Kundenabwanderungsmanagements eine gute Entscheidungsunterstützung bieten kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1377-0_38 4f0ba21682dbc0a51fa7905f202c3841;de;;;3.4.;7.4.;;Untergruppen-Discovery-Algorithmen: Eine Umfrage und empirische Auswertung Untergruppenerkennung ist eine Data-Mining-Technik, die interessante Assoziationen zwischen verschiedenen Variablen in Bezug auf eine interessierende Eigenschaft entdeckt. Bestehende Methoden zur Erkennung von Untergruppen verwenden unterschiedliche Strategien zum Suchen, Bereinigen und Einordnen von Untergruppen. Es ist sehr wichtig zu erfahren, welche Merkmale eines Untergruppen-Erkennungsalgorithmus für die Generierung von Qualitätsuntergruppen berücksichtigt werden sollten. In diesem Zusammenhang wurde eine Reihe von Überprüfungen zur Entdeckung von Untergruppen durchgeführt. Obwohl sie einen breiten Überblick über einige beliebte Subgruppen-Entdeckungsmethoden bieten, verwenden sie nur wenige Datensätze und Maßnahmen zur Subgruppenbewertung. Angesichts der bestehenden Maßnahmen können die Teilkonzerne nicht aus allen Perspektiven bewertet werden. Unsere Arbeit führt eine umfassende Analyse einiger populärer Subgruppen-Entdeckungsmethoden durch, indem wir eine breite Palette von Datensätzen verwenden und neue Maßnahmen zur Subgruppenbewertung definieren. Das Analyseergebnis wird dazu beitragen, die wichtigsten Methoden zur Erkennung von Untergruppen zu verstehen, Lücken für weitere Verbesserungen aufzudecken und die geeignete Kategorie von Algorithmen für bestimmte Anwendungsdomänen auszuwählen.;-;-;-;https://link.springer.com/article/10.1007/s11390-016-1647-1 0e9cf995b256a06a1707c39ea5cf0db7;de;;;3.4.;7.4.;;Abschätzung der Entwicklungskosten für intelligente Systeme In diesem Kapitel schlagen wir verschiedene Schätztechniken zur Vorhersage der Funktionalität und Produktivität vor, die für die Entwicklung einer intelligenten Systemanwendung erforderlich sind. Die betrachteten Techniken sind analogiebasierte Schätzung, Klassifikationsbäume, Regelinduktion und Bayessche Glaubensnetze. Es werden Abschätzungsergebnisse jeder Technik diskutiert und mehrere Schlussfolgerungen zu den Methoden, der Plattform und den Sprachen gezogen, die für die Entwicklung intelligenter Systeme verwendet werden. Der für die Analyse verwendete Datensatz ist der öffentlich zugängliche ISBSG-Datensatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77471-6_3 a34e6983e6c70f39c23d33886c6f0e84;de;;;3.4.;7.4.;;Beat the Streak: Vorhersage von MLB-Basistreffern mit maschinellem Lernen Da sich die Welt des Sports auf ein nie dagewesenes Niveau ausdehnt, wächst auch der Bedarf an Tools, die Organisationen und Interessengruppen materielle Vorteile bieten. Ziel dieses Projekts ist die Entwicklung eines Vorhersagemodells, das die Wahrscheinlichkeit vorhersagen kann, mit der ein Baseballspieler an einem bestimmten Tag einen Basistreffer erzielt. Verwenden Sie anschließend diese Informationen, um beide eine faire Chance auf den Gewinn des Spiels zu haben;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-66196-0_6 1c96473f6426e23c3e6af7535db7f61f;de;;;3.4.;7.4.;;Vorhersage der neurologischen Verschlechterung von Patienten mit leichter traumatischer Hirnverletzung durch maschinelles Lernen Eine mögliche neurologische Verschlechterung (ND) von Patienten mit Schädel-Hirn-Trauma (SHT) ist schwer zu erkennen, insbesondere bei leichten und mittelschweren Verletzungen. Wenn ND auftritt, sind Tod oder lebenslange Behinderung weit verbreitet. Eine frühzeitige Vorhersage einer möglichen ND würde es medizinischen und Gesundheitseinrichtungen ermöglichen, die erforderliche medizinische Behandlung bereitzustellen. Dieses Papier präsentiert die Ergebnisse, die zeigen, dass maschinelles Lernen (ML) verwendet werden kann, um prädikative Modelle mit hohen Vorhersageraten zu erstellen, selbst bei einer kleinen Anzahl von Patientenakten (219 Patientenakten mit 54 Variablen). Aus den Patientenakten wurden 20 randomisierte Datensätze mit Vorbedingungen zu den Test- und Trainingsdaten erstellt und ausgewählten künstlichen neuronalen Netzen (ANN) und Klassifikationsalgorithmen zugeführt. Voraussetzungen für Test- und Trainingsdaten können die Vorhersagemodelle beeinflussen, die von den verschiedenen Algorithmen erstellt werden. Die besten Vorhersagemodelle, die von den KNN-Algorithmen (mehrschichtiges Perzeptron (MLP), rekurrentes neuronales Netz (RNN) und langes Kurzzeitgedächtnis (LSTM)) und zwei Klassifikationsalgorithmen (lineare Regression und logistische Regressionsalgorithmen) erstellt wurden, werden als akzeptabel angesehen und könnten als medizinische Entscheidungshilfe verwendet werden, um Patienten zu identifizieren, die möglicherweise eine ND haben. Eine frühzeitige Vorhersage einer möglichen ND eines Patienten kann jetzt einfach durchgeführt werden, sobald seine Aufzeichnungen und medizinischen Testergebnisse vorliegen und mit den 54 für die Vorhersage benötigten Variablen übereinstimmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1960-4_14 1cadf41276c7d5912dbe3fd0c846e2b2;de;;;3.4.;7.4.;;Vergleiche von ADABOOST, KNN, SVM und logistische Regression bei der Klassifizierung von unausgewogenen Datensätzen Data-Mining-Klassifizierungstechniken werden durch das Vorhandensein von Ungleichgewichten zwischen den Klassen einer Antwortvariablen beeinflusst. Die Schwierigkeit bei der Handhabung des Problems der unausgewogenen Daten hat zu einem Zustrom von Methoden geführt, die entweder das Problem des Ungleichgewichts auf Daten- oder algorithmischer Ebene lösen. Die Programmiersprache R ist eines der vielen Tools, die für das Data Mining verfügbar sind. Dieses Papier vergleicht einige Klassifikationsalgorithmen in R für einen unausgeglichenen medizinischen Datensatz. Auf die ursprünglichen, zufälligen Oversampling- und Undersampling-Datensätze wurden die Klassifikatoren ADABOOST, KNN, SVM-RBF und logistische Regression angewendet. Die Ergebnisse zeigen, dass ADABOOST, KNN und SVM-RBF eine Überanpassung aufweisen, wenn sie auf den ursprünglichen Datensatz angewendet werden. Keine Überanpassung tritt für den zufälligen Oversampling-Datensatz auf, bei dem SVM-RBF die höchste Genauigkeit (Training: 91,5%, Test: 90,6%), Sensitivität (Training: 91,0%, Test: 91,0%), Spezifität (Training: 92,0%, Testing .) hat : 90,2%) und Präzision (Training: 91,9%, Testing 90,5%) für Trainings- und Testdatensatz. Bei zufälliger Unterabtastung tritt keine Überanpassung nur bei ADABOOST und der logistischen Regression auf. Die logistische Regression ist der stabilste Klassifikator, der konsistente Trainings- und Testergebnisse zeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-287-936-3_6 619ebe15180bcdb310c7b7bb1fec02f7;de;;;3.4.;7.4.;;Data-Mining-Methoden zur Beschreibung von Karriereverläufen der Bundesregierung und zur Vorhersage der Trennung von Mitarbeitern Employee Data-Mining-Methoden können auf Personaldatensätze angewendet werden, um Erkenntnisse darüber zu gewinnen, wie Mitarbeiter ihre Karriere gestalten. Wir untersuchen zwei Elemente von Karriereverläufen in HR-Daten der Bundesregierung. Zunächst wenden wir Assoziationsregelmining und Sequential Pattern Mining an, um die Prävalenz und Richtung von abteilungsübergreifenden Transfers zu verstehen. Dann wenden wir logistische Regression und Entscheidungsbauminduktion an, um die Trennung von Mitarbeitern zu verstehen und vorherzusagen. In diesem speziellen Antrag stellen wir fest, dass Versetzungen zwischen den Dienststellen selten sind, außer zwischen den Streitkräften und aus diesen Zweigen an das Verteidigungsministerium. Wir stellen auch fest, dass Demografie, Vergütung und politische Veränderungen wichtige Faktoren für die Bindung sind, aber nur einen kleinen Teil der Wahrscheinlichkeit ausmachen, dass ein Bundesangestellter aus dem Dienst ausscheidet. Wir erwarten, dass diese Methoden in der Industrie mit einer kleinen Menge zusätzlicher Daten, die bei Einstellungs- und Austrittsgesprächen gesammelt werden, besser funktionieren würden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-04726-9_9 f05c71c8e4cfe0032ac22213ddbfa04b;de;;;3.4.;7.4.;;Data Mining mit aus SVM extrahierten Regeln: Eine Anwendung zur Churn-Vorhersage bei Bankkreditkarten In dieser Arbeit wird ein eklektisches Verfahren zur Regelextraktion aus der Support Vector Machine vorgeschlagen, bei dem Tree unter Verwendung von Naive Bayes Tree (NBTree) generiert wird, was zu dem SVM + NBTree-Hybrid führt. Der in diesem Papier analysierte Datensatz befasst sich mit der Abwanderungsvorhersage bei Bankkreditkarten und stammt aus dem Business Intelligence Cup 2004. Der betrachtete Datensatz ist mit 93,11 % treuen und 6,89 % abgewanderten Kunden sehr unausgewogen. Da die Identifizierung von Churnern aus geschäftlicher Sicht von größter Bedeutung ist, ist die Sensitivität des Klassifizierungsmodells kritischer. Nur unter Verwendung der verfügbaren, ursprünglichen unausgeglichenen Daten beobachteten wir, dass der vorgeschlagene hybride SVM + NBT-Baum im Vergleich zu anderen Klassifikatoren die beste Empfindlichkeit ergab.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10646-0_47 cfcc5fcdb673cbc9a9857c472240f7db;de;;;3.4.;7.4.;;Paralleles Data Mining für Assoziationsregeln auf Shared-Memory-Systemen In diesem Papier stellen wir einen neuen parallelen Algorithmus zum Data Mining von Assoziationsregeln auf Multiprozessoren mit gemeinsam genutztem Speicher vor. Wir untersuchen den Grad der Parallelität, Synchronisation und Datenlokalität und präsentieren Optimierungen für eine schnelle Frequenzberechnung. Experimente zeigen, dass mit unseren vorgeschlagenen Optimierungen eine deutliche Leistungssteigerung erreicht wird. Wir haben auch eine gute Beschleunigung für den parallelen Algorithmus erreicht.;-;-;-;https://link.springer.com/article/10.1007/PL00011656 cf6e2074db7e9b2ca3c1309f81db4ab0;de;;;3.4.;7.4.;;Aufbau einer digitalen Bibliothek von Grund auf: Eine Untersuchung neuer Informationsressourcen in der Machine Learning-Community Ein „bottom-up“-Ansatz zur Entwicklung digitaler Bibliotheken beginnt mit einer Untersuchung des Informationsbedarfs einer Gemeinschaft und der verfügbaren Dokumente und entwirft dann eine Bibliothek, um diese Dokumente so zu organisieren, dass sie die Bedürfnisse der Gemeinschaft erfüllt. Als Fallstudie werden die von und für die Machine-Learning-Community entwickelten, „hausgemachten“, informellen Informationsressourcen untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36227-4_34 84180ce97f3973ac334381f62cc3d4c7;de;;;3.4.;7.4.;;Maschinelles Lernen unterstützte Fahrkontexterkennung und Vermeidung von Straßenhindernissen Im Fahrzeug der Zukunft soll ein intelligentes Fahrzeug in der Lage sein, den Fahrkontext zu erkennen, um die notwendigen Aktionen durchzuführen, um die Fahrt bis zum Zielort fortzusetzen. Darüber hinaus sollte ein solches intelligentes Fahrzeug auch in der Lage sein, Straßenhindernisse zu erkennen und zu erkennen, da das Versäumnis, ein Hindernis zu erkennen und ihm auszuweichen, häufig zu einem Verkehrsunfall führt, der normalerweise Menschenleben verursacht. In diesem Beitrag befasst sich das Knowledge Engineering mit den kognitiven Prozessen der Fahrkontexterkennung, -wahrnehmung, -entscheidung und -optimalen Aktion in Bezug auf den Fahrkontext und das Vermeiden von Straßenhindernissen. Ontologie und formale Spezifikationen werden verwendet, um solche Mechanismen zu beschreiben. Zur Erkennung des Fahrkontextes und zum Erkennen und Klassifizieren von Hindernissen werden verschiedene überwachte Lernalgorithmen verwendet. Die Vermeidung von Hindernissen wird mittels Reinforcement Learning umgesetzt. Die Arbeiten werden mit einem Fahrsimulator im Labor validiert. Diese Arbeit ist ein Beitrag zur laufenden Forschung zum sicheren Fahren und zur Anwendung von maschinellem Lernen zur Vermeidung von Verkehrsunfällen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-49559-6_7 c24c326b9bdb3e7c27eefd4ec9796763;de;;;3.4.;7.4.;;Umfassende Überprüfung des intelligenten Betriebs und der Wartung des Stromsystems in China AIOps hat zunächst das Konzept des intelligenten Betriebs und der Wartung mit künstlicher Intelligenz und Technologien für maschinelles Lernen vorgestellt. Die Idee von AIOps wird kürzlich in China auf das Stromsystem angewendet. In diesem technischen Briefing wird zunächst die Definition eingehend analysiert und dann die Entwicklung des Betriebs und der Wartung im chinesischen Stromsystem beschrieben. Darüber hinaus werden einige in der Umspannstation, Umrichterstation und Neue Energie angewandte Methoden sowie verschiedene allgemeine Technologien diskutiert, d. h. Relaisschutz, Sekundärbetrieb, insbesondere auf Deep Learning. Abschließend werden die Probleme in diesem Bereich aufgezeigt und einige hilfreiche Lösungen vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-78615-1_55 30f075ff99cbf0493d01a7d351a1bcbf;de;;;3.4.;7.4.;;Mustererkennung mit gemischten und unvollständigen Daten In diesem Artikel wird eine zunehmend aktive Studienrichtung der Mustererkennung (PR) namens „logische kombinatorische Mustererkennung“ (LCPR) untersucht. Kurz gesagt bezieht sich dies auf Mustererkennungsprobleme mit gemischten und unvollständigen Objektbeschreibungen unter Verwendung von Ähnlichkeitsfunktionen, die weniger eingeschränkt sind als eine Entfernung, d. Die Ähnlichkeitsfunktion ist nicht unbedingt das Gegenteil oder die Umkehrung einer bestimmten Distanzfunktion, sie könnte asymmetrisch sein. Die Notwendigkeit dieses PR-Zweiges und die Art und Weise, wie diese Probleme angegangen wurden, sowie seine grundlegenden Konzepte, Werkzeuge und die wichtigsten theoretischen und praktischen Ergebnisse der letzten 30 Jahre und die wichtigsten zukünftigen Arbeiten werden prägnant dargestellt.;-;-;-;https://link.springer.com/article/10.1134/S1054661808040044 9f6698cd67401dcd31f073446845d02e;de;;;3.4.;7.4.;;Verbesserung der Datenqualität in Echtzeit-Threat-Intelligence-Systemen durch maschinelles Lernen In dieser Studie zielen wir darauf ab, den Nutzen der Keyword-Filterung auf textbasierte Daten im Bereich der Cyber ​​Threat Intelligence zu erweitern. Bestehende forschungsbasierte Cyber ​​Threat Intelligence-Systeme und Produktionssysteme verwenden häufig die Keyword-Filterung als Methode, um Trainingsdaten für ein Klassifizierungsmodell zu erhalten, oder als Klassifikator an sich. Es ist bekannt, dass diese Methode Bedenken hinsichtlich falsch positiver Ergebnisse hat, die die Datenqualität beeinträchtigen und daher nachgelagerte Probleme für Sicherheitsanalysten verursachen können, die diese Art von Systemen verwenden. Wir schlagen eine Methode vor, um Open-Source-Intelligenzdaten in einen Cybersicherheits-bezogenen Informationsstrom zu klassifizieren und anschließend die Qualität dieses Datenstroms mithilfe einer unüberwachten Clustering-Methode zu erhöhen. Unsere Methode erweitert die Techniken der Schlüsselwortfilterung durch die Einführung einer von word2vec generierten Liste assoziierter Wörter, die bei der Klassifizierung von mehrdeutigen Beiträgen hilft, um falsch positive Ergebnisse zu reduzieren und gleichzeitig große Datenmengen abzurufen. Anschließend verwenden wir K-Means-Clustering für positiv klassifizierte Einträge, um Cluster zu identifizieren und zu entfernen, die für Bedrohungen nicht relevant sind. Wir untersuchen diese Methode weiter, indem wir die Auswirkungen der Segmentierung basierend auf Datenmerkmalen untersuchen, um eine bessere Klassifizierung zu erreichen. Zusammen sind diese Methoden in der Lage, einen Cyber-Bedrohungs-bezogenen Datenstrom höherer Qualität zu erzeugen, der auf vorhandene textbasierte Bedrohungsintelligenzsysteme angewendet werden kann, die Schlüsselwort-Filtermethoden verwenden.;-;-;-;https://link.springer.com/article/10.1007/s13278-020-00707-x 036020d563705d523f8a3b8639ecc29c;de;;;3.4.;7.4.;;Mining massiver Textdaten und Entwicklung von Tracking-Statistiken In diesem Artikel wird ein systematisches Data-Mining-Verfahren zur Untersuchung großer frei formatierter Textdatensätze beschrieben, um nützliche Funktionen zu entdecken und Tracking-Statistiken zu entwickeln, die im Allgemeinen als Leistungskennzahlen oder Risikoindikatoren bezeichnet werden. Das Verfahren umfasst Text Mining, Risikoanalyse, Klassifikation für Fehlermessungen und nichtparametrische multivariate Analyse. Zwei Repositorien für Flugsicherheitsberichte;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17103-1_47 fe08f4987173a5bd97693a46f03a1223;de;;;3.4.;7.4.;;Auffallende Regionen erkennen und ordnen Wir beschreiben einen Ensemble-Ansatz zum Lernen hervorstechender Regionen aus willkürlich partitionierten Daten. Die Partitionierung ergibt sich aus den verteilten Verarbeitungsanforderungen von groß angelegten Simulationen. Das Datenvolumen ist so groß, dass Klassifikatoren nur mit Daten trainieren können, die lokal in einer bestimmten Partition vorhanden sind. Da die Datenpartition die Anforderungen der Simulation widerspiegelt, können die Klassenstatistiken von Partition zu Partition variieren. Einige Klassen werden wahrscheinlich in einigen oder sogar den meisten Partitionen fehlen. Wir kombinieren einen schnellen Ensemble-Lernalgorithmus mit skalierter probabilistischer Mehrheitsentscheidung, um aus solchen Daten einen genauen Klassifikator zu lernen. Da einige Simulationen ohne eine beträchtliche Anzahl von falsch positiven Fehlern schwer zu modellieren sind und wir im Wesentlichen eine Suchmaschine für Simulationsdaten aufbauen, ordnen wir vorhergesagte Regionen an, um die Wahrscheinlichkeit zu erhöhen, dass die meisten der am besten bewerteten Vorhersagen richtig (hervorstechend) . Ergebnisse aus Simulationsläufen des Zerreißens eines Kanisters und des Fallenlassens einer Hülle zeigen, dass trotz des Klassenungleichgewichts in den einzelnen Trainingssätzen interessante Regionen erfolgreich identifiziert werden können. Die Liftkurvenanalyse zeigt, dass die Verwendung datengesteuerter Ordnungsmethoden eine statistisch signifikante Verbesserung gegenüber der Verwendung der standardmäßigen natürlichen Zeitschrittordnung bietet. Der Endbenutzer spart erheblich Zeit, indem er eine verbesserte Fokussierung auf Interessengebiete ermöglicht, ohne dass alle Daten konventionell durchsucht werden müssen.;-;-;-;https://link.springer.com/article/10.1007/s10618-010-0194-6 a9eaadf76b44cff8caec7b154deb184c;de;;;3.4.;7.4.;;Erratum: CDM: Eine Prototypimplementierung des Data Mining JDM-Standards Wir möchten alle Leser des Papers freundlich informieren, dass es von Professor Jan Bazan inspiriert wurde, der uns zunächst auf den JDM-Standard aufmerksam gemacht hatte. Er, sein Team und kooperierende Forscher arbeiten derzeit an einer Data-Mining-Bibliothek mit JDM-Schnittstellen namens CommoDM, einer Fortsetzung der bisherigen Systeme RSES [1] und RoughICE [2, 5], erstellt von der Gruppe von Professor Andrzej Skowron ausron der Warschauer Universität. Ergebnisse von Experimenten, die mit einer vorläufigen Version der CommoDM-Bibliothek durchgeführt wurden, wurden in [3] und [4] vorgestellt. Die im Beitrag vorgestellte Implementierung bestätigt die mögliche Nützlichkeit von JDM als unterstützende Technologie für CommoDM im Bereich der Datenclustering-Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07013-1_51 41d53a7a3e3f02cafdcbfeb8e7c2a696;de;;;3.4.;7.4.;;Erfassung des Verhaltens von medizinischem Personal: ein ähnlichkeitsorientierter Ansatz für das zeitliche Data Mining Dieser Beitrag präsentiert Data-Mining-Ergebnisse, in denen das zeitliche Verhalten globaler Krankenhausaktivitäten visualisiert wird. Die Ergebnisse zeigen, dass die Wiederverwendung gespeicherter Daten ein leistungsfähiges Werkzeug für das Krankenhausmanagement darstellt und zu einer Verbesserung der Krankenhausleistungen führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27142-7_1 3a30d15f9f302eec4c1f1ed41e955bee;de;;;3.4.;7.4.;;Ein praktischer Rahmen zur Bewertung der Qualität des Wissensgraphen Wissensgraphen sind in den letzten Jahren aufgrund ihrer breiten Anwendung bei der Wissensentdeckung sehr groß und komplex geworden. Viele Wissensgraphen wurden mit automatisierten Konstruktionstools und über Crowdsourcing erstellt. Der Graph kann eine erhebliche Menge an Syntax- und Semantikfehlern enthalten, die seine Qualität stark beeinträchtigen. Ein Wissensgraph von geringer Qualität erzeugt eine darauf aufbauende Anwendung von geringer Qualität. Daher ist die Bewertung der Qualität des Wissensgraphen für die Erstellung hochwertiger Anwendungen erforderlich. Viele Frameworks wurden für die systematische Bewertung von Wissensgraphen vorgeschlagen, aber sie sind entweder zu komplex, um praktisch zu sein, oder es fehlt an Skalierbarkeit für große Wissensgraphen. In diesem Papier führten wir eine umfassende Studie zu bestehenden Frameworks durch und schlugen einen praktischen Rahmen zur Bewertung der Qualität von Wissensgraphen vor. Wir haben zunächst eine Reihe von Qualitätsdimensionen und deren entsprechenden Metriken basierend auf den Anforderungen der Wissensentdeckung basierend auf Wissensgraphen durch systematische Untersuchung repräsentativer veröffentlichter Anwendungen ausgewählt. Dann haben wir einen Ansatz zur Bewertung jeder Metrik unter Berücksichtigung ihrer Durchführbarkeit und Skalierbarkeit empfohlen. Das Framework kann verwendet werden, um die wesentlichen Qualitätsanforderungen von Wissensgraphen zu überprüfen, die dem Zweck der Wissensentdeckung dienen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1956-7_10 e6ec3e0fb893d15158554d0c6e9ea991;de;;;3.4.;7.4.;;SolEuNet: Ausgewählte Data-Mining-Techniken und -Anwendungen Data Mining beschäftigt sich mit der Entdeckung interessanter Muster und Modelle in Daten. In der Praxis hat sich Data Mining zu einer etablierten Technologie mit Anwendungen in den unterschiedlichsten Bereichen von Marketing, Gesundheitswesen, Finanzen, Umweltplanung bis hin zu Anwendungen im E-Commerce und E-Science entwickelt. In diesem Beitrag werden ausgewählte Data-Mining-Techniken und -Anwendungen vorgestellt, die im Rahmen des SolEuNet 5FP IST-Projekts Data Mining and Decision Support for Business Competitiveness: A European Virtual Enterprise (2000–2003) entwickelt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-31314-1_4 0d8c935cbc5e220f915f10811a17cee9;de;;;3.4.;7.4.;;Automatisierte Erkennung von Tuberkulose aus Sputum-Abstrich-Mikroskopbildern mit Transfer-Lerntechniken Tuberkulose ist eine ansteckende Krankheit und ist vor allem in Ländern mit niedrigem und mittlerem Einkommen wie Uganda eine der häufigsten Todesursachen. Obwohl es mehrere Möglichkeiten gibt, Tuberkulose zu diagnostizieren, ist die Sputumabstrich-Mikroskopie die am häufigsten praktizierte Methode. Dieses Verfahren kann jedoch fehleranfällig sein und erfordert auch geschultes medizinisches Personal, das nicht immer sofort verfügbar ist. In dieser Forschung wenden wir Deep-Learning-Modelle an, die auf zwei vortrainierten Convolutional Neural Networks basieren: VGGNet und GoogLeNet Inception v3, um Tuberkulose aus 148 Ziehl-Neelsen-gefärbten Sputum-Abstrich-Mikroskopbildern aus zwei verschiedenen Datensätzen zu diagnostizieren. Diese Netzwerke werden in drei verschiedenen Szenarien verwendet, nämlich schnelle Merkmalsextraktion ohne Datenerweiterung, schnelle Merkmalsextraktion mit Datenerweiterung und Feinabstimmung. Unsere Ergebnisse zeigen, dass die Verwendung von Inception v3 für die schnelle Merkmalsextraktion ohne Datenerweiterung die besten Ergebnisse mit einem Genauigkeitswert von 86,7% liefert. Dies bietet einen viel besseren Ansatz für die Krankheitsdiagnose, der auf der Verwendung verschiedener Datensätze aus verschiedenen Quellen basiert, und die Ergebnisse dieser Arbeit können in der medizinischen Bildgebung für eine schnellere Tuberkulose-Diagnose genutzt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-49342-4_6 6d42614f3e59f0e34b8c69c0bfb97b0f;de;;;3.4.;7.4.;;Verteilter und gemeinsam genutzter Speicheralgorithmus für das parallele Mining von Assoziationsregeln Die Suche nach häufigen Mustern in transaktionalen Datenbanken gilt als eines der wichtigsten Data-Mining-Probleme. In der Literatur wurden mehrere parallele und sequentielle Algorithmen vorgeschlagen, um dieses Problem zu lösen. Fast alle diese Algorithmen durchlaufen das Dataset wiederholt, um die Menge der häufigen Itemsets zu bestimmen, was einen hohen I/O-Overhead impliziert. Im parallelen Fall führen die meisten Algorithmen am Ende jedes Durchlaufs eine Summenreduktion durch, um die globalen Zählungen zu konstruieren, was ebenfalls hohe Synchronisationskosten impliziert. Wir präsentieren einen neuartigen Algorithmus, der die Kompromisse zwischen Berechnung, Kommunikation, Speichernutzung und Synchronisation effizient ausnutzt. Der Algorithmus wurde über einen Cluster von SMP-Knoten implementiert, die verteilte und gemeinsam genutzte Speicherparadigmen kombinieren. Dieses Papier präsentiert die Ergebnisse unseres Algorithmus für verschiedene Datengrößen, die mit einer unterschiedlichen Anzahl von Prozessoren experimentiert wurden, und untersucht die Auswirkungen dieser Variationen auf die Gesamtleistung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73499-4_27 7603d698c3ca952a041a72e49c836f43;de;;;3.4.;7.4.;;Vom Hype zur Realität: Data Science für personalisierte Medizin Unter personalisierter, Präzisions-, P4- oder stratifizierter Medizin versteht man einen medizinischen Ansatz, bei dem Patienten anhand von Krankheitssubtyp, Risiko, Prognose oder Therapieansprechen mit speziellen diagnostischen Tests stratifiziert werden. Die Schlüsselidee besteht darin, medizinische Entscheidungen auf individuellen Patientenmerkmalen, einschließlich molekularer und verhaltensbezogener Biomarker, und nicht auf Bevölkerungsdurchschnitten zu stützen. Die personalisierte Medizin ist eng mit der Datenwissenschaft verbunden und abhängig von dieser, insbesondere dem maschinellen Lernen (in den Mainstream-Medien oft als Künstliche Intelligenz bezeichnet). Während in den letzten Jahren große Begeisterung für das Potenzial von „Big Data“ und auf maschinellem Lernen basierenden Lösungen herrschte, gibt es nur wenige Beispiele, die sich auf die aktuelle klinische Praxis auswirken. Der fehlende Einfluss auf die klinische Praxis ist größtenteils auf eine unzureichende Leistung prädiktiver Modelle, Schwierigkeiten bei der Interpretation komplexer Modellvorhersagen und eine fehlende Validierung durch prospektive klinische Studien zurückzuführen, die einen klaren Nutzen gegenüber der Standardbehandlung zeigen. In diesem Beitrag überprüfen wir das Potenzial modernster Data Science-Ansätze für die personalisierte Medizin, diskutieren offene Herausforderungen und zeigen Richtungen auf, die helfen können, diese in Zukunft zu bewältigen.;-;-;-;https://link.springer.com/article/10.1186/s12916-018-1122-7 6e2ac44240d2a5fd0a9d8edb723ffbeb;de;;;3.4.;7.4.;;Computational Intelligence in Wirtschaft und Finanzen Computational Intelligence ist ein Konsortium datengesteuerter Methoden, das Fuzzy-Logik, künstliche neuronale Netze, genetische Algorithmen, probabilistische Glaubensnetze und maschinelles Lernen als Komponenten umfasst. Wir haben eine phänomenale Wirkung dieses datengesteuerten Methodenkonsortiums in vielen Studienbereichen erlebt, wobei die Wirtschafts- und Finanzbereiche keine Ausnahme bilden. Dieser Sammelband wird insbesondere Beispiele für seine Auswirkungen auf verschiedene Arten von ökonomischen und finanziellen Modellierungen, Vorhersagen und Prognosen sowie die Analyse verschiedener Phänomene geben, die ein neues Licht auf ein grundlegendes Verständnis der Forschungsfragen werfen. Dieser Band ist das Ergebnis einer Auswahl hochwertiger Beiträge, die auf der;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-06373-6_1 e95e660dd0ab27ebc5ab4c83787e2c33;de;;;3.4.;7.4.;;Data Mining von Benutzernavigationsmustern Wir schlagen ein Data-Mining-Modell vor, das die Verhaltensmuster der Benutzernavigation erfasst. Die Benutzernavigationssitzungen werden als probabilistische Hypertext-Grammatik modelliert, deren Zeichenfolgen mit höherer Wahrscheinlichkeit den bevorzugten Pfaden des Benutzers entsprechen. Ein Algorithmus zum effizienten Minen solcher Spuren wird angegeben. Wir nutzen die;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44934-5_6 b11fe6a9e928e3b004f16962c5fe30de;de;;;3.4.;7.4.;;Auswahl heterogener Fuzzy-Modell-Ensembles mit selbstadaptiven genetischen Algorithmen Das Problem der Modellauswahl zur Zusammenstellung eines heterogenen Absackensembles wurde in der Arbeit angesprochen. Um das Problem zu lösen, wurden drei selbstanpassende genetische Algorithmen mit verschiedenen Kontrollparametern von Mutation, Crossover und Selektion vorgeschlagen, die während der Ausführung angepasst wurden. Die Algorithmen wurden angewendet, um heterogene Ensembles aus Regressions-Fuzzy-Modellen zu erstellen, die bei der Immobilienbewertung helfen. Die Ergebnisse von Experimenten zeigten, dass die selbstadaptiven Algorithmen schneller konvergierten als die klassischen genetischen Algorithmen. Die durch selbstadaptierende Verfahren erzeugten heterogenen Ensembles zeigten eine sehr gute Vorhersagegenauigkeit im Vergleich zu homogenen Ensembles aus früheren Forschungen.;-;-;-;https://link.springer.com/article/10.1007/s00354-010-0305-3 09f6872f2dd66c8b37acaaf6ae058cb7;de;;;3.4.;7.4.;;Gedächtnis und Lernen in der Metaheuristik Die rasante Zunahme der Dimensionen und Komplexität realer Probleme erschwert es, mit traditionellen Optimierungsmethoden optimale Lösungen zu finden. Diese Herausforderung erfordert intelligente und ausgeklügelte Algorithmen, um bei einer Reihe von Eingaben und einer Vielzahl möglicher Aktionen die richtigen Entscheidungen zu treffen. Im Bereich der Problemlösung wird diese Definition in den Begriff der künstlichen Intelligenz umgewandelt. Künstliche Intelligenz entsteht in der Metaheuristik über das Gedächtnis und das Lernen in Algorithmen. Metaheuristiken sind vielversprechende Ansätze, die in akzeptabler Zeit nahezu optimale Lösungen finden können. Viele erfolgreiche Metaheuristiken verwenden „intelligente“ Verfahren, um qualitativ hochwertige Lösungen für diskrete Optimierungsprobleme zu erhalten. Um den Beitrag von Gedächtnis und Lernen zur Metaheuristik zu demonstrieren, werden Estimation of Distribution Algorithms als Gedächtnis- und Lernmechanismus in Meta-RaPS (Meta-Heuristic for Randomized Priority Search) integriert, die als gedächtnislose Metaheuristik klassifiziert wird. Das 0-1 multidimensionale Rucksackproblem wird verwendet, um die „Intelligenz“ des neuen Algorithmus zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29694-9_18 45c5298a70bf49c709798e55c6e3e2c9;de;;;3.4.;7.4.;;Eine Umfrage zu den Herausforderungen bei der auf künstlicher Intelligenz basierenden Mustererkennung für geschäftsorientierte Big-Data-Analysen und -Lösungen Die Revolution der digitalen Transformation zielt auf alle Aspekte unseres Lebens ab. Bald werden wir fast alle Bereiche vom manuellen Routinebetrieb in den digitalen Betrieb transformieren und dabei riesige Datenmengen freisetzen. Solche Big Data können für jedes Institut entweder eine Belastung oder eine Goldgrube sein, je nachdem, wie ein Institut seine Ausgabedaten angeht. Big Data Analytics gilt als das Ergebnis der digitalen Transformation und bietet Entscheidungsträgern Erkenntnisse mit Entscheidungsunterstützung, um das Institut auf Effizienz zu lenken, um seine Geschäftsziele zu erreichen. Die Anwendung von Big-Data-Analysen auf Rohdaten wird als uneffizient mit unbedeutendem Ergebnis angesehen. Die Anwendung von Techniken der künstlichen Intelligenz zur Mustererkennung vor der Big-Data-Analyse macht sie effizienter mit signifikanten Ergebnissen. Die auf Clustern basierende Mustererkennung kann als eine der effizientesten Techniken zur Unterstützung der Mustererkennung für die Big-Data-Analyse angesehen werden. In diesem Papier werden wir frühere Arbeiten auf diesem Gebiet unter kritischen Gesichtspunkten überprüfen und gleichzeitig mögliche zukünftige Trends oder erweiterte Forschungsbereiche vorschlagen, um eine bessere geschäftsorientierte Datenanalyse zu erreichen, um die geschäftsorientierte institutionelle Entscheidungsunterstützung zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-77442-4_20 390b5838ab4f6a6cfc09f11eea045c47;de;;;3.4.;7.4.;;Integration von Machine Learning Insights in Organizational Learning: Ein Fall von B2B Sales Forecasting Business-to-Business (B2B) Sales Forecasting kann als ein Entscheidungsfindungsprozess beschrieben werden, der auf Vergangenheitsdaten (intern und extern), formalisierten Regeln, subjektivem Urteil und implizitem organisatorischem Wissen basiert. Die Folgen werden in Gewinn und Verlust gemessen. Der Forschungsschwerpunkt dieses Papiers zielt darauf ab, die Lücke zwischen geplanter und realisierter Leistung zu schließen, indem ein neuartiger Ansatz vorgestellt wird, der auf Techniken des maschinellen Lernens basiert. Vorläufige Ergebnisse der Modellleistung des maschinellen Lernens werden präsentiert, wobei der Schwerpunkt auf destillierten Visualisierungen liegt, die leistungsstarke, aber dennoch für den Menschen verständliche und umsetzbare Erkenntnisse schaffen, ein positives Klima für Reflexion ermöglichen und zu kontinuierlichem organisatorischem Lernen beitragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-38974-5_7 9514404e16accad58e5d2ff7e7755d32;de;;;3.4.;7.4.;;Künstliche Intelligenz im Straßenverkehr – ein wissenschaftlicher, literaturbasierter State-of-Art Der Beitrag präsentiert eine wissenschaftliche Literatur-basierte Analyse von Anwendungen der künstlichen Intelligenz, die im Bereich des Straßenverkehrs identifiziert wurden. Der Untersuchungszeitraum umfasste die Jahre 2017–2019. Der Stand der Technik wurde anhand der in den Datenbanken Web of Science, Scopus und IEEE indizierten wissenschaftlichen Literaturquellen analysiert und dabei verschiedene Aspekte (meist gelöste Probleme, Beteiligung einzelner Länder und Institutionen, Förderung, Verlage, Trends etc.) .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-59270-7_4 10f15bae705fa15a79f2c74bd9dae7e7;de;;;3.4.;7.4.;;Informationsmuster in biologischen Datenbanken lernen - Stochastisches Data Mining Dieses Kapitel zielt darauf ab, die Computertheorie zur Modellierung von Mustern und ihrer hierarchischen Koordination innerhalb biologischer Sequenzen zu entwickeln. Mit Ausnahme der Promotoren und Enhancer ist die funktionelle Bedeutung der nicht-kodierenden DNA nicht gut verstanden. Wissenschaftler entdecken jetzt, dass bestimmte Regionen der nicht-kodierenden DNA mit der zellulären Maschinerie interagieren und zur Expression von Genen beitragen. Unsere Prämisse ist, dass es möglich ist, die Anordnungen von Mustern in biologischen Sequenzen durch maschinelle Lernalgorithmen zu studieren. Da die biologische Datenbank ihr exponentielles Wachstum fortsetzt, wird eine Anwendung möglich;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09823-4_59 4fd1bd1848bfa544a58f0cfdb7bbcdee;de;;;3.4.;7.4.;;Vorhersage der elektrischen Last für ägyptische Energiemanagementsysteme: Deep-Learning-Ansatz Im Zeitalter des Internets der Dinge (IoT) und des maschinellen Lernens haben Energieversorger nun die Möglichkeit, den Kunden viele Vorteile zu bieten. Verwenden von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-44289-7_23 8c13d757b0fe45d77ca4201f9de68341;de;;;3.4.;7.4.;;Bewertung des emotionalen Zustands des Verbrauchers mit EEG-basierter Emotionserkennung mit Deep-Learning-Ansatz Die Standardmethoden für das Marketing (z. B. Zeitungsanzeigen und Fernsehwerbung) sind beim Verkauf von Produkten nicht effektiv, da sie die Kunden nicht zum Kauf eines bestimmten Artikels anregen. Diese Werbemethoden versuchen, die Einstellung ihrer Verbraucher zu jedem Produkt zu ermitteln, die möglicherweise nicht das tatsächliche Verhalten widerspiegelt. Das Kundenverhalten wird also von den Werbetreibenden und Start-ups missverstanden, da die Denkweisen nicht das Kaufverhalten der Verbraucher widerspiegeln. Frühere Studien zeigen, dass es an experimenteller Arbeit zur Klassifikation und Vorhersage der emotionalen Zustände der Verbraucher mangelt. In dieser Forschung wurde eine Strategie verfolgt, um die emotionalen Zustände des Kunden zu entdecken, indem einfach über Attribute und die spektrale Leistungsdichte unter Verwendung von EEG-basierten Signalen nachgedacht wird. Die Ergebnisse zeigten, dass, obwohl das tiefe neuronale Netzwerk (DNN) im Vergleich zu Support Vector Machine (SVM) und k-nächster Nachbar (k-NN) einen höheren Recall, eine höhere Präzision und Genauigkeit aufweist, Random Forest (RF) jedoch Werte erreicht, die wie Deep Learning auf genau dem ähnlichen Datensatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0401-0_9 1e0f8c9ad6782bab0f64417b20542813;de;;;3.4.;7.4.;;Review zu Trends und Techniken der Verarbeitung natürlicher Sprache mit NLTK Im modernen Zeitalter der Informationsexplosion werden jeden Tag Millionen von Gigabyte an Daten in Form von Dokumenten, Webseiten, E-Mails, Social-Media-Texten, Blogs usw ein Informationsabrufsystem, Textzusammenfassung, Stimmungsanalyse, Informationsextraktion, Named-Entity-Erkennung, Beziehungsextraktion, Social-Media-Überwachung, Text-Mining, Sprachübersetzungsprogramm und Fragebeantwortungssystem. Natural Language Processing ist eine Computertechnik, die verschiedene Ebenen der linguistischen Analyse anwendet, um natürliche Sprache in eine nützliche Repräsentation für die weitere Verarbeitung darzustellen. NLP gilt als herausfordernde Aufgabe in der Informatik und künstlichen Intelligenz, da das Verständnis der menschlichen natürlichen Sprache nicht nur von den Wörtern abhängt, sondern auch davon, wie diese Wörter zu einer präzisen Bedeutung verknüpft werden. Unabhängig davon, ob Sprache eines der am einfachsten zu erlernenden Konzepte für den Menschen ist, ist es aufgrund der Mehrdeutigkeit der Sprachsyntax und -semantik eine schwierige Aufgabe, Computer zu trainieren, natürliche Sprache zu verstehen. Die Verarbeitungstechniken für natürliche Sprache beinhalten die Verarbeitung von Dokumenten oder Text, was den Speicherplatz reduziert und auch die Größe des Indexes und das Verstehen der gegebenen Informationen verringert, die die Bedürfnisse des Benutzers erfüllen. NLP-Techniken verbessern die Leistung der Informationsbeschaffungseffizienz und effektive Dokumentationsprozesse. Gängige Verfahren zur Handhabung von Dialekten umfassen Tokenisierung, Stoppwortvertreibung, Wortstamm, Lemmatisierung, Teile der Diskurskennzeichnung, Klumpenbildung und Erkennung von benannten Substanzen, die die Ausführung von NLP-Anwendungen verbessern. Das Natural Language Toolkit ist die bestmögliche Lösung, um die Grundlagen des NLP-Bereichs zu erlernen. NLTK, eine Sammlung von Anwendungspaketen, die Forscher und Lernende in der Verarbeitung natürlicher Sprache, Computerlinguistik und künstlicher Intelligenz fördern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9187-3_53 12debab07b6fb10ac94c44c183bbae00;de;;;3.4.;7.4.;;Computergestützte Methode zur Erkennung von Baumwollpflanzenkrankheiten im Pflanzenmanagement mithilfe von Deep Learning und Internet of Things-Plattformen Baumwolle ist aus Einkommenssicht in Indien eine wichtige Nutzpflanze. Baumwollpflanzen werden durch den frühen Abfall der Blätter geschädigt oder die Blätter werden durch Krankheiten infiziert. Aufgrund der plötzlichen Änderung der klimatischen Bedingungen traten Pflanzenkrankheiten auf, entweder bei sengenden Temperaturen in der Feldfrucht oder einige Pestizide werden innerhalb einer Zeit benötigt. Es gibt mehrere Systeme, um die Krankheiten auf einem Baumwollblatt durch Bodenüberwachung bei der Klassifizierung und Identifizierung zahlreicher Krankheiten wie Bakterienfäule, Alternaria und viele mehr zu erkennen und einzudämmen. Nach der Krankheitserkennung wird es den Landwirten mit verschiedenen Algorithmen für maschinelles Lernen und einem IoT-basierten System bereitgestellt. In diesem Beitrag liegt der Schwerpunkt auf einer neuen Deep-Learning-Methode, die untersucht, eine erkrankte Pflanze aus Blattbildern der Baumwollpflanze und einer IoT-basierten Plattform automatisch zu identifizieren, um verschiedene Sensordaten zur Erkennung von Klimaänderungen zu sammeln. Das Deep-CNN-Modell wurde entwickelt, um die Erkennung von Baumwollpflanzenkrankheiten anhand von Bildern infizierter und gesunder Baumwollblätter durchzuführen, indem Bilder während des gesamten Prozesses gesammelt werden, der beim Training und bei der Validierung für die Bildvorverarbeitung, -erweiterung und -feinabstimmung verwendet wird. Verschiedene Testfälle wurden durchgeführt, um die Leistung des erstellten Modells zu überprüfen und dieses neue System wirtschaftlich und unabhängig zu machen. Dieses neu geschaffene System bietet eine möglichst effiziente Genauigkeit bei der Erkennung und Eindämmung von Baumwollpflanzenkrankheiten durch Verbesserung der Pflanzenproduktion. Dieses Papier bietet Forschern einen innovativen Weg zur Entwicklung eines Systems zur Identifizierung von Baumwollpflanzenkrankheiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5258-8_81 97572b5b21adf4f690cb0504a65f3906;de;;;3.4.;7.4.;;Multikriterielle Entscheidungshilfe und künstliche Intelligenz für Competitive Intelligence In diesem Beitrag haben wir zunächst gezeigt, dass künstliche Intelligenz und multikriterielle Entscheidungshilfe zwei eng miteinander verbundene Konzepte sind, die voneinander profitieren könnten. Dann schlagen wir vor, diese Beziehung und Komplementarität zu nutzen, um Probleme und Probleme der Wettbewerbsintelligenz zu lösen. Es wird eine Diskussion über den Aufbau der Grundlagen für neues Domänenwissen namens Multi-Criteria Intelligence Aid (MCIA) präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19066-2_17 f1b0736e0ec4f6194a21aa8bbfff75a7;de;;;3.4.;7.4.;;Auf dem Weg zu erklärbarem Direktmarketing in der Telekommunikationsbranche durch hybrides maschinelles Lernen Direktmarketing ermöglicht es Unternehmen, Kunden zu identifizieren, die an Produktangeboten interessiert sein könnten, basierend auf historischen Kundentransaktionsdaten. Für das Direktmarketing werden derzeit mehrere Tools für maschinelles Lernen (ML) eingesetzt. Der Nachteil von algorithmischen ML-Modellen besteht jedoch darin, dass die Ergebnisse zwar genau sein können, ihnen jedoch relevante Erklärungen fehlen. Das Fehlen detaillierter Erklärungen, die Empfehlungen rechtfertigen, hat das Vertrauen in ML-basierte Empfehlungen für die Entscheidungsfindung in einigen kritischen Bereichen der realen Welt verringert. Der Telekommunikationssektor verzeichnet weiterhin einen Umsatzrückgang in Kernbereichen wie Sprach- und Textnachrichtendiensten, die Direktmarketing zur Steigerung des Gewinns nützlich machen. Dieser Beitrag stellt den konzeptionellen Entwurf eines maschinellen Lernprozess-Frameworks vor, der es ermöglicht, Telekommunikationsabonnenten zu identifizieren, die für die Direktvermarktung neuer Produkte bestimmt werden sollten, und bietet auch Erläuterungen zu den Empfehlungen. Dazu wird ein hybrider Rahmen vorgeschlagen, der überwachtes Lernen, fallbasiertes Denken und regelbasiertes Denken verwendet. Anhand eines Beispiels wird der operative Ablauf des Frameworks demonstriert, aber auch der Plan zur Umsetzung und Evaluation diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58817-5_35 457881e8a79009adfe2d4981bf950a05;de;;;5.2.;7.4.;;Data Mining zur Suche nach Zusammenhängen zwischen Krankheitsabwesenheit und japanischem Arbeitnehmerprofil Da krankheitsbedingte Fehlzeiten sowohl für den einzelnen Arbeitnehmer als auch für deren Unternehmen große Verluste verursachen, ist die Verringerung der krankheitsbedingten Fehlzeiten ein zentrales Anliegen der betrieblichen Gesundheitsvorsorge. Wir haben eine arbeitsplatzbezogene Studie durchgeführt, um den Einfluss des Lebensstils, der medizinischen Befunde und der vorliegenden Krankheit auf eine einwöchige oder längere Krankheitsausfälle während des Geschäftsjahres aufzuklären. Probanden waren 6010 männliche japanische Angestellte einer großen Telekommunikationsgesellschaft im Alter von 30 bis 59 Jahren (Durchschnittsalter 46,3 ± 6,7 Jahre), die im Geschäftsjahr 1991 bis 1998 nacheinander einen Gesundheitscheck hatten. Wir haben Data-Mining-Methoden wie die „Assoziationsregelanalyse“, die „Korrelationskoeffizientenanalyse“ und die „Risikoverhältnisanalyse“ verwendet, um Zusammenhänge bei Krankheitsausfällen, Lebensstil (gesund / ungesund), medizinischen Befunden (normal / abnormal) aufzuklären ) und aktuelle Krankheit (nicht vorhanden / vorhanden), die im Geschäftsjahr 1991 bis 1998 nacheinander erhoben wurden. Bei der aktuellen Krankheit zeigte der säkulare Trend der Risikoquote je nach aktueller Krankheitskategorie unterschiedliche Muster. Unsere Ergebnisse können dazu beitragen, krankheitsbedingte Fehlzeiten an japanischen Arbeitsplätzen zu verhindern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45226-3_56 e45d67fe7e2e313c88d0c99aa103ac60;de;;;5.2.;7.4.;;Ein neuartiges hybridisiertes grobes Set und verbesserte Merkmalsauswahl auf der Grundlage der Harmony-Suche für die Proteinsequenzklassifizierung Der Fortschritt im Bereich der Bioinformatik und Biotechnologie hat eine große Menge an Sequenzdaten erzeugt, die einer detaillierten Analyse bedürfen. Jüngste Fortschritte bei den Sequenzierungstechnologien der nächsten Generation haben zu einem enormen Anstieg der Datenerhebung von Proteinsequenzen geführt. Die Big-Data-Analyse ist in vielen Anwendungen, insbesondere im Bereich der Bioinformatik, aufgrund der Komplexität der zu analysierenden Daten ein klarer Flaschenhals. Die Proteinsequenzanalyse ist ein bedeutendes Problem in der funktionellen Genomik. Proteine ​​spielen in Organismen eine wesentliche Rolle, da sie in ihren Zellen viele wichtige Aufgaben erfüllen. Im Allgemeinen werden Proteinsequenzen durch Merkmalsvektoren gezeigt. Ein Hauptproblem von Proteindatensätzen ist die Komplexität ihrer Analyse aufgrund ihrer enormen Anzahl von Merkmalen. Merkmalsauswahltechniken sind in der Lage, mit diesem hochdimensionalen Raum von Merkmalen umzugehen. In diesem Kapitel wird der neue Merkmalsauswahlalgorithmus vorgeschlagen, der den Improved Harmony Search-Algorithmus mit der Rough-Set-Theorie für Proteinsequenzen kombiniert, um die Big-Data-Probleme erfolgreich anzugehen. Ein Algorithmus zur Suche nach verbesserter Harmonie (IHS) ist ein vergleichsweise neuer bevölkerungsbasierter, metaheuristischer Optimierungsalgorithmus. Dieser Ansatz imitiert den Musikimprovisationsprozess, bei dem jeder Musiker die Tonhöhe seines Instruments improvisiert, indem er nach einem perfekten Harmoniezustand sucht und die Einschränkungen des traditionellen Harmoniesuchalgorithmus (HS) überwindet. Eine verbesserte Harmony-Suche kombiniert mit Rough Set Quick Reduct für schnellere und bessere Suchfunktionen. Die Merkmalsvektoren werden aus der Proteinsequenzdatenbank extrahiert, basierend auf der Aminosäurezusammensetzung und den K-mer-Mustern oder K-Tupeln, und dann wird die Merkmalsauswahl aus den extrahierten Merkmalsvektoren durchgeführt. Der vorgeschlagene Algorithmus wird mit den beiden prominenten Algorithmen Rough Set Quick Reduct und Rough Set-basierter PSO Quick Reduct verglichen. Die Experimente werden an Proteinprimär-Einzelsequenzdatensätzen durchgeführt, die von PDB auf SCOP-Klassifikation abgeleitet werden, basierend auf den Vorhersagen der Strukturklasse wie all;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11056-1_6 617c62a6a1f440011406cac591d7a7dd;de;;;5.2.;7.4.;;Vorhersage der Wettertemperatur basierend auf LSTM-Bayesian-Optimierung Mit der kontinuierlichen Verbesserung der Beobachtungstechnologie hat die Komplexität meteorologischer Datenelemente stark zugenommen und das Volumen des Modells hat sich vergrößert, was die konventionelle Wettervorhersage und konventionelle Wettervorhersagemethoden auf der Grundlage traditioneller statistischer Vorhersagen umständlich macht. Dieses Papier schlägt eine LSTM-Wettervorhersagemethode vor, die auf der Bayesschen Optimierung basiert. Durch die konstruierten Probendaten wird das Bayessche Optimierungsverfahren verwendet, um die optimalen Parameter des LSTM auszuwählen, und dann wird die Probe durch das optimale LSTM rekonstruiert, das hinsichtlich der Genauigkeit bessere Ergebnisse erzielt hat. Diese Studie kann vernünftigere Musterkonstruktionsmethoden für Wetterattributmerkmale und LSTM-optimale Parameterauswahlmethoden untersuchen und eine einfache, benutzerfreundliche und hochpräzise Wettervorhersagemethode für meteorologische Experten bereitstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-78615-1_39 798e22ef4c4cc9baa5ee0b7151abffaf;de;;;5.2.;7.4.;;Lernen, in wiederholten Spielen mit Reinforcement Learning zu konkurrieren, zu koordinieren und zu kooperieren Wir betrachten das Problem des Lernens in wiederholten Summenmatrixspielen, wenn ein Lernalgorithmus die Aktionen, aber nicht die Auszahlungen seiner Partner beobachten kann. Aufgrund der Nichtstationarität der Umgebung, die durch lernende Mitarbeiter in diesen Spielen verursacht wird, arbeiten die meisten Algorithmen nach dem Stand der Technik in einigen wichtigen wiederholten Spielen schlecht, da sie nicht in der Lage sind, gewinnbringende Kompromisse einzugehen. Um diese Kompromisse einzugehen, muss ein Agent konkurrierende Ziele effektiv ausbalancieren, einschließlich Grenzverluste, optimales Spiel in Bezug auf aktuelle Überzeugungen und das Eingehen kalkulierter, aber profitabler Risiken. In diesem Artikel präsentieren, diskutieren und analysieren wir M-Qubed, einen Algorithmus für das Reinforcement Learning, der entwickelt wurde, um diese Mängel zu überwinden, indem er Best-Response-, vorsichtige und optimistische Lernverzerrungen codiert und ausbalanciert. Wir zeigen, dass M-Qubed lernt, gewinnbringende Kompromisse in einer Vielzahl von wiederholten Matrixspielen einzugehen, die mit vielen Arten von Lernenden gespielt werden. Insbesondere beweisen wir, dass die durchschnittlichen Auszahlungen von M-Qubed seinen Maximalwert im Limit erreichen oder überschreiten. Darüber hinaus zeigen wir, dass sich die durchschnittlichen Auszahlungen von M-Qubed in Zwei-Spieler-Spielen dem Wert der Nash-Verhandlungslösung im Selbstspiel nähern. Darüber hinaus schneidet es im Umgang mit anderen Lernenden sehr gut ab, was durch sein robustes Verhalten in Round-Robin- und Evolutionsturnieren von Zwei-Spieler-Spielen belegt wird. Diese Ergebnisse zeigen, dass ein Agent lernen kann, in wiederholten Spielen gute Kompromisse einzugehen und somit hohe Auszahlungen zu erzielen, indem er effektiv codierte und ausgewogene, vorsichtige und optimistische Lernverzerrungen ausbalanciert.;-;-;-;https://link.springer.com/article/10.1007/s10994-010-5192-9 326b0d9cfd46810843e8298c302369ba;de;;;5.2.;7.4.;;Personen in den Wissensarbeiterdiensten Wie bei vielen transformativen Technologien, der Geschäftsintegration und der Realisierung der Automatisierung von Wissensarbeiterdiensten (der zugehörigen Analyse, maschinellen Lernens, künstlichen Intelligenz und Echtzeit-Entscheidungsfindung) wird der Erfolg von den Menschen kommen, die sie implementieren und ihrer fortlaufenden Einführung . Die Überarbeitung der Wissensarbeiter-Dienste erfordert erhebliche Veränderungen in der Führung und im Betrieb vieler Geschäftsbereiche. Zu den Änderungen des ICT-Betriebs allein gehören überarbeitete Service- und Support-Operationen, Änderungen des Finanzmanagements, überarbeitete Anbietermanagementpraktiken, verbessertes Workload-Management und -Verarbeitung sowie ein größeres Geschäftsengagement. Neben der Verwaltung des ICT-Serviceübergangs sind die erforderliche organisatorische Änderung und Überarbeitung der Wissensarbeiter, die die Cloud-basierten Services nutzen, sowie die Ergebnisse automatisierter Services erforderlich. Die kumulative Dynamik von Cloud Computing, Mobile Computing und Automatisierung in Kombination mit Big Data und Echtzeit-Entscheidungsfindung wird die Kapazitäten und Fähigkeiten von Unternehmen, darauf zu reagieren, herausfordern. Die richtigen Leute mit den erforderlichen Prozessen (Frameworks) und der Zugriff auf die notwendigen Informationen zur richtigen Zeit werden die Herausforderung meistern. In diesem Kapitel werden Aspekte der Veränderungen der Kapazitäten und Fähigkeiten innerhalb des Humankapitals für Dienstleistungen für Wissensarbeiter erörtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1224-7_7 5197b60dd03a59b6afde7e9b205c50e0;de;;;5.2.;7.4.;;Data Mining für kleine Organisationen Der Artikel analysiert den Einsatz von Data-Mining-Technologien für kleine Unternehmen, die nicht in der Lage sind, in Informationstechnologien zu investieren, sondern Geschäftsprozesse optimieren und anfallende Daten effektiv nutzen möchten. Ein Vergleich der Data-Mining-Tools ist sehr wichtig für die Auswahl eines geeigneten Tools.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15402-7_15 c3a84e9214c99fb3662654d52a4181f0;de;;;5.2.;7.4.;;Allgemeine Beschreibung des Prozesses des Behavioral Profiling Die Untersuchung von Verhaltensmustern und die Gruppierung von Benutzern nach gezeigtem Verhalten wird als Behavioral Profiling bezeichnet. Beim Verhaltensprofiling werden detaillierte Aufzeichnungen über die Beziehung zwischen der Organisation und dem Benutzer verwendet, z. B. Aufzeichnungen über die Produktnutzung, den Kontostand oder den Transaktionsverlauf. Neben dem bloßen Wissen, dass jemand etwas getan hat, umfasst das Verhaltensprofiling die Erfassung von Ereignissen und Aktionen im Laufe der Zeit und die Verwendung dieser gespeicherten Interaktionsaufzeichnungen, um typisches Verhalten und Abweichungen von diesem Verhalten zu modellieren. Manchmal wird dies durch Daten aus externen Datenbanken, wie z. B. Volkszählungsdaten, ergänzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-6914-7_3 565cecb369a63dd55a652acc55900c23;de;;;5.2.;7.4.;;Künstlicher Fischschwarm-Algorithmus: ein Überblick über den Stand der Technik, Hybridisierung, kombinatorische und indikative Anwendungen AFSA (artificial fish-swarm algorithm) ist eine der besten Optimierungsmethoden unter den Schwarmintelligenzalgorithmen. Dieser Algorithmus ist inspiriert von der kollektiven Bewegung der Fische und ihrem unterschiedlichen Sozialverhalten. Basierend auf einer Reihe von instinktiven Verhaltensweisen versuchen die Fische immer, ihre Kolonien zu erhalten und zeigen dementsprechend intelligente Verhaltensweisen. Nahrungssuche, Einwanderung und Umgang mit Gefahren finden in sozialer Form statt und Interaktionen zwischen allen Fischen einer Gruppe führen zu einem intelligenten Sozialverhalten. Dieser Algorithmus hat viele Vorteile, darunter hohe Konvergenzgeschwindigkeit, Flexibilität, Fehlertoleranz und hohe Genauigkeit. Dieses Papier ist ein Überblick über den AFSA-Algorithmus und beschreibt die Entwicklung dieses Algorithmus mit allen Verbesserungen, seine Kombination mit verschiedenen Methoden sowie seine Anwendungen. Es gibt viele Optimierungsverfahren, die eine Affinität zu diesem Verfahren aufweisen, und das Ergebnis dieser Kombination wird die Leistung dieses Verfahrens verbessern. Zu den Nachteilen zählen die hohe zeitliche Komplexität, die fehlende Balance zwischen globaler und lokaler Suche sowie die mangelnde Nutzung der Erfahrungen der Gruppenmitglieder für die nächsten Bewegungen.;-;-;-;https://link.springer.com/article/10.1007/s10462-012-9342-2 5bd9f8a78951d90353be604c59f1a6de;de;;;5.2.;7.4.;;Domänenwissen Einbettungsbasierte multimodale Intent-Analyse in Kamera für künstliche Intelligenz Kameralösungen mit künstlicher Intelligenz (KI) wie Google Lens und Bixby Vision werden immer beliebter. Um mehr Informationen über die erkannten Objekte in der AI-Kamera abzurufen, werden Dienste der webbasierten Inhaltsanbieter verwendet. Die Auswahl des richtigen Inhaltsanbieters ist erforderlich, um sicherzustellen, dass die bereitgestellten Informationen den Absichten des Benutzers entsprechen. Die Benutzeroberfläche von Smartphones hat begrenzten Platz, daher können Informationen von bestimmten und relevanten Inhaltsanbietern angezeigt werden. Manchmal wird ein bestimmter Inhaltsanbieterdienst aus monetären Gründen verwendet. Um die obigen Probleme zu lösen, wird ein auf Domänenwissen basierendes multimodales tiefes Netzwerkmodell vorgeschlagen. Das Modell besteht aus einer CNN- und Multilevel-LSTM-Kombination für den Textkanal, einem VGG16-CNN-Modell für den Bildkanal und einem Einbettungskanal für Domänenwissen. Die Ausgabe davon hilft beim Abrufen geeigneter Informationen vom Inhaltsanbieter. Unser Modell für die Absichtsklassifikation erreicht eine Klassifikationsgenauigkeit von 91 % für die Vorhersage von drei Arten von Absichten – Kaufinteresse für Schönheitsprodukte, Suche nach allgemeinen Informationen und Suchabsichten nach Filminformationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1092-9_24 276a8de2f152d9413c3095609d47fd68;de;;;5.2.;7.4.;;Ein neues Grobmengenmodell basierend auf Datenbanksystemen In diesem Beitrag stellen wir ein neues Grobmengenmodell auf Basis von Datenbanksystemen vor. Wir übernehmen die Grundgedanken der ursprünglichen Grobmengentheorie und definieren sie basierend auf der Datenbanktheorie neu, um den sehr effizienten mengenorientierten Datenbankbetrieb zu nutzen. Wir präsentieren einen neuen Satz von Algorithmen zur Berechnung von Kern, Reduktion basierend auf unserem neuen datenbankbasierten Grobsatzmodell. Fast alle Operationen, die in unserem Modell zum Generieren von Core, Reduct verwendet werden, können mit den Datenbanksatzoperationen wie Count, Projection durchgeführt werden. Unser neues Grobsatzmodell basiert auf Datenbankoperationen, im Vergleich zu den traditionellen Grobsatzmodellen ist unseres sehr effizient und skalierbar.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-39205-X_15 5299666daf03de25005483f6df043879;de;;;5.2.;7.4.;;Weiteres Beschneiden für eine effiziente Erkennung von Assoziationsregeln Der Frequent Itemset-Ansatz des Apriori-Algorithmus ist zum Standardansatz für die Ermittlung von Assoziationsregeln geworden. Die Berechnungsanforderungen des häufigen Itemset-Ansatzes sind jedoch für dichte Daten nicht durchführbar und der Ansatz ist nicht in der Lage, seltene Assoziationen zu entdecken. OPUS_AR ist ein effizienter Algorithmus zur Erkennung von Assoziationsregeln, der keine häufigen Itemsets verwendet und daher diese Probleme vermeidet. Es kann die Suchzeit verkürzen, indem es zusätzliche Einschränkungen für den Suchraum sowie Einschränkungen für die Itemset-Frequenz verwendet. Die Effektivität der während der Suche verwendeten Beschneidungsregeln bestimmt jedoch die Effizienz der Suche. In diesem Papier werden Beschneidungsregeln für die Verwendung mit OPUS_AR vorgestellt und analysiert. Wir zeigen, dass die Anwendung von OPUS_AR für eine Reihe von Datensätzen machbar ist, für die die Anwendung des häufigen Itemset-Ansatzes nicht möglich ist, und dass die neuen Bereinigungsregeln die Rechenzeit um mehr als 40% reduzieren können.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45656-2_52 e9d6e7517c980969b2e8903a4931de78;de;;;5.2.;7.4.;;Fortschrittliche Bildwiederherstellungstechnologie im zukünftigen mobilen Lehren und Lernen Fortschrittliche Bildwiederherstellungstechnologie ist in vielen Branchen und Bereichen weit verbreitet. Diese Technologie wird in den letzten Jahren auch von einigen Pädagogen und Forschern in der Hochschulbildung eingesetzt. Mit der Einführung der mobilen Technologie wurde sie in verschiedenen Disziplinen in das mobile Lehren und Lernen übernommen. Die Bildabruftechnologie kann die Lerneffizienz verbessern, das Gedächtnis durch Bereitstellung ähnlicher Lerninhalte verbessern und die Schüler in das Lernen einbeziehen. Es wird jedoch auch durch einige Soft- und Hardwarebarrieren auf mobilen Geräten eingeschränkt, wie z. B. Rechenleistung, Bildschirmgröße und Qualität der drahtlosen Verbindungen. Obwohl davon ausgegangen wird, dass es beim mobilen Lernen sowohl Vor- als auch Nachteile hat, hat die Einführung der fortschrittlichen Bildabruftechnologie die Möglichkeiten der Bildsuche und die Lernerfahrung durch Schüler und Lehrer erheblich verbessert. Es wird angenommen, dass die fortschrittliche Bildabruftechnologie eine wichtigere Rolle beim zukünftigen mobilen Lehren und Lernen in verschiedenen Branchen und Unternehmen sowie in der Hochschulbildung spielt.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-642-54146-9_53 82495a2b7818fdbd3899fe430f983a41;de;;;5.2.;7.4.;;Ein verstärkender konnektionistischer Ansatz für die Pfadfindung von Robotern in nicht-labyrinthähnlichen Umgebungen In diesem Beitrag wird ein konnektionistisches System der Bewehrung vorgestellt, das geeignete Situations-Aktions-Regeln findet und lernt, um machbare Bahnen für einen Punktroboter in einer 2D-Umgebung mit kreisförmigen Hindernissen zu generieren. Der grundlegende Verstärkungsalgorithmus wird um eine Strategie zum Auffinden stabiler Lösungswege erweitert. Ausgestattet mit dieser Strategie und einem leistungsstarken Kodierungsschema, lernt der Pfadfinder (i) schnell, (ii) geht mit kontinuierlich bewerteten Ein- und Ausgängen um, (iii) weist eine gute Rauschtoleranz und Verallgemeinerungsfähigkeiten auf, (iv) kommt mit dynamischen . zurecht Umgebungen und (v) löst eine Instanz des Pfadfindungsproblems mit starken Leistungsanforderungen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1022684924132 cb35a8dfdf08dbef5df4754f2871ecdf;de;;;5.2.;7.4.;;Clustering von Ensembles basierend auf normalisierten Kanten Die Co-Assoziations-(CA)-Matrix wurde zuvor eingeführt, um mehrere Partitionen zu kombinieren. In diesem Papier analysieren wir die CA-Matrix und adressieren ihren Unterschied zur Ähnlichkeitsmatrix unter Verwendung der euklidischen Distanz. Wir untersuchen auch, wie Sie einen geeigneten und besseren Algorithmus finden, um die endgültige Partition mithilfe der CA-Matrix zu erhalten. Um robustere und vernünftigere Clustering-Ensemble-Ergebnisse zu erhalten, wird ein neuer hierarchischer Clustering-Algorithmus vorgeschlagen, indem ein neuartiges Konzept normalisierter Kanten entwickelt wird, um die Ähnlichkeit zwischen Clustern zu messen. Die experimentellen Ergebnisse des vorgeschlagenen Ansatzes werden mit denen einiger Einzelläufe bekannter Clustering-Algorithmen und anderer Ensemble-Methoden verglichen und der Vergleich zeigt deutlich die Wirksamkeit unseres Algorithmus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71701-0_71 9725deb28dd6321672a93435fc02c2ed;de;;;5.2.;7.4.;;Aufgabenskelettmodell: Intelligentes Data-Mining-System Da die Problemklassifikation von Kapitel 4 allgemein ist, kann jedes Problem damit abgedeckt werden. Da auch die Methodik der Kapitel 4 und 5 allgemein ist, kann damit prinzipiell jedes Problem angegangen werden. Es liegt jedoch auf der Hand, dass es Probleme gibt, die damit praktisch nicht gelöst werden können. Eine Erweiterung des grundlegenden extSLV von Abb. 4.5 ist notwendig, um schwierigere Probleme anzugehen. Im modelltheoretischen Ansatz gibt es zwei Erweiterungsmöglichkeiten: Einführung eines hierarchischen Mehrebenensystems [;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35840-6_13 802d8e1066c4bf780650d6d994fccb7f;de;;;5.2.;7.4.;;Die einfachste Einheit In diesem einführenden Kapitel machen die Autoren ein überzeugendes Argument dafür, warum Ideen als grundlegende Einheit der Analyse angesehen werden sollten. Sie begründen die dringende Notwendigkeit einer intuitiven Ideentheorie, die auch allgemein zugänglich ist. Sie legen nahe, dass uns die Untersuchung der Natur von Ideen tiefere Einblicke in Kreativität und Innovation verschafft, als es jedes einzelne Untersuchungsgebiet derzeit zulässt. Die Autoren skizzieren ihre Herangehensweise an Ideen in dem Buch, indem sie zwei breite Anwendungsbereiche diskutieren – das Verständnis von Innovation und die Schnittstelle zwischen Mensch und künstlicher Intelligenz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94884-3_1 4048f1cc999cdae5bcd8f481381aa04c;de;;;5.2.;7.4.;;Die Einführung maschineller Lerntechniken zur Vorhersage von Softwarefehlern: Eine erste industrielle Validierung Bestehende Methoden zur Vorhersage der Zuverlässigkeit von Software sind statisch und müssen manuell gewartet werden, um sich an die sich entwickelnden Datensätze in Softwareunternehmen anzupassen. Maschinelles Lernen hat das Potenzial, das Problem der manuellen Wartung zu lösen, kann aber auch Änderungen in der Art und Weise erfordern, wie Unternehmen mit der Fehlervorhersage arbeiten. In diesem Beitrag beschäftigen wir uns mit dem Problem, die Vorteile des maschinellen Lernens im Vergleich zu bestehenden Methoden zu identifizieren und welche Barrieren für deren Einführung in die Praxis bestehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11854-3_23 8e2655749ed1bec1fdf6191ad32a6130;de;;;5.2.;7.4.;;Feature-Subset-Wise Mixture Model-Based Clustering über lokalen Suchalgorithmus Beim Clustering berücksichtigen die meisten Merkmalsauswahlansätze alle Merkmale der Daten, um eine einzige gemeinsame Merkmalsuntermenge zu identifizieren, die zur Entdeckung der interessanten Cluster beiträgt. Viele Daten können jedoch mehrere Merkmalsuntermengen umfassen, wobei jede Merkmalsuntermenge den bedeutungsvollen Clustern unterschiedlich entspricht. In diesem Papier versuchen wir, eine Feature-Partition aufzuzeigen, die aus mehreren nicht überlappenden Feature-Blöcken besteht, von denen jeder zu einem endlichen Mischungsmodell passt. Um die gewünschte Feature-Partition zu finden, haben wir einen lokalen Suchalgorithmus verwendet, der auf einer Simulated Annealing-Technik basiert. Während des Prozesses der Suche nach der optimalen Merkmalspartition wurde eine Wiederverwendung der vorherigen Schätzergebnisse übernommen, um die Rechenkosten zu reduzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13059-5_15 9b277dd66b446096981d162c3171ba03;de;;;5.2.;7.4.;;Module, Schichten, Hierarchien und Schleifen, wo Künstliche Intelligenz auf Ethologie und Neurowissenschaften trifft – im Kontext der Handlungsselektion Das Papier präsentiert Argumente dafür, warum KI-Methoden sowohl in verhaltenswissenschaftlichen als auch in neurowissenschaftlichen Studien berücksichtigt werden sollten, und argumentiert, warum dies möglich ist. Durch die Identifizierung von Ähnlichkeitspunkten wird diskutiert, ob Erkenntnisse der Ethologie und der Neurowissenschaften in den Entwurfs- und Entwicklungsprozess nicht-klassischer KI-Systeme einfließen können. Dazu fokussieren wir uns auf ein konkretes Beispiel, das seit langem in allen betroffenen Disziplinen untersucht wurde: das Aktionsauswahlproblem. Der Artikel gibt einen Überblick über die Mechanismen der Aktionsauswahl in der verhaltensbasierten KI und den Neurowissenschaften, um die Gemeinsamkeiten zu identifizieren, die dem Verständnis von Aktionsauswahl in verschiedenen Disziplinen zugrunde liegen und die Teile einer gemeinsamen Sprache darstellen können, mit der KI Ideen und Erkenntnisse an aus Ethologie und Neurowissenschaften.;-;-;-;https://link.springer.com/chapter/10.1007/11499220_2 66db65dc7be5c2bf1e3cd5e6a4888132;de;;;5.2.;7.4.;;Suchen nach metrischer Struktur von Musikdateien Das Ziel dieser Arbeit ist es, die Effektivität verschiedener Ansätze der Computerintelligenz zu vergleichen, die auf die Aufgabe angewendet werden, musikalischen Rhythmus aus musikalischen Symboldateien abzurufen. Die in diesem Beitrag vorgestellte Studie beschreibt, wie künstliche neuronale Netze und grobe Sets zum Durchsuchen der metrischen Struktur von Musikdateien verwendet werden können. Die beschriebenen Ansätze basieren auf der Untersuchung physikalischer Klangattribute, die bei der Bestimmung der Platzierung eines bestimmten Klangs an der akzentuierten Stelle eines Musikstücks am wichtigsten sind. Die Ergebnisse der Experimente zeigen, dass der allein auf der Dauer basierende Ansatz ausreicht, um die metrische Struktur des Rhythmus aus Musikdateien abzurufen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73451-2_81 f1f3d7e78ee715163a2cd28b40e81fbb;de;;;5.2.;7.4.;;Ein Knowledge Discovery-Ansatz zum Verständnis der Beziehungen zwischen der Scheduling-Problemstruktur und der heuristischen Leistung Mit einem Knowledge-Discovery-Ansatz suchen wir Einblicke in die Zusammenhänge zwischen der Problemstruktur und der Effektivität von Scheduling-Heuristiken. Es wird eine große Sammlung von 75.000 Instanzen des frühen/späten Planungsproblems einer einzelnen Maschine generiert, die durch sechs Merkmale gekennzeichnet ist und verwendet wird, um die Leistung von zwei gängigen Planungsheuristiken zu untersuchen. Die beste Heuristik wird unter Verwendung von Regeln aus einem Entscheidungsbaum mit einer Genauigkeit von über 97% ausgewählt. Eine selbstorganisierende Karte wird verwendet, um den Merkmalsraum zu visualisieren und Einblicke in die heuristische Leistung zu gewinnen. Dieser Artikel argumentiert, dass ein solcher Ansatz zur Wissensentdeckung auf andere Optimierungsprobleme angewendet werden kann, um zur Automatisierung der Algorithmusauswahl sowie zu einem aufschlussreichen Algorithmusdesign beizutragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11169-3_7 4455df38198ebd4c67e35d3800f80fe0;de;;;5.2.;7.4.;;Eine Übersicht über Machine Learning-basierte Ressourcenplanungsalgorithmen in Cloud-Computing-Umgebungen Als neue Art von Computing-Ressource zieht Cloud Computing immer mehr Nutzer an, da es sich um einen bequemen und schnellen Service handelt. Der Cloud-Server wird von einer großen Anzahl von Benutzern verwendet, wodurch sich das Problem ergibt, wie Ressourcen vernünftig geplant werden können, um den Lastausgleich der Cloud-Umgebung sicherzustellen. Mit der Entwicklung der Forschung haben Wissenschaftler festgestellt, dass die einfache Arbeitsplanung physischer Ressourcen der Nutzung von Ressourcen nicht gerecht werden kann. Durch die Verbindung der Charakteristik der Ressourcenplanung in der Cloud-Umgebung und des maschinellen Lernens abstrahieren Forscher schrittweise ein Ressourcenplanungsproblem in ein mathematisches Problem und kombinieren dann maschinelles Lernen mit Gruppenalgorithmen, um den intelligenten Algorithmus vorzustellen, der die Ressourcenstruktur optimieren und die Ressource verbessern kann Nutzung. In dieser Umfrage diskutieren wir mehrere Algorithmen, die maschinelles Lernen verwenden, um Ressourcenplanungsprobleme in einer Cloud-Umgebung zu lösen. Experimente zeigen, dass maschinelles Lernen die Cloud-Umgebung beim Lastenausgleich unterstützen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00006-6_21 11796110dc1572c5555ef8d91a8d5822;de;;;5.2.;7.4.;;Ein formaler Rahmen und Erweiterungen für die Funktionsapproximation in lernenden Klassifikatorsystemen Learning Classifier Systems (LCS) bestehen aus den drei Komponenten: Funktionsapproximation, Reinforcement Learning und Klassifikatorersatz. In diesem Papier formalisieren wir den Teil der Funktionsapproximation, indem wir eine klare Problemdefinition, eine Formalisierung der LCS-Funktionsapproximationsarchitektur und eine Definition des Funktionsapproximationsziels bereitstellen. Darüber hinaus bieten wir Definitionen der Optimalität und der Bedingungen, die erfüllt sein müssen, damit ein Klassifikator optimal ist. Um die Nützlichkeit des Frameworks zu demonstrieren, leiten wir häufig verwendete algorithmische Ansätze ab, die darauf abzielen, Optimalität aus den ersten Prinzipien zu erreichen, und führen eine neue Kalman-Filter-basierte Methode ein, die alle derzeit implementierten Methoden übertrifft und zusätzlich weitere Einblicke in die Wahrscheinlichkeitsrechnung liefert Grundlage des lokalisierten Modells, das ein Klassifikator bereitstellt. Eine globale Funktionsapproximation in LCS wird durch die Kombination des lokalisierten Modells des Klassifikators erreicht, für den wir einen vereinfachten Ansatz im Vergleich zu aktuellen LCS bereitstellen, basierend auf der maximalen Wahrscheinlichkeit einer Kombination aller Klassifikatoren. Die Formalisierungen in diesem Papier dienen als Grundlage eines derzeit aktiv entwickelten formalen Rahmens, der alle drei LCS-Komponenten umfasst und ein besseres formales Verständnis der aktuellen LCS und die Entwicklung besserer LCS-Algorithmen verspricht.;-;-;-;https://link.springer.com/article/10.1007/s10994-007-5024-8 d3107e905804a98b766dbe00c3ee2e5d;de;;;5.2.;7.4.;;Anwendungen der künstlichen Intelligenz zur Bekämpfung von COVID-19 Das Aufkommen von COVID-19 mit Grauzonen in Bezug auf die Heilung und Ausbreitung der Infektion ist eine bedeutende Herausforderung für die Welt des 21. Jahrhunderts. Die COVID-19-Pandemie hat ungeheure Auswirkungen auf das Leben von Menschen und die Gesundheitsbranche sucht ständig nach Unterstützung durch moderne entscheidende Technologien wie Künstliche Intelligenz (KI), um diese sich schnell ausbreitende Pandemie zu bekämpfen. KI, die die menschliche Intelligenz nachahmt, spielt eine entscheidende Rolle bei der Vorhersage und Verfolgung von Patienten, hilft bei der Analyse von Daten für verschiedene Aspekte, einschließlich der medizinischen Bildverarbeitung, der Entwicklung von Medikamenten und Impfstoffen sowie der Vorhersage und Vorhersage dieser Krankheit. Die vorliegende Studie zielt darauf ab, die Möglichkeiten der künstlichen Intelligenz zur Diagnose von COVID-19-Fällen zu überprüfen und die Datenbank zu analysieren, um sie zur Prävention und Bekämpfung von COVID-19 zu bewerten. Wir können die neuen Erkenntnisse in der Wirkstoffforschung durch Deep-Learning-KI-Algorithmen gewinnen, um den Prozess der Wirkstoff- und Impfstoffentwicklung zu beschleunigen. KI fungiert somit als potenzielles Instrument zur Eindämmung von COVID-19. Außerdem bietet dieser Artikel den besten Überblick über den Beitrag der KI und die Einschränkungen zu ihren Auswirkungen gegen COVID-19. Das Potenzial der KI muss mobilisiert werden, um COVID-19 zu bekämpfen, das für die Rettung von Menschenleben von entscheidender Bedeutung ist und die Schäden für die Weltwirtschaft begrenzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0708-0_22 36eb477e4e7ca8b02cc2535ef1bba55b;de;;;5.2.;7.4.;;Eine messtheoretische Grundlage der Regelinteressensbewertung Im Data Mining wurden viele Maßnahmen vorgeschlagen und eingehend untersucht, um die Bedeutung (oder Nützlichkeit) der entdeckten Regeln zu bewerten. Sie werden in der Regel anhand von strukturellen Merkmalen oder statistischen Informationen zu den Regeln definiert. Die Aussagekraft jeder Maßnahme wurde entweder auf der Grundlage intuitiver Argumente oder mathematischer Eigenschaften interpretiert. Es existiert kein Rahmen, in dem man das Nutzerurteil explizit, präzise und formal darstellen kann. Da die Nützlichkeit der entdeckten Regeln schließlich von den Benutzern beurteilt werden muss, ist ein Rahmen, der Benutzerpräferenzen oder -beurteilungen berücksichtigt, sehr wertvoll. Das Ziel dieses Papiers ist es, einen solchen Rahmen vorzuschlagen, der auf dem Konzept der Benutzerpräferenz basiert. Die Ergebnisse sind nützlich, um eine messtheoretische Grundlage für die Bewertung der Regelinteressen zu schaffen.;-;-;-;https://link.springer.com/chapter/10.1007/11539827_3 24c865f28a011893b9163b4d84b4ae35;de;;;5.2.;7.4.;;Auf die Blutbildanalyse angewendete Metaheuristiken Der zunehmende Einsatz digitaler Bildverarbeitungstechniken mit Fokus auf Gesundheit ist eindeutig und hilft bei der Lösung und Verbesserung der Diagnose sowie der Möglichkeit, neue Diagnoseverfahren zu entwickeln. Das Blutbild ist die am meisten erforderliche labormedizinische Untersuchung, da es aufgrund seiner Fähigkeit, Krankheiten zu erkennen, die erste Untersuchung ist, um das allgemeine klinische Bild eines Patienten zu analysieren, aber seine Kosten können für die Bevölkerung in benachteiligten Ländern als unzugänglich angesehen werden. Kurz gesagt ist eine Metaheuristik eine heuristische Methode zur allgemeinen Lösung von Optimierungsproblemen, meist im Bereich der kombinatorischen Optimierung, die üblicherweise auf Probleme angewendet wird, für die kein effizienter Algorithmus bekannt ist. Die digitale Bildverarbeitung ermöglicht die Analyse eines Bildes in den verschiedenen Regionen sowie die Extraktion quantitativer Informationen aus dem Bild, die Durchführung von Messungen, die manuell nicht möglich sind, und die Integration verschiedener Datentypen. Metaheuristische Techniken haben sich zu großartigen Werkzeugen für die Bildsegmentierung zum digitalen Segmentieren von roten Blutkörperchen, Leukozyten und Blutplättchen unter Erkennungs- und Zähloptiken entwickelt. Die Metaheuristik wird von der computergestützten Blutbildanalyse profitieren, steht jedoch immer noch vor Herausforderungen, da sich cyber-physische Systeme weiterentwickeln und effizientere Big-Data-Methoden auf den Markt kommen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-56689-0_6 8c563e474a6532208ba840589c9c5624;de;;;5.2.;7.4.;;Mining von Netzwerkverkehrsdaten für Angriffe über MOVICAB-IDS Diese Studie beschreibt ein Intrusion Detection System (IDS) namens MOVICAB-IDS (MObile Visualization Connectionist Agent-Based IDS). Dieses System basiert auf einer dynamischen Multiagenten-Architektur, die fallbasiertes Denken und ein unüberwachtes neuronales Projektionsmodell kombiniert, um den Fluss von Netzwerkverkehrsdaten zu visualisieren und zu analysieren. Die Formulierung des zugrunde liegenden Intrusion Detection Frameworks wird vorab vorgestellt. Das beschriebene IDS ermöglicht es, die interessantesten Projektionen eines riesigen Verkehrsdatensatzes zu extrahieren und durch eine funktionale und mobile Visualisierungsoberfläche darzustellen. Durch seine fortschrittlichen Visualisierungsmöglichkeiten ermöglicht MOVICAB-IDS einen Überblick über den Netzwerkverkehr sowie die Identifizierung von anomalen Situationen, die von Computernetzwerken angegangen werden, und reagiert auf die Herausforderungen durch Verkehrsaufkommen und Vielfalt. Um die Leistungsfähigkeit des beschriebenen IDS zu zeigen, wurde es in verschiedenen Domänen mit mehreren interessanten Angriffen und anomalen Situationen getestet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01088-0_16 11ca771778016faccf828abef412a553;de;;;5.2.;7.4.;;Anwenden eines Ensembles von faulen Lernenden auf das biomedizinische Data Mining Der Krankheitsstatus kann aus biomedizinischen Datenstudien durch maschinelles Lernen vorhergesagt werden. Viele verfügbare biomedizinische Daten weisen jedoch eine hohe Dimension oder Unausgewogenheit auf, und diese führten immer zu einer hohen falsch-positiven oder falsch-negativen Rate bei der Vorhersage. Wie man ein geeignetes Modell für maschinelles Lernen konstruiert, ist der Schlüssel zur Leistung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18129-0_24 866aa7898161cfde201049195daf7b5e;de;;;5.2.;7.4.;;Mathematische Programmierung mit mehreren Kriterien und Data Mining Kürzlich haben Forscher die quadratische Programmierung in der Klassifikation, bekannt als V. Vapniks Support Vector Machine, sowie verschiedene Anwendungen umfassend angewendet. Die Verwendung von Optimierungstechniken für die Datentrennung und Datenanalyse reicht jedoch bis vor mehr als vierzig Jahren zurück. Seit 1998 haben die Autoren und ihre Kollegen eine solche Forschungsidee zur Klassifikation über lineare Programmierung mit mehreren Kriterien (MCLP) und quadratische Programmierung mit mehreren Kriterien (MQLP) erweitert. Der Zweck des Papiers ist es, unsere Forschungsergebnisse zu teilen und die Forschungsinteressen in der Gemeinschaft der Computerwissenschaften zu fördern. Diese Methoden unterscheiden sich von Statistik, Entscheidungsbauminduktion und neuronalen Netzen. In diesem Beitrag diskutieren wir ausgehend von den Grundlagen der linearen Programmierung mit mehreren Kriterien (MCLP) weiter bestraftes MCLP mit quadratischer Programmierung mit mehreren Kriterien (MCQP), Fuzzy-Linearprogrammierung mit mehreren Kriterien, mathematische Programmierung mit mehreren Kriterien mit mehreren Kriterien sowie Regressionsverfahren nach Lineare Programmierung mit mehreren Kriterien. Eine kurze Zusammenfassung der Anwendungen der mathematischen Programmierung mit mehreren Kriterien wird ebenfalls bereitgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69384-0_4 075066095bf2ac650aa9957cd7c9c6f0;de;;;5.2.;7.4.;;Entwicklung der im Gesundheitswesen verwendeten Techniken des Data Mining und des maschinellen Lernens: Eine Überprüfung des Umfangs Der Zweck dieser Scoping-Überprüfung bestand darin, die Entwicklung des Einsatzes von Data-Mining- und maschinellen Lerntechniken im Gesundheitswesen basierend auf der MEDLINE-Datenbank zu beobachten. Wir haben PRISMA-ScR verwendet, um die Entwicklung der Techniken und ihre Verwendung entsprechend der Anzahl der wissenschaftlichen Publikationen, die sie von 2000 bis 2018 referenzieren, zu beobachten. Auf der Grundlage der Ergebnisse haben wir zwei Suchstrategien bei der Durchführung einer Abfrage zum Thema festgelegt. Wir fanden auch heraus, dass die drei Haupttechniken, die im Gesundheitswesen verwendet werden, „Cluster“, „Unterstützungsvektormaschine“ und „neuronale Netze“ sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72651-5_15 aa65795ef0e0dab64b4ae45b2a7ba82a;de;;;5.2.;7.4.;;Redaktionelle Umfrage: Schwarmintelligenz für Data Mining Dieser Artikel untersucht die Schnittmenge zweier faszinierender und immer beliebter werdender Domänen: Schwarmintelligenz und Data Mining. Während Data Mining seit Jahrzehnten ein beliebtes akademisches Thema ist, ist Schwarmintelligenz ein relativ neues Teilgebiet der künstlichen Intelligenz, das die entstehende kollektive Intelligenz von Gruppen einfacher Agenten untersucht. Es basiert auf sozialem Verhalten, das in der Natur zu beobachten ist, wie beispielsweise in Ameisenkolonien, Vogelschwärmen, Fischschwärmen und Bienenstöcken, in denen eine Reihe von Individuen mit eingeschränkten Fähigkeiten zu intelligenten Lösungen für komplexe Probleme kommen. In den letzten Jahren hat das Paradigma der Schwarmintelligenz breite Aufmerksamkeit in der Forschung gefunden, hauptsächlich als Ameisenkolonie-Optimierung (ACO) und Partikelschwarm-Optimierung (PSO). Dies sind auch die beliebtesten Schwarmintelligenz-Metaheuristiken für das Data Mining. Neben einem Überblick über diese von der Natur inspirierten Computermethoden diskutieren wir gängige Data-Mining-Techniken basierend auf diesen Prinzipien und listen schematisch die Hauptunterschiede in unseren Literaturtabellen auf. Darüber hinaus bieten wir ein vereinheitlichendes Framework, das die auf Schwarmintelligenz basierenden Data-Mining-Algorithmen in zwei Ansätze einteilt: effektive Suche und Datenorganisation. Abschließend listen wir interessante Fragestellungen für die zukünftige Forschung auf, indem wir methodische Lücken in der aktuellen Forschung identifizieren und Chancen der Schwarmintelligenz auf aktuelle Herausforderungen der Data-Mining-Forschung abbilden.;-;-;-;https://link.springer.com/article/10.1007/s10994-010-5216-5 ed4b8bdb07bae07a13da4705291b159c;de;;;5.2.;7.4.;;Erlernen und Automatisieren der Suche in digitalen Medien, basierend auf Nebenläufigkeit, Gewichtung und Verfall Die Suche nach Informationen von echtem Interesse zu einem bestimmten Thema war schon immer eine Herausforderung, insbesondere wenn die Quelle dieser Informationen das Internet ist, wo es viele digitale Medien, Plattformen, Datenbanken gibt und aus denen Sie Daten erkunden können. Große Unternehmen wie Google oder Yahoo helfen uns, diese Informationsquellen durch ihre Suchalgorithmen zu finden, aber sie sind beim Filtern einer bestimmten Information nicht sehr effektiv, daher ist es notwendig, im vorliegenden Dokument ein Modell zu formulieren, das diesem Bedarf entspricht schlägt ein Modell vor, das auf 3 Komponenten basiert, unter Verwendung von Informationsfilterungswerkzeugen, Wortvalorisierungstechniken basierend auf ihren Übereinstimmungen, Gewichtungen, Anti-Wörtern und einem Vorschlag, ein Wortzerfallsprotokoll innerhalb der Informationen anzuwenden, um eine „Punktzahl“ zu erhalten und falsche zu vermeiden Gewichtungen (ausgelöste Gewichtungen) der Informationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-33229-7_27 ae6197b620790fc92d32fee82fa9e1de;de;;;5.2.;7.4.;;Untersuchung von Diabetes mellitus (DM) mit ophthalmischen Komplikationen unter Verwendung der Assoziationsregeln der Data-Mining-Technik Association Rule Discovery ist eine bedeutende Data-Mining-Technik. In diesem Artikel haben wir diese Technik angewendet, um einen grundlegenden Zusammenhang zwischen einem Datensatz von Diabetes mellitus (DM)-Patienten mit Augenkomplikationen unter Verwendung eines Klassifikators basierend auf Geschlecht, Alter und Zahlungsmethode der Behandlungskosten zu entdecken. Das Ergebnis zeigte, dass „Diabetes mellitus (DM)-Patienten Typ II im Alter zwischen 60 und 69 Jahren ohne Berufstätigkeit, deren Behandlungskosten durch das behördliche Recht auf kontinuierliche Behandlung bezahlt wurden, dazu neigten, Diabetes mellitus (DM) mit ophthalmischen Komplikationen zu haben“. Diese Schlussfolgerung ist nützlich für die medizinische Behandlung von Patienten im Erwachsenenalter, die Verbesserung des Wohlergehens der öffentlichen Gesundheitsversorgung, die Bereitstellung hilfreicher Empfehlungen für Patienten mit Diabetes mellitus und die Weiterentwicklung bei der Suche nach Krankheitskomplikationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23935-9_52 fd29bd57b467ddfca8f3c7c4d2b474cb;de;;;5.2.;7.4.;;Mehrwertige Assoziationsmuster und Data Mining Das Mining von Mustern mit mehreren signifikant relevanten Werten ist ein schwieriges, aber sehr wichtiges Problem, das viele Disziplinen durchdringt. Assoziationsmuster mit mehreren Werten, die sequentiell geordnete Muster verallgemeinern, sind Sätze von assoziierten Werten, die aus Stichprobenergebnissen einer zufälligen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01091-0_8 9f3290a06bb24ae7dd8cb1ea65e2145b;de;;;5.2.;7.4.;;Data Mining für nicht identifizierte Proteinsequenzen Durch den Einsatz der Next Generation Sequencing (NGS)-Technologie stehen heute viele neu sequenzierte Organismen zur Verfügung. Die Annotation dieser Gene ist eine der schwierigsten Aufgaben in der Sequenzbiologie. Hier stellen wir einen automatisierten Workflow vor, um homologe Proteine ​​zu finden, Sequenzen nach Funktion zu annotieren und ein dreidimensionales Modell zu erstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45006-2_6 b536424d9d2547f70ca2d34bf0cc20f1;de;;;5.2.;7.4.;;Methoden und Techniken der Komplexen Systemwissenschaften: Ein Überblick In diesem Kapitel bespreche ich die wichtigsten Methoden und Techniken der komplexen Systemwissenschaften. In einem ersten Schritt unterscheide ich zwischen den breiten Mustern, die sich in komplexen Systemen wiederholen, den Themen, die die komplexe Systemwissenschaft üblicherweise untersucht, den verwendeten Werkzeugen und der Grundlagenwissenschaft komplexer Systeme. Der Schwerpunkt dieses Kapitels liegt überwiegend auf der dritten Überschrift, der der Werkzeuge. Diese wiederum unterteilen sich grob in Werkzeuge zur Datenanalyse, Werkzeuge zur Konstruktion und Bewertung von Modellen und Werkzeuge zur Komplexitätsmessung. Ich diskutiere die Prinzipien des statistischen Lernens und der Modellauswahl, Zeitreihenanalyse, zelluläre Automaten, agentenbasierte Modelle, die Bewertung komplexer Systemmodelle, Informationstheorie und Methoden der Komplexitätsmessung. Durchweg gebe ich nur grobe Umrisse von Techniken, damit der Leser, der mit neuen Problemen konfrontiert wird, ein Gefühl dafür bekommt, welche geeignet sein könnten und welche definitiv nicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-33532-2_2 5839f80770f9963272d1c5fc2cbb4fa0;de;;;4.1.;7.4.;;Eine Erkundung des Ökosystems der Allgemeinbildung in der Programmierung Im digitalen Zeitalter steht die Allgemeinbildung im Programmieren vor der Herausforderung, mehr Absolventen mit überdurchschnittlicher digitaler Kompetenz heranzubilden. Um dieses Ziel zu erreichen, sollte das Bildungsumfeld die digitale Transformation vollziehen. In diesem Beitrag untersuchen wir ein Ökosystem der Allgemeinbildung in der Programmierung, in dem Lehrkräfte Anleitungen geben und Studenten zum Lernen angeregt werden. Unterstützt durch verschiedene Informationstechnologien integriert es verschiedene Lehrelemente und bietet eine interaktive Lernumgebung mit effektivem Feedback. Das auf dem Ökosystem basierende Deep Teaching kann das Deep Learning der Studierenden anregen und das digitale Denken, Programmieren, Data Thinking und Design Thinking fördern. In den Lehrexperimenten hat das Ökosystem eine befriedigende Wirkung erzielt, die auf dem Shuishan-Online-System basiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1160-5_32 f94ed07f60d4ef0473cc5e5c8cba41ec;de;;;4.1.;7.4.;;Mining Desinformation und Fake News: Konzepte, Methoden und jüngste Fortschritte In den letzten Jahren ist Desinformation, einschließlich Fake News, aufgrund ihres explosiven Wachstums, insbesondere in den sozialen Medien, zu einem globalen Phänomen geworden. Die weite Verbreitung von Desinformation und Fake News kann nachteilige gesellschaftliche Auswirkungen haben. Trotz der jüngsten Fortschritte bei der Erkennung von Desinformation und Fake News ist sie aufgrund ihrer Komplexität, Vielfalt, Multimodalität und der Kosten für die Überprüfung oder Annotation von Fakten immer noch nicht trivial. Das Ziel dieses Kapitels ist es, den Weg für die Anerkennung der Herausforderungen und Fortschritte zu ebnen durch: (1) Einführung der Arten von Informationsstörungen in sozialen Medien und Untersuchung ihrer Unterschiede und Verbindungen, (2) Beschreibung wichtiger und aufkommender Aufgaben zur Bekämpfung von Desinformation zur Charakterisierung , Aufdeckung und Attribution, und (3) Diskussion eines schwachen Aufsichtsansatzes zur Aufdeckung von Desinformation mit begrenzten gekennzeichneten Daten. Anschließend geben wir einen Überblick über die Kapitel in diesem Buch, die die jüngsten Fortschritte in drei verwandten Teilen darstellen: (1) Nutzerengagement bei der Verbreitung von Informationsstörungen, (2) Techniken zur Erkennung und Eindämmung von Desinformation und (3) Trendthemen wie z B. Ethik, Blockchain, Clickbaits usw. Wir hoffen, dass dieses Buch ein bequemer Einstiegspunkt für Forscher, Praktiker und Studenten ist, um die Probleme und Herausforderungen zu verstehen, hochmoderne Lösungen für ihre spezifischen Bedürfnisse zu erlernen und schnell zu identifizieren neue Forschungsprobleme in ihren Bereichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-42699-6_1 0e1dfbf53991073c63c83052f1349325;de;;;2.3.;7.4.;;Inspiration für die Erkennung von Schlachtfeldsituationen durch KI-Militärprogramme, die von der DARPA in den USA gestartet wurden, und Entwicklung von KI-Technologie Die intelligente Erkennung von Schlachtfeldsituationen ist sehr wichtig für die Kriegsführung, aber diese Art von Technologie ist sehr schwer zu erreichen. Das „Deep Green“-Programm, das von der DARPA in den USA ins Leben gerufen wurde, um militärische intelligente Kommandos und Operationen für die moderne Kriegsführung zu untersuchen, ist erfolglos. Das Hauptproblem besteht darin, dass die Technologie der intelligenten Erkennung von Schlachtfeldsituationen kein Durchbruch ist. Später widmen die USA der KI-Technologie, die im Militärbereich eingesetzt wird, mehr Aufmerksamkeit, insbesondere im Hinblick auf den Aspekt der Kognitionsintelligenz. Das von DARPA unterstützte Geld wird anscheinend von Jahr zu Jahr erhöht. Da einige neue Technologien wie Big Data und Bayesian Deduction, insbesondere die Deep Learning-Technologie, vorgestellt werden und diese neuen Technologien in immer breiteren Bereichen eingesetzt werden, macht die Entwicklung der KI-Technologie einen großen Schritt nach vorne. Wir finden auch einige Forschungen zur Deep-Learning-Technologie, die in der Situationserkennung angewendet wird. Daher können uns einige wichtige Anregungen für die Wahrnehmung von Schlachtfeldsituationen im militärischen Bereich gebracht werden. In dem Papier werden die wichtigsten von DARPA gestarteten KI-Militärprogramme durchkämmt und analysiert. Big Data, Bayesian Deduction und Deep Learning in der KI-Technologie werden vorgestellt. Insbesondere wird der Forschungsstand von Deep Learning und seinen Anwendungen in der Situationskognition verallgemeinert. Darauf aufbauend werden die Forschungen zur militärischen Gefechtslagekognition auf Basis der KI-Technologie entsprechend einiger relativer Erkenntnisse prospektiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-2666-9_57 555b6edf52d9fda65d141d7bba972f45;de;;;5.2.;7.4.;;InfrastrukturMobilität im Sinne von Beweglichkeit kann technisch gesehen durch eine Vielzahl von Konzepten realisiert werden, die in unterschiedlichen Umfeldern ihre Berechtigung haben. Die Elektromobilität ist bisher insbesondere bei kurzen benötigten Reichweiten eine Option – 90 % aller PKW-Fahrten sind kürzer als 100 km und fallen damit in diesen Bereich. Wie jedes Mobilitätskonzept erfordert die Elektromobilität angemessene Infrastrukturen, um funktionieren zu können. Bei der Elektromobilität sind hierbei insbesondere die Ladeinfrastruktur, die Stromnetze und das Servicenetz von wesentlicher Bedeutung für den Erfolg und werden in diesem Kapitel detailliert betrachtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-53137-2_3 60cc49af8898a8d7b44ab25bd0fbbe35;de;;;7.2.;7.4.;;Abschlußdiskussion. Reduzierende ZusammenfassungGreift man aus den Diskussionen, die sich während der Reinhartshausener Tagung im Anschluß an die Referate oder im zwanglosen Gespräch ergeben haben, die immer wiederkehrenden zentralen Momente heraus, so steht die Frage des Anfangens im Vordergrund. Die Überzeugung hat an Boden gewonnen, daß in der zukünftigen Entwicklung der Medizin die Technik der elektronischen Informationsverarbeitung eine große Rolle spielen wird. Viele sehen in der Ausnützung der enormen Möglichkeiten, die ein Computer gewährt, die Chance für den praktisch tätigen Arzt, der modernen zunehmenden Überforderung seines Wissens und Könnens wieder Herr zu werden. Mehr und mehr wächst die Erkenntnis, daß die elektronische Informationsverarbeitung die organisatorische Struktur der Krankenhäuser und Kliniken, die Methodik der medizinischen Forschung und die Ausübung der ärztlichen Praxis — man möchte fast sagen — von den archaischen Fundamenten aus völlig neu gestalten wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-85965-6_18 bc5e3f2647a7d7b6d62df19c47b0d4f3;de;;;7.2.;7.4.;;Abhängigkeiten und Schadenspotentiale in der ’Informationsgesellschaft’Nach dieser begrifflichen Vorklärung wollen wir uns der praktischen Frage zuwenden, welche Schäden und Schadensfolgen in der ’Informationsgesellschaft’ möglich sind. Im begrenzten Rahmen dieser Untersuchung kann allerdings nur exemplarisch erörtert werden, inwieweit die IuK-spezifischen Schadenstypen in bestimmten Anwendungsbereichen Bedeutung erlangen können. Ebenso soll auch die Katastrophentauglichkeit dieser Gesellschaft lediglich an einem Beispiel betrachtet werden. Wir wollen deren Katastrophendisposition gedanklich testen, indem wir unterstellen, die Telekommunikation wäre zu großen Teilen ausgefallen. Eine ausführlichere Untersuchung dieser Fragen wäre eine lohnende Aufgabe für viele Forschungsprojekte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-93574-8_8 1bd2c45270ba2f02274a5c33c6917109;de;;;7.2.;7.4.;;Rechnerunterstützung für die UVPDer folgende Artikel gibt einen Überblick über die Ergebnisse einer Fragebogenaktion zur Rechnerunterstützung für die Umweltverträglichkeitsprüfung (UVP). Schwerpunktmäßig werden dabei zwei Bereiche betrachtet: Die qualitative Auswertung der Studie faßt die Stellungnahmen von Praktikern zu Möglichkeiten und Grenzen des Rechnereinsatzes für eine so komplexe Aufgabenstellung wie eine UVP zusammen. Die quantitative Auswertung der Angaben über den derzeitigen und künftigen Rechnereinsatz für umweltplanerische Fragestellungen bietetnach Anwendungsfeldern gegliederteinen Überblick über die eingesetzten Programme. Ergänzend dazu werden Verbesserungsvorschläge und Anforderungen an künftige Systeme dargestellt, die auf den praktischen Erfahrungen von Anwendern aus dem Bereich der Umweltplanung beruhen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-76081-5_71 05cbd85a1bf52eefbfdded5d32f35c21;de;;;7.2.;7.4.;;Digitale geologische Karten als Grundlage für die UmweltplanungDie digitale geologische Karte stellt ein eigentliches Geographisches Informationssystem dar. Die konsequente Strukturierung der geologischen Information erlaubt eine problemorientierte Auswahl der benötigten Information. Die Datenbankstruktur und das Datenkonzept, auf welchem die Karte basiert, werden diskutiert. Anhand von Beispielen werden die verschiedenen Möglichkeiten der Erstellung einer digitalen thematischen Karte (Vor-und Nachteile, Erfahrungen, Schwierigkeiten) erläutert. Die mit der Karte erstellte Benutzeroberfläche und verschiedene Anwendungsmöglichkeiten werden gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-58645-3_1 7e6d0820c68bdeb4ed03be2c8d3aed98;de;;;7.1.;7.4.;;Wissenschaftstransfer in ÖsterreichTraditionell wird die Erfüllung der Wissenschafts- und Forschungstransferaufgabe in der Form von Publikationen in wissenschaftlichen Zeitschriften, Buchveröffentlichungen, Filmen und Vorträgen, kurz in einem offenen, vollständigen, unbehinderten Informationsfluß für die Scientific Community gesehen, wozu bei der kaum mehr zu bewältigenden Fülle dieses Angebotes weitere Hilfsmittel treten, Bibliographien, Vorpublikationen, Abstraktensammlungen und schließlich die automatisierten wissenschaftlichen Informations- und Dokumentationssysteme.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-93440-7_50 2296dc94d1c3063f83dd801355255639;de;;;7.1.;7.4.;;Erklärungsversuche, Hypothesen und ModelleDie gegenwärtige Forschung über ADHS bewegt sich derzeit noch in einem eher deskriptiv-explorativen Stadium und wird von einigen Hypothesen dominiert. Es findet sich zur Zeit keine konsistente Theorie, die imstande wäre, die Verbindung der Kernsymptome, die Subtypen und Komorbidität von ADHS differenziert zu erklären und verlässliche Vorhersagen zu ermöglichen. Entwicklungspsychologie, Entwicklungsneuropsychologie, Neurobiologie und Genetik müssten die spezifische Abweichung der ADHS vom normalen Entwicklungsprozess erklären und in einem integrierten Modell die vielen Widersprüche und Puzzleteile zusammenfassen. Wie weit die derzeit deskriptive Definition von ADHS im DSM-IV einen wissen-schaftlichen Forschritt fördert oder blockiert, scheint noch fraglich. So meint Barkley, einer der führenden theoriesuchenden Forscher, resigniert: ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-0566-5_7 3a73984afb46f0efdc1d2625b83333d5;de;;;7.1.;7.4.;;Architektur offener KommunikationssystemeZur Festlegung eines allgemein akzeptierten Kommunikations-verhaltens von Rechnersystemen ist es erforderlich, ein allgemeines, abstraktes Modell für die Kommunikation offener Systeme zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-70116-0_2 2965904eb2194516753a7d6a80e8dee0;de;;;7.1.;7.4.;;Verstärkung gesellschaftlicher EntwicklungstrendsAuf entsprechendem Abstraktionsniveau können für die gesellschaftliche Entwicklung gewisse Trends festgestellt werden, die zwar auch vor der Einführung der IuK-Technik schon bestanden, durch die Anwendung dieser Technik jedoch einen besonderen Aufschwung erleben. Vermutlich dürfte die IuK-Technik ihre schwerwiegendsten sozialen Folgen dadurch verursachen, daß ihre Anwendung — oft unbewußt oder ungewollt — diese Entwicklungstrends unterstützt und verfestigt. Sie geht mit ihnen unlösbare Verbindungen ein, die die künftige gesellschaftliche Entwicklung in hohem Maße prägen werden. Fünf solcher — für die Beurteilung der Verfassungsverträglichkeit künftiger Technikanwendungen besonders relevanter — Trends sollen in diesem Kapitel exemplarisch umrissen warden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-94185-5_7 cba3eee5672165151467ceeea4a79fc0;de;;;7.1.;7.4.;;Technikeinsatz im Dienstleistungs- und Verwaltungsbereich als Schritt zur Post-industriellen Gesellschaft. Überwindung oder Verschärfung der Krise?Die sogenannten Informations- und Kommunikationstechniken gelten als gesellschaftli che Schlüsseltechnologien. Ihre Entwicklung und Produktion soll direkt zur Wiedergewinnung von wirtschaftlichem Wachstum beitragen. Ihre Anwendung in der Verwaltung von Industriebetrieben und im privaten wie öffentlichen Dienstleistungsbereich soll Personalkosten senken und über die Stärkung der internationalen Wettbewerbsfähigkeit ebenfalls Wachstum ermöglichen. Nach den herrschenden politischen Vorstellungen soll die staatliche Förderung der Entwicklung und Anwendung der Informations- und Kommunikationstechniken einen Beitrag zur Überwindung der gegenwärtigen Krise leisten und zu einer neuen Gesellschaft, der Informationsgesellschaft, nach-industriellen oder post-industriellen Gesellschaft führen. Unternehmer(verbände) und (Wirtschafts-)Politiker sind sich darin einig und können sich auf weitgehend einhellige Aussagen der Betriebswirtschaftslehre und Volkswirtschaftslehre stützen. Dieser herrschende Konsens wird nur von wenigen Stimmen mit unterschiedlichen Akzenten durchbrochen. Die Gewerkschaften bezweifeln zum Teil die versprochenden positiven Beschäftigungseffekte und befürchten einen Anstieg der Arbeitslosigkeit bis auf vier oder gar sechs Millionen. Im Kontext der Datenschutzdiskussion wird eine Ausdehnung elektronischer Überwachung in allen Lebensbereichen befürchtet. Vereinzelt werden auch negative Folgen einer umfassenden Informatisierung oder Verdatung für die Persönlichkeitsentwicklung, die sozialen Beziehungen und die Kultur angesprochen. In der öffentlichen Diskussion werden solche Hinweise auf Risiken häufig als Technikfeindlichkeit, Angst vor Neuerungen oder als genereller Angriff auf das ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-83645-8_14 99e70c582784bde03bde66dbafd8d201;de;;;7.1.;7.4.;;PEARL 90 in der Lehre — ErfahrungsberichtLike Pascal PEARL 90 is well suited for teaching the systematical development of Software. Furthermore it comprises a clear I/O concept and an unpretentious and efficient realtime part. Although PEARL 90 isn’t an object oriented language, its concepts of modules and pointers facilitate an introduction to object oriented programming. Since 1989 more than 3000 each of tested realtime programs and of first versions of modules have been controlled at FH Bielefeld. Based on this experience I am making some proposals for programming guidelines.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-60535-2_6 c91bc60f985b52306484eb455a565594;de;;;7.1.;7.4.;;Lernanforderungen als Gestaltungsgrundlage für die Mensch-Maschine Schnittstelle von RechnernWir befassen uns mit einem ausgewählten, unserer Ansicht nach jedoch wesentlichen Aspekt der ‘Benutzerfreundlichkeit’, den Lernanforderungen als Eigenschaft eines Rechner-Systems. Wir legen dar, daß die Beziehung zwischen der Leistung und den Eigenschaften des Systems nicht statisch ist, sondern vom Verlauf des Lernprozesses beim Benutzer abhängt. Das für die Aufgabenerfül1ung beim Benutzer vorausgesetzte Wissen umfaßt aufgaben- und werkzeugspezifische Elemente. Sowohl der Umfang wie der Erwerb dieses Wissens kann durch Gestaltung der Mensch-Maschine-Schnittstelle (MMS) optimiert werden. Theoretische Ansätze und empirische Ergebnisse werden hinsichtlich dieser Fragestellung ausgehend von einer ‘kognitiven’ Sichtweise diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-46577-2_8 711c7dbc103863914156ea360b55ba17;de;;;7.1.;7.4.;;Produktionssteuerung nach KANBAN-PrinzipienMarktveränderungen zwingen die Unternehmungen, die internen Abläufe und Planungsmethoden den sich ändernden Bedingungen anzupassen. Charakteristische Erfolgskomponenten, und das gilt für nahezu sämtliche Branchen industrieller Leistungserstellung, sind eine gestiegene kundenspezifische Differenzierung der Produkte und kürzere Lieferzeiten, wobei die gewünschte Marktbedienung mit möglichst geringen Beständen erreicht werden soll. Der Marktbedienung durch Vorhalten von Produkten sind ökonomische Grenzen gesetzt, da verläßliche Prognosen über das Kundenverhalten nur unzureichend abgegeben werden können und eine hohe Variantenzahl die Entkopplung der Produktion von der Nachfrage über eine gezielte Lagerhaltung erschwert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-89141-9_10 66e483854bcf5272b7e97ff732b3546f;de;;;7.1.;7.4.;;Datenspeicherung und -archivierungWie in anderen Industriezweigen standen auch im Druck- und Verlagswesen die Daten in ihrer Bedeutung lange hinter den sie verarbeitenden Programmen und Systemen zurück. Über einen großen Zeitraum wurde viel Wert auf die Optimierung der Funktionalität und der Leistung von Endsystemen gelegt, wie beispielsweise der im Vorstufenbereich eingesetzten Hard- und Softwareprodukte, ohne daß der systematischen Handhabung der dabei verarbeiteten Daten die gleiche Aufmerksamkeit geschenkt wurde. Durch den zunehmenden Anteil digitaler Publikationen, die eine effiziente Nutzung moderner Speicherungs- und Retrieval-technologien unabdingbar machen, ist hier seit einiger Zeit ein Umdenken zu erkennen. Ähnlich wie in modernen Industrieunternehmen, wo Daten als Träger der für Entscheidungs- und Steuerungsprozesse notwendigen Informationen angesehen und in unternehmensweiten Informationssystemen aufbereitet werden, sind auch im publizierenden Gewerbe immer mehr fachspezifische Lösungen im Einsatz, die eine kontrollierte Handhabung der Daten realisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-79421-6_5 23c402ccdf69520778538ca5d14b1f79;de;;;7.1.;7.4.;;Die Kosten- und Leistungsrechnung als Instrument des ControllingNach der Darstellung der Produktionsplanung und -steuerung als Instrument des Controlling in Kapitel 3 soll in diesem Kapitel die Kosten- und Leistungsrechnung im Hinblick auf diese Rolle untersucht werden. Im Gegensatz zur PPS wird die KLR in sehr vielen Veröffentlichungen als klassisches Controllingwerkzeug beschrieben. In der Praxis werden Kostenrechnung und Controlling nach der Erfahrung des Verfassers bisweilen sogar vereinfachend synonym verwendet, wie sich in Stellenbeschreibungen sowie durch Analysen von Stellenanzeigen erkennen läßt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-07996-5_4 d9cd2eed4d4975de71fa3fe6643db6de;de;;;7.1.;7.4.;;Zielsetzung und Aufbau des BuchesSeit einigen Jahren spielen lokale Computernetze (LANs, Local Area Networks) eine immer größere Rolle bei der Fortentwicklung leistungsfähiger, integrierter, dezentral organisierter Informationssysteme in räumlich zusammenhängenden Gebäudekomplexen. Vor allem die Kostendegression für Mikroelektronik-Komponenten hat dazu geführt, daß sich Groß- und Kleinrechner, Mikroprozessorsysteme, Personal Computer sowie intelligente mikroprozessorgesteuerte Geräte in noch ständig wachsender Zahl im Haus-, Büro-, Produktions- und Datenverarbeitungsbereich der verschiedensten Institutionen und Betriebe angesammelt haben. Vielfach entstand der Wunsch und die Notwendigkeit, besonders solche Geräte, die in einem Gebäude oder zusammenhängenden Gebäudekomplex installiert sind, zum Austausch von Informationen und zur gemeinsamen Nutzung verschiedener Ressourcen (Laserdrucker, Spezialprozessoren, Datenbanken usw.) miteinander zu verbinden. Zur Deckung des damit verbundenen Kommunikationsbedarfs im örtlichen Bereich sind lokale Computernetze (mit hohen Übertragungsraten und dezentralen Übertragungssteuermechanismen) besonders gut geeignet. Ihre Ausdehnung ist auf wenige Kilometer beschränkt. Die kurzen Übertragungszeiten ermöglichen in verschiedenen Bereichen eine enorme Steigerung des Leistungsverhaltens, in anderen führen sie zu gänzlich neuen Anwendungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-8885-9_1 2cce245aa895379d2e5034e6a3efa7ba;de;;;7.1.;7.4.;;Informatik und VerantwortungChancen und Risiken der Informationstechnik erfordern verantwortliche Gestaltung nach technischen, wirtschaftlichen und gesellschaftlichen Zielen und Kriterien. Dabei kann es zu Konflikten kommen, die Verantwortungsprobleme schaffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-84926-7_21 4604a025d59169c1f407734e5bb87ae2;de;;;7.1.;7.4.;;Verwaltungsreorganisation mit ReferenzmodellenDer Einsatz von Informationstechnik in der öffentlichen Verwaltung wird seit Jahren begleitet von einer intensiven Diskussion über das Reformpotential der je nach Entwicklungsstand immer wieder zunächst „neuen“ Technologien. Dabei können grundsätzlich zwei Richtungen der Reformdiskussion unterschieden werden mit jeweils einer extremen bzw. moderaten Position.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-61495-8_23 fd27c85a13e261506545f813ba32a531;de;;;7.1.;7.4.;;Zur Person von Gerhard W. WittkämperGerhard W. Wittkämper wurde am 5. April 1933 in Solingen als viertes Kind von Alwine und Friedrich Wittkämper geboren. Beide Eltern waren in der Bekennenden Kirche engagiert, und die im besten Sinne humanistische Ausrichtung des Elternhauses prägt Gerhard W. Wittkämper bis heute.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-95073-4_23 cd2fa81d88c8bdf1c15a115d6bb7d885;de;;;7.1.;7.4.;;Textverarbeitung mit UniversalrechnernBei der Einführung von Schreib- und Textsystemen anstelle der klassischen Schreibmaschinen wird häufig zu wenig darauf geachtet, daß Textverarbeitung weit mehr ist als bloße Edition und Gestaltung eines Textes. Die Anforderungen in einem großen Unternehmen wie zum Beispiel einer Forschungseinrichtung zeigen, daß mit den vorhandenen Universalrech- nern ein Großteil der Aufgaben gelöst werden kann, die beim Gestalten, Verteilen, Verwalten und Dokumentieren von Texten anfallen. Im Zusammenwirken mit dezentralen Systemen läßt sich sogar ein Funktionsverbund aufbauen, der die Anforderungen einer Forschungseinrichtung voll erfüllt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-70639-4_92 b842410da9dd3148d95f153f0ed07205;de;;;7.1.;7.4.;;Dokumentation als EntscheidungshilfeDokumentation ist ein vielschichtiger Begriff. Es soll hier unter Dokumentation die Speicherung bestimmter Datenmengen verstanden werden, die es möglich macht, Einzeldaten aus der Datenmenge nach bestimmten Gesichtspunkten wieder zugänglich zu machen. Die Speicherung ist unabhängig von der automatischen Datenverarbeitung, wie das Beispiel gewisser Randlochkarten-Systeme zeigt. Wenn im folgenden von Dokumentation die Rede ist, wird darunter immer die Dokumentation mit Hilfe automatischer Datenverarbeitung verstanden. Der englische Fachausdruck für diese Anwendung der Datenverarbeitung lautet “information retrieval”, also Informationswiedergewinnung, ein Ausdruck, der besser als der deutsche den Vorgang des Heraussuchens von Daten charakterisiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-19701-0_10 28c899070d5ba802176b0f8aeeb43c33;de;;;7.1.;7.4.;;Unsicherheitsmanagement als zentrale Aufgabe der frühen ProduktentstehungsphasenIm vorangegangenen Kapitel wurde dargestellt, dass turbulente Unternehmensumfelder zu Unsicherheit führen, die durch geeignete Strategien und Methoden in der Produktentstehung bewältigt werden muss. Das vorliegende Kapitel untersucht die Frage, welche Strategien hierfür geeignet sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-82157-7_4 74cba8905bc7554ed1522ca687a4a1f7;de;;;7.1.;7.4.;;Bildung eines Wahrscheinlichkeitsurteils und Bewertung von InformationenIm zehnten Kapitel geht es um die Bildung von Wahrscheinlichkeitsurteilen und die Verarbeitung von Informationen im Entscheidungsprozess. Bei Risiko liegen Informationen der Bildung eines anfänglichen Wahrscheinlichkeitsurteils zugrunde, das nach Zugang weiterer Informationen zu einem neuen Urteil revidiert wird. Wie dies auf rationale Weise geschieht, beschreibt das Theorem von Bayes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-57818-6_10 10efd391b97b607468f205b19786883c;de;;;7.1.;7.4.;;Integrierte Produktentwicklung — Eine Erweiterung des CIM-GedankensEin Industrieunternehmen, das für sich in Anspruch nimmt, Weltklasse zu sejn, kommt heute nicht selten zu der ernüchternden Erkenntnis, daß alle seine Konkurrenten ebenfalls Weltklasse sind: ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-83873-5_1 5fcf507a44c8b8e2f8d4e3a3bab8f4e7;de;;;7.1.;7.4.;;Die Bedeutung der ADV für Klein- und MittelbetriebeDie Automatisierte Datenverarbeitung (ADV) wurde in den Anfängen der Computertechnologie als eine Domäne groβer Unternehmungen betrachtet. Die informationstechnologische Entwicklung hat jedoch im Laufe der Zeit auch den Besonderheiten der Datenverarbeitung in Klein- und Mittelbetrieben Rechnung getragen. Durch die Entwicklung der Mittleren Datentechnik (MDT) und die Möglichkeit zu deren Einsatz in Verbundsystemen ist diesen Betrieben auch der direkte Zugang zu groβen ADV-Anlagen erschlossen. Die Bedeutung, die die ADV gegenwärtig für Klein-und Mittelbetriebe besitzt, kann ermessen werden, indem man einerseits den derzeitigen ADV-Anwendungsstand ermittelt und andererseits untersucht, inwieweit Klein- und Mittelbetriebe für den ADV-Einsatz geeignet sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-88589-0_1 23ce472366b4c9cd6da9c22a17de4f35;de;;;7.1.;7.4.;;eBusiness FrameworkDas Einführungskapitel dient der Begriffsklärung, grundlegenden Konzepten der Internetökonomie und der Kapitelübersicht. Abschn. 1.1 erläutert die Vielfalt elektronischer Geschäftsbeziehungen für eBusiness, eCommerce und eGovernment. In Abschn. 1.2 illustrieren aussagekräftige Fallbeispiele einige Optionen des Electronic Business, die Anwendungen betreffen eShopping, eHealth, eVoting und eCollaboration. Aktuelle Internetentwicklungen zu Web 2.0 und Semantic Web finden sich in Abschn. 1.3. Abschnitt 1.4 formuliert die wichtigsten Thesen der Internetökonomie und gibt eine langfristige Betrachtung des sektoralen Strukturwandels. Mit Hilfe der erläuterten Begriffe und Anwendungsbeispiele beschreibt Abschn. 1.5 die digitale Wertschöpfungskette und die darauf aufbauende Kapitelübersicht. Literaturhinweise folgen in Abschn. 1.6.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29802-8_1 11b7fd165e935adbb8af6c942ef885ae;de;;;7.1.;7.4.;;Berufsfertigkeiten versus Berufsfähigkeit„Welchen Wert haben theoretische Grundlagen für die Berufspraxis?“ fragt dieser Teil der Tagung, zu dem ich mit dem folgenden Aufsatz beitragen möchte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-79958-7_46 9ec45f7170d478f41d9b02021eb9302f;de;;;7.1.;7.4.;;Politische Rahmenbedingungen kommunaler Daseinsvorsorge in der WassergütewirtschaftDie Analyse politischer Rahmenbedingungen für die Aufgabenerfüllung in der Wassergütewirtschaft auf kommunaler Ebene kann davon ausgehen, daß die politischen Einzelentscheidungen der Aufgabenträger nicht durch Gesetze und Verordnungen konsekutiven Charakters, ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-88586-9_2 6215dce2db8840909eecc7674ca3985f;de;;;7.1.;7.4.;;Die Anwendung der Informationstechnik in Büro und Verwaltung und die Auswirkungen auf die Arbeitsorganisation und Arbeitsanforderungen in kaufmännisch-verwaltenden BerufenDie Informationsverarbeitung in Büro und Verwaltung wird gegenwärtig noch in erheblichem Umfang mit konventionellen Geräten abgewickelt. Dennoch wird die Informationstechnik den kaufmännischen und verwaltenden Bereich auf längere Sicht immer umfassender durchdringen. Maßgebende Trends werden dabei die Einführung arbeitsplatzorientierter und (teil-)integrierter Informationssysteme sowie neuer Systeme der Informationsübertragung sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-68600-9_20 4785540d9e70875b83bee529511f9b31;de;;;7.1.;7.4.;;Die berufliche Verantwortungssituation von Ingenieuren in der BeratungEin wichtiges Charakteristikum sowohl der Mikroelektronik als auch der Informationstechnik besteht darin, daß ihre Einsatz- und Anwendungsmög- lichlichkeiten zwar äußerst vielfältig sind, aber für den konkreten Einzelfall immer erst erschlossen und geprüft werden müssen. Die mit den beiden neuen Technologien propagierten Eigenschaften: erhöhte Präzision und Qualität der so ausgestatteten Produkte, Flexibilisierung und Beschleunigung von Fertigungsverfahren und Kombinationsmöglichkeiten mit anderen Technologien sind für die Entscheidung über Einführung oder Ausweitung mikroelektronischer und informationstechnischer Elemente in das konkrete Betriebsgeschehen erst dann aussagekräftig, wenn sie in Produkt- bzw. Prozeßspezifikationen übersetzt worden sind. In den großen Unternehmen sind dafür spezielle Technologie- und Entwicklungsabteilungen zuständig. Für kleinere und mittlere Unternehmen verbietet sich aus finanziellen Gründen solch ein Aufwand. Sie sind daher in der Regel auf Beratung von außen angewiesen. Dabei ist, wo es um technische und technologieorientierte Beratung geht, die betriebswirtschaftliche Dimension immer gegenwärtig. Die darauf aufbauenden Schlußfolgerungen hängen aber wiederum davon ab, wie die neuen technischen Möglichkeiten in der Beratungssituation präsentiert werden, auf welche Eigenschaften der Technik besonders hingewiesen und auf welche Chancen und Gefahren aufmerksam gemacht wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-83950-3_3 ca7b378744c6ddb626a97166294beedb;de;;;7.1.;7.4.;;Organisatorische Integration von Flexiblen Fertigungssystemen durch CIM und LogistikDen Marktforderungen nach einem variantenreichen und qualitativ anspruchsvollen Produktspektrum, das in kurzer Lieferzeit termingetreu zur Verfügung zu stellen ist, steht gleichzeitig auf betrieblicher Seite ein hoher Kostensenkungsdruck entgegen. Daraus läßt sich die Notwendigkeit einer ebenso flexiblen wie produktiven Fertigung ableiten. Dieser können konventionelle Fertigungsstrukturen wie Werkstatt- oder Fließfertigung aber nur eingeschränkt gerecht werden, da hierbei die Ziele Flexibilität und Produktivität nicht im verlangten harmonischen Verhältnis, sondern konfliktär zueinander stehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-85613-5_4 07f59322e4c7c9f1ac8b93d7341cc94a;de;;;7.1.;7.4.;;Planung und Kontrolle im KonzernPlanung ist ein Kernelement vieler betriebswirtschaftlicher Teildisziplinen. So spricht man von Marketingplanung, Fertigungsplanung oder Finanzplanung. Ausgangspunkt einer Planung ist das Vorliegen eines Systems, d. h. einer Gesamtheit von Elementen, die miteinander in Beziehung stehen. Ein solches System ist z. B. ein Einzelunternehmen oder ein Konzern. Ausgangspunkt der Planung ist, dass der Zustand dieses Systems von einer Person (dies können der Planer, der Entscheider oder andere sein) als nicht zufriedenstellend oder verbesserungsfähig bzw. aufgrund externer Vorgaben als nicht mehr angemessen empfunden wird. Folglich gibt es einen Unterschied zwischen dem derzeitigen bzw. zukünftig erwarteten Zustand und dem erstrebten durch Ziele beschriebenen künftigen Zustand (vgl. Klein u. Scholl 2004, S. 1). Die Planung soll durch Ableitung von Handlungsfeldern dabei helfen, den Zustand des status quo in den angestrebten Zustand zu überführen. Planung ist – wie bereits in Kap. 1 ausgeführt – „prospektives Denkhandeln“ mit dem „zukünftiges Tathandeln“ vorweggenommen werden soll (Kosiol 1967, S. 79).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13156-1_4 e08567bc0897740dd238e46a3484adaa;de;;;7.1.;7.4.;;Fertigungsmittel- und PersonaleinsatzplanungInnerhalb der Fabrikplanung gehört die Planung von Produktionsressourcen zu den wichtigen drei Themen neben der gesamten Fabriklayoutgestaltung und der Ableitung der Produktionsplanungs- und -steuerungskonzepte. Zu den Aufgaben der Ressourcenplanung zählen die Darstellung des Kapazitätsangebotes und dessen Abgleich mit dem Kapazitätsbedarf sowie die Gestaltung der Ressourcen Personal und Fertigungs-, Montage- und Logistikmittel. Der Abgleich des Kapazitätsangebotes mit dem -bedarf ergibt die Anzahl der notwendigen Ressourcen, die eingestellt (Personal) oder beschafft (Produktionsmittel) werden müssen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-61969-8_6 a3f2704d8ceb9cbc0ddcd577ad9e41e9;de;;;7.1.;7.4.;;Industrielle Nutzung wissensbasierter SystemeNoch vor wenigen Jahren war der Begriff „Wissensverarbeitung“ (knowledge processing) außerhalb der Artificial Intelligence (Al)-Forschung praktisch unbekannt. Heute befinden wir uns an der Schwelle zum praktischen Einsatz dieser Technologie in einer Vielzahl von Anwendungsfeldern, vornehmlich im technisch-naturwissenschaftlichen Bereich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-70840-4_26 7d9105fa6b46e39f34053207632fb0b2;de;;;7.1.;7.4.;;Aufgaben einer ExpertendateiHaben sich in den vergangenen Jahrzehnten elektronische Rechenanlagen als wirkungsvolle Werkzeuge zur Informationsverarbeitung auf wissenschaftlichen und kommerziellen Gebieten erwiesen, so treten heute immer mehr Weitergabe und Austausch von Informationen in den Vordergrund der Betrachtung. Auf nahezu allen Gebieten menschlichen Wissens herrscht ein derartiges Überangebot an Information, daß niemand mehr in der Lage ist, es in vollem Umfang aufzunehmen, geschweige denn zu überschauen oder sinnvoll zu verwerten. Nach groben Schätzungen erscheinen jährlich 2 Millionen Fachartikel und 300000 Buchtitel auf dem Markt (1). “Wenn diese Menge nicht richtig geordnet wird und die Mittel zur Feststellung ihres Inhalts nicht bereitstehen, werden Literatur und Wissenschaft von der eigenen, nicht mehr zu bewältigenden Masse erdrückt” (2).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-88063-5_2 ca681f3fe41d57014ad08e61977ae539;de;;;7.1.;7.4.;;Betriebspolitiken der Interessenvertretungen unter den Bedingungen des Gegenwärtigen Ökonomischen, Sozialen und Technischen WandelsMit Max Weber ist der privatwirtschaftlich verfaßte Betrieb als Herrschaftsverband, in dem Herrschende und Beherrschte eine soziale Beziehung eingehen, charakterisierbar (vgl. Weber, 1976, §§ 12 ff.). Im Anschluß an diese klassische soziologische Definition bezeichnet der Betrieb einen direkten oder unmittelbaren Vergesellschaftungszusammenhang, innerhalb dessen seine Mitglieder auf der Basis der asymmetrischen Gliederung des Verbandes in Herrschende und Beherrschte ihre Interessen wahrnehmen. Mit dieser allgemeinen Bestimmung ist nichts über den Inhalt des jeweiligen Interesses gesagt, sie stellt im Gegenteil auf das Dazwischen- oder Involviertsein des jeweiligen Interesses ab. Deshalb ist die Max Webersche Kategorie Herrschaftsverband auch genauer als betriebliches Herrschaftsverhältnis zu charakterisieren, das sich nicht nur in Herrschende und Beherrschte, sondern darüber hinaus auch in die sich zwischen diese beiden Gruppierungen schiebenden Herrschaftsausübenden untergliedert. Zwar gehören Beherrschte und Herrschaftsausübende aufgrund ihrer strukturellen Distribuiertheit als variables Kapital, d.h. als abhängig Beschäftigte beide zu den Herrschaftsunterworfenen, aber in der Unmittelbarkeit des betrieblichen Herrschaftsverhältnisses löst sich diese sozialstrukturelle Homogenität durch die in ihr herrschende, d.h. direkt herrschaftsförmig hergestellte betriebliche Arbeitsteilung und Vergesellschaftung tendenziell auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-97026-8_4 1fcb27d4ded5fd175ef9dce9c26ef6a1;de;;;7.1.;7.4.;;Hat die Datenverarbeitung Das Datenschutzrecht ÜBrholt? — ÜBerlegungen aus Der Sicht Der Kontrollpraxis —Um die Frage zu beantworten, ob die Datenverarbeitung das Datenschutz recht tatsächlich überholt hat, ob Schutzgegenstand, Schutzumfang und Schutzinstrumentarium der Datenschutzgesetze angesichts der raschen Entwicklung der Datenverarbeitung noch ausreichen, werden im folgenden die unterschiedlichen Formen der Datenverarbeitung und die Beziehungen zwischen Datenverarbeitung, Datenschutzgesetzen und Datenschutz recht ausschnittweise betrachtet und anschließend bewertet- Dies geschieht weniger von einem theoretischen Ansatz her, sondern aus dem Blickwinkel der Kontrollpraxis des Berliner Datenschutzbeauftragten. Dabei werden auch die Entwicklungslinien hervorgehoben, die zum gegenwärtigen Gesetzesstand geführt haben, um die Beziehungen zwischen Datenverarbeitung und Datenschutz zu verdeutlichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-70865-7_7 9d767d031b94e87b65d0fbcf12739291;de;;;7.1.;7.4.;;Ein Verhaltenskodex für Informatiker? Zur Ethik und Verantwortung in den angewandten WissenschaftenDie “Allgegenwart der Computer” beschert uns in den hochentwickelten Staaten eine neue Abhängigkeit, die Abhängigkeit von Informatik-Systemen und damit von der Leistungsfähigkeit und Zuverlässigkeit der Informatik. Informatiker verschaffen, zusammen mit anderen anwendungsnahen Wissenschaftlern, Macht. Wer aber Macht ausübt oder Macht verschafft, der trägt Verantwortung. “Die Anforderungen an die Verantwortlichkeit wachsen proportional zu den Taten der Macht” (Hans Jonas, 1).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-71384-2_54 9f736e17ab80ae082d33d6dd0d724aaf;de;;;7.1.;7.4.;;Organisationsplanung als Bestandteil der UnternehmensstrategieDas arbeitsteilige Zusammenwirken der Ressourcen „Mensch“ und „Sachmittel“ mit dem Bindeglied „Informationen“ optimal auf die angestrebten geschäftlichen Ziele auszurichten, bedeutet zum einen im Rahmen der Aufbauorganisation die strukturelle Gliederung der Bank in aufgabenbezogene Teilbereiche ebenso wie die Regelung von Leistungs-, Informations- und Kommunikationsbeziehungen, zum anderen gilt es, die Ablauforganisation als Summe sämtlicher Prozeßregelungen einschließlich der informationsverarbeitenden Arbeitsvorgänge zu begreifen und zu gestalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-83542-0_17 10d64d97eee03d247b498942251f735a;de;;;7.1.;7.4.;;Zur Architektur von Krankenhausinformationssystemen unter Berücksichtigung des GesundheitsstrukturgesetzesGegenwärtig verfügen über 90% der 2 354 Krankenhäuser über ein computerunterstütztes Krankenhausinformationssystem, wobei jedoch erhebliche Unterschiede in bezug auf den Automationsgrad, also das Verhältnis der tatsächlich automatisierten zu den potentiell automatisierbaren Geschäftsprozessen, und das Systemkonzept festzustellen sind. Etwa 68% der Krankenhäuser bedienen sich einer Rechenzentrumslösung, 30% einer autonomen Lösung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-93685-2_3 56235d50bc077a2540ab2263e37c1bf2;de;;;7.1.;7.4.;;Individuelle und Organisatorische Konsequenzen von EntscheidungsanomalienIn diesem Beitrag wird der Konservatismus-Effekt diskutiert, der — als bekannter empirischer Befund zu sog. Entscheidungsanomalien — eine systematische Abweichung vom Bayes-Theorem beschreibt. Es wird gezeigt, daß der Konservatismus-Effekt als Beharrungseffekt gedeutet werden kann und möglicherweise ökonomisch relevante Nachteile i.F.v. hohen Kosten der Fehlentscheidung impliziert. Sowohl individuelle als auch organisatorische Vorkehrungen zur Anomalienkompensation sind notwendig und möglich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-46773-8_146 f5e9804d7e58be74100664ddd7e9a0bf;de;;;7.1.;7.4.;;Unterstützung des Verwaltungsvollzugs Durch ein Verbundsystem Erläutert am Datenvermittlungssystem Nordrhein-Westfalen (DVS)Die Verwaltung hat sich seit eh und je aller Hilfsmittel bedient, die für den Vollzug von Verwaltungsaufgaben nützlich waren: Schreibkundige Sklaven, mechanische Geräte, elektrische Maschinen, elektronische Rechenanlagen. Alle Hilfsmittel wurden immer in den Verwaltungsvollzug eingeordnet und somit der Aufgabenerfüllung untergeordnet. Erst durch den Aufbau automatisierter Datenverarbeitungssysteme, die Verwaltungsvollzug teilweise automatisiert, das heißt verselbständigt durchführen können, kommt eine Furcht vor der selbsttätigen, also menschenfreien Durchführung der Verwaltung auf. Während früher die Verwaltung, man denke an Vermessungswesen, Statistik, Finanzverwaltung, Anregung zur Entwicklung neuer Hilfsmittel gegeben hat, kommt jetzt Furcht auf, der hilfreiche Computer könnte ein Roboter werden und daher Menschen „freisetzen“. Technische Einrichtungen sind stets dem Verwaltungsvollzug einzuordnen, ihr Einsatz muß also organisiert werden. In der Fachliteratur wird „Organisation“ beschrieben als die Koordination von Handlungseinheiten auf ein bestimmtes Ziel hin. Handlungseinheiten können Individuen oder Gruppen, aber auch Sachen, somit auch Computer sein. Koordiniert werden Tätigkeiten wie Berechnen, Sortieren, Ablegen, allgemein Informationsverarbeitung und -austausch. Ziele zu setzen und Handlungen zu koordinieren, sind in keiner Organisation Tätigkeiten, die auch nur kurzzeitig zu- einer statischen Organisationsform führen, sie sind Steuerungshandlungen in einem dynamischen Prozeß. Technische und organisatorische Entwicklungen hängen eng miteinander zusammen. Die technische Entwicklung eröffnet neue Möglichkeiten für organisatorische Lösungen, die nach der jeweils gegebenen Zielsetzung, den verfügbaren materiellen und menschlichen Ressourcen vom Gesichtspunkt der Wirtschaftlichkeit optimiert werden müssen. Nach erfolgter Wahl einer bestimmten Organisationsform können einzelne technische Hilfsmittel notwendige Voraussetzungen für ihre Verwirklichung werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-68084-7_31 722a1c091734774d91d2b6f8e82a543b;de;;;7.1.;7.4.;;Ursachen und Wirkungen übermäßiger Sortimentskomplexität als Folge unzureichender kostenrechnerischer EntscheidungstransparenzIn den vorangegangenen Ausführungen wurden die gravierenden wirtschaftlichen Veränderungen der letzten Jahrzehnte im Umfeld der Unternehmen und in den Unternehmen selbst aufgezeigt. Diese schlugen sich insbesondere in einer zunehmenden Tendenz und Notwendigkeit zur kundengerichteten und differenzierten Gestaltung der Leistungsprogramme nieder. Zur Entscheidungsfindung, -bewertung und -kontrolle kamen und kommen in den Unternehmen i.d.R. aber Kostenrechnungsverfahren zum Einsatz, deren systemimmanente Mängel unter den neuen Rahmenbedingungen verstärkt hervortreten. In diesem Zusammenhang stellt sich unmittelbar die Frage nach den Wirkungen dieser Unzulänglichkeiten auf die Analyse und Gestaltung von Leistungen bzw. Leistungsprogrammen und damit indirekt auf den Erfolg von Unternehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-95238-7_3 4a383280d2684d231904104fa752a68a;de;;;7.1.;7.4.;;Bank als Adoptor neuer TK-DiensteVergleicht man den Einfluß der Telekommunikation auf verschiedene Wirtschaftsbranchen, so gilt dieser gerade im Bankensektor als besonders hoch. Ausgangspunkt dieser Überlegungen ist die hohe Informationsintensität sowohl des Wertschöpfungsprozesses (“value chain”) in Banken als auch der erzeugten Produkte, letztere sind überwiegend wirtschaftliche Werte in Form von immateriellen Nominalgütern (Geld, Guthaben, Wertpapiere usw.) (vgl. Porter/Millar 1985, S. 153, Corsten 1990, S. 17). Im Gegensatz zu Industrieunternehmen erbringen Finanzdienstleister ihre Wertschöpfung nicht durch die Veredelung körperlicher Vorprodukte, sondern durch Informationsverarbeitung (vgl. Picot 1996, S. 50). Demnach ist die bankbetriebliche Leistungserstellung im wesentlichen ein Informationssteuerungs- und -Verarbeitungsprozeß. Vorgänge der Informationsaufnahme, -Verarbeitung und -abgäbe sind bei vielen bankbetrieblichen Leistungen von besonderer Bedeutung. Bspw. besteht das Führen eines Kontos oder eines Aktiendepots hauptsächlich aus einem “Information-Handling”, Informationen werden übermittelt, verwahrt, weitervermittelt, ausgetauscht oder neu zusammengesetzt (vgl. Dratva 1995, S. 27). Einzelne Dienstleistungen, wie z.B. die Zustellung von Kontoauszügen oder die übermittlung von Kursinformationen sind gänzlich informatorischer Natur. Aber auch bei traditionellen Bankgeschäften, insbesondere beim Zahlungsverkehr besteht ein wesentlicher Teil der Dienstleistung in der Übertragung und Verarbeitung von Informationen. Entsprechend wird der hinter der Leistungskette bei einer Vielzahl von Bankleistungen stehende Personal- und Sachaufwand durch mittelbare und unmittelbare Kosten der Informationsverarbeitung bestimmt. Schätzungen gehen davon, daß diese Kosten der Informationsverarbeitung “bei Finanzdienstleistern in der Größenordnung von 90 Prozent des Verwaltungsaufwandes liegen” (Picot 1996, S. 51);-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-81396-1_3 b4f53be79dd9146de49440afe5d222fc;de;;;7.1.;7.4.;;Textverarbeitung und InformatikDie Textverarbeitung ist in erster Linie ein Teil der Bürokommunikation. Sowohl nach funktionellen als auch nach konstruktiven Gesichtspunkten betrachtet, zeigt sich eine Entsprechung von Textverarbeitung und Datenverarbeitung. Es bestehen lediglich graduelle Unterschiede, die auf der abweichenden Entstehungsgeschichte, auf der unterschiedlichen Herkunft der Gerätehersteller beruhen. Entsprechend orientiert sich die technische Entwicklung auf dem Gebiet der Automatisierten Textverarbeitung (ATV) an der der Automatisierten Datenverarbeitung (ADV). Probleme entstehen durch das Zusammenwachsen der Textverarbeitung mit Datenverarbeitung und Nachrichtenvermittlung zu einem integrierten informationstechnologischen System.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-67700-7_1 13b2f6186074fb182e7fdee324f2db8d;de;;;7.1.;7.4.;;Unternehmensweite Dezentrale DatenmodellierungBasis einer Datenmodellierung von Unternehmungen bilden Begriffe, wie Kunde, Lieferant, Auftrag, Artikel, und deren grundsätzliche Beziehungen. Dabei erweist sich eine einheitliche Festlegung des Inhaltes und der Struktur dieser Basisbegriffe als unverzichtbar zur Realisierung konkreter Aufgaben. Dies gilt insbesondere unter dem Aspekt eines durchgängigen Informationsflusses zwischen den beteiligten betrieblichen Abteilungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-76123-2_22 71dd99715436b7fc242f968fa7d4e474;de;;;7.1.;7.4.;;IM-Erfahrung bei der Hypobank AG Stand und PlanungDie Abhängigkeit der Unternehmen von der Datenverarbeitung, sowohl für die Abwicklung der täglichen Geschäftsvorfälle als auch der Bereitstellung aller für Unternehmensentscheidungen erforderlichen Informationen, sowie die zunehmende Komplexität von Systemen und Anwendungen erfordern ein zielgerichtetes Managen des DV-Betriebs.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-71660-7_16 55e11eda85436b0373b3a220877302c9;de;;;7.1.;7.4.;;Algorithmen im AlltagAlgorithmen sind präzise Handlungsanweisungen, um Probleme, die innerhalb verschiedener Kontexte auftauchen, mit Hilfe allgemeiner Schemata zu lösen. Üblicherweise verbinden wir mit dem Begriff vor allem mathematische oder informatische Herausforderungen, die nur für Ingenieure und Softwareentwickler relevant sind. Informatiker betonen aber gerne, dass Situationen, die nach algorithmischen Lösungen verlangen, durchaus auch im Alltag zu finden sind und ihre Kenntnis hilft sie effizient anzugehen. Die unter Informatikern beliebten Beispiele, wie wir einen Kuchen fair teilen können, den Ausgang aus einem Labyrinth finden, das Bücherregal am schnellsten nach einem bestimmten Buch durchsuchen oder unsere Umzugskartons möglichst platzsparend packen, wecken zwar tatsächlich oft die Neugier des Laien, sie sind aber nicht besonders geeignet, die Wichtigkeit der algorithmischen Welt für unsere heutige Gesellschaft deutlich zu machen. Wir kommen in der Regel auch gut durchs Leben, ohne solche Verfahren zu kennen oder gar selbst anzuwenden. Die Brisanz von Algorithmen wird dagegen schon eindringlicher, wenn wir daran erinnern, dass sie zum Beispiel auch Flugzeuge, Atomkraftwerke und Bankautomaten steuern. Doch gerade hier sind in erster Linie die Fachleute gefragt, die sich kompetent um deren Sicherheit und Funktionstüchtigkeit zu kümmern haben. Es wäre nicht nur zu viel verlangt, sondern durchaus gefährlich, sie jedem zugänglich zu machen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-0121-6_15 95fbed4ffb3e267291cbc397fa794d72;de;;;7.1.;7.4.;;Einführung von Vorkalkulationen in CAD-SystemenUnter Computer Integrated Manufacturing (CIM) wird die Integration betriebswirtschaftlicher und technischer Datenverarbeitungssysteme verstanden. Integration bedeutet, daß alle Funktionen aufeinander aufbauen und eine logisch einheitliche Datenorganisation besteht. Dieses beinhaltet z.B., daß Daten möglichst redundanzfrei verwaltet werden und Datenänderungen, die an einem Arbeitsplatz erfaßt werden, sofort auch an anderen Arbeitsplätzen zur Verfügung stehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-00403-6_14 27d15bf27ac2c237b969bf3e7a3bd0e4;de;;;7.1.;7.4.;;Stand der Forschung zur Potenzialdimension von DienstleistungenInnerhalb der Marketingforschung wurden bereits zahlreiche Studien durchgeführt, die insbesondere die Umgebung von Austauschprozessen untersuchen und damit in einen Zusammenhang zur Potenzialdimension von Dienstleistungen aufweisen. Eine übersicht über bereits durchgeführte Studien ist zweckmäßig, um bisher gewonnene Erkenntnisse in die Arbeit zu integrieren. Anzumerken ist, dass die vorgestellte Literatursynopse keinen Anspruch auf Vollständigkeit erhebt, aber die zentralen Arbeiten umfasst, um die Schwerpunkte bisheriger Untersuchungen zu verdeutlichen (Schaubild 2-1).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-9077-8_2 da12556746360d480ecba94ba8712b12;de;;;7.1.;7.4.;;Anforderungen und Probleme der Steuerung von KundenintegrationsprozessenUm die Probleme der Steuerung von Kundenintegrationsprozessen herausarbeiten zu können, ist es erforderlich, sich eine Vorstellung von den durchzuführenden Aktivitäten zu verschaffen, um hieraus Hinweise für die Steuerung dieser Aktivitäten im einzelnen zu gewinnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08414-3_3 88e9cfedf4c2893493336e42da306bdc;de;;;7.1.;7.4.;;Individuelles Wissen und seine VariantenZunächst wider der auf der Hand liegenden Kritik: Jedes Wissen, jeder Gedanke, jede Idee etc. sind selbstverständlich individuell, subjektiv und damit persönlich für jede einzelne Person. Wie aber bereits beschrieben, geht es um den Bestand von Wissen: Er ergibt sich aus der konsensgeladenen Überschneidung des Wissens mehrerer Personen und wird somit zum gemeinsamen Wissensbestand;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08769-4_4 3d3c1689e9ac209a6b46dad0b5a19559;de;;;7.1.;7.4.;;Anforderungen an ein CAP-DatenmodellNachdem in den vorigen Kapiteln III und IV die Grundlagen der Datenmodellierung und des zu modellierenden Anwendungsbereichs, der Arbeitsplanung, beleuchtet und mit dem Exkurs „STEP-Eine Einführung“ abgerundet wurden, setzt Kapitel V nun auf den Überlegungen dieser Gliederungspunkte auf und stellt die ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-94699-7_6 7f7121426dcfc8de01fb34e55b9d5e0b;de;;;7.1.;7.4.;;Personalentwicklung im Rahmen moderner UnternehmensführungDie Spitzenhöhe der Arbeitskosten (vgl. Arbeitskosten international, in: Argumente zu Unternehmensfragen, Nr. 8, Köln 1991, S. 2) in der alten Bundesrepublik Deutschland und ihre auch gegenwärtig noch anhaltende Entwicklung muß für jede Unternehmensführung Anlaß sein, ständig über eine verbesserte Nutzung des vorhandenen Personals nachzudenken. Die ausgeklügelsten Systeme der Rationalisierung und der Arbeitsorganisation helfen nur wenig, wenn Motivation und Einsatzfreude ungenügend sind. Hier sind vor allen Dingen die Unternehmer und die oberen Führungskräfte selbst gefordert, um die gewünschten Werte den Mitarbeitern, Geldgebern, Kunden und Lieferanten, kurz der ganzen Gesellschaft, glaubhaft vorzuleben. Die macht schließlich langfristig gesehen den Erfolg aus (vgl. Zander, E.: Menschliches Potential besser nutzen, in: io Management Zeitschrift Nr. 7/8, 1991, S. 5).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-86127-6_20 2330fdc83e2d362e00dc233d81a67b86;de;;;7.1.;7.4.;;Der Begriffskalkül - Eine Konstruktionssprache für die Spezifikation von Datenbankanwendungen auf der Ebene der BenutzerDer Entwurf von Datenbank-Anwendungen (DB-Anwendungen) vollzieht sich heute auf verschiedenen Abstraktionsebenen. Auf der fachlichen Ebene des Benutzers wird zunächst die Aufgabenstellung eindeutig festgelegt und die Fachbegriffe zu ihrer Lösung rekonstruiert. Auf der logischen Ebene des Datenbanksystems erfolgt die Abbildung des Fachentwurfs in ein Datenmodell und die Einbeziehung der für spezifische Informationszwecke rekonstruierten Fachbegriffe in das Gesamtinformationssystem. Auf der physischen Ebene des Datenbanksystems schließlich kommt es zur eigentlichen Festlegung der Datenverarbeitung durch Angabe der Speicherungsstrukturen, der Zugriffspfade und der physischen Abspeicherung der Daten auf Speichermedien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-69297-0_11 b5733a2b61b5b739dc8caa7d56bdf196;de;;;7.1.;7.4.;;Informatik — Bedeutung und AbgrenzungInformatik wird oft als die „Wissenschaft von der systematischen Verarbeitung von Informationen “ definiert. Die Verfasser sehen dies differenzierter. Anhand der drei informatischen, vollzügigen Studiengänge (Allgemeine) Informatik, Technische Informatik und Wirtschaftsinformatik verdeutlichen sie dies: Die Informatik gewinnt ein geändertes Gesicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-89194-5_1 38992406b7c69dc7563f9f9a323a0722;de;;;7.1.;7.4.;;Das digitalisierte Kontrollorgan?Vielfältige Informationen aus dem Wirtschaftsleben lassen erkennen, dass das lange Zeit in der Bundesrepublik anzutreffende konstruktive Vertrauensverhältnis zwischen Vorständen und Aufsichtsräten sowie anderen Kontrollorganen nicht mehr ohne Weiteres unterstellt werden kann. In Anlehnung an Kontrollmechanismen in anderen Feldern, z. B. im Flugverkehr oder in Kernkraftwerken, ist daran zu denken, die Kommunikation zwischen Unternehmensleitungen und ihren Kontrollorganen stärker zu automatisieren. Dabei ließen sich bewährte und neuere Entwicklungen der Wirtschaftsinformatik kombinieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44909-7_16 cd90545f87d483a3f62de45c0da75298;de;;;7.1.;7.4.;;Einordnung und methodische GrundlagenKapitel 2 stellt die wesentlichsten methodischen Grundlagen dieser Arbeit vor. Aus den Bereichen Maschinenbau, Systemtheorie und Informatik werden jeweils einige Teilgebiete kurz erläutert. Auf ihre Bedeutung im Rahmen der Arbeit wird hingewiesen und deren Einordnung innerhalb der verschiedenen Gebiete erklärt. Außerdem wird in diesem Kapitel die Produktionslinie angesprochen, für die exemplarisch ein Produktionsregelsystem entwickelt wurde (s.a. Kapitel 4 ff.).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-77317-4_2 cf6987cd8051beacacd03569228a9236;de;;;7.1.;7.4.;;Grenzen von Planungssystemen ALS Engpässe der Computerunterstützten UnternehmensplanungDie Komplexität der Beschaffungs- und Absatzmärkte und die Dynamik in den Veränderungen wichtiger Entscheidungsparameter mit teilweise diskontinuierlicher Entwicklung erzwingen schnelle und richtige Reaktionen der Unternehmensleitungen. Der gesamte Führungsprozeß muß entsprechend effektiv gestaltet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-68601-6_21 b1973395c3f2ba3faa2f64da03cfd679;de;;;7.1.;7.4.;;Outsourcing von IV-LeistungenWenn Rezession und Wettbewerb die Unternehmen zu Reengineering-Maßnahmen treiben, stehen Methoden zur Verbesserung der Wirtschaftlichkeit hoch im Kurs. So wird im Bemühen um eine Optimierung der Geschäftsprozesse die gesamte Organisation schlanker gestaltet, indem nicht unmittelbar zum Geschäftsprozeß gehörende Funktionen ausgegliedert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-10416-2_2 ec5dc8f3ec29b2fd51bcf48301dc985b;de;;;7.1.;7.4.;;Empirische Forschung zur TransparenzAls Einführung in die empirische und experimentelle Forschung zur Transparenz werden im folgenden zunächst die Transparenzstrukturen an den wichtigsten internationalen Börsenplätzen skizziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08820-2_3 1bf0df5bca1d7973278f0d06f5502f54;de;;;7.1.;7.4.;;Das Informations- und Entscheidungssystem der BetriebswirtschaftJede Betriebswirtschaft besitzt ein Informations- und Entscheidungssystem (IES). Es dient der Steuerung und Regelung des betrieblichen Geschehens und durchdringt die einzelnen Funktionsbereiche. Wir haben bereits einige Merkmale dieses IES kennengelernt. Wir wissen insbesondere, daß im ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-83799-8_6 8213f957c2488035c5a5460adedc5930;de;;;7.1.;7.4.;;Zusammenfassung der Untersuchungsergebnisse und bestehende ForschungslückenDie Untersuchung hatte Probleme formeller und materieller Ordnungsmäßigkeit in buchhalterischen Informationssystemen bei automatisierter Datenverarbeitung zum Gegenstand.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-13165-6_8 948dd88ecff98884d575f6b0a4a4e362;de;;;7.1.;7.4.;;Beschaffung und Implementierung von betriebswirtschaftlicher Standardanwendungssoftware im Industrieunternehmen Eine theoretische und empirische AnalyseWährend der Einsatz moderne Informations- und Kommunikationstechnologien in Industrieunternehmen heute aus Wettbewebssicht unabdingbar ist, gestalten sich Beschaffung und Einsatz dieser Systemtechnologien oft schwierig. Besonders ausgeprägt sind die Beschaffungsunsicherheiten bei der Beschaffung und Implementierung betriebswirtschaftlicher Standardanwendungssoftware. Unternehmen stehen hierbei vor einer komplexen Aufgabe, die weit über technische Informatikprobleme hinausgeht und mehr verlangt als eine klassische Kosten-Nutzen-Analyse. Um die daraus resultierenden Probleme aus Sicht des beschaffenden Unternehmens empirisch analysieren zu können, wurde von den Autoren eine Befragung unter 77 deutschen Unternehmen durchgeführt und die Risikofaktoren bei der Beschaffung von Standardanwendungssoftware im Detail abgefragt. Der Beitrag stellt die wichtigsten Ergebnisse dieser Studie vor und versucht anschließend eine Begründung der entdeckten Probleme. Hierbei sind vor allem die einseitig hohe Faktorspezifität des Anwenders und die lange Implementierungsdauer von großer Bedeutung. Die Einschaltung eines kompetenten Implementierungsdienstleisters als Systemintegrator kann wichtige Verbesserungspotentiale bieten, wenn bestimmte Gestaltungsoptionen beachtet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-89482-3_20 6356c4362126e74414e418dc1938dd51;de;;;7.1.;7.4.;;Modellierung von Abläufen in NF2-Datenbanken durch höhere Petri-NetzeIn dieser Arbeit wird eine deklarative Beschriftungssprache für höhere Petri-Netze vorgestellt, die zur Modellierung von Abläufen in Datenbanken mit genesteten Relationen eingesetzt werden kann. In diesen Netzen stellen die Marken Tupel genesteter Relationen dar. Es wird vorgeschlagen, die Kanten im Netz mit sogenannten Filtertabellen zu beschriften, um Kriterien für das Entfernen bzw. Einfügen von Marken beim Schalten von Transitionen formulieren zu können. Die Besonderheit dieses Ansatzes liegt in seinen umfangreichen Möglichkeiten zur Verarbeitung von Werten mengenwertiger Attribute.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-77312-9_8 4bb7bcbf2f246c59e92b287d1b51a6b7;de;;;7.1.;7.4.;;1997 — Konzepte einer Welt von morgenWenn es gelingen soll, die Bildungskrise zu überwinden, so bedarf es vor allem gesellschaftlicher, politischer und ökonomischer Zielvorstellungen, mit denen wir die Jugend überzeugen können, für eine lohnende Zukunft zu lernen und zu leben. — In diesem Kapitel wird der Versuch unternommen, eine Antizipation für das Leben im Jahre 1997 zu entwickeln. Hierzu werden zunächst zentrale Prämissen beschrieben. Darauf aufbauend werden zwei alternative Gesellschaftsformen als Denkmodelle gezeichnet, die sich durch das Maß der Integration von Informationstechnik deutlich unterscheiden: die «Homuter-Gesell-schaft» und die «human-alternative» Gesellschaft. Es wird deutlich, daß die Homuter-Gesellschaft die anstrebenswertere Zielvorstellung ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-5374-3_9 234d715590eaa1b86dad740d11cc81bb;de;;;7.1.;7.4.;;Stand der Normungs- und StandardisierungsvorhabenDie zahlreichen Vordrucke und Verwaltungsvorschriften im nationalen wie internationalen Handel beeinträchtigen den Waren- und Informationsaustausch immer stärker (vgl. Bangemann, M.: Vorwort 1986, o.S.). Aus der Erkenntnis des damit verbundenen Zeit- und Kostenaufwandes bei allen beteiligten Unternehmen und den öffentlichen Verwaltungen (Zoll- und Steuerverwaltungen) entstanden in zahlreichen Industriestaaten und bei nationalen und internationalen Organisationen Projektgruppen zur Erarbeitung von Vereinfachungsvorschlägen. Diese umfassen Vordrucke und Verfahren. Im Rahmen dieser Arbeit werden ausschließlich die Tätigkeiten bzgl. der DV-Verfahren untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-30491-4_6 5e8e37aad07966ee1240010f4d03f0fe;de;;;7.1.;7.4.;;VULCAN-Virtuelle Unternehmen zur Simulation der realen BetriebsabläufeIm Forschungsprojekt VULCAN (Virtuelle Unternehmen als Lehr- ForsChungs- und AusbildungsNetz) wurde in dreijähriger Laufzeit ein Unternehmensverbund aufgebaut, der die universitäre Ausbildung und Forschung unterstützen soll. Dabei wurden zukunftsweisende Lösungen der Bürokommunikation auf der Basis der DFN-Dienste eingesetzt. Bis zum 31.12.1989 wird das Projekt aus öffentlichen Mitteln durch den DFN-Verein (Verein zur Förderung eines Deutschen Forschungsnetzes e.V.) finanziert.;-;-;-;https://link.springer.com/article/10.1007/BF01784057 3ea6b0da7e2b05f41d446df76a31dd08;de;;;7.1.;7.4.;;Gestaltung marktorientierter ProduktionssystemeAusgehend von den Planungs- und Steuerungsprozessen konventioneller Produktionssysteme und veränderten Zielsetzungen werden im vorliegenden Beitrag Anforderungen für die Gestaltung marktorientierter Produktionssysteme formuliert. Anschließend werden die Paradigmen bionischer, holonischer und fraktaler Systeme in Bezug auf ihre Eignung für die Gestaltung zukünftiger Produktionssysteme untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-8306-0_4 002596c99d2937fa4b4827deb509fb16;de;;;7.1.;7.4.;;Innerorganisatorische ImplikationenIm Mittelpunkt von Kapitel 5 standen Informations- und Kommunikationssysteme, die organisationsübergreifend in Transaktionsprozessen eingesetzt werden (IOS). Aus der Sicht verschiedener ökonomischer Theorieansätze wurde nach den Auswirkungen dieser Systeme auf die Wettbewerbsposition der beteiligten Unternehmen, Transaktionskosten und Anreizstrukturen gefragt. Daraus ergab sich ein sehr heterogenes Bild möglicher Effekte, das eindeutige Aussagen allenfalls im praktischen Einzelfall zuläßt. Die ausgearbeiteten Wirkungskomplexe könnten jedoch als Grundlage z.B. für weitergehende empirische Untersuchungen dienen, um so zu generellen Aussagen zu gelangen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08572-0_6 f020c56bc081947d1321fbafcb58f3cf;de;;;7.1.;7.4.;;Datensicherung und automatisierte DatenverarbeitungSeit einigen Jahren versuchen Wirtschaftsunternehmen und Verwaltungseinheiten in verstärktem Umfang mit Hilfe der automatisierten Datenverarbeitung große Informations- und Steuerungssysteme aufzubauen. Wesentliche Voraussetzungen für die Realisierung solcher Systeme sind, daß die einzelnen Dateien, die früher meist gesondert bearbeitet und ausgewertet wurden, zu einer gemeinsamen Datenbank zusammengefaßt werden, die Verständigung zwischen dem Benutzer und der Datenbank durch einfach zu erlernende und leicht zu handhabende Sprachen möglich ist und die räumliche Entfernung zwischen Benutzer und der Datenbank durch Datenfernverarbeitungs-Einrichtungen überbrückt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-13621-7_1 9b3e6cc17015526348aa4fdc506e28ee;de;;;7.1.;7.4.;;Verwaltung und Verarbeitung von strukturierten ObjektenFür die effektive Nutzung von Systemen der Künstlichen Intelligenz, deren Performanz ursächlich durch ihre jeweiligen Wissensbasen determiniert werden, rückt die Verwaltung der Wissensbasen immer mehr in den Vordergrund, nachdem lange nur die Ausdrucksstärke von Formalismen und die Realisierung ihrer Inferenzmechanismen die Diskussionen bestimmt haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-78545-0_12 9430b573390236ce697df757e1bd3a8f;de;;;7.1.;7.4.;;Der Markt für Visual Business AnalyticsVisualisierung wird im Bereich Business Intelligence (BI) und Business Analytics immer wichtiger. Heutige BI-Software, gerade im Bereich der Self-Service-BI, wird von den Anwendern ohne ein interaktives Benutzerinterface, das ihnen verschiedene Visualisierungsmöglichkeiten bietet, nicht mehr akzeptiert. Dennoch muss Unternehmen und Anwendern noch besser dargelegt werden, wie sie von solchen Visualisierungslösungen am Ende tatsächlich profitieren können. Dieser genaueren Betrachtung der Vorteile widmet sich der Bereich Visual Business Analytics (VBA), der drei Teilthemen umfasst: Information Design (ID), Visual Business Intelligence (VBI) und Visual Analytics (VA). Dieser Beitrag soll anhand illustrativer Beispiele in diese Teilthemen einführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-47763-2_15 4d9069714f984650e9681bf798b33aa5;de;;;7.1.;7.4.;;Organisatorischer Kontext von FührungsinformationssystemenZur Arbeitsumgebung des Unternehmensführers gehören allgemein die mit ihm direkt oder indirekt in Beziehung stehenden Menschen und Arbeitsmittel. Dabei kann einerseits ein bestimmtes Arbeitsmittel ausschließlich einer Person oder einer Gruppe von Personen zugeordnet sein und andererseits eine einzelne Person ein oder mehrere Arbeitsmittel zur Bewältigung der ihr übertragenen Aufgaben benötigen (vergleiche Abbildung 12).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-85821-4_4 0f701bea05f79c30ac73613195ecef5c;de;;;7.1.;7.4.;;Expertensysteme und Neuronale Netze — Wissenstechnologie in BankenUm die Mitte der 80er Jahre tauchte ein neuer Begriff in der Diskussion um die Zukunft des Einsatzes von Computern auch bei den Banken auf: „Expertensysteme“.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-84764-5_14 1d0a48db714399a14baae8e713f07354;de;;;7.1.;7.4.;;Ansätze für ein neues BildungswesenDie neue Bildungskrise erscheint überwindbar, wenn es gelingt, die Herausforderung der Informationstechnik aktiv anzunehmen und das Bildungswesen an die neue Situation anzupassen. Für diesen Prozeß werden konkrete Ziele vorgeschlagen, die letztlich eine intensive curriculare Reorganisation notwendig machen. Das Bildungswesen muß verstärkt zum Erziehungs- und Sozialwesen werden und den Menschen auch als sinnlich-affektives Wesen entfalten. - Schule und Hochschule sind aufgerufen, einen direkten Beitrag zum verbesserten technischen Informationszugang für die breite Bevölkerung zu leisten, hierfür sind strukturelle Umschichtungen, aber keine quantitative Expansion notwendig. — Eltern und Schüler müssen zunächst vor allem die auf sie zukommenden Probleme verstehen lernen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-5374-3_10 2a5a63792013c11183de270b2730cf69;de;;;7.1.;7.4.;;Stand der Wissenschaft und TechnikKapitel 2 beschreibt den Stand der Wissenschaft und Technik für die Grundlagen der Fahrer-Fahrzeug-Interaktion und dem Lösungsansatz „autostereoskopische Monitore im Fahrzeug“. Wesentlich für das Kapitel ist das Bilden eines Verständnisses für die menschliche Wahrnehmung in der Fahrer-Fahrzeug-Interaktion, der Unfallforschung und der daraus resultierenden Notwendigkeit zur Entwicklung von Fahrerassistenzsystemen. Darauf folgend wird das Themenfeld der stereoskopischen Anzeigen als Lösungsansatz der Arbeit vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-32977-8_2 b338b408640ee67b9eb7fe0b1bfc2332;de;;;7.1.;7.4.;;Grundlagen der ThematikDie Märkte für Telekommunikationsprodukte und insbesondere -dienstleistungen wiesen noch bis vor wenigen Jahren in fast allen Ländern Europas monopolartige Strukturen auf. Es fand kein Wettbewerb zwischen Anbietern statt, und die Nachfrager waren auf die “bereitgestellten” Dienst- und Sachleistungen angewiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-86521-2_1 15c70fa60c7b8566633c106525a15262;de;;;7.1.;7.4.;;Ein Modul zur Reihenfolgeplanung von InformationsaufträgenEine Anwendung der Methoden und Verfahren der Reihenfolgeplanung erfolgt in erster Linie in Programmen zur Projektplanung und -kontrolle sowie zur Produktionsplanung und -Steuerung (PPS). Sie dienen einerseits — beispielsweise in Software-Systemen zur Projektplanung — dazu, in Abhängigkeit vom Umfang und der Funktionalität die Termine der einzelnen Aktivitäten und den Prozeßfortschritt zu ermitteln. Andererseits führen sie eine Ressourcenplanung durch, zu der ebenfalls eine Kostenplanung und -kontrolle zählt (vgl. hierzu DE WITT/HERROELEN (1990), S. 104ff.). Ebenfalls haben sich in PPS-Systemen in Verbindung mit Leitstandsystemen leistungsfähige Reihenfolgealgorithmen innerhalb der Produktion von Sachgütern etabliert. Eine Studie von FANDEL, FRANÇOIS und GUBITZ (1997) berichtet, daß (1) in 87–90% der untersuchten PPS-Systeme Verfahren zur Netzplantechnik (Vor- und Rückwärtsterminierung) implementiert sind und (2) bei 48–55% im Rahmen einer Reihenfolgeplanung die Minimierung der Durchlaufzeit bzw. der Terminabweichung als Zielsetzung realisiert ist. Zum Einsatz kommen überwiegend einfache und kombinierte Prioritätsregeln bzw. Simulationen (vgl. hierzu FANDEL/FRANÇOIS/GUBITZ (1997), S. 373ff.). Nur gelegentlich stehen auch andere Methoden, wie z.B. die lineare oder dynamische Optimierung, Branch&Bound-Verfahren oder generische Algorithmen, zur Auswahl (vgl. FANDEL/FRANÇOIS/GUBITZ (1997), S. 381). Speziell die Leitstandsysteme haben sich seit geraumer Zeit als Instrumente zur Ergänzung zentraler Planungssysteme und als eigenständige Werkzeuge für die kurzfristige Fertigungssteuerung und -überwachung durchgesetzt (vgl. KRUPPKE (1994), s. 115).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-89916-3_6 12147e1ab32ee0db4db05e62475a6fca;de;;;7.1.;7.4.;;UnternehmensflexibilitätAusgangspunkt und Verlauf einer Unternehmung sind personifizierbar. Die entsprechenden Wirtschaftssubjekte heißen Unternehmer. Daneben gibt es Personen in jeder Unternehmung, die nicht auf eine solche Weise durch den Unternehmensprozeß identifiziert werden können. Ihre Tätigkeiten sind dann nicht zielsetzend oder wegbestimmend, sondern bei gegebener Qualifikation berechenbar und vornehmlich ausführend. Somit handelt es sich nicht um Unternehmer. Chancen und Risiken der Unternehmung richten sich nach den Fähigkeiten der Unternehmer, sich auf die besondere Dynamik des Wirtschaftskreislaufs einzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-83563-5_18 7ce9a4ea3ead89eeddc739bbd53f97d8;de;;;7.1.;7.4.;;Visionen des WandelsWir alle haben uns daran gewöhnt, in einem pausenlosen Hagel von Meldungen über neue Technologien, neue Produkte, neue Leistungen zu leben, wir sind uns bewußt, daß der „Struggle“ um Wachstum, Differenzierung und Rentabilität immer größere Anstrengungen erfordert, die zu einer ebenso pausenlosen Folge von Anpassungsmaßnahmen in den Unternehmen führen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-10705-7_2 ee8260eaf248297244212404fdef8c1f;de;;;7.1.;7.4.;;Informationstechnik der 90er JahreInformationstechnik der 90er Jahre erfordert eine breit angelegte zukunftsorientierte Forschung und Erprobung neuer SW-Techniken und -Systeme. Schwerpunkte der Softwaretechnik werden Software-Entwurfs-, Validations- und Implementierungsverfahren, neue Software-Architekturen, Sicherheitsstandards sowie Software-Verteilungs konzepte sein. Insbesondere werden wissensbasierte Techniken stark an Bedeutung gewinnen. Stand in den Anfängen der Computernutzung der Rechner im Mittelpunkt, wurden also Aufgaben maschinenorientiert programmiert, so rückt ab der dritten Computergeneration die Programmierung selbst in den Vordergrund. Begriffe wie logische, objektorientierte und funktionale Programmierparadigmen, aber auch neue Verarbeitungsmodelle und die entsprechenden Spracherweiterungen stehen für diese Periode. Beginnend in den 80er Jahren erzwingen große Anwendungen wie integrierte Postdienste, CAD-Elektronik oder verteilte Büro- oder Fertigungsaufgaben die Modellierung reicherer Gegenstandsbereiche. In den 90er Jahren werden semantische Aspekte bei der Computernutzung zunehmend wichtiger. Unter KI (Künstliche Intelligenz) wird die wissenschaftlich-technische Disziplin verstanden, die sich um das Verstehen und Modellieren menschlicher Intelligenzleistungen und die qualitative Leistungssteigerung und Erschließung neuer Anwendungsbereiche von Computern, Programmiertechniken und Informationssystemen bemüht. Die KI-Forschung hat ihre Wurzeln in der symbolischen Informationsverarbeitung (Theorembeweisen, mathematische Logik) und der kognitiven Psychologie und Linguistik. 1977 prägte Feigenbaum den Begriff knowledge engineering.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-84863-6_32 c36ed07186fadc269c214208a5eb2176;de;;;7.1.;7.4.;;Komponenten des Computer Integrated ManufacturingIn diesem Kapitel sollen die zu CIM gehörigen Komponenten und das CIM-charakterisierende Merkmal der Integration betriebswirtschaftlicher und technischer Funktionen näher betrachtet werden, um so Ansatzpunkte für die in Kapitel 4 vorzunehmende Analyse strategiespezifischer Gestaltungsmöglichkeiten innerhalb der Komponenten von CIM zu finden. Eine strenge definitorische und funktionale Abgrenzung der einzelnen Begriffe erscheint geboten, da die die CIM-Komponenten beschreibenden Akronyme in jüngster Zeit zunehmend Verwendung finden, jedoch in Wissenschaft und Praxis mit den unterschiedlichsten Inhalten belegt werden, was gleichsam zu einem ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-13669-9_3 ef12484f522b8021b693d1af57844e8c;de;;;7.1.;7.4.;;Was ist “Business Process Reengineering” wirklich?An wolkigen Heilslehren wie “Lean Management”, “Virtuelle Unternehmung” oder “Business Process Reengineering (BPR)” zur Verbesserung der Organisationsstrukturen für Unternehmungen ist wahrhaftig kein Mangel. Dabei erscheint der Paradigmenwechsel von einer funktionsorientierten zu einer prozeßorientierten Organisationssicht, wie er im Begriff BPR zum Ausdruck kommt, am weitreichendsten. Bei einer entsprechenden Interpretation umfaßt dieser Begriff auch die etwas aus der Mode gekommenen Konzepte wie “CIM” und “Office Automation”. Der wesentliche Gehalt des Business Process Reengineering besteht darin, daß Geschäftsprozesse ganzheitlich dahin überprüft werden, ob sie notwendig sind, ohne Schnörkel und Umwege abgewickelt werden und die Aufbauorganisation des Unternehmens auf sie abgerichtet ist. Gleichzeitig müssen die zur Unterstützung eingesetzten Informationssysteme, die bisher mehr nach Geschäftsfunktionen wie Einkauf, Vertrieb, Produktion, Finanzbuchführung usw. entworfen worden sind, zur Unterstützung der Prozesse konzipiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-05888-5_2 b30aaf9b78119a2c93177edd1d95f3f1;de;;;7.1.;7.4.;;Iteratives Prozeß-Prototyping (IPP®) — Modellgetriebene Konfiguration des R/3-SystemsProzeßgestaltung spielt zum einen innerhalb der Management- und Organisationslehre eine zentrale Rolle, zum anderen wird mit dem Einsatz von DV-Systemen versucht, das Ergebnis der Prozeßgestaltung durch eine integrierte Informationsverarbeitung in den Unternehmen zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-05994-3_10 c0710c99f9fddfac2838d539285173b5;de;;;7.1.;7.4.;;Herstellerübergreifende und nutzerorientierte Technikentwicklung als Innovationsstrategie für die Produktion im 21. JahrhundertDie CeA-Forschungsverbünde „Prozeßbeherrschung durch Erfahrungswissen und deren technische Unterstützung“ sowie „Erfahrungswissen im CIM-Umfeld: Grundlegende Untersuchungen zur Sicherung und Förderung von Erfahrungswissen in der betrieblichen Praxis“ haben neben neuen technischen Konzeptionen hinsichtlich Ein- und Ausgabemedien zur Prozeßbeherrschung und hinsichtlich der Informationsunterstützung zur Auftragsdisposition in der Werkstatt insbesondere auch mit den Konzepten im Zusammenhang stehende weiterführende Erkenntnisse zur Gestaltung von Prozessen der Technikentwicklung hervorgebracht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-79617-3_6 0099578fe6bca2ade530d3c7b127b931;de;;;7.1.;7.4.;;Das Controlling-KonzeptDie aus den USA übernommenen Begriffe „Controlling“ als eine Aufgabe und Aktivität und „Controller“ als Träger dieser Aufgabe und Aktivitäten erlauben nicht ohne weiteres richtige Schlüsse auf den Inhalt dieser Aufgabe und auf ihren Träger. Da die Schreibweise und der Wortklang von Controlling und Controller weitgehend mit dem deutschen Wort „Kontrolle“ übereinstimmen, besteht häufig immer noch die Vorstellung, es handle sich hier um die Aufgabe und Tätigkeit reinen Kontrollierens bzw. um einen reinen Kontrolleur oder Revisor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-84040-0_1 5e0764f6639304f9becfd92be014665b;de;;;7.1.;7.4.;;Anwendungsperspektiven des vorgestellten Instrumentariums und SchlußbemerkungenDie Ausführungen in Teil D haben gezeigt, daß die entwickelte logistische Prozeßplankostenrechnung auf Teilkostenbasis relevante Kosten- und Leistungsinformationen für die logistische Segmentplanung und -kontrolle bereitstellen kann. Sie macht den Einsatz der Budgetierung gemäß den in Teil C entwickelten Gestaltungsanforderungen möglich und stellt dem Management damit ein Führungsinstrument zur Verfügung, mittels dessen die Sicherung einer ganzheitlich integrierten und zielgerichteten Steuerung der Logistiksegmente entlang der Wertschöpfungskette nachhaltig unterstützt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-12221-0_5 a1c68a9e85bf45d04aa0435e173b6fd6;de;;;7.1.;7.4.;;Integrierte Leitstelle als LogistikzentraleDie Leitstelle ist das zentrale Steuerungsinstrument im Prozess der Notfallversorgung. In der Form der Integrierten Leitstelle (ILS) stellt sie die singuläre Kontakt- und Lenkungseinrichtung für alle medizinischen Hilfeersuchen und die technische Gefahrenabwehr dar. Ihre Organisationsform gilt heute bereits als ;-;-;-;https://link.springer.com/article/10.1007/s10049-010-1398-4 a5d550ab036537f64054746fcf443542;de;;;7.1.;7.4.;;Organisationspolitische, strategische und technische Gestaltungsansätze in der PraxisSozialverträgliche Technikgestaltung kann nicht praxisfern auf dem Reißbrett des Theoretikers entworfen werden. Das Augenmerk des folgenden Kapitels liegt darum auf einer Analyse der Voraussetzungen für eine partizipative Technikgestaltung in der ökonomischen Praxis und der Wahrnehmung solcher Prozesse durch die betroffenen Akteure. In diesem Rahmen werden zunächst Ergebnisse aus Befragungen und Organisationsanalysen zu einem konkreten Gestaltungsprojekt in einer Großstadtverwaltung präsentiert (Kap. 8.1). Daran anschließend werden aus den Erhebungen zur Rationalisierungssituation im Dienstleistungsbereich Perspektiven der Gestaltung der Beziehungen von Technik, Organisation und Mitarbeitern abgeleitet, die als konkrete Alternativen für Technikeinsatzformen in der Praxis zu begreifen sind (Kap. 8.2).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-94191-6_8 af2c725b5c7e8735e2089ad15d722b30;de;;;7.1.;7.4.;;WissensstandIm vorangegangenen Abschnitt dieser Arbeit wurden die begrifflichen, konzeptionellen und theoretischen Grundlagen zum Feld der Organisation des Controllings gelegt. Controlling wurde darin als ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-6400-7_3 06f4f130168599b3361a854c06b2fed5;de;;;7.1.;7.4.;;Produktdatenmodelle, die Basis für technische Informations- und DokumentationssystemeDas Erwirtschaften von Gewinnen durch Herstellung und Vertrieb von Produkten ist das erklärte Ziel jedes Industrie-Unternehmens. Einen positiven Ertrag erzielen zu können, setzt jedoch voraus, daß dem spezifischen Kundenwunsch mit Hilfe einer umfangreichen Produktpalette mit kurzen Lieferzeiten entsprochen werden kann. Um dieser Entwicklung Rechnung zu tragen, wurden in der Vergangenheit immense Anstrengungen zur Ausnutzung der Rationalisierungspotentiale vor allem in den “shop-floor”-Bereichen wie Fertigung und Montage unternommen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-09928-5_10 9eed49660498ec46b90c37f81d448155;de;;;7.1.;7.4.;;Wirtschaftlichkeitsfaktoren EDV-orientierter betriebswirtschaftlicher ProblemlösungenDie Ausnutzung des Wirtschaftlichkeitspotentials neuer Informationstechniken wie Datenbankeinsatz, Dialogverarbeitung, Vernetzung von EDV-Systemen, Integration von Text-, Daten-, Grafik- und Kommunikationssystemen sowie die Verbindung technischer und kommerzieller EDV-Systeme erfordert eine enge Verbindung zwischen der Organisation von betrieblichen Abläufen und den Funktionen dieser Informationstechniken. Unter EDV-orientierten betriebswirtschaftlichen Problemlösungen wird deshalb verstanden, daß Ablauf- und Entscheidungskonzepte für betriebswirtschaftliche Fragestellungen so gestaltet werden, daß die Möglichkeiten der Informationstechniken optimal zum Tragen kommen (Scheer, Computer: A Challenge, 1985, S. 1 ff.). Dabei wird bewußt von dem häufig in der Praxis vertretenen Satz abgegangen, daß sich die EDV der Organisation von Unternehmungen anzupassen habe und nicht umgekehrt. Dieser Satz wurde häufig als Werbeargument der Verkäufer von Informationstechniken benutzt, um dem Anwender Schwierigkeiten organisatorischer änderungen scheinbar zu ersparen. Die Unterstützung herkömmlicher und damit manuell ausgerichteter Organisationsabläufe durch moderne Verfahren der Informationstechnologie führt aber zu Suboptima der Wirtschaftlichkeit, ja sogar zu erhöhten Kosten, da im Extrem zwei parallele Organisationsformen aufgebaut werden, die sich gegenseitig nur unvollkommen unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-83516-1_4 a0871ac79fbed1e23e18cd1a0b4b5939;de;;;7.1.;7.4.;;Das Rahmenkonzept als Voraussetzung für den Einsatz von ProzeßleitsystemenNowadays, information systems are an important aid in the control of technical processes. Their planning has to be unified with regard to the integration of system components. It is no longer useful to consider only the individual projects. The totality of projects to be carried out in the next years has to be considered all together. Concepts that are based on these considerations are called control structure concepts. They are an important aid in the implementation of information systems and therefore also in the implementation of process control systems as a subset of information systems. The making out of control structure concepts contains three phases, namely the making out of the description of the problem, the working out of suggestions for the solution and finally the fixing of the control structure concept. The different aspects to be treated in the three phases are described and illustrated.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-95506-8_46 88297c21eb4a6fd5ceed872347eb4828;de;;;7.1.;7.4.;;Kontrolle durch Informationstechnologien in Gesellschaft und BetriebDer Trend zur Informatisierung immer weiterer Arbeits- und Lebensbereiche und die gestiegenen Möglichkeiten der Verknüpfung und Vernetzung unterschiedlichster Informationen zu übergreifenden Informationssystemen produziert in bisher nicht bekanntem Maß Planungs-, Steuerungs- und Kontrollkapazitäten über Personen, Sachen, Strukturen und Beziehungen. Gewünschte Informationen über gesellschaftlich relevante — oder als relevant erachtete — Tatbestände können aufgrund der sich rasch weiter entwickelnden informationstechnologischen Innovationen immer schneller, genauer und spezifischer ermittelt und verarbeitet werden. Der vorliegende Beitrag greift diese Thematik einer neuen Qualität von Kontrolle und Kontrollrelationen auf. Nach einer generellen Charakterisierung von Kontrolle und Informationstechnologien/Informationssystemen im gesellschaftlichen Bereich (Abschnitt I.), versuchen wir die Fragestellung anschließend zu den betrieblichen Problemlagen hin zu öffnen (Abschnitt II.), um im Anschluß daran einige theoretische Erwägungen zur Kontrollthematik vorzunehmen (Abschnitt III.). Im Abschnitt IV. schließlich werden einige zentrale Fragestellungen und Untersuchungsdimensionen für eine arbeitspolitische Empirie bezogen auf die Kontrollthematik entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-89388-8_7 97569d0980f71075c3484841552445a9;de;;;7.1.;7.4.;;Anwendungssysteme in UnternehmenDie in diesem Kapitel vorgestellten Anwendungsbereiche der Informationsverarbeitung repräsentieren einen Multi-Milliarden-Markt. Viele Anbieter wollen sich davon einen Teil sichern. Dazu werden Argumente vorgetragen, die nicht nur trockenen wissenschaftlichen Analysen entstammen, sondern die den potenziellen Kunden außer ordentliche Resultate versprechen. Da die Anbieter auch oft die Entwickler neuer Vorgehensweisen sind, sind Wunsch und Wirklichkeit nicht immer eindeutig zu trennen, insbesondere weil die benutzten Fachbegriffe nicht allgemein verbindlich sind, sondern zu den jeweils eigenen Gunsten interpretiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46732-9_4 ed4c0568228102e97d5fa969fd687207;de;;;7.1.;7.4.;;Hydraulische Antriebe und Steuerungen im Maschinen- und FahrzeugbauDie hydraulische Antriebs- und Steuerungstechnik hat durch ihre speziellen Vorzüge – die hohe Kraftdichte sowie die gute Steuer- und Regelbarkeit – ein breites Anwendungsgebiet im stationären Maschinenbau, in fahrenden Arbeitsmaschinen, in Kraftfahrzeugen sowie in der Luft- und Raumfahrt. Die elektronische Signalverarbeitung in den Maschinen und Anlagen bietet der Hydraulik viele Chancen, da sie den Übergang vom niedrigen Leistungsniveau des elektronischen Signalteils zum hohen Leistungsniveau im Energieteil einfach und kostengünstig ermöglicht. Einige ausgewählte, interessante Anwendungsbeispiele veranschaulichen die mechatronische Denkweise dieser Technik sowie ihre Vielfalt und Leistungsfähigkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54909-0_9 eed9e940aeb228eda5052899a02f57e4;de;;;7.1.;7.4.;;Organisatorische Entflechtung — Strategie für die neunziger Jahre in der öffentlichen Verwaltung?In Organisationstheorie und -praxis gewinnen Vorstellungen von einer Entflechtung komplexer Zusammenhänge in jüngerer Zeit zunehmend an Raum. Die Anzeichen sind deutlich auf der Ebene der Nationen Europas, in Ost wie in West, wo der Drang zur Identifizierung mit kulturell, sprachlich und historisch zusammengehörenden Gruppen und Regionen unübersehbar geworden ist und der Ruf nach Selbstbestimmung der eigenen Angelegenheiten, nach mehr Autonomie, unüberhörbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-87171-8_11 c25c0d72079e69ace2bd97d4026b0602;de;;;7.1.;7.4.;;Die Bedeutung des “I„ bei CIMComputer Integrated Manufacturing (CIM) bezeichnet die integrierte Informationsverarbeitung für betriebswirtschaftliche und technische Aufgaben eines Industriebetriebs. Die mehr betriebswirtschaftlichen Aufgaben werden durch das Produktionsplanungs- und -steuerungssystem (PPS) gekennzeichnet, wie es als linker Schenkel des Y in Abb. A.01 dargestellt ist, und die mehr technisch orientierten Aufgaben durch den rechten Schenkel des Y mit den diversen CA-Begriffen. Das PPS-System wird durch die Auftragsabwicklung bestimmt, während die CAX-Komponenten die Produktbeschreibung und die Fertigungsressourcen unterstützen. Gleichzeitig sind diese Informationssysteme Datenlieferanten für sie begleitende Systeme der Finanzbuchführung und Kostenrechnung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-61510-8_2 311f55b3705ee464e6e1c9242c353c87;de;;;7.1.;7.4.;;Anforderungen an das CAD-ReferenzmodellIn diesem Kapitel werden auf der Basis einer kritischen Ist-Analyse [CRM 1993] Anforderungen aus arbeitswissenschaftlicher, konstruktionstechnischer und systemtechnischer Sicht an ein integriertes Organisations-und Technikkonzept abgeleitet. In den Kapiteln 3.1 und 3.2 werden Forderungen diskutiert, welche aus dem Konstruktionsablauf und der Aufgabenabarbeitung aus Anwendersicht resultieren. Es werden Ziele formuliert, welche durch entsprechende Systemtechnik unterstützt werden sollen. In den weiteren Kapiteln werden die Forderungen der Technikkomponenten an ein CAD-Referenzmodell beschrieben. Dabei wird dem Leser auffallen, daß sich einige, der in den ersten beiden Punkten aufgeführten Anforderungen mit Forderungen seitens der Systemtechnik decken, wobei die allgemeiner und globaler formulierten Anforderungen an das CAD-Referenzmodell aus arbeitswissenschaftlicher und konstruktionstechnischer Sicht in den weiteren Punkten detailliert und spezifiziert betrachtet werden. Dies ist keine zufällige Redundanz, sondern beabsichtigt und verdeutlicht Problemschwerpunkte und -Schnittstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-82997-9_3 dd55014d6701a45aa7514df400e18f3b;de;;;7.1.;7.4.;;Telemedizin bei HerzinsuffizienzEine verbesserte ambulante Versorgung herzinsuffizienter Patienten wird als entscheidend für das Bestreben angesehen, ungeplante kardiovaskuläre Hospitalisierungen zu vermeiden und die Mortalität zu senken. Eine zusätzliche Herausforderung besteht darin, regionale Unterschiede in der Herzinsuffizienzversorgung zwischen städtischen Regionen und ländlichen Gebieten auszugleichen. Für die Umsetzung dieser Ziele wird eine telemedizinische Mitbetreuung in Ergänzung zur ambulanten Präsenzmedizin von Haus- und Facharzt als relevant angesehen. In der vorliegenden Arbeit sollen die technischen und organisatorischen Grundlagen der telemedizinischen Arbeitsweise in der ambulanten Herzinsuffizienzbetreuung dargestellt werden. Zudem wird der aktuelle Evidenzstand zur Wirksamkeit einer telemedizinischen Mitbetreuung anhand der Studienergebnisse der 9 wichtigsten randomisierten Studien zur Telemedizin bei Herzinsuffizienz erläutert. Besondere Beachtung findet dabei die 2018 publizierte Studie TIM-HF2, in der die Überlegenheit einer telemedizinischen Mitbetreuung bezüglich Mortalität und Morbidität nach einer kürzlich stattgehabten Herzinsuffizienzhospitalisierung gezeigt werden konnte. Eine prästratifizierte Subgruppenanalyse zeigte keine signifikanten Interaktionen bezüglich des primären Endpunkts zwischen Metropolregionen und ländlichem Raum. Für die Translation des telemedizinischen Studienkonzepts von TIM-HF2 hin zu einem flächendeckenden Versorgungsangebot für alle Patienten in Deutschland bedarf es einer Skalierbarkeit. Telemed5000 ist ein erstes Projekt, das die Entwicklung eines Telemedizinzentrums zur telemedizinischen Mitbetreuung von bis zu 5000 Patienten unter Nutzung von künstlicher Intelligenz zum Ziel hat. Es wird vom Bundesministerium für Wirtschaft und Technologie im Zeitraum 2019–2022 gefördert.;-;-;-;https://link.springer.com/article/10.1007/s00108-019-0570-2 7a01fd6d1ee9855c64f153dd5b2d9408;de;;;7.1.;7.4.;;Strukturwandel durch neue SoftwareproduktionstechnologienTraditionellerweise verstand man unter dem betrieblichen Produktionssystem die Herstellung von Gütern sowie die Bereitstellung von Dienstleistungen für den Absatzmarkt. Erst mit der Einführung von Computern im Unternehmen wurde deutlich, daß im Unternehmen ein zweiter Produktionsprozeß stattfindet: die Erzeugung und Verwendung von Informationen. Dessen Bedeutung wurde erst in den letzten Jahren voll erkannt, was darin zum Ausdruck kommt, daß man von der Information als dem 4. Produktionsfaktor spricht. Voraussetzung für die Informationsproduktion ist neben der Hardware die Software. Software kann aber nur zum Teil am Markt gekauft werden. Vor allem mittlere und größere Unternehmen sind gezwungen zwischen 30% und 70% ihres Softwarebedarfs selbst zu decken. Software muß also in einem nicht unerheblichen Umfang von einem Unternehmen selbst hergestellt werden. Während in der Vergangenheit die rein technischen Probleme im Vordergrund standen, wurden die arbeitstechnischen Aspekte dieses dritten Produktionsprozesses sowohl von der Wissenschaft als auch von der Praxis weitgehend ignoriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-93339-4_7 c1b9b873eebf15a6d9fa0bee6020a928;de;;;7.1.;7.4.;;Modellierungsprobleme bei der Maschinellen Unterstützung Eines VorgehensmodellsDie stürmische Entwicklung der letzten 10 bis 15 Jahren im Bereich der elektronischen Datenverarbeitung ermöglichte die rasch zunehmende Automatisierung der Informationsverarbeitung im Unternehmen, brachte aber auch mit sich, daß die ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-71384-2_21 df3e3a6641235aeeadd024cce4ad1000;de;;;7.1.;7.4.;;Interaktive Systeme zur Entscheidungsunterstützung (EUS)Zur Unterstützung von Entscheidungen bei nicht vorherplanbaren Vorgängen forderte SCOTT MORTON (SCM71) bereits 1971 den Einsatz von interaktiven Systemen. Er hoffte, dadurch die mathematischen Methoden der Statistik, des Operations Research, gespeicherte Datenbestände und die Rechenkapazitäten von Computern mit den menschlichen Möglichkeiten zum kreativen Denken zusammenführen zu können. Inzwischen existiert eine Vielzahl von interaktiven Systemen, welche im weitesten Sinne zur Entscheidungsunterstützung verwendet werden. Die nachfolgende Typisierung soll klarlegen, was hier unter einem EUS verstanden werden soll.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-92144-4_2 20f7d14774d978325d07d3f3903ef3b1;de;;;7.1.;7.4.;;Beispiele aus der UnternehmenspraxisDas folgende Kapitel stellt als Repräsentanten für erfolgreich realisierte Vorhaben in Client/Server-Architektur zwei Großprojekte vor, die in ganz unterschiedlichem Umfeld, Motivations- und Zeitrahmen realisiert worden sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-85032-5_4 33dba74d1167954b90052b6c6aa019ef;de;;;7.1.;7.4.;;Implementierung des WerbecontrollingMit der werblichen Erfolgskette sowie mit dem Simulationsmodell liegt ein Konzept des Werbecontrolling vor, mit dessen Hilfe die Planung und Kontrolle des Werbeeinsatzes wesentlich unterstützt werden kann. Voraussetzung für seine nutzenstiftende Wirkung ist aber sein ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-96438-0_6 8e8ecfdcd0f0c52eec48a3b6e72e5aeb;de;;;7.1.;7.4.;;Vom Rechenzentrum zum Kommunikations- und InformationszentrumDer heute erreichte Stand bei Hard- und Software und die in naher Zukunft zu erwartenden Entwicklungen eröffnen neue Möglichkeiten zur Gestaltung der Informationsverarbeitung und der Kommunikation und erfordern z.T. auch Veränderungen der bisherigen Konzeptionen und Arbeitsweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-74678-9_6 e021b2d4621c0c22077eb148e6812730;de;;;7.1.;7.4.;;Paradigmenwechsel für die industrielle FertigungDie vorangegangene Beschreibung von objektbezogener und dispositiver menschlicher Arbeit (vgl. Kapitel 1 und 2) konnte sowohl das außergewöhnlich vielfältige Wesen von Arbeit als auch die Mängel eines technischen und auf quantifizierbare Merkmale beschränkten Verständnisses von der Rolle der Arbeitskraft im Wertschöpfungsprozeß verdeutlichen. Hingegen ignoriert eine, heute noch immer anzutreffende, reduzierte Bewertung der Mitarbeiter als personifizierter Produktionsfaktor;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-95245-5_4 beff12aeb66d69e7453e48aa5829519e;de;;;7.1.;7.4.;;(Führungs-)Entscheidungen und deren AutomatisierungDas vorliegende Kapitel zielt zum einen darauf ab, Führungsentscheidungen als Handlungssystem des Forschungsgegenstandes einzuführen. Zu diesem Zweck werden in Abschnitt 3.1 die Struktur von Entscheidungen im Allgemeinen sowie Entscheidungsmodelle dargestellt, ehe in Abschnitt 3.2 die Merkmale von Führungsentscheidungen im Speziellen präsentiert werden. Zum anderen zielt das Kapitel auf die Beantwortung der ersten Forschungsfrage ab. Daher wird in Abschnitt 3.3 diskutiert, ob und wie Führungsentscheidungen automatisiert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8348-8251-6_3 5e1592b870e6e76682767dc9bead3a16;de;;;7.1.;7.4.;;Die Auswirkungen der Automatisierung auf das RechnungswesenDas Rechnungswesen bei automatisierter Datenverarbeitung ist von besonderer Aktualität für die Wirtschaftspraxis. Zahlreiche Gremien, Fachausschüsse und Arbeitskreise in verschiedenen Wirtschaftsbranchen und der Verwaltung haben sich mit diesem Thema beschäftigt. Auch die Literatur zu diesem Problemkreis ist kaum noch zu übersehen. Alle diese Bemühungen sind sehr wertvoll, von mehreren Seiten wurde jedoch auf die Notwendigkeit hingewiesen, die Problematik zwar aus unterschiedlicher Sicht, aber unbeschwert von den jeweiligen Interessen und dem damit verbundenen Zweckdenken zu untersuchen. Aus diesem Grunde wurde am Betriebswirtschaftlichen Institut für Organisation und Automation an der Universität zu Köln im Jahre 1965 der Studienkreis „Rechnungswesen und automatisierte Datenverarbeitung“ konstituiert. Die Leitung übernahm Finanzpräsident Johannes Schröder. Eine zweckmäßige personelle Zusammensetzung führte zu einer paritätischen Vertretung der entsprechenden Wirtschaftskreise, des Wirtschaftsprüfungswesens und der öffentlichen Verwaltung. Das Hauptanliegen des Studienkreises sollte nicht eine ausschließlich theoretische Analyse des Problemkreises, sondern eine möglichst aktuelle Untersuchung aller Fragen sein, welche im Zusammenhang mit der Organisation, Kontrolle und Prüfung des Rechnungswesens bei automatisierter Datenverarbeitung auftreten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-15729-8_1 4a334829a704831ea4b2aa97ea31acc9;de;;;7.1.;7.4.;;Anforderungen an das KostenrechnungssystemDie im vorangehenden Kapitel dargestellten Entwicklungen, insbesondere auf dem Gebiet der Informationsverarbeitung, bringen erhöhte Anforderungen an das betriebliche Kosteninformationssystem mit sich. ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-87970-7_6 aa0ff55cf08edb6bcc7ab10c159144f8;de;;;7.1.;7.4.;;Freiheit Oder Sicherheit — Ein Widerspruch Informationstechnischer Vernetzung?Mit der informationstechnischen Vernetzung verbindet sich sehr oft die Hoffnung auf eine offene “Informationsgesellschaft„, in der durch schnellen, umfassenden und freien Zugang zu Informationen die Freiheitsspielräume des einzelnen wie der Gesellschaft erweitert werden können. Wenn die Gesellschaft aber Informations- und Kommunikationstechnik (IuK) verstärkt nutzt und sich zunehmend von ihr abhängig macht, dann müssen die Informationssysteme und -netze in einem sehr hohen Maß verfügbar, zuverlässig und sicher sein. Kann die informationstechnische Vernetzung beide Ziele, Freiheit und Sicherheit, gleichermaßen verwirklichen? Oder stehen sie in einem grundsätzlichen Widerspruch, nach dem das eine Ziel nur auf Kosten des anderen erreicht werden kann?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-76562-9_4 063d43ef771d9400431b9564c4e6c99a;de;;;7.1.;7.4.;;Konzepte und Einsatzmöglichkeiten von Workflow-Management-SystemenWorkflow-Management-Systeme sind rechnergestützte Systeme, die arbeitsteilige Prozesse aktiv steuern. Workflow-Management kann als ein Teilbereich des umfassenderen Forschungsgebietes CSCW (Computer-Supported Cooperative Work) betrachtet werden. Workflow-Management-Systeme sollen eine ganzheitliche und integrierte Bearbeitung sowohl strukturierter als auch unstrukturierter Vorgänge ermöglichen. Die bisher eingesetzten Systeme werden diesen Anforderungen nur zum Teil gerecht. Organisatorische Auswirkungen und Gestaltungspotentiale, die durch den Einsatz von Workflow-Management-Systemen zu erwarten sind, ergeben sich vor allem aus einer verbesserten Koordination und einer größeren Transparenz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-52400-4_30 b6ca4d928e77d9ad3ed3954a143d51e2;de;;;7.1.;7.4.;;Technik, Organisation und hybrides HandelnDie Perspektive der Mensch-Technik-Verflechtung entwickelte sich gegen Mitte der 2000er Jahre und kann deshalb als relativ junges Forschungsgenre betrachtet werden. Aufgrund der noch nicht ausgereiften Definitionen und Begrifflichkeiten stellt sich das gegenständliche Kapitel der Herausforderung, ein soziomaterielles Verständnis organisationaler Praktiken zu entwickeln. Hierfür werden die vorliegende Studie im sogenannten ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-31669-3_2 000dc0ff5e99383d58af9daaf37206d9;de;;;7.1.;7.4.;;Entstehung der Breitbandtechnologie aus der Logik der VersorgungsökonomieTechnische Grundlagen und Anwendungsmöglichkeiten lassen die Breitbandtechnologie als Verkehrsinfrastrukturtechnologie erscheinen. Wie kommt es nun zu deren Einführung, aus welcher gesellschaftlichen Dynamik erklärt sie sich?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-88685-9_6 36f13d1861cdd8c1a9c7b24fa5b61caa;de;;;7.1.;7.4.;;Werkzeuge für die integrierte AblauforganisationNeue Trends im Unternehmensumfeld bedingen neue Ablaufstrukturen, die ständig an die neuen Anforderungen adaptiert werden müssen. Für Gestaltung, Management und Betrieb der neuen Strukturen sind geeignete Werkzeuge erforderlich. Diese Werkzeuge müssen die Integration der Ablauforganisation in verschiedenen Dimensionen wie Integration von Informationssystemen, Aufbau- und Ablauforganisation oder Büro- und Produktionsprozesse oder Kooperationsprozesse über mehrere Unternehmen hinweg unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-77810-0_6 72b7d737c86cb72315ac05f14cf3c622;de;;;7.1.;7.4.;;Entwicklung zu einem Integrated ReportingDas Integrated Reporting verknüpft die Finanzberichterstattung, das Corporate Governance Reporting sowie die nichtfinanzielle Erklärung und den Nachhaltigkeitsbericht miteinander und ist so zu begrüßen. Um sämtliche Berichte der Unternehmenskommunikation angemessen miteinander zu verbinden, stellt sich die Herausforderung einer normativen und praktischen Umsetzung. Diese Aufgabe wird vor dem Hintergrund der nicht abgeschlossenen, internationalen Harmonisierungsbestrebung des Management Reporting zusätzlich erschwert, welches aus der qualitativen Inhaltsanalyse im dritten Hauptteil sichtbar wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-27626-3_14 620b5bc67da69933a2c0e807245a77f1;de;;;7.1.;7.4.;;Prozessorientierung und ControllingProzesse bezeichnen Bündel von Aktivitäten, die für den Kunden ein Ergebnis von Wert erzeugen. Ein Prozess versteht sich als „Folge logisch zusammenhängender Aktivitäten zur Erstellung von Gütern und Dienstleistungen. Ein Prozess hat einen definierten Anfang (Auslöser, Input) und ein definiertes Ende (Ergebnis, Wert, Output)“. Prozessorientierung beschreibt demzufolge die Ausrichtung einer Organisation auf Vorgänge bzw. Aktivitäten (Prozesse) und nicht voneinander isolierten Funktionen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-05572-1_2 53b9957126787b51468ed72008d59144;de;;;7.1.;7.4.;;Konzept zur Gestaltung interlogistischer BeziehungenVor dem Überblick und der inhaltlichen Ausgestaltung des Konzepts interlogistischer Beziehungen von Lieferantenteilen werden zunächst interlogistische Flußbewegungen charakterisiert und ein Überblick über allgemeingültige Anforderungen an interlogistische Informations- und Materialflüsse gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-92397-4_4 8ed373e275d6b24cc7f1735bad967b84;de;;;7.1.;7.4.;;Grafik-Hardware: Die Nutzung von VLSI-Design gezeigt am Beispiel einer KreismaschineEin neuer Algorithmus zur Berechnung von Kreisapproximationen auf gerasterten Koordinaten wird beschrieben. Dabei wird auf das Themenumfeld in mehrfacher Hinsicht eingegangen. Ausgehend vom GKS-Standard wird ein Grafikprozessor entworfen, der diesen Algorithmus zur Berechnung von Geraden und Kreisen mit vorgegebener Linienbreite (Brushing) in einem Rasterschirmsystem verwendet. Weiters werden Aspekte des Entwurfs von Algorithmen mit Blick auf deren Implementierung in einem elektronischen Schaltkreis in Silizium diskutiert. Leistungsmerkmale eines Kreis/Linien-Prozessors und eines Brush-Prozessors bilden den Abschluß.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-71384-2_10 6a9f9fd8f546c55bdfb9f71947ea96fc;de;;;7.1.;7.4.;;Gestaltung und Entwicklung betrieblicher Informationssysteme — ProblemstellungZur Sicherung ihrer Wettbewerbsfähigkeit sind die Unternehmen gezwungen, den steigenden Anforderungen an Flexibilität, Produktivität und Qualität gerecht zu werden (Scheer, Hoffmann und Wein /163/). Dabei entscheiden letztendlich Qualität, Kosten und Markteintrittszeiten über die Wettbewerbsfähigkeit (Bullinger /29/, Thurmann /202/).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-06838-0_2 cdbcb3ab3d2c033f055182e08ea76439;de;;;7.2.;7.4.;;Anwendungen der Datenverarbeitung im BauwesenDie elektronische Datenverarbeitung hat seit ihren Anfängen bei den Bauingenieuren großes Interesse gefunden. Einer der maßgebenden Pioniere der Computerentwicklung, Konrad Zuse, ist von Haus aus Bauingenieur. Diese Interessenkombination muß einen nicht verwundern, denn von der Planung bis zur Fertigstellung eines Bauwerkes im Hoch- oder Tiefbau fallen im allgemeinen große Mengen von Zahlen und anderen Daten an, die in umfangreichen Rechenoperationen zu verarbeiten sind. Nicht zuletzt auf ihnen gründen wichtige Entscheidungen während der Planung und Fertigung. Solchen Aufgaben ist die automatische Datenverarbeitung wie keine andere Rechenhilfe zuvor in hohem Maße gewachsen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-10244-1_6 cbb8605372e6e698e080565c9ceafc0b;de;;;7.2.;7.4.;;Organisatorische Pflichten zur Erfüllung der DatenschutzanforderungenIn der folgenden Ausarbeitung sollen die Organisationslösungen zum Datenschutz auf der Basis des Bundesdatenschutzgesetzes (BDSG) behandelt werden. Hiermit sind allgemeine Sicherheitslösungen der Informationsverarbeitung nicht vollständig und ausreichend behandelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-53767-7_5 1a42f2bc2ea6c8d496b566e9340bdc7a;de;;;7.2.;7.4.;;NetzbetriebNetze werden nach den Anforderungen der Abnehmer betrieben, die gemäß EnWG einen Anspruch auf Anschluß an das Versorgungsnetz und auf eine Versorgung zu der von ihnen gewünschten Zeit, an dem von ihnen gewünschten Ort und in der vere inbarten Form haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-56904-3_8 672a28fcbd2ebf321fd5a621eeda12f6;de;;;7.2.;7.4.;;Die Entwicklung der luK-TechnikUnter Annahme dieser Randbedingungen dürften in den kommenden Jahren und Jahrzehnten die in diesem Kapitel dargestellten luK-Techniken entwickelt und zur Nutzung bereitgestellt werden. Die wahrscheinlichen Anwendungsformen dieser Techniken sind Gegenstand des fünften Kapitels.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-93574-8_4 d0536b96f246d998b51272810f5b8039;de;;;7.2.;7.4.;;Aussagenlogische Formeln und GültigkeitLogik war seit dem Altertum eine Disziplin der Philosophie. Ziel war es, Gesetzmäβigkeiten des Denkens zu finden und in schematischer Form zu beschreiben. Im Vordergrund standen dabei die Begriffe der Aussage und der Wahrheit, und das Interesse galt solchen Verbindungen von Aussagen, die unabhängig von jeder Interpretation wahr sind. Logik ist eng mit der Sprache verknüpft, weil Aussagen in Sprache ausgedrückt werden und die Konzepte der Sprache die Mittel sind, mit denen allgemeingültige Wahrheiten in Aussagenverbindungen formuliert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-56792-6_14 b530169a4c7c1682ff176af17646ab3a;de;;;7.2.;7.4.;;Der Daten-OmbudsmanVerwaltungskontrolleur und Ombudsman zugleich — das ist der Datenschutzbeauftragte, und diese beiden Funktionen profitieren wechselseitig voneinander. Was er durch Eingaben und Beschwerden der Bürger erfährt, kann er bei den Datenschutzkontrollen in den Behörden verwerten, während er umgekehrt aus systematisch angelegten Prüfungen Kenntnisse erlangt, die für die Beantwortung von Bürgerfragen bedeutsam sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-09851-5_8 628f2b489f12dc203aeb0e305b93d6c6;de;;;7.2.;7.4.;;Automation rechtlicher Verfahren als EntrechtlichungsprozeßDie zunehmende Automation von rechtlich geregelten Verfahren (insbesondere in der öffentlichen Verwaltung) wirft die Frage auf, ob sich hier nicht staatliche Steuerungsmechanismen entwickeln, die den Rahmen des Rechts sprengen. Hierzu trägt der Abbau von Kommunikationsmöglichkeiten bei, die die juristische Rationalität der Entscheidungsverfahren gewährleisten können. Soll das bislang erreichte rechtsstaatliche Niveau von Verwaltungsentscheidungen aufrechterhalten bleiben, so müssen diese rechtlichen Defizite durch zusätzliche Surrogate, insbesondere durch zusätzliche Kommunikationsmöglichkeiten ausgeglichen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-83669-4_12 c01caa5fe7f0651d1364b95872912463;de;;;7.2.;7.4.;;Körper(lichkeit) in unterschiedlichen Fachdiskursen – ein DesideratKörper, Seele und Geist bilden eine untrennbare Einheit und drücken sich als bewusste und unbewusste Befindlichkeiten immer in unserem Körper aus: in der Haltung und Bewegung, in Mimik und Gestik, in Atem und Stimme, in körperlichen Symptomen und Krankheiten und in dem jeweiligen Erscheinungsbild des Individuums. Wie die eigene Körperlichkeit erlebt wird, bestimmt in hohem Maße unsere Identität und unser Selbstwertgefühl. Die körperliche Erscheinung ist zudem das, was andere Menschen von uns am unmittelbarsten erleben (Müller und Knüll, 1998 S. 137). So steht der Körper immer – physisch wie psychisch – an der Nahtstelle zwischen Person und Umwelt (Fischer 2009, S. 128). Psychisches Erleben findet demnach seinen Niederschlag auch im äußerlichen Körpergeschehen (Storch 2006, S. 37). Aktuelle Konzepte, wie etwa „Embodiment“ versuchen, ein neues Verständnis von Entwicklung auf der Basis des Körpers zu entwerfen, in denen es darum geht, die Wechselwirkung von Körper, Kognition und Psyche zu verstehen und für Entwicklungsprozesse zu nutzen (ebda.).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-08778-4_6 45b7b2ff71a89e4d30ccc1b3d6990539;de;;;7.2.;7.4.;;Grundlagen der ComputergrafikEine grafische oder bildliche Darstellung ersetzt oft umfangreiche Erklärungen und lässt einen Sachverhalt rascher beurteilen und bewerten. Dies gilt nicht nur beim manuellen Arbeiten sondern auch bei der automatisierten Informationsverarbeitung. Stellen wir uns einen Städte- oder Raumplaner als Anwender eines rechnergestützten Informationssystems vor. Er kann sich seine Planzahlen durch Grafiken und Statistiken übersichtlich darstellen lassen. Bei grosser Informationsdichte helfen ihm Situationspläne und thematische Karten. Steht ihm ein dreidimensionales Städte- oder Geländemodell zur Verfügung, so erzeugt er perspektivische Ansichten oder Ausschnitte. Dieses kleine Beispiel illustriert die Bedeutung der grafischen Methoden, auf die wir im folgenden näher eingehen. Wichtige Standardbücher zur Grafik sind [Encarnação/Strasser 1985], [Foley/VanDam 1982], [Giloi 1978] und [Newman/Sproull 1979], zwei interessante Grafikbücher mit Programmierbeispielen stammen von [Harrington 1983] und [Rogers 1985].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-92746-0_2 430b10238a53053427c0c34424b57788;de;;;3.2.;7.4.;;Eine MapReduce-basierte Methode zum Erlernen eines Bayesschen Netzwerks aus massiven Daten Das Bayessche Netzwerk (BN) ist das beliebte und wichtige probabilistische grafische Modell zur Darstellung und Ableitung von unsicherem Wissen. Das Erlernen von BN aus massiven Daten ist die Grundlage für auf unsicheres Wissen zentrierte Schlussfolgerungen, Vorhersagen und Entscheidungen. Die Inhärenz von massiven Daten macht BN-Lernen an das große Datenvolumen angepasst und parallel ausgeführt. In diesem Papier haben wir einen MapReduce-basierten Ansatz vorgeschlagen, um BN aus massiven Daten zu lernen, indem wir den traditionellen Bewertungs- und Suchalgorithmus erweitern. Zunächst haben wir im Scoring-Prozess Map- und Reduce-Algorithmen entwickelt, um die erforderlichen Parameter parallel zu erhalten. Zweitens haben wir im Suchprozess für jeden Knoten Map- und Reduce-Algorithmen entwickelt, um alle lokalen Kandidatenstrukturen parallel zu bewerten und die lokale optimale Struktur mit der höchsten Punktzahl auszuwählen. Somit werden die lokalen optimalen Strukturen jedes Knotens mit der globalen optimalen verschmolzen. Das experimentelle Ergebnis zeigt, dass unser vorgeschlagenes Verfahren effektiv und effizient ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37401-2_68 c57057c836c75a68b58fb80d47665edc;de;;;1.4.;;;Wechsel im Laden? Eine Untersuchung des Einflusses der Buchsupermarktumgebung auf die Nutzung, Wahrnehmung und Erwartungen der Öffentlichen Bibliothek als Raum, Ort und Erfahrung Der Buchsupermarkt wird nicht nur als Ort zum Kaufen von Büchern, sondern auch als Gemeinschaftsressource zum Lesen, Lernen und Austauschen beworben: Eigenschaften, die in Kombination traditionellerweise der öffentlichen Bibliothek vorbehalten waren. Diese Studie untersucht die Auswirkungen der Buchhandlungsumgebung auf den öffentlichen Bibliotheksraum. Die Einstellungen und Verhaltensweisen der Benutzer von Bibliotheken und Buchhandlungen wurden durch Fokusgruppeninterviews und einen selbst ausgefüllten Fragebogen untersucht. Deutliche Überschneidungen in den Funktionen der beiden Standorte wurden ebenso gefunden wie Hinweise auf alters- und einkommensbedingte Unterschiede in der Nutzung und Wahrnehmung von Buchhandlungen und Bibliotheken. Die Ergebnisse legen nahe, dass den Überzeugungen und Verhaltensweisen junger Menschen und Mittelverdiener (die Gruppen, die die Buchhandlung am stärksten nutzen) Aufmerksamkeit geschenkt werden sollte, und dem angestrebten Gleichgewicht von Bildung und Freizeit im Image und Wesen der öffentlichen Bibliothek.;-;http://eprints.rclis.org/6087/;-;- 167d6e50637b84c989d9a335089d93ea;de;;;1.4.;;;Co-Netzwerkanalyse[Comunicación]. Hier haben wir eine neue Methode zur Untersuchung des Netzwerks von Akteuren vorgestellt, die Co-Netzwerkanalyse genannt wird. Sie besteht darin, Akteure als Vektoren zu betrachten, deren Komponenten Netzwerke sind, die zuvor durch Co-Wort-Analyse konstruiert wurden hinsichtlich ihrer Zuordnung zu den Netzwerken und erben darüber hinaus die Zentralitäts- und Dichtewerte, die das Netzwerk besitzt. Auf diese Weise lassen sich grafische Darstellungen konstruieren, in denen die thematisch ähnlichen Akteure in ebenfalls ähnlichen strategischen Positionen erscheinen. Das heißt, es ist eine verbesserte Kombination des klassischen strategischen Diagramms der Co-Wort-Analyse und der MDS-Analyse. Es ist auch möglich, einen Allgemeinheitsindex der Akteure zu erstellen. Diese Technik ist anwendbar auf Forschungspolitik, wissenschaftliche und technologische Überwachung oder soziologische Analyse.;-;http://eprints.rclis.org/14051/;-;- e17f34481712096dccf77c48706ee79d;de;;;1.4.;;;Entwicklung des indonesischen Nationalen Digitalen Bibliotheksnetzwerks Dieser Artikel beschreibt die Geschichte und Entwicklung von IndonesiaDLN (das Indonesia Digital Library Network), das von 40 Personen aus 23 Institutionen geleitet wurde, die im Oktober 2000 ein Treffen in Bandung abhielten (Fahmi et al., 2000). Ihr Hauptziel bestand darin, eine innovative und kollaborative Strategie zu entwickeln, um lokale Ressourcen zu erwerben, zu erhalten und zu teilen. Als Endergebnis initiierten sie ein digitales Bibliotheksnetzwerk, das dann als Indonesia Digital Library Network (IndonesiaDLN) bezeichnet wurde, und entwickelten eine Open-Source-Software namens Genasha Digital Library (GDL2). Es wurde erwartet, dass Studierende einer Institution durch die gemeinsame Nutzung der lokalen Ressourcen, wie oben erwähnt, ihre Informationskompetenz verbessern können, indem sie auf Ressourcen anderer Institutionen zugreifen. IndonesiaDLN kann als Netzwerk betrachtet werden, das digitale Bibliotheken vieler Institutionen in Indonesien integriert, indem es ihre lokalen Ressourcen in Form von Metadaten und Volltexten sammelt und teilt. Über jeden digitalen Bibliotheksserver kann ein Benutzer alle Ressourcen durchsuchen, suchen und herunterladen, die von den IndonesiaDLN-Mitgliedern gemeinsam genutzt werden. Das Wachstum dieses Netzwerks ist sehr schnell. Nur zwei Jahre nach dem erstmaligen Start des Netzwerks im Jahr 2001 hat die Zahl der neuen digitalen Bibliotheken, die dem IndonesiaDLN beigetreten sind, 45 Mitglieder erreicht.;-;http://eprints.rclis.org/9323/;-;- ca096e58f1e87cd44a866666926ace39;de;;;1.4.;;;Von der Information zum Wissensmanagement: Ein kritischer Ansatz zu Unterschieden und Gemeinsamkeiten im Rahmen der Integrationsrhetorik Es ist offensichtlich, dass die Kritik an Wissensmanagement als Modeerscheinung oder neue Bezeichnung für Informationsmanagement hauptsächlich aus der Informatik-Community kommt. Dieses Verhalten rührt möglicherweise von der Bedrohung her, der Informationsmanager mit dem Aufkommen von Wissensmanagement-Disziplinen und ihrer Schwierigkeit, strategische Rollen in wissenszentrierten Organisationen zu erhalten, ausgesetzt sind. Auf der anderen Seite legitimiert der explizite Informationsteil der Wissensmanagementinitiative teilweise das Argument, dass Wissensmanagement einfach ein prätentiöseres Synonym für Informationsmanagement ist. Der Zweck dieses Beitrags besteht darin, die Kritik, Wissensmanagement sei eine andere Modeerscheinung oder ein neuer Begriff für Informationsmanagement, kritisch zu hinterfragen. Vier Hauptaspekte als Unterscheidungskriterien zwischen Informations- und Wissensmanagement werden diskutiert. Die Kriterien umfassen: Wissenskapital, Wissensaustausch, Wissensmanagementsysteme &, Technologie und E-Learning. Außerdem werden die Gemeinsamkeiten zwischen Informations- und Wissensmanagement dargestellt. Abschließend werden einige Empfehlungen zur Förderung und Etablierung einer Wissensmanagementkultur im wissenschaftlichen Bibliothekssektor gegeben.;-;http://eprints.rclis.org/10628/;-;- 4117f333c628cf4bbe36e956decfefc9;de;;;1.4.;;;Open-Access-Wissenschaftskommunikation in Südafrika: Stand, Bedeutung und Rolle der Nationalen Informationspolitik im Nationalen Innovationssystem Die südafrikanische Wissenschaft zeigt einen Rückgang ihrer globalen Wettbewerbsfähigkeit, da ihre wissenschaftliche Publikationsrate nicht mit der anderer Länder, sowohl der Industrie- als auch der Entwicklungsländer, Schritt gehalten hat. Dies, zusammen mit einem Rückgang der Publikationsrate insbesondere bei südafrikanischen Nachwuchswissenschaftlern, deutet auf ein strukturelles Problem im südafrikanischen nationalen Innovationssystem hin. Eine sinkende Publikationsrate weist auf ein Problem der Wissensdiffusion für Südafrika hin und weist auf ein mögliches Problem der Wissensgenerierung hin. Diese Arbeit beschränkt sich auf die Dynamik der Wissensverbreitung mit spezifischem Bezug auf die Open-Access-Wissenschaftskommunikation. Open-Access-Wissenschaftskommunikation ist eine offene Intervention zur Wissensverbreitung. Die Marginalisierung der Wissenschaft in und von Entwicklungsländern, die zu einem Zustand des Wissensimperialismus und der Wissensabhängigkeit führt, wird thematisiert und argumentiert, dass die Wissensverbreitung und -generierung im Zentrum des langfristigen Wirtschaftswachstums stehen. Diese Dissertation ist um zwei Kernabschnitte, einen theoretischen Rahmen basierend auf der Literatur und empirische Studien, strukturiert. Im theoretischen Rahmen werden die zentralen Konzepte Wissenschaftskommunikation und Open Access, Nationale Informationspolitik (NIP) und Nationales Innovationssystem (NSI) erarbeitet (Kapitel 2 und 3). Der empirische Teil dieser Studie (Kapitel 4 und 5) besteht wiederum aus zwei Teilen. In beiden Teilen wurde die Erhebungsmethode verwendet, wobei jedoch im ersten Teil ein Fragebogeninstrument und im zweiten Teil eine strukturierte Aktenüberprüfung verwendet wurde. Beide empirischen Studien wurden verwendet, um den Aktivitätsgrad und das Ausmaß der Akzeptanz von Open Access innerhalb einer definierten südafrikanischen Wissenschaftsgemeinschaft zu bewerten, die eine disziplinbasiert, die andere institutionell basiert. Diese Studie verfolgte zwei Ziele: den Bekanntheitsgrad und die Investitionen in Open-Access-Modi der wissenschaftlichen Kommunikation innerhalb definierter wissenschaftlicher Gemeinschaften zu bewerten und ein Benchmark-Dokument über die bisherige Beteiligung Südafrikas an verschiedenen Open-Access-Initiativen zu erstellen. Es wird argumentiert für die Offenheit der wissenschaftlichen Systeme und darüber hinaus, dass die disparate und unkoordinierte Natur von Open Access in Südafrika einer politischen Intervention bedarf. Die so identifizierte politische Intervention würde in einem förderlichen politischen Umfeld existieren und das südafrikanische Wissenschaftssystem nur minimal stören. Diese politische Intervention würde eine nationale Informationspolitik darstellen, da sie sich mit der Speicherung, Verbreitung und dem Abruf wissenschaftlicher Forschungsergebnisse befassen würde. Diese Dissertation empfiehlt die Änderung des gegenwärtigen gesetzlichen Berichtsmechanismus, der von Wissenschaftlern zur Berichterstattung und zum Erhalt von Publikationsratenzuschüssen verwendet wird, was dazu führen würde, dass Wissenschaftler ihre Forschung über einen Open-Access-Modus der wissenschaftlichen Kommunikation zur Verfügung stellen und darüber hinaus von Wissenschaftlern darüber berichten müssen dies getan zu haben.;-;http://eprints.rclis.org/6357/;-;- 80ce378afa7ff22fd0ce51468469f4c0;de;;;1.4.;;;Making the Innovation Case in der Open-Access-Wissenschaftskommunikation Es erscheint fast unnötig, zusätzliche Gründe für die Einführung von Open Access wissenschaftlicher Kommunikation (OA sc) erarbeiten zu müssen, wie sie sich in Open Access-Zeitschriften und Selbstarchivierungspraktiken manifestiert. Für die OA-Aktivisten ist die Argumentation überzeugend vorgetragen worden, und aktuelle Argumente müssen lediglich über den Bereich der Bibliotheks- und Informationswissenschaften (LIS) hinaus verbreitet werden. Ich behaupte jedoch, dass aus wissenschaftspolitischer Sicht ein überzeugendes Argument für OA sc vorgebracht werden muss, wenn von der Regierung angeordnete pro-OA-Politikänderungen durchgeführt werden sollen. Dieses Papier ist also ein Versuch, die OA-Diskussion über die LIS-Arena hinaus in den Bereich der Wissenschafts- und Innovationspolitik zu führen. Unter Verwendung der Innovationstheorie als theoretischem Rahmen wird argumentiert, dass Open Access-Wissenschaftskommunikation nur dazu dienen kann, Innovationssysteme zu stärken, seien sie national, regional oder sektoral. Der Fall Südafrika wird als illustratives Beispiel genommen, obwohl der Fall über das südafrikanische Wissenschaftssystem hinaus verallgemeinert werden kann und wird. Das Argumentieren von Open Access im Kontext von Innovation ist auch von strategischer Bedeutung, da staatliche Entscheidungsträger häufig den Rat von Forschern der Wissenschafts- und Innovationspolitik befolgen.;-;http://eprints.rclis.org/7695/;-;- 9ba669137c908c7a6d2f449c01e93f86;de;;;1.4.;;;EEN: Ein stiftbasiertes elektronisches Notizbuch für den nicht aufdringlichen Erwerb von Ingenieurwissen Die Erfassung von Konstruktionsinformationen und -entscheidungen ist entscheidend, um die Wiederverwendung von Konstruktionen und die Koordination in Entwicklungsteams zu unterstützen. Die meisten dieser Informationen werden derzeit überhaupt nicht aufgezeichnet. In diesem Whitepaper konzentrieren wir uns auf die Rolle elektronischer Ingenieurnotizbücher bei der Erfassung, Speicherung und Verbreitung von Designinformationen und -entscheidungen sowie auf ihre Rolle bei der Integration und Verwaltung von Designentscheidungen und -prozessen. Wir schlagen EEN (Electronic Engineering Notebook) als Werkzeug vor, um Ingenieure bei informationsbezogenen Aufgaben zu unterstützen und letztendlich zum Ersatz traditioneller Papier-Engineering-Notizbücher zu führen. In diesem Beitrag werden die Anforderungen, das Design und die Implementierung von EEN sowie erste experimentelle Ergebnisse vorgestellt.;-;http://eprints.rclis.org/13704/;-;- 91f7c80071de92e6e7922745ee50d9a5;de;;;1.4.;;;Keine Nachrichten sind schlechte Nachrichten-Trading-Informationen Die gesellschaftliche Organisation der modernen Arbeit kann unsere tägliche Arbeit als unendliche Abfolge mechanischer Aufgaben gestalten. Dieses Papier zielt darauf ab, eine andere Sichtweise aus einer anderen Perspektive zu vermitteln, wobei ein funktionalistischer und komparativer/historischer Ansatz verwendet wird, um die Antwort auf grundlegende Fragen zu erhalten: Was tun wir? Wohin gehen wir? Welchen Charakter haben die komplexen Beziehungen zwischen den Akteuren der Informationswirtschaft: den Bibliothekaren, den Bildungsministerien, den akademischen Abteilungen, den Autoren, den Verlagen und den Abonnementagenturen? Können wir versuchen, die gegenwärtige Situation der Informationsindustrie auch aus sozialwissenschaftlicher Sicht zu definieren? Was ist diese Hauptfunktion der Branche? In einer eher politikwissenschaftlichen Richtung betrachtet die Arbeit dann die Agenten, die den Informationsfluss innerhalb einer Zivilisation, die aus verschiedenen Gruppen besteht, und zwischen Menschen im Allgemeinen verbessern können. Neben den neuen Hightech-Entwicklungen in der Informationsindustrie und im Handel gefährden einige Probleme den Informationszugang für alle. Was sind die möglichen Lösungen, um das Problem zu beheben? Und ist in einem freien Markt Platz für staatliche Eingriffe?;-;http://eprints.rclis.org/9732/;-;- cc0f9f9e4c0dedf118bea4ba154ddcc4;de;;;1.4.;;;Computer hinter Gittern: Informationstechnologie in kanadischen Gefängnisbibliotheken Dieser Bericht ist das Ergebnis einer unabhängigen Studie, die mit der Fakultät für Informations- und Medienwissenschaften (FIMS) der University of Western Ontario (UWO) durchgeführt und von Dr. Carole Farber, Professorin beraten wurde. Der Schwerpunkt dieser Studie liegt auf den Auswirkungen, die die zunehmende Popularität der elektronischen Bereitstellung von Informationen auf kanadische Gefängnisbibliotheken haben kann. Die gesammelten Informationen werden mit den Ergebnissen der kanadischen Politik in Bezug auf die Bereitstellung von Informationen für Insassen verglichen. Die Analyse der gesammelten Fakten kann Erkenntnisse liefern, die Gefängnisbibliothekaren helfen, mit der zunehmenden Popularität der elektronischen Bereitstellung von Informationen in Bezug auf rechtliche Beschränkungen umzugehen.;-;http://eprints.rclis.org/10344/;-;- 850a9ed94bf79140a0fa907e004ce8da;de;;;1.4.;;;Elektronische Tutorials: Indonesische Erfahrung Wie in anderen Entwicklungsländern betreffen auch in Indonesien wichtige Anliegen im Zusammenhang mit der Bildung zwei Aspekte: Quantität versus Qualität. Durch die Gründung der indonesischen Open Learning University (Universitas Terbuka) im Jahr 1984 wurden Qualitätsbedenken nun einigermaßen ausgeräumt. Die Qualitätsbedenken sind jedoch noch nicht vollständig ausgeräumt. Die Lernunterstützung, von der angenommen wird, dass sie der Schlüssel zum Erreichen eines qualitativ hochwertigen Fernunterrichts ist, war begrenzt. In diesem Papier werden die Ergebnisse von zwei Pilotprojekten vorgestellt, in denen Tutorials untersucht wurden, die über Internet und Fax-Internet-Technologien bereitgestellt werden. Es ist ein Bericht, der auch zeigt, dass die Universitas Terbuka vor sichtbaren und unsichtbaren Herausforderungen steht. Zu den sichtbaren Herausforderungen gehören Einschränkungen bei der Verfügbarkeit von Technologieinfrastruktur und Probleme mit unzureichendem Zugang, während unsichtbare Herausforderungen die Bereitschaft der Indonesier umfassen, neue Technologien für Bildungszwecke anzunehmen und zu nutzen. Trotz der Ergebnisse des Pilotprojekts wird der Universitas Terbuka vorgeschlagen, weiterhin Internet und Fax-Internet als zwei ihrer Kommunikationskanäle mit Studenten zu nutzen.;-;http://eprints.rclis.org/11289/;-;- cb0283f027c864333876eef09ef0a7d0;de;;;1.4.;;;Der Einfluss von Bibliotheken auf Lernen, Lehre und Forschung. Bericht über das LIRG-Seminar im Oktober 2001. Was macht eine gute wissenschaftliche Bibliothek aus? Diejenigen von uns, die in wissenschaftlichen Bibliotheken arbeiten, wissen, dass wir in der Lage sein müssen, ein gutes Preis-Leistungs-Verhältnis vorzuweisen. Die Forschungsgruppe Bibliothek und Information (LIRG) hat vor kurzem zwei Seminare zur effektiven wissenschaftlichen Bibliothek organisiert. Diese beschäftigten sich damit, wie wir die Leistung einer wissenschaftlichen Bibliothek messen.;-;http://eprints.rclis.org/6029/;-;- 560bed3f68553545dcd67d5e0a4fcb16;de;;;1.4.;;;Eine Bewertung der Entwicklung des Volksnetzwerks im Nordosten Diese Untersuchung wurde als Reaktion auf ein Schreiben von NEMLAC durchgeführt, in dem eine Überprüfung der Entwicklung des Volksnetzwerks in den öffentlichen Bibliotheken der Region Nordosten im Hinblick auf die Ausarbeitung eines Aktionsplans beantragt wurde. Die Methodik umfasste Interviews mit Schlüsselkontakten in jeder der 12 Behörden im Nordosten, Fragebögen, die an die Nutzer des PN verteilt wurden, und kurze Interviews mit Kunden, die das PN in Bibliotheken jeder Behörde nutzten. Es fand ein Expertentag statt, zu dem PN-Manager der 12 Behörden eingeladen waren, die Forschungsergebnisse zu diskutieren und mitzugestalten.;-;http://eprints.rclis.org/6082/;-;- 1d8c77f6da90d92cf5861c85725cc055;de;;;1.4.;;;Politische Reformation und ihre Auswirkungen auf die Ausbildung und Praxis der Bibliotheks- und Informationswissenschaft: Eine Fallstudie zu Indonesien während und nach der Präsidentschaft der Soeharto-Administration Der Autor erörtert die bibliotheks- und informationswissenschaftliche Ausbildung vor und nach 1998, dem Jahr, in dem Präsident Soeharto zurücktrat. Vor 1998 zentralisierte die Regierung die Politikgestaltung. Für die LIS-Ausbildung hat das Bildungsministerium über die Generaldirektion Hochschulbildung (DGHE) einen landesweiten Lehrplan für Sarjana- oder Bachelor-Studiengänge herausgegeben, der den LIS-Schulen wenig Raum lässt, zusätzliche Kurse einzurichten. Nach 1998 erließ die Generaldirektion Hochschulbildung Mindestanforderungen für LIS-Schulen, wobei die verbleibenden Semesterwochenstunden von jeder Institution festgelegt werden. Ebenfalls vor 1998 erteilte die DGHE nach Prüfung der eingereichten Vorschläge die Genehmigung zur Eröffnung neuer LIS-Schulen. Nach 1998 konnte jede Universität ohne Genehmigung der DGHE Bachelor- und Masterstudiengänge in LIS eröffnen, auch wenn nicht alle akademischen Voraussetzungen erfüllt sind. LIS-Schulen müssen jedoch nach Studienbeginn zwei Jahre lang von einer Akkreditierungsagentur betreut werden. Die zentralisierte Politik beeinflusste auch die Studieninhalte.;-;http://eprints.rclis.org/10155/;-;- aff692ee6c526cf48d2d428148b1f14b;de;;;1.4.;;;Organisation von Dokumenten der Vereinten Nationen (UN) in Depotbibliotheken Hebt die Bedeutung von UN-Publikationen für die Forschung hervor. Bietet eine kurze Skizze des UN-Depotbibliothekssystems einschließlich der Kriterien für die Benennung einer Depotbibliothek. Präsentiert die Ansichten zu Arten von Dokumenten, die von der UNO und ihren Organen/Agenturen veröffentlicht wurden. Präsentiert einen praktischen Ansatz für die Organisation von UN-Dokumenten in Depotbibliotheken unter Verwendung von UN-Dokumentensymbolen und Verkaufsnummern. Dieses Papier listet auch einige wichtige Datenbanken der UN auf, die über das Internet zugänglich sind.;-;http://eprints.rclis.org/10932/;-;- bdd364bbf23459bbf219c0cc02b0b8ce;de;;;1.4.;;;Förderung der Gesundheitsinformationskompetenz in der breiteren Gemeinschaft: Die Mini-Med-Schulerfahrung 1) Programmziel: Zusammenarbeit mit der Mini-Med School der Universität, um Mitglieder der Gemeinschaft zu erreichen und die Gesundheitsinformationskompetenz zu unterstützen. 2) Umfeld: Die McGill University bietet seit 5 Jahren die Mini-Med School an, eine aufsuchende Initiative zur Aufklärung der Öffentlichkeit über medizinische Wissenschaften. 3) Teilnehmer: Jedes Jahr registriert sich die McGill Mini-Med School mit über 400 Teilnehmern. Von diesen meldete sich ein kleiner Teil zu einem zusätzlichen Workshop an, der von einem Bibliothekar geleitet wurde. 4) Programm: Während allgemein anerkannt wird, dass Informationskompetenz an Hochschulen gefördert werden sollte, ist wenig über Versuche bekannt, Informationskompetenz außerhalb der akademischen Welt zu vermitteln. In diesem Jahr bot die Bibliothek allen Teilnehmern der Mini-Med School optionale, praktische Workshops zum Thema „Finden von Gesundheitsinformationen online“ an. Ein Bibliothekar für Biowissenschaften konzipierte und koordinierte die Workshops, während Bibliothekare für Verbrauchergesundheit aus angeschlossenen Krankenhäusern die Durchführung unterstützten. Feedback wurde von allen Teilnehmern mit einem Papier- und Bleistift-Fragebogen eingeholt. 5) Ergebnisse: Während sich eine bescheidene Zahl von Teilnehmern für den praktischen Workshop entschied, war die Resonanz auf die Anleitung überwiegend positiv. 6) Schlussfolgerung: Durch die Zusammenarbeit mit Dozenten und Mitarbeitern, um Gesundheitsinformationskompetenzinitiativen für die breite Öffentlichkeit bereitzustellen, haben Bibliothekare die Möglichkeit, nicht nur eine breitere Benutzergruppe zu erreichen, sondern auch Partnerschaften mit Forschern in ihrer eigenen Institution zu pflegen. Die Förderung der Gesundheitsinformationskompetenz durch bestehende Outreach-Programme wie die Mini-Med School ist eine potenzielle Quelle für mehr Sichtbarkeit innerhalb und außerhalb der Universität.;-;http://eprints.rclis.org/7716/;-;- 06167a9da7f6d27027a3e6acffd4d1c3;de;;;1.4.;;;Intellektueller Terrorismus und die Kirche: Der Fall der Google-Bombe Diskussion aus bibliothekswissenschaftlicher Sicht darüber, wie sich die Google-Bombe auf den Zugang zum dokumentarischen Erbe der Churches of Christ, Teil der Stone-Campbell Restoration Movement/American Restoration Movement, auswirken kann;-;http://eprints.rclis.org/10147/;-;- 3edd8efea73aa38b0d8a7f0dde0715dc;de;;;1.4.;;;Placemaking und Bürgerzentren Diese Vorkonferenz soll den Teilnehmern einen einzigartigen, ortsbezogenen Ansatz für die Planung und Gestaltung von Städten und Gemeinden und ihren öffentlichen Räumen, einschließlich Bibliotheken, vorstellen. Die Teilnehmer werden ermutigt, über ihre Institutionen und Einrichtungen in einem neuen Licht nachzudenken und erhalten praktische Werkzeuge und Techniken, die sie bei der Anwendung dieser Ideen anwenden können. Als Quelle des größten Potenzials unserer Provinz, ein lebenswerter, begehbarer Gemeinschaftsort zu werden, werden die Bürgerzentren der Städte und Dörfer von British Columbia sowie die angrenzenden Straßen, Parks und Viertel den Schwerpunkt des Workshops bilden. Wir werden den Tag damit verbringen, die Prinzipien der Schaffung von Orten durch Rundgänge, Präsentationen, Fallstudien, eine Übung zur Bewertung der Leistung des Ortes, Gruppendiskussionen und die genaue Untersuchung der öffentlichen Räume in der Nähe einiger der wichtigsten bürgerlichen Institutionen von Richmond, einschließlich der Bibliothek und Kunst Museum. Durch diesen „Placemaking“-Prozess lernen Sie, wie Sie die Zusammenarbeit zwischen Gemeindemitgliedern erleichtern können, um eine Vision rund um die Orte zu entwickeln, die für das Gemeindeleben und ihre tägliche Erfahrung als wichtig angesehen werden, und um schnelle, kurzfristige und kostengünstige Verbesserungen zu identifizieren die in Partnerschaft mit Anwohnern sowie mit Partnern aus dem öffentlichen und privaten Sektor umgesetzt werden kann. Basierend auf der 32-jährigen Erfahrung von Project for Public Spaces im Bereich Placemaking und inspiriert von ihrem beliebten Buch How to Turn a Place Around, wird der Workshop den Teilnehmern einen einzigartigen Ansatz zur kontextuellen Wiederbelebung des Stadtzentrums, nachhaltigem Wirtschaftswachstum und Gemeindeentwicklung zeigen.;-;http://eprints.rclis.org/11453/;-;- 867b2722759c0de82a6ea988a5589418;de;;;1.4.;;;Das Institute of Professional Librarians of Ontario: Zur Geschichte und Geschichtsschreibung einer Berufsvereinigung Eine deskriptive Analyse der Geschichte des Institute of Professional Librarians of Ontario (1960–1976) zeigt nicht nur die Umstände rund um die Entstehung, das Wachstum und den Niedergang dieses einzigartigen Ausdrucks der Professionalisierung des Bibliothekswesens, sondern stellt auch die Art und Weise in den Vordergrund, in der die historischen Die Berufserzählung muss über die traditionelle Abgrenzung intrinsischer Merkmale hinausgehen, um das Bibliothekswesen angemessener einzugrenzen. Zu diesem Zweck wird ein wichtiger Faktor berücksichtigt, die Untersuchung der Bürgerrechte der Royal Commission (1964-71). Es liegt auf der Hand, dass eine solche historische Wiederherstellung von entscheidender Bedeutung für das Selbstverständnis des Berufsstandes ist, da er seine zeitgenössische Haltung sowohl gegenüber Bibliothekaren als auch gegenüber der Öffentlichkeit, der sie dienen, verhandelt.;-;http://eprints.rclis.org/12214/;-;- a89145c8b9b4d8c4512e1fdbc370f5bb;de;;;1.4.;;;Menschenrechte in der Bibliotheks- und Informationsarbeit finden Dieses Diskussionspapier berührt Aspekte der Philosophie des Bibliothekswesens, moralische und ethische Aspekte des Bibliothekswesens, Menschenrechte, soziales Handeln, soziale Gerechtigkeit, Bürgerbeteiligung am sozialen Wandel und Berufsethik des Bibliothekswesens.;-;http://eprints.rclis.org/12707/;-;- b7c4de189fe270aa022a266a58e8804f;de;;;1.4.;;;Ein neues Paradigma lehren: Eine lohnende Anleitung für Bibliothekare und Studenten Li Das Bibliothekspersonal der University of Victoria identifizierte vier Hauptherausforderungen im Alphabetisierungsunterricht – Zeit, mangelndes Engagement der Schüler, mangelnde Relevanz für die Schüler und mangelndes Bewusstsein der Fakultät. Sie präsentierten Lösungsvorschläge für diese Probleme. Ein Handout wurde verteilt und ist hier beigefügt.;-;http://eprints.rclis.org/12215/;-;- 1d20cc26582aea12778938dd27b5bf89;de;;;1.4.;;;Was für ein Tier bist du? Einfügen des Unerwarteten, um das Lernen zu verbessern Kichern und kichern Ihre Lernenden im Unterricht? Übernimmt ein aufgeregtes Summen, wenn Sie ihnen eine Aufgabe geben? Streiten sie sich darüber, welche der vorbereiteten Fragen sie während Ihrer Bibliothekstour stellen werden (und teilen sie diese Fragen mit ihren Freunden in anderen Klassen)? Reagieren sie mit Überraschung und heimlicher Freude auf Ihr Online-Tutorial? Die Aufmerksamkeit Ihrer Lernenden zu gewinnen kann eine Herausforderung sein – alles von SMS und Facebook bis hin zu verschiedenen akademischen und persönlichen Prioritäten nimmt zu jedem Zeitpunkt wertvollen Platz in den Köpfen Ihrer Lernenden ein. Manchmal ist das effektivste Lehrmittel das Überraschungselement – ​​das Unerwartete einzufügen, damit Sie Aufmerksamkeit gewinnen oder wiedererlangen können, wenn auch nur lange genug, um Ihren nächsten Punkt zu unterstreichen. In dieser Sitzung werden Sie in eine Reihe von Möglichkeiten eingeführt, um nicht nur Aufmerksamkeit zu erregen, sondern auch Begeisterung, Aufregung und Interesse bei Ihren Lernenden zu erzeugen.;-;http://eprints.rclis.org/14524/;-;- a4ec9c1d64539874c71bf1c244e4f0e4;de;;;1.4.;;;Auf der Suche nach Führung: Führung in den Bibliotheken der Binghamton University Die Bibliotheken der Binghamton University haben ein herausforderndes Jahrzehnt hinter sich, da sie sowohl mit einer rückläufigen Mitarbeiterzahl als auch mit einem stagnierenden Budget konfrontiert waren, was den Ersatz des verlorenen Personals schwierig machte. Eines der größeren Probleme, die aufgetreten sind, ist die Suche nach internen Kandidaten für Führungspositionen in den Bibliotheken, wenn Mitarbeiter in den Ruhestand gehen. Dieses Projekt sollte zwei Fragen beantworten: • Warum sind aktuelle Mitarbeiter nicht bereit, in Führungspositionen zu wechseln • Welche Schritte kann die B.U. Bibliotheken, um den Widerwillen zu überwinden, in diesen Positionen zu dienen? Um diese Fragen zu beantworten, wurde eine Literaturrecherche zu Arbeitszufriedenheit, Führungs- und Organisationswandel durchgeführt. Das Personal der Binghamton University Library wurde befragt und die Ergebnisse mit deskriptiven, thematischen und kreuztabellenartigen Analysen analysiert. Es wurde festgestellt, dass in den Bibliotheken der Binghamton University ein Interesse an Führung besteht, aber ein Großteil der Möglichkeiten und des Schwerpunkts wird neueren Mitarbeitern gegeben, und viele Mitarbeiter wussten nicht einmal, dass ihnen solche Möglichkeiten zur Verfügung standen.;-;http://eprints.rclis.org/15526/;-;- 021cf97fbe983ff74815d68e08dec241;de;;;1.4.;;;BC LawMatters präsentiert: Die zehn wichtigsten Fragen im Familienrecht für öffentliche Bibliothekare Diese Handouts stammen von einem Workshop zum Familienrecht für öffentliche Bibliothekare, der im April 2011 auf der BC Library Association Conference präsentiert wurde. Einige der Grundlagen des Familienrechts in BC wurden von dem Anwalt behandelt, der die Website www.bcfamilylawresource.com betreibt. Themen waren unter anderem die Gerichtsbarkeit, Alternativen zum Rechtsstreit, das Kinderrecht (Obsorge, Vormundschaft, Unterhalt), Ehegattenunterhalt, Ehe und Scheidung sowie neue Entwicklungen im Familienrecht. Außerdem wurden aktuelle Ressourcen vorgestellt, um der Öffentlichkeit bei ihren Fragen zu helfen.;-;http://eprints.rclis.org/15623/;-;- cdbb2a4133e6a1c86c982f1972fd4da7;de;;;1.4.;;;Die Unterversorgten erreichen: Die Rolle der Verbindungsbibliothekarin bei Fraser Health Fraser Health-Bibliothekare werden das Verbindungsbibliothekar-Programm beschreiben, an dem sie in den letzten 3 Jahren bei Fraser Health teilgenommen haben. Dieses Programm hat versucht, unterversorgte Gesundheitsfachkräfte und Programme wie Aborigine Health, Geriatrische Dienste und Krankenpflege aktiv zu erreichen und Bibliotheksunterstützung anzubieten.;-;http://eprints.rclis.org/15546/;-;- f02f9359bc16d13cd9272871139301df;de;;;1.4.;;;Zusammenfassung des Buches Verknüpfung der genealogischen Forschung mit der Bibliotheks- und Informationswissenschaft: Konzepte, Perspektiven, Überlegungen Diese Studie, die Genealogie und ihre Beziehung zur Informationswissenschaft untersucht, sammelt Wissen und Erfahrung, die durch umfangreiche Erfahrungs- und Sekundärforschung auf diesem Gebiet gewonnen wurden. Da heute mehr denn je die Notwendigkeit besteht, die Genealogie im Lichte neuer Entwicklungen und gesellschaftlicher Anforderungen zu thematisieren, wurde eine Einarbeitung in das wissenschaftliche Thema Genealogie als zeitgemäß erachtet. Dieser Text stellt einen Versuch dar, für die Bedeutung der Ahnenforschung (Kap.2) und ihre Beziehung zu anderen Wissenschaften (Kap.3) einzutreten, Merkmale von Amateurismus und Professionalität in diesem Bereich zu identifizieren (Kap.5) und auf professionelle Akkreditierungen zu verweisen und Schulungseinrichtungen und bewährte Verfahren. Das Hervorheben der Bedeutung des Genealogie-Informationskompetenz-Nexus (Kap. 7) und die Notwendigkeit einer Neukonzeptionierung der Fähigkeiten von Bibliothekaren/Archivaren, um besser auf sich ändernde Benutzerbedürfnisse reagieren zu können (Kap. 4-6) gehörten ebenfalls zu unseren Hauptzielen. ISBN: 978-960-93-2999-6 Rufnummer der Nationalbibliothek: 03364/2011-1 03364/2011-2;-;http://eprints.rclis.org/31003/;-;- d25901747b94a79efd26c2b5ae124394;de;;;1.4.;;;Die Lernkultur der Fachkräfte digitaler Bibliotheken: Eine Studie zur Praxisgemeinschaft digitaler Bibliotheken in Europa Im Kontext des Wissensmanagements (KM) im Bereich der digitalen Bibliotheken (DL) gehören Communities of Practice (CoPs) zu den unerforschten Interessengebieten der Forschung im Vergleich zu den Bereichen Wirtschaft und Ingenieurwissenschaften und Medizin. Diesen Gemeinschaften wird größere Bedeutung beigemessen, um Wissen zu teilen, den Wissenstransfer zu erleichtern und vor allem den richtigen Kontext für das Lernen zu schaffen. Ziel dieser Forschung war es also: (1) die definierenden Merkmale von CoPs im Bereich DL herauszufinden, (2) zu untersuchen, wie CoPs zur Entwicklung einer Lernkultur beitragen und (3) die Erfolgs- und Hemmfaktoren in die Entwicklung einer solchen Lernkultur. Diese Studie basierte auf einer interpretativistischen philosophischen Sichtweise. Daher war der methodische Ansatz dieser Studie qualitativer Natur, bei der erfahrungs- oder kontextbasierte Daten durch halbstrukturierte Interviews erhoben wurden. Forschungsstichproben waren auf Fachleute beschränkt, die sich aktiv in DL-Gemeinschaften engagieren. Dazu gehören DL-Designer, Systementwickler, Systemadministratoren, Bibliothekare, Akademiker in DL-Ausbildungsprogrammen, Doktoranden und Wissenschaftler mit gemeinsamen Interessen an DL und seinen Grundlagentechnologien. Die gesammelten Daten wurden basierend auf der fünfstufigen thematischen Analyse von Peterson et al. analysiert. Die Ergebnisse der Studie haben gezeigt, dass DL CoPs eine Vielzahl von Formen haben, keine feste Struktur haben und ihre Erstellung immer von den Zwecken abhängt, für die sie eingerichtet wurden. Darüber hinaus zeigten die Ergebnisse, dass es unter DL-Fachkräften eine starke Lernkultur gibt, die durch die vier unterschiedlichen Praktikenkulturen gekennzeichnet ist – Wissensaustauschkultur, Kultur der Zusammenarbeit, Wissenstransferkultur und Innovationskultur. Es gibt jedoch auch kritische Erfolgsfaktoren bei der Schaffung einer Lernkultur: menschliches Verhalten, organisatorische und technologische Faktoren. Im Gegensatz dazu umfassen die hinderlichen Faktoren oder Barrieren: Einstellung zum Wissensaustausch, kulturbedingte Barrieren oder Herausforderungen, Sprachbeschränkungen und Zeit.;-;http://eprints.rclis.org/16337/;-;- ea385be1b4188d7669dd840ad087bc1c;de;;;1.4.;;;Fachbegriff im Kontext der Bibliotheks- und Informationswissenschaft aus einem neuen Blickwinkel Der Fachbegriff der Bibliotheks- und Informationswissenschaft (LIS) wurde hier aus der Sicht des sprachwissenschaftlichen Wortbegriffs interpretiert. Beide Konzepte wurden gründlich überprüft. Es wurde beobachtet, dass dem Begriff des Subjekts, der so lange von verschiedenen Forschern im LIS konzipiert wurde, im Wesentlichen der Begriff des Dokuments vorausgeht. Die Beschreibung des Gegenstands wird daher in den meisten Fällen standardmäßig innerhalb des Dokumentenbegriffs obliegen. Da es sich bei dem Dokument um eine makroskopische Einheit handelt, stellt die dokumentabhängige Beschreibung des Gegenstands daher natürlich ein makroskopisches Layout desselben dar. In dieser Arbeit wird versucht, eine dokumentenunabhängige Beschreibung des Themas zu entwickeln, die auf semantisch verwandten Wörtern innerhalb der Domäne des entsprechenden Kontexts basiert. Nach dieser neuen Beschreibung würde das Subjekt schließlich als Mengen von wohldefinierten und semantisch verwandten Wörtern definierbar, die als mikroskopische Beschreibung angesehen werden können. Es hat sich auch gezeigt, dass die Saat der dokumentenunabhängigen und wortbasierten Sachdefinition bereits im Begriff des Semantikfeldes, einer Domäne der Fachlinguistik, gesät wurde. Dieses Konzept wurde von Trier aufgegriffen und anschließend von Lehrer modifiziert. Es wurde logisch festgestellt, dass die von Ranganathan eingeführte Idee der Brennpunkte und die von Trier bzw. Lehrer eingeführte und modifizierte Idee des semantischen Feldes konzeptionell äquivalent sind. Ein Subjekt kann daher als Mengen von semantischen Feldern und wiederum als Mengen von Wörtern beschrieben werden.;-;http://eprints.rclis.org/19813/;-;- da942a67481fd4acbaeb4bc3b1f4bc65;de;;;1.4.;;;Wissenschaftliche Profile im Bereich Biomarker (2000-2010) Biologischer Marker ist ein in vielen wissenschaftlichen Bereichen verwendeter Begriff und wurde als messbares Element oder als klinischer Indikator bei abnormalen biologischen Prozessen, pathologischen Zuständen oder pharmakologischen Eingriffen eingeführt. Der Science Citation Index Expanded (SCI-E) aus der Datenbank des Web of Science (WoS) wurde verwendet, um alle Veröffentlichungen zu extrahieren, die während eines Zeitraums von elf Jahren bis 2000-2010 als Thema von „Biomarkern“ indiziert wurden. Das Extrahieren von Daten wurde auf das Tag von Themen (TS = Biomarkers) aus dem erweiterten Suchmenü beschränkt. Am 5. Mai 2013 wurden insgesamt 37397 Datensätze extrahiert und analysiert. In dieser Studie wurden die von mehreren Autoren aus verschiedenen Ländern gemeinsam verfassten Arbeiten als für jedes Land definiert. Die Studie zeigte, dass die Zahl der Veröffentlichungen im Bereich der Biomarker im Studienzeitraum zugenommen hat. Die Zahl der Veröffentlichungen im Jahr 2010 war mehr als 10 Mal im Jahr 2000. Mehr als 98% der Veröffentlichungen erfolgten auf Englisch. Die Mehrheit der Veröffentlichungen (68 %) war in Form von Zeitschriftenartikeln. Die Harvard University, die 1.128 Veröffentlichungen auf diesem Gebiet teilte, war die produktivste Universität unter den Instituten. Die USA, die 33 % des weltweiten Profils in diesem Bereich beisteuerten, waren das produktivste Land. Basierend auf dem Streuungsgesetz von Bradford war die Zeitschrift „Cancer Epidemiology Biomarkers Prevention“, die 3,12 % der weltweiten Veröffentlichungen veröffentlichte, die produktivste Zeitschrift unter den Kernzeitschriften. Die Analyse der Daten ergab, dass die Onkologie im letzten Jahrzehnt das interessanteste Fachgebiet der Wissenschaftler auf dem Gebiet der Biomarker war.;-;http://eprints.rclis.org/19750/;-;- 1523e34d3337f7e69a72132802f0a822;de;;;1.4.;;;Analyse von Open Access wissenschaftlichen Zeitschriften in Medien & Kommunikation Der Beitrag gibt einen Überblick über die Entstehung und Entwicklung der Open-Access-Initiative und erläutert das Konzept des Open-Access-Publizierens. Es beleuchtet auch verschiedene Facetten des wissenschaftlichen Open-Access-Publizierens im Bereich Medien und Kommunikation auf der Grundlage von Daten, die aus dem maßgeblichsten Online-Verzeichnis von Open-Access-Zeitschriften, d. Das DOAJ umfasst 8492 Open-Access-Zeitschriften, davon 106 Zeitschriften unter dem Schlagwort „Medien &, Kommunikation“. Die meisten Open-Access-Zeitschriften in Media &, Communication wurden Ende der 1990er Jahre gestartet und werden aus 34 verschiedenen Ländern auf 6 Kontinenten in 13 verschiedenen Sprachen veröffentlicht. Mehr als 80 % Open-Access-Zeitschriften werden von Non-Profit-Sektoren wie akademischen Einrichtungen und Universitäten herausgegeben.;-;http://eprints.rclis.org/31228/;-;- 5ed328e5cc681365c20da03b503ff32b;de;;;1.4.;;;Infopreneuriales Verhalten von Hochschulabsolventen der Fakultät für Informationswissenschaften einer Universität in Simbabwe Infopreneuriales Verhalten von Hochschulabsolventen hat das Potenzial, Beschäftigung zu garantieren und die Kluft zwischen Arbeitsplatzsicherheit und der wahrgenommenen Unsicherheit eines Informationsunternehmens zu überbrücken. Derzeit bietet die National University of Science and Technology in Simbabwe Infopreneurship- und Entrepreneurship-Kurse für Studenten der Fakultät für Kommunikations- und Informationswissenschaften an. Der Inhalt und die Präsentation des Kurses sind ähnlich, da sie sich alle auf den Verkauf, das Marketing und die Förderung von Informationsprodukten und -diensten beziehen. Es wurde jedoch wenig Forschung betrieben, um herauszufinden, wie sich dieser Kurs auf die Entwicklung eines infopreneurialen Verhaltens bei Absolventen auswirkt. Die Forscher führten eine fragebogenbasierte Umfrage durch, um das Infopreneurial-Verhalten von Studierenden herauszufinden, die von 2008 bis 2012 an der Fakultät graduierten. Die in diesem Beitrag vorgestellte explorative Untersuchung zeigt den Status dieser Absolventen bei der Nutzung ihrer erworbenen Kenntnisse in Infopreneurship und Entrepreneurship im Hinblick auf den Verkauf und die Vermarktung von Informationsprodukten und -dienstleistungen, insbesondere durch kleine physische oder online/internetbasierte Unternehmen. Das wichtigste Ergebnis dieser Studie war, dass die Studenten zwischen 2011 und 2012 Initiativen zum Aufbau internetbasierter Informationsunternehmen ergriffen haben, aber nicht über weitere geschäftliche und technische Fähigkeiten verfügen, die erforderlich sind, um diese Initiativen in „echte“ Unternehmen umzusetzen. Diese kaufmännischen und technischen Fähigkeiten fehlen in den Studieninhalten. Die Forscher schließen mit Empfehlungen zu möglichen Anpassungen, die in die Kurse eingeführt werden können, um das infopreneuriale Verhalten von Absolventen der Informatik zu verbessern.;-;http://eprints.rclis.org/23480/;-;- d335741b077fba3058a4f1e27e2497ef;de;;;1.4.;;;Medizin 2.0: Überlegungen zu einer Pathologie der Informationsgesellschaft Der Artikel analysiert die Auswirkungen, die digitale und Informations- und Kommunikationstechnologien (IKT) auf die Medizin als Wissenschaft und Praxis haben können. Die technologischen Veränderungen, die zu dem führen, was ich „Medizin 2.0“ nenne, finden auf mehreren Ebenen statt, wie zum Beispiel: Informationsüberflutung, die Arzt-Patienten-Beziehung, die Selbstwahrnehmung von Arzt und Patient sowie das Konzept des menschlichen Körpers was man unter Krankheit und als Gesundheit versteht. Um eine Pathologie der Informationsgesellschaft zu definieren, wird ein anthropologischer Rahmen vorgeschlagen, der auf Konzepten des Schweizer Arztes und Psychiaters Medard Boss basiert und mit einigen Beispielen eine systematische Analyse dieser Pathologie illustriert. Der Beitrag schließt mit dem Vorschlag von Leitlinien für ein ethisches Konzept als Referenz für die präventive und therapeutische Versorgung in der Informations- und Wissensgesellschaft.;-;http://eprints.rclis.org/23481/;-;- ebe739af885ff6270bfd23e923ac5f7d;de;;;1.4.;;;Labs, Makerspaces und ihre Herausforderung, Bibliotheksdienste in einem innovativen Umfeld zu entwickeln Ziel dieser Studie ist es, Beispiele dafür aufzuzeigen, wie kostengünstige Hardwarekomponenten und Open-Source-Software Bibliothekssystemen auf der Grundlage einer drastischen Kostenreduzierung der Budgets dieser Institutionen zugute kommen und ihre Mitarbeiter bei der Entwicklung von Vorschlägen motivieren können zum Umdenken, nicht nur ihren Arbeitsplatz, sondern auch die Konzeption von Dienstleistungen, die sie ihren Kunden bieten. Seit dem letzten Jahrzehnt haben die Open-Source-Bewegung und die „Do It Yourself“ (DIY)-Community (manchmal auch „Lo-Fi-Revolution“ genannt) eine schwindelerregende Dynamik in Bezug auf Ehrgeiz und Komplexität ihrer Vorschläge gewonnen und konkurrieren auf Augenhöhe mit vielen der kommerziellen Lösungen, die auf die gleichen Bedürfnisse abzielen, und sich sogar als alternatives Geschäftsmodell etablieren, das auf der ständigen Verbesserung des Produkts durch ihre Community und nicht auf reinem wirtschaftlichen Gewinn basiert. Dank der Senkung der Preise für elektronische Komponenten und der Verbreitung von Tutorial-Websites oder dedizierten Foren setzt die „DIY“-Community, dilettantische Themen ohne Hierarchien, voll funktionsfähige Prototypen ein und etabliert weltweite Treffpunkte, sogenannte Makerspaces oder Hackathons, die über einen reines Hobby. Die Maker-Bewegung reformiert die Art und Weise, wie Innovation auf verschiedene Disziplinen angewendet wird, darunter die Informationswissenschaft. Projekte, die nicht unbedingt in dieser Gemeinschaft geschaffen wurden, könnten eine wirksame Antwort auf die Bedürfnisse von Bibliotheken sein und zeigen, dass dieser Kontext eine großartige Gelegenheit sein kann, ihre Dienste und Ressourcen auf kreative, partizipative und kosteneffektive Weise zu verbessern.;-;http://eprints.rclis.org/33588/;-;- 3c67874de883520a9003df9092374a98;de;;;5.2.;;; [Review of:] Widén-Wulff, Gunilla: The Challenges of Knowledge Sharing in Practice: A Social Approach. Oxford: Chandos, 2007. xvii, 211 S., ISBN 978-1-84334-284-7, 978-1-84334-285-4 Buchbesprechung von Widén-Wulff, Gunilla: The Challenges of Knowledge Sharing in Practice: A Social Approach. Oxford: Chandos, 2007. xvii, 211 S., ISBN 978-1-84334-284-7 (broschiert), 978-1-84334-285-4 (gebunden). In diesem Buch wird der theoretische Ansatz Sozialkapital als Rahmen für die Analyse der Informationsprozesse im Unternehmen, anhand von zwei Fallstudien aus Finnland, herangezogen.;-;http://eprints.rclis.org/10749/;-;- ac188bc42ebce06d58a2315b450cc943;de;;;5.2.;;;Informationen zu evidenzbasierten Entscheidungen: Nutzungsstatistiken für Online-Zeitschriftendatenbanken Ziele - Das Hauptziel bestand darin, die Nutzungsstatistiken 2009-2013 des Journal Access Center (JAC), das vom Ontario Ministry of Health and Long-term Care (MOHLTC) betrieben und betrieben wird, im Kontext der evidenzbasierten Entscheidungsfindung zu untersuchen . Darüber hinaus hebt die Studie die Umsetzung von JAC hervor und bewertet die Verfügbarkeit und Nutzung hochwertiger Forschungsevidenz, um die Politikgestaltung der Gesundheitssysteme zu informieren. Design - Prospektive Fallstudie. Setting – Ein kanadisches Gesundheitsministerium der Provinz. Methoden - Deskriptive Analyse der JAC-Nutzungsstatistik von Zeitschriftenartikeln von Januar 2009 bis September 2013. Wichtigste Ergebnisse - Der breite Verantwortungsbereich von MOHLTC mit sich dynamisch ändernden Prioritäten schlägt sich in unterschiedlichen Informationsbedürfnissen der Mitarbeiter nieder: Insgesamt wurden 4.759 Zeitschriftentitel abgerufen, darunter 1.675 Zeitschriften mit Volltext. Nutzungsstatistiken weisen darauf hin, dass der Informationsbedarf von MOHLTC nicht einem einigermaßen kompakten Satz von „Kern“-Zeitschriften mit anschließender Subskription dieser Zeitschriften zugeordnet werden kann. Fazit - JAC-Nutzungsstatistiken für die Kalenderjahre 2011 – 2012 belegen eine hohe Nachfrage (Sitzungen, Recherchen) nach den in die JAC-Datenbanken aufgenommenen Zeitschriften und eine intensive Nutzung ihrer Inhalte, die einen erheblichen Mehrwert (Volltextartikel) für die Mitarbeiter des MOHLTC schaffen. JAC-Nutzungsstatistiken für den Zeitraum 2009-2013 belegen die Verfügbarkeit und Nutzung hochwertiger Forschungsergebnisse, um die Entscheidungsfindung der Gesundheitssysteme zu unterstützen. Das vorliegende Papier trägt zum Verständnis des Informationsbedarfs und der Nutzungsmuster von wissenschaftlichen Online-Zeitschriften im Rahmen der evidenzbasierten Politikgestaltung im Gesundheitssystem bei.;-;http://eprints.rclis.org/29636/;-;- 61f0687b25610687ae7e80513ea0b2b3;de;;;5.2.;;;Informationen suchen Erfahrungen von kanadischen Entscheidungsträgern im pharmazeutischen Bereich Hintergrund Forschungsinformierte öffentliche Ordnung wird oft als Ideal formuliert. Allerdings wurde auch die „evidenzbasierte Politikgestaltung“ kritisiert, weil sie den Kontext, in dem politische Entscheidungsträger tatsächlich arbeiten, nicht vollständig berücksichtigt. Diese explorative Studie untersucht die arbeitsbezogenen Erfahrungen bei der Informationsbeschaffung von Schlüsselinformanten, die in der pharmazeutischen Politikgestaltung in Kanada tätig sind. Methoden Als Teil eines breiter angelegten Prozesses zur Festlegung von Forschungsprioritäten führten wir halbstrukturierte Interviews mit einer gezielten Stichprobe von 15 kanadischen Entscheidungsträgern der pharmazeutischen Politik durch. Die Interviews wurden mit NVivo 8 aufgezeichnet, transkribiert und kodiert. Wir verwendeten eine deskriptive qualitative Analyse, beeinflusst von Methoden der Grounded Theory . Pharmazeutische Entscheidungsträger benötigen Informationen für ihre Arbeit, und ihre Informationssuche ist der anderer Fachleute nicht unähnlich. Ergebnisse Die Ansätze zur Suche waren vielfältig und können eine Statushierarchie widerspiegeln, in der der Zugang zu Ressourcen ungleich verteilt ist. Die verwendeten Quellen schienen auch Statusstufen anzugeben. Affektive Ergebnisse waren häufig Enttäuschung, Wunsch nach einer einzigen Anlaufstelle und Resignation, ohne Beweise auszukommen. Der Zeitdruck war bei allen Befragten ein Anliegen und beeinflusste sowohl die Suchaktionen als auch die Ergebnisse. Schlussfolgerungen Spezifische Arten und Zeitsensibilität von Bedürfnissen sowie ein Mangel an etablierten Quellen führen zu affektiven Ergebnissen, die auf Verbesserungsbereiche für den Informationsaustausch und die Wissensübersetzung hinweisen. In Ermangelung einer dedizierten, unabhängigen Quelle für rasch reagierende politische Forschung werden die kanadischen Pharmapolitiker weiterhin mit den verfügbaren Ressourcen zufrieden sein, und Hindernisse für eine evidenzbasierte Politik werden bestehen bleiben.;-;http://eprints.rclis.org/3809/;-;- ab343f7ee8c1d1ec9a20fa29488161c0;de;;;5.2.;;;Verfügbarkeit der benötigten Informationen für Bildungsverwaltungen in Pakistan: Eine Umfrage Diese Studie zielte darauf ab, den Status der benötigten Informationen und ihre Verfügbarkeit für Bildungsverwaltungen in Pakistan zu untersuchen. Um diese Ziele zu erreichen, wurden Literaturrecherchen und eine Fragebogenerhebung durchgeführt. Für diese Erhebung wurden die Bildungsverwalter (d. h. Schul- und Hochschuldirektoren sowie Registrare/Dekane/Vorsitzende von Universitäten) als Zielpopulation identifiziert und durch Cluster-Sampling ausgewählt. Die Befragten kamen aus der Provinz Punjab und dem Hauptstadtterritorium Islamabad (ICT). Insgesamt gingen 297 (99%) Antworten ein und wurden quantitativ analysiert. Im Lichte der Ergebnisse dieser Studie wurden Empfehlungen und Schlussfolgerungen gezogen. Die Studie ist die erste ihrer Art, mit der versucht wurde, den Status der benötigten Informationen und ihre Verfügbarkeit für Bildungsverwaltungen und -planer in Pakistan zu untersuchen. Die Ergebnisse der Studie können nützlich sein, um Informationsdienste und Einrichtungen für Bildungsverwaltungen nicht nur in Pakistan, sondern auch in anderen Ländern der Welt mit ähnlichen Bedingungen zu gestalten.;-;http://eprints.rclis.org/17933/;-;- 66217ff7c087cb6b466618a248d48d7a;de;;;5.2.;;;Ausbildungsbedarf der Bibliothekare für Gesundheitswissenschaften in Griechenland Ziel dieser Studie ist es, den Ausbildungsbedarf der griechischen Bibliothekare für Gesundheitswissenschaften zu ermitteln. Quantitative und qualitative Daten wurden aus 48 Fragebögen und einzelnen halbstrukturierten Interviews mit drei Bibliothekaren erhoben. Die Ergebnisse zeigten den Weiterbildungsbedarf der Bibliothekare der Gesundheitswissenschaften. Die meisten Bibliothekarinnen und Bibliothekare haben keine Ausbildung zum medizinischen Bibliothekswesen absolviert und verfügen über keine Fachkenntnisse im Bereich der Gesundheitswissenschaften. Als bevorzugte Schulungsthemen gaben die Befragten „Datenbanken und medizinische Quellen im Internet“ und „Methodik der medizinischen Informationsbeschaffung“ an. Mehr als 80 % sahen die Aktualisierung von Kenntnissen und Fähigkeiten als wichtigste Motivation für die Teilnahme an einer Schulung an. Die griechischen Bibliothekarinnen und Bibliothekare für Gesundheitswissenschaften benötigen eine Weiterbildung in gesundheitswissenschaftlichen Datenbanken, medizinischen Informationsquellen, Lehrmethoden und Fachkenntnissen im Bereich der Gesundheitswissenschaften. Sie wollen sich hauptsächlich im offenen und im Fernunterricht ausbilden lassen. Das Fehlen jeglicher Weiterbildung durch die Berufsorganisationen reduziert jedoch die Möglichkeiten für ihre Ausbildung.;-;http://eprints.rclis.org/16030/;-;- 4e8bbbbd40a094531fa451a4cabb9485;de;;;5.2.;;;Untersuchung des Informationssuchverhaltens griechischer Doktoranden: Eine Fallstudie an der Universität von Mazedonien Dieses Papier beschreibt eine Umfrage, die entwickelt wurde, um das Informationssuchverhalten von Doktoranden an der Universität von Mazedonien (UoM) zu bestimmen. Die Umfrage ist eine Fortsetzung einer früheren, die an den Fakultäten für Philosophie und Ingenieurwissenschaften der Aristoteles-Universität Thessaloniki (AUTh) durchgeführt wurde. Dieses Papier präsentiert in erster Linie Ergebnisse der UoM-Umfrage, stellt aber auch Vergleiche mit den Ergebnissen der früheren Umfrage an der AUTh. Die 254 UoM-Studenten, die antworteten, verwenden in der Regel die einfachsten Informationssuchtechniken ohne kritische Unterschiede zwischen den verschiedenen Disziplinen. Ihr Informationssuchverhalten scheint von ihrer Sucherfahrung, Computer- und Weberfahrung, wahrgenommenen Fähigkeiten und Häufigkeit der Nutzung von E-Quellen beeinflusst zu werden und nicht von spezifischen persönlichen Merkmalen oder der Teilnahme an Bibliotheksunterrichtsprogrammen. Studenten beider Universitäten haben ähnliche Präferenzen bei der Informationssuche, wobei die UoM-Studenten komplexere Techniken wie Boolesche Suche und Trunkierung verwenden, häufiger als die AUT-Studenten.;-;http://eprints.rclis.org/32102/;-;- 283f54340fd288d27e4a0ba7821faab7;de;;;5.2.;;;Faktoren, die das Informationssuchverhalten beeinflussen: Der Fall griechischer Doktoranden Der Zweck dieser Umfrage besteht darin, das Informationssuchverhalten von Doktoranden der Fakultäten für Philosophie (8 Fakultäten) und Ingenieurwissenschaften (8 Fakultäten) der Aristoteles-Universität Thessaloniki zu ermitteln. Disziplin schien das Informationssuchverhalten nicht kritisch zu beeinflussen. Die Mehrheit der Stichprobe zeigte ein niedriges bis mittleres Informationssuchverhalten. Diese Umfrage ergab, dass die Informationskompetenz der Absolventen verbessert werden muss.;-;http://eprints.rclis.org/32101/;-;- 701ca43856ca7c3c7cbfe9b58969dbf9;de;;;5.2.;;;Informationssucheverhalten griechischer Astronomen Diese Studie untersucht drei Aspekte des Informationssuchverhaltens von Astronomen in Griechenland, darunter a) die Bedeutung, die ihnen beigemessen wird, um über aktuelle Entwicklungen auf dem Laufenden zu bleiben, b) die Methoden, auf die sie angewiesen sind, um auf dem Laufenden zu bleiben, und c) die Informationsquellen sie verwenden meistens. Wir haben einen intradisziplinären Ansatz gewählt, um Ähnlichkeiten und Unterschiede im Informationssuchverhalten von Astronomen zu untersuchen, wenn wir sie als Gruppen mit unterschiedlichen Merkmalen, einschließlich akademischem Status, Teilbereich der Astronomie, Alter und angegliederter Institution, untersuchen. Die Analyse unserer Ergebnisse hat a) gezeigt, dass es trotz einiger Ähnlichkeiten erhebliche Unterschiede im Verhalten der verschiedenen Gruppen unserer Teilnehmer gibt, und b) die Notwendigkeit einer tieferen Untersuchung engerer Fachgemeinschaften innerhalb der Disziplinen hervorgehoben, um ein tieferes Verständnis zu erlangen ihres Informationssuchverhaltens.;-;http://eprints.rclis.org/15852/;-;- 97c7d3e619bdeffed9c8f728dedf51b9;de;;;5.2.;;;Die digitale Nachschlagesammlung in wissenschaftlichen Bibliotheken Die Präsenzdienste und Präsenzbestände in wissenschaftlichen Bibliotheken unterliegen einem starken Wandel. In diesem Beitrag werden einige der heute vorherrschenden Probleme beim Aufbau und der Pflege digitaler Referenzsammlungen diskutiert, wie zum Beispiel: Präsentation und Organisation, Marketing, Nutzung und Auswahl von digitalen Referenzressourcen.;-;http://eprints.rclis.org/18162/;-;- 9863d0a5119fb178415172f29e7a19fb;de;;;5.2.;;;Der Bedarf an Informationskompetenz bei den Nutzern von Informationen der Europäischen Union Das Ziel dieses Papiers ist die Bewertung der Informationskompetenz in Bezug auf europäische Themen bei einer Gruppe von 234 Benutzern von 55 Europäischen Dokumentationszentren (EDCs) aus 21 Mitgliedstaaten der Europäischen Union. Wir präsentieren die Ergebnisse einer Umfrage europäischen Informationen. Daher werden wir die Antworten der Nutzer der EDCs zu Aspekten wie den besten Quellen für den Zugang zu vertrauenswürdigen und unparteiischen Informationen zu Europa analysieren. Die Faktoren, die den Zugang zu Informationen über die EU bestimmen, und die Häufigkeit dieses Zugangs werden ebenfalls analysiert. Die von den Nutzern angegebenen Gründe für den leichten oder erschwerten Zugang zu europäischen Informationen sind ebenfalls enthalten und werden berücksichtigt. Parallel dazu werden wir die Aspekte bewerten, die von den Nutzern dieser Art von Informationen am meisten geschätzt werden. Dargestellt werden unsere Erkenntnisse zur Nutzung der im Internet verfügbaren europäischen Informationen, insbesondere zur Kenntnis und Nutzung von Datenbanken. Basierend auf dieser Analyse wird das Papier die Notwendigkeit aufzeigen, Informationskompetenz zu entwickeln, um europäische Informationen zu identifizieren, zu nutzen und darauf zuzugreifen. Dabei werden einige potenzielle Komponenten der Informationskompetenz, die an europäische Informationen angepasst sind, eingeführt;-;http://eprints.rclis.org/12938/;-;- dcf2317f471a90bc80d2a5d059ee694a;de;;;5.2.;;;Erhaltung des wissenschaftlichen und kulturellen Erbes in den Balkanländern Die auf der Balkanhalbinsel lebenden Völker haben über Jahrhunderte ein sehr reiches kulturelles Erbe geschaffen und die ständigen politischen Umwälzungen in der Region haben die Entwicklung und Erhaltung ihrer Kulturen beeinflusst. Ziel dieses Papiers ist es, die Internetinfrastruktur und den vernetzten Bereitschaftsgrad der Balkanländer zu überprüfen, die der wissenschaftlichen Zusammenarbeit und der Bewahrung des digitalisierten Kulturerbes förderlich sind. Es untersucht auch die zerstörerischen Auswirkungen von Kriegen auf den kulturellen Reichtum der Region. Die Interneteinrichtungen und die wissenschaftliche Produktion der Balkanländer wurden anhand veröffentlichter Quellen und der Thomson-Datenbank Web of Science identifiziert. Ein spieltheoretischer Ansatz wurde verwendet, um die Folgen von Kriegen und die negativen Auswirkungen des Nation-Building-Prozesses auf Artefakte des Kulturerbes darzustellen. Balkanländern fehlt eine solide Internet-Infrastruktur, was ihre Beiträge zur Welt der Wissenschaft behindert und die wissenschaftliche Zusammenarbeit untereinander im Hinblick auf gemeinsame Papiere erstickt. Es müssen noch koordinierte Anstrengungen unternommen werden, um die digitale Bewahrung des einzigartigen Kulturerbes der Balkanländer zu rationalisieren. In diesem Beitrag werden die Auswirkungen des Nation-Building-Prozesses auf kulturelle und wissenschaftliche Artefakte anhand der Konzepte der „Spieltheorie“ diskutiert. Es unterstreicht die Tatsache, dass die Zerstörung von Kulturgütern während Kriegen kein „Nullsummenspiel“ ist, bei dem die dominierende Kultur gewinnt und die „andere“ Kultur verliert. Es ist nicht einmal ein „lose-lose-Spiel“, bei dem beide Parteien verlieren. Vielmehr verliert die Menschheit für immer einen Teil ihres gesamten kulturellen Erbes.;-;http://eprints.rclis.org/14701/;-;- 31f6c8c4453cfba41be84b0cb5722aa3;de;;;5.2.;;;Italienische Katalogisierungsregeln und internationale Tradition: auf dem Weg zu neuen Prinzipien und neuen Codes Viele aktuelle Katalogisierungscodes haben ihre Wurzeln in einer gemeinsamen Tradition, die 1961 von der Internationalen Konferenz für Katalogisierungsprinzipien (ICCP) in Paris ins Leben gerufen wurde. Der Aufbau neuer nationaler Codes basierte seit 1961 auf der gemeinsamen Nutzung von Katalogisierungsprinzipien, auf Vereinbarungen zur internationalen Zusammenarbeit und auf einer gemeinsamen Tradition. Das neue technologische und internationale Umfeld legt mehr und mehr eine Neugestaltung dieser Prinzipien nahe, um geeignetere Merkmale einzubeziehen und fest zu behaupten, dass das oberste Prinzip die Benutzerfreundlichkeit des Katalogs ist. In diesem Rahmen analysieren die Autoren die italienische Katalogisierungstradition und ihre Beziehungen zur internationalen Tradition und berichten über die wichtigsten Aktivitäten zur Überarbeitung des gegenwärtigen italienischen Kodex – Regole italiane di catalogazione per autori (RICA). Das Papier zeigt, dass seit den ersten italienischen Regeln, die von Fumagalli verfasst wurden, der internationalen Tradition (insbesondere den Regeln von Panizzi) besondere Aufmerksamkeit geschenkt wurde. Nach der Beschreibung der Beziehungen zwischen den internationalen Trends und den italienischen Codes von 1922, 1956 und 1979 befasst sich der Artikel mit den jüngsten Arbeiten der neuen Kommission, die seit 199;-;http://eprints.rclis.org/13564/;-;- 3c877c67c9883eb38668e75c30fc5385;de;;;5.2.;;;Eine Anwendung von Community-Profiling zur Analyse des Informationsbedarfs, der Probleme und der Anbieter der Community in Broomhall, Sheffield, Großbritannien Ziel dieser Präsentation ist es, einige Ergebnisse meines Promotionsprojekts vom 29. September 2003 bis heute (29. Juni 2007) darzustellen. Es umfasst ein Profil der wichtigsten Merkmale, Probleme, Probleme und Bedürfnisse der Menschen aus der Gemeinde Broomhall in Sheffield, Großbritannien und wie Insider/Outside-Informationsanbieter diese Bedürfnisse und Probleme befriedigen und lösen. Es verwendet qualitative Forschungsmethodik und qualitative Methoden von: Beobachtung, Interviews, Fokusgruppen und Dokumentenanalyse. Die wichtigsten festgestellten Bedürfnisse und Probleme der Gemeinschaft waren: * Negative Auswirkungen der Wohnungsentwicklung. * Arbeitslosigkeit. * Unzureichende Gesundheitsversorgung .* Multikulturalismus. * Soziale und pädagogische Ausgrenzung. * Unzureichende Informationsbereitstellung durch gesetzliche und freiwillige und kommunale Sektoren. Sie hebt auch die Implikationen dieser Forschung für die mexikanischen Szenarien hervor, in denen bis heute keine empirischen Untersuchungen zu den mexikanischen Bibliotheksgemeinschaften von Lesern durchgeführt werden, in denen Community-Profiling als Instrument zur Analyse der Lesergemeinschaften eingesetzt wird. Es ist nicht zu erwarten, dass diese Ergebnisse an anderer Stelle repliziert werden. Es wird jedoch sehr erwartet, dass von diesem Projekt alle mexikanischen Bibliotheken und alle dokumentarischen Informationseinrichtungen ihre Informationsbereitstellung verbessern, wenn die hier verwendeten Methoden repliziert werden, so dass Wissenschaft, Technologie, Kultur und Freizeit für alle Mexikaner für ihre kognitiven, kulturellen und wissenschaftliche Aufklärung. Der Autor ist dem mexikanischen Nationalrat für Wissenschaft und Technologie sehr dankbar für die vollständige Finanzierung dieses Projekts und ermutigt CONACYT, mehr empirische wissenschaftliche Forschung in allen Bereichen zum Wohle der mexikanischen Gesellschaft zu unterstützen.;-;http://eprints.rclis.org/9983/;-;- b3824d5621ef29722648c2e4c1f6394c;de;;;5.2.;;;Digitale Gräben oder Digitale Brücken? – Chancen und Risiken für Schwellenländer Der weite Begriff der digitalen Kluft wird von Hanimann und Ruedin sorgfältig untersucht. Ausgehend von bestehenden Definitionen wird hervorgehoben, dass der Begriff im Wesentlichen drei unterschiedliche Gräben beschreibt: eine geografische digitale Kluft (zwischen Regionen und Ländern), eine soziale digitale Kluft (zwischen sozialen Schichten) und eine aufgewertete digitale Kluft (zwischen Technologie und Menschen ). Vorhandene statistische Daten werden eingehend untersucht und argumentiert, dass die geografische digitale Kluft zwischen Nord und Süd nicht mit Informationstechnologien in Verbindung gebracht wird, sondern eher ein Indikator für eine ungleichmäßige Entwicklung zwischen Ländern und Regionen ist. Der Nachweis erfolgt in Form von veröffentlichten Studien sowie einer eigenen Befragung der Autoren. Wichtige Modelle zur Überwindung der digitalen Kluft werden kritisch hinterfragt und gewürdigt. Die Analyse konzentriert sich auf Chancen und Möglichkeiten, wobei negative Aspekte nicht außer Acht gelassen werden. Das Problem ist komplex und es wäre irreführend, eine einfache Lösung zu präsentieren. Die Autoren illustrieren dies mit Beispielen aus Südamerika, Afrika und dem indischen Subkontinent. Im Anschluss an die Erkenntnisse werden die üblichen Thesen gestützt bzw. in den notwendigen Kontext gestellt. Es wird darauf hingewiesen, dass rein technologische Lösungen nur kurzfristig erfolgreich sein können. Aus wirtschaftlicher Sicht kann die geografische digitale Kluft nicht isoliert betrachtet werden, sondern muss im breiteren Kontext der nachhaltigen Entwicklung der jeweiligen Region gesehen werden.;-;http://eprints.rclis.org/10409/;-;- 500e40b6e21c62d2e183e9bf2296ff70;de;;;5.2.;;;Forschung zur Informationssuche und -nutzung in Pakistan: Eine Bewertung Das Papier beschreibt den Beginn der Forschungstätigkeit zum Informationsbedarf und präsentiert eine Analyse der Literatur zum Informationsbedarf in Pakistan, um festzustellen, dass bisher keine Forschung veröffentlicht wurde. Er begutachtet 14 von 1975 bis 1982 an der University of the Punjab entstandene, unveröffentlichte studentische Forschungsprojekte dieses kritische Thema.;-;http://eprints.rclis.org/10438/;-;- 164a2ff1f13b48b72b239ba96e9f5454;de;;;5.2.;;;Information Retrieval in der Medizin: Die elektronische Patientenakte als neue Domäne In diesem Beitrag wird ein dokumentenzentrierter Ansatz für elektronische Patientenakten als Problem der Informationsbeschaffung vorgestellt. Es liegt auf der Hand, dass Forscher aus dem Bereich der Informationswissenschaft im Bereich der Passagensuche ähnliche Werte in Dokumentenpassagen gesehen haben wie Forscher der Medizininformatik. Ohne dass die eine Literatur die andere anerkennt, haben Arbeiter in beiden Lagern das gleiche Potenzial in Dokumentenstruktur, Labels, Spezifität und expliziten Wissenshierarchien identifiziert, um dem Leser Relevanz zu signalisieren. Die National Health Information Infrastructure Initiative (http://aspe.hhs.gov/sp/nhii/) identifiziert Akademiker und Forscher als natürliche Akteure wie Kliniker und Pflegekräfte, die eine bessere Gesundheitsversorgung durch besseren Informationsaustausch ermöglichen Statistik, 2003). Die Informationswissenschaft hat viel zur Gesundheitsinformationstechnologie und insbesondere zu elektronischen Patientenakten beizutragen: ihre Entwicklung, ihre Pflege und vor allem ihre Verbesserung, um den Bedürfnissen unterschiedlicher Benutzer gerecht zu werden.;-;http://eprints.rclis.org/8571/;-;- 0ac070faf574b73c12ced00a88fbce21;de;;;5.2.;;;Ein adaptives Benutzerprofil zum Filtern von Nachrichten basierend auf einer Benutzerinteressenhierarchie Ein Prototypsystem zum Filtern und Ranking von Nachrichten wurde entwickelt und ein Pilottest durchgeführt. Die Interessen des Benutzers werden durch eine Benutzerinteressenshierarchie basierend auf explizitem Benutzerfeedback mit adaptivem Lernen nach jeder Sitzung modelliert. Das System lernte sehr schnell und erreichte innerhalb von drei Sitzungen normalisierte Erinnerungswerte von über 0,9. Als die Interessen des Benutzers „abdrifteten“, passte sich das System an, aber die Geschwindigkeit, mit der es sich anpasste, schien von der Menge des Feedbacks des Benutzers abzuhängen.;-;http://eprints.rclis.org/8789/;-;- f0c1805a2728efd86a5b4686e2386a7d;de;;;5.2.;;;Auf dem Weg zur Qualitätskultur im digitalen Umfeld: Management und Optimierung von Dienstleistungen in Forschungsbibliotheken Indiens Der National Assessment and Accreditation Council (NAAC) wurde in Indien gegründet, um Qualität und Exzellenz in der Hochschulbildung zu gewährleisten, und hat eine Reihe objektiver Indikatoren für die Bibliothek entwickelt, da sie der Dreh- und Angelpunkt der Unterstützung für die Gemeinschaft der akademischen und Forschungsaktivitäten ist. Dies führte zu einem allgemeinen Konsens über die steigenden Anforderungen an die Evaluierung und Rechenschaftspflicht von Hochschul- und Forschungsbibliotheken, Leistungsbewertungen zu entwickeln und die Servicequalität zu messen und dadurch eine Qualitätskultur aufzubauen. Fortschritte in der Informations- und Kommunikationstechnologie, die die Welt in das globale Dorf verwandelten, trugen erheblich zur Entwicklung elektronischer Informationsressourcen und Internetressourcen in der Bibliothek zur kontinuierlichen Qualitätsverbesserung bei. Bibliotheken und Informationszentren müssen die Informationsbedürfnisse der Kunden in qualitativ hochwertige Informationsdienste abbilden, indem sie verschiedene informationstechnologiebasierte Informationsabrufwerkzeuge verwenden. Die Qualitätsgurus insbesondere Parasuraman, Barry und Zeithaml haben den SERVQUAL entwickelt, um die Qualitätsdimension im akademischen und wissenschaftlichen Umfeld zu messen.;-;http://eprints.rclis.org/8609/;-;- db7cc103bc9cf787cc078b7e640bde36;de;;;5.2.;;;Untersuchung von geschlechtsspezifischen Unterschieden in der Wahrnehmung der 3D-Telepräsenz-Kollaborationstechnologie: Ein Beispiel aus der Notfallmedizin Frühere Forschungen zu Geschlechterunterschieden und Technologien zur Zusammenarbeit verdeutlichen die Notwendigkeit, Geschlechterfragen so früh wie möglich im Entwicklungszyklus zu untersuchen, um negative Folgen der Technologie zu vermeiden. Daher untersuchen wir das Potenzial der 3D-Telepräsenz-Technologie jetzt, wo es nur eine Machbarkeitsdemonstration der Technologie gibt. Wir führten eine kontrollierte Laborstudie mit einem Post-Test-Design durch, bei der männliche und weibliche Sanitäter ein Traumaopfer (eine computergestützte Schaufensterpuppe) in Zusammenarbeit mit einem Arzt über 2D-Video oder einen 3D-Proxy diagnostizierten und behandelten. Die Ergebnisse zeigen mehrere geschlechtsspezifische Unterschiede, die darauf hindeuten, dass männliche Sanitäter von Natur aus mehr Vorteile aus der 3D-Telepräsenz-Technologie ziehen können als weibliche Sanitäter.;-;http://eprints.rclis.org/9929/;-;- 87275ecf109c79c614c1c0f0858e30ee;de;;;5.2.;;;Eine semiotische Sicht auf Information: Semiotik als Grundlage der LIS-Forschung zum Informationsverhalten Herkömmliche Studien zum Informationsverhalten in der Bibliotheks- und Informationswissenschaftsforschung (LIS) haben sich hauptsächlich auf zwei Trends konzentriert: Der eine besteht darin, den physischen Zugang zu materiellen Objekten zu ermöglichen, und der andere besteht darin, Benutzer auf bestimmte Gedanken und Ideen zu lenken. Beide Schwerpunkte sind zwei Seiten desselben Problems, an dem LIS-Forscher gearbeitet haben: Wie kann ein besseres System oder eine bessere Dienstleistung bereitgestellt werden, um dem Informationsbedürfnis der Menschen gerecht zu werden. Unter den Domänen der Benutzer, materiellen Gegenstände und bedeutungsvollen Ideen verbindet die Anwendung des Begriffs der Information als Zeichen mit der Semiotik nicht nur diese beiden Tendenzen in der Analyse der pragmatisch-syntaktischen Beziehung und der pragmatisch-semantischen Beziehung, sondern gibt auch eine zusätzliche Konzentrieren Sie sich auf die syntaktisch-semantische Beziehung. Es ist dieser zusätzliche Fokus, der LIS-Experten/Forschern hilft, den Wissensstand eines Individuums und die Wege des Wissenserwerbs durch physische und mentale Interaktionen mit informativen Objekten zu verstehen. Der Autor führt einen Überblick über Informationsstudien, die epistemologischen Bedenken und pragmatischen Traditionen in LIS und Semiotik in dem Versuch, ein ganzheitliches Prinzip zu finden, das sowohl die traditionellen Trends der LIS-Forschung einbezieht als auch ein zusätzliches Bewusstsein schafft, indem es den Benutzern hilft, Verbindungen zwischen herzustellen Materielle Objekte und Ideen in Studien zum Informationsverhalten. Durch die Anwendung einer semiotischen Sicht auf Informationen und des Konzepts der Information als Zeichen werden LIS-Forscher des Informationsverhaltens die Semiotik als nützlichen erkenntnistheoretischen Rahmen finden.;-;http://eprints.rclis.org/8796/;-;- 58c4092fd7327b99f5dd12b636a4357f;de;;;5.2.;;;Widersprüchliche Ansätze für Benutzerinformationen, die Bildung in skandinavischen webbasierten Tutorials suchen Ziel dieses Beitrags ist es, unterschiedliche Zugänge zur fachlichen Expertise von Hochschulbibliothekarinnen und Hochschulbibliothekaren sichtbar zu machen, wie sie beispielsweise durch bildungssuchende Nutzerinformationen vermittelt werden. Die empirische Grundlage der Studie besteht in einer Analyse von 31 webbasierten Tutorien zur Informationskompetenz, die über die Websites skandinavischer Universitätsbibliotheken zugänglich sind. Die Ergebnisse machen vier, manchmal widersprüchliche Ansätze für die Informationssuche in den Tutorien deutlich: einen Quellenansatz, einen Verhaltensansatz, einen Prozessansatz und einen Kommunikationsansatz. Diese Ansätze offenbaren verschiedene Möglichkeiten, zentrale Begriffe wie Information, Informationssuche und Benutzer zu definieren. Eine Untersuchung der Einstellungen zur Benutzerschulung ist wichtig, da Einstellungen praktische Konsequenzen für den Betrieb der Benutzerschulung nach sich ziehen.;-;http://eprints.rclis.org/7039/;-;- f89cb23c6786338a9e8fcbeeb58a94fc;de;;;5.2.;;;Annotation als Prozess: Eine lebenswichtige InformationssucheAktivität in der geographischen Geschichtsforschung Dieser Beitrag beschreibt die Rolle von Anmerkungen bei der Entwicklung und Wertsteigerung einer Forschungsdatenbank im Rahmen des Informationssucheprozesses eines historischen Geographen. Die Datenbank wurde als Werkzeug zum Aufzeichnen von Aufzeichnungen zum Sammeln historischer Beweise aus Primärquellendokumenten konzipiert. Die einzelnen gesammelten Fakten boten dem Forscher zunächst wenig Nutzen, was auf Bucklands (1991) Information-as-Ding hindeutet. Als der Prozess der Datensammlung begann, eine große Menge an Material anzuhäufen, wuchs der Informationsbedarf des Geographen, da neue Verbindungen zwischen den sich ansammelnden Anmerkungen hergestellt wurden.;-;http://eprints.rclis.org/7003/;-;- b52dfb42e946453e8b81ca34897daa54;de;;;5.2.;;;Informationskompetenz: Entwicklung des reflektierenden Praktikers Das zentrale Thema dieses Papiers ist die Implementierung der Bereitstellung von Informationskompetenz für ein vom Chartered Institute of Library and Information Professionals (CILIP) akkreditiertes M.A.-Programm. Da der Begriff „Information Literacy“ eine Reihe von Definitionen und Informationspraktiken umfasst, bezieht sich das Papier auf mehrere der Schlüsselthemen der Konferenz. Die überwiegende Abhängigkeit von elektronischen Angeboten betrifft beispielsweise die Unterstützung von E-Learning und die Bewertung der Wirksamkeit von Informations- und Kommunikationstechnologien. Darüber hinaus beziehen sich die Bemühungen, die unternommen werden, um sicherzustellen, dass die MA auf die Bedürfnisse von Informationspraktikern in der beruflichen Weiterbildung eingeht, auf die Umsetzung des lebenslangen Lernens durch Anwendung der durch den IL-Ansatz geförderten heuristischen Strategie. In Übereinstimmung mit der Literatur und den Empfehlungen von Informationsfachverbänden wie der Society of College National and University Libraries (SCONUL) und der American Library Association (ALA) wird Informationskompetenz als Grundlage für unabhängiges Lernen angesehen, das zur Unterstützung der akademischen und beruflichen Entwicklung erforderlich ist Praktiken Methoden Ausübungen. Die Integration von IL auf postgradualer Ebene wird durch die Bereitstellung des Moduls Angewandte Informationsforschung und die Verwendung des Wissensspiral-Ansatzes veranschaulicht, um die Studierenden zu ermutigen, sich vollständig mit den Prozessen des unabhängigen Lernens und reflexiven Praktiken zu beschäftigen.;-;http://eprints.rclis.org/6004/;-;- 2c431d85fac5c67cc24df23894dea12e;de;;;5.2.;;;Ein Community-Profil der Broomhall Community of Sheffield, UK Ziel dieses Forschungsberichts ist es, die wichtigsten Merkmale, Probleme, Probleme und Bedürfnisse der Menschen aus der Gemeinde Broomhall in Sheffield, Großbritannien, zu profilieren. Es verwendet qualitative Forschung als wichtigsten methodischen Ansatz und die qualitativen Methoden der Beobachtung, Interviews, Fokusgruppen und Dokumente einschließlich amtlicher Statistiken und Volkszählungen. Die wichtigsten Gemeindebedürfnisse und/oder Gemeindeprobleme, die (Stand 18. Oktober 2004) in Broomhall festgestellt wurden, sind folgende: * Wohnsiedlung – Abriss und Bau – Auszug der Anwohner. * Arbeitslosigkeit – Aufgabe der Gemeinschaft. Drogenabhängigkeit. * Gesundheit – Herz- und Atemwegserkrankungen (Trinken, Rauchen, ungesunde Ernährung).* Multikulturalismus – soziale Ausgrenzung. * Bildungsausschluss – aufgrund von Sprachbarrieren (in Broomhall werden etwa 60 Sprachen gesprochen). (Hinweis: Dies sind nur vorläufige Ergebnisse und sollten nicht als endgültige Ergebnisse des Projekts betrachtet werden).;-;http://eprints.rclis.org/6807/;-;- 72b03a18b40e0ae9e812a01dfc45e6b2;de;;;5.2.;;;Ein weicher Systemansatz zum Aufbau eines Informationssystems zur Organisation der Wissensproduktion und -verbreitung im mexikanischen Allgemeinen Krankenhaus. Zweck Ziel dieser Arbeit ist es, die vorläufigen Ergebnisse einer laufenden Forschung zur Entwicklung eines Informationssystems und -modells zur Organisation und Verbreitung der Wissensproduktion im mexikanischen Allgemeinen Krankenhaus (MGH) vorzustellen. Das Endziel besteht darin, wissenschaftspolitische Entscheidungsprozesse und die öffentliche Kommunikation von Wissenschaftsergebnissen zu unterstützen. Method MGH ist ein bedeutendes Lehrkrankenhaus in Mexiko. Das in Mexiko-Stadt ansässige MGH bietet Gesundheitsdienstleistungen für nicht versicherte Bevölkerung durch 36 medizinische Fachrichtungen, 6400 Mitarbeiter und 931 Krankenhausbetten. Siebzig Forscher führen jährlich in 160 registrierten Protokollen grundlegende und angewandte Gesundheitsforschung durch. Während die Produktivität dieser Forschung in MEDLINE überwacht wird, gibt es kein klares Bild über die Auswirkungen dieser Produktion, ihre Interaktion mit anderen Krankenhausergebnisindikatoren und die Verbreitung dieser Produktion auf lokaler und institutioneller Ebene. Dies wurde vom Leiter der Forschungseinheit der MGH als Problemsituation wahrgenommen. Ein weicher Systemansatz (Checkland und Scholes, 1990) wurde verwendet, um ein umfassendes Bild der Situation zu erstellen, um die beteiligten Elemente zu identifizieren und Maßnahmen zu ergreifen. Donabedians (1988) Modell-zu-Gesundheits-Ansatz wurde verwendet, um den Auflösungsgrad des Modells und die beteiligten quantitativen und qualitativen Indikatoren zu bestimmen. Zu den quantitativen Indikatoren gehörten statistische MGH-Raten und bibliometrische Indikatoren der wissenschaftlichen Produktion. Es wurde eine Literaturrecherche in sechs lokalen und internationalen Datenbanken durchgeführt, um die Sichtbarkeit und Auswirkungen der MGH-Produktion zu ermitteln. Qualitative Indikatoren werden durch halbstrukturierte Interviews mit Forschern gewonnen. Ergebnisse Die vorläufigen Ergebnisse umfassten ein umfassendes Bild der Situation, das auf Informationsflüsse, Interaktionen und mangelnde Kommunikation von Subsystemen auf verschiedenen Ebenen des Modells hindeutet. Bibliometrische Indikatoren identifizierten die Auswirkungen der Produktion auf lokaler, regionaler und internationaler Ebene und halfen beim Aufbau eines Modells der Wissenschaftskommunikation im Gesundheitsbereich (Macías-Chapula, 2002, Macías-Chapula, et al, 2004) . Die Ergebnisse werden die Entwicklung des Ad-hoc-Informationssystems für die Forschungseinheit des MGH unterstützen und helfen, die wissenschaftspolitischen Leitlinien zu definieren, die das Krankenhaus in naher Zukunft verfolgen wird. Die Autoren werden die Implikationen dieser Studie im Kontext der Wissensgesellschaft diskutieren.;-;http://eprints.rclis.org/34497/;-;- 0d01465d0f3ec9acb0a821039d27bcfd;de;;;5.2.;;;Maßnahme für Maßnahme: Nutzung von Statistiken zur Überwachung der Serviceinanspruchnahme der Fernunterrichtseinheit der Bibliothek der University of Leicester Die neue Distance Learning Unit an der University of Leicester Library musste die Inanspruchnahme von Dienstleistungen evaluieren und messen, um die Finanzierung über die anfängliche dreijährige Förderperiode hinaus sicherzustellen. Das Referat hat ein umfassendes Verfahren zur Erfassung von Transaktionen eingeführt, das sowohl manuelle als auch computergenerierte Daten umfasst. Diese Daten wurden verschiedenen Gruppen innerhalb der Universität auf verschiedene Weise präsentiert. Statistiken wurden gesammelt, um die Bibliotheksverwaltung zu unterstützen, wissenschaftliche Abteilungen mit Informationen zu versorgen und für das allgemeine Universitätsmanagement. Die quantitativen Daten zeigten ein deutliches Wachstum in allen Leistungsbereichen und das qualitative Feedback ist sehr positiv. Die Mitglieder des Teams haben durch das Sammeln dieser Informationen mehrere positive Ergebnisse erzielt und sind dieser zeitraubenden Aufgabe sehr verpflichtet.;-;http://eprints.rclis.org/6031/;-;- 2a0aa4c376d3b3f3839df53c057b2060;de;;;5.2.;;;Verkauf des JUBILEE-Projekts: Fragen, die sich aus einer Methodik ergeben Dieser von der Feldforschung des JUBILEE-Projekts inspirierte Artikel ist von van Leeuwens und Leeuws Arbeiten über die wachsende negative Einstellung zur Marktforschung beeinflusst. Während das JUBILEE-Team als akademische Forscher kein Verkaufsgespräch führte, versuchten sie, das Projekt an mutmaßliche Teilnehmer zu verkaufen. Zu den diskutierten Themen gehören Länge – und Schwierigkeitsgrad – des Fragebogens, wie man einen Fragebogen verkauft und wie man die wichtigsten Interessenten für Interviews und Fokusgruppen identifiziert. Durch die gewonnenen Erfahrungen konnten die JUBILEE-Forscherinnen und -Forscher wichtige Punkte guter Feldforschung in Bezug auf die diskutierten Fragestellungen identifizieren.;-;http://eprints.rclis.org/6043/;-;- 5cae2295f40b4722048e18004258a97e;de;;;5.2.;;;Verhalten bei der Informationssuche und Nutzung von sozialwissenschaftlichen Fakultäten Studieren staatenloser Nationen: Eine Fallstudie Das Informationssuchverhalten der sozialwissenschaftlichen Fakultäten, die die Kurden studieren, wurde mit Hilfe eines Fragebogens, einer Zitationsanalyse und einer Nachbefragung erfasst. Zwei spezifische Fragen wurden behandelt: Wie finden diese Fakultäten relevante Regierungsinformationen und welche Faktoren beeinflussen ihr Suchverhalten und ihre Nutzung dieser Informationen. Die Ergebnisse zeigen, dass sozialwissenschaftliche Fakultäten, die die Kurden studieren, nicht nur traditionelle Methoden zum Auffinden relevanter Regierungsinformationen verwenden, sondern auch das World Wide Web und elektronische Post zu diesem Zweck verwenden, was darauf hindeutet, dass diese Fakultäten sich der neuen Informationstechnologie bewusst sind und diese zur Unterstützung ihrer Forschung nutzen . Die Ergebnisse zeigen auch, dass das Informationssuchverhalten von sozialwissenschaftlichen Fakultäten, die die Kurden studieren, von ähnlichen Faktoren beeinflusst wird, wie sie andere sozialwissenschaftliche Fakultäten beeinflussen. Darüber hinaus zeigen die Ergebnisse auch, dass der Zugang zu den benötigten Materialien eine wichtige Informationssuche ist, die dem Verhaltensmodell von David Ellis hinzugefügt werden sollte, und dass die hier untersuchten Fakultäten eine etwas ausgefeiltere „differenzierende“ Informationssuche verwenden als die in Modell. Einige Elemente der Interdisziplinarität der Kurdischen Studien als Forschungsgebiet wurden entdeckt, jedoch sind weitere Forschungen erforderlich, um dies zu überprüfen. Implikationen für Bibliotheksdienste und Vorschläge für die zukünftige Forschung werden vorgestellt.;-;http://eprints.rclis.org/8186/;-;- 903e8f739509eff42f165b1de1426b9d;de;;;5.2.;;;Der Informationsbedarf informeller Pflegekräfte: Eine Analyse der Nutzung des Micro-Moment Time Line Interviews Informelle Pflegekräfte und der Beitrag, den sie bei der Betreuung von Menschen in der Gemeinschaft leisten, werden jetzt von der Regierung anerkannt. Die Veröffentlichung der Nationalen Strategie für Pflegende belegt dies. Dieses Papier präsentiert die Ergebnisse einer Studie über informelle Pflegekräfte in Leicestershire, die vom Leicestershire Social Services Department in Auftrag gegeben wurde. Insbesondere konzentriert sich das Papier auf die Verwendung des Sense-Making-Ansatzes, um den Informationsbedarf informeller Pflegekräfte zu untersuchen. Es wird die Sense-Making-Theorie erklärt und die Entwicklung und Durchführung des Mikro-Timeline-Interviews diskutiert. Aus den Interviews abgeleitete Beispieldaten werden überprüft, gefolgt von einer Diskussion der Akzeptanz und Angemessenheit der Sense-Making-Methode im Kontext des Verständnisses der Informationsbedürfnisse informeller Pfleger. Das Papier kommt zu dem Schluss, dass die Sense-Making-Methodik eine geeignete Technik für diese Population ist.;-;http://eprints.rclis.org/6071/;-;- 909859a504b31b65672066668ace36d9;de;;;5.2.;;;Die Plagiatsberatung Das Problem des Plagiats im Bildungswesen besteht seit vielen Jahren, jedoch haben technologische Fortschritte, die zu einem einfachen Zugang zu einer Vielzahl von Informationsquellen führen, den Aufwand verringert, der erforderlich ist, um die Arbeit anderer in einen Aufsatz oder Bericht aufzunehmen. Es wurde ein Plagiat-Beratungsdienst eingerichtet, der Beratung und Anleitung zu allen Aspekten der Plagiatprävention und -erkennung bietet. In diesem Artikel werden die Hintergründe des Beratungsdienstes und des dazugehörigen elektronischen Plagiatserkennungsdienstes vorgestellt. Die Art und Funktionsweise der Erkennungssoftware ist so, dass sie immer als zusätzliches Element jeder Strategie zur Plagiatsprävention betrachtet werden sollte. Zukünftige Pläne für den Beratungsdienst umfassen die Entwicklung von Instrumenten, die darauf abzielen, die Referenzierungs- und Zitierpraxis der Studierenden zu verbessern und Wissenschaftler zu ermutigen, ihre eigene Bewertungspraxis zu überprüfen.;-;http://eprints.rclis.org/6080/;-;- d56ea8fddee6c1baba2214db0c3ce1c4;de;;;5.2.;;;Strategien zur Verbesserung der Nutzung computergestützter statistischer Daten durch die sozialwissenschaftliche Gemeinschaft. In den letzten Jahrzehnten haben die statistischen Daten des öffentlichen und des privaten Sektors für Verwaltungs-, Forschungs-, Politik- und Evaluierungsprogramme eine bemerkenswerte Zunahme erfahren. Dies ist auf Fortschritte bei der relativ kostengünstigen und effizienten Datensammlung und -verwaltung computerlesbarer statistischer Daten zurückzuführen. Entsprechende Änderungen haben sich in der Verwaltung der Datenerhebung, -speicherung, -beschreibung und -verbreitung nicht ergeben. Infolgedessen ist der Prozess, durch den Daten für Sozialforscher und andere zugänglich werden, frustrierend, zeitaufwändig und ineffizient. In diesem Beitrag werden die Gründe für diese Situation beschrieben: der problemlösende Arbeitsstil der Social-Data-Nutzer, die Art der Daten und ihr Bezug zur Computertechnologie sowie eine inhärente sozialwissenschaftliche Informationsinfrastruktur. Da statistische Daten in der Sozialforschung und bei politischen Entscheidungen eine immer wichtigere Rolle spielen, müssen sozialwissenschaftliche Informationsspezialisten darauf vorbereitet sein, die Bedürfnisse der Nutzer von computerlesbaren statistischen Daten zu erfüllen. Zur Verbesserung der Nutzung dieser Daten werden vier Strategien empfohlen: Verbesserung der Qualität statistischer Nachweise, Schulung von Informationsfachleuten und Endnutzern in numerischen Informationen, Nutzung der bestehenden Informationsinfrastruktur zur Erhaltung und Verbreitung von Daten und Entwicklung von Abfrageinstrumenten zur Verbesserung des Zugangs zu Informationen soziale Daten.;-;http://eprints.rclis.org/11403/;-;- 93bb70848851779f45c75bf8ffe1208a;de;;;5.2.;;;Informations- und Kommunikationsverhalten von Weltraumtechnologen Die Studie basiert auf einer Umfrage zum Informations- und Kommunikationsverhalten von Raumfahrttechnikern in Indien. Mitglieder einer Bevölkerung von etwa 800, von denen etwa 70 Frauen waren, wurden zu ihren Informationsbeschaffungs- und Übermittlungsaktivitäten befragt. Die Umfrage zeigte, dass in fast allen Aspekten, einschließlich Zeitaufwand für das Sammeln von Informationen, Anzahl der Kontakte außerhalb der Organisation, Konsultationen mit Bibliothekspersonal, Abhängigkeit von informellen Informationsquellen usw., kein signifikanter Unterschied zwischen den Geschlechtern bestand. Die einzigen wichtigen Unterschiede bestanden darin, dass Frauen häufiger formelle Quellen wie Bibliotheksdokumentationen nutzten und interne Informationsquellen konsultierten als Männer, und sie waren viel seltener als Gatekeeper. Bei der soziometrischen Analyse der informellen Kontakte der Befragten schienen weibliche Weltraumtechnologen jedoch ein geringes Informationspotenzial zu haben, da sie von den Befragten seltener für Diskussionen, Beratungen und Informationen ausgewählt wurden als männliche Weltraumtechnologen.;-;http://eprints.rclis.org/10442/;-;- 70f0a0dead18df024648be898b0c0dd2;de;;;5.2.;;;Informationssysteme für Weltraumtechnologen: eine Perspektive für die Zukunft Skizziert die Natur der Weltraumtechnologie und die Eigenschaften der Weltraumtechnologen des ISRQ Satellite Center (ISAC), stellt die Informationsanforderungen einschließlich der Motive und Zwecke der Informationsbeschaffung und des Grads der Abhängigkeit von verschiedenen Informationsquellen dar, hebt die Auswirkungen der Studie auf die zukünftige Planung , erörtert einige politische Fragen, die sofortiger Aufmerksamkeit bedürfen, und betont abschließend die Notwendigkeit einer langfristigen Planung von Informationssystemen für Weltraumtechniker.;-;http://eprints.rclis.org/11072/;-;- 0a6ae352f3b7ed96416df556e0127a65;de;;;5.2.;;;SIPP ACCESS: Informationstools verbessern den Zugang zu nationalen Längsschnitt-Panelerhebungen SIPP ACCESS stellt eine Innovation in der Bereitstellung von Diensten für statistische Daten dar. Ein computergestütztes, integriertes Informationssystem umfasst sowohl die Daten als auch Informationen über die Daten. SIPP ACCESS verknüpft systematisch die Technologien von Laserdisk, Großrechner, Mikrocomputer und elektronischen Netzwerken und wendet relationale Technologien an, um hohe Effizienz zu erzielen und die Kosten für die Speicherung, Verwaltung, Abfrage und Übertragung von Daten und Informationen über komplexe statistische Datensammlungen zu senken. Dieses Informationssystem wurde bei nationalen Längsschnitt-Panelerhebungen angewendet. Der Artikel beschreibt die Gründe, warum SIPP ACCESS geschaffen wurde, um den Zugang zu diesen komplexen Umfragen zu verbessern, und bietet Beispiele für Tools, die den Zugang zu Informationen über den Inhalt dieser großen Datensätze erleichtern.;-;http://eprints.rclis.org/11400/;-;- 3cb0e6406fd9eab94e814514b0823cd1;de;;;5.2.;;;SIPP ACCESS, ein Informationssystem für komplexe Daten: Eine Fallstudie zum Aufbau einer Kollaboration für die Sozialwissenschaften Das kollaborative Konzept hat vor kurzem Einzug in die Fachsprache der wissenschaftlichen Gemeinschaft gehalten, um neue Formen der wissenschaftlichen Kommunikation, Kooperation und Zusammenarbeit widerzuspiegeln, die durch die Informationstechnologie ermöglicht werden. Der Mitarbeiter stellt ein wissenschaftliches Forschungszentrum ohne Mauern für den Zugriff auf und den Austausch von Daten, Informationen, Instrumenten und Rechenressourcen dar. Die Hauptanwendungen des Konzepts der Zusammenarbeit liegen in den physikalischen und biologischen Wissenschaften, einschließlich der Weltraumphysik, der Ozeanographie und der Molekularbiologie. Erörtert die Eigenschaften der Kollaboration und wendet das von Informatikern und Physikern entwickelte Konzept auf das Design und den Betrieb des SIPP ACCESS-Prototyp-Informationssystems für komplexe Daten an, die von Soziologen, Demographen und Ökonomen über das Internet verwendet werden sollen. Untersucht Hindernisse für die Mitarbeiterentwicklung für die Sozialwissenschaften. Kommt zu dem Schluss, dass vier Haupthindernisse die Entwicklung von Kollaborationen in den Sozialwissenschaften behindern werden.;-;http://eprints.rclis.org/11397/;-;- 7190167caa307ed6253a2c287a62693f;de;;;5.2.;;;Zukunftstrends 1998-2003. Nationale Expertenumfrage im Bereich elektronische Informationsdienste in Spanien. Eine Delphi-Studie Projektionen basierend auf Zahlen von 1997 / 98. Eine Umfrage im Rahmen der MSSTUDY II in 16 Ländern, unterstützt von der Europäischen Kommission und dem Institut d'Estadística de Catalunya (Idescat). Dieser Bericht (eine Delphi-Studie) ist das Ergebnis der Integration von 28 Fragebögen, die von 29 spanischen Experten (von denen zwei nur einen Fragebogen ausgefüllt haben) mit langjähriger Erfahrung im Informationssektor beantwortet wurden – die meisten davon sind aufgrund ihrer früheren Analysen bekannt Werke--, die aus sehr unterschiedlichen Bereichen stammen, wie öffentliche Verwaltungen, große und kleine Unternehmen, Universitäten, Forschungszentren, Fachjournalismus usw. Ihre Meinungen wurden in zwei Schritten interpretiert, gruppiert und neu ausgearbeitet, wobei der zweite Schritt erhalten wurde die Zustimmung der Teilnehmer (siehe Liste im letzten Anhang). Wir müssen daran erinnern, dass dieser Fragebogen, wie der Rest der MSStudy, immer den Informationsmarkt adressiert: also unentgeltliche Informationen, für die der Nutzer bereit ist, direkt dafür zu bezahlen. Grundsätzlich schließen wir daher die von den öffentlichen Verwaltungen unentgeltlich erstellten Informationen aus. Obwohl auch indirekt durch Werbung bezahlte Informationen (von denen es in Spanien bereits einige Fälle gibt, die bei weitem nicht zu 100 % eigenfinanziert sind) behandelt werden, basiert diese Studie in erster Linie auf den vom eigenen Endnutzer bezahlten Informationsdiensten, be es institutionell oder privat.;-;http://eprints.rclis.org/33456/;-;- 1b52dcfd7cbcacbdffe8d06c98333478;de;;;5.2.;;;Vor- und Nachteile der Nutzung digitaler Sammlungen im Bildungsprozess In den letzten Jahren ist das Internet in vielen Ländern Europas zu einem echten Bestandteil des Bildungsprozesses geworden. Dieses globale Computernetzwerk hat uns viele Arten von Anwendungen der Computertechnologie gebracht, die zum Lernen geeignet sind. Es gibt jedoch noch einige Methoden und Verfahren, die Teil dieses globalen Netzwerks sind und noch nicht ausreichend genutzt werden. Als Ergebnis dieser Stellungnahme schlug eine kleine Gruppe von Studenten des 4. Jahrgangs der Bibliotheks- und Informationswissenschaften der Philosophischen Fakultät in Zagreb ein Projekt vor, das ihrer Meinung nach das Problem der unzureichenden Menge gedruckter Prüfungsmaterialien an Fakultät für den erfolgreichen Abschluss von Prüfungen durch Nutzung einer digitalen Sammlung mit gleichwertigen gebrauchsfertigen Materialien in elektronischer Form.;-;http://eprints.rclis.org/4318/;-;- f3529726b65b2a37644d372136f5c5be;de;;;5.2.;;;Wege zum Wissen Das Projekt „Weitere Informationen und Bibliotheksfragen“ (WILIP) hat jetzt Bericht erstattet und wird weiterverfolgt. Viele der empfohlenen Maßnahmen werden über die nächste strategische Stufe – „Routen to Knowledge“ – umgesetzt, die darauf abzielt, Bibliotheken in der Wissensgesellschaft neu zu positionieren und Kapazitäten aufzubauen, damit ihr Potenzial ausgeschöpft werden kann. Routes to Knowledge wird mit der Bibliotheks- und Informationswelt zusammenarbeiten, um bis März 2005 einen Aktionsplan zu erstellen. Die Aktionen werden unter Rubriken wie Benutzerbedarf, strategischer Rahmen, Interessenvertretung, Netzwerkentwicklung, Zugang, Finanzierung, Arbeitskräfte, Informationskompetenz und Wissensmanagement fallen. Die Relevanz dieser Aktivitäten für die Forschung (und umgekehrt) wird diskutiert.;-;http://eprints.rclis.org/6126/;-;- edcd7cfd045c16c429e1063ce73680f1;de;;;5.2.;;;Modellierung des Informationsverhaltens von Softwareentwicklern mit einem Work-Task-Framework Angesichts der raschen Verbreitung digitaler Informationsressourcen in Unternehmen benötigen Mitarbeiter gezielte Suchsysteme, um in ihrer Arbeit effektiv zu sein. Das Ziel dieser Studie ist es, ein Modell des Informationsverhaltens innerhalb eines Arbeits-Aufgaben-Rahmens zu entwickeln, das verwendet werden kann, um die Gestaltung eines Arbeitsplatz-Informationssuchsystems zu beeinflussen. In einem zweistufigen Prozess haben wir eine Reihe von Studien mit mehreren Methoden durchgeführt, um Arbeitsplatzmerkmale zu identifizieren und zu verstehen, wie diese die Bedürfnisse, Suchstrategien und Informationsquellen von Softwareingenieuren, die als Serviceberater in einem großen High-Tech-Unternehmen arbeiten, beeinflussen .;-;http://eprints.rclis.org/6905/;-;- 223cee0198d4e86a8df6f48b9938d3db;de;;;5.2.;;;Eine Untersuchung der Anforderungen an konnotative Nachrichten während des ImageSearch-Prozesses Diese Studie zielt darauf ab, ein Verständnis des Informationssucheprozesses für Bilddokumente zu vermitteln, indem sie sich auf den Bedarf an konnotativen Botschaften konzentriert. Zu diesem Zweck wurde in dieser Studie versucht, drei Stufen des Bildsuchprozesses hinsichtlich der Verwendung von Bildattributen zu untersuchen und zu vergleichen. Die drei Stufen des Bildsuchprozesses werden als Initiierung, Darstellung und Auswahl identifiziert, und Bildattributebenen werden als Farb-, denotative und konnotative Attribute definiert. Die Daten wurden aus einem Fragebogen erhoben, der aus Likert-Skalen, offenen Fragebögen und semantischen Differentialskalen bestand. Die Studie ergab, dass Farbe, denotative und konnotative Attribute von den Benutzern alle als wichtig angesehen wurden, die Farbe selbst jedoch während der Darstellungs- und Auswahlphase keinen kritischen Einfluss hatte. Denotative und konnotative Attribute waren im gesamten Suchprozess wichtig, und die Benutzer verwendeten verschiedene denotative und konnotative Begriffe, um ein zufriedenstellendes Bild für eine bestimmte Aufgabe zu finden. Diese Studie zeigte auch, dass affektive Attribute eines Bildes mit reduzierten Dimensionen mithilfe semantischer Differentialskalen dargestellt werden können und dass reduzierte Dimensionen verwendet werden können, um aussagekräftigere und relevantere Bilder anzuzeigen.;-;http://eprints.rclis.org/8749/;-;- e369f429d4b556166ec62328cc3ae8b4;de;;;5.2.;;;Eine bibliometrische Studie zum wissenschaftlichen Output der Medizinischen Universität Tabriz 1988-1996 Eine bibliometrische Analyse wurde rekrutiert, um den wissenschaftlichen Output von Fakultätsmitgliedern der Täbriz University of Medical Sciences über einen Zeitraum von acht Jahren (1988-1996) zu visualisieren Zahnheilkunde. Der allgemeine Zweck des Studiums besteht darin, :1- festzustellen, ob akademischer Status und Prestige einen Einfluss auf das Produktivitätsniveau haben, 2- die Produktivität in verschiedenen Bereichen der Medizin zu untersuchen.3- den produktivsten Bereich unter den Bereichen zu bestimmen. 4- um die am wenigsten produktive zu bestimmen. 5. Den Trend des wissenschaftlichen Outputs von 1988-1996 an der Universität zu veranschaulichen. Die Studie zeigte, dass die Zahl der Veröffentlichungen während des Untersuchungszeitraums ein starkes kontinuierliches Wachstum verzeichnete, ferner zeigte die Studie, dass die untersuchte Bevölkerung etwa 2166 wissenschaftliche Veröffentlichungen in Form von Büchern (7%), Zeitschriftenartikeln (56%) Forschungsberichte (37%). 69,3% der Forschungen wurden von einzelnen Forschern durchgeführt, und die Häufigkeit der Gruppenforschung betrug nur 30,7%. Die meisten Artikel und Forschungsberichte (93,3%) erschienen in lokalen Zeitschriften und nur 6,7% davon wurden in internationalen Zeitschriften veröffentlicht. Das Ergebnis zeigte, dass diejenigen mit einem höheren Abschluss wie Doktoranden und Habilitationen viel mehr Arbeiten veröffentlichten und präsentierten als diejenigen mit einem geringeren Abschluss. Die Beobachtungen aus der Analyse ergaben folgende Punkte: Medizin ist der produktivste Bereich unter den sechs Fachgebieten (66,5) und Zahnmedizin ist der am wenigsten produktive (1,5%). Die Zahl der Publikationen stieg im Studienzeitraum stark an.;-;http://eprints.rclis.org/19945/;-;- e2e25b4f6b2cb8e969b865d861ab90a4;de;;;5.2.;;;Benutzerverhalten während des Buchauswahlprozesses Wir untersuchen das Nutzerverhalten in der Phase des Buchauswahlprozesses, in der Menschen den Inhalt eines Buches studieren, um zu entscheiden, ob es für ihren beabsichtigten Zweck nützlich ist. 24 Studierende nahmen an einer ausgewogenen Studie teil, in der sie ein Themen-Buch-Paar erhielten und gefragt wurden, ob das Buch für das Thema nützlich ist. des Inhaltsverzeichnisses und des Index sowie der Einfluss des Mediums auf den Buchauswahlprozess. Wir diskutieren Hindernisse für eine genaue Buchauswahl und überlegen, was auf angewandter und theoretischer Ebene aus dem weiteren Studium dieser Aktivität gelernt werden kann.;-;http://eprints.rclis.org/8595/;-;- ab8928158dfb2bdcb8c425db4647d15c;de;;;5.2.;;;Spezialisten und Synthesizer in einer Community, die Fragen beantwortet Die nachhaltigsten Online-Communitys sind diejenigen, die es ihren Nutzern ermöglichen und ermutigen, bei der Entwicklung der Community mitzureden. Die Verbreitung von Online-Communitys mit kollaborativen Filtermechanismen, bei denen Benutzerfeedback aggregiert wird, um zukünftige Interaktionen zu gestalten, macht es notwendig zu verstehen, warum Teilnehmer in Online-Communities ihre Inhalte schätzen. Aufbauend auf den Konzepten von Benutzern als Spezialisten und Synthesizern, die in früheren Forschungen entwickelt wurden, untersucht diese Studie Answerbag, eine Online-Community zur Beantwortung von Fragen, in der Benutzer die Antworten gegenseitig bewerten, um kollaboratives Filtern bereitzustellen. In diesem Umfeld werden Spezialisten als diejenigen operationalisiert, die ihre Expertise in einem bestimmten Thema beanspruchen und Fragen beantworten, ohne auf andere Quellen zu verweisen, und Synthetiker als diejenigen, die einen oder mehrere Verweise auf externe Quellen in ihre Antworten einbeziehen. Die Ergebnisse der Studie legen nahe, dass innerhalb der Answerbag-Community die Antworten von Synthesizern tendenziell höher bewertet werden als die von Spezialisten, obwohl Antworten von Spezialisten in bestimmten Kategorien höher bewertet werden. Die Folgen von Unterschieden im wahrgenommenen Wert von Informationen, die von Spezialisten und Synthesizern bereitgestellt werden, werden untersucht und Wege für zukünftige Forschung werden diskutiert.;-;http://eprints.rclis.org/8793/;-;- 4d9f2b96fb07c16648a5abb2c828aaf4;de;;;5.2.;;;Umfrage zur Informationsfreiheit (FIRS): Vorläufige Ergebnisse Auf Ersuchen der BC Freedom of Information and Privacy Association (FIPA) rekrutierte und betreute Dr. Martin Dowding, Assistant Professor an der School of Library, Archival and Information Studies (SLAIS), University of British Columbia Jeremiah Saunders und Frederic Murray, MLIS-Kandidaten, eine Umfrage in den Jahren 2005-2006 zu entwerfen und durchzuführen, die den Prozess und die Zufriedenheit mit einer Anfrage zur Informationsfreiheit nach öffentlichen Informationen durch das Gesetz zur Informationsfreiheit und zum Schutz der Privatsphäre (FOIPPA oder FIPPA) von British Columbia messen würde. Mehr als 300 Organisationen in British Columbia, die einen Querschnitt der Gesellschaft von British Columbia repräsentieren, wurden per E-Mail kontaktiert, um an einem Web-Fragebogen teilzunehmen. Die Umfrage bestand aus 35 Fragen, und die Ergebnisse werden von der FIPA veröffentlicht, aber dieses Papier berichtet vorläufige Ergebnisse mit Kommentaren zur Rolle von Informationsfachleuten und zur Freiheit der Informationsanfragen.;-;http://eprints.rclis.org/7915/;-;- 56345db9dc4f5bf1f9380d6ede7f1e9f;de;;;5.2.;;;Die herausfordernde und kritische Rolle von Informationsfachleuten bei der Bekämpfung von AIDS in Indien Die Art der Arbeit von Bibliothekaren und Informationsfachleuten unterliegt aufgrund des Aufkommens tödlicher Krankheiten wie HIV/AIDS und des sich ändernden Informationsbedarfs der Benutzer einem tiefgreifenden Wandel. Bibliothekare können der Gesellschaft engagierte Dienste leisten, indem sie helfen, Gesundheitsinformationen über HIV/AIDS nicht nur in städtischen Umgebungen, sondern auch in ländlichen Gebieten bereitzustellen. Der Artikel konzentriert sich auf die Initiativen, die darauf abzielen, der indischen Gemeinschaft HIV/AIDS-Informationen zur Verfügung zu stellen;-;http://eprints.rclis.org/8527/;-;- ca4622d79df37b5f200011e8c2c17685;de;;;5.2.;;;Informationsbedarf von Frauenselbsthilfegruppen: eine Einschätzung Das beliebteste Mikrokreditmodell in Indien sind Selbsthilfegruppen (SHGs). Eine qualitative Studie zu SHG-Interventionen in Andhra Pradesh und Gujarat, die von Nirantar, einem Zentrum für Gender und Bildung, durchgeführt wurde, bietet Einblicke in das Mikrokreditphänomen durch Stimmen von Frauen, die Teil von SHGs sind. Überwiegend Frauen sind die Nutznießer dieses Mikrokreditsystems. Ein Beamter auf Distriktebene, der mit einem vom Ministerium für ländliche Entwicklung geförderten SHG-Programm auf nationaler Ebene in Verbindung steht, erklärte, warum das Programm auf Frauen ausgerichtet war. „Frauen können nirgendwo hingehen, sie sind leicht zu finden, sie können nicht weglaufen, sie können leicht zur Rückzahlung überredet werden, da sie sich schneller schämen und die Nichtrückzahlung als Verrat an der Familienehre betrachten“.;-;http://eprints.rclis.org/17510/;-;- 1382396e4ec9ce785dca2613ead0fb71;de;;;5.2.;;;Wirksamkeit des Nationalen Verbundkatalogs beim Austausch von Informationen in Sri Lanka Der nationale Verbundkatalog ist ein wichtiges bibliografisches Werkzeug, das von jedem Bürger eines Landes verwendet werden kann, unabhängig von sozialen oder ethischen Unterschieden beim Zugriff auf veröffentlichtes und aufgezeichnetes Wissen, das über das Bibliothekssystem eines Landes verfügbar ist. Der Nationale Verbundkatalog (NUCAT) spielt in jedem Land eine große Rolle bei der bibliografischen Kontrolle und der Bibliothekskooperation. NUCAT unterscheidet sich hinsichtlich Zielsetzung und Service deutlich von den anderen Bibliothekskatalogen eines Landes. Es handelt sich um einen zentralen Katalog, der speziell den physischen Standort von Bibliotheksmaterialien in Bibliotheksbeständen mit den anderen bibliografischen Informationen bereitstellt. Die Erstellung eines Nationalen Verbundkatalogs wird nur von der Nationalbibliothek eines Landes als Teil ihrer Hauptdienste durchgeführt. Aufgrund knapper Mittel, sich ständig ändernder Informationstechniken und anderer Infrastruktureinrichtungen sind Bibliotheken nicht in der Lage, mit den sich schnell entwickelnden Informationsbedürfnissen ihrer Nutzer Schritt zu halten. Angesichts dieser Einschränkungen ist eine Art Zusammenarbeit zwischen Bibliotheken erforderlich, und jede Bibliothek kann den Nationalen Verbundkatalog als bibliografisches Instrument der Bibliothekskooperation verwenden. Der Zweck dieser Studie besteht darin, die Wirksamkeit des Nationalen Verbundkatalogs als bibliografisches Instrument zu ermitteln, um Informationen über Bibliotheksbestände in Sri Lanka zu erhalten. Die Daten für die Studie wurden durch strukturierte Fragebögen aus zufällig ausgewählten Stichproben von 68 bzw. 50 Mitgliedsbibliotheken bzw. den Nutzern des Projekts Nationaler Verbundkatalog gesammelt. Die Ergebnisse zeigten, dass 40 % der Spezialbibliotheken zum Nationalen Verbundkatalog beigetragen haben und der Anteil der Universitätsbibliotheken in dieser Hinsicht 24 % betrug. Forscher und andere Fachleute aus verschiedenen Bereichen waren die Hauptnutzer des Nationalen Verbundkatalogs und ihre Nutzung von NUCAT zeigten 24% bzw. 40%. 32 % nutzten diese Einrichtung häufig, 58 % nutzten diesen Service nie, um ihren Informationsbedarf zu decken. Umfrageergebnisse zeigten, dass nur 8 % mit dem aktuellen Service des Nationalen Verbundkatalogs voll zufrieden waren. Diese Studie kommt zu dem Schluss, dass der Nationale Verbundkatalog in Sri Lanka eine bedeutende Rolle im Hinblick auf die bibliografische Kontrolle und Bibliothekskooperation spielen könnte. Der systematische Beitrag und die Live-Beteiligung aller Beteiligten des NUCAT-Projekts sind äußerst wichtig, um den Nutzern in Sri Lanka einen aktuellen bibliografischen Informationsdienst zu ermöglichen. Auch müssen die zuständigen Behörden die notwendigen Schritte unternehmen, um die Nutzung und Popularität des Nationalen Verbundkatalogs zu erhöhen.;-;http://eprints.rclis.org/12021/;-;- a7a05f71d71d9fbcbd3d1ace58b314f4;de;;;5.2.;;;Die (unbekannte) Rolle des Kartenbibliothekars und die Herausforderung, den kartografischen Benutzerbedürfnissen gerecht zu werden Die (unbekannte) Rolle des Kartenbibliothekars und die Herausforderung, die kartografischen Nutzerbedürfnisse zu befriedigen Der Beruf des Bibliothekars wird in Sri Lanka entwickelt und anerkannt. Aber wir haben weder von einer Kartenbibliothek noch von einem Kartenbibliothekar in unserem lokalen Umfeld gehört. In Europa und den USA sind Kartenbibliotheken bekannt und Kartenbibliothekare sind anerkannt Bibliothekare, die sich mit Karten befassen, fallen in die Fachbibliotheksgruppe und müssen den Kartenbestand in besonderer Weise verwalten. Es erfordert spezielle Kenntnisse in der Verwaltung der Kartensammlung. Das Lesen von Karten erfordert technische Geräte und auch die Aufbewahrung und Konservierung unterscheidet sich von Büchern. Daher sollte der Bibliothekar, der sich mit Karten befasst, geschult werden, um sich mit den technischen Methoden der Aufbewahrung, der Recherchekoordination und der Verwaltung von Archiven vertraut zu machen und den Zugang zu kartografischem Material zu verbessern. Nach dem 11. Weltkrieg werden traditionelle Kartenlager in kartografische Zentren umgewandelt und neue Technologien werden intensiv bei der Kartenherstellung, -speicherung und -nutzung eingesetzt. Dieser Beitrag beleuchtet die Rolle, die Kartenbibliothekare in einer modernen Bibliothek spielen, die neue Technologien verwendet. Kartenbenutzer sind sehr fortgeschritten in der Verwendung verschiedener Technologien beim Lesen, Erstellen, Kopieren usw. von Karten. Dieser technologische Fortschritt hat die Kartensammlung in den Entwicklungsländern nicht wesentlich verändert. Auch im 21. Jahrhundert sehen wir die traditionelle Kartensammlung in Sri Lanka. . Bei der Untersuchung der Situation (Vorabsammlung und Vorbenutzung) in anderen Ländern wurde eine Stichprobenstudie mit Bezug auf das lokale Umfeld durch Auswahl wissenschaftlicher und spezieller Bibliotheksgruppen durchgeführt. Dieser Beitrag erläutert die Rolle eines Bibliothekars, der mit Karten umgeht, der nicht als Kartenbibliothekar anerkannt wird. Er erörtert auch die Einstellungen der kartografischen Benutzer gegenüber Kartenbibliotheken in unserem Land die Institutionen, in denen Kartensammlungen verfügbar sind, die Barrieren, denen die Benutzer ausgesetzt sind beim Zugang zu den Sammlungen, wichtige Fragen, die von den höheren Behörden vernachlässigt wurden, und das Fehlen einer nationalen Behörde, die die Kartenproduktion im Land genehmigt. Die Rolle, die die nationale Stelle oder eine Regulierungsbehörde spielen könnte, wie die Verwaltung von Sammlungen und Datenbanken, die Festlegung von Standards, das Urheberrecht und die Umsetzung einer nationalen Politik bei der Kartenproduktion, und die Probleme bei der Herstellung von Karten werden erörtert. Die Studie zeigt, dass die Kluft zwischen den traditionellen Kartenbibliotheken (Sammlung) und den Nutzern kartografischen Materials immer größer wird. Der Autor schlägt vor, dass die Bibliothekare dieses Problem durch eine professionelle Ausbildung lösen könnten. Dies wird die Einstellung der Benutzer gegenüber den Kartenbibliothekaren und Kartenbibliotheken ändern. Dies wird den Fachleuten, die als Kartenbibliothekare arbeiten, Anerkennung verschaffen.;-;http://eprints.rclis.org/12137/;-;- 983a9918335ecf9f96521ed1258b97c7;de;;;5.2.;;;Kontakt zu Milchbauern in einer Plantagengemeinschaft in Sri Lanka: Eine Fallstudie Das Papier beschreibt Erfahrungen mit der Durchführung eines Informationsprogramms für Milchbauern im Plantagengebiet Maskeliya, Sri Lanka, durch die Öffentliche Bibliothek Maskeliya, mit dem primären Ziel, den Zugang zu Informationen für Basisgemeinden zu erleichtern. Informationen und Daten für das Papier wurden aus einer Miniumfrage des Feedbacks der Teilnehmer und auch aus Sekundärquellen gesammelt. Das allgemeine Ziel des Informationsprogramms war es, eine Informationsplattform für die Milchbauern zu schaffen, um wichtige Informationen für ihren Lebensunterhalt zu erhalten. Konkrete Ziele bestanden darin, Milchbauern über Rinderkrankheiten und deren Bekämpfung aufzuklären, sie darauf aufmerksam zu machen, genaue und zuverlässige Informationen und die verfügbaren Massenmedienquellen für Informationen zu erhalten, und Informationen über die Viehzuchtprogramme der Abteilung für Tierproduktion bereitzustellen und Gesundheit. Die Leistungen und die Zwänge des Viehsektors werden diskutiert. Die Notwendigkeit von Interventionen öffentlicher Bibliotheken bei den Basisgemeinden zur Erweiterung ihrer Kapazitäten wird betont. Die öffentliche Bibliothek Maskeliya wurde wegen der Anwesenheit von Milchbauern in der Gegend für das Informationsprogramm ausgewählt. Das Informationsprogramm wurde in Zusammenarbeit mit den AGRINET-Bibliothekaren, der Ambagamuwa Pradeshiya Sabhawa, dem staatlichen Tierarzt, den Gutsverwaltern der Teebananen und dem Leserclub der öffentlichen Bibliothek Maskeliya organisiert. Das Informationsprogramm bestand aus zwei Präsentationen, einer CD-ROM-Demonstration, einer Ausstellung von Veröffentlichungen zum Thema Landwirte und der kostenlosen Verteilung eines Informationspakets. Die Herausforderungen des Programms waren das sprachliche Problem und das Alphabetisierungsniveau. Ein Dolmetscher wurde eingesetzt, um die Präsentationen in tamilischer Sprache zu übertragen. Einhundert Milchbauern, das sind 10 % aller Milchbauern in der Region, nahmen an dem Programm teil. Von 55 Landwirten, die schreiben konnten, wurde schriftliches Feedback eingeholt. Das Hauptproblem der Milchbauern waren Stallprobleme, niedrige Milchpreise, fehlende medizinische Einrichtungen, Viehfutterprobleme, niedrige Einkommen usw. Die öffentlichen Bibliothekare mussten durch professionelles Lobbying Partnerschaften mit einflussreichen Personen und Instituten in der Umgebung aufbauen. Sprachkenntnisse der öffentlichen Bibliothekare waren eine Voraussetzung, um die Basis zu erreichen;-;http://eprints.rclis.org/12127/;-;- b4be965562b2a70da572de59c3b23b3d;de;;;5.2.;;;Studie zu Informationskompetenz und Leserschaft an fünf spezifischen Orten in städtischen, industriellen und halbstädtischen Gebieten der Metropole Kolkata Das Department of Library and Information Science der Jadavpur University, Kolkata, Indien, hat in Zusammenarbeit mit der UNESCO eine Forschungsstudie zur Messung von Informationskompetenz und Lesegewohnheiten in städtischen und halbstädtischen Lebensräumen in einer Metropole in Indien durchgeführt. Dieser Studienbericht versucht, die informationsliterarische Kompetenz und das Leseverhalten gemischter Lebensräume mit gegensätzlichen Berufen oder Berufungen zu identifizieren und kritisch zu untersuchen. Die Ziele dieser Feldstudie waren: • Versuch einer kritischen Untersuchung der Leserschaft von Menschen aus unterschiedlichen sozialen Schichten an fünf spezifischen Orten der Metropole Kolkata, • Versuch einer Untersuchung des Einflusses und der Messung des Einflusses verschiedener Medien auf die Lesegewohnheiten, • Versuch einer Einschätzung der wahrscheinlichen Ursachen für die unterschiedlichen Lesegewohnheiten der Menschen an verschiedenen Orten der Metropole Kolkata, • Versuch einer Einschätzung der Rolle, die öffentliche Bibliotheken bei der Förderung der Lesegewohnheiten spielen, • To Versuch einer Kartierung des Informationskompetenzniveaus der Menschen, die in städtischen, industriellen und halbstädtischen Gebieten der Metropole Kolkata leben, • Versuch, aus den Ergebnissen der Studie eine tragfähige Schlussfolgerung zu ziehen. Dieser Bericht illustriert das Informationssuchverhalten verschiedener Gruppen von Lebensräumen, darunter Jugendliche, Frauen, Industriearbeiter und ältere Menschen. Diese Studie kommt zu dem Schluss, dass • die meisten Befragten in der vorliegenden Stichprobe zwischen 31 und 50 Jahre alt sind und im Dienst stehen. • Die Zahl der Männer, die nicht regelmäßig lesen, übersteigt bei weitem die Zahl der Frauen in derselben Kategorie. • Ältere Menschen haben es meist geschafft, an ihrer Lesegewohnheit festzuhalten. • Unter den Nicht-Printmedien zieht das Fernsehen die meisten Befragten an. • Frauen neigen eher dazu, Bibliotheken zur Befriedigung ihres Lesebedarfs zu nutzen. • Das Lesen überlebt trotz des Booms der elektronischen Medien. Die öffentlichen Bibliotheken in der Stadt spielen eine größere Rolle bei der Vermittlung von Lesegewohnheiten unter Jugendlichen und Neugebildeten. Diese Studie legt nahe, dass Informationskompetenz und lebenslange Bildung auch Randgruppen durch öffentliche Bibliotheksnetze im Land vermittelt werden können.;-;http://eprints.rclis.org/11469/;-;- 9337230262fbb7cd9361211c3aa407bc;de;;;5.2.;;;Trends im Internet-Informationsverhalten, 2000-2004 Im Jahr 2000 wurde das Internet zu einem in unseren Alltag integrierten Informations- und Kommunikationsmedium. Nach einem interdisziplinären Ansatz analysiert die in diesem Artikel berichtete Forschung die große Vielfalt an Informationen, die Menschen im Internet suchen, und untersucht Trends der Internet-Informationsaktivitäten zwischen 2000 und 2004 anhand wiederholter Querschnittsdaten der Umfragen von Pew Internet &, American Life Internetaktivitäten, die zum Alltag beitragen, und deren Prädiktoren zu untersuchen. Ziel ist es, unser Verständnis der Internetaktivitäten und des Alltagslebens zu vertiefen und zu einem wachsenden Forschungsvolumen beizutragen, das umfangreiche empirische Daten zur Internetnutzung und zum Alltag nutzt. Wir fragen: Wer bettet das Internet in ihren Alltag ein und welche Aktivitäten verfolgen sie, um den Alltag zu erleichtern? Die Ergebnisse zeigen die unterschiedlichen Erträge der Internetnutzung, insbesondere in wichtigen demografischen Kategorien. Die Studie trägt auch zu neuen Forschungsergebnissen über die digitale Kluft bei, wobei der Schwerpunkt auf der Untersuchung der Nutzung statt des Zugangs zu Technologie liegt. Die Identifizierung von Trends in den wichtigsten Dimensionen der Internetnutzung ermöglicht es politischen Entscheidungsträgern, auf Bevölkerungsgruppen abzuzielen, die das Potenzial vernetzter Technologien nicht ausreichend nutzen.;-;http://eprints.rclis.org/11691/;-;- 3dbcdb3abc2c90a4cba00c23de1cfe03;de;;;5.2.;;;Wenn die Zeit gekommen ist, werden Sie bereit sein? Strategien und Tools zum Aufbau eines Rahmens für Informationskompetenz im gesamten Lehrplan Der Aufbau einer effektiven und nachhaltigen lehrplanintegrierten Initiative für Informationskompetenz erfordert mehrere Schlüsselelemente, von der Sicherstellung der Unterstützung durch die Identifizierung und Abstimmung der Bibliothek mit wichtigen strategischen Partnern auf dem Campus und der Bereitstellung überzeugender Beweise für die Notwendigkeit der Aufmerksamkeit für Informationskompetenzen bis hin zur Planung und Gestaltung von Informationskompetenz Entwicklungs- und Bewertungsmöglichkeiten im gesamten Curriculum. Die Teilnehmer werden Fallstudien von zwei sehr unterschiedlichen Institutionen hören und beginnen, einen strategischen Aktionsplan für ihre eigenen Institutionen zu erstellen.;-;http://eprints.rclis.org/11648/;-;- 866167f3974c152d235e39c3db432406;de;;;5.2.;;;Informationsbedarf und Suchverhalten von Wissenschafts- und Technologielehrern der University of the Punjab, Lahore Das Papier konzentriert sich auf die Untersuchung des Informationsbedarfs und des Informationssuchverhaltens von Lehrern für Wissenschaft und Technologie (S&,T) der University of the Punjab (PU). Ihre Präferenzen hinsichtlich verschiedener Formate von Informationsquellen (gedruckt und elektronisch) und die Bedeutung formeller und informeller Quellen wurden durch quantitative Erhebungen untersucht. Der Selbstausfüllfragebogen wurde verwendet, um die gesamte Population von Institutionen/Hochschulen/Fachbereichen aller naturwissenschaftlich-technischen Fakultäten zu erreichen. Die Ergebnisse zeigen: Sowohl Bibliotheken als auch E-Ressourcen spielen eine wichtige Rolle bei der Deckung des Informationsbedarfs der Befragten, der direkte Zugang zu E-Quellen hat die Zahl ihrer Besuche in Fachbereichs- und Zentralbibliotheken leicht verringert und Fakultäten verbringen vergleichsweise mehr Zeit mit der Suche nach Webquellen als Druckquellen.;-;http://eprints.rclis.org/25613/;-;- 491d4b70c714802686e7ddc2624d78cd;de;;;5.2.;;;Warum sammelt die Bibliothek Erinnerungen von Einwanderern? Eine Studie einer multikulturellen Gedächtnisgruppe in einer öffentlichen Bibliothek in Oslo Der Beitrag enthält eine Präsentation der Arbeit einer multikulturellen Gedächtnisgruppe in der Torshov-Filiale der öffentlichen Bibliothek Oslo, der Gründe, warum die Bibliothek diese Arbeit initiiert hat, und der mit den Ergebnissen verbundenen Erwartungen. Die Gedächtnisgruppe ist Teil eines größeren Projekts am Oslo University College, Department of Journalism, Library and Information Science, PLACE, das darauf abzielt, die Bibliothek als physischen Treffpunkt zu untersuchen. Einwanderer in Norwegen nutzen häufig öffentliche Bibliotheken, aber es gibt wenig Kommunikation zwischen ihnen und einheimischen Norwegern. Bibliotheken können wichtige Orte der Integration sein, wenn sich Gruppen von Menschen aus verschiedenen Kulturen treffen und austauschen. Von der Bibliothek organisierte Aktivitäten wie diese Speichergruppe können eine Änderung bewirken. Es wird als besonders wichtig angesehen, Frauen zu rekrutieren. Dieser Beitrag soll zeigen, dass eine in der Bibliothek angesiedelte Gedächtnisgruppe dazu beitragen kann, Brücken zwischen Menschen mit unterschiedlichem kulturellen Hintergrund zu bauen. Andere Effekte der Arbeit können die Schaffung eines stärkeren Zugehörigkeitsgefühls in der lokalen Gemeinschaft, ein gesteigertes Selbstvertrauen und eine gesteigerte Sprachkompetenz sein. All dies ist wichtig, um Informationskompetenz zu erlangen und damit an der Gesellschaft teilhaben zu können. In diesem Beitrag wird die Bedeutung öffentlicher Bibliotheken als physische Treffpunkte betont. Die Methode der Erinnerungsgruppe ist Erinnerungsarbeit. Erinnerung ist der Akt oder Prozess des Abrufens und Teilens der eigenen Erinnerungen. Die Nutzung der Bibliothek als Arena der Erinnerungsarbeit unter Migranten ist neu. Bei Erfolg kann die Arbeit ein Vorbild für andere öffentliche Bibliotheken sein. Die Gruppe hat ihre Arbeit noch nicht abgeschlossen, strebt aber eine Ausstellung als sichtbare Dokumentation der Arbeit an.;-;http://eprints.rclis.org/12871/;-;- 00e24e1a7b606ce00c8a76f8645b9a22;de;;;5.2.;;;Informationsverhalten von Studierenden Diese Arbeit präsentiert die vorläufigen Ergebnisse einer Studie zum Informationsverhalten von Studenten an zwei spanischen Universitäten. Es wurde eine qualitative Methodik gewählt und die Ergebnisse nach der Grounded Theory analysiert. Die Ergebnisse wurden nach den Gründen, die das Informationssuchverhalten motivierten, den zu ihrer Auflösung verwendeten Mitteln und den Ergebnissen des Suchprozesses klassifiziert. Die Verwendung einer qualitativen Perspektive ermöglichte es uns, ein allgemeines Bild der Informationsprobleme von Universitätsstudenten zu gewinnen. Zukünftige Forschungsrichtungen werden festgelegt und die Ergebnisse beinhalten eine zukünftige Forschungsagenda;-;http://eprints.rclis.org/13339/;-;- 0194c993503d4ae03f0c4c8f83f67d29;de;;;5.2.;;;Wissenschaftliches Informationsbeschaffungsverhalten: Eine Fallstudie bei Studenten der Philosophie Das Verhalten und die Muster der Wiedergewinnung und Verarbeitung digitaler Informationen durch Benutzer sind ein wiederkehrendes Thema in der Literatur. Die Untersuchung dieser Verhaltensweisen erfolgt durch Beobachtungstechniken und die Analyse von Prozessen, Handlungen und Entscheidungen, die von Benutzern in verschiedenen Situationen getroffen werden. Dieser Beitrag präsentiert die Daten, die aus der Untersuchung von Mustern der Wiederherstellung und des Managements von Referenzinformationen von drei aufeinander folgenden Kursen eines spezialisierten Fachs resultieren. Die gewonnenen Ergebnisse zeigten einen deutlichen Unterschied zwischen den Mustern des Informationsabrufs und denen, die vor dem Ende des Schulungsprozesses erlangt wurden, aber es gab eine signifikante Änderung des Endziels der Benutzer oder merkliche Änderungen ihrer Aussichten auf eine Anwendung in anderen Umgebungen.;-;http://eprints.rclis.org/14663/;-;- a74447af361f79d8056b8175e8d7bc61;de;;;5.2.;;;Die Anatomie einer elektronischen Diskussionsliste für Bibliothekare, KUTUP-L: Bibliometrische und Inhaltsanalysen von Postings. Elektronische Diskussionslisten werden seit Ende der 1980er Jahre häufig als professionelles und wissenschaftliches Kommunikationsinstrument verwendet. Die Analyse von Nachrichten, die an Diskussionslisten gesendet werden, liefert nützliche Informationen zu professionellen und wissenschaftlichen Kommunikationsmustern. In diesem Papier präsentieren wir die Ergebnisse einer bibliometrischen Analyse von etwa 20.000 Nachrichten, die zwischen 1994 und 2008 an KUTUP‐L, eine elektronische Diskussionsliste für türkische Bibliothekare, gesendet wurden und Lotka-Gesetze. Anschließend analysieren wir den Inhalt von 977 Nachrichten anhand einer stratifizierten Stichprobe. Die Ergebnisse zeigen, dass die Zahl der an KUTUP‐L gesendeten Nachrichten im Laufe der Jahre zusammen mit der Zahl der Autoren zugenommen hat. Zwei Drittel (1.232) von etwa 1.900 Listenmitgliedern haben mindestens eine Nachricht an die Liste gepostet, während der Rest es vorzog, sogenannte „Lurker“ zu sein. Etwa 35 Autoren haben fast die Hälfte (49%) der Nachrichten gepostet, während 20% der Autoren 83% aller Nachrichten veröffentlicht haben. Die Verteilung von Nachrichten an Autoren entspricht den Price („die Quadratwurzel aller Autoren würden die Hälfte der Nachrichten posten“) bzw. den Pareto-Gesetzen (sogenannte „80/20-Regel“). Von den 1.232 Autoren schickte ein Drittel (im Gegensatz zu 60 %, die von Lotkas Gesetz vorhergesagt wurden) nur eine Nachricht an die Liste. Ergebnisse der Inhaltsanalyse zeigen, dass 40 % der an die Liste gesendeten Nachrichten nicht zum Thema gehörten. Fragen zu oder im Zusammenhang mit Informationsmanagementdiensten (32%), Bibliotheks- und Informationswissenschaften (23%) und beruflicher und wissenschaftlicher Kommunikation (19%) wurden in der Liste häufiger diskutiert. Die Intent-Analyse der Postings zeigt, dass drei Viertel der Nachrichten initiativ waren, während der Rest reflexiv war. Das heißt, dass die Mehrheit der Nachrichten, die auf KUTUP-L gepostet wurden, um eine Diskussion zu initiieren, nicht genug Interesse hervorrief, um darüber nachzudenken, indem sie Folgenachrichten sendeten, was darauf hindeutet, dass auf KUTUP-L zu bestimmten Themen können eher als eine einseitige als eine partizipative Kommunikation charakterisiert werden.;-;http://eprints.rclis.org/14697/;-;- a84dddacc15066fc72487d193ad60a83;de;;;5.2.;;;Klinisches Informationsverhalten von Rehabilitationstherapeuten: ein Überblick über die Forschung zu Ergotherapeuten, Physiotherapeuten und Logopäden Ziele: Ziel der Übersichtsarbeit war es, bestehende Forschungsergebnisse zum klinischen Informationsverhalten von Rehabilitationstherapeuten zusammenzufassen und Evidenzlücken zu identifizieren, insbesondere im Vergleich zu dem, was bereits über das Informationsverhalten anderer Gesundheitsberufe wie Ärzte bekannt ist. Methoden: Es wurde eine Literaturrecherche von quantitativen und qualitativen Forschungsstudien durchgeführt, die Informationen zum klinischen Informationsverhalten von Ergotherapeuten, Physiotherapeuten und Logopäden enthielten. Die Ergebnisse wurden nach einer Taxonomie von Variablen aus der Literatur geordnet. Ergebnisse: Ergebnisse aus 17 Studien, meist Befragungen, die seit 1990 durchgeführt wurden, zeigen, dass sehr wenig über den klinischen Informationsbedarf und die Informationsnutzung von Rehabilitationstherapeuten bekannt ist. Die am häufigsten von Rehabilitationstherapeuten herangezogenen Quellen sind gedruckte Materialien (Bücher und Zeitschriften) und Kollegen. Datenbanken werden seltener konsultiert und nur wenige Rehabilitationstherapeuten kennen andere Datenbanken als MEDLINE. Diskussion: Methodische Mängel schränken die Verallgemeinerbarkeit und Validität eines Großteils der Forschung zum klinischen Informationsverhalten dieser Population ein. Weitere Forschung ist erforderlich, um die klinischen Fragen, die in der Praxis von Rehabilitationstherapeuten auftreten, die Gründe für die Konsultation bestimmter Quellen und die Art und Weise, in der die Informationssuche die evidenzbasierte Praxis verbessert, besser zu verstehen.;-;http://eprints.rclis.org/13361/;-;- 3e8919dcda980739ea6ea3d42782d835;de;;;5.2.;;;Interview mit Dr. Andrew K. Shenton, Spezialist für Informationskompetenz / Entrevista al Dr. Andrew K. Shenton, especialista en alfabetización informacional Das Feld der Informationskompetenz hat heutzutage viele Mitwirkende, aber zweifellos ist Dr. Andrew K. Shenton einer der produktivsten und interessantesten Autoren. Dr. Shenton ist ehemaliger Dozent an der School of Computing, Engineering and Information Sciences der Northumbria University. Er ist einer der führenden Forscher auf dem Gebiet des LIS und untersucht hauptsächlich das Informationssuchverhalten von Kindern und Jugendlichen. Er promovierte 2002 mit der Arbeit „Die Eigenschaften und Entwicklung von Informationsuniversen junger Menschen“, die innovativ auf die Ideen und Sichtweisen von Jugendlichen zurückgreift und deren Entwicklung in der Kindheit untersucht. Eine seiner Leidenschaften ist das Schreiben und er hat über 70 Artikel in einer Vielzahl von Publikationen auf der ganzen Welt veröffentlicht.;-;http://eprints.rclis.org/13908/;-;- 23f9dfb4b8363dbcf8ad97137caad2b5;de;;;5.2.;;;Informationsbedarf von Medienpraktikern in Karachi, Pakistan Diese Studie untersucht die Art von Informationen, die Medienpraktiker (MPs) in Karachi, Pakistan, im Allgemeinen benötigen, um ihre Aufgaben zu erfüllen. Befragt wurden 185 Abgeordnete aus drei Mediengattungen (TV, Radio und Zeitung). Berichte verschiedener Organisationen sind die am häufigsten verwendete Informationsquelle. Abgeordnete benötigen täglich selektive und nicht erschöpfende Informationen. Die Ergebnisse dieser Studie könnten helfen, Bibliotheksangebote und eine bedarfsgerechte Bestandsentwicklung in Mediatheken zu gestalten.;-;http://eprints.rclis.org/18424/;-;- b5f66021dcade9cd07b3fb3f705593e2;de;;;5.2.;;;Lücken füllen: DDA-E-Books-Pilotprojekt in Religionswissenschaft und Geschichte. Historisch haben die Lehrenden des Fachbereichs Religionswissenschaft einen sehr starken Einfluss auf die Bestandsentwicklungspolitik der Bibliothek. Eine Umfrage unter Studenten und Dozenten im Aufbaustudium, die 2011-2012 für die Akkreditierung des Graduiertenprogramms des Council of Ontario University durchgeführt wurde, ergab jedoch überraschende Informationen bezüglich ihrer Zufriedenheit mit der Sammlung der Religionswissenschaften. Als Reaktion auf das Feedback aus der Umfrage und in dem Bestreben, die Relevanz der Religionswissenschaftssammlung für unsere Gemeinschaft zu verbessern, hat die University of Ottawa mit unserem Buchhändler Yankee Book Peddler (YBP) zusammengearbeitet, um eine nachfrageorientierte E-Book-Akquisition durchzuführen Projekt in zwei Fachgebieten: Religionswissenschaft (einschließlich Theologie) und Geschichte. Die spezifischen Ziele des Projekts waren: (1) historische Titel zu füllen, die wir aufgrund der jahrzehntelangen geringen Finanzierung der Bibliothek der Universität Ottawa nicht kaufen konnten, (2) zu testen, ob E-Books wirklich unerwünscht, wie die Fakultätsmitglieder behaupteten, (3) zu verstehen, wo die Sammlungslücken auf der Nachfrage der Gemeinschaft beruhten, (4) die aktuellen Richtlinien zur Sammlungsentwicklung in Religionswissenschaft und Geschichte zu testen und (5) eine evidenzbasierte Argumentation zu liefern zum Sammeln oder Nichtsammeln von E-Books als Format. Dieser Vortrag wird die konzeptionelle und technische Entwicklung des Plans detailliert darstellen und Beobachtungen aus neun Monaten Umsetzung mit Schwerpunkt auf den religionswissenschaftlichen und theologischen Sammlungsbereichen bieten. Hat das Projekt seine Ziele erreicht? Wie nützlich waren die Daten aus diesem Projekt? Wie werden diese Daten unsere zukünftigen Strategien zur Sammlungsentwicklung für die Religionswissenschaft beeinflussen? Diese und andere Fragen werden in der Zusammenfassung des Projekts untersucht.;-;http://eprints.rclis.org/22644/;-;- 6a7db68395291831c191f8ed37217871;de;;;5.2.;;;Informationssuche Verhalten und Bedürfnisse pakistanischer Parlamentarierinnen: Eine Fallstudie Diese Studie untersucht den Informationsbedarf und das Suchverhalten von weiblichen Parlamentariern in der 12. bevorzugte Quellen für die Vorbereitung von Reden, Resolutionen, Gesetzentwürfen und Gesetzen. Es misst auch ihre Fähigkeiten in der Informations- und Kommunikationstechnologie. Die Studie misst ihre Abhängigkeit und Wahrnehmung von der Nationalversammlungsbibliothek und anderen verfügbaren Informationsquellen und schlägt mögliche Mittel vor, mit denen die Informationsdienste für Parlamentarier weiter verbessert werden können. Die Ergebnisse dieser Studie können Aspekte aufzeigen, die von Forschern bei dem Versuch, den Informationsbedarf von weiblichen Parlamentariern zu decken, noch nie zuvor berücksichtigt wurden.;-;http://eprints.rclis.org/18453/;-;- 1f6b6abbcb1ddd8e4478546e6b0f490d;de;;;5.2.;;;E-Information Seeking Behavior für Studierende an der KSCE, Kiit University, Indien Bibliotheken von Ingenieurinstitutionen sind bedeutende Informationsorganisationen, die eine wichtige Rolle bei der Deckung des Informationsbedarfs der jeweiligen Institutionen spielen. Studierende ingenieurwissenschaftlicher Fächer müssen ihr Wissen durch neueste Informationen in ihrem jeweiligen Interessengebiet aktualisieren, um ihre akademischen Bedürfnisse zu unterstützen. Wie der Informationsbedarf und das Suchverhalten der Studentengemeinschaft von den Bibliotheksfachleuten gesteuert werden, ist in der Tat eine große Frage. Dieses Papier beabsichtigt, das allgemeine Informationssuchverhalten von Studenten der School of Computer Engineering der KIIT University, Indien, zu untersuchen. Die Analyse zeigt, dass die Studierenden mit der Ausleihe von Büchern (Ausleihe) und dem Internetangebot absolut zufrieden sind. Allerdings haben die Befragten eine sehr schlechte Meinung zum Reservierungsservice und zur Fernleihe. Darüber hinaus gibt das Papier einige konstruktive Anregungen für die Ausbausysteme und Dienstleistungen der Universitätsbibliothek.;-;http://eprints.rclis.org/19922/;-;- 882d5e94f6b4c4e92fce06395292e809;de;;;5.2.;;;Wissensmanagement und elektronische Abschlussarbeiten und Dissertationen in Bibliotheken: Gefahren und Lösungen aus indischer Sicht ICT ist ein großartiger Vermittler für Wissensmanagement. IKT ermöglicht die Schaffung digitaler Repositorien für den Wissensaustausch über viele Grenzen hinweg. Digital Repository (DR) ist eine der Komponenten von KM in Bibliotheken. Die DR der Eigenforschung wird zu einem Schwerpunktthema in Universitäten und Forschungseinrichtungen. Das Papier beleuchtet die größten Herausforderungen bei der Erstellung einer DR für elektronische Abschlussarbeiten (ETD) für Universitäten/Forschungseinrichtungen. Bespricht die Einschränkungen von ETD-Initiativen und mögliche Lösungen. Schlägt vor, dass LIS-Experten Schritte zur Problemlösung auf der Grundlage von Forschungen im Bereich WM in Bibliotheken durchführen sollten.;-;http://eprints.rclis.org/23162/;-;- f205321cc28aa69c68c8e4bbc0823bc5;de;;;5.2.;;;Historische Hintergründe des Research Impact HO (Human Orientation) der IT Nach der weltweiten Vereinheitlichung informationswissenschaftlicher Begriffe (z.B. Daten,Information) kann ein nächster Schritt erfolgen. Die evolutionären Eigenschaften des Menschen – frei von körperlicher und geistiger Überverstärkung – und das menschliche Verhalten in unserer informationsdominierten Gesellschaft sind die nächsten Untersuchungen. Dass Themen nicht neu sind, aber auf einen philosophisch-pragmatischen Status gebracht werden müssen, denn IT hat in den letzten Jahren enorm an Bedeutung gewonnen. Ein Mensch ist eine Spezies in einer langfristigen Evolution. Sein hohes Maß an Intelligenz und Kreativität wird bisher von keinem anderen lebenden Organismus erreicht. Wir können diese biologischen Gesetze in einigen Jahren, Jahrzehnten oder gar Jahrhunderten nicht ändern. Alle pseudo-menschlichen (= künstlichen) Aktivitäten der letzten Jahrzehnte (z.B. E-Memory, künstliche Intelligenz) können nicht dauerhaft menschliches Niveau erreichen. Menschliche Grenzen – insbesondere bei der Interaktion mit Computern und Maschinen – sollten in einer einheitlichen systematischen und wissenschaftlichen Weise untersucht werden (z. B. American HFE, Human Orientation of IT (HO)). IT (Informationstechnologie) ist heute in fast allen modernen Mensch-Maschine-Systemen wichtig. Es ist die erste Kontaktebene zu Maschinen. Wir können also sagen: Die IT ist an der Steuerung nahezu aller Maschinen (Autos, Eisenbahnen, Schiffe, Flugzeuge, Raumfahrt und Produktionsindustrie) in Human Machine Systems beteiligt. Darüber hinaus ist die IT Teil unseres gesamten menschlichen Alltags zu Hause und am Arbeitsplatz. HO (Human Orientation) der IT wurde vom Autor berechtigt, sich um menschliche Bedürfnisse zu kümmern und nur auf diese. Sie scheinen verloren zu gehen. In historischen Mensch-Maschine-Systemen wurden die Begriffe Human Factors und Ergonomics (HFE) geschaffen, bevor die IT bekannt wurde. Sie sind der alte Hintergrund moderner Mensch-Maschine-Systeme. Die industrielle Nutzung ist heute weltweit außergewöhnlich etabliert. Die ursprünglich militärische Verwendung ist nach wie vor gültig. Wir wissen, dass die menschliche Gesundheit von Geist und Körper Grenzen hat, die bei der Planung und Gestaltung aller IT-Systeme beachtet werden sollten. Durch den Einsatz von Software müssen wir nicht alle physischen Maschinen ändern, sondern hauptsächlich die Regeln, wie sie zu steuern sind. Wir wissen nicht, wie die Zukunft der Technologie des Informations- und Datentransports aussehen wird, aber wir wissen, dass sich menschliche Eigenschaften nicht in der gleichen Geschwindigkeit ändern können. Wenn wir die menschlichen Grenzen kennen, können wir sie in Zukunft systematisch in unser Design von Soft- und Hardware integrieren. Das höchste Ziel menschlichen Handelns ist Lebensfreude und Kreativität. Diese mentalen Ziele eines jeden Menschen können nicht nur kurzfristig faszinierenden technologischen Fortschritten zum Opfer fallen. Fragen wir uns also, was in HCI (Human Computer Interfaces) fehlt? Ist HO (Human Orientation) der IT als neues Paradigma notwendig oder wurde sie bereits von der Legacy HFE-Disziplin und dem IT-Systemdesign berücksichtigt?;-;http://eprints.rclis.org/22895/;-;- b2120685fa10d15f1285d982ee8c5233;de;;;5.2.;;;Eine Charakterisierung klinischer Fragen von Rehabilitationstherapeuten Ziel: Diese Studie untersuchte den Informationsbedarf von Rehabilitationstherapeuten (Ergotherapeuten, Physiotherapeuten und Logopäden), die mit Schlaganfallpatienten arbeiten, um ihre klinischen Fragen zu charakterisieren, definiert als ihre formalisierten Informationsbedürfnisse, die im Kontext von klinischen Alltag. Methode: Die Forscher verfolgten einen konstruktivistischen, interpretativen Ansatz, bei dem fünfzehn Rehabilitationstherapeuten in verschiedenen Settings rekrutiert wurden. Die Datenerhebung erfolgte mittels Tagebüchern, gefolgt von tagebuchgeführten Interviews und thematisch analysiert mittels Template-Analyse. Ergebnisse: Klinische Fragestellungen der Rehabilitationstherapeuten wurden dadurch charakterisiert, dass sie einen oder mehrere von zwölf Schwerpunkten aufwiesen und ein oder mehrere von acht möglichen Strukturelementen enthielten. Schlussfolgerungen: Die Ergebnisse zeigen, dass der aktuell angewandte evidenzbasierte Praxisrahmen für Fragen der Rehabilitation nicht ausreicht, um die klinischen Fragestellungen von Rehabilitationstherapeuten abzubilden. Es wird ein neuer, umfassenderer und beschreibenderer Rahmen vorgeschlagen. Implikationen: Bibliothekare, die mit Studenten und Klinikern in der Rehabilitation arbeiten, können das Wissen über die zwölf Schwerpunkte und die Fragenstruktur für die Rehabilitation als Leitfaden für das Referenzinterview verwenden. Die Anleitung zur Frageformulierung in der evidenzbasierten Praxis kann die überarbeitete Struktur für die Rehabilitation anwenden und Studenten und Klinikern eine Alternative zur traditionellen Patienten-, Interventions-, Vergleichs-, Ergebnis-(PICO)-Struktur bieten. Informationsprodukte, einschließlich bibliografischer Datenbanken und Synopsis-Dienste, können ihre Schnittstellen nach Frageschwerpunkten anpassen und Benutzer auffordern, Suchbegriffe einzugeben, die einem der acht möglichen Elemente in den klinischen Fragen von Rehabilitationstherapeuten entsprechen.;-;http://eprints.rclis.org/23131/;-;- 1fbed2e7f1082a1849994f689887c0b8;de;;;5.2.;;;Digitale Informationskompetenz: Eine Fallstudie in der öffentlichen Bibliothek Oslo Dieses Papier untersucht die digitale Informationskompetenz (DIL) von Fachkräften öffentlicher Bibliotheken in Norwegen und untersucht Wege, ihre Fähigkeiten zu verbessern sowie Hindernisse für Verbesserungen zu identifizieren. Die Fallstudienmethode wurde verwendet, und es wurden halbstrukturierte persönliche Interviews mit zwanzig Fachleuten öffentlicher Bibliotheken durchgeführt. Der Ansatz des Wissensaustauschs war bei den Mitarbeitern sichtbar, aber die langsame Anpassung der Technologie sowie organisatorische, persönliche und technologische Hindernisse behinderten die Entwicklung des DIL. Zur Verbesserung des DIL wurden Online-Schulungsmodule, die Abbildung der Personalkompetenzen, die Ermittlung des Personalbedarfs, weiterführende und maßgeschneiderte Trainingsprogramme, langfristige Strategien und dezentrale Initiativen vorgeschlagen.;-;http://eprints.rclis.org/28858/;-;- f614cc2d9e1713a7bb90748e7a291256;de;;;5.2.;;;Von den Bibliotheksbenutzern des Midnapore College (Autonome) verwendete Techniken zum Abrufen von Informationen: Eine Studie Das Papier zielt darauf ab, die Ergebnisse einer Umfrage zu präsentieren, die durchgeführt wurde, um die von den Lehrern und Schülern der Bibliothek des Midnapore College in Indien verwendeten Informationsbeschaffungstechniken als Ergebnis der in der Bibliothek durchgeführten fragebogenbasierten Umfrage zu ermitteln. Von 100 Proben des verteilten Fragebogens wurden 93 ausgefüllt und zur Analyse eingesandt. Die Studie zeigt, dass eine beträchtliche Anzahl von Benutzern trotz Problemen nach Informationen zum Bibliotheksmaterial über den OPAC sucht. Es wurde festgestellt, dass der Mangel an Grundkenntnissen der Benutzer der Hauptgrund dafür ist, dass nicht alle Funktionen von OPAC genutzt werden, und die anderen Gründe sind unsachgemäße Abfrageformulierungen und die Nichtverwendung von Suchoperatoren beim Surfen im Internet. Es wird vorgeschlagen, dass die Bibliothek qualitativ hochwertige Unterrichtsprogramme organisieren sollte, um das Wissen und die Fähigkeiten der Benutzer zu verbessern.;-;http://eprints.rclis.org/40367/;-;- fc21ec6e8449cd6243852199a1bc31a5;de;;;5.2.;;;Nutzerperspektiven für die Entwicklung von Geodatensammlungen in einer Open-Access-Ära: Der Fall griechischer Bibliotheken Die Nutzung und Verbreitung geographischer Informationen nimmt in den Bereichen Bildung und Forschung kontinuierlich zu, da sie für den Alltag als bedeutsam erachtet werden. Da die größte Herausforderung für Bibliotheken darin besteht, den Nutzern die relevantesten geografischen Informationen bereitzustellen, haben sich viele von ihnen an das aktuelle Informationsklima angepasst. Da Bibliothekare für die Verwaltung von Daten gerüstet sind, werden sie darüber hinaus als diejenigen angesehen, die zur Entwicklung institutioneller Repositorien und zur Entwicklung vieler digitaler Sammlungen beigetragen haben und das Informationsumfeld verändert haben. In den letzten Jahren haben sich die Dinge in Griechenland im Hinblick auf die Verbreitung öffentlicher Geodaten rasant geändert, da sich mehrere öffentliche Sektoren mit der Open-Access-„Kultur“ vertraut machen und Geodaten kostenlos zur Verfügung stellen. Nichtsdestotrotz hat dieser gewaltige Wandel im Bereich der Geodatensammlungen die griechischen akademischen Bibliotheken, die die wichtigsten Informationsanbieter darstellen, unberührt gelassen und die strategischen Agenden ihrer Institutionen abgedeckt. Daher sollten Bibliotheken alle Vorteile der Open-Access-Umgebung nutzen, insbesondere in der heutigen Zeit, in der die Finanzkrise alle Aspekte ihres Betriebs beeinflusst hat. In dieser Studie wollen wir dieses spezifische Fehlen digitaler Geodatensammlungen in griechischen Bibliotheken hervorheben und die folgenden Fragen beantworten: 1) Nutzen GIS-Experten griechische Bibliotheken, um ihren Informations-/Bildungsbedarf zu decken? 2) Wird die Entwicklung von Geodatensammlungen als notwendig erachtet, um ihre Verpflichtungen (Bildung/Forschung/Beruf) zu erfüllen? 3) Ist Open Access in ihrem Alltag von entscheidender Bedeutung (im öffentlichen und privaten Sektor, an Universitäten usw.). Um dieses Ziel zu erreichen, haben wir uns entschieden, die Meinungen der Kunden zu untersuchen, da sie das Kernelement einer Organisation sind, die Dienstleistungen anbietet. Folglich richtet sich unsere Forschung an griechische GIS-Benutzer, die über einen per E-Mail verteilten elektronischen Fragebogen angesprochen wurden. Wir haben 304 ausgefüllte Fragebögen gesammelt, die eine Vielzahl von GIS-Benutzern (Fakultät, Studenten, Forscher usw.) repräsentieren. Da diese Studie die erste ist, die sich auf GIS-Nutzer und deren Meinung zu raumbezogenen Sammlungen in griechischen Bibliotheken konzentriert, halten wir die Zahl der Fragebögen für schlussfolgernd. Nach unseren Ergebnissen zertifiziert die Mehrheit der Nutzer Bibliotheken als die wichtigsten Organisationen für die Sammlung, Organisation und Verteilung von Geoinformationen, obwohl die aktuelle Situation ihren Informationsbedarf zur Förderung von Geodaten und GIS-Diensten nicht erfüllt. Sie betrachten das Fehlen einer Bestandsentwicklungspolitik als das Haupthindernis, das Bibliotheken daran hindert, aktiv an der Entwicklung von Beständen zu Geoinformationen und der Einrichtung von GIS-Diensten zu arbeiten. GIS-Benutzer behaupten auch, dass Bibliotheken die Organisationen sind, die Geodaten mit der Open-Access-Methode nicht nur an die Mitglieder ihrer Organisation liefern sollten, die gleichzeitig die Gesetze zum geistigen Eigentum einhalten. Die Ergebnisse zeigen die Erwartungen der Benutzer an eine ständige Erweiterung der Rolle der Bibliothek und der bereitgestellten Dienstleistungen, um ihren Informationsbedarf zu decken. Das Papier betont potenziell wertvolle Informationen, da es die ersten Ergebnisse der oben genannten Forschung demonstrieren wird. Fragen zu Richtlinien, Open Access, Kooperationen und Strategien werden ausführlich diskutiert.;-;http://eprints.rclis.org/23779/;-;- cf3de98f01cd11f4002563464a080a38;de;;;5.2.;;;Dienste für die Gemeindeentwicklung: eine Studie im Kontext der Zentralbibliothek des Bundesstaates Kerala Öffentliche Bibliothek ist eine menschliche Institution in ihrer Gesamtheit, für die Öffentlichkeit, von der Öffentlichkeit und von der Öffentlichkeit. Sie sind unverzichtbar, um die Alphabetisierung zu verbessern, die Fantasie anzuregen und den persönlichen Horizont zu erweitern. Sie unterstützen die formelle wie auch die informelle Bildung auf allen Ebenen, ermöglichen den Zugang zu einem gemeinsamen kulturellen Erbe und machen im Allgemeinen zu mächtigen Bürgern. Dieses Papier analysiert die Rolle der Zentralbibliothek des Bundesstaates Kerala in der Gesamtentwicklung der Gemeinde.;-;http://eprints.rclis.org/29219/;-;- e3b601467d94b671873928e70a9e4f99;de;;;5.2.;;;Wahrnehmungen der wichtigsten Interessengruppen zu Fischereiinformationsdiensten im Bundesstaat Kerala: Eine Bewertungsstudie Der Fischereisektor nimmt einen entscheidenden Platz in der sozioökonomischen Entwicklung des Bundesstaates Kerala, Indien, ein. Obwohl Kerala sich der höchsten Lebensqualität rühmt, hinkt die Fischergemeinde des Staates weiterhin sozial und wirtschaftlich hinterher. Die Fischerei ist ein Spezialgebiet, in dem die Informationen, eine Zutat und ein Werkzeug zur Problemlösung, ein Schlüsselfaktor für die Transformation des Sektors sind. Die rasche und effektive Nutzung des im Sektor erworbenen Wissens muss in Bildung, Forschung, Entwicklung und Beratung für die nachhaltige Entwicklung des Sektors angewendet werden. Der Staat verfügt über angemessene Informationsressourcen, die jedoch von den wichtigsten Interessengruppen des Sektors aufgrund unzureichender IKT-basierter Servicesysteme, LIS-Professionalität und angemessener Kenntnis der Informationsbedürfnisse der Gemeinschaft nicht optimal genutzt werden. Eine Bewertung der Nutzerwahrnehmung zu Ressourcen, Diensten und Bedürfnissen in der Branche soll die Verbesserung der für ihre Bedürfnisse entscheidenden Dienste und Ressourcen mit sich bringen und die Möglichkeit bieten, die richtige Ressource zur richtigen Zeit auf die richtige Weise bereitzustellen. Ein ausschließlich der Fischerei vorbehaltenes Informationssystem soll die Konsolidierung, Integration und Bereitstellung der Ergebnisse in einem kohärenten, kooperativen, Ressourcenteilungs- und Netzwerkmodus ermöglichen.;-;http://eprints.rclis.org/24490/;-;- 18989370038062090fa69c96a6027d66;de;;;5.2.;;;Informationssuchverhalten von Patienten mit Diabetes mellitus: eine Querschnittsstudie in einer Ambulanz eines Universitätskrankenhauses in Athen, Griechenland Hintergrund Ziel dieser Studie ist es, das Informationsverhalten von Diabetikern, einem relativ unerforschten Bereich der Diabetesversorgung, einschließlich ihres Informationsbedarfs, der verwendeten Ressourcen, der angetroffenen Hindernisse und der Zufriedenheit mit der Diabetes-bezogenen Informationsbeschaffung zu untersuchen. Methoden 203 Patienten (männlich: 110, Typ 2:172), die in den ambulanten Diabetes-Kliniken eines Universitätskrankenhauses in Griechenland nachuntersucht wurden, wurden mit einem validierten Fragebogen untersucht. Ergebnisse Die Patienten identifizierten die Ernährung (61,4%) und diabetische Komplikationen (41,9%) als „die wichtigsten“ für ihren Informationsbedarf und den behandelnden Arzt (94,6%) für die Informationsressourcen. Die Bedeutung des Internets und die Nutzungshäufigkeit wurden als niedrig eingestuft. Haupthindernisse für die Informationssuche waren „Zeitmangel“ und „Kosten“. Die meisten Patienten (71,4 %) gaben an, mit den aktuellen Möglichkeiten der Informationsbeschaffung „eher“ oder „sehr zufrieden“ zu sein. Schlussfolgerungen Die von Diabetikern angegebenen Informationsbedürfnisse und Informationsquellen sowie die Haupthindernisse bei der Informationsbeschaffung könnten möglicherweise wichtige Auswirkungen auf die Gestaltung einer zukünftigen Informationskampagne haben.;-;http://eprints.rclis.org/24642/;-;- 089f8f611f7875528e82fcdadbe9c219;de;;;5.2.;;;Japanische Enzephalitis: Eine szientometrische Analyse von Veröffentlichungen, 2003-12 Der Artikel präsentiert eine Analyse von 2496 Artikeln über Japanische Enzephalitis, wie sie in der Scopus-Datenbank in den Jahren 2003-12 indiziert wurden, mit einer durchschnittlichen jährlichen Wachstumsrate von 7,41 % und einer Zitationswirkung von 5,26 pro Artikel. Die Veröffentlichungen zu Japanischer Enzephalitis kamen aus 79 Ländern, von denen die Top 10 (USA, Indien, China, Japan usw.) im Zeitraum 2003-12 einen Anteil von 88,90 % an weltweiten Veröffentlichungen hatten. Die Ergebnisse der Japanischen Enzephalitis stammten von 419 Organisationen und mehreren Autoren, von denen die Top 20 im Zeitraum 2003-12 28,61 % bzw. 21,67 % beisteuerten. Der größte Publikationsanteil (65,06 %) der Veröffentlichungen zur Japanischen Enzephalitis stammte aus der Medizin, gefolgt von Immunologie und Mikrobiologie (40,71 %), Biochemie, Genetik und Molekularbiologie (18,55 %), Pharmakologie, Toxikologie und Pharmazie (9,33 %) , Veterinärwissenschaften (9,13 %), Neurowissenschaften (6,69 %), Agrar- und Biowissenschaften (5,05 %) und Umweltwissenschaften (1,40 %) im Zeitraum 2003-12. Sechs Länder, nämlich Großbritannien (2,01), USA (1,91), Frankreich (1,27), Thailand (1,19), Australien (1,15) und Südkorea (1,04) haben eine relative Zitationsrate von über 1 erreicht.;-;http://eprints.rclis.org/29150/;-;- 5758701a039763f0af1b931b4871800f;de;;;5.2.;;;Zitationsindizes und (Informations-)Informationsbedürfnisse der Nutzer. Die Erfahrung der biomedizinischen Bibliothekare der Universität Mailand Die Universität Mailand verfügt über eine 40-jährige Zitiererfahrung. Die Bibliothek für Pharmazie (damals Bibliothek des Instituts für Pharmakologische Wissenschaften, Direktor: Prof. Rodolfo Paoletti) erwarb 1979 den Science Citation Index (SCI) (Printed Science Citation Index seit 1979-93, CD-Rom 1994-2000, Journal Zitationsberichte (JCR) 1981-2000). Die Online-Version ist seit 2000 für Web of Science (WOS) und JCR nach dem Abonnement der Universität Mailand verfügbar. Scopus ist seit 2009 verfügbar, nach einer Vereinbarung zwischen Elsevier und der CRUI (Konferenz der italienischen Universitätsrektoren). SCI und JCR (die recht teuer waren) zogen seit ihrer Einführung externe Benutzer an, die sich für die Bewertung von Zitaten und den Impact Factor (IF) interessierten. Umgekehrt war die Verwendung solcher Indizes für die Forschungsbewertung unter Professoren oder Forschern bis zur Einführung der Abilitazione Scientifica Nazionale (ASN, National Scientific Qualification) im Jahr 2012 minimal. Ende 2001 hat die Sistema Bibliotecario di Ateneo (SBA, Universitätsbibliothekssystem) Kurse zur Nutzung von WOS und JCR aktiviert. Scopus wurde 2010 unter der Aufsicht von biomedizinischen Bibliothekaren eingeführt. Anfangs war die Mehrheit der Teilnehmer nur an der klassischen bibliografischen Recherche interessiert, mit Ausnahme einiger Forscher mit Auslandsaufenthalt und einigen Fragen zum IF. Mit der Aktivierung des ASN hat sich das Profil der Teilnehmer radikal verändert. Neben den steigenden Teilnehmerzahlen der Kurse zu WOS, JCR und Scopus hat sich auch deren (Informations-)Informationsbedarf stark verändert. Konkret interessieren sich die meisten Nutzer statt einer bloßen bibliografischen Suche nun für Bibliometrie, dh die Berechnung des H-Index und des zeitgenössischen H-Index, oder das Lösen von Mehrdeutigkeiten mit Autorennamen, das Bereinigen fehlerhafter Daten, das Hinzufügen fehlender Daten und das Erlernen Google Scholar verwenden. Das Durchschnittsalter der Nutzer sinkt, es gibt mehr Doktoranden und Forscher als Professoren und die Teilnehmer beteiligen sich aktiver am Unterricht als zuvor und stellen Fragen zur Zitationsanalyse und ihrem Lebenslauf. Nach einer Analyse von Umfragen zur Teilnehmerzufriedenheit und den am häufigsten von den Teilnehmern gestellten Fragen haben Bibliothekare ihre Programme verfeinert, um den Anteil der Verwendung von Zitationsdatenbanken im Vergleich zu einer traditionellen bibliografischen Suche erheblich zu erhöhen.;-;http://eprints.rclis.org/31847/;-;- 7e528db5e9b484a489989498ad54b31e;de;;;5.2.;;;Buchbesprechung: Was die Gesellschaft von Medien im Zeitalter der digitalen Kommunikation braucht, von Robert G. Picard Medien und Kommunikation verändern sich rasant und ihr Wandel hat weitreichende Auswirkungen auf die Kommunikationsfähigkeit des Einzelnen und darauf, wie die Gesellschaft in sich selbst kommuniziert. Solche Veränderungen sind wichtig, weil Medien Ideen, Meinungen, Informationen, soziale Werte, Erfahrungen und Unterhaltung vermitteln und diese von sozialen, wirtschaftlichen und politischen Kräften in der Gesellschaft beeinflusst werden. Der Wandel der Kommunikation ist besonders wichtig, da Medien und Kommunikationsplattformen zunehmend der primäre Ort sind, an dem zeitgenössische Identität, Kultur, Werte und Normen manifestiert und in Frage gestellt werden.;-;http://eprints.rclis.org/38753/;-;- 969f430fa7b7a4f9388fb00f8163e5de;de;;;5.2.;;;Integration diverser Wissensbasen zur Stärkung lokaler Bauern in Indien Die Verbreitung des landwirtschaftlichen Informationsprozesses an die Bauern von Baruipur, einem Gemeindeentwicklungsblock in Westbengalen, Indien, wird untersucht. Es wurden halbstrukturierte Interviews durchgeführt, um qualitative und quantitative Daten von 129 Landwirten und zwei Regierungsbeamten zu sammeln. Die Studie zeigt, dass Landwirte unter dem breiten Angebot an Informationsquellen und Lernformen vor allem lokales Wissen schätzen, da es überwiegend erfahrungsorientiert, praxisnah und informell zwischen den Landwirten geteilt oder weitergegeben werden kann. Aber informelles lokales Wissen wird nach und nach von fremden Faktoren beeinflusst, wodurch ein alternativer Weg entsteht, der dem Informationsfluss bis zur Basisebene entgegenwirkt. Die Beschränkung echter und genauer landwirtschaftlicher Informationen behinderte die Ermächtigung der Landwirte auf der Mikroebene, die eine überlegene Integration verschiedener Wissenssysteme mit informellem lokalem Wissen erfordert. Hier identifiziert die Studie einen praktikableren Ansatz für die Wissensintegration, der darauf abzielt, lokale Präferenzen, Dynamik und internen Zusammenhalt zwischen Teilnehmern aus verschiedenen Bereichen sicherzustellen. Darüber hinaus stellt dieses Papier ein auf einem partizipativen Ansatz basierendes informelles Kommunikationsmodell vor, das zwei Wege der Kommunikation für einen besseren und effektiven Fluss von bedarfsorientierten, wertschöpfenden und genauen Informationen in Richtung einer ganzheitlichen Stärkung der Landwirte auf der Ebene erleichtert.;-;http://eprints.rclis.org/33788/;-;- 698da9a1d92906749aa1cda24a64a285;de;;;5.2.;;;Regression in drahtlosen Sensornetzwerken In WSN besteht der Hauptzweck der Regression darin, die Knoten durch Vorhersage auf der Grundlage von Messwerten zu lokalisieren. Dieser Artikel erklärt das Konzept der Regression gemäß der WSN-Perspektive und auf der Grundlage dieser Konzepte entsteht das Clustering von Knoten durch multilineare Regression durch die Kombination der Ideen zum Auffinden der Knoten durch Regression und wie Knotenparameter in multilinearen Regressionsformeln verwendet werden.;-;http://eprints.rclis.org/33537/;-;- f127ceef65260510accddc66a91ab606;de;;;5.2.;;;Vorteile von Videos auf YouTube für Studenten der Ingenieurwissenschaften und Technologie in Indien Das Papier versucht, die Zwecke und Präferenzen zu ermitteln, für die YouTube-Videos von indischen Ingenieur- und Technologiestudenten im Grundstudium verwendet werden. Die Ergebnisse der Studie zeigten, dass YouTube-Videos als ergänzende Quelle zur Unterstützung des Lernens, der Entwicklung des kulturellen Verständnisses und der Erzielung von Verhaltensvorteilen verwendet werden. Die Datenstichprobe besteht aus Studenten der Ingenieur- und Technologiewissenschaften auf dem gesamten indischen Subkontinent. Über 95,0 Prozent der Befragten waren sich der Rolle von YouTube-Videos in ihrem Bildungs-, Kultur- und Moralleben bewusst. 98,53 Prozent der Befragten haben „gelernt, die guten Dinge in anderen Kulturen zu respektieren“. 57,25 Prozent männliche und 40,74 Prozent weibliche Befragte haben den kulturellen Unterschied besser verstanden und schätzen ihn. Dies hat 97,84 Prozent der Befragten geholfen, „gute Dinge in anderen Kulturen zu erkennen“. Die Studie legt nahe, dass die Nutzung von YouTube auf wissenschaftliche Inhalte ausgerichtet werden muss, um das Engagement der Schüler beim Lernen zu verbessern und ihr Wissen zu bereichern.;-;http://eprints.rclis.org/41910/;-;- c448eb88f0f857fc4eb2fd4257dc054a;de;;;5.2.;;;Der Digital Repository Service des Nationalen Dokumentationszentrums in Griechenland: ein Modell für das Datenmanagement und die Repräsentation der Digital Humanities Digital Humanities liegen an der Schnittstelle zwischen Technologie und geisteswissenschaftlicher Forschung. Zeitgenössische technologische Fortschritte eröffnen bedeutende neue Wege für geisteswissenschaftliche Studien und neue Wege, die Ergebnisse geisteswissenschaftlicher Bemühungen für die Gemeinschaften zu nutzen, die davon profitieren, seien es Praxisgemeinschaften, das Bildungssystem, Bürgerwissenschaftler und die Gesellschaft insgesamt. Der folgende Artikel beschreibt den Entwicklungszyklus eines neuen Cloud-Dienstes, den das griechische Nationale Dokumentationszentrum (EKT) den inländischen Kultur- und Wissenschaftsorganisationen anbietet. Das Nationale Dokumentationszentrum (EKT) ist einer der wichtigsten Akteure im Bereich digitaler Inhalte in Griechenland und erleichtert die geisteswissenschaftliche Forschung durch robuste E-Infrastrukturen und erweitert den Zugang zu digitalen Sammlungen. Der Artikel beschreibt die Entwicklung des Digital Repository Service von der Planung bis zur Bereitstellung, beschreibt die verschiedenen Komponenten des Dienstes und befasst sich mit der Interaktion mit der Benutzergemeinschaft, um ihre Dokumentationsanforderungen und -präferenzen zu erfüllen. Als Teil der Gestaltung des Dienstes und der Arbeitsabläufe wurde eine Umfrage in den GLAM-Sektororganisationen in Griechenland durchgeführt, um die Benutzerbedürfnisse und das Verständnis für neue und aufkommende Technologien zu bewerten sowie das mögliche Volumen digitaler Inhalte zu erkennen. Es fand eine umfangreiche Literatur- und ähnliche Trendüberprüfung statt, die in die Entwicklung der Dokumentationsstrategie für die Repositories einfließt. Das begleitende Servicepaket wurde entwickelt (eLearning, eKnowledgeBase) und das Projekt zunächst mit einigen Pilotprojekten ausgerollt, dann gelang es, 28 Repositories mit reichhaltigem, abwechslungsreichem Inhalt zu erstellen. Der Repository Service wurde 2012-2015 durch nationale und EU-Fördermittel entwickelt und soll Wissensproduzenten (in den Bereichen Kultur, Bildung, Wissenschaft und Forschung) dabei unterstützen, ihre Inhalte auf Open-Access-Basis zu organisieren, zu dokumentieren und zu verbreiten. Übergeordnetes Ziel des Projekts war es, hochwertige wissenschaftliche und kulturelle Inhalte zu aggregieren und über Suchportale und Aggregatoren wie Europeana zu verbreiten.;-;http://eprints.rclis.org/38723/;-;- 5baf7481430a8f59feb109794d657b06;de;;;5.2.;;;eHealth-Kompetenz junger Jugendlicher: Glaubwürdigkeit und Qualität von Gesundheitsinformationen durch Smartphones in Indien Die Einführung von Smartphones hat die Art und Weise, wie späte Jugendliche (im Alter von 18-21 Jahren) auf das Internet zugreifen und es nutzen, revolutioniert. Riesige Fülle an Gesundheitsinformationen sind heute nur noch einen Fingertipp oder eine Wischbewegung entfernt, da Smartphones und Internetverbindungen immer zugänglicher werden. Der Bedarf an eHealth-Kompetenz bei späten Jugendlichen gewinnt jetzt an Bedeutung, da sie eine effektive Nutzung von Gesundheitsinformationen gewährleistet. Diese Studie führte eine Umfrage unter 427 verstorbenen Jugendlichen durch, um ihre eHealth-Kenntnisse, ihre Wahrnehmung der Qualität von Online-Gesundheitsinformationen, ihr Vertrauen und ihre Glaubwürdigkeit in Online-Gesundheit zu bewerten und zu überprüfen, ob der Erwerb von Gesundheitsinformationen über das Online-Medium zu einem Änderung ihrer Verhaltensabsicht. Die Ergebnisse zeigten, dass die meisten der verstorbenen Jugendlichen es vorzogen, mehrere Websites für ihre Gesundheitsinformationen anzuzeigen. Gesundheitsinformationen in Form von Text und Bildern wurden gegenüber Videoinhalten bevorzugt, und am meisten bevorzugte der Zugriff auf Online-Gesundheitsinformationen in ihrer Muttersprache. Krebs und Fettleibigkeit sind die gemeinsamen Gesundheitsprobleme, die für beide Geschlechter von Interesse sind. Mobile Anwendungen (Apps) waren trotz der hohen Smartphone-Nutzung die am wenigsten bevorzugte Methode, um auf Gesundheitsinformationen zuzugreifen. eHealth-Kompetenz und Glaubwürdigkeit prognostizierten die Verhaltensabsicht positiv, während die Qualität der Gesundheitsinformationen keine Verhaltensabsicht vorhersagte.;-;http://eprints.rclis.org/40066/;-;- c9b24c0d1ad89e0d3785d746224dd15b;de;;;5.2.;;; Informationsanalyse in Theorie und Praxis am Beispiel eines genossenschaftlich organisierten Finanzdienstleisters Das Management von Informationen und der maßgeschneiderte Einsatz von Informationstechnik spielen eine zentrale Rolle in wissensbasierten Unternehmen. Die Planung eines Informationssystems ist ein Aspekt im Informationsmanagement, der gewöhnlich viel Zeit und hohe Kosten mit sich bringt. Um eine unnötige Verschwendung von Ressourcen zu vermeiden, ist es wichtig, die Bedürfnisse der Benutzer zu kennen. Durch eine Informationsanalyse, die sich unter anderem mit den Informationsbedürfnissen oder technisch unterstützten Informations- und Kommunikationsprozessen bzw. deren Gestaltung beschäftigt, können diese Bedarfe erhoben werden. Das Ziel dieser Arbeit ist es herauszufinden, welche Methoden zur Erhebung von Nutzerverhalten, Zufriedenheit und Bedarf es in Bezug auf Informationssysteme gibt. Zusätzlich soll herausgefunden werden, welche Modelle sich davon besonders für genossenschaftlich bzw. dezentral organisierte Unternehmen eignen. Zuerst werden Themen, die heutige Informationsgesellschaft und Methoden der Informationsanalyse betreffend, mit Hilfe recherchierter Literatur näher beleuchtet. Danach wird eine Informationsanalyse für einen Finanzdienstleister, dessen Besonderheiten eine genossenschaftliche und dezentrale Organisation sind, entwickelt und durchgeführt. Die Analyse besteht aus einem standardisierten Fragebogen und leitfadengestützten Interviews. Beide erheben das Nutzerverhalten, die Zufriedenheit mit den zur Verfügung stehenden Informationssystemen und den Bedarf für ein neues Informationssystem. Die Ergebnisse der Arbeit zeigen, dass es unterschiedliche Anwendungs- bzw. Teilgebiete und Methoden der Informationsanalyse gibt. Letztendlich war eine Kombination von zwei Methoden besonders geeignet für den als Fallbeispiel herangezogenen Finanzdienstleister. Die Resultate der empirischen Untersuchung deuten darauf hin, dass der Bedarf für ein neues System, das die Informationsflut reduziert und die Organisation von Informationen verbessert, tendenziell eher von größeren Regionalbanken geäußert wird. Kleinere Regionalbanken scheinen weniger von der Informationsflut betroffen zu sein und sind deshalb mit dem bisherigen Informationsmanagement weitestgehend zufrieden. Aufbauend auf diese Ergebnisse werden Empfehlungen für ein neues bzw. verbessertes Informationssystem abgegeben und zusätzlich Verbesserungspotenzial der verwendeten Methodik identifiziert.;-;http://eprints.rclis.org/12575/;-;- 5b8b43f6fd75577a234f1af77efc6865;de;;;5.2.;;; Open Source, Open Access, Open Review, Open Data. Initiativen zu mehr Offenheit in der digitalen Welt Eine kurze Einführung in Initiativen für offenen Informationszugang anhand der Beispiele wissenschaftlicher Information, Verwaltungsinformationen, Geo-Daten und Software.;-;http://eprints.rclis.org/17427/;-;- b848495d9b1d8d6b6aa6f743af4def0a;de;;;5.2.;;; Neue Wege in der Bestandsergänzung an wissenschaftlichen Bibliotheken Die vorliegende Master Thesis untersucht, wie neue Technologien im Bereich der Datenverwaltung für eine benutzerorientierte Bestandsergänzung in wissenschaftlichen Bibliotheken verwendet werden können. Die Benutzerorientierung bewirkt eine teilweise Auslagerung der Literaturauswahl an die BenutzerInnen, wie im Fall von patron-driven acquisition (PDA) für digitale Inhalte, wo der Kauf durch die mehrmalige Nutzung des Titels herbeigeführt wird. Andere Verfahren wie die Analyse von Fernleihbestellungen oder Transaktionsprotokollen liefern objektive Hinweise auf die Literaturbedürfnisse der BenutzerInnen. Auch Null-Treffer-Suchen im OPAC (Online public access catalog) können Bestandslücken aufdecken, vor allem wenn nach einem bekannten Titel, also einem known item, gesucht wird. Wolfgang Köhle und Günter Sauter-Sternik erstellten 2010 für die Vorarlberger Landesbibliothek ein Programm namens NUTR!S (Null-Treffer-Informations-Service), das die Einträge der Null-Treffer-Listen mit den Suchfeldern anderer Bibliothekskataloge verlinkt. So kann man überprüfen, ob die erfolglosen Sucheinträge in anderen Katalogen Treffer erzielen, wodurch sich meist auf einen bestimmten Titel schließen lässt, der im eigenen Bibliotheksbestand nicht vorhanden ist. Ich gehe der Frage nach, ob und in welchem Maß NUTR!S zur Bestandsergänzung an der Universitäts- und Landesbibliothek Tirol eingesetzt werden kann. Dafür habe ich anhand von originalen Null-Treffer-Listen der ULB Tirol die Funktionsweise des Programms analysiert. Erste Ergebnisse ließen auf die Notwendigkeit von Modifikationen schließen, um die Datenmenge ohne Informationsverluste zu reduzieren. Darauf basierend habe ich Empfehlungen zur Anpassung von NUTR!S formuliert und sie mit Hilfe eines Testlaufes mit einem nach meinen Vorgaben modifizierten Programm überprüft. Es zeigte sich, dass die empfohlenen Veränderungen NUTR!S auch in größeren Bibliotheken effektiv für die Bestandsergänzung nutzbar machen.;-;http://eprints.rclis.org/17428/;-;- dd32c6052e3eadc1ccdf66b8f85863ef;de;;;5.2.;;; Evaluationsverfahren von Informationskompetenz-Veranstaltungen Die Arbeit befasst sich mit Informationskompetenz-Veranstaltungen an Hochschulbibliotheken als Bezugsrahmen. Grundlagen von Evaluationsmethoden für Schulungen als Präsenzveranstaltungen werden vorgestellt und verglichen, dabei stehen zwei Verfahren im Fokus: Befragungen und Lernkontrollen. Nach ausführlicher Erläuterung beider Verfahren zeigt ein Vergleich, dass beide Methoden ähnlich aufwändig in den zeitlichen und personellen Ressourcen sind und sich vor allem in ihrer Zielsetzung unterscheiden. Während Befragungen die Zufriedenheit der Studierenden mit den Schulungen als ein wichtiges Qualitätsmerkmal ermitteln, können mit Lernkontrollen Aussagen über den Kompetenzzuwachs der Teilnehmer gemacht werden. Allerdings bleiben etwaige Vorkenntnisse dabei unberücksichtigt und auch das realistische Rechercheverhalten und damit die langfristige Wirkung von Schulungen werden nicht abgebildet. Beide Methoden können sich aber sinnvoll ergänzen. Befragungen und Lernkontrollen lassen sich, wenn sie gründlich methodisch vorbereitet, durchgeführt und ausgewertet werden sollen, nur als Online-Verfahren mit vertretbarem Aufwand verwirklichen und dadurch als effizient bezeichnen. Besonders die durch Lernplattformen angebotenen Tools sind dafür geeignet. Grundsätzlich sind fokussierte Verfahren mit klar abgegrenzter Fragestellung einer flächendeckenden dauerhaften, aber dadurch eventuell auch mechanisch abgewickelten Evaluation vorzuziehen. Bei der vorhandenen Vielfalt des Kursangebots von Hochschulbibliotheken ist ein einheitliches Evaluationsverfahren nicht sinnvoll. Eine Beispielanwendung eines Evaluationsverfahrens im bibliothekarischen Alltag einer Fachhochschulbibliothek zeigt ganz konkret den Ablauf und die Ergebnisse eines solchen Vorhabens auf. Die für Evaluierungsmaßnahmen geltenden Standards, insbesondere Durchführbarkeit und Nützlichkeit, gehen als bewertende Kriterien in eine kritische Beurteilung des Verfahrens mit ein.;-;http://eprints.rclis.org/16350/;-;- 855b479281cb2eaa9b40d466146b8ac9;de;;;5.2.;;; Creating Needs-Based Metadata and Research Data Management Services: Exploring the Requirements of Scientists Entwicklung bedarfsgerechter Services für Metadaten und Forschungsdatenmanagement: Bedarfsanalyse in den Naturwissenschaften (translated title). Zielsetzung — Bei der Entwicklung von bedarfsgerechten Services im Bereich eScience sind Untersuchungen der Bedürfnisse und Anforderungen der Zielgruppen von besonderer Relevanz. Ziel dieser Studie war, den Bedarf von Forschenden in den Naturwissenschaften an Metadaten für Forschungsdaten zu ermitteln. Methoden — Angelehnt an die Grounded Theory wurden acht Leitfadeninterviews mit Naturwissenschaftlern von der Universität Wien und der Medizinischen Universität Wien durchgeführt. Die Interviews fanden von April bis Mai 2019 im Rahmen des vom österreichischen Bundesministerium für Bildung, Wissenschaft und Forschung geförderten Projekts e-Infrastrukturen Österreich Plus statt. Ergebnisse — Die Ergebnisse demonstrierten ein mangelndes Verständnis des Begriffes Metadaten unter Forschenden. Es konnten aber mehrere Beispiele der Beschreibung von Daten in der Praxis identifiziert, sowie sechs Bereiche an Bedürfnissen der Forschenden herausgearbeitet werden. Diese zeigten die Notwendigkeit, effiziente Lösungen für Forschungsdatenmanagement auf Deutsch und Englisch zu konzipieren, den Bedarf an technischer Infrastruktur und den Wunsch nach dem Einsatz von Data Stewards, die Expertise aus einer relevanten Disziplin mitbringen. Ferner sollten Dienstleister bei der Entwicklung neuer Formen der Trainings- und Beratungsangebote interdisziplinäre Unterschiede berücksichtigen. Schlussfolgerungen — Während die Aussagen der Befragten die verschiedenen Arten der Datenbeschreibung illustrierten, wiesen die Interviews auch auf ein mangelndes Verständnis des Begriffs Metadaten hin. Zusammen mit den sechs Bereichen an Bedürfnissen und Anforderungen, ergibt sich aus den Interviews ein weiterer Handlungsbedarf für Bibliotheken und andere Serviceeinrichtungen, um die Entwicklung im Bereich Forschungsdatenmanagement voranzutreiben. Schlagwörter: Österreich, Forschungsdaten, Forschungsdatenmanagement, Metadaten, Bedarfserhebung, Naturwissenschaften;-;http://eprints.rclis.org/41015/;-;- e7e14d02598e5b10052c64553259c68a;de;;;5.2.;;; Informationskompetenz in Unternehmen nformationsgesellschaft und Wissenswirtschaft entwickeln sich mit rasanter Geschwindigkeit. Unternehmen erkennen inzwischen die Notwendigkeit, Macht und Wert von Informationen in den Griff zu bekommen. Die Explosion in der Anzahl von Informationsressourcen und Recherche-Tools, die einem Mitarbeiter in einem Unternehmen zur Verfügung stehen bedeuten, dass die meisten Mitarbeiter an ihren Arbeitsplätzen Ressourcen haben, für die vor etwa 15 Jahren eine eigens hierfür eingerichtete Informationsabteilung zuständig gewesen wäre. Der DGI-Arbeitskreis „Informationskompetenz in Unternehmen“ (IK-U) will die Wichtigkeit der Informationskompetenz sowohl als Anlagegut des Einzelnen (individual asset) wie auch als Anlagegut des Unternehmens (corporate asset) hervorheben. Informationskompetenz ist eine Schlüsselkompetenz für Mitarbeiter und Organisationen und sie ist Teil der Grundlage, auf der die Produktivität eines Unternehmens aufbauen kann. Was aber bedeutet Informationskompetenz in Unternehmen? Welchen Einfluss hat sie auf die innerbetriebliche Produktivität? Welche Rolle kommt hierbei dem einzelnen Mitarbeiter zu? Diese Fragen möchte der Vortrag beleuchten und mit einem Überblick an die Anforderungen der Unternehmen an die Informationskompetenz des akademischen Nachwuchses enden.;-;http://eprints.rclis.org/19559/;-;- 8b93cd8ea4b124ce871da1abdb555a92;de;;;7.1.;;;Die Verbreitung von OSS in italienischen Bibliotheken: der Fall Koha von CILEA Koha ist ein Open-Source Integrated Library System (ILS), das in Neuseeland entwickelt und im Januar 2000 zum ersten Mal für den Horowhenua Library Trust eingesetzt wurde. Koha ist eine vollwertige Software mit grundlegenden und erweiterten Funktionen. Koha hat auch eine starke und breite Gemeinschaft von Bibliothekaren und Entwicklern. Es eignet sich insbesondere für alle Institutionen, die ihre Bibliotheken mit einem System automatisieren möchten, das eine vollständige Kontrolle über die Daten und die Software selbst ermöglicht. CILEA arbeitete daran, Koha an italienische Bibliotheken anzupassen und ist jetzt Teil der Community.;-;http://eprints.rclis.org/15340/;-;- 8635bd172e3420fd76e2c7943115c2b5;de;;;7.1.;;;Aufbau einer nationalen Datenbank zum Bibliothekswesen und zur Informationswissenschaft. Der Fall von E-VIVA, der hellenischen Volltextdatenbank Der Beitrag stellt die von der Bibliothek der Universität von Zypern entwickelte hellenische Volltextdatenbank E-VIVA (Ellinike Vivliothikonomike Vase) vor. Die Ziele von E-VIVA sind die Identifizierung, Sammlung, Organisation, Digitalisierung und Förderung der in Griechenland und Zypern durchgeführten Forschung in den wissenschaftlichen Bereichen Archiv-, Bibliotheks- und Informationswissenschaften. Es werden Daten über die Reichweite, den Inhalt, das Format und die Umgebung der Datenbank sowie die Schritte, die bei der Entwicklung verfolgt wurden, bereitgestellt. Auch der rechtliche Rahmen im Zusammenhang mit den aufgeworfenen Urheberrechtsfragen wird diskutiert. Weiterhin wird ein Vergleich zwischen E-VIVA, eLIS, LISA und LISTA versucht. Schließlich werden die nächsten Pläne der Bibliothek der Universität von Zypern für das Projekt vorgestellt.;-;http://eprints.rclis.org/20545/;-;- a2560cc03389120cc491eb0192268c9c;de;;;7.1.;;;Informationsmanagement und -vermittlung in einem auf Sozialwissenschaften ausgerichteten digitalen Auskunftsdienst = Gestão e mediação da informação em um serviço de referência digital no campo das Ciências Sociais Dieser Beitrag untersucht den aktuellen Zusammenhang zwischen Informationsmanagement und Vermittlung sowie dem digitalen Auskunftsdienst anhand einer Fallstudie, die in einer wissenschaftlichen Bibliothek stattfand. Das Konzept der Informationsvermittlung wird hier analysiert, da eine konzeptionelle Untersuchung Elemente liefert, die den Menschen helfen, die betreffende Dienstleistung zu verstehen und zu bewerten. Der Informationsprofi spielt eine sehr wichtige Rolle bei der oben genannten Vermittlung, die direkt oder indirekt, bewusst oder unbewusst, allein oder im Plural, einzeln oder in einer Gruppe erfolgen kann – auf alle Arten, die der Mediator die Informationsbeschaffung erleichtert das Bedürfnis eines Benutzers nach allen Arten von Wissen ganz oder teilweise zu befriedigen. Inzwischen nähern wir uns hier dem Informationsmanagement aus einem Bereich, der eine Beschreibung der durchgeführten Aktivitäten in Bezug auf Richtlinien und Verfahren aufzeigt, die bis zur Servicebewertung umgesetzt werden, indem ein Kriterium für diesen Punkt vorgeschlagen wird. Schließlich skizzieren wir einige Maßnahmen, die in einer langfristigen Perspektive umgesetzt werden sollen, deren Ziel es ist, diese Hilfe unter Berücksichtigung des menschlichen Faktors kontinuierlich zu verbessern.;-;http://eprints.rclis.org/19795/;-;- a24739e825c8ebe8c47893cd26673ada;de;;;7.1.;;;Slowenisches Fachtextkorpus der Bibliotheks- und Informationswissenschaft – Ein fortschrittliches lexikographisches Werkzeug für die bibliotheksterminologische Recherche Zur Unterstützung der Forschung auf dem Gebiet der bibliotheks- und informationswissenschaftlichen Terminologie und der Wörterbuchkonstruktion in slowenischer Sprache wurde ein spezialisiertes Textkorpus entworfen und aufgebaut. Der Korpus umfasst 3,6 Millionen Wörter, die aus 625 slowenischen technischen und wissenschaftlichen Fachtexten extrahiert wurden. Es unterstützt eine Vielzahl spezialisierter Suchmethoden, die Anzeige von Suchergebnissen und deren statistische Berechnung. Die webbasierte Anwendung ist öffentlich zugänglich.;-;http://eprints.rclis.org/20502/;-;- b49f00ded84b98d6445cfc88cbb155a2;de;;;7.1.;;;Die Rolle von Vokabularen bei der Schätzung des CO2-Fußabdrucks von Lebensmittelrezepturen mithilfe von Linked Open Data Die Standardbegriffe mit bekannter Bedeutung werden oft als kontrolliertes Vokabular oder leichte Ontologien bezeichnet. Diese spielen in der Linked Open Data Cloud eine entscheidende Rolle. Diese Vokabulare erfassen einen zentralen Kontextbegriff für eine bestimmte Domäne in der Wissenswolke. Die zusätzlichen Informationen werden zusammen mit diesen kontrollierten Vokabularien verwendet. Dieses kurze Papier zeigt die Rolle dieser Vokabulare bei der Berechnung des CO2-Fußabdrucks für Lebensmittelrezepte unter Verwendung von Linked Open Data.;-;http://eprints.rclis.org/20265/;-;- 57956fa26efc0581b7bdf7ace6239a7b;de;;;7.1.;;;Modell zur Demokratisierung der in MOOCs gehosteten Inhalte Massive Online Open Courses (MOOCs) haben sich als neues Bildungsinstrument in der Hochschulbildung entwickelt, das auf Unentgeltlichkeit, Massivität und Allgegenwart basiert. Im Wesentlichen schlagen sie eine Evolution der Open-Learning-Bewegung vor, die auf den Prinzipien der Wiederverwendung, Überarbeitung, Neumischung und Neuverteilung von Open Educational Resources (OER) basiert. Im Gegensatz zu den Inhalten von OERs sind Inhalte, die in MOOCs enthalten sind, jedoch in der Regel Paywall und urheberrechtlich geschützt, was ihre Wiederverwendung einschränkt. Philosophisch gesehen besteht das Hauptproblem bei MOOCs in der Unzugänglichkeit und Unanpassbarkeit ihrer Ressourcen, die den demokratischen offenen Zugang zu Wissen herausfordern. Eine Reihe von Autoren und Organisationen halten es für eine ultimative Notwendigkeit, MOOC-Ressourcen zu erschließen. Daher werden in diesem Beitrag drei Strategien zur Erschließung von MOOC-Inhalten vorgeschlagen: die Materialien in Repositorien von OER (ROER) als einzelne Objekte zu hinterlegen, sie in ROER in Datenpaketen als Lerneinheiten zu archivieren oder in OpenCourseWare (OCW) als autodidaktische Kurse.;-;http://eprints.rclis.org/24135/;-;- c8c3e8c6a4551e22555ae8a062898736;de;;;7.1.;;;Kenntnisse und Fähigkeiten, die von akademischen Bibliothekaren im digitalen Zeitalter benötigt werden Mit der Erfindung der Informationskommunikationstechnologie verwenden Bibliotheken nun verschiedene Arten von Technologien, um Benutzern Dienste bereitzustellen. In dieser sich ändernden Umgebung ändern sich die Bedürfnisse der Bibliotheksbenutzer. Um eine sinnvolle Rolle bei der Unterstützung von Lehre, Lernen und Forschung spielen zu können, müssen Bibliothekare besondere Kenntnisse und Fähigkeiten für Informationsdienste im digitalen Zeitalter entwickeln. Diese Studie untersucht anhand von veröffentlichter Literatur die Fähigkeiten, die Bibliothekarinnen und Bibliothekare im digitalen Zeitalter benötigen.;-;http://eprints.rclis.org/32355/;-;- d72235024a004a7e4e0058a99d780a13;de;;;7.1.;;;Verhaltensüberlegungen bei der Entwicklung von Web-Informationssystemen: User-Centered Design Agenda Der aktuelle Beitrag untersucht die Gestaltung eines Web-Informations-Retrieval-Systems bezüglich des Suchverhaltens von Benutzern im realen und alltäglichen Leben. Die Gestaltung eines Informationssystems, das eng mit dem menschlichen Verhalten verknüpft ist, ist für Anbieter und Endnutzer gleichermaßen wichtig. Aus informationswissenschaftlicher Sicht wurden vier Ansätze zur Gestaltung von Information-Retrieval-Systemen als systemzentrierte, benutzerzentrierte, interaktive und kognitive Designs identifiziert. Allerdings mangelt es bisher an Forschung zu möglichen Zusammenhängen zwischen Informationsverhalten und Informationssystemdesign. Traditionell nutzten Designer beim Entwerfen von Informationssystemen menschliche Faktoren, aber nicht unbedingt menschliches Verhalten. Daher gibt es nur wenige Systeme, die von Informatikern entwickelt wurden, die darauf abzielen, das menschliche Informationsverhalten zu berücksichtigen oder zu unterstützen. Es gibt jetzt neue Techniken und Methoden wie Contextual Design und Participatory Design, um diese Lücke zu schließen. Die Implementierung eines verhaltensorientierten Ansatzes zur Gestaltung von Informationssystemen ist im Hinblick auf moderne Informationstechnologien wie Social Software, Web 2.0, Mobiltelefone und Internet-Websites von Interesse und Bedeutung. Es werden neue Methoden und Forschungsrahmen vorgeschlagen, die den Standort, die Aufmerksamkeit und das Verhalten der Benutzer zu ihren Hauptproblemen machen.;-;http://eprints.rclis.org/39764/;-;- d59175228780ed32701ada707e1a72b8;de;;;7.1.;;;Implementierung eines Klassifizierungsservers zur Unterstützung der Metadatenorganisation für Langzeitarchivierungssysteme In diesem Papier beschreiben wir die Implementierung eines Klassifizierungsservers, der bei der Metadatenorganisation für ein langfristiges Reservierungssystem für digitale Objekte hilft. Nach einer kurzen Einführung in Klassifikationen und Wissensorganisation werden die Anforderungen an das zu implementierende System zusammengefasst. Einige von uns evaluierte Managementtools des Simple Knowledge Organization System (SKOS) werden kurz vorgestellt. Dazu gehört Skosmos, die Lösung, die wir für die Implementierung ausgewählt haben. Skosmos ist ein quelloffener, webbasierter SKOS-Browser basierend auf dem Jena Fuseki SPARQL-Server. Wir stellen die wichtigsten Schritte der Installation der verwendeten Tools und einige potenzielle Probleme mit den verwendeten Klassifizierungen sowie mögliche Lösungen vor.;-;http://eprints.rclis.org/31929/;-;- ab414adce5be56af567b299ccffdb5fa;de;;;7.1.;;;Bibliothek 2.0: Eine Implikation für innovative Bibliotheksdienste Dieser Artikel postuliert eine Definition und Theorie für Library 2.0. Es deutet darauf hin, dass Bibliotheken mit der weit verbreiteten Akzeptanz von Library 2.0-Technologien, der Verbreitung von Handheld-Geräten und dem Aufkommen von Library 2.0 mit den sich ändernden Nutzungsmustern und Erwartungen ihrer unterschiedlichen Kundschaft fertig werden müssen. Wie werden Bibliothekare ausgebildet und auf die Bibliotheken des neuen Zeitalters vorbereitet? Neuere Überlegungen beschreiben das sich verändernde Web als Bibliothek 2.0. Es wird erhebliche Auswirkungen auf Bibliotheken haben und erkennt an, dass diese Auswirkungen zwar der Geschichte und Mission der Bibliotheken sehr nahe kommen, aber dennoch ein neues Paradigma für das Bibliothekswesen erfordern. Bibliotheken verwenden zunehmend Library 2.0-Technologien, um Dienste zu entwickeln, die es ihnen ermöglichen, Benutzer im virtuellen Raum zu erreichen, die sie zuvor nicht erreichen konnten. Dies ermöglicht es Bibliothekaren, einen Teil von Benutzern in der Bevölkerung anzusprechen, die die Bibliothek niemals besuchen werden, um ihre Dienste zu nutzen, egal wie sehr sie sich bemühen. Ein Großteil dieser Bevölkerung gehört zu den Generationen, die mit dem Internet aufwachsen und werden oft als Digital Natives bezeichnet. Dieses Dokument beleuchtet die Definition von Library 2.0, Funktionen und Techniken von Library 2.0, Eigenschaften von Library 2.0, Vorteile von Library 2.0 und nützliche Tools von Library 2.0.;-;http://eprints.rclis.org/39407/;-;- 0c90be0ef818190bd87f7a408e39e5ca;de;;;7.1.;;;Greifen Sie auf Tools und Dienste für Open Access zu: DOAR, ROAR, SHERPA-RoMEO, SPARC UND DOAJ Der Beitrag stellt Konzept und Hintergrund von Open Access (OA) sowie dessen Vorteile vor. Bibliothekarinnen und Bibliothekare als Information Gatekeeper sind angehalten, sich in der Lobbyarbeit von Open Access zu registrieren, um die wissenschaftliche Kommunikation zu fördern und auch beim Aufbau institutioneller Repositorien mitzuwirken. Diskutiert werden Selbstarchivierung (Green Access) und Open Access Journals (Gold Access), wie sie von der Budapest Open Access Initiative (BOAI) vorgeschlagen werden. Beschreibt ausgewählte Zugangstools und Dienste zu Open Access, um das Thema zu erläutern. Beschreibt abschließend den Einfluss der Open-Access-Bewegung unter Informationsdienstmitarbeitern in Nigeria und die Sensibilisierung von Wissenschaftlern für Selbstarchivierung und Open-Access-Zeitschriften.;-;http://eprints.rclis.org/32498/;-;- 4fd0118d386e2b1fe5ccde1d0c9e1060;de;;;7.1.;;;Bibliothekswesen für kritische Systeme In diesem Kapitel führen wir eine Metaanalyse durch und synthetisieren bestehende kritische Bibliotheks- und Informationsstudien zu einem zusammenhängenden Ansatz für das Bibliothekswesen kritischer Systeme, der von verschiedenen Perspektiven und ethischen Gesichtspunkten geprägt ist. Wir möchten einen kritisch informierten, reflektierenden und reflexiven Zugang zur Systemarbeit mit besonderem Fokus auf die Anwendung von Informationstechnologien in der Bibliotheksarbeit ermöglichen und erleichtern. Kritische Systembibliotheken beinhalten zentral eine kritische Reflexion, die es Systemarbeitern ermöglicht, die zugrunde liegenden Werte, Annahmen und Machtverhältnisse zu hinterfragen, die in ihrer täglichen Praxis und den Institutionen, in denen sie arbeiten, verwurzelt sind: Dies ist sowohl für die theoretische Hinterfragung als auch für die Entwicklung von Strategien zur Bekämpfung von Machtungleichgewichten unerlässlich.;-;http://eprints.rclis.org/32467/;-;- bfa34089bbae7dedcd36921bdca66bbc;de;;;7.1.;;;Hin zu einem Modell der Informationsstreuung: Implikationen für Suche und Design Jüngste Studien legen nahe, dass Benutzer aufgrund der komplexen und verzerrten Verteilung von Fakten auf relevanten Webseiten häufig unvollständige Gesundheitsinformationen abrufen. Um die Ursachen für solche schiefen Verteilungen zu verstehen, präsentiert dieses Papier die Ergebnisse von zwei Analysen: (1) Eine Verteilungsanalyse diskutiert, wie Fakten zu Gesundheitsthemen auf hochwertigen Gesundheitsseiten verstreut sind. (2) Eine Clusteranalyse derselben Daten legt nahe, dass die schiefe Verteilung durch die Existenz von drei Seitenprofilen mit unterschiedlicher Informationsdichte erklärt werden kann, die jeweils eine wichtige Rolle bei der Bereitstellung umfassender Informationen zu einem Thema spielen. Die obigen Analysen geben Hinweise auf ein Modell der Informationsstreuung, das beschreibt, wie die Designentscheidungen einzelner Webseitenautoren kollektiv zu der in den Daten beobachteten Streuung der Informationen führen könnten. Die Analysen legen auch Implikationen für das Design von Websites, Suchalgorithmen und Suchschnittstellen nahe, um Benutzern zu helfen, umfassende Informationen zu einem Thema zu finden.;-;http://eprints.rclis.org/8563/;-;- d56ecae93dd3b506bcc19ebc150c664f;de;;;7.1.;;;Tune It Up: Schaffung und Pflege der institutionellen Repository-Revolution Die Explosion neuer Open-Access-Repositorien und der künftige Wunsch nach globalem Open Access zur wissenschaftlichen Kommunikation haben dazu geführt, dass glaubwürdigere Ressourcen für neue Autoren benötigt werden. Dieser Artikel hebt einige der Bereiche hervor, in denen Urheber über Repositorien informiert werden müssen, einschließlich Softwareinformationen, Peer-Review-Befürwortung und der Bedarf an mehr Literatur zu ausgereiften Repositorien und ihrer Interaktion mit wissenschaftlicher Kommunikation.;-;http://eprints.rclis.org/12501/;-;- 7ae79641315ce8a18d6405c267dea8ac;de;;;7.1.;;;Institutionelle Repositorien, Open Source-Optionen und Bibliotheken Dieser Beitrag untersucht die Zwecke institutioneller digitaler Repositorien und die Entwicklungsmöglichkeiten, die über Open-Source-Software verfügbar sind. Die Erhaltung des digitalen Outputs einer Institution ist für die einreichenden Autoren und die Institution wertvoll. Es gibt digitale Repository-Produkte als Open-Source-Software, die für eine Organisation, die ein institutionelles Repository aufbaut, äußerst hilfreich sein kann. Die Rolle von Bibliotheken und Bibliothekaren in diesem Prozess wird diskutiert.;-;http://eprints.rclis.org/12627/;-;- e6b645668488144459027f4699634754;de;;;7.1.;;;Zur Demokratisierung von Archiv- und Bibliotheksinhalten – „Eine Landkarte des Wissens“ Die jüngsten Veränderungen im Informationsumfeld haben die herausragende Existenz neuer Quellen, Werkzeuge und Technologien hervorgebracht, deren Hauptziel die Verwaltung, Verwertung und Verbreitung von Bibliotheks- und Archivinhalten ist. Dazu trägt der Aufbau digitaler Archive und Bibliotheken bei. Das Hauptziel dieses Posters ist es aufzuzeigen, wie wichtig es für eine Informationsorganisation (insbesondere ein Archiv) ist, eine differenzierte „Landkarte des Wissens“ zu erstellen, die für ihren Inhalt relevant ist. Diese Karte sollte die für die Organisationstätigkeit relevanten Entitäten und Aktivitäten sowie die Verbindungen zwischen ihnen enthalten, damit der Archivdienst erkennen kann, was er weiß und besitzt, und sicherstellen, dass alles, was er weiß, korrekt, für alle zugänglich, offen zugänglich und nützlich ist . Eine Karte der Themen einer Organisation würde Forscher und Endbenutzer zu Archivsammlungen, Dokumenten usw. führen. Darüber hinaus besteht die größte Herausforderung für einen Archivar darin, die umfangreiche und vielfältige Dokumentation in den Archiven und das komplexe Wissen darüber so zu öffnen, dass ein breites und sehr vielfältiges Publikum seine Bedürfnisse findet. Wenn sich ein Informatiker mit den Komplikationen, Fallstricken und technologischen Hürden auseinandersetzt, wird deutlich, dass diese Herausforderungen universell sind und die Methoden und Praktiken zu ihrem Umgang auf ein breites Spektrum von Organisationen und Wissensbereichen anwendbar sind. Folglich bilden die Werkzeuge, die Aufgaben, die Planung, die Infrastrukturen und die Koordination der Organisation und Verbreitung von Inhalten in der Epoche der Demokratisierung von Informationsdiensten den Hauptgegenstand dieser Präsentation.;-;http://eprints.rclis.org/15013/;-;- 38687ea081b80d5da28ca0e9862458a2;de;;;7.1.;;;Voraussetzungen für die Emulation als langfristige Erhaltungsstrategie Emulation ist eine Strategie, die in der Gemeinschaft der digitalen Langzeitarchivierung zunehmend Aufmerksamkeit erfährt. Es kann als Ergänzung zu den sonst vorherrschenden digitalen Langzeitarchivierungsstrategien der Migration wirken und hat insbesondere für dynamische digitale Objekte überzeugende Vorteile. Dennoch müssen eine Reihe von Bedingungen erfüllt sein, um in Zukunft solche digitalen Objekte erfolgreich zu reproduzieren. Die Einbindung von Ansichtspfaden zur Identifizierung der notwendigen Metadaten sowie zusätzliche Softwarekomponenten können Erweiterungen des OAIS-Referenzmodells vorschlagen. Dieses Papier kombiniert dieses View-Path-Konzept, das kontextbezogene Informationen von Software erfasst, mit zusätzlichen Erkenntnissen und verbessert dadurch die Flexibilität des Ansatzes. Das Konzept bietet Einblicke in Workflow-Anweisungen, die es der Archivverwaltung ermöglichen, den Zugriff auf ihre Artefakte zu bewahren. Das Ansichtspfadmodell erfordert Erweiterungen der Metadatensätze des Primärobjekts sowie zusätzlich gespeicherte Sekundärobjekte, die zu einer Reproduktion der Umgebung des Objekts führen, z. Anwendungen oder Betriebssysteme. Dieses Papier befasst sich mit Strategien in Bezug auf Referenzumgebungen und gibt einen Ausblick, wie Emulationsstrategien langfristig angewendet werden können, während der Benutzerkomfort verbessert und die Emulationsfähigkeiten maximiert werden.;-;http://eprints.rclis.org/14860/;-;- e9a684fab3e527c0abba6c9a8c6d8e09;de;;;7.1.;;;Gestaltung barrierefreier Dienste für sehbehinderte Menschen in den akademischen Bibliotheken in Indien Dieses Papier zielt darauf ab, eine barrierefreie Umgebung in Universitätsbibliotheken zu gestalten, indem geeignete Ausrüstungen, Technologien und angemessene Infrastruktureinrichtungen sowie bedarfsgerechte Dienste für Sehbehinderte bereitgestellt werden. Bisher sind die wissenschaftlichen Bibliotheksdienste für diese Personen nicht ausreichend. In letzter Zeit haben einige Universitätsbibliotheken diesbezüglich Schritte unternommen. Laut unserer Umfrage haben die Bharathihar University, die Jammu University, die Delhi University, die Punjab University, JNU, die Lucknow University, die Calcutta University entweder eine digitale Braille- und Audiobibliothek eingerichtet oder werden diese einrichten. Gegenwärtig ist es mit Hilfe der Informationstechnologie (IT) möglich, diesen Menschen, die lange Zeit vernachlässigt werden, benutzerfreundliche und adäquate Dienste bereitzustellen. Die UNESCO und die IFLA haben Richtlinien herausgegeben, um allen, einschließlich Menschen mit Behinderungen, gleiche Bibliotheksdienste zu bieten. Auch die Regierungen Indiens und die University Grants Commission haben diesbezüglich Richtlinien herausgegeben. Dieses Papier hebt die speziellen Ausrüstungen und Dienstleistungen hervor, die von den Bibliothekaren wissenschaftlicher Bibliotheken erwartet werden, um den Zweck und die Aufgaben von Bibliotheken zu erfüllen, die von IFLA und UNESCO unterstützt werden;-;http://eprints.rclis.org/22606/;-;- 5e18dcc78b0dc27a44ad8f3f81cbe642;de;;;7.1.;;;Erstellung von Inhalten und E-Learning in indischen Sprachen: ein Modell Im Zeitalter von E-Publishing und E-Learning haben zahlreiche Universitäten und Kulturorganisationen weltweit Initiativen zur Entwicklung von Werkzeugen für mehrsprachiges Lernen und Web-Publishing gestartet und lokalen Inhalten den Vorzug gegeben. Indien hat verschiedene Sprachen und eine andere Kultur. Das meiste Wissen und die Informationen zu Menschen, Kultur, Wissenschaft und Philosophie Indiens sind in indischen Sprachen verfügbar, was für das Lernen und die Entwicklung der Wissensbasis nützlich sein wird. In Indien werden E-Learning-Systeme und Online-Kurse bereits eingeführt, aber als mehrsprachiges Land, das der Bildung durch Regionalsprachen einen hohen Stellenwert einräumt, sollte es Einrichtungen für mehrsprachiges E-Learning geben. Dieses Papier behandelt die Themen der Wissensdatenbank/Inhaltsdatenbank der indischen Sprache, ihre Anforderungen und ihre Bedeutung für das E-Learning. In diesem Beitrag wird ein integriertes mehrsprachiges E-Learning-System für Indien vorgeschlagen, bei dem der Erstellung mehrsprachiger Kursinhalte Bedeutung beigemessen wird.;-;http://eprints.rclis.org/7189/;-;- d5f2d4ce71b2bb33d3cb44b67a5018ef;de;;;7.1.;;;Dokumentationssammlungen durch Digitalisierung verwalten Die Entwicklung digitaler Sammlungen ist Teil einer breiteren Perspektive der Sammlungsentwicklung und muss im Allgemeinen anhand derselben Kriterien bewertet werden. Es besteht jedoch ein Unterschied zwischen der Überprüfung der bereits vorhandenen Sammlungen der Institution im Hinblick auf die Digitalisierung und der Entscheidung, digitales Material von anderer Seite zu erwerben. Eigene Bestände wurden ursprünglich erworben oder behalten, weil sie einen gewissen Wert für die von der Bibliothek bediente Gemeinschaft haben und daher theoretisch alle Kandidaten für die Digitalisierung sein könnten. In Wirklichkeit wird es komplexe Faktoren sowohl innerhalb der Bibliothek als auch innerhalb der von ihr betreuten Gemeinschaft geben, die bestimmte Prioritäten für die digitale Erfassung und Bereitstellung diktieren. Die Menge an Material, das für eine potenzielle Digitalisierung in jeder Bibliothek (wie klein auch immer) zur Verfügung steht, ist wahrscheinlich viel größer als die verfügbaren Ressourcen. Daher müssen vor Projektbeginn sorgfältige Kosten- und Nutzenabschätzungen vorgenommen werden. In diesem Papier werden viele der mit der Digitalisierung von Dokumentensammlungen verbundenen Probleme beleuchtet und auch die komplexen Gründe für den Einstieg in die Digitalisierung beleuchtet. Dazu gehören die Erweiterung des Zugangs für Studenten durch die Nutzung elektronischer Reserven, die Erleichterung des sofortigen Zugriffs auf stark nachgefragte und häufig verwendete Artikel, der schnelle Zugriff auf Materialien aus der Ferne, die Möglichkeit, vergriffene Materialien wiederherzustellen, die Möglichkeit, Materialien anzuzeigen, die nicht zugänglich sind Formate, zum Beispiel große Bände oder Karten, „virtuelle Wiedervereinigung“, die die Zusammenführung verstreuter Sammlungen ermöglicht, die Möglichkeit, digitale Bilder hinsichtlich Größe, Schärfe, Farbkontrast, Rauschunterdrückung usw. wertvolle Originale bei gleichzeitig leichter zugänglicher Darstellung von Stellvertretern, die Möglichkeit der Integration in Lehrmaterialien, verbesserte Durchsuchbarkeit, einschließlich Volltext, Integration verschiedener Medien (Bilder, Ton, Video usw.), Erfüllung von Anfragen nach Stellvertretern – wie Fotokopien, Fotoabzüge , Folien usw. und viele andere Faktoren. Die Präsentation wird auf eine Vielzahl von Beispielen aus Bibliotheken aus aller Welt zurückgreifen und Dokumente aus allen Epochen und in verschiedenen Sprachen und Schriften beleuchten.;-;http://eprints.rclis.org/9729/;-;- 116282805c8937bb1d18d7b6ffa2ad3b;de;;;7.1.;;;Verbesserung der Bibliotheksdienste = Подобряване на библиотечните услуги Die Bibliothek der Neuen Bulgarischen Universität (NBU) freut sich darauf, die Qualität ihrer Dienstleistungen zu verbessern, um die hohen Erwartungen der Kunden zu erfüllen. Die Herausforderung der dynamisch vielfältigen Entwicklung der neuen Informations- und Kommunikationstechnologien würde die Bibliotheken in eine völlig andere Phase der Verwaltung der Bibliotheksangelegenheiten führen. Die moderne Universitätsbibliothek ist gezwungen, dem Bildungsprozess zu dienen – zu verbessern und eine Vielzahl neuer Dienstleistungen anzubieten. Der Akzent im heutigen Informations- und Nachschlagewerk ist auf die Übernahme neuer selbstbedienungsbasierter Methoden im Bibliothekswesen gerichtet. Die Benutzer würden sich in erster Linie außerhalb des Campus an die Bibliothek wenden, um Zeit zu sparen und die Qualität der Nutzung verschiedener technologischer und referenzieller Unterstützung zu erhalten.;-;http://eprints.rclis.org/24493/;-;- bd7b33fa02ad2f3a8648e43f0aac0a30;de;;;7.1.;;;Harte Drogen und weiche Begriffe: die Herausforderungen der Beschreibung Dieses Papier, das als Teil des Thesaurus-Workshops über Suchtsprachen auf dem Elisad-Jahrestreffen 2004 gehalten wurde, beleuchtet die Komplexität der Erstellung von Thesauri im internationalen Umfeld und die Notwendigkeit, Konzepte im Gegensatz zu Wörtern zu übersetzen: Wörter sind einfache Bezeichnungen für Konzepte innerhalb thesauri.;-;http://eprints.rclis.org/8958/;-;- db8bc28f7a8501531102cc9aa76cbf60;de;;;7.1.;;;Digitale Bibliotheken und Blinde und Sehbehinderte Bis vor kurzem hatten Blinde und Sehbehinderte einen sehr eingeschränkten Zugang zu Informationen. Der Grund dafür ist, dass die Produktion von für sie lesbaren Formaten (wie Braille und Audio) eher langsam und teuer ist und daher nur eine winzige Menge veröffentlichter Werke in den angepassten Formaten verfügbar gemacht wurde. Seit dem Aufkommen digitaler Formate hat sich die Situation jedoch deutlich zum Besseren gewendet, vor allem aufgrund der Möglichkeit, Text-to-Speech-Software zu verwenden, die digitalen Text auf dem Computerbildschirm vorliest. So können Blinde und Sehbehinderte gleichzeitig mit allen anderen und ohne zusätzliche Kosten auf digitale Informationen zugreifen. Von besonderer Bedeutung sind in diesem Zusammenhang digitale Bibliotheken im World Wide Web, sowohl wenn sie Volltextdokumente als auch Sekundärinformationsressourcen enthalten. Die bestehenden digitalen Bibliotheken und Sammlungen würden aus der Sicht blinder und sehbehinderter Benutzer diskutiert und unter Berücksichtigung von Zugänglichkeitsproblemen aus verschiedenen Aspekten wie der Benutzeroberfläche und dem Informationssuchverhalten.;-;http://eprints.rclis.org/4391/;-;- 8f12319a44e9c77ed061978b4e69fb9c;de;;;7.1.;;;Webliographien effektiv und einfach gestalten: Schritt für Schritt Dieser Beitrag erläutert webbasierte Informationsabfrage als eines der Hauptforschungsinteressen von Informationsfachleuten während des letzten Jahrzehnts und stellt maschinen- und menschenorientierte Ansätze in den Gestaltungsprozess von Internet-Suchwerkzeugen vor und stellt den zweiten Ansatz als Grundlage dar für die Diskussion. Dann definiert es das Konzept der Webliographie als eine spezielle Art von von Menschen bearbeiteten Suchwerkzeugen. Es ist in der Tat eine aufzählende Liste von Hypertext-Links und ein Tor zu den wissenschaftlichen Informationsquellen im Netz, egal ob kommentiert oder nicht. Existenz und Entwicklung von Webliographien im Netz werden anhand einer kurzen Literaturrecherche begründet. 14 Phasen des Webliographie-Produktionsprozesses werden ebenfalls Schritt für Schritt aufgezählt und abschließend ein Fazit gezogen.;-;http://eprints.rclis.org/8071/;-;- 1792eda4e5a73e1ad8f787a120aa8cbb;de;;;7.1.;;;Bemerkenswert: An der Schnittstelle von Anmerkungen und Handheld-Technologie Das Notable-Anmerkungssystem ermöglicht es Benutzern, Papierdokumente mit Handheld-Geräten in einer mobilen Umgebung zu kommentieren. Dieses Papier beschreibt die Designprobleme und Lösungen, die bei der Erstellung von Notable auftraten, mit besonderem Fokus auf Designherausforderungen an der Schnittstelle von Anmerkungen und Handheld-Technologie. Neuartige Designstrategien umfassen die Trennung der Annotationsschreibplattform von der Dokumentanzeigeplattform, die Bereitstellung einer Suche als Methode für die Dokumentauswahl, die kontextsensitive Vervollständigung von Phrasen und das symbolbasierte grafische Anheften für die Feingranularitätsverankerung von Annotationen sowie eine gewisse Unterstützung für die Koordination von Gruppen Anmerkungsaktivität.;-;http://eprints.rclis.org/13577/;-;- 4d8fb100ac077e2759a216c00a992f9e;de;;;7.1.;;;Digitale Archive : Design und Entwicklung Überall auf der Welt befinden sich Bibliotheken im Umbruch. Die Notwendigkeit der Gesellschaft zwingt die Bibliotheken zu einem solchen Wandel. Die aufkommende Technologie der digitalen Bibliotheken (DL), ein Ausläufer der Informationsrevolution, kann die Effizienz und Effektivität der Verwaltung der physischen und finanziellen Ressourcen von Bibliotheken drastisch verbessern. Bibliothekare, Technologen, Manager und andere wissen inzwischen, welche Vorteile es hat, einen DL zu haben. Die Bibliothek muss sich für den ultimativen Nutzen der Informationssuchenden ausrüsten, um den globalen Trends gerecht zu werden. Im Prozess der Digitalisierung spielen mehrere Faktoren eine große Rolle. In diesem Beitrag wird die Transformation einer Bibliothek von der traditionellen Schrift zur automatisierten zur digitalen Form diskutiert. Es beleuchtet auch einige der Probleme, die mit einem solchen Prozess verbunden sind. Gekoppelt mit digitaler Technologie wird der DL für jedermann zu jeder Zeit und an jedem Ort Realität.;-;http://eprints.rclis.org/7011/;-;- e11e289ff41ce2f0a3ef9a2146da84c8;de;;;7.1.;;;Qualität und Quantität: Bearbeitung echter Probleme in einem institutionellen Forschungsrepositorium Das TARDis-Projekt hat viele praktische Fragen untersucht und angegangen, um von den aktuellen wissenschaftlichen Kommunikationspraktiken der einzelnen Abteilungen zu einem aktiven institutionellen Forschungsrepositorium zu skalieren. Dieses Repositorium muss notwendigerweise einer Vielzahl von Zielen für eine Vielzahl von Disziplinen dienen. Wir veranschaulichen die Schritte, die dazu beigetragen haben, das institutionelle Forschungsrepositorium der University of Southampton in eine Schlüsselposition innerhalb der Forschungsstrategie der Universität für Sichtbarkeit und Berichterstattung zu bringen. Wir demonstrieren die praktischen Aktivitäten, die entwickelt werden, um die Forschungsbewertung in Verbindung mit der EPrints-Software zu verwalten. Diese gleichen anderen aus, die wir zeigen, und helfen dabei, die umfassende Vision der Verbreitung aller Forschungsergebnisse zu erfüllen. Diese Schritte ermöglichen eine konstruktive Annäherung der Visionen von Open Access und institutionellen Repositorien.;-;http://eprints.rclis.org/8133/;-;- 3de1254ae110fd9b29c748a13353974d;de;;;7.1.;;;Informationssuchtaktiken von Websuchern In diesem Artikel werden Muster und Merkmale der Abfrageumformulierung innerhalb einer Websuchsitzung untersucht. Wir haben diese Studie als Reaktion auf das wachsende Interesse am Bereich der Interaktionen bei der Informationssuche durchgeführt. In dieser Studie haben wir nach dem Zufallsprinzip eine stratifizierte Stichprobe von Websitzungen mit 8.030 Abfragen aus einem AltaVista (www.altavista.com)-Transaktionsprotokoll ausgewählt. Dann analysierten wir diese Sitzungen auf die Taktiken zur Neuformulierung von Abfragen, die der Suchende anwendete. Unsere Ergebnisse zeigen, dass das Ändern des Abfragethemas das primäre Mittel zum Ändern von Abfragen war, und die Benutzer neigten meistens dazu, Substantive zu ändern oder einige Worttypen zu subtrahieren, wenn Änderungen vorgenommen wurden. Die Suchenden scheinen zu wissen, wie sie die Abdeckung (d. h. die Anzahl der abgerufenen Ergebnisse) von Abfragen erhöhen und verringern können. Wir glauben, dass unsere Studie Forschern helfen kann, das Verhalten von Menschen bei der Interaktion mit Websuchmaschinen zu verstehen. Es könnte auch Suchmaschinenanbietern in Bezug auf die Verbesserung ihrer Dienste zugute kommen.;-;http://eprints.rclis.org/8596/;-;- 702a3a74501c60a93df7893066f63210;de;;;7.1.;;;Formale Definitionen der Web-Informationssuche Die Forschung in Web-Suchmaschinen wurde dafür kritisiert, dass ihnen zugrundeliegende Theorien und Modelle fehlen. Theorien, die aus der traditionellen Information-Retrieval-Forschung übernommen wurden, haben sich im Umgang mit Information-Retrieval im Web-Kontext in vielerlei Hinsicht als mangelhaft und ineffizient herausgestellt, hauptsächlich wegen der Menge an Informationen und ihrer dynamischen Natur, der Hyperlink-Struktur und Multimedia-Quellen. Geeignete Webmodelle und -theorien für Suchmaschinen werden die Formulierung und das Verständnis von Problemen bei der Websuche und beim Informationsabruf erleichtern. Dies wiederum hilft dabei, Lücken in aktuellen Websuchmaschinentechniken aufzuzeigen. Wir analysieren und kategorisieren bisherige Web- und Information-Retrieval-Modelle. Basierend auf früheren Arbeiten schlagen wir dann ein neues Web-Informations-Retrieval-Modell vor, das sowohl auf objektiven als auch auf subjektiven Kriterien basiert. Die Leistungsfähigkeit des neuen Modells wird systematisch mit anderen IR-Modellen verglichen und Beiträge dieser Arbeit werden hervorgehoben.;-;http://eprints.rclis.org/8553/;-;- c9544405bd54119a539dd4a9480f5985;de;;;7.1.;;;Ein nutzerzentriertes Portal zum Suchen und Abrufen von frei zugänglicher italienischer wissenschaftlicher Literatur: das PLEIADI-Projekt Das PLEIADI-Projekt (Akronym für „Portale per la Letteratura Scientifica Elettronica Italiana su Archivi aperti e Depositi Istituzionali“, ein Portal für italienische wissenschaftliche E-Literatur in offenen Archiven und institutionellen Repositorien) entstand im Rahmen einer Zusammenarbeit zwischen zwei großen italienischen Universitäten Konsortien, CASPUR und CILEA, im Rahmen eines Projekts namens AEPIC (http://www.aepic.it). Das Ziel von PLEIADI ist es, das nationale Bewusstsein im Open-Access-Szenario zu fördern und einen zentralen Zugriff auf wissenschaftliche Literatur zu ermöglichen, die in italienischen institutionellen Repositorien (oder „Datenanbietern“ in der Architektur der OAI – Open Archives Initiative) archiviert ist. PLEIADI zielt auch darauf ab, Endbenutzern (hauptsächlich der akademischen und Forschungsgemeinschaft) eine personalisierte Umgebung, Benutzerprofilierung, einen Bereich zum Speichern von Suchen und Artikeln sowie E-Mail-Benachrichtigungen bereitzustellen. Das Portal sensibilisiert die Nutzer für Open-Access-Themen durch mehrere Informationsangebote (News, RSS, Forum) und fördert die Selbstarchivierung von wissenschaftlichen Artikeln in institutionellen Repositorien. Der Dienst, der unter der URL http://www.openarchives.it/pleiadi/ verfügbar ist, wurde im November 2004 während einer nationalen Veranstaltung in Messina gestartet, die den „offiziellen Ausgangspunkt“ für die Open-Access-Bewegung in Italien markierte akademische Gemeinschaft.;-;http://eprints.rclis.org/6590/;-;- 720313dc93a33c66aa24b444efb912dc;de;;;7.1.;;;Entwicklung von E-Services zur Förderung von Bildung und Forschung durch Digital Library Initiative Dieses Papier wurde unter Berücksichtigung des Bedarfs der Fachkollegen erstellt, die die digitale Bibliothek in ihren jeweiligen Umgebungen implementieren müssen. Der Beitrag diskutiert den allgemeinen Hintergrund der digitalen Bibliothek und verschiedene Motivationsfaktoren für die Planung, Entwicklung und Verwaltung digitaler Bibliotheken. Darüber hinaus werden verschiedene E-Services hervorgehoben, die zur Unterstützung von Bildung, Lernen, Forschung, Beratung und technischer Weiterbildung in der Zentralbibliothek des IIT Madras angeboten werden.;-;http://eprints.rclis.org/6713/;-;- 1a8ba019723256ebe1edee1e4a424efa;de;;;7.1.;;; Aufbau und Implementierung einer Datenbank für Informationseinrichtungen : Ein gesamtösterreichisches Nachweisinstrument unter Aleph 500 Der Beitrag informiert über die neue Datenbank Bibliotheken in Österreich – Adressen von Informationseinrichtungen. Im einzelnen werden folgende Punkte behandelt: Die Genese der Datenbank aus zwei unterschiedlich strukturierten Datenquellen, das verwendete Datenformat bzw. die entsprechenden Datenelemente, insbesondere im Hinblick auf vorgenommene Modifikationen des provisorischen MAB-ADRESS-Standards, die Zusammenführung, Vereinheitlichung und Aktualisierung der Daten, einige Aspekte der Parametrisierung unter Aleph 500, die implementierten Update-Möglichkeiten für die Bibliotheken des Österreichischen Verbundes bzw. jene für sonstige Einrichtungen, die Eingabe- und Web-Interfaces mit ihren Suchmöglichkeiten und Anzeigeoptionen. Abschliessend wird auf künftige Perspektiven wie die weitere Komplettierung / Aktualisierung sowie die Verbesserung des sachlichen Zugriffs Bezug genommen.;-;http://eprints.rclis.org/8268/;-;- 74ba586b4ba0d4ac8aaa06b0890a72fe;de;;;7.1.;;; Praktische Lösungen für lokale Systematiken (1) : Die neue lokale Multi-Klassifikations-Normdatei der Verbundzentrale Der Beitrag berichtet über eine unter der Bibliothekssoftware Aleph 500 neu eingerichtete Normdatei, die mehrere koexistierende lokale Klassifikationssysteme aus den Bibliotheken des Österreichischen Bibliothekenverbundes aufzunehmen vermag. Implementiert wurde darin als erste Klassifikation jene der Universitätsbibliothek Bodenkultur (Wien), für die nach dem Auslaufen einer früheren Softwarelösung eine neue Plattform gesucht worden war. Folgende Aspekte werden im Detail angesprochen bzw. dokumentiert: Struktur und Besonderheiten dieser Klassifikation, Gliederung des Gesamtprojektes in mehrere Phasen und Realisierung der ersten Phase (Tabellen-Setup inkl. Kategorienschema, Überführung der Daten in die neue Normdatei, Indexierung). Die neue Multi-Klassifikations-Normdatei ist bereit für die Aufnahme weiterer lokaler Systematiken, wobei diese einerseits von den an der Verbundzentrale geführten Lokalsystemen, andererseits aber auch von den anderen Lokalsystemen des Verbundes stammen können.;-;http://eprints.rclis.org/10204/;-;- 93b4bb4665a20d592f535b254f470a14;de;;;7.1.;;; ERIS - Ein thesaurusbasiertes Bildretrievalsystem mittels Zoomable User Interface Mit der zunehmenden Digitalisierung von Kulturgütern gewinnen Systeme zur Verwaltung und Suche innerhalb großer Datenmengen immer mehr an Bedeutung. ERIS ist ein thesaurusbasiertes System zur Bildsuche, das im Gegensatz zu herkömmlichen Bildsuchsystemen den direkten Zugriff auf das integrierte Bildmaterial über die visuelle Repräsentation des Thesaurus mittels semantischen Zoomings erlaubt. Der Nutzer / die Nutzerin erhält durch den als Baum visualisierten Thesaurus einen Überblick über die jeweilige Domäne und kann je nach Aspect-of-Interest in die einzelnen Blätter zoomen, so dass er / sie Thumbnails der Bilder oder schließlich auch das gewünschte Bildmaterial samt Metadaten angezeigt bekommt. Der Bruch zwischen semantischem und visuellem Zugriff wird somit durch den Einsatz eines Zoomable User Interfaces minimiert. Angepasste Filter- und Suchfunktionen erlauben die Einschränkung des Ergebnisraumes oder auch den unscharfen Zugriff auf Informationen durch die Auswertung von Synonymen und verwandten Begriffen. Das System wurde domänenunabhängig konzipiert und wird momentan unter Nutzung eines Thesaurus aus dem Museumsbereich weiterentwickelt.;-;http://eprints.rclis.org/14955/;-;- eee7524f5f922e151ff2b09ff6889e6f;de;;;7.1.;;; Das RVK-Interface der FU Berlin – modifiziert, zentral gehostet und lokal im Online-Katalog der WU Wien genutzt Der Beitrag berichtet über ein an der Universitätsbibliothek der Freien Universität Berlin entwickeltes und in den dortigen Aleph-OPAC integriertes Gateway zu der Datenbank RVK-Online (UB Regensburg). Dieses unterstützt neben der hierarchischen Navigation in der Baumstruktur der Regensburger Verbundklassifikation sowie der Recherche in ihren verbalen Elementen auch die Abfrage von RVK-Notationen im lokalen OPAC. Das Interface wurde in der Verbundzentrale OBVSG modifiziert und so implementiert, dass es als gehostete Anwendung für lokale Online-Kataloge einsetzbar ist. Als erstes österreichisches Lokalsystem nutzt nun die Wirtschaftsuniversität Wien diese Lösung in ihrem OPAC.;-;http://eprints.rclis.org/13537/;-;- fae1ed8813951c1a816c36511ce5241c;de;;;7.1.;;; Linked Data und semantische Suchfunktionalität in Europeana Dieser Beitrag berichtet von Arbeiten, die im Projekt Europeana zu Linked Data und semantischer Suchfunktionalität durchgeführt wurden und basiert auf einem Vortrag vom 23.9.2010 auf der ODOK 2010. Die geplante und auf Technologien aus dem Bereich des Semantic Web basierende Informationsarchitektur von Europeana wird skizziert. Auf diese Informationsarchitektur setzen semantische Funktionalitäten auf, die als zukunftsweisende Suchfunktionalitäten in Europeana implementiert werden sollen. Anhand einiger konkreter Beispiele wird in einem zweiten Teil das Grundprinzip einer möglichen semantischen Suche in Europeana dargestellt.;-;http://eprints.rclis.org/19552/;-;- d22ad99a04d088568a0fd47b4649a1ba;de;;;7.1.;;; Integration und Anwendung von Semantic Web-Technologien im betrieblichen Wissensmanagement Es wird ein Anwendungsszenario für Beschreibungsstandards des Semantic Web (RDF/RDFS und OWL) in einem betrieblichen Wissensmanagement aufgezeigt. Dazu wird für ein Demonstrationsbeispiels aus der Fertigungsindustrie ein konkretes Vorgehensmodell für den Ontologieaufbau und die ontologie-basierte, semantische Informationserschließung entwickelt. Der Nutzen des beschriebenen Ansatzes wird in einer effektiveren und effizienteren Befriedigung von typischen Informationsbedarfen gesehen, was zu einer Verbesserung der Prozessqualität von Information Retrieval- und übergeordneten Geschäftsprozessen führt.;-;http://eprints.rclis.org/20801/;-;- 8209b9d2bd9c3fb5e300fe708a095f12;de;;;4.1.;;; Information Literacy an Hochschulen Entwicklungen in den USA, in Deutschland und der Schweiz Die zunehmende Dynamik auf dem Gebiet der Informations-, Vernetzungs- und Medientechnologien hat für das System der akademischen Ausbildung gravierende Auswirkungen. Es wird eine neue Literacy, die Information Literacy, verlangt. Die Arbeit beschäftigt sich mit den Aufgaben der Hochschulbibliotheken, die im Zusammenhang mit der Vermittlung von Information Literacy entstehen. In den Hochschulbibliotheken der angelsächsischen und skandinavischen Länder hat die aktive Rolle, die Bibliothekare im Rahmen der Ausbildung von Information Literacy bei Studierenden spielen, bereits eine gewisse Tradition. Am Beispiel der USA wird die Entwicklung von Information Literacy aufgezeigt. Es wird auf Forschungsergebnisse und wirkungsvolle Methoden zur Vermittlung von Information Literacy eingegangen. In einem weiteren Teil werden die Entwicklungen in Deutschland und der Schweiz analysiert. Die Erkenntnisse werden anschliessend mit der Situation der USA verglichen.;-;http://eprints.rclis.org/6543/;-;- 09dabf1fe129e962b07027f74eb47b59;de;;;4.1.;;; Personalisiertes Lernen in der Bibliothek: das Düsseldorfer Online-Tutorial (DOT) Informationskompetenz Die Autoren beschreiben das von ihnen entwickelte Lerninformationssystem zur Informationskompetenz. Der Artikel behandelt den Aufbau und die Perspektiven des Systems.;-;http://eprints.rclis.org/7918/;-;- 46870bff082b59236f773d5eeafddc45;de;;;4.1.;;; Zur Vermittlung von Informationskompetenz an Hochschulbibliotheken – Entwicklung, Status quo, und Perspektiven Die vorliegende Master’s Thesis beschäftigt sich mit der Vermittlung von Informationskompetenz (engl.: Information Literacy) an Hochschulbibliotheken. Im Anschluss an die Darlegung theoretischer Grundlagen werden Entwicklung und derzeitiger Stand der Diskussion des Themas in den USA und Deutschland verglichen, wobei auf bedeutende Untersuchungen, Strategiepapiere und Modelle Bezug genommen wird. Als Hauptunterschiede zwischen beiden Ländern werden die verschiedenen historischen Ausgangsbedingungen sowie die unterschiedlichen Rahmenbedingungen identifiziert. Die derzeitige Praxis von Informationskompetenzvermittlung an nordrhein-westfälischen Universitäts- und Fachhochschulbibliotheken wird im empirischen Teil anhand einer Website-Analyse untersucht. Dabei zeigt sich, dass inzwischen vielfältige Aktivitäten zur Verbesserung der Informationskompetenz nachweisbar sind, die Benutzerfreundlichkeit der Internet-Auftritte in vielen Fällen jedoch noch optimiert werden kann. Den Abschluss bildet ein Ausblick auf Möglichkeiten zur weiteren Verbesserung der allgemeinen Informationskompetenz in Deutschland.;-;http://eprints.rclis.org/8824/;-;- ec8f111c78d146cccb647820cf4c64da;de;;;3.4.;;; St. Clair, Guy: Knowledge services. A strategic framework for the 21st century organization. Berlin / Boston: De Gruyter Saur 2016 (Current Topics in Library and Information Practice) Rezension des Buches Knowledge services. A strategic framework for the 21st century organization von Guy St. Clair, Berlin , Boston: De Gryuter Saur 2016 (Current Topics in Library and Information Practice).;-;http://eprints.rclis.org/31616/;-;- ec29b61459b689ecf24ef37905c4bf54;de;;;4.1.;;; Stakeholder-Analyse bei der Vermittlung von Informationskompetenz in Schule und Unterricht : ein Projektbericht Dieser Projektbericht entstand während meines Praktikums vom 30.06. bis 18.09.2008 im Fachinformationszentrum Karlsruhe. Der Ablauf so wie die Organisation des Projekts sind nachfolgend dokumentiert. Der Bericht diente als Leistungsnachweis für das Praktische Studiensemester im Studiengang Bibliotheks- und Informationsmanagement an der Hochschule der Medien in Stuttgart.;-;http://eprints.rclis.org/12679/;-;- 897e95aef8f99379459d4a5e2ddf136f;de;;;3.4.;;; Behörden und Innovation - Eine praxisorientierte Untersuchung am Beispiel der Einführung der Dienstleistung „Nutzerauskunft per Chat“ an Hochschulbibliotheken Diese Arbeit beschäftigt sich mit Chat-Services als Teil der elektronischen Auskunftsdienste deutscher wissenschaftlicher Bibliotheken. Obwohl sich die Arbeit auf die Untersuchung der Chat-Services beschränkt, lautet die zentrale Frage, ob die Einführung dieses innovativen Dienstes als Beispiel für die allgemeine Innovationsfähigkeit der Verwaltung in Deutschland angesehen werden kann. Um diese Frage zu beantworten, werden verschiedene Aspekte angesprochen, wie etwa die Innovationsakzeptanz der Mitarbeiter oder der Grad der hierarchischen Strukturierung der Entscheidungsprozesse innerhalb der Bibliotheken. Die Ergebnisse basieren hauptsächlich auf Interviews, die mit Mitgliedern des Managements der Bibliotheken geführt wurden. Das Endergebnis ist, dass im Rahmen dieser Arbeit eine abschließende Antwort nicht gegeben werden kann, aber dass man den Öffentlichen Sektor in Deutschland als „innovativ“ bezeichnen könnte, wenn alle öffentlichen Institutionen in Deutschland so innovativ wären wie die untersuchten Bibliotheken. Als Problem bleibt allerdings bestehen, ob Bibliotheken mit ihren besonderen Bedingungen und Aufgaben als repräsentativ für den Öffentlichen Sektor allgemein angesehen werden können.;-;http://eprints.rclis.org/6857/;-;- 5ade680fb4c34d26dd8fec420e42cb73;de;;;3.4.;;; Vorbild Dänemark? Vergleich des dänischen Bibliotheksgesetzes mit entsprechenden Initiativen in Deutschland Diese Arbeit beschäftigt sich mit einem Vergleich der Bibliotheksgesetzgebung in Dänemark mit Deutschland. Die Verwaltungsstruktur und das politische Umfeld in beiden Ländern wird im Bezug auf das Bibliothekswesen dargestellt und verglichen. Weiters wird die Geschichte und der aktuelle Stand der Bibliotheksgesetzgebung in Dänemark und in den einzelnen Bundesländern Deutschlands beleuchtet und Perspektiven für die zukünftige Entwicklung diskutiert. Das erste „richtige” Bibliotheksgesetz wurde 2008 in Thüringen erlassen. Die Inhalte dieses Thüringer Bibliotheksrechtsgesetz (ThürBibRG) werden mit denen der Novelle des dänischen “Lov om biblioteksvirksomhed” von 2000 verglichen. Im Fazit wird versucht, Folgerungen aus der dänischen legislativen Tradition zu ziehen und Perspektiven für eine eigenständige deutsche Entwicklung aufzuzeigen.;-;http://eprints.rclis.org/16324/;-;- ae46f4da4168b42f4fa765c3cd676727;de;;;3.4.;;;Die Rolle und Funktion des Bibliotheksausschusses In dieser Sitzung wurden die tatsächlichen Rollen und Funktionen des Boards in Bezug auf die Governance und den Umgang mit Politikern, Gemeindeführern und Mitarbeitern, einschließlich des CEO/Direktors/Bibliothekars, definiert.;-;http://eprints.rclis.org/14537/;-;- 1e80a908ed94bd6e2b8c45fb2332a4dc;de;;;3.4.;;;Finanzierungsdilemma in pakistanischen Bibliotheken: Ursachen, Auswirkungen, Antworten Die Literatur zu Finanzierungsproblemen pakistanischer Bibliotheken zeigt, dass die schlechte Wirtschaft des Landes, Inflation, geringe Priorität für Bildung und Preiserhöhungen für Bibliotheksmaterial die Hauptursachen für dieses Dilemma sind. Zu den Folgen einer unzureichenden Finanzierung gehören unzureichende Sammlungen, Kürzungen bei den Zeitschriftenabonnements und eine schlechte Qualität der Bibliotheksdienste. Verschiedene Antworten auf das Finanzierungsdilemma umfassen die Fortsetzung der Suche nach öffentlichen Geldern, die Zusammenarbeit zwischen Bibliotheken und die Suche nach alternativen Finanzierungsquellen. Gebührenpflichtige Bibliotheksdienste und Fundraising sind die Formen der alternativen Finanzierung in Bibliotheken. Die Literatur zeigt, dass im Land ein gewisses Bewusstsein für diese Finanzierungsmethode besteht, und es wurden einige Beispiele gefunden, jedoch wurden diesbezüglich keine konzertierten Anstrengungen unternommen. Pakistanische Bibliotheken haben ein großes Potenzial für alternative Finanzierungen. Diese Methode kann die Finanzierungsprobleme von Bibliotheken mindern, wenn die Entscheidungsträger ihr Vorrang geben und dies sorgfältig planen.;-;http://eprints.rclis.org/7862/;-;- eb67c0d206c94a429518181f8c94dc4e;de;;;4.1.;;;Seniorenfreundliche Gesundheitsinformationen Diese Präsentation befasst sich mit dem Gesundheitsinformationsbedarf von Senioren und den besten Praktiken für die Bereitstellung von Gesundheitsinformationsdiensten für diese schnell wachsende Bevölkerung. Die Babyboomer beginnen gerade erst in den Ruhestand zu gehen und wir gehen davon aus, dass sie von den Bibliotheken anspruchsvollere Gesundheitsinformationen verlangen werden. Sind wir schon da? Wir werden untersuchen, wie altersfreundliche Gesundheitsinformationen aussehen und welche Arten von Themen Senioren wissen möchten, z. B. Informationen zu Medikamenten und Demenz. Wir werden uns die Gesundheitskompetenz für diese Benutzergruppe ansehen. Wir werden einige der wichtigsten Websites und Quellen überprüfen, die hochwertige, zuverlässige und seniorenfreundliche Informationen bereitstellen. Wir schließen mit einer kurzen Diskussion und Frage- und Antwortrunde über den Gesundheitsinformationsbedarf von Senioren jetzt und in Zukunft.;-;http://eprints.rclis.org/19227/;-;- 581bbb10adee133f7bc5be626b240e8f;de;;;4.1.;;;Leseclubs, Workshops, Lesen im Park Leseclubs sind Netzwerke von Buchliebhabern, die gleichzeitig dasselbe Buch lesen und dann ihre Ideen und Gefühle teilen, die von dieser Lektüre inspiriert wurden. In diesem kurzen Papier werden die Vorteile von Leseclubs und Leseworkshops diskutiert.;-;http://eprints.rclis.org/22413/;-;- 5268b0752f5696726071e7b547d19594;de;;;4.1.;;;Informationsheuristiken informationskompetenter Menschen Durch die täglichen Aktivitäten der Informationsnutzer wird bestätigt, dass sie viele Abkürzungen verwenden, einige Informationen ignorieren und Heuristiken verwenden – insbesondere in elektronischen sozialen Netzwerkumgebungen. Die kritische Analyse der Literatur und der Forschungsergebnisse dient als Grundlage, um eine kurze (vorläufige) Bestandsaufnahme von Informationsheuristiken zu identifizieren und zu erstellen, die Menschen in verschiedenen Phasen der Suche und Durchführung der Quellenbewertung (Glaubwürdigkeitsbewertung) zur Lösung ihrer alltäglichen Informationsprobleme einsetzen. Der Einsatz von Heuristiken (verstanden als sinnvolle Aktivitäten, die den Informationsnutzern helfen, eine zufriedenstellende Auswahl der Quellen zu treffen und den Inhalt von unterschiedlicher Qualität und Angemessenheit zu unterscheiden) wird im Kontext des Konzepts der Informationskompetenz (IL) diskutiert. Die Analyse von Heuristiken bietet einige zusätzliche Erklärungen zum Online-Informationsverhalten und zu persönlichen Informationsmanagementstrategien. Das Ergebnis der Forschung ist ein Vorschlag, Heuristiken als intuitive, aber nicht zufällige Suchtaktiken zu behandeln, die auf Erfahrung basieren und in das IL-Training einfließen sollten.;-;http://eprints.rclis.org/23919/;-;- 15ec9b3fa35941fe33540701daa223cb;de;;;4.1.;;;Digitale Bildung und verantwortungsvolles Handeln: die Goldstandards zur Verbesserung der Qualität medizinischer und gesundheitsbezogener Informationen im Internet = Educación digital y comportamiento responsable: tratamientos de referencia para mejorar la calidad de la información médico-sanitaria en Internet = Educació digital i comportament responsable : tractaments de referència per millorar la qualitat de la informació medicosanitària a Internet Ziele: Ziel dieses Artikels ist es, den Stand der Technik in Bezug auf die Qualität von Gesundheitsinformationen im Internet darzustellen, zu identifizieren, wer die Hauptakteure sind und welche Situationen des neuen Informations- und Kommunikationsszenarios, in dem Technologien, Benutzer und Informationen zusammenlaufen, sind, sowie Wege aufzuzeigen, die zur Verbesserung sowohl der Qualität von Gesundheits- und medizinischen Online-Informationen als auch der Informationskompetenz der Nutzer beitragen. Methoden: Literaturrecherche und Analyse des aktuellen Informations- und Kommunikationskontextes zur Qualität von Gesundheits- und medizinischen Informationen im Internet. Ergebnisse: Eingebettet in die sogenannte Netzwerkgesellschaft haben wir die Protagonisten des neuen Informations- und Kommunikationsszenarios, die Gemeinsamkeiten und die wiederkehrenden Probleme identifiziert, die sich aus der Einführung neuer Technologien in ihren Beziehungen ergeben. Gesundheit ist ein Thema von allgemeinem Interesse und Gesundheits- und medizinische Informationen sind eines der am häufigsten nachgefragten Themen im Internet. Neue Technologien haben dazu geführt, dass die Benutzer in ihrer persönlichen Gesundheitsversorgung proaktiver sind, und das Social Web hat eine führende Position im Netzwerk eingenommen. Benutzer mit unterschiedlichen Profilen teilen Affinitäten und Werte an einem Ort, an dem die Qualität der Informationen zum Eckpfeiler des Rahmens wird, der sich aus Anbieter-Benutzer-Informationen zusammensetzt. Der Goldstandard zur Verbesserung der Qualität von Gesundheits- und medizinischen Informationen im Internet sowie der Lese- und Schreibfähigkeiten der Nutzer sind das verantwortungsvolle Handeln aller Akteure und die digitale Bildung. - Weitere Informationen unter: http://bid.ub.edu/en/31/hernandez3.htm#sthash.5mmy5Zvm.dpuf;-;http://eprints.rclis.org/22701/;-;- c55cdac53bc0fb307a66c0674679e9c5;de;;;3.4.;;;Studentische Beteiligung an der Entwicklung von Hochschulbibliotheken Das Papier basiert auf den Versuchen, die in einem staatlichen Postgraduiertenkolleg unternommen wurden, um die Bibliothek des Colleges unter Beteiligung der Studenten zu revitalisieren. Zunächst wurden ausgewählte Studenten gebeten, das System zu bewerten und ihre Kommentare und Vorschläge abzugeben. Basierend auf ihren Anregungen und weiteren Diskussionen wurden die Änderungen zur Revitalisierung des Systems geplant. Unter freiwilliger Beteiligung von Studierenden und Mitarbeitern wurde das jahrzehntelang inaktive System innerhalb eines Monats zu einem Live-Bestandteil der Campus-Umgebung erhoben.;-;http://eprints.rclis.org/41931/;-;- c16c14b4414f2b0d9275e66e5b20d0ad;de;;;4.1.;;;Kartierung der Internet-Informationskompetenz unter Fakultätsmitgliedern: Eine Fallstudie des Rajiv Gandhi College of Engineering, Chandrapur Das Papier stellt die verschiedenen Facetten der Internet-Informationskompetenz unter den Fakultätsmitgliedern des Rajiv Gandhi College of Engineering in Chandrapur vor. Sieben Fakultätsmitglieder des Colleges erhielten Fragebögen. Von 100 von 70 Mitgliedern wurden beantwortet. Die elektronischen Zeitschriften werden mehr für E-Ressourcen gefunden 65 Nummern,65 wurden auch verwendet, um das Wissen zu aktualisieren, 50 Mitglieder sind erfahren in der Internetnutzung und 60 Mitglieder verwenden Suchmaschinen für die Suche nach E-Ressourcen.;-;http://eprints.rclis.org/14375/;-;- 1b6e9396c97aaf338a7cbd38a171591f;de;;;3.4.;;;Modell zur Interoperabilitätsbewertung in E-Government-Diensten Die jüngste Veröffentlichung der europäischen und spanischen Interoperabilitätsrahmen impliziert, dass öffentliche Organisationen einen Änderungsmanagementprozess einleiten sollten, um ihre Technologien und Verfahren an den neuen Standard anzupassen, um so die Informationsinteroperabilität zwischen E-Government-Diensten zu gewährleisten. Der Hauptgrund für diese Untersuchung besteht darin, die Interoperabilitätsstandards unter spanischen öffentlichen Organisationen zu verbreiten und methodische und technische Leitlinien bereitzustellen, um den Anpassungsprozess zu erleichtern und den Einsatz neuer Techniken und Verfahren für die Informationsintegration und -verwaltung zu fördern. Das Ziel der Forschung besteht darin, die wesentlichen Aspekte zu identifizieren, die zu berücksichtigen sind, um die Informations- und Wissensinteroperabilität in E-Government-Diensten zu gewährleisten. Dabei werden bewährte Verfahren der Informationsinteroperabilität berücksichtigt und drei grundlegende Ansätze identifiziert: (1) Informations- und Wissensmanagement: Auszeichnungssprachen, offene Software und Formate sowie elektronische Dokumentenverarbeitung, (2) Metadaten zur Wissensrepräsentation in elektronische Ressourcen und (3) Web-Zugänglichkeit, um den Zugang für alle zu verbessern.;-;http://eprints.rclis.org/8852/;-;- c3be268ae6cba49bee595a6e12fd7eb3;de;;;4.1.;;;Informationskompetenz in der Wissensgesellschaft : Lernende für eine bessere Zukunft befähigen Wir befinden uns in einem schnell wachsenden und komplexen digitalen Umfeld, das wiederum unsere Abhängigkeit von Informationen erhöht hat. Es gibt jedoch immer mehr Hinweise darauf, dass unsere Informationskompetenz nicht systematisch Schritt hält. Wir alle brauchen Hilfe, um die Techniken und Fähigkeiten zum Umgang mit Informationen zu verbessern. Das vorliegende Papier ist ein Versuch, den aktuellen Stand der Informationskompetenz und die aufkommende Rolle von Bibliotheken und Schulen der LIS-Bildung bei der Ergänzung der Informationskompetenzkampagne darzustellen.;-;http://eprints.rclis.org/11393/;-;- 555e1119b3c6a8a0414e1c17197877c8;de;;;3.4.;;;Vorher und Nachher: ​​OA in Entwicklungsländern Der unaufhaltsame Anstieg der Kosten für Forschungspublikationen hat zu einer zunehmenden Isolation von Forschern und anderen akademischen Gemeinschaften in den Entwicklungsländern geführt. Darüber hinaus haben Druck- und Verteilungsprobleme dazu geführt, dass ein Großteil der Forschungspublikationen aus weniger begünstigten Ländern nicht mehr sichtbar ist. Die Folge war eine wachsende Nord-Süd-, Süd-Nord- und Süd-Süd-Armut an Forschungsinformationen, die sich nachteilig auf den weltweiten Forschungsfortschritt ausgewirkt hat. Das Ausmaß der typischen Deprivation vor OA wurde 2003 durch eine WHO-Umfrage zum Zugang zu von Experten begutachteten Zeitschriften durch medizinische Institute in Ländern mit niedrigem Einkommen hervorgehoben. Dabei zeigte sich, dass die Institute in den ärmsten Ländern in den letzten 5 Jahren KEINE Zeitschriften gekauft hatten und in den etwas wirtschaftsstärkeren Ländern die Situation nur unwesentlich besser war. Es gab eine Reihe von Initiativen zur Verbesserung dieser inakzeptablen Situation, darunter Geberprogramme und die Befreiung von Abonnements für ausgewählte Länder oder Lesergemeinschaften. Die mit Abstand ermutigendste Entwicklung war jedoch die wachsende internationale Akzeptanz des freien und offenen Zugangs zu öffentlich finanzierten Forschungsergebnissen. Die Einrichtung interoperabler institutioneller Repositorien (IRs) mit veröffentlichten Forschungsergebnissen einer Organisation zusammen mit der Umstellung von Zeitschriften auf Open-Access-Modelle wurde von vielen Organisationen in Entwicklungsländern allgemein begrüßt und ist eine nachhaltige Lösung für Zugangsprobleme. Der Electronic Publishing Trust for Development tritt für diesen Ansatz ein und fördert regionale Entwicklungen. Diese Präsentation skizziert das allgemeine Wachstum von IRs und die Einrichtung von Open-Access-Zeitschriften in Entwicklungsregionen und präsentiert ermutigende Nutzungszahlen durch ihre Forschungsgemeinschaften, die den Wert eines verbesserten Zugangs für die Entwicklung einer starken wissenschaftlichen Basis zeigen. Ein Beispiel liefern Statistiken von Bioline International, einer gemeinnützigen Initiative in Kanada/Brasilien/Großbritannien, die die Verbreitung von Journalen in Entwicklungsregionen unterstützt. OA-Entwicklungen in wirtschaftlich starken Ländern, sowohl in Bezug auf politische Maßnahmen als auch technische Infrastrukturinitiativen, werden in Bezug auf die Bedürfnisse der Entwicklungsregionen berücksichtigt. Um auf den aktuellen Fortschritten aufzubauen, sind eine Reihe von Workshops zur Sensibilisierung und zum Technologietransfer sowie die Entwicklung und Akzeptanz nationaler und institutioneller OA-Politiken erforderlich. Die Unterstützung durch große internationale Organisationen sollte beschleunigt werden, denn zur Lösung globaler Probleme ist ein globaler Zugang zu Forschungsergebnissen Voraussetzung.;-;http://eprints.rclis.org/10863/;-;- d61a211ff5487f2650a5b78b824c351a;de;;;3.4.;;;Bewertungsmodell der Informationsinteroperabilität für öffentliche Websites Das Forschungsprojekt basiert auf dem kürzlich verabschiedeten Europäischen Interoperabilitätsrahmen und seinem spanischen Äquivalent, um ein Bewertungsmodell zu entwerfen, um Schlüsselaspekte im Zusammenhang mit der Informations- und Wissensinteroperabilität in öffentlichen Organisationen zu identifizieren. Das Hauptziel des Projekts ist darauf ausgerichtet, die Informationsinteroperabilitätsstandards in öffentlichen Organisationen zu verbreiten und den Einsatz neuer Techniken und Verfahren zur Informationsintegration und -verwaltung zu fördern. Die zur Durchführung der Forschung verwendete Methode besteht aus drei Hauptphasen: der Analyse von Technologien im Zusammenhang mit der Informationsinteroperabilität, dem Entwurf eines Modells zur Bewertung der Informationsinteroperabilität in öffentlichen Websites und der empirischen Analyse der Schlüsselfaktoren, die die Informationsinteroperabilität beeinflussen. Das Hauptergebnis des Projekts ist ein elektronisches Tutorium, um den Informations- und Wissensbewertungsprozess in öffentlichen Organisationen zu erleichtern und die Umstellung von nicht-interoperablen Technologien und Formaten auf interoperable zu planen.;-;http://eprints.rclis.org/7982/;-;- 80d870ce591b0bd651381b4a86484a6d;de;;;4.1.;;;Medizinische Informationskompetenz und die Qualität der medizinischen Leistungen. Informationskompetenz ist der Bibliotheksbetrieb, der es dem Bibliotheksbenutzer ermöglicht, die Informationsressourcen zu suchen, abzurufen, auszuwerten, auszuwählen und zu nutzen. Informationskompetenz ist die Fähigkeit zum kritischen Denken, sie ist die Grundlage der Fort- und Selbstbildung der Fachkräfte. Diese Fähigkeit ist für Mediziner wichtiger, da sie mit dem ständigen Wandel ihrer Disziplin konfrontiert sind. Das Papier belegt die Bedeutung der Informationskompetenz für das Personal der Krankenhäuser als Voraussetzung für die qualitativen Dienstleistungen und die Organisation von Krankenhausbibliotheken. Es verwendet Vergleichsdaten zum Stand der Technik der griechischen medizinischen Bibliotheken und schlägt die wichtigsten Elemente für den Erfolg dieses innovativen und kostengünstigen Dienstes vor.;-;http://eprints.rclis.org/17748/;-;- 809ac4c04e715ee9cc478478d057a232;de;;;4.1.;;;Medienweisheit? Medienkompetenz und die sich wandelnde Position von Bibliotheken Der Beitrag beginnt mit einer Einführung in die Idee der Medienkompetenz. Warum ist Medienkompetenz wichtig? Diese Frage lässt sich einfach beantworten, indem man auf die Bedeutung der Medien in modernen Gesellschaften hinweist. Unsere Gesellschaft ist gesättigt mit allen möglichen Medien, alten und neuen. Auf einer eher theoretischen Ebene liegt die Bedeutung in der Verbindung zwischen Medien und Bürgerschaft. Staatsbürgerschaft wird normalerweise im politischen Sinne von Wählerschaft interpretiert. Staatsbürgerschaft bedeutet hier, informiert zu sein und an der Debatte teilzunehmen. In diesem traditionellen Staatsbürgerschaftsdiskurs werden Medien vor allem wegen ihrer Informationsfunktion geschätzt. Indem wir uns die „rohe Realität“ – zum Beispiel das Fernsehen – zur Verfügung stellen, können wir uns informieren, und wir als Bürger können diese Informationen nutzen, um unsere Weltanschauung und Meinungen zu formen. Der Rundfunk ist ein gutes Beispiel für diese Idee: Durch die Bereitstellung eines breiten Spektrums an Medieninhalten für möglichst viele Menschen wird jeder in den öffentlichen Medienbereich einbezogen und kann sich eine fundierte Meinung bilden. In den letzten Jahren scheint diese rationale und instrumentelle Form der Staatsbürgerschaft jedoch schwer aufrechtzuerhalten. Alte Grenzen - wie zwischen privat und öffentlich, zwischen Hoch- und Niederkultur - sind weniger scharf geworden. Dem persönlichen, alltäglichen Leben, den kleineren Werten und der Identität wurde mehr Aufmerksamkeit geschenkt. Dieser Wandel hat zusammen mit technologischen Veränderungen die Rolle der Medien in der Gesellschaft verändert. Diese sich wandelnde Rolle – in der der Mediennutzer sowohl zum Produzenten als auch zum Verbraucher wird – hat Auswirkungen auf die Position der Regierung bei der Schaffung einer offenen Öffentlichkeit durch ihre Medienpolitik. Die niederländische Regierung konzentrierte sich früher auf die Bereitstellung und Gewährleistung einer pluriformen und freien Medienlandschaft. Heutzutage entwickeln sie auch Politiken, die Bürger dazu anregen sollen, Fähigkeiten, Wissen und (kritische) Haltung zu entwickeln, die sie für die Teilhabe an einer vermittelten Gesellschaft benötigen. Seit 2005 werden Konferenzen abgehalten, ein neues Kompetenzzentrum und eine Website gestartet. Wir werden die neue Richtlinie besprechen und die Auswirkungen auf die Bibliothek ansprechen. Ist die Bibliothek für die Umsetzung dieser Richtlinien geeignet? Wie kann sich die Bibliothek in diesem Feld positionieren? Ihre traditionelle Rolle bei der Vermittlung von Informationskompetenz muss ausgebaut werden. Die Bibliothek kann auch als Plattform und Spielwiese für die Produktion von Medieninhalten fungieren. In einer Reihe von Interviews mit Bibliothekarinnen und Bibliothekaren werden wir die Chancen einer erfolgreichen Adaption der neuen Ideen und Richtlinien zur Medienkompetenz in Bibliotheken untersuchen.;-;http://eprints.rclis.org/12921/;-;- e6432867b5985824d01deeab7a05640f;de;;;4.1.;;;Informationskompetenzinitiativen in Indien mit besonderem Bezug auf die aufkommende Wissenswirtschaft Die Wissensökonomie in Indien ist seit den 1990er Jahren mit dem Aufkommen der Liberalisierung und Globalisierung der indischen Wirtschaft entstanden. Seitdem haben viele indische Unternehmensorganisationen ihre Präsenz außerhalb des Landes aufgebaut und eine informelle India Inc. im weltweiten Wettbewerb gegründet. Auch die Situation der Informationsinfrastruktur in Indien hat sich seit den 1990er Jahren stark verbessert, nicht nur in den Unternehmensorganisationen, die Wissensressourcen gewinnbringend nutzen, sondern auch in den öffentlichen Institutionen, die Wissen für die Entwicklung aller Aspekte der Gesellschaft und der Menschheit generieren. Der umsichtige Umgang mit Informationsressourcen, die heute hauptsächlich in den öffentlichen Einrichtungen, insbesondere in den Hochschul- und Forschungseinrichtungen, zur Verfügung stehen, sollte an der Informationskompetenz der Akteure gemessen werden. Informationskompetenz ist für die effektive Nutzung, Nutzung und Bewertung der in den Institutionen verfügbaren Informationsressourcen erforderlich. Informationskompetenz kann auch die Lücke zwischen der digitalen Kluft schließen, die wir bei vielen Initiativen auf Basisebene in Indien in Form von „Dorf-Wissenszentren“, „Community-Informationszentren“, „e-choupals“, „gyandoot“ usw. unter Beteiligung von NGOs, Entwicklungsagenturen und Unternehmensorganisationen eingeleitet. Die vorliegende Studie untersucht verschiedene Initiativen in Indien, die sich mit Informationskompetenz bei der Maximierung der Nutzung von Wissensressourcen befassen. Diese Studie konzentriert sich auch auf die verschiedenen Initiativen verschiedener Institutionen, angefangen von der Grundschule bis zur höheren Bildungsstufe, von Fachgesellschaften und anderen Organisationen.;-;http://eprints.rclis.org/8132/;-;- 65dd8809d81bc89b1131819d0ade9d94;de;;;4.1.;;;Bibliotheken, Alphabetisierung und Armutsbekämpfung: ein Schlüssel zur afrikanischen Entwicklung Die Rolle, die Bibliotheken in Afrika bei der Verringerung der Armut spielen könnten, wurde nicht ausreichend erkannt, und daher wurden die notwendigen politischen Entwicklungen und Investitionen in das Bibliotheksnetzwerk noch nicht getätigt. Politische Entscheidungsträger und Geldgeber haben den Zusammenhang zwischen Armutsbekämpfung und Alphabetisierung erkannt und Lehrbüchern zu Maßnahmen zur Verbesserung der Alphabetisierung und der Schülerleistungen einen zentralen Stellenwert eingeräumt. Doch Lehrbücher sind der Anfang der Lösung, nicht die vollständige Antwort. Bibliotheken erhalten die Alphabetisierung und tun dies auf Wiederverwendungsbasis und bieten eine kostengünstige Möglichkeit zur Unterstützung einer ganzen Gemeinschaft von Lesern, die nach Informationen suchen, um ihre eigenen Probleme anzugehen. Dieses von einem angesehenen und erfahrenen afrikanischen Pädagogen und Bibliothekar verfasste Papier weist den Weg für Afrika mit erschwinglichen und realisierbaren Bibliotheksstrategien, die es den ärmsten Gemeinden ermöglichen, an ihrer eigenen Entwicklung teilzunehmen. [Bericht mit Genehmigung beider Autoren archiviert];-;http://eprints.rclis.org/10167/;-;- d6b72b5628366e7996632c4c0963ecd3;de;;;4.1.;;;Vermittlung von Informationskompetenz mit dem Lerninformationssystem Deutsche Bibliotheken haben ein Lerninformationssystem entwickelt, um die Informationskompetenz deutscher Schüler zu verbessern. Auf Basis dieses Lerninformationssystems wurde ein Online-Tutorial entwickelt. Der Aufbau dieses Lerninformationssystems wird beschrieben, ein darauf aufbauendes Online-Tutorial illustriert und die verschiedenen unterstützten Lernstile aufgezeigt.;-;http://eprints.rclis.org/8457/;-;- b08548d15cb31c7c53ee2b722dcac71d;de;;;4.1.;;;Computer-Informationskompetenz: Herausforderungen für den modernen Informationsprofi zu Beginn des XXI. Jahrhunderts Dieser Beitrag ist eine Präsentation des Autors auf der International Federation for Information and Documentation Education and Training Pre‐Conference, die vom 12.–13. Oktober 1998 in Jaipur, Indien, stattfand Dr. SP Sood und Smt. Prabha Krishnan. Die Matrix mit der Wissensbasis und den erforderlichen Computer- und Informationskompetenzen wird als Checkliste allen Institutionen der bibliothekarischen und informationswissenschaftlichen Ausbildung empfohlen.;-;http://eprints.rclis.org/40103/;-;- 540f9f231dd6e811468870978da399e2;de;;;4.1.;;;Öffentliche Bibliotheken, Kinder und Jugendliche und soziale Ausgrenzung Das Papier beginnt mit der Betrachtung der Dimensionen der sozialen Ausgrenzung von Kindern und Jugendlichen, einschließlich der Armut und ihres Zusammenhangs mit der Ausgrenzung von der Schule. Anschließend werden zentrale Initiativen im Bereich der Alphabetisierung von Kindern überprüft. Der Beitrag befasst sich dann mit der Nutzung öffentlicher Bibliotheken durch Kinder, einschließlich des Zugangs zu Bibliotheksdiensten und den Auswirkungen lokaler und nationaler Initiativen auf das Bibliotheksangebot. Die Herausforderungen, mit denen Bibliotheksdienste für Kinder und Jugendliche (einschließlich Schulbibliotheken) konfrontiert sind, werden berücksichtigt. Die Aktienauswahl wird speziell als wichtiges Mittel zur Beeinflussung der sozialen Ausgrenzung diskutiert. Das Papier zeichnet dann den Übergang von dem in den 1970er Jahren eingeführten Outreach-Ansatz zu einer Konzentration auf gebäudebasierte Dienstleistungen nach, gefolgt von einer verstärkten Betonung der Bildung seit dem Regierungswechsel im Jahr 1997 ob die soziale Ausgrenzung ausreichend betont wird. Es wird der Schluss gezogen, dass Dienstleistungen für Kinder oft marginalisiert werden, beispielsweise aus Gründen, die nicht durch den Mainstream finanziert werden, und dass Bibliotheken immer noch Einrichtungen sind, die in erster Linie den Privilegierten dienen. Öffentliche Bibliotheken müssen daher die soziale Ausgrenzung als ihren Hauptzweck angehen, und es werden diesbezüglich Empfehlungen ausgesprochen (Mai 1999).;-;http://eprints.rclis.org/7122/;-;- 3c54aafb46fdf13a04e8728b5206e9ac;de;;;4.1.;;;Informationen, Kompetenzen und kooperatives Lehren/Lernen Der Zweck dieses Papiers besteht darin, die Literatur über aktuelle Trends zu verschiedenen Themen der technischen Informationserziehung zu untersuchen, darunter: 1. Informationsbedarf, Benutzerverhalten, Zugang und Verfügbarkeit von technischen Informationsressourcen. 2. Informationskompetenzen, wie sie von Bibliothekaren und Lehrenden wahrgenommen werden. 3. Initiativen, die kollaboratives Lehren oder Lernen fördern, um die Informationskompetenz von Ingenieur- und Technologiestudenten zu verbessern. Der Autor untersucht Aktivitäten in diesen drei Bereichen, die Rolle von Fachgesellschaften und die Wirkung von Technologie im Unterricht. Basierend auf den Ergebnissen dieser Umfrage versucht der Autor, die Hauptkomponenten eines Systems der Technischen Kommunikation für die Ausbildung von Ingenieurstudenten zu identifizieren. Ein besseres Verständnis dieses Systems kann bei der Entwicklung von Programmen helfen, um die Schüler auf eine bessere Verwaltung technischer Informationen vorzubereiten.;-;http://eprints.rclis.org/6305/;-;- 2dbd29157d4b8b796e8446c9525802b6;de;;;4.1.;;;Normas sobre alfabetización en información. 1ª Ausgabe Die erste Ausgabe dieser Standards leitet sich von den US-amerikanischen Standards für Informationskompetenz im Hochschulbereich ab, die von der Association of College and Research Libraries im Januar 2000 genehmigt und anschließend von der American Association for Higher Education und den US-Akkreditierungsstellen gebilligt wurden. Die US-Standards wurden auf einem nationalen Workshop überprüft, der vom 22. bis 23. September 2000 von der University of South Australia für den Council of Australian University Librarians (CAUL) initiiert und durchgeführt wurde. Die 62 Teilnehmer waren Vertreter australischer und neuseeländischer Universitäten, des Schulsektors, des technischen und Weiterbildungssektors, des Council of Australian State Libraries und der Australian Library and Information Association. Bei der Überprüfung der Standards wurden die Auswirkungen australischer Forschung, theoretischer Ausarbeitung und Praxis berücksichtigt, die bei der Entwicklung der US-Standards möglicherweise noch nicht verfügbar oder zugänglich waren. In diesem Zusammenhang wurde das relationale Modell der Informationskompetenz1 betrachtet. Die Erlaubnis zur Verwendung und Variation der US-Standards2 wurde von der Association of College and Research Libraries erteilt. Der Hauptunterschied zwischen der US- und der australischen Version besteht darin, dass zwei Standards hinzugefügt wurden. Der neue Standard 4 befasst sich mit der Fähigkeit, Informationen zu kontrollieren und zu manipulieren. Standard sieben repräsentiert Informationskompetenz als den intellektuellen Rahmen, der das Potenzial für lebenslanges Lernen bietet. Auf seiner Tagung in Canberra vom 27. bis 28. Oktober 2000 genehmigte der Rat der australischen Universitätsbibliothekare die Überarbeitung der US-Standards als Informationskompetenzstandards. Die beabsichtigte primäre Anwendung ist für die Hochschulbildung vorgesehen, sie kann jedoch auch auf andere Bildungsbereiche angewendet werden. Die Billigung und Verbreitung der Standards durch politische Entscheidungsträger, Bildungseinrichtungen, Berufs- und Bildungsverbände wird ermutigt. Sie können frei verwendet und für einen bestimmten Kontext angepasst werden, vorbehaltlich der Anerkennung ihrer US-amerikanischen und australischen Herkunft. Informationskompetenzstandards sind ein „lebendes“ Dokument. Es wird sich ändern, um das vorherrschende Informations- und Bildungsumfeld widerzuspiegeln. Änderungsvorschläge für die zweite Auflage 2003 werden erbeten. Verwenden Sie dazu das Formular am Ende dieser Veröffentlichung.;-;http://eprints.rclis.org/5944/;-;- dd158a16dd2b3889cf4ce32d3897685c;de;;;4.1.;;;El marco para la alfabetización informacional de Australia y Nueva Zelanda : principios, normas y práctica Diese zweite Ausgabe der Informationskompetenzstandards von 2001 trägt den Titel „Information Literacy Framework“ für Australien und Neuseeland: Prinzipien, Standards und Praxis, um die Art und Weise widerzuspiegeln, wie Wissenschaftler und Bibliothekare die erste Ausgabe verwendet haben. Es enthält Änderungen, die bei einem Workshop in Sydney im Januar 2003 entwickelt wurden. Vor dem Workshop wurden Beiträge von Universitäts-, Fach- und Weiterbildungsbibliothekaren und anderen Bibliothekaren aus Australien und Neuseeland eingeholt. Mehr als fünfzig Wissenschaftler und Bibliothekare, die die Erstausgabe verwendet hatten, brachten ihre Erfahrungen ein. Zwei kleine Gruppen arbeiteten an jedem Standard, und die entwickelten Ideen wurden von einer dritten Gruppe begutachtet. Eine Lenkungsgruppe wertete dieses Material aus, und ein repräsentatives Gremium des Workshops begutachtete die vorletzte Version. Diese Ausgabe stimmt somit mit der Erstausgabe überein, profitiert jedoch von Beiträgen, die auf Erfahrungen in der Anwendung basieren, und von Peer-Reviews. Angesichts der Sorgfalt, mit der die Standards überarbeitet wurden, kann das Vertrauen in ihre Anwendung insbesondere im tertiären Bildungsbereich erhöht werden.;-;http://eprints.rclis.org/5912/;-;- 3cddb160c2cc2b9b20d543f50f7366e7;de;;;4.1.;;;Informationskompetenz: Auswirkungen auf mexikanische und spanische Universitätsstudenten Ein wachsendes Anliegen der Universitäten ist die Entwicklung eines neuen Bildungsmodells, in dem die Studierenden sowohl für zukünftige gesellschaftliche Verantwortungen ausgebildet werden als auch Informationskompetenz als eine Voraussetzung für lebenslanges Lernen betrachtet wird. Es besteht daher ein dringender Bedarf an empirischen Analysen, um zu ermitteln, inwieweit Hochschulstudenten informationskompetent sind. Daher wurde eine Untersuchung von Universitätsstudenten zweier Institutionen in den USA und Europa durchgeführt, um herauszufinden, wie sie ihre Bibliotheken, Informationen und Computer nutzen. Es wurde festgestellt, dass es Ähnlichkeiten und Unterschiede zwischen den beiden Studentengruppen der Universität Murcia, Spanien, und der Nationalen Universität von Mexiko gab.;-;http://eprints.rclis.org/28518/;-;- 797734ee9f8c9b1a5bd9b953a8423de1;de;;;4.1.;;;Informationskompetenz und Lernen Dieses Kapitel basiert auf Diskussionen, die im virtuellen Workshop und im Präsenzworkshop (F-2-F) zu Informationskompetenz und Lernen stattfanden. Das virtuelle Forum fand von Mai bis August 2005 und ein persönlicher Workshop vom 11. bis 12. August 2005 in Kopenhagen statt. Ziel der Workshops war es, die relevantesten Fragestellungen zum Thema „Information Literacy and Learning“ im Zusammenhang mit dem Curriculum Library and Information Science (LIS) im Kontext des Bologna-Prozesses zu diskutieren.;-;http://eprints.rclis.org/28519/;-;- d209da2fcac244d2a2e0101942a842ee;de;;;4.1.;;;Lese- und Navigationsstrategien von Webnutzern mit geringeren Lese- und Schreibfähigkeiten Etwa die Hälfte der Erwachsenen in den USA liest in der 8. Klasse oder darunter (Kirsch, Junegeblut, Jenkins &, Kolstad, 1993). Dennoch werden die meisten Websites in der 10. Klasse oder höher geschrieben. Das Ziel dieser zweijährigen, von Pfizer gesponserten Studie war zweierlei: 1) die Unterschiede zwischen den Lese- und Navigationsstrategien von Benutzern mit mittleren bis hohen Lese- und Schreibfähigkeiten und solchen mit geringeren Lese- und Schreibfähigkeiten zu verstehen, 2) zu lernen, wie man webbasierte medizinische Inhalte, die für Erwachsene mit geringeren Lese- und Schreibfähigkeiten nutzbar und zugänglich sind, und zur Entwicklung von Gestaltungsprinzipien, die zur Gestaltung von Websites verwendet werden könnten, die den Bedürfnissen sowohl von Benutzern mit höherer als auch niedrigerer Lese- und Schreibfähigkeit gerecht werden.;-;http://eprints.rclis.org/7038/;-;- e8a397aa286d2453b80fd74883a6a530;de;;;4.1.;;;Entwicklungen und Probleme der Informationskompetenz in Spanien Die Einführung der Agenda für Informationskompetenz (IL) in Spanien ist aufgrund kultureller Rückschläge im 20. Jahrhundert vergleichsweise langsam und fragmentiert. Seit den späten 1980er Jahren haben jedoch unter anderem die Entwicklungen bei den Bibliotheksdiensten und die Personalpolitik, Reformen im Bildungswesen und die breite Verfügbarkeit von IKT zu einem besseren Bild geführt, da akademische und öffentliche Bibliotheken im ganzen Land an IL-Aktivitäten für alle Arten von Benutzern ± obwohl Schulbibliotheken noch weit zurückliegen. Die noch zu lösenden Hauptprobleme scheinen die gleichen wie in den meisten vergleichbaren Ländern zu sein: IL als Verantwortung für alle Lernbegleiter, soziales Bewusstsein für die Bedürfnisse des lebenslangen Lernens, Ausbildung von IL-Trainern, Bewertung der individuellen Leistungen und institutionellen Ergebnisse von IL Schulungsprogramme und ein klares Verständnis des Aufgabenbereichs und der Gründe für unterschiedliche Alphabetisierungen innerhalb der Informationsgesellschaft;-;http://eprints.rclis.org/28522/;-;- 759381d8f65fa7a198b09a4405327ed2;de;;;4.1.;;;Makrotrends in der Entwicklung der Universitätsbibliotheken Lateinamerikas: insbesondere fokussiert auf Innovation im Lern- und Forschungsprozess Der Beitrag befasst sich mit den Makrotrends in der Entwicklung der Universitätsbibliotheken Lateinamerikas: insbesondere mit Fokus auf Innovationen im Lern- und Forschungsprozess. Die Bibliothek als Generator von Veränderungen. Die Bibliothek ist führend bei Dienstleistungen. Die Bibliothek entwickelt Veränderungen im Lernen. Die Bibliotheksunterstützung der Forschung.;-;http://eprints.rclis.org/8324/;-;- b0362f31d3db11a7944ffa039b288e23;de;;;4.1.;;;Informationskompetenz als emanzipatorischer Prozess zur sozialen Inklusion in einer Wissensgesellschaft In diesem Beitrag werden Informationskompetenz als Individuum und ein gesellschaftlicher Emanzipationsprozess untersucht. Es untersucht auch das erwachende Bewusstsein der lateinamerikanischen Bibliothekare für Informationskompetenz. Gerade in Entwicklungsländern ist Informationskompetenz ein zentrales Thema, da ein enger Zusammenhang mit sozialer Inklusion besteht. Die Einbeziehung und Mobilisierung von Einstellungen, Wissen und Fähigkeiten, die auf die Ausübung der Staatsbürgerschaft ausgerichtet sind, ist der Kern der sozialen Eingliederung. Dazu gehört auch die Akzeptanz der Unterschiede, die Aufwertung der Vielfalt, das Recht auf Zugehörigkeit und das Streben nach ständiger Verbesserung der Gesellschaft. Informationskompetenz auf einer höheren Ebene, mehr als eine Summe von Fähigkeiten und Eigenschaften, ist ein kontinuierlicher Prozess der adäquaten Mobilisierung zusammenhängender Inhalte. Der Lernpfad, der mit Alphabetisierung, funktionaler Alphabetisierung, digitaler Inklusion und informationeller Inklusion beginnt, gipfelt in sozialer Inklusion. Bibliothekare und Pädagogen werden demnach als Mittler und gesellschaftliche Transformationsagenten verstanden.;-;http://eprints.rclis.org/9212/;-;- 9a752c6d71f60a0bc71d9de96d25703f;de;;;4.1.;;;Informationskompetenz und öffentliche Bibliotheken in Indien Information Literacy-Kompetenz gewährleistet eine maximale Nutzung der Informationsressourcen sowie eine Optimierung der Informationsverarbeitungsfähigkeiten. Viele Bibliotheken und Informationssysteme führen Benutzerorientierungsprogramme ein, um Benutzer über die hervorstechenden Merkmale von Informationsressourcen, Suchtechniken, Suchstrategien, wissenschaftliche Kommunikation und andere Aspekte aufzuklären. In Indien werden von den verschiedenen Agenturen, die auch Architekten moderner Informationssysteme sind, eine Reihe von Schulungsprogrammen für die Endbenutzer durchgeführt. Zum Beispiel führt INFLIBNET Workshops zu Informationsressourcen im Infonet E-Journal-Konsortium durch. NISCAIR führt Workshops zu Informationsressourcen im CSIR E-Journal-Konsortium durch. Das National Informatics Center führt Schulungsprogramme zum „biomedizinischen Informationsabruf“ durch, die die Ressourcen des indischen Mispelzentrums wie IndMED, medIND, OpenMED und UNcat abdecken. Alle diese Trainingsprogramme sollen die Informationskompetenz der Endnutzer entwickeln. In ähnlicher Weise sollten öffentliche Bibliotheksbehörden und öffentliche Bibliothekare den Benutzern öffentlicher Bibliotheken Kompetenzen zur Informationskompetenz vermitteln. Die Bedeutung öffentlicher Bibliotheken würde stärker spürbar, wenn die öffentlichen Bibliotheken normale Bürger und jüngere Generationen anziehen und solche Bibliothekare den Informationsbedarf aller Nutzerschichten decken. Öffentliche Bibliotheken können auch eine zentrale Rolle für nationale Entwicklungsprogramme spielen und eine Massenwirkung solcher Programme bewirken. Daher kann die horizontale Verbreitung von Informationskompetenz den optimalen Wert der geplanten Programme erzielen.;-;http://eprints.rclis.org/7247/;-;- 42fbfcb53edce023f15cd653b91ec40f;de;;;4.1.;;;Eine Literaturübersicht im Bereich Digital Humanities Computing Die Forschung beginnt mit der Notwendigkeit, klar zu definieren, was Digital Humanities sind, wenn man bedenkt, dass Digital Humanities die Untersuchung dessen umfassen, was passiert, wenn Computer als Mittel zur Lösung humanistischer Informationsprobleme dienen. In den digitalen Geisteswissenschaften spielen Humanisten sowohl die Rolle des Verbrauchers als auch der Mitwirkenden und Schöpfer geistiger Werke als digitale Bibliotheken, die Informationen auf neue Weise suchen und nutzen und neue Arten von Produkten entwickeln, von denen viele spezialisierte Ressourcen für den Zugang zu Forschungsinformationen sind viele Humanisten haben keine technischen Kenntnisse und einschlägigen Fakultäten in der Informatik. In der Tat verändern Computer und Digitalisierung nicht nur die Arbeitsbedingungen der Humanisten, sondern auch die Denkweisen der Humanisten und ihre Disziplinen. Die digitale Welt ist in den letzten Jahren radikal gewachsen und zu einem Teil dessen geworden, was die meisten Humanisten tun und sowohl den Weg der Forschung ermöglichen als auch erzwingen und neue Instrumente schaffen, um für sie zu arbeiten. Die anhaltende Revolution in den Informations- und Kommunikationstechnologien (IKT) hat die Arbeit von Wissenschaftlern und Forschern grundlegend verändert, und das Internet bevölkert jetzt das Internet mit vielen Diskussionsgruppen, die sich mit den speziellen Bedürfnissen der nichttechnischen Disziplinen, einschließlich ihrer Verwendung von Computern, befassen. Es ist wichtig, die Benutzer der Geisteswissenschaften und ihre Interaktionen mit digitalen Informationen und in virtuellen Umgebungen zu studieren, um ein umfassenderes Verständnis der Natur ihrer Informationsarbeit, ihrer korpusbasierten Informationsressourcen, zu erlangen.;-;http://eprints.rclis.org/12452/;-;- 607a1a9bed17fdfffb631229411799ca;de;;;4.1.;;;Herausforderungen und Chancen von E-Learning-Netzwerken in Afrika Allam Ahmed und Williams E. Nwagwu untersuchen globale Netzwerke für E-Learning-Netzwerke mit besonderem Interesse an den Merkmalen der Strukturen, die afrikanische Länder zur Teilnahme an der neuen Bildungsstrategie übernehmen, und wie diese Strukturen durch die besonderen sozialen und politischen Eigenschaften Afrikas moderiert werden . Sie betrachten die Herausforderungen und Chancen, denen sich E-Learning-Netzwerke in Afrika gegenübersehen, und schlagen schließlich vor, wie den Herausforderungen begegnet und die Chancen genutzt werden können.;-;http://eprints.rclis.org/28606/;-;- 8302360db0081198b4e053bcd018450f;de;;;4.1.;;;North by Northwest: Informationskompetenz am Yukon College und der Lakehead University In nördlichen Gemeinden ist Isolation eine Tatsache des Lebens und übliche südliche Realitäten wie Highspeed-Internet, Bibliotheken (sowohl öffentliche als auch wissenschaftliche) in Fahrreichweite und F2F-Unterricht sind nicht die Norm. Aufgrund dieser Faktoren ist die Online-Lehre ein Kernbestandteil in nördlichen akademischen Einrichtungen und erfordert daher etwas mehr Vorbereitung. Ein weiterer wichtiger Faktor, den es zu berücksichtigen gilt, ist die vielfältige Studentenschaft: First Nations, reife Teilzeitstudenten der ersten Generation und Berufstätige, die ihre Qualifikationen verbessern. Der vielfältige akademische Hintergrund dieser Studenten macht die Gestaltung des Standardbibliotheks-Tutorials zu einer Herausforderung, eine Größe passt nicht für alle im Norden. Gleichzeitig könnte dies die einzige Möglichkeit sein, wie Studenten mit einem Bibliothekar interagieren, sodass die Online-Umgebung für das akademische Studium dieser Studenten (und hoffentlich für den Erfolg) von Bedeutung ist. Wie also erreicht eine wissenschaftliche Bibliothek mit einer solchen Vielfalt von Studierenden a) diese Studierenden? b) Online-Tutorials entwerfen, die auf eine Vielzahl von Lernstilen abzielen? und c) beurteilen, ob etwas davon funktioniert? Diese Sitzung zeigt Ihnen, wie Sie einen allgemeinen einstündigen Informationskompetenzkurs in eine Online-Sitzung umwandeln, die den Bedürfnissen einer vielfältigen Schülerschaft gerecht wird. Die Referenten werden effektive pädagogische Ansätze für den Online-Unterricht diskutieren, wie man spezifische E-Ressourcen vermittelt und schließlich sicherstellt, dass die Studierenden die E-Ressourcen der Bibliothek tatsächlich finden und sie effektiv und effizient nutzen. Diese Präsentation konzentriert sich nicht so sehr auf Software, obwohl wir besprechen, was wir verwenden, sondern wie man die Software verwendet, um InfoLit effektiv online zu unterrichten. Wir schließen mit einer Diskussion darüber, wie Sie Ihren neuen Online-Ansatz für den Unterricht in Informationskompetenz im Betatest testen können, bevor Sie ihn live für die Schüler starten. Kommen Sie also zu dieser Sitzung und sehen Sie, wie zwei Bibliothekare aus dem Norden (Ontario und Yukon) neue und alternative Methoden entwickeln, um Studenten mit einer Vielzahl von Methoden zu erreichen und ihre Bemühungen zu bewerten. Wie wir in der Tat jeden Aspekt wie die Art des Unterrichts, die Art des Schülers, die pädagogische Theorie usw. untersuchen müssen, um sicherzustellen, dass wir unseren unterschiedlichen Bevölkerungsgruppen gut dienen und zur Bindung und zum Erfolg dieser Schüler beitragen.;-;http://eprints.rclis.org/9482/;-;- 6e2a88bbd17e58e215779c4d9ba88234;de;;;4.1.;;;Eine Umfrage zur digitalen Informationskompetenz der Fakultät der Sambalpur University Informationen spielen heute eine wichtige Rolle im Leben von Einzelpersonen, Organisationen und Institutionen, und Informationskompetenz ist der Schlüssel zur optimalen Nutzung von Informationen. Digitale Medien stellen den Einzelnen vor neue Herausforderungen beim Sammeln, Organisieren, Zugreifen, Auswerten und Nutzen. Diese Umfrage präsentiert die Ergebnisse einer Umfrage unter Lehrenden, die zu ihrer Nutzung digitaler Ressourcen und ihrem Wissen über die Suche und Bewertung dieser Ressourcen befragt wurden;-;http://eprints.rclis.org/11035/;-;- e8c56bc64d32e80f01d9b1f3d94b1378;de;;;3.4.;;;Schöne Kunst des Bloggens - Belgrad und darüber hinaus Als Informationsmanagement-Experte und Person, die sich neben der täglichen Arbeit mit Bloggen, Mensch-Computer-Interaktion, Online-Communitys, Blogosphäre und Web-Aktivismus beschäftigt, ist dies mein kurzer Para-Blog-Aufsatz. Warum blogge ich? Nicht nur wegen der großen Freiheit des kreativen Ausdrucks, sondern auch wegen des Konzepts, mit anderen Fachleuten im eigenen Pool und mit anderen in der Blogosphäre zu verlinken, zu kommunizieren, zu kommentieren, Neues zu lernen (Bildungsrolle), Ideen auszutauschen, Daten Autor von Belgrade and Beyond (auf Englisch) – http://danicar.wordpress.com Autor des Wissenschaftsblogs (auf Serbisch) für eConsortia KoBSON – http://kobson.wordpress.com;-;http://eprints.rclis.org/9907/;-;- 194fa0e21718550fced2e12793455fac;de;;;4.1.;;;Informationskompetenz und aufstrebende Wissensökonomie in Indien Der Prozess der Liberalisierung und Globalisierung der indischen Wirtschaft begann in den 1990er Jahren und katalysierte die Entstehung der Wissensökonomie in Indien. Seitdem haben viele indische Unternehmensorganisationen ihre Präsenz außerhalb des Landes aufgebaut und eine informelle India Inc. im weltweiten Wettbewerb gegründet. Auch die Situation der Informationsinfrastruktur in Indien hat sich seit den 1990er Jahren stark verbessert, nicht nur in den Unternehmensorganisationen, die Wissensressourcen gewinnbringend nutzen, sondern auch in den öffentlichen Institutionen, die Wissen für die Entwicklung aller Aspekte der Gesellschaft und der Menschheit generieren. Der umsichtige Umgang mit Informationsressourcen, die heute hauptsächlich in den öffentlichen Einrichtungen, insbesondere in den Hochschul- und Forschungseinrichtungen, zur Verfügung stehen, sollte an der Informationskompetenz der Akteure gemessen werden. Informationskompetenz ist für die effektive Nutzung, Nutzung und Bewertung der in den Institutionen verfügbaren Informationsressourcen erforderlich. Informationskompetenz kann auch die Lücke schließen zwischen der digitalen Kluft, die wir bei vielen Initiativen auf Basisebene in Indien in Form von „Common Service Centers“, „Dorf-Wissenszentren“, „Community Information Centres“, „E-Chopals“, „gyandoot“ usw. wurde unter Beteiligung von NGOs, Entwicklungsagenturen und Unternehmensorganisationen eingeleitet. Die vorliegende Studie untersucht verschiedene Initiativen in Indien, die sich mit Informationskompetenz bei der Maximierung der Nutzung von Wissensressourcen befassen. Diese Studie konzentriert sich auch auf die verschiedenen Initiativen verschiedener Institutionen, angefangen von der Grundschule bis zur höheren Bildungsstufe, von Fachgesellschaften und anderen Organisationen.;-;http://eprints.rclis.org/13266/;-;- c8568f31b8058b33237957e28865147a;de;;;4.1.;;;Informationskompetenz in Indien und Deutschland – Universitätsbibliotheken als Aktivatoren des lebenslangen Lernens Der Beitrag beleuchtet die Rolle wissenschaftlicher Bibliotheken bei der Förderung und Entwicklung der Informationskompetenz von Studierenden in modernen automatisierten und hybriden Bibliotheken und ihre Rolle bei der Entwicklung einer Wissensgesellschaft. Es definiert Informationskompetenz und die wichtigsten von den Schülern geforderten Informationskompetenzfähigkeiten. Das Papier erläutert Initiativen zur Informationskompetenz in Indien, insbesondere die Rolle von Agraruniversitäten bei der Vermittlung von in den Lehrplan integrierten Informationskompetenzkursen. Er diskutiert die Informationskompetenzprogramme deutscher Hochschulen und grundlegende Modelle der Vermittlung von Informationskompetenz durch Fachbibliothekare an einigen deutschen Hochschulen. Der Artikel erwähnt auch Schwierigkeiten bei der Integration von IL in den Lehrplan.;-;http://eprints.rclis.org/3858/;-;- a14813ab0ddc6aca46ff5ab99a9f3cd4;de;;;4.1.;;;Bildungsreform als Vermittler des Wandels: die Entwicklung der Medienkompetenz in Hongkong im letzten Jahrzehnt Obwohl Medienpädagogik ein vergleichsweise junges Studienfach in Hongkong ist, floriert es bereits. Wieso den? Dieser Beitrag identifiziert die Bildungsreform als einen wichtigen Faktor zur Förderung der Entwicklung der Medienbildung im letzten Jahrzehnt Informationstechnologie (IKT) und die jüngste Überprüfung des Lehrplans. Die Autorin möchte auch herausfinden, ob die in der medienpädagogischen Entwicklung verwendeten Muster ihren eigenen asiatischen Vorbildern entsprechen oder im Gegenteil westlichen Mustern folgen.;-;http://eprints.rclis.org/17663/;-;- c90d72b3b547e0fc00f4f3dd4312ca4e;de;;;4.1.;;;Informationskompetenz: Implikationen für die Bibliothekspraxis Diese Präsentation diskutiert Informationskompetenz, wie sie mit lebenslangem Lernen und anderen Arten von Alphabetisierung verbunden ist und warum sie für die Bibliothekspraxis von entscheidender Bedeutung ist.;-;http://eprints.rclis.org/3991/;-;- b4d46ab0a78d469152c1fbd84065d1a2;de;;;4.1.;;;Herausforderungen im Hochschulbereich: Einführung aktiver Methoden in die Lehrpläne der Ingenieurwissenschaften Ziel dieser Arbeit ist es, ein progressives Projekt zur Evaluation des aktuellen Lehr-/Lernprozesses an unseren Hochschulen zu entwickeln und umzusetzen. Wir werden auch berücksichtigen, dass wir zur Messung und Zertifizierung des Erwerbs von fächerübergreifenden Kompetenzen, wie z. B. der Suche nach bestimmten Informationen, der Arbeit in einer Gruppe usw., die Rollen und Verantwortlichkeiten der Lehrenden identifizieren müssen Professional im Team, das an den Kursen beteiligt ist: Fachleiter, Tutor der Studierendenschaft, Projektkoordinator und Leiter des Lehrplans des Zentrums. Wir enthalten auch ein Beispiel des Lehr-/Lernprozesses, der in vier Phasen unterteilt ist: Reflexion, aktiver Methodenplan, Durchführung und Bewertung. Als nächstes beschreiben wir die Anwendung dieses Ansatzes innerhalb des aktuellen Lehrplans für Ingenieurstudiengänge an der Höheren Ingenieurschule von Vilanova i la Geltru (Technische Universität von Katalonien). Wir werden Beispiele für den Einsatz von PBL (Problem-/Projektbasiertes Lernen) und Kooperativen Lernens in Fächern der MsC-Studiengänge Automatisierung und Industrieelektronik an zwei Oberschulen der Technischen Universität von Katalonien (UPC) aufnehmen. Anhand dieser Erfahrungen werden wir die Verknüpfung und Koordination von Fächern und die Messung der Kompetenzen unserer Studierenden veranschaulichen, um akademische Veränderungen viel einfacher zu machen und uns somit mehr Sicherheit für die bevorstehende Konvergenz der europäischen Hochschulen zu geben.;-;http://eprints.rclis.org/15211/;-;- ce028c43f20956a67c33a284f27fbd34;de;;;4.1.;;;Erforschung digitaler Kompetenzen bei Bibliotheks- und Informationsfachleuten in Bangladesch: Probleme und Empfehlungen Zweck – Der Hauptzweck dieses Papiers besteht darin, die Kompetenzen der digitalen Kompetenz (DL) unter den Bibliotheks- und Informationsfachleuten in Bangladesch zu untersuchen. Design/Methodik/Ansatz – Die Studie basiert auf der Durchsicht der in Sekundärquellen verfügbaren Literatur und den Ergebnissen von Fragebögen, die von Informationsexperten aus Bangladesch erhalten wurden. Die Befragten werden gezielt aus verschiedenen Informationseinrichtungen Bangladeschs ausgewählt. Ergebnisse – Die DL-Kompetenzen der Informationsfachleute in Bangladesch sind insgesamt nicht zufriedenstellend. Forschungsbeschränkungen – Diese Studie ist in ihrem Umfang begrenzt, da sie Fragebögen nur von 40 Informationsfachleuten aus Bangladesch verteilt und erhält. Eine Verallgemeinerung lässt sich jedoch aus den Ergebnissen nicht ableiten. Praktische Implikationen – Das Papier schlägt vor, dass die Regierung von Bangladesch sowie andere höhere Behörden großzügig Mittel bereitstellen, Schulungsprogramme im Bereich IKT durchführen, qualifizierte digitale Mitarbeiter einstellen können usw. Originalität/Wert – Das Papier untersucht die ursprünglichen Ansichten der Bibliothek und Informationsfachleute bezüglich DL-Kompetenzen unter den Informationsfachleuten von Bangladesch.;-;http://eprints.rclis.org/15770/;-;- a5f888d54ed80d87a350858ad94b6ac3;de;;;3.4.;;;Preise, Wirtschaftsförderungen und Stipendien als PR-Techniken im Dienste der Corporate Social Responsibility Preise, Wirtschaftsförderungen und Stipendien/Stipendien sind Techniken der Öffentlichkeitsarbeit, weil sie eine neue Form des Sehens und Verstehens der Organisation fördern und sowohl die interne als auch die externe Öffentlichkeit ansprechen. Sie sind eine Form der Verflechtung mit einigen konkreten Öffentlichkeiten, obwohl ihr Einfluss indirekt auch auf viele andere Öffentlichkeiten ankommt. Sie sind eine Form, die Unruhe der Organisation in Bezug auf ein soziales, kulturelles, pädagogisches oder wissenschaftliches Problem zu kommunizieren. Sie sind eine Form der sozialen, kulturellen, touristischen, pädagogischen oder wissenschaftlichen Förderung. Definitiv eine Form von CSR – Corporate Social Responsibility – die dazu beiträgt, Projekte zu finanzieren, die diese Aufmerksamkeit verdienen.;-;http://eprints.rclis.org/15820/;-;- a0290f54c4b5449164a3dc8c3350d76a;de;;;4.1.;;;Bridging the Digital Divide – Digitale Bibliotheken im Informationskompetenzunterricht in Indien und Deutschland Digitale Bibliotheken schaffen neue Möglichkeiten des weltweiten Zugangs zu Informationen. Nutzungsvoraussetzungen sind einerseits technische Ausstattung und andererseits Informationskompetenz. Ein Mangel an Informationskompetenz kann zu einer digitalen Kluft zwischen informationskompetenten „Onlinern“ und informationsanalphabetischen „Nonlinern“ führen. Bibliotheken verbessern die Nutzung digitaler Bibliotheken durch Unterricht zur Informationskompetenz als integralen Bestandteil des lebenslangen Lernens. Akademische Bibliotheken in Deutschland und Indien überbrücken die digitale Kluft in ihren Ländern nicht nur in Bezug auf Bildung, sondern auch in Bezug auf soziale und wirtschaftliche Entwicklung und politische Teilhabe.;-;http://eprints.rclis.org/14349/;-;- f93eba6b757fa3cfa8320a96f1623360;de;;;3.4.;;;Die soziale Verantwortung in spanischen Energieunternehmen. Kann Altruismus lukrativ sein? Basierend auf einer Studie über die soziale Verantwortung der repräsentativsten spanischen Energieunternehmen wird die soziale Verantwortung der Unternehmen (CSR) als Strategie reflektiert, die ihre Rolle und ihren potenziellen Beitrag zur Marketingdisziplin unterstreicht. Unter Verwendung einer induktiven Methode hat diese Untersuchung die drei repräsentativen spanischen Energieunternehmen (Endesa, Iberdrola und Gas Natural) als Stichprobe genommen und ihre Untersuchung auf das Management ihrer CSR-Maßnahmen konzentriert, sie als Teil ihrer PR-Programme betrachtet und Sonderzahlungen geleistet auf ihre Absicht aufmerksam machen. Die reale Möglichkeit, Vorteile aus der CSR-Arbeit zu ziehen, ermutigt Unternehmen, diesen Weg fortzusetzen.;-;http://eprints.rclis.org/15883/;-;- 8c095f74bfcbd739a7bdfe83d81f23ab;de;;;3.4.;;;Krisenmanagement Dieser Artikel beschreibt die Herausforderungen für Bibliotheken angesichts der globalen Wirtschaftskrise. Es beschreibt Auswirkungen, die an der Institution des Autors sowie in der größeren Bibliotheksgemeinschaft beobachtet wurden. Der Artikel verweist auf eine kürzlich von der International Coalition of Library Consortia an die Verlagsgemeinschaft verteilte Erklärung. Er schließt mit der Frage, ob die Exzellenz von Bibliotheken messbar ist.;-;http://eprints.rclis.org/13798/;-;- b70416ab81fb59d9b1d3854c4bdbaae4;de;;;3.4.;;;Treuhänder-Fundraising-Dialog Zusammenfassung einer Sitzung der BC-Bibliothekskonferenz von 2009, die der Untersuchung gewidmet ist, was öffentliche Bibliotheken in BC tun, um Spenden zu sammeln, und wie Bibliotheksverwalter helfen.;-;http://eprints.rclis.org/13087/;-;- 909d032a89d698a0d9b4968baf10683e;de;;;3.4.;;;Die Auswirkungen des Wirtschaftsabschwungs auf Bibliotheken: Unter besonderer Berücksichtigung der Universitätsbibliotheken Es wird nachgewiesen, inwieweit Bibliotheken aus aller Welt aufgrund des weltweiten Wirtschaftsabschwungs in finanzielle Not geraten sind. Es werden vergleichende Analysen nach Land, Branche und Institutsgröße durchgeführt. Der Artikel konzentriert sich auf die Situation britischer und US-amerikanischer Universitätsbibliotheken und basiert auf den Ergebnissen zweier Forschungsprojekte: 1) einer globalen Fragebogenerhebung, auf die mehr als 800 Institutionen antworteten, 2) einer Fokusgruppenstudie mit 16 britischen Universitätsbibliothekaren.;-;http://eprints.rclis.org/19671/;-;- 2fe6ebc657a408082455a63cb20dc254;de;;;3.4.;;;Wissensaustausch - Ein Netzwerk von vier europäischen Förderorganisationen [Knowledge Exchange: Strategy and Roadmap for a New Network of Transnational Information Service, an Initiative of Four Partner Funding Organizations] Knowledge Exchange ist ein Netzwerk von vier nationalen Förderagenturen, die in ihren jeweiligen Ländern am Aufbau von Informationsinfrastrukturen für Lehre und Forschung tätig sind. JISC (Joint Information Systems Committee), Vereinigtes Königreich SURF Foundation, Niederlande DEF (Danish Electronic Research Library), Dänemark Deutsche Forschungsgemeinschaft/Literaturversorgungs- und Informationssysteme (DFG/LIS), Deutschland. Ziel des Netzwerks ist die Ermöglichung einer sinnvollen und langfristigen Zusammenarbeit in der Informationsinfrastruktur zwischen den Partnerländern. Durch die Zusammenarbeit können die nationalen Organisationen Förderstrategien in ihren eigenen Ländern besser evaluieren und planen und so dazu beitragen, das nationale Profil der geförderten Lehr- und Lernaktivitäten zu schärfen. Ein wichtiger Schritt in diesem Zusammenhang ist die Entwicklung neuer und innovativer Wege des Informations- und Erfahrungsaustausches. Der Wissensaustausch wurde am 01.12.2005 offiziell gestartet. Zu den ersten Projektschritten gehörten die Analyse der Struktur- und Verfahrensunterschiede bei den jeweiligen Fördergebern, die Identifikation gemeinsamer Interessensgebiete, begleitet von Planungsmaßnahmen (Workshops, nationale Review Papers usw.), wie diese Bereiche angegangen werden können, und die Förderung von Best-Practice-Modellen für viele der Themen.;-;http://eprints.rclis.org/7268/;-;- 414d4c52598af92b591e5ee6ebf3babe;de;;;3.4.;;;Angesichts der Krise: Kollapsgefahr oder neue Chancen? Fallstudie der Bibliothek des italienischen Nationalen Gesundheitsinstituts (ISS) Mit dem Ausbruch der Wirtschaftskrise, die vor 5 Jahren begann, sahen sich Bibliotheken mit der Notwendigkeit konfrontiert, ihre Rolle und ihre Dienstleistungen zu überdenken. Die starke Kürzung ihrer Budgets, die sich insbesondere (aber nicht nur) in den Ländern des Mittelmeerraums bemerkbar machte, führte zu einem erheblichen Rückgang der Leistung und der verfügbaren Ressourcen für die Nutzer. Dieses Paradigma zwang die Bibliothekare, ihre Tätigkeit neu zu gestalten, um neue Strategien und Lösungen zu finden, die ein akzeptables Qualitätsniveau der von der Bibliothek angebotenen Dienstleistungen gewährleisten. Der Vortrag analysiert den Weg der Bibliothek des Istituto Superiore di Sanità (das italienische Nationale Gesundheitsinstitut) zur Rationalisierung der Zeitschriftenabonnements, zur Stärkung der Kooperationsstrategien und zur Umsetzung neuer Projekte und Dienstleistungen.;-;http://eprints.rclis.org/25316/;-;- 413665980413d19660310b1c337268dc;de;;;3.4.;;;Öffentlicher Zugang zu öffentlich finanzierter Forschung: Wie und warum verpflichtende Richtlinien durch Geldgeber? Dieser Beitrag soll die Prinzipien vorstellen, auf die sich die verpflichtende Open-Access-Politik von über 40 Förderorganisationen weltweit stützt. Die meisten von ihnen sind im biomedizinischen Bereich tätig. Die Richtlinien verlangen, dass Ergebnisse öffentlich finanzierter Forschung durch Selbstarchivierung in einem offenen Archiv öffentlich zugänglich sein müssen. Einer der letzten Geldgeber, der eine solche Politik verabschiedet hat, ist die Telethon Foundation. Die Europäische Union schreibt auch Open Access für Forschungen vor, die im 7. Rahmenprogramm gewährt werden.;-;http://eprints.rclis.org/15338/;-;- b10958aa97c3c6fbe4a0bd9533cfda26;de;;;3.4.;;;Kreativ- und Kulturwirtschaft als kompliziertes und umkämpftes Gebiet. Ein Interview mit Professor Stuart Cunningham Es ist wichtig, zwischen der Bedeutung der Kreativwirtschaft für die Volkswirtschaften per se und dem Grad ihrer Unterstützung durch staatliche Programme zu unterscheiden“, argumentiert Stuart Cunningham, ein international renommierter Medien- und Kommunikationswissenschaftler, im Gespräch mit JOCIS.;-;http://eprints.rclis.org/38761/;-;- 0623a2824ea90819cd04466bd3d48d83;de;;;3.4.;;;Wie Kultur in den Städten der Welt finanziert wird: Eine vergleichende Analyse von öffentlichen Mitteln, privaten Spenden und neuen Finanzierungsmodellen in 16 Städten von Los Angeles bis Shanghai Dies ist ein kurzer Überblick über die jüngsten Entwicklungen bei der Finanzierung der Kultur in Weltstädten. Diese Überprüfung basiert auf den Ergebnissen des World Cities Culture Finance Report (WCCF), der 2017 von BOP Consulting veröffentlicht wurde und die Finanzierung von Kultur in 16 globalen Städten verglichen und gegenübergestellt hat. Basierend auf WCCF-Daten definiert dieser Review für JOCIS in erster Linie die Stadtkultur und ihre Einnahmequellen, liefert zweitens Statistiken und Zahlen zur Finanzierung von Kultur und erläutert drittens, wie diese Erkenntnisse für die weitere Erforschung der Kulturökonomie und urbane Nachhaltigkeit. Kulturförderung ist zweifellos gut begründet, aber warum spielt es eine Rolle, wie es in den Städten läuft? Bis 2030 werden zwei Drittel der Weltbevölkerung in Städten leben (AP, 2016). Regierungen auf der ganzen Welt stehen vor immer komplexeren Herausforderungen, die durch die rasante Urbanisierung verursacht werden, die von Umweltproblemen bis hin zu sozialer Ungleichheit reichen. Es wird angenommen, dass Kultur in der Lage ist, einige dieser Spannungen zu lindern und aufstrebende urbane Zentren als Orte der Zusammenarbeit zwischen verschiedenen sozialen Gruppen zu schaffen. Tatsächlich werden „viele der großen politischen Themen unserer Zeit […] [jetzt] auf städtischer und nicht auf nationaler Ebene angegangen“ (WCCF, 2017a). Bevor man sich der Frage widmet, wie man die Stadtkultur bei der Lösung einiger dieser Spannungen robuster machen kann, ist es wichtig zu verstehen, was eine Stadtkultur ist, welche Arten von Finanzierungen bereits vorhanden sind und wie sie sich je nach Region unterscheiden?;-;http://eprints.rclis.org/38764/;-;- fa28d81e56c889166d1705710b6ef3be;de;;;3.4.;;;Repository von NSF-finanzierten Publikationen und Datensätzen: Rückseite des Umschlags 15-Jahres-Kostenschätzung Es In dieser Back-of-Envelope-Studie berechnen wir die festen und variablen Kosten für 15 Jahre für die Einrichtung und den Betrieb eines Datenrepositoriums (oder einer Datenbank), um die Veröffentlichungen und Datensätze zu speichern und bereitzustellen, die aus von der National Science Foundation (NSF) finanzierter Forschung stammen. Die Kosten werden auf jährlicher Basis anhand einer festen Schätzung der Anzahl der jährlich veröffentlichten Veröffentlichungen berechnet, in denen die NSF als Finanzierungsagentur aufgeführt ist. Wir gehen davon aus, dass jede Arbeit einen Datensatz hat und schätzen die Größe dieses Datensatzes basierend auf Erfahrung. Nach unseren Schätzungen werden jährlich 64.340 Zeitungen erstellt. Die durchschnittliche Dataset-Größe über alle sieben Direktorate von NSF beträgt 32 Gigabyte (GB). Die Gesamtmenge der dem Repository hinzugefügten Daten beträgt zwei Petabyte (PB) pro Jahr oder 30 PB über 15 Jahre. Die Architektur des Daten-/Papier-Repository basiert auf einem hierarchischen Speichermodell, das eine Kombination aus Fast Disk für schnellen Zugriff und Tape für hohe Zuverlässigkeit und kosteneffiziente Langzeitspeicherung verwendet. Die Daten werden über Workflows aufgenommen, die in institutionellen Repositorien der Universitäten verwendet werden, die Metadaten hinzufügen und die Datenintegrität sicherstellen. Die durchschnittlichen Fixkosten betragen etwa 0,90 USD/GB über einen Zeitraum von 15 Jahren. Die variablen Kosten werden auf einer gleitenden Skala von 150 bis 100 US-Dollar pro neuem Datensatz für die Vorabkuration oder 4,87 bis 3,22 US-Dollar pro GB geschätzt. Die variablen Kosten spiegeln einen jährlichen Rückgang der Kurationskosten um 3 % wider, da Effizienz und automatisierte Metadaten- und Provenienzerfassung voraussichtlich dazu beitragen werden, die heute weitgehend manuellen Kurationskosten zu reduzieren. Die prognostizierten Gesamtkosten des Daten- und Papierrepositoriums werden auf 167.000.000 US-Dollar über einen 15-jährigen Betrieb geschätzt, wobei fast eine Million Datensätze und eine Million Artikel kuratiert werden. Nach 15 Jahren und 30 PB an gesammelten und kuratierten Daten schätzen wir die Kosten pro Gigabyte auf 5,56 US-Dollar. Diese Kosten in Höhe von 167 Millionen US-Dollar sind insofern direkte Kosten, als sie die vom Bund zulässigen indirekten Kosten (ICR) nicht enthalten. Nach 15 Jahren ist davon auszugehen, dass einige Datensätze komprimiert sind und selten darauf zugegriffen wird. Andere können als nicht mehr wertvoll erachtet werden, z. B. weil sie durch genauere Ergebnisse ersetzt werden. Daher muss das Datenwachstum im Repository irgendwann durch strategische Aufbewahrung angepasst werden.;-;http://eprints.rclis.org/20072/;-;- ac9503b7c722f7beb4941e1e2d60bb88;de;;;3.4.;;;Nesta und die sich entwickelnde Creative Industries Policy Agenda in Großbritannien und Australien Dies ist die bearbeitete Abschrift eines öffentlichen Interviews, das zwischen Dr. Hasan Bakhshi, Executive Director, Creative Economy and Data Analytics bei Nesta, und Terry Flew mit Fragen von Greg Hearn, Cori Stewart und anderen Teilnehmern stattfand. Das Interview fand am 13. September 2017 im Creative Industries Precinct, Queensland University of Technology, Brisbane, Australien, statt. Das Interview behandelt die Geschichte von Nesta, seine Rolle bei der Gestaltung der Politik der britischen Kreativwirtschaft und Lehren für andere Länder in Bezug auf die Kunstförderung. Bildung und Kompetenzen sowie das Verhältnis zur Forschungspolitik.;-;http://eprints.rclis.org/38760/;-;- cbd971d34cd20645e767d20ff69e89bd;de;;;3.4.;;;Vorwort: Investitionen in die Kreativwirtschaft Aufgrund der rasanten Veränderungen und gesellschaftlichen Herausforderungen, wie der Notwendigkeit, qualifizierte Arbeitsplätze für junge Menschen zu schaffen und neue Wege zur Erschließung von Territorien durch Strategien der intelligenten Spezialisierung zu finden, kommt der Kreativ- und Kulturwirtschaft als zukunftsfähige Branche eine große Bedeutung zu wirtschaftliche Entwicklung und nachhaltige Gesellschaft. Es gibt viele Beispiele für Länder, Regionen und Städte - Territorien -, die sich auf der Grundlage der Kreativ- und Kulturindustrie entwickelt haben, und in vielen Fällen war die Rolle der öffentlichen Politik entscheidend. Und mit mehr praktischen Beweisen für sichtbare und messbare Ergebnisse ist es sicher, dass kreatives und kulturelles Handeln definitiv auf die Agenda von Regierungen und Politikern gekommen ist, und obwohl der öffentliche Diskurs über seine Bedeutung oft Teil des Marketings von Politikern sein kann (weil es auch gut ist) für das öffentliche Image und generell Investitionen in Kreativität und Kultur werden von der Gesellschaft gut akzeptiert), die Wahrheit ist, dass in den letzten zehn Jahren technische und wissenschaftliche Erkenntnisse hervorgebracht wurden, die einen wachsenden wirtschaftlichen/kommerziellen und symbolischen/ästhetischen Wert von kreativem und kulturellem zeigen Aktivitäten.;-;http://eprints.rclis.org/38740/;-;- 0162ff64fa9361157e6f7592f41333ce;de;;;3.4.;;;House of Horrors: Exorzieren elektronischer Ressourcen Die Bereitstellung des Zugangs zu, die Verwaltung administrativer Elemente von und die Ausübung von Autorität über lizenzierte elektronische Ressourcen sind Herausforderungen von zunehmendem Ausmaß für Bibliotheken aller Art und Größe. In diesem Papier wird die Entwicklung des Endbenutzerzugriffs auf elektronische Ressourcen untersucht. Die Verwaltung administrativer Metadaten wird detailliert beschrieben. Der Beitrag schließt mit einer Klage über den nahezu vollständigen Mangel an Kontrolle, den Bibliotheken über ihre lizenzierten elektronischen Ressourcen besitzen, und die Arsenalbibliotheken müssen dieser schädlichen Situation entgegenwirken.;-;http://eprints.rclis.org/7510/;-;- 2c3cc8ced43a1840bf2c9d8dd13e3043;de;;;3.4.;;;Ökonomie der gemeinsamen Produktion und Implikationen für die Medien- und Kulturwirtschaft: Die Notwendigkeit von Anwendung und Forschung Dieser Artikel befasst sich mit einem Problem der gemeinsamen Produktion aus der Medien- und Kulturwirtschaft. Die gemeinsame Produktion ist ein Produktionsprozess, der zwei oder mehr Produkte gleichzeitig hervorbringt. In der Medien- und Kulturindustrie hat der Einsatz digitaler Technologien es Produzenten ermöglicht, Produkte sowohl online als auch offline zu generieren, daher kann ein gemeinsamer Produktionsprozess für mehrere Plattformen Ergebnisse liefern. Dieses sich ändernde Merkmal hat viele Auswirkungen mit sich gebracht – aus der Sicht des Managements hat es die wirtschaftlichen Gründe geändert, die die Entscheidungsfindung der Manager darüber leiten, ob die Produktion auf den traditionellen Plattformen eingestellt wird oder nicht. Die aktuelle Studie geht der Frage nach, warum in der Gemeinschaftsproduktion unterschiedliche Analysen erforderlich sind. Diese Studie stellt die Konzepte von Abschalt-, Abspaltungs- und Kipppunkten vor, die berücksichtigt werden müssen. Die Autoren schlagen auch einen Ansatz der Zeitachsenanalyse vor, der die Untersuchung der gemeinsamen Produktion für die nächsten Schritte voranbringen kann.;-;http://eprints.rclis.org/34386/;-;- 75da0a511286234ac7c28cac68c55545;de;;;3.4.;;;Konvergenz von Bibliotheken mit anderen wissenschaftlichen Diensten Dieses Papier präsentiert die Ergebnisse einer Studie, die für ein Kapitel in Management von akademischen Unterstützungsdiensten an Universitäten durchgeführt wurde, herausgegeben von T. Hanson und 2005 von Facet veröffentlicht. Dienstleistungen, Bildungsentwicklungsdienste oder andere akademische Unterstützungsdienste, insbesondere im Hochschulbereich. In Großbritannien und den USA ist die Konvergenz mittlerweile gut etabliert und das Buch enthält eine Reihe von Fallstudien. Ziel dieser Studie war es, den Stand der Konvergenz in Europa außerhalb Großbritanniens zu ermitteln. Die Schlussfolgerung war erwartungsgemäß, dass Konvergenz in kontinentaleuropäischen Ländern selten oder nicht vorhanden ist, außer in Deutschland und Finnland, wo es bedeutende Initiativen gegeben hat. Das Papier wird die Gründe dafür untersuchen und untersuchen, ob sich die Situation in Zukunft ändern wird.;-;http://eprints.rclis.org/7283/;-;- b0ced8e0566a666a67687fd73324f284;de;;;3.4.;;;Resonantes Ressourcen-Sharing: Transformationsstrategien für Ressourcen-Sharing Cyril Oberlander teilt seine Vision der Fernleihe, der gemeinsamen Nutzung von Ressourcen, der Dokumentenbereitstellung und des globalen Bibliotheksdienstes. Welche Innovationen, Projekte und Trends prägen die Zukunft der Fernleihe? Wie können wir gemeinsam an Strategien arbeiten, die den Service effektiv skalieren? Wie werden wichtige Entscheidungen für die Zukunft getroffen und wer trifft sie? Was hilft bei der Konzentration unserer verteilten Bemühungen, Systeme usw.? Anhand wichtiger Best-Practice-Beispiele verbindet diese Präsentation die Analyse von Arbeitsabläufen und strategischen Chancen/Herausforderungen für die gemeinsame Nutzung von Ressourcen, um ernsthafte Fragen zu aktuellen Praktiken, Richtlinien und Projekten aufzuwerfen.;-;http://eprints.rclis.org/9924/;-;- 0f88fef4190a30e0c8d2235d245b3a90;de;;;3.4.;;;Mit wertschätzender Nachfrage eine neue Zukunft vorstellen Appreciative Inquiry ist eine Revolution in der Art und Weise, wie wir unser Unternehmen betrachten, ein ganzheitlicher Ansatz, der mit der Gesundheit des Unternehmens beginnt, zu verstehen, was wir gut machen und auf unseren Stärken aufzubauen, anstatt sich auf unsere Probleme zu konzentrieren. Anfang 2006 führte BC Electronic Library Network eine anerkennende Befragungs-Interview-Übung zu zwei Zwecken durch: strategische Planung und Kommunikation. Die Ergebnisse waren erstaunlich: eine Sammlung von Geschichten und Zitaten der Besten von BC ELN aus einer Vielzahl von Perspektiven und aus der gesamten Geschichte von BC ELN, die zur Information der BC ELN-Kommunikation verwendet werden und Teil der BC ELN-Website sein werden. Die Weller Library, University of Northern British Columbia, hat kürzlich einen strategischen Planungsprozess durchgeführt, bei dem der Ansatz der wertschätzenden Untersuchung angewendet wurde. Diese Sitzung wird einen kurzen Überblick über den Ansatz der Appreciative Inquiry geben und die Prozesse und Ergebnisse der Übungen des BC ELN und der University of Northern British Columbia skizzieren.;-;http://eprints.rclis.org/9864/;-;- 817de5f086ee36e61bfa49a7024de163;de;;;3.4.;;;The Creative Cultural Industry: Die Produktion von Konzepten im Prozess der Kommodifizierung von Kultur und ihrer Wirkung Dieser Artikel versucht, die zugrunde liegenden Faktoren hinter dem Hype um die Kreativwirtschaft zu bewerten. Der Beitrag versucht einerseits die Prozesse nachzuzeichnen, die das Interesse hätten aufkommen lassen, und andererseits die Konzepte zu analysieren, die zur Erklärung der Prozesse in der Kultur- und Kreativwirtschaft generiert wurden. Diese Studie analysiert die Machtverhältnisse, die der Verwendung beider Konzepte zugrunde liegen. Daher zielt dieses Papier darauf ab, die wirtschaftlichen und sozialen Auswirkungen der industriellen Produktion und Verbreitung symbolischer Produkte in unserer heutigen Welt zu verstehen und insbesondere die Chancen und Herausforderungen, die dieses Szenario für Länder, meist periphere Länder, die eine Entwicklung anstreben, bietet ihre wirtschaftlichen Strategien im Bereich der Kultur- und Kreativwirtschaft.;-;http://eprints.rclis.org/38759/;-;- eecb46675e700c9aef23c3107a2c4d72;de;;;3.4.;;;Zentralisierte Verwaltung von Abonnements und Zugriff auf die E-Journals der Virtual Health Sciences Library of the Balearic Islands Im Jahr 2003 wurde die Virtuelle Bibliothek für Gesundheitswissenschaften der Balearen (Bibliosalut) gegründet, die mit einer kleinen zentralisierten Abonnementverwaltung von wissenschaftlichen E-Journals, Datenbanken und E-Books begann. Von da an bestand das Ziel darin, vom Papierformat auf das elektronische Format umzustellen und auf diese Weise den Zugang zu hochwertigen wissenschaftlichen Inhalten für Angehörige der Gesundheitsberufe zu verbessern. Das Abonnement, die Verwaltung und der zentrale Zugriff auf die Zeitschriften der Bibliotheken des öffentlichen Gesundheitssystems der Region Balearen (IB-Salut) haben zu einer deutlichen Steigerung der Qualität der abonnierten wissenschaftlichen Ressourcen beigetragen.;-;http://eprints.rclis.org/18665/;-;- 057655121cffdc070ee0a843e7acf1de;de;;;3.4.;;;Strategisches Personalmanagement im Kontext digitaler Bibliotheken Das Ziel des Strategischen Personalmanagements (SHRM) ist es, eine zukünftige Richtung für die Führung von Menschen im Hinblick auf die langfristige Planung des Personalmanagements vorzugeben, indem es mit dem Gesamtplan einer Organisation in Einklang gebracht wird. Die Bibliothek als Organisation praktiziert bereits SHRM, aber es gibt einige Herausforderungen, die aufgrund der enormen Veränderungen im Bibliotheksmanagementstil aufgrund von Digitalisierungsdiensten zu bewältigen sind. Das Wesen und die Rolle der Bibliotheken haben sich als Reaktion auf die neue digitale Umgebung verändert, es wurden neue Anwendungen und Dienste entwickelt, die sich von traditionellen Bibliotheken und ihren Ansätzen zur Informationsbereitstellung unterscheiden. Neue Arten von Aufgaben wurden in der Praxis gelebt und neue Arten von Fähigkeiten und Kompetenzen sind gefragt. Das Management muss die Herausforderungen erkennen und mit der Situation im Hinblick auf den langfristigen Nutzen der Bibliothek sowie des Personals sorgsam umgehen. Dieser Bericht konzentriert sich auf strategische Personalmanagementtechniken in einer digitalen Bibliotheksumgebung, die politischen Entscheidungsträgern helfen können, Wege zu finden, wie sie ihre Mitarbeiter motivieren können, und politischen Planern, die unterschiedlichen Anforderungen ihrer Mitarbeiter im Kontext digitaler Bibliotheken zu identifizieren.;-;http://eprints.rclis.org/25496/;-;- 1f286a8b6f27e4e7f84e147a9d47598e;de;;;3.4.;;;Vorbereitung der Bibliotheken auf die vierte industrielle Revolution (4. IR) Die disruptiven Veränderungen der Ära der 4. Industriellen Revolution für die Bibliotheken ergeben sich aus vielen Aspekten und die gemeinsame Diskussion dreht sich um das Management der technologischen Innovation. Es gibt allgemeine Vorschläge zum Umgang mit disruptiven Veränderungen, aber die spezifische Beschreibung für die Bibliothek, umfassende strategische Maßnahmen zu ergreifen, sind noch ungeklärt. Daher beabsichtigt dieser Artikel, vier strategische Maßnahmen zu erläutern, die ergriffen werden könnten, um die disruptiven Veränderungen als Vorbereitung für die Bibliotheken zu kontrollieren. Die vier strategischen Maßnahmen werden zu den Aspekten der Neugestaltung des Organisationsverhaltens, der Neugestaltung des Geschäftsmodells, der Neustrukturierung des Geschäftsprozess-Workflows und der Neugestaltung von Stellenbeschreibungen und Rollen erläutert. Nachdem die strategischen Schritte unternommen wurden, könnte sich die Bibliothek darauf konzentrieren, genau auf Annahmen, Herausforderungen und Chancen sowie neue Trends zu reagieren. Dies sind die wichtigen Fragen, mit denen man sich befassen muss, um sicherzustellen, dass Bibliotheken für die kommenden Jahre relevant bleiben.;-;http://eprints.rclis.org/34309/;-;- b084f679ac9a89114d98a37da9465af0;de;;;3.4.;;;„Möglichkeiten der Anwendung von Workflow-Automatisierungstechnologien in der „Als Plus“-Organisation“ Automatisierungstechnologien sind ein wesentlicher Bestandteil für Unternehmen, die ihren Erfolg im Jahr 2020 und im neuen Jahrzehnt fortsetzen möchten. Workflow-Automatisierung ist der Prozess der Automatisierung menschlicher Aufgaben, Daten und Dateiweiterleitung zwischen Einzelpersonen oder Systemen. Unternehmen und Einzelpersonen auf der ganzen Welt automatisieren Arbeitsabläufe, weil sie erhebliche Produktivitätssteigerungen feststellen. Das Thema ist relevant, denn alles, was den Gewinn steigert und die Kosten senkt, ist für das Unternehmen wichtig. Durch die Automatisierung des Workflows kann das Team vermeiden, Zeit für Prozesse zu verschwenden, die ersetzt werden können. Workflows können dazu beitragen, sich wiederholende Geschäftsaufgaben zu optimieren und zu automatisieren, Fehler zu minimieren und die Gesamteffizienz zu verbessern. Dies kann die Zeit für die Erledigung der Aufgabe erheblich verkürzen und die Kosten senken. Die Workflow-Automatisierung ist einfach eine Strategie, die dem „Als Plus“-Unternehmen hilft, die Effizienz des Unternehmens, den Gesamtumsatz und den Betrieb zu verbessern. Gegenstand unserer Recherche ist „Als Plus“, der offizielle Partner von 1C und Teil des Netzwerks 1C: Franchisee, 1C: ERP Center, 1C: Consulting, 1C: CORP.;-;http://eprints.rclis.org/40732/;-;- 9d6eebf4d8ed4ff7457081adea26cea3;de;;;3.4.;;;Rahmen für das Management von Cybersicherheitsrisiken an nigerianischen Universitäten Universitäten in Entwicklungsländern, einschließlich derer in Nigeria, sind aufgrund der schlechten Verwaltung ihrer Cyberräume und Ressourcen mit Cyberkriminalität konfrontiert. Das Ergebnis dieser Cyberkriminalität sind Bedrohungen und Verstöße gegen die Cybersicherheit der Universitäten. Die Bedrohungen und Verstöße haben zu erheblichen finanziellen, sozialen und geistigen Verlusten geführt. In jüngster Vergangenheit haben nigerianische Universitäten begonnen, auf diese Cyberangriffe zu reagieren. Viele von ihnen investieren jetzt in Anti-Cybercrime-Tools und -Programme, um Cyber-Sicherheitsbedrohungen und -Verstöße zu mindern. Trotzdem erleiden nigerianische Universitäten immer häufiger Cyber-Angriffe und die daraus resultierenden Verluste nehmen weiter zu. Unsere Beobachtung zeigt jedoch, dass die meisten nigerianischen Universitäten ihre Cybersicherheit betreiben, ohne wissenschaftlich abgeleitete Frameworks zu verwenden, die den Umgang mit Bedrohungen und Verstößen, die von innen und außen ausgehen, beschreiben. Wir betrachten dies als ein Problem für die laufenden Bemühungen nigerianischer Universitäten, Cybersicherheitsbedrohungen und -verletzungen einzudämmen. Die in diesem Papier berichtete Studie wurde daher durchgeführt, um zu erläutern, wie nigerianische Universitäten umsetzbare Rahmenbedingungen entwickeln können, die ihnen helfen können, Cybersicherheitsbedrohungen und -verletzungen einzudämmen. Die Studie basiert auf einer Literaturrecherche und schlägt vor, wie ein umsetzbarer Rahmen entwickelt werden kann, den nigerianische Universitäten übernehmen können, um Cybersicherheitsprogramme auszugleichen. Der Prozess umfasst die Problemidentifikation, die Beschreibung der Ziele, das Entwerfen und Entwickeln des Artefakts, das Testen und Bewerten des Artefakts sowie die Kommunikation des Ergebnisses. Wir kommen zu dem Schluss, dass das Rahmenwerk einen lukrativen Ausgangspunkt für nigerianische Universitäten bietet, um ein effizientes und effektives Cybersicherheitsprogramm aufzusetzen.;-;http://eprints.rclis.org/42255/;-;- 7ce418aeecaf4f5c66e5612c150da3ce;de;;;3.4.;;;Von illegalen Märkten zu legitimen Unternehmen: das Portfolio der organisierten Kriminalität in Spanien Die illegalen Märkte in Spanien werden in Abschnitt 5.6 des Buches analysiert und quantifiziert, gefolgt von einer Analyse, wo und wie die illegalen Einnahmen aus der organisierten Kriminalität in die legale Wirtschaft in Spanien in Abschnitt 8.6 investiert werden. Schließlich wird in den Abschnitten 10.8 und 12.7 die Einziehung von Vermögenswerten aus Straftaten in Spanien überprüft und quantifiziert.;-;http://eprints.rclis.org/25142/;-;- c0c31c67342c8d444073782fc64b083f;de;;;3.4.;;;Der Ressourcenfluch und Besonderheiten des Wirtschaftswachstums in der Ukraine Es werden die Merkmale des Phänomens «Ressourcenfluch» betrachtet, das sich innerhalb der Grenzen der Weltwirtschaft zeigt, und sein Einfluss auf die Tendenz des Wirtschaftswachstums wird bestimmt, Struktur und Dynamik des ukrainischen Volksvermögens und der Länder der Visegrád-Vier werden verglichen, Position des Autors in Bezug auf der Einsatz des «Ressourcenfluch»-Effekts innerhalb der volkswirtschaftlichen Grenzen - das Wachstum des Volksvermögens durch die Erschöpfung des Naturkapitals, die die unzureichende Reproduktion des Kapitalvermögens zusätzlich erhöht, wird bestätigt;-;http://eprints.rclis.org/27924/;-;- 23752f54fd102410a98b4f590f8d8ca6;de;;;3.4.;;;Kreativwirtschaft und regionale Entwicklungsstrategien Das Konzept der Kreativwirtschaft hat sich sowohl im akademischen als auch im politischen Diskurs etabliert. Historisch gesehen hatte es seine Wurzeln in der Politik von Tony Blairs „New Labour“-Regierungen des Vereinigten Königreichs in den späten 1990er und 2000er Jahren. Die Politik der Kreativwirtschaft wurde wiederum von kulturorientierten Stadterneuerungsstrategien in großen britischen Städten wie Manchester, Sheffield und Glasgow sowie von wirtschaftlich orientierten kulturpolitischen Strategien wie dem Creative Nation-Programm der australischen Regierung von 1994 beeinflusst. In den 2000er Jahren gab es einen bedeutenden Prozess der internationalen Verbreitung der Politik der Kreativwirtschaft. Tafel-Viia et. al. identifizierten in 11 führenden europäischen Städten eine solche Politik: Helsinki, Oslo, Stockholm, Amsterdam, Barcelona, ​​Berlin, Birmingham, Tallinn, Riga, Vilnius und Warschau. In europäischen Ländern wie dem Vereinigten Königreich, den Niederlanden, Portugal, Deutschland, Schweden, der Tschechischen Republik und Russland wurden auch wichtige regionale und nationale Maßnahmen entwickelt, und die Kreativwirtschaft stand im Rahmen der Kreativwirtschaftsstrategie der Europäischen Union an vorderster Front das Programm Horizont 2020.;-;http://eprints.rclis.org/38745/;-;- 1b4b9780e2015dc83141ff0a21d73629;de;;;3.4.;;;Gewinnung von Startups in der Kreativwirtschaft und im High-Tech-Sektor. Eine Analyse der Standortfaktoren aus Sicht der Stakeholder Der Artikel konzentriert sich auf Startups in der Kreativwirtschaft und im Hightech-Sektor (dem sogenannten TIME-Sektor) und auf die Relevanz der Faktoren, die die Standortwahl von Startups in diesen neu entstehenden Branchen beeinflussen. Im Hinblick auf den Aufbau eines prosperierenden Startup-Ökosystems geben die Ergebnisse dieser empirischen Forschung Empfehlungen für Vertreter und Designer, die für das Destinationsmanagement und die Regionalentwicklung verantwortlich sind. Für Gründer und Entrepreneure wird im Rahmen der Untersuchung definiert, welche Faktoren für ihre Standortwahl relevant sind. Der Artikel argumentiert, dass sich die Perspektiven der Stakeholder (Unternehmer/Startups und externe Experten) hinsichtlich der Relevanz bestimmter Standortfaktoren teilweise unterscheiden. Sie argumentiert auch, dass die Hauptherausforderung für das Destinationsmanagement und die Regionalentwicklung das Dilemma zwischen einer allgemein positiven Wirtschaftslage und der Entwicklung eines prosperierenden Startup-Ökosystems sein wird.;-;http://eprints.rclis.org/38746/;-;- 61adcce99871f1dee0811bda297e5c97;de;;;3.4.;;;Marketing und Kommunikation von Tourismusorganisationen in sozialen Medien: Eine Fallstudie zu Porto und der nördlichen Region Portugals Dieser Bericht zielte darauf ab, eine wichtige und innovative Studie (insbesondere im portugiesischen Kontext) über die Tourismuskommunikation in sozialen Medien in einem ständig wachsenden internationalen Reiseziel zusammenzufassen: Porto und die nördliche Region Portugals. In einer Zeit, die von der überwältigenden kulturellen, sozialen und politischen Bedeutung sozialer Netzwerke geprägt ist, kommt deren Erforschung eine herausragende Bedeutung zu. Der jüngste wirtschaftliche Aufstieg des Tourismussektors in Portugal verleiht dieser Studie weitere Relevanz, die zur Analyse der neuen Dynamik bei der Tourismusförderung in sozialen Medien und institutionellen Websites beitragen sollte.;-;http://eprints.rclis.org/38765/;-;- 31f4028aa52705e638304b5631817c36;de;;;4.1.;;;Digitales Tattoo: Gut sichtbar und schwer zu entfernen Viele Menschen, die soziale Netzwerke nutzen, verwalten ihre digitale Präsenz nicht aktiv. Diese Sitzung beschreibt das Digital Tattoo Project, eine kollaborative, interinstitutionelle Initiative, die Menschen dabei helfen soll, fundierte Entscheidungen darüber zu treffen, wie ihre Online-Identität sie, ihre Freunde, ihre akademische Erfahrung und ihre aktuellen und zukünftigen Arbeitsmöglichkeiten beeinflusst. Kommen Sie zu dieser Podiumsdiskussion, um eine Demo dieses Blog-basierten, interaktiven Tutorials zu sehen.;-;http://eprints.rclis.org/14542/;-;- 8cd468821a69c5fc7c3facb149feeb92;de;;;4.1.;;;Ureinwohner und Publizieren für Kinder in British Columbia: Hundert Jahre des Wandels Eine Präsentation für die BCLA-Jahreskonferenz, 8. April 2011. Eine Bibliographie neuerer kanadischer Kinderbücher von Autoren, Illustratoren und Verlegern der Ureinwohner wird im Juni 2011 auf der kanadischen Website für illustrierte Kinderbücher in englischer Sprache unter http://ccib.arts verfügbar sein .ubc.ca/CCIB/Welcome.html;-;http://eprints.rclis.org/15543/;-;- 1efb22b9001d74e1341d1b40f937bc11;de;;;4.1.;;;Digitale Kluft und Social Media: Konnektivität beendet die digitale Kluft nicht, Fähigkeiten schon Ob es uns gefällt oder nicht, wir leben in einer sehr ungleichen und geschichteten Welt. Wir leben in Gesellschaften, in denen Ungleichheit in Bildung, Wissenschaft und in den sozialen Medien ignoriert wird. Da sich die Internet-Technologien rasch weiterentwickeln und neue digitale Kluften im Internet entstehen, müssen wir irgendwann über ein einziges Anliegen bezüglich des Internetzugangs und der technologischen Infrastruktur hinausgehen. Wir müssen soziokulturelle Unterschiede angehen, wir müssen uns auf Internetfähigkeiten, Lese- und Schreibfähigkeiten und die Nutzung sozialer Medien konzentrieren.;-;http://eprints.rclis.org/24378/;-;- aeeb1024901fb18a7be83bbde30e0ed5;de;;;4.1.;;;Web Literacy von Doktoranden der Sambalpur University: Eine Analyse Web Literacy ist eine Sammlung von Fähigkeiten und kann als der Punkt angesehen werden, an dem Computerkompetenz mit Informationskompetenz verschmilzt. Die vorliegende Studie ist eine fragebogenbasierte Umfrage unter 200 Doktoranden der Sambalpur University zu ihrem Wissen über das Web und seine Nutzung. Die Studie ergab, dass 44% der Studenten das Web als riesige Informationsdatenbank betrachten, 60,5% der Meinung sind, dass Websites oder Portale die entscheidende Quelle für Webinformationen sind, und 96% suchen das Internet über Google. Darüber hinaus untersucht die Studie die Hindernisse für die Webkompetenz auf institutioneller Ebene und schlägt Maßnahmen vor, um die Nutzung des Internets durch die Studierenden zu verbessern.;-;http://eprints.rclis.org/15758/;-;- 3ffd8d243cb17d1edb473cbe44bdc2a3;de;;;4.1.;;;Förderung der Konvergenz: Informationskompetenz und gemeinsame Nutzung von Bibliotheken in Spanien Die Gemeinschaftsbibliothek wird als Modell für die Konvergenz von Schulen und öffentlichen Bibliotheken aus der Perspektive der spanischen Erfahrung vorgestellt. Es wird das zugehörige Informationskompetenzprogramm beschrieben, das in der virtuellen Lernumgebung implementiert ist, die von Baratz entwickelt wurde, einem erstklassigen Unternehmen für automatische Verarbeitung und Informations- und Dokumentationsflussmanagement, das seit über 25 Jahren Lösungen bereitstellt. Die zugrunde liegende Hypothese ist die Existenz der Allianz zwischen Bibliotheken und Schulen, die seit jeher ein Element der Arbeitsphilosophie von Bibliotheken war, um Ressourcen zu optimieren und Benutzerdienste zu verbessern. Von Anfang an etablierte die moderne öffentliche Bibliothek eine einseitige Zusammenarbeit mit Bildungseinrichtungen, übernahm mehr pädagogische Verantwortung, schuf Umgebungen und bot Führungen für Kinder an und gab Bücher an Schulen aus. Gleichzeitig waren in Gemeinden ohne öffentliche Bibliothek die Schulen die einzigen Einrichtungen, die Bibliotheksdienste anbieten konnten. Aus diesem gegenseitigen Bedürfnis entstanden Mitte des 19. Jahrhunderts die ersten gemeinschaftlich genutzten Bibliotheken. Gegenwärtig, nach vielen Jahren, in denen sie als untergeordnete Form der Erbringung von Bibliotheksdienstleistungen angesehen wurde, hat die Gemeinschaftsbibliothek damit begonnen, ihre Position weltweit mit zahlreichen Beispielen guter Praxis bei der Bereitstellung von Bibliotheksdienstleistungen und beginnenden Erfahrungen in Ländern zu festigen wie Spanien. Die Mitteilung zielt darauf ab, eine mögliche Methode zur Integration der beiden Bibliothekstypen durch ein Informationskompetenzprogramm auf der Grundlage spanischer Erfahrungen aufzuzeigen.;-;http://eprints.rclis.org/31050/;-;- d73658d895502c41c49ef16a1a77c665;de;;;4.1.;;;Effektive Nutzung von sozialen Netzwerken und Technologien in der LIS-Community für die Informationsbereitstellung und Kontaktaufnahme Programm: eine Studie Soziale Medien sind in Hochschulbibliotheken kein Novum mehr, da fast jede Campusbibliothek über einen Twitter- oder Facebook-Account verfügt, um die Studenten auf dem Laufenden zu halten und mit der Bibliothek sowie den wissenschaftlichen Aktivitäten zu interagieren. Aber es gibt einige Hochschulbibliotheken, die wirklich kreative Dinge in den sozialen Medien tun. Hier ist ein Versuch in den Artikeln, das Bewusstsein der LIS-Experten darüber zu diskutieren, was, wie und warum der effektive Einsatz sozialer Netzwerke und Technologien zur Erreichung der Benutzergemeinschaft für ihre akademischen und anderen Bildungszwecke geeignet ist.;-;http://eprints.rclis.org/31086/;-;- e61fec972e4d57576596e25fee74c522;de;;;4.1.;;;Studentisches Engagement und Bibliotheksnutzung: Eine Untersuchung der Einstellungen zur Bibliotheks- und Informationsnutzung unter Studenten an einer türkischen Universitätsbibliothek Das Wettbewerbsumfeld, in dem Universitätsbibliotheken tätig sind und ihre Dienste und Ressourcen bereitstellen, ist eine der größten Herausforderungen, um die Studenten von heute zu gewinnen. Es gibt eine begrenzte Menge an qualitativ hochwertiger Aufmerksamkeit und Zeit, die den Studierenden zur Verfügung steht, um sich mit dem zu beschäftigen, was die Bibliothek ihnen bietet. Die Planung und Gestaltung von Programmen zur Sensibilisierung und Informationskompetenz für Bibliotheken, insbesondere für Studienanfänger, hat sich in jüngster Zeit als eine ständige Herausforderung für Bibliothekare weltweit präsentiert. Der Torpfosten bewegt sich jedoch weiter und die Spieler werden unruhiger, fordernder und suchen sofortige Befriedigung. Der Zweck dieses Beitrags ist es, die Ergebnisse einer Studie vorzustellen, die die Erfahrungen von Studenten im Grundstudium mit Forschung, Bibliotheks- und Informationsnutzung vor dem Eintritt in die Universität sowie ihr Verhalten und ihre Einstellung zu Bibliotheken und Informationen untersucht, nachdem sie mit einer Vielzahl von Bibliotheken Sensibilisierungsaktivitäten und erhielten während ihres ersten Jahres an der Ozyegin University in der Türkei eine Schulung zur Informationskompetenz. Die Studierenden belegen im ersten Semester ein Pflichtfach „Einführung in die Universität“, das von internen und externen Experten zu einem breiten Themenspektrum unterrichtet wird, darunter „Informationsreise“, die von Bibliotheksmitarbeitern präsentiert wird. Die Bibliothek ist auch an der anschließenden Bereitstellung von Informationskompetenzprogrammen in den Hochschulprogrammen von Studierenden beteiligt, um sie kontinuierlich einzubinden und an universitätsweiten Aktivitäten zu beteiligen. Die Mehrheit der neuen Studenten verbringt bis zu einem Jahr mit intensiven Vorbereitungskursen in Englisch. Das Curriculum für das ESL-Programm (Englisch als Zweitsprache) umfasst ein Lernportfolio, das verschiedene Niveaus der Englischkompetenz miteinander verknüpft (z. B. Grundstufe, Vorstufe, Mittelstufe usw.), um sicherzustellen, dass die Schüler das Programm nicht nur mit ausreichender englischer Sprache abschließen Kompetenz, sondern auch mit Informations- und Lebenskompetenzen, die ihnen während des gesamten Studiums und darüber hinaus helfen. Die Forschung wird untersuchen, welche Auswirkungen die Bemühungen der Bibliothek haben, Studierende in die Bibliotheks- und Informationsnutzung und ihr Lernen und ihre Forschung einzubeziehen, indem sie ihre voruniversitären Erfahrungen, Erwartungen und Kenntnisse und Fähigkeiten in Bezug auf Bibliotheken und Informationsnutzung verstehen.;-;http://eprints.rclis.org/18934/;-;- eae1d8b173aa906203de69b954bc32c8;de;;;4.1.;;;Konzeption und Implementierung webbasierter Tools zur Bewertung der Informationskompetenzen von Studierenden der Sozialwissenschaften an spanischen Universitäten Wir beschreiben den Prozess des Entwerfens und Anwendens von vier webbasierten Tools zur Bewertung von Informationskompetenzen, die sich auf Studierende der Sozialwissenschaften an spanischen Universitäten konzentrieren. Wir stützen uns auf unsere bisherige Erfahrung bei der Entwicklung von Webressourcen, Tests und Tutorials zum Erlernen von Informationskompetenzen (E-Coms, Alfamedia, Alfineees, Infolitrans, IL-HUMASS). Das Toolkit umfasst: 1) einen Textkorpus mit kontrolliertem Schwierigkeitsgrad, der von den Studierenden beim Erwerb der erforderlichen Kompetenzen verwendet wird, 2) den IL-HUMASS-Fragebogen, der die Einstellungen und Wahrnehmungen der Studierenden zur Bedeutung und Selbstwirksamkeit Informationskompetenzen, 3) ein Wissenstest, der in vier Kategorien organisiert ist (Informationssuche, -bewertung, -verarbeitung und -verbreitung) und 4) Bewertungsrubriken, die das Know-how der Schüler durch die Erfüllung einer Reihe objektiver Aufgaben beweisen sollen. Die kombinierte Anwendung dieser Instrumente auf eine Stichprobe von Studenten der Sozialwissenschaften ermöglichte es uns, die interne Validität und Zuverlässigkeit unserer Instrumente zu bestätigen.;-;http://eprints.rclis.org/28363/;-;- 2d443b7827bb8de1f03895496e05c180;de;;;4.1.;;;Growing Readers at Storytime: Eine kritische Analyse des Inhalts der kanadischen Bibliothekswebsite über frühe Alphabetisierung Die Websites der öffentlichen Bibliotheken können Eltern kleiner Kinder wichtige Informationen zu Geschichten und anderen Inhalten zur frühen Alphabetisierung bieten. Diese Präsentation fasst eine wissenschaftliche Studie über die Webinhalte von 20 städtischen kanadischen Bibliotheken zusammen, die sich an Eltern kleiner Kinder richten. Der Forscher suchte nach Beweisen dafür, dass Bibliotheken durch ihre Webinhalte zur frühen Alphabetisierung Vielfalt widerspiegeln. Die Ergebnisse der Studie deuten darauf hin, dass Bibliotheken ihre Websites nicht in vollem Umfang nutzen, um die frühe Alphabetisierung in verschiedenen Gemeinschaften zu fördern und zu unterstützen. Anhand von Text- und Bildbeispielen aus den von ihr gesammelten Daten wird die Moderatorin eine Reihe von Empfehlungen hervorheben, die öffentliche Bibliotheken berücksichtigen sollten.;-;http://eprints.rclis.org/19266/;-;- 74e818d4236b7006d5a1438903f79019;de;;;4.1.;;;Going Mobile: Digitale Kluften müssen überbrückt werden Technologieexperten und Aktivisten versuchen seit Jahren mit innovativen Produkten und Initiativen, wie dem von der Organisation One Laptop per Child entwickelten 100-Dollar-Laptop, die Lücke zwischen denen mit und ohne Zugang zu Technologie zu schließen. Aber es braucht mehr als einen Computer, um die Lücke zu schließen. Das Mobiltelefon entwickelt sich zu einem leistungsstarken Werkzeug für soziales Engagement, mobile Technologien und Social-Media-Anwendungen spielen eine entscheidende Rolle, um ausgegrenzten Gruppen eine Stimme zu geben. Und mobile Technologien sind fast allgegenwärtig. Nach Angaben der UN-Agentur International Telecommunications Union befinden sich rund 70 Prozent der Handynutzer in Entwicklungsländern, vor allem im globalen Süden. Mobiltelefone sind die erste Telekommunikationstechnologie in der Geschichte, die mehr Benutzer in den Entwicklungsländern als in den Industrieländern hat – da keine veraltete Infrastruktur zu bedienen ist, springen neue Anbieter direkt zum Mobilfunk. Der technologische Fortschritt hat Mobiltelefone zu einem unverzichtbaren Bestandteil der Entwicklung gemacht. Neue mobile Plattformen sind einfach und portabel. Sie erfordern nur einfache SMS-Funktionen, die in Werkzeuge für eine Vielzahl von Aktivitäten umgewandelt werden können, von der logistischen Unterstützung bei Naturkatastrophen bis zur Verfolgung von Gewalt.;-;http://eprints.rclis.org/24379/;-;- 850a49e32297658124c21b522ca2193c;de;;;4.1.;;;Kulturwandel: Kritische Informationskompetenz in die Praxis umsetzen Dieser Beitrag untersucht am Beispiel von Fremdsprachen die Integration von Critical Information Literacy in den Lehrplan verschiedener Disziplinen. Durch eine genaue Untersuchung der Praktiken und Werte, die der fremdsprachlichen Informationsumgebung innewohnen, legt das Papier nahe, dass eine kritische Vision der Informationskompetenz den am besten geeigneten Ansatz darstellt, um die Campusziele der Ausbildung von Studierenden zu transkultureller Kompetenz zu erreichen. Als solches liefert das Papier ein Beispiel für den Prozess und die Rolle des Bibliothekars bei der Integration kritischer Informationskompetenz in disziplinäre Bereiche und schlägt vor, dass dieser Ansatz in globalen Lerninitiativen wirksam sein könnte.;-;http://eprints.rclis.org/23177/;-;- cabc418c62f70c9c81e679b4b37860a6;de;;;4.1.;;;Heuristiken in der ungezähmten Informationswelt Das Ziel des Artikels ist es, die Rolle von Heuristiken in Bezug auf eine diversifizierte und ungezähmte Informationsumgebung darzustellen und hervorzuheben. Es wurde davon ausgegangen, dass intuitiv genutzte Informationsheuristiken für die heutigen Nutzer von E-Information hilfreich sind, um die für die Erfüllung der gestellten Aufgaben wesentlichen, glaubwürdigsten und ausreichenden Informationen zu gewinnen. Die interessante Forschungsfrage, die es zu beantworten gilt, ist, wie Heuristiken Benutzern helfen, die Qualität und Glaubwürdigkeit von Informationen schnell zu beurteilen, und wie die sozialen Mechanismen des Internets genutzt werden, um diesen Prozess zu unterstützen. Um dies zu überprüfen, konzentriert sich der Autor auf die neuere Forschung, die zeigt, wie die Webbenutzer Informationen nutzen und mit den auftretenden Problemen umgehen, welche Ziele sie verfolgen und welche Heuristiken sie verwenden. Das analysierte Material wird verwendet, um neue Trends im Bereich der Informationswissenschaft aufzuzeigen.;-;http://eprints.rclis.org/23918/;-;- 1b521389abf4d64a2fd3742f0d6258f2;de;;;3.4.;;;Mehr für weniger : Verwaltung des Budgets des OECD-Zentrums für Dokumentation und Information Der Jahreshaushalt der OECD wird durch Beiträge der 30 Mitgliedsländer finanziert. Der Umfang des OECD-Haushalts sowie sein Arbeitsprogramm werden alle zwei Jahre von den im OECD-Rat vertretenen Mitgliedstaaten festgelegt. Das Zentrum für Information und Dokumentation (CDI) der OECD, das zur Abteilung Informationsmanagementdienste gehört, muss den steigenden Informationsbedarf im Rahmen seiner Haushaltsmittel bewältigen. Da die Preise der wissenschaftlichen Zeitschriften jedes Jahr über die Inflationsrate steigen, geht das CDI immer mehr in Richtung elektronischer Zeitschriftenversionen und abonniert die Gesamtkataloge der Verlage, die im Internet zur Verfügung gestellt werden. Diese sogenannten Big Deals können eine kostengünstige Methode sein, um der gesamten OECD einen Online-Zugang zu Tausenden von Zeitschriftenartikeln anzubieten. Konsortien ermöglichen den Mitgliedsbibliotheken häufig eine stärkere gemeinsame Position bei der Verhandlung von Zugangspreisen mit Verlagen. Das CDI ist Mitglied eines französischen Konsortiums wissenschaftlicher und wissenschaftlicher Bibliotheken, wodurch es von niedrigeren Preisen profitieren kann, als wenn es als einzelner Kunde mit Verlagen verhandelt hätte. Es ist jedoch darauf zu achten, dass der Inhalt dieser elektronischen Kataloge für die Arbeit der Organisation relevant ist. Neben diesen elektronischen Verlagskatalogen können Open-Access-Archive eine wertvolle Quelle für frei zugängliches Ressourcenmaterial für Forschende sein;-;http://eprints.rclis.org/8120/;-;- 6c3044e0821a78a46b2977ce4888105c;de;;;3.4.;;;Management & Reorganisation einer wissenschaftlichen Bibliothek in einem sich ständig verändernden Umfeld Da der Anteil der Bibliotheksaktivitäten weltweit immer digitaler wird, ist weniger Arbeit für die physische Bestandsverwaltung und Ausleihe erforderlich, mehr Arbeit ist mit der Verwaltung und Navigation digitaler Ressourcen verbunden. Der Zugang zu elektronischen Ressourcen hat einen großen Einfluss auf den Bibliotheksbetrieb. Aufgrund der neuen Bibliothekstätigkeiten und -dienste wurden eine Reihe von organisatorischen Änderungen vorgenommen. Veränderungen in Arbeitsbelastungen und Arbeitsabläufen führten zu Umstrukturierungen. Auf der anderen Seite ändert sich das wirtschaftliche Profil der Bibliothek in Richtung weniger Ankäufe, mehr Lizenzen, höhere Infrastrukturkosten, besser ausgestattetes und vielseitig qualifiziertes, flexibles Personal. Mitarbeiterschulung und Teamarbeit wurden wichtiger denn je. Neue Verantwortlichkeiten werden delegiert und Teamarbeit gefördert. In diesem Vortrag stellen wir die Auswirkungen all dieser Entwicklungen auf das Management der Middle East Technical University Library und neue Möglichkeiten zur Bewertung und Bewertung dieser Veränderungen vor.;-;http://eprints.rclis.org/6399/;-;- 2214cc5be93f57e72f060428f0cea657;de;;;3.4.;;;Geld und Führung : eine Studie über Abschlussarbeiten über öffentliche Schulbibliotheken, eingereicht beim Institut für Bibliotheks- und Informationswissenschaft der Universität der Philippinen Die größte Herausforderung für Bibliothekare an öffentlichen Schulen auf den Philippinen besteht heute darin, dass kein Geld vorhanden ist, um die notwendigen Verbesserungen zu bezahlen. Diese Denkweise spiegelt sich in den Ergebnissen, Schlussfolgerungen oder Empfehlungen von Doktoranden und Studenten wider, die sich in ihren ab 1940 an der Universität der Philippinen (UP) eingereichten Abschlussarbeiten auf öffentliche Schulbibliotheken konzentrierten. Ihre Lösung: Die Regierung sollte ein reguläres Budget für öffentliche Schulbibliotheken bereitstellen. Nach all diesen Jahren ist es vielleicht an der Zeit zu akzeptieren, dass die Regierung öffentliche Schulbibliotheken bei der Zuweisung knapper Ressourcen nicht als vorrangig betrachtet. Aber warum florieren trotz der Vernachlässigung der Regierung einige öffentliche Schulbibliotheken, während die meisten gleich geblieben sind? Könnte es sein, dass neben Geld noch andere Faktoren berücksichtigt werden müssen? Wie im Fall der beiden am weitesten entwickelten öffentlichen Sekundarschulbibliotheken im dritten Bezirk von Quezon City zu sehen ist, ist auch die Führung sehr wichtig. Schließlich werden zwei Personen, die ähnlich viel Geld erhalten, nicht unbedingt ähnliche Ziele erreichen. Das Wort „Führung“ taucht jedoch nur in einer der Zusammenfassungen von 19 Thesen über öffentliche Schulbibliotheken auf, die von 1940 bis 2005 eingereicht wurden. Diese einsame These bildet die Grundlage für diese Arbeit.;-;http://eprints.rclis.org/7507/;-;- fb03bd865f61f7f0e4b81064f693fd5d;de;;;4.1.;;;Die Macht des Lesens Die Bedeutung des Lesens hat viele Veränderungen erfahren. In der Vergangenheit bedeutete das Lesen einfach, visuelle Informationen aus beliebigen Codes oder Systemen zu extrahieren, und danach wurde es viel komplexer. In der heutigen Zeit wird Lesen definiert als „die Interaktion von dem, was sich im Kopf befindet, mit dem, was sich in einem bestimmten Kontext auf der Seite befindet, das den Leser dazu bringt, das Gelesene zu verstehen“. Lesen ist also die Fähigkeit, Wörter oder Sätze zu erkennen und zu untersuchen und die darin enthaltenen Informationen zu verstehen. Es ist nicht nur ein kognitiver Prozess, eine geschriebene sprachliche Botschaft zu verstehen, sondern auch deren Bedeutung zu untersuchen und zu erfassen. Ist der Ansicht, dass das Lesen eine lange und bemerkenswerte Erfolgsbilanz hat, um positive und dauerhafte Vorteile für die Menschheit zu erzielen. Es gibt eine einigende und zivilisierende Kraft, die dazu neigt, soziale Gruppen durch die Verbreitung gemeinsamer Erfahrungen zu vereinen.;-;http://eprints.rclis.org/40687/;-;- e9c2ecfafcabb20b3857098862eb2023;de;;;4.1.;;;Lesestrategien und Bibliotheksdienste für Kinder und junge Erwachsene in der Türkei Dieser Artikel konzentriert sich auf Schulbibliotheken in der Türkei. Es ist ein allgemeiner Ausblick auf die k-12-Bildung und wie die Gemeinschaft „die Schulbibliothek“ wahrnimmt, unterstützt durch Statistiken in Bezug auf die Öffentlichkeit wie durchschnittliche Bildung von Familien, Alphabetisierungsraten, Einschulungsraten, Bibliotheksbesuchsraten usw. (TUIK 2014) Während Schulbibliotheken eine kritische Debatte über das Leseverhalten in der Türkei anregen, ist es auch sinnvoll, einen Überblick über bestehende Bibliotheken und Leseförderungsprogramme zu geben. Öffentliche Bibliotheken bieten beispielsweise nicht unbedingt ausreichende Programme und zeitgemäße Ressourcen für Kinder, junge Erwachsene (0-18) und ihre Familien. Darüber hinaus ist die Einschulung in Vorschulen viel niedriger als in Europa, und neue Strategien zur Alphabetisierung werden von der breiten Öffentlichkeit oft nicht genutzt. Da das Bildungsministerium kostenlos Lehrbücher an Schulen verteilt, was für Familien mit niedrigem Einkommen von Vorteil ist, wird die Suche nach neuen Büchern über die vorhandenen hinaus gerade für diese Familien und Kinder nicht zu einer wichtigen Tagesordnung. Eine Richtlinie mit dem Titel 100 grundlegende literarische Werke, die vom Bildungsministerium für Kinder von der 1. bis zur 8. Klasse empfohlen wurde, führt zu einer reichen Anzahl von Variationen, die veröffentlicht werden können, während zeitgenössische Kinderliteratur meist aus dem schulischen Kontext herausgenommen wird. Da die Liste oft als anerkannte Ressource angesehen wird, wird die Verwendung von Büchern außerhalb der Liste manchmal von den Lehrern nicht bevorzugt. In diesem Poster wird die kurze Geschichte der Schulbibliotheken und ihre Probleme aufgezeigt. Gehört eine Schulbibliothek zur Ausbildung oder ist sie ein Ergänzungsangebot? Wie sehen Bibliothekare dieses Problem? Wie sieht das Bildungsministerium die Schulbibliothek? Das Land hat nicht nur mit einem Mangel an Schulbibliotheken, sondern auch an ausgebildeten und zertifizierten Schulbibliothekaren zu kämpfen, was ein großes Problem darstellt. Z-Libraries (Z für Zenginleştirilmiş: Enriched Libraries) ist ein neuer Versuch der Regierung, Schulbibliotheken in der Türkei zu verjüngen, der kürzlich mit fast 500 Pilotbibliotheken in Schulen entstanden ist. Während dieses Projekt Kindern eine attraktive und farbenfrohe Bibliotheksatmosphäre bietet, sind Strategien zum Aufbau einer reichen Sammlung hochwertiger Bücher, die Teil dieser Bibliotheken sein werden, in Arbeit. Da die PISA-Ergebnisse (The Program of International Student Assessment) der Türkei noch verbesserungswürdig sind und Lesefähigkeiten und kritisches Denken ein wichtiger Bestandteil der PISA-Bewertung sind, wurde nach neuen Strategien gesucht. Da die Forschung Verbindungen zwischen PISA-Ergebnissen und Lesegewohnheiten im Vorschulalter herstellt, scheinen Kindergartenbibliotheken und diesbezügliche Leseprogramme in der Türkei von entscheidender Bedeutung zu sein und von zahlreichen Organisationen in Betracht gezogen zu werden.;-;http://eprints.rclis.org/40536/;-;- 923a03264315583b8b3f447810de1e1c;de;;;4.1.;;;Evidenzbasierte Praxis mit formativem Assessment in der Unterstützung der Bibliotheksforschung Ziel: Das Ziel dieser Studie war die Entwicklung und Überprüfung der Wirksamkeit eines neuen evidenzbasierten Ansatzes für die Vermittlung von Forschungsunterstützung in Bibliotheken. Methoden: Die formative Bewertung durch zwei Varianten des One Minute Paper-Modells wird verwendet, um die Erfahrungen von Universitätsforschern in bibliothekarischen Forschungsunterstützungssitzungen abzufragen. Vor einer Sitzung bewerten Polling One Minute Papers (POMPs) das Wissen der Forscher über Themen, die in der Sitzung behandelt werden. Nach einer Sitzung überprüfen Reflective One Minute Papers (ROMPs), ob Universitätsforscher die angestrebten Lernergebnisse der Sitzung erreicht haben. POMPs wurden für 16 Sitzungen verwendet und ROMPs wurden für eine Teilmenge von 11 dieser Sitzungen verwendet. Es wurden Beispiele von Antworten der POMPs und ROMPs präsentiert, um die Wirksamkeit dieses Ansatzes für die bibliothekarische Forschungsunterstützung zu beschreiben und zu analysieren. Ergebnisse: Die OMP- und ROMP-Antworten waren aufgrund ihrer Einfachheit und des geringen Aufwands des anweisenden Bibliothekars oder Forschers bemerkenswert informativ. Die Abschlussrate der POMPs betrug 72,7 %. Sie gaben den Forschern die Möglichkeit, ihren aktuellen Wissensstand oder ihre Fähigkeiten zu dem Thema, das in der kommenden Sitzung behandelt werden soll, selbst einzuschätzen. Der Bibliothekar könnte dann den Inhalt der Sitzung an diesen Wissensstand anpassen. POMP-Antworten wurden als Teil des Sitzungsinhalts geteilt, sodass die Forscher sich mit ihren Kollegen vergleichen konnten. Die Abschlussrate der ROMPs betrug 20,9 %, wobei der Reflexionsgrad in den Antworten der einzelnen Forscher von oberflächlich bis aufschlussreich variierte. Tiefere Antworten gaben an, wie die Forscher das Gelernte anwenden oder neue Fragen stellen würden, die sich aus ihrem Lernen ergeben. Fazit: Polling One Minute Papers (POMPs) und Reflective One Minute Papers (ROMPs) sind ein effektiver und effizienter Ansatz, um das Lernen von Forschern zu leiten und die Feedbackschleife für Bibliothekare zu schließen. Diese Tools erweitern die Möglichkeit für Bibliothekare, mit Forschern in Kontakt zu treten, und tragen durch die Anpassung der Sitzungsinhalte dazu bei, den Nutzen von Sitzungen zur Unterstützung der Bibliotheksforschung sowohl für Bibliothekare als auch für Forscher zu maximieren. Der Austausch von POMP- und ROMP-Antworten kann Bibliothekaren dabei helfen, den Unterricht der von ihnen unterstützten Forscher zu koordinieren. Auf institutioneller Ebene können Evidenz in POMPs und ROMPs verwendet werden, um den Wert aufzuzeigen, den die Bibliothek zur Verbesserung des Bewusstseins und der Leistung ihrer Forscher beigetragen hat.;-;http://eprints.rclis.org/28747/;-;- af6338dc181e600ee132e7e4d16fd5f5;de;;;4.1.;;;Ökologisierung der Informationskompetenz durch Spiele Die Neue Bulgarische Universitätsbibliothek verlagert ihren Fokus allmählich auf die Einführung grüner Technologien und Ressourcen für die Informationskompetenz. Zwei neue technologische Trends im Bildungsbereich: BYOD (Bring Your Own Device) sowie Spiele und Gamification werden von Bibliothekaren stetig erkannt und übernommen. Eine mit jQuery generierte Website für mobile Geräte wird verwendet, um die Einführung von Schülern in die Informationskompetenz zu gamifizieren. Wir streben an: 1. ein papierloses Umfeld, 2. einen dynamischen und mobilen Zugang zu Informationen und Feedback, 3. einen Wechsel von einem vorlesungsbasierten Unterrichtsstil zu einem konstruktivistischeren Ansatz und ermutigen die Studierenden, während der Verfolgung selbstständig Wissen aufzubauen eine spielerische Aktivität, 4. bessere Interaktion mit Dozierenden in der fachbezogenen Lehre. Die Testanleitung wurde aus einem Bibliotheksprojekt der St. Cloud State University übernommen. Der Prozess der Zusammenarbeit mit der Campus-Fakultät während des Testunterrichts bot eine praktikable Gelegenheit, papierlose Pädagogik und Spiele als legitime pädagogische Praxis über alle Disziplinen auf dem Campus hinweg einzuführen.;-;http://eprints.rclis.org/31021/;-;- 9ac399bca5d08f535f4bb9f23bbfab93;de;;;4.1.;;;Wirksamkeit der Trainingsintervention zur Verbesserung der Informationskompetenz von Medizinstudenten Diese Studie zielte darauf ab, die Effizienz der Durchführung eines 4-monatigen Kurses zur „effektiven Literaturrecherche“ unter medizinischen Doktoranden zur Verbesserung der Informationskompetenz zu bewerten. Es handelte sich um eine Querschnittsstudie, in der 90 Doktoranden zufällig ausgewählt wurden und an 12 Trainingseinheiten teilnahmen. Effektive Suchstrategien wurden vorgestellt und die Einstellung und Kompetenz der Studierenden zur Online-Suche wurden durch Vor- und Nachfragebögen und Fertigkeitstests gemessen. Die Daten wurden mit SPSS Version 16 unter Verwendung des t-Tests analysiert. Es gab eine signifikante Verbesserung (p = 0,00) in der Einstellung der Schüler. Der Mittelwert (Standardabweichung [SD]) betrug 2,9 (0,8) vor der Intervention gegenüber dem Mittelwert (SD) 3,9 (0,7) nach der Intervention. Die Vertrautheit der Studierenden mit medizinischen Ressourcen und Datenbanken verbesserte sich deutlich. Die Daten zeigten einen signifikanten Anstieg (p=0,03) des Kompetenzwertes der Studierenden in Bezug auf das Design von Suchstrategien und die Durchführung einer Suche. Der Mittelwert (SD) betrug 2,04 (0,7) vor der Intervention gegenüber dem Mittelwert (SD) 3,07 (0,8) nach der Intervention. Auch die Fähigkeit der Schüler, Such- und Metasuchmaschinen anzuwenden, verbesserte sich erheblich. Diese Studie bestätigt eindeutig, dass die Trainingsintervention eine beträchtliche Möglichkeit bietet, die Informationskompetenz von Medizinstudenten zu verbessern.;-;http://eprints.rclis.org/30582/;-;- 9e05c7dea5e939b157b41912a9746b23;de;;;4.1.;;;Selbstwirksamkeitsgefühl der Schüler bei der Suche nach Informationen aus dem Web: Ein PLS-Ansatz Die Rolle der Selbstwirksamkeit in verschiedenen Aufgaben- und Organisationsumgebungen wurde weitgehend hervorgehoben, insbesondere bei der Suche nach Informationen durch Webnutzer. Die aktuelle Forschung wurde durchgeführt, um die erwähnte Rolle erneut zu betonen und auch einen möglichen Zusammenhang zwischen dem Gefühl der Selbstwirksamkeit und dem Erfolg bei der Informationssuche aufzuzeigen. An der Shahed University, Teheran, Iran, wurde eine Umfrage bei einer Stichprobe von Doktoranden durchgeführt. Die Faktorenanalyse unter Verwendung von Structural Equation Modeling durch die PLS-Software zeigte hohe Faktorladungen in Bezug auf alle Elemente, was auf eine gute Anpassung für alle hinweist. Die Skala wurde anhand der strukturellen und allgemeinen Anpassungsgüte validiert, was auf eine hohe Messqualität der Variablen im untersuchten Kontext hinweist. Die Ergebnisse der Studie spiegeln die Bedeutung der Untersuchung des Suchverhaltens der Schüler wider, da es nun möglich ist, ihnen zu helfen, ihre Fähigkeiten zur Informationssuche und -bewertung zu verbessern, die weitgehend mit ihrem Wirkungssinn zusammenhängen. Je mehr Selbstwirksamkeit sie haben, desto mehr Erfolg bei der Informationssuche ist zu erwarten. Designer von Informationssystemen, Manager von Lehrprogrammen für die Informationssuche, Psychologen und dergleichen konnten die Forschungsergebnisse, die für ihre berufliche Tätigkeit von Interesse waren, finden.;-;http://eprints.rclis.org/32203/;-;- 9a83bf19f4f517bd3a4d064d33a85965;de;;;4.1.;;;Intelligente Schulen – eine Innovation in der Bildung: Malaysische Erfahrungen Aufgrund der neuen Umgebung, die durch die Informationsperiode geschaffen wurde, sind Schulungen und das Erlernen neuer Fähigkeiten unvermeidlich. Die Umschulung der Fähigkeiten der Gruppenarbeit zur Koordinierung des Informationszeitalters hat besondere Bedingungen für die Bildung geschaffen. Intelligente Schulen sind eine der Strategien, mit denen Schulen auf die heutigen modernen Bedürfnisse reagieren. Smart Schools setzen sich für Unternehmertum ein, setzen moderne Methoden zur Verbesserung der Bildungsqualität ein und bilden qualifizierte Personen aus, die jederzeit über die Leistungsfähigkeit und Leistungsfähigkeit der modernen Industrie verfügen. Der Zweck dieser Studie ist der Einsatz von IKT in der malaysischen Smart School und der Vergleich mit den Smart Schools im Iran. Zur Durchführung dieser Studie stehen Bibliothek, Dokumente, Websites und elektronische Zeitschriften zur Verfügung. Die Ergebnisse dieser Studie zeigen, dass, obwohl es signifikante Unterschiede zwischen dem Bildungssystem und dem Einsatz von IKT im Iran mit den Standards in Smart Schools in führenden Ländern wie Malaysia gibt, gemäß der ursprünglichen Entwicklung von Smart Schools im Iran, die von Malaysia übernommen wurde , die die Realitäten dieser Aktion in Malaysia anerkennt, kann bei der Entwicklung von Schulen im Land wirksam sein und eine wahllose Entwicklung verhindern.;-;http://eprints.rclis.org/29786/;-;- 9179836ccdd6c0124abd063ac737191e;de;;;3.4.;;;Rolle von MOOCs bei der Neudefinition der Dimensionen des Lernens: Eine Perspektive des Wissensmanagements Das Aufkommen von Massive Open Online Courses (MOOCs) hat die Dimensionen des Lernens in den letzten Jahren verändert. Offene Online-Lernpraktiken haben eine neue Welt der digitalen Transformation des Lernens erschlossen, indem sie ohne zeitliche oder örtliche Einschränkungen zu den Bildungsergebnissen beitragen und diese verbessern. Die Lerntechnologie von MOOCs bietet neue Möglichkeiten, um die Lernerfahrung von Aspiranten zu bereichern und die Lernenden zu motivieren, Wissen durch effektives Lernen auszutauschen. Die vorliegende Studie will den revolutionären Fortschritt ermitteln, den MOOCs in der Lernlandschaft bewirken. Die Studie versucht, MOOCs als Lernwerkzeug im elektronischen Zeitalter aus dem Blickwinkel des Wissensmanagements (KM) zu analysieren. Darüber hinaus untersucht es die Rolle von Bibliotheken bei der Erstellung, Implementierung und Verwaltung von MOOCs und empfiehlt bewährte Verfahren zur Improvisation der Qualität von MOOCs.;-;http://eprints.rclis.org/40194/;-;- 7c262a2f141a751dade20cd0cc4c00c5;de;;;3.4.;;;Aufbau einer digitalen Bibliothek an Agraruniversitäten mit besonderem Bezug zur Zentralbibliothek Uttarbanga Krishi Viswavidyalaya: eine Einführung In diesem Beitrag wird die Entwicklung digitaler Bibliotheken an Agraruniversitäten untersucht. Die meisten Bibliotheken bieten ihren Nutzern heute ein breites Spektrum digitaler Dienste an. Der Indian Council of Agricultural Research &, Government of India hat mehrere Schritte zur Mobilisierung von Bibliotheken unternommen. Das Papier diskutiert die verschiedenen Initiativen der digitalen Bibliothek und die Notwendigkeit eines effektiven Informationssystems für Agrarforscher und ihre Benutzer. Hier wurde eine Einführung in die UBKV zum Umgang mit dem digitalen Umfeld besprochen;-;http://eprints.rclis.org/40764/;-;- 7cd5c8d93fb242bf5842a96a00e27c38;de;;;3.4.;;;Theorie des mentalen Schemas in der Erforschung der Entwicklung des Buches als Publikationsgattung In den letzten Jahren hat das elektronische Publizieren rasant zugenommen. Die meisten Genres von Publikationen, einschließlich Büchern, werden zu digitalen Genres (Cybergenres). Dies wirft Fragen nach der Zukunft des Verlagswesens auf, insbesondere die Frage, ob neue Cybergenres traditionelle Genres ablösen oder eher eine Hybridisierung des Publizierens stattfindet, es sind Fragen nach den Beziehungen zwischen alten und neuen Genres. In der Arbeit wurde die Theorie der Publikationsgattungen verwendet, um Antworten auf diese Fragen zu finden. Genres werden als mentale Schemata behandelt, deren konzeptioneller Inhalt durch einen Rahmen dargestellt werden kann. Durch die Anwendung des Frame-Modells ist es möglich, eine Konzeptdarstellung im Kopf zu präsentieren, einschließlich des Konzepts eines Buches. Die Mechanismen, die die Entwicklung von Schemata ermöglichen, sind wichtig, weil sie verwendet werden, um Änderungen in den Textgenres vorzunehmen. In diesem Artikel wird auf die Veränderungen eingegangen, die sich in Textgattungen, meist Büchern, durch den Einsatz neuer Publishing-Technologien ergeben. Sie werden von der Seite einzelner mentaler Prozesse her beschrieben, die in den Köpfen kommunizierender Personen stattfinden.;-;http://eprints.rclis.org/40461/;-;- b77093cf0d31d63d3103afbe55b43b4c;de;;;3.4.;;;Weisheitsmanagement: ECKM 2007-2017 Rückblick Basierend auf Artikeln und Erkenntnissen, die vor einem Jahrzehnt vorgeschlagen wurden, fährt dieser Artikel mit einer kritischen Überprüfung des Wissensmanagements (KM) und seiner Entwicklung zu dem fort, was wir als Wisdom Management (WM) bezeichnen können. Was ist in diesem Zeitraum (2007-2017) in diesem Bereich passiert? Ist Wissensmanagement noch am Leben? Gibt es wirklich eine Entwicklung in Richtung Wisdom Management? Welche Anzeichen sind auf dem Markt zu erkennen? Ist die Technologie sensibel für diesen Kontext? Was sind die Meinungen der verschiedenen Autoren in dieser Disziplin? Können wir eine neue Prognose wagen? Dieser Beitrag soll all diese Fragen berücksichtigen. Das Papier bietet zunächst einen Kontext (Einleitung) und beschreibt dann die ursprünglich verteidigten Grundsätze und die Prognosen, die 2007 auf der European Conference on Knowledge Management (ECKM) vorgestellt wurden. Sobald diese Grundlagen geschaffen sind, wird in dem Papier ein Überblick darüber gegeben (Reflexionen über ein Jahrzehnt). Obwohl der fragliche Zeitrahmen nur etwa 10 Jahre beträgt, war dies ein sehr bedeutender Zeitraum für das Wissensmanagement. Dieser Beitrag analysiert unterschiedliche Ansichten – vom Niedergang der Praxis und ihrer abnehmenden Popularität bis hin zu Stimmen, die behaupten, dass das Konzept seine gesellschaftliche „Reife“ erreicht hat. Es analysiert auch Trends im Wissensmanagement und in der Technologie und überprüft die Popularität von Wisdom Management und die aktuellen Trends zu all diesen Themen. Schließlich reflektiert das Papier im Abschnitt Schlussfolgerungen die Genauigkeit von Vorhersagen, die vor einem Jahrzehnt gemacht wurden, und wagt es, neue Vorhersagen anzubieten, die die vorherigen bestätigen oder von diesen abweichen. Das Papier sieht sich hauptsächlich zwei Vorhersagen gegenüber, die 2005 gemacht und auf der ECKM 2007 vorgestellt wurden: a) ein neuer Zyklus technischer Expertise in Organisationen wird entstehen (2010) und b) wir müssen uns auf einen weiteren Managementzyklus (2020?) basierend auf Weisheit vorbereiten. Dies ist nur ein Meinungspapier, es ist nicht als förmliche Untersuchung gedacht.;-;http://eprints.rclis.org/32098/;-;- d0a289c296b00b89fb53e0e753ef12a5;de;;;3.4.;;;Digitale Räume und die Wahl von Open-Source-Software: Probleme und Herausforderungen für indische Bibliotheken Das Wachstum und die Entwicklung der Softwaredomäne hat sich in den letzten zwei Jahrzehnten dramatisch verändert. Die Arbeitsumgebung von Bibliotheken wird kollaborativer und serviceorientierter. Das Wissen und die Informationen und die Dokumente, in denen es festgehalten wird, haben eine unvorstellbare Fülle gehabt, wodurch ihre Verwaltung im Laufe der Jahre komplexer und zusammengesetzter wurde. Bibliotheksfachleute müssen entsprechend geformt werden, um die neuen technologischen Herausforderungen zu bewältigen, um die ständig wachsende Informationsindustrie zu bewältigen. Bibliotheksautomatisierung ist ein solcher Bereich, in dem die Anwendung sich schnell entwickelnder Technologien implementiert und praktiziert wird, um die Ressourcen besser zu handhaben und ihren Benutzern zu dienen. Die Auswahl und der Einsatz geeigneter Bibliotheksautomatisierungstools sind einer der entscheidenden Schritte, auf die sich Bibliotheksfachleute konzentrieren müssen, die manchmal das Zusammenwirken von Bibliothekaren und IT-Experten erfordern. Die Studie untersucht die Wahrnehmung von Bibliotheksfachleuten in Bezug auf einige der wichtigsten Aspekte bei der Einführung integrierter Bibliothekssysteme, die sowohl in proprietären als auch als Open Source-Streams verfügbar sind. Um die Primärdaten zu sammeln, wurde eine Umfrage unter ausgewählten Bibliotheksfachleuten in Indien durchgeführt, die eine der Automatisierungssoftware verwenden. Die abschließende Analyse zeigt, dass Open Source Integrated Library Systems (OSILS) besser für den langfristigen Einsatz geeignet sind, da sie mit einer starken Forschungs- und Entwicklungsunterstützung ausgestattet und über viele Jahre kollaborativ entwickelt werden, durch häufige Updates ergänzen und daher mehr haben können erweiterte und aktualisierte Funktionen für langfristige Nachhaltigkeit.;-;http://eprints.rclis.org/40183/;-;- e063262cb32d054e240ed9079f0861b4;de;;;3.4.;;;Neue Ansätze bei der Auswahl und Bewertung elektronischer Ressourcen Während die wissenschaftlichen Bibliotheken in den frühen Jahren des Jahres 2000 fast 16 % ihres Einkaufsbudgets auf elektronische Ressourcen umlegten, die seit Mitte der 90er Jahre allgemein genutzt wurden, ist heute klar, dass sie mehr als 90 % ihrer Budget. Der Auswahl- und Bewertungsprozess von elektronischen Ressourcen hat entweder aufgrund der zunehmenden Budgetschonung für elektronische Ressourcen oder aufgrund der knapper werdenden Budgets der Bibliotheken stark an Bedeutung gewonnen. Im Lichte der oben genannten Tatsachen werden im Rahmen der Studie die Aspekte spezifiziert, die während des Abonnementprozesses der elektronischen Ressourcen zu berücksichtigen sind, der in unserem Land seit Anfang der 2000er Jahre an Geschwindigkeit zu gewinnen begonnen hat. In diesem Rahmen werden neben der Fokussierung insbesondere auf Zugangsmodelle für die elektronischen Ressourcen auch zu beachtende Themen wie Umfang, Inhalt, Funktionalität, Kosten, Verlagsunterstützung, Lizenzierung und technische Anforderungen angesprochen. Ebenso werden primäre Anforderungen und Vorgehensweisen an den Evaluationsprozess spezifiziert.;-;http://eprints.rclis.org/39345/;-;- 918892bdebc6a85778c519381fe3b779;de;;;3.4.;;;Weisheitsmanagement: Die letzte Grenze Ist Wissensmanagement eine vorübergehende Mode oder etwas Tieferes? Wissensmanagement ist heute für die Wettbewerbsfähigkeit von Unternehmen unerlässlich, genauso wie es früher das Datenmanagement und später das Informationsmanagement war. Und genau wie diese beiden werden Maschinen bald (von uns) lernen, Wissen selbst zu verwalten. Aber Wissen ist die Fähigkeit, anhand von Kriterien zu handeln, basierend auf einem Informationsspeicher (Erfahrung), der in den Rahmen eines Wertesystems fällt. An diesem Punkt werden Maschinen Kriterien anwenden, aber welches Wertesystem werden Maschinen verwalten? Es besteht die Gefahr, dass Maschinen die egoistischen Werte der neoliberalen Wirtschaft und der steuererhebenden Staaten erben. In diesem Szenario besteht die Gefahr, dass die Informationsspeicher nur die Interessen des Stärksten (der Organisation) berücksichtigen und die des Einzelnen ignorieren. Konflikte scheinen unvermeidlich. Daher sollten wir auf einen neuen Zyklus vorbereitet sein, in dem Wissen am Gemeinwohl ausgerichtet wird. Eine Praxis, die nicht nur das Wohl bestimmter Unternehmen anstrebt, sondern darüber hinaus das Wohl des Einzelnen, der Gesellschaft und der Erde anstrebt. Die letzte Grenze sollte das Weisheitsmanagement sein, wo technologische Systeme eher die Tugenden des Menschen als seinen Egoismus erben. Wissen soll dazu dienen, die Welt zu verbessern, nicht um sie zu kontrollieren. Wissen und Gutes sollten uns in das Zeitalter der Weisheit führen.;-;http://eprints.rclis.org/12964/;-;- 9f169afa82f2fa945c06a2821f6199c5;de;;;3.4.;;;Wissensszenarien Wissensmanagement besteht heute aus einer Vielzahl von Praktiken. Es gibt jedoch zwei grundlegende Konzepte in der Wissensliteratur: implizites und explizites Wissen. Dieser Artikel schlägt vor, beide Konzepte in Bezug auf die „Realität“ zu konzeptualisieren und schlägt ein grundlegendes Modell für den Erwerb, die Schaffung und die Weitergabe von Wissen vor, indem die Ideen des „organischen Wissens“ und des „anorganischen Wissens“ eingeführt werden.;-;http://eprints.rclis.org/33796/;-;- bd3e98f80e68b65f38020961fa2e2bcf;de;;;3.4.;;;Aufbau des Competitive Intelligence-Wissens: Prozesse und Aktivitäten in einer Unternehmensorganisation In diesem Papier wird der Prozess des Aufbaus und der Entwicklung umfassender Tools, Techniken, Unterstützungssysteme und besserer Methoden zur Nutzung der Wissensprozesse im Bereich Competitive Intelligence erörtert. Der Autor betont die Notwendigkeit des Aufbaus eines ausgeklügelten methodischen Wissenserwerbs über Competitive Intelligence, einer systematischen Sammlung von Competitive Intelligence-Wissen aus verschiedenen Quellen für kritische Analyse, Prozess, Organisation, Synthese, Bewertung, Screening, Filterung und Interpretation von Competitive Intelligence-Wissen. Im Folgenden werden die Fähigkeiten und Kompetenzen von Competitive Intelligence-Experten im Management eines Competitive Intelligence Knowledge Systems (CIKS) hervorgehoben und die Facetten und Unterfacetten von ClKS skizziert. Die Werkzeuge, Techniken und Methoden werden kurz und prägnant vorgestellt. Dieses Papier listet auch die Ziele des Wettbewerbswissens und die Rolle von Competitive-Intelligence-Experten auf;-;http://eprints.rclis.org/40105/;-;- 75e2ef9637769c07b6076ad2d46f37ff;de;;;3.4.;;;Konzepte des Wissensmanagements bei Fachleuten der Bibliotheks- und Informationswissenschaft Diese Studie zielt darauf ab, die Forschungsliteratur zu den Konzepten des Wissensmanagements (KM) bei Fachleuten der Bibliotheks- und Informationswissenschaft (LIS) zu identifizieren, zu sammeln und kritisch zu überprüfen. Die vorliegende Studie basiert auf der Überprüfung veröffentlichter Arbeiten im Bereich WM und Bibliothekswesen. Es wurde beobachtet, dass das im Menschen verankerte Wissen (deren Fähigkeiten und Kenntnisse) sowie das Wissen über die Arbeitsprozesse von Bibliotheken (explizites Wissen) als wichtige Wissensquellen innerhalb von Bibliotheken anerkannt werden. Fähigkeiten von LIS-Fachkräften im Bibliotheks- und Informationsmanagement können für KM sehr von Vorteil sein, aber diese reichen nicht aus und es müssen zusätzliche Kompetenzen in den Bereichen Kommunikation, Personalmanagement, Change Management, Projektmanagement erworben werden. Basierend auf der umfangreichen Literaturrecherche bietet diese Studie eine theoretische Grundlage für weitere Forschungen zur Untersuchung der Probleme und Perspektiven der Implementierung von WM in Bibliotheken.;-;http://eprints.rclis.org/31229/;-;- 2b0e96c6ce131c17d9108fea47ff6fa0;de;;;3.4.;;;Untersuchung des Zusammenhangs zwischen Wettbewerbsfähigkeit und wahrgenommener Servicequalität in Universitätsbibliotheken Da die moderne Informationstechnologie einen Weg zu einer Vielzahl von Informationsdiensten geschaffen hat, stehen den Benutzern viele andere Optionen als der herkömmliche Bibliotheksdienst zur Verfügung. Unter den Informationsdienstleistern ist ein harter Wettbewerb entstanden und daher müssen auch die Hochschulbibliotheken an ihren Wettbewerbsvorteil denken. Servicequalität hat als Strategie zur Entwicklung der Wettbewerbsposition einer Organisation ein hohes Interesse erlangt, und viele Studien in verschiedenen Bereichen haben eine starke Beziehung zwischen Servicequalität und Wettbewerbsvorteil festgestellt. Umgekehrt betrachten einige Praktiker, dass die Wettbewerbsposition der Ressourcenkapazitäten die Verbesserung der Servicequalität beeinflussen kann. Um den Zusammenhang zwischen Wettbewerbsposition und Servicequalität im Kontext einer Universitätsbibliothek zu untersuchen, wurde eine explorative Umfrage unter Verwendung eines VRIO-basierten Fragebogens und eines LibQUAL+-basierten Instruments mit 89 Bibliotheksfachleuten aus 15 staatlichen Universitätsbibliotheken in Sri Lanka durchgeführt. Die Studie zeigt, dass zwischen zwei Variablen eine moderate positive Korrelation besteht (r = .286, n = 66, p = .020). Da der Zusammenhang moderat ist, scheinen weitere Studien unerlässlich, um die Hypothese zu untermauern. Der hohe Prozentsatz an Residuen weist darauf hin, dass mehr Faktoren zur Servicequalität in Universitätsbibliotheken beitragen. Diese Studie entwickelt einen robusten Prozess, um ein Messgerät für eine Wettbewerbsposition in Universitätsbibliotheken zu entwickeln und deckt viele Forschungsbereiche auf diesem Gebiet auf.;-;http://eprints.rclis.org/42009/;-;- 63d4ef07f211e8895595ce4917171bfb;de;;;3.4.;;;Digitales Repository als Instrument des Wissensmanagements In der modernen technologisch fortgeschrittenen Welt wird implizites Wissen, aber auch bestimmte Manifestationen von implizitem Wissen, hauptsächlich in digitaler Form angesammelt, was die Abhängigkeit des Wissensmanagements (KM) von Werkzeugen und insbesondere von Plattformen und Repositorien für digitales Content-Management erhöht. Letzteres kann, unterstützt durch ein Sachklassifikationssystem wie einen Thesaurus oder eine Ontologie, ein vollständiges Wissensorganisationssystem (KOS) bilden. Der Zweck dieses Papiers besteht darin, die Rolle dieser Systeme als integralen Bestandteil von WM zu beschreiben und (neu) zu definieren und ein Beispiel für ein solches KOS einschließlich seiner wichtigen Rolle bei der Wissenserhaltung vorzustellen.;-;http://eprints.rclis.org/29073/;-;- d06d5b609ab412302f639f92edadfa8b;de;;;3.4.;;;Dynamik des Informationstransfers in der Fischerei in Indien Obwohl Indien reich an Wissensressourcen zur Fischerei ist, gibt es verschiedene Einschränkungen bei deren Verwaltung und Nutzung. Für eine nachhaltige Entwicklung des Fischereisektors ist es dringend erforderlich, den Informationsfluss an alle in diesem Sektor, insbesondere an die Basisakteure – die ländlichen Gemeinden – sicherzustellen. Die verfügbaren Wissensressourcen bleiben in verschiedenen Sprachen und Formaten unter verschiedenen Behörden unkoordiniert über ein weites geografisches Gebiet verstreut. Ein System zur gemeinsamen Nutzung von Ressourcen, das die in der Branche herrschenden Informationsanforderungen und Zugangsprobleme adressieren kann, ist dringend erforderlich. Die Studie schlägt die Einrichtung eines Fischereiinformationssystems (FISNet) mit einem Zentralinstitut für Fischereiinformatik als zentralem Knotenpunkt vor. Im Detail werden Netzwerkmodell, Architektur, Komponenten, Standards, Verfahren, Formate, Netzwerk-Backbone, Nutzung von Cloud Computing, Partner, Voraussetzungen, Ausführung etc. besprochen, die als Leitfaden für die Beteiligten dienen können.;-;http://eprints.rclis.org/29026/;-;- fc20a3f7631869cc7a0d8a4ec0d368ed;de;;;3.4.;;;VERWALTUNG DER PERSÖNLICHEN INFORMATIONEN VON LIS PHD SCHOLARS Personal Information Management (PIM) bezieht sich auf eine Reihe von Aktivitäten, die eine Person ausführt, um personenbezogene Daten für verschiedene Zwecke zu erfassen oder zu erstellen, zu speichern, zu organisieren, zu verwalten, abzurufen, zu verwenden und zu verteilen. Dieses Poster berichtet, wie LIS-Doktoranden ihre Informationen verwalten, die sie während der Promotion sammeln. in gedruckter und digitaler Form mit unterschiedlichen Methoden und eigenen Fähigkeiten arbeiten.;-;http://eprints.rclis.org/32349/;-;- ca481e806b541613e91b11d8ebbf2513;de;;;3.4.;;;Computing in indischen Sprachen für das Wissensmanagement: Technologieperspektiven und sprachliche Probleme Der Artikel ist der erste einer Reihe von Dokumenten zu Computeranwendungen in indischen Sprachen, die in der Zeitschrift veröffentlicht wurden. Traditionell basierten Computeranwendungen auf Englisch als Medium der Interaktion mit dem System. Die Technologie ist für indische Sprachen noch nicht brauchbar. Die Mehrheit der indischen Bevölkerung spricht oder schreibt weder Englisch noch versteht sie Englisch und diese Schwäche der Technologie behindert die Versuche, Computer für Bildung und Alphabetisierung zu verwenden, die für die Mehrheit der Bevölkerung gedacht sind, die von der Informationstechnologie profitieren sollte. In vielen Teilen der Welt wurden Computeranwendungen in verschiedenen Regionalsprachen entwickelt, die den Benutzergemeinschaften angemessen sind. Dieses Einführungspapier gibt einen Überblick über die Forschung und Entwicklung der Computerlinguistik, den phonetischen Aspekt indischer Sprachen, Transliterationsstandards, fehlende Einheitlichkeit, Dateneingabemethoden, Tastaturen, phonetische Zuordnung der Vokale und Konsonanten, Webseiten, die die Anzeige von Text in indischer Sprache unterstützen usw. im Kontext des Rechnens in indischen Sprachen.;-;http://eprints.rclis.org/32531/;-;- bf85c04723f3a7ef2020998db19530ad;de;;;4.1.;;;Bewusstsein und Akzeptanz von Informationskompetenz unter den Universitätsstudenten: Eine Fallstudie aus Nordindien Informationen spielen eine sehr wichtige Rolle für die wirtschaftliche und soziale Entwicklung eines Landes. Die vorliegende Studie beschäftigt sich mit dem Bewusstsein und der Nutzung von Information Literacy (IL). Die Studie basiert auf Primärdaten, die mit Hilfe eines strukturierten Fragebogens erhoben werden. Die Studie zeigt, dass die Mehrheit der LIS-Studenten sich der Informationskompetenz bewusst ist, die Schüler der anderen Gruppe jedoch nicht. Die Mehrheit der Schüler verwechselt Informationskompetenz mit Fähigkeiten zur Informationssuche, Computerkenntnissen, digitalen Kompetenzen, Netzwerkkompetenzen und kulturellen Kompetenzen. In der Studie wurde auch die Aufnahme von Informationskompetenz als Teil des Lehrplans in die Hochschulbildung diskutiert;-;http://eprints.rclis.org/38687/;-;- 1d03571c513fc4a10314903473ac68b0;de;;;4.1.;;;Studienberatung im Open- und Distance Learning: Rolle der Bibliothek im Lernmanagement In diesem Papier wurden die sich abzeichnenden Trends im offenen und Fernunterricht sowie das Servicesystem zur Unterstützung der Studierenden im Zuge der jüngsten UGC-Richtlinien erörtert. Rolle der Bibliothek bei der Informationsverbreitung und beim Lernmanagement und bei der Nutzung der neuesten Technologie und Pädagogik im offenen und Fernunterricht.;-;http://eprints.rclis.org/39408/;-;- fe4edaa0979569b84a3391f3d4ffe8f1;de;;;4.1.;;;Elektronische Dissertationen und Dissertationen (ETDs): Eine szientometrische Bewertung des weltweiten Publikationsoutputs von 1996-2017 Das Papier bildet die globale Forschung von ETDs zu verschiedenen Publikationen und Zitationsindikatoren ab. Die weltweite Gesamtproduktion von ETDs im Zeitraum 1996-2017 kumulierte auf 107 Artikel, was ein Wachstum von 59,75 % pro Jahr und durchschnittlich 4,95 Zitate pro Artikel während des Zeitraums verzeichnete. Top 10 der produktivsten Länder, dominiert mit 99,06% Publikationsanteil. Den höchsten Anteil an Publikationen entfielen auf die USA mit 52,34 % und das Vereinigte Königreich im relativen Zitationsindex (1,82). Die Sozialwissenschaften sind einer der beliebtesten Forschungsbereiche in der ETD-Forschung. Die Studie identifiziert die 20 produktivsten Organisationen, Autoren und Top 20 Zeitschriften und 22 häufig zitierte Artikel, die über elektronische Abschlussarbeiten und Dissertationen berichten.;-;http://eprints.rclis.org/41765/;-;- 4af7e4e2665f748d488d4d0bef9ad362;de;;;4.1.;;;Dynamische Duos: Befragung lateinamerikanischer Lehrpläne durch Partnerschaften zwischen Fakultäten und Bibliothekaren Die sich ständig wandelnde Bildungs- und Informationslandschaft hat einen verstärkten Fokus auf die Vermittlung von Pädagogik und Curriculumgestaltung mit sich gebracht. Als Reaktion darauf verfolgt die Fakultät für Lateinamerikastudien in Zusammenarbeit mit Bibliothekaren und Archivaren kreative pädagogische Richtungen und Ansätze in Bereichen wie digitale Wissenschaft und Informationskompetenz. In diesem Runden Tisch werden praxisorientierte Initiativen von Fakultätsbibliothekaren untersucht, die sich auf Fragen im Zusammenhang mit dem globalen Norden und Süden konzentrieren. Die Einzigartigkeit dieses Runden Tisches besteht darin, dass sowohl die Lehrenden als auch der Bibliothekar jeder akademischen Einrichtung anwesend sein werden. Die University at Albany wird die Neugestaltung eines Bachelor-Studiengangs in Lateinamerika, der Karibik und den USA diskutieren, einschließlich eines überarbeiteten Theorie- und Methoden-Decksteins, an dessen Entwicklung und Umsetzung sowohl die Fakultät als auch der Bibliothekar aktiv beteiligt sind. Die Ohio State University wird die Integration von Pädagogik und Forschungsmethoden der Digital Humanities in einen Studiengang zu Literaturen und Kulturen der portugiesischsprachigen Welt untersuchen. Die University of Connecticut wird ihr preisgekröntes Projekt The Puerto Rico Citizenship Archive Project vorstellen, eine Zusammenarbeit zwischen Bibliothek und Fakultät, um eine Datenbank zu erstellen, die Zugang zu allen Dokumenten über die Verleihung der US-Staatsbürgerschaft an die Bevölkerung von Puerto Rico bietet. Die Teilnehmer werden das Potenzial von Partnerschaften zwischen Fakultäten, Bibliothekaren und Archiven erkunden, um transformative lateinamerikanische Lehrpläne und Forschungspraktiken einzuführen. Der runde Tisch wird eine Diskussion über bewährte Verfahren, gewonnene Erkenntnisse, skalierbares Design und Vorteile für Fakultäten und Studenten der Lateinamerikastudien ermöglichen.;-;http://eprints.rclis.org/38375/;-;- 4bfb3755a08743ad83f8b7bc0697a508;de;;;4.1.;;;Perspektiven auf die Informations- und Digitalkompetenz von Studierenden und Fakultäten der Sozialwissenschaften vor und während des Lockdowns aufgrund von Covid-19 Wir analysieren die Wahrnehmungen der sozialwissenschaftlichen Fakultäten über die eigene Informations- und Digitalkompetenz und die ihrer Studierenden sowie die Veränderungen, die sich durch die Virtualisierung des Lernens durch die Coronavirus-Pandemie (Covid-19) ergeben haben. Die verwendete Methodik ist qualitativ und basiert auf der Anwendung von zwei Techniken: Diskussionsgruppen mit erfahrenen Dozenten von drei spanischen Universitäten und Interviews, die mit derselben Stichprobe nach der Einstellung des Präsenzunterrichts durchgeführt wurden. Die Ergebnisse zeigen, dass die an dieser Studie teilnehmenden Fakultätsmitglieder eine kritische Sicht auf die Informations- und Digitalkompetenz der Studierendenschaft haben, was darauf hindeutet, dass ihnen die Fähigkeit zur Bewertung, kritischen Nutzung und Kommunikation von Informationen trotz ihrer Beherrschung der technologischen Werkzeuge und ihrer umfassenden Nutzung fehlt von mobilen Geräten. Darüber hinaus zweifeln sie an ihrer eigenen Fähigkeit, Studierende in dieser Kompetenz auszubilden, und führen die Schwierigkeit, ein solches Lernen zu erreichen und zu fördern, auf verschiedene Faktoren der Hochschulkultur zurück: mangelnde Koordination des Lehrpersonals, das sich teilweise in Situationen beruflicher Unsicherheit oder die Anwendung des Europäischen Hochschulraums an den Universitäten. Die Fakultät erkennt den grundlegenden und übergreifenden Charakter dieser Kompetenz an und tritt dafür ein, dass sie in die reale Arbeitsmethodik aller Fächer integriert wird, nicht getrennt. Schließlich sind die Bemühungen um eine „virtuelle“ Entwicklung der Lehre als Folge der Covid-19-Pandemie ein Schock für die Fakultäten, die eine positive Einstellung zur Überprüfung ihrer eigenen digital-informativen Praktiken zur Anpassung ihrer Lehre erklären, aber glauben, dass dies hat bisher kaum zu einer Verbesserung der informations- und digitalen Kompetenz ihrer Studierenden geführt.;-;http://eprints.rclis.org/40261/;-;- 4de3f6d7639b5dfe0352047163bd5dab;de;;;4.1.;;;Bibliotheksdienste für verschiedene Gemeinschaften in Europa: Der Fall der Roma-Gemeinschaft in Spanien Öffentliche Bibliotheken haben Standards entwickelt, um verschiedenen Bevölkerungsgruppen Lese- und Informationsdienste bereitzustellen. Dies hat der öffentlichen Bibliothek geholfen, eine informelle pädagogische und soziale Rolle zu erfüllen, insbesondere bei der Einbeziehung traditionell ausgegrenzter Gruppen wie der Roma-Minderheit in Spanien. Allerdings sind gut entwickelte Bibliotheksinitiativen in Spanien rar, außerdem gedeihen kultursensible Dienste nicht, und Forschung und Reflexion über diese Realität aus bibliothekarischer Sicht sind selten. Das übergeordnete Ziel dieses Artikels ist es, Bibliothekaren Vorschläge für verbesserte Dienstleistungen für die Roma-Gemeinschaft in Spanien zu unterbreiten. Dies wird durch die kritische Analyse der Dienste öffentlicher Bibliotheken für die Roma-Gemeinschaft erreicht, die derzeit in der Europäischen Union existieren. Basierend auf dieser Analyse werden praktische Vorschläge gemacht.;-;http://eprints.rclis.org/42115/;-;- 4e4d9648bd6f17f0c00f681625926ea1;de;;;4.1.;;;Digitale Informationskompetenz unter Studenten in Dodamarg Digitale Kompetenz ist eine wichtige Voraussetzung für jeden, der im 21. Jahrhundert lebt. Die Informations- und Kommunikationstechnologie hat Einfluss auf das gesellschaftliche und wirtschaftliche Leben der Akademiker. Um die erforderlichen Informationen zum richtigen Zeitpunkt abzurufen, sollte die Person digital kompetent sein. Diese Forschungsarbeit konzentriert sich auf die digitalen Informationskompetenzen von Studenten der geistes- und kaufmännischen Fakultäten am Laxmibai Sitaram Halbe College, Dodamarg. Die Studie konzentriert sich auch auf das Bewusstsein für digitale Ressourcen, den Zweck der Nutzung digitaler Ressourcen, die Häufigkeit der Nutzung digitaler Ressourcen usw. Der Forscher hat die Umfragemethode angewendet und die Daten wurden mithilfe eines Online-Google-Quiz gesammelt. Es wurde auch festgestellt, dass eine große Anzahl von Schülern (61,3%) das Internet zum Lesen von E-Zeitungen nutzt und nur 12,9 % der Schüler das Internet zum Durchsuchen von E-Books nutzen. Es wurde auch festgestellt, dass die meisten der befragten Studenten (98,4%) nur die Google-Suchmaschine kennen.;-;http://eprints.rclis.org/41971/;-;- beb58c105d902d0546665460f78402c5;de;;;4.1.;;; Zur Reflexion massenmedialer Information bei formal hoher Bildung Informationskompetenz ist für die Teilnahme an modernen Mediengesellschaften essentiell. Der folgende Beitrag geht daher der Frage nach, ob und wie Studierende ihre an der Universität erworbenen Fähigkeiten zur Bewertung von wissenschaftlicher Information auch auf massenmedial präsentierte Informationsangebote übertragen. Im Rahmen der 2009 an der Johannes Kepler Universität Linz durchgeführten Fallstudie konnte dabei festgestellt werden, dass Studierende tatsächlich massenmedial vermittelte Information unter Berücksichtigung ihrer erworbenen Kompetenzen beurteilen, aber dennoch unabhängig von der Informationsqualität Probleme haben Informationen zu akzeptieren, die nicht ihrem Vorwissen oder Weltbild entsprechen.;-;http://eprints.rclis.org/19557/;-;- 2d0846a3f72028a104fde82177518e45;de;;;4.1.;;; Ein Bibliothekar mit Informationskompetenz : Festschrift für Dr. Rolf Thiele, Stellvertretender Direktor der Universitäts- und Stadtbibliothek Köln zum 60. Geburtstag Die Bibliothekslandschaft erfährt durch die Einführung der digitalen Medien und den Entwicklungen im IT-Bereich eine Veränderung. Die Universitäts- und Stadtbibliothek Köln hat rechtzeitig diese Herausforderungen angenommen und umgesetzt. Es ist das Verdienst des Stellvertretenden Direktors unserer Bibliothek, Dr. Rolf Thiele, diese Prozesse mit angestoßen, begleitet und gesteuert zu haben. Mit dieser Festschrift stellen Mitarbeiterinnen und Mitarbeiter der USB verschiedene Aspekte und Projekte des Hauses vor und gratulieren ihm zu seinem 60. Geburtstag.;-;http://eprints.rclis.org/17475/;-;- a56c58d0dd6d7b33df2413955a0e40bc;de;;;4.1.;;;Die QuaSARS-Methode zur Durchführung nützlicher Literaturrecherchen in der Social-Media-Forschung: ein schrittweises Vorgehen Die Literaturübersicht erfasst einflussreiche Autoren oder Werke, Entwicklungen, Diskurse, Schlüsselkonzepte, Kontroversen oder Vergleiche und Trends zu jedem Thema der Social-Media-Forschung. Dieses Tutorial bietet einen Schritt-für-Schritt-Ansatz zur Durchführung einer Literaturrecherche zur Social-Media-Forschung und den erforderlichen kritischen Qualitätsproblemen. Der Abschnitt diskutiert: (a) warum eine Literaturrecherche für die Social-Media-Forschung notwendig ist, (b) erkennt verschiedene Arten von Literaturrecherchen und wie sie sich von der Literaturrecherche unterscheiden, (c) stellt den QuASARS-Konzeptrahmen vor (Frage, Ansatz, Suche , Verwalten, Berichten, Synthese und Teilen) als Methode für Literaturübersichten, (d) identifiziert Literaturquellen zur Social-Media-Forschung und (e) führt die Leser zu Techniken zur Synthese der Literatur. Eine hypothetische Studie über die jüngste Flut von Fake News, die während des neuartigen COVID-19 (Coronavirus) in den sozialen Medien kursierten, wird verwendet, um die Konzepte im Tutorial zu veranschaulichen. Diese theoretische Studie zeigt, wie die Fragen der Literaturübersicht und Techniken zum Umgang mit der relevanten Literatur fokussiert werden können. Zum Beispiel, wie man Literaturmatrixtabellen, Concept Maps und die Verwendung von elektronischen Literaturverwaltungen erstellt und anwendet. Diese Arbeit führt eine detaillierte Diskussion über Rahmenbedingungen zur Auffindung und Problematisierung der Literatur durch, um Themen aus der symbiotischen Beziehung zwischen den Forschungsfragen und der Argumentation herauszukitzeln. Das Tutorial wendet einige gängige Social-Media-Forschungsfragen an, um die Arten der Lückenfindung und Problematisierung zu veranschaulichen. Schließlich wird diskutiert, wie die Literaturübersicht synthetisiert werden kann, d. h. die Anwendung komplexer Argumentation (unterschiedliche Zuordnung und vergleichendes Denken), um ein dialektisches Argument zu erstellen. Die Schritte in diesem Forschungsdesign der Literaturumfrage werden möglicherweise nicht starr befolgt, da sich einige Schritte mit anderen überschneiden oder von einer anderen Ebene abhängen oder vor anderen durchgeführt werden.;-;http://eprints.rclis.org/40304/;-;- b3a575574e09d16331e9e464c5f4d95e;de;;;3.4.;;; Finanzielle Experimente im wissenschaftlichen Publikationswesen Die bisherige Aufgabenverteilung im Publikationswesen - die Wissenschaftler lasen Literatur und schrieben Beiträge, die Verleger brachten diese Beiträge auf den Markt und die Bibliotheken beschafften diese - wurde durch die Entwicklungen der letzten Jahre in Frage gestellt: Die Preise für wissenschaftliche Publikationen stiegen derart, dass die Bibliotheken nicht mehr die gewünschte Menge von (gedruckter) Information beschaffen können. Die elektronische Kommunikation führt dazu, dass die in den Publikationen enthaltenen Informationen bereits bekannt und ausführlich diskutiert sind, bevor die gedruckte Version auf den Markt kommt. Dies führt zwangsläufig zur Überlegung, dass die Wissenschaftler mit geeigneter Organisation ihre Mittel für Literatur und Information effizienter einsetzen können, als beim Umweg über kommerzielle Verlage. Aus dieser Überlegung entstand die Idee des Open Access, der freien wissenschaftlichen Information im Internet. Aber auch die Bereitstellung dieser Information muss bezahlt werden. In diesem Beitrag wird diskutiert, wie dies bezahlt wird, wer in den Wissenschaftlichen Institutionen die Literatur und Information künftig bezahlt, und wie diese Veränderungen sich auf die Struktur der wissenschaftlichen Informationsversorgung und ihre Institutionen auswirkt.;-;http://eprints.rclis.org/14110/;-;- 78573a8ba83d4caa1f2cdd8a400c66c8;de;;;3.4.;;; Aus grauen Mäusen bunte Vögel! Bahnbrechende Ideen zu einer PR für Bibliotheken Der Beitrag präsentiert angeblich die wörtliche Mitschrift eines Vortrages des (fiktiven) Experten Jochen G. Schwafel, während der tatsächliche Autor zum Zwecke der Parodie unter einem Pseudonym agiert. Eine knappe, aber fundierte Einführung in alle Aspekte der Öffentlichkeitsarbeit für Bibliotheken (Positionierung als Dienstleister, Werbung, Direct Marketing und Pressearbeit) wird konterkariert durch den Übereifer des Experten, dessen allzu ambitionierte Ideen und Beispiele wieder und wieder ins Lächerliche kippen. Auf solche Weise findet die Ambiguität moderner Öffentlichkeitsarbeit ihren Ausdruck: Zum einen kommt heute kein erfolgreiches Unternehmen mehr ohne PR aus, zum anderen aber drohen entsprechende Bemühungen rasch ins Laute, Plakative und Peinliche abzudriften.;-;http://eprints.rclis.org/8825/;-;- ba573aa6f7744c70efe4dc378032d845;de;;;3.2.;;;Gemeinsam für den akademischen Erfolg: Ein tri-institutionelles Programm zur Informationskompetenz für Gymnasiasten Dieser Artikel beschreibt eine fast jahrzehntelange Partnerschaft zwischen drei Institutionen, die schulische, öffentliche und akademische Einrichtungen in Westchester County, New York, repräsentieren. Das Programm, das darauf abzielt, die akademischen Leistungen lokaler Gymnasiasten zu verbessern, ist aufgrund des intensiven Kontakts der Schüler mit akademischen Bibliothekaren während des Schuljahres einzigartig, einschließlich zweitägiger Orientierungsveranstaltungen und individueller Beratungsgespräche. Unter Verwendung von Erfahrungen als Partner in dieser Zusammenarbeit, Interviews mit sechs Lehrern und Bibliothekaren und der vorhandenen Literatur identifiziert dieser Artikel bewährte Verfahren und Schlüsselfaktoren für akademische Bibliotheken, die Lehr- und Vermittlungsaktivitäten für weiterführende Schulen in Betracht ziehen oder derzeit anbieten.;-;http://eprints.rclis.org/28168/;-;- 0a43475643455d6978371c881576c550;de;;;3.4.;;;Erweiterte Öffnungszeiten der Bibliothek Die Verlängerung der Öffnungszeiten der Bibliothek ist sowohl für öffentliche als auch für LIS-Experten nützlich. Fünf Gesetze, Notwendigkeit verlängerter Öffnungszeiten, Probleme verlängerter Bibliothekszeiten, Implikationen verlängerter Bibliothekszeiten. ROCLOLIB sind die verwandten Themen, die in diesem Artikel behandelt werden, um die Bedeutung verlängerter Bibliothekszeiten hervorzuheben.;-;http://eprints.rclis.org/5827/;-;- 7ad565770c963cd6225ab379ab79055c;de;;;3.4.;;;Kundenservice: Ihr Bestes geben Dies ist ein Bericht über die Präsentation Kundenservice: Geben Sie Ihr Bestes, die auf der Konferenz der Saskatchewan Library Association/Saskatchewan Association of Library Trustees Conference, North Battleford, SK, 25.-28. April 1996 stattfand. Diese Sitzung wurde von Val Solash aus Edmonton gehalten Öffentliche Bibliothek und wurde entwickelt, um Bibliothekare zu besseren Kundenservice-Anbietern zu machen. Zu den Tipps gehörte die Erkenntnis, dass jeder in einer Organisation Kunden hat (interne und externe Kunden) und dass Kunden Momente der Wahrheit haben, wenn sie mit irgendeinem Aspekt der Organisation in Kontakt kommen. Darüber hinaus wurde ein Total Product Concept-Modell für den Kundenservice vorgestellt, das Kern-, erwartete und übertroffene Leistungen beschreibt.;-;http://eprints.rclis.org/11430/;-;- afe5b5020e6202e8d3e978b4cc4760ea;de;;;3.2.;;; Forum Universitätsbibliotheken Österreichs (ubifo) – Struktur, Aufgaben und Projekte der Kooperation bundesstaatlicher Universitäten in Österreich Das Forum Universitätsbibliotheken Österreichs (ubifo) ist ein Kooperationsgremium der Universitätsbibliotheken der 21 bundesstaatlichen Universitäten sowie der Österreichischen Nationalbibliothek. Im Beitrag werden die mit dem Inkrafttreten des Universitätsgesetzes 2002 für die Universitätsbibliotheken wirksam gewordenen Änderungen skizziert. Es folgt eine Zusammenstellung der nationalen und internationalen Kooperationen, an denen die österreichischen Universitätsbibliotheken beteiligt sind. Ein weiterer Schwerpunkt des Beitrages liegt auf der Darstellung der aktuellen Projekte sowie möglicher zukünftiger Handlungsfelder des Forums.;-;http://eprints.rclis.org/20169/;-;- 4c57a2f22bd77e2d537552bf8e3dab48;de;;;3.2.;;;Wissensaustausch und seine Sicht auf Open Access Der Wissensaustausch ist eine Kooperation zwischen DEFF (Dänemark's Electronic Research Library), Dänemark, DFG (Deutsche Forschungsgemeinschaft), Deutschland, JISC (Joint Information Systems Committee), Großbritannien, SURF (SURF Foundation), Niederlande. Der Wissensaustausch ist eine Initiative mit dem Ziel, engere Arbeitsbeziehungen zwischen den wichtigsten nationalen Agenturen und Einrichtungen in Europa aufzubauen, die für die Entwicklung von Infrastrukturen und Diensten zur Unterstützung des Einsatzes von Informations- und Kommunikationstechnologien (IKT) in Bildung und Forschung verantwortlich sind. Open Access ist eines der Tätigkeitsfelder der Initiative Wissensaustausch. Die gemeinsame Petition an die EU Anfang 2007 ist das bekannteste Ergebnis (http://www.ec-petition.eu/). Weitere Aktivitäten sind geplant und werden dem Publikum vorgestellt.;-;http://eprints.rclis.org/10835/;-;- 20775bc2f05e6a0b87ea1390a6900d74;de;;;3.2.;;;Das Public Knowledge Project & Synergien Das Public Knowledge Project (PKP), initiiert von Dr. John Willinsky an der University of British Columbia, hat das Open Source Open Journal Systems entwickelt, das von etwa tausend Zeitschriften weltweit verwendet wird, um vollständig oder teilweise Open-Access-Zeitschriften zu veröffentlichen. Die Zahl der Zeitschriften, die OJS verwenden, wird voraussichtlich 2008 auf etwa 1.500 ansteigen. PKP ist derzeit eine Partnerschaft der UBC, der Simon Fraser University Library und des SFU Center for Studies in Publishing sowie der Stanford University. PKP ist eine lebendige Open-Source-Community mit einer Reihe von Zentren, die Code beisteuern. Synergies ist eine Partnerschaft von Universitäten in ganz Kanada, um die Unterstützung kanadischer Zeitschriften beim Übergang zum elektronischen Publizieren zu koordinieren. Die meisten Synergies-Partner verwenden OJS-Software.;-;http://eprints.rclis.org/11369/;-;- fc5a68702dca8c6caae2cb0c3fcff602;de;;;3.2.;;;Bericht über die Überprüfung der Pilotphase der thematischen Wissensnetze der FAOAO Das FAO-Wissensforum wurde 2006 als Plattform für den verstärkten Austausch des Wissens- und Fachwissens der Organisation ins Leben gerufen. Eine der Säulen des Forums war die Einrichtung von thematischen Wissensnetzwerken (TKNs). In einer ersten Umfrage im Jahr 2006 wurde festgestellt, dass eine breite Palette von Netzwerken von der FAO unterstützt oder verwaltet wird, aber es wurde klar, dass eine neue Generation von Netzwerken eingerichtet werden sollte, die die neuen Technologien voll ausschöpfen, um die Rolle der FAO als Vermittler des Wissensaustauschs. Eine etwa 18 Monate dauernde Pilotphase umfasste die Entwicklung von 15 neuen TKNs. Diese Netzwerke wurden geplant, um den Wissensaustausch zu fördern und es den Netzwerkmitgliedern zu ermöglichen, effektiver zu kommunizieren und an gemeinsamen Zielen oder Ergebnissen zu arbeiten. Die Pilot-TKNs deckten unterschiedliche thematische Bereiche ab, die von eher normativen Sachgebieten bis hin zu aufgabenorientierten Gruppen reichten, und unterschieden sich sowohl in ihrer Komplexität als auch in ihren Mitgliederprofilen. KCE stellte technische Unterstützung und Anleitung bereit und entwickelte/koordinierte die Technologieplattform(en) mit Unterstützung von KCT.;-;http://eprints.rclis.org/15641/;-;- c24c710801cbc84b7ec9a79022a77d51;de;;;3.2.;;; Im selben Boot – von Herstellern und Anwendern und von beiden zusammen : Die International Group of Ex Libris Users (IGeLU) stellt sich vor Der Beitrag beschäftigt sich mit der US-amerikanischen (früher israelischen) Firma Ex Libris, einem Weltmarktführer auf dem Gebiet der Bibliothekssoftware, sowie deren User Group IGeLU. Ein besonderer Schwerpunkt liegt auf der Darstellung der Kooperation zwischen Hersteller und Anwendern. Am Beginn steht ein Überblick über Organisation und Tätigkeit des Unternehmens. Darauf folgt ein Abriss der Geschichte der User Groups, die sich im Jahr 2006 aus zwei Einzelorganisationen zur International Group of Ex Libris Users (IGeLU) zusammenschlossen. Die Hintergründe dieser Fusion werden ebenso beleuchtet wie Ziele, Mitgliedschaft und organisatorischer Aufbau von IGeLU. Der zweite Teil des Artikels widmet sich den Aktivitäten des IGeLU-Vorstandes einerseits sowie den verschiedenen Aspekten der Zusammenarbeit von IGeLU und Ex Libris. Den Abschluss bilden einige persönliche Erfahrungen, die der Autor im Laufe seiner Tätigkeit im Vorstand von IGeLU machen durfte, und ein knapp gehaltenes Resümee.;-;http://eprints.rclis.org/8826/;-;- 122cb4732d42723a5ae2cd8ea5d240f2;de;;;3.2.;;;Moderationsfähigkeiten für Bibliotheksfachleute Sitzungszusammenfassung: Brainstorming, Problemlösung, Teambildung und Gruppenkommunikation – all das kann durch Moderation erleichtert werden! Kommen Sie zu diesem unterhaltsamen, interaktiven Workshop, um Techniken und Übungen zu lernen, um Ihre Gruppentreffen zu verbessern. Dieser Workshop wird von zwei Informationsprofis mit formaler Moderationsausbildung und Erfahrung unterrichtet und bietet Ihnen Theorie, praktische Zeit und Feedback. Was die Teilnehmer lernen: Die Teilnehmer lernen Techniken für den Einstieg in die Gruppenarbeit, Übungen zur Ideenfindung und Problemlösung sowie Tipps für einen reibungslosen Ablauf ihrer Workshops. Dieser partizipative Workshop bietet den Teilnehmern die Möglichkeit, sich in einem unterstützenden Umfeld in der Moderation zu versuchen. Zielgruppe: Mitarbeiter der Öffentlichen Bibliotheken, Mitarbeiter der wissenschaftlichen Bibliotheken, Mitarbeiter der Sonderbibliotheken, Führungskräfte, Treuhänder, Projektleiter, Teamleiter;-;http://eprints.rclis.org/14497/;-;- b8a90d2c851dc9cd118ecc1159eef8f5;de;;;3.2.;;;ISIS-Familien- und Bibliothekskooperation: der Unired Union Catalog Beschreibt das Unired Union Catalog-Projekt. Unired, ein wirtschafts- und sozialwissenschaftliches Informationsnetzwerk, ist ein genossenschaftliches System, das 1989 in Buenos Aires gegründet wurde, um bibliografische Informationen zu finden, zu fördern und auszutauschen. Die sozial- und wirtschaftswissenschaftliche Datenbank Unired bietet Zugriff auf mehr als eine Million bibliografische Angaben zu Dokumenten, darunter auch Daten der Depotbibliothek. Der Unired Verbundkatalog wird von 88 Bibliotheken staatlicher, privater und internationaler Institutionen gebildet. Die URL der Datenbank lautet http://cib.cponline.org.ar/unired.htm. Die 92 % der Bibliotheken verwenden CDS/ISIS (MicroISIS) der Unesco. 65% verwenden das bibliografische CEPAL-Format und 7% verwenden das MARC-Format. Unired verwendet das CEPAL-Format als Informationsaustauschformat. Alle Datenbanken wurden in das CEPAL-Format umgewandelt und die Qualitätskontrolle wurde mit CISIS von BIREME durchgeführt. Der Online-Katalog wurde mit der Suchmaschine WWWISIS von BIREME erstellt. Die Sitzung zeigt eine Tabelle mit der Entwicklung der Datenbank, beginnend mit der ersten Version von 1995 (137.186 Datensätze von 29 Bibliotheken) bis zur letzten Aktualisierung im Jahr 2004 (1.321.062 Datensätze von 88 Bibliotheken). Die Poster-Session bietet Details über die Datenbankaktualisierungsarbeit und Qualitätskontrollprozesse, auch neue Funktionen der Suchschnittstelle, technische und personelle Ressourcen und beteiligte Institutionen.;-;http://eprints.rclis.org/14938/;-;- d528978414835d3fdcdaabf47da8f4d0;de;;;3.2.;;;Nutzung der Open-Source-Software Greenstone für ein Netzwerk digitaler Sammlungen CLACSO (Consejo Latinoamericano de Ciencias Sociales) ist ein 30 Jahre altes akademisches Netzwerk, das mehr als 168 sozialwissenschaftliche Forschungs- und Lehreinrichtungen in 21 Ländern Lateinamerikas und der spanischen Karibik vereint. Jede dieser Institutionen veröffentlicht Zeitschriften, Bücher, Arbeits- und Konferenzbeiträge, die aufgrund hoher Portokosten, geringerer Auflagen und fehlender Fernleihe nicht ohne weiteres verfügbar sind. Im Jahr 1998 beschloss CLACSO, Werbe- und Schulungsaktivitäten zu starten, um die Redakteure der Mitglieder zu ermutigen, Web-Zugriff auf die elektronische Version der gedruckten Veröffentlichungen bereitzustellen, und gleichzeitig startete CLACSO eine virtuelle Bibliothek, um einen integrierten Zugang zu den verteilten Sammlungen von verfügbaren E-Dokumenten zu ermöglichen auf Mitglieder-Websites.;-;http://eprints.rclis.org/7483/;-;- 8383c7e7e64cb342924e12915aae3000;de;;;3.2.;;;Elektronische Publikationen und Bibliothekskooperation: Bulgarische Erfahrung Der Artikel betrachtet das Problem der Bibliothekskooperation und einige Aspekte der Beziehungen „Bibliothekskoalition – Bibliothek – Endnutzer“. Die Autoren beschreiben das Erfolgsmodell der ersten Bibliothekskoalition in Bulgarien – dem Bulgarian Information Consortium. Gestaltungsprobleme, Managementpraxis, Aktivitäten und Leistungen werden vorgestellt und diskutiert. Die Rolle elektronischer Ressourcen wird aus der Perspektive der bibliothekarischen Zusammenarbeit betrachtet und analysiert. Die Nutzung dieser Ressourcen erweist sich als starker Treiber für die Entwicklung und Zusammenarbeit von Bibliotheken. Es ermöglicht ihnen, Verhaltens-, Organisations- und Wirtschaftsprobleme zu überwinden und ihre eigentliche Modernisierung zu beginnen. Die Zusammenarbeit der Bibliotheken in Bulgarien beginnt mit gemeinsamen elektronischen Publikationen und wird hauptsächlich auf dieser Grundlage fortgesetzt. Wir glauben, dass dies die richtige Richtung für die bulgarische Bibliotheksgesellschaft ist, und wir beabsichtigen, ihren Weg zu gehen.;-;http://eprints.rclis.org/24550/;-;- 14e1e941f7ef50658bd4586928b1b8c5;de;;;3.2.;;;Verlagslösungen für zeitgenössische Wissenschaftler: Die Bibliothek als Innovator und Partner Was kann eine wissenschaftliche Bibliothek zum wissenschaftlichen Publizieren beitragen? Die Cornell University Library hat eine Reihe von Aktivitäten im Bereich der Veröffentlichungen durchgeführt, die darauf abzielen, den erschwinglichen, effektiven, weit verbreiteten und dauerhaften Zugang zu Forschung zu verbessern. Cornells Center for Innovative Publishing betreibt arXiv, einen E-Print-Dienst für Physiker, Informatiker, Mathematiker und andere, Project Euclid, einen Journal-Hosting-Dienst für über 40 Titel in Mathematik und Statistik, und entwickelt zusammen mit der Pennsylvania State University DPubS, eine Open-Source-Software zur Verwaltung von Veröffentlichungen. Cornells DCAPS, oder Digital Consulting &, Production Service, unterstützt durch seine Digitalisierung, Metadatenproduktion und seinen Beratungsservice den Übergang von Print zu Elektronik. Digitale Veröffentlichungen werden gemäß einer gut entwickelten Richtlinie für die digitale Archivierung aufbewahrt, um einen kontinuierlichen Zugriff auf Informationen über die Zeit hinweg zu gewährleisten. Das Center for Innovative Publishing der Cornell University Library ist eine Manifestation der Veröffentlichungstätigkeit wissenschaftlicher Bibliotheken im Rahmen einer Bewegung zur Verbesserung des Zugangs zu Wissenschaft auf erschwingliche Weise, um die kontinuierliche Verfügbarkeit wissenschaftlicher Informationen auf eine Weise sicherzustellen, die der traditionellen die Rolle der Bibliothek, die Aufzeichnungen unserer Zivilisation von Generation zu Generation zu bewahren, und die darauf abzielt, innovative Techniken bei der Verwaltung und Bereitstellung von Informationen an Wissenschaftler anzuwenden.;-;http://eprints.rclis.org/7298/;-;- 11e8e625729a7bbbb7972d7f92b77a8c;de;;;3.2.;;;Verlagslösungen für zeitgenössische Wissenschaftler: Die Bibliothek als Innovator und Partner Zweck: Überblick über den Trend in wissenschaftlichen Bibliotheken zur Einbeziehung der wissenschaftlichen Kommunikation und damit zum elektronischen Publizieren als Teil ihrer Kernaufgabe am Beispiel der Cornell University Library. Design/Methodik/Ansatz: Der Artikel beschreibt verschiedene Erscheinungsformen der Veröffentlichungsaktivitäten, die im Rahmen des Zentrums für innovatives Publizieren der Bibliothek organisiert werden, darunter arXiv (http://arxiv.org/), Project Euclid (http://projecteuclid.org) und DPubS (http://DPubS.org). Ergebnisse: Bibliotheken bringen viele Kompetenzen in den wissenschaftlichen Kommunikationsprozess ein, darunter Expertise in digitalen Initiativen, enge Verbindungen zu Autoren und Lesern und Engagement für die Bewahrung. Um ihre Aufgaben um das Veröffentlichen zu erweitern, müssen sie Fachwissen in den Bereichen Inhaltsbeschaffung, redaktionelle Verwaltung, Vertragsverhandlung, Marketing und Abonnementverwaltung entwickeln. Originalität/Wert: Akademische Bibliotheken machen formelles und informelles Publizieren zu einem Teil ihrer Kerntätigkeit. Es gibt eine Vielzahl von Modellen. Die Cornell University Library hat ein Framework zur Unterstützung des Publizierens namens Center for Innovative Publishing geschaffen und unterstützt damit ein erfolgreiches Open-Access-Repository (arXiv), einen nachhaltigen Webhosting-Service für Zeitschriften in Mathematik und Statistik (Projekt Euclid) und ein Content-Management-Tool (DPubS), um anderen Institutionen (Bibliotheken, wissenschaftlichen Gesellschaften, Druckereien) die Möglichkeit zu geben, sich an ähnlichen Unternehmungen zu beteiligen, um die Verbreitung von Wissenschaft zu erhöhen und die Zugangsbarrieren zu verringern.;-;http://eprints.rclis.org/9209/;-;- e52d3c7423d930a6e8262ecfe5dac63d;de;;;3.2.;;; Bericht der Verbundzentrale des Österreichischen Bibliothekenverbundes über den Zeitraum Mai 2013 bis Mai 2014 Aufbauend auf dem verbundinternen, jährlichen Bericht der Verbundzentrale, werden einige Höhepunkte der Arbeit des Österreichischen Bibliothekenverbundes und seiner Verbundzentrale vom Zeitraum Mai 2013 bis Mai 2014 exemplarisch ausgewählt und einer breiten Öffentlichkeit im Überblick vorgestellt.;-;http://eprints.rclis.org/24435/;-;- 12fe47bb8a8b18108db4fedd0b2b794c;de;;;3.2.;;;Beschaffung elektronischer Informationen durch Konsortien: aktuelle Trends in Indien Das enorme Wachstum und die Vielfalt an explizitem Wissen, gestiegene Nutzeranforderungen, reduzierte Budgets und galoppierende Preise für das Abonnement von Zeitschriften in Kombination mit dem technologischen Fortschritt haben weltweit zur Entwicklung von gemeinsamen Abonnements oder Konsortien-Abonnements für Zeitschriften geführt. Es gibt einen wachsenden Trend zu gemeinsamem Einkauf, konsortialbasierten Abonnementverträgen, Zusammenarbeit und Partnerschaften. Bibliotheken, die mit abnehmenden oder bestenfalls statischen Zuteilungen konfrontiert sind, müssen neue Wege der Konsolidierung globaler Ressourcen untereinander erwägen, um ihre begrenzten finanziellen Ressourcen zu maximieren. In diesem Artikel werden die Konzepte und Modalitäten der Zusammenarbeit durch Bibliothekskonsortien in einem vernetzten Informationsumfeld und die Zukunftsperspektiven für Bibliothekskonsortien aus indischer Perspektive diskutiert.;-;http://eprints.rclis.org/8207/;-;- 018018f01176307ae66aa3f6e0cddeac;de;;;3.2.;;;Wissenschaftliche Zeitschriftenkonsortien für Universitäts- und Forschungsinstitutsbibliotheken in Brasilien Diese Präsentation konzentriert sich auf die folgenden Konsortien: - PROBE/FAPESP - Electronic Library Program ist ein Konsortium des Bundesstaates Sao Paulo, das 1999 mit Unterstützung von FAPESP - Forschungsstiftung des Bundesstaates Sao Paulo gegründet wurde. - Brasilianisches wissenschaftliches Informationsportal/CAPES - ist ein nationales Konsortium, das 2001 gegründet wurde und von einer föderalen Regierungsbehörde namens CAPES gefördert wird - Koordination für die Verbesserung von Hochschulabsolventen beim Bildungsministerium - COPERE/SENAC - ist ein neues nationales Konsortium im Jahr 2003 und koordiniert von SENAC - einem nationalen Dienst für berufliche Qualifizierung in kaufmännischen Bereichen;-;http://eprints.rclis.org/5812/;-;- 059e629f1a9e3986f470703a0b517ca1;de;;;3.2.;;;CASS: kollaborativer akademischer Store für Schottland SCURL (Scottish Confederation of University and Research Libraries) hat vom Carnegie Trust Finanzmittel für die Universitäten von Schottland erhalten, um ab November 2001 eine sechsmonatige Studie durchzuführen, um das optimale Modell für einen kollaborativen Speicher- und Lieferservice für wertvolle, aber wenig genutzte Forschung zu bestimmen Materialien in schottischen Universitätsbibliotheken. Zu den wichtigsten Leistungen gehören die weite Verbreitung der Projektergebnisse in Form eines Abschlussberichts und eines detaillierten Geschäftsplans für eine kollaborative Einrichtung.;-;http://eprints.rclis.org/5805/;-;- bcf79095946a86df0de758a55ac0dc3a;de;;;3.2.;;;Teameffektivität in virtuellen Umgebungen: Ein ökologischer Ansatz Dieses Kapitel versucht, den Bedarf an mehr Forschung zur Effektivität virtueller Teams anzugehen und skizziert einen ökologischen theoretischen Rahmen, der auf virtuelle Lernumgebungen (VLE) anwendbar ist. Frühere empirische Studien zur virtuellen Teameffektivität verwendeten Frameworks der traditionellen Teameffektivität und folgten hauptsächlich dem normativen Modell von Hackman (Input-Prozess-Output). Wir schlagen einen ökologischen Ansatz für die Effektivität virtueller Teams vor, der das Teamgrenzenmanagement, die Technologienutzung und die externe Umgebung in VLE berücksichtigt, Eigenschaften, die zuvor entweder nicht vorhanden oder kontextabhängig waren. Der ökologische Rahmen legt nahe, dass drei Komponenten, die äußere Umgebung, die innere Umgebung und das Grenzmanagement, wechselseitig wirksam zusammenwirken. Die Bedeutung des vorgeschlagenen Rahmens ist eine ganzheitliche Perspektive, die die Komplexität des externen und internen Umfelds des Teams berücksichtigt. Darüber hinaus adressieren wir den Bedarf an neuen pädagogischen Ansätzen im VLE.;-;http://eprints.rclis.org/12419/;-;- 3a167aca2af1386d18f32858592728ff;de;;;3.2.;;;Überbrückung der kulturellen Vielfalt durch E-Mail Die Implementierung globaler virtueller Teams stellt moderne Organisationen vor erhebliche Herausforderungen, wie beispielsweise eine multikulturelle Belegschaft und den Einsatz von Informations- und Kommunikationstechnologie. Kulturelle Vielfalt erhöht die Komplexität der Teamarbeit und kann die Effektivität eines Teams schwächen und seine Lebensfähigkeit gefährden. Die Auswahl und Implementierung geeigneter Informationstechnologie kann Gruppenprozesse erleichtern und potenzielle Barrieren überwinden, die durch Teamheterogenität entstehen. Diese Studie zeigt, wie E-Mail interkulturelle Missverständnisse mildert. Interviews mit 41 globalen virtuellen Teammitgliedern in neun Ländern, die bei einem multinationalen Konzern beschäftigt waren, wurden transkribiert und analysiert. Die Verwendung von E-Mail verbessert die Sprachgenauigkeit, mildert interkulturelle Missverständnisse, die aus verbalen Unterschieden zwischen den Teammitgliedern resultieren, und beseitigt nonverbale Unterschiede. Nur zukünftige Studien können das Ausmaß dieser Minderung bestimmen.;-;http://eprints.rclis.org/10814/;-;- 83c712705d612321d5d6f57df2109a8a;de;;;3.2.;;;LiSER: Ein Software-Experience-Management-Tool zur Unterstützung des organisationalen Lernens in Softwareentwicklungsorganisationen Das effiziente Management von Erfahrungswissen ist in der heutigen wissensbasierten Wirtschaft von entscheidender Bedeutung. Dieses Papier befasst sich mit der Entwicklung eines Software-Experience-Management-Tools als organisatorisches Speichersubsystem. Das Tool zielt darauf ab, Wissensmanagement- (KM) und organisatorische Lernaktivitäten (OL) in einer typischen Software-Organisation zu unterstützen. Es ist speziell darauf ausgerichtet, die Perlen des impliziten Wissens in Form von Knowledge Asset (K-Asset) zu erfassen, die erst als Ergebnis einer kollaborativen Analyse und Verfeinerung des erfassten Wissens auftauchen. Das Prototyp-Tool basiert auf dem Framework für kollaboratives organisationales Lernen, das wir in früheren Forschungen entwickelt haben.;-;http://eprints.rclis.org/18421/;-;- 333d48afc24078f18588f72bbad4bde1;de;;;3.2.;;;Bibliothekskonsortialmodell für den landesweiten Zugriff auf elektronische Zeitschriften und Datenbanken Der gegenwärtige Ansatz in Bezug auf Partnerschaft, Vernetzung, Konsortien und gemeinsame Nutzung von Ressourcen, der von indischen Bibliotheken verfolgt wird, erfordert radikale Veränderungen, um reaktionsschnelle Partnerschaften zu entwickeln, um die beste Leistung im Service zu erzielen. Die gegenwärtigen Praktiken des Zeitschriftenerwerbs in den meisten Bibliotheken der Colleges und Universitäten in Indien basieren auf Printmedien, wobei jede Bibliothek eine Insel im Hinblick auf den Zugang zu Informationen darstellt. Darüber hinaus gibt es große Unterschiede in der Verfügbarkeit und Nutzung von Informationen zwischen den verschiedenen Universitäten und Hochschulen. Aber die Erfassung durch Konsortien und die elektronische Desktop-Bereitstellung von Informationen können diese Kluft beseitigen und den Zugang und die Nutzung erheblich steigern. Somit wird die Schwierigkeit, mit der Studenten, Lehrer und Wissenschaftler jetzt konfrontiert sind, akademische und wissenschaftliche Informationen zu erhalten, beseitigt, wenn eine vollständige bibliographische Kontrolle über die weltweit verfügbaren Informationsdokumente erreicht wird. Dieser Beitrag stellt die Vorteile von Bibliothekskonsortien dar, analysiert den gegenwärtigen Trend bei der Bildung von Konsortien in Indien und schlägt ein neues Modell von Bibliothekskonsortien vor, an dem alle akademischen Institutionen und staatlichen Forschungseinrichtungen teilnehmen könnten. Die Bildung eines so einzigartigen Konsortiums unter der Leitung und uneingeschränkten Unterstützung der indischen Regierung wird hervorgehoben. Dargestellt wird auch die Rolle, die das INFLIBNET-Zentrum der Stipendienkommission der Universität bei der Bildung und Leitung eines solchen Konsortiums spielen kann. Die Bereiche der Neudefinition und Neugestaltung des Betriebs der Universitätsbibliotheken, die durch die konsortialbasierten elektronischen Informations- und Dokumentenlieferdienste erforderlich sind, werden ebenfalls diskutiert. Schlüsselwörter:- Bibliotheksvernetzung, gemeinsame Nutzung von Ressourcen, Modell von Bibliothekskonsortien, nationale Bibliothekskonsortien, landesweiter Zugang zu Informationen, indisches Bibliothekskonsortium, Neugestaltung, Universitätsbibliotheken;-;http://eprints.rclis.org/6832/;-;- 5cc0b0cf406b1ef5dc8452e654175b5b;de;;;3.2.;;;Die Zukunft der Bibliothekskooperation in Südostasien Die Förderung der bibliothekarischen Zusammenarbeit in den Bereichen Dokumentation, bibliografischer Zugang, Digitalisierung, Open Access wissenschaftliches Publizieren und damit verbundene Aktivitäten würde heute die Vernetzungs- und Vernetzungsfähigkeiten von Bibliotheken in Entwicklungsländern, insbesondere in benachteiligten Regionen, wie in Südostasien, verbessern . Die strategische Entwicklung von Bibliotheken in dieser Region durch Zusammenarbeit, Partnerschaftsprogramme und Vernetzung kann ein informationsreiches Umfeld und breite Möglichkeiten schaffen, von gemeinsamen Informationsressourcen zu profitieren. Ein wesentlicher Teil des Erfolgs einer Bibliothekskooperation wird weitgehend davon abhängen, wie gut kooperierende Mitglieder diese Vernetzungsmöglichkeiten nutzen und zur Entwicklung und zum Wachstum von Wissen auf globaler Ebene beitragen können. Dieses Papier, das die oben genannten Punkte überprüft und erweitert, zielt darauf ab, den Geist der Zusammenarbeit zwischen Bibliotheken in der Region wiederzubeleben, indem die Entwicklung nachhaltiger Projekte gefördert wird, die machbar und für beide Seiten vorteilhaft sind.;-;http://eprints.rclis.org/11221/;-;- 807b044e2f608023268b50abb3d1907a;de;;;3.2.;;;Bibliothekskonsortien und Kooperationen im digitalen Zeitalter: ein Überblick über die philippinische Erfahrung Für Entwicklungsländer wie die Philippinen gibt es eine bemerkenswerte Bandbreite an Kooperationen und Konsortialvereinbarungen, die sogar geografische Grenzen überschreiten. Dieser Artikel gibt einen Überblick über die philippinischen Erfahrungen mit Bibliothekskooperationen, ihre Gemeinsamkeiten und Variationen, die bedeutenden Beiträge verschiedener Bibliothekskonsortien zum Wachstum und zur Entwicklung von Bibliotheken innerhalb und außerhalb ihres Einflussbereichs und die Herausforderungen, denen diese lokalen Konsortienmodelle gegenüberstehen dieses digitale Zeitalter.;-;http://eprints.rclis.org/11223/;-;- 36a250e8c6ea7db405e97fcac5a4d60c;de;;;3.2.;;;DARE, The Voyage Begun Im Januar 2003 startete die SURF Foundation das DARE-Programm. Sechzehn akademische Institute in den Niederlanden sollten zusammenarbeiten, um die niederländischen akademischen Forschungsergebnisse über ein verteiltes Netzwerk institutioneller Repositorien digital besser verfügbar und zugänglich zu machen. Dieses Papier beschreibt den Rahmen des DARE-Programms und was in den ersten anderthalb Jahren getan wurde, um es in Gang zu bringen und Bedingungen für eine fruchtbare Fortsetzung zu schaffen. Es versucht zu erklären, dass die Vielfalt und Komplexität der Umgebung nicht nach Reduktion und Vereinfachung verlangt, sondern nach einem Ansatz, der diese Vielfalt und Komplexität wirklich widerspiegelt und berücksichtigt. Sie versucht zu zeigen, wie das erreicht werden kann. Der erste Teil des Papiers skizziert, was DARE für drei direkt beteiligte Interessengruppen bedeuten kann: einen Bibliothekar, einen Forscher und einen Vizekanzler. Dies geschieht in Form von Erzählungen, die die Perspektiven der drei Akteure auf denselben Fall widerspiegeln. Es veranschaulicht den Reichtum und die Komplexität der Themen, die bei DARE auf dem Spiel stehen, ohne erschöpfend zu sein, und bildet den Rahmen für den zweiten Teil des Papiers, der sich mit dem Programmmanagement-Ansatz im ersten Jahr befasst.;-;http://eprints.rclis.org/6183/;-;- 9e9cc2145af7ff68aaff871f59f9e3f1;de;;;3.2.;;;Tri-institutionelle Bibliotheksunterstützung: Eine Lektion in erzwungener Zusammenarbeit In diesem Papier werden die Schwierigkeiten und Schwierigkeiten von drei separaten institutionellen Bibliotheken diskutiert, die ein neues akademisches Programm auf Graduiertenebene unterstützen. Im Januar 2002 begann ein neues Fernstudium der Angewandten Psychologie mit technischer, administrativer und akademischer Unterstützung durch drei separate Einrichtungen. Während ursprünglich eine Institution mit der Bereitstellung des Großteils der Bibliotheksdienste beauftragt war, haben in Wirklichkeit Bibliotheken aller drei den einen oder anderen Dienst geleistet. Die federführende Bibliothek bietet Remote-Datenbankzugriff und Dokumentenlieferung und stellte zunächst elektronische Reserven bereit. Nach dem ersten Semester und mehreren Pannen wurden die elektronischen Bestände in die Institutsbibliothek Nr. 2 verschoben, die auch das Kursverwaltungssystem beherbergte. Im Herbst 2002 hat die Hochschulbibliothek Nr. 3 mit einem Modul zur Informationskompetenz begonnen, das in die Orientierung für alle Studienanfänger integriert wurde.;-;http://eprints.rclis.org/8465/;-;- f669dde0fefb0733874c28c8bb579698;de;;;3.2.;;;Zusammenarbeiten: Effektive Zusammenarbeit in einer Konsortialumgebung Dieses Papier beschreibt innovative Bibliotheksdienste für Fernstudenten, die von einem geografisch verteilten Konsortium, dem Council of Prairie and Pacific University Libraries (COPPUL), ausgehandelt wurden. Das Distance Education Forum (DE Forum) ist eine der aktivsten Mitgliedsgruppen innerhalb von COPPUL und hat im Laufe der Jahre eine Reihe von Erfolgen in kollaborativen Diensten verzeichnet. Dieses Papier bietet einen Überblick über die Arbeitsweise des DE-Forums, seine Website und seine Arbeitsweise durch kleine Unterteams, die über ein jährliches Treffen koordiniert werden. Wir beschreiben eine Reihe von Projekten, schauen uns an, was erfolgreich war und was nicht, und diskutieren, was wir gelernt haben.;-;http://eprints.rclis.org/8466/;-;- 38e6b18c3b9adeeb6699c15154034305;de;;;3.2.;;;Zusammenarbeit über den „Kaufclub“ hinaus: Digital Resource Commons (DRC): In Ohio das Unmögliche möglich machen Digital Resource Commons (DRC) von OhioLINK ist ein Content-Management-Dienst und -Repository, das die Speicherung, Verteilung, Veröffentlichung und langfristige Aufbewahrung von Bildungs- und Forschungsmaterialien der teilnehmenden Institutionen unterstützt. OhioLINK-Mitglieder haben automatisch Anspruch auf diesen kostenlosen Service. Institutionen können das DRC für einen oder mehrere der folgenden Zwecke nutzen: Forschungsarbeiten der Fakultät wie Pre-Prints, Post-Prints oder Working Papers, Open Access Self-Archiving and Publishing, Studentische Abschlussarbeiten und Dissertationen, Lehrmaterialien und Lernobjekte, Bibliothek , Archiv- und Spezialsammlungen, Lehrvideos, Audio und Bilder, Virtual Reality, Simulationen usw. Eine praktisch unbegrenzte Vielfalt an digitalen Dateitypen und -formaten wird unterstützt, einschließlich Text, Datensätze, Bild, Audio, Video, Streaming-Video, Multimedia Präsentationen, Animationen usw. Jede Institution kann sich im System selbst „branden“ und kann eine diskrete und angepasste Schnittstelle für alle ihre Inhalte bereitstellen. Für den Endbenutzer erscheint es als institutionelle Ressource, als ob es auf Ihren eigenen Servern gehostet würde. Es wird auch ein gemeinsames Branding auf OhioLINK-Ebene und die Möglichkeit geben, Suchen in den institutionellen Sammlungen abzurufen. Dies fügt den einzelnen institutionellen Beiträgen eine landesweite Zugangsdimension von erheblichem Wert hinzu. Sie haben die vollständige Kontrolle über Ihre eigenen Inhalte und wie darauf zugegriffen wird. Durch mehrstufige Sicherheitsstufen können Ihre Inhalte nur im gewünschten Umfang geteilt werden. So kann beispielsweise der Zugriff auf Forschungsdaten der Fakultät auf eine Handvoll Forscher beschränkt sein, während eine Bibliotheksbildersammlung weltweit im Internet veröffentlicht wird. Alternativ können Inhalte auf eine einzelne Abteilung, eine Institution oder die OhioLINK-Mitgliedschaft beschränkt werden. Jede Institution kann ihre eigenen Richtlinien für die Inhalte in ihren Repositories festlegen. Ebenso können benutzerdefinierte Workflows eingerichtet werden, um das an jedem Projekt beteiligte Personal optimal zu nutzen und den Erstellungs- und Erfassungsprozess von Inhalten zu beschleunigen. Der Dienst wird robuste und flexible Katalogisierungstools umfassen, die bei der Erstellung von Datensätzen helfen, die von allen Benutzertypen effektiv durchsucht und durchsucht werden können. Katalogeinträge können in internationale Standard-XML-Formate wie das Open Archives Initiative Protocol for Metadata Harvesting exportiert werden. Durch die einzigartige Zusammenarbeit von OhioLINK mit dem Ohio Supercomputer Center werden Ihre Inhalte auf Servern und Speichernetzwerken der Enterprise-Klasse gespeichert. Server-Rechner werden im Internet-Backbone gespeichert, um maximale Verfügbarkeit und Geschwindigkeit zu gewährleisten. Ein riesiges Storage Area Network ermöglicht nahezu unbegrenzten Speicherplatz auf unseren Festplatten. Massive Offsite-Band- und Disk-Backup-Systeme sorgen für die Sicherheit Ihrer Inhalte. Das bei OhioLINK gespeicherte System kann lokal von Bibliotheken oder anderen bestimmten Mitarbeitern über Standard-Webbrowser verwaltet werden. Kenntnisse und Erfahrungen in der Programmierung oder Systemadministration sind nicht erforderlich. Das System ist flexibel und anpassungsfähig und bietet Dienste, die ‚DSpace‘ und ‚ContentDM‘ ohne die damit verbundenen Kosten überlegen sind.;-;http://eprints.rclis.org/5807/;-;- b27920aef6857b319b0f5dae43d47009;de;;;3.2.;;;Die Auswirkungen von ANKOS: Konsortialentwicklung in der Türkei ANKOS ist die Abkürzung für das Anatolian University Libraries Consortium (Anadolu Üniversite Kütüphaneleri Konsorsiyumu). In diesem Papier wird die Entwicklung von ANKOS seit 2000 und ihre Auswirkungen auf türkische Bibliotheken und Forscher zusammengefasst.;-;http://eprints.rclis.org/6398/;-;- 21e00e0fdafbe9837969f93eaadc774b;de;;;3.2.;;;Konsortiale Zusammenarbeit: eine Perspektive aus den USA Das Ganze ist stärker als die Summe seiner Teile. Dies kann für Konsortien ebenso gelten wie für unsere Mitgliedsbibliotheken. Konsortien, die zusammenarbeiten, stehen vor einer Reihe von Herausforderungen, können aber auch erhebliche Vorteile erzielen. Was sind die Vor- und Nachteile, Vorteile und Fallstricke, wenn Konsortien zusammenarbeiten? Wir werden die Modelle der konsortialen Zusammenarbeit untersuchen und Perspektiven aus den USA anbieten. Die Orbis Cascade Alliance bietet eine Reihe von Dienstleistungen für Mitgliedsbibliotheken und andere Bibliotheken in der Region. Zu den wichtigsten zählen der Summit-Gewerkschaftskatalog, Summit Borrowing, Datenbanklizenzen und Kurierdienste. Orbis Cascade Alliance verwaltet ein Mitgliedschaftsprogramm, um Kurierdienste für Bibliotheken in der Region bereitzustellen. Der tägliche Service deckt mehr als 60 Dropsites in Oregon, Washington und Idaho ab und bedient über 240 öffentliche Bibliotheken, Schul-, College- und Universitätsbibliotheken. Orbis Cascade Alliance verhandelt und überwacht einen Vertrag, einschließlich der Abwicklung von Geschäfts- und Finanztransaktionen mit dem Auftragnehmer und des Überwachungsdienstes, erleichtert die Teilnahme am Programm durch Einberufung von Sitzungen und die Verwendung von E-Mail und anderen Methoden, um Ideen und Meinungen zum Kurierdienst einzuholen, und bietet Unterstützung Informationen an teilnehmende Bibliotheken, wie Service-Updates und Programmrichtlinien.;-;http://eprints.rclis.org/5809/;-;- 0a789642a75f72e130109c27edb3c1f6;de;;;3.2.;;;Rolle des Konspekts bei der Sammlungsverwaltung und der gemeinsamen Nutzung von Ressourcen Conspectus ist ein Instrument, eine Bewertungsmethodik und eine Konsortiendatenbank, die es ermöglicht, ein optimales benutzerspezifisches Zugangsmodell für die gemeinsame Nutzung von Ressourcen zwischen Bibliotheken bereitzustellen. Es hilft, fundiertere Entscheidungen in Bezug auf Ankäufe, Sammlungsentwicklung, Mittelzuweisungen, Budgetanträge, Zuschüsse und Bewahrung zu treffen. Ein systematischer Konspekt bietet viele indirekte Vorteile, wie z Erhöhung für Ausbildung, Bewahrung oder Bestandsentwicklung, iv) Festlegung von Möglichkeiten für verstärkten kooperativen Erwerb von lokalen oder regionalen Bibliotheken in Fachgebieten von gemeinsamem Interesse, v) Erfüllung institutioneller oder staatlicher Begutachtungsprogramme, vi) Bereitstellung von „objektiven Nachweisen“ für Akkreditierung und professionelle Verbandsberichte, vii) Definition von Zielen, Richtlinien, Verfahren und kurz- und langfristigen Zielen für die Sammlungsentwicklung. Das Papier bietet einen Überblick über die Konspekt-Methodik, ihre Rolle bei der Sammlungsentwicklung, Sammlungsbewertung und Ressourcenteilung sowie einige Probleme und Fallstricke bei der Einführung der Konspekt-Methodik. Abschließend betont er die Notwendigkeit, sich bei lokalen Fachleuten für die Konspekt-Methodik zu sensibilisieren und einige ernsthafte Versuche, solche Zugangsinstrumente zu schaffen, anstatt sich mit Akronymen von Bibliotheksnetzwerken zufrieden zu geben.;-;http://eprints.rclis.org/9582/;-;- 08ad9764ca66275d6d5f70cd2693ed7d;de;;;3.2.;;;Die Informationsabteilung der Nikolaus-Kopernikus-Universitätsbibliothek als Hauptquartier der Hochwasserhilfe und ihre Rolle bei der Rettung der überfluteten Büchersammlungen Niederschlesiens im Juli 1997. Wir beschreiben die Erfahrungen der Mitarbeiter der Informationsabteilung der Nikolai-Kopernikus-Universitätsbibliothek in Toruń, Polen, während der Sommerflut 1997. Die Abteilung organisierte und koordinierte die Hilfe für die Bibliotheken von Niederschlesien (Südpolen), deren Bestände durch die Flut. In dieser Präsentation konzentrieren wir uns auf den Veränderungsprozess in der Funktionsweise der Bibliotheksinformationsabteilung, ihre Rolle, die Arbeitsorganisation mit dem Schwerpunkt auf dem Übergang von der spontanen Hilfsbereitschaft zu einer koordinierten Hilfsaktion, die über einen längeren Zeitraum geplant und durchgeführt wird Zeitstrahl. Wir diskutieren die Mittel, mit denen Informationen über beschädigte oder gefährdete Sammlungen gesammelt und ausgetauscht, Bibliothekare anderer akademischer Zentren für die Hilfsaktion mobilisiert, Gelder gesammelt, Materialien und Einrichtungen für die Restaurierung beschädigter Drucke beschafft wurden. Die Nutzung von Medien und Internet wird ausführlich behandelt. Abschließend fassen wir die Erfahrungen zusammen und ziehen Rückschlüsse auf effiziente Kooperationsprojekte und Schutzmaßnahmen für die zukünftige Umsetzung.;-;http://eprints.rclis.org/20370/;-;- 86cc1f2aea744351107d00c1d0e3d7bb;de;;;3.2.;;;Regionale und sektorübergreifende Ansätze zur Bibliotheksversorgung Die Organisation von Bibliotheken und ihren Anbietern verkennt die sektorübergreifenden und regionalen Ansätze der Informationsbereitstellung vieler ihrer Nutzer. Die Zusammenarbeit zwischen den Sektoren ist der unausweichliche Weg nach vorn.;-;http://eprints.rclis.org/8244/;-;- 5943a5df9817b4434953ad8bb829eeb5;de;;;3.2.;;;Ressourcenteilung zwischen ISRO-Bibliotheken: eine Fallstudie zum Konsortialansatz Das Papier präsentiert einen praktischen Schritt-für-Schritt-Ansatz und Anstrengungen, die unternommen wurden, um enorme Einsparungen bei den Anschaffungskosten und der gemeinsamen Nutzung kreativer Ressourcen durch eine Gruppe von Bibliotheken zu erzielen, die unter einer einzigen Mutterinstitution, nämlich der Indian Space Research Organization (ISRO), arbeiten. Tatsächliche Fälle erheblicher Einsparungen bei Abonnements teurer Zeitschriften, CD-ROM-Datenbanken und Konferenzbänden in Form von Konsortialpreisen und/oder Kombinationspreisen (print und elektronisch) werden mit entsprechenden Tabellen und Grafiken dargestellt.;-;http://eprints.rclis.org/9169/;-;- 93f0aa78b49b4e926d8d407a786c47f6;de;;;3.2.;;;Lernen aus unseren Experimenten: die bemerkenswerten Auswirkungen der elektronischen Nutzungsdaten von OhioLINK und HEAL-Link für die Sammlungsentwicklung Die Kombination neuer Einkaufsmodelle für Zeitschriftenliteratur von OhioLINK und HEAL-Link mit einer hochgenauen Verfolgung der Nutzung elektronischer Zeitschriften liefert bemerkenswerte neue Daten über den Forschungs- und Unterrichtsbedarf von Kunden. Frühere Studien zur Verwendung von Zeitschriften waren auf die Teilmenge der Titel eines Verlags einer Bibliothek beschränkt und durch unbefriedigende Methoden zur Sammlung von Nutzungsdaten eingeschränkt. Angesichts des klareren und genaueren Bildes, das wir jetzt haben, müssen natürlich eine Reihe von Problemen bei der Sammlungsentwicklung überdacht werden. Am auffälligsten ist die mittlerweile fragwürdige Natur der Titel-für-Titel-Auswahl. In der Präsentation werden die neuen Daten (hauptsächlich OhioLINK, aber einige HEAL-Link-Daten) detailliert untersucht und entsprechende Schlussfolgerungen gezogen, die bei der laufenden Sammlungsentwicklung berücksichtigt werden können. Ich möchte Sie um einen großen Gefallen bitten und bitte um 30 Minuten für meinen Vortrag. Ich weiß, das ist länger, als Sie wollten, aber es ist wirklich wichtig, dass Sie so lange brauchen, um die Daten angemessen darzustellen. Ich denke, Sie werden nicht enttäuscht sein, es gibt einige wirklich bemerkenswerte Erkenntnisse. Ich hoffe, es ist alles gut und ich freue mich sehr auf die Konferenz.;-;http://eprints.rclis.org/9713/;-;- 89bd2fa032d2a1c18a1f2c2989f2d588;de;;;3.2.;;;Das EU-Bibliotheksprogramm - Der Kontext der irischen akademischen Bibliotheken Dieses Papier skizziert den Hintergrund der Einrichtung des EU-Bibliotheksprogramms. Es erläutert die Struktur des Programms und skizziert Einzelheiten zu seiner Durchführung. Es bietet einen kurzen Hintergrund zur Teilnahme irischer Bibliotheken an dem Programm. Die Projekte, an denen die Dublin City University Library beteiligt war, werden kurz umrissen. Basierend auf den Erfahrungen der Dublin City University Library schließt das Papier mit einem Überblick über einige der Auswirkungen der Teilnahme an dem Programm.;-;http://eprints.rclis.org/9703/;-;- fddb0114d00b22c513edacb17b74f13f;de;;;3.2.;;;Netzwerken in Spanien Spanien ist ein Land, dessen Entwicklungsstand innerhalb der Europäischen Gemeinschaft im mittleren Bereich liegt, gemessen an bestimmten Industrie- und Infrastrukturindikatoren ähnelt es den Industrieländern des Nordens mehr als anderen südlichen Ländern. Alle Analysen zeigen übereinstimmend, dass Spanien in den letzten zehn Jahren ein starkes Wachstum verzeichnet hat, und dies gilt auch für den Bereich der Bibliotheksdienste. Allerdings sind Bibliotheken in Bezug auf Finanzierung oder Dienstleistungen nicht auf einem vergleichbaren Niveau mit dem Rest Europas. Im Allgemeinen wird ihr Fortschritt weiterhin durch einen Mangel an wirtschaftlichen und materiellen Mitteln, eine traditionelle Unterauslastung und das Fehlen von Bibliotheksschulen oder anderen Ausbildungsprogrammen in weiten Teilen des Landes bis vor kurzem behindert, was zu einem schlecht vorbereiteten Korps von Fachleuten beigetragen hat. Positiv zu vermerken ist, dass der späte Einstieg spanischer Bibliotheken in die Welt der Automatisierung seine Vorteile hatte, indem sie es ihnen ermöglichten, die Probleme früherer Automatisierungsprojekte zu überwinden und von den Erfahrungen anderer und einer sich ständig verbessernden Technologie zu profitieren. Bibliotheken, die in den letzten zwei Jahren automatisiert wurden, hatten einen stark erweiterten Markt zur Auswahl und konnten ihre Systeme viel schneller implementieren als andere, die früher begannen. Teilweise befinden sich die Pioniere der Bibliotheksautomatisierung in der am stärksten benachteiligten Situation, da sie an ältere Programme und Technologien gebunden sind. Obwohl die spanischen Bibliotheken erst seit relativ kurzer Zeit Zugang zu computergestützten Netzwerken haben, schreiten sie ohne die gleichen Verzögerungen voran wie zu Beginn der ernsthaften Automatisierung.;-;http://eprints.rclis.org/19803/;-;- 89e689ff6375bf735fddc10f09f35ea9;de;;;3.2.;;;Öffentliche Bibliotheken und der Konsortialkauf elektronischer Ressourcen Dieser Beitrag verkörpert die Forschung zum Erwerb elektronischer Ressourcen durch öffentliche Bibliotheken. Es wurde versucht herauszufinden, was in Bezug auf das Management kommerzieller Produkte gut funktioniert und was problematisch ist. Es wurden auch Ansichten zur zukünftigen Entwicklung und zur bestmöglichen Beschaffungssteuerung eingeholt. Als Hauptanliegen wurden das Fehlen einer nationalen Dimension und Strategie sowie das Fehlen von Fachkenntnissen bei einzelnen Behörden und Konsortien, insbesondere bei Lizenzen, festgestellt. Die Einkäufer wurden als reaktiv empfunden, da sie die Beschaffung nicht durch die Spezifizierung von Anforderungen übernahmen. E-Ressourcen wurden als sehr teuer empfunden, es gab nicht unbedingt einen Preisvorteil durch Konsortialverhandlungen. Es wurde auch die Auffassung vertreten, dass die Beschaffung und Strategie von Papier- und E-Ressourcen nicht getrennt werden sollte. Lizenzbedingungen und Preismodelle wurden als verwirrend empfunden und die bereitgestellten Schnittstellen als unangemessen.;-;http://eprints.rclis.org/7953/;-;- 056b8605abb5b536157ddb4c4e6717c9;de;;;3.2.;;;Hüten Sie sich vor Verlegern mit Geschenken: Warum die große Sache für die Universitäten eine schlechte Sache ist Es gibt ein gemeinsames europäisches Volksmärchen, das oft als „der kleine Breitopf“ bezeichnet wird. Es erzählt die Geschichte einer Familie hungriger Bauern, die von dem üblichen mysteriösen Außenseiter einen magischen Kochtopf bekommen. Ihnen werden zwei Befehlsworte gesagt: Das eine lässt den Topf einen endlosen Vorrat an Brei produzieren, das zweite lässt es aufhören. Der Topf wird offensichtlich das Leben der Bauern verändern: Der Hunger und die Angst davor werden durch eine fertige, endlose Nahrung gebannt: bescheiden, eintönig vielleicht in modernen Augen, aber ein Grundnahrungsmittel. Alles ist gut, die Bauern gehen nicht mehr hungrig zu Bett. Doch eines Tages wird die Tochter der Familie allein in der Bauernhütte zurückgelassen. Sie befiehlt dem Topf zu kochen, leider hat sie das Befehlswort vergessen, damit es aufhört. Als der Rest der Familie an diesem Abend zurückkehrt, sind das Dorf und die Felder von einem Meer aus Brei bedeckt, das beginnt, in den Wald einzudringen. Wie bei allen Volksmärchen gibt es viele Resonanzen für die moderne Welt. Wir leben in einer informationshungrigen Gesellschaft. Das elektronische Medium, das über den Porridge-Topf auf dem Schreibtisch geliefert wird, bietet ein Mittel, diesen Hunger zu stillen. Die Botschaft dieses Papiers ist jedoch, dass elektronische Informationen, genau wie das Breibrei, kein reines Gut sind: Sie bergen Gefahren und Bedrohungen für den Fortbestand des Verlagswesens und des Bibliotheksberufs. Insbesondere unsere Wahl- und Gestaltungsfreiheit bei unseren Sammlungen wird ausgehöhlt und die Macht der großen elektronischen Verlage wächst. Dieses Papier diskutiert: -die Informationswertschöpfungskette und einige ihrer Konzepte, wobei besonderes Augenmerk auf Merkmale gelegt wird, die elektronische von gedruckten Informationen unterscheiden, -Geld als Wertindikator, -die Auswirkungen des Preis- und Verhandlungsmonopols der Verlage, -die Auswirkungen der Produkt-zu-Dienstleistung-Verlagerung bei Archivierung und Zugriff, -Geschäftsmodelle für E-Ressourcen, insbesondere die großen oder All-you-can-eat-Geschäfte, -der Kontrollverlust durch Bibliothekare und Strategien, um die Kontrolle zurückzugewinnen.;-;http://eprints.rclis.org/7907/;-;- 4812d85ee53efefdab8992b3bfcdb43a;de;;;3.2.;;;Eine Studie über Outsourcing und Externalisierung durch Bibliotheken mit zusätzlichem Verweis auf die Bereiche Museen und Archive: Forschungsbericht der Bibliotheks- und Informationskommission 132 Diese Studie bietet einen aktuellen Überblick über die aktuellen Erfahrungen mit Outsourcing und Externalisierung im Bibliotheks- und Informationsbereich, insbesondere im Hochschulbereich, in öffentlichen und Spezialbibliotheken, und deren Potenzial, zusammen mit einer Bewertung der Auswirkungen der externen wirtschaftlichen, politischer und technischer Druck auf Dienstleister, der zu Veränderungen führt. Es wurden auch Informationen aus den anderen Bereichen innerhalb des Zuständigkeitsbereichs von Resource, Museen und Archiven, gesammelt und Parallelen zu diesen gezogen, die einen Hinweis auf den Kontext und die Möglichkeiten der bereichsübergreifenden Arbeit geben. Die dabei auftretenden praktischen Fragestellungen wurden dokumentiert und eine Entscheidungsmatrix erstellt, die für die Beurteilung des Outsourcing-Potenzials innerhalb einer Organisation empfohlen wird. Die Studie hat auch eine Bewertung potenzieller Anbieter und Agenten auf dem Markt vorgenommen: ihre Fähigkeiten, Bereitschaft, Interessen und Zukunftspläne, um den steigenden Anforderungen an Outsourcing gerecht zu werden.;-;http://eprints.rclis.org/7935/;-;- 8666a914f833ba38367220593a918e2d;de;;;3.2.;;;Ressourcenteilung: Notwendigkeit, die Kluft zwischen idealistischen theoretischen Slogans und der Laxheit der Praktiker zu überbrücken Es ist allgemein bekannt, dass die gemeinsame Nutzung von Ressourcen im Bibliothekswesen am meisten diskutiert und am wenigsten gehandelt wird. Mehrere idealistische theoretische Parolen wurden immer wieder wiederholt und viele Masterpläne sind auf dem Papier in der Obhut der Planer geblieben. Diese großartigen Ideen und Pläne bedrohen einzelne Bibliotheken, dass sie, wenn sie nicht handeln, in der Informationsdürre verhungern und sterben werden. Auch nachdem man von den Vorteilen von Kooperation und Ressourcenteilung gehört hat, sind egoistische, misstrauische und laxe Haltungen der Verantwortlichen noch nicht überwunden. Kein Gremium ist besorgt über diese sich vergrößernde Kluft zwischen Plänen und der Praxis der gemeinsamen Nutzung von Ressourcen. Es gibt klare Gründe für die Kluft zwischen dem, was über die gemeinsame Nutzung von Ressourcen gesagt wurde, und dem, was bisher erreicht wurde. Dieses Papier untersucht sowohl die hoch klingenden theoretischen Pläne der Ressourcenteilung als auch die praktischen Hindernisse für die gemeinsame Nutzung von Ressourcen, untersucht die inhärenten Grenzen der Philosophie der Ressourcenteilung, stellt die wichtigen Faktoren vor, die gegen die gemeinsame Nutzung von Ressourcen sprechen und wie man ihnen in einer Arbeitsumgebung begegnen und sie überwinden kann mit Anekdoten und Fallbeispielen. Worauf es im Spiel ankommt, ist, die Einschränkungen anmutig zu akzeptieren, einen geeigneten Verwaltungsmodus mit minimalen externen Eingriffen zu verwenden, das Ziel der Kosteneinsparung zu unterstreichen, das Weitergeben von Geld zu vermeiden, das 'etwas-für-Nichts-Syndrom' und leere Versprechungen von nur bibliografischem Zugriff ohne physischen Zugriff auf Text und zu verstehen, dass Kommunikation und Netzwerke nur Mittel und kein Zweck sind.;-;http://eprints.rclis.org/9509/;-;- 42d0e37fb48e506ddefb24e0aeea3d5a;de;;;3.2.;;;Bibliothekskooperation durch gemeinsame Nutzung von Ressourcen (RS): Modelle für Lahore-Bibliotheken RS ist ein wirksames Instrument zur Bereitstellung eines umfassenden Zugangs mit begrenzten finanziellen Mitteln. Mit dem schnellen Wachstum der Wissensressourcen sind auch die Anforderungen und Erwartungen der Benutzer gestiegen. Aufgrund von Haushaltskürzungen können Bibliotheken das benötigte Material nicht kaufen, daher sollten sie eine gegenseitige Zusammenarbeit anstreben. Gegenwärtig teilen Fachleute ihre Bibliotheksressourcen aus beruflicher und persönlicher Höflichkeit. Es besteht ein dringender Bedarf an gegenseitigen formellen Kooperationsprogrammen auf verschiedenen Ebenen.;-;http://eprints.rclis.org/7923/;-;- 8cde8a58780a4b0ee4a0578a0684d431;de;;;3.2.;;; Die Alma-Implementierung im Österreichischen Bibliothekenverbund (OBV) unter besonderer Berücksichtigung der Kohorte 2-Bibliotheken Im Jänner 2018 hat die Kohorte 2 den Umstieg auf das cloudbasierte Bibliothekssystem Alma vollzogen. Zur Durchführung dieses institutionsübergreifenden Projektes galt es, zentrale wie auch lokale Projektstrukturen zu definieren und die einzelnen Projektphasen des Gesamtprojektes zu bearbeiten.;-;http://eprints.rclis.org/34453/;-;- a51a02c033c5c6febdb99f2652d1e6b9;de;;;3.2.;;;Konsortium-Ansatz zur gemeinsamen Nutzung von E-Ressourcen – eine Fallstudie In den letzten drei Jahrzehnten gab es dramatische Preiserhöhungen bei Zeitschriftenabonnements. Mehrere in den Jahren 1990 und 1995 durchgeführte Studien zeigten, dass die Abonnementraten um über 80% gestiegen sind. Infolge steigender Zeitschriftenkosten, erschöpfter Bibliotheksbudgets und drastischer Kürzungen bei den Zeitschriftenabonnements stehen die Fachleute der indischen Bibliotheken vor einer großen Herausforderung, die Zeitschriftenkrise zu bewältigen. Als Ergebnis kommen Bibliotheksfachleute zum aktiven Ressourcenaustausch zusammen. Im indischen Kontext gab es konsequente Bemühungen um die Bildung von Konsortien auf verschiedenen Ebenen. Die identifizierten Konsortientypen basieren im Allgemeinen auf verschiedenen Modellen, die in Indien in unterschiedlicher Form entwickelt wurden, abhängig von der Zugehörigkeit der Teilnehmer und den Finanzierungsquellen. Jedes Modell basiert auf unterschiedlichen Werten, Zielen und Finanzierungsquellen. Die verschiedenen identifizierten Modelle sind: offene Konsortien, geschlossene Gruppenkonsortien, vom Institutshauptsitz finanziertes Modell, zentral finanzierte Modelle, Modelle mit gemeinsamem Budget und nationale Konsortien. Im Modell des offenen Konsortiums haben wir die Bildung von Konsortien unter FORSA diskutiert, bei denen die Teilnehmer verschiedenen Regierungsabteilungen angehören und die Astronomie als Hauptschwerpunkt ihrer Bibliothekssammlung haben. Als solches hat FORSA vier Konsortialverträge realisiert, die kurz diskutiert werden. Aus diesen Übungen haben wir gelernt, dass viele Institutionen bereit sind, sich Konsortien anzuschließen, um mehr Informationen zu erhalten, und Verlage bieten auch sehr lukrative Angebote an, um mehr Absatzsicherheit zu haben.;-;http://eprints.rclis.org/9168/;-;- 685d54036d761ff45264505c8bb0b4f7;de;;;3.2.;;; Der Österreichische Bibliothekenverbund im Umbruch: Neues Bibliotheksverwaltungssystem Alma als Impuls für die Zukunft Die aktuelle Ausgabe der „Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare“ (VÖB) ist dem Schwerpunktthema Implementierung von Alma im Österreichischen Bibliothekenverbund gewidmet.;-;http://eprints.rclis.org/34452/;-;- ba25ff0cb7e1216f23aa7730d3391ce6;de;;;3.2.;;;Konsortium-Ansatz zur gemeinsamen Nutzung von E-Ressourcen - Eine Fallstudie Der Anstieg der Zeitschriftenkosten, die Erschöpfung des Bibliotheksbudgets und die drastische Kürzung der Zahl der Zeitschriften haben zu einer „Journal Crisis“ geführt. Daher stehen Bibliotheksfachleute vor einer großen Herausforderung, diese Situation zu meistern. Das dringende Gebot der Stunde ist, dass sich Bibliotheksfachleute zum aktiven Austausch von Ressourcen zusammenfinden, und als Ergebnis davon hat sich im Bibliotheksbereich eine Konsortiumpraxis entwickelt. In Indien haben sich verschiedene Konsortienmodelle in unterschiedlichen Formen herausgebildet, je nach Finanzierungsquellen und Zugehörigkeit der Teilnehmer. Die verschiedenen identifizierten Modelle sind offene Konsortien, geschlossene Gruppenkonsortien, Finanzierung durch die Institutszentrale, zentrale Finanzierung, gemeinsame Budgets und nationale Modelle.;-;http://eprints.rclis.org/8877/;-;- fc6f5f9c7a134aa52a70642b39219515;de;;;3.2.;;;Multi-Type Collaboration: Bereitstellung von Bibliotheksdiensten über die gesamte Lebensdauer Beschreibt Bibliotheksdienste und Kooperationen in British Columbia von Books for Babies, um Leserprogramme auf postsekundäre und multisektorale Datenbanklizenzierung zu heben.;-;http://eprints.rclis.org/7667/;-;- ffa9349faad81da3ff12b1058f738dca;de;;;3.2.;;;ESSPER - Integration von bibliografischen Datenbanken und Dokumentenlieferung Dieser Artikel erklärt die Philosophie des italienischen Projekts ESSPER. ESSPER ist ein Akronym für Economia e scienze sociali: periodici. In der Datenbank gibt es mehr als 231094 Artikel mit analytischem Eintrag.;-;http://eprints.rclis.org/7303/;-;- 59c702a0a0a3c73956def331c8cd49cc;de;;;3.2.;;;Positionierung von Bibliothekaren als essenziell für die neuen virtuellen Lernumgebungen In diesem Beitrag werden die explosionsartige Nutzung elektronischer Ressourcen durch Studenten und die Entwicklung von E-Books diskutiert. Die bestehende hohe Nutzung wird sich verstärken, da virtuelle Lernumgebungen (VLEs) das primäre Mittel der Interaktion zwischen Studierenden und Universitäten werden. Es folgt ein kurzer Überblick über die Beschaffung von Universitätsbibliotheken im Vereinigten Königreich, gefolgt von einer Analyse einer kürzlich erfolgten bahnbrechenden Ausschreibung für E-Books für Hochschulbibliotheken im Vereinigten Königreich. Die Weiterentwicklung einer maßgeschneiderten Fachsammlung von E-Books für Krankenpflegestudenten wird ebenso detailliert untersucht wie die Nachfrage nach nicht-traditionellen Ressourcen für das VLE. Der Beitrag schließt mit einer Diskussion der Informationsarchitektur, die erforderlich ist, um den Zugriff auf Ressourcen in der Hybridbibliothek zu rationalisieren und zu vereinheitlichen und die Grundlage für eine für die elektronische Bibliothek geeignete Architektur zu legen.;-;http://eprints.rclis.org/7906/;-;- f5f2c87c0fbd3409c119cb7306314b25;de;;;3.2.;;;Bibliotheken, die Technologie zum Teilen teilen Die jüngsten Entwicklungen in der Technologie zur gemeinsamen Nutzung von Ressourcen in den westkanadischen Konsortien, BC Electronic Library Network und COPPUL werden diskutiert. Zu den Highlights zählen das Regalstatusprojekt von BC ELN, das die Funktionalität eines Verbundkatalogs mit der Live-Suche des Ausleihstatus über Z39.50 kombiniert, eine Tagging-Funktion für die lokal entwickelte A bis Z-Liste CJDB (CUFTS Journal Database), eine lokal entwickelte föderierte search tool, dbwiz, die Open Journal Systems Software des Public Knowledge Project und das COPPUL Animated Tutorials Sharing Project.;-;http://eprints.rclis.org/7473/;-;- 0fb2c476a3169b8c332e2639e9669e76;de;;;3.2.;;;Kooperation und Mitarbeit beim Erwerb elektronischer Zeitschriften, eine Voruntersuchung Bibliothekskonsortien wurden traditionell gebildet, um druckbasierte Ressourcen gemeinsam zu nutzen, aber in jüngerer Zeit haben sie versucht, den Zugang zu elektronischen Zeitschriften zu verbessern. Ihre Entwicklung hat neue Möglichkeiten eröffnet, sowohl ihre Wirkung zu bewerten als auch die kritischen Erfolgsfaktoren in der Zusammenarbeit im Bibliotheks- und Informationsbereich zu identifizieren. In diesem Beitrag sollen die wichtigsten Merkmale dieser Konsortien, die in der Literatur angegeben sind, sowie der Umfang ihrer objektiven Bewertung überprüft werden. Zu den wichtigsten Merkmalen zählen die Vorteile des konsortialen Einkaufs elektronischer Zeitschriften nicht nur für Bibliotheken und ihre Nutzer, sondern auch für Verlage sowie die unterschiedlichen Preis- und Lizenzmodelle. Daran schließt sich ein Überblick über die unterschiedlichen Ansätze zur Organisation und zum Betrieb von zu diesem Zweck eingerichteten Bibliothekskonsortien an. Dies umfasst den Aufbau eines Konsortiums, die verschiedenen Arten von Konsortien und Verwaltungsinfrastrukturen sowie Vereinbarungen zu Verhandlungen mit Verlagen und zur Kostenteilung zwischen den Mitgliedern des Konsortiums. Schließlich betrachtet das Papier die Herausforderungen für Bibliotheken, partnerschaftlich zusammenzuarbeiten. Die bisher untersuchten Beweise deuten darauf hin, dass, obwohl viele der Behauptungen über den Nutzen von Konsortien gültig sind, es für die meisten nur wenige empirische Beweise gibt, und die verschiedenen Ansätze für die Organisation und den Betrieb von Konsortien wurden nicht evaluiert.;-;http://eprints.rclis.org/29419/;-;- b8d5568e1317bea7ddd9d748f4591d14;de;;;3.2.;;; Social Software – Bausteine einer Bibliothek 2.0 Social Software und Web 2.0 werden anhand einiger Anwendungen und Techniken, darunter insbesondere Weblogs sowie Wikis, Social Bookmarking und RSS beschrieben und bewertet. Es wird auf die Nutzung solcher Anwendungen im Bibliotheksbereich (Bibliothek 2.0), insbesondere zur Unterstützung bibliothekarischer Communities of Practice, eingegangen. Es werden einige internationale sowie insbesondere deutschsprachige Web-2.0-Ressourcen für Bibliothekare zusammengestellt und kommentiert.;-;http://eprints.rclis.org/9641/;-;- 361747616bc658feed741fd7b832b061;de;;;3.2.;;; Bibliothek 2.0 - Perspektiven, Probleme, Handlungsbereiche Es werden Thesen zu den zentralen Entwicklungsperspektiven der Bibliothek 2.0 aufgestellt. Die Menschen, die in der Bibliothek arbeiten, sind demnach die Schlüsselkomponente der Bibliothek 2.0. Daran anknüpfend werden Leitlinien und charakteristische Probleme der Entwicklung zum Bibliothekar 2.0 diskutiert. Abschließend werden einige zentrale, typische Bausteine der Bibliothek 2.0 skizziert. Der Fokus richtet sich dabei auf neue Wege, a) den Benutzer sowohl anzusprechen als auch mit ihm zu sprechen, b) die Bibliothek, aber auch ihre Bestände in die Informationsumgebung des Benutzers zu bringen, c) den Fokus der eigenen Sammlungs- und Erschließungsaktivitäten um frei verfügbare Informationsressourcen im Web zu erweitern. Alle diskutierten Texte und Beispiele sind auch unter dem einschlägigen Tag embi08 im Social-Bookmarking-Dienst del.icio.us hinterlegt. (http://delicious.com/lambo/embi08);-;http://eprints.rclis.org/3985/;-;- 233158ba5f724b83c8e19e91c8fcdc97;de;;;3.2.;;; Der Österreichische Bibliothekenverbund und sein Umfeld - Strategisches und Strategisches zu Strategischem. Vortrag, gehalten am Verbundtag des Österreichischen Bibliothekenverbunds am 9. Mai 2012 In dem Vortrag wird die Situation des Österreichischen Bibliothekenverbundes, seine Organisation und die für ihn wirksamen Rahmenbedingungen vor dem Hintergrund der in Deutschland durchgeführten Studie Informationsinfrastruktur in Deutschland beleuchtet.;-;http://eprints.rclis.org/18461/;-;- 741628c353ab294ea38f99f9874b665f;de;;;3.2.;;; Bericht der für den österreichischen Bibliothekenverbund eingerichteten Arbeitsgruppe Strategische Planung an die Vollversammlung (Puch/Salzburg, 10. Mai 2012) Der nachfolgende Beitrag der von der Vollversammlung eingesetzten Arbeitsgruppe ist der Bericht über die Tätigkeiten der Arbeitsgruppe seit der letzten Berichterstattung an die Vollversammlung am 12. Mai 2011 in Wien.;-;http://eprints.rclis.org/18502/;-;- 8f5f2577f4066051adb49b7816d7a3c6;de;;;3.2.;;; Aktuelle und künftige Verbundentwicklungen: Einheit in der Vielheit Der Beitrag behandelt die vielen verschiedenen Entwicklungen der beiden letzten Jahre, die steigenden Anforderungen und ihre Diversitäten. Eingebettet in immer stärkere internationale Zusammenhänge entwickelt sich eine signifikant größere Vielfalt von Anforderungen und Erfordernissen, denen sich auch kleinere Einrichtungen stellen müssen. Kooperative Konzepte versuchen möglichst viel Anspruch auch in die Wirklichkeit zu bringen, wieweit dies aber gelingt, hängt aber sehr oft von den verfügbaren Ressourcen ab. Abschließend werden mögliche zukünftige Entwicklungen erörtert und zur Diskussion gestellt.;-;http://eprints.rclis.org/23045/;-;- 9836cd770517ad518507d15ab5177e7d;de;;;3.2.;;; 10 Jahre Verbundorganisation neu: Verbundfamilie, Verbundarbeit, Kooperation Mit dem seit Anfang 2002 geltenden Ausgliederungsgesetz und den darauf basierenden Vereinbarungen wurde die heute noch geltende Verbundorganisation geschaffen. Neben einer kurzen Vorstellung zu Willensbildung und Ablauf in unterschiedlichen Bereichen wird an Hand dieser Abläufe auch ein wenig über Gründe für Erfolge spekuliert.;-;http://eprints.rclis.org/23044/;-;- dde7f2cd2ba979e6f614968c134da095;de;;;3.4.;;;Eine analytische Umfrage zur Verbesserung des Rezeptionsservice der FHS-Bibliothek Die Bibliothek der Fakultät für Gesundheitswissenschaften, AKU, bietet qualitativ hochwertige Front-Desk-Services ohne Vorurteile basierend auf Geschlecht, Bildung, Rasse, kulturellem Status, Religion, Behinderung und Benutzerkategorien wie Dozenten, Studenten, Kliniker, Forscher, allgemeines Personal usw. In Anbetracht der sich ändernden psychologischen Einstellungen, Verhaltensmuster und Erwartungen der Bibliotheksbenutzer und qualitativ hochwertiger Dienstleistungen hat es sich als äußerst schwierig erwiesen, einen qualitativ hochwertigen Schalterservice für Benutzer aufrechtzuerhalten. Die aktuelle Umgebung zu bewerten und zu untersuchen und den intellektuellen Ansatz des Benutzers, weitere Erwartungen und Anforderungen zu kennen. Für die Bibliotheksnutzer wird eine Umfrage durchgeführt. Das Umfrageformular wurde im Hinblick auf die Qualitätspolitik und das Umfeld der AKU, Praktiken und Perspektiven entworfen und entwickelt. Für diese Studie hatten wir 50 Umfrageformulare (Fragebögen) an Fakultät, Studenten, Kliniker, Assistenzärzte, Dozenten, Forscher und allgemeine Benutzer verteilt. Durch diese Umfrage wurde versucht, die Herangehensweise der Benutzer an Dienstleistungen, psychologische und Verhaltenseinstellungen, Benutzerzufriedenheit, Benutzererwartungen, gute und schlechte Erfahrungen, Vorschläge und Empfehlungen zu kennen. Das wichtigste Element in der Qualitätsabstimmung mit den Kunden ist das Schalterpersonal, auch an das Schalterpersonal wurde ein separater Fragebogen verteilt. Im Mittelpunkt dieses Fragebogens standen ihre Fähigkeiten und ihre Probleme im Gegengeschäft und was sie von den Kunden und der Bibliotheksleitung erwarten.;-;http://eprints.rclis.org/11615/;-;- 538efca2d326f6368bf55beebd8c63b4;de;;;3.4.;;;Wie man Massen-E-Mails bei der Arbeit schreibt, die die Leute wirklich mögen: So sieht leckerer Spam aus Dieses Handout listet 11 (elf) empfohlene Schritte zum Schreiben von Massen-E-Mails für die Arbeit auf. Das Schreiben und Versenden von Spam-E-Mails ist eine regelmäßige Voraussetzung für die Bibliotheksarbeit, aber nicht jeder weiß, wie man dies macht, während er immer noch professionell aussieht. Dieses kurze Handout umreißt kurz und bündig die empfohlenen Schritte von jemandem, der regelmäßig Massen-E-Mails für die Arbeit verschickt.;-;http://eprints.rclis.org/10457/;-;- ddac1490a237be1bc1d655111a593746;de;;;3.4.;;;Planung und Durchführung einer Referendumskampagne für Bibliothekseinrichtungen 2005 ging das Cranbrook Public Library Board zum zweiten Mal mit einem Referendum an die Öffentlichkeit, um eine neue Bibliotheksanlage zu bekommen. Im Jahr 2002 wurde die vorherige Volksabstimmung im Kreisbezirk nur knapp abgelehnt. Diesmal stimmten die Einwohner von RDEK Area C 60 % für die neue Bibliothek, während die Einwohner von Cranbrook am 19. November 88 % dafür stimmten. Der CPL-Vorstand arbeitete fleißig mit den lokalen Regierungen und vielen anderen Gruppen zusammen, um das Ja Abstimmung Realität. Die am Planungsprozess Beteiligten arbeiteten mit regionalen und kommunalen Regierungen zusammen und hörten der Öffentlichkeit zu, um eine realistische Wahlmöglichkeit für die Öffentlichkeit zu entwickeln. Diese Sitzung behandelt den Prozess der Planung und Durchführung einer erfolgreichen Referendumskampagne sowie die gewonnenen Erkenntnisse.;-;http://eprints.rclis.org/7474/;-;- cdfab9d27e3f81e8aa205b691b71d1c9;de;;;3.4.;;;Kommunikationsabteilungen in spanischen Organisationen. Kongruenzen und Inkongruenzen eines Managementmodells Nach einer qualitativen Studie von 48 spanischen Organisationen aus den meisten Wirtschaftszweigen zeigt der vorliegende Artikel die Übereinstimmungen und Inkongruenzen in der Struktur ihrer internen Kommunikations- und Öffentlichkeitsarbeitsabteilungen auf. Die Ergebnisse zeigen, wie die Gas-, Wasser- und Energieversorger sowie der öffentliche Verkehrssektor in ihrem Kommunikationsmanagementmodell nach Exzellenz im Vergleich zu anderen Sektoren wie Finanzen, Gesundheit oder Bildung in Spanien suchen. Andere Indikatoren wie die organische und funktionale Abhängigkeit, die Bezeichnung der Abteilung oder das berufliche Profil der Verantwortlichen helfen, die Schwächen dieser spanischen Kommunikationsabteilungen in ihrer natürlichen Entwicklung zu einem integrierten Managementmodell der Dominant Coalition zu erkennen.;-;http://eprints.rclis.org/15880/;-;- 63e7dd275a3983b2bd8ff079c85b9b64;de;;;3.4.;;;Entwicklung mehrsprachiger Webseiten, um internationalen Studierenden zu helfen: Die Erfahrung eines ostasiatischen Bibliothekars Diese Präsentation beschreibt ein Projekt zur Erstellung mehrsprachiger Willkommensseiten auf der Bibliothekswebsite und diskutiert die Probleme im Zusammenhang mit der Entwicklung der chinesischen Seite.;-;http://eprints.rclis.org/13102/;-;- 76bc9bafc3595573c508fdcfab13a43c;de;;;3.4.;;;Die vielfältigen Möglichkeiten, Journalismus zu betreiben. Ein Interview mit Nico Carpentier Wir sollten anerkennen, dass es viele verschiedene Wege gibt, Journalismus zu betreiben und viele verschiedene Identitäten möglich sind. Nico Carpentier argumentiert, dass „Kunst und Medien den Menschen eine Stimme geben können, aber gleichzeitig radikal unterdrückend sein können.;-;http://eprints.rclis.org/38762/;-;- 8154ca4cf57b716d94d60036d948b7fb;de;;;3.2.;;;Einführung in die Sektion der IFLA-Regierungsbibliotheken Dieses Papier versucht, eine klare und grundlegende Vorstellung davon zu vermitteln, was die IFLA und die Abteilung für Regierungsbibliotheken sind und wie sie Bibliotheken und Bibliothekaren helfen können. Es beschreibt die Rolle der Sektion, warum und wie eine Bibliothek, ein Verein, eine Institution oder eine Einzelperson beitreten kann und was sie im Rahmen der Sektion tun können, wenn sie Mitglied sind.;-;http://eprints.rclis.org/14789/;-;- 00a9428eb8880645868a38bae419d961;de;;;3.2.;;;Kostenloses und offenes Stipendium im Internetzeitalter Beschreibt ein Aktionsforschungsprojekt zur wissenschaftlichen Kommunikation im Frühstadium. Zu den Forschungsstandorten gehören das Open Access Journal Supports in Canada Research Team, E-LIS, das Open Archive for Library and Information, Scholarly and Research Communication (eine neue Open-Access-Zeitschrift) und Stream, das Open-Access-Journal für Doktoranden der SFU School of Communication . Zu den Methoden gehören Aktionsforschung, Wirtschafts- und Diskursanalyse.;-;http://eprints.rclis.org/14531/;-;- f586975a7517c928b78650ed8de53d94;de;;;3.2.;;;Sitka für Treuhänder BCLA 2011 Konferenzsitzung: Sitka Für Treuhänder wurden die Treuhänder öffentlicher Bibliotheken eingeladen, an dieser Podiumssitzung teilzunehmen, die einen Überblick über das Sitka-Projekt und seine provinzielle Vision und den Marktkontext bietet. Zu den angesprochenen Fragen gehörten: Was ist ein Integriertes Bibliothekssystem (ILS)? Wie passt das Sitka-Projekt in den strategischen Plan der Provinz für Öffentliche Bibliotheken, Bibliotheken ohne Mauern? Welche Rolle spielt die BC Libraries Cooperative und wer sind die Menschen hinter dieser Organisation? Wie unterscheidet sich das Sitka-Projekt von einer kommerziellen Lösung und was sind die Vorteile des Konsortials? Wer sind die anderen Player auf dem ILS-Marktplatz? Wie ist der aktuelle Stand und die Zukunftsaussichten für Sitka?;-;http://eprints.rclis.org/15674/;-;- 3d9fcfe3d7cf7e0b9d7b5801015e3709;de;;;3.2.;;;IIM Library Consortium: Haben wir eine Erfolgsgeschichte zu erzählen? Konsortium ist eine Gruppe von Bibliotheken, die zum gegenseitigen Nutzen zusammenarbeiten. Das Papier analysiert die verschiedenen Arten von Konsortien in Indien. Das Hauptziel des Papiers besteht darin, das im Jahr 2000 gegründete IIM-Konsortium zu überprüfen, um den IIM-Bibliotheken bei der Entwicklung ihrer Sammlung und der Verbesserung der Dienste zu helfen. Das Papier beschreibt das IIM Library Consortium Model, die Kosten-Nutzen-Analyse und diskutiert die zukünftige Richtung desselben;-;http://eprints.rclis.org/24253/;-;- 17c222ad4a9eaedca1eca623f170d322;de;;;3.4.;;;Wissenschaftlicher Reputationsaufbau im digitalen Zeitalter: ein aktivitätsspezifischer Ansatz. Artikel überprüfen Um zu verstehen, wie Wissenschaftler von heute ihre berufliche Reputation aufbauen, erhalten und präsentieren können, untersucht die hier vorgestellte Literaturrecherche die Reputationschancen, die ihnen in der zunehmend auf offenen Werten basierenden, digitalen und vernetzten Umgebung von Science 2.0 zur Verfügung stehen. Unter Verwendung eines mit Hilfe der Europäischen Kommission entwickelten konzeptionellen Rahmens, der speziell für die Durchführung analytischer Überprüfungen und Prüfungen des Reputationswerts wissenschaftlicher Aktivitäten entwickelt wurde, untersucht diese Studie detailliert die Praktiken - mehr als 30 von ihnen -, die die gegenwärtige wissenschaftliches Unterfangen aus einem reputationsfördernden Blickwinkel.;-;http://eprints.rclis.org/33890/;-;- 4152d5329797aeac113267495db4129d;de;;;3.2.;;;Auswirkungen von Bibliothekskonsortien: Wie profitieren die indischen Bibliotheken? Die Entwicklung von Bibliothekskonsortien oder Einkaufsclubs hat ihre Wurzeln in der Geschichte der kooperativen Bemühungen von Bibliotheken und wird nun auch durch die Notwendigkeit angetrieben, Remote-Benutzern einen lizenzierten Zugang zu elektronischen Ressourcen zu ermöglichen, der durch die Aufteilung der Abonnementkosten zu sehr wirtschaftlich ist. Konsortien werden mit dem Ziel gebildet, die Kaufkraft der teilnehmenden Bibliotheken im gegenwärtigen Szenario einer großen Finanzkrise und steigender Kosten der Ressourcen in elektronischer Form zu erhöhen. Durch die Unterstützung des regionalen und nationalen Netzwerks können Bibliotheken in Indien kooperativ an der Gründung von Bibliothekskonsortien für das Angebot und den Austausch elektronischer Ressourcen arbeiten. Die Einrichtung eines besseren Konsortiums zur Integration des intellektuellen Zugangs wird ein bemerkenswerter Schritt auf dem Weg zu elektronischen Bibliotheken sein.;-;http://eprints.rclis.org/17504/;-;- c841fbeedf038cc0399eedb54d7ffa71;de;;;3.4.;;;Finanzplanung und multikriterielle Entscheidungsanalyse: ein weiteres Werkzeug für Bibliothekare? Da die Ökonomie von Bibliotheken immer komplizierter wird, ist das Interesse der Bibliotheken an Wirtschafts- und Finanzanalysen wichtiger denn je. Dieser Beitrag untersucht die Schwierigkeiten, die mit der Anwendung der Finanzanalyse verbunden sind. Auch Finanzplanungs- und Finanzplanungsmodelle für Bibliotheken werden diskutiert. Der Stand der Technik und die wirtschaftlichen Zusammenhänge der Bibliothek werden ebenso erwähnt wie die Besonderheiten des Produktes „Information“ und einige Grundsätze zu deren Kostenmessung. Die Entscheidungsunterstützungssysteme können die Formen bereitstellen, die Entscheidungen annehmen könnten, um als alternative Lösungen der gelösten Probleme in Bezug auf die gewählten Kriterien und die Gewichtung, die jedes Kriterium nimmt, in Betracht gezogen zu werden. Die vorgeschlagene Methode ist der Analytic Hierarchy Process (AHP), der hilft, nicht-qualitative Kriterien zu quantifizieren und zu messen.;-;http://eprints.rclis.org/17746/;-;- 63e7f378d194202e72ec1a53a2975a7e;de;;;3.4.;;;Wesentliche Elemente eines Fondsbaumdesigns: Logische Transaktionsaufzeichnungen und aktiviertes Reporting Das Design von Fondsbuchhaltungsbäumen in computerbasierten Buchhaltungssystemen gibt es seit fast 25 Jahren. Dies ist nicht neu, aber die Art und Weise, wie wir dieses System verwenden, hat sich dramatisch verändert. Die Informationsbedürfnisse der Bibliotheksverwaltung, der Fachbibliothekare, der Ankäufe, der Bestandsentwicklung und der Hochschulabteilungen sind vielfältig. Wir sind nicht mehr in der Lage, Materialien nur in die grundlegenden Kategorien von Monographien und Reihen zu gruppieren. Berichte müssen jetzt die Vielzahl von Bibliotheksmaterialformaten berücksichtigen: E-Books, Streaming-Videos, CDs, DVDs usw. Der Buchhaltungsbaum und die Verwendung von Mnemonik im Fondscodedesign ermöglichen eine Berichterstellung, die Ausgaben präzise verfolgt und die Berichterstellung über diese Ausgaben komfortabler macht .;-;http://eprints.rclis.org/8887/;-;- 015823f14fdd0d79bae16d6ab303e264;de;;;3.4.;;;Berücksichtigung von Gebühren für Nicht-Open-Access-Veröffentlichungen in den Gesamtkosten der Veröffentlichung Neuere Forschungen haben versucht, die Gesamtkosten für Veröffentlichungen im britischen akademischen Sektor zu berechnen, indem sie die Kosten für Zeitschriftenabonnements, die für die Veröffentlichung von Open-Access-Inhalten gezahlten Artikelbearbeitungsgebühren (APCs) und die indirekten Kosten für die Bearbeitung von Open-Access-Mandaten umfassen . Diese Studie fügt eine Schätzung für die anderen Publikationsgebühren (vorwiegend Seiten- und Farbgebühren) hinzu, die derzeit von Forschungseinrichtungen gezahlt werden, ein wesentliches Element, das von neueren Studien vernachlässigt wurde. Wenn diese Gebühren in die Berechnung einbezogen werden, betragen die Gesamtkosten für die Institutionen ab 2013/14 rund 18,5 % über den Kosten für Zeitschriftenabonnements – 11 % von APCs, 5,5 % von indirekten Kosten und 2 % von anderen Publikationsgebühren . Für den britischen akademischen Sektor insgesamt bedeutet dies Gesamtkosten für die Veröffentlichung von rund 213 Millionen Pfund Sterling gegenüber konservativ geschätzten Ausgaben für Zeitschriften von 180 Millionen Pfund Sterling. Anhand einer Fallstudie wird gezeigt, dass diese Kosten je nach disziplinärer Ausrichtung für einzelne Einrichtungen unerwartet hoch sein können. Diskutiert wird die Möglichkeit, diese Daten auf breiter Basis zu erheben, sowie die Möglichkeit, sie für zukünftige Abonnementverhandlungen mit Verlagen zu nutzen.;-;http://eprints.rclis.org/29779/;-;- 518464bd4662b8ade1d2676b45bffac8;de;;;3.4.;;;Geschäftsmodelle für digitale Zeitungen: eine Online-Antwort auf die wachsende Nachfrage nach Nachrichteninhalten Die Krise der Zeitungsbranche fällt mit einer explosionsartigen Nachfrage nach Inhalten in verschiedenen Bereichen und Formen des Nachrichtenkonsums zusammen. Die vielfältigen digitalen Geschäftsparadigmen, die sich in einem solchen Kontext ergeben, treten in unterschiedlichen Formen auf, von Pay per View bis hin zu kostenlosen Inhaltstypen: b) Zahlungsmodell basierend auf dem Abonnement einer Qualitätsversion, c) Zahlungsmodell, das den Zugang zu bestimmten Inhalten berechnet und d) offenes und kostenloses Modell mit Strategien, die denen der nativen digitalen Medien zunehmend ähnlich sind. Daher besteht ein Paradox zwischen der wachsenden Nachfrage nach digitalen Inhalten und der Schwierigkeit, sich für ein Online-Medien-Geschäftsmodell zu entscheiden.;-;http://eprints.rclis.org/38749/;-;- 0ba7ee7228e2ffb9581b1fee938de64a;de;;;3.4.;;;Organisation von Modellen von Bibliothekskonsortien: Bildung einer nachhaltigen Beteiligung potenzieller Partner in Indien Dieses Papier untersucht kritisch die vorherrschenden Situationen, die zur gemeinsamen Nutzung von Ressourcen geführt haben, die hauptsächlich von Bibliothekskooperativen, Fernleihe, Einkaufsclubs, später zu Versorgungsdiensten, Standortlizenzen und letztendlich dem Konsortium – einem aufstrebenden Werkzeugkasten für das Überleben von Bibliotheken – ausgingen. Die strategischen Allianzen zwischen Bibliotheken und das Wachstum von Bibliothekskonsortien wurden diskutiert. Die Auswirkungen verschiedener Konsortienmodelle auf die indischen Bibliotheken werden erläutert, was auf eine nachhaltige Konsortialorganisation potenzieller Partner schließen lässt. Das Papier versucht auch, einen Einblick zu geben, wie Konsortialstrategien eine endlose fiskalische Beschränkung überwinden und die Kaufkraft bei der Sammlungsentwicklung für einen besseren Zugang zu größeren Ressourcen aufrechterhalten können.;-;http://eprints.rclis.org/41733/;-;- c96aa62304a7bec4f8f5cd4e2e00d980;de;;;3.4.;;;Eine empirische Analyse der Einführung von Mobile Banking in Vietnam Mobiltelefone mit Banktechnologie werden in Vietnam immer leichter verfügbar. In ähnlicher Weise arbeiten viele Finanzinstitute und Mobilfunkanbieter zusammen, um ihren Kunden mehrere Bankdienstleistungen über das Mobiltelefon anzubieten. Allerdings ist die Zahl der Menschen, die sich für die Übernahme oder Nutzung solcher Technologien entscheiden, noch relativ gering. Daher muss die Akzeptanz solcher Technologien bewertet werden, um Faktoren zu ermitteln, die die Absicht des Kunden, Mobile Banking zu nutzen, behindern oder fördern. Umfragedaten von 452 Verbrauchern wurden analysiert, um Beweise zu liefern. Die Ergebnisse der Modellierung der partiellen kleinsten Quadrate der Strukturgleichungen (PLS-SEM) mit dem Programm SmartPLS 3.0 zeigten, dass die wahrgenommene Benutzerfreundlichkeit, die wahrgenommene Glaubwürdigkeit, die Nützlichkeit, die Einstellung, die wahrgenommene Verhaltenskontrolle und die subjektive Norm in Bezug auf die Absicht des Kunden, das Handy zu nutzen, signifikant sind Bankdienstleistungen. Die Ergebnisse der Datenanalyse tragen zum Wissensbestand bei, indem sie zeigen, dass die oben genannten Faktoren entscheidend für die Absicht sind, Mobile Banking in einem Entwicklungslandkontext zu nutzen. Das Ergebnis dieser Studie kann auch Vermarktern im Bankensektor helfen, geeignetere Marketingstrategien in ihrem Bereich anzubieten, um mit Mobile Banking Services eine höhere Attraktivität zu erzielen.;-;http://eprints.rclis.org/39693/;-;- 2fc05c9b82263733bb378c4c65f0742c;de;;;3.2.;;;Bibliothekskonsortien: Ein Überblick Moderne Bibliotheken stehen vor noch nie dagewesenen Herausforderungen bei der Erfüllung der elektronischen Ressourcenanforderungen ihrer Nutzer. Der Ansatz von Bibliothekskonsortien macht sie jedoch bis zu einem gewissen Grad effektiv nutzbar. Der Beitrag diskutiert das Konzept, den Bedarf, die Vor- und Nachteile von Bibliothekskonsortien und auch die Faktoren, die mit der Annahme von Bibliothekskonsortien verbunden sind;-;http://eprints.rclis.org/40842/;-;- 9f72ad7419ab970d1b03cb6df6d83d95;de;;;3.2.;;;"Virtuelle F&E-Teams: Ein neues Modell für die Produktentwicklung Der zunehmende globale Wettbewerb hat kleine und mittlere Unternehmen (KMU) dazu gedrängt, neue Produkte schneller zu entwickeln. Virtuelle Forschungs- und Entwicklungsteams (F&E) in KMU können eine Lösung bieten, um die Markteinführungszeit für neue Produktentwicklungen (NPD) zu verkürzen. Faktoren, die die Effektivität virtueller Teams für NPD beeinflussen, sind jedoch noch nicht ausreichend überprüft. Dieses Papier stellt die Korrelationen zwischen virtuellen F&,D-Teamkonstrukten und der Effektivität virtueller Teams dar, indem ein „Virtual Research and Development Team“ (ViR&,DT)-Modell entwickelt wird. Die Items, die die Effektivität virtueller Teams beeinflussen können, sind der Literatur entnommen. Das vorgeschlagene Modell (ViR&,DT) wurde durch eine Online-Umfrage und durch Anwendung der Strukturgleichungsmodellierung (SEM) getestet. Die Ergebnisse legen nahe, dass das Prozesskonstrukt stark mit der Effektivität virtueller Teams korreliert. Daher sollten sich NPD-Manager in virtuellen R&,D-Teams auf den Prozess der Neuproduktentwicklung konzentrieren, anstatt die Teams nur mit der neuesten Technologie auszustatten oder hochqualifizierte Experten einzustellen. Weitere empirische Untersuchungen werden empfohlen, um die Anwendungsbreite des ViR&,DT-Modells vollständig zu erkunden und zu würdigen.";-;http://eprints.rclis.org/28254/;-;- f332c091260fdc9dafe91cc325d3db61;de;;;3.4.;;; Entwicklungstrends des Online-Marketings: Suchmaschinen- und Social Media Marketing Dieser Beitrag gibt einen Überblick über das Themenfeld Online-Marketing und diskutiert den qualitativen Wandel, den es im und durch das Social Web erfährt. Hierzu werden zunächst „klassisches“ anzeigenbasiertes Online-Marketing skizziert und Grundlagen des Suchmaschinen- und Social Media Marketing dargestellt. Auf dieser Basis werden Entwicklungstrends des Online-Marketing in Folge des Social Web erschlossen. Abschließend wird der Bezug bzw. die Relevanz der Themenfelder Suchmaschinen- und Social Media Marketing für die Informati-onswissenschaft diskutiert.;-;http://eprints.rclis.org/13656/;-;- 0420def185cfc54894ab8b5e04231ec3;de;;;3.4.;;; Ratgeber für Bibliotheksmarketing : Praxis 2007 Dieses Dokument beschäftigt sich mit dem Thema Bibliotheksmarketing und ist besonders für die öffentlichen Bibliotheken zugeschnitten. Es gewährt einen Einblick, was Marketing ist und wie es sich anwenden lässt. Im Wesentlichen behandelt das Dokument Theorie wie Praxis - Begriffe, ihren Kontext, ihre Anwendung als auch ihre Umsetzung. In zahlreichen Interviews werden Best Practices dargestellt.;-;http://eprints.rclis.org/10003/;-;- df8f35eee902b664afdbae654771fcef;de;;;3.4.;;; Marketing Bibliotheken Diese Präsentation wurde im September 2007 am Schweizerischen Bibliothekarskongress gehalten. Sie geht auf die für die Promotion von Bibliotheksdienstleistung geeigneten grundsätzlichen Marketing Prinzipien ein.;-;http://eprints.rclis.org/10987/;-;- 0ae5bd6d3df1ac3242e1e1703b201b93;de;;;3.4.;;; Allen das Gleiche oder jedem das Seine? Zielgruppenorientierte Servicepolitik als strategische Herausforderung. Der Ansatz der BSB Bibliotheken jedweder Couleur laufen derzeit Gefahr sich im Mehrfrontenkampf zwischen sich stetig individueller gestaltenden Nutzererwartungen und -wünschen sowie dynamisch wachsenden technologischen Herausforderungen und chronischem Ressourcenmangel aufzureiben. Dem bibliothekarischen Urwunsch folgend, allen und allem gerecht zu werden führt zu einem Dienstleistungseinerlei und Profillosigkeit, die am Ende keinen mehr, weder Nutzer noch Bibliothekare zufrieden stellt. Es ist notwendig, sich wieder auf das Produkteinmaleins zu besinnen, d.h. Zielgruppen zu definieren und aus dem Blickwinkel geratene Kernaufgabenstellungen wieder den gebührenden Platz einzuräumen sowie ein Service- und Dienstleistungsportefeuille auf- und auszubauen, das unter Einbeziehung der Ressourcenkomponente auch längerfristig leistbar ist. Die BSB hat hier in den letzten Jahren sowohl im konventionellen als auch im digitalen Dienstleistungsbereich einiges an Zielgruppenarbeit geleistet und ein entsprechendes Produkt-/Serviceportefeuille aufgebaut, das mit kooperativen Komponenten versehen auch für andere Bibliotheken von Interesse sein könnte. ;-;http://eprints.rclis.org/20937/;-;- d3d91492a6de20d5c58143fb899a1885;de;;;3.4.;;; lobid vocab. Zur Konzeption und Entwicklung eines RDF-Vokabulars für die Beschreibung bibliothekarischer Organisationen, ihrer Sammlungen und Dienstleistungen In dieser Arbeit werden Überlegungen angestellt, wie bibliothekarische Organisationen, ihre Sammlungen und Dienstleistungen strukturiert und maschinenlesbar beschrieben werden können. Praktikern soll mit dieser Arbeit eine Handreichung geliefert werden, Webauftritte von Bibliotheken mit strukturiertem, maschinenlesbarem, RDF-konformen Markup (RDFa) anzureichern. Ausgangspunkt bilden die Erfahrungen beim Aufbau des Linked-Open-Data-Dienstes lobid.org, die zu der Erkenntnis führten, dass eine dezentrale Pflege von Informationen über Organisationen im Gegensatz zu zentralen Verzeichnissen mit signifikanten Vorteilen verbunden ist. Es wird beispielhaft untersucht, welche Art von Informationen auf Bibliothekswebseiten vorzufinden sind, die mit strukturiertem, maschinenlesbarem Markup angereichert werden können. Darauf aufbauend wird ein umfassendes allgemeines konzeptuelles Modell zur Beschreibung bibliothekarischer Organisationen vorgestellt. Bestehende Ansätze der strukturierten, standardisierten Beschreibung bibliothekarischer Organisationen (Sigelverzeichnis, Deutsche Bibliotheksstatistik, WorldCat Registry) werden dargestellt und ihnen gemeinsame Beschreibungspraktiken herausgearbeitet. RDF-Vokabulare werden präsentiert, die anknüpfend an bestehende Beschreibungspraktiken für die maschinenlesbare Anreicherung von Webseiten verwendet werden sein könnten. Schließlich wird ein konkreter Vorschlag zur Beschreibung bibliothekarischer Organisationen gemacht, exemplarisch durchgeführt an zwei Bibliotheken.;-;http://eprints.rclis.org/16175/;-;- 2d53d8485afcb8b0f56474721b41fbca;de;;;3.4.;;; Immer furchtbar nett - Postkarten an der Universitätsbibliothek Wien In der Flut von Bildern, die uns heutzutage überrollt, hat ein noch so buntes Hinweisschild in einer Bibliothek kaum mehr eine Chance, wahrgenommen zu werden. Trotzdem kommen Bibliotheken nicht umhin, auch Regeln und Verbote zu kommunizieren. Was spricht Benutzerinnen und Benutzer an und wie dringt man zu ihnen durch? An der Universitätsbibliothek Wien wurde eine Alternative zum klassischen Verbotsschild gesucht. Das Resultat waren auffällige Postkarten, die zum Nachdenken und Verstehen anregen sollen.;-;http://eprints.rclis.org/23847/;-;- 7cfdd2c3abc1b53613cc6e76df3f4f0c;de;;;3.4.;;;Entdecken Sie das Design von Reiseerlebnissen mit Lokalii: Wie kann eine Reise-App unvergessliche Erlebnisse schaffen? Die Nachfrage nach lokalen Erlebnissen steigt. Reisetrends konzentrieren sich auf die Entdeckung des „Einzigartigen“, und Reisende möchten die Erlebnisse finden, die eine Reise unvergesslich machen. Mit Smartphones ist das Auffinden von Informationen mit geringem Aufwand verbunden. Dieses Papier versucht, die Theorie des Erlebnisdesigns im Tourismus durch eine App für lokale Erlebnisse, Lokalii, zu untersuchen. Es werden verschiedene Aspekte sowohl der Theorie als auch der App vorgestellt, um zu sehen, wie eine Reise-App dazu beitragen kann, unvergessliche Erlebnisse zu schaffen. Dieses Papier zielt darauf ab, die Bedürfnisse und Wünsche von Reisenden auf Reisen kennenzulernen.;-;http://eprints.rclis.org/38755/;-;- ec3f3b00a039feeccf987e49bf9d049f;de;;;3.4.;;;Buchbesprechung: Competitiveness in Emerging Markets: Market Dynamics in the Age of Disruptive Technologies, von Datis Khajeheian, Mike Friedrichsen & Wilfried Mödinger Im Jahr 2018 veröffentlichte Springer in seiner Reihe „Contributions to Management Science“ ein weiteres Hardcover: Competitiveness in Emerging Markets – Market Dynamics in the Age of Disruptive Technologies. Herausgeber dieses Bandes sind Datis Khajeheian, außerordentlicher Professor für Medienmanagement an der Universität Teheran, Mike Friedrichsen, Professor für Medienökonomie und Medieninnovation und Gründungspräsident der Berlin University of Digital Sciences, und Wilfried Mödinger, Professor für Marketing und Management in Stuttgart Hochschule der Medien. Dieses Buch versteht Schwellenländer sowohl in konzeptioneller als auch in geografischer Hinsicht. Im Allgemeinen analysiert es die Identifizierung und Nutzung von Chancen in Schwellenländern mit einigen ungedeckten Bedürfnissen. Darüber hinaus konzentrieren sich einige Kapitel auf Fälle, in denen das Unternehmertum durch die Digitalisierung in Lateinamerika, Mittel- und Osteuropa, dem Iran und anderen Schwellenländern gestört wurde.;-;http://eprints.rclis.org/38742/;-;- 58f75b93ef6099b0b01421585610a19e;de;;;3.4.;;;Buchbesprechung: Innovation, Management und Trends des Buchmarktes, von Paulo Faustino Die Einführung elektronischer Bücher und digitaler Bibliotheken, die Verbreitung von Technologien wie elektronisches Papier und Tinte und die Popularität von Lesegeräten wie dem Kindle von Amazon haben unsere Lesegewohnheiten und den Buchmarkt selbst verändert. Die Verlagswelt beginnt, sich in die revolutionären Bedingungen der Geschäftstätigkeit einzuordnen. Das Ausmaß und die Auswirkungen dieser Situation sind vergleichbar mit der Erfindung der Presse, und die Fachleute waren für diese Revolution nicht bereit. Innovation, Management und Trends des Buchmarktes versucht eine Reihe von Fragen zu beantworten, die die neue Realität der Branche stellt: Wohin steuert der Buchmarkt? Was ist die größte Bedrohung? Stellen neue Technologien eine Gefahr für die Lesekultur oder eine Chance (oder beides) dar? Welche Kompetenzen brauchen wir, um weiterhin zu schreiben, zu publizieren und vor allem zu lesen?;-;http://eprints.rclis.org/38767/;-;- ae2f931834c64805e9fc635e8bb4f0e5;de;;;3.4.;;;Content-Marketing-Prozessmodell: Eine Meta-Synthese der Literatur Ziel dieser Studie war es, ein Content-Marketing-Prozessmodell basierend auf einer systematischen Literaturrecherche zu entwerfen und zu validieren. Der Forschungsansatz der vorliegenden Studie war eine Kombination aus zwei Phasen. Zunächst werden mithilfe der Metasynthese-Methode alle Dimensionen des Content-Marketings identifiziert und das Forschungsmodell vorgestellt. Anschließend wurde zur Validierung des Modells die Fuzzy-Delphi-Methode in drei Runden durchgeführt. Die Grundgesamtheit der ersten Stufe bestand aus 652 Dokumenten in diesem Bereich, von denen 55 ausgewählt wurden. Die zweite Population umfasst 16 Experten im Bereich Content Marketing, die an allen drei Runden des Delphi teilgenommen haben. Das Content-Marketing-Prozessmodell wurde in den vier Phasen Planung, Produktion, Vertrieb und Kommunikation, Messung und Optimierung realisiert. In jeder Phase wurden die notwendigen Schritte und Komponenten zur Umsetzung der Marketinginhalte identifiziert und erläutert. Unter Berücksichtigung der Verwendung von zwei Methoden der Metasynthese und Fuzzy Delphi ist das vorgeschlagene Modell hinreichend valide und kann als Roadmap für den Aufbau und die Implementierung von Content Marketing Performance in unterschiedlichen Unternehmen und Branchen verwendet werden.;-;http://eprints.rclis.org/33371/;-;- b0b78d66f6320575725495fce01eb01e;de;;;3.4.;;;Offpage SEO und Linkbuilding: Allgemeine Strategien und Kompetenzübertragung in den digitalen Nachrichtenmedien // SEO offpage y construcción de enlaces: esrategias generales y transmisión de autoridad en cibermedios In den letzten Jahren haben einige Medien im Austausch gegen wirtschaftliche Erwägungen Links in ihre Inhalte aufgenommen. In diesem Papier werden solche Inhalte identifiziert und analysiert, deren einziger Zweck darin besteht, die Webautorität und das Suchmaschinen-Ranking von Werbetreibenden zu verbessern. Die verwendeten Methoden sind eine systematische Überprüfung von SEO Off Page, digitalen Zeitungen und nativer Werbung sowie eine Fallstudie, die auf der Identifizierung und Analyse von 150 Nachrichten basiert, die diese Art von Links enthalten, die aus einer Kauf-/Verkaufsoperation stammen. Die Studie belegt eine neue Umsatzlinie für die Medien, die nicht offen deklariert wird und auf dem Verkauf von Links basiert. Dies ermöglichte es uns, eine Diskussion der erzielten Ergebnisse zusammen mit Empfehlungen basierend auf dem Konzept des sogenannten Native Advertising vorzustellen.;-;http://eprints.rclis.org/34241/;-;- c779f128e83e63e5d23c4b168f4661cd;de;;;3.4.;;;Marketingbibliotheksressourcen, Produkte und Dienstleistungen in der Universitätsbibliothek: Eine Fallstudie der Uka Tarsadia University In diesem Papier werden die verschiedenen Ressourcen, Produkte und Dienstleistungen erläutert, die von der Central Library of B U Tarsadia Learning Resource Centre, Gujarat, Indien, bereitgestellt werden. Ausführlich über verfügbare E-Ressourcen, einschließlich Dissertationen, verschiedene angebotene Dienste wie Inter Library Loan (ILL), Book Bank, Current Awareness Services usw. Gibt auch einen Überblick über interne Publikationen, Bibliotheksnutzung und andere bewährte Verfahren und innovative Technologien, die als Teil der Vermarktung von Bibliotheksressourcen und -diensten implementiert werden, um die Sichtbarkeit zu erhöhen, um die Leser anzuziehen.;-;http://eprints.rclis.org/40937/;-;- 5a272052a46c2843cfb994259b08d249;de;;;3.4.;;;Events 2.0 in der transmedialen Branding-Strategie von Weltkulturerbestätten / Eventos 2.0 en la estrategia de transmedia branding de los Sitios Patrimonio Mundial Cultural Events 2.0 in der transmedialen Markenstrategie von Weltkulturerbestätten. Die über soziale Netzwerke und aus der Perspektive des transmedialen Storytellings konzipierten und verbreiteten Events werden als wertsteigernde Ressourcen in territoriale Marketingstrategien integriert. Diese Art von Veranstaltungen ist ein Schlüsselelement beim Aufbau der Marken der Welterbestätten (Unesco). Die neue Rolle des Touristen als proaktiver Nutzer und das damit verbundene Engagement gegenüber der Destination Management Organisation sind entscheidende Elemente für das Online-Reputationsmanagement von Territorien. Das Monitoring von Events ermöglicht es uns, die Teilnahme und Interaktion der touristischen Nutzer an Plattformen 2.0 auszuwerten. Ziel dieser Studie ist es, das Engagement (global, positiv und negativ) von Events 2.0 zu analysieren, die in die Marketingstrategie der 40 Weltkulturerbestätten in Spanien auf Facebook und Twitter integriert sind. Diese sozialen Netzwerke werden am häufigsten in Marketingstrategien von Destinationsmarketingorganisationen verwendet. Eine explorative Untersuchung von Veranstaltungen, die in die digitale Tourismusmarketingstrategie der Weltkulturerbestätten integriert sind, wird durch Inhaltsanalysen durchgeführt. Die Ergebnisse zeigen, dass es erhebliche Unterschiede im Management von Events 2.0 gibt. Die verschiedenen Interaktionsebenen (Reaktionen, Austausch und Kommentare) ermöglichen es den Destination Marketing Organizations (DMOs), die Engagementrate zu bewerten. Dieser letztgenannte Parameter kann als Referenz für die effiziente Gestaltung zukünftiger Veranstaltungen im Zusammenhang mit der 2.0-Förderung von Kulturdestinationen dienen.;-;http://eprints.rclis.org/39098/;-;- 1d10c5140298b7d9bb17934431189db4;de;;;3.4.;;;Einfluss von Green Marketing Instrumenten und Verhaltensprozessen von Konsumenten auf den Kauf und die Nutzung von E-Books Ziel der vorliegenden Studie ist es, die Wirkung von grünen Marketinginstrumenten zu untersuchen und das Verhalten von Konsumenten beim Kauf und der Nutzung von E-Books zu verstehen. Das Umweltzeichen ist eines der Instrumente des grünen Marketings, das auf den Hauptseiten von E-Books verwendet werden kann, um Umweltbewusstsein zu zeigen. Diese angewandte Studie ist im Hinblick auf die Erhebung von Daten eine umfragedeskriptive Studie. Die Grundgesamtheit der aktuellen Studie besteht aus 65 Doktoranden des Department of Knowledge and Information Science der Universität Teheran im Jahr 2019, von denen 55 durch einfaches Zufallsstichprobenverfahren unter Verwendung der Stichprobengrößenformel von Cochran mit dem Konfidenzniveau von 0,05 . ausgewählt wurden . Zur Datenerhebung wurde ein von Forschern erstellter Fragebogen mit 34 Fragen verwendet. Zur Analyse und Beschreibung der Daten wurde die Software Statistical Package for Social Sciences (SPSS) verwendet. Die Ergebnisse zeigten, dass unter den sechs gemessenen Parametern (dh 1. Umweltbewusstsein der Benutzer, 2. Umweltbewusstsein der Benutzer, 3. Umweltwerbung, 4. Einstellung der Benutzer zur Umwelt, 5. Kaufabsicht der Benutzer und 6. Umweltzeichen) besteht zwischen den vier erstgenannten Parametern jeweils ein sinnvoller und positiver Zusammenhang und zwischen dem fünften und sechsten Parameter kein sinnvoller Zusammenhang. Basierend auf den Ergebnissen der vorliegenden Studie wird Bibliotheken, Verlegern und Vertreibern von E-Books empfohlen, die Umweltanwaltschaft und grünes Marketing zu fördern, um ihren Zweck bei der Erhöhung des digitalen Leseniveaus des Landes zu erreichen und die Benutzer zu ermutigen, sich für die digitale Leseweise zu entscheiden zu geringen Kosten und helfen auch, die Umwelt zu schützen und das Fällen von Bäumen zu stoppen. Basierend auf den Ergebnissen der vorliegenden Forschung schlagen wir Bibliothekaren und Herausgebern von E-Books vor, auf das Umweltbewusstsein der Benutzer, das Engagement der Benutzer für die Umwelt, die Umweltwerbung bzw.;-;http://eprints.rclis.org/39969/;-;- 3e2feb75569de583d51ed3b50c1436b8;de;;;3.4.;;;Produkt-/Dienstleistungsdiversifizierung durch direkte, indirekte und zusätzliche Dienstleistungen: Bibliothekar-Perspektive an srilankischen Universitäten Im vorherrschenden Wettbewerbsumfeld scheinen Bibliotheken mit traditionellen Informationsdiensten nur schwer zu bestehen. Viele Unternehmensorganisationen scheinen mehrdimensionale Geschäfte zu betreiben und ihr Gewinnpotenzial durch Diversifizierung zu erweitern. Hochschulbibliotheken, die Erfahrungen von Organisationen des Wirtschaftssektors sammeln, müssen die Servicebereitstellung strategisch planen und die Benutzer durch Diversifizierung des Produkts/der Dienstleistung binden. Die Diversifizierung kann durch die Innovation direkt verbundener Bibliotheksdienste, indirekt verbundener Dienste und zusätzlicher Dienste, die wahrscheinlich nicht mit dem typischen Bibliotheksdienst zusammenhängen, aber von der Bibliothek (out of the box) bereitgestellt werden können, umgesetzt werden. Dieser Beitrag untersucht die Perspektive der srilankischen Universitätsbibliothekare auf die Implementierung solcher Dienste in ihren Bibliotheken. Die Studie untersucht auch mögliche Barrieren für die Diversifikation. Das Papier umfasste die konzeptionelle Analyse und Stichprobenerhebung bei Bibliothekspraktikern. Die Ergebnisse deuten darauf hin, dass Universitätsbibliotheken in Sri Lanka vielfältige Dienstleistungen anbieten und viele Versuche unternommen haben, diese durch „direkte Bibliotheksdienste“, „indirekte Bibliotheksdienste“ und „zusätzliche Dienste“ zu diversifizieren. Bei direkt und indirekt verbundenen Dienstleistungen wird ein relativ höheres Potenzial gezeigt, die Diversifikation durch zusätzliche Dienstleistungen jedoch als sehr gering angegeben. Die Bibliothekare stehen vor Herausforderungen bei der Diversifizierung, die sich auf administrative Faktoren, Wissensdefizite, das organisatorische Umfeld und Einstellungsprobleme der Bibliotheksleiter erstrecken.;-;http://eprints.rclis.org/40482/;-;- 1207f7c8b58b0a6458d9bc7228c17347;de;;;3.4.;;;Revision und propuesta de indicadores (KPI) der Biblioteca en los medios sociales. Überprüfung und Vorschlag von Indikatoren (KPI) für Bibliothek und soziale Medien Überprüfung und Vorschlag von Indikatoren (KPI) für Bibliothek und soziale Medien. Das Ziel dieses Papiers ist es, eine Reihe von Indikatoren zu entwickeln, die den Informationseinheiten helfen, die Nutzung und Wirkung ihrer Dienste über das soziale Web oder Web 2.0 zu bewerten. Dieser Artikel enthält Richtlinien für die Überwachung der Online-Marke der Bibliotheken mit dem Ziel, Kosten und Kapitalrendite (ROI) solcher Dienste zu erzielen. Bibliotheken haben einen langen Weg im Bewertungsprozess vor sich, aber in diesem Artikel schlagen wir vor, den ROI zu bewerten und Organisationen, die die Informationseinheiten oder Bibliotheken unterstützen, die Begründung anzubieten, um den Mehrwert zu demonstrieren, den sie mit Social Web bieten. Anhänge sind mit Indikatortabellen aufgeführt, die in mehreren Bibliotheken verwendet werden oder von Forschern vorgeschlagen werden.;-;http://eprints.rclis.org/18867/;-;- 566c84a9a11841722fdd74f70fc43eb0;de;;;3.4.;;;So bewerben Sie Ihren Artikel Einen Artikel für den Online-Vertrieb so zu schreiben, dass die Wahrscheinlichkeit von Zitationstreffern maximiert wird, unterscheidet sich in einigen kleinen, aber wichtigen Aspekten von der Vorbereitung eines Artikels für gedruckte Zeitschriften. Um zitiert zu werden, müssen Artikel in einer elektronischen Umgebung sichtbar sein. Daher wird die Veröffentlichung eines qualitativ hochwertigen Artikels in wissenschaftlichen Zeitschriften in Zukunft der halbe Weg sein, um zitiert zu werden. Der Rest des Weges besteht in der Werbung und Verbreitung der Publikationen unter Verwendung der richtigen „Research Tools“. Die Vertrautheit mit den Werkzeugen ermöglicht es dem Forscher, seinen h-Index in kurzer Zeit zu erhöhen. Dieser Artikel enthält eine Liste mit einfachen, aber effektiven Möglichkeiten, Ihre Publikationen zu bewerben;-;http://eprints.rclis.org/23373/;-;- 1f3b2975cfea62e9e959d5cb7d08e1fc;de;;;3.4.;;;Vermarktung der Bibliotheks-Informationsdienste Der Konsument von Bibliotheksdienstleistungen steht heute im Zentrum des Bibliotheksmarketings. Die Studie untersucht die Natur der Bibliotheksdienste und die Herausforderungen, denen verschiedene Aspekte und Elemente heutzutage begegnen – Informationsvermittlung, Schutz des geistigen Eigentums und personenbezogener Daten, je nach Marktbedingungen und Spielregeln. Die Mission der Bibliothek ist heute stark modifiziert und dynamisch, denn sie verbindet die Notwendigkeit einer hohen öffentlichen Reputation mit dem Anspruch, das kreative Talent und die Motivation aller Mitarbeiter zu mobilisieren. Das Bibliothekskonzept verbindet den Auftrag, die konzeptionelle Idee, Ziele, Prioritäten, Aufgaben, Wege, Mechanismen und Verantwortlichkeiten für die Öffentlichkeit langfristig.;-;http://eprints.rclis.org/22409/;-;- 062fdca2467c2936f526f7d436609de2;de;;;3.4.;;;BC Library Conference 2015_TalkCreativetoMe BC Library Conference 2015_TalkCreativetoMe Talk Creative to Me: Understanding your Libraries Creative Capital Ob es nun die zunehmende Zahl praktischer Beispiele dafür ist, wie Bibliotheken ihre Räume in gemeinschaftliche Zentren kultureller Aktivität wie Maker Spaces verwandeln, oder die akademische Forschung zur Bedeutung von Kulturräumen in Städten und Gemeinden. Der Beweis ist erbracht: Es lohnt sich für Bibliotheken, in Kreativität und Kultur zu investieren. Mit ihrem Wissen und ihrer Erfahrung in der kommunalen Kulturplanung und der Entwicklung der kulturellen Infrastruktur in Kanada wird Eileen Gillette einen Blick hinter die Kulissen werfen auf Strategien des kulturellen Engagements, Placemaking und die Rolle von Bibliotheken beim Aufbau nachhaltiger kreativer Gemeinschaften. Die Sitzung gliedert sich in drei Kernbereiche. Im ersten Bereich werden die kulturellen Elemente kreativer Gemeinschaften untersucht. Erkunden Sie echte Geschichten darüber, wie Gemeinden Räume für kulturelle Zwecke umfunktionieren, verlassene Schaufenster für besondere Veranstaltungen übernehmen, öffentliche Kunst an unkonventionellen Orten entwickeln und kreative Technologien in das Kunstprogramm integrieren. Im zweiten Teil der Sitzung wird untersucht, wie Bibliotheken im Kulturbereich beschrieben und diskutiert werden. Hervorheben von Bereichen, in denen Bibliotheken in kreativen Community-Diskussionen gut definiert sind und in denen sie überraschenderweise in der Diskussion fehlen. Wir setzen uns dafür ein, dass Bibliotheken am Kulturtisch Platz nehmen und unsere Geschichten/Erfahrungen mit anderen teilen. Der letzte Teil der Sitzung wird die Praktiken der kulturellen Entwicklung der Gemeinde und Schritte zur Integration einer kulturellen Linse in die Bibliothek besprechen. Bereitstellung eines kreativen Werkzeugkastens mit Ideen und Praktiken für die Teilnehmer, die in ihre Bibliotheken zurückgebracht werden können.e;-;http://eprints.rclis.org/25205/;-;- 3ecd9b34ea16653e2007d61ccef9814e;de;;;3.4.;;;Die Wirkung der Facebook-Einführung in einer akademischen Bibliothek Die Postings auf der Facebook-Seite der Bibliothek wurden gesammelt und analysiert. Die Daten zu wichtigen Metriken der Facebook-Post-Nutzung wurden den „Facebook Insight“-Metriken der Facebook-Seite der Indira Gandhi Delhi Technical University for Women Library entnommen. Daneben wurden Bibliotheksnutzungsdaten verwendet, um die Verhaltensänderungen der Bibliotheksnutzung zu verstehen. Die Ergebnisse unterstützen weiter die Ansicht, dass soziale Netzwerke (z. B. Facebook) das Potenzial haben, ein kosteneffektives Mittel zur effektiven Einbindung von Benutzern unabhängig von der Größe der wissenschaftlichen Bibliothek zu sein. Es zeigt sich auch, dass Zusammenarbeit und Kommunikation über Facebook weitaus effektiver waren als herkömmliche Ansätze. Da nur die Erfahrung einer einzelnen Institution berücksichtigt wird, kann nicht verallgemeinert werden, dass Facebook in jedem institutionellen Kontext wirksam ist. Das Ergebnis bietet jedoch wissenschaftlichen Bibliotheken eine Grundlage, um zu erwägen, mit Facebook und seiner Seite zu experimentieren, um seine Wirksamkeit zu verstehen. Dieses Papier liefert Beweise dafür, dass solche Initiativen mit minimalem Aufwand eine messbare Wirkung von Facebook als Outreach-Tool erzielen können;-;http://eprints.rclis.org/24797/;-;- c16b9c2f3c8fbfea65d9cdbd7d08bd73;de;;;3.4.;;;Die Informationsdimension des Marketings überdenken Dieser Artikel diskutiert die Informationsdimension des Marketings aus technischer, theoretischer und verhaltensbezogener Perspektive. Es kommentiert auch die Beziehung zwischen Marketing und der Bibliotheks- und Informationswissenschaft (LIS). Es handelt sich um eine explorative und deskriptive Studie, deren qualitative Ansätze durch die klassische dokumentarische Analyse erfolgen. Aus technischer Sicht befasst es sich mit dem Vorhandensein von Informationen in allen Marketingmanagementprozessen, von der Marktforschung bis zur endgültigen Erstellung des Marketingplans. Aus theoretischer Perspektive befasst es sich mit den Rahmenbedingungen für die Verarbeitung von Marketinginformationen, dem Einfluss der Informationswerttheorie und der Anwendung von Techniken aus unterschiedlichen Studienbereichen zur Analyse der Informationen. Aus der Verhaltensperspektive zeigt es empirische Belege für das menschliche Informationsverhalten von Marketingmanagern und anderen Akteuren, basierend auf kognitiven und sozialen Gesichtspunkten. In Bezug auf disziplinäre Beziehungen teilen Marketing und LIS Theorien in Bezug auf Informationsverhalten, Informationsmanagement sowie Systemanalyse und -design. Die Marketingansätze sind bei LIS-Studien stärker auffällig als LIS-Ansätze bei Marketingstudien, wenn man die analysierte Literatur berücksichtigt. Information als Bindeglied zwischen beiden Disziplinen macht Platz für neue Forschungs-, Wissenschafts- und Praxisszenarien.;-;http://eprints.rclis.org/31681/;-;- ed87d3a0e48601dd02fb3ce0c5eddf99;de;;;3.4.;;;Identifizieren Sie Faktoren, die die Zunahme der Benutzer der Bibliotheken von Astan Quds Razavi beeinflussen, basierend auf dem Marketing-Mix 4C Ziel: Ziel dieser Untersuchung war es, Einflussfaktoren auf die Zunahme der Nutzerzahlen in den Bibliotheken von Astan Quds Razavi basierend auf dem kundenorientierten Marketingmodell 4 C aus der Sicht von Bibliothekaren zu identifizieren. Methodik: Die Forschungsmethode ist deskriptiv-erhebung. Die Daten wurden durch eine Fragebogenerhebung bei 163 Bibliothekaren von 243 Mitarbeitern erhoben. Angesichts der geringen Bevölkerungsgröße wurden Stichproben durchgeführt und Fragebögen an die Bevölkerung verteilt. Der Fragebogen bestand aus 40 geschlossenen Fragen in vier Abschnitten. Die Forschungspopulation umfasste alle Bibliotheksleiter und Bibliothekare, die in der Bibliothek arbeiten. Entsprechend der Nicht-Normalität der Daten wurden zum Testen der Hypothesen Regression und Chi-Quadrat-Test für die Beziehung zwischen Variablen und dem Spearman-Korrelationskoeffizienten verwendet. Ergebnisse: Die Ergebnisse zeigten, dass Elemente im Marketing-Mix 4 C effektiv sind, um Benutzer für die Bibliotheken von Astan Quds Razavi zu gewinnen. Es wurde angenommen, dass seine Komponenten, dh Bequemlichkeit bzw. Kosten, eine wichtige Rolle bei der Gewinnung von Benutzern für die Bibliotheken von Astan Quds Razavi spielen. Fazit: Der Kunden-/Konsumentenwert hat keinen Einfluss auf die Gewinnung von Nutzern. Die Ergebnisse zeigten auch, dass die Elemente des Marketing-Mix 4 C's hilfreich sein können, um Benutzer für die Bibliotheken von Astan Quds Razavi zu gewinnen.;-;http://eprints.rclis.org/33732/;-;- 568fb82abe9783e39611f38f69d47191;de;;;3.4.;;;E-Marketing von Informationen und Dienstleistungen in Bibliotheken: Tools und Anwendungen E-Marketing ist ein Prozess der Planung, Ausführung und Förderung der Produkte und Dienstleistungen unter Verwendung von Informations- und Kommunikationstechnologien (IKT), um die Bedürfnisse der Benutzer zu erfüllen. Das Konzept, E-Marketing von Informationen und Dienstleistungen von Bibliotheken, ist ziemlich innovativ, da das traditionelle Konzept von Marketing zu „E“, d. h. E-Marketing, geändert wurde. Heute bevorzugt die Welt die digitale Umgebung, auch Bibliotheken sind keine Ausnahme und versuchen, ihre Ziele zu erreichen. Dieses Papier konzentriert sich darauf, wie Bibliotheken E-Marketing-Aspekte übernehmen und implementieren können, um die Informationsprodukte und -dienste durch den Einsatz verschiedener Informationskommunikationstechnologien und Web 2.0-Tools effektiver zu nutzen und zu verbessern.;-;http://eprints.rclis.org/40726/;-;- 120132ff02956ae5ed6b7962c4364d05;de;;;3.4.;;;E-Marketing: Die Bibliotheksperspektive Der Beitrag diskutiert das Konzept, den Bedarf und den Nutzen von E-Marketing im Zusammenhang mit der Bereitstellung effektiver Bibliotheksdienste. Der Autor hat die Klassifikationen von E-Marketing und die verschiedenen Elemente, Funktionen und Herausforderungen im Zusammenhang mit E-Marketing aus bibliothekarischer Sicht detailliert beschrieben. Der Autor meinte, dass E-Marketing ein erfolgreiches Geschäftsmodell für Bibliotheken zur Vermarktung ihrer Informationsprodukte und -dienste wird.;-;http://eprints.rclis.org/40749/;-;- 5734f0c1b1f2b9fd4e59f2d898c86bf8;de;;;3.4.;;;Wissenschaftliche Kommunikation durch institutionelle Repositorien Dieser Beitrag untersucht das Konzept des institutionellen Repositoriums und untersucht, wie institutionelle Repositorien Mehrwertdienste integrieren können, um die wissenschaftliche Kommunikation und digitale Forschung zu unterstützen;-;http://eprints.rclis.org/17526/;-;- cb9a4830de8c9e1a7dc847bb0d3fc30c;de;;;3.4.;;;Damit Twitter funktioniert: Ein Leitfaden für Uneingeweihte, Skeptiker und Pragmatiker Dieser Artikel beleuchtet die Vorteile von Bibliothekaren und Bibliotheken, eine professionelle oder institutionelle Präsenz auf Twitter aufzubauen. In dieser grundlegenden Einführung in den Webdienst werden auch innovative Wege besprochen, um Ihr Twitter-Konto zu einer erfolgreichen Ressource für berufliche Entwicklung, Referenzen und Öffentlichkeitsarbeit zu machen.;-;http://eprints.rclis.org/18837/;-;- ab9ae0c836993851da7b43f22c6777d9;de;;;3.4.;;;Informationsmarketing durch Bibliotheksverbindungsprogramme in Indien: Perspektiven und Bedenken Dieses Papier stützt sich auf die heutigen Informationsorganisationen – Bibliotheken, Archive und Museen und wie diese kulturellen Einrichtungen ausgestattet sein sollten, um Veränderungen zu managen und einzuleiten und mit der sich schnell verändernden Webumgebung Schritt zu halten, um ihre Mission, Relevanz und ihren Zweck zu verwirklichen. Die Informationsdienstleistungsbranche befindet sich in unserer Zeit in einer turbulenten Phase, in der die Informationen produziert, gehandelt, neu verpackt, kopiert, reproduziert, aufbereitet und weiterverkauft werden. Während Informationsprodukte und -dienstleistungen auf konventionellem Weg vermittelt werden, ist es das Liaison-Programm – das an die Stelle klassischer Marketingformen tritt, indem es zum Markenbotschafter des „Informationsmarketings“ wird über die Rolle eines aggressiven Verkäufers, um Informationen zu sammeln und die Bibliotheksdienste und die Informationskompetenz zu fördern. Es untersucht auch die Rolle von Bibliothekaren in der aufstrebenden digitalen Wirtschaft, um akademische und Forschungsaktivitäten in lernenden Organisationen durch Bibliotheksverbindungen zu planen und zu fördern, um bessere Ergebnisse als Wissenszentrum zu maximieren.;-;http://eprints.rclis.org/16847/;-;- 4fa58c187d440c6d977320976f18bbca;de;;;3.4.;;;Aktionsforschung in der Universitätsbibliothek: das „Front Office Project“ Die Präsentation des Front-Office-Projekts der Universitätsbibliothek erläutert kurz die Methode der Aktionsforschung (Geschichte, Anwendungen, Funktionen und Prozesse) und berichtet dann über fünf Phasen des Aktionsforschungsprojekts zu Bibliotheksdiensten: 1) Diagnose durch Benchmarking unter italienischen Universitätsbibliotheksdiensten , Literaturanalyse zu Bibliotheksdienstleistungen und Umfragen, quantitative Umfrage (Fragebögen) und qualitative Umfrage (Interviews) für Benutzer (Schüler, Lehrer usw.), 2) Planung von Maßnahmen zur Verbesserung der Bibliotheksdienstleistungen im Lichte der Ergebnisse der Arbeit der Diagnose, 3) Umsetzung von Verbesserungsmaßnahmen in verschiedenen Bereichen (Marketing, Informationskompetenz, Nachschlagewerk, Ausleihe, Fernleihe und Dokumentenlieferung, Lesesäle), 4) Bewertung der realisierten Verbesserung, 5) Reflexionen der beteiligten Mitarbeiter und der inneren und die äußere Aufteilung des Projekts.;-;http://eprints.rclis.org/17492/;-;- 762e047d10ea6d9c29f296c9463cf62d;de;;;3.4.;;;Vermarktung von Bibliotheks- und Informationsdiensten auf dem grünen Weg des Web 2.0: die Bibliotheksperspektive Der technologische Fortschritt hat einen großen Wandel im wissenswirtschaftlichen Sektor eingeleitet. Die Art und Weise, wie Menschen kommunizieren, sowie der Prozess der Informationssammlung, -organisation und -verbreitung sind entscheidend. Die richtigen Informationen müssen den richtigen Kunden (Benutzern) zur richtigen Zeit auf maßgeschneiderte, personalisierte und kollaborative Weise bereitgestellt werden, was für den Informationsprofi unerlässlich ist. Die Rolle der Bibliothek ist entscheidend für die Entwicklung des Intellekts und auch für den Erfolg der Personen und Institutionen, denen sie dienen, um auf diese Veränderungen zu reagieren. Die Web 2.0-Bewegung entstand als Reaktion auf die modernen Mittel zur Aufrüstung der Bibliotheken zu nutzerzentrierten Systemen im aktuellen Bibliotheksmarketing-Szenario. Das Papier beschreibt die Vermarktung von Bibliotheksdiensten aus der Benutzerperspektive durch die Anwendung von Social-Networking-Tools auf dem grünen Weg des Bibliotheksmarketings und Informationsdienste. Das Papier grenzt auch den Plan der Marketingstrategie 2.0 für die effektive Implementierung von Social-Networking-Tools in Bibliotheken und Informationsdiensten ab.;-;http://eprints.rclis.org/16846/;-;- 2fce486d9b274aae7f869f3a4f19834f;de;;;3.4.;;;Vermarktung von Bibliotheksinformationsprodukten und -diensten durch Nutzung sozialer Medien/Netzwerke: Facebook und Twitter In diesem Papier wird dargestellt, wie Bibliotheken ihre Produkte und Dienstleistungen über soziale Medien/Netzwerke wie Facebook und Twitter vermarkten. Der Beitrag betont, wie Bibliothekare Online-Social-Media-Netzwerke wie Facebook und Twitter in ihre Bibliotheksmarketingstrategien einbeziehen können. Die Autoren schlagen vor, wie wir die sozialen Medien optimal nutzen können, um Bibliotheksdienste und -ressourcen zu fördern. Es stellt auch Barrieren und die Qualität von Facebook und Twitter vor. Durch die Verwendung von Facebook und Twitter können Bibliothekare effektiver mit entfernten Studenten Kontakt aufnehmen und langfristige Beziehungen aufbauen, die sowohl für Studenten als auch für Bibliothekare von Vorteil sind;-;http://eprints.rclis.org/29155/;-;- dd54860c51df952c35d4efcb58191715;de;;;3.4.;;;Effektive Nutzung von Social Media/Netzwerktools für die Vermarktung von Bibliotheks- und Informationsprodukten und -diensten: Facebook, Twitter und Wikipedia Heute ist Social Media ein Teil unseres Lebenszyklus und hat sich zu einem sehr effektiven Instrument für Kommunikation und Marketing entwickelt. Die Autoren versuchen zu untersuchen, wie Bibliothekare und Informationsfachleute diese sozialen Medien/Netzwerke für die Vermarktung von Bibliotheksdiensten und Informationsprodukten nutzen. Facebook, Twitter und Wikipedia sind bei allen sehr beliebte soziale Medien und können Fernstudenten erreichen und langfristige Beziehungen aufbauen, die sowohl für Studenten als auch für Bibliothekare von Vorteil sind. In diesem Papier werden auch die Vorteile und Hindernisse der Nutzung sozialer Medien für das Bibliotheksmarketing erläutert.;-;http://eprints.rclis.org/29154/;-;- 9bf45b647ec69efcf916d81d68a361d8;de;;;3.4.;;;Kundenmerkmale als Kriterien für die Marktsegmentierung in Bibliotheken Das Papier hebt die Grenzen des Marketingansatzes für Bibliotheks- und Informationsdienste hervor, überprüft Literatur zur Korrelation des Informationsbedarfs von Wissenschaftlern und Ingenieuren mit ihren Eigenschaften, analysiert die gesammelten Daten für eine umfassendere Studie des Informationsverhaltens der indischen Weltraumtechnologen und korreliert Natur und Art der von den Raumfahrttechnikern benötigten Informationen mit hierarchischem Status, Bildungsabschluss, Art der Tätigkeit, Spezialisierung, Dauer der Berufserfahrung und beruflichen Tätigkeiten und Leistungen, Vergleich der Ergebnisse mit den Ergebnissen früherer Studien. Schließlich kommt der Beitrag zu dem Schluss, dass die Marktsegmentierung der indischen Raumfahrttechniker als Nutzer ihrer „Primärbibliothek“ aufgrund ihrer Merkmale wie Status, Qualifikationen, Spezialisierungen, Art der Arbeit, beruflichen Tätigkeiten und Leistungen möglich ist und die Bibliothek sich dessen bewusst sein sollte mögliche Segmentierung des Zielmarktes für die Bereitstellung von Informationsdiensten.;-;http://eprints.rclis.org/11073/;-;- ae4578313b88cf6b8557cd8bb37cbd11;de;;;3.4.;;;NATIONALBIBLIOTHEK VON INDONESIEN MARKENSTRATEGIEN DURCH ALTES MANUSKRIPT UND SAMMLUNG SELTENE BÜCHER Die Entwicklung von Marketingstrategien hat alle Theorien und Methoden im Marketing verändert, auch in Bibliotheken bei der Vermarktung ihrer Produkte und Institutionen. Eine Marketingstrategie, die sich heute entwickelt, ist Branding. Branding ist eine Sammlung von Theorie und Praxis, die darauf abzielt, den Ruf einer Institution zu messen, aufzubauen und zu verwalten. Die Nationalbibliothek der Republik Indonesien verfügt über eine Sammlung von 10.912 Manuskripten und mehr als 100.000 Exemplaren seltener Bücher. Dies sind eine große Stärke für die Nationalbibliothek der Republik Indonesien, um sie zu ihrem Markenbotschafter bei der Vermarktung der Institution zu machen. Das Ergebnis dieser Bemühungen ist, dass die UNESCO drei alte Manuskripte der Nationalbibliothek der Republik Indonesien mit dem Titel Negara Kertagama als Gedächtnis des Wortes im Jahr 2008 und La Galigo auch Babad Dipanagara als Gedächtnis des Wortes im Jahr 2011 erklärt hat Republik Indonesien, um ein Branding mit den alten Manuskripten und seltenen Büchern zu setzen, wie z. B. die Überarbeitung der Beschaffungspolitik des Manuskripts, die Durchführung von Alphabetisierungsprogrammen und die Transkription von Manuskripten sowie die Förderung des Inhalts seltener Bücher und Manuskripte, jedoch gibt es einige Einschränkungen und Hindernisse, auf die die Nationalbibliothek der Republik Indonesien stößt, um die alten Manuskripte und seltenen Bücher zu fördern, einschließlich der Haushaltspolitik, die Schwierigkeit, alte Manuskripte und seltene Sammlerstücke zu beschaffen, die in Indonesien und Übersee verstreut sind, sowie die Schwierigkeit, Muttersprachler von Sprachen zu finden, die aus den alten Manuskripten verwendet werden und seltene Bücher in Indonesien.;-;http://eprints.rclis.org/16969/;-;- fe453060903137b6a7e98836ece1de38;de;;;3.4.;;;Sind Nachfrageprognosetechniken auf Bibliotheken anwendbar? Untersucht das Wesen und die Grenzen der Bedarfsprognose, diskutiert plausible Methoden zur Prognose des Informationsbedarfs, gibt einige nützliche Hinweise für die Bedarfsprognose und schließt mit der Betonung eines einheitlichen Ansatzes für die Bedarfsprognose.;-;http://eprints.rclis.org/10584/;-;- 5a5df964215fa44fc1821bf641d846a7;de;;;3.4.;;;Eine Bewertung der Nutzung von Social Network Media für Online-Gruppenkäufe in Südafrika Die sozioökonomische Modernisierung Südafrikas hat zur Einführung einer Vielzahl von IKT-basierten Konsumgütermarketingpraktiken geführt. Eine der modernen IKT-basierten Konsumgütermarketingpraktiken, die bei südafrikanischen Konsumgüter- und Dienstleistungsunternehmen und Verbrauchern immer beliebter wird, ist der Online-Gruppenkauf. Diese Untersuchung wurde daher durchgeführt, um eine empirische Bewertung des Online-Gruppenkaufs im südafrikanischen Konsumgütermarkt anhand von Beispielen aus der Provinz Westkap vorzunehmen. Das Hauptziel der Studie besteht darin, die sozialen Phänomene zu untersuchen, die der Nutzung der sozialen Netzwerkplattformen Facebook und Twitter durch Händler, Anbieter und Verbraucher, die an Online-Gruppenkäufen in Südafrika teilnehmen, zugrunde liegen, und den Nutzen und die Herausforderungen zu untersuchen, denen sie gegenüberstehen. Die Forschung ist qualitativ und hat daher einen angenommenen Explorations-Soft-Systems-(SS)-Ansatz verwendet, der auf den Prinzipien der SS-Methodik basiert, die 1999 von Peter Checkland entwickelt wurde. Die Studie ergab, dass die Nutzung von Facebook und Twitter durch Händler begrenzt ist. Es hat auch die Reichweite, mit der Group Buying Vendoren auf Facebook und Twitter in Bezug auf die Anzahl ihrer Facebook- und Twitter-Mitglieder (Händler) haben, die Auswahl der Vendoren der Händler beeinflusst, um ihre Online-Group Buying-Kampagnen zu verwalten. Die Studie ergab auch, dass Anbieter Facebook und Twitter nicht auf eine Weise nutzen können, die Händler dazu ermutigt, sich ihren Online-Netzwerken anzuschließen und sie dazu zu bewegen, ihre Online-Gruppenkaufinitiativen zu verwalten. Insbesondere zeigte die Studie, dass Online-Gruppenverkäufer die Kommunikationsfähigkeit ihrer eigenen Websites und die von Facebook und Twitter nicht so handhaben, dass ihr Kommunikationsreichtum für den Online-Gruppenkauf genutzt werden kann. Dies behindert den sozialen Aspekt des Online-Gruppenkaufs und hindert Anbieter daran, erforderliche und verfügbare Informationen über Gruppenkaufgeschäfte angemessen an Mitglieder in ihren Online-Netzwerken weiterzugeben. Die Untersuchung zeigt auch, dass die Art und Weise, wie Facebook und Twitter für Online-Gruppenkaufkampagnen in Südafrika genutzt werden, noch verbesserungswürdig ist. Als Ergebnis wurde ein Fazit gezogen und eine Empfehlung ausgesprochen.;-;http://eprints.rclis.org/33246/;-;- ceda654f9a719bab44132a92322f4b82;de;;;3.4.;;;Anwendung von Marketing-Mix-Elementen (4Ps) im Bibliotheksbereich Bibliotheken und Informationszentren Sri Lankas konnten trotz verschiedener finanzieller Zwänge zufriedenstellende Ressourcensammlungen aufbauen, um ihren Benutzern Informationen zur Verfügung zu stellen. Der Informationsbedarf aus dem Bildungs-, Berufs-, Berufs-, sozioökonomischen, kulturellen und Freizeitsegment des Marktes ist hoch, während die Nutzung der Bibliotheksbestände schlecht ist und sich verschlechtert. Informationsspezialisten und einige Bibliothekare sind der Ansicht, dass die Unterauslastung auf schlechte Marketingansätze und mangelndes Know-how in der Bibliothek zurückzuführen ist. Eine Unterauslastung kann das Budget und die Personalzuweisung der Bibliothek stark beeinträchtigen. Bibliothekare sollten in der Lage sein, ihre Ausgaben und den Nutzen der Arbeitskraft und der von der Bibliothek erbrachten Dienstleistungen zu begründen. Dieser Prozess hängt vom Grad der Benutzerzufriedenheit der Bibliothek ab. Das Marketingkonzept hilft der Bibliothek bei dieser Begründung. Hier muss die Bibliothek angemessene Marketingtechniken und -taktiken anwenden, die in der Lage sind, die Bedürfnisse der Benutzer und deren Zufriedenheit vorherzusagen. Spezielle Marketing-Mix-Elemente wie Produkt, Preis, Ort und Promotion können in die Bibliothek übernommen werden.;-;http://eprints.rclis.org/6742/;-;- d73c9fe5ff8708f43f984c3f58afbcba;de;;;3.4.;;;Warum das Outsourcing von Hungama (Aufruhr) Outsourcing ist in den USA und anderen reichen Ländern, aus denen Arbeitsplätze ausgelagert werden, zu einem umstrittenen politischen Thema geworden. Ein Großteil der Kontroversen über das Outsourcing in den USA hängt direkt mit dem Arbeitsplatzszenario zusammen. Bedeutet das Gesetz vom 23. Januar, dass Amerika einen Schritt weg vom freien Markt ist? Verliert Amerika seinen Ruf als offene Gesellschaft? Bis vor kurzem wurden die USA von der Heuchelei überwältigt (der Begriff, der von Frances Moore Lappe' in Hope's Edge, 2002 verwendet wurde), wodurch sie alle positiven Bilder der Globalisierung heraufbeschworen und nicht verstehen konnten, was wirklich vor sich ging oder dass es etwas gab falsch mit dem Globalismus oder dem freien Handel. Jetzt werden sie von dem Monster gequält, das sie selbst so leidenschaftlich bevormundet haben. Dieses Monster kennt nur „das einzige Prinzip der höchsten Rendite zu bestehendem Reichtum“, das ist alles.;-;http://eprints.rclis.org/8279/;-;- 29d596316a0d0ab5be53a33dccdabc81;de;;;3.4.;;;Ein Projekt der IFLA-Abteilung für Management und Marketing: Die MatPromo-Datenbank Die MatPromo-Datenbank wurde im Oktober 2002 als Projekt der IFLA-Abteilung Management &, Marketing erstellt. Das Ziel des Projekts besteht darin, eine Datenbank mit Bildern von Objekten und Dokumenten zu erstellen, die zur Förderung aller Arten von Bibliotheken in jedem Land bestimmt ist. Die Bilder werden beschrieben und sind über eine benutzerfreundliche Oberfläche für die internationale Suche zugänglich. Ziel der Datenbank ist es, Ideen für Werbekampagnen von Bibliotheksdiensten zu erleichtern. Die Datenbank wird auf dem Projektserver des Instituts für Bibliotheks- und Informationswissenschaft der Universität Barcelona (http://bidoc.ub.es/pub/matpromo/) gehostet und ein Link dazu wird im Web des IFLA-Managements & . bereitgestellt , Marketing-Sektion (http://www.ifla.org/VII/s34/). Dieser Artikel versucht, MatPromo vorzustellen und seine technischen Eigenschaften, Inhalte und Nützlichkeit für Bibliothekare auf der ganzen Welt zu erklären.;-;http://eprints.rclis.org/6274/;-;- 4fcf11fa1dc992f8f6a2fac4c06cf34b;de;;;3.4.;;;Marketing, um mehr Kilometer von Ihrer Ressource zu erhalten: Kaynağınızdan Daha İyi Randıman Almak için Pazarlama Der Artikel gibt uns einen Einblick in das Marketing in der Bibliothek. Es zeigt, warum Marketing notwendig ist und wie die Konkurrenz auch in unserem Umfeld wächst. Dieses Papier argumentiert aus Marketingsicht, warum es in alle Bibliotheksroutinen einbezogen werden sollte. Der Artikel zeigt den Unterschied zwischen internem und externem Marketing. Der Artikel diskutiert einige Marketinginstrumente, die sich besonders für Bibliotheken eignen. Er betont auch, dass jeder in der Bibliothek direkt oder indirekt am Marketing beteiligt sein sollte.;-;http://eprints.rclis.org/8674/;-;- 0fb0e6d39d718404f963c63769ed6e7f;de;;;3.4.;;;LibQUAL+TM LibQUAL+(tm) ist eine Reihe von Diensten, die Bibliotheken verwenden, um die Meinungen der Benutzer zur Dienstqualität einzuholen, zu verfolgen, zu verstehen und darauf zu reagieren. Diese Dienste werden der Bibliotheksgemeinschaft von der Association of Research Libraries (ARL) angeboten. Das Herzstück des Programms ist eine gründlich getestete webbasierte Umfrage, die mit Schulungen gebündelt ist, die Bibliotheken helfen, Bibliotheksdienste zu bewerten und zu verbessern, die Unternehmenskultur zu ändern und die Bibliothek zu vermarkten. Die Ziele von LibQUAL+(TM) sind: Förderung einer Kultur der Exzellenz bei der Bereitstellung von Bibliotheksdiensten Bibliotheken helfen, die Wahrnehmung der Qualität von Bibliotheksdiensten besser zu verstehen im Bibliotheksdienst Verbesserung der analytischen Fähigkeiten der Bibliotheksmitarbeiter bei der Interpretation und Verarbeitung von Daten Das LibQUAL+(tm)-Projekt wurde von 2001-2003 teilweise durch ein Stipendium des US-amerikanischen Bildungsministeriums (FIPSE) unterstützt. LibQUAL+(tm), eine Partnerschaft zwischen ARL und der Texas A&,M University, ist eine der ARL-Initiativen für neue Maßnahmen, die im Rahmen des ARL-Statistik- und Messprogramms verwaltet werden. An der LiqQUAL+(tm)-Umfrage haben mehr als 500 Institutionen teilgenommen, darunter eine wachsende Zahl von Bibliotheken in Europa. Ursprünglich für Forschungsbibliotheken konzipiert, wurde die Anwendung auf alle Arten von Hochschulen ausgeweitet. Es wurde an Konsortien in Nordamerika verabreicht und auch in öffentlichen Bibliotheken evaluiert. Die LibQUAL+(tm)-Umfrage entstand aus einem konzeptionellen Modell basierend auf dem SERVQUAL-Instrument, einem beliebten Instrument zur Bewertung der Servicequalität im privaten Sektor. Die Texas A&,M University Libraries und andere Bibliotheken verwendeten mehrere Jahre lang modifizierte SERVQUAL-Instrumente. ARL, das die größten Forschungsbibliotheken in Nordamerika repräsentiert, hat sich mit Texas A&,M University Libraries zusammengetan, um LibQUAL+(tm) zu entwickeln, zu testen und zu verfeinern. Diese Bemühungen wurden teilweise durch ein dreijähriges Stipendium des Fonds des US-Bildungsministeriums zur Verbesserung der postsekundären Bildung (FIPSE) unterstützt.;-;http://eprints.rclis.org/7290/;-;- 4773b6abe68f20ea082d1ce417725c14;de;;;3.4.;;;Bloggen zur Sensibilisierung: die DrugScope-Erfahrung In diesem Artikel wird beschrieben, wie der DrugScope-Blog verwendet wurde, um die Sammlung von evidenzbasiertem Material zu Alkohol und anderen Drogen (AOD) der Organisation hervorzuheben. Dabei wird der schmale Grat zwischen Informationsbereitstellung zur Sensibilisierung und Marketing diskutiert.;-;http://eprints.rclis.org/8734/;-;- 71d98493031501283d1b4e6c9177014a;de;;;3.4.;;;ProSeBiCA (Entwicklung neuer Bibliotheksangebote mittels Conjoint-Analyse) Die aktuelle Diskussion um die strategische Weiterentwicklung wissenschaftlicher Bibliotheken zeigt im Kontext sich wandelnder Bildungslandschaften deutlich die Notwendigkeit eines grundlegenden Wandels ihres Selbstverständnisses hin zu einer Hinwendung von reinen wissenschaftlichen Einrichtungen hin zu Dienstleistern, die aktiv nutzergerechte Angebote gestalten und anbieten und Vorlieben. Die zunehmende Akzeptanz von Bibliotheksdienstleistungen durch die Kunden wird zu einem neuen Qualitätsstandard, der erhebliche Auswirkungen auf die Stellung der Bibliotheken innerhalb der Hochschulen haben wird. Doch wie erreicht man diese Akzeptanz? Wie bekommt man eine klare Vorstellung von den Benutzerpräferenzen, um zukünftige Bibliotheksdienste zu gestalten? Das von der Deutschen Forschungsgemeinschaft (DFG) geförderte Projekt ProSeBiCA, durchgeführt vom Lehrstuhl für Marketing der Universität Bielefeld und der Universitätsbibliothek Bielefeld, versucht diese Frage zu beantworten, indem es die Conjoint-Analyse als Methode der Marktforschung an den Bibliothekskontext anpasst . Im Unterschied zu Umfragen, die sich auf die Bewertung bestehender Dienste beziehen, impliziert die Conjoint-Analyse ein auf Präferenzmessung basierendes Instrument, das es ermöglicht, fundierte Kenntnisse über die Nachfrage der Nutzer nach bereits verfügbaren und potentiellen Diensten zu erhalten. Ziel von ProSeBiCA ist daher die Entwicklung eines umfassenden Analyse- und Simulationsframeworks für wissenschaftliche Bibliotheken, das eine fundierte strategische Planung der zukünftigen Servicegestaltung ermöglicht. Die Übertragbarkeit wird in Kooperation mit der Universität Cottbus geprüft. Ein intensiver Informationsaustausch mit den Sheridan Libraries der Johns Hopkins University, USA, rundet das Projekt ab und führte zu weiteren Kooperationen unter Berücksichtigung von CAPM und LibQUAL+TM.;-;http://eprints.rclis.org/7288/;-;- 2263fd54a70507618acd1c1b63c80228;de;;;3.4.;;;CAPM (Umfassender Zugang zu gedruckten Materialien) Als Teil des CAPM-Projekts der JHU (http://ldp.library.jhu.edu/projects/capm) leitete Choudhury die Entwicklung einer Bewertungsmethodik, die multiattributierte State-Preference-Techniken verwendet. Multi-Attribute-Statement-Preference-Methoden bieten Auswahlexperimente, um Daten für die Modellierung von Benutzerpräferenzen zu sammeln. In den oft als Umfragen ausgedrückten Auswahlexperimenten geben die Probanden an, welche Alternativen (Dienste oder Funktionen) sie am meisten bevorzugen, die Alternativen werden durch ihre Multiattribute unterschieden. Dieser Ansatz wurde verwendet, um Kompromisse bei unterschiedlichen Attributen für einen bestimmten Service des Zugangs zu Materialien in einer externen Regalanlage zu berücksichtigen. Die Kunden wurden gebeten, unterschiedliche Lieferzeiten, den Zugriff auf Bilder und die Möglichkeit zur Volltextsuche zu wählen, zusammen mit unterschiedlichen (hypothetischen) Gebühren für jedes der Attribute. Während der JISC/CNI-Konferenz 2002 erwähnte Choudhury die Möglichkeit, die Bewertungsmethoden LibQUAL+TM und CAPM zu integrieren. LibQUAL+TM hilft dabei, Lücken in einer Vielzahl von Bibliotheksdiensten zu identifizieren, aber die Frage der Prioritäten unter den Lücken wird nicht sofort angesprochen. Die CAPM-Methodik untersucht explizit die Präferenzen oder Entscheidungen von Benutzern für die Implementierung eines bestimmten Bibliotheksdienstes. Angesichts der unterschiedlichen, sich jedoch ergänzenden Schwerpunkte und unterschiedlichen theoretischen Grundlagen schien Potenzial für einen integrierten und umfassenderen Ansatz zu bestehen. Grundsätzlich können die „Outputs“ einer LibQUAL+TM-Analyse die „Inputs“ für eine Multi-Attribute-Stated-Preference-Analyse liefern, die die Notwendigkeit von Kompromissen bei Entscheidungen über die Ressourcenallokation anerkennt. Trotz dieser vielversprechenden Idee gab es wohl einen zu großen Unterschied in der Granularität zwischen den beiden Methoden. Die Bielefelder ProSeBiCA bietet die passende Brücke.;-;http://eprints.rclis.org/7289/;-;- 6123a0bb7186a895483af881b04daaa4;de;;;3.4.;;;Anwendung des Konzepts des Dienstleistungsmarketings in der digitalen Bibliothek In diesem Beitrag wird die Anwendung des herkömmlichen Konzepts des Dienstleistungsmarketings in der digitalen Bibliothek in der Neuzeit erörtert. Das Ziel dieser Studie ist es, zu versuchen, Marketing als Konzept mit der Bereitstellung digitaler Bibliotheksdienstleistungen zu korrelieren. Die einzigartigen Eigenschaften von Informationsprodukten können einen neuen Marketingansatz erfordern, der als Informationsmarketing bezeichnet wird. Angesichts der gesellschaftlichen, wirtschaftlichen und technologischen Veränderungen haben die Bibliotheks- und Informationszentren begonnen zu erkennen, dass die Vermarktung von Informationsprodukten und -diensten ein integraler Bestandteil der Verwaltung ist. Aufgrund der Informationsexplosion sind die technologische Revolution und die steigenden Bibliothekskosten dafür verantwortlich, dass der Bibliotheksberuf einen professionellen Marketingansatz für seinen Betrieb und seine Dienstleistungen entwickelt. In diesem Papier wird das Konzept des konventionellen Dienstleistungsmarketingsystems diskutiert, wie es von digitalen Bibliotheksdiensten betroffen ist. Das Konzept würde dazu beitragen, den richtigen Benutzern am richtigen Ort den richtigen Service zur richtigen Zeit und den richtigen Preis mit Unterstützung von Qualitätspersonal bereitzustellen. Dieses Papier bietet nützliche Informationen zur Vermarktung digitaler Bibliotheks- und Informationsdienste.;-;http://eprints.rclis.org/11053/;-;- e4a6a3ffd9e907cde0f6796c6e98e4d8;de;;;3.4.;;;eMarketing für Bibliotheken Heute sind Advertorials, Microsites, soziale Netzwerke, Blogging und virale Videos nur einige Erscheinungsformen der Werbung für Bibliotheken. E-Marketing bietet Bibliotheken die Möglichkeit, mit ihren Zielgruppen in Kontakt zu treten. Verschiedene Publikationen zeigen, dass Bibliotheksnutzer im Wesentlichen digitale Bürger sind und mit E-Marketing es möglich ist, mit den Nutzern in ihrem eigenen natürlichen Lebensraum in Kontakt zu treten. Es ermöglicht auch die Verbreitung einer Nachricht mit geringeren Kosten als andere Strategien.;-;http://eprints.rclis.org/28780/;-;- 43561843c59968b90ee44fa53f369b1c;de;;;3.4.;;;Marketingkommunikation in Bibliotheken: Beobachtungen deutscher Forschungsbibliotheken Bibliotheken und Bibliothekare mussten sich in den letzten Jahren an das Wachstum der Informationstechnologie anpassen, daher haben Organisationen, die Informationsdienste anbieten, damit begonnen, ihre Dienstformen und -arten zu variieren und zu vervielfachen. Diese Änderung zwang Informations- und Dokumentationsexperten dazu, an der Erfüllung ihrer Benutzeranforderungen und -anforderungen zu arbeiten. Aus diesem Grund haben Bibliotheken in letzter Zeit begonnen, Marketingtechniken in ihren Anwendungen einzusetzen. Mit dem Marketing wurde es möglich, die benötigten Dienstleistungen im optimalen Level zu ermitteln und anzubieten. In dieser Studie wird nur die Marketingkommunikation/Werbung aus den Marketing-Mix-Anwendungen analysiert und die Marketingkommunikationspraktiken der Deutschen Forschungsbibliotheken, der Deutschen Bibliothek in Leipzig, der Staatsbibliothek, der Bibliothek der Tech;-;http://eprints.rclis.org/28951/;-;- 1d2661bceaf43f857f03c1917c0662a6;de;;;3.4.;;;Personalmanagement in der digitalen Bibliothek Digitalisierungsdienste werden im Bibliotheksmanagementstil erheblich verändert. Strategisches Personalmanagement durch die Ausrichtung auf die Ziele der Organisation kann der Bibliothek Anerkennung verschaffen. In diesem Beitrag werden die Auswirkungen auf die Humanressourcen und die Entwicklung in digitalen Bibliotheken untersucht.;-;http://eprints.rclis.org/40807/;-;- b36e44763e8f86fa71f59cadd9a17749;de;;;3.4.;;;Forschung zur Personalstruktur einer indischen Universitätsbibliothek: Eine detaillierte Fallstudie Die Studie analysiert die Personalstruktur der Central Library of Jadavpur University mit einem Fokus auf ihre Dienstleistungen. Außerdem wurden die Personalrekrutierung, die Personalhierarchie und die Personalverteilung auf die verschiedenen Abteilungen der Bibliothek untersucht.;-;http://eprints.rclis.org/41885/;-;- 2c39544a661df33fa7c7635be188c108;de;;;3.4.;;;Arbeitszufriedenheit unter Senior College Librarians: Eine Fallstudie Die Studie beleuchtet die Elemente wie Arbeitsplatzsicherheit, Gehalt, Arbeitsumfeld, Einrichtungen, Unterstützung durch die Behörden und die Rolle des Bibliotheksausschusses, die sich auf die Arbeitszufriedenheit von Bibliotheks- und Informationswissenschaftlern auswirken. Die Daten werden von den Bibliothekaren von Ratnagiri und dem Bezirk Sindhudurg im Bundesstaat Maharashtra, Indien, gesammelt. Die Autoren schlagen vor, dass die Bibliothekare die Initiative ergreifen und eine Vision und Leitbilder für die Bibliothek festlegen, einen Fünfjahresplan erstellen, die erforderlichen Richtlinien entwickeln, einen Aktionsplan mit dem Direktor und den Ausschussmitgliedern formell und informell für ein effektives und reibungsloses Funktionieren diskutieren des Bibliotheksbeirats;-;http://eprints.rclis.org/40647/;-;- 82cdbd5269e7054a0047a15bf9b667a9;de;;;3.4.;;;Matchmaking: eine Studie über Mentoring in neuseeländischen Bibliotheken und Informationszentren Grundlage für diese Arbeit ist ein Forschungsprojekt zum Mentoring in Neuseeland, das im Rahmen der Anforderungen des Master of Library and Information Studies (MLIS)-Programms an der Victoria University of Wellington durchgeführt wurde. Dies ist eines der ersten Projekte dieser Art, da dieses Thema in der neuseeländischen Bibliotheks- und Informationswissenschaft weitgehend unterforscht ist. Die Recherche erfolgte mit Mixed-Methods-Methoden, bestehend aus weitgehend quantitativen Fragebögen, begleitet von qualitativen Tiefeninterviews mit aktuellen Mentoring-Teilnehmern, seien es Mentees, Mentoren oder Matchmaker. Die Teilnehmer kamen aus ganz Neuseeland mit einem Querschnitt aus dem Bibliotheks- und Informationssektor. Das Projekt zielte darauf ab, Indikatoren zur aktuellen Mentoring-Situation in Neuseeland bereitzustellen und einige der Vorteile und Hindernisse des Mentorings aus der Erfahrung der Mentoring-Teilnehmer zu untersuchen. Die Ergebnisse umfassen Daten über den Zweck von Mentoring-Programmen, die Dauer der Mentoring-Beziehungen und die Merkmale von Bibliotheken und Informationszentren, die derzeit Mentoring-Programme durchführen. In diesem Projekt wurden auch Faktoren im Zusammenhang mit dem Matching-Prozess untersucht, wie z. das heißt, sind sie bei denselben oder externen Organisationen angestellt. Darüber hinaus wurden Faktoren im Zusammenhang mit der organisatorischen Beteiligung an Mentoring-Programmen untersucht. Dazu gehörten Organisationskultur, Zeit und Ressourcen für Mentoring, organisationsweites oder ausgewähltes Gruppen-Mentoring, freiwillige und obligatorische Programme, die Rolle des Vorgesetzten des Mentees und nicht zuletzt die Rolle der Personalfachleute. Dieses Konferenzpapier beleuchtet und untersucht daher einige der Ergebnisse dieser Studie und diskutiert wesentliche Faktoren für die Auswahl und Teilnahme an erfolgreichen formalen Mentoring-Programmen, die von Bibliotheken und Informationszentren für ihre Mitarbeiter eingerichtet werden.;-;http://eprints.rclis.org/5897/;-;- 71365fc063cf4567320f6e97733640d6;de;;;3.4.;;;Erwartungen und Bedenken des Bibliothekspersonals vor und nach einer Fusion In diesem Papier werden einige der wichtigsten Ergebnisse zweier Umfragen verglichen und diskutiert, um die Erwartungen und Bedenken des Bibliothekspersonals vor und nach einer Fusion zu ermitteln. Die Ergebnisse zeigten, dass die Erwartungen und Bedenken, die Bibliotheksmitarbeiter vor einer Fusion hegen, nach der Fusion nicht unbedingt verschwinden. Wenn sie in Ruhe gelassen werden, können sich Erwartungen und Bedenken im Laufe der Zeit ändern oder sogar zunehmen. Im Lichte der Ergebnisse gibt der Autor mögliche Erklärungen dafür, warum sich einige der Erwartungen und Bedenken im Laufe der Zeit ohne bewusstes Eingreifen der Bibliotheksleiter verändert haben.;-;http://eprints.rclis.org/6406/;-;- 3aeb4bc1e9a157552b6ad3f673a94894;de;;;3.4.;;;Lernpartnerschaften für den Informationsprofi: Coaching zur Beschleunigung der Entwicklung Die Bibliothek erreicht wie jede andere Organisation ihre Ziele dadurch, dass die Menschen ihre Arbeit richtig erledigen. Der Erfolg einer Bibliothek hängt maßgeblich von der Qualität der Dienstleistungen des Personals an vorderster Front ab, d. h. des Personals, das direkten Kontakt mit den Benutzern der Bibliothek hat. Damit die Mitarbeiter an vorderster Front ihre Arbeit richtig erledigen können, müssen sie entsprechend geschult werden. Aus- und Weiterbildung ist jedoch kein einmaliges Ereignis, sondern ein kontinuierlicher Prozess. Ein großer Teil des Lernens findet durch praktische Erfahrung statt. Der Manager sollte daher nach Möglichkeiten suchen, die Leistung und Entwicklung am Arbeitsplatz zu verbessern. Coaching am Arbeitsplatz ist eine Möglichkeit, eine individuelle Lernpartnerschaft zur Weiterentwicklung und Verfeinerung der Grundkompetenzen des Lernenden aufzubauen. Coaching ist nicht mit Mentoring zu verwechseln. Im Sinne dieser Arbeit wird Coaching als bewusste Beschleunigung der Erweiterung und Verfeinerung vorhandener Kompetenzen der Lernenden verstanden, um die Leistung des Lernenden in einer bestimmten Position zu verbessern. Mentoring hingegen befasst sich mit der langfristigen Karriereentwicklung. Dieses Papier basiert auf den praktischen Erfahrungen eines Lernpartnerschaftsprogramms, das 2004 an den damaligen Cape Technikon Bibliotheken durchgeführt wurde. Der Zweck bestand darin, neue Mitarbeiter, die Lernenden, insbesondere Positionen durch die Zusammenarbeit mit erfahrenen und sachkundigen Bibliothekaren, den Coaches, zu unterstützen. Noch wichtiger ist jedoch, dass das Programm darauf abzielt, die berufliche Entwicklung der Lernenden zu beschleunigen. Das Papier wird beschreiben, wie die besonderen Lernbedürfnisse identifiziert wurden und wie das Programm für jeden Lernenden maßgeschneidert wurde. Der entscheidende Teil einer solchen Lernpartnerschaft besteht darin, dass der Lernende mit dem richtigen Coach oder den richtigen Coaches mit dem speziellen Fachwissen, das der Lernende benötigt, gepaart wird. Man würde nicht unbedingt alle erforderlichen Kompetenzen in einem Coach finden. Aus diesem Grund hatten die Lernenden oft mehr als einen Coach. Die Auswahl der Coaches ist daher ein wichtiger Bestandteil des Entwicklungsprogramms. Die Lernenden hatten regelmäßige Feedbackgespräche mit ihren Coaches und die Lernenden hatten auch die Möglichkeit, allen Rollenspielern Feedback zu ihrer eigenen Wahrnehmung ihres Lernens und des Programms zu geben. In einigen Fällen wurden besondere Lernerfahrungen geschaffen, um ein tieferes Lernen für bestimmte Kompetenzen zu ermöglichen. Diese wurden jedoch in allen Fällen unter Beteiligung des Lernenden und des Coachs entwickelt. Schließlich wurde das Programm von allen Lernenden und Trainern bewertet. Das Papier wird der kritischen Bewertung solcher Programme besondere Aufmerksamkeit widmen. Schließlich wird das Papier die wichtigsten Lernpunkte und Übersichten dieses speziellen Programms identifizieren und eine Checkliste entwickeln, anhand derer weitere Coaching-Programme geplant, gestaltet, implementiert und bewertet werden können.;-;http://eprints.rclis.org/8318/;-;- 8168db85c57d8241496660fe503132de;de;;;3.4.;;;Strategische Fragen der Aus- und Weiterbildung in der IT-Dienstleistungsbranche in der Region Kolkata: eine Studie Die vorliegende Studie befasst sich mit Trainings- und Entwicklungsstrategien in der IT-Dienstleistungsbranche in der Region Kolkata. In dieser Studie wurden aktuelle Trends und übliche Praktiken bei Schulungs- und Entwicklungsmaßnahmen im spezifischen Bereich und im Personalmanagement im Allgemeinen hervorgehoben. Der InfoTech-Sektor ist ein Schwerpunkt der wirtschaftlichen Entwicklung in Entwicklungsländern, wie in Indien. Staatliche und private gemeinsame Initiativen machen diesen Sektor zu einem Sektor der Sonnenscheinindustrie. Potenziale des Personalwesens in den professionell geführten IT-Dienstleistungsunternehmen ausloten. Die Trainings- und Entwicklungsaktivitäten stärken die Leistungsfähigkeit von IT-Dienstleistungsunternehmen und verhelfen ihnen zu Exzellenz. Die vorliegende Studie untersuchte das Herz dieser Wissensindustrie, die sich auf Wissensarbeiter konzentrierte. In der vorliegenden Studie wurden kurz die Ausbildungs- und Entwicklungspraktiken zweier hochrangiger Unternehmen in Kalkutta herausgearbeitet und einige einzigartige Formen der Ausbildung gefunden. Diese Studie wies auch darauf hin, dass Unternehmen in einer höheren Wertschöpfungskette im Vergleich zu Unternehmen in einer niedrigeren Wertschöpfungskette eine langfristige Vision haben. Dieser Bericht ist ein bescheidener Versuch, eine Sonnenscheinindustrie in Indien und insbesondere in der Region Kalkutta innerhalb eines begrenzten Zeitrahmens und begrenzter Ressourcen zu untersuchen. Die Ergebnisse und Beobachtungen basieren auf meinem Verständnis des Branchenprofils in Bezug auf die Schulungs- und Entwicklungspraktiken. Die Unternehmen, die von Kolkata aus operieren, werden in verschiedene Stufen der Wertschöpfungskette eingeordnet, wobei die umsatzstärksten Unternehmen in der höchsten Wertschöpfungskette platziert werden und andere in der Wertschöpfungskette aufsteigen. In ähnlicher Weise sind verschiedene Unternehmen auf verschiedene Marktsegmente ausgerichtet, wie z. Daher unterscheiden sich ihre Ausbildungs- und Entwicklungspraktiken und -richtlinien erheblich. Die hier befragten Unternehmen konnten teilweise keine Informationen austauschen, die vertraulicher Natur sind. Außerdem liegen bei den Befragten nur begrenzte Statistiken vor, da die meisten Schulungsprogramme für die Anforderungen bestimmter Projekte organisiert werden. Die Informationstechnologie (IT)-Dienstleistungsbranche wird manchmal als IT-Branche oder Softwarebranche oder InfoTech-Sektor bezeichnet. Der Begriff wird hier synonym verwendet. Der Studienbericht ist hier in Kapiteln dargestellt. Das erste Kapitel stellt grundlegende Konzepte und Branchenprofile in Indien und in der Region Kolkata vor. Im zweiten Kapitel werden die Ziele und die Methodik dieser Studie beschrieben. Kapitel drei enthält analytische allgemeine Diskussionen über Ergebnisse und Erkenntnisse sowie eine eingehende Untersuchung von zwei Fällen. Diese beiden Fälle repräsentieren einige einzigartige Merkmale ihrer Trainings- und Entwicklungspraktiken. Diese Unternehmen sind in eine höhere Wertschöpfungskette eingeordnet und daher sind ihre Ausbildungsziele stark auf das Wachstum der Unternehmen ausgerichtet. Kapitel vier schließt die Studie ab und schlägt eine zukünftige Richtung für das weitere Wachstum der Branche in Kalkutta vor. Am Ende sind ein Literaturverzeichnis und zwei Anlagen beigefügt.;-;http://eprints.rclis.org/7208/;-;- 7ddf8aa0e8d80cf3d2ef72d7175a05cf;de;;;3.4.;;;Kapazitätsaufbau in Fachbibliotheken Die vorliegende Arbeit basiert auf den Erfahrungen, die bei der Arbeit großer technischer Bibliotheken Indiens gesammelt wurden. Er erörtert das Konzept des Kapazitätsaufbaus, die Auswirkungen von Kompetenzen, den Fahrplan für den Kapazitätsaufbau und verschiedene Herausforderungen, denen sich die Fachbibliotheken gegenübersehen. Außerdem wird die Rolle des Kapazitätsaufbaus im Bereich der Kundenbetreuung hervorgehoben und einige ausgewählte Maßnahmen zur Kundenbetreuung vorgeschlagen. Das Papier enthält außerdem die wichtigsten Vorschläge, einschließlich der Bedeutung webbasierter Dienste, um Spitzenleistungen in technischen Einrichtungen sicherzustellen.;-;http://eprints.rclis.org/6582/;-;- 303feec5262e5cc04e9526a6c2fd13ff;de;;;3.4.;;;Im Wandel erfolgreich sein Dieses Papier berichtet über eine Vorkonferenz, die den Vorgesetzten helfen sollte, die Vorteile des Managements im Umgang mit Veränderungsprozessen zu verstehen. Es gab Handouts und Bibliographien, die den Teilnehmern neue Ideen und weiterführende Lektüre zu verschiedenen Aspekten der Problemlösung, Mentoring, Coaching, Kommunikation und nicht-konfrontativen Intervention bieten konnten. Die Sitzung begann mit einer Diskussion des Veränderungsprozesses, der Faktoren, der Reaktionen darauf, seiner Nutzung und der Richtungen, die zur Nutzung des Prozesses eingeschlagen werden könnten. Da Veränderungen in unserem Leben eine Konstante sind, ist es unerlässlich, dass wir sie verstehen und wissen, wie wir sie zu unserem Vorteil nutzen oder manipulieren können.;-;http://eprints.rclis.org/9022/;-;- 232fe57ab3a9aa3a9e28b3f94d7d44ea;de;;;3.4.;;;Stressmanagement von Bibliotheks- und Informationsfachleuten im digitalen Umfeld Stress ist die Veränderung, die unser Körper erfährt, wenn wir uns an unsere sich ständig ändernde Umwelt anpassen. Es ist seit prähistorischer Zeit ein fester Bestandteil unseres täglichen Lebens, und das Personal von Bibliotheken und Informationswissenschaften ist keine Ausnahme. Daher können wir Stress in unserem Leben nicht vermeiden, sondern die beste Politik ist es, ihn richtig zu managen, um unsere Effizienz zu steigern. Dieser Artikel versucht, Stress im Lichte des LIS-Berufs zu definieren. Es beschreibt die Arten von Stress in Bibliotheken und ihre Ursachen. Analysiert auch kritisch die besten Möglichkeiten, den Stress von LIS-Experten in einer digitalen Bibliotheksumgebung zu bewältigen.;-;http://eprints.rclis.org/8152/;-;- 202ccc3f03a8f2b776cb15645e0abf1a;de;;;3.4.;;;Anwendung des EFQM-Exzellenzmodells auf die Sabancı University IC Die European Foundation for Quality Management [EFQM] ist eine Organisation, die Institutionen ermutigen soll, ihre Arbeit durch Total Quality Management erfolgreich zu erledigen. Das EFQM-Excellence-Modell ist ein Instrument, das Organisationen dabei helfen soll, ihre eigenen Stärken und Schwächen zu erkennen und Impulse für Verbesserungsaktivitäten zu geben. Die Sabanci Universität, eine private Universität in Istanbul, hat als erste antragstellende Universität in der Türkei 1998 ihren Antrag auf Mitgliedschaft bei der EFQM gestellt und wurde angenommen. In Übereinstimmung mit den Mitgliedschaftsregeln wurden alle Prozesse des Informationszentrums der Sabanci-Universität gemäß dem EFQM-Exzellenzmodell implementiert. In diesem Papier werden die vom Informationszentrum der Sabanci-Universität geplanten und durchgeführten Arbeiten mit den Kriterien dieses Modells erläutert, um den Status zu sehen die Kunst und bestimmen die Ziele für heute und die Zukunft.;-;http://eprints.rclis.org/13926/;-;- 2378946839f2fe56d6b6f22e7fdab4a6;de;;;3.4.;;;Reengineering des Personalmanagements in Universitätsbibliotheken Die Anwendung der Informations- und Kommunikationstechnologie in Universitätsbibliotheken wirft mehrere Fragen auf, die angegangen werden müssen, einschließlich solcher im Zusammenhang mit der Verwaltung von Humanressourcen. Im Rahmen einer Studie zum Technologiemanagement von Universitätsbibliotheken in Kerala wurde auch der Aspekt des Personalwesens evaluiert. Die Studie plädiert für eine radikale Neugestaltung des vorherrschenden Managementsystems. Als Schlüsselkomponente für den richtigen Einsatz moderner Technologien in Universitätsbibliotheken spielen Humanressourcen eine entscheidende Rolle für die Wirksamkeit digitaler Informationsdienste. Es wurde auch festgestellt, dass die Prinzipien des Business Process Reengineering effektiv angewendet werden können, um das Personalmanagementsystem zur Anpassung an die veränderten Umstände neu zu definieren. Die Notwendigkeit der Entwicklung von Humanressourcen in verschiedenen Kadern und auch unter Betonung moderner digitaler Technologien wird festgestellt. Das Papier gibt einen detaillierten Überblick über die Studie und die Ergebnisse und identifiziert auch die für die Entwicklung der Humanressourcen erforderlichen Stoßrichtungen.;-;http://eprints.rclis.org/11415/;-;- fad11331a45378cb4f9543bdaa30ca1b;de;;;3.4.;;;Am Scheideweg: Den Amts- und Beförderungsprozess ins digitale Zeitalter bringen Drei Bibliothekare einer öffentlichen Universität in Michigan denken darüber nach, die LibGuides-Software von Springshare als Rahmen für die Zusammenstellung von Promotion- und Tenure-Portfolios zu verwenden, und konzentrieren sich dabei auf den Übergang der Bibliotheken von der Zusammenstellung von gedruckten zu digitalen.;-;http://eprints.rclis.org/14572/;-;- d7c1b43300554b49cd0ed2e78f2947c2;de;;;3.4.;;;Untersuchung einer Kategorisierung der Hauptkompetenzen für digitale Bibliothekare Dieser kurze Aufsatz befasst sich mit dem Hauptthema „Berufsanalyse im Kontext einer digitalen Bibliothek“ und soll einige der Kompetenzen untersuchen, die digitale Bibliothekare haben müssen, um in einem digitalen Bibliothekskontext erfolgreich zu arbeiten. Die untersuchten Kompetenzen werden in die Überschriften Informationsmanagementkompetenzen, technologische Kompetenzen, informationskompetenzbezogene Kompetenzen und zwischenmenschliche Kompetenzen eingeteilt.;-;http://eprints.rclis.org/16640/;-;- 73a66237af5277df998c2c6406d96d9a;de;;;3.4.;;;KAPAZITÄTSAUFBAU VON BIBLIOTHEK-PROFESSIONELLEN: EINE FALLSTUDIE DER SIR DORABJI TATA MEMORIAL LIBRARY Dieses Papier befasst sich mit der organisatorischen Exzellenz von TISS-Bibliotheks-E-Books, E-Journals, digitaler Bibliothekssoftware wie Dspace, Cyber-Bibliothek, Lernzentrum für Sehbehinderte, Dokumentenlieferdienst, Info-Mail, Vernetzung und Ressourcenaustausch mit nationalen und internationalen Universitäten . Der Kapazitätsaufbau ist die Aufwertung, Stärkung und Analyse von Stärken, Schwächen, Chancen, Bedrohungen (SWOT) und der Entwicklung von Fähigkeiten durch Training, Experimente und deren Anwendung und ist in digitalen Bibliotheken und Informationszentren von größter Bedeutung. Um ihre produktive Basis zu verbessern, hat sich die Rolle der Bibliotheksfachleute aufgrund der Informationsexplosion drastisch verändert. Um die Informationsexplosion durch den Einsatz von IT-Anwendungen zu nutzen, mussten sich Bibliotheksfachleute den Herausforderungen der Wissensgesellschaft stellen;-;http://eprints.rclis.org/24859/;-;- c828776fab0474b318193a41b9ea3a41;de;;;3.4.;;;Qualität und Bewertung von Informationssystemen in institutionellen Organisationen Die Faktoren, die den Erfolg und die Effizienz von Informationssystemen beeinflussen, sind immer ein wichtiger und kritischer Aspekt für die Struktur, den ordnungsgemäßen Betrieb und die Verbesserung der produzierten Dienstleistungen und Produkte einer Organisation für ihre Endnutzer - sowohl für die internen (Mitarbeiter) als auch für die externen (öffentlich). Gegenwärtig wächst der Bedarf, geeignete Parameter zu schaffen, die helfen, den erfolgreichen Betrieb eines Informationssystems in einer Organisation zu bewerten und zu messen. Das Ziel der vorliegenden Diplomarbeit ist es, uns einerseits in die Umgebung der Informationssysteme von Organisationen einzuführen und uns andererseits eine vollständige und erweiterte Darstellung ihrer Operationen, Prozesse, Infrastrukturen und Erfolgsfaktoren zu geben. In der Systemtheorie untersuchen wir die Analyse und das Design eines Informationssystems und identifizieren die Qualitätsparameter, die für die Messung seines Erfolgs erforderlich sind. Darüber hinaus werden wir das Modell zur Qualitätsmessung für ein Informationssystem namens „DeLone &, McLean Information Systems Erfolgsmodell“ anwenden. Wir werden sehen, was jeder Parameter des obigen Modells untersucht, indem wir Konzepte wie Systemqualität, Informationsqualität, Benutzerzufriedenheit, Auswirkungen der Qualität auf Benutzer und Organisation untersuchen. Gleichzeitig entwickeln wir eine Anwendung zur Bewertung der Qualität eines Informationssystems, die sogenannte: Organizational Memory Information Systems Quality, die auf dem Erfolgsmodell von DeLone &, McLean aufbaut. Das Hauptziel dieser Arbeit ist es, eine fruchtbare Diskussion über die Qualität des Betriebs, der Infrastruktur und der erbrachten Dienstleistungen institutioneller Organisationen zu führen. Darüber hinaus werden wir uns auf die Nützlichkeit und Bedeutung von Messfaktoren für die Effizienz eines Informationssystems konzentrieren, da dieses Verfahren von der modernen Society of Information verwendet wird, um in eine Society of Knowledge umgewandelt zu werden.;-;http://eprints.rclis.org/14699/;-;- e85177d2596ab4d0a7c016601374461e;de;;;3.4.;;;Ein neuer Ansatz für die Organisationsstruktur des Bibliothekspersonals der Aristoteles-Universität Thessaloniki Der Zweck dieser Dissertation besteht nicht darin, ein Organigramm für das Bibliothekssystem der Aristoteles-Universität Thessaloniki, Griechenland, bereitzustellen, sondern jede Einheit im System und ihre Beziehung und Interaktion mit anderen Einheiten und Gruppen zu definieren, um eine neue Art der Organisation anzuwenden Bibliothekspersonal. Die Überprüfung der wichtigsten Organisationstheorien vermittelt uns das grundlegende Wissen über die Funktion des Organisierens. Akademische Bibliotheken im Vereinigten Königreich und in den Vereinigten Staaten haben verschiedene Methoden der Personalorganisation angewandt. Diese Erfahrung wird in den Kapiteln drei und vier analysiert, zusammen mit einigen alternativen Methoden in Kapitel fünf. Die Nutzung von Computern in Bibliotheken hat viele Veränderungen mit sich gebracht, und wir untersuchen die Auswirkungen auf die Organisation des Bibliothekspersonals. Nachdem wir die wichtigsten Aspekte der Organisation des Bibliothekspersonals analysiert haben, schlagen wir eine andere Organisation für das Bibliothekspersonal der Aristoteles-Universität Thessaloniki vor.;-;http://eprints.rclis.org/34318/;-;- f1581cf3ea443eb71533f4c3847a8b56;de;;;3.4.;;;Große Erwartungen: Kompetenzbasierte Ausbildung für studentische Mediacenter-Assistenten Nach aktuellen Statistiken der Association of Research Libraries (ARL) betragen die Kosten für die Anstellung einer studentischen Hilfskraft etwa 25 % des Stundenlohns eines Bibliothekars (ARL 1997). Allein aus dieser Kostenperspektive besteht für wissenschaftliche Bibliotheken ein starker Anreiz, nach Möglichkeit mit studentischen Mitarbeitern statt mit Bibliothekaren zu arbeiten. Es scheint, dass studentische Hilfskräfte auch weiterhin ein fester Bestandteil vieler wissenschaftlicher Bibliotheksabteilungen sein werden. Dies gilt jedoch nirgendwo mehr als in akademischen Medienzentren. Je nach Umfang des Sammlungs- und Serviceangebots des jeweiligen Medienzentrums übernehmen studentische Hilfskräfte eine Vielzahl von Funktionen, die für den täglichen Betrieb der Einrichtung wichtig sind. Studentische Mitarbeiter unterstützen Nutzer bei der Einrichtung und Bedienung von audiovisuellen und elektronischen Geräten, verteilen und einlagern und führen Sammlungsrecherchen durch, um eine Vielzahl von oft komplex geordneten Materialien wiederzufinden. Da studentische Hilfskräfte Zentren oft allein besetzen und an gut sichtbaren Orten arbeiten, kann ihre Leistung den Ruf des Zentrums übermäßig beeinträchtigen. Die gründliche Ausbildung der studentischen Hilfskräfte ist daher für viele Medienzentren ein dringendes Anliegen.;-;http://eprints.rclis.org/16962/;-;- 524680bec6a240e7774a0be7c9bb0021;de;;;3.4.;;;Maslows Theorie und ihre Anwendung auf das Bibliothekswesen Erklärt die Grundlagen von Maslows Theorie, zählt Maslows Bedürfnishierarchie auf, beschreibt Implikationen der Theorie und präsentiert schließlich die Anwendung der Maslowschen Theorie auf das Bibliothekswesen mit geeigneten Beispielen und Illustrationen.;-;http://eprints.rclis.org/10697/;-;- c1f41eefecaa68d155acb871862f04bf;de;;;3.4.;;;Philosophische Perspektiven des bibliotheks- und informationswissenschaftlichen Denkens und seiner Entwicklung und die sich wandelnde Rolle zukünftiger Bibliotheks- und Informationsfachleute Der Gedanke des Bibliothekswesens wurde im Zusammenhang mit der Entwicklung der Bibliothekswissenschaft, Dokumentation und Informationswissenschaft enthüllt. Der theoretische Rahmen der Informationswissenschaft hat bewiesen, dass der Beruf des Bibliothekswesens und der Informationswissenschaft lebendig bleiben und nur der Gemeinschaft dienen würde, durch ein System zur Erfüllung der Bedürfnisse der Gesellschaft in den heutigen sich verändernden Umgebungen.;-;http://eprints.rclis.org/5825/;-;- 7b8e209d3c7d0bceea7084f32f27806f;de;;;3.4.;;;Bibliothekswesen und das Berufsmodell: Ein soziologisches Tutorial und Kritik In diesem Beitrag wird versucht, einige der soziologischen Fragen des Bibliothekswesens (LIS) als Beruf kritisch zu beleuchten. Verschiedene theoretische Formulierungen werden diskutiert. Die Bedeutung des Studiums der Berufssoziologie und der Berufe für Bibliothekare wird betont. Es werden nützliche Anregungen gegeben, um den vollwertigen Status des Bibliothekswesens (LIS) als Beruf zu erlangen.;-;http://eprints.rclis.org/5826/;-;- 7cf363036c8beb29da5b41757586fa09;de;;;3.4.;;;Personalentwicklung in Hybridbibliotheken In diesem Beitrag werden die Auswirkungen auf die Humanressourcen und die Entwicklung in Hybridbibliotheken untersucht. Aufgrund des technologischen Wandels in Bibliotheken, der auf die Verbreitung elektronischer Ressourcen zurückzuführen ist, hat sich die Arbeitsbelastung und der Arbeitsablauf verschoben, was Mitarbeiter mit unterschiedlichen Fähigkeiten und Bildungshintergründen erfordert. Die Ausbildung von Personal auf allen Ebenen in der Informationstechnologie ist der Schlüssel zur Bewältigung des Wandels, zur Linderung von Ängsten am Arbeitsplatz und zur Gewährleistung einer qualitativ hochwertigen Dienstleistungen in den Bibliotheken. Personalentwicklung ist eine der lohnendsten Investitionen für jede Organisation.;-;http://eprints.rclis.org/5864/;-;- 6c64397a5c4a1a68a277d34311f1f216;de;;;3.4.;;;Personalmanagement im High-Tech-Umfeld Die Kapazitäten und Fähigkeiten von Bibliothekaren und Informationsfachleuten sollten im heutigen Kontext dem Niveau entsprechen, das erforderlich ist, um die Schüler und Lehrer zu führen. Die Informationstechnologie nimmt eine Schlüsselrolle im Management von Bibliotheken und Informationszentren ein. Managementaspekte wie Rekrutierung, Einarbeitung, Ausbildung, Beförderung usw. werden durch diese modernen Technologien erheblich beeinflusst. Die Umbenennung von Bibliotheken in Informationszentren ist ein explizites Beispiel für diesen Wandel. Die modernen Geräte wie Computer, CD-ROM-Laufwerke, Drucker, reprographische und andere Geräte, Modem, V SAT und andere Kommunikationsgeräte, Multimedia-Installationen, Strichcode-Lesegeräte usw. haben die Praktiken und Verfahren in Bibliotheken völlig revolutioniert. Um dieser Situation gerecht zu werden, müssen Bibliotheken die Praktiken des wissenschaftlichen Personalmanagements übernehmen, um eine effektive Ressourcennutzung, Benutzerzufriedenheit und Mitarbeitermotivation zu erreichen. Auf diese Anforderung wird in dem Papier ausführlich eingegangen.;-;http://eprints.rclis.org/7426/;-;- 1a87e1deaa744865c9eefb3eee4bdfea;de;;;3.4.;;;LIS-Gehälter: Grund zur Sorge? Informationen aus einer Reihe von Quellen wurden zusammengestellt, um die Gehaltsniveaus in einer Vielzahl von ausgeschriebenen LIS-Stellen über einen Zeitraum von zwei Monaten zu untersuchen. Sektoren und geografische Standorte wurden verglichen und die resultierenden Daten wurden mithilfe von „durchschnittlichen Hauspreisdaten“ für die untersuchten geografischen Regionen in einen Kontext gesetzt. Kurz gesagt, werden Faktoren wie die Tatsache, dass LIS tendenziell ein von Frauen dominierter Beruf ist, und Unterbeschäftigung untersucht. Die Rolle des Mitgliedsgremiums wird auch bei der Erzielung einer verbesserten Vergütung untersucht. Die Auswirkung des Charterstatus auf das Gehaltsniveau in den Anzeigen in der Stichprobe wird ebenfalls diskutiert. Es werden einige praktische Vorschläge gemacht, wie CILIP den Beruf fördern und dadurch möglicherweise das Gehaltsniveau seiner Mitglieder erhöhen könnte.;-;http://eprints.rclis.org/6039/;-;- e4b1d790d321e73325f16d1e246c8b79;de;;;3.4.;;;Wissensmanagement: Ein aufkommendes Phänomen Es ist unbestreitbar, dass Wissen der Motor für Produktivität und Wachstum jeder Organisation ist. Daher ist es für alle Organisationen unerlässlich, den Schwerpunkt darauf zu legen, wie ihr Organisationswissen verwaltet wird. Wissensmanagement ist eine Disziplin, die einen integralen Ansatz fördert, um den Wissensbestand eines Unternehmens zu erfassen, abzurufen, zu teilen und zu bewerten. Dieser Beitrag beschäftigt sich mit dem aufkommenden Phänomen des Wissensmanagements, seinen charakteristischen Merkmalen, Problemen im Zusammenhang mit WM-Prozessen und was Bibliotheks- und Informationsfachleute bestenfalls tun können, um ein organisatorisches Ziel mit der WM-Waffe zu erreichen.;-;http://eprints.rclis.org/23265/;-;- 6c2e4b14b5fac27f1c685c6811248769;de;;;3.4.;;;Telearbeit im Informations- und Bibliotheksumfeld: eine Literaturübersicht - BP 100 [Literaturübersicht für Einheit BP 100, Studienjahr 2000/2001 des Masters in Information Studies der Universität Parma und der Universität Northumbria] Die Forschung zum Thema Telearbeit nimmt seit den 1980er Jahren zunehmend zu und produziert viele Bücher, Artikel und Webdokumente . Das Studium dieser Form der flexiblen Arbeit umfasst viele Disziplinen und Methoden (Soziologie, Psychologie, Management, Ökonomie, Umwelt- und Geschlechterforschung, IKT, internationales Arbeitsrecht usw.). Jeder Aspekt ist so relevant, dass er eine spezifische Untersuchung verdient. Die folgende Literaturrecherche soll nur über die Forschung zu den wichtigsten Aspekten der Telearbeit berichten, die für das bibliothekarische Umfeld wahrscheinlich relevant sind, wobei andere, jedoch wichtige Aspekte (wie rechtliche, vertragliche, gewerkschaftliche Fragen usw.) ausgelassen werden.;-;http://eprints.rclis.org/11467/;-;- d88c9100b1fe8d69c4b63aadbc4dff21;de;;;3.4.;;;Der Arbeitsmarkt für Beschäftigte im Bibliotheks- und Informationsmanagement in Irland Untersuchungen zum Arbeitsmarkt für Bibliotheks- und Informationsmanagement in Irland analysierten über einen Zeitraum von 12 Monaten (April 2001 – März 2002) 301 Stellenausschreibungen für 323 Stellen. Dieser Artikel fasst einige der wichtigsten Ergebnisse dieses Projekts zusammen.;-;http://eprints.rclis.org/6042/;-;- b82ae4e3f07cf24638cc906bd0fda489;de;;;3.4.;;;Ansichten zukünftiger Führungskräfte zur Unternehmenskultur Forschungsbibliotheken werden auf absehbare Zeit weiterhin von schnellen und transformativen Veränderungen in der Informationstechnologie und der vernetzten Umgebung betroffen sein. Das Tempo und die Richtung dieser Veränderungen werden die Bibliotheken und ihre Mitarbeiter zutiefst herausfordern, effektiv zu reagieren. Dieser Beitrag präsentiert die Ergebnisse einer Umfrage, die entwickelt wurde, um die Wahrnehmungen und Präferenzen zukünftiger Bibliotheksleiter in Bezug auf Organisationskulturen in diesen Zeiten des steilen Wandels zu ermitteln. Die Studie stellt fest, dass zukünftige Führungskräfte wissenschaftlicher Bibliotheken eine erhebliche Kluft zwischen ihrer aktuellen und ihrer bevorzugten Organisationskultur wahrnehmen und dass die gegenwärtige Organisationskultur ihre Effektivität begrenzt.;-;http://eprints.rclis.org/14822/;-;- 5cde48f001cc393db9370e296162b487;de;;;3.4.;;;Stellenbeschreibung als Bibliothekar für elektronische Ressourcen In diesem Artikel werden die Regeln und die Methodik der Einführung einer neuen Berufsbeschreibung des Bibliothekars für elektronische Ressourcen in einer modernen wissenschaftlichen Bibliothek erörtert. Sagt, dass die genaue Beschreibung und die anschließende praktische Umsetzung von Stellenpositionen, verbunden mit den strategischen Zielen eines Unternehmens, die Unternehmensstruktur klar und damit effizient machen.;-;http://eprints.rclis.org/7114/;-;- ba0194d4a3bac40524ec75f5c382dc5e;de;;;3.4.;;;Ein Modell der Organisationskultur zur Verbesserung des organisatorischen Engagements in der Telekommunikationsbranche: Beweise aus Vietnam Ziel dieser Studie ist es, den Einfluss der Organisationskultur auf das organisationale Engagement im Kontext der vietnamesischen Telekommunikationsindustrie zu untersuchen. Das Modell wurde mit einer Stichprobe von 324 Mitarbeitern getestet, die für Telekommunikationsunternehmen arbeiten. Das Ergebnis der Methode der partiellen kleinsten Quadrate (PLS) mit dem Programm SmartPLS 3.0 zeigte eine gute Übereinstimmung zwischen den gesammelten Daten und den Messskalen, die im westlichen Kontext eingeführt und entwickelt wurden. Außerdem zeigten die Ergebnisse, dass die sechs Dimensionen der Organisationskultur abnehmende positive Auswirkungen auf das Engagement der Organisation hatten: Innovationsfähigkeit, Teamarbeit, Training und Entwicklung, Belohnung und Anerkennung, Organisationskommunikation, Empowerment. Diese Entdeckung unterstreicht die Bedeutung der Unternehmenskultur bei der Verbesserung des Engagements der Mitarbeiter gegenüber der Organisation und lenkt die Aufmerksamkeit des Managements auf diese Dimensionen und langfristigen Entwicklungsrichtlinien.;-;http://eprints.rclis.org/39896/;-;- de62129b63f33a464fddb08bda5aa3a7;de;;;3.4.;;; Zeitschriftenkonsortien: Angebotsausweitung auf Kosten der Flexibilität Seit mehr als zehn Jahren gibt es elektronische Zeitschriften. Die Verlage haben in den ersten Jahren diese vielfach kostenlos zur Druckausgabe angeboten. Als die Bibliotheksbenutzer/-innen an diesen neuen Service gewöhnt waren, wurden die kostenfreien Zugaben in kostenpflichtige Parallelausgaben umgewandelt. Die damit verbundenen Preissteigerungen konnten niedrig gehalten werden, wenn mehrere Bibliotheken sich zu Konsortien zusammenschlossen und sich verpflichteten, die bestehenden Abonnements nicht oder nur in sehr geringem Umfang zu kündigen. Dies nutzten die Verlage, um die Abonnementspreise überdurchschnittlich anzuheben. Gleichzeitig wurden die Etats der Bibliotheken durch die Unterhaltsträger weitgehend eingefroren. In der Folge beanspruchten die Kosten aus den Zeitschriftenverträgen immer höhere Anteile der Bibliotheksetats. Die Bibliothek der Universität Konstanz hat sich in den letzten Jahren diesen Sachzwängen“ weitgehend entzogen, indem sie auf die Beteiligung an Konsortialverträgen verzichtete. Die Bereitstellung von zentralen Mitteln des Ministeriums für Zeitschriftenverträge, die Bemühungen der DFG um landesweite Konsortialverträge über große Zeitschriftenpakete und die Veränderung der Nachfrage durch die Wissenschaftler zwingt nunmehr auch die Bibliothek der Universität Konstanz, in größerem Umfang Verträge über Zeitschriftenpakete abzuschließen. Deshalb ist die Struktur der Erwerbung der Bibliothek der Universität Konstanz grundsätzlich zu überprüfen, um sicherzustellen, dass auch künftig die Wissenschaftler/-innen vor Ort die Materialien bereitgestellt bekommen, die sie für ihre Arbeit brauchen, unabhängig davon, ob diese in großen Zeitschriftenpaketen oder in kleinen Einzelabonnements beschafft werden.;-;http://eprints.rclis.org/14977/;-;- 9a20c6251aad7fdfaa824497f28dfa87;de;;;3.4.;;; Open Access : Bibliotheken unterwegs ins gelobte Land? Der vorliegende Beitrag setzt sich betont kritisch mit dem Open-Access-Modell für die Publikation wissenschaftlicher Zeitschriften auseinander, das seit nunmehr einem Jahrzehnt als Wundermittel zur Behebung aller Budgetnöte wissenschaftlicher Bibliotheken bei einschlägigen Konferenzen und Kongressen thematisiert wird. Eine kaum mehr überschaubare Vielzahl an mehr oder weniger kostenlosen Initiativen außerhalb der traditionellen Verlagssphäre konkurriert mittlerweile mit open-access-ähnlichen Angeboten des einen oder andern Verlags. Die Problemzonen der von semi-kommerziellen Anbietern (Independent Publishers) und traditionellen Verlagen angebotenen Open-Access-Modelle werden aufgezeigt: Auf der Kostenseite sind Einsparungen entweder überhaupt nicht möglich oder nur schwer kalkulierbar, auf der inhaltlichen Ebene sind die frei zugänglichen Artikel meist quantitativ und qualitativ begrenzt, und in rechtlicher Hinsicht ist die vertragliche Absicherung der Archivrechte oft nicht zu erreichen. Der theoretische Überblick wird durch eine Bestandsaufnahme ergänzt, in welchem Ausmaß österreichische Universitätsbibliotheken Open Access in ihr Angebot integriert haben. Als Abrundung des Themas wird das alternative Szenario für die Finanzierung wissenschaftlicher Forschungsliteratur anhand eines konkreten Vergleichs mit dem herkömmlichen Subskriptionsmodell am Beispiel der Universitätsbibliothek Graz kritisch hinterfragt.;-;http://eprints.rclis.org/14294/;-;- cb7d27c3b01f1bf4c1f52749684ed6b7;de;;;3.4.;;; Was kosten elektronische Bücher? Erwerbungs- und Beschaffungskosten elektronischer Bücher bei unterschiedlichen Angebotsmodellen Immer mehr Monographien, Nachschlagewerke und weitere Einzelwerke werden heute in elektronischer Form angeboten. Die Angebote enthalten unterschiedliche Geschäftsmodelle: Sie variieren von Einzeltiteln über begrenzte Sammlungen mit oder ohne Einzeltitelauswahl bis zu kompletten Jahresproduktionen eines Verlages. Diese unterschiedlichen Angebotsformen führen dazu, dass die Arbeitsabläufe in der Bibliothek angebotsbezogen differenziert werden müssen. Einerseits ist die jeweils passende Angebotsform auszuwählen, andererseits sind die Beschaffungs- und Bearbeitungsabläufe auf die jeweilige Angebotsform anzupassen, um den Arbeitsaufwand zu begrenzen. Der Beitrag diskutiert, welcher Aufwand bei der Auswahl der passenden Angebotsform und der Beschaffung und Bearbeitung mit dem jeweils passenden Arbeitsablauf entsteht, um die Gesamtkosten der Beschaffung bei unterschiedlichen Geschäftsmodellen einander gegenüberzustellen.;-;http://eprints.rclis.org/20938/;-;- b68864da87429328a6934fbff511d592;de;;;3.4.;;; Das optimale E-Portfolio für Ihre Bibliothek: Lizenzierungsentscheidungen und Bestandscontrolling für elektronische Ressourcen Zielsetzung — Wissenschaftliche Bibliotheken geben mittlerweile den überwiegenden Anteil ihres Erwerbungsbudgets für elektronische Ressourcen aus. Das Ziel dieses Beitrages besteht deshalb darin, ein praxistaugliches Modell zu entwickeln, das eine Bewertung der Vorteilhaftigkeit der Lizenzierung von Datenbaken, E-Books oder E-Journals ermöglicht. Methode — Im Rahmen einer umfassenden ökonomischen Analyse werden alle relevanten Kosten- und Nutzenaspekte elektronischer Ressourcen identifiziert und anhand geeigneter Kennzahlen operationalisiert. Ergebnisse — Die Anwendung des Modells zeigt, dass die umfassende Bewertung der Gesamteffizienz elektronischer Ressourcen im Vergleich zur eindimensionalen Betrachtung von Costs per Download das Bestandscontrolling auf eine breitere Entscheidungsgrundlage stellt. Unverzichtbare Voraussetzung ist eine geeignete Datenbasis. Schlussfolgerungen — Das entwickelte Modell kann Bibliotheken dabei unterstützen, ihren Bestand an elektronischen Ressourcen ökonomisch fundiert zu evaluieren und damit die Basis für eine optimale Zusammensetzung eines bibliotheksspezifischen »E-Portfolios« zu legen.;-;http://eprints.rclis.org/31441/;-;- b508e56c4ed37216c04c1ed685e7756b;de;;;3.4.;;; Bibliothekskonsortien in Österreich: Helmut Hartmann, Pionier für Konsortien elektronischer Medien in Österreich und erster Leiter der Kooperation E-Medien Österreich, beantwortet 11 Fragen von Bruno Bauer Helmut Hartmann beantwortet Fragen über den Einsatz elektronischer Medien an Bibliotheken, über die Pionierzeit und über die institutionelle Verankerung von Bibliothekskonsortien in Österreich sowie über Erfolge und Desiderate der Kooperation E-Medien Österreich. Aufbauend auf seinem reichen Erfahrungsschatz bietet er auch interessante Einblicke in internationale Kooperationen auf dem Gebiet der Konsortien und in die Beziehungen zwischen Konsortien und Verlagen, die persönliche Einschätzung der Open Access-Initiative sowie der Zukunft von Bibliotheken und Konsortien. Im Hinblick auf die zukünftigen Anforderungen an Bibliothekarinnen und Bibliothekare fordert er eine bibliothekarische Ethik, die getragen ist von dem Mut für Neues und der Bereitschaft, Informationssuchende zu unterstützen. ;-;http://eprints.rclis.org/20969/;-;- 782e9e3fbd6b2c50f1bb95a7d9b384e1;de;;;3.4.;;; Ökonomischer Mehrwert von Bibliotheken, aufgezeigt anhand ausgewählter Dienste der Zentral- und Hochschulbibliothek Luzern Immer häufiger werden Fragen über den ökonomischen Wert von Bibliotheken gestellt. Dadurch stehen Bibliotheken heute zunehmend unter dem Druck, ihre Ergebnisse in betriebswirtschaftlichen Kennzahlen darzulegen. In der Fachliteratur erscheinen vermehrt Artikel zu diesem Thema, jedoch ohne einheitlichen Umgang mit der Terminologie. Diese Bachelorarbeit bietet zunächst einen Überblick über den Stand der Forschung und stellt ausgewählte ökonomische Mehrwertrechnungen anderer Bibliotheken vor. Auf diesem Theorieteil aufbauend wird eine ökonomische Mehrwertrechnung für zwei Dienste der Zentral- und Hochschulbibliothek Luzern durchgeführt. Als erstes wird der jährliche Wert der ausgeliehenen Medien geschätzt und in ein Kosten-Nutzen-Verhältnis gesetzt. Nachfolgend wird mit einer Benutzerbefragung ein allfälliger indirekter wirtschaftlicher Nutzen aus der Bibliotheksbenutzung aufgezeigt, sowie der monetäre Wert des Lesesaals als Lernort mit der Contingent Valuation-Methode geschätzt. Auch dieser Wert wird in ein Kosten-Nutzen-Verhältnis gesetzt. Die Arbeit zeigt die Chancen und Möglichkeiten, aber auch die Probleme und Grenzen der ökonomischen Mehrwertrechnung für Bibliotheken auf.;-;http://eprints.rclis.org/15647/;-;- 83655bd28d8600ff32127b79c5ae78f8;de;;;3.4.;;; Auswirkungen von Automatisierungs- und Rationalisierungsprozessen in Bibliotheken auf das Personalmanagement / The Impact of the Automation and Rationalization Processes in Libraries on Human Resource Management Die vorliegende Studie analysiert Auswirkungen von Automatisierungs- und Rationalisierungsprozessen der letzten Jahre in Bibliotheken auf das Personalmanagement und die Personalsituation. Der Schwerpunkt der Untersuchung liegt dabei auf der RFID-Technologie, da sie ein großes Rationalisierungspotential mit sich bringt und ihre Auswirkungen noch wenig erforscht sind. Immer mehr Bibliotheken betrachten den Einsatz neuer und vor allem IT-gestützter Technologien als Chance zur Verbesserung und Ausweitung ihrer Dienstleistungen. Insbesondere im Zusammenhang mit Konsolidierungsmaßnahmen und damit verbundenem Sparzwang der Länder, Gemeinden und Unterhaltsträger sehen viele Bibliotheken Automatisierung sowie Übertragung einiger Routineabläufe an den Nutzer als Perspektive, mit gleichbleibendem oder sogar geringerem Personal den gestiegenen Nutzeranforderungen und Ausleihzahlen zu genügen. Grundlage der Untersuchung bilden sowohl Auswertungen von Fachpublikationen und Veröffentlichungen zum Thema als auch Befragungen von einigen ausgewählten innovativen wissenschaftlichen und öffentlichen Bibliotheken aus dem deutschsprachigen Raum. Alle an der Befragung teilgenommenen Bibliotheken weisen einen hohen Automatisierungsgrad auf und nutzen bereits ein oder mehrere Module der RFID-Technologie. Da die Verfasserin wegen dem begrenzten Zeitrahmen des Projektes nur einige ausgewählte Bibliotheken zum Thema befragen konnte, können die Gesamtergebnisse der Studie nicht für alle Bibliotheken als repräsentativ gelten und können im Einzelfall, abhängig vom Bibliothekstyp, Bibliotheksgröße, Unterhaltsträger und der Region unterschiedlich ausfallen. Im vorliegenden Projektbericht werden gesellschaftliche Rahmenbedienungen, Ursachen und Beweggründe für Automatisierung der Arbeitsabläufe erläutert sowie einige wesentlichen Rationalisierungsarten der letzten Jahre aufgezeichnet. Außerdem werden Arbeitsbereiche aufgeführt, in denen die Rationalisierungsprozesse stattfinden. Aufgrund des Faktenmaterials werden Vorteile und Nachteile der Automatisierungsprozesse analysiert. Während Verbesserung und Ausweitung von bibliothekarischen Dienstleistungen sowie Entlastung der Mitarbeiter von Routinearbeiten einen Mehrwert der Automatisierungsprozesse darstellen, gehören Stelleneinsparungen eher zu negativen Auswirkungen. Gleichzeitig steigt der Bedarf an hochqualifiziertem Personal, da viele Arbeitsvorgänge an Komplexität zunehmen. Im weiteren Verlauf untersucht die Studie veränderte Anforderungen an das Personalmanagement im Zusammenhang mit Automatisierungs- und Rationalisierungsprozessen. Einige wichtige Managementaufgaben werden gesondert behandelt, darunter Zielsetzung und Zielvereinbarung, Methoden der Mitarbeiterführung, darunter Mitarbeitermotivation sowie Personalentwicklungsplanung. Untersucht werden weiterhin einige personalpolitische Aspekte im Zusammenhang mit der RIFD-Technologie, darunter Methoden und Beispiele der Berechnung des Einsparpotentials, Möglichkeiten und Perspektiven der Neuverteilung der freiwerdenden Ressourcen und Neueingruppierung von Mitarbeitern. Insgesamt ist das Thema noch wenig erforscht und bedarf weiterer Untersuchungen. Zum Schluss versucht die Verfasserin die These zu vertreten, dass man die rationalisierende Wirkung neuer Technologien und Automatisierungsprozesse nicht ausschließlich zu Personaleinsparungen verwendet soll, sondern zum weiteren Ausbau von bibliothekarischen Dienstleistungen. ;-;http://eprints.rclis.org/19440/;-;- 3b30141e372674a170fa41ee2cdc4c0a;de;;;3.4.;;; Kompetenzprofil von Information Professionals in Unternehmen Zielsetzung — Information Professionals sind in Unternehmen für den professionellen und strategischen Umgang mit Informationen verantwortlich. Da es keine allgemeingültige Definition für diese Berufsgruppe gibt, wird in der vorliegenden Arbeit eine Begriffsbestimmung unternommen. Methode — Mit Hilfe dreier Methoden – einer Auswertung von relevanter Fachliteratur, der Untersuchung von einschlägigen Stellenausschreibungen und dem Führen von Experteninterviews – wird ein Kompetenzprofil für Information Professionals erstellt. Ergebnisse — Die 16 wichtigsten Kompetenzen in den Bereichen Fach-, Methoden-, Sozial- und persönliche Kompetenzen sind IT-Kenntnisse, Sprachkenntnisse, Quellenkenntnisse, Recherchekenntnisse, Projektmanagement, Darstellungskompetenz, Problemlösungskompetenz, selbständiges Arbeiten, Kommunikationsfähigkeit, Teamfähigkeit, Servicementalität, Interkulturelle Kompetenz, Analytische Fähigkeiten, Eigenmarketing, Veränderungsbereitschaft und Stressresistenz. Schlussfolgerung — Die Kompetenzen geben eine Orientierung über vorhandene Fähigkeiten dieser Berufsgruppe für Personalfachleute, Vorgesetzte und Information Professionals selbst. Ein Kompetenzrad kann als Visualisierung dienen.;-;http://eprints.rclis.org/29414/;-;- 0aae39b49484353e5c39319fe812faf9;de;;;3.4.;;; Ein Weblog als Informations- und Kommunikationsinstrument an der Universitätsbibliothek der Medizinischen Universität Wien : 1 Jahr UBMUW-INFO Seit Juni 2006 betreibt die Universitätsbibliothek der Medizinischen Universität Wien ein Weblog, das im Zuge einer Neugestaltung der Bibliotheks-Website als zentrales Element der Information und Kommunikation implementiert wurde. UbMUW-INFO wird auf der Basis der Open Source-Software WordPress erstellt. Im Beitrag werden allgemeine Aspekte des Einsatzes von Weblogs besprochen. In weiterer Folge werden am Beispiel der Universitätsbibliothek der Medizinischen Universität Wien die Einsatzmöglichkeiten an einer wissenschaftlichen Bibliothek dargestellt. Abschließend folgen, aufbauend auf die Erfahrungen von mittlerweile ca. 200 Meldungen, ein Resümee über ein Jahr Weblog-Einsatz sowie eine Vorschau auf die nächsten geplanten Entwicklungsschritte für das Weblog der Universitätsbibliothek der Medizinischen Universität Wien.;-;http://eprints.rclis.org/10808/;-;- f49a73d6220e57008e0f979e9c6101b7;de;;;3.4.;;; Gefällt mir? Follow? +1? – Soziale Netzwerke und Bibliotheken Social Networks haben sich in den letzten Jahren zu einem festen Bestandteil der Onlinewelt entwickelt und gehören gerade bei der jungen Generation inzwischen zum Alltag (96% der (dt.) 14-29-Jährigen sind in einem sozialen Netzwerk registriert). Dies eröffnet auch den Bibliotheken neue Wege, mit ihren Nutzer/innen zu interagieren, sie in einer neuen Art miteinzubinden und ihnen die Angebote der Bibliothek auf modernen Kommunikationskanälen näher zu bringen. Aber welche Möglichkeiten hat man als Bibliothek in einer oft Trends unterworfenen, sich schnell wandelnden digitalen Umgebung? Wie kommuniziert man zielgruppengerecht und welche Ressourcen braucht man zur Betreuung der Seiten und zur Pflege einer Community? Bedarf es einer breit angelegten Social-Media-Strategie und kompetenten Fachpersonals, oder genügt es, eine Facebookseite anzulegen und dort auf Veranstaltungen und Medientipps hinzuweisen? Das Referat soll anhand von konkreten Beispielen einen Einblick geben in bestehende Auftritte von Bibliotheken und von den bisherigen Erfahrungen berichten.;-;http://eprints.rclis.org/23148/;-;- 81a35726aad57b877f42a2a7f21f17f0;de;;;3.4.;;; Tanz der Bücher: Weltrekord im Buchdomino aufgestellt von der Bibliothek der Universität Sankt Gallen (HSG): Edeltraud Haas, Leiterin der Bibliothek, im Interview mit Bruno Bauer Edeltraud Haas, Leiterin der Bibliothek der Universität Sankt Gallen, beantwortet Fragen, wie die Idee vom Weltrekord im Buchdomino entstanden ist und welchen Aufwand deren Umsetzung bedeutet hat. Angesprochen werden auch das mediale Aufsehen sowie die Highlights dieser Aktion.;-;http://eprints.rclis.org/24438/;-;- 98645315dd4836ab401e587b712d63ba;de;;;7.2.;;;Digitale Bibliotheken Im 21. Jahrhundert werden digitale Bibliotheken einen enormen positiven Einfluss auf die Bildung haben, da die gemeinsame Nutzung von Lernressourcen zunimmt und nicht nur den Fernunterricht, sondern auch das Lernen auf dem Campus und unabhängiges entdeckendes Lernen unterstützt. Qualitativ hochwertige Ressourcen aller Art werden von verschiedenen Autorengruppen direkt in digitale Bibliotheken eingebracht, einschließlich durch offene Archive, was zu einer enormen Zunahme der Nutzung reichhaltiger Multimedia-Werke führt. Zwei Fallstudien aus der Informatikdisziplin und von Institutionen, die an elektronischen Abschlussarbeiten und Dissertationen interessiert sind, veranschaulichen das 5S-Framework (Erleichterung des Verständnisses durch die Verwendung der Abstraktionen von Gesellschaften, Szenarien, Räumen, Strukturen und Strömen) und andere Schlüsselkonzepte. Ebenso das spannende Seed-Projekt der US-amerikanischen National Science Foundation zur Leitung der Entwicklung einer National Science, Mathematics, Engineering, and Technology Digital Library (NSDL). Während umfangreiche Forschungsarbeiten darauf abzielen, die unzähligen Probleme zu lösen, und Evaluierungsstudien den erwarteten Nutzen nicht definitiv gezeigt haben, sind vorläufige Ergebnisse zu einem verbesserten Zugang und einer erweiterten Nutzung interaktiverer Materialien vielversprechend.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-07682-8_39 3ee0047e822b9c749075f239b6d46375;de;;;7.1.;;;Entwurf von Datenbanken für geografische Informationssysteme: Erfahrungen der niederländischen nationalen Raumplanungsbehörde Bei der niederländischen Nationalen Raumordnungsbehörde (RPD) wird die GIS-Technologie seit Anfang der 80er Jahre verwendet und immer mehr in die tägliche Arbeitspraxis integriert. Was als ausgefallenes Werkzeug einer Reihe von Spezialisten begann, wird heute im gesamten RPD verwendet. Eine der politischen Prämissen, wie sie im Informationsplan 1989–1993 formuliert wurde, ist, dass jedem Forscher und Planer auf Wunsch der Zugang zum „Geographischen Informationssystem“ ermöglicht werden soll. In diesem Kapitel liegt der Schwerpunkt auf dem Datenbankdesign und der Entwicklung von GIS beim Amt für Raumordnung im Lichte der aktuellen Trends.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1677-2_5 d495e372374c44721c561bc4533e1fb5;de;;;7.1.;;;Strategie für Informationssysteme Der Beitrag stellt den aktuellen Stand der IS-Strategieforschung dar mit dem Ziel, Forschungsbedarfe sowie geeignete Wege zur zukünftigen Untersuchung der IS-Strategie zu identifizieren. Dazu stellt der Beitrag die Ergebnisse einer umfangreichen Analyse der wissenschaftlichen Literatur zur IS-Strategie vor. Darüber hinaus beleuchtet es die aktuelle Praxis, die in Fallstudienforschung und durch eingehende Interviews mit IS-Strategieexperten aufgedeckt wurde. Ein Vergleich zeigt, dass die in der Praxis vorherrschenden und traditionell in der wissenschaftlichen Debatte um die IS-Strategie thematisierten Fragestellungen oft sehr unterschiedlich sind. Ein auffälliger Versuch, dies zu füllen, ist das sogenannte „Strategizing“-Framework von Robert Galliers. Dieser Rahmen, der in der aktuellen wissenschaftlichen Debatte zunehmend Beachtung findet, fordert einen Practice Turn in der IS-Strategieforschung, indem er Strategie als etwas behandelt, was Menschen, genauer gesagt IS-Strategen, tun. Darüber hinaus soll der Rahmen durch die Identifizierung der Herausforderungen und Probleme, mit denen IS-Strategen konfrontiert sind, die neuen Planungsbedingungen, die oft als Merkmale des Informationszeitalters angesehen werden, besser widerspiegeln. Das Framework unterscheidet drei allgemeine Problembereiche der IS-Strategie: Exploration, Exploitation sowie Implementierung und Change Management.;-;-;-;https://link.springer.com/article/10.1007/s12599-013-0279-z 8ead4c8720ba7534650ad738444d2715;de;;;7.1.;;;Systembeschaffung und Informationsverarbeitungsfähigkeit in Lieferketten: eine Studie kleiner Lieferanten Obwohl die Einführung interorganisationaler Systeme (IOS) in der vorhandenen Literatur ausführlich untersucht wurde, wurde in der Forschung relativ wenig Aufmerksamkeit darauf gelegt, wie kleine Unternehmen in Lieferketten von ihren größeren Partnern bei ihren Systembeschaffungsentscheidungen beeinflusst werden. In dieser Studie untersuchen wir, wie kleine Lieferanten ihre Systembeschaffungsansätze wählen können, um ihre Großkunden in Lieferketten besser zu bedienen und mit ihnen zusammenzuarbeiten. Unsere empirischen Ergebnisse deuten darauf hin, dass die Anforderungen an die Informationsverarbeitung und die Anforderungen an die Zusammenarbeit kleine Lieferanten dazu veranlassen, mehr kommerzielle Standardsoftwarepakete (d. Darüber hinaus stellen wir fest, dass kleine Lieferanten eine solche externe Beschaffung nutzen, um die Systemeffektivität zu erreichen und ihre Informationsverarbeitungsfähigkeiten zu verbessern. Die Ergebnisse dieser Studie generieren wichtige theoretische und betriebswirtschaftliche Implikationen für die Einführung von IOS und die Informationsverarbeitung in Unternehmen.;-;-;-;https://link.springer.com/article/10.1007/s10799-016-0255-7 e006411cbf19a27d1cd93e5034034f36;de;;;7.1.;;;Design von Unternehmensinformationssystemen: Wurzeln, Natur und neue Ansätze Als wissenschaftliche und professionelle Disziplin hat das Design von Enterprise-Systemen eine beeindruckende Entwicklung durchgemacht. Heute hat es sich mit klar definierten Phasen, Aufgaben und Methoden zu einer etablierten Praxis entwickelt. Unternehmen werden jedoch durch eine zunehmende Komplexität ihrer Abläufe, von außen auferlegte Unsicherheiten und sogar unvorhersehbare Ereignisse herausgefordert. Dynamische globale Operationen erfordern schnelle und effektive Reaktionen auf Veränderungen. Als Konsequenz sind Unternehmen gefordert, neue Wege zu gehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28827-2_1 49f985dfc3a666cdb9170c719d5bd53c;de;;;7.1.;;;Instandhaltung Enterprise Resource Planning: Informationswert zwischen den Elementen der Lieferkette Maintenance Supply Chain (MSC) umfasst Instandhaltungs-, Reparatur- und Überholungsorganisationen (MRO) und die Beziehungen innerhalb und zwischen Lieferanten und Kunden. Diese Organisationen arbeiten mit der Wahrscheinlichkeit von Geräteausfällen, Wartung und Benutzeranforderungen von Ersatzteilen. All diese Elemente erhöhen die Unsicherheit in diesem Umfeld. Außerdem ist es schwierig, Informationen zu integrieren und zu verarbeiten, um eine gute Bestandskontrolle aufrechtzuerhalten. Diese hohe Unsicherheit und mangelnde Integration von Informationen führen zu Überschüssen und Engpässen bei den Ersatzteilbeständen. Diese Forschung schlägt ein neues Modell vor, das auf Informationsverarbeitungstheorien basiert, um die seitlichen Elemente der Lieferkette zu verbinden, vertikale Informationen zu erhöhen und das MSC in ein System umzuwandeln, um Engpässe und Überbestände an Lagerbeständen zu verringern. Diese Forschung beinhaltet eine Simulation, um das neue Modell mit traditionellen Modellen der Bestandskontrolle zu vergleichen. Diese Studie behauptet, dass bei Verwendung des neuen Modells mit unterschiedlichen Wartungsanforderungen die Lagerkosten niedriger sind als bei herkömmlichen Modellen der Lagerbestandskontrolle. Die Forschung verwendet die Informationsverarbeitungstheorie als Rahmen, um die Unsicherheit zu verringern und folglich Überschüsse und Knappheiten an Ersatzteilen in MSC zu verringern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12856-6_3 ef695ff37a52fd02a5a955f49e177d40;de;;;7.1.;;;Das Wesen und die Rolle generativer systemischer Metaphern in der Planung und Entwicklung von Informationssystemen Generative Metaphern haben die Fähigkeit, die Diskurse und Methoden, die mit der Planung und Entwicklung von Informationssystemen verbunden sind, zu untermauern. Hier werden eine Reihe systemischer Metaphern beschrieben. Diese reichen von traditionellen tragfähigen Systemmodellen bis hin zu Modellen, die einer Vielzahl von Interessen und Beziehungen Rechnung tragen und Gegenseitigkeit und Kollektivität sowie Herrschaft und Konflikt umfassen. Die Rolle solcher Metaphern bei der Entwicklung von Informationssystemen und ihre Beziehung zum menschlichen Verhalten innerhalb von Organisationen, in diesem Fall des Gesundheitswesens, werden anhand einer Fallstudie untersucht. Der Beitrag spekuliert darüber, wie systemische Metaphern eine integrierte Entwicklung unterstützen können, deren Ziel es ist, gleichzeitig technologischen und menschlichen Wandel herbeizuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35634-1_16 ca6dbd7b0dea3ea19ebb6519c404c274;de;;;7.1.;;;Die historischen und konzeptionellen Kontexte zum Verständnis von Matrixstrukturen Dieses Kapitel bietet eine kurze Geschichte des Organisationsdesigns im Allgemeinen und der Matrixstrukturen im Besonderen. Außerdem wird der konzeptionelle Rahmen vorgestellt und beschrieben, der im gesamten Buch verwendet wird, um das Koordinationspotenzial verschiedener Arten von Struktur- und Organisationsdesigns zu bewerten. Es wird als „Informationsverarbeitungsansatz“ zur Organisationsgestaltung bezeichnet (Galbraith,;-;-;-;https://link.springer.com/chapter/10.1057/978-1-137-57975-1_2 b0679eb5d80820c443db9616de1fb816;de;;;7.1.;;;Stadtplanung mit der kombinierten Methode von Perception-Driven Joint Learning Approach (PeDJoLA) und Geographischen Informationssystemen (GIS) Modell zur Katastrophenvorsorge Dieses Papier zielt auf das Katastrophenrisikomanagement in der Stadtverwaltung ab. Die kombinierte Methode von Perception-Driven Joint Learning Approach (PeDJoLA) und Geographic Information Systems (GIS) modelliert und wurde für das Katastrophenrisikomanagement in städtischen Behörden entwickelt. Das PeDJoLA-Modell diente als Grundlage, um die Katastrophenanfälligkeit bestehender Siedlungen zu untersuchen und Gebiete für neue Siedlungen in Städten zu identifizieren. Diese Methode umfasst sechs Hauptelemente des Entwicklungsprozesses der Risikomanagementkapazität, des dynamischen Prozesses, der auf der Wahrnehmung der Städte basiert und das Verständnis und die Bewertung von Geoinformationen beeinflusst. Die Verwendung des GIS-Modells ist nur als zusätzliches Werkzeug, damit Daten und detailliert. Tatsächlich erfordern Katastrophenrisikomanagement-Aktivitäten sehr hohe Kosten. Die Messung des Kompetenzniveaus der Kommunen insbesondere in Bezug auf das Katastrophenrisikomanagement sollte weiterentwickelt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-68486-4_11 6bb7141b648734d88a6c445b2045abf2;de;;;7.1.;;;Informationsplanung in einer Welt im Wandel Lassen Sie mich mit einer paradoxen Beobachtung der 1970er und 80er Jahre vorstellen, was ich als eine der größten Herausforderungen der 1990er Jahre für Führungskräfte sowohl in privaten als auch in öffentlichen Organisationen halte. Einerseits können die letzten Jahrzehnte als eine Zeit des sich beschleunigenden technologischen Fortschritts bezeichnet werden. Insbesondere die Informationstechnologie (IT) – die grundlegende, allgegenwärtige Innovation des dritten Quartals dieses Jahrhunderts – hat ziemlich spektakuläre Fortschritte gemacht und bietet beispiellose Möglichkeiten zur Steigerung der Produktivität sowohl im privaten als auch im öffentlichen Sektor und folglich auch zur Steigerung der Makro -Wirtschaftswachstumsraten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-11144-2_3 e1ae5adc83ade232c5d8b553f8b8aee9;de;;;7.1.;;;Wirtschaftsinformatik Die grundlegenden Fragen, die wir in diesem Buch beantworten werden, lauten wie folgt: Was sind die wichtigsten Informationssysteme, die ein Unternehmen heute benötigt, was leisten diese Systeme und wie können sie effektiv eingesetzt werden?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31573-2_1 5137484fdc3bdc8d587ac71a8fb8b8d0;de;;;7.1.;;;Ontologieentwicklung und -optimierung für die Datenintegration und Entscheidungsfindung im Produktdesign und Obsoleszenzmanagement Die Produktentwicklung auf dem heutigen globalen Markt steht vielen Herausforderungen und Belastungen gegenüber. Die Reduzierung der Entwicklungszeit, die Steigerung von Qualität und Wert sowie die Reduzierung der Kostenfolgen während des gesamten Lebenszyklus sind von entscheidender Bedeutung. Strategien für den Umgang mit sich schnell ändernden Technologien sind auch für die Produktentwicklung sehr reale und wichtige Themen. Insbesondere bei langlebigen komplexen Produkten und Systemen mit geringen Stückzahlen, wie sie in Militär- und Avionikanwendungen verwendet werden, haben schnelle technologische Fortschritte zu einer Eskalation der Zeit- und Kostenherausforderungen geführt, da die Hersteller sich bemühen, mit den durch die Überalterung einhergehenden Veränderungen Schritt zu halten von Komponenten, die in solchen Systemen enthalten sind. Während einige computerbasierte Tools entwickelt wurden, um das Produktdesign und das Management von Obsoleszenz zu unterstützen, wurden die Vorteile durch Probleme im Zusammenhang mit der Integration heterogener Quellen verteilter Informationen und Wissen begrenzt. Datenkonflikte, Datenunklarheit, Unvollständigkeit, Inkonsistenz und fehlender Informations- und Wissensbedarf für Entscheidungen im Zusammenhang mit dem Management von Obsoleszenz und Produktdesign bestehen weiterhin. Ontologie-basierte Methoden haben in den letzten Jahren neue und vielversprechende Ansätze präsentiert, um Wissen im Ingenieurwesen zu verwalten, mehrere Datenressourcen zu integrieren und die Berücksichtigung komplexer Zusammenhänge zwischen Konzepten und Eigenschaften für die Entscheidungsfindung zu erleichtern. In diesem Kapitel werden die manuelle und automatische Ontologieentwicklung und -pflege vorgestellt und Ontologien können optimiert werden, indem potenzielle Beziehungen zwischen verteilten Ontologien identifiziert werden. Details zu einem ontologiebasierten Informationssystem zur Datenintegration und Entscheidungsunterstützung werden ebenfalls erläutert. Fallstudien werden vorgestellt, um die Nutzung der Ontologie mit den vorgeschlagenen Ansätzen zur Realisierung eines effizienten Produktdesigns und Obsoleszenzmanagements zu veranschaulichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-15326-1_4 58553245dde3783891cd91f14dfe6279;de;;;7.1.;;;Produktionsplanungs- und Steuerungsinformationssystem für die Engineering- und Auftragsfertigungsumgebung. Ein virtueller Unternehmensansatz Die Engineering- und Auftragsfertigung (E&M-T-O) weist einige Bedienmerkmale auf, die ein äußerst komplexes projektbezogenes Produktionsplanungs- und Steuerungssystem (PPS) prägen. Diese Komplexität führt zu einem sehr geringen Computerisierungsgrad und einem Fehlen eines angemessenen expliziten Informationssystems. Unsere Recherche skizziert das Zukunftsszenario, an dem kurzfristig alle Unternehmen beteiligt sein können, die an großen Engineering-Projekten beteiligt sind. Das Szenario ist unter Berücksichtigung der Parallelität zwischen dem für ein Engineering-Projekt gebildeten unternehmensübergreifenden Konsortium und dem aktuellen Paradigma des virtuellen Unternehmens aufgebaut. Dann wird ein verteiltes und offenes PPS-Informationssystem für die E&M-T-O-Umgebung vorgeschlagen, das sich vor allem durch die Fähigkeit zur Integration aller an der Lieferkette beteiligten Unternehmen auszeichnet.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35399-9_32 8202e980a1e66a2b3735cfce2bcb2c82;de;;;7.2.;;;Ein neuer Ansatz zum Clustering von Datensätzen in Information Retrieval-Systemen Diese Arbeit führt einen neuen Ansatz zum Clustering von Datensätzen ein, bei dem ein Hybridalgorithmus präsentiert wird, um Datensätze basierend auf Schwellenwerten und den Abfragemustern, die an eine bestimmte Datenbank gesendet werden, zu clustern. Die Hamming-Distanz einer Datei wird als Maß für die Raumdichte verwendet. Das Ziel des Algorithmus besteht darin, die Hamming-Distanz der Datei zu minimieren, während den am häufigsten gestellten Abfragen Bedeutung beigemessen wird. Durchgeführte Simulationsexperimente haben gezeigt, dass sich nach der Restrukturierung einer Datei eine starke Verkürzung der Antwortzeit ergibt. Wir untersuchen die Eigenschaften der Speicherdichte einer Datei und wie sie sich auf die Abrufzeit vor und nach dem Clustern auswirkt, um die Dateileistung vorherzusagen und geeignete Parameter zu wählen. Kriterien wie Blockgröße, Schwellenwert, Prozentsatz von Datensätzen, die einen bestimmten Satz von Abfragen erfüllen usw., die die Clusterbildung und die Antwortzeit beeinflussen, werden ebenfalls untersucht.;-;-;-;https://link.springer.com/article/10.1023/A%3A1009901830009 34099debbd347f174976a21776a2674e;de;;;7.1.;;;Konzeptionelle Gestaltung von Informationssystemen basierend auf Enterprise Modeling Viele Unternehmen stehen vor dem Problem, ihre Geschäftsprozesse optimieren zu müssen. Insbesondere in den der Fertigung vorgelagerten Planungsbereichen wie Vertrieb, Konstruktion / Entwicklung und Planung ist ein konsequentes Business Reengineering erforderlich, das eine effiziente und kundenorientierte Produktentwicklung ermöglicht. Aktuell müssen neu entwickelte Geschäftsprozesse an die Funktionalität von Standardsoftware angepasst werden, um eine gute Abstimmung zwischen den Prozessen innerhalb eines Unternehmens und geeigneter Software, die diese Prozesse unterstützt, zu erreichen. Enterprise Modeling ist ein vielversprechendes Instrument zur Betonung technischer Prozessanforderungen. Es kann als Lastenheft für die Konzeption, Auswahl und Konfiguration von Informationssystemen verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34983-1_8 66a9a02dd5102a845be6b0f8128d3e12;de;;;7.1.;;;Argumentieren für die Projektdefinition für Informationssysteme In diesem Papier geht es um die Projektdefinition. Die Autoren befürchten, dass die Untersuchungsmethode, die Argumentation, im Hinblick darauf, wie sie zur Kritik an Versuchen zur Definition von Projekten eingesetzt werden kann, nicht vollständig gewürdigt wird. Daher wird in diesem Papier argumentiert, dass Argumentation nützlich ist, um Projektdefinitionen zu kritisieren. Die zur Stützung dieses Arguments vorgelegten Beweise umfassen Definitionen und Beschreibungen der Attribute sowohl der Projektdefinition als auch der Argumentation und versuchen dann, die Art und Weise zu formalisieren, wie Argumentation auf die Projektdefinition angewendet wird, und stützt sich dabei auf die jüngsten Erfahrungen der Autoren mit der Verhandlung von 14 Sechsmonatsinformationen Systems (IS) Projektdefinitionen mit unerfahrenen Beratern. Die Platzbeschränkungen erlauben es uns, nur auf eine davon näher einzugehen. Die Annahme des vorgelegten Arguments hat die Implikationen, diesen strukturierten Diskursansatz zur Kritik von IS-Projektdefinitionen stärker zu überdenken.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35634-1_15 7fd9815a6722226c954257616a8a37fa;de;;;7.1.;;;Wie Informationssysteme das Management der Lieferkette in einem Schwellenland wie Brasilien unterstützen Die IT spielt eine wichtige Rolle für die Leistungsfähigkeit von Unternehmen, stellt einen Informationsfluss bereit, der die Lieferkette robuster und widerstandsfähiger macht, ohne die Effizienz zu beeinträchtigen. Die meisten Unternehmen setzen IT-Systeme, hauptsächlich im Supply Chain Management (Supply Chain Management - SCM) ein, um ihre Leistung in wettbewerbsorientierten globalen Märkten zu verbessern. Die Forschung ist wichtig, weil sie eine Studie über die IT-Systeme liefern wird, die zur Verwaltung der Lieferkette verwendet werden, und über wahrscheinliche zukünftige Trends. Um das Ziel dieser Arbeit zu erreichen, wurde eine Befragung von Beratern und Fachleuten aus den Bereichen IT und Supply Chain, die in großen Unternehmen tätig sind, durchgeführt. Um die für die Analyse erforderlichen Daten zu sammeln, haben wir die explorative Forschung qualitativer Natur verwendet. Daraus lässt sich schließen, dass sich der Einsatz von IT in der Lieferkette direkt auf die Bereiche Planung, Fertigung, Lieferanten, Kunden und Lieferung auswirkt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44739-0_17 44325dd8ebc18bacf9329be89666f9f4;de;;;7.1.;;;Eine Studie zum Wissensmanagement in Unternehmensinformationssystemen Wissen wird als unsichtbarer Vermögenswert eines Unternehmens betrachtet. Um in der heutigen hart umkämpften und ständig expandierenden Weltwirtschaft zu überleben, ist ein effizientes Management des Unternehmenswissens erforderlich. Steigende Anforderungen an erweiterte Unternehmen haben die Integration von Knowledge Management (KM)-Funktionen in ERP-Systeme für das Knowledge Asset Management angeregt. Bisher werden seit den 1990er Jahren Unternehmensinformationssysteme wie ERP-Systeme entwickelt und implementiert, um hauptsächlich physische Vermögenswerte eines Unternehmens zu verwalten. Aufgrund der Tatsache, dass beide Arten von Vermögenswerten richtig verwaltet werden müssen, wird die Integration von KM und ERP zu einer strategischen Initiative, um Unternehmen Wettbewerbsvorteile zu verschaffen. In diesem Papier wird die gleichzeitige Bereitstellung von KM und ERP im Rahmen von Unternehmensinformationssystemen mit einer Diskussion der Interaktion von KM- und ERP-Systemen aus Systemperspektive diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-34456-X_63 e5b23efc2157d09841d35f30ac847208;de;;;7.1.;;;Informationsmanagement in Gesundheitsorganisationen In diesem Kapitel werden die Informationsanforderungen in Gesundheitseinrichtungen erörtert. Als solches verbindet dieses Kapitel Inhalte aus früheren Abschnitten dieses Lehrbuchs, in denen der Informationsbedarf einzelner Anbieter oder Patienten erörtert wurde, mit Inhalten aus anderen Abschnitten, die sich mit dem bevölkerungsweiten Informationsmanagement befassen. In diesem Kapitel wird auch erörtert, wie sich Geschäftsstrategien und Organisationsstrukturen im Gesundheitswesen im Laufe der Zeit entwickelt haben und welche Auswirkungen diese Änderungen auf das Daten- und Informationsmanagement haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58721-5_16 4b82fcb6da0a63ecee80c2275c6611da;de;;;7.1.;;;Beziehungsanalyse zu Lebenszyklusprozessen von Informationssystemen durch KeyGraph-Algorithmen Es ist unabdingbar, eine Methode zur Bewertung der Validität des Managements von Informationssystemen bereitzustellen. Dieses Papier schlägt eine Methode vor, die die Inhalte des Managements von Informationssystemen durch Visualisierung mit KeyGraph-Algorithmen analysiert. Dann betrachten wir die Beziehungen zwischen den Inhalten jedes Prozesses in Lebenszyklusprozessen. Wir analysieren auch die Zusammenhänge zwischen den Inhalten mehrerer Prozesse in der Phase. Die Ergebnisse zeigen die Wirksamkeit unserer vorgeschlagenen Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74827-4_170 020fff7b1c051be8813dd6679c59511c;de;;;7.1.;;;Sekundäre rechtliche Informationen abrufen In diesem Kapitel werden wir uns ein viel amorpheres Rechtsmaterial ansehen, als wir es im vorherigen Kapitel gesehen haben. Dort beschäftigten wir uns eigentlich nur mit zwei Arten von Informationen – dem Fallbericht und der Gesetzgebung. In diesem Kapitel betrachten wir Sekundärmaterialien und Techniken für den Umgang mit anderen Arten von rechtlichen Informationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-3351-3_6 a2f344e8f7f219eb3caee514dce99ce9;de;;;7.1.;;;Die kritische Beziehung zwischen Risikokapitalgebern und Unternehmern: Planung, Entscheidungsfindung und Kontrolle Auf der Grundlage vorläufiger Interview- und Umfragedaten deuten Hinweise darauf hin, dass Risikokapitalgeber (VCs) weniger an ihren angeschlossenen neuen Risikounternehmen beteiligt sind, als es für das langfristige Überleben notwendig sein könnte. Als Grundlage dieser Perspektive dient das Dual-Core-Innovationsmodell, das die Notwendigkeit eines technischen und administrativen Kerns für kontinuierliche Innovation betont. In der Post-Investitionsbeziehung zwischen dem Risikokapitalgeber und dem neuen Unternehmen wird erwartet, dass das neue Unternehmen einen gut entwickelten technischen Kern hat. Die administrativen Anforderungen werden jedoch von den neuen Venture-Unternehmern oft ignoriert. Daher wird empfohlen, dass VCs entweder durch direkte Beteiligung oder durch die Rekrutierung von Schlüsselpersonal stärker in die administrative Komponente der New Venture Organisation (NVO) eingebunden werden. Während die NVO ihren Lebenszyklus durchläuft, sorgt die Hinzufügung einer administrativen Komponente zu ihrem technischen Kern für kontinuierliche Innovation, die für das langfristige Überleben und Wachstum erforderlich ist.;-;-;-;https://link.springer.com/article/10.1007/BF00400024 7bec7817445ecfe7970255d76d3a1cf8;de;;;7.1.;;;Das regionale onkologische Zentrum in Uppsala. Entwicklung, Funktionen und Informationsverarbeitung In jeder der sieben schwedischen Gesundheitsregionen mit jeweils 1–1,5 Millionen Einwohnern wird am Aufbau regionaler onkologischer Zentren gearbeitet. Diese Zentren nehmen nicht direkt aktiv an den klinischen oder planerischen Aktivitäten des Gesamtversorgungsprozesses teil, sondern fungieren als Servicefunktionen für diese Aktivitäten. Ausgehend von allgemeinen Richtlinien wurden Vorgaben für die Funktionen eines Regionalzentrums in Uppsala formuliert. Daraus wurden die Bedürfnisse nach Information und Informationsverarbeitung abgeleitet. Die Formulierung von Versorgungsprogrammen für verschiedene Arten von Tumorerkrankungen sind von grundlegender Bedeutung. Schließlich wurden Spezifikationen für ein Informationssystem gemacht, und Teile dieses Systems werden heute entwickelt und implementiert. Basis des Systems ist eine verteilte, datenbankorientierte Struktur von Registern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-93201-4_127 50f1031f6234c8ed9d4345b35e5dfa5c;de;;;7.1.;;;Aufbau und Nutzen von Planungsinformationssystemen In meiner ersten Arbeit habe ich versucht aufzuzeigen, dass Planung als Prozess verstanden werden kann, in dem problemrelevante Informationen produziert und verarbeitet werden können. Einer der Punkte war, dass die Problemformulierung mit der Problemlösung identisch ist. Daraus folgt, dass aus Sicht der Systemforscher der „zweiten Generation“ die Gestaltung eines Planungssystems gleich der Gestaltung des Planungsinformationssystems ist. Wir können uns daher darauf beschränken, die Besonderheiten von Planungsinformationssystemen zu berücksichtigen, wenn wir über Möglichkeiten zur Verbesserung der Planung sprechen wollen. Somit ist die Suche nach besseren Planungssystemen identisch mit dem Aufbau besserer Planungsinformationssysteme. Lassen Sie mich die Gründe dafür durchgehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-7651-1_5 a69c96f1a3cba2501e5b98094d554708;de;;;7.1.;;;Führungs- und Managementstil Das Institut für Angewandte Informatik in Odense, Dänemark, ist eine kleine forschungsorientierte Organisation im Science Park. Seine Hauptaktivitäten beziehen sich auf hochtechnologische Anwendungen der Informatik in verschiedenen Organisationen und Projekten. Es war an Technologietransferprojekten für eine Reihe europäischer Unternehmen beteiligt. Die Grundidee ist, dass die Angewandte Informatik Ideen aus Forschungslabors in die Praxis überführt. Es richtet sich insbesondere an Unternehmen mit einem relativ geringen Forschungs- und Entwicklungsbudget, die kein Personal haben, das den Transfer durchführen kann. Für diese Unternehmen ist ein Technologietransferprojekt ein seltenes Ereignis. Die Aktivitäten werden typischerweise im Rahmen nationaler Forschungsprogramme und FuE-Programme der Europäischen Union (EU) wie ESPRIT, BRITE/EURAM, SPRINT und COMETT durchgeführt. Das Institut für Angewandte Informatik ist eine kleine Organisation mit derzeit 17 hochqualifizierten Mitarbeitern. Es wurde 1986 auf Wunsch der lokalen Industrie gegründet, die den Wissenstransfer von der Universität Odense (heute Süddänische Universität) und einer technischen Hochschule besser organisieren musste. Eine Gruppe lokaler Geschäftsleute und Vertreter der Universität Odense und der Fachhochschule gründeten das Unternehmen, beschafften eine kleine Menge Kapital und stellten einen Lehrer, Benny Mortensen, an der Fachhochschule ein, um das Unternehmen zu leiten. Benny Mortensen hatte gute Kontakte sowohl zur Universität als auch zu lokalen Unternehmen und verband das Unternehmen schnell mit EU-Fördermitteln. Sein Wissen und seine Begeisterung haben maßgeblich zum Erfolg des Unternehmens beigetragen. Insbesondere hat er Kooperationen mit zehn europäischen Partnern aufgebaut.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-9114-0_3 9426f9a48576e91c903bf059e088940b;de;;;7.1.;;;Überprüfung von Wissensmanagementmodellen zur Implementierung in die erweiterte Produktqualitätsplanung Ziel dieses Beitrags ist es, verschiedene Wissensmanagementmodelle (KMM) auf ihre Stärken und Schwächen zu überprüfen und ihre mögliche Umsetzung im Rahmen des Advanced Product Quality Planning (APQP)-Verfahrens zu ermitteln. Die aufgeführten KMM wurden aufgrund einer umfangreichen Literaturrecherche ausgewählt. Sie werden visuell präsentiert und basierend auf ihrer Struktur und ihren Merkmalen anhand eines vorgegebenen Kriterienkatalogs analysiert. Diese Studie bietet einen Überblick und eine kritische Diskussion der Vorzüge und Fehler einer Reihe von KMM und schlägt mögliche Verbesserungsmöglichkeiten vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12096-6_30 b4e902d16011a7f39a020a3fe4035954;de;;;7.1.;;;Unternehmensinformationssysteme für technische Großprojekte ERP-Systeme für den Fertigungssektor sind im Handel erhältlich und die Forschung zu ERP-Systemen für Fertigungsunternehmen ist jetzt weit verbreitet. Allerdings wurde der Etablierung von ERP-Systemen für große Engineering-Projekte bisher wenig Aufmerksamkeit geschenkt. Ein ERP-System für ein konkretes Engineering-Projekt ist in der Regel nicht im Handel erhältlich. In diesem Beitrag werden die Methoden und Modelle zum Aufbau eines ERP-Systems für ein groß angelegtes Engineering-Projekt mit Alleinstellungsmerkmalen aus systemtechnischer Perspektive diskutiert. Zunächst wird die Notwendigkeit zur Etablierung eines ERP-Systems analysiert, zweitens werden die Methoden und Modelle zur Entwicklung des ERP-Systems diskutiert und abschließend werden die entsprechenden Schlussfolgerungen gezogen.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-34456-X_25 d0d298e68535baf5198d70638b974014;de;;;7.1.;;;Eine Referenzarchitektur für IoT-fähige dynamische Planung in der intelligenten Logistik Steigende Kundenanforderungen und Variabilität in den heutigen Logistiknetzwerken zwingen Flottenbetreiber dazu, zuverlässiger und flexibler in ihrem Betrieb zu werden. Da moderne Flotten gut mit drahtlosen Sensor-, Verarbeitungs- und Kommunikationsgeräten ausgestattet sind, könnten Flottenbetreiber proaktiv auf dynamische Ereignisse reagieren. Die Verwendung von Echtzeit-Sensordaten zur Erzielung einer Neuoptimierung ist jedoch selten. Diese Beobachtung wirft die Frage auf, wie Logistikunternehmen die aufkommenden Track-and-Trace-Dienste in ihre dynamischen Planungsaktivitäten einbeziehen sollten. In diesem Papier schlagen wir eine Referenzarchitektur vor, die sowohl auf dem Internet der Dinge als auch auf den Smart Logistics-Paradigmen beruht und darauf abzielt, die Widerstandsfähigkeit von Logistiknetzwerken zu erhöhen. Da die Entscheidung, wann die Konfigurationen des Netzwerks neu geplant werden sollen, nicht trivial ist, schlagen wir einen hierarchischen Satz von Störungsbehandlungssystemen vor, um den Kompromiss zwischen Entscheidungsqualität und Reaktionszeit zu erleichtern. In unserem Design können autonome Logistikagenten kleine Änderungen in ihrer Umgebung schnell antizipieren, während schwerwiegendere Störungen sowohl mehr Daten als auch Rechenleistung in übergeordneten Verarbeitungsknoten erfordern (z. B. Nebel-/Cloud-Computing, maschinelles Lernen, Optimierungsalgorithmen). Wir veranschaulichen die Notwendigkeit unserer Architektur im Kontext des dynamischen Vehicle Routing Problems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-79382-1_33 a4ff4aa31a907836b1423730f36b0147;de;;;7.1.;;;Das Referenzmodell zur Kostenverteilungsoptimierung und -planung für das Wirtschaftsinformatikmanagement Das vorgeschlagene konzeptionelle Modell behandelt zwei Bereiche – Kostenverteilung und Planung für das Management der Wirtschaftsinformatik. Dieses Papier zeigt einige Einschränkungen des Modells, seine Architektur – die einzelnen Schichten des Modells, die wichtigsten Prinzipien der Kostenverteilung, auf denen das vorgeschlagene Modell basiert, und Faktoren, die bei der Entwicklung und anschließenden Implementierung des Modells berücksichtigt werden müssen. Praktische Erfahrungen mit der Implementierung von Modellen in Unternehmen werden diskutiert. Zusammenfassend gibt es mehrere Ideen für die zukünftige Entwicklung des Referenzmodells.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49944-4_19 d1cf5cec311a66bf1a2c0f6e2cc219e1;de;;;7.1.;;;Geografische Softwareanwendungen für die Gesundheitssektorplanung: Erfahrungen aus einer Studie zum Hungermanagement Der Einsatz geographischer Techniken im Gesundheitswesen ist ein Thema von zunehmendem Interesse. Zusammen mit der Möglichkeit grafischer Darstellungen, die durch neue Softwaretechniken in Computern vereinfacht werden, hat die Kartierung und die damit verbundene Interpretation numerischer Daten die Aufmerksamkeit von Gesundheitsfachleuten als nützliches Werkzeug auf sich gezogen. Der Stolperstein war jedoch das Analysepotenzial und der konkrete Nutzen, den eine solche Ehe mit sich bringen würde. Die Auflösung und Genauigkeit der im Gesundheitssektor verwendeten Daten liegt im Allgemeinen weit unter den Standards, die für die ordnungsgemäße Anwendung geographischer Instrumente erforderlich sind. Auch Terminologien und zugrundeliegende Konzepte unterscheiden sich so stark, dass interdisziplinäre Initiativen erschwert werden. Trotz dieser Hürden experimentierte das WHO Collaborating Centre for Research on Disaster Epidemiology (Brüssel, Belgien) 1987 im Rahmen einer von der Weltgesundheitsorganisation (WHO) finanzierten Studie über Informationssysteme zum Hungermanagement in Afrika mit einer spezifischen Anwendung geographischer Techniken für die Planung des Gesundheitssektors. Obwohl die Anwendung geographischer Techniken nicht das Hauptziel der Studie war, wurde das Potenzial geographischer Informationssysteme für die Festlegung von Gesundheitsprioritäten und eine optimale Planung, insbesondere in Situationen, in denen eine schnelle Reaktion erforderlich ist, als eine gewisse Investition in Forschung und Entwicklung für entsprechende Anwendungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-585-31560-7_13 92bccf3811dd5af8a5a2894592e05574;de;;;7.1.;;;Anwendung wissensbasierter Technologie in Executive Information Systems Wir haben in Kapitel 9 gezeigt, dass Executive Information Systems (EIS) als die schnell wachsende Grenze der computergestützten Informationssysteme (CBIS) für den Einsatz durch Führungskräfte den Informationsbedarf von Führungskräften besser befriedigt haben als frühere Versuche. Es bestehen jedoch noch viele Probleme. Während die meisten herkömmlichen EIS den Führungskräften einfachen Zugriff auf Geschäftsleistungsdaten bieten, sind sie bei der Unterstützung des Entscheidungsanalyseprozesses der Führungskraft nicht so hilfreich. In diesem Kapitel wird die Integration von Entscheidungsunterstützungsfähigkeiten in EIS zusammen mit ES- (Expertensystem) und KBS-Technologie (wissensbasiertes System) erörtert. Basierend auf einer Überprüfung und vergleichenden Analyse von CBIS wird das Konzept eines intelligenten Executive Support Systems (IESS) definiert und diskutiert, im Anschluss an die Analyse von Liu und Savolainen (1994). Ein konzeptioneller Rahmen für ein IESS wird vorgestellt und eine IESS-Architektur wird konstruiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-1464-9_10 8a5ee927285c9af918d99036073e9b5c;de;;;7.1.;;;Die neue Rolle von Cloud-Technologien in der Implementierungsmethodik von Management-Informationssystemen Die Wahl der richtigen Methodik für die Implementierung des Management Information Systems ist ein wichtiger Faktor für den Erfolg von IT-Projekten. Das Ziel des Papiers ist es, einen neuen Ansatz für den Aufbau und die Entwicklung von MIS-Systemen vorzuschlagen, der auf der Untersuchung der Erfolgsfaktoren der Implementierung in einem polnischen IT-Unternehmen basiert, einschließlich Blockchain-Technologien, Big Data und Cloud-Computing. Das Papier ist in sieben Kapitel gegliedert. Das erste Kapitel zeigt den Hintergrund von IT-Systemen im Kontext des Wissensmanagements in Organisationen. Das zweite Kapitel beschreibt die Rolle von MIS für das Wissensmanagement, das dritte Kapitel zeigt die aktuellen MIS-Implementierungsmethoden, das vierte Kapitel zeigt Fallstudien und Forschungsergebnisse der MIS-Implementierung in IT-Unternehmen, das fünfte Kapitel präsentiert die Simulation der vorgeschlagenen Methodik unter Verwendung von BPMN Notationsmodellierung. Das sechste Kapitel zeigt den Vorentwurf der Nutzung von Blockchain-Technologien, Big Data und Cloud Computing in der MIS-Implementierungsmethodik, und das letzte Kapitel schließt die Ergebnisse der Erkenntnisse ab und zeigt die zukünftige Forschung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63092-8_29 0f4e15b93e0288a841526dcce11a1240;de;;;7.1.;;;Interoperabilität von Enterprise Information Systems: Fokus auf PLM-Herausforderungen Heutzutage ist in der Industrie die Interoperabilität von Informationssystemen über den gesamten Produktlebenszyklus hinweg von grundlegender Bedeutung für einen erfolgreichen Ansatz des Product Lifecycle Managements. Es gibt jedoch immer noch wissenschaftliche und technologische Sperren, die die Integration von Informationen zwischen Unternehmensinformationssystemen verhindern. Insbesondere die fehlende Interoperabilität zwischen Produktdatenmanagementsystemen, Manufacturing Process Management und Enterprise Resource Planning, um einen durchgängigen und bidirektionalen Informationsfluss vom Design über die Fertigung bis hin zur Montage eines Produkts gewährleisten zu können. Dieser Beitrag präsentiert zunächst einen Literaturüberblick über Forschungsarbeiten, die entwickelt wurden, um die Probleme der Interoperabilität im Allgemeinen zu definieren und zu lösen. Anschließend werden die meisten der jüngsten Arbeiten zur Interoperabilität in der Produktentwicklung vorgestellt, die die verschiedenen Product Lifecycle Management-Tools miteinander verbinden. Schließlich schlugen wir einen Ansatz vor, um die Interoperabilität von Produktdatenmanagement-, Herstellungsprozessmanagement- und Enterprise Resource Planning-Systemen zu gewährleisten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40361-3_24 8d1b3183393dec2b474904e90cede818;de;;;7.1.;;;Verwaltungen als Instrumente zum Umgang mit organisatorischer Komplexität Das Konzept der Administration kann sowohl zur Qualität als auch zur Wartbarkeit von Informationssystemen viel beitragen. Obwohl die praktische Konnotation des Begriffs traditionell hauptsächlich im Finanzbereich liegt, bietet eine etablierte Definition der Verwaltung eine gute Grundlage für die Anwendung des Begriffs in anderen Bereichen. Es hat alle Möglichkeiten, sowohl organisatorische Verantwortlichkeiten als auch Softwarestrukturen einzuhalten. Dezentrale, kleine lokale Verwaltungen, die nahe an den Geschäftsprozessen angesiedelt sind, können sowohl zur Prozessqualität als auch zur Wartbarkeit von Informationssystemen beitragen. Es unterstützt das untere und mittlere Management bei ihren Aufgaben und kehrt den Trend zur Zentralisierung und zur Erosion der Verantwortlichkeiten der ausführenden Mitarbeiter um.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29788-5_8 449bb3624dca0a2dcdf9bb227daa044b;de;;;7.1.;;;Fortschritte auf dem Weg zu harmonisierten europäischen Informationssystemen für das industrielle Risikomanagement Es ist eine unvermeidliche Tatsache, dass viele chemische Produkte, die für die Gemeinschaft von großem Wert sind und eine wichtige Rolle in unserer Wirtschaft spielen, auch potenziell gefährlich sind oder gefährliche Zwischenprodukte produzieren. Ziel der Regulierung für die Prozessindustrie ist es, diese Gefahren zum Schutz von Mensch und Umwelt jederzeit unter Kontrolle zu halten. Dies impliziert, dass die Anlagenbetreiber ein wirksames Risikomanagementsystem unterhalten sollten.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0616-3_9 9bddd323dbdfb8b1e0cb8f336a1c7320;de;;;7.1.;;;Informationssystemplanung und Erfolg in KMU: Strateging for IS Obwohl die Strategische Informationssystemplanung (SISP) für große Unternehmen entwickelt wurde, entwickeln Familienunternehmen keine strategische Planung und unterstützen keine Geschäftsziele mit Informationssystemen (IS). Daher sind die umgesetzten Pläne nicht wirksam und erfüllen nicht die Ziele. Ziel dieses Papiers ist es, die Phasen aufzuzeigen, die zu einem größeren Erfolg beitragen, um Schlussfolgerungen für die Umsetzung dieses Prozesses in KMU zu ziehen. Die Daten wurden von IS-Führungskräften in griechischen KMU erhoben. Die Faktorenanalyse wird an den detaillierten Elementen des SISP-Prozesses und der Erfolgskonstrukte durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20485-3_31 5c94d509ca5dd3b798acefbbc70abfe8;de;;;7.1.;;;Open Innovation und die Erosion der Grenzen des traditionellen Informationssystems-Projekts Dieses Papier untersucht den Begriff der offenen Innovation und seine Auswirkungen auf das Management von Informationssystemen. Es untersucht ein Projekt zur Implementierung eines Enterprise-Resource-Planning-Systems in einer internationalen Organisation, um die Ähnlichkeit mit dem Open-Innovation-Modell aufzuklären. Die Studie zeigt, dass die Konzeptualisierung des ERP-Projekts als offene Innovation die komplexe Architektur der heutigen Organisation aufdecken könnte, von der das ERP-Projekt nicht isoliert werden kann. Es wird argumentiert, dass sich die traditionellen Grenzen von IS-Projekten auflösen und die Beziehung zwischen dem, was früher außerhalb des Projekts war, und dem, was früher innerhalb des Projekts war, zunehmend verschwimmt. Die Studie fordert eine andere Perspektive des Projektmanagements, die über das Einzel- und Mehrfachprojektmanagement hinausgeht, um den offenen Raum der Innovation zu durchsuchen und aktiv nach Partnern, Konkurrenten und Mitarbeitern zu suchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-87503-3_24 79ced53a550ddb2be3849cbf4f2a95bd;de;;;7.1.;;;Auf dem Weg zur Daten-Compliance in der Impfstoffindustrie: Interoperabilität zur Abstimmung von Geschäfts- und Informationssystemen Das ultimative Ziel in der Impfstoffindustrie ist die Produktqualität. Diese Qualität kann jedoch durch den Einsatz einer Vielzahl heterogener Informationssysteme mit unterschiedlichen Geschäftsstrukturen und Konzepten entlang des Produktlebenszyklus verändert werden. Interoperabilitätskonzepte können helfen, eine gewisse Übereinstimmung und Übereinstimmung zwischen verschiedenen Produktdaten zu gewährleisten. In diesem Papier konzentrieren wir uns auf ein spezielles Compliance-Problem zwischen produktionstechnischen Daten, repräsentiert in einem ERP, und den entsprechenden regulatorischen Richtlinien und Spezifikationen, repräsentiert durch die Zulassungen (MA). Die MA beschreibt den Prozess der Impfstoffherstellung gemäß den Anforderungen von Gesundheitsorganisationen wie der Food and Drug Administration (FDA) und dem Ausschuss für Humanarzneimittel (CHMP).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77581-2_7 c4ed31cb71e04ff70ee4d13891336d9f;de;;;7.1.;;;Methoden und Softwareimplementierung der intelligenten Planung für das integrierte Expertensystemdesign Diese Arbeit konzentriert sich auf das aktuelle Problem der Entwicklung effizienter Softwarewerkzeuge zum Entwurf intelligenter Systeme, insbesondere integrierter Expertensysteme (IESs), die über leistungsstarke Funktionalität und skalierbare Architektur verfügen. Automatisierte Planungsmethoden werden eingesetzt, um die IES-Entwicklung in der Entwurfs- und Anforderungsanalysephase zu erleichtern. Allgemeine Probleme bei der Entwicklung einer modernen Software-Tool-Basis für das IES-Design werden diskutiert. In diesem Zusammenhang wird die intelligente Softwareumgebung der AT-TECHNOLOGY Workbench zur IES-Entwicklung basierend auf der problemorientierten Methodik beschrieben. Untersucht wird das Problem der Planung des IES-Prototyping-Prozesses, der die Grundlage für die Implementierung der Basiskomponenten der intelligenten Softwareumgebung (intelligenter Planer und technologische Wissensbasis) bildet. Es wird ein Automatisierungsverfahren vorgeschlagen, das auf einer heuristischen Suche basiert. Der Einsatz der intelligenten Softwareumgebung wird anhand der Entwicklung eines dynamischen IES-Prototyps zur Steuerung und Planung medizinischer Ressourcen bei schweren Verkehrsunfällen veranschaulicht.;-;-;-;https://link.springer.com/article/10.3103/S0147688219060091 deadf3e87674a52e79488d746c15a4ee;de;;;7.1.;;;Ein Rahmen zur Optimierung der Produktionsplanung in der Impfstoffindustrie In der Literatur werden Arbeiten zur Optimierung der Produktionsplanung von mathematischen Forschungen weithin angegangen, um mehr Daten und Einschränkungen zu integrieren, um zuverlässigere Pläne zu liefern. Im speziellen Kontext der Impfstoffindustrie ist das Impfstoffprodukt eine molekulare Substanz mit vielfältigen Definitionen und Präsentationen, die eine enge Abstimmung vieler Akteure im Unternehmen erfordern. Wenn es schwierig ist, den Planungsprozess durch eine Optimierungslösung zu unterstützen, besteht unser Beitrag in diesem Papier darin, ein Produktionsplanungs-Framework vorzuschlagen, um einige Datenintegrationsprobleme nach verschiedenen Planungsebenen zu strukturieren. Mit der Übereinstimmung eines besseren Datenmanagements zwischen den Produktionsplanungsprozessen möchten wir einige Best Practices ablehnen, um stabilere und zuverlässigere Pläne bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-74157-4_24 bc9a0648cb8b9dccfbe5c7718ece62b3;de;;;7.1.;;;Datenbankmanagement „Datenbank“ ist heute eine gängige Terminologie. Es bedeutet jedoch für verschiedene Menschen unterschiedliche Dinge. Der Laie neigt dazu, den Begriff allen Daten in der Organisation zuzuschreiben, während der Fachinformatiker Datenbank technisch sieht. Dieses Kapitel entwickelt eine solche technische Sichtweise. Dennoch hat die Laiensicht einen konzeptionellen Wert, da sie die Datenbank als strukturelle Grundlage von Managementinformationssystemen begreift, Daten als Grundgestein und Rohmaterial von Informationen betont und die Bedeutung von Datenverfügbarkeit und -zuverlässigkeit anerkennt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-03631-8_6 4a9bf7ff0a747f58b46d8e7ad8760937;de;;;7.1.;;;Analyse von Informationssystemen im Hinblick auf das Management logistischer Prozesse der Lieferkette Ziel dieser Arbeit ist es, Informationssysteme zu analysieren und zu bewerten, die das Management logistischer Prozesse in den untersuchten Unternehmen und deren Lieferketten unterstützen sollen. Es präsentiert theoretische Aspekte von Informationssystemen, die beim Management von Logistikprozessen verwendet werden. Es beschreibt die Forschungsmethodik und charakterisiert die untersuchte Population. Der Beitrag präsentiert auch Ergebnisse einer Umfrage zu Informationssystemen, die im Prozess des Managements von Logistikprozessen in den analysierten Unternehmen und deren Lieferketten verwendet werden. Der Beitrag stellt aktuelle Trends in der Entwicklung integrierter Informationssysteme vor und konzentriert sich dabei auf eine effektive Koordination der Partner in logistischen Lieferketten durch die Integration von Informationen in IT-Systeme der verschiedenen Teilnehmer der Lieferketten. Ständig steigende Marktanforderungen zwingen Unternehmen dazu, schneller auf Nachfrageänderungen zu reagieren. Daher muss die Integration des Informationsflusses zwischen den verschiedenen Partnern der logistischen Lieferkette sowohl hinsichtlich des Inhalts als auch des Zeitpunkts des Informationsempfangs korrekt sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27570-3_30 ba93437c5927f67aa59c8c36699b0e55;de;;;7.1.;;;Selbstmanagement in der städtischen Verkehrssteuerung: Eine automatisierte Planungsperspektive Moderne städtische Verkehrsleitsysteme (UTC) basieren oft auf Rückkopplungsalgorithmen. Sie verwenden Straßenverkehrsdaten, die von wenigen Minuten bis zu mehreren Jahren gesammelt wurden. Aktuelle Verkehrsleitsysteme arbeiten beispielsweise häufig auf Basis adaptiver Grünphasen und flexibler Abstimmung in Straßen(teil)netzen auf Basis gemessener Verkehrsverhältnisse. Diese Ansätze sind jedoch in unvorhergesehenen Situationen, wie beispielsweise Straßenunfällen, wenn Verkehrsänderungen in einem kurzen Zeitintervall angefordert werden, immer noch nicht sehr effizient. Für solche Anomalien argumentieren wir, dass Systeme benötigt werden, die ihre Handlungen und zu erreichenden Ziele erkennen, interpretieren und überdenken können, unter Berücksichtigung kontinuierlicher Änderungen des Zustands, des erforderlichen Serviceniveaus und der Umgebungsbedingungen. Die Anforderung an solche Systeme ist, dass sie nach einer solchen Überlegung effektiv planen und handeln können, so dass sie verhaltensmäßig selbstbewusst erscheinen. Dieses Kapitel konzentriert sich auf den Entwurf einer generischen Architektur für autonome UTC, damit das Netzwerk sich sowohl im normalen als auch im normalen Modus selbst verwalten kann Betrieb und in unerwarteten Szenarien. Die Argumentations- und Selbstverwaltungsaspekte werden mit automatisierten Planungstechniken implementiert, die sowohl von der symbolischen künstlichen Intelligenz als auch von der traditionellen Steuerungstechnik inspiriert sind. Vorläufige Testergebnisse der Plangenerierungsphase der Architektur werden berücksichtigt und bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25808-9_3 71c89a1ad6d3cdcef6548887cfa110f1;de;;;7.1.;;;Architektur und Repräsentationen Das Studium von Architekturen zur Unterstützung intelligenten Verhaltens ist sicherlich das umfassendste und wohl eines der am wenigsten definierten Unternehmen in den Bereichen KI und Kognitionswissenschaft. Die grundlegende wissenschaftliche Frage, die wir beantworten möchten, lautet: „Was sind die Kompromisse zwischen den verschiedenen Arten, wie intelligente Systeme strukturiert sein könnten?“ Diese Kompromisse hängen zum großen Teil davon ab, unter welchen Aufgaben und in welcher Umgebung ein System arbeitet (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11694-0_2 bfff36077e36ad2fa8ae7093d41fb44f;de;;;7.1.;;;Globale Informationssysteme: ein Joint Venture zwischen Wirtschaft und Bildung Die wachsende Rolle von Computern und der Informationsverarbeitung in der heutigen globalen Geschäftsumgebung macht es zwingend erforderlich, dass Studenten der Wirtschaftswissenschaften die entsprechende Computerausbildung erhalten. Dieser Artikel bewertet die Rolle von Business Schools bei der Vorbereitung der Studenten auf die Herausforderungen des globalen Informationszeitalters. Es werden betriebswirtschaftliche und wissenschaftliche Perspektiven auf Computer und Informationsverarbeitung und deren Einfluss auf die Computerausbildung an der Wirtschaftshochschule vorgestellt. Die Autoren kommen zu dem Schluss, dass der allgemeine Mangel an durchsetzbaren Standards in der Computer-Business-Ausbildung ein globales Problem ist, das Unternehmen, Bildungseinrichtungen und Computerhardware- und -softwareanbieter gleichermaßen betrifft. Es werden Empfehlungen für die Globalisierung der Computerausbildung an Business Schools gegeben.;-;-;-;https://link.springer.com/article/10.1057/jit.1991.13 4dbcdbdbc4e1a205d93a8eb874d102a0;de;;;7.1.;;;Integration von Datenbank- und Hypertext-Technologien beim Design eines klinischen Informationssystems In diesem Beitrag wird eine Architektur eines klinischen Informationssystems (CIS) vorgestellt, die die Fähigkeit besitzt, verschiedene Funktionen zu integrieren, die von autonomen klinischen Strukturen ausgeführt werden. Die Grundidee ist der Einsatz hypertextueller Technologien, um ein effektives Management komplexer Objekte (medizinische Informationen) zu modellieren, die im Kontext hierarchischer Strukturen (klinische Abteilungen) interagieren. Es wird gezeigt, dass die relationalen Datenbanken eine angemessene Plattform bieten, um die vorgestellte Architektur zu implementieren und die medizinische Informationsbeschaffung zu unterstützen. Schließlich beschreibt der Beitrag eine Anwendung, die derzeit in einer großen akademischen Klinik im Einsatz ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-7555-2_91 2433e033427edbb8cbffc5a10cc2ac35;de;;;7.1.;;;CAD, CAM und GIS: Tools für Facility Management und Planung CAD-, CAM- und GIS-Systeme werden in ihrer Anwendung auf kommunale und militärische Ingenieur- und Planungsanforderungen erläutert. Beim Vergleich der Grafik- und Datenverarbeitungsfähigkeiten dieser Systeme ergeben sich Definitionen der Begriffe. Ein Plan für die Auswahl eines Systems und die Implementierung eines Programms wird skizziert. Computerbasierte Grafikgeräte, die jetzt auf dem Markt sind, bieten Planern, Ingenieuren und Facility Managern ausgereifte Werkzeuge.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2273-3_6 f6706970dcaaa6966a9a7a94ea8caf34;de;;;7.1.;;;CIM - OIS-Integration basierend auf der FMS - FOS-Analogie: Einige Aspekte Die Absicht dieses Papiers ist es, einige Aspekte eines neuen Ansatzes zur Verbesserung der Integration von Büro- und Fertigungsumgebungen in Industrieunternehmen im Hinblick auf ihre Informationsverarbeitungsanforderungen vorzustellen. Der wesentliche Schritt ist die Definition der Funktionen und Grundeigenschaften von Flexible Office Systems (FOS). FOS ist analog zu den erfolgreichen Flexible Manufacturing Systems (FMS) zu verstehen und vereint die unterschiedlichen Technologien und Methoden. Auf einer gewissen Abstraktionsebene weisen diese Systeme ähnliche Eigenschaften und ähnliche Prinzipien in der architektonischen Gestaltung auf, sodass eine Integration in höherem Maße möglich erscheint. Wir führen eine CIM-OIS-Integration auf funktionaler Ebene ein und erläutern unsere Ideen anhand eines realistischen Szenarios.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-2560-4_57 5a89f4bbe28a2c8a8bfeb4448dc5b47c;de;;;7.1.;;;Das Designkonstrukt in der Informationssystemdesignwissenschaft Dieses Papier entstand aus Bedenken hinsichtlich der aktuellen Konzeptualisierungen von „Design“ in der aufkommenden Literatur zu Design Science (DS) in Information Systems (IS). In diesem Beitrag argumentieren wir, dass die aktuellen Konzeptualisierungen von Design in der IS zu eng gefasst sind, was notwendigerweise das einschränkt, was als akzeptable DS-Forschung angesehen wird. Als Reaktion darauf entwickeln wir eine umfassendere Sicht auf Design. Die überarbeitete Sichtweise erweitert die aktuellen Perspektiven des Designs in der IS-Literatur um breitere Konzeptualisierungen von Design, die in vielen intellektuellen Gemeinschaften außerhalb des IS offensichtlich sind, in denen Design als kritischer Bestandteil sowohl der Forschung als auch der Praxis angesehen wird – wie Management, Ingenieurwesen, Architektur und andere. Neben den recht verbreiteten Konzeptualisierungen von Design als Produkt und Design als Prozess oder Handlung wird Design auch verstanden als: Intention, Planung – einschließlich Modellierung und Repräsentation, Kommunikation, User Experience, Value, professionelle Praxis und als Dienstleistung. Während die aktuelle Konzeptualisierung von Design in der IS das IS-Designwissen als auf zwei Paradigmen aufgeteilt betrachtet, nämlich DS und Verhaltenswissenschaft, plädieren wir in diesem Papier für eine breitere und stärker integrierte Sicht auf Design: eine, die sowohl die konstruktionszentrierte als auch die menschenzentrierte Aspekte des Designs in der IS. Ausgehend von unserer breiteren Sicht diskutieren wir einige der Implikationen für die designorientierte Forschung in der IS und überlegen, wie sich diese menschenzentrierte Perspektive auf den Kontext und den Inhalt der Designforschung in der IS auswirken könnte.;-;-;-;https://link.springer.com/article/10.1057/jit.2012.5 d1c41f7598ea6e2a3f507692fb584eef;de;;;7.1.;;;Verbesserungsimplementierung und Prozessmanagement Wie in Abschnitt 3.1 gezeigt, legt die jährliche strategische Planung Makroverbesserungsziele auf Unternehmens-, Funktions- und interfunktionaler Prozessebene fest. Aber durch sorgfältiges Prozessmanagement, umsichtige Positionierung von Indikatoren, Mess- und Feedbackaktivitäten, kontinuierliche Ergebnisanalysen und Vergleiche mit Wettbewerbern und anderen Referenzunternehmen und the durch Teamarbeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-1546-9_5 93a77188d57bdb3e0454d2b0c086f603;de;;;7.1.;;;Ein auf die Wiederverwendung von industriellem Wissen ausgerichtetes Enterprise Modeling Framework für Enterprise Management Information Systems Bestehende Architekturen für die Unternehmensmodellierung können keine wirksame Unterstützung beim Ausdrücken und Wiederverwenden von industriellem Wissen bieten. Die industrielle Wissenswiederverwendungsorientierte Unternehmensmodellierung für integrierte Managementinformationssysteme (MIS) sollte zwischen der allgemeinen Unternehmensmodellierung und dem konkreten Unternehmensanwendungsschema angesiedelt sein, und in diesem Papier wird ein Unternehmensmodellierungsrahmen für integriertes MIS vorgestellt, der auf die industrielle Wissenswiederverwendung ausgerichtet ist. In diesem Rahmen wurde eine neue Lebenszyklus-Dimension aufgebaut, indem die traditionelle Lebenszyklus-Dimension erweitert und der Mehrfachansichts-Mechanismus von ARIS kombiniert wurde, die Wissenswiederverwendungs-Dimension wurde eingeführt, um die Modellierung und Wiederverwendung von industriellem Wissen zu unterstützen, und die Sprache-, Methodik- und Werkzeugdimension wurde eingeführt, um auszudrücken die Sätze von Sprachen, Methoden und Werkzeugen, die bei der Konstruktion, Validierung, Pflege und Weiterentwicklung von Unternehmensmodellen verwendet werden. Schließlich wurde die Zementproduktionsindustrie als Beispiel herangezogen, um zu veranschaulichen, wie das Rahmenwerk als Leitfaden für die Wiederverwendung von industriellem Wissen eingesetzt werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75902-9_22 852d9509c5491e714bfd6522793b4ece;de;;;7.1.;;;Wandelbarkeit von Produktionsmanagementsystemen Moderne Produktionsmanagementsysteme bestehen aus Transaktionsverarbeitungssystemen und Entscheidungsverbesserungssystemen. Ein klares Beispiel für zwei solche Komponenten sind ERP-Systeme und APS-Systeme. Diese Systeme sind oft Standardsoftwaresysteme und daher für viele verschiedene Situationen geeignet. Dieser Beitrag analysiert die Kombination von ERP und APS aus der Perspektive des Wandels. Der Beitrag baut auf einer Klassifikation von ERP-APS-Integrationen und einer Analyse der Wandelbarkeit von ERP-Systemen auf. Das Papier geht auf Probleme ein, die beim Ändern von ERP-APS-Integrationen aufgetreten sind. Die wichtigste Schlussfolgerung ist, dass solche Änderungen aufgrund unterschiedlicher Technologien und unterschiedlicher verwendeter Datenmodelle technisch komplex sind. Aus diesem Grund wird auf die Aus- und Weiterbildung der Endbenutzer Wert gelegt. Darüber hinaus sind sie organisatorisch komplex, da viele Interessengruppen beteiligt sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-74157-4_21 beaec149307791ce141c593c0c3c232a;de;;;7.1.;;;Entwicklung eines praktischen Rahmens für die ERP-Projektimplementierung: Ein vorgeschlagenes Forschungsdesign Die Implementierung von Enterprise Resource Planning (ERP)-Systemen ist bekannt für Missmanagement, unerfüllte Erwartungen und sogar völliges Scheitern. Während einige Organisationen, die diese Bemühungen unternehmen, es schaffen, pünktliche Zeitpläne, intakte Budgets und Systeme zu melden, die der Organisation einen messbaren Wert bieten können, ist dies eher die Ausnahme als die Regel. Das Ziel dieses Forschungsprojekts ist die Fokussierung auf organisatorische Zuverlässigkeit. Dieses Papier wird ein vorgeschlagenes Forschungsdesign skizzieren, das es ermöglicht, den Einfluss organisatorischer Faktoren auf ERP-Projekte zu quantifizieren. Diese Faktoren werden in fünf große Kategorien eingeteilt: Risikofaktoren, Erwartungen, Ressourcen, organisatorische Kompetenz und Konsequenzen. Der Nutzen dieser Forschung ist dreifach: 1) die Bereitschaft der Organisation für die Durchführung eines ERP-Projekts zu bewerten, 2) Schwachstellen innerhalb einer Organisation zu identifizieren und 3) das Ergebnis des ERP-Projekts in Bezug auf ein gemeinsames Projekt mit Zuversicht vorherzusagen Metriken (Budget, Zeitplan, Systemfähigkeit usw.). In der Praxis würde dies ERP-Projektmanagern ermöglichen, ein umfassendes Verständnis von Projekt-Schwachstellen zu besitzen und Schwachstellen vor der Projektimplementierung zu stärken.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-34456-X_34 57298f8718447cfd5b63a20af2ed668b;de;;;7.1.;;;Der Entwurf eines hierarchischen Modells für die Produktionsplanung und -planung In diesem Beitrag wird der Entwurf eines hierarchischen Modells zur Produktionsplanung und -planung anhand einer Fallstudie aus der Praxis diskutiert. Das Gesamtentscheidungsproblem wird in vier Ebenen unterteilt: (1) aggregierte Produktionsplanung für Produktfamilien, (2) detaillierte Planung und Reihenfolge, (3) Bestimmung von Produktionsaufträgen für Artikel und (4) Verteilung und Versand. Für alle Teilprobleme werden heuristische Lösungsverfahren entwickelt. Um auf Änderungen der Eingabedaten zu reagieren, werden ein Rolling-Horizon-Verfahren auf aggregierter Ebene und eine interaktive Neuplanung auf allen unteren Ebenen vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-51693-1_12 0e7dce881e2c9cc4752c9bfb65e6db2c;de;;;7.1.;;;Architekturplanung für global vernetzte Unternehmen Ein internationaler Chemiekonzern beschließt, das Softwarepaket SAP R/3 unternehmensweit einzuführen. Von dieser Entscheidung sind acht Divisionen, 200 rechtlich selbstständige Gesellschaften und rund 150 verschiedene Länder betroffen. Die ersten Implementierungen basierten auf einzelnen Unternehmen innerhalb der Gruppe. Eine Untersuchung der globalen Lieferkette ergab jedoch einen Mangel an Konsistenz in den Kernprozessen. Diese Untersuchung machte deutlich, dass zukünftige Implementierungen konzernweit koordiniert werden müssen. Zunächst ist zu klären, welche Bedeutung die Rechtseinheiten, Bereiche und Regionen für den Konzern zukünftig haben sollen und welche Abhängigkeiten sich daraus ergeben. Aus dieser Analyse der beteiligten Geschäftsbeziehungen lassen sich dann die Integrationsanforderungen ableiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-56502-1_16 3ad667d6ac94dea4a442341cf8b16e00;de;;;7.2.;;;Komplexe Modellierungssoftwaretools zur Bewertung der Betriebsqualität von Informationssystemen (CEISOQ) Das Papier konzentriert sich auf die Beschreibung und Verwendung der einzigartigen Softwaretools CEISOQ, die die mathematischen Modelle der Informationssammlung, -speicherung, -verarbeitung und -produktion durch computerbasierte Systeme unterstützen;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45116-1_12 d1a9a9444da63dd417b25f5e8a252a96;de;;;7.1.;;;Entwerfen und erstellen Sie OLAP Business Intelligence für die nachhaltige Dorfentwicklungsplanung Der indonesische Regierungszeitraum 2014–2019 hat den Nationalen Mittelfristigen Entwicklungsplan (RPJMN) mit dem Konzept des Aufbaus Indonesiens aus dem ländlichen Raum gebilligt. Einer der RPJMN-Schwerpunkte ist die Entwicklung von ländlichen und Grenzgebieten bringt ein neues Paradigma für die Dorfentwicklung. Dieser Paradigmenwechsel der Dorfentwicklung erfordert die Unterstützung des Dorfinformationssystems. Dorfinformationssystem und ländliche Räume (SIDeKa) wurde als Pilotprojekt in Dutzenden von Dörfern in einigen Bezirken entwickelt und implementiert. Die Transaktionsdaten und Informationen im Dorf wurden mit SIDeKa genau erfasst. Diese Daten und Informationen werden in der nächsten Phase zu entscheidenden Quellen für die Entwicklungsplanung. Dieses Papier beschreibt das Design und den Aufbau von OLAP Business Intelligence für die Entwicklungsplanung in Dörfern und Übersiedlungen (Bezirk), die die Daten von SIDeKa aus allen Dörfern integriert und die Entwicklungsplanung auf die Vision, Mission und Ziele der ländlichen Entwicklung ausrichtet. Dieses Papier stellt Modell/Architektur für ETL, Sternschema und neue Maße vor, die räumliche und zeitliche Dimensionen erfassen. OLAP Business Intelligence wird für die nachhaltige Dorfentwicklungsplanung nützlich sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-59111-7_46 db22ccce15eb45e531d3a9d77bfbb7f2;de;;;7.1.;;;Ansätze zur Informationsmodellierung Ein Verständnis von Informationsflüssen und Verarbeitungsfunktionen ist für jede Entscheidungsmodellierung unerlässlich. Traditionell werden diese Informationsflüsse mit Begriffen beschrieben, die für bestimmte Entscheidungsmodellierungstechniken spezifisch sind. Im heterogenen Supply-Chain-Umfeld führt dies jedoch zu sehr unterschiedlichen und oft inkompatiblen Datendefinitionen. Daher ist ein einheitlicherer Ansatz zur Darstellung von Informationsflüssen und ihren Verarbeitungsfunktionen erforderlich. Informationsmodellierungstechniken, die seit langem für die Entwicklung von Informationssystemen verwendet werden, sind für diese Zwecke gut geeignet. Supply Chain Management ist ein Bereich, in dem die Interaktionen zwischen Decision Sciences und Information Systems Engineering am tiefsten sind. Die Umsetzung von Entscheidungen ist ohne informationstechnische Unterstützung nicht möglich, und Informationssysteme allein ohne Entscheidungskomponenten reichen nicht mehr aus, um einen Wettbewerbsvorteil zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-68155-9_7 6061e68bec8d37938658408d702e6f31;de;;;7.1.;;;Neugestaltung der Rolle von Computern in Organisationen: Der Transaktionskostenansatz Die traditionelle Rolle computergestützter Informationssysteme besteht darin, die individuelle Entscheidungsfindung zu unterstützen. Informationen sind nach diesem Modell als wertvolle Ressource für den Entscheider vor einer komplexen Aufgabe zu sehen. Eine solche Sicht auf Informationssysteme in Organisationen schließt jedoch Phänomene wie die tägliche Nutzung von Informationen zu Zwecken der Falschdarstellung nicht ein. Die herkömmlichen Methoden der Systemanalyse, ob daten- oder entscheidungsorientiert, helfen nicht, die Natur von Organisationen und ihre Art der Informationsverarbeitung zu verstehen. Das Papier schlägt einen realistischeren Ansatz für die Analyse und Gestaltung von Informationssystemen vor. Organisationen werden als Netzwerke von Verträgen angesehen, die Austauschtransaktionen zwischen Mitgliedern regeln, deren Ziele sich nur teilweise überschneiden. Interessenkonflikte werden ausdrücklich als Faktor anerkannt, der die Informations- und Austauschkosten beeinflusst. Informationstechnologie wird als Mittel zur Rationalisierung von Börsentransaktionen angesehen, wodurch Wirtschaftsorganisationen effizienter arbeiten können. Als Beispiele werden MIS-, Datenbank- und Büroautomatisierungssysteme genannt, bei denen sowohl die Organisation als auch ihr Informationssystem gemeinsam konzipiert wurden. Diese Beispiele veranschaulichen die Stärke des Ansatzes, der auf neueren Forschungen in der neuen institutionellen Ökonomie basiert.;-;-;-;https://link.springer.com/chapter/10.1057/9780230250611_11 08119e702189012d77b0a1d7f09f091c;de;;;7.1.;;;Datenbankmanagement und Informationssysteme In diesem Papier werden wir einige wichtige neuere Entwicklungen in der Datenbankverwaltungsmethodik besprechen, die erhebliche Auswirkungen auf Informationssysteme haben. An erster Stelle steht die allgemeine Akzeptanz der Notwendigkeit einer Benutzeroberfläche, die gleichzeitig einfach, implementierungsunabhängig und leistungsstark ist. Diese Ziele werden durch das relationale Datenmodell und die kalkülähnliche Abfragesprache, die von Codd vorgeschlagen wurden, auf bewundernswerte Weise erfüllt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-3479-5_19 b8323ec1d6499b256344d7a513856e62;de;;;7.2.;;;Algorithmen simulieren Evolution Die Informationsverarbeitung mit Computern und Menschen wird mit künstlichen oder natürlichen Sprachen wiedergegeben. Sie sind nur Sonderfälle symbolischer Repräsentationssysteme, die auch für genetische Informationssysteme spezifiziert werden können. Genetische Sprachen mit ihren grammatikalischen Regeln stellen molekulare Prozesse dar, um molekulare Sequenzen mit genetischer Bedeutung zu erzeugen. Der Schlüssel zum Verständnis dieser molekularen Sprachen sind nicht wir Menschen, sondern die molekularen Systeme, die sie nutzen. Wir Menschen stehen mit unserer Art der Informationsverarbeitung erst am Anfang, diese Sprachen mit ihren Regeln zu entziffern und zu verstehen. Die formalen Sprach- und Grammatiktheorien liefern zusammen mit der algorithmischen Komplexitätstheorie erste Ansätze.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-59717-0_6 51b9d289850820f6b632c377f75abd49;de;;;7.1.;;;Implementierung strategischer Personalplanungsanwendungen Vom 4. bis 6. Dezember 1985 veranstaltete das Forschungskomitee der Human Research Planning Society ein Symposium an der University of Pennsylvania in Philadelphia. Dieses Symposium zum Thema „Strategische Personalplanungsanwendungen“ umfasste 30 Beiträge mit Diskussionsrunden an geeigneten Stellen der Sitzung. Dieser Beitrag bietet einen Überblick über das Symposium und eine Einführung in die einzelnen Beiträge dieses Buches.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-1875-0_1 f11ceff67b5eb5b739f460d8a9594c2a;de;;;7.1.;;;Multiagentenbasierte Prozessplanung und -terminierung im Kontext von Supply Chains Intelligente Softwareagenten sind ein vielversprechender Ansatz zur Verbesserung der Informationslogistik in produzierenden Unternehmen. Diese Arbeit beschäftigt sich mit der Anwendung von Mitteln im Bereich der Prozessplanung und Produktionssteuerung. Damit können Unternehmen die Anforderungen einer flexiblen, zuverlässigen und fehlertoleranten Fertigung erfüllen. Die Erfüllung dieser Anforderungen ist Voraussetzung für die erfolgreiche Teilnahme an modernen Geschäftsallianzen wie Supply Chains und virtuellen Unternehmen. So ermöglichen agentenbasierte Verbesserungen der Informationslogistik Unternehmen, den Herausforderungen des Wettbewerbs erfolgreich zu begegnen. Die aktuellen Forschungsaktivitäten konzentrieren sich auf die Entwicklung agentenbasierter Systeme zur integrierten Prozessplanung und Produktionssteuerung. Sie führten zu dem „IntaPS“-Ansatz, der in diesem Papier vorgestellt wird. Darüber hinaus wird die Integration verschiedener agentenbasierter Systeme im Kontext der kollaborativen Fertigung in Lieferketten diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45185-3_10 386d7c8ebe6249140a89674c240a3832;de;;;7.1.;;;Planung, 1960er–1970er Jahre In diesem Kapitel wird untersucht, wie das Konzept der „Planung“ in den 1950er Jahren zur Entstehung einer dynamischen und wachsenden Unternehmensberatungsbranche führte, die von den „Big Four“ dominiert wurde, die allesamt Beratungsunternehmen der „britischen Generation“ waren. Der Boom des Nachkriegsinteresses an „Planung“ hat nachweislich Berater in den öffentlichen Sektor geführt. Aber durch die Recherche von Harold Wilsons eigenen Papieren und Korrespondenz werden Wilsons Reformeifer und sein Misstrauen gegenüber dem öffentlichen Dienst als entscheidend für die Schaffung eines staatlichen Beratungsmarktes hervorgehoben. Obwohl selten erwähnt, übernahmen Unternehmensberater von AIC Limited die Mehrheit der einflussreichen Fulton Committee on the Civil Service Review, und so wird in diesem Kapitel der spätere unauslöschliche Eindruck betrachtet, den die britische Generation auf den öffentlichen Dienst hinterließ. Auch die Rolle der Berater bei der Beratung von Abteilungen zur Wiederbelebung der britischen Industrie im herausfordernden Jahrzehnt der 1970er Jahre wird beleuchtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99876-3_2 dc2c6f3e1e70728516f5bafdbd23cb2b;de;;;7.1.;;;Planung der Implementierungsschritte für kooperative Verarbeitungssysteme Die kooperative Verarbeitung (COP) ist eine Verarbeitungsmethode, bei der die Kommunikation ein integraler Bestandteil des Mechanismus zur Ausführung einer Anwendung ist. Das COP-Verarbeitungsmodell ermöglicht es, die Anwendung in Einzelteile zu zerlegen und auf verschiedenen Hardwareplattformen auszuführen, um die Vorteile jeder einzelnen abzuleiten. In diesem Papier diskutieren wir die wichtigsten Planungsfaktoren, die für eine erfolgreiche Implementierung von COP-Anwendungen erforderlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-3748-9_78 20866dc06e0ea88408db48929fcf566e;de;;;7.1.;;;Die Auswirkungen von Enterprise Resource Planning-Systemen auf die Unternehmensleistung: Eine empirische Analyse chinesischer Chemieunternehmen Chinese Chinesische Firmen haben in den letzten Jahren stark in Enterprise-Resource-Planning-Systeme (ERP) investiert und erwarten, dass ERP ihnen helfen kann, eine überlegene finanzielle Leistung zu erzielen. Angesichts der hohen Kosten und des hohen Risikos von ERP-Investitionen ist die Quantifizierung der finanziellen Vorteile einer ERP-Implementierung ein wichtiges Forschungsthema. Dieses Papier untersucht empirisch die Auswirkungen der ERP-Implementierung auf die Unternehmensleistung anhand der Finanzdaten von 50 chinesischen Chemieunternehmen, die ERP implementiert haben. Die anomale Leistung der Firmen während der zweijährigen Implementierungsperiode und der dreijährigen Nachimplementierungsperiode wurde basierend auf der Leitlinie von Barber et al. zum Thema Eventstudien. Die Ergebnisse zeigen keine signifikante Leistungsverbesserung während des Umsetzungszeitraums und des Zeitraums von drei Jahren nach der Umsetzung und einen Leistungsabfall in den ersten zwei Jahren nach der Umsetzung. Eine leichte Leistungssteigerung im dritten Jahr nach der Implementierung kann jedoch darauf hinweisen, dass sich die finanziellen Vorteile von ERP nach einer langfristigen ERP-Nutzung zeigen können. Diese Ergebnisse liefern Erkenntnisse für chinesische Unternehmen, die in ERP investieren möchten.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75902-9_64 f6a04856b88626b9e6acc54ebe58c61c;de;;;7.1.;;;Produktionsplanung und -steuerung Content Management in virtuellen Unternehmen mit Massenanpassung Bei der Verfolgung von Mass Customization (MC)-Strategien profitieren Unternehmen oft von der Zusammenarbeit mit anderen. Aus Kundensicht werden kooperierende Unternehmen zu einem virtuellen Unternehmen (VE), das kundenindividuelle Güter herstellt. Teilnehmer einer solchen VE müssen bei der Planung und Durchführung ihrer Geschäftsprozesse äußerst flexibel sein. Sie müssen durch speziell für diese Aufgaben konzipierte Informationssysteme (IS) koordiniert und unterstützt werden. Durch die Fokussierung auf die MC-Supply Chain werden die für erfolgreiche MC-Strategien relevanten Basisdaten identifiziert. Zunächst werden der MC-Makroprozess, der unterstützende IS und der Rollenwechsel der Beteiligten während dieses Prozesses diskutiert. Basierend auf diesem Rollenkonzept und dem gemeinsamen Modell einer VE für MC werden relevante Enterprise Resource Planning (ERP) Daten identifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-56192-4_7 5e397fbe92711de857201808930e030d;de;;;7.1.;;;Strategie- und Informationssystemen die nötige Vielfalt geben In diesem Beitrag möchte ich einem allgemeinen Problem nachgehen, das alle Organisationen, ob im öffentlichen oder privaten Sektor, groß oder klein, betrifft. Dies ist das Problem, wie sich Organisationen effektiv auf die Umgebung beziehen, in der sie sich entwickeln und operieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-2862-3_6 2c4e86e7fc72bc295fb9b8f7c0accf4d;de;;;7.2.;;;Grobansatz für Informationssysteme mit Intervallentscheidungswerten bei Bewertungsproblemen In diesem Kapitel wird ein neuer grober Ansatz für Entscheidungsprobleme vorgeschlagen. Es wird davon ausgegangen, dass die von einem Entscheider abgegebenen Bewertungen Intervallwerte sind. Das heißt, wir befassen uns mit dem Informationssystem, das eine mehrdeutige Entscheidung enthält, die als Intervallwerte ausgedrückt wird. Durch die Näherungen der unteren und oberen Schranken in Bezug auf Entscheidungswerte werden in diesem Kapitel die Näherungen mit Intervall-Entscheidungswerten veranschaulicht. Das Konzept des vorgeschlagenen Ansatzes ähnelt dem der Intervallregressionsanalyse. Darüber hinaus diskutieren wir die unnötigen Unterteilungen zwischen den Entscheidungswerten basierend auf diesen Grenzen. Ziel ist es, aus dem Informationssystem extrahierte IF-Then-Regeln zu vereinfachen. Anhand eines Zahlenbeispiels wird das Verfahren zum Entfernen der Unterteilungen vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76973-6_17 a435b7a9792520cb5e1c4aa027f744c5;de;;;7.1.;;;Systemdesign und Computeranwendung für die Materialwirtschaft Systeme und Computer haben eine Materialverwaltung mit dynamischer Kontrolle des gesamten Materialkreislaufs von der Beschaffung bis zum Versand mit vollständiger Rückverfolgbarkeit der Chargen/Standorte ermöglicht. Die Verwendung eines funktionalen Designs ermöglicht die Nachverfolgung vom „Dock-to-Stock“, einschließlich der oft übersehenen Funktionen des Wareneingangs, der Inspektion, der Materialdisposition und der Lieferantenbewertung. Diese Methodik hat die Arbeitsweise der Materialwirtschaft in der Organisation verändert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-6566-2_11 4443eafdb05ed1827a111145198773ac;de;;;7.2.;;;HiXEval: Hervorhebung der XML-Retrieval-Auswertung Dieses Papier beschreibt unseren Vorschlag für eine Bewertungsmetrik für das XML-Retrieval, die ausschließlich auf dem hervorgehobenen Text basiert. Wir untermauern unsere Entscheidung, die Dimension der Vollständigkeit zu ignorieren, durch eine kritische Untersuchung der beiden Relevanzdimensionen von INEX 2005. Wir präsentieren eine feinkörnige empirische Analyse des Niveaus der Gutachterübereinstimmung der fünf Themen, die bei INEX 2005 doppelt beurteilt wurden, und zeigen, dass die Übereinstimmung in Bezug auf Spezifität höher ist als auf Vollständigkeit. Wir verwenden die vorgeschlagene Metrik, um die INEX 2005-Läufe für jede Abrufstrategie der strategy;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-34963-1_4 0c3f96183c128ab3dd04630c75fa5ba7;de;;;7.1.;;;One-of-a-Kind Production (OKP) Planung und Steuerung: Ein empirischer Rahmen für die Sondermaschinenindustrie In diesem Papier konzentrieren wir uns auf die One-of-a-Kind Production (OKP)-Branche, in der jedes Produkt weitgehend auf der Grundlage spezifischer Kundenanforderungen nach einem Engineer-to-Order-Ansatz (ETO) entwickelt und hergestellt wird. Diese Forschung wurde im Rahmen des „SIGI-X“-Projekts durchgeführt, das vom italienischen Ministerium für wirtschaftliche Entwicklung (MISE) finanziert wird. Der Beitrag illustriert eine empirische Studie zum Stand der Technik von Informationssystemen, die die Führungsprozesse in OKP-Unternehmen unterstützen. Durch eine Reihe von 21 Fallstudien in italienischen Unternehmen, die Spezialmaschinen herstellen, zielen wir darauf ab: Stärken und Schwächen der wichtigsten OKP-Geschäftsprozesse zu identifizieren und zu untersuchen, die IKT-Unterstützung und ihren Integrationsgrad zwischen den verschiedenen IKT-Lösungen zu analysieren, Hebel für Verbesserungen zu identifizieren , hinsichtlich organisatorischer, methodischer und informatischer Aspekte, einen praktischen Rahmen aufbauen, der die Hauptprozesse definieren und verknüpfen könnte, um eine Art Leitfaden zu erhalten, der für die Neugestaltung der Prozesse nützlich ist, und die Grundlage für ein neues integriertes IKT-Geschäftstemplate für OKP . legt Firmen. Die fehlende Unterstützung von drei grundlegenden Aufgaben wie Projektmanagement, Planung und Kostenkontrolle unterstreicht, dass aus Sicht der IKT-Unterstützung erheblicher Verbesserungsbedarf besteht. Schließlich würde die Entwicklung einer integrierten IT-Umgebung zur Unterstützung (insbesondere) von Projektmanagement- und Planungsaktivitäten, die speziell auf den OKP-Kontext ausgerichtet sind, diesen Unternehmen helfen, ihre Leistung und Wettbewerbsfähigkeit zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40361-3_80 be81d5f8cb61269eb22bc7778e25ac5e;de;;;7.1.;;;Planung der Anwendung Wir haben gerade den ersten Abschnitt des Buches abgeschlossen. Dazu gehörten: Motivation zum Einsatz von KI und KBSs zur Lösung von Ressourcenmanagementproblemen (Kapitel 1) und ein Blick auf die Hauptkomponenten wissensbasierter Systeme (Kapitel 2 & 3). In den Kapiteln 4–6 widmen wir uns nun den detaillierten Schritten der Planung und Gestaltung eines wissensbasierten Systems sowie dem Erwerb und der Organisation des notwendigen Wissens, um es zu implementieren. Fragen der Systemimplementierung und -bewertung werden in den Kapiteln 7–10 behandelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-1155-3_4 ee320215ed9a734294b6ee30174f5027;de;;;7.1.;;;Entwurf der Computerunterstützung für Multikriteriums- und Mehrpersonenentscheidungen in der regionalen Wasserressourcenplanung Die Entscheidungsfindung zur Gestaltung regionaler Wasserressourcensysteme weist eine hohe Komplexität auf, da viele Zusammenhänge zwischen Aspekten, Entscheidungsträgern und Planungsverfahren bestehen. Aspekte sind technischer, psychologischer, ergonomischer (Mensch-Computer-Interaktion) und organisatorischer Natur. Entscheidungsträger sind politische Entscheidungsträger, Planer und Gestalter.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-70583-0_12 95fc9ad0eb6a43e4c36334d35e534b05;de;;;7.2.;;;Vereinbarung zwischen Crowdsourcing-Mitarbeitern und Sachverständigen bei der Beurteilung der Relevanz für die systembasierte IR-Bewertung Die Erstellung eines Goldstandard-Datensatzes für Relevanzbeurteilungen bei der IR-Bewertung ist eine kostspielige und zeitaufwändige Aufgabe. In letzter Zeit zieht Crowdsourcing, ein kostengünstiger und schneller Ansatz, viel Aufmerksamkeit bei der Erstellung von Relevanzurteilen auf sich. Diese Studie untersucht die Übereinstimmung der Relevanzurteile zwischen Crowdsourcing-Arbeitern und menschlichen Assessoren (z. B. TREC-Assessoren) und validiert den Einsatz von Crowdsourcing zur Erstellung von Relevanzurteilen. Die Zustimmung wird sowohl bei Einzel- als auch bei Gruppenverträgen durch prozentuale Zustimmung und Kappa-Statistik berechnet. Die Ergebnisse zeigen eine hohe Übereinstimmung zwischen Crowdsourcing und menschlichen Assessoren bei der Gruppenbewertung, während die individuelle Zustimmung nicht akzeptabel ist. Darüber hinaus untersuchen wir, wie sich die Rangordnung von Systemen ändert, während die Urteile menschlicher Bewerter durch Crowdsourcing durch verschiedene Bewertungsmetriken ersetzt werden. Die Schlussfolgerung, gestützt durch die Ergebnisse, ist, dass durch Crowdsourcing generierte Relevanzurteile zu einem zuverlässigeren Systemranking führen, wenn es um die Messung von Systemen mit geringer Leistung geht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07692-8_38 9b068fa07cd20a765dba09f8095c3594;de;;;7.1.;;;Objektorientiertes Produkt-/Produktionsmodell – Integrationskonzept und Anwendung im Produktionsmanagement In diesem Beitrag wird ein objektorientierter Ansatz diskutiert, der eine integrierte Datenbank für Produktionssysteme anwendet. Basis für die Integration ist ein objektorientiertes;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35321-0_64 0c51f88b12faa5bc3289fbadb86c51fd;de;;;7.1.;;;Methoden der Informationssystementwicklung: eine Klassifikation nach Problemsituation Methoden zur Entwicklung von Informationssystemen werden häufig nach Themen oder Merkmalen klassifiziert. Potenzielle Benutzer sind jedoch eher besorgt über die Situationen, in denen unterschiedliche Ansätze angemessen sind. In diesem Papier werden fünf Problemsituationstypen identifiziert: (1) gut strukturierte Problemsituationen mit einem klar definierten Problem und klaren Anforderungen, (2) gut strukturierte Problemsituationen mit klaren Zielen, aber unsicheren Benutzeranforderungen, (3) unstrukturiertes Problem Situationen mit unklaren Zielen, (4) Situationen, in denen eine hohe Benutzerinteraktion mit dem System stattfindet und (5) komplexe Problemsituationen. Typische Methoden zur Entwicklung von Informationssystemen werden in jede dieser Gruppen eingeordnet. Einige Stärken und Schwächen dieser Klassifikation werden diskutiert. Eine Schlussfolgerung ist, dass die meisten Projekte in die Kategorie der komplexen Problemsituationen fallen, denn Organisationen (und damit ihre Informationssystembedürfnisse) sind in Bezug auf die menschlichen und sozialen Aspekte ausnahmslos mindestens genauso komplex wie alle technologischen. Der Multiview-Ansatz wird ausführlicher diskutiert, da er nach Ansicht der Autoren für solche Situationen geeignet ist.;-;-;-;https://link.springer.com/article/10.1080/026839697345224 46ebe4a69633cee9c294f7e0f08b7aea;de;;;7.1.;;;Risikoanalyse für Informationssysteme Dieses Papier stellt einen integrierten Ansatz zur Risikoanalyse für Informationssysteme (IS) vor, der die bei Hyperion entwickelte Methodik der strukturierten Risikoanalyse (SRA) verwendet. SRA wurde sehr erfolgreich zur Durchführung von Risikoanalysen sowohl für die sicherheitsorientierte Risikoanalyse in der Stadt als auch für die sicherheitsorientierte Risikoanalyse für die Europäische Weltraumorganisation eingesetzt. Dieses Papier entwickelt und beschreibt ein spezielles Beispiel der SRA-Methodik für IS. Der Ausschluss sicherheitskritischer Anwendungen erlaubt gewisse Vereinfachungen der Methodik bei IS. Diese Vereinfachungen machen die strukturierte Risikoanalyse für Informationssysteme (SRA-IS) zu einer praktikablen und kostengünstigen Grundlage für die Risikoanalyse und das Risikomanagement in Handelsorganisationen.;-;-;-;https://link.springer.com/article/10.1057/jit.1992.7 b6cc0588bc660959f504e06341167358;de;;;7.1.;;;Kollaboratives Eventmanagement in Lieferketten: ein agentenbasierter Ansatz Die Entwicklung integrierter Lieferketten und der Einsatz organisationsübergreifender Informationssysteme haben die geschäftlichen Abhängigkeiten verstärkt. Daher ist die Fähigkeit, mit alltäglichen ungeplanten Ereignissen schnell und reibungslos umzugehen, entscheidend für die Aufrechterhaltung der Gesamtleistung der Lieferkette. Um Werkzeuge zur Förderung des kollaborativen Managements solcher Ereignisse zu entwickeln, nutzt die agentenbasierte Technologie die Fähigkeit der Agenten, autonome Entscheidungen in einem verteilten Kontext zu treffen. Collaborative Event Management (CEM) ist ein Ansatz zur Verbesserung der Agilität in einem Kontext, in dem Planungsentscheidungen durch ein verteiltes fortschrittliches Planungssystem (d-APS) unterstützt werden. Dieses Papier schlägt ein Agentenmodell vor, das auf Tools zur gemeinsamen Planung von Operationen zum Umgang mit ungeplanten Ereignissen ausgerichtet ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-36594-7_10 9a9430812a76b794b8074b314c5a9886;de;;;7.1.;;;Smarte Software für Wasserressourcenplanung und -management Die Planung und Verwaltung von Wasserressourcen hat eine lange Tradition in der Verwendung von Computern. Durch die Abdeckung eines Problembereichs, der eine solide Grundlage in den physikalischen Wissenschaften und eine große Datenmenge mit starken Elementen sozioökonomischer und politischer Überlegungen kombiniert, ist die Wasserressourcenplanung und -bewirtschaftung auch ein idealer Anwendungsbereich für die neueste fortschrittliche Informationstechnologie . Fortschrittliche Informationstechnologie bietet die Werkzeuge zum Entwerfen und Implementieren;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-76048-8_6 e9885bba16aa8dcca10af9b32fa5c448;de;;;7.1.;;;ESIS: Wissenschaftlicher Informationsabruf In diesem Kapitel werden die derzeit durchgeführten Arbeiten zur Definition und Entwicklung des Europäischen Weltrauminformationssystems (ESIS) beschrieben. Wir konzentrieren uns hier auf die Aspekte der Benutzerfunktionalität des Projekts und verweisen den Leser für weitere Details auf Albrecht et al., 1988.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-3388-7_4 fbcb0fb3eaec0e9ef9077a0e7fcde8e2;de;;;7.1.;;;Strategie für Informationssysteme im Filmbereich der Hoechst AG Dieses Papier beschreibt ein Framework für die Entwicklung von Informationssystemen, basierend auf dem Viable System Model, das derzeit in der Filmabteilung der Hoechst AG verwendet wird.;-;-;-;https://link.springer.com/article/10.1007/BF01062732 36dc6f10268800f6ffb24557361294eb;de;;;7.1.;;;Fertigungsstrategieanalyse und Systemdesign - Theorie und Praxis In diesem Kapitel werden Struktur, Inhalt und Prozesse der MSD- und MSA-Methoden erörtert. Ziel ist es, eine Grundlage für die Entwicklung des MSM-Frameworks unter Verwendung der Ideen und aktuellen Denkweisen auf diesem Gebiet bereitzustellen. Das Oxford Dictionary (1992) definiert eine Methodik als die;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0753-8_3 f3e33d644d0ba7298bba91883bf9f4c4;de;;;7.1.;;;Architekturdesign des Systems Nachdem wir das Referenzmodell (RM) * definiert haben, das, wie bereits erwähnt, das primäre Werkzeug ist, um funktionale und kostenbezogene Ziele in technischer Hinsicht auszudrücken, kommen wir nun zum zweiten Schritt der Entwurfsmethodik, dem architektonischen Entwurf, der die Prozess der Auswahl verfügbarer Technologien für jedes der funktionalen Elemente im RM, von spezifischen Produkten bis hin zu internationalen oder de-facto-Standards.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-6159-0_5 75e1e41f3cad018a0c894a35cce57443;de;;;7.1.;;;Auf dem Weg zu lebenden kooperativen Informationssystemen für virtuelle Organisationen mit der Theorie lebender Systeme Um kooperative Informationssysteme zu konzipieren und zu gestalten, die sich besser an die Dynamik moderner Organisationen im sich verändernden Umfeld anpassen, untersucht dieser Beitrag die Anforderungen und Ansätze zum Aufbau „lebender“ kooperativer Informationssysteme für virtuelle Organisationen – sowohl in Bezug auf die Systemflexibilität als auch auf die Co -Entwicklung von Organisations- und Informationssystemen. Gegenstand unserer Fallstudie ist das Pekinger Organisationskomitee für die Spiele der XXIX. Olympiade. Um die Anforderungen „lebender“ kooperativer Informationssysteme im Kontext virtueller Organisationen zu erfüllen, schlagen wir eine vereinheitlichte Peer-to-Peer-Architektur vor, die auf den grundlegenden Konzepten und Prinzipien von Millers Living Systems Theory basiert, einer weithin akzeptierten Theorie darüber, wie alle lebende Systeme „funktionieren“. In unserem Systemgerüst gehört jeder Peer einer der 6 Organisationsebenen an, z.B. Peers, Gruppen, Organisationen, Gemeinschaften, Gesellschaften, supranationale Systeme. Jedes Level hat die gleichen Arten von Komponenten, aber unterschiedliche Spezialisierungen. Darüber hinaus verfügt jeder Peer über dieselben kritischen Subsysteme, die Informationen verarbeiten. Die Fallstudien zeigen, wie unsere Architektur die sich wandelnde Organisation, dynamische Unternehmen und dezentrale Eigentumsverhältnisse effektiv unterstützt.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-5263-4_49 f7c5a42664bdb1bd67af2b388026b756;de;;;7.1.;;;Eine Studie über Mechanismen zur Vermeidung menschlicher Fehler basierend auf der Theorie der individuellen Informationsverarbeitung Auf der Grundlage der Theorie der individuellen Informationsverarbeitung wird die Informationsverarbeitung der individuellen Kognition analysiert, nämlich unter dem Blickwinkel der Informationseingabe, der Informationsverarbeitung und der Informationsausgabe wird das Informationsverarbeitungs-Einflussfaktorenmodell mit der profunden Analyse der Informationsursachen etabliert Input-, Processing- und Output-Verzerrung während des individuellen Arbeitsprozesses. Dem Modell zufolge werden Gegenmaßnahmen zur Verhinderung und Reduzierung von Informationseingabe-, -verarbeitungs- und -ausgabeverzerrungen vorgeschlagen, um menschliche Fehler effektiv zu verringern, die Produktionseffizienz der Unternehmenssicherheit zu erhöhen und eine theoretische Grundlage für die Erstellung von Produktionsvorschriften für die Unternehmenssicherheit zu schaffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38445-5_8 5aa0732388efbba16d2ad063ab12875c;de;;;7.1.;;;Grundkonzepte der Ausnahmebehandlung in Office-Informationssystemen Büros sind die dynamischsten Herzen von Organisationen. Ausnahmen und Unterbrechungen sind grundlegende Merkmale von Büroinformationssystemen, die bei der Formulierung von Verfahren für Büroangestellte oft als problematisch angesehen werden. In diesem Kapitel werden die Ausnahmen, die Merkmale von Ausnahmen und der organisatorische Einfluss von Ausnahmen analysiert. Die Prinzipien und Praktiken der Ausnahmebehandlung werden mithilfe der Petrinetz-basierten Analyse geklärt. Wir folgen den Konzepten von Auramäki und Leppänen (1985), Saastamoinen und Savolainen (1991, 1992), Saastamoinen et al. (1994) und Kivistö und Savolainen (1997). Wir bieten Beispiele aus einem realen Büroinformationssystem, mit dem wir die Analyseergebnisse testen konnten (Saastamoinen und Savolainen, 1992).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-1464-9_12 72ccffc5ea87831921e19e0e09655eb7;de;;;7.1.;;;Strategische Planungstools im Marketing-Informations-System der Österreichischen Zentrale für Tourismus In den 1980er Jahren erlebten die nationalen und regionalen Fremdenverkehrsämter tiefgreifende Veränderungen in ihrem Umfeld. Die Komplexität des Geschäfts hat mit der Zunahme der Zahl der Produkte und Dienstleistungen zugenommen, die in sich vervielfachenden Märkten hergestellt werden. Der Wettbewerb und der Druck anderer Anbieter haben sich verschärft. Es ist nicht verwunderlich, dass diese Faktoren den Informationsbedarf von Organisationen verändert haben. Dieses Papier beschreibt einen Rahmen für das Verständnis der Rolle von Informations- und Führungsinformationssystemen in nationalen Fremdenverkehrsämtern, der sich in Forschung und Beratung als nützlich erwiesen hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-9343-3_31 4bd5ffd33ac4278d5b42a7b350c43616;de;;;7.1.;;;Bidirektionales Datenmanagement in Fabrikplanung und -betrieb Aufgrund steigender Produktvarianten, kürzerer Durchlaufzeiten und globaler Lieferketten wird die Planung und Inbetriebnahme von Produktionsanlagen immer wichtiger. Daher wird das Management des Zeitraums des Produktionsanlaufs zu einem Wettbewerbsvorteil. Um der zunehmenden Komplexität und Unsicherheit in dieser speziellen Phase gerecht zu werden, ist Datenverfügbarkeit im Sinne einer effizienten Entscheidungsfindung notwendig. In dieser frühen Phase des Produkt- und Produktionssystemlebenszyklus sind jedoch Datenmenge und -qualität nicht garantiert. Dies ist auf den Neuheitsgrad von Prozessen, Technologien und menschlichen Verhaltensweisen in dieser speziellen Phase zurückzuführen. In diesem Beitrag wird analysiert, dass ausgewählte Daten aus der Fabrikplanungsphase sowie der Fabrikbetriebsphase gemeinsam von hochfahrenden Mitarbeitern als wertschöpfende Informationen verarbeitet werden müssen. Schließlich soll der vorgestellte Use Case sowie der daraus abgeleitete Datenmanagement-Ansatz Unternehmen helfen, Produktionsanläufe in Zukunft besser zu managen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29996-5_35 4ddf1dd12b9acdd8a12eb13acbe37b0f;de;;;7.1.;;;Kollaborative Absatzplanung: Wertschöpfung durch Nachfragesignale Dieses Kapitel konzentriert sich auf die kollaborative Bedarfsplanung, insbesondere wenn Informationen in der nachgelagerten Lieferkette zwischen Hersteller und Einzelhändler ausgetauscht werden. Der Einsatz kollaborativer Praktiken wandelt traditionelle Lieferkettenmodelle in nachfragegesteuerte Lieferketten um, erfordert jedoch tiefgreifende organisatorische Veränderungen, um eine vertikale Ausrichtung zu fördern. Die Analyse von Praktiken, die eine effiziente Zusammenarbeit zwischen Herstellern und Einzelhändlern ermöglichen, zeigt, dass der Informationsaustausch über Nachfragesignale in Lieferketten einer der Schlüssel ist, um flexibler auf die Nachfrage des Einzelhandels zu reagieren. In diesem Kapitel soll aufgezeigt werden, wie die Lieferkette des verarbeitenden Gewerbes an die Lieferkette des Einzelhandels angepasst werden muss, um einen Mehrwert für die Handelspartner und den Endverbraucher zu schaffen. Durch die Analyse von drei Fallstudien wird versucht herauszufinden, welche Praktiken eine effiziente kollaborative Bedarfsplanung ermöglichen. In Bezug auf die Ergebnisse werden durch den Planungsprozess verschiedene Arten von Nachfragesignalen identifiziert und ermöglichen es, einige Bruchstellen aufzuzeigen, die die Ausrichtung und Optimierung der Handelskette verhindern. Forschungsimplikationen sind die Identifizierung von vier Schritten im Bedarfsplanungsprozess, die Managern helfen, besser zu verstehen, welche Maßnahmen ergriffen werden sollten, um ihre Zusammenarbeitspraktiken zu verbessern. Die Originalität dieses Kapitels liegt darin, dass es über die Analyse historischer Nachfragezahlen hinausgeht und sich eher auf den Informationsaustausch über Nachfragesignale innerhalb der Lieferketten als einen der Schlüssel für eine flexiblere Reaktion auf die Einzelhandelsnachfrage konzentriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84996-244-5_6 db8327772b2ec0663f9bc042e26a7bf8;de;;;7.1.;;;Aufbau von Entscheidungsunterstützungssystemen für Akzeptanz Produktionsplanung und -steuerung spielen in Unternehmen eine entscheidende Rolle. Planungs- und Terminierungsaktivitäten sind sehr komplex und finden innerhalb des Unternehmens und über die gesamte Lieferkette hinweg statt, um qualitativ hochwertige Produkte zu geringeren Kosten, geringeren Lagerbeständen und höherem Kundenservice zu erzielen. Da die in Planungs- und Dispositionsfunktionen zu verarbeitenden Informationen sehr komplex sind, wird zur Unterstützung dieser Funktionen in großem Umfang Informationstechnologie eingesetzt. Im Bereich der Fertigungsplanung und -steuerung werden Decision Support Systems (DSS) eingesetzt. Diese werden auch als Advanced Planning Systems (APS) bezeichnet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13382-4_11 f9298ab8124963ced2c214da3f6f8e5b;de;;;7.1.;;;Mit Blended Learning Information Operational System Design als Reaktion auf das globalisierte Logistik-Talenttraining Mit der Globalisierung von Wirtschaft und Handel, Informationsnetzwerken und Technologieanwendungstrends sowie dem Aufkommen von e-globalen Logistikbranchen und integrierten Mehrwertdiensten ist die Fähigkeit, Technologie auf Logistiktalente anzuwenden, für die Berufsausbildung entscheidend geworden. Angesichts eines durch die Expansion des Logistikmarktes bedingten Mangels an Logistiktalenten ist eine Verbesserung der Qualität und Quantität der Logistiktalente erforderlich. Diese Forschung nutzte das Konzept der Originalitätsplanung, um eine Integration der Anwendungssysteme wie ERP, WMS, FMS, CCS, TMS und GPS zu entwerfen und vorzuschlagen, die von Handelsbranchen, Reedereien, Fluggesellschaften, See- und Luftfrachtspeditionen verwendet werden , Zollagenten, Containerindustrie und Transportindustrie mit dem EIP-Service. Daher wird ein globales Logistikmanagementsystem-Framework entsprechend der Berufsausbildung von Logistiktalenten aufgebaut, das praktische Betriebsabläufe und eine kreative Blended-Learning-Umgebung für die Berufsausbildung bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7308-0_7 ac5ddedc97913c215f2286eae525d1a6;de;;;7.1.;;;Methoden zur Entwicklung von Informationssystemen: Eine historische Perspektive Seit über 30 Jahren steht die Entwicklung von Informationssystemen (ISD) im Mittelpunkt des Studiums und der Praxis von Informationssystemen (IS). Dieses Papier untersucht die Geschichte der ISD-Methoden und betrachtet einige der Trends und Probleme in Bezug auf ISD und zeigt, wie sich diese in Methoden widerspiegeln und wie Organisationen sie verwenden (oder nicht verwenden). Auf die Diskussion des gegenwärtigen Standes des Feldes folgt eine Diskussion über mögliche zukünftige Richtungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34732-5_3 7c2f882e32533cc49ad5b48fe3359504;de;;;7.1.;;;Die Computer-Informationstechnologie-Anwendung des Big-Data-Zeitalters in der Stadtplanung und -gestaltung Sozialwissenschaften und Technologie haben sich im 21. Jahrhundert rasant entwickelt, und die Ära der Netzwerkinformationen basierend auf Computern, Netzwerken und verschiedenen wissenschaftlichen und technologischen Mitteln hat sich schnell entwickelt. Mit den steigenden Anforderungen der gesellschaftlichen Entwicklung sind auch alle Teile des Städtebaus eng mit moderner Netzinformatik verbunden. Insbesondere durch die allgemeine Anwendung des modernen Internets der Dinge, Cloud Computing und verschiedene Arten von Informationserfassungsgeräten werden die Datenanforderungen der Stadtplanung immer strenger und gleichzeitig liefern diese genauen und wertvollen Daten auch die zukünftige Stadtplanung . Wichtiges Material. Dieses Papier analysiert die Informationskapazität und -merkmale im Zeitalter von Big Data und stellt die Anwendungsmethode der Auto-CAD-Zeichnungstechnologie, die Anwendungsmethode der GIS-Geografischen Informationstechnologie und die Anwendungsvorschläge der Netzwerktechnologie für die Richtung der Informationstechnologieentwicklung in der Stadtplanung vor. und Design.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-43306-2_106 e206e4f96b4ddb9b948321531c0a66e3;de;;;7.1.;;;Flexibilität von Informationssystemen in Organisationen: Konzeptuelle Modelle und Forschungsfragen Um effektiv und effizient zu sein, muss ein Informationssystem (IS) flexibel sein, das heißt, es muss in der Lage sein, geschäftliche und technologische Veränderungen aufzunehmen. Obwohl die Bedeutung der Flexibilität in Informationssystemen in vielen Studien anerkannt wird, sind die verschiedenen Komponenten der IS-Flexibilität noch nicht gut verstanden. Dieses Papier befasst sich mit den verschiedenen Komponenten für den Aufbau von Flexibilität in Informationssystemen. Basierend auf einer Literaturrecherche werden vier konzeptionelle Modelle vorgestellt und die verschiedenen Komponenten der Modelle diskutiert. Die Modelle dienen als Grundlage, um: (i) die Fähigkeit eines IS zu bewerten, auf geschäftliche und technologische Veränderungen zu reagieren, (ii) die verschiedenen Dimensionen der IS-Flexibilität zu identifizieren und zu messen und (iii) Führungsleitlinien für das Management zu entwickeln Flexibilität in einem Informationssystem.;-;-;-;https://link.springer.com/article/10.1007/BF03396574 05d256a31614b0ce08f1a63b0748312b;de;;;7.1.;;;S/E/TEC — Eine Umgebung für die Produktion zuverlässiger Software S/E/TEC ist eine Software-Engineering-Umgebung, die sowohl die Aktivitäten der Softwarehersteller als auch die Managementaktivitäten unterstützt. Die Hauptkomponenten von S/E/TEC sind das Projektmodell, die Produktionstechniken, die Managementtechniken, die Produktmuster, die Entwicklungsstandards, die Projektbibliothek und das Terminalsystem PET/MAESTRO.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-10885-8_31 3a124b25b733e327abd03aebdb5396d4;de;;;7.1.;;;Anlagenverwaltung und geografische Informationssysteme in den Niederlanden Lokale Behörden müssen eine Vielzahl von Funktionen erfüllen, um die in ihren Zuständigkeitsbereich fallenden Merkmale der physischen Umgebung zu erhalten oder zu verbessern. Die Verwaltung des Anlagevermögens, der hauptsächlich von Menschenhand geschaffenen Elemente, die sich unter, auf oder über der Erdoberfläche befinden, liegt in den Niederlanden in der Verantwortung der Kommunalverwaltungen. Es ist ein Bereich des Managements, in dem Computer bis vor relativ kurzer Zeit nicht in großem Umfang eingesetzt wurden. Andere Bereiche sind längst automatisiert und Anwendungen der zweiten und dritten Generation werden bereits durch neuere Software ersetzt. Für das Anlagenmanagement standen jedoch keine Anwendungstools zur Verfügung.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1677-2_7 82ad24f696f95dc8812eee2baaba1c9e;de;;;7.1.;;;Komplexitätsgrade der Darstellung von Dynamiken in der EA-Planung Enterprise Architecture (EA)-Modelle liefern Informationen über die grundlegende Ist-Struktur eines Unternehmens oder einer Behörde und dienen somit als Informationsgrundlage für fundierte Entscheidungen in Enterprise Transformationsprojekten. Gleichzeitig bieten EA-Modelle die Möglichkeit, Soll-Zustände im EA-Planungsprozess zu entwickeln und zu visualisieren. Ergebnisse einer Literaturrecherche und Implikationen aus der Industriepraxis zeigen, dass bestehende EA-Planungsprozesse dynamische Aspekte der EA-Planung nicht ausreichend abdecken. Dieses Papier konzeptualisiert sieben Komplexitätsebenen für die Strukturierung der EA-Planungsdynamik durch ein System miteinander verbundener Ist- und Soll-Modelle. Während Level 1 die geringste Komplexität bei nicht zusammenhängenden Ist- und Soll-Modellen darstellt, deckt Level 7 einen mehrperiodischen Planungsprozess ab, der auch Planabweichungen in Transformationsphasen berücksichtigt. Basierend auf diesen Komplexitätsstufen wird eine mehrstufige Evolution von EA-Planungsprozessen vorgeschlagen, die die nicht-dynamische Ist-EA-Modellierung zu einer vollständigen EA-Planung entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01915-9_5 3b8a32e678eb407ab36a1c8d238ee0ec;de;;;7.2.;;;INEX 2005 Evaluationsmaßnahmen Dieses Papier beschreibt die offiziellen Messungen der Retrieval-Effektivität, die in INEX 2005 verwendet wurden: die eXtended Cumulated Gain (XCG)-Maßnahmen. Darüber hinaus wird über die Ergebnisse der Korrelationsanalyse berichtet, die die Korrelation zwischen den verwendeten Quantisierungsfunktionen und den verschiedenen Maßen für die ad-hoc-Aufgaben von INEX 2005 untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-34963-1_2 3a4afd9cd392ae57dcef8e4c630ba10e;de;;;7.1.;;;Bewertung der Auswirkungen von Managementanliegen in der E-Business-Anforderungsplanung in Fertigungsunternehmen Dieses Papier beschreibt die Anwendung eines Modells, das ursprünglich zur Bestimmung der E-Business-Anforderungen einer Fertigungsorganisation entwickelt wurde, um die Auswirkungen von Managementbedenken auf die generierten Funktionen zu bewerten. Das Modell wurde an 13 Fallstudien in kleinen, mittleren und großen Organisationen getestet. Diese Untersuchung zeigt, dass die Einbeziehung von Anliegen zur Generierung der Anforderungen an E-Business-Funktionen die Ergebnisse verbessert, da sie entscheidungsrelevante Themen im Zusammenhang mit E-Business aufzeigen. Die Ausführung des Modells mit beiden und ohne Bedenken und die anschließende Darstellung der Gründe für die großen Abweichungen kann die Probleme aufdecken und ermöglichen, sie auf der Ebene der einzelnen Funktionen/Gründe im Detail zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40361-3_86 29cb69b111ca4c084473e714ed09ccaa;de;;;7.2.;;;Natural Language vs. Boolean Query Evaluation: Ein Vergleich der Abrufleistung Die Ergebnisse von Experimenten zum Vergleich der relativen Leistung von natürlicher Sprache und booleschen Abfrageformulierungen werden vorgestellt. Die Experimente zeigen, dass ein natürliches Sprachsystem der aktuellen Generation im Durchschnitt eine bessere Suchleistung bietet als erfahrene Sucher, die ein boolesches Suchsystem verwenden, wenn juristisches Volltextmaterial durchsucht wird. Methodische Fragen werden überprüft und der Einfluss der Datenbankgröße auf die Strategie der Abfrageformulierung wird diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-2099-5_22 84e58e7b9f7e0e9faca77161f0809061;de;;;7.2.;;;Modellierung des erwarteten Nutzens der Multi-Session-Informationsdestillation Eine offene Herausforderung bei der Informationsdestillation ist die Bewertung und Optimierung des Nutzens von Ranglisten im Hinblick auf flexible Benutzerinteraktionen über mehrere Sitzungen hinweg. Der Nutzen hängt sowohl von der Relevanz als auch von der Neuheit von Dokumenten ab, und die Neuheit wiederum hängt von der Benutzerinteraktionshistorie ab. Das Nutzerverhalten ist jedoch nicht deterministisch. Wir schlagen einen neuen probabilistischen Rahmen für die stochastische Modellierung des Benutzerverhaltens beim Durchsuchen von Ranglisten mit mehreren Sitzungen vor und eine neuartige Approximationsmethode zur effizienten Berechnung des erwarteten Nutzens über zahlreiche Benutzerinteraktionsmuster. Unter Verwendung dieses Frameworks präsentieren wir die erste nutzenbasierte Bewertung über Multi-Session-Suchszenarien, die auf dem TDT4-Korpus von Nachrichtenberichten definiert sind, unter Verwendung eines hochmodernen Informationsdestillationsystems. Wir zeigen, dass das Destillationssystem durch die Kombination von adaptiver Multisession-Filterung mit Neuheitserkennung und nutzenbasierter Optimierung von Systemparametern für optimale Ranglistenlängen eine Nutzenverbesserung von 56,6% erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04417-5_15 27b45241c0e5c09d0d6559251cb83824;de;;;7.2.;;;Social Media Retrieval mit Bildfunktionen und strukturiertem Text Die Verwendung von XML bietet einen strukturierten Ansatz für die Darstellung von Informationen unter Beibehaltung der Trennung von Form und Inhalt. Der XML-Informationsabruf unterscheidet sich in zwei Aspekten vom Standardtextabruf: Die XML-Struktur kann als Teil der Abfrage von Interesse sein und die Informationen müssen kein Text sein. In diesem Artikel beschreiben wir eine Untersuchung von Ansätzen zum Abrufen von Text und Bildern aus einer großen Sammlung von XML-Dokumenten, die im Rahmen unserer Teilnahme an den INEX 2006 Ad-hoc- und Multimedia-Tracks durchgeführt wurden. Wir evaluieren drei Ähnlichkeitsmaße beim Informationsabruf: Pivoted Cosinus, Okapi BM25 und Dirichlet. Wir zeigen, dass bei den INEX 2006 Ad-hoc-Abfragen Okapi BM25 das effektivste unter den drei Ähnlichkeitsmaßen ist, die nur zum Abrufen von Text verwendet werden, während Dirichlet besser geeignet ist, wenn heterogene Daten (Text und Bild) abgerufen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73888-6_35 b290f1a823fbb359949981e7f4fca5ab;de;;;7.1.;;;Operationelle Forschungsanwendung im Informationssystemdesign Trotz des erheblichen Anstiegs der Literatur über Informationssysteme steht noch immer keine gut strukturierte Methodik für das Design zur Verfügung, die sowohl Verhaltens- als auch Strukturaspekte berücksichtigt. Es wird hier versucht, einen Rahmen für eine solche Entwurfsmethodik bereitzustellen. Im Folgenden werden wir einen kurzen Überblick über die wichtigsten Aspekte geben, die in der Literatur in Bezug auf das Informationssystem zur organisatorischen Entscheidungsfindung behandelt werden. Auf der Grundlage der Überprüfung werden wir versuchen, einen Rahmen für die Gestaltung von Informationssystemen zu entwickeln. Wir hoffen, dass ein solches Framework auch bei der Gestaltung von MIS oder DSS in einer Organisation nützlich sein wird. Wir werden auch kurz zwei Fallstudien diskutieren, in denen das Framework erfolgreich angewendet wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0789-1_67 63f6470b41bff6422154e3a46ad75d1a;de;;;7.1.;;;Wirtschaftsstörungen, Planung der Geschäftskontinuität und forensische Katastrophenanalyse: Das Hawaii Business Recovery Center (HIBRC)-Projekt Es wird vorgeschlagen, dass moderne Katastrophenforensik Unterbrechungen der Lieferkette reduzieren, die Widerstandsfähigkeit gegenüber Katastrophen erhöhen und eine robustere Wirtschaft fördern kann. In diesem Kapitel werden die Grundursachen wirtschaftlicher Störungen untersucht, indem „forensische Analyseansätze“ für Katastrophen vorgestellt werden, die sich auf die Wirtschaft des US-amerikanischen Inselstaats Hawaii auswirken. Störungen in der Lieferkette und Untersuchungen im Zusammenhang mit Betriebsstörungen werden mit einem Schwerpunkt auf der Modellierung, dem Verständnis und der Charakterisierung der komplexen Kausalität, die sie definiert, durchgeführt. Dabei werden in diesem Kapitel kreative, zeitnahe und wichtige Strategien zur Analyse von Unfällen und Katastrophen mit Auswirkungen auf die Wirtschaft Hawaiis aufgezeigt. Um die Planung der Geschäftskontinuität und die Forensik im Katastrophenfall in Hawaii zu fördern, hat die 28. gesetzgebende Körperschaft des Bundesstaates Hawaii das House Bill (HB) 1343 unterzeichnet, das Mittel für das neue hochmoderne Hawaii Business Recovery Center ( HIBRC), eine gemeinsame Partnerschaft zwischen der State of Hawaii Emergency Management Agency (HIEMA), dem Department of Business, Economic Development & Tourism (DBEDT), dem State of Hawaii State Procurement Office (SPO) und der University of Hawaii West-Oahu (UHWO). Dieses ausgewiesene Zentrum für die Geschäftswiederherstellung wird sowohl die Reichweite als auch die Verbreitung von Ressourcen für die Geschäftswiederherstellung bieten und außerdem als Zentrum für die Präsentation von forensischen Ansätzen für Katastrophenuntersuchungen in Hawaii dienen und so die komplexe Kausalität aufdecken, die ihnen zugrunde liegt. Das Zentrum wird Unternehmen über die Bedeutung der Katastrophenvorsorge informieren, bei der Wiederherstellung von Unternehmen nach einer Katastrophe helfen und ein robustes Netzwerk zur Wiederherstellung von Unternehmen schaffen, das die höchsten Management- und Governance-Ebenen mit Unternehmensführern teilt und nach den besten Praktiken des Katastrophenmanagements strebt und ständige Verbesserung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-41849-0_13 d2c44230266a4f030e85e9fcece9a66f;de;;;7.1.;;;Design und Implementierung eines Projektmanagement-Informationssystems basierend auf .Net Das System verwendet ein B/S-Dreischicht-Architektursystem, wobei jede Schicht unabhängig ist und in Einheit und Koordination arbeitet. Durch den Einsatz von Webservice und XML-Technologie wird die Erweiterbarkeit und Wartbarkeit stark verbessert. Der erfolgreiche Aufbau des Systems hat die Effizienz der Mitarbeiter erheblich gesteigert und die Bereitstellung und Verwaltung von Informationen während des Projektmanagementprozesses gestärkt, was sich als eine Primärforschung zur Informatisierungskonstruktion des Ingenieurmanagements erwiesen hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-3872-4_78 8305dfbe28d593aab858eca6c3f40e1f;de;;;7.1.;;;Strategische Fragen der Entwicklung von Unternehmensmanagement-Informationssystemen in China Unternehmen in China stehen bei der Entwicklung ihrer Management-Informationssysteme (MIS) vor neuen Chancen und Herausforderungen. Das Papier analysiert zwei entscheidende Umweltthemen, nämlich. soziale Veränderungen und Unternehmensleistungen, die in China einzigartig bei der MIS-Entwicklung anzutreffen sind und sich von denen im Westen unterscheiden. Um diesen entscheidenden Umweltfragen gerecht zu werden, werden Strategien der MIS-Entwicklung in vier Dimensionen vorgestellt und beschrieben: Reformunterstützung, Bewältigung der Veränderungen, Parallelentwicklung und schrittweise Entwicklung.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34879-7_28 b88404358b8cfef193d405a636bf9b86;de;;;7.1.;;;Automatisierung in der Fertigung Automatisierung in der Fertigung bezieht sich auf die Einführung neuer Produkte in die Massenproduktion, während sichergestellt wird, dass die Teile für den verfügbaren Herstellungsprozess ausgelegt sind. Es erfordert den Aufbau einer integrierten Modellierungsumgebung, in der Teilespezifikationen, Beziehungen, Abhängigkeiten und Fertigungsprozesse mithilfe von Merkmalen oder ähnlichen Arten von Attributen definiert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-52323-6_2 8da6a9aa6d0505d3fdd7e03fad7f6b0d;de;;;7.1.;;;Eine räumliche Wissensstruktur für visuelle Informationssysteme In diesem Kapitel wird ein neuer Ansatz für wissensbasiertes visuelles Informationssystemdesign basierend auf einer räumlichen Wissensstruktur vorgestellt. In dieser räumlichen Wissensstruktur ist die objektorientierte Datenstruktur zur Bildcodierung der Lauflängencode (RLG). Die Technik der symbolischen Projektion wird verwendet, um Beschreibungen symbolischer Bilder zu generieren. Die Technik der orthogonalen Beziehungen wird dann angewendet, um grundlegende räumliche Beziehungen zu identifizieren. Mit dieser Technik können Objekte mit komplexen Formen segmentiert werden. Anschließend können Produktionsregeln angewendet werden, um komplexere räumliche Beziehungen aus den symbolischen Projektionen abzuleiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0569-9_15 cef55f44bd9531b14e7aa0ec09e15722;de;;;7.1.;;;Informationsverbreitung für die Echtzeit-Ressourcenplanung während der Krise unter Nutzung aufkommender digitaler Technologien Jeden Tag kommt es in irgendeinem Winkel dieser Welt zu Vertreibungen aufgrund der negativen Auswirkungen des Klimawandels oder von Naturkatastrophen oder Aufständen oder Epidemien und globalen Pandemien. Solche Vertreibungen können entweder Binnenvertreibungen oder grenzüberschreitende Vertreibungen sein. Allein im letzten Jahr (2019) wurden laut Bericht des Flüchtlingshilfswerks der Vereinten Nationen fast 24,9 Millionen Menschen aus den oben genannten Gründen vertrieben. Der Warschauer Internationaler Mechanismus hat sich bereits im Jahr 2016 zusammen mit den Vereinten Nationen, den Staaten, einigen Ad-hoc-Arbeitsgruppen, der Zivilgesellschaft und wenigen unterstützenden Ländern bemüht, die Sorge um Vertreibungen anzugehen und die Menschheit zu unterstützen Anstrengungen unternommen werden, auf der anderen Seite nehmen die Bedrohungen durch Gewalt, Unruhen, Naturkatastrophen, Pandemien in alarmierendem Ausmaß zu. Das jüngste Covid-19 ist ein klassisches Beispiel, das wahrscheinlich weitere Vertreibungen auslösen wird, die 2020 fortgesetzt werden sollen. Dies hat einen Spillover-Effekt auf die Nachfrage und die Lieferkette von Gesundheitsdienstleistungen für die betroffenen sowie die Bürger oder Einheimischen in einer bestimmten Region. Unser Papier zielt darauf ab, die kombinierte Effizienz neuer digitaler Technologien und verfügbarer Daten zu nutzen, um Erkenntnisse zu gewinnen und sie in Zeiten der globalen Krise effizient zu nutzen, ohne dass die Gesundheitsversorgung und die humanitären Dienste für alle bedürftigen Menschen unterbrochen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-64861-9_4 070b7cea2b0ba00d0d0877d677745c80;de;;;7.1.;;;Auf dem Weg zu wandelbaren Produktionssystemen – Integration des internen und externen Informationsflusses als Enabler für die Produktionsplanung und -steuerung in Echtzeit In diesem Beitrag wird gezeigt, wie Informations- und Kommunikationstechnologien (IKT) als Enabler für die Realisierung wandelbarer Produktionssysteme im deutschen Maschinen- und Anlagenbau dienen. Eine kybernetische Struktur wird vorgeschlagen, um Systeme zu entwerfen und zu betreiben, die aufgrund sich ständig ändernder Umgebungsbedingungen einer hohen Komplexität gerecht werden müssen. Die Integration von IT-Systemen entlang der Auftragsabwicklung von kleinen und mittleren Unternehmen (KMU) erweist sich als eines der fehlenden Glieder wandelbarer Produktionssysteme in der Praxis. Es wird ein Demonstrationsfall vorgestellt, in dem standardisierte Schnittstellen von IT-Systemen den Echtzeit-Datenaustausch zwischen den relevanten Planungsebenen produzierender Unternehmen, deren Lieferanten und Kunden verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40361-3_8 95cca4a626c73ad15797e4af70ebbb99;de;;;7.1.;;;Die Bedeutung des „Ich“ in CIM Computer Integrated Manufacturing (CIM) bezeichnet die integrierten Informationsverarbeitungsanforderungen für die technischen und betrieblichen Aufgaben eines Industrieunternehmens. Die betrieblichen Aufgaben können als Produktionsplanungs- und Steuerungssystem (PPS) bezeichnet werden, wie in der linken Gabelung des Y in Abb. A.01 dargestellt. Die eher technischen Aktivitäten sind durch die verschiedenen CAX-Konzepte im rechten Y-Gabel gekennzeichnet. Das PPS-System wird durch die Auftragsabwicklung bestimmt, während die CA-Komponenten die Produktbeschreibung und die Produktionsmittel unterstützen. Gleichzeitig liefern diese Informationssysteme Daten für die dazugehörigen Finanz- und Kostenrechnungssysteme.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-78988-5_2 e916371acb9219ac8a3400298a60016f;de;;;7.2.;;;Bewertung von Perstem: Ein einfacher und effizienter Stammalgorithmus für Persisch Persisch ist eine anspruchsvolle Sprache im Bereich NLP. Rechts-nach-links-Orthographie, komplexe Morphologie, komplizierte Grammatikregeln und verschiedene Buchstabenformen machen es zu einer interessanten Sprache für die NLP-Forschung. In diesem Beitrag messen wir die Effektivität eines einfachen und effizienten Stemming-Algorithmus,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15754-7_11 a5535156ce7b3c9316175ecdb8f6c93f;de;;;7.1.;;;Kostenanalyse und Umsetzungsplanung Die Annehmbarkeit oder Durchführbarkeit eines Systementwurfs würde weitgehend von seinen Kosten und Erschwinglichkeit abhängen, und dies erfordert eine Schätzung der Kosten aller Teilsysteme/Komponenten des Gesamtsystems. Die Kostenschätzung erfolgt oft in zwei Schritten, die wir Typ-A und Typ-B nennen können. Die Typ-B-Kostenschätzung des endgültigen zu implementierenden Systementwurfs müsste für Budgetierungszwecke so genau wie möglich sein, sagen wir ± 10 %. Wenn verschiedene Systemoptionen hinsichtlich ihrer Kosteneffizienz bewertet werden, wären leichter verfügbare und möglicherweise weniger genaue Preisinformationen (Typ-A-Schätzungen), sagen wir ± 25 %, angemessen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5271-0_11 ae41d9a2418a4dd9a22bba80367df2e4;de;;;7.2.;;;Verbesserung der Gutachterauswahl und Manuskriptbewertung Um die Chance zu maximieren, dass Manuskripte von den kompetentesten Gutachtern bewertet werden, werden vier systematische Verfahren vorgeschlagen. Man erweitert den Pool potenzieller Schiedsrichter. Ein anderer wählt eine Gruppe von Personen aus diesem Pool aus, um ein bestimmtes Manuskript zu bewerten. Die dritte erbittet von ihnen Urteile auf fünf Skalen. Das vierte Verfahren fasst diese Urteile zu einem Konsens zusammen, um dem Herausgeber bei der Entscheidungsfindung zu helfen. Die fünf Skalen beinhalten Maßnahmen zur Relevanz für die Ziele der Zeitschrift, Bedeutung des Problems, Validität der Ergebnisse, Neuheit und Klarheit. Begrenzte Experimente mit Feldversuchen in den letzten fünf Jahren mit dem;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-9863-6_28 b94d01a7a9dd1f9a3540cb1a14c8ebb4;de;;;7.2.;;;Relevanzbeurteilungen für die Bewertung der Bildwiederherstellung In diesem Kapitel fassen wir unsere Erfahrungen mit dem Relevanzbeurteilungsprozess bei ImageCLEF zusammen, wobei wir die medizinische Retrieval-Aufgabe als primäres Beispiel verwenden. Wir beginnen mit einer historischen Perspektive des Vorläufers der meisten modernen Retrieval-Evaluierungskampagnen, dem Cranfield-Paradigma, da die meisten modernen systembasierten Evaluierungskampagnen, einschließlich ImageCLEF, danach modelliert sind. Anschließend beschreiben wir kurz die Phasen einer Evaluierungskampagne und erläutern die verschiedenen Aspekte des Relevanzbeurteilungsprozesses. Wir fassen den Rekrutierungsprozess zusammen und beschreiben die verschiedenen Bewertungssysteme bei ImageCLEF. Wir diskutieren die Vorteile und Grenzen der Erstellung von Pools, die dann von menschlichen Experten beurteilt werden. Abschließend diskutieren wir unsere Erfahrungen mit der Subjektivität des Relevanzprozesses und der relativen Robustheit der Leistungsmaße gegenüber Variabilität bei der Relevanzbeurteilung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15181-1_4 ff366119a4a55e0230e2b079177e85a7;de;;;7.1.;;;Prozesse zum Management von Projektunsicherheiten mit Notfallplanung Eines der am weitesten verbreiteten Probleme von Projektmanagern ist die Steuerung eines großen Projekts in einer unsicheren und verteilten Arbeitsumgebung. Wir glauben, dass viele der inhärenten Schwierigkeiten beim Management großer Engineering- und Softwareprojekte auf Schwierigkeiten beim Umgang mit der Unsicherheit zurückzuführen sind, die mit einem langwierigen, komplexen Unternehmen verbunden ist. Derzeit verfügbare Projektmanagement-Tools ermöglichen dem Projektmanager die Durchführung von „Was-wäre-wenn“- und Risikoanalysen, unterstützen jedoch nicht das Management einer unsicheren Projektumgebung. Bestehende Entscheidungsunterstützungssysteme ermöglichen die Analyse bekannter Fakten über das Projekt, konzentrieren sich jedoch darauf, was mit Informationen getan werden soll, nachdem diese verfügbar sind. Sie unterstützen nicht die Entscheidungsfindung angesichts sich entwickelnder und oft unzureichender Projektinformationen und sie unterstützen den Entscheidungsträger nicht, wenn ein Plan umgesetzt werden muss, bevor eine Entscheidung getroffen werden kann. Außerdem gehen sie davon aus, dass Entscheidungen einmalig, augenblicklich und isoliert von der externen Projektumgebung getroffen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34967-1_23 cb6bce851f3338bc06f4932c0ecece96;de;;;7.1.;;;Eine parallelisierbare Heuristik zur Lösung der generischen Material- und Betriebsplanung in einem Lieferkettennetzwerk: Eine Fallstudie aus der Automobilindustrie Ein Trend in der aktuellen Entwicklung von Multi-Site-Betriebsplanungsmodellen besteht darin, die verschiedenen Arten der Produktion, des Einkaufs oder des Transports von Produkten und den verteilten Entscheidungsprozess für die Betriebsplanung im Detail zu berücksichtigen. Einer der generischsten Ansätze zur Unterstützung der globalen Optimierung in diesen Supply-Chain-Netzwerken durch Berücksichtigung all der verschiedenen Betriebsalternativen und Produktstrukturen ist das Problem der generischen Material- und Betriebsplanung. Dieses Problem kann durch ein Mixed Integer Linear Programming Modell modelliert werden, das Produktions-, Transport-, Beschaffungsaufgaben und deren Alternativen sowie andere relevante Themen wie Verpackung berücksichtigen kann. Ziel dieser Arbeit ist es, die Implementierung einer parallelisierbaren heuristischen Methode für die Material- und Arbeitsvorbereitung und deren Anwendung auf ein Supply Chain Netzwerk der Automobilindustrie vorzustellen. Der Ansatz verwendet Varianten des GMOP-Modells, um die Einschränkungen herkömmlicher MRP-Systeme zu überwinden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40352-1_20 d964530642031498516b05a9df7c0de5;de;;;7.1.;;;Ein integriertes Entscheidungsunterstützungssystem-Framework für die strategische Planung in Hochschulen Strategische Planungsmodelle und Informationsbereitstellung zur Entscheidungsfindung in komplexen strategischen Situationen sind häufige Themen der wissenschaftlichen Forschung. Diese Forschung befasst sich mit dem Problem der Unterstützung strategischer Planungsentscheidungen in öffentlichen Hochschulen (Hochschulen) durch den Entwurf eines Decision Support Systems (DSS), das von Hochschulentscheidungsträgern bei der Umsetzung ihres strategischen Planungsprozesses verwendet wird, wobei berücksichtigt wird, dass das DSSS in allen Datenbanken der Informationssysteme der Institution verankert. Dieses Papier übernimmt ein Modell für den strategischen Planungsprozess, befürwortet die Einbeziehung von Technologien der Beteiligung (ToP) und stellt einen kollaborativen Rahmen für die Planungsaktivitäten auf den verschiedenen institutionellen Ebenen vor, um den strategischen Plan der Institution nach einem Bottom-up-Ansatz zu entwickeln. Basierend auf dem strategischen Planungsprozessmodell wird ein DSS-Framework vorgeschlagen und Entscheidungsunterstützungsmethoden für die verschiedenen Module des DSS vorgeschlagen. Das DSS unterstützt (auf Einzel-, Gruppen- und Organisationsebene) intelligent strategische Planungsentscheidungen in allen Phasen des Prozesses. Durch die Nutzung dieses DSS ist es möglich, bessere Voraussetzungen für die Umsetzung der Ziele der zukunftsorientierten Tätigkeit der Institution zu schaffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07179-4_27 140ca9ec82983b8813c69f2057ec6441;de;;;7.1.;;;Ein logisches Muster für die Integration von Business Intelligence in das Design von Informationssystemen In diesem Beitrag überprüfen wir die Literatur zum Zusammenhang zwischen den Anforderungen an das Design von Informationssystemen und Business Intelligence (BI). Dies soll eine Diskussionsgrundlage für die Notwendigkeit der Integration von BI in das Design von Informationssystemen liefern. Die Literatur zu den aktuellen Entwurfsmustern für Informationssysteme und BI wurde überprüft, um Entwurfstrends zu identifizieren, die zur Verwendung von BI beitragen und nur auf Daten basieren, die aus Quellinformationssystemen extrahiert wurden. Wir beobachten drei Hauptschichten logischer Entwurfsmuster für computergestützte Informationssysteme, nämlich die Informationspräsentationsschicht, die Domänenmodellschicht und die Informationsquellenschicht. Wir haben nach dem Designzweck jeder Schicht klassifiziert, nämlich die gezielte Verwendung der Informationspräsentation (Pragmatics Design Layer), die Bedeutung und das Verständnis von Informationen innerhalb bestimmter Geschäftsdomänen (Semantics Design Layer) und die Speicherung von Zeichen für die erfassten und in Daten kodierten Informationen (Syntaktische Designebene). Wir schlagen LOPIBIS als logisches Muster für die Integration von BI in das Design von Informationssystemen vor, das die Verwendung einer einzigen Version von Geschäftsregeln (SVOBR) zum Erfassen, Verarbeiten und Abrufen derselben Datensätze in Quellinformationssystemen unterstützt. Anschließend wird die Nutzung von BI ermöglicht, die nicht nur auf den aus Quellinformationssystemen extrahierten Daten, sondern auch auf Daten mit den Kontexten von Geschäftshandlungen basiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55355-4_37 5d449b37e30a5f5025a0eeae66eb0a66;de;;;7.1.;;;Angewandte Informationstechnologie: von der Datenverarbeitung zu strategischen Informationssystemen Dieser Beitrag bietet einen kurzen historischen Überblick über die Entwicklungen in der Anwendung der Informationstechnologie. Es beleuchtet die wichtigsten Wendepunkte und untersucht, wie sich die Rolle von Informationssystemen in der kurzen Geschichte dieser neuen Technologie verändert hat.;-;-;-;https://link.springer.com/article/10.1057/jit.1987.7 0ec0af8616d3a754f1c143d65d8ef899;de;;;7.2.;;;Bewertung von Akkord- und Chroma-Funktionen und dynamischen Time-Warping-Scores bei der Aufgabe zur Identifizierung von Cover-Songs Die Identifizierung von Coversongs war im 20. Jahrhundert eine beliebte Aufgabe bei der Suche nach Musikinformationen. Die Aufgabe besteht darin, eine andere Version oder Darbietung eines zuvor aufgenommenen Songs zu identifizieren. Im Gegensatz zur Audiosuche nach einem genau passenden Song ist diese Aufgabe aufgrund einer mehrdeutigen Definition eines Coversongs und der Komplexität des Problems bei den Benutzern noch nicht populär geworden. Mit einer großen Vielfalt an Methoden, die zu den Benchmarking-Herausforderungen vorgeschlagen werden, wird es immer schwieriger, Vor- und Nachteile der Funktionen und Algorithmen zu vergleichen. Wir bieten einen Vergleich von drei Ebenen der Merkmalsextraktion (Chroma-Merkmale, Chroma-Vektorabstände, Akkordabstände) und zeigen, wie sich jede Ebene auf die Ergebnisse auswirkt. Wir unterscheiden außerdem fünf Punkte für die dynamische Zeitverzerrungsmethode, um die beste Leistung in Verbindung mit den Funktionen zu finden. Die Ergebnisse wurden anhand von cover80- und SecondHandSongs-Datensätzen ausgewertet und mit dem Stand der Technik verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-59105-6_18 0989105b0786799db75d90484464831f;de;;;7.1.;;;Synergien schaffen durch die Integration fortschrittlicher Planungssysteme und Konfiguration In Anerkennung der Individualität der Kunden haben Hersteller über Generationen hinweg Lösungen präsentiert, die auf eine bestimmte Kundengruppe ausgerichtet sind. In manchen Fällen sind die Vorlieben der Kunden so vielfältig, dass es unmöglich ist, eine zufriedenstellende Anzahl von Lösungen in ein festes Produktprogramm aufzunehmen. Stattdessen haben die Hersteller einen „Customization“-Ansatz angewendet. Ein Individualisierungsansatz bedeutet, dass das Produkt teilweise für den Kunden entwickelt wird und dadurch eine Anpassung des Produkts an einen sehr breiten Kundenkreis möglich ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35698-3_2 89aca7478dbc0ed3d4e3ff571ab60f1a;de;;;7.1.;;;Erweiterung der Horizonte der Entwicklung von Informationssystemen Fortschritte bei Informationssystemtechnologien und -anwendungen sowie neue Realitäten im Geschäfts- und Wirtschaftsklima verändern die Natur der Informationssystementwicklung. Insbesondere die Bereiche des elektronischen Handels und der webbasierten Anwendungen stellen unsere Vorstellungen von der Rolle der Informationssystemfunktion im Entwicklungsprozess in Frage. Dieser Aufsatz untersucht die Auswirkungen mehrerer dieser Änderungen auf die Entwicklung von Informationssystemen und auf Entwickler selbst und schlägt vor, wie sich Entwickler an diese neuen Anforderungen anpassen müssen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35505-4_7 55c430c457844d386dcb87fc67131d0f;de;;;7.1.;;;Anwendbarkeit von ERP für die Produktionsnetzwerkplanung: Eine Fallstudie Ein Produktionsnetzwerk ermöglicht es einem Unternehmen, Fähigkeiten zu entwickeln, um auf die Vielfalt der nationalen oder regionalen Nachfrage zu reagieren und gleichzeitig seine Aktivitäten zu integrieren und zu koordinieren. Viele Unternehmen haben in den letzten Jahren ERP-Systeme (Enterprise Resource Planning) implementiert, um Probleme im Zusammenhang mit Koordination und Planung in einer Organisation zu überwinden. Darüber hinaus sind fortschrittliche Planungs- und Planungssysteme (APS) entstanden, um die Planungsunzulänglichkeiten von ERP-Systemen zu beheben. Aufgrund der Komplexität und Kompetenzabhängigkeit dieser Systeme werden ihre Vorteile jedoch von großen Organisationen übersehen und daher werden ERP-Systeme immer noch für die Planung verwendet. ERP-Systeme werden in Produktionsnetzwerken zur Koordination verschiedener Pläne und Entscheidungen zwischen Netzwerkpartnern verwendet. Dieses Papier zielt darauf ab, die Eignung und Ausrichtung zwischen ERP-Funktionen und Produktionsnetzwerkanforderungen zur Unterstützung von Produktionsplanungsprozessen zu bewerten. Anhand eines Fallstudienansatzes veranschaulicht und diskutiert der Beitrag die Anwendbarkeit von ERP-Systemen für die Planung in Produktionsnetzwerken. Die Fallstudie zeigte, dass ERP-Systeme bei der Koordinierung der Auftragsvergabe im Netzwerk, der detaillierten kurzfristigen Produktionsplanung und der Verteilung zwischen den Netzwerken nur begrenzte Fähigkeiten haben. Es wird der Schluss gezogen, dass die Verwendung von ERP-Systemen für die Netzwerkplanung die Fähigkeit des Netzwerks einschränken kann, den vollen Nutzen aus der Planung über mehrere Einrichtungen in einem Netzwerk zu ziehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44739-0_71 ca7199f8c32facb6ac5ade1637f5fc78;de;;;7.2.;;;Strukturelle Ähnlichkeitsbewertung von XML-Dokumenten basierend auf Basisstatistiken Die Ähnlichkeitsbewertung zwischen XML-Dokumenten ist die Grundlage des XML Structural Mining und ein entscheidender Faktor für das Mining-Ergebnis. Nach der Einführung der beliebten XML-Baumbearbeitungsmethode und der häufigen Mustermethode für XML-Data Mining verwenden wir in diesem Artikel 10 grundlegende Statistiken, um die strukturellen Informationen der XML-Dokumente zu beschreiben, und verwenden dann den verbesserten euklidischen Abstand, um die Ähnlichkeit von XML-Dokumenten zu bewerten . Um die Leistungsfähigkeit der vorgeschlagenen Bewertungsmethode zu überprüfen, wird sie außerdem auf das Clustering von XML-Dokumenten angewendet. Die experimentellen Ergebnisse zeigen, dass unsere Methode den auf Edit Tree oder Frequent Pattern basierenden Methoden überlegen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33469-6_86 ed88faf6791bffaa89b193a1a643519e;de;;;7.2.;;;Kombination von Pat-Trees und Signaturdateien zur Abfrageauswertung in Dokumentendatenbanken In diesem Beitrag wird eine neue Indexierungstechnik zur Unterstützung der Abfrageauswertung in Dokumentendatenbanken vorgeschlagen. Der Kerngedanke der Methode ist die Kombination der Technik des Pat-Trees mit Signaturdateien. Während die Signaturdateien aufgebaut sind, um die Durchquerung von Objekthierarchien zu beschleunigen, sind die Pat-Trees so konstruiert, dass sie sowohl die Suche nach Signaturdateien als auch das Textscannen beschleunigen. Auf diese Weise kann eine hohe Leistung erzielt werden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48309-8_44 8e05a54148e59893547c22fc9414cffd;de;;;7.2.;;;Verwendung von Proximity- und Tag-Gewichtungen für den gezielten Abruf in strukturierten Dokumenten Focused Information Retrieval beschäftigt sich mit dem Abrufen kleiner Informationseinheiten. In diesem Zusammenhang haben sich die Struktur der Dokumente sowie die Nähe zwischen den Abfragebegriffen als nützlich erwiesen, um die Sucheffektivität zu verbessern. In diesem Artikel schlagen wir einen Ansatz vor, der die Nähe der Begriffe und die Tags, die diese Begriffe kennzeichnen, kombiniert. Unser Ansatz basiert auf a;-;-;-;https://link.springer.com/article/10.1007/s10115-014-0767-6 566354be83cea4b616d571e1ed6b64fb;de;;;7.1.;;;Integration von Produktdesignprozess und Aufgabenmanagement für Produktdatenmanagementsysteme Produktdesign ist ein sich entwickelnder Prozess, der von Kreativität und Unsicherheit geprägt ist. Das Aufgabenmanagement in diesem Prozess unterscheidet sich von herkömmlichen, da es spezifischere Faktoren wie Benutzerspezifikationen, Produktdesignspezifikationen, Reengineering, Designprozess und Designdaten umfasst. In diesem Artikel wollen wir den Produktdesignprozess aus Sicht des Projektmanagements und des Aufgabenmanagements analysieren und einen integrierten Ansatz vorschlagen, um diese Einschränkungen, funktionalen und nichtfunktionalen Faktoren, die sowohl aus Produktdesign- als auch aus Aufgabenmanagementprozessen stammen, zu verbinden. In dem vorgestellten Ansatz, der die Workflow-Technik nutzt, sind der Designprozess und das Aufgabenmanagement auf Prozess- und Datenebene durch die Verwendung des gemeinsamen Modells und der gemeinsamen Datenbank direkt und eng miteinander verbunden. Daher können wir leicht den Projektstrukturplan (PSP) für das Projektmanagement erhalten. Als Teil von PDM-Systemen (Product Data Management) implementiert, wurde die vorgeschlagene Methode getestet, um das Produktdesign zu erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75902-9_21 22488fa54677a84c51671a8772d1c9fa;de;;;7.2.;;;Unüberwachte Klassifizierung von textzentrierten XML-Dokumentsammlungen Dieses Papier befasst sich mit dem Problem der unüberwachten Klassifizierung von textzentrierten XML-Dokumenten. Im Rahmen des INEX Mining Track 2006 stellen wir Methoden vor, um die inhärenten Strukturinformationen von XML-Dokumenten im Dokumentenclustering-Prozess zu nutzen. Verwendung der;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73888-6_46 6044cfbf551274dfb26a695b266b2e34;de;;;7.1.;;;Ein multidisziplinärer Rahmen für robuste Planung und Entscheidungsfindung in sich dynamisch verändernden Ingenieurbauprojekten Dieses Papier schlägt einen multidisziplinären Rahmen für eine robuste Planung und Entscheidungsfindung in sich dynamisch verändernden Ingenieurbauprojekten vor. Ziel ist es, „optimale“ Ebenen und „Kompromisse“ zwischen den wichtigsten Faktoren zu ermöglichen, die die Entscheidungsfindung während der gesamten Projektphasen beeinflussen, um Designänderungen und andere Störungen zu bewältigen und den größtmöglichen Wert zu erzielen. Die Fallanalyse im Offshore-Schiffbau wird angewendet, um das Modell zu verfeinern und seinen Wert für die Entscheidungsfindung zu veranschaulichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44739-0_63 57166eede4d31021fcc6194e182dfa9c;de;;;7.1.;;;Implementierung einer schlanken Projektplanung: Eine Perspektive des Wissenstransfers In den letzten Jahrzehnten hat die norwegische Schiffbauindustrie erfolgreich komplexe und maßgeschneiderte Offshore-Schiffe für den Weltmarkt geliefert. Diese Branche zeichnet sich seit jeher durch eine hochqualifizierte Verarbeitung aus, die flexible Anpassungen und Verbesserungen im Produktionsprozess ermöglicht, was ein Wettbewerbsvorteil der Branche war. Dennoch erfordern komplexere Projekte, Wettbewerbsdruck und global verteilte Wertschöpfungsketten eine stärker formalisierte Planung und Cross-Learning zwischen Schiffbauprojekten. Folglich setzen die Werften der Branche verstärkt auf strukturierte Planungstools wie Lean Project Planning (LPP). In diesem Papier betrachten wir die Implementierung von LPP aus der Perspektive des Wissenstransfers, wobei wir die Rolle des Kontexts im Implementierungsprozess betonen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44733-8_31 d8dbeff7cc201c7e83ba629f7613d130;de;;;7.1.;;;Zur kombinatorischen Analyse, Anpassung und Planung von Mensch-Computer-Systemen Der Beitrag befasst sich mit einem modularen Systemansatz zur Analyse, Gestaltung und Verbesserung von Mensch-Computer-Systemen (HCS). Der Ansatz basiert auf ordinalen Experteninformationen und Optimierungsmodellen. Eine modulare Beschreibung von HCSs (Systemkomponenten und deren Verbindung), einige entsprechende Anforderungen an sie und Verbesserungsmaßnahmen werden beschrieben. Folgende Schritte wurden untersucht: Entwurf einer grundlegenden Systemmorphologie, Modifikation der Morphologie, Analyse und Planung.;-;-;-;https://link.springer.com/article/10.1023/A%3A1014342101070 c29590a14a63b9a8091b295bc7670cbd;de;;;7.1.;;;Lebenszyklusorientierte Planung mechatronischer Produkte und zugehöriger Dienstleistungen Die Komplexität eines mechatronischen Produkt-Service-Systems (PSS) als Kombination aus Produkten, IT-Komponenten und Dienstleistungen erfordert bereits in der frühen Planungsphase ein tiefes Systemverständnis. Für eine lebenszyklusorientierte Planung müssen die unterschiedlichen Lebenszyklen der Teilsysteme und deren Kontext- und Zeitzusammenhänge sowie Überschneidungen durch die Einführung einer neuen Generation oder einer Facelift-Version berücksichtigt und vorgegeben werden. In diesem Beitrag wird ein auf verschiedenen existierenden Lebenszyklusmodellen basierender Rahmen vorgestellt, um diese unterschiedlichen Lebenszykluskonstellationen zu analysieren und zu behandeln. Das Framework adressiert sowohl die Beschreibung und zeitliche Darstellung einzelner Lebenszyklusphasen im Kontext des gesamten PSS-Lebenszyklus als auch Lebenszykluskonstellationen nachfolgender PSS-Versionen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35758-9_31 95f23a09316a0a8e23dcbfe377b2d9da;de;;;7.2.;;;Anpassung einer Datenorganisation an die Struktur gespeicherter Informationen Es wird eine Datenorganisation für Information-Retrieval-(IR)-Systeme beschrieben, die die den gespeicherten Informationen auferlegten Strukturen verwendet. Bäume werden als Hauptstruktur von Daten verwendet, da Informationsinhalte oft hierarchisch strukturiert sind (z. B. Klassifikationen, Thesauri). Diese Bäume wurden jedoch durch sogenannte Querverbindungspfade zu Pseudonetzwerken erweitert. Sogenannte Datenverbindungspfade verbinden die Informationsstrukturen und die Hauptdatei. Terme, die in der Abfrageformulierung vorkommen, können gewichtet werden. Diese Gewichte werden interpretiert und dann sowohl vom Abruf- als auch vom Rangordnungsalgorithmus verwendet. Eines der größten Probleme besteht darin, gewichtete Abfragebegriffe zu kombinieren. Da die bekannten IR-Schemata (Boolean-Retrieval, Fuzzy-Retrieval etc.) in unserer Umgebung nicht funktionieren, wurde ein spezielles IR-Modell entwickelt, aus dem geeignete Abfrage- und Ranking-Auswertungsalgorithmen abgeleitet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0036339 2e9e8c3843d47265bade0e9fb3609b59;de;;;7.1.;;;Xenia: Eine Metapher für Sinnstiftung und Handeln in der Innovation von Informationssystemen Dieses Papier stützt sich auf Ciborras aufschlussreiches Konzept von Xenia (d. Das xenia-Konzept problematisiert die Orthodoxie der Informationssystementwicklung (ISD) und weist auf Probleme und Aspekte hin, die in strukturierten Methoden oft übersehen oder als irrelevant angesehen werden. Bei der Interpretation der Ergebnisse der empirischen Studie – in der ein sehr erfolgreicher (aber radikaler) Urknall-Übergang von einer Technologieplattform zur anderen an einem einzigen Wochenende stattfindet – schlagen wir vor, dass die IS-Implementierung und -Entwicklung ein aufstrebender Prozess ist, in dem Technologie und Nutzer werden ständig neu definiert. Dieser Prozess gleicht einer emotionalen „Begegnung“ zwischen Gastgeber und Gast, die im Laufe der Zeit gegenseitige Vertrautheit und Akzeptanz entwickeln. Darüber hinaus argumentieren wir, dass die Metapher von Xenia Raum für das Überdenken konventioneller, aber sozial steriler Ansätze für IS-Innovation eröffnet, Xenia bietet einen radikal anderen Weg, um ISD zu verstehen und darauf zu reagieren. Unsere Analyse beleuchtet das intrinsische sozio-technische Zusammenspiel, das der Entwicklung und Implementierung von IS zugrunde liegt, und wirft Fragen nach der Bedeutung lokaler Kulturen der „Gastfreundschaft“ und der Art und Weise auf, wie sie gepflegt und gepflegt werden können, um die Begegnung zwischen Technologie und Organisationen zu erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-87503-3_11 9975c1334f2a103e4002d498dc3d7dfe;de;;;7.1.;;;Unterstützung der Entwicklung von KMU-Informationssystemen mit einer strukturierten Methode und einem Werkzeug zur Paketauswahl Ziel der Forschung war die Entwicklung einer einfachen Softwarespezifikationsmethode, die in einem Softwaretool namens SMEST (SME Support Tool) gekapselt ist, um KMU bei der Spezifikation von Anforderungen zu unterstützen. Da sich diese Methode an den Projektleiter mit geringen Kenntnissen über strukturierte Methoden und Werkzeuge richten muss, wird ein Arbeitsbuchansatz verfolgt. Das Tool konzentriert sich eher auf die Paketauswahl als auf die Entwicklung von maßgeschneiderter Software, da der zweite Weg in KMU normalerweise nicht praktikabel ist, da das Management ihre Anforderungen nicht klar beschreiben kann und die Kosten für die Entwicklung maßgeschneiderter Software entstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35321-0_55 a5674ca7cdbc72f318a70fd1725238ad;de;;;7.1.;;;Entwurf eines computerintegrierten Sicherheits- und Gesundheitsmanagementsystems Diverse in verschiedenen Abteilungen gesammelte und gespeicherte Arbeitssicherheits- und Gesundheitsdaten wurden von den Managern aufgrund der schlechten Gestaltung des Sicherheits- und Gesundheitsinformationssystems nicht vollständig integriert und genutzt. Das Sicherheits- und Gesundheitsmanagementsystem kann konzeptionell als organisches System mit Informationsfluss dargestellt werden, das die erforderlichen Daten und Informationen an bestimmte Arbeitnehmer weiterleitet und entsprechende Reaktionen einleitet. Diese Studie zielt darauf ab, die Probleme des aktuellen Sicherheits- und Gesundheitsmanagementsystems durch die Integration der Theorie der menschlichen Informationsverarbeitung, zertifizierter Sicherheits- und Gesundheitsmanagementbewertungsrichtlinien und -vorschriften sowie IT-Techniken zu lösen. Das Ziel dieser Studie ist es, einen Rahmen für ein computerintegriertes Sicherheits- und Gesundheitsmanagementsystem vorzuschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73283-9_45 b4a1b8b2b9c94bdadd10cd9c8b91e15b;de;;;7.1.;;;Management-Informationssystem für Industrieprojekte Für eine effektive Umsetzung eines Projekts durch ein dynamisches Unternehmen sollte ein MIS so konzipiert sein, dass es die Entscheidungsfindung verbessert, indem es zeitnah entscheidungsorientierte, relevante Daten in geringem Umfang bereitstellt, die eher strategische als operative Entscheidungen unterstützen. Ein solches MIS wurde in diesem Papier für ein Projekt diskutiert, das seine Phasen der Vorbereitung, Entwicklung und Implementierung durchläuft. Die Vorbereitungsphase befasst sich mit Informationen zu den langfristigen und funktionalen Plänen des Unternehmens, während die MIS-Entwicklungsphase die erste Gesamtplanung umfasst. MIS in der Implementierungsphase ist ein detailliertes steuerungsorientiertes System. Für einige wichtige Informationselemente wurden auch Formate entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82580-4_122 7a64e299bb553f026998f0b051009d4c;de;;;7.1.;;;Welche Art von Kontrollsystem kann eine Persönlichkeit haben? Dieses Papier skizziert eine designbasierte Methodik zur Erforschung des Geistes als Teil der breiten Disziplin der Künstlichen Intelligenz. In diesem Rahmen werden einige architektonische Anforderungen an menschenähnliche Köpfe diskutiert und einige vorläufige Vorschläge zu Mechanismen gemacht, die Motivation, Emotionen und Persönlichkeit zugrunde liegen. Es wird eine kurze Beschreibung des Szenarios „Nursemaid“ oder „Minder“ gegeben, das an der Universität Birmingham als Rahmen für die Erforschung dieser Probleme verwendet wird. Es könnte später möglich sein, einige dieser Ideen mit der Arbeit an synthetischen Agenten zu kombinieren, die Virtual-Reality-Umgebungen bewohnen.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0030576 54607e4ac0ccc18f48cf0652473d8a04;de;;;7.1.;;;Der Einfluss von Wissenstransfer auf die Implementierung von Enterprise Information Systems Einführung Die Implementierung von Enterprise Information Systems ist schwierig und herausfordernd. Es erfordert, dass viele Benutzer lernen, das neue System zu benutzen und ihre Arbeit zu koordinieren. Das Ziel dieser Studie ist es, den Zusammenhang zwischen dem Ausmaß des Lernens der Nutzer durch soziale Mittel und der Auswirkung auf den Implementierungserfolg zu verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-34456-X_59 435545279c339ea3ac780be7f6ade232;de;;;7.1.;;;Wie Partizipation auf unterschiedlichen Hierarchieebenen Einfluss auf die Gestaltung und Implementierung von Gesundheitsinformationssystemen auf der Basisebene haben kann – eine Fallstudie aus Indien Zum Aufbau effektiver Informationssysteme Die skandinavische Tradition betont und fördert die partizipativen Designmethoden, die sowohl Designer als auch Benutzer gleichermaßen in den Aufbau der Systeme einbeziehen. Während die Hauptintention der skandinavischen Tradition darin besteht, die vorherrschende Ausrichtung von Systementwicklern durch Einbeziehung der Benutzer neu zu fokussieren, fragt man sich wirklich, ob sie im Kontext von Entwicklungsländern angewendet werden kann, insbesondere in einem Land wie Indien, in dem die Strukturen starr, hierarchisch und stark bürokratisch sind in der Natur. Obwohl der Gesundheitssektor ein wichtiger sozialer Bereich in der indischen Entwicklungsverwaltung ist, ist er stark fragmentiert und genießt eine geringe Priorität. Während in Indien die allgemeine Verwaltung hauptsächlich auf Bezirksebene konzentriert ist, wurde die Gesundheits- und Familienfürsorgeverwaltung auf bundesstaatlicher und zentraler Ebene zentralisiert. Dies hat in Verbindung mit der übermäßigen Konzentration von Befugnissen im Verwaltungssekretariat zu einer erheblich zentralisierten Planung und Überwachung geführt. Unter Berücksichtigung der oben genannten Komplexitäten und schwierigen Bedingungen versucht dieses Papier anhand von Fallstudien als Methode zu verstehen, wie sich die Beteiligung auf verschiedenen Ebenen auf die Gestaltung und Implementierung von Gesundheitsinformationssystemen im primären Gesundheitssektor in Indien auswirkt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73354-6_15 72c0a7d03cdc5e0bf1375d5f284c81e2;de;;;7.1.;;;Organisatorische Auswirkungen multimedialer Informationssysteme Multimediale Informationssysteme stellen eine große Herausforderung für eine Organisation dar, die ihre Einführung erwägt. Dieses Papier befasst sich mit den Auswirkungen, die Multimedia-Informationssysteme auf eine Organisation haben würden. Der Beitrag untersucht die organisatorischen Auswirkungen durch eine vorgeschlagene Taxonomie multimedialer Informationssysteme.;-;-;-;https://link.springer.com/article/10.1080/026839697345198 377338259bfb647f520552cd8c9ecf56;de;;;7.1.;;;Herausforderungen für die Politikgestaltung in Entwicklungsländern und die Rolle neu entstehender Instrumente, Methoden und Instrumente: Erfahrungen aus Sankt Petersburg Informations- und Analysetätigkeiten sowie Prognosen für die Prozesse der sozioökonomischen Entwicklung sollten ein wichtiger Bestandteil aller Verwaltungsebenen sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12784-2_17 d0d4ab418a1c41d5a2e67297e238ce04;de;;;7.1.;;;Diskussion der ITM-basierten Personalplanung und -verwaltung: Ein Beispiel für die W Corporation Das Papier zielt darauf ab, die chaotische Situation des Personalmanagements in chinesischen Unternehmen, insbesondere in einigen Familienunternehmen und staatlichen Unternehmen, zu verbessern und ihre internen Personalstrukturen zu optimieren, um den Personalwert zu maximieren. Der Beitrag stellt die ITM-Theorie des Human Resource Managements für eine integrierte und systematische Human Resource Management-Forschung chinesischer Unternehmen vor. Basierend auf der ITM-Personalinformationsbedarfsanalyse stellt der Autor speziell die konkrete Anwendung von ITM in chinesischen Unternehmen am Beispiel des W-Unternehmens vor und zeigt, dass ITM die Personalstruktur und die Ressourceneffizienz verbessern wird, um ein maximales Humankapital zu erreichen Wert des gesamten Unternehmens.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-7010-6_119 90d948d58a89a9cdd3be45a77368c8d6;de;;;7.1.;;;Integrierte Informationssysteme Bei der Etablierung von eBusiness auf Basis eines effektiven Supply Chain Managements (SCM) zwischen Organisationen müssen sowohl organisatorische als auch technische Aspekte berücksichtigt werden, um Fragen wie die folgenden zu beantworten: • Wer wird die eBusiness-Plattform betreiben? • Welche und wie viele Partner sind angeschlossen? • Inwieweit ist der Standort jedes Partners integriert und wie groß ist die Abhängigkeit zwischen den Systemen?;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84628-879-1_4 f44c22309e91a3a2d9875cfcdb91deae;de;;;7.1.;;;Gemeinsame Konzeption von Geschäftssystemen, Informationssystemen und unterstützender Software Dieses Papier diskutiert eine gemeinsame Konzeptualisierung von Geschäftssystemen, Informationssystemen und unterstützender Software. Die Grundidee besteht darin, sich alle oben aufgeführten Systeme als verschiedene Arten eines abstrakten Betriebssystems vorzustellen. Der Beitrag schlägt auch eine gemeinsame Konzeptualisierung von Business Engineering, Information Systems Engineering und unterstützenden Software-Engineering-Prozessen auf der Basis von Systems Engineering vor. Der vorgeschlagene Ansatz ermöglicht es, alle oben aufgeführten Systeme auf einheitliche Weise zu definieren und eine einheitliche Enterprise-Engineering-Umgebung zu entwickeln, die die Zuverlässigkeit des Entwurfs von Unternehmenssystemen erhöht, da die Konsistenz zwischen Geschäfts-, Informations- und Softwaresystemen überprüft werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-9978-8_9 e7a9ca96b3e938e7d656217710eaa56b;de;;;7.2.;;;Wie tragen benannte Entitäten zur Retrieval-Effektivität bei? Die Suche nach Features in Themen und Abfragen, die für die Performance beim Information Retrieval relevant sind, ist eine wichtige Strategie zur Systemoptimierung. Benannte Entitäten in Themen sind ein wesentliches Merkmal, das zur Qualität der Retrievalergebnisse beiträgt. In diesem Beitrag präsentieren wir eine Analyse der Korrelation zwischen der Anzahl der benannten Entitäten, die in einer Themenformulierung vorhanden sind, und der endgültigen Abrufqualität für diese Themen durch Abrufsysteme im CLEF. Die Analyse umfasst die Ergebnisse des CLEF 2004. Wir haben festgestellt, dass für deutsche, englische und spanische Themen ein mittlerer positiver Zusammenhang besteht. Darüber hinaus wird auch der Einfluss des Dokuments bzw. der Zielsprache auf die Retrievalqualität untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/11519645_81 bfcffd655b65d68cf40d999820a28027;de;;;7.1.;;;Agentenplanung, Modelle, Virtual Haptie Computing und Visual Ontology Das Paper ist eine Grundlage für Multiagenten Visual Computing mit der Morph Gentzen Logik. Eine Grundlage für VR-Computing, Computational Illusion und virtuelle Ontologie wird vorgestellt. Das IM_BID-Modell wird für Planung, Spatial Computing und visuelle Ontologie eingeführt. Visuelle intelligente Objekte werden mit virtuellen intelligenten Bäumen verwendet, um die visuelle Planung fortzusetzen. Neue KR-Techniken werden mit generischen Diagrammen vorgestellt und angewendet, um berechenbare Modelle zu definieren. Die IM Morph Gentzen Logic für Computing für Multimedia sind neue Projekte mit wichtigen Computing-Anwendungen. Die Grundprinzipien sind eine mathematische Logik, bei der ein Gentzen- oder natürliches Deduktionssystem definiert wird, indem beliebige Strukturen und Multimedia-Objekte durch Diagrammfunktionen codiert werden. Die Techniken können auf beliebige Strukturen angewendet werden, die durch unendliche Sprachen definierbar sind. Multimedia-Objekte werden als durch Funktionen definierte syntaktische Objekte betrachtet, auf die das deduktive System angewendet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34749-3_5 1ff5288e740c1651183bf631ea1d8beb;de;;;7.2.;;;Verwendung elliptischer Kurven bei Begriffsdiskriminierung Die Erkennung von Diskriminanzbegriffen ermöglicht es uns, die Leistung von Systemen zur Verarbeitung natürlicher Sprache zu verbessern. Ziel ist es, den möglichen Beitragsbegriff in einem bestimmten Korpus zu finden und anschließend die Begriffe des hohen Beitrags zur Darstellung des Korpus zu verwenden. In dieser Arbeit stellen wir verschiedene Experimente vor, die elliptische Kurven verwenden, um diskriminante Terme eines gegebenen Textkorpus zu entdecken. Verschiedene Experimente führten dazu, den Mittelwert und die Varianz der Korpusterme zur Bestimmung der Parameter einer Weierstraß-reduzierten Gleichung (elliptische Kurve) zu verwenden. Wir verwenden die elliptischen Kurven, um das Verhalten des Korpusvokabulars grafisch zu visualisieren. Danach verwenden wir die Parameter der elliptischen Kurve, um diejenigen Terme zu gruppieren, die gemeinsame Eigenschaften haben. Diese Cluster werden dann als Diskriminanzterme verwendet, um die ursprüngliche Dokumentensammlung darzustellen. Schließlich haben wir alle diese Korpusdarstellungen ausgewertet, um die Begriffe zu bestimmen, die jedes Dokument am besten diskriminieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21587-2_37 c580c0d661444102301b2ccd185d3534;de;;;7.2.;;;Fingerstreckung und -flexion: Wie beeinflusst die Ausrichtung des Trackpads die Produktbewertung in Social Media? Mit der zunehmenden Verbreitung von Empfehlungsmaschinen in sozialen Medien hat sich die Aufmerksamkeit der Forschung auf das Verständnis verlagert, wie wir eine bessere Produktbewertung durch die Nutzer sozialer Medien beeinflussen können. Mehrere Aspekte des Designs der Social-Media-Website wurden ausführlich untersucht. In dieser Studie nehmen wir jedoch eine neue Perspektive ein, indem wir den Einfluss des tatsächlichen physischen Verhaltens (Körperbewegung) der Benutzer während einer Betrachtungssitzung untersuchen. Drei Experimente sollen untersuchen, wie unterschiedliche Trackpad-Ausrichtungen (natürlich vs. umgekehrt) von Laptops die Bewertung und Erinnerung der Verbraucher an das empfohlene Produkt beeinflussen, das in sozialen Medien angezeigt wird. Wir gehen davon aus, dass die natürliche Trackpad-Orientierung zu unterschiedlichen Wahrnehmungen der Informationsverarbeitung führen wird, was zu Unterschieden in ihren Bewertungen und Erinnerungen an die Produkte online führt. Die Ergebnisse sollen zeigen, dass bei Verwendung von natürlichem Scrollen die hohe Verarbeitungsflüssigkeit eher zu positiveren Bewertungen, aber zu einem schlechteren Gedächtnis führt. Darüber hinaus zeigen wir, dass die Kaufmotivation die Beziehung moderiert. Wenn Verbraucher zielorientiertes Online-Shopping betreiben, wird der überlegene (minderwertige) Effekt der Sprachflüssigkeit auf die Bewertung (Gedächtnis) für natürliche Orientierung gegenüber umgekehrter Orientierung abgeschwächt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-58481-2_24 9e134735a7255f1b43cf872efdb5bff2;de;;;7.2.;;;Migration von Open-Source-Software in integrierte Informationssysteme im öffentlichen Sektor Dieser Beitrag berichtet über eine Studie zur Einführung von Open Source Software (OSS) in einer öffentlichen Verwaltung in Europa. Die untersuchte öffentliche Verwaltung hat OSS eingeführt, um Lizenzkosten zu sparen und mehr Raum für Anpassungszwecke zu haben. Die Einführung neuer Software kann Auswirkungen auf die Produktivität der Mitarbeiter haben, die angegangen werden müssen. In diesem Artikel vergleichen wir die Nutzung von OpenOffice.org und Microsoft Office. Daten über die üblichen Bürotätigkeiten der an den Experimenten teilnehmenden Benutzer wurden mit einem automatisierten, nicht-invasiven Datenerfassungstool gesammelt. Das Ergebnis dieser Studie zeigt ein ähnliches Nutzungsmuster beider Suiten in Bezug auf die Arbeitsbelastung, aber einen unterschiedlichen Ansatz bei der Nutzung der von jeder Software bereitgestellten Funktionalitäten. Eine weitere Analyse der Lebenszyklen von Dokumenten, die mit den Office-Suiten erarbeitet wurden, scheint die Ähnlichkeiten der untersuchten Softwarelösungen zu bestätigen.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-34456-X_74 288aaed96329468816c7728728d14200;de;;;7.2.;;;Auswertung inhaltsbasierter Bilddeskriptoren durch statistische Methoden Die Bewertung von Systemen zum Abrufen visueller Informationen erfolgt normalerweise durch Ausführen von Testabfragen und Berechnen von Rückruf- und Präzisionsmessungen basierend auf vordefinierten Mediensammlungen und Ground-Truth-Informationen. Dieser Vorgang ist komplex und zeitaufwendig. Für die Auswertung von Merkmalstransformationen (Transformation visueller Medienobjekte in Merkmalsvektoren) wäre es wünschenswert, auch einfachere Verfahren zur Verfügung zu haben. In diesem Beitrag stellen wir ein ergänzendes Bewertungsverfahren für Merkmale vor, das auf statistischer Datenanalyse basiert. Eine zweite Neuheit besteht darin, dass wir die vorhandenen visuellen MPEG-7-Deskriptoren verwenden, um die Eigenschaften von Merkmalstransformationen zu beurteilen. Das vorgeschlagene Verfahren gliedert sich in vier Schritte: (1) Merkmalsextraktion, (2) Zusammenführen mit MPEG-7-Daten und Normalisierung, (3) statistische Datenanalyse und (4) Visualisierung und Interpretation. Zur Auswertung werden drei Arten von statistischen Methoden verwendet: (1) univariate Beschreibung (Momente etc.), (2) Identifizierung von Ähnlichkeiten zwischen Merkmalselementen (zB Clusteranalyse) und (3) Identifikation von Abhängigkeiten zwischen Variablen (zB Faktorenanalyse) . Die statistische Analyse liefert nützliche Einblicke in die Struktur von Features, die für das Feature-Redesign genutzt werden können. Anwendung und Vorteile des vorgeschlagenen Ansatzes werden in einer Reihe von Spielzeugbeispielen gezeigt.;-;-;-;https://link.springer.com/article/10.1007/s11042-007-0106-y 72d4076555efd7b717db171aba4204fc;de;;;7.1.;;;ICT-Enabled Integrated Operations: Auf dem Weg zu einem Framework für die Integration von Fertigungs- und Instandhaltungsplanung und -steuerung Mit zunehmendem Wettbewerbsdruck durch Globalisierung und verschiedene andere Faktoren wurde in letzter Zeit ein stärkeres Augenmerk auf die systematische Integration von Operationen innerhalb und außerhalb von Unternehmen gelegt. Ein solcher Bereich war die Integration der Instandhaltungsplanung und -ausführung mit der Planung und Steuerung der Fertigung. Ein solches neuartiges Konzept wird als Integrierte Planung (IPL) bezeichnet. In diesem Papier untersuchen wir Entwicklungen in diesem Bereich und schlagen einen konzeptionellen Rahmen vor, der verwendet werden sollte, um spätere Fortschritte auf diesem Gebiet zu lenken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41263-9_30 a8f919024102bd6b5d5f040990c9ab02;de;;;7.1.;;;Projektmanagement für IT-Experten: Aus- und Weiterbildungsfragen IT-Projektmanagement wird für alle IT-Experten immer wichtiger und kann entweder durch Aus- oder Weiterbildung vermittelt werden. Dieses Papier beginnt mit einem Blick auf die Aufgaben des Projektmanagements und die beiden Hauptansätze des Projektmanagements: PMBoK und PRINCE2. Wir skizzieren ein zentrales postgraduales Fach in IT-basierten Studiengängen an der Victoria University und wie dieses versucht, sowohl Konzepte als auch Praxis zu handhaben, sowie einen PRINCE2-Trainingskurs. Das Papier untersucht dann die Probleme, die mit jedem dieser Ansätze verbunden sind, sowie deren Vor- und Nachteile.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45770-2_2 15203f240af34776fb6b0b3ec9d3eae5;de;;;7.1.;;;Techniken zum Umgang mit räumlichen Details in der Forstplanung Spezielle Modelllösungsansätze können für Planungsprobleme der Waldbewirtschaftung entworfen werden, indem ein Verständnis des Problems verwendet wird. Ein spezialisierter Dekompositionsansatz hat es ermöglicht, größere Probleme anzugehen. Es hat sich in Anwendungen bewährt. Konzepte des Verschiebens von Fenstern aus geografischen Informationssystemen können mit dynamischen Programmiertechniken (DP) kombiniert werden, um Nachbarschaftsbetrachtungen bei großen Problemen zu berücksichtigen. Dieser DP-Ansatz und der spezialisierte Dekompositionsansatz können wahrscheinlich kombiniert werden, um Wege zu finden, sowohl die Holzproduktion als auch waldweite räumliche Bedingungen wie die Größe des Waldrands oder des Innenraums aufrechtzuerhalten. Der spezialisierte Dekompositionsansatz wurde erweitert, um räumliche Wechselwirkungen zwischen Holzmärkten zu berücksichtigen. Ähnliche Erweiterungen erscheinen plausibel, um breitere räumliche Umweltbelange im Zusammenhang mit der Waldbiodiversität zu adressieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-9006-8_17 7fd549d593855e57e8e29e7d48b59123;de;;;7.1.;;;Aufbau eines Rahmens für Aktionen und Rollen im organisatorischen Wissenstransfer Um Initiativen des Wissensmanagements (WM) analysieren und verbessern zu können, müssen Organisationen befähigt werden, sich systematisch mit den Prozessen des organisationalen Wissenstransfers zu befassen. Sie müssen wissen, welche Rollen an diesen Prozessen beteiligt sind und welche Aktionen ausgeführt werden. Wir schlagen vor, dass nur dann, wenn die Bausteine ​​des organisatorischen Wissenstransfers bekannt sind, sinnvolle Detailanalysen von WM-Initiativen durchgeführt werden können. In diesem Papier stellen wir einen Rahmen vor, der Rollen und Aktionen strukturiert, die in organisationalen Wissenstransferszenarien relevant sind und der nützlich ist, um Faktoren zu identifizieren und zu klassifizieren, die den Wissenstransfer fördern oder verhindern. Die Identifikation von Rollen und Aktionen ist unumgänglich, da sie die Kernstruktur des Wissenstransfers in einer Organisation bilden und somit geeignete Ansatzpunkte für Analysen darstellen. Ohne einen geeigneten Rahmen, der diese Ausgangspunkte aufzeigt, könnte es schwierig sein, eine durchdachte Forschung aufzustellen, die die Merkmale des organisationalen Wissenstransfers erfasst. Darüber hinaus hilft unser Framework durch die Gegenüberstellung des IT-gestützten Wissenstransfers mit dem nichtelektronischen Wissenstransfer bei der Beantwortung der Frage, wie KM-Systeme den Wissenstransfer unterstützen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09659-9_5 5378e5d9dea5badcd5e859faeff8f406;de;;;7.1.;;;Integration von Prozesskostenrechnung und Prozesssimulation für die strategische Personalplanung In diesem Beitrag wird eine Methode zur Integration von Activity Based Costing (ABC) und Prozesssimulation in die Personalplanung vorgestellt. Unsere Studien haben bereits eine Methode zur Integration von ABC und Prozesssimulation in das Business Process Reengineering (BPR) vorgeschlagen und eine Fallstudie einer Chemieanlage gezeigt. Einige Studien haben auch bereits einige Beispiele für verschiedene Aspekte in Fertigungssystemen aufgezeigt. Obwohl eine große Anzahl von Studien zur Produktmix-/Maschinenbeladung oder -planung durchgeführt wurde, ist über die menschliche Planung wenig bekannt. In diesem Papier werden effektive BPR-Methoden diskutiert, um dramatische Verbesserungen bei den geschäftlichen Messungen der Fähigkeiten und Kosten von Arbeitnehmern auf der Grundlage von ABC zu erzielen. Zunächst werden zwei wichtige Werkzeuge gezeigt: die Prozesssimulationsmethode und die ABC-Analyse, die von Organisationen für ihre eigene BPR angepasst werden können. Da diese Werkzeuge separat verwendet wurden, ergibt sich ein einheitlicher Ansatz aus Prozesssimulation und ABC-Analyse für auf Simulation basierende Prozessredesigns. Zweitens wird eine Methode des Prozesssimulationsdesigns gezeigt. Es wird wiederholt, um das Arbeitsverhältnis und die Laufzeit der Ressourcen zu berücksichtigen. Drittens wird eine Methode der ABC-Analyse gezeigt, die von Organisationen angepasst werden kann. Es zeigt automatisch die Daten an, die aus vielen Quellen gesammelt wurden. Durch die Verwendung der Daten wird die Prozesssimulation implementiert und das Ergebnis der Simulation gibt die Daten an die ABC-Analyse. Schließlich zeigt dieses Papier eine Fallstudie in BPR und die Wirksamkeit unserer Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-74157-4_32 47c982a0c938486e49221e71383e0ec6;de;;;7.1.;;;Die Rolle des Wissensmanagements während des ERP-Implementierungslebenszyklus verstehen: Vorläufige Forschungsergebnisse zu Schwellenländern Dieses Work in Progress Paper präsentiert eine vorläufige Analyse der Herausforderungen des Wissensmanagements (WM) in der ERP-Einführungsphase. Dieses Papier ist ein integraler Abschnitt einer laufenden Forschung, die sich auf die Rolle von KM während des ERP-Implementierungslebenszyklus in großen und mittleren Unternehmen in Südafrika konzentriert. Eines der wichtigsten Forschungsziele ist es, die zentralen Herausforderungen von KM in großen und mittleren Organisationen in Südafrika zu untersuchen. Eine Durchsicht der vorhandenen Literatur zeigt einen Mangel an umfassender WM-Forschung während der verschiedenen ERP-Einführungsphasen und insbesondere in Schwellenländern. Zu den ersten Erkenntnissen zählen fehlende Prozess-, Fach- und Projektkenntnisse als zentrale Herausforderungen. Weitere Bedenken sind mangelndes Verständnis für die Notwendigkeit von Veränderungen, fehlende Kontextualisierung und Managementunterstützung. Dieses Papier schließt einige der identifizierten Forschungslücken in diesem Bereich und sollte großen Organisationen der südafrikanischen Wirtschaft zugutekommen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36611-6_21 7ba5f4c0d1ea58739df2a9a94c061248;de;;;7.1.;;;Die Anwendung einer relationalen Datenbankmanagementsystem-Software bei der Erstellung eines intelligenten Prozessplanungssystems Ein Datenbankmanagementsystem (DBMS) ist ein notwendiger und zentraler Bestandteil eines Computer Integrated Manufacturing (CIM) Informationssystems. In diesem Beitrag wird eine Teilmenge von CIM-Informationen, Prozessplanungswissen, mit Hilfe des relationalen Datenbankmodells formalisiert, was die Flexibilität und Leichtigkeit der Datenbearbeitung mit diesem Ansatz demonstriert. Dieses Modell wird dann entwickelt, um den Rahmen für eine;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-10890-9_13 28520d20f352803d1efc99b95b1429b7;de;;;7.1.;;;Arbeitssystemparadigma und Rahmen für die fraktale Architektur von Informationssystemen Zeitgemäße Informationssysteme müssen den Anforderungen agiler und zukunftsfähiger Unternehmen gerecht werden. Sie umfassen Mechanismen für Business Intelligence, Geschäftsprozessmanagement, IT-Infrastrukturmanagement und Abstimmung zwischen Geschäfts- und Computersystemen. Die Mechanismen für die Handhabung von Geschäftsprozessen und die Handhabung von Computersystemen sind ähnlich, und auch die Mechanismen für ihre kontinuierliche integrierte Verbesserung sind ähnlich, daher kann die Architektur von Informationssystemkomponenten, die diese Prozesse unterstützen, ebenfalls ein gewisses Maß an Ähnlichkeit aufweisen, wenn sie auf einer bestimmten Ebene betrachtet Abstraktion. Das Papier, das sich auf die oben genannten Ähnlichkeiten konzentriert, verwendet das Arbeitssystemparadigma von St. Alter, um eine fraktale Architektur von Informationssystemen zu konstruieren, die zur Unterstützung agiler und lebensfähiger Unternehmen verwendet werden kann. Die Architektur umfasst vordefinierte Prozessrahmen, einen Rahmen für virtuelle Agenten, Rahmen von Informationsflüssen in lebensfähigen Systemen und einen Rahmen für Informationsflüsse in der Unternehmensarchitektur, die helfen, Anforderungen für die Einführung kontinuierlicher Änderungen in Informationssystemen abzuleiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19270-3_11 e26fa4f94488db9500fc06e4ff52da41;de;;;7.1.;;;Langzeit-Planung Durch eine Analyse der langfristigen Planungssysteme erfolgreicher japanischer Unternehmen erfahren wir, wie die strategischen Entscheidungen in Japan getroffen werden und mit welchen Mitteln die strategische Entscheidung gelingen kann. Die formale Langfristplanung deckt viele Bereiche strategischer Entscheidungen ab, sodass die Analyse des Planungsprozesses das formale Verhaltensmuster der Organisation aufzeigt. Wie im vorherigen Kapitel analysieren wir die Ziel- und Richtlinienbildung, den organisatorischen Ablauf und die Merkmale der Informationsverarbeitung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-17627-4_9 e1409e76bc77b0b0bf0570fedf0efbdf;de;;;7.1.;;;Ein neuartiger Ansatz zur Steigerung der Effizienz von OSS/BSS-Workflow-Planung und -Design Heutzutage ändern sich die Kommunikationstechnologien und das Angebot an Mobilfunkanbieterdiensten extrem schnell. Daraus ergibt sich die Notwendigkeit einer ständigen Anpassung und Erweiterung von OSS/BSS, das in Mobilfunknetzen verwendet wird. Derzeit sind Anpassungs- und Expansionsstrategien nur unzureichend formalisiert und validiert. Bei aktuellen Ansätzen nach dem Stand der Technik sind mehrere Iterationen unter Einbeziehung von Analysten und Systemarchitekten erforderlich, was zu einer zeit- und kostenaufwendigen Serviceentwicklung führt. Die in diesem Beitrag vorgeschlagene Workflow-Design-Methode schließt diese Lücke. Es verwendet ein gut definiertes Workflow- und Analysemodell für die Entwicklung und Anpassung von OSS/BSS. Die Anwendbarkeit dieses neuartigen Ansatzes wird durch ein prototypisch implementiertes Design-Software-Tool bestätigt, das in einem Telekommunikationsunternehmen getestet wurde. Das entwickelte Tool ermöglicht die Automatisierung der Serviceplanung, das rechnerunabhängige Workflow-Design und dessen Umsetzung in sein Realisierungsmodell. Die Reduzierung der Entwicklungszeit und damit des notwendigen finanziellen Aufwands wurde anhand unserer Praxisversuche nachgewiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30359-3_13 49265c2ed6d5d6458029aa0535c281cd;de;;;7.1.;;;Modelle, Systeme und Realität: Wissensgenerierung und Strategien für das Systemdesign Die meisten verbreiteten Ansätze für die Probleme der Fertigungssteuerung konzentrieren sich auf das Planungsproblem. Dabei wird ein organisatorisches Problem in der realen Fertigungswelt durch ein mathematisches Problem innerhalb einer modellierten Welt ersetzt. Um nachhaltige und ganzheitliche Lösungen zu ermöglichen, bleibt die Frage, wie Wissen für das Systemdesign generiert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-60313-6_4 a9f8d1bff3a1af8ac1ff19b59975c559;de;;;7.1.;;;Pflege der Widerspenstigkeit in der Informationssystemforschung Es gibt eine anhaltende Debatte darüber, wie die Qualität empirischer Forschungsbemühungen in Informationssystemen verbessert werden kann. Eine der anhaltenden Fragen in der Debatte betrifft die relative Bedeutung sozialer und technischer Aspekte eines Informationssystems und die Untersuchung dieser verschiedenen Elemente. Zeitgenössische Forschungen in den Wissenschafts- und Technologiestudien legen nahe, dass sozialwissenschaftliche Untersuchungen von empirischen Untersuchungen innerhalb der Naturwissenschaften durch den Begriff der Widerspenstigkeit in experimentellen Fächern lernen können. Ziel dieses Artikels ist es, eine erste Untersuchung der Nützlichkeit dieser Ideen im Kontext der empirischen Informationssystemforschung durchzuführen. Die folgenden drei Forschungsmethoden werden einer ersten theoretischen Analyse unterzogen: (I) Längsschnitt, interpretative Fallstudie, (2) quantitative Fallstudie und (3) Laborexperimente. Für jede der drei Methoden wird ein Beispiel zusammen mit Überlegungen der Forscher untersucht, die die jeweilige Studie durchführen. Es wird gefolgert, dass dies zwar nicht die Lösung aller methodischen Probleme darstellt, aber die Perspektive der Pflege der Widerspenstigkeit und die Gestaltung von Forschungsmethoden unter Einbezug von Gegnern eine zusätzliche Perspektive bietet, die die empirische Arbeit bereichern und vertiefen sowie den Methodendiskurs weiter qualifizieren kann zwischen Forschern.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35489-7_20 e191908ba9d5931368cbcf700f0fd3b9;de;;;7.1.;;;Ein Geschäfts- und Lösungsbaustein-Ansatz für die EA-Projektplanung Viele EA-Gruppen kämpfen darum, einen Gesamtprogrammplan auf eine integrierte, erreichbare und verständliche Weise für die Stakeholder- und Sponsorengemeinschaft sowie die nachgelagerten Implementierungsgruppen zu erstellen, darunter: IT, Prozessmanagement, Personalwesen und Produktmanagement. In diesem Beitrag wird ein Ansatz vorgestellt, der diese Ziele auf einfache Weise erreicht. Der Ansatz wird derzeit in einer relativ neuen Unternehmensarchitekturfunktion innerhalb eines aggressiv expandierenden Telekommunikationsunternehmens mit vielversprechenden Ergebnissen implementiert. Das Problem wird vorgestellt und eine Lösung mit Metamodell und visuellen Darstellungen diskutiert. Frühe Erkenntnisse zeigen, dass die Technik einfach anzuwenden ist und ein gemeinsames Verständnis zwischen der EA-Funktion, Projektsponsoren, Projektbeteiligten und IT-Personal schafft. Die Technik wird an einem Beispiel erläutert, das es anderen leicht machen soll, sie in ihrer eigenen Umgebung zu replizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41641-5_19 cfa332b5317606d10e4e74851bd01492;de;;;7.1.;;;Internationale Informationssysteme in der Literatur Die folgenden Abschnitte stellen die Forschungsliteratur zu internationalen Informationssystemen zunächst in einen breiteren Kontext der Informationssystemforschung im Allgemeinen. Im zweiten Teil wird die Entwicklung der internationalen Informationssystemforschungsliteratur diskutiert und der „Stand der Technik“ Ende 1994, als dieses Forschungsprojekt gestartet wurde, dargestellt. Ein Literaturüberblick seither schließt diese Übersicht ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-5750-4_2 84c2d1efc316ceb6227c7817fef36ddd;de;;;7.1.;;;Informationssystemforschung als Design: Identität, Prozess und Narrative Die Wirtschaftsinformatik hat die antagonistischen Dualismen, die ihren Diskurs in den letzten 20 Jahren dominierten, hinter sich gelassen. Unsere Gemeinschaft umfasst heute weitgehend unterschiedliche Forschungstraditionen und hat kein starkes Dogma. Aber es erlebt auch eine Identitätskrise. Wissenschaftler fragen, was das Feld der Informationssysteme ist oder sein sollte und wohin es geht oder gehen sollte. In diesem Beitrag argumentieren wir, dass solche Fragen, obwohl sie als sinnstiftende Mittel verständlich sind, grundsätzlich fehlgeleitet sind, weil sie nach den;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-8095-6_4 91a7a5325761ab6997cd06c5cff020c4;de;;;7.1.;;;Sicherheit von Unternehmensinformationssystemen: Ein konzeptioneller Rahmen Im Laufe des letzten halben Jahrhunderts haben Unternehmen Informationssysteme zur Verwaltung ihrer Geschäftsprozesse implementiert. Diese Informationssysteme haben sich inzwischen zu sogenannten Unternehmensinformationssystemen entwickelt. Ein wichtiger Aspekt bei der Implementierung eines Unternehmensinformationssystems in einer Organisation ist die Entwicklung von sicherheitsrelevanten Themen innerhalb des Informationssystems für die Geschäftsprozesse. In diesem Papier überprüfen wir die relevante Literatur zu den Sicherheitsrichtlinien, die mit der Verwendung von Unternehmensinformationssystemen in Organisationen verbunden sind. Basierend auf dieser Literaturrecherche identifizieren wir vier Hauptthemen: Dokumentation der Sicherheitsrichtlinien, Sensibilisierung der Mitarbeiter, Unterstützung des Top-Managements und Zugriffskontrolle. Ein auf diesen vier Themen basierender konzeptioneller Rahmen wird dann im Kontext der Corporate Governance für die Sicherheit der Unternehmensinformationssysteme vorgestellt. Wir schließen unsere Arbeit mit der zukünftigen Ausrichtung dieser Forschung ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28827-2_9 c93a3be5d8fb0b8efbf5035d2f30be97;de;;;7.2.;;;Kansei-Verarbeitungsagent zur Personalisierung des Abrufs Gegenwärtig reichen Verfahren zum Erstellen und Verarbeiten eines Profils nicht aus, um einen Abruf von Personalisierungsinformationen zu erreichen, der die subjektive Kansei-Präferenz von Benutzern widerspiegelt. Um diese Unzulänglichkeit zu beheben, haben wir einen Kansei-Informationsverarbeitungsagenten geschaffen. Unsere Studie schlägt einen Kansei-Agenten zur Erstellung, Ansammlung und Erneuerung von Profilen beim personalisierten Abruf vor und untersucht mögliche Beiträge zur Entwicklung eines Kansei-basierten Empfehlungssystems und Personalisierungsdienstes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73078-1_51 da84ca0dbde98f9df6cbd7cfb4becf8b;de;;;7.2.;;;Auf dem Weg zu einem High-Level-Audio-Framework für den Videoabruf, das konzeptionelle Beschreibungen und vollautomatische Prozesse kombiniert Combi Der wachsende Bedarf an „intelligenten“ Video-Retrieval-Systemen führt zu neuen Architekturen, die mehrere Charakterisierungen des Video-Contents kombinieren, die auf ausdrucksstarken Frameworks basieren und gleichzeitig vollautomatische Indizierungs- und Retrieval-Prozesse bieten. Tatsächlich ist die Lösung des Problems der Kombination von Modalitäten innerhalb ausdrucksstarker Rahmen für die Videoindizierung und den Abruf von großer Bedeutung und die einzige Lösung, um eine signifikante Abrufleistung zu erreichen. Dieses Papier präsentiert einen facettenreichen konzeptionellen Rahmen, der mehrere Charakterisierungen des Audioinhalts für den automatischen Videoabruf integriert. Es beruht auf einem ausdrucksstarken Darstellungsformalismus, der High-Level-Audiobeschreibungen eines Videodokuments und einem Volltext-Abfrage-Framework verarbeitet, um zu versuchen, die Videoindizierung und den Abruf von Audiomerkmalen über hochmoderne Architekturen hinaus zu betreiben, die auf Low-Level arbeiten Funktionen und Schlüsselwort-Annotations-Frameworks. Experimente zur multimedialen Themensuche der Evaluierungskampagne TRECVID 2004 bestätigen unseren Vorschlag.;-;-;-;https://link.springer.com/chapter/10.1007/11581772_72 4e35a7f475abfdecf9e374e0c1ad1f94;de;;;7.2.;;;Aufbau von Informationssystemen mit Empfehlungstechniken zur kollaborativen Filterung IoT-Technologien ermöglichen die Verbindung verschiedener Geräte und schaffen so eine Plattform, die reichhaltige Datenquellen unterstützt. Unter diesen Umständen ist es unerlässlich, über angemessene Maschinen zu verfügen, um die vorhandene Infrastruktur zu nutzen und den Nutzern personalisierte Dienste anzubieten. Unter anderem wurden Empfehlungssysteme häufig verwendet, um Benutzern zusätzliche Elemente vorzuschlagen, die ihren Bedürfnissen und Erwartungen am besten entsprechen. Der Einsatz von Empfehlungssystemen hat in den letzten Jahren stark an Bedeutung gewonnen. Dennoch hängt die Auswahl einer geeigneten Empfehlungstechnik stark von den Eingabedaten sowie der Anwendungsdomäne ab. In dieser Arbeit präsentieren wir eine Evaluierung von zwei bekannten Collaborative-Filtering (CF) Techniken zum Aufbau eines Informationssystems für die Verwaltung und Empfehlung von Büchern im IoT-Kontext. Um die Leistung zu validieren, führen wir eine Reihe von Experimenten mit zwei beträchtlich großen Datensätzen durch. Die experimentellen Ergebnisse führen uns zu einigen interessanten Schlussfolgerungen. Im Gegensatz zu vielen bestehenden Studien, die besagen, dass die itembasierte CF-Technik die nutzerbasierte CF-Technik übertrifft, haben wir herausgefunden, dass es keinen eindeutigen Gewinner gibt. Darüber hinaus bestätigen wir, dass die Leistung eines CF-Recommender-Systems in Bezug auf einige Qualitätsmetriken gut sein kann, aber nicht in Bezug auf andere.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20948-3_19 1a43f94edd4ee4cf47e7aaf0dae2194e;de;;;7.1.;;;Kollaboratives Management intermodaler Mobilität Weltweit verändern sich Gesellschaften und das Mobilitätsverhalten. Die Menschen nutzen zunehmend mehrere Verkehrsmittel, wobei nicht nur unterschiedliche Verkehrsmittel für verschiedene Fahrten, sondern auch die kombinierte Nutzung verschiedener Verkehrsmittel innerhalb einer Fahrt zu beobachten sind. Darüber hinaus hängen Entscheidungen für bestimmte Verkehrsmittel auf bestimmten Reiseetappen vom situativen Kontext (z. B. aktueller Verkehr) und individuellen Vorlieben ab. Dieser Trend kann durch die Zusammenarbeit von Mobilitäts- und Serviceanbietern unterstützt werden. Daher müssen Informationssysteme Echtzeitdaten über Verkehr, Anbieterstatus (mehrerer Mobilitätsanbieter) und mögliche Übergabepunkte bereitstellen, um eine kontextsensitive Routenanpassung durchzuführen. Neben Kundenpräferenzen kann der Verkehrsfluss auf individueller und öffentlicher Ebene optimiert werden. In diesem Artikel bemühen wir uns, die mit diesem Szenario verbundenen Herausforderungen aufzuzeigen. Darüber hinaus präsentieren wir eine Architektur für intermodale Informationssysteme, die Dienste zur individuellen Planung, Echtzeit-Routenanpassung und Anbieterkooperation bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44745-1_70 1cb771e744da12534792699ba87f6c55;de;;;7.1.;;;4D und 5D BIM: Ein System zur Automatisierung von Planung und integriertem Kostenmanagement Der Bausektor hat Schwierigkeiten, das sich schnell entwickelnde Technologiezeitalter zu erfassen. Während sich die Branchen schnell an die neue Ära anpassen, verlieren Unternehmen, die nicht in Innovation investieren, schnell an Wert. Wenn wir uns die Fortune-500-Liste anschauen, sehen wir, dass der größte Sprung von Unternehmen aus der IT-Branche gemacht wird. Bei Bauunternehmen ist die Situation jedoch umgekehrt. Trotz der enormen Investitionskosten und der damit verbundenen enormen Risiken können Bauunternehmen mit den Marktführern der digitalen Welt nicht mithalten und fallen in die Liste zurück. Die Zeit- und Kostenverluste nehmen in der Baubranche zu, die in der sich digitalisierenden Welt hinterherhinkt. Die systematische Analyse dieser Verluste mit analytischen Methoden bleibt begrenzt und es gibt Probleme bei Projektmanagement-Ansätzen. Die Industrie investiert heute mit Building Information Modeling (BIM) in die digitale Transformation, um diese Probleme im Bausektor zu bewältigen und eine Lösung entsprechend ihrer Dynamik in der digitalen Welt zu produzieren. BIM ist das digitale Zwillingsmodell der realen Konstruktion, bestehend aus datenreichen 3D-Objekten. Eine genaue Verwaltung eines datenreichen Modells ist mit Datenverwaltungstechniken möglich. Um von dieser digitalen Reflexion von Bauvorhaben in vollem Umfang profitieren zu können, muss die Branche Prozesse etablieren, die auf grundlegenden Theorien des digitalen Datenmanagements basieren. Diese Studie soll eine Methodik bereitstellen, in der die BIM 4D- und 5D-Prozesse als integrierte und Business-Intelligence-Ansätze behandelt werden. Bei der Annäherung an die Informationsmodellierung aus der Gebäudeperspektive wurden einige grundlegende Ansätze der Datenwissenschaft in 4D- und 5D-Prozesse integriert. Das Hauptziel der Studie ist es, einen Beitrag zum Digitalisierungsprozess zu leisten und einen Vorschlag für die Anwendung der Business Intelligence in BIM-Prozessen vorzulegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-42852-5_5 1a192a504c9aca1b391f464546273fcc;de;;;7.1.;;;Entscheidungsfindung in der Polizeiarbeit: Belange in der Praxis erklärt Studien zur Entscheidungsfindung in High Reliability Organizations, wie sie durch die Informationstechnologie unterstützt werden, haben sich meist auf den „kalten“ Kontext bezogen, dh auf die Planungs- und Briefing-Aufgaben, die einer Intervention vorausgehen. Der Grad an Elastizität, der von High-Reliability-Teams während kritischer Prozesse benötigt wird, ist der Schlüssel zur Stabilisierung der Teamleistung und kann durch den Einsatz von Technologie verbessert werden. Standardtechnologien werden jedoch häufig in Organisationen verwendet, ohne deren Auswirkungen auf die Interdependenz und Erschwinglichkeit von Aufgaben zu berücksichtigen. In diesem Artikel werden die Ergebnisse einer dreistufigen explorativen Feldstudie vorgestellt, die die Auswirkungen der Verflechtung von menschlichen (z. B. Benutzern) und materiellen (z. B. technologischen) Behörden auf die Entscheidungsprozesse einer Polizei untersucht hat. Wir befassen uns insbesondere mit den Auswirkungen auf die individuellen, kollektiven und gemeinsamen Nutzungsmöglichkeiten mobiler Technologien (z. B. Smartphone) im Hinblick auf den Arbeitsalltag von Beamten auf der Straße. Teams von Polizeibeamten wurden während ihrer täglichen Arbeit 80 Stunden lang beschattet. Dieser Artikel stellt die Ergebnisse in Form von vier Vignetten vor. Der verwendete Ansatz hat sich als nützlich erwiesen, um die Leistungsfähigkeit von Technologie in Bezug auf die Aufgabeninterdependenz von Mikroprozessen und Entscheidungsfindung zu bestimmen.;-;-;-;https://link.springer.com/article/10.1007/s10726-018-9587-5 c070b6d904ed892ce93f9b0eb1aaa058;de;;;7.1.;;;Herausforderungen bei der Implementierung von Enterprise Resource Planning (ERP)-Systemen: Eine kenianische Fallstudie ERP-Systeme (Enterprise Resource Planning) haben die Art und Weise, wie Unternehmen bei der Bereitstellung von Informationssystemen vorgehen, verändert. Sie versprechen, eine Standardlösung für den Informationsbedarf von Organisationen bereitzustellen. Trotz dieses Versprechens werden Implementierungsprojekte von vielen öffentlich gemachten Misserfolgen und abgebrochenen Projekten geplagt. Die Studie untersucht die Herausforderungen, mit denen Organisationen konfrontiert sind, die ERP-Systeme in Kenia implementieren. Die Ergebnisse dieser Studie sollen dem Management von Unternehmen, die ERP-Systeme implementieren, ein besseres Verständnis der wahrscheinlichen Herausforderungen vermitteln und geeignete Maßnahmen ergreifen, um das Risiko von Implementierungsfehlern zu verringern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79396-0_35 ab765d32bd8d1bb18c1cd0bb14c78261;de;;;7.1.;;;Eine Studie über Kontingenzfaktoren des Design von Rechnungslegungsinformationssystemen in tunesischen SMIs Dieses Papier zielt darauf ab, die Faktoren zu identifizieren, die die Gestaltung des Rechnungslegungsinformationssystems in der tunesischen kleinen und mittleren Industrie (KMI) durch die Informationsmerkmale, die Rechnungsführungsinstrumente und den Formalismus beeinflussen. Das Rechnungslegungsinformationssystem gilt als Schlüsselfaktor für die Wettbewerbsfähigkeit von Unternehmen. Es stellt den Managern die relevanten Buchhaltungsinformationen zur Verfügung, um sie bei der Entscheidungsfindung zu unterstützen. Durch eine Reihe von Struktur- und Verhaltensfaktoren versuchten wir am Beispiel Tunesiens, das Verständnis des Rechnungslegungsinformationssystems in den Entwicklungsländern zu verbessern. Anhand eines technischen Fragebogens wurden insgesamt 221 tunesische Unternehmen untersucht, die ausschließlich im Industriesektor tätig sind. Durch die Verwendung der PLS-Strukturgleichungsmodellierung haben wir gezeigt, dass die Gestaltung des Rechnungslegungsinformationssystems von mehreren Kontingenzfaktoren beeinflusst wird. Bei der Betrachtung der strukturellen Kontingenz stellten wir einen positiven und signifikanten Effekt der Unternehmensgröße auf den Formalismus fest. Darüber hinaus zeigte sich ein positiver und signifikanter Einfluss der Organisationsstruktur auf die Eigenschaften der Rechnungslegungsinformationssysteme. Darüber hinaus zeigte die Untersuchung der Verhaltenskontingenz, dass das Profil der Führungskraft teilweise den Einsatz von buchhalterischen Managementinstrumenten beeinflusst. Zusammenfassend lässt sich sagen, dass unsere Studie die Literatur zu Buchhaltungsinformationssystemen erweitert und Managern hilft, einen Rahmen zu haben, um die Leistung ihrer Branchen zu verbessern.;-;-;-;https://link.springer.com/article/10.1007/s13132-016-0439-8 c7e93f618ea734283d6f7976b43cfc85;de;;;7.1.;;;Hypermedia-Links und Informationsabruf Die Linkerstellung in den meisten bestehenden Hypertext- / Hypermedia-Produkten ist eine zeitaufwendige Aufgabe. Mikrokosmos ist ein offenes Hypermedia-System, in dem verschiedene dynamische Techniken verwendet wurden, um die Aufgabe der Verknüpfung großer Informationsmengen zu erleichtern. Dieses Whitepaper stellt das Microcosm-Modell vor und konzentriert sich auf eine Technik zur Nutzung von Rechenleistung zum dynamischen Erstellen von Links, die als Retrieval-Links bekannt sind. Der zum Erstellen von Abrufverbindungen verwendete Algorithmus wird beschrieben und einige vorläufige Experimente zur Bewertung des Wertes dieser Einrichtung werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-3211-0_12 3504c059585be301727e091f0ab9df3d;de;;;7.1.;;;Verbesserung der Personalinformationssysteme: Einbeziehung von Finanzsystemen und anderen Datenquellen Personalmanagementsysteme haben derzeit ein breites Publikum. Es wurde jedoch noch keine wirklich integrierte Lösung vorgeschlagen, um die betreffenden Systeme zu verbessern. Mögliche Ansätze für die zusätzliche Datensammlung für die Entscheidungsfindung werden berücksichtigt, einschließlich psychologischer Tests und Informationen zum Anlagevermögen sowie Produktverkaufsdaten. Als theoretischer Hintergrund für die jeweiligen Systeme wird die Konzeptmodellierung vorgestellt. Aktuelle Technologien in modernster HR-Management-Software werden diskutiert. Design- und Implementierungsaspekte eines webfähigen integrierten Unternehmenssystems mit hoher Sicherheit und Skalierbarkeit werden beschrieben. Testergebnisse für ein verbessertes HR-System auf Unternehmensebene werden angegeben. Perspektiven des jeweiligen Feldes werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0057746 b5f73f60a5f488c0b76286fa1e5f25f1;de;;;7.1.;;;Integration des Benutzers zur Minimierung der Planungszeit für Montagepfade in PLM Im Product Lifecycle Management (PLM) spielt die Montage- und Demontageprüfung eine wichtige Rolle. Mass Customization und personalisierte Produktion erfordern eine höhere Agilität der industriellen Hersteller, und damit gewinnt der Zeitaufwand für Montageprozesse (der oft die Kosten dominiert) zunehmend an Bedeutung. Enge Passagen, die bei Montageaufgaben häufig vorkommen, werden zu einem Engpass in der Montageplanung und reduzieren die Zeitersparnis durch die virtuelle Montage. In diesem Beitrag stellen wir eine neuartige interaktive Bewegungsplanungsmethodik für virtuelle Montage- und Demontagevorgänge vor. In unserer Methode wird die Manipulation des Benutzers mit dem Force-Feedback-Gerät in schwierigen Szenarien durch die Lockerung der Kollisionsbeschränkungen befreit. Der grobe Pfad wird durch unsere zufällige Rückzugsmethode zurückgezogen und dann durch den BiRRT-Algorithmus verbunden. Für jeden Benutzervorgang wird ein erfolgreich durch den schmalen Durchgang verlaufender Pfad dargestellt, oder es werden geometrische Interferenzinformationen im fehlgeschlagenen Fall zur Bewegungsneuplanung und Designänderung bereitgestellt. In anspruchsvollen 2D-Szenarien mit engen Passagen wird eine signifikante Verbesserung für die Trajektorienplanung von nicht konvexen Objekten beobachtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41501-2_47 17d7f269d439b9b11799d99282c9974a;de;;;7.1.;;;Informationssysteme und Organisationen Informationssysteme werden im Kontext von Organisationen eingesetzt. Es ist mittlerweile zu einer Binsenweisheit geworden, dass in modernen westlichen Volkswirtschaften der Erfolg von Organisationen häufig stark vom Erfolg ihrer Informationssysteme abhängt. In diesem Kapitel diskutieren wir eine Reihe von Modellen für Organisationen und wie das Konzept eines Informationssystems und die Entwicklung solcher Informationssysteme in den Rahmen jedes Modells passt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-14931-5_3 6c77e23e2b0c24b21d1dfd808eb44dcb;de;;;7.1.;;;Systemlandschaft im Bereich Asset Management Wie mehrfach beschrieben, sind Daten jeglicher Art die Grundlage für die Umsetzung von Asset Management Aufgaben. Eine Vielzahl von Daten muss in verschiedenen Programmen und Dateien gesammelt, gespeichert und verarbeitet werden. Idealerweise sind die Programme und Datenbanken miteinander verknüpft, wobei diese Konstellation als „Datensystemlandschaft“ bezeichnet wird. Die einzelnen Grundelemente dieser Systemlandschaft werden in den folgenden Abschnitten detailliert beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-17879-0_5 6f3f8700b8f38b85bf12e1efde788e3e;de;;;7.2.;;;Konzeptionelle Indexierung zwischen den Medien Die Indexierung von Text- und Bilddokumenten auf derselben konzeptionellen Ebene ermöglicht den Aufbau einer effektiven intermedialen konzeptionellen Indexierung. In diesem Kapitel stellen wir Modelle und Techniken vor, mit denen diese konzeptionelle Indexierungsebene erreicht wird. Unsere Experimente wurden mit medizinischen Daten von ImageCLEF durchgeführt, wobei die UMLS-Quelle (Unified Medical Language System) für Textkonzepte und eine manuell erstellte visuelle Ontologie verwendet wurden. Wir haben den UMLS-Metathesaurus als externe Ressource zur Indexierung von Text auf konzeptioneller Ebene verwendet. Auf dieser Ebene kann die Abfrage mithilfe von Domänendimensionen strukturiert werden. Die visuelle Ontologie wurde unter Verwendung der am häufigsten verwendeten Konzepte von UMLS und beschnittenen Bildern aus dem Web und aus dem Korpus selbst erstellt. Das System ist dann in der Lage, Text und Bilder unter Verwendung desselben Konzeptsatzes zu indizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15181-1_19 af8891b6e6bab1bee649a928498926ac;de;;;7.2.;;;Ontologische Auswertung im wissensbasierten System In den letzten Jahren haben mehrere Studien die Verwendung von Ontologien als Alternative zur Organisation der Informationen hervorgehoben. Der Begriff der Ontologie hat sich in Bereichen wie intelligenter Informationsintegration, Informationsabruf im Internet und Wissensmanagement durchgesetzt. Verschiedene Gruppen verwenden unterschiedliche Ansätze, um die Wirksamkeit von Ontologien zu entwickeln und zu überprüfen [;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34749-3_18 913fc974b7e88092b6fead7eb738b7bf;de;;;7.1.;;;Augmented Agents: Kontextuelle Wahrnehmung und Planung für BDI-Architekturen Kontextbewusste Systeme sind in der Lage, die physische Umgebung, in der sie eingesetzt werden, wahrzunehmen und ihr Verhalten je nach verfügbaren Informationen und deren Verarbeitung anzupassen. Ambient Intelligence (AmI) steht für kontextbewusste Umgebungen, die auf die Anforderungen von Menschen reagieren und darauf reagieren. Während unterschiedliche Modelle verwendet werden können, um adaptive kontextsensitive Systeme zu implementieren, eignen sich BDI-Multiagentensysteme aufgrund ihres glaubensbasierten Denkens besonders dafür. Unterschiedliche BDI-Architekturen verwenden jedoch unterschiedliche Argumentationsverfahren und bieten daher unterschiedliche Anpassungsfähigkeitsstufen. In jeder Architektur folgen kontextbezogene Informationen einer bestimmten Glaubensstruktur, und die kontextbezogenen Fähigkeiten können variieren. Wir schlagen ein Framework vor, das von BDI-Agenten in einem Szenario mit mehreren Architekturen verwendet werden kann, um modular kontextbezogene Fähigkeiten wie Lernen, zusätzliche Argumentationsfähigkeiten und Interoperabilität zu erwerben. Wenn dieses Framework mit einem vorhandenen BDI-Agenten kombiniert wird, ist das Ergebnis ein erweiterter Agent.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-91899-0_3 4522b6d9f5fd95e20779b03edd81b2f6;de;;;7.1.;;;Agentenbasierte Lieferkettenplanung in der Forstproduktindustrie Aufgrund neuer wirtschaftlicher Herausforderungen und neuer Trends in Bezug auf den internationalen Handel und die Globalisierung stehen viele Unternehmen der kanadischen Forstproduktindustrie nun vor der Notwendigkeit, ihre Organisationsprozesse und Geschäftspraktiken mit ihren Partnern neu zu gestalten. Dieses Papier schlägt eine Architektur vor, die darauf abzielt, die Entwicklung fortschrittlicher Planungssysteme für die Forstproduktindustrie zu ermöglichen. Diese Architektur kombiniert Agententechnologie mit Operational Research, um die Fähigkeit der agentenbasierten Technologie zur Integration verteilter Entscheidungsprobleme und die Fähigkeit der Operationsforschung zur Lösung komplexer Entscheidungsprobleme zu nutzen Dieses Dokument beschreibt, wie diese Architektur zu einem fortschrittliches Planungs- und Terminierungstool für die Holzindustrie und wie es validiert wird;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-36594-7_3 1c78980ff8ba387d6d19628f3067610c;de;;;7.1.;;;Business-Driven Decision Support für Change Management: Planung und Terminierung von Änderungen Aus den Ergebnissen einer von uns im Jahr 2006 durchgeführten Web-Umfrage wurde die Hauptherausforderung im IT-Change-Management aus Sicht des Change Managers identifiziert;-;-;-;https://link.springer.com/chapter/10.1007/11907466_15 88119c94dd8424d45d42d64eb1c9c7a8;de;;;7.1.;;;Informationssystem als Werkzeug für die Meeresraumplanung: Die SmartSea-Vision und der Prototyp Die Planung der Nutzung von Meeresgebieten erfordert Unterstützung bei der Zuweisung von Raum für bestimmte Aktivitäten, der Bewertung von Auswirkungen und kumulativen Auswirkungen von Aktivitäten sowie der allgemeinen Entscheidungsfindung. Das SmartSea-Projekt untersucht den Bottnischen Meerbusen, den nördlichsten Arm der Ostsee, als Ressource für nachhaltiges Wachstum. Ein Ziel des Projekts ist es, eine Open-Source- und Open-Access-Toolbox für die Meeresraumplanung bereitzustellen. Hier präsentieren wir eine Vision für die Toolbox und einen ersten Prototypen. Die Vision basiert auf einem Modell des Informationssystems als Treffpunkt von Benutzern, Informationsanbietern und Aufgaben. Als zentrale technische Voraussetzung für das System wurden ein Datenmodell und die dazugehörige Datenbank der Raumplanung sowie ein programmierbarer Kartendienst gefunden. Es existiert ein erster Prototyp des Systems, der eine Datenbank, einen Datenbrowser/-editor, einen dynamischen Kachelkartendienst, eine Web-Mapping-Anwendung und Erweiterungen für ein Desktop-GIS umfasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-89935-0_10 54d8f1a2b870f9f934a0ac1887bdccc8;de;;;7.1.;;;Methoden zur Betriebsplanung in Flughafen-Entscheidungsunterstützungssystemen Simulations- und Entscheidungsunterstützungstools können Bodenlotsen von Flughäfen helfen, den Oberflächenbetrieb und die Sicherheit zu verbessern, was zu Verbesserungen im Prozess des Verkehrsflussmanagements führt. In diesem Beitrag werden zwei Planungsansätze vorgeschlagen und analysiert, um automatisch die besten Routen und Abläufe für geforderte Operationen zu finden. Diese Ansätze sind in eine allgemeine Systemarchitektur zur Entscheidungsunterstützung integriert. Das angesprochene Problem ist das globale Management des Abflugbetriebs, das Bewegen von Flugzeugen auf Flughafenrollbahnen zwischen Gate-Positionen und Start- und Landebahnen. Zwei globale Optimierungsansätze wurden zusammen mit einer geeigneten Problemdarstellung entwickelt: ein modifizierter Zeit-Raum-Fluss-Algorithmus und ein genetischer Algorithmus, die beide darauf abzielen, die gesamte Bodenverzögerung zu minimieren. Die Leistungsfähigkeit und Leistungsfähigkeit dieser Planungstechniken wurden an simulierten Bodenoperationen am internationalen Flughafen Madrid Barajas veranschaulicht.;-;-;-;https://link.springer.com/article/10.1007/s10791-005-6618-z 654af8ca0b2602d1355757a5ee51c04f;de;;;7.1.;;;Programme zur Prozessverbesserung (PI) und Informationssysteme: eine fallübergreifende Analyse der Auswirkungen Während der Einsatz von Informationstechnologie in Programmen zur Prozessverbesserung (PI) in großem Umfang untersucht wurde, gab es nur wenige Untersuchungen zur Untersuchung der Auswirkungen solcher Programme auf Informationssysteme (IS). Ziel dieser Studie ist es, die Auswirkungen von PI-Programmen auf IS zu untersuchen. Die Studie umfasst Fallstudien in vier Organisationen, die PI-Programme implementiert haben. Die Ergebnisse deuten darauf hin, dass Veränderungen der IS nicht als zentrales Element der PI-Programme ins Auge gefasst wurden. Die Umsetzung der PI-Programme hatte jedoch erhebliche Auswirkungen auf die Rollen und Verantwortlichkeiten der vom Programm betroffenen Personen. Als Folge dieser Verantwortungsänderungen haben sich die Informationspflichten geändert. Es wurde festgestellt, dass die IS einen wesentlichen Beitrag zur Erfüllung dieser neuen Informationsanforderungen leisten.;-;-;-;https://link.springer.com/article/10.1057/palgrave.jit.2000003 068859ddcafa26ecb8d449fb137de1b6;de;;;7.1.;;;Umgebung für Design und Analyse der Systemintegration In diesem Beitrag wird ein Prototyp einer Umgebung vorgestellt, die das Design und die Analyse der Systemintegration unterstützt. Es kombiniert deskriptive und analytische Methoden für die Modellierung und das Engineering der Systemintegration. Die Umgebung umfasst eine spezialisierte Modellierungssprache zum Darstellen einer bestimmten Informationsklasse und eine Modellierungsmethodik zum Darstellen, Verwalten und Verwenden der so dargestellten Informationen. Die Systemanalyse wird in verschiedenen Ebenen durchgeführt, um die statischen und dynamischen Aspekte zu berücksichtigen. Ein Anwendungsbeispiel wird vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35399-9_12 ba26d0a945eac749036eeb8d77790651;de;;;7.1.;;;Risiko- und Rechenzentrumsplanung In diesem Kapitel besprechen wir die Probleme in Bezug auf Risiken im Zusammenhang mit der Planung von Rechenzentren. Unternehmen sind auf Computerdienste angewiesen, die aufgrund von Bedrohungen möglicherweise nicht mehr verfügbar sind. Diese Bedrohungen umfassen Naturkatastrophen, von Menschen verursachte Katastrophen und Unfälle. Ein umsichtiges Risikomanagement ist erforderlich, um im Störungsfall die Fortführung und Wiederherstellung des Betriebs zu gewährleisten. Die Risikobewertung erfordert eine gründliche Kenntnis der Organisation und eine gründliche Analyse potenzieller Ereignisse, die sich negativ auf das Rechenzentrum und die damit verbundenen Rechendienste auswirken können. Die Strategieentwicklung wird ebenso besprochen wie Vorbereitung, Mitigation, Übungen, Reaktion und Erholung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-65082-1_4 e33999bc61aea6459ee4b1a4283b67d4;de;;;7.2.;;;Abhängigkeitsräume von Informationssystemen Es wird ein allgemeines Modell einer Vielzahl von endlichen Strukturen vorgestellt und untersucht, die in der Informatik untersucht werden. Das Modell wird als Abhängigkeitsraum bezeichnet. Das Hauptmerkmal des Modells ist, dass es uns ermöglicht, mit der Ununterscheidbarkeit von Informationen umzugehen, mit denen eine modellierte Struktur belastet sein könnte. Das Modell bietet einen allgemeinen Rahmen, um das Konzept der Unabhängigkeit einer Menge und das Konzept der Abhängigkeit zwischen Mengen in Bezug auf einen Abhängigkeitsraum auszudrücken. Es wird gezeigt, dass diese Konzepte die Grundlage bilden, auf der viele angewandte Strukturen ruhen. Die Theorie der Abhängigkeitsräume wird entwickelt, um Werkzeuge zur Untersuchung der für die modellierten Strukturen relevanten Probleme bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-1888-8_7 f22659475068018b141ac965fbf7c3e4;de;;;7.1.;;;Neue Trends in Datenbanken und Informationssystemen: Beiträge aus ADBIS 2013 Die Forschung zu Datenbank- und Informationssystemtechnologien hat sich in den letzten Jahren rasant entwickelt. Fortschritte betreffen entweder neue Datentypen, neue Managementprobleme und neue Arten von Architekturen und Systemen. Die 17. East-European Conference on Advances in Databases and Information Systems (ADBIS 2013), die vom 1. bis 4. September 2013 in Genua (Italien) stattfand, und zugehörige Satellitenveranstaltungen zielten darauf ab, einige aufkommende Fragen im Zusammenhang mit solchen neuen Trends bei Datenbank- und Informationssystemen zu behandeln Forschung. Ziel dieses Beitrags ist es, solche Veranstaltungen, ihre Motivationen und Themenschwerpunkte vorzustellen sowie die für Präsentationen ausgewählten Beiträge kurz zu skizzieren. Die ausgewählten Arbeiten werden dann in den Rest dieses Bandes aufgenommen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-01863-8_1 58b29039f9cd1ad691e83db65eccbec2;de;;;7.2.;;;Wiederholung des Tests zum nächsten Nachbarn zur direkten Bewertung von Ähnlichkeiten zwischen Dokumentendoc Kürzlich wurde Cluster-basiertes Retrieval erfolgreich angewendet, um die Retrieval-Effektivität zu verbessern. Der Kernbestandteil des clusterbasierten Abrufs sind Ähnlichkeiten zwischen Dokumenten. Obwohl Ähnlichkeiten zwischen Dokumenten unabhängig vom clusterbasierten Retrieval untersucht und auf verschiedene Weise weiter verbessert werden können, wurde ihre direkte Bewertung nicht ernsthaft in Betracht gezogen. In Anbetracht der Tatsache, dass es viele clusterbasierte Retrievalmethoden gibt, kann eine solche direkte Bewertungsmethode die Arbeit der Ähnlichkeiten zwischen Dokumenten von der Arbeit der clusterbasierten Retrieval trennen. Zu diesem Zweck wird in diesem Papier der nächste Nachbartest von Voorhee als eine solche direkte Bewertung erneut betrachtet, indem hauptsächlich darauf geachtet wird, ob der Test mit der Abrufeffektivität korreliert oder nicht. Experimentelle Ergebnisse bestätigen durchweg die Verwendung des Nächster-Nachbar-Tests. Als Ergebnis kommen wir zu dem Schluss, dass die Verbesserung der Retrieval-Effektivität durch direkte Auswertung gut vorhersagbar sein kann, auch ohne Durchführung von Cluster-basierten Retrieval-Läufen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78646-7_77 48ef53041df2ea846b36bab43378abc7;de;;;7.2.;;;Zur Zwischenbewertung von Blockchiffren In der Arbeit wird eine Zwischenbewertung der Blockchiffrenmethode vorgestellt. Als Qualitätskriterium wird die Wahrscheinlichkeit der besten linearen Näherung ungleich Null genommen. Die Hauptidee des Verfahrens besteht darin, Betrachtungen auf nur zwei Arten von Näherungen zu beschränken: null und nicht null. Für einen Chiffregraphen wird G von Null-Ungleich-Nullungen konstruiert. Algorithmus;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-73137-7_22 8f10d6c0df735d1d7aa1245cb89ce96b;de;;;7.2.;;;Image Information Mining System Evaluation mit informationstheoretischen Maßnahmen Die exponentielle Zunahme von Multimedia- und Fernerkundungsbildarchiven, die schnelle Expansion des World Wide Web und die hohe Nutzervielfalt haben im letzten Jahrzehnt Konzepte und Systeme für eine erfolgreiche inhaltsbasierte Bildsuche und Bildinformationsgewinnung hervorgebracht. Bilddaten-Informationssysteme erfordern sowohl Datenbank- als auch visuelle Fähigkeiten, aber es gibt eine Lücke zwischen diesen Systemen. Datenbanksysteme befassen sich normalerweise nicht mit mehrdimensionalen Bildstrukturen und Bildsysteme bieten keine Datenbankabfragefunktionen. Unter diesen Gesichtspunkten rückte die Evaluation inhaltsbasierter Bildauffindungssysteme in den Fokus des Forschungsinteresses. In der Literatur sind mehrere Ansätze zur Systembewertung zu finden, jedoch gehen nur wenige über Precision-Recall-Graphen hinaus und erlauben keine detaillierte Bewertung eines interaktiven Bildrecherchesystems. Neben den bestehenden Bewertungsmethoden zielen wir auf die Gesamtvalidierung unseres wissensbasierten inhaltsbasierten Bildinformations-Mining-Systems ab. In diesem Beitrag wird ein auf informationstheoretischen Größen basierender Bewertungsansatz demonstriert, um den Informationsfluss zwischen Systemebenen unterschiedlicher semantischer Abstraktion zu bestimmen und Mensch-Computer-Interaktionen zu analysieren.;-;-;-;https://link.springer.com/article/10.1155/ASP.2005.2153 c020e85d23cc3ff8b339467801fc2c5c;de;;;7.2.;;;Verfahren zur Verarbeitung von Dokumenten mit Tabellen in automatisierten Informationssystemen in russischer Sprache In diesem Beitrag wird eine Methode vorgestellt, um Bilder von Dokumenten mit Tabellen zu verarbeiten und daraus Informationen für automatisierte Informationssysteme zu extrahieren. Das Hauptmerkmal dieser Methode ist die Zerlegung des Prozesses zum Extrahieren von Informationen aus Dokumenten in 2 Teile: Verarbeitung von Tabellen und nicht tabellarischem Text. Dieser kombinierte Ansatz ermöglicht die Verarbeitung verschiedener Arten von Dokumenten. Wir spezifizieren den Umfang der Methode, beschreiben ihre Stufen, vergleichen und wählen Lösungen für jede Stufe aus. Das vorgeschlagene Verfahren besteht aus 5 Stufen der Verarbeitung gescannter Bilder von Dokumenten. Die wichtigsten davon sind die Zusammensetzung von analytischen und maschinellen Lernansätzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-80478-7_13 4b9dcb7d93fd5ad55409f044f8322eeb;de;;;7.2.;;;Leistungsbewertung von 2D-Feature-Tracking basierend auf Bayes-Schätzung Feature-Tracking-Verfahren, die auf Bayes'scher Schätzung basieren, werden in Computer-Vision-Systemen umfassend untersucht. Die Leistung der Bayes'schen Entscheidung bleibt jedoch ein offenes Problem, da eine Implementierung der Bayes'schen Schätzung durch viele Parameter bei der Modellierung der Prior- und Beobachtungswahrscheinlichkeiten signifikant beeinflusst wird. In diesem Papier bewerten wir die Leistung unseres MAP-basierten Feature-Tracking-Algorithmus mit verschiedenen Parametereinstellungen für viele Features. Für die meisten 2D-Feature-Punkte in unseren Experimenten haben wir festgestellt, dass das Gleichverteilungsmodell (oder Gauß-Modell mit einer sehr großen Varianz) mit linearer Vorhersage die beste Feature-Tracking-Leistung liefert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45453-5_157 75609dcc115d434a2a16af35e00bcaa9;de;;;7.2.;;;Ein hierarchisches Baummodell für die Aktualisierungszusammenfassung Die Zusammenfassung von Updates ist eine neue Herausforderung, die Auffälligkeiten mit der Erkennung von Neuheiten kombiniert. Dieser Artikel präsentiert ein generatives hierarchisches Baummodell (kurz HTM) basierend auf der Hierarchical Latent Dirichlet Allocation (hLDA), um die Themenstruktur innerhalb des historischen Datensatzes zu entdecken und den Datensatz zu aktualisieren. Aus der Baumstruktur können wir die Diversität und Gemeinsamkeit zwischen Verlaufsdatensatz und Aktualisierungsdatensatz klar erkennen. Basierend auf einer solchen Struktur wird ein zusammenfassender Ranking-Ansatz vorgeschlagen, der verschiedene Aspekte wie Fokus, Neuheit und Nichtredundanz berücksichtigt. Experimentelle Ergebnisse zeigen die Wirksamkeit unseres Modells.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16354-3_72 b3d8aa2f7af53e4badda46750ca41c7d;de;;;7.2.;;;Verwendung von semantischer und phonetischer Begriffsähnlichkeit für den Abruf gesprochener Dokumente und die Verarbeitung gesprochener Abfragen In klassischen Informationsabrufsystemen wird ein relevantes Dokument als Reaktion auf eine Abfrage nicht abgerufen, wenn die Dokument- und Abfragedarstellungen nicht mindestens einen Begriff gemeinsam haben. Dieses Problem wird als „Term Mismatch“ bezeichnet. Ein ähnliches Problem kann beim Abrufen gesprochener Dokumente und beim Verarbeiten gesprochener Abfragen gefunden werden, wo durch den Spracherkennungsprozess falsch erkannte Begriffe das Abrufen potenziell relevanter Dokumente behindern können. Ich werde dieses Problem in Analogie zum Begriff des Mismatch-Problems „Term-Fehlerkennung“ nennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-1797-3_28 6e519585d1ae19dace61e3c7779a1eb7;de;;;7.2.;;;Graphbasierte Profilähnlichkeitsberechnungsmethode und -bewertung Collaborative Information Retrieval (CIR) ist eine neue Technik zur Lösung des aktuellen Problems von Information-Retrieval-Systemen. Ein CIR-System registriert die vorherigen Benutzerinteraktionen, um effizienter auf die nachfolgenden Benutzeranfragen zu antworten. Die Ziele und Eigenschaften zweier Benutzer können jedoch unterschiedlich sein. Wenn sie also dieselbe Anfrage an ein CIR-System senden, können sie an zwei verschiedenen Dokumentenlisten interessiert sein. Um dieses Problem zu lösen, haben wir ein personalisiertes CIR-System namens PERCIRS entwickelt, das auf der Ähnlichkeit zwischen zwei Benutzerprofilen basiert. In diesem Papier schlagen wir eine neue Methode für die Benutzerprofil-Ähnlichkeitsberechnung UPSC vor. Schließlich stellen wir einen Mechanismus zur Evaluierung von UPSC-Methoden vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78646-7_70 ffc4325e6d2403258e0016e70b354623;de;;;7.2.;;;"Die Forschung zur chinesischen Koreferenzauflösung basierend auf Modellen und Regeln maximaler Entropie Die Koreferenzauflösung ist ein wichtiges Forschungsthema in der Verarbeitung natürlicher Sprache, einschließlich der Koreferenzauflösung von Eigennamen, Substantiven und Pronomen. In diesem Artikel wird ein Koreferenzauflösungsalgorithmus der chinesischen Nominalphrase und des Pronomens vorgeschlagen, der auf dem Modell und den Regeln der maximalen Entropie basiert. Die Verwendung des maximalen Entropiemodells kann eine Vielzahl von separaten Funktionen effektiv integrieren, um auf dieser Grundlage die Regelmethode zu verwenden, um die Wiederaufrufrate der Verdauung zu verbessern, und dann Filterregeln zu verwenden, um ""Rauschen"" zu entfernen, um die Genauigkeitsrate der Verdauung weiter zu verbessern. Experimente zeigen, dass der F-Wert des Algorithmus in einem geschlossenen Test und einem offenen Test 85,2 % bzw. 76,2 % erreichen kann, was gegenüber der Regelmethode etwa 12,9 Prozentpunkte bzw. 7,8 Prozentpunkte verbessert.";-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05250-7_1 678c7d0f2eb21cef07f7038a94a5f409;de;;;7.1.;;;Implementieren aus physischer Sicht In diesem Kapitel entwickeln wir den Physical Viewpoint (PV) der MBSAP-Methodik, der die tatsächliche Implementierung eines Systems modelliert. Das PV baut auf den Artefakten der Operational und Logical/Functional Viewpoints (OV und LV) auf. Wir diskutieren zugrundeliegende Konzepte und Techniken, insbesondere Handelsstudien, die an der Umwandlung von Funktion in physisches Design beteiligt sind. Pflichtenhefte der LV unterstützen die Entwicklung bzw. Auswahl und Beschaffung von Produkten. Blöcke werden zu Blockinstanzen, wenn ihren Spezifikationen Konstruktionsdaten hinzugefügt werden und die strukturellen und verhaltensbezogenen Perspektiven der früheren Ansichtspunkte zu einer Konstruktionsperspektive kombiniert werden. Konzentrierte Aufmerksamkeit auf die Auswahl und Anwendung von Standards führt zur Standards-Perspektive. Wir beschreiben die wesentlichen Elemente einer Design Perspective und veranschaulichen diese am Beispiel des E-X-Systems. Da die Integration physikalischer Komponenten aus mehreren Quellen ein wichtiges Anliegen bei der PV-Entwicklung ist, bieten wir eine detaillierte Diskussion dieses Themas. Anschließend gehen wir auf die verbleibenden Perspektiven der PV ein und modellieren die Standards, Daten, Dienste und kontextuellen Dimensionen einer physischen Architektur. Als nächstes erweitern wir eine Vielzahl von Focused Viewpoints, die von verschiedenen Stakeholdern benötigt werden können, und führen die Diskussion der ausführbaren Architektur auf die Ebene physischer Simulationen. Schließlich stellen wir einige Überlegungen vor, die wichtig sind, um sicherzustellen, dass sich ein System während seiner gesamten Lebensdauer weiterentwickeln kann, um betriebswirksam und unterstützungsfähig zu bleiben, wenn Anforderungen, Umgebungen und andere reale Einflüsse es beeinflussen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-95669-5_6 900db490ac900172ff8cbef248e294b0;de;;;7.1.;;;Der Implementierungsprozess Städtisches Wachstum muss grundsätzlich kein schlechtes Umfeld schaffen. Richtig geplant und gesteuert soll sie die Umweltqualität verbessern, nicht beeinträchtigen, indem sie die Landschaft entlastet, Waren und Dienstleistungen in Menge und Vielfalt bereitstellt und Chancen für neue und attraktive Lebensräume und Lebensweisen bietet. Darüber hinaus ist die Urbanisierung ein wesentliches Element der nationalen wirtschaftlichen und sozialen Entwicklung. Nur in städtischen Ballungsräumen können die für die industrielle Entwicklung notwendigen Skaleneffekte erzielt werden, nur dort können die für eine schnelle gesellschaftliche Entwicklung notwendigen Dienstleistungen effizient erbracht werden. Daher ist es gerade für Entwicklungsländer wichtig, das Stadtwachstum und die Ansiedlung von Siedlungen als integralen Bestandteil der wirtschaftlichen und sozialen Entwicklung zu planen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-01647-1_4 78b80c45745be452e96b9b53f2e22718;de;;;7.1.;;;Eine Literaturübersicht zur Planung und Steuerung von Lagersystemen Wir präsentieren eine Literaturübersicht zu Methoden und Techniken zur Planung und Steuerung von Lagersystemen. Planung bezieht sich auf Managemententscheidungen, die sich auf die mittlere Frist (einen oder mehrere Monate) auswirken, wie z. Kontrolle bezieht sich auf operative Entscheidungen, die sich kurzfristig (Stunden, Tag) auswirken, wie Routing, Sequenzierung, Terminierung und Auftragsstapelung. Vor der Literaturrecherche geben wir eine Einführung in Lagersysteme und eine Einordnung von Lagerverwaltungsproblemen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1007606228790 40f739458b0357121bec3cc245e7f20c;de;;;7.1.;;;Die Erfahrungen mit der strategischen Planung für die Informationsgesellschaft in Rumänien Es wird eine eher unkonventionelle Fallstudie vorgestellt. Diese Fallstudie befasst sich mit den vier Iterationen der strategischen Planung zur Förderung der Informationstechnologie und der Informationsgesellschaft in Rumänien und basiert auf Informationen aus erster Hand, da der leitende Autor der Projektleiter der ersten drei Iterationen war.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4851-5_67 c84a42670be1728eb9893fbb1a509a93;de;;;7.1.;;;Ein konzeptioneller Rahmen für das aggregierte Management virtueller Unternehmen Dieses Papier stellt einen konzeptionellen Rahmen vor, in dem die Entwicklung eines Informationssystems für das aggregierte Management von virtuellen / vernetzten Unternehmen stattfindet. Zunächst werden die allgemeinen Ziele des Systems beschrieben. Es wird ein ontologiebasierter Entwicklungsansatz vorgestellt, der die Rolle der konzeptionellen Anleitung sowohl für die Anforderungsanalyse- als auch für die Designphase übernimmt. Schließlich wird eine breite Spezifikation des Aggregatmanagements in diesem Zusammenhang anhand von Anwendungsfällen beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35399-9_38 6348a3fe6aaf8ec1360069ab77592814;de;;;7.1.;;;Geschäftswert schaffen durch agiles Projektmanagement und Entwicklung von Informationssystemen: Die wahrgenommene Wirkung von Scrum Wertschöpfung durch Informationssysteme (IS) und Informationstechnologie (IT) ist ein wichtiges Forschungsthema der IS. Es bestehen jedoch noch Unklarheiten und Unschärfen des Konzepts „IS Business Value“ und Unklarheiten über den Wertschöpfungsprozess. Dies gilt auch für Organisationen, die IS/IT entwickeln und für Entwicklungstechnologien wie die Entwicklung von Informationssystemen und Projektmanagementmethoden, die bei der Produktion von IS/IT angewendet werden. Die agile Methode Scrum ist eine solche Technologie. In der hier vorgestellten Studie haben wir Produktivität, Qualität und Mitarbeiterzufriedenheit untersucht, wie sie von Scrum als wertschöpfende Maßnahmen unterstützt werden. Unsere positive Einschätzung basiert auf subjektiven Wahrnehmungen und geht über harte Maßnahmen und Indikatoren hinaus. Es bietet Einblicke in individuelle und organisatorische Auswirkungen und beleuchtet den Wertschöpfungsprozess. Die von uns vorgestellten Maßnahmen adressieren somit einige Defizite in der aktuellen IS-Business-Value-Forschung und tragen dazu bei, bestehende Lücken in einer IS-Business-Value-Forschungsagenda zu schließen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-43459-8_10 8bfbc420e2acc72aff484494aba387b6;de;;;7.1.;;;Forschung zu Design und Bewertung von Management-Informationssystemen Die Entwicklung und Änderung des MIS-Konzepts werden kurz diskutiert, die theoretischen Merkmale eines modernen MIS werden in der Arbeit analysiert und eine Drei-Schichten-Methode zur Gestaltung eines MIS mit seiner Bewertungsmethode entsprechend der Analyse vorgeschlagen. Diese Methode zeichnet sich durch „klare Theoriestruktur“, „einfache Gestaltung usw.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35347-0_13 8ef1a4213d32989c2f00a39a2056519f;de;;;7.1.;;;Kontext und Planung für die dynamische Anpassung in PAIS Der Bedarf an ständiger Anpassung an neue Anforderungen oder unerwünschte Ereignisse in Unternehmen ist gestiegen. Ungeplante Situationen können jederzeit während der Prozessausführung auftreten und der Entwurf eines Prozessmodells, das alle Pfade vorhersagt, sollte einem flexiblen „organischen“ Design weichen. Dieses Papier befasst sich mit dem Problem, wie Mechanismen zur dynamischen Anpassung in prozessbewussten Informationssystemen bereitgestellt werden können. Zusätzlich zu einer Theorie für kontextsensitive Informationssysteme schlagen wir ein Kontextmanagement-Framework vor, das darauf abzielt, die dynamische Prozessanpassung durch Neuplanung einer Prozessinstanz zu automatisieren. Der Vorschlag wurde teilweise umgesetzt und in einem realen Fallszenario evaluiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-42887-1_38 476dfeb06b3d24f778dea50a8ef4aa27;de;;;7.1.;;;Warum offene Systeme - eine Managementperspektive Die AA engagierte sich 1964 mit dem Kauf ihres ersten Großrechners im Computerbereich. Wie viele andere Organisationen baute der Verband die Mainframe-Systeme durch den Einsatz proprietärer Produkte weiter aus. 1987 wurde jedoch klar, dass sich die Dinge ändern mussten, und es wurde erkannt, dass eine neue Strategie erforderlich war, ein Rahmen, in dem Entscheidungen über IT-Investitionen getroffen und die steigenden Geschäftsanforderungen der AA erfüllt werden konnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-3073-6_8 54e3c8f323e02817d11743c62395101b;de;;;7.1.;;;CIM-Prototypen Nachdem die Entwicklung einer CIM-Strategie und Umsetzungsmöglichkeiten untersucht wurden, werden in diesem Abschnitt nun bestehende CIM-Prototypen betrachtet. Zunächst werden Lösungen beschrieben, die nicht im produktiven Einsatz sind, sondern als „Schaulösungen“ oder Forschungsprojekte entwickelt wurden. Die Interdependenzen, eingesetzten Hard- und Softwaremodule sowie die dargestellten Entwicklungserfahrungen können jedoch Anregungen für konkrete Entwicklungen geben. Abschließend werden drei Beispiele bereits umgesetzter bzw. in Umsetzung befindlicher Projekte vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-97105-1_5 99cd678939efa89d4cd6f3100d8c6686;de;;;7.1.;;;Empirische und theoretische Perspektiven in der Vertriebs- und Betriebsplanung Der Zweck dieses Papiers ist es, empirische und theoretische Perspektiven in der Vertriebs- und Betriebsplanung (S&OP) zu bewerten. Die Methodik besteht aus einer systematischen Literaturrecherche, die 292 Publikationen von Wissenschaftlern und Praktikern analysiert. Die Ergebnisse zeigen, dass die empirische Evidenz zunächst von der Praxis und später von Wissenschaftlern mit wachsendem Interesse in den letzten Jahren erworben wurde. Drei Hauptforschungsströme werden identifiziert: S&OP und Leistung, Implementierung von S&OP und Kontextualisierung von S&OP-Designs. Die Untersuchung der theoretischen Grundlagen zeigt einen Aufwärtstrend in der externen allgemeinen Theorienutzung und erste Anzeichen einer internen Theorieentwicklung in S&OP. Die Forschungsergebnisse erfordern mehr explorative Forschung, um das Wissen in den identifizierten Forschungsströmen und deren Wechselbeziehungen zu erweitern. Hier wird die Anwendung des Design Science Ansatzes empfohlen, um Praktiker in die akademische Forschung zu integrieren. Weitere Implikationen umfassen die Forderung nach mehr theoriegeleiteter empirischer S&OP-Forschung in einer zweigleisigen Agenda: die Anwendung allgemeiner Theorien aus anderen Bereichen und die Entwicklung interner Theorien durch Theorien mittlerer Reichweite. Eine Einschränkung dieses Papiers besteht darin, dass es sich auf empirische Studien konzentriert, nicht auf konzeptionelle Papiere. Die Anwendung der Ergebnisse dieses Papiers kann Wissenschaftlern und Praktikern helfen, ihr Verständnis des S&OP-Phänomens zu verbessern. Die Kenntnis der Studienergebnisse in den drei Hauptforschungsrichtungen, kombiniert mit empirischen und theoretischen Forschungsimplikationen, kann die Entwicklung von Lösungen zur Verbesserung der S&OP-Effektivität und evidenzbasierter Entscheidungen in realen Umgebungen unterstützen. Die Originalität dieser Arbeit liegt in der Analyse der S&OP-Literatur mit dem Fokus auf die Entwicklung empirischer Evidenz und der theoretischen Grundlagen.;-;-;-;https://link.springer.com/article/10.1007/s11846-021-00455-y b33119450cb966d50d32d9af15684488;de;;;7.1.;;;Die Beziehung zwischen Supply Chain Management und ERP im E-Business Supply Chain Management (SCM) im heutigen globalen Umfeld, insbesondere im E-Business, ist wichtig, um Unternehmen und Geschäftspartnern weltweit signifikante Wettbewerbsvorteile zu verschaffen. Denn die Zielsetzungen und Ziele sind wesentliche Faktoren beim Studium des Supply Chain Managements im E-Business. Der Zweck dieses Forschungspapiers besteht darin, die Forschungsfrage zu präsentieren, den konzeptionellen Rahmen, das ERP und die Umgebung für SCMS zu überprüfen, ihre Ziele und Auswirkungen von SCM zu untersuchen und nützliche Theorien zu verwenden, die helfen können, die kritischen Faktoren von SCM zu identifizieren. Auch die Unterschiede von Pre-Internet und E-Business werden dargestellt, um weitere Recherchemöglichkeiten in diesem Bereich zu verdeutlichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75902-9_27 b6b1aac3f410ec1fc50c3439465093d7;de;;;7.1.;;;Entwerfen von Informationsressourcen-Managementsystemen für Unternehmen der Wissensallianz In der Knowledge Economy Times ist es für die Wissensallianz Enterprise (KAE) notwendig, ein effizientes und zuverlässiges Informationsressourcen-Managementsystem (IRMS) aufzubauen, um die Informationsressourcen (IR) verfügbarer zu machen. Dieser Artikel beginnt mit den Eigenschaften von Enterprise Information Resources (EIR) auf der Grundlage von Wissensallianzen, analysiert die Anforderungen für die Einrichtung von IRMS, entwirft die Gesamtstruktur des Systems, stellt die Hauptfunktionen der Erkennung eines marktdynamischen Umfelds, Analyse und Zusammenarbeit vor, unterstützt Entscheidungshilfe, schließlich werden im Artikel die Punkte angegeben, auf die im Designprozess hingewiesen werden sollte.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-76312-5_88 248b939945ea51fabaa1b8d5cf7eee73;de;;;7.1.;;;Eine Studie zur Entwicklung eines Entscheidungsträgers für das Projektmanagement Der Begriff Geschäftssystem bezieht sich auf die Methoden, mit denen ihre Informationen oder ihr Wissen verwaltet werden. Alle Unternehmen setzen Geschäftssysteme bei der Entwicklung neuer Software, mechanischer Ausrüstung oder anderer Projekte ein. Entwicklungsprojekte durchlaufen mehrere Phasen. Es gibt Phasen der Planung, Entwicklung, Systemprüfung und Aktualisierung. Da jedoch Geschäftswissen und Systementwicklungswissen im Individuum des Systemingenieurs vereint sind und das endgültige Systemabbild im Kopf des Ingenieurs entworfen wird, wird das im Projekt erworbene Wissen nicht an das nächste Systementwicklungsprojekt angepasst. Wirtschaftswissen und Systementwicklungswissen sind unterschiedlich. Eine Vereinheitlichung der Wertmaßstäbe dieser beiden Arten von Informationen ist erforderlich, um die Informationen gleich zu behandeln. Dann zielt dieses Papier darauf ab, den Entscheidungsunterstützungsagenten zu erreichen. Dieser Entscheidungsträger sollte die Funktion haben, den Wert von Wissen zu bewerten und das Urteil in allen Phasen des Projekts zu unterstützen. Da sich die Umgebung der Systementwicklung ständig ändert, wird außerdem eine Funktion zur Bewertung der Bedeutung von Wissen aus dem Datenstrom benötigt, damit der Entscheidungsunterstützungsagent Informationen in Echtzeit erfassen und interpretieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45937-9_40 d36cbddc4fee72558eb728d188419f63;de;;;7.1.;;;Computational Intelligence in kognitiven Gesundheitsinformationssystemen Diese Veröffentlichung stellt zentrale Probleme kognitiver Informationssysteme vor. Kognitive Datenanalysesysteme werden zunächst klassifiziert, dann ihre Entstehung und Entwicklung vorgestellt und anschließend ihre beiden Hauptklassen UBIAS (Understanding Based Image Analysis Systems) und UBMSS (Understanding Based Management Support Systems) diskutiert. Die Klasse Bildanalyse wird verwendet, um die medizinische Bedeutung von Läsionen verschiedener menschlicher Organe zu analysieren. UBMSS-Systeme unterstützen automatisch den strategischen und finanziellen Entscheidungsprozess in Unternehmen. Aufgrund des hier behandelten Themas werden UBMSS-Systeme als Assets vorgestellt, die das Management von medizinischen Einheiten unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14464-6_16 196edf8f03890bf10aaed5219d3f35ed;de;;;7.2.;;;Bildsuche filtern: Interaktiver Bildabruf mithilfe von Datenbankübersichten Die Mensch-Computer-Interaktion ist ein entscheidender Faktor für einen effektiven inhaltsbasierten Zugriff auf große Bildarchive. In aktuellen Bildrecherchesystemen verfeinert der Benutzer seine Anfrage, indem er Beispielbilder aus einem Relevanzranking auswählt. Da die am besten bewerteten Bilder alle ähnlich sind, führt das Benutzerfeedback oft nur zu einer Neuanordnung der präsentierten Bilder.;-;-;-;https://link.springer.com/article/10.1023/A%3A1011367820253 8ed0124724cc2bd9c248806a796f0671;de;;;7.1.;;;GIS, Ökosysteme und Stadtplanung in Auckland, Neuseeland: Technologie, Prozesse und Menschen In diesem Kapitel wird die Rolle von geografischen Informationssystemen (GIS) im Stadtmanagement, der Planung und dem Ökosystemmanagement in zwei Regionen im Norden Neuseelands erörtert. Die Standortbestimmung von GIS ist entscheidend für die Klärung des Kontexts, in dem die Annahme und Aufnahme stattgefunden hat. Eine Überprüfung der einschlägigen Gesetze zur lokalen Verwaltung mit Schwerpunkt auf Planung und Ressourcenzuweisung wird das Kapitel umrahmen, in dem der politische Raum beschrieben wird, der GIS innerhalb Neuseelands im Allgemeinen und des Auckland Regional Council (ARC) im Besonderen einschließt. Die Struktur von GIS als Abteilung innerhalb des ARC folgt. Drei Beispiele für die Verwendung von GIS als Werkzeug und zunehmend als politische Instrumente zur Erleichterung des Stadt-, Land- und Küstenmanagements werden mit einem zusätzlichen Beispiel für konzeptionelle Modellierung in Verbindung gebracht. Die erste Studie beschreibt den Einsatz von GIS in städtischen Wohngebieten und ländlichen Landschaften durch die Ermittlung der für die Entwicklung verfügbaren Gebäudeabschnitte. Das Kapitel untersucht dann die Rolle der Küstenmodellierung und ihrer Vorhersagefähigkeiten im Ressourcenmanagement, der Stadtplanung und dem Küstenschutz. Schließlich folgt eine Untersuchung, wohin GIS-Management und -Planung in Neuseeland reisen, indem die Rolle der explorativen dynamischen Modellierung bei Environment Waikato und Landcare Research untersucht wird, während gleichzeitig das Potenzial für Auswirkungen auf das städtische und ländliche Landmanagement und die Umweltpolitik in Neuseeland berücksichtigt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-9642-6_5 46624073a5de11e282dd61b952786d9f;de;;;7.2.;;;Evaluation von Multimedia Retrieval Systemen In diesem Kapitel stellen wir die Werkzeuge und die Methodik vor, um die Effektivität von zwei oder mehr Multimedia-Retrieval-Systemen auf sinnvolle Weise zu vergleichen. Mehrere Aspekte von Multimedia-Retrieval-Systemen können ohne Rücksprache mit den potenziellen Benutzern oder Kunden des Systems bewertet werden, wie beispielsweise die Abfrageverarbeitungszeit (gemessen beispielsweise in Millisekunden pro Abfrage) oder der Abfragedurchsatz (gemessen z ). In diesem Kapitel konzentrieren wir uns jedoch auf Aspekte des Systems, die die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72895-5_13 ad5aee541324ee7a2e23d27299604e44;de;;;7.2.;;;Auf dem Weg zu einem schlankeren Bewertungsprozess: Anwendung auf Fehlerkorrektursysteme Evaluierungen moderner Fehlerkorrektursysteme sind zwar ähnlich verfahren, greifen jedoch immer auf unterschiedliche Ressourcen zurück (Dokumentensammlungen, Evaluierungsmetriken, Wörterbücher, ...). In diesem Zusammenhang können Fehlerkorrekturansätze nicht direkt verglichen werden, ohne jedes Mal von Grund auf neu implementiert zu werden, wenn sie mit einem neuen verglichen werden müssen. In anderen Bereichen wie dem Information Retrieval wird dieses Problem durch Cranfield-ähnliche Experimente wie TREC [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40654-6_14 0a401eb3975b6968f78755a3a8abe6e0;de;;;7.1.;;;Zur Untersuchung von Informationen und zum ultra-breitband-RADAR-basierten Informationsabruf Unterschiedliche Informationen haben in den jeweiligen Sektoren unterschiedliche Bedeutung. Informationen können sich auf Sicherheit, Überwachung, Beobachtung oder Erkennung beziehen. Ebenso werden je nach Informationssensibilität unterschiedliche Methoden des Information Retrieval und Algorithmen mit Hilfe geeigneter Retrieval-Systeme eingesetzt. In diesem Beitrag werden zunächst Informationen-Retrieval-Systeme auf der Grundlage von Retrieval-Methoden und deren Einsatz in verschiedenen Bereichen diskutiert und dann, ausgehend von der Geburt des Radars, die Entwicklung und Weiterentwicklung von Radarsystemen als Informations-Retrieval-System untersucht, um die erforderlichen und geeigneten Informationen für diesen Zweck abzurufen von Sicherheit, Überwachung, Beobachtung und Verfolgung. Schließlich wird basierend auf den Technologien, dem elektromagnetischen Verbrauch und den FCC-Standards, Radar-basierte Zeit eine Reihe von Informations-Retrieval-Systemen untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34910-2_53 cc59b147b1e07c4435307184a3a88080;de;;;7.1.;;;Ein konzeptionelles Modell eines Fertigungssystems Dieses Kapitel bietet einen strukturierten Überblick über die wichtigsten Aspekte eines modernen Fertigungssystems und entwickelt ein Systemmodell für eine wichtige Art der Fertigungsorganisation. Das Durchlesen dieses Kapitels ist wie eine „geführte Tour“ durch ein Fertigungssystem. Wir verfolgen den Weg, den ein Produkt durch das System nimmt, von der Kundenanfrage bis zur Auslieferung. Auf der Reise durch diesen „Manufacturing Park“ besuchen wir verschiedene interessante Orte (oder besser gesagt die Funktionsbereiche), in denen fortschrittliche Fertigungstechnologie (AMT) zur Steigerung der Produktivität eingesetzt wird. Dieses Kapitel ist ein Leitfaden mit „Karten“, die Ihnen helfen, sich durch die ziemlich komplizierte Struktur der Abläufe zurechtzufinden, und anekdotische Informationen, die Ihnen helfen, die grundlegenden Konzepte in verschiedenen Funktionsbereichen der Fertigung zu verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-3128-5_3 3726db525ccb3b1bdd70b45decd42edc;de;;;7.1.;;;Erdbeobachtungs- und Informationssysteme In den letzten Jahren wurden enorme Fortschritte bei der Entwicklung funktionsfähiger satelliten- und luftgestützter Systeme zur Fernerkundung von Atmosphären-, Land- und Meeresoberflächen gemacht. Umweltdatenbojen wurden für den Einsatz in Kontinentalschelf- und Tiefseegebieten entwickelt, um eine kontinuierliche Überwachung der Atmosphäre, der Meeresoberfläche und des Untergrunds zu ermöglichen. Landstationen, Radargeräte und atmosphärische Sondengeräte wurden entwickelt, um eine Vielzahl von Umweltfaktoren zu überwachen. All diese Entwicklungen basieren auf erstaunlichen Fortschritten in der Plattformtechnologie, elektromagnetischen Sensortechnologie, Computer- und Kommunikationssystemen und theoretischen Modellen. Die Menschheit entwickelt das Potenzial, den physischen Puls der Erde zu jeder Zeit und an jedem Ort mit beliebiger Genauigkeit zu erfassen. Die Haupteinschränkungen sind die der Wirtschaft und der Politik.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-8864-1_10 350a045d9ee713aa7a52957553e15a4c;de;;;7.1.;;;Grundlegende Erkenntnisse für Unternehmensveränderungen und Unternehmensdesign zusammengefasst Jede Sound-Design-Wissenschaft ist fest in den zugehörigen Grundlagenwissenschaften verwurzelt. Die Theorie zum Entwurf von Antennen ist beispielsweise fest in der Theorie der elektromagnetischen Wellen verankert. Für Unternehmen wurden die grundlegenden Erkenntnisse in unserer Begleitpublikation skizziert. Dieses Kapitel bietet eine kurze Zusammenfassung. Ausgangspunkt ist die philosophische Grundlage, die sich unter anderem mit Realitätsglauben und den Begründungen, auf denen die Überzeugungen beruhen, beschäftigt. Es werden verschiedene Sichtweisen zu Wahrheit und Wissen vorgestellt, wobei das vorherrschende mechanistische und deterministische Weltbild erläutert wird. Das Kapitel fasst kurz zusammen, wie diese Weltanschauung Sinn und Moral eliminiert hat und darüber hinaus die Aufmerksamkeit für die Essenzen der menschlichen Existenz, genau die Essenzen, die für das Verständnis von Gesellschaft und Unternehmen entscheidend sind. Alternative Standpunkte, die diese Essenzen ausdrücken, werden wieder aufgenommen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-73658-7_2 196c0ee443e82a5777bb8082e1cec38e;de;;;7.1.;;;Analyse des formalen und informellen Informationsbedarfs beim Design von Entscheidungsunterstützungssystemen In diesem Kapitel wird argumentiert, dass die Analyse des Informationsbedarfs ein integraler Bestandteil der Gestaltung eines Entscheidungsunterstützungssystems (DSS) ist. Eine ordnungsgemäße Bedarfsanalyse gewährleistet eine wirksame Ausrichtung und Prioritäten für das Systemdesign. Die Datenanalyse- und Entscheidungsanalyseansätze zur Informationsbedarfsanalyse werden überprüft, ein experimenteller Ansatz zur Bedarfsanalyse wird vorgeschlagen. Eine empirische Studie mit diesem Ansatz wurde in einem Börsenbüro durchgeführt. Ein entscheidendes Ergebnis war, dass informelle Informationen in die Gestaltung eines Entscheidungsunterstützungssystems für Börsenmakler einbezogen werden sollten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2677-9_3 43f4a2bba020926c63125eb1bdf4450a;de;;;7.2.;;;Ein Framework zur Bewertung automatischer Bildannotationsalgorithmen Vor kurzem wurden mehrere Automatic Image Annotation (AIA)-Algorithmen eingeführt, die frühere Modelle übertreffen. Jeder von ihnen wurde jedoch entweder mit unterschiedlichen Deskriptoren, Sammlungen oder Teilen von Sammlungen oder einfachen Einstellungen bewertet. Diese Tatsache macht ihre Ergebnisse nicht vergleichbar, während wir zeigen, dass sammlungsspezifische Eigenschaften für die hohen berichteten Leistungsmaße verantwortlich sind und nicht die tatsächlichen Modelle. In diesem Beitrag stellen wir ein Framework zur Bewertung von Bildannotationsmodellen vor, mit dem wir zwei hochmoderne AIA-Algorithmen evaluieren. Unsere Ergebnisse zeigen, dass ein einfacher Support Vector Machine (SVM)-Ansatz, der globale MPEG-7-Funktionen verwendet, hochmoderne AIA-Modelle in mehreren Sammlungseinstellungen übertrifft. Es scheint, dass diese Modelle stark von den verwendeten Funktionen und den verwendeten Daten abhängen, während es einfach ist, sammlungsspezifische Eigenschaften, wie die Tag-Popularität, insbesondere im häufig verwendeten Corel 5K-Datensatz, auszunutzen und dennoch eine gute Leistung zu erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12275-0_21 ec665405336acd4dabdc93b50935ac7a;de;;;7.1.;;;Leistungsmanagement In diesem Kapitel werden grundlegende Begriffe und Definitionen eingeführt. Zunächst werden Art und Merkmale von Erfindung und Innovation untersucht. Der Rückblick zeigt, dass der wirtschaftliche Erfolg einer Innovation nicht nur von der Qualität der in Forschung und/oder Entwicklung generierten Erfindungen abhängt und sowohl Erfindung als auch Innovation Bestandteile eines Prozesses des Innovationsmanagements darstellen, der sich über die gesamte Wertschöpfungskette eines Unternehmens erstreckt . Darüber hinaus werden folgende Konzepte unterschieden: Innovationsmanagement, Technologiemanagement und F&E-Management, um auch die Unterschiede zwischen den Funktionen Forschung und Entwicklung im Detail zu verstehen. Folgende Fragen werden beantwortet: Was versteht man unter Forschung und Entwicklung, was sind die Rollen und Aufgaben der Einheiten, welches technologische Wissen produzieren sie, was ist der Zweck des Performance Managements, was sind seine Bestandteile und was sind industrielle Forschungsabteilungen?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-2762-0_2 1111fc4959048aa5e54de5a637f0ee2e;de;;;7.1.;;;Prozessentwicklungsmethodik für das U-integrierte Managementsystem Die bestehende Aufgabe des Forschungskostenmanagements besteht in der Budgetplanung, der Budgeterstellung und der exakten Budgetabrechnung. Daher ist ein integriertes Management für eine gewisse Sicherheit, einen effizienten Betrieb und eine klare Abwicklung der Forschungsausgaben dringend erforderlich. Um diesen Anforderungen gerecht zu werden, wurde Research Expenses Integrated Management (REIM) für die mobile Anwendung angeboten, indem ein Geschäftsanwendungsmodul wiederverwendet wurde, das im REIM-Entwicklungsprozess entwickelt wurde. Außerdem wurde eine Mobile-Collaboration-Komponente entwickelt, die einen spezialisierten Kollaborationsprozess unterstützt, der an die Besonderheiten einer mobilen Maschine angepasst werden kann. Als Ergebnis kann es verschiedene unterstützende Informationen für die Entscheidungsfindung für die Festlegung von Forschungsmanagementrichtlinien bieten, indem es die Anforderungen der Benutzer in Echtzeit widerspiegelt. Es kann auch jedem Vorgang Genauigkeit und Fehlervermeidung bieten, da es den Prozess jedes Vorgangs ohne zeitliche und räumliche Behinderung durch mobile Zusammenarbeit erfassen kann.;-;-;-;https://link.springer.com/chapter/10.1007/11751649_71 8660f937a2180ff9a59dda037ca6eeec;de;;;7.1.;;;Organisationsdesign basierend auf Simulationsmodellierung Dieser Beitrag befasst sich mit einem organisatorischen Design auf der Grundlage von Simulationsmodellen. Der Zweck der spezifischen Methodik basiert auf den folgenden Hauptgedanken:;-;-;-;https://link.springer.com/article/10.1007/s00170-017-1453-0 372f600d28c7bef044c69f2c6fffdfc1;de;;;7.1.;;;Von der Informationsalgebra zu Unternehmensmodellierung und Ontologien – eine historische Perspektive auf die Modellierung von Informationssystemen Die Entwicklung von Forschung und Praxis im Bereich der konzeptionellen Modellierung von Informationssystemen während mehr als vier Jahrzehnten wird untersucht. Es konzentriert sich auf forschungs- und praxisbezogene Aktivitäten in den frühen Phasen der Systementwicklung. Es kommentiert eine Vielzahl von Modellierungsmethoden, die in den 1960er, 70er und 80er Jahren veröffentlicht wurden, sowie den Bericht „Concepts and Terminology of the Conceptual Schema and the Information Base“, der über die Arbeit der ISO-Arbeit berichtet Gruppe ISO/TC97/SC5/WG5 in den frühen 80er Jahren. Anerkannt werden Ansätze, die auf einer zeitlichen und deduktiven Betrachtung der Anwendungsdomäne sowie objektorientierten Modellierungssprachen beruhen. Der Beitrag setzt sich mit einer Diskussion von Prinzipien und Forschungsproblemen zu einem Thema fort, das wir „Enterprise Modelling“ und „Ontology Modeling“ nennen. Das;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72677-7_1 b2fc0f51eb3a57aa4d6bbb3ed3f0fd18;de;;;7.1.;;;Architektur für ein Multi-Channel-Enterprise-Resource-Planning-System Mobile Computing verändert das Verhalten von Einzelpersonen und Organisationen. Der sofortige, multimodale Zugriff auf Informationen ist in vielen Geschäftssituationen von Vorteil. Folglich müssen zentrale Informationssysteme wie Enterprise Resource Planning-Systeme, auf die sich Unternehmen heute verlassen, das mobile Verhalten ihrer Benutzer unterstützen. In diesem Papier diskutieren wir einige Architekturüberlegungen für Multi-Channel-Anwendungen und stellen eine vierstufige Architektur für ein mobiles ERP-System vor. Zwei wichtige Fragen, die beantwortet werden müssen, sind der Zugriff auf Inhalte einer ERP-Datenbank von heterogenen mobilen Geräten und wie diese Inhalte einem mobilen Benutzer in verschiedenen Formaten zur Verfügung gestellt werden. Es wird eine prototypische Implementierung auf Basis eines realen ERP-Systems beschrieben. Offene Fragen und Fragen für die weitere Forschung werden im abschließenden Abschnitt diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-31166-1_17 a73309a309e4108d159d4076f9d5ae90;de;;;7.1.;;;Das Grid Intelligent Planning Framework: Planung von Investitionen in Energieversorgungsunternehmen in einer Zeit des sich beschleunigenden Wandels In den nächsten zehn Jahren werden Stromversorger Milliarden von Dollar investieren müssen, um die politischen Ziele für ein grüneres und intelligenteres Stromnetz zu erreichen. Portfoliostandards für erneuerbare Energien, Elektrofahrzeuginfrastruktur, fortschrittliche Messinfrastruktur und der Ersatz alternder Netzanlagen sind einige der Faktoren, die diese neuen Investitionen antreiben. Das Grid Intelligent Planning Framework mit GridLAB-D ist eine fortschrittliche Prognoselösung, die es Versorgungsunternehmen und Ingenieursexperten ermöglicht, an Prognosemodellen zusammenzuarbeiten und dadurch die Zeit für einen Investitionsplanungszyklus zu verkürzen. Diese Lösung erleichtert kluge und rechtzeitige Investitionsentscheidungen, da sich das Tempo der Veränderungen in der Strombranche beschleunigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21708-1_24 5bbcfccefe272aa063f5916146e2e51b;de;;;7.1.;;;Informatikausbildung an der Technischen Universität Helsinki: Die ersten zehn Jahre (1968–1978) Als die Technische Universität Helsinki (HUT) nach einer Zeit mit grundlegenden Programmierkursen ihren Studenten ein vollständiges Curriculum mit Informatikkursen anbieten wollte, taten sie dies auf ihre eigene Weise. Anstelle des üblichen mathematisch orientierten Hochschulstudiums waren die meisten Studiengänge auf die praktischen Bedürfnisse der umliegenden Industrie ausgerichtet. Darüber hinaus behielten sie im Auge, was weltweit auf dem Gebiet der Informatik neu und kommend war. Der Aufsatz konzentriert sich auf die Entwicklung in den ersten zehn Jahren 1968–1978. Kursüberschriften und an der Lehre beteiligte Personen werden erwähnt. Die Forschungstätigkeit wird kurz beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23315-9_44 4e4ac44266f49d33b61615b994f29cdc;de;;;7.1.;;;Eine Methode zur Organisationskulturanalyse als Grundlage für die Implementierung von User Centered Design in Organisationen Die Verbesserung der Position von User-Centered Design (UCD) in Organisationen ist eine Herausforderung. Die Unternehmenskultur ist ein einflussreicher Faktor, der die Erfolge und Misserfolge von Bemühungen zur Verbesserung der Organisation beeinflusst. Studien zu den Auswirkungen der Organisationskultur bei der Umsetzung von UCD liegen nicht vor. Darüber hinaus ist es schwierig, Methoden und theoretische Modelle zu finden, mit denen die Organisationskultur in den Verbesserungsbemühungen zuverlässig und systematisch analysiert werden kann. In diesem Beitrag wird eine Methode vorgestellt, mit der die Organisationskultur im Kontext der UCD-Implementierung analysiert werden kann. Die Methode wurde durch das Experimentieren mit verschiedenen Techniken zur Datenerhebung (Umfragen, Interviews und Workshops) in 7 Organisationseinheiten in 4 Softwareentwicklungsunternehmen entwickelt. Die Vorteile und Probleme der Techniken werden vorgestellt. Es werden praktische Anleitungen zur Durchführung prospektiver Kulturanalysen angeboten. Abschließend werden Empfehlungen zur Auswahl einer geeigneten UCD-Implementierungsstrategie für verschiedene Kulturtypen skizziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-3754-2_8 48ee438ad6ba0400f170c16fee2020ce;de;;;7.1.;;;Bereitstellung eines mikrocomputerbasierten HRMS als verteiltes Informationssystem: Auswirkungen und Auswirkungen des HR-Policy-Managements Angesichts der Größe, Komplexität und Struktur moderner Unternehmen benötigen sie dynamische Informationssysteme. Diese Systeme sind computerisiert und bis vor kurzem überwiegend Mainframe-Systeme. Mit dem Aufkommen der Mikrocomputertechnologie erleben wir die Verbreitung von Computern durch die Organisation, um bei der Verwaltung von Informationen zu helfen. Diese Änderung bietet die Informationen, eine längere Reaktionszeit, mehr Kontrolle über das Informationsmanagement und eine sofortigere Ausgabe (Mazursky, 1984).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-1875-0_19 b224948588e0ed2a60cbea7ce28fc5c2;de;;;7.1.;;;Multimedia und Stadtplanung Bis vor kurzem war die Darstellung von Rauminformationen mit Computerwerkzeugen in der Stadtplanung auf die Verwendung von Karten beschränkt. Wie Parsons (1992) hervorgehoben hat, stellen Karten eine dreidimensionale (3-d) Realität in zwei Dimensionen (2-d) dar, verwenden feste Darstellungsmaßstäbe und haben Schwierigkeiten, dynamische Merkmale darzustellen. Die Verwendung anderer Datentypen wie Bilder, Video und Ton in Multimedia-Rauminformationssystemen überwindet solche Beschränkungen. Darüber hinaus ermöglichen Multimediasysteme ein hohes Maß an Interaktion. Somit unterstützt die Anwendung von räumlichem Multimedia auf die Planung Schlüsselaktionen innerhalb des Planungsprozesses, wie die Beschreibung, Analyse und Übermittlung relevanter Daten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-03954-0_21 f4a4ea6d1d81c6c758be0b30e1ad86f2;de;;;7.1.;;;Telerobotic Surgery: Fuzzy Path Planning Control für eine Telerobotic Assistant Surgery In diesem Beitrag wird eine Strategie der Pfadplanung mit Fuzzy-Logik für eine telerobotische Assistenzchirurgie vorgestellt. Die telerobotische Chirurgie hat in ihrer kurzen Geschichte eine lange Strecke hinter sich. Während die Telekonsultation heute immer mehr eingesetzt wird, macht das Aufkommen von Hochgeschwindigkeitskommunikation und zunehmender Rechenkompetenz die Fernsteuerung von Operationsinstrumenten, die sogenannte Telepräsenzchirurgie, Realität. Basierend auf der laparoskopischen Technologie wurde die telerobotische Chirurgie zunächst an Tieren und in jüngerer Zeit erfolgreich am Menschen getestet. Die Technologie bietet mehrere Vorteile, darunter eine verbesserte Genauigkeit und die Möglichkeit, schwierige Verfahren an ländliche und abgelegene Orte zu bringen, an denen ausgebildete Chirurgen nicht verfügbar sind. Für die Teleroboter wird zunächst ein dynamisches Modell mit Lagrange-Formulierung berechnet. Eine Fuzzy-Regelungsstrategie wird verwendet, um das Bahnplanungsverfahren und die theoretischen Entwicklungen in der Bewegungsbeschränkungsanalyse zu validieren. Die Arbeit wird mit einem Fazit abgeschlossen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24369-6_24 e3e6a6c87ed1c072daf10d6f8da1426b;de;;;7.1.;;;Vollständige und unvollständige Kenntnisse in logischen Informationssystemen Wir präsentieren eine Verallgemeinerung der Logik All I Know, indem wir sie als Erweiterung der Standard-Modallogik präsentieren. Wir untersuchen, wie diese Logik verwendet werden kann, um vollständiges und unvollständiges Wissen in logischen Informationssystemen darzustellen. In diesen Informationssystemen ist eine Wissensdatenbank eine Sammlung von Objekten (z. B. Dateien, bibliografische Elemente), die in derselben Logik beschrieben werden, die zum Ausdrücken von Abfragen verwendet wird. Wir zeigen, dass das übliche Alles, was ich weiß (transitive und euklidische Zugänglichkeitsrelation) geeignet ist, vollständiges Wissen darzustellen, aber nicht für unvollständiges Wissen. Dafür verwenden wir;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44652-4_69 c91ae1c84332f03828fd69bf5f885b14;de;;;7.1.;;;Das soziale Design von Informationssystemen Dieses Panel konzentriert sich auf Fragen der Gestaltung von Informationssystemen, um die zunehmend sozialen Funktionen computergestützter Technologien zu berücksichtigen und besser zu unterstützen. Ziel dieses Panels ist es, als Forum für die Weiterentwicklung und Diskussion der ersten Prinzipien für das zu dienen, was wir das nennen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21364-9_18 a59c73e8c9c19c8ecc57ab36615edf13;de;;;7.1.;;;Adoption interorganisationaler Systeme: eine sozio-technische Perspektive In diesem Beitrag wird eine Fallstudie eines Projekts zur Einführung eines elektronischen Datenaustauschs (EDI) zwischen zwei Organisationen (ProvideCo und BuildCo) zur Einführung eines elektronischen Datenaustauschs (EDI) zwischen zwei Organisationen (ProvideCo und BuildCo) diskutiert und hervorgehoben, dass die Einführung von IOS nicht nur technologischer Natur und Ausrichtung ist, sondern dass auch organisatorische Faktoren eine Rolle spielen. Als Ergebnis der Fallanalyse und der wichtigsten Erkenntnisse wird ein Modell der interorganisationalen Zusammenarbeit (Barratt 2004) geändert, um die Auswirkungen organisatorischer Faktoren auf die Einführung von IOS zu erläutern und hervorzuheben. Das geänderte Modell umfasst die Beziehung der Technologie (IOS) Adoption zu funktionsübergreifenden Kooperationsaktivitäten und Risiko, Macht, Opportunismus und Vertrauen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-87503-3_9 8d77e344ec174c633a012eafd267a143;de;;;7.1.;;;Ein Clustering-basierter Ansatz zur Verfolgung von objektorientiertem Design nach Anforderung Durch die Erfassung der Rückverfolgbarkeitsbeziehung zwischen Softwareanforderung und Design können Entwickler überprüfen, ob das Design die Anforderungen erfüllt, und die Auswirkungen von Anforderungsänderungen auf das Design analysieren. Dieses Papier präsentiert einen Ansatz zur Identifizierung der Klassen im objektorientierten Softwaredesign, die einen gegebenen Anwendungsfall realisieren, der Ideen und Technologien aus dem Bereich Information Retrieval (IR) und Text Clustering nutzt. Zuerst stellen wir den Anwendungsfall und alle Klassen als Vektoren in einem Vektorraum dar, der mit den von ihnen stammenden Schlüsselwörtern konstruiert wurde. Anschließend werden die Klassen basierend auf ihrer semantischen Relevanz geclustert und der Cluster identifiziert, der am ehesten mit dem Anwendungsfall zu tun hat. Schließlich ergänzen wir den Rohcluster, indem wir strukturelle Beziehungen zwischen den Klassen analysieren. Wir führen ein Experiment durch, indem wir diesen Clustering-basierten Ansatz für ein System verwenden – Resource Management Software. Wir berechnen und vergleichen die Präzision und den Wiedererkennungswert unseres Ansatzes und Nicht-Clustering-Ansätze und erhalten vielversprechende Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71289-3_31 20cb0c43c800cd275a5ceb66f3c672bb;de;;;7.1.;;;Kontrolle der bei der Fehleranalyse von Informationssystemen erzeugten Informationen Die Menge an Informationen, die durch die Untersuchung des Ausfalls eines Informationssystems generiert wird, hängt von der Größe der Operation ab. Beim Ausfall eines komplexen Systems, an dem eine Vielzahl von Personen sowie Anlagen beteiligt sind, kann die Untersuchung den Einsatz eines großen Personalteams erfordern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83091-4_14 10449643ba37390747a1f9550d775396;de;;;7.1.;;;ExPlanTech: Multi-Agenten-Framework für Produktionsplanung, Simulation und Supply Chain Management Wir präsentieren eine vereinheitlichte Multi-Agenten-Technologie zur Entscheidungsunterstützung in der Produktionsplanung und -planung, der Fertigungssimulation und im Supply Chain Management. Die Technologie wurde an mehreren Industriefällen getestet und wird in den täglichen Produktionsplanungsprozessen eines bedeutenden Automobilzulieferers in der Tschechischen Republik eingesetzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30082-3_21 d593a57acdb9a2164ff2899ea5630cd7;de;;;7.1.;;;Holons & Agenten: Jüngste Entwicklungen und gegenseitige Auswirkungen Dieses Positionspapier fasst kurz die jüngsten Trends in den verwandten Bereichen holonischer Systeme und Multiagentensysteme zusammen mit dem Hauptziel, den Bereich Holonic Manufacturing Systems der MAS-Community vorzustellen. Die Vision einer Holonic Factory steht kurz vor der Verwirklichung und bezieht eine Reihe ihrer Konzepte aus der Welt der Multiagentensysteme. Daher lassen sich viele Gemeinsamkeiten zwischen diesen beiden Bereichen feststellen und es gibt viele Möglichkeiten für die Überschneidung von Forschungsergebnissen. Der Standard IEC 61499 für holonische Steuerung in Echtzeit auf Funktionsblöcke wurde vor kurzem fertiggestellt. Es wurde von der holonischen Fertigungssystemgemeinschaft anerkannt, dass dieser Standard nur bei der Lösung von Steuerungsaufgaben auf niedriger Ebene helfen kann. Das heißt, wo der Zeithorizont von Entscheidungen von Holons (z. B. das Stoppen der physischen Bewegung von Robotern oder das Ausführen sicherheitskritischer Aufgaben) im Bereich von Mikrosekunden bis Sekunden liegt. Doch dieser Standard adressiert nicht alle Themen, die zum Aufbau einer intelligenten agilen Fabrik notwendig sind. Der MAS-Bereich kann maßgeblich dazu beitragen, die aktuellen Blockaden in der HMS-Forschung zu vermeiden. In Bezug auf gegenseitige Auswirkungen basieren holonische Systeme auf pragmatischen Anforderungen an die Fertigungssteuerung und bieten daher eine Fülle attraktiver Möglichkeiten, um agentenbasierte Ideen in realen industriellen Umgebungen einzusetzen. Umgekehrt sollte der Einsatz von Agenten in Fertigungsdomänen in Verbindung mit der physischen Produktion eine MAS-Community motivieren, die sich (bisher) nur auf Informationsagenten konzentriert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45982-0_16 803bd49c9fdcac5c0552ceea168f7829;de;;;7.1.;;;Eine Synthese von Ansätzen zur ökologischen Planung Wir haben einen langen Weg zurückgelegt seit dem 19. Jahrhundert, als uns Leute wie Thoreau, Olmsted und Muir an die unvermeidlichen Folgen des menschlichen Missbrauchs von Landschaften erinnerten. Die Entwicklung der ökologischen Planung als Philosophie und Rahmen für das Management von Veränderungen, um menschliches Handeln mit natürlichen Prozessen in Einklang zu bringen, war langsam, schrittweise und manchmal unzusammenhängend. Neue Ideen wurden vorgeschlagen und diskutiert, und einige wurden für die spätere Verwendung verfeinert. Von den späten 1950er Jahren bis in die Gegenwart hat sich der evolutionäre Fortschritt intensiviert und übertrifft fast den während der Ära des Erwachens, der prägenden Ära und der Konsolidierung. Anders als in früheren Epochen, als die evolutionäre Entwicklung das Thema Planung mit der Natur ausarbeitete und klärte, verlief die Entwicklung in den letzten vier Jahrzehnten in unterschiedliche, aber verwandte Richtungen. Das Feld der ökologischen Planung und Gestaltung hat sich nicht nur in Art, Umfang und Umfang der behandelten Themen, sondern auch in der Vielfalt der verwendeten Ansätze erweitert.;-;-;-;https://link.springer.com/chapter/10.5822/978-1-61091-491-8_35 abab947960fa4f69ca436dc3c11aefca;de;;;7.1.;;;Der Einfluss von Managementsystemen auf das Design von Produktionslinien Das Papier bezieht sich auf ein gemeinsames Forschungsprojekt zwischen Edbro Ltd. und UMIST bezüglich der Gestaltung von Produktionsanlagen für die Hauptkomponenten des Unternehmens. Es beschreibt, wie Flexible Manufacturing (FM), Manufacturing Resource Planning (MRP2), Just-in-Time (JIT) und Optimized Production Technology (OPT) das endgültige Systemdesign beeinflusst haben. Die unterschiedlichen Philosophien werden diskutiert und in einer detaillierten Fallstudie beschrieben, wie sie kombiniert wurden, um die spezifischen Anforderungen des Unternehmens zu erfüllen. Es werden Schlussfolgerungen zu den Auswirkungen gezogen, die moderne Produktionsmanagementsysteme auf die Gestaltung von Produktionssystemen haben können.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-8524-4_64 d13bc9c5e701e26f42e8c77c09aac58a;de;;;7.2.;;;Identifizieren von Brustkrebskonzepten in SNOMED-CT mithilfe eines großen Textkorpus Große medizinische Ontologien können beim Aufbau eines spezialisierten klinischen Informationssystems eine große Hilfe sein. Der erste Schritt bei ihrer Verwendung besteht darin, die Teilmenge der Konzepte zu identifizieren, die für das Fachgebiet relevant sind. In diesem Beitrag präsentieren wir eine Methode zur automatischen Identifizierung der Brustkrebskonzepte aus den;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23635-8_4 c3bfd6e95eefd909a31adc330fe5a693;de;;;7.2.;;;Leistungsbewertung des personalisierten Multiagenten-Informationssystems In diesem Beitrag wird eine agentenorientierte Architektur für personalisierte Informationssysteme betrachtet. Diese Architektur besteht aus vier Agententypen und basiert auf dem FIPA-Standard. Der Schwerpunkt liegt auf der Leistungsbewertung, die auf der Systemdynamik basiert. Die umfangreichsten Modelle der Dynamik in FIPA sind Statecharts. Leistungszustandsdiagramme sind solche Zustandsdiagramme, die um Wahrscheinlichkeitsverteilungen von Aktivitätsdauerzeiten und Wahrscheinlichkeitsverteilungen zum Lösen von Nichtdeterminismus erweitert werden. Die Leistungsanalyse des personalisierten Informationssystems anhand von Leistungszustandsdiagrammen wird in das Papier übernommen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24844-6_125 9448ba417aacf7507abb9652eddde2cc;de;;;7.2.;;;Ein Dirichlet-geglättetes Bigramm-Modell zum Abrufen von Spontansprache Wir präsentieren zwei einfache, aber effektive Glättungstechniken für den Standardsprachmodell (LM)-Ansatz zur Informationsgewinnung [12]. Zuerst erweitern wir die in der IR populäre Unigramm-Dirichlet-Glättungstechnik [17] auf die Bigramm-Modellierung [16]. Zweitens schlagen wir eine Methode vor,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85760-0_87 cf44cf78fb264ed1421a0eabeb9c712e;de;;;7.1.;;;Das Unternehmen – sein Kontrollsystem in der Praxis Bis vor kurzem wurde das wirtschaftstheoretische Unternehmen als eine in einem (vorgegebenen) Preissystem etablierte Fabrik dargestellt, die unter vollständiger interner Kontrolle durch ihr Top-Management steht. Der Titel von Thorstein Veblens (1921) Buch „Der Ingenieur und das Preissystem“ vermittelt die Idee. Dieser Gedanke setzte sich auch in der politischen Welt durch, auf die Ökonomen ihre Aufmerksamkeit richteten. Es trug – glaube ich persönlich – sowohl zur unwissenschaftlichen als auch unprofessionellen Debatte über Wirtschaftsplanung, Sozialisierung der Industrie und zu einer Vielzahl ideologischer Metaphern, die auf Unwissenheit beruhen, bei. Sie verursachte auch den Zusammenbruch der Kommunikation zwischen Wirtschaftstheorie und empirischer Wirtschaftsforschung einerseits und Betriebswirtschaftslehre andererseits. Das vorherige Kapitel hat dies veranschaulicht. Auch wenn ihre Zwecke unterschiedlich sind und die Welt zu komplex ist, um sie in einer universellen Theorie zu erfassen, sollten sowohl die Wirtschaftstheorie als auch die Theorie der Betriebswirtschaftslehre eine minimale gemeinsame Grundlage in derselben relevanten Theorie des Unternehmens haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-1610-4_4 801e016917c3f2ce287492532ebf033c;de;;;7.1.;;;Planung und Bilanzierung von Demontagesystemen Durch die Erschöpfung natürlicher Ressourcen ausgelöste Gesetzesänderungen haben die Bedeutung der Demontage als Form des Recyclings erhöht. Die Implementierung computergestützter Verfahren im Recycling ist unverzichtbar geworden. Aus Zeitwirtschaftsdaten wurde ein Werkzeug zur wirtschaftlichen Planung von Demontageprozessen entwickelt, das einen arbeitsteiligen Lastausgleich von Demontagesystemen ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-77249-3_6 1009999331b1feb052db73782b16be79;de;;;7.1.;;;Technologie und Strafjustiz Zuvor haben wir uns angesehen, wie der Computer Informationen manipulieren und verarbeiten kann. In Kapitel 2 wurden Beispiele für Methoden zum Umgang mit spezifischen Rechtsinformationen diskutiert. Dieses Kapitel führt diese Methoden in eine andere Arena ein, nämlich in die des Strafjustizsystems. Strafverfolgung und Bestrafung sind nur zwei Elemente des Strafrechtssystems, die hier angesprochen werden. In diesem Kapitel werden wir sehen, wie die Polizei die Informationstechnologie (IT) eingesetzt hat, und wir werden das Ausmaß der Rolle der IT innerhalb der Polizei untersuchen. Auch die Auswirkungen der Technologie auf den Strafvollzug werden diskutiert. Informationstechnologie wird in diesem Zusammenhang verwendet, um die „Informatisierung“ von Aufgaben zu beschreiben, die sonst innerhalb der Strafjustiz manuell durchgeführt worden wären. Erhöhte Effektivität und Effizienz werden allgemein als Grund für die Einführung technischer Veränderungen in jeder Organisation akzeptiert, wobei Polizei und Gefängnisse keine Ausnahme bilden. Seit den frühen 1970er Jahren hat sich das Konzept der „computergestützten Polizeiarbeit“ im Einklang mit dem technologischen Fortschritt und dem sich wandelnden Charakter der Polizeiarbeit weiterentwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0593-0_5 103c855ea994a939e3d371ac5fbdbd63;de;;;7.2.;;;Die Rolle der Wortsinn-Begriffsklärung bei der automatischen Textkategorisierung Die automatisierte Textkategorisierung hat die Genauigkeit menschlicher Experten erreicht. Vorausgesetzt, dass genügend Trainingsdaten verfügbar sind, ist es möglich, genaue automatische Klassifikatoren mithilfe von Information Retrieval- und Machine Learning-Techniken zu lernen. Die Leistung dieses Ansatzes wird jedoch durch die Probleme beeinträchtigt, die sich aus der Sprachvariation (insbesondere Polysemie und Synonymie) ergeben. Wir untersuchen, wie die Begriffsklärung von Word Sense verwendet werden kann, um diese Probleme zu lindern, indem wir zwei traditionelle Methoden für die Thesaurus-Nutzung beim Informationsabruf verwenden, nämlich Abfrageerweiterung und Konzeptindizierung. Diese Methoden werden hinsichtlich des Problems der Verwendung der lexikalischen Datenbank WordNet zur Textkategorisierung evaluiert, wobei der Schwerpunkt auf dem damit verbundenen Schritt der Wortsinn-Begriffsklärung liegt. Unsere Experimente zeigen, dass sowohl bei der Abfrageerweiterung als auch bei der Konzeptindizierung relativ einfache Wörterbuchmethoden und grundlegende statistische Ansätze verwendet werden können, um Wörter zu disambiguieren und die Textdarstellung und das Lernen zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/11428817_27 e5a825fc75e281c46ef5500006d491b2;de;;;7.1.;;;Ein Planungssystem für Precision Farming basierend auf einem autonomen Traktor Dieses Papier beschreibt das für Precision Farming entwickelte Planungssystem. Insbesondere zielt das System darauf ab, die kooperativen Arbeiten zwischen dem auf einem Global Positioning System (GPS) basierenden autonomen Traktor und seinen Applikatoren zu unterstützen. Der autonome Traktor kann dank GPS-basierter Navigation präzise auf Feldern fahren. Die Applikatoren können so gesteuert werden, dass sie variable Ausgaben entsprechend der genauen Position in den Feldern ausführen. Mit dem Traktor und seinen Applikatoren können wir Precision Farming nach verschiedenen Bedingungen auf dem Feld realisieren. Um das autonome Traktorsystem nutzen zu können, wurde das Planungssystem entwickelt, um die Feldinformationen zu speichern, den Traktor zu navigieren und die variable Landarbeit zu planen. In diesem Beitrag zeigen wir die Gliederung der Gesamtsysteme, Planungsmethoden der Navigation und die Optimierung variabler landwirtschaftlicher Arbeit. Die Ergebnisse von Experimenten, die auf das Planungssystem angewendet wurden, werden gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-0819-9_23 5af8d2a3020371ca9aa8d458ea652035;de;;;7.1.;;;Tool-Unterstützung für dynamische Entwicklungsprozesse Entwicklungsprozesse in ingenieurwissenschaftlichen Disziplinen sind hochdynamisch. Da Entwicklungsprojekte nicht vollständig im Voraus geplant werden können, ändert sich der auszuführende Prozess zur Laufzeit. Wir präsentieren ein Prozessmanagementsystem, das Planung und Umsetzung nahtlos integriert. Das System verwaltet Prozesse auf Projektmanagement-Ebene, geht aber über die Funktionalität von Projektmanagement-Systemen insofern hinaus, als es sowohl Entwicklungsprozesse überwacht und steuert als auch die Umsetzung von Aufgaben durch eine Arbeitsumgebung unterstützt. Das Prozessmanagementsystem bietet jedoch keine Prozessautomatisierung, wie sie in Arbeitsablaufmanagementsystemen durchgeführt wird. Daher haben wir Werkzeuge zur Integration von Prozessmanagement und Workflowmanagement entwickelt, um sich wiederholende Fragmente des gesamten Entwicklungsprozesses in Workflowmanagementsystemen abzubilden und im Prozessmanagementsystem zu überwachen. Auch bei sich wiederholenden Prozessfragmenten kann es während der Ausführung eines Workflows zu Abweichungen von der Workflow-Definition kommen. Damit haben wir auch ein Tool realisiert, das es erlaubt, dynamische Änderungen von Workflows während des Enactments vorzunehmen. Insgesamt werden dynamische Entwicklungsprozesse durch eine synergetische Kombination von Prozess- und Workflow-Management-Systemen unterstützt, die die Prozessplanung und -abwicklung integrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17322-6_27 b23a1eb2235a0a4d31fdf70792f9e4e1;de;;;7.1.;;;Eigenschaften und Architekturkomponenten von visuellen Informationssystemen Ein visuelles Informationssystem stellt eine radikale Abkehr vom starren Text-in/Text-out-Paradigma konventioneller Informationssysteme dar. Es erweitert den Anwendungsbereich von Informationssystemen erheblich und sitzt typischerweise auf einem universellen Multimedia-Betriebssystem, das von Multimedia-Hardware und einem Netzwerk mit hoher Bandbreite unterstützt wird. Im Gegensatz zu einem herkömmlichen Informationssystem umfassen die Arten von Speicher- und E/A-Geräten, die zur Unterstützung eines visuellen Informationssystems erforderlich sind, im Allgemeinen eine viel größere Vielfalt von Einrichtungen für eine effiziente visuelle Informationspräsentation und Visualisierung. Neben der Bereitstellung einer Multimode-Zustellung ist die effektive Korrelation zwischen Informationen des gleichen Medientyps und Informationen, die zu verschiedenen Medientypen gehören, ein integraler Bestandteil solcher Systeme. Die wesentlichen Bausteine ​​eines visuellen Informationssystems werden beschrieben und die Verwaltung verschiedener Arten von Informationsinhalten diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-63636-6_1 43d992fecc0cb0338212663dc4dddda8;de;;;7.1.;;;Autonome Management- und Teleoperationstechnologie Mit der kontinuierlichen Entwicklung der Raumfahrttechnologie wird der Wettbewerb im Weltraum immer härter. Und es ist zu einem Highlight und einer schwierigen Aufgabe geworden, die Überlebensfähigkeit von Raumfahrzeugen im Orbit und die Leistung des Raumfahrzeugs zu verbessern. Bei Missionen zur Erforschung des Weltraums ist es zum wichtigsten Forschungsinhalt im Betrieb und zur Steuerung von Raumfahrzeugen geworden, um die Effizienz bei der Durchführung von Missionen zur Erforschung des Weltraums zu verbessern. Die technischen Ansätze zur Lösung dieses Problems umfassen autonome Managementtechnologie und Teleoperationstechnologie, wobei der Schwerpunkt auf der Verbesserung der Autonomie der Sonde bzw.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4794-2_12 3fb9ead3714cd7fa1027bfa50055fd7e;de;;;7.1.;;;Change-orientiertes Software-Projektmanagement Aktuelle Planungs- und Steuerungsverfahren für Software-Großprojekte sind nicht ausreichend gerüstet, um mit sich ändernden oder ungenauen Anforderungen, Ressourcenausfällen, unerwarteten Verzögerungen usw. umzugehen. Wir schlagen eine Lösung für das Änderungsmanagement in Projekten vor, basierend auf einem semantischen Modell des Softwaredesigns und Entwicklungsprozesse. Im Zentrum dieser Technik steht die Bildung von Projektwissensinseln, die den Umgang mit den meisten Entwurfs- und Planrevisionen vor Ort erleichtert. Ein Protokoll für interaktives Änderungsmanagement unterstützt die bedarfsgerechte Bildung von Koalitionen zwischen Inseln als Mittel für eine anmutige Degradation. Empirische Untersuchungen belegen die Anwendbarkeit des Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-84875-9_16 57514c4c559bb1f5c8fd47b755b3b220;de;;;7.1.;;;SMMES-orientiertes Craft-File-Design und -Management: WAMP Applied Der Prozess des handwerklichen Dateidesigns und -managements, der in verschiedenen Bereichen und Unternehmen stark variiert, ist der wichtigste Teil des Designprozesses in kleinen und mittleren Fertigungsunternehmen (KMU). Das Design- und Managementsystem solcher Prozesse muss aufgrund ihrer Komplexität und mangelnden Flexibilität sehr individuell angepasst werden. In diesem Papier haben wir ein einfaches SMME-orientiertes Craft File Design and Management System vorgestellt, das auf Web3D&X3D, Apache, MySQL und PHP (WAMP) basiert, die kostenlos und Open Source sind. Das System ist B/S-strukturiert und konzentriert sich auf die gemeinsame Nutzung von 3D-Designdateien im Internet, die Verteilung von Handwerksdateien und die Zusammenarbeit gemäß einem festgelegten Prozess. Das System wird in unserem Kooperationsunternehmen eingesetzt und hat sich als in der Lage erwiesen, die Konstruktionskosten zu senken und die Effizienz zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-76312-5_41 ae21df4b232f03769fd97a49d1a98f11;de;;;7.1.;;;Entscheidungsunterstützung für Ökosystemmanagement und ökologische Bewertungen Angesichts zunehmender Konfrontationen und nach fast 20 Jahren zunehmend umstrittener öffentlicher Unzufriedenheit mit der Bewirtschaftung der National Forests hat der USDA Forest Service das Ökosystemmanagement offiziell als Landmanagementparadigma übernommen (Overbay, 1992). Andere föderale Forstverwaltungsbehörden wie das USDI Bureau of Land Management, der USDI National Park Service, der USDI Fish and Wildlife Service, die USDC NOAA und die Environmental Protection Agency haben sich ebenfalls verpflichtet, Prinzipien des Ökosystemmanagements zu übernehmen ( Rechnungshof der Regierung, 1994). Ökosystemmanagement bedeutet für verschiedene Menschen unterschiedliche Dinge. Im Zentrum des Paradigmas des Ökosystemmanagements steht eine Schwerpunktverlagerung weg von der Erhaltung der Produkterträge hin zur Erhaltung der Ökosysteme, die diese Produkte liefern (Thomas, 1995, Rauscher, 1999). Das Paradigma des Ökosystemmanagements ist der jüngste Versuch in einem jahrhundertelangen Kampf zwischen Ressourcennutzern und Ressourcenschonern, einen vernünftigen Mittelweg zwischen der Gewährleistung des notwendigen langfristigen Schutzes der Umwelt und dem Schutz des Rechts einer ständig wachsenden Bevölkerung auf seine natürlichen Ressourcen nutzen, um das menschliche Leben zu erhalten und zu verbessern (Chase, 1995, Taylor, 1998). Während sich das Konzept des Ökosystemmanagements weiterentwickelt, werden die Debatten über Definitionen, grundlegende Prinzipien und politische Implikationen wahrscheinlich weitergehen und das neue Paradigma auf noch nicht erkennbare Weise prägen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-8620-7_13 9cb0cc98ce16a3ba02f567e4858760b6;de;;;7.1.;;;Herstellung mit Hilfe von Computern Das Unternehmensziel von IBM im Industriesektor ist es, der führende Anbieter von CIM-Produkten zu sein. Daher bieten unsere Produkte ein umfassendes und bewährtes integriertes Angebotsspektrum für eine reibungslose Installation und Migration zu einem CIM-Unternehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83590-2_1 9b91b8f6b33b98448453e612a740e633;de;;;7.1.;;;Räumlich-zeitliche Datenverwaltung für ein grafisches 3D-Informationssystem In diesem Beitrag schlagen wir eine räumlich-zeitliche Datenverwaltungsmethode für ein grafisches 3D-Gebäudemanagementsystem vor. Um eine hochgradig interaktive Umgebung bereitzustellen, schlagen wir eine 3D-Raumdatenverwaltungsmethode vor, die auf mehreren 2D-Bäumen basiert. Mit dem Verfahren werden interaktive Operationen wie reibungsloser Durchlauf und interaktive Informationsbeschaffung im 3D-Raum ermöglicht. Dann erweitern wir die Datenstruktur, um sowohl die zeitlichen als auch die räumlichen Informationen zu verarbeiten. MP-Baum wird für die räumlich-zeitliche Datenverwaltung vorgeschlagen. Durch die Verwendung der Datenstruktur wird eine effiziente zeitliche Suche ermöglicht, die die Leistung der räumlichen Suche beibehält. Außerdem präsentieren wir ein elektrisches 3D-Gebäudemanagementsystem mit unserer Datenmanagementmethode.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-60298-4_243 1d59ff2d085df996bd922fd7ab213ce2;de;;;7.1.;;;Eine empirische Untersuchung zur erfolgreichen ERP-Implementierung basierend auf TAM Die Themen der Enterprise Resource Planning (ERP)-Implementierung haben aufgrund ihrer hohen Fehlerquote viel Aufmerksamkeit erhalten. Einige Untersuchungen konzentrierten sich auf den Einfluss der wahrgenommenen Nutzung (PU) und der wahrgenommenen Benutzerfreundlichkeit (PEU) auf die Einstellung und die symbolische Akzeptanz basierend auf dem Theory of Technology Acceptance Model (TAM). Andere untersuchten die kritischen Erfolgsfaktoren aus organisatorischen oder persönlichen Aspekten. Nur wenige Wissenschaftler haben sie jedoch zusammengestellt, um den Einfluss kritischer Erfolgsfaktoren auf PU und PEU zu untersuchen, die Schlüsselfaktoren für die Benutzerakzeptanz des ERP-Systems sind. Diese Studie entwickelt einen integrativen Rahmen, der die Unterstützung von Führungskräften, Trainingsfähigkeiten, Change-Management-Fähigkeiten, Geschäftsverarbeitungsfähigkeiten und Lernfähigkeiten mit PU und PEU verbindet. Das vorliegende Strukturgleichungsmodell umfasst diese Zusammenhänge auf Basis einer Befragung von 340 Managern und Endnutzern. In diesem Beitrag werden zwei Hauptergebnisse hervorgehoben. Erstens haben die Unterstützungs- und Schulungsfähigkeiten der Führung erhebliche Auswirkungen auf die Fähigkeiten der Unternehmensverarbeitung. Zweitens haben die Fähigkeit zum Änderungsmanagement, die Fähigkeit zur Geschäftsverarbeitung und die Lernfähigkeit erhebliche Auswirkungen auf die vom Benutzer wahrgenommene Benutzerfreundlichkeit. Diese Ergebnisse werden Managern helfen zu verstehen, dass die wahrgenommene Benutzerfreundlichkeit der Benutzer bei der Konstruktion und Implementierung eines ERP-Systems auf organisatorischer Ebene berücksichtigt werden sollte.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75902-9_29 42b5ef7a8e6b8e68c600eee90b6402a3;de;;;7.1.;;;Modell-Anwendung Zunehmend wird die wissenschaftliche Gemeinschaft zu multidisziplinärem Handeln auf Projektbasis gedrängt, und die Kräfte, die diesen Antrieb befeuern, ähneln denen des Systemkonzepts. Die Grundhypothese ist, dass ein System – sei es als physiologisches System für eine Pflanze oder als Wirtschaftssystem einer Nation – nicht richtig verstanden werden kann;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-6373-6_7 23b8198d0c730c1c20d7e43c9337e380;de;;;7.1.;;;"Anwendungen von Fernerkundungstechnologie und Informationssystemen für das Küstenzonenmanagement Ein Großteil der Verantwortung für das Management natürlicher Ressourcen, insbesondere für das Küstenzonenmanagement, liegt bei lokalen, staatlichen und regionalen Behörden in den Vereinigten Staaten. Fernerkundungsdaten haben das Potenzial, einen wesentlichen Beitrag zu diesen Managementbemühungen zu leisten. Allerdings verfügen nur wenige dieser Behörden über das technische Personal und die notwendigen Einrichtungen, um vorhandene Fernerkundungsdaten bei der Formulierung von Managementplänen und Entscheidungen zu nutzen. Ein Datenbankverwaltungssystem, das in der Lage ist, Fernerkundungsinformationsprodukte zu erstellen, die innerhalb bestehender Behörden verwendbar sind, muss die Hierarchie der Informationsformatanforderungen und Programmierkenntnisse der Behörden berücksichtigen. Spezifische Komponenten eines solchen Datenbankverwaltungssystems sollten eine konsistente Georeferenzierung, einen relationalen Datenbankmanager, der in ein ""Abfrage nach Beispiel""-System integriert ist, eine natürliche Sprachschnittstelle und ein ""Kontextskript"" umfassen.";-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-8864-1_28 8329618ffe3707f736eefb46f1e0b6ef;de;;;7.1.;;;Product Lifecycle Management: Messen, worauf es ankommt – Reifegradmodell der Produktlebenszyklusimplementierung Branchenberichten zufolge ist der Nutzen von PLM schwer zu beurteilen, da derselbe Nutzen als Funktion von Zeit, Kosten, Qualität oder einer beliebigen Kombination ausgedrückt werden kann. Basierend auf einer Durchsicht der PLM-Literatur in einer früheren Studie wurden ein PLM-Prozessmodell und eine erste Liste von PLM-bezogenen Metriken erstellt und später durch Interviews mit erfahrenen PLM-Anwendern bestätigt. In der aktuellen Studie wurde das ursprüngliche PLM-Prozessmodell verfeinert und die Liste der Metriken einer explorativen Faktorenanalyse unterzogen, bei der bestimmte Metriken mit einem von vier Faktoren in Zusammenhang gebracht wurden: Inputs, Prozesse, Outputs und Ergebnisse. Basierend auf den Ergebnissen dieser Studie wurde ein Reifegradmodell für die Produktlebenszyklus-Implementierung entwickelt, das als Leitfaden auf Programmebene bei der Quantifizierung der PLM-Leistung zur Unterstützung der Erreichung strategischer Unternehmensziele dient.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41501-2_41 b6c9276919b198e0af3c62ad0ec1be86;de;;;7.1.;;;Partizipative Designaktivitäten und agile Softwareentwicklung Dieses Papier leistet einen Beitrag zur Untersuchung von Designaktivitäten in der Entwicklung von Informationssystemen. Es bietet eine Fallstudie eines großen agilen Entwicklungsprojekts und konzentriert sich darauf, wie Kunden und Benutzer in der Praxis an agilen Entwicklungs- und Designaktivitäten beteiligt waren. Das untersuchte Projekt nutzte die agile Methode eXtreme Programming. Planungsspiele, User Stories und Story Cards, funktionierende Software und Akzeptanztests strukturierten die Kunden- und Nutzerbeteiligung. Wir fanden eine echte Kunden- und Nutzereinbindung in die Designaktivitäten in Form einer direkten und indirekten Beteiligung am agilen Entwicklungsprojekt. Die beteiligten Kundenvertreter spielten im Projekt eine informative, beratende und partizipative Rolle. Dies führte zu ihrer funktionalen Befähigung – die Benutzer wurden in die Lage versetzt, ihre Arbeit zu ihrer eigenen Zufriedenheit und auf effektive, effiziente und wirtschaftliche Weise zu erledigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12113-5_18 943ad1f1d5cb06a59a2c2773d8142247;de;;;7.1.;;;Prozessbewusste Informationssysteme für das Notfallmanagement Prozessbewusste Informationssysteme (PAIS) werden heute in vielen Geschäftsszenarien verwendet, z. B. von Behörden, Versicherungen und Banken. Trotz dieser weit verbreiteten Verwendung liegt die typische Anwendung solcher Systeme überwiegend im Kontext von Geschäftsszenarien. Dennoch kann auch das Notfallmanagement vom Einsatz von PAISs profitieren, beispielsweise passt die Metapher eines Geschäftsprozesses sehr gut zum Konzept des Notfallwiederherstellungsplans. Dieses Papier fasst einen eingeladenen Vortrag des Erstautors für den EMSOA’10-Workshop zusammen, der zusammen mit der ServiceWave 2010 Conference stattfindet. Dieses Papier beginnt mit den grundlegenden PAIS-Anforderungen für den Bereich Notfallmanagement und gibt dann einen Überblick über die heutige Literatur zur Verwendung von PAISs für das Notfallmanagement. Schließlich schlägt das Papier eine Architektur und ein System vor, um die Ausführung von Notfallmanagementprozessen zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22760-8_5 ce2740b9a627956943b3e93dfba73636;de;;;7.1.;;;Von Informationssystemen zu Wissenssystemen Wir betrachten die Evolution von Informationssystemen hin zu anspruchsvollen Wissenssystemen. Indem wir die Schlüsselkonzepte für Informations- und Wissenssysteme aus logischer Sicht untersuchen, zeigen wir, dass die beiden grundlegendsten Operationen Inferenz (Antwort von Anfragen) und Aktualisierung („Datenmanipulation“) sind. Sie müssen in jedem System verfügbar sein. Fortgeschrittene Informationssysteme können negative, disjunktive und unsichere Informationen zulassen. Noch fortschrittlichere Systeme (die vielleicht nicht mehr genannt werden;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34870-4_19 364c9883ee810356dca148c91ed01bf7;de;;;7.1.;;;Ein Ressourcenplanungs- und Managementsystem für Kiefernplantagen in Fidschi Ein traditioneller O.R. Es wird ein Systemansatz zur Entwicklung von Planungs- und Managementmethoden für karibische Kiefernplantagen in Fidschi beschrieben. Das Gesamtsystem wurde zuerst entwickelt und dann für Ressourcenmanager akzeptabel gemacht, bevor verschiedene Routinen zur Informationssammlung, Datenverarbeitung, Modellierung, Analyse und Berichterstellung in einer sorgfältig strukturierten Reihenfolge entwickelt wurden. Die Nützlichkeit der Verfahren zur Informationssammlung wird erklärt, und dann wird jede Technik kurz umrissen. Als Nächstes wird eine interessante Entwicklung der Datenverarbeitungskapazitäten beschrieben, um die Vorteile einer für die Menschen in einem Entwicklungsland akzeptablen Einführung hochentwickelter Technologie zu veranschaulichen.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0042825 33d3c51da2412a2d96a6894dcb31feb4;de;;;7.1.;;;Eine Studie zur Nutzerbeteiligung an der Entwicklung von Informationssystemen Die Beteiligung der Nutzer an der Entwicklung von Informationssystemen wird als wichtiger Faktor angesehen, der den Erfolg oder Misserfolg der Implementierung beeinflusst. Die Methode ETHICS (Effective Technical and Human Implementation of Computer-based Systems) wurde als Leitfaden für die Einbeziehung der Benutzer in das Systemdesign entwickelt. Es wird eine Fallstudie einer erfolgreichen Implementierung beschrieben, bei der die ETHICS-Methode nicht explizit verwendet wurde. Die Fallstudie und die ETHICS-Methodik werden dann verglichen und gegenübergestellt, um einen besseren Einblick in die Benutzerbeteiligung zu gewinnen und zu verstehen, warum die Implementierung erfolgreich war. Darüber hinaus werden Techniken der Softwareprozessmodellierung sowohl auf die ETHIK als auch auf die Fallstudie angewendet, um den Prozess der Benutzerbeteiligung genauer zu definieren und möglicherweise auch in zukünftigen Entwicklungen zu leiten. Die Fallstudie dient als Vehikel sowohl zur Untersuchung der Nutzerbeteiligung als auch zur Untersuchung der Modellierung der Nutzerbeteiligung.;-;-;-;https://link.springer.com/article/10.1057/jit.1994.6 e5a36e793d7b1e06d0da3e108293b02f;de;;;7.1.;;;Ergonomische Bedenken in Enterprise Resource Planning (ERP)-Systemen und deren Implementierungen Enterprise Resource Planning (ERP)-Systeme versprechen eine Verbesserung der Gesamteffektivität von Organisationen durch die Integration aller Funktionalitäten innerhalb der Organisationen. Darüber hinaus versprechen ERP-Systeme im Rahmen des „Managements der Lieferkette“ eine noch größere Abdeckung, im Wesentlichen die Automatisierung der gesamten Kette. Dies wird durch eine umfassende Software erreicht. In den letzten vier Jahren gab es nur wenige Erfolgsgeschichten von ERP-Implementierungen. Neben hohen anfänglichen Anlaufkosten und hohen Implementierungskosten war der Implementierungsprozess aufgrund fehlender Berücksichtigung der „menschlichen“ Komponente problematisch. Folglich haben viele Unternehmen ihre Verluste minimiert, indem sie ihre Projekte mitten im Verlauf aufgegeben haben. Dieses Papier nimmt die Perspektive ein, dass ERP dringend ergonomische Forschung, Design und Implementierung benötigt, um die derzeit auftretenden finanziellen und personellen Kosten zu minimieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35412-5_17 026e491991b72c9ff4066493c0c57499;de;;;7.2.;;;Evaluierung zweier heuristischer Ansätze zur Lösung des Ontologie-Meta-Matching-Problems Heutzutage stehen viele Techniken und Werkzeuge zur Verfügung, um das Ontologie-Matching-Problem anzugehen, jedoch führt die Komplexität dieses Problems dazu, dass bestehende Lösungen unbefriedigend sind. Ziel dieser Arbeit ist es, einen flexibleren Weg zum Matching von Ontologien zu beleuchten. Ontologie-Meta-Matching, eine Reihe von Techniken zum Konfigurieren optimaler Ontologie-Abgleichsfunktionen. In diesem Sinne schlagen wir zwei Ansätze vor, um das Ontologie-Meta-Matching-Problem automatisch zu lösen. Das erste wird als maximales Ähnlichkeitsmaß bezeichnet und basiert auf einer gierigen Strategie zur effizienten Berechnung der Parameter, die einen zusammengesetzten Matching-Algorithmus konfigurieren. Der zweite Ansatz heißt Genetik für Ontologie-Alignments und basiert auf einem genetischen Algorithmus, der für eine Vielzahl von atomaren Matching-Algorithmen im zusammengesetzten Algorithmus besser skaliert und in der Lage ist, die Ergebnisse des Matching-Prozesses zu optimieren.;-;-;-;https://link.springer.com/article/10.1007/s10115-009-0277-0 ca2cdfcd5ed4cc3dc54914600a96e982;de;;;7.2.;;;Smart VideoText: ein Videodatenmodell basierend auf konzeptionellen Diagrammen Ein intelligentes annotationsbasiertes Videodatenmodell namens Smart VideoText wird eingeführt. Es verwendet den Formalismus der konzeptionellen Graphen-Wissensdarstellung, um die semantischen Assoziationen zwischen den Konzepten zu erfassen, die in Textanmerkungen von Videodaten beschrieben sind. Ziel ist es, auf Basis des semantischen Inhalts von Videodaten effektivere Abfrage-, Abruf- und Browsing-Fähigkeiten zu erreichen. Schließlich wird eine generische und modulare Videodatenbankarchitektur basierend auf dem Smart VideoText-Datenmodell beschrieben.;-;-;-;https://link.springer.com/article/10.1007/s005300200054 611014c98bb548fc4ed8774c315ac335;de;;;7.2.;;;Verbesserung der Effektivität des Bildabrufs durch mehrere Abfragen Herkömmliche Ansätze zum Abrufen von Bildern basieren auf der Annahme, dass sich relevante Bilder in einem bestimmten Merkmalsraum physisch nahe dem Abfragebild befinden. Dies ist die Grundlage der Cluster-Hypothese. Semantisch verwandte Bilder sind jedoch oft über mehrere visuelle Cluster verstreut. Obwohl herkömmliche inhaltsbasierte Image Retrieval (CBIR)-Technologien die in mehreren Abfragen enthaltenen Informationen verwenden können (in einem Schritt oder durch einen Feedback-Prozess erhalten), ist dies oft nur eine Neuformulierung der ursprünglichen Abfrage. Als Ergebnis erhalten die meisten dieser Strategien nur die Bilder in einer Umgebung der ursprünglichen Abfrage als Abrufergebnis. Dies schränkt die Systemleistung stark ein. Relevanz-Feedback-Techniken werden im Allgemeinen verwendet, um dieses Problem zu mildern. In diesem Beitrag präsentieren wir einen neuartigen Ansatz für Relevanz-Feedback, der semantisch verwandte Bilder in verschiedenen visuellen Clustern zurückgeben kann, indem die Ergebnismengen mehrerer Abfragen zusammengeführt werden. Wir liefern auch experimentelle Ergebnisse, um die Wirksamkeit unseres Ansatzes zu demonstrieren.;-;-;-;https://link.springer.com/article/10.1007/s11042-005-0453-5 0540a5452c887b5731240a5a5fca0785;de;;;7.1.;;;Digitalisierung der Außendienstplanung: Die Rolle organisatorischer Wissens- und Entscheidungsunterstützungssysteme Zunehmender Wettbewerb und sinkende Margen zwingen Hersteller von Industriemaschinen dazu, ihre Produkte durch ergänzende Dienstleistungen zu ergänzen – abhängig von der Planung des Außendienstes. Daher ist die effiziente Bereitstellung von Außendiensten zu einem wesentlichen Wettbewerbsmerkmal geworden und treibt Unternehmen dazu, ihre Prozesse zu digitalisieren und Entscheidungsunterstützungssysteme einzusetzen. Basierend auf einer qualitativen Interviewstudie mit Instandhaltungsdienstleistern liefert das Papier empirische Erkenntnisse zur Rolle von Organisationswissen und Entscheidungsunterstützungssystemen in dieser digitalen Transformation. Die Studie zeigt, dass Wartungsdienstleister ihre Außendienstprozesse zwar digitalisiert haben, viele jedoch erst am Anfang der Digitalisierung stehen. Heutzutage verlassen sich Mitarbeiter bei ihrer Entscheidungsfindung stark auf implizites und eingebettetes Wissen. Daher wurden wissensbasierte Entscheidungsunterstützungssysteme – die noch nicht in der Industrie Einzug gehalten haben – als wichtiger Eckpfeiler der kommenden Digitalisierung der Außendienstplanung identifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00713-3_11 600b12422f6d7ec0653c1d7c3fb700cb;de;;;7.2.;;;Ereignisbasierte Zusammenfassung mit Zeitfunktionen Wir untersuchen, ob Zeitmerkmale helfen, die ereignisbasierte Zusammenfassung zu verbessern. In diesem Papier werden Ereignisse als Ereignisbegriffe und die zugehörigen Ereigniselemente definiert. Während Ereignisbegriffe die Aktionen selbst darstellen, bezeichnen Ereigniselemente Aktionsargumente. Nachdem Ereignisse auf der Zeitachse verankert wurden, werden zwei verschiedene statistische Maße verwendet, um die Wichtigkeit von Ereignissen an jedem Tag zu identifizieren. Experimente zeigen, dass die Kombination von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-70939-8_50 6ad4e613365df4c6b711528f91225dd9;de;;;7.2.;;;Effektives Abrufen von Text in großem Maßstab durch lernende Risikominimierung und ein in Abhängigkeit eingebettetes Modell In diesem Beitrag stellen wir einen Lernalgorithmus zur Schätzung einer risikosensitiven und in einer Dokumentbeziehung eingebetteten Rankingfunktion vor, sodass die Bewertungsbewertung sowohl den Relevanzgrad der Abfrage-Dokumente als auch das Risiko der Relevanzschätzung bei Berücksichtigung der Dokumentenbeziehung widerspiegeln kann. Mit den richtigen Annahmen ist eine analytische Form der Rangfolgefunktion erreichbar, wobei ein Rangfolgewert eine lineare Kombination zwischen der Erwartung des Relevanzwerts, der Varianz der Relevanzschätzung und der Kovarianz mit den anderen Dokumenten ist. Wir bieten einen systematischen Rahmen, um die Rolle der Relevanz, der Varianz und der Kovarianz in Rankingdokumenten und deren Beziehungen zu den verschiedenen Leistungsmetriken zu untersuchen. Die Experimente zeigen, dass die Einbeziehung der Varianz in den Ranking-Score sowohl die Relevanz als auch die Diversität verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17829-0_10 05f57fba32674e4fa5d45cc781c27b10;de;;;7.2.;;;RMIT auf der INEX 2011 Snippet Retrieval Track Dieser Bericht beschreibt unsere Teilnahme am Snippet-Retrieval-Track. Snippets wurden erstellt, indem zuerst Sätze nach dem Vorkommen von Abfragebegriffen ausgewählt wurden. Wir haben auch einen Pseudo-Relevanz-Feedback-Ansatz verwendet, um die ursprüngliche Anfrage zu erweitern. Die Ergebnisse zeigten, dass eine große Anzahl zusätzlicher Begriffe die Satzauswahl für kurze Zusammenfassungen beeinträchtigen kann. Jedoch können einfache Heuristiken, die Informationen über das Vorkommen von Abfragebegriffen verwenden, dem Abrufen von Sätzen erheblich zugute kommen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35734-3_29 0c49ad00272c01c85831c4ef3ae74587;de;;;7.2.;;;Interessenbasiertes Benutzergruppierungsmodell für kollaboratives Filtern in digitalen Bibliotheken Die Forschung zu Empfehlungssystemen konzentriert sich auf Anwendungen wie in Online-Einkaufszentren und einfachen Informationssystemen. Diese Systeme berücksichtigen Benutzerprofil- und Artikelinformationen, die aus Daten stammen, die von Benutzern explizit eingegeben wurden. – wo es möglich ist, betroffene Artikel zu klassifizieren und Empfehlungen basierend auf einer direkten Zuordnung von Benutzer oder Benutzergruppe zu Artikel oder Artikelgruppe auszusprechen. In komplexen, dynamischen und professionellen Informationssystemen, wie z. und Herausforderungen, explizite Bewertungsdaten von Benutzern zu erhalten. In diesem Papier stellen wir ein interessenbasiertes Benutzergruppierungsmodell für ein kollaboratives Empfehlungssystem für digitale Bibliotheken vor. Außerdem präsentieren wir mehrere Benutzeroberflächen, die implizite Benutzerbewertungsdaten erhalten. Unser Modell verwendet einen leistungsstarken Dokument-Clustering-Algorithmus, LINGO, um Dokumentthemen und Benutzerinteressen aus Dokumenten zu extrahieren, auf die Benutzer in einer digitalen Bibliothek zugreifen. Dieses Modell eignet sich besser für digitale Bibliotheken als herkömmliche Empfehlungssysteme, da es sich mehr auf Benutzer als auf Elemente konzentriert und implizite Bewertungsdaten verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30544-6_61 667a161c5acc2db3074bd7749c01c909;de;;;7.2.;;;Konzeptfilterung und räumliche Filterung in einem adaptiven Informationssystem Adaptive Online-Informationssysteme sind in der Lage, die Gesamtstruktur und den Inhalt des Hyperdokuments, die Navigationshilfe und das Layout nach dem Vorbild eines Benutzers anzupassen oder zu personalisieren. SWAN zielt darauf ab, einen adaptiven Webserver für Online-Informationssysteme über nautische Publikationen zu entwickeln. Gemäß einem Aufgabenmodell werden Konzeptfilterung und Raumfilterung verwendet, um den relevanten Informationsraum auszuwählen und seinen Inhalt zu sortieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44595-1_37 e3ffd49856f08f947b181612143e6ac1;de;;;7.2.;;;Evaluierung von XIS-Reverse, einem modellgetriebenen Reverse-Engineering-Ansatz für ältere Informationssysteme Information Unternehmen hatten Schwierigkeiten, ihre Legacy-Informationssysteme zu verwalten und zu warten, da die Aktualisierung dieser Systeme eine komplexe Herausforderung darstellte. Oftmals lassen sich Anforderungsänderungen nur schwer richtig verwalten, was zu einer Verschlechterung der Anforderungen an das Legacy-Informationssystem führt. Um solche Probleme zu überwinden oder zu reduzieren, schlagen wir XIS-Reverse vor, einen Software-Reverse-Engineering-Ansatz. XIS-Reverse ist ein modellgetriebener Reverse-Engineering-Ansatz, der Datenbankartefakte und Benutzerpräferenzen als Eingabe verwendet und High-Level-Modelle und Spezifikationen dieser Legacy-Informationssysteme generiert. Dieses Papier stellt die Evaluierung von XIS-Reverse unter Verwendung von zwei realen Informationssystemen vor, bietet eine Bewertung seiner Interoperabilität mit einem bestehenden Framework und diskutiert seine wichtigsten Herausforderungen und Vorteile.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94764-8_2 94d5b06f28d176c72efcacaea2b0d6ed;de;;;7.1.;;;Ein Intervallprogrammierungsansatz für ein operatives Transportplanungsproblem Dieses Papier befasst sich mit einem Intervallprogrammierungsansatz für ein betriebliches Transportproblem, das in einer typischen landwirtschaftlichen Genossenschaft während der Erntezeit auftritt. Genauer gesagt wurde auf der rechten Seite ein Intervallprogrammiermodell mit unsicheren Koeffizienten auftrat und die Zielfunktion für eine einzeitige Mehrfahrtenplanung einer heterogenen Fahrzeugflotte entwickelt, während die stochastischen Seed-Speicheranforderungen, dargestellt als Intervall ., erfüllt werden Zahlen. Das vorgeschlagene Einperioden-Intervallprogrammierungsmodell wurde für eine reale landwirtschaftliche Genossenschafts-Fallstudie konzipiert und implementiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08795-5_13 684419eaf77ea5940c9907793bbfe0fc;de;;;7.1.;;;Der Einsatz von Adaptivität und Simulation in Planungsunterstützungssystemen Eines der größten Probleme eines Planers ist die fehlende Einsicht in die Auswirkungen von Entscheidungen auf die Fahrplaneffizienz. Erste Ergebnisse dieser Forschungsprojekte zeigen, dass im Vergleich zur manuellen Planung der Einsichtsgewinn beim Einsatz von Simulationstechniken zur Bewertung eines Fahrplans erhöht wird. Die dynamischen Aspekte des Fahrplans, wie zum Beispiel die Auswirkungen stochastischer Einflüsse, können durch Simulationsausgaben verdeutlicht werden.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0040150 abe4c89ab46f9c4a8df61ec71df5d5ff;de;;;7.1.;;;Empirische Studie zur Moderation von Mehrparteien-Workshops in der Strategieplanungsphase für das Product Lifecycle Management System Dieses Papier schlägt einen Rahmen für kurzfristige und intensive Workshop-Moderation für Multi-Parteien-Stakeholder in der PLM-Strategieplanungsphase vor. Wir haben empirisch untersucht, was eine wertvolle Erleichterung für den Workshop ist, wie parteiübergreifende PLM-Stakeholder in kürzester Zeit proaktiv einen gemeinsamen Konsens aufbauen können. Mitglieder der PLM-Projektförderung stoßen immer auf die Schwierigkeit, einen Konsens zu bilden. Dies liegt daran, dass verschiedene Aktionäre unterschiedliche Meinungen und Verantwortlichkeiten in den Bereichen Vertrieb, Engineering, Fertigung und Service haben. Zunächst erwähnen wir die wichtigsten Herausforderungen der Konsensbildung zwischen mehreren Parteien in der PLM-Strategieplanungsphase. Zweitens schlagen wir einen programmatischen Rahmen zur intensiven Workshop-Moderation vor, der aus zwölf Schritten besteht. Das Hauptergebnis des Workshops ist die Erstellung einer PLM-Erfolgswert-Roadmap (PSVR), die verschiedene Hypothesen enthält, die von den Workshop-Teilnehmern mit Hilfe von Moderatoren (KPIs) definiert wurden. Es gibt beispielsweise PLM-Vision, -Strategie, -Initiative, -Prozess und -Key Performance Indicator. Drittens erwähnen wir eine empirische Fallstudie, die unsere vorgeschlagene Workshop-Moderationsmethode für ein Industrieunternehmen durchgeführt hat. Als Workshop-Teilnehmer wurden siebzehn Stakeholder aus drei verschiedenen Geschäftsbereichen eingeladen. Es wurde als zweitägiger intensiver PLM-Testworkshop durchgeführt. Schließlich stellten wir fest, dass die vorgeschlagene Workshop-Moderation als Methode zur Konsensbildung zur Zufriedenheit von mehr als 60 % der Teilnehmer beigetragen hat. 85 % der Teilnehmer gaben an, dass sie Kollegen ermutigen würden, an dem von uns entwickelten Workshop teilzunehmen. Wir kommen zu dem Schluss, dass der Mehrparteien-Intensivworkshop eine wertvolle Erfahrung war, die es den Beteiligten ermöglicht, in relativ kurzer Zeit eine PLM-Strategie zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-42250-9_8 e859e4412b5f6f0c101d7fdbc10ee606;de;;;7.2.;;;Bewertung der Termgewichtung bei der bipartiten Partitionierung für Text-Clustering Um das Problem der hohen Dimensionen beim Textclustering zu mildern, ist eine Alternative zu herkömmlichen Verfahren die bipartite Partitionierung, bei der Begriffe und Dokumente jeweils als Vertices auf zwei Seiten modelliert werden. Termgewichtungsschemata, die den Kanten, die Terme und Dokumente verbinden, Gewichte zuweisen, sind für die endgültige Clustering-Leistung entscheidend. In diesem Papier haben wir eine umfassende Bewertung von sechs Varianten von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68636-1_38 73d99c50c5f23d15a42f36dc9cf1b930;de;;;7.1.;;;Aktivitätsmodellierung in einer kollaborativen Designkette für Keramikfliesen: ein verbesserter IDEF0-Ansatz Explizite Beschreibungen von Soll- und Soll-Aktivitäten und -Prozessen sind Schlüsselelemente bei der Umsetzung von Industrieprojekten, die auf die Verbesserung neuer Produktentwicklungsprozesse (NPD) abzielen, insbesondere wenn E-Collaboration-Dienstprogramme in einem virtuellen Projekt-Unternehmens-Kontext verwendet werden (dh , ein Projekt, das in einem virtuellen Unternehmen entwickelt wurde). In unserer auf Keramikcluster zentrierten Arbeit ist der vorherige Aufbau von Referenzunternehmensaktivitätsmodellen, wie unserem 'CEramic Design Activity Model' (CEDAM), wichtig für den Erfolg solcher Projekte, da es die Festlegung der funktionalen Systemanforderungen (insbesondere PLM Funktionalitäten). CEDAM ist ein Kernelement des „Enterprise Model for the Implementation of Collaborative Design Systems“ (EMICS), das von den Autoren mit der Absicht entwickelt wurde, es für Keramikcluster valide zu machen. Diese Modelle werden durch unseren verbesserten IDEF0-Ansatz (IDEF0+) repräsentiert, der uns dabei half, die Möglichkeiten zur Verbesserung der Modellierungsqualität der kollaborativen Prozesse zu identifizieren und den Reengineering-Prozess zu leiten.;-;-;-;https://link.springer.com/article/10.1007/s00163-007-0040-z d6a5d85d9880267ec17c7f211aee234f;de;;;7.1.;;;Interorganisationale Systeme als Rückgrat für organisatorisches DSS: Umfang, Wirkung, Beispiele Organisationen haben Verbindungen zu anderen und sind seit Jahrzehnten weltweit tätig. Diese Verbindungen waren jedoch weitgehend unabhängig voneinander, obwohl jetzt Informationssysteme zur Verbindung von Organisationen entstehen. Jüngste technologische Entwicklungen in den Bereichen Kommunikation und Vernetzung sowie Managementbewegungen wie Outsourcing, Partnerschaften und Just-in-Time-Produktion haben diesen Themen neue Fähigkeiten und Impulse verliehen. In diesem Kapitel werden interorganisationale Systeme (IOS) erörtert und aufgezeigt, warum Manager sie anders als andere interne Informationssysteme betrachten müssen. Es betrachtet verschiedene Arten von IOS entlang der Dimensionen Funktionsumfang und IOS-Autonomie, IOS-induzierte Business Transformation sowie Fragen der IOS-Planung und -Gestaltung. Darüber hinaus skizziert das Kapitel neue Geschäftsmöglichkeiten, die sich durch die Kombination der wechselseitig voneinander abhängigen Strategie der Zusammenarbeit und IOS über Unternehmensgrenzen hinweg ergeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35348-7_10 50f8057e3a653c0e166e985115aaf68d;de;;;7.1.;;;Designprozessoptimierung und Gewinnberechnung Modulentwicklung Simulationsanalyse eines Finanzbuchhaltungsinformationssystems basierend auf Partikelschwarmoptimierung (PSO) Die rasante Entwicklung der Informationstechnologie und die enormen Veränderungen der Managementideen und Managementmethoden fördern die kontinuierliche Aktualisierung des Management-Finanzbuchhaltungssystems. Die Vorteile des Buchhaltungsinformationssystems basieren auf reichhaltigen Datenquellen, termingerechter Geschäftsabwicklung und schneller Übertragung und Reflexion der Rundumtreue. Basierend auf dem Einfluss der Informationstechnologie untersucht diese Arbeit die verwandten Theorien der Prozessoptimierung und der Gewinnberechnungsmodule der Finanzbuchhaltungs-Informationssystemrekonstruktion durch den Partikelschwarm-Optimierungsalgorithmus. Die verschiedenen Datenschnittstellen werden nach und nach vereinheitlicht, um den Informationsaustausch besser zu realisieren. Die Forschung zeigt, dass der Partikelschwarmalgorithmus verwendet wird, um die Kernfunktionen des Buchhaltungsinformationssystems (wie Buchhaltung, Zertifikatsausfüllung, Belegprüfung, Belegabfrage, detailliertes Hauptbuch, Hauptbuch, Jahresübertrag, Finanzanalyse) zu vergleichen , etc.). Berechnung. Die Forschung zeigt, dass die Neuorganisation von Geschäftsprozessen im Rechnungswesen den Nutzen der Entscheidungsfindung über Rechnungslegungsinformationen erheblich verbessern kann, wodurch die Wettbewerbsfähigkeit von Unternehmen verbessert wird.;-;-;-;https://link.springer.com/article/10.1007/s10257-018-00398-0 3e5cb5f8fb7101ffaa69ea36f6166080;de;;;7.1.;;;Modellgetriebene Planung und Entwicklung von Infrastrukturen für den E-Commerce Für viele Unternehmen, insbesondere kleine und mittelständische Unternehmen (KMU), ist die Planung und Umsetzung von Infrastrukturen für den Electronic Commerce (E-Commerce) im Sinne einer langfristig überzeugenden Strategie eine zu große Herausforderung. In diesem Beitrag wird eine Methode vorgestellt, die Unternehmen bei der Neugestaltung ihrer Geschäftsprozesse unterstützt, um die Chancen des E-Commerce zu nutzen. Zu diesem Zweck stellt sie Konzepte zur Analyse und Gestaltung von Unternehmensstrategien sowie verschiedene Modellierungssprachen zur Beschreibung und Analyse von Geschäftsprozessen, Ressourcen, IT-Artefakten etc . Sie ermöglichen es potenziellen Benutzern, sich den Aufwand zu ersparen, Strategien und neue organisatorische Einstellungen von Grund auf neu zu entwickeln. Die zur Beschreibung von Geschäftsprozessen verwendete Modellierungssprache ermöglicht die Transformation eines Geschäftsprozesses in ein entsprechendes Workflow-Schema und unterstützt damit die Realisierung eines unterstützenden Workflow-Management-Systems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30466-1_62 da1dd125f4538a09b9077aeddff61191;de;;;7.1.;;;Studie zur Technik und Stadtplanung der Digitalen Stadt Die Technik der digitalen Stadt bietet mehrstufige, hochwertige, hocheffiziente Informationsdienste und entscheidende Unterstützung für Regierungen, Unternehmen und Einzelpersonen, erreicht eine schnelle Entwicklung der Produktivität und eine allgemeine Verbesserung des Lebensstandards der Menschen. GIS ist eine gebaute Plattform des Gesamtsystems. Bereitstellung objektiver Gesamtinformationen für den städtebaulichen Entwurf und die dreidimensionale virtualisierte Entwicklungsrichtung bietet auch technische Unterstützung für den Prozess des städtebaulichen Entwurfs und der Ausstellung von Leistungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29452-5_13 e80c4f3e73c4ac2b98ffbb3911c6677b;de;;;7.2.;;;Ein entscheidungstheoretischer Ansatz für eine optimale automatische Indexierung Ein entscheidungstheoretischer Ansatz zur Entwicklung von Retrievalsystemen wird vorgestellt. In diesem Rahmen wird die optimale Indexierung definiert. Sowohl das Such- als auch das Indexierungsproblem haben eine gemeinsame Struktur, die mit dem Konzept eines „Erkennungsproblems“ beschrieben wird. Es wird ein wissensbasierter Ansatz für eine annähernd optimale Indexierung skizziert, der sich strikt auf das Informationsbedürfnis der Nutzer bezieht. Die Theorie und die verwendeten Näherungsmethoden werden durch eine kurze Beschreibung der WAI/AIR-Projekte und einiger ihrer Ergebnisse veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0036346 799de98ac6ed4779621436fc9a3ae9a1;de;;;7.2.;;;Ein personalisierter Re-Ranking-Algorithmus basierend auf Relevanz-Feedback Relevanz-Feedback ist die beliebteste Strategie zur Neuformulierung von Abfragen. Das Anklicken von Daten als Feedback des Benutzers ist jedoch nicht so zuverlässig, da die Qualität eines bewerteten Ergebnisses das Feedback des Benutzers beeinflusst. In diesem Beitrag wird eine Bewertungsmethode namens QR (Quality of a Ranged Result) vorgeschlagen, um festzustellen, wie gut ein Ranglistenergebnis ist. Verwenden Sie dann die Qualität des aktuellen Rangergebnisses, um die Relevanz verschiedener Rückmeldungen vorherzusagen. Auf diese Weise wird ein besseres Feedback-Dokument eine wichtigere Rolle im Re-Ranking-Prozess spielen. Experimente zeigen, dass das QR-Maß in direktem Verhältnis zum DCG-Maß steht, während QR kein manuelles Etikett benötigt. Und der neue Re-Ranking-Algorithmus (QR-linear) übertrifft die anderen beiden Basisalgorithmen, insbesondere wenn die Anzahl der Feedbacks groß ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72909-9_30 5b5112120bf0995f7720eef814fa1e10;de;;;7.1.;;;Stadtplanung und Smart Cities: Zusammenhänge und Wechselwirkungen Smart Cities entstehen schnell und führen neue Praktiken und Dienstleistungen ein, die sich stark auf die Politikgestaltung und -planung auswirken, während sie gleichzeitig mit städtischen Einrichtungen existieren. Es gilt nun den Beitrag der Smart City zur Gesamtstadtplanung zu verstehen und umgekehrt, städtebauliche Angebote im Kontext einer Smart City zu erkennen. Dieses Kapitel beleuchtet und misst die Wechselwirkungen zwischen Smart City und Stadtplanung und identifiziert die Treffpunkte zwischen ihnen. Die Dimensionen der Stadtplanung werden aus der Europäischen Regionalen Kohäsionspolitik abgeleitet und mit den Architekturschichten der Smart City verknüpft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30241-1_16 479b5141af2bbc27327e5202b99c9b44;de;;;7.1.;;;Supply Chain Risk Management: Ein neuronaler Netzwerkansatz Ein wirksames Supply Chain Risk Management (Hallikas et al. 2002, Harland et al. 2003, Henke et al. 2006) erfordert die Identifikation, Bewertung und Monetarisierung von Risiken und Störungen sowie die Ermittlung der Eintrittswahrscheinlichkeit und der Entwicklung alternativer Aktionspläne bei Störungen (vgl. Zsidisin 2003, Zsidisin et al. 2004, Zsidisin et al. 2000, Vidal a. Goetschalckx, 2000). Unternehmen nutzen traditionell mehrere Quellen für die Materialbeschaffung und/oder halten Sicherheitsbestände, um Anfälligkeiten zu vermeiden. Diese Strategien können sich jedoch negativ auf die Leistung der Lieferkette auswirken und zu höheren Einkaufs- und Logistikkosten führen. Ziel dieses Kapitels ist es aufzuzeigen, wie die Umsetzung des Supply Chain Risk Management Konzepts durch den Einsatz eines neuronalen Netzansatzes verbessert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73766-7_7 139eb3982b0e575aa752ab1fb4b4b658;de;;;7.1.;;;Computer im Krankenhausmanagement und Verbesserungen in der Patientenversorgung – Neue Trends in den USA In diesem Artikel wird der aktuelle Stand der Informationssysteme im Krankenhausmanagement diskutiert. Es werden Entscheidungsunterstützungssysteme (DSS) für die Management-, Verwaltungs- und Patientenversorgungseinheiten des Krankenhauses beschrieben. Diese DSS umfassen Marktplanung, Pflegeplanung und Blutuntersuchungssysteme. Trends für die zukünftige Nutzung von Informationssystemen im Krankenhausumfeld werden angesprochen.;-;-;-;https://link.springer.com/article/10.1007/BF00992689 3ae9b696657a75504bfe20d00b178884;de;;;7.2.;;;Anforderungen an die Benutzeroberfläche für webbasierte integrierte Versorgungspfade: Nachweise aus der Evaluierung eines Online-Pflegepfad-Untersuchungstools Integrierte Versorgungspfade (ICPs) definieren eine chronologische Abfolge von Schritten, die bei der Versorgung von Patienten am häufigsten diagnostische oder therapeutische Schritte sind. Versorgungspfade tragen dazu bei, die Einhaltung von Qualitätsstandards zu gewährleisten und Variationen in der Praxis zu reduzieren. Obwohl die Forschung zur Computerisierung der ICP voranschreitet, gibt es noch wenig Wissen darüber, welche Anforderungen an die Gestaltung benutzerfreundlicher und nutzbarer elektronischer Versorgungspfade gestellt werden oder wie Benutzer (normalerweise medizinisches Fachpersonal) mit Schnittstellen interagieren, die das Design, die Analyse und die Visualisierung von ICPs. Der Zweck der in diesem Papier berichteten Studie bestand darin, diese Lücke zu schließen, indem die Benutzerfreundlichkeit eines neuartigen webbasierten Tools namens COCPIT (Collaborative Online Care Pathway Investigation Tool) bewertet wurde. COCPIT unterstützt das Design, die Analyse und die Visualisierung von ICPs auf Bevölkerungsebene. Um das Ziel dieser Studie zu erreichen, wurde eine Evaluationsmethodik basierend auf heuristischen Evaluationen und einem Mixed-Methods-Usability-Test entwickelt. Die Ergebnisse zeigten, dass die modulare Visualisierung und direkte Manipulation von Informationen im Zusammenhang mit dem Design und der Analyse von ICPs nützlich ist, um Benutzer zu motivieren und zu stimulieren. Designer sollten jedoch auf Probleme im Zusammenhang mit der;-;-;-;https://link.springer.com/article/10.1007/s10916-015-0357-5 4a976e6a6e3b0bcc1ca1af6b34b3f5ef;de;;;7.1.;;;Computergestützte Schul- und Hochschulplanung: Die neue Welle In den letzten fünf Jahren ist ein starkes Interesse an der Problematik der computergestützten Stundenplanung zu beobachten. Die jüngsten Arbeiten in diesem Bereich basieren auf der Anwendung moderner Informationstechnologien. Hier werden die Hauptrichtungen der modernen Forschung und des Designs besprochen. Es wird eine Klassifikation vorgeschlagen für wissenschaftliche Stundenplanprobleme, Anforderungen an die Stundenpläne, mathematische Modelle, Lösungsmethoden, Datenrepräsentation und Schnittstellendesign. Moderne Problemlösungs- und Softwaredesign-Ansätze werden in Verbindung mit dem theoretischen Hintergrund und der Welterfahrung von 35 Jahren dargestellt. Die Integration mehrerer algorithmischer und interaktiver Werkzeuge wird diskutiert. Kritiken an der Praktikabilität der Fahrplan-Computerunterstützung und damit verbundene Mythen werden ebenfalls erörtert. Verwandte Themen, wie Sportplanung und Sportplanung, werden dargestellt. Einige ungelöste Fragen werden skizziert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-61794-9_50 996318b568a2f0a500414cba1273b4bf;de;;;7.1.;;;Infrastrukturanalyse für die Implementierung von Enterprise Information Systems Der Erfolg der Implementierung von Unternehmensinformationssystemen hängt mehr davon ab, wie gut eine Organisation vorbereitet ist und organisatorische Aspekte integriert sind als die reinen technischen Systeme. Dies offenbart die weichen Probleme des Software Engineerings. Organisatorische Situationen für die Implementierung von Unternehmensinformationssystemen sind oft komplex und weich, und es ist schwierig, mit harten System-Engineering-Methoden eine zufriedenstellende Antwort zu erhalten. Dieses Papier befasst sich mit organisatorischen Situationen, indem es die Problemartikulationsmethode verbessert. Diese Methode untersucht die Implementierung eines Unternehmensinformationssystems aus verschiedenen Perspektiven von Personen, Aktivitäten und Systemen und liefert eine Struktur für den Analysten, um die Implementierung systematisch zu verstehen und zu arrangieren. Wir haben die verbesserte Methode in einem Arzt-Arbeitsplatzsystem angewendet und ein vorläufiges Ergebnis gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04754-1_37 317382fa8b3b2c7a562049477b6a9022;de;;;7.2.;;;Automatische Kombination mehrerer rangierter Abrufsysteme Die Retrieval-Performance lässt sich oft deutlich verbessern, indem mehrere verschiedene Retrieval-Algorithmen verwendet und die Ergebnisse kombiniert werden, im Gegensatz zu einem einzigen Retrieval-Algorithmus. Dies liegt daran, dass unterschiedliche Retrieval-Algorithmen oder Retrieval;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-2099-5_18 965ac397f680d9205d63d963bd0a7325;de;;;7.1.;;;IT-Governance-Praktiken in kleinen und mittleren Unternehmen: Empfehlungen aus einer empirischen Studie Durch die IT-Governance-Forschung wurde viel über die Natur von IT-bezogenen Entscheidungen, die Position von Entscheidungsrechten für diese Entscheidungen und Governance-Mechanismen gelernt, die angewendet werden, um die zugehörigen Entscheidungsprozesse in großen Organisationen zu erleichtern. Unser Wissen über IT-Governance-Strukturen in kleinen und mittleren Unternehmen (KMU) ist dagegen recht begrenzt. Mit einem qualitativen und induktiven Ansatz untersucht diese Studie die Art und den Einfluss der IT-Governance in KMU anhand von Interviews mit Führungskräften von drei KMU. Unsere Ergebnisse zeigen, dass die IT-Entscheidungskompetenz in allen drei KMU zentralisiert war, dass jedoch die Beteiligung der Geschäftsleitung an Governance-Verfahren und Kommunikationspraktiken über Governance-Richtlinien beobachtet wurde, um die Unterschiede in der IT-Nutzung dieser Organisationen zu erklären. Basierend auf den Ergebnissen dieser Studie schlagen wir Empfehlungen vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02388-0_12 b163ca1e625739bebd8cb6c1f0928926;de;;;7.1.;;;Planung eines ersten Phasenmoduls für ein vollständig integriertes Computerpflegesystem Es ist seit langem bekannt, dass ein effektives Management den rechtzeitigen Zugriff auf relevante Managementinformationen erfordert. Wie bei vielen anderen Organisationen in den letzten Jahren haben Senior Nurses der Gloucester Health Authority ihre Managementbedürfnisse in Bezug auf die geeignete und zunehmend verfügbare Informationstechnologie berücksichtigt. In diesem Papier wird ein Ansatz zur Nutzung von Computerkapazitäten für die Informationssysteme einer Organisation diskutiert, ein Prozess, der der Entwicklung ihrer Narrative Specification für ein Computersystem für Pflegepersonal, Gehaltsbudget und Personalplanung innewohnt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-93264-9_140 40fc02c67ca650508f6672225eb0c3f9;de;;;7.1.;;;Warum die Transaktionsverarbeitung in Echtzeit den für die Entscheidungsunterstützung erforderlichen Kontext nicht erfassen kann In diesem Kapitel werden die Probleme bei der Bereitstellung von Echtzeit-Entscheidungsunterstützung für Manager anhand unserer Beobachtungen des Vertriebsprozesses in einer Fallstudie eines multinationalen Fertigungsunternehmens betrachtet. Dieses Unternehmen zeichnet sich durch seine Abhängigkeit von einem ERP-Paket (Enterprise Resource Planning) für die Transaktionsverarbeitung aus, ist aber auch für den Einsatz komplexerer technischer Architekturen zur Entscheidungsunterstützung bekannt. Unsere Beobachtungen zeigen, dass die Anpassung dieses Echtzeit-Transaktionsverarbeitungssystems an die Realität der Geschäftstätigkeit trotz der Existenz einer standardisierten und zentralisierten ERP-Architektur Einschränkungen unterliegt, die sich sowohl aus dem geschäftlichen als auch aus dem virtuellen Kontext des Unternehmens ergeben. Wir erklären die allmähliche und unvermeidliche Entstehung von Lücken zwischen dem unflexiblen ERP-System und den Entscheidungsunterstützungsbedürfnissen von Managern. Auf Basis des untersuchten Falls schließen wir mit einem theoretischen Rahmen für den Zusammenhang zwischen Echtzeit-Transaktionsverarbeitung und Entscheidungsunterstützung, wobei zwischen einer Informationsverarbeitungsebene und einer Entscheidungsprozessebene unterschieden wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-7406-8_11 72a0f9f05e5d9d7db288f341c2b23163;de;;;7.1.;;;Governance-Kanäle und Organisationsdesign bei General Electric: 1950–2001 Diese Studie fördert eine aufmerksamkeitsbasierte Sichtweise der Unternehmensstrategie und untersucht deren Implikationen für das Organisationsdesign. Wir untersuchen die Governance der Ressourcenallokation in einer Multi-Business-Organisation durch das Netzwerk der Entscheidungsfindungs- und Kommunikationskanäle des Unternehmens. Unter Verwendung von Primär- und Sekundärquellen analysieren wir die Veränderungen der Entscheidungswege bei General Electric (GE) über einen Zeitraum von 51 Jahren in vier CEO-Regimen: Ralph J. Cordiner, Fred J. Borch, Reginald H. Jones und John F. Welch. Wir identifizieren vier verschiedene Kanalfunktionen: Reporting, Personal, Kontrolle und Agenda-Management. Durch unsere Analyse stellen wir fest, dass Strategie nicht aus einem einheitlichen, begrenzten Prozess entsteht, sondern aus dem Muster, das aus einem Netzwerk eng und lose gekoppelter Kanäle entsteht, die gleichzeitig operieren.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-34173-0_14 ed4287a229a5399711837badefa627bb;de;;;7.1.;;;Wie kann das intuitive Verhalten der Organisationen im ERP berücksichtigt werden? Unternehmen, die ERP-Systeme implementieren, zielen darauf ab, ihre globale Leistung durch Formalisierung und Standardisierung ihrer Prozesse zu kontrollieren, indem sie Werkzeuge für die Informationsverarbeitung sowie den Austausch und die Kommunikation zwischen den Akteuren verwenden. Die Ergebnisse sind eine riesige Menge an Informationen, die in der Organisation verfügbar sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84800-183-1_8 5025d993c48727bb16f7376520d2650c;de;;;7.2.;;;Konstruktion der ästhetischen Sphäre Es gibt viele verschiedene Zugänge zum Problem der Verknüpfungen zwischen den Sphären der Information und der Ästhetik (siehe z. B. Moles, 1958, 1967, Bense, 1969), und einer dieser Ansätze scheint der Schlüssel zur Erforschung der Kultur zu sein. Dieser zentrale Ansatz beschäftigt sich mit den informationellen Ursprüngen oder Wurzeln verschiedener Kulturzweige. Das Hauptproblem besteht darin, jeden Zweig aus dem deduktiven Modell des menschlichen Systems der Informationsverarbeitung abzuleiten, die ästhetische Sphäre durch eine rein;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-7472-4_4 4853fbe565a62d301d2d246d06ff06ca;de;;;7.2.;;;Kontextuelle bipolare Abfragen Eine weit verbreitete und wachsende Nutzung von Informationssystemen, insbesondere von Datenbanken, erfordert Formalismen, um Benutzerpräferenzen zu spezifizieren, die reicher sind als klassische Abfragesprachen. Das Konzept der Bipolarität von Präferenzen wird in dieser Hinsicht neuerdings als entscheidend angesehen. Sein Wesen besteht darin, positive und negative Bewertungen des Benutzers getrennt zu betrachten, die sich nicht unbedingt ergänzen. In unserer vorherigen Arbeit haben wir einen Ansatz vorgeschlagen, der auf einer spezifischen Interpretation der positiven und negativen Bewertungen und ihrer Kombination unter Verwendung eines nicht standardmäßigen logischen Konnektors basiert, der als „und möglicherweise“ bezeichnet wird. Hier schlagen wir eine neue Erweiterung dieses Ansatzes vor. Wir stellen die Konzepte, mögliche Interpretationen und einige Analysen vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03674-8_40 d66828396d6acd4dff8794f81fadb9fc;de;;;7.1.;;;Struktur- und Planungsfälle Der Logistikdienstleister Sieber ist verkehrstechnisch gut gelegen. Das Unternehmen bietet Lagerkapazitäten und Know-how in der Lagerverwaltung und der Konsolidierung von Lieferungen für seine Kunden. Konsolidierte Sendungen von Produktionskomponenten werden bei Bedarf in den erforderlichen Mengen und Kombinationen an den Kunden geliefert. Dieser Service vermeidet zusätzliche Lagerkapazitäten beim Kunden und reduziert die Anzahl der Lieferungen an die relativ schwer zugängliche Produktionsstätte des Kunden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12023-7_10 e4ab082f5991e3c706c8e858c43a9165;de;;;7.1.;;;Aggregierte kollaborative Planung in nicht-hierarchischen Geschäftsnetzwerken Das letzte Jahrzehnt war geprägt von Zeiten des Wandels, einschließlich der zunehmenden Globalisierung und des Wettbewerbs. Die Zusammenarbeit ermöglichte es KMU, effektiv auf die Entwicklung neuer komplexer Produkte und Dienstleistungen zu reagieren, brachte jedoch neue Hindernisse in Bezug auf die Verwaltung ihrer Geschäftsprozesse und Beziehungen zu Partnern mit sich. Dieses Papier stellt eine neue kollaborative Gesamtplanung für nicht-hierarchische Unternehmensnetzwerke vor, bei der KMU bei der Auswahl von Partnern und der Definition des Betriebsplans zusammenarbeiten, der erforderlich ist, um maßgeschneiderte Produkte zu spezifizieren, herzustellen und zu vertreiben. Der vorgeschlagene Ansatz basiert auf Verhandlungen der Partner, um die Erstellung alternativer Betriebspläne zu fördern und eine multikriterielle Bewertung der damit verbundenen Kosten und Liefertermine zu ermöglichen. Der vorgeschlagene Ansatz fördert die Reduzierung der Kommunikation zwischen den Partnern, eine reaktive Analyse von Planungsänderungen und deren Auswirkungen, die Stärkung des Vertrauens (da alle Partner das gleiche Gewicht im Entscheidungsprozess haben).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23330-2_51 9d3edcdd335df3bc84602a2ef39cbf53;de;;;7.1.;;;Formalisierung des Design-Chain-Managements mit der Theorie des umgebungsbasierten Designs (EBD) Dieses Papier zielt darauf ab, ein formales konzeptionelles Modell für das Design Chain Management (DCM) aus seiner informellen Definition unter Verwendung der Environment-Based Design (EBD) Theorie zu entwickeln. Dieser Aufwand unterscheidet sich von den bisherigen Ansätzen zur Entwicklung konzeptioneller Modelle dadurch, dass das Modell Schritt für Schritt aus einer natürlichsprachlichen Beschreibung des Design Chain Managements abgeleitet wird. Das abgeleitete DCM-Modell wird Radmodell genannt, da sich das Modell aufgrund seiner internen Konflikte weiterentwickeln würde. Anhand eines Industriebeispiels wird gezeigt, wie die vorgeschlagene Formalisierung zur Lösung eines Problems im DCM genutzt werden kann.;-;-;-;https://link.springer.com/article/10.1007/s10845-011-0607-4 2aa7c7f4f24be1ef4e775d3e2b6839cb;de;;;7.1.;;;Integration des Klimawandels in den Stadtplanungsprozess – eine Fallstudie Das laufende europäische Verbundprojekt SUDPLAN zielt auf die Entwicklung eines Software-Frameworks ab, das die Integration von Klimawandelaspekten in Stadtplanungsprozesse ermöglicht. Neben der Implementierung der generischen Module umfasst SUDPLAN die Implementierung von vier konkreten Pilotanwendungen des Frameworks, eine davon in der deutschen Stadt Wuppertal. Dieser „Wuppertaler Pilot“ beschäftigt sich mit dem urbanen Regenwassermanagement und der Vermeidung von Infrastrukturschäden unter gegenwärtigen und zukünftigen klimatischen Bedingungen. Es kann als Fallstudie für die Integration des Klimawandels in einen konkreten, langfristigen Stadtplanungsprozess betrachtet werden. Dieser Artikel beschreibt die Rahmenbedingungen der Fallstudie und die Bausteine ​​der beabsichtigten Entscheidungshilfeumgebung für Stadtplaner, einschließlich der lokalen Modelle, die für die Simulation des Regenwasserabflusses sowohl in der Kanalisation als auch an der Oberfläche verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22285-6_68 a9567ba0685706f034b5c23fde8914ea;de;;;7.1.;;;Erbsen und Karotten, nur weil sie grün sind? Operativer Fit zwischen grünem Lieferkettenmanagement und grünem Informationssystem Green Supply Chain Management (GSCM) und Green Information System (GIS) sind zwei strategische Bestrebungen externer und interner Ausrichtung zur nachhaltigen Entwicklung einer Organisation. Diese Studie identifiziert die gemeinsamen Dimensionen der beiden IT-gestützten Innovationen in Bezug auf Umweltschutz, Prozesssteuerung und Organisationsunterstützung und konzeptioniert deren betriebliche Eignung. Verglichen mit der allgemein verwendeten wahrgenommenen Eignung, um zu messen, wie gut die IT-Infrastruktur Geschäftsaktivitäten unterstützt, basiert die Operationalisierung von GSCM-GIS-Fit sowohl auf Fit-als-Profil-Abweichungs- als auch auf Fit-als-Moderation-Ansätzen, um die Synergie von GSCM und GIS zu nutzen Praktiken entlang ihrer gemeinsamen Dimensionen. Empirische Beweise belegen, dass die betriebliche Eignung als Ergebnis des funktionalen Einsatzes langfristige Auswirkungen auf die Umwelt- und Sozialleistung erwartet, während die Implementierung sowohl von GSCM als auch von GIS als Ergebnis strategischer Planung relativ kurzfristige Auswirkungen auf die betriebliche und wirtschaftliche Leistung hat.;-;-;-;https://link.springer.com/article/10.1007/s10796-016-9698-y c42d36e23d977de97d3f8253e8550e33;de;;;7.2.;;;Textdatenbanken Textdatenbanken bieten einen schnellen Zugriff auf Sammlungen digitaler Dokumente. Solche Datenbanken sind allgegenwärtig: Textsuchmaschinen liegen den über das Web zugänglichen Online-Textarchiven zugrunde und sind von zentraler Bedeutung für digitale Bibliotheken und das Online-Unternehmensdokumentenmanagement.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-6227-6_5 b6bff56cc34a71c031e1a2de3313ebc4;de;;;7.1.;;;Untersuchung der Auswirkungen von IKT auf CPFR: Eine Fallstudie eines APS-Systems in einer norwegischen Apotheken-Lieferkette Diese Studie zielt darauf ab, den Einfluss der IKT auf die CPFR mit Fokus auf Informationsflüsse in Planungs- und Kontrollprozessen zu untersuchen. Eine Fallstudie einer Apothekenlieferkette in Norwegen wird durchgeführt, um Prozessänderungen im Zusammenhang mit einem APS-System zu untersuchen, das zur Unterstützung einer CPFR-Initiative implementiert wurde. Prozessänderungen werden im Hinblick auf verbesserte Informationen, automatisierte Prozesse und organisatorische Transformation untersucht. Diese Studie zeigt, dass die Hauptwirkung der IKT mit verbesserten Informationsflüssen und veränderten Prozessen verbunden ist, dass ihr Beitrag zur Verringerung des Arbeitsaufwands begrenzter ist und dass große Informationsmengen von entscheidender Bedeutung sind. In Ergänzung zur aktuellen CPFR-Literatur bietet diese Arbeit Einblicke in den Beitrag der IKT mit dem Schwerpunkt auf verbesserter Informations- und Prozesstransformation. Besonders hervorgehoben wird die Bedeutung automatischer Funktionen der IKT in der Informationsverarbeitung und im Informationsaustausch und ihr Beitrag zu verbesserten Planungs- und Kontrollinformationen sowie zur Umsetzung eines gemeinsamen CPFR-Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40361-3_16 9e63f2016e114704b1a9798a74288d74;de;;;7.1.;;;Verhaltensprobleme bei der Durchführung von Operational Research in Entwicklungsländern Operational Research-Modelle funktionieren häufig nicht, weil die Annahmen der Operational Researcher verfehlt sind. Die meisten mathematischen oder konzeptionellen Modelle, wie Entscheidungsträger ihre Probleme in organisatorischen Situationen angehen sollten, können an sich gültig sein. Wenn diejenigen, die komplizierte analytische Problemlösungsmodelle entwerfen, von der Notwendigkeit motiviert sind, dringende operative Probleme zu lösen, sollten keine gravierenden Unterschiede zwischen solchen Modellen und den Personen bestehen, die sie implementieren. Modellbauer existieren meist in akademischen Umgebungen, in denen die bloße Übung der Herstellung von Modellen als akademischer Beitrag belohnt wird. Analytische Modelle im Bereich der operativen Forschung beruhen in der Regel auf der Verwendung mathematischer Werkzeuge und analytischer Rahmen. Wer in mathematischen und analytischen Kulturen richtig geschult ist, fühlt sich im Umgang mit vielen abstrusen mathematischen Modellen leicht zu Hause. Solche Personen stellen einen winzigen Prozentsatz der Entscheidungsträger und Analysten in modernen Organisationen dar.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-05478-7_11 6bae178e74ad17998b4119d986261301;de;;;7.2.;;;Forschung zur Wertbewertungsmethode des militärischen Geheimdienstes basierend auf Big-Data-Analyse Die herkömmlichen Methoden der Bewertung des militärischen Nachrichtendienstes konnten den Wert des militärischen Nachrichtendienstes nicht umfassend analysieren. Zu diesem Zweck wurde eine Methode zur Bewertung des Werts des militärischen Geheimdienstes auf der Grundlage von Big-Data-Analysen vorgeschlagen. Big-Data-Analysetechnologie wurde eingeführt, um die Datenwertdichte k zu bestimmen, die Gesamtsystemarchitektur wurde etabliert, die Betriebsweise wurde optimiert, die relevante Analysetechnologie wurde formuliert, die Auswertung des militärischen Nachrichtenwerts wurde erreicht. Experimentelle Daten zeigten, dass die Anwendung von Big-Data-Analysetechnologie den Wert militärischer Geheimdienste umfassend analysieren könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-51103-6_17 afd3544fe49a8fb487cc786a4978a46e;de;;;7.2.;;;Automatische Übernahme und Erweiterung von Hypernym-Links Die jüngsten Entwicklungen in der Computerterminologie erfordern die Entwicklung multipler und komplementärer Werkzeuge zur Erfassung, Strukturierung und Nutzung terminologischer Daten. Dieser Beitrag schlägt vor, die Lücke zwischen Begriffserwerb und Thesauruskonstruktion zu schließen, indem ein Rahmen für die automatische Strukturierung von Mehrwort-Kandidatenbegriffen mit Hilfe von korpusbasierten Verknüpfungen zwischen Einzelwortbegriffen angeboten wird. Zunächst stellen wir ein System zur korpusbasierten Erfassung terminologischer Zusammenhänge durch diskursive Muster vor. Dieses System baut auf früheren Arbeiten zur automatischen Extraktion von Hyponymie-Links durch flaches Parsing auf. Zweitens zeigen wir, wie Hypernymverknüpfungen zwischen Einzelwortbegriffen durch korpusbasierte Extraktion semantischer Varianten zu semantischen Verknüpfungen zwischen Mehrwortbegriffen erweitert werden können. Die induzierte Hierarchie ist unvollständig, bietet jedoch eine automatische Verallgemeinerung von Einzelwort-Begriffen auf Mehrwort-Begriffe, die in technischen Thesauri und Korpora allgegenwärtig sind.;-;-;-;https://link.springer.com/article/10.1007/s10579-004-1926-2 207165018858c286fc4c1ab307f1d239;de;;;7.2.;;;Unterrichten des IR-Prozesses mit realen Experimenten, unterstützt durch Spielmechanik Wir präsentieren ein webbasiertes Tool zum Lehren und Erlernen des Information Retrieval-Prozesses. Ein interaktiver Ansatz hilft den Studierenden, praktisches Wissen zu erwerben. Unser Fokus liegt auf der Anordnung und Konfiguration von IR-Komponenten und deren Auswertung. Die Einbindung von Spielmechaniken wirkt einer Informationsüberflutung entgegen und motiviert zum Weiterkommen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24027-5_34 d51427d38193e6129d9b3bd36021eaf6;de;;;7.2.;;;DILUCT: Ein spanischer Open-Source-Dependency-Parser basierend auf Regeln, Heuristiken und Selektionspräferenzen Eine Methode zum Erkennen syntaktischer Muster für Spanisch wird vorgestellt. Dieses Verfahren basiert auf der Analyse von Abhängigkeiten unter Verwendung heuristischer Regeln, um Abhängigkeitsbeziehungen zwischen Wörtern abzuleiten, und Statistiken über das gemeinsame Auftreten von Wörtern (die auf unüberwachte Weise gelernt werden), um Mehrdeutigkeiten, wie z. Wenn kein vollständiger Parser erzeugt werden kann, wird eine Teilstruktur mit einigen (wenn nicht allen) identifizierten Abhängigkeitsbeziehungen aufgebaut. Die Auswertung zeigt, dass die Genauigkeit des Parsers trotz seiner Einfachheit den verfügbaren vorhandenen Parsern für Spanisch überlegen ist. Obwohl bestimmte Grammatikregeln sowie die verwendeten lexikalischen Ressourcen spezifisch für Spanisch sind, ist der vorgeschlagene Ansatz sprachunabhängig.;-;-;-;https://link.springer.com/chapter/10.1007/11765448_15 5ceb618dfb27ee6f8a327edb760a27d6;de;;;7.2.;;;Kombination von Sprachmodellen mit NLP und interaktiver Abfrageerweiterung Nach unserer vorherigen Teilnahme am INEX 2008 Ad-hoc-Track adressieren wir weiterhin sowohl Standard- als auch fokussierte Retrieval-Aufgaben basierend auf verständlichen Sprachmodellen und interaktiver Abfrageerweiterung (IQE). Abfragethemen werden mit einem ersten Satz von Multiword-Begriffen (MWTs) erweitert, die oben ausgewählt wurden;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14556-8_14 74933d4c6644d4d202cc83001e89367c;de;;;7.2.;;;Ein Ranking-Algorithmus mit dynamischem Clustering für den inhaltsbasierten Bildabruf In diesem Artikel schlagen wir einen Ranking-Algorithmus vor, der dynamisches Clustering für inhaltsbasiertes Bildabrufen (CBIR) verwendet. Bei herkömmlichen CBIR-Systemen wird oft beobachtet, dass sich optisch von dem Abfragebild abweichende Bilder an einem hohen Rang befinden. Um dieses Problem zu beheben, verwenden wir die Ähnlichkeitsbeziehung der abgerufenen Ergebnisse über dynamisches Clustering. Im ersten Schritt unserer Methode werden Bilder mit visuellen Merkmalen wie Farbhistogramm usw. abgerufen. Als nächstes werden die abgerufenen Bilder mit einer HACM (Hierarchical Agglomerative Clustering Method) analysiert und die Rangfolge der Ergebnisse wird entsprechend der Entfernung von einem Cluster angepasst adjusted Vertreter einer Anfrage. Wir zeigen die experimentellen Ergebnisse anhand von MPEG-7-Farbtestbildern. Nach unseren Experimenten erreicht die vorgeschlagene Methode mehr als 10 % Verbesserungen der Retrieval-Effektivität im ANMRR (Average Normalized Modified Retrieval Rank)-Leistungsmaß.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45479-9_35 9e6ca380cff04c839c47d7b06d875f84;de;;;7.2.;;;MDS unterstützte Landbewertung Evaluation GIS-MCE ist die Hauptmethode bei der Bodenbewertung, aber es ist eine lineare Methode und vernachlässigt die multidimensionale Komplexität der bei der Bodenbewertung verwendeten Faktoren, was zu Informationsverlust führt. Multidimensional Scaling (MDS) stammt aus der Psychoanalyse, die verwendet wird, um mehrdimensionale Daten in höheren Dimensionen zu beschreiben, indem Daten in höheren Dimensionen in Geometriestrukturen in niedrigeren Dimensionen umgewandelt werden. Im von MDS unterstützten Landbewertungsmodell werden die Daten in einen ähnlichen Raum transformiert und die Landbewertung wird gemäß der räumlichen Clusterbildung basierend auf der räumlichen Ähnlichkeit der Daten abgeschlossen, einer Methode, die von Daten gesteuert wird und nicht von anderen priori Annahmen abhängt. Am Beispiel der Enteignungsteilung in der Stadt Xuzhou zeigt sich, dass die Landbewertung auf Basis des MDS den Anforderungen der Landklassifizierung entspricht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18369-0_75 71c113d0b452703d45a3f9048148fce8;de;;;7.1.;;;Collaboration Planning Framework (CPF) zur Unterstützung der verteilten Produktentwicklung Der aktuelle Marktplatz unterliegt großen Veränderungen, die sich auf die Art und Weise auswirken werden, wie Unternehmen ihre Geschäfte tätigen. Unternehmen müssen auf einen geografisch verteilten Markt reagieren. Dies kann durch die Nutzung global verteilter Ressourcen erreicht werden, um die individuellen Kundenbedürfnisse vollständig zu verstehen und zu interpretieren. Das heißt, Unternehmen müssen ihre Abläufe (Produktentwicklung) so integrieren, dass sie dynamisch auf Marktveränderungen reagieren können. Computergestütztes kollaboratives Engineering könnte die Integrationsmechanismen bereitstellen, die zur Integration verteilter Operationen erforderlich sind. Der Wechsel zu Collaborative Engineering sollte auf soliden und umfassenden Methoden basieren, die aktuelle Praktiken analysieren, ihre Fähigkeit zur kollaborativen Durchführung bewerten, organisatorische Praktiken umstrukturieren, um ihre Leistung in einer kollaborativen Umgebung zu verbessern, geeignete Tools zur Unterstützung der Praktiken auswählen und eine Implementierung bereitstellen planen. Dieses Papier stellt ein Framework vor, um computergestütztes kollaboratives Produktdesign und -entwicklung in einer verteilten Umgebung zu erstellen. Das Framework besteht aus sechs Modulen, die ein systematisches Vorgehen zur Planung von computergestütztem Collaborative Engineering bieten.;-;-;-;https://link.springer.com/article/10.1023/A%3A1027310805889 6d09d4bcba3736e692e4a2a8df073782;de;;;7.2.;;;Attributreduktion in unvollständigen Informationssystemen Durch die Änderung der Äquivalenzrelation von Objekten in eine reflexive und symmetrische binäre Relation im unvollständigen Informationssystem wird ein grobes Mengenmodell mit kumulativer variabler Präzision vorgeschlagen. Die grundlegenden Eigenschaften von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23896-3_73 ab5ed434c8b596a1e816f13809a29e35;de;;;7.2.;;;Anpassung des KNN-basierten QoE-Vorhersagemodells für Videostreams Die pseudo-subjektive Qualitätsbewertung (PSQA) ist eine effektive Methode zur Vorhersage der Erlebnisqualität (QoE) von Videostreams. Das KNN-basierte PSQA-Modell liefert eine anständige QoE-Vorhersagegenauigkeit, wenn es unter den gleichen Bedingungen wie das Training getestet wird. Die Leistung des Modells unter nicht übereinstimmenden Bedingungen ist jedoch noch wenig untersucht, und die Frage, wie die Modelle effektiv von einer Bedingung auf eine andere angepasst werden können, ist noch offen. In dieser Arbeit haben wir zunächst die Leistung des ANN-basierten QoE-Vorhersagemodells unter nicht übereinstimmenden Bedingungen bewertet. Unsere Studie zeigt, dass sich die Genauigkeit der QoE-Vorhersage signifikant verschlechtert, wenn das Modell auf andere Bedingungen als die Trainingsbedingungen angewendet wird. Darüber hinaus haben wir eine auf Merkmalstransformation basierende Modellanpassungsmethode entwickelt, um das Modell von einer Bedingung an eine andere anzupassen. Die Ergebnisse der Experimente zeigen, dass die Genauigkeit der QoE-Vorhersage unter nicht übereinstimmenden Bedingungen mit nur fünf Datenproben unter der neuen Bedingung für die Modellanpassung erheblich verbessert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13168-9_35 8a30c7c511d2dae85cec472dc3b54cab;de;;;7.2.;;;Auswirkungen von Codebuchgrößen, Codewortabmessungen und Farbräumen auf die Abrufleistung beim Bildabruf mit Vektorquantisierung Vor kurzem haben wir eine Bildindexierungs- und -wiedergewinnungstechnik vorgeschlagen, die auf Vektorquantisierung basiert. Wir haben bereits gezeigt, dass diese Technik effektiver ist als die traditionellen farbbasierten Techniken. Einige Faktoren, die während der Implementierung der vorgeschlagenen Techniken entschieden werden müssen, sind die Codebuchgröße, die Codewortdimension und der Farbraum. In diesem Artikel untersuchen wir, wie diese Faktoren die Abrufleistung der vorgeschlagenen Technik beeinflussen können.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36228-2_28 5c50fb42fecda241007174cd2d12a45a;de;;;7.2.;;;One Click One Revisited: Verbesserung der Auswertung basierend auf Informationseinheiten Dieses Papier erweitert den Bewertungsrahmen der NTCIR-9 One Click Access Task (1CLICK-1), die von Systemen verlangte, als Antwort auf eine Abfrage eine einzige, prägnante Textausgabe zurückzugeben, um den Benutzer sofort nach einem Klick auf die SUCHE Taste. Im Gegensatz zu herkömmlichen nuggetbasierten Zusammenfassungs- und Fragebeantwortungsmethoden reduziert S-measure, die offizielle Bewertungsmetrik von 1CLICK-1, den Wert jeder Informationseinheit basierend auf ihrer Position innerhalb der Textausgabe. Wir zeigen zunächst, dass der Diskontparameter;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35341-3_4 4609f40d4118c401e236bcd6e409fb9a;de;;;7.1.;;;Ein kognitives integriertes Managementunterstützungssystem für Unternehmen Dieser Beitrag stellt das Design und die Implementierung des skalierbaren und offenen Multi-Agenten Cognitive Integrated Management Information Systems (CIMIS) als Anwendung von rechnergestützter kollektiver Intelligenz vor. Das System ermöglicht die Unterstützung der Managementprozesse im Zusammenhang mit dem gesamten Funktionsbereich des Unternehmens. Das System basiert auf der kognitiven Agentenarchitektur von LIDA, die im ersten Teil des Artikels kurz beschrieben wird. Der Hauptteil des Artikels stellt die logische Architektur von CIMIS vor. Die Beispiele für die Funktionalität des ausgewählten Agenten werden im letzten Teil des Artikels besprochen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11289-3_26 8919e7ee72f40c8a8c8e20fe03b0ffee;de;;;7.1.;;;Management von Informationssystemen Wie in diesem Buch argumentiert wurde, erfordern Informationssysteme eine Betrachtung aus verschiedenen Perspektiven – einer subtilen Mischung aus sozialem, organisatorischem und technologischem. Es ist nicht einfach, Managementideen zu erforschen und dabei dieses subtile Gleichgewicht zu wahren, aber jede der in der Einleitung von Teil 3 aufgeführten Hauptaufgaben des Managements muss unter Berücksichtigung dieser Mischung angegangen werden. Earl [1989] hat einen Rahmen für die Untersuchung des Managements von Informationssystemen geschaffen, der bis zu einem gewissen Grad die sozialen, organisatorischen und technologischen Dimensionen umfasst — Abbildung 10.1. Darin schlägt er drei Hauptverantwortungsbereiche vor, von denen jeder sein eigenes Management erfordert – in Earls Worten eine Managementstrategie.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-14813-4_10 bdbd6d4c8084a9318f199abc594057b6;de;;;7.1.;;;Entscheidungsunterstützungssystem für den virtuellen Raum und seine Anwendung auf Verbraucherausstellungsräume Ein neues Paradigma für die Beziehung zwischen Mensch und Computer heißt künstliche Realität, virtuelle Realität oder Cyberspace. Mit dreidimensionaler Computergrafik, interaktiven Schnittstellengeräten und hochauflösenden Displays kann eine virtuelle Welt realisiert werden, in der man imaginäre Objekte wie real aufnehmen kann. Mit dieser Technologie hat Matsushita Electric Works das Virtual Space Decision Support System (VSDSS) entwickelt, mit dem Benutzer virtuelle Produkte entwerfen und im virtuellen Raum erleben können. VSDSS kann verwendet werden, um ein einheitliches Vertriebs-/Produktionssystem (US/PS) aufzubauen, mit dem Benutzer ihre eigenen kundenspezifischen Produkte entwerfen und von einem computergestützten Fertigungssystem herstellen lassen. Dieses Papier beschreibt das Design der VSDSS- und US/PS-Systeme.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-68204-2_12 a9f90569ae89b43137fa236fd933e96a;de;;;7.2.;;;Die Fuzzy-integrierte Bewertung der Sicherheit von Enterprise Information System basierend auf EC Da Unternehmen ihre elektronische Kommunikation bei Geschäftsaktivitäten über Netzwerke steigern, wird die Sicherheit von Unternehmensinformationssystemen auf der Grundlage von EC für Unternehmen von entscheidender Bedeutung. Dieses Papier schlägt eine Fuzzy-integrierte Sicherheitsbewertungsmethode vor, die auf einer kombinierten Mensch-Computer-Datensammlung und einer Fuzzy-Expertenbewertung in der Delphi-Methode basiert. Die Methode könnte die Subjektivität der Expertenbewertung reduzieren und die Schwierigkeit der Datenerhebung verringern und ermöglicht eine bessere Kombination von qualitativen und quantitativen Bewertungen. Zunächst werden der Bewertungsfaktor und die Hierarchiestruktur der Sicherheitsbewertung konstruiert. Zweitens wird anhand der gesammelten Daten und der Bewertungskommentare jedes Experten die Unterwerfungsgradmatrix erstellt. Schließlich wird ein neues Konzept des „Grades der Vertrauenswürdigkeit“ für die quantitative Bewertung der Sicherheit von Unternehmensinformationssystemen vorgestellt. In diesem Beitrag zeigt die Fallstudie, dass die Methode einfach anzuwenden ist und die Ergebnisse der tatsächlichen Situation entsprechen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75466-6_53 10a5510f2a262cc92abeeaf9dff22197;de;;;7.2.;;;Beobachtungen aus einer Feldstudie zur Entwicklung eines Rahmens für die Bewertung von Fallinstrumenten vor der Nutzung In diesem Beitrag beschäftigen wir uns mit dem Thema Methodenvalidierung mittels Methodentransfer. Wir berichten über Erfahrungen aus der Anwendung einer vorgeschlagenen Methode zur Entwicklung von Evaluationsrahmen in einer Feldstudie und zeigen, dass der Methodenanwender, der mit der Methode bisher nicht vertraut war, diese erfolgreich in einem komplexen Umfeld anwenden konnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35489-7_15 97f10804dbec2b76b0d0ec557835be83;de;;;7.2.;;;Evaluierung von Methoden zur Entwicklung von Informationssystemen: Ein neues Framework Unsere detaillierte Untersuchung verschiedener Ansätze zur Bewertung von Methoden der Informationssystementwicklung hat gezeigt, dass zahlreiche Versuche, diese Methoden zu bewerten, nur zu unschlüssigen und fragwürdigen Ergebnissen führen. Bei der Organisation der verschiedenen Bewertungskriterien gibt es zwei allgemeine Tendenzen. Es gibt relativ ad-hoc-Kriterienlisten für die Bewertung und systematisch organisierte Rahmen, die in der Regel aussagekräftigere Bewertungsergebnisse liefern. Die untersuchten Frameworks sind jedoch zu allgemein und unverhältnismäßig in ihrer Betonung bestimmter Teile einer Methode. Unsere anfängliche Motivation war die Entwicklung eines Frameworks zur Bewertung komponentenbasierter Softwareentwicklungsmethoden. Als Reaktion auf die Unzulänglichkeiten bestehender Ansätze zur Methodenbewertung wird in diesem Beitrag jedoch ein allgemeineres Framework vorgestellt, das zur Bewertung verschiedener Arten von Methoden der Informationssystementwicklung wie objektorientierte Methoden, strukturierte Methoden usw. verwendet werden kann. Der vorgeschlagene Rahmen definiert drei Hauptelemente einer Methode, nämlich Systemmodelle, Systementwicklungsprozess und Softwarearchitektur. In diesem Papier wird die Technik zur Bewertung von Systemmodellen erörtert, und aufgrund der begrenzten Länge des Papiers sind Diskussionen zur Bewertung der anderen beiden Elemente nicht enthalten.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-46102-7_35 d8eb7d9e43120ac8be153c858b4faf36;de;;;7.2.;;;IR-n: Ein Passage-Retrieval-System bei CLEF-2001 Frühere Arbeiten zeigen, dass die Leistung von Information Retrieval-Systemen durch die Verwendung von Dokumentenpassagen als grundlegende Informationseinheit deutlich verbessert wird. Allerdings hat sich die IR-Community noch nicht über die beste Definition von Textpassagen für Retrievalzwecke einig. Dieser Aufsatz berichtet über Experimente mit dem IR-n-System, einem Informationsabrufsystem, das eine neue Methode zur Passagenauswahl anwendet. Passagen sind definiert als eine feste Anzahl von angrenzenden Sätzen in einem Dokument. Dieser Ansatz wurde für die einsprachigen (Spanisch) und zweisprachigen (Spanisch-Englisch) Aufgaben beim CLEF-2001 mit unterschiedlichen Erfolgsraten getestet.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45691-0_22 fcc038a05de0798f9057ae533f7ad2b9;de;;;7.2.;;;Ein Relevanz-Feedback-Modell für die fraktale Zusammenfassung Als Ergebnis der jüngsten Informationsexplosion besteht ein steigender Bedarf an automatischer Zusammenfassung, und menschliche Abstraktionen synthetisieren oft Zusammenfassungen, die auf Sätzen basieren, die maschinell extrahiert wurden. Die Qualität der maschinell erstellten Zusammenfassungen ist jedoch nicht hoch. Als spezielle Anwendung von Information-Retrieval-Systemen kann die Genauigkeit der automatischen Zusammenfassung durch Benutzerrelevanz-Feedback verbessert werden, bei dem der menschliche Abstraktor den Satzextraktionsprozess steuern kann und nützliche Informationen effizient abgerufen werden können. Automatische Zusammenfassung mit Relevanz-Feedback ist ein hilfreiches Werkzeug, um professionelle Abstraktoren bei der Erstellung von Zusammenfassungen zu unterstützen. In dieser Arbeit schlagen wir ein Relevanz-Feedback-Modell für die fraktale Zusammenfassung vor. Die Ergebnisse des Experiments zeigen, dass Relevanz-Feedback die Leistung der automatischen fraktalen Zusammenfassung effektiv verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30544-6_40 034a94232c5020b66179ce633e769a54;de;;;7.2.;;;Evaluation und Konstruktion von Trainingskorpussen zur Textklassifikation: Eine Vorstudie Die Textklassifizierung wird mit dem schnellen Wachstum der verfügbaren Online-Informationen immer wichtiger. Es wurde beobachtet, dass die Qualität des Trainingskorpus die Leistung des trainierten Klassifikators beeinflusst. Dieses Papier schlägt einen Ansatz vor, um qualitativ hochwertige Trainingskörper für eine bessere Klassifikationsleistung zu erstellen, indem zuerst die Eigenschaften von Trainingskörpern untersucht und dann ein Algorithmus zum halbautomatischen Aufbauen von Trainingskörpern angegeben wird. Vorläufige experimentelle Ergebnisse bestätigen unseren Ansatz: Klassifikatoren, die auf den nach unserem Ansatz konstruierten Trainingskorpus basieren, können eine gute Leistung erzielen, während die Größe des Trainingskorpus erheblich reduziert wird. Unser Ansatz kann verwendet werden, um effiziente und leichte Klassifizierungssysteme zu bauen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36271-1_9 ece248acf37523c3f67ba7629f3f3ff3;de;;;7.1.;;;Eine neue Methode für die autonome Planung von Fertigungsprozessen in einem intelligenten Fertigungssystem In diesem Beitrag wird eine neue Methode zur autonomen computergestützten Prozessplanung (A-CAPP) in intelligenten Fertigungssystemen vorgestellt, bei der die zugehörigen Inputs und Outputs des Systems auf Basis einer vergleichenden Analyse traditioneller CAPP diskutiert werden. Die wesentlichen Funktionskomponenten des A-CAPP-Systems, wie Ereignisplanungsmanagement, Fertigungsprozessplanung, Arbeitsablauf-/Schrittplanung, NC-Bearbeitungsprogrammplanung, Prozesssimulation und -bewertung, werden vorgestellt und die Methoden des Prozesswissensmanagements, einschließlich Prozessmerkmalswissen, Fertigungsressourcenwissen und Prozessmethodenwissen werden ebenfalls diskutiert. A-CAPP, das für ein intelligentes Fertigungssystem angewendet wird, kann die Rekonstruktion der Produktionslinie dynamisch effektiv unterstützen, die Zeit für die Änderung der Konfiguration der Produktionslinie entsprechend der Änderung der Kundenanforderungen oder der Marktanforderungsschwankungen verkürzen und darüber hinaus die Last der Produktionslinien ausgleichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20948-3_5 8f08bb00c4a68edf285ff676f083df41;de;;;7.2.;;;Gesundheitsinformationssysteme und Computereinsatz in medizinischen Entscheidungsprozessen: State of the Art Seit den ersten Anwendungen von Computern in der Verwaltung von Krankenhäusern in den 1960er Jahren wurden erhebliche Fortschritte erzielt. In diesen 30 Jahren wurden computergestützte Systeme nach und nach in viele Gesundheitsanwendungen eingeführt und heute nehmen wir an einer Revolution in unserer Sichtweise ihrer Verwendung teil, nicht nur für Büroaufgaben, sondern auch für die Unterstützung von Ärzten bei medizinischen Entscheidungen. Ein weiterer Aspekt, der die Gesundheitsversorgung stark beeinflussen wird, ist die zunehmende Notwendigkeit der Integration der verschiedenen Disziplinen von Medizinern und Wissenschaftlern. Wie in nahezu allen Tätigkeitsbereichen wird dieser Integrationsbedarf durch Telekommunikationsnetze befriedigt, wenn ein Mindestmaß an medizinischen Standards erreicht wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-75739-6_20 bebbbc438bd639cb4f85da4415c77a74;de;;;7.1.;;;Ausrichtung der Unternehmensarchitektur auf die strategische Planung Strategische Planung verbessert sowohl die finanzielle als auch die Verhaltensleistung eines Unternehmens. Es hilft dem Unternehmen, Prioritäten zu setzen, Fähigkeiten und Ressourcen zu fokussieren, den Betrieb zu stärken, sicherzustellen, dass die Stakeholder auf gemeinsame Ziele hinarbeiten und die Ausrichtung des Unternehmens zu bewerten und anzupassen. Strategische Planung wird derzeit in EA nicht explizit dargestellt, obwohl sie die Entscheidung für die Unternehmensarchitektur motiviert. Dieses Papier untersucht strategische Planungsansätze und diskutiert ihre potenzielle Beziehung zu EA. Das Papier konzentriert sich darauf, wie EA zur strategischen Planung beitragen kann, diskutiert Anforderungen an EA-Erweiterungen zur Unterstützung der strategischen Planung und zeigt Lösungen auf. Ein allgemeiner Ansatz zur Unterstützung der strategischen Planung mit EA sollte den Praktiken der strategischen Planung und der EA gegenseitig zugute kommen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19243-7_39 df6ff66b6d8a1fba38ac3e363f595c43;de;;;7.1.;;;Das universelle Informationssystem – eine Fantasie oder ein machbares neues Produkt Die bis in die 1960er Jahre hinein in den Wirtschaftswissenschaften dominierende Vorstellung einer planbaren Wirtschaft hinterließ deutliche Spuren in der Gestaltung wirtschaftlicher Planungs-, Leit- und Kontrollsysteme der;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-1610-4_5 5fb5d4b287031dd3a91e5007260088d1;de;;;7.1.;;;Überprüfung der Literatur zu Strategiekaskadierung, Kontext und Führung In diesem Kapitel wird die Literatur zur Realisierung von Verbesserungsaktivitäten durch verschiedene Ansätze der Strategieentwicklung und Kaskadierung untersucht. Der Review verläuft in fünf Abschnitten, die wiederum die für dieses Forschungsprojekt relevanten Themen beschreiben. Abschnitt 2.1 fasst die Literaturströme zusammen, die die Grundlagen der Betriebsstrategie beschreiben, und Abschn. 2.2 konzentriert sich auf den Unternehmenskontext. Abschnitt 2.3 befasst sich mit der Qualität der Strategiekaskadierung und Abschnitt 2.3. 2.4 diskutiert Forschungsergebnisse im Bereich der Verbesserungsleistung. Schließlich, Abschn. 2.5 konzentriert sich auf die Literatur, die sich mit dem Führungsstil beschäftigt. Jeder Abschnitt führt von den theoretischsten Ansätzen zu denen, die am wahrscheinlichsten von praktischer Relevanz sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33621-8_2 9076df75e7555a8e5c74a4536959f38f;de;;;7.1.;;;Ein stochastisches Modellprogramm zur Untersuchung der Auswirkungen von Konstruktionsunsicherheiten auf die ETO-Schiffbauplanung Ein wesentlicher Treiber der Planungskomplexität im sich dynamisch verändernden ETO-Schiffbau ist die Konstruktionsunsicherheit bis weit in die Konstruktionsplanungs- und Produktionsprozesse hinein. Dies führt zu Unsicherheit bei der Ausführungszeit von Aufgaben und Projekten sowie zu komplexen Abhängigkeiten und Korrelationen, die durch die Unsicherheit bei mehreren Aufgabenparametern getrieben werden. Das Problem ist schwer genau zu lösen und die Entscheidungsfindung basiert weitgehend auf Erfahrung und Bauchgefühl mit anschließenden Verhaltensaufforderungen. Wir erstellen ein stochastisches Mockup-Programm, um auf die Komplexität der Formulierung und Lösung des Konstruktionsplanungsproblems aufmerksam zu machen und diese zu analysieren. Wir zeigen, wie sich Designunsicherheiten auf Planungskomplexität und -lösungen auswirken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22759-7_19 3d99fe79f14119d682b578fcdb7445c5;de;;;7.1.;;;Jenseits des Horizonts: Planung der zukünftigen europäischen IKT-F&E ERCIM (European Research Consortium for Informatics and Mathematics) hat im Laufe der Jahre auf Ersuchen der EK (Europäische Kommission) strategische Dokumente zur zukünftigen IKT-Forschung erstellt, die auf der Arbeit seiner technischen Arbeitsgruppen basieren, die das Wissen und die Vision von > 12000 IKT repräsentieren representing Forscher in 18 Ländern. Die EK schlug vor, dass ERCIM einen Vorschlag für eine koordinierte Aktion vorlegt, um eine fokussierte Sichtweise für das Referat F1 der EG GD INFSO: Zukünftige und neu entstehende Technologien zu erstellen. Der Vorschlag war erfolgreich und das Projekt BEYOND-THE-HORIZON (BTH) läuft. Die Hauptziele sind: fortgeschrittene strategische Bereiche und herausfordernde langfristige Ziele zu identifizieren, ihre wissenschaftlichen, gesellschaftlichen und industriellen Auswirkungen zu analysieren und innerhalb eines Zeitraums von fünfzehn Jahren Fahrpläne für den Fortschritt in diesen Bereichen zu erstellen und neue Grenzen für IKT-Forschung, um die Grenzen zu anderen Disziplinen sowie deren Wechselbeziehungen und Möglichkeiten der gegenseitigen Befruchtung zu erkennen. Die ausgewählten Themen sind: Pervasive Computing and Communications, Nanoelectronics and Nanotechnology, Security, Reliability and Trust, Bio-ICT Synergies, Intelligent and Cognitive Systems, Software Intensive Systems. Dies ist eindeutig eine wichtige Diskussion in Europa über zukünftige FuE und die Bereitstellung von Beiträgen für die EK für das RP7 (Rahmenprogramm 7). Die Methode des Projekts und der aktuelle Stand der Arbeit werden vorgestellt und das Ziel der Präsentation ist es, die SOFSEM-Community aktiv in die Diskussion einzubeziehen.;-;-;-;https://link.springer.com/chapter/10.1007/11611257_4 89a526d52452c03b285884f34def26f5;de;;;7.1.;;;Allgemeine Systemübersicht Zielarchitektur Bei der Gestaltung eines komplexen Informationssystems ist es dem Benutzer nicht immer möglich, alle seine Anforderungen vor dem Entwurf spezifizieren zu können. Es ist daher notwendig, einem zielorientierten Designprozess zu folgen. Ein solches Design erfordert es, eine generische Zielarchitektur vorzulegen, die sowohl auf den generischen als auch auf einigen systemspezifischen Eigenschaften zusammen mit einigen strategischen Zielen basiert. Diese bilden das „Systemkonzept“. Das Zeichnen eines Rahmens für das Systemkonzept und die Verwendung eines Referenzmodells (RM) erleichtern den Designprozess und minimieren das Risiko fehlender Benutzeranforderungen. Ein solcher zielgerichteter Designprozess ermöglicht auch einen sinnvollen und effektiven Übergang von der Implementierungsstrategie zu Feldsystemen, die ansonsten für das Gesamtsystem mit dem aktuellen Stand der Technik nicht realisierbar wären.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-6159-0_3 99c3d1df123e0301bbae3f5396ac2499;de;;;7.1.;;;Management- und Produktionskontrollfragen von verteilten Unternehmen Unternehmen, die im Raum verteilt sind und/oder als temporäres Joint Venture aus rechtlich unterschiedlichen Einheiten zusammengesetzt sind, werden in letzter Zeit oft als virtuelle (erweiterte) Unternehmen bezeichnet. Planungs-, Gestaltungs- und Betriebs-(Management-)Ziele und Anforderungen solcher Firmen unterscheiden sich im Allgemeinen von denen einzelner, zentralisierter Unternehmen. In diesem Beitrag schlagen wir (Software-)Lösungen für den Entwurf, die Planung und den Betrieb komplexer, vernetzter Organisationen vor, die als Knoten von Netzwerken dargestellt werden. Zunächst werden komplexe Logistikströme verteilter KMU angestrebt und anschließend ein europäisches virtuelles Institut für ein kollaboratives Nachfrage- und Angebotsnetzwerk diskutiert. Das dritte Problem ist eine komplexe, webbasierte Lösung zur Verwaltung großer, teurer Projekte mit mehreren Standorten und Unternehmen.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-34403-9_2 947642e2d27b6372d5a02ecd7029c9c6;de;;;7.2.;;;Bewertung der kognitiven Angemessenheit des DLine-Region-Kalküls Qualitative raum-zeitliche Kalküle spielen eine entscheidende Rolle bei der Modellierung, Darstellung und Begründung von räumlichen Dynamiken wie der Bewegung von Agenten oder geografischen Einheiten. Sie sind allgegenwärtig in der ontologischen Modellierung und beim Information Retrieval, sie spielen eine zentrale Rolle an der Mensch-Maschine-Schnittstelle und sind entscheidend für die Verarbeitung von Daten aus Geosensornetzwerken. Allen diesen Anwendungsbereichen gemeinsam ist die Suche nach einem Mechanismus, um Daten in Wissen umzuwandeln, der sich stark an Strategien der (menschlichen) kognitiven Informationsverarbeitung orientiert. Erstaunlicherweise mangelt es bei tatsächlichen Verhaltensbewertungen darüber, ob die vorgeschlagenen Kalküle tatsächlich kognitiv angemessen sind. Während die Annahme getroffen zu werden scheint, dass qualitativ gleich kognitiv ist, bedarf es einer differenzierteren Sichtweise. Dieses Papier füllt die Lücke durch die erste (nach unserem besten Wissen) Verhaltensbewertung des DLine-Region-Kalküls mit tatsächlichen dynamischen Stimuli. Diese Einschätzungen sind entscheidend, da die wenigen existierenden Experimente eindeutig gezeigt haben, dass topologische Beziehungen konzeptionelle Gruppen (Cluster) bilden, eine Tatsache, die auch für die 26 DLine-Region-Beziehungen sehr wahrscheinlich zu sein scheint. Unsere Ergebnisse zeigen, welche topologischen Beziehungen (kognitive) begriffliche Cluster bilden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32316-4_7 40150329803c1caac061537955d54bbf;de;;;7.2.;;;Gewichtete Fuzzy-Aggregation für die Metasuche: Eine Anwendung von Choquet Integral Eine Metasuchmaschine ist ein Information Retrieval (IR)-System, das mehrere Suchmaschinen abfragen und eine Rangliste der von ihnen zurückgegebenen Ergebnisse zu einer einzigen Ergebnisliste von Dokumenten zusammenfassen kann, die in absteigender Reihenfolge der Relevanz für eine Abfrage geordnet ist. Das Ergebnis-Aggregationsproblem wurde weitgehend als Multi-Criteria Decision Making (MCDM)-Problem behandelt, wobei frühere Ansätze einfache MCDM-Techniken wie Durchschnitt, Summe, gewichteter Durchschnitt, gewichtete Summe angewendet haben. Frühere Untersuchungen haben die Wirksamkeit der Anwendung des Fuzzy Ordered Weighted Average (OWA)-Operators von Yager und seiner Varianten bei der Ergebnisaggregation gezeigt. In diesem Artikel schlagen wir ein Ergebnisaggregationsmodell vor, das auf dem Choquet Integral basiert, genannt Choquet Capacity-Guided Aggregation (CCGA) Modell, das eine alternative Möglichkeit darstellt, Ergebnisse für die Metasuche unter Verwendung der meisten ausgeglichenen Bedingungen zu aggregieren. Wir vergleichen das vorgeschlagene Modell mit bestehenden Ergebnisaggregationsmodellen wie Borda-Fuse, Weighted Borda-Fuse, OWA und IGOWA.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31709-5_51 6cda62cfc4574abf503d227e4d277dec;de;;;7.2.;;;Eine Diskussion der kognitiven Belastung bei der kollaborativen Problemlösung Die kollaborative Problemlösung ist komplexen partizipativen Systemen inhärent. Die Unterstützung der kollaborativen Problemlösung ist eine Herausforderung. Das Lösen von Problemen erfordert, wie alle wissensbasierten kollaborativen Bemühungen, einen erheblichen kognitiven Aufwand. Das Verständnis der damit verbundenen kognitiven Belastung ist wichtig für die Entwicklung von Techniken und Werkzeugen zur Gruppenunterstützung. Dieser Beitrag präsentiert Ergebnisse zur kognitiven Belastung im Zusammenhang mit der Problemlösung in der Entscheidungsfindungsphase, in der alternative Lösungen oder Optionen bewertet werden und die Gruppe sich;-;-;-;https://link.springer.com/article/10.1007/s40070-014-0034-9 c17f2a48de74e08916eca6b0ee411789;de;;;7.2.;;;Verknüpfen von Archiven mit Dokumentanreicherung und Begriffsauswahl Nachrichten-, Multimedia- und Kulturerbearchive bieten zunehmend Gelegenheiten, Verbindungen zwischen ihren Sammlungen herzustellen. Wir betrachten die Aufgabe der Verknüpfung von Archiven: ein Objekt in einem Archiv mit einem oder mehreren Objekten in anderen, oft komplementären Archiven zu verbinden. Wir konzentrieren uns auf eine spezifische Instanz der Aufgabe: das Verknüpfen von Elementen mit einer Rich-Text-Repräsentation in einem Nachrichtenarchiv mit Elementen mit spärlichen Anmerkungen in einem Multimedia-Archiv, wobei Elemente verlinkt werden sollten, wenn sie dasselbe oder ein verwandtes Ereignis beschreiben. Wir finden, dass der Unterschied in der textuellen Fülle von Annotationen eine Herausforderung darstellt und untersuchen zwei Ansätze: (i) spärlich kommentierte Elemente mit textreichen Inhalten anzureichern und (ii) reichhaltige Nachrichtenarchivelemente durch Begriffsauswahl zu reduzieren. Wir demonstrieren den positiven Einfluss beider Ansätze auf die Verknüpfung mit gleichen Ereignissen und die Verknüpfung mit verwandten Ereignissen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24469-8_37 04f4a894a76b543f6c75647f19b6c258;de;;;7.2.;;;Schnellere Verarbeitung von MaxScore-Abfragen mit wesentlichem Überspringen von Listen Große Suchmaschinen verarbeiten Tausende von Abfragen pro Sekunde über Milliarden von Dokumenten, wodurch eine enorme Leistungslücke zwischen disjunkten und konjunktiven Textabfragen bei der Abfrageverarbeitung entsteht. Eine wichtige Klasse von Optimierungstechniken, die als Top-k-Verarbeitung bezeichnet wird, wird daher verwendet, um diese Lücke zu verkleinern. In diesem Papier stellen wir eine Verbesserung der MaxScore-Optimierung vor, die die effizienteste bekannte Top-k-Verarbeitungsmethode für das Dokument-zu-ein-Zeit-Verfahren (DAAT) ist. Im Wesentlichen kann unser Ansatz die MaxScore-Methode beschleunigen, indem er das Überspringen nicht nur in nicht-essentiellen Listen wie die ursprüngliche Methode, sondern auch in essentiellen Listen ermöglicht, daher der Name Essential List Skipping MaxScore (ELS-MaxScore) und vielversprechendere Kandidaten für das Scoring bereitstellt . Experimente mit der TREC GOV2-Sammlung zeigen, dass unser ELS-MaxScore deutlich weniger Elemente verarbeitet, somit die durchschnittliche Abfragelatenz um fast 18% gegenüber der MaxScore-Basislinie und 84% gegenüber der disjunktiven DAAT-Basislinie reduziert und dennoch die gleichen Ergebnisse wie die disjunktive Auswertung liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-14717-8_43 f6565cef8e141b17b95b23ec3dc34688;de;;;7.1.;;;Reiseplanung mit selbst erstellten Karten Beschleunigungstechniken, die gegebene Knotenkoordinaten ausnutzen, haben sich für kürzeste Pfadberechnungen in Verkehrsnetzen und geografischen Informationssystemen als nützlich erwiesen. Um die Anwendung solcher Techniken zu erleichtern, wenn Koordinaten von einigen oder sogar allen Knoten in einem Netzwerk fehlen, erzeugen wir künstliche Koordinaten mit Methoden aus dem Graphzeichnen. Versuche an einem großen Satz deutscher Zugfahrpläne zeigen, dass die mit den Koordinaten aus unseren Netzzeichnungen erzielte Beschleunigung der mit den tatsächlichen Koordinaten erreichten nahe kommt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44808-X_10 a4e936e8c1c75754e53976e27493fa46;de;;;7.1.;;;Das Management von Finanzlieferketten: Von feindlichen zu kooperativen Strategien Entlang der Lieferkette haben sich Informationssysteme entwickelt, um das Logistikmanagement in allen Branchen zu unterstützen. Die meisten dieser Bemühungen konzentrierten sich auf die Reduzierung des Betriebskapitals, indem die Effizienz des Informationsflusses vom Markt zu den Rohstofflieferanten gesteigert wurde. Ähnliche Entwicklungen gab es auch zur Unterstützung anderer Geschäftsprozesse, beispielsweise durch die Verbindung von neuen Produktdesign- und Marketingdatenbanken, um virtuelle Unternehmen zu schaffen. Elektronischer Handel und damit verbundene Technologien wie EDI sind die Norm in fortschrittlichen Lieferketten und werden im Handel mit großen Unternehmen häufig obligatorisch verwendet. Die Herstellung eines Produkts wird heute als ein ganzer Prozess über die gesamte Lieferkette hinweg gesehen und nicht mehr als eine Reihe separater Vorgänge, die von verschiedenen Organisationen verwaltet und kontrolliert werden. Das Logistikmanagement wurde grundlegend überarbeitet und auf qualitäts- und zeitbasierte Strategien ausgerichtet. Allerdings sind die Entwicklungen im Umgang mit Finanzinformationen zwischen den Funktionen innerhalb von Unternehmen und über Organisationsgrenzen hinweg weit hinter den Entwicklungen im Logistikmanagement zurückgeblieben. In diesem Papier werden die potenziellen Vorteile kooperativer Beziehungen in der Finanzlieferkette untersucht, um Zeitverzögerungen zu reduzieren und die Sicherheit bei Finanztransaktionen zwischen verschiedenen Organisationen zu erhöhen. Der finanzielle Nutzen wird anhand veröffentlichter Daten geschätzt, um eine potenzielle Einsparung von 3,8% des Transaktionswerts zu erzielen. Ein Organisationsmodell mit wahrscheinlichen zukünftigen Entwicklungen und Schritten, die von der Finanzdienstleistungsbranche ergriffen werden können, um als integrierte Anbieter von Finanzdienstleistungen in Lieferketten zu profitieren, wird vorgestellt und die Bereiche für die erste Umsetzung werden skizziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-39229-5_8 1a4ac2dac866b7ac0cea5b60223b64c3;de;;;7.1.;;;Improvisation in der Informationssystementwicklung In diesem Beitrag wird die Rolle des spontanen Handelns und der Bricolage bei der Gestaltung und Implementierung von Informationssystemen in Organisationen diskutiert. Wir berichten über eine Längsschnittstudie zum Design und zur Implementierung einer webbasierten Groupware-Anwendung in einem multinationalen Konzern. Wir nehmen eine Sensemaking-Perspektive ein, um die Dynamik dieses Prozesses zu analysieren und zeigen, dass improvisatorisches Handeln und Bricolage (das Auskommen mit den vorhandenen Materialien) eine entscheidende Rolle bei der Entwicklung der Anwendung gespielt haben. Schließlich schlagen wir vor, dass diese Fallstudie eine Gelegenheit bietet, unsere Konzeption der Entwicklung von Informationssystemen (ISD) zu überdenken.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-8095-6_34 f5e1cb62c104b4086bc7445a913db6ac;de;;;7.2.;;;Automatische Extraktion von Dokumentthemen Ein Schlüsselwort oder Thema für ein Dokument ist ein Wort oder ein Mehrwort (eine Folge von 2 oder mehr Wörtern), das einen Teil des Dokumentinhalts in sich zusammenfasst. In diesem Artikel vergleichen wir mehrere statistikbasierte sprachunabhängige Methoden, um Schlüsselwörter automatisch zu extrahieren. Wir ordnen Wörter, Mehrfachwörter und Wortpräfixe (mit fester Länge: 5 Zeichen) unter Verwendung mehrerer Ähnlichkeitsmaße (einige weithin bekannt und andere neu geprägt) und bewerten die erhaltenen Ergebnisse sowie die Übereinstimmung zwischen den Bewertern. Portugiesisch, Englisch und Tschechisch waren die experimentierten Sprachen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19170-1_11 a127e0cc9eae5376ecc95702f2341f08;de;;;7.1.;;;Fertigungsprozessplanung im mengenbasierten Concurrent Engineering Paradigma Die Integration von Fertigungsplanungsaktivitäten in frühe Konstruktionsentscheidungen ist von größter Bedeutung. Produktionsbeschränkungen und -möglichkeiten sollten frühzeitig in den Phasen der Produktentwicklung (PD) untersucht werden, um Produkte erfolgreich auf den Markt zu bringen. Set-based Concurrent Engineering (SBCE)-Paradigma wird in der Literatur ausgesprochen und gilt als Grundlage für schlankes Denken in der PD. In SBCE werden alternative Produkt-Subsysteme gleichzeitig untersucht und schwache Designentscheidungen werden nach und nach eliminiert, wenn mehr Wissen über die Herstellbarkeit bekannt wird. Es gibt jedoch eine methodische Lücke, wie SBCE in der Praxis umgesetzt und die Fertigungsprozessplanung integriert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35758-9_14 dfff1c4b40022badeedb0f18b7f889b2;de;;;7.1.;;;Enterprise-Resource-Planning-Systeme als unterstützendes Instrument zur Leistungssteigerung des Unternehmens Unternehmen setzen heute zunehmend auf moderne Enterprise Performance Management (EPM)-Systeme. Diese Systeme werden verwendet, um die Leistung, Qualität und Transparenz des Finanzmanagements eines Unternehmens zu verbessern sowie die Kosten des Unternehmens zu senken und den Kundenstamm zu erweitern. Diese Systeme sind Teil von Business Intelligence und beinhalten Metriken und Methoden, die darauf abzielen, die Leistung des Unternehmens zu verbessern. Eine Möglichkeit, die Leistung eines Unternehmens zu verbessern, besteht darin, Enterprise-Resource-Planning-Systeme in die Unternehmensumgebung zu implementieren. Der vorliegende Artikel enthält eine Auswertung einer Fragebogenerhebung, die unter Unternehmen in der Tschechischen Republik, insbesondere in den geografischen Gebieten Mittel- und Nordostböhmens, durchgeführt wurde. Es enthält Antworten zur Einführung von ERP-Systemen, Meinungen zu Einsatz und Betrieb solcher Systeme und deren Informationen und behandelt vor allem Probleme, mit denen Anwender von ERP-Systemen in der Unternehmenspraxis konfrontiert sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24770-0_23 6ce12a2ea1a7199f2c1a5cf8b94dc49f;de;;;7.1.;;;Eine Forschung zum Synergie- und Spiralantriebsmechanismus des Wachstums von Unternehmensinformationssystemen Der Mechanismus des Wachstums von Informationssystemen (IS) ist ein wichtiger Teil der IS-Wachstumstheorie und hat viel Aufmerksamkeit von Wissenschaftlern und Unternehmern auf sich gezogen. Wie viele Studien bestätigen, wird der Prozess des IS-Wachstums von verschiedenen Faktoren innerhalb des Unternehmens und aus der externen Umgebung beeinflusst. Die externen Faktoren sind vor allem staatlicher Vortrieb, Wettbewerbsdruck, Verknüpfungsbedarf genossenschaftlicher Unternehmen und Vortrieb der IT-Anbieter. Die internen Faktoren sind die Unterstützung des oberen Managements, die Unterstützung des mittleren Managements, der Antrieb der IT-Abteilung und die Mitwirkung und Beteiligung des anderen Organisationspersonals. Der Synergieeffekt interner und externer Faktoren fördert die Entwicklung des IS-Aufbaus und das Wachstum von Unternehmensinformationssystemen. Dieses Papier widmet dem mikrokosmischen Mechanismus des IS-Wachstums mehr Aufmerksamkeit und schlägt vor, dass die IT-Absorption ein direkter Impuls für das IS-Wachstum ist. Es analysiert Synergieeffekte der Themen und Elemente der IT-Absorption. Darüber hinaus wird ein mathematisches Modell verwendet, um den Spiralantriebsmodus des IS-Wachstums zu beschreiben. Ganzheitlich betrachtet präsentiert sich IS-Wachstum als dynamischer und spiralförmiger Prozess.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75902-9_90 09a3e53c1c6de1f0fe491b76dcb2c6bf;de;;;7.2.;;;Verbesserung der Ranking-Bewertung durch Einsatz von Visual Analytics Um unterschiedlichen Benutzeranforderungen gerecht zu werden und anspruchsvolle Aufgaben zu unterstützen, ist es von grundlegender Bedeutung, automatisierte Tools zur visuellen und analytischen Untersuchung des Systemverhaltens bereitzustellen. Dieses Papier bietet ein analytisches Modell zur Untersuchung von Rankings, die von IR-Systemen erstellt werden, basierend auf der diskontierten kumulativen Gewinnfamilie von Metriken und Visualisierung zur Durchführung von Fehler- und „Was-wäre-wenn“-Analysen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40802-1_4 a6225d362ef4c2ff94c259c508db81ee;de;;;7.2.;;;Auswirkungen von Echtzeit-Verkehrsinformationssystemen auf die Verkehrsleistung unter verschiedenen Netzstrukturen Die Auswirkungen von Echtzeit-Verkehrsinformationssystemen (RTTIS) auf die Verkehrsleistung in Parallel-, Netz- und Ringnetzen wurden untersucht. Die Simulationsergebnisse zeigen, dass die Auswirkungen des Anteils der RTTIS-Nutzung von den Straßennetzstrukturen abhängen. Für den Verkehr in einem parallelen Netz wird die Leistung von Gruppen mit und ohne RTTIS-Niveau verbessert, wenn der Anteil der Fahrzeuge, die RTTIS verwenden, größer als 0 und kleiner als 30 % ist und ein Anteil der RTTIS-Nutzung von mehr als 90 % die Leistung tatsächlich verschlechtern würde . Sowohl für Netz- als auch für Ringnetze verbessert ein höherer Anteil der RTTIS-Nutzung immer die Leistung von Gruppen mit und ohne RTTIS. Bei allen drei Netzwerkstrukturen profitieren Fahrzeuge ohne RTTIS von einem gewissen Anteil der RTTIS-Nutzung in einem System.;-;-;-;https://link.springer.com/article/10.1007/s11771-012-1043-0 b05a5d66497a5ae05a75992b65436d6d;de;;;7.2.;;;Abrufen medizinischer Literatur zur Unterstützung klinischer Entscheidungen Angesichts der großen Menge an jährlich veröffentlichter medizinischer Literatur auf dem Laufenden zu bleiben, stellt eine ernsthafte Herausforderung für medizinisches Fachpersonal dar. Daher wächst das Interesse an Systemen, die Ärzte bei klinischen Entscheidungen unterstützen. Eine Aufgabe von Clinical Decision Support (CDS)-Systemen besteht darin, hochrelevante medizinische Literatur abzurufen, die medizinisches Fachpersonal bei der Formulierung von Diagnosen oder der Festlegung von Behandlungen unterstützen könnte. Diese Suchaufgabe ist untypisch, da es sich bei den Abfragen um medizinische Fallberichte handelt, die sich in Umfang und Struktur von Abfragen in anderen, häufigeren Suchaufgaben unterscheiden. Wir wenden Techniken zur Neuformulierung von Abfragen an, um die Literatursuche basierend auf Fallberichten zu adressieren. Das vorgeschlagene System erreicht eine statistisch signifikante Verbesserung gegenüber dem Ausgangswert (29 % – 32 %) und dem Stand der Technik (12 – 59 %).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16354-3_59 b34dcb8763ac9f2fb7d7446cb328229d;de;;;7.2.;;;Ein kommunikationsorientierter Ansatz zur konzeptionellen Modellierung von Informationssystemen Informata werden als Unterklasse von Informationssystemen eingeführt. Es wird das SMARTIE-Framework vorgestellt, das die konzeptionelle Modellierung von Informata unterstützt. Kern des Frameworks ist ein Automat, der als Verallgemeinerung und Erweiterung des endlichen Automaten betrachtet werden kann, aber auch auf Ergebnisse sprachphilosophischer Forschung zurückgreift. Ein Modell eines Systems in diesem Rahmen wird im Gegensatz zum herkömmlichen Prozessmodell als Kommunikationsmodell bezeichnet. Es werden verschiedene Techniken vorgestellt, die die Modellierung und Spezifikation von Systemen im SMARTIE-Framework unterstützen. Um die praktische Anwendbarkeit der Modellierungsprinzipien zu demonstrieren, wird ein Verkehrsleitsystem als Beispiel genommen.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0000590 f62356f6a4ab2edaa2ec6329f78bc943;de;;;7.2.;;;Analyse der Profilkonvergenz in personalisierten Dokumentenabrufsystemen Die Modellierung von Benutzerinteressen in einem personalisierten Dokumentenabrufsystem ist derzeit eine sehr wichtige Aufgabe. Das System sollte Informationen über den Benutzer sammeln, um ihm bessere Ergebnisse zu empfehlen. In dieser Arbeit wird ein mathematisches Modell der Benutzerpräferenz und des Benutzerprofils betrachtet. Die Hauptannahme ist, dass das System die Präferenz nicht kennt. Das Hauptziel des Systems ist die Erstellung eines Profils, das den Benutzerpräferenzen nahe kommt, basierend auf Beobachtungen der Benutzeraktivitäten. Das Verfahren zum Erstellen und Aktualisieren von Benutzerprofilen wird vorgestellt und ein Modell des Simulationsbenutzerverhaltens in einem solchen System wird vorgeschlagen. Die analytischen Eigenschaften dieser Methode werden betrachtet und zwei Theoreme werden vorgestellt und bewiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11289-3_7 8bebf9283033a2bc1199540c3b236b28;de;;;7.1.;;;Sicherheitsanalyse nationaler E-Government basierend auf Informationssystemen Die Sicherheit von Informationssystemen, die direkt mit der Sicherheit der nationalen E-Government verbunden sind, sowie die Gewährleistung nationaler Regierungsbehörden und Staatsgeheimnisse, dieses Papier beginnt mit den aktuellen Sicherheitsrisiken von Informationssystemen und E-Government-Angelegenheiten, die die Klassifizierung von staatlichen Informationsressourcen kombinieren , die Merkmale nationaler E-Government-Angelegenheiten, die Inhaltsinfrastruktur und die Attribute funktionaler Ämter. Nach der Integration der Geschäfte jedes Büros wird ein Klassifizierungssicherheitsprogramm für Informationssysteme vorgeschlagen, um mehrstufige Sicherheitskontrollen, multilaterale Sicherheitskontrollen und Softwaresicherheitskontrollen durchzuführen. Schließlich werden im Vergleich zur derzeitigen Situation des Informationssystems mehrere Sicherheitshinweise zum Schutz des nationalen E-Government vorgelegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-4850-0_53 0fc1c2005fad8e7ad59cfd9db811f862;de;;;7.2.;;;Ein neuartiger Event-Network-Matching-Algorithmus Event Network ist ein neues semantikbasiertes und ereignisorientiertes Textrepräsentationsmodell. Das Papier schlägt einen neuen dreistufigen Matching-Algorithmus für Event-Netzwerke vor: Event-Matching basierend auf maximaler Ähnlichkeitspriorität, Relation-Matching basierend auf isotrop-relational-Distanz-Matrix und Event-Network-Matching durch Integration von Event-Matching und Relation-Matching. Die experimentellen Ergebnisse der Arbeit zeigen, dass die Methode machbar und sinnvoll ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34062-8_1 ee5e3d15cf70ef860c28ef06a6cee697;de;;;7.2.;;;Auf dem Weg zu kulturbewussten Informationssystemen Die alten Grenzen von Volkswirtschaften und Märkten beugen sich der Globalisierung und traditionelle Büros weichen virtuellen Organisationsformen. Die lebenslange oder langfristige Arbeitnehmer-Arbeitgeber-Beziehung bricht zusammen, da die Belegschaft dynamische neue Einheiten und neue Organisationsformen aufbaut. Heutzutage sind sich alle einig, dass Teamarbeit für globale Geschäftsaktivitäten immer wichtiger und wichtiger wird. Wenn funktionsübergreifende und multikulturelle Teams schnell gebildet und umgestaltet werden, hat die Wahl der Kommunikations- und Kollaborationstechnologie natürlich große Auswirkungen auf die Art und Weise, wie Menschen arbeiten und Geschäfte abwickeln. Die meisten Leute werden zustimmen, dass keine computergestützte Technologie persönliche Treffen ersetzen kann. Aber die Frage ist, war das in erster Linie der Zweck? In diesem Kapitel wird argumentiert, dass Forscher und Praktiker von Informationssystemen die einzigartigen Qualitäten der von ihnen verwendeten Technologien kennen und sie mit den kulturellen Qualitäten der Menschen in Verbindung bringen sollten. Diese kulturellen Fragen befassen sich hauptsächlich mit der Einstellung der Menschen zur Zeit und zu den Menschen. Jeder ist sich wahrscheinlich bewusst, dass manche Menschen dazu neigen, monochron und andere polychron zu sein. Monochrone Menschen neigen dazu, sowohl die Kommunikation als auch die Aufgaben zu sequenzieren. Sie würden beispielsweise nicht geneigt sein, ein Telefongespräch zu unterbrechen, um eine dritte Person zu begrüßen. Polychronische Menschen können mehrere Gespräche gleichzeitig führen, sie würden es sogar als unhöflich betrachten, dies nicht zu tun. Monochrone Menschen sind dem Job verpflichtet, während polychrone Menschen gruppenorientiert sind, sich eher für Menschen engagieren und dazu neigen, lebenslange Beziehungen aufzubauen (Hall und Hall, 1990).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0561-9_11 0e9e4542e2b89d756dc33d2607faeee4;de;;;7.2.;;;Neuer 2-Tupel-Linguistischer Aggregations-Distanzoperator und seine Anwendung auf die Sicherheitsbewertung von Informationssystemen In diesem Artikel wird ein neuer 2-Tupel-linguistischer Aggregationsoperator namens 2-tupellinguistischer geordneter gewichteter Mittelwert-gewichteter Mittelungsabstand (2TLOWAWAD) vorgestellt. Einige seiner wünschenswerten Eigenschaften und Familien werden weiter erforscht. Darüber hinaus wird durch Verwenden des vorgeschlagenen Operators ein Verfahren für das 2-Tupel-linguistische Multiattribut-Entscheidungsfindungsproblem entwickelt. Schließlich wird ein anschauliches Beispiel zur Sicherheitsbewertung von Informationssystemen bereitgestellt, um die Anwendbarkeit und Wirksamkeit des vorgeschlagenen Verfahrens zu veranschaulichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67071-3_59 c1f3f40b75539437d10b78fb3811c3a8;de;;;7.1.;;;Anpassungsfähige Produktionsstrukturen Unternehmen der verarbeitenden Industrie agieren heute in einem turbulenten Umfeld. Dies wird vor allem durch die Technologie, die Globalisierung der Märkte und den permanenten Wandel von Angebot und Nachfrage verursacht. Wirksame Überlebensstrategien können nur entwickelt werden, wenn Strukturen ständig angepasst werden [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55776-7_4 efe24571fa995d9622279af056cf9a80;de;;;7.1.;;;LatYourLife: Eine Anwendung zur geo-zeitlichen Aufgabenplanung Ziel dieser Forschung war es, eine prototypische Anwendung zu bauen, die modernste Web-Mapping- und mobile Technologien verwendet, um die täglichen Aufgaben der Menschen mit der Geografie zu verbinden und ihnen so eine neue Perspektive der Aufgabenplanung zu bieten. Dies wurde durch die Implementierung eines räumlichen Kalenders erreicht, also einer Planungsanwendung, die nicht nur die zeitlichen Informationen zu jedem Ereignis, sondern auch eine räumliche Komponente speichert. Der Hauptzweck bestand darin, die potenziellen Funktionalitäten von geo-zeitlichen Daten zu untersuchen, um das Aufgabenmanagement zu verbessern. Die Anwendung wurde von Benutzern getestet, die positiv reagierten, aber gleichzeitig die Probleme hervorhoben, die eine solche Anwendung angehen muss, um erfolgreich zu sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24198-7_20 4d5be199b02d1b2f464c8705ed756274;de;;;7.2.;;;Zusammenfassungsgenerierung mit Schwerpunkt auf wichtigen Wörtern Wir haben ein zusammenfassendes System ABISYS basierend auf den Ergebnissen des semantischen Analysesystems SAGE entwickelt. ABISYS extrahiert wichtige Wörter aus einem Artikel und generiert zusammenfassende Sätze entsprechend den Wortbedeutungen und den tiefen Fällen zwischen den Wörtern in der Ausgabe von SAGE. In diesem Papier definieren wir fünf Arten von Scores, um die Bedeutung eines Wortes jeweils für Wiederholungsinformationen, Kontextinformationen, Positionsinformationen, Meinungswortinformationen und Themenfokusinformationen zu bewerten. Wir berechnen zunächst die obigen Scores für jeden Substantiv und spiegeln sie in einem fünfdimensionalen Raum wider. Dann wird die Wahrscheinlichkeit, dass jeder Substantiv wichtig ist, unter Verwendung einer Pan-Distanz von Mahalanobis berechnet. Schließlich ergänzen wir die unverzichtbaren Fälle für Verben und die als wichtige Wörter ausgewählten Sahen-Substantive und verwenden sie als Zusammenfassungselementwörter, um leicht lesbare japanische Sätze zu generieren. Wir haben eine Subjektivitätsbewertung für unsere Systemausgabe durchgeführt, indem wir uns auf die von Menschen erstellten Zusammenfassungen bezogen haben. Im Vergleich zu den Subjektivitätsbewertungen anderer zusammenfassender Systeme stellten wir fest, dass die Lesbarkeit auf Augenhöhe mit anderen Systemen war, während die inhaltliche Abdeckung deutlich besser war. Und 95 % der von ABISYS generierten Zusammenfassungssätze wurden als korrekte japanische Sätze anerkannt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-31871-2_5 649d74c7c87e457d3163602a8eed8ba8;de;;;7.1.;;;Verbesserung der Planung durch interaktive Methodenforschung Das Hawaii Environmental Simulation Laboratory (HESL) war ein dreijähriges Experiment zur Verbesserung der Entscheidungsfindung von Regierungen durch die Entwicklung besserer Forschungsmethoden zur Verwendung durch öffentliche Entscheidungsgremien und Gemeindeorganisationen. Gefördert durch die University of Hawaii von der Ford Foundation (FF) und der National Science Foundation (NSF), führte HESL seine Forschungen durch;-;-;-;https://link.springer.com/article/10.1007/BF01867001 1f71e8841b7dfa553bae222144f39b40;de;;;7.1.;;;Eine Untersuchung der Einführung von Informationssystemen In diesem Papier wird die Entwicklung eines kompetenzorientierten Ansatzes erläutert, der Unternehmen dabei unterstützen kann, Hindernisse für eine erfolgreiche Einführung von Informationssystemen besser zu antizipieren. Dieser Ansatz wird in einer interpretativen Feldstudie in einem australischen IT-Unternehmen verwendet. Aus einer Perspektive, die Informationssysteme als Werkzeuge betrachtet, wird der Ansatz verwendet, um die Management-Kontrollfähigkeiten zu analysieren, die für die Verwendung eines bestimmten Management-Informationssystems erforderlich sind. Ein Skill-Match zwischen den vom Tool-Hersteller angenommenen Management-Control-Skills und den Skills des Tool-Benutzers zeigt, warum eine Gruppe von Benutzern mit einem hohen Match-Grad das Tool übernommen hat, während eine andere mit einem niedrigen Match-Grad dies nicht tat . Die Studie zeigt, dass der kompetenzorientierte Ansatz ein valider und effektiver Weg ist, die Angemessenheit eines Informationssystems zu bestimmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-72804-9_7 9de1bd796bcc361e91a9eec314b48607;de;;;7.1.;;;Das Problem der generischen Material- und Betriebsplanung (GMOP) wurde iterativ gelöst: Eine Fallstudie im Kontext mehrerer Standorte Dieses Papier befasst sich mit dem Problem der Generic Materials and Operations Planning (GMOP), einem Multi-Site-Operationsplanungsproblem, das auf dem „Stroke“-Konzept basiert. Das Problem betrifft ein multinationales Unternehmen mit positiven und negativen Rückständen durch den Einsatz von Mehrwegregalen, die mit Endprodukten gefüllt und zum Kunden transportiert werden müssen, alternative Vorgänge (Einkauf, Transformation und Transport), unterschiedliche Stücklistenstrukturen aufgrund der unterschiedlichen Vorgangsarten (Einspritzen) Betriebsabläufe, Montagevorgänge), die in den verschiedenen Fabriken der Lieferkette durchgeführt werden, und kapazitive Produktionsressourcen. Dieses Papier beschreibt und definiert das „Stroke“-Konstrukt, das die Beziehungen zwischen Operationen und Materialien mathematisch modelliert. Der mathematische Modellierungsansatz wird ebenso bereitgestellt wie eine kurze Beschreibung eines implementierten Betriebsplanungstools. Darüber hinaus wurden einige Ergebnisse vorgestellt, die bei einem First-Tier-Level-Zulieferer der Automobilindustrie erzielt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33980-6_8 521b35fedc28d4706ce25673b5770a78;de;;;7.2.;;;Ein- und zweisprachige Experimente in GeoCLEF2006 Dieser Beitrag präsentiert die Ergebnisse unserer Experimente in den einsprachigen Aufgaben Englisch, Spanisch und Portugiesisch und den zweisprachigen Aufgaben Spanisch → Englisch, Spanisch → Portugiesisch, Englisch → Spanisch und Portugiesisch → Spanisch. Wir haben die Terrier Information Retrieval Platform verwendet, um Experimente für beide Aufgaben mit dem Inverse Document Frequency-Modell mit Laplace-Nachwirkung und Normalisierung 2 durchzuführen. Die Experimente umfassten Themen, die automatisch verarbeitet wurden, sowie Themen, die manuell verarbeitet wurden. Die manuelle Bearbeitung der Themen erfolgte über Gazetteer. Für die zweisprachige Aufgabe haben wir eine Komponente entwickelt, die auf dem Transferansatz der maschinellen Übersetzung basiert. Themen wurden automatisch vorverarbeitet, um Stoppwörter zu eliminieren. Anschließend wurden Themen aus der Ausgangssprache in die Zielsprache übersetzt. Die Auswertung der Ergebnisse zeigt, dass der Ansatz im Allgemeinen gut funktionierte, aber die Anwendung von mehr natürlichen Sprachverarbeitungstechniken würde die Abrufleistung verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74999-8_113 91ff75b413f4dd8db180aeb48ae6234b;de;;;7.2.;;;Benutzerinteraktion mit der hierarchisch strukturierten Präsentation beim Abrufen von XML-Dokumenten Im Interface-Design des diesjährigen XML-Dokumenten-Retrieval-Systems wurden gemäß den Ergebnissen des Interactive Tracks in INEX 2004 einige Änderungen vorgenommen. Eine der wichtigsten Änderungen war die hierarchische Struktur der Darstellung in den Suchergebnissen. Der Hauptzweck unserer Studie war zu untersuchen, wie die hierarchische Darstellung von Schnittstellen das Verhalten der Suchenden beim Abrufen von XML-Dokumenten beeinflusst. Um dieses Ziel zu erreichen, haben wir die Transaktionsprotokolle des diesjährigen Experiments analysiert und die Ergebnisse mit denen des letztjährigen Experiments verglichen. Auch die Kommentare der Probanden zum Experiment und zum System wurden untersucht. Es wurde das Daffodil XML-Retrieval-System verwendet und 12 Testpersonen nahmen an dem Experiment teil. Für die statistische Analyse wurde SPSS für Windows 12.0 verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-34963-1_32 320a3cbe1bfa30a3109a075b699d18f2;de;;;7.1.;;;Eine kurze Geschichte der Budgetierung: Überlegungen über die Budgetierung hinaus, ihre Verbindung zum Performance Management und ihre Eignung für die Softwareentwicklung Software Beyond Budgeting ist eine Innovation aus der Management-Accounting-Literatur, die darauf abzielt, die Leistung zu verbessern und Organisationen durch flexible Sense-and-Reaktion-Mechanismen anstelle der starreren traditionellen Command-and-Control-Modelle zu verwalten. Dieses zeitgenössische Denken im Management Accounting schwingt stark mit dem zeitgenössischen Denken in der Entwicklung von Informationssystemen (ISD) mit. Insbesondere das Beyond Budgeting-Modell weist viele Ähnlichkeiten mit der agilen Softwareentwicklung (ASD) auf, da beide eine ausgesprochen agile und flexible Grundlage haben. Dieser Beitrag diskutiert die Geschichte von Beyond Budgeting, seine Beziehung zum Performance Management und seine Eignung für den Bereich der Softwareentwicklung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-44930-7_6 fcb33c279cede5c5a20a0db2a3b9bc27;de;;;7.1.;;;Qualitätsmanagement in humanitären Einsätzen und Katastrophenhilfe: ein Rückblick und zukünftige Forschungsrichtungen Qualitätsmanagement wurde in der Literatur breit diskutiert, und jüngste Sonderthemen zu humanitären Lieferketten und Hilfseinsätzen haben die zunehmende Bedeutung des Qualitätsmanagements in diesem wichtigen, aufstrebenden Bereich hervorgehoben. In diesem Beitrag bieten wir einen umfassenden Literaturüberblick im Bereich des Qualitätsmanagements in humanitären Einsätzen und des Katastrophenschutzmanagements. Unser umfassender Review mit 61 Artikeln, die von 2009 bis 2018 veröffentlicht wurden, führt zur Identifizierung von Enablern (zB Transparenz, politische Rahmenbedingungen), Herausforderungen (zB Finanzdienstleistungen, Identitätsschutz) und Ansätzen zur Theorieentwicklung sowie zahlreicher Forschungslücken gap das muss angegangen werden.;-;-;-;https://link.springer.com/article/10.1007/s10479-020-03695-5 3c4e34344a0f8bc35911804106165baa;de;;;7.2.;;;Metriken für die Tag Cloud-Bewertung Tag Clouds sind seit ihrem Erscheinen weit verbreitete Tools im Internet. Die Hauptzwecke dieser textuellen Visualisierungen sind das Abrufen von Informationen, die Darstellung von Inhalten und das Durchsuchen von Text. Trotz ihrer weiten Verbreitung und der Vielzahl an Untersuchungen, die zu ihnen durchgeführt wurden, bewerten die wichtigsten in der Literatur verfügbaren Metriken die Qualität der Tag-Cloud allein auf der Grundlage der Abfrageergebnisse. Es gibt keine angemessenen Metriken, wenn die Tag-Cloud aus Text extrahiert und zur Darstellung von Informationsinhalten verwendet wird. In dieser Arbeit werden drei neue Metriken für die Bewertung von Tag Clouds vorgeschlagen, deren Hauptfunktion darin besteht, den Informationsgehalt darzustellen: Abdeckung, Überlappung und Disparität, sowie eine vierte Metrik: die Bilanz, in der wir eine Berechnungsmethode vorschlagen durch Verwendung von OWA-Operatoren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-91473-2_25 467b69da84defc434da39a843fb61325;de;;;7.2.;;;CSUSM-Experimente in GeoCLEF2005: Ein- und zweisprachige Aufgaben Dieser Beitrag präsentiert die Ergebnisse unserer ersten Experimente in der einsprachigen Englischaufgabe und der zweisprachigen Spanisch → Englischaufgabe. Wir haben die Terrier Information Retrieval Platform verwendet, um Experimente für beide Aufgaben unter Verwendung des Inverse Document Frequency-Modells mit Laplace-Nachwirkung und Normalisierung 2 durchzuführen. Weitere Experimente wurden mit Indri durchgeführt, einer Retrieval-Engine, die Inferenznetzwerke mit Sprachmodellierung kombiniert. Für die zweisprachige Aufgabe haben wir eine Komponente entwickelt, um die Themen zunächst aus dem Spanischen ins Englische zu übersetzen. Für keine der Aufgaben wurde eine räumliche Analyse durchgeführt. Eines unserer Ziele ist es, eine Baseline zu haben, um weitere Experimente mit der Begriffsübersetzung von Georeferenzen und der räumlichen Analyse zu vergleichen. Ein weiteres Ziel ist es, Ontologien für integrierte geographische Informationssysteme zu verwenden, die an die IR-Aufgabe angepasst sind. Unsere ersten Ergebnisse zeigen, dass die bereitgestellten geografischen Informationen die Abrufleistung nicht wesentlich verbessern. Wir haben die geographischen Begriffe aufgenommen, die in allen Feldern vorkommen. Die Duplizierung von Begriffen könnte den Informationsgewinn verringert und das Ranking beeinflusst haben.;-;-;-;https://link.springer.com/chapter/10.1007/11878773_107 57afd8e54cab3c468ac3762a98a5d894;de;;;7.1.;;;Kritische Erfolgsfaktoren für die ERP-Systemimplementierung Da immer mehr Unternehmen von einer funktionalen zu einer prozessbasierten IT-Infrastruktur wechseln, wird das ERP-System heute in vielen großen Unternehmen zu einer der am häufigsten verwendeten IT-Lösungen. Trotz der weit verbreiteten IT-Lösungen sind viele ERP-Implementierungen nicht erfolgreich. Es dauert länger und kostet mehr Geld als erwartet. Angesichts der großen Investitionen, die ein ERP-Projekt erfordert, und der potenziellen Vorteile, die es bei erfolgreicher Implementierung bieten kann, ist es wichtig zu verstehen, was für eine erfolgreiche ERP-Implementierung erforderlich ist. In diesem Beitrag versuchen wir, die kritischen Erfolgsfaktoren (CSFs) für die Implementierung eines ERP-Systems sowohl aus Management- als auch aus Technologieperspektive zu untersuchen. Basierend auf den Erkenntnissen aus der bisherigen Literatur und Fallstudien schlagen wir einen konzeptionellen Rahmen für die erfolgreiche Einführung eines ERP-Systems vor. Dieser Rahmen fasst die CSFs zusammen, die während eines gesamten Prozesses der ERP-Implementierung behandelt werden müssen, d. h.: Pre-Implementation-Phase, Implementierungsphase und Post-Implementation-Phase. Einschränkungen und zukünftige Forschungsrichtungen werden am Ende abgeschlossen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75902-9_83 d0544eedc9045639700432a875a47edd;de;;;7.1.;;;Die Rolle von Extreme Programming in einer plangesteuerten Organisation Die Schwierigkeiten und sogar der Mangel an Engagement, Plänen in planbasierten Organisationen zu folgen, sind ein bekanntes Phänomen (siehe tikyaCiborra et al. 2000, Suchman 1987). Für Softwareentwicklungsunternehmen ist dieses Problem zu einem zunehmenden Dilemma geworden, da normalerweise plangesteuerte Bewertungsstandards für die Softwareentwicklung wie das Capability Maturity Model (CMM) oder ISO/IEC 15504 nicht immer leicht zu erfüllen waren. Insbesondere in Umgebungen mit sich schnell ändernden Anforderungen haben sich agilere Ansätze wie Scrum und Extreme Programming (XP) durchgesetzt. In dieser Arbeit berichten wir von einer Fallstudie einer Organisation, die sich nicht vollständig von ihren planbasierten Prozessen entfernen möchte (da sie nur Teil einer größeren Organisation sind, die planbasiert arbeitet), sondern ihre übergreifenden Prozesse anpassen Prozesse so zu gestalten, dass sie XP nutzen können, um ihre tägliche Arbeit zu unterstützen, die von ihren aktuellen Prozessen ausgeschlossen ist. Zu diesem Zweck stellen wir vier Perspektiven vor, die Unternehmen einnehmen können, wenn sie eine agilere Entwicklung wünschen oder in Erwägung ziehen. Wir verwenden das Nerur et al. (2005) Schlüsselthemen für den Übergang von der planbasierten zu einer agilen Softwareentwicklung, um unsere Ergebnisse zu vergleichen und zu analysieren. Dabei heben wir eine Reihe wahrscheinlicher Kriterien hervor, die erforderlich sind, um erfolgreich eine Kombination aus plangesteuertem und agilem Ansatz zu schaffen.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-34410-1_20 0c16172ae7fcdb7672a2ede25a5de4ae;de;;;7.1.;;;Strukturierung großskaliger komplexer Hybridsysteme: von der illustrativen Analyse zur Modellierung Die Systemstrukturierung ist für die Entwicklung von großskaligen komplexen Hybridsystemen (LCHS) von größter Bedeutung. Es gibt jedoch keine etablierte und effektive Methodik zur Strukturierung von LCHS. Mit dem Ansatz des Illustrierens und Abstrahierens untersucht dieser Beitrag die Strukturierung von LCHS anhand verschiedenster Anwendungen. Zunächst werden die intrinsischen Eigenschaften von LCHS untersucht. Anschließend wird eine einheitliche Framework-basierte Analyse von sechs typischen Beispielen für LCHS durchgeführt, dh menschliche Gehirn-Körper-Systeme, autonome Robotersysteme, autonome Fed-Batch-Reaktorsysteme, Mensch-Auto-Fahrsysteme, autonome urbane Verkehrssysteme und autonome Produktion Herstellung/industrieller Prozess) Systeme. Auf diese Weise werden Gemeinsamkeiten typischer Beispiele, z. B. Wahrnehmungs-Entscheidungs-Verknüpfung, Verteilung, Verschachtelung, Hierarchie, multiple Abstufung und hybride Dynamik über ein Spektrum von Zeittreibern, und im Übrigen breite Anwendungsorientierungen von LCHS aufgezeigt. Darüber hinaus werden nach der Formulierung grundlegender Konzepte für die Modellierung von LCHS zwei neuartige universelle Informationsverarbeitungsmodule vorgeschlagen und konstruiert, die als Wahrnehmungswürfel und Entscheidungssphäroid bezeichnet werden. Darauf aufbauend wird ursprünglich ein neuartiges blockdiagrammbasiertes Modell für LCHS vorgeschlagen und etabliert.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008152518630 831f515c9882d0f6fda209ffc113ed87;de;;;7.1.;;;Rituale in der E-Government-Implementierung: Eine Fehleranalyse Dieses Papier präsentiert eine Fallanalyse einer gescheiterten E-Government-Implementierung im Kontext von Entwicklungsländern. Das Projekt umfasste den Bau eines großen Systems für eine Zentralregierung in Indien. Nach sieben Jahren und einigen Millionen Rupien an Kosten wurde das Projekt beendet. Frühere Forschungen zu fehlgeschlagenen Implementierungen von Informationssystemen haben viele Probleme aufgezeigt, von denen die meisten jetzt Teil der Literatur zum Softwareprojektmanagement sind. Bei E-Government-Systemen sind die Misserfolgsquoten insbesondere in Entwicklungsländern sehr hoch, obwohl wissenschaftliches Projektmanagement fleißig betrieben wird. Die Analyse in diesem Papier legt nahe, dass, obwohl Probleme der mangelnden Benutzerbeteiligung, unzureichender Delegation und falscher Planung verantwortlich sind, die Hauptursachen die Rituale sind, die das Management eingeführt hat, die offensichtliche Rationalität hatten, aber begrabene Absichten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14799-9_20 3f5fe5bbf6d86191aae99c770ba031ed;de;;;7.1.;;;Modellierungsmechanismus für ein digitales Managementsystem der Gemeinschaft basierend auf UML Das Community Digital Management System ist ein wichtiges Mittel des Community Digital Managements. Herkömmliche Systemanalyse-Entwurfsmethoden waren schwierig, die Effizienz und Qualität der Softwareentwicklung zu garantieren. Objektorientierte Technologie kann dieses Problem effektiv lösen. UML ist ein Standard für objektorientierte Softwaresystemmodellierungswerkzeuge. In diesem Artikel wurde der UML-Modellierungsmechanismus vorgestellt. Auf der Grundlage der Analyse der Funktionen des Community Digital Management Systems wurde das von UML verwendete Papier zur Modellierung des Community Digital Management Systems verwendet, das eine theoretische Grundlage für die weitere Entwicklung des Systems bietet. Die auf UML basierende Modellmethode kann den Softwareentwicklungsprozess beschleunigen und die Softwarequalität verbessern. Gleichzeitig kann es dynamische Geschäftsanforderungen unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-4844-9_28 d73ed6e82720e2d17e87ba30cef63b5d;de;;;7.1.;;;Ein Management-Informationssystem Was ist das und warum? Der einzige Wert, den Informationen für das Management haben, besteht darin, bessere Entscheidungen treffen zu können. Es scheint kaum notwendig, das Prinzip zu verteidigen, dass Managementinformationen nur so lange wertvoll sind, wie sie im Entscheidungsprozess helfen, und doch war von den mehreren Dutzend großen managementorientierten Informationssystemen, die ich gesehen habe, keines explizit auf Entscheidungsfindung ausgerichtet. In den meisten Fällen vernachlässigte der Systemdesigner systematisch die Entscheidungen, die aus den Informationen getroffen werden konnten, um Fragen zu analysieren, die durch Manipulation der Daten beantwortet werden konnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-05183-1_7 fc38cfb38d72a61d9bf4afb3682e0736;de;;;7.1.;;;Gis-Modellanwendungen für nachhaltige Entwicklung und Umweltplanung auf regionaler Ebene Eine 5-jährige Kooperation zwischen den Universitäten München (Deutschland) und Redlands (USA) hat zur Entwicklung von GIS-Verarbeitungswerkzeugen und -modellen zur Unterstützung der regionalen Umweltplanung und -verwaltung geführt. Große räumliche Datenbanken wurden strukturiert und moderne Geoverarbeitungstechnologien wie die von ESRI;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-2899-0_4 0fc7f2fae0aab317aed1db92d49e58a0;de;;;7.2.;;;Informationsstrukturen Unterschiedliche Anwendungsbereiche verwenden unterschiedliche konzeptionelle Mittel zur Darstellung von Informationen über die von ihnen behandelten Domänen. Es ist zu beobachten, dass eine Vielzahl von Informationsstrukturen und Daten die Begriffe „Objekt“ und „Eigenschaft“ als elementarste Informationen verwenden. Oft wird der Begriff des Eigentums in zwei Komponenten gespalten: ein Attribut und sein Wert. Diese Begriffe sind grundlegend, zum Beispiel in der Theorie der Datenbanken. Ebenso ist es in der Kognitionswissenschaft und Logik gut etabliert, dass eine Analyse von Konzepten auf diesen Begriffen basiert. Ein Begriff wird durch seine Ausdehnung (oder Denotation) und Intension (oder Konnotation) bestimmt. Die Erweiterung eines Begriffs besteht aus den Objekten, die Instanzen dieses Begriffs sind, und die Intension eines Begriffs besteht aus den Eigenschaften, die für die Objekte charakteristisch sind, für die dieser Begriff gilt. In diesem Kapitel stellen wir verschiedene Informationsstrukturen vor, die „Objekt“ und „Eigenschaft“ als Grundbegriffe verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-04997-6_2 7f377e36ca941ab51952d73138b35710;de;;;7.1.;;;Unterstützung bei der Planung und Organisation mehrerer Tätigkeiten am Arbeitsplatz Viele Studien haben gezeigt, wie Wissensarbeiter Herausforderungen beim Multitasking zwischen mehreren Projekten und Initiativen am Arbeitsplatz begegnen. Forscher und Berater der persönlichen Produktivität haben praktische Strategien und Prozesse identifiziert, mit denen Menschen ihre Aktivitäten bewältigen, planen und verwalten. Unsere Arbeit basiert auf der Analyse der Prozesse und Strategien des Personal Activity Management (PAM) unter Betonung der Planungsaspekte mit dem Ziel, eine geeignete unterstützende Informationstechnologie zu gestalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74796-3_22 dc7696da08f8fe66e7de62c7c82c37eb;de;;;7.1.;;;Ein Framework für Software-Risikomanagement Wir präsentieren ein einfaches, aber leistungsstarkes Framework für das Software-Risikomanagement. Das Framework synthetisiert, verfeinert und erweitert aktuelle Ansätze zum Management von Softwarerisiken. Wir veranschaulichen seine Nützlichkeit durch eine empirische Analyse von zwei Softwareentwicklungsepisoden mit hohen Risiken. Das Rahmenwerk kann als analytisches Instrument zur Bewertung und Verbesserung von Risikomanagementansätzen sowie als praktisches Instrument verwendet werden, um die Aufmerksamkeit von Risikomanagern zu lenken und zu leiten.;-;-;-;https://link.springer.com/article/10.1057/jit.1996.2 4f5ba5e4965a404f198f0280a41e53f1;de;;;7.2.;;;Aggregation von Dokumentenhäufigkeiten in unstrukturierten P2P-Netzwerken Peer-to-Peer (P2P)-Systeme wurden kürzlich vorgeschlagen, um Such- und Informationsabrufmöglichkeiten über verteilte Datenquellen, einschließlich Webdaten, bereitzustellen. Begriffe und ihre Dokumentenhäufigkeit sind die Hauptbausteine ​​des Abrufs und müssen als solche berechnet, aggregiert und im gesamten System verteilt werden. Dies ist eine mühsame Aufgabe, da die lokale Ansicht jedes Peers aufgrund verzerrter Dokumentverteilungen möglicherweise nicht die globale Dokumentensammlung widerspiegelt. Darüber hinaus ist eine zentrale Zusammenstellung der Gesamtinformationen aufgrund der unerschwinglichen Kosten für Speicherung und Wartung sowie aufgrund von Problemen im Zusammenhang mit der Verwaltung digitaler Rechte nicht möglich. In diesem Papier schlagen wir einen effizienten Ansatz vor, um die Dokumenthäufigkeiten sorgfältig ausgewählter Begriffe basierend auf einem hierarchischen Overlay-Netzwerk zu aggregieren. Zu diesem Zweck untersuchen wir unüberwachte Merkmalsauswahltechniken auf der Ebene einzelner Peers, um nur einen begrenzten Satz der wichtigsten Aggregationsbegriffe zu identifizieren. Wir liefern eine theoretische Analyse, um die Kosten unseres Ansatzes zu berechnen, und führen Experimente an zwei Dokumentensammlungen durch, um die Qualität der aggregierten Dokumentenhäufigkeiten zu messen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04409-0_8 877a60a6637535134d36bdaea8a82721;de;;;7.2.;;;Grafikbasierter Konzeptabruf Es werden zwei Möglichkeiten vorgestellt, Konzepte im Kontext der Bildsuche auszudrücken. Einer, Keypics, steht auf der Seite eines Bildbesitzers, der das Bild selbst im Web finden möchte, der zweite, Trittico, ist auf der Seite des Bildersuchers. Beide basieren auf dem Paradigma der menschlichen Vermittlung zur Überwindung der semantischen Lücke. Beide erfordern Werkzeuge, die zur qualitativen Analyse in der Lage sind, und wurden unter Verwendung von persistenter Homologie experimentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40511-2_33 22eb93555541c436a8be7ad85053b5a1;de;;;7.2.;;;Einige Fragen zur Monte-Carlo-Simulation im AIB-Algorithmus Der hierarchische Clustering-Algorithmus ist effizient beim Reduzieren der Bytes, die zum Beschreiben der ursprünglichen Informationen benötigt werden, während die ursprüngliche Informationsstruktur erhalten bleibt. Die Information Bottleneck (IB)-Theorie ist ein hierarchisches Clustering-Framework, das von der Informationstheorie abgeleitet ist. Der Agglomerative Information Bottleneck (AIB)-Algorithmus ist ein suboptimales agglomeratives Clustering-Verfahren, das zum Optimieren des ursprünglichen rechenintensiven IB-Algorithmus entwickelt wurde. Aber die Monte-Carlo-Simulationsformel, die für Verzerrungsmessungen im AIB-Algorithmus weit verbreitet ist, ist problematisch. Dieses Papier bezeugte, dass ein Widerspruch zwischen der angenommenen Monte-Carlo-Formel und dem IB-Prinzip besteht. Zur Ausweitung spezieller Verzerrungsmaße auf gängige Entfernungen präsentiert das Papier auch mehrere Vorschläge. Und Experimente zeigen ihre Effizienz und Verfügbarkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68636-1_48 389cb93ec9486b39be11d234a11ce259;de;;;7.2.;;;Berechnen optimaler Abfragen aus der Abfragerelevanzdatei Die Abfrageerweiterung könnte eine sehr signifikante Verbesserung der Basisergebnisse des Information Retrieval-Prozesses bringen. Dies ist seit vielen Jahren bekannt, aber sehr detaillierte Ergebnisse zu annotierten Sätzen bieten einen tieferen Einblick in den bevorzugten hinzugefügten Wortraum. In dieser Arbeit stellen wir neue erweiterte Begriffsadäquanzmaße in Bezug auf die Begriffshäufigkeit und die inverse Dokumentenhäufigkeit in relevanten und nicht relevanten Dokumentengruppen vor. Termbewertungspunkte werden anhand von zwei Termmerkmalen abgeleitet: inverse Termrepräsentativität und Term-Usability. Wir generieren die Optimal Queries basierend auf den Dokumenteninhalten und den Qrels-Dateien der Daten, die im Text Retrieval Conference 2016 – Clinical Decision Support Track (TREC-CDS 2016) verwendet werden. Die Verbesserung kann je nach Bewertungsmaßnahme bis zu Faktor 2 betragen. Potentiell kann die Methode durch Erhöhung des Lernsatzes verbessert und auf das Wiederauffinden von Dokumenten in biomedizinischen Wettbewerben angewendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98678-4_26 11203472c508f047f2992360f30d0e5a;de;;;7.1.;;;Einführung von Multi-Agenten-Systemen in menschliche Organisationen: Anwendung auf ein Multi-Agenten-Informationssystem Agenten werden zunehmend für die Suche nach Informationen im Internet verwendet. Sie werden jedoch grundsätzlich als Einzelagenten und nicht als Teil eines Mehragentensystems verwendet. Tatsächlich verwenden nur wenige Projekte Agenten, die miteinander kommunizieren oder zusammenarbeiten. Dieser Mangel an Kommunikation führt oft dazu, dass Benutzer vor ihrem Computer isoliert sind. Wir denken, dass es für den Benutzer eines Informationssuchsystems (wie zum Beispiel ein Akteur einer technologischen Überwachungszelle oder ein Forscher in einem Labor) notwendig ist, sich dessen bewusst zu sein, wonach seine Kollegen suchen (oder zumindest haben) Kenntnis eines Teils ihrer Recherchen). Dies soll Redundanzen von Informationen und Arbeit vermeiden und ein Teamgefühl unter den Akteuren (wieder) erzeugen. Aus diesem Grund schlagen wir in diesem Artikel ein Multiagenten-Informationssystem vor, das sich selbst aus Multiagentensystemen zusammensetzt, die sich auf dem Computer jedes Akteurs einer technologischen Überwachungsabteilung befinden und miteinander und mit den Akteuren zusammenarbeiten. Diese Multi-Agenten-Architektur wurde in Absprache mit den Akteuren einer realen Abteilung nach der Analyse und Modellierung ihrer Aktivitäten ausgewählt. Die Methode zur Integration eines Multi-Agenten-Systems in eine menschliche Organisation wird ebenfalls in diesem Artikel diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39597-3_17 37aeeddb2f11755062cfca3ff9333c0a;de;;;7.2.;;;Berechtigungsbewertung mit Delegation und Negation Die Zugriffsbewertung ist ein wichtiges Thema in jedem intelligenten Informationssystem. In diesem Papier entwickeln wir einen auf Logikprogrammierung basierenden Ansatz für dezentrale Berechtigungsdelegationen, bei dem Benutzern bestimmte Zugriffsrechte delegiert, gewährt oder verboten werden können. Ein Satz domänenunabhängiger Regeln wird angegeben, um die Merkmale der Delegationskorrektheit, Konfliktlösung und Autorisierungsweitergabe entlang der Hierarchien von Subjekten, Objekten und Zugriffsrechten zu erfassen. Die Grundidee besteht darin, diese allgemeinen Regeln mit einer Reihe von domänenspezifischen Regeln zu kombinieren, die vom Benutzer definiert werden, um die Berechtigungen im System abzuleiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36562-4_59 acc5b71200fda621af6d9f02a6156da3;de;;;7.2.;;;Charakterisierung des Hypergraphen der Entität und der strukturellen Auswirkungen seiner Erweiterungen Der Hypergraph-of-Entity ist ein gemeinsames Darstellungsmodell für Begriffe, Entitäten und deren Beziehungen, das als Indizierungsansatz in der entitätsorientierten Suche verwendet wird. In dieser Arbeit charakterisieren wir die Struktur des Hypergraphen im mikroskopischen und makroskopischen Maßstab sowie im Zeitverlauf mit zunehmender Anzahl von Dokumenten. Wir verwenden einen Random-Walk-basierten Ansatz, um kürzeste Entfernungen zu schätzen, und Knotenstichproben, um Clustering-Koeffizienten zu schätzen. Wir schlagen auch die Berechnung eines allgemeinen Dichtemaßes für gemischte Hypergraphen basierend auf dem entsprechenden zweiteiligen gemischten Graphen vor. Wir analysieren diese Statistiken für den Hypergraph-of-Entity und stellen fest, dass hyperkantenbasierte Knotengrade als Potenzgesetz verteilt sind, während knotenbasierte Knotengrade und Hyperkantenkardinalitäten lognormalverteilt sind. Wir stellen auch fest, dass die meisten Statistiken nach einer anfänglichen Phase akzentuierten Anstiegs der Zahl der Dokumente tendenziell konvergieren. Anschließend wiederholen wir die Analyse über drei Erweiterungen – materialisiert durch;-;-;-;https://link.springer.com/article/10.1007/s41109-020-00320-z caccdefb6046b0e831754cb62bfabd77;de;;;7.1.;;;Informationssystempraxis für Entwicklung in Afrika: Ergebnisse von Indehela In diesem Beitrag suchen wir nach Antworten auf die Frage: Kann die Entwicklung von Informationssystemen (ISD) in Afrika durch afrikanische IS-Praktiker zur menschlichen Entwicklung in Afrika beitragen? Genauer gesagt fragen wir, ob die tägliche ISD-Praxis in Nigeria zur Gesundheit der Menschen in Nigeria beitragen kann. Wir fassen die Ergebnisse der mehr als 15-jährigen europäisch-afrikanischen Forschungskooperation zusammen. Von 1998 bis 2001 wurde ein Spektrum an Forschungsmethoden eingesetzt, darunter eine Umfrage zur Softwareindustrie (N = 103), eine Umfrage zur IS-Ausbildung an Hochschulen (N = 26), fünf Fallstudien in der Industrie und eine Reflexion über das Handeln an einer Hochschule -basiertes Projekt. Ein Branchenprofil von Softwareunternehmen und ihrer ISD-Praxis wird vorgestellt und dem verfügbaren Bildungsangebot gegenübergestellt. Es werden Implikationen für ISD-Praktiker gezogen und methodische Lehren für die IS-Forschung im Allgemeinen abgeleitet. In der Diskussion wird der Blick von Nigeria auf andere afrikanische und Entwicklungsländer ausgeweitet.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-34588-4_2 510b2e44993c67c23503cc2bc9389ab1;de;;;7.1.;;;Entscheidungsunterstützungssysteme und -management Das Konzept der Entscheidungsunterstützungssysteme ist nicht neu. Manager haben schon immer Entscheidungsunterstützungssysteme der einen oder anderen Art verwendet. Für viele Manager bedeutet es, eine Frage zu stellen, eine Antwort zu erhalten, dann die neu gefundenen Informationen zu verwenden, um eine weitere Frage zu stellen, eine weitere Antwort zu erhalten usw., bis ein Problem oder eine potenzielle Situation im Kopf einer Führungskraft klar genug für eine fundierte Entscheidung ist gemacht werden. Für diese Manager bedeutet das Aufkommen computerbasierter Entscheidungsunterstützungssysteme (DSS) in erster Linie, dass sie jetzt schneller Antworten auf Fragen erhalten als manuell. In anderen Fällen haben computergestützte DSSs den Managern Entscheidungsmöglichkeiten geboten, die ihnen in der Praxis zuvor nicht zur Verfügung standen. Ohne die Hilfe eines Computers mussten diese Entscheidungsträger häufig mitten im Entscheidungsprozess aufgeben, wenn sie erkannten, dass nicht genügend Informationen und Entscheidungshilfen zur Verfügung standen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-1388-6_25 b58836746854a79a2b844eaddbe2979f;de;;;7.1.;;;Management entwickelte DSS und organisatorische Transformation Vom Management entwickelte Entscheidungsunterstützungssysteme (DSS) sind ein wichtiger Faktor im Business Computing. Die meisten dieser DSS werden mit evolutionären Ansätzen entwickelt. Diese Ansätze betonen die kontinuierliche Weiterentwicklung von Entscheidungsaufgaben. Ein Nachteil der kontinuierlichen Weiterentwicklung von Entscheidungsaufgaben besteht darin, dass sie zur Ausnutzung alter Aufgaben führen kann, anstatt neue Möglichkeiten auszuloten. In einer Organisation, die mit diesem Problem konfrontiert war, wurde eine Intervention mit zwei in diesem Papier vorgestellten Ansätzen durchgeführt. Da vom Management entwickelte DSS für Unternehmen immer wichtiger werden, ist es wichtig, ihren Wert zu bewerten. Für eine solche Bewertung schlagen wir vor, dass die ressourcenbasierte Sichtweise des Unternehmens nützlich sein könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35348-7_8 a4aa2561933e8957291e20aff7268810;de;;;7.1.;;;Künstlicher Intelligenzansatz für die Produktionsplanung Zur Geschichte der Künstlichen Intelligenz (KI) gibt es unterschiedliche Ansichten. Einige verbinden den Beginn der KI mit dem Jahr 1842, als Charles Babbage zum ersten Mal an seinen Maschinen bastelte [1]. Andere betrachten das Jahr 1950, als das Buch;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-73318-5_10 2c80729684b8d6043586465d732c3c15;de;;;7.1.;;;Wiederverwendung im objektorientierten Informationssystemdesign Die Verbesserung der Wiederverwendung ist nach wie vor ein wichtiges Thema des Information Systems Engineering. Mehrere aktuelle objektorientierte Ansätze wie Patterns, Frameworks oder Business Components greifen dieses Thema in verschiedenen Phasen des Softwareentwicklungsprozesses auf. Dieser Workshop konzentrierte sich auf Werkzeuge, Techniken und Methoden, die entwickelt wurden, um die Wiederverwendung von Designelementen zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-46105-1_11 08b55c204c15560f488825e856526ee2;de;;;7.1.;;;Ein hybrider Partikelschwarm-Optimierungsalgorithmus für Auftragsplanungsprobleme von Stahlwerken In diesem Beitrag konstruieren wir ein ganzzahliges Programmiermodell für das Auftragsplanungsproblem. Unser Modell berücksichtigt den Bestandsabgleich und die Produktionsplanung gleichzeitig und berücksichtigt mehrere Ziele. Wir entwerfen eine hybride Partikelschwarmoptimierung, in der neue heuristische Regeln zur Reparatur nicht möglicher Lösungen vorgeschlagen werden, und vergleichen dann die Ergebnisse der Verwendung von PSO, Tabu Search und dem hybriden Algorithmus, um die Modelle von drei verschiedenen Ordnungsgrößen zu lösen. Numerische Ergebnisse zeigen, dass der hybride PSO/TS-Algorithmus effektivere Lösungen bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13495-1_70 3baf7bfdf24af5e8f0fad46f6e46ce6b;de;;;7.1.;;;Auf der Suche nach der Identität von Informationssystemen: Eine Studie aus interdisziplinären Kontexten Ziel: Der vorliegende Beitrag befasst sich mit dem Problem der Identität von Informationssystemen (IS), insbesondere wird versucht, die geistigen Ursachen zu identifizieren, die die Erforschung des Kerns des IS behindern, und schlägt vor, wie diese beseitigt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-04315-5_20 ba3d6795f6b625fb111b5be4dfbf1a4c;de;;;7.1.;;;Die individualisierte elektronische Zeitung: Eine anwendungskritische Hypertext-Technologie Das Publizieren ist ein verteilter Prozess, der durch die Zusammenarbeit verschiedener am Publikationsprozess beteiligter Experten gekennzeichnet ist. Heute setzen diese Experten dedizierte Systeme und Tools zur Erfüllung ihrer Aufgaben ein. Die Inkompatibilität zwischen diesen Tools behindert oft eine effiziente Zusammenarbeit. Um die heutige Veröffentlichungssituation zu verbessern, ist es wichtig, diese Inkompatibilitätsprobleme zu lindern. Darüber hinaus erfordert die Veröffentlichung elektronischer Dokumente eine verbesserte Unterstützung durch Veröffentlichungswerkzeuge und stellt die Hypertext-Technologie vor neue Herausforderungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-77822-3_6 b4a9f5a756d215130118500fdc79533c;de;;;7.1.;;;Ein integratives Wissensmanagement-Framework zur Unterstützung der ERP-Implementierung für eine verbesserte Entscheidungsfindung im Management in der Industrie Wissensmanagement (KM) wurde als einer der wichtigsten Erfolgsfaktoren für die Implementierung von Enterprise Resource Planning (ERP) identifiziert und hat in den letzten zehn Jahren beträchtliche akademische Aufmerksamkeit erhalten, während es kontinuierlich das Interesse der Industrie weckte. KM für die ERP-Implementierung ist jedoch aufgrund der Komplexität von ERP-Paketen, die in verschiedenen industriellen Kontexten verwendet werden, eine herausfordernde Aufgabe. Bei erfolgreicher Implementierung verbessern ERP-Systeme die Entscheidungsfindung des Managements, indem sie genauere, zeitnahe und integrierte unternehmensweite Informationen bereitstellen. Diese Studie schlägt einen integrativen KM-Kompetenz (IKMC)-Rahmen vor, der eine ganzheitliche Betrachtung verschiedener Arten von Wissen über seine Lebenszyklusphasen hinweg ermöglichen kann. Das Framework wurde mit Unternehmen der Dienstleistungsbranche getestet, die Standard-ERP-Pakete implementiert haben. Die wichtigsten Ergebnisse zeigen, wie die WM-Kompetenz durch Wissensaufbau, -transfer, -erhalt und -anwendung gefördert werden kann. Darüber hinaus informiert die Studie Praktiker über die wichtigsten Wissensarten (ERP-Paket- und Geschäftsprozesswissen) und wie, warum und womit Wissen während einer ERP-Implementierung für den Projekterfolg erstellt, transferiert, erhalten und wiederverwendet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41077-2_7 b83ae8256dc60848019e20aaeb5920ba;de;;;7.1.;;;Management virtueller Unternehmen: Eine Fallstudie deutscher Rapid Prototyping-KMU Dieses Papier beschreibt eine Fallstudie der Ergebnisse aus der Forschung, die in den letzten EU-Projekten zu aktuellen und bewährten Verfahren zur Wartung und Optimierung virtueller Unternehmen (VE) durchgeführt wurde. Es basiert auf dem Beispiel eines virtuellen Unternehmens, das von deutschen kleinen und mittleren Unternehmen (KMU) im Bereich Rapid Prototyping (RP) und Modellierung im Automobilsektor praktiziert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35704-1_53 11fbe6f68b022638588a0c7c75135bd6;de;;;7.1.;;;Capp-Modell für prismatische Teile in der digitalen Fertigung Der Beitrag diskutiert die merkmalsbasierte Prozessplanung in einem digitalen Fertigungskonzept für die prismatische Teilefertigung. Der STEP-Standard als Enabler der merkmalsbasierten Fertigung wird zusammen mit den dazugehörigen Anwendungsprotokollen ausführlich vorgestellt. Die Fallstudie zum Feature-basierten CAP/CAM-Modell in serbischen KMU wird gezeigt, um die Vorteile aufzuzeigen, gefolgt von den Forschungsempfehlungen zur Verbesserung des vorgestellten Konzepts.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41329-2_21 077faacb94d20f5908307e5e7e3e90f0;de;;;7.1.;;;e-Work in der Produkt- und Dienstleistungsentwicklung Anwendungen der kollaborativen e-Arbeit auf die Produkt- und Dienstleistungsentwicklungsprozesse zeichnen sich ab. Die Entwicklungsprozesse reichen von der Identifizierung der Kundenanforderungen bis hin zur Formalisierung des Kundennutzenpakets (CBP) zur Zusammenfassung des Unternehmensangebots zur Lösung der Kundenbedürfnisse und -erwartungen, basierend auf dem Product Lifecycle Management (PLM) Framework. In diesem Zusammenhang ist Wissensmanagement von wesentlicher Bedeutung für die Entwicklung von Produkten und Dienstleistungen, wobei der Schwerpunkt auf Innovation und Exzellenz sowie dem Management von Produkten und Dienstleistungen unter Berücksichtigung von Umweltaspekten liegt. In diesem Kapitel werden modernste Techniken des kollaborativen Designs für die Entwicklung von Produkten und Dienstleistungen in vernetzten e-Systemen unter besonderer Berücksichtigung von CI, der kollaborativen Intelligenz, erläutert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45777-1_6 f5a31c5c27603ad54132539f09cb4a56;de;;;7.1.;;;Gebäudemanagement Anfänglich wurde Facility Management (FM) als Sicht auf die Fabrik mehr oder weniger nach Projektabschluss vor Ort verstanden, als reine Verwaltung der „as built“ Betriebsdaten. Synergien zwischen der ersten Planung und den nachfolgenden Funktionen des Facility Managements bestehen nachweislich über den gesamten Lebenszyklus eines Projektes inklusive Planung, Umsetzung und Betrieb. Die Möglichkeit, unterschiedliche Fachansichten (z. B. Produktionsplaner, Architekten, Gebäudetechniker) auf die zentralen Gesamtdaten zu integrieren, ermöglicht ein hohes Maß an fortlaufender aktiver Zusammenarbeit und gewährleistet eine durchgängige Projekttransparenz. Das Kapitel beschreibt die Aufgabe von FM-Systemen, deren Aufbau und Einsatzmöglichkeiten sowie zwei Praxisbeispiele.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46391-8_17 0e5df5d945d01e641c85dbd8536aaa32;de;;;7.1.;;;Integration von Informationssystemen zur Verbesserung des operativen Kundenbeziehungsmanagements in der pharmazeutischen Industrie Die Pharmaindustrie ist in den letzten Jahren rasant gewachsen. Die Veränderungen werden in der Informationstechnologie jeden Tag vorgenommen. Diese Entwicklung hat fast alle Aufgaben der Datenspeicherung und -wiederherstellung auf verschiedenen Ebenen automatisiert. In diesem Papier wurde eine Fallstudie zu „Merck-Medco“ diskutiert, deren operative Mitarbeiter Schwierigkeiten beim Datenabruf hatten. Dieses Papier enthält Analogien aus einem Forschungspapier, das auch zu Merck-Medco vorgelegt wurde. Laut diesem Forschungsbericht verfügt Merck-Medco über eine ineffektive Implementierung von Customer Relationship Management. Diese Studie diskutiert alle großen und kleineren Probleme in diesem Zusammenhang und schlägt einige Lösungen vor, die sich als nützlich erweisen können, um die Effizienz des Customer Relationship Managements zu verbessern. Diese Studie hat Lösungen empfohlen, die die Integration von Systemen verbessern würden. Dieses Papier liefert auch den Beweis dafür, wie die Informationstechnologie eine so wichtige Rolle spielen kann, um die operative Effizienz des Customer Relationship Management zu steigern, indem alle aktuellen Marktdynamiken wie Differenzierungsstrategien, Unternehmenswertkettenanalyse und Porters Five Forces analysiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-76346-6_50 88656a26557a4e7458b68aa386f9e0b5;de;;;7.1.;;;Simulationsstudie zur Fußgängerstraßenplanung in alten Gebäudegruppen unter Cloud-Computing-Umgebung Um die Verkehrsorganisation in der Altbaugruppe geordnet zu führen, wird die Simulationsstudie zur Fußgängerstraßenplanung der Altbaugruppe in der Cloud-Computing-Umgebung vorgeschlagen. Basierend auf der Analyse der Eigenschaften von Fußgängerstraßen wird ein Straßenplanungssimulationsmodell für eine Cloud-Computing-Umgebung erstellt. Mit der Cloud-Computing-Umgebung die maximale Personenzahl im Straßenverkehr ermitteln, mit der Simulationssoftware LEGION Struktur und Parameter des Modells festlegen und Straßenplanung und Ableitung im Simulator durchführen, um die Auslegung der Straßenplanungssimulation zu realisieren Modell. Durch die Methode der experimentellen Argumentation und Analyse wird die Effektivität des Cloud-Computing-Umgebung Straßenplanungs-Simulationsmodell ermittelt, welches die Ordnungsplanung der Fußgängerstraßenplanung verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36402-1_38 38de829c4011097fd961c2f897d9e4b8;de;;;7.1.;;;Anwendung von IAF und Nutzung seiner Ergebnisse Denken Sie an die Gründe für IAF, die in Kap. 1? Die IT-Landschaft wurde immer komplexer, und wir brauchten Tools, um diese Komplexität zu bewältigen. Architektur war der Begriff, der geprägt wurde, um die Aktivitäten zu beschreiben, die wir zur Bewältigung der Komplexität durchführten. Diejenigen, die diese Tätigkeiten tatsächlich ausführen, sind die Architekten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11518-9_5 a1a3ead99d0e152100fe6742c010fd2c;de;;;7.1.;;;Ontologische Grundlagen des Multi-Agenten-Frameworks für die Organisationsdiagnose Um Managementfunktionen in sich dynamisch verändernden Unternehmen zu unterstützen, müssen geeignete Informationssysteme aufgebaut werden, die die wünschenswerte Anpassung inter- und intraorganisationaler Geschäftsprozesse automatisieren. Dieses Papier stellt daher einen neuen Ansatz für das Design von Multi-Agenten-Informationssystemen vor, die dazu dienen, Abweichungen zu planen, zu entdecken, zu überwachen und Geschäftsprozesse zu optimieren. Der erwartete qualitative Durchbruch in der Kapazität des Systems basiert auf der Übereinstimmung seiner Konstruktions- und Verhaltensperspektive mit dem ontologischen Modell des unterstützten Unternehmens. Daneben wird die Konformität zwischen Organisations- und Informationssystemen durch ihre konzeptionelle Ausrichtung in der Beschreibung von Zuständen und Prozessen ergänzt. Die Methode der Multi-Agent-Framework-Konstruktion und ihre Anwendung für die Rückverfolgbarkeit in Lieferketten werden in diesem Papier vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40823-6_14 ce6f17be7e7348c7483fbe872d9b2060;de;;;7.1.;;;Simulationsmodell zur Planung finanzieller und wirtschaftlicher Kennzahlen eines Unternehmens auf Basis der Geschäftsmodellformalisierung Dabei werden die methodischen und angewandten Aspekte der Simulationsmodellimplementierung in das System der geplanten finanziellen und wirtschaftlichen Kennzahlen des Unternehmens berücksichtigt. Es wird unter Verwendung einer formalen Beschreibung der wichtigsten Geschäftsprozesse durchgeführt. Mittels sowohl klassischer wirtschaftsstatistischer Methoden als auch neuester Analysemethoden, insbesondere neuronaler Netztechnologien, wird die Dynamik von Schlüsselfaktoren des Simulationsmodells untersucht, die für die Metrikbildung solcher Planungsindikatoren entscheidend sind. Es wird die Möglichkeit aufgezeigt, invariante Szenarien für die Entwicklung der Finanz- und Wirtschaftslage mit einer strikten Identifizierung des Systems der Finanz- und Wirtschaftsindikatoren und der Dynamik ihrer Metriken auf einem bestimmten Planungshorizont zu implementieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-19069-9_12 ebf97f6f19a67c0c1a11b77c0d55fbd9;de;;;7.1.;;;Ein Business-Continuity-Management-Simulator Umfassende BCM-Plantests für komplexe Informationssysteme sind schwierig und teuer, wenn nicht sogar unmöglich. Dieses Papier schlägt vor, dass ein Simulator verwendet werden könnte, um diese Probleme zu lindern. Ein allgemeines Modell für einen solchen BCM-Simulator wird vorgestellt und die Implementierung eines Prototyp-Simulators beschrieben. Der Simulator reagiert auf Systemstörungen, indem er nach alternativen Konfigurationen innerhalb des BCM-Plans sucht, die Ressourcenverfügbarkeiten im aktualisierten System meldet und jegliche Nichterfüllung der an das System gestellten Anforderungen erkennt. Der Simulator untersucht dann alle Änderungen der Datensicherheit, die durch die vorgeschlagene Konfiguration nach der Störung eingeführt werden, und meldet jedes erhöhte Risiko.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15257-3_2 85bd152655964f016f5d65c6d5ae80de;de;;;7.1.;;;Übergang zu logistischen Informationssystemen der nächsten Generation In den letzten 15 Jahren haben viele Halbleiterunternehmen CIM-Konzepte erfolgreich eingeführt. Der Schwerpunkt lag dabei auf der Entwicklung und Einführung von Manufacturing Execution Systems (MES), auch bekannt als Computer Aided Manufacturing Systems (CAM) oder Shop Floor Control Systems (SFC). Diese Systeme definieren die Funktionen zur Steuerung der Aktivitäten in der Werkstatt, einschließlich der direkten Steuerung der Produktionsmittelverwaltung von Materialien, Werkzeugen, Vorrichtungen und Wartung. Mittlerweile existieren mehrere konfigurierbare Standardsysteme (z. B. Workstream, Factory Works, Promis, Poseidon), die in verschiedenen Halbleiterfabriken weltweit installiert und betrieben werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35351-7_50 5058ace117c207363ccf98fdefebae78;de;;;7.2.;;;Abrufstrategien Abrufstrategien weisen ein Ähnlichkeitsmaß zwischen einer Abfrage und einem Dokument zu. Diese Strategien basieren auf der allgemeinen Vorstellung, dass je häufiger Begriffe sowohl im Dokument als auch in der Abfrage gefunden werden, desto „relevanter“ wird das Dokument für die Abfrage erachtet. Einige dieser Strategien setzen Gegenmaßnahmen ein, um Probleme zu mildern, die aufgrund der sprachlichen Mehrdeutigkeit auftreten – der Realität, dass das gleiche Konzept oft mit vielen verschiedenen Begriffen beschrieben werden kann (z.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-3005-5_2 ae05d5af6aaf979ddf8e786aadf1480a;de;;;7.2.;;;Vertrauenswürdiges Service-Caching: Kooperative Suche in P2P-Informationssystemen Wir entwickeln einen Ansatz für P2P-Informationssysteme, bei dem die Peers als autonome Agenten modelliert werden. Agenten bieten Dienste an oder geben sich gegenseitig Empfehlungen, um vertrauenswürdige Dienste zu finden. Wir betrachten den wichtigen Fall von Informationsdiensten, die zwischengespeichert werden können. Agenten fordern Informationsdienste durch Abfragen auf hoher Ebene an, nicht durch die Beschreibung spezifischer Objekte wie beim Caching in traditionellen verteilten Systemen. Darüber hinaus entscheiden die Agenten autonom, an wen sie sich für einen Dienst wenden, wen sie eine Dienstleistung oder Empfehlung anbieten, ob sie einer Empfehlung folgen und ob sie einen Dienst zwischenspeichern. Somit entwickelt sich das Informationssystem selbst weiter, wenn Agenten voneinander lernen und sich die Inhalte der Caches der Agenten ändern. Wir untersuchen hier die Auswirkungen von Caching auf die Dienstlokalisierung und auf das Informationssystem selbst. Unsere Hauptergebnisse sind, dass, (1) selbst mit einem kleinen Cache, Agenten Dienste leichter finden können, (2) da die Agenten, die Dienste zwischenspeichern, wie Dienstanbieter agieren können, eine kleine Anzahl von anfänglichen Dienstanbietern ausreicht, um die Informationen bereitzustellen Bedürfnisse der Verbraucher und (3) Agenten profitieren davon, Nachbarn mit anderen zu sein, die ähnliche Interessen haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-25943-5_3 737e16a5badf8409197db946c468ffbe;de;;;7.1.;;;Das Wachstum und die Entwicklung von Informationssystemen Zu der Zeit ihrer frühen Entwicklung wurde erwartet, dass Computer eine sehr wichtige Rolle bei der Führung von Organisationen spielen. Tatsächlich ging der Fortschritt langsamer vonstatten als erwartet, und erst jetzt ist der Computer in der Lage, sein frühes Versprechen zu erfüllen. Der Computer hat nun Zugriff auf große Datenmengen auf Magnetspeichern. Es ist in der Lage, eine kybernetische Rolle zu spielen – das heißt, eine Rolle, bei der der Computer so programmiert ist, dass er in der Lage ist, ziemlich komplexe Situationen effektiv zu kontrollieren und zu „denken“.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-16344-1_1 b9c36d93b50ea257c9ee04689ca78d42;de;;;7.2.;;;Treten Sie dem Living Lab bei: Bewertung von Nachrichtenempfehlungen in Echtzeit Die Teilnehmer dieses Tutorials lernten, wie sie an CLEF NEWSREEL teilnehmen, einem lebendigen Labor zur Evaluierung von News-Recommender-Algorithmen. Innerhalb von NEWSREEL können verschiedene Forschungsherausforderungen adressiert werden, wie die Entwicklung und Evaluierung von kollaborativen Filtern oder inhaltsbasierten Filterstrategien. Zur Befriedigung des Informationsbedarfs durch Techniken wie Präferenzerhebung, Mustererkennung und Vorhersage verbinden Empfehlungssysteme die Forschungsbereiche Information Retrieval und Machine Learning.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16354-3_95 6402cf1766342a65317f9ea12511b677;de;;;7.2.;;;Textkategorisierung basierend auf künstlichen neuronalen Netzen In diesem Artikel wurden zwei Arten neuronaler Netze für die Textkategorisierung beschrieben, das Multi-Output-Perceptron-Lernen (MOPL) und das neuronale Backpropagation-Netz (BPNN). Dieser Algorithmus kann einige Unzulänglichkeiten in herkömmlichen neuronalen Netzwerken mit Rückwärtsausbreitung überwinden, wie z. Wir haben die Trainingszeit und die Leistung verglichen und die drei Methoden auf dem Standard Reuter-21578 getestet. Die Ergebnisse zeigen, dass der vorgeschlagene Algorithmus eine hohe Kategorisierungseffektivität, gemessen an Präzision, Recall und F-Maß, erreichen kann.;-;-;-;https://link.springer.com/chapter/10.1007/11893295_35 24576d5427883ee17d6735b752ad9c8e;de;;;7.2.;;;Eine Drei-Wege-Entscheidungsmethode in einem Fuzzy-Condition-Entscheidungsinformationssystem und ihre Anwendung bei der Kreditkartenbewertung Ein Informationssystem als Datenbank, das Beziehungen zwischen Objekten und Attributen darstellt, ist ein wichtiges mathematisches Modell im Bereich der Künstlichen Intelligenz. Ein Informationssystem für Fuzzy-Bedingungsentscheidungen (;-;-;-;https://link.springer.com/article/10.1007/s41066-019-00172-8 875f435b968eb383a3e4e36fdd0dd9a2;de;;;7.2.;;;HOM: Ein Ansatz zur Berechnung semantischer Ähnlichkeit unter Verwendung von Beziehungen zwischen Ontologien Im Internet-Umfeld ist Ontologie-Heterogenität aufgrund vieler koexistierender Ontologien unvermeidlich. Ontologie-Alignment ist ein beliebter Ansatz, um Ontologie-Heterogenität aufzulösen. Ontologie-Alignment stellt die Beziehung zwischen Entitäten her, indem ihre semantischen Ähnlichkeiten unter Verwendung lokaler oder/und nicht-lokaler Kontexte von Entitäten berechnet werden. Neben dem lokalen und nicht-lokalen Kontext von Entitäten sind die Beziehungen zwischen zwei Ontologien in vielen Situationen hilfreich, um ihre semantische Ähnlichkeit zu berechnen. Das Ziel dieses Artikels ist es, die Leistung des Ontologie-Alignments zu verbessern, indem diese Beziehungen in der Ähnlichkeitsberechnung verwendet werden. Es wird ein hierarchisches Ontologiemodell (HOM) vorgeschlagen, das diese Beziehungen formal beschreibt, gefolgt von HOM-Matching, einem auf HOM basierenden Algorithmus. Es nutzt die Beziehungen zwischen Ontologien, um semantische Ähnlichkeit zu berechnen. Zwei Gruppen von Experimenten werden zur Algorithmusvalidierung und Parameteroptimierung durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68636-1_23 96343b462315ab291735a8e59983d8e4;de;;;7.2.;;;Ein Vergleich von Ansätzen zur Messung der sprachübergreifenden Ähnlichkeit von Wikipedia-Artikeln Wikipedia wurde als Quelle für vergleichbare Texte für eine Reihe von Aufgaben verwendet, beispielsweise für die statistische maschinelle Übersetzung und den sprachübergreifenden Informationsabruf. Artikel, die in verschiedenen Sprachen zum gleichen Thema verfasst wurden, werden oft durch inter-language-Links verbunden. Das Ausmaß der Ähnlichkeit dieser Artikel ist jedoch sehr unterschiedlich und dies kann sich auf die Verwendung von Wikipedia als vergleichbare Ressource auswirken. In diesem Beitrag vergleichen wir verschiedene sprachunabhängige Methoden zur Messung der sprachübergreifenden Ähnlichkeit: Charakter;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06028-6_36 943a9a0584d4e869cc4c5ad362e5990e;de;;;7.2.;;;Dominanz-basierter grober Ansatz für possibilistische Informationssysteme In diesem Beitrag schlagen wir einen dominanzbasierten Fuzzy-Rough-Set-Ansatz für die Entscheidungsanalyse eines präferenzgeordneten possibilistischen Informationssystems vor, das aus einer endlichen Menge von Objekten besteht, die durch eine endliche Menge von Kriterien beschrieben werden. Die Domänen der Kriterien können ordinale Eigenschaften aufweisen, die Präferenzskalen ausdrücken. Bei dem vorgeschlagenen Ansatz berechnen wir zunächst den Dominanzgrad zwischen zwei beliebigen Objekten basierend auf ihren possibilistischen Bewertungen in Bezug auf jedes Kriterium. Dies führt zu einer unscharfen Dominanzrelation im Universum. Dann definieren wir den Grad der Einhaltung des Dominanzprinzips durch jedes Paar von Objekten und den Grad der Konsistenz jedes Objekts. Die Konsistenzgrade aller Objekte werden aggregiert, um die Qualität der Klassifikation abzuleiten, mit der wir die Reduktionen eines Informationssystems definieren. Außerdem sind die Aufwärts- und Abwärtsvereinigungen der Entscheidungsklassen unscharfe Teilmengen des Universums. Die unteren und oberen Approximationen der Entscheidungsklassen basierend auf der Fuzzy-Dominanzrelation sind somit Fuzzy-Rough-Sets. Durch die Verwendung der niedrigeren Approximationen der Entscheidungsklassen können wir zwei Arten von Entscheidungsregeln ableiten, die auf neue Entscheidungsfälle angewendet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21881-1_20 2349982a46bf8a9dc228e8fcc98cc551;de;;;7.1.;;;Wissensbasierte Produktionsplanung für Industrie 4.0 Heute und morgen – im Zeitalter digitaler Produktionsumgebungen und Industrie 4.0 – erfolgt die Produktionsplanung und Fertigung eines neuen Produktes in verschiedenen Teilschritten, meist an unterschiedlichen Standorten, potentiell weltweit verteilt. In diesem Anwendungskontext kann eine kollaborative adaptive Produktionsprozessplanung durch semantische Produktdatenmanagementansätze unterstützt werden, die eine flexible und effiziente Darstellung und Verwaltung von Produktionswissen sowie Wissensaustausch, Zugriff und Wiederverwendung ermöglichen. Um solche Szenarien zu unterstützen, sind semantische Repräsentationen von Produktionswissen, die in eine maschinenlesbare Prozessformalisierung integriert sind, ein wichtiger Faktor für die gemeinsame Nutzung solcher expliziten Wissensressourcen in Cloud-basierten Wissensrepositorien. Wir werden eine solche Methode vorstellen und eine entsprechende prototypische Proof-of-Concept-Implementierung namens . bereitstellen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-55433-3_13 b8e701ec42e63052477c1dcc658a6917;de;;;7.1.;;;Die Organisation als Informationssystem Was sind die Themen für das Management in einer zunehmend informationsdominierten Zeit? Der zentrale Wertschöpfungsbeitrag des Managements liegt seit jeher in der Entscheidungsfindung aus einer integrierten Geschäftssicht, sowohl für den Betrieb als auch für die Planung, sowohl taktisch als auch strategisch und umfasst das gesamte Spektrum der Funktionen der Organisation. In einer Zeit, in der der Zeitrahmen für Entscheidungen dramatisch geschrumpft ist, ist diese Rolle für die Führung exzellenter Unternehmen noch wichtiger. Strategische Marketingentscheidungen zu neuen Produktentwicklungen müssen möglicherweise einem saisonalen Gelegenheitsfenster von nur wenigen Wochen entsprechen, während einige taktische Handelsentscheidungen mit Computerunterstützung in Sekundenschnelle getroffen werden können. Nicht optimale Leistungen werden grausam bestraft, wenn keine Zeit für eine zweite Chance bleibt. Die Zeiten sind vorbei, in denen sich das Management durchwühlen, Fehler später ausbessern und immer noch auf Erfolg hoffen konnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0789-1_63 868eb5e570b2bfd3ce10d8f98e770d11;de;;;7.2.;;;Interaktion bei der inhaltsbasierten Bildsuche: Eine Bewertung des State-of-the-Art Der Beitrag gibt einen Überblick über die Arbeiten der letzten Jahre im Bereich der interaktiven inhaltsbasierten Bildsuche. Wir definieren einen vereinheitlichenden Rahmen basierend;-;-;-;https://link.springer.com/chapter/10.1007/3-540-40053-2_3 06f993acf665218809a3f9c5824adabf;de;;;7.2.;;;Verwenden von Themeninformationen zur Verbesserung der nicht genauen schlüsselwortbasierten Suche für mobile Anwendungen Angesichts des breiten Angebots an heutzutage verfügbaren mobilen Anwendungen sind effektive Suchmaschinen für einen Benutzer unerlässlich, um Anwendungen zu finden, die eine bestimmte gewünschte Funktionalität bereitstellen. Retrieval-Ansätze, die thematische Ähnlichkeiten zwischen Abfragen und Anwendungen nutzen, haben in früheren Studien vielversprechende Ergebnisse gezeigt. Die von den meisten App-Stores verwendeten Suchmaschinen basieren jedoch auf Keyword-Matching und Boosting. In diesem Beitrag untersuchen wir Möglichkeiten, Themeninformationen in solche Ansätze einzubeziehen, um ihre Fähigkeit zu verbessern, relevante Anwendungen für nicht-exakte Abfragen abzurufen, ohne ihre Rechenleistung zu beeinträchtigen. Genauer gesagt erstellen wir Themenmodelle, die auf Anwendungsbeschreibungen spezialisiert sind, und untersuchen, wie die relevantesten Begriffe für jedes von einer Anwendung abgedeckte Thema verwendet werden können, um die in der Beschreibung bereitgestellten Informationen zu ergänzen. Unsere Experimente zeigen, dass diese Topic-Keywords zwar nicht alle Informationen des Topic-Modells liefern können, aber eine ausreichend informative Zusammenfassung der von den Beschreibungen abgedeckten Themen bieten, was zu einer verbesserten Performance führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-50146-4_28 bad691e2f9443aee8b0ea0a5a9fc5aa7;de;;;7.1.;;;Cyber-Physisches Produktionsmanagement Eine hohe Termintreue ist heute das wichtigste logistische Ziel für produzierende Unternehmen. Um die zunehmende Komplexität der Produktionsplanung und -steuerung zu beherrschen, setzen produzierende Unternehmen IT-Systeme ein. Die eingesetzten IT-Systeme liefern jedoch häufig keine verlässliche Prognose von Lieferterminen und beeinträchtigen somit die geforderte Liefertermintreue. Das Papier beschreibt einen cyber-physischen Ansatz zur Optimierung der Produktionsplanung und -steuerung hin zu einer zuverlässigen Detailplanung. Daher ist es notwendig, die Abweichungen zwischen dem Produktionsplan des IT-Systems und den Produktionsabläufen in der Realität zu ermitteln. Mit der Kenntnis der aufgedeckten Abweichungen und deren Ursachen kann der Prozess der Produktionsplanung in Richtung einer zuverlässigeren hochauflösenden Produktionsplanung und -steuerung ausgerichtet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41263-9_59 1b027996e9ffc28c77976931e51933bf;de;;;7.2.;;;Russian Science Citation Index: Von aktiven Nutzern identifizierte Entwicklungsbereiche Der aktuelle Stand des Russian Science Citation Index wird analysiert. Mehrere von langjährigen aktiven Nutzern identifizierte Bereiche für ihre Weiterentwicklung wie Datensuche, -verfeinerung und -speicherung, aktuelle Benutzerwarnungen, Dateneingabe mit der Science-Index-Lizenz, Patentinformationen und die Anwendungsprogrammierschnittstelle (API) werden untersucht.;-;-;-;https://link.springer.com/article/10.3103/S0147688218020119 1fe842f833c50a69473a13e2817aefa7;de;;;7.1.;;;Nachschubbestandsplanung Der letzte Schritt im Planungsprozess für die Bestandskontrolle, der in Kapitel 6 beschrieben wird, ist die Auswahl der Bestandsbestellungsrichtlinien, die Planern und Einkäufern dabei helfen sollen, zu bestimmen, welche Artikel bestellt werden müssen, wann Bestellungen freigegeben werden sollen und wie hoch die Bestellmenge sein sollte . Bei der Auswahl der richtigen Bestellmethode hat die Bestandsverwaltung die Wahl zwischen zwei grundlegenden Techniken: einer Form von;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-0015-1_7 7315100c64058dbdc562295d8b7197d7;de;;;7.2.;;;Ein Überblick über die Fuzzy-Relationalrechnung und ihre Anwendungen Die Relationsrechnung hat in den letzten 40 Jahren sowohl aus theoretischer als auch aus praktischer Sicht eine große Bedeutung erlangt. Die Entwicklung der Fuzzy-Set-Theorie, insbesondere im Rahmen der Relationalkalküle, hat zweifellos das Interesse an diesem Wissenschaftsbereich erhöht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73729-2_1 1621c388e8896fffea74b4fc4967e8af;de;;;7.2.;;;Eine Studie zu Glättungsmethoden für die relevanzbasierte Sprachmodellierung von Empfehlungssystemen Sprachmodelle werden traditionell in verschiedenen Bereichen wie Spracherkennung oder Dokumentenabruf verwendet. Erst vor kurzem wurde ihr Einsatz auf kollaborative Empfehlungssysteme ausgeweitet. In diesem Feld wird für jeden Benutzer ein Sprachmodell basierend auf den Wahrscheinlichkeiten der Elemente geschätzt. Ein zentrales Thema bei der Schätzung eines solchen Sprachmodells ist die Glättung, d. h. wie der Maximum-Likelihood-Schätzer angepasst wird, um die Bewertungssparsität zu kompensieren. Diese Arbeit widmet sich der Untersuchung, wie sich die klassischen Glättungsansätze (Absolute Discounting, Jelinek-Mercer und Dirichlet Priors) in der Empfehlungsaufgabe verhalten. Wir haben die verschiedenen Methoden unter den kürzlich vorgestellten Relevanzbasierten Sprachmodellen für kollaboratives Filtern getestet und verglichen, wie sich die Glättungstechniken hinsichtlich Präzision und Stabilität verhalten. Wir fanden heraus, dass Absolute Diskontierung praktisch unempfindlich gegenüber dem Parameterwert ist, da es sich um eine nahezu parameterfreie Methode handelt und gleichzeitig ihre Leistung ähnlich der von Jelinek-Mercer und Dirichlet-Prioritäten ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16354-3_38 4a25015f48a579832741a7352a36f3f6;de;;;7.2.;;;Living Labs für die akademische Suche beim CLEF 2020 Der Innovationsbedarf im Bereich der akademischen Suche und der IR im Allgemeinen zeigt sich in der stagnierenden Systemleistung in kontrollierten Evaluationskampagnen, wie in TREC- und CLEF-Meta-Evaluierungsstudien sowie in Nutzerstudien in realen wissenschaftlichen Informationssystemen gezeigt und digitale Bibliotheken. Die Frage, was Relevanz in der wissenschaftlichen Suche ausmacht, ist vielschichtig und ein Thema, das Forschungsgemeinschaften seit Jahren umtreibt. Der Workshop Living Labs for Academic Search (LiLAS) hat das Ziel, die Diskussion über die Erforschung und Bewertung akademischer Suchsysteme anzuregen, indem das Konzept des Living Labs für den Bereich der akademischen Suche gestärkt wird. Wir wollen IR-Forscher, die sich für Online-Evaluierungen wissenschaftlicher Suchsysteme interessieren, zusammenbringen und Wissen zur Verbesserung der Suche nach wissenschaftlichen Ressourcen wie Literatur, Forschungsdaten und deren Verknüpfung fördern. Der eingesetzte Online-Evaluierungsansatz auf Basis einer Living-Lab-Infrastruktur ermöglicht die direkte Anbindung an praxisnahe wissenschaftliche Suchsysteme aus den Lebens- und Sozialwissenschaften.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-45442-5_75 8baefde7231a002664e44c66bfe2074a;de;;;7.1.;;;Steuerung der Produktionstätigkeit: Ein praktischer Ansatz für die Planung Es gibt eine weithin wahrgenommene Lücke im Bereich der Planung von Fertigungssystemen, nämlich viele der von Produktionsleitern verwendeten Methoden unterscheiden sich erheblich von denen, die von Forschern entwickelt wurden. In gewisser Weise unterstreicht diese Inkonsistenz die wichtige Tatsache, dass ein Großteil der Planungsforschung dort, wo es am wichtigsten ist, keine Zustimmung gefunden hat, nämlich innerhalb des Fertigungssystems.;-;-;-;https://link.springer.com/article/10.1007/BF01325097 13ed33e196c032fc50a022901c76f281;de;;;7.1.;;;Möglichkeiten der gegenseitigen Befruchtung zwischen interpretativen Ansätzen und anderen Methoden zur Analyse von Informationssystemen Dieses Papier untersucht Möglichkeiten der gegenseitigen Befruchtung zwischen interpretativen Ansätzen und anderen Ansätzen zur Durchführung der Erstanalyse eines Informationssystems als Teil der Bemühungen um dessen Neugestaltung und Verbesserung. Der Beitrag stellt eine hypothetische Situation zur Analyse eines Kreditgenehmigungssystems in einer Großbank dar. Es wird davon ausgegangen, dass Ethnographen drei Systemanalyseprojekte beobachtet haben, die unterschiedliche Ansätze in drei identischen Banken verwendeten. Es verwendet hypothetische Darstellungen der drei Analysebemühungen, um wahrscheinliche Unterschiede im Prozess und in den Ergebnissen vorzuschlagen. Diese Unterschiede veranschaulichen mögliche Möglichkeiten einer gegenseitigen Befruchtung, die jeden Ansatz leistungsfähiger und zuverlässiger machen könnten. Das Papier kommt zu dem Schluss, dass die wahrscheinlichste Richtung für eine gegenseitige Befruchtung von interpretativen Ansätzen zu den anderen Ansätzen ist. Eine frühere Version dieses Papiers wurde auf dem First International Workshop on Interpretive Approaches to Information Systems and Computing Research, SIG-IAM, Brunel University, 25.–27 Ansätze und helfen bei der Weiterentwicklung systemanalytischer Methoden.;-;-;-;https://link.springer.com/article/10.1057/palgrave.ejis.3000499 f6f0aff15a29919fa3ff0c8d5e024687;de;;;7.1.;;;Management der Einführung von Informationssicherheits-Awareness-Programmen in Organisationen Mehrere Studien untersuchen das Bewusstsein für Informationssicherheit und konzentrieren sich dabei auf individuelle und/oder organisatorische Aspekte. In diesem Beitrag wird argumentiert, dass Sicherheitsbewusstseinsprozesse mit wechselseitigen Veränderungen auf organisatorischer, technologischer und individueller Ebene verbunden sind. Wir stellen einen integrierten analytischen Rahmen vor, der durch Aktionsforschung in einer Organisation des öffentlichen Sektors entwickelt wurde und Akteur-Netzwerk-Theorie (ANT), Strukturierungstheorie und Kontextualismus umfasst. Wir entwickeln und verwenden dieses Framework, um Veränderungen zu analysieren und zu verwalten, die durch die Implementierung eines Security-Awareness-Programms im Forschungsumfeld eingeführt wurden. Das Papier veranschaulicht die Grenzen jeder Theorie (ANT, Strukturierungstheorie und Kontextualismus) bei der Untersuchung von Veränderungen auf mehreren Ebenen, wenn sie einzeln verwendet werden, demonstriert die Synergien der drei Theorien und schlägt vor, wie sie verwendet werden können, um bewusstseinsbezogene Veränderungen zu untersuchen und zu bewältigen die individuelle, organisatorische und technologische Ebene.;-;-;-;https://link.springer.com/article/10.1057/ejis.2013.27 aaf83895f7bd322c4ba80dfa0dbf6a35;de;;;7.1.;;;Systeme zur Unterstützung von Marketingentscheidungen Systeme zur Unterstützung von Marketingentscheidungen können als Marketingmanagementunterstützungssysteme (MMSSs), Marketingentscheidungsunterstützungssysteme (MDSSs) oder intelligente MDSSs (IMDSSs) bezeichnet werden. Sie können das Marketingmanagement bei einer Reihe von strategischen Planungs-, Taktik- und Entscheidungsaktivitäten unterstützen. Dieses Kapitel bietet einen Überblick über die Geschichte solcher Systeme und die Merkmale der Probleme, die sie unterstützen sollen. Anschließend werden verschiedene Klassifikationen solcher Systeme untersucht und einige veröffentlichte Maße für den Umfang ihrer Nutzung und die geäußerte Zufriedenheit des Marketingmanagements mit ihnen angegeben. Der zweite Teil beschreibt die neuere veröffentlichte Forschung in diesem Bereich. Unter Erwähnung der verwendeten DSS-Ansätze, wie fallbasiertes Denken, neuronale Netze, analytische Hierarchieprozesse und genetische Algorithmen, wird die Forschung nach Marketingentscheidungsbereichen zusammengefasst. Viele davon sind klassische Beispiele wie Marketingstrategie, Kundensegmentierung, Produktpreisgestaltung und Entwicklung neuer Produkte. Andere beziehen die neueren Marketingkanäle wie Internet und Mobiltelefone ein oder führen Ansätze wie CRM und geo-visuelles Marketing ein. Es wurde vorgeschlagen, Empfehlungssysteme und Kunden-DSSs ein integraler Bestandteil des Entscheidungsunterstützungsportfolios des Marketingmanagements zu sein, und diese werden hier ebenfalls diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-48716-6_19 b035ff7031b10b188f4b95a7c6f91d96;de;;;7.1.;;;Politik spielen mit E-Mail: Eine konfliktbasierte Längsschnittanalyse Nur wenige Studien haben versucht, die E-Mail-Nutzung mit Macht und Politik zu verknüpfen. Ziel dieser Arbeit ist es, Macht- und Konfliktfragen in die E-Mail-Forschung zu integrieren. Um die Diskussion einzurahmen, beginnt das Papier mit einer Überprüfung der relevanten Schriften zu Macht und E-Mail. Die Literaturrecherche schließt mit der Feststellung, dass kontextuelle, zeitliche und Konfliktmanagementaspekte in die Machtforschung in Organisationen einbezogen werden sollten. Dieser Aussage folgend wird eines der führenden Modelle zum Konfliktmanagement vorgestellt und zur Analyse einer Fallstudie verwendet. Der Fall wird als Theaterstück in drei „Akten“ präsentiert. Jeder der Akte skizziert eine andere Reihe von Konfliktmanagementstrategien, die von Management und Mitarbeitern verwendet wurden. Die Diskussion fasst die Analyse zusammen, indem sie zeigt, dass eine kombinierte Perspektive des Macht- und Konfliktmanagements das Spiel der Politik mit E-Mail erklären kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35309-8_19 de0ddfefc3a64fc0ac3c4d00090eafa3;de;;;7.2.;;;Ein Dokumentenabrufmodell basierend auf Begriffshäufigkeitsrängen In diesem Whitepaper wird ein neues Modell zum Abrufen von Volltextdokumenten vorgestellt, das auf dem Vergleich der Häufigkeitsrangzahlen von Begriffen in Abfragen und Dokumenten basiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-2099-5_17 2f0db503a23070eda7cab9db1232de96;de;;;7.2.;;;Suche in der „realen Welt“ Für viele gilt die Suche als meist gelöstes Problem. Tatsächlich ist diese Überzeugung für die Textverarbeitung faktenbasiert. Das Problem besteht darin, dass die meisten Suchanwendungen in der realen Welt komplexe Dokumente beinhalten und solche Anwendungen noch lange nicht gelöst sind. Komplexe Dokumente oder weniger formal reale Dokumente bestehen aus einer Mischung von Bildern, Text, Unterschriften, Tabellen, Logos, Wasserzeichen, Stempeln usw. und sind oft nur in gescannten Papierformaten verfügbar. Suchsysteme für solche Dokumentensammlungen sind derzeit nicht verfügbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04941-5_1 89a2dc24b808d5bd5339d05572d0e683;de;;;7.2.;;;Auf dem Weg zu einer konsistenten Bewertung von Relevanz-Feedback-Ansätzen beim Multimedia Retrieval Viele verschiedene Gemeinschaften haben Forschungen zur Wirksamkeit von Relevanz-Feedback in Multimedia-Informationssystemen durchgeführt. Im Gegensatz zu Text-IR neigt die Leistungsbewertung von Multimedia-IR-Systemen dazu, den akzeptierten Standards der Gemeinschaft zu entsprechen, in der die Arbeit durchgeführt wird. Dies führt zu eigenwilligen Leistungsbewertungen und erschwert den fairen Vergleich verschiedener Techniken. In diesem Papier diskutieren wir einige der Unzulänglichkeiten bestehender Multimedia-IR-Systemleistungsbewertungen. Wir schlagen einen gemeinsamen Rahmen vor, um die unterschiedlichen vorgeschlagenen Techniken für das Relevanz-Feedback zu diskutieren und entwickeln eine Strategie für den fairen Vergleich der relativen Leistung der Techniken.;-;-;-;https://link.springer.com/chapter/10.1007/11670834_16 22ca3c180223b5d9d98f6e3d171d8399;de;;;7.1.;;;Über Smart Cities hinaus: Digitale Nationen für soziale Innovation und Nachhaltigkeit Der nächste Schritt nach Smart Cities ist die Schaffung von Digital oder Smart Nations. Eine digitale Nation erfordert eine nationale Transformation über verschiedene Institutionen hinweg, einschließlich der städtischen und ländlichen Gebiete einer Gesellschaft. Neben diversen sozialen Innovationsinitiativen ist Nachhaltigkeit ein zentraler Aspekt, so dass langfristige Lösungen anstelle von Greenfield-Projekten Brownfield- und Smart-City-Projekte beinhalten. Eine digitale Transformation zu einer Digital oder Smart Nation erfordert viel Innovation in Planung, Prozess-Reengineering und -Ausführung. Während sich Forschungsarbeit und politische Maßnahmen traditionell auf die Stadtebene konzentrieren, müssen diese Bemühungen auf die nationale Ebene ausgeweitet werden. Bestehende Theorien und Rahmenbedingungen auf Stadtebene können genutzt und angepasst werden, um die größeren Bedürfnisse der zukünftigen intelligenten Nationen zu erfüllen. Die sich ergebenden neuen Fragestellungen und Forschungsherausforderungen müssen durch interdisziplinäre Ansätze angegangen werden. Diese Sonderausgabe zum Thema Digitale Nationen versucht, dem Bedürfnis der wissenschaftlichen Literatur nach einem besseren Verständnis der Digitalnationen Rechnung zu tragen.;-;-;-;https://link.springer.com/article/10.1007/s10796-019-09930-0 aa5dc7ec812069f25c61c17fe870cc14;de;;;7.1.;;;Design eines generischen Informationssystems und dessen Anwendung auf die Primary Care Der Bedarf an ausgereiften Informationssystemen in der Primärversorgung wächst. Die Erzielung eines umfassenden Informationsdienstes für die Primärversorgung ist aufgrund des abzudeckenden medizinischen Spektrums und der unterschiedlichen Entscheidungen des Patientenmanagements eine Herausforderung. Es wurde ein Framework mit der Vielseitigkeit entwickelt, die erforderlich ist, um Informationsabruf, Datenmanagement und Entscheidungsunterstützungseinrichtungen für Ärzte zu unterstützen. Das Design abstrahiert spezifische medizinische Fakten von den Methoden, die sie verwenden, und Entscheidungsprozesse werden als eine Reihe von Metatheorien dargestellt. Diese Abstraktion erlaubt die Nutzung von medizinischem Wissen auf vielfältige Weise. Der Ansatz vereinfacht den Aufbau und die Pflege einer sehr großen medizinischen Wissensbasis und bietet die Möglichkeit, die schwierigen Anforderungen an die Benutzeroberfläche der Allgemeinmedizin zu erfüllen. Das Framework wurde in eine prototypische Implementierung integriert, die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-93437-7_26 963d5ebe84c3835e9abba504a18b65c7;de;;;7.1.;;;Gestaltung von Aktivitäten im Shopfloor Management: Ganzheitlicher Organisationsansatz auf operativer Geschäftsebene in BPR-Projekten Prozessorientierung in Produktion und Betriebswirtschaft ist ein wesentliches Mittel zur Erhöhung der Flexibilität und Geschwindigkeit bei gleichzeitiger Kostensenkung. In den letzten Jahren hat die Vorstellung von Human Resources als Potenzial und Mittel zur Flexibilitätssicherung in dezentralen Organisationen an Bedeutung gewonnen. Auch wenn es systematische Ansätze zur Modellierung und Gestaltung von Geschäftsprozessen und Prozessorganisation gibt, beziehen sie sich meist entweder auf die Ableitung von Zielen auf strategischer Unternehmensebene oder auf die Spezifizierung von Informationstechnologie und Strukturen. Die Umsetzung strategischer Ziele in die Gestaltung von Prozessaktivitäten auf operativer Ebene erfolgt in der Regel nicht systematisch und hinterlässt eine Lücke in der bestehenden Methodik. Dieses Papier präsentiert einen menschenorientierten Ansatz zur Analyse und konzeptionellen Gestaltung von Aktivitäten innerhalb eines Geschäftsprozess-Reengineering-Frameworks und seine Anwendung auf das Shopfloor-Management.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34876-6_25 e458a3a199c1a803cf7e992ad387ac22;de;;;7.1.;;;Kollaboratives E-Work und E-Manufacturing: Herausforderungen für Produktions- und Logistikmanager Grundlagen und Umfang von e-Work und e-Mfg. sowie Untersuchungen grundlegender Gestaltungsprinzipien auf ihre Wirksamkeit werden überprüft. Die Prämisse ist, dass ohne effektives e-Work die potenziellen Vorteile aufkommender und vielversprechender elektronischer Arbeitsaktivitäten wie virtuelle Fertigung, telerobotische Wartung, automatisierte Inspektion, elektronische Versorgung und e-Logistik nicht realisiert werden können. Herausforderungen und sich abzeichnende Lösungen werden beschrieben, gruppiert in vier Bereiche: (1). e-Arbeit, (2). Integration, Koordination und Zusammenarbeit, (3). Verteilte Entscheidungsunterstützung und (4). Aktive Middleware. Gestaltungsprinzipien, Modelle und Werkzeuge werden beschrieben und Herausforderungen im Produktions- und Logistikmanagement aufgezeigt. Dieser Artikel soll fruchtbare zukünftige Untersuchungen anregen und inspirieren und die Art und Weise revolutionieren, wie wir nutzbringende e-Work und e-Mfg gestalten können.;-;-;-;https://link.springer.com/article/10.1007/s10845-006-0038-9 4b3c1ffde071cd73decacff5620128ad;de;;;7.1.;;;Enterprise Network Design: Wie wird es gemacht? Netzwerke, insbesondere Weitverkehrsnetzwerke, werden für Organisationen immer wichtiger, dennoch können Netzwerkinfrastrukturen fehlerhaft sein. In diesem Artikel wird anhand von Erfahrungen und der Literatur diskutiert, was über die Gestaltung, Aktualisierung und Neugestaltung von Unternehmensnetzwerken bekannt ist. Forschungsrichtungen werden vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35489-7_7 2bf28d7da126503598c7ed4635096738;de;;;7.1.;;;Aufgabenspezifisches Wissensmanagement in einem prozesszentrierten SEE In diesem Papier wird diskutiert, wie ein prozesszentrierter Ansatz für Wissensmanagement und Koordinationsunterstützung verwendet werden kann, um lernende Softwareorganisationen zu schaffen. Wir beschreiben unsere Erweiterungen der Software-Engineering-Umgebung MILOS, die es uns ermöglichen, Informationsbedarfe, die während der Projektplanung und -abwicklung auftreten, zu modellieren und zu interpretieren, wodurch MILOS Benutzern automatisch aufgabenspezifische Informationen zur Verfügung stellen kann. Um den tatsächlichen Informationsbedarf zu erfassen, schlagen wir eine erweiterte Feedbackschleife vor, um das in einer Erfahrungsdatenbank gespeicherte Prozessmodell zu aktualisieren. Das Ergebnis ist ein prozessorientierter Wissensmanagement-Ansatz, der eine kontinuierliche Prozessverbesserung unterstützt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44814-4_15 dd7e3869300ad910bba7e2960ec17269;de;;;7.1.;;;Eine koevolutionäre Perspektive komplexer Systeme auf Informationssysteme Die Ko-Evolution von Informationssystemen (IS) und die Prozesse, die dem Aufbau und der Entwicklung von IT-Systemen zugrunde liegen, werden aus einer komplexen Systemperspektive erläutert. Evolution operiert auf der mikroskopischen Ebene, in Organisationen ist dies das Individuum oder der Agent. Jeder Agent hat eine idiosynkratische Sicht auf die Organisation und verwendet bis zu einem gewissen Grad persönliche Konstrukte, um mit der Realität des Unternehmenslebens umzugehen. Diese Objekte oder Konstrukte können von den meisten Agenten beschrieben und gemessen werden, sie sind gut definiert. Viele dieser Objekte sind in elektronischen IT-Systemen abgebildet. Jeder Agent hat auch seine eigene Ansicht darüber, woher er weiß, was er weiß, dh seine Epistemologie, die unserer Meinung nach ihr IS ist, und ist breiter als die von ihnen verwendeten IT-Systeme. Das IS jedes Agenten entwickelt sich durch Interaktion mit anderen Agenten auf der Grundlage der Realitätsansicht des Agenten. Das Zusammenspiel aller Agenten macht die Organisation aus. Noch wichtiger ist, dass unterschiedliche Werte und Interessen jeden Agenten motivieren. Dies ist ihre Axiologie und motiviert sie, zu lernen und ihren IS zu entwickeln. Ein agentenbasierter axiologischer Rahmen ist für das Verständnis der Evolution von Organisationen unerlässlich. Es ist die Interaktion der Agenten, die einen Konsens über die gemeinsame Realität der Organisation herstellt, und dies beeinflusst die Fähigkeit und Motivation jedes Agenten, IS weiterzuentwickeln. Darüber hinaus schlagen wir vor, dass es an der Zeit ist, dass IT-Systeme Modellierungsfunktionen enthalten, die auf Multi-Agenten-Repräsentationen der Organisation und ihres Kontexts basieren, um strategisches Denken und Entscheidungsfindung zu untersuchen und zu unterstützen.;-;-;-;https://link.springer.com/article/10.1057/palgrave.jit.2000075 e77ae1026f81acab96adf664c6ccc956;de;;;7.1.;;;Eine kritische Analyse der Implementierung von Gesundheitsinformationssystemen für die öffentliche Gesundheitsversorgung in Umgebungen mit eingeschränkten Ressourcen: Es wird argumentiert, dass der Einsatz technologischer Lösungen eine qualitätssteigernde Effizienz im Erbringungsprozess von Gesundheitsdienstleistungen bietet. Dazu müssen bestimmte Ziele dieser technologischen Lösungen erreicht werden. Das öffentliche Gesundheitssystem in Südafrika sieht sich verschiedenen Herausforderungen gegenüber, wie einer schlechten Koordinierung der meisten technologischen Lösungen und daher fragmentiert, einer fehlenden Interoperabilität zwischen verschiedenen Systemen, willkürlichen Beschaffungsprozessen und schlechten Informationsmanagementfähigkeiten. Die Argumentation in dieser Studie stellt fest, dass die Ursachen nicht rein logistisch liegen, sondern auch mit Lücken in der Angemessenheit der Gesundheitsinformationssysteme (KIS) und dem Implementierungsprozess dieser technologischen Lösungen zusammenhängen. Eine Fallstudienstrategie, deren empirische Heimat das ländliche Südafrika ist, wurde mit qualitativer Methodik angewendet. Der Rahmen für Aktivitätsanalyse und Entwicklung (ActAD) wurde als theoretische Linse innerhalb des kritischen realistischen Paradigmas verwendet. Die Studie wurde in einer öffentlichen Gesundheitseinrichtung in einer Umgebung mit eingeschränkten Ressourcen durchgeführt. Als Datenerhebungsmethode wurden halbstrukturierte Interviews verwendet, und die Datenanalyse erfolgte durch narrative und erklärende Analysen unter Verwendung eines thematischen Analysetools. Das Papier beabsichtigt, einen Rahmen zu entwickeln, der verwendet werden kann, um den Implementierungsprozess von HIS(s) übergreifend zu informieren. Mit einem Fokus auf den Kontext einer abweichenden nationalen Leistungserbringungsrealität, die sich auf das Recht auf Gesundheitsversorgung in unterversorgten Gemeinden auswirkt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-18400-1_47 0f4fb770ef754b824ab0072bd9675013;de;;;7.1.;;;Business Intelligence im Personalmanagement Das Papier untersucht theoretisch und empirisch die Auswirkungen der Implementierung eines Human Resources Information Systems (HRMIS) auf die Entscheidungsfindung der Human Resources Manager durch den Einsatz von Business Intelligence (BI) Tools, wie Berichte, Analysen, Dashboards und Metriken oder Maßnahmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16528-8_11 63c68859066cde0fa62f42b2f6151618;de;;;7.1.;;;Identifizierung von Datenelementkategorien für Klinische Pflegeinformationssysteme durch Informationsanalyse der Pflegepraxis Es ist selbstverständlich, dass ein klinisches Pflegeinformationssystem (CNIS) beim Management von Pflegedaten, Informationen und Wissen hilft. Während beim Design eines Informationssystems noch andere Faktoren berücksichtigt werden müssen, ist das am engsten von der bedienten Domäne abhängige Element das Design der Datenbank, insbesondere die Identifizierung der Datenelemente selbst und die Art und Weise, wie die Daten das System interagieren. Darüber hinaus muss das Design des CNIS nicht nur Daten berücksichtigen, die für die Dokumentation der Praxis und die Aufzeichnung von Pflegediagnosen, Interventionen und Ergebnissen erforderlich sind, sondern auch Informationen enthalten, die von den Pflegekräften für die Pflege benötigt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-2182-1_55 4fb7a315d8d901d375d7087ed33fe2f2;de;;;7.1.;;;Methoden und Modelle zur strategischen Planung Strategische Planung wurde Mitte der 1960er Jahre von Unternehmensführern als „der beste Weg“ zur Entwicklung und Umsetzung von Strategien angenommen, die den Wettbewerb der einzelnen Geschäftsbereiche verbessern würden. Getreu der Form des wissenschaftlichen Managements bestand dieser beste Weg darin, das Denken vom Handeln zu trennen und brachte das Wachstum der strategischen Planer von Unternehmen hervor (Mintzberg, 1994). Allzu oft hat dieses Modell der strategischen Planung jedoch versagt, das Denken und Handeln innerhalb der Gesundheitsorganisation zu verbinden. Die Disziplin der Umsetzung hat den Planungsaufwand nicht erreicht. Schlimmer noch, viele Unternehmensplaner haben nicht einmal einen guten Prozess. Es wurde als ein Abenteuer für Führungskräfte behandelt – etwas, von dem der intuitive Generalist weiß, dass es getan werden muss –, aber ohne ein System wird es zu einem Wochenend- oder Kurzzeiterlebnis, möglicherweise mit Unterstützung durch externe Berater (Bean, 1993). Leider war und ist die strategische Planung für Informations- und Kommunikationssysteme ein Bereich, der häufig dieser Praktiken schuldig ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-2402-8_13 134b32324ff90cfe9b9ac9f118755280;de;;;7.1.;;;Ein menschlicher Ansatz für das Sicherheitsmanagement im Gesundheitswesen Frühere Forschungen und praktische Erfahrungen im Bereich Informationssicherheit legen nahe, dass das Management der Informationssicherheit im Allgemeinen unzureichend ist und Führungskräfte und Mitarbeiter ein mangelndes Sicherheitsbewusstsein haben. Im Kern sind Sicherheitsprobleme personenbezogen: Menschen nutzen und verwalten täglich Informationssysteme, und Menschen sind sowohl Täter als auch Opfer. Dieses Papier stellt einen Ansatz für das Computersicherheitsmanagement vor, der auf den Menschen ausgerichtet ist und auf der Grundlage der Soft Systems Methodology (SSM) entwickelt wurde. Auch die geplante Anwendung dieses Sicherheitsmanagement-Ansatzes in der Praxis auf ein privates Krankenhaus in Westaustralien wird diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-5041-2919-0_31 9386451556f07723a22f2efdbb1a04c8;de;;;7.1.;;;Gestaltung agentenbasierter elektronischer Arbeitsmärkte Gegenwärtig herrschen zwei Arten des Matchings von Menschen mit Jobs vor: 1) hierarchische Planung und 2) verteilte Märkte. Jedes hat Stärken und Einschränkungen, aber nur wenige Systeme wurden entwickelt, um die Stärken zu nutzen, die beiden entsprechen. Mit der sich entwickelnden Informationstechnologie könnte der Job-Matching-Prozess jedoch über webbasierte Märkte innerhalb des Unternehmens viel gerechter und effizienter durchgeführt werden, und intelligente Agenten bieten ein hervorragendes Potenzial, um sowohl potenzielle Arbeitnehmer als auch Arbeitgeber in einer verteilten, elektronischen Marktplatz. Die Realisierung dieses Potenzials geht jedoch weit über die bloße Änderung der Regeln des internen Job-Matchings oder die Bereitstellung von Agententechnologie für Jobsuchende hinaus. Vielmehr müssen die entsprechenden Märkte und Technologien;-;-;-;https://link.springer.com/article/10.1023/A%3A1011541904948 453f8107c780dc1de4b7be214239cf1f;de;;;7.2.;;;Touristisches Gesicht: Ein auf Konzepten von Freebase basierendes Inhaltssystem für den Zugang zu kulturtouristischen Informationen In immer mehr Anwendungsgebieten werden große Sammlungen digitalisierter multimedialer Informationen gesammelt und müssen gepflegt werden (z.B. im Tourismus, Medizin etc.). Daher besteht ein zunehmender Bedarf an Werkzeugen und Techniken, die die Verwaltung und Nutzung digitaler Multimediadaten unterstützen. Darüber hinaus stehen täglich neue große Datensammlungen zur Verfügung. In diesem Beitrag stellen wir Tourist Face vor, ein System, das darauf abzielt, Textanalysetechniken in das Paradigma der Multimedia-Information, insbesondere touristischer Multimedia-Informationen, zu integrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22327-3_43 8e01cb241444077632f4cdecadcc93d8;de;;;7.2.;;;Vollständig willkürlicher Passagenabruf im Sprachmodellierungsansatz Es wurde erwartet, dass das Abrufen von Passagen eine alternative Methode ist, um das Längennormalisierungsproblem zu lösen, da Passagen einheitlichere Längen und Themen haben als Dokumente. Ein wichtiger Punkt bei der Passagensuche ist die Bestimmung der Passagenart. Unter mehreren verschiedenen Durchgangstypen hat der beliebige Durchgangstyp, der dynamisch je nach Abfrage variiert, die beste Leistung gezeigt. Der vorherige beliebige Passagentyp wird jedoch nicht vollständig untersucht, da er immer noch die Beschränkung auf feste Länge verwendet, wie z;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68636-1_3 127c0e08f886c9efde52ed9f574db0ce;de;;;7.2.;;;Auswahl der Ergebnislisten der N-Top-Wiederherstellung für eine effektive Datenfusion Obwohl die Anwendung der Datenfusion beim Information Retrieval in den meisten Fällen zu guten Ergebnissen geführt hat, wurde festgestellt, dass ihr Erreichen von der Qualität der eingegebenen Ergebnislisten abhängt. Um dieses Problem anzugehen, untersuchen wir in diesem Beitrag die Kombination von nur den;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12116-6_49 e91613ff5b3243ec2355418e8d0e7a79;de;;;7.2.;;;Informationstheoretischer Abruf mit strukturierten Abfragen und Dokumenten In diesem Papier stellen wir eine Erweiterung des Information Retrieval basierend auf der Kullback-Leibler-Divergenz (mit Backoff-Glättung) vor, um strukturierte Abfragen strukturierter Dokumente zu unterstützen. Die vorgeschlagene Methode gilt für mehrere allgemeine Abrufaufgaben, die durch eine Implikationsbeziehung zwischen Texten gekennzeichnet sind, einschließlich Feldthemen und XML-Dokumenten. Wir diskutieren, wie die Methodenparameter zu wählen sind, um die Berechnung der Rangordnungsfunktion effizient zu gestalten. Schließlich berichten wir über einige experimentelle Ergebnisse, die mit einer losen Approximation des Modells basierend auf einer diskriminativen Auswahlstrategie erzielt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73888-6_18 68248a08e4699f9eb83a37783d1e67e4;de;;;7.1.;;;Von Informationssystemen zu Informationsdienstleistungssystemen: Gestaltung der Transformation Serviceorientierung gilt derzeit als vielversprechendes Paradigma, um mit der Komplexität, Interoperabilität und Entwicklung von Enterprise Information Systems (IS) umzugehen, die in heutigen Unternehmen die Hauptbeschäftigung darstellen. Der Wechsel von einer konventionellen IS-Architektur zu einer serviceorientierten Architektur ist jedoch trotz der unterschiedlichen in der Literatur vorgeschlagenen Service-Design-Ansätze keine leichte Aufgabe. In diesem Papier fördern wir die Konzepte des Informationsdienstes und des Informationsdienstesystems (ISS) und stellen drei verschiedene Wege vor, um ein ISS unter Berücksichtigung von Enterprise Legacy IS und/oder von Grund auf neu zu entwerfen. Wir veranschaulichen die drei Ansätze mit Beispielen aus Industrieprojekten und Fallstudien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41641-5_6 5614c45a73dd91ae07efed3418b8478a;de;;;7.2.;;;Sprachmodellierung von Einschränkungen für Text-Clustering Constrained Clustering ist eine kürzlich vorgestellte Familie von halbüberwachten Lernalgorithmen. Diese Methoden verwenden Domäneninformationen, um Einschränkungen für die Clustering-Ausgabe aufzuerlegen. Die Art und Weise, wie diese Beschränkungen (typischerweise paarweise Beschränkungen zwischen Dokumenten) eingeführt werden, besteht darin, neue Cluster-Algorithmen zu entwerfen, die die Erfüllung der Beschränkungen erzwingen. In diesem Beitrag stellen wir einen alternativen Ansatz für das Constrained Clustering vor, bei dem, anstatt neue Algorithmen oder Zielfunktionen zu definieren, die Constraints eingeführt werden, indem die Dokumentdarstellung mittels ihrer Sprachmodellierung modifiziert wird. Genauer gesagt werden die Beschränkungen unter Verwendung der wohlbekannten Relevanzmodelle modelliert, die erfolgreich in anderen Retrieval-Aufgaben wie Pseudo-Relevanz-Feedback verwendet werden. Nach unserem besten Wissen ist dies der erste Versuch, einen solchen Ansatz auszuprobieren. Die Ergebnisse zeigen, dass der vorgestellte Ansatz eine effektive Methode zum Constrained Clustering ist, sogar die Ergebnisse bestehender Constrained Clustering Algorithmen verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28997-2_30 25e3294c03312c1f5564e089971a1479;de;;;7.2.;;;Bildabruf mit Fuzzy Triples Dieses Papier schlägt eine konzeptbasierte und eine ungenaue Bildabgleichs-Retrieval-Technik basierend auf Fuzzy-Tripeln vor. Das allgemeinste Verfahren zum Indexieren und Abrufen von Bildern basierend auf dieser räumlichen Struktur kann das Dreifach-Framework sein. Dieses Framework hat jedoch zwei wesentliche Nachteile, zum einen, dass es kein konzeptbasiertes Bildabrufen unterstützen kann und zum anderen, dass es nicht mit einer ungenauen Übereinstimmung zwischen Richtungen umgeht. In diesem Beitrag wird eine auf Fuzzy-Tripeln basierende Bildwiederherstellungstechnik vorgestellt, die die konzeptbasierte und ungenaue Übereinstimmung ermöglicht. Für die konzeptbasierte Übereinstimmung verwenden wir einen Satz von unscharfen Zugehörigkeitsfunktionen, die wie ein Thesaurus strukturiert sind, während wir für die ungenaue Übereinstimmung eine k-Gewichtsfunktion einführen, um die Ähnlichkeit zwischen den Richtungen zu quantifizieren. Darüber hinaus analysieren wir die Retrieval-Effektivität unseres Frameworks hinsichtlich des Grades des konzeptionellen Matchings und des ungenauen Matchings.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48762-X_81 081b415fefea4264946b96a595c341a5;de;;;7.2.;;;Natural Language Technology und Abfrageerweiterung: Fragestellungen, Stand der Technik und Perspektiven Die Verfügbarkeit einer Fülle von Wissensquellen hat zu einem großen Aufwand bei der Entwicklung und Verbesserung von Information Retrieval-Techniken geführt. Die Informationsbedürfnisse der Nutzer werden in natürlicher Sprache ausgedrückt und der erfolgreiche Abruf hängt stark von der effektiven Kommunikation des beabsichtigten Zwecks ab. Natürlichsprachliche Abfragen bestehen aus mehreren linguistischen Merkmalen, die dazu dienen, das beabsichtigte Suchziel darzustellen. Sprachliche Merkmale, die semantische Mehrdeutigkeiten und Fehlinterpretationen von Abfragen verursachen, sowie zusätzliche Faktoren wie die mangelnde Vertrautheit mit der Suchumgebung beeinträchtigen die Fähigkeit der Benutzer, ihren Informationsbedarf korrekt darzustellen, geprägt durch das Konzept „Intention Gap“. Letzteres wirkt sich direkt auf die Relevanz der zurückgegebenen Suchergebnisse aus, was möglicherweise nicht zur Zufriedenheit der Benutzer ist und ist daher ein Hauptproblem, das die Wirksamkeit von Informationsabrufsystemen beeinträchtigt. Im Mittelpunkt unserer Diskussion steht die Identifizierung der wesentlichen Bestandteile, die die Abfrageabsicht charakterisieren, und ihre Anreicherung durch das Hinzufügen von bedeutungsvollen Begriffen, Phrasen oder sogar latenten Darstellungen, entweder manuell oder automatisch, um ihre beabsichtigte Bedeutung zu erfassen. Insbesondere diskutieren wir Techniken zur Erzielung der Anreicherung und insbesondere solche, die die Informationen verwenden, die aus der statistischen Verarbeitung von Begriffsabhängigkeiten innerhalb eines Dokumentenkorpus oder aus externen Wissensquellen wie Ontologien gewonnen werden. Wir legen die Anatomie eines generischen linguistischen basierten Abfrageerweiterungs-Frameworks fest und schlagen dessen modulbasierte Dekomposition vor, die aktuelle Themen aus der Abfrageverarbeitung, Informationsabfrage, Computerlinguistik und Ontologie-Engineering abdeckt. Für jedes der Module überprüfen wir den Stand der Technik in der Literatur kategorisiert und unter Berücksichtigung der verwendeten Techniken analysiert.;-;-;-;https://link.springer.com/article/10.1007/s10844-011-0174-3 e9ebe0b93ae6a6837c9e9404a61fe476;de;;;7.2.;;;Nutzerbewertung eines marktbasierten Empfehlungssystems Empfehlungssysteme wurden für eine Vielzahl von Anwendungen entwickelt (von Büchern über Urlaub bis hin zu Webseiten). Diese Systeme haben eine Reihe verschiedener Ansätze verwendet, da keine Technik für alle Benutzer in allen Situationen am besten geeignet ist. Angesichts dessen glauben wir, dass Systeme, um effektiv zu sein, eine große Vielfalt solcher Techniken beinhalten sollten und dann eine Art übergreifender Rahmen zu ihrer Koordinierung geschaffen werden sollte, damit dem Benutzer nur die besten Empfehlungen (aus welcher Quelle auch immer) präsentiert werden . Zu diesem Zweck haben wir in unserer bisherigen Arbeit einen marktbasierten Ansatz detailliert beschrieben, bei dem verschiedene Empfehlungsagenten gegeneinander antraten, um dem Nutzer ihre Empfehlungen zu präsentieren. Wir haben durch theoretische Analysen und empirische Auswertungen mit simulierten Nutzern gezeigt, dass ein entsprechend gestalteter Marktplatz in der Lage sein sollte, eine effektive Koordination bereitzustellen. Darauf aufbauend berichten wir nun über die Entwicklung dieses Multiagentensystems und dessen Evaluation mit its;-;-;-;https://link.springer.com/article/10.1007/s10458-008-9029-x 951399e5807c2092eb7d163343acbe33;de;;;7.2.;;;Evaluierung eines kollaborativen Abfragesystems Wir berichten Evaluierungsergebnisse für eine kollaborative Abfrageumgebung. Unsere Ergebnisse zeigen, dass kollaborative Abfragen im Vergleich zu herkömmlichen Informationsabrufsystemen zu einer schnelleren Informationssuche führen können, wenn Benutzer nicht spezifizierte Aufgaben ausführen.;-;-;-;https://link.springer.com/chapter/10.1007/11551362_55 95da561e7d58f23e2622602718b8421d;de;;;7.2.;;;Darstellung und Bewertung granularer Systeme Wir stellen einen allgemeinen Rahmen für die Betrachtung der Qualität granularer Systeme vor. Wir diskutieren Fragen der Darstellung und Verwendung granularer Methoden im Vergleich zum traditionellen Ansatz. Wir konzentrieren uns auf die Nachfrage nach Qualitätsbewertungsstrategien, die granulare Umgebungen nach ihrer Fähigkeit beurteilen, den Rechenaufwand zu reduzieren und die Beschreibung zu vereinfachen und gleichzeitig das erforderliche Maß an Präzision und Relevanz sicherzustellen. Zur Veranschaulichung unseres Ansatzes stellen wir einige Beispiele vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29977-3_29 56a6fcfe16f0aa691d3c0ce129e0c567;de;;;7.1.;;;Gestaltungsprinzipien von Arbeitsorganisation und Fachkräften in einer computerintegrierten Fertigungsumgebung In der Industrie haben sich seit den 1980er Jahren neuartige Rationalisierungsstrategien und eine Änderung der Modernisierungspolitik herausgebildet. Das rasante Entwicklungstempo in der Mikroelektronik und Informationstechnologie verspricht, dass die technischen Ressourcen zur Erreichung eines neuen Optimierungsniveaus zwischen hoher Produktivität und hoher Flexibilität, die bisher widersprüchliche Ziele waren, vorhanden sind. Aufgrund des Systemcharakters dieser Technologien sollen begleitende Rationalisierungsmuster sowohl weitreichend als auch „systemischer“ Natur sein [1].;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-2014-8_2 4c305e4b74a72e9b29eccab00b3f5f1c;de;;;7.1.;;;Smart Factory Information Service Bus (SIBUS) für Fertigungsanwendungen: Anforderung, Architektur und Implementierung Die Smart Factory ist weltweit ein wichtiges Thema, um Industrie 4.0 im Fertigungsbereich zu erreichen. Die aktuelle Forschung zur Smart Factory beschäftigt sich mit der Anwendung des sogenannten Internet of Things (IoT) auf den Shopfloor. Allerdings beschränkt sich das IoT in diesem Zusammenhang oft auf die Lösung lokaler Probleme wie die Verwaltung von Produktinformationen, den kollaborativen Informationsaustausch und die Steigerung der Produktivität. Um das Potenzial des IoT in Fertigungssystemen voll auszuschöpfen, ist es notwendig, der Informationsdienst-Perspektive große Aufmerksamkeit zu schenken. Dieses Papier schlägt eine Referenzarchitektur für den Information Service Bus oder die Middleware für die Smart Factory vor, die für die Informationserfassung, -analyse und -anwendung für die verschiedenen Stakeholder auf den Ebenen Maschinen-, Fabrik- und Unternehmensressourcenplanung verwendet werden kann. Um die wahre Stimme der Branche widerzuspiegeln, wurden echte industrielle Probleme identifiziert, in Anforderungen umgewandelt und in die Informationsarchitektur, d. h. Smart Factory Information Service Bus, integriert. Auch der Implementierungsprozess der Referenzarchitektur wird vorgestellt und anhand von Fallstudien illustriert.;-;-;-;https://link.springer.com/article/10.1007/s10845-016-1251-9 7050984fc12449358f8fe5259114b80a;de;;;7.1.;;;Gestaltung von Anwendungen für global vernetzte Unternehmen Ein internationaler Chemiekonzern beschließt, die Softwarepakete SAPR/3 unternehmensweit einzuführen. Von dieser Entscheidung sind acht Divisionen, 200 rechtlich selbstständige Gesellschaften und rund 150 verschiedene Länder betroffen. Die ersten Implementierungen basierten auf einzelnen Unternehmen innerhalb der Gruppe. Eine Untersuchung der globalen Lieferkette ergab jedoch einen Mangel an Konsistenz in den Kernprozessen. Diese Untersuchung machte deutlich, dass zukünftige Implementierungen konzernweit koordiniert werden müssen. Zunächst ist zu klären, welche Bedeutung die Rechtseinheiten, Bereiche und Regionen für den Konzern zukünftig haben sollen und welche Abhängigkeiten sich daraus ergeben. Aus dieser Analyse der beteiligten Geschäftsbeziehungen lassen sich dann die Integrationsanforderungen ableiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-98076-3_15 f4e6a9f4acf158dfbd5cef56ba82eff1;de;;;7.1.;;;Textinformationsverarbeitung des englisch-literarischen Diskurses Das Hauptziel dieses Papiers ist es, den schriftlichen englischen Diskurs in eine maschinell generierte umfassende Konversation umzuwandeln. Dieses Papier wird vorgeschlagen, um eine vollständige Sprachsynthese für englische Textinformationen bereitzustellen. Die Hauptanwendung des Text-To-Voice (TTV)-Systems besteht darin, Menschen beim Verstehen zu helfen, indem ihnen der Text von Computersoftware vorgelesen wird. Das TTV-System hilft beim Abrufen von Daten von Websites, die Informationen in verschiedenen Sprachstilen enthalten. Das System wurde erfolgreich für den englischsprachigen Literaturdiskurs entwickelt. Es wurde eine sprachbasierte Serienschaltung verwendet, die die Con-Chaining-Punkte reduziert und damit Fehler minimiert. Die Synthese wurde an fachkundigen Zuhörern auf ihre Qualität hin getestet.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-4844-9_55 fd33937018e17b1e91f8023e477079ba;de;;;7.1.;;;Eine Methodik zur Planung geeigneter E-Government-Dienste In diesem Beitrag stellen wir eine Methodik vor, die die Planung von eGovernment-Diensten auf der Grundlage der Angemessenheit der Dienste für die Nutzer unterstützt. Angemessenheit ist ein Grenzbegriff, der die Sichtbarkeitslinie der Leistungserbringung definiert. Neben der Angemessenheit hilft das Konzept der Homologie des Systems, das Gewirr zwischen soziokulturellen und technischen Fragen zu erfassen. Die Methodik ermöglicht tatsächlich die Gestaltung von Diensten mit dem Ziel, (a) die Benutzerfähigkeiten zu verbessern und (b) die geplanten Zielvorgaben zu erfüllen. Zu diesem Zweck stellt das Papier das Instrument der Scenery and Context Indicators (SCI) für die Evaluierung von eGovernment-Projekten vor. Ein Beispiel für die Anwendung von SCI wird diskutiert, wobei die Abhängigkeiten zwischen sozialen und technologischen Systemen berücksichtigt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-2010-2_8 33356fce43801c6e8a7323dd84b2fcfc;de;;;7.1.;;;Entscheidungsfindung in Organisationen Wie in den vorherigen Kapiteln erörtert wurde, stellt die Projektsteuerung die Managementstrukturen, Richtlinien, Prozesse, Rollen und Verantwortlichkeiten bereit, die dazu beitragen, dass (a) Organisationen Projekte auswählen, die ihre Geschäftsstrategie unterstützen, (b) die Ziele von Unternehmensinvestitionen in das richtige Projekt umgesetzt werden translated Ziele, Aktivitäten und Aufgaben, und (c) die Projektmanagementstrukturen und -prozesse sind so eingerichtet, dass die Umsetzung in Übereinstimmung mit den Zielen und Geschäftserwartungen gesteuert werden kann. All dies dreht sich im Wesentlichen um die organisatorische Fähigkeit, an Schlüsselpunkten im Leben eines Projekts die richtigen Entscheidungen zu treffen – wo das „richtige“ eine komplexe und ungewisse Angelegenheit ist, zu der mehrere Stakeholder viele unterschiedliche Ansichten haben. Die Wirksamkeit der Projekt-Governance kann daher daran gemessen werden, wie sie die organisatorische Entscheidungsfindung rund um Projekte unterstützt.;-;-;-;https://link.springer.com/chapter/10.1057/9781137274618_6 32dc65c2497c631106dfc21bd20bb037;de;;;7.1.;;;Toolbox zur Planung von Fertigungssystemen und Prozessausführungen Das Papier berichtet über das ESPRIT-Projekt CIM-PLATO (2202). Im Zuge dieses Projekts werden Tools entwickelt, die die Konstruktion, Planung und Installation von Fertigungssystemen unterstützen. Um den Nutzen und die Effizienz dieser Tools zu erhöhen, werden sie in Toolboxen integriert. Als erster Schritt zur Integration werden Demonstratorsysteme realisiert und öffentlich präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-2560-4_59 a1c79d7f4f97949f3a78b57b8d558c76;de;;;7.2.;;;Quality of Service-Anforderungen in Computernetzwerken mit Blocking Dieses Papier bietet eine analytische Untersuchung der geschlossenen Multicenter-Netzwerke mit zwei unterschiedlichen Blockierungsstrategien. Die Wirksamkeitsmaße im Zusammenhang mit solchen Modellen und basierend auf den Anforderungen an die Dienstgüte (QoS) werden untersucht. In Modellen mit endlicher Population (geschlossen) mit mehreren Knoten, bei denen die Anzahl der Aufgaben gleich der Population im Netzwerk ist, gibt es Servicezentren und Quellzentren, die als unendliche Server behandelt werden (IS – bedeutet, reichlich-Server-Modell). In den hier beschriebenen Systemen gibt es eine endliche Anzahl von Aufgaben, die von einem Servicezentrum zum anderen wechseln. Wenn der Puffer an einer Frontseite des Servicezentrums voll ist, wird die Ansammlung neuer Aufgaben durch dieses Zentrum zeitweilig ausgesetzt (Blockierung).;-;-;-;https://link.springer.com/chapter/10.1007/0-387-26325-X_25 f865b7e355dc5713ec7b3aada9dfaf4d;de;;;7.1.;;;Modell- und simulationsbasiertes flexibles Produktionsmanagementsystem Ziel des Projekts MOBILEIT-S ist die Entwicklung einer modellbasierten Toolbox, die die Möglichkeit bietet, integrierte Fertigungsleitsysteme mit Simulationskern zu entwerfen und zu konfigurieren. Grundlage dieses Produktionsmanagementsystems ist ein Metamodell, das den strukturellen Rahmen für allgemeine Referenzmodelle der Fertigungsauftragsabwicklung für unterschiedliche Organisationen wie Einzelstück- oder Serienfertigungen liefert. Das Metamodell der Fertigungssteuerung leitet sich aus dem allgemeinen organisatorischen „Viable System Model“ ab und beschreibt die Mindestanforderungen an ein Informationssystem aus Sicht der Information, Kommunikation und Steuerung. Es handelt sich um ein kybernetisches Modell, das auf den Ideen der Kybernetik zweiter Ordnung basiert und es ermöglicht, die notwendigen Kommunikations- und Kontrollstrukturen für eine Organisation aus sozio-technologischer Perspektive zu gestalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35291-6_40 743b30a6cbf4ed3eda5cf9c6591042be;de;;;7.1.;;;Interaktive Modelle zur Unterstützung der Bauplanung Der Bau eines Gebäudes wird traditionell auf den jeweils erstellten Zeitplänen der Bautätigkeiten und auf technischen Zeichnungen des Projekts unterstützt. Ein Prototyp auf Basis der Virtual Reality (VR)-Technologie mit Anwendung auf die Bauplanung wurde umgesetzt. Dieses interaktive virtuelle Modell soll das Projekt dreidimensional (3D) in Verbindung mit dem Bauplanungsplan präsentieren, was zu einem wertvollen Vorteil bei der Überwachung der Entwicklung der Bautätigkeit auf der Grundlage der entworfenen Bauplanung führt. Die 4D-Anwendung berücksichtigt den Zeitfaktor, der die 3D-Geometrie der einzelnen Schritte der Bautätigkeit gemäß dem für die Konstruktion erstellten Plan zeigt. Das 4D-Modell bietet eine detaillierte Analyse des Bauvorhabens. Darüber hinaus wird die VR-Technologie als innovatives visuelles Werkzeug eingesetzt und präsentiert. Es ermöglicht die Visualisierung verschiedener Bauphasen und die Interaktion mit der Bautätigkeit. Diese Anwendung zeigt anschaulich den konstruktiven Prozess, vermeidet Ungenauigkeiten und Baufehler und verbessert so die Kommunikation zwischen den Partnern im Bauprozess. Dieses Tool ist eine wichtige Unterstützung bei der Projektkonzeption und -anwendung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24355-4_5 e69dc8802e9772b51238b573d7dbb843;de;;;7.1.;;;Ein Expertensystem als Manager in der Anwendung von Produktionsplanungs- und Steuerungssoftware in CIM-Umgebungen In diesem Beitrag wird dargestellt, wie Expertensystemtechnologie für die Entwicklung eines Beratungstools an der Nationalen Technischen Universität Athen verwendet wurde, um diejenigen zu unterstützen, die Produktionsplanungs- und Steuerungssoftware (PPC) in ihrem Fertigungsunternehmen anwenden möchten. In der erstellten Wissensbasis werden sowohl eine Produktivsystem-Taxonomie als auch ein generisches Softwarepaket mit spezifischen Modulen und Funktionen vorgestellt. Die Schlussfolgerungen basieren auf Regeln, die die Notwendigkeit der Existenz bestimmter Software ausdrücken, wenn eine Reihe von Produktionssystemmerkmalen in dem betrachteten Produktionssystem gefunden wird. Die vom Expertensystem gelieferten Ergebnisse umfassen die gesamte Architektur des PPC-Softwarepakets, die in einer bestimmten Fertigungsumgebung anwendbar ist.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-57234-1_60 dbf5dd65fe3338e7ffa29a7be1461b6b;de;;;7.1.;;;Analytische Methoden in Informationssystemen Neuere Forschungen zur Theorie der Informationssysteme haben zu einer Technik geführt, die wir Aktivitätsanalyse nennen. Diese Technik soll dem Analytiker/Designer eine systematische Methode zur Analyse der Struktur eines Systems bieten. Damit kann er Konsistenz prüfen, Redundanzen erkennen und die Wartung und Modifikation bestehender Systeme vereinfachen. Seine Verwendung kann auch die Effizienz des Entwurfs neuer Systeme verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-6448-5_3 3e3f7bbdb0d25fc805fba040e7445034;de;;;7.1.;;;Die Implementierung des Wahrnehmungsgedächtnisses kognitiver Agenten in einem integrierten Managementinformationssystem Dieses Papier stellt die Probleme im Zusammenhang mit der Implementierung des Wahrnehmungsgedächtnisses kognitiver Agenten vor – ein sehr wichtiges Modul der Agentenarchitektur ermöglicht die Interpretation der in der Unternehmensumgebung auftretenden Phänomene. Die Agenten arbeiten in einem Prototyp eines integrierten Management-Informationssystems. Die größte Herausforderung im Zusammenhang mit dem Wahrnehmungsgedächtnis ist die Wissensverarbeitung, parallel zur symbolischen und emergenten Weise. Darüber hinaus ist ein sehr wichtiger Aspekt die Verwendung eines standardisierten Ansatzes aufgrund der Notwendigkeit, Interoperabilität zu erreichen. Die Autoren präsentieren die Verwendung eines Topic-Map-Standards und eines semantischen Netzwerks mit Knoten- und Verbindungsaktivierungsebenen (Slipnet), um Wahrnehmungsgedächtnis in der Architektur des Learning Intelligent Distribution Agent zu implementieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16211-9_29 81dc8b66cc03db6924d5238f0fc30600;de;;;7.2.;;;Automatisch gepflegtes Domänenwissen: Erste Erkenntnisse Dieses Papier untersucht die Verwendung von implizitem Benutzerfeedback bei der Anpassung des zugrunde liegenden Domänenmodells eines Intranet-Suchsystems. Das Domänenmodell, ein Formal Concept Analysis (FCA)-Gitter, wird als interaktive Schnittstelle verwendet, um Benutzern die Erkundung des Kontexts einer Intranet-Abfrage zu ermöglichen. Hier wird implizites Benutzerfeedback genutzt, um die Schwierigkeit zu überwinden, optimale Dokumentdeskriptoren zu erzielen, die für ein durchsuchbares Gitter wesentlich sind. Wir präsentieren die Ergebnisse einer ersten Benutzerstudie zu Abfrageverfeinerungen, die von unserem angepassten Gitter vorgeschlagen wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00958-7_77 8ed6435b2b7f27fdc02f2fc1950591ee;de;;;7.1.;;;Diagramme als Werkzeuge im Design von Informationssystemen Design stützt sich in der Regel auf Diagramme, um Speicher und Informationsverarbeitung zu entlasten und Entdeckungen und Schlussfolgerungen zu fördern. Das Design von Informationssystemen hängt im Gegensatz zum Design von Gebäuden und Produkten eher von der topologischen Konnektivität als von der euklidischen Distanz ab. Das Verständnis der Graphtopologie und die Manipulation von Graphen sind wesentliche Fähigkeiten beim Entwurf von Informationssystemen, da die Graphenmanipulation die Verfeinerung von Designs und die Generierung alternativer Designs erleichtert. Hier stellten wir fest, dass Studenten des Systemdesigns Schwierigkeiten haben, Diagramme zu interpretieren, wobei zwei Verzerrungen aufgedeckt werden, eine sequenzielle Verzerrung und eine Verzerrung der Lesereihenfolge. Die Ergebnisse haben Implikationen sowohl für die Lehre als auch für die Diagrammgestaltung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-8728-8_6 6220ad5aa75629572186b8899f0864fb;de;;;7.1.;;;Umsetzung der Sicherheitsrichtlinien für Informationssysteme in der Praxis: von Best Practices zu situierten Praktiken Unternehmen stehen unter institutionellem Druck, Best Practices für die Sicherheit von Informationssystemen (ISS) zu übernehmen, um Risiken für ihre Informationsressourcen zu managen. Die Literatur zeigt, dass Best Practices kontextualisiert werden sollten, d. h. von universellen und allgemeinen Vorschriften in organisatorische Dokumente und Praktiken übersetzt werden sollten. Es ist jedoch wenig darüber bekannt, wie Organisationen die Umsetzung von Best Practices in situierte Praktiken tatsächlich vornehmen. In dieser ethnographischen Studie greifen wir auf die Praxistheorie und verwandte Konzepte kanonischer und nicht-kanonischer Praktiken zurück, um den Übersetzungsprozess zu analysieren. Wir untersuchen, wie ein IT-Dienstleister die ISS-Best-Practice der Informationsklassifizierung in eine ISS-Richtlinie und in situierte Praktiken übersetzt hat. Wir identifizieren drei Übersetzungsmechanismen: (1) das Übersetzen von globalen ins lokale, (2) das Unterbrechen und die Rekonstruktion lokaler nicht-kanonischer Praktiken und (3) die Rekonstruktion und Umsetzung lokaler kanonischer Praktiken. Wir stellen fest, dass die Übersetzung zwar durch inkongruente Praktiken, ein unzureichendes Verständnis der Arbeit der Mitarbeiter und das mangelnde Engagement der ISS-Manager für organisatorische Praktiken behindert wurde, es jedoch ermöglichte, dass situierte Praktiken die ISS-Politik mitgestalten und die Mitarbeiter aktiv in die Rekonstruktion situierter Praktiken eingebunden wurden positiv auf die Übersetzung. Beiträge und Implikationen für Forschung und Praxis werden diskutiert und Schlussfolgerungen gezogen.;-;-;-;https://link.springer.com/article/10.1057/s41303-016-0025-y 70d01a509f7ebc084bda590ae07c4e79;de;;;7.1.;;;Modell des Informationssystems in der Organisation zur Kontrolle des aktuellen Informationssicherheitsniveaus Der Artikel skizziert ein Konzept zur Aufrechterhaltung des erforderlichen Sicherheitsniveaus der Assets des Informationssystems in der Organisation (ISO) durch geeignete Steuerungsentscheidungen, die die Generierung der Sicherheitskonfigurationen einleiten. Die Autoren schlugen und formulierten die Modelle des Sicherheitssubjekts und -objekts sowie das Modell des Informationssystems in der Organisation zur Kontrolle des aktuellen Niveaus der Informationssicherheit (Informationsressourcen) und der aktuellen Leistungseigenschaften der Operations-Subsysteme, die in der ISO enthalten sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-14132-5_34 314ad3e58c9d5ca7c49d174d42afccae;de;;;7.1.;;;Ein wissensbasierter Ansatz für die Entwicklung branchenspezifischer Produktionsmanagementsoftware Zur Lösung des Problems der Ermittlung von Softwareanforderungen für Produktionsplanungs- und Steuerungssysteme werden eine Methodik und ein Expertensystem vorgestellt. Es wird eine duale Taxonomie von Produktionssystemen vorgeschlagen, die sowohl auf Funktionstypen als auch auf Industriesektoren basiert. Das Hauptthema der Forschung ist die Lösung des Implementierungsdilemmas „Ändern Sie die Standardsoftware oder die Organisation des Unternehmens?“. Die Methodik wird mit Hilfe von Software-Engineering-Werkzeugen von der strukturierten Systemanalyse bis hin zur objektorientierten Expertensystem-Shell mit gleichzeitiger Unterstützung der Hypercard-Technik umgesetzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-1786-5_27 1dbaf30387fe93c017661900bc89c796;de;;;7.2.;;;Zur Bewertung von Textkorpora Klassifikatorunabhängige Maßnahmen sind wichtig, um die Qualität von Korpora zu beurteilen. In diesem Papier stellen wir überwachte und unüberwachte Maßnahmen vor, um mehrere Datensammlungen zur Untersuchung der folgenden Merkmale zu analysieren:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12550-8_23 121c45a7d2e5daef20d0956af35de323;de;;;7.2.;;;Ein neuer Ansatz für die Alphabet-Erweiterung zur Verbesserung statischer Komprimierungsschemata Die Leistung der Datenkomprimierung bei einem großen statischen Text kann verbessert werden, wenn bestimmte Zeichenfolgen variabler Länge in dem Zeichensatz enthalten sind, für den ein Code generiert wird. Basierend auf einer Reduktion auf ein graphentheoretisches Problem wird eine neue Methode zur Erweiterung des Alphabets vorgestellt. Ein verwandtes Optimierungsproblem wird als NP-vollständig gezeigt, eine schnelle Heuristik vorgeschlagen und experimentelle Ergebnisse präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45321-2_10 d75215d1a1264bda3c396fa94ad7e67f;de;;;7.2.;;;Festlegen von Hyper-Parametern für die Normalisierung pro Feld für die Suchaufgabe zum Suchen nach benannten Seiten Die Normalisierung pro Feld hat sich für Websuchaufgaben als effektiv erwiesen, z. Named-Page-Suche. Jedoch leidet die Normalisierung pro Halbbild auch daran, dass Hyperparameter auf einer Pro-Halbbild-Basis abgestimmt werden müssen. In diesem Papier argumentieren wir, dass der Zweck der Normalisierung pro Feld darin besteht, die lineare Beziehung zwischen Feldlänge und Termfrequenz anzupassen. Wir experimentieren mit Standard-Webtestsammlungen und verwenden dabei drei Dokumentfelder, nämlich den Hauptteil des Dokuments, seinen Titel und den Ankertext der eingehenden Links. Aus unseren Experimenten stellen wir fest, dass in verschiedenen Sammlungen die linearen Korrelationswerte, die durch die optimierten Hyperparametereinstellungen gegeben werden, proportional zur maximalen negativen linearen Korrelation sind. Basierend auf dieser Beobachtung entwickeln wir ein automatisches Verfahren zum Festlegen der Hyperparameterwerte der Normalisierung pro Feld ohne die Verwendung einer Relevanzbewertung für die Abstimmung. Nach den Auswertungsergebnissen erweist sich diese Methode für die Felder body und title als effektiv. Außerdem wird die Schwierigkeit beim Festlegen des Pro-Feld-Normalisierungs-Hyperparameters für das Ankertextfeld erklärt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71496-5_42 2519da7b9efdbbabd8579aaec1c4d8e1;de;;;7.2.;;;Annähernde fundierte Semantik, Abfragebeantwortung und generalisierte normale Logikprogramme über Gitter Die Verwaltung ungenauer Informationen in Logikprogrammen wird immer dann wichtig, wenn die darzustellenden realen Informationen unvollkommen und klassisch scharf;-;-;-;https://link.springer.com/article/10.1007/s10472-008-9099-0 c99367ed9bdd4d109f9c368ab5e219d2;de;;;7.2.;;;Einführung von Syntaxinformationen in einen stochastisch-basierten semantischen Grammatikparser Parse Wir untersuchen den Einfluss der Einführung von Syntaxinformationen in eine stochastische Komponente für das Verständnis natürlicher Sprache, die auf einem rein semantischen Fallgrammatikformalismus basiert. Der Parser arbeitet in einer Anwendung zum Abrufen von Zugreiseinformationen, der französischen Aufgabe ARISE (Automatic Railway Information Systems for Europe). Diese Anwendung unterstützt die Entwicklung von Fahrplanauskunftsdiensten per Telefon. Die semantische Kasusgrammatik wurde gewählt, um die Robustheit gegenüber spontanen Spracheffekten zu erhöhen. Diese Robustheit wird jedoch wahrscheinlich zu einem Nachteil, wenn die semantische Analyse Informationen ignoriert, die durch syntaktische Beziehungen propagiert werden. Die Einführung zusätzlicher Syntaxinformationen, deren Komplexität gut an die Größe des stochastischen Modells angepasst ist, kann die Decodierung eindeutig machen und damit verbessern.;-;-;-;https://link.springer.com/article/10.1023/B%3AIJST.0000004807.22285.36 8152aafcedddc62c918654f6df429a85;de;;;7.2.;;;Untersuchung der Robustheit von Bewertungsmetriken für die Einziehung von Patenten mit unvollständigen Relevanzurteilen In den letzten Jahren ist das Interesse an der Erforschung des Patentabrufs gewachsen. Eine der Schlüsselfragen bei der Durchführung von Information Retrieval (IR)-Forschung ist die aussagekräftige Bewertung der Wirksamkeit der Retrieval-Techniken, die auf die zu untersuchende Aufgabe angewendet werden. Im Gegensatz zu vielen existierenden, gut erforschten IR-Aufgaben, bei denen der Fokus auf der Erzielung einer hohen Abrufpräzision liegt, ist der Patentabruf in hohem Maße eine auf Rückrufe fokussierte Aufgabe. Die Standardbewertungsmetrik, die für Bewertungsaufgaben bei der Patentrecherche verwendet wird, ist derzeit die mittlere durchschnittliche Präzision (MAP). Dies spiegelt jedoch den Systemrückruf nicht gut wider. Unterdessen spiegelt die Alternative zur Verwendung des Standard-Rückrufmaßes nicht den Suchaufwand des Benutzers wider, was in praktischen Patentrecherchenumgebungen ein wesentlicher Faktor ist. In einer neueren Arbeit stellen wir eine neuartige Bewertungsmetrik für die Bewertung von Patentauffindbarkeiten (PRES) vor [‎13]. Dies soll sowohl den Systemrückruf als auch den Benutzeraufwand widerspiegeln. Die Analyse von PRES zeigte seine größere Wirksamkeit bei der Bewertung von rückruforientierten Anwendungen als Standard-MAP und Rückruf. Eine bisher nicht untersuchte Dimension der Bewertung des Patentabrufs ist die Auswirkung auf die Zuverlässigkeit der Bewertungsmetriken bei unvollständigen Relevanzbeurteilungen. Wir bieten eine Studie an, die das Verhalten von PRES mit den Standard-MAP- und Recall-Metriken für unterschiedliche unvollständige Urteile bei der Wiedergewinnung von Patenten vergleicht. Experimente, die mit Läufen aus den Datensätzen des CLEF-IP 2009 durchgeführt wurden, zeigen, dass PRES und Recall bei unvollständigen Relevanzsätzen für diese Aufgabe robuster sind als MAP, wobei PRES als robusteste Bewertungsmetrik für die Vollständigkeit von der Relevanzsatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15998-5_10 e9ae92163f4823f91ff293013e45c26f;de;;;7.2.;;;Relevanz-Feedback für das Abrufen von Skizzen basierend auf der Klassifikation der linearen Programmierung Relevanz-Feedback spielt beim Sketch-Retrieval eine ebenso wichtige Rolle wie beim bestehenden inhaltsbasierten Retrieval. In diesem Beitrag wird eine Methode des Relevanz-Feedbacks für das Sketch-Retrieval mittels Linear Programming (LP)-Klassifikation vorgestellt. Ein LP-Klassifikator ist so konzipiert, dass er gleichzeitig Online-Training und Funktionsauswahl durchführt. In Kombination mit der Merkmalsauswahl kann es eine Reihe von benutzersensitiven Merkmalen auswählen und eine Klassifizierung bei einer kleinen Anzahl von Trainingsbeispielen gut durchführen. Experimente belegen, dass die vorgeschlagene Methode für das Relevanz-Feedback beim Sketch-Retrieval sowohl effektiv als auch effizient ist.;-;-;-;https://link.springer.com/chapter/10.1007/11922162_24 32383796d93c8cd775f9977b0ceafe70;de;;;7.2.;;;Prozessdefinition zu Informationssystemen für Epidemiologie und öffentliche Gesundheit Die Bewertung der Prozessdefinition zu Informationssystemen umfasst eine Reihe von Aktivitäten, die darauf abzielen, die Auswirkungen im weiteren Sinne bis hin zu ihrer Kommunikation oder Verbreitung in einem nicht-wissenschaftlichen Bereich zu verfolgen. Der erste Anwendungsbereich besteht darin, die Erträge aller zugewiesenen Ressourcen zu kennen, obwohl der Anwendungsbereich breiter ist, da er auf lange Sicht auch vorgibt, den Prozess an sich selbst und seine Finanzierungsprogramme und -prioritäten mit dem Ziel der Bewertung der sozialen Erträge, epidemiologischen , Gesundheitsdienste und öffentliches Gesundheitswesen zu verbessern und zum vorhandenen Erfahrungswissen in diesem Fachgebiet beizutragen. In diesem Rahmen bietet das vorliegende Dokument einen Überblick über die offenen Herausforderungen, schlägt einen angepassten Rahmen vor und beleuchtet methodische Fragen für weitere Anwendungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03005-0_78 f2271c62cdeb30aea3af10b4cdb8b2fc;de;;;7.1.;;;Kognitive Modellierung und Computersimulation der mentalen Aktivitäten von Fahrern In der Literatur sind mehrere Autofahrermodelle verfügbar. Aus historischer Sicht lassen sich in diesem Forschungsbereich für die letzten 40 Jahre drei Hauptphasen ausmachen. Die Werke von (;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84628-618-6_18 06606067797135a535d7c32e1783e70c;de;;;7.1.;;;Eine Kommunikationstheorie für das User Interface Design verteilter Informationssysteme Wir erforschen die Phänomene der Kommunikation und der computervermittelten Kommunikation. Befragt werden Konzepte aus der Informationstheorie, dem User Interface Design und der Semiotik. Aspekte der kognitiven und sozialen Dynamik der Kommunikation werden diskutiert. Es wird eine neuartige Kommunikationstheorie vorgeschlagen und eine Pilotstudie durchgeführt, um einige der Hauptpostulate der Theorie konzeptionell zu validieren. Verwandte Arbeiten werden gegeben und zukünftige Pläne werden skizziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35614-3_19 fe19bdaf91c0a56dd5eeed20ed39c9de;de;;;7.1.;;;Einfluss der Digitalen Fabrik auf den Produktionsplanungsprozess Die sich ändernden Rahmenbedingungen in der Automobilindustrie erfordern, dass Montagelinien immer schneller und in einem immer frühen Stadium des Produktentwicklungsprozesses gebaut werden. Da mit herkömmlichen Planungsprozessen, Organisationsstrukturen und Softwaresystemen die geforderten Effizienzsteigerungen nicht zu erreichen waren, führte die DaimlerChrysler AG die;-;-;-;https://link.springer.com/chapter/10.1007/0-387-23078-5_6 5e5443f3737eb65db17ac0848363642a;de;;;7.2.;;;Bewertung von Text-Clustering-Algorithmen mit N-Gram-basierten Dokumenten-Fingerabdrücken Dieses Papier stellt einen neuen Ansatz vor, der entwickelt wurde, um die Rechenlast der bestehenden Clustering-Algorithmen zu reduzieren, indem die Dokumentgröße mithilfe von Fingerprinting-Methoden reduziert wird. Eine gründliche Bewertung wurde über drei verschiedene Sammlungen und unter Berücksichtigung von vier verschiedenen Metriken durchgeführt. Der vorgestellte Ansatz zum Dokumentenclustering erzielte gute Effektivitätswerte bei erheblicher Einsparung von Speicherplatz und Rechenzeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00958-7_61 9ad66b6990df267b461af3f0c95ce10b;de;;;7.2.;;;Mischung aus KL-Unterräumen für Relevanz-Feedback Relevanz-Feedback ist kürzlich als eine Lösung für das Problem der Verbesserung der Wiedergewinnungsleistung eines Bildwiedergewinnungssystems auf der Grundlage von Informationen niedriger Ebene, wie etwa Farb-, Textur- und Formmerkmalen, entstanden. Die meisten Ansätze mit Relevanz-Feedback beschränken die Nutzung des Feedbacks des Benutzers auf eine einzelne Suchsitzung, bei der ein kurzfristiges Lernen durchgeführt wird. In diesem Beitrag stellen wir einen neuartigen Ansatz für kurz- und langfristiges Lernen vor, der auf der Definition einer adaptiven Ähnlichkeitsmetrik und einer High-Level-Repräsentation der Bilder basiert. Beim kurzfristigen Lernen werden die relevanten und nicht relevanten Informationen des Benutzers während des Feedbackprozesses verwendet, um einen positiven und einen negativen Teilraum des Merkmalsraums zu erzeugen. Für ein langfristiges Lernen wird die Feedback-Historie aller Benutzer ausgenutzt, um eine Darstellung der Bilder zu erstellen und zu aktualisieren, die zur Verbesserung der Abrufleistung und zur schrittweisen Verringerung der semantischen Lücke zwischen Low-Level-Features und High-Level-Semantikkonzepten verwendet wird. Die experimentellen Ergebnisse belegen, dass die vorgeschlagene Methode viele andere Methoden des Standes der Technik beim kurzfristigen Lernen übertrifft und demonstrieren die Wirksamkeit der für das langfristige Lernen angewandten Darstellung.;-;-;-;https://link.springer.com/article/10.1007/s11042-007-0139-2 5e7d145dc2a8b87fc8f022a8387ef0fa;de;;;7.2.;;;Verwendung eines impliziten Graphen zur Empfehlung relevanter Videos: Eine simulierte Bewertung In diesem Papier schlagen wir ein Modell vor, um Community-basierte Nutzungsinformationen für den Videoabruf zu nutzen. Implizite Nutzungsinformationen aus einem Pool früherer Benutzer könnten eine wertvolle Quelle sein, um die durch das Problem der semantischen Lücke verursachten Schwierigkeiten anzugehen. Wir schlagen ein graphenbasiertes implizites Feedbackmodell vor, in dem alle Nutzungsinformationen dargestellt werden können. Eine Reihe von Empfehlungsalgorithmen wurde vorgeschlagen und getestet. An der TREC VID-Sammlung wird eine simulierte Nutzerbewertung durchgeführt und die Ergebnisse präsentiert. Bei der Analyse der Ergebnisse fanden wir einige gemeinsame Merkmale der leistungsstärksten Algorithmen, die den besten Weg zur Nutzung dieser Art von Nutzungsinformationen anzeigen könnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78646-7_20 56afd91100bc3813c878653fffb7307b;de;;;7.2.;;;Ein Experiment zum Abrufen von Dokumenten mit konzeptionellen Graphen In diesem Artikel wird ein Experiment beschrieben, bei dem konzeptionelle Graphen zur Darstellung von Dokumenten und Abfragen verwendet werden. Dieser Beitrag konzentriert sich auf die Darstellungs- und Antwortsprache, eine Variante einfacher CGs, und nicht auf die automatische Indexierung. Zwei wichtige Besonderheiten des in diesem Artikel beschriebenen Experiments sind: erstens verwendet es eine bestehende allgemeine „Ontologie“, den Thesaurus von RAMEAU, der in allen französischen Universitätsbibliotheken verwendet wird, zweitens wurde die CG-Indexierung aus der bestehenden Indexierung gewonnen durch Hinzufügen einer neuen „relationalen“ Ebene. Das Hauptziel dieses Beitrags ist es zu zeigen, dass es möglich ist, zu allgemeinen traditionellen Dokumenten-Retrieval-Systemen eine CG-Ebene hinzuzufügen und dass es sich lohnt, zusätzliche Kosten zu bezahlen, da die Verwendung von CG für die Indexierung von Dokumenten und die Darstellung führt zu deutlichen Verbesserungen der erhaltenen Antworten.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0027893 420d6c2112241646f648a1f51746e93b;de;;;7.2.;;;Überarbeitungen der Domänennamen und Definitionen des Patient-Reported Outcome Measurement Information Systems (PROMIS): weitere Bewertung der Inhaltsvalidität in IRT-abgeleiteten Item-Banken Die Inhaltsvalidität von Patient-Reported Outcomes (PROs) wird hauptsächlich während der Itementwicklung evaluiert, aber nachfolgende psychometrische Analysen, insbesondere für Item-Response-Theorie (IRT)-abgeleitete Skalen, führen oft zu einem erheblichen Item-Pruning und einem möglichen Inhaltsverlust. Nachdem wir Items für die PROMIS-Banken auf Grundlage psychometrischer und inhaltlicher Überlegungen ausgewählt hatten, luden wir externe Inhaltsexperten ein, um zu prüfen, inwieweit die ursprünglichen Domänennamen und Definitionen den kalibrierten Inhalt der Item-Banken repräsentierten.;-;-;-;https://link.springer.com/article/10.1007/s11136-010-9694-5 5f7b8367a3e591b39dd2a10b5b888e1a;de;;;7.1.;;;Modellierung und Auswertung des Workflows der Echtzeitpositionierung und Routenplanung für ITS Intelligente Verkehrssysteme (ITS) als integrierte Systeme einschließlich Steuerungstechnologien, Kommunikationstechnologien, Fahrzeugsensorik und Fahrzeugelektronik haben wertvolle Lösungen für die immer schwerwiegenderen Verkehrsprobleme bereitgestellt. Um ein effizientes Management aller Arten von Transportressourcen zu erreichen und ITS besser zu nutzen, ist es daher notwendig und wichtig, die Architektur und Leistung von ITS weiter eingehend zu untersuchen. Dieses Papier verwendet eine Art der stochastischen Prozessalgebra (SPA) – Performance Evaluation Process Algebra (PEPA), um den Prozess der Echtzeitpositionierung und Routenplanung in ITS zu modellieren und zu bewerten. In der Zwischenzeit wird die Flüssigkeitsströmungs-Approximation verwendet, um eine Leistungsanalyse durch PEPA-Modelle durchzuführen, dann können die maximale Nutzung und der Durchsatz des Systems erreicht und analysiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-69877-9_30 c27c01c5e1f8171cef05a2459b3020c9;de;;;7.1.;;;Methoden und mathematische Modelle der Haushaltsführung Die Methoden und mathematischen Modelle zur Programmsteuerung von Haushaltsmitteln, die auf das Endergebnis wie die richtige Planung ausgerichtet sind, wurden gemäß dem strategischen Plan der sozioökonomischen Entwicklung des Landes/der Region entwickelt. Das Endergebnis dient als Orientierungspunkt, der es ermöglicht, die Erreichbarkeit des vorgegebenen Niveaus unter bestimmten Beschränkungen der Haushaltsmittel und des für den Zeitpunkt der Mittelfristplanung ermittelten Haushaltspotenzials abzuschätzen. Das Kapitel stellt die Methode zur Schätzung der Stabilität von Programmbewegungen vor, die Systementscheidungen basierend auf der Konstruktion der Lyapunov-Funktion bestimmt und die Schätzung der Effizienz des Budgetmechanismus der Ressourcenverteilung ermöglicht. Es werden die Prinzipien des Entwurfs eines intellektuellen Systems zur Modellierung des Programms der Kontrolle der Haushaltsmittel und der Möglichkeit, die erhaltene Entscheidung durch die Anpassung des Indikatorensystems zu korrigieren, beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45142-7_2 84f0752cc7c0ba7065d1bbe469861b11;de;;;7.2.;;;Entity-Centric Stream Filtering and Ranking: Filtern und nicht filterbare Dokumente Die kumulative Zitationsempfehlung (CCR) ist definiert als: bei gegebenem Dokumentenstrom einerseits und Knowledge Base (KB)-Entitäten andererseits, zitierwürdige Dokumente filtern, einordnen und empfehlen. Die Pipeline, die in Systemen angetroffen wird, die sich diesem Problem nähern, umfasst vier Phasen: Filterung, Klassifizierung, Rangfolge (oder Bewertung) und Bewertung. Die Filterung ist nur ein erster Schritt, der den Web-Scale-Korpus auf einen Arbeitssatz von Dokumenten reduziert, der für die nachfolgenden Phasen besser zu handhaben ist. Dennoch hat dieser Schritt einen großen Einfluss auf den maximal erreichbaren Recall. Diese Studie analysiert eingehend die Hauptfaktoren, die die Erinnerung in der Filterphase beeinflussen. Wir untersuchen die Auswirkungen von Entscheidungen für Korpusbereinigung, Entitätsprofilkonstruktion, Entitätstyp, Dokumenttyp und Relevanzgrad. Da ein Ausfall beim Rückruf in diesem ersten Schritt der Pipeline später nicht mehr behoben werden kann, identifizieren und charakterisieren wir die zitierbaren Dokumente, die die Filterphase nicht bestehen, durch eine inhaltliche Prüfung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16354-3_33 7811a800d41327efbcd713c3b5c205a1;de;;;7.1.;;;Analyse der Anwendung von Informationssystemen in der Finanzmanagementprüfung Im 21. Jahrhundert sind wir in das Jahrhundert der Information eingetreten. Nur durch die Beherrschung der Marktinformationen können wir die souveränen Höhen des Marktes erreichen. Der Einsatz moderner Informationstechnologie im Management optimiert nicht nur die Ressourcenallokation, sondern senkt auch die Managementkosten. Unternehmen nutzen Informationssysteme im Finanzmanagement, um Risiken effektiv zu vermeiden. Bei Prüfungsprojekten können Informationssysteme die Effizienz steigern und die Sicherheit des entsprechenden Systems gewährleisten. In diesem Papier wird hauptsächlich das Konzept von Informationssystemen und seine Rolle bei der Finanzverwaltungsprüfung erörtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-43309-3_33 f53d73d9cd06bfaa0dd3afe9d964ce8c;de;;;7.1.;;;Kollaborative taktische Planung in mehrstufigen Lieferketten, unterstützt durch Multiagent-Systeme Im Kontext der Lieferkettenmodellierung zielt das agentenbasierte Modell darauf ab, nicht nur jeden Knoten, sondern auch den Informationsaustauschprozess zwischen diesen Knoten darzustellen. Trotz der Komplexität der Konfiguration kann das agentenbasierte Modell einfach angewendet werden, um den kollaborativen Planungsprozess zu unterstützen. Dies ermöglicht den Parteien, gemeinsame Ziele effektiv zu erreichen. Durch den Austausch genauer, handlungsbasierter Informationen wird eine Zusammenarbeit zwischen den Knoten entstehen, um den Entscheidungsprozess in Lieferkettenplanungsprozessen zu verbessern. Daher stellt dieses Papier ein neuartiges kollaboratives Planungsmodell in mehrstufigen Lieferketten vor, das einen Multiagenten-Systemmodellierungsansatz berücksichtigt, um iterative Verhandlungsprozesse durchzuführen, die den Entscheidungsprozess aus einer dezentralen Perspektive unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14341-0_30 a5342aa3e31eeefa66bbabbde3306041;de;;;7.1.;;;Forschung und Implementierung des Qualitätsmanagementsystems in ERP Qualität ist entscheidend für das Unternehmen. Die Struktur des Qualitätsmanagementsystems wird in diesem Papier diskutiert. Und die Funktionsmodule werden unter der ERP-Umgebung eingerichtet. In der Zwischenzeit untersucht dieser Artikel die statistische Prozesssteuerungstechnologie (SPC) und implementiert die Kombination von SPC und ERP gemäß einer Unternehmenspraxis. Schließlich enthält dieses Dokument ein Beispiel zur Veranschaulichung unter Verwendung des Programms C++ Builder6.0 und der SQL Server2000-Datenbank.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-34403-9_78 6b3221f51c98655983e07ffa0687e68c;de;;;7.2.;;;Die synergistische Anwendung von CBR auf IR In diesem Beitrag diskutieren wir einen hybriden Ansatz, der Case-Based Reasoning (CBR) und Information Retrieval (IR) zum Abrufen von Volltextdokumenten kombiniert. Unser hybrider CBR-IR-Ansatz verwendet als Eingabe eine symbolische Standarddarstellung eines Problemfalls und ruft Texte relevanter Fälle aus einer Dokumentensammlung ab, die erheblich größer ist als die dem CBR-System zur Verfügung stehende Fallbasis. Unser System funktioniert, indem es zuerst eine standardmäßige CBR-Analyse im HYPO-Stil durchführt und dann die Texte, die mit bestimmten wichtigen Klassen von Fällen in dieser Analyse verbunden sind, verwendet, um eine modifizierte Version des Relevanz-Feedback-Mechanismus von INQUERY zu „bepflanzen“, um eine Abfrage zu generieren, die aus einzelnen Begriffe oder Begriffspaare. Unser Ansatz bietet zwei Vorteile: Er erweitert die Reichweite von CBR (für Abrufzwecke) auf viel größere Korpora und ermöglicht die Injektion wissensbasierter Techniken in traditionelle IR. Wir beschreiben unseren CBR-IR-Ansatz und berichten über laufende Experimente.;-;-;-;https://link.springer.com/article/10.1007/BF00130694 ca803ff0d2a5be1df26832a530eb7f00;de;;;7.2.;;;Offene Forschungsfragen Dieses Kapitel bietet einen kurzen Überblick über allgemeinere offene Forschungsfragen im Bereich der Informationsbeschaffung für Kinder. Wir diskutieren Richtungen bezüglich Suchhistorien für Kinder, Ranking-Algorithmen, kollaborative IR-Systeme für Kinder und kognitive Modelle für die IR-Systembewertung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-12069-6_11 9dbe9fca21ae432ec593d22138b9f741;de;;;7.2.;;;Eine neuartige Methode zur Extraktion von gesprochenen Textmerkmalen beim semantischen Videoabruf Wir schlagen ein neuartiges Verfahren zum Extrahieren von Textmerkmalen aus den Ergebnissen der automatischen Spracherkennung (ASR) beim semantischen Videoabruf vor. Wir kombinieren HowNet-regelbasiertes Wissen mit statistischen Informationen, um spezielle Begriffslexika zu erstellen, die den Wortschatz schnell eingrenzen und die Abrufpräzision verbessern können. Darüber hinaus verwenden wir zur Analyse von ASR-Texten das Begriffspräzisions-(TP)-Gewichtungsverfahren. Diese Gewichtungsmethode ist empfindlich gegenüber den spärlichen, aber wichtigen Begriffen in den entsprechenden Dokumenten. Experimente zeigen, dass das vorgeschlagene Verfahren für den semantischen Videoabruf effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/11922162_32 6c55b18ae304d6d475c33d564650e5eb;de;;;7.2.;;;Evaluation eines Systems zur personalisierten Zusammenfassung von Webinhalten Vorhandene personalisierte Web-Informationssysteme senden den Benutzern typischerweise den Titel und die ersten Zeilen der ausgewählten Elemente sowie Links zum Volltext. Dies ist in den meisten Fällen für einen Benutzer nicht ausreichend, um zu erkennen, ob der Artikel relevant ist oder nicht. Ein interessanter Ansatz besteht darin, die ersten Sätze durch eine personalisierte Zusammenfassung zu ersetzen, die gemäß einem Benutzerprofil extrahiert wird, das den Informationsbedarf des Benutzers repräsentiert. Andererseits ist es entscheidend zu messen, wie viele Informationen während des Zusammenfassungsprozesses verloren gehen und wie sich dieser Informationsverlust auf die Fähigkeit des Benutzers auswirkt, die Relevanz eines bestimmten Dokuments zu beurteilen. Die in diesem Papier entwickelte systemorientierte Bewertung zeigt, dass personalisierte Zusammenfassungen besser abschneiden als generische Zusammenfassungen, wenn es um die Identifizierung von Dokumenten geht, die Benutzerpräferenzen erfüllen. Wir haben auch eine nutzerzentrierte qualitative Bewertung berücksichtigt, die im Einklang mit den quantitativen Ergebnissen eine hohe Nutzerzufriedenheit mit der beschriebenen Zusammenfassungsmethode zeigt.;-;-;-;https://link.springer.com/chapter/10.1007/11527886_63 bb583cf002beb8a5873ccdec2eeef702;de;;;7.2.;;;Kooperative Erschließung, Klassifikation und Auswertung in BoW BoW ist ein online bibliografischer Dynamic Rang Informationspace (DyRI). Es stellt die Infrastruktur für Benutzer bereit, um bibliografische Informationen hinzuzufügen, zu klassifizieren, zu indizieren und auszuwerten. So kooperieren Benutzer, indem sie ihre Erfahrungen einbringen und teilen, um die problematischsten Aspekte der Informationsbeschaffung voranzutreiben: das Finden der;-;-;-;https://link.springer.com/chapter/10.1007/10722620_6 593daf9903415dffc6b22b460189267d;de;;;7.2.;;;Eine statistische Ansicht von Binned Retrieval-Modellen Viele traditionelle Information Retrieval-Modelle, wie BM25 und Sprachmodellierung, bieten eine gute Retrieval-Effektivität, können jedoch schwierig effizient zu implementieren sein. Kürzlich wurden dokumentenzentrierte Wirkungsmodelle entwickelt, um einige dieser Effizienzprobleme zu überwinden. Solche Modelle weisen jedoch eine Reihe von Problemen auf, darunter eine geringe Effektivität und heuristische Termgewichtungsschemata. In dieser Arbeit präsentieren wir eine statistische Sicht auf dokumentenzentrierte Wirkungsmodelle. Wir beschreiben, wie solche Modelle statistisch behandelt werden können und schlagen eine überwachte Parameterschätzungstechnik vor. Wir analysieren verschiedene theoretische und praktische Aspekte des Modells und zeigen, dass die mit unserer neuen Schätzmethode geschätzten Gewichte deutlich besser sind als die in früheren Studien verwendeten ganzzahligen Gewichte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78646-7_18 ac70f9b5674a3ecd0f9069a884b65027;de;;;7.2.;;;Menschliche Bewertung von maschinellen Online-Übersetzungsdiensten für Englisch/Russisch-Kroatisch Dieses Papier präsentiert Ergebnisse der menschlichen Bewertung maschinell übersetzter Texte für ein nicht eng verwandtes Sprachpaar, Englisch-Kroatisch, und für ein eng verwandtes Sprachpaar, Russisch-Kroatisch. Ausgewertet wurden 400 Sätze aus dem Bereich der Fremdenführer, also 100 Sätze für jedes Sprachpaar und für zwei maschinelle Online-Übersetzungsdienste, Google Translate und Yandex.Translate. Die menschliche Bewertung erfolgt in Bezug auf die Kriterien der Sprachgewandtheit und der Angemessenheit. Um die interne Konsistenz zu messen, wird Cronbachs Alpha berechnet. Die Fehleranalyse wird für mehrere Kategorien durchgeführt: nicht übersetzte/ausgelassene Wörter, überschüssige Wörter, morphologische Fehler/falsche Wortenden, lexikalische Fehler/falsche Übersetzungen, syntaktische Fehler/falsche Wortreihenfolge und Satzzeichenfehler. Am Ende dieses Beitrags werden Schlussfolgerungen und Anregungen für weitere Forschungen gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16486-1_108 b880ab324a6e9ec971b319d0c188acbc;de;;;7.2.;;;Kommentare zu „An Ontological Evaluation of the OML Metamodel“ von A. L. Opdahl, B. Henderson-Sellers und F. Barbier Ausgangspunkt der Arbeit ist die Analyse der Konstrukte der OPEN Modeling Language (OML), die mit einem der Co-Autoren als treibende Kraft entwickelt wird. Die Analyse erfolgt im Sinne der FRISCO-Ontologie (die Gegenstand der ISCO-Konferenzreihe ist) und der BungeWand-Weber (BWW) Ontologie. Das Ergebnis der Analyse wird in vier Tabellen zusammengefasst und ist eine umfassende Beschreibung von OML.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35500-9_19 8d87fd7a5f54d66d540652fabffab218;de;;;7.2.;;;Generische erweiterte multigranulare Sets für gemischte und unvollständige Informationssysteme Granular Computing ist heutzutage ein weit verbreitetes Rechenparadigma. Insbesondere innerhalb der groben Mengenlehre spielt Granular Computing eine Schlüsselrolle. In diesem Beitrag schlagen wir einen generischen Ansatz grober Sets vor, die granularen erweiterten multigranularen Sets (GEMS) für den Umgang mit gemischten und unvollständigen Informationssystemen. Unser Vorschlag verwendet nicht nur die traditionellen optimistischen und pessimistischen Granulierungen in Bezug auf einzelne Attribute, sondern wir führen auch Granulierungen in Bezug auf Attributmengen sowie zwei neue Arten der Granulierung ein: die optimistische + pessimistische Granulierung und die pessimistische + optimistische Granulierung. Darüber hinaus haben wir einen Sonderfall des vorgeschlagenen GEMS entwickelt: die multigranularen Maximum-Ähnlichkeits-Rough-Sets (MMSRS). Wir haben einige der Eigenschaften des MMSRS nachgewiesen und seine Wirksamkeit in Bezug auf andere bestehende granulare Rough-Set-Modelle getestet. Die experimentellen Ergebnisse zeigen die Flexibilität und die Fähigkeiten des vorgeschlagenen Modells beim Umgang mit gemischten und unvollständigen Informationssystemen.;-;-;-;https://link.springer.com/article/10.1007/s00500-020-04748-4 b1874c72d54322319dc956b65a42daad;de;;;7.2.;;;Eine Zuverlässigkeitsbewertung der Lieferkette: Indikatorensystem und umfassende Fuzzy-Bewertung Die Zuverlässigkeitsbewertung ist die Grundlage der Lieferkette. Obwohl die Zuverlässigkeit der Lieferkette nach 9.11 in den Fokus der Unternehmen und der Regierung rückt, wurde weltweit nur wenig Forschung betrieben. In der Natur ist die Lieferkette die Integration von Material-, Kapital- und Informationsflüssen. Daher sollte die Bewertung der Lieferkettenzuverlässigkeit auf der Grundlage der Bewertung von drei Flüssen in Betracht gezogen werden. Angesichts dieser Ideen wird in meiner Studie die Bewertung der Zuverlässigkeit der Lieferkette vorgeschlagen, die durch die Integration der Bewertung der Zuverlässigkeit des Material-, Kapital- und Informationsflusses mit einer unscharfen umfassenden Bewertungstheorie erreicht wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-76312-5_84 f97afa9866e9e798b5fdc77bf336e0f6;de;;;7.2.;;;Die Entwicklung dynamischer kognitiver Schnittstellen für Mehrsubjektinformationssysteme (am Beispiel des Geosozialen Dienstes) Der Artikel beschreibt die methodischen Grundlagen der Synthese kognitiver Schnittstellen für Mehrsubjektinformationssysteme. Es werden eine Definition der kognitiven Benutzerschnittstelle sowie Ansätze zu ihrer formalen Bewertung gegeben. Besonderes Augenmerk wird auf semantische und wahrnehmungsbezogene Aspekte kognitiver Schnittstellen, das Konzept der Pertinenz, Gestalt und Wahrnehmungsstereotypen gelegt. Zur praktischen Erprobung einiger Möglichkeiten kognitiver Schnittstellen wurde der Webanwendungsprototyp entwickelt. Diese Webanwendung ist ein geosoziales Netzwerk, das dem Tourismus in der Region Murmansk der Russischen Föderation gewidmet ist. In unserem Prototyp zur Verbesserung der Wahrnehmungseffizienz haben wir versucht, einige Prinzipien der Gestaltpsychologie anzuwenden. Im zweiten Teil des Papiers beschreiben wir eine prototypische Implementierung und die grundlegenden Fähigkeiten des Prototyps.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-57141-6_48 8641fd667fbf809787b06dbc3cc66579;de;;;7.2.;;;Regionsbasierter Bildabruf mithilfe einer Objektontologie und Relevanz-Feedback Es wird eine Methodik zur Bildsuche vorgestellt, die für die Suche in großen Sammlungen heterogener Bilder geeignet ist. Der vorgeschlagene Ansatz verwendet einen vollständig unbeaufsichtigten Segmentierungsalgorithmus, um Bilder in Regionen zu unterteilen und das Indexierungs- und Abrufsystem mit inhaltsbasierten Funktionalitäten auszustatten. Deskriptoren auf niedriger Ebene für die Farbe, Position, Größe und Form jeder Region werden anschließend extrahiert. Diese arithmetischen Deskriptoren werden automatisch mit geeigneten qualitativen Deskriptoren mittlerer Ebene verknüpft, die ein einfaches Vokabular mit der Bezeichnung . bilden;-;-;-;https://link.springer.com/article/10.1155/S1110865704401188 67f19569644058be2eadd715918400f9;de;;;7.2.;;;Ein Flächenähnlichkeitsmaß für Trapezintervall-Typ-2-Fuzzy-Sets und seine Anwendung auf die Bewertung der Servicequalität Die Bewertung der Servicequalität ist von großer Bedeutung, da sie der erste Schritt zur kontinuierlichen Verbesserung der Servicebereitstellung ist. Die bestehenden Bewertungsmethoden modellieren jedoch meist Bewertungsinformationen durch eine scharfe Zahl oder ein Typ-1-Fuzzy-Set (T1 FSs), die die Unsicherheit der Wahrnehmung der Benutzer nicht effektiv widerspiegeln können. In diesem Beitrag wird ein Multiattribut-Bewertungsmodell basierend auf Intervalltyp-2-Fuzzy-Sets (IT2 FSs) konstruiert und auf die Bewertung der Servicequalität angewendet. Zunächst wird ein Algorithmus zur Messung der Flächenähnlichkeit vorgeschlagen, um die Ähnlichkeit zwischen zwei trapezförmigen IT2-FSs zu berechnen. Mit dem Flächenähnlichkeitsmaß wird die Methode der Technik der Präferenzreihenfolge nach Ähnlichkeit mit der idealen Lösung (TOPSIS) als Bewertungsansatz modifiziert. Das Bewertungsmodell wird dann auf ein Bewertungsproblem eines öffentlichen Verkehrsdienstes angewendet, um jede Bewertungsdimension in die vordefinierten Klassen zu sortieren. Die vergleichende Analyse zeigt, dass unser Modell getrenntere Klassifizierungsergebnisse liefern kann, was bedeutet, dass Entscheidungsträgern mehr Informationen zur Verfügung gestellt werden können.;-;-;-;https://link.springer.com/article/10.1007/s40815-021-01099-6 1f4b1b2f329f39f5e74610181995b621;de;;;7.2.;;;Wirksamkeit impliziter Ratingdaten zur Charakterisierung von Benutzern in komplexen Informationssystemen Die meisten benutzerorientierten Data-Mining-Techniken beinhalten eine Kaufmusteranalyse, die auf streng formatierte datenbankähnliche Transaktionsdatensätze abzielt. Die meisten Personalisierungssysteme verwenden explizit angegebene Benutzerpräferenzen anstelle von impliziten Bewertungsdaten, die automatisch durch das Sammeln von Benutzerinteraktionen erhalten werden. In diesem Beitrag zeigen wir, dass in komplexen Informationssystemen wie digitalen Bibliotheken implizite Bewertungsdaten helfen können, die Forschungs- und Lerninteressen der Nutzer zu charakterisieren und Nutzer zu sinnvollen Gruppen zu gruppieren. Daher verwenden wir in unserem auf kollaborativer Filterung basierenden personalisierten Empfehlungssystem ein Benutzerverfolgungssystem und eine Benutzermodellierungstechnik, um implizite Bewertungen der Benutzer zu erfassen und zu speichern. Außerdem beschreiben wir die Auswirkungen (auf das Gemeinschaftsergebnis) der Verwendung von vier verschiedenen Arten von impliziten Ratingdaten.;-;-;-;https://link.springer.com/chapter/10.1007/11551362_17 b8e5cb6e562fd513396bceabb555316f;de;;;7.2.;;;"Ziele der Sicherheitsbewertung zur Verbesserung der IT-Systemsicherheit Die allgemeinen Systeme von heute bestehen aus einer Reihe von Komponenten wie Servern und Clients, Protokollen, Diensten usw. Mit Netzwerk verbundene Systeme sind komplexer und breiter geworden, aber die Forschungen für die Systeme konzentrieren sich auf die ""Leistung"" oder ""Effizienz"". Während die größte Aufmerksamkeit bei der Systemsicherheit auf Verschlüsselungstechnologie und Protokolle zum Sichern der Datentransaktion gerichtet wurde, ist es wichtig zu beachten, dass eine Schwachstelle (oder Sicherheitslücke) in einer der Komponenten das gesamte System umfassen kann. Sicherheits-Engineering ist erforderlich, um Sicherheitslücken zu reduzieren, die in die IT-Systeme eingebaut werden können. Dieses Papier schlägt eine Methode zur Sicherung der IT-Systeme vor. Dieses Papier schlägt eine Bewertung und Zertifizierung der IT-Systemsicherheit vor, um ein gewisses Maß an Sicherheit zu erreichen, das jeder Besitzer seiner IT-Systeme erreichen möchte.";-;-;-;https://link.springer.com/chapter/10.1007/11424826_52 aa680e92b87d92516d9d4c9461ef67bd;de;;;7.1.;;;Affektives Dialogmanagement mit faktorisierten POMDPs Partially Observable Markov Decision Processes (POMDPs) haben sich empirisch als gute Modelle für robustes gesprochenes Dialogdesign erwiesen. Dieses Kapitel zeigt, dass sich solche Modelle auch sehr gut für die Gestaltung affektiver Dialogsysteme eignen. Wir beschreiben die Modellierung affektiver Dialogsysteme mit POMDPs und schlagen einen neuen Ansatz zur Entwicklung eines affektiven Dialogmodells mit faktorisierten POMDPs vor. Wir wenden dieses Modell für ein Dialogproblem der Routennavigation mit einem Schlitz als Proof of Concept an. Die experimentellen Ergebnisse zeigen, dass die Integration des Benutzer-Affects in einen POMDP-basierten Dialogmanager nicht nur eine nette Idee ist, sondern auch hilfreich ist, um die Leistung des Dialogmanagers zu verbessern, da der Affekt des Benutzers sein Verhalten beeinflusst. Darüber hinaus sollen unsere praktischen Erkenntnisse und Experimente zur Modellverfolgbarkeit hilfreich für Designer und Forscher sein, die sich für die praktische Umsetzung von Dialogsystemen mit den neuesten POMDP-Techniken interessieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11688-9_8 f523dae86b08a54e52ec5aae87a0f5bc;de;;;7.1.;;;Verkehrsplanung: Ein Schauplatz von Operationen Kontext und Inhalt der Verkehrsplanung haben sich in den letzten Jahren in vielen Ländern dramatisch verändert. Verkehrsplanung ist keine „feste Routenplanung“ mehr, sondern wird zunehmend von der Notwendigkeit flexibler und visionärer politischer Strategien und Entscheidungsprozesse in einem unsicheren Umfeld geprägt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-8293-3_1 2c0edd373371409408cb9b68b9021248;de;;;7.2.;;;Evaluationsframework für statistische Nutzermodelle In diesem Papier werden die Haupthindernisse analysiert, mit denen Entwickler von Benutzermodellen bei der Bewertung eines statistischen Benutzermodells konfrontiert sind. Untersucht werden die wichtigsten Techniken zur Auswertung statistischer Nutzermodelle, die meist aus den Bereichen Machine Learning und Information Retrieval entlehnt sind. Anschließend wird eine Bewertungsmethodik für statistische Nutzermodelle zusammen mit einer Reihe von Metriken vorgeschlagen, um statistische Nutzermodelle gezielt zu bewerten. Schließlich wird ein Benchmark für statistische Nutzermodelle vorgeschlagen, der es ermöglicht, die Auswertungen zu vergleichen und zu replizieren. Daher besteht der Hauptbeitrag dieses Papiers darin, zu ermöglichen, dass mehrere Benutzermodellbewertungen vergleichbar waren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-00551-5_54 264dd40bf4e009485c736e087ce0bff4;de;;;7.2.;;;Qualität und Empfehlung von Daten aus mehreren Quellen zur Unterstützung von Anwendungen der technologischen Intelligenz Intelligence Aufgrund ihrer kostspieligen Auswirkungen wird die Datenqualität zu einem aufstrebenden Forschungsbereich. Motiviert durch seine Interessen und Probleme, insbesondere im Anwendungsbereich der technologischen Intelligenz, schlagen wir eine generische Methodik zur Modellierung und Verwaltung der Datenqualität im Kontext mehrerer Informationsquellen vor. Die Datenqualität hat verschiedene Kategorien von Qualitätskriterien und deren Bewertungen ermöglichen die Erkennung von Fehlern und Daten von schlechter Qualität. Wir führen den Begriff der relativen Datenqualität ein, wenn mehrere Daten dieselbe Entität in der realen Welt beschreiben, aber widersprüchliche Werte haben:;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48309-8_26 e7904464159a71b2fd0f9e751d3c3b2d;de;;;7.1.;;;Ein konzeptionelles Modell zur Integration der Verkehrsplanung: MRP IV In diesem Artikel wird ein konzeptionelles Modell namens MRP IV vorgeschlagen, um als Referenz für die Entwicklung einer neuen Produktionstechnologie zu dienen, die Materialplanungsentscheidungen, Produktionsressourcenkapazitäten und Lieferkettentransport integriert, um die Suboptimierung dieser Pläne zu vermeiden die heute meist sequentiell und unabhängig generiert werden. Dieser Artikel hat zwei Ziele: (1) er identifiziert die Fortschritte und Mängel in den MRP-Berechnungen, hauptsächlich basierend auf dem dynamischen mehrstufigen kapazitiven Losgrößenproblem (MLCLSP), und (2) er schlägt ein konzeptionelles Modell vor, das die Inputs , Outputs, Modellierungs- und Lösungsansätze, um die in aktuellen MRP-Systemen identifizierten Mängel zu überwinden und als Grundlage für den Vorschlag von Lösungsmodellen und Algorithmen zu dienen, die für die Entwicklung von MRP IV als Entscheidungsfindungssystem erforderlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33980-6_7 5ca64845b207dbdc26288e6c91b33c5a;de;;;7.1.;;;Inhaltsbasierte Satelliten-Cloud-Bildverarbeitung und Informationsabruf Satellitenwolkenbild ist eine Art nützliches Bild, das reichlich Informationen enthält. Um diese Informationen zu erhalten, muss die Bildverarbeitungs- und Zeichenextraktionsmethode verwendet werden, die an das Satellitenwolkenbild angepasst ist. Inhaltsbasierte Satelliten-Cloud-Bildverarbeitung und Informationsabruf (CBIPIR) ist ein sehr wichtiges Problem im Bereich der Bildverarbeitung und -analyse. Das Grundzeichen wie Farbe, Textur, Kante und Form wurde aus dem Wolkenbild extrahiert, und dann wurde die Satellitenwolkenbilddatenbank bereitgestellt, um die grundlegenden Zeicheninformationen zu speichern. Da das herkömmliche Bildwiedergewinnungsverfahren einige Einschränkungen aufweist, ist das CBIR-Verfahren für eine genaue und schnelle Bildwiedergewinnung adaptiv. Auf der Grundlage der Schlüsseltechnologie von CBIPIR konnten wir den besseren Retrieval-Effekt erzielen und das Ergebnis des Image Retrieval wurde detailliert gezeigt. Das Versuchsergebnis beweist, dass die Erforschung und Anwendung von inhaltsbasierter Satelliten-Cloud-Bildverarbeitung wertvoll ist, was die Effizienz der professionellen Bildanwendung weiter verbessern könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74769-7_81 fb12e1a3ddc3b5492ab44ce07dc3beb4;de;;;7.1.;;;Zu den Nutzeranforderungen an ein Informationssystem des Integrierten Rheinprogramms Das Integrierte Rheinprogramm (IRP) ist ein strategisches integriertes Messprogramm des Landes Baden-Württemberg, das auf eine Verbesserung des Hochwasserschutzes sowie den Erhalt bzw. Die Umsetzung des IRP soll durch ein integriertes und nachhaltiges Informationssystem für das IRP (IS-IRP) als Erweiterung des Umweltinformationssystems Baden-Württemberg unterstützt werden. Dieses Papier beschreibt, wie die Analyse- und Entwurfsmethodik SERVUS angewendet wird, um die funktionalen und informativen Benutzeranforderungen für das IS-IRP zu sammeln und zu dokumentieren. SERVUS bezeichnet eine Entwurfsmethodik für Informationssysteme basierend auf raumbezogenen serviceorientierten Architekturen und der Modellierung von Anwendungsfällen und Fähigkeiten als Ressourcen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22285-6_70 aa99caa17a50e8c08e1aabb0afa59d01;de;;;7.2.;;;Nutzung von Benutzerabfragen für das Clustering von Suchergebnissen Search Result Clustering (SRC) gruppiert die Ergebnisse einer Benutzerabfrage so, dass jeder Cluster einen Satz verwandter Ergebnisse darstellt. Um für den Benutzer nützlich zu sein, sollten die unterschiedlichen Cluster die Ergebnisse enthalten, die unterschiedlichen möglichen Bedeutungen der Benutzerabfrage entsprechen, und die Cluster-Labels sollten diese Bedeutungen widerspiegeln. Bestehende SRC-Algorithmen ignorieren jedoch häufig die Benutzeranfrage und gruppieren die Ergebnisse nur basierend auf der Ähnlichkeit der Suchergebnisse. Dies kann zu zwei Problemen führen:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41230-1_10 70d5cbc4bb67bb24cbfa2e1798cec11f;de;;;7.2.;;;Bewertung von Methoden zur Vorhersage der Abfrageleistung nach Bereich In den letzten Jahren wurde eine Vielzahl von Methoden zur Vorhersage der Abfrageleistung vorgeschlagen. Diese Explosion von Vorschlägen für Vorhersagemethoden wurde jedoch nicht von einer eingehenden Untersuchung geeigneter Methoden zur Bewertung dieser Schätzungen begleitet. In diesem Whitepaper analysieren wir die aktuellen Ansätze zur Evaluierung von Methoden zur Vorhersage der Abfrageleistung und heben einige ihrer Einschränkungen hervor. Wir schlagen auch eine neue Methode zur Bewertung von Prädiktoren vor, die darauf abzielt, die unterschiedliche Leistung zu zeigen, die sie bei Abfragen mit unterschiedlichem Schwierigkeitsgrad haben. Dieses Ziel kann erreicht werden, indem das Bewertungsproblem der Vorhersageleistung in eine Klassifikationsaufgabe umgewandelt wird, wobei davon ausgegangen wird, dass jedes Thema auf der Grundlage seiner Abrufleistung zu einem einzigartigen Typ gehört. Wir vergleichen die verschiedenen Bewertungsansätze und zeigen, dass die vorgeschlagene Bewertung eine genauere Leistung aufweist, und machen die Unterschiede zwischen den Prädiktoren für verschiedene Arten von Abfragen deutlich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16321-0_23 b7455c72f9cf0e8cfddb82bb851307bc;de;;;7.2.;;;Popularitäts-Tendenz-Analyse von Ranking-orientierter kollaborativer Filterung aus Sicht der Verlustfunktion Collaborative Filtering (CF) war in den letzten Jahren der beliebteste Ansatz für Empfehlungssysteme. Um die Eigenschaft eines Ranking-orientierten CF-Algorithmus direkt analysieren und seine Performance verbessern zu können, untersucht dieser Beitrag den Ranking-orientierten CF aus der Perspektive der Verlustfunktion. Um einen Einblick in das Populär-Bias-Problem zu gewinnen, untersuchen wir auch die Tendenz eines CF-Algorithmus bei der Empfehlung der beliebtesten Items und zeigen, dass diese Popularitätstendenz durch die Einstellung verschiedener Parameter in unseren Modellen angepasst werden kann. Nach der Analyse zweier hochmoderner Algorithmen schlagen wir in diesem Beitrag zwei Modelle vor, die die generalisierte logistische Verlustfunktion bzw. die Scharnierverlustfunktion verwenden. Die experimentellen Ergebnisse zeigen, dass die vorgeschlagenen Methoden die hochmodernen Algorithmen an zwei realen Datensätzen übertreffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-05810-8_30 19800037a0a0e884a76b704b35a7460f;de;;;7.1.;;;MoCoShoP: Unterstützung des mobilen und kollaborativen Einkaufens und der Planung von Innenräumen Wir präsentieren MoCoShoP, ein System, das den kollaborativen Prozess des Einkaufens und der Planung von Möbeln und Einrichtungsgegenständen unterstützt. Das System besteht aus einer mobilen Anwendung, die auf den Mobiltelefonen der Benutzer läuft, und einer interaktiven Oberflächenanwendung, die auf gemeinsamen Planungstischen in der Umgebung des Möbelhandels bereitgestellt wird. Zusammengehörige Nutzer teilen sich einen virtuellen Warenkorb. Durch das Scannen von interessanten Etiketten an Möbelstücken mit ihren Handys können Benutzer Artikeldetails (z. Der gemeinsame Planungstisch ermöglicht es Benutzern, gesammelte Elemente gemeinsam zu überprüfen und mögliche Anordnungen von Elementen auf einem Grundriss zu erstellen. Schließlich können Benutzer Möbelarrangements für eine spätere Überprüfung speichern. In dieser Arbeit tragen wir zum Design und einer prototypischen Implementierung von MoCoShoP bei. Ergebnisse einer ersten Auswertung zeigen, dass die Nutzer schätzen, wie sie während des Einkaufsvorgangs Daten sammeln und teilen können und wie dies die kollaborative Planung unterstützt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40480-1_53 1303928b626226acb9faca84808ffc37;de;;;7.2.;;;Simulierte Auswertung von Faceted Browsing basierend auf Feature-Auswahl In diesem Artikel untersuchen wir die Grenzen des facettenbasierten Browsings, das Teilbedürfnisse eines Informationsbedarfs zum Abfragen und Organisieren des Suchprozesses beim Videoabruf verwendet. Die zugrundeliegende Annahme dieses Ansatzes ist, dass die Sucheffektivität verbessert wird, wenn ein solcher Ansatz für die interaktive Videosuche unter Verwendung von Text- und visuellen Merkmalen verwendet wird. Wir erkunden die Leistungsgrenzen eines facettierten Systems, indem wir eine simulierte Benutzerbewertung an TRECVid-Datensätzen sowie an den Protokollen eines vorherigen Benutzerexperiments mit dem System durchführen. Wir stellen zunächst eine Methodik vor, um die Dimensionalität von Features zu reduzieren, indem wir die wichtigsten auswählen. Anschließend diskutieren wir die simulierten Bewertungsstrategien, die in unserer Bewertung verwendet wurden, und die Auswirkungen auf die Verwendung sowohl von Text- als auch von visuellen Merkmalen. Von Benutzern erstellte Facetten werden simuliert, indem Videoaufnahmen mit Text- und visuellen Funktionen geclustert werden. Die experimentellen Ergebnisse unserer Studie zeigen, dass der facettierte Browser die Sucheffektivität potenziell verbessern kann.;-;-;-;https://link.springer.com/article/10.1007/s11042-009-0340-6 5df14486debc7af15492194ca7801273;de;;;7.1.;;;Ein Prototyp eines räumlichen Entscheidungsunterstützungssystems für die Planung von Wohnmobilitätsprogrammen In diesem Papier wird ein Prototyp eines GIS-basierten Entscheidungsunterstützungssystems vorgestellt, der für die Verwendung durch Administratoren und Planer der öffentlichen Wohnungsbaubehörde (PHA) gedacht ist, die Richtlinien für Wohnmobilitätsprogramme entwerfen. Wohnmobilitätsprogramme ermöglichen es einkommensschwachen Familien, von denen viele in staatlich betriebenen Sozialwohnungen leben, über Mietzuschüsse zu wünschenswerteren Mietwohnungen auf dem privaten Markt zu wechseln. Leider haben die Planer der Wohnungsbehörden nur begrenzte Möglichkeiten, alternative Umsiedlungspläne von Kohorten von Familien mit niedrigem Einkommen oder die mit diesen Umsiedlungspolitiken verbundenen Auswirkungen zu visualisieren. Daher sind sie oft nicht in der Lage, Kunden bei der Suche nach frei verfügbaren Mietwohnungen auf höchstem Niveau zu beraten. Der Housing Location Planner unterstützt PHA-Planer auf dreierlei Weise: Er analysiert räumliche, demografische und wohnungsmarktbezogene Merkmale des Untersuchungsgebiets, wählt bestimmte Teile des Untersuchungsgebiets für die Eingabe in ein Optimierungsmodell aus, das alternative Familienzuordnungen generiert und zeigt die Ergebnisse des Optimierungsmodells in Weise, die Entscheidungsvariablenwerte und Zielfunktionswerte verknüpft. Der Housing Location Planner wird als erster Schritt bei der Entwicklung noch ausgereifterer Multi-Stakeholder-Raumentscheidungsunterstützungssysteme für die geförderte Wohnungsplanung angesehen, bei denen eine oder mehrere alternative Aufteilungen von Familien in einem Untersuchungsgebiet als Grundlage für politische Initiativen gewählt werden.;-;-;-;https://link.springer.com/article/10.1007/PL00011467 5d86d3aaf1bf5434b686ec02b313ac23;de;;;7.1.;;;Betrieb, Kostenplanung und Ausgabenüberwachung In diesem Kapitel wird das Konzept befürwortet, die entscheidende organisatorische Komponente des „Betriebs“ in den „Unternehmensentscheidungsprozess“ einzubinden. Dies geschieht, um zu betonen, dass ein „nachhaltiger Wettbewerbsvorteil“ nur erreicht wird, wenn operative Funktionen mit strategischen Entscheidungen verknüpft sind und Konzepte wie Finanzplanung und Budgetkontrolle genutzt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-230-50021-1_5 d27fb9a182709b2a37baf8384754939f;de;;;7.1.;;;Eine Architektur zur Unterstützung des Netzwerkfehlerwiederherstellungsmanagements Hochverfügbare und belastbare Netzwerke spielen in der vernetzten Welt von heute eine entscheidende Rolle. Da Netzwerkfehler unvermeidlich sind und Netzwerke immer komplexer werden, wird es für Administratoren zu einer anspruchsvollen Aufgabe, rechtzeitig effektive Fehlerbehebungslösungen zu finden. Daher ist ein automatisierter Mechanismus zur Unterstützung der Fehlerlösung für einen effizienten Fehlerbehandlungsprozess unerlässlich. In diesem Papier schlagen wir eine Architektur vor, die eine automatisierte Fehlerbehebung in Bezug auf Traffic Engineering, Recovery Knowledge Discovery und automatisierte Recovery-Planung unterstützt. Wir stützen unsere Diskussion auf ein Anwendungsszenario für die Wiederherstellung nach einem Ausfall des Grenzrouters, um eine optimierte Konfiguration des ausgehenden Interdomänenverkehrs aufrechtzuerhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-70587-1_9 285649cd92677ef9b5a64677bd7afee1;de;;;7.1.;;;Planung und Initiierung virtueller Kooperationsnetzwerke für KMU im ländlichen Raum – ein Beispiel aus dem finnischen Archipel In einem IKT-Forschungs- und Entwicklungsprojekt im finnischen Archipel sind wir mit 17 Kleinunternehmern in Kontakt gekommen und haben praktische Informationen über einige ihrer Herausforderungen und Probleme in ihrem Arbeitsalltag erhalten. Wir glauben, dass eine Lösung für KMU in ähnlichen Umgebungen darin besteht, mehr zusammenzuarbeiten, kollaborative Netzwerke zu bilden, einen effektiveren Informationsaustausch, Problemlösung und auch die Schaffung neuer Werte für ihre Kunden zu ermöglichen. Das Papier stellt die Herausforderungen vor und schlägt Lösungen vor, die auf der von uns beobachteten Situation basieren, aber vermutlich auch auf ähnliche Situationen anwendbar sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-84837-2_63 b3432d579bdd17b5c67476cf0a779fe4;de;;;7.2.;;;Leistungsbewertung von Reserved Idle Signal Multiple Access mit Kollisionsauflösung Medium Access Control (MAC)-Protokolle werden seit den 1970er Jahren für drahtlose Kommunikationsnetze vorgeschlagen. Als Beispiele für diese MAC-Protokolle wurden Idle Signal Multiple Access (ISMA) [1] und Reserved Idle Signal Multiple Access (R-ISMA) [2] vorgeschlagen. Diese Protokolle leiden jedoch unter der Systeminstabilität aufgrund des Direktzugriffsmechanismus. Das Instabilitätsproblem kann in den meisten MAC-Protokollen gefunden werden, die einfachen wahlfreien Zugriff wie einen ALOHA-Typ mit einer festen Übertragungswahrscheinlichkeit verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-0151-4_23 1f712e6c4f16d4b993626c1074d4af23;de;;;7.1.;;;Erfahrung im Prototyping in Leit- und Kontrollinformationssystemen Dieser Beitrag beschäftigt sich mit Prototyping-Erfahrungen im Bereich militärischer Führungs- und Kontrollinformationssysteme (CCIS). Diese Systeme unterscheiden sich in vielen Aspekten von Informationssystemen im zivilen und geschäftlichen Umfeld, es gibt jedoch viele Gemeinsamkeiten, insbesondere in Entwicklungs- und Humaningenieuraspekten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-69796-8_8 8e1695fc6b8061aff0ff69e5b319e105;de;;;7.2.;;;User Interface Evaluation des interaktiven Fernsehens: eine medienwissenschaftliche Perspektive Eine vielfältige Benutzerpopulation verwendet interaktive TV-(ITV)-Anwendungen in einem Freizeitkontext für Unterhaltungszwecke. Das traditionelle Bewertungsparadigma der Benutzerschnittstelle (UI), das Effizienz und Aufgabenerledigung beinhaltet, ist für die Bewertung solcher Anwendungen möglicherweise nicht angemessen. In diesem Beitrag argumentieren wir, dass ITV-Anwendungen, wenn sie nicht unter Berücksichtigung des normalen Fernsehzuschauers bewertet werden, nur für den computerkundigen Benutzer geeignet sind, wodurch das Fernsehpublikum vom einfachen Zugang zu den Diensten der Informationsgesellschaft ausgeschlossen wird. Im Bereich der Medienwissenschaft hat sich eine umfangreiche Theorie des Fernsehens und der dazugehörigen Methoden angesammelt. Wir haben die entsprechenden Erkenntnisse im Bereich ITV angewendet, um zu untersuchen, wie ein universeller Zugang zu ITV-Anwendungen erreicht werden kann. Durch die Kombination dieser Ergebnisse mit neuen affektiven Qualitätstheorien für interaktive Produkte schlagen wir einen UI-Bewertungsrahmen für ITV-Anwendungen vor.;-;-;-;https://link.springer.com/article/10.1007/s10209-006-0032-1 42e87eba8b0e3d1206f55becf6787c74;de;;;7.1.;;;Eine Studie über die Risiken einer Informationssystem-Outsourcing-Partnerschaft Ziel dieses Papiers ist es, über die Ergebnisse einer Fallstudie zu den Risiken einer IT-Outsourcing-Partnerschaft zwischen einem Privatkundenbankkunden und dem Anbieter, einem IT-Dienstleister, zu berichten. Anhand der Fallstudie schlägt das Papier eine theoretische Entwicklung von gemeinsamen Nutzen und gemeinsamen Risiken in IT-Outsourcing-Partnerschaften vor. In dem Papier wird argumentiert, dass die Langlebigkeit und der Erfolg der Outsourcing-Partnerschaft weitgehend vom Management der gemeinsamen Risiken und Ziele in der Outsourcing-Partnerschaft abhängen, die sich im Laufe der Zeit ohne häufige, offene Interaktionen zwischen den Partnern allmählich verschlechtern können. Allein die vertraglichen Vereinbarungen der Outsourcing-Partnerschaft können einen begrenzten Beitrag zur gemeinsamen Risikominderung in der IT-Outsourcing-Partnerschaft leisten, wenn sich die Beziehungen verschlechtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-87503-3_23 2e52045dad638c0e3d15d4696b51872c;de;;;7.1.;;;Ein Rahmen für den Bezug von geschäftlichen Beschränkungen auf Informationssysteme Viele frühere Versuche, Geschäftsregeln zu klassifizieren, beruhen auf zu vereinfachenden Frameworks, die geschäftliche Anliegen mit technischen Funktionen vermischen. Solche Frameworks erschweren die Rückverfolgbarkeit zwischen Informationssystemen und Geschäftsanforderungen und können zu schwer zu vereinbarenden Paradoxien führen. Dieses Papier bietet einen alternativen Rahmen für geschäftliche Beschränkungen, einschließlich solcher, die in Informationssystemen verkörpert werden können. Wir gehen davon aus, dass solche Informationssysteme wahrscheinlich automatisiert werden, aber das vorgeschlagene Schema beruht nicht auf einer Automatisierung. Das Papier verwendet mehrere Beispiele, um die Probleme zu veranschaulichen, die bei aktuellen Klassifizierungsrahmenwerken auftreten, und die Vorteile, die ein realistischeres Rahmenwerk bieten kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31072-0_21 955a53a7444f6a9a1af93a1d4d08034d;de;;;7.2.;;;Ein geschlossener Slew-Evaluierungsansatz unter Verwendung der Verteilungsfunktion von Burr für Hochgeschwindigkeits-On-Chip-RC-Verbindungen Diese Arbeit präsentiert ein genaues und effizientes geschlossenes Modell zur Berechnung der Anstiegsmetrik von On-Chip RC-Verbindungen von Hochgeschwindigkeits-CMOS-VLSI-Schaltungen. Unsere Berechnung der Slew-Metrik basiert auf der Burr-Verteilungsfunktion. Die Gratverteilung wird verwendet, um den normierten homogenen Anteil der Sprungantwort zu charakterisieren. Die an den praktischen Industrienetzen durchgeführten Simulationsergebnisse rechtfertigen die Genauigkeit unseres Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12214-9_13 a604e16b57b6fcb6a281f3724e939c9e;de;;;7.2.;;;Reduzierung von fehlerhaft erkannten Shot Cuts und Cross-Dissolve-Effekten im Videosegmentierungsprozess verschiedener Kategorien digitaler Videos Die Videosegmentierung ist ein wichtiges Forschungsgebiet der Computervision, das in vielen Bereichen der digitalen Videoanalyse angewendet wird, wie z. Video hat zeitliche Eigenschaften. Der zeitliche Segmentierungsprozess führt zur Aufteilung eines gegebenen Videos in einen Satz sinnvoller und individuell handhabbarer zeitlicher Segmente. Eine effektive Segmentierungstechnik ist in der Lage, nicht nur abrupte Änderungen zu erkennen, sondern auch allmähliche Szenenänderungen, wie zum Beispiel Überblendungen und Überblendungen. Die Wirksamkeit von vier Methoden wurde für fünf verschiedene Filmkategorien analysiert: TV-Talkshow, Dokumentarfilm, Tiervideo, Action & Abenteuer und Popmusikvideo. Die Tests haben gezeigt, dass die Spezifität von Videos einen wichtigen Einfluss auf die Wirksamkeit zeitlicher Segmentierungsverfahren hat. Darüber hinaus wurde das Wissen um diese spezifischen Merkmale des Videoschnittstils genutzt, um die Anzahl der fehlerhaft erkannten Shotcuts und fehlerhaft erkannten Cross-Dissolve-Effekte zu reduzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24016-4_7 0b44f6b3eca5ddf7b55c216d232e343d;de;;;7.1.;;;Schneller Überblick über Anforderungen und Design der ICT-Infrastruktur, basierend auf einer Unternehmensreferenzarchitektur und passenden Referenzmodellen Das Globemen-Konsortium hat die Virtual Enterprise Reference Architecture and Methodik (VERAM) auf der Grundlage von GERAM entwickelt und Referenzmodelle für das virtuelle Unternehmensmanagement und die gemeinsame Missionserfüllung entwickelt. Die geplante Virtual Enterprise-Fähigkeit umfasst die Bereiche Vertrieb und Marketing, Global Engineering und Customer Relationship Management. Die Referenzmodelle sind die Grundlage für die Entwicklung der Anforderungen an die IKT-Infrastruktur. Diese wiederum können für die Spezifikation der IKT-Infrastruktur verwendet werden (manchmal auch als „IKT-Architektur“ bezeichnet). Ein Teil der IKT-Architektur ist branchenweit, ein Teil branchenspezifisch und ein Teil spezifisch für die Domänen der gemeinsamen Aktivität die das vorliegende Virtual Enterprise Network charakterisiert. Der Artikel befürwortet einen schrittweisen Ansatz zum Aufbau virtueller Unternehmensfähigkeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35585-6_32 b7c4e17420f25dfca19d4e62cd710fd3;de;;;7.1.;;;Objekttechnologien zur Gestaltung von Unternehmensinformationssystemen des medizinischen Massendienstes Der Beitrag beschäftigt sich mit den grundlegenden Fragen der Gestaltung von Massenmedizinischen Versorgungssystemen in Unternehmen. Es werden grundlegende Prinzipien des Entwurfs von infologischen Modellen von Objektdomänen und Möglichkeiten von Objekttechnologien für die Strukturanalyse und den Logikentwurf verteilter Anwendungen betrachtet.;-;-;-;https://link.springer.com/article/10.1023/A%3A1016611932192 4e9e9b23ec3bb23e9a78efe1023669e3;de;;;7.1.;;;Kapazitätsplanung auf taktischer Ebene in Krankenhausabteilungen Der Zweck besteht darin, die wesentlichen Komponenten und Ergebnisse des taktischen Planungsprozesses zu beschreiben und kontextbezogene Variationen in der Anwendbarkeit des Planungsprozesses für Krankenhausabteilungen zu untersuchen. Das Papier basiert auf einer Fallstudie zu Planungsprozessen von drei Krankenhausabteilungen auf taktischer Ebene, wobei die Unterstützung des Planungsprozesses durch den Abteilungsleiter als wesentlich erachtet wurde. Diese Studie veranschaulicht, wie ein aktiver taktischer Planungsprozess zahlreiche potenzielle Maßnahmen zur Kapazitätsanpassung vorsehen kann und wie diese in verschiedenen Kontexten variieren können. Ein aktiver taktischer Planungsprozess bietet die Möglichkeit, von aktuellen kurzfristigen, kostspieligen Löschmaßnahmen zu proaktiveren Kapazitätsanpassungen innerhalb der Krankenhausabteilungen überzugehen, die es der Abteilung ermöglichen, das Budget unter Einhaltung von Wartezeiten und Warteschlangen in Grenzen zu halten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44736-9_65 d2e59ca2f15cb6c7544541a77ac9272b;de;;;7.1.;;;Der Einfluss neuer Informations- und Kommunikationstechnologien auf Management-Kontrollsysteme Ziel dieses Kapitels ist es, die Entwicklung neuer Informations- und Kommunikationstechnologien zu untersuchen und ihre Relevanz für Organisationen zu bewerten, die ihre Strategie und Struktur und folglich ihre Management-Kontrollsysteme (MCS) ändern müssen, um sich an ein schwierigeres Umfeld anzupassen , gekennzeichnet durch ständigen Wandel.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-86995-1_4 fd3d6e38b81631abf510ad5035e225be;de;;;7.1.;;;Grobes mengenbasiertes Unsicherheitsmanagement für räumliche Datenbanken und geografische Informationssysteme Unsicherheitsmanagement ist für reale Anwendungen notwendig. Dies gilt insbesondere für Datenbanksysteme. Insbesondere Geodaten- und Geoinformationssysteme erfordern gewisse Mittel zur Bewältigung von Unsicherheit. Die Grobmengentheorie hat sich als effektives Werkzeug für das Data Mining und das Unsicherheitsmanagement in Datenbanken erwiesen. Dieses Papier befasst sich mit den besonderen Anforderungen an das Management von Unsicherheiten in Geodaten und GIS und diskutiert Möglichkeiten, wie grobe Sets zur Verbesserung dieser Systeme verwendet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0509-1_41 1a919547a6f6ddac99e4e9c0061cc185;de;;;7.1.;;;Supply Chain Risk Management im Zeitalter von Big Data Der Trend zu Big Data impliziert neue Chancen und Herausforderungen für die Verbesserung des Supply Chain Managements. Insbesondere das Supply-Chain-Risikomanagement kann in hohem Maße von Big-Data-Technologien und Analysemethoden zur Erfassung, Analyse und Überwachung sowohl interner Lieferkettendaten als auch Umweltdaten profitieren. Aufgrund der zunehmenden Komplexität muss nicht nur der Verarbeitung und Analyse von Daten besondere Aufmerksamkeit geschenkt werden, sondern auch der Interaktion zwischen Big-Data-Informationssystemen und Nutzern. In diesem Beitrag analysieren wir die Rolle von Big Data in Lieferketten und präsentieren einen neuartigen Rahmen eines Supply Chain Risk Management Systems zur Verbesserung der Supply Chain Planung und des Supply Chain Risk Managements in stochastischen Umgebungen durch den Einsatz von Big Data Technologien und Analysen. Das prozessorientierte Rahmenwerk dient als Leitfaden zur Integration und Analyse von Big Data sowie zur Implementierung eines entsprechenden Supply Chain Risk Management Systems. Daher bietet dieses Papier eine neue Richtung für die Nutzung von Big Data im Risikomanagement in der Lieferkette.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-20886-2_27 c4dcb7da043e8feef88ce236dd7ab5bd;de;;;7.1.;;;Bestellverwaltung Das Auftrags- und Projektgeschäft zeichnet sich durch individuell angepasste Problemlösungen für einen Kunden aus. Es wird oft nur ein einziges Mal in genau dieser Form erstellt, wobei jede Transaktion in gewisser Weise einzigartig ist. Auf diese Weise kommt dem Auftragsmanagement, also den Marketingbemühungen eines Lieferanten, die auf den Eingang und die gewinnbringende Umsetzung eines einzelnen Auftrags oder Projekts gerichtet sind, eine enorme Bedeutung zu. Dieser Bedeutung geht das folgende Kapitel zunächst in einer kurzen theoretischen und dann in einer umfassenden managementorientierten Betrachtung nach. Dabei werden verschiedene Transaktionstheorien behandelt, bevor die einzelnen Aktivitäten des Auftragsmanagements näher betrachtet werden. Im Einzelnen sind dies die Analyse, Planung, Durchführung, Organisation und Überwachung der Transaktion.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-48507-1_1 435ec2c9a9e123a9c83a5a44cfdc2f2a;de;;;7.2.;;;Hin zu einem kontextsensitiven Benutzerinteraktions-Framework für Informationssysteme Mit dem Aufkommen mobiler Geräte bedienen Benutzer Anwendungen in einer Vielzahl von Kontexten. In jedem dieser Kontexte kann ein Benutzer unterschiedliche Anforderungen und Präferenzen in Bezug auf die Benutzeroberfläche einer Anwendung haben. Der Kontext beschreibt das aktuelle physische und soziale Umfeld des Nutzers, seine Aktivität und Fortbewegung, sowie den aktuellen Standort und die aktuelle Zeit. Daher können unterschiedliche Benutzerschnittstellen in bestimmten Kontexten besser geeignet sein als andere. Momentan ist eine Benutzeroberfläche ein integraler Bestandteil einer Anwendung, was ihren Nutzen in bestimmten Kontexten folglich auch einschränkt, da die Informationen nicht optimal präsentiert werden. Daher schlagen wir eine Möglichkeit vor, die Benutzeroberfläche von einer bestimmten Darstellungsform zu entkoppeln. Durch diese Entkopplung ist es möglich, Benutzeroberflächen dynamisch an die spezifischen Bedürfnisse des Benutzers im Kontext anzupassen, um den Wert der Anwendung für den Benutzer zu steigern. In diesem Beitrag stellen wir einen allgemeinen Rahmen für die kontextabhängige Anpassung von Benutzeroberflächen vor und evaluieren diesen im spezifischen Kontext von Reiseinformationssystemen. Zur Bewertung eines solchen Rahmens eignen sich besonders Reiseinformationssysteme, da sie in der Regel in vielen verschiedenen Kontexten betrieben werden – vor einer Reise, während einer Reise und nach einer Reise. Der Anpassungsrahmen transformiert zwischen systemorientierten Nachrichten und benutzerorientierten Nachrichten. Der Kontext des Benutzers, die Fähigkeiten des Ausgabegeräts und die Präferenz des Benutzers beeinflussen alle die Wahl der tatsächlichen Darstellung für benutzerorientierte Nachrichten. Wir implementierten einen Prototyp des vorgeschlagenen Systems und führten eine experimentelle Evaluierung mit Fokus auf Szenarien aus dem Bereich der Reiseinformationssysteme durch.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-61750-9_9 59f9512374971d029b746988d58fdd82;de;;;7.2.;;;Das hierarchische Fuzzy-Bewertungssystem und seine Anwendung Das hierarchische Fuzzy-Bewertungssystem (HFES) und seine Anwendung in intelligenten Workflow-Management-Systemen (IWfMS) werden in diesem Beitrag diskutiert. Zunächst wird die Definition von HFES erörtert, einschließlich der Definitionen der Bewertungspunkte und der Beziehungen zwischen ihnen, basierend auf den fünf gemeinsamen Operationen. Zweitens werden die laufenden Algorithmen des HFES eingeführt, um die Werte dieser Bewertungselemente und das Ergebnis des HFES zu berechnen. Anschließend wird die Anwendung des HFES im IWfMS einschließlich des Kooperationsmodells detailliert dargestellt. Die Experimente werden durchgeführt und die Ergebnisse zeigen, dass das HFES wirksam ist.;-;-;-;https://link.springer.com/chapter/10.1007/11739685_43 9b7b957d66bd218f53d04e148cc72b3a;de;;;7.1.;;;Verbesserung der Servicequalität im öffentlichen Verkehr in Brasilien: Wie Busunternehmen Qualitätsmanagementsysteme und strategische Planung vereinfachen, um das Serviceniveau zu erhöhen? Die Verbesserung der Servicequalität im öffentlichen Personennahverkehr ist für überzeugte Nutzer von der Nutzung des Privatautos unabdingbar. Um die Servicequalität zu verbessern, müssen Unternehmen jedoch ein Qualitätsmanagementsystem und eine strategische Planung einführen, was keine leichte Aufgabe ist. Dieses Papier stellt einen Weg vor, ein Qualitätsmanagementsystem (QMS) zu vereinfachen und eine einfache strategische Planung (SSP) für Busverkehrsunternehmen zu entwickeln. In diesem Beitrag wird eine Methodik entwickelt und gezeigt, zusammen mit einer Fallstudie, die das System veranschaulichen. Ein brasilianisches Busunternehmen wandte die Methodik an und erreichte mit geringen Kosten eine Verbesserung seines Serviceniveaus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22756-6_59 2e9604bd6d5100c732ffc4e4c02c2f0c;de;;;7.1.;;;Ein pädagogisches Instrument zur Planung und Überwachung des Lehr-Lern-Prozesses im niederländischen Sekundarbereich Die niederländische Sekundarstufe II soll in den nächsten Jahren reformiert werden. Das neue System wird lernerorientiert sein: Schüler sollen viel unabhängiger von Lehrern lernen, die den Lernprozess erleichtern. Dies betrifft einen ziemlich radikalen Wandel in der Sichtweise des Lernens und damit des Lehrens, und sowohl Schüler als auch Lehrer müssen ihr Verhalten ändern. Sowohl Schüler als auch Lehrer werden neue Verantwortlichkeiten im Bildungsprozess haben. Um diese Veränderungen zu unterstützen, wird ein pädagogisches Instrument zur Planung und Begleitung des Lehr-Lern-Prozesses entwickelt. Das Tool besteht aus einer Datenbank mit Aktivitäten, einem Planungsmodul für Studierende und einem Monitoring-Modul für Lehrkräfte. Das Tool sollte mit bestehenden Schulverwaltungssystemen und mit Lehrmaterialien und Tools zur Schülerbewertung verknüpft werden. Ein wichtiger Aspekt bei der Implementierung des Systems ist, dass die Koordinierungsstelle (PRINT) Vorkehrungen trifft, um dieses System zu einem bundesweiten Standard für alle beteiligten Bildungsträger zu machen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35090-5_21 2f092e257a028cd20710370ba242d615;de;;;7.1.;;;Eine herausfordernde Zukunft für i-DMSS Dieses Kapitel berichtet über die Ergebnisse der explorativen Forschung zu den technischen und organisatorischen Herausforderungen, denen sich i-DMSS für die nichtoperative Entscheidungsfindung gegenübersieht, und zeigt Richtungen für zukünftige Forschung auf. Einige Herausforderungen ergeben sich als direktes Ergebnis von Expertenurteilen, die verwendet werden, um den Informationsmangel in komplexen, unsicheren Situationen zu kompensieren, und die Notwendigkeit, die Interaktion zwischen Entscheidungsträgern und Experten mit unterschiedlichen Hintergründen, Interessen, Kenntnissen und Fähigkeiten intelligent zu unterstützen kognitiven Stil. Eine weitere wichtige Herausforderung ergibt sich aus der Manipulation und Interpretation von Informationen, insbesondere für die Aggregation von Expertenurteilen und die Bereitstellung erweiterter Funktionalitäten wie Prognosen im Kontext hochunsicherer und komplexer Entscheidungen.;-;-;-;https://link.springer.com/chapter/10.1007/1-84628-231-4_21 cbbf9ca56b899e00285e04c49514cef1;de;;;7.1.;;;Design eines Managementinformationssystems basierend auf Reverse Logistics Mit der kontinuierlichen Entwicklung des wirtschaftlichen und gesellschaftlichen Bewusstseins für Umweltschutzanforderungen hat die Rückhollogistik begonnen, die Aufmerksamkeit der Menschen auf sich zu ziehen, so dass die Entwicklung der Rolle des Rückhollogistik-Informationssystems deutlich wird. Es gibt verschiedene Papiere zu den Merkmalen der Reverse-Logistik, das System verfügt über einen modularen Aufbau, das logische Strukturdesign, Sicherheitsdesignstudien und das Design von Informationssystemen für das Reverse-Logistikmanagement. Das Papier stellt das Design und die Implementierung eines Managementinformationssystems basierend auf Reverse Logistics vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35398-7_6 3bd62a4109275aee8ed02b01da01cfbd;de;;;7.2.;;;Universität Alicante bei WiQA 2006 Dieses Papier stellt die Teilnahme der Universität Alicante an der WiQA-Pilotaufgabe vor, die im Rahmen der CLEF-Kampagne 2006 organisiert wurde. Für einen bestimmten Themenkomplex setzt diese Aufgabe die Entdeckung wichtiger neuer Informationen voraus, die über verschiedene Wikipedia-Einträge verteilt sind. Der von uns gewählte Ansatz zur Lösung dieser Aufgabe verwendet Information Retrieval, Abfrageerweiterung durch Feedback, Neuordnung von Neuheiten sowie zeitliche Ordnung. Unser System hat sowohl an den einsprachigen Aufgaben in Spanisch als auch in Englisch teilgenommen. Für jede der beiden Beteiligungen sind die Ergebnisse vielversprechend, da wir durch einen sprachunabhängigen Ansatz überdurchschnittliche Ergebnisse erzielen. Darüber hinaus liegt unser Ergebnis im Fall von Spanisch sehr nahe an der besten erreichten Punktzahl. Neben der Vorstellung unseres Systems bietet der vorliegende Beitrag auch eine eingehende Ergebnisanalyse und schlägt zukünftige Forschungslinien sowie Folgeexperimente vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74999-8_68 a3a7a766847796284d8da7196cd37d89;de;;;7.1.;;;Flexible computerintegrierte Fertigungsstruktur vom Typ eines globalen Netzwerks – Fallstudie in EG-Ländern Die europäische Wirtschaft steht vor wichtigen Veränderungen. Nach Jahrzehnten der langsamen Bewegung innerhalb verschiedener Länder der Europäischen Gemeinschaft wurde Ende 1992 ein Binnenmarkt verwirklicht. Dies bedeutet, dass Europa zu einem Territorium ohne Staatsgrenzen wird, das einen freien Verkehr von Menschen, Waren, Dienstleistungen und Kapital garantiert. Eine zunehmende Öffnung der osteuropäischen Länder gegenüber dieser Entwicklung ist zu beobachten. Sie wird den Wettbewerb der Wirtschaftsunternehmen und Industriezweige erheblich verändern, da sowohl das Absatzpotenzial als auch die Zahl der Wettbewerber stark zunehmen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-2014-8_5 c4ffe683d3ca3d717f46fff589172e0e;de;;;7.2.;;;Angepasste UML-Aktivitätsdiagramme für mobile Arbeitsprozesse: Experimenteller Vergleich von Farb- und Musterfüllungen Für Mehrkanal-Informationssysteme ist es oft relevant zu modellieren, wo etwas stattfinden soll, aber die Notationen der Geschäftsprozessmodellierung erfassen selten die geografische Lage. In früheren Veröffentlichungen haben wir Alternativen für kleine Änderungen an UML-Aktivitätsdiagrammen vorgeschlagen und verglichen, um dies zu beheben, und ein kontrolliertes Experiment zeigte, dass eine Alternative mit Farbe besser abschneidet als eine mit Anmerkungen. Farbe hat jedoch auch einige Herausforderungen, insbesondere für Benutzer mit Farbsehproblemen. Daher berichtet dieser Artikel über ein neues Experiment zum Vergleich von Farbe mit schwarz/weißen Musterfüllungen. Das Experiment untersuchte sowohl die Meinung der Teilnehmer zu den Notationen als auch ihre Leistung bei einigen Aufgaben. Während die Meinung deutlich zugunsten der Farbnotation ausfiel, war die Aufgabenleistung nur geringfügig und nicht signifikant zugunsten dieser Notation.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21759-3_23 b823462f0b5ece3f37e9c0a0002ca4ce;de;;;7.2.;;;IR-Bewertung ohne gemeinsames Themenset Normalerweise wird die Bewertung der Systemeffektivität in einer TREC-ähnlichen Umgebung zu einem gemeinsamen Themenkomplex durchgeführt. Wir zeigen, dass auch bei der Verwendung unterschiedlicher Themen für unterschiedliche Systeme eine zuverlässige Bewertung möglich ist und die Zuverlässigkeit durch geeignete Themenauswahlstrategien und metrische Normalisierungen erhöht wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04417-5_35 bb8b138408b41e4a8226bdf69007f5b8;de;;;7.1.;;;Social-Software-basierter Support für Enterprise Architecture Management-Prozesse Moderne Unternehmen formen und transformieren sich kontinuierlich durch eine Vielzahl von Managementprozessen mit unterschiedlichen Perspektiven. Sie reichen vom Geschäftsprozessmanagement über das IT Service Management bis hin zum Management der Informationssysteme. Enterprise Architecture (EA) Management möchte eine solche Perspektive bieten und die unterschiedlichen Managementperspektiven aufeinander abstimmen. Daher kann sich EA Management nicht auf hierarchische – tayloristisch gestaltete – Managementprozesse verlassen, um diese Ausrichtung zu erreichen und zu fördern. Umgekehrt muss es Bottom-up-, informationszentrierte Koordinationsmechanismen anwenden, um sicherzustellen, dass verschiedene Managementprozesse aufeinander und die Unternehmensstrategie abgestimmt sind. Social Software bietet einen solchen Bottom-Up-Mechanismus zur Unterstützung innerhalb von EAM-Prozessen. Folglich werden Herausforderungen von EA-Managementprozessen untersucht und Beiträge von Social Software vorgestellt. Ein Cockpit bietet interaktive Funktionen und Visualisierungsmethoden, um dieser Komplexität gerecht zu werden und den praktischen Einsatz von Social Software in Enterprise Architecture Management Prozessen zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-15895-2_39 eca7d01e8007f48abc0873d5cdc4480b;de;;;7.1.;;;Zukunftsweisende Aktivitäten zur Unterstützung der technologischen Planung von KI-basierten Lernplattformen KI-basierte Lernplattformen (AILPs) werden zu einem immer wichtigeren Bestandteil wissensbasierter Gesellschaften. Die Entwicklung und Nutzung von AILP ist tief im PEST-Umfeld verwurzelt und erfordert einen gründlichen strategischen Plan der sozialen und Forschungsauswirkungen über eine mittel- bis langfristige Perspektive. Dieses Papier präsentiert den lerntechnologieprofilierten Teil der strategischen Wirkungsplanung für eine innovative intelligente Lernplattform und Wissensdatenbank, die als „Plattform“ bezeichnet wird und im Rahmen eines Horizon 2020-Projekts entwickelt wurde. Außerdem werden ausgewählte Ergebnisse der aktuellen Delphi-Umfrage zur Zukunft der Lernplattform und die methodischen Hintergründe des Strategieentwicklungsprozesses für eine AILP diskutiert. Diese zukunftsweisende Aktivität in vier Runden/Echtzeit kombinierte Politik- und Entscheidungs-Delphi und konzentrierte sich auf die Identifizierung von Faktoren, die die zukünftige Leistung und den Bildungseffekt der Plattform beeinflussen. Die Strategieentwicklung umfasste zwei Phasen. Phase 1 war der Festlegung der Rahmenbedingungen für die Aktivität der Plattform und der Bildung von Nutzergemeinschaften gewidmet, während Phase 2 den endgültigen Aktionsplan lieferte, der darauf abzielte, die digitale Nachhaltigkeit, finanzielle Tragfähigkeit und gesellschaftliche Akzeptanz der Plattform sicherzustellen. Plausible Nutzungsszenarien wurden durch ein mit antizipativen Netzwerken etabliertes Wirkungsmodell ergänzt. All diese Informationen wurden im endgültigen kollaborativen Roadmapping verwendet, das die Plattformnutzung in den realen Kontext stellte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-35758-0_26 372f60fbddec31946981cb3de73818c4;de;;;7.2.;;;Ein Transformationsalgorithmus für inkompatible Informationssysteme basierend auf variablen Genauigkeitswerten Das Modell des variablen Präzisions-Rough-Set (VPRS) erweitert die Theorie des Basic-Rough-Sets (RS) um endliche Universen und endliche Bewertungsmaße. VPRS befasst sich mit der Äquivalenz und der enthaltenen Beziehung zwischen zwei Mengen. In inkompatiblen Informationssystemen werden der Inklusionsgrad und;-;-;-;https://link.springer.com/article/10.1007/s11768-012-9230-y 158512fc8baaa97c9c988f4855528a84;de;;;7.2.;;;Datenverlustprävention basierend auf Textklassifizierung in kontrollierten Umgebungen Der Verlust sensibler Daten ist ein häufiges Problem mit potenziell schwerwiegenden Folgen. Durch die Kategorisierung von Dokumenten nach ihrer Sensibilität können Sicherheitskontrollen basierend auf dieser Klassifizierung durchgeführt werden. Fehler im Klassifizierungsprozess können jedoch effektiv zu Informationslecks führen. Während automatisierte Klassifizierungstechniken verwendet werden können, um dieses Risiko zu mindern, wurde wenig Arbeit geleistet, um die Wirksamkeit solcher Techniken zu bewerten, wenn sensible Inhalte transformiert wurden (z eins). Um diese schwierigeren Datenlecks besser handhaben zu können, schlägt dieses Papier die Verwendung kontrollierter Umgebungen vor, um Fehlklassifizierungen zu erkennen. Durch die Überwachung des eingehenden Informationsflusses können die in eine kontrollierte Umgebung importierten Dokumente verwendet werden, um die Vertraulichkeit der in derselben Umgebung erstellten Dokumente besser zu bestimmen. Unsere Evaluierungsergebnisse zeigen, dass dieser Ansatz unter Verwendung von Techniken des maschinellen Lernens und des Information Retrieval eine verbesserte Erkennung von falsch klassifizierten Dokumenten ermöglicht, die komplexeren Datentransformationen unterzogen wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49806-5_7 862155d6a393213aa3f812b08d6883fc;de;;;7.2.;;;Experimentelle Bewertung von Peer-Endorsement-System-Artefakten unter Verwendung von Best-of-Breed-Idealen – Auswirkungen von Online-Entscheidungssicherheit auf das Bedauern nach der Wahl Peer-Endorsement-Systeme (PES), Systeme zur Sammlung und Präsentation von Online-Produktbewertungen, sind auf vielen E-Commerce-Websites ein neuer und immer häufiger anzutreffender Anblick. Die Anzahl der Überprüfungen und der Umfang der Datenpräsentation, die von öffentlichen Arbeitsverwaltungen ermöglicht werden, stellen Anforderungen an die Informationsverarbeitungsfähigkeiten eines typischen Kunden. Diese Studie geht davon aus, dass Unterschiede im PES-Design basierend auf Qualität und Präsentation von Online-Kundenbewertungen die Wahrnehmung der Benutzer beeinflussen können, ob sie „die ganze Geschichte“ über ein Produkt erfahren. Basierend auf der Theorie des wirtschaftlichen Bedauerns entwickeln wir ein theoretisches Modell, um die Auswirkungen des PES-Designs auf das Entscheidungsvertrauen der Verbraucher und das Bedauern nach der Wahl zu testen. Wir führen eine expost-experimentelle Analyse zweier konkurrierender PES-Schnittstellen durch und zeigen, dass wesentliche Unterschiede im PES-Design einen überraschenden und relevanten Einfluss auf die Art und Weise haben, wie Daten dieser Schnittstelle von Kunden im Online-Entscheidungsprozess wahrgenommen und verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20633-7_19 6acc76b2c72eba9ebe8c0720619a504f;de;;;7.2.;;;Eine Umfrage zu Bildsteganographie-Algorithmen und -Auswertung Die Technik, vertrauliche Informationen in jedem Medium zu verbergen, wird als Stegonographie bezeichnet. Da sowohl Stegonographie als auch Kryptographie zum Schutz vertraulicher Informationen verwendet werden, werden beide synonym verwendet. Dies ist falsch, da das Erscheinungsbild der Ausgabe der beiden Prozesse völlig unterschiedlich ist, die Ausgabe einer Stegonographie-Operation offensichtlich nicht sichtbar ist, während die Ausgabe für die Kryptographie so verwürfelt ist, dass sie leicht auffällt. Der Nachweis des Vorhandenseins einer Stegonographie wird als Steganlyse bezeichnet. In diesem Artikel haben wir versucht, die wichtigsten Ansätze der Bildsteganographie zu erläutern, und dann werden wir die Techniken bewerten und die Ergebnisse in einer Tabelle darstellen und diskutieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22389-1_36 ccc9dad6cbc911a22998f4f605c0d170;de;;;7.1.;;;Nanophotonik für Informationssysteme Der Bereich der Photonik findet Anwendungen in der Informationstechnologie, im Gesundheitswesen, in der Beleuchtung und in der Sensorik. Dieses Kapitel untersucht die Rolle der Nanotechnologie mit Schwerpunkt auf Nanophotonik in dielektrischen und inhomogenen Metamaterialien für optische Kommunikation, Computer und Informations- und Signalverarbeitung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-7380-1_2 311489ccb2d2b8662dcac1e8aaaf92e3;de;;;7.1.;;;Geo-Agenten: Konzipieren und implementieren Geo-Agents, ein Multi-Agenten-System, das verteilte Geoinformationen und Geodienste verarbeitet, wurde vorgestellt. Zunächst wurde die Anforderung an einen verteilten geografischen Informationsprozess diskutiert und die Architektur von Geo-Agenten vorgestellt. Dann wurden eingehende Diskussionen über die Implementierung von Agentensystemen wie Basisagenten, Agentenwerbung, Nachrichtenweitergabe und Zusammenarbeit geführt. Ein Beispiel wurde auch gegeben, um den Problemlösungsprozess zu erklären.;-;-;-;https://link.springer.com/article/10.1007/BF03160284 085ad98a4d57ee53bc25b510807d1478;de;;;7.2.;;;Bewertung von Regeln zur manuellen Abfrageerweiterung für eine domainspezifische FAQ-Sammlung Wissensdatenbanken mit häufig gestellten Fragen (FAQ) sind eine bequeme Möglichkeit, domänenspezifische Informationen zu organisieren. Das Abrufen von FAQ ist jedoch eine Herausforderung, da die Dokumente kurz sind und das Vokabular domänenspezifisch ist;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24027-5_24 53cb6e84f4a352ee6d13ec2222f559f7;de;;;7.2.;;;Diagnosemodell für Maiskrankheiten basierend auf Ontologie und Multi-Agent Entsprechend der Unsicherheit, Dynamik und Abhängigkeit von Maiskrankheiten stellt dieser Beitrag eine Art Diagnosemodell für Maiskrankheiten in Kombination mit Ontologie mit Multi-Agent vor. Die Wissensrepräsentation der Ontologie liefert eine klare formale Spezifikation für die Entstehungszeiträume und Symptomcharakteristika beim Auftreten der Maiskrankheit. Mit der Intelligenz des Agenten und der abteilungsübergreifenden Zusammenarbeit von Agentenmodulen haben wir das Engpassproblem beim Erwerb und der Darstellung von Wissen über Maiskrankheiten gelöst und die Lernfähigkeit der Ontologie verbessert. Experimente zeigen, dass das Modell Maiskrankheiten genau und effizient diagnostizieren kann und eine gute Anwendungsperspektive hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36137-1_32 66a6857e6739bf2e1480d369b76d72b6;de;;;7.2.;;;Ranking der geotextuellen Relevanz zur Verbesserung einer textbasierten Suche für geografische Abfragen Geographic Information Retrieval ist ein aktives und wachsendes Forschungsgebiet, das sich auf die Recherche von Textdokumenten nach geografischen Relevanzkriterien konzentriert. In dieser Arbeit schlagen wir eine Reranking-Funktion für diese Systeme vor, die den von der Information Retrieval Engine berechneten Retrieval-Statuswert und die geografische Ähnlichkeit zwischen dem Dokument und der Abfrage kombiniert. Die erhaltenen Ergebnisse zeigen, dass die vorgeschlagene Rankingfunktion textbasierte Baseline-Ansätze immer übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22327-3_38 0e34b9aea1b326b58dbccea1b1379e47;de;;;7.1.;;;Methoden und Konzepte der virtuellen Unternehmensplanung Mit der Erschließung globaler Märkte und der Betonung der Kernkompetenzen steigt der Bedarf an interorganisationaler Zusammenarbeit. Solche Kooperationen versuchen meist auch kurzfristig Geschäftschancen zu nutzen. Die Unterstützung dieser Art von Unternehmen ist noch nicht gut etabliert (Schweiger, Very, 2001).;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35621-1_13 df068904e347c25901e603f85c79776b;de;;;7.2.;;;Verbesserung der Ergebnisvielfalt durch die Nähe von Abfragebegriffen in der explorativen Suche Im Information-Retrieval-System ist die Relevanzmanifestation von zentraler Bedeutung und basiert regelmäßig auf Dokument-Term-Statistiken, d. In diesem Papier wird ein neuartiges Informationsabruf-Framework vorgeschlagen, um die Dokumente unter allen relevanten abgerufenen zu bewerben. Die Relevanzschätzung ist eine gewichtete Kombination aus Dokumentstatistik und Abfragebegriffsstatistik, und Begriffsnähe ist eine einfache Zusammenfassung verschiedener Aspekte der Benutzerpräferenzen bei der Abfragebildung, also angepasst an das Framework mit herkömmlichen Relevanzmaßen. Intuitiv wird QTP genutzt, um die Dokumente für eine ausgewogene Nutzung und Exploration zu fördern und schließlich eine Suche nach Zielen zu steuern. Die Bewertung bestätigt die Brauchbarkeit von QTP-Maßnahmen, um mehrere Kompromisse auszugleichen, z.B. Relevanz, Neuheit, Ergebnisvielfalt (Berichterstattung und Aktualität) und Gesamtauffindbarkeit. Die Bewertung von Benutzersuchpfaden weist auf ein signifikantes Wachstum eines Lernergebnisses hin.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37188-3_5 e095bdf122d7425e10322173fedb2b29;de;;;7.1.;;;Supply Chain Management: Ein Geschäftsansatz für einige tatsächliche Aspekte Der Druck nach kürzeren Produktlebenszyklen, verbesserter Qualität, größerer Vielfalt und zunehmendem Wettbewerb, denen sich die Fertigungsunternehmen von heute gegenübersehen, erzeugen einen unerbittlichen Veränderungsdruck und folglich die Notwendigkeit für Unternehmen, mit den neuesten Entwicklungen der weltweiten Best Practices Schritt zu halten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-5226-7_20 670a9c4ed995fe2151b9bdd14e769968;de;;;7.2.;;;Robuste argumentative Zonierung für Sensemaking in wissenschaftlichen Dokumenten Wir präsentieren einen automatisierten Ansatz, um Sätze wissenschaftlicher Arbeiten hinsichtlich ihrer rhetorischen Funktion zu klassifizieren. Während frühere Arbeiten, die diese Aufgabe erfüllen, von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23160-5_10 466f1354818375ba98bc2b299aac3c7d;de;;;7.2.;;;GPS-basierte Standortempfehlung unter Verwendung eines Glaubensnetzwerkmodells Mit der zunehmenden Popularität von standortbasierten Diensten ist die Standortempfehlung eine der wichtigen Anwendungen. In diesem Papier empfehlen wir je nach Präferenz eines Benutzers einem Benutzer Standorte, indem wir ein Informationsabrufmodell, nämlich das Glaubensnetzwerkmodell, erweitern. Wir betrachten die Präferenz des Nutzers als Abfrage, einen Ort als Dokument, Kategorien als Indexbegriffe. Und dann verwenden wir das Glaubensnetzwerk-Modell, um einem Benutzer Standorte zu empfehlen, indem wir Experteninformationen hinzufügen. Experimentelle Ergebnisse an einem realen Datensatz zeigen, dass die Empfehlungseffektivität verbessert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25159-2_66 453bcc156f0c222d1e31036ad72ad1d1;de;;;7.2.;;;Evaluationsinitiative für die Ontologie-Ausrichtung: Sechs Jahre Erfahrung Im Bereich semantischer Technologien sind Benchmarking und systematische Auswertung noch nicht so etabliert wie in anderen Bereichen der Informatik, z. B. Information Retrieval. Um einen solchen Reifegrad zu erreichen, bedarf es trotz erfolgreicher Versuche noch mehr Aufwand und Erfahrung. In diesem Papier berichten wir über Ergebnisse und Erkenntnisse aus der Ontology Alignment Evaluation Initiative (OAEI), einer Benchmarking-Initiative für Ontologie-Matching. Das Ziel dieser Arbeit ist zweierlei: Einerseits dokumentieren wir den Stand der Technik bei der Evaluation von Ontologie-Matching-Methoden und vermitteln potentiellen Teilnehmern der Initiative ein besseres Verständnis für das Design und die zugrunde liegenden Prinzipien der OAEI-Kampagnen. Andererseits berichten wir über Erfahrungen in diesem speziellen Bereich semantischer Technologien an potenzielle Entwickler von Benchmarking für andere Arten von Systemen. Dazu beschreiben wir das Evaluationsdesign der OAEI-Kampagnen in Bezug auf Datensätze, Bewertungskriterien und Workflows, geben einen globalen Überblick über die Ergebnisse der von 2005 bis 2010 durchgeführten Kampagnen und diskutieren kommende Trends, sowohl spezifisch für das Ontologie-Matching und allgemein relevant für die Bewertung semantischer Technologien. Schließlich argumentieren wir, dass eine weitere Automatisierung des Benchmarking erforderlich ist, um den Feedback-Zyklus für Tool-Entwickler zu verkürzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22630-4_6 ffd5f90c07f191e822cc42287bc7b526;de;;;7.2.;;;Ein präferenzbasierter Ansatz für das interaktive Lernen von Gewichten: Lernen von Gewichten in einer logikbasierten Abfragesprache Die Ergebnisqualität von Abfragen mit Ungenauigkeiten kann durch die Angabe von benutzerdefinierten Gewichten verbessert werden. Bestehende Ansätze bewerten gewichtete Abfragen durch Anwendung;-;-;-;https://link.springer.com/article/10.1007/s10619-009-7049-4 7267bf96c1ecdaf3ee9daccf91c5be56;de;;;7.2.;;;Eine Übersicht über die Diversifizierung der Abfrageergebnisse Heutzutage wird Vielfalt in Informationssystemen wie Websuchmaschinen und Datenbanken immer wichtiger und erhält immer mehr Aufmerksamkeit, um die Zufriedenheit der Benutzer zu verbessern. In diesem Sinne ist die Diversifizierung der Abfrageergebnisse von entscheidender Bedeutung und es lohnt sich, sie zu erforschen. Einige Themen wie die Definition von Diversifikation und effiziente Verarbeitung diverser Anfragen sind in Informationssystemen schwieriger zu handhaben. Viele Forscher haben sich auf verschiedene Dimensionen des Diversifizierungsproblems konzentriert. In dieser Umfrage möchten wir einen umfassenden Überblick über eine breite Palette von Ergebnisdiversifikationstechniken geben, einschließlich verschiedener Definitionen von Diversifikationen, entsprechenden Algorithmen, Diversifikationstechniken, die für einige Anwendungen wie Datenbank, Suchmaschinen, Empfehlungssysteme, Grafiken, Zeitreihen und Datenströme spezifiziert sind sowie Ergebnisdiversifikationssysteme. Wir schlagen auch einige offene Forschungsrichtungen vor, die herausfordernd sind und bisher nicht erforscht wurden, um die Qualität der Abfrageergebnisse zu verbessern.;-;-;-;https://link.springer.com/article/10.1007/s10115-016-0990-4 49ae50d25d7a92f0dca1cea295aac790;de;;;7.1.;;;Die Synergie von lernenden Organisationen und flexibler Informationstechnologie Der Wechsel vom Command-and-Control- zum Learning-Organization-Paradigma im Bereich der Organisationstheorie ist gut verstanden. Weniger bekannt ist, dass lernende Organisationen nicht effektiv arbeiten können, wenn sie von zentralisierten Datenverarbeitungssystemen unterstützt werden. Das Papier argumentiert, dass Synergien zwischen Organisationsstrukturen und organisatorischen Informationssystemen erforderlich sind. Das Lernen muss durch die sogenannte neue Informationstechnologie unterstützt werden. Um gewünschte Synergien zu erzielen, ist es notwendig, Organisationen und Organisationsinformationssysteme gleichzeitig zu gestalten.;-;-;-;https://link.springer.com/article/10.1007/BF01179781 914fe749788ee1b6f64ede6e51a66f83;de;;;7.2.;;;Kognitive Modellierung und Wissensrepräsentation im ontologischen Engineering Dieser Beitrag beschreibt die Prozesse der kognitiven Modellierung und Darstellung menschlicher Expertise zur Entwicklung einer Ontologie und Wissensbasis eines Expertensystems. Eine Ontologie ist eine Organisation und Klassifikation von Wissen. Ontological Engineering in künstlicher Intelligenz (KI) hat das praktische Ziel, Wissensrahmen zu konstruieren, die es Computersystemen ermöglichen, wissensintensive Probleme anzugehen und den Wissensaustausch und die Wiederverwendung von Wissen zu unterstützen. Ontologisches Engineering ist auch ein Prozess, der den Aufbau der Wissensbasis eines intelligenten Systems erleichtert, das als Computerprogramm definiert werden kann, das die Problemlösungsfähigkeiten menschlicher Experten in bestimmten Bereichen duplizieren kann. In diesem Beitrag werden die Prozesse der Wissensgewinnung, -analyse und -repräsentation vorgestellt, die die Grundlage für die Ontologiekonstruktion bildeten. Dabei werden die Verfahren im ontologischen Engineering zum Aufbau eines Expertensystems im Bereich der Überwachung einer Erdölförderungs- und Separationsanlage angewendet. Das erworbene Wissen wurde auch formal in zwei Wissenserwerbsinstrumenten abgebildet.;-;-;-;https://link.springer.com/article/10.1023/A%3A1025418031205 843ec8a4a310f88f6277c254e924d3a3;de;;;7.2.;;;Abfrageverfeinerung mit konversationellem Kontext: Eine Methode und eine Bewertungsressource In diesem Dokument wird eine Methode zur Abfrageverfeinerung vorgestellt, die auf Abfragen angewendet wird, die von Benutzern während eines Meetings oder einer Unterhaltung gestellt werden. Die vorgeschlagene Methode erfordert keine weiteren Klarstellungen von den Benutzern, um sie nicht von ihrem Gespräch abzulenken, sondern nutzt stattdessen den lokalen Kontext des Gesprächs. Die Methode stellt zunächst den lokalen Kontext dar, indem sie Schlüsselwörter aus dem Transkript der Konversation extrahiert. Anschließend werden die Abfragen mit Schlüsselwörtern erweitert, die das Thema der Abfrage am besten repräsentieren, d. h. Erweiterungsschlüsselwörter, die von Gewichtungen begleitet werden, die ihre thematische Ähnlichkeit mit der Abfrage angeben. Darüber hinaus präsentieren wir einen Datensatz namens AREX und eine Bewertungsmetrik, die auf Relevanzurteilen basiert, die in einem Crowdsourcing-Experiment gesammelt wurden. Wir vergleichen unseren Ansatz zur Abfrageerweiterung mit anderen Methoden gegenüber Abfragen, die aus dem AREX-Datensatz extrahiert wurden, und zeigen die Überlegenheit unserer Methode, wenn entweder manuelle oder automatische Transkripte des AMI Meeting Corpus verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19581-0_7 cb319321c51a51157f0efd98bb3652ba;de;;;7.2.;;;Erweitern von Abfragen mit Begriffs- und Phrasenübersetzungen im Patent Retrieval Patent Retrieval ist ein Zweig des Information Retrieval (IR), der darauf abzielt, die anspruchsvolle Aufgabe des Abrufens hochtechnischer und oft komplizierter Patente zu ermöglichen. In der Regel übersetzen Patenterteilungsstellen Patente in mehrere wichtige Fremdsprachen, damit Sprachgrenzen ihre Zugänglichkeit nicht behindern. Angesichts solcher mehrsprachiger Patentsammlungen gehen wir davon aus, dass die Patentübersetzungen verwendet werden können, um den Patentabruf zu erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21353-3_3 e45ee6a8eb2ba7d775c724ee5458abb6;de;;;7.2.;;;Inhaltsbasierter Abruf zur Markenregistrierung Mit der ständig steigenden Zahl eingetragener Marken wird die Aufgabe des Markenamtes immer schwieriger, die Einzigartigkeit aller eingetragenen Marken zu gewährleisten. Marken sind komplexe Muster, die aus verschiedenen Bild- und Textmustern bestehen, genannt;-;-;-;https://link.springer.com/article/10.1007/BF00393940 55ef0a6a830533a1a7e4e7dd34844dd5;de;;;7.2.;;;Bewertung der Dokumentenklassifizierungsansätze Dieser Beitrag befasst sich mit der automatischen Dokumentenklassifizierung einer Klasse. Fünf Merkmalsauswahlmethoden und drei Klassifikatoren werden an einem tschechischen Korpus bewertet, um ein effizientes tschechisches Dokumentenklassifikationssystem aufzubauen. Zur präzisen Darstellung der tschechischen Dokumente werden Lemmatisierung und POS-Tagging verwendet. Wir haben gezeigt, dass die POS-Tag-Filterung sehr wichtig ist, während die Lemmatisierung eine marginale Rolle für die Klassifizierung spielt. Wir haben auch gezeigt, dass Maximum Entropy and Support Vector Machines sehr robust gegenüber der Merkmalsvektorgröße sind und den Naive Bayes-Klassifikator aus Sicht deutlich übertreffen der Klassifikationsgenauigkeit. Die beste Klassifizierungsgenauigkeit beträgt etwa 90%, was für eine Bewerbung bei der Tschechischen Nachrichtenagentur, unserem Handelspartner, ausreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-00969-8_86 83ff25a668aa848bfc5dab0ac670c90b;de;;;7.1.;;;Entwicklung einer Cloud-Roadmap Das Tempo des Wandels und der Innovation in der Informationstechnologie und ihr zunehmender Beitrag zur Unternehmenstransformation waren eine der Hauptausgaben für Unternehmen. Gleichzeitig sind Unternehmen jeder Größe in den letzten Jahren zunehmend von unvorhersehbaren und unsicheren sich ändernden Geschäftsumfeldern betroffen. Während extern die aktuelle Geschäftslandschaft durch neue Hürden und Chancen wie eine herausfordernde Wirtschaft, neue Technologien, zunehmende Kommodifizierung der Technologie, kürzerer Informationslebenszyklus, erhöhte Transparenz entlang der Lieferketten, sich ändernde Kundenanforderungen und -präferenzen, sich wandelnde Probleme in Bezug auf Transparenz, Datenschutz, Sicherheit sowie damit verbundene Vorschriften, Compliance und Standards werden Unternehmen intern durch knappere Budgets und den Schwerpunkt auf effektives Investitionsmanagement, Kostensenkung, Management der sich entwickelnden Komplexität der Märkte, Management neuer Beziehungen, einschließlich der Entwicklung neuer Geschäftsmodelle, um sich zu differenzieren und wettbewerbsfähig zu bleiben, herausgefordert. Nutzung der Technologiekapazitäten für eine effiziente und effektive Geschäftsabwicklung, Prozess- und Betriebseffizienz, strategische Ausrichtung der IT-Ressourcen auf die Geschäftsanforderungen für eine optimierte Realisierung von Geschäftsvorteilen, Management von Risiken und vieles mehr.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-4603-2_11 608fdaaa7b336bc9d9621ecff339ca29;de;;;7.1.;;;Ausblenden von Zugriffsmustern in Bereichsabfragen mit Private Information Retrieval und ORAM Wir untersuchen das Problem der datenschutzwahrenden Bereichssuche, die den Benutzern bei Bereichsabfragen Daten-, Abfrage- und Antwortvertraulichkeit bietet. Wir schlagen zwei Methoden vor, die auf den Techniken Private Information Retrieval (PIR) und Oblivious RAM (ORAM) basieren. Für PIR-basierte Abfragen wird das Computationally Private Information Retrieval (CPIR)-Schema von Lipmaa verwendet. Für die ORAM-basierte Methode wird das Path ORAM-Schema von Stefanov et al. angepasst, um eine datenschutzerhaltende Bereichssuche zu ermöglichen. Unsere Analysen zeigen, dass aus rechnerischer Sicht das ORAM-basierte Verfahren aufgrund des günstigen Serverbetriebs deutlich besser abschneidet. CPIR nutzt die Bandbreite jedoch insbesondere für große Datenbanken besser, seine Sicherheitsdefinitionen sind formaler und es ist flexibler für verschiedene Einstellungen mit mehreren Clients und/oder Bandbreitenbeschränkungen. Um CPIR zu einer praktischen Alternative für große Datenbanken zu machen, verbessern wir in dieser Arbeit die Leistung durch Shared Memory OpenMP und Distributed Memory OpenMP-MPI Parallelisierung mit einer skalierbaren Daten-/Aufgabenpartitionierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-53357-4_17 9bd06680f4d641d7f50d2164ad7adff4;de;;;7.1.;;;Theorie zur Strategieumsetzung und Resilienz Im vorherigen Kapitel wurde eine Definition der Strategieumsetzung eingeführt, die in der gesamten Arbeit verwendet wird. Der Vollständigkeit halber ist es wichtig, die verschiedenen Definitionen und Ansätze zu untersuchen, die von Autoren zu diesem Thema angeboten werden. Dennoch haben nur wenige Forscher eine Definition für die Strategieumsetzung erstellt und es gibt keine allgemein akzeptierte Beschreibung des Konzepts der Umsetzung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-34467-2_2 9ace58046a82d7cdcbf53ec1efd8223a;de;;;7.1.;;;Prozessorientierte Modellierung und Analyse von Geschäftsprozessen mit dem R/3-Referenzmodell In vielen Unternehmen sind die Geschäftsprozesse Logistik, Rechnungswesen und Personal unklar – oder oft sogar unbekannt. Mit dem R/3-Referenzmodell steht dem Anwender ein Werkzeug zur Verfügung, das unter Berücksichtigung von Varianten (Szenariobeispiele) Geschäftsprozesse des R/3-Systems anschaulich abbildet.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34983-1_5 a91de3e826a4926fe4239b92a3fd390f;de;;;7.1.;;;Schwierigkeiten bei der Implementierung der agilen Lieferkette: Erkenntnisse aus der Einführung interorganisationaler Informationssysteme Agilität wird zu einem wichtigen Bestandteil im kontinuierlichen Kampf um die Steigerung der Gesamtleistung der Lieferkette. Die Notwendigkeit, schnell auf plötzliche Nachfrage- oder Angebotsänderungen zu reagieren, erfordert den zeitnahen Austausch einer großen Menge hochwertiger Informationen zwischen den Handelspartnern. Elektronischer Datenaustausch (EDI) und andere interorganisationale Systeme (IOS) können diese Ziele unterstützen, jedoch ist die Verbreitung dieser Systeme in der gesamten Lieferkette keineswegs gewährleistet. Wir lehnen uns an die IOS-Adoptionsliteratur, um die Gründe für das Scheitern der Adoption zu erklären. Wir verwenden das Adoptionspositionsmodell, um drei kurze Fallstudien zu analysieren, und wir bestätigen, dass in diesen Fällen die relative Macht eines Unternehmens und seine Absicht, ein bestimmtes IOS zu übernehmen, zusammen seine Position in der Entscheidung bestimmen. Durch die Kombination der Adoptionspositionen der Handelspartner können wir die Entscheidung des Ergebnisses effektiv vorhersagen. Am Ende des Papiers schlagen wir Strategien vor, um diese Barrieren zu überwinden, die die Realisierung einer agilen Lieferkette behindern.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-25590-7_10 e450f1fb1dc4382ad3b0f6dd9daa9f4b;de;;;7.1.;;;Produktionsmanagement: Welche Zukunft? In diesem Beitrag wird die Entwicklung des Produktionsmanagements in der nächsten Zukunft diskutiert. Diese Entwicklung betrifft die Integration des Produktionsmanagements (PM) mit den anderen Funktionen innerhalb und außerhalb des Unternehmens, die Verwendung von Unternehmensmodellierungstechniken zur Analyse, zum Entwurf und zur Implementierung von Produktionsmanagementsystemen mit der Wahl von Softwarepaketen. Dann werden wir uns auf die Entwicklung von Paketen mit dem Aufkommen von „Integrierter Software“ und der Rolle des „Objektdesigns“ konzentrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35304-3_3 ffa615836e221b882b5aeb5fc75d1c8d;de;;;7.2.;;;Kombination qualitativer Informationen mit 2-Tupel-linguistischer Darstellung in DSmT Moderne Systeme zur Informationsgewinnung, -fusion und -verwaltung müssen sich immer mehr mit Informationen von menschlichen Experten auseinandersetzen, die normalerweise qualitativ in natürlicher Sprache mit linguistischen Bezeichnungen ausgedrückt werden. In diesem Papier schlagen und verwenden wir zwei neue linguistische 2-Tupel-Repräsentationsmodelle (dh ein Verteilungsfunktionsmodell (DFM) und ein verbessertes Modell von Herrera-Martínez) zusammen mit den in der Dezert-Smarandache-Theorie (DSmT) entwickelten Fusionsregeln, in um qualitativ hochwertige Informationen, ausgedrückt durch qualitative Glaubensfunktionen, effizient zu kombinieren. Die beiden Modelle bewahren sowohl die Präzision als auch die Effizienz der Fusion von linguistischen Informationen, die die Meinung des globalen Experten ausdrücken. DFM ist jedoch allgemeiner und effizienter als letzteres, insbesondere für unausgewogene linguistische Labels. Es werden auch einige einfache Beispiele bereitgestellt, um zu zeigen, wie die qualitativen 2-Tupel-Fusionsregeln durchgeführt werden und welche Vorteile sie haben.;-;-;-;https://link.springer.com/article/10.1007/s11390-009-9258-8 e1bac3fc7292fc6a9d08689a992529c7;de;;;7.2.;;;Evaluierung des proaktiven kontextbezogenen Abrufs auf Mobilgeräten: ein inkrementeller Benchmark Wir präsentieren die Evaluierung einer neuartigen Anwendung zur Durchsicht von Webinhalten mittels kontextsensitiver Mobilgeräte, die proaktiv eine externe Suchmaschine abfragen. Dazu entwickeln wir einen TREC-ähnlichen Benchmark und evaluieren damit unterschiedliche Strategien zur automatischen Query-Konstruktion auf Basis des aktuellen Nutzerkontextes. Wir besprechen sowohl die Methodik als auch die Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04417-5_40 9e153e31771892b516b8e6d570c124ea;de;;;7.2.;;;Beitrag der konzeptionellen Indexierung zu ImageCLEF Medical Retrieval-Aufgaben In diesem Kapitel untersuchen wir die konzeptionelle Indexierung unter Verwendung eines Sprachmodellierungsansatzes für die Informationsbeschaffung. Insbesondere schlagen wir eine konzeptionelle Darstellung von Dokumenten vor, die die Verwendung von Konzepten und beschrifteten Beziehungen beim Abgleich von Dokumenten und Abfragen ermöglicht. Eine solche semantische Indizierung liefert effektive Ergebnisse, wenn große Ontologien verwendet werden. Wir präsentieren zunächst ein Modell, das aus dem Sprachmodellierungsansatz für die Informationsbeschaffung basierend auf einer konzeptionellen Darstellung von Dokumenten abgeleitet wurde. Wir führen dann eine Erweiterung ein, um Beziehungen zwischen Konzepten zu berücksichtigen. Konzept- und Relationserkennungsmethoden sind jedoch fehleranfällig. Wir entwickeln daher einen Ansatz, um solche Fehler durch die Kombination verschiedener Methoden zu begrenzen. Um verschiedene Aspekte des vorgeschlagenen Modells zu veranschaulichen, haben wir eine Reihe von Experimenten an verschiedenen medizinischen ImageCLEF-Sammlungen durchgeführt. Unsere Experimente in ImageCLEFmed zeigen, dass das hier vorgeschlagene konzeptionelle Modell gute Ergebnisse beim Abruf medizinischer Informationen liefert. Experimente zeigen außerdem, dass die Kombination von Konzeptextraktionsmethoden durch Fusion das Standardsprachmodell um bis zu 17% MAP in den medizinischen ImageCLEF-Sammlungen verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15181-1_20 9d94bb90ffad031e4516d2b01e47790a;de;;;7.2.;;;Abrufen beliebter Lieder basierend auf der Gesangsübereinstimmung In diesem Beitrag wird ein Ansatz zum Abrufen von Volksliedern durch Singen-Matching vorgestellt. Gesangsgesang ist der dominierende Teil in populären Liedern, nachdem Gesang aus Mono- oder Stereoaufnahmen von populären Liedern durch unabhängige Komponentenanalyse extrahiert wurde, wird die MFCC-Funktion darauf berechnet, die Selbstähnlichkeitssequenz wird auf dieser Funktion konstruiert, ein rekurrentes neuronales Netzwerk wird verwendet, um sich an das Selbst zu erinnern -Ähnlichkeitsfolge, Selbstähnlichkeitsfolge wird auch auf Eingangsgesang aufgebaut, die Gewichte des rekurrenten neuronalen Netzes werden als Indizes in der Musikdatenbank verwendet, die Abrufliste wird durch den Korrelationsgrad der Selbstähnlichkeitsfolge erzeugt. Vorläufige Versuchsergebnisse zeigen die Wirksamkeit unseres Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36228-2_79 89c217b42867b2d47d3e4f216ba8d00f;de;;;7.2.;;;Schneller inhaltsbasierter Bildabruf basierend auf durchschnittlichen K-Nearest-Neighbor-Suchschemata Die vier wichtigsten Probleme beim inhaltsbasierten Bildabruf (CBIR) sind, wie man Merkmale aus einem Bild extrahiert, wie man diese Merkmale darstellt, wie man die Bilder ähnlich dem Abfragebild basierend auf diesen Merkmalen so schnell wie möglich durchsucht und wie um Relevanz-Feedback durchzuführen. Diese Arbeit befasst sich hauptsächlich mit dem dritten Problem. Die traditionellen Merkmale wie Farbe, Form und Textur werden offline aus allen Bildern in der Datenbank extrahiert, um eine Merkmalsdatenbank zu erstellen, wobei jedes Element ein Merkmalsvektor ist. Die Normierungsmethode „lineare Skalierung auf Einheitsvarianz“ wird verwendet, um jede Dimension des Merkmalsvektors zu entzerren. Dann wird ein schnelles Suchverfahren namens Equal-Average K Nearest Neighbour Search (EKNNS) verwendet, um die ersten K nächsten Nachbarn des Abfragemerkmalsvektors basierend auf dem quadrierten Euklidischen Verzerrungsmaß so schnell wie möglich zu finden. Experimentelle Ergebnisse zeigen, dass die vorgeschlagene Abrufmethode den Abrufprozess stark beschleunigen kann, insbesondere für große Datenbanken und hohe Merkmalsvektordimensionen.;-;-;-;https://link.springer.com/chapter/10.1007/11922162_20 f78b0014b2880418e903046898e542ca;de;;;7.2.;;;Fallbasierte Frakturbildabfrage Der fallbasierte Abruf von Frakturbildern kann Chirurgen bei der Entscheidung über neue Fälle unterstützen, indem visuell ähnliche frühere Fälle bereitgestellt werden. Dieses Instrument kann die Fixation und das Management von Frakturen durch den Vergleich der Langzeitergebnisse in ähnlichen Fällen leiten.;-;-;-;https://link.springer.com/article/10.1007/s11548-011-0643-8 5567d94832c077d8079b8f030ff3e327;de;;;7.2.;;;Eine Umsetzung einer Reflexion persönlicher Informationen in einer verteilten Brainstorming-Umgebung Ein Meeting mit der Groupware Same Time / Different Place befreit uns von den Ortsbeschränkungen. Es kann uns jedoch nicht von den Zeitbeschränkungen befreien, da wir in derselben Sitzung vor mit Netzwerken verbundenen Terminals bleiben müssen. Auf der anderen Seite kann die Groupware Different Time / Different Place, die die Teilnehmer von den Zeitbeschränkungen befreit, nicht für Besprechungen zur Erstellung, Abstimmung und Entscheidung verwendet werden, da sie gegenseitige Interaktion benötigen. Der Hauptzweck dieser Forschung besteht darin, ein experimentelles System zu konstruieren, das beim Brainstorming automatisch „aussprechen“ kann, dh ein typisches Treffen für die Schöpfung. Die Äußerungen werden aus persönlichen Informationen erzeugt, die im Voraus eingegeben oder ausgewählt wurden. Dieses System befreit die Teilnehmer von den Zeitbeschränkungen im Meeting für die Erstellung. Laut den Ergebnissen der Evaluationen enthielten die Äußerungen des Systems einige nutzlose, aber sie stimulierten die Ideenfindung der Teilnehmer und trugen in gewissem Maße bei.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-63343-X_46 28acb3e951bd00d230fa9131f92b1fb1;de;;;7.2.;;;Eine simulierte Benutzerstudie zum Durchsuchen von Bildern mit High-Level-Klassifizierung In diesem Beitrag präsentieren wir eine Studie zum adaptiven Bild-Browsing, basierend auf einer High-Level-Klassifizierung. Die zugrunde liegende Hypothese ist, dass die Leistung eines Browsing-Modells durch die Integration hochrangiger semantischer Konzepte verbessert werden kann. Wir stellen ein Multi-Label-Klassifizierungsmodell vor, das entwickelt wurde, um ein binäres Klassifizierungsproblem bei der Bildklassifizierung zu lindern. Die Wirksamkeit dieses Ansatzes wird unter Verwendung einer simulierten Benutzerbewertungsmethodik bewertet. Die Ergebnisse zeigen, dass die Klassifikation Benutzern hilft, die Suchdomäne einzugrenzen und relevantere Ergebnisse im Hinblick auf weniger Suchaufwand zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10543-2_3 d8a319bcdbef7da648e44a8b85310b75;de;;;7.1.;;;Exfoliating Decision Support System: eine Synthese von Themen mithilfe von Text Mining Entscheidungsunterstützungssysteme (DSS) haben sich in den letzten 50 Jahren stark weiterentwickelt. Auch der bestehende Strauß von DSS-Beiträgen mit den vorherrschenden Schwerpunkten und zukünftigen Ausrichtungen des Fachgebiets weist auf mehrere Mängel hin. Die bestehenden Konzeptualisierungen von DSS bieten eine fragmentierte Darstellung des Feldes mit einer Abgrenzung von Wissenschaft und Industrie. Die Literatur präsentierte auch eine disjunkte Darstellung der Grundsätze von DSS. Wir adressieren diese Bedenken in dieser Forschung, indem wir die konzeptionellen Elemente von DSS zu einem kohärenten Verständnis des Feldes synthetisieren. Wir greifen auf ein automatisiertes Inhaltsanalyseverfahren mittels Text Mining in einer Open-Source-Plattform zurück. Lexikalische Analyse, Themenmodellierung und andere Data-Mining-Techniken wurden verwendet, um die latenten Elemente von DSS aufzudecken. Unsere Ergebnisse weisen auf die drei zugrunde liegenden Themen von DSS als „Plan“, „Design“ und „Use“ hin. Darüber hinaus identifizierten wir die Elemente von zentraler Bedeutung von DSS, die uns bei der Neukonzeptionierung des Verständnisses von DSS halfen. Unsere Validierung des Begriffs DSS aus der Sicht der Praktiker ging auch auf die Frage der Kluft zwischen Wissenschaft und Industrie in Bezug auf die Wahrnehmung von DSS ein. Weiterhin schlagen wir eine Erweiterung des „Plan-Design-Use“-Modells durch eine Feedback-Schleife vor, auf deren Basis wir die zukünftigen Gestaltungsmöglichkeiten in DSS im Hinblick auf die Wiederverwendbarkeit der vorhandenen DSS-Beiträge darstellen.;-;-;-;https://link.springer.com/article/10.1007/s10257-020-00490-4 7aa7f92ac33af336cdc48ea5bf6f79f9;de;;;7.2.;;;Boosting-basierte sequentielle Output-Vorhersage Das Problem der Sequenzvorhersage wurde in der Literatur traditionell mit Sequenzmarkierung identifiziert. Dieser Ansatz entspricht typischerweise der Klassifizierung einer Markierungssequenz, die der beobachteten Eingabesequenz zugeordnet ist. Es kann jedoch eine andere Interpretation der Sequenzvorhersage in Betracht gezogen werden, bei der eine Labelsequenz (sequentielle Ausgabe) nur basierend auf dem unabhängigen Satz von Attributen klassifiziert wird. Das Papier präsentiert einen neuen, auf Boosting basierenden Ensemble-Ansatz, der eine solche sequentielle Ausgabevorhersage durchführt. Die sequentielle Natur der klassifizierten Struktur spiegelt sich in der angewandten Kostenfunktion wider. Die in der Veröffentlichung berichteten experimentellen Ergebnisse zeigten eine hohe Validität und Wettbewerbsfähigkeit des vorgeschlagenen Ansatzes.;-;-;-;https://link.springer.com/article/10.1007/s00354-010-0304-4 4bbfa59d07b08d3679d8d0fd9ea41806;de;;;7.1.;;;Das Paradox der Informationstechnologie-Produktivität erneut besucht: Eine theoretische und empirische Untersuchung im Fertigungssektor Manufacturing Der Mangel an empirischer Unterstützung für die positiven wirtschaftlichen Auswirkungen der Informationstechnologie (IT) wurde als IT-Produktivitätsparadoxon bezeichnet. Auch wenn häufig Probleme der Output-Messung für das Paradox verantwortlich gemacht wurden, vermuten wir, dass auch Modellierungsgrenzen in produktionsökonomisch basierten Studien und Input-Messungen zum Mangel an systematischer Evidenz über die Auswirkungen von IT beigetragen haben könnten. Wir vertreten den Standpunkt, dass die Outputmessung im verarbeitenden Gewerbe etwas unproblematischer ist als im Dienstleistungssektor und von vornherein eine deutliche Produktivitätssteigerung durch IT-Investitionen in die Fertigung und das Produktionsmanagement begründet ist. Wir greifen das Paradox der IT-Produktivität erneut auf, um einige potenzielle Einschränkungen früherer Forschungen hervorzuheben und empirische Unterstützung für diese Vermutungen zu erhalten. Wir wenden einen theoretischen Rahmen mit expliziter Modellierung der Eingabemöglichkeiten einer strategischen Geschäftseinheit (SGE)1 auf einen sekundären Datensatz im verarbeitenden Gewerbe an. Eine viel zitierte Studie von Loveman (1994) mit demselben Datensatz zeigte, dass der marginale Beitrag der IT zur Produktivität negativ war. Unsere Analyse zeigt jedoch einen signifikanten positiven Einfluss der IT-Investitionen auf die Leistung der SGE. Wir zeigen, dass die negativen Ergebnisse von Loveman auf den für das IT-Kapital verwendeten Deflator zurückzuführen sind. Darüber hinaus führen Modellierungsprobleme wie die Wahl der Inputs eines Unternehmens wie IT, Nicht-IT und Arbeitskräfte zu großen Unterschieden in den Schätzungen der IT-Produktivität. In der Literatur wurde die Frage aufgeworfen, ob Unternehmen im letzten Jahrzehnt tatsächlich einen wirtschaftlichen Nutzen aus IT-Investitionen erzielt haben, und unsere Ergebnisse belegen erhebliche Produktivitätsgewinne großer erfolgreicher Unternehmen im verarbeitenden Gewerbe im gleichen Zeitraum.;-;-;-;https://link.springer.com/article/10.1023/A%3A1007967718214 59a3216f4786b5cd7b2ba326655fa6bc;de;;;7.1.;;;Adaptive Dokumentenanalyse mit Planung Autonome Web-Informationssysteme müssen häufig Anfragen beantworten, indem sie Informationen extrahieren, die in nicht eingeschränkter natürlicher Sprache geschrieben sind. Diese Aufgabe wird als Planungsproblem modelliert. Elementare Dokumentverarbeitungsmodule sind in abfrageabhängigen Informationsverarbeitungsgraphen organisiert, die die Werkzeuge zum Planen und Steuern der Ausführung sind und eine semantische Fusion heterogener Informationsblöcke bereitstellen.;-;-;-;https://link.springer.com/chapter/10.1007/11559221_75 d6c6860c3ab766898a81c88f4f9f361b;de;;;7.2.;;;Anwendung des neuronalen BP-Netzwerks bei der Bewertung des Code-Grades der Drogenaufsicht Um die Richtlinie zur Stärkung der Überwachung und des Managements der Arzneimittelsicherheit umzusetzen, muss der Grad des Arzneimittelüberwachungscodes nach nationalen Vorschriften über Grad C liegen [2]. In diesem Artikel wurden hauptsächlich optische Parameter eines Barcodes ausgewählt, um jeden Index des Arzneimittelüberwachungscodes objektiv zu bewerten, das künstliche neuronale Netzwerk von BP in der neuronalen Netzwerk-Toolbox von MATLAB verwendet und die Daten verwendet, die von der Barcode-Reflexionskurve gemessen wurden, um das neuronale BP-Netzwerk zu erstellen Modell von BP. Das Ergebnis zeigt, dass das BP-Modell des künstlichen neuronalen Netzes Code jeden Index und jeden Grad bewerten kann. Das Ergebnis zeigt auch, dass das künstliche neuronale Netz von BP in der MATLAB-Toolbox für neuronale Netze gleichzeitig auf die Bewertung des Arzneimittelüberwachungscodes angewendet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24282-3_72 fb1be258a4356e7a6ac4d3b8a16e695a;de;;;7.2.;;;Optimaler Hochleistungs-Parallel-Textabruf über Fat-Trees Wir präsentieren hier ein hochperformantes paralleles Freitext-Retrieval-Verfahren für multiple Textabfragen mit dem Vektorraummodell. Unser Verfahren verwendet das universelle Routing-Netzwerk im Fat-Tree-Bereich zum Verbinden der Prozessoren einer parallelen Maschine, es könnte jedoch (in seiner allgemeinen Form) auch auf jedes andere Netzwerk von Prozessoren oder Workstations mit hoher Bandbreite effizient angewendet werden. Wir liefern eine theoretische Analyse unserer Technik, die zeigt, dass sie zu effizient und deutlich überlegen ist (sowohl hinsichtlich der amortisierten Bearbeitungszeiten als auch der durchschnittlichen Wartezeiten pro Anfrage) parallelen Textretrieval-Verfahren für einzelne Anfragen (z. B. basierend auf Binärbäumen). Darüber hinaus beweisen wir, dass unsere Methode hinsichtlich der Ausführung aller implizierten Kommunikationsaufgaben auf idealen Fettbäumen optimal ist. Die Leistungsfähigkeit und Überlegenheit unserer Technik demonstrieren wir auch experimentell durch geeignete Einbettungen idealer Fettbäume auf realistischen zweidimensionalen gitterorientierten Parallelmaschinen (z . Beachten Sie, dass der Fat-Tree jedes andere Netzwerk derselben Hardware mit nur einem polylogarithmischen Effizienzverlust simulieren kann.;-;-;-;https://link.springer.com/article/10.1007/s002240000133 602ac6947846248af357c20f242665ba;de;;;7.1.;;;Computer und Krankenhausmanagement Die bedeutendste Managemententwicklung des 20. Jahrhunderts – der Computer – wird von der Krankenhausleitung in der Stunde der größten Not nicht effektiv genutzt. Wieso den? Was kann getan werden?;-;-;-;https://link.springer.com/article/10.1007/BF02285286 f8c7bad3b4b1b0cbc3de1fd7be0a9c93;de;;;7.1.;;;Schulungen zum Thema Digitalisierung des Krisenmanagements Die fortschreitende digitale Transformation in der Regierung hat innovative Veränderungen bei betrieblichen Prozessen und Dienstleistungen ermöglicht. Während jedoch E-Services und soziale Medien weit verbreitet sind, deuten frühere Studien darauf hin, dass dieser Wandel in anderen Bereichen, wie der Krisen- oder Katastrophenvorsorge, noch abzuwarten ist. Jüngste Ereignisse wie die Waldbrände 2018 in mehreren Teilen Europas sowie empirische Forschungen unterstreichen die Notwendigkeit einer stärkeren (systematischen) Ausbildung der Krisenmanagementteams der lokalen Regierungen. Herkömmliche Trainingsmethoden sind zeit- und raumabhängig und erfordern eine langfristige Planung, was eine Erhöhung des Trainingsumfangs erschwert. In dieser interdisziplinären Studie berichten wir über die Ergebnisse des schwedisch-norwegischen CriseIT-Projekts, das darauf abzielte, Informationssysteme (IS) für das Krisenmanagementtraining zu entwickeln. Zweck des Artikels ist es, Informationssysteme zu beschreiben, die das Krisenmanagementtraining lokaler Regierungen unterstützen sollen, und zu diskutieren, wie diese Artefakte die Krisenmanagementtrainingspraktiken verbessern könnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-27397-2_9 b7a1257b5d2a2129551ff9f47deaeff3;de;;;7.2.;;;Überarbeitung des Relevanz-Feedback-Algorithmus von Rocchio für probabilistische Modelle Die Relevanz-Feedback-Methode von Rocchio verbessert die Retrieval-Performance des klassischen Vektorraummodells. Ihre Anwendung auf die probabilistischen Modelle ist jedoch nicht ausreichend erforscht. In diesem Papier betrachten wir Rocchios Algorithmus noch einmal, indem wir vorschlagen, diese klassische Feedback-Methode in das probabilistische Rahmenwerk der Divergenz vom Zufall (DFR) für Pseudo-Relevanz-Feedback (PRF) zu integrieren. Eine solche Integration wird in diesem Papier mit RocDFR bezeichnet. Darüber hinaus verbessern wir die Robustheit von RocDFR weiter, indem wir eine qualitätsorientierte Feedback-Methode namens QRocDFR vorschlagen. Umfangreiche Experimente mit Standard-TREC-Testsammlungen zeigen, dass unsere vorgeschlagenen RocDFR- und QRocDFR-Methoden das Relevanzmodell (RM3), das ein repräsentatives Feedback-Modell im Sprachmodellierungs-Framework ist, deutlich übertreffen. Darüber hinaus verbessert die QRocDFR-Methode die Robustheit der Abrufleistung von RocDFR in Bezug auf die Größe des Feedback-Dokumentensatzes erheblich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17187-1_14 1e36c3fa5ef40ba95d4141e0c4610151;de;;;7.2.;;;Verteilt, energieeffizient, fehlertolerant, gewichtetes Clustering In verteilten Sensornetzwerken wird eine große Anzahl kleiner Sensoren eingesetzt, um ein Netzwerk zu bilden, das zusammenarbeitet, um ein Sensornetzwerk aufzubauen. Die Hauptaufgabe von Sensoren besteht darin, den Zugriff auf Umweltinformationen jederzeit und überall durch das Sammeln, Verarbeiten, Analysieren und Übertragen von Daten vorzubereiten. Skalierbarkeit, Lastausgleich und Erhöhung der Netzwerklebensdauer sind wesentliche Parameter für drahtlose Sensornetzwerke [1]. Clustering ist eine nützliche Technik, um diese Probleme anzugehen. In diesem Papier schlagen wir einen verteilten, energieeffizienten, fehlertoleranten und gewichteten Clustering-Algorithmus vor, der die Netzwerklebensdauer verlängert, indem er einige Parameter wie Energie, Zentralität, Dichte sowie Entfernungen zwischen Knoten und Basisstation verwendet. Wir betrachten einen Backup-Knoten für jeden Cluster, der ersetzt wird, während der Cluster-Kopf seine Energie verliert, sowie die Cluster-Head-Liste [2] für jeden Knoten. Diese Mechanismen bewirken eine Erhöhung der Netzwerklebensdauer und führen dazu, dass das Netzwerk fehlertolerant wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25462-8_51 0633b2e8168f4cbe1156994dacfb85f2;de;;;7.2.;;;Cover Koeffizientenbasierte Zusammenfassung mehrerer Dokumente In diesem Beitrag stellen wir ein generisches, sprachunabhängiges Multi-Dokument-Zusammenfassungssystem vor, das Extrakte unter Verwendung des Cover-Koeffizienten-Konzepts bildet. Cover Coefficient-based Summarizer (CCS) verwendet Ähnlichkeit zwischen Sätzen, um repräsentative Sätze zu bestimmen. Experimente zeigen, dass CCS ein effizienter Algorithmus ist, der online qualitativ hochwertige Zusammenfassungen erstellen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00958-7_64 f5ba8870449673cb95db811eef3ae20d;de;;;7.2.;;;Evaluierung von Modellen zur Analyse der ungeführten Suche in unstrukturierten Netzen Die Bewertung der Effizienz der ungeführten Suche basierend auf Random Walk in unstrukturierten Peer-to-Peer-Netzwerken ist wichtig, da sie Richtlinien für die korrekte Einstellung der Parameter der Suche liefert. Die meisten existierenden Arbeiten basieren auf Simulationen. Wir evaluieren zwei analytische Modelle – das algebraische Modell und das kombinatorische Modell – für verschiedene Sucheffizienzmetriken gegen Simulationsergebnisse. Wir verwenden die Random-Graph-Topologie und gehen von ungeführten Suchen aus. Die Ergebnisse zeigen, dass die beiden analytischen Modelle genau sind und eng zusammenpassen. Wir untersuchen den Einfluss des durchschnittlichen Knotengrades, der Hop-Anzahl, der Anzahl der Walker und der Replikationsverhältnisse auf die Knotenabdeckung, den Objektrückruf und die Nachrichteneffizienz sowie auf die Genauigkeit der Modelle.;-;-;-;https://link.springer.com/chapter/10.1007/11807964_17 2d267b36feac0cb8830de24d5f34a4bd;de;;;7.2.;;;Über die Glättung der durchschnittlichen Präzision Auf der Grundlage einer theoretischen Analyse von Fragen rund um Populationen und Stichproben sowohl für Themen als auch für Dokumente und Parameter, mit denen wir die Wirksamkeit verschiedener Systeme charakterisieren möchten, schlagen wir eine Modifikation der traditionellen Metrik der durchschnittlichen Präzision vor. Diese Modifikation beinhaltet sowohl eine Transformation als auch (bei der Schätzung des Parameters) eine Glättung. Es wird gezeigt, dass die modifizierte Version bestimmte Verteilungsvorteile in Bezug auf einen beträchtlichen Datensatz hat. Insbesondere ist die Verteilung der Werte der modifizierten Metrik über Themen für ein gegebenes System/Lauf ungefähr normal.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28997-2_14 e1ab197c561c18c22ca566b98345b01a;de;;;7.2.;;;Meiji University bei ImageCLEF2008 Photo Retrieval Task: Evaluierung von Methoden zur Bildsuche unter Einbeziehung verschiedener Medien Dieses Papier beschreibt die Teilnahme des Human Interface Laboratory der Meiji University an der ImageCLEF2008 Fotoabrufaufgabe. Wir haben acht Abrufläufe mit zwei Hauptansätzen eingereicht. Der erste Ansatz kombinierte Text-Based Image Retrieval (TBIR) und Context-Based Image Retrieval (CBIR). Beim zweiten Ansatz wurde die Abfrageerweiterung mit konzeptionellen Fuzzy Sets (CFS) angewendet. Ein CFS ist eine Methode, die kontextabhängig den Bedeutungsausdruck verwendet, den eine gewöhnliche Fuzzy-Menge nicht erkennt. Für die Abfrageerweiterung mit CFS ist ein konzeptionelles Wörterbuch erforderlich, das durch Clustering erstellt wird. Wir schlagen hier die Verwendung der Abfrageerweiterung mit CFS und anderen Techniken für den Bildabruf vor, der verschiedene Medien integriert, und wir überprüfen die Nützlichkeit des Systems durch die Erläuterung unserer experimentellen Ergebnisse. Diesmal,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04447-2_67 4a205a942731507213aba85ab07e0a83;de;;;7.2.;;;Erforschung des Clusterings für eine arabische Zusammenfassung mit mehreren Dokumenten In diesem Papier untersuchen wir das Clustering für die arabische Zusammenfassung mehrerer Dokumente. Für unsere Auswertung verwenden wir eine arabische Version des DUC-2002-Datensatzes, den wir zuvor mit Google Translate generiert haben. Wir untersuchen, wie Clustering (auf Satzebene) auf die Zusammenfassung mehrerer Dokumente sowie zur Eliminierung von Redundanzen innerhalb dieses Prozesses angewendet werden kann. Wir verwenden verschiedene Parametereinstellungen, einschließlich der Clustergröße und des Auswahlmodells, das im extraktiven Zusammenfassungsprozess angewendet wird. Die automatisch generierten Zusammenfassungen werden anhand der ROUGE-Metrik sowie Präzision und Wiedererkennungswert ausgewertet. Die von uns erzielten Ergebnisse werden mit den Top-5-Systemen der DUC-2002 Multi-Document-Zusammenfassungsaufgabe verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25631-8_50 9319a0f7e4acfd6d9f3d44038c1ee864;de;;;7.1.;;;Planung der Aktivierung von WLAN-Zugangspunkten in Havanna: Ein Vorschlag und vorläufige Ergebnisse Die Verfügbarkeit von Wi-Fi-Verbindungspunkten oder Hotspots an Orten wie Parks, Verkehrsstationen, Bibliotheken usw. ist einer der Schlüsselaspekte, um Menschen die Nutzung von Internetressourcen zu ermöglichen (zum Lernen, Arbeiten oder Treffen). Noch wichtiger ist dies in Zentralamerika und in den karibischen Ländern, wo weder kurz- noch mittelfristig der Aufbau riesiger kostenintensiver Infrastrukturen (wie Glasfaser) für den Internetzugang zu Hause vorgesehen ist. Und das ist in Havanna, Kuba, eindeutig der Fall.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-50143-3_54 057144b58724fe4f3d0d2e8ad8c7a3c5;de;;;7.2.;;;Ein Vergleich zwischen menschlicher, automatischer und kollaborativer Musikgenreklassifizierung und nutzerzentrierter Bewertung von Genreklassifizierungssystemen In dieser Arbeit werden zwei Sätze von Bewertungsexperimenten durchgeführt. Zuerst vergleichen wir über ein Hörexperiment hochmoderne automatische Musikgenre-Klassifizierungsalgorithmen mit der menschlichen Leistung auf demselben Datensatz. Dies wird zeigen, dass die Verbesserungen inhaltsbasierter Systeme in den letzten Jahren die Lücke zwischen automatischer und menschlicher Klassifikationsleistung verringert haben, diese Lücke jedoch noch nicht schließen konnten. Als wichtige Erweiterung der bisherigen Arbeiten in diesem Zusammenhang werden wir auch die automatische und menschliche Klassifikationsleistung mit einem kollaborativen Ansatz vergleichen. Zweitens schlagen wir zwei Bewertungsmetriken vor, genannt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27169-4_9 493ab4c3cfc633f5c12d5891d087bb1e;de;;;7.2.;;;Stream-basierte Empfehlung für Unternehmens-Social-Media-Streams Social-Media-Streams können verwendet werden, um heterogene Informationsquellen in einer einzigen Darstellung zu aggregieren. In Enterprise Social Media Streams interagieren Mitarbeiter mit dem Stream und produzieren mit anderen Mitarbeitern eine ständig wachsende Menge an neuen Informationen. Um eine Informationsüberflutung zu vermeiden, muss eine Empfehlungsmaschine dem Benutzer helfen, wichtige Informationen zu filtern. Dieses Papier verwendet a;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38366-3_15 414b192d032cd467046b2934632efbd3;de;;;7.2.;;;Einige invariante Eigenschaften geordneter Informationssysteme unter Homomorphismus In dieser Arbeit werden einige Eigenschaften geordneter Informationssysteme unter Homomorphismus untersucht. Zunächst wird das Konzept einer konsistenten Funktion in Bezug auf Dominanzbeziehungen eingeführt und seine Eigenschaften untersucht. Anschließend werden einige invariante Haupteigenschaften von Dominanzrelationen unter Relationsabbildungen untersucht. Es ist bewiesen, dass Attributreduktionen im ursprünglichen geordneten Informationssystem und seinem Bildsystem unter der Bedingung des Homomorphismus äquivalent sind. Anhand der Ergebnisse können wir das kleinere Bildsystem erhalten, das die gleichen Reduktionen wie ein gegebenes massives geordnetes Informationssystem aufweist.;-;-;-;https://link.springer.com/article/10.1007/s11432-010-4044-3 5ad1a2e898034dfc09d12929d353d928;de;;;7.2.;;;Personennamenerkennung mit dem hybriden Ansatz Die arabische Personennamenerkennung wurde hauptsächlich mit einem von zwei Ansätzen angegangen: einem regelbasierten oder einem auf maschinellem Lernen (ML) basierenden Ansatz mit seinen Stärken und Schwächen. In diesem Beitrag wird das Problem der arabischen Personennamenerkennung durch die Integration der beiden Ansätze in einem Pipeline-Prozess angegangen, um ein hybrides System zu schaffen, mit dem Ziel, die Gesamtleistung der Personennamenerkennungsaufgaben zu verbessern. Umfangreiche Experimente werden mit drei verschiedenen ML-Klassifikatoren durchgeführt, um die Gesamtleistung des Hybridsystems zu bewerten. Die empirischen Ergebnisse zeigen, dass der hybride Ansatz sowohl den regelbasierten als auch den ML-basierten Ansatz übertrifft. Darüber hinaus übertrifft unser System den Stand der Technik der arabischen Personennamenerkennung in Bezug auf die Genauigkeit, wenn es auf den ANERcorp-Datensatz angewendet wird, mit einer Genauigkeit von 0,949, einem Rückruf von 0,942 und einem f-Maß 0,945.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38824-8_20 842b0b1f9ae23362e8075062f132c62d;de;;;7.1.;;;Das Design und die Struktur von Informationssystemen für die klinische Forschung Datenverwaltungssoftware, die zur Unterstützung klinischer Datenbanken entwickelt wurde, bietet dem Benutzer typischerweise die Möglichkeit, Informationen nach einfachen, vom Benutzer festgelegten Kriterien einzugeben und abzurufen. In der medizinischen Forschungsumgebung können solche Datenbankverwaltungssysteme selbstbegrenzend sein, es sei denn, der Benutzer hat das Datenbankschema sorgfältig strukturiert, damit es mit nachfolgenden statistischen Verfahren, die für die Analyse verwendet werden, konsistent ist. Für statistische Zwecke muss das Datenbankschema so konfiguriert sein, dass die abhängigen und unabhängigen Variablen strukturell angeordnet sind, um die Verwendung statistischer Anwendungsprogramme zu erleichtern. Darüber hinaus erfordert die Analyse von zeitorientierten, prospektiven Studien häufig eine „relationale“ Datenbasis. Dies kann im Widerspruch zu Datenerhebungsverfahren stehen, die zu „hierarchischen“ Schemata führen. Anhand von Beispielen aus einer multizentrischen klinischen Diabetesstudie und einem Beobachtungsdatenbankansatz zur Krankheitsüberwachung in der Rheumatologie wird die Methodik zur Sicherstellung der Kompatibilität zwischen dem Datenbankschema und nachfolgenden statistischen Analysen vorgestellt.;-;-;-;https://link.springer.com/article/10.1007/BF00996196 e413e8816dda4c008c06e7704542e90a;de;;;7.2.;;;Effizienz- und Skalierbarkeitsprobleme bei Metrikzugriffsmethoden Das metrische Raumparadigma hat in letzter Zeit als wichtiges Ähnlichkeitsmodell im Bereich der Bioinformatik Aufmerksamkeit erregt. Es wurden zahlreiche Techniken vorgeschlagen, um Ähnlichkeitsabfragen (Bereich oder nächster Nachbar) von Datensammlungen aus metrischen Domänen zu lösen. Obwohl wichtige Vertreter skizziert werden, versucht dieses Kapitel nicht, bestehende umfassende Erhebungen zu ersetzen. Das Hauptziel besteht darin, durch Experimente zu erklären und zu beweisen, dass die Ähnlichkeitssuche typischerweise ein teurer Prozess ist, der sich nicht leicht auf sehr große Datenmengen skalieren lässt, daher müssen verteilte Architekturen verwendet werden, die Parallelität ausnutzen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75767-2_12 b53f30abce6e45920e51011e9cc86504;de;;;7.2.;;;Verbesserung des kontextbasierten Einflussdiagrammmodells für den strukturierten Dokumentenabruf: Entfernen topologischer Einschränkungen und Hinzufügen neuer Auswertungsmethoden In diesem Beitrag stellen wir die theoretischen Entwicklungen vor, die notwendig sind, um das bestehende kontextbasierte Einflussdiagrammmodell für strukturierte Dokumente (CID-Modell) zu erweitern, um dessen Abrufleistung und Aussagekraft zu verbessern. Erstens machen wir es flexibler und allgemeiner, indem wir die ursprünglichen Beschränkungen für die Art der strukturierten Dokumente, die CID darstellt, aufheben. Diese Erweiterung erfordert den Entwurf eines neuen Algorithmus, um die A-posteriori-Wahrscheinlichkeiten der Relevanz zu berechnen. Ein weiterer Beitrag bezieht sich auf die Auswertung des Einflussdiagramms. Die Berechnung der erwarteten Nutzen im ursprünglichen CID-Modell wurde durch Anwendung eines Unabhängigkeitskriteriums approximiert. Wir präsentieren eine weitere Näherung, die keine Unabhängigkeit voraussetzt, sowie eine genaue Bewertungsmethode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-31865-1_16 d5594781d458f388573bdbd66f6f16c3;de;;;7.2.;;;Unähnlichkeitsbasierte Abfrageauswahl für eine effiziente präferenzbasierte IR-Bewertung Die Evaluierung von Information Retrieval (IR)-Systemen hat in letzter Zeit die Verwendung von Präferenzurteilen gegenüber zwei Listen von Suchergebnissen untersucht, die den Richtern nebeneinander präsentiert werden. Es hat sich gezeigt, dass solche Präferenzurteile einen reichhaltigeren Satz von Relevanzkriterien erfassen als herkömmliche Methoden zum Sammeln von Relevanzlabels pro einzelnem Dokument. Bevorzugungsurteile gegenüber Listen sind jedoch teuer zu erhalten und weniger wiederverwendbar, da jede Änderung auf einer Seite ein neues Urteil erfordert. In diesem Beitrag schlagen wir einen Weg vor, um die Unähnlichkeit zwischen zwei Seiten in nebeneinander liegenden Evaluierungsexperimenten zu messen und zeigen, wie dieses Maß verwendet werden kann, um Anfragen zu priorisieren, die in einer Offline-Umgebung beurteilt werden sollen. Unser vorgeschlagenes Maß, das als Weighted Ranking Difference (WRD) bezeichnet wird, berücksichtigt sowohl die Rangunterschiede als auch die Ähnlichkeit der Dokumente auf beiden Seiten, wobei ein Dokument beispielsweise eine URL oder ein Abfragevorschlag sein kann. Wir evaluieren unser Maß empirisch anhand eines umfangreichen, realen Datensatzes von Crowdsourcing-Präferenzurteilen gegenüber Ranglisten von Vorschlägen zur automatischen Vervollständigung. Wir zeigen, dass der WRD-Score ein Hinweis auf die Wahrscheinlichkeit von Gleichstandsurteilen ist und im Durchschnitt 25 % der Bewertungsressourcen einsparen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06028-6_15 590289258d2443b8e9d4911f4033b94c;de;;;7.2.;;;Eine log-logistische modellbasierte Interpretation der TF-Normalisierung von BM25 Die Wirksamkeit der BM25-Wiedergewinnungsfunktion beruht hauptsächlich auf ihrer sublinearen Termfrequenz (TF)-Normierungskomponente, die durch einen Parameter gesteuert wird;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28997-2_21 96b5d9c8bcd989157fe00609c6243a64;de;;;7.2.;;;Intuitives Verständnis domänenspezifischer Modellierungssprachen: Vorschlag und Anwendung einer Evaluierungstechnik Für die korrekte Verwendung einer Modellierungssprache und das Verständnis eines konzeptionellen Modells ist die grafische Darstellung, d. h. die Notation, von größter Bedeutung. Eine grafische Notation, insbesondere für domänenspezifische Sprachen, sollte sich an den Kenntnissen, Überzeugungen und Erwartungen der beabsichtigten Modellbenutzer orientieren. Konkreter sollte die Notation einer Modellierungssprache die rechnerische Entlastung für den menschlichen Benutzer unterstützen, indem die Wahrnehmungsverarbeitung (d. h. das Sehen) erhöht und die kognitive Verarbeitung (d. h. das Denken und Verstehen) reduziert wird. Folglich sollten Methodeningenieure intuitiv verständliche Notationen entwerfen. Allerdings fehlt es an Unterstützung bei der Bewertung der Intuitivität einer Notation. Dieser Beitrag schlägt eine empirische Evaluationstechnik vor, um diese Forschungslücke zu schließen. Die Technik umfasst drei unabhängige Experimente: Begriffsassoziation, Notationsassoziation und Fallstudie. Die Nützlichkeit der Technik wird durch eine exemplarische Evaluierung einer Business Continuity Management-Modellierungssprache gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-33223-5_26 eef985e8108588a0f47c5c95629efcf3;de;;;7.2.;;;Robuste audiovisuelle biometrische Personenauthentifizierung mit Liveness-Verifizierung In diesem Papier schlagen wir eine Liveness-Verifizierung vor, um die Robustheit von audiovisuellen biometrischen Personenauthentifizierungssystemen zu verbessern. Die Lebendigkeitsprüfung stellt sicher, dass biometrische Hinweise von einer lebenden Person erfasst werden, die zum Zeitpunkt der Erfassung tatsächlich anwesend ist, um die Identität zu authentifizieren. Die vorgeschlagene Technik zur Überprüfung der Lebendigkeit basierend auf modalen Assoziationsmodellen beinhaltet eine hybride Fusion von akustischen und visuellen Sprachkorrelationsmerkmalen, die den Grad der Synchronität zwischen den Lippen und der aus Videosequenzen von sprechenden Gesichtern extrahierten Stimme messen. Die Leistungsbewertung in Bezug auf DET (Detector Error Tradeoff)-Kurven und EERs (Equal Error Rates) in öffentlich verfügbaren audiovisuellen Sprachdatenbanken zeigt eine signifikante Verbesserung der Robustheit des Systems gegenüber verschiedenen Arten von simulierten Replay-Angriffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11756-5_3 b6b43d722c6fcf87e78aa9386310d617;de;;;7.2.;;;Wissensbasierte multimodale Ergebnisfusion für verteilte und heterogene Multimediaumgebungen: Konzept und Ideen Distributed Multimedia Retrieval (DMR) ist ein zentrales Thema in den heutigen Informationssystemen. Ein Problem bei DMR ist die Zusammenführung von Ergebnissen aus mehreren Standorten, die erforderlich ist, um die Ergebnisse in einer integrierten, konsolidierten und ausgerichteten Form darzustellen. Dieser Beitrag skizziert ein verteiltes Multimedia-Retrieval-Szenario, in dem Anforderungen, eine Konzeptualisierung und eine Implementierung eines wissensbasierten Datenfusionsansatzes vorgeschlagen werden. Der Ansatz soll zusammen mit dem MPEG Query Format verwendet werden und wird durch Benchmarks und Klassifikationen unterstützt, um Erkenntnisse für die Ergebnisfusion abzuleiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27169-4_5 a9ecadc474dbcfa38f7132b116bda48c;de;;;7.2.;;;Vertraulichkeitsrichtlinien für die kontrollierte Abfrageauswertung Controlled Query Evaluation (CQE) ist ein Ansatz zur Durchsetzung der Vertraulichkeit in Informationssystemen zur Laufzeit. Bei jeder Abfrage überprüft ein Zensor, ob die Antwort auf diese Abfrage es dem Benutzer ermöglichen würde, Informationen abzuleiten, die er gemäß einer bestimmten Vertraulichkeitsrichtlinie nicht kennen darf. Ist dies der Fall, wird die Antwort verzerrt, entweder durch Verweigerung der Antwort oder durch Rücksendung einer modifizierten Antwort. In diesem Papier betrachten wir unvollständige Logikdatenbanken und untersuchen die semantischen Wege zum Schutz einer Information. Wir geben eine formale Definition solcher Vertraulichkeitsrichtlinien und zeigen, wie sie durch Wiederverwendung der bestehenden Methoden für CQE durchgesetzt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73538-0_1 279f027765fdd01fed4a5057dac60a95;de;;;7.1.;;;Eine Überprüfung der Relevanz der Demografie für die australische Wasserplanung Australien ist dabei, eine neue und umfassende Agenda zur Reform der Wasserpolitik umzusetzen, insbesondere im Rahmen der National Water Initiative (NWI). Nationale, regionale und lokale Wasserpläne sind entscheidende Bestandteile des wasserpolitischen Rahmens. Zusammen mit anderen Disziplinen kann die Demografie wichtige Beiträge zur Wasserplanung leisten. Die Demografie ist eindeutig relevant für die städtische Wasserversorgungsplanung. Es ist auch für die nationale, bundesstaatliche/territorische und regionale Wasserplanung relevant: So können Demografen beispielsweise helfen zu verstehen, wer von Wasserplänen betroffen ist, wer Wasser nutzt und wer wahrscheinlich von neuen wasserpolitischen Initiativen wie Märkten und Handel.;-;-;-;https://link.springer.com/article/10.1007/BF03031945 8fd2cb43d247dc346f7d3b9c3a158335;de;;;7.2.;;;Schätzung der Effektivität des musikalischen Klangtrennungsalgorithmus unter Verwendung neuronaler Netze Die blinde Trennung von Musikklängen in Klangmischungen ist eine herausfordernde und schwierige Aufgabe. Dies liegt daran, dass in der westlichen Musik gemischte harmonische Quellen miteinander korreliert sein können, d. h. ihre harmonischen Teiltöne können sich im Frequenzbereich überlappen, wenn die Signale in harmonischer Beziehung bleiben. Auch die Auswertung der Separationsergebnisse ist problematisch, da die Analyse des energetischen Fehlers zwischen den zur Mischung verwendeten Originalsignalen und den separierten teilweise nicht mit wahrnehmungsbezogenen Auswertungsergebnissen übereinstimmt. In diesem Papier werden vier von den Autoren entwickelte Trennalgorithmen vorgestellt. Dann wird eine Musikinstrumenten-Klangidentifikation basierend auf künstlichen neuronalen Netzen als Mittel zum Bewerten der Leistung der Trennalgorithmen durchgeführt. Ergebnisse werden diskutiert und Schlussfolgerungen abgeleitet.;-;-;-;https://link.springer.com/article/10.1007/s10844-005-0320-x fc1ed182819823331a009c14f206f68d;de;;;7.2.;;;Multimodale Sprachsysteme In diesem Kapitel werden die verschiedenen Wissensquellen beschrieben, die für den effizienten Umgang mit der multimodalen Mensch-Maschine-Interaktion erforderlich sind: Sie bilden die Aufgaben-, Benutzer-, Dialog-, Umgebungs- und Systemmodelle. Der erste Teil des Kapitels diskutiert den Inhalt dieser Modelle und betont die Probleme, die auftreten, wenn Sprache mit anderen Modalitäten kombiniert wird. Der zweite Teil konzentriert sich auf die Merkmale der gesprochenen Sprache, beschreibt verschiedene Parsing-Methoden (regelbasiert und stochastisch) anhand eines Aufgabenmodells und stellt kurz die Integration der regelbasierten Methode in ein End-to-End-Information-Retrieval-System vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-60087-6_34 138be1a98b84bc3b593573bdfbca0bd9;de;;;7.2.;;;Ein Effektivitätsmaß für mehrdeutige und unterspezifizierte Abfragen Aufbauend auf einfachen Modellen von Benutzerbedürfnissen und -verhalten schlagen wir ein neues Maß für Neuheit und Vielfalt für die Bewertung der Informationsbeschaffung vor. Wir kombinieren Ideen aus drei kürzlich vorgeschlagenen Effektivitätsmaßen, um ein Gleichgewicht zwischen der Komplexität der tatsächlichen Benutzerbedürfnisse und der Einfachheit zu erreichen, die für eine praktikable Bewertung erforderlich ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04417-5_17 7cf12d59fe4f9d147858d1dc0d8bf258;de;;;7.2.;;;Keyframe-Extraktion basierend auf Aufnahmeabdeckung und Verzerrung Die Extraktion von Schlüsselbildern wurde als eines der wichtigsten Forschungsthemen beim Abrufen von Videoinformationen erkannt. Trotz vieler Forschungsanstrengungen zur Keyframe-Extraktion für Videosequenzen können bisherige Ansätze die Bedeutung extrahierter Frames für die Darstellung der Videoinhalte nicht quantitativ bewerten. In diesem Papier schlagen wir einen neuen Algorithmus zur Schlüsselbildextraktion vor, der Shot Coverage und Distortion verwendet. Der Algorithmus findet signifikante Keyframes aus Kandidaten-Keyframes. Bei der Auswahl der Kandidatenframes wird die Abdeckungsrate für jeden Frame bis zu den gesamten Frames in einer Aufnahme berechnet, indem die Differenz zwischen benachbarten Frames verwendet wird. Als Kandidaten gelten die Frames mit einer Abdeckungsrate innerhalb von 10 % von oben. Dann wird durch Berechnen der Verzerrungsrate eines Kandidaten für alle Frames der repräsentativste Frame als Schlüsselframe in der Aufnahme ausgewählt. Die Leistungsfähigkeit des vorgeschlagenen Algorithmus wurde durch einen statistischen Test verifiziert. Experimentelle Ergebnisse zeigen, dass der vorgeschlagene Algorithmus die Leistung gegenüber den bestehenden Methoden um 13 – 50% verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/11582267_26 cae7e155608814ff5dccefb8df5b106d;de;;;7.2.;;;Aufgabenorientierte Evaluation elektronischer Patientenaktensysteme: Entwicklung und Validierung eines Fragebogens für Ärzte Evaluation ist ein herausfordernder, aber notwendiger Teil des Entwicklungszyklus von klinischen Informationssystemen wie dem elektronischen Patientenaktensystem (EMR). Es wird davon ausgegangen, dass solche Bewertungen mehrere Perspektiven umfassen, vergleichend sein und sowohl qualitative als auch quantitative Methoden anwenden sollten. Selbstverabreichte Fragebögen werden häufig als quantitative Bewertungsmethode in der Medizininformatik verwendet, aber nur sehr wenige validierte Fragebögen befassen sich mit dem klinischen Einsatz von EMR-Systemen.;-;-;-;https://link.springer.com/article/10.1186/1472-6947-4-1 1007eb7c70843f55802b147821090429;de;;;7.2.;;;Eine maschinelle Übersetzungsmethode zur Normalisierung von SMS Die Normalisierung von SMS ist eine sehr wichtige Aufgabe, die von der Computergemeinschaft aufgrund des enormen Wachstums von Diensten auf der Grundlage mobiler Geräte, die diese Art von Nachrichten verwenden, angegangen werden muss. Es gibt viele Einschränkungen bei der automatischen Behandlung von SMS-Texten, die sich aus dem speziellen verwendeten Schreibstil ergeben. Auch wenn es genügend Probleme im Umgang mit dieser Art von Texten gibt, interessieren wir uns auch für einige Aufgaben, die das Verständnis der Bedeutung von Dokumenten in verschiedenen Sprachen erfordern und daher die Komplexität solcher Aufgaben erhöhen. Unser Ansatz schlägt vor, SMS-Texte durch maschinelle Übersetzungstechniken zu normalisieren. Dazu verwenden wir ein auf Basis des IBM-4-Modells berechnetes statistisches zweisprachiges Wörterbuch zur Ermittlung der besten Übersetzung für einen bestimmten SMS-Begriff. Wir haben den vorgestellten Ansatz mit einer traditionellen probabilistischen Methode der Informationsbeschaffung verglichen und festgestellt, dass das hier vorgeschlagene Normalisierungsmodell die Leistung des probabilistischen Modells stark verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31149-9_30 c87f5c116e096c85a21502cdfd3ec2cf;de;;;7.2.;;;Dienstprogramme zum Abrufen Viele verschiedene Dienstprogramme verbessern die Ergebnisse einer Retrieval-Strategie. Die meisten Dienstprogramme fügen der ursprünglichen Abfrage Begriffe hinzu oder entfernen sie, um die Abfrage zu verfeinern. Andere verfeinern einfach den Fokus der Abfrage, indem sie Teildokumente oder Passagen anstelle von ganzen Dokumenten verwenden. Der Schlüssel ist, dass jedes dieser Dienstprogramme (wenn auch selten als solches dargestellt) Plug-and-Play-Dienstprogramme sind, die mit jeder beliebigen Abrufstrategie arbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-3005-5_3 d101bcf80b45203110f48aabf0c21999;de;;;7.1.;;;Zur Geschichte von Gosplan, dem Hauptrechenzentrum des Staatlichen Planungskomitees der UdSSR In den 1970er und 1980er Jahren war das Hauptrechenzentrum (MCC) des Staatlichen Planungskomitees (Gosplan) der UdSSR eines der größten zivilen Rechenzentren in der UdSSR und in Osteuropa. Die verfügbare historische Literatur enthält nur die grundlegenden Fakten über dieses Zentrum. In diesem Artikel wird die Geschichte des Hauptrechenzentrums des Staatlichen Planungskomitees der UdSSR ergänzt und verfeinert. Der Artikel beschreibt die Voraussetzungen für seine Entstehung, die Transformation seiner Struktur, die Chronologie des Einsatzes verschiedener Computer für wirtschaftliche Berechnungen. Der Autor enthüllt neue Fakten über das Hauptrechenzentrum, seine führende Rolle bei der Durchführung wirtschaftlicher Berechnungen auf Computern und seine koordinierende Rolle bei der Organisation der Arbeit der Rechenzentren der Planungskomitees der Unionsrepubliken und anderer sozialistischer Länder. Diese Arbeit basiert auf den Arbeiten sowjetischer Informatiker und Historiker, auf offiziellen Materialien, auf den persönlichen Erinnerungen und dem Archiv des Autors (der in den 1970er Jahren als Programmierer im Hauptrechenzentrum des Staatlichen Planungskomitees der UdSSR arbeitete) und auf die Erinnerungen und persönlichen Archive seiner ehemaligen Kollegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29160-0_7 721e4b5d9161616568cf83ae29adf791;de;;;7.1.;;;Das Verständnis von IKT im öffentlichen Sektor und ihre Auswirkungen auf die Governance Die Visionen und Ziele für den Einsatz von IKT im öffentlichen Sektor sind enorm, sowohl in Bezug auf Effizienz, Effektivität als auch zur Stärkung demokratischer Funktionen. Die Verwirklichung solch unterschiedlicher Ziele erfordert ein breites Spektrum an Mitteln und Maßnahmen. Verstehen die Manager jedoch wirklich die vielen Funktionen und Rollen von IKT und wie sie gesteuert werden sollten? Dieses Papier diskutiert, welche Funktionen IKT im öffentlichen Sektor haben und analysiert bestehende IKT-Governance-Ansätze in der norwegischen Regierung. Unsere Ergebnisse weisen darauf hin, dass es eine Diskrepanz zwischen den Funktionen gibt, die in den Zielen, die für eGovernment formuliert werden, und der Art und Weise, wie IKT verwaltet werden, impliziert sind. Diese Diskrepanz kann zumindest teilweise auf ein unzureichendes Verständnis der IKT und ihrer vielen Funktionen zurückgeführt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33489-4_15 aa5dc33d83d1145d650d37482dd108b4;de;;;7.1.;;;Konzeptionelle Modellierung nebenläufiger Informationssysteme mit allgemeinen Morphismen von Petrinetzen Die Entwicklung komplexer nebenläufiger Informationssysteme wird je nach Designumständen sehr oft im Top-Down- oder Bottom-Up-Ansatz durchgeführt. Petrinetz-Morphismen haben sich in diesem Prozess als nützlich erwiesen, solange bestimmte gewünschte Struktur- und Verhaltenseigenschaften solcher Systeme erhalten bleiben. Insbesondere für allgemeine Morphismen von Petri-Netzen untersuchen wir deren Struktur- und Verhaltenseigenschaften und verwenden das Petri-Netz-Modell von Petersons Algorithmus zum gegenseitigen Ausschluss, um einen schrittweisen Prozess der Bottom-up-Abstraktion zu veranschaulichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36562-4_57 cc77949f1dff1b7a5175be552fb38b89;de;;;7.2.;;;Eine risikobasierte Bewertung von Gruppenzugriffskontrollansätzen in einem Gesundheitswesen Dieses Papier konzentriert sich auf Zugangskontrollansätze, die für den Informationsaustausch über große Bildschirme geeignet sind, auf denen mehrere Personen gleichzeitig anwesend sind. Die Zugriffskontrolle in dieser Einstellung unterscheidet sich erheblich von herkömmlichen Systemen, bei denen sich ein Benutzer am System anmeldet. Das Papier skizziert eine Reihe möglicher Ansätze zur Zugangskontrolle und bewertet diese anhand von Kriterien, die aus Risikoanalysen eines geplanten Koordinationssystems für das perioperative Krankenhausumfeld abgeleitet wurden. Es kommt zu dem Schluss, dass sich zukünftige Arbeiten darauf konzentrieren sollten, den standortbasierten Ansatz mit Situationsbewusstsein zu erweitern und die Verwendung von Pop-ups oder Handheld-Geräten für den Austausch der sensibelsten Informationen zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23300-5_3 68d664528e570fd7c6a227329b2c560a;de;;;7.2.;;;Online-Review-Konsistenz ist wichtig: Eine Perspektive des Elaboration-Likelihood-Modells Bisher haben Studien zur Online-Review-Nützlichkeit den unabhängigen Einfluss zentraler und peripherer Hinweise auf die Nützlichkeit von Online-Reviews untersucht. Unter Verwendung des Elaboration Likelihood Model (ELM) argumentieren wir jedoch, dass zentrale und periphere Signale von Online-Benutzern gemeinsam und nicht unabhängig verarbeitet werden. Für diese Untersuchung entwickeln und messen wir die Variable „Rezensionskonsistenz“ (d. h. Grad der Konsistenz zwischen einem Rezensionstext und seiner begleitenden Rezensionsbewertung) und Bewertungsinkonsistenz (d. h. Grad der Inkonsistenz zwischen einer Rezensionsbewertung und der durchschnittlichen Bewertung). Wir finden einen positiven Effekt der Review-Konsistenz auf die Review-Nützlichkeit. Entgegen unserer Hypothese finden wir jedoch einen positiven Effekt der Rating-Inkonsistenz auf die Review-Nützlichkeit. Unsere Ergebnisse zeigen auch, dass der Kontingenzeffekt von Rating-Inkonsistenz auf die Beziehung zwischen Review-Konsistenz und Review-Nützlichkeit wirkt. Insbesondere stellen wir fest, dass die Bewertungsinkonsistenz die Auswirkung der Bewertungskonsistenz auf die Nützlichkeit der Bewertung negativ dämpft. Die theoretischen und praktischen Implikationen der Ergebnisse werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s10796-020-10030-7 220c6c277cb067c23d6c11cb1f37b5a9;de;;;7.2.;;;Leistungsbewertung der Vertriebsleistungseffizienz basierend auf der Lieferkette Die Kosten für Kunden und Verteilzentren zu sparen, ist für Verteilzentren der Schlüssel zum Überleben. Die geringe Serviceeffizienz wird sicherlich zu erhöhten Vertriebskosten führen. Es ist ein universelles Problem für die Distributionsindustrie, sogar für die Logistikbranche, die Effizienz der Distributionsdienste zu verbessern. Auf der Grundlage der Analyse der Merkmale der Kundenbedürfnisse und der Merkmale der Vertriebsleistungseffizienz basierend auf der Lieferkette diskutiert dieses Papier die Herausforderungen der Vertriebsleistung, stellt die Prinzipien der Vertriebsleistung zur Aufstellung der Vertriebsleistungseffizienz vor und stellt das Bewertungssystem der Vertriebsleistungseffizienz für das Vertriebszentrum. Dann schlägt dieser Artikel eine Bewertungsmethode vor, um die Effizienz von Distributionsdiensten für Distributionszentren zu bewerten. Die Methode wird vorgestellt, die die Effizienz der Distributionsdienste für Distributionszentren bewertet und die eigentliche Diagnoseanalyse durchgeführt hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-76312-5_77 52a3d93de7c562e32f3dc66002ca784e;de;;;7.1.;;;WebMapMedia: eine kartenbasierte Webanwendung zur Erleichterung der Teilnahme an der Raumplanung In diesem Beitrag wird eine neue kartenbasierte Webanwendung untersucht, die entwickelt wurde, um die Bürgerbeteiligung an der Raumplanung zu erleichtern. Es werden zwei Planungsexperimente vorgestellt, die die kartenbasierte Anwendung namens WebMapMedia testen. Die Literaturrecherche des Beitrags beschreibt Versuche, geografische Informationssysteme (GIS) in der Partizipation zu nutzen, und weist auf gravierende Schwächen dieser Systeme beim Erwerb und der Verarbeitung qualitativen Ortswissens hin. Die Ergebnisse der Experimente zeigen, dass die webbasierte Technologie eine regelmäßige, aber kurzfristige „Mittagspausen-Beteiligung“ unterstützt, die in der Woche während der Bürozeiten stattfindet. Die anderen Ergebnisse zeigen eine symbiotische Beziehung zwischen konventionellen und webbasierten Beteiligungsmöglichkeiten und dem Potenzial der webbasierten Technologie zur Ausweitung der Beteiligung. Es zeigt sich auch, dass, wenn die Technologie an die Stadien des Planungsprozesses angepasst werden kann, sie die Wissensbildung im Prozess erleichtern kann. Das auf dem Web 2.0-Ansatz basierende Google Maps-Mashup weist gegenüber GIS-basierten Lösungen gewisse Vorteile auf. Basierend auf den Ergebnissen wird argumentiert, dass die Evolution des Planungsprozesses und die Einstellungen der Planer eine Voraussetzung für die volle Nutzung der webbasierten Technologie in der Beteiligung ist.;-;-;-;https://link.springer.com/article/10.1007/s00530-009-0175-z 8cbaacb0677f2622a9fd1b4ef462da44;de;;;7.1.;;;Eine Strukturanalyse und Datenmodellierung von Telekommunikationsprodukten basierend auf Product Lifecycle Management Dieses Papier analysiert die Notwendigkeit und die Anforderungen des Wechsels von serviceorientierten Operationen zu produktorientierten Operationen in der Telekommunikationsindustrie, die dazu beitragen, den Konflikt zwischen immer homogeneren Telekommunikationsdiensten und individualisierten Kundenanforderungen zu lösen. Dann stellt dieses Papier eine umfassende Definition von Telekommunikationsprodukten vor und präsentiert einen Strukturrahmen für Telekommunikationsprodukte, der aus 8 Bestandteilen besteht: Telekommunikationsdienst, Informationsinhalt und -anwendung, Tarif, Zielmarkt, Marke, Kanal, Kundenservice und ergänzende Ressourcen. In der Zwischenzeit analysiert dieses Papier den Prozessrahmen des Lifecycle-Managements von Telekommunikationsprodukten und unterteilt ihn in 4 Phasen: Planung, Entwicklung, Genehmigung und Veröffentlichung sowie Verbesserung oder Rücknahme. Das komplette Konzeptdatenmodell wird analysiert und schrittweise in der UML-Sprache in den 4 Phasen geformt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-76312-5_38 d91a036270427a3e1c219a249d959fae;de;;;7.1.;;;Integration von Big Data Analytics in Unternehmensinformationssysteme Big Data Analytics hat in der Unternehmensentwicklung und in Enterprise Information Systems (EIS) große Aufmerksamkeit erregt. Wie kann es jedoch die Entwicklung von EIS verbessern? Wie kann es in EIS integriert werden? Beides sind immer noch große Themen. Dieses Papier befasst sich mit diesen beiden Problemen, indem es eine Ontologie einer Big-Data-Analyse vorschlägt. Dieses Papier untersucht auch die Integration von Big Data Analytics in EIS durch den Vorschlag von BABES: ein Modell für die Integration von Big Data Analytics Services in EIS. Der in diesem Papier vorgeschlagene Ansatz könnte die Erforschung und Entwicklung von EIS, Business Analytics, Big Data Analytics und Business Intelligence sowie intelligenten Agenten erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24315-3_31 424277a9d70459ee86632382551016d9;de;;;7.2.;;;Anwendungsfalldiagramme für mobile und Mehrkanal-Informationssysteme: Experimenteller Vergleich von Farb- und Symbolannotationen In mobilen Informationssystemen kann es wichtiger sein, zu erfassen, wo ein Benutzer eine Aktivität ausführen soll und welche Art von Gerät verwendet wird, als dies bei herkömmlichen, stationären Informationssystemen der Fall ist. Dennoch erfassen Mainstream-Diagrammnotationen wie Use-Case-Diagramme solche Informationen selten. In früheren Veröffentlichungen haben wir einige Anpassungen an Anwendungsfalldiagrammen vorgeschlagen, um Standort- und Ausrüstungsanforderungen berücksichtigen zu können, aber diese Anpassungen wurden nicht experimentell evaluiert. Dieser Artikel berichtet über ein Schülerexperiment, in dem zwei verschiedene Notationen verglichen wurden, eine mit Farbe und die andere mit symbolischen Symbolen. Das Experiment beinhaltet auch eine Aufgabe, bei der die Modelle gleichzeitig Standort- und Ausrüstungsinformationen enthielten. In diesem Fall verwendete eine Alternative Farben für Standorte und Symbole für Ausrüstung, während die andere Symbole sowohl für Farbe als auch für Ausrüstung verwendete. Die Ergebnisse zeigten keinen signifikanten Unterschied zwischen den beiden Behandlungsgruppen, weder in der Qualität der Antworten auf die experimentellen Aufgaben, der Zeit, die für die Durchführung der Aufgaben benötigt wurde, noch in ihren Meinungen in den Fragebögen nach der Aufgabe zu den Notationen, denen sie ausgesetzt waren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-39429-9_30 854d5217a2483bbec11583637ba0ea06;de;;;7.2.;;;Wahrscheinlichkeitsaspekte beim Abruf gesprochener Dokumente Der Zugriff auf Informationen in Multimedia-Datenbanken umfasst ein breites Anwendungsspektrum, bei dem das SDR (Spoken Document Retrieval) eine wichtige Rolle spielt. Bei SDR stellt ein Satz automatisch transkribierter Sprachdokumente die Dateien zum Abrufen dar, an die ein Benutzer eine Anfrage in natürlicher Sprache richten kann. Dieses Papier befasst sich mit zwei wahrscheinlichkeitstheoretischen Aspekten in SDR. Der erste Teil untersucht den Einfluss von Erkennungsfehlern auf die Retrievalperformance und geht der Frage nach, warum Erkennungsfehler nur einen geringen Einfluss auf die Retrievalperformance haben. Im zweiten Teil stellen wir einen neuen probabilistischen Ansatz für SDR vor, der auf Interpolationen zwischen Dokumentdarstellungen basiert. Experimente, die an den TREC-7- und TREC-8-SDR-Aufgaben durchgeführt wurden, zeigen vergleichbare oder sogar bessere Ergebnisse für die neue vorgeschlagene Methode als andere fortschrittliche heuristische und probabilistische Abrufmetriken.;-;-;-;https://link.springer.com/article/10.1155/S1110865703210088 7693e51661042eb7ef07e6d466d0fb19;de;;;7.2.;;;Robuste Techniken zum Organisieren und Abrufen gesprochener Dokumente Informationsabrufaufgaben wie Dokumentenabruf und Themenerkennung und -verfolgung (TDT) zeigen wenig Verschlechterung, wenn sie auf die Ausgabe des Spracherkenners angewendet werden. Wir behaupten, dass die Robustheit des Prozesses auf der inhärenten Redundanz des Problems beruht: Wörter werden nicht nur wiederholt, sondern auch semantisch verwandte Wörter unterstützen. Wir zeigen, wie die Dokument- und Abfrageerweiterung diese Redundanz verbessern und den Dokumentenabruf robust gegenüber Spracherkennungsfehlern machen kann. Wir zeigen, dass der gleiche Effekt für die Tracking-Aufgabe von TDT gilt, dass Erkennungsfehler jedoch eher ein Problem bei der Erkennung neuer Ereignisse und Story-Links sind.;-;-;-;https://link.springer.com/article/10.1155/S1110865703211070 ed144c44127c52fa977afb8fd0f7a7b5;de;;;7.2.;;;Reduzierung von Informationssystemen mit unsicheren Realwertattributen Berücksichtigt werden Informationssysteme mit reellen Wert-Mehrwertattributen. Es wird auch angenommen, dass einige der Werte, die Objekte im System beschreiben, unsicher sind. Ein Verfahren zur Quantisierung von Mengen reeller Zahlen wird vorgestellt. Es verwandelt das Informationssystem in ein reduziertes System, in dem die Mengen der reellen Zahlen durch Bereiche dargestellt werden. Die Methode generiert Bereiche direkt aus der Quelltabelle. Als Ergebnis wird ein Satz optimaler Entscheidungsregeln bereitgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-1865-9_20 16d27e44f4cec3ee19c16e91a6996b92;de;;;7.1.;;;Computergestützte strategische Planung Viele Unternehmen verfügen über traditionelle Systeme zur Unterstützung der Unternehmensplanung durch die edp. Beispiele sind Gleichungssysteme zur Simulation der Auswirkungen verschiedener Investitionen, Abschreibungspolitiken oder Gewinnausschüttungen auf Ertrag, Steuern, Cashflow und Bilanz der nächsten Jahre. Weitere Anwendungen sind Risikoanalysen oder Modelle zur Abschätzung der Einflüsse von Umsatzänderungen auf die Auslastung der Produktionskapazitäten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83088-4_17 0c84736381c1fb75e27542c93c0344f0;de;;;7.2.;;;Eine Pilotstudie zum Einsatz profilbasierter Zusammenfassungen für die interaktive Suchhilfe Textzusammenfassung ist der Vorgang, bei dem die wichtigsten Informationen aus einer Quelle destilliert werden, um eine Kurzfassung für einen bestimmten Benutzer oder eine bestimmte Aufgabe zu erstellen. Dieses Poster untersucht die Verwendung von profilbasierter Zusammenfassung, um Kontextualisierung und interaktive Unterstützung für Unternehmenssuchen bereitzustellen. Durch die Protokollanalyse erfassen wir laufend aktualisierte Profile, um profilbasierte Zusammenfassungen der Suchergebnisse bereitzustellen. Diese Profile können die Interessen einer Person oder (wie hier erörtert) einer Gruppe von Benutzern erfassen. Hier berichten wir über eine erste Pilotstudie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36973-5_57 97d0996cc72f5d8da78f61be50423671;de;;;7.2.;;;Eine empirische Untersuchung von Online-Restaurantbewertungen (Yelp.com): Moderation der Rolle des Restauranttyps und der Offenlegung des Selbstbildes Eine zunehmende Abhängigkeit von Online-Reisebewertungen (OTRs) als wichtige Informationsquelle erleichtert die Recherche zu Online-Bewertungen im Hinblick auf die Verbraucherwahrnehmung und Kaufentscheidungen für Tourismusprodukte. Bisher wurde in der Literatur zu Online-Rezensionen hauptsächlich textbasierten Rezensionen Aufmerksamkeit geschenkt. Aufgrund der zunehmenden Verwendung visueller Bewertungsformate haben wir den Einfluss bildbasierter Bewertungen auf die Bewertung der Nützlichkeit von Bewertungen durch Verbraucher untersucht. Eine empirische Analyse wurde verwendet, um die Auswirkungen zweier Präsentationsformate (d. h. textbasierte und bildbasierte Rezensionen innerhalb derselben Rezension) auf den Rezensionsnutzen basierend auf dem Elaboration-Likelihood-Modell zu untersuchen. Darüber hinaus wurden die moderierende Rolle des Restauranttyps (d. h. Casual vs. Fine Dining) und die Offenlegung des Selbstbildes der Rezensenten bei der Bewertung der Nützlichkeit der Rezension validiert. Insgesamt 2629 Restaurantbewertungen auf Yelp.com wurden mithilfe einer Web-Harvesting-Methode gesammelt. Schließlich zeigen die Ergebnisse, dass nicht nur textbasierte Reviews, sondern auch die bildbasierten Reviews tatsächlich signifikante Prädiktoren für die Wahrnehmung der Review-Bewertung sind. Darüber hinaus moderieren Restauranttyp und Selbstdarstellung die Auswirkungen von Präsentationsformaten auf die Verbraucherbewertung signifikant. Wir diskutieren diese Ergebnisse und schlagen abschließend theoretische und praktische Implikationen vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-28231-2_25 9269bb9a6c2acb57f51c688959a37d04;de;;;7.2.;;;Relevanz-Feedback-Mechanismus zur Auflösung von Transkriptionsmehrdeutigkeiten in SMS-basierten Literaturinformationssystemen In diesem Artikel geht es um die Entwicklung einer effektiven Methodik, die den Relevanz-Feedback-Mechanismus anwendet, um das Relevanzranking der Dokumente für die verrauschten Abfragen in einem SMS-basierten Informationssystem im Bereich der Literatur indischer Sprachen zu verbessern. Das System behandelt die natürlichsprachlichen Anfragen, die von Benutzern in ihrer eigenen Sprache in Bezug auf den literaturbezogenen Informationszugriff frei gebildet werden. Die erforderliche Flexibilität bei der romanisierten Transliteration der nativen Schriften wird bei diesem Problem berücksichtigt. In diesem Beitrag werden die Experimente und die entsprechenden Ergebnisse des Literaturinformationssystems Marathi und Hindi vorgestellt. Wir experimentierten mit Marathi- und Hindi-Literatur, die Lieder, Gazals, Powadas, Bharud und andere Typen in einer Standard-Transliterationsform wie ITRANS umfasst. Die ITRANSed-Literaturdokumente werden von Internetseiten gesammelt und haben ein halbstrukturiertes Format wie Latexdokumente. Diese Dokumente werden verarbeitet, um einen geeigneten Informationsabrufmechanismus aufzubauen, indem das herkömmliche Vektorraummodell angepasst wird. Der Beitrag stellt die innovative Methodik und vorgeschlagene Algorithmen vor, die die Mehrdeutigkeit aufgrund des Rauschens in der Transkriptionsmethode auflösen, die vom Benutzer flexibel angewendet wird. Die vorgeschlagene Arbeit wendet den Relevance Feedback Mechanism an, der auf der Relevanzklassifizierung von Rochchio basiert. Bei dieser Methode werden die Präferenzen des Benutzers berücksichtigt, um die Relevanzbewertungen der an sie gelieferten Dokumente mit dem höchsten Rang zu überarbeiten. Jedes Dokument wird nach Einschätzung des Benutzers als relevant oder nicht relevant identifiziert. In diesem Beitrag werden diese Experimente diskutiert. Die Ergebnisse werden durch eine Reihe von Iterationen erhalten, indem eine Sequenz von Relevanz-Feedback-Gewinnungs-, Verarbeitungs- und Abfrageverfeinerungsmechanismen angewendet wird. Der mittlere reziproke Rang wird verwendet, um diese Ergebnisse zu vergleichen und die Leistung unseres vorgeschlagenen Modells über einen Satz von insgesamt 74 Abfragen zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1927-3_56 87e72cfa3658552b6b7219618f7ebe5c;de;;;7.2.;;;Bewertungsmuster für Design Science Research Artefakte Die Artefaktbewertung wird für die Design Science Research (DSR) als entscheidend angesehen, um die Praxisrelevanz eines Artefakts rigoros nachzuweisen. Ungeachtet der Verfügbarkeit von Richtlinien zur Strukturierung von DSR-Prozessen bietet der aktuelle Wissensstand einem Designforscher nur rudimentäre Möglichkeiten, geeignete Artefaktbewertungsstrategien in einer bestimmten Situation auszuwählen und zu begründen. Dieses Papier schlägt Muster vor, die verwendet werden könnten, um Strategien zur Bewertung von Artefakten in DSR-Projekten zu artikulieren und zu rechtfertigen. Diese Muster wurden aus früherer DSR-Literatur synthetisiert, die sich mit Bewertungsstrategien befasst. Sie unterscheiden sowohl Ex-ante- als auch Ex-post-Bewertungen und spiegeln aktuelle DSR-Ansätze und Bewertungskriterien wider.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33681-2_7 3dcd9d0be525c6a2c1062f757486630e;de;;;7.2.;;;Sind wir von Mehrheitseinflüssen in der elektronischen Mundpropaganda gefangen? Als effektiver Online-Mechanismus zur Generierung groß angelegter elektronischer Mundpropaganda (EWOM) bieten Online-Feedback-Systeme (OFS) eine Vielzahl von Systemdesign-Hinweisen, um die Entscheidungsfindung der Verbraucher zu erleichtern. Solche Hinweise können jedoch dazu führen, dass Verbraucher auf der Grundlage eines Gesamtbildes der Mehrheitsmeinung Rückschlüsse ziehen, ohne den Inhalt der Bewertungen zu überprüfen. Diese Studie stützt sich auf Theorien des Mehrheits-/Minderheiteneinflusses und des dualen Prozesses, um den Einfluss von OFS-Design-Hinweisen auf die Lernergebnisse der Verbraucher zu untersuchen (dh Bewusstsein für Produkt/Dienstleistung, Vertrauen in Urteilsvermögen, Absicht, nach zusätzlichen Informationen zu suchen und Absicht, sich anzupassen zur Mehrheit). Numerische und Machtmehrheitseinflüsse werden anhand von zwei Design-Hinweisen untersucht: Überprüfung des Clustering-Formats (Listen-Clustering vs. Paar-Clustering) und Quellenglaubwürdigkeit (verfügbar vs.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02574-7_59 e36b1be7995bb0aba79d5bed424bcfed;de;;;7.2.;;;Die sozialen und wirtschaftlichen Risiken der Entwicklung von Informationstechnologien In diesem Artikel wird eine breite Palette potenzieller negativer Folgen durch den Einsatz von Informationstechnologien im sozialen, wirtschaftlichen, wissenschaftlichen und technischen Bereich betrachtet. Es wird gezeigt, dass das Risikoproblem ein Teil eines allgemeineren Problems der technologischen Risiken ist. Die Ziele und Zielsetzungen der soziotechnischen Gestaltung und gesellschaftlichen Bewertung von Technik als neuem interdisziplinären Wissenschaftsfeld werden formuliert. Es wird gezeigt, dass Informationsunsicherheit ein Umfeld ist, das zu Risiken führt. Die Vorschläge und die dringendsten Aufgaben bei der Untersuchung des Spektrums der Probleme, die mit den Risiken der Entwicklung der Informationstechnologie verbunden sind, werden formuliert.;-;-;-;https://link.springer.com/article/10.3103/S0147688212020141 3c46f99f6304e81fd66a4d9535721d85;de;;;7.1.;;;Logische und konzeptionelle Modelle zur Integration von Information Retrieval- und Datenbanksystemen Wir stellen zwei neue Ansätze für das Problem der Integration von Information Retrieval (IR) und Datenbank (DB) Systemen vor. Auf logischer Ebene basiert IR auf unsicherer Inferenz, was eine Verallgemeinerung des bestimmten Inferenzprozesses ist, der in DB-Systemen verwendet wird. Als Implementierung dieses Konzepts präsentieren wir eine probabilistische relationale Algebra. Auf konzeptioneller Ebene unterscheiden wir zwischen der logischen, Layout- und Inhaltsstruktur von DB-Objekten. Früher konzentrierte sich die DB-Forschung auf die logische Struktur von Objekten, während sich die IR-Forschung auf den Inhalt von Dokumenten konzentrierte. Durch die Kombination dieser beiden Ansätze und die Einbeziehung der Layoutstruktur von Objekten wird ein Konzeptmodell für integrierte IR- und DB-Systeme skizziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-3577-7_15 cd140db08a3f20255a0b5b151adfb152;de;;;7.2.;;;Tools und Methoden zur Entwicklung benutzerfreundlicher Fahrerinformationssysteme In diesem Kapitel werden Ansätze beschrieben, mit denen festgestellt werden kann, ob Systeme sicher und einfach zu verwenden sind. Aus den Recherchen des Autors werden Beispiele für verschiedene Fahrerinformationssysteme, insbesondere Warnsysteme, Verkehrsinformationssysteme und Navigationsdisplays, sowie konventionelle Instrumentierung wie Tachometer genannt. Es werden Methoden benötigt, um eine frühzeitige Fokussierung auf Nutzer und ihre Aufgaben zu ermöglichen, empirische Messungen zu ermöglichen und iteratives Design zu unterstützen. Zu den untersuchten Ansätzen gehören Fokusgruppen, Papier- und Bleistiftstudien bei einer Führerscheinstelle, Reaktionszeitexperimente, schnelle Prototypen mit HyperCard und SuperCard, Verfahren mit Fahrsimulatoren und Fahrversuche in instrumentierten Fahrzeugen. Als besonders nützlich haben sich im Laufe der Jahre einfache Fahrsimulatoren (Taskloader) erwiesen. Die Anwendung dieser Ansätze variiert je nach Entwurfsphase und je nach verfügbarem Personal, Ausstattung und verfügbaren Mitteln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-78119-3_40 0b6fe3550610bb6437587dffb2be3b74;de;;;7.2.;;;Ein deklarativer DB-gestützter Ansatz für IR Wir präsentieren ein prototypisches System, das Array Comprehension verwendet, um die Lücke zwischen Datenbanken und Informationsabruf zu schließen. Es ermöglicht Forschern, ihre Retrievalmodelle im General Matrix Framework for Information Retrieval [1] auszudrücken und diese mit vernachlässigbarem Aufwand auf relationalen Datenbanksystemen ausführen zu lassen.;-;-;-;https://link.springer.com/chapter/10.1007/11735106_61 db2d4b0d8c0d91a65d7256b98fde3a64;de;;;7.2.;;;Statistische Sprachmodelle für den intelligenten XML-Abruf Die derzeit entstehenden XML-Standards weisen eine Reihe von Merkmalen auf, die auch in Datenbankmanagementsystemen zu finden sind, wie Schemata (DTDs und XML-Schema) und Abfragesprachen (XPath und XQuery). Nach dieser Argumentation könnte eine XML-Datenbank traditionellen Datenbanksystemen ähneln. XML ist jedoch mehr als eine Sprache zum Auszeichnen von Daten, es ist auch eine Sprache zum Auszeichnen von Textdokumenten. In diesem Kapitel behandeln wir speziell XML-Datenbanken für die Speicherung von „dokumentenzentriertem“ XML (im Gegensatz zu „datenzentriertem“ XML [42]).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45194-5_7 f556f7374eb7d9f70b95c9301193898d;de;;;7.2.;;;Computergestützte Kontextanalyse von Datenbanken mit wissenschaftlicher Literatur In einem Überblick über die jüngsten Entwicklungen in der Art und Weise, wie astronomische Informationen generiert und archiviert werden, und in Kombination mit Entwicklungen in der Informatik, belegt dieser Artikel die Notwendigkeit und skizziert Methoden zur Extraktion wissenschaftlicher Informationen aus Datenbanken mit großen Mengen astronomischer Literatur.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4345-5_8 f8930df95efed92a3c034e39cea448b5;de;;;7.2.;;;Computer und Patienteninformationssysteme Computerhardware und -software sind aus unserem täglichen Leben nicht mehr wegzudenken. Maschinen sind auf der ganzen Welt verfügbar, und es gibt Anwendungsprogramme in praktisch allen Bereichen der menschlichen Arbeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-03104-9_36 2a5817fea414435032456cca3fdac609;de;;;7.2.;;;Ein umfassendes OWA-basiertes Framework für die Ergebniszusammenführung in der Metasuche Wenn eine Anfrage an mehrere Suchmaschinen weitergeleitet wird, gibt jede Suchmaschine eine Rangliste von Dokumenten zurück. Das Problem der Ergebniszusammenführung besteht darin, diese Ranglisten so zu verschmelzen, dass als Ergebnis der Kombination eine optimale Leistung erzielt wird. In diesem Beitrag ist unser Hauptbeitrag eine Methode zur Ergebniszusammenführung, die auf der Fuzzy-Set-Theorie basiert und die von Yager eingeführten quantifizierergesteuerten Operatoren der geordneten gewichteten Mittelung (Ordered Weighted Averaging, OWA) anpasst. Das vorgeschlagene Framework ist umfassender als die bestehende OWA-Operator-basierte Methode, da unsere Untersuchung alternative Heuristiken für fehlende Dokumente (die existierenden existieren in einigen, aber nicht allen Ranglisten) bewertet, um solche Dokumente vor dem Zusammenführen in die Ranglisten einzuordnen. Es zeigt, dass die Effektivität des Zusammenführungsprozesses gegenüber der als Borda-Fuse bekannten Basisstrategie verbessert wird.;-;-;-;https://link.springer.com/chapter/10.1007/11548706_21 bc4df81248803df29c63281eeb734368;de;;;7.1.;;;Zielorientierte Workflow-Generierung basierend auf KI-Planung Der Erfolg eines Unternehmens hängt stark von seiner Fähigkeit ab, effektiv und dynamisch auf Veränderungen in seinem Umfeld zu reagieren. Um aufkommenden Geschäftstrends gerecht zu werden, bietet die automatische Workflow-Generierung einen erheblichen Wettbewerbsvorteil. Dieses Dokument stellt eine zielorientierte Workflow-Generierung vor, die musterorientiert und wissensbasiert ist. Zunächst wird ein Prozessmuster als Vehikel für die Wissensrepräsentation vorgeschlagen. Dann wird ein heuristischer intelligenter Planungsalgorithmus eingesetzt, um einen Workflow automatisch gemäß dem von den Benutzern und dem Geschäftskontext festgelegten Ziel zu erstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18354-6_44 4113adc988db08f14c2a293ddfb82454;de;;;7.2.;;;Workshop zu Kontextinformationszugang, Such- und Retrievalbewertung Der Hauptzweck dieses Workshops ist es, IR-Forscher zusammenzubringen, die an der Bewertung von Ansätzen zum kontextuellen Zugang, Suchen und Abrufen von Informationen arbeiten oder daran interessiert sind, und ihnen die Möglichkeit zu geben, ihre neuesten Forschungsergebnisse auszutauschen, ihre Meinung zu den damit verbundenen Fragen zu äußern und Diskussion über die künftigen Richtungen der Evaluierung zu fördern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00958-7_89 902e1743345129fe9b069e39f21dc041;de;;;7.2.;;;Griechisch-englischer sprachenübergreifender Abruf medizinischer Informationen Gesundheitsinformationssysteme im Web unterstützen grundsätzlich die englische Sprache. Der Zugang zu hochwertigen Online-Gesundheitsinformationen ist häufig ein Hindernis für Nicht-Englisch-Sprecher oder Englisch als Fremdsprache. In dieser Arbeit stellen wir ein sprachübergreifendes Abfragesystem vor, um griechische Benutzer im medizinischen Bereich zu unterstützen und die Sprachbarriere zu überwinden. Wir haben eine Fallstudie zu den Auswirkungen von Stammzellen auf die sprachenübergreifende Suche in Verbindung mit wörterbuchbasierten Abfrageübersetzungstechniken durchgeführt. Schließlich schließen wir mit Ergebnissen aus einer vorläufigen Bewertung des griechisch-englischen CLIR-Prototyps.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79490-5_15 3d92b4ebe14dd2bb200dcf21516edb82;de;;;7.1.;;;Theoretische Grundlagen dualer Informationssysteme Das konzeptionelle Design der meisten computergestützten Informationssysteme spiegelt den Design/Use-Dualismus von Technologie wider. Während der Entwicklungsphase wird ein Teil des arbeitsdomänenbezogenen Wissens formalisiert und in der Software kodiert, was es den Benutzern erschwert, dieses Wissen zu reflektieren und zu nutzen. Dieser Dualismus schreckt die interpretative Flexibilität von Informationssystemen ab. Benötigt werden Duale Informationssysteme (DIS), die sowohl effizientes, institutionalisiertes Arbeiten als auch die Hinterfragung und Rekonstruktion computergestützter Arbeitsabläufe ermöglichen und stärken.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5915-3_39 f131d7d12d19d50cbca077c44b930491;de;;;7.2.;;;Verwenden eines Passage-Retrieval-Systems zur Unterstützung des Fragebeantwortungsprozesses Frühere Arbeiten im Bereich Information Retrieval zeigen, dass die Verwendung von Textteilen bessere Ergebnisse liefert als die Verwendung des gesamten Dokuments als Basiseinheit für den Vergleich mit der Abfrage des Benutzers. Diese Art von IR-Systemen wird normalerweise als;-;-;-;https://link.springer.com/chapter/10.1007/3-540-46043-8_5 4c6c98b17ee9c68eeca77656af276966;de;;;7.2.;;;OLAP für komplexe Daten: Visualisierungsoperator basierend auf Korrespondenzanalyse Data Warehouses und Online Analysis Processing (OLAP) haben anerkannte und effiziente Lösungen zur Entscheidungshilfe. Durch die OLAP-Operatoren ermöglicht die Online-Analyse dem Entscheidungsträger, mehrdimensional dargestellte Daten zu navigieren und anzuzeigen. Wenn die zu analysierenden Daten oder Objekte jedoch komplex sind, ist es notwendig, die Fähigkeiten des OLAP neu zu definieren und zu erweitern. In diesem Papier schlagen wir vor, OLAP und Data Mining zu kombinieren, um einen neuen Visualisierungsoperator für komplexe Daten oder Objekte zu erstellen. Dieser Operator verwendet das Korrespondenzanalyseverfahren und wir nennen es VOCoDa (Visualization Operator for Complex Data).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29749-6_12 98b722c56b00eddb2d042a0d67d9a4b9;de;;;7.2.;;;Demonstrative Implikationen eines neuen logischen Aggregationsparadigmas auf ein klassisches Fuzzy-Bewertungsmodell von «grünen» Gebäuden Dieser Beitrag demonstriert die Anwendungsmöglichkeiten des generalisierten Modells der Logischen Aggregation (LA) in der Leistungs- und Qualitätsbewertung von Green Buildings, indem eine lineare Ordnung dieser durch einen (skalaren) allgemeinen aggregierten Qualitätsparameter erstellt und in Kategorien eingeordnet wird. Ein bestehendes klassisches Fuzzy-Modell wird experimentell modifiziert, um die erweiterten Fähigkeiten einer adäquaten Artikulation der partiellen Qualitätsanforderungen über das neue generalisierte Modell für logische Aggregation zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08855-6_3 77df58171c592658a37d2ae2f01cba29;de;;;7.2.;;;Modifiziertes LSI-Modell für eine effiziente Suche nach Metrikzugriffsmethoden Im LSI-Modell dargestellte Textsammlungen sind schwer effizient (d. h. schnell) zu durchsuchen, da es kein Indizierungsverfahren für die LSI-Matrizen gibt. Die invertierte Datei, die häufig sowohl im booleschen als auch im klassischen Vektormodell verwendet wird, kann nicht effektiv verwendet werden, da Abfragevektoren im LSI-Modell dicht sind. Ein möglicher Weg für eine effiziente Suche in LSI-Matrizen könnte die Verwendung von Metrikzugriffsverfahren (MAMs) sein. Anstelle des Kosinusmaßes können die MAMs die Abweichungsmetrik für die Abfrageverarbeitung als gleichwertiges Unähnlichkeitsmaß verwenden. Die intrinsische Dimensionalität von Sammlungen, die durch LSI-Matrizen repräsentiert werden, ist jedoch oft groß, was die Leistung von MAMs bei der Suche verringert. In diesem Papier stellen wir vor;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-31865-1_18 bff3f66fb41db3d3b926fa30e2141299;de;;;7.2.;;;Hin zu einer hierarchischen Erweiterung kontextueller bipolarer Abfragen Wir beschäftigen uns mit bipolaren Datenbankabfragen, bei denen die Abfrage aus einem notwendigen (erforderlichen) und optionalen (gewünschten) Teil besteht, der mit einem nicht-konventionellen Aggregationsoperator „und möglicherweise“ verbunden ist, kombiniert mit Kontext, wie z Abfrage „Häuser finden, die günstig sind und – im Vergleich zu anderen Häusern in der Stadt – möglicherweise in der Nähe eines Bahnhofs liegen“. Wir beschäftigen uns mit einer mehrwertigen logischen Interpretation von bipolaren Abfragen. Wir gehen davon aus, dass der menschliche Benutzer, in der Regel ein Datenbankneuling, dazu neigt, allgemeine Begriffe in den Abfragen in natürlicher Sprache zu verwenden, die sich nicht direkt auf Attribute beziehen, und diese Begriffe werden über einen Frage-und-Antwort-Prozess mit einer Konzepthierarchie „entschlüsselt“ am Ende enthält Begriffe, die sich direkt auf Attributwerte beziehen. Wir schlagen eine neuartige Erweiterung unserer kontextuellen hierarchischen bipolaren Datenbankabfrage vor, bei der die ursprüngliche Abfrage als Ebene 0-Abfrage am unteren Ende der Genauigkeitshierarchie betrachtet wird, dann wird angenommen, dass ihre erforderlichen und optionalen Teile selbst bipolare Abfragen sind, unter Berücksichtigung des Kontexts . Dies ermöglicht es, die Absichten/Präferenzen des Benutzers weiter zu präzisieren. Eine Genauigkeitsstufe 1 wird erreicht, und der Prozess wird so weit fortgesetzt, wie es für den Benutzer erforderlich ist, seine Absichten/Präferenzen hinsichtlich des Gesuchten angemessen widerzuspiegeln. Das neue Konzept wird an einem intuitiv ansprechenden Immobilienbeispiel demonstriert, das sowohl als Veranschaulichung der Idee unseres Ansatzes als auch als reales Beispiel dient.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-91476-3_6 524717d14a8cd2bf3647b0c6c773f13b;de;;;7.2.;;;Eine Methode der multimedialen Lehrevaluation basierend auf dem fuzzy linguistischen Konzeptgitter Mit der Entwicklung der Multimedia-Technologie ist multimedialer Unterricht zu einem beliebten Unterrichtsstil geworden. Die Evaluationsleistung im Multimedia-Unterricht ist jedoch keine leichte Aufgabe, da sie menschliche Entscheidungen erfordert, die ungenau, vage und unsicher sind. Um die Wirkung von Multimedia-Unterricht in unvollständigen formalen Kontexten zu erfassen, konzentriert sich diese Arbeit hauptsächlich auf einen Algorithmus der Regelextraktion basierend auf unvollständigem multi-experten-fuzzy-linguistischen formalen Entscheidungskontext. Insbesondere schlagen wir eine Art fuzzy-linguistisches Konzeptgitter vor, das mit fuzzy-linguistischen Informationen in einer linguistischen Umgebung mit Unsicherheit kombiniert wird. Das entsprechende Konfidenzniveau, der Unterstützungsgrad linguistischer Entscheidungsregeln im fuzzylinguistischen Entscheidungskonzept werden diskutiert. Basierend auf einem fuzzy-linguistischen formalen Kontext konstruieren wir ein fuzzy-linguistisches Konzeptgitter mit mehreren Experten, um linguistische Bewertungsinformationen mit mehreren Experten zu verarbeiten. Um das Szenario anzugehen, dass die Gewichte der Experten unbekannt sind, präsentieren wir eine Maximierungsabweichungsmethode im fuzzy-linguistischen formalen Kontext mit mehreren Experten durch die Distanz der linguistischen Bewertungsmatrix. Darüber hinaus entwickeln wir einen linguistischen Aggregationsoperator von fuzzy-linguistischen Konzeptgittern mit mehreren Experten, um die Assoziationsregeln zu erhalten. Um das Problem der fehlenden Informationen zu lösen, wird eine neue linguistische Vervollständigungsmethode vorgeschlagen, die Ähnlichkeit und durchschnittliche Differenz verwendet, die die linguistischen Bewertungsinformationen kompakter und die Entscheidungsergebnisse vernünftiger machen kann. Die Wirksamkeit und Praktikabilität unserer Methode validieren wir an einem intuitiven Beispiel multimedialer Lehrevaluation.;-;-;-;https://link.springer.com/article/10.1007/s11042-019-7669-2 f9d6e666320a20611a37a6225cc99e80;de;;;7.2.;;;Eye-Tracking enthüllt die persönlichen Stile für die Auswertung der Suchergebnisse Mit Eye-Tracking haben wir 28 Nutzer bei der Auswertung von Ergebnislisten von Websuchmaschinen untersucht. Basierend auf ihren unterschiedlichen Bewertungsstilen wurden die Benutzer in;-;-;-;https://link.springer.com/chapter/10.1007/11555261_104 4c87528155d331914bd89a0237f6fc64;de;;;7.1.;;;Verkehrssystemmodellierung als Planung, Organisation und Management für mit ITS erstellte Lösungen Die wichtigsten Modelle, die bei Verkehrsanalysen und -prognosen im Verkehrssystem verwendet werden, werden in dem Papier besprochen. Weiterhin wird mit Blick auf das weitere Wachstum des Autoverkehrs und der Mobilität der Bürger auf die Notwendigkeit des Einsatzes von ITS-Lösungen sowie der Verkehrsmodellierung als konsequenter Ansatz für die Stauproblematik in Städten und Ballungsräumen hingewiesen. Als Beispiel wird eine Verkehrsstörung angeführt, die zu Behinderungen und gefährlichen Zwischenfällen an einem lokalen Standort mit Kapazitätsbeschränkung in einer knoteninternen Weberei in Katowice (Oberschlesischer Ballungsraum in Polen) führte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24660-9_32 b7ca3df78ecc78ea752982e48089a9b5;de;;;7.2.;;;GPX: Ad-hoc-Abfragen und automatisierte Link-Erkennung in der Wikipedia Die Auswertung von INEX 2007 basierte auf der Wikipedia-Sammlung. In diesem Artikel beschreiben wir einige Modifikationen an der GPX-Suchmaschine und die Vorgehensweise in den Ad-hoc- und Link-the-Wiki-Tracks. In früheren Versionen von GPX wurden Scores rekursiv von Text mit Knoten über Vorfahren bis hin zum Dokumentenstamm des XML-Baums weitergegeben. In diesem Papier beschreiben wir eine Vereinfachung, bei der der Score jedes Knotens direkt berechnet wird, wodurch der Score-Propagation-Mechanismus entfällt. Die Ergebnisse zeigen eine leicht verbesserte Leistung. Die GPX-Suchmaschine wurde im Link-the-Wiki-Track verwendet, um potenzielle eingehende Links zu neuen Wikipedia-Seiten zu identifizieren. Wir beschreiben auch einen einfachen und effizienten Ansatz zur Identifizierung potenzieller ausgehender Links in neuen Wikipedia-Seiten. Wir präsentieren und diskutieren Evaluationsergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85902-4_34 ef39a9f08e3b0bf659731d8385b7b369;de;;;7.2.;;;Personalisierte Reiseinformationen für das E-Tourismus-Empfehlungssystem basierend auf dem Bayes-Theorem Dieses Papier stellt das personalisierte Empfehlungssystem für den E-Tourismus vor, indem statistische Techniken basierend auf dem Bayes-Theorem verwendet werden, um das Benutzerverhalten zu analysieren und Reisen an bestimmte Benutzer zu empfehlen. Das System wird unter Verwendung von Recall, Precision und F-measure bewertet. Die Ergebnisse zeigen, dass es möglich ist, ein Personalisierungsempfehlungssystem zu entwickeln. Frühere und aktuelle Informationen über das Verhalten von Kunden werden verwendet, um Produkte und Dienstleistungen zu empfehlen, die am besten zu relevanten Kunden im E-Tourismus passen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-76312-5_53 7ef0875595e25c62c4d2754b16f8a8a8;de;;;7.2.;;;Verwendung von Wikipedia-Ankertext und gewichtetem Clustering-Koeffizienten zur Verbesserung der traditionellen Zusammenfassung mehrerer Dokumente Ähnlich wie beim traditionellen Ansatz betrachten wir die Aufgabe der Zusammenfassung als Auswahl der am besten bewerteten Sätze aus gerankten Satzclustern. Um dieses Ziel zu erreichen, ordnen wir die Satzcluster ein, indem wir die Wichtigkeit von Wörtern verwenden, die unter Verwendung des Seitenrangalgorithmus auf einem umgekehrt gerichteten Wortgraphen von Sätzen berechnet werden. Um die Sätze in jedem Cluster einzuordnen, führen wir als nächstes die Verwendung des gewichteten Clustering-Koeffizienten ein. Wir verwenden den Page-Rank-Score von Wörtern zur Berechnung des gewichteten Clustering-Koeffizienten. Schließlich ist das wichtigste Problem das Vorhandensein vieler verrauschter Einträge im Text, was die Leistung der meisten Text-Mining-Algorithmen herabsetzt. Um dieses Problem zu lösen, führen wir die Verwendung des auf Wikipedia-Ankertexten basierenden Phrasen-Mapping-Schemas ein. Unsere experimentellen Ergebnisse zu den Datensätzen DUC-2002 und DUC-2004 zeigen, dass unser System besser abschneidet als unbeaufsichtigte Systeme und besser als/vergleichbar mit neuartigen überwachten Systemen in diesem Bereich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28601-8_33 a887421bd905c513b3ab34274147698d;de;;;7.2.;;;Probabilistische Dokumentenlängenprioritäten für Sprachmodelle Dieses Papier befasst sich mit der Frage der Entwicklung eines neuen Dokuments für den Sprachmodellierungsansatz (LM) für den Informationsabruf. Der Prior basiert auf Begriffsstatistiken, die probabilistisch abgeleitet wurden und eine neue Art der Betrachtung der Dokumentlänge darstellen. Darüber hinaus haben wir eine neue Methode entwickelt, um die Priors der Dokumentlänge mit der Schätzung der Abfragewahrscheinlichkeit zu kombinieren, die auf dem Risiko basiert, letztere als Score zu akzeptieren. Dieses frühere Verfahren wurde mit einem Sprachmodell zum Wiederauffinden von Dokumenten kombiniert, das Jelinek-Mercer (JM) verwendet, eine Glättungstechnik, die die Dokumentlänge nicht berücksichtigt. Die Kombination des Priors steigert die Wiedergewinnungsleistung, so dass er einen LM mit einer dokumentlängenabhängigen Glättungskomponente (Dirichlet-Prior) und einer anderen hochleistungsfähigen Bewertungsfunktion (BM25) des Standes der Technik übertrifft. Die Verbesserungen sind signifikant und robust über verschiedene Sammlungen und Abfragegrößen hinweg.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78646-7_36 9e3deb507e2675dd4a3c3286accd0b4b;de;;;7.2.;;;Ein Ansatz zum Extrahieren und Disambiguieren der Namen arabischer Personen mithilfe von Clustered Dictionarys und Scored Patterns Der Aufbau eines Systems zum Extrahieren arabischer benannter Entitäten ist aufgrund der Mehrdeutigkeit und Struktur des arabischen Textes eine komplexe Aufgabe. Frühere Ansätze, die das Problem der Erkennung arabischer benannter Entitäten angegangen sind, stützten sich stark auf arabische Parser und Tagger in Kombination mit einer großen Anzahl von Gazetteern und manchmal großen Trainingssätzen, um das Mehrdeutigkeitsproblem zu lösen. Diese Ansätze sind zwar auf modernen Standardarabisch (MSA) anwendbar, können jedoch nicht mit umgangssprachlichem Arabisch umgehen. Angesichts der rapiden Zunahme der Online-Nutzung sozialer Medien durch arabischsprachige Personen ist es wichtig, ein Erkennungssystem für arabische benannte Entitäten aufzubauen, das sowohl umgangssprachliche arabische als auch MSA-Texte behandelt. Dieses Papier stellt einen Ansatz zum Extrahieren der Namen arabischer Personen vor, ohne arabische Parser oder Tagger zu verwenden. Die Evaluierung des vorgestellten Ansatzes zeigt, dass er eine hohe Präzision und ein akzeptables Erinnerungsniveau bei einem Benchmark-Datensatz erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38824-8_17 a9086596746701aa39fd9c55c7a74bc0;de;;;7.2.;;;Ein konzeptbasierter Textanalyseansatz mit Knowledge Graph Die großen Mengen und die Zunahme unstrukturierter Texte, die im Internet und in anderen Szenarien verfügbar sind, werden zu einer sehr wertvollen Informations- und Wissensquelle. Die vorliegende Arbeit beschreibt einen konzeptbasierten Textanalyseansatz, der auf der Verwendung eines Wissensgraphen zur Strukturierung des Textinhalts und einer Abfragesprache zum Abrufen relevanter Informationen und Wissensgewinnung aus dem automatisch generierten Wissensgraphen basiert. Im Abfrageprozess wird ein semantisches Analyseverfahren zum Suchen und Integrieren der konzeptionellen Strukturen aus dem Wissensgraphen angewendet, das durch einen Disambiguierungsalgorithmus und WordNet unterstützt wird. Die Anwendbarkeit des vorgeschlagenen Ansatzes wurde bei der Analyse wissenschaftlicher Artikel aus einem systematischen Literaturreview bewertet und die Ergebnisse den Schlussfolgerungen der Autoren dieses Reviews gegenübergestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-91476-3_57 04d102fa3a8d962d100a4d8349d1541a;de;;;7.2.;;;Stimmungsanalyse mit semantischer Ähnlichkeit und Hadoop MapReduce Sentiment Analysis oder Opinion Mining ist eine Domäne, die die Meinungen, Gefühle, Bewertungen, Einstellungen und Emotionen von Menschen aus einer geschriebenen Sprache analysiert Twittern. In diesem Artikel schlagen wir zwei neue Ansätze vor, um die Tweets zu klassifizieren (achten Sie auf das im Tweet ausgedrückte Gefühl), den ersten nach drei Klassen: negativ, positiv oder neutral und den zweiten nach zwei Klassen: negativ oder positiv. Unsere erste Methode besteht darin, die semantische Ähnlichkeit zwischen dem zu klassifizierenden Tweet und drei Dokumenten zu berechnen, wobei jedes Dokument eine Klasse darstellt (enthält die Wörter, die eine Klasse darstellen). der größte Wert der semantischen Ähnlichkeit mit ihm. Und die zweite Methode besteht darin, die semantische Ähnlichkeit zwischen jedem Wort des zu klassifizierenden Tweets und den Wörtern „positiv“ und „negativ“ zu berechnen, indem eine neue Formel vorgeschlagen wird. Wir entscheiden uns, die Analyse parallel und verteilt durchzuführen, indem wir das Hadoop-Framework mit dem Hadoop Distributed File System (HDFS) und dem Programmiermodell MapReduce verwenden, um das Problem der Berechnungszeit der Analyse zu lösen, wenn der Datensatz der Tweets sehr groß ist groß. Ziel unserer Arbeit ist es, zwischen mehreren Domänen, dem Information Retrieval, semantic Ähnlichkeit, Opinion Mining oder Sentiment Analysis und Big Data zu kombinieren.;-;-;-;https://link.springer.com/article/10.1007/s10115-018-1212-z a232e0606b5a999597ee2771a72b3e5d;de;;;7.2.;;;Semantik beim inhaltsbasierten Multimedia Retrieval Dieser Beitrag untersucht die Methoden der inhaltsbasierten Merkmalsextraktion beim Visual Information Retrieval und konzentriert sich dabei auf Konzepte, die zur semantischen Repräsentation von Medieninhalten verwendet werden. Der Hintergrundteil beschreibt die Bausteine ​​der Funktionen zur Merkmalsextraktion. Da zahlreiche Methoden vorgeschlagen wurden, konzentrieren wir uns auf die Metakonzepte. Die Bausteine ​​führen zu einer Diskussion von Ansatzpunkten für die semantische Anreicherung von Low-Level-Features. Im zweiten Teil werden Features aus der Perspektive der Datenqualität betrachtet. Eine Fallstudie zu inhaltsbasierten MPEG-7-Funktionen veranschaulicht die Relativität von Begriffen wie „Low-Level“, „High-Level“ und „Semantik“. Beispielsweise bedeutet mehr Semantik oft nur mehr Redundanz. Der letzte Teil skizziert die Anwendung von Features in Retrieval-Szenarien. Die Ergebnisse einer Fallstudie legen nahe, dass – auch aus Sicht des Retrievals – „semantische Anreicherung von Low-Level-Features“ ein teilweise fragwürdiges Konzept ist. Die Leistung des klassifikationsbasierten Abrufs hängt anscheinend kaum vom Kontext der Merkmale ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77473-0_8 5c960511c9e83f70fab6273da8453ed9;de;;;7.1.;;;Fernerkundungsanwendung in der Wasserressourcenplanung Fernerkundungsbasierte Satellitendaten und Verarbeitungswerkzeuge als Teil von Geographischen Informationssystemen (GIS) werden in vielen Disziplinen der Geowissenschaften, insbesondere des Wasserressourcenmanagements, eingesetzt. Das Abrufen von Geodaten und die Verarbeitungstechnologie erfordern systematische Kenntnisse und Erfahrungen für eine effektive Nutzung, die die Hauptmotivation dieses Kapitels ist. Feldarbeiten in großen Bereichen und die Installation von Messgeräten waren mühsam und kostspielig. Sogar die entwickelten Länder begannen aufgrund der hohen Wartungskosten, Messgeräte zur Messung von Eddy-Kovarianz und anderen meteorologischen Variablen zu entfernen. Stattdessen investieren sie in Satellitentechnologien und Radarsysteme. Heute haben die meisten Feldarbeiten und die konventionelle Punktdatenerfassung ihren Platz der Verarbeitung synoptischer Satellitenbilder mit Open-Source-GIS-Tools eingeräumt. Der Einsatz von Spektralindikatoren und Fernerkundungstechnologien zur Kontrolle und Überwachung der Wasserqualität und -menge von Flüssen, Stauseen und Grundwasser war sehr kosteneffektiv. Verschiedene Variablen, die die Wasserqualität aus der Ferne messen können, sind Salzgehalt, suspendierte Sedimente, Wasserfarbe, Ausmaß der Ölpest und Eutrophierung, wachsendes Phytoplankton und Algenblüte. Auch die Abschätzung von Landbedeckung und Landnutzung, tatsächliche Evapotranspiration, Landoberflächentemperatur, Abfluss, Erstellung von Hochwasserkarten, Bestimmung von Schneebedeckung und Tiefenänderungen können von Fernerkundungs-basierten Satellitendaten und GIS-Technologie profitieren. Um in den physikalischen Wissenschaften arbeiten zu können, sind Grundkenntnisse in Fernerkundung und geografischen Informationssystemen (GIS) erforderlich, da diese voneinander abhängig sind. Zunächst werden Basisdaten gesammelt und dann von Sensoren von Fernerkundungssatelliten anhand unterschiedlicher Farbspektren oder aufgezeichneter thermischer Eigenschaften verarbeitet. Dies führt zur Erstellung von Rohdatenbanken, die in GIS verarbeitet werden, um die Daten zu verbessern und das Informationsmanagement zu nutzen und die Schichtzusammensetzung zu speichern. Modellierung, Erstellung von Ausgabekarten und räumliche Analyse sind mit GIS-Tools wie gdal, pyproj, pymodis-Bibliotheken in Python-Sprache und 3D-Datenspeicherung im gängigen Datenformat (netCDF) sehr schnell und genau. GIS ist ein sehr leistungsfähiges Managementwerkzeug für Planer und Designer, um geeignete Land- und Wassermanagementstrategien zu entwickeln. Da Fernerkundung und GIS tiefe und umfangreiche Quellen sind, erfordert das Studium der Prinzipien und Methoden eine strukturierte Zusammenfassung der Grundlagen und relevanten Anwendungen im Bereich der Wasserwirtschaft und des Ingenieurwesens.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4295-8_5 b4df086f91376748b74eb24385ab2ae9;de;;;7.1.;;;Entwicklung von Informationssystemen als Aktivität Die Entwicklung von Informationssystemen (ISD) wird in diesem Papier als eine systemische Arbeitsaktivität analysiert, wobei die Aktivitätsanalyse und Entwicklung (ActAD) als theoretischer Rahmen verwendet wird. ISD wird hier als der Prozess verstanden, durch den durch Analyse, Gestaltung, Umsetzung, Einführung und nachhaltige Unterstützung sowie Prozessmanagement eine gewisse kollektive Arbeitstätigkeit mit neuen informationstechnischen Mitteln erleichtert wird. Es handelt sich um eine temporäre, grenzüberschreitende Aktivität, die ihre Akteure, Mittel, Regeln etc. von zwei Seiten bezieht – typischerweise einem Softwareunternehmen und der IS-Nutzerorganisation. ISD wird auch als Teil eines Netzwerks von Aktivitäten rund um die Softwareentwicklung und eine computergestützte Nutzungsaktivität analysiert. Ein theoretischer Rahmen und eine pragmatische Checkliste werden für das Studium der ISD-Aktivitäten vorgestellt. Es wird argumentiert, dass der tätigkeitstheoretische Rahmen ein theoretisch fundiertes, aber detailliertes und praktikables Verfahren bietet, um ISD als Arbeitstätigkeit im Kontext zu studieren.;-;-;-;https://link.springer.com/article/10.1023/A%3A1015252806306 2b3c6258a1d71a89f039513fcc6cd6a4;de;;;7.1.;;;EMISARI: Ein Management-Informationssystem zur Unterstützung und Einbeziehung von Menschen Das in dem Papier beschriebene EMISARI-System stellt eine wesentliche Abweichung vom herkömmlichen MIS-Design dar. Sie orientiert sich nicht an Daten an sich, sondern an den Aktivitäten der Personen, die die Daten generieren und nutzen. Somit sorgt es nicht nur für die Berichterstattung entlang der Befehlskette, sondern auch für die Verbreitung von Richtlinien und Referenzmaterial entlang der Kette sowie für die seitliche Kommunikation zwischen allen Benutzern. Es legt großen Wert auf Flexibilität, um schnelle Systemänderungen als Reaktion auf Änderungen der Benutzerfunktionen und -bedürfnisse zu ermöglichen, und bietet eine stark vereinfachte Bedienung, um umfangreiche Benutzerschulungen oder komplexe Bedienungsanleitungen zu vermeiden. Der Gesamtansatz kann als eine stark modernisierte Version des klassischen Telefonanschlusses betrachtet werden, bei der ein Computer verwendet wird, um einen ständigen Fluss von Statistiken, Nachrichten, Schätzungen, Referenzmaterialien, Richtlinien, Mitteilungen, und andere Informationseinrichtungen eines modernen Managementbetriebs.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-2694-6_13 488dfa13df60fd189be2fa3b6f76807d;de;;;7.1.;;;Der Weg vom Geschäftsmodell zum Technologiemanagement Heutzutage spielen das Internet und webbasierte E-Business-Lösungen eine entscheidende Rolle bei der Gestaltung und Umsetzung neuer Geschäftsmodelle. Dies birgt hohe Chancen, aber auch beachtliche Risiken für Unternehmen, die sich für ein neues Geschäftsmodell entscheiden, um neue Technologiepotenziale zu erschließen. Tatsächlich würde die Implementierung eines strategisch nicht geeigneten Geschäftsmodells oder die Definition eines inkonsistenten Technologieportfolios den langfristigen Erfolg eines Unternehmens entscheidend untergraben. Daher besteht im Bereich des methodischen Business Modelling klarer Handlungsbedarf. Wir präsentieren einen neuen Ansatz für eine kundenorientierte E-Business-Modellierung mit besonderem Augenmerk auf interorganisationale Kooperationsnetzwerke und Re-Intermediation sowie auf Technologiemanagement in verteilten Fertigungsnetzwerken. Der Ansatz wurde im Designprozess eines Informationsdienstleisters validiert, dessen Ziel die Unterstützung eines Kooperationsnetzwerks in der deutschen Fertigungsindustrie ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35698-3_24 bc6ac7a87a9a79b8cc124dd02ca60b39;de;;;7.2.;;;Semantisches Ähnlichkeitsmaß polnischer Substantive basierend auf sprachlichen Merkmalen Eine automatisch aus einem Textkorpus extrahierte Wort-zu-Wort-Ähnlichkeitsfunktion kann ein sehr hilfreiches Werkzeug bei der automatischen Extraktion lexikalischer semantischer Beziehungen sein. Es gibt viele Ansätze für Englisch, aber nur wenige für flektive Sprachen mit fast freier Wortstellung. In der Arbeit wird eine Methode zur Konstruktion einer Ähnlichkeitsfunktion für polnische Nomen vorgeschlagen. Die Methode verwendet nur einfache Werkzeuge zur Sprachverarbeitung (z. B. erfordert sie die Anwendung eines Parsers). Der Kern ist die Konstruktion einer Matrix von gemeinsamen Vorkommen von Substantiven und Adjektiven auf der Grundlage der Anwendung morphosyntaktischer Zwangsbedingungen, die die Übereinstimmung zwischen einem Adjektiv und einem Substantiv testen. Es werden mehrere Methoden zur Transformation der Matrix und Berechnung der Ähnlichkeitsfunktion vorgestellt. Die erreichte Genauigkeit von 81,15% im WordNet-basierten Synonymietest (für 4 611 polnische Nomen, unter Verwendung der aktuellen Version des polnischen WordNet) scheint mit den besten Ergebnissen für Englisch vergleichbar zu sein (z.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72035-5_29 8bc7061c33361dcda76f029e2bf93096;de;;;7.1.;;;Integration des Kompetenzmanagements in ein gekoppeltes Projekt-System-Design-Management Kompetenzmanagement ist in letzter Zeit zu einem wichtigen Thema in Unternehmen geworden. Eng verwandt mit dem Wissensmanagement, betrachtet es die Leistungsfähigkeit eines Individuums, indem es sein Wissen nutzt. Dieses Wissensmanagement wird für Unternehmen zu einem Werkzeug, um langfristig die Personalressourcen zu managen. Die Fähigkeit, nützliche Kompetenzen zu charakterisieren, zu bewerten, wie sie durch bisherige Erfahrungen und aufeinanderfolgende Tätigkeiten verbessert werden, und somit Projektteammitglieder nach ganz oder teilweise vorhandenen Fähigkeiten auszuwählen, sind einige der Anliegen, denen sich Unternehmensleiter stellen müssen. Dieses Papier konzentriert sich auf die Koordination von Designaktivitäten, um ein Werkzeug für Projektmanager auf operativer Ebene vorzuschlagen, um Fähigkeiten für eine bessere Teambildung zu verwalten. Ziel ist es, die Teamleistung kurz- und langfristig zu verbessern und gleichzeitig die Verbindung zur Personalabteilung zu erhalten. Unsere Arbeit basiert auf den Ergebnissen des ATLAS-Projekts, das die Kopplung zwischen Systemdesign und Management untersucht. Wir schlagen ein erstes Werkzeug vor, um Fähigkeiten in einem Designprojekt zu verwalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40352-1_79 8b31bb1f54ccec66a9e58bd1b44ae02f;de;;;7.1.;;;Energiesimulation zur Integration virtueller Kraftwerke in die Produktionsplanung Deutschland treibt seine Energiewirtschaft hin zu erneuerbaren Energiequellen, was zu einer Zunahme der dezentralen Energieerzeugung führt. Daher wird die Energieversorgung immer stärker schwanken und Unternehmen müssen auf höhere und volatile Preise sowie auf ein schwankendes Energieangebot reagieren. Eine Reaktion besteht darin, diese sich ändernden Preise und das Angebot an Energie in der Produktionsplanung und -steuerung (PPC) reaktiv zu berücksichtigen. PPC fungiert somit als Steuereinheit, um die volatile Energieversorgung in den Produktionsprozess zu integrieren. In diesem Beitrag wird ein Szenario betrachtet, bei dem ein virtuelles Kraftwerk (VPP) verschiedene Arten der dezentralen Energieerzeugung kombiniert. Anhand einer Energiesimulation wird dann demonstriert, wie schwankende Energiepreise innerhalb von PPC berücksichtigt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44736-9_12 859fc15783d9f3697d50c8e142a7a8a2;de;;;7.1.;;;Semantische Integration von Unternehmensinformationssystemen mittels Meta-Metadaten-Ontologie Dieser Beitrag schlägt eine nicht-domänenspezifische Metadaten-Ontologie als Kernkomponente in einem semantischen modellbasierten Dokumentenmanagementsystem (DMS) vor, einem potentiellen Konkurrenten für die Unternehmensinformationssysteme der nächsten Generation. Was wir entwickelt haben, ist die semantische Kernkomponente eines ontologiegesteuerten DMS, die eine robuste semantische Basis für die Beschreibung der Metadaten von Dokumenten bietet. Wir haben auch semantische Dienste wie die automatisierte semantische Übersetzung von Metadaten von einer Domäne in eine andere aktiviert. Die semantische Kernbasis besteht aus drei semantischen Schichten, von denen jede eine andere Sicht auf die Metadaten von Dokumenten bietet. Die Basisschicht der semantischen Kernkomponente stellt eine nicht domänenspezifische Metadaten-Ontologie dar, die auf der ebRIM-Spezifikation basiert. Der Hauptzweck dieser Ontologie besteht darin, als Meta-Metadaten-Ontologie für andere domänenspezifische Metadaten-Ontologien zu dienen. Die semantische Basisschicht bietet eine generische Metadatenansicht. Um domänenspezifische Ansichten der Metadaten von Dokumenten zu ermöglichen, haben wir zwei domänenspezifische Metadaten-Ontologien implementiert, die semantisch über ebRIM geschichtet sind und domänenspezifische Ansichten der Metadaten bereitstellen. Um eine semantische Übersetzung von Metadaten von einer Domäne in eine andere zu ermöglichen, haben wir durch Einführung von SWRL-Regeln Modell-zu-Modell-Zuordnungen zwischen diesen semantischen Schichten etabliert. Die Automatisierung der semantischen Übersetzung von Metadaten ermöglicht nicht nur den mühelosen Wechsel zwischen verschiedenen Metadatenansichten, sondern öffnet auch die Tür zur Automatisierung des Prozesses der Langzeitarchivierung von Dokumenten. Für die Fallstudie wählten wir den Rechtsbereich als vielversprechenden Grund für die Verbesserung der Effizienz der Justiz durch die Einführung der Semantik in diesem Bereich.;-;-;-;https://link.springer.com/article/10.1007/s10257-015-0303-6 4e701cf131e7c036ed3e6e4257f71d54;de;;;7.1.;;;Rekonfigurierbare Lieferketten: Ein integriertes Framework Die Bedeutung des Supply Chain Managements nimmt zu, da Unternehmen mit der Notwendigkeit konfrontiert sind, den Kundenservice zu verbessern, was allein durch die Betrachtung einzelner Organisationen nicht möglich ist. Dieser Bedarf wurde durch steigende Kundenerwartungen, einen wachsenden globalen Wettbewerb und technologische Entwicklungen angetrieben, die gemeinsam zu größerer Unsicherheit und Volatilität der Unternehmensführungsprozesse beigetragen haben. Wie in den vorherigen Kapiteln beschrieben, bleibt die Konfiguration der Lieferkette, die das Rückgrat des Lieferkettenmanagements bildet, jedoch eine langfristige Entscheidung, die die Fähigkeit der Lieferkette einschränkt, auf sich ändernde Kundenanforderungen und Betriebsumgebungen zu reagieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-68155-9_4 73ec6e369362d756b2a466cf579db9db;de;;;7.1.;;;Ein Framework für ein Entscheidungsunterstützungssystem in einem hierarchischen erweiterten Unternehmensentscheidungskontext Die Tools des Decision Support Systems (DSS) bieten Entscheidungsträgern nützliche Informationen. In einem Extended Enterprise führen ein neues Ziel, Änderungen der aktuellen Ziele oder kleine Änderungen in der erweiterten Enterprise-Konfiguration zu einer notwendigen Anpassung in seinem Entscheidungssystem. Ein DSS muss in diesem Kontext flexibel und agil sein, um eine einfache und schnelle Anpassung an diesen neuen Kontext zu ermöglichen. In diesem Papier wird vorgeschlagen, die Struktur der hierarchischen Produktionsplanung (HPP) auf einen erweiterten Entscheidungsfindungskontext des Unternehmens auszuweiten. Auf diese Weise wird ein Framework für DSS im Extended Enterprise Kontext unter Verwendung von Komponenten von HPP definiert. Die Interoperabilitätsdetails wurden überprüft, um die Auswirkungen in diesem Rahmen zu ermitteln. Das vorgeschlagene Framework ermöglicht es, einige Interoperabilitätsbarrieren zu überwinden, Komponenten für ein DSS im Extended Enterprise-Kontext zu identifizieren und zu organisieren und an der Definition einer Architektur zu arbeiten, die im Designprozess eines flexiblen DSS im Extended Enterprise-Kontext verwendet werden soll, die Komponenten für Futures wiederverwenden kann Erweiterte Enterprise-Konfigurationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04750-3_10 701632ce71bd72b90f7c114270a74795;de;;;7.1.;;;Transformation von PLM-Systemen in die Cyber-Physical Systems für die Informationsbereitstellung für das Unternehmensmanagement Der Artikel schlägt ein Konzept vor, das bestehende Product Lifecycle Management System (PLM-System) in ein Cyber-Physical System für die Produktion und das Management eines Unternehmens (im erweiterten Sinne dieses Begriffs) zu transformieren. Das Konzept basiert auf der Untersuchung der Interaktion von Produktentwicklungssystemen mit der Entscheidungsfindung über die Überführung relevanter Prozesse in einen automatisierten Digitalisierungsmodus. Bei der Umsetzung der Transformation eines PLM-Systems in ein Cyber-Physical System ist es notwendig, die Geschäftsprozesse des Unternehmens durch die Entwicklung geeigneter Modelle zu untersuchen, die im Papier kurz beschrieben werden. Eine solche Transformation, die auf der Einführung neuer Technologien basiert, kann als Grundlage für die Schaffung eines Cyber-Physical-Systems zur Verwaltung des gesamten Prozesslebenszyklus des Unternehmens von der Auftragsbestellung über die Organisation des Produktionsprozesses bis zur Produktlieferung und zum Support dienen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-34983-7_42 3a2931d8439360686f56dc6c2ba98bf5;de;;;7.1.;;;Reifegradbewertung von TOGAF ADM mit Hilfe von Enterprise Architecture Model Analysis and Description Logics Ein Reifegradmodell stellt einen Weg zu einer zunehmend organisierten und systematischen Geschäftstätigkeit dar. Es ist daher eine weit verbreitete Methode, die wertvoll ist, um bestimmte Aspekte von Organisationen, wie zum Beispiel Geschäftsprozesse, zu bewerten. Eine Reifegradbewertung kann es Stakeholdern ermöglichen, Stärken und Verbesserungspunkte klar zu identifizieren und Maßnahmen zu priorisieren, um höhere Reifegrade zu erreichen. Reifegradbewertungen können von einfachen Selbstbewertungsfragebögen bis hin zu umfassenden Bewertungsmethoden reichen, wie sie von der ISO/IEC TS 33030 oder der SEI SCAMPI empfohlen werden. Ein wesentlicher Vorbehalt dieser Bewertungen sind die Ressourcen, die sie umfassen. Darüber hinaus sind Benchmarks aufgrund der fehlenden Automatisierung oft nicht möglich. Unter der Annahme, dass die weite Verbreitung von Enterprise Architecture-Praktiken die Modellierung von Geschäftsbereichen zu einer Tatsache macht, und unter Berücksichtigung des jüngsten Stands der Technik bei der Darstellung dieser Modelle als Ontologien schlägt dieses Papier vor, wie vorhandene semantische Technologien zur Automatisierung von TOGAF ADM . verwendet werden können Reifegradbewertung von Organisationen durch Automatisierung der Analyse von Unternehmensarchitekturmodellen in ArchiMate.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37933-9_8 3d588061e46a9c117eae7d3ea5812e37;de;;;7.1.;;;Analyse von IT-Funktionslücken für das Wartungsmanagement Es wurden mehrere Studien durchgeführt, um die Funktionsweise und den Einsatz von computergestützten Instandhaltungsmanagementsystemen zu beschreiben. Ein wesentlicher Nachteil dieser Studien besteht darin, dass sie die tatsächliche Unterstützung für das Instandhaltungsmanagement nicht aufzeigen. Um die Gesamtsituation zu beschreiben, müssen die Lücken zwischen benötigter Unterstützung und tatsächlicher Unterstützung ermittelt werden. Es gibt zwei Arten von Lücken: 1) zwischen der im IT-System enthaltenen Funktionalität und der benötigten Funktionalität und 2) zwischen der im IT-System enthaltenen Funktionalität und der tatsächlich genutzten Funktionalität. Um ein besseres Verständnis des Einsatzes von IT im Instandhaltungsmanagement zu erlangen, müssen diese Lücken weiter untersucht werden. In diesem Beitrag untersuchen wir das Vorhandensein von Funktionslücken in IT-Anwendungen für das Instandhaltungsmanagement anhand von Daten aus einer webbasierten Fragebogenerhebung, die in der schwedischen Industrie durchgeführt wurde. Die Ergebnisse zeigen, dass die IT-Systeme im Allgemeinen eine gute Unterstützung des Instandhaltungsmanagements bieten und somit ein geringes Maß an Funktionslücken aufweisen. Die am häufigsten ungenutzte Funktion war jedoch die Analyse von Fehlerursachen und -folgen, und die am häufigsten ungenutzten Informationen waren Verbesserungsvorschläge für die Wartung. Beim Vergleich der Ergebnisse in Bezug auf die Art des verwendeten IT-Systems zeigten sich einige signifikante Unterschiede, die darauf hindeuten, dass ERP-Systeme und Produktionssysteme nicht alle erforderlichen Informationen für das Instandhaltungsmanagement enthalten. Der nächste Schritt wird darin bestehen, die Gründe für die Unterschiede in den Lücken durch die Durchführung zusätzlicher Interviews weiter zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-85729-320-6_48 4aab165b2bc4cdd741c0114a35b566c8;de;;;7.1.;;;Organisationen als Praxissysteme Es besteht ein allgemein anerkannter Bedarf an einer breiten organisatorischen Perspektive auf Informationssysteme und die Entwicklung solcher Systeme. Der Beitrag befasst sich mit einer Perspektive auf Organisationen als Praxissysteme. Ein generisches Modell der Organisationspraxis wird vorgestellt. Dieses Modell basiert theoretisch auf einer Diskussion verschiedener Organisationsphänomene wie Wissen, Artefakte, Zeichen, Geschäftsprozesse und Koordination. Das Modell ist eine kontextualisierte Beschreibung einer organisatorischen Praxis, die Akteure, Handlungen, Beziehungen und Handlungsobjekte (Voraussetzungen/Ergebnisse) hervorhebt. Es erkennt verschiedene Dimensionen organisatorischen Handelns als vertikale und horizontale Koordination und horizontale Transformation an. Ein Schlüsselkonzept des Modells ist die organisatorische Fähigkeit. Eine solche Fähigkeit besteht aus individuellem und intersubjektivem Wissen, Artefakten und Organisationsbeschreibungen (Zeichen) als umsetzbare Vermögenswerte. Auch das organisationale Lernen durch die Assimilation von Handlungserfahrungen wird anerkannt. Das generische Modell kann als Grundlage für die Erstellung von Geschäftsdefinitionen verwendet werden, was in der IS-Planung und IS-Entwicklung von großer Bedeutung ist. Die Verwendung einer Unternehmensdefinition wird anhand einer Fallstudie zur Unternehmens- und IS-Entwicklung in einer kommunalen Altenpflegeeinrichtung veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35611-2_4 c33c2768743725d31e28e2b8720f2b0d;de;;;7.1.;;;Ein flexibles Werkzeug für die annahmebasierte Benutzermodellierung Das Ziel dieses Beitrags ist es, eine neue flexible Universal-Shell namens UMT2 (User Modeling Tool 2) vorzustellen, die den Design- und Entwicklungsprozess von Benutzermodellierungsanwendungen unterstützt und eine originelle Strategie für die Ausführung der Modellierungsaktivität in einer nicht monotonen Weg. Genauer gesagt verwendet UMT2 einen Modellierungsansatz, der als annahmebasierte Benutzermodellierung bezeichnet wird und einen ATMS-ähnlichen Mechanismus zum Aufrechterhalten der Konsistenz des Benutzermodells nutzt. Die Modellierungsaufgabe ist somit in zwei getrennte Aktivitäten unterteilt, von denen eine der Benutzerklassifizierung und der Benutzermodellverwaltung gewidmet ist und die andere der Konsistenzpflege der Modelle gewidmet ist. Modellierungswissen wird durch Stereotype und Produktionsregeln repräsentiert. Der ATMS-Mechanismus ist in der Lage, zu jedem beliebigen Zeitpunkt während einer Interaktion alle möglichen alternativen Modelle zu identifizieren, die intern konsistent sind. Die Wahl des plausibelsten unter ihnen erfolgt dann nach einem Verfahren, das ein explizites Präferenzkriterium ausnutzt. UMT2 zeichnet sich außerdem durch eine sehr gut definierte und einfach zu bedienende Schnittstelle zur restlichen Anwendung aus, sowie durch eine spezialisierte Entwicklungsschnittstelle, die den Wissensingenieur beim Aufbau spezifischer Anwendungen unterstützt. UMT2 wurde in CLOS Common LISP entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-54712-6_259 8abbafe72fd6f0e48ff22edcb03d1faf;de;;;7.1.;;;Akteursnetzwerktheorie im interpretativen Forschungsansatz Zu den Hauptkomponenten von Informationssystemen gehören Menschen, Prozess- und Technologieinfrastruktur. In vielen Studien werden diese Komponenten oft aus sozio-technischen Perspektiven betrachtet und untersucht. Dies liegt vor allem an der Kritikalität menschlichen Handelns. Die Komplexität und der Unterschied, den Menschen bei der Entwicklung und Implementierung von Informationssystemen mit sich bringen, werden nicht einfacher. Daher die Zunahme von Studien im Bereich der Informationssysteme.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38862-0_41 91d55ad9051cdd7a4d89cebc9705d9bd;de;;;7.1.;;;Virtuelle Lernfabrik zur VR-gestützten Fabrikplanung Learning Factories werden immer beliebter, um ingenieurwissenschaftliche Methoden greifbar zu lehren und gleichzeitig in einem industrieähnlichen Umfeld einzusetzen. ? Ihre Kernkomponente ist normalerweise ein Fabrikdemonstrator, mit dem die Benutzer physisch arbeiten. Für die Fabrikplanung sind solche Ansätze aufgrund langwieriger Realisierungsphasen kaum adaptierbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44745-1_45 a4bd259e05aac0c0d05010901fea2c0b;de;;;7.1.;;;Terminplanung als prozessorientierte Entscheidungsfindung Das Ziel dieses Kapitels ist es, einen Scheduling-Prozess hinsichtlich der Entscheidungsfindung zu analysieren und zu klassifizieren, welche Art von Entscheidungsunterstützung am besten geeignet ist, um einen bestimmten Typ von Scheduling-Problem zu unterstützen. Obwohl wir uns in erster Linie auf die Flugplanung von Fluggesellschaften konzentrieren, gilt die Diskussion auch für viele andere Anwendungen der Flugplanung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08316-0_5 6b3fa6626e3d0d454d98d9a4a869ff9f;de;;;7.1.;;;Netzwerkplanung für Multicast mit partitionierten virtuellen Benutzerdomänen Wir stellen einen neuen Netzwerkplanungsansatz für das Management von Multicast-Kommunikation in großen Datenverbreitungsnetzwerken vor. Unser Ansatz, Adressierung;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75869-3_10 3d35271a8fd3a4c51f79ad1cfdfd7cd7;de;;;7.1.;;;Fallstudie zur Projektrisikomanagementplanung basierend auf der Soft-System-Methodik In diesem Papier wurden die weichen Systemeigenschaften von Bauprojekten und die Anwendbarkeit bei der Verwendung der Soft System Methodology (SSM) für die Risikoanalyse nach einem kurzen Überblick über SSM analysiert. Am Beispiel eines Wasserkraftprojekts konstruierte es den Rahmen der Projektrisikomanagementplanung (PRMP) und etablierte das Risikomanagementplanungssystem (RMP) im Sinne der Koordination. Dieses Papier lieferte die Ideen und Methoden für den Bau von RMP unter der Win-Win-Situation durch die Praxis von SSM.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02298-2_6 f0bde4d1a9c2b7bd1b3b6d8f8d29de86;de;;;7.1.;;;Der Datenbankdesignprozess in HERM Informationstechnik und Steuerung sind die Hauptanwendungen von ER-Modellen. Aus dieser jungen Disziplin der Informatik wird nun eine Theorie, mit der sich praktische Probleme lösen lassen. Dieser Teil des Buches soll zeigen, wie die ER-Technologie auf die Entwicklung von Datenbankentwurfsmethoden und Datenbankentwurfsstrategien angewendet werden kann. Wir vergleichen diese Theorie mit klassischen Ansätzen, die hauptsächlich für relationale Datenbankmodelle entwickelt wurden. Darüber hinaus diskutieren wir, wie Information Engineering durch Toolboxen unterstützt werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-04058-4_9 9d77bfd2c144c151508e87d287c92cf6;de;;;7.1.;;;Roadmap für das Fuzzy-Frontend Nachdem eine gemeinsame Basis in Bezug auf Terminologie und Klassifikation von Innovation geschaffen wurde, ist es notwendig, das Verständnis der frühen Phasen des Innovationsmanagements zu vereinheitlichen. Diese Periode wird als . bezeichnet;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-9920-7_2 a095efc4ae8f8f2067cc7649fcd7a253;de;;;7.1.;;;Umweltverträglichkeitsprüfung – Stand der Technik Die Umweltverträglichkeitsprüfung (UVP) ist jetzt 44 Jahre alt (beginnend am 1. Januar 1970, als Präsident Richard Nixon den National Environmental Policy Act in den USA unterzeichnete). Die UVP ist ein systematischer Ansatz zur Identifizierung und Bewertung positiver und negativer Auswirkungen auf Umweltkomponenten, die sich aus der Umsetzung von Infrastrukturprojekten oder -richtlinien ergeben können (Petts 1999, Wang et al. 2006, Gilbuena et al. 2013). UVP ist ein obligatorischer Prozess vor der Genehmigung von Infrastrukturprojekten mit erheblichen Auswirkungen auf die Umwelt (Tamura et al. 1994), wie Straßen (Zhou und Sheate 2011), Wasserversorgungssysteme (Al-agha und Mortaja 2005) und Hochwasserschutzbauten ( Ludwig et al., 1995). Hochwasserschutzbauten (FPS) wurden im Laufe der Jahrhunderte geschaffen, um Hochwasserschäden zu mindern (Poulard et al. 2010, Gilbuena et al. 2013).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-52150-3_1 32940e1b82d03252acf547fd02a8995b;de;;;7.1.;;;Die Allgegenwart und Nützlichkeit des Widerstands: Codesign und Personalisierung von Informationssystemen Bei der Bewertung der positiven und negativen Konnotationen der Allgegenwart favorisiert dieser Beitrag die Assoziation mit Zusammenleben und der Domestikation von Technologie statt Kolonisierung und Herrschaft. Unvorhergesehene Reaktionen der Benutzer auf die Technologie werden oft als Widerstand dargestellt. Trotz seiner Allgegenwart bleibt Widerstand ein vernachlässigtes Thema in der Informationssystemforschung, und der Glaube an die Technologie als „den einzig wahren Weg“ zur Lösung eines Problems führt dazu, dass sie oft dämonisiert wird. Die Erkenntnis der Macht des IS macht Quellen des Widerstands deutlich: Die Politik des Verhaltens und der Reaktionen der Nutzer auf Technologie wird sich auf die Bandbreite der als widerspenstig eingeschätzten Nutzeraktivitäten auswirken. Dies ist besonders wichtig bei den Arten von Technologien, die in allgegenwärtigen Informationsumgebungen verwendet werden, da sie häufig außerhalb von Organisationen für Freizeit- und soziale Aktivitäten verwendet werden. Es kann jedoch nicht davon ausgegangen werden, dass neuere mobile Technologien, die zum Erreichen von Unternehmenszielen eingesetzt werden, von Mitarbeitern mit dem Erfolg übernommen und verwendet werden, den diese Technologien im freiwilligen Umfeld haben. Ein alternativer Ansatz wird befürwortet: Widerstand wird nicht als Bedrohung, sondern als Ort der Personalisierung und lokalen Anpassung wahrgenommen: subversive Handlungen der Nutzer können zur Verbesserung der Technologie beitragen, IS-Versagen kann verringert werden und Widerstand kann letztendlich eine Rolle spielen bei der Stabilisierung eines Systems. Schließlich wird die Personalisierung durch nutzergesteuertes Codesign als Teil einer Strategie der Nutzung von Widerständen argumentiert.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-28918-6_24 5f002374e351506243140f93bb4adbac;de;;;7.1.;;;Entwicklung von Fertigungssteuerungssoftware: Überblick und Kritik Die Komplexität und Vielfalt von Fertigungssoftware und die Notwendigkeit, diese Software an die häufig wechselnden Produktionsanforderungen anzupassen, erfordern eine systematische Vorgehensweise bei der Entwicklung dieser Software. Das Software-Lebenszyklusmodell (Royce, 1970), das darin besteht, die Anforderungen an ein Softwaresystem zu spezifizieren, diese Software zu entwerfen, zu implementieren, zu testen und weiterzuentwickeln, kann bei der Entwicklung großer Teile der Fertigungssoftware verfolgt werden. Das Vorhandensein von Hardwaregeräten in diesen Systemen und die hohen Kosten für den Erwerb und den Betrieb von Hardwaregeräten komplizieren jedoch den Entwicklungsprozess der Fertigungssoftware weiter und erfordern, dass die Funktionalität dieser Software erweitert wird, um Simulation und Prototyping zu integrieren.;-;-;-;https://link.springer.com/article/10.1007/BF01328739 01c86ab0b80a3f030a2c42d2244a1fb5;de;;;7.1.;;;Von bürokratischen zu marktähnlichen Umgebungen: Zur Co-Evolution des Geschäftsprozessmanagements im öffentlichen Sektor Business Process Management (BPM) kann als eine Reihe von Techniken angesehen werden, um die Geschäftsprozesse eines Unternehmens zu integrieren, aufzubauen und neu zu konfigurieren, um eine Anpassung an das Marktumfeld zu erreichen. Während Geschäftsprozesse in Märkten mit geringer Dynamik eher stabil sind, nehmen Häufigkeit, Qualität und Bedeutung von Prozessänderungen mit zunehmender Umweltdynamik zu. Wir zeigen, dass bestehende Designs von BPM im öffentlichen Sektor möglicherweise nicht in der Lage sind, mit der zunehmenden Häufigkeit und Qualität von Geschäftsprozessänderungen zurechtzukommen. Unsere qualitative eingehende Fallstudie einer Kommunalverwaltung legt nahe, dass eine der Hauptursachen für eine solche Fehlanpassung in ineffektivem organisatorischem Lernen liegt. Wir tragen zur Literatur bei, indem wir das Dynamic Capability Framework auf BPM des öffentlichen Sektors anwenden, um Veränderungen in der Marktdynamik und deren Konsequenzen für die BPM-Effektivität besser zu verstehen. Praktiker finden einen Vorschlag, um einen BPM-Missfit zu erkennen, zu verstehen und darauf zu reagieren und effektive BPM-Strategien zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14799-9_33 5686ec2b69fc0abbdd66dc7372920ece;de;;;7.1.;;;Wissensbasierte Informationssysteme: Eine Fallstudie zu Windparks Der Prozess der Entwicklung von Informationssystemen (ISD) wurde bereits untersucht, um generierte Informationssysteme zu verbessern. In jüngster Zeit wurde erkannt, dass der Einsatz von Wissensmanagement-(WM-)Methoden in der ISD, sogenannter wissensbasierter Informationssysteme (KIS), den Erwerb und die Darstellung von Wissen sowohl aus Anwendungsdomänen als auch aus Entwicklungsprozessen unterstützt. Dies ist wichtig, wenn riesige Datenmengen aus Anwendungsdomänen verarbeitet werden müssen und massives Wissen in den Prozessen vergraben ist. Ein besonderes Beispiel für dieses Problem liegt in der Windindustrie, wo Offshore-Windparks riesige Datenmengen sammeln, aber das Wissen über die Prozesse zur Datenerzeugung fehlt, was die Betreiber überfordert. Allerdings gibt es eine Lücke zwischen KM und ISD, die noch geschlossen werden muss.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-4951-5_43 92733fe1799a8593ed940fd551fa5c97;de;;;7.1.;;;Integrierte Methoden und Tools Die in diesem Kapitel beschriebenen Methoden und Werkzeuge weisen einen besonders hohen Integrationsgrad auf. In den meisten Fällen beschränkt sich die Integration auf die Konsistenz des Modellierungsansatzes, d. h. die Werkzeuge orientieren sich stark am Metamodell und den Ergebnissen der Methode. Die Integration in das Vorgehensmodell der Methode bzw. in die Techniken erfolgt dagegen jeweils in nur einer Methoden-Tool-Kombination (Manganelli/Klein und RapidRe Toolset, siehe Abschnitt 5.4, Hansen und Extend, siehe Abschnitt 53).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-83085-2_5 241d1790a000586d7d15ba5236500c71;de;;;7.1.;;;Objektmodell für die Planungs- und Terminplanungsintegration in diskreten Fertigungsunternehmen In diesem Beitrag wird ein Objektmodell für die Planungs- und Terminierungsintegration in der Systementwicklung in der diskreten Fertigung vorgeschlagen. Das Modell kann mit häufigen Veränderungen des Marktes wesentlich agiler umgehen als die traditionellen Modelle zur Produktionssteuerung. Außerdem kann das Objektmodell in ein anderes Modell übersetzt werden, das zusätzlich Tabellen-, Eigenschafts- und Datentypobjekte zur automatischen Übersetzung in ein RDB-Schema besitzt. Außerdem wird ein Änderungsverfahren beschrieben, um es an den jeweiligen Fall in der Industrie anzupassen.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-29766-9_18 a64a222df5d45c536b785a7f9ed8d2de;de;;;7.1.;;;Die (fehlende?) Rolle von Gesundheitsinformationssystemen (HIS) in der Koordination und Kontinuität der Patientenversorgung (PCCC): Der Fall Uganda In Uganda werden Patienten von verschiedenen Gesundheitseinrichtungen betreut. Die meisten Einrichtungen haben jedoch Schwierigkeiten, Patienteninformationen über Grenzen hinweg auszutauschen, da ihre Gesundheitsinformationssysteme (KIS) in Silos arbeiten. Um jedoch den Bedürfnissen eines Patienten gerecht zu werden, der von verschiedenen Gesundheitseinrichtungen betreut wird, sollten die teilnehmenden Einrichtungen zusammenarbeiten, Patienteninformationen austauschen und austauschen, um die Koordination und Kontinuität der Patientenversorgung (PCCC) über das gesamte Versorgungskontinuum hinweg zu verbessern. Anhand qualitativer Interviews untersuchen wir fünf HIS, um die problematischen Fragen zu untersuchen, die während der aktiven Beteiligung des HIS am PCCC im gesamten Versorgungskontinuum aufgeworfen werden könnten. Die Ergebnisse deuten stark darauf hin, dass das bestehende KIS im Land das PCCC nicht verbessert, und im Folgenden sind einige der realisierten Herausforderungen aufgeführt: Interoperabilitätsziel wird beim Systemdesign nicht priorisiert, KIS arbeitet in Silos, fehlender nationaler Standard für die Patientenakte, Gesundheitseinrichtungen Ausübung des Eigentums an den Daten und andere nicht-technische Herausforderungen. Die Hauptimplikation dieser Ergebnisse ist, dass die Konzentration auf das Interoperabilitätsziel als Entwurfsanforderung während der HIS-Implementierung potenziell alle anderen Herausforderungen verdrängen und die aktive Rolle der HIS-Beteiligung am PCCC wiederbeleben würde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-16042-5_14 5076584ce1837d6fa5f9d448041e4840;de;;;7.1.;;;Ein Referenzdesign für sicheres Cloud Bursting In diesem Kapitel werden wir sehen, wie sich die in den vorherigen Kapiteln einzeln behandelten Konzepte aufeinander beziehen. Wir haben uns die vielen Konzepte und Komponenten der Technologielösungen angesehen, die erforderlich sind, um die vertrauenswürdige Infrastruktur zu ermöglichen, die uns dem Ziel der Bereitstellung vertrauenswürdiger Clouds näher bringt. Wir haben die grundlegenden Elemente der Plattform-Vertrauensbescheinigung, der Sicherheit der Netzwerkvirtualisierung und des Identitätsmanagements in der Cloud behandelt. In diesem Kapitel fassen wir all diese Elemente zusammen. Virtustream, ein wichtiger Partner von Intel, hat eine Proof-of-Concept-Implementierung, die ursprünglich mit Intel entwickelt wurde, für einen wichtigen Kunden erstellt und zu einer neuen Fähigkeit entwickelt, die es ermöglicht,;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-6146-9_9 f97e1f4a026647e6a50301f6ac4290ca;de;;;7.1.;;;IT und Strukturwandel: der Fall der Implementierung von lokalen Netzen Neue ITs haben weitreichende Auswirkungen auf den Informationsfluss innerhalb und zwischen Unternehmen, auf Managementpraktiken und auf die grundlegenden Prozesse und die strukturelle Konfiguration der Organisation. Dieser Beitrag untersucht ein spezifisches Informationssystem – Local Area Network – und seine Auswirkungen auf die strukturelle Konfiguration des Unternehmens. Einer ersten Diskussion über einen vorgeschlagenen Analyserahmen folgt eine Untersuchung der Implementierung eines lokalen Netzwerks in einer Softwareentwicklungsorganisation.;-;-;-;https://link.springer.com/article/10.1080/jit.1993.5 8dadce9de6b5f104b9f1990b73f191f0;de;;;7.1.;;;Exportrichtlinie Die Regierung der Vereinigten Staaten führt weiterhin strenge Kontrollen beim Export von Verschlüsselungssoftware und -hardware durch, obwohl die Richtlinien zur Erteilung von Ausfuhrlizenzen die Wettbewerbsfähigkeit von US-Unternehmen auf dem ausländischen Markt behindern – einem Markt, der bereits Verschlüsselungssoftware und Hardware, die genau die Standards enthält, die US-Unternehmen aufgrund von Exportkontrollen nicht exportieren können.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-2524-9_8 244d6dabecbe025e46ed4b5893bcf14d;de;;;7.1.;;;Verwendung von Glaubensfunktionen zur Vorhersage der Nachfrage nach mobilen Satellitendiensten Dieses Papier skizziert eine Anwendung von Glaubensfunktionen zur Vorhersage der Nachfrage nach einem neuen Dienst in einer neuen Kategorie, basierend auf einer neuen Technologie. Die Nachfrage nach einem neuen Produkt oder einer neuen Dienstleistung zu prognostizieren ist immer schwierig. Dies gilt umso mehr, wenn die Produktkategorie selbst neu und für potenzielle Verbraucher so ungewohnt ist und die Servicequalität des Produkts von einer neuen Technologie abhängt, deren tatsächliche Leistungsqualität im Voraus nicht bekannt ist. In einer solchen Situation ist die Marktforschung oft unzuverlässig, und so variieren die Ansichten der wichtigsten Interessengruppen in Bezug auf die wahren Werte der zugrunde liegenden Variablen typischerweise erheblich. Glaubensfunktionen bieten ein Mittel zum Darstellen und Kombinieren dieser unterschiedlichen Glaubenssätze, das aussagekräftiger ist als herkömmliche Punktwahrscheinlichkeitsschätzungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-1798-0_10 eaff13e0c2883003da9b1e0027c8821f;de;;;7.1.;;;Komplexität und Informationssysteme: Die Emergent Domain Dieser Beitrag beschäftigt sich mit der Entstehung der Domäne der Informationssysteme (IS) als zentralem Merkmal der Managementforschungslandschaft in der vernetzten Welt. Sie zeigt, dass die Entstehung der Netzwerkökonomie und Netzwerkgesellschaft (Castells, 1996) einen Paradigmenwechsel in der IS-Disziplin erfordert und dass die Komplexitätswissenschaft die geeigneten Konzepte und Werkzeuge bietet, um einen solchen Wandel zu bewirken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-29272-4_8 84abf1ac60b5d077e41510166a719458;de;;;7.1.;;;Änderungsmanagement für Fractal-Unternehmen Das Änderungsmanagement ist ein wichtiger Prozess, der die Definition einer erfolgreichen Unternehmensstrategie und eines erfolgreichen Betriebs ermöglicht – insbesondere in einem turbulenten Umfeld. Für das Änderungsmanagement stehen eine Reihe von Methoden zur Verfügung, von denen jedoch keine speziell für fraktale Systeme entwickelt wurde. Unter Berücksichtigung von Selbstähnlichkeit, Selbstorganisation, Zielorientierung sowie Dynamik und Vitalität fraktaler Systeme erfordert das Change Management in solchen Systemen offensichtlich organisatorische Vorgehensweisen, die die besonderen Eigenschaften fraktaler Systeme berücksichtigen. Der Zweck dieser Forschung besteht darin, eine Change-Management-Methodik zu definieren, die es ermöglicht, das Change-Management in fraktalen Systemen im Allgemeinen zu verwalten und sie auf eine spezifische Änderungssituation anzuwenden, wenn das Hauptziel der Änderung ein Informationssystem eines fraktalen Unternehmens ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-9790-6_59 46660e9619d139f49ae4f013a0826061;de;;;7.2.;;;Multimodale Indexierung und Suche von Geschäftsprozessen basierend auf kumulativen und kontinuierlichen N-Grammen Die Wiederverwendung von Geschäftsprozessen kann zur effizienten Bereitstellung neuer Dienste beitragen. Aufgrund der großen Menge an Prozess-Repositorys kann es jedoch schwierig werden, einen bestimmten Prozess zu finden. Die meisten der existierenden Arbeiten in der Prozesssuche konzentrieren sich auf Textinformationen und Graph-Matching. Dieses Papier präsentiert ein multimodales Indexierungs- und Suchmodell von Geschäftsprozessen basierend auf kumulativen und kontinuierlichen n-Grammen. Das vorliegende Verfahren berücksichtigt linguistische und Verhaltensinformationen, die als Codebücher dargestellt werden. Codebücher beschreiben strukturelle Komponenten basierend auf dem n-Gramm-Konzept. Die erhaltenen Ergebnisse übertreffen die Präzision, den Wiedererkennungswert und das F-Maß früherer Ansätze erheblich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-53676-7_10 23e99abe578baf4bfd50a60933e13772;de;;;7.2.;;;Auswirkungen kultureller Orientierung auf die Einstellung zur Anonymität in der E-Collaboration Die wichtige Rolle der Einstellung bei der Akzeptanz und Verbreitung von Technologie ist weithin anerkannt. Es sind größere Forschungsanstrengungen erforderlich, um die Beziehungen zwischen kulturellen Variablen und der Einstellung zur Technologie zu untersuchen. In diesem Zusammenhang untersucht diese Studie den Einfluss kultureller Orientierung (mit Fokus auf den Grad des Kollektivismus) auf die Einstellung zur E-Collaboration-Technologie. Ein theoretisches Modell wird vorgeschlagen und anschließend anhand einer Fragebogenerhebung mit 236 Datenpunkten getestet. Selbstständigkeit, Wettbewerbserfolg und Gruppenarbeitsorientierung werden als wichtige Indikatoren für den Grad des Kollektivismus einer Person gefunden, der wiederum die Bereitschaft zur Teilnahme, die Bewertung der Zusammenarbeit und die Präferenz für Anonymitätsmerkmale beeinflusst. Anschließend wurde festgestellt, dass die drei Variablen die Wahrnehmung von Entscheidungsqualität, Freude, Unsicherheit und Druck bei der E-Collaboration beeinflussen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-87503-3_7 f57bf575f81510354685e30e55313736;de;;;7.1.;;;Eine umfassende Umfrage zum Gesundheitsmanagement Gesundheitsmanagement (HCM) ist der Beruf, der Gesundheitsdienstleistern Kontrolle und Anleitung bietet. Zahlreiche quantitative und qualitative Techniken, darunter Operations Research (OR)-Techniken, statistische Analysen, multikriterielle Entscheidungstechniken usw. wurden auf Gesundheitsprobleme angewendet. Dieses Kapitel fasst diese Techniken anhand einer Klassifikation zusammen und präsentiert grafische Analysen der Umfrageergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-65455-3_2 ade1a5c5dd4f702e56026e401875cb31;de;;;7.2.;;;Ein bestrafungsbasierter Ranking-Ansatz für die gemischte einsprachige Aufgabe von WebCLEF 2006 In diesem Beitrag wird ein Ansatz für ein mehrsprachiges Information Retrieval vorgestellt, das eine Rangfolgemethode verwendet, die auf einer Bestrafungsversion der Jaccard-Formel basiert. Die erhaltenen Ergebnisse nach der Einreichung einer Reihe von Durchläufen beim WebCLEF 2006 haben gezeigt, dass diese einfache Rangfolgeformel in einer sprachenübergreifenden Umgebung verwendet werden kann. Ein Vergleich mit den von anderen Teams eingereichten Läufen reiht uns unter Verwendung aller Themen auf den dritten Platz. Ein vierter Platz wird mit unseren besten Gesamtergebnissen erreicht, wenn nur das neue Themenset verwendet wurde, und ein zweiter Platz wurde erreicht, wenn nur die automatischen Themen des neuen Themensets verwendet wurden. Ein exakter Vergleich mit dem Rest der Teilnehmer ist in der Tat schwer zu erhalten und wir sind daher der Meinung, dass eine weitere detaillierte Analyse der Komponenten durchgeführt werden sollte, um die besten Komponenten des vorgeschlagenen Systems zu bestimmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74999-8_103 b551832f56b17c4c317be829e2b7e003;de;;;7.2.;;;Leistungsbewertung eines LED-IT-Sensor integrierten Straßenbeleuchtungssystems in USN In jüngster Zeit werden mit dem Thema Green-IT-Technologie weltweit verschiedene Studien zu einer umweltfreundlichen Leuchtquelle, die den Kohlenstoffausstoß reduzieren und die Energieeffizienz steigern kann, aktiv vorangetrieben. Vor allem angesichts der Probleme des hohen Ölpreises und der Umweltverschmutzung hat LED als neue Lichtquelle, die die bestehenden Glühbirnen und Leuchtstofflampen ersetzen kann, große Aufmerksamkeit erregt. In diesem Beitrag schlagen wir ein LED-IT-Sensor integriertes Straßenbeleuchtungssystem in USN vor, das durch die Kombination des energiesparenden, hocheffizienten und leuchtstarken LED-Moduls mit einem komplexen Sensormodul für Temperatur, Feuchtigkeit, Beleuchtungsstärke und Bewegungserkennung intelligenter wird Sensoren. Die Leistung des vorgeschlagenen LED-IT-Sensor-Straßenbeleuchtungssystems wird in Bezug auf Energieeinsparung und Sicherheit auf den als Prüfstand konstruierten Feldern unter mehreren vorgeschlagenen Szenarien bewertet. Schließlich wissen wir, dass das vorgeschlagene LED-IT-Sensor-integrierte Straßenbeleuchtungssystem die Energieeinsparungen mit einem zentralen Überwachungssystem und selektiver Ferndimmsteuerung effizient maximieren kann, indem es mit einem Zigbee-Modul an das drahtlose ubiquitäre Sensornetzwerk (USN) angeschlossen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32692-9_85 bcb7ec491ccd03e7b35cfd39b1ea7b82;de;;;7.2.;;;Lokale Transpositionen in der Ausrichtung polyphoner Musikfolgen Musikabrufsysteme, die auf melodischer Ähnlichkeit basieren, berücksichtigen Tonfolgen. Anpassungen von editbasierten Algorithmen, die hauptsächlich in bioinformatischen Anwendungen eingesetzt werden, an den musikalischen Bereich führen zu vielversprechenden Ergebnissen. Bei der Betrachtung polyphoner Musik ergeben sich jedoch neue Probleme. Bestehende Darstellungen von Noten erlauben keine Transpositionsinvarianz von Abrufsystemen. In diesem Artikel schlagen wir einen neuen dynamischen Programmieralgorithmus vor, der es ermöglicht, mehrere lokale Transpositionen zu berücksichtigen. Experimente mit MIREX-Sammlungen wurden durchgeführt, um die durch diesen Algorithmus induzierten Verbesserungen zu bewerten. Die Ergebnisse zeigen deutlich den Beitrag dieses Algorithmus: Er wird als die genaueste Lösung für ein Musik-Retrieval-System basierend auf einem Alignment-Algorithmus bestätigt, der transpositionsinvariant ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75530-2_3 17239c2647024b84337babc1b54ffddb;de;;;7.2.;;;Emotionen und Technoethik Die Beziehung zwischen Emotionen und Ethik wird seit Jahrhunderten diskutiert. Der Akt des Verstehens von Emotionen im Rahmen der Ethik beinhaltet die Akzeptanz, dass Emotionen in gewissem Maße kulturell abhängig sind. Durch die Verknüpfung von Emotionen im Design mit größeren ethischen Diskussionen kann akzeptiert werden, dass Ethik und Design beides technologische Konstruktionen sind, die eine kollektive Weltsicht formen sollen. Obwohl beides kulturelle Konstruktionen sind, stehen sie durch gesellschaftliche Diskurse und individualistische kognitiv-affektive Bewertungsprozesse in ständigem Dialog miteinander. Dieses Kapitel präsentiert eine Darstellung der Technoethik, die Vorstellungen von ethischen Werten in Frage stellt, die in Technologie eingebettet sind, und auf die Rolle der menschlichen Intentionalität als maßgeblichen ethischen Faktor in den Mensch-Technik-Beziehungen aufmerksam macht. Das Kapitel problematisiert vereinfachende Ansichten von Ethik und emotionaler Technologieerfahrung, um die mehrdeutige und dynamische Natur kognitiv-emotional-kultureller Interdependenzen in der Technologieerfahrung aufzudecken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-53483-7_11 42c0914501f62180d06b8847bf3ad67e;de;;;7.2.;;;Eine unendliche Mischung aus invertierten Dirichlet-Verteilungen In diesem Beitrag präsentieren wir ein unendliches Mischungsmodell basierend auf invertierten Dirichlet-Verteilungen. Die vorgeschlagene Mischung wird unter Verwendung eines vollständig Bayesschen Ansatzes erlernt und ermöglicht es, ein schwieriges Problem beim Umgang mit Datenclustern zu lösen, nämlich die automatische Auswahl der Anzahl der Cluster. Wir untersuchen die Leistungsfähigkeit des vorgeschlagenen Ansatzes beim schwierigen Problem der Textkategorisierung. Die Ergebnisse zeigen, dass der vorgeschlagene Ansatz für die positive Datenmodellierung im Vergleich zu denen, die mit einer unendlichen Gaußschen Mischung berichtet wurden, effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24958-7_9 18cb71bf6711fecb0ac74c47bc9517f6;de;;;7.2.;;;Systematische Evaluation maschineller Übersetzungsmethoden für Bild- und Videoannotation In dieser Studie präsentieren wir eine systematische Bewertung maschineller Übersetzungsmethoden, die auf das Bildannotationsproblem angewendet werden. Als Datensatz haben wir den gut untersuchten Corel-Datensatz und die von TRECVID 2003 verwendeten Nachrichtenvideos verwendet. Wir haben mit verschiedenen Modellen der maschinellen Übersetzung mit unterschiedlichen Parametern experimentiert. Die Ergebnisse zeigten, dass das einfachste Modell die beste Leistung liefert. Basierend auf dieser Erfahrung schlugen wir auch eine neue Methode vor, die auf sprachenübergreifenden Informationsabruftechniken basiert und eine bessere Abfrageleistung erzielte.;-;-;-;https://link.springer.com/chapter/10.1007/11526346_21 ad49b51686a23d2c3d34e5e483a9196a;de;;;7.2.;;;Die Politik des Peer Reviewing: Vergleich zwischen OECD und EU Abgesehen von den traditionellen Instrumenten öffentlicher Akteure, um Gesellschaften zu regieren – nämlich Recht und monetäre Anreize – hat sich „Governance by Information“ zu einem immer häufiger genutzten Governance-Modus entwickelt (Bogdandy und Goldmann 2008, 243–244). Wenn dies auf innerstaatlicher Ebene zutrifft, setzt die Weltpolitik, die über den Nationalstaat hinausreicht, noch stärker auf Governance durch Information. Tatsächlich ist eine der Hauptquellen der Macht der Internationalen Organisationen (IOs) und ihrer damit verbundenen Bürokratien ihre Fähigkeit, Informationen zu sammeln und zu aggregieren und sie in gesellschaftlich relevantes Wissen umzuwandeln, „indem sie den Informationen Bedeutung verleihen“ (Barnett und Finnemore 2004, 29–30, siehe auch Blom und Vanhoonacker, Kapitel 1 dieses Bandes).;-;-;-;https://link.springer.com/chapter/10.1057/9781137325419_4 0773fd789938fb8a1c77f1bb69ddff27;de;;;7.2.;;;Multimedia-Strategien für In diesem Artikel wird ein XML-gesteuerter Ansatz für das Abrufen von Multimediainformationen vorgestellt und bewertet, der mittels Hauptkomponentenanalyse ein zusammengesetztes Ranking für eine Menge von XML-Elementen mit Multimediacharakter herleitet. Die Multimedia-Strategien, die das PCA-Modul zusätzlich zum;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-34963-1_41 bfc57f8b164aaf42bf554ed2281ba596;de;;;7.1.;;;Aufgaben der Fertigungsindustrie und der Produktionsinnovation von NEC Drastische Veränderungen im konventionellen Paradigma der Massenproduktion haben das Zeitalter der individualisierten Massen eingeläutet. Wir bei NEC erneuern unsere produktiven Aktivitäten, um eine agile Produktion als Lösung für die Bedürfnisse des Zeitalters der individualisierten Massen zu erreichen. NEC Yonezawa hat durch sein Streben nach Concurrent Engineering drastische Verkürzungen bei der Entwicklung von Notebook-PCs erzielt. Bei NEC Nagano und NEC Saitama hat die schlanke Produktion den Personalbedarf gesenkt, die Durchlaufzeiten drastisch verkürzt und den Materialaufwand stark reduziert. Wir haben uns heute dem Ziel verschrieben, Informationssysteme aufzubauen, die das gesamte IT-Konzept (Informationstechnologie) nutzen, um ein optimales Produktionssystem zu erreichen, das den gesamten Lieferfluss von der Planung bis zur Verschrottung umfasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34879-7_2 35ff8c6ac3f5ae1ede881cf9dfa8e88f;de;;;7.1.;;;Ein Referenzrahmen für fortgeschrittene flexible Informationssysteme Die Natur der Informationssysteme durchläuft derzeit einen großen Wandel. In der Vergangenheit wurden Informationssysteme, die „physikalische Prozesse“ verwalten, und Systeme, die „administrative Prozesse“ verwalten, normalerweise in zwei verschiedene „Welten“ getrennt. Jetzt sehen wir, dass diese Welten eng gekoppelt oder sogar integriert werden müssen, um mit Entwicklungen wie der Transformation von Lieferketten zu Nachfrageketten, Just-in-Time-Logistik, Servitisierung und Massenanpassung von Produkten und Dienstleistungen umzugehen. Dies führt zu Verwirrung, da Positionierungssysteme und diesen Systemen zugrunde liegende Ansätze zueinander nicht einfach sind. Eine falsche Positionierung kann wiederum zu blinden Flecken in der Systemfunktionalität führen – was dazu führt, dass das gesamte Spektrum der Geschäftsfunktionalität nicht ordnungsgemäß unterstützt werden kann – oder die Replikation von Funktionalität – was normalerweise zu Inkonsistenzen von Funktionalität und Daten führt. Um dieses Problem anzugehen, stellt dieses Papier einen Referenzrahmen für fortgeschrittene flexible Informationssysteme vor, in dem bestehende Systeme und Ansätze positioniert, analysiert und verglichen werden können. Das Framework basiert auf einem Konzept der mehrschichtigen, bimodalen Flexibilität. Wir wenden diesen Rahmen auf eine kleine, aber repräsentative Reihe von Forschungs- und Entwicklungsbemühungen für fortschrittliche flexible Informationssysteme an.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-92898-2_21 df53481a057a7b1c0796e099d3bdc55a;de;;;7.1.;;;: Ein Agenten-Framework, das den Informationszugriff und die Integration unterstützt Die Bereitstellung eines integrierten Zugangs zu mehreren heterogenen Quellen ist eine Herausforderung in globalen Informationssystemen für Zusammenarbeit und Interoperabilität. In der Vergangenheit haben sich Unternehmen mit Datenhaltungssystemen ausgestattet, die informative Systeme mit miteinander verbundenen, aber oft redundanten, nicht homogenen und nicht immer semantisch konsistenten Daten aufbauen. Um den Anforderungen globaler, internetbasierter Informationssysteme gerecht zu werden, ist es außerdem wichtig, dass die zur Unterstützung dieser Aktivitäten entwickelten Werkzeuge so weit wie möglich halbautomatisch und skalierbar sind.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36561-3_2 c4757e09ab112e43178f657a5514ac21;de;;;7.1.;;;Semantische Darstellung von Prozess- und Service-Compliance – Eine Fallstudie in der Notfallplanung Notfallereignisse wie Naturkatastrophen und Großunfälle stellen eine Reihe von Herausforderungen dar, die es zu bewältigen gilt. Die Notwendigkeit, ein breites Spektrum öffentlicher und privater Organisationen und Aktivitäten zu koordinieren, um den Opfern effiziente Hilfe zu leisten, wird oft durch die Einhaltung der erforderlichen Richtlinien und Verfahren kompliziert. Aktuelle Prozess- und Servicemodelle, die Domänen wie die Notfallplanung abbilden, liefern keine ausreichenden Artefakte in Bezug auf Compliance-Anforderungen. In diesem Papier argumentieren wir, dass Techniken für das Compliance-Management in Geschäftsprozessen auf den Notfallbereich angewendet werden können. Wir bieten ein High-Level-Modell zur Abbildung von Compliance-Anforderungen innerhalb von Geschäftsprozessen und Services. Daher demonstrieren wir die Anwendung des Modells im Bereich der Notfallplanung. Abschließend präsentieren wir eine aus der Fallstudie abgeleitete Analyse, die die aktuellen Einschränkungen und Anforderungen an semantische Erweiterungen von Prozess- und Servicemodellen identifiziert, um Compliance zu gewährleisten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22056-2_27 e8f90833a8197341d960724750d275e8;de;;;7.1.;;;Diskussion über den Entwicklungstrend des chinesischen Unternehmensinformationssystems Chinesische Unternehmen haben ihre Informationssysteme nacheinander aufgebaut, um die Produktionskosten zu senken, die Arbeitseffizienz zu verbessern und sich besser an die Entwicklung des Informationszeitalters sowie an das Marktumfeld anzupassen. Dieses Kapitel analysiert den Status Quo des chinesischen Unternehmensinformationssystems, nennt die Gründe für die Entwicklung des Unternehmensinformationssystems und diskutiert den Entwicklungstrend des chinesischen Unternehmensinformationssystems aus vielen Blickwinkeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-7355-9_7 d59e6746efd9878ee46287d3252e358a;de;;;7.1.;;;Untersuchung der Auswirkungen kritischer Erfolgsfaktoren auf die Implementierung von Enterprise Resource Planning (ERP)-Systemen in den Vereinigten Arabischen Emiraten Diese Studie untersucht die Auswirkungen kritischer Erfolgsfaktoren (CSFs) auf die Implementierung von Enterprise Resource Planning (ERP)-Systemen in einigen Organisationen in den Vereinigten Arabischen Emiraten (VAE). Die Studie führt zunächst eine Überprüfung der vorhandenen Literatur in den Bereichen CSF und ERP durch. Ziel ist es, einige der CSFs zu identifizieren, die das Potenzial haben, den größten Einfluss auf den Erfolg oder Misserfolg der Einführung von ERP-Systemen im Allgemeinen auszuüben. Anschließend untersucht die Studie die Auswirkungen dieser CSFs auf die Implementierungsprozesse von ERP-Systemen in einer Reihe von Organisationen in den VAE, die bekanntermaßen aktiv an der Implementierung eines ERP-Systems beteiligt sind, und/oder seiner Varianten. Die Untersuchungsergebnisse zeigen, dass von den verschiedenen in der Studie identifizierten CSFs nur etwa zehn (10) die dramatischsten Auswirkungen auf die erfolgreiche Einführung eines ERP-Systems haben – im Kontext der Vereinigten Arabischen Emirate.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9282-5_58 7a0d6bf7d57ee1bea05ec18829334bd2;de;;;7.1.;;;Gestaltung innovativer Lernräume in der Hochschulbildung an einem Wendepunkt: Institutionelle Identitäten, durchdringende intelligente Technologien und organisatorisches Lernen Die Bereitstellung innovativer Lernräume ist für viele Hochschulen auf der ganzen Welt zu einer immer wichtigeren Aufgabe geworden. In diesem Papier wird eine laufende Forschungsthese getestet, die besagt, dass die Gestaltung von Lernräumen in der Hochschulbildung an einem Wendepunkt steht, und fordert einen offeneren partizipativen Systemansatz, um die Spannungen, die sich aus (a) dem anhaltenden Trend institutioneller Suche für das Branding und Re-Branding unverwechselbarer visueller Identitäten, um national und global wettbewerbsfähig zu sein, (b) steigende Erwartungen an eine allgegenwärtige intelligente IKT-Bereitstellung und (c) die Notwendigkeit, das organisationale Lernen aus Campus-Planungs- und -Designprojekten als Wissensbasis für die Bewertung und Vorstellung zu unterstützen innovative Lernräume. Das Papier berichtet und reflektiert die Ergebnisse aus dem Entwurf und der Bereitstellung einer größeren webbasierten 3D-Architektur- und Datenvisualisierungsplattform, die darauf abzielt, die kollaborative Modellierung gegenwärtiger und zukünftiger Lernräume in zwei realen institutionellen Kontexten zu unterstützen. Die Perspektive der interaktiven 3D-Visualisierungsplattform zur Unterstützung des organisationalen Lernens bei der Gestaltung innovativer Lernräume wird kritisch diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33371-2_12 56b5393612c54839b188cb8bf20c37df;de;;;7.1.;;;Die lexikalische Datenbank des IIT: Traum und Wirklichkeit Dieser Artikel beschreibt IITLEX, eine lexikalische Datenbank, die am Illinois Institute of Technology entwickelt wird. Es betont die Quellen der Daten und die Organisation der Datenbank.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-585-35958-8_11 426448efa019da91b1c78669f9134f2d;de;;;7.1.;;;Verständnis der von Unternehmenssystemen unterstützten Integration Ein wichtiger angepriesener Vorteil von Unternehmenssystemen (ES) ist die organisatorische Integration von Geschäftsprozessen und Daten, von der erwartet wird, dass sie die Verarbeitungszeit verkürzt und die Kontrolle über den Betrieb erhöht. In unserer 3-jährigen Längsschnitt-Fallstudie einer schrittweisen ES-Implementierung haben wir eine Grounded-Theory-Methodik verwendet, um die organisatorischen Auswirkungen von ES zu entdecken. Während wir unsere Felddaten kodierten und analysierten, beobachteten wir viele Integrationseffekte. Weitere Analysen ergaben die zugrunde liegenden Dimensionen der ES-fähigen Integration. Die ES-gestützte Integration variierte je nach Beziehung zwischen den integrierten Geschäftseinheiten (ähnliche Anlagen, Stufen in einem Geschäftsprozess oder unterschiedliche Funktionsbereiche) und je nachdem, ob Prozesse oder Daten integriert wurden. In der Literatur stellten wir fest, dass Thompsons drei Arten von Interdependenz, gepoolte, sequenzielle und reziproke, die in unseren Daten offenbarten Geschäftsbeziehungen erfassten. Daher beschreiben wir die hervorstechenden Merkmale der ES-gestützten Integration unter Verwendung der Interdependenztypen von Thompson, die auf die Prozess- und Datenintegration angewendet werden. Wir identifizieren auch Dimensionen der Differenzierung zwischen Geschäftseinheiten, die zu Integrationsproblemen beitragen. Die Betrachtung unserer Felddaten durch die Linse dieser herausragenden Merkmale und Dimensionen der Differenzierung lieferte theoretische Erklärungen für beobachtete Integrationsprobleme. Diese Ergebnisse helfen Managern auch, Möglichkeiten und Probleme der ES-gestützten Integration zu verstehen und zu antizipieren.;-;-;-;https://link.springer.com/article/10.1057/palgrave.ejis.3000528 c5a1de41184c80564041afaaa6b405b7;de;;;7.1.;;;Teilweise geordnete Präferenzen angewendet auf das Standortproblem in der Stadtplanung Dieses Papier stellt eine Anwendung vor, die darauf abzielt, optimale Standorte basierend auf teilweise geordneten Randbedingungen zu identifizieren. Es kombiniert ein in diesem Projekt entwickeltes Werkzeug, das die Verwaltung von teilweise geordneten Beschränkungen ermöglicht, und ein geografisches Informationssystem (GIS), das die Kartierung und Analyse von Geodaten ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30075-5_15 219ab377854908f3c60510ad2b84b185;de;;;7.1.;;;Einige Aspekte der Systemanalyse und des Systemdesigns Der Aufbau eines Informationssystems ist mehr, als nur eine Datenbank zu entwerfen und die gewünschte Funktionalität der Datenmanipulation zu programmieren. Viele Automatisierungsprojekte haben schließlich mehr Probleme geschaffen als gelöst, da das Unternehmen nicht genau weiß, in welcher Organisation das System arbeiten soll. Es ist notwendig, Kenntnisse über den betrieblichen Prozess der Organisation zu sammeln und zu untersuchen, wie Informationen von Einzelpersonen und in der Kommunikation mit anderen Abteilungen verwendet werden. Softwaresysteme nehmen an Komplexität und Funktionalität zu. Sie sind heute ein integrierter Bestandteil des Informationshandlings vieler Organisationen. Von einfachen Datenverarbeitungssystemen, die als Systeme der ersten Generation angesehen werden könnten, sahen wir die Einführung der zweiten Generation, des sogenannten MIS (Management Information Systems) und leben derzeit mit der dritten Generation des DSS (Decision Support Systems).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-2027-3_1 cd19dacf425bb3dd3ef9bc1785172a20;de;;;7.1.;;;Übergang von einem Informationssystem für Führungskräfte zu einem Informationssystem für alle: Lehren aus einer Fallstudie Die Geschichte des Executive Information Systems (EIS) eines großen Stahlunternehmens wird von seiner Gründung im Jahr 1984 über seinen Untergang als System für das Top-Management bis hin zu seiner Transformation im Jahr 1991 zu einem auffallend erfolgreichen Informationssystem für alle Führungskräfte und Verwaltungsmitarbeiter berichtet. Dieser Fall hat erhebliche Auswirkungen auf alle, die an der technischen Unterstützung von Top-Entscheidungsträgern interessiert sind. Es bietet auch wichtige Erkenntnisse für jede Organisation, die über ein EIS verfügt oder plant, die aktuelle Generation der EIS-Technologie zu implementieren.;-;-;-;https://link.springer.com/article/10.1057/jit.1993.24 b6883ffb10f05cc778daa2d4ab6d7725;de;;;7.1.;;;Skelett eines Supervisors für Enterprise Information Systems Wir beschreiben die Schlüsselelemente eines Arbeitsprogramms, das bei der Gesamtverwaltung der Informationsressourcen einer Organisation helfen kann. Dieses Programm kann über die Beziehungen zwischen Komponenten eines EIS nachdenken und kommt zu dem Schluss, dass ein Problem besteht, wenn diese Beziehungen abnormal werden. Dieses Programm kann auch über das Verhalten der Komponenten eines EIS entscheiden und kommt zu dem Schluss, dass ein Problem besteht, wenn dieses Verhalten abnormal ist.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-34456-X_44 43a84ab505b56acf5bb8cb48b0183af5;de;;;7.1.;;;Integration von elektrischer und mechanischer Konstruktion und Prozessplanung Dieser Beitrag berichtet über die Entwicklung des Prozessplanungsmoduls für EDAPS, einem integrierten System zur Konstruktion und Planung der Herstellung von Mikrowellenmodulen. Mikrowellenmodule sind komplexe Geräte mit sowohl elektrischen als auch mechanischen Eigenschaften, und EDAPS integriert elektrisches Design, mechanisches Design und Prozessplanung sowohl für den mechanischen als auch für den elektrischen Bereich.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35192-6_17 4352eb10fc9b3fda183a053fe75298fe;de;;;7.2.;;;Identifizierung von zeitlichen Ausdrücken basierend auf semantischen Rollen In Anlehnung an die TimeML (TIMEX3)-Spezifikationen präsentieren wir eine Studie, die analysiert, inwieweit semantische Rollen bei der Identifizierung zeitlicher Ausdrücke nützlich sind, sowie eine Liste der möglichen Anwendungen dieser Kombination. Zu diesem Zweck wurden zwei Ansätze eines temporalen Expressionsidentifikationssystems basierend auf semantischen Rollen entwickelt: (1) Baseline und (2) TIPSem-Full. Der erste Ansatz ist eine direkte Umwandlung von einer temporalen semantischen Rolle in einen temporalen Ausdruck. Der zweite verarbeitet und wandelt alle Zeitrollen in korrekte TIMEX3 um, wobei ein Satz von Transformationsregeln verwendet wird, die in diesem Papier definiert sind. Diese beiden Ansätze wurden mit dem TimeBank-Korpus evaluiert. Die Auswertungsergebnisse bestätigen, dass die Anwendung semantischer Rollen auf die Aufgabe der zeitlichen Expressionsidentifikation wertvoll sein kann, wobei für TIPSem-Full 73,4 % in F1 für entspannte Spanne und 65,9 % in F1 für strikte Spanne erhalten werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12550-8_19 ff169d1fc8b8280b3d5f5c8eefd366f3;de;;;7.1.;;;Von der Analyse bis zur Codegenerierung: Erfahrungen aus einem IT-Projekt mit I-CASE-Technologie Die Entwicklung eines großen Informationssystems nach dem Information Engineering-Ansatz von James Martin wird beschrieben. Als I-CASE (Integrated CASE) Umgebung wurde die Application Development Workbench (ADW) von Knowledge-Ware verwendet. Das 3 1/2-Personen-Jahr-Projekt ging von der Analyse bis zur Code-Generierung. Im Rahmen des Projekts wurden erfolgreich 160.000 Codezeilen generiert, das endgültige System wird voraussichtlich 330.000 Zeilen umfassen. Das Informationssystem ist wahrscheinlich eines der ersten dieser Größe, das tatsächlich mit ADW für eine OS/2-Zielumgebung erstellt wurde. Das Papier gibt einen Überblick über das Projekt und berichtet über Erfahrungen mit der I-CASE-Technologie. Das Projekt war Teil der wirtschaftsinformatischen Weiterbildung an der Universität Münster.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-58113-8_172 a5684888c889c9f44e7ef5b4608ffd37;de;;;7.1.;;;DPP: Ein agentenbasierter Ansatz für die verteilte Prozessplanung Eine sich verändernde Produktionsumgebung, die durch eine größere Produktvielfalt in kleineren Losgrößen gekennzeichnet ist, erfordert die Schaffung eines intelligenten und dynamischen Prozessplanungssystems, das auf die schnelle Anpassung von Produktionskapazität und Funktionalität reagiert und adaptiv ist. Als Reaktion auf die Anforderung schlägt diese Forschung eine neue Methodik der verteilten Prozessplanung (DPP) vor. Der Hauptfokus dieses Papiers liegt auf der Architektur des neuen Prozessplanungsansatzes unter Verwendung von Multi-Agenten-Verhandlung und -Kooperation. Der sekundäre Fokus liegt auf den anderen unterstützenden Technologien wie der bearbeitungsmerkmalbasierten Planung und der funktionsblockbasierten Steuerung. Im Gegensatz zu herkömmlichen Methoden verwendet der vorgeschlagene Ansatz eine Entscheidungsfindung auf zwei Ebenen – Aufsichtsplanung und Betriebsplanung. Ersteres konzentriert sich auf die Produktdatenanalyse, Maschinenauswahl und Bearbeitungsreihenfolgeplanung, während letzteres die detaillierten Arbeitsschritte der Bearbeitungsvorgänge innerhalb jedes Prozessplans berücksichtigt und von intelligenten NC-Steuerungen ausgeführt wird. Aufgrund der Dezentralisierung verspricht das DPP eine Verbesserung der Systemleistung in der sich ständig ändernden Produktionsumgebung.;-;-;-;https://link.springer.com/article/10.1023/A%3A1025797124367 26f22aee79ee6ab8f6855d77cf43653d;de;;;7.2.;;;Co-HITS-Ranking-basierte abfrageorientierte Zusammenfassung mehrerer Dokumente Graphbasierte Ranking-Methoden wurden erfolgreich auf die Zusammenfassung mehrerer Dokumente angewendet, indem verschiedene Linkanalysealgorithmen wie PageRank und HITS verwendet wurden, um verschiedene Beziehungen in den Prozess der Satzbewertung einzubeziehen. Sowohl die homogenen Beziehungen zwischen Sätzen als auch die heterogenen Beziehungen zwischen Sätzen und Dokumenten wurden in der Vergangenheit untersucht. Bei der abfrageorientierten Zusammenfassung mehrerer Dokumente werden jedoch die anderen drei Arten von Beziehungen (dh die Beziehungen zwischen Dokumenten, die Beziehungen zwischen der gegebenen Abfrage und den Dokumenten und die Korrelationsstärke von Satz zu Dokument) bei der Berechnung der Satz- Bedeutung. Um die Einschränkungen anzugehen, schlägt diese Studie einen neuartigen Co-HITS-Ranking-basierten Ansatz zur abfrageorientierten Zusammenfassung vor, der alle oben genannten Beziehungen, entweder homogen oder heterogen, in einem einheitlichen zweischichtigen Graphenmodell mit der Annahme verschmelzen kann dass signifikante Sätze und signifikante Dokumente selbst verstärkt und gegenseitig verstärkt werden können. Im Modell wird der Manifold-Ranking-Algorithmus verwendet, um die anfänglichen Biased Information Richness-Scores für Sätze und Dokumente einzeln nur basierend auf den lokalen Empfehlungen zwischen homogenen Objekten zuzuweisen. Dann werden durch die Übernahme des Co-HITS-Ranking-Algorithmus die anfänglichen verzerrten Informationsreichtums-Scores von Sätzen und Dokumenten natürlich in ein gegenseitiges Verstärkungs-Framework integriert, um heterogene Objekte gemeinsam einzuordnen. Die endgültige Punktzahl jedes Satzes kann durch einen iterativen Aktualisierungsprozess erhalten werden. Experimentelle Ergebnisse zu den DUC-Datensätzen belegen die gute Wirksamkeit des vorgeschlagenen Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17187-1_11 a27533280c58c3e014a1a9c0385344ee;de;;;7.2.;;;XML-Abruf basierend auf direktem Beitrag von Abfragekomponenten Dieses Papier beschreibt den Retrieval-Ansatz, der von der SIG/EVI-Gruppe des IRIT-Forschungszentrums auf der INEX’2005 vorgeschlagen wurde. Dieser XML-Ansatz basiert auf dem direkten Beitrag der Komponenten, die einen Informationsbedarf bilden. Dieses Papier konzentriert sich auf die Methodenentwicklungen seit der vorherigen Teilnahme an INEX. Es beschreibt die offiziellen Experimente, die für jede Teilaufgabe durchgeführt wurden, mit den entsprechenden Ergebnissen und zusätzlichen inoffiziellen Experimenten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-34963-1_13 d2824c675ad1e5e3d152cd10109d40cf;de;;;7.1.;;;Zur Planung und Steuerung von Geschäftsprozessen basierend auf ereignisbasierten Vorhersagen Um mit den steigenden Marktanforderungen im globalen Wettbewerb Schritt zu halten, sind Unternehmen gezwungen, jede ihrer Geschäftsprozessausführungen dynamisch an die aktuelle Geschäftssituation anzupassen. Unternehmen, die in der Lage sind, den Ist-Zustand ihrer Prozesse zu analysieren, den optimalen Verlauf zu prognostizieren und auf Basis verlässlicher Prognosen proaktiv zu steuern, sind dem Wettbewerb einen entscheidenden Schritt voraus. Der vorliegende Beitrag nutzt Potenziale der Predictive Analytics auf Big Data mit dem Ziel ereignisbasierter Prognosen und proaktiver Steuerung von Geschäftsprozessen. Dabei skizziert der Beitrag anhand einer Fallstudie eines stahlproduzierenden Unternehmens, welche produktionsbezogenen Daten derzeit erhoben werden und eine potenzielle Grundlage für genaue Prognosen bilden. Ohne dedizierte Methoden der Big-Data-Analytik kann das Musterunternehmen jedoch das Potenzial bereits vorhandener Daten für eine proaktive Prozesssteuerung nicht nutzen. Damit bildet der Artikel eine Arbeits- und Diskussionsgrundlage für die weitere Forschung zu Big Data Analytics.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06695-0_4 b5c53ec659ca66a98bd9e63f0f88113f;de;;;7.1.;;;Menschliche Planer und Planer Es gibt ein weit verbreitetes Missverständnis, dass APSs im Grunde als Platzhalter für Algorithmen dienen, die menschliche Aktivitäten ersetzen. Algorithmen gibt es zwar, aber sie basieren typischerweise auf einer formalen und weitgehend vereinfachten Definition von Planung und Terminierung. Die meisten Veröffentlichungen zu Algorithmen enthalten keine Anwendung in der Praxis. Stattdessen dienen APSs der Unterstützung von Menschen, die Produktionssteuerungsaufgaben ausführen, was bedeutet, dass jeder Implementierer von APS-Systemen ein Verständnis dieser Aufgaben haben muss – was weit über die mathematischen Definitionen hinausgeht (zB McKay et al. 1988, Stoop und Wiers 1996 ).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-65055-5_7 3e0d435d3ac467ca0612af3c8e3d93ac;de;;;7.2.;;;Verwalten von E-Mail-Überlastung mit einem automatischen nichtparametrischen Clustering-Ansatz E-Mail-Überlastung ist ein aktuelles Problem, mit dem die Menschen immer mehr Schwierigkeiten haben, die große Anzahl der täglich eingehenden E-Mails zu verarbeiten. Derzeit wird dieses Problem immer gravierender und hat bereits Auswirkungen auf die normale Verwendung von E-Mail als Wissensmanagement-Tool. Es wurde erkannt, dass die Kategorisierung von E-Mails in sinnvolle Gruppen die kognitive Belastung bei der Verarbeitung von E-Mails erheblich reduzieren kann, und dies ist daher ein effektiver Weg, um das Problem der E-Mail-Überlastung zu bewältigen. Die meisten aktuellen Ansätze erfordern jedoch immer noch erhebliche menschliche Eingaben bei der Kategorisierung von E-Mails. In diesem Beitrag entwickeln wir ein automatisches E-Mail-Clustering-System, das von einem neuen nichtparametrischen Text-Clustering-Algorithmus unterstützt wird. Dieses System benötigt keine vordefinierten Eingabeparameter und kann automatisch aussagekräftige E-Mail-Cluster generieren. Experimente zeigen, dass unser neuer Algorithmus bestehende Text-Clustering-Algorithmen mit höherer Effizienz in Bezug auf Rechenzeit und Clustering-Qualität, gemessen mit verschiedenen Messgeräten, übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74784-0_9 10b49beecee7e84abffda3cda79f476a;de;;;7.2.;;;Chaos-getriebene Partikelschwarmoptimierung mit grundlegender Partikelleistungsbewertung – eine erste Studie In diesem Beitrag wird das neuartige Konzept der Partikelleistungsbewertung in den Chaos-getriebenen Partikelschwarm-Optimierungsalgorithmus (PSO) eingeführt. Die diskrete chaotische dissipative Standardkarte wird hier als chaotischer Pseudozufallszahlengenerator (CPRNG) verwendet. Bei der neu vorgeschlagenen Methode zur Bewertung der Partikelleistung wird der Beitrag jedes Partikels zum Prozess der Erzielung der weltweit besten Lösung periodisch untersucht. Als Reaktion auf die mögliche schlechte Leistung eines bestimmten Partikels wird seine Geschwindigkeitsberechnung danach geändert. Durch die Verwendung dieses Ansatzes wird die Konvergenzgeschwindigkeit und die Gesamtleistung des PSO-Algorithmus, der von CPRNG basierend auf einer dissipativen Karte gesteuert wird, verbessert. Die vorgeschlagene Methode wird auf dem CEC13-Benchmarkset mit zwei unterschiedlichen Dimensionseinstellungen getestet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45237-0_41 650dc35dab37fd888f52f449bdb67513;de;;;7.1.;;;Planung für das Unerwartete: Ausnahmebehandlung und BPM Traditionelles S-BPM setzt erfolgreich auf standardisierte Geschäftsprozesse, die nach einem fest vorgegebenen Prozessmodell durchgeführt werden. Ein erheblicher Anteil der Geschäftsprozesse ist jedoch mit Ausnahme der häufig vorkommenden Kernprozesse schwer vorhersehbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36754-0_8 e17914450846ab6427afeeeaeec4b324;de;;;7.2.;;;Zur PAC-Erlernbarkeit funktionaler Abhängigkeiten Dieses Papier schlägt eine Art wahrscheinlich ungefähr korrekter (PAC) Lernrahmen vor, um aus Beispieltupeln eine Reihe von funktionalen Abhängigkeiten (FDs) abzuleiten. Es wird ein einfacher Algorithmus betrachtet, der eine Menge aller FDs ausgibt, die in einer Menge von Beispieltupeln enthalten sind. Lassen;-;-;-;https://link.springer.com/article/10.1007/BF03037352 0b7d8f2f129d1fb8463eecef3ca8050d;de;;;7.2.;;;Messung und Vergleich der Wirksamkeit von Datenqualitätstechniken Daten mit schlechter Qualität können erkannt und korrigiert werden, indem verschiedene Qualitätssicherungsaktivitäten durchgeführt werden, die auf Techniken mit unterschiedlicher Wirksamkeit und Kosten beruhen. In diesem Papier schlagen wir einen quantitativen Ansatz zur Messung und zum Vergleich der Effektivität dieser Datenqualitätstechniken (DQ) vor. Unsere Definitionen von Effektivität sind inspiriert von Maßnahmen, die in Information Retrieval vorgeschlagen werden. Wir zeigen, wie die Effektivität einer DQ-Technik in allgemeinen Fällen mathematisch geschätzt werden kann, indem formale Techniken verwendet werden, die auf probabilistischen Annahmen basieren. Anschließend zeigen wir, wie die resultierenden Effektivitätsformeln verwendet werden können, um DQ-Techniken zu bewerten, zu vergleichen und Entscheidungen zu treffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02144-2_17 ba6984e470cca1f261a8ee39f4b55455;de;;;7.1.;;;Evolution von Entscheidungsregeln für das IT-Portfoliomanagement: ein induktiver Ansatz Das IT-Portfoliomanagement und die damit verbundenen Planungsentscheidungen für IT-abhängige Initiativen sind entscheidend für die Unternehmensleistung. Aufbauend auf der Logik des theoretischen Rahmens der Angemessenheit definieren wir ein wichtiges Merkmal von Entscheidungsregeln, die bei der IT-Portfolioplanung verwendet werden, die Angemessenheit der Angemessenheit in Bezug auf das Kriterium der Risikoübernahme. Wir schlagen vor, dass die Angemessenheit von Regeln ein wichtiger Faktor sein wird, um die Entwicklung von Regeln im Laufe der Zeit zu erklären. Mit einer induktiven Lernmethodik analysieren wir einen einzigartigen Datensatz tatsächlicher Entscheidungen zur IT-Portfolioplanung über zwei aufeinander folgende Jahre innerhalb einer Organisation. Wir präsentieren eine systematische vergleichende Analyse der Entwicklung von Regeln, die in der Planung über zwei Jahre verwendet wurden, um unser Forschungsvorschlag zu validieren. Wir stellen fest, dass Regeln, die im ersten Jahr unangemessen waren, neu definiert werden, um geeignete Regeln für die Anwendung im zweiten Jahr zu entwickeln. Unsere Arbeit liefert empirische Evidenz, die das organisationale Lernen und die Verbesserungen der IT-Portfolioplanungsfähigkeiten zeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03132-8_25 9b7bfe31c713a9414621ca6ddfbecafa;de;;;7.1.;;;Verbesserung der Sicherheit des Informationsabrufsystems durch ein optimales maximales Codierungsschema In diesem Artikel werden neue maximale Codierungskompressionstechniken für die wichtigste Datei - die Textdatei eines beliebigen Volltext-Retrieval-Systems - diskutiert. Als Fortsetzung unserer vorherigen Arbeit zeigen wir, dass die optimalen maximalen Codierungsschemata mit den optimalen eindeutig decodierbaren Codierungsschemata übereinstimmen. Ein effizienter Algorithmus, der einen optimalen maximalen Code (oder einen optimalen eindeutig decodierbaren Code) erzeugt, wird ebenfalls angegeben. Ähnlich wie bei den Huffman-Codes wird vom Standpunkt der Rechenschwierigkeit und der informationstheoretischen Unmöglichkeit das Problem des Brechens eines optimalen maximalen Codes weiter untersucht. Da der Huffman-Code eine geeignete Unterklasse des optimalen maximalen Codes ist, kann dieser gut auf ein großes Informationsabrufsystem angewendet werden und folglich die Systemsicherheit verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36087-5_15 12ffd3c9b3c423da92feefc323d34ab8;de;;;7.1.;;;Evolution von ERP-Systemen Dieses Papier beschreibt die Entwicklung von ERP-Systemen im Laufe der Zeit. Es erforscht sowohl die Funktionalität als auch die Technologie von ERP-Systemen. Es erklärt die gestiegene Bedeutung von ERP-Systemen in der Praxis. Das Papier befasst sich auch mit den Schwierigkeiten, die bei der Implementierung von ERP-Systemen in der Praxis auftreten.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35321-0_2 744d941831f9001dadc4a479f08cb47a;de;;;7.1.;;;Informationsbedarf für Entscheidungen zum Supply Chain Design Die (Neu-)Gestaltung von Lieferketten erfordert Informationen, die häufig nicht in Standard-Informationssystemen verfügbar sind, und der Informationsbedarf wird nicht im Voraus festgelegt. Daher wird ein flexibler Ansatz für Management-Kontrollsysteme benötigt, der auch in komplexen, nicht gut strukturierten Entscheidungssituationen Entscheidungshilfen bietet. Die Studie basiert nur auf einer Einzelfallstudie. Dies soll helfen, Erkenntnisse darüber zu gewinnen, welche Art von Informationen erforderlich sind und wie diese bei Entscheidungen zur Gestaltung der Lieferkette verwendet werden. Die Ergebnisse dieses Papiers unterstreichen die Notwendigkeit für Manager, sich bewusst zu machen, welche Informationsquellen sie bei der (Neu-)Gestaltung ihrer Lieferketten genutzt haben. Der Beitrag skizziert die Betrachtungsweise von Informationen im Supply Chain Management, indem eine Perspektive eingenommen wird, die üblicherweise im Management Accounting dargestellt wird. Das Papier bietet einen ersten Rahmen, um verwandte Informationsbedürfnisse zu systematisieren und diese mit verschiedenen Entscheidungen zur (Neu-) Gestaltung von Lieferketten zu verknüpfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84996-525-5_21 24be1e464b2b154c9c05cc200dc273c2;de;;;7.1.;;;Einsatz von MCDM- und KI-Techniken zur Mechanisierung des Planungsprozesses für In-Service-Inspektionen Der Planungsprozess für die In-Service-Inspektionsprüfung für oberseitige Rohrleitungsausrüstung alternder Öl- und Gas(O&G)-Produktions- und Prozessanlagen (P&PFs) umfasst Personal mit unterschiedlichen Kenntnissen, Erfahrungen und Kenntnissen sowie einer großen Menge an Daten und Informationen. Um den Inspektionsplanungsprozess zu vereinfachen und die Qualität eines Inspektionsprogramms zu erhöhen, haben verschiedene Industrieunternehmen sowie Forscher isoliert zahlreiche Techniken entwickelt, um die Herausforderungen im Zusammenhang mit verschiedenen Aktivitäten im Zusammenhang mit dem Inspektionsplanungsprozess zu bewältigen. Um den gesamten Inspektionsprozess zu mechanisieren, müssen geeignete Techniken für die verschiedenen Aktivitäten identifiziert werden, die in einem generischen Inspektionsplanungsprozess durchgeführt werden. In diesem Manuskript wird der potenzielle Einsatz von Techniken der multikriteriellen Entscheidungsanalyse (MCDM) und der künstlichen Intelligenz (KI) diskutiert. Es liefert auch Belege für die Eignung von KI-Techniken in Bezug auf Fuzzy-Logik und künstliche neuronale Netze für die dynamische Mechanisierung des Prüfplanungsprozesses.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44733-8_33 f47214b134c15a67f1baf8b26c93aa52;de;;;7.1.;;;Das Management von voneinander abhängigen asynchronen Transaktionen in heterogenen Datenbankumgebungen Heutzutage unterhalten Unternehmen viele unterschiedliche Informationsquellen, über die komplexe Geschäftsabläufe und Anwendungen ausgeführt werden. Die informellen und ad-hoc-Eigenschaften dieser Umgebungen machen die darin enthaltenen Informationen sehr anfällig für Inkonsistenzen. Dennoch ist die Flexibilität der Anwendungsausführung, die verschiedenen Teilen einer Organisation gegeben ist, wünschenswert. Dieses Papier beschreibt einen neuen Mechanismus, bei dem die Ausführung asynchroner, bereits vorhandener, aber verwandter Anwendungen genutzt und gleichzeitig mit herkömmlichen verteilten Transaktionen ausgeführt werden kann. Die Arten von Inkonsistenzen, die als Ergebnis dieser gleichzeitigen Ausführung auftreten können, werden kategorisiert und Methoden zu ihrer Kontrolle und Beseitigung werden vorgeschlagen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008274421880 d189f5a249e4e8c3ea96b9c17c62bece;de;;;7.2.;;;Die Utrechter Mischung: Grundlegende Zutaten für ein XML-Abrufsystem Die Ausnutzung der Struktur eines Dokuments ermöglicht leistungsfähigere Techniken zum Abrufen von Informationen. In diesem Artikel wird ein grundlegender Ansatz zum Abrufen von XML-Dokumentfragmenten diskutiert. Basierend auf einem Vektorraummodell für die Textsuche wollen wir verschiedene Strategien untersuchen, die die Suchleistung eines XML-basierten IR-Systems beeinflussen.;-;-;-;https://link.springer.com/chapter/10.1007/11424550_12 2828eb132ee3a5756642c37fc1ce1a3e;de;;;7.1.;;;Anwendungen und Technologien für die maritime und Offshore-Industrie Autokon, ein CAD/CAM-System für Schiffe, war eine der wichtigsten frühen norwegischen Anwendungen. Wir beschreiben den Hintergrund des Autokon-Projekts und seine Ergebnisse. Wir werden speziell drei Technologie-Threads verfolgen, die wir aufgerufen haben;-;-;-;https://link.springer.com/chapter/10.1007/0-387-24168-X_34 bf7c8107dd45453d33e59ac79c07d3f0;de;;;7.1.;;;Entwurfsgrundlage für das Erreichen von Informationsintegrität – ein Ansatz für ein Feedback-Kontrollsystem Der Beitrag untersucht Fehler im Informationssystem (IS) und dadurch den Verlust der Integrität im IS. Insbesondere identifiziert das Papier Genauigkeit, Konsistenz und Zuverlässigkeit als intrinsische Integritätsattribute, die alle Informationssysteme erfüllen müssen. In vernetzten computergestützten Informationssystemen ist es die Unzulänglichkeit von Anwendungskontrollen, die in der Systementwicklungsphase konzipiert wurden, und die Möglichkeit von vererbten Fehlern und menschlichen Fehlern, die zu einem Verlust der Informationsintegrität führen (II), was wiederum den IS mit der Möglichkeit eines massiven Risikos von Informationsverschmutzung. Das Papier argumentiert, dass diese Fehler, die gemacht, aber nicht korrigiert werden, auf Faktoren zurückzuführen sind, die aus der Systemumgebung außerhalb des Anwendungssystems stammen und die Benutzerumgebung überschneiden. Dies erfordert automatische Rückkopplungskontrollsysteme für die Online-Fehlererkennung (oder gegebenenfalls Schätzung oder Vorhersage) zur Verbesserung der Integrität in Informationssystemen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35396-8_9 458e19541f3b6ee8c901535706129714;de;;;7.1.;;;IAFs ArchitekturAF Das Erklären von IAF muss mit den Grundlagen beginnen, den Kernelementen des Frameworks. Eigentlich ist es unser Ziel, dass Sie die eigene Architektur von IAF verstehen. Sobald Sie die Struktur und die zugrunde liegenden Ideen von IAF verstanden haben, ist es einfacher, sie auf die spezifische Situation anzuwenden, in der Sie sich befinden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11518-9_2 9173bc97f7289bb0699e8bf856b54ec4;de;;;7.1.;;;Taxonomische Klassifikation von Planungsentscheidungen im Gesundheitswesen: eine strukturierte Bestandsaufnahme des Standes der Technik im OP/MS Wir bieten einen umfassenden Überblick über die typischen Entscheidungen, die in der Ressourcenplanung und -steuerung im Gesundheitswesen zu treffen sind, und eine strukturierte Übersicht relevanter Artikel aus dem Bereich Operations Research und Management Sciences (OR/MS) für jede Planungsentscheidung. Der Beitrag dieses Papiers ist zweifach. Um die Planungsentscheidungen zu positionieren, wird zunächst eine Taxonomie vorgestellt. Diese Taxonomie bietet Gesundheitsmanagern und OR/MS-Forschern eine Methode, um Planungs- und Kontrollentscheidungen zu identifizieren, aufzuschlüsseln und zu klassifizieren. Zweitens liefern wir in Anlehnung an die Taxonomie für sechs Gesundheitsdienste eine umfassende Spezifikation von Planungs- und Kontrollentscheidungen in der Ressourcenkapazitätsplanung und -steuerung. Für jede Planungs- und Kontrollentscheidung überprüfen wir strukturell die wichtigsten OR/MS-Artikel und die OR/MS-Methoden und -Techniken, die in der Literatur zur Unterstützung der Entscheidungsfindung angewendet werden.;-;-;-;https://link.springer.com/article/10.1057/hs.2012.18 7a6828e76231a2fc1d285e79f701caec;de;;;7.1.;;;Das Netzwerk der Logistikentscheidungen Dieses Kapitel bietet einen Rahmen für die Entscheidungsfindung in der Geschäftslogistik, indem es Logistikentscheidungen klassifiziert und die relevanten Verbindungen zwischen ihnen hervorhebt. Wir konzentrieren uns auf die Vorrangbeziehungen zwischen Logistikentscheidungen und darauf, wie jede Entscheidung andere Entscheidungen beeinflusst und von diesen beeinflusst wird. Wir identifizieren auch die wichtigsten Informationen, die für verschiedene Logistikentscheidungen erforderlich sind. Kern unseres Frameworks ist eine dreiteilige Entscheidungshierarchie bestehend aus einer strategischen Planungsebene, einer Netzwerkebene und einer operativen Ebene für 48 grundlegende Logistikentscheidungen. Die Komplexität der Verknüpfungen zwischen den verschiedenen Entscheidungen zeigt, wie eng die Entscheidungen miteinander verknüpft sind und unterstreicht die Komplexität des Managements von Logistikaktivitäten.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-24977-X_1 fdea322e9d85a86b6877212f0fe5e2eb;de;;;7.2.;;;Kombinieren von zusammengesetzten und einzelnen Begriffen unter dem Sprachmodell-Framework Die meisten existierenden Information Retrieval-Modelle, einschließlich probabilistischer und Vektorraummodelle, basieren auf der Begriffsunabhängigkeitshypothese. Um über diese Annahme hinauszugehen und dadurch die Semantik von Dokument und Abfrage genauer zu erfassen, haben mehrere Arbeiten Phrasen oder andere syntaktische Informationen in IR integriert, solche Versuche haben bestenfalls einen geringen Nutzen gezeigt. Insbesondere bei Sprachmodellierungsansätzen wird diese Erweiterung durch die Verwendung der Bigramm- oder N-Gramm-Modelle erreicht. In diesen Modellen werden jedoch alle Bigramme/n-Gramm berücksichtigt und einheitlich gewichtet. In diesem Artikel stellen wir einen neuen Ansatz vor, um relevante n-Gramme, die einem Dokument zugeordnet sind, auszuwählen und zu gewichten. Experimentelle Ergebnisse von drei TREC-Testsammlungen zeigten eine Verbesserung gegenüber drei stärksten Modell-Baselines nach dem Stand der Technik, nämlich dem ursprünglichen Unigram-Sprachmodell, dem Markov-Random-Field-Modell und dem Positionssprachmodell.;-;-;-;https://link.springer.com/article/10.1007/s10115-013-0618-x 83f201e5358adcc302f26a10420e0af9;de;;;7.2.;;;Sphärische und torusförmige SOM-Ansätze zur Bewertung des metabolischen Syndroms Einer der bedrohlichen Gesundheitstrends der Jugend in den letzten Jahren war das metabolische Syndrom. Viele assoziieren dieses Syndrom damit, wie groß das Fettgewebe um den Bauch ist. Selbstorganisierende Karten (SOM) können als Visualisierungswerkzeug angesehen werden, das hochdimensionale Datensätze auf eine zweidimensionale Ebene projiziert, wodurch die Komplexität der Daten vereinfacht wird und dabei viele der verborgenen Details für einfache Analysen, Clustering und Visualisierung. Dieses Papier konzentriert sich auf die Analyse, Visualisierung und Vorhersage der Syndromtrends unter Verwendung von sowohl sphärischer als auch torusförmiger SOM, um ihre Trends zu diagnostizieren, andere Risikofaktoren in Wechselbeziehung zu setzen und die aus den beiden Ansätzen der SOM erhaltenen Reaktionen zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69162-4_29 91c1330cfea87038fe870ad5f410d473;de;;;7.2.;;;Adjektivräume messen In diesem Artikel verwenden wir die Modelladjektive mit einem Vektorraummodell. Darüber hinaus setzen wir drei verschiedene Dimensionsreduktionsmethoden, die Principal Component Analysis (PCA), die Self-Organizing Map (SOM) und den Neighbor Retrieval Visualizer (NeRV) in der Projektions- und Visualisierungsaufgabe ein, wobei der Antonym-Test zur Auswertung verwendet wird. Die Ergebnisse zeigen, dass die Ergebnisse zwischen den drei Methoden zwar vergleichbar sind, der NeRV jedoch die beste der drei Methoden ist und alle in der Lage sind, aussagekräftige Informationen für weitere Analysen zu speichern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15819-3_46 3074b7dbf4f3767e0af8461105748749;de;;;7.1.;;;Infrastruktur der öffentlichen Beratung in der Stadtplanung – Wie Stadtplaner die öffentliche Beratung in ein sozio-technisches Unterstützungssystem übersetzen Für die Bürgerberatung in der Stadtplanung können Stadtplaner verschiedene Softwaresysteme einsetzen, um den Dialog mit den Bürgern zu verbessern. In diesem Artikel werden Versuche dazu untersucht, indem die Arbeit eines Teams kommunaler Stadtplaner in vier Phasen der öffentlichen Konsultation zwischen 2012 und 2015 verfolgt wird. Die Studie basiert auf detaillierten halbstrukturierten Interviews, Feldnotizen aus regelmäßigen Besuchen der Planer “ sowie eine Datenbank mit Kommentaren zur öffentlichen Konsultation und der Teilnahme an Konsultationsveranstaltungen in allen Phasen. Mit einem Ansatz, der die Arbeit der Planer bei der Auswahl und Implementierung von Software im Rahmen institutioneller Zielsetzungen und Rahmenbedingungen als „Infrastruktur“-Arbeit betrachtet, untersuchen wir den gemeinsamen Einsatz, die Nutzung und die Auswirkungen von neun Software-Tools und entstehenden Praktiken für öffentliche Konsultationen. Unsere Ergebnisse zeigen, dass die Infrastrukturarbeit der Planer zahlreiche Interpretationen über die Möglichkeiten der Softwareanpassung und die Auswirkungen der Softwarenutzung beinhaltete, die durch Beratungs- und Planungserfordernisse ermöglicht und eingeschränkt wurden. Die Ergebnisse weisen auch auf eine Rolle der Forscher bei der Vermittlung von Planern zwischen formalen Prozessen und öffentlichen Anliegen hin und veranschaulichen, wie dieser technologisch-institutionelle Kampf in der Infrastrukturarbeit einen wesentlichen Bestandteil der Praxis von Stadtplanern bildet.;-;-;-;https://link.springer.com/article/10.1007/s10606-020-09384-y dc98a978b4c5a578ed7bb2c52a70248b;de;;;7.1.;;;Personalisierte und Community-Entscheidungsunterstützung in eTourism-Vermittlern Die schnell wachsenden Web-Technologien und elektronischen Handelsanwendungen haben den Bedarf an personalisierten und Gruppenentscheidungsunterstützungsfunktionen in eTourismus-Vermittlungssystemen stimuliert. Das Ziel dieses Papiers ist es, einen funktionalen Rahmen und einen Designprozess für den Aufbau eines webbasierten kundenorientierten Entscheidungsunterstützungssystems vorzuschlagen, um personalisierte und kommunale Tourismusdienste zu ermöglichen. Zu den wichtigsten Entscheidungsunterstützungsfunktionen gehören personalisiertes Daten- und Modellmanagement, Informationssuche und -navigation, Produkt-/Anbieterbewertung und -empfehlung, Reiseplanung und -design in Eigenregie, Community- und Kollaborationsmanagement, Auktion und Verhandlung sowie Reiseverfolgung und Qualitätskontrolle . Ein Systemimplementierungsansatz sowie ein Systemprototyp werden ebenfalls vorgestellt und diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/11546924_88 b0573ec111662b0c4b94dfc684a8f4b9;de;;;7.1.;;;Software-Innovationsdynamik in CMS und ihre Auswirkungen auf die Entwicklung von Unternehmensinformationssystemen In diesem Beitrag werden die Ergebnisse einer prospektiven Studie zu Trends bei der Entwicklung von Informationssystemen vorgestellt. Es basiert auf der Beobachtung, dass KMU nach Möglichkeiten suchen, ihr CMS-basiertes IS mit CRM-, E-Commerce- und ERP/ERM-Funktionalitäten auszustatten. Anhand öffentlich zugänglicher Release-Daten untersuchten wir die Dynamik nachfolgender Versionen und neue Funktionalitäten der beliebtesten Open-Source-CMS – Drupal, Joomla! und WordPress. Besonderes Augenmerk wurde auf Software-Innovationen gelegt, die den Einsatz von CMS-basierten Anwendungen für typische EIS-Zwecke ermöglichen. Das Wettrennen der Softwaretechnologie wurde durch ein System quasi-linearer stochastischer Gleichungen mit Zustandsvariablen modelliert, die die Zeit der Upgrade-Generierung beschreiben. Für die oben genannten CMS wurden zwei solcher Modelle erstellt und verglichen. Die Trendextrapolation mit Vektorautoregression ermöglichte es uns, die Entwicklungsaussichten von ERP-bezogenen Funktionalitäten bis 2025 vorherzusagen. Wir behaupten, dass der Einsatz von CMS-basiertem ERP/ERM relevante Auswirkungen auf Geschäftsmodelle und die strategische IKT-Ausrichtung in KMU haben kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49944-4_23 0250e28ec2ef21dce89bbf21089b55ac;de;;;7.1.;;;Kontroll- und Wissensmanagementsystem In diesem Abschnitt und in der Managementphase wird die nachhaltige Entwicklung unseres Management-Frameworks für die Wartung von Netzbetreibern verfolgt, wobei die Standardisierung, das Wissensmanagement und die angemessene IKT-Unterstützung im Laufe der Zeit kontrolliert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-2757-4_12 619a19f00fbbde74869afdfacd162d17;de;;;7.2.;;;Mehrsprachige Story-Link-Erkennung basierend auf Ereignisbegriffsgewichtung nach Zeiten und mehrsprachigen Räumen In diesem Beitrag schlagen wir einen neuartigen Ansatz zur Erkennung mehrsprachiger Story-Links vor. Unser Ansatz verwendet Merkmale wie Zeitleisten und mehrsprachige Räume, um Begriffen, die eine sprachliche Darstellung von Ereignissen darstellen, unterschiedliche Gewichte zu verleihen. Auf Zeitachsen wird die Begriffssignifikanz berechnet, indem die Begriffsverteilung der Dokumente an einem Tag mit der der gesamten Dokumentensammlung verglichen wird. Da zwei Sprachen mehr Informationen liefern können als eine Sprache, wird die Begriffssignifikanz auf jedem Sprachraum gemessen, der dann als Brücke zwischen zwei Sprachen auf mehrsprachigen (hier zweisprachigen) Räumen verwendet wird. Bei der Bewertung der Methode in koreanischen und japanischen Nachrichtenartikeln erzielte unsere Methode eine Verbesserung von 14,3% für einsprachige Story-Paare und eine Verbesserung von 16,7% für mehrsprachige Story-Paare. Durch die Messung der Raumdichte werden die vorgeschlagenen Gewichtungskomponenten mit einer hohen Dichte der Intra-Event-Geschichten und einer geringen Dichte der Inter-Event-Geschichten verifiziert. Dieses Ergebnis zeigt, dass die vorgeschlagene Methode für die Erkennung mehrsprachiger Story-Links hilfreich ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30544-6_43 f8a20f4d89d5905c0080fd19a728762a;de;;;7.1.;;;Problemkonkretisierung – SCP-Orientierung fördert die Integration von CT in SC-Konzepte Das zweite Kapitel konkretisiert die Problemformulierung und diskutiert verschiedene theoretische Ansätze zur Unterstützung der Problemlösung. Zunächst wird die praktische Problemstellung der SC-Integration im Detail analysiert (Abschnitt 2.1). Zweitens wird die Problemstellung durch Erkenntnisse aus spezifischen Bereichen der SCM- und Verkehrsforschung ergänzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-3958-6_2 beaad33bbcd5f3307052105819107090;de;;;7.1.;;;Das Konzept der intellektuellen Kontrolle im Precision Farming Der Agrarsektor ist einer der wichtigsten Bereiche der Digitalisierung der Wirtschaft. Wesentliche Grundlage der Digitalisierung sind dabei Precision Farming Technologien (TK), in denen die Aufgaben des Managements von Agrartechnologien umgesetzt werden. Diese Aufgaben werden je nach Art des exekutiven Kontrollsystems in zwei Hauptgruppen unterteilt. Die erste Gruppe umfasst organisatorische Managementaufgaben, die in Management Decision Support Systems (DSS) verankert sind und vom Management auf verschiedenen Ebenen umgesetzt werden. Die zweite Gruppe umfasst die Aufgaben des Managements von Feldlandwirtschaftstechnologien, die in automatisierten Steuerungssystemen (ACSAT) implementiert sind. Diese Aufgaben werden von automatisierten und robotischen technologischen Maschinen ausgeführt. Die Wirksamkeit von Managementsystemen hängt vom Grad der Beteiligung des Menschen am Managementprozess ab, also vom Grad seiner Intellektualisierung. Ein hoher Intellektualisierungsgrad hängt davon ab, inwieweit die Errungenschaften der modernen Betriebswirtschaftslehre in die Gestaltung von Kontrollsystemen eingebunden sind. Diese Leistungen werden am besten in den analytischen Systemen DSS und ACSAT genutzt. Ihrem tatsächlichen Einsatz steht jedoch der Mangel an Personal mit den erforderlichen Qualifikationen bei den ländlichen Rohstoffproduzenten gegenüber. Dieses Problem kann durch den Wechsel zu intelligenten Steuerungssystemen von Experten gelöst werden, die keine komplexen mehrstufigen Berechnungen erfordern. Ziel der Studie ist es, durch den Einsatz von Cloud-Informationstechnologien ein bahnbrechendes Niveau intelligenter Managementsysteme für Agrartechnologien zu gewährleisten, bei denen die Wissensgrundlagen der Systeme in Informationsverarbeitungszentren gebildet und über eine öffentliche Cloud an lokale DSS und ACSAT übertragen werden . #CSOC1120;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-77448-6_4 7aa6e1e32a61d6900022c91c8e5335eb;de;;;7.1.;;;Eine operative Planungslösung für KMU in kollaborativen und nicht-hierarchischen Netzwerken Im Hinblick auf die derzeitige große Bandbreite an Komplexitäten, Topologien und Hauptmerkmalen in Verbindung mit Netzwerkumgebungen kann eine Vielzahl von kollaborativen Netzwerkkonfigurationen untersucht und analysiert werden. Aufgrund der zunehmenden Bedeutung für Forscher, Hochschulen und Praktiker konzentriert sich dieser Beitrag auf kollaborative und nicht-hierarchische Netzwerke. Diese Art von Netzwerken zeichnet sich normalerweise durch eine verteilte Verwaltung des Entscheidungsprozesses aus. Daher sind der Informationsaustausch und die Etablierung kollaborativer Prozesse und Verpflichtungen Kernaktivitäten der Netzwerkpartner. Die Hauptorientierung dieses Beitrags besteht dabei darin, durch Anwendung der Literaturrecherchemethode die relevanten kollaborativen Prozesse abzudecken, die KMU bei der Teilnahme an nichthierarchischen Netzwerken berücksichtigen müssen. Aus den Ergebnissen der überprüften Literatur wird festgestellt, dass KMU unter der nicht-hierarchischen Netzwerkperspektive verschiedene Schwierigkeiten haben können, kollaborative Prozesse innerhalb einer optimalen Leistung zu übernehmen. Ein relevanter Prozess ist der mit der Operationsplanung verbundene Prozess, bei dem dieser Beitrag auf seine kollaborative Perspektive fokussiert. In diesem Zusammenhang und angesichts der erforderlichen Menge an Vereinbarungen und standardisierten Prozessen könnte die Unterstützung der kollaborativen Betriebsplanung zur Erarbeitung effizienter und akzeptabler Lösungen für KMU zu einer der komplexesten Aktivitäten für die Teilnahme an kollaborativen nichthierarchischen Netzwerken werden. Das Ziel dieses Papiers ist es, die Hauptbarrieren der operativen Planungsprozesse in nicht-hierarchischen Netzwerken aus einer kollaborativen Perspektive zu adressieren. Darüber hinaus wird eine konzeptionelle Lösung auf Basis von Multi-Agenten-Systemen adressiert, in der ihre Anwendung auf nicht-hierarchische Netzwerke analysiert wird, um den operativen Planungsprozess in kollaborativen und verteilten Umgebungen zu bewältigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41077-2_4 334f0dc4848553318cdab40d8f46aef3;de;;;7.1.;;;CIDAM — Module zur Erstellung von CIM Trotz offensichtlicher Begeisterung ist die Implementierung kompletter CIM-Systeme noch weit davon entfernt, State of the Art in der Weltindustrie zu sein. Technologische Fortschritte haben zu einem weit verbreiteten Einsatz der Informationstechnologie in der Fertigung geführt, haben jedoch hauptsächlich Automatisierungsinseln hervorgebracht. Abbildung 1 veranschaulicht die aktuelle Situation in der Industrie. Die zum Bereich Produktionsplanung und -steuerung (PPS) gehörenden organisatorischen und planerischen Funktionen auf der linken Seite sind von den technischen Funktionen der rechten CAE/CAD/CAM-Kette getrennt. Der Abstand ist auf der oberen Planungsebene stärker und nimmt ab, ist aber auf der Realisierungsebene auf der unteren Hälfte noch vorhanden. Zusätzlich zu dieser Barriere existieren innerhalb beider Ketten weitere Barrieren. Sie entsprechen den Grenzen der traditionellen isolierten Teilsysteme eines Unternehmens, die sich durch ihre Funktionen, den Grad der EDV-Unterstützung, die EDV-Systeme selbst, die Organisationsstruktur, den Personaleinsatz, die Verwaltung der eigenen Daten und die Beziehungen auszeichnen mit den anderen Subsystemen. Daher CIM als integrierte Informationsverarbeitung für die technischen und betrieblichen Aufgaben eines Unternehmens;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-1786-5_23 62360caf0cb93db0dacde8838179e292;de;;;7.1.;;;Eine Einführung in Neurobiologie und das Gehirn für Wirtschaftsinformatiker Dieses Kapitel bietet eine Einführung in die Neurobiologie und das Gehirn. Konkret fasst es grundlegendes Wissen zur Humanphysiologie für IS-Forscher zusammen, die sich mit grundlegenden Konzepten und Mechanismen der Neurobiologie und Neurowissenschaften vertraut machen wollen. Wir beginnen mit einer Beschreibung grundlegender Konzepte der Genetik. Es folgt eine Beschreibung des menschlichen Nervensystems, einschließlich einer Darstellung der Hauptkomponenten und der grundlegenden Funktionen des Nervensystems. Als nächstes diskutieren wir das menschliche Gehirn. Konkret skizzieren wir wichtige Gehirnstrukturen mit ihren Hauptfunktionen. Wir fassen auch die grundlegende Terminologie zusammen, die in den Neurowissenschaften verwendet wird, um Orte im Gehirn zu beschreiben. Aufgrund seiner Nützlichkeit für die IS-Forschung beschreibt dieser Beitrag auch Grundlagen zum Aufbau und zur Funktionsweise des autonomen Nervensystems. Wir schließen das Kapitel mit einer kurzen Reflexion über die Plastizität des Gehirns.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45091-8_2 34635498f429273b94ea3dc4a96654ee;de;;;7.2.;;;Eine Fuzzy-LMS-Neuralnetzwerk-Methode zur Bewertung der Bedeutung von Indizes in MADM Ein Fuzzy-LMS-(Least-Mean-Square-Algorithmus)-Neuralnetzwerk-Bewertungsmodell mit Fuzzy-Dreieckszahlen als Eingaben wird eingerichtet, um die Bedeutung verschiedener Indizes zu vergleichen. Das Modell kann Attribut- oder Indexgewichtungen (Wichtigkeit) automatisch bestimmen, damit sie objektiver und genauer verteilt werden. Das Modell besitzt zudem eine starke Selbstlernfähigkeit, sodass Berechnungen stark reduziert und vereinfacht werden. Darüber hinaus werden die spezifischen Unsicherheitspräferenzen der Entscheidungsträger, d. h. risikoavers, risikoliebend oder risikoneutral, im Bewertungsmodell berücksichtigt. Daher kann unsere Methode objektive Ergebnisse liefern und gleichzeitig die subjektiven Absichten des Entscheidungsträgers berücksichtigen. Inzwischen ist es einfach. Ein Zahlenbeispiel soll das Verfahren veranschaulichen.;-;-;-;https://link.springer.com/chapter/10.1007/11893295_114 2a0c7944d47e015302188229199055a3;de;;;7.1.;;;Projektdurchführungsstrategie und Planungsherausforderungen Der Planungsprozess in Engineer-To-Order (ETO)-Projekten ist herausfordernd aufgrund: globales Netzwerk von Teilnehmern innerhalb eines Projekts, dynamische Iterationen von Design- und Engineering-Aktivitäten sowie die Notwendigkeit, Aktivitäten gleichzeitig zu erledigen, die die Lieferzeit verkürzen . Darüber hinaus stören Managemententscheidungen darüber, was und wohin ausgelagert werden soll, den Planungsprozess aufgrund mangelnder Integration zwischen verschiedenen Arbeitsmethoden oder Systemen. In diesem Artikel stellen wir einige der Herausforderungen während des Planungsprozesses vor und verbinden sie mit der Projektdurchführungsstrategie der ETO-Unternehmen beim Management ihrer Projekte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-66926-7_28 76bbec7787ea0d54019103fef2e03c73;de;;;7.1.;;;Auswirkungen des Milk Run Collect-Systems der Automobilhersteller auf die Lieferantenplanung und auf die Emissionen von Städten Das Milk-Run-System ist weltweit in der Automobilindustrie weit verbreitet. Seine Verwendung ergibt sich aus einer steigenden Nachfrage nach Komponenten zur Bestandsreduzierung und Fertigwaren in der gesamten Automobillieferkette. Ziel dieses Papiers ist es, den von Automobilherstellern und Zulieferern wahrgenommenen Nutzen zu bewerten und die Umsetzungswirkungen zu analysieren. Diese Bewertung wird auf Feldforschung basieren, auf der die Ergebnisse basieren. Ein weiterer Punkt mit großer Bedeutung ist heutzutage die energetische Effizienz des Milchlaufs im Vergleich zu den konventionellen Routen. Da der Milkrun-Kreislauf nicht auf minimalen Kraftstoffverbrauch optimiert ist, stellen wir anhand von quantitativen Berechnungen für repräsentative Routen dar, wie hoch der Emissionsnachteil des Milkruns im Vergleich zum konventionellen Collect-System ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44736-9_15 67dabab7e1851568143913438927dd1f;de;;;7.1.;;;Die Rolle der öffentlichen Ordnung bei der Verbesserung der Gestaltung und Verbreitung von Informationssystemen und -technologie zum Nutzen des Menschen Technologien zum Nutzen des Menschen, wie Informationssysteme und Informationstechnologie, spielen eine Schlüsselrolle bei der Verwirklichung der Lebensqualität aller Bürger durch moderne Gesellschaften. Neue Formen von IS und IT können entwickelt und kreativ genutzt werden, um Bildung, Gesundheit, soziale Gerechtigkeit, Umweltbedingungen, soziale und ökologische Nachhaltigkeit, staatliche und gemeinnützige Dienstleistungen, Regierungsbeteiligung und Lebensfreude allgemein zu verbessern .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12113-5_22 f8c6e9235d3363948eeede35d6add31d;de;;;7.2.;;;Verwenden eines Relevanz-Feedback-Mechanismus zur Verbesserung des inhaltsbasierten Bildabrufs Das Papier beschreibt einen neuen Relevanz-Feedback-Mechanismus, der die Verteilung der Merkmale von Bildern bewertet, die vom Benutzer als relevant oder nicht relevant beurteilt werden, und sowohl das Ähnlichkeitsmaß als auch die Abfrage dynamisch aktualisiert, um die besonderen Informationsbedürfnisse des Benutzers genau darzustellen. Experimentelle Ergebnisse werden berichtet, um die Wirksamkeit dieses Mechanismus zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48762-X_14 0fbf5a4b78a6eaa03e5bb9e1a818dd2d;de;;;7.1.;;;Mehrschichtige PSMs für die Planung PSM sind wesentliche Bestandteile jeder modernen Wissensmethodik, da sie uns einige Richtlinien liefern, die den Aufbau wissensbasierter Systeme erleichtern und die Wiederverwendbarkeit von Entwicklungsbemühungen fördern. Es wird jedoch anerkannt, dass die Wiederverwendbarkeit jedes PSM mit zunehmender Komplexität der zu modellierenden Aufgabe abnimmt. Wenn wir bedenken, dass die tatsächlichen Aufgaben komplex genug sind, können wir schlussfolgern, dass die effektive Wiederverwendbarkeit eines PSM sehr begrenzt ist. Um diese Unannehmlichkeiten zu minimieren, schlagen wir vor, zwei Schichten PSM zu verwenden. Eine Schicht modelliert die primitiven Aufgaben, aus denen das System besteht. Die andere Schicht steuert die Ausführungsreihenfolge dieser Aufgaben, um zu einer globalen Lösung zu gelangen. In diesem Dokument wird beschrieben, wie wir dieses Schema auf eine Planungsaufgabe in der Such- und Rettungsdomäne angewendet haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0269-4_27 c63bc52df12974158b18c3c87b5da245;de;;;7.1.;;;Analyse der Risikofaktoren von ERP (Enterprise Resource Planning)-Systemen Informationstechnologien In diesem Beitrag geht es um gesammelte Informationen zur Softwareentwicklung und zur Einführung des ERP-Systems. Ziel ist es, die Wahrnehmung des gegebenen und installierten Systems sowie die Faktoren, die nach der Systemimplementierung eingeführt wurden, kennenzulernen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48024-4_11 e1c46a2663566b844866feb603d3a6ea;de;;;7.1.;;;Design und Implementierung eines Business Intelligence Dashboards zur Projektsteuerung bei der Port Harbor-Gesellschaft Diese Studie soll das Ressourcenmanagement und den Projektcontroller der Port Harbour Company unterstützen. Port Harbour Company ist ein IT-Beratungsunternehmen. Häufig auftretende Probleme in der IT-Beratung beziehen sich auf die Projektkosten, das Ressourcenmanagement und die Kontrolle jedes Projekts. Probleme, die bei der Port Harbour Company auftreten, sind schlechtes Ressourcenmanagement, Ausgaben, die ein vorgegebenes Budget überschreiten und wie man den Status laufender Projekte einsieht. Die Verwendung von Business Intelligence und dem Dashboard als Frontend hilft dem Projektcontroller und dem Ressourcenmanagement, Ressourcen zu verwalten, Projektkosten zu verwalten und laufende Projekte zu überwachen. In dieser Studie wird erwartet, dass die Entwicklung und Implementierung von Business Intelligence und Dashboards mit der ASAP-Methode strukturierter ist und das Problem der Port Harbor Company lösen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3380-8_9 5fb12b99517edbbe7018e6cd699e3b2a;de;;;7.1.;;;Perspektiven in das Umweltmanagement integrieren Die Umweltwahrnehmung spielt bei Umweltentscheidungen eine große Rolle. Drei verschiedene Perspektiventypen können identifiziert werden – persönliche, technische und organisatorische –, die die Reaktion auf Umweltmanagementprobleme bestimmen. Die Integration von Perspektiven mittels multipler Perspektivenanalyse kann im Umweltmanagement von Nutzen sein. Mit dieser Technik wurden zwei Umweltmanagementprobleme analysiert und unterschiedliche Perspektiven integriert. Diese Integration ähnelt der Aufgabe, ein dreidimensionales Objekt aus einer Reihe von eindimensionalen Beschreibungen und zweidimensionalen Zeichnungen zu konzipieren.;-;-;-;https://link.springer.com/article/10.1007/BF01867158 504ad8625a811326fb427d7c6839679a;de;;;7.2.;;;Virtuelles Unternehmen in geschlossener Lieferkette und Leistungsbewertung basierend auf Exergoökonomie Basierend auf der Analyse der Schwierigkeiten des Closed-Loop-Supply-Chain-Betriebsmanagements unter Berücksichtigung der neuen Umgebung als sich kontinuierlich entwickelnder Wirtschaftsgesellschaft und der Erörterung der Machbarkeit virtueller Unternehmen wird in dieses Papier. Der Organisationsrahmen, der operative Prozess und die dynamische Dauer des virtuellen Unternehmens mit traditionellem Managementmodus werden im Detail erläutert. Unter Verwendung der Exergoökonomie-Theorie wird die geschlossene Lieferkette mit der neuen Sichtweise als ein riesiges Energiesystem betrachtet, und die Nachhaltigkeit des geschlossenen Lieferkettensystems wird in diesem Papier unter den Umständen der Exergoökonomie diskutiert und dann die Metrik über „System negativer Umwelteffekt“ wird eingeführt, um die Leistung eines geschlossenen Lieferkettensystems unter dem Aspekt der Energie zu messen. Abschließend illustriert eine Fallstudie unsere Schlussfolgerung.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75902-9_13 7a318192275be36beceeae2a5395f9c2;de;;;7.2.;;;Ein Vergleich zwischen gesprochenen Abfragen und menübasierten Schnittstellen für die digitale Musikauswahl im Auto Abgelenktes Fahren ist heute ein bedeutendes Thema für unsere Gesellschaft, und dennoch halten Informationstechnologien, einschließlich wachsender digitaler Musiksammlungen, weiterhin Einzug in das Auto. In diesem Beitrag werden Arbeiten zu Methoden beschrieben, die die kognitive Belastung und die ablenkende visuelle Anforderung der Fahrer bei der Suche und dem Hören von digitaler Musik verringern sollen. Die bestehenden kommerziellen Paradigmen für den Abruf – grafische oder gesprochene Menüdurchquerung und textbasierte Suche – sind unbefriedigend, wenn kognitive Ressourcen begrenzt sind und Tastaturen nicht verfügbar sind. Wir haben bereits vorgeschlagen, fehlertolerante gesprochene Abfragen [26] in Kombination mit direkten Modalitäten wie Tasten am Lenkrad [7] zu verwenden. In diesem Artikel präsentieren wir im Detail die Ergebnisse eines Experiments, das den Industriestandardansatz hierarchischer grafischer Menüs mit unserem Ansatz vergleichen soll. Wir haben festgestellt, dass unsere vorgeschlagene Schnittstelle bei einer simulierten Fahraufgabe effizienter und weniger ablenkend ist.;-;-;-;https://link.springer.com/chapter/10.1007/11555261_44 2c533aff03c85a661e93ad624c951070;de;;;7.2.;;;Nitroaromatische Munitionsverbindungen: Umweltauswirkungen und Screening-Werte Nitroaromatische Verbindungen, einschließlich 2,4,6-Trinitrotoluol (TNT), Hexahydro-1,3,5-Trinitro-1,3,5-triazin (RDX), Octahydro-1,3,5,7-Tetranitro-1, 3,5-Tetrazocin (HMX), N-Methyl-N,2,4,6-tetranitroanilin (Tetryl) und zugehörige Neben- und Abbauprodukte wurden während der Herstellung und Beladung, Montage und Verpackung (LAP) in die Umwelt Prozesse in Munitionsfabriken der US-Armee (AAPs) und anderen militärischen Einrichtungen. Als Folge der Freisetzung dieser nitroaromatischen Verbindungen in die Umwelt wurden viele AAPs auf die National Priorities List for Superfund cleanup (Fed. Reg. 60:20330) gesetzt. Viele dieser Stätten bedecken eine große Ausdehnung relativ unberührten Landes und bieten vielfältige Lebensräume, die eine Vielzahl von Wasser- und Landarten beherbergen. Nitroaromaten sind potenziell toxisch für die einheimischen Arten an diesen Standorten und stellen ein erhebliches Problem für die Sanierung von Standorten dar. Tabelle 1 gibt einen Überblick über die Bereiche nachgewiesener Konzentrationen der Nitroaromaten in Grundwasser, Oberflächenwasser, Sediment und Boden an Militär- und Produktionsstandorten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-6427-7_1 42855816e824f33b82dfab668794c616;de;;;7.1.;;;Bewältigung der Herausforderungen der Planung in multimodalen Verkehrsknotenpunkten mit Simulationsspielen Der globale Transport kennt viele verschiedene Modalitäten – Waren kommen von weit her per Schiff, Flugzeug, Bahn oder LKW an. Flughäfen und Seehäfen sind beide wichtige Knotenpunkte im globalen Transportnetzwerk. Beide weisen unterschiedliche Eigenschaften, aber auch Gemeinsamkeiten auf, wenn es um Herausforderungen wie erforderliche Flexibilität, Robustheit, Verlässlichkeit und Situationsbewusstsein der beteiligten Akteure geht. In diesem Artikel stellen wir zwei verschiedene Simulationsspiele vor, die einige dieser Herausforderungen in zwei komplexen Verkehrsknotenpunkten adressieren und diskutieren die qualitativen Ergebnisse von Benutzertests mit den Spielen. In einem vergleichenden Abschnitt zeigen wir, wie mit Simulationsspielen die Herausforderungen des multimodalen Verkehrs angegangen werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-78795-4_18 ddf03863d8d75bcc406a15a4ec6579e9;de;;;7.2.;;;EPRUM-Metriken und INEX 2005 Standard-Informationsabruf-(IR)-Metriken sind für neue Paradigmen wie XML-IR, bei denen abrufbare Informationseinheiten Dokumentelemente sind, nicht gut geeignet. Diese Einheiten sind weder vordefiniert noch unabhängig, und die von IR-Systemen zurückgegebenen Elemente können sich überlappen und Beinahe-Fehltreffer enthalten. Ein Teil des Problems ergibt sich aus den klassischen Hypothesen zum Nutzerverhalten, die den strukturellen oder logischen Kontext von Dokumentelementen oder die Möglichkeit der Navigation zwischen abrufbaren Einheiten nicht berücksichtigen. Die Metrik Expected Precision Recall with User Model (EPRUM) basiert auf einem realistischeren Benutzermodell, das eine Vielzahl von Benutzerverhalten umfasst. In diesem Papier stellen wir die EPRUM-Metrik vor, die zur Bewertung der offiziellen Einreichungen von INEX 2005 verwendet wird, und beschreiben die von uns verwendeten Einstellungen. Wir präsentieren nicht die vollständige Ableitung der EPRUM-Metrik, aber wir geben ein gründliches Beispiel ihrer Berechnung zusammen mit dem vollständigen Satz von Formeln, die zur Berechnung der Präzision bei verschiedenen Rückrufwerten erforderlich sind. Wir diskutieren auch die Implikationen einer solchen Metrik auf mehrere Schlüsselprobleme des XML Information Retrieval als den Begriff der idealen Liste und das Problem der Überlappung.;-;-;-;https://link.springer.com/chapter/10.1007/11766278_3 094420c05236b95c992a7c2cdbd39b42;de;;;7.2.;;;Ein einheitliches Entscheidungsmodell für die Bewertung und Auswahl von MES-Software In diesem Papier untersuchen wir das Potenzial der Anwendung des analytischen Netzwerkprozesses (ANP) zur Bewertung und Auswahl von MES-Software. Anders als AHP ermöglicht ANP Feedback und Interdependenz zwischen Faktoren. In unserem Entscheidungsmodell berücksichtigen wir die Alleinstellungsmerkmale von MES als Informationsdrehscheibe in Bezug auf fast alle anderen Informationssysteme. Darüber hinaus werden auch die Beziehungen zwischen den Funktionalitäten berücksichtigt, die die MES-Software leistet. Abschließend validieren wir das Entscheidungsmodell durch einen Test.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-34403-9_96 8dc5231f97ab5b7fe9ee1ff11995f4c9;de;;;7.2.;;;Durchsetzung der Integrität unter Wahrung der Geheimhaltung Wir betrachten die Rolle von Einschränkungen bei der Wahrung von Geheimhaltung und Integrität in einer mehrstufigen sicheren Datenbank. In einer mehrstufigen Datenbank erzeugen bestimmte Integritäts- und Klassifikationsbeschränkungen ein Geheimhaltungsproblem, da Datenhinzufügungen, -löschungen oder -modifikationen den Zugriff auf Daten auf höheren Ebenen erfordern. In vielen Fällen können diese Beschränkungen jedoch durch eine Reihe einfacherer Beschränkungen angenähert werden, die als niveaugültige Beschränkungen bezeichnet werden. Ebenengültige Einschränkungen erfordern keinen Zugriff auf Daten, die höher klassifiziert sind als die zu ändernden Daten. Darüber hinaus erfüllen sie die Integritätsanforderungen, da jeder Datenbankzustand, der die ebenengültigen Beschränkungen erfüllt, auch die mehrstufigen Beschränkungen erfüllt. Es werden einfache Tests entwickelt, um die Gültigkeit der vorgeschlagenen ebenengültigen Beschränkungen sicherzustellen, und diese Beschränkungen werden für allgemeine Fälle von mehrstufigen Beschränkungen abgeleitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35508-5_16 5c962f2a41f120528e12dae3078435c2;de;;;7.1.;;;MetaMorph II: eine agentenbasierte Architektur für verteiltes intelligentes Design und Fertigung Aus der verteilten künstlichen Intelligenz abgeleitete Agententechnologie wird zunehmend für computerintegrierte Fertigungssysteme der nächsten Generation in Betracht gezogen, um neue Anforderungen an erhöhte Integrierbarkeit, Konfigurierbarkeit, Anpassungsfähigkeit, Erweiterbarkeit, Agilität und Zuverlässigkeit zu erfüllen. Dieser Artikel gibt einen Überblick über unsere bisherige Forschung zur Anwendung der agentenbasierten Technologie auf intelligentes Design und Fertigung und beschreibt das aktuelle Forschungsprojekt MetaMorph II (eine agentenbasierte Architektur für verteiltes intelligentes Design und Fertigung).;-;-;-;https://link.springer.com/article/10.1023/A%3A1008915208259 98ded57341e11ef340c074740860514b;de;;;7.1.;;;Enterprise Architecture Management-basiertes Framework zur Integration von KMU in ein kollaboratives Netzwerk In der aktuellen Forschung wird empfohlen, den Managementansatz der Enterprise Architecture (EA) zu verwenden, der es ermöglicht, die Dauer des IS-Integrationsprozesses zu verkürzen und die Effizienz zu verbessern. Das entwickelte Framework zur Implementierung von Geschäftsprozessen wird an die Anforderungen des Virtual Collaborative Network of Enterprises angepasst. Die wichtigsten Geschäftsprozesse sollten intern basierend auf einem gemeinsamen Standard für alle Kooperationspartner beschrieben werden und es wird empfohlen, den ISO 9000 Qualitätsmanagementstandard als Grundlage zu verwenden. An diesen Prozess schließt sich die Analyse von organisationsübergreifenden Geschäftsprozessen an und mögliche Lösungen zur Prozessmodellierung werden ebenfalls in dem Papier skizziert. Die Implementierung und das Management kollaborativer Geschäftsprozesse verringern die Risiken für die neuen potentiellen Kunden und Partner auf dem Weg zu einer erfolgreichen Zusammenarbeit. Nachdem der kollaborative Geschäftsprozess beschrieben wurde, kann mit der Implementierung des kollaborativen IS fortgefahren werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32775-9_16 4200202b04b6fab09da2b4e7dcafd12f;de;;;7.1.;;;Prozessrisikomanagement mit konfigurierbaren Prozessmodellen Kaum ein Bauvorhaben verläuft ganz nach Plan, da häufig dynamische Veränderungen erforderlich sind. Diese Veränderungen sind auf die hohe Unsicherheit zurückzuführen, die als potenzielle Ursachen von Risiken bewertet wird und Risiken wiederum als potenzielle Ursachen für Planänderungen bewertet werden. Mehrere Konzepte aus der Domäne der Geschäftsprozessmodellierung werden übernommen, um eine explizite prozessorientierte Wissensdokumentation der Bauprozesse aufzubauen. Es wird eine standardisierte Prozessbeschreibung vorgeschlagen, die inhaltliche Flexibilität bietet, um in unterschiedlichen Kontexten verwendet werden zu können. Konfigurierbare Fragmente im Verlauf der Prozessmodelle drücken die unsicheren Teile des Prozesses aus. Eine allgemeine Struktur eines konfigurierbaren Referenzprozessmodells (CRPM) wird als Ontologiemodell entwickelt, um die Konstruktionsprozesse in einer prozessorientierten Wissensdatenbank zu dokumentieren. Durch die Nutzung dieser Wissensbasis wird ein erheblicher Planungsaufwand eingespart. Außerdem wird die Qualität der Prozesspläne, da sie aus den Referenzprozessmodellen abgeleitet werden, gesteigert und der Zeitaufwand reduziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23330-2_38 4d24ee43c1cf4a36a16ee5423bdc8dfa;de;;;7.1.;;;Der Einfluss von Unternehmenssystemen auf die organisatorische Widerstandsfähigkeit Enterprise-Systeme werden verwendet, um die nahtlose Integration und den Datenaustausch zwischen den verschiedenen Abteilungen innerhalb einer Organisation zu ermöglichen. Um dies zu erreichen, müssen im System fest definierte Kontrollmechanismen vorhanden sein, die die Daten des Unternehmens schützen und vor unbefugten und unbeabsichtigten Nutzungen des Systems schützen. Dieses Ideal der totalen Kontrolle wird jedoch nur bedingt erreicht. Aufgrund organisatorischer Notwendigkeiten kann die Konfiguration von Kontrollen im Unternehmenssystem unbeabsichtigte organisatorische Auswirkungen haben. Der Zweck dieses Papiers besteht darin, die Ergebnisse einer Fallstudie eines Unternehmens vorzustellen, in der ein Unternehmenssystem installiert ist. Wir schlagen vor, dass die Einführung eines Unternehmenssystems Machtunterschiede schafft, die dazu dienen, die Kontrolle in der Organisation zu erhöhen. Dies führt zu einer erhöhten Starrheit und einer möglichen Verringerung der organisatorischen Flexibilität und Belastbarkeit. Andererseits können Unternehmenssysteme aufgrund der unerwarteten Folgen dieser Machtunterschiede und der Rolle der Wahrnehmung von Personen bei der Lösung eines Problems innerhalb des Unternehmenssystems zu Drifts führen. Diese Verringerung der Kontrolle kann unter bestimmten Umständen als Wegbereiter für die Widerstandsfähigkeit der Organisation dienen.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-34410-1_18 dee391569366991c6ca207939bca75fb;de;;;7.2.;;;Nutzungsmuster ändern: Eine kritische Bewertung Die Qualität von Prozessmodellen war ein Bereich beträchtlicher Forschungsanstrengungen. In diesem Zusammenhang bietet das Correctness-by-Construction-Prinzip von Change Patterns vielversprechende Perspektiven. Die Verwendung von Änderungsmustern für die Modellerstellung erfordert jedoch eine strukturiertere Art der Modellierung. Während der Prozess der Prozessmodellierung (PPM) auf Basis von Änderungsprimitiven untersucht wurde, ist über diesen auf Änderungsmustern basierenden Prozess wenig bekannt. Um ein besseres Verständnis des PPM bei der Nutzung von Veränderungsmustern, den auftretenden Herausforderungen und der subjektiven Wahrnehmung von Prozessdesignern zu erhalten, führen wir eine explorative Studie durch. Die Ergebnisse zeigen, dass Prozessdesigner bei einfachen Kontrollabläufen wenig Probleme haben, aber erhebliche Probleme mit der Nutzung von Änderungsmustern haben, wenn komplexe, verschachtelte Modelle erstellt werden müssen. Abschließend skizzieren wir, wie eine effektive Werkzeugunterstützung für Veränderungsmuster realisiert werden sollte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38484-4_19 87680b7bb4da08dfe95acf169cd48554;de;;;7.2.;;;Eine Abfrageverarbeitungsmethode für den integrierten Zugriff auf mehrere Datenbanken Mehrere autonome Datenbanken innerhalb eines Netzwerksystems enthalten oft ähnliche Informationen, obwohl ihre Schemata heterogen sind. Dieses Papier betrachtet diese Heterogenität und schlägt eine neue Methode vor, um einen integrierten Zugriff auf mehrere Datenbanken mit ähnlichem Schema zu erreichen. Die Methode basiert auf dem Aufbau einer „virtuellen Datenbank (VDB)“ unter Verwendung von;-;-;-;https://link.springer.com/chapter/10.1007/BFb0034696 388e1ca6b73cad4247abce3e44792d91;de;;;7.1.;;;Agile Planungsprozesse Das Papier untersucht die Anforderungen und Unterstützungssysteme für agile Planungsprozesse. Es überprüft daher traditionelle Planungsprozesse und schlägt ein neues Modell basierend auf agilen Prinzipien vor. Das neuartige Planungsmodell dient dazu, einen komponentenbasierten Planungsansatz und dessen Anwendung in einem Planungshandbuch zu formulieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41266-0_18 40e1b7380e2ba8ee765594ca982773b3;de;;;7.1.;;;Entscheidungsunterstützungssystem im virtuellen Raum mit Kansei Engineering Ein neues Paradigma für die Beziehung zwischen Mensch und Computer heißt künstliche Realität, virtuelle Realität oder Cyberspace. Mit dreidimensionalen Computergrafiken, interaktiven Geräten und hochauflösenden Displays kann eine virtuelle Welt realisiert werden, in der man imaginäre Objekte aufnehmen kann, als wären sie eine physische Welt. Unter Verwendung dieser Technologie und Kansei Engineering wurde in Matsushita Electric Works ein Virtual Space Decision Support System entwickelt. Kansei Engineering ist definiert als „Übersetzungssystem eines Kundenlieblings oder -bildes in reale Designkomponenten“ (Nagamachi, 1986), mit dem Kunden Möbel entwerfen und im virtuellen Raum erleben können. Und in Zukunft wird es mit dem ganzen Haus umgehen können, dann können Kunden ihr Haus entwerfen und die Wohneigenschaften wie Licht, Schall, Vibration, Temperatur, Luft und Wohnkomfort überprüfen. Dieses Papier beschreibt das Kansei Engineering und das Virtual Space Decision Support System.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-67941-7_18 fb7495f311117afacd4c850977ce0f49;de;;;7.1.;;;Gewinnchance, strategische Innovation und Management Accounting In diesem Kapitel wird das Konzept des Gewinns im Management Accounting unter den Gesichtspunkten Opportunity, Profit Opportunity und strategischer (Feed-Forward) Innovation untersucht. Die Informationen, die heute für das strategische Management und die Leistungsbewertung erforderlich sind, haben sich angesichts des gegenwärtig vorübergehenden und unsicheren Geschäftsumfelds von den für das traditionelle Management erforderlichen buchhalterischen Gewinninformationen unterschieden. Ohne Gewinn kann es jedoch kein Management Accounting geben. Daher versucht das Kapitel, die Gewinnquelle zu untersuchen und die gewinnchancenbasierten Aspekte des modernen Management Accounting durch die Analyse von Chancen, Gewinnchancen und strategischen Innovationen zu klären. Zu diesem Zweck befasst sich das Kapitel zunächst mit dem Zusammenhang zwischen Opportunität und Gewinnchance. Zweitens versucht es in Verbindung mit dem Management Accounting, aktuelle Innovationen zu verstehen, die die Gewinnchancen verbessern sollen. Drittens werden Auswirkungen von Innovationen und Gewinnchancen auf das Target Costing in Japan diskutiert. Schließlich entwickelt dieses Kapitel eine auf Gewinnchancen basierende Varianzanalyse, die in Feed-Forward-Planungs- und Feedback-Kontrollprozessen nützlich ist. Es hat sich gezeigt, dass der verstärkte Einsatz des strategischen Innovationsmanagements zu nützlicheren Varianzanalysen führt und die strategische Eigenschaft des Management Accounting stärkt, die zu zukünftigen Innovationen im Management beitragen und dazu beitragen kann, Opportunitätskosten objektiv zu erkennen und zu reduzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8989-3_5 4745f85f67da4637722e4295febbd53c;de;;;7.1.;;;Design von Management-Unterstützungssystemen: Ein konkurrenzfähiger Werteansatz Management Support Systems (MSS) sind computerbasierte Systeme, die von Managern genutzt oder zumindest unterstützt werden sollen. Ein Hauptproblem bei der MSS-Entwicklung ist die Anforderungsspezifikation. Es gibt eine Vielzahl von Systementwicklungsmethoden (SDM) (Avison & Fitzgerald 1999, Jayaratna 1994). Watsonet al. (1997) weisen darauf hin, dass es Unterschiede zwischen traditionellen SDM- und MSS-Entwicklungsmethoden gibt und dass erstere für die MSS-Entwicklung nicht sehr nützlich sind. In einer Studie zu den MSS-Entwicklungsmethoden, die von Organisationen in den USA verwendet werden, haben Watson et al. (1997) fanden heraus, dass nur zwei formale Methoden verwendet wurden, nämlich die Methode der kritischen Erfolgsfaktoren (CSF) (Rockart 1979) und die Methode der strategischen Geschäftsziele (SBO) (Volonino & Watson 1990-91). Sie sowie andere weniger verwendete Methoden konzentrieren sich hauptsächlich darauf, den Informationsbedarf von Managern zu spezifizieren und wie ein MSS den Informationsbedarf erfüllen kann. Obwohl sie nützlich sein können, haben sie eine große Einschränkung. Da sie sich in erster Linie auf den Informationsbedarf konzentrieren, sind sie bei der Generierung von MSS-Anforderungen nicht vollständig. Eine umfassendere Anforderungsspezifikation kann erstellt werden, indem man sich auf Führungsrollen konzentriert und wie ein MSS die verschiedenen Organisationsrollen eines Managers unterstützen kann. Wir präsentieren einen MSS-Designansatz, der auf einer aktuellen Managementtheorie und einem aktuellen Modell basiert. Dabei bauen wir auf drei Postulate auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-70802-7_28 f9d242815790afa28a904de9fc070bc6;de;;;7.2.;;;CBR- und neuronale Netze-basierte Technik für prädiktives Prefetching Cache-Prefetching in der Speicherverwaltung hängt stark von der Effektivität des Vorhersagemechanismus ab, um verfügbare Ressourcen vollständig auszunutzen und Seitenfehler zu vermeiden. Es stehen zahlreiche Techniken zur Verfügung, um starke Vorhersagemechanismen für das Vorabrufen zu entwickeln, aber sie sind entweder situationsspezifisch (Lokalitätsprinzip) oder nicht anpassbar (Markovsches Modell) und teuer. Wir haben eine generische und anpassungsfähige Technik vorgeschlagen, die von früheren Erfahrungen profitiert, indem wir eine Mischung aus Case Based Reasoning (CBR) und neuronalen Netzwerken (NNs) einsetzen. Hier werden wir uns mit der Verbesserung der Anpassungsphase von CBR unter Verwendung von NN und ihrer Auswirkung auf die Vorhersagegenauigkeit für das Vorabrufen befassen. Das erreichte Niveau der Vorhersagegenauigkeit (insbesondere bei der Anpassung von CBR) wird durch einen beträchtlichen Spielraum bei geringeren Kosten verbessert als bei modernen Techniken, wie durch die Ergebnisse bestätigt werden würde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16773-7_19 d4ebdde058b034a03bed000e8113027a;de;;;7.1.;;;Wissensmanagement in der bildbasierten Analyse von Blutgefäßstrukturen Wir haben das Fehlen eines allgemein akzeptierten Wissensrepräsentationsmodells im Bereich der Blutgefäßanalyse festgestellt. Wir stellen fest, dass ein solches Instrument für die zukünftige Entwicklung des Feldes und unsere eigenen Forschungsanstrengungen benötigt wird. Es wird eine einfache Wiederverwendung von Softwareteilen durch geeignete Abstraktionen ermöglichen und die Entwicklung innovativer Methoden, Verfahren und Anwendungen erleichtern. Wir schließen eine gründliche Überprüfung der vaskulären Morphologie Bildanalyse ein. Nach der Identifizierung der wichtigsten Repräsentationselemente und Operationen schlagen wir ein Vessel Knowledge Representation (VKR)-Modell vor, das diese Lücke schließen würde. Wir geben Einblicke in die Implementierung basierend auf Standardwerkzeugen und -paradigmen der objektorientierten Programmierung. Der VKR lässt sich problemlos in bestehende medizinische Bildgebungs- und Visualisierungssoftwareplattformen wie Insight ToolKit (ITK) und Visualization Toolkit (VTK) integrieren.;-;-;-;https://link.springer.com/article/10.1007/s10115-010-0377-x 91d3004428e57f17d5ef406056965e6e;de;;;7.1.;;;Jüngste Trends im japanischen Personalmanagement: Die Einführung eines Systems der individuellen und unabhängigen Berufswahl Das japanische Management ist seit langem durch sein „lebenslanges Dienstalter basierendes Beschäftigungssystem“ gekennzeichnet, das auf einer kollektiven und langfristigen Philosophie des Personalmanagements basiert.;-;-;-;https://link.springer.com/article/10.1057/palgrave.abm.9200029 e1b6620627277dc48e2e2db59332da0a;de;;;7.1.;;;Berücksichtigung der Kommunikationsoptionen Der vorliegende Abschnitt bezieht sich auf Kommunikationstechnologien und -techniken, die Informationssysteme unterstützen. Die Papiere adressieren ein breites Spektrum von Lösungen und betonen die Bedeutung des Einsatzes geeigneter Technologien gegenüber der Tendenz zum wahllosen Einsatz von „Stand der Technik“-Technologien, die in einigen Fällen nicht die effektivsten Lösungen darstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-75777-8_4 8baf8ef34382e6a8fb64f6d57403b614;de;;;7.1.;;;Die Fehlausrichtung zwischen Krankenhausplanungsrahmen und ihrer Planungsumgebung – ein konzeptioneller Matching-Ansatz Im letzten Jahrzehnt sind wissenschaftlich entwickelte Rahmen für die Krankenhausplanung entstanden, die die Planungs- und Kontrollpraxis in Krankenhäusern unterstützen und vorschreiben. Die drei vorgestellten Frameworks basieren im Allgemeinen auf Fertigungsplanungs- und Steuerungsframeworks, die auf Fertigungsumgebungen abgestimmt sind. Dies ist entscheidend für die Anpassungsfähigkeit der Frameworks, da Fertigungsumgebungen auf die Optimierung repetitiver Produktionsprozesse ausgerichtet sind, während Krankenhausprozesse durch komplexe Problemlösungsprozesse mit einem hohen Maß an Unsicherheit gekennzeichnet sind. In diesem Papier identifizieren und beschreiben wir die Fehlausrichtung aus der Perspektive der Umgebungsvariablen durch Analyse und Vergleich von drei prominenten Krankenhausplanungsrahmen und Krankenhausplanungsvariablen, die aus empirischen Studien in der bestehenden Forschung abgeleitet wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44736-9_82 99fe8f1e16862f47d15169099995ff54;de;;;7.2.;;;Anwendungen von Abhängigkeitsräumen Die Abhängigkeitsraummodelle werden zur Darstellung und Untersuchung von Domänen mit unvollständiger Information angewendet. Es wird gezeigt, dass verschiedene Modelle dieser Domänen einheitlich sein können. im Rahmen der Theorie der Abhängigkeitsräume behandelt. Insbesondere werden Abhängigkeitsräume für Kontexte ([Wi1]), Informationssysteme ([Pa7]), Entscheidungstabellen konstruiert. Es werden die Probleme untersucht, die im Zusammenhang mit der Entdeckung von Wissen aus unvollständigen Informationen vom Ununterscheidbarkeitstyp auftreten. Die Algorithmen werden zur Realisierung verschiedener relevanter Aufgaben angegeben. Unter anderem werden ein Algorithmus zum Finden von Reduktionen von Attributmengen in einem Informationssystem und ein Algorithmus zur Reduktion einer Menge von Bedingungen in einer Entscheidungstabelle vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-1888-8_8 10d154e7a81d575b9e478df454d1ae5b;de;;;7.2.;;;Die Domäne der Akustik aus der Sicht der groben Sets Diese Forschungsstudie präsentiert grobe satzbasierte Entscheidungssysteme im akustischen Bereich. Zu diesem Zweck werden zwei Bereiche untersucht, nämlich die Klassifizierung und das Abrufen von Musikinformationen sowie die Geräuschkontrolle. Das Hauptziel dieses Beitrags ist es, Ergebnisse sowohl von Messungen des akustischen Klimas als auch einer Erhebung zur Lärmbelastung zu zeigen, die in Schulen und Schülermusikclubs durchgeführt wurde. Die Messungen des akustischen Klimas verwenden ein Multimedia-Lärmüberwachungssystem, das an der Abteilung für Multimediasysteme der Technischen Universität Danzig entwickelt wurde. Physiologische Auswirkungen der Lärmbelastung werden mit reiner Tonaudiometrie und otoakustischen Emissionstests gemessen. Alle Daten werden in Entscheidungstabellen gesammelt, um die Bedeutung von Attributen im Zusammenhang mit dem Auftreten von Hörverlust und subjektiven Faktoren, die auf die Lärmbelästigung zurückzuführen sind, zu untersuchen. Zukünftige Versuchsrichtungen werden in der Zusammenfassung kurz skizziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71200-8_8 7d40fac3ef27a1f19ef2c6d2f17be5b7;de;;;7.2.;;;Wie intuitiv sind diversifizierte Suchmetriken? Konkordanztestergebnisse für die Diversity-U-Maßnahmen Die meisten der bestehenden Information Retrieval (IR)-Metriken reduzieren den Wert jedes abgerufenen relevanten Dokuments basierend auf seinem Rang. Diese Aussage gilt auch für die Bewertung der diversifizierten Suche: die weit verbreiteten Diversity-Metriken, nämlich;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45068-6_2 825c56d3b8a56244e9cd74cd722ab9f9;de;;;7.2.;;;Verwendung der Beweistheorie von Dempster-Shafer zur Abfrageerweiterung basierend auf Freebase-Wissen Die Abfrageerweiterung ist im Allgemeinen eine nützliche Technik zur Verbesserung der Suchleistung. Einige erweiterte Abfragebegriffe, die durch herkömmliche statistische Methoden erhalten wurden (z. B. Pseudorelevanz-Feedback), sind jedoch möglicherweise nicht für den Informationsbedarf des Benutzers relevant, während einige relevante Begriffe möglicherweise überhaupt nicht in den Feedbackdokumenten enthalten sind. Neuere Studien verwenden externe Ressourcen, um Begriffe zu erkennen, die sich auf die Abfrage beziehen, und übernehmen diese Begriffe dann in die Abfrageerweiterung. In diesem Beitrag präsentieren wir eine Studie zur Verwendung von Freebase [6], einer Open-Source-Allzweck-Ontologie, als Quelle für die Ableitung von Erweiterungsbegriffen. FreeBase bietet ein graphenbasiertes Modell menschlichen Wissens, aus dem eine reichhaltige und mehrstufige Struktur von Instanzen im Zusammenhang mit dem Abfragekonzept als Ergänzung zu den herkömmlichen statistischen Ansätzen zur Abfrageerweiterung extrahiert werden kann. Wir schlagen eine neuartige Methode vor, die auf der wohlprinzipierten Dempster-Shafer (D-S)-Evidenztheorie basiert, um die Gewissheit der Expansionsterme aus der Freebase-Struktur zu messen. Das erweiterte Abfragemodell wird dann mit einem hochmodernen statistischen Abfrageerweiterungsmodell – dem Relevanzmodell (RM3) – kombiniert. Experimente zeigen, dass die vorgeschlagene Methode signifikante Verbesserungen gegenüber RM3 erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45068-6_11 1e54ebc574f44486387d5e19dd97f81b;de;;;7.2.;;;Identifizieren von unternehmensspezifischen Risikoaussagen in Nachrichtenartikeln Textdaten sind eine wichtige Informationsquelle für das Risikomanagement von Unternehmensorganisationen. Um risikobezogene Aussagen in Textdaten effektiv zu identifizieren, zu extrahieren und zu analysieren, müssen diese Prozesse automatisiert werden. Wir haben ein Annotations-Framework für unternehmensspezifische Risikoaussagen entwickelt, das auf früheren wirtschaftlichen, betriebswirtschaftlichen, linguistischen und natürlichen Sprachverarbeitungsforschungen basiert. Eine Studie mit manuellen Anmerkungen unter Verwendung von Nachrichtenartikeln aus dem Wall Street Journal wurde durchgeführt, um das Framework zu verifizieren. Wir haben ein automatisiertes Risikoidentifikationssystem basierend auf dem Annotation Framework entworfen und aufgebaut. Die Auswertung anhand manuell kommentierter Risikohinweise in Nachrichtenartikeln zeigte vielversprechende Ergebnisse zur automatisierten Risikoidentifikation.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01393-5_6 23025855d5ae885ab90acdb3fbe996f7;de;;;7.2.;;;Auf dem Weg zu einer universell freundlichen P2P-Medien-Streaming-Anwendung: Ein Evaluierungsframework Netzwerk-unabhängige P2P-Anwendungen haben einen hohen ISP-übergreifenden Datenverkehr erzeugt und zu ernsthaften Störungen der ISP-Wirtschaft geführt. Während sich die Endbenutzer um die Qualität kümmern, kümmern sich Internet Content Provider (ICP) mehr um die Serviceskala und ISP konzentriert sich auf die Betriebskosten. Somit bietet dieses Papier einen Rahmen zur Bewertung der P2P-Streaming-Anwendungsleistung aus der Perspektive aller beteiligten Entitäten, d. h. ISP, ICP und Endbenutzer. Basierend auf der analytischen Studie schlagen wir mögliche Lösungen vor, um eine beispiellose benutzerfreundliche und kostengünstige P2P-Streaming-Anwendung zu definieren, um die ideale Philosophie von „Mehr Benutzer = bessere Leistung + geringere Kosten“ zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89796-5_94 a83cb9dac5b12361864ad21c6981d5e4;de;;;7.2.;;;Clustering und Visualisierung in einem mehrsprachigen System zur Zusammenfassung mehrerer Dokumente Die Ähnlichkeit von Wörtern, Sätzen und Dokumenten zu messen, ist eines der Hauptprobleme bei der mehrsprachigen Zusammenfassung mehrerer Dokumente. In diesem Beitrag werden fünf Strategien zur Berechnung der mehrsprachigen Satzähnlichkeit vorgestellt. Die experimentellen Ergebnisse zeigen, dass die Satzausrichtung ohne Berücksichtigung der Wortposition oder -reihenfolge in einem Satz die beste Leistung erzielt. Außerdem werden zwei Strategien für das Clustering von mehrsprachigen Dokumenten vorgeschlagen. Die Zweiphasenstrategie (Übersetzung nach Clustering) ist besser als die Einphasenstrategie (Übersetzung vor Clustering). Die auf Satzclustering verschobene Übersetzung, die die Ausbreitung von Übersetzungsfehlern reduziert, ist am vielversprechendsten. Darüber hinaus werden drei Strategien vorgeschlagen, um das Satzclustering anzugehen. Eine vollständige Verbindung innerhalb eines Clusters hat die beste Leistung, jedoch hat das auf Subsumtion basierende Clustering den Vorteil einer geringeren Rechenkomplexität und einer ähnlichen Leistung. Schließlich werden zwei Visualisierungsmodelle (d. h. Fokussierung und Browsing) vorgeschlagen, die die Sprachpräferenz der Benutzer berücksichtigen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36618-0_19 ad23996a71f9732db23e5b5c81dfcb45;de;;;7.2.;;;Temporale Ausdruckserkennung in Hindi Die zeitliche Annotation von Klartext wird als nützliche Komponente moderner Informationsbeschaffungsaufgaben angesehen. In dieser Arbeit werden zwei Ansätze zur Identifizierung und Klassifikation zeitlicher Entitäten in Hindi entwickelt und analysiert. Zunächst wird ein regelbasierter Ansatz entwickelt, der Klartext als Eingabe verwendet und basierend auf einer Reihe von handgefertigten Regeln eine markierte Ausgabe mit identifizierten zeitlichen Ausdrücken erzeugt. Es wird gezeigt, dass dieser Ansatz ein striktes F1-Maß von 0,83 hat. Beim anderen Ansatz wird ein CRF-basierter Klassifikator mit von Menschen markierten Daten trainiert und dann an einem Testdatensatz getestet. Der trainierte Klassifikator identifiziert die zeitlichen Ausdrücke aus dem Klartext und klassifiziert sie weiter in verschiedene Klassen. Es wird gezeigt, dass dieser Ansatz ein striktes F1-Maß von 0,78 hat. Dabei wurde ein wiederverwendbarer Goldstandard-Datensatz für temporales Tagging in Hindi entwickelt. Es trägt den Namen ILTIMEX2012-Korpus und besteht aus 300 manuell markierten Hindi-Nachrichtendokumenten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03844-5_72 e602b5c7307c458ad58107daf9865cc6;de;;;7.1.;;;Analyse von Website-Inhalten für eine verbesserte Planung der F&T-Zusammenarbeit Ein bekanntes Problem in der Forschungs- und Technologieplanung (F&T) ist die Auswahl geeigneter F&T-Kooperationspartner. Wir untersuchen die Verwendung von Textinformationen aus dem Website-Inhalt möglicher Kooperationskandidaten, um deren Eignung zu ermitteln. Dies verbessert die Auswahl von Kooperationspartnern und ermöglicht eine erfolgreiche Abwicklung von F&T-Projekten. In einer Fallstudie „Defense R&T“ werden Organisationen und Unternehmen ausgewählt, die ihre Eignung als Kooperationspartner in früheren FuT-Projekten nachgewiesen haben (Positivbeispiele) sowie Organisationen und Unternehmen, die dies nicht getan haben. Latente semantische Indizierung mit Singulärwertzerlegung und logistischer Regressionsmodellierung wird verwendet, um semantische Textmuster aus den Inhalten ihrer Websites zu identifizieren. Als Ergebnis der Vorhersagemodellierung sind einige dieser Textmuster erfolgreich bei der Vorhersage neuer Organisationen oder Unternehmen als (un-)geeignete F&T-Kooperationspartner. Diese Ergebnisse unterstützen die Akquise neuer Kooperationspartner und sind somit wertvoll für die Planung von F&T.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36981-0_52 3c7da19c7b4cf4b0684cb30ce50b18d5;de;;;7.1.;;;Energieimplikationen von Produktionsplanungsentscheidungen Die große Aufmerksamkeit für Umweltfragen und insbesondere für die Energienutzung veranlasst die Europäische Union, die Richtlinie 2009/28/EG umzusetzen, die drei Hauptziele festlegt, die die EU-Mitgliedstaaten für 2020 erreichen sollen: 20 % Steigerung der Nutzung erneuerbarer Energien und 20 % Verbesserung der Energieeffizienz. Um diese Ziele zu erreichen, müssen nicht nur die Regierungen, sondern auch die Unternehmen neue Umwelt- und Energiepolitiken berücksichtigen. Diese Arbeit konzentriert sich auf die Energieeffizienzeffekte von Produktionsplanungsentscheidungen in den Druckgussprozessen. Wir präsentieren ein Modell, das auf einschlägiger Literatur und experimentellen Daten basiert. Das numerische Modell basiert auf der Beziehung zwischen dem Energieverbrauch der Maschinen und der Produktionsrate der Maschinen mit dem Ziel, die Energie zu minimieren, die zur Befriedigung der Nachfrage nach Fertigprodukten erforderlich ist. Dieses Modell kann die Entscheidungen des Managers unterstützen, um den Energieverbrauch und folglich die Umweltauswirkungen des Druckgussbetriebs zu minimieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33980-6_2 1cb5da46bae1d51d868746b0af271265;de;;;7.1.;;;Theorien zu unternehmerischen und Managementkompetenzen und der Entwicklung neuer technologiebasierter Unternehmen Nach der Definition der Grundkonzepte dieser Studie dient dieses Kapitel der Diskussion theoretischer Ansätze, die 1) unternehmerische Managementkompetenzen im Kontext junger Technologieunternehmen, 2) neue Venture-Entwicklungsmodelle und 3) den Zusammenhang zwischen unternehmerischen Managementkompetenzen und der Entwicklung untersuchen von NTBFs.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-5503-2_3 13ef949f0fb813fd22ff7bc2acff7e63;de;;;7.1.;;;Elektronische Landwirtschaftsressourcen und Landwirtschaftsindustrialisierung Support Information Service Plattformstruktur und Implementierung Die Informationsdienstplattform für landwirtschaftliche Ressourcen und die Industrialisierung der Landwirtschaft ist ein wichtiger Bestandteil der Plattform zur Unterstützung der Landwirtschaft im westlichen Teil der Volksrepublik China, einem Schlüsselprojekt des nationalen Wissenschafts- und Technologiesäulenprogramms in der elften Fünfjahresplanperiode. Das System ist als 3-Schicht-Aufbau konzipiert. Das Datenbankunterstützungs-Subsystem ist die Basisschicht. Die mittlere Schicht enthält das GIS-Modell und allgemeine Wiederverwendungsmodelle, die obere Schicht ist die Affärenprozessschnittstelle und die gesamte Managerschnittstelle. Berücksichtigen Sie die Ländersituation von China West, ist Naturdorf als Informationsmanagementeinheit eingerichtet. Als registrierter Benutzer fungieren die Bauern im Dorf. Andere Regierungsschichten überwachen das laufende System und verteilen ihren Index unabhängig, das System wird in der Provinzschicht verwaltet. Software implementiert unter Microsoft Windows Server 2003, die als Server/Browser-Stil ausgeführt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18333-1_80 2c2bc07845fc13871945f9c2f32347e1;de;;;7.1.;;;Vorsorge durch urbane Resilienz Dieses Buch beschäftigt sich mit dem Thema Resilienz auf Stadtebene. Der Fokus liegt eher auf Ausbruchsereignissen auf Stadtebene oder darauf, wie Städte sich auf größere Epidemie- und Pandemieereignisse vorbereiten und reagieren sollten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5487-2_3 47e1ef70a380fe725a47eddae0f437d7;de;;;7.1.;;;Robuster informationstheoretischer Abruf privater Informationen Ein Private Information Retrieval (PIR)-Protokoll ermöglicht es einem Benutzer, ein Datenelement seiner Wahl aus einer Datenbank abzurufen, so dass die Server, die die Datenbank speichern, keine Informationen über die Identität des abgerufenen Elements erhalten. PIR-Protokolle wurden seit Einführung des Themas in Chor, Goldreich, Kushilevitz und Sudan 1995 eingehend untersucht. Die Standarddefinition von PIR-Protokollen wirft eine einfache Frage auf: Was passiert, wenn einige der Server während des Betriebs abstürzen? Wie können wir ein Protokoll entwickeln, das auch bei abstürzenden Servern funktioniert? Aktuelle Systeme garantieren aus vielen Gründen nicht die jederzeitige Verfügbarkeit von Servern, z. B. Serverabsturz oder Kommunikationsprobleme. Unser Ziel ist es, robuste PIR-Protokolle zu entwickeln, d. h. Protokolle, die auch wenn nur korrekt funktionieren;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36413-7_24 c5d492c1e8efac09716bb423cd13920b;de;;;7.1.;;;Eine Erwartungs-Wahrnehmungs-Lücke-Analyse des Ausfalls von Informationssystemen Dieses Hauptziel dieses Papiers besteht darin, neue Wege zu untersuchen, um das alte Problem des Organisationsversagens bei der Entwicklung von Informationssystemen (IS) anzugehen. IS-Versagen ist definiert als eine Lücke zwischen den Erwartungen der Benutzer an ein Informationssystem und der Erfüllung dieser Erwartungen durch die wahrgenommene Leistung des gelieferten Systems. Probleme, die zu dieser Erwartungs-Wahrnehmungs-Lücke führen, werden identifiziert und als fünf miteinander verbundene Diskrepanzen oder Lücken im gesamten Prozess der IS-Entwicklung modelliert. Die Vorgeschichte zu jeder Lücke und Korrekturmaßnahmen zum Schließen der Lücken werden ebenfalls vorgeschlagen. Ein Erfolg in der IS-Entwicklung könnte erreicht werden, indem die fünf miteinander verbundenen Lücken geschlossen und damit die Erwartungs-Wahrnehmungs-Lücke geschlossen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-3629-3_12 4515b8d67da7e2df980f95637037e0db;de;;;7.1.;;;Eine empirische Bewertung von IT-Katastrophenwahrscheinlichkeiten Angetrieben von den Anreizen der Kosteneffizienz und des Wettbewerbs haben Unternehmen einen größeren Teil ihrer kritischen Informationsressourcen in automatisierte Systeme und Netzwerke platziert (;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-1341-4_20 e1362ddc6e64b789efc8f5b4173222d7;de;;;7.1.;;;Die Gewinnauswirkungen von IT-Investitionen Zwei Modelle wurden verwendet, um die Beziehungen zwischen Rentabilität und dem Niveau der Informationstechnologie (IT) bei langfristigen Lebensversicherungsunternehmen zu untersuchen. Die erste verglich den Computerisierungsindex (CI) mit Rentabilitätskennzahlen. Der zweite verwendete die Betriebskostenquote (Profitabilitätskennzahl) und die IT-Kostenquote, um die Höhe der IT-Kapitalintensität zu messen. Die Ergebnisse der vorliegenden Studie zeigten eine positive Korrelation zwischen dem CI und den Finanzkennzahlen und die profitabelsten Unternehmen geben eher einen höheren Anteil ihrer zinsunabhängigen Betriebsausgaben für IT aus.;-;-;-;https://link.springer.com/article/10.1057/jit.1995.6 6ab41dca8d98e0ca8dd4203ab5716211;de;;;7.1.;;;Innovative Veränderungen herbeiführen: Der Fall eines Patientenfluss-Managementsystems in einem NHS-Trust Die Herbeiführung innovativer IT-gestützter Veränderungen in Organisationen mit begrenzten finanziellen Mitteln und Ressourcen ist derzeit eine Herausforderung für Krankenhäuser des britischen National Health Service (NHS). Dieser Artikel untersucht ein Aktionsforschungsprojekt, das darauf abzielte, ein Patient Flow Management System in einem Akutkrankenhaus im Nordosten Englands zu implementieren. Das Projekt erstreckte sich über einen Zeitraum von zwölf Monaten und umfasste eine Reihe von Akteuren, darunter auch Pflegepersonal. Der Beitrag dieses Papiers besteht darin, die Bedeutung von AR als einen für die Systemadoption geeigneten Ansatz und die Notwendigkeit zu erkennen, „Ihre Interessengruppen zu kennen“ und ihre Kultur insbesondere im Umgang mit Berufsverbänden anzuerkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38862-0_11 f9862606ff00127e84b0f2c5fe81c5fa;de;;;7.1.;;;Die Ablaufstruktur Die Zerlegung und Integration von Steuerung und Technologie zum Aufbau eines Aufbaus, dh Abteilungsbildung, wird in jeder Organisation durchgeführt und von praktisch jedem Studenten von Organisationen untersucht (tatsächlich haben wir den Aufbau, das System der Positionen, als definierendes Merkmal einer Organisation verwendet in Definition 18).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-7540-5_14 05051038c028ef0a55460c52ff075499;de;;;7.1.;;;ERP-Ausbildung in China: Die Geschichte von zwei Wegen In den 1990er Jahren gab es ein beträchtliches Wachstum bei der Implementierung von Enterprise Resource Planning (ERP)-Systemen. Unternehmen erwarteten, dass diese Systeme viele der täglichen Geschäftstransaktionen unterstützen. Das Wachstum der ERP-Implementierungen hatte einen entsprechenden Einfluss auf die Nachfrage nach ERP-Kenntnissen. Viele Universitäten haben diese Nachfrage und das Potenzial des Einsatzes von ERP-Systemsoftware als Lehrmittel erkannt und versucht, ERP-Systeme in ihren Lehrplan aufzunehmen, aber die meisten Universitäten haben sich mit dieser Aufgabe schwer getan. Der ERP-Fachkräftemangel hat vor allem im asiatischen Raum ein Allzeithoch erreicht. ERP-Anbieter untersuchen, wie sie diesen Mangel und die Rolle der Universitäten am besten beheben können. Dieses Papier skizziert zwei Ansätze für die Bereitstellung von ERP (SAP)-Ausbildung in China.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-76312-5_12 e6641d8cb35697a35306e6f82c43dd51;de;;;7.1.;;;Formatierung des öffentlichen Sektors mit IKT: Erforschung institutioneller Quellen und Prozesse In diesem Papier wird der Prozess diskutiert, in dem E-Government-Projekte initiiert und lokal innerhalb der Organisationen des öffentlichen Sektors verhandelt werden. Die Fragestellung wird anhand des theoretischen Konzepts globaler Formate untersucht. Das Konzept der Formate wird verwendet, um zwei miteinander verknüpfte Themen zu erforschen: die institutionellen Quellen für E-Government-Projekte und die Prozesse der lokalen Aneignung dieser Projekte im organisationalen Kontext. Dieses Papier konzentriert sich auf ein E-Government-Projekt, das in einer der Organisationen des öffentlichen Sektors in Dubai erfolgreich umgesetzt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33332-3_2 57a58c640f839de390981ab54f83ff5e;de;;;7.1.;;;Webservices zur Einbeziehung von Luftqualität und Klimawandel in die langfristige Stadtplanung für Europa Die Planung nachhaltiger Städte erfordert die Einbeziehung von Umweltaspekten wie der Luftqualität. Innerhalb einer Planungsperspektive von 20-30 Jahren gibt es verschiedene Faktoren, die die zukünftige Luftqualität beeinflussen:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22285-6_60 1e2281b91e058165dd3bb4498f92ac04;de;;;7.1.;;;Einführung in Krankenhausinformationssysteme Der Begriff „Krankenhaus-Informationssystem“ wird häufig in Diskussionen über den Informationsfluss in einem Krankenhaus verwendet, wobei davon ausgegangen wird, dass jeder das gleiche Konzept im Sinn hat. Eine nähere Betrachtung zeigt, dass dies nicht unbedingt der Fall ist.;-;-;-;https://link.springer.com/article/10.1007/BF02915853 4d9f93cfc3d6d19d2a9b24766e0d35ac;de;;;7.1.;;;Ein Planungsunterstützungssystem zur Ermittlung von Planungsalternativen historischer Schutzgebiete aus Geodaten mit GIS Der Stadtschutz hat sich in den letzten 50 Jahren in Theorie, Praxis und sogar in seiner Grunddefinition drastisch verändert. Die Definition von Stadterhaltung beschränkt sich nicht auf den Umfang der menschlichen Gesellschaft, die sich seit der Athener Charta von 1931 weiterentwickelt hat. Auch historische Städte und urbane Räume sowie deren Naturlandschaften und Wohnwelten werden als Gegenstand der Stadterhaltung einbezogen. In China ist Stadterhaltung derzeit für Stadtplaner und Stadtverwalter interessant, denen es um die Bereitstellung einer historischen urbanen Identität sowie einer authentischen urbanen Identität geht. Die historischen Schutzgebiete in Peking sind aufgrund des Fehlens einer effektiven Planungskontrolle und -verwaltung zu den am stärksten überlasteten Gebieten geworden, und diese Gebiete haben sich nach und nach zu Labyrinthen entwickelt, die von zahlreichen Wanderarbeitern besiedelt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13559-0_15 bc96e24c5098e4378a797f881a5611af;de;;;7.1.;;;Die Notwendigkeit neuer Managementpraktiken und Metaphern im Hochschulbereich UK Higher Education (HE) befindet sich derzeit in einem Umfeld des kontinuierlichen Wandels und der Unsicherheit. Vizekanzler, Geschäftsführer, Dekane, Abteilungsleiter und Verwaltungsleiter sehen sich einer Beschleunigung vielfältiger und schwieriger Führungsaufgaben gegenüber. Morgan (2006) behauptet, dass erfolgreiche Manager „offen und flexibel“ sind und Entscheidungen wann immer möglich aussetzen, bis ein besseres Verständnis des Problems erreicht ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-6091-976-3_1 3e2f16f2aeb3553c10f535d8023dce6e;de;;;7.1.;;;Semantisch integrierte Geschäftsanwendungen für Enterprise Resource Planning-Systeme Die Entwicklung von Enterprise Resource Planning (ERP) Software oder Enterprise Information Systems (EIS) ist seit jeher eng mit der Integrationsdiskussion verbunden. Im Laufe der Zeit hat sich die Integration von Softwarelösungen erheblich verbessert. Dies wurde in der Vergangenheit durch mehrere Änderungen erreicht, aber meistens ist es dank modernster Technologien möglich geworden. Ein neuer Ansatz sind semantisch integrierte Geschäftsanwendungen, die die Evolution von Standard-End-to-End-Software ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39265-8_46 ebd87ea4bcb8e2ef3015ef3de68a8e31;de;;;7.1.;;;Fallstudien zu Koordinationsaktivitäten und Problemen im kollaborativen Design Das Design und Engineering großer, komplexer elektromechanischer Artefakte für den Einsatz im Weltraum erfordert die Integration vieler Engineering-Gruppen, die über die Komponenten des Artefakts sowie über Kunden und Lieferanten verteilt sind. Und innerhalb jeder Ingenieurgruppe müssen die vielen verschiedenen erforderlichen Fähigkeiten wie Elektrik, Mechanik, Wärme, Software und Materialien integriert werden. In diesem Beitrag werden die Ergebnisse einer Studie beschrieben, die im Sommer von;-;-;-;https://link.springer.com/article/10.1007/BF01596483 9a6a03f8de4f954ff90a0843891644b0;de;;;7.1.;;;Umgang mit technologischen Risiken Als Steve Jobs John Sculley von Pepsico für Apple umwarb, fragte er: „John, willst du die Welt verändern oder willst du für den Rest deines Lebens Sodawasser verkaufen?“ Jobs fragte nicht, ob Sculley die Zukunft vorhersagen wolle, sondern ob er sie ändern wolle. So gehen die „Unternehmer“ von heute mit der riskanten Zukunft um: Identifizieren Sie zunächst eine neue Basistechnologie, die ganz neue Produktklassen hervorbringen wird. Zweitens wissen Sie mehr über diese Technologie als jeder andere. Drittens, der Welt die Technologie in Form eines kühn vermarkteten Produkts zufügen. Viertens, achten Sie auf Folge-, Spin-off- und Anschlussmöglichkeiten – und ergreifen Sie sie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-08500-4_5 eb08376923a9fd72cf1130ac229e0d4f;de;;;7.1.;;;Ein regelbasierter Ansatz zur Anpassung der Wissenssuche in CNOs Die Suche nach Wissen in kollaborativ vernetzten Organisationen (CNOs) ist ein wichtiges Thema, da die Partner das über das Netzwerk verbreitete Wissen teilen und nutzen müssen. Darüber hinaus arbeiten Partner solcher Netzwerke in mehreren Kontexten (Rollen, Aktivitäten, Prozesse) und haben individuelle Interessen. Basierend auf diesen Beobachtungen ist es das Ziel dieser Arbeit, Konzepte wie Themen, Profile und Kontext in einem Modell zur Anpassung der Wissenssuche in CNOs bereitzustellen und zu kombinieren. Die Grundannahme ist, dass die Relevanz der Suchergebnisse in der CNO-Domäne nicht nur durch die Suchbegriffe, sondern auch durch den Kontext und das Profil des suchenden Nutzers definiert wird. Neben dem Modell wird ein Regelwerk für die Abfrageanpassung vorgestellt und all diese Elemente werden in ein bestehendes Framework für die Wissenssuche eingerahmt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-84837-2_25 d8a5625875d1857c7ba421860e8cb951;de;;;7.1.;;;Komplexes Metadatenmanagement in der Erdbeobachtung für die Umweltforschung Die Erwartungen und Anforderungen der Benutzer an den Zugang zu Erdbeobachtungsdaten und -informationen nehmen ständig zu. Jüngste Verbesserungen bei offenen Systemarchitekturen und Netzwerken haben die Diskussionen über Interoperabilität und Datenverfügbarkeit intensiviert. Effiziente Metadaten-Management-Software unterstützt die Suche nach Daten und den endgültigen Abruf aus EO-Archiven. Die Europäische Weltraumorganisation ist herausgefordert, Lösungen für dieses Ziel bereitzustellen. Umweltforschungsanwendungen werden von der erweiterten Funktionalität der Metadatenschicht profitieren, um auf EO-Produkte zuzugreifen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34951-0_7 b13a5e71c4d05eb33b101795a0f9bd9f;de;;;7.1.;;;Entwerfen eines IT-Artefakts: Rahmen für den gesamten Prozess des IT-Demand-Managements Dieses Papier präsentiert ein vorgeschlagenes IT-Artefakt, bezeichnetes Framework für den gesamten Prozess des IT-Demand-Managements (IT-DM), das die Phasen, Hauptaktivitäten und Unteraktivitäten jeder Phase des IT-DM aus strategischer Sicht identifiziert Ebenenansicht. Dieses Framework ist das Ergebnis der Kombination von konzeptionellen Modellen und Standards in Bezug auf IT und Business, da derzeit Frameworks oder methodische Leitfäden fehlen, um Führungskräften und IT-Experten der Organisation zu helfen, den IT-Bedarf zu bewältigen und ihnen bei der Lösung Lücke, die zwischen Business und IT besteht. Wir führten auch eine ergänzende Umfrage mit zweiundvierzig Befragten durch, um unseren Vorschlag zu bewerten. Unsere Arbeit leistet einen doppelten Beitrag: Erstens ist das IT-Artefakt-Design. Zweitens ist die positive Bewertung des IT-Artefakts.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-31232-3_30 66ef6528590597b2a84b4fd54d4d00d9;de;;;7.1.;;;Qualitätsmanagement, Management und Ausbildung. Ein Notfallansatz In den letzten zehn Jahren haben viele Kommentatoren Qualität und deren Management als von grundlegender Bedeutung für die Erzielung eines Wettbewerbsvorteils hervorgehoben. Die Kombination aus reifen, hart umkämpften Märkten und dem Druck auf Unternehmen, Low-Cost-Anbieter zu werden und gleichzeitig ein konstant hohes Qualitätsniveau aufrechtzuerhalten, hat dazu geführt, dass Qualität für viele Unternehmen als „strategischer Imperativ“ gilt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-57644-7_6 f8968ced6d926ae6effa54a2959455fc;de;;;7.1.;;;Agenten-Interaktionsmanagement und Anwendung in einer virtuellen kollaborativen Umgebung Die Absicht der Verwaltung von Agenteninteraktionen zwischen Agenten, die sich in einer virtuellen kollaborativen Umgebung befinden, besteht darin, einige nützliche Überzeugungen zu erhalten, die bei der Argumentation und Entscheidungsfindung von Agenten verwendet werden können, um weitere Agenteninteraktionen zu optimieren. Geschäftsbeziehungen zu Agenten (wie Vertrauen, Loyalität, Verständnis und Freundschaft) sind solche Überzeugungen. Diese Forschung bietet einen Ansatz für die Verwaltung und Anwendung von Agenteninteraktionsinstanzen. Das Papier stellt zunächst die Multi-Agenten-Systemarchitektur vor, die in der virtuellen kollaborativen Umgebung aufgebaut ist. Zweitens präsentiert es die Interaktionsprotokolle, die für die Softwareagenten entwickelt wurden. Anschließend beschreibt es das Design und die Implementierung des Managements von Interaktionen. Schließlich zeigt es eine spezielle Überzeugungsrevisionsfunktion für persönliche Agenten, um Agentengeschäftsbeziehungen im Hinblick auf die Verwaltung von Agenteninteraktionsinstanzen dynamisch zu aktualisieren.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-23152-8_3 b0c61dc4db649a76d0ef047dfec459fd;de;;;7.1.;;;Optimale Entscheidungs- und Managementmodelle Als optimal gekennzeichnete Entscheidungen beziehen sich auf das spezifizierte und verwendete Modell. Aber Modelle sind lediglich theoretische Konstrukte, die bestenfalls Annäherungen an die reale Welt sind. Auch als Näherung müssen Modelle mit zunehmenden Informationen aktualisiert und sogar überarbeitet werden, wenn sich die zugrunde liegende Umgebung geändert hat. In einem dynamischen Umfeld, in dem Informationen nur sequentiell verfügbar sind, spielt das Risiko eine aktivere Rolle und daher wird die Notwendigkeit, optimale Entscheidungen zu charakterisieren, umso wichtiger.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-70163-4_7 ca088ee61dc18a70018f9d6c3644bf9d;de;;;7.2.;;;Textzusammenfassung und Singulärwertzerlegung In diesem Beitrag stellen wir die Verwendung der Singulärwertzerlegung (SVD) in der Textzusammenfassung vor. Zunächst erwähnen wir die Taxonomie von generischen Textzusammenfassungsmethoden. Anschließend beschreiben wir Prinzipien der SVD und ihre Möglichkeiten, semantisch wichtige Teile eines Textes zu identifizieren. Wir schlagen eine Modifikation der SVD-basierten Zusammenfassung vor, die die Qualität der generierten Extrakte verbessert. Im zweiten Teil schlagen wir zwei neue Bewertungsmethoden basierend auf SVD vor, die inhaltliche Ähnlichkeiten zwischen einem Originaldokument und seiner Zusammenfassung messen. Im Evaluierungsteil wird unser Zusammenfassungsansatz mit 5 anderen verfügbaren Zusammenfassungen verglichen. Zur Bewertung einer zusammenfassenden Qualität haben wir neben einem klassischen inhaltsbasierten Evaluator die beiden neu entwickelten SVD-basierten Evaluatoren eingesetzt. Schließlich untersuchen wir den Einfluss der Zusammenfassungslänge auf ihre Qualität aus dem Blickwinkel der drei genannten Bewertungsmethoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30198-1_25 6e364c80999275896d082f491add196a;de;;;7.1.;;;Abholzung in den Tropen Das Waldübergangsmodell aus Kap. 2 ist sowohl ex-ante für die Modellierung der Entwaldung als auch für die ex-post-Modellierung der Wiederaufforstung einsatzbereit. Ebenso erschien es sowohl bei der Modellierung unter den maximal 74 tropischen Ländern als auch unter den 32 subnationalen Einheiten (Staaten) Mexikos relevant. Kapitel 5 besteht aus sieben verschiedenen Teilstudien, die verschiedene Interaktionen und gegenseitige Unterstützung aufweisen. Der erste Abschnitt analysierte theoretisch die Rolle von Korruption und Unterbewertung von Stumpf bei der Entwaldung mit empirischen Daten und Literaturrecherchen. Die statistisch signifikante Rolle der Korruption bei der zunehmenden Entwaldung wurde durch die Modellierung von 74 tropischen Ländern mit sieben weiteren unabhängigen Variablen und durch die Modellierung von 64 tropischen Ländern mit sechs weiteren unabhängigen Variablen unterstützt. Korruption war auch im Aufforstungs- oder Plantagenwaldmodell von Bedeutung.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-3896-8_5 299fd2d088ddc55dd4469a2d4d1c7d28;de;;;7.1.;;;Beschränken Sie das Produktionsmanagement mit Fuzzy Control Die Funktionen der Kurzzeitplanung und Auftragssteuerung im Shopfloor der Fabrik können durch Produktionsmanagementsysteme unterstützt werden. Ein Planungssystem, das die Erfahrungen der Planungsmitarbeiter widerspiegelt, wurde implementiert. Aufgrund der Komplexität des Scheduling-Problems und der typischen Ungenauigkeit der Planungsstrategiebeschreibungen von Shop-Experten wurde ein System auf Basis von Fuzzy Logic konzipiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34879-7_27 54ea33656460f1e6a18dfc88df803b55;de;;;7.1.;;;Der Zweck von Office-Systemen Es gibt keine einfachen Entscheidungen mehr. In diesem Kapitel untersuchen wir, wie die sich ändernden Beziehungen zwischen dem Unternehmen und seinen Mitarbeitern, Lieferanten, Kunden, Regierungen und Wettbewerbern die Managementaufgabe komplexer machen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-05975-1_4 4711b1d0eaf7c54915ca50cffd96a4d6;de;;;7.1.;;;Bedarfsplanung & -steuerung – Umgang mit mehreren Perspektiven durch einen ganzheitlichen Ansatz für die hierarchische Planung Hierarchische Bedarfsplanung (HDP) ist heute ein komplizierter Bestandteil der meisten Unternehmen. HDP basiert auf der Annahme der Unabhängigkeit zwischen Variablen, was eine einfache und einfache Aggregation und Trennung von Plänen und Daten ermöglicht. Die am häufigsten verwendeten Argumente für die Gruppierung und anschließende Aggregation sind jedoch gemeinsame Merkmale, die der Annahme der Unabhängigkeit entgegenstehen. Eines der vorherrschenden Probleme sind die Zielkonflikte auf verschiedenen Entscheidungsebenen. Ein Beispiel hierfür ist die hierarchische Bedarfsprognose. Bei Prognosen auf z.B. B. auf Produktfamilienebene, um Kapazitätsanforderungen zu ermitteln, besteht das Ziel in der Regel darin, einen Mean Error (ME) von Null zu erreichen. Dies steht im Widerspruch zu Prognosen für Absatzplanungszwecke (DP) auf SKU-Ebene, bei denen die Minimierung der Standardabweichung des Fehlers (SDE) wichtiger sein könnte. In diesem Papier werden diese Probleme anhand eines einfachen Beispiels einer hierarchischen Prognose und der Verwendung eines Zielprogrammierungsansatzes (GP) behandelt, um beide Ziele zu erreichen. Es zeigt sich, dass daraus einige allgemeine Richtlinien für den Umgang mit mehreren Zielen innerhalb des HDP abgeleitet werden können, die den Weg für einen ganzheitlichen Bedarfsplanungsrahmen ebnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-77249-3_7 c858da9e2101e8729ae87c2c3770ab2b;de;;;7.1.;;;Panel-Zusammenfassung: Planung und Problemlösung Ich werde einige Ideen skizzieren, die die psychologischen Ansätze zur Problemlösung geleitet haben. Traditionell betrachteten Psychologen die Fähigkeit, Probleme zu lösen, als „eine der wichtigsten Manifestationen des menschlichen Denkens“.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4809-6_12 2afdaed29cede6cbc422429ff86a954d;de;;;7.1.;;;Wissensaustausch im Design basierend auf einem Product Lifecycle Management System Die Zusammenarbeit in einem erweiterten Unternehmen ist für Menschen nicht so selbstverständlich wie allein zu arbeiten, um ihre eigenen Ziele zu verfolgen. Es wurde beobachtet, dass die Spezifikation und Entwicklung von Informationssystemen diese Vorliebe für das alleinige Arbeiten oft verstärkt: Interoperabilität ebenso wie Interpretationsvarianz schränkt die Fähigkeit von Menschen und Systemen ein, in einem erweiterten Unternehmen zu interagieren und zusammenzuarbeiten. Dieses Papier stellt einen Ansatz vor, um aufzuzeigen, wie Product Lifecycle Management (PLM)-Systeme so erweitert werden könnten, dass nicht nur Daten und Informationen im Design geteilt werden, sondern auch Wissen, Bedeutung und individuelle Wahrnehmung. Dieser Ansatz wird am Ende dieses Beitrags anhand des MEMORAe-Ansatzes praktisch untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-81-322-2229-3_43 8fa70789011ec18b7df302e2d5187d0f;de;;;7.1.;;;Organisationen Die Beziehungen zwischen dem GCS, MIS und den konstituierenden operativen Systemen der Organisation ähneln stark denen der drei Prozesse eines einzigen operativen Systems. Dieses Hauptmerkmal von Systemen der fünften Ebene ist in Abbildung 5.1 dargestellt. Die Probleme eines betrieblichen Prozesses aus Sicht seines Controllers ähneln formal denen eines operativen Systems aus Sicht seines GCS. Die Probleme und die Rolle des historischen Prozesses und der Informationsfunktionen eines operativen Systems (die wir zusammenfassend als seine Informationsprozesse bezeichnen können) ähneln formal entschieden denen des allgemeinen historischen Prozesses und der Informationsfunktionen, die die mit dem GCS der Organisation verbunden sind (von denen wir vereinbart haben, dass sie zusammenfassend als Management-Informationssystem bezeichnet werden). Die formalen Ähnlichkeiten sind ausgeprägt, aber es gibt Unterschiede in der Betonung und im Detail. In diesem Kapitel werden wir versuchen, einige der bemerkenswertesten Probleme operativer Systeme, wie sie von ihren Verantwortlichen wahrgenommen werden, und Organisationen, wie sie von ihren allgemeinen Kontrollsystemen wahrgenommen werden, zu identifizieren. Dies soll eindeutig dazu dienen, bestimmte Positionen einzunehmen. Es besteht kein Grund zu der Annahme, dass eine Person, die mit dem Betriebsablauf eines Betriebssystems identifiziert wird, dieselbe Ansicht hat wie eine andere Person, die mit dem Verantwortlichen identifiziert wird, wie wir uns identifizieren werden. Wir dürfen auch nicht erwarten, dass beispielsweise die für die Verarbeitung Verantwortlichen ihrer konstituierenden operativen Systeme eine Organisation in gleicher Weise – oder zumindest mit der gleichen Betonung – wie ihr GCS betrachten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-00514-7_5 86f784b385dd0972eb628199d26f35e3;de;;;7.2.;;;Förderung des multimodalen semantischen Verständnisses durch lokale Ähnlichkeitsanpassung und globale Korrelationspropagation Ein wichtiger Trend im multimedialen semantischen Verständnis ist die Nutzung und Unterstützung multimodaler Daten, die in Low-Level-Features wie Bild und Audio heterogen sind. Die größte Herausforderung besteht darin, verschiedene Arten von Korrelationen zwischen multimodalen Daten zu messen. In diesem Beitrag schlagen wir einen neuen Ansatz vor, um das multimodale semantische Verständnis aus lokaler und globaler Perspektive zu verbessern. Erstens wird die crossmediale Korrelation zwischen Bildern und Audioclips mit der Kernel Canonical Correlation Analysis geschätzt, zweitens wird ein multimodaler Graph konstruiert, um eine globale Korrelationspropagation mit angepasster intramedialer Ähnlichkeit zu ermöglichen, dann wird der crossmediale Retrieval-Algorithmus als Anwendung von unser Vorgehen. Ein Prototypsystem wird entwickelt, um die Machbarkeit und Leistungsfähigkeit zu demonstrieren. Die experimentellen Ergebnisse sind ermutigend und zeigen, dass die Leistung unseres Ansatzes effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15702-8_14 4e07b8a36b690f4919fde55327ecdec8;de;;;7.2.;;;T-HMM: Ein neuartiger biomedizinischer Textklassifizierer basierend auf Hidden-Markov-Modellen In dieser Arbeit schlagen wir ein Originalmodell für die Klassifikation biomedizinischer Texte vor, die in großen Dokumentenkorpora gespeichert sind. Das Modell klassifiziert wissenschaftliche Dokumente nach ihrem Inhalt unter Verwendung von Information-Retrieval-Techniken und Hidden-Markov-Modellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07581-5_27 691daed3ce2456c4c1cd72515514b94d;de;;;7.1.;;;Hierarchische wissensbasierte Prozessplanung in der Fertigung Planungsmethoden der Künstlichen Intelligenz wurden bis vor kurzem nicht verwendet, um das Problem der computergestützten Prozessplanung (CAPP) in der Fertigung vollständig zu adressieren. Sie waren einfach nicht ausreichend entwickelt, um reale Probleme dieser Komplexität anzugehen. In dem Beitrag zeigen wir, dass wir mit sogenannten Hierarchical Task Networks, einer kürzlich ausgereiften, universell einsetzbaren, domänenunabhängigen Planungsmethode, den Planungsprozess selbst modellieren, verschiedene Arten von technologischem Wissen darstellen und nutzen und die Komplexität Plangenerierungsprozess. Zu diesem Zweck wurde der Planer um Suchmethoden zum Finden der besten Pläne und zur Unterstützung einer gemischt-initiativen, interaktiven Planung erweitert. Das vorgeschlagene CAP-System befasst sich mit der Geometrieanalyse, der Rüstplanung, der Auswahl und Bestellung von Bearbeitungsvorgängen sowie der Zuweisung von Ressourcen. Die ersten Experimente mit prismatischen und rotierenden Teilen zeigen erhebliche Vorzüge des Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35492-7_39 c61d2d8d19dab4b8c8fd0b1c22776a14;de;;;7.1.;;;Untersuchung der Auswirkungen der Informationstechnologie auf Kontroll- und Koordinationsbeziehungen: eine explorative Studie in Tochtergesellschaften pannationaler Konzerne Der pannationale Konzern mit seiner inhärent komplexen Struktur ist die am stärksten von der Globalisierung betroffene Organisationsform. Daher ist es für das Management solcher Unternehmen wichtig, die Kontrolle und Koordination der räumlich verteilten Tochtergesellschaften der Unternehmen zu verbessern. Die Informationstechnologie (IT) wird als wichtiges Instrument zur Veränderung traditioneller Steuerungs- und Koordinationsprozesse in komplexen Umgebungen gefeiert. In diesem Beitrag werden die Ergebnisse einer Studie vorgestellt, die die Rolle der IT bei der Kontrolle und Koordination von Tochtergesellschaften pannationaler Konzerne in Irland untersucht hat. Die Ergebnisse deuten darauf hin, dass die IT genutzt wird, um die Beziehung zwischen Zentrale und Tochtergesellschaften so zu verändern, dass der pannationale Konzern globaler ausgerichtet wird. Dies geschieht durch die Neugestaltung von Betriebsabläufen und Entscheidungsfindungsprozessen in Tochtergesellschaften, um das globale Management und die lokale Reaktionsfähigkeit zu verbessern.;-;-;-;https://link.springer.com/article/10.1080/02683960210162275 4eb4b92ab0a4c085d1439a24d2af0577;de;;;7.2.;;;Fusion mehrerer Funktionen für die chinesische Namenserkennung basierend auf dem CRF-Modell Dieses Papier stellt die Fähigkeit von Conditional Random Field (CRF) vor, die mit mehreren Funktionen kombiniert wird, um eine robuste und genaue Erkennung von chinesischen benannten Entitäten durchzuführen. Wir beschreiben die multiplen Feature-Vorlagen, einschließlich lokaler Feature-Vorlagen und globaler Feature-Vorlagen, die verwendet werden, um mehrere Features mit Hilfe menschlichen Wissens zu extrahieren. Außerdem zeigen wir, dass menschliches Wissen das Modell einigermaßen glätten kann und somit der Bedarf an Trainingsdaten für CRF reduziert werden könnte. Aus den experimentellen Ergebnissen des People’s Daily Korpus können wir schließen, dass unser Modell ein effektives Muster ist, um statistisches Modell und menschliches Wissen zu kombinieren. Und auch die Experimente mit einem anderen Datensatz bestätigen die obige Schlussfolgerung, die zeigt, dass unsere Funktionen mit verschiedenen Testdaten konsistent sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68636-1_10 f9b29150adb6bdd1e88944bdf9498d4a;de;;;7.1.;;;Beschaffungsinformationssysteme: Zusammenarbeit im Kampf gegen die Krise Die Dauer und das Ausmaß der aktuellen Wirtschaftskrise haben Manager überrascht, die auf eine so unerwartete Situation völlig unvorbereitet waren. Als Herzstück ihres Unternehmens und als Bindeglied zwischen Führungskräften und Mitarbeitern müssen diese Manager die Auswirkungen der Krise in einem Umfeld begrenzen, in dem verschiedene Einschränkungen, unerwartete Ereignisse und soziale Spannungen zunehmen. Restrukturierung und Kostendämpfung sind die erste Anlaufstelle, die Käufer sehr beschäftigt macht. Einige Einkäufer sind jedoch Vorreiter einer neuen Art des kollaborativen Managements, das statt den Druck auf die Lieferanten zu erhöhen und die Risikobereitschaft auf ein Minimum zu reduzieren, neue Initiativen befürwortet, die nicht nur auf kurzfristige Gewinnmaximierung abzielen. Dieser Artikel bietet einen Überblick über diese neue, vorausschauende Beschaffungspraxis. Nachdem wir die jüngsten Entwicklungen in der Beschaffungsfunktion hervorgehoben haben, die maßgeblich für die Folgen der Krise verantwortlich waren, schlägt unsere konstruktivistische Methodik vor, 12 Einkaufsexperten zu befragen, um Szenarien zu entwickeln und die Merkmale der kollaborativen Beschaffung zu identifizieren. Der letzte Abschnitt stellt dann vor: (1) neue Formen der internen und externen Zusammenarbeit, (2) die Rollen und spezifischen Fähigkeiten dieses Käufertyps der Zukunft und (3) wie die globalisierte Wirtschaft zunehmend gemeinschaftsbasiert wird , kollaborative virtuelle Umgebung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23330-2_54 9a3ce2d6b576328f78e5eb5c43b651ec;de;;;7.1.;;;Wie man Dinge erledigt: Die Werkzeugkiste eines Praktikers In diesem ausführlichen Kapitel geht es um „Wie man Dinge erledigt“. Es enthält eine Skizze des DMAIC-Ansatzes (Define-Measure-Analyze-Improve-Control), der in Six Sigma-Projekten zum Einsatz kommt. Es kann ganz allgemein als Orientierungshilfe zur Organisation von Umsetzungs- und Verbesserungsprojekten im Kontext von Managementsystemen verwendet werden. Hauptsächlich enthält dieses Kapitel jedoch eine lange Liste praktischer Werkzeuge, die zur Analyse und Lösung von Problemen sehr unterschiedlicher Art eingesetzt werden können. Diese Tools sind in alphabetischer Reihenfolge aufgeführt und können je nach individuellen Vorlieben und Bedürfnissen einzeln aufgenommen werden. Zu den behandelten Werkzeugen gehören: Annahmestichprobe, Fehlerbaumanalyse, FMEA, Regelkarten, Korrelationsanalyse, Versuchsplanung, Schätzung von Parametern und Konfidenzintervallen, Ereignisbaumanalyse, HAZOP, Ishikawa-Diagramme, Monte Carlo-Simulation, Regressionsanalyse, Zuverlässigkeitstheorie, Stichproben von Daten und Umfragen, Hypothesentests und vieles mehr.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-35832-7_6 60e560bc3314944967c986e02413a1bf;de;;;7.1.;;;: Eine Lösung zur Unterstützung der Ausrichtung des IT-Change-Designs an den Geschäftszielen/-beschränkungen Die Veränderungsplanung ist ein Schlüsselelement für den Betrieb und das Management von IT-Infrastrukturen und -Diensten. Der Umfang reicht vom Entwurf einer Änderungsanforderung auf hoher Ebene bis zur manuellen oder automatischen Erstellung von detaillierten Plänen, die bei Ausführung die gewünschten Änderungen durchführen (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04989-7_11 f1973af714b1fbaa3d2b901076bc458c;de;;;7.1.;;;Verteilte Modellverwaltungsplattform für virtuelle Unternehmensnetzwerke Planung und Design virtueller Unternehmensnetzwerke führen zu komplexen Herausforderungen. Aus konzeptioneller Sicht haben sich Geschäftsprozesse in Verbindung mit dem Einsatz grafischer Methoden und Werkzeuge als ideale Gestaltungselemente erwiesen. Insbesondere für Netzwerkdesign und -implementierung dient die Informationsmodellierung als grundlegender Ausgangspunkt. In dem Artikel stellen die Autoren einen Modellierungsansatz dar, der einer globalen und einer lokalen Beschreibung von Geschäftsprozessen und einer verteilten Modellmanagementplattform gewidmet ist. Letzteres unterstützt die kollaborative Erstellung und Anwendung von Modellen in Netzwerkumgebungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-38269-2_53 a27d5c1f6048252b9cabd5ffb178c358;de;;;7.2.;;;Ein Expertenempfehlungsmodell für die akademische Talentbewertung Die Rekrutierung von Talenten ist ein wesentlicher Schritt für Institute, um die Organisationsstrukturen von Lehrkräften zu verbessern und die Entwicklung der Lehrkräfte zu fördern. Um die Zuverlässigkeit der Talentrekrutierung zu gewährleisten, muss die Personalabteilung einen Gutachterkreis bilden. Die Empfehlung an eine Gruppe von Gutachtern wird sich definitiv auf die Effektivität der Talentrekrutierung auswirken. In dieser Studie wird die Bedeutung eines Themas zunächst anhand der Häufigkeit des Auftretens eines Themas innerhalb eines bestimmten Forschungsbereichs eingeschätzt, was hilft, die Expertise der Kandidaten und Gutachter auszudrücken. Als nächstes wird unter Berücksichtigung der Bedeutung des Themas in der Eigenschaft eines Kandidaten ein ganzzahliges Programmiermodell formuliert, um eine Gutachtergruppe zu empfehlen, die sich aus einem Gutachterleiter und mehreren Gutachtern zusammensetzt. Außerdem werden im Optimierungsmodell verschiedene praktische Einschränkungen berücksichtigt, die die Affinität zwischen Gutachtern und Kandidaten, die Expertise der Gutachter und die Belastungsverteilung jedes Gutachters usw. umfassen. Um die Wirksamkeit des vorgeschlagenen Modells zu bewerten, wird es mit zwei Basisalgorithmen verglichen in Bezug auf Abdeckung, durchschnittliche Anzahl von Gutachtern, Relevanz zwischen Gutachtern und Themen usw. Es wurden vergleichende Versuchsergebnisse durchgeführt und es zeigt sich, dass der vorgeschlagene Ansatz in der Lage ist, Gutachter effektiv zu empfehlen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-22871-2_10 085608b458d211a69b5b98984fe9bc8f;de;;;7.2.;;;Studie zur landwirtschaftlichen Informations-Push-Technologie basierend auf dem Nutzerinteressenmodell Traditionelle landwirtschaftliche Informationssysteme sind aufgrund der Ignorierung von Benutzerpräferenzen nicht verfügbar. In diesem Artikel wird eine Methode zur Modellierung von Benutzerinteressen vorgeschlagen, die automatische Modellierung mit künstlicher Modellierung kombiniert. Der Wert des Benutzerinteressesmaßes kann durch Zählen der Häufigkeit von Informationszugriffen erhalten werden. Die statistische Methode, die auf der Hitze von Informationszugriffen basiert, wird verwendet, um einen Cluster-Agrarinformations-Push durchzuführen. Das Ergebnis des Experiments hat bewiesen, dass die Methode zur Modellierung des Benutzerinteresses das Interesse eines Benutzers an landwirtschaftlichen Informationen besser ausdrücken kann. Die Intelligenz und Personalisierung des Systems werden verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36124-1_22 7faa62fb8aa1d39757123fb32c09f204;de;;;7.2.;;;Struktur- und Unterstruktursuche im Dialog Die Entwicklung der computerlesbaren Version der Beilstein-Datenbank führte zu einer ausführlichen Überprüfung der Techniken der Sach- und Unterstruktursuche. Um einen angemessenen Zugang zu den dreidimensionalen Strukturinformationen in Kombination mit dem umfangreichen Angebot an physikalischen Eigenschaftsinformationen bereitzustellen, mussten neue Methoden des Online-Zugriffs entwickelt werden. Die Dialog Information Retrieval-Software ist ein seit langem etabliertes Textsuchsystem, das einigen Modifikationen unterzogen wurde, um eine umfassendere Volltextsuche und eine Suche mit eingeschränktem Zahlenbereich zu ermöglichen. Der Zugriff auf die Beilstein-Datenbank erforderte die vollständige Integration von Unterstruktur- und Gesamtstruktur-Suchtechniken in die vorhandenen Möglichkeiten, um maximalen Benutzerkomfort und Zugänglichkeit der Kombination von Sach- und Strukturdaten zu bieten. Was sich entwickelt hat, ist eine Mischung von Komponenten, die ein völlig neues System für die Formulierung und Übertragung von Strukturabfragen, einen neuen Struktursuchprozess und Verbesserungen der numerischen Suche bietet. Dieses Whitepaper beschreibt die Komponenten, ihre Integration und den daraus resultierenden Service. Die Bewertung des Dienstes und eine mögliche Erweiterung werden überprüft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-78027-1_15 dbcebc5dad5c605c93143914946cb306;de;;;7.2.;;;Studie und Anwendung der Risikobewertung zur Netzwerksicherheit basierend auf AHP Basierend auf Risikobewertungstechniken für die Netzwerksicherheit erstellt dieses Papier Bewertungskriterien für die Risikobewertung der Netzwerksicherheit nach der Delphi-Methode und konstruiert ein analytisches Hierarchieprozessmodell (AHP) zur Risikobewertung der Netzwerksicherheit. Basierend auf diesem Bewertungsmodell wird eine Software eines umfassenden Bewertungssystems entwickelt. Mit dieser Software wird das Risiko einer universitären Netzwerksicherheit bewertet. Die Untersuchungsergebnisse zeigen, dass dieses Modell effektiv für eine umfassende Bewertung des Risikoniveaus der Netzwerksicherheit verwendet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31968-6_24 af9d6d47285ab3b14c8ac0d6fd55ed44;de;;;7.2.;;;Erzielen eines effizienten Abfrageschutzes für standortbasierte Dienste Benutzer von mobilen Smartphones müssen häufig über einen standortbasierten Dienst nach interessanten Orten in der Nähe suchen, jedoch auf eine Weise, die die Privatsphäre der Benutzerstandorte schützt. Wir stellen eine Technik zum Abruf privater Informationen vor, die es einem Benutzer ermöglicht, Informationen von einem Datenbankserver abzurufen, ohne preiszugeben, was tatsächlich vom Server abgerufen wird. Wir führen den Abrufvorgang auf recheneffiziente Weise durch, um ihn für ressourcenbeschränkte Hardware wie Smartphones mit begrenzter Rechenleistung, Speicher und drahtloser Bandbreite praktikabel zu machen. Insbesondere verwendet unser Algorithmus einen Cloaking-Bereich mit variabler Größe, der den Standortgeheimnis des Benutzers auf Kosten zusätzlicher Berechnung erhöht, aber die gleichen Verkehrskosten beibehält. Unser Vorschlag erfordert nicht die Verwendung einer vertrauenswürdigen Drittanbieterkomponente und stellt sicher, dass wir einen guten Kompromiss zwischen Benutzerdatenschutz und Recheneffizienz finden. Wir haben unseren Ansatz mit einer Proof-of-Concept-Implementierung anhand einer kommerziellen Point of Interest-Datenbank bewertet. Wir haben auch die Leistung unserer Abfragetechnik auf einem Smartphone und einem drahtlosen Netzwerk gemessen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14527-8_6 31cb8c0366a93ca3531ea35f6555a234;de;;;7.1.;;;Merkmale der generalisierten heterogenen Informationsressourcen-Repräsentationssprache Die Entwicklung neuer Informationsverarbeitungstechnologien und von Computersystemen der neuen Generation hängt von der Fähigkeit ab, verschiedene Fähigkeiten neuer schnell wachsender Techniken (zB objektorientierte Datenbanken, deduktive Datenbanken, persistente Programmierung, logische Programmierung oder verteilte Problemlösung) zu integrieren gleichzeitig die Möglichkeit, alle vorhandenen Informationsressourcen-Repositorys wiederzuverwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-93464-3_13 e15a2fd3884a01a2aa738597ae84a716;de;;;7.2.;;;Studie zur Bewertung der Phasenraumrekonstruktion basierend auf der Vorhersage des radialen Basisfunktionsnetzwerks Das neuronale Netzmodell mit radialer Basisfunktion wurde angewendet, um das nichtlineare dynamische Verhalten der chaotischen Attraktornachbarschaftsentwicklung zu charakterisieren, und das Schlüsselproblem, wie sichergestellt werden kann, dass das rekonstruierte dynamische System topologisch durch die berechneten Rekonstruktionsparameter mit dem Original identifiziert wird, wurde effektiv gelöst. Das vorgeschlagene Verfahren charakterisiert die nichtlineare Dynamik genauer als die traditionelle lineare Modellvorhersage. Simulationsergebnisse zeigen, dass der ursprüngliche Phasenraum durch die geeignete Einbettungsdimension und Verzögerungszeit rekonstruiert werden kann und die kurzfristige Vorhersage chaotischer Zeitreihen durch das radiale Basisfunktionsnetzwerk realisiert wird. Das Verfahren war sinnvoll, um die Verfügbarkeit der Phasenraumrekonstruktion nachzuweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31965-5_4 76c03d060ee7011927807231be6cfd84;de;;;7.2.;;;Abrufen von Multimedia-Objekten durch Kombinieren semantischer Informationen aus visuellen und textuellen Deskriptoren Wir schlagen eine Methode zum inhaltsbasierten multimedialen Abrufen von Objekten mit visuellen, akustischen und textlichen Eigenschaften vor. In unserem Verfahren werden Trainingsbeispiele von Objekten, die zu einer bestimmten semantischen Klasse gehören, mit ihren visuellen Deskriptoren auf niedriger Ebene (wie MPEG-7) und Textmerkmalen wie der Häufigkeit signifikanter Schlüsselwörter assoziiert. Eine Fuzzy-Abbildung einer semantischen Klasse im Trainingssatz auf eine Klasse ähnlicher Objekte im Testsatz wird unter Verwendung von selbstorganisierenden Karten (SOMs) erstellt, die aus automatisch extrahierten Low-Level-Deskriptoren trainiert werden. Wir haben mehrere Experimente mit verschiedenen Textmerkmalen durchgeführt, um das Potenzial unseres Ansatzes zu bewerten, die Lücke von visuellen Merkmalen zu semantischen Konzepten durch die Verwendung von Textpräsentationen zu schließen. Unsere ersten Ergebnisse zeigen eine vielversprechende Steigerung der Abrufleistung.;-;-;-;https://link.springer.com/chapter/10.1007/11840930_8 259d52ad0c8e92e3bf0824bd1fac671d;de;;;7.1.;;;Auswirkungen der Unternehmenstechnologie auf die Zusammenarbeit und Leistung in der Lieferkette Die Zusammenarbeit in der Lieferkette hat in den letzten Jahren zunehmende Aufmerksamkeit von Wissenschaftlern und Praktikern auf sich gezogen. Unser Verständnis dafür, wie Unternehmensinformationstechnologie die Zusammenarbeit in der Lieferkette erleichtert, ist jedoch noch sehr begrenzt. Dieses Papier erweitert die Theorie, die in der Literatur zur Unternehmensinformationstechnologie und zur Zusammenarbeit in der Lieferkette etabliert wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28827-2_14 32e2865759e3a47e1a04929656dd9089;de;;;7.2.;;;Ein aspektgesteuertes Random-Walk-Modell für die themenfokussierte Zusammenfassung mehrerer Dokumente In letzter Zeit besteht ein erhöhtes Interesse an einer themenorientierten Zusammenfassung mehrerer Dokumente, bei der die Aufgabe darin besteht, automatische Zusammenfassungen als Reaktion auf ein gegebenes Thema oder spezifische vom Benutzer angeforderte Informationen zu erstellen. In diesem Papier integrieren wir eine tiefere semantische Analyse der Quelldokumente, um wichtige Konzepte auszuwählen, indem wir eine vordefinierte Liste wichtiger Aspekte verwenden, die als Leitfaden für die Auswahl der relevantesten Sätze in den Zusammenfassungen dienen. Wir nutzen diese Aspekte und entwickeln eine neuartige Methodik für die themenorientierte Zusammenfassung mehrerer Dokumente, die auf einer Markov-Kette arbeitet, die darauf abgestimmt ist, die wichtigsten Sätze nach einem Random-Walk-Paradigma zu extrahieren. Unsere Auswertungen legen nahe, dass die Ergänzung wichtiger Aspekte mit dem Random-Walk-Modell die Zusammenfassungsqualität gegenüber dem Random-Walk-Modell auf bis zu 19,22 % steigern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25631-8_35 c007c51f8a61fa92e430e06e66ba432b;de;;;7.2.;;;MIRACLE auf der GeoCLEF 2005: Erste Experimente im geografischen IR In diesem Artikel wird der Ansatz des MIRACLE-Teams von 2005 zum Cross-Language Geographical Retrieval (GeoCLEF) vorgestellt. Das Hauptziel der GeoCLEF-Beteiligung des MIRACLE-Teams war es, die Wirkung von Techniken zum Abrufen von geografischen Informationen auf das Abrufen von Informationen zu testen. Der Basisansatz basiert auf der Entwicklung von Tools zur Erkennung von benannten Entitäten und Geoinformationen sowie auf deren Kombination mit linguistischen Techniken zur Durchführung von Indexierungs- und Retrievalaufgaben.;-;-;-;https://link.springer.com/chapter/10.1007/11878773_102 13f2d9ff999f1381c065a6c58882b21c;de;;;7.2.;;;Beweissuchalgorithmus für die Logik des plausiblen Denkens Logic of Plausible Reasoning (LPR) ist eine Wissensrepräsentations- und Inferenztheorie, die auf Techniken des menschlichen Denkens basiert. Formalismus kann als deduktives System bezeichnet werden, daher kann das Argumentieren als Suche nach Beweisen für gegebene Formeln betrachtet werden. Das Ziel der Arbeit ist es, einen Proof-Search-Algorithmus für das LPR vorzustellen. Der Algorithmus wäre ein Kernelement jedes Informationssystems, das LPR verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36562-4_41 d4ba435942012defe0ab2d000d8a1d21;de;;;7.1.;;;Fortschritte in den Informationstechnologien Fortschrittliche Kommunikationstechnologien (wie in Kapitel I erörtert) bilden zusammen mit den neuesten Fortschritten in den Informationsverarbeitungstechnologien (wie in diesem Kapitel erörtert) die technologische Grundlage für die Entscheidungsunterstützung des operationellen Risikomanagements. In diesem Kapitel werden drei Fortschritte in der Informationstechnologie erörtert: Multimedia und Hypermedien, das Internetsystem und virtuelle Realität. Um ein intelligentes Entscheidungsunterstützungssystem für das operationelle Risikomanagement aufzubauen, müssen die Informations- und Kommunikationstechnologien durch Entscheidungsmodelle für das operationelle Risikomanagement ergänzt werden, wie in Kapitel II diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5747-0_3 71646a995a02f64e8479b1b9aa1036e7;de;;;7.1.;;;WebGIS-Entscheidungsunterstützungssystem für das Katastrophenmanagement DSS steht für interaktive computerbasierte Systeme, die Entscheidungsträgern helfen, Daten und Modelle zu nutzen, um unstrukturierte Probleme zu lösen. DSSs koppeln die intellektuellen Ressourcen des Einzelnen mit den Fähigkeiten des Computers, um die Qualität von Entscheidungen zu verbessern. Es ist ein computergestütztes System für Entscheidungsträger im Management, die sich mit semistrukturierten Problemen beschäftigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-03828-1_10 e6b5cf7033f03bc800c78cc18851dee3;de;;;7.1.;;;Gesundheitsinformationssysteme und -anwendungen Das Herzstück der klinischen Informatik ist die Interaktion des Informatikers mit Gesundheitsinformationssystemen, einschließlich solchen, die Kliniker bei ihrer Arbeit unterstützen, und solchen, die die Funktion der Organisation im Verantwortungsbereich des Informatikers unterstützen. Diese Systeme können so einfach sein wie eine einzelne Anwendung, die eine Privatpraxis unterstützt, und können extrem komplex sein, wenn Hunderte von Anwendungen benötigt werden, um ein gesamtes Gesundheitssystem eines Unternehmens zu unterstützen. Sie unterstützen elektronisch alle Funktionen des Gesundheitssystems von der Patientenversorgung, Qualitätskontrolle, Abrechnung und Verwaltung. Die Funktionen dieser Systeme lassen sich in vier Kernbereiche unterteilen: Datengenerierung, Zusammenstellung, Analyse und Synthese sowie Kommunikation und Nutzung. Die Benutzer dieser Systeme sind unter vielen anderen von Krankenschwestern über Ärzte, Techniker bis hin zu Administratoren unterschiedlich. Gesundheitsinformationssysteme und die Anwendungen, aus denen sie bestehen, sind der Schlüssel zum erfolgreichen Betrieb jeder Gesundheitsmaßnahme.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22753-5_10 976159636fbb9a365a09b0504dbe3e9c;de;;;7.2.;;;Evaluierung von Ergebniszusammenführungsstrategien für Metasuchmaschinen Die Ergebniszusammenführung ist eine Schlüsselkomponente in einer Metasuchmaschine. Sobald die Ergebnisse von verschiedenen Suchmaschinen gesammelt wurden, führt das Metasuchsystem sie zu einer einzigen Rangliste zusammen. Die Effektivität einer Metasuchmaschine hängt eng mit dem von ihr verwendeten Algorithmus zur Ergebniszusammenführung zusammen. In diesem Papier untersuchen wir eine Vielzahl resultierender Zusammenführungsalgorithmen basierend auf einer Vielzahl verfügbarer Informationen über die abgerufenen Ergebnisse, von ihren lokalen Rängen, ihren Titeln und Ausschnitten bis hin zu den vollständigen Dokumenten dieser Ergebnisse. Die Effektivität dieser Algorithmen wird dann experimentell anhand von 50 Abfragen aus dem TREC-Webtrack und den 10 beliebtesten Allzweck-Suchmaschinen verglichen. Unsere Experimente liefern zwei wichtige Ergebnisse. Erstens können einfache Strategien zur Zusammenführung von Ergebnissen Google übertreffen. Zweitens kann die Zusammenführung basierend auf den Titeln und Ausschnitten der abgerufenen Ergebnisse die Leistung auf der Grundlage der vollständigen Dokumente übertreffen.;-;-;-;https://link.springer.com/chapter/10.1007/11581062_5 cbfd5bbb876b1842b174b0dfe463cef0;de;;;7.2.;;;Probleme bei der Bewertung von freien/Open Source ERP-Systemen Freie/Open Source ERP-Systeme stellen einen Bereich dar, der aus vielen Gründen immer mehr an Akzeptanz gewinnt. Es fehlt jedoch noch an spezifischen Evaluationsmethoden für die Übernahme und es wird nur sehr wenig wissenschaftliche Forschung in diesem Bereich berichtet. Daher zielt dieses Papier darauf ab, wichtige Fragen zur Bewertung freier/Open-Source-ERP-Systeme zu diskutieren und folglich eine Bewertungsmethode vorzuschlagen, die nicht nur Aspekte der Software selbst berücksichtigt, sondern auch die Möglichkeit, sich der Software anzuschließen Entwicklungsbemühungen.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-34456-X_72 025ef08e840ffc8a8bf21719bd34ad90;de;;;7.1.;;;Agentenbasiertes kollaboratives Supply Net Management Supply Chain Management bedeutet die Koordination aller Material- und Informationsflüsse entlang der gesamten Wertschöpfungskette Das Hauptziel besteht darin, den Gesamtprozess der Supply Chain kosten- und úmo optimal zu gestalten, beispielsweise durch die Verbesserung der folgenden vier Kennzahlen, wie z wie Erhöhung der Kapazität uhlizxúmu, Verringerung der Lagerbestände, Verringerung der Durchlaufzeit und Erhöhung der Lieferzuverlässigkeit und Termintreue. Die konventionelle Steuerung von Lieferketten verfolgt Top-Down-Planungsansätze, um die Lieferströme (inkl. Material und infhnnmi,n) zwischen den verschiedenen an einem Liefernetzwerk beteiligten Unternehmen zu koordinieren, die von aktuellen ERP-xyurmo betrieben werden. Kollaboratives Supply-Net-Management hat technologische und nicht-technologische Aspekte. Aus dem nicht-technologischen Poiot muss neben der Bereitschaft zu organisatorischen Veränderungen auch ein Gefühl der vertrauensvollen Partnerschaft entstehen. Auf der technologischen Seite wird die Agententechnologie als unverzichtbar vorgeschlagen, um eine Integration von Advanced Planning Systems (APS) über Unternehmensgrenzen hinweg zu erreichen. Tbua, dieses Papier schlägt einen agentenbasierten Ansatz zur kollaborativen Supply Net mmoagemcnt vor, basierend auf dem SCOR-Modell (Supply Chain Operations Reference-Modell). Schließlich wird ein Beispiel gegeben, das die Idee eines agentenbasierten Simulationsansatzes skizziert, um den Bullwhip-Effekt zu bekämpfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35698-3_1 cda094d29d9cc82a303cee252d8f5324;de;;;7.2.;;;Bewertungsmetriken der physischen nicht-invasiven Sicherheit Physische nicht-invasive Sicherheit ist für kryptografische Module, die im Pervasive Computing weit verbreitet sind, von entscheidender Bedeutung geworden. Internationale Sicherheitsbewertungsstandards wie der US-amerikanische Federal Information Processing Standard (FIPS) 140-3 und Common Criteria (CC) Teil 3 haben spezielle Anforderungen an die physische nicht-invasive Sicherheit hinzugefügt. Diesen Bewertungsstandards fehlen jedoch quantitative Metriken, um das Design und die Messung explizit zu leiten. Dieser Beitrag schlägt praxisorientierte quantitative Bewertungsmetriken vor, bei denen die Unterscheidbarkeit zwischen den wichtigsten Vorhersagen durch statistische Signifikanztests gemessen wird. Eine deutliche Unterscheidbarkeit zwischen möglichst zwei Schlüsselkandidaten deutet auf hohe Erfolgsraten der richtigen Schlüsselvorhersage hin, deutet also auf einen niedrigen Sicherheitsgrad hin. Die quantitativen Bewertungsergebnisse bieten eine hohe Rechenschaftspflicht der Sicherheitsleistung. Die Übereinstimmung mit FIPS 140-3 macht die vorgeschlagenen Bewertungsmetriken zu einer wertvollen Ergänzung zu diesen weit verbreiteten Standards. Fallstudien zu verschiedenen Smartcards zeigen, dass die vorgeschlagenen Bewertungsmetriken genau und machbar sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12368-9_5 34db967b6c70b37b581af054ed1a27fa;de;;;7.2.;;;Sprachliche Einschätzung der Themenschwierigkeit bei der sprachenübergreifenden Bildsuche Die Auswahl geeigneter Themen zur Beurteilung der Systemeffektivität ist ein wesentlicher Bestandteil jedes Benchmarks, insbesondere für Abrufsysteme. Dies beinhaltet die Erstellung einer Reihe von Beispielsuchanfragen (oder Themen), um verschiedene Aspekte der zu evaluierenden Retrievalsysteme zu testen. Als Hilfestellung bei der Themenauswahl präsentieren wir ein Maß für die Themenschwierigkeit für die sprachübergreifende Bildsuche. Diese Maßnahme hat es uns ermöglicht, den Themengenerierungsprozess in einem methodischen und verlässlichen Rahmen für ImageCLEF 2005 zu verankern. Dieses Dokument beschreibt eine solche Maßnahme für die Themenschwierigkeit, bietet konkrete Beispiele für jeden Aspekt der Themenkomplexität und eine Analyse der im ImageCLEF 2003 verwendeten Themen , 2004 und 2005 Ad-hoc-Aufgabe.;-;-;-;https://link.springer.com/chapter/10.1007/11878773_61 dc92047bb8ac475fbfeed861ce439ee2;de;;;7.2.;;;IR von XML-Dokumenten – Eine kollektive Ranking-Strategie Im Bereich Information Retrieval (IR) hat die Bedeutung einer angemessenen Rangfolge der Ergebnisse deutlich zugenommen. Bei Systemen, die auf XML-Retrieval spezialisiert sind, wird die Bedeutung noch größer, da Benutzer dieser Systeme die Suche nach hochrelevanten und hochpräzisen Komponenten erwarten, anstatt die Suche ganzer Dokumente. Als internationale, koordinierte Anstrengung zur Bewertung der Leistung von Information Retrieval-Systemen ermutigt die Initiative for the Evaluation of XML Retrieval (INEX) die teilnehmenden Organisationen, Abfragen in ihren Suchmaschinen durchzuführen und ihre Ergebnisse für den jährlichen INEX-Workshop einzureichen. In früheren INEX-Workshops wurden die eingereichten Ergebnisse von den Teilnehmern manuell bewertet und die Suchmaschinen nach Leistung gerankt. Dieses Papier stellt eine kollektive Ranking-Strategie vor, die alle Suchmaschinen, auf denen sie basiert, übertrifft. Darüber hinaus bietet es ein System, das versucht, das Ranking der teilnehmenden Suchmaschinen zu erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/11424550_10 2505e1537a9c4b3b08a89a6f45b7789a;de;;;7.1.;;;Ein abstraktionsbasierter Regelansatz für die Entwicklung von Informationssystemen im großen Maßstab Durch die Einführung einer Regelsprache in die IS-Entwicklung können Geschäftsregeln explizit abgebildet werden. Die Verwendung von Regeln impliziert jedoch, dass wir Wege finden müssen, mit der Regelerfassung und der Komplexität großer Regelbasen umzugehen. Das Papier argumentiert für einen abstraktionsbasierten Regelansatz für die Entwicklung von Informationssystemen. Vereinfachungen einer Spezifikation werden bereitgestellt, indem verschiedene Ansichten (Abstraktionen) der Regelbasis zugelassen werden, und es wird ein Rahmen zur Beschreibung von Abstraktionen vorgeschlagen. Eine Ansicht wird durch einen Satz explizit definierter Abstraktionsmechanismen generiert, die manuell von einem Entwickler erstellt werden, oder eine Kombination aus beiden. Anstatt mit einer vollständigen Spezifikation zu arbeiten, können relevante Ansichten in verschiedenen Phasen des Entwicklungsprozesses (z. B. bei der Regelerfassung) angewendet und dann schließlich in eine neue Version der vollständigen Spezifikation integriert werden. Ansichten können aktualisiert werden und mehrere Ansichten dürfen gleichzeitig vorhanden sein. Die Unterstützung mehrerer Ansichten und verschiedener Versionen von Ansichten erfordert einen Versionierungsmechanismus, um die verschiedenen Versionen einer vollständigen Spezifikation zu verfolgen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-56777-1_18 eb4f513e836a461c0d08f1a29a1409d0;de;;;7.2.;;;Kardiovaskuläre, neurophysiologische und biochemische Stressindikatoren: Ein kurzer Rückblick für Informationssystemforscher Wir führten eine systematische Überprüfung der wissenschaftlichen Literatur zu Indikatoren zur Stressmessung durch. Die Volltexte von 128 Artikeln (veröffentlicht im Zeitraum 1970–2017) wurden analysiert und insgesamt 21 verschiedene Stressindikatoren identifiziert, darunter kardiovaskuläre, neurophysiologische und biochemische Messgrößen. Darüber hinaus haben wir die Nutzungshäufigkeit der Indikatoren analysiert. Glukokortikoide einschließlich des Hormons Cortisol (52 von 128 Artikeln), Herzfrequenz (HR) und Herzfrequenzvariabilität (HRV) (50/128) sowie diastolischer Blutdruck (DBP) und systolischer Blutdruck (SBP) (40/ 128), sind die dominierenden Stressindikatoren. Außerdem haben wir festgestellt, dass die Hälfte der Artikel (64/128) über mindestens zwei verschiedene Stressindikatoren berichtet, daher ist eine Kombination biologischer Messansätze in der Stressforschung relativ verbreitet. Diese Überprüfung ist von Wert für Forscher in der Disziplin Informationssysteme (IS) und verwandten interdisziplinären Forschungsfeldern wie Technostress.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-01087-4_31 51279722456202ae47af1114934edfa7;de;;;7.1.;;;Unterstützung des verknüpften Engineering-Datenmanagements von intelligenten Produktsystemen durch semantische Plattformdienste Die zunehmende industrielle Relevanz vernetzter intelligenter Produktsysteme, gestiegene individualisierte Kundenanforderungen, regulatorische Rahmenbedingungen sowie fortschrittliche Wertschöpfungsnetzwerke und volatile internationale Märkte bestimmen eine neue Komplexität der Engineering-Komplexität. Aktuelle Engineering-Prozesse werden durch eine Vielzahl von IT-Anwendungen ermöglicht, die teilweise durch Product Lifecycle Management-Lösungen orchestriert werden. Angesichts der dramatisch ansteigenden Komplexität werden die IT-Anwendungen oft nicht adäquat als Ganzes vernetzt, was zu Unterbrechungen in den Prozessketten und letztendlich zu Qualitätsproblemen, Zeitaufwand und Mehrkosten führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-62807-9_20 8a50f0fb33db9b94ca3440d98b37874b;de;;;7.2.;;;Die Akademiker einbeziehen ITEM-Systeme im Hochschulbereich sind groß. Dies bedeutet, dass sie oft speziell für eine einzelne Universität geschrieben werden. Diese Systeme haben im Vergleich zu kommerziellen Systemen erhebliche Investitionskosten. Ein interessantes Problem bei solchen Systemen ist die scheinbare Menge der wahrgenommenen Interessengruppen, gemessen an der Funktionalität des funktionierenden Systems. Erste Fallstudien von drei Universitäten in einem Land zeigten, dass die bestehenden Verwaltungssysteme wenig Unterstützung für Lehrzwecke bieten. Eine ausgedehnte Umfrage in mehreren Ländern ergab wenige Ausnahmen, und es wurde ein Test entwickelt, um festzustellen, ob ein ITEM-System einer Universität die Unterrichtsfunktion als Benutzeranforderung beinhaltet. Die Studie fand nur wenige Systeme, die auch nur die trivialsten Anforderungen der Lehre erfüllen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35689-1_8 951bf859c076980007caa557f1de5009;de;;;7.2.;;;Computer-Endbenutzer-Schulung, -Lernen und -Evaluieren im neuen Südafrika: Eine Port Elizabeth-Technikon-Erfahrung Endbenutzer-Computing-Klassengruppen bestehen aus einem breiten Spektrum von Studenten, die herkömmliche Lehr- und Bewertungsmethoden als unwirksam erachtet haben. Wir haben computerbasierte Tutorials und Tests entwickelt, die die Schüler motivieren, verschiedene Funktionen der Softwareprodukte zu erkunden und anzuwenden, indem sie integrierte Coaches oder Hilfefunktionen verwenden. Sie werden wettbewerbsfähig und selbstbewusst und bewerten sich selbst neu, bis sie den erforderlichen Standard für die offizielle Bewertung erreicht haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35061-5_20 42f700b15dbf4b737181f095fe2cc44b;de;;;7.1.;;;Eignung und Managementimplikationen eines Master Surgical Scheduling-Ansatzes Die Planung und Planung von Operationssälen (OP) ist ein beliebtes und herausforderndes Thema innerhalb der Operationsforschung, die auf die Versorgungsforschung (ORAHS) angewendet wird. Die Auswirkungen in der Praxis sind jedoch sehr begrenzt. Die Organisation und Kultur eines Krankenhauses und die inhärenten Merkmale seiner Prozesse stellen spezifische Umsetzungsfragen, die den Erfolg von Planungsansätzen beeinflussen. Aktuelle taktische OP-Planungsansätze berücksichtigen diese Probleme oft nicht. Das Master Surgical Scheduling (MSS) ist ein vielversprechender Ansatz für Krankenhäuser, um die Ressourcennutzung und den Patientenfluss zu optimieren. Wir diskutieren die Vor- und Nachteile von MSS und vergleichen MSS mit zentralen und dezentralen Planungsansätzen. Abschließend gehen wir auf verschiedene Umsetzungsfragen von MSS ein und diskutieren die Eignung für Krankenhäuser mit unterschiedlichen Organisationsschwerpunkten und -kulturen.;-;-;-;https://link.springer.com/article/10.1007/s10479-009-0619-z a01b93e19b271d51c30702b95566085e;de;;;7.1.;;;Ein managementbewusster Softwareentwicklungsprozess mit Design Patterns Die Bereitstellung qualitätsgesicherter IT-Services durch einen Service Provider setzt voraus, dass alle an diesen Services beteiligten IT-Komponenten effizient und effektiv gemanagt werden können. Die erforderliche Managementinfrastruktur muss an diese IT-Komponenten angepasst und standardbasiert sein, um eine Integration in eine Gesamtmanagementumgebung zu ermöglichen. Das breite Anwendungsspektrum unterschiedlicher Funktionalität und Architektur sowie die Notwendigkeit einer tiefen Korrelation der Management-Infrastruktur mit der internen Struktur und den Prozessen einer Anwendung erschweren den Einsatz vordefinierter Anwendungsmanagement-Lösungen von der Stange.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35674-7_57 a184ab9906d48d6d1411d01286137c63;de;;;7.1.;;;Ein Diskursmodell für kollaboratives Design Es wird ein Diskursmodell einschließlich einer Struktur und eines Prozesses entwickelt, das Softwareunterstützung für kollaboratives Engineering bietet. Zu den Komponenten der Struktur gehören ein Arbeitsbereich, der Rahmen, Beschränkungen, semantische Netzwerke, Bibliotheken von gemeinsam nutzbaren Entwurfsobjekten, Agenten und eine virtuelle Arbeitsbereichssprache enthält. Zu den Komponenten des Prozesses gehören Verfahren zum Identifizieren von Interessengruppen von Agenten, Anwenden von Zustandstransformationen auf das Designmodell, Wechseln von Designkontexten, Identifizieren von Konflikten zwischen Designern und Verfolgen gelöster Konflikte. Das Modell ist implementierungsunabhängig und auf viele derzeit verfügbare Forschungs- und kommerzielle Designumgebungen anwendbar. Im Bereich Architektur/ Ingenieurwesen/ Bau wird ein Beispielszenario bereitgestellt, das die Zusammenarbeit bei der Konzeption einer Feuerwache veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35357-9_12 4b51c575b46dbe3242b66160ea90f90d;de;;;7.2.;;;Ein probabilistisches Modell für Benutzerrelevanz-Feedback beim Bildabruf Wir präsentieren ein neuartiges Wahrscheinlichkeitsmodell für die Benutzerinteraktion in Bildabrufanwendungen, das die Konsistenz zwischen den abgerufenen Bildern berücksichtigt und die Verteilung der Bilder in der gesuchten Datenbank berücksichtigt. Gängige Modelle für Relevanz-Feedback berücksichtigen dies nicht und berücksichtigen daher nicht alle verfügbaren Informationen. Die vorgeschlagene Methode wird anhand von zwei öffentlich zugänglichen Benchmark-Datenbanken bewertet und übertrifft die neueren Wettbewerbsmethoden deutlich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85853-9_24 bdd028ab3966d405b595a3331d1cc703;de;;;7.2.;;;MobileCDP: Ein mobiles Framework für den Verbraucherentscheidungsprozess Der Verbraucherentscheidungsprozess ist ein weithin akzeptiertes Modell, das Verbraucheraktivitäten abdeckt und umfasst dementsprechend fünf miteinander verbundene Phasen: Problemerkennung, Informationssuche, Bewertung von Alternativen, Kauf und Bewertung nach dem Kauf. Um die Verbraucher bei der Bewältigung der Herausforderungen in all diesen Phasen zu unterstützen, bieten mobile Informationssysteme wie in anderen Anwendungsbereichen erhebliche Fähigkeiten. Die diesbezügliche Vorforschung beschränkt sich jedoch meist auf die einzelnen Verfahrensschritte. Da die Phasen miteinander verbunden sind und die in einer Phase gesammelten Daten auch für die andere wertvoll sind, schlagen wir ein mobiles Framework namens MobileCDP vor, das in allen Phasen des Verbraucherentscheidungsprozesses Unterstützung bietet. Ein Prototyp wird ebenfalls implementiert und evaluiert, um die Anwendbarkeit des Frameworks zu zeigen. Experimente zeigen, dass die vom Prototyp bereitgestellten Funktionen nützlich, gut integriert und einfach zu bedienen sind. Darüber hinaus belegt die statistische Auswertung der Ergebnisse, dass der Prototyp Zeit, Kosten und kognitiven Aufwand des Nutzers reduziert.;-;-;-;https://link.springer.com/article/10.1007/s10796-015-9601-2 e729a421cb72db2e4b46271927de41e2;de;;;7.2.;;;Eine Umfrage zu Frage-Antwort-Systemen über verknüpfte Daten und Dokumente Question Answering (QA)-Systeme zielen darauf ab, präzise Antworten auf Fragen zu liefern, die von Benutzern in natürlicher Sprache gestellt werden. Sie werden in den unterschiedlichsten Anwendungsbereichen eingesetzt, von der Biomedizin bis zum Tourismus. Ihre zugrunde liegende Wissensquelle können strukturierte Daten (z. B. RDF-Graphen und SQL-Datenbanken), unstrukturierte Daten in Form von Klartext (z. B. Textauszüge aus Wikipedia) oder Kombinationen davon sein. In diesem Artikel geben wir einen Überblick über die jüngsten Arbeiten im Bereich zustandsloser QS-Systeme mit Schwerpunkt auf Methoden, die in RDF und Linked Data, Dokumenten und Mischungen davon angewendet wurden. Wir identifizieren die größten Herausforderungen, wir kategorisieren die bestehenden Ansätze nach verschiedenen Aspekten, wir überprüfen 21 neuere Systeme und 23 in der Literatur am häufigsten verwendete Evaluations- und Trainingsdatensätze, kategorisiert nach der Art der Domäne, der zugrunde liegenden Wissensquelle, die bereitgestellten Aufgaben und die zugehörigen Bewertungsmetriken.;-;-;-;https://link.springer.com/article/10.1007/s10844-019-00584-7 e625dbf4eedecdda60573068389380be;de;;;7.2.;;;Ein Bewertungsmodell und eine empirische Studie zur Leistung von Distributoren in der chinesischen Mobilfunkindustrie Der Vertrieb in China steht heutzutage vor großen Herausforderungen. Umstände wie die Bewertung der Leistung von Distributoren sind zu einem kritischen Thema im Supply Chain Management geworden. Dieses Papier schlägt ein Leistungswertindexmodell vor, das auf einer Literaturrecherche und -analyse chinesischer Unternehmen basiert. Es validiert auch die Korrelation zwischen Prozess-, relationalen und betrieblichen Leistungen, finanziellen Vorteilen und potenziellen Wettbewerbsvorteilen mithilfe von SEM (Structural Equation Model). Die Ergebnisse zeigen, dass die Prozessleistung und die Beziehungsleistung positive Auswirkungen auf das Wettbewerbspotenzial haben, während die operative Leistung einen großen Einfluss sowohl auf den finanziellen Nutzen als auch auf das Wettbewerbspotenzial hat. Gleichzeitig hängt die potenzielle Wettbewerbsfähigkeit auch positiv mit dem finanziellen Nutzen zusammen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-76312-5_78 e49e913b4b97891c5fc9e2e7c211b4b7;de;;;7.1.;;;Menschliche Aspekte im Fertigungsprozessmanagement Die Globalisierung der Weltwirtschaft, stetig steigender Kostendruck im internationalen Wettbewerb und immer kürzere Produktlebenszyklen stellen die Produktionsplanung vor neue Herausforderungen. Das Konzept des Manufacturing Process Management (MPM) bietet eine integrierte Arbeitsumgebung für die Produktionsplanung und eine umfassende Plattform zur Optimierung der Produktionsplanung im gesamten erweiterten Unternehmen. Kern des Konzepts ist eine Datenbank mit einem Prozessmodell, das Fertigungsabläufe sowie benötigte Ressourcen und betroffene Produktkomponenten beschreibt. An diese Datenbank sind verschiedene Planungstools angebunden. Über ein integriertes 3D-Menschmodell lassen sich ergonomisch sichere Arbeitsplätze definieren. Ergonomische Standards und Best Practices für manuelle Arbeitsvorgänge können sehr effektiv definiert und umgesetzt werden. Somit kann die Planung von Produktionsanlagen bei höherer Qualität schneller erfolgen.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-23078-5_8 ea466fb12389a9afded74073b73803f6;de;;;7.2.;;;Abgleich von Auswertungen und Datensätzen Die Verwendung heterogener Taxonomien erfordert eine (semi-)automatische Informationsverarbeitung und die Berechnung von Match-Scores. Taxonomische Heterogenität tritt in vier verschiedenen Kategorien auf: terminologische Heterogenität (unterschiedliche Bezeichnungen und/oder Sprachen werden verwendet, um die Konzepte zu beschreiben), konzeptionelle Heterogenität (widersprüchliche Modelle, einschließlich einer unterschiedlichen Anzahl von Hierarchien), syntaktische Heterogenität (verschiedene semantische Sprachen und unterschiedliche Syntax) und semiotische Heterogenität (verschiedene kognitive Interpretationen und Missverständnisse). In den letzten fünf Jahren wurde eine große Anzahl von Matching-Systemen vorgeschlagen, die darauf abzielen, eine oder mehrere Arten taxonomischer Heterogenität zwischen zwei Taxonomien zu überwinden. Die neuesten Matching-Systeme und -Algorithmen mit der besten Leistung kombinieren jetzt mehrere Matching-Techniken, um die erkannten Alignments sicherzustellen, nutzen verschiedene Quellen von Hintergrundwissen, um weitere Beziehungen zwischen Taxonomie-Entitäten zu extrahieren, und bieten eine sogenannte Benutzerbeteiligung, um die resultierenden Korrespondenzen zu korrigieren. Basierend auf einer Analyse der neuesten Ergebnisse der Ontology Alignment Evaluation Initiative (OAEI), die zwischen 2011 und 2015 für verschiedene Tracks und Testfälle präsentiert wurden, bietet dieses Kapitel einen umfassenden Überblick über die neuesten Methoden und Ansätze sowie neuere Techniken , und diskutiert offene Herausforderungen für jede der taxonomischen Heterogenitätskategorien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-72209-2_4 c9b706758ef17faccffb691f23372e84;de;;;7.1.;;;Das Management organisatorischer Veränderungen Unternehmen leben ständig mit der Unsicherheit, nicht genau zu wissen, wie sich Änderungen in der externen Umgebung auf ihre Betriebsfähigkeit und Leistungseffizienz auswirken. Angesichts des raschen Wandels, der von dem sozialen, wirtschaftlichen und gesetzgeberischen Druck ausgeht, der sich in der modernen Industriegesellschaft aufgebaut hat, erweisen sich die Auswirkungen externer Ereignisse auf eine Organisation als immer schwieriger zu kontrollieren und zu beeinflussen (Beer 1975, Toffler 1970).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-16346-5_8 2cb8f3e0a8ca031159ed274e5a0071a9;de;;;7.2.;;;Ein Rahmen für das Monitoring und die Evaluation von Lernprozessen Der Beitrag beschreibt die Merkmale und Vorteile der Prozessorientierung in allen Phasen der Gestaltung und Durchführung von Hochschulstudiengängen, die in einem Einführungskurs in Umweltwissenschaften an der Masaryk-Universität, Fakultät für Informatik in Brno, Tschechien, angewendet werden. Es werden die Prinzipien des prozessorientierten Lerndesigns und seine Unterstützung im Open-Source-basierten Medusy-Projekt demonstriert. In erster Linie wird der integrierte Ansatz für das Design von Lernprozessen, die Tools, die Laufzeitumgebung und das Repository für Lernprozessmuster gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41151-9_49 74563a2b1b2fbecdc313e9dcfb44375f;de;;;7.1.;;;Eine wiederverwendbare Softwarearchitektur für geografische Informationssysteme basierend auf Software Product Line Engineering In den letzten Jahren hat die Funktionalität von Geoinformationssystemen (GIS) kontinuierlich zugenommen, was zu vielen verschiedenen Software-Artefakten geführt hat. Obwohl jedes GIS in unterschiedlichen Bereichen mit unterschiedlichen Zielsetzungen verwendet wird, teilen sie alle viele Funktionen und Anforderungen und daher ist es möglich, Techniken anzuwenden, die auf einer intensiven Wiederverwendung von Software basieren, wie z. B. Software Product Line Engineering (SPLE). Obwohl in den letzten Jahren viel Forschung zum Softwareproduktlinien-Engineering betrieben wurde, wurde die Definition einer Softwareproduktlinie für den Bereich der geografischen Informationssysteme nicht vorgenommen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23781-7_26 34aaad02d947c7e4313006c199899975;de;;;7.1.;;;Informations- und Betriebstechnologie-Nexus für das Asset Lifecycle Management Moderne Unternehmen verlassen sich auf genaue und vollständige Informationen, um optimale Entscheidungen zu treffen. Um dies zu tun, müssen Sie in der Lage sein, Informationen aus jedem Endlager zu sammeln, die ihnen die notwendigen Informationen für gute Entscheidungen liefern. Asset-Management-Organisationen haben in letzter Zeit viele ihrer Informationssysteme integriert, konzentrieren sich jedoch in den meisten Fällen auf die geschäftsprozessfördernden Eigenschaften von Informationstechnologien und neigen dazu, die Rolle dieser Technologien bei der strategischen Geschäftsausrichtung zu übersehen. Ebenso betrachten Asset-Management-Organisationen die IT als einen Bereich der Geschäftsunterstützung, der Geschäftsprozesse oder Betriebstechnologien unterstützt, um das reibungslose Funktionieren eines Assets zu gewährleisten. Aber auch diese Betriebstechnologien sind in die IT eingebettet und generieren Informationen, die in verschiedene andere Betriebssysteme und administrative Altsysteme eingespeist werden. Die Verflechtung von Betriebs- und Informationstechnologien legt nahe, dass diese Informationen zur Steuerung von Asset Management-Aufgaben dienen und auch als Instrument zur fundierten und qualitativ hochwertigen Entscheidungsunterstützung dienen. Dort wird die aktive und dynamische Verbindung zwischen IT und Corporate Governance sichtbar. Der Anwendungsbereich der IT-Governance sollte daher auf die Betriebstechnologien ausgeweitet werden, um eine einheitliche Sicht auf Informationen und Betriebstechnologien zu entwickeln. Dieses Papier versucht, die Besonderheiten und Unterschiede der Beziehung zwischen branchenspezifischen Betriebstechnologien, die für das Asset Management verwendet werden, und der organisatorischen Nutzung von Mainstream-IT-Anwendungen für die Geschäftsabwicklung aufzudecken. Dieses Papier stellt die These auf, dass ein Zusammenfluss von Informationstechnologie (IT), Betriebstechnologie (OT) und Informationsmanagementtechnologie (IM) erforderlich ist, um einen hohen Grad an datengesteuerter Entscheidungsfindung insbesondere auf der strategischen Ebene der Organisation zu erreichen auftreten.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-85729-320-6_13 16b93e61e9b7e5261566677e35946f64;de;;;7.2.;;;Die BNB-Distribution für die Textmodellierung Wir überprüfen in dieser Arbeit zunächst die Burstiness und die Nachwirkung zukünftiger Sampling-Phänomene und schlagen ein formales, operationelles Kriterium vor, um Verteilungen gemäß diesen Phänomenen zu charakterisieren. Wir führen dann die Beta-negative Binomialverteilung für die Textmodellierung ein und zeigen ihre Beziehungen zu mehreren Modellen (insbesondere zum Laplace-Sukzessionsgesetz und zum;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78646-7_16 fab09c8562027fe76e6229ba8faacda6;de;;;7.2.;;;Konsistenz und Unschärfe in geordneten Entscheidungstabellen In diesem Beitrag konzentrieren wir uns darauf, wie die Konsistenz einer geordneten Entscheidungstabelle und die Unschärfe eines geordneten Grobsatzes und einer geordneten Grobklassifikation im Kontext geordneter Informationssysteme gemessen werden kann. Die Zugehörigkeitsfunktion eines Objekts wird durch die Verwendung der Dominanzklasse einschließlich sich selbst definiert. Basierend auf der Zugehörigkeitsfunktion führen wir ein Konsistenzmaß ein, um die Konsistenz einer geordneten Entscheidungstabelle zu bewerten und definieren zwei Unschärfemaße, um die Unschärfe eines geordneten Grobsatzes und einer geordneten Grobklassifikation zu berechnen. Mehrere Beispiele werden auch verwendet, um ihre Mechanismen zu veranschaulichen. Diese Ergebnisse sind hilfreich, um die Unsicherheit in geordneten Informationssystemen und geordneten Entscheidungstabellen zu verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79721-0_14 5f1973b48b169df5676ba91badd05e85;de;;;7.1.;;;Berufsbewertung und -planung Die Person mit Schädel-Hirn-Trauma (SHT) ist vielleicht der anspruchsvollste Klient in Bezug auf die Gestaltung einer angemessenen, nützlichen und aussagekräftigen beruflichen Bewertung. Ein Hauptgrund für diese Schwierigkeit ist die Veränderung der kognitiven, Verhaltens- und körperlichen Funktionen, die infolge einer Kopfverletzung auftreten können (Musante, 1983). Darüber hinaus erfordern die betroffenen beruflichen, sozialen und familiären Lebensaspekte, dass der Gutachter sich bewusst ist, Empfehlungen mit langfristiger Wirkung abzugeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-0706-6_21 4c6bb6c0e9c477afe3643343e95a3e21;de;;;7.2.;;;Bewertung eines 4D-Cone-Beam-CT-Rekonstruktionsansatzes unter Verwendung eines anthropomorphen Phantoms Wir haben zuvor bildgeführte Navigationssysteme für thorakale Abdominalinterventionen entwickelt, die ein dreidimensionales (3D) Cone-Beam-CT (CBCT)-Bild verwenden, das bei Atemanhalten aufgenommen wurde. Diese Systeme erforderten, dass der Arzt den Eingriff getriggert durchführte, wobei die Aktionen in derselben Atmungsphase durchgeführt wurden, in der das DVT-Bild aufgenommen wurde. Dieser Ansatz ist nicht immer anwendbar, da es vielen Patienten schwerfällt, die Atemanhalteanforderung einzuhalten. Außerdem ist das Handeln des Arztes auf eine bestimmte Atemphase beschränkt. Um diese Mängel zu mindern, haben wir ein retrospektiv gesteuertes Akquisitionsprotokoll mit einem klinischen C-Bogen-basierten System entwickelt und implementiert. Das resultierende 4D (3D+Zeit) Bild wird dann als Eingabe für das Navigationssystem verwendet. Wir evaluieren unseren Rekonstruktionsansatz unter Verwendung eines computergesteuerten anthropomorphen Atemphantoms. Das Phantom wird mit Atemfrequenzen von 12, 15 und 20 Atemzügen pro Minute und drei Amplituden entsprechend flachen, normalen und tiefen Atemmustern geatmet. Wir zeigen, dass die getriggerten Bilder ein besseres Kontrast-Rausch-Verhältnis und schärfere Kanten aufweisen als die ohne Gating rekonstruierten Bilder. So können wir einen intraoperativen Datensatz aufnehmen, der möglicherweise eine bessere Navigationsgenauigkeit bietet, indem wir 3D-Bilder an beliebigen Punkten im Atemzyklus verwenden, ohne dass der Patient während der Bildaufnahme den Atem anhalten muss.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13711-2_14 3dcb54195e1ac176248b9fed70066d30;de;;;7.2.;;;Ein verbessertes neues Ereigniserkennungsmodell New Event Detection (NED) zielt darauf ab, die erste Geschichte für ein neues Ereignis zu erkennen, das zuvor nicht diskutiert wurde. Das traditionelle Ereigniserkennungsmodell verwendet grundsätzlich inkrementelle TF-IDF-Gewichtungen für die Terme, die nicht die Auswirkungen von Wortarten und benannten Entitäten im Dokument berücksichtigen. Das Papier untersucht die Anwendung der Gewichtung der Wortart und generiert Dokumentthemabegriffe basierend auf dem Dokument namens Entity, um ein neues Ereignis zu erkennen, was die Leistung im Vergleich zum herkömmlichen Modell verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19853-3_63 bab71848bbf640ce7edb7a5c1dc40640;de;;;7.2.;;;Bewertung des wirtschaftlichen Schadens und der sozialen Auswirkungen von Informationssystemausfällen Die Verbreitung von Informationssystemen wirft im Zusammenhang mit ihrer Unterbrechung Sicherheits- und Geschäftskontinuitätsprobleme auf. Politische Entscheidungsträger, die an der Vorbeugung und Vorbereitung unerwarteter kritischer Ereignisse beteiligt sind, müssen die direkten und indirekten sozioökonomischen Auswirkungen potenzieller Störungen des Informationssystems verstehen. Dieses Papier stellt eine neue Methodik zur Bewertung der Sektoren vor, die am anfälligsten für kritische Ausfälle von Informationssystemen sind. Das Modell der Vulnerabilität von Informationssystemen (VIS), das auf dem bekannten Input-Output-Paradigma basiert, simuliert Störungen von Informationssystemen und bewertet ihre sozioökonomischen Auswirkungen im dynamischen Rahmen von Sektorinterdependenzen und kaskadierenden Ausfalleffekten. Das VIS-Modell stellt einen wichtigen Schritt in der Forschung dar, die sich auf die Prävention, Vorsorge und Folgenabschätzung unerwarteter Ausfälle von Informationssystemen konzentriert. Es beleuchtet, wie sich die Auswirkungen einer Störung ausbreiten können und hilft, kritische Infrastrukturen aus sozioökonomischer Sicht zu identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16806-2_13 60416ce69abe1011b9106fdf23eb8355;de;;;7.2.;;;Interpersonale Telefonkonferenzen im organisatorischen Kontext Kommunikation in Organisationen dient in erster Linie dazu, Unsicherheit zu reduzieren (Galbraith, 1973). Aufgrund des zunehmend turbulenten Umfelds (Emery und Trist, 1965, Terreberry, 1968) sind viele Organisationen heute, sei es im Gesundheitswesen, im Rechtswesen, im Bildungswesen oder in der Produktion, mit der Notwendigkeit konfrontiert, mit zunehmender Unsicherheit und damit mit Wachstum in der Umfang und Komplexität der Kommunikation. Der Einsatz neuer Kommunikationstechnologien ist ein Mittel zur Bewältigung dieses Problems. In diesem Papier geht es darum, die Angemessenheit des Einsatzes zwischenmenschlicher Telekonferenzmodi – Audio, Video oder Computer – zu diesem Zweck zu ermitteln.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-0175-3_23 f47a102bbd0a139644c037eec7c58f48;de;;;7.2.;;;Ein neuer hardwareunterstützter PIR mit O( Seit Chor et al. das Konzept des Private Information Retrieval (PIR) erstmals formalisiert haben, wurden verschiedene Konstruktionen mit dem gemeinsamen Ziel der Reduzierung der Kommunikationskomplexität vorgeschlagen. Leider ist keiner von ihnen für praktische Einstellungen geeignet, hauptsächlich aufgrund der unerschwinglich hohen Kosten für Kommunikation oder Berechnungen. Der Boom des Internets und seiner Anwendungen, insbesondere der jüngste Trend zum Outsourcing von Datenbanken, treibt die Forschung zu praktischen PIR-Systemen an. In diesem Papier schlagen wir ein hardwareunterstütztes PIR-Schema mit einem neuartigen Shuffle-Algorithmus vor. Unsere PIR-Konstruktion beinhaltet O(;-;-;-;https://link.springer.com/article/10.1007/s10207-010-0105-2 6f8c961c095a97b77c06d817d24ee3ee;de;;;7.2.;;;Volltextsuchmaschine als skalierbares k-Nearest Neighbor Empfehlungssystem In diesem Beitrag stellen wir eine Methode vor, die es uns ermöglicht, eine generische Volltext-Engine als k-nächstnachbarbasiertes Empfehlungssystem zu verwenden. Experimente an zwei realen Datensätzen zeigen, dass die Genauigkeit der Empfehlungen, die von einem solchen System geliefert werden, mit bestehenden Verbreitungsaktivierungsempfehlungstechniken vergleichbar ist. Darüber hinaus behält unser Ansatz die lineare Skalierbarkeit relativ zur Datensatzgröße bei. Wir analysieren auch Skalierbarkeit und Qualitätseigenschaften unserer vorgeschlagenen Methode für verschiedene Parameter auf zwei Open-Source-Volltext-Engines (MySQL und SphinxSearch), die als Empfehlungsmaschinen-Backends verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15286-3_16 392ba6c1e5abe5bc021969f0378a357e;de;;;7.2.;;;Workshop Multimodales Retrieval im medizinischen Bereich (MRMD) 2015 Der Workshop Multimodal Retrieval in the Medical Domain (MRMD) befasste sich mit verschiedenen Ansätzen des Information Retrieval im medizinischen Bereich einschließlich Modalitäten wie Text, strukturierte Daten, semantische Informationen, Bilder und Videos. Ziel war es, Forscher der verschiedenen Domänen zusammenzubringen, um Ansätze zu kombinieren und Erfahrungen zu vergleichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16354-3_97 8a895b4829e602a5758ea677f5e079e4;de;;;7.2.;;;SIRIUS XML IR System auf der INEX 2006: Annähernde Übereinstimmung von Struktur und Textinhalten In diesem Beitrag berichten wir über den Retrieval-Ansatz, den das VALORIA-Labor der University of South-Bretagne bei der Teilnahme am INEX 2006 ad-hoc Track mit dem SIRIUS XML IR-System verfolgte. SIRIUS ruft relevante XML-Elemente ab, indem es sowohl den Inhalt als auch die Struktur der XML-Dokumente annähernd abgleicht. Ein gewichteter Bearbeitungsabstand auf XML-Pfade wird verwendet, um ungefähr der Dokumentenstruktur zu entsprechen, während die IDF der recherchierten Begriffe verwendet wird, um den Textinhalt der abgerufenen Elemente einzustufen. Wir beschreiben kurz den Ansatz und die Erweiterungen des SIRIUS XML IR-Systems, um jede der vier Teilaufgaben des INEX 2006 Ad-hoc-Tracks zu adressieren. Abschließend präsentieren und analysieren wir die Ergebnisse der SIRIUS Retrieval-Auswertung. SIRIUS Läufe wurden auf der 1;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73888-6_19 d412f26bda5d3906257b2e3519e15e40;de;;;7.2.;;;Über die zwei Faktoren, die den Erfolg von Informationssystemen im Kontext von Extremereignissen beeinflussen Diese Studie untersucht die Auswirkungen des wahrgenommenen Risikos und der organisatorischen Widerstandsfähigkeit auf den Erfolgsprozess von Informationssystemen im Kontext von Krankenhäusern. Das Forschungsmodell wurde mit den Daten getestet, die von drei der Krankenhäuser in der Region Western New York gesammelt wurden, die von einem schweren Schneesturm betroffen waren, der als Bundeskatastrophe bezeichnet wurde. Die Analyse und die Ergebnisse werden angezeigt. Theoretische und praktische Implikationen dieser Studie und zukünftige Forschungsrichtungen werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17449-0_18 2ff6cd69892c0e52001c0a1fc4ddda60;de;;;7.2.;;;Erweitern der probabilistischen Datenfusion mit Schiebefenstern Jüngste Entwicklungen auf dem Gebiet der Datenfusion haben sich auf Techniken konzentriert, die Trainingsabfragen verwenden, um die Wahrscheinlichkeit abzuschätzen, dass verschiedene Dokumente für eine bestimmte Abfrage relevant sind, und diese Informationen verwenden, um den Dokumenten, auf denen sie anschließend eine Rangfolge erhalten, Bewertungen zuzuweisen. Dieses Papier stellt SlideFuse vor, das auf diesen Techniken aufbaut und ein gleitendes Fenster einführt, um Situationen zu kompensieren, in denen nur wenige relevante Informationen zur Verfügung stehen, um die Wahrscheinlichkeit zu schätzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78646-7_33 6aad367ff4961218b6ecad1b0e0318e3;de;;;7.2.;;;Identifikation und Authentifizierung als Grundlage für den Informationsschutz in Computersystemen Es werden grundlegende Methoden zur Benutzerauthentifizierung und deren Funktionen beim Zugriff auf Computersysteme betrachtet. Dazu gehören Passwortschutz, Authentifizierungshardware und biometrische Authentifizierung sowie die Ermittlung der Identität von Zugriffssubjekten anhand ihrer Koordinaten. Moderne Wege der Informationsschutzforschung werden diskutiert.;-;-;-;https://link.springer.com/article/10.3103/S0147688212030021 edb89a3d9988239fd71f177e285fe579;de;;;7.2.;;;Ein neuer Passage-Ranking-Algorithmus für die Beantwortung von Videofragen Die Entwicklung eines Frage-Antwort-(Q/A)-Systems beinhaltet die Integration zahlreicher linguistischer Ressourcen wie syntaktische Parser, benannte Entitätserkenner, die nicht nur Zeitkosten verursachen, sondern auch in anderen Sprachen nicht verfügbar sind. Ranking-basierte Ansätze nutzen sowohl die Effizienz als auch die mehrsprachige Portabilität, aber die meisten von ihnen konzentrieren sich auf häufig vorkommende Wörter. In diesem Artikel schlagen wir einen neuen Passagen-Ranking-Algorithmus vor, um textQ/A in Richtung videoQ/A zu erweitern, basierend auf der Suche nach lexikalischen Informationen in Videos. Diese Methode braucht beides;-;-;-;https://link.springer.com/chapter/10.1007/11949534_56 ae1eaa66341a88e413704a0a5b78a256;de;;;7.1.;;;Ausrichtung und Reife sind Geschwister in der Architekturbewertung Aktuelle Architekturbewertungsmodelle konzentrieren sich entweder auf Architekturreife oder Architekturausrichtung und betrachten die andere als erklärende Untervariable. Basierend auf einer explorativen Studie vermuten wir, dass sowohl Ausrichtung als auch Reife gleichermaßen wichtige Variablen sind, um Architekturorganisationen richtig zu bewerten. Unsere Hypothese ist, dass sich diese Variablen konzeptionell unterscheiden, korrelieren, aber nicht erklären. In diesem Papier beschreiben wir unser mehrdimensionales Bewertungsmodell für Architekturausrichtung und Architekturreife (;-;-;-;https://link.springer.com/chapter/10.1007/11431855_25 5b54e5a270ecb653530fe6027d999fa7;de;;;7.1.;;;Omnidirektionale Zellplanung Die Lokalisierung und Konfiguration der Übertragungsinfrastruktur für drahtlose Mobilfunknetze ist eine komplexe technische Aufgabe mit konkurrierenden Zielen. Während die Anzahl der verwendeten Standorte minimiert wird, ist eine angemessene Flächenabdeckung erforderlich, zusätzlich zur Erfüllung von Einschränkungen hinsichtlich Kapazität und Interferenz.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-3762-2_2 f87d1f89a058426a47cb370e5004153c;de;;;7.1.;;;Von der funktionalen zur prozessorientierten Organisation In diesem Kapitel werden Entwicklungen von tayloristischen Arbeitsorganisationen hin zu prozessorientierten Strukturen vorgestellt, wie sie derzeit gefordert und erprobt werden. Das Ziel dieses Kapitels ist es, die Analyse und das Design von;-;-;-;https://link.springer.com/chapter/10.1007/3-540-49450-2_2 622c1995afcab1e5715362a700807af4;de;;;7.1.;;;Dezentrale Ressourcenzuteilungsplanung durch Verhandlung Dieses Papier stellt ein Multi-Agenten-Modell für die Ressourcenzuteilungsplanung in einer Fertigungsumgebung vor. Dieses Modell berücksichtigt die zeitlichen und synchronen Aspekte, die mit dem Zuteilungsprozess verbunden sind. Die Hauptbeiträge dieser Arbeit sind: (i) die Definition einer formalen Strategie für die Ressourcenallokation unterstützt durch ein Multi-Agenten-System, das in der Lage wäre, die Komplexität des Modells unter Berücksichtigung von Echtzeitereignissen zu reduzieren, die die Allokation potenziell beeinflussen könnten ii) die Definition einer hierarchischen Multi-Agenten-Architektur mit der Fähigkeit, diese Strategie zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35390-6_6 375de8afa7cd3bc1dd5e7449c820c6be;de;;;7.1.;;;Intellectual Capital Management in KMU und das Management organisatorischer Wissenskapazitäten: Eine empirische Analyse Wissensmanagement ist ein komplexes Konzept mit schwieriger Implementierung in den Organisationen und nur aus sozio-technischer Sicht zu verstehen, wo die menschliche Komponente eine Synergiebeziehung mit technologischen und kulturellen Elementen herstellt, die es ihm ermöglichen, ihre Fähigkeiten zu erweitern. Das vorgeschlagene Modell basiert auf einer Ursache-Wirkungsbeziehung, als Ergebnis des Einflusses von IT/IS-Präsenz, Organisationskultur und Humankapital im organisatorischen Wissensmanagement im Rahmen eines Reifegradmodells. Die Untersuchung wurde an einer Gruppe lateinamerikanischer KMU aus dem Industrie- und Fertigungssektor entwickelt, wobei ein Partial Least Squares (PLS)-Ansatz und k-Means-Clustering für statistische Analysen verwendet wurden. Die strukturelle Validität des Modells wurde verifiziert und die Zuverlässigkeitskonsistenz, Stabilität und Vorhersagefähigkeit wurden demonstriert. Die Analyse zeigt, dass lateinamerikanische KMU noch nicht das Gleichgewicht gefunden haben, das es ihnen ermöglicht, die installierte Technologie und die Kapazität ihrer Humanressourcen zur Nutzung ihres intellektuellen Kapitals effizient zu nutzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35879-1_14 64ad41e37ddfb690c5297a6bed25b047;de;;;7.1.;;;Erfolgreiches Kundenbeziehungsmanagement: Warum, ERP, Data Warehousing, Entscheidungsunterstützung und Metadaten wichtig sind Ein CRM-System ist nur so erfolgreich wie die Qualität der Daten und Datenmanagementprozesse, die es unterstützen. Unternehmen, die über das nächste Jahrtausend hinaus klug planen, denken über die Prozessautomatisierung hinaus und konzentrieren sich darauf, ihre Kunden besser kennenzulernen, um Einnahmen und Gewinne zu steigern. Die Aufrechterhaltung einer soliden Metadatenstrategie – sowie das Verständnis der Rollen von ERP-, Entscheidungsunterstützungs- und Data-Warehousing-Systemen – ist entscheidend, um dieses höhere Verständnis zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-84961-8_23 132b5c386f2ab35130a0613fc3d3b4a9;de;;;7.2.;;;Vergleich von Vektorraummodellmethoden, um speziesübergreifende neuroanatomische Konzepte in Einklang zu bringen Die Generierung von Informationsthesauri, die verschiedene und sehr detaillierte neurowissenschaftliche Informationen klassifizieren, querverweisen und abrufen, erfordert die Identifizierung verwandter neuroanatomischer Begriffe und Akronyme innerhalb und zwischen Arten (Gorin et al., 2001). und Bewertung eines neuroanatomischen Begriffs- und Akronymabgleichsystems (NTAR), um Domänenexperten bei dieser Aufgabe zu unterstützen. NTAR besteht aus zwei Modulen. Das Modul Neuroanatomical Term Extraction (NTE) verwendet ein Hidden-Markov-Modell (HMM) in Verbindung mit lexikalischen Regeln, um neuroanatomische Terme (NT) und Akronyme (NA) aus Textmaterial zu extrahieren. Die Ausgabe der NTE wird in Sammlungen von Begriffs- oder Akronym-indizierten Dokumenten formatiert, die aus Sätzen und Wortphrasen bestehen, die aus Textmaterial extrahiert wurden. Das zweite Informationswiedergewinnungs-(IR)-Modul verwendet ein Vektorraummodell (VSM) und umfasst einen neuartigen, automatisierten Relevanzrückkopplungsalgorithmus. Das IR-Modul ruft statistisch verwandte neuroanatomische Begriffe und Akronyme als Reaktion auf abgefragte neuroanatomische Begriffe und Akronyme ab. Der Abruf neuroanatomischer Begriffe und Akronyme, der aus begriffsbasierten Anfragen gewonnen wurde, wurde mit (1) dem Abruf von Begriffen, der durch Einschließen von automatisiertem Relevanz-Feedback erhalten wurde, und mit (2) dem Abruf von Begriffen durch „Dokument-zu-Dokument“-Vergleiche (kontextbasiertes VSM) verglichen. Der Abruf von synonymen und ähnlichen thalamischen Begriffen und Akronymen von Primaten und Makaken als Antwort auf eine Abfrageliste der menschlichen thalamischen Terminologie durch diese drei IR-Ansätze wurde mit einer zuvor veröffentlichten, manuell erstellten Konkordanztabelle homologer artenübergreifender Begriffe und Akronyme verglichen. Begriffsbasiertes VSM mit automatisiertem Relevanz-Feedback hat 70 % bzw. 80 % dieser in der Konkordanztabelle aufgeführten Primaten- und Makakenbegriffe bzw. Akronyme abgerufen. Der automatisierte Feedback-Algorithmus identifizierte 87% der Makaken-Begriffe und Akronyme, die von einem Domänenexperten unabhängig als geeignet für manuelles Relevanz-Feedback ausgewählt wurden, korrekt. Kontextbasiertes VSM hat 97% und 98% der Primaten- und Makakenbegriffe und Akronyme, die in der Begriffshomologietabelle aufgeführt sind, korrekt wiedergefunden. Diese Ergebnisse deuten darauf hin, dass das NTAR-System Neurowissenschaftler bei der Thesauri-Erstellung für eng verwandte, hochdetaillierte neuroanatomische Domänen unterstützen könnte.;-;-;-;https://link.springer.com/article/10.1385/NI%3A3%3A2%3A115 7a2ec1ac12f841b8c9e369069c273b87;de;;;7.2.;;;Optimierung von Benutzerprofilen basierend auf der Analyse dynamischer Präferenzen in Dokumentenabrufsystemen Die Modellierung der Präferenzen und Bedürfnisse von Benutzern ist eine der wichtigsten Personalisierungsaufgaben im Bereich der Informationsbeschaffung. In diesem Beitrag wird ein Modell zur Optimierung von Benutzerprofilen in Dokumenten-Retrieval-Systemen betrachtet. Verfahren zum Abstimmen des Benutzerprofils basierend auf der Analyse der Dynamik der Benutzerpräferenzen werden experimentell bewertet, um zu überprüfen, ob das erstellte Benutzerprofil mit wachsender Geschichte der Benutzeraktivität seinen Präferenzen entsprechen kann. Wie die statistische Analyse von Simulationsreihen gezeigt hat, sind vorgeschlagene Verfahren zur Aktualisierung von Benutzerprofilen in dem Sinne effektiv, dass der Abstand zwischen Benutzerpräferenzen und seinem Profil mit der Zeit immer kleiner wird.;-;-;-;https://link.springer.com/article/10.1007/s11042-012-1145-6 513956d7d16ede0ad7c08a2b03b5eea3;de;;;7.1.;;;Integrierte groß angelegte Umweltinformationssysteme: Ein kurzer Überblick Die Installation und der Betrieb von Instrumenten-/Sensornetzwerken haben große Bedeutung bei der Überwachung der physischen Umgebung von lokaler bis globaler Ebene. Heutzutage umfassen solche Netzwerke wichtige Teile integrierter Informationssysteme, die als Umweltinformationssysteme (EIS) bezeichnet werden. Solche Systeme bieten Echtzeitüberwachung, Vorhersagen und interessante Schlussfolgerungen aus den gesammelten Datensätzen, die in riesigen Datenbanken gespeichert sind. Diese Systeme werden als Hauptdatenquelle für die Modellparametrisierung und als Verifikationswerkzeuge für Genauigkeitsbewertungstechniken verwendet. Dieses Papier umfasst eine kurze Übersicht, die darauf abzielt, die bedeutende Rolle bestehender Umweltinformationssysteme (ELIS) ​​hervorzuheben, die aus Instrumenten-/Sensornetzwerken bestehen, die für die groß angelegte Überwachung von Umweltproblemen in Bezug auf die atmosphärische und marine Umwelt verwendet werden. Die Funktionsprinzipien dieser Systeme, ihre Nützlichkeit, Einschränkungen und ihre Perspektiven in den Umweltwissenschaften werden untersucht und beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40543-3_18 3b1413489a44b08228ff7fe487b3081b;de;;;7.1.;;;Training effektiver menschlicher Leistung im Umgang mit stressigen Notfällen Notfallsituationen in der Industrie treten plötzlich und oft unerwartet auf, Bediener müssen unter Stress kritische Entscheidungen treffen und die Folgen von Fehlern können unmittelbar und katastrophal sein. Das Training effektiver Leistung unter Stress wird zu einem wichtigen Aspekt im Notfallmanagement. Dieser Artikel schlägt eine Taxonomie kognitiver Strategien vor, die es den Bedienern ermöglicht, ihr Denken zu regulieren und Entscheidungen an veränderte Anforderungen der Situation anzupassen. Kognitive Strategien wie Ungewissheit tolerieren, Arbeitsbelastung bewältigen, Notfallplanung und Selbstüberwachung bilden den Inhalt des Trainings zur Notfallreaktion. Stress behindert jedoch das Erlernen von Strategien, was eine Herausforderung für die Gestaltung von Trainingsmethoden darstellt. Stress während des Trainings, Grad der Aufgabenzerlegung, Anleitung, kontextuelle Vielfalt und Feedback sind einige der Trainingsmethoden, die untersucht werden, um den Erwerb und die Übertragung kognitiver Strategien zu erleichtern. Abweichungen vom traditionellen systemischen Ausbildungsansatz werden aufgezeigt und Bereiche für die Weiterbildungsforschung aufgezeigt.;-;-;-;https://link.springer.com/article/10.1007/s101110050007 49b569efc939977a75f72c940f34b2b2;de;;;7.2.;;;Skaleneffekt und Methoden zur Genauigkeitsbewertung von Attributinformationsverlusten bei der Rasterung Die Rasterung ist ein Konvertierungsprozess, der mit Informationsverlust einhergeht, einschließlich des Verlusts von Form, Struktur, Position, Attribut usw. von Features. Zwei Hauptfaktoren, die die Schätzung des Attributgenauigkeitsverlusts bei der Rasterung beeinflussen, sind die Gitterzellengröße und das Bewertungsverfahren. Das heißt, der Attributgenauigkeitsverlust bei der Rasterung hat eine enge Beziehung zur Gitterzellengröße, außerdem wird er auch durch Bewertungsverfahren beeinflusst. Daher ist es wichtig, diese beiden Einflussfaktoren umfassend zu analysieren. Nimmt man Bodenbedeckungsdaten von Sichuan im Maßstab 1:250.000 im Jahr 2005, wählt diese Studie angesichts des Datenvolumens und der Verarbeitungszeit der Untersuchungsregion 16 Raumskalen von 600 m bis 30 km aus über die Regel der maximalen Fläche (RMA) in ArcGIS und zwei Bewertungsmethoden für den Verlust der Attributgenauigkeit, nämlich die Normalanalysemethode (NAM) bzw. es ist hier Bereich) Genauigkeitsverlust bei 16 verschiedenen Skalen durch diese beiden Bewertungsmethoden vergleichend. Die Ergebnisse zeigen, dass: (1) Bei derselben Skala ist der durchschnittliche Flächengenauigkeitsverlust der gesamten von MBGC bewerteten Studienregion signifikant größer als der mit NAM geschätzte. Darüber hinaus ist diese Diskrepanz zwischen den beiden im Bereich von 1 km bis 10 km offensichtlich. Wenn die Gitterzelle größer als 10 km ist, sind die durch die beiden Bewertungsmethoden berechneten mittleren Flächengenauigkeitsverluste stabil, sogar tendenziell parallel. (2) MBGC kann nicht nur den Genauigkeitsverlust der RMA-Rasterisierungsattribute genau schätzen, sondern kann auch die räumliche Verteilung des Verlusts objektiv ausdrücken. (3) Der geeignete Maßstabsbereich für die RMA-Rasterisierung von Landbedeckungsdaten von Sichuan im Maßstab 1:250.000 im Jahr 2005 ist besser gleich oder kleiner als 800 m, in dem das Datenvolumen günstig ist und die Verarbeitungszeit nicht zu lang ist , sowie der Flächengenauigkeitsverlust weniger als 2,5% beträgt.;-;-;-;https://link.springer.com/article/10.1007/s11442-011-0902-1 e5235bf5a451ad3d1e72a8b598570612;de;;;7.2.;;;Passagenextraktion in geografischen Dokumenten In diesem Beitrag wird ein Projekt vorgestellt, dessen Ziel es ist, Informationen in geografischen Dokumenten zu finden. Sie beruht auf der generischen Struktur geographischer Informationen, die einige Phänomene (zB soziologischer oder wirtschaftlicher Natur) mit räumlichen und zeitlichen Lokalisationen in Verbindung bringt. Das System umfasst semantische Analysatoren für räumliche und zeitliche Ausdrücke, einen Termextraktor (für Phänomene) und ein Diskursanalysemodul, das die drei Komponenten insgesamt verbindet und sich hauptsächlich auf das Modell der Diskursuniversen von Charolles stützt. Dokumente werden offline verarbeitet und die Ergebnisse dank eines XML-Markups gespeichert, das für Abfragen bereit ist, die die drei Komponenten geografischer Informationen kombinieren. Als Antworten werden Ranglisten von dynamisch begrenzten Passagen zurückgegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36562-4_13 ec5ae1b4d21cddcf130b1d49b286587c;de;;;7.1.;;;Verbreitung und Einführung von IT-Produkten und -Prozessen in einer dänischen Bank In diesem Papier geht es um erfolgreiche Verbreitungs- und Adoptionsbemühungen, die 1998 gestartet wurden und über mehr als zwei Jahre andauerten. Die Bemühungen fanden in der IT-Organisation einer dänischen Großbank statt. Als Teil der Bemühungen wurde ein Diffusions-Framework entwickelt, das von IT-Projekten verwendet werden soll. Dieser Rahmen wurde in mehr als 30 Projekten verwendet, um die Veränderungen einer erfolgreichen Verbreitung der in den Projekten entwickelten Produkte zu verbessern. Und es hat funktioniert. Interviewdaten von Mai und Juni 2000, die Projekte bis zu einem Jahr nach der Nutzung des Frameworks befragten, zeigen eine hohe Zufriedenheit und erfolgreiche Produktverbreitung.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35404-0_3 de1144ba20d0cce3d3bd9dc8e0f5d1b5;de;;;7.2.;;;LDA-basierte Word-Bilddarstellung zum Auffinden von Schlüsselwörtern in historischen mongolischen Dokumenten Der ursprüngliche Ansatz von Bag-of-Visual-Words verwirft die räumlichen Beziehungen der visuellen Wörter. In diesem Beitrag wird ein LDA-basiertes Themenmodell verwendet, um die semantischen Beziehungen visueller Wörter für jedes Wortbild zu erhalten. Denn das LDA-basierte Themenmodell beeinträchtigt in der Regel die Abrufleistung, wenn es sich direkt selbst einsetzt. Daher wird das LDA-basierte Themenmodell in dieser Studie für jedes Wortbild linear mit einem visuellen Sprachmodell kombiniert. Danach wird das grundlegende Abfragewahrscheinlichkeitsmodell zum Realisieren des Abrufverfahrens verwendet. Die experimentellen Ergebnisse unseres Datensatzes zeigen, dass der vorgeschlagene LDA-basierte Darstellungsansatz das Ziel der Schlüsselwortsuche in einer Sammlung historischer mongolischer Dokumente effizient und genau erreichen kann. Inzwischen verbessert der vorgeschlagene Ansatz die Leistung erheblich als der ursprüngliche BoVW-Ansatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-46681-1_52 ff807fae2a64177d607fd6c4e1b00180;de;;;7.2.;;;Die Herausforderung, ethisches Bewusstsein zu schärfen: Ein fallbasiertes Hilfesystem für Computer- und IKT-Studenten Studenten, die künftigen Fachkräfte der Informations- und Kommunikationstechnologie (IKT) sind, wird oft als wenig Verständnis für die ethischen Fragen im Zusammenhang mit der Nutzung von IKT wahrgenommen. Es besteht eine wachsende Erkenntnis, dass die Schüler auf die moralischen Fragen im Zusammenhang mit der Nutzung der neuen Technologien aufmerksam gemacht werden sollten. Darüber hinaus sollten sie ermutigt werden, die sozialen und rechtlichen Folgen des Einsatzes von IKT zu erforschen und eingehender darüber nachzudenken.;-;-;-;https://link.springer.com/article/10.1007/s11948-005-0047-7 bd41241cacb820f3ace72ff602ca38d7;de;;;7.2.;;;Eine illustrierte Methodik zur Bewertung von ASR-Systemen Automatische Spracherkennungstechnologie kann in einen Informationsabrufprozess integriert werden, um die Suche nach Multimediainhalten zu ermöglichen. Um jedoch eine angemessene Wiedergewinnungsleistung sicherzustellen, ist es notwendig, die Qualität der Erkennungsphase anzugeben, insbesondere in sprecherunabhängigen und domänenunabhängigen Umgebungen. Dieses Papier stellt eine Methodik vor, um die Bewertung verschiedener Spracherkennungssysteme in mehreren Szenarien durchzuführen, wobei auch die Erstellung neuer Korpora unterschiedlicher Art (Rundfunknachrichten, Interviews usw.) Sprachgemeinschaft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37425-8_3 24b77eaac1b5a09dccabb189603bcb5d;de;;;7.1.;;;Energieeffiziente Produktionsplanung Die Einführung von Energieeffizienz als neues Ziel in bereits komplexe Produktionspläne ist eine schwierige Herausforderung. Entscheidungsunterstützungssysteme können bei diesem Problem helfen, aber diese Systeme werden oft von Endbenutzern abgelehnt, die letztendlich die Verantwortung für die Produktionsergebnisse tragen. Dieses Papier beschreibt das Design eines Entscheidungsunterstützungstools, das darauf abzielt, die Interpretierbarkeit von Entscheidungsunterstützungsergebnissen zu erhöhen. Das Konzept der „Grey-Box“-Optimierung wird eingeführt, bei der Aspekte der Optimierungs-Engine dem Endbenutzer mitgeteilt und von diesem konfiguriert werden. Ein multi-objektiver Optimierungsalgorithmus wird mit einer interaktiven Visualisierung kombiniert, um die Systembeobachtbarkeit zu verbessern und das Vertrauen zu erhöhen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40352-1_12 f9593e43ce6fbade714550ea3489140b;de;;;7.1.;;;Die Herausforderung des heutigen Geschäftsumfelds (SCM) ist eine Antwort auf die überwältigende Geschwindigkeit der Veränderungen, die das heutige Geschäftsumfeld prägen. Wandel und die Beschleunigung des Wandels auf globaler Ebene sind zu den wichtigsten Themen der späten 1990er Jahre geworden, und seine Umgangssprache dominiert die heutige Managementliteratur. SCM basiert auf einer Philosophie des Managements von Veränderungen und der Auswirkungen von Veränderungen auf das Gefüge der Topographie von Geschäfts-, Unternehmens- und Lieferkanalkulturen und -strukturen und darauf, wie die Informationstechnologie die Konturen des Marktumfelds von morgen ständig neu gestaltet. In der Vergangenheit waren Beschaffung und Marktvertrieb als rein operative Funktionen konzipiert. Eine Logistikbehörde definierte Ende der 1960er Jahre den Lieferkanal prägnant als „Warentransport zu den geringsten Kosten“ und detaillierte Kanalziele als Minimierung von Lagerbeständen, Festigung der Kundenbeziehungen, Erhöhung der Lieferrabatte, Verbesserung der Marktabdeckung, Freistellung von Marketingmitarbeitern, um Nachfrage zu schaffen. und Reduzierung der Lagerbestände sowie der Fracht- und Lagerkosten [1].;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-4816-1_2 c7dd653d98c5a30f38cf5f83ef71cfb9;de;;;7.2.;;;Maße der semantischen Ähnlichkeit von Knoten in einem sozialen Netzwerk Die Bewertung der Ähnlichkeit zwischen Knotenprofilen in einem sozialen Netzwerk ist ein wichtiges Instrument bei seiner Analyse. Es gibt mehrere Ansätze, um Profilähnlichkeiten zu untersuchen, einschließlich semantischer Ansätze und natürlicher Sprachverarbeitung. Bis heute gibt es jedoch keine Forschung, die diese Aspekte zu einem einheitlichen Maß für die Profilähnlichkeit kombiniert. Traditionell wird semantische Ähnlichkeit anhand von Schlüsselwörtern, d. h. formatierten Textinformationen, ohne Verarbeitungskomponente natürlicher Sprache bewertet. Diese Studie schlägt einen alternativen Ansatz vor, bei dem die auf Schlüsselwörtern basierende Ähnlichkeitsbewertung auf die Ausgabe der natürlichen Sprachverarbeitung von Profilen angewendet wird. EIN;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08855-6_9 2fa33b5245a6af7820f2c794e5771d48;de;;;7.2.;;;Eine leistungsstarke Datenstruktur für mobile Informationssysteme Mobile Informationssysteme können nun auf Small-Form-Factor-Computern bereitgestellt werden. Die wörterbuchbasierte Datenkomprimierung erweitert die Fähigkeiten von Systemen mit begrenzter Verarbeitungs- und Speicherkapazität, sodass datenintensive Anwendungen in solchen Umgebungen unterstützt werden können. Die Art gerichtlicher Urteilsentscheidungen erfordert, dass ein Unterstützungssystem genaue und aktuelle Daten liefert und mit der beruflichen Erfahrung eines Richters kompatibel ist. Den Schwierigkeiten durch Mobilität und der Datenabhängigkeit des Entscheidungsprozesses wird durch eine internetbasierte Architektur zur Erfassung und Verteilung von Systemdaten begegnet. Wir beschreiben einen Ansatz zur wörterbuchbasierten Datenkomprimierung und den Aufbau eines Informationssystems, das diese Technologie nutzt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-47961-9_28 63c1f271374025801b5d1dc027eb0ef7;de;;;7.2.;;;Die Teilereduktionen in Informationssystemen In diesem Beitrag wird die Definition der Teilereduktion in Informationssystemen vorgeschlagen, um die minimale Beschreibung einer definierbaren Menge durch Attribute des gegebenen Informationssystems zu beschreiben. Die Teilreduktion kann eine optimalere Beschreibung einer einzelnen Entscheidungsklasse darstellen als die bestehenden Reduktionen und relativen Reduktionen. Es ist bewiesen, dass der Reduktionskern oder die relative Reduktion als Vereinigung der Kerne von Teilreduktionen ausgedrückt werden kann. So wird ein tiefer Einblick in die klassischen Kürzungen und relativen Kürzungen von Informationssystemen gegeben, so dass ein einheitlicher Rahmen der Kürzungen von Informationssystemen aufgestellt werden kann. Die Methode der Erkennbarkeitsmatrix zur Berechnung von Reduktionen wird auch verallgemeinert, um die Teilereduktionen in Informationssystemen zu berechnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-25929-9_57 fec65ef5796ebea5cc7a3277ca42ac93;de;;;7.2.;;;Einige wirksame Verfahren für Datenabhängigkeiten in Informationssystemen Datenabhängigkeiten sind nützliche Informationen zum Erwerb von Wissen aus Tabellen. In diesem Beitrag werden einige wirksame Verfahren für Datenabhängigkeiten in Informationssystemen vorgestellt. Zunächst werden Abhängigkeiten in deterministischen Informationssystemen untersucht und drei Verfahren diskutiert. Zwei Verfahren davon verwenden Äquivalenzrelationen, die in jedem deterministischen Informationssystem definierbar sind, und eines davon ist effektiver, um verschiedene Arten von Abhängigkeiten zu überprüfen. Dann werden Abhängigkeiten in nicht-deterministischen Informationssystemen fokussiert und vorgeschlagen. Durch die Verwendung bisheriger Verfahren wird ein neues Verfahren in nichtdeterministischen Informationssystemen realisiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36473-3_16 24a95edd0c61e03f4aa5b9105fe3615f;de;;;7.1.;;;Auf dem Weg zu einer proaktiven Interoperabilitätslösung in Informationssystemen: Eine PLM-Perspektive PLM ist ein Ansatz, der darauf abzielt, ein Produkt während seines gesamten Lebenszyklus zu verwalten. Heute gibt es für jede Phase des Produktlebenszyklus leistungsstarke und gut angepasste Werkzeuge wie CAD (Computer Aided Design), SDM (Simulation Data Management), Enterprise Resource Planning (ERP) etc. Jedoch deren vollständige Integration und insbesondere die Verknüpfung von einer Phase zur anderen sind noch nicht voll funktionsfähig und wirksam. Um das PLM-Ziel zu erreichen, ist es notwendig, die Interoperabilität zwischen den von den Geschäftsanwendungen unterstützten Informationssystemen (IS) während des gesamten Produktlebenszyklus zu gewährleisten. Außerdem können sich im erweiterten Unternehmen von einem Projekt zum anderen die für den Produktentwicklungsprozess verwendeten Anwendungen ändern, da sich auch Geschäftspartner ändern können. Eine Interoperabilitätslösung sollte unter Berücksichtigung der sich möglicherweise ändernden Kontexte der Unternehmenskooperation entwickelt werden. Eine mögliche Lösung besteht darin, die Interoperabilitätslösung der PLM-Systeme zu entwerfen, indem die Prinzipien des System of Systems (SoS)-Konzepts übernommen werden. Diese Arbeit schlägt ein System von PLM-Systemen vor, das auf Multi-Agenten-Systemen basiert, um die Interoperabilität sowie Fragen der Wissenskapitalisierung zu behandeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-72905-3_51 9eb029086fd14f13ccf50ac518940b42;de;;;7.1.;;;Ein verteiltes Auftragsversprechens- und Planungssystem für das virtuelle Unternehmen Dieses Papier beschreibt ein «Order Promise»-System zur Entscheidungsunterstützung in den Planungsprozessen virtueller Unternehmen, das als Netzwerk verschiedener Einheiten, nämlich Werken, Logistikzentren und Lagern, betrachtet wird. Das System zielt darauf ab, die Fälligkeitsberechnung für Kunden zu verbessern, und soll ein Planungstool für mehrere Standorte sein, um lokale Aktivitäten im gesamten Virtual Enterprise-Netzwerk zu koordinieren. Es basiert auf der Verwendung aggregierter Informationen und auf einer Reihe lokaler grober Kapazitätsmodelle. Diese Arbeit ist Teil eines breiter angelegten Projekts mit besonderem Fokus auf die Mikroelektronikindustrie. Unternehmen dieser Branche sind ein gutes Beispiel für Virtual Enterprises, bei denen eine schnelle Reaktion auf Kundenbedürfnisse und auf unvorhersehbare Änderungen der Produktionsbedingungen als wesentlicher Erfolgsfaktor gilt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35351-7_6 44c8e324a87a026daef5a63e40fb4463;de;;;7.2.;;;Zur Generierung von Spam-Abfragen zum Abrufen von Spam-Konten in großen Twitter-Daten Twitter hat sich als führende Microblogging-Site zu einer wertvollen Quelle für aktuelle und Echtzeitinformationen für eine Vielzahl von sozialbasierten Forschungen und Anwendungen entwickelt. Intuitiv ist der Hauptfaktor für eine akzeptable Leistung in diesen Forschungen und Anwendungen das Arbeiten und das Vertrauen auf Informationen von angemessener Qualität. Angesichts der schmerzlichen Wahrheit hat sich Twitter jedoch als fruchtbares Umfeld für die Veröffentlichung von verrauschten Informationen in verschiedenen Formen herausgestellt. Folglich ist die Aufrechterhaltung einer hohen Qualität eine ernsthafte Herausforderung, die von den Administratoren und Forschern von Twitter große Anstrengungen erfordert, um die Probleme mit der Informationsqualität anzugehen. Social Spam ist eine verbreitete Art der lauten Informationen, die von böswilligen Benutzern, sogenannten Social Spammern, erstellt und verbreitet werden. Genauer gesagt missbrauchen sie alle möglichen Dienste von Twitter, um ihre Spam-Inhalte zu verbreiten, was zu einer großen Informationsverschmutzung im Twitter-Netzwerk führt. Da der Anti-Spam-Mechanismus von Twitter nicht sowohl effektiv als auch immun gegen das Spam-Problem ist, wurden enorme Forschungsarbeiten unternommen, um Methoden zu entwickeln, die Spam-Accounts und Tweets erkennen und herausfiltern. Diese Methoden sind jedoch beim Umgang mit großen Twitter-Daten nicht skalierbar. In der Tat ist die Notwendigkeit zusätzlicher Informationen von den Twitter-Servern, die auf einige wenige Anfragen pro 15-Minuten-Zeitfenster beschränkt ist, als obligatorischer Schritt das Haupthindernis dafür, diese Methoden zu effektiv zu machen, da die Verarbeitung großer Twitter-Daten Monate dauert . Anstatt jeden Account, der in einem gegebenen großen Twitter-Datenbestand existiert, sequentiell oder zufällig zu untersuchen, untersuchen wir in diesem Artikel die Anwendbarkeit des Information Retrieval (IR)-Konzepts, um eine Untergruppe von Accounts mit hoher Spam-Wahrscheinlichkeit abzurufen Einsen. Insbesondere stellen wir ein Design einer unbeaufsichtigten Methode vor, die eine große Anzahl von Tweets teilweise verarbeitet, um Spam-Anfragen in Bezug auf die Attribute des Kontos zu generieren. Dann werden die Spam-Abfragen ausgegeben, um die hochpotenten Spam-Konten, die in den gegebenen großen Twitter-Konten vorhanden sind, abzurufen und einzustufen. Unsere experimentelle Auswertung zeigt die Effizienz der Generierung von Spam-Abfragen aus verschiedenen Attributen zum Abrufen von Spam-Konten in Bezug auf Präzision, Erinnerung und normalisierte diskontierte kumulative Gewinne auf verschiedenen Rängen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-93375-7_18 32a3e05dd058b0416029b522ec2920b3;de;;;7.1.;;;Analyse mobiler Geschäftsprozesse zur Gestaltung mobiler Informationssysteme Die Einführung mobiler Technologien in Unternehmen folgt häufig einem technologiegetriebenen Ansatz ohne genaue Kenntnisse über die möglichen Vorteile, die realisiert werden können. Gerade in größeren Organisationen mit komplexen Geschäftsprozessen ist ein systematisches Vorgehen erforderlich, wenn durch den Einsatz mobiler Technologien ein nachweisbarer wirtschaftlicher Nutzen geschaffen werden soll. Daher werden in diesem Papier der Begriff „mobiler Geschäftsprozess“ sowie Anforderungen an Informationssysteme, die in solchen Prozessen eingesetzt werden, definiert. Anschließend stellen wir ein Verfahren zur systematischen Analyse der verteilten Struktur eines Geschäftsprozessmodells vor, um mobile Teilprozesse zu identifizieren. Dazu wird die Methode Mobile Process Landscaping verwendet, um ein Prozessmodell in verschiedene Detaillierungsebenen zu zerlegen. Die Methode zielt darauf ab, die Komplexität zu beherrschen und die Prozessanalyse von Anfang an auf die potenziell mobilen Teilprozesse zu beschränken. Das Ergebnis der Analyse kann einerseits als Grundlage für die Neugestaltung der Geschäftsprozesse und andererseits für das Requirements Engineering mobiler Informationssysteme verwendet werden. Eine Anwendung dieser Methode wird am Beispiel von Geschäftsprozessen in der Versicherungswirtschaft gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30077-9_24 428f780ba13dd6eb52888a03692b5ce6;de;;;7.1.;;;Agentenfähigkeiten und ihre Rollen im Bereich Mobile Computing und persönliche Kommunikation Im Kontext der Entstehung eines globalen Dienstleistungsmarktes, der den allgegenwärtigen Zugang zu Informations- und Kommunikationsdiensten ermöglicht, stößt das neue Paradigma der mobilen intelligenten Agenten in der gesamten Forschungsgemeinschaft sowie in der Informations- und Telekommunikationsindustrie auf großes Interesse. Nach einer kurzen Darstellung der Entwicklung des Agentenparadigmas und der grundlegenden Terminologie analysiert dieser Beitrag verschiedene Anwendungsfelder dieser vielversprechenden Technologie. Zu den untersuchten Anwendungsgebieten zählen elektronische Märkte, virtuelle Unternehmen, flexible Informationssysteme sowie der Bereich der mobilen und persönlichen Kommunikation. Die Analyse führt zur Identifizierung einer Reihe von Rollen, die Agenten einnehmen können. Die Fähigkeiten, die ein Agent im Zuge der Erfüllung seiner Rolle zeigt, können als Grade der Agentenintelligenz, Mobilität, Kommunikationsfähigkeit, Autonomie und Kooperationsfähigkeit, d. h. der Fähigkeiten des Agenten, ausgedrückt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34980-0_20 bb5e38282299a95cb222e0fdcf7373ac;de;;;7.1.;;;Web-Augmentation, Design Thinking und Collaboration Engineering zur Innovationsförderung im DSS für die Landwirtschaft: Eine Fallstudie Die Entscheidungsfindung in der Landwirtschaft beruht zunehmend auf Software, um beispielsweise wichtige Informationen zu sammeln oder Alternativen zu gewichten. Die Innovation von Informationssystemen in der Landwirtschaft ist ein herausfordernder und sehr aktiver Bereich. Bestehenden Softwareprodukten, die häufig als Webanwendungen implementiert werden, fehlt es an Funktionalität, beispielsweise zur Unterstützung der Zusammenarbeit. Die Erweiterung des Webs ist eine weit verbreitete Technik, um bestehende Anwendungen mit neuen Funktionen zu erweitern, die nicht von der Stange verfügbar sind. Design Thinking hat sich in vielen Bereichen als wirksames Instrument zur Unterstützung von Innovationen erwiesen. Collaboration Engineering ist ein effektives Mittel, um die Designerfahrung von Collaboration-Strategien wiederzuverwenden. Diese Arbeit präsentiert einen Ansatz, um Endbenutzer in die Verbesserung bestehender Web-Software einzubeziehen, um inkrementelle Innovationen zu produzieren. Der Ansatz basiert auf Design Thinking, Web Augmentation und Collaboration Engineering. Der Ansatz wurde in einer Fallstudie erfolgreich erprobt, in der Endbenutzer einem System, das dies nicht bot, Kollaborationsunterstützung hinzufügen konnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-51047-3_1 18c0d8b741176ba35593c18daed5b476;de;;;7.1.;;;Key Performance Indicators für die Integration von Instandhaltungsmanagement und Fertigungsplanung und -steuerung Basierend auf aktuellen Forschungs- und Industrieerfahrungen stellt sich die Herausforderung bei „Silos“ heraus, bei denen ein Asset mit mehreren Disziplinen eine schlechte Zusammenarbeit aufweist und zu einem suboptimierten Ergebnis in der Produktion führt. Ein strukturierter Ansatz zur Bewältigung dieser Situation ist das Konzept der Integrierten Planung (IPL). Der Zweck dieses Artikels besteht darin, durch eine Literaturstudie relevante KPIs innerhalb der beiden Disziplinen Manufacturing, Planning & Control (MP&C) und Maintenance Management zu identifizieren. Als Ergebnis wird die Overall Equipment Effectiveness (OEE) in beiden Disziplinen verwendet und die Durchlaufzeit ist ein wesentlicher KPI in MP&C. Schließlich wird in diesem Artikel eine KPI-Struktur entwickelt, die MP&C und Maintenance Management integriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22756-6_9 0faf81b99269bd4bc8e75aebfa95b75f;de;;;7.1.;;;Ein Simulationsmodell für die strategische Planung im Asset Management von Stromverteilungsnetzen Das Asset Management des Stromverteilungsnetzes ist erforderlich, um die Netzzuverlässigkeit zu verbessern, um die Verluste bei der Stromverteilung zu reduzieren. Da strategisches Asset Management langfristige Vorhersagen erfordert, wäre ein Simulationsmodell erforderlich. Die Simulation des Asset Managements ist ein Ansatz, um die Auswirkungen einer langfristigen Finanzierung auf Wartungs- und Erneuerungsstrategien in elektrischen Energieverteilungsnetzen vorherzusagen. In dieser Forschung wird als Simulationsmethode System Dynamics verwendet, basierend auf der Überlegung, dass diese Methode uns ermöglicht, interne und externe Einflussfaktoren zu berücksichtigen. Um die Modellparameter zu erhalten, haben wir PLN Pamekasan für die Fallstudie verwendet. Die Ergebnisse zeigten, dass der Zustand des Niederspannungsnetzes im Durchschnitt um 6 % pro Jahr sinkt, der durchschnittliche Rückgang des Transformatorzustands etwa 6,6 % pro Jahr beträgt und der durchschnittliche Rückgang des Zustands des Mittelspannungsnetzvermögens etwa 4,4 % pro Jahr. Im Allgemeinen betragen die durchschnittlichen technischen Verluste durchschnittlich 1.359.981,60 KWH / Monat oder etwa 16.319.779,24 KWH / Jahr.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46742-8_44 dbd309e4b8196e369415668cd217bcd4;de;;;7.1.;;;Organisatorische Kybernetik Die Kybernetik als anerkannte Studienrichtung besitzt eine ebenso lange Geschichte wie die verschiedenen methodischen Ansätze (Operational Research [OR], Systemanalyse, Systems Engineering), die hartes Systemdenken ausmachen. Es war 1948, als Wieners Buch;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-2632-6_5 1aaffe05506d2d10c7abe03c59a8e41e;de;;;7.1.;;;Ereignisüberwachungssystem zur Klassifizierung unerwarteter Ereignisse für die Produktionsplanung Die Produktionsplanung bereitet Unternehmen auf ein zukünftiges Produktionsszenario vor. Der Entscheidungsprozess zur Erstellung des Produktionsplans berücksichtigt reale Daten und geschätzte Daten dieses Zukunftsszenarios. Diese Pläne können jedoch durch unerwartete Ereignisse beeinflusst werden, die das geplante Szenario und damit die Produktionsplanung verändern. Dies ist besonders kritisch, wenn die Produktionsplanung im Gange ist. Daher kann die Bereitstellung von Informationen über diese Ereignisse entscheidend sein, um die Produktionsplanung zu überdenken. Wir schlagen hier ein Ereignisüberwachungssystem vor, um Ereignisse zu identifizieren und sie in verschiedene Auswirkungsstufen zu klassifizieren. Die aus diesem System gewonnenen Informationen helfen beim Aufbau einer Risikomatrix, die aus der Auswirkungshöhe und der Wahrscheinlichkeit die Bedeutung des Risikos bestimmt. Nach diesem Vorschlag wurde ein Prototyp gebaut.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-62386-3_7 d167ffc38cb165112e48818a6cae50df;de;;;7.1.;;;Beliebte Routenplanung mit Reisekostenschätzung aus Trajektorien Mit der steigenden Zahl von GPS-ausgerüsteten Fahrzeugen werden kontinuierlich immer mehr Trajektorien generiert, auf deren Basis einige urbane Anwendungen, wie beispielsweise die Routenplanung, realisierbar werden. Im Allgemeinen ist eine beliebte Route, die häufig befahren wurde, eine gute Wahl, insbesondere für Personen, die mit den Straßennetzen nicht vertraut sind. Darüber hinaus wird eine genaue Schätzung der Reisekosten (wie Reisezeit, Reisegebühr und Kraftstoffverbrauch) einem gut geplanten Reiseplan zugute kommen. In diesem Artikel gehen wir dieses Problem an, indem wir die beliebte Route mit Reisekostenschätzung finden. Zu diesem Zweck konzipieren wir ein System, das aus drei Hauptkomponenten besteht. Zuerst schlagen wir eine neuartige Struktur vor, die als populärer Traversengraph bezeichnet wird, bei der jeder Knoten ein beliebter Ort und jede Kante eine beliebte Route zwischen Orten ist, um historische Trajektorien ohne Straßennetzinformationen zusammenzufassen. Zweitens schlagen wir eine selbstanpassende Methode vor, um die Reisekosten auf jeder beliebten Route in unterschiedlichen Zeitintervallen zu modellieren, sodass jedes Zeitintervall stabile Reisekosten hat. Basierend auf der Grafik entwickeln wir schließlich, wenn eine Abfrage aus Quelle, Ziel und Abfahrtszeit besteht, einen effizienten Routenplanungsalgorithmus, der die optimale Routenverkettung berücksichtigt, um die beliebte Route von der Quelle zum Ziel zur Abfahrtszeit mit genauer Reisekostenschätzung zu suchen. Darüber hinaus führen wir umfangreiche Experimente durch und implementieren unser System durch eine mobile App, die Ergebnisse zeigen, dass unsere Methode sowohl effektiv als auch effizient ist.;-;-;-;https://link.springer.com/article/10.1007/s11704-018-7249-z 5e10d2557604baa036c191ca79965135;de;;;7.1.;;;Eine Datenmanagementstrategie zur Kontrolle von Konstruktions- und Fertigungsinformationen Dieses Papier präsentiert einen informationsbasierten Ansatz zur Integration der parallelen und seriellen Funktionen, die in einer typischen Konstruktions- und Fertigungsumgebung vorkommen. EMTRIS (Engineering and Manufacturing Technical Relational Information System), eine relationale Datenbankanwendung, die mit ORACLE [1] entwickelt wurde, wurde entwickelt, um den technischen Datenbedarf von praktizierenden Designern und Ingenieuren zu befriedigen, die in einer großen Industrieumgebung arbeiten. Die Konstruktions- und Fertigungsaktivitäten in einer großen Computerfertigungsanlage boten eine realistische Fallstudienumgebung für die Umsetzung einiger der hier diskutierten Strategien. Es wird eine Beschreibung der Methodik, die bei der Konzeption und Implementierung von EMTRIS verwendet wurde, und der zahlreichen Probleme vorgestellt, die bei der Durchführung solcher Bemühungen auftreten. In diesem Zusammenhang werden Strategien zur Koordinierung des Datentransfers zwischen verschiedenen Personengruppen sowie Mechanismen zur Sicherstellung der Datenkonsistenz in solchen Umgebungen diskutiert. Außerdem werden verschiedene Techniken zur Dokumentation der Datenflüsse und der Wechselbeziehungen zwischen verschiedenen Datenformen untersucht. Das Endergebnis ist ein anlagenweites Datenbanksystem, das die Informationsanforderungen mehrerer Gruppen und Disziplinen integriert.;-;-;-;https://link.springer.com/article/10.1007/BF01195561 495ed49eb64da77bcd79398a754552fa;de;;;7.1.;;;Workflow-Architektur für interaktive Videomanagementsysteme Dieses Dokument stellt ein interaktives Videosystem und seine Architektur vor, bei dem mehrere Systeme zusammenarbeiten, um die Dienste des interaktiven Videos zu verwalten. Jedes System ist auf die von ihm verarbeiteten Daten und die von ihm ausgeführten Funktionen spezialisiert. Ein System kann eine Datenbank (für Abrechnungszwecke) oder nur ein Videospeichersystem (zum Speichern der Videodaten) sein, dem die typischen Merkmale einer Datenbank fehlen, oder ein Informationsabrufsystem zur Unterstützung der Indizierung und Abfrage von Videodaten. Da die Servicequalität eine wichtige Anforderung für das gesamte Managementsystem ist, wird ein spezifisches System in die Architektur eingeführt. Ein solches System überwacht die Bandbreite des Netzwerks, die Puffergröße und die Rahmengröße und -rate. Die resultierende Architektur des interaktiven Videosystems besteht aus mehreren Systemen, die durch ein aktives, regelbasiertes Workflow-System zusammenarbeiten, um ihre Funktionalitäten zu integrieren, während Autonomie, Erweiterbarkeit und Datenintegrität, wo nötig, erhalten bleiben.;-;-;-;https://link.springer.com/article/10.1023/A%3A1013325522291 10d06a71d0ce5a48900226d11d2c5000;de;;;7.1.;;;Icon-Design für ältere Benutzer von Projektmanagement-Software Die Arbeit in Projekten ist ein wichtiger Bestandteil vieler Jobs in der Dienstleistungsbranche. Aufgrund ihres Wissens und ihrer Erfahrung wird die Projektplanung oft von älteren Mitarbeitern durchgeführt. Daher und im Hinblick auf den demografischen Wandel ist eine Integration der Bedürfnisse älterer Arbeitnehmer in die Arbeitswelt erforderlich. Den meisten IT-basierten Systemen, einschließlich Projektmanagement-Software, gemeinsam ist die Verwendung von Symbolen. Um verschiedene Icon-Sets in Projektmanagement-Software hinsichtlich altersbedingter Unterschiede zu untersuchen, wurden zwei Studien durchgeführt. Die erste Studie zielte darauf ab, zwei verschiedene Icon-Sets hinsichtlich Ausführungszeiten und Augenbewegungen in einem angewandten Setting zu untersuchen. Die zweite Studie bestand aus einem Fragebogen, bei dem Probanden verschiedene Icons ihren entsprechenden Funktionen zuordnen und diese Icons hinsichtlich ihrer Intuitivität vergleichen mussten. Die Ergebnisse zeigten, dass ältere Nutzer von einem Icon-Design mit geringer Komplexität profitieren, für jüngere Nutzer jedoch kein Einfluss durch unterschiedliche Icon-Designs gefunden wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39265-8_14 b2daf674ddb8e07d27b3f74dd8c2b7ab;de;;;7.2.;;;Kontinuierliche naive Bayessche Klassifikationen Das gängigste Modell von Algorithmen des maschinellen Lernens umfasst zwei Lebensphasen, nämlich die Lernphase und die Anwendungsphase. Die Kosten für menschliches Know-how erschweren die Kennzeichnung großer Datenmengen für das Training von maschinellen Lernalgorithmen. In diesem Papier schlagen wir vor, diese strikte Dichotomie im Lebenszyklus zu hinterfragen und gleichzeitig das Problem der Datenkennzeichnung anzugehen. Wir diskutieren ein Lernparadigma namens Continuous Learning. Nach einem anfänglichen Training auf Basis von Human-Labeled-Daten trainiert sich ein Continuously Learning-Algorithmus iterativ mit dem Ergebnis seiner eigenen vorherigen Anwendungsstufe und ohne das Privileg eines externen Feedbacks. Die intuitive Motivation und Idee dieses Paradigmas werden erläutert, gefolgt von Erläuterungen zu den Unterschieden zu anderen Lernmodellen. Schließlich wird eine empirische Bewertung des kontinuierlichen Lernens, angewendet auf den Naive Bayesian Classifier zur Klassifizierung von Newsgroup-Artikeln eines bekannten Benchmarks, vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24594-0_27 6b124060e67d600f9a916cf431546448;de;;;7.2.;;;Effizientes dynamisches Beschneiden beim Abrufen der größten Scores zuerst (LSF) Invertierte Index-Traversal-Techniken wurden untersucht, um die Herausforderungen bei der Abfrageverarbeitungsleistung von Websuchmaschinen anzugehen, lassen jedoch noch viel Raum für Verbesserungen. In diesem Papier konzentrieren wir uns auf die invertierte Indexdurchquerung bei dokumentsortierten Indizes und die Optimierungstechnik namens dynamisches Pruning, die die erforderlichen Hardware-Rechenressourcen effizient reduzieren kann. Wir schlagen ein weiteres neuartiges erschöpfendes Index-Traversal-Schema vor, das sogenannte Largest Scores First (LSF)-Retrieval, bei dem die Kandidaten zuerst in der Posting-Liste der wichtigen Abfragebegriffe mit den höchsten Werten der oberen Grenze ausgewählt und dann mit dem Beitrag der verbleibenden Abfragebegriffe vollständig bewertet werden . Das Schema kann den Speicherverbrauch des vorhandenen Begriffs-zu-ein-Zeit-(TAAT) und die Kandidatenauswahlkosten des vorhandenen Dokument-zu-ein-Zeit-(DAAT)-Abrufs auf Kosten des erneuten Durchsuchens der Posting-Listen der verbleibenden Abfragebegriffe effektiv reduzieren. Vorläufige Analyse und Implementierung zeigen eine vergleichbare Leistung zwischen LSF und den beiden bekannten Baselines. Um die Anzahl der Postings, die erneut besucht werden müssen, weiter zu reduzieren, präsentieren wir effiziente, rangsichere dynamische Bereinigungstechniken basierend auf LSF, einschließlich zweier wichtiger Optimierungen namens List-Otting (LSF_LO) und Partial Scoring (LSF_PS), die die Bedeutung des Abfragebegriffs voll ausnutzen. Schließlich zeigen experimentelle Ergebnisse mit der TREC GOV2-Sammlung, dass unsere neuen Index-Traversal-Ansätze die Abfragelatenz gegenüber der WAND-Basislinie um fast 27 % reduzieren und im Vergleich zur MaxScore-Basislinie etwas bessere Ergebnisse liefern, während sie die gleichen Ergebnisse wie eine umfassende Bewertung liefern.;-;-;-;https://link.springer.com/article/10.1631/FITEE.1500190 dc48e933186ad2f3c5427d00e75fc8f5;de;;;7.2.;;;Syntaktische Satzkompression im biomedizinischen Bereich: Erleichterung des Zugangs zu verwandten Artikeln Wir untersuchen einen syntaktischen Ansatz zur Satzkomprimierung im biomedizinischen Bereich, der im Kontext der Ergebnispräsentation für die Suche nach verwandten Artikeln in der PubMed-Suchmaschine begründet ist. Durch automatisches Beschneiden unwesentlicher Fragmente von Artikeltiteln kann ein System effektiv mehr Ergebnisse auf der gleichen Fläche anzeigen. Unser implementierter Prototyp funktioniert, indem er eine Sequenz syntaktischer Trimmregeln auf die Parse-Bäume von Artikeltiteln anwendet. Anhand eines Korpus manuell komprimierter Beispiele von MEDLINE wurden zwei separate Studien durchgeführt: eine automatische Auswertung mit B using;-;-;-;https://link.springer.com/article/10.1007/s10791-007-9029-5 dfd9805ac934b512aa791f2bf30720eb;de;;;7.1.;;;Informationssysteme für das Selbstmanagement Ein Modell der demokratischen Organisation und des individuellen Lernens wird verwendet, um allgemein verfügbare Computerprogramme in ein dem selbstverwalteten Unternehmen angemessenes Informationssystem zu integrieren. Die Verteilung von Informationen, die Teilnahme durch Debatten sowie die Abstimmung und Rückmeldung zur Entscheidungsleistung werden durch geeignete Programme vermittelt. Die Rechte werden durch programmierte Beschränkungen und eine Jury von Kollegen garantiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-93104-8_64 6b30ba63d022a99781f8bf574c81fcb2;de;;;7.2.;;;Unsicherheitsmaße basierend auf dem Gaußschen Kernel für Typ-2-Fuzzy-Informationssysteme In der Datenverarbeitung ist die Messung der Unsicherheit eines der bedeutenden Bewertungsinstrumente, die das Wesen der Unsicherheit von Daten beschreiben können. Bisher gibt es nur wenige messbare Werkzeuge, um die Unsicherheit von Typ-2-Fuzzy-Informationssystemen (TFISs-2) (die erweiterten Modelle von Fuzzy-Informationssystemen) zu untersuchen. Dieses Papier widmet sich der Suche nach effektiven Indikatoren zur Beschreibung der Unsicherheit von TFISs-2. Das unscharfe;-;-;-;https://link.springer.com/article/10.1007/s40815-020-00895-w 40932f06db8218c0e6858ffb23f0e6f3;de;;;7.1.;;;Geschäftsprozessmanagement für offene Prozesse Produktentwicklungsprozesse sind offene und kreative Geschäftsprozesse. Sie bestehen aus einer Projektebene, auf der die Koordination verschiedener Engineering-Prozesse stattfindet. Diese Teilprozesse bilden eine zweite Ebene. Die Engineering-Prozesse können mit geschäftsprozessunterstützenden Tools wie Workflow- und Dokumentenmanagementsystemen unterstützt werden. Auf Projektebene müssen die Teilprozesse verknüpft, koordiniert und deren Ausführung kontrolliert werden. Ein solches Geschäftsprozessmanagement für offene und kreative Prozesse kann durch den Engineering Process Manager (EPM) unterstützt werden, der ein generisches IT-Tool ist. Das Modul unterstützt eine Koordinationsmethode, die eine Kritik an Projektmanagementmethoden widerspiegelt, die ein zentrales Informationsmanagement und eine zentrale Entscheidungsfindung unterstützen und nicht ein dezentrales Management mit verteiltem Wissen und Kompetenz. Prozessmanagement wird als fortlaufender Detaillierungs-, Verhandlungs-, Entscheidungs- und Informationsprozess über den Produktentwicklungsprozess zwischen Teams und einem Projektmanager verstanden. EPM hilft dabei, Daten zu sammeln, zu verbreiten und zu interpretieren, um den Prozess entlang wichtiger Themen wie Planung, Neuplanung und Kontrolle zu planen, zu planen und zu steuern. Der durchgeführte Prozess kann zu beliebigen Zeitpunkten visualisiert und kritisiert werden. Nach Abschluss des Produktentwicklungsprozesses unterstützt EPM die Auswertung gespeicherter Daten, um die Standards für das Geschäftsprozessmanagement für offene, kreative Prozesse zu verbessern und zu aktualisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-80317-8_7 af106a5ce517138e3a76d013498bd9fe;de;;;7.1.;;;Klassifikation von Luftaufnahmen und Informationsabruf über schnelles Kernel-basiertes Fuzzy-C-Means-Clustering In diesem Artikel wird schnelles Kernel-basiertes Fuzzy-C-Means-Clustering vorgeschlagen, um eine genaue und robuste Segmentierung durch Integration mit Watershed-Transformation und schnellen Level-Set-Schemata zu erreichen. Luftaufnahmen sind von Natur aus mit Empfindlichkeiten (Rauschen und Artefakten), Intensitätsinhomogenität, verschwommenen Grenzen und Informationskomplexität verbunden. Es ist daher notwendig, das kanten- oder konturbasierte Level-Set-Verfahren mit bereichsbasiertem Fuzzy-C-Means-Clustering zu kombinieren. Um eine schnelle Segmentierung zu erreichen, wird eine Wasserscheidentransformation verwendet, um die Anfangskontur des Fast-Level-Set-Verfahrens sicherzustellen, so dass anfängliche Clusterzentren der Fuzzy-C-Means-Clusterbildung auf diesen geschlossenen Konturen ausgewählt werden, um eine Fehlklassifizierung zu vermeiden und die Trennbarkeit zu verbessern. Es reduziert die Zeit für langwierige Berechnungsiterationen. Unter Verwendung mehrerer dicht verteilter Luftbilder wird nach dem Vergleich zwischen klassischem und schnellem Kernel-basiertem Fuzzy-C-Means-Clustering robustes und schnelles Clustering beobachtet. Um die Rolle des hybriden schnellen Kernel-basierten Schemas bei der Szenenklassifizierung und dem Informationsabruf weiter zu analysieren, werden Frequenzbereichshistogrammanalysen für mehrere Clustering-Fälle an digitalen Luftbildern durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-11680-4_11 ac69cb0119feef323f1cd2e7585c822b;de;;;7.2.;;;Entropiebasierter statischer Index-Pruning Wir schlagen einen neuen entropiebasierten Algorithmus für das statische Index-Pruning vor. Der Algorithmus berechnet eine Wichtigkeitsbewertung für jedes Dokument in der Sammlung basierend auf der Entropie jedes Begriffs. Entsprechend dem gewünschten Bereinigungsgrad wird ein Schwellenwert festgelegt, und alle Buchungen, die Dokumenten zugeordnet sind, die unter diesem Schwellenwert liegen, werden aus dem Index entfernt, d. h. Dokumente werden aus der Sammlung entfernt. Wir vergleichen diesen entropiebasierten Ansatz mit früheren Arbeiten von Carmel;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00958-7_72 d9dcb638520bd7d6cbab5a4a97e2d442;de;;;7.2.;;;Sprachmodelle für Relevanz-Feedback Der Sprachmodellierungsansatz für Information Retrieval (IR) ist ein konzeptionell einfaches Modell von IR, das ursprünglich von Ponte und Croft (1998) entwickelt wurde. Bei diesem Ansatz wird die Abfrage als zufälliges Ereignis behandelt und Dokumente werden entsprechend der Wahrscheinlichkeit, dass die Abfrage über ein für jedes Dokument geschätztes Sprachmodell generiert würde, eingestuft. Die Intuition hinter diesem Ansatz ist, dass Benutzer ein prototypisches Dokument vor Augen haben und Abfragebegriffe entsprechend auswählen. Der intuitive Reiz dieser Methode besteht darin, dass keine Rückschlüsse auf den semantischen Inhalt von Dokumenten gezogen werden müssen, was zu einem konzeptionell einfachen Modell führt. In diesem Beitrag werden Techniken für Relevanz-Feedback und Routing auf einfache Weise aus dem Sprachmodellierungsansatz abgeleitet und ihre Wirksamkeit empirisch nachgewiesen. Diese Experimente demonstrieren einen weiteren Konzeptnachweis für den Sprachmodellierungsansatz zum Abrufen.;-;-;-;https://link.springer.com/chapter/10.1007/0-306-47019-5_3 53bf5007e724391f7f28d19a555b2bbb;de;;;7.2.;;;Zwei menschenzentrierte Ansätze für die Gesundheitsinformatik: Cognitive Systems Engineering und Usability Viele Forscher im Gesundheitswesen erkennen zunehmend an, dass ein menschenzentrierter Ansatz bei der Gestaltung und Bewertung von Gesundheitsinformationssystemen für den Erfolg solcher Systeme im Gesundheitswesen von entscheidender Bedeutung ist. In diesem Beitrag befassen wir uns mit der Arbeit zweier menschzentrierter Forschungsgemeinschaften, die im Bereich der Forschung zu Gesundheitsinformationssystemen aktiv waren, aber in früheren vergleichenden Übersichten nicht ausreichend diskutiert wurden. Sie sind Cognitive Systems Engineering und Usability. Wir betrachten kurz die Ursprünge und Beiträge der beiden Forschungsgemeinschaften und diskutieren dann die Gemeinsamkeiten und Unterschiede zwischen ihnen zu verschiedenen Themen, die für Gesundheitsinformationssysteme relevant sind. Unser Ziel ist es, den Unterschied zwischen den beiden Gemeinschaften zu verdeutlichen und zukünftigen Forschern zu helfen, fundiertere Entscheidungen über die Ansätze und Methoden zu treffen, die ihren Bedürfnissen entsprechen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15515-4_3 6a34f529ba2fb66802061ed0a07b7ef0;de;;;7.1.;;;Ein neuer Weg, DFX in einer großen Organisation zu organisieren Effizientes Requirements Engineering und Design ist eine anspruchsvolle Aufgabe. Design for Excellence (DFX) bietet eine Möglichkeit, verschiedene Ansichten und harmonisierende Praktiken zusammenzubringen. Hemmnisse gibt es beispielsweise noch bei der angemessenen Wertschätzung interner und externer Kunden. Die organisatorische Umsetzung von DFX an sich ist eine umstrittene Frage. Wir präsentieren einen neuen Weg, das DFX-Konzept in einer großen Organisation zu organisieren. Die Ergebnisse basieren auf den Erfahrungen einer großen Organisation, die im Bereich ICT-Systeme tätig ist und das DFX-Konzept seit mehreren Jahren erfolgreich implementiert. Im Gegensatz zur traditionellen Verwaltung des DFX innerhalb von F&E ist es vorteilhaft, es auch in anderen Teilen des operativen Subsystems zu organisieren, da dies das Konzept und seine Verbesserung in der Organisation sichtbarer und verbreiteter macht. Dies erfordert jedoch, die Konzepte des Problembereichs und des Lösungsbereichs aus einem neuen Blickwinkel zu betrachten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02152-7_21 e57b88fe896980c3ab0c8af97ebfc343;de;;;7.2.;;;CBET: Design und Evaluation eines domänenspezifischen Chatbots für mobiles Lernen Die Popularität von mobilen Geräten und Konversationsagenten in den letzten Jahren hat dazu geführt, dass Chatbots in verschiedenen Bildungsszenarien weit verbreitet sind. In Bezug auf die Fortschritte bei mobilen Geräten und Konversationsagenten gibt es nur wenige Forschungsarbeiten zum Design und zur Bewertung domänenspezifischer Chatbots, um die Anforderungen des mobilen Lernens zu erfüllen. Um dieses Problem anzugehen, schlagen wir eine agentenbasierte konzeptionelle Architektur vor, um einen domänenspezifischen Chatbot für mobiles Lernen zu entwickeln. Wir erweitern den Open-Domain-DeepQA-Agenten, um ihn für eingeschränkte Domain-Fragen sensibel zu machen, indem wir ein Domain-spezifisches Gate bauen und WeChat als Benutzeroberfläche verwenden. Um unseren Chatbot zu bewerten, werden subjektive und objektive Kriterien verwendet, um seine Wirksamkeit zu beurteilen. Darüber hinaus erfolgt die Usability-Bewertung gleichzeitig mit dem Fragebogen zur System-Usability-Skala und dem Net Promoter Score. Insgesamt nahmen 18 Fachexperten an der Bewertung der Wirksamkeit und 52 Teilnehmer an der Bewertung der Gebrauchstauglichkeit teil. Basierend auf den Bewertungsergebnissen kommen wir zu dem Schluss, dass unser Chatbot als effektives Tool zum Abrufen von Informationen in einem bestimmten Bereich dienen kann. Die wahrgenommene Benutzerfreundlichkeit unseres Chatbots ist tendenziell moderat und marginal und hat sich positiv auf die Werbung für unseren Chatbot für das mobile Lernen ausgewirkt. Dieses Papier trägt zur pädagogischen Anwendung von Chatbots in bestimmten Fachgebieten bei.;-;-;-;https://link.springer.com/article/10.1007/s10209-019-00666-x 82196314d9d5098ec0db9ac463d8a1fc;de;;;7.1.;;;Anwendung eines einheitlichen methodischen Ansatzes zur Online-Planung des Zielbetriebs von Satellitenüberwachungs- und Kommunikationssystemen Es wird ein einheitlicher methodischer Ansatz zur Online-Planung des Zielbetriebs von Satellitenüberwachungs- und Kommunikationssystemen betrachtet. Ausgehend von den allgemeinen Prinzipien der formalen Darstellung von Optimierungsproblemen der Online-Planung für solche Systeme und den zu ihrer Lösung vorgeschlagenen Methoden und Algorithmen wird die verallgemeinerte mathematische Darstellung des Problems der Online-Planung vorgestellt und die Hauptschritte der Anwendung dieses methodischen Ansatzes vorgestellt zu seiner Lösung einheitlich sind, ist der Ansatz sowohl für Überwachungs- als auch für Kommunikationssysteme von praktischem Interesse. Die Anwendung des methodischen Ansatzes wird an den Beispielen der Planung des kontrollierten Prozesses des Zielbetriebs von Multisatellitensystemen demonstriert: zur Überwachung der brandgefährdeten Region durch Satelliten niedriger Umlaufbahn des Projekts China-Brazil Earth Remote Satellite (CBERS) und für Sprache Übertragung über mobile Kanäle in globalen Systemen der persönlichen Satellitenkommunikation im niedrigen Orbit der Projekte „Koskon“ und „Iridium“.;-;-;-;https://link.springer.com/article/10.1134/S1064230710010132 cd2819789283b1d09fac1e7c735b93e6;de;;;7.1.;;;Adaptives Prozessmanagement in Cyber-Physical Domains Die zunehmende Anwendung prozessorientierter Ansätze in neuen herausfordernden Cyber-Physical-Domänen jenseits von Business Computing (z. B. personalisiertes Gesundheitswesen, Notfallmanagement, Fabriken der Zukunft, Heimautomatisierung usw.) komplexe Prozesse in solchen Domänen verwalten. Eine cyber-physische Domäne ist durch das Vorhandensein eines cyber-physischen Systems gekennzeichnet, das heterogene IKT-Komponenten (PCs, Smartphones, Sensoren, Aktoren) koordiniert und reale Einheiten (Menschen, Maschinen, Agenten, Roboter usw.) einbezieht, die komplexe Aufgaben ausführen in der „physischen“ realen Welt, um ein gemeinsames Ziel zu erreichen. Die physische Welt ist jedoch nicht vollständig vorhersehbar, und Prozesse, die in cyber-physischen Domänen ausgeführt werden, müssen gegenüber unerwarteten Bedingungen robust und an unvorhergesehene Ausnahmen anpassbar sein. Dies erfordert einen flexibleren Ansatz bei der Prozessgestaltung und -durchführung, da es in realen Umgebungen nicht ausreicht, davon auszugehen, dass alle möglichen Wiederherstellungsaktivitäten für den Umgang mit auftretenden Ausnahmen vordefiniert werden können. In diesem Kapitel gehen wir das obige Problem an und schlagen einen allgemeinen Ansatz, einen konkreten Rahmen und eine Implementierung eines Prozessmanagementsystems vor, genannt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-52181-7_2 915e5fa953a594bdc6a0abe568d6e83e;de;;;7.2.;;;I. L. Hicks Herr I. L. Hicks ist Executive Vice President der Technicon Corporation und Präsident der Technicon Medical Communications Group mit Hauptsitz in Santa Clara, Kalifornien. Herr Hicks hat einen Honours Degree in Naturwissenschaften und einen Master in Betriebswirtschaftslehre. Vor seinem Umzug in die USA vor 2 Jahren war Herr Hicks als Regional Director für eine internationale Division von Technicon verantwortlich für die Aktivitäten von Technicon in Großbritannien, Afrika, Iran, Israel, Griechenland und der Türkei. Zuvor war er Managing Director von Technicon Australia und verantwortlich für das Geschäft von Technicon im Pazifik und im Fernen Osten.;-;-;-;https://link.springer.com/article/10.1007/BF02221903 77a8d9ac623482d6e55b00d6746cbb64;de;;;7.2.;;;Eine intelligente Datenbank für das Management geoökologischer Veränderungen in Häfen Probleme bezüglich des effektiven Abrufens relevanter Daten wurden durch die Entwicklung eines auf Intelligenz basierenden Systems mit Schnittstellen zu einer relationalen Datenbankstruktur angegangen. Das künstliche neuronale Netz modifiziert die Variablen dynamisch basierend auf der Relativen Stärke der Wirkung, einem Modellparameter, der aus den Felddaten berechnet werden kann. Es wurde ein Prototyp zur Vorhersage von Sedimenteigenschaften in einem Hafen mit niedrigem Tidenhub erstellt.;-;-;-;https://link.springer.com/article/10.1007/s002540100292 d700c0c7bfc7119e1726873186d20571;de;;;7.2.;;;Multinomiale Zufallsmodelle für den Abruf mit Dokumentfeldern Dokumentfelder, wie der Titel oder die Überschriften eines Dokuments, bieten eine Möglichkeit, die Struktur von Dokumenten für den Abruf zu berücksichtigen. Die meisten der in der Literatur vorgeschlagenen Ansätze verwenden entweder eine lineare Kombination von Scores, die verschiedenen Feldern zugeordnet sind, oder eine lineare Kombination von Frequenzen im Begriff der Frequenznormalisierungskomponente. Im Kontext des Divergence From Randomness-Frameworks haben wir eine gute Möglichkeit, Dokumentfelder in das probabilistische Zufallsmodell zu integrieren. In diesem Artikel werden neuartige probabilistische Modelle zur Einbeziehung von Feldern in den Retrievalprozess unter Verwendung eines multinomialen Zufallsmodells und seiner informationstheoretischen Approximation vorgestellt. Die Auswertungsergebnisse aus Experimenten, die mit einer Standard-TREC-Web-Testsammlung durchgeführt wurden, zeigen, dass die vorgeschlagenen Modelle genauso leistungsfähig sind wie ein modernes feldbasiertes Gewichtungsmodell, gleichzeitig aber theoretisch fundierter und erweiterbarer als aktuelle feldbasierte Modelle.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71496-5_6 6bde9df4d52044f3a501092a96bf7de1;de;;;7.1.;;;Eine theoretische Überprüfung von Management- und Informationssystemen unter Verwendung einer kritischen Kommunikationstheorie Dieser Beitrag reflektiert die managerialistische Orthodoxie des Wissensmanagements, um zu zeigen, dass eine kritische Kommunikationstheorie erforderlich ist, um echte politische und ethische Mängel anzugehen. Dadurch entsteht eine alternative methodische Perspektive durch eine bewusste Synthese etablierter methodischer Sichtweisen. Zu den Verbündeten der Zeitung bei dieser kritischen Suche zählen Jürgen Habermas, Werner Ulrich, Stanley Deetz, Geoffrey Vickers, Peter Checkland und ihre Mentoren. Architekten und Ingenieure von Informationssystemen und Wissenssystemen und ihre leitenden Kunden ignorieren praktischerweise grundlegende Themen wie Politik, Macht, Wissen und Kommunikation. Heute sind die wesentlichen Fragen jedoch nicht technischer, sondern ethischer Natur. In der Frage nach der Rhetorik des Wissensmanagements werden Überlegungen zur Instrumentalität von vielem, was über Management- und Informationssysteme gesagt und getan wird, skizziert. Ausgangspunkt ist kritische Skepsis. Dies wird durch Bedenken hinsichtlich des ethischen Status des kommerziell wertvollen Ergebnisses von (mindestens) zwei miteinander verbundenen vereinfachenden und grundlegend dominierenden konventionellen Weisheiten motiviert. Diese stammen aus zwei betriebswirtschaftlich voreingenommenen Feldern, die in falscher Rationalität eine gemeinsame Basis teilen.;-;-;-;https://link.springer.com/article/10.1080/0268396022000017725 cf8b7e06f19ae2e68a4537b32728199b;de;;;7.1.;;;Informationssystem zur Planung von Notfallmaßnahmen Im Falle eines Ölaustritts ist ein wesentlicher Punkt zur Wiederherstellung der Folgen unerwarteter Situationen im Öltransportsystem eine angemessene Planung, um die Abfolge angemessener Maßnahmen (Pläne) bereitzustellen und diese Maßnahmen durch Akteure (Personal) und Ressourcen zu unterstützen. Der Plan erfordert möglicherweise eine Abstimmung mit lokalen, kommunalen, territorialen, regionalen oder föderalen Abteilungen und umfasst Transportmittel auf dem Boden und in der Luft, Logistikunterstützung, Lieferung von verschütteten Reagenzien und Lieferung von Reparaturgeräten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44860-1_9 7fdc90320ea3ae61d23ba974593c847d;de;;;7.1.;;;Diagnostizieren von Verbreitungspraktiken innerhalb einer Software-Organisation Immer schneller werden neue Methoden, Werkzeuge und Techniken der Softwareentwicklung entwickelt. Um diese neue Technologie zu nutzen, haben Unternehmen Schwierigkeiten, sie in einem ähnlichen Tempo zu implementieren. Es wächst das Bewusstsein, dass der erwartete Nutzen nicht erreicht wird. Um dieser Situation abzuhelfen, müssen Softwareunternehmen die Schwächen der aktuellen Verbreitungspraktiken besser verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35404-0_8 5c11cf2f324811118c3ea4804c268906;de;;;7.2.;;;Ein formaler Ansatz für Effektivitätsmetriken für den Informationszugriff: Retrieval, Filtering und Clustering In diesem Tutorial präsentieren wir eine formale Darstellung der Bewertungsmetriken für drei der wichtigsten informationsbezogenen Aufgaben: Abrufen, Clustern und Filtern. Wir konzentrieren uns auf die beliebtesten Metriken und zeigen unter Nutzung der Messtheorie einige Einschränkungen für geeignete Metriken in jeder der drei Aufgaben. Wir vergleichen Metriken auch systematisch danach, wie sie solche Einschränkungen erfüllen, wir stellen Kriterien zur Auswahl der am besten geeigneten Metrik für jede spezifische Informationszugriffsaufgabe bereit und diskutieren, wie Metriken kombiniert und gewichtet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16354-3_93 af8b9488b076c9a0b489961ef000fb2b;de;;;7.2.;;;CLEF 2004: Ad-hoc-Track-Übersicht und Ergebnisanalyse Wir beschreiben die Ziele und die Organisation des CLEF 2004 Ad-hoc-Tracks und diskutieren die Hauptmerkmale der Experimente. Die Ergebnisse werden analysiert, kommentiert und auf ihre statistische Signifikanz untersucht. Der Beitrag schließt mit einigen Bemerkungen zu den Auswirkungen der CLEF-Kampagne auf den Stand der Technik beim sprachübergreifenden Informationsabruf.;-;-;-;https://link.springer.com/chapter/10.1007/11519645_2 0f4fa382dbc2ef2b7061de9512e2f533;de;;;7.2.;;;Beurteilung der Relevanz mit Hilfe der Größenschätzung Die Größenschätzung ist eine psychophysische Skalierungstechnik, bei der Stimuli Zahlen zugewiesen werden, um die Verhältnisse ihrer wahrgenommenen Intensität widerzuspiegeln. Wir berichten über ein Crowdsourcing-Experiment, das darauf abzielt, zu verstehen, ob eine Größenschätzung verwendet werden kann, um zuverlässige Relevanzbeurteilungen für Dokumente zu sammeln, wie es üblicherweise für die prüfungssammlungsbasierte Bewertung von Informationsabrufsystemen erforderlich ist. Die Ergebnisse eines kleinen Datensatzes zeigen, dass: (i) die Größenschätzung Relevanzrankings erzeugen kann, die mit klassischeren ordinalen Urteilen konsistent sind, (ii) sowohl eine nach oben begrenzte als auch eine unbegrenzte Skala effektiv verwendet werden kann, wenn auch mit einigen Unterschieden, (iii ) die Präsentationsreihenfolge der zu beurteilenden Dokumente, falls vorhanden, nur eine begrenzte Wirkung hat und (iv) nur eine kleine Anzahl von Wiederholungsurteilen erforderlich ist, um zuverlässige Bewertungsergebnisse für die Größenordnung zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16354-3_23 756615c071a16f51e2d44610f2b05887;de;;;7.2.;;;Abruf von Hot-Spot-Passagen bei der Beantwortung von Fragen Das Beantworten von Fragen war in letzter Zeit der Schwerpunkt der Forschung zum Informationsabruf, viele Systeme enthalten lediglich eine Suchmaschine als Blackbox und die meiste Arbeit wurde dem Frageanalysator und der Antwortkennung gewidmet. Im Rahmen der QS bietet Passage jedoch ein ideales Medium zwischen der Dokumentensammlung und einer exakten Antwort. Und das Abrufen von Passagen ist sowohl für die Antwortkennung als auch für einen menschlichen Leser ein feinkörnigerer Ansatz als der traditionelle Dokumentenabruf. In diesem Beitrag wird zunächst zwischen Document Retrieval und Passage Retrieval unterschieden. Und der Hot-Spot Passage Retrieval-Algorithmus, der die Maßnahmen von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30544-6_54 fb53fe56c2325474ce336dc8050235e1;de;;;7.2.;;;Ein syntaktischer Parse-Key-Baum-basierter Ansatz für die Abfrage von englischen Grammatikfragen Das Abrufen von Grammatikfragen zielt darauf ab, relevante Grammatikfragen zu finden, die eine ähnliche grammatikalische Struktur und Verwendung haben wie die Eingabefrageabfrage. Frühere Arbeiten zur Text- und Satzsuche, die hauptsächlich auf einem statistischen Analyseansatz und einem syntaktischen Analyseansatz basieren, sind nicht effektiv beim Auffinden relevanter Grammatikfragen mit ähnlichem grammatikalischem Fokus. In diesem Artikel schlagen wir einen syntaktischen Parse-Schlüsselbaum-basierten Ansatz für die Abfrage von englischen Grammatikfragen vor, der relevante Grammatikfragen mit ähnlichem grammatikalischem Fokus effektiv finden kann. Insbesondere schlagen wir einen syntaktischen Parse-Schlüsselbaum vor, um den grammatikalischen Fokus von Grammatikfragen entsprechend der Leer- oder Antwortposition der Fragen zu erfassen. Dann schlagen wir eine neue Methode vor, um die Ähnlichkeit des Parse-Schlüsselbaums zwischen den Parse-Bäumen der Fragenabfrage und den Datenbankfragen für den Fragenabruf zu berechnen. Die Performance-Ergebnisse haben gezeigt, dass unser vorgeschlagener Ansatz andere klassische Text- und Satz-Retrieval-Methoden in der Genauigkeit übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-59569-6_44 b0a7a141fab837b9222ccff81734ab01;de;;;7.2.;;;Auswertung mit verwirrendem Ground Truth Subjektives Urteilen mit menschlicher Bewertung ist eine wichtige Methode zur Konstruktion von Ground Truth für die Bewertung in den Forschungsbereichen einschließlich der Informationsbeschaffung. Forscher aggregieren die Bewertungen einer Instanz durch statistische Maßnahmen oder Label-Aggregationsmethoden zu einem einzelnen Score, um die vorgeschlagenen Ansätze und Baselines zu bewerten. Die Bewertungsverteilungen der Instanzen sind jedoch unterschiedlich, selbst wenn die aggregierten Punktzahlen gleich sind. Wir definieren einen Begriff der Verwechselbarkeit, der angibt, wie verwechselbar die Gutachter in den Instanzen sind. Wir stellen fest, dass die Verwechslungsfähigkeit bei einer Explorationsstudie einen herausragenden Einfluss auf die Bewertungsergebnisse hat. Wir schlagen daher eine neuartige Bewertungslösung mit mehreren effektiven Verwechslungsmaßen und verwechslungsbewussten Bewertungsmethoden vor. Sie können ergänzend zu bestehenden Ratingaggregationsverfahren und Bewertungsverfahren eingesetzt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48051-0_32 87002b61df730ae10b0758b4ece8f309;de;;;7.1.;;;Integration von PM in CIM Vor 20 Jahren, als die dritte Generation von Computern eingeführt wurde, wurde das Konzept des Total Management Information Systems (MIS) entwickelt. Die Theorie von MIS bestand darin, alle von einem Unternehmen verwendeten Informationen zu sammeln und allen zur Verfügung zu stellen, die sie benötigten. Auf MIS folgten Production Information and Control Systems (PICS) oder Communication-Oriented PICS (COPICS) und viele andere Namen und Abkürzungen. Alle diese Systeme waren Informationssysteme, die den Computer als Zahlendrehmaschine zum Speichern und Abrufen von Informationen verwendeten. Ausgangspunkt war, dass die Produktionstechnik die Grunddaten von Stückliste und Routine als Randbedingungen akzeptiert, ohne zu hinterfragen, wie und warum sie etabliert wurden und wie real und effizient sie sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-73318-5_20 8acd29d8d387434817a1e53ff3ebafa7;de;;;7.1.;;;Kontexte und Ontologien kombinieren: Eine Fallstudie In den letzten Jahren sind verschiedene Vorschläge entstanden, die Ontologien und Kontexte integrieren und dabei Vorteile aus deren Fähigkeiten zur Erzielung informationssemantischer Interoperabilität ziehen. Jeder von ihnen hat die Problematik aus unterschiedlichen Perspektiven betrachtet. Insbesondere durch eine aktuelle Fallstudie zeigt dieses Papier die Probleme im Zusammenhang mit der Unterstützung der informationssemantischen Interoperabilität zwischen verschiedenen Parteien, die an einer kollaborativen Geschäftsbeziehung über das Internet beteiligt sind. Darüber hinaus analysiert dieses Papier diese Probleme aus der Perspektive früherer Vorschläge und zeigt deren Schwächen und Stärken auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34749-3_12 b5c9563ebd621b23dc6d90fccb4d726b;de;;;7.1.;;;Simulationsbasiertes Änderungsmanagement in der Fertigung messen In diesem Kapitel wird ein ausgewogener und ganzheitlicher Ansatz zur Bewertung von Change Management im Kontext maßgeschneiderter Planspiele und Computersimulationen entwickelt. Das Change Management Measurement Framework unterscheidet zwischen interner Effizienz und strategischer Effektivität aus Personal-, Prozess- und Technologiesicht. Darüber hinaus werden im Rahmenwerk die Veränderungsprojekte selbst und die Projektergebnisse, also die Betriebsveränderungen, gesondert bewertet. Das Framework wird verwendet, um die Veränderungsprojekte in drei finnischen Produktionsunternehmen zu analysieren und zu vergleichen. Die Ergebnisse zeigen, dass das Framework den Unterschied zwischen erfolgreichem und weniger erfolgreichem Change Management in Fertigungsprozessen erklärt. Durch die Anwendung des Messrahmens in der Praxis können Unternehmen ihre Change-Management-Fähigkeiten kontinuierlich verbessern. Weitere empirische Forschung ist erforderlich, um das Framework weiter zu testen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35506-1_6 4b3bb328ce8092417c9f1db64c4b466c;de;;;7.1.;;;Automatisierte Werbemaschine: Aufstrebende IS für den Einzelhandel in China Technische Entwicklungen in der Informationstechnologie gepaart mit Geschäftsinteressen zur Verbesserung der Werbeproduktivität beflügeln die Forschung im Bereich Informationssysteme für die Verkaufsförderung im Einzelhandel, die die Analyse von Werbeaktionen erleichtern und die Umsetzung von Werbeaktionen automatisieren. Die in diesem Dokument vorgestellte Auto Promotion Machine (APM) kann eine Werbeaktionsanalyse basierend auf persönlichen oder Haushaltsmerkmalen des Verbrauchers, historischen Verbraucherkaufinformationen und Verfolgungsdaten des Verbrauchereinkaufsprozesses durchführen Terminal oder Online-Internet-Terminal. Potenzielle Auswirkungen von APM auf den Einzelhandel werden aus der Sicht von Herstellern, Einzelhandelsgeschäften bzw. Verbrauchern diskutiert. Es werden zwei Ebenen von APM beschrieben, die unterschiedliche Automatisierungs- und Intelligenzgrade repräsentieren. Anhand der beiden Ebenen werden einige Anwendungen von APM in der heutigen Geschäftspraxis aufgezeigt. Schließlich werden wichtige Themen mit weiterem Forschungsbedarf identifiziert, die von anderen Forschern verfolgt werden können, um so den Wissensaufbau beim Einsatz von Informationstechnologie zur Unterstützung der Verkaufsförderung im Einzelhandel zu beschleunigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-76312-5_52 4e02d410144e09b48df2e4d5d37b9cbc;de;;;7.2.;;;Offene ITEM-Systeme sind gute ITEM-Systeme Viele Bildungsbehörden und Drittentwickler haben in der Vergangenheit ITEM-Systeme (Information Technology and Educational Management) hauptsächlich zum Nutzen zentraler Bildungsbehörden und nicht von Schulen entwickelt. In einigen Fällen wurden diese Systeme ohne gründliche Rücksprache mit den Schulen entwickelt. Das Ergebnis war, dass viele Schulen nicht so viel herausholen konnten, wie es sonst möglich gewesen wäre.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-306-47006-6_6 0da021329ccbfcac1e72489dc3f5d31d;de;;;7.2.;;;Auswertung von Stromdaten durch formale Konzeptanalyse Der folgende Artikel stellt die praktische Anwendung der Formalen Konzeptanalyse (FCA) zur Auswertung von Stromdaten vor, die während eines technologischen Prozesses aufgezeichnet wurden. Das Hauptziel dieser Arbeit ist es, Möglichkeiten aufzuzeigen, wie FCA verwendet werden kann, um Anomalien in den Daten zu erkennen. Unsere Einstellung basiert auf der Tatsache, dass während des Produktionsprozesses zwar eine große Menge an Eingabedaten anfällt, die Größe des konzeptionellen Gitters jedoch relativ klein ist und daher in Echtzeit damit gearbeitet werden kann. Das konzeptionelle Gitter stellt ein Modell des Produktionsprozesses dar, und dieses Modell basiert auf historischen Produktionsdaten. Der Eingangsdatenstrom enthält Messungen an der Produktionslinie und wird auf das Modell des Produktionsprozesses angewendet. Das Ergebnis dieser Aktivität ist es, Anomalien in den eingehenden Daten und deren Zusammenhang mit fehlerhaften Produkten zu identifizieren, einschließlich der Offenlegung möglicher Fehlerursachen und auch ein Qualitätshistogramm für hergestellte Produkte zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32518-2_13 c779e23b2e3711ff8b7b74440066e3ab;de;;;7.2.;;;GENASIS Informationssystem: Eine globale Umweltbewertung persistenter organischer Schadstoffe Das Global ENvironmental Assessment and Information System (GENASIS) ist ein Werkzeug, das von Expertenteams des Forschungszentrums für toxische Verbindungen in der Umwelt (RECETOX) und des Instituts für Biostatistik und -analyse (IBA) der Masaryk-Universität in Brünn entwickelt wurde. Ziel von GENASIS ist es, validierte Daten zu persistenten organischen Schadstoffen, einschließlich ihrer Eigenschaften, Quellen, Langzeitbelastungen, Lebensdauern, Transportmechanismen, Auswirkungen und Risiken, verstreut über verschiedene Institutionen und Ministerien zusammenzustellen und Werkzeuge zu ihrer Visualisierung bereitzustellen Analysen, Interpretation, Bewertung von Umwelt- und Humanrisiken oder Modellierung von Schicksalen. Ein solches Instrument sollte ein umfassendes Verständnis des Schicksals von POPs in der Umwelt, ihrer Auswirkungen auf das Ökosystem und die menschliche Bevölkerung erheblich verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22285-6_51 80b2ceb11f5cc0c76028381162eb2ffd;de;;;7.1.;;;Problemgetriebener Ansatz zum Design von informationstechnischen Systemen zur Unterstützung komplexer kognitiver Aufgaben Der vorliegende Beitrag schlägt einen methodischen Rahmen für den Entwurf und die Bewertung von informationstechnischen Systemen vor, die komplexe kognitive Aufgaben unterstützen. Ziel des methodischen Rahmens ist es, den Entwurf von Systemen zu ermöglichen, die: (1) die kognitiven Schwierigkeiten potenzieller Benutzer bei der Durchführung komplexer Problemlösungsaufgaben angehen, (2) die Problemlösungsleistung ihrer potenziellen Benutzer verbessern und (3 ) Kompatibilität mit den Kompetenzen und der Arbeitsumgebung potenzieller Nutzer herstellen. Nach einem kurzen Überblick über die Schwächen bestehender Systeme, die komplexe kognitive Aufgaben unterstützen sollen, werden die theoretischen Grundlagen der vorgeschlagenen Methodik vorgestellt. Dies sind die;-;-;-;https://link.springer.com/article/10.1007/s101110050019 c120c2722bd43ba3b0f2a86ce66aa15a;de;;;7.1.;;;Systemgedanken in der Fertigung In diesem Papier stellen wir eine Taxonomie von Herstellungsproblemen vor, die im Allgemeinen als Design-, Produktions- oder Vertriebsprobleme bezeichnet werden. An jedes dieser Probleme heften sich ein oder mehrere grundlegende Systemkonzepte, wie Komplexität und Anpassung. Durch die Kombination des hierarchischen Design-Produktion-Vertriebs-Gedankens mit Systemkonzepten stellen wir fest, dass die meisten Probleme der modernen Fertigung tatsächlich eine wesentliche Systemkomponente darstellen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008422627181 ab2a7913953faa1e2313cf24f3016a8f;de;;;7.1.;;;Entwicklung anpassungsfähiger Unternehmensinformationssysteme mit Advanced Active Data Dictionary Framework Managementtätigkeiten stellen heute neue Herausforderungen an Unternehmensinformationssysteme. Die Veränderungsgeschwindigkeit und Dynamik nimmt im Laufe der Zeit ebenso zu wie die Komplexität der zu lösenden Aufgaben, die adäquate Reaktionen des Managements erfordert. Unter solchen Bedingungen müssen Informationssysteme eine Reihe von Eigenschaften wie Vielseitigkeit, Flexibilität und Skalierbarkeit aufweisen, um die Ziele effektiv zu erreichen. Der Beitrag präsentiert unsere laufende Arbeit an einem generischen Framework zur Entwicklung flexibler Unternehmensinformationssysteme basierend auf dem Konzept des Advanced Active Data Dictionary (AADD). Das Framework ermöglicht den Aufbau flexibler Unternehmensanwendungen für effiziente Lösungen in verschiedenen Domänen und ein breites Spektrum an Verwaltungsaktivitäten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38370-0_14 641db0d30e957680887c975bfcd716f0;de;;;7.1.;;;Ein computergestütztes CMHC-Klinik- und Management-Informationssystem: Saga eines „Mini“-Erfolgs Es wird eine Beschreibung des Entwurfs und der Entwicklung eines umfassenden CMHC-Klinik- und Management-Informationssystems mit modernster Minicomputertechnologie bereitgestellt.;-;-;-;https://link.springer.com/article/10.3758/BF03202053 2cebeba5ce3751bb039bf5cdb8e4953d;de;;;7.2.;;;Anwendung intelligenter Technologien: Bewertung der Wirksamkeit Dieser Beitrag widmet sich verschiedenen Aspekten und Perspektiven der Anwendung der smarten Technologien in Softwarelösungen. Basierend auf Erfahrungen aus Softwareentwicklungsprojekten schlägt der Autor Kriterien vor, um die Effektivität der Erweiterung bestehender Produkte mit intelligenten Technologien zu bewerten. Die Wirksamkeitsbewertung kann als Entscheidungshilfe für die Implementierung der smarten Technologien in bestehende Produkte oder Produkte in der Entwicklung dienen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28038-2_15 29e1d1a1668532dcf84200999723c4aa;de;;;7.2.;;;Die DBLP Informatik Bibliographie: Evolution, Forschungsfragen, Perspektiven Publikationen sind für die wissenschaftliche Kommunikation unverzichtbar. Den Zugang zu Publikationen bieten konventionelle Bibliotheken, digitale Bibliotheken von Fachgesellschaften oder kommerziellen Verlagen sowie eine Vielzahl von Websites, die von den Wissenschaftlern selbst oder ihren Einrichtungen gepflegt werden. Umfassende Meta-Indizes für diese zunehmende Zahl von Informationsquellen fehlen für die meisten Wissenschaftsbereiche. Die DBLP Informatik Bibliographie der Universität Trier hat sich von einer sehr spezialisierten kleinen Sammlung bibliographischer Informationen zu einem wichtigen Teil der Infrastruktur entwickelt, die von Tausenden von Informatikern genutzt wird. Dieses kurze Papier berichtet zunächst über die Geschichte von DBLP und skizziert die sehr einfache Software hinter dem Dienst. Die zeitaufwändigste Aufgabe für die Betreuer von DBLP kann als besonderes Beispiel des Problems der Autoritätssteuerung angesehen werden: die Normalisierung unterschiedlicher Schreibweisen von Personennamen. Der dritte Abschnitt des Papiers diskutiert einige Details dieses Problems, die ein interessantes Forschungsthema für die Information Retrieval-Community sein könnten.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45735-6_1 dbde9b4668ca86cac65210ddaca5b992;de;;;7.1.;;;Ein computergestütztes Planungssystem für die Platzierung von sEEG-Elektroden bei der Behandlung von Epilepsie Etwa 20–30 % der Patienten mit fokaler Epilepsie sind medizinisch refraktär und können Kandidaten für eine kurative Operation sein. Stereo EEG ist die Platzierung mehrerer Tiefenelektroden im Gehirn, um die Anfallsaktivität aufzuzeichnen und den zu resezierenden Bereich genau zu identifizieren. Die beiden wichtigen Kriterien für die Elektrodenimplantation sind die genaue Navigation zum Zielbereich und die Vermeidung kritischer Strukturen wie Blutgefäße. Neurochirurgen haben in der aktuellen Praxis keine Hilfestellung bei der Planung der Elektrodentrajektorien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07521-1_13 80f1aecffeca5e7d821d3c1e1ba10117;de;;;7.1.;;;Planungsnervosität bei der Produktsegmentierung: Literaturübersicht und Forschungsagenda Eine differenzierte Planung ist eines der Mittel für heutige Unternehmen, um den steigenden Anforderungen an Produktvielfalt, Lieferfähigkeit und Kosteneffizienz gerecht zu werden. Auch wenn die Produktsegmentierung die Grundlage für eine solche Planung ist, wurde die Planungsnervosität aus dieser Perspektive noch nicht thematisiert. Dieser Beitrag versucht, einen Zusammenhang zwischen Planungsnervosität und Segmentierung herzustellen, indem er die aktuelle Literatur analysiert, um Überschneidungen zwischen den beiden Bereichen zu identifizieren. Die Literaturmerkmale werden bewertet und Hinweise für zukünftige Forschungen gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44739-0_49 b7346e6a1cdd70c2c2c81f9625968d98;de;;;7.1.;;;Entwicklung von Planungs- und Terminierungsreferenzmodellen mit der aris Methode & Toolset Die meisten produzierenden Unternehmen stehen unter erheblichem Druck, ihre Flexibilität und Reaktionsfähigkeit auf dem Markt zu erhöhen. Zu den wichtigsten Geschäftsprozessen im Zusammenhang mit Reaktionsfähigkeit gehören Informationssysteme für das Bedarfsmanagement und die Fertigungssteuerung. Insgesamt machen Informationssysteme fast ein Viertel aller IT-Investitionen in großen Fertigungsunternehmen aus, und ein Großteil davon wird derzeit für ERP-Anbieter wie BAAN, Oracle, SAP und MK Manufacturing ausgegeben (Vortman, 1998).;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35569-6_39 b0f1cc0d5906bdaeff9fa1467f07c59a;de;;;7.2.;;;Zuverlässigkeitsbewertung fehlerverzögerter technischer Systeme Dieses Papier stellt einen analytischen Ansatz zur Bewertung von Mehrbenutzer-Engineering-Systemen vor, die ein ausfallverzögertes Verhaltensmuster aufweisen, d Nichtverfügbarkeit der Dienste. Der Ansatz basiert auf der Bestimmung analytischer Ausdrücke für die Zuverlässigkeitsmaße, z.B. Häufigkeit und Wahrscheinlichkeit von Fehlerzuständen, die dann mit allgemeinen mathematischen Werkzeugen bewertet werden können. Der Beitrag diskutiert die Begründung und die grundlegenden Algorithmen des Ansatzes und präsentiert eine Reihe anschaulicher Beispiele.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09492-2_27 94cde07f50b6bcbd8a7f12332e90bec0;de;;;7.2.;;;Ein effektiver Ansatz zur Dimensionsreduktion bei der chinesischen Dokumentenklassifizierung mit genetischem Algorithmus Bei der chinesischen Dokumentenklassifikation wurden verschiedene Arten von Verfahren vorgeschlagen, wobei eine hohe Dimension des Merkmalsvektors eine der bedeutendsten Grenzen bei diesen Verfahren ist. In diesem Beitrag wird auf einen wichtigen Unterschied zwischen der chinesischen Dokumentenklassifikation und der englischen Dokumentenklassifikation hingewiesen. Dann wird ein effizienter Ansatz vorgeschlagen, um die Dimension des Merkmalsvektors in der chinesischen Dokumentenklassifikation unter Verwendung des genetischen Algorithmus zu reduzieren. Durch die bloße Auswahl der viel „wichtigeren“ Merkmale reduziert das vorgeschlagene Verfahren die Anzahl der chinesischen Merkmalswörter erheblich. Experimente in Kombination mit mehreren relativen Studien zeigen, dass die vorgeschlagene Methode eine große Wirkung auf die Dimensionsreduktion mit geringem Verlust der korrekt klassifizierten Rate hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01510-6_55 61ef9eb1a88b76ec15349ddfd5e38bef;de;;;7.2.;;;Evaluation der Jamendo-Datenbank als Trainingsset zur automatischen Genreerkennung Die Forschung zur automatischen Musikklassifikation hat in den letzten Jahren aufgrund einer deutlichen Zunahme der Musiksammlungen an Bedeutung gewonnen. Musik ist sehr einfach über die Mobil- und Internetdomäne verfügbar, daher besteht die Notwendigkeit, Musik zu verwalten, indem sie für die Suche und Entdeckung kategorisiert wird. Dieses Papier konzentriert sich auf die Musikklassifikation nach Genre, die eine Art von überwachtem Lernen orientiertem Problem ist. Das heißt, um ein formales Klassifikatormodell zu erstellen, muss es mit annotierten Daten trainiert werden. Forscher müssen ihre eigenen Trainingssets aufbauen oder auf andere zurückgreifen, die in der Regel in der Größe oder aufgrund von Urheberrechtsbeschränkungen begrenzt sind. Der in diesem Artikel beschriebene Ansatz besteht darin, die öffentliche Jamendo-Datenbank zum Trainieren des ausgewählten Klassifikators für die Genreerkennungsaufgabe zu verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35455-7_27 7f7fefe384b2c8c9349f4e1d23365cae;de;;;7.1.;;;Herausforderungen für integrierte Design- und Bereitstellungsteams in AEC In diesem Papier werden die kritischen Faktoren für das Management von Teams für integrierte Entwurfs- und Bereitstellungslösungen (IDDS) erörtert, die darauf abzielen, BIM-Tools, -Prozesse und -Fähigkeiten bei verschiedenen Interessengruppen wie Architekten, Beratern, Auftragnehmern und Lieferanten während des Projektlebenszyklus einzubeziehen. Da es sich bei IDDS um eine junge Entwicklung handelt, sind die damit verbundenen Teamwork-Faktoren und Herausforderungen bei der Implementierung derzeit nicht gut verstanden. Dieser Beitrag berichtet über die Ergebnisse einer Forschung, die diese Lücke untersucht und die Grundlage für zukünftige Forschungsrichtungen bildet. Die in diesem Papier berichteten Ergebnisse basieren auf Fokusgruppeninterviews mit Vertretern führender Organisationen im australischen und finnischen Bausektor. Anhand des Konstrukts mentaler Modelle werden die kritischen Faktoren für ein IDDS-Team untersucht und diskutiert. Diese Forschung untersucht insbesondere die kritischen Aufgaben-, Prozess-, Kontext- und Kompetenzfaktoren, die für die IDDS-Teams spezifisch sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41501-2_63 2e64c222c58d74eed64fef61beb37840;de;;;7.1.;;;Best Practices bei der Gestaltung einer bürgerorientierten Krisenmanagementplattform Durch einen Überblick über die aktuelle Praxis, Forschung und wichtige aktuelle Projekte untersucht dieses Kapitel eine Reihe von technologischen Aspekten des zeitgenössischen Krisenmanagements, um einige Best-Practice-Richtlinien für die Designer von Krisenmanagementplattformen zusammenzustellen. Insbesondere die Erfahrungen aus dem europäischen ATHENA-Projekt fließen in die Leitlinien ein. Zu den behandelten Aspekten gehören die Nutzung sozialer Medien, die Vermeidung von Informationsüberflutung, die Art der zu verwendenden Benutzerschnittstellen, die Verwendung intelligenter mobiler Geräte und Anwendungen sowie die automatisierte Bewertung der Glaubwürdigkeit und Priorität von Informationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-52419-1_5 ba8ed2fe55c8ab00778502b0d7a596da;de;;;7.1.;;;Performance Management: Eine Geschäftsprozesssicht Der Performance-Management-Prozess wird als geschlossenes Kontrollsystem angesehen, das Richtlinien und Strategien einsetzt und Feedback von verschiedenen Ebenen erhält, um die Leistung des Unternehmens zu steuern. Das Performance Measurement System ist das Informationssystem, das das Herzstück des Performance Management Prozesses ist und für das effektive und effiziente Funktionieren des Performance Management Systems von entscheidender Bedeutung ist. Forschung Identifizierte zwei kritische Elemente in Bezug auf Inhalt und Struktur des Leistungsmesssystems, diese sind: Integrität und Einsatz. Das Viable Systems Model (VSM) bietet einen Rahmen zur Bewertung der Integrität des Leistungsmesssystems. Das für integrierte Leistungsmesssysteme entwickelte Referenzmodell bietet einen Rahmen, anhand dessen Leistungsmesssysteme entworfen und geprüft werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35067-7_25 270442feb7ae3e7fe53efe029e6036fc;de;;;7.1.;;;Die Konzeption eines Informationssystemprojekts Informationssysteme ändern sich ständig. Sie sind untrennbare Teile von Organisationen, die dynamische, sich ständig verändernde Einheiten sind. Wenn ein Unternehmen wächst, müssen sich seine Informationssysteme ändern, um eine größere Informationsmenge zu bewältigen, zusätzliches Büropersonal eingestellt, eine effektivere Organisationsstruktur eingeführt, ein Faxgerät oder ein neuer Computer installiert werden. Informationssysteme ändern sich auch von Tag zu Tag, normalerweise informell, und nehmen relativ geringfügige Änderungen der Informationsverarbeitungsverfahren vor, um den sich ändernden Anforderungen der Umgebung, in der sie tätig sind, gerecht zu werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-14813-4_2 e16a63f3ef8340e5f1c77aa4fc7ad046;de;;;7.1.;;;Analyse der menschlichen Rolle in Planung und Terminierung durch Systemdynamik Ein Systemdynamikmodell wird vorgeschlagen, um die menschliche Rolle bei Planung und Terminierung zu analysieren. Basierend auf den Interviewforschungsergebnissen werden Planungs- und Dispositionsaktivitäten in produzierenden Unternehmen untersucht. Durch die Auswahl wichtiger Elemente in der Planung und Terminplanung wird ein Modell der menschlichen Rolle unter Annahme einer einfachen Fertigungsumgebung entwickelt. In den Simulationsexperimenten werden zwei Modi des Modells untersucht, und die Ergebnisse zeigen die Bedeutung der menschlichen Rolle bei der Glättung der Arbeitsbelastung durch vorausschauende Entscheidungen und bei der Verringerung der Unsicherheit durch das Sammeln von Informationen und die Koordination von Planungs- und Terminierungsaktivitäten.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-74157-4_35 19feb76e16c038797cc00879a45beae4;de;;;7.1.;;;Automatisierte Planung zur Unterstützung wissensintensiver Prozesse Wissensintensive Prozesse (KiPs) sind Prozesse, die sich durch eine hohe Unvorhersehbarkeit und Dynamik auszeichnen. Ihre Prozessstruktur ist möglicherweise vor ihrer Ausführung nicht bekannt. Eine Möglichkeit, dieser Unsicherheit zu begegnen, besteht darin, Entscheidungen bezüglich der Prozessstruktur auf die Laufzeit zu verschieben. In diesem Beitrag betrachten wir die Definition der Prozessstruktur als Planungsproblem. Unser Ansatz verwendet automatisierte Planungstechniken, um Pläne zu generieren, die Prozessmodelle gemäß dem aktuellen Kontext definieren. Das generierte Planmodell basiert auf einem Metamodell namens METAKIP, das die Grundelemente von KiPs darstellt. Unsere Lösung untersucht Markov-Entscheidungsprozesse (MDP), um Planmodelle zu generieren. Diese Technik ermöglicht die Darstellung der Unsicherheit durch die Definition von Zustandsübergangswahrscheinlichkeiten, was uns mehr Flexibilität als herkömmliche Ansätze gibt. Wir konstruieren ein MDP-Modell und lösen es mit Hilfe des PRISM Model-Checkers. Die Lösung wird durch einen Proof of Concept im medizinischen Bereich evaluiert, der die Machbarkeit unseres Ansatzes aufzeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-49418-6_7 c90bcd3c763fa2814523a2de83d04d3b;de;;;7.1.;;;Aspekte der MES/ERP-Integration der Fertigungsautomatisierung Der Beitrag widmet sich der Beschreibung von Problemen, die bei der funktionalen Modellierung unterschiedlicher Informationssysteme in großen Unternehmen auftreten. Die Effektivität der Unternehmensführung wird durch die gemeinsame Nutzung von Informationssystemen gewährleistet, die nur durch flexibles Datenmanagement gesteigert werden kann. Moderne Trends in der Fertigung erfordern die Integration zwischen den bestehenden informationstechnischen Subsystemen der Fertigung, um ein umfassendes Unternehmensinformationssystem zu schaffen. Konkrete Beispiele für typische Unternehmensinformationssysteme wie das Manufacturing Execution System (MES) und das Enterprise Resource Planning (ERP) System wurden berücksichtigt. Es wurden spezifische MES/ERP-relevante Daten definiert und deren Funktionalitäten sich gegenseitig duplizieren. Darauf aufbauend wurden Ansätze zur MES/ERP-Datenintegration vorgeschlagen. Darüber hinaus wird hier ein neuer Mechanismus zur Verbesserung und Implementierung vertikaler Integration vorgeschlagen, der auf der Einführung der externen Schnittstellen basiert, die einige MES/ERP-Funktionalitäten abdecken können. Dieses Thema ist wichtig, weil es die vollwertige Integration von Informationssystemen ermöglicht, die eine flexible Manipulation der Daten ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-40724-7_2 444f112a0b035b8a6733b28f87ef9594;de;;;7.1.;;;Die Rolle eines Entscheidungsunterstützungssystems bei der Anwendung des Waldökosystemmanagements in Nordostchina Waldökosysteme bieten eine Vielzahl von Dienstleistungen und das Waldökosystemmanagement (FEM) ist ein effektiver Ansatz, um die Dienstleistungen zu maximieren. Aufgrund der Komplexität von Waldökosystemen können die Anwendungen von FEM mit Entscheidungsunterstützungssystemen (DSS) erleichtert werden, die ökologische und sozioökonomische Variablen erkennen und einbeziehen. Mit der rasanten Entwicklung der Rechen- und Informationstechnologien wurde DSS in vielerlei Hinsicht weiterentwickelt. Die traditionelle Waldbewirtschaftung innerhalb einer Forsteinheit in China ist jährlich geplant. Die Planung selbst bleibt in erster Linie ein mündliches Konzept, da keine quantitativen Entscheidungshilfen zur Verfügung stehen, um das Konzept in Waldbewirtschaftungsmaßnahmen umzusetzen. Für die Zwecke der FEM auf Managementebene wurde ein Forstmanagement-DFF, FORESTAR®, im Rahmen von Geoinformationssystemen (GIS) und Waldmodellen entwickelt. Das Paper erläuterte die intelligenten Modellierungsmechanismen und zeigte, wie die Anwendungen von FEM mit den Anwendungen von FORESTAR® verstärkt werden können.;-;-;-;https://link.springer.com/article/10.1007/s11431-006-8102-4 7bcda4c5646a2a2776e177fc97a8b501;de;;;7.2.;;;Ein Ausblick auf Website-Evaluierungstools basierend auf Ereignisprotokollen Die Vielfalt der auf Ereignisprotokollen basierenden Bewertungstools für Websites wächst, aber einige ihrer Grenzen sind bereits sichtbar (z. Einige dieser Eigenschaften führen zu gekoppelten Systemen und verteuern die Konfiguration und Nutzung dieser Tools. Diese Arbeit zielt darauf ab, die Hauptmerkmale und Schwächen dieser Werkzeuge aufzuzeigen. Es ist zu erwarten, dass die Diskussion und die in diesem Papier aufgezeigten Anforderungen Entwicklern von Bewertungsinstrumenten helfen könnten, konsolidierte Ideen wiederzuverwenden und identifizierte Schwächen zu vermeiden;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09678-0_9 32f54a3c51d39bd744de39715a15206a;de;;;7.2.;;;Zu den Beiträgen von Themen zur Systemevaluation Wir betrachten die Auswahl guter Teilmengen von Themen für die Systembewertung. Es wurde bereits vorgeschlagen, dass einige einzelne Themen und einige Teilmengen von Themen besser für die Systembewertung geeignet sind als andere: Bei begrenzten Ressourcen kann die Auswahl der besten Teilmenge von Themen eine deutlich bessere Vorhersage der Gesamtsystemeffektivität ergeben als (zum Beispiel) die Auswahl zufälliger Teilmengen. Frühere experimentelle Ergebnisse werden mit besonderem Bezug auf die Verallgemeinerung erweitert: die Fähigkeit einer Teilmenge von Themen, die auf der Grundlage einer Sammlung von Systemläufen ausgewählt wurde, bei der Bewertung einer anderen Sammlung von Systemläufen gute Leistungen zu erbringen. Es erweist sich als schwierig, Generalisierbarkeit herzustellen, es ist überhaupt nicht klar, dass es möglich ist, Teilmengen von Themen zu identifizieren, die für eine allgemeine Bewertung gut sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20161-5_14 373ec15452519e7c8cb515d51c93fa63;de;;;7.2.;;;Feedback-Modell für den Microblog-Abruf Die Suche nach Informationen in Microblog-Diensten ist für soziale Netzwerke üblich und notwendig geworden. Das Abrufen von Microblogs ist jedoch im Vergleich zum Abrufen von Webseiten aufgrund des schwerwiegenden Vokabular-Mismatch-Problems und der ungleichmäßigen zeitlichen Verteilung relevanter Dokumente eine besondere Herausforderung. In diesem Papier schlagen wir ein Feedback-Modell vor, das ein Feedback-Sprachmodell und ein Abfrageerweiterungsmodell umfasst, das sowohl lexikalische als auch zeitliche Erweiterungen berücksichtigt. Experimente mit TREC-Datensätzen haben gezeigt, dass unser vorgeschlagenes Modell die Sucheffektivität gegenüber Standard-Baselines, dem rein lexikalischen Expansionsmodell und dem nur zeitlichen Abrufmodell verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-18120-2_31 c0dcce2716db46b5da08e9da25ee41fa;de;;;7.1.;;;Verbesserung der Vorteile durch die Einführung von IT im Gesundheitswesen durch Design-Science-Forschung: Präsentation einer einheitlichen Anwendung des IT Capability Maturity Framework und des elektronischen Patientenakten-Annahmemodells Dieses Papier beschreibt, wie 16 Akutkrankenhäuser aus ganz Europa und Nordamerika einen ganzheitlicheren Ansatz für die Strategie, Implementierung und den Betrieb von elektronischen Patientenakten (EMR) und allgemeinen IT-Diensten planen konnten. Das Papier skizziert einen entwurfswissenschaftlichen Ansatz im Bereich der Informationssysteme (IS) zur Entwicklung und Anwendung bisher separat genutzter IS-Management-Artefakte, nämlich des IT Capability Maturity Framework (von IVI) und des EMR-Adoptionsmodells (von HIMSS Analytics). Die Entwicklung neuartiger Artefakte für ihre gemeinsame Nutzung ermöglicht es Gesundheitsorganisationen, ihre Leistung systematisch zu verbessern und Vorteile aus erhöhten EMR-Investitionen leichter zu realisieren. Diese einheitliche Anwendung wurde durch Fallstudien zur Einführung neuer Technologien für das Gesundheitswesen ergänzt. Die kombinierten Vorteile dieses Ansatzes ermöglichen es Akutkrankenhäusern, Verbesserungen der IT-Kapazität ganzheitlich zu planen, um bessere eHealth-Ergebnisse zu erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-04090-5_12 682f370848bf1726e8ed52fc0a96a4f2;de;;;7.1.;;;Lokale Suche nach einem Planungsproblem bei der Frachtmontage Wir betrachten ein reales Planungsproblem bei der Frachtmontage, das in einer Kohlelieferkette auftritt. Die Ladungen werden auf dem Lagerplatz eines Hafenterminals aus Kohle gebaut, die von Zügen angeliefert wird. Anschließend werden die Ladungen auf Schiffe verladen. Nur eine begrenzte Anzahl ankommender Schiffe ist im Voraus bekannt. Ziel ist es, die durchschnittliche Verspätung der Schiffe über einen langen Planungszeitraum zu minimieren. Wir modellieren das Problem in der Constraint-Programmiersprache MiniZinc und entwerfen ein großes Nachbarschaftssuchschema. Wir vergleichen mit (einer erweiterten Version davon) einer gierigen Heuristik für das gleiche Problem.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07046-9_12 f423f51d92683ce66396c8d644567bbd;de;;;7.1.;;;Zeit- und Uhrzeitinformationssysteme: Konzepte und grobe Fuzzy-Petrinetz-Modelle Basierend auf Beobachtungen zur Zeit und ihrer Messung werden ungefähre Zeitfenster relativ zu vage bekannten Partitionen von Zeitintervallen eingeführt. Zeitfenstermessungen werden relativ zu den Dauern zwischen dem Abfeuern von Übergängen in Petri-Netzen definiert. Die Unbestimmtheit der Aufteilungen eines Zeitfensters rührt von einem Mangel an klarer Kenntnis der Fristen her, die den von Agenten ausgeführten Aktivitäten (Aufgaben) auferlegt werden Klasse der unscharfen Petrinetze eingeführt, nämlich grobe unscharfe Petrinetze. Im Zusammenhang mit ungefähren Zeitfenstern zum Überwachen der Zeit, die von Agenten verbraucht wird, die zeitbeschränkte Aufgaben ausführen, werden grobe Fuzzy-Petrinetzmodelle von Taktrepräsentationssystemen angegeben. Mehrere Beispiel-Informationssystemtabellen und Näherungen mit groben Sätzen werden ebenfalls angegeben. Ein Stichprobenentscheidungssystem wird auch relativ zu Fuzzy-Aggregationen beobachteter Dauern konstruiert. Unser Ansatz basiert auf der Methode der groben Mengen zur Konstruktion von Entscheidungssystemen und neueren Arbeiten zur Modellierung von Uhren mit Fuzzy-Sets.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-1883-3_21 b5788a798b3d6cf2d88c4e1fdf2df2d8;de;;;7.1.;;;Grüne Fabrikplanung Die Planung grüner Fabriken impliziert eine erhöhte Komplexität in Abhängigkeit von spezifischen Planungsanforderungen und widersprüchlichen Planungszielen, diese Aspekte fordern gegenwärtige Methoden und Werkzeuge der Fabrikplanung heraus. Um diesen Herausforderungen mit begrenzten Zeit- und Ressourcenressourcen (typisch für Planungsprojekte) angemessen zu begegnen, muss ein Fabrikplanungsansatz, der sich besonders mit Grün befasst, an spezifische Fälle anpassbar und auf die grüne Vision der Fabrik ausgerichtet sein. Dieses Papier schlägt eine modulare Grüne Fabrikplanung vor und beschreibt ihre Hauptkomponenten. Die konzeptionellen Elemente für ein Framework und einen Planungsprozess werden vorgestellt und Unterschiede in Methoden und Werkzeuganwendungen im Vergleich zu etablierten Ansätzen beschrieben. Die Methode und Werkzeuge werden zu Planungsmodulen zusammengefasst, verbunden mit einem klaren Informationsfluss sowie einer Verantwortungsdefinition. Ein Anwendungsfall für ein typisches Modul, das den Energieverbrauch speziell berücksichtigt, zeigt das Potenzial von Grün als integrierte Vision für die Fabrikplanung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41266-0_21 9d8137e617489d51a0910b19bcb0f7c5;de;;;7.1.;;;Wissensentdeckung und -integration: Eine Fallstudie zum Unterstützungssystem für die Wohnplanung Verschiedene wissensbezogene Informationen sollten nach System gesammelt und gefiltert werden, um Wissen in einer Umgebung mit mehreren Wissensrepräsentationen zu entdecken und zu integrieren. Insbesondere existieren im Bereich der Wohnungsplanung verschiedene Informationen in mehreren Formen und in getrennten Bereichen, wie z. Ein wohnungspolitisches Unterstützungssystem ist erforderlich, um eine angemessene räumliche Entscheidung für das Angebot von Wohnraum zu treffen, wenn eine Wohnungsnachfrage auftritt. Daher schlägt dieses Papier einen konzeptionellen Entwurf eines Systems zur Wissensentdeckung und Integration in die Unterstützung der Wohnungsplanung vor. Dieses System verwendet ein GIS-basiertes Mapping-Modell für Wohnungsnachfrage und -angebot (HDSMM), um politische Entscheidungen unter Verwendung von Wohnungsstatistiken und geografischen Informationen zu unterstützen und aus mehrdimensionalen Analysen und politischen Überwachungsfunktionen zu bestehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40675-1_44 8a32619c1d344599ca1138d268890748;de;;;7.2.;;;Ein Bewertungsmodell basierend auf experimentellen Methoden zur Gestaltung von Hypermedia-Benutzeroberflächen Wir wollen ein Bewertungsmodell motivieren, das auf der Anwendung experimenteller Methoden basiert. Beispiele aus unserer Forschung zeigen, wie sich hypermediale Systeme und die von ihnen gelieferten Informationen mit diesem Ansatz systematisch verbessern lassen. Die Benutzerakzeptanz, die Qualität und Geschwindigkeit der Performance, die genaue Verfolgung aller Benutzer-Computer-Interaktionen und schließlich der Vergleich sinnvoller alternativer Systemdesigns bilden den Kriterienkatalog, der den Bewertungsprozess leitet. Darüber hinaus wird gezeigt, dass auch informelle Evaluierungstechniken, die häufig im User Interface Design verwendet werden, leistungsstärker werden, wenn sie in experimentell angelegten Studien angewendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45743-2_11 5c7b8ac484214780dd84775d554b4dae;de;;;7.2.;;;Ein vollständig computergestützter Delphi-Prozess mit einem Multi-Agenten-System Auf der Suche nach alternativen Möglichkeiten zur Koordination von Agenten untersucht dieses Papier die Anpassung des Delphi-Protokolls an Agentensysteme. Das Delphi-Protokoll kann angewendet werden, wenn eine Expertengemeinschaft eine einvernehmliche Antwort liefern muss. Konsens steht in diesen Fällen dafür, dass sich die Experten darüber einigen, wie die Antwort lauten soll. Dieses Problem der Konsensfindung wurde bereits in der Literatur berücksichtigt, seine Automatisierung bleibt jedoch eine Herausforderung. Intuitiv sollten die Experten in Dialog treten, Ideen austauschen und ihre Meinung im Verlauf der Diskussion ändern. Dieser Beitrag stellt eine Computerisierung der Diskussion zwischen Expertenagenten vor und zeigt, wie sie mit Hilfe des Delphi-Prozesses zu einer Abschlussdiskussion geführt werden können. Der Machbarkeitsnachweis erfolgt mit einem Dokumentrelevanzbewertungsproblem, bei dem eine Expertengemeinschaft entscheidet, ob ein Dokument relevant ist oder nicht. Zusammenfassend lässt sich sagen, dass dieses Papier einen wichtigen Beitrag für Anwender von Delphi-Prozessen leistet, da das vorgestellte System der erste vollständig computerisierte Delphi-Prozess ist. In Bezug auf Multi-Agenten-Systeme hat es das Potenzial, Koordination auf originelle Weise zu lösen, die sich von allem, was bisher gemacht wurde, unterscheidet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03278-3_8 3851b89314f01d20a964638dcd2236e2;de;;;7.2.;;;Hinzufügen von Taxonomien, die durch Content-Clustering erhalten wurden, zur semantischen Analyse sozialer Netzwerke In diesem Beitrag wird eine neuartige Methode zur Analyse von Kommunikationsinhalten in sozialen Netzwerken vorgestellt. Content-Clustering-Methoden werden verwendet, um eine Taxonomie von Konzepten aus jedem analysierten Kommunikationsarchiv zu extrahieren. Diese Taxonomien sind hierarchische Kategorisierungen der in den analysierten Kommunikationsarchiven diskutierten Konzepte. Konzepte basieren auf Begriffen, die aus dem Inhalt der Kommunikation extrahiert wurden. Die daraus resultierende Taxonomie bietet Einblicke in die Kommunikation, die durch herkömmliche soziale Netzwerkanalysen nicht möglich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14481-3_11 5724153a4064346dfe0375b8bd62cf30;de;;;7.2.;;;Eine experimentelle Bewertung von Informationsvisualisierungstechniken und Entscheidungsstilen Diese Studie zielt darauf ab, zu untersuchen, inwieweit Informationsvisualisierungstechniken (IV) und Entscheidungsstile die Entscheidungsleistung und Benutzerpräferenzen in einer entscheidungsunterstützenden Umgebung beeinflussen. Die Studie verwendete eine experimentelle Methode. Erkenntnisse aus dieser Studie liefern theoretische, empirische und praktische Beiträge. Die Ergebnisse zeigten, dass es signifikante Unterschiede in der Entscheidungsleistung und Benutzerpräferenz zwischen IV-Techniken und Entscheidungsstilen gab. Die Ergebnisse haben wichtige Implikationen für die Designer von Entscheidungsunterstützungssystemen (DSS) und liefern wichtige Forschungsfragen für zukünftige Arbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73107-8_16 0f5720f44e0fa77e7c73f29867d1f7bb;de;;;7.1.;;;Prozessdesignmuster im Notfallmanagement Notfallmanagement ist eine Disziplin des Umgangs mit und der Vermeidung von Risiken. Im Notfall ist ein sofortiges und schnelles Eingreifen erforderlich. Dies ist nur durch gut vorbereitete Notfallpläne und eine angemessene Softwareunterstützung möglich. Ziel dieses Beitrags ist es daher, die gemeinsamen Merkmale der Prozessmodellierung innerhalb des Notfallmanagements zu fokussieren und die für diesen Bereich typischen Gestaltungsmuster zu definieren. Diese Design Patterns ermöglichen eine schnellere und einfachere Erstellung von Notfallprozessen und Notfallplänen sowie eine anschließende Softwareunterstützung. Sie ergeben sich aus der aktuellen Dokumentation und Gesetzgebung. Jedes Entwurfsmuster stellt keinen endgültigen Notfallprozess dar, sondern nur eine bestimmte Struktur, die erforderlich ist, um sie an die aktuellen Benutzeranforderungen weiter anzupassen. Konkret wurden 16 Design Patterns identifiziert und auf weiteren Managementebenen beschrieben. Die vorliegende Form der Entwurfsmuster ist das Ergebnis der Konsolidierung vieler realer Prozesse des Notfallmanagements, die in mehreren Forschungsprojekten oder einer Reihe von gezielten Interviews mit Notfallmanagementexperten entstanden und verifiziert wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-15994-2_44 6d301cb50ec34624751df9dc719ff75b;de;;;7.2.;;;Entwicklung einer quantitativen Usability-Bewertungsmethode Um die Attraktivität von Computersystemen zu erhöhen und die Benutzerfreundlichkeit zu verbessern, werden verschiedene Bewertungsmethoden praktiziert. Die Autoren haben eine quantitative Usability-Bewertungsmethode entwickelt, die anhand einer Checkliste ein Bewertungsverfahren skizziert und Bewertungsmaßstäbe verdeutlicht. In diesem Beitrag wird diese quantitative Usability-Bewertungsmethode beschrieben, die nicht vom subjektiven Eindruck eines Bewerters beeinflusst wird. Darüber hinaus machen solche klaren und präzisen Definitionen Checklisten-basierte Evaluierungen wiederholbarer (und damit zuverlässiger) und weniger von Unterschieden zwischen Evaluatoren beeinflusst. Die Wirksamkeit unserer Checkliste wurde durch die Experimente mit Anfängern und erfahrenen Evaluatoren evaluiert. Dieser Artikel berichtet über die Methode und die Ergebnisse der Experimente.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02574-7_28 ad0d46d7aae6aafc263829684d9432d1;de;;;7.1.;;;Eine Strategie für ein MLS Workflow Management System Aktuelle DoD-Informationssysteme müssen viele verschiedene Missionen durch die Zusammenarbeit mit verschiedenen Organisationen und Verbündeten unterstützen. In der heutigen schnelllebigen und dynamischen Umgebung ist es fast unmöglich, für jede Mission ein anderes Informationssystem zu entwerfen und zu implementieren. Daher benötigt DoD MLS-Workflow-Management-Systeme (WFMS), damit global verteilte Benutzer und vorhandene Anwendungen über Klassifizierungsdomänen hinweg zusammenarbeiten können, um geschäftskritische Ziele zu erreichen. Ein MLS WFMS, das es Benutzern ermöglicht, mehrstufige Missionslogik zu programmieren, weit verteilte Aufgaben sicher zu koordinieren und den Fortschritt des Workflows über Klassifizierungsdomänen hinweg zu überwachen, ist erforderlich. In diesem Papier stellen wir Anforderungen an den MLS-Workflow und eine Strategie zu deren Umsetzung vor, insbesondere die Methode zum Zerlegen eines MLS-Workflows in mehrere einstufige Workflows.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35508-5_11 7818c4b2a6a4e37ecb06fa79df46a8f3;de;;;7.2.;;;Grobe Gültigkeit, Vertrauen und Abdeckung von Regeln in Approximationsräumen Aus der Perspektive des granularen Computings können die bestehenden Begriffe der Gültigkeit, Konfidenz und Abdeckung von Regeln in Approximationsräumen als zu scharf angesehen werden, da die Granularität des Raums im Allgemeinen in ihren Definitionen nicht berücksichtigt wird. In diesem Artikel wird eine Erweiterung des klassischen Ansatzes auf einen allgemeinen groben Fall diskutiert. Wir führen und untersuchen abgestufte Validität, Konfidenz und Abdeckung von Regeln als Beispiele für grobe Validität, Konfidenz bzw. Abdeckung. Die abgestuften Begriffe basieren auf den Konzepten der abgestuften Bedeutung von Formeln und Formelsätzen, die in unseren früheren Arbeiten untersucht wurden. Unter anderem verfeinern und erweitern die Begriffe abgestufte Validität, Vertrauen und Abdeckung die klassischen Formen, indem sie Informationsgranulate berücksichtigen, die auf Objekte eines Näherungsraums gezogen werden.;-;-;-;https://link.springer.com/chapter/10.1007/11427834_3 cbfcb1a6a17a4c096791d40ce0546b90;de;;;7.1.;;;Überbrückung der Lücke zwischen serviceorientierten und objektorientierten Architekturen in der Entwicklung von Informationssystemen Die populärsten Entwicklungsmethoden des letzten Jahrzehnts basieren auf objektorientierten Techniken. Ziel dieser Arbeit ist es, die Möglichkeiten einer Erweiterung der objektorientierten Methodik der Informationssystementwicklung um einen serviceorientierten Ansatz zu untersuchen und den Nutzen dieser Erweiterung zu untersuchen. Wir schlagen eine Erweiterung einer objektorientierten Methodik namens BORM vor, die serviceorientierte Techniken beinhaltet. Um die Vorteile dieser Kombination zu demonstrieren, wurde die erweiterte Methodik angewendet und ihre Eigenschaften bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09682-7-9_10 b64d48ec6eb6aa5dc61ef3cf9a2e2ce3;de;;;7.1.;;;Straßenleitsystem als wesentlicher Bestandteil der nachhaltigen Entwicklung und Umsetzung der Smart City-Konzeption Obwohl Street Addressing (SA) ein bekanntes Konzept zu sein scheint, wird es und sein Beitrag zu den Initiativen Urban Economics, Smart Cities (SC) und Sustainable Development (SD) falsch verstanden. Die Rolle von SA bei Planung, Bau und Betrieb von SC bleibt unklar. Die Berücksichtigung von SA als sozio-technisches System und zugrundeliegender Teil der IKT-Dienste ermöglichte die Formulierung von Besonderheiten des SA-Systems zur Umsetzung der SC-Konzeption [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71846-6_7 d12b455d57cbeada644d0e245df8665d;de;;;7.2.;;;Die Interpretation von CAS Es wurde viel darüber diskutiert, wie die Struktur in Abfragen zu interpretieren ist, die Strukturhinweise enthalten. Bei INEX 2003 und 2004 gab es zwei Interpretationen: SCAS, bei dem das vom Benutzer angegebene Zielelement streng interpretiert wurde, und VCAS, bei dem es vage interpretiert wurde. Aber wie viele Möglichkeiten gibt es, die Abfrage zu interpretieren? In der Untersuchung bei INEX 2005 (hier diskutiert) wurden vier verschiedene Interpretationen vorgeschlagen und auf die gleichen Fragen verglichen. Diese Interpretationen (SSCAS, SVCAS, VSCAS und VVCAS) sind die vier möglichen Interpretationen, indem die Zielelemente und die Stützelemente entweder streng oder vage interpretiert werden. Eine Analyse der eingereichten Läufe zeigt, dass diejenigen, die eine Interpretation des Zielelements teilen, korrelieren – dh die vorherige Entscheidung, CAS in SCAS und VCAS zu unterteilen (wie bei INEX 2003 und 2004), richtig war. Die Analyse wird durch die Tatsache unterstützt, dass der VSCAS-Lauf mit der besten Leistung an die VVCAS-Task und der SVCAS-Lauf mit der besten Leistung an die SSCAS-Task gesendet wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-34963-1_5 ee522d329fbb877e1da1619102a58730;de;;;7.2.;;;Abrufen von Fotos aus persönlichen Erinnerungen mit generischen Konzepten In diesem Whitepaper werden Techniken zum Abrufen von Fotos aus persönlichen Erinnerungssammlungen unter Verwendung allgemeiner Konzepte vorgestellt, die von den Benutzern festgelegt werden. Es ist Teil eines größeren Projekts zum Erfassen, Speichern und Abrufen persönlicher Erinnerungen in verschiedenen Nutzungskontexten. Semantische Konzepte werden durch Trainieren binärer Klassifikatoren unter Verwendung des Regularized Least Squares Classifier (RLSC) erhalten und können kombiniert werden, um komplexere Konzepte auszudrücken. Die bisher erzielten Ergebnisse sind recht gut und durch Hinzufügen weiterer Low-Level-Features sind bessere Ergebnisse möglich. Das Papier beschreibt den vorgeschlagenen Ansatz, den Klassifikator und die Merkmale sowie die erzielten Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/11922162_73 6c063d30eb6dbc27f491fd70b48cf12c;de;;;7.1.;;;Städtische Entwässerung als Teil des Flussgebietsmanagements Wasser im urbanen Raum und die städtische Regenentwässerung als Teil der urbanen Infrastruktur sind Themen, die in den letzten Jahren an Bedeutung gewinnen. Die Gründe dafür sind die offensichtliche Notwendigkeit eines integrierten Ansatzes für die Siedlungswasserwirtschaft und ein verstärktes öffentliches Bewusstsein für die Verschmutzung durch städtische Abwässer, die sowohl die städtischen Gebiete selbst als auch die aufnehmenden Gewässer betreffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1818-9_21 65edc5c1a794d4f64a2d8c0565dbc423;de;;;7.1.;;;Workarounds und Grenzüberschreitungen in einem High-Tech-Optronik-Unternehmen: Die Rolle kooperativer Workflow-Technologien In dieser Studie wird untersucht, wie einige Mitarbeiter mit den Ausnahmen umgegangen sind, die sie bei der fortwährenden Nutzung einer kooperativen Workflowtechnologie in einem Optronikunternehmen hatten. Anhand des Fallmaterials wird in diesem Beitrag aufgezeigt, dass Ansätze, die Arbeit als durch die formale Autorität der Hierarchie plan- und steuerbar ansehen, unzureichend sind. Stattdessen wird in diesem Papier vorgeschlagen, dass Ausnahmebehandlung, Workarounds und Improvisation charakteristischer für menschliche Aktivitäten sind. Computergestützte kooperative Arbeit wird als eingebettet in eine dynamische Beziehung zwischen dem Kontext, in dem sie sich befindet, und den daran beteiligten Akteuren verstanden. Die der Ethnographie zugrunde liegenden Prinzipien haben einen fundierten Forschungsansatz.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008795025075 256b1212d18e59e0cde6b24b28ad1428;de;;;7.1.;;;EMR-Implementierung: Erkenntnisse aus ERP Die Einführung elektronischer Krankenakten ist eine Strategie zur Verbesserung der Gesundheitsversorgung in den Vereinigten Staaten, und es gibt nationale Bemühungen, Mittel für den Erstkauf von EMR-Systemen bereitzustellen. Der Einsatz von IT, um die klinische Gesundheitsversorgung effizienter und effektiver zu machen, ist bekannt. Neuere Artikel im Gesundheitswesen weisen jedoch darauf hin, dass 20 bis 30 % der elektronischen Patientenaktensysteme (EMR) innerhalb eines Jahres nach der Implementierung versagen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-17587-4_2 3b7942f88d414dd01c3e0b1ff6306f6a;de;;;7.2.;;;Ein neuer Ansatz für den Vergleich von Fuzzy-Objekten Eines der wichtigsten Probleme in Fuzzy-Datenbanken ist der Umgang mit dem Auftreten von Unklarheiten, Ungenauigkeiten und Unsicherheiten. Geeignete Ähnlichkeitsmaße sind erforderlich, um Objekte zu finden, die nahe bei anderen gegebenen Fuzzy-Objekten sind oder in einer vagen Benutzerabfrage verwendet werden. Solche Ähnlichkeitsmaße könnten auch in der Fuzzy-Datenbank oder sogar in der klassischen relationalen Datenbankmodellierung verwendet werden. In diesem Artikel schlagen wir eine neue Familie von Ähnlichkeitsmaßen vor, um zwei mit Fuzzy-Attributen beschriebene Fuzzy-Objekte zu vergleichen. Dies geschieht durch Vergleichen der entsprechenden Attribute der Objekte unter Verwendung einer Verallgemeinerung des euklidischen Distanzmaßes in Fuzzy-Sets. Der Vergleich wird für zwei Fälle durchgeführt: Fuzzy-Attribut/Fuzzy-Attribut-Vergleich und scharfer Attribut/Fuzzy-Attribut-Vergleich. Jeder Fall wird mit experimentellen Beispielen untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14058-7_12 3064e08cb1b5644714523ae68d332e73;de;;;7.2.;;;Regionsbasierte semantische Ähnlichkeitspropagation für den Bildabruf Um die Lücke zwischen Low-Level-Bildmerkmalen und High-Level-Bildsemantik zu verringern, wurden verschiedene langfristige Lernstrategien in das inhaltsbasierte Bildabrufsystem integriert. Die Strategien nutzen immer die semantischen Beziehungen zwischen Bildern, um die Effektivität des Retrieval-Systems zu verbessern. Dieser Artikel schlägt eine Methode der semantischen Ähnlichkeitspropagation vor, um die verborgenen semantischen Beziehungen zwischen Bildern zu untersuchen. Die semantischen Beziehungen werden zwischen den ähnlichen Bildern und Regionen propagiert. Experimentelle Ergebnisse bestätigen die Verbesserung der Ähnlichkeitsausbreitung und des Bildwiederauffindens.;-;-;-;https://link.springer.com/chapter/10.1007/11922162_116 260558275d024d915e24357beff1b54d;de;;;7.2.;;;Living Lab Evaluation for Life and Social Sciences Search Platforms - LiLAS auf der CLEF 2021 Meta-Evaluierungsstudien zur Systemleistung in kontrollierten Offline-Evaluierungskampagnen wie TREC und CLEF zeigen einen Innovationsbedarf bei der Evaluierung von IR-Systemen. Der Bereich der wissenschaftlichen Recherche bildet hier keine Ausnahme. Dies könnte damit zusammenhängen, dass die Relevanz in der wissenschaftlichen Suche vielschichtig ist und daher der Aspekt der nutzerzentrierten Bewertung immer wichtiger wird. Das Lab Living Labs for Academic Search (LiLAS) zielt darauf ab, das Konzept der nutzerzentrierten Living Labs für den Bereich der akademischen Suche zu stärken, indem es den Teilnehmern ermöglicht, ihre Retrieval-Ansätze in zwei realen akademischen Suchsystemen aus den Lebenswissenschaften und dem Sozialwesen zu bewerten Wissenschaften. Dazu stellen wir den Teilnehmern Metadaten zum Inhalt der Systeme sowie Kandidatenlisten mit der Aufgabe zur Verfügung, den relevantesten Kandidaten an die Spitze zu ranken. Mit der STELLA-Infrastruktur ermöglichen wir den Teilnehmern, ihre Ansätze einfach in die realen Systeme zu integrieren und bieten gleichzeitig die Möglichkeit, verschiedene Ansätze zu vergleichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72240-1_77 4688b126c8df6020a92ddd8055bb2770;de;;;7.2.;;;Logic-Based Retrieval: Technologie zur inhaltsorientierten und analytischen Abfrage von Patentdaten Die Patentrecherche ist eine komplexe Rechercheaufgabe. Eine anfängliche Dokumentenrecherche ist nur der Ausgangspunkt einer Kette von Recherchen und Entscheidungen, die von Patentrecherchen getroffen werden müssen. Die schlüsselwortbasierte Suche ist für die Dokumentensuche ausreichend, aber nicht für die Modellierung umfassender Suchstrategien geeignet. DB-ähnliche und logische Ansätze sind die modernsten Techniken zur Modellierung von Strategien, Argumentation und Entscheidungsfindung. In diesem Beitrag stellen wir die Anwendung des Logical Retrieval auf die Patentrecherche vor. Die beiden großen Herausforderungen sind Ausdruckskraft und Skalierbarkeit, wobei ein hoher Grad an Ausdruckskraft normalerweise einen Verlust an Skalierbarkeit bedeutet. In diesem Papier berichten wir, wie man die Skalierbarkeit aufrechterhält und gleichzeitig die Aussagekraft des logischen Abrufens bietet, die für die Lösung von Patentrechercheaufgaben erforderlich ist. Wir präsentieren den logischen Retrieval-Hintergrund und zeigen, wie die Auswahl von Datenquellen und die Fusion der Ergebnisse modelliert werden. Darüber hinaus demonstrieren wir die Modellierung einer Retrieval-Strategie, einer Technik, mit der Patentexperten ihre Strategien und Begründungen bei der Suche nach Patenten oder bei der Entscheidungsfindung ausdrücken, speichern und austauschen können. Ein Überblick über die Architektur und technische Details ergänzen das Papier, während die Evaluierung vorläufige Ergebnisse darüber liefert, wie die Bearbeitungszeiten von Anfragen garantiert werden können und wie die Qualität durch den Kompromiss der Reaktionsfähigkeit beeinflusst wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13084-7_9 5a6ddf404eb4bb0555656c8f64820470;de;;;7.2.;;;Modellierung von Gestentrajektorien unter Verwendung von Quasipseudometrie und Prätopologie für deren Auswertung Die Hauptfrage dieser Arbeit beschäftigt sich mit der Schwierigkeit, verschiedene Datentrajektorienmuster insbesondere aufgrund der nicht symmetrischen Eigenschaften zu vergleichen. Um dieses grundlegende Problem in seiner Allgemeinheit aus theoretischer Sicht anzugehen, führen wir die Konzepte der Quasipseudometrie ein, und mit dem induzierten prätopologischen Raum auf den Datensätzen können wir die Nähe zwischen Trajektorien identifizieren. Wir werden die Ideen veranschaulichen, indem wir die Anwendung des theoretischen Rahmens auf die gestische Analyse diskutieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08855-6_13 a17d94cc6621c0006a2a3ac2620d6624;de;;;7.1.;;;Entwurf und Entwicklung eines Business-Continuity-Plans basierend auf kollektiver Intelligenz Dieses Papier schlägt einen methodischen Ansatz vor, der Collective Intelligence bei der Gestaltung und Entwicklung eines Business Continuity Plans (BCP) unterstützt, um das Katastrophenpotenzial in der Organisation zu minimieren. In diesem Rahmen wird Collective Intelligence (CI) durch Web2.0-Technologien unterstützt, die als Diagnosewerkzeug fungieren und der Gemeinschaft einer Organisation die Möglichkeit bieten, mit ihrer kollektiven Erfahrung und ihrer Intelligenz zur Lösung von Faktoren, die den Erfolg beeinflussen, beizutragen des Business Continuity Plans (BCP). Auch E-BCP, die für das BCP entwickelte und von CI unterstützte Plattform, wird vorgestellt. Einige offene Forschungsfragen wurden skizziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37437-1_23 8d4e0d2ea3e532c30d5fced430f85645;de;;;7.1.;;;State of the Art in Architekturen für selbstbewusste Computersysteme In diesem Kapitel betrachten wir den Stand der Technik bei selbstbewussten Computersystemen mit besonderem Fokus auf Softwarearchitekturen. Daher vergleichen wir bestehende Ansätze, die auf Computersysteme mit ähnlichen Eigenschaften wie selbstbewusste Systeme abzielen, mit den Architekturkonzepten für einzelne und kollektive selbstbewusste Systeme, die in den vorherigen Kapiteln diskutiert wurden. Diese Ansätze sind insbesondere Referenzarchitekturen und architektonische Frameworks und Sprachen. Basierend auf diesem Vergleich diskutieren wir offene Herausforderungen für Architekturen von Self-Aware-Computing-Systemen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-47474-8_8 ec71197e46b99c0934b88c1011121acd;de;;;7.1.;;;Einführung der Informationstechnologie: Probleme im Zusammenhang mit der Überarbeitung von Geschäftsprozessen im Übergang Die Einführung von Informationstechnologie wird heutzutage als ein Mittel angesehen, das Organisationen zur Verfügung steht, um ihre Wettbewerbsposition zu verbessern. Es stellt sich jedoch die Frage: „Was macht Verbesserungen in einer Organisation schnell und erfolgreich, aber in einer anderen erfolglos?“ Die Analyse der Implementierungsanforderungen ist von entscheidender Bedeutung, da sie die anfängliche Richtung vorgibt und anschließend die Entwicklung der Verbesserungen leitet. In dieser Arbeit möchten wir die vorgeschlagenen Voraussetzungen und unsere Erfahrungen bei der Implementierung innovativer Prozesse vorstellen, die mit der Überarbeitung der Geschäftsprozesse in einer Organisation im Wandel verbunden sind, mit besonderem Fokus auf die Implementierung von Informationstechnologie. Die Soft-System-Methodik erfordert, dass wir eine Organisation als Ganzes wahrnehmen. In organisatorischen Kontexten ist diese Art der Wahrnehmung stark mit der Führungskraft verbunden, die in der Lage ist, den Verbesserungsprozess in Bezug auf seine Vision oder sein Konzept wahrzunehmen. In diesem Zusammenhang muss betont werden, dass die Technologie heute eine Führungsrolle des General Managements erfordert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34967-1_24 3e39276744a234167693cd33a2d3dc96;de;;;7.1.;;;Agenten im computergestützten kollaborativen Design Für Forscher, die an der Grenze zwischen künstlicher Intelligenz und technischem Design arbeiten, ist der Begriff „Agenten“, die kollaborativ arbeiten, um die Designbemühungen zu unterstützen, nicht neu. Was ist daher die neu entstehende Disziplin der „intelligenten Softwareagenten“ und wie unterscheiden sich Agenten in dieser Disziplin von unserer heutigen Vorstellung von Computerdesignagenten? Tragen die Unterschiede, falls vorhanden, dazu bei, computergestütztes kollaboratives Design voranzubringen? Darüber hinaus, vor welchen Herausforderungen stellt der Ansatz der intelligenten Agenten die Forschungsgemeinschaft für computergestütztes Design? Dieser Beitrag versucht, diese Fragen zu beantworten, indem er die Wirkstoffforschung kurz betrachtet und deren potenzielle Anwendungen in der Architektur, im Maschinenbau und in der Bauindustrie im Allgemeinen und im Ingenieurdesign im Besonderen hervorhebt. Wir argumentieren, dass der agentenbasierte Ansatz eine nützliche Metapher für die Argumentation von Designsystemen darstellt und neue Werkzeuge und Techniken zur Erleichterung des kollaborativen Designprozesses beisteuert. Schließlich demonstrieren wir anhand von zwei Beispielen aus der Bereitstellung von Baulieferketten und dem Gebäudedesign einige der Vorteile, die ein agentenbasierter Ansatz für die computergestützte Planung mit sich bringt, und heben die Hauptherausforderungen hervor, die der Ansatz für die Design-Community stellt.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0030456 0b0d33d454a8d604c40be07ed75eeeb8;de;;;7.1.;;;Design und Engineering für situative Transformation Enterprise Architecture Management (EAM) ist ein Instrument zur Steigerung von Transparenz, Konsistenz, Einfachheit, Flexibilität (d. Da zukünftige Architekturmodelle sowie Evolutionsrichtlinien von Natur aus präskriptiv sind, ist die EAM-Forschung überwiegend designorientiert. Allerdings müssen beim Design und Engineering von präskriptiven Artefakten die Besonderheiten von Problemsituationen berücksichtigt werden. Basierend auf bestehenden Klassifikationen für EAM-Ansätze und für Transformationsprojektsituationen werden die potenziellen Beiträge von EAM in Transformationsprojekten analysiert. Basierend auf dieser Gesamtanalyse wird eine konkrete Transformationssituation ausgewählt und weiter analysiert. Die Clusteranalyse von Umfragedaten wird angewendet, um Auswirkungen und Designkonfigurationen als beispielhafte Problemanalyse für die Spezifikation einer EAM-fähigen Transformation zu identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16770-6_1 70b7c026e92212baff46af18afecf78f;de;;;7.1.;;;Strategische Aspekte für erfolgreiches E-Government-Systemdesign: Erkenntnisse aus einer Umfrage in Deutschland Der Reifegrad der E-Government-Implementierung in Forschung und Praxis hat sich über die Jahre enorm entwickelt. Dennoch sind die Herausforderungen und das allgemeine Wachstum des E-Government in den verschiedenen Ländern unterschiedlich, Studien von Organisationen wie der UN und der Weltbank belegen diese Unterschiede. Um E-Government erfolgreich umzusetzen, müssen Regierungen ihr Verständnis von Aspekten wie Nutzen, Herausforderungen und Erfolgsfaktoren vertiefen. Als Beitrag zu diesem Wissen und Verständnis untersucht das Papier Faktoren für die erfolgreiche Gestaltung und Implementierung von E-Government-Systemen. Der Beitrag präsentiert und analysiert die Literatur und Ergebnisse einer E-Government-Umfrage in Deutschland. Das Papier beleuchtet wichtige Faktoren für eine erfolgreiche E-Government-Implementierung und präsentiert auch Stellungnahmen zu strategischen Aspekten der E-Government-Systemgestaltung mit Bezug auf Deutschland. Es unterstreicht schließlich die Notwendigkeit weiterer Forschung in diesem Bereich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44426-9_25 e52cfbaff3d068d7fda02bf5dbaef352;de;;;7.1.;;;Nachhaltige Ausrichtung in der Unternehmensarchitektur: Eine Fallstudie zu Architekturprinzipien Enterprise Architecture (EA) hat sich als das herausragende Mittel zur Veränderung und Transformation großer Organisationen herauskristallisiert. Durch die Anwendung von Architekturprinzipien streben Organisationen danach, die Komplexität von Geschäftsprozessen und Informationssystemen und deren Ausrichtung zu beherrschen. Trotz der Tatsache, dass das Business-IT-Alignment seit Jahren ein Hauptanliegen von Praktikern und Forschern ist, wurde die aufkommende Natur des Alignments in EA selten berücksichtigt. Auch wenn sich verschiedene Ansätze auf das Alignment der Business-IT konzentrieren, neigen die meisten dazu, sich auf das Alignment als Zustand oder Prozess zu konzentrieren, indem sie sich auf strategische oder organisatorische Fragen konzentrieren. Darüber hinaus bieten nur sehr wenige vorhandene EA-Frameworks klare Anleitungen zur Gestaltung und Verwaltung dieser Ausrichtungsprobleme. In diesem Papier argumentieren wir, dass die Wahl der Architekturprinzipien einen Einfluss auf die Fähigkeit hat, eine nachhaltige EA-Ausrichtung in einem dynamischen Geschäftskontext zu erreichen und aufrechtzuerhalten. Als Grundlage für die Analyse dient eine Fallstudie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11460-6_19 56980cd5588b1ebac2d0394a518785a4;de;;;7.2.;;;Verbesserung der Begriffshäufigkeitsnormalisierung für multithematische Dokumente und Anwendung auf Sprachmodellierungsansätze Die Normalisierung der Begriffshäufigkeit ist ein ernstes Problem, da die Dokumentlängen unterschiedlich sind. Im Allgemeinen werden Dokumente aus zwei verschiedenen Gründen lang: Ausführlichkeit und Multi-Aktalität. Ausführlichkeit bedeutet erstens, dass das gleiche Thema wiederholt von themenverwandten Begriffen erwähnt wird, so dass die Begriffshäufigkeit stärker ist als die gut zusammengefasste. Zweitens weist die Multitopikalität darauf hin, dass ein Dokument eine breite Diskussion von Multithemen enthält und nicht nur ein einzelnes Thema. Obwohl diese Dokumenteigenschaften unterschiedlich gehandhabt werden sollten, haben alle früheren Verfahren der Begriffshäufigkeitsnormierung diese Unterschiede ignoriert und einen vereinfachten längengesteuerten Ansatz verwendet, der die Begriffshäufigkeit nur um die Länge eines Dokuments verringert, was eine unangemessene Bestrafung verursacht. Um dieses Problem anzugehen, schlagen wir eine neue TF-Normalisierungsmethode vor, die eine Art partiell-axiomatischer Ansatz ist. Wir formulieren zunächst zwei formale Einschränkungen, die das Retrieval-Modell für Dokumente mit ausführlichen bzw. Multitopikalitätsmerkmalen erfüllen sollte. Dann modifizieren wir Sprachmodellierungsansätze, um diese beiden Einschränkungen besser zu erfüllen, und leiten neue Glättungsverfahren ab. Experimentelle Ergebnisse zeigen, dass die vorgeschlagene Methode die Präzision für Keyword-Abfragen signifikant erhöht und die MAP (Mean Average Precision) für ausführliche Abfragen erheblich verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78646-7_35 94acf852d8de4f5461457dbb16fe8818;de;;;7.2.;;;Erstellen eines Rahmens zur Erkennung kontextbedingter Faktoren im IS in Organisationen Das Informationssystem (IS) ist eine komplizierte Struktur sozialer und technischer Systeme. Sie sind Teil jeder Organisation in westlichen und Entwicklungsländern. Unsicherheit war schon immer ein Teil der Software- und Informationssystementwicklung, und globales Arbeiten erhöht die Unsicherheit. Um einige grundlegende Faktoren des IS-Kontexts zu kennen, könnte die Vernetzung von menschlicher und technologischer Informatik im Arbeitsalltag ein Weg sein, diese Unsicherheit zu verringern. In diesem Beitrag präsentieren wir die theoretische Grundlage von drei Kontextmodellen, um einen Rahmen zu konstruieren, der als eine Methode bei der Bewertung verschiedener IS-Kontexte in der IS-Nutzung und -Entwicklung verwendet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-37876-3_29 31c33ee34980af03c0e181842e104190;de;;;7.2.;;;Modellschätzungen für Relevanz-Feedback im Sprachmodellierungsansatz abfragen In jüngster Zeit haben Forscher den Sprachmodellierungsansatz erfolgreich um ein fundiertes Framework erweitert, um Relevanz-Feedback einzubeziehen. Ein kritisches Problem in diesem Framework besteht darin, ein Abfragesprachenmodell zu schätzen, das detailliertes Wissen über den Informationsbedarf eines Benutzers kodiert. In diesem Artikel werden verschiedene Methoden zur Schätzung von Abfragemodellen untersucht, die durch Zhais generatives Modell motiviert sind. Das generative Modell ist ein Schätzverfahren, das die generative Wahrscheinlichkeit von Feedbackdokumenten gemäß dem geschätzten Abfragesprachenmodell maximiert. Wir konzentrieren uns auf einige Einschränkungen des ursprünglichen generativen Modells und schlagen mehrere Schätzmethoden vor, um diese Einschränkungen aufzulösen: 1) Dreikomponenten-Mischungsmodell, 2) erneutes Sampling von Feedback-Dokumenten mit Dokumentsprachmodellen und 3) Sampling eines Relevanzdokuments aus einer Relevanz Dokumentsprachenmodell. Darüber hinaus werden auch mehrere hybride Verfahren untersucht, die das abfragespezifische Glättungsverfahren und das geschätzte Abfragesprachmodell kombinieren. In Experimenten übertreffen unsere Schätzmethoden ein einfaches generatives Modell und zeigen eine signifikante Verbesserung gegenüber einer anfänglichen Abfrage.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-31871-2_19 7500e55b19f25b1fcd92e189e4990fea;de;;;7.1.;;;Logik als integriertes Modellierungs-Framework Es besteht ein wachsendes Interesse an der Anwendung von Werkzeugen und Techniken der künstlichen Intelligenz (KI) auf verwaltungswissenschaftliche Probleme. Um dies zu ermöglichen, entsteht jetzt eine Vielzahl kommerzieller KI-Softwareprodukte. Auf theoretischer Ebene gab es jedoch wenig Integration zwischen KI und Management Science (MS). Dieses Papier schlägt die Verwendung formaler Logik als Grundlage für diese konzeptionelle Brücke und die Verwendung der Logikprogrammierung als Modellierungssprache für Anwendungen in der Managementwissenschaft vor. Das Framework wird durch eine logikbasierte Darstellung, genannt PM, zur Spezifizierung von Produktions-, Distributions- und Lagerproblemen veranschaulicht.;-;-;-;https://link.springer.com/article/10.1007/BF00435406 2610067109d6471b06efd0203e68677f;de;;;7.2.;;;Sprachübergreifende Fragen von Rumänisch nach Englisch beim CLEF 2006 Dieses Papier beschreibt die Entwicklung eines Question Answering (QA)-Systems und seine Bewertungsergebnisse im rumänisch-englischen Sprachkurs, der im Rahmen der CLEF-Kampagne 2006 organisiert wurde. Die Entwicklungsstufen des sprachenübergreifenden Frage-Antwort-Systems werden in der Arbeit schrittweise beschrieben, wobei gleichzeitig die aufgetretenen Probleme und die Art und Weise, wie sie behandelt wurden, aufgezeigt werden. Das System hält sich an die klassische Architektur für QS-Systeme und beginnt mit der Frageverarbeitung, gefolgt von der Termübersetzung, der Informationsbeschaffung und der Antwortextraktion. Neben den üblichen QS-Schwierigkeiten brachte der Track einige spezifische Probleme mit sich, wie das Fehlen einer zuverlässigen Übersetzungsmaschine aus dem Rumänischen ins Englische und die Notwendigkeit, jedes Modul einzeln zu bewerten, um einen besseren Einblick in die Fehler des Systems zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74999-8_46 37787a8d7b5d1ba02f2b915b288e749d;de;;;7.2.;;;Alles zusammenpacken auf der Suche nach einem sprachunabhängigen MT-Qualitätsmesstool – Teil 2 Diese Studie beschreibt die erste Verwendung einer bestimmten Implementierung von Normalized Compression Distance (NCD) als Werkzeug zur Bewertung der Qualität der maschinellen Übersetzung. NCD wurde für das Clustern und Klassifizieren verschiedener Datentypen eingeführt und getestet und hat sich als zuverlässiges und allgemeines Werkzeug erwiesen. Soweit wir wissen, wurde NCD in seiner Complearn-Implementierung noch nicht als MT-Qualitätswerkzeug evaluiert und wir wollen zeigen, dass es auch für diesen Zweck eingesetzt werden kann. Wir zeigen, dass NCD-Scores für MT-Outputs in verschiedenen Sprachen hoch korrelieren mit den Scores einer hochmodernen MT-Bewertungsmetrik, METEOR 0.6. Unsere Experimente basieren auf Übersetzungen zwischen einer Ausgangs- und drei Zielsprachen mit einer kleinen Stichprobe, für die Referenzübersetzungen verfügbar sind, die Allgemeine Erklärung der Menschenrechte der Vereinten Nationen. Zweitens werden wir auch kurz die Ergebnisse einer groß angelegten Evaluierung von NCD als MT-Metrik mit WMT08 Shared Task Evaluation Data beschreiben und diskutieren. Diese Auswertungen bestätigen weiter, dass NCD eine bemerkenswerte MT-Metrik sowohl an sich als auch angereichert mit grundlegenden Sprachwerkzeugen, Stemming und Wordnet ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20095-3_52 abbf64757a826fd71f309a494cfb8f4c;de;;;7.2.;;;Über den erklärbaren flexiblen Fuzzy-Recommender und seine Leistungsbewertung unter Verwendung des Akaike-Informationskriteriums In der Veröffentlichung werden Fuzzy-Recommender-Systeme basierend auf dem neuartigen Verfahren zur nominalen Attributcodierung vorgeschlagen. Mehrere Flexibilitätsparameter - Lerngegenstände - werden in ihre Konstruktion einbezogen, wodurch Systeme in Daten codierte Muster besser darstellen können. Der Lernprozess beeinflusst nicht die anfänglich interpretierbare Form der Fuzzy-Recommender-Regeln. Die Verwendung des Akaike-Informationskriteriums ermöglicht die Bewertung des Kompromisses zwischen einer Reihe von Regeln und der Interpretierbarkeit, was entscheidend ist, um den Benutzern angemessene Erklärungen zu liefern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36808-1_78 5c95cb975dbe673ccc3a925dd30b6dde;de;;;7.2.;;;Big Data New Frontiers: Bergbau, Suche und Verwaltung riesiger Repositories von Sonnenbilddaten und Sonnenereignissen Diese Arbeit stellt einen der vielen neuen Forschungsbereiche vor, in denen Big-Data-Analysen zu einem dringenden Bedarf geworden sind, um die riesigen Datenmengen zu verarbeiten, die jeden Tag erzeugt werden: die Sonnenphysik. Beim Aufbau eines inhaltsbasierten Bildabrufsystems für die NASA-Mission Solar Dynamics Observatory haben wir Forschungsprobleme entdeckt, die durch den Einsatz von Big Data-Verarbeitungstechniken angegangen werden können und in einigen Fällen die Entwicklung neuer Techniken erfordern. Mit über einem Terabyte an Sonnendaten, die jeden Tag erzeugt werden, und immer mehr Missionen am Horizont, die jedes Jahr Petabytes an Daten generieren, bietet die Sonnenphysik viele aufregende Möglichkeiten. Dieses Papier präsentiert den aktuellen Stand unserer Arbeit mit Sonnenbilddaten und -ereignissen, unseren Wandel hin zur Verwendung von Big-Data-Methoden und zukünftige Richtungen für die Big-Data-Verarbeitung in der Sonnenphysik.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-01863-8_17 128d944251063532c963e39d06c698fd;de;;;7.1.;;;Rolle der GI-Dienste im Notfallmanagement in Indien Notfallmanagement ist kein Spiel einer einzelnen Behörde oder Organisation. Die Beteiligung verschiedener Behörden und Organisationen hängt von der Art und Schwere der Katastrophe ab. Katastrophenschutzorganisationen, Behörden und Notfallmanagement-Personal müssen im Voraus mit allen Arten von Daten und Ressourcen vorbereitet werden. GIS-basierte Systeme und Lösungen ermöglichen die Integration von Daten aus verschiedenen Ressourcen und bieten ein einziges Fenster zum Anzeigen, Abfragen und Analysieren von Informationen. Die Anwendung von Modellen und die Erkennung von Mustern ermöglicht die Erkennung möglicher Bedrohungen und bietet ein effizientes Werkzeug zur Unterstützung von Entscheidungsträgern bei der Reaktion auf jede Katastrophe. Analyse- und Modellierungsfunktionen von GIS ermöglichen die Generierung neuer Informationen und ermöglichen die Integration von Daten aus mehreren Quellen und verbessern so den Workflow in allen Phasen des Notfallmanagements und unterstützen die Anforderungen des Notfallmanagements. Gegenwärtig hat die indische Regierung viele Initiativen ergriffen, um geschulte und qualifizierte Einsatzkräfte zu entwickeln, die von einer verbesserten IT-GIS-Infrastruktur unterstützt werden. Zur Unterstützung aller Beteiligten im Katastrophenfall wird derzeit ein Katastrophenmanagementsystem mit einem operativen nationalen Operationszentrum entwickelt, das seine täglichen Operationen durchführen soll.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-55117-1_20 9305c82a22121b85eeb51a98875d6dbe;de;;;7.1.;;;Eine Feature-Partitionierungsmethode für verteilte agile Releaseplanung Agile Softwareentwicklung stellt einen wichtigen Ansatz dar, der in den letzten Jahren zunehmend an Popularität gewonnen hat. Die Wirtschaft zwingt agile Organisationen, geografische Distanzen zu überwinden, um vom Zugriff auf einen größeren Ressourcenpool zu profitieren und Entwicklungskosten zu senken. Agile und verteilte Entwicklungsansätze unterscheiden sich jedoch in ihren Grundprinzipien erheblich. Während agile Methoden hauptsächlich auf informellen Prozessen beruhen, um die Koordination zu erleichtern, beruht die verteilte Entwicklung typischerweise auf formalen Mechanismen. Um dieser Situation zu begegnen, stellen wir einen verteilten agilen Releaseplanungsansatz vor, der den Releaseplanungsprozess verteilter agiler Entwicklungsteams unterstützt, indem er Funktionsblöcke identifiziert, die gemeinsam implementiert werden können, um den Kommunikationsbedarf zwischen verteilten Teams zu minimieren. Die vorgestellte Methode demonstriert, wie dieser Ansatz 1) weniger intensive Kommunikation und Koordination erfordert, 2) eine bessere Nutzung von Ressourcen ermöglicht und 3) qualitativ hochwertigere Merkmalsverteilungspläne erstellen kann. Schließlich analysiert das Papier die Vorteile und Probleme, die sich aus der Anwendung dieses Ansatzes ergeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20677-1_3 832ffbfe33705244c87761c71db9fb90;de;;;7.1.;;;Ein vertragsbasierter Ansatz des Ressourcenmanagements in Informationssystemen Der Einsatz von Informationssystemen kann zu einem verwirrenden Problem werden, wenn Komponenten, aus denen diese Systeme bestehen, nicht funktionale Anforderungen aufweisen. Wenn die Plattform, auf der solche Komponenten bereitgestellt werden, ihre nicht-funktionalen Anforderungen nicht erfüllen kann, können sie wiederum nicht zufriedenstellend funktionieren. In diesem Dokument konzentrieren wir uns auf eine bestimmte Kategorie nichtfunktionaler Anforderungen: diejenigen, die sich auf die Ressourcen beziehen, die Softwarekomponenten zur Laufzeit verwenden müssen. Dieses Papier berichtet über die Ausgestaltung des ressourcenorientierten Vertragsmodells, das in der in;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45242-3_13 f32b1bb5cbab7b4da6b7670bb3f186c4;de;;;7.1.;;;ScenicPlanner: Planung landschaftlich reizvoller Reiserouten unter Nutzung heterogener benutzergenerierter digitaler Fußabdrücke Um den Reisevorbereitungsprozess in eine Stadt zu erleichtern, wurde viel Arbeit unternommen, um automatisch einen POI oder eine Folge von POIs zu empfehlen, um die Bedürfnisse der Benutzer zu erfüllen. Die meisten der bestehenden Arbeiten ignorieren jedoch die Planung der detaillierten Reiserouten zwischen POIs und überlassen die Aufgabe Online-Kartendiensten oder kommerziellen GPS-Navigatoren. Ein solcher Dienst oder Navigator in Bezug auf den Vorschlag der kürzesten Reiseentfernung oder -zeit, der den unterschiedlichen Anforderungen der Benutzer nicht gerecht wird. So wäre beispielsweise bei einer Fahrt mit dem Auto zu Freizeitzwecken die malerische Aussicht entlang der Reiserouten für die Nutzer von großer Bedeutung, und ein guter Planungsservice sollte die Landschaften der Route vor der Entfernung oder Zeit priorisieren vergriffen. Zu diesem Zweck schlagen wir in diesem Beitrag ein neues Framework namens . vor;-;-;-;https://link.springer.com/article/10.1007/s11704-016-5550-2 b85a5a09fd422344383e291f12ef4a2f;de;;;7.1.;;;Wissenstransfer bei der Implementierung von Management-Unterstützungssystemen Der Wissenstransfer während der Implementierung von Management-Unterstützungssystemen ist eines der Schlüsselelemente für den Projekterfolg. Ziel dieses Artikels ist es, Forschungsergebnisse zu den Methoden des Wissenstransfers für bestimmte Implementierungsphasen in ausgewählten Gruppen von IT-Projekten, bestehend aus der Einführung von IT-Systemen der ERP-, CRM-, BI- und DMS-Klasse, vorzustellen. Die Ergebnisse können für Forscher, die sich auf das Thema IT-Projektdurchführung spezialisiert haben, und für Praktiker, die IT-Projekte durchführen, interessant sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41947-8_5 97ba306f53fa0488d6462493f9bf1cbb;de;;;7.2.;;;Navigieren zwischen Suchergebnissen: Ein Ansatz mit Informationsinhalten Die vollständige oder teilweise Duplizierung von Dokumenten beeinträchtigt die Effektivität der Visualisierung von Suchergebnissen. In diesem Papier schlagen wir eine Navigationsstrategie vor, die eine Liste von Dokumenten so sortiert, dass die ersten Dokumente mehr Informationsgehalt enthalten, wodurch Duplikate erheblich reduziert werden. Die Strategie definiert eine inhaltliche Beziehung zwischen Dokumenten basierend auf ihrer;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76993-4_58 d0754d37d2bdbf3259cd2c92534694ec;de;;;7.2.;;;Bewertung von Platzzuweisungsschaltungen Dieses Papier beschreibt das Design und die Bewertung der PCA-Zelle (Plastic Cell Architecture), die eine neuartige Raumzuweisungsmethode implementiert. PCA ist eine dynamisch rekonfigurierbare Architektur, die das FPGA (Field Programmable Gate Array) in Flexibilität und Allgemeinheit übertrifft. Die dynamische Rekonfiguration der Schaltung wird erreicht, wenn Administratoren die Heap-Bereiche verwalten. Da Objekte jedoch parallel operieren und neuen Raum benötigen, ist es schwierig, sie gemeinsam zu verwalten. Also haben wir das Konzept des Drucks eingeführt, das die Raumzuweisung ermöglicht. Als Simulationsergebnis haben wir festgestellt, dass diese neue Methode, die auf Druckbefehlen beruht, die Probleme des Objektmanagements effizient lösen kann. Wir haben die PCA-Zelle mit Platzzuweisungsfähigkeit entworfen. Folglich beträgt die Anzahl der Gates pro PCA-Zelle 200, und die maximale Verzögerungszeit pro Zelle beträgt 3,55 ns. Darüber hinaus verbraucht die 3×3-PCA-Zellenverarbeitung von sechs Platzzuweisungsbefehlen 306.3;-;-;-;https://link.springer.com/chapter/10.1007/11596356_44 61b5b9718a96b162c0f8760d06407727;de;;;7.2.;;;Weibo-orientierte chinesische Nachrichtenzusammenfassung durch Kombination mehrerer Funktionen In den letzten Jahren haben sich Social-Media-Dienste rasant entwickelt und die UGCs (User Generated Contents) wie Tweets in Twitter und Posts in Sina Weibo dramatisch erhöht. In diesem Papier beschreiben wir unser System auf der NLPCC2015 zur Weibo-orientierten chinesischen Nachrichtenzusammenfassungsaufgabe. Unser Modell basiert auf einer Kombination mehrerer Funktionen, um automatisch eine Zusammenfassung für den jeweiligen Nachrichtenartikel zu generieren. In unserem System verwenden wir hauptsächlich vier Arten von Funktionen, um die Signifikanzbewertung eines Satzes zu berechnen, einschließlich Begriffshäufigkeit, Satzposition, Satzlänge und Ähnlichkeit zwischen Satz und Titel des Nachrichtenartikels, und dann werden die Zusammenfassungssätze entsprechend der Bedeutung ausgewählt Punktzahl jedes Satzes aus dem Nachrichtenartikel. Die Auswertungsergebnisse zu Weibo-Nachrichtendokumentensätzen zeigen, dass unser System bei der Weibo-orientierten chinesischen Nachrichtenzusammenfassung effizient ist und alle anderen Systeme übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25207-0_55 e61e2486db13fae258cdb3bd85253396;de;;;7.1.;;;Darstellung von Geschäftsregeln in UML&OCL-Modellen für die Entwicklung von Informationssystemen Derzeit hat der Business Rules Approach großes Interesse in Geschäfts- und Softwareentwicklungsgemeinschaften gefunden. Gemäß SBVR-Standard sind Geschäftsregeln die Regeln der Geschäftsgerichtsbarkeit. Folglich sollten Geschäftsregeln von Geschäftsleuten verwaltet werden. Die Beschaffung und Unterstützung der richtigen und abgestimmten Regelsätze im SBVR-Stil ist jedoch das schwierige Problem. In der Praxis werden Geschäftsregeln oft von Softwareentwicklern und Systemanalysten verwaltet, einfachere und sicherere Prozesse zur Erfassung und Änderung von Geschäftsregeln sind mit visuellen Geschäftsprozessmodellen verbunden. In diesem Beitrag werden Möglichkeiten der Darstellung von Geschäftsregeln durch UML&OCL-Modelle und deren Anwendbarkeit in modernen Entwicklungsprozessen untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89218-2_14 180536d79df7b0584c177f04bdcc5ba1;de;;;7.1.;;;Planung und Terminierung für verteilte und kollaborative Produktivsysteme Die Fortschritte der Produktionstechnologien spiegeln einen weltweiten Trend zu Nachhaltigkeit und rationellem Umgang mit Ressourcen wider. Infolgedessen sind in geografisch verteilten Systemen mit neuen Produktivsystemkonfigurationen (PSs) einige Bewegungen zur Branchenreorganisation zu beobachten. Diese PSs arbeiten mit kleinen und mittleren Produktionslosen, Produktfamilien mit zunehmender Vielfalt und harten Lieferterminen. In diesem Zusammenhang wird erwartet, dass Konzepte von verteilten und kollaborativen Produktivsystemen (DCPSs) mit neuen Anforderungen an die Produktionsplanung zur Verbesserung der PSs-Leistung angemessen untersucht werden. Daher gehen wir hier davon aus, dass produktive Aktivitäten als Dienste behandelt werden können und der SOA-Ansatz (serviceorientierte Architektur) für die Integration des DCPS verwendet werden kann. Dann wird ein auf Zeitfenstern basierender Planungsdienst und ein Planungsdienst, der die APS-(Advanced Planning and Scheduling)-Heuristik verwendet, vorgeschlagen, um die erwartete Leistung des DCPS sicherzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19170-1_6 584a13c21945e7d43dcf552b593e787b;de;;;7.2.;;;Chinesische Kategorisierung und Neuheitsbergbau Die Kategorisierung und das Newty Mining von chronologisch geordneten Dokumenten ist ein wichtiges Data-Mining-Problem. Dieser Artikel konzentriert sich auf den gesamten Prozess des chinesischen Neuheiten-Mining, von der Vorverarbeitung und Kategorisierung bis hin zur eigentlichen Erkennung neuartiger Informationen, die bisher kaum untersucht wurden. Zunächst werden Vorverarbeitungstechniken zur Erkennung neuartiger chinesischer Texte diskutiert und verglichen. Als nächstes untersuchen wir die Kategorisierung und die Leistung von Novity Mining zwischen englischen und chinesischen Sätzen und diskutieren auch die Leistung von Novity Mining basierend auf den Retrieval-Ergebnissen. Darüber hinaus schlagen wir neue Bewertungsmaße für Neuheiten-Mining vor, Neuheit-Präzision, Neuheit-Rückruf, Neuheit-F-Score und Empfindlichkeit, die die Empfindlichkeit des Neuheit-Mining-Systems gegenüber falsch klassifizierten Sätzen misst. Die Ergebnisse deuten darauf hin, dass das chinesische Novelty Mining auf Satzebene dem Englischen ähnlich ist, wenn die Sätze perfekt kategorisiert sind. Mit unseren neuen Bewertungsmaßen Neuheitspräzision, Neuheitsrückruf, Neuheits-F-Score und Sensitivität können wir fairer beurteilen, wie die Leistung von Neuheitsmining durch die Abrufergebnisse beeinflusst wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20847-8_24 fb1fa82e494306d5bc31df86631a913c;de;;;7.2.;;;Evaluationen in der Wissenschaft des Künstlichen – Überdenken des Build-Evaluate-Musters in der gestalterischen Forschung Das zentrale Ergebnis der Design Science Forschung (DSR) ist präskriptives Wissen in Form von IT-Artefakten und Empfehlungen. Es wird jedoch davon ausgegangen, dass präskriptives Wissen keinen Wahrheitswert an sich hat. Unter dieser Annahme kann die Validität von DSR-Ergebnissen nur anhand des deskriptiven Wissens am Ende eines DSR-Prozesses beurteilt werden. Dies spiegelt sich im Build-Evaluate-Muster aktueller DSR-Methoden wider. Angesichts der aufkommenden Natur von IT-Artefakten hat dieses Build-Evaluate-Muster jedoch ungünstige Auswirkungen auf die Erreichung der Strenge innerhalb eines DSR-Projekts. Während es in der DSR von entscheidender Bedeutung ist, die Nützlichkeit eines Artefakts zu beweisen, erfordert ein strenger DSR-Prozess auch die Rechtfertigung und Validierung des Artefaktdesigns selbst, noch bevor es verwendet wird. Dieses Papier schlägt drei Prinzipien für die Bewertung von DSR-Artefakten vor, die nicht nur die Bewertung der Nützlichkeit eines Artefakts, sondern auch die Bewertung von Entwurfsentscheidungen zum Bau eines Artefakts behandeln. Insbesondere wird argumentiert, dass durch Befolgen dieser Prinzipien das in der DSR erzeugte präskriptive Wissen als wahrheitsähnlicher Wert angesehen werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29863-9_28 027f90cb8530ef987897546dddec965f;de;;;7.2.;;;Automatische Aktualisierung einer Buchbestandsdatenbank in einem allgegenwärtigen Bibliotheksinformationssystem Dieser Artikel schlägt die Augmented Library (AL) vor, ein Bibliothekssystem, das durch Ubiquitous Computing (UbiComp)-Technologie erweitert wird. In UbiComp interagieren Benutzer mit Computern, ohne sich dessen bewusst zu sein, dass sie tatsächlich einen Computer verwenden. Wir haben das UbiComp-Konzept auf ein Bibliothekssystem angewendet. In der AL wird der Vorgang des Entfernens und Zurückgebens von Büchern, die die natürlichen Vorgänge in einer Bibliothek sind, zur Eingabe des Bibliothekssystems. Diese Funktion wird als „Echtzeitaktualisierung der Buchdatenbank“ bezeichnet. Das System verwendet eine Kombination aus Infrarotsensoren und CCD-Kameras, um zu erkennen, welches Buch aus dem Regal bewegt wird. Nach der Entwicklung eines Prototyps und eines Prototypsystems führten wir Experimente durch, die die Wirksamkeit und Wirksamkeit und Effizienz von AL untersuchten.;-;-;-;https://link.springer.com/chapter/10.1007/11833529_73 627ce89f29b9730f8b54af1f2589ff68;de;;;7.2.;;;Latent Topic Model basierend auf Gaussian-LDA für Audio Retrieval In diesem Beitrag stellen wir ein neues Themenmodell namens Gaussian-LDA vor, das besser geeignet ist, kontinuierliche Daten zu modellieren. Das Themenmodell basierend auf der latenten Dirichlet-Zuordnung (LDA) wird häufig für die statistische Analyse von Dokumentensammlungen und anderen diskreten Daten verwendet. Das LDA-Modell geht davon aus, dass die Wörter jedes Dokuments aus einer Mischung von Themen stammen, von denen jedes eine multinomiale Verteilung über das Vokabular ist. Um die ursprüngliche LDA zur Verarbeitung kontinuierlicher Daten anzuwenden, muss zuvor eine auf Diskretisierung basierende Vektorquantisierung durchgeführt werden, was normalerweise zu einem Informationsverlust führt. Im vorgeschlagenen Modell betrachten wir eine kontinuierliche Emissionswahrscheinlichkeit, eine Gaußsche statt einer Multinomialverteilung. Dieses neue Themenmodell zeigt in den Experimenten zum Audio-Retrieval eine höhere Leistung als Standard-LDA.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33506-8_68 ec46dc68dd2043c83ca1ad2f2c5fd983;de;;;7.2.;;;CLEF eHealth Evaluation Lab 2020 Die zunehmenden Schwierigkeiten von Laien, gültige und relevante Informationen in ihrer bevorzugten Sprache abzurufen und zu verdauen, um gesundheitsorientierte Entscheidungen zu treffen, haben CLEF eHealth dazu motiviert, seit 2012 jährliche Labore zu organisieren;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-45442-5_76 874ffa4f89b43e4b1369506db630cae4;de;;;7.2.;;;Vorhersage von Themen in wissenschaftlichen Arbeiten Paper In den letzten Jahrzehnten wurden Themenmodelle ausgiebig verwendet, um die latente thematische Struktur großer Textkorpora aufzudecken, jedoch wurde nur sehr wenig getan, um die Fortsetzung solcher Themen in naher Zukunft zu modellieren. In diesem Papier stellen wir einen neuartigen Ansatz vor, um aktuelle Veränderungen im Laufe der Zeit zu verfolgen und die Themen vorherzusagen, die in naher Zukunft weitergehen werden. Für unsere Experimente haben wir ein öffentlich zugängliches Korpus von Konferenzbeiträgen verwendet, da wissenschaftliche Beiträge den technologischen Fortschritt anführen und eine wichtige Informationsquelle darstellen, um Entscheidungen über die Förderstrategien in der wissenschaftlichen Gemeinschaft zu treffen. Die experimentellen Ergebnisse zeigen, dass unser Modell in Bezug auf die Vorhersagekraft zwei wichtige Basislinien für die dynamische Themenmodellierung übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-76941-7_2 fcec6567ff990a9c0819ae46e164f80d;de;;;7.2.;;;Auswertung von Suchmaschinen anhand von Klickdaten Es besteht kein Zweifel, dass die Suche für das Web von entscheidender Bedeutung ist. Und es wird für das Semantic Web von ähnlicher Bedeutung sein. Wenn Sie einmal in Milliarden von Objekten gesucht haben, wird es unmöglich sein, immer ein einziges richtiges Ergebnis zu erzielen, egal wie intelligent die Suchmaschine ist. Stattdessen wird dem Benutzer ein Satz möglicher Ergebnisse zur Auswahl bereitgestellt. Wenn wir darüber hinaus den Kompromiss zwischen den Systemkosten für die Erzeugung eines einzelnen richtigen Ergebnisses und einer Reihe möglicher Ergebnisse berücksichtigen, können wir letzteres wählen. Dies führt natürlich zu der Frage, wie das Set zu entscheiden und dem Benutzer präsentiert wird und wie das Ergebnis bewertet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17749-1_26 5527eb5b1b49e8f74d7a3fd77a838e1e;de;;;7.2.;;;Verbesserte Beantwortung von Fragen mit der Erkennung benannter Entitäten In diesem Artikel wird die Verwendung der Named Entity Recognition (NER) für die Fragebeantwortung (QA) in spanischen Texten untersucht. NER als Vorverarbeitungsschritt verwendet, hilft nicht nur, die Antwort auf die Frage zu erkennen, sondern verringert auch die Datenmenge, die von der QA berücksichtigt werden muss. Unser Vorschlag reduziert die Datenmenge um 26% und erhöht darüber hinaus die Effizienz des Systems um 9%.;-;-;-;https://link.springer.com/chapter/10.1007/11428817_17 dcf4332512c674fdbdfed0d04f295af4;de;;;7.2.;;;Dynamische Optimierung mehrerer Ziele im Verhaltensmechanismus Es existiert ein Verhaltensmechanismus, der unsere Aufmerksamkeit ständig auf verschiedene Ereignisse lenkt. Grob unterteilt gibt es sieben Ziele in unserem Leben: Überleben und Sicherheit, Fortbestand der Spezies, Selbstwertgefühl, soziale Anerkennung, sinnliche Befriedigung, kognitive Konsistenz und Neugier sowie Selbstverwirklichung. Für jedes Ziel gibt es einen idealen Wert oder Gleichgewichtspunkt, den es zu verfolgen und/oder zu halten gilt. Bei einer signifikanten Abweichung des aktuellen Zustands vom Ideal- oder Gleichgewichtspunkt wird eine Ladung (mentaler Druck) erzeugt. Zu jedem Zeitpunkt wird die Gesamtheit aller Ladungen, die von allen Zielen aus allen Ereignissen erzeugt werden, in diesem Moment „die Ladungsstruktur“ genannt. Unser Verstand wird versuchen, die Aufmerksamkeit und die Ressourcen zuzuteilen, um die Belastung auf ein Minimum zu reduzieren. Die Ziele, die unsere Aufmerksamkeit auf sich ziehen, werden erweckt, ansonsten nicht erweckt. Die Priorität für die Ziele, die unsere Aufmerksamkeit erregen, folgt einem dynamischen Schema der Optimierung mehrerer Ziele. In diesem Beitrag werden wir die dynamische Mehrfachzieloptimierung, ein Grundgerüst des Verhaltensmechanismus, beschreiben und veranschaulichen. Auch Anwendungen auf große Entscheidungsprobleme, insbesondere die anspruchsvollen, werden erwähnt. Der Mechanismus wird unseren Geist öffnen und Entscheidungen effektiver treffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36510-5_8 759f1610145eedcbd6e90b625b6c4a1f;de;;;7.1.;;;Durchbrüche in der Management-Accounting-Wissenschaft: Imagination eines Balanced Scorecard-Gedankens von Lean Philosophy Rationales Dieses Papier zielt darauf ab, einen Vorschlag für eine neue Art der Durchführung der Balanced Scorecard (BSC) zu unterbreiten, wobei ein Modell angenommen wird, das die Hauptmerkmale der Lean-Philosophie erfüllt, und eine Forschungsstrategie entworfen wird, die erklären könnte, wie man eine „Lean-Balanced Scorecard“ argumentieren kann “. Managementlösungen, die zum Lean Thinking neigen, versuchen, die aktuellen weltweiten Marktherausforderungen zu lösen, indem sie sich auf eine tugendhafte Unternehmensfunktion konzentrieren, dank einer gemeinsamen Philosophie, die sich vollständig auf die Minimierung jeglicher Art von Verschwendung stützt: Ihr Hauptziel ist es, Geschäftsziele so zu erreichen, dass ist absolut flexibel und kann auf jeder Strategieebene innerhalb des Unternehmens geteilt werden. Könnte der Einsatz des BSC beim Übergang zu neuen Management-Accounting-Paradigmen die Informationsverarbeitung verbessern, was nützlich ist, um schlankes Denken im gesamten Unternehmen zu verbreiten und seine Auswirkungen zu testen? Können wir außerdem dank des schlanken Denkens Verbesserungen in Bezug auf die Funktionsweise des BSC erwarten, indem wir diese Informationsverarbeitung rationalisieren? Über die Beantwortung dieser Fragen ist aus der Literatur wenig bekannt. Durch deren Beantwortung können wir jedoch innovative Lösungen für eine bessere Messung des Unternehmenserfolgs finden – insbesondere aus der Perspektive integrierter Management-Reporting-Aktivitäten in turbulenten Zeiten.;-;-;-;https://link.springer.com/article/10.1007/s11300-013-0279-1 a7652ce6e9d1a95e09f1d15548680108;de;;;7.1.;;;Ein Entscheidungsunterstützungssystem für das Evakuierungsmanagement in Echtzeit und die Planung von Rettungsteams bei gefährlichen Ereignissen in öffentlichen Infrastrukturen Die Notfallevakuierung aus überfüllten ÖPNV-Terminals und kritischen Infrastrukturen weltweit gibt Anlass zu großer Sorge. Es gibt zahlreiche Forschungsanstrengungen, die versuchen, Systeme zu entwickeln, die eine optimale Evakuierungsführung aus Katastrophengebieten einhalten und sicherstellen. Bestehende Sicherheitssysteme sind nicht in der Lage, die am stärksten gefährdeten Reisenden effektiv zu leiten und die Mobilitätsbeeinträchtigung jedes Einzelnen zu berücksichtigen. In diesem Zusammenhang geht die aktuelle Arbeit auf das Thema ein, indem ein robuster Evakuierungsmechanismus vorgeschlagen wird, der in ein Entscheidungsunterstützungssystem integriert ist. Die innovative Lösung besteht darin, gruppenweise optimale Routen zu den Ausgängen zusammen mit personalisiertem Routing unter Berücksichtigung der Benutzerfähigkeiten und -präferenzen bereitzustellen. Als weiteren Schritt erhalten die Rettungsteams einen Plan mit priorisierten Zielen mit eingeschlossenen Reisenden. Das Papier bietet eine gründliche Analyse bestehender Evakuierungsmodelle und -mechanismen, stellt die DSS-Architektur und eingebettete Algorithmen vor und diskutiert deren Leistung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34050-5_1 2d191d8b07523536a75f1e8c0f27df4f;de;;;7.2.;;;Korrelation von Geschäftsaktivitäten, die in Legacy-Informationssystemen ausgeführt werden Reverse Engineering-Techniken werden häufig verwendet, um die zugrunde liegenden Geschäftsprozesse zu entdecken. Diese Techniken beruhen häufig auf Ereignisprotokollen, die von prozessbewussten Informationssystemen aufgezeichnet werden. Abgesehen davon gibt es viele nicht prozessbewusste Systeme ohne Mechanismen zum Aufzeichnen von Ereignissen. Bestimmte Techniken zum Sammeln von Ereignissen während der Ausführung von nicht prozessbewussten Systemen wurden vorgeschlagen, um die Ermittlung von Geschäftsprozessen aus dieser Art von Systemen zu ermöglichen. Bei diesen Techniken stellt die Korrelation von Ereignissen mit ihrer Ausführungsinstanz eine große Herausforderung dar, da die von Nichtprozesssystemen unterstützten Geschäftsprozessdefinitionen implizit sind. Dieses Papier stellt einen Korrelationsalgorithmus vor, der eine Technik zum Abrufen von Ereignisprotokollen von nicht prozessbewussten Systemen zusammenarbeitet. Der Ereigniskorrelationsalgorithmus wird auf das zur Laufzeit erfasste Ereignis-Dataset angewendet, um die besten Korrelationsbedingungen zu ermitteln. Ereignisprotokolle werden dann unter Verwendung dieser Bedingungen erstellt. Die Anwendbarkeit des Vorschlags wird anhand einer Fallstudie mit einem realen System demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45422-6_4 365a1157d99e623e0cb7f49a52605ac6;de;;;7.2.;;;Die persönliche Gleichung komplexer individueller Kognition während der Interaktion mit visuellen Schnittstellen Dieses Kapitel befasst sich mit der Notwendigkeit eines besseren Verständnisses der komplexen menschlichen Kognition bei der Gestaltung interaktiver visueller Schnittstellen, indem die Verfügbarkeit einschlägiger kognitiver Modelle und anwendbarer verhaltenswissenschaftlicher Forschung untersucht wird, und stellt fest, dass es keine operationellen Modelle oder nützlichen Präzedenzfälle gibt, die eine wirksame Anleitung bieten könnten das Design von visuell aktivierten Schnittstellen. Darüber hinaus untersucht dieses Kapitel den Einfluss individueller Unterschiede und insbesondere inhärenter Unterschiede wie Persönlichkeitsfaktoren auf die komplexe Kognition. Schließlich wird skizziert, wie das Wissen über die menschliche Individualität in Verbindung mit dem Wissen über die komplexe Kognition genutzt wird, um prädiktive Maßnahmen für die Gestaltung und Bewertung von Schnittstelleninteraktionen zu entwickeln, ein Forschungsprogramm, das als Personal Equation of Interaction bekannt ist. ...;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19641-6_4 245232cfbe5e8dc022932b2dd411dd2c;de;;;7.2.;;;Die Rolle und Lösung von Textual Entailment in Anwendungen zur Verarbeitung natürlicher Sprache Ein grundlegendes Phänomen bei der Verarbeitung natürlicher Sprache betrifft die semantische Variabilität von Ausdrücken. Zu erkennen, dass zwei Texte die gleiche Bedeutung mit unterschiedlichen Wörtern ausdrücken, ist ein schwieriges Problem. Wir diskutieren die Rolle des Entschlusses für verschiedene Anwendungen der Natural Language Processing und entwickeln ein maschinelles Lernsystem zu deren Lösung. In unserem System basiert die Textähnlichkeit auf der Anzahl aufeinanderfolgender und nicht aufeinanderfolgender Wortüberschneidungen zwischen zwei Texten. Das System ist sprach- und ressourcenunabhängig, da es keine externen Wissensressourcen wie WordNet, Thesaurus, semantische, syntaktische oder Wortart-Tagging-Tools verwendet. In dieser Arbeit wurden alle Tests für Englisch durchgeführt, aber unser System kann ohne Einschränkungen von anderen Sprachen verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/11765448_17 3b0d90909e0bf5933480862c2fed63c1;de;;;7.2.;;;Förderung von Serendipity in interaktiven Systemen Wir machen regelmäßig zufällige Entdeckungen im Online- und Offline-Kontext – von der Suche nach etwas ganz anderem über eine nützliche Website bis hin zur Begegnung mit jemandem mit gemeinsamen Forschungs- oder Geschäftsinteressen an einem ungewöhnlichen Ort. Die meisten bestehenden interaktiven Systeme bieten jedoch keine fruchtbare Umgebung für das Auftreten von Zufall. In diesem Workshop werden die wichtigsten Anforderungen und Forschungsherausforderungen für die Entwicklung und Bewertung benutzerzentrierter Systeme identifiziert, die darauf abzielen, den Zufall zu fördern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23768-3_136 9d7932ab333e1ec5934ef4384a3314d2;de;;;7.2.;;;Bereitstellung von Karten zur Unterstützung der frühen Entwicklungsphase von Hypermedia-Systemen Das Entwerfen von Hypermediasystemen kann eine komplexe Aufgabe sein, sobald die Anzahl der zu organisierenden Informationsblöcke groß ist. Bei der Gestaltung von Hypermedia-Systemen können interaktive dynamische Karten Designern ein besseres Verständnis der Semantik des zugrunde liegenden Dokumentensatzes vermitteln und so den Entwurfsprozess unterstützen. In diesem Beitrag stellen wir Themenkarten und Techniken vor, um diese Karten direkt aus einer Sammlung von Dokumenten zu berechnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-3082-6_11 91d8c76eeafc0f52c3ecd941be9601ec;de;;;7.2.;;;Ein schneller Algorithmus für die lokale Rangentfernung: Anwendung auf die Identifizierung der arabischen Muttersprache Kürzlich wurde ein neuartiges Distanzmaß für Strings eingeführt, das als Local Rank Distance (LRD) bezeichnet wird. LRD ist von der Rangdistanz inspiriert, aber es wurde entwickelt, um allgemeineren Prinzipien zu entsprechen, während es für bestimmte Datentypen wie DNA-Strings oder Text besser angepasst ist. Genauer gesagt misst LRD die lokale Verschiebung des Charakters;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-26535-3_45 4f2c430dfddfc52f5cb6d11001c62a8e;de;;;7.2.;;;Auf dem Weg zu einem effektiven automatischen Abfrageerweiterungsprozess mithilfe eines Assoziationsregel-Mining-Ansatzes Das stetige Wachstum von Textdokumentsammlungen ist ein wichtiger Fortschrittstreiber für moderne Informationsabruftechniken, deren Effektivität und Effizienz ständig in Frage gestellt werden. Bei einer Benutzeranfrage kann die Anzahl der abgerufenen Dokumente überwältigend groß sein, was ihre effiziente Nutzung durch den Benutzer behindert. Darüber hinaus ist es für eine effektive Erfüllung der Benutzerbedürfnisse von größter Bedeutung, nur relevante Dokumente in einer Abfrageantwort zu speichern. In dieser Situation bietet die Abfrageerweiterungstechnik eine interessante Lösung, um eine vollständige Antwort zu erhalten und gleichzeitig die Qualität der aufbewahrten Dokumente zu erhalten. Dies beruht hauptsächlich auf einer genauen Auswahl der hinzugefügten Begriffe zu einer anfänglichen Abfrage. Interessanterweise nutzt die Abfrageerweiterung große Textmengen, indem statistische Informationen über das gemeinsame Auftreten von Indexbegriffen extrahiert und verwendet werden, um Benutzerabfragen besser an die tatsächlichen Informationsbedürfnisse anzupassen. Ein vielversprechender Weg besteht in dieser Hinsicht in der Anwendung von Data-Mining-Methoden zur Extraktion von Abhängigkeiten zwischen Begriffen. In diesem Papier stellen wir einen neuartigen Ansatz für das Mining von Wissen vor, der die Erweiterung von Abfragen unterstützt, die auf Assoziationsregeln basiert. Das Hauptmerkmal unseres Ansatzes ist ein besserer Kompromiss zwischen der Größe des Mining-Ergebnisses und dem vermittelten Wissen. Daher implementiert unsere Methode zum Mining von Assoziationsregeln Ergebnisse aus der Galois-Verbindungstheorie und kompakte Darstellungen von Regelsätzen, um die große Anzahl potenziell nützlicher Assoziationen zu reduzieren. Eine experimentelle Studie hat die Anwendung unseres Ansatzes auf einige reale Sammlungen untersucht, wobei eine automatische Abfrageerweiterung durchgeführt wurde. Die Ergebnisse der Studie zeigen eine signifikante Verbesserung der Leistung des Information Retrieval Systems, sowohl in Bezug auf Recall als auch auf Präzision, wie die durchgeführten Signifikanztests mit dem Wilcoxon-Test zeigen.;-;-;-;https://link.springer.com/article/10.1007/s10844-011-0189-9 5c680c849e3e9c2a465c70fa3be5b6aa;de;;;7.1.;;;Probleme der Informationsunterstützung wissenschaftlicher Innovation und industrieller Sphären: Neue konzeptionelle Ansätze Die Diskrepanz zwischen den Fähigkeiten der nationalen Informationsinfrastruktur und den heutigen Anforderungen des neuen wirtschaftsinstitutionellen Umfelds ist eine der Hauptursachen für die Kluft zwischen dem erheblichen Umfang an Ergebnissen der Grundlagenforschung und angewandten Innovationsforschung, die ein Kommerzialisierungspotenzial haben, und den tatsächlichen Fähigkeiten unserer einheimischen Industrie, diese Ergebnisse zu assimilieren, die in Russland existiert. Der Zweck dieses Artikels ist es, zumindest einen groben konzeptionellen Überblick über eine effektive Informationsinfrastruktur für Innovation und wissenschaftliche und technische Aktivitäten zu geben, die den heutigen Anforderungen des neuen wirtschaftlichen institutionellen Umfelds in Russland entspricht. Um das Problem der Überwindung von Trägheitstrends in der nationalen Informationssystementwicklung zu lösen, sind neue Ideen und neue konzeptionelle Ansätze erforderlich. Die vorgestellten konzeptionellen Ansätze sind auf die Lösung der Modernisierungsprobleme und die Entwicklung einer qualitativ neuen strukturellen und inhaltlichen Organisation des nationalen Informationssystems ausgerichtet. Es werden die meisten kritischen Phasen der Informationsunterstützung der Phasen des Technologietransfers und die Grundprinzipien der Entwicklung der Informationsinfrastruktur gezeigt. Es wird eine kurze Aufzählung der Schlüsselaktionen zur Entwicklung der Informationsinfrastruktur im wissenschaftlichen, technischen und industriellen Bereich gegeben.;-;-;-;https://link.springer.com/article/10.3103/S0147688209020026 a6b1649b6a4386b1b0d901a1a9eeab48;de;;;7.1.;;;Tourenempfehlung und Tourenplanung mit standortbasierten Social Media: eine Umfrage Der Tourismus ist sowohl ein wichtiger Wirtschaftszweig als auch eine beliebte Freizeitbeschäftigung von Millionen Menschen auf der ganzen Welt. Eine wichtige Aufgabe für Touristen besteht darin, Reiserouten zu planen und zu planen, die mehrere faszinierende Points-of-Interests basierend auf den einzigartigen Interessenspräferenzen des Touristen umfassen. Die komplexe Aufgabe der Reiseroutenempfehlung wird zusätzlich durch die Notwendigkeit erschwert, verschiedene reale Einschränkungen wie begrenzte Zeit für Touren, unsichere Verkehrsbedingungen, schlechtes Wetter, Gruppenreisen, Warteschlangenzeiten und Überfüllung zu berücksichtigen. In dieser Umfrage führen wir eine umfassende Literaturrecherche von Studien zur Reiseroutenempfehlung durch und präsentieren eine allgemeine Taxonomie für die tourenbezogene Forschung. Wir besprechen den gesamten Prozess der Reiseroutenempfehlungsforschung, einschließlich: (i) Datensammlung und Arten von Datensätzen, (ii) Problemformulierungen und vorgeschlagene Algorithmen/Systeme für einzelne Reisende, Touristengruppen und verschiedene reale Überlegungen, (iii) Auswertung Methoden zum Vergleichen von Reiseroutenempfehlungsalgorithmen und (iv) zukünftige Richtungen und offene Probleme bei der Reiseroutenempfehlungsforschung.;-;-;-;https://link.springer.com/article/10.1007/s10115-018-1297-4 21ba0e3f09fbe7605c2dff09bcd2cc4e;de;;;7.2.;;;Abfrageerweiterung mit externen Nachweisen Die automatische Abfrageerweiterung kann beim Dokumentenabruf verwendet werden, um die Sucheffektivität zu verbessern. Herkömmliche Methoden zur Abfrageerweiterung basieren auf der Dokumentensammlung selbst. Pseudo-Relevanz-Feedback (PRF) geht beispielsweise davon aus, dass die am häufigsten abgerufenen Dokumente relevant sind, und verwendet die aus diesen Dokumenten extrahierten Begriffe für die Abfrageerweiterung. Es gibt jedoch andere Beweisquellen, die für die Erweiterung verwendet werden können, von denen einige bessere Suchergebnisse mit höherer Effizienz zum Zeitpunkt der Abfrage liefern können. In diesem Papier verwenden wir die externen Beweise, insbesondere die Hinweise externer Websuchmaschinen, um die ursprüngliche Abfrage zu erweitern. Wir untersuchen 6 verschiedene Methoden mit Hilfe von Suchmaschinen-Abfrageprotokollen, Snippets und Suchergebnissen. Wir führen umfangreiche Experimente mit modernsten PRF-Basislinien und sorgfältiger Parameterabstimmung an drei TREC-Sammlungen durch: AP, WT10g, GOV2. Protokollbasierte Methoden zeigen keine konsistenten signifikanten Gewinne, obwohl sie zur Abfragezeit sehr effizient sind. Die Snippet-basierte Erweiterung unter Verwendung der von einer externen Suchmaschine bereitgestellten Zusammenfassungen bietet erhebliche Effektivitätsgewinne bei guter Effizienz zum Zeitpunkt der Abfrage.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00958-7_33 4618bea23af79f562c6b95ce55b33247;de;;;7.2.;;;Intelligentes Abrufen von Hypermedia-Dokumenten Der intelligente Abruf von Hypermedia-Dokumenten erfordert ausgefeilte Dokumentendarstellungen und Abfragemöglichkeiten, die eine inhalts- und faktenbasierte Abfrage sowie die Berücksichtigung der Dokumentenstruktur ermöglichen. Dieser Beitrag beschreibt POOL, eine probabilistische objektorientierte Vier-Werte-Logik, die eine einheitliche Sicht auf hypermediale Dokumente zum Zwecke ihres Abrufs ermöglicht: Dokumente, Bilder, Autoren, Daten usw. werden als Objekte behandelt und POOL modelliert den Inhalt Objekte, die Fakten über Objekte und die Struktur von Objekten, um ein relevanzbasiertes Ranking von Hypermedia-Dokumenten zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-1772-0_20 b4559871a0ccf6181c5eeb0ec39871c1;de;;;7.2.;;;Effektive Nutzung der semantischen Struktur beim XML-Abruf Das Ziel des XML-Retrievals besteht darin, relevante XML-Dokumentfragmente zurückzugeben, die einem bestimmten Benutzerinformationsbedarf entsprechen, indem die Dokumentstruktur ausgenutzt wird. Der Schwerpunkt dieses Artikels liegt auf der automatischen Ableitung und Verwendung einer semantischen XML-Struktur, um die Abrufleistung von XML-Abrufsystemen zu verbessern. Basierend auf einem naiven Ansatz zur Erkennung benannter Entitäten diskutieren wir, wie die Struktur eines XML-Dokuments mit der Nachrichtensammlung Reuters 21587 angereichert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71496-5_59 763d35d32c374905e6e8ef26bda929bd;de;;;7.2.;;;Ein robuster Feature-Extraktionsalgorithmus für Audio-Fingerprinting In diesem Beitrag stellen wir einen neuen Merkmalsextraktionsalgorithmus vor, der in einem Fingerabdrucksystem als gewichtetes ASF (WASF) bezeichnet wird. Das Merkmal in unserem Algorithmus wird basierend auf einem MPEG-7-Deskriptor-Audio Spectrum Flatness (ASF) und Human Auditory System (HAS) extrahiert. Es wendet auch mehrere effektive Filter und einen weiteren MPEG-7-Deskriptor an: Audio Signature (AS). Dieser Algorithmus wird unter mehreren Audioverzerrungen getestet: Abtastratenänderung, Rauschaddition und Geschwindigkeitsänderung und so weiter. Für diese Verzerrungen kann der WASF-Algorithmus eine Diskriminierung von mehr als 90% erreichen. Die MFCC-Funktion und ein weiterer MPEG-7-Deskriptor-Audio-Spektrum-Centroid (ASC) werden ebenfalls berücksichtigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89796-5_106 b0baf29ed2fd63b82eb8913a55d5dc13;de;;;7.2.;;;Gestaltende Kräfte Langfristige Kräfte und kurzfristige Zwänge bestimmen die allgemeine Form und Natur des „Marktplatzes“ des Gesundheitswesens und die allgemeine Richtung, in die er sich bewegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-84471-3_3 e5d19cf992e715bb0f37ddc20b4037a3;de;;;7.2.;;;Umgang mit Unsicherheit in Gruppenempfehlungsprozessen Während das Problem des Aufbaus von Empfehlungssystemen in den letzten Jahren beträchtliche Aufmerksamkeit auf sich gezogen hat, sind die meisten Empfehlungssysteme zum Empfehlen von Gegenständen an Einzelpersonen ausgelegt. Das Ziel dieses Papiers ist es, einer Gruppe von Benutzern automatisch eine Rangliste neuer Elemente zu empfehlen. Wir werden den Wert der Verwendung von Bayes'schen Netzwerken untersuchen, um die verschiedenen Unsicherheiten in einem Gruppenempfehlungsprozess darzustellen, d. Wir werden auch zeigen, wie die gängigsten Aggregationsstrategien mit einem Bayesschen Netzwerkformalismus kodiert werden können. Das vorgeschlagene Modell kann als ein kollaboratives Bayes-Netzwerk-basiertes Gruppenempfehlungssystem betrachtet werden, bei dem Gruppenbewertungen aus den vergangenen Abstimmungsmustern anderer Benutzer mit ähnlichem Geschmack berechnet werden.;-;-;-;https://link.springer.com/article/10.1007/s11257-008-9061-1 697b3eb0ba067f248b1a1e314be8d0a8;de;;;7.2.;;;Abfragebasierte Ähnlichkeit zwischen Dokumenten mit probabilistischem Korrelationsmodell Die Ähnlichkeit zwischen Dokumenten ist die kritische Information, die bestimmt, ob der clusterbasierte Abruf die Baseline verbessert oder nicht. Eine theoretische Arbeit zur Ähnlichkeit zwischen Dokumenten wurde jedoch nicht untersucht, obwohl eine solche Arbeit ein Prinzip liefern kann, um eine verbesserte Ähnlichkeit in einer gut motivierten Richtung zu definieren. Um diese Theorie zu untermauern, beginnt dieses Papier mit der Verfolgung einer idealen Ähnlichkeit zwischen Dokumenten, die die Cluster-Hypothese optimal erfüllt. Wir schlagen ein probabilistisches Prinzip der Ähnlichkeiten zwischen Dokumenten vor, die optimale Ähnlichkeit zweier Dokumente sollte proportional zur Wahrscheinlichkeit sein, dass sie für eine beliebige Abfrage ko-relevant sind. Basierend auf diesem Prinzip wird die Untersuchung der Ähnlichkeit zwischen Dokumenten formuliert, um das Schätzproblem des Korrelationsmodells von Dokumenten anzugehen. Darüber hinaus erhalten wir, dass die optimale Ähnlichkeit zwischen Dokumenten definiert werden sollte, indem Abfragen als ihre Grundeinheit verwendet werden, nicht Begriffe, nämlich eine auf Abfragen basierende Ähnlichkeit. Wir leiten strikt eine neuartige abfragebasierte Ähnlichkeit aus dem Korrelationsmodell ab, ohne jegliche Heuristik. Experimentelle Ergebnisse zeigen, dass die neue abfragebasierte Ähnlichkeit zwischen Dokumenten die zuvor verwendete begriffsbasierte Ähnlichkeit im Kontext des Bewertungsmaßes von Voorhee signifikant verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78646-7_79 076935d3113c2a779add19cb2f37f9a1;de;;;7.2.;;;Die Praxis der staatlichen Zertifizierung von Hochschulstudenten, die sich auf die Organisation und Technologie des Datenschutzes spezialisiert haben Die aktuelle Bedeutung von Informationssicherheit und Datenschutzfragen wird diskutiert. Die Erfahrung der öffentlichen Zertifizierung der Absolventen einer privaten Hochschule, der Moskauer Akademie für Finanzen und Recht (derzeit Moskauer Universität für Finanzen und Recht), die im Zeitraum 2008–2012 durchgeführt wurde, wird beschrieben Es wird eine Liste mit grundlegenden Lehrmaterialien zum Datenschutz vorgestellt, die von der Moskauer Akademie für Finanzen und Recht entwickelt wurde. Analysiert werden Organisation und Praxis der zweistufigen Zertifizierung von Studierenden, die Abschlussdynamik von Fachkräften, die ein Vollzeit- oder Teilzeitstudium absolviert haben, sowie deren berufliche Verläufe.;-;-;-;https://link.springer.com/article/10.3103/S0147688213020020 2db14eb49ae056840fcb017aa1011a7f;de;;;7.1.;;;Modellgesteuerte Bereitstellung: Überbrückung der Lücke zwischen deklarativen Objektmodellen und prozeduralen Bereitstellungstools Heutige Unternehmensrechenzentren unterstützen Tausende von geschäftskritischen Geschäftsanwendungen, die aus mehreren verteilten heterogenen Komponenten bestehen. Anwendungskomponenten weisen komplexe Abhängigkeiten von der Konfiguration mehrerer Rechenzentrumsnetzwerke, Middleware und zugehöriger Anwendungsressourcen auf. Anwendungen sind auch mit verlängerten Lebenszyklen verbunden, die von der Entwicklung zu Test-, Staging- und Produktionsumgebungen migrieren, mit häufigen Rollbacks. Die Aufrechterhaltung der Betriebsintegrität und -qualität des End-to-End-Rechenzentrums erfordert eine sorgfältige Planung von (1) Anwendungsbereitstellungsdesign, (2) Ressourcenauswahl, (3) Auswahl des Bereitstellungsvorgangs, Parametrierung und Bestellung und (4) Ausführung des Bereitstellungsvorgangs. Aktuelle Produkte für das Data Center Management konzentrieren sich auf die Workflow-basierte Automatisierung der Bereitstellungsprozesse. Workflows sind von begrenztem Wert, da sie viele Aspekte des Prozesses hart kodieren und daher empfindlich auf Topologieänderungen reagieren. Eine neue und vielversprechende Klasse modellbasierter Tools bietet neue Methoden zum Entwerfen detaillierter Bereitstellungstopologien basierend auf einer Reihe von Anforderungen und Einschränkungen. In diesem Papier beschreiben wir einen Ansatz zur Überbrückung der Lücke zwischen generierten „Sollzustandsmodellen“ und den elementaren prozeduralen Bereitstellungsvorgängen, die von Rechenzentrumsressourcen unterstützt werden. In unserem Ansatz bilden wir den Ist- und Sollzustand des Rechenzentrums über Objektmodelle ab. Mit KI-Planung generieren wir automatisch Workflows, die das Rechenzentrum vom Ist-Zustand in den Soll-Zustand bringen. Wir besprechen unsere Optimierungen an Partial Order Planning-Algorithmen für die Bereitstellungsdomäne. Wir haben unseren Ansatz validiert, indem wir einen Prototypen mit einem hochmodernen Bereitstellungsprodukt entwickelt und integriert haben. Außerdem präsentieren wir erste Ergebnisse einer Leistungsstudie.;-;-;-;https://link.springer.com/chapter/10.1007/11925071_21 a4a3eb9d3f321312a692ff8ffdb8ea30;de;;;7.1.;;;Systeme: Vom Albatros zum Vorteil Dieses Kapitel ist eine wichtige Aktualisierung eines Artikels, der vor einigen Jahren veröffentlicht wurde, um Techniken für eine erfolgreiche Implementierung von ERP-Systemen vorzustellen (Norton 2002). Ich habe seit dieser Zeit mehrere Implementierungen geleitet und eine zuvor fehlgeschlagene Implementierung im Wesentlichen behoben. Darüber hinaus präsentiere ich eine ausführliche Analyse eines Themas, das normalerweise in Lehrbüchern des Rechnungswesens, des Finanzwesens oder gar der Informationssysteme nicht behandelt wird: die Taxonomie von Informationen. Dies ist die Grundlage von Geschäftssystemen, aber das Denken der Leute ist einfach, veraltet und im Allgemeinen nutzlos, wenn nicht sogar schädlich. Es gibt einen besseren Weg.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-137-51120-1_11 2c1e40c6e770d1887b2ff019b95c432d;de;;;7.2.;;;Die Qualität von Methoden zur Geschäftsprozessmodellierung Die konzeptionelle Modellierung von Geschäftsprozessen wird populär. Die Zahl der Methoden und Werkzeuge wächst schnell. Gleichzeitig fehlt ein angemessener Rahmen, um die Qualität dieser Modellierungsmethoden zu verstehen. In diesem Beitrag berichten wir über die Entwicklung eines Rahmenwerks zum Verständnis der Qualität von Geschäftsprozessmodellierungsmethoden, dem sogenannten Q-Me-Rahmenwerk. Das Framework definiert die Elemente, die eine Modellierungsmethode bilden, und präsentiert eine Reihe von Qualitätseigenschaften sowie Möglichkeiten, diese zu operationalisieren. In diesem Papier wird das Framework veranschaulicht, indem die Qualität der Unified Modeling Language (UML) zum Zweck der Geschäftsprozessmodellierung untersucht wird. Es werden sowohl Schlussfolgerungen zur Qualität der UML als auch zur Anwendung des Frameworks zum Studium von UML gezogen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35500-9_10 e4934d473d377b0616ba83222eb1ae44;de;;;7.2.;;;Eine Lexikon-geführte LSI-Methode zum Abruf von semantischen Nachrichtenvideos Viele Forscher versuchen, die aus visuellen Merkmalen extrahierten semantischen Informationen zu verwenden, um den semantischen Videoabruf direkt zu realisieren oder den Textabruf der automatischen Spracherkennung (ASR) zu ergänzen. Aber die Kluft zwischen dem visuellen Feature auf niedriger Ebene und dem semantischen Inhalt zu überbrücken, ist immer noch eine schwierige Aufgabe. In diesem Artikel untersuchen wir, wie man Latent Semantic Indexing (LSI) effektiv einsetzen kann, um den semantischen Videoabruf durch die ASR-Texte zu verbessern. Das grundlegende LSI-Verfahren hat sich beim traditionellen Textabruf und beim verrauschten ASR-Textabruf als effektiv erwiesen. In diesem Artikel verwenden wir außerdem das lexikongesteuerte semantische Clustering, um das durch die zusätzlichen Inhalte von Nachrichtenvideos eingeführte Rauschen effektiv zu entfernen, und verwenden das clusterbasierte LSI, um die semantische Struktur, die dem Begriffsausdruck zugrunde liegt, automatisch zu analysieren. Tests mit dem TRECVID 2005-Datensatz zeigen, dass die beiden oben genannten Verbesserungen eine Leistungssteigerung von 21,3 % und 6,9 % gegenüber dem traditionellen Vektorraummodell (VSM) und dem Basis-LSI separat erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77255-2_21 8f4b336e10705b65b5ab044c78020485;de;;;7.2.;;;Graphanwendungen in der Programmierung Die Graphentheorie, die früher eine rein akademische Disziplin war, wird heute in zahlreichen Anwendungsgebieten zunehmend zur Voraussetzung für den effektiven Einsatz von Computern. In dem Beitrag werden aktuelle Arbeiten zur Erstellung von Unterstützungswerkzeugen für die Anwendung von Graphen in der Programmierung untersucht, die vom Labor für Programmaufbau und -optimierung des Ershov-Instituts für Informationssysteme, Sibirische Abteilung der Russischen Akademie der Wissenschaften durchgeführt werden. Diese Arbeiten werden von der Russischen Stiftung für Grundlagenforschung und dem Bildungsministerium unterstützt. Wir beginnen mit der Betrachtung der Arbeiten zur Erstellung einer Enzyklopädie von Graphalgorithmen für Programmierer. Techniken und Werkzeuge zur visuellen Verarbeitung von Graphen und Graphenmodellen werden beschrieben. Ein erklärendes Wörterbuch zur Graphentheorie in Informatik und Programmierung und seine elektronische Version werden diskutiert.;-;-;-;https://link.springer.com/article/10.1023/A%3A1010990400700 2b893d4247c10e39064f96723a8c8c53;de;;;7.2.;;;Textzusammenfassung in Android-Mobilgeräten Dieses Papier präsentiert eine Textzusammenfassung in Android-Mobilgeräten. Mit der Verbreitung kleiner Bildschirmgeräte und der Weiterentwicklung der mobilen Technologie wurde die Textzusammenfassungsforschung durch den neuen Paradigmenwechsel beim ubiquitären Zugriff auf Informationen jederzeit, überall und auf jeden Fall auf mobilen Geräten inspiriert. Das Durchsuchen großer Dokumente auf einem mobilen Gerät ist jedoch aufgrund der kleinen Bildschirmgröße und der Probleme mit der Informationsüberflutung eine Herausforderung. In dieser Arbeit wurde eine semantische und syntaktische Zusammenfassung versucht und in einem Textzusammenfasser implementiert. Die Ziele des Papiers sind zweifach. (1) WordNet 3.1 in das vorgeschlagene System namens TextSumIt zu integrieren, das einzelne lange Dokumente in kürzeren zusammengefassten Text verdichtet. (2) Um Android-Mobilbenutzern eine bessere Lesbarkeit zu bieten, indem die hervorstechenden Ideen in Aufzählungspunkten angezeigt werden. Die Dokumente wurden aus DUC 2002- und Reuter-Nachrichtendatensätzen gesammelt. Experimentelle Ergebnisse zeigen, dass das Textzusammenfassungsmodell die Genauigkeit, Lesbarkeit und Zeitersparnis in der Textzusammenfassung im Vergleich zu MS Word AutoSummarize verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-4585-18-7_64 fecf2bf6906e30e1528c5940ee30c9ce;de;;;7.2.;;;Neue Ansätze für den Abruf gesprochener Dokumente In diesem Artikel werden vier neue Techniken für den Abruf von gesprochenen Dokumenten mit offenem Wortschatz vorgestellt: eine Methode zur Erkennung von Slots, die möglicherweise ein Abfragemerkmal enthalten, eine Methode zur Schätzung von Auftrittswahrscheinlichkeiten, eine Technik, die wir sammlungsweite Wahrscheinlichkeitsneuschätzung nennen, und ein Gewichtungsschema nutzt die Tatsache, dass lange Abfragemerkmale zuverlässiger erkannt werden. Diese vier Techniken wurden unter Verwendung der TREC-6-Testsammlung zum Abrufen von gesprochenen Dokumenten evaluiert, um die Verbesserungen der Abrufeffektivität in Bezug auf eine Basisabrufmethode zu bestimmen. Die Ergebnisse zeigen, dass trotz der großen Anzahl von Spracherkennungsfehlern die Retrieval-Effektivität erheblich verbessert werden kann.;-;-;-;https://link.springer.com/article/10.1023/A%3A1026512724855 c13563b27051d5e511128158898e8f77;de;;;7.1.;;;Die Bildung und Führung von virtuellen Teams in der T Telecom Company In der T Company, einer regionalen Niederlassung von China Telecom, sind virtuelle Marketingteams entstanden, die in den letzten Jahren zu enormen Erfolgen geführt haben. Es ist von Vorteil, die Gründe für ein solches Phänomen zu untersuchen und die Faktoren zu identifizieren, die zu einer hohen Leistung führen. Die Untersuchung dieser Probleme trägt auch dazu bei, unser Verständnis der Führungserfahrung und einiger wichtiger organisatorischer Veränderungen, die chinesische Staatsunternehmen durchlaufen, zu vertiefen. In dieser Fallstudie konzentriert sich die Analyse der Charaktere leistungsstarker virtueller Marketingteams in T Company auf vier Hauptteamprozesse, nämlich Virtualität und Kommunikation, Personalauswahl, Vertrauen und Motivation. Schlüsselfaktoren, die zur hohen Leistung des Teams beitragen, werden analysiert, und die Auswirkungen der Ergebnisse auf das Management und zukünftige Forschungsrichtungen werden ebenfalls diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s11782-008-0033-4 7514879c1b33133ae3685dbc65034b94;de;;;7.1.;;;Neukonfiguration von Geschäftsprozessen für Enterprise Information System basierend auf UML und polychromatischen Sets Die Rekonfigurierbarkeit ist eine der intelligenten Eigenschaften von Unternehmensinformationssystemen. Es ist auch ein Schlüsselfaktor, der ein Unternehmen beeinflusst, um auf Marktveränderungen zu reagieren und einen globalen Wettbewerb zu gewinnen. In diesem Dokument wird die Neukonfiguration von Geschäftsprozessen für Unternehmensinformationssysteme untersucht, um die schnellen Veränderungen in der Geschäftsumgebung zu unterstützen. Zunächst werden UML und polychromatische Sets basierend auf ihren Vor- und Nachteilen vereint und eine Methode zur Rekonfiguration von Geschäftsprozessen vorgeschlagen. Zweitens werden die Hauptinhalte der Geschäftsprozessrekonfiguration für Unternehmensinformationssysteme detailliert, darunter das Modell des Geschäftsprozesses auf Basis von UML, die Übersetzung vom UML-Aktivitätsdiagramm in das PS-Konturmatrixmodell, die Analyse und Rekonfiguration von Geschäftsprozessen und die Implementierung Informationssystem. Schließlich wird ein Unternehmensinformationssubsystem der Ersatzteilanforderung zur Anwendung und Validierung des vorgeschlagenen Verfahrens bereitgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-34456-X_38 8d1f67236ad9e71a51cc6e4db143a3e3;de;;;7.2.;;;Forschung und ethische Fragen, die sich aus ethnografischen Interviews der Patientenreaktionen auf einen intelligenten interaktiven Telefonberater für das Gesundheitsverhalten ergeben Menschen entwickeln starke Reaktionen auf Maschinen. Zu diesen Reaktionen gehören persönliche Beziehungen, die Menschen mit technischen Objekten eingehen. Die Erforschung der Art und Weise, wie Individuen mit Informationstechnologien umgehen und wie Individuen diese Technologien als maschinen- oder menschenähnlich betrachten, ist ein faszinierendes und nützliches Forschungsgebiet. Dieser Beitrag stellt eine Studie vor, in der diese Probleme als zentrales, wenn auch unerwartetes Thema in ethnografischen Interviews auftraten, die unter Personen durchgeführt wurden, die ein intelligentes interaktives Telefonsystem, Telephone-Linked Care (TLC), das Beratung zu Gesundheitsverhalten bot, durchgeführt. Viele Befragte äußerten Unklarheiten darüber, ob sie während TLC-Gesprächen mit einer Maschine oder mit einer Person sprachen. Interviewergebnisse deuten darauf hin, dass die Menschen persönliche Beziehungen mit dem TLC-System oder zumindest mit der Stimme am Telefon aufgebaut haben. Diese Beziehungen reichten von Schuldgefühlen wegen ihrer Ernährung oder ihres Bewegungsverhaltens bis hin zu Liebesgefühlen für die Stimme.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35566-5_6 df98616cda82e1c7d02374daa6878374;de;;;7.2.;;;Ein verallgemeinertes Effizienzkriterium für Telekommunikationssysteme Das Kapitel entwickelt ein verallgemeinertes Kriterium zur Einschätzung der Effizienz von Telekommunikationssystemen, das auch auf wirtschaftswissenschaftliche Informationssysteme angewendet werden kann. Das Kriterium kombiniert die Bewertung besonderer Eigenschaften wie Informationsmenge, Störfestigkeit, Datenübertragungsgeschwindigkeit und Übertragungskosten. Im Gegensatz zu anderen Kriterien ist das vorgeschlagene dimensionslos und normiert, schätzt also ein Telekommunikationssystem anhand reeller Zahlen zwischen 0 und 1. Das Design des entwickelten Kriteriums auf der Grundlage des Konzepts der bedingten Entropie ist recht einfach. Es erlaubt, den Kennwert des Systems mit ausreichender Genauigkeit für die Praxis zu berechnen und so verschiedene Telekommunikationssysteme zu vergleichen, um die wirtschaftlichen Informationen zu übermitteln. Das verallgemeinerte Kriterium setzt sich aus einigen Teilkriterien zusammen, die es erlauben, das Telekommunikationssystem nicht nur als Ganzes, sondern auch hinsichtlich seiner Teileigenschaften, wie Produktivität, Zuverlässigkeit und Übertragungskosten, abzuschätzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10653-3_11 64b94f036db18d53eafb7c982cf5aeba;de;;;7.2.;;;Analyse der Wissensbasis der Primärprävention Primäre Prävention hat sich in jüngster Zeit sowohl im sozialpsychologischen als auch im medizinischen Bereich als oberste Priorität auf die nationale Agenda gesetzt. Dieser Beitrag untersucht die Wissensbasis, auf der Präventionsbemühungen basieren könnten. Die Ergebnisse zeigen, dass herkömmliche veröffentlichte Datenbanken einen extremen Mangel an Präventionsmaterialien aufweisen und computergestützte Informationssysteme nicht besser sind. Implikationen dieser Erkenntnisse für die Primärprävention werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF01324572 4b0a931aee2c03b5189d64f838dadc58;de;;;7.1.;;;Globaler Concurrent Engineering-Ansatz für Produktionssysteme Das Grundstudium ist die erste Phase eines Ingenieurprojekts. Sie zielen darauf ab, Lösungen zu finden, um die Leistung von Produktionseinheiten zu verbessern, ihre Machbarkeit, ihre Rentabilität zu bewerten und die Planung ihrer Installation festzulegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34879-7_60 0576c4764265042ccecdd07c47548b66;de;;;7.1.;;;Die Implementierung von Item in Botswana Dieser Beitrag berichtet über die Implementierung eines computergestützten Systems für das Bildungsmanagement in Botswana. Das Computerisierungsprojekt begann im April 1998 und ging im Bildungsministerium am 3.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35689-1_5 befa8607728eac591b652cde07c4f95c;de;;;7.1.;;;Shinayaka-Systems Design: Eine mehrzielorientierte Anlagen-Layout-Planung für Kraftwerke Bei Auslegungsfragen des Kraftwerkslayout-Engineerings kommt es häufig vor, dass objektive Funktionen oder Kriterien hinsichtlich Kosten, Robustheit oder Lieferzeit einander widersprechen. Dazu entwickeln wir nun ein Konzept-Unterstützungssystem, das durch eine flexible Mensch-Maschine-Kommunikation und einen Mehrziel-Optimierungsalgorithmus für die Anlagenlayoutplanung umfassend genutzt wird. Dieser Designansatz basiert auf dem „Shinayaka Systems Principle“, das Reaktivität, Anpassungsfähigkeit und Flexibilität befürwortet. In diesem Beitrag diskutieren wir die Grundzüge der Anlagen-Layout-Planung für Kraftwerke und evaluieren geeignete Mehrzieloptimierungsalgorithmen einschließlich der Satisficing Trade-off-Methode. Als typisches Beispiel wenden wir diese Methode auf den Modellfall von GuD-Kraftwerken an, die als EPC-Projekt (Engineering, Procurement & Construction) sehr beliebt sind.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-32391-0_41 574599ab05b492db499914b484b7b5a3;de;;;7.1.;;;Die Unsicherheit von Informationssystemen: Ursache oder Wirkung von VUCA? Der wachsende Informationsbedarf, die Zunahme der PC-Kenntnisse und die kennzahlenorientierte Führung von Unternehmen haben die IT allgegenwärtig, ja sogar unverzichtbar gemacht. Doch sind Anwender und Entscheider heute besser informiert als ihre Vorfahren, sicherer in ihren Entscheidungen? Oder führt die Allgegenwart von Informationen zu einer höheren Unsicherheit, zu einer endlosen Suche nach unbestreitbaren Entscheidungen ohne Erfolg? Unsere subjektive Vertrautheit mit der Informationstechnologie grenzt an Überbewertung und kann dazu führen, dass wir sowohl in wirtschaftlicher als auch in sozialer Hinsicht höhere Risiken eingehen. Der Artikel geht dieser Frage entlang dreier infrastruktureller Sphären nach, basierend auf FA von Hayeks „Wissensvorstellung“: Die Entwicklung von Technologie stützt sich auf eine bestehende technologische Infrastruktur (das Internet), die es erlaubt, selbst kleinste Informations-Feeds (das Internet der Dinge) zu verbinden. . Darauf aufbauend ermöglicht die Wissensinfrastruktur nachhaltige Geschäftsmodelle zur Erbringung neuer wirtschaftlicher Dienstleistungen. Sowohl Technik als auch Wissen folgen einer „spontanen Ordnung“, und so ist es für uns Menschen eine Anforderung, eine Rechtsordnung aufzubauen und aufrechtzuerhalten, um akzeptable Grenzen zu schaffen, zwischen denen die Entwicklung einer sicheren und sicher zu nutzenden Informationstechnologie stattfinden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16889-0_15 4570b74e144ba561b74463aee12bff1b;de;;;7.1.;;;Unterstützung bei Entscheidungen des Intellektuellen Managements in der Gasindustrie Es werden bestimmte Fragen des Aufbaus von Informationsmanagementsystemen in Unternehmen der Gaswirtschaft betrachtet. Ein Ansatz zum Entwerfen eines hybriden intellektuellen Entscheidungsunterstützungssystems wird vorgeschlagen.;-;-;-;https://link.springer.com/article/10.1134/S0005117911050183 46460143de4776510a3cc6d9f78afb8b;de;;;7.1.;;;Zieldatenprojektion in der multivariaten Visualisierung – eine Anwendung für die Minenplanung Visualisierung ist ein zentrales Thema für die multivariate Datenanalyse. Multivariate Visualisierung ist ein aktives Forschungsthema und es wurden viele Anstrengungen unternommen, um geeignete und aussagekräftige visuelle Darstellungen zu finden. In diesem Beitrag stellen wir eine Technik zur Datenprojektion in multivariaten Datensätzen vor, genannt Target Data Projection (TDP). Durch diese Technik wird für jedes multivariate Datenelement ein Vektor unter Berücksichtigung einer Teilmenge der verfügbaren Variablen erzeugt. Es wird eine neue Skalarvariable erzeugt, die diese Vektoren über einen Zielvektor projiziert, der die definiert;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24709-8_64 db998ecaa69a140a4eee21a4ecb83d7b;de;;;7.2.;;;Zur Identifizierung von Phrasen mithilfe von Sammlungsstatistiken Die Verwendung von Phrasen als Teil von Ähnlichkeitsberechnungen kann die Sucheffektivität verbessern. Der Gewinn hat jedoch seinen Preis, entweder in Bezug auf die Indexgröße, wenn alle Worttupel als abfragbare Objekte behandelt werden, oder in Bezug auf die Verarbeitungszeit, wenn zum Abfragezeitpunkt Posting-Listen für Phrasen erstellt werden. Auch fehlt es an Klarheit, welche Formulierungen „interessant“ im Sinne von nützlichen Informationen sind. Hier untersuchen wir verschiedene Techniken zur Erkennung von Phrasen anhand von Statistiken großer Sammlungen und bewerten deren Qualität.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16354-3_30 b5bb8727d7ed140723472a77a50afbab;de;;;7.1.;;;Auf dem Weg zu einer Informationsstrategie für das Handelsmanagement In einem zunehmend wettbewerbsorientierten Einzelhandelsumfeld erhöhen sich Chancen und Risiken. Das Einzelhandelsmanagement erkennt den Wettbewerbsvorteil, der durch umsetzbare Informationen bereitgestellt werden kann. Es gibt kein Argument dafür, dass das Einzelhandelsmanagement schneller, billiger und genauer mehr entgegengesetzte Informationen benötigt. Ohne die entsprechenden Informationen kann von ihnen nicht erwartet werden, dass sie effizient und effektiv funktionieren, das Management kann nur so gut sein wie die verfügbaren Informationen, die ihnen zugänglich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-6405-4_3 3ddc29d9a4ad895a1c938e0f1268b775;de;;;7.1.;;;Eine aufgabenbasierte Schnittstelle zu juristischen Datenbanken Dieses Papier befasst sich mit den Problemen, die Anwälte beim Abrufen von Informationen aus Rechtstextdatenbanken haben. Herkömmliche Zugriffsmechanismen von Textdatenbanken erfordern, dass Benutzer wissen, wie Informationen gespeichert werden. Wir schlagen eine Methode zur Indexorganisation vor, die Rechtsanwälte von den internen Speicherstrukturen abschirmt und es ihnen ermöglicht, die Rechtsdatenbanken in ihren eigenen rechtlichen Begriffen zu adressieren. Der vorgeschlagene Index basiert auf einem Modell rechtlicher Aufgaben im Gegensatz zu herkömmlichen Datenbankindizes, die den Inhalt der Datenbank darstellen. Wir legen die Architektur eines Informationssystems fest, in dem dieses Aufgabenmodell verwendet wird, um den Informationsbedarf zu ermitteln, relevante Dokumente abzurufen und methodische Anleitungen für die Rechtsaufgabe selbst zu geben. Um dem Design eines aufgabenbasierten Rechtsinformationsrecherchesystems Rechnung zu tragen, ist ein wesentlicher Teil dieses Beitrags der Analyse und Darstellung von Rechtsaufgaben gewidmet.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008291611892 ff431eab3abec4adabb24c7f956536ff;de;;;7.1.;;;Blinker entfernen: Was eine Prozesssicht über G2G-Informationssysteme in Flandern lernt Ein wichtiges Ziel des E-Government von Regierung zu Regierung (G2G) ist der Informationsaustausch und die Verbindung verschiedener Informationsinseln. Verschiedene Barrieren erschweren diese Verbindung. Die Faktorenforschung liefert eine teilweise Erklärung dafür, warum so viele G2G-Informationssysteme versagen. In diesem Beitrag nehmen wir eine breitere Perspektive ein, indem wir die Prozessforschung anwenden, um acht wiederkehrende Probleme des flämischen G2G-IS in ihrem dynamischen Kontext zu untersuchen. Wir testen, ob das Analyse-Framework von Sauer im Vergleich zum faktorbasierten Projektmanagement zusätzliche Management-Erkenntnisse liefern kann. Unsere Ergebnisse, basierend auf Interviews und Fokusgruppen, zeigen, dass das Prozessmanagement besser geeignet ist, mit dem dynamischen Kontext und den Interaktionen des flämischen G2G IS umzugehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22479-4_16 a7fdd6a81d23a1cdcc034f07c3f464c4;de;;;7.2.;;;Fixed-Query-Array: Eine schnelle und kostengünstige Datenstruktur für die Näherungssuche Pivot-basierte Algorithmen sind effektive Werkzeuge für die Näherungssuche in metrischen Räumen. Sie ermöglichen den Handelsraum-Overhead für die Anzahl der Entfernungsbewertungen, die zur Abfragezeit durchgeführt werden. Mit zusätzlichen Suchstrukturen (die zusätzlichen Platzbedarf verursachen) können sie auch die Anzahl der Nebenberechnungen reduzieren. Wir führen eine neue Datenstruktur ein, das Fixed Queries Array (FQA), dessen Neuheiten sind (1) es erlaubt sublineare zusätzliche CPU-Zeit ohne zusätzliche Datenstruktur, (2) es erlaubt den Handel mit der Anzahl der Pivots für ihre Präzision, um besser zu Nutzung des verfügbaren Speichers. Wir zeigen experimentell, dass die FQA ein effizientes Werkzeug ist, um in metrischen Räumen zu suchen, und dass sie im Vergleich zu anderen Ansätzen des Standes der Technik günstig abschneidet. Seine Einfachheit macht es zu einem einfachen, aber effektiven Werkzeug für Praktiker, die nach einer Black-Box-Methode suchen, um ihre Anwendungen einzubinden.;-;-;-;https://link.springer.com/article/10.1023/A%3A1011343115154 cb9b83ef145f3f8149f27d8d5af826a8;de;;;7.2.;;;Schnellerer Abruf von MaxScore-Dokumenten mit aggressiver Verarbeitung Große Suchmaschinen verarbeiten Tausende von Anfragen pro Sekunde über Milliarden von Dokumenten, wodurch eine enorme Leistungslücke zwischen disjunkten und konjunktiven Anfragen entsteht. Eine wichtige Klasse von Optimierungstechniken, die als Top-k-Verarbeitung bezeichnet wird, wird daher verwendet, um die Lücke zu verkleinern. In diesem Beitrag schlagen wir einen aggressiven Algorithmus vor, der auf dem Document-at-a-time (DAAT) MaxScore basiert und darauf abzielt, die Abfragelatenz disjunktiver Abfragen weiter zu reduzieren. Im Wesentlichen kann unser Ansatz mit dem Namen Aggressive MaxScore (AMaxScore) durch Feinabstimmung des anfänglichen Top-k-Schwellenwerts schnell beschleunigt werden, was einen ersten aggressiven Prozess und dann einen ergänzenden Prozess ermöglicht, wenn nicht genügend Ergebnisse zurückgegeben werden. Experimente mit der TREC GOV2-Sammlung zeigen, dass unser Ansatz die Verarbeitungszeit disjunktiver Abfragen im Durchschnitt um fast 15,4 % gegenüber der aktuellen MaxScore-Basislinie reduziert, während immer noch die gleichen Ergebnisse wie bei der disjunktiven Auswertung zurückgegeben werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08010-9_1 98752440c3d21ee6e349ec0e20d8ac2d;de;;;7.2.;;;Vorhersage chinesischer Abkürzungen aus Definitionen: Ein empirischer Lernansatz mit Unterstützungsvektorregression Im Chinesischen spielen Phrasen und benannte Entitäten eine zentrale Rolle bei der Informationsbeschaffung. Abkürzungen machen jedoch schlüsselwortbasierte Ansätze weniger effektiv. Dieses Papier präsentiert einen empirischen Lernansatz zur Vorhersage chinesischer Abkürzungen. In dieser Studie wird jede Abkürzung als reduzierte Form der entsprechenden Definition (erweiterte Form) verwendet und die Abkürzungsvorhersage wird als Bewertungs- und Rangordnungsproblem unter Abkürzungskandidaten formalisiert, die automatisch aus der entsprechenden Definition generiert werden. Durch die Verwendung von Support Vector Regression (SVR) für die Bewertung können wir mehrere Abkürzungskandidaten zusammen mit ihren SVR-Werten erhalten, die für das Kandidatenranking verwendet werden. Experimentelle Ergebnisse zeigen, dass die SVR-Methode besser abschneidet als die beliebte heuristische Regel der Abkürzungsvorhersage. Darüber hinaus übertrifft die SVR-Methode bei der Abkürzungsvorhersage das Hidden-Markov-Modell (HMM).;-;-;-;https://link.springer.com/article/10.1007/s11390-008-9156-5 a478e545e2fb27e314f00002dea9cecf;de;;;7.1.;;;Systemdynamiksimulation des räumlichen Charakters Die Modellierung der Systemdynamik wurde auf regionale, städtische und kommunale Problemlösungen angewendet, wenn kritische Richtlinien mit Landnutzungskontrollen befasst sind. Die Darstellung von Veränderungen der räumlichen Verteilung und des physischen Erscheinungsbilds verschiedener Aktivitäten wurde traditionell dadurch erreicht, dass diese als Transfers zwischen relativ homogenen Teilbereichssektoren modelliert wurden. Aufgrund fehlender Möglichkeiten zur direkten Darstellung des physischen Raums, der die Verteilung und das Erscheinungsbild von Aktivitäten über den geografischen Raum zeigt, hat die Modellierung von System Dynamics in der Umwelt- und Stadtplanungspraxis wenig Beachtung gefunden. In diesem Papier beschreiben wir die Hauptkomponenten einer Methodik, um die Systemdynamik-Modellierung integraler in Planung und Design für die Gemeindeentwicklung zu machen, einschließlich der räumlichen Darstellung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-74946-9_58 a4f64a0e70f45b1a1b274d12701173a4;de;;;7.1.;;;Design Thinking und Partizipation: Lehren aus drei Fallstudien In diesem Beitrag wird anhand von drei Fallstudien untersucht, wie Design Thinking- und Serious-Games-Ansätze zur Unterstützung der Partizipation eingesetzt werden können. Tatsächlich werden wir diese Ansätze in drei verschiedenen Kontexten analysieren: (i) ein staatliches Multi-Utility-Unternehmen, (ii) eine politische Partei, (iii) ein strategisches Informationssystem-Komitee. Unser Analyse-Framework basiert auf den Konzepten „wahrgenommene Nützlichkeit“ und „wahrgenommene Benutzerfreundlichkeit“ und wir werden sie verwenden, um die gewonnenen Erkenntnisse zu diskutieren. Unser Hauptergebnis ist, dass diese Ansätze wirklich dazu beitragen, komplexe und abstrakte Sachverhalte „greifbarer“ und damit verständlicher zu machen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23333-3_12 09622fac849e566643b40029ae18bd1a;de;;;7.1.;;;Organisation und Systeme Das Design von Organisation und Systemen ist miteinander verknüpft und sollte das gesamte SEST umfassen. Das Entwerfen erfordert Kenntnisse über SEST und die tatsächlichen SEST-Neigungen, in denen das Design platziert wird. Das Verständnis und das Wissen über die Wirkung von Systemen auf die Organisation und die Wirkung der Organisation auf Entwicklungen in der Technologie für Systeme sollten so entwickelt werden, dass die Organisationsgestaltung als primäres Ziel erleichtert wird.;-;-;-;https://link.springer.com/chapter/10.1057/9780230625419_2 69bf1f3b1492fd9fd598f57e5f0ade59;de;;;7.2.;;;Erstellen eines beschreibenden und unterscheidenden visuellen Codebuchs für großformatige Bildanwendungen Inspiriert durch den Erfolg von Textwörtern in der groß angelegten Textinformationsverarbeitung versuchen Forscher, visuelle Wörter aus Bildern zu extrahieren, die ähnlich wie Textwörter funktionieren. Visuelle Wörter werden üblicherweise durch Clustern einer großen Menge lokaler Bildmerkmale erzeugt, und die Clusterzentren werden als visuelle Wörter verwendet. Dieser Ansatz ist einfach und skalierbar, führt jedoch zu verrauschten visuellen Wörtern. Es wird von vielen Arbeiten berichtet, die versuchen, die Beschreibungs- und Unterscheidungsfähigkeit visueller Wörter zu verbessern. Dieser Artikel gibt einen umfassenden Überblick über das visuelle Vokabular und beschreibt verschiedene hochmoderne Algorithmen. Zunächst wird ein umfassender Überblick und eine Zusammenfassung der verwandten Arbeiten zum visuellen Vokabular präsentiert. Dann stellen wir unsere neuesten Algorithmen zur deskriptiven und diskriminativen visuellen Wortgenerierung vor.;-;-;-;https://link.springer.com/article/10.1007/s11042-010-0636-6 05278fc9d0c20f18069e19406ed47f0d;de;;;7.1.;;;Einige Wahrnehmungen und Spannungen in der Mikroökonomie: Ein Hintergrund In diesem einführenden Kapitel versuchen wir, einen Teilhintergrund der Analyse zu liefern, die unsere Mitwirkenden so eloquent artikulieren. In einem solchen Band bleiben zwangsläufig viele Lücken, und obwohl wir nicht den Anspruch erheben, sie zu füllen, hoffen wir, dass sich diese Lücken auf den folgenden Seiten etwas verkleinern und die folgenden Kapitel relativiert werden. Es wird versucht, eine Wahrnehmung der alternativen Ansätze, Errungenschaften, Kontroversen und Probleme sowie der zugrunde liegenden Spannungen und deren Ursachen zu vermitteln. Die Darstellung ist notgedrungen selektiv und versucht, so unparteiisch wie menschenmöglich zu sein (d.h. die verschiedenen Protagonisten für sich selbst sprechen zu lassen), obwohl ich mir bewusst bin, dass sich meine eigenen Vorlieben und Vorurteile unweigerlich einschleichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-06876-0_1 f1da11143bd73219328ec8f8fa79e793;de;;;7.1.;;;Anwendbarkeit von Planung und Kontrolle in einer Hafenumgebung In der Literatur wird viel Wert auf intermodalen Verkehr, maritime Effizienz und Hafenverwaltung gelegt, aber wenig darüber, wie Aktivitäten in Häfen geplant und koordiniert werden können, insbesondere im Kontext kleiner und mittlerer Häfen. Dieses Papier wird sich den Planungsaufgaben im Hafen annähern, indem es Wissen aus dem gut untersuchten Bereich der Planung und Steuerung in der Fertigung nutzt und die Struktur der strategischen, taktischen und operativen Planung nutzt, dies jedoch in Bezug auf die hierarchische Struktur der meisten in kleinere Häfen. Das Papier stellt fest, dass die allgemeinen Planungsfunktionen der Fertigungsplanung und -steuerung anwendbar sein können, wenn sie als Möglichkeit zur Abstimmung von Kapazität und Nachfrage betrachtet werden und sich nicht auf die Methoden in den Planungsfunktionen konzentriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44739-0_68 292a5e839dfef0689b5c12d2f73b5add;de;;;7.1.;;;Geschäftsführung: die Anwaltskanzlei Eine „typische Anwaltskanzlei“ gibt es nicht, da die Rechtsausübung so vielfältig ist, dass man nicht von „der“ Kanzlei sprechen kann. Da der Computer als Mittel zur Herstellung von Effizienz und Effektivität in einer Anwaltskanzlei verwendet wird, ist es offensichtlich, dass seine Verwendung stark von der Form der einzelnen Anwaltskanzleien bestimmt wird – was in einer Kanzlei effektiv und effizient ist, kann in einer anderen katastrophal sein .;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0593-0_6 e0c3117b1396d8d904c9be6b5cede140;de;;;7.1.;;;Lehren aus einem abgebrochenen IKT-Curriculum-Design-Projekt: Eine retrospektive Sicht Die Entwicklung kompetenter Humanressourcen ist für politische Entscheidungsträger, die den Übergang zu einer Informationsgesellschaft anstreben, von entscheidender Bedeutung. Hochschulen wird häufig die Aufgabe zugeschrieben, Fachkräfte der Informationstechnologie/-systeme (IT/S) für die Wirtschaft der Zukunft auszubilden. Dieses Kapitel reflektiert kritisch ein eingestelltes Projekt zur Gestaltung von IKT-Lehrplänen, das an zehn iranischen Universitäten eingesetzt werden sollte. Es zielt darauf ab, die Aufmerksamkeit der politischen Entscheidungsträger auf die Bedeutung praktischer Überlegungen bei der Erarbeitung von Strategien zur Personalentwicklung zu lenken. Das Kapitel konzentriert sich auf die Herausforderungen der Ausbildung von IT/S-Fachkräften an das zentralisierte Hochschulsystem sowie die Herausforderung, soziale Kompetenzen für IT/S-Fachkräfte zu vermitteln und die Bedeutung der Landessprache. Es wird eine Analyse der impliziten Annahmen hinter der nationalen IKT-Politik des Iran und der Mängel dieser Politik im Hinblick auf diese Herausforderungen gegeben. Einige praktische Empfehlungen und eine Zusammenfassung schließen das Kapitel ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-84822-8_16 fdb89b57920b0f4731accd27454f25e6;de;;;7.1.;;;Maßgeschneidertes Simulationsspiel von Bestellung bis Lieferung Dieses Kapitel beschreibt den Einsatz eines maßgeschneiderten Planspiels als partizipative Methode im Änderungsmanagement einer Produktlinie. Die Prinzipien und die praktische Umsetzung der Planspiele in einem Fallunternehmen werden beschrieben und Ergebnisse und Erfahrungen diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-5041-2870-4_14 49728a573c9e21b1b5fa99ce3e7614f6;de;;;7.2.;;;Entwicklung und Pflege von Fuzzy-Modellen in Finanzanwendungen Unser Ziel ist es, den typischen Lebenszyklus eines wissensbasierten Fuzzy-Modells zu veranschaulichen, beginnend bei der Entwicklung, dem Testen, der Optimierung und dem Einsatz bis hin zur Pflege der Wissensdatenbank. Diesen Prozess veranschaulichen wir im Rahmen eines Versicherungsantrags. Zuerst definieren wir einige Schlüsselkonzepte von Soft-Computing-Modellen und diskutieren einige Designkompromisse, die angegangen werden müssen. Dann konzentrieren wir uns auf das Design und die Implementierung eines Fuzzy Rule-based Classifiers (FRC). Wir erstellen einen Standard-Referenzdatensatz (SRD), bestehend aus 3.000 Versicherungsanträgen mit den entsprechenden Entscheidungen. Der SRD steht beispielhaft für die Ergebnisse eines idealen, optimalen Klassifikators und stellt das Ziel unseres Designs dar. Wir wenden evolutionäre Algorithmen an, um eine Offline-Optimierung der Entwurfsparameter des Klassifikators durchzuführen und sein Verhalten zu modifizieren, um dieses Ziel anzunähern. Die SRD wird auch als Referenz für die Prüfung und Durchführung einer fünffachen Kreuzvalidierung der Klassifikatoren verwendet. Schließlich konzentrieren wir uns auf die Überwachung und Wartung des FRC. Wir beschreiben eine Fusionsarchitektur, die einen Offline-Qualitätssicherungsprozess des Online-FRC unterstützt. Das Fusionsmodul nimmt die Ausgaben mehrerer Klassifikatoren, bestimmt ihren Konsensgrad und vergleicht ihre Gesamtübereinstimmung mit der Entscheidung des FRC. Aus dieser Analyse können wir die am besten geeigneten Fälle identifizieren, um die SRD zu aktualisieren, zu prüfen oder von leitenden Underwritern überprüft zu werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-44465-7_6 6c25607eef6c9c37a76ddf28eead38f8;de;;;7.1.;;;Analyse des Software-Einführungsprozesses für ERP-Systeme Softwareimplementierung ist ein Prozess, der darauf abzielt, softwarebasierte Dienste oder Komponenten in den Arbeitsablauf einer Organisation zu integrieren. Für ERP-Systeme, mit denen Unternehmen alle ihre primären Geschäftsprozesse integrieren können, ist dies ein kritischer Prozess, der schwierig, langwierig und oft erfolglos wird. Aus diesem Grund gibt es derzeit einige Vorschläge, die darauf abzielen, ERP-Einführungsprozesse durch die Definition von Methoden, Methoden, Modellen oder Prozessen, die die wichtigsten Phasen und Aktivitäten beschreiben, zu erleichtern und zu strukturieren. In diesem Beitrag wird der ERP-Implementierungsprozess unter Berücksichtigung einiger methodischer Vorschläge zur ERP-Implementierung analysiert, die aus einer systematischen Literaturrecherche gefunden wurden. Aus dieser Analyse wurden fünf gemeinsame Phasen identifiziert, die in den Vorschlägen dargestellt werden (Auswahl, Projektplanung, Design und Anpassung, Implementierung und Wartung und kontinuierliche Verbesserung) und zusätzlich wurden die Hauptaktivitäten definiert, die während jeder dieser Phasen durchgeführt werden, um unterstützen Softwareunternehmen bei der ERP-Einführung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-66562-7_22 85324243a4ff0d6b63a0280ec30a07c8;de;;;7.1.;;;Leistungsmanagement in kollaborativen Netzwerken: Schwierigkeiten und Barrieren Die globale Wettbewerbsfähigkeit verpflichtet Unternehmen zur Zusammenarbeit bei vielen Prozessen wie der Entwicklung neuer Produkte und Dienstleistungen, um den Lebenszyklus, die Entwicklung und die Kommerzialisierung zu verkürzen. Daher hat sich die Kompetenz von einem individuellen Fokus zu einem Supply Chain Management und seit einigen Jahren zu einem kollaborativen Unternehmensnetzwerkansatz entwickelt. Es ist üblich, Rahmen für die Messung/Verwaltung der Leistung in erweiterten Unternehmen, Lieferketten, virtuellen Unternehmen usw. zu finden. Allerdings befassen sich nur wenige Autoren mit einer höheren Ebene: der kollaborativen Netzwerke. Dieses Konzept der Unternehmensführung bereitete nicht nur aus konzeptioneller und struktureller Sicht größere Schwierigkeiten, sondern auch hinsichtlich des Entwurfs und der späteren Entwicklung von Systemen, die in der Lage sind, die in dieser Art von Organisationen erzielte Leistung zu verwalten. Diese Arbeit beschreibt sowohl die Hauptschwierigkeiten als auch die Hindernisse beim Versuch, Leistungsmanagementkonzepte auf kollaborative Netzwerke anzuwenden. In diesem Sinne werden die Schwächen der bestehenden organisationsinternen Frameworks hervorgehoben, die in ihrer Konzeption nicht projiziert werden können, um die Leistung in kollaborativen Netzwerken zu verwalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23330-2_15 bcaad2e2d0dcfb2876657dbb808cb3f2;de;;;7.1.;;;Eine Perspektive auf die Grundlagen objektorientierter Informationssysteme In dieser Arbeit wird objektorientiertes Informationssystem (OOIS) als ein Informationssystem definiert, das objektorientierte Technologien beim Systementwurf und bei der Implementierung verwendet. Dieses Papier versucht, das Konzept von OOIS und seine Implikationen zu klären und Forschung und Praktiken im OOIS-Bereich zusammenzufassen. Auf der obersten Ebene werden systematisch Perspektiven auf Grundlagen der Objektorientierung, Information, Informationssysteme und OOISs dargestellt. Anschließend wird die Domäne von OOIS analysiert und eine generische Struktur von OOIS als Teilgebiet der Informatik abgeleitet. Schließlich werden Trends in OOIS-Technologien basierend auf der Überprüfung der vergangenen OOIS-Verfahren analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0895-5_30 789bb3c2cb12b555f21fbb81a5d5191b;de;;;7.2.;;;Untersuchung von Verhaltensdimensionen in der Sitzungseffektivität Studien zum Interactive Information Retrieval (IIR) weisen darauf hin, dass sich erfahrene Suchende in vielerlei Hinsicht von Anfängern unterscheiden. In der vorliegenden Arbeit identifizieren wir eine Reihe von Verhaltensdimensionen, in denen sich die Suchenden unterscheiden (z. B. Kosten, Gewinn und Genauigkeit der Relevanzbewertung). Wir quantifizieren diese Unterschiede mithilfe simulierter Suchsitzungen mit mehreren Abfragen. Anschließend untersuchen wir jede Dimension der Reihe nach, um zu bestimmen, welche Unterschiede am effektivsten sind, um eine überlegene Abrufleistung zu erzielen. Die genaueren Aktionswahrscheinlichkeiten bei der Bewertung von Snippets und Dokumenten tragen weniger zum kumulierten Gesamtgewinn während einer Sitzung bei als Gewinn- und Kostenstrukturen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24027-5_15 6e168ca40fe1a9aca7ca7a74c4c27d6a;de;;;7.2.;;;UTA Stemming- und Lemmatisierungsexperimente in der FIRE Bengali Ad-hoc-Aufgabe UTA hat auf der FIRE 2010 am einsprachigen Bengali Ad-hoc-Track teilgenommen. Da Bengali stark flektiert ist, haben wir mit drei Sprachnormalizern experimentiert: einem Stemmer, YASS, und zwei Lemmatizern, GRALE und StaLe. YASS ist ein korpusbasierter, unüberwachter statistischer Stemmer, der mehrere Sprachen durch Entfernen von Suffixen verarbeiten kann. GRALE ist ein neuartiger graphenbasierter Lemmatizer für Bengali, aber erweiterbar für andere agglutinierende Sprachen. StaLe ist ein statistischer regelbasierter Lemmatizer, der für mehrere Sprachen implementiert wurde. Wir analysieren 9 Läufe mit den drei Systemen für Titel (T) und Titel-und-Beschreibung (TD) und Titel-Beschreibung-und-Erzählung (TDN). Die T-Läufe waren mit einem MAP von etwa 0,34 (P@10 etwa 0,30) am wenigsten effektiv. Alle TD-Läufe lieferten einen MAP nahe 0,45 (P@10 etwa 0,37), während die TDN-Läufe einen MAP von 0,50 bis 0,52 ergaben (P@10 etwa 0,41). Die Leistungen der drei Normalisierer liegen nahe beieinander, haben aber in anderen Aspekten unterschiedliche Stärken. Die Leistungen lassen sich gut mit denen anderer Gruppen vergleichen, die im einsprachigen Bengali ad hoc Track beim FIRE 2010 erzielt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40087-2_25 44c3f38ff28e4ec1088799aa7b0e1a61;de;;;7.2.;;;SINAI auf der CLEF 2004: Verwendung maschineller Übersetzungsressourcen mit einem gemischten zweistufigen RSV-Zusammenführungsalgorithmus Im CLEF 2004 beteiligte sich die SINAI-Gruppe an der mehrsprachigen Aufgabe. Unser Hauptinteresse bestand darin, maschinelle Übersetzung (MT) mit einem gemischten 2-Schritt-RSV-Zusammenführungsalgorithmus zu testen. Da 2-Schritt-RSV erfordert, die Dokumenthäufigkeit für jeden Begriff mit den Übersetzungen für diesen Begriff zu gruppieren, und MT ganze Phrasen besser übersetzt als Wort für Wort zu arbeiten, ist es nicht direkt möglich, MT mit einem 2-Schritt-RSV-Zusammenführungsalgorithmus zu verwenden. Um dieses Problem zu lösen, haben wir einen Algorithmus getestet, der die ursprüngliche Abfrage und ihre Übersetzung(en) auf Termebene ausrichtet.;-;-;-;https://link.springer.com/chapter/10.1007/11519645_16 dff5620b5501cd0641eef823a26c31f2;de;;;7.1.;;;Design und Implementierung des deduktiven objektorientierten Datenbankmanagementsystems OLOG OLOG ist ein neuartiges deduktives Datenbanksystem für fortgeschrittene intelligente Informationssystemanwendungen. Es unterstützt direkt die effektive Speicherung, den effizienten Zugriff und die Inferenz großer Mengen persistenter Daten mit komplexen Strukturen. Es bietet eine SQL-ähnliche Datendefinitionssprache und Datenbearbeitungssprache sowie eine deklarative regelbasierte Abfragesprache. Es kombiniert die besten der deduktiven, objektorientierten und objektrelationalen Ansätze in einem einheitlichen Rahmen. Dieses Papier beschreibt das Design und die Implementierung des OLOG-Systems.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44469-6_71 e7a5aeb93b08116a47dab17c8d873712;de;;;7.1.;;;Kurzfristige Notfallplanung und Risikobewertung über ein integriertes Modellierungssystem für Kernkraftwerke in komplexem Gelände Kurzfristige Vorhersagen potenzieller Auswirkungen durch unbeabsichtigte Freisetzungen verschiedener Radionuklide in Kernkraftwerken werden dringend benötigt, insbesondere nach dem Unfall von Fukushima in Japan. Ein integriertes Modellierungssystem, das Expertendienste zur Bewertung der Folgen einer unbeabsichtigten oder absichtlichen Freisetzung radioaktiver Stoffe in die Atmosphäre bietet, hat große Aufmerksamkeit erfahren. Diese Szenarien können entweder zufällig durch menschliches, softwaremäßiges oder mechanisches Versagen oder durch vorsätzliche Handlungen wie Sabotage und radiologische Ausbreitungsvorrichtungen ausgelöst werden. Nur wenige Minuten nach einer versehentlichen oder absichtlichen Freisetzung können strenge Maßnahmen erforderlich sein. Um die Grundfunktionen von Notfallvorsorge- und Reaktionssystemen zu erfüllen, betrachten bisherige Studien selten die Eignung von Luftschadstoffausbreitungsmodellen oder die Konnektivität zwischen Quellterm, Ausbreitungs- und Expositionsbewertungsmodellen in einem ganzheitlichen Kontext zur Entscheidungsunterstützung. Daher werden die Gaußschen Plume- und Puff-Modelle, die nur geeignet sind, neutrale Luftschadstoffe in flachem Gelände unter Bedingung begrenzter meteorologischer Situationen darzustellen, häufig verwendet, um die Auswirkungen von unbeabsichtigten Freisetzungen industrieller Quellen vorherzusagen. In Situationen mit komplexem Gelände oder besonderen meteorologischen Bedingungen können die vorgeschlagenen Notfallmaßnahmen für Entscheidungsträger, die für die Aufrechterhaltung der öffentlichen Gesundheit und der Umweltqualität verantwortlich sind, fragwürdig und sogar hartnäckig sein. Diese Studie ist ein vorläufiger Versuch, die Quellterm-, Ausbreitungs- und Expositionsbewertungsmodelle in ein räumliches Entscheidungsunterstützungssystem (SDSS) zu integrieren, um die komplexen Probleme der kurzfristigen Notfallplanung und Risikobewertung in Kernkraftwerken anzugehen. Durch ein Reihenmodell-Screeningverfahren haben wir festgestellt, dass das diagnostische (objektive) Windfeldmodell mit Hilfe ausreichender meteorologischer Überwachungsdaten vor Ort das am besten geeignete Modell ist, um den Trend lokaler Windfeldmuster zeitnah zu adressieren. Die meisten Schadstoffe, die aus Kernkraftwerken in die Umwelt freigesetzt werden, sind jedoch keine neutralen Schadstoffe, sodass die Partikel- und Mehrsegment-Puffmodelle als die am besten geeigneten Modelle angesehen werden können, um sie in die Ausgabe des diagnostischen Windfeldmodells in ein modernes Notfallvorsorge- und Reaktionssystem. Das vorgeschlagene SDSS veranschaulicht das hochmoderne Systemdesign basierend auf der Situation des komplexen Geländes in Südtaiwan. Dieses Systemdesign von SDSS mit dreidimensionaler Animationsfähigkeit unter Verwendung eines maßgeschneiderten Quelltermmodells in Verbindung mit ArcView® Geographical Information System-Kartenschichten und Fernerkundungsbildern ist nützlich, um das Designziel von Kernkraftwerken in komplexem Gelände zu erreichen.;-;-;-;https://link.springer.com/article/10.1007/s11707-012-0342-y 1833797eeefbf6062ec93e4b50a3942e;de;;;7.1.;;;Telearbeit Geschäftsprozesskoordination — Der unterstützende Lebenszyklus der Werkzeugentwicklung Die Computertechnik zur Prozessunterstützung mittels Transaktionsverarbeitung hat eine lange Tradition, jedoch mit gemischten Ergebnissen. In einer sich schnell verändernden Umgebung wie heute müssen traditionelle Informationssystemansätze mit Workflow-Management-Technologien aufgerüstet werden. Telearbeit, die als innovative Arbeitsorganisationsform für neue dezentrale Organisationsstrukturen angesehen wird, erfordert weiterhin den Einsatz von Workflow-Management-Technologien. Derzeit gibt es hierfür kein Koordinationstool mit spezifischen Planungsfunktionen. Dieses Papier stellt den Ansatz für die Entwicklung eines Workflow-Management-Systems vor, das die Koordination dezentraler Telearbeitsaktivitäten durch die Ausführung des Modells der Telearbeitsaktivitätskette unterstützt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35390-6_20 4d92cf885c269971488ff13eaf103177;de;;;7.2.;;;Wirtschaftsinformatik, Wirtschaft und Recht – Lessons Learned Dieses Papier zielt darauf ab, Fragen am Rande der Entwicklung von Informationssystemen, der Geschäftsprozesse und der Entscheidungsfindung sowie der damit verbundenen Gesetze und gesetzlichen Bestimmungen zu untersuchen. Es beschreibt mehrere Lehren, die auf der Grundlage der Erfahrungen des Autors bei der Anwendung einer Methode der integrierten rechtlichen und technischen Analyse bei der Entwicklung eines Informationssystems im Bereich des Schutzes des geistigen Eigentums gewonnen wurden. Sie tragen zur Taxonomie möglicher Rechtswirkungen auf Informationssysteme sowie zur Gestaltung effizienter Methoden bei, die die Zusammenarbeit zwischen Analysten, Juristen und Entscheidungsträgern aus der Wirtschaft erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31069-0_37 4dcb7e09e4b95883d0d9c26bc7d736ed;de;;;7.1.;;;Design und Implementierung von Enterprise Spatial Data Warehouse Herkömmliches Enterprise Data Warehouse, ein integraler Bestandteil von Decision Support Systemen (DSS), bietet eine Vielzahl von Granularitätsdaten, um die Anforderungen verschiedener Benutzer zu erfüllen. Es wird geschätzt, dass etwa 80 % der im Data Warehouse gespeicherten Informationen raumbezogen sind. Ein herkömmliches Data Warehouse kann Geodaten jedoch nicht effizient verarbeiten. Mit der zunehmenden Menge an Geodaten, die in Geodatenbanken gespeichert werden, wird die Verwendung dieser Geodaten zu einem kritischen Thema des Data Warehouse. In diesem Papier konzentrieren wir uns auf die Gestaltung und Implementierung des Enterprise Geodaten-Warehouses für die räumliche Entscheidungsfindung. Wir schlagen drei Methoden zum Aufbau von Enterprise Spatial Data Warehouse vor und erweitern das traditionelle Enterprise Data Warehouse-Modell zu einem räumlichen multidimensionalen Datenmodell, das sowohl aus räumlichen als auch nicht-räumlichen Dimensionen und/oder Maßen besteht. Der räumliche Index mit den voraggregierten Ergebnissen basiert auf der räumlichen Dimension und verwendet die Gruppierungen des Indexes, um eine Hierarchie zu definieren. Methoden zur Berechnung von räumlichen Maßen werden untersucht. Ein erweitertes Enterprise Spatial Data Warehouse kann räumliche OLAP-Operationen beschleunigen und die Geodatenanalyse zur Entscheidungsunterstützung unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75902-9_8 17d962c880671e7f263228d6382647e7;de;;;7.2.;;;Hin zu kompositorischem Design und Bewertung von Schnittstellen zur Ermittlung von Präferenzen Die Erstellung von Benutzerpräferenzmodellen ist für HCI zu einem wichtigen Unterfangen geworden. Die Bildung eines Präferenzprofils ist ein konstruktiver Prozess im Kopf des Benutzers, der vom Nutzungskontext sowie vom Denk- und Informationsverarbeitungsstil des Benutzers abhängt. Wir glauben, dass ein einheitlicher Ansatz für das Design dieser Schnittstellen nicht ausreicht, um Benutzer bei der Erstellung eines genauen Profils zu unterstützen. Wir präsentieren Arbeiten zu einem kompositorischen Designansatz, der Designer bei der Erstellung von Präferenzen-Ermittlungsschnittstellen führen wird. Der Kern des Ansatzes ist eine Reihe von Elementen, die basierend auf Designprinzipien und kognitiven Stilen des Benutzers erstellt wurden. Anhand des Nutzungskontextes der Präferenzerhebung können geeignete Elemente identifiziert und strategisch zu Schnittstellen zusammengefasst werden. Die Schnittstellen werden auf iterative, kompositorische Weise von den Zielbenutzern bewertet, um ein gewünschtes Ergebnis-Schnittstelle zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21753-1_65 0cfacc1df3d18b4be0149fac6d5b2854;de;;;7.1.;;;Unterstützung des Projektmanagements durch integriertes Management von System- und Projektwissen Software Engineering ist eine wissensintensive Aufgabe. Es werden viele verschiedene Arten von Wissen erzeugt, beispielsweise Systemwissen, wie Anforderungen, Design oder Code, und Projektwissen, wie Projektpläne, Entscheidungen und Arbeitselemente. In diesem Kapitel untersuchen wir zwei Arten von Projektwissen: Arbeitsaufgaben und Entscheidungen. Workitems dokumentieren, was von wem wann erledigt werden soll oder wurde. Entscheidungen stellen die Lösung eines Entscheidungsproblems dar. Es ist wichtig, sie im Auge zu behalten, damit die zukünftige Entwicklung mit der Vergangenheit im Einklang steht. Diese Art von Wissen kann implizit oder explizit sein. Workitems werden typischerweise explizit in Issue Trackern verwaltet, während Entscheidungen meist in informellen Notizen oder in den Artefakten, die aus diesen Entscheidungen resultieren, versteckt sind. Rationale Managementforschung hat verschiedene Ansätze vorgeschlagen, um Entscheidungen zu treffen und ihre Gründe explizit zu machen. Im Gegensatz zu den weit verbreiteten Issue Trackern gelten diese Ansätze jedoch in der Industrie als Overhead. In diesem Kapitel argumentieren wir, dass Arbeitsaufgaben und Entscheidungen zusammen mit dem Systemwissen verwaltet werden sollten. Dies hat mehrere Vorteile für Projektmanagementprozesse, wie z. B. Projektplanung oder -überwachung mit besseren Informationen für die Zuordnung von Arbeitselementen oder die Risikoidentifikation. Wir stellen eine Vision vor, die diese Vorteile detailliert beschreibt und diskutieren, was in Forschung und Praxis über die Verwirklichung dieser Vision bekannt ist. Insbesondere überprüfen wir bestehende Ansätze zur Erfassung von Arbeitsaufgaben oder Entscheidungen und deren Verknüpfung mit anderem Wissen und diskutieren die empirische Evidenz ihres Nutzens für ein integriertes System- und Projektwissensmanagement in der Industrie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55035-5_7 eeb0e59545aa45a8cb9222bee5bbf912;de;;;7.2.;;;Straffunktionen für Bewertungsmaße der unsegmentierten Spracherkennung Dieser Beitrag befasst sich mit der Bewertung der Informationsgewinnung aus unsegmentierter Sprache. Wir konzentrieren uns auf die mittlere verallgemeinerte Durchschnittspräzision, das Bewertungsmaß, das häufig für den unsegmentierten Sprachabruf verwendet wird. Diese Maßnahme soll eine gewisse Toleranz beim Abgleichen von Abrufergebnissen (Anfangspunkten relevanter Segmente) mit einer Relevanzbewertung nach dem Goldstandard ermöglichen. Es verwendet eine Straffunktion, die nicht-exakte Übereinstimmungen in den Abrufergebnissen basierend auf ihrer Entfernung von den Anfängen ihrer nächsten zutreffenden relevanten Segmente bewertet. Die Wahl der Straffunktion erfolgt jedoch in der Regel ad hoc und spiegelt nicht notwendigerweise die Wahrnehmung der Spracherkennungsqualität durch den Benutzer wider. Wir führen einen Labortest durch, um die Zufriedenheit der Benutzer eines Spracherkennungssystems zu untersuchen, um die optimale Form der Straffunktion empirisch abzuschätzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33247-0_12 6b28aa45ddf608cedf1616669b022999;de;;;7.1.;;;Ontologie-Population als algebraische Informationssystemverarbeitung basierend auf Multi-Agenten-Textanalysealgorithmen in natürlicher Sprache Das Papier präsentiert einen Ansatz zur Ontologie-Population als Operationen mit dem Scott-Informationssystem. Die Deduzierbarkeitsrelation im Ontologie-Populationsinformationssystem entspricht den Regeln der Eingabedatenverarbeitung und Ontologie-Population. Um einen Ontologie-Populationsprozess zu implementieren, schlagen wir einen Multi-Agenten-Ansatz vor, der auf der semantischen Analyse natürlicher Sprache basiert. In dem vorgeschlagenen Multiagentenmodell interagieren Agenten der folgenden zwei Typen: Informationsagenten, die sinnvollen Einheiten der abgerufenen Information entsprechen, und Regelagenten, die Populationsregeln der gegebenen Ontologie basierend auf dem semantisch-syntaktischen Modell der Sprache implementieren.;-;-;-;https://link.springer.com/article/10.1134/S0361768815030044 a0ee453302768e6b36f4749905ead57a;de;;;7.1.;;;Benutzergesteuertes Design Das Herzstück eines User-Driven-Design-Ansatzes für Bürosysteme ist eine Untersuchungsstrategie. Die Messung oder Bewertung der Organisation ist erforderlich, um geeignete Personen zu identifizieren, die in das System aufgenommen werden sollen, Systemanforderungen für die Benutzergruppe(n) zu ermitteln, Daten für eine Kosten-Nutzen-Analyse bereitzustellen und eine Basismessung für nachgelagerte Bewertungen sicherzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2489-8_6 f80577345da0c5f8b8df351eb49b567e;de;;;7.1.;;;Der Systemansatz in einer Informationsgesellschaft: Eine Neuüberlegung Eine Informationsgesellschaft ist eine Gesellschaft, in der informationelle (oder interaktionelle) im Gegensatz zu materiellen Einheiten die vorherrschende Form sozialer und wirtschaftlicher Transaktionen darstellen. In diesem Papier wird argumentiert, dass in einer so informationsreichen Umgebung die konventionelle Sichtweise des Systemansatzes möglicherweise nicht mehr relevant ist und tatsächlich ein ernsthaftes Hindernis für die Entwicklung und Implementierung kreativer Managementtechnologien darstellen kann. Wir präsentieren eine alternative Perspektive des Systemansatzes, die das Primat der Informationskonzepte gegenüber dem Primat der Materie-/Energiekonzepte betont. Diese Alternative konzentriert sich auf Interaktionen, auf die Logik des Wandels, auf zirkuläre Kausalität und auf multiple Zeitkonzepte. Dies hat wichtige Auswirkungen auf das Organisationsdesign, die Managementkontrolle und die Informationssysteme.;-;-;-;https://link.springer.com/article/10.1057/jors.1985.149 a81c28fa1cc203aba1967f07d9affcb5;de;;;7.2.;;;Optimierung der Ausführungszeit für die Konsistenzprüfung von XML-Dokumenten Das Problem der Überprüfung der Konsistenz der Semantik, die mit Extensible Markup Language (XML)-Dokumenten verbunden ist, wird betrachtet. Wir schlagen eine neuartige Technik vor, um Semantik zu XML-Dokumenten hinzuzufügen, indem semantische Informationen an die XML-Element-Tag-Attribute angehängt werden. Wir nennen das;-;-;-;https://link.springer.com/article/10.1023/B%3AJIIS.0000019279.81927.c5 940529b9583eb89ad6fe9edc60a60834;de;;;7.2.;;;Bewertung der Benutzerfreundlichkeit von Video-Browsing- und Zusammenfassungstechniken Seit 1994 entwickelt und bewertet die Informedia-Gruppe der Carnegie Mellon University Surrogate, Summary Interfaces und Visualisierungen für den Zugriff auf digitale Videosammlungen mit Tausenden von Dokumenten, Millionen von Aufnahmen und Terabyte an Daten. Dieses Kapitel enthält Beispiele für Informedia-Benutzerstudien, die im Laufe der Jahre durchgeführt wurden, und berichtet darüber, wie diese Studien eine Benutzeranziehungskraft bieten, die den Technologieschub im Zuge der Fortschritte bei der automatisierten Videoverarbeitung ergänzt. In diesem Kapitel werden insbesondere indikative Videozusammenfassungen untersucht, d. h. die Bewertung von Videosurrogaten, die Benutzern helfen sollen, die Relevanz des Quellprogramms für ihre jeweilige Aufgabe besser einzuschätzen. Die Vorzüge von Discount-Usability-Techniken zur iterativen Verbesserung und Bewertung werden vorgestellt, ebenso wie die Struktur formaler empirischer Untersuchungen mit Endnutzern, die eine ökologische Validität aufweisen und gleichzeitig die Mensch-Computer-Interaktionsmetriken Effizienz, Effektivität und Zufriedenheit adressieren. Aus solchen Studien gewonnene Erkenntnisse werden in Bezug auf die Videozusammenfassung und das Durchsuchen berichtet, die von der einfachsten Darstellung eines einzelnen Miniaturbilds zur Darstellung von Videogeschichten über Sammlungen von Miniaturbildern in Storyboards bis hin zu abspielbaren Videoskims und Videocollagen mit mehreren synchronisierten Informationsperspektiven reichen . Fortschritte beim interaktiven Videoabruf werden im jährlichen TRECVID-Bewertungsforum des National Institute for Standards Technology (NIST) dargestellt, das mit einer Diskussion über Schwierigkeiten bei der Bewertung von Videozusammenfassungen und Browsing-Schnittstellen endet.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-76569-3_9 b5cbe5d091d42c48cfdd86c39759de90;de;;;7.2.;;;Erkennen topologischer Veränderungen mithilfe eines drahtlosen Sensornetzwerks Dynamische geografische Phänomene wie Waldbrände und Ölkatastrophen können verheerende Folgen für die Umwelt, die Gesellschaft und die Wirtschaft haben. Um solche Ereignisse abzuschwächen, wenn nicht sogar zu verhindern, ist der Einsatz fortschrittlicher räumlich-zeitlicher Informationssysteme erforderlich. Ein solches System, das breites Interesse gefunden hat, ist das;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87473-7_4 431b1d0bff60852ea679216bca3c5ee0;de;;;7.2.;;;CLEF eHealth-Evaluierungslabor 2021 Motiviert durch die ständig zunehmenden Schwierigkeiten von Laien beim Abrufen und Verdauen gültiger und relevanter Informationen, um gesundheitsorientierte Entscheidungen zu treffen, bietet die CLEF eHealth-Laborreihe der Gemeinschaft gemeinsame Aufgaben in den Bereichen:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72240-1_69 9d86b5d77b83f12d0c55c8d51d0cc726;de;;;7.2.;;;Eine Architektur für den Abruf gesprochener Dokumente In dieser Arbeit werden die Hauptmerkmale des Abrufprozesses gesprochener Dokumente beschrieben. Es werden auch Funktionen von Systemen zum Abrufen von sprachübergreifenden Sprachdokumenten (CL-SDR) gezeigt, die am letzten CL-SDR-Track der CLEF-Konferenz teilgenommen haben. Im Folgenden beschreiben wir unsere CL-SDR-Systemarchitektur und ihre Funktionen mit dem Ziel, bessere Ergebnisse zu erzielen, als sie mit den gezeigten Systemen erzielt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30120-2_64 d5d871f9b119ce74ae398945333aed0d;de;;;7.2.;;;Browsing-Empfehlung basierend auf dem Intertemporal Choice Model Das Browsen ist eine wichtige, aber oft ineffiziente Strategie zur Informationssuche beim Information Retrieval (IR). In diesem Papier argumentieren wir, dass ein effektives Empfehlungsmodell das Surferlebnis des Benutzers verbessern kann. Wir schlagen vor, das intertemporale Auswahlmodell anzupassen, um das Surfverhalten des Benutzers zu modellieren. Das Modell kann verwendet werden, um den Benutzern einen Browserpfad zu empfehlen. Das vorgeschlagene Modell basiert auf der Annahme, dass das Problem der Browsing-Empfehlung ein intertemporales Entscheidungsproblem ist. Unter Verwendung eines simulierten interaktiven Abrufsystems auf mehreren Standard-TREC-Testsammlungen zeigen die experimentellen Ergebnisse, dass das vorgeschlagene Modell vielversprechend ist, um dem Benutzer gute Browsing-Pfade zu empfehlen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04957-6_19 a6e30835cfbea11dfe2e86b9137518f4;de;;;7.2.;;;Erlernen der Stärke sozialer Beziehungen durch Matrix-Kofaktorisierung mit mehreren Kerneln In den letzten Jahren hat die Forschung zur Messung der Beziehungsstärke zwischen den Menschen in einem sozialen Netzwerk aufgrund ihrer Anwendungsmöglichkeiten der sozialen Netzwerkanalyse an Aufmerksamkeit gewonnen. Die Herausforderung besteht darin, wie wir die Stärke sozialer Beziehungen anhand verschiedener Ressourcen wie Benutzerprofilen und sozialen Interaktionen lernen können. In diesem Papier schlagen wir a;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41230-1_2 e0e54fb973308c9d7737eb61d2cd659f;de;;;7.2.;;;Auswertung der semistrukturierten Datensuche Semistrukturierte Daten werden in vielen Anwendungsdomänen immer wichtiger, aber einer ihrer Kernanwendungsfälle ist die Darstellung von Dokumenten. Folglich ist das effektive Abrufen von Informationen aus halbstrukturierten Dokumenten ein wichtiges Problem, an dem sowohl die Informationsabruf-(IR)- als auch die Datenbank-(DB-)Gemeinschaft gearbeitet hat. Der Vergleich der Vielzahl von Retrievalmodellen und -systemen ist eine nicht triviale Aufgabe, für die etablierte Benchmark-Initiativen wie TREC mit ihrem Fokus auf unstrukturierte Dokumente nicht geeignet sind. Dieses Kapitel gibt einen Überblick über semistrukturierte Daten im Allgemeinen und die INEX-Initiative zur Evaluierung des XML-Retrievals, wobei der Schwerpunkt auf dem prominentesten Adhoc-Suchpfad liegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54798-0_7 ffde87100258c168cc05f5b2e4428d1d;de;;;7.2.;;;Patentrecherche: eine Literaturübersicht Mit der ständig steigenden Zahl von Patentanmeldungen jedes Jahr wird der Bedarf an effektiven und effizienten Systemen zur Verwaltung solch enormer Datenmengen unweigerlich wichtig. Patent Retrieval (PR) gilt als tragende Säule fast aller Aufgaben der Patentanalyse. PR ist ein Teilgebiet des Information Retrieval (IR), das sich mit der Entwicklung von Techniken und Methoden befasst, die relevante Patentdokumente als Reaktion auf eine bestimmte Recherchenanfrage effektiv und effizient abrufen. In diesem Beitrag präsentieren wir einen umfassenden Überblick über PR-Methoden und -Ansätze. Es ist klar, dass die jüngsten Erfolge und die Reife bei IR-Anwendungen wie der Websuche ohne bewusste Domainanpassung und -anpassung nicht direkt auf die PR übertragen werden können. Darüber hinaus ist der Stand der Technik in der automatischen PR in Bezug auf die Wiedererinnerung noch durchschnittlich. Diese Beobachtungen begründen den Bedarf an interaktiven Suchwerkzeugen, die Patentfachleuten mit minimalem Aufwand kognitive Unterstützung bieten. Diese Werkzeuge müssen auch gemeinsam mit Patentfachleuten unter Berücksichtigung ihrer Praktiken und Erwartungen entwickelt werden. Darüber hinaus berühren wir mit PR verbundene Aufgaben wie Patentbewertung, Rechtsstreitigkeiten, Lizenzierung und zeigen potenzielle Möglichkeiten und offene Richtungen für Computerwissenschaftler in diesen Bereichen auf.;-;-;-;https://link.springer.com/article/10.1007/s10115-018-1322-7 ac2f200f01ddb696c364c935cd0c66da;de;;;7.2.;;;Auswahl einer Teilmenge von Abfragen zum Erwerb weiterer Relevanzurteile Die Bewertung der relativen Leistung von Suchsystemen erfordert die Verwendung einer Testsammlung mit einem vordefinierten Satz von Abfragen und entsprechenden Relevanzbewertungen. Der hochmoderne Prozess der Erstellung von Testsammlungen beinhaltet die Verwendung einer großen Anzahl von Abfragen und die Auswahl einer Reihe von Dokumenten, die von einer Gruppe teilnehmender Systeme eingereicht werden, um pro Abfrage beurteilt zu werden. Die anfänglichen Beurteilungen können jedoch nicht ausreichen, um die Leistung zukünftiger, noch nicht gesehener Systeme zuverlässig zu bewerten. In diesem Beitrag schlagen wir eine Methode vor, die den Satz von Relevanzbeurteilungen erweitert, wenn neue Systeme evaluiert werden. Wir gehen davon aus, dass ein begrenztes Budget vorhanden ist, um zusätzliche Relevanzbeurteilungen zu erstellen. Aus den von den neuen Systemen abgerufenen Dokumenten erstellen wir einen Pool unbeurteilter Dokumente. Anstatt das Budget einheitlich auf alle Abfragen zu verteilen, wählen wir zunächst eine Teilmenge von Abfragen aus, die bei der Bewertung von Systemen effektiv sind, und verteilen das Budget dann einheitlich nur auf diese Abfragen. Experimentelle Ergebnisse zu TREC 2004 Robuste Track-Test-Sammlung belegen die Überlegenheit dieser Budgetzuweisungsstrategie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23318-0_12 6b5fec4fd61b976f9e33c4060245cf9d;de;;;7.2.;;;Gezielte Suche in digitalen Archiven Wir präsentieren eine Systembeschreibung für ein Archivinformationssystem mit drei verschiedenen Ansätzen, um online auf digitale Archive zuzugreifen, die im Metadatenstandard Encoded Archival Description (EAD) erstellt wurden. Wir zeigen, dass mit XML Information Retrieval (XML IR) ein aggregationsbasiertes System auf archivierten Daten entwickelt werden kann. Wir beschreiben die verschiedenen Phasen und Komponenten, wie die Indexierung der digitalen Findmittel in einer XML-Datenbank, das anschließende Abfragen und Abrufen von Informationen aus dieser Datenbank und die schließliche Bereitstellung dieser Informationen an die Benutzer in einer kontextbezogenen Schnittstelle.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04409-0_45 d4a2a7287de0489f2db97a83c27e43c0;de;;;7.2.;;;N-Grams für Translation und Retrieval in CL-SDR Wir berichten über einen ersten Versuch, ein sprachübergreifendes Abrufen von gesprochenen Dokumenten durchzuführen. Ohne vorherige Erfahrung mit einsprachigem Sprachabruf wendeten wir denselben allgemeinen Ansatz an, den wir für den zweisprachigen Abruf verwenden, der durch die Verwendung überlappender Zeichen-N-Gramme für die Tokenisierung und ein statistisches Sprachmodell des Abrufs typisch ist. Für den Umgang mit Wörtern außerhalb des Vokabulars und falsch geschriebenen oder falsch transkribierten Wörtern wurde ein innovativer Ansatz gewählt: Die direkte Übersetzung einzelner N-Gramme war der einzige Mechanismus, um ausgangssprachliche Anfragen in zielsprachliche Begriffe zu übersetzen. Obwohl dieser Ansatz vielversprechend ist, insbesondere für den Abruf ohne Sprache, scheint unsere Leistung hinter der anderer Teams zu liegen, die an dieser neuartigen Bewertung teilnehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30222-3_63 ef522591516abccde424a3e638df3937;de;;;7.2.;;;Ein dynamischer Programmieralgorithmus für die lineare Textsegmentierung In diesem Artikel stellen wir einen dynamischen Programmieralgorithmus vor, der eine lineare Textsegmentierung durch globale Minimierung einer Segmentierungskostenfunktion durchführt, die zwei Faktoren einbezieht: (a) Wortähnlichkeit innerhalb des Segments und (b) vorherige Information über die Segmentlänge. Wir bewerten die Segmentierungsgenauigkeit des Algorithmus anhand von Präzision, Rückruf und Beefermans Segmentierungsmetrik. Bei einer Segmentierungsaufgabe, die Chois Textsammlung beinhaltet, erreicht der Algorithmus die beste Segmentierungsgenauigkeit, die bisher in der Literatur beschrieben wurde. Der Algorithmus erreicht auch eine hohe Genauigkeit bei einer zweiten Aufgabe, bei der es um zuvor nicht verwendete Texte geht.;-;-;-;https://link.springer.com/article/10.1023/B%3AJIIS.0000039534.65423.00 7c062596e817eb030514c6c1b37b03c9;de;;;7.1.;;;Stradin: Ein strategischer dynamischer und interaktiver Entscheidungsprozess Dieser Artikel schlägt einen neuen strategischen Entscheidungsprozess vor: Stradin. Stradin nutzt die neuesten Entwicklungen bei computergestützten Netzwerksystemen und benutzerfreundlichen Schnittstellen, um die Managementherausforderungen von Unternehmen der 1990er Jahre anzugehen. Fünf strategische Herausforderungen werden adressiert: (1) die richtige Balance im Zentralisierungs-Dezentralisierungs-Dilemma finden, (2) strategische Entscheidungen und deren operative Umsetzung in Einklang bringen, (3) eine Balance zwischen Rollendifferenzierung und Integration finden, (4) Konflikte konstruktiv nutzen um die Entscheidungsfindung zu verbessern, (5) aufkommende Strategien und Kontinuität in Einklang zu bringen. Der folgende Artikel behandelt jede dieser Herausforderungen und zeigt, wie Stradin dabei helfen kann, sie zu meistern.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008688508836 3b21743fc00a0db22a10251928e68cec;de;;;7.1.;;;Globale Wegeplanungsansätze für Materialbewegungen in einer Baustelle In verschiedenen Umgebungen (z. B. Fertigungshallen, Tiefbaubaustellen, Raumfahrt) besteht ein zunehmender Bedarf, Objekte effizient von Standorten zu anderen Standorten zu transportieren. Obwohl die meisten bisher gebauten praktischen Materialtransportrobotersysteme recht primitiv waren, glauben wir, dass man in vielen Bereichen durch automatisches Planen der Bewegungen der Transportvorrichtungen deutlich an Effizienz, Zuverlässigkeit und Flexibilität gewinnen kann. Während die Prozessplanung eine „logische“ und möglicherweise „zeitliche“ Spezifikation von Materialbewegungen auf hoher Ebene bietet, sagt die Bewegungsplanung, wie diese Bewegungen „physisch“ ausgeführt werden sollen. Somit ist die Bewegungsplanung die natürliche Zwischenstufe zwischen der Prozessplanung und der Aufgabenausführung. In diesem Beitrag untersuchen wir Techniken zur Planung mobiler Roboterwege zwischen Hindernissen, die in den letzten Jahren entwickelt wurden. Wir konzentrieren uns auf die sogenannten „globalen“ Techniken. Wir beschreiben detailliert die drei gängigsten Ansätze, die auf den Begriffen Zellzerlegung, Freiraumretraktion bzw. Sichtbarkeitsgraph basieren. Innerhalb der ersten beiden Ansätze untersuchen wir sowohl die sogenannten exakten als auch die approximativen Techniken. Obwohl dieses Papier weit davon entfernt ist, alle Facetten der Bewegungsplanung zu untersuchen, bietet es eine grundlegende und detaillierte Darstellung von Themen, die für alle Probleme der Bewegungsplanung von allgemeinem Interesse sind. Diese Fragen werden wahrscheinlich in zukünftigen Materialtransportsystemen von größter Bedeutung sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-74575-1_13 c2eda10ac066e905c1416793edb54652;de;;;7.2.;;;Eine Formalisierung von Multiagenten-Organisationen in Wirtschaftsinformatik Multiagenten (MA) Organisationen können als funktionaler Teil von Wirtschaftsinformatiksystemen angesehen werden, in denen Softwareagenten Bedingungen für die Teilnahme an der Organisation aushandeln. Wie sich das strategische Verhalten eigennütziger Agenten und MA-Organisationen auf den Gründungsprozess auswirkt, ist jedoch noch nicht bekannt. Diese Forschung beschäftigt sich mit der Spezifikation von MA-Organisationen in Wirtschaftsinformatik und dem Entwurf von Verhandlungsprotokollen zur Bestimmung der Teilnahmebedingungen von Agenten. Wir stützen uns auf das Mechanismusdesign, um die Beteiligungsentscheidung des Agenten und der Organisation als bilaterales Handelsspiel zu modellieren. In einem Simulationsexperiment stellen wir fest, dass ein recht einfaches Manipulationsschema eine geeignete Näherung für die Gleichgewichtsstrategien der Agenten bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-39426-8_21 7a9d6db24a94c51ed207c21492ab5571;de;;;7.2.;;;Analyse einer effizienten Datenstruktur zur Bewertung flexibler Einschränkungen von XML-Dokumenten In dieser Arbeit beschreiben und evaluieren wir eine effiziente Datenstruktur, die entwickelt wurde, um mit einer Erweiterung der XPath-Sprache umzugehen, die die Spezifikation flexibler Einschränkungen sowohl für den Textinhalt als auch für die Dokumentstruktur von XML-Dokumenten ermöglicht. Unser Ansatz basiert auf einer invertierten Dateidarstellung von XML-Dokumenten, bei der sowohl Struktur als auch Inhalt berücksichtigt werden. Der vorgeschlagene Ansatz wird ebenso wie seine Umsetzung beschrieben, indem insbesondere das Problem adressiert wird, eine effiziente Bewertung strukturbasierter flexibler Beschränkungen anzubieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24764-4_26 d07e78bce2cc7484aea19195678ab184;de;;;7.2.;;;Neue Sicherheitsparadigmen: Orthodoxie und Häresie Unsere Computertechnologie hat unsere Sicherheitsparadigmen überholt. Je mehr wir uns über gemeinsame grafische Oberflächen verbinden, desto anfälliger sind wir für Hacker, Viren und Trojaner. Da inkrementelle Verbesserungen der Sicherheitstechnologie uns niemals aufholen lassen, untersucht dieses Papier radikal neue Wege, um die Sicherheitsanforderungen von heute und morgen zu erfüllen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-5041-2919-0_6 5658597b0d78a3bcef41af36fb6868c0;de;;;7.2.;;;Die Qualität der eGovernment-Dienste wird unter dem Gesichtspunkt des öffentlichen Wertes bewertet Dieses Papier bewertet die Rolle der E-Government-Dienstleistungsqualität bei der Schaffung von öffentlichem Wert aus der Sicht der Bürger. Durch die Bewertung des Mehrwerts von E-Government-Diensten aus einer Sicht des öffentlichen Nutzens wollen wir genauer untersuchen, wie sich die Qualität der E-Government-Dienste auf die öffentliche Wertschöpfung auswirkt. Wir schlagen einen konzeptionellen Rahmen vor, der auf den theoretischen Perspektiven des Public Value und der E-Service-Qualität basiert, um die Untersuchung der E-Government-Dienstleistungsqualität aus Sicht der Bürger zu unterstützen. Eine Untersuchung der Literatur zu öffentlichem Wert, e-Service-Qualität und e-Government zeigt, dass die Schaffung von öffentlichem Wert stark von der Qualität einer von einer öffentlichen Organisation erbrachten Dienstleistung abhängt. Das Framework vereint die von Moore [1] und Kelly [2] bestimmten Elemente des öffentlichen Wertes und die Qualitätsdimensionen aus dem aktualisierten IS-Erfolgsmodell von DeLone und McLean [3].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22878-0_36 7342e55ffe4103c01f158bf8400f2a76;de;;;7.2.;;;Die Struktur webbasierter Informationssysteme Zufriedenheit: Eine Anwendung der konfirmatorischen Faktorenanalyse Die Nutzerzufriedenheit ist zu einem der wichtigsten Messgrößen für den Erfolg oder die Effektivität von Informationssystemen geworden, jedoch ist über deren Struktur und Dimensionalität im Webumfeld nur sehr wenig bekannt. In der aktuellen Studie wurden fünf latente Variablenmodelle empirisch getestet und verglichen, um die Beziehungen zwischen 21 beobachtbaren Variablen zu beschreiben, die sich auf die Zufriedenheit mit webbasierten Informationssystemen beziehen. Anhand der Daten einer Stichprobe von 515 Studierenden wurde ein Modell zweiter Ordnung nach statistischen und theoretischen Kriterien beibehalten. Auf der Ebene erster Ordnung waren sechs stark miteinander verknüpfte Hauptfaktoren, Verständlichkeit, Zuverlässigkeit, Nützlichkeit, Zugang, Benutzerfreundlichkeit und Navigation. Diese sechs Faktoren wurden durch zwei miteinander verbundene Faktoren zweiter Ordnung der Zufriedenheit mit Webinformationen und der Zufriedenheit des Websystems erklärt. Insgesamt passt das Modell gut zu den Daten und ist theoretisch gültig, was die logische Konsistenz widerspiegelt. Implikationen der aktuellen Untersuchung für Praxis und Forschung werden aufgezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68262-2_19 06c1b5df34c90496f002b677f6f52a1c;de;;;7.1.;;;Die Evolution der Geschäftsprozessorientierung: Von der Fiktion zur Realität Der Begriff „Prozess“ ist vergleichender Natur. Es hat eine ähnliche Bedeutung mit „Verfahren“, das wiederum mit „Aufgaben“ und „Funktionen“ zusammenhängt. Letztere leiten sich wiederum aus den Begriffen „work“ und „labOur“ ab.[SC01] Es ist wichtig zu beachten, dass diese wesentlichen Begriffe den Dualismus der Merkmale des Arbeitsflusses und seines Ergebnisses offenbaren. Üblicherweise kann ein Prozess als Ausführung mehrerer Funktionen unter Berücksichtigung eines bestimmten Arbeitsflusses verstanden werden. In diesem Sinne kann jede strukturierte Aufgabe oder Funktion als Prozess betrachtet werden und umgekehrt. Dieser Dualismus stellt eine rekursive Struktur dar, nach der ein Prozess aus Teilprozessen besteht, die wiederum Prozesse auf untergeordneter Ebene etablieren.[EA01];-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-89891-3_3 f60ed249ddf831e2d2fa5316068fe473;de;;;7.1.;;;Flexibilität von Geschäftsprozessen in der Servicekomposition: Experimentieren Sie mit einem PLM-basierten Szenario In den letzten Jahren haben sich serviceorientierte Systeme, die Dienste lose gekoppelt zusammensetzen, als neues Paradigma zur automatisierten Unterstützung von Geschäftsprozessen herausgebildet. Diese prozessbasierte Zusammensetzung und ihre Unterstützung müssen in einem sehr volatilen Umfeld bestehen, in dem die Geschäftsabläufe ständigen Veränderungen unterliegen. Folglich wurden viele Ansätze vorgeschlagen, um das Problem der Flexibilitätsunterstützung bei der Umsetzung von Geschäftsprozessen anzugehen, um die Kopplung mit der Geschäftsrealität zu erleichtern. Für Forscher bleibt es jedoch eine Herausforderung. In diesem Papier stellen wir einige Anforderungen an die Prozessflexibilität im Kontext der Servicekomposition vor und analysieren bestehende Ansätze im Workflow-Bereich und im KI-Planungsbereich anhand dieser Anforderungen. Einige Perspektiven werden anhand eines praktischen Experiments mit diesen Ansätzen behandelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21547-6_13 638bfa7fcbca22c50a2ed7c5173f64d0;de;;;7.1.;;;Ein Prozessmodell der Partnerschaftsentwicklung rund um neue IT-Initiativen Frühere Forschungen zu interorganisationalen Informationssystemen haben sich hauptsächlich auf dyadische Netzwerkbeziehungen konzentriert, bei denen Vereinbarungen über den Informationsaustausch zwischen zwei Organisationen getroffen werden. Der Fokus dieser Forschung liegt auf den Prozessen, durch die IT-Entscheidungen in größeren interorganisationalen Netzwerken mit mehreren Netzwerkpartnern getroffen werden. Die Forschung stützt sich auf Netzwerktheorien in der Organisationswissenschaft, um drei alternative Mechanismen für das Eingehen von Verpflichtungen auf Netzwerkebene zu identifizieren: Verträge, Regeln und Werte. Darüber hinaus werden theoretische Konzepte aus dynamischen Netzwerkmodellen gesucht, die verschiedene Zyklen und Stadien der Netzwerkentwicklung identifizieren. Die empirische Forschung wurde in zwei Netzwerken durchgeführt. Die erste besteht aus vier Gemeinden, die eine Zusammenarbeit beim Einsatz von IT in der frühkindlichen Bildung (ECE) begonnen haben. Das zweite Netzwerk betrifft einen Fall, in dem mehrere private und öffentliche Organisationen gemeinsame Anstrengungen zur Einführung eines elektronischen Verschreibungssystems (EPS) auf nationaler Ebene unternommen haben. Die aus Organisationstheorien abgeleiteten Rahmen und Konzepte werden verwendet, um den Erfolg des ersten Falls und das Scheitern des letzteren zu erklären. Das Papier trägt zur früheren IOS-Forschung bei, indem es einen neuen theoriebasierten Rahmen für die Analyse der frühen Stadien des Aufbaus von Organisationsnetzwerken um innovative IT-Initiativen liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75494-9_28 82381dc949c355489ee18643c86880c5;de;;;7.2.;;;Empfehlungen für Lebensmittelprodukte von Eingaben in natürlicher Sprache Einkaufslisten spielen beim Lebensmitteleinkauf eine zentrale Rolle. Einkaufslisten dienen unter anderem als Gedächtnisstütze und als Werkzeug zur Budgetierung. Interessanterweise dienen Einkaufslisten als Ausdruck und Hinweis auf Kundenbedürfnisse und -interessen. Dementsprechend können Einkaufslisten als Eingabe für Empfehlungstechniken verwendet werden. In diesem Whitepaper beschreiben wir eine Methodik zur Abgabe von Empfehlungen zu zusätzlichen Produkten zum Kauf mit Artikeln auf der Einkaufsliste des Benutzers. Da Einkaufslisteneinträge selten Produkten entsprechen, verwenden wir zunächst Information Retrieval-Techniken, um die Einkaufslisteneinträge in Kandidatenprodukte abzubilden. Assoziationsregeln werden verwendet, um Empfehlungen basierend auf den Kandidatenprodukten zu generieren. In einer Nutzerstudie bewerten wir die Nützlichkeit und das Interesse der Empfehlungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02247-0_23 63183a4c01e52d8497a0813e5aacf20e;de;;;7.2.;;;Modellierung von Überwachungszonen für aktive Sonare unter Berücksichtigung der Winkelabhängigkeit der Zielstärke und unter Verwendung geographischer Informationssysteme In diesem Beitrag werden die Merkmale einer Effizienzbewertung aktiver Sonare auf Basis der Modellierung und Visualisierung der zu erwartenden Überwachungszonen unter Berücksichtigung der Winkelabhängigkeit der sich in einem bestimmten Kurs bewegenden Zielstärke betrachtet. Die Folgenabschätzung der Qualität der Informationsunterstützung von Geoinformationssystemen auf die Genauigkeit der Berechnung der erwarteten Überwachungszonen von aktiven Sonaren unter verschiedenen hydrologischen und akustischen Bedingungen wird durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-31608-2_5 953a68997357bf0e63cd6dde73df86d6;de;;;7.2.;;;Skalierbare Mustersuchanalyse Die effiziente Suche nach Mustern in sehr großen Objektsammlungen ist ein sehr aktives Forschungsgebiet. In den letzten Jahren wurde eine Reihe von Indizes vorgeschlagen, um das Suchverfahren zu beschleunigen. In diesem Beitrag stellen wir ein neues Framework vor (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21587-2_9 f4aef61a2539fe634cb86ce9785104a0;de;;;7.2.;;;Modellierung von realistischem Benutzerverhalten in Informationssystemsimulationen als Fuzzing-Aspekte In diesem Papier behaupten wir, dass die Entwicklung von Informationssystemen durch einen Mangel an Werkzeugen behindert wird, um die Auswirkungen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-92901-9_22 e116bf61677b63430892d5f4b7660bac;de;;;7.2.;;;Generierung von Wissen zur Identifizierung von Geräteausfallursachen und zur Vorhersage der Ausfallzeiten in u-Healthcare-Umgebungen Die Gesundheitsbranche ist auf eine Vielzahl von Medizinprodukten angewiesen, um viele ihrer Funktionen zu erfüllen. Daher wird ein erheblicher Aufwand betrieben, um Fehler bei Medizinprodukten zu beheben. Dieses Papier schlägt eine Methode vor, die Wissen generiert, das verwendet wird, um die Ursachen von Ausfällen von Medizinprodukten zu identifizieren und die Zeiten bis zum Ausfall vorherzusagen (d. Um Wissen zur Fehlerursachenidentifikation zu generieren, werden Morpheme der Fehlerdaten in der bestehenden Datenbank analysiert und ähnliche Fehler (Symptome und Ursachen) basierend auf der Ähnlichkeit der Symptome gruppiert. Um Erkenntnisse für die Vorhersage der Ausfallzeiten zu generieren, werden die Weibull-Verteilungsparameter basierend auf den vorherigen Ausfalldaten eines Geräts geschätzt. Die Versuchsergebnisse zeigen, dass die vorgeschlagene Methode eine Genauigkeit von 69 % bei der Identifizierung der Fehlerursache und eine Genauigkeit von 83 % bei der Vorhersage der Ausfallzeiten aufweist. Das vorgeschlagene Verfahren ermöglicht es Benutzern medizinischer Geräte, die Fehlerursache schnell zu identifizieren, wenn ihre Geräte Probleme haben, wodurch die Kosten des Ausfalls reduziert werden. Mit der prognostizierten Zeit bis zum Ausfall ist es möglich, Geräte (oder Geräteteile) rechtzeitig für den Austausch bereitzuhalten. Dies führt zu geringeren Lagerkosten.;-;-;-;https://link.springer.com/article/10.1007/s00779-012-0573-7 a00cbee6f0665021ae79dfc3cc6066fd;de;;;7.1.;;;SEI-Bericht über die graduierte Software-Engineering-Ausbildung Ein Bericht über den Lehrplanentwurfsworkshop des SEI von 1988 wird zusammen mit Beschreibungen der sechs Kernkurse für einen Master of Software Engineering-Studiengang bereitgestellt, die bei diesem Workshop entworfen wurden. Eine Zusammenfassung aktueller SEI-Empfehlungen für einen solchen Studiengang ist ebenfalls enthalten.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0042361 4351acd9d40f6f4df9521b97ea81b2fb;de;;;7.1.;;;Faktoren, die die ERP-Implementierung in Australien beeinflussen Diese Studie untersucht die Faktoren, die die Implementierung von Enterprise Resource Planning in Australien beeinflussen. Es wird durch fünf Fallstudien erreicht, die in fünf Unternehmen in Australien durchgeführt wurden. Befragt wurden fünf Führungskräfte, die jeweils an der ERP-Implementierung in ihren jeweiligen Unternehmen beteiligt waren. Einige der Ergebnisse dieser Studie zeigen, dass Geschäftsfaktoren der wichtigste Grund für die Initiierung von ERP-Implementierungen in Unternehmensorganisationen sind, gefolgt von Personal- und Technologiefaktoren. Die Forschung hat auch gezeigt, dass das Engagement der Benutzer für den Erfolg der ERP-Implementierung sehr wichtig ist und sich auf den Erfolg und Misserfolg von ERP-Projekten auswirken kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22603-8_18 d701874e2ade562d7e13476cbe670b3e;de;;;7.2.;;;Inhaltsbasierter Bildabruf: Eine Einführung Dieses Kapitel bietet eine Einführung in das Abrufen von Informationen und das Abrufen von Bildern. Arten von Bildwiedergewinnungstechniken, d. h. textbasierte Bildwiedergewinnungs- und inhaltsbasierte Bildwiedergewinnungstechniken, werden eingeführt. Eine kurze Einführung in visuelle Funktionen wie Farbe, Textur und Form wird bereitgestellt. Ähnlichkeitsmaße, die beim inhaltsbasierten Bildabruf verwendet werden, und die Leistungsbewertung von inhaltsbasierten Bildabruftechniken werden ebenfalls angegeben. Die Bedeutung der Benutzerinteraktion in Abrufsystemen wird ebenfalls diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-6759-4_1 02ee506878aa5df1ddd7b88fa16412f4;de;;;7.2.;;;Bewertung der Gesichtsrichtungsschätzung von Kameras für ein multimodales Sprachdialogsystem Dieser Beitrag präsentiert die Ergebnisse einer Bewertung von Bildverarbeitungstechniken zur Schätzung der Gesichtsrichtung einer Kamera für ein multimodales gesprochenes Dialogsystem auf einem großen Anzeigefeld. Das System heißt „proaktives Dialogsystem“ und zielt darauf ab, akzeptable Informationen in akzeptabler Zeit zu präsentieren. Es kann nonverbale Informationen wie Blick- und Gesichtsrichtungsänderungen sowie Kopfgesten des Benutzers während des Dialogs erkennen und geeignete Informationen empfehlen. Wir haben ein Dialogszenario implementiert, um Sightseeing-Informationen auf dem System zu präsentieren. Experimente, die aus 100 Sitzungen mit 80 Probanden bestanden, wurden durchgeführt, um die Effizienz des Systems zu bewerten. Besonders übersichtlich wird das System, wenn der Dialog Empfehlungen enthält.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16202-2_7 d2841a2b134ea9f02b913ed41a98e38d;de;;;7.2.;;;Das Potenzial der Hermeneutik in der Wirtschaftsinformatik In diesem Beitrag wird ein Argument für den Einsatz von Hermeneutik in der Informationssystemforschung (IS) vorgestellt. Im Gegensatz zu Fallstudien und Aktionsforschung, die man heute als „Mainstream“-Interpretationsforschung in der IS bezeichnen könnte, wird Hermeneutik in der IS-Forschung weder gut akzeptiert noch viel praktiziert. Ein geeigneter hermeneutischer Ansatz wird ausführlich beschrieben. Ein kurzer Überblick über die Hermeneutik in Aktion wird durch eine Beschreibung der Forschung gegeben, die den Begriff der Bequemlichkeit beim Internet-Shopping zu Hause untersucht. Der hermeneutische Zirkel ermöglichte es dem Forscher, unerwartet die Praxis der Verwendung von Surrogaten beim Internet-Shopping aufzudecken, und dieses Beispiel veranschaulicht einige der Potenziale des Ansatzes in der IS-Forschung.;-;-;-;https://link.springer.com/article/10.1057/palgrave.ejis.3000725 e775b726d6f20eb1994d96a149797035;de;;;7.2.;;;Untersuchung der Benutzerzufriedenheit des Schulkrankenpflege-Informationssystems in Taiwan Anwendungen der Informationstechnologie im Gesundheitswesen gibt es seit mehr als drei Jahrzehnten, Methoden zur Bewertung von Outputs und Outcomes im Gesundheitswesen bleiben eine Herausforderung für Entscheidungsträger. Die Einführung eines Schulkrankenpflege-Informationssystems gilt als eine der effizientesten Möglichkeiten, Gesundheitsakten zu dokumentieren und den Gesundheitszustand von Schulkindern elektronisch zu überwachen. Trotz der Bedeutung computergestützter Gesundheitsakten in der schulischen Krankenpflegepraxis haben jedoch nur wenige Studien die Benutzerzufriedenheit des schulischen Krankenpflegeinformationssystems untersucht. Das Ziel dieser Studie ist es, die kritischen Faktoren zu untersuchen, die die Zufriedenheit von Schulkrankenschwestern mit einem Schulkrankenpflege-Informationssystem mit Hilfe eines Umfrageansatzes beeinflussen. Es wurden Fragebögen an Krankenschwestern verteilt, die in einer Grund- oder weiterführenden Schule arbeiten, wodurch ein neues Schulkrankenpflege-Informationssystem eingeführt wird. Die Ergebnisse zeigen, dass mehrere Faktoren, einschließlich der wahrgenommenen Nützlichkeit, der wahrgenommenen Benutzerfreundlichkeit, der Schulung und der Arbeitsbelastung, für die Benutzerzufriedenheit von Bedeutung sind. Diese Ergebnisse legen nahe, dass Designer von Schulpflegeinformationssystemen die Anforderungen und Wahrnehmungen der Benutzer über das System umfassend verstehen sollten, was die Benutzerzufriedenheit weiter erleichtert, ihre Arbeitsbelastung verringert und letztendlich die Arbeitsleistung verbessert.;-;-;-;https://link.springer.com/article/10.1007/s12553-012-0019-2 74062076780d6d7a3f108f24b6a08f53;de;;;7.2.;;;Benutzermodellierung zur interaktiven benutzeradaptiven Sammlungsstrukturierung Die automatische Strukturierung ist ein Mittel, um den Zugriff auf Dokumentensammlungen zu erleichtern, sei es zur Organisation oder zum Durchsuchen. Noch hilfreicher wäre eine Darstellung, die sich der Strukturierung des Nutzers anpasst und damit intuitiv verständlich ist. Wir erweitern ein bestehendes benutzeradaptives Prototypsystem, das auf einer wachsenden selbstorganisierenden Karte basiert und ein Merkmalsgewichtungsschema aus der Interaktion eines Benutzers mit dem System lernt, was zu einem personalisierten Ähnlichkeitsmaß führt. Der vorgeschlagene Ansatz zum Anpassen der Merkmalsgewichtungen zielt auf bestimmte Probleme früher verwendeter Heuristiken ab. Das überarbeitete Adaptionsverfahren basiert auf quadratischer Optimierung und somit können wir dem abgeleiteten Gewichtungsschema gewisse Einschränkungen auferlegen. Außerdem ist somit garantiert, dass ein optimales Gewichtungsschema gefunden wird, falls eines existiert. Der vorgeschlagene Ansatz wird evaluiert, indem die Benutzerinteraktion mit dem System anhand von zwei Textdatensätzen simuliert wird: einem künstlichen Datensatz, der verwendet wird, um die Leistung für verschiedene Benutzertypen zu analysieren, und einem realen Datensatz – einer Untermenge des banksearch-Datensatzes – mit zusätzlichen Klasseninformationen .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79860-6_8 45ab5d14576e63e0f9344da1504ccfcd;de;;;7.2.;;;Diversifizierte Entscheidungsfindung für mehrere Attributgruppen basierend auf Multigranulation Soft Fuzzy Rough Set und TODIM-Methode Dieser Beitrag untersucht das diversifizierte Multi-Attribute-Gruppen-Entscheidungsproblem, das bedeutet, dass die verschiedenen Entscheidungsträger unterschiedliche Bewertungsattribute für alle Kandidatenalternativen haben. Wir analysieren das diversifizierte Multi-Attribute-Gruppen-Entscheidungsfindungsproblem aus der Perspektive granularer Rechenmodelle und kombinieren auf kreative Weise Soft Sets mit Multigranulation Fuzzy Rough Sets, um das Multigranulation Soft Fuzzy Rough Set Modell zu konstruieren. Anschließend definieren wir die optimistischen oberen und unteren Näherungen und die pessimistischen oberen und unteren Näherungen in Bezug auf das Multigranulations-Soft-Fuzzy-Rough-Set-Modell. In der Zwischenzeit diskutieren wir einige wichtige mathematische Schlussfolgerungen und Eigenschaften basierend auf dem etablierten Modell. Dann schlagen wir einen neuartigen Ansatz für das diversifizierte Multi-Attribute-Gruppen-Entscheidungsfindungsproblem basierend auf Multigranulation Soft Fuzzy Rough Set und TODIM-Methode vor, die die Referenzabhängigkeit und Verlustaversion von Entscheidungsträgern im Entscheidungsprozess vollständig berücksichtigen. Schließlich verwenden wir ein numerisches Bewertungsbeispiel für das Entscheidungsproblem der Politikauswahlgruppe, um das Berechnungsprinzip und den Prozess zu beschreiben und zu erklären und die Ergebnisse mit bestehenden verwandten Arbeiten zu vergleichen, und unser Ansatz ist von großer Stabilität und Rationalität. Und die Beiträge dieses Papiers umfassen die folgenden zwei Punkte: (1) Konstruieren des Multigranulations-Soft-Fuzzy-Rough-Set-Modells, (2) Kombinieren des etablierten Modells mit der TODIM-Methode, um eine neue Perspektive zur Lösung der diversifizierten Multi-Attribute-Gruppen-Entscheidungsfindung zu bieten Problem.;-;-;-;https://link.springer.com/article/10.1007/s40314-020-01216-5 83b1ec3e083b3ae0dbcb15fa09221d41;de;;;7.1.;;;Nachhaltige Wertschöpfung durch kollaborative Planung symbiotischer Netzwerke Industrielle Symbiose ist ein wichtiger Bestandteil der Industrieökologie, die die Zusammenarbeit und das Zusammenleben von Unternehmen untersucht, um gegenseitigen Nutzen zu erzielen. Ihre Konzepte konzentrieren sich traditionell auf Ökoeffizienz und ihre direkten Vorteile wie Kostensenkung, Ressourcenoptimierung und Reduzierung der Umweltbelastung. Das Papier stellt den Einsatz externer Effekte und kollaborativer Netzwerke als Werkzeuge vor, um das Spektrum der Möglichkeiten und folglich den potenziellen Wert der Entwicklung von Industrial Symbiosis zu erweitern. Externalitäten beziehen sich auf Nebenwirkungen von Entscheidungen und Handlungen von Unternehmen. Sie bieten eine breitere systemische Sicht auf die Planung und Ausführung von Industrial Symbiosis. Nachhaltiger Wert bringt immaterielle Werttreiber wie institutionelles, organisatorisches und Beziehungskapital sowie Überlegungen zum Risikomanagement hervor. Es hilft Unternehmen, das gesamte Wertpotenzial von Industrial Symbiosis zu visualisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23330-2_61 6943baba2eed8bd5508c4a3ca3ad8bc5;de;;;7.1.;;;Grundlegende Theorie des Demand-Side-Managements Das Demand-Side-Management (DSM) ist von zentraler Bedeutung für die integrierte strategische Ressourcenplanung/Integrierte Ressourcenplanung (IRSP/IRP) und bietet Innovationen zur Unterstützung von Energiesparprojekten, systematisches Engineering für die Menschen zur Verwirklichung einer nachhaltigen Entwicklung und fortschrittliche Energiemanagementaktivitäten. Ein Projekt kann nur dann umgesetzt werden, wenn der damit verbundene Output die Kosten übersteigt und der Kostendeckungszeitraum angemessen ist. Das Verständnis des Grundkonzepts von DSM hilft, die Gesamtsituation zu meistern und die Auswirkungen und das Wesen von DSM und IRSP/IRP zu verstehen. Dieses Kapitel stellt theoretisches Wissen und praktische Erfahrungen vor, beispielsweise die Schlüsselkonzepte und Wirkmechanismen von DSM, und befasst sich auch mit Methoden der Kosten-Nutzen-Analyse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37084-7_2 5de9a16df78350a7d1890e969461eb66;de;;;7.2.;;;Dokumentenklassifizierung mit mehreren Labels in Tschechisch Dieser Beitrag befasst sich mit der automatischen Dokumentenklassifizierung mit mehreren Labels im Rahmen einer realen Bewerbung für die tschechische Nachrichtenagentur. Das Hauptziel dieser Arbeit ist es, die drei vielversprechendsten Ansätze zur Klassifizierung von Dokumenten mit mehreren Labels in einer tschechischen Sprache zu vergleichen und zu bewerten. Wir zeigen, dass die einfache Methode, die auf einem Meta-Klassifikator basiert, von Zhu et al. übertrifft die anderen Ansätze deutlich. Die Verbesserung der Klassifikationsfehlerrate beträgt etwa 13%. Das tschechische Dokumentenkorpus steht zu Forschungszwecken kostenlos zur Verfügung und ist ein weiterer Beitrag dieser Arbeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40585-3_44 5a1adaca28a14eee5b45fb30e975e56d;de;;;7.1.;;;Integration von Fertigungsunternehmen mit Simulationssoftware zur Koordination der Budgetplanung Eine Untersuchung der abteilungsbezogenen Planungs- und Kommunikationsbedürfnisse innerhalb einer Organisation und insbesondere in der Produktion zeigt die große Bedeutung der Planungspolitik und der Mitarbeitermotivation. Diese sind eindeutig das Herzstück der Unternehmensführung und ihrer Infrastruktur. Mittels Budgetsimulation wird eine Methode zur Bewältigung dieser Bedürfnisse vorgestellt. Dies beinhaltet die Vorbereitung der Haushalte in einer Weise, die die Beteiligung an der Entscheidungsfindung und eine wirksamere Umsetzung der vereinbarten Haushalte fördert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35412-5_50 694ad2fc6323b2b65c2d9992f2771a92;de;;;7.1.;;;E-Commerce und Human Resource Management: Theoretische Ansätze und Fragestellungen für die Bankenbranche E-Commerce-Technologien verändern die Art und Weise, wie Arbeitsaufgaben ausgeführt werden, und hat daher erhebliche Auswirkungen auf die Art und Weise, wie Unternehmen ihre Personalfunktionen verwalten. Obwohl die Auswirkungen der IT auf Arbeit und Beschäftigung Gegenstand der Forschung waren, wurde dem elektronischen Geschäftsverkehr und seinen Auswirkungen auf die Arbeitsorganisation und das Personalmanagement wenig Aufmerksamkeit geschenkt. Dieser Artikel untersucht die vorhandene Literatur darüber, wie eCommerce-Technologien das Arbeitsplatzmanagement geprägt haben, mit besonderem Augenmerk auf die Bankenbranche. Es schlägt einen konzeptionellen Rahmen vor, um diese Veränderungen im Kontext des Geschäftsdrucks zu erkennen und zu verstehen, dem Banken im hart umkämpften Privatkundenumfeld ausgesetzt sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35692-1_27 e87b982b12f4b5702926e787ae2ab6d5;de;;;7.1.;;;Zu den Studien zur Wiederherstellung nach Katastrophen und zur Planung der Geschäftskontinuität für den privaten Sektor aufgrund des großen Erdbebens in Ostjapan Japan wurde im März dieses Jahres durch das Erdbeben in Ostjapan schwer beschädigt. In diesem Papier werden wir über die Schäden dieses Erdbebens berichten. Diese Katastrophe zeichnet sich insbesondere durch die enormen Schäden durch einen Tsunami und die erheblichen Schäden der Fischerei und verwandter Industrien aufgrund ihrer Nähe zum Meer aus. Dieses Papier befasst sich mit dem Thema, wie die Fischereiindustrie wiederhergestellt und wieder aufgebaut werden sollte. Wir werden besprechen, wie die Geschäftskontinuität in Japan, das von dieser Katastrophe betroffen ist, durchgeführt werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24358-5_2 faa0ea3251f04a6777c749216b9e93d3;de;;;7.1.;;;Verwenden einer Landschaftsmetapher, um einen Korpus von Dokumenten darzustellen Beim Informationsabruf werden Dokumentensätze gespeichert und kategorisiert, um eine Suche und einen Abruf zu ermöglichen. Die Komplexität der Basisinformationen ist hoch, die Darstellungen umfassen Tausende von Dimensionen. Traditionelle Interaktionstechniken verbergen daher einen Großteil der Komplexität und Struktur der modellierten Informationen und bieten den Zugriff auf die Informationen über isolierte Abfragen und Wortsuchen. Bead ist ein System, das einen komplementären Ansatz verfolgt, da es ein ungefähres Modell des Dokumentenkorpus in Form einer Karte oder Landschaft erstellt und anzeigt, die aus den Mustern der Ähnlichkeit und Unähnlichkeit der den Korpus bildenden Dokumente konstruiert wurde. In diesem Beitrag werden die Einflüsse auf und die Prinzipien hinter der Gestaltung des Landschaftsmodells und die Aufgabe eines in einer früheren Version des Systems verwendeten „Punktwolkenmodells“ anstelle der eher mathematischen Aspekte der Modellkonstruktion betont.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-57207-4_25 2a002ea6cee0d7d3dff43ff2cc073e3f;de;;;7.1.;;;Synthese eines Arbeitsverteilungsplanungssystems Dieses Beispiel basiert auf einem realen Computerprogramm, das bereits von 20 sehr unterschiedlichen Abteilungen, Konstruktionsabteilungen, Druckereien, Fertigungsentwicklungsabteilungen usw. verwendet wird. Es kann in jeder Situation verwendet werden, in der eine Auftragsvergabe erforderlich ist. Das Thema gliedert sich in die Abschnitte zu festen Eingabedaten, Parametern, Kundenauftragseingabedaten und den Ausgabedaten. Fast alle Elemente in den vorangegangenen Kapiteln dieses Buches werden verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-05648-4_8 64cd7607258f1d5247307ff9eba7b2ee;de;;;7.2.;;;Jüngste Fortschritte in Bezug auf Kontextbewusstsein und Daten-/Informationsfusion in ITS Intelligente Verkehrssysteme (ITS) umfassen verschiedene neue Technologien und Anwendungen. Dieses Papier bietet einen umfassenden Überblick über die jüngsten Fortschritte bei der Daten-/Informationsfusion und der Kontextwahrnehmung in Bezug auf ITS. Daten-/Informationsfusion ist notwendig, um die Daten verschiedener Sensoren zu fusionieren und dadurch relevante Informationen über die Zielquellen zu extrahieren. Auf der anderen Seite sorgt die kontextbezogene Informationsverarbeitung durch den Einsatz intelligenter Abfrageverarbeitung und intelligenter Informationsverbreitung für ein Bewusstsein für die Fahrumgebungen. Die Fusion und das Kontextbewusstsein sollten dazu beitragen, den IVS-Betrieb durch bessere Straßenerkennungsdienste, Verkehrsüberwachung, Fahrzeugerkennung sowie die Entwicklung neuer Methoden zu verbessern. Dieses Papier konzentriert sich auf Datenfusion und kontextbewusste Methoden, die kürzlich in den Bereichen der ITS entwickelt wurden, und nicht auf deren ITS-Anwendungen. Wir stellten fest, dass die jüngsten Fortschritte bei der ITS-Fusion den potenziellen kooperativen Ansätzen gewidmet sind, die Echtzeit-/dynamische Fahrzeugsensortechnologien bereitstellen, während die neueren Kontextbewusstseinstechniken Dienstkonzepte (z. Es wird davon ausgegangen, dass die neu entwickelten fortschrittlichen Fusions-/kontextsensitiven Techniken effektiver werden, um komplexe Verkehrsszenarien (z.;-;-;-;https://link.springer.com/article/10.1007/s13177-014-0097-9 2bc64659dd9df048b59cc790d946da9e;de;;;7.1.;;;Untersuchung der Auswirkungen von Enterprise Resource Planning (ERP) auf die Arbeitsumgebung Diese Studie zielt darauf ab, die Auswirkungen des ERP-Systems auf die Arbeitsumgebung von Endbenutzern in Bezug auf Unterstützung bei der Problemlösung, Ermessensspielraum, Sichtbarkeit des Managements und Cross-Funktionalität, Autorität und Entscheidungsrechte und Gesamtauswirkung auf die Organisation zu identifizieren. Bei dieser Untersuchung wurde die Erhebungsmethodik verwendet, um Daten von Endbenutzern zu sammeln, die für Unternehmen mit einem ERP-System in Ho-Chi-Minh-Stadt, Vietnam, arbeiten. SPSS und Amos wurden verwendet, um Hypothesen durch das Structural Equation Modeling (SEM) zu testen. Die Studie berichtet über die Auswirkungen der Produktleistung des ERP-Systems in Bezug auf Unterstützung bei der Problemlösung, Ermessensspielraum, Sichtbarkeit des Managements und Cross-Funktionalität, Autorität und Entscheidungsrechte sowie die Gesamtwirkung auf die Organisation in der Zeit nach der ERP-Implementierung aus Sicht Endverbraucher in Vietnam. Basierend auf diesem Ergebnis wurden einige Managementimplikationen vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-24308-1_50 63ae19d6ce03b1f9016599581e6c39aa;de;;;7.1.;;;Von Lücken zu Transformationspfaden in der Unternehmensarchitekturplanung Die Planung von Veränderungen in einem Unternehmen und der unterstützenden IT kann durch Enterprise Architecture (EA)-Modelle unterstützt werden. Durch die geplanten Änderungen entstehen Lücken, die durch eine Lückenanalyse abgeleitet werden können. Aber es reicht nicht, die Lücken zu kennen. Wichtig ist auch zu wissen, in welcher Reihenfolge Lücken für die Transformationspfadplanung geschlossen werden sollen. In diesem Papier zeigen wir, wie Lücken identifiziert und für die Detaillierung eines Modells der Zielarchitektur wiederverwendet werden. Aufgrund dieser Verfeinerung werden weitere Lücken sichtbar. Darüber hinaus beschreiben wir, wie mit einem Transformationsmodell und einem Action Repository Transformationspfade zu einer gewünschten und detaillierten Zielarchitektur erstellt werden können. Anschließend geben wir ein Use-Case-Beispiel und schlagen eine technische Umsetzung der Lösung vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09492-2_28 b0fd747455456e3411adf91187423d77;de;;;7.1.;;;Begrenzte nicht-deterministische Planung für Multimedia-Anpassung Dieses Papier schlägt eine neuartige Kombination aus Planung künstlicher Intelligenz und anderen Techniken zur Verbesserung der Entscheidungsfindung im Kontext der mehrstufigen Anpassung von Multimediainhalten vor. Insbesondere beschreibt sie ein Verfahren, das eine Entscheidungsfindung (Auswahl der durchzuführenden Anpassung) in Situationen ermöglicht, in denen steckbare Multimedia-Umwandlungsmodule von Drittanbietern beteiligt sind und der Multimedia-Anpassungsplaner ihre genauen Anpassungsfähigkeiten nicht kennt. Bei diesem Ansatz ist das Multimedia-Anpassungsplaner-Modul nur für einen Teil der erforderlichen Entscheidungen verantwortlich, die steckbaren Module treffen zusätzliche Entscheidungen nach anderen Kriterien. Wir zeigen, dass Teilentscheidungen nicht nur erreichbar sind, sondern auch Vorteile gegenüber einem System bringen, in dem diese Umwandlungsmodule nicht in der Lage sind, zusätzliche Entscheidungen zu treffen. Das bedeutet, dass die Übertragung von Entscheidungen vom mehrstufigen Multimedia-Anpassungsplaner an die steckbaren Umsetzungsmodule die Flexibilität der Anpassung erhöht. Darüber hinaus vergrößert sich dadurch, dass Konvertierungsmodule nur teilweise beschrieben werden können, der Bereich von Problemen, die diese Module angehen können, während sowohl die Beschreibungslänge der Anpassungsfähigkeiten als auch die Planungsentscheidungszeit signifikant verringert werden. Schließlich spezifizieren wir die Bedingungen, unter denen die Kenntnis der teilweisen Anpassungsfähigkeiten eines Satzes von Umwandlungsmodulen ausreicht, um einen geeigneten Anpassungsplan zu berechnen.;-;-;-;https://link.springer.com/article/10.1007/s10489-010-0242-3 51356a38aba8e781a792b79d35d5c1d8;de;;;7.1.;;;Der Einsatz von Simulationen für die Notwendigkeit des Umweltschutzes Der Umweltschutz ist derzeit ein sehr heißes Thema. Der Artikel befasst sich mit den Perspektiven und Möglichkeiten des Einsatzes neuer Technologien oder bereits bekannter Technologien, jedoch auf neue Weise, um ausgewählte Umwelt zu schützen. Im ersten Teil konzentriert sich das Papier auf Bildung und Technologien, die im Bildungsprozess an der Universität für Verteidigung, Abteilung Zivilschutz, verwendet werden. Der zweite Teil skizziert die Einsatzmöglichkeiten dieser Technologie zum Schutz von spezialisierten Arbeitsplätzen, die auch für den Umweltschutz anwendbar sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41151-9_28 8256fa762caf4564d4048cd642409aff;de;;;7.1.;;;Umsetzung von Ethik in Informationssystemen, Voraussetzungen und Konsequenzen in Ethik und Informationssystemen Dieses Papier konzentriert sich auf die Beziehung zwischen Informationssystemen und Ethik und insbesondere auf die Komplexität der Implementierung von Ethik in Informationssystemen. Beide Felder unterliegen verschiedenen Voraussetzungen, die Konsequenzen für ihr Management des Verhältnisses der Ethikimplementierung haben. Diese Voraussetzungen beziehen sich auf das Problem der „Konstruktion der Norm“ und der Beziehung – oder deren Abwesenheit in den meisten Governance-Theorien – zwischen Normen und Kontext. Ethiker scheinen zurückhaltend zu sein, den Anwendungsbereich der Normen zu berücksichtigen, die durch das von ihr konstruierte Verfahren geschaffen werden. Dies liegt vor allem an einer gewissen Abgeschlossenheit gegenüber anderen Elementen als der rationalen Argumentation in der Verfahrensethik. Wie wir in einer im Rahmen des IDEGOV-Projekts durchgeführten Studie gesehen haben, haben auch die Fachleute für Informationssysteme eine enge Vorstellung von Ethik. Sie reduzieren Ethik oft auf einen zu erfüllenden Zwang. Sie haben auch eine sehr stereotype Vorstellung davon, welche Probleme im Bereich der Informationssysteme auftreten – Datenschutz, Überwachung und Sicherheit – und wie diese Fragen zu beantworten sind, hauptsächlich durch mehr Informationen. Wir werden zeigen, dass diese Voraussetzungen auf beiden Seiten einen großen Einfluss auf die Art und Weise haben, wie Ethik in technischen Projekten „gewirkt“ wird, und vor allem werden wir Hinweise geben, wie die Beziehung verbessert werden kann. Der Begriff Implementierung ist selbst unangemessen, weil er annimmt, dass Ethik etwas außerhalb von Informationssystemen ist. Diese Voraussetzung teilen in gewisser Weise beide Felder, d. h. Ethik und Informationssysteme: Sie ist der zentrale Punkt, an dem wir das Problem, aber auch die Lösung sehen. Die Arbeit am Rahmen sowohl ethischer als auch technischer Gemeinschaften ist für uns der Weg, ethische Probleme im Informationssystem zu überwinden und eine angemessene ethische Technologieentwicklung zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33332-3_26 a06016839e84e4f28317ffce58c598d1;de;;;7.1.;;;Exploring Business - IT Nexus: Nutzen Sie IT-gestützte Fähigkeiten optimal Der Geschäftserfolg und die wirtschaftlichen Chancen hängen zunehmend von IT-fähigen Fähigkeiten und IT-getriebenen Geschäftstransformationen ab. Die strategische Ausrichtung der IT-Fähigkeiten auf die Unternehmensstrategie als Inhalt und Prozesse gewährleistet eine weitere IT-Governance, um Verbesserungsmöglichkeiten zu nutzen und den Umsatz zu maximieren. Unter Verwendung eines gut durchdachten Rahmens – Betriebsmodell, Unternehmensarchitektur und IT-Engagement-Modell – untersucht das Papier die Auswirkungen neuer Technologien auf den Ausrichtungsprozess. Derzeit durchlaufen Unternehmen auf der ganzen Welt eine sehr disruptive Technologieentwicklung: Consumerization of IT. Die Konsumerisierung der IT zusammen mit der Mobilität der Mitarbeiter, zuverlässigem, zugänglichem und erschwinglichem Remote-Computing verändert die Unternehmens-IT-Landschaft mit Nachdruck und beeinflusst die Beziehung zwischen Unternehmens-IT, Wissensarbeitern, Unternehmensbenutzern und Verbrauchern. Das Papier stellt die Auswirkungen dieser Trends auf den IT-Bereich dar und betont insbesondere die dynamischen Kräfte, die die IT-Fähigkeiten mit der geschäftlichen Agilität, dem Wachstum und der Anlagenauslastung verbinden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-40512-4_9 d06a1ae611a9abd8a952ed9ec3b11553;de;;;7.2.;;;Objekte auf der ganzen Welt Dieser Beitrag befasst sich mit dem Problem der Auswahl repräsentativer Fotografien für Regionen in der weltweiten Dimension. Die Auswahl und Generierung solcher repräsentativer Fotografien für repräsentative Regionen aus großen Sammlungen würde uns helfen, lokale spezifische Objekte mit einer weltweiten Perspektive zu verstehen. Wir schlagen eine Lösung für dieses Problem vor, indem wir eine umfangreiche Sammlung von Fotos mit Geotags verwenden. Unsere Lösung extrahiert zunächst die relevantesten Bilder durch Clustering und Auswertung der visuellen Merkmale. Dann werden basierend auf geographischen Informationen der Bilder automatisch repräsentative Regionen erkannt. Schließlich wählen und generieren wir einen Satz repräsentativer Bilder für die repräsentativen Regionen, indem wir die probabilistische latente semantische Analyse (PLSA) verwenden. Die Ergebnisse zeigen die Fähigkeit unseres Ansatzes, regionalbezogene repräsentative Fotografien zu generieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89796-5_31 ed34ce0aa94e3be109e8ebfe66af60bc;de;;;7.2.;;;IT-Investitionen und Personalzusammensetzung aufeinander abstimmen: die Auswirkungen der Diversifizierung bei Lebensversicherungsunternehmen Dieses Papier untersucht die Auswirkungen kombinierter Veränderungen bei Investitionen in die Informationstechnologie (IT) und der Zusammensetzung der Belegschaft von Lebensversicherungsunternehmen auf die Produktivität. Die Zusammensetzung der Belegschaft wird in drei großen Klassen definiert: Büroangestellte, Führungskräfte und Fachleute. Hypothesen zu den kombinierten Auswirkungen von Veränderungen der IT-Investitionen und der Zusammensetzung der Belegschaft auf die Produktivität werden vorgeschlagen und empirisch an einer Stichprobe von Unternehmen aus der US-Lebensversicherungsbranche getestet. Unternehmen werden nach zwei Hauptstrategiealternativen geclustert, Fokus auf eine Marktnische;-;-;-;https://link.springer.com/article/10.1057/palgrave.ejis.3000301 b836a829e5a8bc394bb391da9cb25b0d;de;;;7.2.;;;Modellfusion in der konzeptionellen Sprachmodellierung In diesem Beitrag untersuchen wir die Kombination verschiedener Konzepterkennungsmethoden zur konzeptionellen Indexierung. Die konzeptionelle Indexierung zeigt effektive Ergebnisse, wenn große Wissensdatenbanken verfügbar sind. Die Konzepterkennung ist jedoch nicht immer genau und Fehler begrenzen das Interesse an der Konzeptverwendung. Eine Lösung zur Lösung dieses Problems besteht darin, verschiedene Konzepterkennungsverfahren zu kombinieren. In diesem Beitrag untersuchen wir verschiedene Möglichkeiten zur Kombination von Konzepterkennungsmethoden sowohl für Abfragen als auch für Dokumente im Rahmen des Sprachmodellierungsansatzes für IR. Unsere Experimente zeigen, dass unsere Modellfusion das Standardsprachmodell um bis zu 17% der mittleren durchschnittlichen Genauigkeit verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00958-7_23 ed9707ebffa0d1bd4ed4e23cb07a31b5;de;;;7.1.;;;Initialisierung des Netzwerkmanagements für kabelgebundene und kabellose Kommunikation: Eine Echtzeitstudie Wir präsentieren eine detaillierte Studie zur Verwaltung und Überwachung der bestehenden IT-Infrastruktur für SAP. Die Anforderungen an die SAP-Infrastruktur wie die an der Transaktion beteiligten Benutzer, das Echtzeit-Monitoring und das Bandbreitenmanagement sind die entscheidenden Aspekte bei der Gestaltung der bestehenden IT-Infrastruktur. Die Neugestaltung erfolgt so, dass das Netzwerk einfach und sicher wird. Während der Implementierungsphase haben wir verschiedene Methoden für die PIX-Firewall-Implementierung untersucht, die an den verschiedenen Sicherheitsprofilen des kabelgebundenen und drahtlosen Netzwerks beteiligt sind. In der Design- und Implementierungsphase werden einige der wichtigsten Lösungen für die effektive Nutzung der verfügbaren Ressourcen vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12214-9_3 077987cde36baa3b33d0801551e1f31c;de;;;7.1.;;;Die gemeinsame Gestaltung von Geschäfts- und IT-Systemen: Ein Fall im Supply Chain Management Das Geschäftsumfeld des 21. Jahrhunderts ist äußerst wettbewerbsintensiv und herausfordernd. Es zwingt Unternehmen, Strategien zu entwickeln, um ihre Position auf dem Markt zu behaupten. Als Ergebnis sollten sie ihre aktuellen Praktiken ändern und sich so transformieren, dass sie bestehende Herausforderungen bewältigen können. Aber sie spiegeln diese Veränderungen nicht in ihren IT-Systemen wider. Erstens ist der Wandel schnell und Unternehmen sind gezwungen, ihre Geschäftsregeln und -prozesse häufig zu ändern. Aber sie spiegeln diese Veränderungen nicht in ihren IT-Systemen wider. Zweitens nutzen Organisationen IT-Systeme, ohne deren Auswirkungen auf andere Teile der Organisation sorgfältig zu berücksichtigen. Daher besteht die Herausforderung darin, die IT organisch auf die Geschäftsaktivitäten auszurichten, um die Gesamtleistung zu verbessern. Die Lösung für diese Herausforderung besteht darin, die Geschäfts- und IT-Systeme gemeinsam zu gestalten. Co-Design von Business und IT ist ein Bereich, der sich mit der Sammlung und Verarbeitung von Wissen aus verschiedenen Teilen einer Organisation befasst, um Geschäftsprozesse und IT-Systeme gleichzeitig zu transformieren. Dieses Papier zielt darauf ab, die Co-Design-Theorie zu erweitern und auch eine Co-Design-Methode zu entwickeln, um praktische Lösungen für die Ausrichtung von Geschäftsprozessen und IT-Systemen anzubieten. Die Organisationssemiotik ist die theoretische und methodische Grundlage dieser Forschung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29166-1_2 7708e34f867f920c3cdc55299db1e9ef;de;;;7.2.;;;Überblick über die Aufgaben zum fotografischen Abrufen und Annotieren von ImageCLEF 2006 Dieses Papier beschreibt die allgemeinen Aufgaben der fotografischen Recherche und Objektannotation der ImageCLEF 2006 Evaluationskampagne. Diese Aufgaben stellten sowohl die Ressourcen als auch den Rahmen bereit, die erforderlich sind, um eine vergleichende Laborbewertung von visuellen Informationssystemen für den Bildabruf und die automatische Bildanmerkung durchzuführen. Beide Aufgaben boten für 2006 etwas Neues und zogen viele Einreichungen nach sich: 12 Gruppen nahmen an ImageCLEFphoto und 3 Gruppen an der automatischen Annotationsaufgabe teil. Dieses Papier fasst diese beiden Aufgaben zusammen, einschließlich der im Benchmark verwendeten Sammlungen, der vorgeschlagenen Aufgaben, einer Zusammenfassung der Einreichungen der teilnehmenden Gruppen und der wichtigsten Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74999-8_71 234ab7ebfbf363682fd4b21b28a97d1c;de;;;7.2.;;;Online-Erkennung neuer Ereignisse basierend auf IPLSA New Event Detection (NED) beinhaltet die Überwachung eines oder mehrerer Nachrichtenströme, um die Geschichten zu erkennen, die über neue Ereignisse berichten. Angesichts der überwältigenden Menge an Nachrichten, die heute verfügbar sind, ist NED zu einer herausfordernden Aufgabe geworden. In diesem Papier haben wir ein neues NED-Modell vorgeschlagen, das auf inkrementellem PLSA (IPLSA) basiert und mit weniger Zeitaufwand neue Dokumente verarbeiten und Parameter aktualisieren kann. Um die Einschränkung der TF-IDF-Methode zu vermeiden, wird außerdem ein neuer Ansatz zur Neugewichtung von Begriffen vorgeschlagen. Durch die dynamische Ausnutzung der Bedeutung von Dokumenten bei der Unterscheidung von Begriffen und Themeninformationen von Dokumenten ist dieser Ansatz genauer. Experimentelle Ergebnisse zu den Datensätzen des Linguistic Data Consortium (LDC) TDT4 zeigen, dass das vorgeschlagene Modell sowohl die Erinnerung als auch die Präzision der NED-Aufgabe im Vergleich zum Basissystem und anderen bestehenden Systemen signifikant verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03348-3_38 da4d54afb4e06a7c2914c6b506539af7;de;;;7.2.;;;Verbesserung der Lehrer-Schüler-Interaktion beim digitalen Lernen durch Affective Computing Interaktionen zwischen Lehrern und Schülern können effektiv verbessert werden, wenn Lehrer das spontane nonverbale Verhalten (z. In dieser Studie haben wir ein Expression-Response-Analysesystem (ERAS) implementiert, um Mimik zu analysieren. Das ERAS verwendet eine Webkamera, um die Gesichtsbilder der Schüler zu erfassen. Ihre Mimik wird analysiert, um ihre Einstellung zu zunehmend schwierigeren Kursinhalten zu beurteilen und den Zusammenhang zwischen ihren sozialen Interaktionen und der Lerneffektivität zu bestimmen. Der ERAS identifizierte 10 Gesichtsmerkmalspunkte, die 11 Gesichtsaktionseinheiten (AUs) bilden. Anschließend wurden die AUs unter Anwendung eines regelbasierten Expertensystems in positive, neutrale und negative soziale Interaktionen eingeteilt und die Klassifikationen mit der Theorie der kognitiven Belastung überprüft. Die experimentellen Ergebnisse zeigten, dass sich Schüler mit hohen Kodierfähigkeiten an die multimedialen digitalen Lerninhalte anpassen konnten, was durch die vergleichsweise höhere Ausprägung neutraler und positiver sozialer Interaktionen belegt wurde, während Schüler mit geringen Kodierungsfähigkeiten eine höhere Häufigkeit negativer sozialer Interaktionen aufgrund Erhöhung der kognitiven Belastung. Gleichzeitig kann die Echtzeiterkennung sozialer Interaktionen eine Grundlage für die Diagnose von Lernschwierigkeiten der Schüler sein und Lehrer bei der Anpassung ihrer Unterrichtsstrategien unterstützen.;-;-;-;https://link.springer.com/article/10.1007/s11042-016-4101-z 90f9030e9783d8e4fa3075feddce63f9;de;;;7.2.;;;Modellierung von Informationssystemen: Sprache, Verifizierung und Werkzeugunterstützung Informationen und Prozesse sind beides wichtige Aspekte von Informationssystemen. Dennoch konzentrieren sich die meisten existierenden Sprachen zur Modellierung von Informationssystemen entweder auf das eine oder das andere. Sprachen, die sich auf Informationsmodellierung konzentrieren, vernachlässigen oft die Tatsache, dass Informationen durch Prozesse manipuliert werden, während Sprachen, die sich auf Prozesse konzentrieren, von der Struktur der Informationen abstrahieren. In diesem Beitrag stellen wir einen Ansatz zur Modellierung und Verifikation von Informationssystemen vor, der Informationsmodelle und Prozessmodelle mit einem automatisierten Theorembeweiser kombiniert. In unserem Ansatz werden Mengenlehre und Logik erster Ordnung verwendet, um die Struktur und Beschränkungen von Informationen auszudrücken, während Petrinetze einer besonderen Art, sogenannte Petrinetze mit Bezeichnern, verwendet werden, um die dynamischen Aspekte der Systeme zu erfassen. Der vorgeschlagene Ansatz weist eine einzigartige Balance zwischen Aussagekraft und formaler Grundlage auf, da er die Erfassung einer Vielzahl von Informationssystemen, einschließlich unendlicher Zustandssysteme, ermöglicht und gleichzeitig eine automatisierte Verifikation ermöglicht, da er die Entscheidbarkeit des Erreichbarkeitsproblems sicherstellt. Der Ansatz wurde in einem öffentlich zugänglichen Modellierungs- und Simulationstool implementiert und in der Lehre von Wirtschaftsinformatikern eingesetzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-21290-2_13 73c4a46b2b1a444c658bc09c05f25a69;de;;;7.1.;;;Multikriterielle Entscheidungsfindung zur Planung natürlicher Ressourcen Multikriterielle Entscheidungsfindung wird bei der Planung natürlicher Ressourcen häufig angewendet. Damit ein Umweltplan erfolgreich ist, braucht er die Unterstützung durch die Gruppe der betroffenen Akteure. Aufgrund der manipulativen Eigenschaft jeder Aggregationsmethode beabsichtigen wir, den beteiligten Prozess aufzuklären. Wir konzentrieren uns auf die Analyse der Datenstruktur und die Normalisierungsverfahren. Das durchgeführte Experiment zeigt, dass das bei jedem Kriterium verwendete Normalisierungsverfahren die Ergebnisse beeinflusst und dass es notwendig sein kann, um die Unterscheidung von Alternativen zu erleichtern, die Verwendung von Normalisierungsverfahren, die speziell für jede Art von Daten ausgewählt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16402-6_26 bba43e799fb404970018d201e83152a7;de;;;7.1.;;;Verwendung der Balanced Scorecard zur Leistung der Supply-Chain-Integration – eine Fallstudie von Dienstleistungsunternehmen Lieferketten sind unverzichtbar für Unternehmen, die versuchen, Lieferanten und Kunden besser zu bedienen, die Unternehmensleistung zu steigern, die Wettbewerbsfähigkeit zu stärken und dauerhaften Erfolg zu erzielen. Derzeit legen Unternehmen großen Wert sowohl auf Lieferketten als auch auf Balanced Scorecards (BSCs), um wirksame Maßnahmen zur Bewertung der Unternehmensleistung zu entwickeln. Diese Studie diskutiert die Integration von Lieferkette und Leistung basierend auf den von Kaplan und Norton entwickelten BSC-Maßnahmen (Harv Bus Rev 71(5):134–147,;-;-;-;https://link.springer.com/article/10.1007/s11628-012-0175-5 096d98ffe4a35acbbec203791bcfa1a5;de;;;7.2.;;;Vergleich von Schema-Matching-Auswertungen In letzter Zeit hat das Schema Matching großes Interesse in Forschung und Praxis gefunden. Die Ermittlung passender Komponenten von Datenbank- oder XML-Schemata wird in vielen Anwendungen benötigt, z.B. für E-Business und Datenintegration. Es wurden verschiedene Schema-Matching-Systeme entwickelt, um das Problem halbautomatisch zu lösen. Obwohl es einige Bewertungen gab, ist die Gesamtwirksamkeit der derzeit verfügbaren automatischen Schemaabgleichssysteme weitgehend unklar. Dies liegt daran, dass die Evaluierungen auf unterschiedliche Weise durchgeführt wurden, was es schwierig macht, die Wirksamkeit jedes einzelnen Systems zu beurteilen, geschweige denn ihre Wirksamkeit zu vergleichen. In diesem Papier untersuchen wir kürzlich veröffentlichte Schemamatching-Bewertungen. Dazu stellen wir die wichtigsten Kriterien vor, die die Effektivität eines Schemamatching-Ansatzes beeinflussen und verwenden diese Kriterien, um die verschiedenen Systeme zu vergleichen. Basierend auf unseren Beobachtungen diskutieren wir die Anforderungen an zukünftige Match-Implementierungen und -Evaluierungen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36560-5_17 0acfa8d2019cbafb8a611588372ec7fc;de;;;7.2.;;;Automatisierung der Ereigniserkennung für SMT-Systeme Event Named Entity Recognition (NER) unterscheidet sich von den meisten früheren Forschungen zu NER in arabischen Texten. Der größte Teil der Bemühungen bei der Erkennung benannter Entitäten konzentrierte sich auf bestimmte Domänen und allgemeine Klassen, insbesondere auf die Kategorien Organisation, Standort und Person. In dieser Arbeit bauen wir ein System für die Annotation und Erkennung von Entitäten mit Ereignisnamen auf. Um unser Ziel zu erreichen, haben wir zwischen sprachlichen Ressourcen und Werkzeugen kombiniert. Unsere Methode ist vollautomatisch und zielt darauf ab, die Leistung unseres maschinellen Übersetzungssystems zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24069-5_47 35f2ef1c17d8697dbcd1bfc1409505d3;de;;;7.2.;;;Modellierung von Verbraucherentscheidungsprozessen mit Dreiecksnormen Entscheidungsprozesse der Verbraucher werden durch verschiedene Kräfte bedingt. Anerkannte Prämissen werden ständig neu bewertet und zukünftige Entscheidungen im Zusammenhang mit früheren getroffen. Daher schlagen die Autoren einen Ansatz zur Modellierung der Entscheidungsfindung vor, der auf Vektorpaaren basiert, die Einstellungen zu bestimmten Attributen beschreiben, die die Entscheidung des Verbrauchers beeinflussen. Dadurch ist eine Beschreibung von Präferenzen auf Basis mehrerer Bewertungen eines Merkmals möglich. Der methodische Ansatz ermöglicht es, Meinungen neu zu bewerten, die zwar in der Vergangenheit getroffen wurden, aber dennoch aktuelle Entscheidungen beeinflussen. In dem Artikel diskutieren wir, wie Dreiecksnormen auf die Entscheidungsfindungsmodellierung angewendet werden können, basierend auf Informationen, die die Auswahl in gepaarten Vektoren fördern. Die entwickelte Methodik basiert auf der Kombination verschiedener bekannter Dreiecksnormen für gegebene Vektorpaare, die verschiedene Verbraucher darstellen, die vor der gleichen Entscheidung stehen. Die Bewertung der Präferenzen wurde so durchgeführt, dass sie unterschiedliche Situationen aus dem wirklichen Leben repräsentieren. Ergebnisse der angewandten Verarbeitung basierend auf Kombinationen von Dreiecksnormen werden verglichen. Es werden Rückschlüsse auf verschiedene Verarbeitungseigenschaften von Aggregationsoperatoren gezogen. Es wird vorgeschlagen, in welchen Fällen bestimmte Dreiecksnormen reale Prozesse genau beschreiben. Gezeigt und beschrieben sind auch Beispiele für Operatoren, die überhaupt nicht geeignet sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33260-9_33 3d063b8e8582cb25f4e49c865f883f71;de;;;7.1.;;;Effektives Umweltmanagement durch Umweltwissensmanagement Durch die grüne Revolution gehören Umweltprobleme mittlerweile zu den wichtigsten Themen weltweit. Das Umweltwissensmanagement, das die Stärken von Umweltmanagement und Wissensmanagement vereint, wird in naher Zukunft zu einem beliebten Instrument für Unternehmen werden. In diesem Papier werden durch Interviews mit Mitarbeitern auf verschiedenen Ebenen und in verschiedenen Abteilungen des Unternehmens, d. e. Managern und Ingenieuren sowie anhand des Prozesses der Verbreitung von Umweltwissen bewerten die Autoren den Erfolg des Umweltwissensmanagements bei der Anwendung auf die China Steel Corporation in Taiwan. Aus der Fallstudie fanden die Autoren heraus, dass die China Steel Corporation den Prozess der Verbreitung von Umweltwissen seit über dreißig Jahren anwendet. Das Unternehmen verbessert kontinuierlich seine Umwelt- und Finanzleistung durch die Schaffung von Umweltwissen, die Akkumulation von Umweltwissen, den Austausch von Umweltwissen, die Nutzung von Umweltwissen und die Internalisierung von Umweltwissen. Die Wasserverschmutzung und die Luftemissionen haben sich Jahr für Jahr verringert, und der Gesamtenergieverbrauch ist von 1979 bis 2006 um 20 % gesunken. Andererseits erzielt die China Steel Corporation auch Gewinne und senkt die Kosten durch verkaufte Energie, Nebenprodukte und Recycling. Die kontinuierliche Verbesserung des Umweltwissensmanagements hat die China Steel Corporation im Jahr 2006 zum profitabelsten Stahlunternehmen in Taiwan und zum fünfundzwanzigsten Stahlproduzenten der Welt gemacht.;-;-;-;https://link.springer.com/article/10.1007/BF03326058 02f91f1d43c5a305e944b10ab733e8ed;de;;;7.1.;;;Ein Verhaltensmodell der Unternehmensentwicklung Eine Reihe von insgesamt 17 Fallstudien von Unternehmen unterschiedlicher Größe in der britischen heimischen Möbelindustrie wurde erstellt, um Faktoren zu untersuchen, die ihre Wachstumsraten beeinflussen. Die zentrale Hypothese war, dass die Zielsetzungen der Unternehmensführungen und wie erfolgreich oder nicht sie Informationen verarbeiten und darauf basierend Entscheidungen treffen, zusammen mit externen Faktoren – hauptsächlich Marktbedingungen – einen wesentlichen Faktor darstellen, um den Verlauf der Unternehmensentwicklung zu bestimmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-87563-2_29 ff18e374c9ae878bad27987029307fc3;de;;;7.2.;;;Die Wiederverwendbarkeit einer diversifizierten Suchtestsammlung Herkömmliche Ad-hoc-IR-Testsammlungen wurden mit einer relativ großen Pooltiefe (z. B. 100) erstellt und werden normalerweise als wiederverwendbar angesehen. Darüber hinaus wird bei der Wiederverwendung zum Vergleich eines neuen Systems mit einem anderen oder mit Systemen, die zu den Pools beigetragen haben („Mitwirkende“), häufig eine noch größere Messtiefe (z. Im Gegensatz dazu verwenden die in den letzten Jahren erstellten Web-Diversity-Testsammlungen bei TREC und NTCIR eine viel kleinere Beckentiefe (z. B. 20). Auch die Messtiefe ist gering (z.B. 10-30), da die Suchergebnisdiversifikation primär für die erste Ergebnisseite gedacht ist. In dieser Studie untersuchen wir die Wiederverwendbarkeit einer typischen Web-Diversity-Testsammlung, nämlich einer aus der Aufgabe NTCIR-9 INTENT-1 Chinese Document Ranking, die eine Pooltiefe von 20 und offizielle Messtiefen von 10, 20 und 30 verwendet. Zunächst führten wir zusätzliche Relevanzbewertungen durch, um die offizielle INTENT-1-Sammlung auf eine Beckentiefe von 40 zu erweitern. Mit den erweiterten Relevanzbewertungen zeigen wir, dass Laufrankings bei der Messtiefe 30 zu unzuverlässig sind, da die Beckentiefe 20. Zweitens führen wir für jedes teilnehmende Team der INTENT-1-Chinese-Aufgabe ein Leave-One-Out-Experiment durch, um zu untersuchen, wie (un)fair neue Läufe mit der INTENT-1-Kollektion bewertet werden. Wir zeigen, dass zum Zweck des Vergleichs neuer Systeme mit den Mitwirkenden der verwendeten Testsammlung Versionen der bestehenden Diversitätsbewertungsmetriken in komprimierter Liste zuverlässiger sind als die Rohmetriken. Allerdings können selbst die Metriken der komprimierten Liste unzuverlässig sein, wenn die neuen Systeme im Vergleich zu den Mitwirkenden nicht wettbewerbsfähig sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35341-3_3 46c52be9e2e33c3bc828ee037cdc5caf;de;;;7.2.;;;Die Auswirkungen von Navigationsunterstützung und Gruppenstruktur auf kollaboratives Online-Shopping Als neues Paradigma des E-Commerce erfüllt kollaboratives Online-Shopping das Bedürfnis der Online-Konsumenten, in einer sozialen und kollaborativen Umgebung mit ihren Freunden einzukaufen. Während sich die bisherige E-Commerce-Forschung und -Praxis hauptsächlich auf das individuelle Einkaufsverhalten der Verbraucher konzentrierte, geht ein neuer Trend dahin, dass Verbraucher gemeinsam online einkaufen. Diese Studie schlägt zwei neue Arten der Navigationsunterstützung vor und untersucht, wie verschiedene Arten der Navigationsunterstützung das kollaborative Online-Shopping-Erlebnis der Verbraucher beeinflussen. Insbesondere werden ihre Auswirkungen auf die Koordinationsleistung der Verbraucher und die wahrgenommene Nützlichkeit durch den Vergleich zweier Arten vorhandener Navigationsunterstützung in einem Laborexperiment bewertet. Unterdessen wird auch die moderierende Rolle der Gruppenstruktur kollaborativer Konsumenten bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39371-6_29 1d09984ca0f7ad5837e55a08c48a83a2;de;;;7.2.;;;Eine effektive Analyse des Server-Logs zur Website-Evaluierung Das Web stellt ein riesiges, verteiltes und dynamisch wachsendes Hypermedium dar, das den Zugriff auf Daten und Dienste unterstützt. Im Firmengeschäft verlassen sich aufgrund des starken Wettbewerbs auf dem Markt immer mehr Unternehmen auf das Internet, um Geschäfte zu tätigen. Website-Design und -Management werden zu einem kritischen Thema in webbasierten Anwendungen. Eines der wichtigsten Ziele von Organisationen ist eine attraktive und gut organisierte Website. Website-Manager sind dafür verantwortlich, Entscheidungen über Inhalt und Hyperlink-Struktur zu treffen, um die Aufmerksamkeit der Besucher zu erregen. Die Interaktionen des Besuchers mit der Website werden in Serverprotokollen gespeichert und dienen als riesige elektronische Übersicht über die Website. In diesem Papier werden Serverprotokolle mit dem Weblog-Analyseprogramm analysiert, um allgemeine Statistiken über Treffer, Besucher, Besuche, Browser, Betriebssysteme, verweisende Websites, Spider-URLs, bedeutende und heikle Seiten und Statistiken über Fehlerseiten, defekte Links zu erhalten. Die erhaltenen Ergebnisse können für den Website-Manager nützlich sein, um die Website zu bewerten und die Effektivität der Website zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35314-7_16 c7003ee8e3e2d48de6f5db89b70db9c4;de;;;7.2.;;;SciPlore Xtract: Extrahieren von Titeln aus wissenschaftlichen PDF-Dokumenten durch Analyse von Stilinformationen (Schriftgröße) Das Extrahieren von Titeln aus dem Volltext einer PDF-Datei ist eine wichtige Aufgabe bei der Informationsbeschaffung, um PDFs zu identifizieren. Bestehende Ansätze verwenden komplizierte und teure (in Bezug auf die Rechenleistung) Algorithmen des maschinellen Lernens wie Support Vector Machines und Conditional Random Fields. In diesem Papier stellen wir eine einfache regelbasierte Heuristik vor, die Stilinformationen (Schriftgröße) berücksichtigt, um den Titel eines PDFs zu identifizieren. In einem ersten Experiment zeigen wir, dass diese Heuristik bessere Ergebnisse (77,9 % Genauigkeit) als eine Support Vector Machine von CiteSeer (69,4 % Genauigkeit) in einem Szenario einer „akademischen Suchmaschine“ und bessere Laufzeiten (8:19 Minuten vs. 26 Minuten).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15464-5_45 df3ab34f224f9fcbcc2a57edca5cca4f;de;;;7.1.;;;Ein BTO-Referenzmodell für das High-Level-Supply-Chain-Design Die Automobilindustrie steht heute aufgrund ihres veralteten Build-to-Stock-Produktionssystems (BTS) vor massiven Herausforderungen bei Fahrzeugrabatten und unverkauften Fertigfahrzeugbeständen. Ein Build-to-Order (BTO)-Ansatz kann eine Lösung für diese Herausforderung bieten. Folglich wurden viele innovative Konzepte im Rahmen der Prozess-, Struktur- und Produktneugestaltung entwickelt, diskutiert und pilotiert. Dennoch stellt sich für alle Akteure eines automobilen Zuliefernetzwerks immer wieder die Frage, welches dieser Konzepte in ihrem individuellen Umfeld relevant und erfolgversprechend ist. Wesentlicher Treiber der hier vorgestellten Arbeit ist die Bereitstellung eines umfassenden und gleichzeitig effizienten Supply-Chain-Design-Prozesses, der allen Partnern einer automobilen Lieferkette Entscheidungshilfen für den Übergang zu einer flexibleren und stabileren BTO-Strategie bietet. Dies wird durch die Bereitstellung eines BTO-Referenzmodells für das übergeordnete Netzwerk- und Prozessdesign erreicht. Mit seinem Klassifizierungsrahmen und dem vorgeschlagenen Entwurfsverfahren dient dieses Modell als Richtlinie für einen Lieferkettenentwurfsprozess für Automobil-BTO-Netzwerke, der Kosten-, Zeit- und Genauigkeitsvorteile bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84800-225-8_15 70318a85fb75886aee4944d40c8bd60f;de;;;7.1.;;;Ein Optimierungstool für die Prozessplanung und -planung Prozessplanung und Terminierung sind eine der wichtigsten Funktionen, um eine flexible Planung in einer Fertigung zu unterstützen. Für Produktivitätsverbesserungen in der Fertigung sollten Planung und Terminierung gleichzeitig und nicht sequentiell gelöst werden. In diesem Artikel schlagen wir ein Optimierungswerkzeug vor, das auf einem genetischen Algorithmus (GA)-Ansatz basiert, um den für die Prozessplanung und -planung verantwortlichen Personen zu helfen, die vielversprechendste Abfolge von Operationen unter Berücksichtigung einer Auswahl von Maschinen zu finden, auf denen die Operationen durchgeführt werden sollen. Die Minimierung der Makespan ist das Bewertungskriterium.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44739-0_54 410928915e2dd02bc1fc0ce52bf86f0b;de;;;7.1.;;;Agile Fertigungsforschung: Errungenschaften und Chancen Agile Manufacturing ist ein neuer Ausdruck, der die Fähigkeit eines Herstellers von Waren und Dienstleistungen darstellt, angesichts des kontinuierlichen Wandels erfolgreich zu sein. Diese Veränderungen können in Märkten, in Technologien, in Geschäftsbeziehungen und in allen Facetten des Unternehmens auftreten. In diesem Papier werden die Entstehung mehrerer Agile Manufacturing Research Institutes (AMRIs) und ihre laufenden Aktivitäten und Ergebnisse bis heute diskutiert. Eine Vision für die agile Fertigungsforschung wird formuliert und erste Erfolge identifiziert. Darüber hinaus wird zusätzlicher Forschungsbedarf diskutiert.;-;-;-;https://link.springer.com/article/10.1023/A%3A1018575613893 e428cd3d1208e15c57622fe891c4dd64;de;;;7.2.;;;Natürliche Sprache für den Datenbankabruf – eine praktische Perspektive Es wird eine Anwendung hervorgehoben, die eine natürliche Sprache in eine Organisation eingeführt hat, um eine strukturierte Abfragesprache zu ersetzen. Benutzer wurden in die natürliche Sprache eingeführt, während eine parallele Gruppe von Benutzern in eine strukturierte Abfragesprache eingeführt wurde. Der parallele Umgang mit natürlicher Sprache und der strukturierten Abfragesprache wurde nicht als streng wissenschaftliche Studie durchgeführt. Es wurde durchgeführt, um dem Unternehmen ein Abfragetool in natürlicher Sprache einzuführen. Dies tut seiner Nützlichkeit keinen Abbruch, da so wenig Arbeit über die Bewertung natürlicher Sprache im Geschäftsumfeld geleistet wurde (Jarke, Turner, Stohr, Vassiliou, White Michielson 1985, Krause 1979). Bei dieser Anwendung verwendeten Benutzer natürliche Sprache, um Probleme der realen Welt zu lösen, im Gegensatz zu kontrollierten Laborexperimenten (Reisner 1977, Welty und Stemple 1981). Die Benutzer der natürlichen Sprache und der strukturierten Abfragesprache arbeiteten in derselben Großraumbüroumgebung. Die neuen Benutzer des Natural Language Systems waren zunächst zufrieden damit, begannen jedoch über einen Zeitraum von Monaten mit der Migration und bevorzugten das Tool der strukturierten Abfragesprache.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-3211-0_13 4cbca3c5568aa702f5e98c17be3ed8ec;de;;;7.2.;;;XML-Indizierung und -Abruf mit einem Hybridspeichermodell XML DTD (Document Type Declaration) fasst zwei unterschiedliche Entitäten (Attribut- und Elementinhalt) zu einem Framework zusammen, um verschiedene Dokumentmerkmale darzustellen. Der Attributbegriff in der XML-DTD ähnelt der Felddarstellung in der Datenbank, während der Elementinhalt dem Volltext entspricht. In diesem Papier betrachten wir diese beiden Entitäten als unterschiedlich, von denen jede ein anderes Modell für das Speichern und Abrufen erfordert. Attribute werden in einem Datenbanksystem gespeichert, während die Elementinhalte und ihre Indizes in Dateien gespeichert werden. Wir stellen eine Technik vor, die diese beiden effizient zusammenfügt und darauf ein XML-Retrieval-System aufbaut. Ein solches System kann einen vernünftigen Kompromiss zwischen Leistung und Kosten beim Indizieren und Abrufen erzielen.;-;-;-;https://link.springer.com/article/10.1007/PL00011668 17dfa1fe5bddf486bf380bb79a5ee6b4;de;;;7.2.;;;Was Sie denken und was ich denke: Intersubjektivität in der Bewertung von Wissensartefakten untersuchen Fehlkalibrierung, das Versäumnis, die eigene Arbeit im Verhältnis zur Bewertung anderer genau zu bewerten, ist ein häufiges Problem in sozialen Systemen der Wissenserzeugung, in denen die Teilnehmer sowohl als Schöpfer als auch als Bewerter agieren. Theorien der sozialen Normierung gehen davon aus, dass die Fehlkalibrierung der Selbstbewertung des Individuums über mehrere Iterationen von Schöpfer-Bewerter-Interaktionen abnimmt und ein gemeinsames Verständnis entsteht. Dieses Papier untersucht die Intersubjektivität und die Längsdynamik der Fehlkalibrierung zwischen den Einschätzungen von Urhebern und Bewertern in IT-gestützten Systemen zur Schaffung und Verfeinerung von sozialem Wissen. Mit Latent Growth Modeling haben wir die Dynamik der Einschätzungen der Ersteller ihrer eigenen Wissensartefakte im Vergleich zu denen von Peer-Evaluatoren untersucht, um festzustellen, ob sich die Fehlkalibrierung über mehrere Interaktionen hinweg abschwächt. Im Gegensatz zur Theorie haben wir festgestellt, dass die Fehlkalibrierung der Selbsteinschätzung des Schöpfers bei wiederholten Interaktionen nicht abnimmt. Darüber hinaus stellten wir fest, dass sich die Fehlkalibrierung der Selbsteinschätzung je nach Grad der Differenz im Laufe der Zeit verstärkte, da die Ersteller von Wissensartefakten weiter von der kollektiven Meinung ihrer Kollegen abweichen. Eine eingehendere Analyse ergab keine signifikanten Hinweise auf den Einfluss von Bias und Kontroversen auf die Fehlkalibrierung. Daher kann es sein, dass es nicht wie erwartet funktioniert, sich auf die soziale Normierung zu verlassen, um Fehlkalibrierungen in Wissenserzeugungsumgebungen (z.;-;-;-;https://link.springer.com/article/10.1007/s10796-015-9586-x ebf74d3ed5148e066c126d0bee9804c8;de;;;7.2.;;;Suche in Dokumenten basierend auf der aktuellen Entwicklung Ein wichtiger Service für Systeme, die auf Informationen zugreifen, ist die Organisation der zurückgegebenen Suchergebnisse. Die Ergebnisse der Vektormodellsuche können durch eine Kugel in einem n-dimensionalen Raum dargestellt werden. Eine Abfrage stellt den Mittelpunkt dieser Kugel dar, deren Größe durch ihren Radius oder die Menge der darin enthaltenen Dokumente bestimmt wird. Ziel der Suche ist es, alle für eine Abfrage relevanten Dokumente in dieser Sphäre zu haben. Es ist bekannt, dass in diesem Bereich nicht alle relevanten Dokumente vorhanden sind, weshalb verschiedene Methoden zur Verbesserung der Suchergebnisse entwickelt wurden, die auf Basis der Erweiterung der Ausgangsfrage umgesetzt werden können. Unser Ziel ist es, das in Textdatenbanken enthaltene Wissen über die Ähnlichkeit von Dokumenten zu nutzen, um eine größere Menge relevanter Dokumente zu erhalten und gleichzeitig die aufgrund ihrer Irrelevanz stornierten zu minimieren. Im Artikel werden wir das Konzept definieren;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10687-3_15 084455a1a5a7ed39a2723b274f8535cb;de;;;7.2.;;;Einige Verhaltensaspekte der Informationsnutzung bei der Entscheidungsfindung: Eine Studie klinischer Urteile Diese Studie untersucht die verhaltensbezogene Verwendung von Informationssignalen bei der klinischen Entscheidungsfindung. Eine Stichprobe erfahrener Ärzte wurde gebeten, anhand von Fallprofilen Wahrscheinlichkeiten für die Annahme einer gegebenen Diagnose zuzuordnen. Urteilsprozesse von Individuen wurden modelliert. Die Untersuchung konzentrierte sich auf die selektive Verwendung und den Wert von Hinweisen im diagnostischen Prozess mit besonderem Fokus auf den Einfluss redundanter Informationen auf Urteile. Die Ergebnisse deuten darauf hin, dass Entscheidungsträger selektiv auf Hinweise reagieren, sogar manchmal inkonsistente Schlussfolgerungen aus verschiedenen Teilmengen von Hinweisen ziehen, die dieselben Informationen enthalten. Die Studie setzt voraus, dass die Gestaltung von Informationssystemen explizit Variationen in der individuellen Informationsstruktur der Benutzer berücksichtigt (oder die Benutzer möglicherweise in ihrem Verhalten an die Theorie (!);-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-87563-2_28 28496747b6c85a2e5f7308cd9d8f4b4f;de;;;7.2.;;;Verbesserung der Expertensuche mithilfe von Organisationshierarchien Die Aufgabe der Expertensuche besteht darin, Mitglieder einer Organisation mit relevanter Expertise zu einem bestimmten Thema zu identifizieren. In bestehenden Expertenfindungssystemen werden Profile aus Quellen wie E-Mail oder Dokumenten erstellt und als Grundlage für die Expertenidentifikation verwendet. In diesem Papier nutzen wir die organisatorische Hierarchie (die die Beziehungen zwischen Managern, Untergebenen und Kollegen darstellt), um Mitglieder zu finden, für die wir nur wenige oder keine Informationen haben. Wir schlagen einen Algorithmus vor, um die Leistung der Expertensuche zu verbessern, indem nicht nur die Expertise des Mitglieds, sondern auch die Expertise seiner Nachbarn berücksichtigt wird. Wir zeigen, dass die Bereitstellung dieser zusätzlichen Informationen an ein Expertenfindungssystem dessen Abrufleistung verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00958-7_18 55f39a01a4c7f5e85a20b623cf8475e6;de;;;7.2.;;;Bewertung der Sicherheit verteilter IT-Systeme durch ITSEC/ITSEM: Erfahrungen und Erkenntnisse Dieses Papier berichtet über die Erfahrungen, die im Rahmen des SIPE-Projekts (Synergic ITSEC/ITSEM Pre-Evaluation) gesammelt wurden, das Teil des Infosec ’93 Arbeitsprogramms war. Das SIPE-Konsortium hat europäische Richtlinien zur Entwicklung und Zusammenstellung von Sicherheitszielen für verteilte Computersysteme entwickelt. Das Projekt etablierte die praktische Anwendung der Bewertungskriterien und Methodik der Informationstechnologiesicherheit (ITSEC (Kommission, 1991) und ITSEM (Kommission, 1993)) auf solche Systeme und wurde von der Europäischen Kommission, GD XIII, unterstützt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-5041-2919-0_34 9d3f61e89ac99fc63f66135d518403c7;de;;;7.2.;;;Extraktive Textzusammenfassung: Können wir die gleichen Techniken für jeden Text verwenden? In diesem Beitrag behandeln wir zwei Themen. Der erste analysiert, ob die Leistung einer Textzusammenfassungsmethode vom Thema eines Dokuments abhängt. Der zweite beschäftigt sich damit, wie sich bestimmte sprachliche Eigenschaften eines Textes auf die Leistung einer Reihe von automatischen Textzusammenfassungsverfahren auswirken können. Dazu betrachten wir semantische Analysemethoden, wie z. B. textuelle Enthüllung und Anaphora-Auflösung, und untersuchen ihre Beziehung zu Eigennamen, Pronomen und Substantivverhältnissen, die über Originaldokumente berechnet werden, die in verwandte Themen gruppiert sind. Angesichts der erhaltenen Ergebnisse können wir schließen, dass, obwohl unsere erste Hypothese nicht unterstützt wird, da kein offensichtlicher Zusammenhang zwischen dem Thema eines Dokuments und der Leistung der verwendeten Methoden gefunden wurde, die Anpassung von Zusammenfassungssystemen an die linguistischen Eigenschaften von Eingabedokumenten Vorteile hat der Zusammenfassungsprozess.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38824-8_14 d86b50666352be290a7e990b6a19909f;de;;;7.2.;;;Untersuchung der semantischen Struktur technischer Dokumentensammlungen: Ein kooperativer Systemansatz Die Identifikation und Analyse des in Dokumentenform vorliegenden Wissens ist ein zentrales Element des betrieblichen Wissensmanagements. In ingenieursintensiven Organisationen umfasst es Aufgaben wie die Erstellung und Auswertung von Standards, den Vergleich verwandter Fälle und die Wiederverwendung von Erfahrungen bei ihrer Behandlung. In diesem Papier präsentieren wir Design, Implementierung und einige Anwendungserfahrungen mit einem modularen Ansatz, der eine Vielzahl von Techniken von der semantischen Dokumentenanalyse ermöglicht, mit einer maßgeschneiderten kartenzentrierten Visualisierung der Struktur von technischen Dokumentensammlungen zu interagieren.;-;-;-;https://link.springer.com/chapter/10.1007/10722620_11 22aa1453e7290878c440f4936bbe9859;de;;;7.2.;;;Wissensflussbasierte Dokumentempfehlung für den Wissensaustausch Wissen ist eine kritische Eigenschaft, die Unternehmen nutzen, um Wettbewerbsvorteile zu erlangen und zu erhalten. In einem sich ständig verändernden Geschäftsumfeld müssen Organisationen effektive und effiziente Ansätze nutzen, um Wissensarbeitern zu helfen, aufgabenrelevantes Wissen zu finden sowie dieses Wissen zu bewahren, zu teilen und wiederzuverwenden. Daher ist es ein wichtiges Thema, den Wissensfluss (KF) aus den historischen Arbeitsaufzeichnungen von Wissensarbeitern zu entdecken, um ihre Aufgabenanforderungen und die Art und Weise, wie sie auf Dokumente verweisen, zu verstehen und aktiv adaptive Wissensunterstützung bereitzustellen. Diese Arbeit schlägt eine KF-basierte Dokumentempfehlungsmethode vor, die KF-Mining und kollaborative Filterempfehlungsmechanismen integriert, um kodifiziertes Wissen zu empfehlen. Der Ansatz besteht aus zwei Phasen: der KF-Mining-Phase und der Empfehlungsphase. Die KF-Mining-Phase kann den Wissensfluss jedes Mitarbeiters identifizieren, indem die Referenzierungszeit und die Zitationsbeziehungen von Wissensressourcen berücksichtigt werden. Anschließend wendet die Empfehlungsphase basierend auf dem ermittelten KF sequentielles Rule Mining und die CF-Methode an, um dem Zielarbeiter relevante Dokumente zu empfehlen. Es werden Experimente durchgeführt, um die Leistung der vorgeschlagenen Methode zu bewerten und sie mit der traditionellen CF-Methode zu vergleichen, wobei Daten verwendet werden, die von einem Labor eines Forschungsinstituts gesammelt wurden. Die Versuchsergebnisse zeigen, dass die vorgeschlagene Methode die Empfehlungsqualität verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76719-0_33 aa6509f97808b45b1b9e9307a7e963e6;de;;;7.1.;;;Ein integriertes Systemdesign für das Investitionsmanagement von Telekommunikationsbetreibern Mit der Entwicklung eines ausgeklügelten Managements wird das MIS des Unternehmens komplexer und integrierter. Als Anlageentscheidungssystem ist es kein einfaches finanzielles Problem. Es sollte nicht nur den Finanzindex des Unternehmens berücksichtigen, sondern auch seinen internen Geschäftsprozess, der immer mit dem technischen Teil des Unternehmensbetriebs verbunden ist. Als Implementierungsbeispiel konzentriert sich dieses Papier auf das Investitionsmanagementsystem der chinesischen Mobilfunkbetreiber, richtet ein dreischichtiges Systemmodell ein, das auf dem kritischen Pfad basiert, von Leistungsbewertung geleitet wird, den Geschäftsprozess des Mobilfunkbetreibers undurchdringlich ist und auf die endgültige Rentabilität abzielt. Das System integrierte Funktionen zur Kontrolle, Rückverfolgung und Entscheidung. Es ist als dynamisches, zeitnahes und wachsames Konzept konzipiert, das die Investitionsentscheidungen der Mobilfunkbetreiber entsprechend ihrer realen Betriebsbedingungen richtig halten kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-76312-5_56 316fe259ce537aa3dd05e1b1abe91e88;de;;;7.1.;;;Konzepte & Tools für Fertigungsplanung, -steuerung und Leistungsmanagement Diese Beschreibung enthält einen Überblick über den Funktionsumfang und den Aufbau des Production Management Systems. Neben der Beschreibung der praktischen Anwendung dieses Produkts werden auch Informationen über die weiteren Möglichkeiten zur Erweiterung des Systems und zur Integration in eine gegebene Umgebung beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35569-6_37 7ceab2a27d607962b38c0ae0d793ed95;de;;;7.1.;;;Das Unternehmen neu erfinden: Organisatorische Implikationen des Wissensmanagements In den letzten Jahren hat sich Wissensmanagement zu einer bedeutenden Geschäftsstrategie entwickelt, die von einer Vielzahl von Faktoren angetrieben wird. Der dominierende Faktor ist der Übergang zu einer Informationswirtschaft, die durch die Konvergenz von Kommunikations- und Informationstechnologie erleichtert wurde. Die organisatorische Reaktion auf dieses sich ändernde Umfeld bestand darin, sich auf die Fähigkeit der Organisation zu konzentrieren, global zu agieren und den zunehmenden Mengen und der Vielfalt von Daten und Informationen, die die Organisation verarbeitet, einen Mehrwert zu bieten. In diesem Beitrag untersuche ich die wesentlichen Faktoren, die die etablierten Ansätze des Wissensmanagements beeinflusst haben, und hinterfrage diese Entwicklungen kritisch. Diese Übersicht bildet die Grundlage für einen alternativen Ansatz zum Wissensmanagement. Das Papier schlägt ein aufgabenbasiertes Wissensmanagement vor, das sich auf Arbeitspraktiken mit ihren Praxisgemeinschaften konzentriert und die Rolle des Lernens bei der Wissensproduktion hervorhebt. Die Bedeutung des vorgeschlagenen Ansatzes besteht darin, dass die Organisation eine reflexive Praxis anwenden muss, die erhebliche Veränderungen in den Organisationsstrukturen, Arbeitspraktiken und dem sozialen und kulturellen Umfeld der Organisation erfordert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0761-3_4 690a3ed7f733b1691dc56af4921bdd59;de;;;7.1.;;;Die derzeitige Organisation des Außenhandelsmanagements und Möglichkeiten zu seiner Verbesserung Ohne ein klares Managementsystem kann der Außenhandel weder funktionieren noch wachsen. In der Praxis bedeutet dies, effiziente Steuerungskanäle zwischen dem Steuerungssystem und dem zu steuernden System zu schaffen, die Formen und Methoden zur Steuerung der verschiedenen Aspekte der Außenwirtschaftstätigkeit zu definieren und die verschiedenen Elemente der das System.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-04832-8_4 4c8eaddb473d82421a8b7e0a45dbcb71;de;;;7.1.;;;Management, Steuerung und Design integrierter Netzwerke mit dynamischem Echtzeit-Routing Integrierte Echtzeit-Dynamic-Routing-(IRR)-Netzwerke bieten dynamische Routing-Funktionen für mehrere Dienstklassen in einem integrierten Transportnetzwerk. In diesem Beitrag wird gezeigt, dass IRR-Netzwerke reduzierte Netzwerkverwaltungskosten ermöglichen, da mit dynamischem Echtzeit-Routing eine Reihe von Netzwerkoperationen vereinfacht oder eliminiert werden. Zu diesen Vereinfachungen gehören die Eliminierung der Speicherung umfangreicher Routing-Tabellen in den Netzwerk-Switches, die Beseitigung der Berechnung von Routing-Tabellen im Netzwerkdesign, die Vereinfachung der Routing-Verwaltungsvorgänge, die das Herunterladen neuer Routing-Informationen in das Netzwerk erfordern, und die Beseitigung der automatischen Umleitungsfunktion im Online-Modus Verkehrsregelung. Hier wird eine neue Bandbreitenzuweisungstechnik beschrieben, die auf der optimalen Lösung eines Netzbandbreitenzuweisungsmodells für IRR-Netze basiert. Das Modell erzielt eine signifikante Verbesserung sowohl der durchschnittlichen Netzwerkblockierung als auch der Knotenpaarblockierungsverteilung, wenn sich das Netzwerk in einem überlasteten Zustand befindet, z. In einem in der nächsten Journalausgabe erscheinenden Artikel beschreiben wir weiter einen neuen Algorithmus für das Transportdesign von IRR-Netzen, der ein nahezu optimales Kapazitäts-Engineering erreicht. Diese Optimierungstechniken erreichen durch geeignetes Modellieren des effizienteren Betriebs von IRR-Netzen erhebliche Kapitalkostensenkungen und Netzleistungsverbesserungen.;-;-;-;https://link.springer.com/article/10.1007/BF01036914 f46d41cd303414fe61480a34b3958777;de;;;7.2.;;;Reproduzierbare Experimente zu lexikalischem und zeitlichem Feedback für die Tweet-Suche „Evaluation as a Service“ (EaaS) ist eine neue Methodik für gemeinschaftsweite Evaluierungen, bei der eine API den einzigen Zugangspunkt zur Sammlung zur Erledigung der Evaluierungsaufgabe bietet. Zwei wichtige Vorteile dieses Modells sind, dass es reproduzierbare IR-Experimente ermöglicht und die gemeinsame Nutzung steckbarer Open-Source-Komponenten fördert. In diesem Whitepaper veranschaulichen wir beide Vorteile, indem wir Open-Source-Implementierungen von lexikalischen und temporalen Feedback-Techniken für die Tweet-Suche basierend auf der TREC Microblog API bereitstellen. Wir können größtenteils Ergebnisse aus früheren Arbeiten reproduzieren und deren allgemeine Ergebnisse bestätigen. Experimente mit neuen Testsammlungen und zusätzlichen Analysen bieten jedoch einen differenzierteren Blick auf die Ergebnisse und heben Probleme hervor, die in früheren Studien nicht erörtert wurden, insbesondere die großen Varianzen in der Wirksamkeit im Zusammenhang mit Trainings-/Testaufteilungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16354-3_82 27573f50f5af30c47dd8cb87a9c58845;de;;;7.2.;;;Intelligente Gaming-Simulationen und deren Auswertung Spielsimulationen bieten Lernen durch Spielaktivitäten in künstlichen Umgebungen, in denen Schüler die Konsequenzen ihres Handelns erleben können, ohne reale Risiken einzugehen. Als pädagogisches Instrument folgt eine Spielsimulation jedoch dem Konzept des Discovery Learning und verfolgt daher nicht unbedingt ein direktes Bildungsziel. Eine Möglichkeit, diese Schwäche zu überwinden, besteht darin, die Spielsimulation mit einer intelligenten Nachhilfeeinrichtung auszustatten. Diese intelligenten Spielsimulationen werden immer beliebter in Lehrumgebungen. Obwohl allgemein angenommen wird, dass intelligente Spielsimulationen ein großes Potenzial für den Unterricht versprechen, wurde bisher wenig an der Entwicklung einer geeigneten Bewertungsmethode zur Einschätzung der Tutorfähigkeiten gearbeitet. Dieser Beitrag gibt eine Einführung in intelligente Spielsimulationen für den Bildungsbereich. Anschließend wird ein Evaluationsansatz zur Einschätzung der Tutorfähigkeiten einer intelligenten Spielsimulation vorgeschlagen. Dieser Bewertungsansatz befasst sich mit intelligenten Spielsimulationen aus zwei Hauptperspektiven. Während die interne Evaluation untersucht, wie die Architektur der intelligenten Spielsimulation zu einem bestimmten Systemverhalten führt, befasst sich die externe Evaluation mit der pädagogischen Wirkung des Systemverhaltens auf den Schüler.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35061-5_6 31fd47b084c83d70e24e26656ba2d3d7;de;;;7.2.;;;Abgrenzung und Bewertung von hydrologisch-landschaftlichen Regionen in den Vereinigten Staaten mit Hilfe von Geoinformationssystemen und multivariaten statistischen Analysen Hydrologische Landschaftsregionen in den Vereinigten Staaten wurden unter Verwendung von geographischen Informationssystemen (GIS) in Kombination mit Hauptkomponenten und Clusteranalysen abgegrenzt. Die GIS- und statistischen Analysen wurden auf die Form der Landoberfläche, die geologische Textur (Durchlässigkeit des Bodens und des Grundgesteins) und Klimavariablen angewendet, die die physikalische und klimatische Umgebung von 43.931 kleinen (ca;-;-;-;https://link.springer.com/article/10.1007/s00267-003-5077-9 9f95dd03d842ebb7d7e9d26367b38a3b;de;;;7.2.;;;Ontologie-Mapping-Zusammensetzung für die Abfragetransformation in einer verteilten Umgebung Semantische Heterogenität sollte überwunden werden, um einen automatisierten Informationsaustauschprozess zwischen Informationssystemen in ontologiebasierten verteilten Umgebungen zu unterstützen. Um dies zu erreichen, basierten traditionelle Ansätze auf einer expliziten Abbildung zwischen Ontologien von menschlichen Experten der Domäne. Die manuellen Aufgaben sind jedoch sehr teuer, so dass es schwierig ist, Ontologieabbildungen zwischen allen möglichen Paaren von Informationssystemen zu erhalten. Dabei schlagen wir in diesem Papier ein System vor, um die vorhandenen Karteninformationen teilbar und austauschbar zu machen. Das bedeutet, dass das vorgeschlagene System die vorhandenen Mapping-Informationen sammeln und aggregieren kann. Folglich können wir die Ontologie-Mappings indirekt schätzen. Dieses Papier konzentriert sich insbesondere auf die Abfrageausbreitung in den verteilten Netzwerken. Sobald wir die indirekte Zuordnung zwischen Systemen haben, können die Abfragen effizient transformiert werden, um automatisch Wissen zwischen heterogenen Informationssystemen auszutauschen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04441-0_42 f24c71498d12eb28fa01be96789b1326;de;;;7.2.;;;Test und Bewertung von verteilten Informationssystemnetzwerken Da Informationsdienste zunehmend allgegenwärtig und kostenpflichtig werden, verlangen die Benutzer die Möglichkeit, die Qualität eines Informationsdienstes auf der Grundlage seiner Kosten zu wählen. In diesem Umfeld ist es die Herausforderung, die richtigen Informationen zur richtigen Zeit und in angemessener Qualität an den richtigen Benutzer zu liefern. Darüber hinaus müssen Ressourcenoptimierungen soweit wie möglich durchgeführt werden. In diesem Beitrag stellen wir das Konzept der informationsqualitätsbasierten Systembewertung vor. Der Schlüsselbeitrag ist ein Rahmen, in dem Benutzer-/Anwendungsbedürfnisse hinsichtlich der Informationsqualität anhand streng definierter Metriken quantifiziert werden können, bestehende Systeme anhand dieser Metriken bewertet und die Kompromisse zwischen Informationsqualität und ihren Bereitstellungskosten untersucht werden können. Darüber hinaus bietet dies einen Ansatz zur Entwicklung von informationsqualitätsbewussten Richtlinien und Mechanismen für das System. Dieses Framework wurde teilweise validiert, indem es auf die Bereitstellung von kontinuierlichen Mediendiensten, d. h. Audio und Video, in einer verteilten Umgebung angewendet wurde. In diesem Beitrag wird die Fallstudie im Detail vorgestellt. Schließlich skizziert der Beitrag ein Forschungsprogramm im Bereich der informationsqualitätsbasierten Systembewertung.;-;-;-;https://link.springer.com/article/10.1023/A%3A1018979414626 391889ab54e82b0dcea23b0fc924459f;de;;;7.1.;;;Entwerfen Sie einen Opportunity Tree für die Terminverwaltung und -bewertung von COQUALMO Die Projektplanung ist oft der schwierigste Teil des Projektmanagements. Das Verhältnis von Arbeitsplätzen, Risikopositionen und Humanressourcen wurde erfolgreich für den Zeitplan und den Projektfortschritt genutzt. Es gibt viele Fehler, die die Probleme beim Zeitplan- und Fortschrittsmanagement während der Softwareentwicklung verursachen. In diesem Dokument wird das Rahmenwerk für den Opportunity-Tree entworfen, das auch die Termin- und Qualitätsprobleme beseitigt und verwaltet. Bei ähnlichen Projekten können wir Fehler einschätzen und sich auf deren Behebung vorbereiten, indem wir Domänenexpertenwissen und das Opportunity Tree Framework verwenden, was den Softwareprozess erheblich verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/11751632_115 52d2772297de9dedfc89e54f51954fdc;de;;;7.1.;;;Systemsicht auf Management und Organisation In diesem Kapitel wollen wir einen Einblick in den Managementprozess im Kontext von Menschen und Organisationsstrukturen geben und uns dabei auf verschiedene systemische Sichtweisen konzentrieren, die sich herausgebildet haben. Der Fokus liegt zunächst auf dem allgemeinen Beitrag des Systemdenkens zur Evolution der Managementtheorie. Wir wenden uns jedoch schnell der im Wesentlichen kybernetischen Natur der Management- und Organisationstheorie zu.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-7799-3_5 1dc80dabe4620dfe880224c97923b04d;de;;;7.2.;;;ProMISE: Eine Methode zur Prozess-Metamodellierung für das Information Systems Engineering Prozesse spielen eine große Rolle für den Erfolg von IT-Projekten. Es gibt viele Vorgehensmodelle und Metamodelle, jedoch muss das Motto „one size fits all“ moderiert werden: Modelle müssen an die Besonderheiten der Organisationen oder der Projekte angepasst werden. Um Methodeningenieuren beim Aufbau angepasster Prozessmodelle zu helfen, schlagen wir eine Methode vor, um Prozessmetamodelle zu erstellen und sie entsprechend dem Kontext der Organisation zu instanziieren. Unsere Methode besteht darin, die benötigten Konzepte aus einem konzeptionellen Graphen auszuwählen, das aktuelle Wissen über Metamodellierungskonzepte für IT-Prozesse zu sammeln und sie in ein neues Prozessmetamodell zu integrieren, das für jedes Projekt in einer Organisation instanziiert wird. Diese Methode wird durch ein Tool unterstützt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23391-3_7 c8c6caacdacb5a7cbea9b049f7ef8953;de;;;7.2.;;;Multikriterienmodell zur Auswahl automatisierter Systemtests Softwaretestautomatisierung ist ein bekannter Weg, um den Testprozess zu verbessern, aber es ist nicht immer der beste Ansatz für das Projekt, obwohl es bei der Anwendung von Softwaretests entscheidend ist, zu entscheiden, ob sie automatisiert werden können. Diese Entscheidung ist nicht immer einfach zu treffen, da sie dazu führt, dass Personen ihren Standpunkt darlegen, was zu einem Konflikt mit der Meinung anderer führen kann. In diesem Zusammenhang zielt diese Arbeit darauf ab, ein auf Multikriterien basierendes Entscheidungshilfemodell zu implementieren, das Testanalysten und Stakeholdern bei der Auswahl von Anwendungsfällen für die Automatisierung gemäß der Unternehmens- und Projektrealität hilft.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-34456-X_86 650ac8cded0e70a50b483a248b4e8f2b;de;;;7.2.;;;Skalierbare Methoden zur Ermittlung grober Mengenreduzierungen Die Theorie der groben Mengen erlaubt es, Reduktionen einer Entscheidungstabelle zu finden, die minimale Mengen von Attributen sind, die die erforderliche Klassifikationsqualität bewahren. In der Literatur sind bereits eine Reihe von Methoden zum Auffinden von Reduktionen vorgeschlagen worden. Leider sind die existierenden Methoden nicht in der Lage, alle Reduktionen aus sehr großen Entscheidungstabellen zu entdecken. In unserem Papier schlagen wir neue skalierbare Apriori-ähnliche Algorithmen vor, um alle verallgemeinerten, möglichen und bestimmten Reduktionen aus sehr großen Entscheidungstabellen zu entdecken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39985-8_63 d07447a1c5e68afc51783e1fe7f8688b;de;;;7.2.;;;Ein Wissensdatenbanksystem zur Verbesserung der wissenschaftlichen Entdeckung: Telemakus Mit der raschen Expansion der wissenschaftlichen Forschung wird es immer schwieriger, neues Domänenwissen effektiv in die Wissenschaften zu finden oder zu integrieren. Bemühungen zur Verbesserung und Beschleunigung der wissenschaftlichen Entdeckung werden an mehreren Fronten untersucht. Ein Großteil dieser Arbeit basiert jedoch auf traditionellen Search-and-Retrieval-Ansätzen, und das Format der bibliografischen Zitationsdarstellung bleibt unverändert.;-;-;-;https://link.springer.com/article/10.1186/1742-5581-1-2 6da17c0f8177a761ebc3674e49576aae;de;;;7.2.;;;Eine Methode zur Bewertung der Auffindbarkeit und Navigierbarkeit von Empfehlungsalgorithmen Empfehlungen werden zunehmend verwendet, um das Auffinden, Durchsuchen und Durchsuchen von Elementen zu unterstützen und zu ermöglichen. Dies gilt insbesondere für Unterhaltungsplattformen wie Netflix oder YouTube, bei denen häufig keine eindeutige Kategorisierung der Artikel vorhanden ist. Die Eignung eines Empfehlungsalgorithmus zur Unterstützung dieser Anwendungsfälle kann jedoch durch keine bisher vorgeschlagenen Empfehlungsbewertungsmaßnahmen umfassend bewertet werden. In diesem Beitrag schlagen wir eine Methode vor, um das Repertoire bestehender Empfehlungsbewertungstechniken um eine Methode zur Bewertung der Auffindbarkeit und Navigierbarkeit von Empfehlungsalgorithmen zu erweitern. Die vorgeschlagene Methode geht dies an, indem zunächst die Auffindbarkeit von Empfehlungsalgorithmen bewertet wird, indem strukturelle Eigenschaften der resultierenden Empfehlungssysteme in Bezug auf Bowtie-Struktur und Weglängen untersucht werden. Zweitens bewertet die Methode die Navigierbarkeit, indem drei verschiedene Modelle von Szenarien zur Informationssuche simuliert und die Erfolgsraten gemessen werden. Wir zeigen die Machbarkeit unserer Methode, indem wir sie auf vier nicht personalisierte Empfehlungsalgorithmen auf drei Datensätze anwenden und veranschaulichen ihre Anwendbarkeit auf personalisierte Algorithmen. Unsere Arbeit erweitert das Arsenal an Bewertungstechniken für Empfehlungsalgorithmen, reicht von einer Ein-Klick-basierten Auswertung hin zur Mehrklick-Analyse und präsentiert eine allgemeine, umfassende Methode zur Bewertung der Navigierbarkeit beliebiger Empfehlungsalgorithmen.;-;-;-;https://link.springer.com/article/10.1186/s40649-017-0045-3 f5f35acb028e6714b58596d5093885d1;de;;;7.2.;;;Eine schnelle Technik zum Vergleichen von Graphdarstellungen mit Anwendungen zur Leistungsbewertung Die Suche nach effizienten und effektiven Möglichkeiten zum Vergleichen von Graphen, die aus Erkennungsprozessen resultieren, mit ihren entsprechenden Ground-Truth-Graphen ist ein wichtiger Schritt in Richtung einer strengeren Leistungsbewertung.;-;-;-;https://link.springer.com/article/10.1007/s10032-003-0106-z 8ee98a77259315d106f6257dee530eb1;de;;;7.2.;;;Domänenübergreifende Bewertung des Benutzerengagements Aufgrund der Anwendungen von User Engagements in Empfehlungssystemen hat die Vorhersage von User Engagement in letzter Zeit erhebliche Aufmerksamkeit auf sich gezogen. In dieser Aufgabe, die erstmals in der ACM Recommender Systems Challenge 2014 vorgeschlagen wird, werden die Beiträge untersucht, die die Meinungen der Benutzer zu Artikeln enthalten (z. B. die Tweets mit den Bewertungen der Benutzer zu Filmen auf der IMDb-Website). In diesem Papier konzentrieren wir uns auf die Bewertung des Benutzerengagements für Kaltstart-Webanwendungen im Extremfall, wenn keine Trainingsdaten für die Ziel-Webanwendung verfügbar sind. Wir schlagen ein adaptives Modell vor, das auf der Transfer-Learning-Technik (TL) basiert, um mit den Daten einer Webanwendung zu trainieren und auf einer anderen zu testen. Wir untersuchen das Problem der Erkennung von Tweets mit positivem Engagement, was ein sehr unausgewogenes Klassifizierungsproblem darstellt. Daher modifizieren wir die Verlustfunktion des verwendeten Transferlernverfahrens, um mit unausgeglichenen Daten fertig zu werden. Wir evaluieren unsere Methode anhand eines Datensatzes, der die Tweets von vier beliebten und unterschiedlichen Datenquellen enthält, d. h. IMDb, YouTube, Goodreads und Pandora. Die experimentellen Ergebnisse zeigen, dass Transferlernen in einigen Fällen Wissen zwischen Domänen übertragen kann, um die Bewertungsleistung des Benutzerengagements zu verbessern. Wir analysieren die Ergebnisse weiter, um herauszufinden, wann Transferlernen dazu beitragen kann, die Leistung zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30671-1_64 7d212e89ae466d1101fe8f6d0abb3323;de;;;7.2.;;;Messen semantischer Ähnlichkeit basierend auf Gewichtungsattributen der Kantenzählung Die semantische Ähnlichkeitsmessung kann in vielen verschiedenen Bereichen angewendet werden und hat verschiedene Möglichkeiten, sie zu messen. Als Grundlagenpapier für semantische Ähnlichkeit haben wir die Kantenzählmethode zur Messung semantischer Ähnlichkeit untersucht, indem wir die Gewichtungsattribute betrachteten, von denen aus sie die Stärke einer Kante beeinflussen. Wir haben die Attribute des Skalierungstiefeneffekts und des semantischen Beziehungstyps ausführlich betrachtet. Darüber hinaus haben wir gezeigt, wie das bestehende Flankenzählverfahren durch die Berücksichtigung virtueller Verbindungen verbessert werden kann. Schließlich verglichen wir die Leistung der vorgeschlagenen Methode mit einem Benchmark-Satz menschlicher Ähnlichkeitsbeurteilungen. Die Ergebnisse der vorgeschlagenen Maßnahme waren im Vergleich zu anderen kombinierten Ansätzen ermutigend.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30583-5_50 ce3cc88f2aa05c1c2e36a9c5fff2a91b;de;;;7.2.;;;Analyse der Intrusion Detection in der Leitsystemkommunikation basierend auf der Ausreißererkennung mit Ein-Klassen-Klassifikatoren In diesem Beitrag stellen wir eine Analyse der Ausreißererkennung mit SVM (Support Vector Machine) zur Erkennung von Eindringlingen in Kommunikationsnetzwerken von Leitsystemen vor. SVMs haben sich als nützlich erwiesen, um normale Kommunikations- und Angriffsangriffe zu klassifizieren. In Leitsystemen ist eine große Menge an normalen Kommunikationsdaten verfügbar, aber da es so gut wie keine Cyberangriffe gegeben hat, gibt es nur sehr wenige tatsächliche Angriffsdaten. Eine Klasse SVM und SVDD (Support Vector Data Description) sind zwei Verfahren, die für eine Klassenklassifikation verwendet werden, bei der nur Informationen einer der Klassen verfügbar sind. Wir haben diese beiden Methoden auf die Intrusion Detection in einem experimentellen Kontrollsystemnetzwerk angewendet und die Unterschiede in der Klassifizierung verglichen. Um Informationen über die Art des als Angriff einzustufenden Datenverkehrs zu erhalten, wurde der Prozentsatz der erlaubten Ausreißer interaktiv geändert und die Ergebnisse durch menschliches Wissen über das Kontrollsystem ergänzt. Und unsere Experimente haben klargestellt, dass Sequenzinformationen in der Steuerungssystemkommunikation sehr wichtig sind, um einige Einbruchsangriffe zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34500-5_33 422a34b30dfb84485d4fac1303e2cd57;de;;;7.2.;;;Ranking und Clustering chemischer Strukturdatenbanken Dieser Artikel fasst ein erweitertes Forschungsprogramm zusammen, um den Einsatz fragmentbasierter Maße der intermolekularen Ähnlichkeit in chemischen Informationssystemen zu untersuchen, unter besonderer Berücksichtigung der Struktur-Eigenschafts-Korrelation. Es wird über Vergleichsstudien von strukturellen Ähnlichkeitsmaßen und von Clustering-Methoden für chemische Strukturdatenbanken berichtet. Die Verfahren sind am besten geeignet, wenn sehr spärliche Datenmatrizen verfügbar sind, in solchen Fällen kann ein sehr schneller Algorithmus zur Suche nach dem nächsten Nachbarn verwendet werden, um die erforderlichen Ähnlichkeiten zu berechnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-74140-1_15 3b0957d5977003a5db7aa3fb57df8916;de;;;7.2.;;;Verbrauchersuchmuster: Empirische Evidenz, konkurrierende Theorien und Managementimplikationen Das Suchverhalten der Verbraucher ist ein zentraler Prozess in der Funktionsweise von Märkten, da es bestimmt, wie Kunden Informationen über konkurrierende Anbieter finden und bewerten und damit maßgeblich das Kaufverhalten bestimmen. Eine Überprüfung der empirischen Evidenz des Suchverhaltens basierend auf den theoretischen Konstrukten von Betrachtungsmenge und Zeit dient als Grundlage für die Bewertung konkurrierender Theorien aus Wirtschaftsinformatik, Ökonomie, Entscheidungstheorie und Marketing, die versuchen, Verbrauchersuchmuster zu erklären und vorherzusagen. Es wird ein multidisziplinäres Bricolage-Suchmodell vorgeschlagen, das Elemente aus früheren Theorien einbezieht, sich aber von der etablierten Theorie unterscheidet, indem es anerkennt, dass die Suche am besten als Herumstöbern zum Aufbau eines Informationsmosaiks beschrieben werden kann und daher zufälliger erscheint, als bisher angenommen wurde. Ein Bricolage-Modell kann helfen, eine Reihe unterschiedlicher Suchverhalten zu erklären, zum Beispiel iterative und manchmal chaotisch erscheinende Suchmuster, enges Suchverhalten, willkürliches Suchverhalten, heuristische Ansätze und relativ geringe Aufmerksamkeit auf die Bewertung verschiedener Optionen. Die theoretischen und betriebswirtschaftlichen Implikationen der Ideen werden skizziert, die Bereiche für weitere Forschung aufzeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94487-6_13 762fe4b6c7caaf4873eed177611acf28;de;;;7.1.;;;Organisation für Krisenreaktion Krisen sind Wendepunkte in Organisationen. Im Krisenfall hängt ein reaktionsschnelles Management von der schnellen Konfiguration und Bereitstellung von Informationen und Kommunikation ab. Dieses Papier vereint Forschung und Praxis in den Bereichen Krisenreaktionsmanagement, Informationstechnologie und Schnellreaktionsmethoden für Nachrichtenmedien, um Prinzipien für die Nutzung der Informationstechnologie als organisatorische Ressource abzuleiten. Unternehmen erkennen zunehmend die Notwendigkeit, ihre Informationstechnologie (IT)-Plattform als wichtige Geschäftsressource für Just-in-Time-Planung, Verteilung, Koordination, Service und Logistik zu betrachten. Wenn sie es als ebenso wichtige Ressource für die Just-in-Time-Krisenreaktion sehen, schafft es eine starke Grundlage für das Krisenreaktionsmanagement.;-;-;-;https://link.springer.com/article/10.1080/026839696345397 a3ed6c07d9a60b6fde8c3a8ce7348d3a;de;;;7.1.;;;Ein persönliches Finanzplanungssystem für den täglichen Gebrauch? Systeme zur Finanzplanung existieren. Viele dieser Systeme sind jedoch komplex, teuer und für den Einsatz durch Spezialisten konzipiert. In dem in diesem Beitrag beschriebenen Projekt sollte untersucht werden, ob ein wissensbasiertes System für den „alltäglichen“ Gebrauch von Finanzplanern entwickelt werden kann. Es wurde ein System mit dem Namen Retirement and Pension System (RAP) entwickelt, das sich mit der Investitionsplanung für Personen befasst, die Anspruch auf eine Altersrente haben könnten. Das System behandelt vereinfachte Situationen und generische Investitionen. Versuche mit 91 Mitgliedern der breiten Öffentlichkeit zeigten, dass das System positiv bewertet wurde und erfolgreich bei der Problemlösung eingesetzt werden konnte. Die Untersuchung des Problemlösungsverhaltens mit dem System zeigte verschiedene Verhaltensmuster – eine beträchtliche Menge an „Was-wäre-wenn“-Analysen und eine gewisse Nutzung der Erklärungs- und Hilfefunktionen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34979-4_22 6dba955b1ed63a1efa61730a82bfa13a;de;;;7.1.;;;Der Bankenkodex: Software als Digitalisierung deutscher Sparkassen Bis heute ist die Geschichte der Bankensoftware nahezu unerzählt. Zwar gibt es bereits einige Literatur zum Einsatz von Computern im Bankgewerbe, die meiste konzentriert sich jedoch nur auf die Hardware und ihre Einschränkungen (vgl. Cortada 2006). Die Logik hinter diesen Maschinen bleibt unerzählt. Mit dem Aufkommen des Computers als universelle Maschine seit den 1950er Jahren wurden Geschäftsprozesse in Code geschrieben und nicht fest in die Maschine verdrahtet. Außerdem steuerte nicht der Prozessor, sondern die Systemsoftware, was dem Bankangestellten auf dem Bildschirm präsentiert wurde. Hardware wurde immer austauschbarer, während die eigentlichen Leitprinzipien des Computing in Aktion in der Software zu finden sind. In diesem Artikel wird analysiert, wie deutsche Sparkassen während des Kalten Krieges mit Software ihr Geschäft digitalisierten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49463-0_10 faa675ec3c540d69712514b146da4d93;de;;;7.1.;;;Der Zusammenhang zwischen CEO-Arbeit, Management-Accounting-Informationen und finanzieller Leistung: Belege finnischer Top-Manager Das Ziel dieser Studie ist es, den Zusammenhang zwischen CEO-Arbeit, Bedeutung von Management Accounting Information (MAI) und finanzieller Leistung des Unternehmens zu analysieren. Das Forschungsmodell basiert auf neun Hypothesen zum Zusammenhang der CEO-Arbeit mit den traditionellen Dimensionen der Führungsaufgaben (Zeitspanne, Prozessstadium und Funktionsbereich), der Bedeutung von MAI und der finanziellen Leistungsfähigkeit. Wir gehen davon aus, dass die CEO-Arbeit direkt mit der Bedeutung von MAI verbunden ist, aber auch indirekt durch traditionelle Aufgabendimensionen vermittelt wird. Es wird auch angenommen, dass die CEO-Arbeit direkt mit der finanziellen Leistung verbunden ist, aber auch indirekt durch die Bedeutung von MAI vermittelt wird. Das Forschungsmodell wurde nach der Methode der partiellen kleinsten Quadrate anhand von Umfragedaten von 215 finnischen Top-Managern (CEOs) aus Unternehmen unterschiedlicher Branchen und Größenklassen getestet. Die Arbeit von CEOs wurde in Mintzbergs (The nature of managerial work. New York: Harper & Row,;-;-;-;https://link.springer.com/article/10.1007/s00187-014-0197-3 71d837141c9d9e81196e5955be704842;de;;;7.1.;;;Ein umsatzbasiertes Modell für Entscheidungen über Ressourceninvestitionen in IP-Netzwerken Die Kapazitätsplanung ist eine kritische Aufgabe im Netzwerkmanagement. Es identifiziert, wie viel Kapazität benötigt wird, um den zukünftigen Verkehrsbedarf zu decken. Es wirkt sich direkt auf die Kundenzufriedenheit und den Umsatz aus. In dieser Arbeit präsentieren wir ein Analysetool für die Netzwerknutzung namens;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35674-7_25 3727a64673d5d93d6f3ea899e349aebf;de;;;7.2.;;;Chinesische Wortähnlichkeitsberechnung basierend auf Kombinationsstrategie Chinesische Wortähnlichkeitsberechnung ist eine grundlegende Aufgabe für die Verarbeitung natürlicher Sprache. Dieses Papier stellt eine Methode vor, um die Ähnlichkeit zwischen chinesischen Wörtern basierend auf einer Kombinationsstrategie zu berechnen. Wir wenden Baidubaike an, um das Word2Vector-Modell zu trainieren, und integrieren dann verschiedene Methoden, die semantische wörterbuchbasierte Methode, die Word2Vector-basierte Methode und die chinesische FrameNet (CFN)-basierte Methode, um die semantische Ähnlichkeit zwischen chinesischen Wörtern zu berechnen. Die semantische wörterbuchbasierte Methode umfasst Wörterbücher wie HowNet, DaCilin, Tongyici Cilin (Erweitert) und Antonym. Die Experimente werden mit 500 Wortpaaren durchgeführt und der Spearman-Korrelationskoeffizient der Testdaten beträgt 0,524, was zeigt, dass die vorgeschlagene Methode machbar und effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-50496-4_67 9402f87e5bc3457beb56610d4a8873d3;de;;;7.2.;;;Erlernen von Ähnlichkeitsfunktionen in der graphbasierten Dokumentenzusammenfassung Graphbasierte Modelle wurden in den letzten Jahren intensiv in der Dokumentenzusammenfassung untersucht. Im Vergleich zu traditionellen merkmalsbasierten Modellen beziehen graphenbasierte Modelle zusammenhängende Informationen in den Rankingprozess ein. Somit können sie möglicherweise bessere Arbeit beim Abrufen der wichtigen Inhalte aus Dokumenten leisten. In diesem Beitrag untersuchen wir das Problem, wie Satzähnlichkeit gemessen werden kann, was ein entscheidendes Thema in graphbasierten Zusammenfassungsmodellen ist, aber unserer Meinung nach in der Vergangenheit nicht genau definiert wurde. Wir schlagen einen überwachten Lernansatz vor, der mehrere Ähnlichkeitsmaße zusammenführt und von Menschen erstellte Zusammenfassungen verwendet, um den Kombinationsprozess zu leiten. Daher kann erwartet werden, dass es eine genauere Schätzung liefert als ein einzelnes Cosinus-Ähnlichkeitsmaß. Experimente, die mit den Datensätzen DUC2005 und DUC2006 durchgeführt wurden, zeigen, dass der vorgeschlagene Lernansatz bei der Messung von Ähnlichkeit erfolgreich ist. Auch seine Wettbewerbsfähigkeit und Anpassungsfähigkeit werden unter Beweis gestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00831-3_18 5e474565385d618c5ce2dd6beca949fa;de;;;7.2.;;;Bewertung der Objektorientierung eines Multi-Agenten-Systems In dieser Arbeit diskutieren wir das Multiagentensystem AgentTeam aus softwaretechnischer Sicht. AgentTeam ist ein Framework für die agentenbasierte flexible Verwaltung von verteilten relationalen Daten, die in heterogenen Datenbanken gespeichert sind. Um der inhärent verteilten Anwendungsumgebung des Netzwerks zu entsprechen, ist es objektorientiert ausgelegt. Es besteht aus domänenabhängigen Systemkonzepten und teilweise domänenunabhängigen Softwaredesignkonzepten. Die Software-Design-Konzepte werden hinsichtlich Heterogenität, Skalierbarkeit und Wiederverwendbarkeit evaluiert und am Prototyp CourseMan ausführlich diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-40888-6_30 c36483670b4f45c1e8cca962951ae6a0;de;;;7.2.;;;Priorisierte Aggregation mehrerer Kontextdimensionen in Mobile IR Ein interessanter Aspekt, der beim mobilen Informationsabruf auftaucht, bezieht sich auf die verschiedenen kontextuellen Merkmale, die als neue Dimensionen im Relevanzbewertungsprozess betrachtet werden können. In diesem Beitrag schlagen wir ein multidimensionales Ranking-Modell vor, das auf den drei Dimensionen Thema, Interesse und Standort basiert. Die Besonderheit unseres mehrdimensionalen Rankings liegt in einer „priorisierten Kombination“ der betrachteten Kriterien mit den Operatoren „priorisiertes Scoring“ und „priorisiertes und“, die eine flexible Personalisierung der Suchergebnisse nach den Vorlieben der Nutzer ermöglichen. Um die Effektivität unseres Modells zu evaluieren, schlagen wir einen simulationsbasierten Bewertungsrahmen vor, der die Integration der kontextuellen Dimensionen in den Bewertungsprozess untersucht. Umfangreiche experimentelle Ergebnisse, die mit unserem Simulationsframework gewonnen wurden, zeigen die Wirksamkeit unseres mehrdimensionalen personalisierten Rankingmodells.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25631-8_16 484755bdfe81e4aa248b8de52999042c;de;;;7.2.;;;Herausforderungen und Lösungen mehrsprachiger und translingualer Informationsdienstsysteme In diesem Beitrag präsentieren wir einen Überblick über Herausforderungen und Lösungen mehrsprachiger und translingualer Informationsdienstleistungssysteme. Im Gegensatz zur computerlinguistischen Literatur zu solchen Systemen nähern wir uns dem Thema hier aus der HCI-Perspektive. Wir werden für eine Strategie plädieren, die die Abhängigkeit von automatischer Freitextübersetzung, Spracheingabe und klassischem Informationsabruf reduziert, ohne diese weniger zuverlässigen Technologien ganz aufzugeben. Zudem setzen wir auf eine enge situationsgerechte Verzahnung von Informations- und Kommunikationsfunktionalitäten. Die beschriebenen Lösungen sind in ein neuartiges mobiles kombiniertes Informations- und Kommunikationssystem für ausländische Touristen eingeflossen, das von Nutzern aus mehreren Ländern unter realistischen Bedingungen getestet wurde. Entwickelt wird das System vom deutsch-chinesischen Kooperationsprojekt COMPASS2008, einer Forschungsaktion im Rahmen der Digital Olympics.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73111-5_16 4b9ddcbe77d554523590f2cac0a1ea75;de;;;7.2.;;;Vorwort zu QoIS 2005 Qualität entwickelt sich zu einem Schlüsselthema für Forscher und Praktiker von Informationssystemen. Das Informationssystem wird oft definiert als „ein automatisiertes oder manuelles System, das Personen, Maschinen und/oder Methoden umfasst, die organisiert sind, um Daten zu sammeln, zu verarbeiten, zu übertragen und zu verbreiten, die Benutzerinformationen darstellen“. Die Qualität des Informationssystems zielt auf die Bewertung seiner Hauptkomponenten ab, d. h. Systemqualität, Datenqualität, Informationsqualität sowie Modell- und Methodenqualität. Die laufende Forschung umfasst theoretische Aspekte wie Qualitätsdefinition und/oder Qualitätsmodelle. Diese theoretischen Beiträge führen zu Methoden, Ansätzen und Werkzeugen zur Qualitätsmessung und/oder -verbesserung. Die meisten Ansätze konzentrieren sich auf spezifische Umgebungen wie Website-Qualität, Data-Warehouse-Qualität, Ontologie-Qualität usw. Dieser Workshop widmet sich der Präsentation und Diskussion von Papieren zu theoretischen und praktischen Aspekten der Informationssystemqualität. Zwei Sitzungen sind jeweils gewidmet:;-;-;-;https://link.springer.com/chapter/10.1007/11568346_40 cf0498c8dde1a7999afc27beb4bd9fae;de;;;7.2.;;;Ein Empfehlungssystem für die Prozesserkennung In den letzten zehn Jahren wurden mehrere Algorithmen zur Prozesserkennung und Prozesskonformität vorgeschlagen. Es ist jedoch allgemein anerkannt, dass es in keiner dieser beiden Disziplinen einen dominierenden Algorithmus gibt, und dann ist es oft schwierig, sie erfolgreich anzuwenden. Die meisten dieser Algorithmen benötigen nahezu Expertenwissen, um zufriedenstellend angewendet zu werden. In diesem Papier stellen wir ein Empfehlungssystem vor, das Portfolio-basierte Algorithmenauswahlstrategien verwendet, um die folgenden Probleme zu lösen: den besten Erkennungsalgorithmus für die vorliegenden Daten zu finden und die Lücke zwischen allgemeinen Benutzern und Process-Mining-Algorithmen zu schließen. Experimente, die mit dem entwickelten Tool durchgeführt wurden, belegen die Nützlichkeit des Ansatzes für eine Vielzahl von Fällen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10172-9_5 f862bcd6893020f8758e966a421fc9d1;de;;;7.2.;;;Ein Helpdesk-Supportsystem basierend auf der Beziehung zwischen Anfragen und Antworten Wir schlagen ein Helpdesk-Supportsystem vor, um FAQ (häufig gestellte Fragen) automatisch zu extrahieren, FAQ für Anfrage-E-Mails abzurufen und FAQs in der Eingabe ihrer Anfrage-E-Mail durch Benutzer anzuzeigen. Im Helpdesk erfassen Operatoren Anfrage-E-Mails und Antwort-E-Mails. Zwischen Anfrage und Antwort besteht ein Zusammenhang, dass oft ähnliche Wörter verwendet werden. Zunächst schlagen wir eine Klassifizierungsmethode für Anfrage-E-Mails vor, um FAQ mit Paaren von Anfragen und Antworten zu beschreiben. Zweitens schlagen wir eine Erkennungsmethode für die FAQ-Abgleichsanfrage-E-Mail vor, die auf dem Jaccard-Koeffizienten zwischen Anfragen und Antworten basiert. Schließlich schlagen wir eine prädiktive Suchmethode für FAQ vor, indem eine unvollständige Anfrage mit FAQ abgeglichen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37932-1_5 a84f182cfc68010b1d3d3107b11262f2;de;;;7.2.;;;Ähnlichkeit von Geschäftsprozessmodellen als Stellvertreter für Gruppenkonsens Konsens ist ein wichtiger Maßstab für den Erfolg jeder Geschäftsprozessmodellierung. Obwohl in der allgemeinen Literatur zu Gruppenprozessen intensiv studiert, wurde Konsens in der Geschäftsprozessmodellierung kaum berücksichtigt und nie ernsthaft gemessen. Wir definieren Konsens als den Grad der Übereinstimmung der Ansichten der Gruppenmitglieder zum Prozess und führen die Ähnlichkeit von Geschäftsprozessen als Stellvertreter ein. Wir validieren das Maß, indem wir es mit einem bestehenden selbstberichteten Konsensmaß vergleichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24849-8_2 ec56f0de9f19c4fac51db97e7e748089;de;;;7.2.;;;Integration flacher und linguistischer Techniken zur Informationsextraktion aus Text Viele Experimente haben gezeigt, dass traditionelle Ansätze sowohl für Natural Language Processing (NLP) als auch für Information Retrieval (IR) nicht effektiv genug sind, um Informationen aus Texten zu extrahieren unpräzise, ​​obwohl effizient und transportabel, während sprachliche Ansätze in der Regel sehr präzise, ​​aber nicht robust und effizient sind. Die Integration von NLP und IR ist die Herausforderung für die Entwicklung von Textverarbeitungssystemen für die nächsten Jahre. In diesem Beitrag wird eine Architektur vorgestellt, die flache und linguistische Verarbeitung integriert. Flache Techniken werden verwendet, um die linguistische Analyse auf die interessanten Abschnitte zu beschränken und dem Parser zu helfen, den Overhead zu reduzieren. Der linguistische Analysator extrahiert die Informationen sorgfältig und steuert die Kombinatorik des Parsings und alle fehlgeleiteten Parsing-Bemühungen. Einige vorläufige Ergebnisse zeigen, dass die Architektur erhebliche Vorteile gegenüber traditionellen Ansätzen zur Informationsextraktion aus Text hat.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-60437-5_12 0481ef6713e835f00332cab62ea34249;de;;;7.2.;;;Ein einheitliches Framework für ein- und sprachenübergreifende Relevanzmodellierung basierend auf probabilistischen Themenmodellen Wir untersuchen das Potenzial probabilistischer Themenmodellierung innerhalb des Relevanzmodellierungsrahmens für sowohl einsprachige als auch mehrsprachige Ad-hoc-Abfrage. Mehrsprachige Themenmodelle bieten eine Möglichkeit, Dokumente unabhängig von ihrer jeweiligen Sprache durch sprachunabhängige Konzepte, also sprachübergreifende Themen, strukturiert und kohärent darzustellen. Wir zeigen, wie das aktuelle Wissen in ein einheitliches Relevanzmodellierungs-Framework integriert werden kann, um qualitativ hochwertige Retrievalmodelle in ein- und mehrsprachigen Kontexten zu erstellen. Das vorgeschlagene Modellierungs-Framework verarbeitet alle Dokumente einheitlich und unterscheidet konzeptionell nicht zwischen ein- und mehrsprachiger Modellierung. Unsere Ergebnisse aus den Experimenten, die mit den Standard-CLEF-Testsammlungen durchgeführt wurden, zeigen, dass die Verschmelzung des aktuellen Wissens und der Relevanzmodellierung zum Aufbau ein- und mehrsprachiger Retrievalmodelle führt, die mehrere starke Basislinien übertreffen. Wir zeigen, dass das aktuelle Wissen aus einem allgemeinen Web-generierten Korpus die Retrieval-Scores steigert. Darüber hinaus zeigen wir, dass innerhalb dieses Rahmens die Schätzung von sprachübergreifenden Relevanzmodellen durchgeführt werden kann, indem nur ein allgemeiner nicht paralleler Korpus verwendet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36973-5_9 9ab7893fdb610d8dccd2577eab4c63b6;de;;;7.2.;;;Personeninstanzgraphen zur mono-, cross- und multimodalen Personenerkennung in Multimediadaten: Anwendung zur Sprecheridentifikation in TV-Übertragungen Diese Arbeit stellt einen einheitlichen Rahmen für die mono-, cross- und multimodale Personenerkennung in Multimediadaten vor. Der sogenannte Personeninstanzgraph modelliert die Personenerkennungsaufgabe als ein Graph-Mining-Problem: d. h. das Finden der besten Zuordnung zwischen Personeninstanzvertices und Identitätsvertices. In der Praxis beschreiben wir, wie der Ansatz auf die Sprecheridentifikation in Fernsehsendungen angewendet werden kann. Dann wird eine Lösung für das oben erwähnte Abbildungsproblem vorgeschlagen. Es beruht auf einer ganzzahligen linearen Programmierung, um das Problem des Clusterns von Personeninstanzen basierend auf ihrer Identität zu modellieren. Wir bieten eine eingehende theoretische Definition des Optimierungsproblems. Darüber hinaus verbessern wir zwei grundlegende Aspekte unserer bisherigen verwandten Arbeiten: die Problembedingungen und die optimierte Zielfunktion. Schließlich wird eine gründliche experimentelle Bewertung des vorgeschlagenen Rahmens auf einer öffentlich zugänglichen Benchmark-Datenbank durchgeführt. Abhängig von der Graphenkonfiguration (dh der Wahl seiner Scheitelpunkte und Kanten) zeigen wir, dass mehrere Aufgaben austauschbar behandelt werden können (z. B. Sprecherdiarisierung, überwachte oder unüberwachte Sprecheridentifikation) modale Ansätze.;-;-;-;https://link.springer.com/article/10.1007/s13735-014-0055-y 6926a838e28d4d8df7c36b80ac3d2559;de;;;7.2.;;;Anwendung eines Universal Design Evaluation Index auf Mobiltelefone Universelles Design ist dem ergonomischen Design insofern weitgehend analog, als es die Fähigkeiten und Grenzen der Benutzer während des Produktentwicklungsprozesses berücksichtigt. Es gibt jedoch nur relativ wenige Studien, die die praktische Anwendung ergonomischer Prinzipien im Hinblick auf universelles Design widerspiegeln. Diese Forschung versucht, einen universellen Design-Bewertungsindex für das Design von Mobiltelefonen zu entwickeln, um zu quantifizieren, wie gut ein Produkt den Prinzipien des universellen Designs entspricht. Die Forschung betont auch ergonomische Prinzipien als Bewertungsgrundlage. Die Erstellung der Bewertungslisten erfolgte durch Abgleich zwischen den Personen-, Tätigkeits- und Produktkomponenten. Persönliche Komponenten bestehen aus menschlichen Merkmalen wie Alter, Körperbau, Wahrnehmungsfähigkeit, Lebensstil usw. Aktivitätskomponenten wurden aus den Szenarien der Mobiltelefonnutzung abgeleitet, während Produktkomponenten aus den Teilen zusammengesetzt wurden, mit denen ein Benutzer interagiert. Aus den Beziehungsmatrizen zwischen den drei Komponenten wurde systematisch ein universeller Designindex generiert. Der Index wurde dann verwendet, um seine Eignung zu testen, indem er auf die Bewertung von derzeit auf dem Markt befindlichen Mobiltelefonen angewendet wurde. Diese Studie zeigt einen Entwicklungsprozess, durch den Evaluationen für Universal Design ermöglicht werden können. Die Forschung schlägt einen verbesserten Ansatz zur Bewertung der universellen Gestaltung von Mobiltelefonen auf der Grundlage ergonomischer Prinzipien vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73107-8_41 4f3fdc936f27b9e769ae97f94697c674;de;;;7.2.;;;Datensätze für die Offline-Evaluierung des Empfehlungssystems von Scholar Bei einer Offline-Evaluierung von Empfehlungssystemen wurden in großem Umfang Datensätze verwendet, um die Leistung von Empfehlungssystemen durch statistische Analysen zu messen. Viele Datensätze sind jedoch domänen- und anwendungsabhängig und können nicht in verschiedenen Domänen eingesetzt werden. In diesem Beitrag wird die Konstruktion von Datensätzen für die Offline-Bewertung eines Empfehlungssystems für Wissenschaftler vorgestellt, das Wissenschaftlern basierend auf ihrem Hintergrundwissen wissenschaftliche Arbeiten vorschlägt. Wir entwickeln einen Kreuzvalidierungsansatz, um das Risiko von Fehlinterpretationen zu reduzieren, indem wir uns auf mehrere unabhängige Informationsquellen verlassen. Unser Ansatz adressiert vier wichtige Themen, darunter den Datenschutz und die Vielfalt von Wissensressourcen, die Qualität des Wissens und das aktuelle Wissen. Die resultierenden Datensätze repräsentieren die Instanz des Hintergrundwissens des Stipendiaten in Clustern von Lernthemen, die verwendet werden können, um die Leistung des Empfehlungssystems des Stipendiaten zu messen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36543-0_17 8147321de5aa1f7bbf515a3c20c44a32;de;;;7.2.;;;Abfragebasierte Zusammenfassung mit nicht-negativer Matrixfaktorisierung Auf Abfragen basierende Dokumentzusammenfassungen sind in Dokumentenabrufsystemen wichtig, um die prägnante Relevanz der abgerufenen Dokumente für eine Abfrage zu zeigen. Dieses Papier schlägt eine neue Methode vor, die die nicht-negative Matrixfaktorisierung (NMF) verwendet, um die abfragerelevanten Sätze aus Dokumenten für abfragebasierte Zusammenfassungen zu extrahieren. Die vorgeschlagene Methode benötigt keine Trainingsphase mit Trainingsdaten, die Abfragen und abfragespezifische Dokumente umfassen. Und es fasst Dokumente für die gegebene Abfrage genau zusammen, indem semantische Merkmale und semantische Variablen verwendet werden, ohne dass eine komplexe Verarbeitung wie die Umwandlung von Dokumenten in Graphen erforderlich ist, da die NMF eine große Fähigkeit hat, semantische Merkmale, die die inhärente Struktur eines Dokuments darstellen, auf natürliche Weise zu extrahieren.;-;-;-;https://link.springer.com/chapter/10.1007/11893011_11 d1bd012a3f6a7f05e71b759d7078025b;de;;;7.1.;;;SOA-Zusammensetzung in Telekommunikations-Informationssystemen In diesem Artikel stellen wir einen Ansatz zur Erstellung eines konzeptionellen Systemkomponentenmodells für die serviceorientierte Architektur (SOA) in der Telekommunikation vor. Als Nebenprodukt werden auch SOA-spezifische Architekturentscheidungen und ein SOA-spezifisches Architekturübersichtsdiagramm generiert. Dieses Papier konzentriert sich auf die Vorbereitung des konzeptionellen SOA-Komponentenmodells, um diese Auswahl zu erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-76312-5_10 84ed55aa6538633d157698720ee44189;de;;;7.1.;;;Eine modellgetriebene Entwicklungsmethode für die Anwendung auf Management-Informationssysteme Fast jedes Informationssystem wird unter der Annahme gebaut, dass es während des Betriebs modifiziert werden soll. Es kostet sehr viel, das System zu verpflanzen, um Anforderungsspezifikationen zu ändern oder Technologien zu implementieren. Hierfür gibt es einen modelltheoretischen Ansatz, der auf der Theorie basiert, dass ein System durch Automaten und Mengenlehre modelliert werden kann. Es ist jedoch sehr schwierig, von Anfang an Automaten des zu entwickelnden Systems zu generieren. Darüber hinaus gibt es eine modellgetriebene Entwicklungsmethode, die flexibel Änderungen der Geschäftslogik oder der Implementierung von Technologien entsprechen kann. Bei der modellgetriebenen Entwicklung wird ein System mit einer Modellierungssprache modelliert. Dieser Beitrag schlägt eine neue Entwicklungsmethode vor, die die Methode der modellgetriebenen Entwicklung auf eine Komponente des modelltheoretischen Ansatzes anwendet. Das Experiment hat gezeigt, dass eine reduzierte Menge an Arbeitslasten mehr als 30 % aller Arbeitslasten ausmacht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29764-9_14 aa0f3cc2679856df16fcad6774ec52b5;de;;;7.2.;;;Portfolios von Web-Informationssystemen: Ein Beitrag zur Pragmatik Das Storyboard eines Web-Informations-Systems (WIS) legt auf hoher Abstraktion fest, wer das System auf welche Weise und für welche Ziele nutzt. Storyboard-Pragmatik beschäftigt sich mit der Frage, was das Storyboard für seine Nutzer bedeutet. Ein Teil der Pragmatik beschäftigt sich mit der Nutzungsanalyse anhand von Lebensfällen, Nutzermodellen und Kontexten. In diesem Papier behandeln wir einen weiteren Teil der Pragmatik, der die Nutzungsanalyse durch WIS-Portfolios ergänzt. Diese bestehen aus zwei Teilen: dem;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22810-0_11 400227732914086c8ed3d686649dba41;de;;;7.2.;;;#Nowplaying on #Spotify: Spotify-Informationen auf Twitter für Künstlerempfehlungen nutzen Der Aufstieg des Internets ermöglichte neue Vertriebskanäle wie Online-Shops und Streaming-Plattformen, die eine Vielzahl unterschiedlicher Produkte anbieten. Damit Kunden auf diesen Plattformen Produkte nach ihrem Geschmack finden, spielen Empfehlungssysteme eine wichtige Rolle. Neben der Konzentration auf die Berechnung der Empfehlungen selbst wird in der Literatur das Problem des Mangels an forschungsadäquaten Daten diskutiert. Um dieses Problem zu lösen, präsentieren wir ein Musikempfehlungssystem, das einen Datensatz mit Hörverläufen von Nutzern nutzt, die das, was sie gerade hören, auf der Microblogging-Plattform Twitter veröffentlicht haben. Da dieser Datensatz täglich aktualisiert wird, schlagen wir einen genetischen Algorithmus vor, der es dem Empfehlungssystem ermöglicht, seine Eingabeparameter an den erweiterten Datensatz anzupassen. Im Evaluierungsteil dieser Arbeit vergleichen wir das vorgestellte Empfehlungssystem mit zwei Basisansätzen. Wir zeigen, dass die Leistung unseres vorgeschlagenen Empfehlungssystems vielversprechend ist und die Basislinie deutlich übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24800-4_14 1f7d67abc3545b7fa360f2809562e707;de;;;7.2.;;;Ein adaptives EEG-Informationssystem für einen empathischen Roboter Dieser Artikel stellt ein sprachgesteuertes Informationssystem für einen humanoiden Roboter vor, das in der Lage ist, seine Informationspräsentationsstrategie an die Gehirnmuster seines Benutzers anzupassen. Gehirnmuster werden aus elektroenzephalographischen (EEG) Signalen klassifiziert und entsprechen Situationen mit geringer und hoher geistiger Arbeitsbelastung. Der Roboter wählt dynamisch den Informationspräsentationsstil aus, der den erkannten Mustern am besten entspricht. Das resultierende End-to-End-System aus Erkennungs- und Anpassungskomponenten wird in einer Evaluationsstudie mit 20 Teilnehmern getestet. Wir erreichen eine durchschnittliche Anerkennungsquote von 83,5% für die Unterscheidung zwischen geringer und hoher psychischer Belastung. Darüber hinaus vergleichen wir die dynamische Anpassungsstrategie mit zwei statischen Präsentationsstrategien. Die Evaluationsergebnisse zeigen, dass die Anpassung der Präsentationsstrategie an den Arbeitsaufwand gegenüber der statischen Präsentationsstrategie sowohl in der Informationskorrektheit als auch in der Vollständigkeit verbessert. Darüber hinaus wird die adaptive Strategie gegenüber der statischen Strategie bevorzugt, da sich die Benutzerzufriedenheit deutlich verbessert. Dieser Beitrag präsentiert die erste systematische Analyse eines Echtzeit-EEG-adaptiven End-to-End-Informationssystems für einen humanoiden Roboter. Die erzielten Evaluationsergebnisse zeigen sein großes Potenzial für eine empathische Mensch-Roboter-Interaktion.;-;-;-;https://link.springer.com/article/10.1007/s12369-011-0107-x b7d84b9bafdb97fd40add3315b347235;de;;;7.1.;;;Industrialisierungs- und Fertigungsschritte im Kontext des globalen Produktlebenszyklus Dieser Beitrag präsentiert und diskutiert eine Analyse der Industrialisierungs- und Produktionsschritte im Kontext des Product Lifecycle Management (PLM). Während sich PLM anfangs fast ausschließlich auf das Produktdesign konzentrierte, deckt es heute tendenziell alle Schritte des Produktlebenszyklus ab. Gleichzeitig sind die Industrialisierung und die Produktion nicht ausreichend in die PLM-Lösungen integriert. Derzeit kann viel gewonnen werden, wenn die Abdeckung von PLM auf den Produktionsschritt ausgeweitet wird. Diese Abdeckung hängt von mehreren Merkmalen ab (z. B. der Häufigkeit der Produktdatenänderung). Es führt auch zu einem Informationsaustausch und dann zu einer Einteilung dieser Informationen in Kategorien. Der Hauptzweck dieses Papiers besteht darin, zu untersuchen, wie die PLM-Abdeckung der Lebenszyklusschritte erweitert werden kann, indem für jedes Merkmal eine Zuordnung zwischen Informationskategorien und den Informationssystemen (IS), die die Produktherstellung verwalten, definiert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16358-6_50 89d9daf2903e3b7530f2c55b733a1d39;de;;;7.2.;;;Eine neue hardwarefreundliche Vektorabstandsbewertungsfunktion für Vektorklassifikatoren Dieses Papier schlägt eine neue Vektorabstandsbewertungsfunktion für Vektorklassifikationen vor. Die vorgeschlagene Entfernungsbewertungsfunktion ist die gewichtete Summe der Differenzen zwischen Vektorelementen. Die Gewichtungswerte werden abhängig davon bestimmt, ob sich das Eingabevektorelement in der Nähe des Prototypvektorelements befindet oder nicht. Befindet sich das Element nicht in der Nachbarschaft, wird die Gewichtung so gewählt, dass das Distanzmaß weniger signifikant ist. Das vorgeschlagene Distanzmaß wird auf ein Hardware-Vektorklassifikatorsystem angewendet und seine Durchführbarkeit durch Simulationen und Schaltungsgrößenbewertung verifiziert. Diese Simulationen und Auswertungen zeigen, dass die Leistung des Klassifikators mit dem vorgeschlagenen Verfahren besser ist als die des Manhattan-Distanzklassifikators und dem Gauß-Klassifikator etwas unterlegen ist. Während eine respektable Leistung bei der Klassifizierung bereitgestellt wird, kann die Bewertungsfunktion leicht in Hardware implementiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69162-4_15 2761bbc01ec91002601309f6230d841e;de;;;7.2.;;;Automatisiertes Abrufen von Prototypen der grafischen Benutzeroberfläche aus Anforderungen natürlicher Sprache High-Fidelity Graphical User Interface (GUI) Prototyping stellt einen geeigneten Ansatz dar, um Kundenanforderungen klären und verfeinern zu können. Insbesondere können GUI-Prototypen dazu beitragen, Missverständnisse zwischen Kunden und Entwicklern zu mildern und zu reduzieren, die aufgrund der Mehrdeutigkeit und Unbestimmtheit der informellen natürlichen Sprache (NL) auftreten können. Der Einsatz von High-Fidelity-GUI-Prototypen ist jedoch im Vergleich zu anderen einfacheren GUI-Prototyping-Methoden zeitaufwändiger und teurer. In dieser Arbeit schlagen wir ein System vor, das Natural Language Requirements (NLR) automatisch verarbeitet und passende GUI-Prototypen aus einem halbautomatisch erstellten großen GUI-Repository für mobile Anwendungen abruft. Wir extrahieren mehrere Textsegmente aus den GUI-Hierarchiedaten, um textuelle Darstellungen für die GUIs zu erhalten. Um einen Ad-hoc-GUI-Abruf von NLR zu erreichen, verwenden wir mehrere Information Retrieval (IR)-Ansätze und Automatic Query Expansion (AQE)-Techniken. An einem manuell annotierten Datensatz des NLR in Form von Suchanfragen und User Stories (US) bieten wir eine umfangreiche und systematische Bewertung der angewandten IR- und AQE-Ansätze auf ihre Effektivität hinsichtlich der GUI-Retrieval-Relevanz an. Wir haben festgestellt, dass unser GUI-Retrieval in den durchgeführten Experimenten gut funktioniert und diskutieren die Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-80599-9_33 01b7b1d93b743f0eb473e7a35d634c82;de;;;7.2.;;;Stratifizierungsansatz für Modellierungsvideos Das explosionsartige Wachstum audiovisueller Informationen in den letzten Jahren hat die Entwicklung fortschrittlicher Videomodellierungs- und Verwaltungstools zu einer dringenden Aufgabe gemacht. In dieser Forschung untersuchen wir die Verwendung des Stratifizierungsansatzes, um die Kontextinformationen von Videoinhalten als mehrschichtige Schichten zu modellieren. Durch die sorgfältige Auswahl des richtigen Niveaus und der richtigen Schichttypen sind wir in der Lage, einen Großteil des Schichtextraktionsprozesses zu automatisieren. Auf der Grundlage der Strata haben wir erweiterte Funktionalitäten entwickelt, die den flexiblen Abruf und das inhaltsbasierte Browsen von Videos unterstützen. Es wurde ein Prototyp entwickelt, um den gesamten Prozess des Videomanagements zu unterstützen, von der Extraktion von Schichten über die Indizierung, den Abruf und das Durchsuchen. Der Prototyp wird im Bereich Nachrichtenvideo getestet und das System hat sich als effektiv erwiesen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1013293702591 e689ce4d39551db7d998d56db79af42a;de;;;7.2.;;;Datenqualitätsbewusste Abfragen in kollaborativen Informationssystemen Das Thema Datenqualität gewinnt an Bedeutung, da sowohl Einzelpersonen als auch Unternehmen zunehmend auf mehrere, oft externe Datenquellen zurückgreifen, um Entscheidungen zu treffen. Herkömmliche Abfragesysteme berücksichtigen bei ihrer Antwort keine Überlegungen zur Datenqualität. Studien zu den unterschiedlichen Interpretationen der Datenqualität weisen darauf hin, dass die Gebrauchstauglichkeit ein grundlegendes Kriterium bei der Bewertung der Datenqualität ist. In diesem Papier stellen wir eine 4-Schritte-Methodik vor, die Benutzerpräferenzen für die Datenqualität bei der Beantwortung von Anfragen aus mehreren Quellen einbezieht. Benutzerpräferenzen werden unter Verwendung des Konzepts von Präferenzhierarchien modelliert. Wir haben eine SQL-Erweiterung entwickelt, um die Spezifikation von Präferenzhierarchien zu erleichtern. Darüber hinaus werden wir durch Experimentieren demonstrieren, wie unser Ansatz zu einem verbesserten Ergebnis bei der Abfrageantwort führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00672-2_6 fe4942a02e20d3ba4956eebfbcecd4a0;de;;;7.2.;;;Risikobewertung und Sicherheitsanalyse des klinischen Bereichs im deutschen elektronischen Gesundheitsinformationssystem Deutschland baut derzeit eine flächendeckende Gesundheitsinformationsinfrastruktur auf. Diese Infrastruktur verbindet bestehende Informationssysteme verschiedener Leistungserbringer und Krankenkassen über ein gemeinsames Netzwerk. Ein wesentlicher Schritt zur Umsetzung dieses Systems wird die Einführung einer elektronischen Gesundheitskarte (eHC) für Patienten und einer entsprechenden Heilberufskarte (HPC) für Leistungserbringer sein. Dieser Artikel bietet eine Risikoanalyse zum Umgang mit diesen Karten sowohl durch Patienten als auch durch Ärzte aus organisatorischer Sicht. Auf Basis der Informationssicherheits-Audit-Methodik des Bundesamtes für Sicherheit in der Informationstechnik (BSI) wird der aktuelle Sicherheitsstatus der deutschen Gesundheitstelematik auf klinischer Seite bewertet. Dazu wird zunächst ein speziell für den klinischen Bereich konzipiertes geeignetes Framework entwickelt und detailliert erläutert. Basierend auf diesen Erkenntnissen ist es möglich, die Arbeitsabläufe „Patientenaufnahme“, „Zugriff auf Notfalldaten“ und „Medikamentenverschreibung“ genau auf organisatorische Gefahren hin zu überprüfen. Als Ergebnis haben wir geeignete Schritte zur Minderung potenzieller Risiken vorgeschlagen und wertvolle Hinweise für die zukünftige Neugestaltung von Prozessen durch die Einführung der neuen Smartcards in Krankenhäusern abgeleitet. Dieser Artikel basiert auf unserem auf der Bled Conference 2011 präsentierten Papier.;-;-;-;https://link.springer.com/article/10.1007/s12553-012-0016-5 7090db986f11c5859ae55f26e6c663ec;de;;;7.2.;;;Agentenbasierte Implementierung zur Erkennung struktureller Unterschiede in OWL-DL-Ontologien Verschiedene wissensbasierte Informationssysteme enthalten unterschiedliche Wissensrepräsentationen, die unterschiedliche Interessenbereiche und unterschiedliche Standpunkte über die Diskursdomänen hinweg widerspiegeln. Für eine effiziente Nutzung wissensbasierter Systeme ist es notwendig, semantische Beziehungen oder Ausrichtungen zwischen verschiedenen Wissensrepräsentationen zu kennen. Einer der vielversprechenden Ansätze ist der Einsatz intelligenter Softwareagenten, bei denen Agenten kommunizieren, um die jeweiligen Wissensrepräsentationen abzugleichen. Der Beitrag stellt einen Ansatz für das Ontologie-Alignment vor, der auf der Implementierung von Bedeutungsverhandlungen zwischen intelligenten Agenten basiert. Bei diesem Ansatz wird die Verhandlung iterativ durchgeführt. Bei jedem Schritt vergleichen Agenten ontologische Kontexte und verwenden propositionale Substitutionen, um die semantische Distanz zwischen den Kontexten zu verringern. Der Fokus des Beitrags liegt auf der Umsetzung der Verhandlungsstrategie von Agenten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38370-0_8 b40aceb8e395e20f324475344bd5dd92;de;;;7.2.;;;Soziale Ausgrenzung und Informationssysteme in der kommunalen Gesundheitsversorgung Dieses Papier diskutiert Informationssysteme in Kontexten der Gemeindeentwicklung aus der Perspektive der sozialen Ausgrenzung. Die Diskussion findet innerhalb einer bestimmten geografischen Gemeinschaft in London statt und basiert auf Initiativen zur Bewältigung des Gesundheitsbedarfs im Rahmen einer angeschlossenen Gemeinschaftsinitiative. Die Diskussion befasst sich mit der Beziehung von Informationssystemen zu gesellschaftlicher Entwicklung und Prozessen der Inklusion (oder Exklusion).;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35695-2_18 5234a066655c07f4940800dedb4a3731;de;;;7.2.;;;Elektronischer Lernvertrag zur Bewertung von Projekten in Informationssystemen Die Bewertung des Lernens der Schüler ist ein entscheidender Faktor, der die Lernansätze der Schüler beeinflusst. Diese Studie untersucht die Auswirkungen des Einsatzes elektronischer Lernverträge auf die Lernansätze von Studierenden. Ein Electronic Learning Contract (ELC) ist eine fortlaufend neu verhandelbare Arbeitsvereinbarung zwischen Studierenden und Lehrenden zur Bewertung der Ergebnisse studentischer Projekte. Es konzentriert sich auf die Entscheidungsfindung in der Gruppe durch elektronische Treffen im Hinblick auf die Lernergebnisse. Sie legt fest, was die Studierenden lernen, wie dies erreicht wird, in welchem ​​Zeitraum und nach welchen Bewertungskriterien. Ein Group Support System (GSS) wird verwendet, um eine Umgebung für elektronische Treffen bereitzustellen und die Prozesse zur Diskussion, Verhandlung, Formulierung, Neuverhandlung und Überarbeitung der Inhalte des ELC zwischen Studierenden und Dozenten zu unterstützen. Die Mitwirkung der Studierenden an der Gestaltung des elektronischen Lernvertrags verbessert die Wahrnehmung der Bewertungskriterien. Es wird die Rückwirkungen der Bewertung auf das Lernen erzeugen und somit tiefgreifende und erfolgreiche Lernansätze fördern.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35090-5_22 6ce5a3511db09fd1bb5e8951fe1b2937;de;;;7.1.;;;Die Rolle von Operational Research bei der Erstellung einer IT-Strategie Viele Unternehmen erkennen jetzt, dass die Informationstechnologie (IT) einen erheblichen Beitrag zu ihrem Betrieb leistet und noch einflussreicher sein könnte. Eine Folge davon ist, dass sie eine IT-Strategie benötigen. Es kann argumentiert werden, dass OP-Gruppen aufgrund ihrer IT-Kenntnisse, ihrer Fähigkeiten und ihrer Position in der Organisation einen signifikanteren Beitrag zur Strategie leisten können als sie bisher geleistet haben. Dieses Papier vertritt eine andere Ansicht. Es untersucht die Behauptung, dass OR-Gruppen in diesem Bereich eine besondere Kompetenz haben, und untersucht ihre bisherigen Beiträge zur Strategieformulierung. Das Fazit ist, dass andere Bereiche der IT-Entwicklung größere Erfolgschancen bieten als Versuche von OP-Gruppen, auf eine maßgebliche Rolle bei der Entwicklung der IT-Strategie zu drängen.;-;-;-;https://link.springer.com/article/10.1057/jors.1989.31 37ff9b1364ad85e8a0f63ef8ab41e7eb;de;;;7.1.;;;Risiken der Informationstechnologie: Eine interdisziplinäre Herausforderung Dieses Kapitel führt die Studierenden in allgemeine Konzepte und theoretische Grundlagen des Managements von Risiken ein, die durch die Entwicklung und Nutzung von Informationstechnologie (IT-Risiken) verursacht werden. Dieses Kapitel bietet zunächst einen Überblick über die allgemeine Natur von IT-Risiken. Wir stellen Kategorien von IT-Risiken vor, um deren vielfältige und heterogene Ursachen und Folgen sowie mögliche Strategien zum Abwägen von Risiken und Nutzen von Informationssystemen aufzuzeigen. Zweitens veranschaulichen wir die interdisziplinären Herausforderungen, die mit dem Management von IT-Risiken einhergehen, anhand der am besten erforschten Form von IT-Risiken, nämlich der IT-Projektrisiken. Wir diskutieren die Subjektivität von IT-Risiken, verschiedene Techniken der IT-Risikobewertung, skizzieren den Prozess des Managements von IT-Projektrisiken und stellen die Dynamik von IT-Projektrisiken vor. Drittens präsentieren wir fünf Perspektiven auf IT-Risiken als fruchtbare Linse, um die Themenvielfalt der IT-Risikoforschung zu strukturieren. Ausgehend von diesen fünf Perspektiven stellen wir die am häufigsten zitierten Forschungspapiere und -theorien zu IT-Risiken vor. Wir schließen mit einer IT-Risikoforschungsagenda, die lohnende Wege aufzeigt, um das Verständnis und die Kontrolle von IT-Risiken voranzutreiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-04486-6_14 0a7adb6a8f0c1c783204b8a50dc0447f;de;;;7.2.;;;IR-Evaluierung im 21. Jahrhundert neu denken Dieser Vortrag untersucht die interaktive IR-Systembewertung aus dem ganzheitlichen Ansatz, einschließlich einiger der Fallstricke bestehender Ansätze und der Probleme bei der Gestaltung effektiverer Prozesse und Verfahren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23708-9_1 e21f2dc4dcbc25606bddc1ff6e96acee;de;;;7.1.;;;Regierung durch effektives Wissensmanagement neu erschaffen In diesem Papier wird die Verwendung der Intranet-Technologie als Mittel zur Bereitstellung effektiverer Regierungsdienste erörtert. Insbesondere untersuchen wir, wie eine westaustralische Regierungsbehörde, das Ministerium für Sport und Freizeit, mit geografisch verteilten Standorten Intranet-Technologie verwendet hat, um allen Mitarbeitern Unternehmenswissen bereitzustellen. Damit wurde die Grundlage für die E-Government-Bereitstellung in der gesamten Region gelegt.;-;-;-;https://link.springer.com/chapter/10.1007/0-306-47009-8_55 ed59923edf8b040d8a64bb5b44f2dde6;de;;;7.1.;;;Robustes Vehicle Routing DSS und Straßennetze auf europäischer Ebene? In den letzten Jahrzehnten waren wir an der Entwicklung eines Sortiments von DSS im Bereich Logistik beteiligt. Es umfasst Systeme zur Unterstützung von Organisationen bei der Entscheidung über logistische Netzwerkstrukturen für ein Land. Auf europäischer oder sogar globaler Ebene als Reaktion auf soziale, wirtschaftliche, marktbezogene, organisatorische, technologische und ökologische Veränderungen. Darüber hinaus umfasst es operative Fahrzeugroutenplanungssysteme (VRP-DSS) mit ihrem integrierten Road Network System (RNS), die zur Unterstützung der Ermittlung von operativen Fahrzeugroutenplänen innerhalb der vorgenannten Logistiknetzwerke verwendet werden.;-;-;-;https://link.springer.com/article/10.1007/BF02032386 7f752ffd0826928e4184392c36386761;de;;;7.1.;;;Adaptive Produktionssteuerung in modernen Industrien Die Produktionsplanung und -steuerung ist eine Kombination aus drei Faktoren: Organisationselementen, Mechanismen der Planerstellung und Planausführung. In sich schnell ändernden Situationen werden an jede dieser Facetten besondere Anforderungen gestellt. Beispielsweise kann es schwierig sein, verlässliche Schätzungen der Bearbeitungszeiten zu erstellen, wenn sich die Situation ständig ändert. Wenn das Fertigungssystem mit einer internen Unsicherheit konfrontiert ist, im Vergleich zu Situationen, die einigermaßen stabil und vorhersehbar sind, sind verschiedene Methoden und Konzepte zur Produktionssteuerung erforderlich. Während eine Pflanze durch ihr Jugendstadium rast oder andere selbstverschuldete Veränderungen durchmacht, müssen auch bestehende Produktionskontrollmethoden geändert werden, um der internen Unsicherheit gerecht zu werden. Wir diskutieren die zugrunde liegenden Annahmen, die die traditionelle Produktionssteuerung unterstützen, und verwenden Erkenntnisse aus der Geschichte des Produktionsmanagements, um eine Strategie für adaptive Steuerungspraktiken zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-03853-6_9 1cb9f0ff2fcb9f1d4b81112cbf81e6a9;de;;;7.1.;;;Featurebasierte Integration von Produkt, Prozess und Ressourcen Die Prozesse, die heute in der Organisation eingesetzt werden, werden stark von der Forderung nach drastischen Verkürzungen der Durchlaufzeiten bei gleichzeitiger Reduzierung der Entwicklungs- und Herstellungskosten beeinflusst. Der Trend zur geografischen Trennung von Entwicklungs- und Fertigungsstätten und die zunehmende Forderung nach nahtloser Integration externer Partner in interne Prozesse sowie die zunehmende Globalisierung in der Fertigung, die es notwendig macht, dass die Produktgestaltung – oft sehr unterschiedliche – Fertigungsbedingungen berücksichtigt, macht die effiziente Gestaltung sowohl interner als auch organisationsübergreifender Prozessketten, dh umfassende, durchgängig digitale Produkt- und Produktionsplanung, eine Notwendigkeit. Die Verwendung von Features als Träger beschreibender und semantischer Informationen im Produktentstehungsprozess hat zu einer deutlichen Reduzierung redundanter Dateneingaben und damit zu einer deutlichen Reduzierung des Aufwands und der Fehlerwahrscheinlichkeit bei gleichzeitiger Unterstützung von ein Produktdesign, das auf die eingesetzten Fertigungsprozesse abgestimmt ist. Ergänzt durch Prozessdaten und Methoden zur Spezifikation von Produktionsaspekten und Arbeitsabläufen erhöhen merkmalbasierte Prozessmodelle die Transparenz der Fertigungsfähigkeit und Ressourcenmodellierung und dienen damit als Grundlage für die Einführung neuer Organisationskonzepte wie Simultaneous oder Concurrent Engineering. Diese Arbeit beschreibt die Rolle, die Merkmale in der gesamten Prozesskette einer Organisation spielen: die Verbindung zwischen Konstruktions-, Fertigungs- und Messmerkmalen und deren Zusammenführung zu einem Rückgrat für den durchgängigen Informationsfluss für die vollständige Modellierung des Produkts, des Prozesses und der Ressourcen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35637-2_6 3e8cf5566f11dec802b5e87aa09b8094;de;;;7.1.;;;COBIT als Framework für Enterprise Governance der IT In diesem Kapitel werden Kontrollziele für Informations- und verwandte Technologien (COBIT) als Rahmen für die Unternehmensführung von Informations- und Technologie (EGIT) erörtert. Das Kapitel beginnt mit einem kurzen Überblick über die Geschichte von COBIT. Dann wird die neueste Version des COBIT-Frameworks, d. h. COBIT 2019, vorgestellt. Als nächstes werden die sechs Prinzipien vorgestellt und diskutiert, die die Kernanforderungen eines EGIT-Systems beschreiben, wie es im COBIT 2019-Framework eingeführt wurde. Es folgt ein Überblick über das COBIT 2019-Kernmodell und seine 40 Governance- und Managementziele sowie die darin enthaltenen spezifischen Leitlinien. Außerdem wird der Performance-Management-Ansatz COBIT 2019 eingeführt. Schließlich werden einige Einblicke und Beispiele gegeben, die zeigen, wie die in COBIT 2019 enthaltenen allgemeinen Leitlinien auf den spezifischen Kontext eines Unternehmens angewendet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-25918-1_5 770788fe10b7f8e65683d241cc146e98;de;;;7.1.;;;Strategischer Fit zwischen Wissensattributen, Wissensmanagementsystemen und Servicepositionierung Wissensmanagementsysteme (KMS) unterstützen qualitativ hochwertige Dienste und gestalten und verbessern die Positionierung von Diensten. Angesichts dieser strategischen Bedeutung von KMS untersucht diese Studie die Auswirkungen verschiedener Arten von KMS, die auf die Attribute (d. Anhand einer Fallstudie eines Finanzberatungsunternehmens im Kern von KMS werden Kombinationen der beiden Wissensattribute verwendet, um zu bestimmen, welche Art von KMS (dh Informationsbibliothek, vertiefter Bestand, Gedankeninseln und geteiltes Gehirn) die größte Effizienz und Effektivität in der Service-(Neu-)Positionierung. Die gemeinsamen Anliegen des Umfangs und der Spezifität von Serviceinnovationen werden ebenfalls berücksichtigt. Schließlich diskutiert die Studie die theoretischen und praktischen Auswirkungen auf KMS-Design und -Funktionalität im neuen Geschäftszeitalter der Serviceinnovation.;-;-;-;https://link.springer.com/article/10.1057/kmrp.2013.48 af78d1a9cf02fceb1a94d42076d3de6a;de;;;7.2.;;;Bewertung der Neuheit von Inhalten in Empfehlungssystemen Empfehlungssysteme werden häufig anhand von Leistungsindizes bewertet, die auf Varianten und Erweiterungen von präzisionsähnlichen Maßen basieren. Da diese Kennzahlen auf beliebte Elemente ausgerichtet sind, muss eine Empfehlungsliste lediglich einige beliebte Elemente enthalten, um eine gute Leistung zu erzielen. Um die Herausforderung der Popularitätsverzerrung anzugehen, wurden neue Ansätze zur Bewertung von Neuheit und Vielfalt vorgeschlagen. Einerseits modellieren neuheitsbasierte Ansätze die Qualität des Neuseins im Gegensatz zu bereits Bekanntem. Neuartige Ansätze basieren im Allgemeinen auf Artikelansichten oder Benutzerraten. Andererseits modellieren Diversity-Ansätze die Qualität eines Artikels, der sich aus verschiedenen Inhaltselementen zusammensetzt. Diversity-Maßnahmen wurzeln im Allgemeinen in inhaltsbasierten Merkmalen, die die Diversität des Inhalts eines Elements im Hinblick auf das Vorhandensein/Fehlen einer Anzahl vordefinierter Informationsnuggets charakterisieren. Da Artikelinhalte auch auf populäre Inhalte (z. B. Dramen in Filmen oder Pop in Musik) ausgerichtet sind, sind auf Diversität basierende Messungen auch auf Popularität ausgerichtet. Um die Auswirkungen von Popularitätsverzerrungen auf Diversity-Maßnahmen zu mildern, haben wir einen Bewertungsansatz verwendet, der auf dem Neuheitsgrad der Elemente basiert, aus denen jedes Element besteht. Wir haben diesen Ansatz als Inhaltsneuheit bezeichnet, da er Inhalts- und Diversitätsansätze in einem einzigen und kohärenten Bewertungsrahmen mischt. Experimentelle Ergebnisse zeigen, dass unser Vorschlag machbar und nützlich ist. Unsere Ergebnisse zeigen, dass die vorgeschlagenen Maßnahmen konsistente und interpretierbare Ergebnisse liefern und Erkenntnisse liefern, die die Auswirkungen von Popularitätsverzerrungen bei der Bewertung von Empfehlungssystemen reduzieren.;-;-;-;https://link.springer.com/article/10.1007/s10844-019-00548-x 0ec0124780cff972ae703b991b619743;de;;;7.1.;;;Entwicklung eines text- und sprachaktivierten Konversationsagenten für die Planung von Schüleraktivitäten mit Dialog Flow Dialog Conversational Agents sind heute allgegenwärtig und gewinnen als Anwendung der Computerkommunikation an Geschwindigkeit und können intelligent wie Menschen reagieren. Einige dieser Wirkstoffe helfen dem Menschen bei seinen alltäglichen Aufgaben. Schüler führen mehrere Aktivitäten in der Schule durch und das Erinnern an all diese Aktivitäten kann stressig sein und die Lethargie erhöhen, da ein Benutzer durch mehrere Seiten surfen muss, um relevante Informationen zu erhalten. Ziel dieses Projekts ist es, persönliche Assistenten für die Aktivitätenplanung speziell für Studenten zu automatisieren. In dieser Studie wurde ein Algorithmus zur Klassifizierung der Absicht des maschinellen Lernens vorgeschlagen, der von der Dialog Flow API von Google bereitgestellt wird, um nahtlose Gespräche mit dem Benutzer zu führen. Das vorgeschlagene System verwendet Node.Js für die serverseitige Programmierung, React.Js für den Aufbau der Benutzeroberfläche und Mongo.Db als Datenbank und insbesondere Dialogflow API für die Verarbeitung natürlicher Sprache. Die Ergebnisse zeigten, dass das System unter Nutzung der oben genannten Technologien in Echtzeit eingesetzt werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1480-4_44 0d4382839d738725e4d75cda0f296428;de;;;7.1.;;;„Warum wurde dieser Artikel abgerufen?“: Neue Möglichkeiten zum Erkunden der Abrufergebnisse In einer Informationssuche kann sich der Mensch auf eine Vielzahl von Verhaltensmustern verlassen und ist im Allgemeinen sehr gut darin, geeignete auszuwählen und zu kombinieren. Die meisten dieser Muster können jedoch als konkrete Umsetzung eines von zwei allgemeinen Suchprinzipien betrachtet werden, dh die Eigenschaften eines Gegenstands und Interesses spezifizieren, passende Gegenstände finden und nach relevanten durchsuchen vs Artikel gefunden, ob er von Interesse ist. Wir werden die erste Strategie als „Matching“ bezeichnen, während die zweite im Folgenden „Exploration“ genannt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-1373-1_8 96d85a37ecdd04ce148f84c146d2970f;de;;;7.1.;;;Das mittlere Management des Offshoring: Die Implementierung der Offshoring-Strategie auf Meso-Ebene verstehen Ein Großteil der Offshoring-Forschung ist auf Makroebene angesiedelt und erklärt Offshoring-Strategien auf Unternehmensebene und die Vorläufer von Offshoring-Entscheidungen, aber Forschung zur Umsetzung von Offshoring-Strategien ist selten. Der Autor schlägt vor, dass die tatsächliche Entwicklung und Umsetzung von Offshoring durch die Anwendung eines Meso-Level-Ansatzes, das mittlere Management in der Organisation und seine Beziehung zu den Richtlinien des Top-Managements bei der Umsetzung einer Offshoring-Strategie besser verstanden werden kann. Eine multiple Fallstudie über die Auslagerung der Produktentwicklung zweier multinationaler Unternehmen in Captive Center in Indien und China zeigt, wie das mittlere Management den Transferprozess erleichtert. Durch die Einordnung der Studie auf eine Meso-Ebene und die Betrachtung einer Strategie-als-Praxis-Perspektive wurden folgende Erkenntnisse gewonnen: a) der iterative Charakter des Offshoring-Prozesses, b) das Fehlen von (kommunizierten) Strategien für das Offshoring und deren Konsequenzen und c) eine Reihe von Routinen im Zusammenhang mit Offshoring, die auf verschiedenen Ebenen des Unternehmens auftauchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40951-6_5 5cafb4744bea5048a0cf71f0f5b4e983;de;;;7.1.;;;Agilität in Gesundheitsinformationssystemen aufbauen, um auf die COVID-19-Pandemie zu reagieren: Die Erfahrung in Sri Lanka Lanka Agile Methoden erfreuen sich in der Softwarebranche insbesondere bei technischen Innovationen großer Beliebtheit. Die Agilität in Bezug auf die Bereitstellung von Gesundheitsinformationen in einer krisengeladenen Pandemiesituation wie COVID-19 wird jedoch weniger gut verstanden. Dieses Papier konzentrierte sich auf eine laufende Reaktion auf Design, Entwicklung und Implementierung eines COVID-19-Überwachungssystems basierend auf der DHIS2-Plattform in Sri Lanka. Unsere Analyse zielt darauf ab, Agilität zu verstehen und zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-64697-4_17 6a7dd442786763fc38706ab96e5d78bb;de;;;7.2.;;;Überblick über die medizinischen Abruf- und Annotationsaufgaben von ImageCLEFmed 2007 Dieses Papier beschreibt die Aufgaben des medizinischen Bildabrufs und der medizinischen Bildannotation von ImageCLEF 2007. Separate Abschnitte beschreiben jede der beiden Aufgaben, wobei die wichtigsten Erkenntnisse aus den jeweiligen Ergebnissen beteiligt und bewertet werden. Insgesamt nahmen 13 Gruppen an der medizinischen Retrieval-Aufgabe und 10 an der medizinischen Annotations-Aufgabe teil.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85760-0_59 1242c3a42603019d4364303d10e202f4;de;;;7.2.;;;Schnelles Prototyping von webbasierten Informationssystemen unter Verwendung einer eingeschränkten Spezifikation natürlicher Sprache Frühe Phasen des Software Development Life Cycle (SDLC) wie Anforderungserhebung und Modelldesign sind oft entscheidend für den Projekterfolg. Diese Phasen sind auch mit mehreren Projektproblemen und Fehlerursachen verbunden, die den Projektabschluss verzögern und die Gesamtkosten erhöhen. Es wurden verschiedene Strategien vorgeschlagen, um die Auswirkungen von Fehlern in diesen frühen Stadien zu mindern. Einige davon sind: GUI-basiertes schnelles Prototyping, agile Softwareentwicklungsmethoden und, wie in dieser Arbeit, automatische Modell- (oder Quellcode-) Generierung aus einer natürlichen Sprachspezifikation. Obwohl diese Ansätze Produktionszeit und -kosten reduzieren können, können sie auch langsam und ungenau sein, was zu Entwicklungsschwierigkeiten führt. Diese Arbeit schlägt einen Ansatz vor, um einen funktionalen Prototyp eines webbasierten prozessorientierten Informationssystems zu erhalten, der nur eine eingeschränkte natürliche Sprachspezifikation als Eingabe verwendet. Dieser Ansatz ermöglicht eine schnellere und präzisere Verarbeitung der Eingabe als die zuvor vorgeschlagenen Ansätze. Zwei Fallstudien werden vorgestellt, um den Vorschlag zu validieren und seine Anwendbarkeit zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94135-6_9 7a489da8b174ba051a95caf0f27a56f9;de;;;7.2.;;;Subjektive Optimierung Eine effektive Methode zum Erstellen eines Gestengenerators besteht darin, Algorithmen des maschinellen Lernens anzuwenden, um ein Modell abzuleiten. Beim Aufbau eines solchen Gestengenerators beinhaltet ein üblicher Ansatz das Sammeln eines Satzes von menschlichen Gesprächsdaten und das Trainieren des Modells, um es an die Daten anzupassen. Nach dem Training des Gestengenerators wird jedoch gesucht, ob die generierten Gesten natürlich sind, anstatt ob die generierten Gesten tatsächlich zu den Trainingsdaten passen. Somit besteht eine Lücke zwischen dem Trainingsziel und dem tatsächlichen Ziel des Gestengenerators. In dieser Arbeit schlagen wir einen Ansatz vor, der das menschliche Urteil über die Natürlichkeit nutzt, um Gestengeneratoren zu optimieren. Wir machen einen wichtigen Schritt in Richtung unseres Ziels, indem wir ein numerisches Experiment durchführen, um die Optimalität des vorgeschlagenen Frameworks zu beurteilen, und die experimentellen Ergebnisse zeigen, dass das Framework die generierten Gesten basierend auf dem simulierten Natürlichkeitskriterium effektiv verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33197-8_21 f5c1dcfeed687f8be9d31b4e51bd2176;de;;;7.2.;;;Abfrageorientierte Schlüsselphrasenextraktion Menschen stellen häufig Informationsanfragen an Suchmaschinen, um mehr über einige Entitäten oder Ereignisse zu erfahren. Während eine Wikipedia-ähnliche Zusammenfassung eine ideale Antwort auf solche Anfragen wäre, haben nicht alle Anfragen einen entsprechenden Wikipedia-Eintrag. In dieser Arbeit schlagen wir vor, die abfrageorientierte Schlüsselphrase-Extraktion zu untersuchen, die verwendet werden kann, um die Zusammenfassung von Suchergebnissen zu unterstützen. Für unsere Aufgabe schlagen wir eine allgemeine Methode zur Schlüsselphrasenextraktion vor, bei der wir sowohl die Phrasenhaftigkeit als auch die Aussagekraft berücksichtigen. Wir diskutieren drei Kriterien für die Aussagekraft und vier Möglichkeiten zur Berechnung der Aussagekraftbewertungen. Anhand eines großen Wikipedia-Korpus und 40 Abfragen zeigt unsere empirische Auswertung, dass die Verwendung eines benannten Entitäts-basierten Phrasen-Kriteriums und eines sprachmodellbasierten Informativitäts-Scores die beste Leistung für unsere Aufgabe liefert. Diese Methode übertrifft auch zwei hochmoderne Baseline-Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35341-3_6 58fd0342a444747c39b9469c1b49a4f0;de;;;7.1.;;;Linked Data Exploration im Product Life-Cycle Management Product Life Cycle Management (PLM)-Strategien haben sich als empfohlener Ansatz für die Handhabung, Planung und Entscheidungsfindung in Bezug auf alle Aspekte von Produkten in verschiedenen Lebenszyklusphasen bewährt. Da dieser Bereich eine Reihe von Akteuren, Systemplattformen und Technologien umfasst, stellt sich das Sammeln von Informationen und der Umgang mit Wissen oft als schwieriges Problem heraus. In diesem Papier schlagen wir eine Methodik vor, um einen PLM-Ansatz zu unterstützen, der die Vorteile der aufkommenden semantischen Webtechnologien und des zugrunde liegenden Paradigmas von Linked Data nutzt. Der Hauptzweck dieser Methodik ist zweifach. Zum einen soll ein semantisches Modell für den Umgang mit unterschiedlichen Datenquellen und Datentypen bereitgestellt und somit Informationen aus allen Phasen eines Produktlebenszyklus strukturiert werden. Zweitens erweitert es die Argumentationsmechanismen semantischer Technologien, um vergleichende und tiefgehende Datenanalysen basierend auf Data Mining und Mustererkennung durchzuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41263-9_57 f62c0b939f1cfd6c3d4f70852fc128b1;de;;;7.1.;;;Der Umfang und die Entwicklung des Geschäftsprozessmanagements Business Process Management beschreibt eine breite Bewegung zur Verbesserung der Art und Weise, wie Geschäftsleute über ihr Unternehmen denken und es verwalten. Es gibt viele verschiedene Ansätze zur Änderung von Geschäftsprozessen, und dieser Artikel untersucht die drei wichtigsten Ansätze. Die älteste Tradition ist die Arbeitsvereinfachung und Qualitätskontrolle, die derzeit durch Six Sigma und Lean repräsentiert wird. Eine zweite Tradition ist eine Managementtradition, die von Lehrern und Beratern wie Porter, Rummler und Hammer vorangetrieben wird. Die dritte Tradition wird von Informationstechnologen vorangetrieben und konzentriert sich auf Prozessautomatisierung aller Art. Jede Tradition hat ihre Helden und ihr eigenes Vokabular und jede betont einige Praktiken gegenüber anderen. Es wird immer mehr Wert darauf gelegt, die verschiedenen Traditionen in einem umfassenden Ansatz zu kombinieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45100-3_3 dc59b82b506e0b09c84bce7c57a4579e;de;;;7.2.;;;Potenzgesetz für die Textkategorisierung Textkategorisierung (TC) ist ein anspruchsvolles Thema und die entsprechenden Algorithmen können in vielen Anwendungen eingesetzt werden. Dieses Papier befasst sich mit dem Online-Multi-Kategorie-TC-Problem, das von den Anwendungen von Online-Binär-TC und Batch-Multi-Kategorie-TC abstrahiert wird. Bei den meisten Anwendungen geht es um die Raum-Zeit-Leistung von TC-Algorithmen. Durch die Untersuchung der Token-Häufigkeitsverteilung in einer E-Mail-Sammlung und einer chinesischen Web-Dokumentensammlung untersucht dieser Artikel das Potenzgesetz erneut und schlägt einen Bayesian (RSEB) TC-Algorithmus für zufällige Stichproben vor. Der RSEB-Algorithmus wird von einem Speicher auf Token-Ebene unterstützt, um gekennzeichnete Dokumente zu speichern, und verwendet einen Textwiederauffindungsansatz, um Textkategorisierungsprobleme zu lösen. Die experimentellen Ergebnisse zeigen, dass der RSEB-Algorithmus sowohl bei der TREC-E-Mail-Spam-Filterungsaufgabe als auch bei der chinesischen Webdokumentklassifizierungsaufgabe die State-of-the-Art-Leistung bei stark reduzierten Raum-Zeit-Anforderungen erreichen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41491-6_13 af54e1d2194417c0dfae7b483335c650;de;;;7.2.;;;Bildabstraktion in Crossmedia Retrieval für Textillustration Textillustration ist eine multimediale Rechercheaufgabe, die darin besteht, geeignete Bilder zu finden, um Textfragmente wie Blogeinträge, Nachrichtenberichte oder Kindergeschichten zu illustrieren. In diesem Beitrag beschreiben wir ein crossmediales Retrievalsystem, das bei einer Texteingabe eine kurze Liste von Kandidatenbildern aus einer großen Mediensammlung auswählt. Dieser Ansatz verwendet ein kürzlich vorgeschlagenes Verfahren, um Metadaten und visuelle Merkmale in eine gemeinsame Textdarstellung abzubilden, die von herkömmlichen Informationsabruf-Engines verarbeitet werden kann. Die inhaltsbasierte Analyse wird durch visuelle Abstraktion erweitert, nämlich die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28997-2_28 495502b314eb0f48cb68a76c7ef4e704;de;;;7.2.;;;Filtern zur Verbesserung der geografischen Informationssuche Dieses Papier beschreibt das GEOUJA-System, ein Geographical Information Retrieval (GIR)-System, das von der SINAI-Gruppe der Universität Jaén in GeoCLEF 2007 eingereicht wurde;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85760-0_104 0b146c601844af21524e3b60b318e4b1;de;;;7.2.;;;Drei-Wege-Entscheidungen in unscharfen unvollständigen Informationssystemen Die intuitionistische Fuzzy-Menge wird in Fuzzy-unvollständigen Informationssystemen eingeführt, wobei die Zugehörigkeits- und Nicht-Zugehörigkeitsgrade eines Objekts zu einem Konzept basierend auf der Ähnlichkeitsbeziehung konstruiert werden. Durch die Kombination des Fuzzy-Rough-Sets und des Intuitionistic Fuzzy-Sets treffen wir Drei-Wege-Entscheidungen. Verschiedene Situationen in unscharfen unvollständigen Informationssystemen werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s13042-019-01025-1 225842822c2be9c3cdf1cabea4936c58;de;;;7.1.;;;Informationsanalyse: Eine schrittweise Klärung von Wissen und Anforderungen Heute hat die Informationsanalyse zwei Hauptthemen: den Aufbau von Computerinformationssystemen und deren Integration. Unter Integration verstehen wir nicht nur die gemeinsame Nutzung von Datenbanken, sondern auch andere Techniken zur Kopplung von Anwendungen. Mit der Anwendungsarchitektur können wir ein grobes Bild von Anwendungen und Datenbanken zu Planungszwecken für das gesamte Unternehmen oder Teile eines Unternehmens entwerfen. Wir schlagen eine Verfeinerung dieses Grundbildes für spezifische Anwendungen und Datenbanken vor, die Prozessmodelle und Entity-Relationship-Modelle (ERM) erzeugen. Unser ERM-Dialekt kann direkt in Beziehungen in die 4. Normalform umgewandelt werden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-53557-8_29 b48951a292ebbf32839e14ed6585d69b;de;;;7.1.;;;Unterstützung von DSS-Benutzern bei der Verwendung komplexer OP-Modelle Die Unterauslastung von Entscheidungsunterstützungssystemen (DSS) basierend auf komplexen OP-Modellen ist eine Realität, mit der viele OP/IS-Systemdesigner konfrontiert sind. Die Forschungsergebnisse, dass DSS-Benutzer den Aufwand für die Entscheidungsfindung gegenüber der Entscheidungsgenauigkeit abwägen, wurde als vorgefertigte Erklärung für dieses Phänomen verwendet. Das heißt, es wurde argumentiert, dass komplexe DSSs aufgrund des erhöhten Aufwands, der bei ihrer Verwendung erforderlich ist, möglicherweise überhaupt nicht verwendet werden können. Im Gegensatz dazu argumentieren wir, dass DSSs einen Kompromiss zwischen Nullsummenaufwand und Genauigkeit hervorbringen, gerade weil sie architektonisch darauf ausgelegt sind. Es wird eine Modifikation der DSS-Architektur vorgeschlagen, um dieses Problem zu lösen, und ein auf dieser Architektur basierender Forschungsprototyp wird beschrieben. Zwei vorläufige Laborexperimente zur Untersuchung der Nützlichkeit dieses Prototyps haben gezeigt, dass das DSS-Design den Kompromiss zwischen Aufwand und Genauigkeit erheblich beeinflussen kann. Wir schließen daher, dass die Komplexitätsobergrenze, die bisher den Komplexitätsgrad begrenzt hat, den ein OR/IS-Designer sinnvoll in DSSs integrieren kann, nicht unantastbar ist.;-;-;-;https://link.springer.com/article/10.1023/A%3A1018908623751 98d86160b21776cd1493b19c7a45d4a9;de;;;7.1.;;;Technologiemanagement: Fallbeispiel Internet der Technologien und Smart City Die Allgegenwart von Technik und Technologie in der heutigen Welt ist unbestreitbar. Technologie schafft kontinuierliche Veränderungen und Chancen, birgt aber auch Herausforderungen und Bedrohungen in vielen Aspekten des täglichen Lebens. Aufgrund der Notwendigkeit, Risiken zu mindern und gleichzeitig Chancen zu optimieren, ist das Management von Technik und Technologie für Unternehmen, Organisationen, Regierungen und Einzelpersonen zu einer Priorität geworden. Das Internet der Dinge (IoT) ist ein Ergebnis dieser ständigen Weiterentwicklung der Technologie. Es beschreibt ein System, bei dem Gegenstände in der physischen Welt und Sensoren in oder an diesen Gegenständen über das Internet mit einem globalen Netzwerk von Gegenständen verbunden sind. Fortschrittliche Städte, die Technologie in ihre Entwicklung einbeziehen, haben auch dazu beigetragen, das Konzept einer Smart City zu entwickeln, eines integrierten städtischen Systems, das auf einer intelligenteren, technologiegetriebenen Infrastruktur basiert. Unser Ziel ist es, mithilfe eines Technologiemanagement-Ansatzes verschiedene Möglichkeiten zu analysieren, wie das IoT dazu beitragen wird, die Effizienz des städtischen Verkehrs in Smart Cities, das Verkehrsmanagement und das Parken zu verbessern. Wir führen eine Literaturrecherche und eine Multi-Kriterien-Analyse basierend auf den STEEP-Perspektiven durch. Darüber hinaus werden wir Vorschläge zu vielversprechenden Praktiken machen, die Städten helfen, die Verkehrseffizienz zu verbessern. Durch unsere Recherchen und Literaturanalysen kommen wir zu dem Schluss, dass Stadtplaner und politische Entscheidungsträger die folgenden Aktivitäten einbeziehen müssen, um das Versprechen des IoT in intelligenten Städten in Bezug auf Verkehrsmanagement und Parken effektiv zu nutzen: Identifizierung aktueller Technologien und Trends im Park- und Verkehrsmanagement , Probleme oder Herausforderungen identifizieren, die durch die Integration von IoT und urbaner Mobilitätsplanung gelöst werden müssen, Hauptüberlegungen aus jeder der STEEP-Perspektiven identifizieren und kommunizieren, wie ein effektives Management (der STEEP-Perspektiven) eine entscheidende Rolle für eine erfolgreiche Umsetzung spielt des Smart City-Wachstums.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-54537-0_15 69bcd21b10d52e041d0664aee2261e42;de;;;7.1.;;;Ein rollenbasierter Capability-Modeling-Ansatz für adaptive Informationssysteme Den meisten Modellierungsansätzen fehlt es an ihrer Fähigkeit, eine vollständige Sicht auf die Geschäftsanforderungen, Ziele und Fähigkeiten eines Softwaresystems abzudecken und Aspekte der Flexibilität und Variabilität zu spezifizieren. Die Modellierungssprache Capability Driven Development (CDD) ermöglicht die Modellierung von Fähigkeiten und deren Bezug zum Ausführungskontext. Aufgrund seiner Kontextabhängigkeit fehlt jedoch die Möglichkeit, dynamische Strukturinformationen zu definieren, die Teil des Kontexts sein können: Personen, ihre Rollen und die Auswirkungen von Objekten, die an einem bestimmten Ausführungsereignis beteiligt sind. Um dieses Problem zu lösen, haben wir die CDD-Methode um den BROS-Modellierungsansatz erweitert, eine rollenbasierte Strukturmodellierungssprache, die die Definition einer kontextabhängigen und dynamischen Struktur eines Informationssystems ermöglicht. In diesem Papier schlagen wir die integrierte Kombination der beiden Modellierungsansätze vor, indem wir das CDD-Metamodell um die notwendigen Konzepte von BROS erweitern. Diese Kombination ermöglicht die technische Weiterentwicklung des Informationssystems (BROS) ausgehend von der Fähigkeitsmodellierung mittels CDD. Wir demonstrieren das kombinierte Metamodell in einem Beispiel basierend auf einem realen Anwendungsfall. Damit zeigen wir die Vorteile der Modellierung detaillierter Geschäftsanforderungen in Bezug auf Kontext aus umgebungs- und objektbezogenen Informationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-35151-9_5 7854060597d82b7afe1c0d434aa6116f;de;;;7.2.;;;Untersuchung der Eigenschaften eines heuristischen Multipopulationsansatzes für nichtstationäre Optimierungsaufgaben Heuristische Optimierungstechniken, insbesondere evolutionäre Algorithmen, wurden erfolgreich auf nichtstationäre Optimierungsaufgaben angewendet. Eine der wichtigsten Schlussfolgerungen für den evolutionären Ansatz war eine Drei-Population-Architektur des Algorithmus, bei der eine Population die Rolle eines Speichers spielt, während die beiden anderen im Suchprozess verwendet werden. In diesem Beitrag wird die Autorenversion der Drei-Populations-Architektur auf vier verschiedene heuristische Algorithmen angewendet. Einer der Algorithmen ist ein neuer iterierter heuristischer Algorithmus, der vom künstlichen Immunsystem inspiriert und von den Autoren vorgeschlagen wurde. Die Ergebnisse von Experimenten mit einer instationären Umgebung, die unterschiedliche Eigenschaften der Algorithmen zeigen, werden vorgestellt und einige allgemeine Schlussfolgerungen werden skizziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36562-4_3 24a92187e321d0d510fbbf6951e7b757;de;;;7.2.;;;Ein sozialsemantischer Ansatz zur adaptiven Abfrageerweiterung Klassische Ansätze zur Abfrageerweiterung basieren auf der Verwendung von zweidimensionalen Kookkurrenzmatrizen. In diesem Beitrag schlagen wir die Einführung dreidimensionaler Matrizen vor, bei denen die hinzugefügte Dimension durch semantische Klassen (d;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27030-2_8 b4e816e34c8aff187fe8423408e04136;de;;;7.2.;;;UML-Darstellung des erweiterten rollenbasierten Zugriffskontrollmodells unter Verwendung des Nutzungskontrollkonzepts Dieses Papier stellt eine Erweiterung des rollenbasierten Zugriffskontrollmodells unter Verwendung des Nutzungskontrollkonzepts zusammen mit seiner Darstellung unter Verwendung der Unified Modeling Language (UML) vor. Das vorgestellte Modell wurde für das Rollen-Engineering in der Sicherheit von Informationssystemen entwickelt. Die vorgestellte Implementierung des URBAC-Modells (Usage Role-Based Access Control) besteht in der Erstellung von Sicherheitsprofilen für die Benutzer des Informationssystems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32498-7_11 7c688ff40dc8c349e0c9047a00d8c73e;de;;;7.2.;;;Multisensor-Informationsfusion durch Abfrageverfeinerung Um das Abrufen und Zusammenführen von Multimediainformationen aus mehreren Echtzeitquellen und Datenbanken zu unterstützen, wird ein neuartiger Ansatz für die sensorbasierte Abfrageverarbeitung beschrieben. Der Sensorabhängigkeitsbaum wird verwendet, um die Abfrageoptimierung zu erleichtern. Durch die Verfeinerung der Abfrage können ein oder mehrere Sensoren den anderen Sensoren Feedback-Informationen bereitstellen. Der Ansatz ist auch auf evolutionäre Abfragen anwendbar, die sich in Zeit und/oder Raum ändern, abhängig von den zeitlichen/räumlichen Koordinaten des Abfrageurhebers.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45925-1_1 1928e111e7d105ac582af7948a5c5300;de;;;7.2.;;;Auf dem Weg zu einem zielorientierten Ansatz zur Verbesserung von Geschäftsprozessen mit prozessorientiertem Data Warehouse Ein neuer Ansatz für die Geschäftsprozessanalyse ist die Nutzung von Business Intelligence-Praktiken durch den Einsatz von Data Warehouse und Entscheidungstechniken. Es wurde jedoch wenig Arbeit an der Entwicklung von Kernmethoden und -werkzeugen für die Prozessanalyse und -verbesserung geleistet. Unsere Forschung befasst sich mit diesem Problem, indem wir einen zielorientierten Ansatz zur Verbesserung von Geschäftsprozessen mithilfe von Process Warehouse einführen. In diesem Beitrag stellen wir unsere dreistufige Methode und ihre Bewertung durch eine empirische Studie vor. Die Ergebnisse zeigten, dass die Auswirkungen der Anwendung unserer Methode zur Prozessverbesserung positiv wahrgenommen wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21863-7_10 f35764a2712080c4bc960ee52cb850fc;de;;;7.2.;;;Die Bootstrapping-basierte Erkennung von konzeptionellen Beziehungen für die Textsuche Die Abhängigkeitsanalyse ist normalerweise der Schlüssel zur Verbesserung der Leistung der Textsuche. Verglichen mit dem statistischen Wert einer Begriffsbeziehung ist die Erkennung des Beziehungstyps zwischen Begriffen aussagekräftiger. In diesem Beitrag untersuchten wir eine Bootstrapping-Methode zum automatischen Extrahieren semantischer Muster aus einem großen Korpus, um die geografische Beziehung zwischen chinesischen Standortkonzepten in Kontexten zu identifizieren. Unsere Beiträge, die sich von anderen Bootstrapping-Methoden unterscheiden, liegen in: (1) der Einführung eines Bi-Sequenz-Alignment-Algorithmus in der Bioinformatik zur Generierung von Kandidatenmustern und (2) der Bereitstellung einer neuen Bewertungsmetrik für die Vertrauenswürdigkeit von Mustern, um ihre Extraktionsqualitäten in der nächsten Iteration zu verbessern . In Bezug auf die automatische Erkennung der Beziehung „sein Teil von“ zeigten die Experimente, dass der durch unsere Methode generierte Mustersatz eine höhere Abdeckung und Präzision erreicht als DIPRE.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73351-5_23 15d0918658b70b42d90af8bda06b0200;de;;;7.2.;;;GIR mit geografischer Abfrageerweiterung Für unsere Teilnahme an der zweiten Ausgabe von GeoCLEF haben wir die Einbindung von geografischem Wissen in Geographic Information Retrieval (GIR) untersucht. Unser System besteht aus einem IR-Modul (IR-n) und einem geografischen Wissensmodul (Geonames). Die Ergebnisse zeigen, dass sich die Hinzufügung von geografischem Wissen negativ auf die Genauigkeit auswirkt. Die Tatsache, dass die erzielten Ergebnisse für einige Themen jedoch besser sind, lässt uns zu dem Schluss kommen, dass die Ergänzung dieses Wissens nützlich sein könnte, aber weitere Forschung ist erforderlich, um festzustellen, wie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74999-8_112 e57875834c37efd7591b1f742a2b4734;de;;;7.2.;;;Über optimale Fuzzy-Informationsgranulation Informationsgranulation ist eines der Grundkonzepte der menschlichen Kognition. L.A. Zadeh definierte das Thema der Theorie der Fuzzy-Information-Granulation folgendermaßen: „Die Theorie der Fuzzy-Information-Granulation (TFIG) ist inspiriert von der Art und Weise, wie Menschen Informationen granulieren und damit argumentieren. Die Grundlagen von TFIG und seiner Methodik sind jedoch mathematischer Natur“ [7].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-1791-1_18 e607d93a4ba42deb9b9d4c93b415e5bb;de;;;7.2.;;;Überblick über das CLEF eHealth Evaluation Lab 2016 In diesem Papier geben wir einen Überblick über die vierte Ausgabe des CLEF eHealth-Evaluierungslabors. CLEF eHealth 2016 setzt unsere Bemühungen zum Aufbau von Evaluierungsressourcen fort, um Patienten, ihre Angehörigen und klinisches Personal beim Verstehen, Zugreifen und Verfassen von eHealth-Informationen in einem mehrsprachigen Umfeld zu erleichtern und zu unterstützen. Das diesjährige Lab bot drei Aufgaben: Aufgabe 1 zur Extraktion von Übergabeinformationen in Bezug auf australische Pflegeschichtwechsel, Aufgabe 2 zur Informationsextraktion in französischen Korpora und Aufgabe 3 zur mehrsprachigen patientenzentrierten Informationsbeschaffung unter Berücksichtigung von Abfragevariationen. Insgesamt nahmen 20 Teams an diesen Aufgaben teil (3 in Aufgabe 1, 7 in Aufgabe 2 und 10 in Aufgabe 3). Hier beschreiben wir die für diese Aufgaben geschaffenen Ressourcen, die angewandte Evaluierungsmethodik und geben eine kurze Zusammenfassung der Teilnehmer zu den diesjährigen Herausforderungen und einigen erzielten Ergebnissen. Wie in den Vorjahren haben die Veranstalter Daten und Werkzeuge rund um die Laboraufgaben für die zukünftige Forschung und Entwicklung zur Verfügung gestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-44564-9_24 655156f90ed0ca3f8f9337f354245ba4;de;;;7.1.;;;Regelbasiertes Management von Produktdaten in CIM-Systemen Viele Unternehmen haben heute bereits CIM-Systeme eingeführt. In vielen Fällen sind solche Unternehmen durch heterogene EDV-Konzepte gekennzeichnet, da jede CIM-Komponente ihre eigenen Datenbanken verwaltet. Aufgrund dieser Situation sind mittlerweile viele CIM-Unternehmen mit hohen Datenredundanzen und vielen Inkonsistenzen konfrontiert. Der Datenaustausch zwischen mehreren CIM-Komponenten ist unmöglich oder führt zu komplexen Schnittstellensystemen zwischen CIM-Komponenten. Darüber hinaus müssen viele Unternehmen eine Vielzahl unterschiedlicher Varianten eines Produktes verwalten, um den heutigen Kundenanforderungen gerecht zu werden. Die Pflege der entsprechenden Daten wird mit herkömmlichen Methoden und Softwaresystemen oft zu teuer oder teilweise sogar unmöglich gemacht.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35390-6_34 3e2a4b26d47ebdedda2bf99b36c2fc38;de;;;7.2.;;;GeoHbbTV: Ein Framework zur Entwicklung und Bewertung von geografischen interaktiven TV-Inhalten Das Synchronisieren von TV-Inhalten mit Anwendungen ist ein Thema, das in den letzten Jahren viel Interesse gefunden hat. Das Erreichen der Zuschauer über verschiedene Kanäle (TV, Web, mobile Geräte usw.) hat sich als Mittel zur Erhöhung des Publikums erwiesen. Im Zusammenhang damit synchronisiert der Hybrid-TV-Standard HbbTV (Hybrid Broadcast Broadband TV) die Übertragung von Video und Audio mit Anwendungen, die entweder über den Rundfunkkanal oder ein Breitbandnetzwerk geliefert werden können. Somit können HbbTV-Anwendungen entwickelt werden, um kontextbezogene Informationen für ausgestrahlte Fernsehsendungen und Werbung bereitzustellen. Dieser Beitrag berichtet über die Integration der automatischen Generierung von geografischen Schwerpunkten von Textinhalten mit interaktivem Fernsehen. Insbesondere beschreibt es einen Rahmen für die Einbeziehung des geografischen Kontexts in Fernsehsendungen und deren Visualisierung durch HbbTV. Um dies zu erreichen, werden zunächst geografisch benannte Entitäten aus den verfügbaren Untertiteln extrahiert und anschließend die räumliche Ausdehnung dieser Entitäten zur Erstellung von Kontextkarten verwendet. Eine Evaluierungsstrategie wurde entwickelt und verwendet, um alternative Prototyp-Implementierungen für TV-Nachrichtensendungen in spanischer Sprache zu testen. Um über die ursprünglich vorgeschlagene Lösung hinauszugehen, werden schließlich auch einige Herausforderungen für die zukünftige Forschung erörtert.;-;-;-;https://link.springer.com/article/10.1007/s11042-018-6021-6 547c757f71b1504e99e575eefc2123ae;de;;;7.2.;;;Eine Feldstudie zu den Barrieren bei der Integration von Open-Source-Serversoftware Immer mehr wissenschaftliche Studien widmen sich der organisatorischen Einführung von Open Source Software (OSS). Die meisten Studien haben sich entweder darauf konzentriert, festzustellen, welche Gründe die Einführung von OSS beeinflussen oder welche Hindernisse die Einführung von OSS verhindern. Unseres Wissens wurde keine vorherige Studie durchgeführt, um festzustellen, welche Hindernisse für die weitere Einführung von OSS in Unternehmen bestehen. Studien, die sich mit diesem Thema befassen, könnten weitere Erkenntnisse darüber liefern, ob Unternehmen die anfänglichen Hindernisse für die Einführung effektiv überwinden können oder ob neue Hindernisse entstehen, wenn die Organisation ihren Einsatz von OSS erweitert. Zu diesem Zweck haben wir eine qualitative Feldstudie mit 56 Organisationen durchgeführt, die gebeten wurden, darüber zu berichten, welche Hindernisse für die weitere Einführung von OSS bestehen. Die Daten wurden mit einem Mixed-Methods-Ansatz analysiert, indem sowohl qualitative als auch quantitative Techniken kombiniert wurden. Die Ergebnisse zeigten, dass das von den Unternehmen gemeldete Haupthindernis ein Mangel an internem und externem Wissen war. Darüber hinaus zeigen unsere Ergebnisse, dass es keinen Zusammenhang zwischen den von Organisationen gemeldeten Barrieren und ihrem Umfang der OSS-Nutzung gab. Dies weist darauf hin, dass diese Barrieren weiterhin wichtig sind, da Unternehmen ihre OSS-Assimilation erhöhen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13244-5_22 ce168344b857c80ff8356c53229b4343;de;;;7.2.;;;Auf dem Weg zu einer differenzierten Systembewertung basierend auf impliziten Benutzererwartungen Information-Retrieval-Systeme werden oft mithilfe von Effektivitätsmetriken bewertet. In der Vergangenheit entsprachen die verwendeten Metriken festen Modellen des Nutzerverhaltens, wobei beispielsweise davon ausgegangen wurde, dass der Nutzer eine vorher festgelegte Anzahl von Elementen auf der Ergebnisseite der Suchmaschine sieht oder eine konstante Wahrscheinlichkeit hat, von ein Element auf der Ergebnisseite zum nächsten. In letzter Zeit sind eine Reihe von Vorschlägen für Modelle des Benutzerverhaltens aufgetaucht, die hinsichtlich der Anzahl relevanter Dokumente (oder anderer Materialien) parametrisiert sind, die ein Benutzer erwartet, um seinen Informationsbedarf zu befriedigen. Diese jüngste Arbeit hat gezeigt, dass;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-28940-3_26 a038e909e7076a2f534f53a92c9f24d7;de;;;7.2.;;;Meta-Evaluation der dynamischen Suche: Wie erfassen Metriken Themenrelevanz, Vielfalt und Nutzeraufwand? Komplexe dynamische Suchaufgaben beinhalten typischerweise Informationsbedürfnisse mit mehreren Aspekten und wiederholte Interaktionen mit einem Informationsabrufsystem. Es wurden verschiedene Metriken vorgeschlagen, um dynamische Suchsysteme zu bewerten, einschließlich des Cube-Tests, des erwarteten Nutzens und des kumulativen Session-Discounted-Gain. Während diese komplexen Metriken versuchen, die „Güte“ des Gesamtsystems auf der Grundlage einer Kombination von Dimensionen zu messen – wie etwa Aktualität, Neuheit oder Benutzeraufwand – bleibt eine offene Frage, wie gut jede der konkurrierenden Bewertungsdimensionen in der Endnote widergespiegelt wird. Um dies zu untersuchen, adaptieren wir zwei Metaanalyse-Frameworks: den Intuitiveness Test und die metrische Einstimmigkeit. Diese Studie ist die erste, die diese Frameworks auf die Analyse dynamischer Suchmetriken anwendet und auch untersucht, wie gut diese beiden Ansätze miteinander übereinstimmen. Unsere Analyse zeigt, dass sich die komplexen Metriken deutlich darin unterscheiden, inwieweit sie diese Dimensionen widerspiegeln, und zeigt auch, dass sich das Verhalten der Metriken im Verlauf einer Sitzung ändert. Schließlich zeigt unsere Untersuchung der beiden Metaanalyse-Frameworks eine hohe Übereinstimmung zwischen den beiden Ansätzen. Unsere Erkenntnisse können bei der Auswahl und Gestaltung geeigneter Metriken für die Bewertung dynamischer Suchsysteme helfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-15712-8_39 1be8759df5d3771d1e4e943711099cd9;de;;;7.1.;;;Ein generisches Konzept zur Reduzierung der Komplexität im internationalen Betrieb – ein asymptotisches Streben nach Einfachheit der Fertigung In diesem Beitrag stellen wir ein generisches Konzept vor und diskutieren es, das systematisch eine Reduzierung der strategischen und operativen Komplexität für produzierende Unternehmen auf internationalen Märkten ermöglicht. Die Diskussion basiert auf einem Live-Case, in dem es darum geht, maximale Einfachheit in globalen Fertigungsabläufen sowohl in Bezug auf Produkt- als auch Prozessdesign zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35321-0_17 00f88f0d9b816c4ee66d937d5402c6ff;de;;;7.1.;;;Dynamisches Notfallmanagement für umfangreiche Entscheidungsfindung bei extremen Gefahrenereignissen Dieses Kapitel beginnt mit der Erörterung der Natur großer Gruppen und Untergruppen von Krisenexperten, die während einer Katastrophe am Entscheidungsfindungsprozess beteiligt sind. Anschließend wird untersucht, wie diese Bemühungen am besten unterstützt werden können. Anschließend beschreiben wir Designprobleme, die Notfall-Entscheidungsunterstützungssystemen innewohnen, die Entstehung solcher Probleme und wie sie zu überwinden sind. Dieses Kapitel beschreibt insbesondere die Auswirkungen des Bedrohungsrigiditätssyndroms und der Informationsüberflutung und wie sich ihre Auswirkungen abschwächen lassen. Wir beschreiben aktuelle Forschungsanstrengungen zur Förderung einer effektiven Entscheidungsfindung. Die Merkmale von Organisationen mit hoher Zuverlässigkeit (HROs) ermöglichen ihre effektive Reaktion, indem sie eine Reihe von Praktiken verwenden, um Ereignisse mit geringer Wahrscheinlichkeit/hohen Folgen zu managen, wobei der Schwerpunkt auf den besten machbaren Lösungen unter Verwendung des Konzepts des „Durchwurstelns“ liegt (Weick und Sutcliffe 2001, 2007, Lindbolm 1959). Schließlich geben wir abschließende Bemerkungen, in denen wir einige der kritischsten Taktiken wiederholen, die erforderlich sind, um eine effektive Entscheidungsfindung großer Gruppen zu fördern, die auf eine Katastrophe oder ein katastrophales Ereignis reagieren und sich davon erholen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-7406-8_9 43d22bb5f059a0f0428a98799bd29498;de;;;7.2.;;;Die (nützliche) Rolle von Informationsmängeln bei der Verbesserung der Unternehmensleistung Das Papier analysiert die Auswirkungen unvollkommener Informationen auf die organisatorische Leistung unter dem Regime alternativer organisatorischer Einstellungen. Die Analyse basiert auf einem agentenbasierten Modell, das eine erweiterte Variante des NK-Modells ist. In den Simulationen werden Fitnessmessungen mit Unvollkommenheiten gemäß Informationsasymmetrien verzerrt, die mit Differenzierung und Delegation der Entscheidungsfindung zusammenhängen. Die Ergebnisse zeigen, dass die Auswirkungen von Informationsmängeln auf die organisatorische Leistung auf subtile Weise den Koordinationsmodus, die Anreize und die organisationsinternen Interaktionen beeinträchtigen. Die Ergebnisse könnten ein neues Licht auf unvollkommene Informationen werfen, da in manchen organisatorischen Situationen eher unbedeutende Leistungsverluste im Vergleich zu perfekt informierten Entscheidungsträgern auftreten und sich in einigen Situationen mangelhafte Informationen als vorteilhaft erweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13947-5_10 3c91b93b26838b3729d8b92514db3a9c;de;;;7.2.;;;Consumer off-the-shelf (COTS) Sprachtechnologie-Produkt- und Servicebewertung Dieses Kapitel befasst sich mit der Bewertung sprachbezogener Dienste und Systeme. Es richtet sich an den Leser, der eine vergleichende Bewertung von marktgängigen Systemen oder direkt nutzbaren Diensten wie Sprachwahlsystemen oder Reiseinformationssystemen durchführen möchte. Das Kapitel ist nicht für technische Spezialisten geschrieben, die beispielsweise ein Spracherkennungssystem auswählen möchten, das in ein Telefonvermittlungssystem eingebettet wird. Diese Leser werden auf die ausführlichen Bewertungskapitel der;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4501-9_3 645deba30d69dfad43c2a011a56d1ccf;de;;;7.2.;;;Anwendungen der verallgemeinerten Grobmengentheorie im Bewertungsindexsystem der Radar-Entstörungsleistung Die Bewertung der Radar-Entstörungsleistung ist ein notwendiges Glied im Prozess der Radarentwicklung, -einführung und -ausrüstung. Die Anwendungen der verallgemeinerten Grobmengentheorie werden in diesem Papier vorgeschlagen und diskutiert, um die Probleme von Big Data, unvollständigen Daten und redundanten Daten bei der Konstruktion von Bewertungsindexsystemen anzugehen. Zuerst wird eine Masse von reellwertigen Daten in einige intervallwertige Daten umgewandelt, um eine unannehmbare Anzahl von Äquivalenzklassen und Klassifikationsregeln zu vermeiden, und die Intervallähnlichkeitsbeziehung wird verwendet, um Klassifikationen dieser intervallwertigen Daten vorzunehmen. In der Zwischenzeit können unvollständige Daten durch eine neue Definition der Verbindungsgrad-Toleranzbeziehung sowohl für intervallwertige Daten als auch für einwertige Daten gelöst werden, was eine bessere Beschreibung des Grobsatzes als die traditionelle begrenzte Toleranzbeziehung ermöglicht. Dann wird ein E-Bedingungs-Entropie-basierter heuristischer Algorithmus angewendet, um eine Attributreduktion durchzuführen, um das Bewertungsindexsystem zu optimieren, und endgültige Entscheidungsregeln können für die Systembewertung extrahiert werden. Schließlich werden die Durchführbarkeit und der Vorteil der vorgeschlagenen Verfahren durch ein reales Beispiel der Bewertung der Radar-Entstörungsleistung bezeugt.;-;-;-;https://link.springer.com/article/10.1007/s12204-016-1706-3 6dfdf27501c9588170ab14d0eca1d3db;de;;;7.2.;;;Eine Middleware-Architektur zur Integration von Datenschutzeinstellungen und Standortgenauigkeit Location-Based Access Control (LBAC)-Systeme unterstützen die Bewertung von Bedingungen an Standorten bei der Durchsetzung von Zugriffskontrollrichtlinien. Die Fähigkeit, Bedingungen für eine Reihe von autorisierten Standorten zu bewerten, hat eine Reihe bekannter Vorteile, einschließlich der Verbesserung der Aussagekraft der Zugangskontrolle. Wenn Standorte jedoch in Kombination mit persönlichen Identitäten verwendet werden, muss die Privatsphäre der Benutzer berücksichtigt werden. In diesem Papier beschreiben wir eine Lösung zur Integration eines LBAC-Systems mit datenschutzoptimierten Techniken basierend auf Standortverschleierung. Unsere Lösung basiert auf einer datenschutzbewussten Middleware-Komponente, die explizit den Kompromiss zwischen der Privatsphäre der Benutzer und der Standortgenauigkeit anspricht, indem sie die von den Benutzern festgelegten Präferenzen erfüllt und die Qualität der an LBAC-Systeme freigegebenen Standortinformationen maximiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-72367-9_27 da10ed7fed703e7f30b42e1a221f3f65;de;;;7.2.;;;Multikriterielle Bewertung der Zielmarktpolitik mit Choquet Integral Die Festlegung der Zielmarktpolitik ist eine der wichtigen strategischen Entscheidungen für Unternehmen. In dieser Studie ermitteln wir 4 verschiedene Zielmarktpolitiken für ein Vertriebsunternehmen. Das Problem wird als Multikriteriums-Entscheidungsfindungsproblem behandelt und mit Choquet Integral, einer der Multikriteriums-Entscheidungsverfahren, gelöst. In dieser Studie werden nach den Unternehmensmerkmalen Finanzfaktoren, Risiko, Nachfrage sowie Umwelt- und Sozialfaktoren als Hauptkriterien bestimmt und unter diesen Hauptkriterien 11 Unterkriterien identifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31724-8_44 f77b1ae667bab758f5f420ba1d0b52e3;de;;;7.2.;;;Zielorientiertes kollaboratives Filtern – ein richtungsfehlerbasierter Ansatz Kollaboratives Filtern ist eine der effektivsten Techniken, um personalisierte Inhaltsempfehlungen zu erstellen. In der Literatur ist es ein üblicher Versuchsaufbau in der Modellierungsphase, entweder explizit oder implizit den (erwarteten) Fehler zwischen den prognostizierten Bewertungen und den wahren Nutzerbewertungen zu minimieren, während in der Evaluierungsphase das resultierende Modell erneut dadurch bewertet wird Error. In diesem Papier argumentieren wir, dass die Definition einer Fehlerfunktion, die über Bewertungsskalen hinweg festgelegt ist, jedoch begrenzt ist und unterschiedliche Anwendungen unterschiedliche Empfehlungsziele haben können, also Fehlerfunktionen. In einigen Fällen sind wir beispielsweise möglicherweise mehr besorgt über die hoch vorhergesagten Elemente als über die mit niedrigen Bewertungen (präzisionsorientiert), während wir in anderen Fällen sicherstellen möchten, dass wir keine hoch bewerteten Elemente verpassen (erinnerungsorientiert). Darüber hinaus kann es für einige Anwendungen erforderlich sein, eine Top-;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12275-0_36 4fa982c0c32bff7dbcf8b656148ccb28;de;;;7.2.;;;Ein effektives TF/IDF-basiertes semantisches Ähnlichkeitsmaß für Text-zu-Text-Texte Der Einsatz von Semantik bei Aufgaben im Zusammenhang mit der Informationsbeschaffung hat sich in den letzten Jahren zu einem weitreichenden Forschungsgebiet entwickelt. Unter Berücksichtigung der überwachten Textklassifikation, die das Hauptinteresse dieser Arbeit ist, kann Semantik an verschiedenen Schritten der Textverarbeitung beteiligt sein: während des Indexierungsschritts, während des Trainingsschritts und während des Klassenvorhersageschritts. Was den Klassenvorhersageschritt betrifft, können neue semantische Text-zu-Text-Ähnlichkeitsmaße klassische Ähnlichkeitsmaße ersetzen, die traditionell von einigen Klassifikationsverfahren zur Entscheidungsfindung verwendet werden. In diesem Artikel schlagen wir ein neues Maß zur Bewertung der semantischen Ähnlichkeit zwischen Texten basierend auf TF/IDF mit einer neuen Funktion vor, die semantische Ähnlichkeiten zwischen Konzepten aggregiert, die die verglichenen Textdokumente paarweise darstellen. Experimentelle Ergebnisse zeigen, dass unsere Maßnahme andere semantische und klassische Maßnahmen mit signifikanten Verbesserungen übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11749-2_8 4755432adea32fd8805878710da56263;de;;;7.2.;;;Interpretation und Normalisierung von zeitlichen Ausdrücken zur Beantwortung von Fragen Das deutsche Frage-Beantwortungssystem (QA) InSicht nahm zum dritten Mal an QA@CLEF teil. InSicht implementiert einen tiefen QS-Ansatz: Es baut auf vollständigen Satzanalysen, Inferenzen auf semantische Darstellungen und passenden semantischen Darstellungen aus Fragen und Dokumenten auf. InSicht wurde für QA@CLEF 2006 wie folgt verbessert: temporale Ausdrücke werden normalisiert und temporale deiktische Ausdrücke werden in explizite Datumsdarstellungen aufgelöst, das Koreferenzmodul wurde um eine Fallback-Strategie für erhöhte Robustheit erweitert, Äquivalenzregeln können negierte Beziehungen einführen, Antwortkandidaten werden geclustert um das mehrfache Auftreten einer realen Entität in den Antworten auf eine Listenfrage zu vermeiden, und schließlich wurde ein flaches QA-Subsystem, das einen zweiten Antwortstrom erzeugt, in InSicht integriert. Das aktuelle System wird in einer Ablationsstudie zu den deutschen Fragen aus QA@CLEF 2006 evaluiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74999-8_51 8304dfd3c02914d74cf35964f778a413;de;;;7.2.;;;Syntaktisches Wissen für QA nutzen Q Wir beschreiben das System der Universität Groningen für die einsprachigen Niederländisch- und mehrsprachigen Englisch-Niederländisch-QS-Aufgaben. Zuerst geben wir einen kurzen Überblick über die Architektur unseres QS-Systems, das stark von syntaktischen Informationen Gebrauch macht. Als nächstes beschreiben wir die Module, die speziell für die CLEF-Aufgaben verbessert oder entwickelt wurden, unter anderem die Einbindung von syntaktischem Wissen in die IR, die Einbindung lexikalischer Äquivalenzen und die Koreferenzauflösung sowie ein mehrsprachiges (Englisch-Niederländisch) Basis-QS-System, das eine Kombination verwendet von Systran und Wikipedia (zur Begriffserkennung und Übersetzung) zur Frageübersetzung. Bei Nicht-Listen-Fragen waren 31 % (20 %) der am höchsten bewerteten Antworten, die vom einsprachigen (mehrsprachigen) System zurückgegeben wurden, richtig.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74999-8_39 d389c3f325300ded1a86cde9453a107b;de;;;7.2.;;;Anpassung der Abstimmungstechniken für das Abrufen von Online-Foren Online-Foren oder Message Boards sind reiche wissensbasierte Gemeinschaften. In diesen Gemeinschaften ist das Abrufen von Threads ein wesentliches Werkzeug, das den Informationszugriff erleichtert. Das Problem bei der Threadsuche besteht jedoch darin, wie Beweise aus Texteinheiten (Nachrichten) kombiniert werden, um die Threadrelevanz einzuschätzen. In diesem Artikel ordnen wir zuerst eine Liste von Nachrichten ein und bewerten dann die Threads, indem wir die Bewertungen ihrer bewerteten Nachrichten aggregieren. Um die Nachrichtenbewertungen zu aggregieren, verwenden wir verschiedene Abstimmungstechniken, die bei Ranking-Aggregationsaufgaben wie der Blog-Destillation und der Expertensuche angewendet wurden. Das experimentelle Ergebnis zeigt, dass viele Abstimmungstechniken einer Baseline vorgezogen werden sollten, die Threads als eine Verkettung des Textes ihrer Nachrichten behandelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35326-0_44 6d53d94b302e6b970401f5ca5aa8e678;de;;;7.2.;;;Spezifität Aboutness beim XML-Abruf Dieses Papier stellt eine theoretische Methodik zur Bewertung von Filtern beim XML-Retrieval vor. Theoretische Evaluation beschäftigt sich mit der formalen Untersuchung qualitativer Eigenschaften von Retrievalmodellen. Der XML-Abruf befasst sich mit dem Abrufen der Dokumentkomponenten, die speziell eine Abfrage beantworten, und Filter sind eine Methode, um gezielte Antworten zu liefern. Unsere theoretische Auswertung wird kritisch analysieren, wie Filter dies erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04417-5_16 7650f9820429839ce68686781465efbb;de;;;7.2.;;;Dynamische Pflege von Entscheidungsregeln für die Änderung von Entscheidungsattributwerten Eine Regelinduktionsmethode, die auf der Grobmengentheorie (RST) basiert, die einen minimalen Satz von Entscheidungsregeln durch Verwendung von Attributreduktion und Approximationen erzeugen kann, hat in letzter Zeit viel Aufmerksamkeit erfahren. In der Realität beeinflusst die Variation von Objekten, Attributen und Attributwerten Reduktionen und Annäherungen, z. Das Ziel dieses Papiers ist die dynamische Pflege von Entscheidungsregeln für die Vergröberung und Verfeinerung von Entscheidungsattributwerten. Um dieses Problem zu lösen, werden zwei inkrementelle Grobsatz-basierte Verfahren vorgeschlagen, indem die Zuordnungsunterscheidbarkeitsmatrix dynamisch aktualisiert wird, ohne die Reduzierungen von Anfang an neu zu berechnen, was die Effizienz erhöht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-04182-3_51 a7d42c3796a6ccdd036d1026b7541eef;de;;;7.2.;;;Verbesserung des On-Demand-Lernens durch Parallelität Parallel Herkömmliches Ranking-Lernen (L2R) wird normalerweise im Batch-Modus durchgeführt, in dem eine einzelne Ranking-Funktion gelernt wird, um Ergebnisse für zukünftige Abfragen zu ordnen. Dieser Ansatz ist nicht flexibel, da sich zukünftige Abfragen erheblich von denen im Trainingssatz unterscheiden können und folglich die erlernte Funktion nicht richtig funktioniert. Idealerweise sollte für jede Abfrage eine eigene Lernfunktion on demand erlernt werden. Nichtsdestotrotz kann On-Demand-L2R die Verarbeitungszeit von Abfragen erheblich verschlechtern, da die Ranking-Funktion im laufenden Betrieb erlernt werden muss, bevor sie angewendet werden kann. In diesem Papier stellen wir eine parallele Implementierung einer On-Demand-L2R-Technik vor, die die Reaktionszeit der vorherigen seriellen Implementierung drastisch reduziert. Unsere Implementierung verwendet Tausende von Threads einer GPU, um eine Ranking-Funktion für jede Abfrage zu lernen, und nutzt einen reduzierten Trainingssatz, der durch aktives Lernen erhalten wird. Experimente mit dem LETOR-Benchmark zeigen, dass unser vorgeschlagener Ansatz im Vergleich zur sequentiellen Version eine durchschnittliche Beschleunigung der Abfrageverarbeitungszeit um das 127-fache erreicht und gleichzeitig eine sehr wettbewerbsfähige Ranking-Effektivität erzeugt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35063-4_38 9665da51981b4a00830415b378c2b097;de;;;7.2.;;;Kombination von Dokumentenfunktionen basierend auf simulierten Click-through-Daten Viele verschiedene inhalts- und kontextbasierte Ranking-Algorithmen wurden in Websuchmaschinen verwendet, um Seiten basierend auf einer Benutzeranfrage zu finden. Darüber hinaus kombinieren einige neue Lösungen verschiedene Algorithmen, um eine bessere Leistung zu erzielen. In diesem Whitepaper verwenden wir simulierte Klickdaten, um zu lernen, wie viele Inhalts- und Kontextfunktionen von Webseiten kombiniert werden. Diese Methode ist einfach und praktisch mit tatsächlichen Klickdaten in einer Live-Suchmaschine zu verwenden. Der vorgeschlagene Ansatz wird anhand des LETOR-Benchmarks bewertet und wir haben festgestellt, dass er mit dem Ranking von SVM basierend auf Benutzerbeurteilungen wettbewerbsfähig ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00958-7_48 7e7ee2c939af58737dea90122cc2cda2;de;;;7.1.;;;Agenten als Entscheidungshilfe in Umweltprozessen: Der Stand der Technik Agentenbasierte Systeme haben sich seit den 1990er Jahren zu einem wichtigen Forschungsgebiet entwickelt. Sie wurden auf eine Reihe von Domänen angewendet, die intrinsisch komplex sind. Unter diesen sind Umweltprobleme von besonderer Bedeutung, da sie unsere Gesellschaften und unsere alltägliche Lebensqualität stark beeinträchtigen. Dieser Bericht bietet einen Überblick über agentenbasierte Systeme, die auf Umweltprobleme unterschiedlicher Art angewendet werden. Die Nützlichkeit von Multi-Agent-Systemen (MASs) zur Modellierung komplexer Systeme, die multiple und dynamische Interaktionen beinhalten, wie in Umweltprozessen, wird aufgezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7643-8900-0_2 fedc571eec6d0946db09d90b267f1595;de;;;7.1.;;;Hafenbehörden und Wasserkonzessionäre: Die Rolle von Seit 1994 wurden die Seehafendienste grundlegend reformiert, um die Servicequalität zu verbessern und die öffentlichen Ausgaben zu senken. Diese Änderungen führten zur Gründung neuer öffentlich-privater Partnerschaften zwischen Hafenbehörden (PAs) und privaten Betreibern. In diesem Zusammenhang besteht das Ziel des Kapitels darin, die von privaten Betreibern (Konzessionären) eingesetzten Berichtsinstrumente zu untersuchen, um das Entscheidungssystem der Zahlstellen zu unterstützen. Außerdem schlagen wir einen neuen Ansatz zur Kontrolle der Beziehung zwischen der Hafenbehörde (PA) und seinem Konzessionär vor. Insbesondere analysieren wir anhand der Fallstudienmethodik das Management von Wasserdienstleistungen im Hafensystem von Neapel und konzentrieren uns dabei auf die Art und Weise, wie die Informationen zwischen der PA und Idra Porto s.r.l. ausgetauscht werden. Die Ergebnisse zeigen, dass trotz der positiven Leistungen des Konzessionärs die implementierten Systeme nicht genügend Informationen über die von PA ausgelagerten Aktivitäten liefern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35761-9_19 a515dda362bc84563391983ac08bd6c3;de;;;7.2.;;;Über visuelle Analytik und Auswertung in der Zellphysiologie: Eine Fallstudie In diesem Beitrag präsentieren wir eine Fallstudie zu einem Visual Analytics (VA) Prozess am Beispiel der Zellphysiologie. Nach dem Modell von Keim veranschaulichen wir die Schritte, die innerhalb eines Erkundungs- und Sinnstiftungsprozesses erforderlich sind. Darüber hinaus demonstrieren wir die Anwendbarkeit dieses Modells und zeigen einige Mängel in der Funktionalität und Benutzerfreundlichkeit der Analysetools auf. Die Fallstudie unterstreicht die Notwendigkeit der Durchführung von Bewertungen und Verbesserungen der VA im Bereich der Biomedizin. Das Hauptproblem ist das Fehlen eines vollständigen Toolsets, das alle Analyseaufgaben einschließlich der vielen Schritte der Datenvorverarbeitung sowie der Endbenutzerentwicklung unterstützt. Ein weiteres wichtiges Thema ist es, die Zusammenarbeit zu ermöglichen, indem die Möglichkeit geschaffen wird, Datensätze auszuwerten und zu validieren und mit Daten anderer ähnlicher Forschungsgruppen zu vergleichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40511-2_36 4c6e78353f0b206f45d2a1fcecaab4fa;de;;;7.2.;;;Umfassende Leistungsbewertung verschiedener Methoden zur Merkmalsextraktion für OCR-Zwecke Optical Character Recognition (OCR) ist ein sehr umfangreicher Zweig der Mustererkennung. Die Existenz einer supereffektiven Software für die Omnifont-Texterkennung, die mehrere Sprachen verarbeiten kann, erweckt den Eindruck, dass alle Probleme in diesem Bereich bereits gelöst sind. Tatsächlich hat sich der Forschungsschwerpunkt im OCR-Bereich ständig von offline, maschinengeschriebener, lateinischer Zeichenerkennung hin zu asiatischen Alphabeten, handgeschriebenen Skripten und Online-Verfahren verlagert. Dennoch ist es schwierig, eine Ausarbeitung zu finden, die nicht nur das Thema zahlreicher Merkmalsextraktionsverfahren für gedruckte, lateinisch abgeleitete, isolierte Zeichen konzeptionell abdeckt, sondern auch versucht, diese experimentell umzusetzen, zu vergleichen und zu optimieren optimize . Dieses Papier zielt darauf ab, diese Lücke zu schließen, indem die Leistungsfähigkeit verschiedener statistischer Methoden hinsichtlich ihrer Erkennungsrate und Zeiteffizienz gründlich untersucht wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24369-6_34 4a231309f3b000792cff6cdd653ff322;de;;;7.2.;;;Auf dem Weg zu einem Evaluierungsmodell für Open Government: Ein vorläufiger Vorschlag Die Implementierung von Open Government ist mit mehreren Maßnahmen verbunden: Gestaltung der öffentlichen Politik, Softwareimplementierung, Website-Entwicklung, Politikinformatik und die Entwicklung neuer Vorschriften. Trotz dieser wichtigen Fortschritte wurde nur sehr wenig unternommen, um die Auswirkungen von Open Government zu messen und Feedback zu den nächsten Schritten der Umsetzung zu geben. Darüber hinaus beabsichtigen nur sehr wenige Modelle, die Funktionen, Eigenschaften oder die Zukunft dieses neuen Trends zur Offenheit zu erklären. Unsere Forschung von 2006 bis 2012 verwendet ein Mehrkomponentenmodell, um Open-Government-Websites in den 32 mexikanischen Bundesstaaten zu messen. Das Website-Modell könnte jedoch aufgrund technologischer Fortschritte veraltet sein. Dieses Papier analysiert einige Wissenslücken und potenzielle Probleme mit dieser Art von Modell und schlägt einen neuen Ansatz für Open-Government-Portale vor, der auf vier konzeptionellen Säulen basiert: Wikinomics, Open Data, New Institutionalism und der fünfte Staat (Netzwerkstaat).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44426-9_4 6a531bc962705a91d3a0ad32657ef633;de;;;7.2.;;;Multigranulations-Grobsatzmodell in zögerlichen Fuzzy-Informationssystemen und seine Anwendung im Person-Job-Fit Person-Job-Fit ist ein wichtiges Thema in der Vielzahl kritischer Business-Intelligence-Anwendungen, die darauf abzielen, für jeden Arbeitssuchenden geeignete berufliche Fähigkeiten mit den Jobanforderungen zu verbinden, und zu diesem Thema wurden viele auf Fuzzy-Sets basierende Studien entwickelt. Unter den verschiedenen Arten von Fuzzy-Sets werden in der Regel zögernde Fuzzy-Sets verwendet, um Situationen zu handhaben, in denen Experten zwischen mehreren Werten zögern, eine Alternative zu bewerten. In letzter Zeit haben sich verschiedene zögerliche Fuzzy-Entscheidungsverfahren etabliert, aber keine davon kann verwendet werden, um Gruppenentscheidungsprobleme mit dem Multigranulations-Rough-Set-Modell und dem TODIM (eine portugiesische Abkürzung für interaktive und multikriterielle Entscheidungsfindung) zu lösen Ansatz. Um die Probleme der zögerlichen Fuzzy-Informationsanalyse und der Gruppenentscheidungsfindung für den Person-Job-Fit zu lösen, konstruieren wir daher ein neues Multigranulations-Rough-Set-Modell, genannt zögerliche Fuzzy-Multigranulation-Rough-Sets, indem wir zögerliche Fuzzy-Sets mit Multigranulation-Rough-Sets kombinieren. Um dann die Wissensbasis der Entscheidungsfindung vernünftiger auszudrücken, erweitern wir das vorgeschlagene Modell von einem einzelnen Universum auf zwei Universen. Schließlich schlagen wir unter Verwendung des TODIM-Ansatzes eine allgemeine Entscheidungsfindungsmethode vor, die auf die Person-Job-Passung angewendet wird, und die Wirksamkeit der vorgeschlagenen Entscheidungsfindungsmethode wird durch eine Fallstudie demonstriert.;-;-;-;https://link.springer.com/article/10.1007/s13042-017-0753-x a44e0599f7d6897c2d3898aabd8b5f9a;de;;;7.2.;;;Inhaltsbasierte und kollaborative Techniken zur Tag-Empfehlung: eine empirische Bewertung Das rasante Wachstum des sogenannten Web 2.0 hat das Verhalten der Surfer verändert. Es entstand eine neue demokratische Vision, in der Benutzer aktiv zur Entwicklung des Webs beitragen können, indem sie neue Inhalte produzieren oder die bestehenden mit benutzergenerierten Metadaten anreichern. In diesem Zusammenhang verbreitete sich die Verwendung von Tags, von Benutzern frei gewählten Schlüsselwörtern zur Beschreibung und Organisation von Ressourcen, als Modell zum Durchsuchen und Abrufen von Webinhalten. Der Erfolg dieses kollaborativen Modells wird durch zwei Faktoren gerechtfertigt: Erstens werden die Informationen so organisiert, dass sie das mentale Modell der Benutzer genau widerspiegeln, zweitens verringert das Fehlen eines kontrollierten Vokabulars die Lernkurve der Benutzer und ermöglicht die Verwendung von sich entwickelnden Vokabularen . Da Tags rein syntaktisch gehandhabt werden, erzeugen von Benutzern bereitgestellte Anmerkungen einen sehr spärlichen und verrauschten Tag-Raum, der die Effektivität für komplexe Aufgaben einschränkt. Folglich sind in letzter Zeit Tag-Recommender mit ihrer Fähigkeit, Benutzern die am besten geeigneten Tags für die zu kommentierenden Ressourcen bereitzustellen, als eine Möglichkeit aufgetaucht, den Prozess der Tag-Konvergenz zu beschleunigen. Der Beitrag dieser Arbeit ist ein Tag-Recommender-System, das sowohl eine kollaborative als auch eine inhaltsbasierte Empfehlungstechnik implementiert. Ersteres nutzt das Tagging-Verhalten von Benutzern und Communitys aus, um Empfehlungen zu erstellen, während letzteres einige Heuristiken ausnutzt, um Tags direkt aus dem Textinhalt von Ressourcen zu extrahieren. Ergebnisse von Experimenten, die mit einem von Bibsonomy gesammelten Datensatz durchgeführt wurden, zeigen, dass hybride Empfehlungsstrategien einzelne übertreffen können und die Art und Weise ihrer Kombination wichtig ist, um genauere Ergebnisse zu erzielen.;-;-;-;https://link.springer.com/article/10.1007/s10844-012-0215-6 adfef2dfce66d096088d2f9868be2ab5;de;;;7.2.;;;Softwareumgebung zur Simulation und Evaluierung eines Security Operation Centers Aufgrund der Komplexität dieser Systeme und des Internets selbst ist es etwas problematisch, die Leistung von Sicherheitssystemen im Internet zu bewerten. Daher werden Modellierung und Simulation immer wichtiger, um das Verhalten von Sicherheitssystemen zu optimieren, einschließlich Sicherheitskomponenten zum Schutz verschiedener verteilter geografischer Informationssysteme (GIS). Dieses Papier präsentiert einen Ansatz und eine Software-Simulationsumgebung für eine umfassende Untersuchung des Security Operation Center (SOCBox)-Systems, das im Wesentlichen ein Intrusion Detection-Metasystem ist. SOCBox sammelt Daten aus unterschiedlichsten Quellen (Intrusion Detection Systeme (IDS), Firewalls, Router, Workstations etc.) und hat somit eine globale Sicht auf das Netzwerk. Die Simulationsumgebung wurde früher für Distributed Denial of Service (DDoS)-Angriffe und Verteidigungssimulationen entwickelt. Dieses Tool zeichnet sich durch einen agentenorientierten Ansatz, die paketbasierte Nachbildung von Netzwerksicherheitsprozessen und die offene Bibliothek unterschiedlicher Angriffs- und Abwehrmechanismen aus. Wir betrachten die SOCBox-Struktur, die Simulationsumgebungsarchitektur, die SOCBox-Modelle in der Simulationsumgebung und Besonderheiten der SOCBox-Simulation.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-37629-3_8 26373b20a78afea5f53a5a4071b56ead;de;;;7.2.;;;Integration organisatorischer Wissensquellen durch einen ontologiebasierten Ansatz: Die Onto-DOM-Architektur Heutzutage gibt es eine Vielzahl von Initiativen zum Wissensmanagement (WMS), die in Organisationen implementiert werden, die oft nicht die natürliche Heterogenität der Wissensquellen der Organisation bewältigen. Um Heterogenität, Dokumentationsüberlastung und fehlenden Kontext zu adressieren, schlagen wir Onto-DOM vor, eine ontologiebasierte Frage-Antwort-Strategie, die in einem verteilten Organisationsgedächtnis implementiert wird. Onto-DOM ist ein tragbares Frage-Antwort-System, das Anfragen in natürlicher Sprache akzeptiert und unter Verwendung einer Domänenontologie die Anfrage transformiert und kontextualisiert, um die inhärente Mehrdeutigkeit natürlicher Sprache zu beseitigen. Gleichzeitig stellt es die Wissensobjekte wieder her, die am wahrscheinlichsten die Antwort enthalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87781-3_48 c48dfa22570385af1a4ab78a982acdcc;de;;;7.1.;;;Design Thinking und Unternehmensmodellierung: Eine Untersuchung von acht Enterprise Architecture Management-Projekten Unternehmen setzen während der Covid19-Pandemie noch mehr neue Tools und Technologien ein. Enterprise Architecture Management (EAM) als ganzheitliche Managementdisziplin unterstützt systematische Einführungsprozesse durch Integration von Geschäfts- und IT-Belangen. Diese integrierte Sicht erfordert die Beteiligung verschiedener Stakeholder an EAM-Projekten. Um die aus diesem multiperspektivischen Aspekt resultierenden Risiken zu minimieren, sollten die Prinzipien der Design Thinking Methoden in den frühen Phasen von EAM angewendet werden. For Enterprise Modeling (4EM) ist eine Enterprise Modeling Methode, die Design Thinking-Eigenschaften aufweist. Anhand von acht EAM-Projekten aus qualitativer und quantitativer Perspektive geht dieser Beitrag der Frage nach, ob die 4EM als Design Thinking Methode zu den Zielen der EAM-Projekte beiträgt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-79186-5_15 71b5cec620c565a8ebd2315c6f540b62;de;;;7.2.;;;Schlussbemerkungen: Ethik, Selbstregulierung und Demokratie Dieses Buch beschäftigt sich hauptsächlich mit Ethik-/Verhaltens-/Praxis-Kodizes, und man sollte sich fragen, ob das Feld der „Computerethik“ dann vollständig damit abgedeckt wird. Die Antwort ist sicherlich negativ. Offensichtlich lenken Kodizes die Aufmerksamkeit nicht in erster Linie auf die großen ethischen Fragen von Gerechtigkeit und Fairness, mit denen unsere Zeit konfrontiert ist: wirtschaftliche Ungleichheit, Rassismus und Arbeitslosigkeit, das globale Ungleichgewicht der wirtschaftlichen Ressourcen und Chancen, Armut und Unterdrückung der Dritten Welt, um einige Beispiele zu nennen . Der Zusammenhang dieser großen Fragen mit der Informationsverarbeitung ist weder klar, noch haben wir sichere und allgemein akzeptierte Lösungen. Dennoch sind Computer und Telekommunikation zu einem festen Bestandteil unseres kollektiven Lebens geworden und niemand kann ihren Einfluss auf das Handeln in und auf der Welt leugnen. Das „Weißbuch“ der Europäischen Kommission ist ein gutes Beispiel für die Verbindung zwischen technologischer Innovation und so wichtigen Themen wie „Beschäftigung, Wachstum und Wettbewerbsfähigkeit“.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34914-5_10 d50a7248c2127bfefc0e70972ba8ff1a;de;;;7.2.;;;Spektrales Clustering basierend auf der Analyse der Eigenvektoreigenschaften In diesem Papier schlagen wir eine neue Methode zur Auswahl der Anzahl von Clustern und der am besten geeigneten Eigenvektoren vor, die es ermöglichen, die optimale Clusterbildung zu erhalten. Um die Aufgabe zu lösen, schlagen wir vor, die Eigenschaften von Adjazenzmatrix-Eigenvektoren sorgfältig zu untersuchen: ihre schwache Lokalisierung sowie das Vorzeichen ihrer Werte. Der Algorithmus hat nur einen Parameter – die Anzahl der gemeinsamen Nachbarn. Wir vergleichen unsere Methode mit mehreren Clustering-Lösungen, die verschiedene Arten von Datensätzen verwenden. Die Experimente zeigen, dass unsere Methode in den meisten Fällen viele andere Clustering-Algorithmen übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45237-0_6 50b1b9d6b526b1aef244fdf93faf400e;de;;;7.2.;;;Zeitreihenmodellierung mit Fuzzy Cognitive Maps: Vereinfachungsstrategien Der Artikel konzentriert sich auf das Problem der Komplexität von Fuzzy Cognitive Maps, die zur Modellierung von Zeitreihen entwickelt wurden. Große Fuzzy Cognitive Maps sind unpraktisch. Da Fuzzy Cognitive Maps graphenbasierte Modelle sind, wächst die Anzahl der Verbindungen quadratisch, wenn wir die Anzahl der Knoten erhöhen. Daher haben wir uns die Frage gestellt, wie man trainiertes FCM ohne wesentlichen Verlust an Kartenqualität vereinfachen kann. Wir haben vorgeschlagen, die Relevanz von Knoten und Gewichtungen anhand ihres Einflusses auf die Karte zu bewerten. Der Artikel stellt die Methode zunächst an synthetischen Zeitreihen unterschiedlicher Komplexität vor, dann an mehreren realen Zeitreihen. Wir veranschaulichen, wie das Vereinfachungsverfahren die MSE beeinflusst. Es stellte sich heraus, dass wir mit nur einer kleinen Erhöhung von MSE bis zu entfernen können;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45237-0_38 5e4286e136000008e8122b60dfd4cfcd;de;;;7.1.;;;Analyse des Einflusses der Stärkung des visuellen Botschaftsorientierten Designs auf Wegfindungsprobleme Menschen erhalten in ihrem Leben verschiedene Arten von Informationen durch visuelle Sinne. Das Sehen ist die wichtigste Quelle für die Akzeptanz externer Informationen durch den menschlichen Körper und verursacht dann verschiedene Aktivitäten. Daher untersuchte diese Studie die Informationsgenerierung von Menschen unter den Aspekten Nachrichtenverarbeitung, Nachrichtenwahrnehmung und Informationsidentifikation. In dieser Studie wird untersucht, ob die Akzeptanz der Nachricht durch das Subjekt sein Entscheidungsverhalten beeinflusst. Die Forschungsobjekte sind College-Studenten, und die Schule ist das Feld. Im Experiment gibt es zwei Wege für die Schüler, um ans Ziel zu gelangen. Einer der Pfade wird ausgewählt, um die Informationsverarbeitung und Informationsmarkierung zu stören. Legen Sie gemäß der Fünf-Elemente-Theorie der Umweltinformationserkennung den Ort der visuellen Botschaft fest und zeichnen Sie den Aktionsweg des Schülers zum Klassenzimmer jede Woche durch RFID-Sensoren auf. Wir verwenden die Sensoraufzeichnung, um festzustellen, ob der Schüler von der Nachrichtenverarbeitung und der Informationsmarkierung betroffen ist, und ändern seine Entscheidung zur Pfadauswahl. Anhand des Unterschieds im Pfad kann untersucht werden, ob der zu testende Schüler von der Nachrichtenverarbeitung und Informationsanzeige betroffen ist, und seine Entscheidung für den Weg (Wegfindung) treffen. Bei vierfacher Wahrnehmung von Wahrnehmungsdaten ist die Anzahl der Auswahlmöglichkeiten für Pfade, die mit Nachrichtenverarbeitung und Informationsanzeigen entworfen wurden, weiterhin positiv gewachsen. Umgekehrt weist der Pfad, der von der Nachricht nicht verarbeitet wurde, ein negatives Wachstum auf. Die Ergebnisse dieser Studie werden uns helfen, die Post-Informationsverarbeitung zu verstehen. Wenn ein geeignetes Nachrichtenverarbeitungsdesign verwendet wird und Informationsmarkierungen an geeigneten Stellen eingerichtet werden, kann diese Nachrichtenverarbeitung die Entscheidungsfindung der am Experiment teilnehmenden Studenten beeinflussen. Diese Erfahrung kann als Referenzmethode für die Nachrichtenverarbeitung und Nachrichteneinstellung in der Umgebung verwendet werden, sodass visuell orientiertes Design verwendet werden kann, um die Flussführung effektiver zu gestalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-46828-6_22 a66d293a64f07fc18328b2a3ec6241c6;de;;;7.2.;;;Kompaktes und unverwechselbares visuelles Vokabular für eine effiziente Multimedia-Datenindexierung Die Indexierung von Multimediadaten für den inhaltsbasierten Abruf hat in den letzten Jahren aufgrund der Kommerzialisierung von Multimedia-Erfassungsgeräten und der weit verbreiteten Annahme von sozialen Netzwerkplattformen als Mittel zum Teilen von Medieninhalten im Internet erhebliche Aufmerksamkeit auf sich gezogen. Aufgrund der sehr großen Mengen an Multimediainhalten, insbesondere Bildern, die von Menschen online produziert und geteilt werden, besteht eine sehr wichtige Anforderung für Multimedia-Indexierungsansätze in ihrer Effizienz sowohl in Bezug auf die Rechenleistung als auch auf die Speichernutzung. Ein üblicher Ansatz zur Unterstützung der beispielweisen Bildsuche basiert auf der Extraktion;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40683-6_8 122f475f78d6287a8cdaecf4b5f604e6;de;;;7.2.;;;Ein fauler Ansatz zum Filtern von parlamentarischen Dokumenten Wir schlagen einen faulen Ansatz vor, um ein inhaltsbasiertes Empfehlungssystem für parlamentarische Dokumente aufzubauen. Wenn ein neues Dokument empfohlen werden soll, entscheidet das System, welche Mitglieder des Parlaments ein solches Dokument interessant finden könnten, um es ihnen zu übermitteln. Unser Ansatz ist faul, weil wir nicht ein ausgearbeitetes Profil jedes Abgeordneten erstellen, sondern alle Texte seiner Reden in den Parlamentsdebatten sammeln und eine Dokumentensammlung erstellen, in der wir Anfragen durchsuchen können. Auf diese Weise transformieren wir ein Empfehlungssystemproblem in ein Information-Retrieval-Problem. Unsere Vorschläge werden anhand der Dokumente des Regionalparlaments von Andalusien in Spanien getestet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22389-6_26 55ab46e7b2d036057d85e5361197a898;de;;;7.2.;;;Kombination von visuellen und textuellen Systemen im Kontext von Benutzerfeedback Es wurde experimentell nachgewiesen, dass eine Kombination aus textueller und visueller Darstellung die Abrufleistung verbessern kann ([20], [23]). Dies liegt daran, dass die textuellen und visuellen Merkmalsräume oft komplementäre, aber korrelierte Aspekte desselben Bildes darstellen und so ein zusammengesetztes System bilden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35725-1_41 637deb2c86da1d41704364d37a4f934f;de;;;7.2.;;;Leistungsbewertung eines Protokolls für faire P2P-Auktionen über MANETs In diesem Papier untersuchen wir den Einsatz von P2P-Auktionen über MANETs. Wir definieren einen P2P-Auktionsprozess und identifizieren die Notwendigkeit einer fairen Registrierung und eines fairen Bietens. Wir schlagen eine verteilte Kommunikationsarchitektur und ein Protokoll vor, um diese Art von Auktionen zu unterstützen. Wir führen eine formale Spezifikation und Verifizierung des BSAP-Protokolls mit PROMELA/SPIN durch und bewerten dessen Leistungsfähigkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09490-8_8 6f479a65b985751f5f4c22f487176674;de;;;7.2.;;;Typen und Token für Logik mit Diagrammen Es ist allgemein anerkannt, dass Diagramme eine entscheidende Rolle beim menschlichen Denken spielen. Aber in der Mathematik werden Diagramme meistens nur für Visualisierungen verwendet, aber es wird bezweifelt, dass Diagramme streng genug sind, um in einem Beweis eine wesentliche Rolle zu spielen. Dieser Beitrag vertritt den entgegengesetzten Standpunkt: Es wird argumentiert, dass strenge formale Logik mit Diagrammen durchgeführt werden kann. Dazu wird zunächst analysiert, welche Probleme in schematischen Systemen auftreten können und wie ein schematisches System aufgebaut sein muss, um ein rigoroses Logiksystem zu erhalten. Insbesondere wird sich herausstellen, dass eine Trennung zwischen Diagrammen als Darstellungen von Strukturen und diesen Strukturen selbst erforderlich ist und die Strukturen mathematisch definiert werden sollten. Die Argumentation für diesen Standpunkt wird in eine Fallstudie eingebettet, nämlich in die existenziellen Graphen von Peirce. Im zweiten Teil dieser Arbeit werden die theoretischen Überlegungen praktisch durchgeführt, indem mathematische Definitionen für die Semantik und das Kalkül existenzieller Alpha-Graphen bereitgestellt und mathematisch nachgewiesen wird, dass das Kalkül solide und vollständig ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27769-9_5 2583094bd426bfad4b20892d0dfba8f7;de;;;7.2.;;;Empfehlungen für die Verwendung von pythagoräischen Fuzzy-Sets, illustriert mit Netflix-Filmdaten Das Web kann als riesiges Repository von Elementen wahrgenommen werden, und die Aktivitäten der Benutzer können als Prozesse der Suche nach interessanten Elementen angesehen werden. Empfehlungssysteme versuchen, basierend auf Ähnlichkeiten zwischen Benutzern, ihren Aktivitäten oder explizit festgelegten Präferenzen abzuschätzen, welche Artikel den Benutzern gefallen könnten. Benutzer haben keinen Einfluss auf Artikelauswahlprozesse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08795-5_56 53634e607099c5d2a68d8a9252d6be4e;de;;;7.2.;;;Studie zur Bewertungsmethode für die chinesische Agrarinformatisierung Entsprechend der aktuellen Situation Chinas bei der Entwicklung der Agrarinformatisierung und den Funktionen des Landwirtschaftsministeriums und auf der Grundlage der Konnotation der „landwirtschaftlichen Informatisierung“ wird in diesem Papier zunächst ein quantitatives Bewertungsindexsystem für die Agrarinformatisierung festgelegt, das den tatsächlichen Stand jedes Agrarinformatisierung der Provinz. Das Indexsystem besteht aus 12 Indizes, die aus 3 Aspekten ausgewählt wurden, nämlich der Ebene der landwirtschaftlichen Informatisierung, der Informationsebene der landwirtschaftlichen Produktion und des Betriebs sowie der landwirtschaftlichen Management- und Dienstleistungsinformatisierung. Gleichzeitig wird in der Arbeit auf der Grundlage einer Zusammenfassung der Leistungen anderer Forscher eine Reihe von Berechnungsmethoden/-Algorithmen zur Bewertung des landwirtschaftlichen Informatisierungsgrades vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18369-0_86 f9462d97d171e246a4245112667f70b9;de;;;7.2.;;;Musterinduktion und -anpassung in Musiksignalen In diesem Papier werden Techniken zur Musterinduktion und -übereinstimmung in musikalischem Audio erörtert. Auf allen Ebenen der Musik – Harmonie, Melodie, Rhythmus und Instrumentation – lässt sich die zeitliche Abfolge der Ereignisse in kürzere Muster unterteilen, die manchmal wiederholt und transformiert werden. Es werden Verfahren zum Extrahieren solcher Muster aus musikalischen Audiosignalen (Musterinduktion) und rechnerisch durchführbare Verfahren zum Abrufen ähnlicher Muster aus einer großen Datenbank von Liedern beschrieben (Mustervergleich).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23126-1_13 3573468e5fed14f8a429a118248d49f1;de;;;7.2.;;;Verbesserung der Auffindbarkeit von Patenten bei der Recherche nach dem Stand der Technik Die Recherche nach dem Stand der Technik ist eine wichtige Aufgabe bei der Patentrecherche. Der Erfolg dieser Aufgabe hängt von der Auswahl relevanter Suchanfragen ab. Typische Begriffe für Anfragen nach dem Stand der Technik werden aus den Anspruchsfeldern von Anfragepatenten extrahiert. Aufgrund der komplexen technischen Struktur von Patenten und des Vorhandenseins von nicht übereinstimmenden Begriffen und vagen Begriffen ist die Auswahl relevanter Begriffe für Abfragen jedoch eine schwierige Aufgabe. Während der Bewertung der Wiederauffindbarkeitsabdeckung der Patente von Abfragen nach dem Stand der Technik, die aus Abfragepatenten generiert wurden, wird eine starke Tendenz zu einer Teilmenge der Sammlung festgestellt. Viele Patente haben entweder einen sehr niedrigen Wiederauffindbarkeits-Score oder sind über keine Abfrage auffindbar. Um die Auffindbarkeit von Patenten zu erhöhen, erweitern wir in diesem Artikel aus Abfragepatenten generierte Abfragen nach dem Stand der Technik durch Abfrageerweiterung mit Pseudo-Relevanz-Feedback. Fehlende Begriffe aus Abfragepatenten werden aus Feedbackpatenten entdeckt, und bessere Patente für Relevanz-Feedback werden mithilfe eines neuartigen Ansatzes zur Überprüfung ihrer Ähnlichkeit mit Abfragepatenten identifiziert. Wir konzentrieren uns speziell auf die automatische Auswahl besserer Begriffe aus Abfragepatenten basierend auf ihrer Näheverteilung mit Abfragen nach dem Stand der Technik, die als Merkmale für die Berechnung der Ähnlichkeit verwendet werden. Unsere Ergebnisse zeigen, dass die Abdeckung von Suchanfragen nach dem Stand der Technik signifikant erhöht werden kann, indem relevante Suchanfragenbegriffe mithilfe von Suchanfragenerweiterungen integriert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12275-0_40 f2d367c004c52bddc37f712a48049239;de;;;7.2.;;;Ein iteratives Suffix-Stripping Tamil Stemmer Der Stammalgorithmus ist ein Verfahren, das versucht, alle abgeleiteten Formen eines Wortes einem einzigen Stamm, dem Stamm, zuzuordnen. Es wird häufig in Anwendungen zum Abrufen von Informationen mit dem Hauptziel verwendet, den Erinnerungsfaktor zu verbessern. Stemmer wird auch in verschiedenen anderen Anwendungen wie Zusammenfassung, Klassifikation und Text Mining usw. verwendet. Neben Englisch werden auch Untersuchungen zur Entwicklung von Stemmern sowohl für die Muttersprache als auch für die Regionalsprachen durchgeführt. In diesem Artikel präsentieren wir einen Stemmer für Tamil, eine dravidische Sprache. Unsere Stemmer-Wirksamkeit beträgt 84,79 %.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27443-5_67 725734cb7e3a3e5c76c100a8867f8a96;de;;;7.2.;;;Stärkung der Fähigkeit von Wirtschaftsstudenten, ethische Fragen zu erkennen: Eine empirische Bewertung der Wirksamkeit eines Studiengangs in Wirtschaftsethik Dieser Beitrag präsentiert die Ergebnisse einer Studie über die Wirkung eines Wirtschaftsethikkurses auf die Verbesserung der Fähigkeit der Studierenden, ethische Probleme zu erkennen. Die Ergebnisse zeigen, dass Studenten, die in einen Wirtschaftsethikkurs eingeschrieben sind, im Vergleich zu Studenten, die einen solchen Kurs nicht abschließen, eine erhebliche Verbesserung dieser Fähigkeit erfahren.;-;-;-;https://link.springer.com/article/10.1023/A%3A1005740505208 7fa858645a12af001ef203c5670d7ce4;de;;;7.2.;;;Chinesische natürliche Chunk-Forschung basierend auf natürlichen Annotationen in Massive Scale Corpora Mit der raschen Inflation der Korporaskala treten große Veränderungen in der Forschung zur Verarbeitung natürlicher Sprache (NLP) auf. NLP, das auf massiven natürlichen Annotationen basiert, hat sich zu einem neuen Forschungs-Hotspot entwickelt. Wir haben den Stand der Technik im Bereich NLP basierend auf massiven natürlichen annotierten Ressourcen zusammengefasst und ein neues Konzept von „Natural Chunk“ vorgeschlagen. In der Arbeit haben wir sein Konzept und seine Eigenschaften analysiert und Experimente zur natürlichen Chunk-Erkennung durchgeführt, die die Machbarkeit der natürlichen Chunk-Erkennung basierend auf natürlichen Annotationen zeigen. Die chinesische Natural-Chunk-Forschung als neue Forschungsrichtung in der Sprachgrenzenerkennung hat positive Einflüsse auf die chinesische Computertechnik und eine vielversprechende Zukunft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41491-6_2 ee8523bae3b8053c2efb3ec647af98b4;de;;;7.2.;;;Auf dem Weg zur Benutzerbewertung von IT-Sicherheitszertifizierungssystemen: Ein vorläufiger Rahmen Dieses Papier berichtet über einen vorläufigen Rahmen, der die Bewertung, den Vergleich und die Auswahl von IT-Sicherheitszertifizierungssystemen durch die Interessenvertreter unterstützt. Der Rahmen kann den Benutzern bei der Auswahl des am besten geeigneten Programms helfen, um ihren besonderen Bedürfnissen gerecht zu werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-72367-9_43 c100de86ce134a0f793ea95ac5bd8e93;de;;;7.2.;;;Integration von Sicherheit in die Systementwicklung Es gibt Vorschläge, dass Sicherheit ein integrierter Bestandteil jeder Systementwicklungsmethode sein kann. Eine Möglichkeit, dies zu tun, ist die Verwendung einer Meta-Methodik. Mit dieser Theorie als führendem Star wird ein Modell, das Pentagon-Modell genannt, als Brücke zwischen der Methode des Systems Lifecycle (SLC) und den Sicherheitstools eines Unternehmens gebaut. Das Modell beschreibt, was zu tun ist, um sicherere Informationssysteme zu entwickeln, anstatt eine detaillierte Beschreibung zu geben, wie man bei dieser Arbeit erfolgreich sein kann. Das Sicherheitsniveau der Systeme wird vom Kontext bestimmt und ist von Fall zu Fall unterschiedlich. Dies erfordert ein flexibles Werkzeug zur Integration geeigneter Sicherheitslösungen für jedes System. Das Pentagon-Modell wurde entwickelt, um mit dem SLC zusammenzuarbeiten, einem Ansatz, der heute von den meisten Entwicklern verwendet wird. Auf diese Weise eliminieren wir das Re-Engineering des Modells, um es in verschiedene Projekte zu passen, was bei einem festen und statischen Modell erforderlich sein könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35691-4_14 7427d0ef82d0436da142684ceffec4c0;de;;;7.2.;;;D2S: Document-to-Sentence-Framework zur Erkennung von Neuheiten Die Neuheitserkennung zielt darauf ab, neuartige Informationen aus einem eingehenden Dokumentenstrom zu identifizieren. In diesem Papier schlagen wir ein neues Framework für die Erkennung von Neuheiten auf Dokumentebene mithilfe von Document-to-Sentence (D2S)-Annotationen vor und diskutieren die Anwendbarkeit dieser Methode. D2S segmentiert ein Dokument zunächst in Sätze, bestimmt die Neuheit jedes Satzes und berechnet dann die Neuheitsbewertung auf Dokumentebene basierend auf einem festen Schwellenwert. Experimentelle Ergebnisse zu APWSJ-Daten zeigen, dass D2S die standardmäßige Neuheitserkennung auf Dokumentebene in Bezug auf Redundanzpräzision (RP) und Redundanzrückruf (RR) übertrifft. Wir haben D2S auf die Daten auf Dokumentebene des TREC 2004 und TREC 2003 Novelty Track angewendet und festgestellt, dass D2S bei der Erkennung neuartiger Informationen in Daten mit einem hohen Prozentsatz neuartiger Dokumente nützlich ist. D2S zeigt jedoch eine starke Fähigkeit, redundante Informationen unabhängig vom Prozentsatz neuartiger Dokumente zu erkennen. D2S wurde erfolgreich in ein reales Neuheitserkennungssystem integriert.;-;-;-;https://link.springer.com/article/10.1007/s10115-010-0372-2 d125fa87e72b6510e000b1696add9d7e;de;;;7.1.;;;Zur Planung von FTTH-Zugangsnetzen mit und ohne Redundanz Dieses Papier präsentiert eine Planungsanalyse von FTTH-Zugangsnetzen mit und ohne Redundanz. Herkömmlicherweise werden Zugangsnetze nur ohne Redundanz geplant, was hauptsächlich auf die Senkung der Bereitstellungskosten zurückzuführen ist. Da Glasfaser eine enorme Kapazität bereitstellt, werden immer mehr Dienste auf einem einzigen Glasfaseranschluss angeboten. Daher ist Redundanz sehr wichtig, da ein einzelner Fehlerpunkt in einer Glasfaserverbindung mehrere Dienste entziehen kann. In dieser Arbeit wurde ein automatisiertes Planungsmodell verwendet, um verschiedene Implementierungsszenarien zu testen. Die Kostenschätzung wird in Bezug auf das Graben und die verwendete Fasermenge angegeben. Drei Topologien, darunter die traditionelle „Baumtopologie“, wurden mit einer Kombination verschiedener passiver optischer Technologien getestet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15479-9_31 d33899dc3ca15e7b9bd308d2524add71;de;;;7.2.;;;Merkmalsextraktion und -auswertung mit Edge Histogram Descriptor in MPEG-7 Gemäß der Definition des Kantenhistogrammdeskriptors (EHD) in MPEG-7 kann man leicht ein zusätzliches Histogramm-Bin aus dem 5-Bin-Lokal-Kantenhistogramm jedes 4 × 4-Teilbilds erzeugen. Dieses zusätzliche Histogramm-Bin definiert das Verhältnis des Nicht-Randbereichs (d. h. des monotonen Bereichs) im Unterbild. Wenn wir einen Merkmalsvektor mit 6 Kanten-/Nicht-Kantentypen bilden, können wir 33 verschiedene Merkmalsvektoren (oder 33 × 6 = 198 Merkmalselemente) generieren, darunter 16 Vektoren aus 4 × 4 Unterbildern, 1 Vektor aus einem globalen Histogramm, 13 Vektoren aus halbglobalen Histogrammen, 1 Vektor aus Entropie und 2 Vektoren aus Schwerpunkten. Ein statistischer Hypothesentest wird verwendet, um zu sehen, welche Merkmalsvektoren/Elemente am informativsten sind, um verschiedene Bildklassen zu unterscheiden. Experimentelle Ergebnisse zeigen, dass Nicht-Kanten- und Entropiemerkmale die informativsten Merkmale unter allen 33/198 Merkmalsvektoren/-elementen sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30543-9_73 064fbef9b95f29acf3fbf71a4c129824;de;;;7.2.;;;Benchmarking-Bildqualitätsbewertung von Bildschirminhalten in einem räumlichen psychovisuellen Modulationsanzeigesystem Spatial Psychovisual Modulation (SPVM) ist eine neuartige Informationsanzeigetechnologie, die darauf abzielt, gleichzeitig mehrere visuelle Wahrnehmungen für verschiedene Betrachter auf einem einzigen Display zu erzeugen. Das SPVM-System spielt eine wichtige Rolle bei der Informationssicherheit. In einem SPVM-System können die Zuschauer, die eine Polarisationsbrille tragen, ein bestimmtes Bild (genannt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-77380-3_60 baac3f6d440a77321b52965bedb88d89;de;;;7.2.;;;Ein Evaluationsrahmen für Frage-Antwort-Systeme Die Bewertung komplexer Systeme ist eine komplexe Aufgabe. Jedes Jahr werden Evaluierungskampagnen organisiert, um verschiedene Systeme anhand globaler Ergebnisse zu testen, aber sie bewerten nicht die Relevanz der verwendeten Kriterien. Unser Ziel besteht darin, die von den Komponenten erzeugten Zwischenergebnisse zu modifizieren und die neuen Ergebnisse in den Prozess einzufügen, ohne die Komponenten zu ändern. Wir werden unseren Rahmen der Glasbox-Bewertung beschreiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00958-7_78 8afc8d4857b11e64150d6bb57f8634bd;de;;;7.2.;;;Modellierung von verteilten intelligenten Überwachungssystemen zur Leistungsbewertung In den letzten Jahren ermöglicht die Senkung der Hardwarekosten und die zeitgemäße Steigerung der Verarbeitungskapazitäten die Entwicklung immer komplexerer Überwachungssysteme mit Hunderten von Sensoren, die in großen Gebieten eingesetzt werden. Es stehen jetzt neue Funktionalitäten zur Verfügung, wie Szenenverständnis, kontextabhängige Verarbeitung und benutzergesteuerte Funktionsauswahl in Echtzeit. Der effiziente Einsatz dieser Werkzeuge in architektonisch komplexen Systemen für eine fortschrittliche Szenenanalyse erfordert die Entwicklung spezifischer Datenfusionsalgorithmen, die in der Lage sind, Informationen aus mehreren Quellen zusammenzuführen, die von einer Vielzahl homogener oder heterogener Sensoren bereitgestellt werden. In diesem Zusammenhang ist die Möglichkeit der Verteilung der Intelligenz eines der innovativeren und interessanteren Forschungsfelder für solche Systeme. Daher konzentrieren sich mehrere Studien darauf, wie die logischen Aufgaben zwischen intelligenten Sensoren, zwischengeschalteten Verarbeitungsknoten und Kontrollzentren aufgeteilt werden können. Typische Aufgaben von Überwachungssystemen (Kontextanalyse, Objekterkennung, Verfolgung...) sind in hierarchischen Ketten organisiert, wobei niedrigere Ebenen in den Architekturen Eingabedaten für übergeordnete Aufgaben bereitstellen. Jedes Element der Architektur ist zur autonomen Datenverarbeitung fähig. Die Komplexität solcher Systeme unterstreicht die Bedeutung guter Entwurfsentscheidungen sowohl für die logische als auch für die physikalische Architektur. Das Hauptziel dieses Buchkapitels ist die Darstellung möglicher Lösungen zur Bewertung der Gesamtleistung und technischen Machbarkeit sowie der Wechselwirkungen der Teilbereiche verteilter Multisensor-Überwachungssysteme. Die Leistungsbewertung einer hierarchischen Architektur mit mehreren Ebenen bezieht sich nicht nur auf die Genauigkeit der beteiligten Algorithmen, sondern es müssen mehrere andere Aspekte berücksichtigt werden, wie die Datenkommunikation zwischen intelligenten Sensoren und Knoten auf höherer Ebene, die Rechenkomplexität und der verwendete Speicher. Um dann ein Verfahren zur Bewertung der Leistung dieser Art von Systemen zu definieren, wurde ein allgemeines Modell von intelligenten Sensoren, Zwischenverarbeitungsknoten und Kontrollzentren unter Berücksichtigung der Elemente untersucht, die an verteilten Überwachungsaufgaben mit mehreren Sensoren beteiligt sind. Die Vorteile der vorgeschlagenen Architekturanalysemethode sind: 1) die Ermöglichung eines quantitativen Vergleichs verschiedener Überwachungsstrukturen durch die Bewertung von Leistungskennzahlen und 2) die Validierung der Algorithmusauswahl in Bezug auf die physische Struktur (Kommunikationsverbindungen, Rechenlast...) erhältlich. Abschließend werden Beispielstrukturen verglichen, um die beste Lösung für einige Benchmark-Probleme zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18278-5_2 5d1bd56587a30ab917939b286752ebd6;de;;;7.2.;;;Cov-HGMEM: Ein verbesserter hierarchischer Clustering-Algorithmus In diesem Papier stellen wir eine verbesserte Methode für das hierarchische Clustering von Gaußschen Mischungskomponenten vor, die aus dem Hierarchical Gaußian Mixture Expectation Maximization (HGMEM)-Algorithmus abgeleitet wurde. Wie HGMEM funktioniert, ist es effizient, eine große Mischung von Gauß'schen in eine kleinere Mischung zu reduzieren, während die Komponentenstruktur der ursprünglichen Mode noch erhalten bleibt. Im Vergleich zum HGMEM-Algorithmus berücksichtigt er die Kovarianz im Expectation-Step, ohne den Maximization-Step zu beeinflussen, wodurch eine übermäßige Expansion einiger Komponenten vermieden wird, und wir nennen es einfach Cov-HGMEM. Bildwiederherstellungsexperimente zeigen, dass unser vorgeschlagener Algorithmus die zuvor vorgeschlagene Methode übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68636-1_42 47ae8a9be54345c9802f88fcb64a3e02;de;;;7.2.;;;Hierarchischer Bewertungsalgorithmus der Logistiktragfähigkeit basierend auf Transferlernen in einer multimedialen Umgebung Um die Tragfähigkeit des regionalen Logistiksystems wissenschaftlich zu messen und zu verbessern und die Effizienz des regionalen Logistiksystems aus der Perspektive einer nachhaltigen Entwicklung voll auszuschöpfen, analysiert dieser Beitrag die Netzwerktopologiestruktur des regionalen Logistiksystems. Durch die Kombination der Komponentenelemente und des Betriebsflusses des regionalen Logistiksystems nehmen wir Verbindungsleitung, Betriebskapazität und Energieumgebung als Randbedingungen und erstellen das Messmodell der Tragfähigkeit des regionalen Logistiksystems. Das integrierte Logistikmanagement erfordert eine systematische Integration verschiedener Verkehrsträger wie Autobahn-, Wasser-, Schienen- und Luftverkehr sowie des Netzwerks der Schlüsselknoten und deren Netzwerk. Daher müssen wir die verschiedenen Transportmodelle und die Methoden zur Berechnung der Knotentragfähigkeit lösen, die das Logistiksystem bilden. Daher analysiert dieser Beitrag die Konnotation, verschiedene Verkehrsträger und Hafenkapazitäten in Bezug auf das Konzept der Forschungsideen, Forschungsinstrumente und -methoden, die zugehörige Berechnungsformel, den Verkehrsfluss als Hauptlinie zur Konstruktion verschiedener Verkehrsträgertragfähigkeit zwischen der inneren Verbindung , und die Tragfähigkeitsformel jedes Verkehrsträgers zu einer einheitlichen Einheit, dem Verkehrsträger der koordinierten Entwicklung, die die Grundlage der Gesamtoptimierung und Entscheidung des Logistiksystems ist.;-;-;-;https://link.springer.com/article/10.1007/s11042-018-6000-y 9c3d8961c25550a7ebcfeb11071c0caa;de;;;7.1.;;;Internationaler Vertrieb Wenn Wirtschaftshistoriker auf die letzten 25 Jahre des 20. Jahrhunderts und den Beginn des neuen Jahrtausends zurückblicken, wird eine der hervorstechendsten Entwicklungen die Entstehung der Weltwirtschaft sein. Nach dem Zweiten Weltkrieg blieben die meisten Produktions- und Vertriebsunternehmen mehrere Jahrzehnte lang innerhalb ihrer eigenen Landesgrenzen. Obwohl einige der weltweit größten Konzerne wie Coca-Cola, Ford Motor und Procter & Gamble in der Vergangenheit einen bedeutenden internationalen Handel betrieben hatten, befürchteten die Regierungen den Export von Technologie und Reichtum, die angesichts der Kälte nationale Ressourcen erschöpfen könnten Krieg. In vielen Fällen wurden ganze Märkte wie Osteuropa und China für die USA geschlossen. und europäischen Unternehmen. Heute, das Ende des Kalten Krieges, haben die Verbindungsfähigkeiten von Informationstechnologien wie dem Internet und der Einsatz globaler Outsourcing-Strategien das Wachstum des internationalen Marktes und die Integration der weltweiten Wirtschaftsaktivitäten beschleunigt. Die alte Sowjetunion und die Schwellenländer Osteuropas erbitten nun offen politische Allianzen, Wirtschaftshilfe, Handelsstatus und Investitionen aus dem Westen. Die Europäische Union hat eine gemeinsame Währung und nähert sich der vollständigen Beseitigung von Handelshemmnissen. Der vielleicht fruchtbarste Bereich des Wirtschaftswachstums, der pazifische Raum, strebt nach einem günstigen Handelsstatus und dem Import ausländischer Waren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-8939-0_13 3a8fe44ff9de8ef98a212a77f4d5597a;de;;;7.1.;;;Kundenorientiertes Management von Änderungen in ERP-Systemen: Die Anbieterseite In dem Papier wird ein Geschäftsfall erörtert, bei dem die Bereitstellung der Enterprise-Resource-Planning-Lösung (ERP) durch den Kunden in die Software von Drittanbietern integriert wird. Das Änderungsmanagement des Kunden hängt stark von den Informationen des Anbieters über Änderungen zwischen ERP-Versionen ab. Das Problem besteht darin, dass der Anbieter die Auswirkungen implementierter Änderungen auf das Geschäft jedes Kunden nicht vorhersagen kann. In der vorgeschlagenen konzeptionellen kundenorientierten Lösung bewertet das Conjoint-Assessment den Umfang, den Umfang und die Wesentlichkeit von ERP-Änderungen, um Daten zu Änderungen für einen bestimmten Kunden bereitzustellen. Das resultierende Differenzmodell könnte mit Ergebnissen der Analyse gesammelter Zugriffsstatistiken für ERP-Pakete des Kunden erweitert werden. Die Lösung verwendet ein einheitliches Datenformat für den Datenaustausch. Das endgültige Modell von ERP-Änderungen und deren Wesentlichkeit für einen bestimmten Kunden konnte für die weitere Anwendung visualisiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11370-8_23 c7e0554f858c68214d57e3efc580dd8a;de;;;7.1.;;;Die systematische Einbindung von Stakeholdern in Fabrikplanung, Bau und Fabrikbetrieb zur Steigerung der Akzeptanz und Vermeidung von Störungen Der Bau von Fabriken basiert auf dem Fabrikplanungsprozess. Ein Neubau von Fabriken oder deren Erweiterung stellt für Unternehmen eine bedeutende Investitionsentscheidung dar. Daher ist es aus wirtschaftlicher Sicht erforderlich, einen störungsfreien Ablauf zu ermöglichen. Aktuelle Trends wie urbane Fabriken erhöhen die Wahrscheinlichkeit von Konflikten mit externen Stakeholdern. Dies bedeutet in vielen Fällen hohe Zusatzkosten und Risiken für die betroffenen Unternehmen. Die Auswertung aktueller Fallstudien zeigt, dass das Ignorieren einzelner Stakeholder bei der Planung zu Verzögerungen oder im schlimmsten Fall zum Stillstand des Fabrikprojekts führen kann. Ziel dieses Beitrags ist es, den aktuellen Stand der Stakeholder-Integration in Fabrikplanung, Fabrikbau und Fabrikbetrieb in Forschung und Praxis darzustellen. Basierend auf den Ergebnissen eines Forschungsprojekts in Deutschland werden Studien vorgestellt und notwendige Handlungsfelder identifiziert. Anschließend wird ein Konzept abgeleitet, das die systematische und projektspezifische Einbindung von Stakeholdern in den Fabrikplanungsprozess ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29996-5_62 d56bb33afafb5ff7d61b77ad72179d0d;de;;;7.2.;;;Leistungsbewertung von H.264-Mapping-Strategien über IEEE 802.11e WLAN für robustes Videostreaming In diesem Artikel schlagen wir mehrere Mapping-Schemata für das Streaming von Video vor, das durch den hochmodernen H.264-Codec über IEEE 802.11e-fähige Wireless-LANs generiert wird. Die Schemata nutzen sowohl den QoS-Mechanismus von 802.11e als auch einige neuartige Funktionen des H.264-Codecs, um die wichtigsten Informationen in Bezug auf die visuelle Qualität zu schützen und Verzerrungen bei Netzwerkstau zu reduzieren. Die vorgeschlagenen Methoden werden mit Hilfe des H.264-Referenzsoftware-Codecs, Netzwerksimulation und objektiver Videoqualitätsmessungen evaluiert. Die Ergebnisse zeigen, dass die vorgeschlagenen Methoden ein robustes und fehlerresistentes H.264-Videostreaming über drahtlose LANs erreichen als herkömmliches Best-Effort-Streaming.;-;-;-;https://link.springer.com/chapter/10.1007/11582267_71 b3431d2b3ca1610b0208b930047638b8;de;;;7.2.;;;XML-Dokumente durchsuchen – Vorarbeit Der strukturierte Dokumentenabruf zielt darauf ab, die Struktur zusammen mit dem Inhalt von Dokumenten zu nutzen, um die Abrufergebnisse zu verbessern. Mehrere Aspekte des traditionellen Informationsabrufs, der auf flache Dokumente angewendet wird, müssen überdacht werden. Dazu gehören insbesondere die Dokumentendarstellung, -speicherung, -indexierung, -auffindbarkeit und -ranking. Dieses Papier skizziert die Architektur unseres Systems und die Anpassung des Standard-Vektorraummodells, um ein fokussiertes Abrufen zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-34963-1_9 19864257b4d9585416ade9742c6e4263;de;;;7.2.;;;Design von satellitengestützten Multimedia-Content-Distributionssystemen und Metriken für die Systembewertung Das Wachstum des Internets stellt hohe Anforderungen an die bestehende Telekommunikationsinfrastruktur. Insbesondere die Zunahme von Download-Zugriffen von filmartigen Inhalten hat den Web-Verkehr sehr sprunghaft gemacht, und dies ist zu einem signifikanten Problem für Internet-Benutzer geworden. In diesem Papier schlagen wir zur Lösung des Problems des Herunterladens von Multimediainhalten ein neues digitales Satellitenrundfunkdienstsystem vor, um eine globale Verteilung von Multimediainhalten bereitzustellen. Neue Planungsalgorithmen namens;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-66979-1_9 c30de327747b65da335077afd512d9ca;de;;;7.2.;;;Bewertung der Expertensuche durch unterstützende Dokumente Ein Expertensuchsystem unterstützt Benutzer bei ihrem „Expertise-Bedarf“, indem es Personen mit relevantem Fachwissen zu ihrer Anfrage vorschlägt. Die meisten Systeme arbeiten, indem sie Dokumente als Antwort auf die Abfrage einstufen und dann die Kandidaten unter Verwendung von Informationen aus dieser anfänglichen Dokumentenrangfolge und bekannten Verknüpfungen zwischen Dokumenten und Kandidaten ordnen. In diesem Beitrag wollen wir feststellen, ob wir eine Bewertung des Expertensuchsystems anhand des zugrunde liegenden Dokumentenrankings approximieren können. Wir bewerten die Genauigkeit unserer Bewertung des Dokumentenrankings, indem wir beurteilen, wie eng jedes Maß mit der Ground-Truth-Bewertung des Kandidatenrankings korreliert. Interessanterweise stellen wir fest, dass eine Verbesserung des zugrunde liegenden Rankings von Dokumenten nicht unbedingt zu einem verbesserten Kandidatenranking führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78646-7_55 d807629527e941cb29681ce533ceefdf;de;;;7.2.;;;Qualitätsbewertung von Standpunkten für eine erweiterte virtuelle Umgebung Augmented Virtual Environment (AVE) kombiniert Echtzeit-Videostreaming mit virtuellen Szenen, um eine neue Fähigkeit der realen Laufzeitwahrnehmung bereitzustellen. Obwohl diese Technik seit vielen Jahren entwickelt wurde, leidet sie immer noch unter der Fusionskorrektheit, Komplexität und der Bildverzerrung beim Fliegen. Die Bildverzerrung könnte üblicherweise in einem AVE-System gefunden werden, das vom Standpunkt der Umgebung bestimmt wird. In bestehenden Arbeiten fehlt die Bewertung der Sichtpunktqualität, und dann ist es nicht gelungen, den Flugweg für AVE zu optimieren. In diesem Beitrag schlagen wir eine neuartige Methode der Viewpoint Quality Evaluation (VQE) vor, die Texturverzerrung als Bewertungsmetrik verwendet. Die Texturdehnung und das Objektfragment werden als Hauptverzerrungsfaktoren angesehen. Wir vergleichen unsere Methode visuell mit der Blickpunktentropie in der Campus-Szene und zeigen, dass unsere Methode im Hinblick auf den Verzerrungsgrad überlegen ist. Darüber hinaus führen wir eine Anwenderstudie durch, die zeigt, dass unsere Methode für die qualitativ hochwertige Demonstration mit Blickwinkelsteuerung für AVE geeignet ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00764-5_21 688f21f6d68aaaf915c94947b6a360f1;de;;;7.2.;;;Leistungsbewertung der Verteilung im Verteilzentrum des Kettensupermarktes basierend auf einem nicht ermittelten und analytischen hierarchischen Modell Um die Effizienz zu verbessern, die unterschiedlichen Anforderungen der Geschäfte zu erfüllen, die Kunden zufrieden zu stellen und die Vertriebsaktivitäten zu perfektionieren, wird die Leistungsbewertung der Distribution im Distributionszentrum der Supermarktkette durchgeführt. Zunächst werden die Schlüsselfaktoren, die die Leistung des Verteilzentrums der Supermarktkette beeinflussen, analysiert und ein Bewertungsindexsystem in dem Papier eingeführt. Anschließend werden die Indexgewichte durch das Analytic Hierarchical Model (AHM) bestimmt und eine umfassende Auswertung mit Hilfe der nicht ermittelten Maßtheorie durchgeführt. Schließlich hat sich die Methode, die eine Untersuchung der Leistungsentwicklung von Verteilzentren darstellt, anhand des Beispiels als anwendbar und sinnvoll erwiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-7010-6_146 6016abca39db14f2243a60bc1a4eb81a;de;;;7.2.;;;Soziale Bildersuche mit unterschiedlichem Relevanz-Ranking In den letzten Jahren haben viele Online-Social-Media-Websites Erfolg gehabt, die es Benutzern ermöglichen, Medieninformationen zu erstellen und zu teilen sowie Medieninhalte mit Tags zu beschreiben. Die bestehenden Ranking-Ansätze für die tagbasierte Bildsuche liefern jedoch häufig irrelevante oder wenig unterschiedliche Ergebnisse. Dieser Beitrag schlägt ein Diversity-Relevanz-Ranking vor, das gleichzeitig Relevanz und Diversität berücksichtigen kann. Es nutzt sowohl den Inhalt von Bildern als auch die zugehörigen Tags. Erstens schätzt es die Relevanzbewertungen von Bildern in Bezug auf den Abfragebegriff basierend sowohl auf den visuellen Informationen der Bilder als auch auf den semantischen Informationen der zugehörigen Tags. Dann untersuchen wir die semantischen Ähnlichkeiten sozialer Bilder anhand ihrer Tags. Mit den Relevanzwerten und den Ähnlichkeiten wird die Rangliste durch einen Greedy-Ordering-Algorithmus generiert, der die Average Diversity Precision (ADP) optimiert, ein neuartiges Maß, das von der herkömmlichen Average Precision (AP) erweitert wird. Umfangreiche Experimente und Anwenderstudien belegen die Wirksamkeit des Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11301-7_20 424c07378a08669f1a017c653b6a60f7;de;;;7.2.;;;Logistische Regression von generischen Codebüchern für den semantischen Bildabruf In diesem Beitrag geht es darum, Bilder automatisch mit Schlagwörtern zu versehen, um Bilder mit Textsuchen wiederfinden zu können. Unser Ansatz besteht darin, Schlüsselwörter wie „Berg“ und „Stadt“ anhand von visuellen Merkmalen zu modellieren, die aus Bildern extrahiert wurden. Im Gegensatz zu anderen Algorithmen berücksichtigt jedes spezifische Schlüsselwortmodell nicht nur seine eigenen Trainingsdaten, sondern auch das gesamte Trainingsset, indem Korrelationen von visuellen Merkmalen verwendet werden, um sein eigenes Modell zu verfeinern. Zunächst gruppiert der Algorithmus alle visuellen Merkmale, die aus dem vollständigen Bildsatz extrahiert wurden, erfasst seine hervorstechende Struktur (z. B. eine Mischung von Clustern oder Mustern) und stellt diese als generisches Codebuch dar. Dann werden Schlüsselwörter, die Bildern im Trainingssatz zugeordnet waren, als eine lineare Kombination von Mustern aus dem generischen Codebuch codiert. Wir bewerten die Gültigkeit unseres Ansatzes in einem Bildabrufszenario mit zwei unterschiedlichen großen Datensätzen von Fotos aus der realen Welt und entsprechenden manuellen Anmerkungen.;-;-;-;https://link.springer.com/chapter/10.1007/11788034_5 1514053749cd610c06879f18a087cd77;de;;;7.2.;;;AutoEval: Eine Bewertungsmethodik zur Bewertung von Abfragevorschlägen mit Abfrageprotokollen Nutzerbewertungen von Suchmaschinen sind teuer und nicht einfach zu replizieren. Noch ausgeprägter ist das Problem bei der Bewertung adaptiver Suchsysteme, zum Beispiel systemgenerierte Änderungsvorschläge für Abfragen, die aus früheren Benutzerinteraktionen mit einer Suchmaschine abgeleitet werden können. Automatische Vorhersage der Leistung verschiedener Modelle mit Änderungsvorschlägen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20161-5_60 f874522b38cff9a9ff9a64137a19820b;de;;;7.2.;;;Bewertung der Audioqualitätsanforderungen über längere Zeiträume unter Verwendung von audiovisuellen Inhalten von langer Dauer Mit unserer neuartigen Methodik zur Qualitätsbewertung von Multimedia-Inhalten mit langer Dauer wurde der Einfluss der Zeitdimension auf Qualitätsbewertungen und Nutzerreaktionen untersucht. Uns interessierte insbesondere, wie Audioartefakte im Zusammenhang mit unterschiedlichen Kompressionsraten die Reaktionen der Teilnehmer auf Qualitätsänderungen über längere Zeiträume beeinflussen. Durch den Einsatz des Mixed-Effects-ANOVA-Modells haben wir Abhängigkeiten zwischen Zeiträumen und deren Fehlen zwischen den Probanden aufgedeckt. Es stellte sich heraus, dass die Qualitätserwartungen der Teilnehmer über die gesamte Dauer des Clips eher konstant sind, was auch für die Reaktionszeit der Probanden auf Qualitätseinbußen gilt. Weiterhin zeigte sich, dass die Probanden gegenüber Qualitätsveränderungen wesentlich sensibler reagierten, wenn sie die Qualität selbst beeinflussen konnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34778-8_2 680b788977b8b7789301191369d36224;de;;;7.2.;;;GQL: Xquery erweitern, um GML-Dokumente abzufragen GML wird zum De-facto-Standard für den elektronischen Datenaustausch zwischen den Anwendungen des Webs und verteilter geografischer Informationssysteme. Die herkömmlichen Abfragesprachen (z. B. SQL und seine erweiterten Versionen) sind jedoch nicht für die direkte Abfrage und Aktualisierung von GML-Dokumenten geeignet. Selbst die effektiven Ansätze, die gut mit XML funktionieren, können keine guten Ergebnisse garantieren, wenn sie auf GML-Dokumente angewendet werden. Obwohl XQuery eine leistungsstarke Standard-Abfragesprache für XML ist, wird sie nicht für die Abfrage von räumlichen Merkmalen vorgeschlagen, die die wichtigsten Komponenten in GML-Dokumenten darstellen. Wir schlagen GQL vor, eine Abfragesprachenspezifikation zur Unterstützung räumlicher Abfragen über GML-Dokumente durch die Erweiterung von XQuery. Das Datenmodell, die Algebra und die formale Semantik sowie verschiedene räumliche Funktionen und Operationen der GQL werden ausführlich vorgestellt.;-;-;-;https://link.springer.com/article/10.1007/BF02826937 2a7890cc465b630a3fb6cad5b7fe3b58;de;;;7.2.;;;Messung der Wirksamkeitsvariabilität eines Retrievalsystems Eine typische Bewertung eines Retrievalsystems beinhaltet die Berechnung einer Effektivitätsmetrik, z.B. durchschnittliche Genauigkeit, für jedes Thema einer Testsammlung und dann den Durchschnitt der Metrik, z.B. mittlere durchschnittliche Präzision, um die Gesamteffektivität auszudrücken. Durchschnittswerte erfassen jedoch nicht alle wichtigen Aspekte der Effektivität und sind allein verwendet möglicherweise kein aussagekräftiges Maß für die Effektivität von Systemen. Tatsächlich müssen wir zusätzlich zum Durchschnitt die unterschiedlichen Effektivitätsunterschiede zwischen den Themen berücksichtigen. Wir bezeichnen diese Variante als die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13084-7_7 30acb408c42b6a93597ab59bf9d877bc;de;;;7.2.;;;Bewertung der Token-Bucket-Parameter für VBR MPEG-Video Die Gewährleistung der Dienstgüte (QoS) bei der Echtzeitübertragung von Video ist eine herausfordernde Aufgabe für den Erfolg vieler Videoanwendungen. Um die QoS zu garantieren, ist es notwendig, Verkehrsquellen mit der Fähigkeit zu versehen, die dem Netz zu deklarierenden Verkehrseigenschaften auf der Grundlage eines begrenzten Satzes von Parametern zu berechnen, die den Verkehr statistisch charakterisieren, und das erforderliche Niveau der QoS. In diesem Beitrag entwickeln wir einen Algorithmus zur Auswertung der Verkehrsparameter, die den Videostream bei gegebener QoS-Anforderung charakterisieren. Zu diesem Zweck wird ein analytisches Verkehrsmodell für das VBR-MPEG-Video eingeführt. Simulationsergebnisse zeigen, dass das vorgeschlagene Verfahren die Verkehrsparameter präzise und effizient auswerten kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30542-2_52 e59d1cac29c400499a8acbf55bed4aa1;de;;;7.2.;;;Überblick über KEYSTONE-Aktivitäten und -Ergebnisse zu Ausbildungsschulen Dieses Kapitel berichtet über die Ergebnisse und gibt einen kurzen Überblick über die Themen der 25 Vorträge und 8 Industrievorträge der drei im Rahmen der KEYSTONE (Semantic KEYword-based Search on sTructured data sOURcEs) organisierten Training Schools .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-74497-1_23 d5fad493e36a9ba8d59a5003501dcf5a;de;;;7.2.;;;Leistungsbewertung von Adaptive Rate Control (ARC) für Multimedia-Traffic Das Papier stellt einen Mechanismus zur adaptiven Ratensteuerung (ARC) vor, um die Leistung von Hochgeschwindigkeitsnetzwerken zu verbessern, um Multimediaverkehr abzuwickeln, indem das Zellenverlustverhältnis (CLR) für alle Zellenströme garantiert wird. Zuerst werden die Fälle diskutiert, in denen ein Tahoe-, Reno-, New-Reno-, SACK- und Plain-Schema bei der Spitzenzellenrate (PCR) anwendbar sind. Der ARC verbessert die Leistung, indem er das Inkrement (nach oben) und das Dekrement (nach unten) der Fenstergröße reguliert (Flusssteuerung). Die eingehende Verkehrsrate, die Anzahl der Zellenabfälle, die voreingestellte Größe des Fensters und die geschätzte Verzögerungszeit werden bei dieser Regelung berücksichtigt. In Simulationen wird untersucht, wie sich Tahoe, Reno, New Reno, SACK und „Plain“ verhalten können, wenn Staus bestanden. Dann vergleichen wir diese Ergebnisse von vier Schemata mit dem „einfachen“ Schema (keine Flusskontrolle anwendbar) und mit dem vorgeschlagenen ARC. Durch Ändern der Fenstergröße für die genannten sechs Schemata können wir die unterstützenden Ergebnisse erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30541-5_6 9a80189f71ee0008aa4d3db2a7232b9e;de;;;7.2.;;;Ein korpusbasierter Relevanz-Feedback-Ansatz für den mehrsprachigen Bildabruf Dieser Beitrag betrachtet Bilder mit Bildunterschriften als medienübergreifendes Parallelkorpus und stellt einen korpusbasierten Relevanz-Feedback-Ansatz vor, um die Ergebnisse visueller und textlicher Durchläufe zu kombinieren. Experimentelle Ergebnisse zeigen, dass dieser Ansatz gut funktioniert. Im Vergleich zur mittleren durchschnittlichen Präzision (MAP) des initialen visuellen Retrievals wird der MAP nach Relevanz-Feedback aus dem crossmedialen Parallelkorpus von 8,29 % auf 34,25 % erhöht. Der MAP des sprachenübergreifenden Bildabrufs wird von 23,99 % auf 39,77 % erhöht, wenn die Ergebnisse des Textlaufs und des visuellen Laufs mit Relevanz-Feedback kombiniert werden. Außerdem zeigen die einsprachigen Experimente auch die konsistenten Effekte dieses Ansatzes. Bei der Zusammenführung der Ergebnisse der Text- und Bildabfragen wird die MAP der einsprachigen Abfrage von 39,52 % auf 50,53 % verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/11878773_66 ef8c55fed95e8c28cc99faa07d79a87c;de;;;7.2.;;;Wilde Sätze zähmen In diesem Beitrag wird die Eignung verschiedener Dokumentendarstellungen für die automatische Dokumentenklassifizierung verglichen und dabei eine ganze Reihe von Darstellungen zwischen Wortbeutel und Wortschatz untersucht. Wir betrachten einige ihrer statistischen Eigenschaften und bestimmen für jede Darstellung die optimale Wahl der Klassifikationsparameter und die Wirkung der Begriffsauswahl.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36618-0_12 189f8f957672df846c6a6804d0cde17a;de;;;7.2.;;;Evaluierung eines auf Crossover-Router basierenden QoS-Mechanismus in schnellen mobilen IPv6-Netzwerken Ein „Crossover Router“ (CR)-basierter QoS-Bereitstellungsmechanismus unter einer verbesserten „Fast Handovers for Mobile IPv6“ (FMIPv6)-Architektur wurde vorgeschlagen, um eine bessere Leistung für Multimediaanwendungen in Mobile IPv6 (MIPv6)-Netzwerken bereitzustellen. In dem Vorschlag erweitern wir die FBU- und HI-Nachrichten, um die QoS-Anforderung von „Mobile Node“ (MN) zu melden. Vorausreservierungen entlang der möglichen zukünftigen Weiterleitungspfade werden nur zwischen CR und MN durchgeführt, um Reservierungssprünge und Signalisierungsverzögerungen zu reduzieren. In diesem Papier präsentieren wir die detaillierten Leistungsbewertungsergebnisse dieses Schemas im Vergleich zum „Mobile RSVP“ (MRSVP) Protokoll unter Verwendung des Netzwerksimulators (NS-2). In den Simulationen wurden RSVP-Signalisierungskosten, Gesamtbandbreitenanforderungen, RSVP-Signalisierung und Datenpaketverzögerung in verschiedenen Szenarien beider Schemata berücksichtigt. Die Ergebnisse zeigen, dass das vorgeschlagene Schema für die QoS-Garantie niedrigere RSVP-Signalisierungskosten und -verzögerung sowie geringere Bandbreitenanforderungen im Vergleich zu MRSVP hat. Darüber hinaus sind Fluktuation und Spitzenwerte von Datenpaketverzögerungen in verschiedenen Szenarien viel geringer.;-;-;-;https://link.springer.com/chapter/10.1007/11582267_36 91001d1fac2236317ac2e755f955d124;de;;;7.2.;;;Leistungsbewertung von Hochgeschwindigkeits-TCP-Protokollen mit Pacing Die Überlastungssteuerungsmechanismen des aktuellen Standard-TCP können aufgrund seiner langsamen Reaktion mit einem großen Überlastungsfenster auf Probleme in Hochgeschwindigkeits-Weitbereichsnetzwerken stoßen. Es wurden bereits mehrere Vorschläge zur Überlastungssteuerung vorgeschlagen, um dieses Problem zu lösen und hauptsächlich zwei Eigenschaften zu berücksichtigen: TCP-Freundlichkeit und Bandbreitenskalierbarkeit, um sicherzustellen, dass ein Protokoll TCP nicht zu viel Bandbreite wegnimmt, während es die volle Bandbreite von Hochgeschwindigkeitsnetzwerken nutzt. Weitere Studien zur TCP-Freundlichkeit von Hochgeschwindigkeits-TCP sind jedoch noch erforderlich. Jüngste Studien haben gezeigt, dass bestehende Schemata ein schwerwiegendes RTT-Unfairness-Problem aufweisen, bei dem konkurrierende Ströme mit unterschiedlichen RTTs beträchtliche unfaire Bandbreitenanteile verbrauchen können. Burstiness ist einer der Hauptgründe für solche Probleme. Da das durch eine Hochgeschwindigkeits-TCP-Verbindung erreichte Überlastungsfenster ziemlich groß sein kann, besteht eine große Wahrscheinlichkeit, dass der Sender einen großen Paketburst überträgt. Als solche können die aktuellen Überlastungskontrollmechanismen von Hochgeschwindigkeits-TCP zu stoßartigen Verkehrsflüssen in Hochgeschwindigkeitsnetzwerken führen, mit negativen Auswirkungen sowohl auf die TCP-Freundlichkeit als auch auf die RTT-Ungerechtigkeit. Die vorgeschlagene Lösung für diese Probleme besteht darin, Pakete, die in das Netzwerk gesendet werden, über eine gesamte Umlaufzeit gleichmäßig zu verteilen oder zu takten, so dass Pakete nicht in einem Burst gesendet werden. Dementsprechend bewertet das aktuelle Papier diesen Ansatz mit einem Produktnetzwerk mit hoher Bandbreitenverzögerung und zeigt, dass das Pacing eine bessere TCP-Freundlichkeit und RTT-Fairness bietet, ohne die Bandbreitenskalierbarkeit zu beeinträchtigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30542-2_40 e39b24a0eda6a6fc3a6176646ab02bf1;de;;;7.2.;;;VoIP-Qualitätsbewertung in Mobilfunknetzen Die Verwaltung der Sprachdienstqualität sowohl über IP-basierte verkabelte als auch über drahtlose Netzwerke ist zu einer Herausforderung geworden, insbesondere in einer heterogenen Netzwerkumgebung. In diesem Papier werden die Probleme erörtert, die die Sprachqualität in einem Mobilfunknetz beeinflussen. Wir vergleichen die Qualität der drahtlosen Voice over IP (VoIP) unter Verwendung einer Kombination von Sprachcodecs und drei Mobility Management Protocols (MMP), die Mobile IPv6 (MIP), Hierarchical Mobile IPv6 (HMIP) und das vorgeschlagene Hierarchical Mobile IPv6 with Buffering Extension sind . Die Bewertung basiert auf den von der ITU-T empfohlenen MOS (Mean Opinion Score) und E-Modell-Faktoren. Auch zeitlich veränderliche Beeinträchtigungen werden berücksichtigt. Unsere Bewertung zeigt, dass der vorgeschlagene MMP eine höhere Sprachqualitätsleistung insbesondere für Sprachcodecs mit niedriger Bitrate bietet.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36228-2_85 7c757d68512d964900b3d132f67dd9e5;de;;;7.2.;;;CUHK auf der ImageCLEF 2005: Sprach- und medienübergreifender Bildabruf In diesem Beitrag beschreiben wir unsere Studien zur sprach- und medienübergreifenden Bildsuche beim ImageCLEF 2005. Dies ist die erste Teilnahme unserer CUHK (The Chinese University of Hong Kong) Gruppe bei ImageCLEF. Die Aufgabe, an der wir teilgenommen haben, ist die Aufgabe „zweisprachige Ad-hoc-Suche“. Es gibt drei große Schwerpunkte und Beiträge in unserer Beteiligung. Die erste ist die empirische Bewertung von Sprachmodellen und Glättungsstrategien für die sprachübergreifende Bildsuche. Die zweite ist die Auswertung der crossmedialen Bildsuche, d. h. die Kombination von Text- und Bildinhalten zur Bildsuche. Die letzte ist die Auswertung der zweisprachigen Bildsuche zwischen Englisch und Chinesisch. Wir bieten eine empirische Analyse unserer experimentellen Ergebnisse, bei der unser Ansatz das beste mittlere durchschnittliche Präzisionsergebnis in der einsprachigen Abfrageaufgabe in der Kampagne erzielt. Abschließend fassen wir unsere empirischen Erfahrungen zusammen und adressieren die zukünftige Verbesserung unserer Arbeit.;-;-;-;https://link.springer.com/chapter/10.1007/11878773_67 bfbc6e25811afaff08184d46b04f92bf;de;;;7.2.;;;Fusion mehrerer visueller Funktionen zur Bewertung der Bildkomplexität Trotz der breiten Anwendung im Bereich der Computer Vision und der kognitiven Forschung bleibt die Definition eines effektiven Komplexitätsmaßes für Farbbilder eine herausfordernde Aufgabe. Herkömmliche Ansätze bauen im Allgemeinen auf der Informationstheorie oder einem bestimmten visuellen Merkmal auf. In diesem Artikel schlagen wir eine neue Methode vor, die mehrere effektive visuelle Merkmale wie Farbe, Störflecken und die Anzahl der Objekte direkt ausnutzt, um die Komplexität von Farbbildern zu messen. Darüber hinaus präsentieren wir ein Fuzzy-Clustering-Modell zur Kombination aller vorgeschlagenen Merkmale, das spezifische Bewertungen zur Bewertung der Bildkomplexität liefert. Experimentelle Ergebnisse werden präsentiert und zeigen eine gute Übereinstimmung zwischen der vorgeschlagenen objektiven Metrik und der subjektiven Bewertung durch menschliche Beobachter.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03731-8_29 a22f813fe66aeb991cba1ed865b6efe0;de;;;7.2.;;;SuPor: Eine Umgebung für AS von Texten in brasilianischem Portugiesisch In diesem Beitrag wird SuPor vorgestellt, eine Umgebung für die extraktive automatische Zusammenfassung von Texten, die in brasilianischem Portugiesisch verfasst sind und die von einem AS-Spezialisten untersucht werden kann, um vielversprechende strategische Merkmale für die Extraktion auszuwählen. Durch die Kombination einer beliebigen Anzahl von Funktionen berechtigt SuPor tatsächlich dazu, die Leistung verschiedener AS-Systeme zu untersuchen und zu identifizieren, welche Gruppen von Funktionen für brasilianisches Portugiesisch besser geeignet sind. Eines seiner Systeme hat sechs andere extraktive Zusammenfassungen übertroffen, was auf eine signifikante Gruppierung von Merkmalen hindeutet, wie in diesem Papier gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30228-5_37 2146b402f3b29e469532378b00c112e9;de;;;7.2.;;;SizeSpotSigs: Ein effektiver Deduplizierungsalgorithmus unter Berücksichtigung der Größe des Seiteninhalts Das Erkennen, ob sich zwei Webseiten in der Nähe von Repliken befinden, ist in Bezug auf ihren Inhalt und nicht auf Dateien von großer Bedeutung in vielen webinformationsbasierten Anwendungen. Als Ergebnis wurden viele Deduplizierungsalgorithmen vorgeschlagen. Analysen und Experimente zeigen jedoch, dass bestehende Algorithmen für kurze Webseiten normalerweise nicht gut funktionieren, da in den entsprechenden Dateien relativ viele verrauschte Informationen wie Anzeigen und Vorlagen für Websites vorhanden sind. In diesem Papier analysieren wir die kritischen Probleme bei der Deduplizierung von kurzen Webseiten und stellen einen Algorithmus (AF_SpotSigs) vor, der diese einbezieht und der 15 % besser funktionieren könnte als die aktuelle Methode. Dann schlagen wir unter Berücksichtigung der Größe der Seiteninhalte einen Algorithmus (SizeSpotSigs) vor, der sowohl kurze als auch lange Webseiten verarbeiten kann. Die Beiträge von SizeSpotSigs sind dreifach: 1) Bereitstellung einer Analyse der Beziehung zwischen Rausch-Inhalts-Verhältnis und Ähnlichkeit und Vorschlag von zwei Regeln, um die Methoden zu verbessern, 2) Basierend auf der Analyse schlagen wir für Chinesen 3 neue vor Funktionen zur Verbesserung der Effektivität für kurze Webseiten, 3) Wir präsentieren einen Algorithmus namens SizeSpotSigs für die Erkennung von nahezu Duplikaten unter Berücksichtigung der Größe des Kerninhalts einer Webseite. Experimente bestätigen, dass SizeSpotSigs besser funktioniert als hochmoderne Ansätze wie SpotSigs, über einen demonstrativen Mixer von manuell bewerteten, nahezu duplizierten Nachrichtenartikeln, die sowohl kurze als auch lange Webseiten umfassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20841-6_44 d6778452fb98f6824bda8bb9b5f2c40e;de;;;7.2.;;;Zur Modellierung des rangunabhängigen Risikos bei der Schätzung der Relevanzwahrscheinlichkeit Die Einschätzung der Relevanzwahrscheinlichkeit eines Dokuments ist von grundlegender Bedeutung für die Informationsbeschaffung. Aus theoretischer Sicht besteht ein Risiko im Schätzungsprozess in dem Sinne, dass die geschätzten Wahrscheinlichkeiten nicht genau den tatsächlichen entsprechen. Das Schätzrisiko wird oft als rangabhängig angesehen. Das Wahrscheinlichkeits-Ranking-Prinzip geht beispielsweise davon aus, dass das Ranking von Dokumenten in der Reihenfolge abnehmender Relevanzwahrscheinlichkeit die Ranking-Effektivität optimieren kann. Dies impliziert, dass eine genaue Schätzung einen optimalen Rang ergeben kann. Ein optimaler (oder sogar idealer) Rang garantiert jedoch nicht immer, dass die geschätzten Wahrscheinlichkeiten genau sind. Dies bedeutet, dass ein Teil des Schätzrisikos rangunabhängig ist. Es bringt praktische Risiken in den Anwendungen mit sich, wie z. B. Pseudo-Relevanz-Feedback, bei dem unterschiedliche geschätzte Relevanzwahrscheinlichkeiten beim Abruf der ersten Runde einen Unterschied machen, selbst wenn zwei Ränge identisch sind. In diesem Papier werden wir die Wirkung und die Modellierung eines solchen rangunabhängigen Risikos untersuchen. Es wird eine Risikomanagementmethode vorgeschlagen, um das rangunabhängige Risiko adaptiv anzupassen. Experimentelle Ergebnisse zu mehreren TREC-Sammlungen zeigen die Wirksamkeit der vorgeschlagenen Modelle sowohl für Pseudo-Relevanz-Feedback als auch Relevanz-Feedback.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25631-8_2 ac1cd48de21f01f97b30715845f05190;de;;;7.2.;;;Verbesserung der N-Gram-basierten zusammenfassenden Auswertung unter Verwendung von Informationsinhalten und einer Taxonomie In diesem Beitrag schlagen wir eine neuartige informationstheoretische Metrik zur automatischen zusammenfassenden Auswertung vor, wenn Modellzusammenfassungen verfügbar sind, wie im Rahmen der AESOP-Aufgabe des Update Summarization Tracks der Text Analysis Conference (TAC). Die Metrik basiert auf dem Konzept des Informationsinhalts, der mithilfe einer Taxonomie operationalisiert wird. Hiermit präsentieren und diskutieren wir die Ergebnisse der TAC 2009.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12275-0_71 0dde24ec47e962b5e15386c60e5c29f0;de;;;7.1.;;;Kollaborative Implementierung interorganisationaler Interoperabilität in einem komplexen Umfeld Dieses Papier untersucht die Herausforderungen bei der kollaborativen Umsetzung der interorganisationalen Interoperabilität durch Beobachtungen sozialer Dynamiken. Wir konzentrieren uns auf ein interorganisationales Informationssystem, das Schnittstellen zu mehreren Informationssystemen hat, die von verschiedenen Organisationen verwaltet werden. Diese Komplexität erhöht die Schwierigkeitsgrade der Implementierungsprojekte. Unser wichtigstes Ergebnis ist, dass die organisationsübergreifende Natur des Problems die technische Komplexität der Implementierung erheblich erhöht, aber auch die Schwierigkeiten in der sozialen Dynamik erheblich erhöht. Wir argumentieren, dass eine sorgfältige Analyse dieser sozialen Probleme einige interessante Standpunkte aufdecken kann, die andernfalls verborgen bleiben könnten. Wir beschränken dieses Papier darauf, nur die Implementierung eines organisationsübergreifenden Informationssystems zu betrachten, das implementiert wird, um vordefinierte gemeinsame Funktionalitäten zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84628-976-7_46 cd5a1b195093b54abe167e66b2cca56d;de;;;7.1.;;;Bahnplanung für unbemannte Flugzeuge basierend auf dem SVM-Algorithmus Dieses Papier beschreibt einen Ansatz zur Verwendung von Bildverarbeitungs- und Musterklassifizierungstechniken zum Navigieren des unbemannten Flugzeugfahrzeugs in einer bekannten unregelmäßigen Umgebung. Bei der 2D-Bahnplanung kann eine realisierbare Flugbahn zwischen Start- und Zielpunkt als Trennfläche betrachtet werden, die den Raum in zwei Bereiche teilt. Dies legt ein zweifaches Problem nahe, zuerst den gesamten Raum in solche zwei Bereiche aufzuteilen und dann die Grenze als Pfad aufzugreifen. Wir verwenden Support Vector Machine, um dieses duale Problem zu lösen. SVM kann nach dem Randmaximierungsprinzip eine nichtlineare Trennfläche erzeugen. Zuerst generieren wir einen neuartigen Suchraum, der flugfähige und Flugverbotsbereiche von 3D-Oberflächen mit minimalem Risiko enthält und nehmen wichtige Hindernispunkte als Muster auf. Zweitens wird durch SVM ein sicherer und reibungsloser Pfad erzeugt. Ergebnisse aus Simulationen zeigen, dass der Trassenplaner aufgrund der Einfachheit des Suchraums in der Lage ist, einen optimalen Trassenverlauf effizient zu planen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37835-5_61 7c34f074852f5629f6a4c303c6bb879b;de;;;7.1.;;;Geografische Informationssysteme: Sollten sie bei der Entwicklung der Reform der öffentlichen Finanzen eingesetzt werden? Die Reform der öffentlichen Finanzen ist einer der komplexesten Entscheidungsbereiche. Es erfordert eine angemessene Umsetzungsmethodik und Instrumente zur Visualisierung möglicher Ergebnisse von Reformen in einer Gesellschaft. Ziel dieses Artikels ist es aufzuzeigen, wie Geoinformationssysteme (GIS) bei der Reformentwicklung im Bereich der öffentlichen Finanzen eingesetzt werden können. GIS könnte ein breites Spektrum an Analysen bieten und Reformideen besser unterstützen. GIS ist bei Reformen der öffentlichen Finanzen nützlich, da es die Kombination von statistischen, demografischen und geografischen Analysen ermöglicht. Außerdem bietet GIS die notwendige Visualisierung, die dem normalen Bürger hilft, eine vorgeschlagene Reform und ihre Folgen zu verstehen. GIS kann die Transparenz und Rechenschaftspflicht der Regierung erhöhen, da es ziemlich schwierig ist, offene Kartendaten zu manipulieren. Der Artikel liefert Beispiele dafür, wie GIS verwendet werden kann, um Reformen der öffentlichen Finanzen zu rechtfertigen, nämlich die Optimierung der Finanzierung von formaler Schulbildung und Gesundheitsversorgung. Für die Analyse wurden Daten aus der Ukraine verwendet. Diese Wahl ist auf das Vorhandensein radikaler Reformen in diesem Land, das Misstrauen der Bürger gegenüber Reformen und die mangelnde Transparenz der Informationen über die Aktivitäten des öffentlichen Sektors zurückzuführen. GIS wurde verwendet, um zu testen, ob Regierungsreformen den europäischen Standards für den Zugang zu Bildung und Gesundheitsversorgung für alle Bürger entsprechen. Die Ergebnisse der Studie zeigen, dass solche Standards nicht erreicht werden konnten, weil die Regierung bei der Entwicklung von Reformprogrammen die geringe Qualität der Infrastruktur nicht berücksichtigte. GIS ist kein perfektes Werkzeug und einige Herausforderungen sollten ebenfalls berücksichtigt werden. Zum einen muss die Software für GIS häufig überarbeitet werden. Zweitens ändert und verbessert sich die GIS-Software im Laufe der Zeit und es gibt jetzt mehrere GIS-Anwendungen, die von relativ kostenlos (mit begrenzten Werkzeugen) bis zu sehr teuer (z. B. ArcGIS 10.) reichen. Drittens, um der Idee der Erhöhung der Transparenz zu folgen, sollten alle GIS-Software keine Konflikte untereinander haben. Das bedeutet, dass Daten aus einer GIS-Software einfach in verschiedene GIS-Anwendungen exportiert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-13929-2_12 9800be5346cbef49ea06297fe5a7d4f0;de;;;7.1.;;;Designoptionen für Supply Chain Visibility Services: Erkenntnisse aus drei EPCIS-Implementierungen Lieferketten in vielen Branchen erfahren eine immer komplexer werdende Komplexität. Sie beziehen viele Akteure mit ein, und ähnlich wie bei innerbetrieblichen Prozessen ist Sichtbarkeit ein wichtiger Faktor für das Management von Lieferketten in einem interorganisationalen Umfeld. Es ist das Rückgrat fortschrittlicher Supply Chain (Event) Management Lösungen, die dazu dienen, kritische Vorfälle rechtzeitig zu erkennen und Handlungsalternativen zu bestimmen. Aufgrund der zahlreichen heterogenen Beteiligten erfordern verteilte Lieferketten eine modulare Systemarchitektur, die darauf abzielt, Sichtbarkeitsdaten aus standardisierten Quellen wiederzuverwenden. Aufgrund der Vielzahl von Supply-Chain-Konfigurationen in vielen Branchen gibt es auch viele Möglichkeiten, solche Dienstleistungen zu gestalten. Dieses Papier beleuchtet diese Aspekte, indem es eine Fallstudie zu EPCIS durchführt, einer globalen Servicespezifikation für die Erfassung und den Austausch von Sichtbarkeitsdaten. Anhand von drei Implementierungen zeigt es Gestaltungsmöglichkeiten für einen Supply Chain Visibility Service, generische Betreibermodelle sowie große Potenziale.;-;-;-;https://link.springer.com/article/10.1007/s12525-016-0231-4 f6bffc4ed53cb84ce5b72ed1cabc9cd8;de;;;7.1.;;;Organisationsübergreifende Vorplanung im Notfallmanagement mit IT-gestützten Smart Checklisten Das Prozessmanagement für Rettungsorganisationen und Hilfsdienste ist im Kontext der Katastrophenvorbereitung und -reaktion von entscheidender Bedeutung. Katastrophen größeren Ausmaßes erfordern Dienstleistungen, die von Natur aus von einer Vielzahl von Organisationen bereitgestellt werden. Daher ist eine effektive Vernetzung dieser Organisationen für die Kommunikation und Zusammenarbeit entscheidend. Diese Vernetzung erfordert eine gute Vorbereitung im Sinne einer Vorplanung von Aktivitäten innerhalb und auch über Organisationsgrenzen hinweg. Daher können Modellierungsoberflächen als natürliche Kandidaten für solche Planungsbemühungen verwendet werden. Prozessmodelle fördern in erster Linie die Transparenz innerhalb und zwischen Organisationen. Darüber hinaus ermöglichen formale Darstellungen von Notfallverfahren in Form von Prozessmodellen Prozessdesignern eine Beurteilung der Qualität ihrer Prozesse. Allerdings sind alleinige Prozessmanagement-Tools für den täglichen Einsatz von Rettungskräften viel zu komplex. Daher haben wir eine leichtgewichtige Variante entwickelt: IT-unterstützte smarte Checklisten. Eine Checkliste ähnelt einer leichtgewichtigen Prozessdarstellung mit begrenzten Kontrollflussmustern, aber in der Zukunft vollwertiger Ausführungsunterstützung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33161-9_73 c000494f0cf214cbaa368352e1e3c03b;de;;;7.2.;;;Leistungsbewertung der richtungsabhängigen Filterbank-ICA bei blinder Quellentrennung verrauschter Beobachtungen Die Trennleistung der richtungsgebundenen Filterbank-ICA wird in Gegenwart von Rauschen mit unterschiedlichen spektralen Eigenschaften bewertet. Die Stationarität von Mischkanälen wird ausgenutzt, um eine Richtungsbeschränkung in die adaptiven Teilband-Trennnetzwerke des auf Filterbanken basierenden Ansatzes zur blinden Quellentrennung einzuführen. Richtungsbeschränkungen des Entmischungsnetzwerks verbessern die Trennung von Quellensignalen von verrauschten gefalteten Mischungen, wenn eine signifikante spektrale Überlappung zwischen dem Rauschen und den gefalteten Mischungen besteht. Beobachtungen, die durch niederfrequentes Rauschen verfälscht sind, zeigen eine leichte Verbesserung der Trennleistung, da weniger spektrale Überlappung vorhanden ist. Die Initialisierung und Beschränkung des Teilband-Entmischungsnetzwerks in Übereinstimmung mit der räumlichen Position der Quellensignale führt zu einer schnelleren Konvergenz und einer effektiven Permutationskorrektur, unabhängig von der Art des additiven Rauschens.;-;-;-;https://link.springer.com/chapter/10.1007/11893028_126 9896ff4eb1477334e8f6c2d93af078ef;de;;;7.1.;;;Wegplanung mit Schleimpilzen: Ein von der Biologie inspirierter Ansatz Dieser Artikel schlägt einen künstlichen Plasmodium-Algorithmus (APA) vor, der eine Kontraktionswelle eines Plasmodiums von Physarum polucephalum nachahmt. Plasmodien können mit der Kontraktionswelle in ihrem Körper leben, um mit anderen zu kommunizieren und Nährstoffe zu transportieren. In der APA hat jedes Plasmodium zwei Informationen als Welleninformation: die Richtung und den Nahrungsindex. Wir wenden die APA auf 4 Arten von Labyrinthen an und bestätigen, dass die APA die Labyrinthe lösen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-26561-2_37 a77d85e6e5bb392fa9c105df49fa4c49;de;;;7.1.;;;Ein harmonisiertes Prozessmodell für die Bereitschaft zur digitalen forensischen Untersuchung Digital Forensic Readiness ermöglicht es einer Organisation, sich darauf vorzubereiten, digitale forensische Untersuchungen effizient und effektiv durchzuführen. Zu den Vorteilen gehören eine verbesserte Zulässigkeit digitaler Beweise, eine bessere Nutzung von Ressourcen und ein größeres Bewusstsein für Vorfälle. Ein harmonisiertes Vorgehensmodell für Digital Forensic Readiness existiert derzeit jedoch nicht und somit fehlt es an effektiven und standardisierten Implementierungen von Digital Forensic Readiness innerhalb von Organisationen. Dieses Papier stellt ein harmonisiertes Prozessmodell für die Bereitschaft zur digitalen forensischen Untersuchung vor. Das vorgeschlagene Modell ist ganzheitlich und berücksichtigt die Bereitschafts- und Ermittlungsaktivitäten sowie die Schnittstelle zwischen den beiden Arten von Aktivitäten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41148-9_5 b46d9d28540f7e20f65a771ba4b9ece9;de;;;7.1.;;;Governance von Offshore-IT-Outsourcing bei Shell Global Functions IT-BAM Entwicklung und Anwendung eines Governance-Frameworks zur Verbesserung der Outsourcing-Beziehungen Das Fehlen einer effektiven IT-Governance wird allgemein als ein Haupthindernis für erfolgreiche globale IT-Outsourcing-Beziehungen angesehen. In dieser Studie stellen wir die Entwicklung und Anwendung eines Governance-Frameworks vor, um Outsourcing-Beziehungen zu verbessern. Der Ansatz zur Entwicklung eines IT-Governance-Frameworks umfasst ein Metamodell und einen Anpassungsprozess, um das Framework an die Zielorganisation anzupassen. Das IT-Governance-Framework besteht aus vier verschiedenen Elementen (1) Organisationsstrukturen, (2) gemeinsamen Prozessen zwischen In- und Outsourcer, (3) Verantwortlichkeiten, die Rollen mit Prozessen verknüpfen und (4) einer Vielzahl von Kontrollindikatoren zur Messung des Erfolgs von die Beziehung. Das IT-Governance-Framework wird in Shell GFIT BAM in die Praxis umgesetzt, einem Teil von Shell, der zu dem Schluss kam, dass das Management über mindestens eine seiner Outsourcing-Beziehungen nicht verfügt. In einem Workshop wurde das Governance-Framework verwendet, um eine Gap-Analyse zwischen der aktuellen und der gewünschten Governance durchzuführen. Bei der Zuweisung von Rollen und Verantwortlichkeiten sowie bei der Einrichtung gemeinsamer Prozesse wurden mehrere Lücken festgestellt. Darüber hinaus zeigte dieser Workshop auch die Nützlichkeit und Nutzbarkeit des IT-Governance-Frameworks bei der Strukturierung, der Bereitstellung von Input und der Verwaltung von Stakeholdern in den Diskussionen rund um die IT-Governance.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15417-1_8 173c5140e87b080ee2b0407788b707e5;de;;;7.1.;;;Mehrdimensionales Prozessanalysesystem für das Fertigungsmanagement Industrie- oder Fertigungsmanagement ist eine komplexe Aufgabe, die Vorinformationen aus mehreren Einträgen zur Unterstützung erfordert, um mit effizienten Lösungen die richtige Entscheidung zu treffen und den optimalen Gewinn zu erzielen. Der geschäftsintelligente Technologieansatz ermöglicht es der Unternehmensorganisation, Informationen in Form einer heterogenen Ansicht zu nutzen, und profitiert von mehreren Verwendungszwecken. Diese Arbeit verwendet betriebswirtschaftlich intelligente Konzepte, um vereinfachte Echtzeit-Prozessanalysesysteme für ein unterstützendes Fertigungsmanagement zu entwickeln. Da viele wünschenswerte Vorteile geboten werden, leiten sich mehrere Analyseziele aus der einzigen Datenbank ab. Der Systemtest in homogenen oder Massenproduktionen führt dazu, dass die Datenanalyse angezeigt wird und Manager die mehrdimensionalen Informationen aus verschiedenen Perspektiven wie Prozessverbesserung, Bestandskontrolle, Materialmanagement, Qualitätssicherung und schließlich Governance-Management in der Fertigung betrachten können. Darüber hinaus kann diese Arbeit auf verschiedene Konfigurationsprodukte angewendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-47200-2_88 f0c5e88756fd1e28479a7e49442bcf2c;de;;;7.1.;;;Herstellungspraktiken stillschweigend machen: Eine Fallstudie zu computergestütztem Produktionsmanagement und schlanker Produktion Die Idee, dass Arbeitsabläufe in der Serienfertigung durch formale Manipulationen an Darstellungen der Fertigungspraxis verwaltet werden können, ist das Herzstück eines Ansatzes namens Computer-Aided Production Management. Es wird argumentiert, dass die Plausibilität dieses Ansatzes aus bestimmten weit verbreiteten, aber inzwischen umstrittenen Ansichten über die Natur zielgerichteten menschlichen Handelns resultiert, die die Notwendigkeit eines zentralen Repräsentationsmodells voraussetzen. Alternative Theorien kognitiver Aktivität können verwendet werden, um den Ansatz einer neuerdings einflussreichen Gruppe von Produktionsmanagementtechniken, bekannt als Lean Production, zu verdeutlichen, die versuchen, Veränderungen der Produktionssituation als ihren Hebel zu nutzen. Es wird behauptet, dass die Umsetzung dieser Ideen davon abhängt, dass wünschenswerte Praktiken stillschweigend gemacht werden.;-;-;-;https://link.springer.com/article/10.1057/jors.1995.166 1182dce59e15ee8ea3bebc730f02925a;de;;;7.2.;;;Kognitive Aufgabenanalyse zur prospektiven Usability-Evaluation in der computergestützten Chirurgie Im Rahmen des Projekts INNORISK (Innovative Risk Analysis Methods for Medical Devices) wird eine zweifache Strategie zur prospektiven Usability-Bewertung von Computer-Assisted Surgery (CAS) Systemen im Rahmen eines Risikomanagementprozesses verfolgt. In einem Ansatz werden ConcurTaskTrees verwendet, um eine hierarchische Aufgabenanalyse einschließlich zeitlicher Beziehungen durchzuführen. Im anderen Ansatz, basierend auf der Methode der kognitiven Aufgabenanalyse CPM-GOMS (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76805-0_29 20e4c4f9eccebb18a8079d547bebd72a;de;;;7.2.;;;Java-Verschleierung mit theoretischer Grundlage für den Aufbau sicherer mobiler Agenten In diesem Artikel schlagen wir neue Techniken vor, um Java-Programme für die Entwicklung sicherer mobiler Agentensysteme zu verschleiern. Unsere Verschleierungstechniken nutzen den Polymorphismus und den Ausnahmemechanismus objektorientierter Sprachen und können die Genauigkeit der Point-to-Analyse der Programme drastisch reduzieren. Wir zeigen, dass die Bestimmung präziser Point-to-Analysen in verschleierten Programmen NP-schwer ist und diese Tatsache eine theoretische Grundlage für unsere Verschleierungstechniken bietet. Darüber hinaus stellen wir in diesem Beitrag einige empirische Experimente vor, mit denen wir die Wirksamkeit unserer Ansätze demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45184-6_8 4b281cff0c324913df2c3a60af72941a;de;;;7.2.;;;Verwendung von Fällen, Beweisen und Kontext zur Unterstützung der Entscheidungsfindung Evidence-Based Practice (EBP) stellt einen Entscheidungsprozess dar, der sich auf die Begründung relevanter Informationen aus wissenschaftlichen Forschungsnachweisen im Internet konzentriert. Kontext ist eine Art von Wissen, das hilft, zu erkennen, was in einer bestimmten Situation relevant ist oder nicht. Daher ist die Integration von Evidenz und Kontext noch ein offenes Thema. Außerdem bieten EBP-Verfahren keine Mechanismen, um strategisches Wissen aus individuellen Lösungen zu speichern, was das Lernen von Entscheidungsträgern erleichtern und die verwendeten Beweise bewahren könnte. Auf der anderen Seite verwendet Case-Based Reasoning (CBR) die Historie ähnlicher Fälle und bietet Mechanismen, um die Problemlösung aufrechtzuerhalten. Dieses Papier schlägt die Integration des CBR-Modells mit EBP-Verfahren und Kontext vor, um die Entscheidungsfindung zu unterstützen. Unser Ansatz umfasst einen konzeptionellen Rahmen, der erweitert wird, um die Entwicklung von Anwendungen zu unterstützen, der Fälle, Beweise und Kontext kombiniert und die Merkmale der Benutzerfreundlichkeit und Übertragbarkeit über Domänen hinweg bewahrt. Eine Umsetzung im Bereich der Kriminalprävention veranschaulicht die Anwendung unseres Vorschlags.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19802-1_24 5acf719a4f9f3b0986716c892f792e9e;de;;;7.2.;;;Messen der Emotionen von Benutzern mit einem komponentenbasierten Ansatz Die emotionale Erfahrung ist in allen Arten der Interaktion zwischen Menschen präsent. Daher ist es wichtig, die emotionale Erfahrung während des Gestaltungsprozesses von Benutzeroberflächen zu berücksichtigen, um mehr Vertrauen bei den Benutzern zu schaffen und die Benutzeroberfläche leichter zu erlernen und zu verwenden. Angesichts der Komplexität des Themas ist es notwendig, Methoden zu kombinieren, um die Erkennung von Falschmeldungen bei der Bewertung des emotionalen Zustands des Benutzers bei der Interaktion mit Informationssystemen zu minimieren. Diese Arbeit stellt einen hybriden Bewertungsansatz vor, der auf dem von Scherer beschriebenen Emotionsmodell [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40654-6_24 0b0852c2b6a59c75f800106d54fee179;de;;;7.2.;;;Zur paarweisen Priorisierung von Kriterien aus der Perspektive von Digraphen Es ist in der Regel nicht unabhängig von den Kriterien bei der multikriteriellen Entscheidungsfindung (MCDM), und verschiedene Abhängigkeiten von Kriterien beeinflussen die Ergebnisse der Entscheidungsfindung stark. Wenn eine exakte Entscheidung gewünscht wird, müssen wir die Rolle der Abhängigkeiten von Kriterien deutlich machen. Priorisierungen, eine neue Art von Abhängigkeiten von Kriterien, die kürzlich vorgeschlagen wurden, implizieren, dass die Bedeutungsgewichte von Kriterien mit niedrigerer Priorität für eine Alternative davon abhängen, ob die Alternative den Entscheidungsträger unter Kriterien mit höherer Priorität zufriedenstellt. Es wurde bestätigt, dass es viele relevante Anwendungen in unseren täglichen Aktivitäten gibt. Die meisten existierenden Literaturen konzentrieren sich jedoch darauf, wie mit den Problemen von MCDM mit geordneten Priorisierungen zwischen Kriterien (einer besonderen Form von Priorisierungen) umzugehen ist. Die Merkmale von Priorisierungen sind nicht tief gegraben. Dieses Papier konstruiert eine neue Form von Priorisierungen, sogenannte Paired Priorisierungen, um unvollkommene Rationalitäten von Entscheidungsträgern, die in den geordneten Priorisierungen versteckt sind, zu reduzieren oder sogar zu vermeiden. Zuerst stellen wir binäre gepaarte Priorisierungen als Digraphen dar, auf deren Grundlage wir zwei Arten von unvollkommener Rationalität (Inkonsistenz und Unvollständigkeit) entdecken, die in der Periode erzeugt werden, in der der Entscheidungsträger die binären gepaarten Priorisierungen liefert. Nachdem die gegebenen gepaarten Priorisierungen konsistent und vollständig sind, entwickeln wir einen Ansatz, um die gepaarten Priorisierungen in geordnete Priorisierungen umzuwandeln. Letzteres kann verwendet werden, um priorisierte MCDM-Probleme zu behandeln. Darüber hinaus wird Unsicherheit, eine andere Art von unvollkommener Rationalität, berücksichtigt, wenn der Entscheidungsträger die unscharfen gepaarten Priorisierungen basierend auf einem Satz linguistischer Labels bereitstellt. Wir konstruieren einen Fuzzy-Digraphen, dessen Fuzzy-Beziehungen nur die Fuzzy-Priorisierungen sind. Die geordneten Priorisierungen können dann mit Hilfe des Fuzzy-Digraphen abgeleitet werden. Anhand von zwei Anwendungsfällen wird der Transformationsprozess von binär/fuzzy-gepaarten Priorisierungen zu geordneten Priorisierungen gezeigt.;-;-;-;https://link.springer.com/article/10.1007/s11518-015-5283-z f126616f2eedefa456d148d9ea0ba60f;de;;;7.2.;;;Verwendung des X-IOTA-Systems in ein- und zweisprachigen Experimenten beim CLEF 2005 Dieses Dokument beschreibt die CLIPS-Experimente in der CLEF 2005-Kampagne. Wir haben einen oberflächensyntaktischen Parser verwendet, um neue Indexbegriffe zu extrahieren. Diese Begriffe werden als syntaktische Abhängigkeiten betrachtet. Unser Ziel war es, ihre Relevanz für eine Information Retrieval-Aufgabe zu bewerten. Wir haben sie in unterschiedlichen Formen in verschiedenen Information-Retrieval-Modellen verwendet, insbesondere in einem Sprachmodell. Für die zweisprachige Aufgabe versuchten wir zwei einfache Tests zum Abrufen von Spanisch und Deutsch nach Französisch, für die Übersetzung verwendeten wir einen Lemmatizer und ein Wörterbuch.;-;-;-;https://link.springer.com/chapter/10.1007/11878773_7 ebca208120d918e7ae3fd2c9350e2c6c;de;;;7.2.;;;Topic Grouper: Ein agglomerativer Clustering-Ansatz zur Themenmodellierung Wir führen Topic Grouper als ergänzenden Ansatz im Bereich der probabilistischen Themenmodellierung ein. Topic Grouper erstellt schrittweise eine disjunktive Partitionierung des Trainingsvokabulars, sodass die resultierenden Partitionen Themen darstellen. Die Themengenerierung basiert auf einem einfachen probabilistischen Modell und agglomerativem Clustering, wobei Cluster als Mengen von Wörtern aus dem Vokabular gebildet werden. Der resultierende binäre Themenbaum kann als eine Eindämmungshierarchie fungieren, typischerweise mit allgemeineren Themen in Richtung der Wurzel des Baums und spezifischeren Themen in Richtung der Blätter. Im Gegensatz zu anderen Themenmodellierungsansätzen vermeidet Topic Grouper die Notwendigkeit von Hyperparameteroptimierungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-15712-8_38 7e734e48ed2a58f551c1420d1fabe118;de;;;7.2.;;;Peer-Based-Relais-Schema der kollaborativen Filterung für Forschungsliteratur Sowohl in der Industrie als auch in der Wissenschaft wurde viel an der Filterung von Forschungsliteratur gearbeitet, jedoch haben die meisten bestehenden Studien ihre Grenzen im Umgang mit den inhärenten Merkmalen der Recherche in Forschungsliteratur, dh die meisten Artikel ziehen nur sehr wenige Leser unter allen Forschern an, und die Empfehlungen werden oft durch Mitglieder bestimmter Gemeinschaften verbreitet. In diesem Artikel schlagen wir ein Peer-basiertes Relay-Schema der kollaborativen Filterung für Forschungsliteratur vor, ist aber nicht darauf beschränkt. Im Schema wird eine Empfehlungsanfrage durch eine soziale Struktur weitergeleitet, die dynamisch gebildet wird von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25109-2_21 1d3d6da062fd06a514cc303defbe0d09;de;;;7.2.;;;Datenschutzfreundliche Prüfung von Remote Token Blacklists Die Abfrage einer Remote-Blacklist als Teil der Überprüfung eines Tokens sollte nicht auf Kosten der Privatsphäre gehen. Insbesondere sollte der Blacklist-Anbieter nicht in der Lage sein zu erkennen, welche Token verifiziert werden. Auch der Inhalt der Blacklist soll geschützt werden, dh der Inhalt der Blacklist soll nicht erlernbar sein, beispielsweise durch mehrmalige Abfragen beim Blacklist-Provider. Dieses Papier definiert eine Reihe wünschenswerter Eigenschaften für Protokolle zur Überprüfung von Blacklists zur Wahrung der Privatsphäre und gibt einen Überblick über bestehende technische Lösungen für dieses Problem. Wir schlagen gegebenenfalls Anpassungen vor und liefern konkrete Leistungsabschätzungen für den Anwendungsfall der Prüfung, ob ein Reisepass als verloren oder gestohlen gemeldet wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37282-7_3 2611c3cef48279aec9683fbc5e1128ef;de;;;7.2.;;;Feature-basierter Abruf in visuellen Datenbanksystemen In diesem Kapitel werden Probleme im Zusammenhang mit Architektur, Abfrageverarbeitung und Indizierung in visuellen Datenbanksystemen behandelt. Die Architekturprobleme für visuelle Datenbanken stellen mehr Anforderungen als herkömmliche Datenbanken. Metadatenhierarchie, Indizierung mit Clustern und Vorlagen und Clustering mit heterogenen Features sind Kernthemen beim Feature-basierten Abruf und spielen eine wichtige Rolle bei der Effizienz und Genauigkeit der Abfrageergebnisse. Das Abfragen, Rangieren und Zusammenführen von heterogenen Features wird aus Sicht der Leistungsfähigkeit des Systems und der Befriedigung der Anforderungen der Nutzer erläutert. Relevanz-Feedback der Nutzer erhöht die Genauigkeit beim Abruf.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-05300-3_10 d1e9fda8937bee488e4681e7f38b0a5f;de;;;7.2.;;;Lernen mehrerer Instanzen für automatische Bildkommentare Die meisten herkömmlichen Ansätze für die automatische Bildanmerkung können keine zuverlässigen Anmerkungen auf Objektebene bereitstellen, da es sehr teuer sein könnte, große Mengen von gekennzeichneten Bildern auf Objektebene zu erhalten, die einzelnen Regionen zugeordnet sind. Um die Kosten für das manuelle Kommentieren auf Objektebene zu reduzieren, ist das Lernen mit mehreren Instanzen, das lose gekennzeichnete Trainingsbilder für das Objektklassifizierertraining nutzen kann, zu einem beliebten Forschungsthema in der Multimedia-Forschungsgemeinschaft geworden. Ein Engpass bei der Unterstützung des Lernens mehrerer Instanzen sind die Rechenkosten für das Suchen und Identifizieren positiver Instanzen in den positiven Beuteln. In diesem Beitrag wird ein neuartiger zweistufiger Lernalgorithmus für mehrere Instanzen für die automatische Bildannotation entwickelt. Die Affinitätsausbreitungs(AP)-Clustering-Technik wird an den Instanzen sowohl in den positiven Taschen als auch in den negativen Taschen durchgeführt, um die Kandidaten der positiven Instanzen zu identifizieren und die maximale Suche der Wahrscheinlichkeit unterschiedlicher Dichte in der ersten Stufe zu initialisieren. In der zweiten Stufe werden dann die positivsten Instanzen in jedem Beutel ausgewählt, um das Berechnungsverfahren der Wahrscheinlichkeit unterschiedlicher Dichte zu vereinfachen. Unsere Experimente an zwei bekannten Bildersätzen haben sehr positive Ergebnisse geliefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35728-2_19 737942295d4078b29a8ab0995d22b852;de;;;7.2.;;;Stellvertretendes Lernen mit einem digitalen Lernspiel: Eye-Tracking und umfragebasierte Evaluationsansätze Der Beitrag stellt eine empirische Studie mit einem digitalen Lernspiel (DEG) namens 80Days vor, das auf die Vermittlung geographischer Inhalte abzielt. Das Ziel der Studie ist zweierlei: (i) das Potenzial des Eye-Tracking-Ansatzes zur Evaluation der DEG zu untersuchen, (ii) das Thema stellvertretendes Lernen im Kontext der DEG zu untersuchen. 24 Universitätsstudenten wurden gebeten, sich die Videos vom Spielen von zwei Mikromissionen von 80Days anzusehen, die sich in Bezug auf die Position des Fensters der Nicht-Spieler-Charaktere (NPC) (dh unten rechts vs kognitive Hinweise (dh mit vs. ohne) in diesem Textfenster. Die Augenbewegungen der Teilnehmer wurden mit einem Eyetracker aufgezeichnet. Lerneffekt und User Experience wurden durch Fragebögen und Interviews gemessen. Signifikante Unterschiede zwischen den Bewertungstests vor und nach dem Lernen deuten darauf hin, dass Beobachter von der passiven Betrachtung des aufgezeichneten Spiels profitieren können. Die Hypothesen, dass die Spielversionen mit kognitiven Hinweisen und mit dem NPC-Fenster in der oberen linken Ecke eine stärkere visuelle Aufmerksamkeit und damit einen besseren Lerneffekt bewirken können, sind jedoch widerlegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16607-5_33 55d4f41af8aba0e03e506faf00944d6b;de;;;7.2.;;;Intelligentes System zur automatischen Erkennung und Auswertung von Sprachbefehlen In diesem Beitrag wird eine natürlichsprachliche Schnittstelle vorgestellt, die aus den intelligenten Mechanismen der menschlichen Identifikation, der Spracherkennung, der Wort- und Befehlserkennung, der Befehlssyntax und Ergebnisanalyse, der Befehlssicherheitsbewertung, der technologischen Prozessüberwachung sowie der menschlichen Reaktionsbewertung besteht. In diesem Beitrag werden ausgewählte Fragen zur Erkennung von Sprachbefehlen in natürlicher Sprache durch den Betreiber des technologischen Gerätes überprüft. Es wird ein Einblick in die Komplexität des Erkennungsprozesses von Worten und Befehlen des Bedieners mit neuronalen Netzen aus wenigen Neuronenschichten geboten. Der Beitrag präsentiert Forschungsergebnisse zur Spracherkennung und automatischen Erkennung von Befehlen in natürlicher Sprache unter Verwendung künstlicher neuronaler Netze.;-;-;-;https://link.springer.com/chapter/10.1007/11893028_34 8fee21336f65573412db87fa602e1e72;de;;;7.2.;;;Eine pragmatische Evaluation der Theorie der Informationsethik Es wurde argumentiert, dass moralische Probleme in Bezug auf die Informationstechnologie (IT) neue Ethiktheorien erfordern. In den letzten Jahren wurde eine interessante neue Theorie vorgeschlagen, um solche Bedenken anzugehen, nämlich die Theorie der Informationsethik (IE). Trotz des Versprechens von IE wurde die Theorie nicht öffentlich diskutiert. Das Ziel dieses Beitrags ist es, eine solche Diskussion durch eine kritische Bewertung der Theorie der IE anzustoßen.;-;-;-;https://link.springer.com/article/10.1007/s10676-005-6710-5 6df2b9c463352aa0949d841123ad59c6;de;;;7.2.;;;Anwendung von Dokumenten-Retrieval-Techniken in Software-Engineering-Umgebungen In früheren Veröffentlichungen haben wir die Integration von inhaltsbasierten Dokumentenabrufmöglichkeiten in das einer Softwareentwicklungsumgebung zugrunde liegende Repository vorgeschlagen. Im vorliegenden Beitrag beschreiben wir die Anwendung dieser Einrichtungen in typischen Anwendungsbereichen, wie der Suche nach wiederverwendbaren Komponenten oder der Identifizierung von Projektabhängigkeiten. Darüber hinaus beschreiben wir die Integration der Anlagen in eine konkrete Software-Engineering-Umgebung.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0054485 980c08a2e06634d296244eab8d087eb4;de;;;7.1.;;;Gesundheitsinformationssysteme in Indonesien: Komplexität verstehen und bewältigen Der Beitrag greift die Problematik fragmentierter und schlecht koordinierter Gesundheitsinformationssysteme (HIS) in Entwicklungsländern im Rahmen der Komplexität auf. HIS, die qualitativ hochwertige Daten für die Überwachung, das Management und die Bereitstellung von Gesundheitsdiensten liefern können, sind für Länder wichtig, was ein sensibles Verständnis der Komplexität und ihrer Handhabung erfordert. Anhand eines Fallbeispiels aus Indonesien diskutieren wir die Herausforderungen der Integration von KIS mit dem Konzept des Attraktors für Veränderung aus dem Bereich der komplexen adaptiven Systeme (CAS). Das Dashboard ist als ein solcher Attraktor positioniert, um verschiedene Interessengruppen dazu zu bringen, zu diskutieren und einen Konsens darüber zu erzielen, wie Daten integriert und geteilt werden können, ohne die zugrunde liegenden Systeme zu sehr zu stören. Es wird ein allgemeineres Modell zur Steuerung der Komplexität vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-59111-7_6 6bd2332a414b3a8f821bd87cc52cc9b3;de;;;7.1.;;;Planungsunterstützungssysteme und Task-Technology Fit: eine vergleichende Fallstudie Studien in der Planungsunterstützungssysteme (PSS)-Debatte widmen der Unterstützungsfunktion von PSS zunehmend Aufmerksamkeit. Dabei geht es unter anderem darum, den Nutzen von PSS für Praktiker zu untersuchen. Dieses Papier fügt dieser sich entwickelnden Debatte eine weitere Dimension hinzu, indem es argumentiert, dass Planungsaufgaben mehr Aufmerksamkeit gewidmet werden sollte. Obwohl Planungsaufgaben in mehreren PSS-Definitionen zentral sind, wurden sie in empirischen Studien kaum explizit berücksichtigt. Um diese Lücke zu schließen, haben wir eine empirische Studie durchgeführt, die auf der Perspektive des Task-Technology-Fit basiert. Letztere besteht aus einer Kombination („Fit“) von analytischen und kommunikativen Unterstützungsfähigkeiten („Technologien“) und drei Arten von Planungsaufgaben: Exploration, Auswahl und Verhandlung. Als nächstes wählten wir vier Fallstudien in den Niederlanden aus, in denen das gleiche PSS angewendet wurde, das aus einer Kombination der CommunityViz-Software und einem touchfähigen MapTable besteht. Die Fälle unterschieden sich in den Planungsaufgaben, die während des Workshops im Mittelpunkt standen, was dazu führte, dass der PSS unterschiedliche Nützlichkeiten zugeschrieben wurden. Beispielsweise trugen in einem Fall bei einer Auswahlaufgabe die kommunikativen Unterstützungsfunktionen zur Transparenz des Prozesses bei, während in einem anderen Fall die analytischen Unterstützungskapazitäten der PSS die Verhandlungsaufgabe aufgrund des iterativen Feedbacks verbesserten. Der Beitrag schließt mit der Feststellung, dass das Konzept des Task-Technology-Fits Potenzial hat, in unterschiedlichen Kontexten und mit unterschiedlichen PSS-Typen angewendet zu werden.;-;-;-;https://link.springer.com/article/10.1007/s12061-015-9135-5 e52c01f6e50f0ec4f351ee81b2d17418;de;;;7.1.;;;Intelligente Rüstplanung in der Fertigung durch neuronalen Netze basierter Ansatz Die Rüstplanung gilt als die bedeutendste, aber auch schwierigste Aktivität in der Computer Aided Process Planning (CAPP) und hat einen starken Einfluss auf die Herstellbarkeit, Produktqualität und Produktionskosten. Tatsächlich verdient die Einrichtungsplanung viel Aufmerksamkeit in CAPP. Die Rüstplanung in der Fertigung besteht im Wesentlichen aus den drei Schritten Rüstgenerierung, Arbeitsgang und Rüstfolge. In diesem Beitrag werden die selbstorganisierenden neuronalen Netze von Kohonen und die Hopfield-Netze verwendet, um solche Probleme in der Setup-Planung effizient zu lösen. Kohonen selbstorganisierende neuronale Netze werden je nach Art der verschiedenen Schritte in der Setup-Planung verwendet, um Setups in Bezug auf die Einschränkungen von Vorrichtungen/Vorrichtungen, Anfahrrichtungen, Merkmalsvorrangbeziehungen und Toleranzbeziehungen zu generieren. Das Operationssequenzproblem und das Setupsequenzproblem werden auf das Travelling-Salesman-Problem abgebildet und durch neuronale Hopfield-Netze gelöst. Dieses Papier bietet eine vollständige Forschungsgrundlage zur Lösung des Rüstplanungsproblems in CAP und entwickelt auch die effizientesten auf neuronalen Netzen basierenden Ansätze zur Lösung des Rüstplanungsproblems in der Fertigung. Tatsächlich arbeiten die Ergebnisse der vorgeschlagenen Ansätze auf die optimale Lösung der intelligenten Rüstplanung in der Fertigung hin.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008975426914 a7ef928071a3da5b282d2154cbbe1767;de;;;7.1.;;;Erkennen und Analysieren von Ausrichtungsproblemen in einer öffentlichen Organisation Die strategische Ausrichtung ist in vielen Organisationen, auch im öffentlichen Sektor, eine zentrale Herausforderung. Dieses Papier konzentriert sich auf die formalen Aspekte des Alignments (Organisationsdesign), die Methode basiert auf einem perspektivisch orientierten Ansatz des strategischen Alignments, indem Alignment-Konzepte in Enterprise Architecture Management-Modelle integriert werden. Fehlausrichtungssymptome wurden in Architekturmodelle übersetzt, die überprüfbare Regeln für die Analyse bereitstellen. Die empirische Untersuchung konzentriert sich auf eine Straßenverwaltungsbehörde und es wurden Regeltestansätze verwendet, um formal beschriebene Fehlausrichtungssymptome in den EA-Modellen zu identifizieren. Mehrere Fehlausrichtungssymptome wurden entdeckt und mit dem Gerüst bewertet. Der vorgeschlagene Ansatz kann eine effiziente Methode sein, um Ausrichtungsprobleme zu analysieren und die strategische Harmonisierung in Organisationen des öffentlichen Sektors zu erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98349-3_6 8e9bb07e0427d09523aeb9dcd98334e2;de;;;7.1.;;;Informationssysteme verstehen Um den im vorigen Kapitel beschriebenen Situationen Rechnung zu tragen, ist es notwendig, die Natur von Informationssystemen besser zu verstehen. Dieses Kapitel zielt darauf ab, eine relativ einfache theoretische Perspektive zu entwickeln, aus der die in praktischen Situationen auftretenden Informationssystemphänomene betrachtet werden können. Wir werden diesen Standpunkt nutzen, um zu erklären, warum Fragen der Informationssysteme von Natur aus problematisch sind. Die Perspektive soll IS-Managern dabei helfen, die inhärenten Chancen und Risiken zu verstehen, empfiehlt jedoch zu keinem Zeitpunkt konkrete Ansätze. Die Angemessenheit eines Ansatzes hängt weitgehend von der einzigartigen Umgebung ab, und daher sind Verallgemeinerungen wahrscheinlich sinnlos. Anstatt Regeln zu postulieren, werden wir daher lediglich einige allgemeine Prinzipien vorschlagen, die sich bei entsprechender Auslegung in der Praxis als nützlich erweisen sollten. Letztlich dürfen sich „denkende Manager“ ihrer Verantwortung nicht entziehen, indem sie Entscheidungen an Regelwerke delegieren, die auf bloßen Maschinen implementiert sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-21555-3_2 6fd9f628b724731a7b7b044215509a92;de;;;7.2.;;;Eine von Modellen zu programmierende Methode des Information Systems Engineering Das Paradigma der modellgetriebenen Entwicklung zielt darauf ab, alle Merkmale des Informationssystems durch Modelle abzubilden. Conceptual-Model Programming bietet einen ähnlichen Ansatz, jedoch mit Fokus auf die automatische Codegenerierung. Beide Ansätze berücksichtigen die Modellierung und Rückverfolgbarkeit verschiedener Abstraktionsebenen, wobei jede Ebene mit unterschiedlichen Modellierungsmethoden angegangen werden kann. Diese Heterogenität stellt eine Herausforderung für die Qualität der Rückverfolgbarkeit und Transformationen zwischen Modellen dar, insbesondere wenn eine automatische Codegenerierung angestrebt wird. In diesem Papier stellen wir eine ganzheitliche konzeptionelle Modellprogrammierungsmethode vor, um Code aus verschiedenen Abstraktionsebenen (vom Problemraum bis zum Lösungsraum) durch drei Modellierungssprachen zu generieren, deren Konsistenz durch zwei Transformationstechniken ontologisch sichergestellt wurde. Insbesondere konzentrieren wir uns auf Transformationen von der strategischen Schicht mit i* zur Geschäftsprozessschicht mit Communication Analysis (CA) und zur systemkonzeptionellen Modellschicht mit OO-Methode, die automatisch voll funktionsfähige Systeme generieren kann. Obwohl es frühere Arbeiten gibt, die Teiltransformationen zwischen diesen Modellierungsmethoden vorgeschlagen haben, ist dieser Aufsatz der erste, der sich mit der Perspektive beschäftigt, alle Modelle in einer einzigen Entwicklungsmethode zusammenzufassen. Für jede Transformation besprechen wir, welche Teile automatisch durchgeführt werden können und welche Teile menschliches Eingreifen erfordern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72696-6_8 f8d74e470fdb2be54f54ca30caa217d6;de;;;7.2.;;;Verbesserung des Austauschs von Beobachtungen und des Bewusstseins in der Krankenpflege und Pflege durch Sprach-Tweets Krankenschwestern und Pfleger versorgen Patienten mit ihren Händen und bewegen sich auf Krankenstationen, Personalstationen, Operationssälen, Bewohnerzimmern usw. Außerdem lesen und schreiben sie, senden und empfangen im Laufe ihrer Arbeit viele Informationen unterschiedlichster Art. Pflege und Betreuung könnten daher als „physische und adaptive intelligente Dienste“ bezeichnet werden. In „physischen und adaptiven intelligenten Diensten“ werden verschiedene Arten von Informationssystemen und Kommunikationssystemen verwendet. Aber es gibt ein eklatantes Missverhältnis zwischen „physischen und adaptiven intelligenten Diensten“ und herkömmlichen Informationssystemen, deren Schnittstellen in der Regel für die Schreibtischarbeit ausgelegt sind. Das Mismatch ist eine der wesentlichen Ursachen dafür, dass sich die Qualität und Effizienz der Informationsverarbeitung in der Pflege nicht so stark verbessert hat, wie man es erwarten würde. In diesem Beitrag beschreiben wir, wie eine Sprachschnittstelle die Qualität der Informationsverarbeitung in der Pflege verbessert, wobei der Schwerpunkt auf der Pflegeaufzeichnung liegt. Das intelligente Sprachnachrichtensystem für die Pflege ermöglicht es dem Pflegepersonal, während der Pflege Pflegeprotokolle einzugeben, Notizen zu machen und Sprachnachrichten an andere Mitarbeiter einheitlich zu organisieren. Die experimentelle Auswertung in einem Altenpflegeheim zeigt, dass das intelligente Sprachnachrichtensystem zur Verbesserung der Pflegequalität beitragen kann, da das Pflegepersonal verschiedene Beobachtungen und Bedenken, die bei herkömmlichen Pflegeakten oft verloren gehen, leicht festhalten kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-55861-3_11 779acdbdcc9c4098cf26ec333ed3659d;de;;;7.2.;;;AQoPA: Automated Quality of Protection Analysis Framework für komplexe Systeme Die Analyse der Sicherheitsökonomie für die IT-Systeme ist eine der wichtigen Fragen, die gelöst werden müssen. Die Schutzqualität (QoP) von IT-Systemen kann auf verschiedenen Ebenen erreicht werden. Man kann Faktoren wählen, die sich unterschiedlich auf die Gesamtsystemsicherheit auswirken. Traditionell konfigurieren Sicherheitsingenieure IT-Systeme mit den stärksten Sicherheitsmechanismen. Leider kann der stärkste Schutz (insbesondere bei Geräten mit geringen Ressourcen) zu einer unvernünftigen Erhöhung der Systemlast führen und schließlich die Systemverfügbarkeit beeinflussen. In einer solchen Situation kann die Qualität von Schutzmodellen verwendet werden, die das Schutzniveau abhängig von den spezifischen Anforderungen skaliert. Eines der schwierigsten Probleme bei der Qualität von Schutzmodellen ist die Bewertung der Schutzqualität für komplexe und verteilte Systeme. Die manuelle Analyse solcher Systeme ist fast unmöglich. In dem Artikel haben wir das Automated Quality of Protection Analysis Framework (AQoPA) vorgeschlagen. Die AQoPA führt die automatische Bewertung komplexer Systemmodelle durch, die in der Quality of Protection Modeling Language (QoP-ML) erstellt werden. In dem Artikel wird die Fallstudie zur komplexen drahtlosen Sensornetzwerkanalyse vorgestellt. Das Netzwerk wird auf einer Achterbahn aufgebaut.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24369-6_39 f5e3fc25526cdc865023c513ac193d82;de;;;7.2.;;;Testtheorie: Tools und Anwendungen Die Testtheorie (TT) wurde Mitte der fünfziger Jahre des letzten Jahrhunderts von Yablonskii und Chegis als Werkzeug zur Analyse von Problemen im Zusammenhang mit der Kontrolle und Diagnose von Fehlern in Schaltkreisen entwickelt. Die erste Kurzarbeit [75] wurde 1955 veröffentlicht, die Hauptarbeit [10] - 1958. 1966 passten Dmitriev, Zhuravlev und Krendelev [16] den Testansatz zur Untersuchung von Mustererkennungs- (Vorhersage-)Problemen an. Später wurde TT in zwei Richtungen in Bezug auf Werkzeuge und Anwendungen entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28667-4_1 9af733f6a0dd66901af8d1ae32cffbd8;de;;;7.1.;;;Förderung der Lebensqualität der Bürger durch grüne Stadtplanung In dicht besiedelten Stadtgebieten ist das Streben nach thermischem Komfort im Freien ein Entwicklungsziel, das im Nachhaltigkeitsplan der Stadt enthalten ist. Ziel dieser Studie ist es, den Effekt der Förderung neuer Grünflächen im Erdgeschoss und auf Dachebenen auf den thermischen Komfort des umliegenden Stadtgebiets zu bewerten. Die Simulation wurde auf der Grundlage eines kürzlich abgeschlossenen Requalifizierungsprojekts in einem Stadtteil von Lissabon erstellt. Dieses Projekt wurde als Fallstudie verwendet, um die Auswirkungen der neuen Vegetationsflächen in Bodennähe auf das Mikroklima und den städtischen Komfort zu bewerten [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-06010-7_10 d5815748f49d6be1a2b9288ec7335863;de;;;7.1.;;;Taxonomie von Engineer-to-Order-Unternehmen In diesem Artikel wurde eine Taxonomie entwickelt, um die verschiedenen Formen von ETO-Firmen zu klassifizieren, um einen ähnlichen Vergleich zu ermöglichen, wobei argumentiert wird, dass die bestehenden Taxonomien in der Literatur für Produktionsplanungs- und Kontrollforschungszwecke unzureichend sind. Erfolgreiche Produktionsplanungs- und Steuerungskonzepte von Großserienherstellern mit geringer Sortenvielfalt können aufgrund der Einzigartigkeit der ETO-Produkte nicht direkt angewendet werden. Zweitens beschreiben und untersuchen wir durch die Synthese der Literatur und die Analyse der drei Fallstudien die Merkmale der Produktionsplanungs- und Kontrollaktivitäten der ETO-Umgebung, um die unterschiedlichen Umgebungen innerhalb der ETO-Produktion zu unterscheiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44733-8_72 cfbb5306cbdd9d7cd69e760031dda66a;de;;;7.1.;;;Alaska Simulator Toolset zur Durchführung kontrollierter Experimente zur Prozessflexibilität Alaska Simulator Toolset (AST) ist eine an der Universität Innsbruck entwickelte Software-Suite zur Erforschung verschiedener Ansätze zur Flexibilität von Geschäftsprozessen unter Verwendung einer vertrauten Metapher, d. h. Reiseplanung und -ausführung. Dafür bietet AST eine integrierte Unterstützung mehrerer auf Entscheidungsverzögerungen basierender Ansätze zur Prozessflexibilität und ermöglicht deren systematische Vergleichbarkeit. Darüber hinaus erleichtert AST das Design und die Durchführung von kontrollierten Experimenten durch experimentelle Workflow-Unterstützung. Dieses Papier stellt AST vor, erklärt das zugrunde liegende Metamodell, diskutiert Faktoren, die mit AST untersucht werden können, und zeigt, wie es für die Planung und Durchführung von Experimenten verwendet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17722-4_15 55deda710c68da404583a81c314e03c5;de;;;7.2.;;;Eine Studie zur Entwicklung der Darstellungsfähigkeiten von Prozessmodellierungsgrammatiken Im Laufe der Jahre wurde eine Vielzahl von Prozessmodellierungstechniken vorgeschlagen. Eine Möglichkeit, den Umfang und die Vollständigkeit von Techniken zu bewerten und zu vergleichen, ist die Repräsentationsanalyse. Der Zweck dieser Arbeit besteht darin, zu untersuchen, wie sich Prozessmodellierungstechniken in den letzten vier Jahrzehnten entwickelt haben. Grundlage des Vergleichs ist das Bunge-Wand-Weber-Repräsentationsmodell, ein Benchmark zur Analyse von Grammatiken, die vorgeben, die reale Welt und die Interaktionen darin zu modellieren. Dieses Papier präsentiert einen Vergleich von Repräsentationsanalysen verschiedener populärer Prozessmodellierungstechniken und hat zwei Hauptergebnisse. Erstens gibt sie im Rahmen einer Repräsentationsanalyse Einblicke in die Entwicklung der Prozessmodellierungstechniken im Laufe der Zeit. Zweitens weisen die Ergebnisse auch auf Bereiche hin, in denen die zugrunde liegende Theorie überkonstruiert oder nicht spezialisiert zu sein scheint.;-;-;-;https://link.springer.com/chapter/10.1007/11767138_30 42356b76103a17709c115bf920bc2af0;de;;;7.2.;;;Vertrauensbewertungsmodell basierend auf User Trust Cloud und User Capability in E-Learning Service E-Learning-Dienste sind zu einem wichtigen Bildungsweg geworden. Die Verwendung einfacher und effektiver Bewertungsmethoden für die Bewertung des Benutzervertrauens ist die Schlüsseltechnologie bei E-Learning-Diensten. Dieses Papier präsentiert ein Bewertungsmodell basierend auf der Benutzervertrauenswolke und der Benutzerfähigkeit (TC-UCEM) für vertrauenswürdige E-Learning-Dienste, in dem ein Benutzervertrauens-Cloud-Ansatz vorgeschlagen wird, um das subjektive Vertrauen der Benutzer zu bewerten, sowie eine Fähigkeitsmatrixmethode zur Bewertung objektives Vertrauen des Benutzers.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31965-5_68 b89518710b5d8b86c44282eb7ee78a7f;de;;;7.2.;;;Bewertung der regionalen ökologischen Sicherheit basierend auf Support Vector Machine und GIS Nach den Grundkonzepten der ökologischen Sicherheit wurde in diesem Papier das Bewertungsindexsystem mit dem Gesundheits-Risiko-Rahmen etabliert und auch die Richtwerte sowie die Bewertungsstufen der ökologischen Sicherheit ermittelt. Gleichzeitig wurde in diesem Beitrag auch das Simulationsmodell der ökologischen Sicherheitsbewertung auf Basis der Support Vector Machine etabliert. Dieses Modell basiert auf der statistischen Theorie, die über die strengen theoretischen und mathematischen Grundlagen sowie die gute Verallgemeinerungsfähigkeit verfügt. Inzwischen wurde das Problem gelöst, dass die Komplexität des Algorithmus eng mit den Eingabevektoren zusammenhängt. Durch die Übernahme von Kernelfunktionen wurde das nichtlineare Problem im Eingaberaum auf den hochdimensionalen Merkmalsraum abgebildet, in dem die lineare Unterscheidungsfunktion konstruiert wurde. Es bezieht sich hauptsächlich auf die begrenzten Stichprobenbäume, wodurch die lokalen Minimumprobleme vermieden wurden, die durch neuronale Netze nicht gelöst werden können. In diesem Beitrag wurden die Support Vector Machine und die GIS-Technologie eingesetzt, um die räumliche und quantitative Bewertung der ökologischen Sicherheit am Beispiel von Qinhuangdao in der Provinz Hebei durchzuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31968-6_76 907b4ca477e0612d6ac056e174d64841;de;;;7.2.;;;Informationssysteme für Nachhaltigkeit: Hofstedes Kulturunterschiede in der Wahrnehmung eines Qualitätsmaßstabs für Nachhaltigkeitsberichte Ziel dieses Papiers ist es, den Einfluss der kulturellen Unterschiede von Hofstede auf die Wahrnehmung eines Qualitätsmaßstabs für Nachhaltigkeitsberichte zu reflektieren. Die Studie wird mit fortgeschrittenen Buchhaltungsstudenten in zwei Ländern (Spanien und den Vereinigten Staaten) als Stellvertreter für die Nutzer des wichtigsten Informationssysteminstruments für Nachhaltigkeit, der Nachhaltigkeitsberichte, durchgeführt. Das Qualitätsmaß basiert auf früheren Untersuchungen. Die Hypothesen werden formuliert, indem die Qualitätsmaßvariablen mit den fünf Hofstedes Kulturdimensionen verknüpft werden, um die Konsistenz der Hypothesen zu schlussfolgern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24358-5_6 22db811514ec9759d75e3cc1d640bfe0;de;;;7.2.;;;Eine kohärente Abfragesprache für XML Textsuchmaschinen sind für das Indizieren und Durchsuchen von XML-Dokumenten ungeeignet, da sie Metadaten und die in den XML-Dokumenten implizite Aggregationsstruktur ignorieren. Andererseits sind die von spezialisierten XML-Suchmaschinen unterstützten Abfragesprachen sehr komplex. In diesem Beitrag stellen wir eine einfache, aber flexible Abfragesprache vor und entwickeln deren Semantik, um intuitiv ansprechende;-;-;-;https://link.springer.com/article/10.1007/s10844-007-0051-2 5ad9865df63bc004525938cd35399ed2;de;;;7.2.;;;Soft-Constraint-basierte Online-LDA für Community-Empfehlungen Mit der wachsenden Zahl sozialer Gemeinschaften ist die Empfehlung sozialer Gemeinschaften nach und nach zu einer kritischen Technik für Benutzer geworden, um ihre Lieblingsgemeinschaften effizient zu finden. Gegenwärtig wurde eine Vielzahl von Empfehlungstechniken entwickelt, wie zum Beispiel inhaltsbasierte Verfahren, kollaboratives Filtern usw. Diese Verfahren passen entweder die Daten aufgrund der Beschränkung der Beobachtungen leicht über oder leiden unter hohen Rechenkosten. Außerdem berücksichtigen sie nicht die Beziehungen zwischen Benutzern und Communities und können keine eingehenden Benutzer verarbeiten. In diesem Beitrag schlagen wir eine auf Soft-Constraints basierende Online-LDA-Methode (SO-LDA) vor. Wir verwenden die Anzahl der Benutzerbeiträge innerhalb jeder Community als weiche Einschränkung, um die latenten Themen in den Communities durch einen Online-LDA-Algorithmus zu schätzen, bei dem eine inkrementelle Methode angewendet wird, um die Modellaktualisierung zu erleichtern, wenn ein neuer Benutzer einzieht. Experimente mit den bekannten MySpace-Community-Daten zeigen, dass die vorgeschlagene Methode viel weniger Zeit in Anspruch nimmt und die hochmodernen Community-Empfehlungsmethoden übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15696-0_46 5920356b4cb76cb8e1fe7b71e2fa6b3c;de;;;7.2.;;;Datenabhängiges Unähnlichkeitsmaß: eine effektive Alternative zu geometrischen Distanzmaßen Die Suche nach dem nächsten Nachbarn ist ein Kernprozess in vielen Data-Mining-Algorithmen. Das Auffinden zuverlässiger nächster Übereinstimmungen einer Testinstanz ist immer noch eine schwierige Aufgabe, da die Wirksamkeit vieler allgemeiner Entfernungsmessungen, wie z;-;-;-;https://link.springer.com/article/10.1007/s10115-017-1046-0 75611eff3591a5807ad343a551b1fc79;de;;;7.2.;;;Ausnutzung der Lokalität von Wikipedia-Links im Entitätsranking Der Informationsabruf aus Web- und XML-Dokumentsammlungen konzentriert sich immer mehr auf zurückgegebene Entitäten anstelle von Webseiten oder XML-Elementen. Es gibt viele Forschungsfelder mit benannten Entitäten, ein solches Feld ist als Entitätsranking bekannt, wobei ein Ziel darin besteht, Entitäten als Reaktion auf eine Abfrage zu ordnen, die durch eine kurze Liste von Entitätsbeispielen unterstützt wird. In diesem Whitepaper beschreiben wir unseren Ansatz zum Ranking von Entitäten aus der Wikipedia-XML-Dokumentensammlung. Unser Ansatz nutzt die bekannten Kategorien und die Linkstruktur von Wikipedia und, was noch wichtiger ist, das gleichzeitige Auftreten von Links, um die Effektivität des Entity-Rankings zu verbessern. Unter Verwendung des breiten Kontexts einer vollständigen Wikipedia-Seite als Basis werten wir zwei verschiedene Algorithmen aus, um enge Kontexte um die Entitätsbeispiele zu identifizieren: einen, der vordefinierte Elementtypen wie Absätze, Listen und Tabellen verwendet, und einen anderen, der die Kontexte dynamisch identifiziert unter Verwendung der zugrunde liegenden XML-Dokumentstruktur. Unsere Experimente zeigen, dass die Lokalität von Wikipedia-Links ausgenutzt werden kann, um die Effektivität des Entity-Rankings signifikant zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78646-7_25 583e05783a1334ccffe998fc734fdf6b;de;;;7.2.;;;Reranking der Bildsuche mit teilüberwachtem LPP und Ranking SVM Das Erlernen des Rankings ist eine der beliebtesten Ranking-Methoden, die beim Bildabruf und beim Neuranking von Suchergebnissen verwendet werden. Allerdings verursacht die hohe Dimension der visuellen Merkmale meist das Problem des „Fluchs der Dimensionalität“. Die Reduzierung der Dimensionalität ist einer der wichtigsten Schritte zur Überwindung dieser Probleme. Bestehende Dimensionalitätsreduktionsverfahren sind jedoch typischerweise für Klassifikation, aber nicht für Ranking-Aufgaben ausgelegt. Da sie keine Rangordnungsinformationen wie Relevanzgradbezeichnungen verwenden, kann die direkte Verwendung herkömmlicher Dimensionsreduktionsverfahren in Rangordnungsanwendungen im Allgemeinen nicht die beste Leistung erzielen. In diesem Artikel untersuchen wir die Aufgabe des Rerankings der Bildsuche und schlagen ein neuartiges Systemschema vor, das auf Locality Preserving Projections (LPP) und RankingSVM basiert. Darüber hinaus verbessern wir in dem vorgeschlagenen Schema LPP, indem wir die Informationen zum Relevanzgrad darin einbeziehen. Da diese Art von Methode die Informationen von markierten und unmarkierten Daten nutzen kann, nennen wir sie semi-supervised LPP (Semi-LPP). Experimente mit dem beliebten MSRA-MM-Datensatz demonstrieren die Überlegenheit des vorgeschlagenen Schemas und der Semi-LPP-Methode bei der Neuordnung der Bildsuche.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35725-1_20 cc0a7b4f6b7db9eea1efc3142f84596f;de;;;7.2.;;;Konzeption und Evaluation einer hochschulweiten Expertensuchmaschine Wir präsentieren einen Bericht über die Konzeption und Evaluierung einer universitätsweiten Expertensuchmaschine. Wir führten eine systembasierte Auswertung zur Ermittlung der optimalen Retrieval-Einstellungen und eine umfangreiche nutzerbasierte Auswertung mit drei unterschiedlichen Nutzergruppen durch: wissenschaftliche Forscher, Studierende und externe Besucher der Website auf der Suche nach Experten. Unsere Suchmaschine hat das alte Suchsystem in Bezug auf Effektivität, Effizienz und Benutzerzufriedenheit deutlich übertroffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00958-7_54 0859582f9f32634954de93afb73004e7;de;;;7.2.;;;Einführung in die Gesundheitsinformatik als Wahlmodul in einem Wirtschaftsinformatik-Honours-Abschluss: Erfahrungen von der Universität Rhodes Eine Priorität der eHealth-Strategie Südafrikas ist die Entwicklung von Fähigkeiten, die zur Implementierung und Unterstützung von Gesundheitsinformationssystemen erforderlich sind. Angesichts des Zeitrahmens, der für die Erstellung und Bereitstellung neuer Studienpläne erforderlich ist, besteht ein praktikabler kurzfristiger Ansatz für den Kapazitätsaufbau darin, Absolventen von Informationssystemen (IS) mit relevanten Kenntnissen über Gesundheitssysteme und eHealth-Technologien auszustatten. Die IS-Abteilung der Rhodes University hat im Rahmen ihres einjährigen Honours-Programms ein Wahlmodul in Gesundheitsinformatik eingeführt, das darauf abzielt, IS-Studenten auf eine Karriere im Bereich eHealth vorzubereiten. In diesem Papier werden die Modulinhalte und Erkenntnisse aus dem Feedback der Studierenden skizziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-47680-3_12 541bd20dfd0479516d3a30fafddb6c08;de;;;7.1.;;;Analyse der vermittelnden Rolle der dyadischen Kontrollaktivitäten in Bezug auf Lieferzuverlässigkeit und -flexibilität Das erfolgreiche Management von Unternehmensbeziehungen in den heutigen globalisierten Geschäftsumgebungen ist eine gewaltige Herausforderung (z. B. Christopher, 2005, Presutti und Mawhinney, 2007, Meira et al., 2010). Effizienz und Effektivität von Transaktionsprozessen an der Käufer-Lieferanten-Schnittstelle sind aufgrund ihres direkten Einflusses auf die Kundenzufriedenheit (Gunasekaran et al., 2004) und die Unternehmensleistung (Swink et al., 2007) besonders wichtig.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-01893-1_7 4351d57f20369f5b6d4a646c60164a3b;de;;;7.1.;;;Organisationsdesign: Jenseits der Bürokratie? Wie wir in Kapitel 5 gesehen haben, besteht möglicherweise Raum für eine legitime Debatte über das Ausmaß kohärenter Managementstrategien. Aber es ist ein unbestreitbares Merkmal aller Theorien, dass die verschiedenen Dimensionen des Organisationslebens einem gewissen Grad an bewusster Planung und Musterung unterliegen;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-24223-8_6 5202bfc8d8d806ab21ffa7c7ab88aaca;de;;;7.2.;;;CLEF 2017 – Übersicht über das Evaluierungslabor für dynamische Suche In diesem Papier geben wir einen Überblick über die erste Ausgabe des CLEF Dynamic Search Lab. Das CLEF Dynamic Search Lab lief in Form eines Workshops mit dem Ziel, sich einer zentralen Frage zu nähern: Wie können wir dynamische Suchalgorithmen evaluieren? Im Gegensatz zu statischen Suchalgorithmen, die im Wesentlichen die Nutzeranfragen unabhängig berücksichtigen und das Ranking nicht an die Interaktionssequenz des Nutzers anpassen, versuchen dynamische Suchalgorithmen, aus ihren Interaktionen auf die Intentionen des Nutzers zu schließen und das Ranking entsprechend anzupassen. Personalisierte Sitzungssuche, Kontextsuche und Dialogsysteme verwenden häufig solche Algorithmen. Dieses Lab bietet Forschern die Möglichkeit, die Herausforderungen zu diskutieren, die bei der Messung und Bewertung der Leistung dynamischer Suchalgorithmen im Kontext verfügbarer Korpora, Simulationsmethoden und aktueller Bewertungsmetriken auftreten. Um die Diskussion anzustoßen, wurde eine Pilotaufgabe mit dem Ziel durchgeführt, Suchagenten zu erstellen, die den Prozess eines Benutzers simulieren können, der im Verlauf einer Suchsitzung mit einem Suchsystem interagiert. Hierin beschreiben wir die Gesamtziele des CLEF 2017 Dynamic Search Lab, die für die Pilotaufgabe geschaffenen Ressourcen und die angewandte Evaluierungsmethodik.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-65813-1_31 450da67a9db8ff3bd9dc24f93244d053;de;;;7.2.;;;Automatische Indexierung von Zeitschriftenabstracts mit latenter semantischer Analyse Die BioASQ „Task on Large-Scale Online Biomedical Semantic Indexing“ beauftragt die Teilnehmer mit der Vergabe von semantischen Tags an biomedizinische Zeitschriftenabstracts. Wir präsentieren ein System, das als Eingabe ein biomedizinisches Abstract verwendet und latente semantische Analysen verwendet, um ähnliche Dokumente in der MEDLINE-Datenbank zu identifizieren. Das System verwendet dann ein neuartiges Ranking-Schema, um eine Liste von MeSH-Tags aus Kandidaten auszuwählen, die aus den ähnlichsten Dokumenten gezogen wurden. Unser Ansatz erzielte sowohl in der Präzision als auch in der Erinnerung eine bessere Leistung als die Ausgangsleistung. Wir schlagen mehrere mögliche Strategien vor, um die Leistung des Systems zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24027-5_17 c53403b8a24802179831e66e858f9e98;de;;;7.2.;;;Semantische diskriminierende Projektionen für den Bildabruf Das Lernen im Subraum hat bei der Bildsuche viel Aufmerksamkeit auf sich gezogen. In diesem Beitrag stellen wir einen Subraum-Lernansatz namens Semantic Discriminative Projections (SDP) vor, der den semantischen Subraum durch die Integration der beschreibenden und diskriminierenden Informationen lernt. Wir konstruieren zunächst einen Graphen, um die Ähnlichkeit inhaltsbasierter Merkmale zu charakterisieren, einen anderen, um die semantische Unähnlichkeit zu beschreiben. Dann formulieren wir ein eingeschränktes Optimierungsproblem mit einer bestraften Differenzform. Daher können wir das Singularitätsproblem vermeiden und die optimale Dimensionalität erhalten, während wir einen semantischen Unterraum lernen. Außerdem kann SDP im Originalraum oder im Wiedergabekern-Hilbert-Raum durchgeführt werden, in den Bilder abgebildet werden. Dies führt zu Kernel-SDP. Wir untersuchen umfangreiche Experimente, um die Wirksamkeit unseres Ansatzes zu überprüfen. Experimentelle Ergebnisse zeigen, dass unser Ansatz eine bessere Retrieval-Performance erzielt als moderne Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68636-1_4 856c317c16d28fe017a0e99c34d8cdf4;de;;;7.2.;;;Auswertung von Diskussionen in Online-Klassenzimmern Diskussionen im Klassenzimmer sind ein wichtiges Element in vielen Formen des kollaborativen Online-Lernens. Wir diskutieren hier die Gestaltung von Systemen zur Unterstützung von Tutoren bei der Aufgabe, solche Diskussionen zu moderieren und die Beiträge der Teilnehmer zu bewerten. Wir beschreiben die Architektur eines Systems, das Techniken der Gesprächsanalyse und der Dialogspieltheorie verwendet, um dem Lehrer für diese Aufgaben relevante Informationen bereitzustellen. Die Forschung stützt sich auf unsere Erfahrungen bei der Durchführung eines Online-Studiengangs.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45226-3_27 e4eb47f29b0ff537de8ba410dde35cb5;de;;;7.2.;;;Eine neuartige Wiederholungserkennung mit LCS- und SIFT-Algorithmus In diesem Artikel wird eine Methode zur Bestimmung der Wiederholung von Eilvideos vorgeschlagen. Bei dieser Methode wird das Video zuerst in Aufnahmen unterteilt, und dann wird jede Aufnahme, die eine einzelne Farbe, einen Farbbalken oder eine Klappe enthält, eliminiert. In jeder verbleibenden Aufnahme wird die Ähnlichkeit zwischen aufeinanderfolgenden Frames mit einem SIFT-Matching-Algorithmus berechnet und dann in eine String-Sequenz umgewandelt. Die Ähnlichkeit zwischen zwei Sequenzen wird durch den Longest Common Subsequence Algorithmus (LCS) bewertet. Diese vorgeschlagene SIFT-LCS-basierte Methode wurde auf die TRECVID BBC-Rushes-Videos von 2007 und 2008 als Kompetenztest angewendet. Die Ergebnisse unterstützen die Vorstellung, dass die vorgeschlagene Methode einen angemessen hohen Grad an Genauigkeit bietet, und identifiziert die wahrscheinlichen Ursachen für eine schlechte Genauigkeit für weitere Verbesserungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10467-1_68 59ba525ae52fe8cf3efda5d006287ce2;de;;;7.1.;;;Adaptive Jobsteuerung in der kognitiven Fabrik Um wettbewerbsfähig zu bleiben, müssen produzierende Unternehmen den ständig steigenden individuellen Anforderungen der Kunden gerecht werden. Ein zentrales Element ist die Forderung nach kundenindividuellen Produkten mit kurzen Lieferzeiten und vertretbaren Kosten. Dabei kommt dem Bereich Produktionsplanung und Shopfloor eine besondere Bedeutung zu. Ein vielversprechender Ansatz zur Realisierung eines hohen Maßes an Flexibilität und gleichzeitig hoher Produktivität ist die Implementierung künstlicher kognitiver Fähigkeiten. Der Beitrag skizziert das Paradigma der „Cognitive Factory“, die die Vorteile automatisierter Systeme mit der Flexibilität, Anpassungsfähigkeit und Reaktionsfähigkeit menschlicher Werkstätten verbindet. Als Beispiel wird die adaptive Jobsteuerung im Detail erläutert. Dabei haben sogenannte Smart Products zum einen einen „Rucksack“ mit Wissen über „ihren“ Produktionsprozess und ihren aktuellen Zustand. Andererseits sind sie in der Lage, mit Fertigungsressourcen zu kommunizieren. So kann sich das einzelne Werkstück während des gesamten Produktionsprozesses selbst steuern. Die produktspezifischen Erfahrungen bei der Auftragsabwicklung werden zur kontinuierlichen Aktualisierung der Wissensmodelle genutzt. Die Umsetzbarkeit und der Nutzen des ganzheitlichen Ansatzes wurden durch die Umsetzung in einer realitätsnahen Produktionsumgebung erfolgreich gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23860-4_2 109de2202841377b6b988756249c2632;de;;;7.1.;;;3D Indoor-Routenplanung für Objekte mit beliebiger Form Die Routenplanung, die verwendet wird, um machbare Routen in einer bestimmten Umgebung zu berechnen, ist eines der Schlüsselthemen in Navigationssystemen. Aufgrund unterschiedlicher Randbedingungen in unterschiedlichen gegebenen Räumen wurden in den letzten Jahren verschiedene Routenplanungsstrategien entwickelt. Aktuelle Routenplanungsmodelle für Innenräume konzentrieren sich auf die Bereitstellung von Routen für Fußgänger oder Benutzer mit festen Größen wie Robotern und Rollstuhlfahrern. Keines der bestehenden Modelle kann praktikable Routen für Benutzer beliebiger Form bereitstellen, was in vielen Situationen immer nützlicher zu sein scheint, wie beispielsweise Benutzern, die kleine Indoor-Autos fahren oder Karren mit Produkten bewegen. Dieses Papier schlägt ein zweiphasiges Routenplanungsmodell vor, das die Routenplanung für Benutzer mit beliebigen Formen unterstützen kann. In der ersten Phase repräsentiert das LEGO-Modell den gesamten Raum durch die Verwendung verschiedener Arten von Würfeln. Diese Würfel werden in der zweiten Phase weiter zusammengeführt, um die maximal zugänglichen Blöcke zu bilden. Durch Berechnung der maximal zugänglichen Breiten und Längen zwischen Blöcken wird ein LEGO-Graphen erstellt, um Routensuchalgorithmen durchzuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20244-5_12 f0da436507d1cb00d545d1c214db05cd;de;;;7.2.;;;Erkundung der Analysten-Client-Kommunikation: Verwendung von Grounded Theory-Techniken zur Untersuchung der Interaktion bei der informellen Anforderungserfassung Dieses Papier beschreibt eine Fallstudie zur Interaktion zwischen Kunde und Analyst während der Phase der Anforderungserfassung. Der Schwerpunkt dieser Arbeit ist eine Diskussion von Interaktionstaktiken, die von Analysten und Kunden verwendet werden, um ein gemeinsames Verständnis und eine Übereinstimmung zu ermöglichen, und wie sich dies auf die Konzeptualisierung von Informationssystemen auswirken kann. Der Artikel beschreibt auch im Detail methodische Probleme, die bei der Analyse von Gesprächsdaten auftreten, und wie diese Probleme durch Anwendung von Grounded Theory-Techniken in Verbindung mit anderen qualitativen Techniken gelöst wurden. Schließlich gibt das Papier einige Anregungen, wie die Ergebnisse die aktuelle Praxis der Systemanalyse unterstützen könnten, insbesondere im Hinblick darauf, wie Systemanalytiker ihre Interaktionen besser strukturieren könnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35309-8_10 c70b13fb88d75f7ed770b056f1743aa4;de;;;7.2.;;;Kryptografische Herausforderungen: Vergangenheit und Zukunft In diesem Papier diskutieren wir unsere Kryptoanalyse der Hagelin C-38/48 (oder M-209) Kryptogramme, die unmittelbar nach der Unabhängigkeit (1960–1961) zwischen Brüssel und mehreren belgischen Beamten im Kongo verschickt wurden. Diese Arbeit wurde für den Untersuchungsausschuss des belgischen Parlaments (1999-2001) durchgeführt, der die Umstände des Mordes an Patrice Lumumba untersuchte. Im zweiten Teil des Artikels versuchen wir, die Implikationen dieser Forschung auf die moderne Kryptologie zu extrahieren. Wir diskutieren den Stand der Technik in der Kryptographie und die Forschungsherausforderungen, die in den nächsten zehn Jahren angegangen werden müssen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-40981-6_14 11ed6d5081a16058bdffeffc5a805809;de;;;7.2.;;;Die bipolare Semantik der Abfrage von Nullwerten in regulären und Fuzzy-Datenbanken Der Umgang mit fehlenden Informationen in Datenbanken, sei es weil die Informationen unbekannt oder nicht anwendbar sind, ist ein weit verbreitetes Forschungsthema. Meistens werden Nullwerte verwendet, um diese fehlenden Informationen zu modellieren. Dieses Papier befasst sich mit der Abfrage solcher Nullwerte und insbesondere von Nullwerten, die nicht anwendbare Informationen darstellen, und versucht, semantisch reichhaltigere, aber immer noch korrekte Abfrageantworten in Gegenwart von Nullwerten zu finden. Der vorgestellte Ansatz basiert auf der Beobachtung, dass ein nicht anwendbarer Wert im Kontext einer Abfrage semantisch äquivalent zu einem anderen regulären Domänenwert behandelt werden kann, was dazu führt, dass die Erfüllung der Abfragekriterien entweder;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14058-7_14 dfaf60e35986022913fc2eb024fab382;de;;;7.2.;;;Bewertung der Zielerreichung in der Unternehmensmodellierung – ein interaktives Verfahren und Erfahrungen Ziel- und agentenorientierte Modelle haben sich als Möglichkeit herausgebildet, Stakeholder- und Organisationsziele in einem komplexen Unternehmen zu erfassen. Die Komplexität solcher Modelle führt zu einem Bedarf an systematischen Verfahren, die es den Benutzern ermöglichen, die in Modellen ausgedrückten Handlungsalternativen und -lösungen zu bewerten und zu vergleichen. Viele bestehende Ansätze konzentrieren sich auf automatisierte Verfahren, wodurch die Eingriffsmöglichkeiten des Benutzers eingeschränkt werden. Hier stellen wir ein qualitatives, interaktives Bewertungsverfahren für ziel- und agentenorientierte Modelle vor, das es dem Modellierer ermöglicht, die Bewertung durch nicht im Modell erfasstes Domänenwissen zu ergänzen. Wir stellen eine Beispielmethodik zur Verfügung, um die Modellerstellung und Domänenexploration zu leiten, die die Bewertung von Alternativen umfasst. Wir veranschaulichen die Vorgehensweise und Methodik mit dem i* Framework. Die Erfahrung von Fallstudien zeigt, dass das Verfahren die Analyse erleichtert, die Iteration der Modellentwicklung anregt, die Ermittlung fördert und das Domänenverständnis verbessert. Wir beschreiben die Ergebnisse eines explorativen Experiments, mit dem diese Ergebnisse überprüft werden sollen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05352-8_12 d96ecf763f696757d70f9044721d66be;de;;;7.2.;;;RRSi: Indizierung von XML-Daten für Proximity Twig-Abfragen Der Twig-Abfragemustervergleich ist eine Kernoperation bei der Verarbeitung von XML-Abfragen. Die Indizierung von XML-Dokumenten für die Verarbeitung von Twig-Abfragen ist von grundlegender Bedeutung, um eine effektive Informationssuche zu unterstützen. In der Praxis sind viele XML-Dokumente im Web heterogen und haben eigene Formate, Dokumente, die relevante Informationen beschreiben, können unterschiedliche Strukturen aufweisen. Daher werden einige „benutzerinteressante“ Dokumente mit ähnlichen, aber nicht genauen Strukturen für eine Benutzeranfrage oft übersehen. In diesem Beitrag schlagen wir die;-;-;-;https://link.springer.com/article/10.1007/s10115-008-0122-x 396d334c99cc7ced9fa13166850da3c1;de;;;7.2.;;;Aufbau eines Informationssystems zur Bekämpfung von Ölunfällen auf der Grundlage von ArcGIS Server In diesem Artikel wurde ein auf ArcGIS Server basierendes Marine Oil Spill Emergency Response Information System erstellt. Das System übernimmt die ArcGIS Server-Architektur und verwendet die Datenfusionsmethode, um verschiedene Datenquellen wie elektronische Karten, elektronische Karten und Fernerkundungsbilder zu lösen. Außerdem gelingt es, verschiedene Maßstäbe der Multi-Source-Datenintegration zu lösen und eine nahtlose visuelle Darstellung zu erreichen. Gemäß dem Konzept Ölpartikel entwickelt es ein dynamisches Simulationsmodul für Ölunfälle und richtet ein Entscheidungsfindungsmodul für Ölunfälle ein, das die Grundlage für die Notfallreaktion bei Ölunfällen des Tiefwasserhafens Shanghai Yang Shan und der Mündung des Jangtse bildet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25766-7_76 3f3a8dc4b844d8529f1755a0448931bd;de;;;7.1.;;;Bedeutungstheorien und unterschiedliche Perspektiven auf Informationssysteme Obwohl automatisierte Informationssysteme seit fast drei Jahrzehnten im Arbeitsleben eingesetzt werden, befindet sich die akademische Disziplin der Wirtschaftsinformatik noch in einer „vorparadigmatischen Phase“. Es gibt kein zentrales Korpus einer gut verstandenen und akzeptierten Theorie, wie diese Artefakte verstanden und gestaltet werden sollten. Was wir sehen, ist eine Reihe verstreuter Methoden und Theorien, mit Einflüssen aus einer Vielzahl anderer Disziplinen, wie Logik, Linguistik, Philosophie, Kognitionspsychologie, Organisationstheorie, Ethnographie usw. Es besteht ein praktischer Bedarf, einen Überblick zu schaffen und ein tieferes Verständnis dafür, wie verschiedene Theorien und Methoden miteinander zusammenhängen, was ihre relativen Stärken und Schwächen sind und wann sie anwendbar sind;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34870-4_3 d9a0415ac10416edeb3454c06ceefcb8;de;;;7.2.;;;Konzeptuelle Inkongruenz von textbasierten Anmerkungen messen Wir schlagen eine Methode vor, um die konzeptionelle Inkongruenz eines digitalen Objekts unter Verwendung von zugehörigen Textmetadaten zu messen. Wir zeigen, dass dieses Maß gut mit empirischen Kreativitätsbewertungen korreliert, die von menschlichen Probanden in Laborumgebungen erhoben wurden. Wir erweitern unseren Fokus auf Online-Ressourcen und zeigen, dass die vorhergesagte Inkongruenz einer Filmhandlung in der Movielens-Datenbank schwach mit den Bewertungen der Benutzer für den Film, aber stark mit der Variabilität der Bewertungen korreliert. Filme mit widersprüchlicher Handlung scheinen viel polarisiertere Reaktionen hervorzurufen. In Bereichen, in denen kognitive Theorien darauf hindeuten, dass Benutzer wahrscheinlich nach Inkongruenz suchen, z. Humor zeigen wir mit Hilfe des Youtube Comedy Slam Datasets, dass Nutzerbewertungen für Comedy-Stücke durch ihre Inkongruenzbewertung ziemlich gut vorhergesagt werden. Diese Auswertungen liefern einen konvergenten Beweis für die Validität unserer Inkongruenzmessung und eröffnen gleich mehrere direkte Anwendungsmöglichkeiten. Wir präsentieren ein Fallbeispiel für die Einbeziehung von Inkongruenz als Metrik des Empfehlungssystems, um die als Reaktion auf Benutzeranfragen gemachten Vorschläge so zu diversifizieren, dass sie der natürlichen Neugier der Benutzer entsprechen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-04021-5_15 c66f70df17abd07321944d2ba5e598e5;de;;;7.2.;;;Entropie-DEA-Evaluierung des agilen Supply Chain Managements basierend auf IOT Die Informationstechnologie brachte Unternehmen eine Revolution des Reengineerings von Geschäftsprozessen. ASCM ist eine Kernstrategie von Unternehmen. Die Anwendung von IOT in ASCM ist ein heißes Problem im Management. Dieses Papier konstruierte ein allgemeines Modell von ASCM basierend auf IOT und stellte die Bewertungsmethode durch Entropie-DEA vor. Um das theoretische Modell und seine Bewertungsmethode zu demonstrieren, haben wir einen Fall als empirische Analyse genommen und einige Ratschläge aus den Schlussfolgerungen gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32427-7_86 cc6bf80fedcc963f9b13d9b71ceae4d3;de;;;7.2.;;;Robuste Retrieval-Experimente an der Universität Hildesheim Dieses Papier berichtet über Experimente, die für die robuste Aufgabe beim CLEF 2007 eingereicht wurden. Wir haben ein System angewendet, das zuvor für die Ad-hoc-Abfrage getestet wurde. Die Experimente konzentrierten sich auf die Wirkung von blindem Relevanz-Feedback und benannten Entitäten. Es werden Experimente für einsprachiges Englisch und Französisch vorgestellt. Eine Themenanalyse der Post-Run-Ergebnisse zeigt Richtungen für zukünftige Forschungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85760-0_17 5b6782094bfb1f38603845877cef8733;de;;;7.2.;;;Kollaborative immersive Analyse Viele der Probleme, die von Immersive Analytics angegangen werden, erfordern die Lösung vieler Personen. In diesem Kapitel wird das Konzept von Collaborative Immersive Analytics (CIA) vorgestellt und erläutert, wie immersive Technologien mit Visual Analytics kombiniert werden können, um die Zusammenarbeit am gemeinsamen Standort und aus der Ferne zu erleichtern. Wir geben eine Definition von Collaborative Immersive Analytics und anschließend einen Überblick über die verschiedenen Arten der möglichen Zusammenarbeit. In diesem Kapitel werden auch die verschiedenen Rollen in kollaborativen Systemen erörtert und wie die gemeinsame Interaktion mit den präsentierten Daten unterstützt werden kann. Abschließend fassen wir die Möglichkeiten für zukünftige Forschungen in diesem Bereich zusammen. Das Ziel des Kapitels ist es, eine ausreichende Einführung in die CIA und wichtige Richtungen für die zukünftige Forschung zu geben, damit Praktiker in der Lage sind, auf diesem Gebiet zu arbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-01388-2_8 a2e09e4547031b2126b6923c42ac4add;de;;;7.2.;;;Reduzieren von Informationssystemen mit unsicheren Attributen Wir präsentieren den Rough-Set-Ansatz für das Denken in Informationssystemen mit unsicheren Attributen. Eine Ähnlichkeitsbeziehung zwischen Objekten wird eingeführt. Das Verhältnis ist ein Toleranzverhältnis. Eine von uns vorgeschlagene Wissensreduktion eliminiert nur Informationen, die aus Sicht der Klassifikation nicht wesentlich sind. Unser Ansatz ist insofern allgemein, als er nichts über die Semantik von Nullwerten und unsicheren mehrwertigen Attributen voraussetzt. Wir zeigen, wie man Entscheidungsregeln findet, die eine minimale Anzahl von Bedingungen haben und den Grad der Nichtdeterminismus der ursprünglichen Entscheidungstabelle nicht erhöhen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-61286-6_153 59da5a1a76fce31e5e6589a774346432;de;;;7.2.;;;CLEF 2005: Überblick über Ad-hoc-Tracks Wir beschreiben die Ziele und die Organisation des CLEF 2005 Ad-hoc-Tracks und diskutieren die Hauptmerkmale der Aufgaben, die angeboten werden, um ein-, zwei- und mehrsprachige Textdokumente zu testen. Die für jede Aufgabe erreichte Leistung wird dargestellt und eine statistische Auswertung der Ergebnisse erfolgt. Die ein- und zweisprachigen Aufgaben folgten dem Muster der Vorjahre, umfassten jedoch Zielsammlungen für zwei neue CLEF-Sprachen: Bulgarisch und Ungarisch. Die mehrsprachigen Aufgaben konzentrierten sich auf die Untersuchung der Wiederverwendung vorhandener Testsammlungen aus einer früheren CLEF-Kampagne. Die Ziele bestanden darin, den Fortschritt beim mehrsprachigen Informationsabruf zu messen, indem die Ergebnisse der CLEF 2005-Einreichungen mit denen der Teilnehmer früherer Workshops verglichen und die Teilnehmer dazu ermutigt werden, mehrsprachige Techniken zur Zusammenführung von Listen zu erkunden.;-;-;-;https://link.springer.com/chapter/10.1007/11878773_2 62567394dbacb7555635cf4b6a27bc87;de;;;7.2.;;;Additiv homomorphe Verschlüsselung mit Die Suche nach Verschlüsselungsverfahren, die es ermöglichen, Funktionen (oder Schaltkreise) über verschlüsselte Daten auszuwerten, hat seit den bahnbrechenden Arbeiten zu diesem Thema von Rivest, Adleman und Dertouzos im Jahr 1978 viel Aufmerksamkeit auf sich gezogen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14623-7_8 613db20a8eac1ee30762757616fe8042;de;;;7.2.;;;Navigation mit mehreren Ansichten in einem personalisierten szientometrischen Abrufsystem Angesichts der großen Zahl wissenschaftlicher Produktionen wird es schwierig, diejenigen auszuwählen, die dem Bedarf der Forscher an wissenschaftlichen Informationen und aus bestimmten Vertrauensquellen entsprechen. Eine der Herausforderungen für Forscher besteht darin, qualitativ hochwertige wissenschaftliche Informationen zu finden, die ihren Forschungsbedürfnissen entsprechen. Um ein qualitativ hochwertiges Ergebnis zu gewährleisten, ist eine auf wissenschaftlicher Qualität basierende Forschungsmethode erforderlich. Die Qualität wissenschaftlicher Informationen wird durch Szientometrics gemessen, basierend auf einer Reihe von Metriken und Maßnahmen, die als szientometrische Indikatoren bezeichnet werden. In diesem Beitrag schlagen wir einen neuen Ansatz für die personalisierte Informationsgewinnung vor, der die Qualitätsanforderungen der Forscher berücksichtigt. Der vorgeschlagene Ansatz umfasst einen szientometrischen Dokument-Annotator, ein szientometrisches Benutzermodell, einen szientometrischen Ranking-Ansatz und verschiedene Methoden der Ergebnisvisualisierung. Wir diskutieren die Machbarkeit dieses Ansatzes, indem wir verschiedene Experimente an seinen verschiedenen Teilen durchführen. Die Einbeziehung szientometrischer Indikatoren in die verschiedenen Teile unseres Ansatzes hat die Abrufleistung deutlich verbessert, die in Bezug auf das F-Maß mit 41,66 % bewertet wird. Eine wichtige Implikation dieses Ergebnisses ist die Existenz einer Korrelation zwischen der Qualität der Forschungsarbeit und der Relevanz der Arbeit. Die Aufdeckung dieser Korrelation impliziert eine bessere Abrufleistung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-26169-6_13 5a3ce5ec9ea1c4165812805407d072fc;de;;;7.2.;;;Ein Message Passing-Graph-Match-Algorithmus basierend auf einem generativen grafischen Modell In diesem Artikel präsentieren wir ein generatives Modell zur Messung der Graphähnlichkeit unter der Annahme, dass ein beobachteter Graph aus einer Vorlage durch ein Markov-Zufallsfeld erzeugt wird. Die Potenziale dieses Zufallsprozesses werden durch zwei Parametersätze charakterisiert: die Attributerwartungen, die durch den Vorlagengraphen spezifiziert werden, und die Varianzen, die von einem Maximum-Likelihood-Schätzer aus einer Sammlung von Stichproben gelernt werden können. Sobald ein Stichprobengraph beobachtet wurde, wird ein Max-Product-Loopy-Belief-Propagation-Algorithmus angewendet, um die wahrscheinlichste Erklärung der Eckpunkte der Vorlage anzunähern, die den Eckpunkten der Stichprobe zugeordnet sind. Wie durch die Experimente gezeigt, schnitt der vorgeschlagene Ansatz im Vergleich zu anderen Algorithmen besser für nahezu isomorphe Graphen in den typischen Anwendungen zur Graphenausrichtung und Informationsgewinnung ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35236-2_27 11dd30e446e3ad5e87744541aa9456e6;de;;;7.2.;;;Einige Überlegungen zur Fuzzy-Set-Theorie als experimentelle Wissenschaft Ziel dieses Papiers ist es, eine kritische Diskussion über die kürzlich in der Community vorgetragene und insbesondere von Enric Trillas verkündete Behauptung zu eröffnen, dass Fuzzy-Logik als „experimentelle Wissenschaft“ zu sehen ist. Der erste interessante Aspekt einer solchen Bemerkung ist, ob und in welcher Weise eine solche Position Auswirkungen auf die tatsächliche Entwicklung der Forschung hat oder ob es sich lediglich um eine (andere) Betrachtungsweise desselben Phänomens handelt. Als Konsequenz untersuchen wir den möglichen Zusammenhang zu Zadehs Unterscheidung zwischen Fuzzy-Logik im eingeschränkten und im allgemeinen Sinne. Wir werden argumentieren, dass die Behauptung von Trillas nicht nur die Notwendigkeit einer solchen Unterscheidung stark unterstützt, sondern auch einen Untersuchungspfad bietet, der die konzeptionelle Innovation des Begriffs der Unschärfe bewahren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08855-6_55 fea7db8e2004d05a763c917a18bfd123;de;;;7.2.;;;Lernen aus dem Benutzerverhalten beim Abrufen von Bildern: Anwendung der Warenkorbanalyse In diesem Artikel wird ein Ansatz zum Erlernen von Featuregewichtungen für den inhaltsbasierten Bildabruf (CBIR) aus Benutzerinteraktionsprotokolldateien beschrieben. Diese Nutzungsprotokolldateien werden auf Bilder analysiert, die von einem Benutzer im selben Abfrageschritt zusammen markiert wurden. Das Problem ähnelt in gewisser Weise einem der traditionellen Data-Mining-Probleme, dem;-;-;-;https://link.springer.com/article/10.1023/B%3AVISI.0000004832.02269.45 22298e485feb3d1897a7ca1def0ece08;de;;;7.1.;;;Wie nehmen Benutzer einen Design-in-Use-Ansatz zur Implementierung wahr? Ein Fall im Gesundheitswesen Die Implementierung von Informationssystemen im organisatorischen Umfeld ist ein langwieriger Prozess, der die gegenseitige Anpassung von System und Organisation nach dem Produktivstart des Systems beinhaltet. Wir untersuchen einen Design-in-Use-Ansatz für diesen Implementierungsprozess. Anstelle eines zentral geführten Umsetzungsprozesses mit vorgegebenen Zielen beauftragte das Management des untersuchten Krankenhauses die einzelnen Abteilungen, die Möglichkeiten eines Netzwerks miteinander verbundener elektronischer Whiteboards zu erkunden und zu nutzen. Die Verantwortung für die Steuerung dieses Prozesses wurde lokalen Superusern in den Abteilungen übertragen. Auf der Grundlage von Interviews mit 17 Klinikern stellen wir fest, dass (a) sie den Design-in-Use-Ansatz widersprüchlich wahrnehmen, (b) die Superuser den Ansatz positiver beurteilen als die Endnutzer, (c) die übergreifende Standardisierung Abteilungen Konflikte mit Design in Use innerhalb der Abteilungen, (d) abteilungsinterne Veränderungen werden positiver wahrgenommen, (e) der Design-in-Use-Prozess ist untrennbar soziotechnisch und (f) die Wahrnehmung von Design in Use durch die Kliniker dreht sich mehr um die Umsetzung als um die Vorbereitung oder um Schulung und Unterstützung. Zu den widersprüchlichen Wahrnehmungen des Design-in-Use-Ansatzes gehört beispielsweise, ob er an Dynamik gewonnen hat, lokale Bedürfnisse erfüllt und für einen ansprechenden Prozess geeignet ist. Wir diskutieren die Implikationen unserer Erkenntnisse für einen Design-in-Use-Ansatz zur Implementierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29387-1_23 bf596830fd06be057fe1c92868f5dcdd;de;;;7.2.;;;Multiskalige diskriminierende Auffälligkeit für visuelle Aufmerksamkeit Die Bottom-up-Salienz, ein frühes Stadium der visuellen Aufmerksamkeit des Menschen, kann als binäres Klassifikationsproblem zwischen Center- und Surround-Klassen betrachtet werden. Die Unterscheidungskraft von Merkmalen für die Klassifikation wird als gegenseitige Information zwischen Merkmalen und der Verteilung zweier Klassen gemessen. Die geschätzte Diskrepanz zweier Feature-Classes hängt stark von den berücksichtigten Skalenebenen ab, dann werden Multiskalenstruktur und Diskriminanzleistung durch Verwendung diskreter Wavelet-Features und Hidden-Markov-Trees (HMT) integriert. Mit Wavelet-Koeffizienten und Hidden-Markov-Baum-Parametern werden Quad-Tree-ähnliche Label-Strukturen konstruiert und mit maximal einer Posterior-Wahrscheinlichkeit (MAP) von versteckten Klassenvariablen an entsprechenden dyadischen Unterquadraten verwendet. Dann wird der Salienzwert für jedes dyadische Quadrat auf jeder Skalenebene mit dem Diskriminanz-Potenzprinzip und dem MAP berechnet. Schließlich wird über mehrere Skalen hinweg die endgültige Salienzkarte durch eine Informationsmaximierungsregel integriert. Sowohl quantitative Standardwerkzeuge wie NSS, LCC, AUC als auch qualitative Bewertungen werden verwendet, um die vorgeschlagene Multiskalen-Diskriminanz-Salienzmethode (MDIS) mit der bekannten informationsbasierten Salienzmethode AIM auf der Bruce-Datenbank mit Eye-Tracking-Daten zu bewerten. Simulationsergebnisse werden präsentiert und analysiert, um die Validität des MDIS zu überprüfen und seine Nachteile für die weitere Forschungsrichtung aufzuzeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39637-3_37 c239f2b269727db9a269500aad0891de;de;;;7.2.;;;Erstellen einer generischen Schnittstelle in natürlicher Sprache für eine XML-Datenbank Wir beschreiben den Aufbau einer generischen natürlichsprachlichen Abfrageschnittstelle zu einer XML-Datenbank. Unsere Schnittstelle kann einen beliebigen englischen Satz als Abfrage akzeptieren, was recht komplex sein kann und unter anderem Aggregation, Nesting und Value Joins umfasst. Diese Abfrage wird, möglicherweise nach der Neuformulierung, in einen XQuery-Ausdruck übersetzt. Die Übersetzung basiert auf der Abbildung der grammatikalischen Nähe von geparsten Token in natürlicher Sprache im Analysebaum des Abfragesatzes auf die Nähe entsprechender Elemente in den abzurufenden XML-Daten. Unsere experimentelle Bewertung durch eine Benutzerstudie zeigt, dass diese Art von natürlichsprachlicher Schnittstelle gut genug ist, um jetzt ohne Einschränkungen für die Anwendungsdomäne verwendet werden zu können.;-;-;-;https://link.springer.com/chapter/10.1007/11687238_44 0ec7f8a3a57e9c7bd79088d7ae6e5e76;de;;;7.1.;;;Entwerfen eines Leistungsmesssystems für die Materialwirtschaft unter technischen Änderungssituationen in einer ETO-Umgebung In dieser Studie wollen wir verstehen, wie Leistungsindikatoren über verschiedene Phasen und Ebenen der Materialwirtschaft im Auftragserfüllungsprozess unter technischen Änderungen konzipiert und implementiert werden sollten. Das Papier befasst sich mit Fragen wie: Wie können solche Systeme Managern bei der Handhabung und Verwaltung der Materialwirtschaft in Situationen des technischen Wandels helfen? Wie überzeugen wir potenzielle Anwender und erhalten ihre Unterstützung bei der Entwicklung eines solchen Systems? Wie können wir Leistungsindikatoren aggregieren? Wie präsentieren wir Ergebnisse? Dann entwickeln wir unter Verwendung der Literaturrecherche und der Ergebnisse der empirischen Studie eines norwegischen Unternehmens, das in der ETO-Produktbereitstellungsstrategie tätig ist, einen Rahmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22759-7_31 afefec7cd9f031ef74c2bd94be3e82d7;de;;;7.1.;;;Optimierung und Neugestaltung einer Fahrradproduktion In einem Projekt im Rahmen des europäischen Leonardo-da-Vinci-Programms wurden fünf Planspiele entwickelt, um die Teilnehmer für Probleme in realen Produktionsprozessen zu sensibilisieren. Die Spiele konzentrieren sich auf unterschiedliche Bereiche der Produktionsumgebung und basieren auf einem gemeinsamen Szenario: der Optimierung und Neugestaltung einer Fahrradproduktion. Die Planspiele wurden sowohl von Industriemanagern als auch von Studenten gespielt und könnten in einer teamorientierten Ausbildung erfolgreich sein. Darüber hinaus ermöglicht die Fertigstellung eines Buches, das die Spiele beschreibt und Softwareversionen der verwendeten Simulationswerkzeuge enthält, eine Selbstausbildung im Bereich Produktionsmanagement. In diesem Beitrag wird das gängige Szenario der Planspiele vorgestellt. Zwei ausgewählte Simulationsspiele werden nach einem Spielklassifikationsschema geordnet, um die Spiele zu charakterisieren. Auch die Vor- und Nachteile der beiden unterschiedlichen Lernmethoden – Selbsttraining und teamorientiertes Lernen – werden anhand des Klassifikationsschemas aufgezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35506-1_8 00468fcb495c06624e7143a5c1cdec01;de;;;7.1.;;;Design- und Anwendungsforschung zu Mobile Learning System Suiting Specialty Practice Link Die Anwendungsforschung des mobilen Lernens wird durch die rasche Entwicklung intelligenter mobiler Endgeräte und drahtloser Kommunikationstechnologien gefördert. Es ist möglich, dass die Lernenden die tragbaren Geräte verwenden, um zu jeder Zeit oder an einem bestimmten Ort zu lernen. In diesem Artikel werden die bestehenden Anwendungsfelder des mobilen Lernens analysiert und die mobilen Lernmodelle mit der Fachpraxis verknüpft, die für die Praxis des Bekleidungsverkaufs der Fachrichtung Bekleidung in der Berufsschule geeignet ist. Es stellt zunächst einige existierende mobile Lernsysteme auf Handheld-Basis vor, analysiert dann detailliert die Gestaltung und Implementierung von mobilen Lernsystemen für den Bekleidungsverkauf und führt schließlich praktische Experimente zum Zusammenhang des Bekleidungsverkaufs von Bekleidung in der Berufsschule durch. Das Ergebnis von Experimenten zeigt, dass das System nicht nur für die Lernenden gut ist, um das Wissen über den Verkauf von Kleidung zu studieren, sondern auch eine bemerkenswerte Verbesserung der Lerneffizienz im Vergleich zum traditionellen Lernen aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31965-5_62 92e812b3dbf8f2476d43abf4666265a5;de;;;7.1.;;;Die Entwicklung von BPR BPR war in den 1990er Jahren eines der am meisten diskutierten Konzepte in der Geschäfts- und akademischen Literatur. Ursprünglich als eng definiertes Konzept von Autoren wie Hammer und Davenport präsentiert, wurde BPR einer Vielzahl von Interpretationen und Modifikationen unterzogen. In diesem Kapitel wird untersucht, wie sich das Konzept der BPR von einem Konzept, das sich mit radikalen Leistungssteigerungen auf „sauberer Seite“ befasst, zu einem Konzept entwickelt hat, das die Bedeutung von Kontext und mehrdimensionalen BPR-Strategien anerkennt. Schließlich untersucht das Kapitel, wie technologische Veränderungen und das Geschäftsumfeld das als Modeerscheinung angesehene Konzept am Leben erhalten.;-;-;-;https://link.springer.com/chapter/10.1057/9780333977675_20 ec55bf0010e6c3586aa4706f1c749a80;de;;;7.1.;;;Kognitive Technologien im Monitoring-Management Das Konzept des kognitiven Monitorings ist definiert. Es werden einige mögliche Ansätze zum Aufbau kognitiver Monitoringsysteme betrachtet und deren verallgemeinerte Struktur beschrieben. Das Konzept einer kognitiven Überwachungsmaschine wird eingeführt. Es wird ein kognitiver Architekturansatz zum Entwerfen von Überwachungssystemen vorgeschlagen, der die Generierung von On-Demand-Architekturen umfasst. Es wird der Aufbau einer an diesem Ansatz orientierten Plattform beschrieben. Ein Beispiel für die Schaffung eines kognitiven Überwachungssystems wird betrachtet.;-;-;-;https://link.springer.com/article/10.3103/S0005105519020080 d03ee64a60eb6aeba5aad891c2fe7cef;de;;;7.1.;;;Aufbau von Messaging-basierten Unternehmensintegrationslösungen mit KI-Planung In diesem Whitepaper wird eine neuartige Methode zur Verwendung aktionsbasierter Planung für den Aufbau von Unternehmensintegrationslösungen vorgestellt, die Messaging-Technologien verwenden. Genauer gesagt ist das vorgestellte Verfahren in der Lage, eine Sequenz von Verarbeitungsschritten zu generieren, die erforderlich sind, um einen oder mehrere Eingabenachrichtenflüsse in einen oder mehrere bestimmte Ausgabenachrichtenflüsse umzuwandeln, wobei Anforderungen in den Bereichen Durchsatz, Verfügbarkeit, Dienstüberwachung, Nachrichtenreihenfolge, und Nachrichteninhalt und Formatkonvertierungen. Die Methode wurde als Forschungsprototyp implementiert. Es wurde anhand von Szenarien aus der Literatur sowie aus der Praxis der Autoren bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28038-2_2 470cdb140b160a45c71620469b38f1de;de;;;7.1.;;;Entwicklung eines forschungsbasierten Systems für das Personalmanagement und die Karriereentwicklung im Offizierskorps der US-Armee Ein Rahmen und die ersten Komponenten eines Systems wurden entwickelt, um (1) Berufsinformationen und Karriereplanungsmöglichkeiten für Erwachsene bereitzustellen, die bereits in einer Karrierestruktur mit definierten Merkmalen beschäftigt sind, und (2) zur Unterstützung von Karriere-/Einsatzmanagern bei der Erfüllung der Personalanforderungen von die organisatorische Mission bei gleichzeitiger Förderung der Moral und der Karrierezufriedenheit der Individuen im System. Es konnte auf den Stand der Technik in verschiedenen Disziplinen zurückgegriffen und daraus ein innovativer Ansatz entwickelt werden, der im Feld erfolgreich auf Anwenderakzeptanz und Betriebsfähigkeit geprüft wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-4622-7_10 4b418ad3a2b39e44bd57c9747670a9a0;de;;;7.1.;;;Verwaltung der Implementierung von e-Government-Systemen: eine Perspektive der Ressourcendurchsetzung Die Forschung präsentiert eine theoretische und empirische Analyse einer E-Government-Systemimplementierung. Die ressourcenbasierte Sichtweise und das Enactment-Konzept wurden als theoretisch sinnvolle Linse genutzt, um das System während seiner Planungs-, Entwicklungs- und Betriebsphasen zu untersuchen. Folglich wurde ein Prozessmodell der Ressourcendurchsetzung entwickelt, um zu theoretisieren, wie organisatorische Ressourcen für eine erfolgreiche Implementierung mobilisiert werden. Es zeigte sich, dass das Umweltklima in jeder Phase eine besondere Fokusfähigkeit hervorrief. Dies wurde durch die symbiotische Umsetzung einer Fokusressource in Verbindung mit anderen komplementären Ressourcen entwickelt. Insbesondere wurde festgestellt, dass Wissen, soziale und Führungsressourcen bei der Entwicklung der Schwerpunktfähigkeiten sachdienlich eingesetzt werden. Über die Phasen hinweg betrachtet, folgte ein solches symbiotisches Inkrafttreten komplementärer Ressourcen einem koevolutionären Weg. Die empirische Forschung wurde durch eine qualitative Fallanalyse durchgeführt. Diese Forschung wäre daher sowohl für Wissenschaftler als auch für Praktiker von Interesse, da sie zur kumulativen theoretischen Entwicklung beiträgt und praxisbezogene Erkenntnisse liefert, um die Implementierung von E-Government-Systemen zu informieren und voranzutreiben.;-;-;-;https://link.springer.com/article/10.1057/ejis.2011.19 18c412b4b327909b1b9314a9e3f4725a;de;;;7.2.;;;The BigGrams: das semi-überwachte Informationsextraktionssystem aus HTML: eine Verbesserung der Wrapper-Induktion Das Ziel dieser Studie ist es, ein Informationsextraktionssystem namens BigGrams vorzuschlagen, das in der Lage ist, relevante und strukturelle Informationen (relevante Phrasen, Schlüsselwörter) aus semistrukturellen Webseiten, d.h. HTML-Dokumenten, abzurufen. Zu diesem Zweck wurde ein neuartiger semi-überwachter Wrapper-Induktionsalgorithmus entwickelt und in das BigGrams-System eingebettet. Der Wrapper-Induktionsalgorithmus verwendet eine formale Konzeptanalyse, um Informationsextraktionsmuster zu induzieren. Außerdem stellt der Autor in diesem Artikel (1) den Einfluss der Konfiguration der Komponenten des Informationsextraktionssystems auf die Ergebnisse der Informationsextraktion vor und (2) testet den Boosting-Modus dieses Systems. Basierend auf empirischen Untersuchungen stellte der Autor fest, dass die vorgeschlagene Taxonomie von Seeds und die Analyse auf HTML-Tag-Ebene mit entsprechender Vorverarbeitung die Ergebnisse der Informationsextraktion verbessern. Auch der Boosting-Modus funktioniert gut, wenn bestimmte Voraussetzungen erfüllt sind, also gut diversifizierte Eingangsdaten gewährleistet sind.;-;-;-;https://link.springer.com/article/10.1007/s10115-017-1097-2 f675bc94210908bf78786b910a69995f;de;;;7.2.;;;Audio-Tag-Anmerkung und -Abruf mithilfe von Tag-Zählinformationen Audio-Tags entsprechen Schlüsselwörtern, mit denen Benutzer verschiedene Aspekte eines Musikclips beschreiben, z. B. Genre, Stimmung und Instrumentierung. Mit dem explosionsartigen Wachstum digitaler Musik, die im Web verfügbar ist, wird automatisches Audio-Tagging, mit dem unbekannte Musik kommentiert oder gewünschte Musik abgerufen werden kann, immer wichtiger. Dies kann durch Trainieren eines binären Klassifikators für jedes Tag basierend auf den gekennzeichneten Musikdaten erreicht werden. Da Social Tags jedoch in der Regel von Personen mit unterschiedlichen musikalischen Kenntnissen vergeben werden, enthalten sie unweigerlich verrauschte Informationen. Um das Problem des verrauschten Etiketts anzugehen, schlagen wir ein neuartiges Verfahren vor, das die Tag-Zählinformationen ausnutzt. Indem wir die Tag-Zählungen als Kosten behandeln, modellieren wir das Audio-Tagging-Problem als kostensensitives Klassifizierungsproblem. Die Ergebnisse der Audio-Tag-Annotation- und Retrieval-Experimente zeigen, dass der vorgeschlagene Ansatz unsere vorherige Methode übertrifft, die den Audio-Tagging-Wettbewerb MIREX 2009 gewonnen hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17832-0_32 f31bd9177943673a18e2e2ea1bd0a8df;de;;;7.2.;;;Genfunktionelle Annotation mit dynamischer hierarchischer Klassifikation, geleitet von Orthologs Dieses Papier schlägt einen Ansatz zur Automatisierung der Gen-Ontologie (GO)-Annotation im Rahmen der hierarchischen Klassifizierung vor, der bekannte, bereits annotierte Funktionen der Orthologe eines bestimmten Gens verwendet. Der vorgeschlagene Ansatz nutzt solche bekannten Funktionen wie Beschränkungen und erstellt dynamisch Klassifikatoren basierend auf den Trainingsdaten, die unter den Beschränkungen verfügbar sind. Darüber hinaus werden zwei unüberwachte Ansätze zur Ergänzung des Klassifizierungsrahmens angewendet. Die Gültigkeit und Wirksamkeit des vorgeschlagenen Ansatzes werden empirisch nachgewiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04747-3_35 103c2d47035080fc2896f73c527cf09e;de;;;7.2.;;;Eine Methode zur Gewichtung mehrwertiger Features bei der inhaltsbasierten Filterung Inhaltsbasierte Empfehlungssysteme (CBRS) und kollaboratives Filtern sind die Arten von Empfehlungssystemen, die im E-Commerce-Bereich am weitesten verbreitet sind. Ein CBRS arbeitet mit zwei Informationssätzen: (i) einer Reihe von Funktionen, die die zu empfehlenden Artikel beschreiben und (ii) einem Benutzerprofil, das aus früheren Entscheidungen erstellt wurde, die der Benutzer über eine Teilmenge von Artikeln getroffen hat. Auf der Grundlage dieser Sets und der Gewichtung von Item-Features kann das CBRS diejenigen Items empfehlen, die besser zum Benutzerprofil passen. Im Allgemeinen befasst sich ein CBRS mit einfachen Artikelmerkmalen wie Schlüsselwörtern, die aus der Artikelbeschreibung extrahiert wurden, wobei ein einfaches Merkmalsgewichtungsmodell basierend auf dem TF-IDF angewendet wird. Diese Methode erzielt jedoch keine guten Ergebnisse, wenn Features in mehreren Werten und/oder Domänen bewertet werden. In diesem Beitrag schlagen wir ein Feature-Gewichtungsverfahren auf höherer Ebene vor, das auf Entropie und Korrelationskoeffizienten und Kontingenz basiert, um die inhaltsbasierte Filterung in Settings mit mehrwertigen Features zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13033-5_42 caa4f39e8352ac83f6e0772fde523d5d;de;;;7.2.;;;Techniken und Werkzeuge für die zeitliche Analyse von abgerufenen Informationen In diesem Beitrag stellen wir eine Reihe von visuellen Schnittstellen vor, um Zeitungsdatenbanken mit Bedingungen zu Inhalt, Struktur und zeitlichen Eigenschaften abzufragen. Abfrageergebnisse werden in verschiedenen Schnittstellen dargestellt, die die Neuformulierung von Abfragebedingungen und die Analyse der zeitlichen Verteilung von Nachrichten erleichtern sollen. Die hier beschriebene Gruppe von Techniken und Werkzeugen hat sich für die zeitliche Analyse von Informationen aus Dokumenten in einer Weise als nützlich erwiesen, die aktuelle Systeme nicht unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44759-8_9 4c201913ce7f8d1d625c650cf3ed2fea;de;;;7.2.;;;Fusion überlappender Ergebnissätze Die Existenz von replizierten Dokumenten oder Indizes bei der verteilten Informationsabfrage führt zu einem gewissen Grad an Überlappung zwischen den Komponentendatenbanken. In diesem Beitrag wird ein neues Datenfusionsverfahren unter Berücksichtigung der überlappenden Informationen mit einem herkömmlichen Fusionsverfahren verglichen. Die Gesamtsystemeffektivitätsbewertung ermöglicht vorläufige Schlussfolgerungen über die Bedeutung solcher Parameter für die Datenfusion bei der verteilten Informationsgewinnung.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45268-0_44 568dfc86a625e257ed5b6c63bb7d1cd3;de;;;7.2.;;;Suche nach Sprache aus gesprochenen Abfragen: die Multi-Domain International ALBAYZIN 2018 Query-by-Example Spoken Term Detection Evaluation Die riesige Menge an Informationen, die in Audio- und Video-Repositories gespeichert sind, macht die Suche nach Sprache (SoS) heutzutage zu einem vorrangigen Bereich. Innerhalb von SoS zielt die Query-by-Example Spoken Term Detection (QbE STD) darauf ab, bei einer gesprochenen Abfrage Daten aus einem Sprachspeicher abzurufen. Die Forschung auf diesem Gebiet wird durch die Organisation von QbE-STD-Auswertungen kontinuierlich gefördert. Dieses Papier präsentiert eine international offene Multi-Domain-Bewertung für QbE STD auf Spanisch. Die Auswertung zielt darauf ab, die Sprachdateien abzurufen, die die Abfragen enthalten, ihre Start- und Endzeiten sowie eine Bewertung anzugeben, die die der Erkennung gegebene Sicherheit widerspiegelt. Bei der Auswertung wurden drei verschiedene spanische Sprachdatenbanken verwendet, die verschiedene Domänen umfassen: MAVIR-Datenbank, die eine Reihe von Vorträgen aus Workshops umfasst, RTVE-Datenbank, die Fernsehsendungen (TV) umfasst, und COREMAH-Datenbank, die spontane 2-Personen enthält Sprachgespräche zu verschiedenen Themen. Die Auswertung wurde sorgfältig konzipiert, so dass mehrere Analysen der wichtigsten Ergebnisse durchgeführt werden können. Wir stellen die Evaluation selbst, die drei Datenbanken, die Evaluationsmetriken, die zur Evaluation vorgelegten Systeme, die Ergebnisse und die detaillierten Nachevaluierungsanalysen anhand einiger Abfrageeigenschaften vor (innerhalb des Wortschatzes/ausserhalb des Wortschatzes, Wort-/Mehrwortabfragen und native/fremde Abfragen). Auch Fusionsergebnisse der zur Bewertung vorgelegten Primärsysteme werden präsentiert. An der Evaluation nahmen drei verschiedene Teams teil, zehn verschiedene Systeme wurden eingereicht. Die Ergebnisse deuten darauf hin, dass die QbE STD-Aufgabe noch im Gange ist und die Leistung dieser Systeme sehr empfindlich auf Änderungen im Datenbereich reagiert. Dennoch sind QbE STD-Strategien in der Lage, textbasierte STD in unsichtbaren Datendomänen zu übertreffen.;-;-;-;https://link.springer.com/article/10.1186/s13636-019-0156-x cf0aee84eaca2b5c37c9b275cdb163b0;de;;;7.1.;;;Ein virtuelles privates Netzwerk für virtuelle Unternehmensinformationssysteme Die Sicherheitsanforderungen eines virtuellen Unternehmensinformationssystems werden untersucht und ein virtuelles privates Netzwerk (VPN) wird entwickelt, um die Sicherheit zu gewährleisten, indem die Vorteile der integrierten Funktionalität von Verschlüsselung, Schlüsselverwaltung, Benutzerauthentifizierung, Firewall und Zertifizierungsstelle mit geringen Kosten genutzt werden . Im VPN werden mehrere neuartige Techniken eingesetzt: 1) Ein effektiver chaotischer Verschlüsselungsalgorithmus durch logistische chaotische Zuordnung, 2) ein auf der Chaostheorie basierender „Fingerabdruck“-Authentifizierungsalgorithmus des Benutzers durch Verwendung eines gemischten optisch bistabilen chaotischen Modells, 3) ein zuverlässiger Authentifizierungsmechanismus durch integrierte Guillou-Quisquater digitale Signatur mit RSA-Verschlüsselung, 4) eine effiziente Zertifizierungsstelle (CA) und ein digitaler Zertifikatsmechanismus. Die Details des VPN werden ebenfalls präsentiert, einschließlich eines Kryptographieservers, eines Auditing-Servers, eines digitalen Signaturservers und eines Authentifizierungsservers.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45151-X_16 2c4cfdc0b5f1396f3c9f1a3d93f01356;de;;;7.1.;;;Fuzzy Causal Maps in Business Modelling und Performance-Driven Process Reengineering Trotz der Rhetorik rund um den leistungsgetriebenen Wandel (Performance-Driven Change, PDC) entstehen immer noch artikulierte Mechanismen, die intelligentes Denken über die Auswirkungen der Re-Design-Aktivitäten auf die Leistung eines Geschäftsmodells unterstützen. Dieses Papier beschreibt einen Versuch, einen solchen Argumentationsmechanismus als entscheidungsunterstützende Ergänzung zu PDC-Übungen aufzubauen und zu betreiben. Als zugrundeliegender Leistungsmodellierer werden Fuzzy Cognitive Maps (FCMs) eingesetzt, um die operative Effizienz komplexer und ungenauer Funktionszusammenhänge zu simulieren und die Auswirkungen von Prozess-Reengineering-Aktivitäten auf das Geschäftsmodell zu quantifizieren. Vorläufige Experimente zeigen, dass das vorgeschlagene hierarchische und dynamische Netzwerk miteinander verbundener FCMs eine solide Unterstützung für die Etablierung von Leistungsquantifizierungen darstellt, die die strategische Planungs- und Geschäftsanalysephasen typischer PDC-Projekte ergänzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24674-9_35 c1a0aef2b49f3e955e00acedb450e7ff;de;;;7.1.;;;Leistungsmessung, Geschäftsprozess-Reengineering und Weltklasse-Fertigung In den letzten Jahren waren drei Schlüsselthemen der Wirtschaftsforscher Business Process Reengineering (BPR), Performance Measurement (PM) und World Class Manufacturing (WCM). Jedes Thema hat viel Aufmerksamkeit erhalten und eine beträchtliche Menge an Literatur und Forschungsergebnissen von Wirtschaftskommentatoren geliefert. Innerhalb der Fertigungsdomäne haben diese drei Themen die Fantasie von Fertigungssystemdesignern angeregt, die bestrebt sind, die Produktivität und Effizienz in ihren einzelnen Unternehmen kontinuierlich zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35067-7_12 1e8b5d5d9447425b2a6ec2919edff600;de;;;7.2.;;;Erleichtern der Abfragezerlegung bei der Abfragesprachenmodellierung durch Mining von Zuordnungsregeln unter Verwendung mehrerer Schiebefenster Dieses Papier stellt einen neuartigen Rahmen vor, um den jüngsten Trend zur Verwendung von Abfragezerlegung und höherwertigen Begriffsbeziehungen in der Abfragesprachenmodellierung weiter voranzutreiben, der Begriffe berücksichtigt, die implizit mit verschiedenen Teilmengen von Abfragebegriffen verbunden sind. Bestehende Ansätze, insbesondere das auf dem Informationsflussverfahren basierende Sprachmodell, sind jedoch nicht in der Lage, mehrere Assoziationsebenen zu erfassen und leiden auch unter einem hohen Rechenaufwand. In diesem Papier schlagen wir vor, Assoziationsregeln aus Pseudo-Feedback-Dokumenten zu berechnen, die über mehrere Schiebefenster unterschiedlicher Größe in Blöcke variabler Länge segmentiert sind. Es wurden umfangreiche Experimente an verschiedenen TREC-Sammlungen durchgeführt und unser Ansatz übertrifft ein grundlegendes Query Likelihood-Sprachmodell, das Relevanzmodell und das Informationsflussmodell deutlich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78646-7_31 375b02ded5cb50c2400c7453a6ab29b8;de;;;7.2.;;;Satzähnlichkeit durch Kombination von expliziter semantischer Analyse und überlappenden N-Grammen Wir schlagen ein Ähnlichkeitsmaß zwischen Sätzen vor, das ein wissensbasiertes Maß, d. h. eine leichtere Version von ESA (Explicit Semantic Analysis), und ein Verteilungsmaß kombiniert,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10816-2_25 e40e8cc033fdaecc586e43646a386c15;de;;;7.1.;;;Unterstützung bei der Gestaltung von Pilotlernaktivitäten mit dem Pädagogischen Planmanager Pilotaktionen zur Einführung von IKT-gestützten Innovationen in die Schulbildung umfassen im Allgemeinen eine Vielzahl von Elementen und eine Reihe unterschiedlicher Akteure. Um dieser Komplexität Rechnung zu tragen und sie zu begreifen, bedarf es systematischer pädagogischer Planungsbemühungen, die eine solide Grundlage für die Aufnahme der unterschiedlichen Perspektiven, die Analyse der Einflussfaktoren sowie die Aufklärung der Ausgangsannahmen und des theoretischen Rahmens bieten. Dies sind die Themen, die derzeit in einem europäischen Projekt namens ReMath behandelt werden, in dem die Autoren einen Prototypen eines IKT-basierten Tools namens Pedagogical Plan Manager (PPM) entwickeln und testen. Das System unterstützt die Erstellung und den Austausch von pädagogischen Plänen innerhalb einer Gemeinschaft verschiedener Akteure, die in unterschiedlichen Kontexten mit unterschiedlichen Visionen agieren. Dieses Papier beschreibt kurz einige der Anforderungen, die das PPM geprägt haben, und skizziert das konzeptionelle Modell, auf dem es basiert. Das System wird im Lichte zweier wesentlicher Merkmale beschrieben, die es für die Gestaltung von Lernaktivitäten darstellt, nämlich Ausdrucksfähigkeit und Flexibilität.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09729-9_5 1cbdcf5e8152cea5f13d8370769df025;de;;;7.2.;;;Korrelationslernmethode basierend auf einem bildinternen semantischen Modell für CBIR Der semantikbasierte Bildabruf ist das gewünschte Ziel des inhaltsbasierten Bildabrufs (CBIR). In diesem Papier haben wir eine neue Methode vorgeschlagen, um semantische Informationen für CBIR unter Verwendung der Ergebnisse des Relevanz-Feedbacks zu extrahieren. Zunächst wird davon ausgegangen, dass positive und negative Beispiele in relevanten Feedbacks von Nutzern hinzugefügte semantische Inhalte enthalten. Dann wird ein bildinternes semantisches Modell (IISM) vorgeschlagen, um umfassende paarweise Korrelationsinformationen für Bilder durch Analyse der Feedback-Ergebnisse darzustellen. Schließlich wird ein Korrelationslernverfahren vorgeschlagen, um die paarweise Beziehung der Bilder basierend auf dem statistischen Wert des Zugriffspfads, der Zugriffshäufigkeit, des Ähnlichkeitsfaktors und des Korrelationsfaktors darzustellen. Experimentelle Ergebnisse zu Corel-Datensätzen zeigen die Wirksamkeit des vorgeschlagenen Modells und der Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30542-2_22 2070495ad08cf9ee54b3879a5e72e6ab;de;;;7.2.;;;Eine neuartige rollenbasierte Methode zur Segmentierung von Filmszenen Die semantische Szenensegmentierung ist ein entscheidender Schritt bei der Analyse von Filmvideos, und diesem Bereich wurden umfangreiche Forschungsanstrengungen gewidmet. Bisherige Methoden stützen sich jedoch stark auf Videoinhalte selbst, die aufgrund der semantischen Lücke kein objektives Bewertungskriterium und keine notwendige semantische Verknüpfung aufweisen. In diesem Beitrag schlagen wir einen neuartigen rollenbasierten Ansatz für die Segmentierung von Filmszenen mithilfe von Skripten vor. Skript ist eine Textbeschreibung von Filminhalten, die Informationen zur Szenenstruktur und zugehörige Charakternamen enthält, die als objektives Bewertungskriterium und nützliche externe Referenz angesehen werden können. Die Hauptneuheit unseres Ansatzes besteht darin, dass wir die Filmszenensegmentierung in ein Film-Skript-Alignment-Problem umwandeln und einen HMM-Alignment-Algorithmus vorschlagen, um die Skriptszenenstruktur dem Filminhalt zuzuordnen. Die vielversprechenden Ergebnisse aus drei Hollywood-Filmen belegen die Wirksamkeit unseres vorgeschlagenen Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10467-1_82 c130db2a62e3676239f27cf448065537;de;;;7.2.;;;Nutzung mehrerer Funktionen zum Erlernen von Rankings in der Expertensuche Expert Expert Finding ist der Prozess der Identifizierung von Experten zu einem bestimmten Thema. In diesem Artikel schlagen wir eine Methode namens Learning to Rank for Expert Finding (LREF) vor, die versucht, das Learning to Rank zu nutzen, um die Schätzung für die Expertenfindung zu verbessern. Das Erlernen von Rankings ist ein etabliertes Mittel zur Vorhersage von Rankings und hat sich in letzter Zeit als vielversprechend beim Abrufen von Informationen erwiesen. LREF definiert zunächst Darstellungen sowohl für Themen als auch für Experten und sammelt dann die vorhandenen gängigen Sprachmodelle und grundlegenden Dokumentmerkmale, um Merkmalsvektoren für Lernzwecke aus den Darstellungen zu bilden. Schließlich verwendet LRER RankSVM, einen paarweisen Lern-Rang-Algorithmus, um die Expertenlisten für Themen zu erstellen. Umfangreiche Experimente im Vergleich zu Sprachmodellen (profilbasiertes Modell und dokumentbasiertes Modell), die modernste Expertenfindungsmethoden sind, zeigen, dass LREF die Expertenfindungsgenauigkeit erhöht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-53917-6_20 73edd28da5858febc3a52edfe5942dba;de;;;7.2.;;;Erweiterung der RBAC für Großunternehmen und ihre quantitative Risikobewertung Systeme und Sicherheitsprodukte, die auf dem RBAC-Modell basieren, sind in Unternehmen weit verbreitet. Insbesondere die Anforderungen an die Durchsetzung von Sicherheitsrichtlinien auf Unternehmensebene und ein umfassendes Identitätsmanagement wachsen schnell. Das RBAC-Modell muss erweitert werden, um verschiedene Umstände großer Unternehmen zu berücksichtigen, wie z. In diesem Whitepaper stellen wir ein neues RBAC-Modell vor, das für Single-Sign-On-Systeme geeignet ist. Dieses Modell optimiert die Auswertung regelbasierter RBAC, sodass die Gesamtbetriebskosten und die Produktivität verbessert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-85691-9_9 dc51830263ff4cebb110d324a61d06cb;de;;;7.2.;;;Visuelle Datenverarbeitung in Multimediasystemen In diesem Beitrag wird ein umfassendes Modell für die visuelle Datenverarbeitung in Multimediasystemen vorgestellt. Bilder werden als Objekte in einer hierarchischen Struktur dargestellt. Mehrere Probleme bei der Verarbeitung von Bildern in Multimediasystemen werden angesprochen, z. Multimedia-Objektkomposition einschließlich räumlicher und zeitlicher Komposition. Wir stellen ein objektorientiertes Komprimierungsschema vor und diskutieren die Kombination von Merkmalsextraktion mit Komprimierung. Präsentiert werden hierarchische Speicher, die gute Eigenschaften für Bildaufruf, Anzeige und Komposition besitzen. Das Bild wird in homogene Bereiche segmentiert. Ein inhaltsbasiertes Abrufschema (CBIR-VU) mit Form-, Textur- und Farbinformationen sowie eine zweistufige Abrufmethode werden vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-63636-6_4 d41e099b3d8b3081ee3327c29b63ec88;de;;;7.2.;;;Neuskalierung für Auswertungen mit Inclusion-Exclusion Integral Bei multivariaten Analysen weisen Verteilungen von erklärenden Variablen im Allgemeinen Abweichungen auf, die von jeder einzelnen Qualität abhängen, und die Beseitigung von Abweichungen ist oft vorteilhaft wirksam. Wir schlagen zwei Algorithmen zur Neuskalierung von Rohdaten vor und überprüfen deren Validität mit echten, zuverlässigen Big Data.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08795-5_30 8328f4204ba2352190692a1c227593a5;de;;;7.2.;;;Verbesserung der menschlichen kognitiven Verarbeitung durch die Anwendung von Zugänglichkeitsstandards für die Informations- und Kommunikationstechnologie Dieser Artikel befasst sich mit der Mensch-Computer-Interaktion (HCI) aus neurowissenschaftlicher Sicht. Die Motivation für diese Perspektive ist der demografische Wandel, der die Bevölkerungsstrukturen der Industrienationen verändert. Die Autoren werden die Folgen des demografischen Wandels in Bezug auf HCI erläutern und eine Hypothese für diese Forschungsaktivitäten aufstellen. Um diese Hypothese zu evaluieren, entwickeln die Autoren einen Ansatz, der verschiedene Disziplinen kombiniert. Dieser Ansatz untersucht die Auswirkungen der IT-Zugänglichkeit auf die menschliche kognitive Verarbeitung. Dazu werden erforderliche Methoden und Instrumente erläutert, diskutiert und ausgewählt. Mögliche Auswirkungen der IT-Zugänglichkeit auf die menschliche kognitive Verarbeitung werden anhand eines anerkannten Kognitionsmodells veranschaulicht. Das Ergebnis dieses Artikels wird ein Konzept sein, das die Messung der Auswirkungen der IT-Zugänglichkeit auf die menschliche kognitive Verarbeitung ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38862-0_35 46839310fbf03cd28930648a3713e30a;de;;;7.2.;;;Verwendung probabilistischer Themenmodelle in Enterprise Social Software Enterprise Social Software (ESS)-Systeme sind offene und flexible Unternehmensumgebungen, die Web 2.0-Technologien nutzen, um die Teilnahme durch informelle Interaktionen zu stimulieren und diese Interaktionen zu kollektiven Strukturen zusammenzufassen. Eine Herausforderung in diesen Systemen besteht darin, das Wissensmodell von Themen im Unternehmen zu entdecken, zu organisieren und zu verwalten. In diesem Papier wollen wir die Such- und Empfehlungsfunktionalitäten von ESS verbessern, indem wir ihre Folksonomien und Taxonomien um zugrundeliegende Themen durch die Verwendung probabilistischer Themenmodelle erweitern. Wir setzen Latent Dirichlet Allocation ein, um latente Themen zu eruieren und diese zur Bewertung von Ähnlichkeiten bei Ressourcen- und Tag-Empfehlungen sowie zur Erweiterung von Abfrageergebnissen zu nutzen. Als Anwendung unseres Ansatzes erweitern wir die Such- und Empfehlungsmöglichkeiten des Organik-Unternehmenssozialsystems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12814-1_3 2c6ea3c169e5d96a332babb4e967656c;de;;;7.2.;;;Ein wissensbasierter, kollaborativer Filteransatz mit mehreren Kriterien zum Auffinden von Diensten in mobilen Cloud-Computing-Plattformen Im Rahmen der Cloud-basierten Entwicklung mobiler Anwendungen müssen die von Anwendungen zu integrierenden Dienste von Drittanbietern häufig zur Entwurfszeit aus vielen Kategorien und Anbietern manuell ausgewählt werden. Im Laufe der Jahre haben sich Empfehlungssysteme bei der Bewältigung der Herausforderungen im Zusammenhang mit dem unglaublichen Wachstum der Informationen im Web als effektiv erwiesen. Um dieses Problem besser anzugehen, hat der Einsatz von Semantic Web-Technologien bei der Entwicklung von Empfehlungssystemen in den letzten Jahren an Bedeutung gewonnen. In diesem Papier schlagen wir einen wissensbasierten Empfehlungsansatz für kollaboratives Filtern für die Erkennung von Diensten in einer mobilen Cloud-Computing-Plattform für die dienstbasierte Entwicklung vor. Unser Ansatz verwendet eine wissensbasierte Technik, die die regelbasierten Argumentationsfähigkeiten des Semantic Web nutzt. Ein wesentlicher Beitrag dieser Arbeit ist ein multikriterieller kollaborativer Servicebewertungsmechanismus, der auf einem standardisierten Servicequalitäts-Framework basiert und auf einem ontologiebasierten Domänenmodell aufbaut. Darüber hinaus wird eine zweiteilige Bewertungsmethode vorgestellt, die den vorgeschlagenen Empfehlungsansatz nicht nur aus der Perspektive der Informatik, sondern auch aus der Perspektive der Wirtschaftsinformatik evaluieren soll.;-;-;-;https://link.springer.com/article/10.1007/s10844-018-0527-2 39b40e5396e3310e9fa3486aa488b8cc;de;;;7.1.;;;Ein neuer Ansatz für die endliche Kapazitätsplanung im MRP-Umfeld Der MRP-Prozess (Material Requirement Planning) erzeugt einen Produktionsplan, der eine genaue Menge der richtigen Materialien zum benötigten Zeitpunkt garantiert, aber manchmal zu Kapazitätsproblemen in der Werkstatt führt, weil Kapazitätsbeschränkungen nicht berücksichtigt werden. Dieses Papier stellt eine neue Planungsmethode vor, die die Kapazitätsplanung während des MRP-Prozesses beinhaltet. Diese Planungsmethode beginnt mit der Generierung einer ressourcenbasierten Datenstruktur und der Gruppierung von Ressourcen, die als Engpass fungieren können. Auf den ersten Schritt folgen die Ressourcenexplosion und die Anpassung der Produktionspläne an den Zeithorizont und die kritischen Ressourcen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-77249-3_3 7826ae78f2f92b8e57146524f8e79e8c;de;;;7.1.;;;Gestaltung virtueller Lernzentren Virtuelle Universitäten und virtuelle Arbeitsplatzinstitute werden immer mehr als Lösung für den enormen Bildungsbedarf der Wissensgesellschaft gesehen. Ich beschränke mein Thema hier auf die Gestaltung von virtuellen Lernzentren, die als pädagogisches Herz einer virtuellen Bildungseinrichtung gesehen werden. Hier werden Kurse oder Lernveranstaltungen über das Internet und seine vielfältigen Kommunikationsmöglichkeiten konzipiert, aufgebaut und durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-07682-8_16 cfdbd6db9ba020cf94aab4c1ebd264ef;de;;;7.1.;;;Auswirkung der ERP-Implementierung auf die Unternehmenseffizienz – ein mazedonischer FALL Enterprise Resource Planning (ERP) findet langsam seinen Platz in vielen Organisationen in Mazedonien. Das primäre Ziel einer ERP-Implementierung ist die Verwaltung und Koordination aller Ressourcen, Informationen und Geschäftsprozesse aus gemeinsam genutzten Datenspeichern. In diesem Papier wird die Implementierung einer ERP-Lösung im mazedonischen Produktionssektor und deren Auswirkungen auf die Unternehmenseffizienz erläutert. Eine Fallstudie wurde über einen Zeitraum von sieben Jahren in einem kleinen oder mittelständischen Fertigungsunternehmen in Mazedonien durchgeführt und mit empirischen Ergebnissen von ERP-Systemimplementierungen in entwickelten Ländern verglichen. Die Ergebnisse zeigen fast ähnliche Ergebnisse. ERP-Systemimplementierungen erfordern Zeit, Geld und Engagement des Managements, und der Effekt zur Verbesserung der Effizienz ist noch am Anfang. Es wurde jedoch auch festgestellt, dass die Einführung des ERP-Systems bei der Umwandlung des Eigentums des Unternehmens und bei der Schaffung einer besseren Wettbewerbsfähigkeit auf dem Markt hilft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36611-6_17 76bff3d7bbd949f658fb85a16d826264;de;;;7.1.;;;Museum Immersion Interaktives Design: Kunst ist die Sammlung des Museums und Bildung ist das Herzstück des Museums. Die Museumsleitung richtet sich an 3E: „Bilden, unterhalten, bereichern“. In den 1960er Jahren wurde die Theorie der Interaktion aufgestellt. Ab den 1980er Jahren konzentrierten sich Museumsausstellungen auf die Beteiligung des Publikums. Wie sollten angesichts der Herausforderungen des Kindermuseums im neuen Jahrhundert neue Strategien zur Ressourcenumwandlung genutzt werden? Es ist das Thema zeitgenössischer Museen. Durch interdisziplinäre Zusammenarbeit in Kultur, Unterhaltung, Bildung und Technologie, den Einsatz von Storytelling und modernster Technologie und das Hinzufügen von Ecstatic-Erfahrung zum Aufbau eines 4E-Modells für den zukünftigen Museumsbetrieb, d das neue Erscheinungsbild der Exponate, generieren einen neuen Dialogmodus und steigern die Freude des Publikums im Kontakt mit den Exponaten erheblich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-49913-6_19 484e57843113401f79bb83662c6100b7;de;;;7.1.;;;Qualitätsmanagement-Tools und -Standards Das Qualitätsmanagement besteht im Wesentlichen aus drei Hauptkomponenten: Qualitätskontrolle, Qualitätssicherung und Qualitätsverbesserung. Um diese drei zu berücksichtigen, gibt es verschiedene Tools und Techniken, die enorm verwendet werden, um die Daten in Bezug auf die hergestellten Produkte und Prozesse, die von den Organisationen übernommen werden, zu sammeln, zu messen und zu analysieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9512-7_2 56da0a575855f83ff6a6a193e2d727ad;de;;;7.1.;;;Ressourcenfähigkeitsmodellierung für eine reaktionsschnelle Prozessplanung in erweiterten Fertigungsanlagen Der Beitrag berichtet über die Entwicklung einer Entscheidungsfindungsmethodik für eine reaktionsschnelle Prozessplanung in erweiterten Fertigungsanlagen mittels Ressourcenfähigkeitsmodellierung. Die Methodik basiert auf einer verteilten interaktiven Planungsarchitektur mit autonomen Entscheidungsträgern und Datenmodellen. Die verteilte Prozessplanungsumgebung und Entscheidungsfindungsmethodik zielt darauf ab, den Konstrukteuren und Planern ein konstruktionsunterstützendes Werkzeug für die kollaborative Prozessplanerstellung und die schnelle Bewertung der Fertigungsdurchführbarkeit und Ressourcenverfügbarkeit in verschiedenen Phasen des Produktentwicklungsprozesses bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35351-7_31 00325d8a78c38edf3a9d9b0f9f674007;de;;;7.1.;;;Benutzerzentriertes DSS-Design und -Implementierung Methoden für das DSS-Design haben traditionell den Schwerpunkt auf den Entscheidungs- oder den System- oder den Support-Teil dieser Systeme gelegt. Dieser Artikel illustriert dies mit zwei gegensätzlichen Fallstudien und versucht, eine Begründung für einen nutzerzentrierten Ansatz für DSS-Design und -Implementierung vorzuschlagen. Er betont, wie wichtig es ist, Design, Entwicklung und Benutzerbeteiligung als eng miteinander verbundene Aktivitäten zu betrachten, da DSS-Projekte sowohl Veränderungs- als auch Lernprozesse sind und die Kommunikation im Hinblick auf die Entscheidungsfindung in eher gruppenorientierten und informellen Umgebungen an erster Stelle steht.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34967-1_8 f63481d1f35a38793690a8308d32c6f1;de;;;7.2.;;;Markenanalyse mit informationellen Ergonomiekonzepten: Ein Vorschlag Derzeit werden viele visuelle Informationen, die in allen Medien vorhanden sind, z. B. in Printmedien und Schnittstellen für die Öffentlichkeitsarbeit in Verbindung mit Informationsdesign vehement formuliert. Diese visuellen Informationen haben großen Einfluss auf das Leben der Menschen, da das Sehen dieser Personen der am meisten genutzte Sinn ist. Studien zur visuellen Identität haben dieses Thema nicht zufriedenstellend untersucht, wodurch das Thema dieser kleinen Entwicklungsprojekte in der Region begünstigt wird. Es wird auf die Notwendigkeit von Analysen hingewiesen, um die Umsetzungsprinzipien des Projekts zu ermöglichen und sie dem Verständnis der meisten Personen zugänglich zu machen. Ziel dieser Studie war es, eine Evaluation visueller Identitäten vorzuschlagen, die anhand von visuellen Usability-Konzepten, Designmethoden und Gestalt analysiert wurden. Wir kontaktierten Designfirmen, die auf visuelle Identitätsprojekte spezialisiert waren, Orte, an denen Interviews durchgeführt wurden, um die zur Analyse zugelassenen Marken zu sammeln. Die Ergebnisse weisen auf eine häufige Nachfrage nach dem Einsatz visueller Usability-Prinzipien, Designmethoden und Gestaltdesign in visuellen Identitäten hin.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07638-6_10 a40a3bddf4fb70d3744f3792e8da1e60;de;;;7.1.;;;Lernen und Training: Eine reflektierende Darstellung des Krisenmanagements in einer großen britischen Bank Dieses Papier berichtet über Beobachtungsdatenmaterial, das während des Krisenmanagementtrainings für eine große internationale britische Bank gesammelt wurde, und präsentiert erste Ergebnisse. Der Beitrag untersucht, ob Simulationsübungen eine sinnvolle Trainingsmethode für das betriebliche Krisenmanagement darstellen. Unter der Annahme, dass die Leistung als Indikator für das Lernen verwendet werden könnte, werden die Lernergebnisse auf individueller, Team- und Organisationsebene analysiert, indem die Leistung von Spielern zwischen Übungen für eine Reihe von Schlüsselkompetenzen zur Krisenbewältigung verglichen und kontrastiert wird.;-;-;-;https://link.springer.com/article/10.1057/palgrave.rm.8240138 125ae5409fb11aa361cc9676b6a19215;de;;;7.1.;;;Ein Systemansatz, der bei der Definition des höheren Management-Informationsbedarfs in einem Fertigungsunternehmen verwendet wird: Prinzipien und Methodik Dieses Papier präsentiert einen Zwischenbericht über die Denkweise, die der Arbeit eines laufenden Projekts zugrunde liegt, das vom Department of Systems der Universität Lancaster durchgeführt wird. Das Projekt betrifft ein großes Produktionsunternehmen, eines der größten seiner Branche. Die aktuelle wirtschaftliche Situation zwingt das Unternehmen, das Beste aus den Ressourcen herauszuholen. Um wettbewerbsfähig zu bleiben, muss die Produktivität in allen Bereichen verbessert werden, nicht nur in der Direktarbeit. Dies erfordert, dass Fachleute auf allen Ebenen effektiver mit qualitativ hochwertigeren Informationen, schnellem Zugang zu Informationen und Informationen, denen sie vertrauen können, arbeiten. Die Ebene, mit der sich diese Arbeit beschäftigt, ist die übergeordnete Managementebene und das Problem: deren Informationsbedarf.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-4475-9_26 3e1aa6c09a7f8f4ed3e5d071ed015584;de;;;7.1.;;;Theoretischer Rahmen für die phasenspezifischen Effekte organisatorischer Vorläufer in der funktionsübergreifenden Neuproduktentwicklung Duncans (1976) und Souder & Moenaert (1992) Theorien basieren auf der Unterscheidung zwischen mechanistischen und organischen Organisationsdesigns. Darüber hinaus erfordert der theoretische Rahmen dieser Untersuchung ein Verständnis der spezifischen Phasen des Innovationsprozesses und ihrer Charakteristika. Daher wird zunächst das Konzept der organischen und mechanistischen Organisationen (3.1) von Burns & Stalker (1961) diskutiert. Es folgt eine Darstellung des Innovationsprozesses und seiner Phasen (3.2) und eine Diskussion der phasenspezifischen (und ungewissheitsbezogenen) Anforderungen an die Informationsverarbeitung des Innovationsprozesses, die wichtige Merkmale darstellen (3.3). Wie bereits erwähnt, beruht die theoretische Grundlage für die phasenspezifische Wirksamkeit organischer und mechanistischer Strukturen auf Duncans (1976) Konzept der beidhändigen Organisation und auf dem eng verwandten Modell der Informationsunsicherheitsreduktion von Souder & Moenaert (1992) (3.4). Die theoretische Grundlage zur phasenspezifischen Wirksamkeit grenzübergreifender Aktivitäten beruht auf der Ressourcenabhängigkeitstheorie (Pfeffer 1982, Pfeffer & Salancik 1978) (3.5).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-9642-8_3 a4bf3970d8fd89c50340eb6ca5603006;de;;;7.1.;;;Zur Erzielung der Vorteile der IT-Nutzung in Kooperationsnetzwerken Die Informationstechnologie mit den jüngsten Entwicklungen in Richtung Internet der Zukunft weckt bei Unternehmen und Kooperationsnetzwerken Erwartungen hinsichtlich Benutzerfreundlichkeit und hohem Geschäftsnutzen. Die Vorteile ergeben sich jedoch nicht automatisch aus der Einführung eines IT-Systems. Neben technischen Aspekten ist eine organisatorische Umsetzung unter Einbeziehung der Benutzer und der Zusammenarbeit im Unternehmen erforderlich. Dieses Papier diskutiert die Herausforderungen und Barrieren der IT-Implementierung in kollaborativen Netzwerken mit dem Ziel, Erfolgsfaktoren für die Erzielung des Nutzens zu identifizieren. Die Studie basiert auf früheren Forschungen und nutzt die Erfahrungen aus Kooperationsgeschäftsfällen des COIN-Projekts (EU FP7 ICT 216256).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23330-2_56 61d28170f7ab03e0fbcc6a118269dc26;de;;;7.1.;;;Personalplanung und der intuitive Manager: Modelle für die 90er Jahre In meiner Präsentation habe ich drei Hauptziele. Zuerst werde ich einige futuristische Bemerkungen über die 1990er Jahre machen. Ich habe den Zeitrahmen dieser Konferenz ziemlich locker genommen. Daher können sich einige dieser Trends Mitte oder Ende der 1980er Jahre entwickeln, während andere in den 1990er Jahren auftreten werden. Zweitens entwickeln viele Unternehmen als strategische Antwort auf diese Trends Funktionen zur Personalplanung von Unternehmen. In diesem Zusammenhang stelle ich ein konzeptionelles Modell der Personalplanung vor, das die Sichtweise des Praktikers betont. Schließlich führe ich die methodischen Bedenken der polythetischen Analyse ein, verallgemeinere sie auf die Personalplanung und die Arbeits- und Organisationspsychologie und schlage vor, dass dies eine geeignete Methodik ist, um „weiche Daten“ genauer zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-3464-4_8 2ec93bba186cc9cb0d636be22437d21a;de;;;7.1.;;;Anforderungen an das Produktmanagement für die SCM-Disziplin Die Softwareindustrie beginnt langsam, die Disziplin des Software Configuration Management (SCM) als Teil der täglichen Routinen der Softwareentwicklung und -produktion zu übernehmen. Kaum jemand bestreitet, dass sich durch den Einsatz von SCM-Fähigkeiten im Unternehmen viele Vorteile erzielen lassen. In einigen Fällen ist es einem Unternehmen mit einem technisch fähigen SCM-Prozess jedoch nicht gelungen, ein effizientes Software Change Process Management zu erreichen. Das Problem bei diesen Unternehmen war eine schlecht organisierte Sammlung und Analyse von Informationen zum Änderungsbedarf. Durch eine produkt- und kundenorientierte Sichtweise bei der Definition des SCM-Prozesses können derartige Probleme vermieden werden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-63014-7_14 80a2222a44a155d7dd837572d59cc64a;de;;;7.1.;;;Qualität, Produktivität und Informationssysteme Zu den kritischen Herausforderungen, denen sich Geschäftsleiter gegenübersehen, gehört die Notwendigkeit, die Produktivität ihrer Organisationen zu steigern und die Qualität ihrer Produkte oder Dienstleistungen zu verbessern. Um diesen Herausforderungen zu begegnen, haben Manager stark in die Informationstechnologie (IT) investiert, einige erfolgreich, andere weniger erfolgreich. Viele Investitionen wurden getätigt, ohne dass die Zusammenhänge zwischen Qualität, Produktivität und IT verstanden wurden. Der Zweck dieses Kapitels besteht darin, den aktuellen Wissensstand über diese Beziehungen zu überprüfen und die Rolle von Informationssystemen in Programmen zur Verbesserung der Qualität und Produktivität zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5281-9_12 eac03fc14e7d570130cc595f2cdd5c44;de;;;7.1.;;;MatPlanWDM: Ein pädagogisches Werkzeug für die Netzwerkplanung in Wellenlängen-Routing-Netzwerken In diesem Artikel wird das MatPlanWDM-Tool vorgestellt, ein Netzwerkplanungstool für Bildungseinrichtungen für WDM-Netzwerke mit Wellenlängen-Routing. Es enthält eine Reihe heuristischer Algorithmen zur Lösung des virtuellen Topologiedesigns und darüber hinaus für das Routing und die Pflege von Verkehrsströmen. Darüber hinaus ist zum Vergleich eine Implementierung des linearen Programmierproblems enthalten, um die optimale Lösung des gesamten Designs zu erhalten. Die Eingangsparameter des Planungsproblems sind die physikalische Netzwerktopologie, die Verkehrsmatrix und technologische Einschränkungen wie die Anzahl der Sender, Empfänger, optischen Wandler und verfügbaren Wellenlängen. Das Tool ist als MATLAB-Toolbox implementiert. Der Satz heuristischer Algorithmen kann leicht erweitert werden. Es wird eine grafische Oberfläche bereitgestellt, um die Ergebnisse verschiedener Heuristiken darzustellen und mit der optimalen Lösung in kleinskaligen Topologien zu vergleichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72731-6_7 21c79321e788623ffee2698c9fec6dbf;de;;;7.1.;;;Ein Frequent-Pattern-Ansatz für die Routing-Planung optischer Netzwerke Optische Burst-Switching-(OBS-)Netze haben viel Aufmerksamkeit als vielversprechender Ansatz zum Aufbau des optischen Internets der nächsten Generation erhalten. Bei der pufferlosen DWDM-Vermittlungstechnologie ist der zu minimierende Burst-Verlust der wichtigste Entwurfsparameter. Eines der kritischen Designprobleme in OBS-Netzwerken besteht darin, den optimalen Routing-Pfad zu planen, um Burst-Drops aufgrund von Netzwerkressourcenkonflikten zu minimieren. Diese Studie schlägt den Burst-Frequency-Pattern-Tree-Ansatz (BFP-Tree) vor, um einen geeigneten Routing-Pfad im OBS-Netzwerk im Voraus zu bestimmen. Der BFP-Tree-Ansatz ist im Wesentlichen ein lernbasierter Mechanismus, der in der Lage ist, aus den historischen Netzwerk-Transaktionsdaten einen geeigneten Übertragungsweg zu bestimmen. Die Versuchsergebnisse zeigen, dass die durch den BFP-Tree-Ansatz erhaltenen Erfolgsraten von Routingpfaden denen der optimalen Ergebnisse angenähert werden können.;-;-;-;https://link.springer.com/article/10.1007/s11107-008-0156-8 04b4c97601b9ce73c3c18d9a3373d0f8;de;;;7.2.;;;Masev (Multiagent System Software Engineering Evaluation Framework) In letzter Zeit ist eine große Anzahl von Methoden und Frameworks zur Entwicklung von Multiagentensystemen erschienen. Es erschwert die Auswahl zwischen dem einen und dem anderen. Aus diesem Grund ist die Evaluierung von Multiagenten-Systemsoftware-Engineering-Techniken ein offenes Forschungsthema. Dieses Papier stellt einen Bewertungsrahmen für die Analyse und den Vergleich von Methoden und Werkzeugen zur Entwicklung von Multiagentensystemen vor. Darüber hinaus werden vier Anwendungsbeispiele vorgestellt und analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01862-6_23 690866138573f477568148ce9bf7665b;de;;;7.2.;;;Evaluation des computergestützten Lernens in der Hochschulbildung DIE AUSTRALISCHE REGIERUNG finanziert das Committee for the Advancement of University Teaching (CAUT), um die Qualität des Lehrens und Lernens an australischen Universitäten zu verbessern. Eine Funktion von CAUT besteht darin, Lehrförderungen an Personen im Hochschulbereich zu vergeben. In den Jahren 1993-94 wurden 8,23 Millionen US-Dollar für 224 Projekte bereitgestellt, von denen die meisten computergestütztes Lernen (CBL) betrafen. Erforderliche CAUT-Projektvorschläge: (1) eine Erläuterung der potenziellen Auswirkungen des Projekts auf das Lernen der Schüler und (2) Spezifikationen für die Bewertungsverfahren. Viele bei CAUT eingereichte Vorschläge befassten sich nicht angemessen mit einer Methode zur Bewertung der Projektergebnisse. Bei Diskussionen über die Projektbewertung mit Projektautoren war die am häufigsten gestellte Frage: „Wie können wir beweisen, dass Schüler mit CBL effektiver lernen als mit einem traditionelleren Ansatz?“. In diesem Papier geben die Autoren einen Überblick über die CBL-Evaluierung und diskutieren die Komplexität der Evaluierung von CBL-Projekten.;-;-;-;https://link.springer.com/article/10.1007/BF02948597 b266c5f180d97d41846c038c9c1113a3;de;;;7.2.;;;Zur Anwendbarkeit multikriterieller Entscheidungsfindungstechniken beim Fuzzy Querying Die Entscheidungsfindung nach mehreren Kriterien hat viele Gemeinsamkeiten mit Datenbankabfragen. In diesem Beitrag untersuchen und vergleichen wir das logische Scoring-of-Preference (LSP) Soft-Computing-Verfahren zur multikriteriellen Entscheidungsunterstützung und den Umgang mit Auswahlkriterien bei der „unscharfen“ Abfrage regulärer relationaler Datenbanken. Darüber hinaus untersuchen wir den Bedarf an fortschrittlicheren Aggregationstechniken bei der Auswertung von Fuzzy-Query-Kriterien und zeigen, wie LSP-Aggregationsoperatoren dazu beitragen können, diesen Bedarf zu verringern. Zur Veranschaulichung wurde der Fall der Kombination von obligatorischen und erwünschten Kriterien untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31709-5_14 1468b01a60f94d85793243cbff0ff415;de;;;7.2.;;;Abfragebeantwortung in Informationssystemen mit Integritätsbeschränkungen Die Spezifikationen der meisten heute allgegenwärtigen Informationssysteme beinhalten Integritätsbedingungen, d. Die Konsistenz von Informationssystemen und die Beantwortung von Abfragen wurden in Anlehnung an die klassische Logik formalisiert, wobei implizit angenommen wird, dass die Beantwortung von Abfragen nur mit konsistenten Informationssystemen sinnvoll ist. In der Praxis müssen jedoch sowohl inkonsistente als auch konsistente Informationssysteme abgefragt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35317-3_6 1610c30ba9e539134ce196ed44e58f40;de;;;7.2.;;;Über die Verwendung von Die architektonische Definition hybrider Softwaresysteme ist ein herausforderndes Problem, das es erfordert, die strategischen Bedürfnisse der Stakeholder und den Komponentenmarkt in Einklang zu bringen und gleichzeitig ein geeignetes Set von Services zu definieren. Wir haben eine Methode namens DHARMA basierend auf dem;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05352-8_5 284686c1154bd4e521f3babf14f3c276;de;;;7.1.;;;Buchhaltung zur Organisationskontrolle In diesem Kapitel werden die Hauptmerkmale des organisatorischen Kontexts dargelegt, in dem die Rechnungslegungskontrollen durchgeführt werden. Organisationen verwenden viele verschiedene Arten von Kontrollen, um ihre verschiedenen Aktivitäten zu koordinieren, aber die Buchhaltung bietet eine bequeme Sprache, um die Auswirkungen einer Vielzahl unterschiedlicher Aktivitäten zu diskutieren. Buchhaltungsinformationen werden jedoch unweigerlich in Verbindung mit weniger routinemäßigen, informelleren und qualitativeren Informationen bei der Entscheidungsfindung und Kontrolle verwendet. Es wird ein Kontrollmodell entwickelt, das die Ableitung von vier notwendigen Kontrollbedingungen ermöglicht, wobei die Angemessenheit der Rechnungslegungskontrollen anhand dieser vier Kriterien beurteilt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-6952-1_1 e5d2f9b762972c8be9a00eb78a44b9ed;de;;;7.1.;;;Aktivieren des Workflow-eingebetteten OM-Zugriffs mit dem Decor Toolkit Das Projekt DECOR (Delivery of kontextsensitives Organisationswissen) entwickelt, testet und konsolidiert Methoden und Werkzeuge für geschäftsprozessorientiertes Wissensmanagement (BPOKM). DECOR baut auf dem KnowMore-Framework auf (siehe;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-0947-9_6 abdf7d31eae6eacae16c8fd4a8fd2194;de;;;7.1.;;;Eine Architektur für kollaborative Szenarien mit einem gemeinsamen BPMN-Repository Kollaborative Geschäftsszenarien erfordern eine flexible Integration von Unternehmen. Um organisationsübergreifende Geschäftsprozesse zu managen, müssen bestehende Konzepte zum Business Process Management (BPM) übernommen und erweitert werden. In diesem Beitrag wird eine konzeptionelle Architektur für die Planung, Umsetzung und Steuerung unternehmensübergreifender Prozesse vorgestellt. Kernbestandteil der Architektur ist ein verteiltes Repository, das alle benötigten Daten und Informationen verwaltet und insbesondere eine prozessorientierte Sicht auf Kollaborationsnetzwerke erhält. Organisationsübergreifende Prozesse erfordern eine enge Abstimmung zwischen den Netzwerkpartnern. Dies wird durch die Integration von Geschäftsprozessmodellen erreicht. Daher schlagen wir weiterhin ein Vorgehensmodell einer XML-basierten Modelltransformation vor, das die Komplexität der Modellierungsaufgabe reduziert und Modellintegration auf konzeptioneller Ebene ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/11498094_16 8c13f0954bc92eb6d9d5d4427dfa3da6;de;;;7.1.;;;Design-Entwicklung Um eine in den vorangegangenen Aktivitäten spezifizierte Methode zu erstellen, beinhaltet diese Phase das Design und die Entwicklung des Artefakts unter Berücksichtigung seiner konzeptionellen, methodischen und qualitativen Anforderungen. Dies umfasst Design- und Entwicklungsentscheidungen und deren Begründung in Bezug auf LP- und Forschungsgemeinschaftskonsultationen sowie Wissensdatenbankuntersuchungen. Darüber hinaus haben wir Wissen aus Forschungsliteratur und anderen schriftlichen Quellen (z. B. Organisationsunterlagen) sowie eingebettetes Wissen von Forschern und relevanten Praktikern verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-19233-4_6 4f08d8ea1ae609dd1dedb4ae864a7fc6;de;;;7.1.;;;Synthetische Landschaften Häufig waren weder Entscheidungsträger von Behörden noch öffentliche Gruppen in der Lage, die Auswirkungen von Landschaftsveränderungen, die sich aus der normalen Landbewirtschaftung ergeben, vorherzusehen. Infolgedessen sind häufig Missverständnisse aufgetreten und die Teilnehmer haben unterschiedliche Erwartungen entwickelt, was zu Meinungsverschiedenheiten und Konflikten führt. Solche Meinungsverschiedenheiten schaden der öffentlichen Meinung langfristig und verringern die Effektivität der Agenturen dramatisch. Da Landbewirtschaftungsaktivitäten häufig einer intensiven öffentlichen Kontrolle unterliegen, ist es wichtig, dass sowohl Planer als auch Öffentlichkeit über wirksame, zuverlässige und genaue Mittel verfügen, um die Folgen des Wandels zu visualisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-1140-7_9 38db409dfcef975d916269ca075f22db;de;;;7.1.;;;Ein konzeptioneller Rahmen für ein intelligentes Managementkontrollsystem für die Hochschulbildung Der Einsatz von Management-Kontrollsystemen in der Hochschulleitung stellt eine erhebliche Herausforderung dar, da die strategischen Ziele der Hochschule nicht mit denen der gewinnorientierten Unternehmensführung identisch sind. Das Management-Kontrollsystem einer Universität sollte die Verarbeitung von Managementinformationen zu Managementzwecken berücksichtigen und die Beziehungen zwischen verschiedenen Stakeholdergruppen berücksichtigen. Die Besonderheit des Hochschulbetriebs setzt die Durchführung langfristiger wissenschaftlicher Forschungs- und Bildungsprogramme voraus. Daher sollte der Controlling-Ansatz des Hochschulmanagements die langfristige Leistungsmessung sowie das Management in Schlüsselbereichen wie Forschung, Bildungsangebot für Studierende und Interaktion mit dem sozioökonomischen Umfeld der Hochschule berücksichtigen. Dieses Papier zielt darauf ab, einen konzeptionellen Rahmen für das Intelligent Management Control System for Higher Education (IMCSHE) basierend auf kognitiven Agenten zu entwickeln. Die wichtigsten Erkenntnisse beziehen sich auf die Entwicklung der Annahme, des Modells und der technologischen Basis einschließlich der Methode der künstlichen Intelligenz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-80847-1_3 cb12c6ce07d8554184cdf0d8f25f6682;de;;;7.1.;;;Systemorientierte Servicebereitstellung in der industriellen Instandhaltung ermöglichen: Eine Meta-Methode zur Vorhersage industrieller Ausfallkosten Heutzutage lagern Unternehmen häufig Aktivitäten, die nicht direkt mit ihrem Kerngeschäft zusammenhängen, an Dienstleister aus. Service Provider – insbesondere bei physischen Dienstleistungen – sind stark auf komplexe Informations- und Optimierungssysteme angewiesen, um ihre Effizienz zu steigern. Derzeit implementieren die meisten dieser Systeme das Konzept der anbieterorientierten Servicebereitstellung (POSD). Während POSD aus Anbietersicht optimiert, vernachlässigt es Optimierungspotenziale auf Kundenseite. Um dieses Problem anzugehen, haben Wissenschaftler kürzlich das Konzept der systemorientierten Servicebereitstellung (SOSD) vorgeschlagen. Obwohl SOSD im Vergleich zu POSD eine erhebliche Kostenreduzierung ermöglicht, erfordert es auch zusätzliche Kundenkostendaten. In der industriellen Instandhaltung beziehen sich diese zusätzlichen Kostenangaben auf die Ausfallkosten des Kunden. Trotz einiger Pionierarbeit auf diesem Gebiet reicht der aktuelle Wissensstand nicht aus, um SOSD im Bereich der industriellen Instandhaltung erfolgreich einzusetzen. Ziel dieser Arbeit ist es daher, eine Methode zur Ermittlung der Ausfallkosten eines Herstellers zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-38724-2_7 4600db84d9115373f4c2c0c336fd6654;de;;;7.1.;;;Ein gemischt-ganzzahliges lineares Programmiermodell für die Transportplanung in der Komplettladungsstrategie zur Versorgung von Produkten mit unausgeglichener Nachfrage im Just-in-Time-Kontext: Eine Fallstudie Das wachsende Bewusstsein für die Senkung der Transportkosten und die Minimierung der Umweltbelastung führt dazu, dass Unternehmen zunehmend daran interessiert sind, die Komplettladungsstrategie bei ihren Versorgungsaufgaben einzusetzen. Diese Strategie besteht darin, LKWs komplett mit einem Produkttyp oder einer Mischung von Produkten desselben Lieferanten zu befüllen. Dieses Papier zielt darauf ab, ein gemischt-ganzzahliges lineares Programmierungsmodell und -verfahren zum Befüllen von LKWs vorzuschlagen, das Beschränkungen von Beständen, Lagerbeständen und unausgeglichener Nachfrage sowie die Minimierung der Gesamtzahl der LKWs berücksichtigt, die in der Strategie für die vollständige LKW-Beladung verwendet werden. Die Ergebnisse einer Fallstudie werden präsentiert und in eine konventionelle Tabellenkalkulation exportiert, die einem Unternehmen der Automobilindustrie zur Verfügung steht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40361-3_73 a64b3423849366f92f63f42708b85914;de;;;7.2.;;;Festkosten-Pooling-Strategien auf Basis von IR-Bewertungsmaßnahmen Jüngste Studien haben die Art und Weise, wie wir die Pooling-Methode operationalisieren, unter Berücksichtigung der praktischen Einschränkungen, auf die Testsammlungsersteller häufig stoßen, neu überdacht. Die größte Einschränkung stellt oft das für Relevanzbewertungen zur Verfügung stehende Budget dar und es stellt sich die Frage, wie – im Sinne des geringsten Pool-Bias – die zu bewertenden Dokumente bei einem festen Budget am besten ausgewählt werden. Hier untersuchen wir eine Reihe von 3 neuen Pooling-Strategien, die in diesem Papier vorgestellt werden, im Vergleich zu 3 bestehenden und einer Baseline. Wir zeigen, dass es je nach Bewertungsmaßstab, der letztendlich zur Bewertung der Läufe verwendet wird, signifikante Unterschiede gibt. Wir schließen daraus, dass adaptive Strategien immer am besten sind, aber wenn sie nicht vorhanden sind, können wir für kopflastige Bewertungsmaße weiterhin die Basislinie verwenden, während wir für P@100 jede der anderen nicht adaptiven Strategien verwenden sollten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-56608-5_28 7dc4968dd6b629b22bb4fff0630eda81;de;;;7.2.;;;Modellierung von probabilistischen Inferenznetzwerken und Klassifizierung in probabilistischen Datenprotokollen Probabilistic Graphical Models (PGM) sind ein etablierter Ansatz zur Modellierung von unsicherem Wissen und Argumentation. Da wir uns auf Inferenz konzentrieren, untersucht dieses Papier probabilistische Inferenznetzwerke (PINs), die einen Sonderfall von PGM darstellen. PINs, allgemein als Bayesian Networks bezeichnet, werden beim Informationsabruf verwendet, um Aufgaben wie die Klassifizierung und den Ad-hoc-Abruf zu modellieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15951-0_27 bc6afdc7af007b9c01ebd6bbdb226e37;de;;;7.2.;;;Eine nichtlineare semantische Abbildungstechnik für den sprachübergreifenden Satzvergleich Für den sprachübergreifenden Textvergleich auf Satzebene wird ein nichtlineares semantisches Abbildungsverfahren implementiert. Das Verfahren beruht auf einer nichtlinearen Raumreduktionstechnik, die zum Konstruieren semantischer Einbettungen mehrsprachiger Satzsammlungen verwendet wird. Bei dem vorgeschlagenen Verfahren wird für jede Sprache in der mehrsprachigen Sammlung eine unabhängige Einbettung konstruiert und die Ähnlichkeiten zwischen den resultierenden semantischen Darstellungen werden für den sprachübergreifenden Abgleich verwendet. Es wird gezeigt, dass das vorgeschlagene Verfahren andere herkömmliche sprachübergreifende Informationswiedergewinnungsverfahren übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14770-8_8 3bacc2b4a3a6025dd996b5bbcd0ec254;de;;;7.2.;;;Eine Testsammlung für die Beurteilung der Passage Retrieval von spanischen gesundheitsbezogenen Ressourcen Dieses Papier beschreibt eine neue Testsammlung zum Abrufen von Passagen aus gesundheitsbezogenen Webressourcen auf Spanisch. Die Testsammlung enthält 10.037 gesundheitsbezogene Dokumente in spanischer Sprache, 37 Themen, die komplexe Informationsbedürfnisse darstellen, die in insgesamt 167 Fragen in natürlicher Sprache formuliert sind, und manuelle Relevanzbewertungen von Textpassagen, die aus mehreren Systemen zusammengeführt wurden. Diese Testsammlung ist die erste, die die Suche in einer Sprache jenseits von Englisch, die Suche nach Passagen und gesundheitsbezogene Ressourcen und Themen für die breite Öffentlichkeit kombiniert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-15719-7_19 9539b44ff709f11a175006b9ae48bc97;de;;;7.2.;;;Erste Experimente mit Auswahl relevanter Dokumente für blindes Relevanz-Feedback beim Abruf gesprochener Dokumente In diesem Beitrag werden unsere ersten Experimente zur automatischen Auswahl der relevanten Dokumente für das blinde Relevanz-Feedback-Verfahren im Sprachinformations-Retrieval vorgestellt. In der Regel werden die relevanten Dokumente nur durch einfaches Ermitteln des ersten selektiert;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11581-8_29 c96d64243d744f8066b045c58940ad3e;de;;;7.1.;;;Aufgabenstrukturbasierte Mediation: Das Beispiel eines Reiseplanungsassistenten Da die Zahl der im World Wide Web (WEB) verfügbaren Anwendungen mit rasanter Geschwindigkeit zunimmt, werden der breiten Öffentlichkeit eine enorme Anzahl von Ressourcen zur Verfügung gestellt. Diese Ressourcen bieten Informationen und Dienste in einer Vielzahl von Domänen an, sind jedoch aufgrund ihrer idiosynkratischen Domänen- und Interaktionsmodelle oft schwer zu verwenden. In diesem Beitrag diskutieren wir eine Multi-Agenten-Architektur zur Integration von WEB-Anwendungen innerhalb einer Domäne, basierend auf einem Aufgabenstruktur-Ansatz. Die Architektur besteht aus einem Satz von Wrapper-Agenten, die Informationen aus einem Satz entsprechender WEB-Anwendungen steuern und extrahieren, und einem Mediator-Agenten, dessen Aufgabenstruktur sowohl seine Interaktion mit den Benutzern als auch seine Kommunikation mit den Wrappern steuert. Wir illustrieren diese Architektur mit der Beschreibung eines Reiseplanungsassistenten, der die Nutzer bei einem explorativen, unverbindlichen Suchverhalten unterstützt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45486-1_34 1ca7dad2c213590899d321cae3ec567c;de;;;7.1.;;;Leistung, Interdependenz und Koordination im elektronischen Geschäftsverkehr zwischen Unternehmen und im Supply Chain Management Nachdem sie die Unzulänglichkeit traditioneller Beziehungen entlang der Wertschöpfungskette entdeckt haben, bauen viele Unternehmen heute neue Formen interorganisationaler Systeme mit ihren Lieferanten und Kunden auf, um die Gesamtleistung des Kanals zu verbessern. E-Commerce-Verbindungen werden zwischen unabhängigen Organisationen in mehreren Branchen hergestellt, darunter Fertigung, Finanzdienstleistungen, Transport und Einzelhandel. Bemühungen zur Verbesserung der Kanaleffizienz mithilfe von Systemen für den elektronischen Geschäftsverkehr zwischen Unternehmen erfordern im Allgemeinen eine stärkere gegenseitige Abhängigkeit und eine erweiterte Koordination zwischen unabhängigen Unternehmen, um die potenziellen Vorteile zu nutzen, die durch eine engere organisationsübergreifende Integration der Abläufe ermöglicht werden. Die teilnehmenden Firmen können nur dann dramatische Vorteile aus der Einrichtung einer elektronischen Verbindung ziehen, wenn das System verwendet wird, um die gegenseitige Abhängigkeit zu erhöhen und die Koordination zwischen den an der neuen interorganisationalen Beziehung beteiligten Firmen zu erweitern. Aufbauend auf theoretischer und empirischer Forschung zu elektronischer Kommunikation und unternehmensübergreifendem Design entwickeln und testen wir ein Modell für die Beziehung zwischen Leistung, Interdependenz und Koordination von Unternehmen, die an interorganisationalen Beziehungen im US-Lebensmittelmarkt beteiligt sind. Das Forschungsdesign umfasst eine qualitative Fallstudienanalyse und eine quantitative Umfragedatenanalyse, um die wichtigsten Ergebnisse der Fallstudien zu validieren. Sowohl qualitative als auch quantitative Ergebnisse weisen darauf hin, dass Kanalleistung, Interdependenz und Koordination für Unternehmen in interorganisationalen Beziehungen eng miteinander verbunden sind.;-;-;-;https://link.springer.com/article/10.1023/A%3A1019108621684 f145029115d3eee3cc3007ac6d0fc552;de;;;7.1.;;;Ist die Sicherung der Management-Rationalität eine Controlling-Aufgabe? Der Beitrag zeigt, dass die unterschiedlichen Perspektiven auf Controlling in Theorie und Praxis einen gemeinsamen Nenner haben: Controlling steht für die Sicherstellung der Rationalität der Führung. Der Grund für die (historische) Diversität hinsichtlich der Definition des Controllings und seiner Aufgaben in der Unternehmenspraxis liegt in der Kontextabhängigkeit dieser Prüfungsfunktion. Das Vorhandensein unterschiedlicher Management-Rationalitätsengpässe und unterschiedlicher Mechanismen zur Koordination des Ausführungssystems führen zu unterschiedlichen Steuerungsaufgabenprofilen. Die Variation sowohl in der Terminologie als auch in den jeweiligen Aufgabenprofilen wird in die in diesem Beitrag vorgestellte Controllingkonzeption einbezogen. Sowohl für den akademischen Diskurs als auch für die Interaktion zwischen Wissenschaft und Unternehmenspraxis impliziert der Ansatz rückblickend, dass die jüngsten Debatten um die einzig wahre Definition von Controlling meist Possensation waren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-25983-9_6 9c1dce1aaa3d5099e6895400549d8a45;de;;;7.1.;;;Wirtschaftsplanung und die Kosten des Denkens (1966) Wirtschaftsplanung nennen wir den Prozess der optimalen Entscheidung. Eine Entscheidung oder Maßnahme wird als optimal bezeichnet, wenn ihre Ergebnisse nach wohlüberlegter Sicht des Entscheidungsträgers und unter Berücksichtigung der Kosten der Entscheidungsfindung im Durchschnitt nicht schlechter sind als die jeder anderen verfügbaren Maßnahme. Die Menge der verfügbaren Aktionen wird als seine „Ressourcen“ bezeichnet. Bei der Wirtschaftsplanung geht es in diesem Sinne um den „besten Einsatz von Ressourcen“.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-9278-4_11 0ebee1c1677f0dd4cfc9120f6fdafd76;de;;;7.1.;;;Integration heterogener Informationssysteme: Organisationen und Methoden In diesem Beitrag wird eine Methodik zur Integration heterogener industrieller Informationssysteme vorgestellt. Die Methodik basiert stark auf der weitgehenden Wiederverwendung bereits hergestellter Komponenten und ist konzeptionell in drei Ebenen unterteilt, eine für jede Art von Designer, der typischerweise an dieser Art von Projekten beteiligt ist. Um eine bessere Integration der Aktivitäten und Werkzeuge zu erreichen, die für die Entwicklung industrieller Informationssysteme mit der vorgeschlagenen Methodik erforderlich sind, werden drei geeignete organisatorische Konfigurationen angenommen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36209-6_51 a776dc63802ed57fdd20aeb80c764260;de;;;7.2.;;;Exploring Results Organization für die Bildsuche Es wird eine explorative Studie einer Bildabrufschnittstelle im Hinblick auf die Unterstützung vorgestellt, die sie dem Benutzer bei der Organisation seiner Suchergebnisse bietet. Die Evaluierung, an der Designexperten praktische und relevante Aufgaben durchführen, zeigt, dass der vorgeschlagene Ansatz erfolgreich ist, den Benutzer zu ermutigen, seine Aufgaben besser zu konzipieren.;-;-;-;https://link.springer.com/chapter/10.1007/11555261_79 0469450911a3db7a8d78d08b5a52a07a;de;;;7.2.;;;NLPX auf der INEX 2005 XML-Informationsabrufsysteme (XML-IR) zielen darauf ab, Benutzern sehr umfassende und hochspezifische Ergebnisse zu liefern. Um mit XML-IR-Systemen zu interagieren, müssen Benutzer sowohl ihre inhaltlichen als auch strukturellen Bedürfnisse in Form einer strukturierten Abfrage ausdrücken. In der Vergangenheit wurden diese strukturierten Abfragen mit formalen Sprachen wie XPath oder NEXI formatiert. Leider sind formale Abfragesprachen sehr komplex und für erfahrene, geschweige denn gelegentliche Benutzer zu schwierig zu verwenden und zu eng an die zugrunde liegende physische Struktur der Sammlung gebunden. Daher hat die neuere Forschung die Idee untersucht, die Inhalte und strukturellen Anforderungen von Benutzern über natürliche Sprachabfragen (NLQs) zu spezifizieren. Zur Förderung der Forschung in diesem Bereich wurde auf der INEX 2004 der NLP-Track eingerichtet, an dem sich QUT mit dem System NLPX beteiligte. Hier besprechen wir Änderungen, die wir seit letztem Jahr am System vorgenommen haben, sowie unsere Teilnahme an der INEX 2005.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-34963-1_27 cd83903ddb359f8b6c9a7c1d40c40771;de;;;7.2.;;;Durchsuchen von Suchergebnissen über formale Konzeptanalyse: Automatische Auswahl von Attributen In diesem Artikel wird das JBraindead Information Retrieval System vorgestellt, das eine Freitextsuchmaschine mit einer Online-Formal-Konzeptanalyse kombiniert, um die Ergebnisse einer Abfrage zu organisieren. Im Gegensatz zu den meisten Anwendungen von Conceptual Clustering to Information Retrieval ist JBraindead nicht auf bestimmte Domänen beschränkt und verwendet weder manuell zugewiesene Deskriptoren für Dokumente noch domänenspezifische Thesauren. Anhand der Rangliste von Dokumenten aus einer Suche entscheidet das System dynamisch, welche Attribute für den Dokumentensatz am besten geeignet sind, und erzeugt im Handumdrehen ein konzeptionelles Gitter. Dieser Artikel konzentriert sich auf die automatische Auswahl von Attributen: Zuerst schlagen wir eine Reihe von Maßnahmen vor, um die Qualität eines konzeptionellen Gitters für die Aufgabe zu bewerten, und verwenden dann die vorgeschlagenen Maßnahmen, um eine Reihe von Strategien zur automatischen Auswahl von Attributen zu vergleichen. Die Ergebnisse zeigen, dass konzeptionelle Gitter sehr nützlich sein können, um relevante Informationen in Freitextsuchaufgaben zu gruppieren. Die besten Ergebnisse werden mit einer Gewichtungsformel erzielt, die auf der automatischen Extraktion von Terminologie für den Thesaurusaufbau basiert, im Vergleich zu einer Okapi-Gewichtungsformel.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24651-0_8 df173514d65daefd47239d7617a34a68;de;;;7.2.;;;Der Einfluss der zeitlichen Intentionsvariabilität auf die Diversity-Evaluation Um die Unsicherheit zu bewältigen, die mit mehrdeutigen oder unterspezifizierten Abfragen verbunden ist, diversifizieren Suchmaschinen die Ergebnisse häufig, um Dokumente zurückzugeben, die mehrere Interpretationen abdecken, z. die Automarke, das Tier oder das Betriebssystem für die Abfrage „Jaguar“. Aktuelle Diversity-Bewertungsmaßnahmen berücksichtigen die Popularität der Unterthemen und zielen darauf ab, Systeme zu bevorzugen, die die beliebtesten Unterthemen am frühesten im Ergebnisranking fördern. Es wird jedoch angenommen, dass diese Popularität des Unterthemas im Laufe der Zeit statisch ist. In diesem Papier stellen wir die Hypothese auf, dass zeitliche Veränderungen der Popularität von Unterthemen für viele Themen üblich sind, und argumentieren, dass dieses Merkmal bei der Bewertung der Diversität berücksichtigt werden sollte. Um unsere Hypothese zu untermauern, analysieren wir zunächst die zeitlichen Veränderungen der Unterthemen-Popularität für mehrdeutige Abfragen durch historische Wikipedia-Artikel-Anzeigestatistiken. Darüber hinaus demonstrieren wir durch Simulation den Einfluss dieser zeitlichen Intent-Variabilität auf die Diversitätsbewertung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36973-5_93 6c65cce9fe6380690badd1588c392367;de;;;7.1.;;;Eingeschränkte lineare Informationssysteme In der Arbeit wird eine Klasse von unendlichen Informationssystemen beschrieben. Für Entscheidungstabellen über jedem solchen Informationssystem existieren niedrige Obergrenzen für die minimale Komplexität von Entscheidungsbäumen und polynomiale Algorithmen der Entscheidungsbaumoptimierung für verschiedene Komplexitätsmaße.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-32392-9_67 d6aaadabd6902cbffb5852598bc816f8;de;;;7.1.;;;Visuelle Buchhaltung Computer können das Lebenszyklusmanagement auf unterschiedliche Weise unterstützen. Normalerweise werden Personal Computer Software in diesem Bereich wie Gabi, Simapro oder Umberto als eigenständige Lösungen bezeichnet. Sie sind normalerweise nicht in die computergestützte Informationssysteminfrastruktur von Unternehmen integriert. Besser wäre ein vollständig integriertes Modul innerhalb von Standard-Enterprise-Resource-Planning-Systemen zur Entscheidungsunterstützung im Bereich Lifecycle Management. Die Frage ist, warum die eigenständigen Softwaretools erfolgreich sind, während noch keine Softwaremodule für Enterprise-Resource-Systeme verfügbar sind. Dieses Papier untersucht die Gründe für den Erfolg von Computerwerkzeugen heute. In den ersten beiden Kapiteln wird daher der theoretische Hintergrund von Instrumenten im Bereich des Lebenszyklusmanagements, hauptsächlich der Ökobilanz (LCA), kritisch beleuchtet: die Annahme, dass die Instrumente Entscheidungshilfen sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-1899-9_10 103b18f45fbd2cd90135dc6dabede0a6;de;;;7.2.;;;Ein standardmäßiges logikbasiertes Framework für kontextabhängiges Denken mit lexikalischem Wissen Lexikalisches Wissen wird in Informationssystemen immer wichtiger – zum Beispiel bei der Indexierung von Dokumenten mithilfe von Schlüsselwörtern oder der Begriffsklärung von Wörtern in einer Abfrage an ein Informationsabrufsystem oder eine natürliche Sprachschnittstelle. Es ist jedoch eine schwierige Art von Wissen, das darzustellen und zu argumentieren. Bestehende Ansätze zur Formalisierung von lexikalischem Wissen haben Sprachen mit eingeschränkter Ausdrückbarkeit verwendet, beispielsweise solche, die auf Vererbungshierarchien basieren, und haben insbesondere die kontextabhängige Natur des lexikalischen Wissens nicht angemessen berücksichtigt. Hier präsentieren wir ein Framework, das auf der Standardlogik basiert, das Dex-Framework genannt wird, um kontextabhängiges Denken mit lexikalischem Wissen zu erfassen. Standardlogik ist eine Logik erster Ordnung, die eine ausdrucksstärkere Formalisierung bietet als Vererbungshierarchien: (1) Formeln erster Ordnung, die lexikalisches Wissen über Wörter erfassen, können abgeleitet werden, (2) Präferenzen gegenüber Formeln können auf Spezifität, Argumentation über Ausnahmen oder explizite Prioritäten, (3) Informationen über Kontexte können als Formeln erster Ordnung begründet werden und (4) Informationen über Kontexte können als Standardschlussfolgerungen abgeleitet werden. Im Dex-Framework wird ein Wort, für das lexikalisches Wissen gesucht wird, als Abfragewort bezeichnet. Der Kontext für ein Abfragewort wird aus weiteren Wörtern abgeleitet, beispielsweise Wörtern im selben Satz wie das Abfragewort. Diese weiteren Wörter werden mit einer als Kontextklassifizierungsbaum bezeichneten Form eines Entscheidungsbaums verwendet, um zu identifizieren, welche Kontexte für das Abfragewort gelten. Wir zeigen, wie wir diese Kontexte in der Standardlogik verwenden können, um lexikalisches Wissen über das Abfragewort wie Synonyme, Antonyme, Spezialisierungen, Meronyme und anspruchsvolleres semantisches Wissen erster Ordnung zu identifizieren. Wir zeigen auch, wie wir einen standardmäßigen maschinellen Lernalgorithmus verwenden können, um Kontextklassifizierungsbäume zu generieren.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008741010967 614e08755e7f7adfe7355c8dec52cdc4;de;;;7.1.;;;Die grundlegenden Aktionsvariablen in Operationen (II) In diesem Kapitel vervollständigen wir die Beschreibung der grundlegenden Variablen von Operationen, die wir im vorherigen Kapitel begonnen haben. Die verbleibenden zu berücksichtigenden Variablen sind: Humanressourcen, das Informationssystem und das Konfliktlösungssystem. Die beiden letztgenannten sind als Repositorien (und Quellen) des Wissens der Firma – hauptsächlich in Form symbolischer Materialisierungen – von entscheidender Bedeutung.;-;-;-;https://link.springer.com/chapter/10.1057/9780230504509_6 fb6b7d1d7260e350cb4e53f22068fc6e;de;;;7.2.;;;Evaluation der Participant-Support-Methode zur Informationsbeschaffung im „Multiplex Risk Communicator“ Es hat eine Diversifizierung der sozialen Risiken für die Informationsgesellschaft stattgefunden, die zu komplexen sozialen Fragen geführt hat, und Risikokommunikation ist notwendig, um die komplizierten sozialen Probleme zu lösen, die sich bei Akteuren mit unterschiedlichem Wissensstand und unterschiedlichen Risikostandards ergeben. In diesem Beitrag stellen wir ein Portalsystem vor, das den Teilnehmern hilft, eine optimale Kombination von Gegenmaßnahmen zu erreichen. Die Merkmale der vorgeschlagenen Methode sind: erstens die Einordnung der Phase der Informationsbeschaffung durch die Teilnehmer, zweitens die Ermöglichung reibungsloser Übergänge während der Informationsbeschaffungsphase und drittens die Unterstützung der Informationsbeschaffung durch das Angebot von Informationsportalen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73354-6_22 d7ca12e3f577d5f25f5f6df0198fa144;de;;;7.2.;;;Stichwortsuche in Grafiken basierend auf Inhalt und Struktur In diesem Beitrag wurde ein neuer Schlüsselwortsuchalgorithmus für Graphen basierend auf Inhalt und Struktur (KSGCS) vorgeschlagen, der nicht nur die Struktur der Distanz zwischen den Knoten, sondern auch die Ähnlichkeit zwischen Knoten und Abfrage in der Suchphase berücksichtigt. Wir präsentieren eine neue Methode zur Berechnung der Ähnlichkeit zwischen Knoten und Abfrage und entwerfen die neuen Methoden für den Knotensuchalgorithmus und den Ergebnisgenerierungsalgorithmus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07782-6_68 5346552e7e85d4e437c9d1aad93263c6;de;;;7.2.;;;Bewertung des Informatisierungsgrades des ländlichen Raums in Zentralchina basierend auf der Methode des Katastrophenfortschritts In diesem Beitrag wurde eine auf der Katastrophentheorie basierende Methodik zur Abschätzung des ländlichen Informatisierungsgrades in Zentralchina entwickelt und die Evaluierung des ländlichen Informatisierungsgrades in den sechs Provinzen Zentralchinas als Beispiel genommen, um die Wirksamkeit der Methode zu testen. Unter Verwendung von Referenzdaten und Aufbau der Hierarchie basierend auf der Methode des Katastrophenverlaufs wurden die Werte des ländlichen Informatisierungsniveaus unter den sechs Provinzen Zentralchinas unter Verwendung einer Normalisierungsformel berechnet. Die Ergebnisse stimmen mit der praktischen Situation überein, was beweist, dass die Methode des Katastrophenverlaufs gut funktioniert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18369-0_80 9adf5bbfa388defd1ef876b14d8082e0;de;;;7.2.;;;Eine semantische Methode zum Extrahieren des User Interest Center Mit der Evolution von Informationssystemen und der großen Masse heterogener Daten im Web treten Probleme wie kognitive Überlastung und Desorientierung auf (Conklin und Begeman in GIBIS a hypertext tool for team design deliberation, S. 247–251, [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-11196-0_44 6d6ed84624e88305f77fe0ceabd786a8;de;;;7.2.;;;Si-SEEKER: Ontologiebasierte semantische Suche über Datenbanken Die Schlüsselwortsuche über relationale Datenbanken (KSORD) wurde umfassend untersucht. Während die Stichwortsuche für den Zugriff auf Datenbanken hilfreich ist, weist sie inhärente Einschränkungen auf. Die Keyword-Suche nutzt die semantischen Beziehungen zwischen Keywords wie Hyponymie, Meronymie und Antonymie nicht aus, sodass die Erinnerungsrate und die Präzisionsrate oft unbefriedigend sind. In diesem Artikel haben wir eine ontologiebasierte semantische Suchmaschine über Datenbanken namens Si-SEEKER entwickelt, die auf unserem i-SEEKER-System basiert, das ein KSORD-System mit unseren Kandidatennetzwerk-Auswahltechniken ist. Si-SEEKER erweitert i-SEEKER um semantische Suche, indem es die hierarchische Struktur der Domänenontologie und ein verallgemeinertes Vektorraummodell nutzt, um die semantische Ähnlichkeit zwischen einer Benutzeranfrage und annotierten Daten zu berechnen. Wir kombinieren semantische Suche mit Stichwortsuche über Datenbanken, um die Wiedererkennungsrate und Präzisionsrate des KSORD-Systems zu verbessern. Wir evaluieren unser Si-SEEKER-System experimentell auf dem DBLP-Datensatz und zeigen, dass Si-SEEKER in Bezug auf die Rückrufrate und Präzisionsrate der Abrufergebnisse effektiver ist als i-SEEKER.;-;-;-;https://link.springer.com/chapter/10.1007/11811220_51 8feeebb44aaec03270abe74a4037e2bd;de;;;7.2.;;;Kommunikationsintensitäten in kollaborativen Netzwerken messen und bewerten Unternehmen, die sich aktiv an einem kollaborativen Netzwerk (CN) beteiligen, müssen ein hohes Maß an Kooperationsfähigkeit und -bereitschaft zeigen. Das Konzept der Kooperation beinhaltet verschiedene Aspekte, die berücksichtigt werden müssen, wie z.B. Kommunikation, Ressourcenaustausch oder organisationsübergreifende Prozesse. Diese Aspekte sollten während der Betriebsphase des KN zu einem ständigen Untersuchungsgegenstand werden. Der vorliegende Artikel betrachtet einen dieser Aspekte, nämlich den Kommunikationsaspekt. Unser Ansatz basiert auf einer Kombination grundlegender Konzepte aus der Media-Richness-Theory (MRT) und der Graph-Theorie. Es ermöglicht dem Analysator zunächst die Kommunikationsintensitäten in CNs zu messen und dann auszuwerten. Wir stellen unseren Ansatz anhand eines Beispiels vor und diskutieren mögliche Anwendungsbereiche und Erweiterungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15961-9_63 c831cd9b971b66b1e5f4f51b104200c2;de;;;7.2.;;;Entwerfen von menschenlesbaren Benutzerprofilen für die Suchauswertung Die Bildung eines genauen mentalen Modells eines Benutzers ist entscheidend für die qualitativen Design- und Bewertungsschritte vieler informationszentrierter Anwendungen wie Websuche, Inhaltsempfehlung oder Werbung. Dieser Prozess kann oft zeitaufwändig sein, da Such- und Interaktionsverläufe ausführlich werden. In dieser Arbeit präsentieren und analysieren wir den Nutzen prägnanter, menschenlesbarer Benutzerprofile, um die Systemabstimmung und -bewertung durch Benutzerstudien zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36973-5_64 3c3740c1bcfca55b450b9bd7e9d5640d;de;;;7.1.;;;Mikro-Wissensmanagement: Ein Job-Design-Framework Dieses Papier befasst sich mit der Einführung von Micro Knowledge Management-Tools und -Techniken in operativen Einheiten und untersucht menschliche Hürden bei diesem Prozess. Ein auf dem Kontext von Wissensinteraktionen basierender Rahmen wird vorgeschlagen, um die verschiedenen Arten von Arbeitsgestaltungspraktiken zu beschreiben, die die Einführung von Mikrowissensmanagement-Tools einschränken/erleichtern können. Fallstudien, die zur Veranschaulichung dieses Rahmens verwendet wurden, legen nahe, dass die Funktionalität von Micro Knowledge Management-Systemen ebenfalls stark kontextabhängig ist. Der Beitrag schließt mit einer Typologie dieser Systeme.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0351-6_11 8bb2eb9997ab31a9f6e46aeb9788719c;de;;;7.2.;;;Benutzeroberflächenmodellierung von Workflow-Informationssystemen In den letzten Jahren hat das Workflow-System in der Wirtschaftsinformatik-Community zunehmend an Bedeutung gewonnen. Es ermöglicht die Integration der verschiedenen Benutzer, um die Ziele der Organisation zu erreichen. Die Benutzer bedienen ihre Informationssysteme über die Benutzerschnittstellen (UI). Daher ist es notwendig, das Workflow-Modell im Entwicklungsprozess des UI für ein Informationssystem zu berücksichtigen. Dieses Papier hat zwei Ziele zu erreichen. Der erste ist der Vorschlag eines modellgetriebenen Ansatzes, um eine plastische Benutzeroberfläche eines Workflow-Informationssystems abzuleiten. Das zweite Ziel liegt in der Nutzung der Business Process Modeling Notation (BPMN) zur Modellierung der Interaktionsmodelle (Task Model, Abstract User Interface, Concrete User Interface) mit dem Ziel, angepasstere Modelle für einen Business-Experten bereitzustellen, der eine Kandidaten für den Erfolg der Organisation. Durch eine Fallstudie, die auf ein reales Informationssystem angewendet wird, erweist sich unser Ansatz als zuverlässig.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15723-3_10 b1f0e69a843b169d967bff2c728f3739;de;;;7.2.;;;"Intervall Typ II Fuzzy Rough Set Regelbasiertes Expertensystem zur Diagnose einer chronischen Nierenerkrankung Chronische Nierenerkrankungen sind ein weltweites Problem der öffentlichen Gesundheit mit steigender Inzidenz und Prävalenz, schlechten Ergebnissen und hohen Kosten. Die Diagnose einer chronischen Nierenerkrankung war schon immer eine Herausforderung für Ärzte. Dieses Papier präsentiert eine effektive Methode zur Diagnose der chronischen Nierenerkrankung basierend auf Intervall-Typ-II-Fuzzy. Dieses vorgeschlagene System umfasst drei Schritte: Vorverarbeitung (Merkmalsauswahl), Typ-II-Fuzzy-Klassifizierung und Systembewertung. Die Merkmalsauswahl des Fuzzy Rough QuickReduct-Algorithmus wird als der Vorverarbeitungsschritt verwendet, um irrelevante Merkmale auszuschließen und die Klassifikationsleistung und -effizienz bei der Generierung des Klassifikationsmodells zu verbessern. Die grobe Mengenlehre ist ein sehr nützliches Werkzeug zur Beschreibung und Modellierung von Vagheit in schlecht definierten Umgebungen. Im Schritt der Typ-II-Fuzzy-Klassifizierung wird ein ""indirekter Ansatz"" für die II-Fuzzy-Systemmodellierung verwendet, indem der Sugeno-Index zur Bestimmung der Anzahl von Regeln im Fuzzy-Cluster-Ansatz implementiert wird. In dem vorgeschlagenen System ist der Diagnoseprozess bei der endgültigen Entscheidung mit Unklarheiten und Unsicherheiten konfrontiert. Die erhaltenen Ergebnisse zeigen, dass Intervall-Typ-II-Fuzzy die Fähigkeit besitzt, eine chronische Nierenerkrankung mit einer durchschnittlichen Genauigkeit von 90% zu diagnostizieren.";-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-95312-0_49 dbbf4ab68c82bca72ba5a2064c7db5f9;de;;;7.2.;;;Statistische Übersetzungsmaschinen für terminologische Ressourcen öffnen Im letzten Jahrzehnt gab es spannende Arbeiten im Bereich der statistischen maschinellen Übersetzung (SMT). Die genaue Bewertung seines Potenzials in realen Kontexten ist jedoch immer noch ein fragwürdiges Thema. In dieser Studie untersuchen wir das Verhalten einer SMT-Engine gegenüber einem Korpus, der sich weit von dem unterscheidet, auf dem sie trainiert wurde. Wir zeigen, dass Terminologiedatenbanken offensichtliche Ressourcen sind, die verwendet werden sollten, um die Leistung einer Statistikmaschine zu steigern. Wir schlagen und evaluieren eine Möglichkeit zur Integration von Terminologie in eine SMT-Engine, die eine signifikante Reduzierung der Wortfehlerrate ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36271-1_17 8a71d549fd94aca10c2b5177291f1141;de;;;7.2.;;;Reduzierung von Störungen bei der terminierten Zustandsüberwachung Condition Monitoring hat typischerweise einen hohen Verarbeitungsaufwand und kann somit die Verarbeitung von Geschäftsvorfällen durch die überwachten Systeme stören. Die zeitgesteuerte Zustandsüberwachung zielt darauf ab, diesen Nachteil zu überwinden, indem es den Systembesitzern ermöglicht, die Zeiten festzulegen, zu denen die Zustandsüberwachung stattfinden kann, und die Zeiten, zu denen das System zu sehr mit umsatzgenerierenden (oder anderweitig geschäftskritischen) Verarbeitungen beschäftigt ist. Wenn dieser Ansatz jedoch auf ein verteiltes System angewendet wird, führen die komplexen Interaktionen zwischen den Komponentenstandorten während der Überwachung leider dazu, dass eine gewisse Störung der normalen Geschäftsverarbeitung auftritt. In diesem Beitrag stellen wir fünf Methoden vor, um diese Störungen auf Kosten der Genauigkeit der Ergebnisse der Zustandsüberwachung zu reduzieren. Wir beschreiben das Ergebnis einer experimentellen Auswertung, die uns geholfen hat, jede Methode hinsichtlich ihrer Auswirkung auf Störung und Genauigkeit zu charakterisieren. Wir schließen mit der Vorstellung von Heuristiken, die bei der Auswahl der in einer bestimmten Situation anzuwendenden Methode helfen.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-7901-X_11 8b681b11b6cfa6fd89af8ab99a841fde;de;;;7.1.;;;Determinanten und Effekte des diagnostischen und interaktiven Einsatzes von Kontrollsystemen: Eine empirische Analyse zum Einsatz von Budgets Basierend auf Simons Unterscheidung zwischen diagnostischen und interaktiven Kontrollansätzen untersucht diese Studie die Determinanten und Auswirkungen der Verwendung von Budgets. Anhand von Befragungsdaten deutscher Industrieunternehmen analysiert die Studie ein breites Spektrum möglicher Einflussfaktoren. Wir testen ein Strukturgleichungsmodell, das einen wesentlichen Teil der Varianz der interaktiven und der diagnostischen Verwendung von Budgets erklärt. Die Art und Weise, wie Budgets verwendet werden, ist in Bezug auf die Steuerung der Geschäftsstrategie und die Beeinflussung der Unternehmensleistung von großer Bedeutung. Interaktive und diagnostische Budgetverwendungen tragen wesentlich zur Bildung von emergenten Strategien und zur Umsetzung beabsichtigter Strategien bei.;-;-;-;https://link.springer.com/article/10.1007/s00187-012-0156-9 70e21c7c1c7322db550a8bf2a6964fe9;de;;;7.1.;;;Auf dem Weg zum ENTRI-Framework: Security Risk Management Enhanced by the Use of Enterprise Architectures Die sichere Informationssystemtechnik ist derzeit ein kritisches, aber komplexes Anliegen. Risikomanagement ist zu einem Standardansatz geworden, um mit den notwendigen Kompromissen zwischen dem erwarteten Sicherheitsniveau und den Kontrollkosten umzugehen. Durch die derzeitige Vernetzung von Informationssystemen in Kombination mit den steigenden Regulierungs- und Compliance-Anforderungen wird es jedoch immer schwieriger, eine echte Informationssicherheits-Governance zu erreichen. Da das Risikomanagement diese Komplexität allein nicht bewältigen kann, behaupten wir, dass eine Verbindung mit Enterprise Architecture Management (EAM) dazu beiträgt, die oben genannten Herausforderungen zu bewältigen und damit Governance und Compliance in Organisationen aufrechtzuerhalten. In diesem Papier motivieren wir den Mehrwert von EAM zur Verbesserung des Sicherheitsrisikomanagements und schlagen eine Forschungsagenda für ein vollständiges Framework vor, das beide Domänen integriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19243-7_42 368fba5ff006dcf5aca8536841d0ad69;de;;;7.1.;;;Quality Engineering: ein neuer Rahmen zur Rechtfertigung und Priorisierung von IT-Investitionen Quality Engineering (QE) ist ein vom Autor entwickeltes generisches Konzept zur rigorosen Bewertung neuer Anlageideen zur Verbesserung der Qualität von Geschäftsprozessen. Ziel ist es, eine solide Grundlage zu schaffen, um Kompromisse zwischen unterschiedlichen zu erreichenden Qualitätsniveaus und begrenzten einzusetzenden Ressourcen zu entscheiden. Im gegenwärtigen Kontext wird der Ansatz angewendet, um eine wachsende Klasse von IT-Investitionen zu rechtfertigen und zu priorisieren: Systeme zur Umsetzung von Qualität, Effektivität und strategischer Geschäftsvision. Unternehmen berichten, dass rein rechnungslegungsbasierte Methoden solchen Investitionen nicht gewachsen sind und eine Änderung der Investitionsbewertungsverfahren nun notwendig ist, um finanzielle Ansätze zu ergänzen, um qualitätsbasierte Ansätze zur Unterstützung der Entscheidungsfindung in Bezug auf anspruchsvolle IT . Basierend auf Forschungsprojekten an der Kobler Unit, Imperial College, in denen Daten zum relativen Erfolg neuer IT-Initiativen erhoben wurden, und in Zusammenarbeit mit mehreren großen Unternehmen wurde Quality Engineering in vier Module weiterentwickelt, die iterativ angewendet werden: (QS), Qualitätsbewusstsein (QA), Qualitätsleistungsindikatoren (QPI) und Qualitätswert (QV). Im Vergleich zu traditionellen rechnungslegungsbasierten Frameworks legt Quality Engineering einen neuen Schwerpunkt auf kritische Erfolgsfaktoren, strukturierte Sensibilisierungsübungen, messbare Leistungsindikatoren, Unterscheidung zwischen primären Systemzielen und ihren unvermeidlichen Auswirkungen zweiter Ordnung, Risikobewertung und strategische Geschäftsintegration.;-;-;-;https://link.springer.com/article/10.1057/ejis.1993.31 9a0dd5c7aff6f3dc61031a9fe5625903;de;;;7.2.;;;Zusammenfassungssystem für gesprochene Dialoge mit GLÜCK/Leiden-Faktor-Erkennung Diese Arbeit stellt ein System zur Zusammenfassung gesprochener Dialoge mit der Faktorerkennung GLÜCK/LEIDEN vor. Der semantische Inhalt wird komprimiert und nach Faktorkategorien aus dem gesprochenen Dialog klassifiziert. Die Transkription der automatischen Spracherkennung wird dann durch das Segmentierungssystem der chinesischen Wissens- und Informationsverarbeitung verarbeitet. Das vorgeschlagene System verwendet auch die Wortart-Tags, um die Schlüsselwörter effektiv auszuwählen und einzustufen. Schließlich erfolgt die GLÜCK/Leiden-Faktorerkennung durch die vorgeschlagene punktweise gegenseitige Information. Im Vergleich zur ursprünglichen Methode wird die Leistung durch die Anwendung der signifikanten Scores von Keywords verbessert. Die experimentellen Ergebnisse zeigen, dass die durchschnittliche Präzisionsrate für die Faktorerkennung in externen Tests 73,5 % erreichen kann, was die Möglichkeit und das Potenzial des vorgeschlagenen Systems demonstriert.;-;-;-;https://link.springer.com/article/10.1007/s11704-016-6190-2 30f76e7200d2bd465b1451a8b6a9c236;de;;;7.2.;;;Die Krise der Relevanz und die Relevanz der Krise: Kritik im Wirtschaftsinformatik-Stipendium neu verhandeln Die Wirtschaftsinformatik ist in letzter Zeit unter Druck geraten, ihre Existenz als Kernfach im Management-Curriculum zu rechtfertigen. In letzter Zeit gab es auch Druck hinsichtlich der Relevanz der IS-Forschungsagenda. Dieser Druck ist auch auf der allgemeineren Ebene der Wirtschaftslehre zu spüren, und Wirtschaftswissenschaftler wurden aufgefordert, einen ganzheitlicheren Ansatz in der Wissenschaft zu verfolgen und explizitere Verbindungen zur Geschäftspraxis herzustellen. Wir vertreten in diesem Beitrag die Position, dass dem Druck auf eine Weise begegnet werden kann, indem der Begriff der Wissenschaftskritik neu verhandelt wird. Konkret verbinden wir die Idee der Kritik mit der der Krise und versuchen zu zeigen, wie Krisen das Potenzial haben, den IS-Wissenschaftler wieder in die Praxis zu bringen und die oft disparaten Projekte von Forschung, Lehre und Beratung in ein integriertes wissenschaftliches Unternehmen einzubringen.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-8095-6_9 55a56b25d331bfd17478c6a175e77761;de;;;7.1.;;;Koordination von Human- und Computeragenten In vielen Anwendungsbereichen sind Einzelpersonen für eine Agenda von Aufgaben verantwortlich und stehen vor der Wahl, wie jede Aufgabe vor Ort am besten bearbeitet werden kann, in welcher Reihenfolge und wann Aufgaben zu erledigen sind. Solche Entscheidungen sind oft schwer zu treffen, weil;-;-;-;https://link.springer.com/chapter/10.1007/BFb0027101 03863721ff691779bb2e087f329ec675;de;;;7.1.;;;Zur Integration räumlicher und zeitlicher Informationen für den Hochbau Building Der Bau von Gebäuden ist eine Art komplexer Prozess, der Aktivitäten in Bezug auf Design, Materialien, Personal und Ausrüstung integriert. Informationssysteme, die das Bauen beschreiben, müssen sowohl die räumlichen Informationen des Gebäudeentwurfs als auch die zeitlichen Informationen des Bauplans darstellen. Wir klassifizieren vier Integrationsstufen für raumzeitliche Informationen im Hochbau. Wir halten die Klassifikation für die Orientierung unserer Forschung für wichtig, da sie Komplexitätsgrade und Anwendbarkeit von Datenmodellen unterscheidet, die raumzeitliche Informationen integrieren. Ein Prototypsystem wird entwickelt und getestet, um uns eine Möglichkeit zu geben, mehr Einblicke in das Problem zu gewinnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0868-6_4 f097a81449ff76da8fa28c20ba121368;de;;;7.1.;;;BPM Governance: Eine explorative Studie in öffentlichen Organisationen Business Process Management ist ein weithin bekannter Ansatz, der sich auf die Ausrichtung der Prozesse einer Organisation konzentriert, um eine verbesserte Effizienz und Kundenzufriedenheit zu erreichen. Governance ist eine wichtige Voraussetzung für erfolgreiche BPM-Initiativen. Dieses Papier bietet eine qualitative empirische Studie, um zu untersuchen, welche BPM-Governance-Elemente von Teams übernommen werden, die frühe BPM-Initiativen in öffentlichen Organisationen durchführen. Die Ergebnisse deuten darauf hin, dass BPM-Anfänger im öffentlichen Sektor unter anderem aufgrund von Schwierigkeiten bei der Gewinnung von Fachkräften mit BPM-Expertise, Bürokratie und starrer Gesetzgebung auf mehrere Hindernisse stoßen. Insbesondere engagiertes Sponsoring und Monitoring wurden von den Studienteilnehmern zu wichtigen Fazilitatoren der BPM-Governance ernannt. Die Ergebnisse zeigen auch, dass weitere empirische Studien erforderlich sind, um die Evidenz in diesem Bereich zu erhöhen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21759-3_4 7d7ddf3796628bbbc3412d984855b00b;de;;;7.1.;;;Unternehmensgröße und computerintegriertes Unternehmenskonzept: CIM/CIE-bezogene strategische Fragen für kleine Unternehmen Das Konzept der computerintegrierten Fertigung (CIM) hat in den letzten Jahren zu einer beispiellosen Revolution in der Fertigung geführt, vielleicht sogar vergleichbar mit der früheren industriellen Revolution. Das CIM-Konzept hat einen wachsenden und immer noch aufkommenden Fokus auf vor- und nachgelagerte Aspekte der Fertigung gefördert. Vorgelagerte CIM-Anwendungen umfassen Konstruktionstechnik, CAD/CAM, Robotik und flexible Fertigungssysteme;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-3480-8_16 1000cf3452e301ca99ef7735e613ffb1;de;;;7.2.;;;Zur Evaluationsmethodik für personalisierte Lerneinheiten Ziel der Arbeit ist es, eine Methodik (d. h. Modell und Methode) zur Bewertung der Eignung, Akzeptanz und Nutzung personalisierter Lerneinheiten/-szenarien vorzustellen. Lerneinheiten/Szenarien werden hier als methodische Abfolgen von Lernkomponenten (Lernobjekte, Lernaktivitäten und Lernumgebung) bezeichnet. Qualitativ hochwertige Lerneinheiten sollten aus den Lernkomponenten bestehen, die auf die einzelnen Schüler nach ihren persönlichen Bedürfnissen optimiert sind, z.B. Lernstile. In der Arbeit bedeuten optimierte Lernszenarien Lernszenarien, die sich aus den Komponenten zusammensetzen, die die höchsten probabilistischen Eignungsindizes für bestimmte Schüler gemäß dem Felder-Silverman-Lernstilmodell aufweisen. Die im Beitrag vorgestellte Bewertungsmethodik für personalisierte Lerneinheiten basiert auf (1) bekannten Prinzipien der Multiple Criteria Decision Analysis zur Identifizierung von Bewertungskriterien, (2) Educational Technology Acceptance & Satisfaction Model (ETAS-M) basierend auf der bekannten Unified Theory über das Akzeptanz- und Nutzungsmodell (UTAUT) und (3) probabilistische Eignungsindizes, um die Eignung von Lernkomponenten für bestimmte Schülerbedürfnisse entsprechend ihrem Lernstil zu identifizieren. Die im Beitrag vorgestellte Methodik zur Evaluation personalisierter Lerneinheiten ist in der wissenschaftlichen Literatur absolut neu. Diese Methodik ist in realen Lebenssituationen anwendbar, in denen Lehrer den Schülern helfen müssen, Lerneinheiten zu erstellen und anzuwenden, die für ihre Bedürfnisse am besten geeignet sind und so die Bildungsqualität und -effizienz zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67642-5_41 acd8ec31aa81cef35e84796ea58c845a;de;;;7.1.;;;Verwaltung und Dokumentation des Wissenserwerbsprozesses Da immer mehr wissensbasierte Systeme für den betrieblichen Einsatz entwickelt werden, wird die Bedeutung eines effektiven Wissenserwerbs immer deutlicher. Der Wissenserwerb, der Prozess der Gewinnung und Darstellung (dh in Computern) von Fachwissen von Domänenexperten in einem System, verbraucht den größten Einzelblock der Entwicklungszeit (Feigenbaum, 1977, Hayes-Roth, Waterman & Lenat, 1983, McGraw & Harbison - Briggs, 1989). Um den Zeitaufwand für diesen Prozess zu reduzieren, wurden zahlreiche Tools entwickelt, die die Erhebung und den Transfer von Wissen vom Experten zur Wissensbasis automatisieren bzw. systematisieren. Zu diesen Fortschritten zählen Entwicklungen im maschinellen Lernen, die es einem Expertensystem ermöglichen, Wissen aus „Erfahrung“ zu erwerben (Michalski, 1980, Michie, 1982), Expertensystem-Shells, die es Domänenexperten ermöglichen, ihre eigenen Regeln zu schreiben (z. B. MacSMARTS, NEXPERT), und Wissens-Engineering-Tools, die den Wissensingenieur unterstützen (zB McGraw & Harbison-Briggs, 1989, Kap. 10).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-9733-5_9 f6a50e8120848ebb1a1ee80919bcf0be;de;;;7.2.;;;Molekulare Netzwerke und Informationssysteme Es werden technische Systeme der Informatik diskutiert, deren Aufbau auf Molekülen basiert, ähnlich den biologischen Systemen der Informatik. Ein Weg zu solchen technischen Systemen der Informatik wird durch die aktuell geführten Arbeiten auf dem Gebiet der molekularen Gentechnik gebahnt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02671-3_1 e1c62982af8faef673b9e23445623f38;de;;;7.2.;;;Ontologische Distanzmaße zur Informationsvisualisierung auf konzeptionellen Karten Das Finden der richtigen semantischen Distanz für die Informationsrecherche, Klassifikation oder Text-Clustering mithilfe von Natural Language Processing ist ein Problem, das in mehreren Bereichen der Informatik untersucht wurde. Wir konzentrieren uns auf Messungen, die echte Distanzen sind, d. h. die alle Eigenschaften einer Distanz erfüllen. Dieses Papier stellt einen vor;-;-;-;https://link.springer.com/chapter/10.1007/11915072_7 5fde3704638dad4b1148da60fdac415e;de;;;7.2.;;;Effektives Kernelisiertes Online-Lernen bei Sprachverarbeitungsaufgaben Es hat sich gezeigt, dass Kernel-basierte Methoden für NLP-Aufgaben ein robustes und effektives Lernen ermöglichen, obwohl ihre inhärente Komplexität sich auch in Online-Learning-Szenarien (OL) manifestiert, in denen Zeit- und Speicherverbrauch mit der Ankunft neuer Beispiele wächst. Ein hochmoderner;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06028-6_29 c1f5474da4cf1fc927785a3bf9f62023;de;;;7.1.;;;Der Einfluss von Informations- und Kommunikationstechnologie und Unternehmensreformen auf die Produktivität in Japan: Evidenz auf Unternehmensebene Unser Hauptziel in diesem Papier besteht darin, zu verstehen, wie japanische Unternehmen ihre Produktivität durch den Einsatz von Informations- und Kommunikationstechnologie (IKT) steigern können. E-Commerce, BPO (Business Process Outsourcing) und SCM (Supply Chain Management) sind in Japan beliebt, daher könnte eine neue Art von IKT japanischen Unternehmen die Möglichkeit bieten, bestehende Geschäftsbeziehungen zu ändern oder neue zu gründen. Die Neuheit dieses Papiers liegt in seiner empirischen Untersuchung der Kombination von IKT-Förderung und einer Vielzahl von unternehmensorganisatorischen Veränderungen, die erforderlich sind, um herauszufinden, welche Art von geschäftlichen organisatorischen Veränderungen zur Steigerung der Produktivität in Japan geeignet ist. Bei der betrieblichen Arbeitsplatzorganisation diskutieren wir die Dezentralisierung bzw. Zentralisierung von Entscheidungsbefugnissen und die Abflachung der Unternehmenshierarchie. Bei Geschäftsbeziehungsänderungen besprechen wir das Outsourcing des Geschäftsprozesses und die Aufnahme neuer Geschäftsbeziehungen. Unser Hauptergebnis ist, dass die Förderung von IKT im Allgemeinen bessere Auswirkungen auf Reformen im Zusammenhang mit Veränderungen der Geschäftsbeziehungen zwischen Geschäftspartnern hat als auf Reformen innerhalb eines Unternehmens. Der Aufbau neuer Geschäftsbeziehungen, die Planung und F&E erfordern, zeigt die besten Chancen, die Produktivität durch IKT-Förderung zu steigern.;-;-;-;https://link.springer.com/article/10.1007/s12626-008-0002-6 183806ee819991c6140144e574e73a99;de;;;7.1.;;;Entscheidungsfindung und strategische Planung für die Katastrophenvorsorge mit einem Multi-Kriterien-Analyse-Entscheidungsunterstützungssystem Im Rahmen des CRISMA FP7-Projekts haben wir ein nahtloses Entscheidungsunterstützungskonzept entwickelt, um simulierte Krisenszenarien und aggregierte Leistungsindikatoren von Wirkungsszenarien mit modernsten Methoden der Multi-Criteria Decision Analysis (MCDA) zu verbinden. Um die Praxistauglichkeit des Ansatzes zu beweisen, haben wir ein Entscheidungshilfe-Tool entwickelt, das die wichtigen Aspekte der Methode realisiert. Das Tool ist ein hochgradig interaktives und benutzerfreundliches Entscheidungsunterstützungssystem (DSS), das Entscheidungsträgern und strategischen Planern effektiv hilft, ein multikriterielles Ranking von Szenarien durchzuführen. Das Tool basiert auf modernsten Webtechnologien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-15994-2_17 348ff920e6b5bdc1b7df5d5fca9fe9f2;de;;;7.1.;;;Fahrerinformationssysteme – Eine nordamerikanische Perspektive Fahrerinformationssysteme (DIS) gelten in Nordamerika als eine Hauptkategorie der Intelligent Vehicle-Highway Systems (IVHS), die durch eine Verschmelzung von Informationstechnologie mit Fahrzeug- und Autobahntechnologien die Effizienz und Sicherheit des Fahrens verbessern. Nordamerika verfügt traditionell über grundlegende Stärken in einer Reihe von Informationstechnologien, die für DIS relevant sind. Aufgrund einer Unterbrechung der Bundesförderung in den frühen 1980er Jahren hat die DIS-Entwicklung in Nordamerika während des letzten Jahrzehnts autonome Systeme in den Fahrzeugen bis vor kurzem betont. Die gegenwärtige Beschleunigung der IVHS-Entwicklung in den Vereinigten Staaten ist das Ergebnis einer Reihe von konvergierenden Kräften und hat den Anstoß zur Entwicklung fortschrittlicher Fahrerinformationssysteme (ADIS) gegeben, die das Fahrzeug und die Autobahn integrieren. Die groß angelegte Demonstration und Umsetzung von ADIS wird in naher Zukunft von den wichtigsten Rechtsvorschriften und der erfolgreichen Entwicklung öffentlich-privater Partnerschaften im IVHS abhängen.;-;-;-;https://link.springer.com/article/10.1007/BF02127038 64bc7b2018ebfb629b30d3efd0bc7ca0;de;;;7.1.;;;Steuerung von Industrieunternehmen durch kognitive Maschinen Vor kurzem wurden Forscher der Organisationstheorie und des Verhaltens durch die Einführung kognitiver Maschinen in die Liste der Teilnehmer der Organisation herausgefordert. Forscher auf diesem Gebiet traten dafür ein, dass kognitive Maschinen zur Verbesserung der kognitiven Fähigkeiten in der Organisation beitragen, indem sie die Rationalität und die Entscheidungsfähigkeit der Menschen erweitern und intra-individuelle und gruppendysfunktionale Konflikte reduzieren. Dieses Papier unterstützt diese Ergebnisse und dehnt ihre Ergebnisse auf die oberen Schichten auf Management- und Organisationsebene aus, indem es das Konzept neuer Industrieorganisationen mit Struktur und Prozessen von Computational Organization Management Networks vorschlägt. In einem solchen neuen Organisationstyp sind kognitive Maschinen und kognitive Informationssysteme herausragende Akteure der Governance, Automatisierung und Kontrolle des gesamten Unternehmens.;-;-;-;https://link.springer.com/article/10.1007/s00146-011-0364-0 b0b7a4d458eac1ff7ecac0547b6e72da;de;;;7.1.;;;Sustainability Balanced Scorecard von SPES In diesem Kapitel wird die in der Wirtschaft verwurzelte „Sustainability Balanced Scorecard (SBSC)“ übernommen und modifiziert, um das SPES weiter zu verfeinern. Schritt für Schritt werden Mission und Strategie für eine nachhaltige Entwicklung in konkrete Ziele und Maßnahmen formuliert, einschließlich der Ergebnisse, Wirkungsdeterminanten und Bürgerbeteiligung. Darüber hinaus wird eine Strategielandkarte für das SBSC entwickelt, um die Ursache-Wirkungs-Beziehungen zwischen den identifizierten Schlüsselmaßnahmen darzustellen, die nicht nur eine Checkliste zum Aufdecken der fehlenden Elemente bietet, sondern auch einen kausalen Rahmen für die Gestaltung und Auswahl von Indikatoren bietet oder Indikatorensystem für das nächste Kapitel.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-3012-2_4 53abac9f8bc40f405bdf71b4c361f398;de;;;7.2.;;;Die Zeit unseres Lebens: Irreversible komplexe Benutzererfahrungen verstehen Die Wissenschaft der Komplexität [6], [12], [20, 21], [31, 32] wurde in Informationssysteme (IS) eingeführt, aber bisher mit scheinbar geringem Einfluss. Dieses Papier argumentiert, dass seine Anwendung im aufstrebenden Feld der User Experience (UX) in der digitalen Geschäftspraxis angesiedelt sein kann [23], [38]. Beide Entwicklungen betrachten;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44208-1_5 2b7a82042daab9736c3bd3e78159b394;de;;;7.2.;;;Ein umfassender Bewertungsansatz, der das „Gleichgewicht“ und seine Anwendung bei der Bewertung der regionalen Innovationsfähigkeit hervorhebt In diesem Beitrag haben wir eine neuartige Methode vorgeschlagen, die die „Funktionalität“ und das „Gleichgewicht“ aggregiert, um das Gewicht des umfassenden Bewertungsproblems zu berechnen die Systembilanz mit relativem Gleichgewichtskoeffizienten, um zu den umfassenden Bewertungsergebnissen verschiedener Systeme zu gelangen. Die Methode spiegelt die Wissenschaftlichkeit, Unparteilichkeit und Rationalität wider. So kann das Phänomen „Eine Schwalbe macht einen Sommer“ vermieden werden, was die gesunde Entwicklung des gesamten Systems fördern kann. Schließlich wurde ein numerisches Beispiel gegeben, um die Wirksamkeit der vorgeschlagenen Methode zu veranschaulichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55355-4_30 6b5b3ccc3b67bd272b6b5b32ad31db53;de;;;7.2.;;;Präkognitive semantische Informationen Dieser Beitrag befasst sich mit einem der grundlegenden Probleme der Informationsphilosophie: Wie entstehen semantische Informationen innerhalb der zugrunde liegenden Dynamik der Welt?;-;-;-;https://link.springer.com/article/10.1007/s12130-010-9109-5 29843b93598be03c8f955534cfeae381;de;;;7.1.;;;Die Geburt von Informationssystemen Dieses Papier zeichnet die Geschichte der Entwicklung von Wirtschaftsinformatik-Abschlüssen an einer der größten australischen Universitäten nach. Eine Synthese von Dokumenten und Transkripten von Interviews mit den Teilnehmern zeigt, dass Informationssysteme aus einem Amalgam bestehender betriebswirtschaftlicher Studiengänge entstanden sind. Die Form der Abschlüsse wurde zunächst von Politik und Persönlichkeit geprägt, mit einem stabilen und robusten Curriculum nach einigen Jahren. Diese historische Erzählung zeigt, dass der Lehrplan der Universitäten die signifikanten Auswirkungen der Informationstechnologien auf die Wirtschaft widerspiegelte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15199-6_21 e789b5a9c66b6a6a9d44a99405e7b33a;de;;;7.2.;;;Lernen, Mikroblog-Posts für die Ad-hoc-Suche in Echtzeit einzustufen Microblogging-Websites haben sich zum Zentrum der Informationsproduktion und -verbreitung entwickelt, auf denen Menschen nützliche Informationen aus den Microblog-Posts anderer Benutzer erhalten können. Im Zeitalter von Big Data sind wir überwältigt von der großen Menge an Microblog-Posts. Um diese informativen Daten sinnvoll nutzen zu können, ist ein effektives Suchtool erforderlich, das auf Microblog-Posts spezialisiert ist. Es ist jedoch aus folgenden Gründen nicht trivial, eine Microblog-Suche durchzuführen: 1) Microblog-Posts sind verrauscht und zeitkritisch, wodurch allgemeine Modelle zum Abrufen von Informationen unwirksam werden. 2) Herkömmliche IR-Modelle sind nicht darauf ausgelegt, Microblog-spezifische Merkmale zu berücksichtigen. In diesem Artikel schlagen wir vor, das Learning-to-Rank-Modell für die Microblog-Suche zu verwenden. Wir kombinieren inhaltsbasierte, mikroblogspezifische und zeitliche Funktionen zu Learning-to-Rank-Modellen, die Mikroblog-Posts effektiv modellieren. Um die Leistung des Erlernens von Rangordnungsmodellen zu untersuchen, evaluieren wir unsere Modelle anhand von Tweet-Datensätzen, die von TERC 2011 und TREC 2012 Microblogs bereitgestellt werden, mit dem Vergleich von drei hochmodernen Basislinien für die Informationsabfrage, Vektorraummodell, BM25-Modell. Umfangreiche experimentelle Studien belegen die Wirksamkeit des Erlernens von Rangordnungsmodellen und die Nützlichkeit, Mikroblog-spezifische und zeitliche Informationen für Mikroblog-Suchaufgaben zu integrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25207-0_40 c1c3d111e15b7a1987f794ead9c71803;de;;;7.2.;;;Text-Augmented Knowledge Representation Learning basierend auf Convolutional Network Wissensgraphen beschreiben Konzepte, Entitäten in der objektiven Welt und Beziehungen in strukturierter Form und bieten so eine bessere Möglichkeit, die unendlichen Informationen im Internet zu verwalten und zu verstehen. Obwohl es verschiedene Modelle zur Einbettung von Wissen gibt, konzentrieren sich die meisten von ihnen nur auf sachliche Tripel. Tatsächlich gibt es in der Regel knappe Beschreibungen für Entitäten, die von diesen bestehenden Modellen nicht gut verwendet werden können. Ein auf Faltungsnetzwerken basierendes Wissenseinbettungsmodell (ConvKB [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36708-4_16 1f12179a29dda77912e82d4c44880331;de;;;7.2.;;;Sie haben die Wahl: Die Rolle kognitiver Prozesse bei der IT-gestützten Ideenauswahl Die Auswahl guter Ideen aus Hunderten oder sogar Tausenden hat sich als die nächste große Herausforderung für Organisationen erwiesen, die offene Ideenwettbewerbe für Innovation durchführen. Kognitive Belastung und Aufmerksamkeitsverlust hindern Menschenmengen daran, ihren Ideenauswahlprozess effektiv durchzuführen. Moderationstechniken zur Reduzierung und Klärung von Ideen könnten bei solchen Problemen helfen, wurden aber in Crowd-Settings, wie sie bei Ideenwettbewerben vorherrschen, noch nicht erforscht. Das vorliegende Research-in-progress-Paper soll zu dieser Forschungslücke beitragen, indem es IT-gestützte Auswahltechniken untersucht, die sich in Auswahlrichtung und Auswahltyp unterscheiden. In einem Laborexperiment mit Eye-Tracking werden Variationen in Selektionstyp und Selektionsrichtung untersucht. Darüber hinaus wird das Experiment die Auswirkungen auf den Entscheidungsprozess sowie die Anzahl und Qualität der Ideen in einem gefilterten Set testen. Die Ergebnisse werden Erklärungen liefern, warum bestimmte Mechanismen zur Ideenauswahl funktionieren. Mögliche Implikationen für Theorie und Praxis werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67431-5_3 7cc38c08a108a58b9fbea9d2c58ef659;de;;;7.2.;;;Ein dynamisches Programmiermodell für die Textsegmentierung basierend auf Min-Max-Ähnlichkeit Die Textsegmentierung hat ein breites Anwendungsspektrum, wie z. B. Informationsbeschaffung, Fragebeantwortung und Textzusammenfassung. In den letzten Jahren hat sich die Verwendung von Semantik als wirksam erwiesen, um die Leistung der Textsegmentierung zu verbessern. Insbesondere beim Auffinden der Unterthemengrenzen gab es Bemühungen, sich entweder auf die Maximierung der lexikalischen Ähnlichkeit innerhalb eines Segments oder die Minimierung der Ähnlichkeit zwischen benachbarten Segmenten zu konzentrieren. Es wurden jedoch keine optimalen Lösungen versucht, um gleichzeitig eine maximale Ähnlichkeit innerhalb des Segments und eine minimale Ähnlichkeit zwischen den Segmenten zu erreichen. In diesem Papier wird ein domänenunabhängiges Modell basierend auf Min-Max-Ähnlichkeit (MMS) vorgeschlagen, um die Lücke zu füllen. Eine dynamische Programmierung wird verwendet, um eine globale Optimierung der Segmentierungskriteriumsfunktion zu erreichen. Vergleichende experimentelle Ergebnisse an realen Korpussen haben gezeigt, dass das MMS-Modell bisherige Segmentierungsansätze übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68636-1_14 50fcaeccff98376521fd6879f02b2000;de;;;7.1.;;;Kritische Faktoren für die Einführung mobiler Pflegeinformationssysteme in Taiwan: die Perspektive der Pflegeabteilungsadministratoren Der Trend zum Point-of-Care und der Vormarsch mobiler Technologien bieten das Potenzial, Mobile Pflegeinformationssysteme (MNIS) im Pflegealltag einzusetzen. Die Einführung des MNIS ist jedoch nicht nur ein Kauf der erforderlichen Hardware und Software, sondern ein sozialer Interaktionsprozess zwischen Benutzern, Organisationen und der Umgebung. Daher wurde in dieser Studie ein Rahmen von zwölf Faktoren entwickelt, die die Entscheidung zur Einführung/Nichteinführung des MNIS in der Pflegeabteilung beeinflussen, und aus Sicht der Pflegeverwaltung getestet. Eine Mail-Umfrage wurde durchgeführt, um die Meinungen von 84 Pflegefachkräften einzuholen, und eine Diskriminanzanalyse wurde verwendet, um die kritischen Faktoren für die Annahme/Nicht-Übernahme des MNIS zu identifizieren. Der geschäftliche Wettbewerb, die Unterstützung externer Lieferanten und der interne Bedarf wurden als signifikant mit der Einführung von MNIS in Verbindung gebracht. Potenzielle Anwender können die Ergebnisse dieser Studie als Referenz bei der Entscheidung über die Einführung von MNIS verwenden, während Nicht-Anwender und Anbieter die Resistenz gegen MNIS untersuchen können.;-;-;-;https://link.springer.com/article/10.1007/s10916-008-9199-8 27747dfda5fe40bf24157078feab5c5a;de;;;7.1.;;;Die Planung einer Smart City zur Minderung der Auswirkungen von Naturkatastrophen in Nord-Sumatera Dieser Artikel stellt die intelligente Stadtplanung zur Eindämmung von Naturkatastrophen in städtischen Gebieten Indonesiens, insbesondere Nordsumatera, vor. Eine Smart City ist eine stadtbasierte soziale Entwicklung, Kapital, Bürgerbeteiligung, Verkehrs- und Informationstechnologie, natürliche Ressourcen und Lebensqualität. Häufigkeit und sozioökonomische Auswirkungen von Naturkatastrophen sind in den letzten Jahrzehnten aufgrund des Klimawandels und der Umwelt häufig. Der in diesem Beitrag verwendete Ansatz ist eine Kombination aus geografischem Informationssystem (GIS) und mobiler IT in Form von Geoinformationen. Sektor der mobilen Dienste, in dem die Stadtregierung an der Bildung von Smart Cities beteiligt ist. In diesem Artikel wird das Wachstum von Smart Cities untersucht und untersucht, wie ein System Ansätze zur Eindämmung und Anpassung dieser Risiken und zur Erholung von Naturkatastrophen verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-68486-4_12 d115f733ee7055c1f6cac314e9e4486c;de;;;7.1.;;;Eine Methodik zur Entwicklung von Geschäftsmodellen (BM) in ubiquitären Computerumgebungen Obwohl die Bedeutung eines Geschäftsmodells (BM) in ubiquitären Computerumgebungen zunimmt, konzentriert sich die aktuelle Forschung hauptsächlich auf die Technologie. Ohne eine geeignete Bewertungsmethode für einen BM wurde ein vielversprechender BM nicht verifiziert. In dieser Forschung schlugen wir eine BM-Entwicklungsmethodik für Ubiquitous Computing vor, die das Business Model Analysis (BMA) Framework zur Analyse eines BM und das Business Model Feasibility Analysis (BMFA) Framework zur Bewertung eines BM enthält. Die Methodik besteht aus Phasen, Aktivitäten und Aufgaben im Detail und in der Tiefe, die in systematischen Beziehungen zueinander stehen. Ein prospektives BM von ubiquitären Computerumgebungen könnte durch diese Methodik extrahiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/11424925_11 482da45e6c811da87c7824c82d8360a5;de;;;7.2.;;;FREyA: Eine interaktive Methode zur Abfrage verknüpfter Daten mit natürlicher Sprache Natürliche Sprachschnittstellen werden für Informationssysteme mit umfangreichen strukturierten Datenspeichern wie RDF- und OWL-Repositories zunehmend relevant, hauptsächlich aufgrund ihrer intuitiven Konzeption für den Menschen. In der vorherigen Arbeit haben wir FREyA entwickelt, ein interaktives Natural Language Interface zum Abfragen von Ontologien. Es verwendet syntaktisches Parsing in Kombination mit der ontologiebasierten Suche, um die Frage zu interpretieren, und bezieht den Benutzer bei Bedarf mit ein. Die Entscheidungen des Benutzers werden zum Trainieren des Systems verwendet, um seine Leistung im Laufe der Zeit zu verbessern. In diesem Papier diskutieren wir die Eignung von FREyA zur Abfrage der Linked Open Data. Wir berichten über seine Leistung in Bezug auf Präzision und Erinnerungsvermögen unter Verwendung der MusicBrainz- und DBpedia-Datensätze.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25953-1_11 3fe9428ce4e759b8cbbc19b0b64983db;de;;;7.2.;;;Themen-Schwierigkeitsvorhersage im Entity-Ranking Das Entity-Ranking hat sich in letzter Zeit als ein Forschungsfeld entwickelt, das darauf abzielt, Entitäten als Antworten auf eine Abfrage zu finden. Im Gegensatz zur Entitätsextraktion, bei der das Ziel darin besteht, die Namen der Entitäten in Dokumenten zu markieren, konzentriert sich das Entitätsranking hauptsächlich darauf, eine Rangliste relevanter Entitätsnamen für die Abfrage zurückzugeben. Es wurden viele Ansätze für das Ranking von Entitäten vorgeschlagen, und die meisten davon wurden anhand der Wikipedia-Testsammlung von INEX bewertet. In diesem Beitrag zeigen wir, dass das Wissen um vorhergesagte;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03761-0_29 8d0c785b72984f2c4a3c1c4cb14db70b;de;;;7.2.;;;Fuzzy-Clustering-Stabilitätsbewertung von Zeitreihen Die Entdeckung von Wissen durch die Analyse von Zeitreihen ist ein wichtiges Forschungsgebiet. In diesem Beitrag untersuchen wir mehrere multivariate Zeitreihen, da wir einen höheren Informationswert annehmen, als wenn nur jeweils eine Zeitreihe betrachtet wird. Es gibt mehrere Ansätze, die sich die Granger-Kausalität oder die Kreuzkorrelation zunutze machen, um den Einfluss von Zeitreihen aufeinander zu analysieren. In diesem Papier erweitern wir die Idee der gegenseitigen Beeinflussung und präsentieren FCSETS (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-50146-4_50 b7faad88faa2c232929ad5e0aeeef257;de;;;7.2.;;;Dublin City University beim CLEF 2005: Multi-8-zweijährige Verschmelzungsexperimente In diesem Jahr nahm die Dublin City University an der mehrsprachigen Zusammenführungsaufgabe Mulit-8 Two-Years-On des CLEF 2005 teil. Das Ziel unserer Experimente war es, eine Reihe von Standardtechniken zum Zusammenführen von Ranglisten von abgerufenen Dokumenten zu testen, um zu sehen, ob sich konsistente Trends für Listen ergeben, die mit verschiedenen Informationsabrufsystemen erstellt wurden. Unsere Ergebnisse zeigen, dass der Erfolg von Zusammenführungstechniken von dem verwendeten Retrieval-System abhängen kann und folglich die besten zu übernehmenden Zusammenführungstechniken nicht empfohlen werden können, unabhängig von der Kenntnis des zu verwendenden Retrieval-Systems.;-;-;-;https://link.springer.com/chapter/10.1007/11878773_18 0c5f65ba1af6b97f03546f32ecf2c42f;de;;;7.2.;;;Computergestützte Modellierung evolutionärer Lernprozesse im Gehirn Das Lernmodell der evolutionären Auswahlschaltungen wurde algorithmisch spezifiziert. Die grundlegenden strukturellen Komponenten des Selektionsschaltkreis-Modells sind enzymatische Neuronen, also Neuronen, deren Feuerungsverhalten durch membrangebundene Makromoleküle, sogenannte Exzitasen, gesteuert wird. Lernen beinhaltet Veränderungen des Exzitasegehalts von Neuronen durch einen Variations- und Selektionsprozess. In diesem Beitrag berichten wir über das Verhalten einer Basisversion des Lernalgorithmus, der durch umfangreiche interaktive Experimente mit dem Modell entwickelt wurde. Dieser Algorithmus ist insofern effektiv, als er es einzelnen Neuronen oder Netzwerken von Neuronen ermöglicht, einfache Musterklassifikationsaufgaben in einer Anzahl von Zeitschritten zu lernen, die experimentell eine lineare Funktion der Problemgröße zu sein scheint, gemessen durch die Anzahl der Muster der präsynaptischen Eingabe. Das experimentelle Verhalten des Algorithmus zeigt, dass evolutionäre Lernmechanismen kompetent sind, um als Hauptmechanismen der neuronalen Anpassung zu dienen. Als Beispiel zeigen wir, wie der evolutionäre Lernalgorithmus zu adaptiven motorischen Steuerungsprozessen beitragen kann, bei denen das lernende System die Fähigkeit entwickelt, ein Ziel bei zufällig auferlegten Störungen zu erreichen.;-;-;-;https://link.springer.com/article/10.1007/BF02458823 70893c739465ea631b6de101219c0bdc;de;;;7.1.;;;Anforderungen und Gestaltungsprobleme von allgegenwärtigen kommunalen Versorgungssystemen für einkommensschwache pädiatrische Asthmapatienten Die soziale Unterstützung im Selbstmanagement hat positive Ergebnisse in der Behandlung chronischer Erkrankungen gezeigt. In diesem Papier schlagen wir für einkommensschwache Kinder mit Asthma ein allgegenwärtiges Gemeinschaftspflegesystem vor und stellen Anforderungen und einige Designaspekte für das System vor. Wir ermitteln sechzehn Anforderungen aus der Analyse von Interviews mit sieben einkommensschwachen Familien und sechs Anbietern. Basierend auf den Anforderungen führen wir Designaspekte für das System ein: Allgegenwärtigkeit, Community-Pflege, therapiespezifische Unterstützung, einfache Systemnutzung und Datenschutzbedenken. Wir schlagen auch eine zentralisierte Architektur für unser allgegenwärtiges Community-Care-System vor. Wir behaupten, dass unsere Anforderungen und Designaspekte für das pädiatrische Asthmamanagement beim Bau der Systeme genutzt werden können. Darüber hinaus kann unsere Arbeit mit geringfügigen Modifikationen auf andere Managementsysteme chronischer Erkrankungen angewendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35521-9_49 fb88e18fe1942b765bcf24de78c265d5;de;;;7.1.;;;Eine Einführung in Ontologien und Ontologie-Engineering In den letzten Jahrzehnten hat sich der Einsatz von Ontologien in Informationssystemen in verschiedenen Bereichen wie Webtechnologien, Datenbankintegration, Multi-Agent-Systemen, Natural Language Processing usw. immer mehr durchgesetzt “ aus der Philosophie, dann verbreitete sich das Wort in vielen wissenschaftlichen Bereichen und Ontologien werden heute in mehreren Entwicklungen verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-85729-724-2_2 d23ebe992ed0bc715cf96587a26c0b09;de;;;7.1.;;;Fortschrittliche Fertigungstechniken und Einführung von Informationstechnologie in Indien: Eine aktuelle Perspektive und einige Vergleiche Dieses Papier untersucht die Fragen der Messung und des Vergleichs des aktuellen Stands der Einführung fortschrittlicher Fertigungstechnologien (AMT) in Indien, einschließlich wichtiger Faktoren der Informationstechnologie (IT), und überraschenderweise scheint dies der erste derartige Versuch zu sein. Für eine weltweite Perspektive werden indische Firmen, Firmen in einem entwickelten Land (Kanada) und in einem Entwicklungsland (China) verglichen. Entgegen den Erwartungen ist der durchschnittliche Wert des AMT-Einführungsgrades indischer Unternehmen in unserer Umfrage höher als der aller kanadischen Unternehmen (ohne Größenanpassung) und chinesischer Unternehmen in einer der hoch industrialisierten Regionen Chinas, wie in anderen Umfragen gemessen. Obwohl dies auf eine beträchtliche Stärke des indischen verarbeitenden Gewerbes schließen lässt, sollte eine weitere Bewertung durch andere Studien in diesem Bereich erfolgen, um diese Ergebnisse zu verfeinern und weiterzuentwickeln. Diese Studie stellt fest, dass die sechs wichtigsten AMTs, die derzeit in Indien eingesetzt werden, Anlagenzertifizierung, computergestütztes Design, lokales Netzwerk, Qualitätszirkel, MRP/ERP und Weitverkehrsnetze sind. Offensichtlich sind vier dieser Top-6 direkt im IT-Bereich (CAD, LAN, WAN) oder direkt davon abhängig (MRP/ERP-Systeme), was auf eine starke IT-Einführungsrate sowie die zugrundeliegende unterstützende Rolle bei der gesamten AMT-Einführung in Indien. Der Vergleich zwischen indischen Firmen und kanadischen Firmen zeigt, dass indische Firmen weniger Computernetzwerke und mehr MRP/ERP- und Rapid-Prototyping-Systeme einsetzten. Tests in unserer Umfrage untermauern auch die Hypothese, dass größere Unternehmen eher AMT einsetzen als kleinere.;-;-;-;https://link.springer.com/article/10.1007/s00170-006-0852-4 e592928a52c6c20b0464ce6ad1deecfd;de;;;7.1.;;;Intelligente Antworten in einem System natürlicher Sprache planen Intelligente Hilfesysteme können nicht nur passiv auf die Befehle und Anfragen des Benutzers reagieren. Sie müssen in der Lage sein, freiwillige Informationen bereitzustellen, falsche Vorstellungen von Benutzern zu korrigieren und unethische Anfragen gegebenenfalls abzulehnen. Um diese Dinge zu tun, muss ein System als intelligenter Agent konzipiert sein. Das heißt, ein System muss seine eigenen Ziele haben und dann für diese Ziele planen. Ein System, das keine eigenen Ziele verfolgt, würde sich niemals weigern, Benutzern bei unethischen Handlungen zu helfen. Ein solcher intelligenter Agent wurde in der UCEgo-Komponente von UC implementiert (Wilensky et al. 1984, Wilensky et al. 1988) (UNIX Consultant), a natürliches Sprachsystem, das dem Benutzer hilft, Probleme bei der Verwendung des UNIX-Betriebssystems zu lösen. UCEgo versorgt UC mit seinen eigenen Zielen und Plänen. Durch die Annahme verschiedener Ziele in verschiedenen Situationen erstellt und führt UCEgo verschiedene Pläne aus, die es ihm ermöglichen, angemessen mit dem Benutzer zu interagieren. UCEgo nimmt Ziele an, wenn es bemerkt, dass dem Benutzer entweder das notwendige Wissen fehlt oder er falsche Überzeugungen hat. In diesen Fällen plant UCEgo, freiwillig Informationen bereitzustellen oder die falsche Vorstellung des Benutzers gegebenenfalls zu korrigieren. Diese Pläne sind vorgespeicherte Grundpläne, die nach den Arten von Situationen indiziert sind, in denen sie normalerweise nützlich sind. Planvorschlagssituationen umfassen das Ziel, das mit dem Plan erreicht werden soll, die Voraussetzungen des Plans und;-;-;-;https://link.springer.com/article/10.1023/A%3A1026443715015 ec03d7e4d841c941f4e147a456311f48;de;;;7.1.;;;Unternehmensmodellierung und -integration in mexikanischen Fertigungs- und Dienstleistungsunternehmen Dieses Papier beschreibt das Ergebnis einer Bewertungsstudie, die durchgeführt wurde, um den Einsatz von Unternehmensmodellen in mexikanischen Kleinst-, kleinen, mittleren und großen Unternehmen zu analysieren, um eine Unternehmensintegration zu erreichen. Auf der Grundlage eines Fragebogens wurde ein Bewertungstool entwickelt, wie strategische Planung, Technologieplanung und Technologieintegration durchgeführt wird und welche Modelle und Methoden in mexikanischen Unternehmen verwendet werden. Die Studie wurde in 32 Produktions-/Dienstleistungsunternehmen durchgeführt. Die Ergebnisse der Sondierungsübung zeigen, dass: mittlere Unternehmen im Durchschnitt die stärker integrierten Unternehmen sind, große Unternehmen viel strategische Planung betreiben, aber Probleme bei der Implementierung und Integration von Technologien haben, und schließlich Kleinstunternehmen sich der Notwendigkeit von Unternehmen nicht bewusst sind Integration.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35291-6_57 e518fec6cf9cb3b3743996cbeaa65980;de;;;7.2.;;;Automatisierte Textzusammenfassung: Ansatz zur Satzverfeinerung Die automatisierte Textzusammenfassung ist ein Verfahren zum Ableiten einer kürzeren Version eines Textdokuments aus einem Originaltext. Die bekannteste und am weitesten verbreitete Technik zur automatischen Textzusammenfassung ist die Satzextraktionstechnik. Unter Verwendung dieser Technik werden Sätze basierend auf bestimmten Merkmalen extrahiert, die entschieden wurden. In diesem Beitrag wird eine neue Technik namens Satzverfeinerung als Verbesserung der Technik vorgestellt. Bei diesem Ansatz wird ein Satz verfeinert, unwichtige Wörter oder Phrasen, die in den extrahierten Sätzen vorhanden sind, werden weggelassen. Basierend auf dem vorgeschlagenen Ansatz wurde ein Zusammenfassungstool entwickelt. Das Tool wurde mit englischen und malaiischen Texten getestet. Bei der Auswertung generierter Zusammenfassungen wurden extrinsische und intrinsische Messverfahren verwendet. Die Ergebnisse zeigen, dass der vorgeschlagene Ansatz vielversprechend ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22410-2_18 632d3ff7e7839c51bc17a212c84bf5cc;de;;;7.1.;;;Wissensmanagementmodell als Faktor der Bildungsqualität: Auf dem Weg zu einem Exzellenzmodell Die vorliegende Untersuchung analysiert, wie sich die Qualität des Managements und der Einsatz von Wissensmanagement auf die Servicequalität staatlicher Bildungseinrichtungen im Bezirk Zipaquirá in Kolumbien auswirken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08618-7_8 ba7eafb60b975547e95d0c5e11ec6476;de;;;7.1.;;;Entwurfskriterien für ein Datenbankmanagementsystem für ein PACS am Georgetown University Hospital In der Radiologie, wie auch in anderen Branchen, wurden Daten als wertvollstes Gut erkannt. Diese Daten, zu denen radiologische Bilder, die Radiologieberichte und für Verwaltungszwecke verfügbare Patientendaten gehören, werden von einer Vielzahl von Benutzern wie Radiologen, überweisenden Ärzten, Technologen und Abteilungsadministratoren verwendet. Die Anfragen dieser Nutzer unterscheiden sich stark darin, welche Daten sie benötigen, wie die Daten verwendet werden und wann sie benötigt werden. Ein Hauptziel eines radiologischen Bildarchivierungs- und Kommunikationssystems (PACS) besteht darin, die Verfügbarkeit der Daten für die Benutzer zu erhöhen, die Zugriff darauf benötigen. Dies erfolgt durch die Bereitstellung der Daten in digitaler Form, die leicht übermittelt und archiviert werden kann (1). Auf diese Weise kann das PACS als konkretes Beispiel für ein Datenbankverwaltungssystem (DBMS) angesehen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-4261-5_37 eb1df68d96d429a2c79d5a86f63ae6a4;de;;;7.2.;;;Cross-Lingual-Snippet-Generierung mit dem Snippet-Übersetzungssystem Multi Lingual Snippet Generation (MLSG) Systeme stellen den Benutzern Snippets in mehreren Sprachen zur Verfügung. Das effiziente Sammeln und Verwalten von Dokumenten in mehreren Sprachen ist jedoch eine schwierige Aufgabe und macht diesen Prozess dadurch komplizierter. Glücklicherweise kann diese Anforderung auch auf andere Weise erfüllt werden, indem die Snippets mit Hilfe von Systemen der maschinellen Übersetzung (MT) von einer Sprache in eine andere übersetzt werden. Das resultierende System wird als Cross Lingual Snippet Generation (CLSG)-System bezeichnet. Dieser Beitrag stellt die Entwicklung eines CLSG-Systems von Snippet Translation vor, wenn Dokumente nur in einer Sprache verfügbar sind. Wir betrachten das Sprachpaar Englisch-Bengali für die Übersetzung von Snippets in eine Richtung (Englisch nach Bengali). In dieser Arbeit wird ein Hauptaugenmerk auf die Übersetzung von Snippets mit einfacheren, aber ohne tiefere MT-Konzepte gelegt. In experimentellen Ergebnissen wird ein durchschnittlicher BLEU-Wert von 14,26 und ein NIST-Wert von 4,93 erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54903-8_28 989af433a6038ac2f5f1291b17d41914;de;;;7.2.;;;Konzeptionelle Ansichten für die entitätszentrierte Suche: Daten in sinnvolle Konzepte verwandeln Das Speichern, Verwalten und Abrufen von entitätsbezogenen Daten gehört seit jeher zu den Kernanwendungen von Datenbanksystemen. Da jedoch heutzutage viele Menschen über das Web auf Entitätensammlungen zugreifen (z. B. bei der Suche nach Produkten, Personen oder Ereignissen), besteht ein wachsender Bedarf, unkonventionelle Datentypen in diese Systeme zu integrieren, insbesondere Entitätsbeschreibungen in unstrukturierter Textform. Hauptbeispiele sind Produktbewertungen, Benutzerbewertungen, Tags und Bilder. Während die Speicherung dieser Daten durch moderne Datenbanktechnologie gut unterstützt wird, bleiben die Möglichkeiten, sie semantisch sinnvoll abzufragen, sehr begrenzt. Folglich leidet die entitätszentrierte Suche unter einer wachsenden semantischen Lücke zwischen den beabsichtigten Abfragen der Benutzer und dem Schema der Datenbank. In diesem Beitrag stellen wir den Begriff der konzeptionellen Ansichten vor, eine innovative Erweiterung traditioneller Datenbankansichten, die darauf abzielen, diejenigen abfragerelevanten Konzepte aufzudecken, die sich hauptsächlich in unstrukturierten Daten widerspiegeln. Wir konzentrieren uns auf Konzepte, die ihrer Natur nach vage sind und sich mit der bestehenden Technologie nicht leicht extrahieren lassen (z.;-;-;-;https://link.springer.com/article/10.1007/s00450-011-0179-8 f5c005a9e5e44b6189453c5265f1448e;de;;;7.2.;;;Herausforderungen der Professionalisierung: Verbindung von Forschung und Praxis durch einen Wissensschatz für IT-Spezialisten Dieses Papier legt nahe, dass die Interpretation und Entwicklung von IT-Berufen als Wissensarbeit einen realistischeren Weg zu mehr beruflicher Praxis im IT-Bereich bieten könnte, anstatt zu versuchen, sie als echte Berufe zu etablieren. Die Idee der Wissensarbeit führt dazu, dass wir uns auf den Wissensschatz der IT-Spezialisten konzentrieren, der für alle Berufe charakteristisch ist. Die anhaltende Debatte über die Praxisrelevanz der IT-Forschung legt nahe, dass im IT-Bereich eine erhebliche Kluft zwischen Forschung und Praxis besteht. Der Beitrag diskutiert, wie die Lücke geschlossen werden könnte, indem die IT-Forschung praxisnaher gestaltet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09682-7-9_2 f561df21a5bb560d7c2e707bd9ed8e8d;de;;;7.2.;;;Extrahieren von relationalen Fakten für die Indexierung und den Abruf von Tatortfotos In diesem Beitrag werden Arbeiten zur textbasierten Fotoindexierung und -suche vorgestellt, indem ein neuartiger Ansatz angewendet wird, der auf semantischer Musterextraktion basiert. Der Anwendungsbereich ist die Kriminalpolizei, bei der eine effiziente Abfrage großer Tatort-Fotodatenbanken von entscheidender Bedeutung ist. Der daraus resultierende Prototyp soll die Beschränkungen aktueller Praktiken in Kriminalitätsunterstützungssystemen überwinden, die auf Schlüsselwortansätzen basieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0649-4_9 8a4fbd924a42f9153be9e4dd6cbe9a3e;de;;;7.2.;;;Ungefähres dynamisches Programmieren und verstärkendes Lernen Dynamische Programmierung (DP) und Reinforcement Learning (RL) können verwendet werden, um Probleme aus einer Vielzahl von Bereichen zu lösen, darunter automatische Steuerung, künstliche Intelligenz, Operationsforschung und Wirtschaft. Viele Probleme in diesen Gebieten werden durch stetige Variablen beschrieben, während DP und RL nur im diskreten Fall exakte Lösungen finden können. Daher ist eine Annäherung in der praktischen DP und RL unerlässlich. Dieses Kapitel bietet einen eingehenden Überblick über die Literatur zu ungefähren DP und RL bei Problemen mit großem oder kontinuierlichem Raum und unendlichem Horizont. Wert-Iteration, Policy-Iteration und Policy-Search-Ansätze werden der Reihe nach vorgestellt. Es werden sowohl modellbasierte (DP) als auch Online- und Batch-Modell-freie (RL) Algorithmen diskutiert. Wir überprüfen theoretische Garantien für die Näherungslösungen, die von diesen Algorithmen erzeugt werden. Numerische Beispiele veranschaulichen das Verhalten einiger repräsentativer Algorithmen in der Praxis. Techniken zum automatischen Ableiten von Wertfunktions-Approximatoren werden diskutiert, und es wird ein Vergleich zwischen Wertiteration, Richtlinieniteration und Richtliniensuche bereitgestellt. Das Kapitel schließt mit einer Diskussion offener Fragen und vielversprechender Forschungsrichtungen in ungefähren DP und RL.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11688-9_1 0dba025bd2cd24f0864340febe9e46e5;de;;;7.1.;;;Analyse und Management von Computersicherheitsrisiken Die Risikoanalyse ist sowohl in der Wirtschaft als auch im Alltag ein vertrauter Begriff. Das grundlegende Problem ist universell: Wie viel sollte ich jetzt bezahlen, um die Möglichkeit zu verringern, dass mich ein hypothetisches Ereignis teuer zu stehen kommt? Welcher von mehreren möglichen Ausgaben reduziert die Wahrscheinlichkeit am meisten?;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-10137-5_2 1e5d1ee96878a77531f6d9a9296c2791;de;;;7.1.;;;Photonische Realisierung von Quanteninformationssystemen Dieses Kapitel stellt die Forschung zur Implementierung von Quanteninformationssystemen mit Photonik vor. Photonik bietet starke Werkzeuge, um Systeme zu realisieren, die auf einem einzigen Qubit arbeiten. Quantenschlüsselverteilungssysteme mit verbesserten Photonendetektoren wurden für kommerzielle Produkte in zwei Richtungen entwickelt: größere Entfernungen und hohe Geschwindigkeiten. Eine photonische Schaltung hat die Quanten-Fourier-Transformationsoperation über 1024 Qubit demonstriert. Die Erzeugung verschränkter Photonen bei der spontanen parametrischen Abwärtskonvertierung wurde ebenfalls verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-33133-6_10 2f16f855bfe6bca4f126785fb64e3f45;de;;;7.2.;;;Spiegeln unterthematische Urteile Vielfalt wider? Gegenwärtige Maßstäbe für Neuheit und Vielfalt bei der Bewertung der Informationsbeschaffung erfordern explizite Unterthemenbewertungen, was den manuellen Bewertungsprozess komplizierter macht. In gewisser Weise können diese Unterthemenurteile als grober Hinweis auf die Ähnlichkeit von Dokumenten angesehen werden, da wir erwarten könnten, dass Dokumente, die für gemeinsame Unterthemen relevant sind, im Durchschnitt ähnlicher sind als Dokumente, die kein gemeinsames Unterthema haben, selbst wenn diese Dokumente für dasselbe relevant sind Gesamtthema. In diesem Papier testen wir diese Hypothese anhand von Dokumenten und Urteilen aus dem TREC 2009 Web Track. Unsere Experimente zeigen, dass eine höhere Unterthemenüberlappung mit einer höheren Kosinusähnlichkeit korreliert, was eine Validierung für die Verwendung von Unterthemenurteilen bietet und auf neue Möglichkeiten zur Messung von Neuheit und Vielfalt zeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23318-0_28 bcf471144a54a3376da5643f62cd4c46;de;;;7.2.;;;Arbeitsinformatik – Eine Operationalisierung der Sozialinformatik Als Arbeitsinformatik wird ein neuer Ansatz in der Informatik und Sozialinformatik vorgestellt. Sie wird mit der Sozialinformatik verglichen, und es stellt sich heraus, dass sich deren Umfang und Ziele stark ähneln. Arbeitsinformatik ist operativer und kann daher einfacher für praktische Zwecke verwendet werden. Von beiden werden soziale, technische und sozio-technische Aspekte analysiert. Schwerpunkte, Analyseeinheit und Inhalte der Arbeitsinformatik werden kurz skizziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-37876-3_32 148775767d9256623cc8145d56134b6d;de;;;7.1.;;;Kommunikationstechnologie und Organisationen Informationen sind der Rohstoff der Führungsarbeit. Die tägliche Arbeit von Managern beinhaltet die Verarbeitung von Informationen. Um Entscheidungen innerhalb von Organisationen zu treffen, interpretieren Manager das externe Umfeld, koordinieren interne Aktivitäten, behandeln Probleme, nehmen an Meetings teil und senden und empfangen Berichte (Daft und Macintosh, 1981, Daft und Huber, 1987). Dies sind alles informationsverarbeitende Tätigkeiten. Die Verarbeitung von Informationen erfordert den Einsatz von Kommunikationsmedien. Seit Anfang der 1990er Jahre setzen Unternehmen zunehmend auf neue Kommunikationstechnologien, um ihre Leistungsfähigkeit zu verbessern (Davenport, 1997). Dieser Trend ist länderübergreifend und in Unternehmen unterschiedlicher Größe zu beobachten. Es gibt zwei Hauptgründe für diese verstärkte Betonung von Kommunikationstechnologien in Organisationen. Der erste ist, dass Manager 70–80 Prozent ihrer Zeit mit der Verwaltung von Informationen verbringen und dabei eine Vielzahl von Kommunikationsmedien nutzen (Mintzberg, 1973). Der Zeitaufwand für diese Aufgabe wurde sowohl für Industrieländer (Kurke und Aldrich, 1983, Mintinko und Gardner, 1990) als auch für Entwicklungsländer (Montgomery, 1986) validiert. Darüber hinaus wird mit der Einführung neuer Kommunikationstechnologien die effektive und effiziente Nutzung der zunehmenden Anzahl von Kommunikationsmedien zu einer immer schwierigeren Aufgabe. Laut Davenport;-;-;-;https://link.springer.com/chapter/10.1057/9780333985670_1 edb55780c5bbb82dfb1936b9fe309fca;de;;;7.1.;;;Komplexe Ingenieurprogramme als soziotechnische Systeme Durch die Einrahmung komplexer Engineering als soziotechnische Systeme kann die Concurrent Engineering (CE) Community neue Erkenntnisse, Praktiken und Werkzeuge gewinnen, um mit Programmschwierigkeiten umzugehen. Heutige verteilte Produktentwicklungsteams müssen sowohl menschliche (Organisation) als auch technische (Produkt und Prozess) Elemente ihrer Arbeit verwalten. Diese soziotechnischen Elemente verbinden sich in einem realen Ingenieurprogramm als integrierte Architektur mit dynamischen Interaktionen. Basierend auf der traditionellen Darstellung und Analyse der Ingenieurtätigkeit kann die Vorhersage der Leistung zu einer Herausforderung werden. Praktiken der technischen Planung und des laufenden Managements beruhen oft auf tief verwurzelten Überzeugungen der Stabilität, der detaillierten Zersetzbarkeit und der machbaren Kontrolle der zugehörigen Produkte, Prozesse und Organisation. Während diese Annahmen jedoch während der industriellen Revolution die gemeinsame Fertigung vorangetrieben haben, haben sich die heutigen Engineering-Programme – und wie die CE-Community sie betrachtet – weiterentwickelt. Dieses Kapitel bietet einen historischen Kontext zur Entwicklung des Systemdenkens in Anwendung auf Engineering und Projektmanagement. Konzepte werden als Kräfte zusammengefasst, die die Behandlung von Ingenieurprogrammen als soziotechnische Systeme verstärken und einschränken. Die Komplexität realer Engineering-Programme kann berücksichtigt werden, um aufkommende Ergebnisse zu antizipieren, die durch die dynamische Interaktion von technischen und sozialen Merkmalen angetrieben werden. Diese Perspektive führt zu einer neuen Generation von Methoden und Praktiken für Hochleistungs-Engineering-Programme.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13776-6_3 81c88a8acf857acdebadee1c0ce7aa88;de;;;7.2.;;;Aktives Online-Mehrfeldlernen für eine effiziente E-Mail-Spam-Filterung E-Mail-Spam verursacht eine erhebliche Zeit- und Ressourcenverschwendung. Dieses Papier befasst sich mit dem Problem der E-Mail-Spamfilterung und schlägt einen aktiven Online-Lernansatz mit mehreren Feldern vor, der auf den folgenden Ideen basiert: (1) E-Mail-Spamfilterung ist eine Online-Anwendung, die eine Online-Lernidee vorschlägt, (2) E-Mail-Dokument hat eine Mehrfeld-Textstruktur, die eine Mehrfeld-Lernidee vorschlägt, und (3) es ist teuer, ein Label für einen realen E-Mail-Spam-Filter zu erhalten, der eine aktive Lernidee vorschlägt. Der Online-Lernende betrachtet die E-Mail-Spam-Filterung als eine inkrementelle überwachte Klassifizierung von binärem Streaming-Text. Der Mehrfeld-Lerner kombiniert mehrere von Feldklassifikatoren vorhergesagte Ergebnisse in einem neuartigen zusammengesetzten Gewichtungsschema, und jeder Feldklassifikator berechnet den arithmetischen Durchschnitt mehrerer bedingter Wahrscheinlichkeiten, die aus Merkmalszeichenfolgen gemäß einer Datenstruktur des Zeichenfolgenhäufigkeitsindex berechnet wurden. Beim Vergleichen der aktuellen Varianz der Feldklassifizierungsergebnisse mit der historischen Varianz wertet der aktive Lernende die Klassifikationssicherheit aus und nimmt die unsicherere E-Mail als die informativere Stichprobe, für die ein Label angefordert werden soll. Die experimentellen Ergebnisse zeigen, dass der vorgeschlagene Ansatz den Stand der Technik mit stark reduzierten Etikettenanforderungen und sehr geringen Raum-Zeit-Kosten erreichen kann. Die Leistung unseres aktiven Online-Mehrfeldlernens, der standardmäßigen (1-ROCA)%-Messung, übertrifft sogar die volle Feedback-Leistung einiger fortschrittlicher individueller Textklassifikationsalgorithmen.;-;-;-;https://link.springer.com/article/10.1007/s10115-011-0461-x 0b65fa27b54d33ccd8d3fb63e400294d;de;;;7.2.;;;Eine Integration von Fuzzy-Assoziationsregeln und WordNet für das Dokumentenclustering Mit dem schnellen Wachstum von Textdokumenten entwickelt sich die Dokumentenclustering-Technik zum effizienten Wiederauffinden von Dokumenten und zum besseren Durchsuchen von Dokumenten. Kürzlich wurden einige Verfahren vorgeschlagen, um die Probleme hoher Dimensionalität, Skalierbarkeit, Genauigkeit und aussagekräftiger Cluster-Labels zu lösen, indem häufige Itemsets verwendet werden, die aus dem Mining von Assoziationsregeln für das Clustering von Dokumenten abgeleitet werden. Um die Qualität der Document Clustering Ergebnisse zu verbessern, schlagen wir ein effektives Fuzzy Frequent Itemset-based Document Clustering (F;-;-;-;https://link.springer.com/article/10.1007/s10115-010-0364-2 c3256263515f50b323fe05e7c90c281a;de;;;7.2.;;;Abfrage- und Dokumentenübersetzung für Englisch-Indonesisch Cross Language IR Wir präsentieren einen Bericht über unsere Teilnahme an der zweisprachigen Ad-hoc-Aufgabe Indonesisch-Englisch des Cross-Language Evaluation Forum (CLEF) 2006. In diesem Jahr vergleichen wir die Verwendung mehrerer Sprachressourcen, um indonesische Anfragen ins Englische zu übersetzen. Für die Übersetzung haben wir mehrere lesbare Maschinenwörterbücher verwendet. Wir haben auch zwei maschinelle Übersetzungstechniken verwendet, um die indonesischen Abfragen zu übersetzen. Neben der Übersetzung eines indonesischen Abfragesatzes ins Englische übersetzten wir auch englische Dokumente mit maschinenlesbaren Wörterbüchern und einem kommerziellen maschinellen Übersetzungstool ins Indonesische. Die Ergebnisse zeigen, dass die Durchführung der Aufgabe durch das Übersetzen der Abfragen besser ist als das Übersetzen der Dokumente. Die Kombination mehrerer Wörterbücher führte zu einem besseren Ergebnis als die Verwendung nur eines Wörterbuchs. Die Abfrageerweiterung, die wir mithilfe der Wörterbücher auf die übersetzten Abfragen angewendet haben, verringerte jedoch die Abrufeffektivität der Abfragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74999-8_7 57a5271703eac5f7e5550974b60c9162;de;;;7.2.;;;Menschliche Faktoren von Datenbanksystemen Die Benutzerfreundlichkeit von Software wird zu einem immer wichtigeren Thema mit enormen wirtschaftlichen Auswirkungen. Tatsächlich können die Produktivität und Zufriedenheit der Endbenutzer ein entscheidender Faktor für den Erfolg von Datenbanksystemen sein.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-53397-4_34 561775be1ebf6dc0814706cd4a2e8f24;de;;;7.1.;;;Expertenmeinungen zum aktuellen Stand des agilen Methoden-Tailorings Wie im Konferenzthema erwähnt, bleibt das Scheitern von Informationssystemen und IT-Projekten hartnäckig hoch. Agile Methoden haben sich in letzter Zeit als neuer und scheinbar beliebter alternativer Ansatz für die Systementwicklung herausgebildet. Anbieter dieser Methoden behaupten, dass sie viele der Probleme lösen, die das Feld seit über 40 Jahren plagen, und es gibt nun anekdotische Hinweise darauf, dass diese Vorteile realisiert werden und die Verbreitung agiler Methoden rapide zunimmt. Ein Schlüsselfaktor bei der Verbreitung jeder Technologie oder Methode ist jedoch ihre Anpassungsfähigkeit. Innovative Anpassung, Anpassung und Fragmentierung von Systementwicklungsmethoden werden von vielen als notwendiger Schritt angesehen, um ein Scheitern von Projekten zu vermeiden, wie so viele Projekte in der Vergangenheit. Die Fähigkeit, jede Methode maßzuschneidern, wird angesichts der komplexen und einzigartigen Natur jeder einzelnen ISD-Umgebung als äußerst wichtig angesehen, und insbesondere sollte man logischerweise erwarten, dass eine als agil bezeichnete Methode formbar sein sollte. Es ist jedoch noch unklar, ob agile Methoden für das Tailoring geeignet sind. Einerseits befürworten und empfehlen die Anbieter dieser Methoden oft Schneiderei. Andererseits wurde das Tailoring agiler Methoden jedoch als potenzielles Minenfeld beschrieben, da ihre Praktiken miteinander verbunden, synergistisch und sozial in die Entwicklungsbemühungen eingebettet sind. Diese Studie entwickelt ein besseres Verständnis des agilen Methoden-Tailorings in der Praxis durch halbstrukturierte Delphi-Interviews mit 40 ISD-Experten aus der Praxis und Akademiker. Die Studie versuchte, ihre Meinung zum Tailoring agiler Methoden im Allgemeinen zu ermitteln, und ging dann auf spezifische kritische Erfolgsfaktoren (CSFs) des Tailorings ein, nämlich eingebaute Kontingenz, klare Gründe für Methodenpraktiken, Unabhängigkeit der Methodenpraktiken und disziplinierte und ausgebildete Schneiderei von Praktiken. Die Studie ergab, dass diese Faktoren von der agilen Methodenbewegung abgesehen von seltenen Fällen weitgehend ignoriert werden, und schließt mit einer Reihe von Empfehlungen für agile Methodenersteller und -anwender ab, um sicherzustellen, dass agile Methoden eine höhere Verbreitungsrate als derzeit erfahren.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-72804-9_15 e4b5c5443305b34c31fc15eea76b06d7;de;;;7.1.;;;Konzeptentwicklung Bei der Konzeptgestaltung geht es darum, einen ausgewählten architektonischen Entwurf konkreter und detaillierter zu entwickeln. Dies kann es erforderlich machen, Architekturentscheidungen auf Subsystem- oder Systemelementebene zu treffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-13431-0_6 354e4659e2a6d4ce84539999b471e92b;de;;;7.1.;;;Waldökosystemmanagement über das NED Intelligent Information System Wir sehen ein Intelligentes Informationssystem (IIS) als aus einer einheitlichen Wissensbasis, Datenbank und Modellbasis zusammengesetzt. Dies ermöglicht es einem IIS, Antworten auf Benutzerabfragen bereitzustellen, unabhängig davon, ob der Abfrageprozess einen Datenabruf, eine Inferenz, eine Berechnungsmethode, ein Problemlösungsmodul oder eine Kombination davon umfasst. Die einheitliche Integration dieser Komponenten in eine verteilte Umgebung für das Waldökosystemmanagement steht im Mittelpunkt unserer fortlaufenden Forschung.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45049-1_76 493e619a82476132dff5b8f2b8e01e63;de;;;7.2.;;;Neue Merkmalsauswahl- und Gewichtungsmethoden basierend auf Kategorieinformationen Die traditionellen Methoden der Merkmalsauswahl und -gewichtung machen das Beste aus Dokumentinformationen, verachten oder ignorieren jedoch die Kategorieinformationen. Die neuen Merkmalsauswahl- und Gewichtungsmethoden nutzen Kategorieinformationen als Faktor, die die Nachteile traditioneller Methoden kompensieren. Bei der Verwendung neuer Methoden sind die gleichmäßig auf eine einzige Kategorie verteilten Merkmale wichtiger als bei der Verwendung alter Methoden. Das Experiment zeigt, dass vier berühmte Klassifikatoren, die auf neuen Merkmalsauswahl- und Gewichtungsmethoden basieren, effektiver sind als solche, die auf traditionellen Methoden basieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30544-6_35 e8906a0eb763f01bf63ea1113630ae45;de;;;7.2.;;;Datenschutz für Datenwürfel Eine Bereichsabfrage findet die aggregierten Werte über alle ausgewählten Zellen eines OLAP-Datenwürfels (Online Analytics Processing), wobei die Auswahl durch die Bereiche zusammenhängender Werte für jede Dimension angegeben wird. Ein wichtiges Thema in der Realität besteht darin, die vertraulichen Informationen in einzelnen Datenzellen zu bewahren und gleichzeitig eine genaue Schätzung der ursprünglichen aggregierten Werte für Bereichsabfragen bereitzustellen. In diesem Beitrag schlagen wir eine effektive Lösung, die Nullsummenmethode, für dieses Problem vor. Wir leiten theoretische Formeln ab, um die Leistungsfähigkeit unserer Methode zu analysieren. Empirische Experimente werden auch unter Verwendung von Analytical Processing Benchmark (APB)-Datensätzen des OLAP Council durchgeführt. In den Experimenten wurden verschiedene Parameter, wie der Privacy-Faktor und der Genauigkeitsfaktor, berücksichtigt und getestet. Schließlich zeigen unsere experimentellen Ergebnisse, dass es einen Kompromiss zwischen der Wahrung der Privatsphäre und der Genauigkeit der Bereichsabfrage gibt und die Nullsummenmethode drei Designziele erfüllt hat: Sicherheit, Genauigkeit und Zugänglichkeit.;-;-;-;https://link.springer.com/article/10.1007/s10115-004-0193-2 38e59fb5ac3b5529eadba4194bfc1699;de;;;7.2.;;;Cursorimpuls für Faszination Messung Wir stellen eine ganz andere Ursache für das Verhalten von Suchmaschinennutzern vor – Faszination. Es wird im Allgemeinen als der anfängliche Effekt eines Produktattributs auf das Interesse und die Kaufabsichten der Benutzer identifiziert. Angesichts der Tatsache, dass der Cursor in den meisten Fällen direkt von einer Hand angetrieben wird, um sich über eine Maus (oder ein Touchpad) zu bewegen, verwenden wir die Cursorbewegung als kritische Funktion, um die persönliche Reaktion gegen die faszinierenden Suchergebnisse zu analysieren. Dieses Papier bietet einen tiefen Einblick in die zielgerichtete Cursorbewegung, die innerhalb eines bemerkenswert kurzen Zeitraums (<30 Millisekunden) stattfindet, dem Intervall zwischen dem Durchklicken und dem Entscheidungsverhalten eines Benutzers. Anstelle der Grundlagen konzentrieren wir uns darauf, die Eigenschaften der Cursorbewegung in Sekundenbruchteilen aufzudecken. Unsere empirischen Ergebnisse zeigten, dass ein Nutzer, der von einem Suchergebnis fasziniert ist, die Maus möglicherweise etwas stärker drückt oder zieht. Dadurch gleitet der Cursor mit erhöhtem Schwung auf das Suchergebnis zu. Wir modellieren den Impuls durch eine Kombination von translatorischen und winkelkinetischen Energieberechnungen. Basierend auf dem Fitts-Gesetz implementieren wir eine zielgerichtete Cursorbewegungserkennung. Unterstützt durch die Dynamik, zusammen mit anderen physischen Merkmalen, haben wir verschiedene faszinationbasierte Reranking-Systeme für Suchergebnisse entwickelt. Unsere Experimente haben gezeigt, dass zielgerichteter Cursor-Impuls ein wirksames Merkmal ist, um Faszination zu erkennen. Insbesondere zeigen sie die Machbarkeit sowohl im personalisierten als auch im crossmedialen Fall. Darüber hinaus erläutern wir die Vor- und Nachteile sowohl der Klickrate als auch des Cursor-Momentums für das Re-Ranking von Suchergebnissen.;-;-;-;https://link.springer.com/article/10.1007/s11704-017-6607-6 91489a59abab82943e217fa73036625f;de;;;7.2.;;;Fragen beantworten mit Joost beim CLEF 2007 Wir beschreiben unser System für die einsprachigen Niederländisch- und mehrsprachigen Englisch-Niederländisch-QS-Aufgaben. Wir beschreiben die Vorverarbeitung von Wikipedia, die Aufnahme von Abfrageerweiterungen in IR, Anaphora-Auflösung in Folgefragen und ein Frageklassifikationsmodul für die mehrsprachige Aufgabe. Unsere besten Läufe erreichten eine Genauigkeit von 25,5% für die einsprachige Aufgabe Niederländisch und eine Genauigkeit von 13,5% für die mehrsprachige Aufgabe.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85760-0_30 24a18c7bc374cfa32e49faae3346a27c;de;;;7.2.;;;Explizite Diversifizierung der Suchergebnisse durch Unterabfragen Anfragen an ein Retrieval-System sind oft mehrdeutig. In einer solchen Situation ist es sinnvoll, die Rangfolge der abzurufenden Ergebnisse zu diversifizieren, in der Hoffnung, dass Benutzer mindestens eines dieser Ergebnisse für ihren Informationsbedarf relevant finden. In diesem Beitrag stellen wir xQuAD vor, ein neuartiges Framework zur Diversifizierung von Suchergebnissen, das ein derart diversifiziertes Ranking erstellt, indem es explizit die Beziehung zwischen Dokumenten, die für die ursprüngliche Abfrage abgerufen wurden, und den dieser Abfrage zugrunde liegenden möglichen Aspekten in Form von Unterabfragen berücksichtigt. Wir bewerten die Wirksamkeit von xQuAD anhand einer Standard-TREC-Sammlung. Die Ergebnisse zeigen, dass unser Framework im simulierten Best-Case-Szenario moderne Diversifikationsansätze deutlich übertrifft. Darüber hinaus zeigen wir, dass die Effektivität durch die Schätzung der relativen Bedeutung jeder identifizierten Unterabfrage weiter verbessert werden kann. Schließlich zeigen wir, dass unser Framework das simulierte Best-Case-Szenario der State-of-the-Art-Diversifizierungsansätze mit Unterabfragen, die automatisch aus dem Basis-Dokumentenranking selbst abgeleitet werden, noch übertreffen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12275-0_11 fc04036c3f3c46dc55550c7131991fc0;de;;;7.1.;;;Fuzzy-MCDM-Technik zur Planung der Umgebungswasserscheide Tatsächlich sind die Entscheidungsprobleme in vielerlei Hinsicht sehr vage und unsicher. Die meisten Kriterien haben voneinander abhängige und interaktive Eigenschaften, so dass sie nicht mit herkömmlichen Messmethoden bewertet werden können. So wie die Möglichkeit, den subjektiven Bewertungsprozess des Menschen anzunähern, wäre es besser geeignet, eine Fuzzy-Methode im Umwelt-Wassereinzugsgebiet-Plan-Thema anzuwenden. Dieses Papier beschreibt den Entwurf eines Fuzzy-Entscheidungsunterstützungssystems in einem multikriteriellen Analyseansatz zur Auswahl der besten Planalternativen oder -strategien in Umwelteinzugsgebieten. Die Methode des Fuzzy Analytic Hierarchy Process (FAHP) wird verwendet, um die Präferenzgewichtungen von Kriterien für Entscheidungsträger durch subjektive Wahrnehmung zu bestimmen. Ein Fragebogen wurde verwendet, um von drei verwandten Gruppen mit fünfzehn Experten herauszufinden. Subjektivitäts- und Vagheitsanalysen werden anhand von Fuzzy-Zahlen mit linguistischen Begriffen mit den Kriterien und Alternativen für Auswahlverfahren und Simulationsergebnisse behandelt. Unter Berücksichtigung der Präferenzen der Entscheidungsträger kann der Gesamtleistungswert jeder Alternative basierend auf dem Konzept der Fuzzy Multiple Criteria Decision Making (FMCDM) ermittelt werden. Diese Untersuchung gibt auch ein Beispiel für die Bewertung bestehend aus fünf Alternativen, die von einem Umwelteinzugsgebietsplan in Taiwan angefordert wurden, und wird veranschaulicht, um die Wirksamkeit und Nützlichkeit des vorgeschlagenen Ansatzes zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02298-2_110 1a4f14520a2304f98ddfbad208d2d6df;de;;;7.1.;;;Konfigurative Ausrichtung von Geschäfts- und Anwendungsdiensten: Eine Perspektive von Arbeitssystemen Es gibt verschiedene Möglichkeiten, Business- und IT-Alignment zu definieren. Einerseits kann man das Alignment aus strategischer Sicht betrachten, andererseits kann man auf das kleine Granularitätshandbuch und die Softwarefunktionen zurückgreifen, um zu sehen, wie sie über Mensch-Computer-Schnittstellen zusammenhängen. In diesem Papier nehmen wir eine Arbeitssystemperspektive ein, um die Ausrichtung zwischen Business und IT zu adressieren. Insbesondere betrachten wir Servicesysteme, indem wir die Services auf mehreren Granularitätsebenen beschreiben, wo sie in manuellen, halbautomatischen und automatischen Funktionsweisen instanziiert werden können. Diese Perspektive hilft, einige Designherausforderungen für flexible Arbeitssysteme anzugehen, die eine absichts- und situationsabhängige Ausrichtung zwischen menschlicher und künstlicher Arbeit erfordern, um mehrere Optionen heterogener Dienstkonfigurationen zu verwalten. Der vorgeschlagene Ausrichtungsansatz wird anhand von Bildungsnachfrage- und Angebotsüberwachungsdiensten veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41687-3_11 ca94186d85d17fc1381734a1b2d6663e;de;;;7.1.;;;Moderne Unternehmenssysteme als Enabler der agilen Entwicklung Traditionelle ES-Technologie und traditionelle Projektmanagement-Methoden unterstützen und ergänzen sich. Aber sie unterstützen die kritischen Erfolgsbedingungen für die ES-Entwicklung nicht effektiv. Obwohl die Ergebnisse einer Fallstudie eines erfolgreichen modernen ES-Change-Projekts kein starker empirischer Beweis sind, schlagen wir sorgfältig vor, dass die neue moderne ES-Technologie agile Projektmanagementmethoden unterstützt und dazu passt. Mit anderen Worten, es bietet die erforderliche Flexibilität, die es ermöglicht, die agile Art der Projektabwicklung sowohl für den Systemlieferanten als auch für den Kunden umzusetzen. Darüber hinaus schlagen wir vor, dass die Kombination aus moderner ES-Technologie und agilen Projektmanagement-Methoden besser geeignet ist, die Realisierung kritischer Erfolgsbedingungen für die ES-Entwicklung zu unterstützen. Der Hauptzweck dieses Kapitels besteht darin, kritische Erfolgsbedingungen für moderne Unternehmenssystementwicklungsprojekte mit kritischen Erfolgsbedingungen für agile Informationssystementwicklungsprojekte zu vergleichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-7355-9_4 7364bfea3733b3eede1f0fc78173448e;de;;;7.1.;;;Konzept für Qualitätskontrollmanagementdienste in verteilten Designnetzwerken – Konzeptpapier Die aktuelle Situation ist, dass Partner in virtuellen Organisationen auf eine Vielzahl von Tools angewiesen sind, die nicht integriert, schwer zu bedienen und oft ineffektiv sind. Es entstehen hohe Kosten für die Schulung der Mitarbeiter und die Anschaffung von Werkzeugen unterschiedlicher Fabrikate, die von den OEMs gefordert werden. Ziel des vorgeschlagenen Papiers ist es, ein konzeptionelles Modell einer integrierten Engineering-Umgebung zu präsentieren, das speziell auf die Bedürfnisse der in einem Designnetzwerk agierenden Zulieferer zugeschnitten ist. Im Fokus steht, wie das Monitoring und die Steuerung von Projekten in virtuellen Organisationen unterstützt werden können. Dazu wird ein Konzept des Qualitätskontrollmanagements (QCM) vorgestellt, das mehrere Dienste zur Verfügung stellen kann, um Projektprozesse und -leistungen effektiv, integriert, leicht verständlich und benutzerfreundlich zu verfolgen und zu steuern. Der in dem vorgeschlagenen Papier vorgestellte Ansatz basiert auf den Arbeiten des europäisch finanzierten Forschungsprojekts E4 (Erweitertes Unternehmensmanagement in einem erweiterten Europa – EG-Vertrag Nr. IST-FP6-027282).;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-77249-3_48 cc6b519d0fb45a316e776a3c8c3b1ecc;de;;;7.1.;;;Analyse und Architektur klinischer Workflow-Systeme mit agentenorientierten Lebenszyklusmodellen Führungskräfte im Gesundheitswesen sind mit einem Klima großer Veränderungen in der Gesundheitsbranche konfrontiert. Dies kommt aus mehreren Quellen. Erstens gibt es einen erhöhten Aktivismus unter Verbrauchern und ihren Arbeitgebern, die ein größeres Mitspracherecht bei der Erbringung von Gesundheitsdienstleistungen und Erstattungsoptionen wünschen, Verbraucher wünschen sich Zugang zu Dienstleistungen, während Arbeitgeber und andere Kostenträger erschwingliche Preise wünschen. Zweitens besteht in den Organisationen der klinischen Anbieter ein erhöhter Druck, die Abläufe effizienter zu gestalten, um die steigenden Kosten zu senken, die Nutzung der Gesundheitsressourcen durch die Bevölkerung besser zu steuern und auf den Gesundheitsmärkten effektiver zu konkurrieren. (Es ist anzumerken, dass der marktorientierte Kontext für die in diesem Beitrag diskutierte Anwendung aus der Sicht des überwiegend privaten Gesundheitssektors betrachtet wird, der in den USA das System organisiert worauf wir unsere Aufmerksamkeit richten, ist eine, bei der die US-Regierung Erstattungen für Dienstleistungen im Rahmen ihres Medicare-Programms bereitstellt.) Schließlich gibt es eine verstärkte behördliche Kontrolle über das gesamte Spektrum von Dienstleistungsanbietern, Leistungszahlern und Biowissenschaftsunternehmen.;-;-;-;https://link.springer.com/chapter/10.1007/11311966_3 7201aa7b992cd6760b0b631c0025103c;de;;;7.2.;;;Auf dem Weg zu sicherheitserhöhenden und datenschutzerhaltenden Mashup-Kompositionen In den letzten Jahren hat sich der Trend zu Menschen entwickelt, die ihre eigenen anspruchsvollen Anwendungen erstellen, um ihre täglichen Aufgaben ohne spezielle Programmierkenntnisse zu automatisieren. Unternehmens-Mashups erleichtern Endbenutzern die Entwicklung von Anwendungen im Geschäftskontext autonom oder mit minimaler Unterstützung durch das Software-Engineering-Personal. Daher zielen Mashup-Lösungen darauf ab, das volle Potenzial der Softwareentwicklung von Endbenutzern auszuschöpfen. Der Einsatz von Mashup-Lösungen für Geschäftsaufgaben wirft jedoch einige sicherheits- und datenschutzrelevante Fragen auf, da bereits mit einfachen Verfahren sensible Datensätze erstellt werden könnten. In diesem Papier schlagen wir einen Ansatz vor, bei dem Sicherheitsregeln für Mashup-Kompositionen definiert werden können und eingereichte Mashups automatisch auf Einhaltung der jeweiligen Richtlinien bewertet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39218-4_22 d68123e992618b2f70079e1f86103ec4;de;;;7.2.;;;Choquet-Integral-basierte Auswertungen durch Fuzzy-Regeln: Methoden zur Entwicklung von Fuzzy-Regeltabellen auf Basis von Gewichten und Interaktionsgraden Choquet-Integral-basierte Auswertungen durch Fuzzy-Regeln sind umfassende Auswertungsverfahren, die die Verwendung einer Fuzzy-Regeltabelle und des Choquet-Integrals beinhalten. Fuzzy-Maße werden aus der Fuzzy-Regeltabelle identifiziert. In diesem Papier schlagen wir Methoden zur Entwicklung von Fuzzy-Regeltabellen für Choquet-Integralmodelle auf der Grundlage einer grundlegenden Fuzzy-Regeltabelle und Gewichten von Bewertungselementen vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14055-6_54 2b4c3a70e7c51d46f8077591bc7b484b;de;;;7.2.;;;Phishing for the Truth: Ein szenariobasiertes Experiment zur Verhaltensreaktion von Benutzern auf E-Mails In einem Rollenspiel-Szenario-Experiment wurden 117 Teilnehmer gebeten, 50 E-Mails zu verwalten. Um zu testen, ob sich das Wissen, dass die Teilnehmer eine Phishing-Studie durchführen, auf ihre Entscheidungen auswirkt, wurde nur die Hälfte der Teilnehmer darüber informiert, dass die Studie die Fähigkeit bewertet, Phishing-E-Mails zu identifizieren. Die Ergebnisse zeigten, dass die Teilnehmer, die darüber informiert wurden, dass sie eine Phishing-Studie durchführen, deutlich besser darin waren, Phishing-E-Mails richtig zu verwalten und länger brauchten, um Entscheidungen zu treffen. Dies war nicht darauf zurückzuführen, dass eine E-Mail eher als Phishing-Angriff bewertet wurde, sondern vielmehr in einer erhöhten Fähigkeit, zwischen Phishing und echten E-Mails zu unterscheiden. Interessanterweise schnitten Teilnehmer mit einer formalen Ausbildung in Informationssystemen insgesamt schlechter ab. Unsere Ergebnisse haben Auswirkungen auf die Interpretation früherer Phishing-Studien, das Design zukünftiger Studien sowie auf Schulungs- und Aufklärungskampagnen, da sie darauf hindeuten, dass Menschen, die auf Phishing-Risiken vorbereitet sind, einen sorgfältigeren Screening-Ansatz für E-Mails verfolgen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39218-4_27 cdc55b1242a55de5fa65b4417a6185d0;de;;;7.1.;;;Das Anwendungspotenzial von Open Access Digital Tools in der technologischen Prozessplanung: KMU-Perspektive Diese Konzeptstudie konzentriert sich auf die technologische Prozessplanung (TPP) unter Berücksichtigung des Anwendungspotenzials von Open Access Digital Tools (OADT) in kleinen und mittleren Fertigungsunternehmen (KMU). Es präsentiert die Klassifikation der Autoren der digitalen Werkzeuge (DT), die in den SMMEs und verfügbaren Gruppen von OADT verwendet werden. Es schlägt auch mögliche Szenarien für zukünftige TPP vor, indem es die Entwicklungen in der künstlichen Intelligenz (KI) und immersiven Technologien, d. h. virtuelle und erweiterte Realitäten (VR/AR), berücksichtigt. Es konzentriert sich auch auf Herausforderungen und Verfahren bei der Implementierung von DT in spezifischen KMU-Umgebungen und konzentriert sich darauf, wie Open-Access-Tools in den ersten Phasen der Entwicklung von KMU eine entscheidende Rolle spielen, da diese Tools eine Minimierung der Ressourcenverschwendung ermöglichen. Obwohl die Fähigkeiten dieser Tools begrenzt sind, ist es von entscheidender Bedeutung, Implementierungsstrategien innerhalb eines KMU auf der Grundlage spezifischer Bedürfnisse zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29996-5_36 61cdfdc1542ca18ccb3e50856de25841;de;;;7.1.;;;Planung und Terminierung zur Optimierung der Kommunikation in Smart Grids Smart Grid ist ein Konzept, das das zukünftige Stromverteilungsnetz mit dem Ziel definiert, seine Zuverlässigkeit und Effizienz zu verbessern und seine ökologischen Auswirkungen zu reduzieren. Um dies zu erreichen, müssen riesige Datenmengen erfasst und zwischen den Elementen des Netzes übertragen werden. Eine robuste und effiziente Kommunikationsinfrastruktur ist daher ein wesentlicher Bestandteil des Smart Grid. Einige der Datenübertragungen sind nicht zeitkritisch und bieten eine Gelegenheit, die Leistungsfähigkeit des Kommunikationsnetzes zu verbessern. In diesem Beitrag stellen wir einen neuen Ansatz zur Optimierung der Smart-Grid-Kommunikation durch zeitbasierte Planung vor. Darüber hinaus bieten wir einen Überblick über Kommunikationstechnologien in Smart Grids und veröffentlichte Ansätze zur Vermeidung von Engpässen und Übertragungsausfällen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-89935-0_37 89f1809fbe0ef9dbfeb730f9b5ab28e8;de;;;7.1.;;;Der Entwurf des Modells zur Entwicklung eines Versandsystems für eine bundesweite eintägige integrative Planung Die Probleme der Versandplanung für Container-Lkw werden als Abhol- und Zustellprobleme klassifiziert, die hochkomplexe Probleme sind, die verschiedene Einschränkungen in der realen Welt berücksichtigen. Sie wird jedoch in der aktuellen Situation vom Leitsystem so entwickelt, dass sie im Sinne einer bundesweiten integrativen Planung das automatisierte Planungssystem benötigt. Daher besteht der Zweck dieser Studie darin, ein Modell zur Entwicklung des automatisierten Dispatch-Systems durch das Constraint-Erfüllungsproblem und einen metaheuristischen technikbasierten Algorithmus vorzuschlagen. In der weiteren Studie wird das Praxissystem entwickelt und eine Bewertung im Hinblick auf verschiedene Ergebnisse vorgenommen. Diese Studie schlägt ein Modell für die Durchführung der Studie vor, das die Komplexität der Probleme fördert, indem die verschiedenen Einschränkungen berücksichtigt werden, die in der frühen Studie nicht berücksichtigt wurden. Es wird jedoch vorgeschlagen, die Studie hinzuzufügen, die die Echtzeit-Überwachungsfunktion für Fahrzeuge und Ladungen auf der Grundlage der Informationstechnologie umfasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17644-9_20 6619ebbfe023428a5101028b273f208e;de;;;7.2.;;;Bewertung der Musikähnlichkeit mit dem Variogramm für die MFCC-Modellierung In diesem Kapitel werden zwei unterschiedliche Ansätze beschrieben, die das Variogramm im Kontext von Mel Frequency Cepstral Coefficients (MFCCs) und der Bewertung der Musikähnlichkeit verwenden. Der erste Ansatz wird als voller Variogramm-Ansatz bezeichnet, in diesem Fall werden alle Verzögerungen des Variogramms des zweiten Koeffizienten des MFCC verwendet. Die zweite Wahl wird als reduzierter Variogramm-Ansatz bezeichnet, in diesem Fall wird eine Teilmenge der Verzögerungen des Variogramms der MFCC-Matrix berücksichtigt. Daher wird die Verwendung des Variogramms als Werkzeug vorgeschlagen, um die in den MFCCs enthaltenen Klangfarbeninformationen zu synthetisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41248-6_17 88161c2d3049007cbe9d162c19b42c98;de;;;7.1.;;;Benchmarking-Rahmen für die Planung von Kommando- und Kontrollmissionen in einem unsicheren Umfeld Als Kern des militärischen Informationssystems leidet die Kommando- und Kontrollmissionsplanung (C2) unter der hohen Komplexität und Umweltunsicherheit. Um dieses Problem anzugehen, heben viele Studien die Agilität und Widerstandsfähigkeit von C2-Organisationen hervor und schlagen viele Lösungen vor. Es gibt jedoch keinen Benchmark, um diese Modelle und Methoden zu vergleichen. Um das dynamische Verhalten und das Emergenzverhalten solcher Organisationen zu verstehen, präsentiert dieses Papier einen Benchmark-Rahmen für die C2-Entscheidungsfindung in einem unsicheren Umfeld. Dies ist ein grundlegender Fall für den gemeinsamen Einsatz mehrerer Streitkräfte. Wir präsentieren ein Optimierungsmodell und einen Horizontpartitionsalgorithmus, der darauf abzielt, eine optimale Organisationsstruktur mit höherer operativer Flexibilität, geringen Kosten und hoher Leistung zu planen. Schließlich untersuchen wir die wichtigsten traditionellen Modelle am Benchmark-Fall. Das Ergebnis zeigt, dass das vorgeschlagene Modell in einem unsicheren Umfeld wettbewerbsfähig ist.;-;-;-;https://link.springer.com/article/10.1007/s00500-018-03732-3 8b65b71849769272ca22e1992ddf11c8;de;;;7.2.;;;Partikelschwarmoptimierung zur automatischen Auswahl von Relevanz-Feedback-Heuristiken Relevanz-Feedback (RF) ist ein iterativer Prozess, der die Abrufe verfeinert, indem das Feedback des Benutzers verwendet wird, das auf abgerufenen Ergebnissen markiert ist. Neuere Forschungen haben sich auf die Optimierung für die heuristische HF-Auswahl konzentriert. In diesem Beitrag schlagen wir ein automatisches RF-Heuristik-Auswahl-Framework vor, das automatisch die beste RF-Heuristik für die gegebene Abfrage auswählt. Das vorgeschlagene Verfahren führt zwei Lernaufgaben durch: Abfrageoptimierung und heuristische Auswahloptimierung. Zur Unterstützung der Lernaufgaben wird das Paradigma der Partikelschwarmoptimierung (PSO) angewendet. Experimentelle Ergebnisse, die an einem inhaltsbasierten Abrufsystem mit einer realen Bilddatenbank getestet wurden, zeigen, dass das vorgeschlagene Verfahren mehrere bestehende HF-Ansätze mit unterschiedlichen Techniken übertrifft. Das Konvergenzverhalten des vorgeschlagenen Verfahrens wird empirisch analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13495-1_21 d40f9542f99bc26b1ace04fb4f4bfb95;de;;;7.2.;;;Modellieren und Experimentieren mit Fahrzeugüberlastung für verteilte fortschrittliche Reiseinformationssysteme Advanced Traveller Information Systems, die seit langem als eine der vielversprechendsten zukünftigen Anwendungen von drahtlosen Fahrzeugnetzwerken für den Einsatz im Bereich Intelligent Transportation Systems (ITS) gelten, werden heute tatsächlich Teil der Realität. Viele Autofahrer greifen bereits auf die Informationen solcher Systeme zu, indem sie beispielsweise den Zustand der Straßen entlang einer bestimmten Route überprüfen oder Stauwarnungen auf den Displays von Smartphones oder Personal Navigation Devices (PNDs) lesen. Basierend auf diesen Informationen wählen Fahrer oder ihre PNDs die besten Wege aus, um ihr Ziel zu erreichen. Um effektiv zu sein, müssen solche Systeme eindeutig die Verkehrsstauzustände zuverlässig schätzen und vorhersagen. Darüber hinaus sollten sie auch in der Lage sein, die Ressourcen des drahtlosen Kanals effizient zu nutzen, da die Menge an Informationen, die von solchen Systemen in dicht besiedelten Stadtgebieten ausgetauscht werden können, mit der Anzahl der von den Bordgeräten unterstützten Dienste und der Anzahl der Fahrzeuge, in denen sie installiert sind, wächst . Um diese Herausforderungen zu beantworten, diskutieren wir hier, wie ein verteiltes ATIS: a) ein effektives Modell zur Erkennung und Vorhersage von Fahrzeugstaus implementieren und b) Verkehrsinformationen effizient verbreiten kann. Der Vorteil der Verteilung eines ATIS besteht darin, dass jedes Fahrzeug genaue Fahrzeugstauinformationen sehr schnell mit geringem Overhead und ohne Rückgriff auf eine zentrale Instanz berechnen und neu verteilen kann. Um unseren Ansatz zu validieren, präsentieren wir die Ergebnisse eines realen Experiments sowie mehrerer Simulationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15784-4_1 4b15b73d153ad5a0660e42893dc869f6;de;;;7.2.;;;Ein sequentieller Algorithmus zum Trainieren von Textklassifikatoren Die Fähigkeit, Textklassifizierer kostengünstig zu trainieren, ist entscheidend für ihre Verwendung bei der Informationsgewinnung, Inhaltsanalyse, Verarbeitung natürlicher Sprache und anderen Aufgaben, die teilweise oder vollständig textuelle Daten beinhalten. Ein Algorithmus für sequentielles Sampling während des maschinellen Lernens von statistischen Klassifikatoren wurde entwickelt und an einer Textkategorisierungsaufgabe der Nachrichtenagentur getestet. Diese Methode, die wir Unschärfe-Sampling nennen, reduzierte die Menge der Trainingsdaten, die manuell klassifiziert werden müssten, um ein bestimmtes Effektivitätsniveau zu erreichen, um das 500-fache.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-2099-5_1 be4e38945aa565a72585c927f161da8c;de;;;7.2.;;;Das „richtige“ Bild finden: Zusammenhänge zwischen Personen, Bildern und Eindrücken visualisieren Beim Entwerfen von Multimedia-Informationen müssen Autoren Bilder verwenden, die die Designabsicht am besten widerspiegeln. Die Verwendung von Bildern kann jedoch irreführend sein. Bilder können auf viele Arten interpretiert werden, und das gleiche Bild kann je nach Kontext als hübsch, süß, kindisch oder unreif empfunden werden. Aufgrund dieser Situation wird die Suche nach Bildern in einer Bildbibliothek zu einer herausfordernden Aufgabe, da Autoren nicht angeben können, wonach sie suchen, ohne zu verstehen, welchen Eindruck die Leute von jedem Bild haben. Das Ziel der hier vorgestellten Forschung ist es, Gelegenheitsautoren bei der Suche nach Bildern für ihre Autorenaufgabe zu unterstützen, indem sie (1) verstehen, wie ihre Aufgabe am besten mit affektiven Wörtern dargestellt wird und (2) welchen Eindruck Menschen mit Bildern haben. Wir schlagen ein Modell vor, um individuelle Unterschiede im Eindruck von Bildern zu visualisieren, die es Benutzern ermöglichen, den Raum der Beziehungen zu erkunden. Das Modell besteht aus einer Gruppe von Tripletts einer Person (P), einem Bild (I) und einem affektiven Wort, das den Eindruck repräsentiert (W). Wir haben eine Rechenumgebung EVIDII erstellt, um die Beziehung zwischen P, I und W unter Verwendung von zwei Arten von Räumen zu visualisieren. Der Beitrag schließt mit einer Diskussion der Wirksamkeit des Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35370-8_7 268eef649e719f8d0669aba7fa1c5beb;de;;;7.2.;;;Wie man ein verantwortungsvoller Sklave ist: Verwaltung der Nutzung von Experteninformationssystemen Computer-Ethiker beschäftigen sich seit einigen Jahren mit der Frage, wie die moralische Verantwortung für katastrophale Ereignisse mit fehlerhaften Informationen, die von Experteninformationssystemen generiert werden, zuzuordnen ist. Kürzlich hat Jeroen van den Hoven argumentiert, dass Agenten, die mit Experteninformationssystemen arbeiten, die Bedingungen für das erfüllen, was er epistemischer Versklavung nennt. Er argumentiert, dass epistemisch versklavte Agenten keine moralische Verantwortung für Unfälle tragen, für die sie eine kausale Verantwortung tragen. In diesem Artikel entwickle ich zwei Einwände gegen van den Hovens Argument der epistemischen Versklavung von Agenten, die mit Experteninformationssystemen arbeiten.;-;-;-;https://link.springer.com/article/10.1007/s10676-009-9183-0 08825a236c21f87da1b23b1373293e8a;de;;;7.2.;;;Bewertung der Morpho-Herausforderung mit einem linguistischen Goldstandard Ziel der Morpho Challenge 2007 war es, statistische Algorithmen für maschinelles Lernen zu entwickeln, die erkennen, aus welchen Morphemen (kleinste individuell bedeutungsvolle Spracheinheiten) Wörter bestehen. Idealerweise handelt es sich dabei um Basisvokabulareinheiten, die für verschiedene Aufgaben geeignet sind, wie z. B. Textverständnis, maschinelle Übersetzung, Information Retrieval und statistische Sprachmodellierung. Da bei der unüberwachten Morphemanalyse die Morpheme beliebige Namen haben können, werden die Analysen hier durch einen Vergleich mit einem linguistischen Goldstandard durch Abgleichen der morphemteilenden Wortpaare ausgewertet. Die Datensätze wurden für vier Sprachen bereitgestellt: Finnisch, Deutsch, Englisch und Türkisch, und die Teilnehmer wurden ermutigt, ihren Algorithmus auf alle anzuwenden. Die Ergebnisse zeigen signifikante Unterschiede zwischen den Methoden und Sprachen, aber die besten Methoden scheinen in allen getesteten Sprachen nützlich zu sein und passen recht gut zur linguistischen Analyse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85760-0_111 ec70903a12dd932935d9589f4a60b4c0;de;;;7.2.;;;Rangfolgegenauigkeit und unstrukturierte verteilte Suche Es hat sich gezeigt, dass die ungleichmäßige Verteilung von Dokumenten in einem unstrukturierten Peer-to-Peer-Netzwerk (P2P) sowohl die erwartete Suchlänge als auch die Suchgenauigkeit verbessert, wobei die Genauigkeit als die Größe der Schnittmenge der Dokumente definiert ist, die von einem eingeschränkten, probabilistischen Suche und die Dokumente, die bei einer erschöpfenden Suche gefunden worden wären, normalisiert nach deren Größe. Keine Metrik berücksichtigt jedoch die relative Rangfolge der Dokumente in den abgerufenen Sätzen. Wir führen daher eine neue Leistungsmetrik ein, die Ranggenauigkeit, d.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36973-5_15 5f9b845bbf420f252c01d7f1d4996111;de;;;7.2.;;;Gebänderte Struktur in binären Matrizen Eine binäre Matrix hat eine gebänderte Struktur, wenn sowohl Zeilen als auch Spalten permutiert werden können, so dass die von Null verschiedenen Einträge ein Treppenmuster aus überlappenden Zeilen aufweisen. Das Konzept der gebänderten Matrizen hat seinen Ursprung in der numerischen Analysis, wo Einträge als Beschreibungen zwischen den Problemvariablen angesehen werden können, die Bandigkeit entspricht Variablen, die über kurze Distanzen gekoppelt sind. Gebänderte Daten treten auch in anderen Anwendungen auf, beispielsweise beim physikalischen Kartierungsproblem des menschlichen Genoms, in paläontologischen Daten, in Netzwerkdaten und bei der Entdeckung überlappender Gemeinschaften ohne Zyklen. Wir untersuchen die gebänderte Struktur binärer Matrizen, geben eine formale Definition des Konzepts und diskutieren seine theoretischen Eigenschaften. Wir betrachten die algorithmischen Probleme der Berechnung, wie weit eine Matrix von der Bandierung entfernt ist, und des Findens einer guten Untermatrix der Originaldaten, die eine ungefähre Bandierung aufweist. Schließlich zeigen wir durch Experimente mit realen Daten aus der Ökologie und anderen Anwendungen die Nützlichkeit des Konzepts. Unsere Ergebnisse zeigen, dass in realen Datensätzen Bänder existieren und dass die endgültig erhaltenen Anordnungen von Zeilen und Spalten natürliche Interpretationen haben.;-;-;-;https://link.springer.com/article/10.1007/s10115-010-0319-7 f084769db3b81296aa73112be0686deb;de;;;7.2.;;;Verwendung semantischer und domänenbasierter Informationen in CLIR-Systemen Cross-Language Information Retrieval (CLIR)-Systeme erweitern klassische Information Retrieval-Mechanismen, um es Benutzern zu ermöglichen, sprachenübergreifend abzufragen, d. h. Dokumente abzurufen, die in anderen Sprachen als der für die Abfrageformulierung verwendeten Sprache geschrieben wurden. In diesem Beitrag stellen wir ein CLIR-System vor, das mehrsprachige Ontologien nutzt, um die Dokumentendarstellung während der Indexierungsphase mit mehrsprachigen semantischen Informationen anzureichern und während der Abrufphase Abfragefragmente auf Konzepte abzubilden. Dieses System wurde auf eine domänenspezifische Dokumentensammlung angewendet und der Beitrag der Ontologien zum CLIR-System wurde in Verbindung mit der Verwendung der Übersetzungsdienste Microsoft Bing und Google Translate bewertet. Die Ergebnisse zeigen, dass die Verwendung domänenspezifischer Ressourcen zu einer signifikanten Verbesserung der CLIR-Systemleistung führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07443-6_17 d4c618b6f9435e661411b34c37b2189e;de;;;7.2.;;;Über die Verwendung von Ontologien, um Agenten bei der Beantwortung von Fragen zu leiten Die Aufgaben im Zusammenhang mit der Beantwortung einer Frage oder der Klärung von Zweifeln werden in erster Linie durch eine gute Analyse der Frage bestimmt, um den Zielgegenstand der Antwort zu identifizieren. Dieses Papier stellt ein Frage-Antwort-System (QAS) vor, das Ontologien und Informationsabruftechniken verwendet, um die Frage zu analysieren und so die Extraktion einer relevanten Antwort, vor allem aus den im Internet verfügbaren Ressourcen, zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-05951-8_50 0bbccd4eb046e005715c0d908d9511c3;de;;;7.2.;;;So suchen Sie in MPEG-7-basierten semantischen Beschreibungen: eine Bewertung von Metriken MPEG-7 ist ein umfassender Multimedia-Metadatenstandard, der eine beeindruckende Bandbreite an Metadatenaspekten abdeckt. Wie bei den meisten Metadatenstandards sind jedoch Details zur Verwendung und Anwendung der Standards – zumindest teilweise – konzeptionell offen für Interpretationen. Im Fall von MPEG-7 sind die Speicherung und Übertragung von High-Level-Metadaten auf Konzeptebene gut definiert, aber Abrufverfahren werden vom Standard nicht vorgeschlagen. Wenn ein Benutzer beispielsweise Fotos mit dem semantischen Beschreibungsschema MPEG-7 annotiert, gibt es keine standardisierten Möglichkeiten, die Fotos basierend auf der Annotation zu indizieren und abzurufen. In diesem Artikel betrachten wir Metriken zur Relevanzbewertung basierend auf dem MPEG-7 Semantic Description Scheme im Kontext der Informationsabfrage. Wir werten sie in einem digitalen Foto-Retrieval-Szenario aus und untersuchen in einer Nutzerstudie die Korrelation von Ähnlichkeits- und Entfernungsmetriken zur Nutzerwahrnehmung.;-;-;-;https://link.springer.com/article/10.1007/s11042-011-0756-7 3dd45bc467f58945762a64b9cdad60af;de;;;7.2.;;;Autorenidentifikation in bengalischen Literaturwerken In diesem Beitrag untersuchen wir das Problem der Identifizierung von Autoren in bengalischen literarischen Werken. Wir haben drei Autoren betrachtet, nämlich Rabindranath Tagore, Bankim Chandra Chattopadhyay und Sukanta Bhattacharyay. Es wurde beobachtet, dass einfache Unigramm- und Bigramm-Merkmale zusammen mit dem Wortschatz reichhaltig genug waren, um zwischen diesen Autoren zu unterscheiden. Obwohl sich die Ergebnisse leicht verschlechterten, wenn die Größe des Trainingssatzes beträchtlich klein war. Für einen größeren Trainingssatz wurde eine Klassifikationsgenauigkeit von über 90 % für das Unigramm-Merkmal und fast 100 % für das Bigramm-Merkmal erreicht. Die Ergebnisse könnten durch die Verwendung ausgefeilterer Funktionen weiter verbessert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21786-9_37 f22188b33b6242ea0f5248682d3e6fa2;de;;;7.2.;;;Entspricht die Online-Evaluierung der Offline-Evaluierung in der automatischen Abfragevervollständigung? Die automatische Abfragevervollständigung ist die Aufgabe, den Benutzern einer Suchmaschine Abfragen vorzuschlagen, während sie eine Abfrage in das Suchfeld eingeben. In den letzten Jahren ist ein erneutes Interesse an der Forschung zur Verbesserung der Qualität dieser Aufgabe gewachsen. Die veröffentlichten Verbesserungen wurden mithilfe von Offline-Bewertungstechniken und -Metriken bewertet. In diesem Whitepaper stellen wir einen Vergleich von Online- und Offline-Assessments für die automatische Vervollständigung von Abfragen vor. Wir zeigen, dass ein großes Potenzial für signifikante Verzerrungen besteht, wenn die in einem Online-Experiment verwendeten Rohdaten anschließend für Offline-Experimente wiederverwendet werden, um neue Methoden zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-56608-5_70 0f344e65f7b9a5f015143995fd648514;de;;;7.2.;;;Aufgabenorientierte Suche nach evidenzbasierter Medizin Untersuchungen zur Suche von Klinikern zeigen, dass sie Anfragen nach drei gängigen klinischen Aufgaben stellen: Suche nach Diagnosen, Suche nach Behandlungen und Suche nach Tests. Wir gehen daher davon aus, dass die Strukturierung eines Informationsabrufsystems um diese drei Aufgaben bei der Suche nach Ressourcen für evidenzbasierte Medizin (EBM) in medizinischen digitalen Bibliotheken von Vorteil wäre. Aufgabenorientierte (Diagnose, Test und Behandlung) Informationen wurden aus medizinischen Freitextartikeln unter Verwendung einer natürlichen Sprachverarbeitungspipeline extrahiert. Diese Informationen wurden in ein Retrieval- und Visualisierungssystem für die EBM-Suche integriert, das es Suchenden ermöglichte, über aufgabenorientierte Filter mit dem System zu interagieren. Die Wirksamkeit des Systems wurde empirisch mit TREC CDS evaluiert – einem Goldstandard für medizinische Artikel und Abfragen für die EBM-Suche. Aufgabenorientierte Informationen wurden erfolgreich aus 733.138 Artikeln aus einer medizinischen digitalen Bibliothek extrahiert. Die aufgabenorientierte Suche führte zu einer Verbesserung der Qualität der Suchergebnisse und Einsparungen bei der Arbeitsbelastung der Suchenden. Eine Analyse der Auswirkungen verschiedener Aufgaben auf den Abruf zeigte, dass die Suche nach Behandlungen die größte Herausforderung darstellte und dass der aufgabenorientierte Ansatz die Suche nach Behandlungen verbesserte. Die größte Einsparung an Arbeitsaufwand wurde bei der Suche nach Behandlungen und Tests beobachtet. Insgesamt kann die Berücksichtigung unterschiedlicher klinischer Aufgaben die Suche nach diesen Aufgaben verbessern. Jede Aufgabe zeigte unterschiedliche Ergebnisse, was Systeme wünschenswerter machte, die besser an den klinischen Aufgabentyp angepasst sind. Eine zukünftige Benutzerstudie würde helfen, die tatsächlichen Kosteneinsparungsschätzungen zu quantifizieren.;-;-;-;https://link.springer.com/article/10.1007/s00799-017-0209-7 f38caf6b2a425940f3662a9d9d9b29ee;de;;;7.2.;;;Verbessern flexibler Abfragen mithilfe von Kriterienbäumen Traditionelle Abfragesprachen wie SQL und OQL verwenden eine sogenannte WHERE-Klausel, um nur die Datenbankeinträge zu extrahieren, die eine bestimmte Bedingung erfüllen. Bedingungen können einfach sein oder aus Bedingungen bestehen, die durch logische Operatoren verbunden sind. Flexible Abfrageansätze haben dieses Konzept unter anderem verallgemeinert, indem sie flexiblere Benutzerpräferenzen sowohl bei der Spezifikation der einfachen Bedingungen (durch die Verwendung von Fuzzy-Sets) als auch bei der Spezifikation der logischen Aggregation (durch die Verwendung von Gewichten) zulassen. In diesem Artikel untersuchen und schlagen wir eine neue Technik vor, um die Verwendung von Gewichtungen durch die Arbeit mit sogenannten Kriteriumsbäumen weiter zu verbessern. Neben besseren Möglichkeiten zur Spezifizierung flexibler Abfragen ermöglichen Kriterienbäume auch einen allgemeineren Aggregationsansatz. In diesem Beitrag veranschaulichen und diskutieren wir, wie LSP-Basisaggregationsoperatoren in Kriteriumsbäumen verwendet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40769-7_32 682b47024c464f7a7838305eaf6b94c7;de;;;7.2.;;;Leistungsbewertung von Arbeitsabläufen unter Verwendung kontinuierlicher Petrinetze mit Intervallfeuergeschwindigkeiten In diesem Papier untersuchen wir die Leistungsbewertung von Workflow-basierten Informationssystemen. Aufgrund der Zustandsraumexplosion ist die Analyse durch stochastische Modelle, wie stochastische Petrinetze und Warteschlangenmodelle, nicht für Workflow-Systeme geeignet, in denen eine große Anzahl von Flussinstanzen gleichzeitig ausgeführt wird. Wir verwenden die Fluid-Flow-Approximationstechnik, um diese Schwierigkeit zu überwinden. In dem vorgeschlagenen Verfahren werden GSPN-Modelle (Generalized Stochastic Petri Nets), die Arbeitsabläufe darstellen, durch eine Klasse von zeitgesteuerten kontinuierlichen Petri-Netzen angenähert, die als zeitgesteuerte kontinuierliche Petri-Netze (RTCPN) bezeichnet werden. In RTCPN-Modellen wird jeder diskrete Satz durch einen kontinuierlichen Bereich in einem reellwertigen Vektorraum angenähert, und die Varianz in der Wahrscheinlichkeitsverteilung wird durch ein reellwertiges Intervall ersetzt. Als nächstes leiten wir stückweise lineare Systeme aus RTCPN-Modellen ab und verwenden Intervallmethoden, um garantierte Einschlüsse für Zustandsvariablen zu berechnen. Als Fallstudie lösen wir ein optimales Ressourcenzuordnungsproblem für einen Paper-Review-Prozess.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68746-7_17 783365216a3434e7197baf53d4603369;de;;;7.2.;;;Wortähnlichkeit testen: Sprachunabhängiger Ansatz mit Beispielen aus der Romanik Die Identifizierung von Wörtern mit gleicher Grundbedeutung (Stemming) hat wichtige Anwendungen im Information Retrieval, vor allem für die Erstellung von Worthäufigkeitslisten. Übliche morphologisch basierte Ansätze (einschließlich der Porter-Stemmer) beruhen auf sprachabhängigen linguistischen Ressourcen oder Wissen, was bei der Arbeit mit mehrsprachigen Daten und multithematischen Dokumentensammlungen Probleme bereitet. Wir schlagen mehrere empirische Formeln mit leicht einstellbaren Parametern vor und zeigen, wie man solche Formeln für eine gegebene Sprache mit einer induktiven Methode der Modellselbstorganisation konstruiert. Diese Methode betrachtet eine Reihe von Modellen (Formeln) einer bestimmten Klasse und wählt die besten anhand von Trainings- und Teststichproben aus. Wir beschreiben die Methode und geben detaillierte Beispiele für Französisch, Italienisch, Portugiesisch und Spanisch. Die Formeln werden an realen domänenorientierten Dokumentensammlungen untersucht. Unser Ansatz lässt sich leicht auf andere europäische Sprachen übertragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27779-8_20 2976ae1e94900f5e8eed5e38a7f5edb7;de;;;7.2.;;;Entwicklung der Parametermessmethode von Informationssystemen Die Messung und Analyse von Parametern von Informationssystemen ist ein notwendiges Element ihrer Forschung. Im Gegensatz zu technischen Systemen müssen in Informationssystemen Parameter basierend auf der Analyse ihrer funktionalen Eigenschaften ausgewählt werden. In dieser Arbeit werden Besonderheiten der Parameterauswahl von Informationssystemen untersucht. Bei solchen Systemen ist es wichtig, nicht nur einige Werte zu messen, sondern auch Grenzen, Maßstab etc. zu setzen. In dieser Arbeit wird der Verdeckungsparameter erforscht. Dieser Parameter beschreibt den Grad der Fähigkeit, die versteckte Nachricht in einer digitalen Umgebung zu erkennen, vorausgesetzt, dass sie gemäß dem Verbergungsparameter unsichtbar ist. Zur Lösung der Aufgabenstellung werden statistische Methoden der digitalen Umgebungsanalyse eingesetzt. In der Arbeit wird die Skala des Verbergungsparameters bestimmt und die Methode zur Messung seines Wertes überprüft. Die Forschung stellt Werkzeuge zur Nutzung dieses Parameters bereit und veranschaulicht ein Beispiel für die Durchführung von Messungen in Informationssystemen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30440-9_9 cc31b55e1f5328f262e0835884547c65;de;;;7.2.;;;Überblick über ResPubliQA 2009: Bewertung von Fragen zur Beantwortung europäischer Rechtsvorschriften Dieses Papier beschreibt die erste Runde von ResPubliQA, einer Frage-Antwort-(QA)-Bewertungsaufgabe zu europäischer Gesetzgebung, die auf dem Cross Language Evaluation Forum (CLEF) 2009 vorgeschlagen wurde. Die Übung besteht darin, einen relevanten Textabschnitt zu extrahieren, der den ausgedrückten Informationsbedarf vollständig befriedigt durch eine natürlichsprachliche Frage. Die allgemeinen Ziele dieser Übung sind (i) zu untersuchen, ob die aktuellen QA-Technologien, die auf Newswire-Sammlungen und Wikipedia abgestimmt sind, an eine neue Domäne (in diesem Fall Recht) angepasst werden können, (ii) um unter Berücksichtigung der Menschen zu einem realistischeren Szenario überzugehen Rechtsnähe als Benutzer und Paragraphen als Systemausgabe, (iii) um aktuelle QS-Technologien mit reinen Information Retrieval (IR)-Ansätzen zu vergleichen, und (iv) um die in den letzten drei Jahren entwickelten Antwortvalidierungs-Technologien in QS-Systeme einzuführen. Der Beitrag beschreibt die Aufgabenstellung genauer, stellt die verschiedenen Fragetypen, die Methodik zur Erstellung der Test-Sets und der neuen Bewertungsmaßnahme vor und analysiert die von Systemen erzielten Ergebnisse und die erfolgreicheren Ansätze. Elf Gruppen nahmen mit 28 Läufen teil. Darüber hinaus haben wir zu Vergleichszwecken 16 Baseline-Läufe (2 pro Sprache) ausschließlich auf Basis des reinen IR-Ansatzes ausgewertet. In Anbetracht der Genauigkeit waren die Punktzahlen im Allgemeinen höher als in früheren QA-Kampagnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15754-7_21 a0baf1ee7a258953e10a6c0e1be33801;de;;;7.1.;;;Eine intellektuelle Infrastruktur zur Integration von Designwissen Dieses Papier analysiert die Widersprüche, die die Zusammenarbeit verschiedener Interessengruppen bei der Bewertung des frühen Entwurfskonzepts behindern, und definiert ein Strukturmodell funktionaler Anforderungen für ein Team von katalytischen Beratern, das die Selbstorganisation von Entwurfswissen erleichtern kann und trägt den Namen „SINPL-MEGANET“. .;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35192-6_1 f5e4e5afbdb32e38d528995e2fe06027;de;;;7.2.;;;Verschlüsselungsrichtlinie für die globale Informationsinfrastruktur Die Kryptologiepolitik beschäftigt sich nicht nur mit verschiedenen technologischen Verschlüsselungsverfahren, sondern auch mit heiklen politischen und administrativen Problemen. Diese zeitnah und offen anzugehen, ist eine Herausforderung. Die Probleme entstehen bei der Strafverfolgung, den bürgerlichen Freiheiten und der Exportkontrollpolitik. Sie müssen konfrontiert werden, wenn eine rationale kryptografische Politik einen Rahmen bieten soll, in dem technologische Lösungen funktionieren können.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34873-5_6 139f8eeacce9abc95c83097fa2143fd0;de;;;7.2.;;;Memristives Crossbar-Array mit Anwendungen in der Bildverarbeitung Ein Memristor ist eine Art nichtlinearer Widerstand mit Speicherkapazität. Sein Widerstand ändert sich mit der Menge der durch ihn hindurchgehenden Ladung oder des Flusses. Als viertes grundlegendes Schaltungselement hat es ein enormes Anwendungspotenzial in vielen Bereichen und es wurde erwartet, dass es eine Revolution in der Schaltungstheorie vorantreibt. Durch numerische Simulationen und Schaltungsmodellierung werden die grundlegende Theorie und Eigenschaften von Memristoren analysiert, und dann wird eine Memristor-basierte Kreuzschienenanordnung vorgeschlagen. Das Array kann die Speicherung und Ausgabe von Binär-, Graustufen- und Farbbildern realisieren. Eine Reihe von Computersimulationen demonstriert die Wirksamkeit des vorgeschlagenen Schemas. Aufgrund des Vorteils des memristiven Kreuzschienenarrays bei der parallelen Informationsverarbeitung wird erwartet, dass das vorgeschlagene Verfahren bei der Hochgeschwindigkeits-Bildverarbeitung verwendet wird.;-;-;-;https://link.springer.com/article/10.1007/s11432-011-4410-9 36e4dbf747d60b53dbce09f3c0712789;de;;;7.2.;;;GPX – Gardens Point XML IR auf der INEX 2005 Die Evaluierung von INEX 2005 bestand aus zahlreichen Aufgaben, die unterschiedliche Ansätze erforderten. In diesem Papier haben wir den Ansatz beschrieben, den wir gewählt haben, um die Anforderungen aller Aufgaben, CAS und CO, im Modus Durchsuchen, Fokussieren und Abrufen unter Verwendung desselben zugrunde liegenden Systems zu erfüllen -Baum, bestehend aus allen Knoten, die einen oder mehrere der Suchbegriffe enthalten. Knoten, die Suchbegriffe enthalten, werden dann mithilfe einer TF_IDF-Variante mit einem Score versehen, Scores werden im Dokument-XML-Baum nach oben propagiert und schließlich werden alle XML-Elemente gerankt. Wir präsentieren Ergebnisse, die zeigen, dass der Ansatz vielseitig ist und über alle INEX 2005-Aufgaben hinweg eine konstant gute Leistung liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-34963-1_18 be6d0a37e74fd36a8dce55f837d052ac;de;;;7.2.;;;Verwenden von domänenspezifischen Begriffshäufigkeiten zum Identifizieren und Klassifizieren von Integritätsabfragen In diesem Beitrag schlagen wir eine mehrsprachige Methode vor, um gesundheitsbezogene Anfragen zu identifizieren und sie in Gesundheitskategorien zu klassifizieren. Unsere Methode verwendet ein Verbrauchergesundheitsvokabular und die semantische Struktur des Unified Medical Language System, um den Assoziationsgrad einer Abfrage mit medizinischen Konzepten und Kategorien zu berechnen. Diese Methode kann in verschiedenen Sprachen mit übersetzten Versionen des Gesundheitsvokabulars angewendet werden. Um seine Wirksamkeit und Anwendbarkeit in zwei Sprachen zu bewerten, haben wir zwei manuell klassifizierte Sätze von Abfragen verwendet, jede für eine andere Sprache. Die Ergebnisse sind für die englische Stichprobe besser, bei der ein Abstand von 0,38 zum ROC-Optimumpunkt (0,1) erhalten wurde. Dies zeigt einen gewissen Einfluss der Übersetzung auf die Leistung der Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36981-0_21 8bd23eab77deb0aae8658e8dcee54851;de;;;7.2.;;;Ergebnisdiversifizierung für die Tweet-Suche Als eine der beliebtesten Microblogging-Plattformen verarbeitet Twitter mehr als zwei Milliarden Anfragen pro Tag. Angesichts des Wunsches der Benutzer nach frischen und neuartigen Inhalten, aber ihrer Zurückhaltung, lange und beschreibende Anfragen zu stellen, besteht die unvermeidliche Notwendigkeit, diversifizierte Suchergebnisse zu generieren, um verschiedene Aspekte eines Anfragethemas abzudecken. In diesem Artikel befassen wir uns mit der Diversifizierung der Ergebnisse bei der Tweet-Suche, indem wir verschiedene Methoden aus den Bereichen Textzusammenfassung und Websuche übernehmen. Wir evaluieren alle Methoden umfassend anhand eines speziell darauf zugeschnittenen Standarddatensatzes. Unsere Ergebnisse zeigen, dass implizite Diversifikationsmethoden im aktuellen Setup vielversprechender sind, während explizite Methoden durch eine bessere Darstellung von Abfrageunterthemen ergänzt werden müssen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11746-1_6 d64c370515445cd7f6bddf1be3a75475;de;;;7.2.;;;Designraum für Informationssysteme für Nachhaltigkeit Der interdisziplinäre Charakter der Mensch-Computer-Interaktion (HCI) ermöglicht es, zu einem verbesserten Denken in der Gestaltung und im Prozess der Gestaltung von Informationssystemen beizutragen. Dies ist jedoch ein anspruchsvolles Ziel, da die Transformation des unterschiedlichen gesammelten Wissens von HCI zu Informationssystemdesignern nicht einfach ist, da mehrere Designlösungen zur Verfügung stehen. In diesem Beitrag wird ein Gestaltungsraum zur Gestaltung eines auf Nachhaltigkeit ausgerichteten Informationssystems vorgestellt und diskutiert. Der Designraum könnte als Teil eines neuen Designprozesses gesehen werden oder mit einer bestehenden Designumgebung korrelieren und aus neun verschiedenen Komponenten bestehen, die durch eine Designraumanalyse aufwendig untersucht werden. Unterschiedlich gewählte Dimensionen des vorgeschlagenen Designraums imitieren Wissen aus HCI und das Ergebnis spiegelt somit eine Unterstützung für den erfolgreichen Transfer von Wissen aus HCI an die Informationssystem(IS)-Designer zur Verbesserung eines Designprozesses wider.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-18714-3_3 1e045629b818f1e8b739f7be89162ae2;de;;;7.2.;;;Ein System zur Bewertung der Lerneinstellung zur Lernkonzentration im Fernunterricht Aufgrund der Anforderungen der Internetanwendungen werden eine Vielzahl von Fernunterrichtsmethoden im Internet bereitgestellt. Als Ergebnis haben sich verschiedene Multimedia-Inhalte für die Bildung entwickelt. Ein Problem des Fernunterrichts besteht darin, die Schüler dazu zu bringen, sich auf das Lernen zu konzentrieren, um eine gute Einstellung zu verbessern. Aber es ist ziemlich schwierig, das Verhalten der Studenten und die Aufrichtigkeit der Teilnehmer in den Fernvorlesungen zu bewerten. In diesem Beitrag schlagen wir eine Bewertungsmethode der Lerneinstellung und ein praktisches System in einer Web-Flash-basierten Fernunterrichtsumgebung vor. In dem vorgeschlagenen System werden Studenten des Fernunterrichts bewertet, indem ihr Verhalten verfolgt wird, und somit kann auch ihre Aufrichtigkeit eingeschätzt werden.;-;-;-;https://link.springer.com/chapter/10.1007/11751632_87 99e78e93b5ac0526ac3605e0b7d93ca0;de;;;7.2.;;;Fuzzy-Rough-Hybridisierung Fuzzy Sets und Rough Sets werden als Unsicherheitsmodelle bezeichnet. Sie werden vorgeschlagen, um verschiedene Aspekte der Unsicherheit zu behandeln. Daher ist es naheliegend, sie zu kombinieren, um leistungsfähigere mathematische Werkzeuge zur Behandlung von Problemen unter Unsicherheit zu entwickeln. In diesem Kapitel beschreiben wir den Stand der Technik bei den Kombinationen von Fuzzy- und Rough-Sets, die sich in drei Teile gliedern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-43505-2_26 3f753cf923bda99f5f4ca0a9f0e8ad39;de;;;7.2.;;;Ein Evaluierungsmodell von Business Intelligence für Unternehmenssysteme mit intervallbewertetem intuitivem Fuzzy ARAS Aufgrund der wachsenden Rolle von Business Intelligence (BI) als eine der grundlegenden Komponenten von Informationssystemressourcen sowie als wesentliche Voraussetzungen für den Erfolg einer Organisation ist die Bewertung des Intelligenzniveaus von Unternehmenssystemen vor der Systemimplementierung. Daher bietet diese Studie einen neuen Bewertungsrahmen für BI für Unternehmenssysteme, der eine intervallbewertete intuitive Fuzzy-ARAS-Technik verwendet. ARAS ist eine neue Methode für Probleme der Entscheidungsfindung mit mehreren Attributen (MADM). Im vorgeschlagenen Modell werden eine Reihe von 34 Kriterien aus den wichtigsten BI-Indizes identifiziert und dementsprechend fünf Unternehmenssysteme in Expertengesprächen bewertet. Die Ergebnisse zeigen, dass zu den wichtigsten von Expertengremien definierten Bewertungskriterien die visuelle Darstellung von Grafiken, das Dashboard-Design, die Fähigkeit zur Datenspeicherung, die Erfüllung der Bedürfnisse der Stakeholder und die Möglichkeit einer detaillierten realistischen Analyse gehören. Dann wird eine Alternative als Endauswahl definiert, die eine herausragende Leistung in den Kriterien Groupware-Programme, Gruppenentscheidungswerkzeuge, Trainingstechniken, Datenübertragungsfähigkeit, Wissensinferenz, Unterstützung von Fuzzy-Konzepten unter Mehrdeutigkeit und Unsicherheit, Echtzeitanalyse bietet E-Mail-Kanäle zu verarbeiten, E-Mail-Kanäle zu verwalten und die Zufriedenheit der Stakeholder zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-15409-7_9 8653469bf3b574252a5fb25a155438c2;de;;;7.2.;;;Abfrageformulierung mit einem Suchassistenten Die Informationsflut hat dazu geführt, dass Benutzer mit zu vielen Informationen überschwemmt werden, was dazu führt, dass das Material auf der Suche nach relevanten Inhalten nur schwer durchsucht wird. In diesem Papier behandeln wir dieses Problem aus der Perspektive der Zusammenarbeit bei der Formulierung von Abfragen. Wir beschreiben einen Suchassistenten, der Benutzern bei der Formulierung von Abfragen hilft, indem er verwandte, zuvor übermittelte Abfragen durch Mining-Abfrageprotokolle findet. Der Suchassistent läuft als wiederverwendbare Softwarekomponente und kann in verschiedene Suchmaschinen eingebunden werden. Wir berichten über unsere Vorgehensweise bei der Konzeption und Implementierung der Software und die Evaluierungsergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30544-6_55 206646d8b852826c2c66ec9140ca0c7d;de;;;7.2.;;;Inhaltsbasierte Ähnlichkeitssuche über Peer-to-Peer-Systeme Peer-to-Peer-Anwendungen werden verwendet, um große Datenmengen auszutauschen. Eine wichtige Anforderung dieser Systeme sind effiziente Verfahren zum Auffinden der interessierenden Daten in einer großen Datensammlung. Leider bieten aktuelle Peer-to-Peer-Systeme entweder eine exakte Keyword-Match-Funktionalität oder ineffiziente Textsuchmethoden durch zentralisierte Indizierung oder Überflutung. In diesem Beitrag schlagen wir eine Methode vor, die auf populären Information Retrieval-Techniken basiert, um inhaltsbasierte Suchen in Peer-to-Peer-Systemen zu erleichtern. Eine Simulation des vorgeschlagenen Designs wurde implementiert und seine Leistung wurde unter Verwendung einiger häufig verwendeter Testsammlungen bewertet, darunter Ohsumed, das für den TREC-9 Filtering Track verwendet wurde. Die Experimente zeigen, dass unser Ansatz skalierbar ist, da er einen hohen Wiedererkennungswert erreicht, indem er nur eine kleine Untergruppe der Peers besucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-31838-5_5 e6d2564c3a1c2c9f1ed19c483d2f030f;de;;;7.2.;;;Design, Informationsorganisation und Evaluation des Virtual Museum of the Pacific Digital Ecosystem Dieser Artikel berichtet über das Design, die Organisation und die Evaluierung einer semantischen Webanwendung, die ein kollaboratives Tagging- und Navigationssystem für ein digitales Online-Museum bereitstellen soll. Die wichtigsten technischen Funktionen unserer Anwendung – Virtual Museum of the Pacific genannt – konzentrieren sich auf eine Browsing- und Retrieval-Schnittstelle basierend auf formaler Konzeptanalyse, Abfrageerweiterung für die Textsuche über ein Konzeptgitter, ein erweiterbares verteiltes Datenmodell zur Unterstützung kollaborativer Tagging und seine Web Services-Implementierung. Ziel des Projekts war es, einen praktischen Demonstrator für ein auf formaler Konzeptanalyse basierendes System zum Durchsuchen von Museumsinhalten bereitzustellen und gleichzeitig über seine Auswirkungen auf das organisatorische Umfeld und seine Relevanz für Interessengruppen zu berichten. Dieses Papier präsentiert die wichtigsten Designmerkmale, eine Analyse unserer Zusammenarbeit mit dem Australian Museum und die Ergebnisse zweier unabhängiger Sitzungen zur Erfassung von Anforderungen und zur Bewertung der Benutzerfreundlichkeit.;-;-;-;https://link.springer.com/article/10.1007/s12652-012-0144-9 a85470b5b17ddf3080b3bf71edccdaf9;de;;;7.2.;;;Bewertung von IKT-Investitionen in öffentlichen Verwaltungen anhand von Geschäftsprozessmodellen Innerhalb des öffentlichen Sektors gibt es großes Potenzial für die Geschäftsprozessoptimierung durch IKT. Diese Möglichkeiten bleiben jedoch bis heute weitgehend ungenutzt. Um die Wirkung von IKT-Investitionen zu messen, müssen alle Prozesse einer öffentlichen Verwaltung berücksichtigt werden. Die Modellierungsmethode PICTURE wurde vorgeschlagen, um die gesamte Prozesslandschaft einer öffentlichen Verwaltung effizient zu modellieren. Anhand der erfassten Prozesse können die Auswirkungen bestimmter ICT-Funktionalitäten analysiert werden. IKT-Investitionsentscheidungen werden gegenüber der politischen Führung, den Entscheidungsträgern im öffentlichen Sektor, transparenter. Dieses Papier verfolgt zwei Forschungsziele: Erstens wird eine Architektur für eine halbautomatische Bewertung von IKT-Investitionsentscheidungen vorgestellt. Zweitens wird anhand einer Investitionsentscheidung für ein Dokumentenmanagementsystem die Praxistauglichkeit der Architektur aufgezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85204-9_11 1f68392341cde1b9ddb3c9701311f627;de;;;7.2.;;;A2A: eine Plattform für die Forschung in der biomedizinischen Literaturrecherche Das Auffinden relevanter Literatur ist für viele biomedizinische Forschungsaktivitäten und in der Praxis der evidenzbasierten Medizin von entscheidender Bedeutung. Suchmaschinen wie PubMed bieten eine Möglichkeit, veröffentlichte Literatur bei einer Anfrage zu suchen und abzurufen. Sie sind jedoch darin eingeschränkt, wie Benutzer die Verarbeitung von Anfragen und Artikeln steuern können – oder wie wir sie nennen;-;-;-;https://link.springer.com/article/10.1186/s12859-020-03894-8 95d9a981fb68d9f78bb24c1af1f8f061;de;;;7.2.;;;Vergleichende Bewertung von zwei neuronalen Netzwerk-basierten Techniken zur Klassifizierung von Mikrokalzifikationen in digitalen Mammographien Dieser Artikel untersucht zwei auf neuronalen Netzwerken basierende Techniken zur Klassifizierung von Mikrokalzifikationen in digitalen Mammographien. Beide Techniken extrahieren verdächtige Bereiche mit Mikroverkalkungen aus digitalen Mammographien und klassifizieren sie in zwei Kategorien: ob sie gutartige oder bösartige Cluster enthalten. Die von erfahrenen Radiologen bereitgestellten Schwerpunkte und Radien werden verwendet, um verdächtige Bereiche zu lokalisieren und zu extrahieren. Zwei neuronale Netze basierend auf iterativen und nicht-iterativen Trainingsmethoden werden verwendet, um sie in gutartig oder bösartig zu klassifizieren. Die vorgeschlagenen Techniken wurden in C++ auf dem SP2-Supercomputer implementiert. Für die Experimente wurde die Datenbank des Instituts für Radiologie der Universität Nijmegen verwendet. Die Vergleichsergebnisse sind sehr interessant und vielversprechend. Einige davon sind in diesem Papier enthalten.;-;-;-;https://link.springer.com/article/10.1007/BF03325093 232afbe9c6a43b07c23fb34f7ace215b;de;;;7.2.;;;Dimensionsreduktion für Ähnlichkeitssuche mit dem euklidischen Abstand in hochdimensionalen Anwendungen Beim Multimedia-Informationsabruf werden Multimediadaten als Vektoren im hochdimensionalen Raum dargestellt. Um diese Vektoren effizient zu durchsuchen, wurden verschiedene Indizierungsverfahren vorgeschlagen. Die Leistung dieser Indexierungsmethoden nimmt jedoch mit zunehmender Dimensionalität dramatisch ab, was als . bekannt ist;-;-;-;https://link.springer.com/article/10.1007/s11042-008-0243-y 41b59b2179bcf84467604601fb0e1a72;de;;;7.2.;;;Die Rolle von Inhaltsdarstellungen beim hypermedialen Lernen: Auswirkungen von Aufgaben- und Lernervariablen Wir diskutieren die Rolle von Inhaltsdarstellungen in Hypermedia-Dokumenten. Der Begriff „Inhaltsdarstellung“ umfasst eine breite Kategorie von Wissensvisualisierungsvorrichtungen, die von lokalen Organisatoren, z. B. Überschriften, Einführungen und Konnektoren, bis hin zu globalen Darstellungen, z. Die Textverarbeitungsforschung hat gezeigt, dass die prinzipielle Verwendung von Inhaltsdarstellungen den Erwerb von Wissen aus Texten erleichtern kann. Was die Rolle globaler Inhaltsrepräsentationen beim hypermedialen Lernen angeht, so variieren die Effekte je nach individuellen und situationsabhängigen Variablen. Wir überprüfen empirische Studien, die verschiedene Arten globaler Repräsentationen im Kontext von Verständnis- und Informationssuchaufgaben untersuchen. Die Evidenz deutet darauf hin, dass vernetzte Concept Maps für Benutzer mit einem gewissen Vorwissen in unspezifischen Aufgabenkontexten am effektivsten sind.;-;-;-;https://link.springer.com/chapter/10.1007/11510154_18 bc480d8150c189f866fa66afddd707bd;de;;;7.1.;;;Integritätsprobleme in verteilten Abrechnungssystemen mit semantischen ACID-Eigenschaften Viele große Unternehmen verfügen über eine physisch verteilte Vertriebs- und/oder Produktionsorganisation. In einer solchen Organisation kann ein verteiltes ERP-System (Enterprise Resource Planning) die Leistung und Reaktionszeit optimieren, indem es Daten lokal an den Orten speichert, an denen sie normalerweise verwendet werden. Werden traditionelle ACID-Eigenschaften (Atomity, Consistency, Isolation and Durability) in einem solchen System implementiert, wird die Verfügbarkeit des Systems reduziert, da häufig Aktualisierungstransaktionen nur ausgeführt werden können, wenn sie sowohl Zugriff auf lokale als auch auf entfernte Datenbanken haben. Dieses Problem kann reduziert werden, indem nur semantische ACID-Eigenschaften verwendet werden, d. h. aus Anwendungssicht sollte das System so funktionieren, als ob alle traditionellen ACID-Eigenschaften implementiert worden wären. Dieses Papier veranschaulicht, wie die Integritätsprobleme, die durch die Verwendung semantischer ACID-Eigenschaften verursacht werden, in verteilten Abrechnungssystemen gelöst werden können. Einige der in diesem Dokument beschriebenen Techniken können jedoch auch verwendet werden, um die Leistung und Verfügbarkeit in zentralisierten Buchhaltungssystemen zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35501-6_11 ad164e2cc4fa48946011da9b8c07d57b;de;;;7.1.;;;Eine wissensbasierte Modellierung von Krankenhausinformationssystemen In diesem Beitrag weisen wir auf die Notwendigkeit hin, dass große Informationssysteme und insbesondere Krankenhausinformationssysteme ein wissensbasiertes Modell des abgedeckten Bereichs umfassen. Wir diskutieren die Eigenschaften eines solchen Modells und stellen die in früheren Projekten übernommene Wissensrepräsentation vor. Anschließend wird der XQL-Formalismus eingeführt, der es Anwendungsprogrammen ermöglicht, das Modell zur Laufzeit abzufragen. Das theoretische Modell und die operationelle Semantik von XQL werden vorgestellt und diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-60025-6_148 9b51b3c0aa2ce0e507d94096e12e02db;de;;;7.2.;;;Programmierunterstützung für datenintensive Anwendungen Relations sind dabei, als Datenstruktur für eine Vielzahl von Anwendungen adäquat akzeptiert zu werden. Dies liegt zum einen an den leistungsstarken und hochrangigen Operatoren für Relationen, zum anderen an zusätzlichen Diensten wie Recovery Management, Concurrency Control und Expression Optimization, die von relationalen Systemen bereitgestellt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82384-8_9 f6c98607da06032d206b8b677a61b994;de;;;7.2.;;;Was geschah im CLEF 2009 Die Organisation der Bewertungskampagne des CLEF 2009 wird beschrieben und Einzelheiten zu den Strecken, Testsammlungen, Bewertungsinfrastruktur und Teilnahme werden bereitgestellt. Ziel ist es, dem Leser dieses Proceedings ein vollständiges Bild der gesamten Kampagne zu vermitteln, das sowohl Text- als auch Multimedia-Retrieval-Experimente umfasst. Im letzten Abschnitt werden die wichtigsten Ergebnisse des CLEF in den ersten zehn Jahren seiner Tätigkeit diskutiert und Pläne für die Zukunft des CLEF vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15751-6_1 002ed5ddf5505da53e44200779561684;de;;;7.1.;;;Szenariobasierte Modellierung in industriellen Informationssystemen Dieses Manuskript befasst sich mit der Erstellung szenariobasierter Modelle, um über das Verhalten bestehender industrieller Informationssysteme nachzudenken. In unserem Ansatz wird das Systemverhalten in zwei Schritten modelliert, die nach und nach Detail und Formalität einführen. Dieses Manuskript befasst sich mit dem ersten Schritt, in dem textbasierte Beschreibungen in Form von strukturierten Regeln verwendet werden, um festzulegen, wie das System geregelt ist oder werden soll. Diese Regeln können verwendet werden, um Verhaltens-Snapshots zu erstellen, bei denen es sich um Sammlungen von szenariobasierten Beschreibungen handelt, die verschiedene Instanzen des Systemverhaltens darstellen. Snapshots werden in einer intuitiven und grafischen Notation spezifiziert, die die Elemente aus der Problemdomäne berücksichtigt und es Designern ermöglicht, das extern beobachtbare Verhalten zusammen mit den Domänenexperten zu diskutieren und zu validieren. Im zweiten Schritt (in diesem Manuskript nicht vollständig behandelt) wird das Systemverhalten mit einem ausführbaren Modell formalisiert. Dieses formale Modell, das in unserem Ansatz in der Sprache Colored Petri Net (CP-nets) spezifiziert ist, ermöglicht die Animation, Simulation und Optimierung des systeminternen Verhaltens. Die durch das Experimentieren mit dem formalen Modell gewonnenen Erkenntnisse können anschließend für das Reengineering des bestehenden Systems genutzt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15234-4_4 5625641c7c0d8b64100f9861cd9420d2;de;;;7.1.;;;Implementierung eines Gesundheitsinformationssystems: Eine qualitative Metaanalyse Gesundheitsinformationssysteme (KIS) werden häufig eingesetzt, um die Qualität und Patientenzentrierung der Versorgung zu verbessern sowie die Effizienz und Sicherheit der Dienste zu verbessern. Die Ergebnisse der HIS-Implementierungen haben jedoch die Erwartungen nicht erfüllt. Wir haben uns zum Ziel gesetzt, die gewonnenen Erkenntnisse aus qualitativen Studien im Zusammenhang mit KIS-Implementierungen zu organisieren und daraus eine aktualisierte Struktur für die Umsetzungsplanung zu skizzieren. Ein multidisziplinäres Team führte die Analysen durch, um möglichst viele Aspekte der Primärstudien abzudecken. Wir haben festgestellt, dass die bloße Implementierung eines KIS nicht automatisch die Effizienz der Organisation erhöht. Strategische, taktische und operative Maßnahmen müssen in Betracht gezogen werden, einschließlich der Einbeziehung des Managements, der Integration in den Arbeitsablauf des Gesundheitswesens, der Herstellung der Kompatibilität zwischen Software und Hardware und vor allem der Einbeziehung der Benutzer, Aus- und Weiterbildung. Die Ergebnisse sollten als Schema höherer Ordnung und nicht als Vorhersagetheorie interpretiert werden.;-;-;-;https://link.springer.com/article/10.1007/s10916-008-9198-9 36aad03e96870c5e118215f419deec93;de;;;7.2.;;;Bewertung der Sicherheitsmarge der Finalisten des SHA-3-Wettbewerbs durch SAT-basierte Angriffe Im Jahr 2007 hat das US-amerikanische National Institute of Standards and Technology (NIST) einen öffentlichen Wettbewerb zur Auswahl eines neuen Standards für eine kryptografische Hash-Funktion ausgeschrieben. In diesem Papier wird die Sicherheitsmarge von fünf SHA-3-Finalisten unter der Annahme bewertet, dass Angriffe auf Finalisten praktisch verifiziert werden sollten. Eine Angriffsmethode wird als logische Kryptoanalyse bezeichnet, bei der die ursprüngliche Aufgabe als Erfüllbarkeitsproblem ausgedrückt wird. Um die mühsamsten Schritte dieser Art der Kryptoanalyse zu vereinfachen und die Angriffe einheitlich zu montieren, wird ein neues Toolkit verwendet. Im Zusammenhang mit SAT-basierten Angriffen hat sich gezeigt, dass alle Finalisten einen wesentlich größeren Sicherheitsspielraum haben als die aktuellen Standards SHA-256 und SHA-1.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33260-9_4 688cb3b2ef64ee0214626df3a08d9808;de;;;7.2.;;;Ein Warnhinweis bezüglich der Datenintegritätskapazität bestimmter sicherer Systeme Die Notwendigkeit, kommerzielle Standard-Produktivitätsanwendungen als universelle Benutzerschnittstelle für hochsichere Datenverarbeitungsumgebungen bereitzustellen, ist zwingend und hat zu Vorschlägen für verschiedene Arten von „vertrauenswürdigen“ Systemen geführt. Wir charakterisieren einige dieser Systeme als eine Klasse von Architekturen. Wir diskutieren die allgemeine Integritätseigenschaft, die;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35583-2_1 3f37375a5ad12f881ebcf14656297fc7;de;;;7.2.;;;Gewichtetes Evaluierungs-Framework für plattformübergreifende App-Entwicklungsansätze Die plattformübergreifende App-Entwicklung ist eine große Herausforderung, obwohl nur zwei Plattformen mit signifikantem Marktanteil (iOS und Android) verbleiben. Während die Gerätefragmentierung – mehrere, nur teilweise kompatible Versionen einer Plattform – die Sache bereits erschwert hat, ist die Notwendigkeit, unterschiedliche Geräteklassen anzusprechen, ein neues Phänomen. Smartphones und Tablets sind sich relativ ähnlich, aber App-fähige Geräte wie Fernseher und sogar Autos haben in der Regel unterschiedliche Fähigkeiten. Um die Nutzung plattformübergreifender App-Entwicklungsansätze zu erleichtern, präsentieren wir Arbeiten an einem Bewertungsrahmen. Unser Framework bietet eine Reihe aktueller Bewertungskriterien. Im Gegensatz zu früheren Arbeiten zu diesem Thema bietet es eine gewichtete Bewertung, um Sorten in bestimmten Geräteklassen zu berücksichtigen. Neben der Motivation und Erläuterung der Bewertungskriterien stellen wir eine exemplarische Anwendung für einen Entwicklungsansatz und als Benchmarks für native Apps und Webapps vor. Unsere Ergebnisse legen nahe, dass die Verbreitung von App-fähigen Geräten den Bedarf an verbesserter Entwicklungsunterstützung verstärkt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-46642-2_2 26f5163f7e830eaa082f8bd02c7bf04b;de;;;7.2.;;;Eine Bewertung der Intuition der PGA Modeling Language Notation Die Modellierungsmethode Process-Goal-Alignment (PGA) ist eine domänenspezifische Modellierungssprache, die darauf abzielt, eine strategische Anpassung der Geschäftsstrategie an die interne Infrastruktur und Prozesse zu erreichen. Um die Akzeptanz und das richtige Verständnis von PGA-Modellen durch geschäftsorientierte Endanwender sicherzustellen, ist eine intuitiv verständliche Notation von größter Bedeutung. Die aktuelle PGA-Notation wurde jedoch bisher nicht formal getestet. In der vorliegenden Arbeit wenden wir eine Evaluierungstechnik zum Testen der Intuitivität domänenspezifischer Modellierungssprachen an, um diese Forschungslücke zu schließen. Basierend auf einer Analyse der Aufgaben schlagen wir Verbesserungen an sechs Elementen der ursprünglichen PGA-Notation vor. Unsere Forschung trägt zu einer umfassenden Beschreibung der empirischen Modellierungssprachenbewertung bei, die die Reproduzierbarkeit des Bewertungsverfahrens durch die konzeptionelle Modellierungsgemeinschaft ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-49418-6_27 8c1c51d57ea379f861a5aaa7f5731bdb;de;;;7.2.;;;Semiotic Engineering – ein neues Paradigma für den Entwurf interaktiver Systeme Dieses Papier präsentiert Semiotic Engineering - eine semiotische Theorie der HCI. Die Theorie hat den Vorteil, Backend- und Frontend-Design- und Entwicklungsperspektiven in einen einzigen Metakommunikationsprozess zu integrieren, der die Erfahrung des Benutzers und letztendlich den Erfolg jedes Systems beeinflusst. Anhand anschaulicher Beispiele zeigen wir, welche Effekte mit der Theorie erzielt werden können und diskutieren, warum eine semiotische Perspektive für die Zukunft von Informationssystemen relevant ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34732-5_21 e7598c9ab5700eaa5118bd1d68e07a4c;de;;;7.2.;;;Eine evolutionsbasierte robuste Bewertungsmethode für sozialen Einfluss in sozialen Online-Netzwerken Online Social Networks (OSNs) werden immer beliebter und ziehen viele Teilnehmer an. Bei OSN-basierten E-Commerce-Plattformen ist die Bewertung eines Produkts durch einen Käufer einer der wichtigsten Faktoren für die Entscheidungsfindung anderer Käufer. Ein Käufer, der qualitativ hochwertige Bewertungen abgibt, hat daher einen starken sozialen Einfluss und kann das Kaufverhalten vieler Teilnehmer in OSNs beeinflussen. Die unehrlichen Teilnehmer können jedoch die bestehenden Modelle zur Bewertung des sozialen Einflusses betrügen, indem sie einige typische Angriffe verwenden, wie z;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11746-1_10 578e952fa79d443539389a36c419af04;de;;;7.2.;;;Säulenspeicher als IR-Prototyping-Tool Wir schlagen vor, dass IR-Forscher, anstatt benutzerdefinierte Indexstrukturen und Abfrageauswertungsalgorithmen zu implementieren, einfach Dokumentdarstellungen in einer spaltenorientierten relationalen Datenbank speichern und Rankingmodelle mit SQL schreiben sollten. Für das Rapid Prototyping ist dies besonders vorteilhaft, da Forscher neue Ranking-Funktionen und -Features durch einfaches Ausgeben von SQL-Abfragen erkunden können, ohne zwingenden Code schreiben zu müssen. Wir demonstrieren die Machbarkeit dieses Ansatzes durch eine Implementierung von konjunktivem BM25 mit MonetDB auf einem Teil der ClueWeb12-Sammlung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06028-6_97 933bddf26a4040f96b6ef767fdcb7e19;de;;;7.2.;;;Tabellenkalkulation von computergestützten Krankenakten: Die Auswirkungen auf Qualität, Zeit und Geld Informations- und Kommunikationstechnologien spielen vermutlich eine entscheidende Rolle bei der Verbesserung der Effektivität und Effizienz der klinischen Versorgung. Obwohl die vielversprechendsten Richtungen der technologischen Entwicklung mikrocomputergenerierte computergestützte Krankenaktensysteme sind, war die Dokumentation ihres Wertes eine große Herausforderung für Gesundheitsdienstleister. Dieses Papier schlägt ein 15-Item-Tabellenkalkulationsinstrument zur Auswertung computergestützter Krankenakten vor und zeigt, wie es experimentell auf eine 6-jährige Erfahrung an drei Standorten angewendet wurde. Abschließend werden erste Implikationen und Leitlinien für Praxis und Forschung in diesem Bereich gezogen.;-;-;-;https://link.springer.com/article/10.1007/BF02260893 1153dc8ab3451c8a2231f70ef3b3a74a;de;;;7.2.;;;Verteilungskorrespondenzindexierung für die sprachübergreifende Textkategorisierung Cross-Language Text Categorization (CLTC) zielt darauf ab, einen Klassifikator für eine Zielsprache zu erstellen, wenn die einzigen verfügbaren Trainingsbeispiele zu einer anderen Quellsprache gehören. Bestehende CLTC-Methoden sind meist mit hohem Rechenaufwand behaftet, benötigen externe linguistische Ressourcen oder erfordern einen erheblichen menschlichen Annotationsaufwand. Dieses Papier stellt eine einfache, aber effektive CLTC-Methode vor, die auf der Projektion von Merkmalen aus Quell- und Zielsprachen in einen gemeinsamen Vektorraum basiert, indem ein rechnerisch leichtgewichtiges Verteilungskorrespondenzprofil in Bezug auf einen kleinen Satz von Pivot-Termen verwendet wird. Experimente mit einem populären Sentiment-Klassifizierungsdatensatz zeigen, dass unsere Methode im Vergleich zu modernsten Methoden günstig abschneidet und einen erheblich geringeren Rechenaufwand und minimale menschliche Eingriffe erfordert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16354-3_12 a228b17619e8c598f6208625d42e57f3;de;;;7.2.;;;mNIR: Diversifizierung der Suchergebnisse basierend auf einer Mischung aus Neuheit, Absicht und Relevanz Aktuelle Suchmaschinen berücksichtigen beim Ranking der Suchergebnisse nicht explizit unterschiedliche Bedeutungen und Verwendungen von Nutzeranfragen. Daher neigen sie dazu, Ergebnisse abzurufen, die die gängigsten Bedeutungen oder Verwendungen der Abfrage abdecken. Folglich müssen Benutzer, die Ergebnisse wünschen, die eine seltene Bedeutung oder Verwendung einer Abfrage abdecken, oder Ergebnisse, die alle verschiedenen Bedeutungen/Verwendungen abdecken, möglicherweise eine große Anzahl von Ergebnissen durchgehen, um die gewünschten zu finden. Ein weiteres Problem aktueller Suchmaschinen ist, dass sie die Intention der Nutzer nicht ausreichend berücksichtigen. In diesem Beitrag stellen wir einen neuartigen Ergebnisranking-Algorithmus (mNIR) vor, der explizit;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35063-4_43 c919cb0618e36f9e3ae55291641013be;de;;;7.2.;;;Semantisch vernetzte soziale Netzwerke Die Analyse sozialer Netzwerke zielt darauf ab, Kooperationen zu identifizieren und hilft den Menschen, sich durch die Teilnahme an der Gemeinschaft und den Informationsaustausch zu organisieren. Die primären Quellen für die Modellierung sozialer Netzwerke sind explizite Beziehungen wie Co-Authoring, Zitate, Freundschaft usw. Um jedoch die Integration von Online-Community-Informationen zu ermöglichen und den Inhalt und die Struktur von Community-Sites vollständig zu beschreiben, sind sekundäre Informationsquellen , wie Dokumente, E-Mails, Blogs und Diskussionen, ausgenutzt werden. In diesem Papier beschreiben wir eine Methodik und eine Reihe von Werkzeugen, um automatisch die relevanten Themen, die zwischen den Community-Mitgliedern geteilt werden, aus Dokumenten zu extrahieren und die Entwicklung des Netzwerks auch im Hinblick auf das Aufkommen und Vergehen von Kollaborationsthemen zu analysieren. Die Experimente werden in einem von der Europäischen Gemeinschaft finanzierten wissenschaftlichen Netzwerk, dem INTEROP-Exzellenznetzwerk, und in der britischen Forschungsgemeinschaft zum Verständnis und zur Analyse medizinischer Bilder durchgeführt.;-;-;-;https://link.springer.com/article/10.1007/s13278-011-0030-z 1a536df6b23a8ab248f51ddf2745f692;de;;;7.2.;;;Ein adaptives Modell für die Suche nach phonetischen Zeichenfolgen Die Suche nach phonetischen Zeichenfolgen in geschriebenem Text ist ein wichtiges Thema im Information Retrieval (IR). Eine große Schwierigkeit sind die Inkonsistenzen zwischen Relevanzbeurteilungen, die es möglich machen, dass eine erfolgreiche Methode mit einem neuen Datensatz scheitert. In diesem Artikel wird ein adaptives Modell diskutiert, das auf dem neuartigen Suchalgorithmus für Silbenausrichtungsmuster basiert. Experimentelle Ergebnisse zeigen, dass es bequem und effektiv ist, für verschiedene Datensätze trainiert zu werden.;-;-;-;https://link.springer.com/chapter/10.1007/11553939_129 10797862dc5a5f3e84c12ee62e02988b;de;;;7.2.;;;Eine Annotationsmethode und Anwendung für Videoinhalte basierend auf einem semantischen Graphen Die fortschreitende Digitalisierung bei Sendeanstalten ermöglicht die gedankliche Produktion hochwertiger Inhalte aus Videomaterial. Metadaten spielen eine wichtige Rolle bei der Beschreibung der Semantik multimedialer Inhalte, indem sie bei der semantischen Strukturierung von Videomaterial helfen. In diesem Beitrag schlagen wir eine Annotationsmethode für Videoinhalte vor, die auf dem Konzept eines semantischen Graphen basiert und semantische Abfragen von Videoinhalten ermöglicht. Diese Methode beinhaltet drei Ideen: eine Annotation für Metadaten zu Videoszenen, Zeitreihenlinks zwischen Videoszenen und semantische Links zu externen Daten. Bei dem vorgeschlagenen Annotationsverfahren werden Metadaten als menschliche Annotationen bereitgestellt, die für TV-Produktionen praktisch sind. Wir präsentieren auch die Anwendung eines semantischen Graphen auf reale Baseballspielinhalte und bewerten diese Anwendung, um die Nützlichkeit der vorgeschlagenen Annotationsmethode zu zeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30541-5_59 f1c870d67f7b803e177f2b1f797e58e6;de;;;7.1.;;;Informationssicherheitsmanagement für Hochschulen Informationssicherheit zielt darauf ab, die Informationsressourcen einer Organisation vor unbefugtem Zugriff, Offenlegung und Zerstörung zu schützen. Damit die Informationssicherheit effektiv durchgesetzt werden kann, sollten bewährte Managementpraktiken, die Richtlinien und Kontrollen umfassen, eingeführt werden. Dieser Beitrag untersucht das Informationssicherheitsmanagement für Hochschulen. Ausgehend von der klassischen CIA (Vertraulichkeit, Integrität und Verfügbarkeit) Trias von Informationen werden acht Kontrollbereiche zur Informationssicherheit identifiziert. Dazu gehören Kontrollen von Informationsressourcen, Personalkontrollen, physische Kontrollen, Zugangskontrollen, Kommunikationskontrollen, Betriebskontrollen, Kontrollen des Informationssystems sowie Incident Management und Business Continuity. Ein Governance-Framework ist wichtig, um die Richtlinien festzulegen und die Kontrollen der Informationssicherheit auszuführen. Es gilt, ein ausgewogenes Verhältnis zwischen technischer Machbarkeit und Flexibilität und Effizienz in der Verwaltung zu wahren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07776-5_2 2479afbe54d9dbeea7e98d089ddd5629;de;;;7.1.;;;Design eines fachorientierten Referenzmodells für Change Management Die ITIL ist eine etablierte Präsenz in der ICT-Praxis, die einen gewissen Spielraum für die domänenspezifische Implementierung lässt. Die Komplexität bestehender IT-Lösungen und immer kürzere Entwicklungszeiten verursachen zunehmend Probleme bei der Umsetzung der ITIL-Prozesse. Dieser Beitrag greift diese Problematik mit Bezug zum Change Management auf und zeigt, wie sie mit Hilfe des subjektorientierten Geschäftsprozessmanagements (S-BPM) und der Referenzmodellierung in der Praxis angegangen wird. Der Problembeschreibung folgt eine Diskussion der konzeptionellen Grundlagen der ITIL und der zentralen Merkmale von S-BPM, mit deren Hilfe ein konzeptionelles Referenzmodell für den Bereich Change Management entworfen wird. Dieses Modell wird mit Fokus auf die beteiligten Subjekte, deren Interaktionen und Verhaltensmuster vorgestellt. Wir belegen die Praktikabilität des Modells anhand eines generischen Beispiels und schließen abschließend mögliche Nutzenpotenziale.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06065-1_5 58a947aa9f87d45ffba00a62fc403821;de;;;7.2.;;;Nullwerte in Fuzzy-Datenbanken Da es in der realen Welt oft vorkommt, dass Informationen fehlen, benötigen Datenbanksysteme eindeutig einige Möglichkeiten, um mit fehlenden Daten umzugehen. In Bezug auf traditionelle Datenbanksysteme basiert der am häufigsten verwendete Ansatz für dieses Problem auf Nullwerten und dreiwertiger Logik. Dieser Artikel befasst sich mit der Semantik und der Verwendung von Nullwerten in Fuzzy-Datenbanken. Beim Umgang mit fehlenden Informationen wird zwischen Unvollständigkeit wegen Nichtverfügbarkeit und Unvollständigkeit wegen Nichtanwendbarkeit unterschieden. Sowohl die Aspekte der Datenbankmodellierung als auch der Datenbankabfrage werden beschrieben. In Bezug auf Attributwerte wird Unvollständigkeit aufgrund von Nichtverfügbarkeit durch Möglichkeitsverteilungen modelliert, was eine in Fuzzy-Datenbanken häufig verwendete Technik ist. Domänenspezifische Nullwerte, dargestellt durch ein unteres Symbol, werden verwendet, um Unvollständigkeit aufgrund von Unanwendbarkeit zu modellieren. Erweiterte possibilistische Wahrheitswerte werden verwendet, um die Auswirkungen von Datenmanipulationen und (flexiblen) Abfrageoperationen in Gegenwart dieser Nullwerte zu formalisieren. Die verschiedenen Fälle des Auftretens von Nullwerten bei der Behandlung von Auswahlbedingungen flexibler Datenbankabfragen werden ausführlich beschrieben.;-;-;-;https://link.springer.com/article/10.1007/s10844-006-0021-0 b723e706ed14d894b3ade3906d1230f1;de;;;7.1.;;;Einführung von Informationssystemen für Führungskräfte in Organisationen: Fakten von Trugschlüssen trennen Mehrere Faktoren wurden von Forschern vorgeschlagen, um zu erklären, warum Unternehmen motiviert sind, jetzt Executive Information Systems (EIS) einzuführen. Diese werden in diesem Beitrag identifiziert und kategorisiert und die Ergebnisse einer empirischen Studie vorgestellt, die die Relevanz dieser Faktoren in der Praxis untersucht hat. Die Ergebnisse der Studie stellen die Relevanz und Validität einiger der identifizierten Faktoren in Frage – insbesondere, dass EIS auf Wunsch von Führungskräften eingeführt werden, die zunehmend Computerkenntnisse haben und EIS als Mittel zur Bewältigung des heutigen extremen Wettbewerbs sehen Geschäftsumfeld. Die Studienergebnisse deuten darauf hin, dass die IS-Abteilung die;-;-;-;https://link.springer.com/article/10.1057/jit.1994.31 10842b681c2cfc58d3cc70d9ac73696d;de;;;7.1.;;;Das richtige Maß an Agilität in komplexen Prozessen Viele Unternehmen, die ihren Entwicklungsprozess auf Agile umstellen, passen diese Methoden später an ihre spezifischen Bedürfnisse an, kehren zu traditionellen Prozessen zurück oder setzen ihre agile Initiative nicht fort. Gerade angesichts der enormen Domänenvielfalt von Informationssystemen bis hin zu eingebetteten Systemen ist es notwendig, für jeden Kontext das richtige Maß an Agilität zu finden. Unser Ziel ist es zu beschreiben, wie Agilität in reichhaltige Prozesse integriert werden kann. Die Zusammenführung der Vorteile dieser beiden Organisationswelten sollte zu einer nützlichen, pragmatischen und praktikablen Lösung führen. Diese Integration kann mit zwei unterschiedlichen Ansätzen erfolgen: revolutionär und evolutionär. Bei dem revolutionären Ansatz wird eine agile Methode eingeführt, um den aktuellen Entwicklungsprozess zu ersetzen. Beim evolutionären Ansatz wird der bestehende Prozess um geeignete und nutzbringende agile Aspekte erweitert. Beide Ansätze haben Vorteile für bestimmte Domänen oder Kontexte. Nach dem Vergleich der beiden Ansätze und verwandter Implementierungen des revolutionären Ansatzes konzentriert sich dieses Kapitel auf die Integration agiler Praktiken, einem spezifischen evolutionären Ansatz, aufgrund des Mangels an vorhandener Forschung. Mit unserem Vergleich auf Basis der Vor- und Nachteile dieser beiden Integrationsansätze, deren detaillierter Beschreibung und einigen dazugehörigen Implementierungen bieten wir eine Grundlage für weitere Untersuchungen im Bereich der Kombination agiler und reichhaltiger Prozesse, um den richtigen Grad an Agilität zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-31545-4_2 265ad4abc01a001dcc751cafd8f8f4c6;de;;;7.2.;;;MRT-Bildgebungsmechanismus des Gehirns basierend auf tiefer visueller Informationswahrnehmung und Induktion des Demenzgrads Die traditionellen medizinischen Bilderkennungsverfahren sind durch Bildauflösung, Bildhelligkeit und Farbverarbeitungsparameter begrenzt, und die Bewertung der Bildqualität ist gering. Insbesondere die unvollständige visuelle Information medizinischer Bilder und die Störung der Farbstruktur erhöhen die Komplexität der menschlichen visuellen Wahrnehmung und Erkennung erheblich und die Genauigkeit ist schlecht. Um die oben genannten Probleme zu lösen, basiert diese Arbeit auf dem Mechanismus der Informationswahrnehmung des tiefen Gehirns und der Demenz-induzierten Magnetresonanztomographie (BMI-DVDI). Einerseits sind auf der Grundlage der Tiefenfusion des visuellen Informationssystems das medizinische Bildtiefensichtsystem und dessen Wahrnehmungsmodell mit hoher Präzision und geringer Komplexität auf die beiden Schäden der medizinischen Bildqualität und der Wahrnehmung visueller Informationen ausgelegt. Andererseits wird das Demenzmodell mittels Matrixdarstellung des Demenzbildsignals, Screening des Demenzsensorsignals und Bildrekonstruktion entworfen. Das Modell ist hilfreich, um die Probleme der Bildsignalverformung, der Messgenauigkeit des Signalgrades und der Rekonstruktion der Bildverbesserung in der Magnetresonanztomographie des Gehirns zu lösen. Dieses Modell erhöht die Genauigkeit von Hirnerkrankungen wie Demenz. Dann kombinieren wir den Wahrnehmungsalgorithmus mit dem Demenzgrad im Gehirn und wenden ihn auf das MRT des Gehirns an. Schließlich werden durch Simulationsexperimente und Kernspintomographieexperimente die Raumkomplexität, Zeitkomplexität, Systemausführungseffizienz und Bildqualitätsbewertung verglichen. Das Ergebnis ist, dass der vorgeschlagene Algorithmus eine ausgezeichnete Leistung aufweist.;-;-;-;https://link.springer.com/article/10.1007/s11042-018-6506-3 f77f64c325501638a2c08cec1714f4c2;de;;;7.2.;;;Entscheidungsunsicherheit bei ERP-Investitionen Investitionen in ERP-Projekte sind zu einem dominierenden Teil der IT-Investitionen vieler Unternehmen geworden. Herkömmliche Ansätze für eine solche Projektbewertung basieren hauptsächlich auf dem internen Zinsfuß (IRR) und dem Nettogegenwartswert (NPV). Diesen Ansätzen fehlt jedoch die Fähigkeit, mit den Unsicherheiten im Entscheidungsprozess der ERP-Investition umzugehen. Auf der Grundlage von Risiko- und Unsicherheitsanalysen verwendet diese Studie ein mathematisches Modell, um ein analytisches ERP-Entscheidungsmodell basierend auf realen Optionen zu entwerfen. Das Modell hat die Unsicherheiten und die Flexibilität des Managements berücksichtigt, es ist angemessener, ERP-Projektinvestitionen in Unsicherheit zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75902-9_9 f6e378259c4c8732ca2d59250e6dc754;de;;;7.2.;;;Bewertung des E-Government nach BSC Die rasante Entwicklung der Informations- und Kommunikationstechnologien hat zur Entstehung des E-Government geführt. Zur Evaluierung des E-Government wurden verschiedene Ansätze verfolgt. Dieses Papier schlägt den Balanced Scoreboard-Ansatz vor und versucht, einen systematischen Bewertungsrahmen zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75494-9_48 1ffceacd7b8001fad86a40bf339f594e;de;;;7.2.;;;Bewertung des zeitlichen Auflösungseffekts in Fernerkundungsstudien zum Nachweis der Pflanzenphänologie Fernerkundungsbasierte phänologische Erkennungsverfahren wurden eingesetzt, um Land- und Forstwirtschaft und andere Vegetationen auf ihr Potenzial zu untersuchen, die Veränderungen des Klimawandels widerzuspiegeln. Diese Studien verwendeten normalerweise Zeitreihen des Normalized Difference Vegetation Index (NDVI), die von verschiedenen Sensoren durch einen Maximum Value Compositing (MVC)-Prozess generiert wurden, der die Kontamination durch Wolken minimiert und gleichzeitig die zeitliche Genauigkeit verschlechtert. In dieser Studie bewerten wir den Einfluss der zeitlichen Auflösung auf die Ableitungsforschung der Pflanzenphänologie, indem wir drei verschiedene Datensätze des Moderate Resolution Imaging Spectroradiometer (MODIS) vergleichen: tägliche Oberflächenreflexion, 8-tägige zusammengesetzte Oberflächenreflexion und 16-tägige zusammengesetzte NDVI. Die Oberflächenreflexionsdaten wurden zuerst gefiltert, indem Hilfsdaten verwendet wurden, die Qualitäts- und Betrachtungsgeometrieinformationen enthielten, und dann verwendet, um NDVI mit einem bestimmten Datum zu berechnen. Eine Methode der kleinsten Quadrate wurde verwendet, um die Überlebensdatenpunkte an die doppelte logistische Funktion anzupassen. Und schließlich wurden sieben zeitbezogene Metriken erhalten und mit Feldbeobachtungskultur-Phänologiestadien abgeglichen. Diese phänologischen Daten von Fernerkundungsderivaten wurden mit den wöchentlichen Erntefortschrittsberichten des National Agricultural Statistics Service (NASS) verglichen, um die Leistungsfähigkeit dieser Datensätze in zeitsensitiven Studien zu bewerten. Die Ergebnisse zeigten, dass tägliche Oberflächenreflexionsdatensätze die genaueste Quelle für zeitkritische Studien waren. Jedoch sollten zusätzliche Hilfsdaten und geeignete Entrauschungstechniken angewendet werden, um die Zeitreihenkurve zu rekonstruieren. Der phänologische Abgleich ist ein notwendiger Schritt, bevor phänologische Informationen aus Fernerkundungsbildern für einen bestimmten Landbedeckungstyp erfasst werden, da gleiche phänologische Stadien verschiedener Pflanzenarten unterschiedliche Gegenstücke auf der Zeitreihenkurve haben können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27278-3_16 ff453eba6cdcc8cf2c004fa293f5b007;de;;;7.1.;;;Ein skalierbares Framework für Multimedia-Wissensmanagement In diesem Papier beschreiben wir ein Wissensmanagement-Framework, das die Bedürfnisse von Multimedia-Analyseprojekten adressiert und eine Grundlage für Information-Retrieval-Systeme bietet. Das Framework verwendet;-;-;-;https://link.springer.com/chapter/10.1007/11930334_2 a9e803182564b12c2d636edc7d245269;de;;;7.1.;;;Funktionale Anforderungen an ein kollaboratives Auftragsmanagement-Tool für den Einsatz in einer Engineering-Umgebung Wenn Produkte auftragsbezogen entwickelt werden, erfordert die Erfüllung der Kundenerwartungen ein effizientes Auftragsmanagement. Trotz ihrer Bedeutung ist die Literatur zum Auftragsmanagement in der Auftragsfertigung rar. Dieses Papier trägt dazu bei, diese Lücke zu schließen, indem es funktionale Anforderungen an ein kollaboratives Auftragsmanagement-Tool für den Einsatz im Engineering-Umfeld darstellt. Die funktionalen Anforderungen wurden aus der Theorie abgeleitet und durch Interviews mit zwei Fallunternehmen validiert und erweitert. Das Feedback der Fallunternehmen unterstützt die Nützlichkeit und Gültigkeit der vorgeschlagenen Anforderungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41263-9_32 eeee79b9e59c07516e0d824575e15e65;de;;;7.1.;;;Organisationsarchitektur eines Smart Urban Planning Simulationsmodells in einer Big-Data-Umgebung Mit der Vertiefung der Pilotarbeit von Smart Cities fehlt den traditionellen zweidimensionalen Vektordaten die Intuition im Ausdruck und können den Anforderungen wissenschaftlicher und verfeinerter Arbeiten nicht mehr gerecht werden. Gegenwärtig neigen die meisten Planungen von Smart Cities auf höchster Ebene dazu, dem Aufbau von Informationsdiensten mehr Aufmerksamkeit zu schenken, und vernachlässigen die letztendliche Forderung der Stadtentwicklung, die sich auf die wirtschaftliche Gestaltung des Stadtraums und die rationelle Allokation von Faktorressourcen konzentriert. Vor diesem Hintergrund, basierend auf dem Entwurf von Stadtplanungs- und Simulationsmodellen im Big-Data-Umfeld, untersucht dieses Papier die inhärenten Gesetzmäßigkeiten des Stadtbetriebs durch Big-Data-Analyse der im Stadtbetrieb bestehenden Probleme und gestaltet den großen Datenraum der Smart City je nach Datendimension, Geschäftssystemsatz und Datenaustauschkatalog, um das wissenschaftliche Niveau der Stadtplanung und des Baus von Smart Cities effektiv zu verbessern, wissenschaftliche Vorhersagen für eine nachhaltige Stadtentwicklung bereitzustellen, angemessene Interventionsmaßnahmen und öffentliche Politiken durch Planungsmittel vorzuschlagen und zu lindern Verbesserung des städtischen Lebensumfelds, Verkehrsstaus, Umweltverschmutzung und andere städtische Probleme.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2568-1_70 a4a68db42503907fcf29e577538b90dc;de;;;7.1.;;;Die aufkommende Rolle des Gesundheitsinformatikers als wichtiger Akteur im Bereich eHealth Dieses Kapitel befasst sich mit einem breiten Spektrum von Aspekten der Bereitstellung und Anwendung von Informationstechnologie (IT) im gesamten Gesundheitsbereich. Es berücksichtigt die Rolle von Fachinformatikern und IT-Fachkräften, die Gesundheitsinformatik-Fähigkeiten und -Kompetenzen, die von anderem Klinik- und Gesundheits- und Managementpersonal benötigt werden, und die sich abzeichnende Beteiligung der Bürger in diesem Bereich. Es konzentriert sich auf die Personalfragen im Zusammenhang mit eHealth und allgemein auf Gesundheitsinformatik. Die Belegschaft ist ein entscheidendes Element bei der Bereitstellung einer effektiven Informationsunterstützung für klinische Fachärzte und Gesundheitsmanager im Betrieb, in Bildung und Forschung sowie in der strategischen und taktischen Planung. Die Belegschaft der Gesundheitsinformatik umfasst Bereiche wie öffentliche und private Gesundheitsversorgung, Politik und Planung, Produkt- und Dienstleistungsbereitstellung und Wissenschaft. Im Laufe der Zeit mussten sich Informatiker verschiedenen Herausforderungen stellen, von denen viele in diesem Kapitel behandelt werden. Die Grundlage für den Text in diesem Kapitel bilden die Arbeit und die Erfahrungen des britischen Council for Health Informatics Professions (UKCHIP,;-;-;-;https://link.springer.com/chapter/10.1057/9781137379443_9 e32536c433e682d5818615853b2cd260;de;;;7.2.;;;Entwurfsgeschwindigkeitsbasiertes Zuverlässigkeitsindexmodell für die Bewertung der Straßensicherheit Die Bewertung des Risikoniveaus für einen Autobahnabschnitt ist schwierig, da Verkehrsunfälle durch eine komplexe Kombination von Autobahnausrichtung, Fahrzeuggeschwindigkeit und Geschwindigkeitsstreuungen gekennzeichnet sind. Dieses Papier bietet eine Möglichkeit, riskante Schnellstraßensegmente zu bewerten, indem die Entwurfsgeschwindigkeit, die beobachtete Geschwindigkeit und deren Variationen kombiniert werden. Dazu wurde ein Zuverlässigkeitsindexmodell eingeführt. Die Auslegungsgeschwindigkeit und die beobachtete Geschwindigkeit wurden als Eingangskapazität bzw. Bedarf im Zuverlässigkeitsindex verwendet. Zur Bewertung der Anwendbarkeit des Modells auf beobachtete Straßenbedingungen wurden Autobahnausrichtungen, beobachtete Geschwindigkeiten und Unfalldaten von achtzehn Abschnitten von Schnellstraßen verwendet, die aus Straßenverkehrssicherheitsprüfungsprojekten in Korea gewonnen wurden. Die Ergebnisse implizieren, dass Zuverlässigkeitsindizes und zugehörige Variablen das Niveau der Unfallstatistik erklären können. Der neue Zuverlässigkeitsindex-Ansatz kann daher leicht kombinierte Reflexionen von Autobahndesign und Fahrerelementen bei der Bewertung von riskanten Autobahnabschnitten liefern.;-;-;-;https://link.springer.com/article/10.1007/s12205-012-1469-9 1864f8969a7f73afb424385436fab0b0;de;;;7.2.;;;Vergleich von komplexen und reellwertigen neuronalen Feedforward-Netzen in ihrer Verallgemeinerungsfähigkeit Wir vergleichen die Generalisierungseigenschaften komplexwertiger und reellwertiger neuronaler Feedforward-Netze, wenn sie mit wellenbezogenen Signalen umgehen. Wir übernehmen eine Aufgabe der Funktionsapproximation. Experimente zeigen, dass komplexwertige neuronale Netze kleinere Generalisierungsfehler aufweisen als reellwertige, insbesondere wenn die Signale einen hohen Wellencharakter aufweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24955-6_63 f41a061e40b77560f012da173f9efd42;de;;;7.2.;;;Abbildung von klaren strukturellen semantischen Ähnlichkeitsmaßen auf einen Fuzzy-Kontext: ein generischer Ansatz Ontologiebasierte Ähnlichkeitsmaße haben in den letzten Jahren große Bedeutung erlangt. In vielen realen Fällen besteht der bei der ontologischen Ähnlichkeitsbewertung berücksichtigte Bereich aus Unsicherheit oder unvollständigen Informationen. Diese Unbestimmtheit hat zur erfolgreichen Implementierung von auf Fuzzy-Ontologie (FO) basierenden Ähnlichkeitsmaßen geführt. Trotz verschiedener Anwendungen von FO-basierten Ähnlichkeitsmaßen wurden hierfür bisher nur begrenzte Methoden vorgeschlagen. Dementsprechend präsentiert dieser Beitrag ein generisches Modell zur semantischen Ähnlichkeitsbewertung basierend auf einer Fuzzy-Ontologie. Der vorgeschlagene Ansatz stützt sich auf die breite Literatur zu Crisp Ontology-based Structural Semantic Similarity Measures (CO-SSSM). Es bietet einen Ansatz zum Abbilden von CO-SSSMs in einen Fuzzy-Kontext. Folglich kann das vorgeschlagene generische Modell auf verschiedene CO-SSSMs angewendet werden, um ihre entsprechenden FO-SSSMs zu entwickeln. Hierzu wurden als empirische Untersuchung vier der gängigen CO-SSSMs ausgewählt, deren äquivalente FO-SSSM mit dem vorgeschlagenen Ansatz entwickelt und die Genauigkeit ihrer Ähnlichkeitsbewertung miteinander verglichen. Die Ergebnisse zeigen die Leistungsfähigkeit von FO-SSSMs bei der Beschreibung der Beziehungen zwischen Konzepten und ihrer Überlegenheit gegenüber CO-SSSMs.;-;-;-;https://link.springer.com/article/10.1007/s40815-020-00833-w c25abd8cc4261bf1808fedf0731c3b65;de;;;7.2.;;;Leistungsbewertung von Videbas VIDEBAS ist ein relationales Mehrbenutzer-Datenbankverwaltungssystem. Beziehungen werden im Allgemeinen mehr als einmal gespeichert, jedoch jedes Mal in einer anderen Sortierreihenfolge. Das Hauptziel dieses Ansatzes besteht darin, die Anzahl der Zugriffe zu reduzieren, die erforderlich sind, um eine Abfrage zu verarbeiten, und zwar auf Kosten einer höheren Gebühr für den externen Speicher. Die mit Redundanz verbundenen Konsistenzprobleme werden vermieden, indem alle nachfolgenden Änderungen an einer Relation in die entsprechende Differenzdatei eingefügt werden. In diesem Beitrag wird die Leistung von VIDEBAS mit SYSTEM R verglichen. Die einzigen betrachteten Operationen sind eine einrelationale Abfrage und ein Equijoin von zwei Relationen. Die Differenzdateien werden nicht berücksichtigt. Vergleichskriterien sind die interne und externe Speicherbelegung und die Anzahl der Seitenzugriffe, die zum Erhalt der Antwort erforderlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-68830-0_16 0a9d673aa5b797d7351dd75f29442ba0;de;;;7.2.;;;Ein Schnittstellenagenten-Ansatz zur Personalisierung der Benutzerinteraktion mit Datenbanken Das Durchführen von Abfragen an ein Datenbanksystem über eine Computeranwendung kann eine sich wiederholende und zeitaufwendige Aufgabe für Benutzer werden, die im Allgemeinen ähnliche Abfragen durchführen, um die Informationen zu erhalten, mit denen sie arbeiten müssen. Wir glauben, dass Schnittstellenagenten diesen Benutzern helfen könnten, indem sie die Aufgaben der Abfrageerstellung und des Informationsabrufs personalisieren. Schnittstellenagenten zeichnen sich durch ihre Fähigkeit aus, die Interessen der Benutzer in einer bestimmten Domäne zu erfahren und ihnen zu helfen, indem sie Vorschläge machen oder Aufgaben in ihrem Namen ausführen. Zu diesem Zweck haben wir einen Agenten namens . entwickelt;-;-;-;https://link.springer.com/article/10.1007/s10844-005-0191-1 02943e993cfdfafb74923967931bcc12;de;;;7.2.;;;SUNAR-Überwachungsnetzwerk durch Retrieval erweitert Der Artikel befasst sich mit dem Surveillance Network Augmented by Retrieval (SUNAR)-System – einem auf Information Retrieval basierenden Weitbereichs-(Video)-Überwachungssystem, das als freie Software am FIT der Technischen Universität Brünn entwickelt wird. Es enthält sowohl Standard- als auch experimentelle Techniken, die vom NIST bei der AVSS 2009 Multi-Camera Tracking Challenge bewertet wurden, und SUNAR schnitt vergleichbar gut ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17691-3_15 b9fc272cdd2bb650f0562c494f2cfb39;de;;;7.2.;;;Selbstorganisierende Karten mit Verzögerungsaktualisierung Der Beitrag beschäftigt sich mit den Self Organizing Maps (SOM). Das SOM ist ein Standardwerkzeug zum Clustern und Visualisieren von hochdimensionalen Daten. Die Lernphase von SOM ist insbesondere bei großen Datensätzen zeitaufwändig. Es gibt zwei Hauptengpässe in der Lernphase von SOM: das Finden eines Gewinners des kompetitiven Lernprozesses und die Aktualisierung der Neuronengewichte. Der Beitrag konzentriert sich auf das zweite Problem. Es gibt zwei extreme Update-Strategien. Bei der ersten Strategie werden alle notwendigen Aktualisierungen unmittelbar nach der Verarbeitung eines Eingabevektors durchgeführt. Die andere extreme Wahl wird in Batch SOM verwendet – Aktualisierungen werden am Ende der gesamten Epoche verarbeitet. In diesem Papier untersuchen wir Update-Strategien zwischen diesen beiden extremalen Strategien. Das Lernen des SOM mit Verzögerungsaktualisierungen wird in dem Papier vorgeschlagen. Vorgeschlagene Strategien werden auch experimentell evaluiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24369-6_13 0b4a92dd68e7b6ed653b890fed07c67f;de;;;7.2.;;;Semantische Indizierung für das intelligente Durchsuchen verteilter Daten In diesem Beitrag stellen wir eine semantische Indexierungstechnik vor, die auf Beschreibungslogiken basiert. Die zu indexierenden Daten werden semantisch als Topic Map organisiert. Der Index ist nach Datenorganisation, Benutzerprofil und Datenverteilung (Assoziationsregeln) aufgebaut. Dieser Weg führt zu einem effizienteren Index und repräsentiert mehr Semantik. Der Index ist gut geeignet, um gemeinsam in der Topic Map abzufragen und zu navigieren. DL ermöglicht die Darstellung von Semantik und führt leistungsstarke Argumente durch. Die Indexstruktur basiert auf Subsumtionsbeziehungen (für Intra-Konzept-Indexierung) und Rollen (für Inter-Konzept-Indexierung).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36562-4_20 ca01a546659e1dadef7367528d602421;de;;;7.2.;;;Benennungsfunktionen für das Vektorraummodell Das Vektorraummodell (VSM) ist wahrscheinlich das am weitesten verbreitete Modell zum Abrufen von Informationen aus Textsammlungen (und neuerdings auch aus anderen Arten von Korpi). Unter der Annahme dieses Modells untersuchen wir das Problem, die beste Abfrage zu finden, die eine gegebene (ungeordnete oder geordnete) Menge von Objekten „benennt“ (oder beschreibt). Wir formulieren verschiedene Variationen dieses Problems und stellen Methoden und Algorithmen zu deren Lösung bereit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71496-5_58 3f37d7d712233fd7eda88400251d6103;de;;;7.2.;;;Feedback-gesteuerte strukturelle Abfrageerweiterung für den geordneten Abruf von XML-Daten Relevanz-Feedback ist eine wichtige Möglichkeit, die Abrufqualität zu verbessern, indem von einem Benutzer bereitgestellte Relevanzinformationen integriert werden. Beim XML-Retrieval generieren Feedback-Engines normalerweise eine erweiterte Abfrage aus dem Inhalt von Elementen, die als relevant oder nicht relevant markiert sind. Dieser von textbasierter IR inspirierte Ansatz ignoriert vollständig die semistrukturierte Natur von XML. Dieses Papier macht den wichtigen Schritt vom inhaltlichen zum strukturellen Feedback. Es bietet eine integrierte Lösung zum Erweitern von Schlüsselwortabfragen mit neuen Inhalts-, Pfad- und Dokumentbeschränkungen. Ein erweiterbares Framework wertet solche Abfragebedingungen mit bestehenden schlüsselwortbasierten XML-Suchmaschinen aus und ermöglicht gleichzeitig die einfache Integration neuer Feedback-Dimensionen. Umfangreiche Experimente mit dem etablierten INEX-Benchmark zeigen die Machbarkeit unseres Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/11687238_22 62859b0417d2f3ddbf7e1373ba0372bf;de;;;7.2.;;;Bewertung und Zonierung von Grundwassergefahren in der unterirdischen Kohlemine Pingshuo Nr. 1, Provinz Shanxi, China Die Sicherheit des Kohlebergbaus wurde durch Wassereinbrüche aus Grundwasserleitern, die entweder über oder unter den Kohleflözen liegen, beeinträchtigt. Detaillierte Studien der damit verbundenen hydrogeologischen Bedingungen in China haben zu verschiedenen Ansätzen geführt, um die Risiken von Wassereinbrüchen durch diese beiden Arten von Grundwasserleitern zu mindern – die „Drei-Diagramm-Methode“ für Wassereinbrüche in überlagernden Grundwasserleitern und die „Verwundbarkeitsindex-Methode“ für darunterliegende Grundwasserleiter Wassereinbrüche. Die „Drei-Diagramm-Methode“ besteht aus: (1) Aquifer-Wasserdichte-Verteilungsdiagrammen, die aus einem geographischen Informationssystem und einem prozessbasierten Analysehierarchie-Wasserdichte-Indexmodell abgeleitet wurden, (2) einer Risshöhenkarte, die bergbaubedingte Risse über der Kohle zeigt Flöz, der mit geschichteten numerischen Simulationen erstellt wurde, und (3) eine umfassende Verteilungskarte, die das Risiko des Wassereinbruchs des darüber liegenden Grundwasserleiters identifiziert. Die „Vulnerabilitätsindex-Methode“ verwendet standortspezifische Daten, um thematische Karten für die wichtigsten Faktoren zu erstellen, die die zugrunde liegenden Wassereinbrüche im Grundwasserleiter beeinflussen, während das Gewicht jedes Kontrollfaktors durch den analytischen Hierarchieprozess bestimmt wird. Der berechnete Vulnerabilitätsindex ist ein Hinweis auf das Risiko von Wassereinbrüchen. Die Wirksamkeit dieser Methoden wird anhand einer Fallstudie in der unterirdischen Kohlemine Pingshuo Nr. 1 in der Provinz Shanxi, China, veranschaulicht.;-;-;-;https://link.springer.com/article/10.1007/s10040-014-1138-9 8c64d6054ab126f2d90936b91aa3ed79;de;;;7.2.;;;TALP auf der GeoCLEF 2007: Ergebnisse eines geographischen Wissensfilterungsansatzes mit Terrier Dieses Papier beschreibt und analysiert die Ergebnisse unserer Experimente in Geographical Information Retrieval (GIR) im Zusammenhang mit unserer Teilnahme an der CLEF 2007 GeoCLEF Monolingual English Aufgabe.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85760-0_105 94220ae6268d1899d04d5620daf031fa;de;;;7.2.;;;Bewertung von Klassifikatoren zur Emotionserkennung bei der Ausführung von körperlichen und visuellen Aufgaben: Tower of Hanoi und IAPS Mit dem Fortschritt in der Robotertechnologie ist die intelligente Mensch-Roboter-Interaktion von zunehmender Bedeutung, um einen besseren Einsatz von Robotern zu ermöglichen, die in menschliche Umgebungen und Aktivitäten integriert sind. Wenn ein Roboter Emotionen und Absichten eines Menschen erkennen kann, der mit ihm interagiert, können Interaktionen mit Menschen möglicherweise natürlicher und effektiver werden. Allerdings sind Wahrnehmungs- und Empathiemechanismen, die von Menschen verwendet werden, um dieses Verständnis zu erreichen, möglicherweise nicht für den Einsatz in Robotern geeignet oder angemessen. Die Elektroenzephalographie (EEG) kann zur Aufzeichnung von Signalen verwendet werden, die Emotionen und Motivationen eines menschlichen Gehirns aufdecken. Diese Studie zielte darauf ab, verschiedene Techniken des maschinellen Lernens zu bewerten, um EEG-Daten zu klassifizieren, die mit bestimmten affektiven/emotionalen Zuständen verbunden sind. Zu experimentellen Zwecken haben wir visuelle (IAPS) und physische (Tower of Hanoi) Aufgaben verwendet, um menschliche emotionale Zustände in Form von EEG-Daten aufzuzeichnen. Die erhaltenen EEG-Daten werden mit verschiedenen maschinellen Lerntechniken verarbeitet, formatiert und ausgewertet, um herauszufinden, welche Methode EEG-Daten am genauesten nach assoziierten affektiven/emotionalen Zuständen klassifizieren kann. Das Experiment bestätigt die Wahl einer Methode zur Verbesserung der Genauigkeit der Ergebnisse. Den Ergebnissen zufolge war Support Vector Machine die erste und Regression Tree die zweitbeste Methode zur Klassifizierung von EEG-Daten, die mit bestimmten affektiven/emotionalen Zuständen verbunden sind, mit Genauigkeiten von bis zu 70,00 % bzw. Bei beiden Aufgaben war SVM in der Leistung besser als RT.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-01054-6_25 a91226b54808ab1aeab32f1b14073249;de;;;7.1.;;;Einführung: Unsicherheitsprobleme bei räumlichen Informationen Dieses einleitende Kapitel dient zwei Zwecken. Zunächst wird ein kurzer Überblick über Forschungstrends in verschiedenen Bereichen der Informationsverarbeitung zum Umgang mit unsicheren räumlichen Informationen gegeben. Im Mittelpunkt der Diskussion stehen die Vielfalt räumlicher Informationen und die unterschiedlichen Herausforderungen, die dabei auftreten können. Zweitens wird ein Überblick über den Inhalt dieses Sammelbandes gegeben. Wir weisen auch auf die Neuheit des Buches hin, das über geografische Informationssysteme hinausgeht und verschiedene Formen quantitativer und qualitativer Unsicherheit betrachtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14755-5_1 ac42c62f994b20abc7f10987429b3413;de;;;7.2.;;;Überblick über ARQMath 2020: CLEF Lab zum Abrufen von Antworten für Fragen zu Mathematik Das ARQMath Lab am CLEF erwägt, Antworten auf neue mathematische Fragen unter den veröffentlichten Antworten auf einer Community-Frage-Antwort-Site (Math Stack Exchange) zu finden. Abfragen sind Frageposten, die aus der durchsuchten Sammlung herausgehalten werden und die jeweils sowohl Text als auch mindestens eine Formel enthalten. Dies ist eine herausfordernde Aufgabe, da sowohl Mathematik als auch Text erforderlich sein können, um relevante Antwortbeiträge zu finden. ARQMath enthält auch eine Unteraufgabe zum Abrufen von Formeln: Einzelne Formeln aus Frageposts werden verwendet, um Formeln in früheren Frage- und Antwortposts zu finden, wobei die Relevanz unter Berücksichtigung des Kontexts des Posts, aus dem eine Abfrageformel entnommen wurde, und der Posts, in denen abgerufen wurde, bestimmt wird Formeln erscheinen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58219-7_15 ce726a72b1f744405a3be46412e4b96e;de;;;7.2.;;;Relevanz-Ranking basierend auf abfrageorientierter Kontextanalyse Wortkonflikte zwischen Abfragen und Dokumenten sind eine seit langem bestehende Herausforderung bei der Informationsbeschaffung. Jüngste Fortschritte bei verteilten Wortdarstellungen adressieren das Wort-Mismatch-Problem, indem sie semantisches Matching ermöglichen. Die meisten existierenden Modelle ordnen Dokumente jedoch basierend auf einem semantischen Abgleich zwischen Abfrage- und Dokumentbegriffen ohne ein explizites Verständnis der Beziehung des Abgleichs zur Relevanz ein. Um den semantischen Abgleich zwischen Abfrage und Dokument zu berücksichtigen, schlagen wir ein unüberwachtes semantisches Abgleichsmodell vor, indem wir einen Benutzer simulieren, der Relevanzentscheidungen trifft. Das Hauptziel des vorgeschlagenen Modells besteht darin, die genaue und semantische Übereinstimmung zwischen Abfrage- und Dokumentbegriffen zu kombinieren, was nachweislich eine effektive Leistung beim Informationsabruf erzeugt. Da der semantische Abgleich zwischen Abfragen und ganzen Dokumenten rechenintensiv ist, schlagen wir vor, lokale Kontexte von Abfragebegriffen in Dokumenten für den semantischen Abgleich zu verwenden. Der Abgleich mit kleineren abfragebezogenen Kontexten von Dokumenten ergibt sich aus dem Relevanzbeurteilungsprozess, der von menschlichen Beobachtern aufgezeichnet wird. Der relevanteste Teil eines Dokuments wird dann erkannt und verwendet, um Dokumente in Bezug auf die Abfrage einzustufen. Experimentelle Ergebnisse an mehreren repräsentativen Retrievalmodellen und Standarddatensätzen zeigen, dass unser vorgeschlagenes semantisches Matching-Modell in allen Messgrößen die Wettbewerbsbasislinien deutlich übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-45439-5_30 19621b2417d7e8dddc08750b505c024d;de;;;7.2.;;;Interaktiver Hausarzt für Datenabruf in medizinischen Datenbanken In diesem Beitrag stellen wir das Design von ELISE vor, einem interaktiven Hausarztsystem für Dokumentenabrufaufgaben in sehr großen medizinischen Datenbanken. Die Komponenten von ELISE wurden so zugeschnitten, dass ein System entsteht, das dank weiterentwickelter Profiling-Informationen in der Lage ist, Dokumente im Zusammenhang mit der Anfrage vorzuschlagen, die für den Benutzer von Interesse sein könnten. Tests zum Benchmark „Cystic Fibrosis Database“ [;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36599-0_9 91b02de794c25accf361661d6c30c2b9;de;;;7.2.;;;Auswertung der Suchergebnisse basierend auf dem Nutzerverhalten Die Auswertung von Suchergebnissen zur Verbesserung des wertvollen Rankings von Suchmaschinen ist eine Herausforderung. In diesem Beitrag wird eine neue Methode zur Auswertung von Suchergebnissen basierend auf dem Nutzerverhalten vorgeschlagen. Die Methode umfasst die Informationsextraktionstechnologie, die Gewichtsberechnung und die Auswertung der Ergebnisse. Es verbessert die Genauigkeit der entsprechenden Antwortanmerkung. Die experimentellen Ergebnisse zeigen, dass die Methode einen wertvolleren Suchergebnisse-Rang erreicht als die Methode, die nur Click-Through-Daten verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35795-4_50 46ac42769f0e4a5d8a363f8855627c11;de;;;7.2.;;;Anwendung des nichtlinearen Klassifikationsalgorithmus bei der Auswertung von Kommunikationsstörungen Herkömmliche Methoden zur Bewertung von Kommunikationsstörungen gehören zu Drittanbieterbewertungen, die die Anforderungen von Echtzeitbewertungen nicht erfüllen. Dieses Papier schlägt ein Verfahren zur Bewertung des Störpegels unter dem nichtlinearen Klassifikationsalgorithmus vor. Zuerst wird ein Datensatz mit den Eigenwerten erstellt, die den Interferenzeffekt beeinflussen, und dann eine Simulationsverifizierung durch das neuronale BP-Netzwerk und die Support-Vektor-Maschine. Die Simulationsergebnisse verifizieren die Machbarkeit bei der Bewertung von Kommunikationsstörungen und bieten die Möglichkeit zur Echtzeitauswertung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-19086-6_49 cf26a26f9f1ff5df5d13c594d002f1dc;de;;;7.2.;;;Graph-Ranking auf maximal häufigen Sequenzen für einzelne extraktive Textzusammenfassung Wir schlagen eine neue Methode für die Aufgabe der extraktiven Textzusammenfassung mit graphbasierten Ranking-Algorithmen vor. Die Hauptidee dieses Papiers ist es, Maximal Frequent Sequences (MFS) zu ordnen, um die wichtigsten Informationen in einem Text zu identifizieren. MFS werden im Begriffsauswahlschritt als Knoten eines Graphen betrachtet und dann im Begriffsgewichtungsschritt unter Verwendung eines graphenbasierten Algorithmus eingestuft. Wir zeigen, dass die vorgeschlagene Methode den aktuellen Methoden überlegene Ergebnisse liefert, außerdem wurden mit dieser Methode die besten Sätze gefunden. Wir beweisen, dass MFS besser sind als andere Begriffe. Darüber hinaus zeigen wir, dass die Ergebnisse umso besser sind, je länger MFS ist. Wenn die Stoppwörter ausgeschlossen werden, verlieren wir den Sinn für MFS und die Ergebnisse sind schlechter. Ein weiterer wichtiger Aspekt dieser Methode ist, dass sie weder tiefgreifende linguistische Kenntnisse noch domänen- oder sprachspezifische annotierte Korpora erfordert, was sie in hohem Maße auf andere Domänen, Genres und Sprachen übertragbar macht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54903-8_39 cd4244d1b7cd5d783bd995bb87ac858b;de;;;7.1.;;;Open Source Projektkategorisierung basierend auf Wachstumsratenanalyse und Portfolioplanungsmethoden Planning In diesem Beitrag schlagen wir vor, eine Bewertung und Bewertung von Open-Source-Projekten auf der Grundlage einer Analyse ihrer Wachstumsraten in mehreren Aspekten vorzunehmen. Dazu gehören Codebasis, Entwicklernummer, Fehlerberichte und Downloads. Basierend auf dieser Analyse und Bewertung wird eine bekannte Portfolioplanungsmethode, die BCG-Matrix, verwendet, um zu einer sehr breiten Klassifikation von Open-Source-Projekten zu gelangen. Während dieser Ansatz naturgemäß zu einem Verlust an Detailinformationen führt, ist eine Kategorisierung auf oberster Ebene in einigen Bereichen notwendig und von Interesse.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09684-1_35 6801854473bf9b7fbcc5873b82aaade1;de;;;7.1.;;;Business und IS/IT Strategic Alignment Framework Die Eingliederung von Informationssystemen und Informationstechnologie (IS/IT) in die Organisationen birgt erhebliche Risiken, und diese Risiken werden erhöht, wenn kein strategischer Plan für ihre Eingliederung erstellt wird. Das Ziel dieser Forschung ist es, mit Konzepten und Techniken aus dem Ingenieurwesen und der Unternehmensarchitektur zur Abstimmung zwischen Geschäfts- und IS/IT-Strategien beizutragen. Um dieses Ziel zu erreichen, schlägt diese Studie vor, einen Modellierungsrahmen für die strategische Ausrichtung von Business und IS/IT zu definieren. Die Umsetzung dieses Vorschlags in einem Keramikfliesenunternehmen hat dazu beigetragen, seine Nützlichkeit zu bestätigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11628-5_3 30f0349f3c917355829a6b8d042b07f8;de;;;7.1.;;;Advanced Services für Supply Chain Design Prozesse in kollaborativen Netzwerken Die Entwicklung und Produktion von Kleinserien für spezifische Kundenzielgruppen in kollaborativen Netzwerken kann Unternehmen helfen, ihre Wettbewerbsfähigkeit zu steigern. Dieses Papier zielt darauf ab, einen neuen Rahmen von Diensten für die kollaborative Vernetzung für On-Demand-Produktionen zu beschreiben. Nach der Beschreibung der Geschäftsprozesse, die durch innovative Tools zur Partnersuche und kollaborativen Produktionsplanung unterstützt werden müssen, beschreiben wir die entwickelten Services und wie sie integriert werden, um die Kommunikation zwischen verschiedenen Aktivitäten zu erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32775-9_30 aca294e8356a85ca31a20dd49adc06b4;de;;;7.1.;;;Ein ontologiebasierter Ansatz zur Verwaltung und Aufrechterhaltung des Datenschutzes in Informationssystemen Der Einsatz von Ontologien in den Bereichen Information Retrieval und Semantic Web ist bekannt. Seit langem versuchen Forscher, ontologische Darstellungen der verschiedenen Gesetze zu finden, um einen Mechanismus zum Abrufen feingranularer Rechtsinformationen zu verschiedenen Rechtsfällen zu haben. Eines der häufigsten Probleme von Softwaresystemen in Rechtsstaaten ist jedoch die Anpassung der diversen Datenschutzrichtlinien. Dies ist aufgrund fehlender aktueller Softwarelösungen – insbesondere aus architektonischer Sicht – eine sehr komplexe Aufgabe. Tatsächlich vermissen wir Softwarelösungen, die Datenschutzrichtlinien in einer zentralen Instanz strukturiert verwalten. Darüber hinaus sollte eine solche Lösung einen feingranularen Zugriffskontrollmechanismus für die Datenentitäten bereitstellen, um sicherzustellen, dass jeder Aspekt der Datenschutzrichtlinien berücksichtigt werden kann. Darüber hinaus sollte das Gesamtsystem transparent, nachvollziehbar und zur Laufzeit veränderbar sein. Dieser Beitrag bietet hierfür eine neuartige Lösung mittels Ontologien. Die Verwendung von Ontologien in unserem Ansatz unterscheidet sich von der herkömmlichen Form durch die Konzentration auf die Generierung von Zugriffskontrollrichtlinien, die von unserem Software-Framework angepasst werden, um einen feingranularen Zugriff auf die verschiedenen Datenquellen zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/11914853_63 d6264cb734c1f5290f381fdbc8554adf;de;;;7.1.;;;Ein hierarchisches Produkt-Eigenschafts-Modell zur Unterstützung der Produktklassifizierung und zur Verwaltung von Struktur- und Planungsdaten Mass Customization ist eine der größten Herausforderungen für Manager, da sie zu einer Vielzahl von Produktdaten in den verschiedenen Organisationsbereichen eines Unternehmens und zwischen verschiedenen Unternehmen führt. Effektive Lösungen für dieses Problem haben zu generischen Stücklisten und zur Gruppierung von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01347-8_53 7aa5a400be8add5bdf570558f1046699;de;;;7.1.;;;Mehrdimensionale Leistungsmessung in komplexen Netzwerken – Modell und Integration für das Logistikkettenmanagement Globale Anforderungen und aufstrebende Märkte haben in den letzten Jahren zu einer Zunahme der Komplexität in der Logistik geführt. Darüber hinaus haben produzierende Unternehmen aus Flexibilitätsgründen ihre Logistik ausgelagert. Kunden wenden sich daher an Lösungsspezialisten für kundenorientierte End-to-End-Prozesse. Das Geschäftsmodell der 4th Party Logistics bietet durch die Planung und Steuerung inhärenter Prozesse ein ganzheitliches Servicemanagement entlang einer gesamten Logistikkette. Da die physische Bereitstellung jedoch an Drittanbieter ausgelagert wird, ist die Leistungsmessung unerlässlich, um die Service-Levels einzuhalten. Die Messung von Subanbietern bereitet aufgrund unterschiedlicher Prozessdefinitionen und Kommunikationsstandards Schwierigkeiten. Eine Erleichterung ist die wachsende Informationsmenge während des Prozesslebenszyklus. In diesem Papier stellen wir ein integriertes, strategisch ausgerichtetes Anbieterbewertungsmodell vor, das auf den gesamten Logistikprozess anwendbar ist und operative Informationen zu Kennzahlen zusammenfassen kann, die weiter zu Kennzahlen aggregiert werden. Anschließend beweisen wir die Anwendbarkeit durch eine prototypische Umsetzung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19027-3_23 16b561ca11e37e7d99e5eae44fb4d2a4;de;;;7.1.;;;Prozessmodellbasierte inkrementelle Projektplanung Es ist allgemein anerkannt, dass Prozessmodelle die Wahrscheinlichkeit eines erfolgreichen Projektabschlusses erheblich erhöhen können. Ein ganz grundlegender Aspekt der tatsächlichen Verwendung eines Prozessmodells besteht darin, einen Projektplan daraus abzuleiten und auf dem neuesten Stand zu halten. Dies ist jedoch eine mühsame Aufgabe – insbesondere, wenn jedes Dokument zahlreiche Überarbeitungen erfahren kann. Daher ist eine Automatisierung erforderlich. Aktuelle Ansätze auf Basis von Workflows oder Change-Management-Systemen bieten jedoch keine inkrementellen Update-Mechanismen: Prozessingenieure müssen diese selbst definieren – insbesondere wenn sie ein organisationsspezifisches Prozessmodell entwickeln. Auf der anderen Seite sind inkrementelle Modelltransformationen, die aus dem Bereich der modellgetriebenen Entwicklung bekannt sind, zu niedrig, um einen praktischen Nutzen zu haben. Tatsächlich sind geeignete High-Level-Modelltransformationssprachen noch Gegenstand der Forschung. In diesem Beitrag stellen wir eine Prozesssprache vor, die beides integriert: Prozessmodellierungssprachen und inkrementelle Modelltransformationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12165-4_23 d12687b21eff98fb5e50b8bc70528c9c;de;;;7.1.;;;Eine schnelle Manöverpfadplanungsmethode mit komplexen Sensorausrichtungsbeschränkungen im Lageraum Eine großflächige und hochauflösende Wahrnehmung ist für die physikalische Welt einfach zu erreichen, wenn zukünftig Satellitentechnologie im Internet der Dinge (IoT) zum Einsatz kommt. Der Fernerkundungssatellit ist der ursprünglichen Methode zur Bodenzielerkennung und Umgebungswahrnehmung überlegen, die durch Wahrnehmungssensoren an Bord ergänzt werden könnte. Während des Erkennungs- und Wahrnehmungsprozesses muss der Satellit häufig Lagemanöver ausführen, um eine Vielzahl von Aufgabenanforderungen zu erfüllen. Wir müssen uns mit einem eingeschränkten Manöverproblem mit mehreren Objekten und mehreren Sensoren auseinandersetzen. Es sollten nicht nur die kinematischen und dynamischen Randbedingungen berücksichtigt werden, sondern auch die technisch begrenzten Randbedingungen. Darüber hinaus sollten Sensor-Pointing-Beschränkungen ausgearbeitet und vernünftig analysiert werden. Es wird immer wichtiger, wie ein Haltungsmanöver in diesen komplexen Beschränkungen sicher und schnell erreicht werden kann. Zunächst werden Sensorausrichtungsbeschränkungen in eine quadratische Form übersetzt, um die Darstellung und Berechnung im Lagequaternionenraum zu vereinfachen. Zweitens schlagen wir einen verbesserten RRT-Planungsalgorithmus für Raumfahrzeuge vor, der in der Lage ist, eine Vielzahl von Einschränkungen bei der Sensorausrichtung zu berücksichtigen. Dieser Algorithmus wird als globaler Planer verwendet, bei dem die gleichmäßig verteilten Knoten im Expansionsraum zufällig abgetastet und die expandierten Knoten anhand der vergleichenden Bewertungsfunktion ausgesiebt werden. Schließlich bestätigen Simulationsergebnisse die Vorteile des vorgeschlagenen Algorithmus.;-;-;-;https://link.springer.com/article/10.1007/s10796-016-9642-1 5bf7c0d0353f65377df2b574fe53fef0;de;;;7.1.;;;Design eines autonomen Frameworks für ein effizientes Management in großem Maßstab von Webservice-Mashups der nächsten Generation Das Ziel dieser Doktorarbeit ist die Untersuchung und Entwicklung eines autonomen Frameworks, das sich auf die dynamische Zusammensetzung und Bereitstellung von Service-Mashups konzentriert. Durch die Anreicherung der verfügbaren Bausteine ​​mit semantischen Beschreibungen wird durch den Einsatz von Planungsalgorithmen eine automatische Zusammenstellung neuer Service-Mashups erreicht. Die zusammengestellten Mashups werden automatisch auf den verfügbaren Ressourcen bereitgestellt, wobei Bandbreite, Speicher und Rechenleistung der Netzwerk- und Serverelemente optimal genutzt werden. Dieses System wird auch um eine dynamische Wiederherstellung nach externen Fehlern erweitert, wie z. B. Netzwerkfehler oder Dienste, die fehlerhafte Ergebnisse liefern. Der letzte Schritt umfasst die automatische Extraktion von neuem Wissen aus Anfragemustern, Verhalten und Feedback der Benutzer zur Optimierung zukünftiger Anfragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02627-0_19 2dfc307d5d4c0fa5b93b3f8d5190b7aa;de;;;7.2.;;;Zur effizienten Klassifizierung von Musikgenres Die automatische Klassifizierung von Musikgenres ist seit langem ein wichtiges Problem. Es gibt jedoch einen Mangel an Literatur, die sich mit diesem Problem befasst, und außerdem ist die berichtete Genauigkeit ziemlich gering. In diesem Beitrag präsentieren wir eine empirische Studie einer neuartigen Methode zur Generierung von Musikdeskriptoren zur effizienten inhaltsbasierten Klassifizierung von Musikgenres. Analysen und empirische Beweise zeigen, dass unser Ansatz modernste Ansätze in den Bereichen Genauigkeit der Genreklassifizierung mit verschiedenen maschinellen Lernalgorithmen und Effizienz des Trainingsprozesses übertrifft. Darüber hinaus ist seine Wirksamkeit robust gegenüber verschiedenen Arten von Audiowechsel.;-;-;-;https://link.springer.com/chapter/10.1007/11408079_24 68992f1b92efbe3cbd58d72dec6a356a;de;;;7.1.;;;Probleme, bevor indische kleine und mittlere Unternehmen sich für eine ERP-Implementierung entscheiden Enterprise Resource Planning (ERP), ein umfassendes integriertes Softwarepaket, wird von vielen Unternehmen eingesetzt. Solche großen Investitionsentscheidungen werden von Wachstumsstrategien, Erwartungen an den Kundenservice und dem Druck, Kosten zu senken, getrieben. Der Zweck dieses Papiers ist es, die Ergebnisse einer Studie vorzustellen, die auf den Ergebnissen einer umfassenden Zusammenstellung von Literatur und anschließender Analyse der Erfolgsfaktoren der ERP-Implementierung im Kontext indischer Kleinst-, Klein- und Mittelunternehmen (KKMU) basiert. Der Beitrag versucht empirisch abzuschätzen, welche Faktoren im ERP-Einführungsprozess aus Sicht der indischen KKMU am kritischsten sind. Diese Forschung soll möglicherweise für KKMU als Richtlinie nützlich sein, um ein positives Ergebnis des Umsetzungsprozesses sicherzustellen. Das Ergebnis dieser Studie hebt vier entscheidende Faktoren hervor, die den ERP-Einführungsprozess im indischen KKMU-Segment beeinflussen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19423-8_5 3849b4c8ebb5c505df22730ee677c19f;de;;;7.2.;;;Nutzung von Bewertungsverhalten für effektives kollaboratives Filtern Collaborative Filtering (CF) ist im E-Business-Zeitalter wichtig, da es Geschäftsunternehmen helfen kann, Kundenpräferenzen vorherzusagen. Sparsity ist jedoch immer noch ein großes Problem, das eine bessere Wirksamkeit verhindert. Viele Bewertungen in der Trainingsmatrix sind unbekannt. Nur wenige aktuelle CF-Methoden versuchen, diese Lücken auszufüllen, bevor die Bewertungen eines aktiven Benutzers vorhergesagt werden. In dieser Arbeit haben wir die Wirksamkeit von Matrixfüllmethoden für die kollaborative Filterung validiert. Darüber hinaus haben wir drei verschiedene Matrixfüllmethoden ausprobiert, die auf dem gesamten Trainingsdatensatz und ihren geclusterten Teilmengen mit unterschiedlichen Gewichten basieren, um die unterschiedlichen Effekte zu zeigen. Im Vergleich dazu haben wir die Eigenschaften dieser Methoden analysiert und festgestellt, dass die Mainstream-Methode, die Persönlichkeitsdiagnose (PD), mit den meisten Matrixfüllmethoden besser funktionieren kann. Sein MAE kann 0,935 bei einem EachMovie-Trainingsdatensatz mit einer Dichte von 2 % durch die elementbasierte Matrixfüllmethode erreichen, was einer Verbesserung von 10,1 % entspricht. Ähnliche Verbesserungen finden sich sowohl bei EachMovie- als auch bei MovieLens-Datensätzen. Unsere Experimente zeigen auch, dass keine Cluster-basierte Matrixfüllung erforderlich ist, sondern den gefüllten Werten während des Vorhersageprozesses ein geringeres Gewicht zugewiesen werden sollte.;-;-;-;https://link.springer.com/chapter/10.1007/11912873_20 683078d685dad0a9212b322adfb7b0e7;de;;;7.2.;;;Unüberwachte Attributreduktion basierend auf Als Verallgemeinerungen von einwertigen Informationssystemen können intervallbewertete Informationssysteme (IVISs) reale Daten besser ausdrücken. Gegenwärtig wurden zahlreiche Ansätze zur unüberwachten Merkmalsreduktion für einwertige Informationssysteme in Betracht gezogen, aber es gibt nur wenige Untersuchungen zur unüberwachten Merkmalsreduktion für IVISs. In diesem Artikel untersuchen wir eine neue Fuzzy-Relation anhand der Ähnlichkeit zwischen Intervallwerten und schlagen das Konzept von;-;-;-;https://link.springer.com/article/10.1007/s13042-020-01091-w 15a96299097a94ffa7a7bfe42003931c;de;;;7.2.;;;Ein konzeptionelles Modell zur Abfrage chinesischer häufig gestellter Fragen im Gesundheitswesen Häufig gestellte Fragen (FAQs) im Gesundheitswesen bieten dem allgemeinen Leser sowohl zuverlässige als auch lesbare Gesundheitsinformationen. In diesem Artikel stellen wir eine konzeptionelle Abfragetechnik vor, die als Ergänzung zur Verbesserung bestehender FAQ-Retriever dient, um chinesische FAQs im Gesundheitswesen für jede Eingabeabfrage zu finden. Durch die Analyse der Strukturen und Ziele der chinesischen FAQs zum Gesundheitswesen identifizieren wir drei Arten von wesentlichen Konzepten in den FAQs zum Gesundheitswesen:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35341-3_32 5d817d769b9ee27baa65c80b87f3ed02;de;;;7.2.;;;Extrahieren von Zeitmerkmalen aus Zeitinformationssystemen Wir präsentieren ein Framework für die Extraktion neuer Features aus temporalen Informationssystemen. Solche Systeme liefern Informationen über das Verhalten von Objekt(en) in der Zeit und der Zustand eines Objekts wird durch einige Attribute beschrieben. Wir schlagen eine Modifikation des Apriori-Algorithmus für die Erkennung häufiger Episoden in vielen Serien vor. Die Episoden sind aus Ereignissen aufgebaut, die zeitliche Muster sind, die in einem zeitlichen Informationssystem gefunden werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39592-8_37 725f4e6777bdf65541f48c9f46607bb6;de;;;7.2.;;;Georeferenzierte Foto-Tagging von Touristenattraktionen von Fotosammlungen der Bergbaugemeinde Das Aufkommen von Foto-Sharing-Sites wie Flickr hat das Volumen der Community-Fotosammlungen im Web drastisch erhöht. Auch die steigende Popularität von mobilen Geräten mit GPS-Kameras wie dem iPhone hat dazu geführt, dass die meisten Fotos mit Geo-Tags versehen wurden. Diese bieten neue Möglichkeiten zum automatischen Taggen der georeferenzierten Fotos, wie z. In diesem Papier schlagen wir einen Rahmen vor, um georeferenzierte Fotos von Touristenattraktionen automatisch mit Tags zu versehen, indem die Fotosammlungen der Community durchsucht werden. Die von sozialen Websites gesammelten Fotos werden zunächst durch die Fusion mehrerer Modalitäten wie GPS und visueller Merkmale geclustert, und dann werden die Tags jedes Clusters über ein einfaches TF-IDF-gewichtetes Abstimmungsschema extrahiert. Schließlich wird ein mit einer GPS-Kamera aufgenommenes Foto einer Touristenattraktion mit den Tags des am besten passenden Clusters versehen. Wir laden viele Fotos rund um einige Sehenswürdigkeiten in Peking von Flickr herunter und erstellen manuell einen georeferenzierten Fotodatensatz. Das Experiment mit dem Datensatz zeigt eine insgesamt gute Leistung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03731-8_24 1a9cb24633afee7ee423c72152f5476d;de;;;7.1.;;;Aktuelle Ansätze und neue Richtungen im Management von hauseigenen chemischen Strukturdatenbanken In der Zeit der 1970er Jahre wurde großer Wert auf den Entwurf und die Implementierung von Datenbanksystemen zur Verwaltung von Sammlungen chemischer Strukturen gelegt. Es wurden Techniken zum Erstellen von kanonischen Verbindungstabellendarstellungen entwickelt, effiziente Unterstruktursuchsysteme entwickelt und eine effektive computergrafikbasierte Strukturzeichnungssoftware geschrieben. Seitdem wurden die meisten selbst entwickelten Systeme durch kommerziell erhältliche standardisierte Software zur Verwaltung chemischer Strukturdatenbanken ersetzt. Der Schwerpunkt liegt heute auf der verbesserten Integration vorhandener interner Datenbanken und der Hinzufügung neuer Datenbanken, um einen besseren Zugang zu einer Vielzahl von substanzbezogenen Informationen zu ermöglichen. Dieser Artikel bietet einen Überblick über die aktuelle Praxis und neue Trends bei der Verwaltung von internen Sammlungen von Strukturen, Reaktionen, Daten zu Stoffeigenschaften und Dokumenten. Zu den behandelten Themen gehören die Arten von Datenbanken, die derzeit gepflegt werden und der erreichte Integrationsgrad, Software- und Hardwareumgebungen, Benutzerschulungen und Supportfragen sowie neue Ansätze zur Verbesserung des Integrationsgrads und der Zugänglichkeit von internen Datenbanken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-73975-0_3 5a4eac5061e4664f575451c48f47148b;de;;;7.1.;;;Erfassen von Design-Grundlagen in der Unternehmensarchitektur: Eine Fallstudie Unser Ziel ist es, die Unternehmensarchitektur zu rationalisieren und Modelle, die EA-Designs ausdrücken, durch Modelle zu ergänzen, die die Entscheidungsfindung hinter den Designs ausdrücken. In unserer bisherigen Arbeit haben wir den EA-Anamnese-Ansatz zur Architekturrationalisierung vorgestellt und mit einer fiktiven Fallstudie illustriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45501-2_10 7e85d12e727ad491fa30589e0a9d84b3;de;;;7.1.;;;Treiber der virtuellen zwischenbetrieblichen Integration und ihre Auswirkungen auf die Leistung in internationalen Kunden-Lieferanten-Beziehungen Es besteht Konsens, dass Fortschritte in den Informations- und Kommunikationstechnologien eine wichtige Triebfeder für die Umstrukturierung multinationaler Unternehmen (MNU) und ihrer grenzüberschreitenden Lieferkettenaktivitäten sind. Die Rolle der virtuellen zwischenbetrieblichen Integration und ihrer Vorläufer, Eventualitäten und ihrer Assoziation mit der Leistung in internationalen Austauschbeziehungen ist jedoch nicht klar spezifiziert. Diese Studie schlägt vor, dass die virtuelle zwischenbetriebliche Integration als alternativer Governance-Mechanismus für Lieferanten dienen kann. So untersuchen wir seine Treiber, Moderatoren und Leistungsergebnisse in internationalen Austauschbeziehungen im Kontext von Lieferanten und deren MNU-Kunden. Der empirische Kontext ist eine Studie von 240 taiwanesischen Herstellern von Elektronikgeräten. Wir untersuchen den Einfluss von Kommunikationskultur, internen, interorganisationalen und ökologischen Dimensionen auf die virtuelle zwischenbetriebliche Integration und die Lieferantenleistung im internationalen Austausch. Abschließend teilen wir unsere Ergebnisse zur Relevanz der virtuellen zwischenbetrieblichen Integration in den Lieferanten-MNU-Käuferbeziehungen.;-;-;-;https://link.springer.com/article/10.1007/s11575-018-0344-4 dfc8c9a6a6aa0a09d78a20bb5ea90a70;de;;;7.1.;;;Trends bei verteilten Softwaresystemen von der Kommunikation zur Kooperation Verteilte Softwaresysteme werden häufig in der Fabrikautomatisierung und Telekommunikationsindustrie eingesetzt. Gegenüber zentral organisierten Rechnerarchitekturen bieten sie deutliche Vorteile, die durch Transparenzmechanismen bzw. (aus wirtschaftlicher Sicht) Kostensenkung. Technische Ansätze variieren. Einerseits gibt es reine Kommunikationssysteme nach dem ISO/OSI-Referenzmodell. Auf der anderen Seite finden sich verteilte Betriebssysteme, die eine vollständige Kooperationsfähigkeit darstellen. Zwischen diesen beiden Extremen liegen viele verschiedene Stadien. Nichtsdestotrotz werden verteilte Betriebssysteme wie Mach und Chorus zunehmend als zukünftige Kernel jeder Betriebsunterstützung für eine Vielzahl von Anwendungsdomänen geschätzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-93464-3_18 be7204a5b6a7f7d36134f3fc0119f1a1;de;;;7.1.;;;Computational Intelligence im Flugverkehrsmanagement Die Forderung nach Erhöhung der Flughafenkapazität in Verbindung mit vielen Einschränkungen sowie die Komplexität der Daten selbst führen zum Einsatz heuristischer Methoden aus dem Bereich der Computational Intelligence. Genauer gesagt liegt der Fokus in diesem Papier darauf, wie (Fuzzy-)Clustering-Methoden und evolutionäre Algorithmen auf verschiedene Aspekte des Flugverkehrsmanagementbereichs angewendet werden. Fuzzy-Clustering-Techniken wurden zur Datenauswertung und Vorverarbeitung verwendet. Eine Aufgabe ist die Identifizierung und Korrektur von Rauschen und Ausreißern in Radarspuren als Vorverarbeitungsschritt. Darüber hinaus wurde Clustering angewendet, um allgemeine Flugrouten in retrospektiven Analyseaufgaben zu identifizieren sowie Fuzzy-Regeln zu generieren und so das Expertenwissen über Transferpassagierbewegungen zu verifizieren oder zu ergänzen. Evolutionäre Algorithmen werden verwendet, um Flug- und Bodenverkehrslotsen zu unterstützen. Nämlich in Rogena (free ROuting with GENetic Algorithms) für die Routenplanung und TRACC (Taxi Routes for Aircraft: Creation and Controlling) für die Bodenbewegungsplanung. Beide Systeme erstellen konfliktfreie Routen für Flugzeuge, die den Fluglotsen bzw. Bodenverkehrsleitern vorgeschlagen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32378-2_20 ee941d1a9da0df5b895dc6bd8a161908;de;;;7.1.;;;Bereichernde Ansichten von Informationssystemen in Organisationen: Eine Feldtheorie Drei Perspektiven haben die Forschung zu IT-Einführung, -Implementierung, -Nutzung und -Auswirkungen dominiert: technologischer Determinismus, organisatorische Notwendigkeiten und die neue Perspektive. Während letzteres in seinen Annahmen am realistischsten ist, greift es in zweierlei Hinsicht zu kurz. Erstens, die Strukturierungstheorie, die als Grundlage für die meisten auf dieser Perspektive basierenden Forschungen gedient hat, geht davon aus, dass alle Handlungsmöglichkeiten innerhalb einer Reihe von Strukturen gleichermaßen uneingeschränkt sind, während sie die potenziell einschränkenden Effekte von Struktur anerkennt. Unter dieser Annahme besteht ein zweiter Mangel der emergenten Perspektive darin, dass sie kein Licht auf die systematische Art und Weise der Handlungsbeschränkungen wirft.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-8000-X_2 d90a0df782204662eef526d04d5a9846;de;;;7.2.;;;Modellbasierte Inferenz zu IR-Systemen Forscher und Entwickler von IR-Systemen möchten im Allgemeinen Rückschlüsse auf die Wirksamkeit ihrer Systeme anhand einer Population von Benutzerbedürfnissen, Themen oder Abfragen ziehen. Der gebräuchlichste Rahmen hierfür ist das statistische Hypothesentesten, bei dem die Wahrscheinlichkeit für die Messung der beobachteten Effektivität zweier Systeme über eine Stichprobe von Themen unter einer Nullhypothese berechnet wird, dass der Effektivitätsunterschied unauffällig ist. Es ist nicht allgemein bekannt, dass diese Tests;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23318-0_11 763acd442f60a3d6446387847856408b;de;;;7.2.;;;Ontologieunterstütztes Dokumentenranking für die Neuheitssuche Innerhalb bestimmter Domänen stehen Benutzer im Allgemeinen vor der Herausforderung, eine Ontologie nach ihren Bedürfnissen zu füllen. Insbesondere bei der Neuheitserkennung und -prognose möchte der Nutzer neuartige Informationen, die in Naturtextdokumenten enthalten sind, in seine eigene Ontologie integrieren, um in einem weiteren Schritt die Wissensbasis zu nutzen. In diesem Beitrag wird ein semantischer Dokumentenranking-Ansatz vorgeschlagen, der als Voraussetzung für die Ontologie-Population dient. Durch die Verwendung der zugrunde liegenden Ontologie sowohl für die Abfragegenerierung als auch für das Dokumentenranking werden Abfrage und Ranking strukturiert und versprechen daher ein besseres Ranking in Bezug auf Relevanz und Neuheit als ohne Verwendung von Semantik.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38288-8_43 64aa4668fbc318804c1e4dc198237c19;de;;;7.2.;;;Universität Évora in QA@CLEF-2004 Der Ansatz, den das Team der Universität Évora beim Aufbau eines Systems für die Teilnahme an der CLEF 2004-Fragebeantwortungsaufgabe für Portugiesisch verfolgt, wird beschrieben. Das System basiert auf zwei Schritten: Für jede Frage wählt eine erste Suche eine Menge potenziell relevanter Dokumente aus, jedes dieser Dokumente wird dann analysiert, um eine semantische Repräsentation und die Antwort auf die anfängliche Anfrage zu erhalten. Dieser Ansatz wurde auf das QA@CLEF-Testset für Portugiesisch mit interessanten Ergebnissen angewendet, die es uns ermöglicht haben, die Stärken und Schwächen unseres Systems zu identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/11519645_52 e577ddd649e8bcdb4c6abc7e50e44ae4;de;;;7.1.;;;Anpassung von Case-Management-Techniken, um Softwareprozessflexibilität zu erreichen Softwareprozesse müssen flexibel sein, um eine Vielzahl von Softwareprojekttypen und -komplexitäten zu bewältigen. Große Unternehmen, die auf kundenspezifische Software angewiesen sind, können daher unterschiedliche Softwareprozesse definieren, um sich an verschiedene wiederkehrende Projektkontexte anzupassen (z. B. Hotfix- versus Migrationsprojekte). Allerdings folgen die Stakeholder nicht immer dem angestrebten „glücklichen Weg“ – nicht zuletzt, weil jedes Softwareprojekt typischerweise mit erheblichen Unsicherheiten zu kämpfen hat. Die Einhaltung eines agilen Prozesses kann jedoch aufgrund der Unternehmenskultur oder der Richtlinieneinschränkungen (z. B. im Gesundheitswesen oder im Finanzbereich) nicht möglich sein. In diesem Kapitel stellen wir einen Ansatz vor, um mehr Flexibilität in Softwareprozessmodelle einzuführen, indem Fallmanagementtechniken an den Bereich des flexiblen Softwareprozessmanagements angepasst werden, um die Schlüsselprobleme zu bewältigen, die mit der Softwareprozessentwicklung einhergehen. Wesentliche Funktionalitäten des Ansatzes wurden in einem Prototyp umgesetzt und Entwicklern und Architekten in einem Live-Experiment präsentiert. Das Feedback ist vielversprechend, da es zeigt, dass der Ansatz hilft, kontextspezifische Aktionen und Artefakte schnell zu identifizieren. Dies wiederum reduziert den Aufwand bei der Strukturierung der täglichen Arbeit der Softwareprozessbeteiligten in einer Umgebung sich entwickelnder Prozesselemente, die für verschiedene Arten von Projekten, Rollen und Technologien spezifisch sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-31545-4_11 89db79d8dbe8b2c8ff6b41fd1dbf0921;de;;;7.1.;;;Methodische Prinzipien der Unsicherheit in der Modellierung von Informationssystemen Die Systemmodellierung durchdringt alle Disziplinen der Wissenschaft, sowohl natürliche als auch künstliche. Die allgemeinen Konzepte der Systemmodellierung werden zusammenfassend dargestellt. Die Schlüsselrolle der Unsicherheit bei der Systemmodellierung wird diskutiert, einschließlich der Prinzipien der maximalen und minimalen Unsicherheit. Aktuelle Ergebnisse zur Konzeptualisierung von Unsicherheit, die zeigen, dass Unsicherheit ein mehrdimensionales Konzept ist, werden vorgestellt und die Auswirkungen auf die Modellierung in der Informations- und Softwaretechnik diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-5862-6_4 2203a61a7a53bfffeb69963388a68f0a;de;;;7.2.;;;Mehrdimensionale Visualisierung und Navigation in Suchergebnissen Suchmaschinen indizieren traditionell unstrukturierten Text und geben Ranglisten von Dokumenten zurück, die einer bestimmten Abfrage entsprechen. Da sich Suchmaschinen funktional in Richtung klassischer Datenbanken bewegen und einen skalierbaren und effizienten Umgang auch mit strukturierten textuellen und numerischen Daten bieten, muss diese Art der Ergebnisdarstellung überdacht und durch alternative Darstellungsformen ergänzt werden. Dieses Papier präsentiert ein multidimensionales Visualisierungsschema mit Navigationsfunktionen, das auf einem Datenaggregations-Framework basiert, das in einer hochmodernen Suchmaschine implementiert ist. Das vorgeschlagene Visualisierungsschema soll ein analytisches Verständnis der Ergebnismenge auch für Ad-hoc-Abfragen liefern und korreliert benutzerdefinierte Dimensionen oder Attribute der Dokumente. Durch den Einsatz fortgeschrittener linguistischer und Entitätsextraktionstechniken kann das Schema auch in Situationen angewendet werden, in denen die Originaldokumente aus unstrukturiertem Text bestehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30132-5_86 49c1e3f19ffe1ca68322cae25cdafbed;de;;;7.2.;;;Buchsuchexperimente: Untersuchung von IR-Methoden zur Indexierung und Wiederauffindbarkeit von Büchern Durch Massendigitalisierungsprojekte und durch den Einsatz von OCR-Technologien werden digitalisierte Bücher im Web und in digitalen Bibliotheken verfügbar. Das beispiellose Ausmaß dieser Bemühungen, die einzigartigen Eigenschaften des digitalisierten Materials sowie die unerforschten Möglichkeiten der Benutzerinteraktionen machen die Volltextsuche zu einem spannenden Gebiet der Information Retrieval (IR)-Forschung. Zu den aufkommenden Forschungsfragen gehören: Wie angemessen und effektiv sind traditionelle IR-Modelle bei der Anwendung auf Bücher? Welche buchspezifischen Merkmale (z. B. Back-of-Book-Index) sollten bei der Indexierung und beim Retrieval besonders beachtet werden? Wie können wir Skalierbarkeit angehen? Um solche Fragen zu beantworten, haben wir eine experimentelle Plattform entwickelt, die ein schnelles Prototyping eines Buchsuchsystems ermöglicht sowie groß angelegte Tests unterstützt. Mit diesem System führten wir Experimente an einer Sammlung von 10 000 Büchern durch und bewerteten die Effizienz eines neuartigen invertierten Mehrfeld-Index und die Wirksamkeit des BM25F-Suchmodells, das an Bücher angepasst ist, unter Verwendung buchspezifischer Felder.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78646-7_23 d5b9566d51603c7b9c72aa323d278d9b;de;;;7.2.;;;Vergleich von Frage-Antwort-Systemen Aktuelle Information Retrieval-Systeme wie Google basieren auf Schlüsselwörtern, wobei das Ergebnis in Form einer Liste von Dokumenten vorliegt. Die Anzahl der abgerufenen Dokumente ist groß. Der Benutzer durchsucht diese Dokumente nacheinander, um die richtige Antwort zu finden. Manchmal ist die richtige oder relevante Antwort auf die gesuchten Schlüsselwörter schwer zu finden. Studien zeigen, dass ein durchschnittlicher Benutzer, der eine Antwort auf die Frage sucht, nur sehr wenige Dokumente durchsucht. Außerdem demotiviert die Suche den Benutzer und ermüdet, wenn die Dokumente nicht den gesuchten Inhalt enthalten. Frage-Antwort-Systeme (QS-Systeme) stehen als neue Alternative zu Information Retrieval Systems. Diese Umfrage wurde im Rahmen der Promotionsarbeit zum Thema „Medizinische QS-Systeme“ durchgeführt. Das Papier zielt darauf ab, einige offene und eingeschränkte QS-Systeme zu untersuchen. Die untersuchten QS-Systeme, die sich jedoch als nützlich erwiesen haben, um Informationen zu erhalten, zeigten einige Einschränkungen in verschiedenen Aspekten, die für die Benutzerzufriedenheit behoben werden sollten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32063-7_12 d8b5975a77e7791675564e3a504af075;de;;;7.2.;;;Überwachte Kategorisierung von JavaScript Webseiten betten häufig Skripte für eine Vielzahl von Zwecken ein, einschließlich Werbung und dynamischer Interaktion. Das Verständnis eingebetteter Skripte und ihres Zwecks kann oft helfen, wichtige Informationen über die Webseite zu interpretieren oder bereitzustellen. Wir haben eine funktionsbasierte Kategorisierung von JavaScript, der am weitesten verbreiteten Skriptsprache für Webseiten, entwickelt. Wir betrachten das Verständnis eingebetteter Skripte dann als Textkategorisierungsproblem. Wir zeigen, wie traditionelle Information-Retrieval-Methoden um die Funktionen erweitert werden können, die aus dem Domänenwissen von JavaScript und Softwareanalyse gewonnen wurden, um die Klassifikationsleistung zu verbessern. Wir führen Experimente mit dem standardmäßigen WT10G-Webseitenkorpus durch und zeigen, dass unsere Techniken über 50 % der Fehler gegenüber einer standardmäßigen Textklassifizierungsbasis beseitigen.;-;-;-;https://link.springer.com/chapter/10.1007/11562382_13 821a035a539e847a02089c166b4d2223;de;;;7.1.;;;Studie zur autonomen Bahnplanung mit mobilen Robotern für die zerstörungsfreie Straßenprüfung auf GPS-Basis Dieses Papier analysiert die Aussagen von Videobildgebung, CT, Infrarotthermografie und Radiographie, die bei der zerstörungsfreien Straßenprüfung angewendet werden, und entwickelt einen mobilen Roboter zur Bahnplanung mit GPS-Positionierung, der die Effizienz der zerstörungsfreien Straßenprüfung erheblich steigern kann. Außerdem wird ein geeigneter Algorithmus für die zerstörungsfreie Prüfung auf der Straße für die Bahnplanung von autonomen mobilen Robotern angegeben. Diese Methode ist Einfachheit, Vielseitigkeit und Effizienz. Der mobile Roboter wird beispielsweise ausgewählt und die Simulationsergebnisse repräsentieren die Wirksamkeit dieser Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18369-0_37 82c6f5b08e3c7426c4322f410d7eba44;de;;;7.1.;;;Die Engineering- und Management-Plattform für Logistikdienstleistungen: Funktionen, Architektur, Implementierung Die Logistikdienstleistungsbranche sieht sich einer wachsenden Komplexität gegenüber, die durch kooperierende Logistikdienstleister, die ihre Leistungen in einem Netzwerk ausrichten, bewältigt werden muss. Dieses Papier stellt die Logistikdienstleistungs-Engineering- und Management-Plattform vor, die das Geschäftsmodell des Fourth Party Logistics Provider unterstützt, das darauf abzielt, einen Koordinator für ein solches Netzwerk zu etablieren. Daher wird die Idee vorgestellt, das serviceorientierte Designparadigma auf Software- und Geschäftsebene zusammen mit den Hauptmerkmalen der Plattform anzuwenden. Darüber hinaus wird die grundlegende Architektur erläutert und einige Implementierungsdetails näher betrachtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21863-7_21 b25a8caf1bbf58d7f82684b4051987f8;de;;;7.1.;;;Multikriterielle Entscheidungsunterstützungssysteme: Das leistungsstarke Werkzeug zum Angriff auf komplexe, unstrukturierte Entscheidungen Der Zweck dieser Forschung ist es, das grundlegende Konzept von Multi-Criteria Decision Support Systems (MCDSS) vorzustellen und einen allgemeinen Rahmen für den Aufbau eines effektiven MCDSS bereitzustellen, einem leistungsstarken Werkzeug zur Verwaltung komplexer, unstrukturierter Entscheidungen. Obwohl verschiedene Techniken für die Entscheidungsfindung nach mehreren Kriterien (MCDM) entwickelt wurden, untersucht dieser Beitrag die Funktionen und Eigenschaften von zielprogrammierungsmodellbasiertem MCDSS, die Rolle von Entscheidungsträgern und MCDM-Modellen im Entscheidungsprozess und die dynamische Interaktion zwischen Modell und Entscheider. Die potenziellen Vorteile des MCDSS werden ebenfalls erläutert.;-;-;-;https://link.springer.com/article/10.1007/BF01062821 330bd3921ef201deacc65785d11f29cf;de;;;7.1.;;;IT-Audit-Management-Architektur und -Prozessmodell In den letzten Jahrzehnten haben sich verschiedene Vorschriften herausgebildet und ein Auditor ist die letzte Verteidigungslinie gegen die Risiken der Nichteinhaltung. Daher ist das Audit Management (AM) der Informationstechnologie (IT) für die meisten Unternehmen ein entscheidender Prozess. Dies ist jedoch ein komplexer Prozess und aktuelle IT-Frameworks helfen nicht, da sie als komplex, sich überschneidend und schwer zu implementieren angesehen werden. Der Hauptbeitrag dieser Forschung ist ein formaler und vollständiger IT-AM-Prozess/-Architektur, der auf alle Arten von Organisationen nützlich und anpassbar ist und auf den relevantesten IT-Best-Practice-Frameworks, der Fachliteratur und dem Standpunkt der Praxis basiert. Als Forschungsmethodik wurde das Design Science Research (DSR) verwendet. Zur Bewertung unseres Vorschlags haben wir IT-Audit-Experten interviewt, um die Perspektive der Praktiker hinzuzufügen. Wir beenden unsere Forschung mit der Bereitstellung der wichtigsten Beiträge, Einschränkungen und zukünftigen Arbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38366-3_16 568533fa6d366a8cb6577416745e8e6c;de;;;7.2.;;;Erarbeiten einer gemeinsamen Aufgabe: Design und Evaluation einer nutzerintelligenten Systemkollaboration Dieses Papier beschreibt den Entwurf und die Benutzerbewertung einer intelligenten Benutzerschnittstelle, die zwischen Benutzern und einem adaptiven Informationsextraktionssystem (AIE) vermitteln soll. Das gestalterische Ziel war es, ein synergetisches und kooperatives Arbeiten zu unterstützen. Labortests zeigten, dass der Ansatz effizient und effektiv war, und es wurden Fokusgruppen durchgeführt, um die Benutzerfreundlichkeit zu bewerten. Protokolle, Fragebögen zur Benutzerzufriedenheit und Interviews wurden genutzt, um die Interaktionserfahrung zu untersuchen. Wir haben festgestellt, dass die Einstellung der Benutzer hauptsächlich hierarchisch ist, wobei der Benutzer die Initiativen des Systems kontrollieren und überprüfen möchte. Wenn jedoch das Vertrauen in die Systemfähigkeiten steigt, wird eine kooperativere Interaktion angenommen.;-;-;-;https://link.springer.com/chapter/10.1007/11555261_27 bc3434ce9efbec69ec35866885a61f02;de;;;7.2.;;;Den Nutzen von Ontologien messen Die technischen Herausforderungen bei der Entwicklung und dem Einsatz von Ontologien sind seit Anfang der 90er Jahre Gegenstand einer Reihe von Forschungsinitiativen. Im Vergleich dazu bleibt die Ökonomie des Ontologie-Engineerings ein wenig erschlossenes Feld, wobei sich diese Unterentwicklung auf die Akzeptanz von ontologiegetriebenen Technologien über die Grenzen der akademischen Gemeinschaft hinaus auswirkt. Die in diesem Beitrag vorgestellte Arbeit zielt darauf ab, diese Situation zu entschärfen. Wir stellen eine Methode zur Messung des Nutzens von Ontologien vor, die auf einem multiplen Gap-Modell für die Analyse der Benutzerinformationszufriedenheit basiert. Zusammen mit Kostenmodellen wie ONTOCOM lässt sich damit der wirtschaftliche Wert von Ontologien abschätzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88875-8_82 60b8365dbef6ecc2e25f839f7eb6336d;de;;;7.2.;;;Erkennung von Netzwerkanomalien mit parametrisierter Entropie Die entropiebasierte Anomalieerkennung wurde kürzlich umfassend untersucht, um die Schwächen traditioneller volumen- und regelbasierter Ansätze zur Netzwerkflussanalyse zu überwinden. Von vielen Entropiemessungen wurden nur Shannon-, Titchener- und parametrisierte Renyi- und Tsallis-Entropien zur Netzwerkanomalieerkennung verwendet. In der Arbeit wird unsere Methode basierend auf parametrisierter Entropie und überwachtem Lernen vorgestellt. Mit dieser Methode sind wir in der Lage, ein breites Spektrum an Anomalien mit geringer Falsch-Positiv-Rate zu erkennen. Darüber hinaus stellen wir Informationen zum Anomalietyp bereit. Die experimentellen Ergebnisse legen nahe, dass unsere Methode besser abschneidet als der Shannon-basierte und der volumenbasierte Ansatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45237-0_43 0f484807092d8dcf67cd6f6eb70003ef;de;;;7.2.;;;Benutzerzentrierte vs. systemzentrierte Bewertung von Empfehlungssystemen Empfehlungssysteme (RSs) zielen darauf ab, Benutzern zu helfen, große Mengen an Inhalten zu durchsuchen und effektiver die Artikel (Produkte oder Dienstleistungen) zu identifizieren, die wahrscheinlich nützlicher oder attraktiver sind. Die Qualität eines RS kann aus zwei Perspektiven definiert werden:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40477-1_21 c3e41a570974029b11249b47886efc26;de;;;7.2.;;;Ein verbesserter Algorithmus zur Wortsinn-Begriffsklärung Die Aufgabe der Begriffsklärung besteht darin, zu bestimmen, welcher der Sinne eines mehrdeutigen Wortes bei einer bestimmten Verwendung des Wortes angerufen wird [4]. Ausgehend vom Algorithmus von Yarowsky [6,5,9,10] und dem Naive Bayes Classifier (NBC)-Algorithmus schlagen wir in diesem Artikel einen ursprünglichen zweistufigen Algorithmus vor, der ihre Elemente kombiniert. Dieser Algorithmus bewahrt den Vorteil der Prinzipien von Yarowsky (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36562-4_21 4fbde677f3b345f95c975761ee42e8d7;de;;;7.1.;;;Verbesserung von Layoutproblemen von mehrstöckigen Anlagen durch systematische Layoutplanung und Simulation Um die Auswirkungen der Anwendung der systematischen Layoutplanungsmethode (SLP) auf das mehrstöckige Anlagenlayout (MFFL) eines Karten- und Paketherstellers zu ermitteln, wurde die Simulation als Bewertungsinstrument verwendet. Eine detaillierte Untersuchung des Anlagenlayouts wie der Betriebsabläufe, des Materialflusses und der Aktivitätsbeziehungen wurde durchgeführt. Als Hauptprobleme der derzeitigen MFFL wurden lange Übertragungswege, Querverkehr und Kosten identifiziert. Drei alternative Layouts wurden von SLP vorgeschlagen und jedes Layout wurde mittels Simulation evaluiert. Es wurde auch ein Vergleich zwischen den alternativen Layouts und dem aktuellen Layout angestellt. Die Simulationsergebnisse zeigen, dass das erste alternative Layout die beste Lösung ist, um die Layoutprobleme des Unternehmens zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03783-7_6 8b79a35ec2dea2f359e87ff766b03b47;de;;;7.1.;;;Ein Planungsrahmen für den Einsatz innovativer Informations- und Kommunikationstechnologien in der Beschaffung Das Management von Käufer-Lieferanten-Beziehungen ist heute für viele Unternehmen ein großes Thema. Moderne Informations- und Kommunikationstechnologien (IKT) bieten interessante Perspektiven auf Chancen und Umsetzungsansätze. Logistik- und Einkaufsabteilungen zahlreicher Unternehmen evaluieren heute die Möglichkeiten und Chancen neuer ICT-Lösungen und insbesondere internetbasierter elektronischer Beschaffungslösungen zur Optimierung und Neugestaltung ihrer Käufer-Lieferanten-Beziehungen. Aufgrund des hochinnovativen Charakters der neuen ICT-Lösungen und der kaum verfügbaren Anwendungsbeispiele in der Branche gibt es nur wenige Anleitungen, um verantwortliche Führungskräfte bei der Evaluierung, Planung und Gestaltung internetbasierter elektronischer Beschaffungslösungen zu unterstützen. Dieses Papier beschreibt einen Rahmen für die strategische Bewertung und Planung des Einsatzes internetbasierter Beschaffungslösungen für Direktmaterialien. Der vorgestellte Ansatz unterstützt Unternehmen bei der Analyse von Beschaffungsobjekten und der Beschaffungsstrukturierung, bei der Definition und dem Management von Käufer-Lieferanten-Beziehungen, bei der Bedarfsanalyse von ICT-Lösungen sowie der Einschätzung des Potenzials, den Einkauf mit innovativer ICT und Internet zu unterstützen -basierte elektronische Beschaffungslösungen.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-23852-2_23 ff0d21c710074aa8d127179dea727fcd;de;;;7.1.;;;Bewältigung des Wandels Für jedes Unternehmen gibt es Dutzende von guten Vertriebskonzepten, aber Millionen von schlechten. Sobald ein Unternehmen eines der guten Designs entdeckt, gibt es Hunderte von Möglichkeiten, es zum Laufen zu bringen, aber Millionen von Möglichkeiten, es zum Scheitern zu bringen. Ein gutes Design kann ohne eine gute Implementierung nicht effektiv funktionieren. In diesem Kapitel wird erläutert, wie Vertriebsmitarbeiter den Übergang von einem Vertriebskonzept zum anderen erfolgreich gestalten können.;-;-;-;https://link.springer.com/chapter/10.1057/9780230514928_10 7325cb575aefa91fa49706e1dc995827;de;;;7.2.;;;Frischebewusstes Thompson-Sampling Um der Dynamik der Benutzerinhalte zu folgen, haben Forscher vor kurzem damit begonnen, Interaktionen zwischen Benutzern und den kontextbewussten Empfehlungssystemen (CARS) als Banditenproblem zu modellieren, bei dem das System mit dem Explorations- und Nutzungsdilemma umgehen muss. In diesem Sinne schlagen wir vor, die Aktualität der Benutzerinhalte in CARS anhand des Banditenproblems zu untersuchen. In diesem Artikel stellen wir einen Algorithmus namens Freshness-Aware Thompson Sampling (FA-TS) vor, der die Empfehlung neuer Dokumente entsprechend dem Risiko des Benutzers der Situation verwaltet. Die intensive Auswertung und die detaillierte Analyse der experimentellen Ergebnisse zeigen einige wichtige Erkenntnisse im Explorations-/Ausbeutungsverhalten (exr/exp).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12643-2_46 091b6ed328473518a2d1922515f8c0d3;de;;;7.1.;;;Interaktive Requisiten- und Choreografieplanung mit der Mixed Reality Stage Dieses Whitepaper stellt – die Mixed Reality Stage – eine interaktive Mixed Reality-Umgebung für die gemeinsame Planung von Bühnenshows und Events vor. Die Mixed Reality Stage verbindet die Präsenz der Realität mit der Flexibilität der Virtualität zu einem intuitiven und effizienten Planungstool. Die Planungsumgebung basiert auf einer physischen Miniaturbühne, die mit computergenerierten Requisiten und Figuren angereichert ist. Benutzer können virtuelle Modelle aus einem virtuellen Menü laden, diese mithilfe von Tangible Units anordnen oder anspruchsvollere Funktionen in Form spezieller Tools verwenden. Ein wesentliches Merkmal der Mixed Reality Bühne ist die Planung von Choreografien für virtuelle Charaktere. Animationspfade können aufgezeichnet und Gehstile können auf einfache Weise definiert werden. Die Planungsergebnisse werden protokolliert und können jederzeit abgespielt werden. Es wurden Benutzertests durchgeführt, die die Realisierbarkeit der Mixed-Reality-Bühne demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-28643-1_25 0e0e5d44eba8d4fc96e0179b53ac6e8c;de;;;7.1.;;;Nachrichtenflusskontrolle Die Kommunikation auf hoher Ebene durch den Austausch von Nachrichten zwischen verschiedenen Organisationen oder Organisationseinheiten wird untersucht. Die Konzepte der Geschäftstransaktion und des Geschäftstransaktionsprotokolls werden diskutiert. Der Nachrichtenaustausch wird von einem Nachrichtenhandler gesteuert, der ein Transaktionsprotokoll erzwingt. Der Entwurf und die Implementierung eines generischen Nachrichtenhandlers werden beschrieben. Das Design ist unabhängig von einer konkreten Anwendung. Es bietet eine flexible Implementierung von Protokollen: dedizierte Unterprozesse verarbeiten jeden Nachrichtentyp. Änderungen in einem Protokoll können durch Anpassung der Teilprozesse leicht berücksichtigt werden. Ein Prototyp wurde in der ausführbaren Spezifikationssprache ExSpect geschrieben. Die Protokolle können durch Simulation des Nachrichtenaustauschs für eine Reihe von Fällen validiert werden. Als Anwendung des Prototyps wird ein Teilnehmer in einer Logistikkette mit EDI beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34871-1_4 9888f31ba44f7a791ad38d238968464f;de;;;7.1.;;;Entwicklung neuer Geschäftsmodelle durch dynamisches Boundary Management: Fallstudien von Sony und NTT-DATA Corporate Venturing (einschließlich Joint Ventures) ist zu einer zentralen Managementmethode für Strategien zur Entwicklung von Neugeschäften geworden (z. B. Von Hippel 1997, Burgelman 1983, Block 1982, Block und MacMillan 1993, Gompers und Lerner 1999, Albrinck et al. 2001). Es kann strategisch und effektiv eingesetzt werden, um Innovationen zu fördern und neue Fähigkeiten als Treiber für das Unternehmenswachstum zu schaffen. High-Tech-Unternehmen nutzen heute Corporate-Venture-Collaboration sowohl innerhalb als auch außerhalb des Konzerns als gängige Methode, um mit den komplexen Geschäftsmodellen von heute umzugehen. Gerade in der IKT-Branche ist die enge Zusammenarbeit von Akteuren unterschiedlicher Herkunft und Branchen ein entscheidender Faktor, um neues Wissen und Geschäftsmodelle zu schaffen. Die neuen Geschäftsideen können durch die Bildung von organisatorischen Netzwerken unter Einbeziehung externer Partner und Kunden hervorgebracht werden (z. B. Kodama 1999).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03789-4_3 e54973130756632c12e90125f00aa8a8;de;;;7.2.;;;Erweitern von Abfragen durch Begriffsklärung mit Wortsinn Die richtige Verwendung semantischer Informationen kann in Information Retrieval (IR)-Systemen zu verbesserter Präzision und Wiedererkennung führen. Diese Annahme ist der Ausgangspunkt für die Arbeit des MIRACLE-Forschungsteams bei ImageCLEF 2006. Zu diesem Zweck markiert eine Implementierung der Spezifikation die Methode Word Sense Disambiguation (WSD).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74999-8_74 750701ff2bb4adbff5d0848fb48aa101;de;;;7.2.;;;Extrahieren von Begriffsbeziehungen aus Wikipedia Bei der Betrachtung der Beziehung zwischen zwei Begriffen interessiert uns nicht nur, inwieweit sie miteinander verbunden sind, sondern auch, wie wir diese Beziehung dem Benutzer erklären können. Dies ist ein offenes Problem beim Ontologie-Matching, aber auch bei anderen Aufgaben, von der Informationsbeschaffung bis zur Lexikographie. In diesem Papier schlagen wir eine Lösung vor, die auf Ausschnitten aus Wikipedia basiert. Diese Schnipsel werden gefunden, indem man nach Verbindungen zwischen den beiden Begriffen sucht, z.B. die Begriffe selbst, aber auch Begriffe, die häufig in beiden Artikeln vorkommen oder Begriffe, die auf beide Artikel verweisen. Mit einer Anwenderstudie stellen wir fest, dass dies besonders nützlich ist, wenn es um nicht bekannte Zusammenhänge, aber bekannte Konzepte geht. Die Benutzer erfuhren mehr über die Beziehung und konnten sie entsprechend einstufen. Bei Daten aus dem wirklichen Leben gibt es einige Probleme mit Beinahe-Synonymen, die nicht gut erkannt werden, und Begriffen aus verschiedenen Communities, aber abgesehen davon erhalten wir brauchbare und nützliche Erklärungen zu den Begriffsbeziehungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36608-6_17 43cb3576d0cbe444eff65f8a844cf53e;de;;;7.2.;;;Hybride Empfehlungssysteme: Umfrage und Experimente Empfehlungssysteme stellen Benutzerpräferenzen dar, um Artikel zum Kauf oder zur Untersuchung vorzuschlagen. Sie sind zu grundlegenden Anwendungen im elektronischen Handel und Informationszugriff geworden und bieten Vorschläge, die große Informationsräume effektiv beschneiden, so dass Benutzer auf die Elemente gelenkt werden, die ihren Bedürfnissen und Vorlieben am besten entsprechen. Zur Durchführung von Empfehlungen wurden verschiedene Techniken vorgeschlagen, einschließlich inhaltsbasierter, kollaborativer, wissensbasierter und anderer Techniken. Um die Leistung zu verbessern, wurden diese Methoden manchmal in Hybrid-Recommendern kombiniert. Dieser Artikel untersucht die Landschaft tatsächlicher und möglicher hybrider Empfehlungsgeber und stellt einen neuartigen Hybrid vor, EntreeC, ein System, das wissensbasierte Empfehlungen und kollaboratives Filtern kombiniert, um Restaurants zu empfehlen. Darüber hinaus zeigen wir, dass semantische Bewertungen aus dem wissensbasierten Teil des Systems die Effektivität der kollaborativen Filterung erhöhen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1021240730564 ca32e065af22c259ac4163639b26c4c6;de;;;7.1.;;;Landschaftssimulation Wie in allen Bereichen des Umweltdesigns, der Umweltplanung und des Umweltmanagements ist der Einsatz von Simulationen seit langem ein integraler Bestandteil der Konzeption und Erstellung neuer Landschaftsentwürfe und -pläne. Obwohl das Konzept der Simulation alt ist, ist die Verwendung des Begriffs relativ neu. Pläne, Perspektiven und Modelle sind alles Simulationen, wurden aber selten so genannt und werden von den meisten Designern und Planern wahrscheinlich immer noch nicht. Wir neigen dazu, den Begriff für anspruchsvollere Techniken zu verwenden, die zur grafischen Analyse und Kommunikation von Design-, Planungs- und Managementideen und Bildern verwendet werden. Dies ist in diesem Kapitel nicht der Fall. Der Begriff umfasst ein breites Spektrum von grafischen Analyse- und Kommunikationsmedien, die für diese Zwecke verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-1140-7_10 1e5698cc807b9056d442d900c7a28b9b;de;;;7.1.;;;Industrie 4.0 – Digitale Neugestaltung von Produktentstehung und Produktion am Industriestandort Berlin Ende 2015 widmeten sich in Deutschland rund 449 Forschungs- und Umsetzungsprojekte dem Thema Industrie 4.0. Die großen Herausforderungen bestehen darin, einerseits bestehende Teillösungen, neue Erkenntnisse und Ergebnisse in eine umfassende und standardisierte Anwendung zu überführen, andererseits „weiße Flecken“ zu identifizieren und diese fleißig weiterzuforschen. Dieses Kapitel stellt innovative Industrie 4.0-Projekte für das reale und digitale Fabrik- und Produktmanagement des Produktionstechnischen Zentrums (PTZ) in Berlin vor und bietet eine Forschungslandkarte zur Zuordnung der eigenen Aktivitäten. Anhand eines Stufenmodells wird veranschaulicht, wie die in Zukunft erforderliche Implementierung und Operationalisierung des Informationsmanagements gemeistert werden kann. Das zukunftsweisende Konzept der Informationsfabrik dient dazu, aufzuzeigen, wie mit Hilfe des digitalen Zwillings und Smart Data Effizienz- und Effektivitätsgewinne in der Produktentstehung und Produktion erzielt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-54904-9_10 ef6b075099e43759896a9205b3de96b7;de;;;7.1.;;;Wissensmanagement durch multiperspektivische Modellierung: Organisationsgedächtnis darstellen und verteilen Die vollständige und genaue Darstellung der Wissensressourcen einer Organisation, die zusammen das „organisatorische Gedächtnis“ bilden, erfordert eine multiperspektivische Modellierung auf mehreren Detailebenen. Wir schlagen vor, dass die Perspektiven, die dargestellt werden müssen, charakterisiert werden können als;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0745-3_15 b78973a366760db35f11fd8e22bde23b;de;;;7.1.;;;Ein Rekonfigurationsmodell für Produktionssysteme basierend auf dem Reparaturansatz Die Häufigkeit der Einführung neuer Produkte erfordert ein anpassungsfähiges Produktionssystem. In diesem Zusammenhang befasst sich dieser Beitrag mit der Rekonfigurationsproblematik bei der Fabrikplanung bei der Einführung eines neuen Produkts in eine bestehende Produktionslinie. Ein Reparaturansatz aus der Planung der Wiederherstellung wird untersucht, um dieses Problem anzugehen. Wir zeigen, dass eine langfristige Leistungsfähigkeit erreicht werden kann, wenn zukünftige Produkte problemlos in das bestehende Produktionssystem integriert werden können, mit geringen Störungen des laufenden Betriebs während der Rekonfigurationsphase.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44733-8_43 6d97bff8db87e32f83ec9c5d38826141;de;;;7.1.;;;Geografische Informationssysteme (Gis) zur Bestandsaufnahme und Überwachung der Integrität von Auwäldern und Wäldern Uferökosysteme im gemäßigten Nordamerika gehören zu den produktivsten und gefährdetsten Ökosystemen der westlichen Hemisphäre. Diese linearen Ökosysteme bilden Ökotone zwischen aquatischen und Hochlandökosystemen und verbinden nördliche gemäßigte und boreale Wälder mit südlichen tropischen Wäldern. Auenökosysteme sind auch wichtige Nisthabitate für mehr als die Hälfte der Brutvogelarten des semiariden Tieflandes des nordamerikanischen Südwestens. Die Komplexität der Uferökosysteme hat zu einem Mangel an wissenschaftlichen Informationen geführt, was zu unzureichendem Management und Schutz führte. GIS bietet die Technologie zur Entwicklung von Vorhersagemodellen für Auwälder. Die Ziele sind: 1) integrierte Daten bereitzustellen, indem die Nutzbarkeit und Konsistenz aller Datensätze sichergestellt wird, 2) die Zugänglichkeit der Daten verbessert wird, indem sichergestellt wird, dass die Datenerfassungstechniken über die Grenzen von Land mit unterschiedlichen Eigentumsverhältnissen hinweg kompatibel sind, 3) die Produktivität durch Verringerung des Bedarfs steigern Daten mehr als einmal zu sammeln und einzugeben, 4) die neuesten Informationsverarbeitungstechniken anwenden, um Informationen über räumliche Ressourcen zu integrieren und zu manipulieren und 5) maßstabsunabhängige operative Analysen der Daten zu ermöglichen, die zur Erreichung der Projektziele erforderlich sind. Die richtige Anwendung dieser Ziele wird zu einer Datenbank führen, die dazu dient, unser wissenschaftliches Wissen über diese kritischen Uferökosysteme zu erweitern und die Formulierung geeigneter Managementtechniken und -ziele zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-2866-7_225 3b11fb13fd594749d52719f0fe820203;de;;;7.1.;;;Designanforderungen an ein Investitionsstrategie-Entscheidungssystem für Ausbildungs- und Personaltechnologie RDT&E Dieses Papier skizziert die Informationsanforderungen für ein Investitionsstrategie-Entscheidungssystem für Ausbildungs- und Personaltechnologie FTE&E. Das System ist von Natur aus sequentiell. Nur wenn eine Anstrengung die vorbereitenden Schritte überlebt, werden die fortschrittlichsten und zeitaufwendigsten Verfahren angewendet. Um den greifbaren Nutzen abzuschätzen, wird der erwartete Nettonutzen mit der Wahrscheinlichkeit des Erreichens der technischen Ergebnisse und der Wahrscheinlichkeit der Umsetzung multipliziert. Auch immaterielle Vorteile (und mehrere Kriterien) werden berücksichtigt. Gegebenenfalls werden Risiko- und Unsicherheitsanalysen unter Verwendung von Sensitivitätsanalysen und geeigneten statistischen Instrumenten durchgeführt. Ein kontinuierlich reagierendes Portfoliobewertungssystem würde dann eingerichtet werden. Dieses System würde eine Vielzahl von Investitionspaketen in Bezug auf Dinge wie den technischen Bereich und die Kundenbetreuungsbilanz, Auswirkungen auf die Arbeitskräfte und Trends von besonderem Interesse analysieren und vergleichen. Auch Verfahren für die relativ kurzfristige Zuweisung und Neuzuweisung von Ressourcen würden aufgenommen. Systeme dieser Art sind machbar, vorausgesetzt, dass Organisationen der Ausbildungs- und Personaltechnologie FDT&E die derzeitige Vielzahl von Arbeitseinheiten in eine kleine Anzahl zusammenhängend organisierter Stoßrichtungen mit hoher Priorität zusammenfassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45527-8_32 c6e04962bc9d6da6866a5b71f5297a00;de;;;7.1.;;;Erweiterung des Wirkungsspektrums der Prävention durch Design durch Arbeitsschutzanwendungen in der virtuellen Realität Prävention durch Design (PtD) wird als Konzept zur frühzeitigen Gestaltung von Risiken über den gesamten Lebenszyklus hinweg vorgestellt. PtD ist eine international anerkannte Initiative und eine Strategie, die mit Sicherheitsdisziplinen, der Hierarchie der Kontrollen und neuen Technologien verbunden ist. Mit zwei Forschungsprojekten wurde gezeigt, wie VR als neue Technologie für die PtD-Modellierung und -Simulation und als Mittel zur Verbesserung des Arbeitsschutzes in der frühen Arbeitssystemgestaltung eingesetzt werden kann. Untersuchungen von virtuellen Rekonstruktionen virtueller Unfälle unterstützten Ereignisabläufe und Ursachenanalysen. Dynamische Visualisierungen lösten Diskussionen über Sicherheits- und Usability-Themen im Design aus. Risikobewertungen virtueller Schleusen mit standardisierten Komponenten ermöglichen die Rückführung von Maßnahmen zur Risikominderung in die Maschinenplanung. Vorteile und Grenzen von VR-Anwendungen auf PtD wurden diskutiert und Vorschläge zur Förderung der Bemühungen von PtD wurden gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-39399-5_31 1a05297ce126464decc036f6df80fb0f;de;;;7.1.;;;Theoretische und konzeptionelle Grundlage In diesem Kapitel werden die theoretischen und konzeptionellen Grundlagen der vorliegenden Studie skizziert. Die Untersuchung beginnt mit einer Definition der Kernkonzepte in Abschn. 2.1. Ausgehend von der repräsentativen Sichtweise der IT, die als zentrale theoretische Linse für diese Studie dient, wird eine neue Definition von Software-Sourcing-Modi vorgestellt. IT-Alignment und seine Beziehung zur repräsentativen Sicht der IT werden diskutiert. Abschnitt 2.2 wird mit einer systematischen Literaturrecherche zum Wert der Softwarebeschaffung fortgesetzt. Der Wert der Softwarebeschaffung wird in ein Zwischenergebnis in Bezug auf die Softwareausrichtung und abhängige Konzepte in Bezug auf Geschäftsprozess- und Beschaffungsleistung eingeteilt. Abschnitt 2.3 fasst die theoretischen und konzeptionellen Grundlagen zusammen, die als Grundlage für die Entwicklung eines vorläufigen Forschungsmodells in Kap.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23926-2_2 0bf591a24c5a5c85535d13e50be2cd90;de;;;7.1.;;;Taba Workstation: Unterstützung technischer Lösungen durch Wissensmanagement der Design-Grundlagen Die Entwicklung und Wartung von Softwareprodukten sind wissensintensive Aufgaben. Aufgrund der hohen Fluktuation in der Softwareindustrie ist die Wahrscheinlichkeit groß, dass die ursprünglichen Designer nicht verfügbar sind, wenn Probleme auftreten und Änderungen erforderlich sind. Daher kann es von unschätzbarem Wert sein, die Gründe für die Entscheidungen aufzuzeichnen, wenn die Leute gehen und dem Software-Team beitreten, da das Wissen über die Entscheidungen derjenigen, die ausscheiden, den Neuankömmlingen weiterhin zur Verfügung steht. Diese Arbeit beschreibt einen Ansatz zur Unterstützung des technischen Lösungsprozesses durch Wissensmanagement im Kontext einer prozesszentrierten Softwareentwicklungsumgebung (PSEE) namens TABA Workstation. Es enthält auch einige Informationen zu einer Initiative zur Verbesserung von Softwareprozessen, die in einer brasilianischen Organisation durchgeführt wurde und die die Durchführbarkeit des vorgestellten Ansatzes demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/11944935_6 3f87422aec7de97a6075356fd476714a;de;;;7.2.;;;Ein integrierter semantikbasierter Ansatz beim konzeptbasierten Video-Retrieval Multimediale Inhalte sind schnell gewachsen und das Abrufen von Videos gilt als eines der bekanntesten Themen in der Multimediaforschung. Um ein gewünschtes Video abzurufen, äußern Nutzer ihre Bedürfnisse in Form von Anfragen. Abfragen können sich auf Objekt, Bewegung, Textur, Farbe, Audio usw. beziehen. Darstellungen von Video auf niedriger Ebene unterscheiden sich von Konzepten auf höherer Ebene, die ein Benutzer mit Video in Verbindung bringt. Daher ist eine semantische Abfrage für den Endbenutzer realistischer und greifbarer. Das Verständnis der Semantik von Abfragen hat einen neuen Einblick in das Abrufen von Videos und das Überbrücken der semantischen Lücke eröffnet. Das Problem besteht jedoch darin, dass das Video manuell mit Anmerkungen versehen werden muss, um Abfragen in Bezug auf semantische Konzepte zu unterstützen. Das Annotieren semantischer Konzepte, die in Videoaufnahmen vorkommen, ist eine herausfordernde und zeitaufwändige Aufgabe. Darüber hinaus ist es nicht möglich, für jedes Konzept in der realen Welt eine Annotation bereitzustellen. In dieser Studie wird ein integrierter semantikbasierter Ansatz zur Ähnlichkeitsberechnung vorgeschlagen, um die Retrieval-Effektivität beim konzeptbasierten Video-Retrieval zu verbessern. Das vorgeschlagene Verfahren basiert auf der Integration wissensbasierter und korpusbasierter semantischer Wortähnlichkeitsmaße, um Videoaufnahmen für Konzepte abzurufen, deren Annotationen für das System nicht verfügbar sind. Der Datensatz TRECVID 2005 wird zu Bewertungszwecken verwendet, und die Ergebnisse der Anwendung der vorgeschlagenen Methode werden dann mit den einzelnen wissensbasierten und korpusbasierten semantischen Wortähnlichkeitsmaßen verglichen, die in früheren Studien in demselben Bereich verwendet wurden. Die Überlegenheit der integrierten Ähnlichkeitsmethode wird in Bezug auf die mittlere durchschnittliche Präzision (MAP) gezeigt und bewertet.;-;-;-;https://link.springer.com/article/10.1007/s11042-011-0848-4 73d6995847e3d0a0d97f2473e23c96ed;de;;;7.2.;;;Eine neuartige intelligente Bewertungsmethode für SCADA-Informationssicherheitsrisiken basierend auf Kausalitätsanalyse Gegenwärtig ist das SCADA-System für Öl und Gas ernsthaften Bedrohungen der Informationssicherheit ausgesetzt, und die Bewertung der Informationssicherheit für das bestehende SCADA-System ist eine wichtige Reaktion. Um das Problem zu lösen, dass der Standard der Informationssicherheitsbewertung industrieller Steuerungssysteme nicht perfekt ist und die Bewertungsobjekte unscharf sind, wurde in dieser Studie eine neue Methode zur SCADA-Sicherheitsbewertung von Öl und Gas basierend auf Kausalitätsanalysen vorgeschlagen. Zunächst wurde die Technologieroute der Verteidigungssicherheitsbewertung mit Vorverteidigung und Nachverteidigung eingeführt und die Bewertungsindizes wurden den Faktoren vor der Verteidigung und nach der Verteidigung sowie den Bewertungstabellen vor und nach der Verteidigung für Öl- und Gas SCADA zugeordnet Systeminformationssicherheit wurden entwickelt, die Bewertungsfaktoren als Kausalitätsdiagrammtabelle gebildet, dann wurde die Faktorraumtheorie zur Bewertung und Modellierung der Informationssicherheit von Öl- und Gas-SCADA-Systemen verwendet und das Modell wurde formal beschrieben. Schließlich wurde die Bewertungsmethode der Kausalitätsanalyse des Fuzzy-Mamdani-Schlusses verwendet, um Faktorenneuronen im vorgeschlagenen Modell zu bewerten. Die Ergebnisse zeigen, dass die durchschnittliche Genauigkeit der Kausalitätsanalyse und des Entscheidungsbaumalgorithmus 92,06 bzw. 91,45 % beträgt. Die auf dem Faktorraum basierende Kausalitätsanalysemethode hat einen guten Einfluss auf die SCADA-Informationssicherheitsbewertung. Die Schlussfolgerungen dieser Studie können nicht nur auf die SCADA-Sicherheitsrisikobewertung von Öl und Gas angewendet werden, sondern bieten auch eine Referenz für andere Sicherheitsbewertungen in der Branche.;-;-;-;https://link.springer.com/article/10.1007/s10586-017-1315-4 7ff0ca329579f19733be71f18c50c02d;de;;;7.2.;;;Ein Ansatz zur Bewertung vorhandener Ontologien für die Indizierung eines Dokumentenkorpus Die Verwendung von Ontologien für IR ist eines der Schlüsselprobleme bei der Indizierung. Es ist nicht immer einfach zu entscheiden, welche Ontologie für das Korpus zu verwenden ist. Wir schlagen vor, Maßnahmen zu definieren, die die Angemessenheit einer Ontologie für ein Korpus widerspiegeln. Ziel dieser Maßnahmen ist es, zu beurteilen, ob eine Ontologie zu einem Korpus passt, aber auch, die Angemessenheit von zwei oder mehr Ontologien mit demselben Korpus zu vergleichen. Die Maßnahmen basieren auf einer lexikalischen und einer konzeptionellen Analyse des Korpus und der Ontologie. Wir haben eine erste Validierung dieser Maßnahmen an einem Korpus und Stichproben der Ontologien durchgeführt. Die Ergebnisse sind ermutigend.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30106-6_2 6a6d87148f182185a67787f5f65d69b2;de;;;7.2.;;;Reduzierung der Budgetkosten für die Etikettensammlung durch auf Verwechslungen basierende Exploration Subjektive Beurteilung ist eine wichtige Methode zur Sammlung von Labels, die zum Trainieren und Bewerten von Modellen verwendet werden. Forscher verwenden immer eine ausreichend große und feste Anzahl von Workern, um eine Instanz mit einem Label zu versehen, und fassen dann die Labels einer Instanz von mehreren Workern zu einem einzigen Label zusammen. Einige einfache Instanzen benötigen jedoch nur eine kleine Anzahl von Workern und einige schwierige Instanzen benötigen mehr Worker, um stabile aggregierte Labels zu erreichen. Der Einsatz einer festen Anzahl von Mitarbeitern kann das begrenzte Budget nicht effizient nutzen. Wir schlagen daher einen Ansatz vor, um die Kosten der Etikettensammlung zu reduzieren, indem jeder Instanz eine dynamische Anzahl von Arbeitern zugewiesen wird. Wir schlagen einen Exploration-Focused Upper-Confidence Bound (EFUCB)-Ansatz vor, der dazu neigt, die stabilen aggregierten Labels für alle Instanzen im gesamten Datensatz zu untersuchen. Es wählt iterativ eine Instanz aus, um die Arbeiter nach einem weiteren Label zu fragen. Um die Instanzen für die Kennzeichnung auszuwählen, wird im Gegensatz zur direkten Verwendung der gesammelten Labels als Belohnung die Uneinigkeit der Arbeiter verwendet, um die Belohnung für das Sammeln von Labels für eine Instanz zu messen. Die auf realen Datensätzen basierenden Experimente bestätigen, dass unser Ansatz die gleichen Budgetkosten mit weniger Einflüssen auf die aggregierten Labels reduzieren kann, sodass der Nutzen der gesammelten Labels erhalten bleibt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36802-9_26 825f12adc11d20024f45e6d4355182a9;de;;;7.1.;;;Klassifizieren von Ansätzen zur Unternehmensarchitekturanalyse Das Management der Unternehmensarchitektur (EA) ist ein allgemein anerkanntes Mittel, um die Ausrichtung von Geschäft und IT zu verbessern und die verwaltete Entwicklung des Unternehmens zu unterstützen. Eine große Herausforderung des EA-Managements besteht darin, Entscheidungsunterstützung durch die Analyse des Ist-Zustands der Architektur sowie die Bewertung geplanter zukünftiger Zustände bereitzustellen. Daher gibt es verschiedene Arten von Analysen in Bezug auf den EA, die sich jeweils auf bestimmte Bedingungen und Anforderungen an Modelle, Methoden und Techniken stützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04750-3_6 6234c421e4bc363a5e53f9ed5b0168b4;de;;;7.1.;;;Automatisierung der Arbeit am KAI-RCS: Eine Fallstudie zur Verwendung einer Bilddatenbank zur Verwaltung und Verwaltung des internationalen Wettbewerbs für das Architekturdesign des Campus der King Khaled University Heutzutage stehen viele Institutionen und Organisationen aufgrund der enorm zunehmenden Größe von Dokumenten vor ernsthaften Problemen, und dieses Problem löst die Speicher- und Abrufprobleme aufgrund des ständig wachsenden Platz- und Effizienzbedarfs weiter aus. Dieses Problem wird mit der Zeit und der Zunahme der Größe und Anzahl von Dokumenten in einer Organisation komplexer. Daher besteht ein wachsender Bedarf, dieses Problem anzugehen. Diesem Bedarf und dieser Herausforderung kann durch die Entwicklung eines Prozesses begegnet werden, der es spezialisierten Dokumenten-Imaging-Mitarbeitern ermöglicht, den am besten geeigneten Bildtyp und die am besten geeignete Scan-Auflösung auszuwählen, wenn die Bilder von Dokumenten gespeichert werden müssen. Dieses Verfahren versucht, falls angewendet, das Problem des Bildspeichertyps und der Bildgröße bis zu einem gewissen Grad zu lösen. In diesem Papier präsentieren wir eine Fallstudie, die einem angewandten Prozess ähnelt, um den Internationalen Wettbewerb für das Architekturdesign des King Khaled University Campus des King Abdullah Institute for Research and Consulting Studies genau zu verwalten und zu verwalten, indem alle Informationen und Papiermaterialien der konkurrierenden Firmen gesammelt und gespeichert werden in einer Bilddatenbank, um das Auffinden von Informationen und Material gescannter Bilder einfacher und schneller zu machen, daher optimieren wir den Arbeitsprozess und maximieren die Effizienz der KAI-RCS-Aufgaben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-8739-4_62 7cc0db60a6bdcd3975ed990ea1bf544f;de;;;7.1.;;;Forschung zur Bildgestaltung historischer und kultureller Blöcke aus Sicht der User Experience In dieser Forschung werden die Wahrnehmungswerte und Erfahrungen der Nutzer von historischen und kulturellen Blöcken gemessen und bewertet, eine Fallstudie von Xijin Ferry in Zhenjiang erstellt und allgemeine Kommentare verschiedener Nutzer zum Bild der Straße gesammelt, die entwickelt werden zu ein Teil des Forschungsmodus zur Visualisierung von Blockinformationen, indem bestimmte Werte angegeben werden. Währenddessen werden durch die Forschung Optimierungsideen und Innovationsmaßnahmen für eine neue interaktive Form der Bildgestaltung von historischen und kulturellen Blöcken vorgelegt und vorgeschlagen, die zukunftsweisenden Reizpunkte der Benutzererfahrung genau zu erfassen, aktiv Informationskanäle zu entwickeln und interaktiven Inhalten und adressieren die Bedürfnisse der Benutzer nach virtueller Erfahrung und situativer Kommunikation mit Hilfe verschiedener Arten des Informationsausdrucks.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-58463-8_23 873ec96453d5bd5e5d04e71636f915e0;de;;;7.1.;;;Bekanntschaftsmodell bei Neuplanung und Neukonfiguration Die Probleme der Neukonfiguration und Neuplanung in Multiagentensystemen, die Bekanntschaftsmodelle ihres Verhaltens untersuchen, werden in diesem Artikel diskutiert. Es werden sowohl die autonome als auch die überwachte Methode der Neuplanung unterschieden. Die Vorteile der im Produktionsplanungssystem ProPlanT verwendeten Tri-Base-Bekanntschaftsmodelle zur Lösung der Umkonfigurations- und Umplanungsaufgaben werden skizziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35529-0_17 102919c02390e7ce53a0af397cde0ed1;de;;;7.1.;;;Dokumentenidentifikation durch flache semantische Analyse Das Identifizieren einer passenden Komponente ist ein wiederkehrendes Problem in der Softwareentwicklung, insbesondere bei der Wiederverwendung von Software. Richtig verallgemeinert kann es als Problem der Informationsbeschaffung angesehen werden. Im Rahmen der Definition der Architektur eines umfassenden Softwarearchivs konzipieren wir eine zweistufige Retrievalstruktur. In diesem Beitrag berichten wir über die erste Ebene, eine Schnellsuche, die auf der Analyse natürlichsprachlicher Texte basiert. Basierend auf den textlichen und strukturellen Eigenschaften der im Repository enthaltenen Dokumente wird das Universum auf eine mittelgroße Menge von Kandidaten reduziert, die durch gezieltere Mechanismen weiter analysiert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45399-7_16 2ec0f915347f62f2c0239125ab9a2915;de;;;7.1.;;;HOMALS zur Dimensionsreduktion bei der Informationsbeschaffung Die übliche Datenbank für die multiple Korrespondenzanalyse/Homogenitätsanalyse besteht aus Objekten, die durch kategoriale Attribute gekennzeichnet sind. Seine Ziele und Ziele sind Visualisierung, Dimensionsreduktion und zum Teil Faktorenanalyse mit alternierenden kleinsten Quadraten. Was die Dimensionsreduktion angeht, gibt es starke Parallelen zwischen vektorbasierten Methoden im Information Retrieval (IR) wie dem Vektorraummodell (VSM) oder der Latent Semantic Analysis (LSA). Letztere verwendet die Singulärwertzerlegung (SVD), um eine Anzahl der kleinsten Singulärwerte zu verwerfen und auf diese Weise einen niedrigerdimensionalen Suchraum zu erzeugen. In diesem Artikel wird die HOMALS-Technik für den Einsatz im IR genutzt, indem metrische Termhäufigkeiten in Term-Dokument-Matrizen kategorisiert werden. In diesem Zusammenhang wird eine Dimensionsreduktion dadurch erreicht, dass der Abstandsunterschied zwischen Objekten in dem dimensionsreduzierten Raum im Vergleich zum volldimensionalen Raum minimiert wird. Ein beispielhafter Satz von Dokumenten wird dem Prozess vorgelegt und später zum Abruf verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24466-7_36 e004e8b6188564424e0039860e230cd5;de;;;7.1.;;;Schlanke Supply-Chain-Planung In diesem Papier werden einige Probleme und Lösungsstrategien behandelt, um die Probleme kurzer Prognosehorizonte, sich ändernder Prognosen und kurzfristiger Nachfrageschwankungen in einer langen Lieferkette zu überwinden. Ziel ist es, das Potenzial und die Grenzen der Nutzung integraler Informationen zur Optimierung der Leistung der gesamten Kette zu identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35698-3_5 95a21be44a3e505c27db32af13507704;de;;;7.2.;;;Verbesserung der Tonhöhenerkennung durch Musikvorhersage Tonhöhendetektionsverfahren werden häufig zum Extrahieren von Musikdaten aus digitalen Signalen verwendet. Eine Übersicht über diese Methoden wird in der Arbeit vorgestellt. Da Musiksignale Rauschen und Verzerrungen enthalten können, können die Erkennungsergebnisse fehlerhaft sein. In diesem Beitrag wird eine neue Methode vorgestellt, die Musikvorhersage verwendet, um die Tonhöhenbestimmung zu unterstützen. Dieses Verfahren wurde entwickelt, um die Nachteile von Standard-Tonhöhenerkennungsalgorithmen zu überwinden. Der neue Ansatz verwendet Signalsegmentierung und Tonhöhenvorhersage basierend auf der Extraktion von musikalischem Wissen unter Verwendung künstlicher neuronaler Netze. Die Signalsegmentierung ermöglicht die Schätzung der Tonhöhe für eine einzelne Note als Ganzes, wodurch Fehler in Einschwing- und Abklingphasen unterdrückt werden. Die Tonhöhenvorhersage hilft bei der Korrektur von Tonhöhenschätzungsfehlern, indem der musikalische Kontext des analysierten Signals verfolgt wird. Wie in den experimentellen Ergebnissen gezeigt wurde, können Tonhöhenschätzungsfehler reduziert werden, indem sowohl Signalsegmentierungs- als auch Musikvorhersagetechniken verwendet werden.;-;-;-;https://link.springer.com/article/10.1007/s10844-005-0324-6 c9e417a2160ba047d4b5a65d7800c788;de;;;7.1.;;;Integration, Unsicherheit, Informationsqualität und Leistungsfähigkeit: ein Überblick über die empirische Forschung Dieses Papier zielt darauf ab, die empirische Forschung zu überprüfen und zu diskutieren, die die Beziehungen zwischen Integration, Unsicherheit, Informationsqualität (IQ) und Unternehmensleistung untersucht. Ein konzeptioneller Rahmen zur Klassifizierung der begutachteten Werke wird ebenfalls vorgeschlagen. Der Umfang der Übersicht umfasst Arbeiten von 2001 bis 2013, aber einige ältere Publikationen wurden überprüft, um an einige klassische Definitionen der Konstrukte zu erinnern. Ein umfassender Blick auf diese Studien offenbarte die Fragmentierung dieses Wissensschatzes sowie Unterschiede in der Definition der Konstrukte. Der Großteil der Forschung konzentriert sich auf die dyadische Beziehung zwischen Integration und Leistung, moderiert oder nicht durch Unsicherheit. Somit fehlen in der Literatur mehr empirische Evidenz bezüglich des Integrations-IQ und der Unsicherheit-IQ-Beziehungen. Dieser Beitrag trägt zum wissenschaftlichen Feld bei, indem er alle diese vier Konstrukte zusammen in einer Literaturübersicht betrachtet, den wachsenden Wissensbestand zu diesen Themen zusammenfasst und eine kritische Analyse präsentiert. Forscher, die dieses Thema weiter untersuchen möchten, können dieses Papier als Ausgangspunkt verwenden. Das Verständnis der Führungskräfte für diese empirischen Zusammenhänge kann verbessert werden.;-;-;-;https://link.springer.com/article/10.1007/s00170-015-6836-5 40443c66c957370d578b6f35f8d4f7d3;de;;;7.1.;;;Auf dem Weg zu einem Building Information Modeling System zur Identifizierung und Nachrüstungsplanung von Steinschäden Bauarbeiten, insbesondere an historischen Gebäuden mit Fassaden aus Naturstein, erfordern heutzutage ständige Instandhaltungs-, Instandsetzungs- und Sanierungsarbeiten. Um die Anforderungen an eine vollständig digitalisierte Natursteinsanierung zu erfüllen, sollen Arbeiten mit Instrumentierung des Building Information Modeling (BIM) projektiert, geplant, durchgeführt und freigegeben werden. Aus diesem Grund wird ein neuartiges wissensbasiertes Steinschaden-Identifikationssystem mit Fokus auf Natursteinschäden auf Basis von BIM entwickelt, das implizit vorhandenes Wissen und Informationen aus der Bauvermessung explizit und objektiv unter Verwendung semantischer Datenstrukturen darstellt. BIM-SIS ist ein adaptives Schadenserkennungssystem für Naturstein, das es ermöglicht, unterschiedliche Natursteinschäden, die von unterschiedlichen Informationssystemen und mit unterschiedlichen Verfahren erfasst wurden, zu einem ganzheitlichen Schadensmodell virtuell zusammenzuführen. Dieses Modell dient dazu, die Schäden integrativ und detailliert, unterstützt durch wissensbasierte Methoden, zu bewerten und eine einheitliche und kostenstabile Sanierungsstrategie zu entwickeln. Daher besteht die BIM-SIS-Methodik aus BIMification für Informationsprozesse, Ontologien für die Wissensrepräsentation und Multimodels für die Dateninteroperabilität. Die so gebildete kontinuierliche interoperable digitale Konstruktionsdarstellung besteht aus separaten, aber miteinander verbundenen Domänenmodellen. Diese Modellstruktur wird dann für das Remediation Execution Management erweitert und ermöglicht es, nachträglich erkannte Fehler einfach während der Ausführung einzubeziehen. Das komplette Schadensprofil ist die Grundlage für alle weiteren Retrofit-Erstellungs- und Berechnungsprozesse in BIM-SIS, die automatisch zu benutzerspezifischen Retrofit-Varianten führen, die in VR und AR präsentiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-73043-7_21 f0974bb595adfe7571e65b9c57aa8bf6;de;;;7.1.;;;Gestaltung und Neugestaltung des Vertriebspersonals in der sich verändernden Welt von heute Der Erfolg eines jeden Unternehmens hängt von seiner Fähigkeit ab, Kunden zu gewinnen und zu binden. Die Vertriebsmitarbeiter sind in vielerlei Hinsicht besonders gut darin, einem Unternehmen dabei zu helfen, dies zu erreichen. Vertriebsmitarbeiter verkaufen beispielsweise komplexe Produkte und Lösungen an große Key Accounts mit einem hohen Maß an Kontrolle über den Verkaufsprozess. Vertriebsmitarbeiter bieten wechselseitige Kommunikation und soziale Interaktion mit Kunden, sie hören zu, bewerten Bedürfnisse, bieten Lösungen, reduzieren Komplexität, gehen mit Einwänden um, schaffen Wert und bieten langfristigen Service. Verkäufer sind flexibel, können das Produktangebot und die Botschaft an die Bedürfnisse und den Kaufprozess eines bestimmten Kunden anpassen, sie können schwierige Beziehungen glätten, kooperativ mit anderen Vertriebspartnern zusammenarbeiten und Kundenbindung schaffen. Aufgrund ihrer engen, persönlichen Beziehung zu den Kunden sind Vertriebsmitarbeiter eine wichtige Informationsquelle für das Unternehmen.;-;-;-;https://link.springer.com/chapter/10.1057/9780230514928_1 5467d01eefeaf25adc3528ef0a2a2b33;de;;;7.1.;;;Ein wissensbasiertes Design für Hypertext-basierte Dokumentenabrufsysteme Dieser Beitrag präsentiert einige Aspekte einer laufenden Forschung, die. zielt darauf ab, wissensbasierte Suchmechanismen in hypertextbasierte Dokumentenabrufsysteme zu integrieren. Wir schlagen eine Informationsstruktur vor, die auf einem semantischen Netzwerk-basierten Thesaurus basiert. Es dient der Darstellung der Dokumente und Konzepte (Begriffe), die bei der Informationsbeschaffung involviert sind. Die zweite wichtige Komponente unseres Designs sind heuristikbasierte Suchmechanismen, die aus unserer früheren kognitiven Modellierungsstudie (die die Suchstrategien von Expertensuchern untersuchte) abgeleitet wurden. Durch die Integration dieser Komponenten in einen navigationsbasierten Hypertext versuchen wir, ein System zu schaffen, das eine effektive und effiziente Informationssuche in einer komplexen Retrievalumgebung ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-7553-8_75 5008d75801989d172ff953a4fd0b4b7d;de;;;7.1.;;;Strategie der effektiven Entscheidungsfindung bei der Planung und Beseitigung von Folgen von Notsituationen Es wird das Problem der Entscheidungsfindung bei der Planung und Beseitigung von Folgen von Notfallsituationen betrachtet. Es werden Quellen zur Steigerung der Wirksamkeit von Maßnahmen zur Prävention und Beseitigung von Folgen von Notsituationen diskutiert. Die Bedeutung der Entscheidungsfindung im Prozess der Verhütung, Lokalisierung und Beseitigung von Folgen von Notsituationen wird betont. Es werden Probleme bei der Bestimmung vernünftiger Ressourcen und Mittel erörtert, die für die Prävention und Beseitigung von Notsituationen bereitgestellt werden sollen. Das Hauptziel eines Systems zum Schutz vor Notsituationen ist die Verringerung oder Verhütung von Schäden an der menschlichen Gesundheit und an Leben, den Wirtschaftsgütern und der Umwelt, die durch Unfälle, Katastrophen und Naturkatastrophen entstehen. Es wird eine Strategie zur effektiven Entscheidungsfindung bei der Planung und Beseitigung von Folgen von Notfallsituationen vorgeschlagen und diskutiert. Es wird ein System von Teilindikatoren vorgeschlagen, die den verhinderten Schaden aus Notfallsituationen charakterisieren. Um die optimale Ressourcenallokation entsprechend der vorhergesagten Katastrophe zu finden, wird die Methode des idealen Punktes verwendet. Einige Beispiele werden gegeben und diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-32169-7_6 48caa165bb8b630b06503e03dcee47c1;de;;;7.1.;;;Erfolg bei AMT-Implementierung und Qualitätssteigerung: Gibt es einen Zusammenhang? Das sich schnell ändernde Tempo des modernen Geschäftsumfelds hat viele Fertigungsunternehmen dazu veranlasst, nach neuen Wegen zu suchen, um Wettbewerbsvorteile zu erlangen und zu erhalten. Daraus resultieren neue Ansätze wie Total Quality Management (TQM), Empowerment von Kundenservice-Mitarbeitern und Business Process Reengineering, die stärker auf die Erfüllung der Kundenbedürfnisse eingehen. Um diese und andere Ansätze umzusetzen, setzen Unternehmen auf den technologischen Fortschritt und dessen Versprechen unter anderem kürzere Zykluszeiten, niedrigere Kosten und geringere Fehlerquoten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5281-9_10 4f4f8eb4d33e5c1cc7e511b917dc8490;de;;;7.1.;;;Risikobehandlungsvorlagen für konfigurierbare Referenzmodellierung in der Bauindustrie Zahlreiche Risiken wirken sich auf Bauprojekte aus und führen zu Veränderungen in deren Bewirtschaftungsplänen. Leider können nicht alle von ihnen im Voraus identifiziert werden. Daher erfordert das Risikomanagement im Bauwesen sowohl eine proaktive als auch eine reaktive Behandlung. Neben anderen Aufgaben des Risikomanagements erfordert die Risikobehandlung eine fundierte Methodik, um schnell konkrete Veränderungsmaßnahmen zu entwickeln und die entsprechenden Projektmanagementpläne zu ändern. In diesem Papier werden Prozessmodellierungstechniken verwendet, um konfigurierbare Behandlungsvorlagen zu entwickeln, die beschreiben, wie die Behandlung den Zeitplan ändern kann. Solche Vorlagen können dazu beitragen, konfigurierbare Referenzmodelle zu strukturieren, die wiederum angepasst und zu aktuellen Projektplänen zusammengesetzt werden können. Risikodaten als Teil des Referenzarchivs können als Mittel des Wissensmanagements dienen, indem alle verfügbaren risikobezogenen Informationen als Reaktion auf kritische Ereignisse bereitgestellt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-84837-2_24 d63b0285366688b48f78afa20966f709;de;;;7.1.;;;Zugänglichkeit computerbasierter Simulationsmodelle in inhärent konfliktbeladenen Verhandlungen Der Einsatz computergestützter Simulationsmodelle hat in Bereichen wie Umweltplanung und -politik und insbesondere in der Wasserwirtschaft eine lange Tradition. Die Politikgestaltung in diesen Bereichen ist oft durch inhärente Konflikte zwischen verschiedenen Akteuren mit unterschiedlichen Interessen gekennzeichnet. Obwohl sich Simulationsmodelle als hilfreich für solche Probleme erwiesen haben, werden sie in der Regel von einem technischen Analysten oder einer Regierungsbehörde kontrolliert und stehen den Verhandlungsführern nicht in Echtzeit zur Verfügung. Jüngste Trends in der Computertechnologie und Benutzererwartungen erhöhen die Möglichkeit von benutzergesteuerten Echtzeitmodellen zur Unterstützung von Verhandlungen. Aber ist eine solche Zugänglichkeit wahrscheinlich hilfreich? In dieser Studie wurde ein komprimiertes Längsschnittexperiment verwendet, um die Auswirkungen verschiedener Szenarien der Zugänglichkeit computerbasierter Simulationsmodelle zu untersuchen. Die Aufgabe basierte auf einem realen Problem im Wassermanagement des Colorado River. Die Ergebnisse zeigten keine signifikanten Unterschiede zwischen den Bedingungen für die Lösungsqualität oder -zufriedenheit. Diese Ergebnisse legen nahe, dass die allgemeine Vorstellung von mehr ist besser möglicherweise unangemessen ist und Ressourcen zur Verbesserung der Computerunterstützung von Verhandlungen am besten an anderer Stelle konzentriert werden könnten.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008627224343 349d6dbaee3d911eb679f9d228ee8935;de;;;7.1.;;;Supply Chain Management mit einem strategischen Modellierungs- und Simulationstool für virtuelle Lieferungen Ziel des Papiers ist es, moderne Mittel der Informationstechnologie zu finden, um projektorientierte und vernetzte Unternehmen in ihrem Supply Chain Management zu unterstützen. Simo-2, eine Software zur verteilten Geschäftsmodellierung und Simulation, wird vorgestellt und die Vorteile beschrieben, die sich aus deren Einsatz in der Projektvorplanung und -steuerung ergeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35569-6_35 a75626d2330d2a945062fcf5fcfb3726;de;;;7.2.;;;Ein probabilistischer Ansatz für das treibende Nutzerinteresse im Bergbau Inkrementelle Ansätze lernen driftende Nutzerinteressen hauptsächlich aus Nutzerfeedbacks. Die meisten dieser bestehenden Ansätze gehen davon aus, dass Dateninstanzen in Benutzerrückmeldungen binär gekennzeichnet sind. Dieses Papier stellt einen neuartigen probabilistischen Ansatz vor, der abweichende Benutzerinteressen aus numerisch gekennzeichneten Rückmeldungen anstelle von binär gekennzeichneten Rückmeldungen lernt. Der Ansatz modelliert Benutzerinteressen als eine Reihe von Wahrscheinlichkeitskonzepten, betrachtet numerische Instanzbezeichnungen als Wahrscheinlichkeiten, dass der Benutzer diese Instanzen mag, und verwendet Rückmeldungen, um Benutzerinteressenmodelle inkrementell basierend auf einem exponentiellen, neuzeitgewichteten Durchschnittsalgorithmus zu aktualisieren. Experimentelle Ergebnisse zu verschiedenen Lernaufgaben zeigen, dass der Ansatz bestehende Ansätze in numerisch gekennzeichneten Feedbackumgebungen übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00672-2_34 fe10a636fc8fd1e0bf2446f00f88d206;de;;;7.2.;;;Parallele Textausrichtung Parallel Text Alignment (PTA) ist die automatische Inhaltsausrichtung mehrerer Textdokumente, die aus derselben Quelle stammen oder aus derselben stammen. Eine solche Ausrichtung ermöglicht aufgrund des Hinzufügens von Übersetzungsansätzen zum Wiedergewinnungsproblem ein leistungsfähigeres Wiederauffinden von Dokumentinhalten. Die Auswirkungen dieses Ergebnisses auf die Verbesserung des Multimedia-Datenzugriffs in digitalen Bibliotheksanwendungen reichen von der Erleichterung der Analyse mehrerer englischer Übersetzungen klassischer Texte bis hin zur Ermöglichung des bedarfsgesteuerten und zufälligen Vergleichs mehrerer Transkriptionen, die aus einem gegebenen Audiostream stammen oder mit einem gegebenen verknüpft sind Stream von Video, Audio oder Bildern. In diesem Papier stellen wir einen effizienten Algorithmus vor, um eine solche Ausrichtung zu erreichen, und demonstrieren seine Verwendung mit zwei Anwendungen. Dieses Ergebnis ist eine Anwendung des neuen Frameworks des Cross-Modal Information Retrieval, das kürzlich am Dartmouth College und an der Michigan State University entwickelt wurde.;-;-;-;https://link.springer.com/article/10.1007/s007990050014 0e73fb158f4bddde2d8281beb58b0195;de;;;7.1.;;;GISQL – ein Abfragesprachen-Interpreter für geografische Informationssysteme In diesem Beitrag wird die Definitions- und Manipulationssprache GISQL für Geographische Informationssysteme zusammen mit ihrem Interpreter vorgestellt. Das Hauptmerkmal der GISQL-Abfragesprache besteht darin, dem Benutzer eine homogene Schnittstelle zum Abfragen von räumlichen und alphanumerischen Informationen bereitzustellen. Die homogene Schnittstelle besteht aus einer erweiterten Version der bekannten SQL-Abfragesprache. Obwohl die Informationen tatsächlich in zwei verschiedenen Datenbanken gespeichert sind, wird dem Benutzer die Ansicht einer einzigen virtuellen relationalen Datenbank präsentiert, und der GISQL-Interpreter ist für die Verwaltung der tatsächlichen Verbindungen zu den beiden physischen Datenbanken verantwortlich. Dann kann eine GISQL-Abfrage eine beliebige Kombination von räumlichen und alphanumerischen Bedingungen in einem einzigen Befehl enthalten. Um dem Benutzer die Sicht auf eine einzigartige relationale Datenbank zu ermöglichen, nutzt die GISQL-Schnittstelle das Konzept der virtuellen Tabellen. Eine virtuelle Tabelle enthält sowohl Spalten zur Aufnahme der Werte alphanumerischer Attribute als auch Spalten zur Aufnahme der Werte grafischer Attribute. Die alphanumerischen Werte werden direkt aus der SQL-Datenbank extrahiert, während die grafischen Werte aus der grafischen Datenbank abgeleitet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34905-3_17 940cf7710f6117da705ee94fbcf3d875;de;;;7.1.;;;Integrationsmodelle des Projektmanagements mit dem Wissensmanagement Der Zweck dieses Kapitels besteht darin, zu untersuchen, wie Aspekte des Wissensmanagements (KM) mit der Disziplin des Projektmanagements (PM) kombiniert werden können, um die Projekterfolgsraten und damit die Qualität des Endprodukts zu verbessern. Mehrere Wissensmanagement- und Projektmanagement-Integrationsmodelle werden untersucht, und die wichtigsten Ergebnisse zeigen, dass der Schlüsselfaktor für den Erfolg im Wissensaustausch und in kontinuierlichen Lernaktivitäten während des gesamten Projektentwicklungsprozesses liegt. Um jedoch eine gute Kultur des Wissensaustauschs zu etablieren, benötigen projektbasierte Organisationen eine barrierefreie Umgebung im Zusammenhang mit dem Transfer von Erkenntnissen, sozialer Kommunikation und Projektmanagern, die ihr Wissen horten. Darüber hinaus zeigt das Kapitel, wie andere Konzepte wie Intellectual Capital (IC) gut in die Verschmelzung von Projektmanagement und Wissensmanagement passen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-51067-5_2 d3a10955519e0dbbac508d8c0607f1d3;de;;;7.1.;;;Selbstanpassende Wiederherstellungsnetze für die richtliniengesteuerte Ausnahmebehandlung in Geschäftsprozessen In diesem Papier schlagen wir das Self-Adapting Recovery Net (SARN) vor, ein erweitertes Petri-Netz-Modell, um außergewöhnliches Verhalten in Geschäftsprozessen zu spezifizieren. SARN passt die Struktur des zugrunde liegenden Petri-Netzes zur Laufzeit an, um Ausnahmen zu behandeln, während das Petri-Netz-Design einfach gehalten wird. Der vorgeschlagene Rahmen sieht die Spezifikation von Wiederherstellungsrichtlinien auf hoher Ebene vor, die entweder in eine einzelne Aufgabe oder eine Reihe von Aufgaben integriert sind, die als a . bezeichnet werden;-;-;-;https://link.springer.com/article/10.1007/s10619-007-7020-1 0e8a583d82239164bd69e2cdccbf5758;de;;;7.1.;;;Quellnetzwerke zur Bildung virtueller Unternehmen, die im Design elektronischer Systeme aktiv sind Das Papier schlägt ein Modell eines Quellennetzwerks vor, das auf Organisationen angewendet werden kann, die in verschiedenen Bereichen und insbesondere im Design elektronischer Systeme tätig sind. Im zweiten Teil des Artikels werden einige Implementierungsdetails zu einem IT-Systemmodul zum Umgang mit dynamischer virtueller Unternehmensinitiierung gegeben. Die Suche und Auswahl von Partnern, die für das kollaborative Design benötigt werden, erfolgt unter Verwendung von Webservices-Technologie. Am Ende stellen wir uns ein mögliches Szenario der Schaffung eines virtuellen Unternehmens für das elektronische Design vor. Das vorgeschlagene Modell und die Methodik zusammen mit der angewandten Technologie machen dieses Verfahren schnell, einfach und halbautomatisch und somit sehr geeignet für eine elektronische Designdomäne.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-38269-2_43 8811cd07d94c98d653a857b6f27072c3;de;;;7.1.;;;Verständnis der aufkommenden Struktur von Kompetenzzentren in Unternehmenssystemen nach der Implementierung Frühere Forschungen liefern widersprüchliche Erkenntnisse über den Zusammenhang zwischen Investitionen in Unternehmenssysteme und Unternehmenswert sowie in die ES-Governance-Mechanismen. In der Literatur wird allgemein vorgeschlagen, dass das Management sein technisches und organisatorisches Know-how kultivieren sollte, um Wert aus den derzeit eingesetzten Enterprise Systems (ES) zu ziehen [8]. In der Praxis empfehlen ERP-Anbieter und Konfigurations-/Integrationspartner dringend, eine Organisationsstruktur zu schaffen, die den ERP-Implementierungs- und Nachimplementierungsprozess steuert, um den Projekterfolg zu verbessern und einen höheren Wert aus der ES-Investition zu ziehen. Die ES-Literatur ist zwar unklar über die Bildung und Funktionsweise von ES-Governance-Einheiten, weist aber auf die Notwendigkeit formeller und fester Governance-Strukturen hin. Diese Forschung nutzt Deleuzes Assemblage- und Emergenztheorie, um die Genese und Evolution der regierenden „Struktur“, bekannt als Competency Center (CC), zu erklären. Unsere Ergebnisse veranschaulichen die Geschäftsanforderungen, die die Strukturierungsprozesse hinter dem CC antreiben, sind aber auch diejenigen, die zu unbeabsichtigten und destabilisierenden Ergebnissen führen. Ob die CC-„Assemblage“ überlebt, um Wert zu schaffen, hängt davon ab, wie mit den aufkommenden Problemen umgegangen wird und wie die Assemblagen „positioniert“ werden. Diese Forschung legt nahe, dass eine effektive ES-Governance nicht von einem vorgeschriebenen schrittweisen Prozess abgeleitet wird, der formale Strukturen hervorbringt, sondern eher einen organischen Prozess der Assemblage bildet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45708-5_7 1bbfa3806a8081855ab2144cdd1516c0;de;;;7.1.;;;Echtzeit-Designkontrolle von Fertigungsabläufen Dieses Papier bietet die Verwendung einer strukturierten Echtzeitmethodik, die strategisch mit einem Produktionssteuerungstool angewendet wird, das mit einer heuristischen Suchmethode auf dynamische Shop-Ereignisse reagiert. Dies ist in einem regelbasierten System implementiert, und Tests haben gezeigt, dass sie eine Leistungssteigerung bewirken.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35321-0_52 08be90233f9ada67a151d8fe8a428a32;de;;;7.1.;;;Die Nutzung der Standards in der Langzeitarchivierung und -wiederherstellung sowie der Austausch von Konstruktionsdaten Standards wurden entwickelt, um Mittel zum Austausch und zur Archivierung von Konstruktionsdaten innerhalb der Automobilindustrie bereitzustellen. In den meisten Fällen reicht die einfache Anwendung dieser Standards nicht aus. Tatsächlich erfordert die Verwendung solcher Standards die Entwicklung von Empfehlungen und Methoden, die spezifische Regeln und Prozesse bereitstellen, die dem Benutzer als Leitfaden für die Verwendung des Standards in einem bestimmten Kontext dienen. In diesem Beitrag werden Beispiele für Datenaustauschprobleme mit einigen Beispielen von Methoden vorgestellt, die zu ihrer Lösung entwickelt wurden, und - Empfehlungen für die Automobilindustrie, die in verschiedenen Bereichen wie PDM-Datenaustausch, Produktdatenqualität, Langzeitarchivierung und -wiederherstellung usw. entwickelt wurden die industriellen Prozesse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41501-2_67 f055ca681f237a6289050aee30deeda4;de;;;7.1.;;;Märkte im Wandel: Auswirkungen auf den Planungsprozess in ETO-Unternehmen Dieser Artikel konzentriert sich auf die Projektplanung im ETO-Kontext unter Verwendung des Schiffbaus als empirischen Fall. Ziel der Forschung ist es zu verstehen, wie sich ein Marktwechsel von Offshore zu Kreuzfahrten auf die Planungsprozesse auswirkt. Der Artikel verwendet qualitative Methoden, um die Strategien und Entscheidungen der beteiligten Akteure zu verstehen, um eine neue Art von Build auszuführen. Die Untersuchung zeigt, wie die langfristige Bindung an einen Markt einen gewissen Arbeitsfluss verursachte. Dadurch konnten sich die beteiligten Akteure auf Routinetätigkeiten verlassen, wodurch der eigentliche Planungsprozess in den Hintergrund trat. Ein neuer Markt bringt neue Herausforderungen und Anforderungen mit sich, die diesen Arbeitsablauf gestört haben. Der Artikel analysiert die Ursachen für die mangelnde Planungsorientierung und deren Folgen. Er plädiert für die Gefahr, dass Unternehmen Struktur mit Inhalt verwechseln und macht auf die Bedeutung des Planungszusammenhangs aufmerksam. In diesem Fall der Kontext des Marktes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30000-5_68 6653dfa45842e01cc8deacae936fdf02;de;;;7.1.;;;Methodische Fragen zur Unterstützung ausgewählter Aufgaben der virtuellen Fertigungsplanung Für die virtuelle Produktionsplanung sind bereits verschiedenste Tools im Einsatz. Diese Tools konzentrieren sich hauptsächlich auf nur einen methodischen Aspekt. Um den Umfang und den Nutzen der Prozessplanung zu erhöhen, müssen mehrere methodische Aspekte in einem einzigen Tool vereint werden. Die technologische Darstellung der unterschiedlichen Aspekte erfordert in der Regel neben gängigen Datenmodellen die Anwendung verschiedener Simulationsmodelle. Insbesondere wird die Kombination von diskreten und kontinuierlichen zeitlichen und räumlichen Variablen erarbeitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41329-2_39 69384731c7ca96509d67dd91acbb60dc;de;;;7.1.;;;Integration von Lean und MRP: Eine Taxonomie der Literatur Die natürliche Entwicklung von MRP und JIT hat zu dem geführt, was wir heute als ERP bzw. Lean Production kennen. Mehr als dreißig Jahre sind seit der Einführung der JIT-Produktion in der westlichen Welt vergangen und seitdem hält sich die Diskussion um die Doppelexistenz von MRP und JIT im Bereich Operations Management, jetzt jedoch häufiger in Form von ERP und Lean. Es versteht sich von selbst, dass die Doppelexistenz der beiden Systeme bei Wissenschaftlern und Praktikern zu einem Interesse an der Vergleichbarkeit und Kompatibilität der beiden Ansätze geführt hat. Das Ziel dieser Arbeit ist es, die Literatur zu überprüfen, die sich auf die Kompatibilität der beiden konzentriert. Als solche präsentieren wir eine Taxonomie der Lean- und MRP-Integrationsliteratur.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41263-9_60 472578400d027cb56f4edea78cae6baa;de;;;7.2.;;;Integritätsmechanismen in deutschen und internationalen Zahlungssystemen Es wird ein Überblick über Maßnahmen zur Sicherstellung der Datenintegrität im deutschen und internationalen Zahlungsverkehr gegeben. Während im nationalen Electronic-Cash-System oder in der elektronischen Geldbörse hauptsächlich symmetrische kryptographische Algorithmen verwendet werden, werden in internationalen Systemen asymmetrische Verfahren eingesetzt, um die Schlüsselverwaltung zu vereinfachen. Die Beschreibungen der Zahlungssysteme sind kurz gehalten und konzentrieren sich lediglich auf einige Maßnahmen zur Sicherstellung der Integrität und Prozesskontrolle. Sie sind nicht geeignet, eine vollständige Beschreibung der Gesamtsystemsicherheit zu geben. Es wird vorausgesetzt, dass der Leser weiß, wie ein asymmetrischer kryptographischer Algorithmus funktioniert und mit den verschiedenen Betriebsarten einer symmetrischen asymmetrischen Kryptographie (hier Triple-DES) vertraut ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35693-8_11 222dafa38ee5fb7a05511c529d9eda52;de;;;7.2.;;;Analyse der Leistung von Programmverhaltensprofilen zur Erkennung von Angriffen Dieses Papier präsentiert eine Analyse eines einfachen Gleichheitsvergleichsalgorithmus, der Einbrüche in Systeme durch Profiling des Verhaltens von Programmen erkennt. Die Prämisse für diese Arbeit ist, dass sich abnormal verhaltende Programme ein Hauptindikator für Computereinbrüche sind. Die Analyse verwendet Daten, die vom Air Force Research Laboratory gesammelt und vom MIT Lincoln Laboratory im Rahmen des DARPA Intrusion Detection Evaluation-Programms von 1998 bereitgestellt wurden. Beschriftete Angriffssitzungen werden in den normalen Hintergrundverkehr eingebettet, sodass die Analyse die Wahrscheinlichkeit einer Entdeckung gleichzeitig mit der Wahrscheinlichkeit eines Fehlalarms messen kann. Die Analyse verwendet Receiver Operator Characteristic (ROC)-Kurven, um die Leistung des Systems in Bezug auf die Wahrscheinlichkeit eines Fehlalarms und die Wahrscheinlichkeit einer Erkennung für verschiedene Betriebspunkte darzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35508-5_2 2f03b9aaf8bf75b1d48ccb20dac6ed3e;de;;;7.2.;;;Leistungsanalyse von mobilen Agenten zum Filtern von Datenströmen in drahtlosen Netzwerken Drahtlose Netzwerke sind eine ideale Umgebung für mobile Agenten, da ihre Mobilität es ihnen ermöglicht, sich über eine unzuverlässige Verbindung zu einem kabelgebundenen Host zu bewegen, neben oder näher an den Ressourcen, die sie verwenden müssen. Darüber hinaus können kundenspezifische Datentransformationen über die drahtlose Verbindung verschoben und auf einem kabelgebundenen Gateway-Server ausgeführt werden, wodurch der Bandbreitenbedarf reduziert wird. In diesem Whitepaper untersuchen wir die Kompromisse bei der Entscheidung, ob mobile Agenten in einer Datenfilterungsanwendung verwendet werden sollen, bei der zahlreiche drahtlose Clients Informationen aus einem großen Datenstrom filtern, der über das kabelgebundene Netzwerk ankommt. Wir entwickeln ein analytisches Modell und verwenden Parameter aus Filterexperimenten, die während eines US Navy Fleet Battle Experiments durchgeführt wurden, um die Implikationen des Modells zu untersuchen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1013778922814 694f72db104a5921f4e16d836e960c04;de;;;7.2.;;;Ausgelöste wesentliche Überprüfung: die Auswirkung von Technologieangeboten auf Bewertungen der Serviceerfahrung Dieser Beitrag reagiert auf die jüngste Forderung, das Wesen und die Folgen der digitalen Vermittlung von Alltagserfahrungen zu verstehen. Wir tun dies im Rahmen des Online-Meinungsaustauschs. Wir schlagen vor, dass die einzigartigen Designmerkmale mobiler Computergeräte und die Absicht und der Zweck ihrer Benutzer zu einem Technologieangebot verschmelzen, das wir bezeichnen:;-;-;-;https://link.springer.com/article/10.1057/s41303-016-0019-9 e3ca9ae6776d014c8cf40b9b4282553b;de;;;7.2.;;;Community-basiertes Ranking in Peer-to-Peer-Netzwerken Wir adressieren das Problem des effizienten Rankings der besten Peers w.r.t. eine Abfrage mit mehreren gleichgewichteten Prädikaten – konjunktive Abfragen – in Shortcut-Overlay-Netzwerken. Dieses Problem tritt auf, wenn Abfragen in unstrukturierten Peer-to-Peer-Netzwerken weitergeleitet werden, z. B. in Peer-to-Peer-Informationsabrufanwendungen. Voraussetzungen für diese Aufgabe sind z.B. die volle Autonomie der Peers sowie die volle Kontrolle über die eigenen Ressourcen. Daher können in dieser Einstellung keine wichtigen Ressourcenstandort- und Abfrage-Routing-Schemata wie verteilte Hash-Tabellen angewendet werden. Um diesen Anforderungen gerecht zu werden, kombinieren wir einen neuen Ansatz zur Ressourcenlokalisierung und Query-Routing, der soziale Metaphern von aktuellen Experten und Experten von Experten mit Standard-IR-Maßnahmen für das Ranking von Peers basierend auf sammlungsweiten Informationen nutzt. Der Ansatz wurde in Simulationsläufen für schiefe Datenverteilungen und Netzwerkabwanderung vollständig getestet und teilweise im Bibster-System implementiert.;-;-;-;https://link.springer.com/chapter/10.1007/11575801_21 f3401716ab41b87d94ec9b0b897b945b;de;;;7.1.;;;Intelligente Routenplanung mit Open Data und partizipativem Sensing Smart Cities sind nicht nur die Integration von Technologie in die Infrastruktur einer Stadt, sondern erfordern auch eine intelligente und informierte Interaktion der Bürger mit ihrer städtischen Umgebung. Der Transport ist ein wichtiger Aspekt von Smart Cities. In diesem Papier stellen wir ein Open-Source-System zur intelligenten Routenplanung vor. SMART-GH nutzt offene Daten und partizipative Sensing, bei dem Bürger aktiv an der Erfassung von Daten über die Stadt in ihrer täglichen Umgebung, z. B. Lärm, Luftverschmutzung usw. teilnehmen. SMART -GH ergänzt dann die Routing-Logik mit Sensordaten, um Anfragen wie „Rückkehr der am wenigsten verrauschten Route“ zu beantworten. SMART-GH ermöglicht es den Bürgern, intelligentere Entscheidungen über ihren täglichen Weg zur Arbeit zu treffen und somit ihre Lebensqualität zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-17837-0_9 2cc2c1b2523952a28b54ca5a090aab61;de;;;7.1.;;;Statische WDM-Netzwerkplanung mit TDM-Kanalpartitionierung In diesem Beitrag wird eine neue Lösung für das Routing-, Faser-, Wellenlängen- und Zeitschlitzzuweisungsproblem (RFWTA) für ein statisches WDM-Netzwerk vorgeschlagen. Ein Satz elektronischer Anforderungen, die durch unterschiedliche Bitraten gekennzeichnet sind, wird auf Lichtpfaden durch ein TDM-Schema gepflegt, wobei die logische Topologie so entworfen wird, dass die Lichtpfadbandbreite effizient genutzt wird. Eine effiziente TDM-basierte Abbildung von elektronischen Verbindungsanforderungen mit niedriger Granularität erzielt Einsparungen beim Glasfasereinsatz, um einen gegebenen statischen Verkehr zu bewältigen. Unsere Analyse umfasst zwei verschiedene Netzwerkschichten. Zuerst werden alle elektronischen Anforderungen auf der logischen Topologie abgebildet und präpariert, um den Satz von Lichtwegverbindungsanforderungen zu erhalten. Zweitens werden solche Anfragen geroutet und Fasern und Wellenlängen gemeinsam zugewiesen. Wir verwenden das Konzept von Multihop Lightpath, um die Anzahl der Time Slot Switching (TSS)-Operationen für jede Verbindungsanfrage zu beschränken. Nach der Vorstellung unseres Designansatzes diskutieren wir die Optimierung zweier Fallstudiennetzwerke unter verschiedenen Bedingungen und analysieren die Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24693-0_14 9afc3d4a4908253bca99e6e37651537b;de;;;7.1.;;;Bausteine ​​für Enterprise Architecture Management-Lösungen Das Management der Unternehmensarchitektur (EA) ist zu einem allgemein akzeptierten Mittel geworden, um Unternehmen bei Transformationen zu begleiten, die auf ihre sich ständig ändernde Umgebung reagieren. Organisationen, die eine integrierte und effektive EA-Managementfunktion aufbauen möchten, sehen sich in der Regel mit einem schwierigen Mangel an Standardisierung in diesem Bereich konfrontiert. Obwohl das Thema von Praktikern, Forschern, Standardisierungsgremien und Toolanbietern intensiv erforscht wird, gibt es kein allgemein akzeptiertes Verständnis des Umfangs, der Reichweite und des Schwerpunkts des EA-Managements. Diese Tatsache lässt sich durch die unterschiedlichen Organisationsstrukturen, Kontexte, Kulturen und Anforderungen erklären, die unternehmensspezifisch sind und daher eine unternehmensspezifische Umsetzung der EA-Managementfunktion erfordern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16770-6_2 94939b8b885aa2aa78ca8359bb4d08b5;de;;;7.1.;;;Abruf privater Informationen mit einer vertrauenswürdigen Hardwareeinheit – erneut besucht Während der ISC 2008 stellten Yanjiang Yang, Xuhua Ding, Robert H. Deng und Feng Bao eine Konstruktion vor, um eine verschlüsselte Datenbank in einer Cloud zu speichern, damit das Zugriffsmuster verborgen bleibt. Das Schema ist für den Fall konzipiert, dass ein Benutzer eine vertrauenswürdige Hardwareeinheit besitzt, die als Schnittstelle zwischen dem Eigentümer der Datenbank und der nicht vertrauenswürdigen Umgebung dient, in der die verschlüsselte Datenbank gespeichert ist. Das Schema ist relativ effizient und hat einige nachweisbare Datenschutzeigenschaften.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21518-6_26 967d1d2a5b7cc1f15eae1812a90f728d;de;;;7.2.;;;Schlüsselwortsuche und oblivious pseudozufällige Funktionen Wir untersuchen das Problem des datenschutzwahrenden Zugriffs auf eine Datenbank. Insbesondere betrachten wir das Problem der datenschutzerhaltenden Schlüsselwortsuche (KS), bei der auf Datensätze in der Datenbank gemäß den zugehörigen Schlüsselwörtern zugegriffen wird und wir uns um die Privatsphäre sowohl des Clients als auch des Servers kümmern. Wir bieten effiziente Lösungen für verschiedene Einstellungen von KS, basierend entweder auf spezifischen Annahmen oder auf allgemeinen Primitiven (hauptsächlich oblivious transfer). Unsere allgemeinen Lösungen setzen auf eine neue Verbindung zwischen KS und der vergessenen Auswertung von Pseudozufallsfunktionen (OPRFs). Wir untersuchen daher sowohl die Definition als auch die Konstruktion von OPRFs und geben als Folge davon verbesserte Konstruktionen von OPRFs an, die von unabhängigem Interesse sein können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30576-7_17 2293814ff22b5906bb8627e05c95cf07;de;;;7.2.;;;PE Informationstechnologie und College-Sportunterricht Mit der kontinuierlichen Entwicklung von Wissenschaft und Technik spielt die Informationstechnologie eine immer wichtigere Rolle in der Lehre, zu der auch der Sportunterricht an Hochschulen und Universitäten gehört. In dieser Studie wird eine systematische Analyse für den Sportunterricht an Hochschulen und Universitäten aus informationstechnischer Sicht durchgeführt. Gleichzeitig analysiert diese Studie auch die Auswirkungen moderner Informationstechnologie auf den gesamten Prozess des Sportunterrichts und des Sportunterrichts an Hochschulen und Universitäten sowie den positiven Einfluss moderner Informationstechnologie auf die Innovation des Sportunterrichts.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29387-0_87 33ec3fccd3394f80275a605ac67b6f95;de;;;7.2.;;;BioASQ auf der CLEF2020: groß angelegte biomedizinische semantische Indexierung und Beantwortung von Fragen Dieses Papier beschreibt die achte Ausgabe der BioASQ Challenge, die als Evaluierungslabor im Rahmen von CLEF2020 durchgeführt wird. Ziel von BioASQ ist die Förderung von Systemen und Methoden für den hochpräzisen biomedizinischen Informationszugang. Dies geschieht durch die Organisation einer Reihe von Herausforderungen (geteilte Aufgaben) zur groß angelegten biomedizinischen semantischen Indexierung und Beantwortung von Fragen, bei der verschiedene Teams Systeme entwickeln, die auf den gleichen anspruchsvollen Benchmark-Datensätzen konkurrieren, die den tatsächlichen Informationsbedarf biomedizinischer Experten repräsentieren. Um diesen Informationsfindungsprozess zu erleichtern, wurden im Rahmen der BioASQ-Challenge zwei komplementäre Aufgaben eingeführt: (a) die automatisierte Erschließung großer Mengen unmarkierter Daten, hauptsächlich wissenschaftlicher Artikel, mit biomedizinischen Konzepten, (b) die Bearbeitung biomedizinischer Fragestellungen und die Generierung von nachvollziehbare Antworten. BioASQ belohnt die wettbewerbsfähigsten Systeme, die den Stand der Technik übertreffen, und schafft es, die Forschungsfront zu erweitern, um sicherzustellen, dass die biomedizinischen Experten direkten Zugang zu wertvollem Wissen haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-45442-5_71 ffa4825e4680d596d89851ec8039cce6;de;;;7.2.;;;Skript zu Informationskonzepten und -maßnahmen In den letzten Jahren wurde viel an Konzepten und Informationsmaßstäben innerhalb und außerhalb der Ingenieurwissenschaften und Mathematik gearbeitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-2730-8_1 6a9ca921e054f4748238cceb456d79d7;de;;;7.2.;;;Sicherheitsprobleme bei der Abfrage verschlüsselter Daten Es besteht ein beträchtliches Interesse an der Abfrage verschlüsselter Daten, die ein Modell des „sicheren Datenbankservers“ ermöglichen, bei dem der Server die Datenwerte nicht kennt. Dieses Papier zeigt, wie Ergebnisse aus der Kryptographie beweisen, dass es unmöglich ist, einen Server zu entwickeln, der kryptographischen Sicherheitsdefinitionen entspricht und dennoch effizient genug ist, um praktisch zu sein. Die schwächeren Definitionen von Sicherheit, die von früheren Vorschlägen für sichere Datenbankserver unterstützt wurden, haben das Potenzial, wichtige Informationen preiszugeben. Wir schlagen eine Definition eines sicheren Datenbankservers vor, der probabilistische Sicherheitsgarantien bietet, und skizzieren, wie ein praktisches System, das der Definition entspricht, aufgebaut und als sicher nachgewiesen werden könnte. Das Hauptziel dieses Papiers ist es, eine Vision zu geben, wie die Forschung in diesem Bereich vorgehen sollte: effiziente verschlüsselte Datenbank- und Abfrageverarbeitung mit;-;-;-;https://link.springer.com/chapter/10.1007/11535706_24 f11d21eac414af081462a281637ea978;de;;;7.2.;;;Eine Modellierungssprache für Interoperabilitätsbewertungen Die Entscheidungsfindung in Fragen der Interoperabilität kann durch die Verwendung von Modellen der Organisation oder des Informationssystems gefördert werden, wenn die Interoperabilität von Bedeutung ist. Zur Entscheidungsunterstützung sollten die Modelle analysefähig sein. Dieses Papier stellt eine Modellierungssprache speziell für Interoperabilitätsfragen vor, wobei Interoperabilität als die Wahrscheinlichkeit definiert wird, dass zwei weitere Akteure Informationen austauschen und diese Informationen verwenden können. Die Sprache ist mit einem Wahrscheinlichkeitsmechanismus für automatisierte Interoperabilitätsbewertungen der erstellten Modelle gekoppelt. Das Papier präsentiert auch ein Beispiel dafür, wie die Sprache angewendet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19680-5_7 a2c04eee685fbd31bad4799cad4ecffe;de;;;7.2.;;;Wikipedia-basierte Glättung zur Verbesserung der Text-Clustering Die herkömmlichen Algorithmen für das Textclustering, die auf dem Bag-of-Words-Modell basieren, erfassen die semantischen Beziehungen zwischen den Wörtern nicht vollständig. Daher werden Dokumente, die ein identisches Thema beschreiben, möglicherweise nicht in dieselben Cluster kategorisiert, wenn sie unterschiedliche Wortgruppen verwenden. Eine generische Lösung für dieses Problem besteht darin, Hintergrundwissen zu nutzen, um die Dokumentinhalte anzureichern. In dieser Studie verfolgen wir einen Sprachmodellierungsansatz für Textclustering und schlagen vor, die Dokumentsprachmodelle mithilfe von Wikipedia-Artikeln zu glätten, um die Textclusterleistung zu verbessern. Die Inhalte von Wikipedia-Artikeln sowie die ihnen zugeordneten Kategorien werden auf drei verschiedene Arten verwendet, um die Dokumentsprachenmodelle zu glätten, mit dem Ziel, die Dokumentinhalte anzureichern. Die Clusterbildung wird dann an einem Dokumentähnlichkeitsgraph durchgeführt, der auf der erweiterten Dokumentensammlung aufgebaut ist. Versuchsergebnisse bestätigen die Wirksamkeit der vorgeschlagenen Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25631-8_30 3679e54546a48c3db5c6684e82232a71;de;;;7.2.;;;Rocchio-Algorithmus zur Verbesserung der semantisch kollaborativen Filterung Das Empfehlungssystem bietet Benutzern relevante Artikel aus einem riesigen Katalog. Kollaboratives Filtern und inhaltsbasiertes Filtern sind die am häufigsten verwendeten Techniken in personalisierten Empfehlungssystemen. Bei der kollaborativen Filterung werden nur die Daten der Benutzerbewertungen verwendet, um Vorhersagen zu treffen, während die inhaltsbasierte Filterung auf semantischen Informationen von Elementen zur Empfehlung beruht. Hybrides Empfehlungssystem kombiniert die beiden Techniken. In diesem Papier stellen wir einen weiteren Hybridisierungsansatz vor: User Semantic Collaborative Filtering. Das Ziel unseres Ansatzes ist es, Benutzerpräferenzen für Elemente basierend auf ihren abgeleiteten Präferenzen für semantische Informationen von Elementen vorherzusagen. Zu diesem Zweck entwerfen wir ein neues semantisches Benutzermodell, um die Benutzerpräferenzen mithilfe des Rocchio-Algorithmus zu beschreiben. Aufgrund der hohen Dimension der Iteminhalte verwenden wir eine latent semantische Analyse, um die Datendimension zu reduzieren. Das semantische Benutzermodell wird dann in einer benutzerbasierten kollaborativen Filterung verwendet, um Vorhersagebewertungen zu berechnen und Empfehlungen bereitzustellen. Bei der Anwendung unseres Ansatzes auf den realen Datensatz, den MoviesLens 1M-Datensatz, kann eine signifikante Verbesserung im Vergleich zum reinen Nutzungs- und inhaltsbasierten Ansatz festgestellt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27030-2_19 a942e1c1162bdc747e538708102c6c6b;de;;;7.2.;;;S2S: strukturell-syntaktischer Abgleich ähnlicher Dokumente Die Verwaltung großer Sammlungen replizierter Daten in zentralisierten oder verteilten Umgebungen ist für viele Systeme wichtig, die Data Mining, Spiegelung, Speicherung und Inhaltsverteilung bereitstellen. In seiner einfachsten Form werden die Dokumente durch E-Mails und Webseiten generiert, dupliziert und aktualisiert. Obwohl Redundanz die Zuverlässigkeit auf einem gewissen Niveau erhöhen kann, verschlechtert unkontrollierte Redundanz die Abrufleistung und kann nutzlos sein, wenn die zurückgegebenen Dokumente veraltet sind. Dokumentenähnlichkeitsvergleichsalgorithmen liefern keine Informationen über die Unterschiede von Dokumenten, und Dateisynchronisationsalgorithmen sind normalerweise ineffizient und ignorieren die strukturelle und syntaktische Organisation von Dokumenten. In diesem Beitrag schlagen wir die;-;-;-;https://link.springer.com/article/10.1007/s10115-007-0108-0 18d0fce6445974c75c1ac2a6ae525bb8;de;;;7.2.;;;Ansätze zu Text-Mining-Argumenten aus Rechtsfällen Dieses Papier beschreibt neuere Ansätze, die Text-Mining verwenden, um automatisch ein Profil zu erstellen und Argumente aus Rechtsfällen zu extrahieren. Wir skizzieren einige der Hintergrundkontexte und Motivationen. Dann wenden wir uns den Fragen im Zusammenhang mit der Konstruktion und Zusammensetzung von Rechtssachenkorpora zu. Wir zeigen, wie eine kontextfreie Grammatik verwendet werden kann, um Argumente zu extrahieren, und wie Ontologien und Natural Language Processing komplexe Informationen wie Fallfaktoren und Teilnehmerrollen identifizieren können. Zusammen bringen uns die Ergebnisse der automatischen Identifizierung rechtlicher Argumente näher.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12837-0_4 6b994d4f945b3221ddd8f7073ac8ec67;de;;;7.2.;;;PreCN: Vorverarbeitung von Kandidatennetzwerken für eine effiziente Keyword-Suche über Datenbanken Die Schlüsselwortsuche über relationale Datenbanken (KSORD) hat großes Forschungsinteresse geweckt, da Gelegenheitsnutzer oder Webbenutzer die Techniken verwenden können, um einfach auf Datenbanken durch freie Schlüsselwortabfragen zuzugreifen, genau wie beim Suchen im Web. Es ist jedoch ein kritischer Punkt, wie die Leistung von KSORD-Systemen verbessert werden kann. In diesem Artikel konzentrieren wir uns auf die Leistungsverbesserung von schemagraphbasierten Online-KSORD-Systemen und schlagen einen neuartigen Preprocessing Candidate Network (PreCN)-Ansatz vor, um eine effiziente Schlüsselwortsuche über relationale Datenbanken zu unterstützen. Basierend auf einem bestimmten Datenbankschema reduziert PreCN die CN-Erzeugungszeit durch Vorverarbeitung des maximalen Tuple Sets Graph(;-;-;-;https://link.springer.com/chapter/10.1007/11912873_6 55580ed214ce0ed7b9e4aa14f6785be5;de;;;7.1.;;;Strategische Entscheidungsfindung und Informationsmanagement im Agrar- und Lebensmittelsektor In den letzten Jahren haben viele wirtschaftliche, technologische und gesellschaftliche Veränderungen den Agrar- und Ernährungssektor verändert. Solche Transformationen beeinflussen maßgeblich die gesamte Lebensmittelverarbeitungskette, die die landwirtschaftliche Produktion, die Lebensmittelverarbeitung und den Vertrieb von Lebensmitteln an die Kunden umfasst. Da Supply Chain Management (SCM) Wert darauf legt, die gesamte Lieferkette als ein System zu betrachten, sind Decision Support Systems (DSSs) Informationssysteme, die Managern in der Logistik helfen, die effektivsten Prozesse mit den größten strategischen Auswirkungen auf die Logistik zu identifizieren umgesetzt. Manager versuchen, mit dem aktuellen komplexen Umfeld mit dem Prozess der strategischen Informationssystemplanung (SISP) umzugehen. Der Zweck dieses Kapitels besteht darin, ein strategisches DSS-Modell vorzuschlagen, das auf dem strategischen Managementprozess und dem SISP-Prozess basiert, um einen ganzheitlichen Ansatz für eine effektive Entscheidungsfindung in der Logistik im Agrar- und Lebensmittelsektor bereitzustellen. Das vorgeschlagene Modell basiert auf dem strategischen Prozess der DSSs und umfasst die Phasen, die auf der Formulierung der Geschäfts- und IT-Strategie basieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-12998-9_7 0652d53dbddeafa3818e40767c2b062a;de;;;7.1.;;;Ein System von Modellen als Beitrag zur Theorie des Produktionsnetzwerks (PN) In der Planung und Steuerung von Production Networks (PN) können sich aus der Nutzung von Netzwerkeigenschaften innovative Konzepte und Lösungen ergeben. Die gleichzeitige Anwendung ausgewählter zusammenhängender Modelle, die ein Systemmodell darstellen, können sehr effiziente Lösungsverfahren für die PN-Planung und -Steuerung generieren, wie für mehrere Problemtypen aufgezeigt. Solche Modellsysteme können als Teil einer Theorievermutung für PN interpretiert werden, die auf einem topologischen Kern basiert. Alle Modelle erscheinen als eingebettete Strukturen von Netzwerkeinheiten und Verbindungen, die Faltungs-/Entfaltungseigenschaften von Graphen und Systemen tragen. Interoperabilitätsanforderungen führen zu Standardisierungen der Modelle. Der vorgeschlagene Theorieansatz soll Lösungsansätze für PN-Probleme liefern.;-;-;-;https://link.springer.com/article/10.1007/s10845-007-0062-4 2b9f73c3ab0cd3ab3ef835a01289617e;de;;;7.1.;;;Die Anwendbarkeit bestehender Wirksamkeitsmaßstäbe auf betriebliche Informationssysteme Die Verbesserung der Effektivität von Informationssystemen ist eines der Hauptziele in unserem Bereich. Die Methodik zur Messung der Wirksamkeit ist jedoch Gegenstand einer anhaltenden Debatte. Eine der Schwierigkeiten bei der Analyse oder dem Design von Experimenten zu Informationssystemen besteht darin, dass sie;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-3479-5_20 f61a60f736d4463dfb84c366747d6926;de;;;7.2.;;;Geführter interaktiver Informationszugang für E-Bürger Regierungen, insbesondere lokale, nutzen das Internet, um eine Reihe von Diensten anzubieten, die hauptsächlich informativen Charakter haben und darauf abzielen, die Lebensqualität der Bürger zu verbessern und die lokale Gemeinschaft „im Ausland“ zu fördern. Diese Dienstleistungen umfassen unter anderem Arbeitsvermittlungsdienste, Touristeninformationen (Hotels, Restaurants usw.), Gelbe Seiten zur Förderung lokaler Industrien und Aktivitäten und werden zusätzlich zu institutionellen Dienstleistungen wie Informationsdatenbanken zu Gesetzen, Vorschriften und Möglichkeiten angeboten. Wir argumentieren, dass traditionelle Methoden, die üblicherweise von Verwaltungen verwendet werden, um diese Dienste zu implementieren, nicht wirklich funktionieren und schlagen ein neues Zugangsparadigma vor, das auf konzeptioneller Manipulation basiert. Dieses Paradigma wird auf ein Stellenvermittlungsbeispiel angewendet.;-;-;-;https://link.springer.com/chapter/10.1007/11545156_25 3901fcf60e4fa8cb8e074782cee23c6c;de;;;7.2.;;;Lernmethoden zur Beantwortung mehrkörniger Anfragen In diesem Promotionsantrag geht es um die Entwicklung neuer Methoden für den Informationszugang. Zwei neue Ansätze werden vorgeschlagen: Multi-Grained Query Answering, das die Lücke zwischen Information Retrieval und Question Answering schließt, und Learning-Enhanced Query Answering, das die Verbesserung der Abrufleistung basierend auf den Erfahrungen früherer Anfragen und Antworten ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88564-1_64 d4fa7bed41e9955ca17818239823c60d;de;;;7.2.;;;Ein Modell für ein kollaboratives Empfehlungssystem für Multimediale Lernmaterialien In einem Cluster aus vielen Servern, die heterogenes Multimedia-Lernmaterial enthalten und Benutzern mit unterschiedlichem Hintergrund (z. Dies ist beim COLDEX-Projekt der Fall. Empfehlungssysteme wurden verwendet, um Menschen zu helfen, alle verfügbaren Informationen zu durchsuchen, um die für sie wertvollsten zu finden. Wir schlagen ein Empfehlungssystem vor, das multimediale Lernmaterialien basierend auf den Hintergrundpräferenzen des Lernenden sowie der verfügbaren Hard- und Software vorschlägt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30112-7_24 fb1c3e990e4731a676f471ba84d83abc;de;;;7.2.;;;Evaluierung von Linkvorhersagemethoden Link Prediction ist ein beliebtes Forschungsgebiet mit wichtigen Anwendungen in einer Vielzahl von Disziplinen, darunter Biologie, Sozialwissenschaften, Sicherheit und Medizin. Die grundlegende Anforderung der Linkvorhersage ist die genaue und effektive Vorhersage neuer Links in Netzwerken. Obwohl viele verschiedene Methoden für die Linkvorhersage vorgeschlagen werden, argumentieren wir, dass das praktische Leistungspotenzial dieser Methoden aufgrund von Herausforderungen bei der Bewertung der Linkvorhersage, die sich auf die Zuverlässigkeit und Reproduzierbarkeit der Ergebnisse auswirken, oft unbekannt ist. Wir beschreiben diese Herausforderungen, liefern theoretische Beweise und empirische Beispiele, die aufzeigen, wie aktuelle Methoden zu fragwürdigen Schlussfolgerungen führen, zeigen, wie die Fehlschlüsse dieser Schlussfolgerungen durch von uns vorgeschlagene Methoden beleuchtet werden, und entwickeln Empfehlungen für konsistente, standardisierte und anwendbare Bewertungsmetriken. Wir empfehlen auch die Verwendung von Präzisions-Rückruf-Schwellenwertkurven und zugehörigen Bereichen anstelle von charakteristischen Empfängerbetriebskurven aufgrund von Komplikationen, die aus einem extremen Ungleichgewicht beim Klassifikationsproblem der Verbindungsvorhersage entstehen.;-;-;-;https://link.springer.com/article/10.1007/s10115-014-0789-0 af975b2fa7dbc778841478d72b8a9785;de;;;7.1.;;;Effektivität der Produktionsplanung und -steuerung (PPC) in einem Babymode-Cluster unter dem Prisma parakonsistenter Logik Diese Forschung zielte darauf ab, relevante Aspekte der Produktionsplanung und -steuerung eines Babykleidungsclusters in Terra Roxa, Bundesstaat Paraná, Brasilien, zu verstehen, wobei die parakonsistente Logik als Analyse verwendet wurde. Bei der Methodik wurde ein deskriptiver Ansatz mit quantitativen und qualitativen Verfahren gewählt, wobei Datenerhebungsinstrumente wie Erhebungen verwendet werden, die für diesen Ansatz geeignet sind. Die Ergebnisse zeigen, dass die Effektivität der Produktionsplanungssteuerung im Cluster unter dem Prisma der parakonsistenten Logik tragfähig ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-51133-7_20 16e1bcc2edf114eb7c99914b3eb00711;de;;;7.1.;;;Westeuropäische Initiativen Gegenwärtige westeuropäische Datenschutzkonzepte sind ein direktes Ergebnis der Erfahrungen aus dem Zweiten Weltkrieg. Die allgemeine Tendenz der ehemaligen faschistischen und nationalsozialistischen Regierungen, große Mengen persönlicher Daten sowohl über ihre Bürger als auch über ihre besiegten Untertanen zu sammeln, hat zu einer gegenwärtigen Sensibilität der Westeuropäer gegenüber staatlichen und privaten Einrichtungen geführt, die personenbezogene Daten ohne Wissen oder Zustimmung von Daten pflegen Fächer. Um dieses einzigartige Anliegen zu verstehen, bedarf es einer kurzen Erinnerung an die Ereignisse vor und während der NS-Zeit in Europa.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-12806-8_3 4b5c1cc6c1ee70ab1880a78293cb133d;de;;;7.2.;;;Lernen, mit offenen Vokabeln zu taggen Die meisten Ansätze zur Klassifizierung von Medieninhalten gehen von einem festen, geschlossenen Vokabular von Labels aus. Im Gegensatz dazu befürworten wir Ansätze des maschinellen Lernens, die die Millionen von Freiform-Tags nutzen, die über Online-Crowd-Sourcing-Plattformen und Social-Tagging-Websites erhältlich sind. Die Verwendung solcher offener Vokabulare stellt aufgrund von Tippfehlern, Synonymie und einem potenziell unbegrenzten Satz von Tag-Labels Lernherausforderungen. In dieser Arbeit stellen wir einen neuen Ansatz vor, der diese verrauschten Tags mithilfe von Topic-Modelling in verhaltene semantische Klassen organisiert, und lernen, Tags mithilfe einer Mischung von Topic-Klassen genau vorherzusagen. Diese Methode kann ein beliebiges offenes Vokabular von Tags verwenden, reduziert die Trainingszeit um 94 % im Vergleich zum direkten Lernen aus diesen Tags und erreicht eine vergleichbare Leistung bei der Klassifizierung und eine bessere Leistung beim Abrufen. Wir zeigen auch, dass bei offenen Vokabularaufgaben menschliche Bewertungen unerlässlich sind, um die wahre Leistung von Tag-Klassifikatoren zu messen, die herkömmliche Bewertungsmethoden ständig unterschätzen. Wir konzentrieren uns auf das Markieren von Musikclips und demonstrieren unsere Ergebnisse anhand von Daten, die mit einem menschlichen Computerspiel namens TagATune gesammelt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15883-4_14 103d0eca768b7757d2846da60f3bf7a1;de;;;7.2.;;;Forschung zur Bewertung der Informationsfähigkeit von Unternehmen basierend auf einem Fuzzy-Inferenzsystem Die Entwicklung von Wissenschaft und Technologie hat den Unternehmen eine Fülle von Informationsressourcen gebracht. Die Fähigkeit von Unternehmen, solche Informationen zu erfassen, zu verarbeiten und anzuwenden, wird als „Unternehmensinformationsfähigkeit“ bezeichnet und ist zu einem wichtigen Bewertungsmaßstab für marktorientierte Unternehmen geworden. Gegenwärtig umfassen die Forschungsergebnisse der Bewertung der Unternehmensinformationsfähigkeit und der Bewertung der Konstruktion von Unternehmensinformationssystemen hauptsächlich die Konnotation der Unternehmensinformationsfähigkeit, die Verbesserung der Konstruktion der Unternehmensinformationsfähigkeit und die Konstruktion des Unternehmensinformationssystems usw. In diesem Artikel wird versucht, die Fuzzy Inferenzsystem zur Bewertung der Unternehmensinformationsfähigkeit und validiert das konstruierte Fuzzy-Inferenzsystem durch Simulationsdaten Schließlich erhält man ein gutes Bewertungsergebnis. Die Ergebnisse zeigen, dass die vom Fuzzy-Inferenz-System berechnete Punktzahl umso höher ist, je höher die Erfolgsquote jedes Indikators ist und desto stärker ist die Informationsfähigkeit des Unternehmens. Gleichzeitig kann das Verfahren des Fuzzy-Inferenz-Systems zur Bewertung von Unternehmensinformationsfähigkeiten verwendet werden.;-;-;-;https://link.springer.com/article/10.1007/s10257-018-00395-3 5044b541f6f5f2ce392a1853d0632bdd;de;;;7.2.;;;Ein neuartiger Ansatz zur Neubewertung, inspiriert von der Quantenmessung Die Quantentheorie (QT) wurde kürzlich verwendet, um die Theorie der Informationsgewinnung (IR) voranzutreiben. Eine typische Methode, nämlich das Quantum Probability Ranking Principle (QPRP), wurde vorgeschlagen, um die am häufigsten abgerufenen Dokumente neu einzuordnen, indem die gegenseitigen Abhängigkeiten zwischen Dokumenten durch die „Quanteninterferenz“ berücksichtigt werden. In diesem Beitrag versuchen wir, ein weiteres wichtiges QT-Konzept zu erforschen, nämlich die „Quantenmessung“. Inspiriert durch das Photonenpolarisationsexperiment, das der „Quantenmessung“ zugrunde liegt, schlagen wir einen neuartigen Re-Ranking-Ansatz vor. Die Auswertung mehrerer TREC-Datensätze zeigt, dass unsere Methode beim Ad-hoc-Retrieval das Erstrundenranking aus einem Baseline-Retrieval-Modell deutlich verbessern und auch das QPRP übertreffen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20161-5_79 a8860ea318d21647f6aaa344be0c0c53;de;;;7.1.;;;Das Umfeld der Fallstudie In den letzten zehn Jahren wurde die Fertigungsindustrie mit einer Vielzahl neuer hochentwickelter Werkzeuge (und tatsächlich einem neuen Vokabular – CAD, CAM, CIM, CIB, DFM usw.) konfrontiert, die vorgeben, die Wettbewerbsfähigkeit der Unternehmen zu verbessern. Im Großen und Ganzen wurden Investitionen in solche Technologien von Fertigungsleitern mit Vorsicht betrachtet. Dies ist sowohl auf die erforderlichen finanziellen Verpflichtungen als auch auf den oft immateriellen Charakter der erwarteten Vorteile für das Fertigungsgeschäft zurückzuführen. Es besteht jedoch kein Zweifel daran, dass bei geplanten Investitionen in Fertigungsmanagementsysteme ein erheblicher Wettbewerbsvorteil erzielt werden kann. Dies zeigt sich sicherlich in unserer Fallstudie über das Werk der Digital Equipment Corporation in Clonmel in der Republik Irland. Aber selbst wenn der Wert solcher Investitionen im Voraus bestimmt werden kann, bleibt die Herausforderung bestehen, Systeme zu implementieren, die für die jeweilige Anlage angesichts ihres Geschäfts, Automatisierungsgrads, Prozessdesigns, Personal- und Qualifikationsniveaus sowie der Verpflichtung zur Information geeignet sind Technologie (IT).;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-1296-3_10 3d430fababe66baeed13e8cb549056b0;de;;;7.1.;;;Dialektik und Widersprüche in der öffentlichen Beschaffung von Informationssystemen Die öffentliche Beschaffung von Informationssystemen ist ein hochkomplexer Prozess. Es überrascht nicht, dass Systeme oft nicht die Anforderungen erfüllen, für die sie beschafft wurden. Eine der Hauptursachen hierfür sind die Widersprüche zwischen den Zielen verschiedener Stakeholder. Das Erkennen und Verstehen dieser Konflikte und Widersprüche ist unerlässlich, um Strategien zur Verbesserung des Beschaffungsprozesses zu entwickeln. In diesem Papier präsentieren wir eine Fallstudie, in der wir den Beschaffungsprozess eines Systems untersucht haben, der von einer öffentlichen Einrichtung in Norwegen durchgeführt wird. Anhand der Dialektiktheorie und der Stakeholdertheorie als Interpretationslinsen identifizierten wir eine Reihe von Konflikten und Widersprüchen. Einige der Widersprüche resultierten aus widersprüchlichen und unterschiedlichen Zielen der verschiedenen Interessengruppen über Gruppen hinweg, aber auch innerhalb von Gruppen, während andere aus unterschiedlichen Zielen von Richtlinien und Vorschriften resultierten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44426-9_24 38f6370895277ec180d161f0d2ce1985;de;;;7.1.;;;Bridging the Gap – von der prozessbezogenen Dokumentation zu einem integrierten Prozess- und Anwendungswissensmanagement in der Mikrosystemtechnik Das Wissen über die Zusammenhänge zwischen Prozessschritten oder Abhängigkeiten von Materialien, Technologien, Konstruktionen, Werkzeugen und Maschinen ist meist in den Köpfen der Produktentwickler gespeichert. Der gleiche Effekt tritt ein, wenn man über produktbezogenes Wissen und die damit verbundenen technologischen Anforderungen spricht. Es geht verloren, wenn die Person das Unternehmen verlässt. Der folgende Beitrag beschreibt einen Wissensmanagement-Ansatz zur produktunabhängigen Beschreibung von Micro System Prozessen und stellt einen Software-Prototyp zur Entscheidungsunterstützung in frühen Produktentwicklungsphasen vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-77405-3_10 71d2810d201c68dcf3ab23252f3b545c;de;;;7.1.;;;Architektur des Menschen – Maschinelle Entscheidungsfindungssysteme Der Hauptgrund, warum Menschen an der Steuerung und Überwachung von Prozessumgebungen aller Art beteiligt sind, ist die Tatsache, dass der Mensch in kritischen Situationen letztendlich für die Entscheidungsfindung verantwortlich ist und sein muss. Dies muss bei der Gestaltung technologischer Systeme und ihrer organisatorischen Umgebung berücksichtigt werden. Der reine Automatisierungsansatz scheitert zumindest bei komplexen Systemen daran, dass die Schnittstelle zum Menschen nur unpassend nachträglich hinzugefügt werden kann. Die Verteilung von Aufgaben und Verantwortlichkeiten zwischen verschiedenen technologischen, menschlichen und organisatorischen Systemkomponenten beeinflusst das Verhalten des Gesamtsystems in Normal- und Notfallsituationen stark. Dies ist insbesondere im Hinblick auf die Entscheidungsfähigkeit wichtig, wenn Zeitdruck, Unsicherheiten oder Risiken bewältigt werden müssen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-50329-0_20 f6b29818922cb5939f31a9a04b4e2804;de;;;7.2.;;;Vorläufige mehrsprachige Evaluation eines Frage-Antwort-Systems basierend auf der Node-of-Wissen-Methode Die Node of Knowledge (NOK)-Methode ist eine Methode zur Wissensrepräsentation. Es dient als Grundlage für die Entwicklung des Formalismus für die textuelle Wissensrepräsentation (FNOK). FNOK wurde für die Entwicklung eines Question Answering (QA) Systems verwendet, dessen Forschungsergebnisse in diesem Papier vorgestellt werden. Das QS-System basiert auf der Speicherung von Text in relationalen Datenbanken ohne Semantikverlust und ist in Oracle implementiert. In diesem Beitrag stellen wir die Ergebnisse einer vorläufigen Evaluierung des QS-Systems auf seine Sprachunabhängigkeit vor. Das System wurde mit den gleichen Sätzen und Fragen getestet, die in Englisch, Deutsch, Italienisch und Kroatisch übersetzt wurden. Das Wissen im System basierte auf 26 einfachen Sätzen. 44 Fragen wurden gestellt und das System bot 62 Antworten für jede Sprache (einige Fragen hatten mehr als eine Antwort). Forschungsergebnisse haben gezeigt, dass dieses QS-System für jede der vier Sprachen verwendet werden kann, ohne dass Funktionen und Algorithmen geändert werden müssen. Es müssen lediglich die Wörterbuchdaten für jede Sprache eingestellt, Synonyme implementiert und verschiedene Wortformen erkannt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-12388-8_69 6eda53317a8ebf17ce683a5546060108;de;;;7.1.;;;Komplexität und Informationssysteme: die aufstrebende Domäne Dieser Beitrag beschäftigt sich mit der Entstehung der Domäne der Informationssysteme (IS) als zentralem Merkmal der Managementforschungslandschaft in der vernetzten Welt. Sie zeigt, dass die Entstehung der Netzwerkökonomie und Netzwerkgesellschaft einen Paradigmenwechsel in der IS-Disziplin erfordert und dass die Komplexitätswissenschaft die geeigneten Konzepte und Werkzeuge bietet, um einen solchen Wandel zu bewirken. Um eine Verwechslung grundlegender Konzepte der Komplexitätswissenschaft mit den umgangssprachlichen Verwendungen der Komplexitätsterminologie zu vermeiden, bietet der Artikel eine Einführung in Konzepte der Komplexitätswissenschaft für diejenigen im IS-Bereich, die mit der Komplexitätstheorie nicht vertraut sind. Anschließend wird der Nutzen dieser Konzepte für die Entwicklung von IS-Theorie und -Praxis für die entstehende vernetzte Welt untersucht.;-;-;-;https://link.springer.com/article/10.1057/palgrave.jit.2000081 150b3d1211579ef9e50f6f08b2a4448c;de;;;7.2.;;;Eine adäquate Darstellung medizinischer Daten basierend auf einer partiellen Set-Approximation Computergestützte medizinische Diagnose und Behandlung erfordern eine angemessene Darstellung unsicherer oder unvollständiger medizinischer Daten. Es gibt viele Ansätze, mit solchen Datentypen umzugehen. Pawlak schlug eine neue Methode vor, die als grobe Mengenlehre bezeichnet wird. In diesem Beitrag schlagen die Autoren jenseits klassischer und neuerer Methoden einen grundsätzlich neuen Ansatz vor. Sie beruht auf einer Verallgemeinerung der groben Mengenlehre, nämlich der teilweisen Abdeckung des Universums von Objekten. Es spiegelt die partielle Natur der Probleme des wirklichen Lebens angemessen wider. Dieser neue Ansatz, der als partielle Approximation von Mengen bezeichnet wird, wird vorgestellt und seine Anwendung in der Medizininformatik wird demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40925-7_12 8bd79f50fdc2de5efc08fe15ecf7b376;de;;;7.2.;;;Ein normatives Modell von Sales Force Feedback als Element eines Marketing-Informationssystems In diesem Papier wird ein normatives Modell des Verkaufspersonal-Feedbacks dargestellt. Dabei werden drei Hauptdimensionen und mehrere Unterdimensionen identifiziert und diskutiert. Außerdem werden Frameworks zur Evaluierung eines bestehenden Systems und zur Etablierung eines ersten Systems vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16943-9_54 a4e85c56dff45428a0ef766a03bd2445;de;;;7.2.;;;Kostengünstige Eye-Tracker: Nützlich für die Informationssystemforschung? Forschung, die kognitive Aspekte von Informationssystemen untersucht, ist oft auf detailreiche Daten angewiesen. Eye-Tracker versprechen, entsprechende Daten zu liefern, aber die damit verbundenen Kosten übersteigen oft das Budget der Forscher. In letzter Zeit sind Eye-Tracker auf den Markt gekommen, die Eye-Tracking-Unterstützung zu einem vernünftigen Preis versprechen. In dieser Arbeit untersuchen wir, ob solche Eye-Tracker für die Informationssystemforschung von Nutzen sind und untersuchen in einer empirischen Studie die Genauigkeit eines kostengünstigen Eye-Trackers (Gazepoint GP3). Die Ergebnisse zeigen, dass Gazepoint GP3 ​​für entsprechende Forschungen gut geeignet ist, da experimentelles Material die Grenzen des Eye-Trackers anerkennt. Um die Replikation und den Vergleich der Ergebnisse zu fördern, werden alle Daten, experimentelles Material sowie der für diese Studie entwickelte Quellcode online verfügbar gemacht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07869-4_14 4c87558a138e856c8273baea115c1d27;de;;;7.2.;;;Facebook5k: Ein neuartiger Ressourcendatensatz für die medienübergreifende Suche Die Auswahl semantischer Konzepte für die Modellkonstruktion und Datensammlung ist eine offene Forschungsfrage. Es ist sehr anspruchsvoll, gute Multimediakonzepte mit kleinen semantischen Lücken zu wählen, um die Arbeit medienübergreifender Systementwickler zu erleichtern. Da diese Arbeit daher sehr selten ist, trägt dieser Artikel einen neuen realen Web-Bilddatensatz bei, der von Studenten des NGN Tsinghua Laboratory für die medienübergreifende Suche erstellt wurde. Im Gegensatz zu früheren Datensätzen wie Flicker30k haben Wikipedia und NUS eine hohe semantische Lücke, was zu Inkonsistenzen mit Echtzeitanwendungen führt. Um diese Nachteile zu überwinden, enthält der vorgeschlagene Facebook5k-Datensatz: (1) 5130 Bilder, die von Facebook durch die Gefühle der Benutzer gecrawlt wurden, (2) Bilder werden nach den Gefühlen der Benutzer kategorisiert, (3) Facebook5k ist unabhängig von Tags und Sprache, anstatt Gefühle für Suche. Basierend auf dem vorgeschlagenen Datensatz weisen wir auf die wichtigsten Merkmale von Bildern sozialer Websites hin und identifizieren einige Forschungsprobleme bei der Bildannotation und beim Abrufen. Die Benchmark-Ergebnisse zeigen die Wirksamkeit des vorgeschlagenen Datensatzes zur Vereinfachung und Verbesserung des allgemeinen Bildabrufs.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00006-6_47 7d5ca5f013e04ea9742e14a478015311;de;;;7.2.;;;Abfrageerweiterung basierend auf der Benutzerqualität in Folksonomy Mit der Entwicklung der Folksonomie werden soziale Anmerkungen in verschiedenen Bereichen häufig verwendet. Als eine der Anwendungen von Social Annotations hat sich die Abfrageerweiterung als sinnvoll und effektiv erwiesen. Da die Benutzerqualität die Relevanz zwischen Anmerkungen und Ressourcen beeinflusst, folgern wir, dass sie die Relevanz zwischen Erweiterungsbegriffen und den entsprechenden ursprünglichen Abfragen beeinflussen kann. Daher sind wir der Meinung, dass Anmerkungen, die von hochwertigen Benutzern verwendet werden, besser als Erweiterungsbegriffe dienen. In diesem Artikel schlagen wir einen neuartigen Algorithmus vor, um die Benutzerqualität zu erhalten, und untersuchen dann zwei Methoden, um die Benutzerqualität in das Abfrageerweiterungsverfahren zu integrieren: Eine besteht darin, die vom anfänglichen Abruf zurückgegebenen Ressourcen anhand der Benutzerqualität zu filtern, die andere besteht darin, die Gewichtung zu erhöhen der Erweiterungsbedingungen, bei denen es sich um Anmerkungen von qualitativ hochwertigen Benutzern handelt. Unsere Experimente mit dem Datensatz Del.icio.us haben gezeigt, dass die Benutzerqualität für die Auswahl guter Expansionsbedingungen hilfreich ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35341-3_35 3a199fecc0cb24a1fb9db4086dc5d553;de;;;7.2.;;;Präferenzbezogene QoS-Evaluierung für die Zusammensetzung von Cloud-Webdiensten basierend auf künstlichen neuronalen Netzen Da QoS-Eigenschaften eine immer wichtigere Rolle bei der Zusammensetzung von Webdiensten in Cloud-Umgebungen spielen, haben sie sowohl in der Forschungsgemeinschaft als auch im IT-Bereich großes Interesse gefunden. Die Bewertung der umfassenden QoS-Werte zusammengesetzter Dienste in Übereinstimmung mit den Präferenzen der Verbraucher ist jedoch aufgrund der Subjektivität der Verbraucher immer noch ein bedeutendes, aber herausforderndes Problem. Da es ziemlich mühsam ist, die Präferenz durch die expliziten Gewichtungen widerzuspiegeln, die jedem Kriterium zugewiesen werden, schlägt dieses Papier eine globale QoS-gesteuerte Bewertungsmethode basierend auf künstlichen neuronalen Netzen vor, die darauf abzielt, die Webservice-Zusammensetzung ohne Präferenzgewichte zu erleichtern. Darüber hinaus wird ein Prototyp-Kompositionssystem entwickelt, um die Umsetzung des vorgeschlagenen Ansatzes zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16515-3_51 02f383b2fa8249699646eaa23a65addc;de;;;7.2.;;;Verbesserung der Videokonzepterkennung durch räumlich-zeitliche Korrelation Graphbasierte halbüberwachte Lernansätze haben sich als effektiv und effizient bei der Lösung des Problems der Ineffizienz von gekennzeichneten Trainingsdaten in vielen realen Anwendungsbereichen, wie der Videokonzepterkennung, erwiesen. Als wesentlicher Faktor dieser Algorithmen wurde jedoch die paarweise Ähnlichkeitsmetrik von Stichproben nicht vollständig untersucht. Insbesondere beruht bei bestehenden Ansätzen die Schätzung der paarweisen Ähnlichkeit zwischen zwei Abtastwerten auf der räumlichen Eigenschaft von Videodaten. Andererseits ist die zeitliche Eigenschaft, eine wesentliche Eigenschaft von Videodaten, nicht in das paarweise Ähnlichkeitsmaß eingebettet. Dementsprechend wird in diesem Papier ein neuartiges Framework zur Erkennung von Videokonzepten vorgeschlagen, das als Joint Spa-Temporal Correlation Learning (JSTCL) bezeichnet wird. Dieses Framework zeichnet sich dadurch aus, dass es gleichzeitig sowohl die räumliche als auch die zeitliche Eigenschaft von Videodaten berücksichtigt, um die Berechnung der paarweisen Ähnlichkeit zu verbessern. Wir wenden das vorgeschlagene Framework auf die Erkennung von Videokonzepten an und berichten über eine überlegene Leistung im Vergleich zu wichtigen bestehenden Ansätzen gegenüber dem Benchmark-TRECVID-Datensatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15702-8_5 a313013b0116c5f3a873824521b2a695;de;;;7.2.;;;Automatisierung der Datenintegration in adaptiven und datenintensiven Informationssystemen Die Datenerfassung ist für Organisationen kein Problem mehr, da viele Anstrengungen zur Automatisierung der Datenerfassung und -speicherung unternommen wurden, um Zugriff auf eine Vielzahl heterogener Datenquellen zu bieten, die zur Unterstützung des Entscheidungsprozesses verwendet werden können. Diese Bemühungen wurden jedoch nicht auf den Kontext der Datenintegration ausgeweitet, da viele Datentransformations- und Integrationsaufgaben wie der Entitäts- und Attributabgleich in hohem Maße manuell erfolgen. Dies ist nicht geeignet für komplexe und dynamische Kontexte, in denen Informationssysteme anpassungsfähig genug sein müssen, um die Schwierigkeiten zu mildern, die sich aus dem häufigen Hinzufügen und Entfernen von Quellen ergeben. Diese Arbeit schlägt eine Methode zur automatischen Inferenz des geeigneten Datenmappings von heterogenen Quellen vor, die den Datenintegrationsprozess durch einen semantischen Überblick über die Datenquellen mit quantitativen Maßen des Konfidenzniveaus unterstützt. Die vorgeschlagene Methode umfasst sowohl technisches als auch Domänenwissen und wurde durch die Implementierung eines Prototyps und dessen Anwendung in einem besonders dynamischen und komplexen Bereich, in dem die Datenintegration ein offenes Problem bleibt, d.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63396-7_2 9ccbd92663c316ef75e7c72ef4c7024b;de;;;7.2.;;;Einige Algorithmen zur Auswertung von unscharfen relationalen Abfragen Ein wichtiges Thema bei der Erweiterung der DBMS-Funktionalitäten ist die Möglichkeit, flexible Abfragen auszudrücken und auszuführen, um diese Systeme besser an die Benutzerbedürfnisse anzupassen. Um dieses Problem zu lösen, ist es notwendig, neue Bewertungsmethoden zu definieren, da sich Standard-(knackige) Algorithmen und Zugriffspfade als ungeeignet erwiesen haben. Eine Herausforderung bei der Lösung dieses Problems besteht darin, die zusätzlichen Kosten, die durch diese neuen Abfragemöglichkeiten entstehen, auf einem vernünftigen Niveau zu halten. Zu diesem Zweck schlagen wir eine Reihe von Abfrageauswertungsalgorithmen vor, die auf Techniken basieren, von denen erwartet wird, dass sie einerseits die Menge der von der Platte in den Hauptspeicher zu übertragenden Tupel und andererseits die für diese Tupel geltenden Berechnungen begrenzen. Diese Arbeit befasst sich nur mit der Evaluierung grundlegender erweiterter relationaler Operatoren und kann als erster Schritt zum Entwurf eines Fuzzy-Query-Optimierers angesehen werden. Für jede der vorgeschlagenen Methoden schlagen wir einige nützliche Maßnahmen vor, um zu bestimmen, inwieweit die entsprechenden Algorithmen akzeptabel sind. Schließlich präsentieren wir einen experimentellen Rahmen zur Messung der Leistung dieser Algorithmen.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0028130 9cf19a646c3d6fbab7bae12e3891e085;de;;;7.2.;;;Die Verbindung zwischen Papier und Informationssystemen Neue Technologien für interaktives Papier ermöglichen die Erfassung und den Zugriff auf Informationen aus Papier auf vielfältige Weise. In den letzten sieben Jahren haben wir eine umfangreiche Infrastruktur für das Prototyping und die Produktion von interaktiven Papierdokumenten und papierbasierten Schnittstellen zu Anwendungen entwickelt. Wir geben einen Überblick über diese Arbeit, beginnend mit einer Motivation für die Reformierung des Papiers, anstatt Papier zu ersetzen, und beschreiben dann verschiedene Möglichkeiten, wie Papier mit Informationssystemen verknüpft werden kann, um sowohl die Erfassung als auch den Zugang zu Informationen zu unterstützen. Dies beinhaltet eine Einführung in kommerzielle digitale Stift- und Papiertechnologien, mit denen Benutzeraktionen auf Papier festgehalten werden können, sowie in unser eigenes iPaper-Framework.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00670-8_1 381e760f636688b824fdb141c77cd023;de;;;7.2.;;;Quadratische Komplexitätsmetriken für Geschäftsprozessmodelle Komplexitätsmetriken für Geschäftsprozesse (BP) werden zum besseren Verständnis und zur Qualitätskontrolle der Modelle verwendet, wodurch deren Qualität verbessert wird. In dem Papier geben wir einen Überblick über die bestehenden Metriken zur Beschreibung verschiedener Aspekte von BP-Modellen. Wir argumentieren, dass der Designprozess von BP-Modellen durch die Verfügbarkeit von Metriken verbessert werden kann, die transparent und von den Designern leicht interpretierbar sind. Daher schlagen wir einfache, aber praktische quadratische Metriken zur Beschreibung der Komplexität eines BP-Modells basierend auf dem Durfee- und Perfect-Square-Konzept vor. Diese Metriken sind leicht zu interpretieren und liefern grundlegende Informationen über die strukturelle Komplexität des Modells. Die vorgeschlagenen Metriken sollen mit Modellen verwendet werden, die mit Business Process Model and Notation (BPMN) erstellt wurden, der derzeit am weitesten verbreiteten Sprache für die BP-Modellierung. Darüber hinaus präsentieren wir eine Reihe von BPMN-Modellen, die mit unseren Metriken analysiert wurden. Schließlich stellen wir ein Tool vor, das die besprochenen Metriken implementiert. Wir vergleichen die Ergebnisse mit anderen wichtigen Metriken und betonen die Qualitäten unseres Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03677-9_6 45cf61d4b5d4f0aa25b02c09495e2bcb;de;;;7.2.;;;Fallbasierte Argumentation Dieses Kapitel ist das erste Kapitel im Teil I des Buches. Es ist auch die Grundlage für die Kapitel 5, 6 und 7, wie im schraffierten Bereich von Abb. 2.1 dargestellt. In diesem Kapitel werden die Grundlagen des Case-Based Reasoning (CBR) aus einem anderen Blickwinkel im Vergleich zu den traditionellen CBR-Studien betrachtet und die Beziehung zwischen Expertensystemen (ES) und CBR-Systemen untersucht. Dann überprüft es Prozessmodelle von CBR und argumentiert CBR als Prozessbegründung. Es untersucht auch die Beziehung von CBR, traditionellem Denken, analogem Denken und unscharfem Denken. Schließlich schlägt es eine theoretische Grundlage für die Fallanpassung und ein zyklisches Fallanpassungsmodell vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-40003-5_2 b86b286191a3f6c8eb6375524bbfffdc;de;;;7.2.;;;Exeter beim CLEF 2003: Experimente zum Abruf sprachübergreifender Dokumente Cross-Language Spoken Document Retrieval (CLSDR) kombiniert sowohl die Komplexität des Abrufens aus Sammlungen, die durch Sprachtranskriptionsfehler gekennzeichnet ist, als auch Sprachübersetzungsprobleme zwischen Suchanfragen und Dokumenten. Daher ist das Erreichen eines effektiven Abrufs in diesem Bereich potenziell sehr schwierig. Für die SDR-Aufgabe von CLEF 2003 haben wir eine Standard-Abfrageübersetzungsstrategie unter Verwendung kommerzieller maschineller Übersetzungstools gewählt und Pseudo-Relevanz-Feedback anhand einer kleinen zeitgleichen Sammlung und einer viel größeren Textsammlung aus einem anderen Zeitraum untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30222-3_62 2e9083be736e317a5f26c1896d097fb9;de;;;7.2.;;;Ein linguistischer Ansatz für die sensorische Analyse mit mehreren Kriterien und mehreren Experten In diesem Beitrag stellen wir ein multikriterielles und multi-Experten-Entscheidungsverfahren für den Umgang mit sensorischer Analyse vor. Experten bewerten jedes Produkt unter Berücksichtigung unterschiedlicher Kriterien. Wenn sie sich ihrer Meinung sicher sind, wird die Bewertung mit spezifischen sprachlichen Begriffen präsentiert. Wenn nicht, werden sprachliche Ausdrücke verwendet, die aus mehreren aufeinanderfolgenden linguistischen Begriffen generiert wurden. Produkte werden nach dem durchschnittlichen Abstand zwischen den erhaltenen Bewertungen und der höchstmöglichen Bewertung eingestuft. Das Verfahren wird auf einen Feldversuch angewendet, bei dem sechs geschulte sensorische Panelisten eine Vielzahl von Weinen und Waldpilzen bewerteten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08855-6_59 b33be983a5ac52a01bd5199260714f3f;de;;;7.2.;;;Studie zum Einsatz von Informationstechnologien zur Eignungsbewertungsanalyse in der Landwirtschaft In diesem Beitrag wird die Eignungsbewertungsforschung in der Landwirtschaft in drei Aspekten erläutert: Bodeneignung, Klimaeignung und pflanzenökologische Eignung. Systematisch werden die Eignungsbewertungsmethoden in der Landwirtschaft zusammengefasst, darunter traditionelle mathematische Modellmethoden (Fuzzy Comprehensive Assessment Analysis, AHP etc.) und moderne Informationstechnologien (GIS, RS und ES etc.). Auf die zukünftigen Entwicklungstrends der Eignungsbewertung in der Landwirtschaft wird hingewiesen, dass GIS usw. andere Informationstechnologien und -systeme für Folgenabschätzungen landwirtschaftlicher Praktiken und für die Untersuchung der Auswirkungen von Land-, Klima- und Ökologie usw.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54341-8_18 638c7f3e10bb96d3d98df16a27e44f47;de;;;7.2.;;;Ein System zur Beantwortung von Fragen, das zeitliche Abfragen unterstützt Ein Question Answering (Q.A)-System, das zeitliche Abfragen unterstützt, muss in der Lage sein, abzuleiten, welcher qualitative oder quantitative zeitliche Aspekt für ein bestimmtes Ereignis oder zwischen zwei Ereignissen gilt. Da sich die Daten in der dynamischen Welt ändern, wird es wichtig, auf die Informationen und Fakten zuzugreifen, die zum aktuellen Zeitpunkt wahr sind. Dieses Papier präsentiert eine zeitliche Frage-Antwort-Architektur, die zur Verbesserung der aktuellen Q.A. mit der Möglichkeit, zeitliche Anfragen zu beantworten. Das heißt, in der Lage zu sein, Fragen zu beantworten, die das Auftreten von Ereignissen zu einem bestimmten Zeitpunkt oder Intervall oder Zeitperioden beinhalten. Konkret haben wir ein Modell entwickelt, das in das Suchsystem für spezifische zeitrelevante Fragen integriert ist. Dieses Modell definiert den Funktionalitätsprozess in zwei Hauptschritte in Bezug auf den Prozess einer angemessenen Reaktion. Die Frage wird von der Zerlegungseinheit verarbeitet, um wichtige Komponenten in der Frage zu identifizieren. Die Antworten werden extrahiert und integriert, um die endgültige Antwort für eine gegebene Frage zu erhalten. Darüber hinaus wurde das vorgeschlagene System mit dem TREC 2007-Fragenkorpus evaluiert, der aus 200 Fragen besteht, von denen 100 zeitliche Fragen sind. Die Versuchsreihen werden für verschiedene Fragenklassen durchgeführt und die Ergebnisse werden ausgewertet, um die Leistung unseres Systems zu messen. Im Vergleich zu allgemeinen Q.A-Systemen hat unser Modell eine verbesserte Leistung beim Erhalten genauer Antworten für zeitliche Abfragen gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36321-4_19 2b4562e1919e9126b44466c32c4bd266;de;;;7.2.;;;Sicherheitsnutzung von Krankenhausinformationssystemen: Eine vorläufige Untersuchung Eine der Strategien zur Erhöhung der Patientensicherheit aufgrund von medizinischen Fehlern ist der Einsatz von Krankenhausinformationssystemen (KIS). Frühere Studien haben jedoch gezeigt, dass seine Verwendung eine neue Klasse von Fehlern einführt, die als technologieinduzierte Fehler bezeichnet werden. Diese Fehler traten auf, wenn HIS schlecht konzipiert, implementiert oder verwendet wurde. Die Vorläufer von HIS-bezogenen Fehlern stammten aus verschiedenen Faktoren. Um die technologiebedingten Fehler zu reduzieren, ist es wichtig, die Ursachen für den sicheren Einsatz von KIS zu ermitteln. Daher zielt diese vorläufige Studie darauf ab, die Vorläufer einer sicheren Anwendung von HIS zu untersuchen und zu identifizieren. Von Mai bis Juli 2014 wurden teilstrukturierte Interviews an einem Lehrkrankenhaus, einem Regierungskrankenhaus und dem malaysischen Gesundheitsministerium durchgeführt. Sechs Befragte, die erfahrene HIS-Anwender sind und auch an der Entwicklung des HIS beteiligt sind, wurden einzeln befragt. Aus den halbstrukturierten Interviews gingen sechs Themen hervor. Diese Studie erweitert die HIS-Forschung um Wissen, indem sie den soziotechnischen Aspekt der sicheren HIS-Nutzung berücksichtigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-21009-4_52 a576c10646771309c57722a024d9b959;de;;;7.2.;;;Der ClassSi-Koeffizient zur Bewertung der Rankingqualität bei Vorliegen von Klassenähnlichkeiten Evaluationsmaßnahmen spielen eine wichtige Rolle bei der Gestaltung neuer Ansätze, und oft wird die Qualität durch die Bewertung der Relevanz der erhaltenen Ergebnismenge gemessen. Während viele auf Präzision/Erinnerung basierende Bewertungsmaße auf einem binären Relevanzmodell basieren, sind Ranking-Korrelationskoeffizienten für Mehrklassenprobleme besser geeignet. Moderne Ranking-Korrelationskoeffizienten wie Kendalls τ und Spearmans ρ erlauben es dem Benutzer nicht, Ähnlichkeiten zwischen unterschiedlichen Objektklassen zu spezifizieren und somit die Transposition von Objekten aus ähnlichen Klassen genauso zu behandeln wie die von Objekten aus unähnlichen Klassen. Wir schlagen ClasSi vor, einen neuen Ranking-Korrelationskoeffizienten, der sich mit Klassenlabel-Rankings befasst und eine Klassendistanzfunktion verwendet, um die Ähnlichkeiten zwischen den Klassen zu modellieren. Wir führen auch eine grafische Darstellung von ClassSi ein, die beschreibt, wie sich die Korrelation während des Rankings entwickelt.;-;-;-;https://link.springer.com/article/10.1007/s11704-012-1175-2 541abae2e78acf6630cb35de0f967af9;de;;;7.2.;;;Sprechakte in realen Prozessen: Evaluation von Schnittstellen und Triggern in ITIL Heutige Organisationen sind sozio-technische Systeme, in denen menschliche Arbeiter zunehmend Wissensarbeit leisten. Interaktionen zwischen Wissensarbeitern, Sachbearbeitern und Systemen sind im Wesentlichen Sprechakte, die die Notwendigkeit und den Ablauf von Aktivitäten in semistrukturierten und ad-hoc-Prozessen steuern. Die IT-Unterstützung für Wissensarbeit erfordert nicht unbedingt ein vordefiniertes Vorgehensmodell und ist oft auch nicht vorhanden. Um das Geschehen zu erfassen, klassifizieren immer mehr Ansätze zur Prozessmodellierung, -analyse und -unterstützung Interaktionen und leiten prozessbezogene Informationen ab. Die Häufigkeit und Vielfalt von Sprechakten wurde nur innerhalb abgegrenzter Domänen untersucht, jedoch nicht im größeren Rahmen eines Referenzmodells, das verschiedene Arbeitstypen und Domänen, mehrere AkteurInnen und interagierende Prozesse umfasst. Daher haben wir Interaktionen in der IT Infrastructure Library (ITIL) untersucht. ITIL ist eine Sammlung vordefinierter Prozesse, Funktionen und Rollen, die Best Practices im Bereich IT Service Management (ITSM) darstellen. Für ITIL-basierte Prozesse zeigen wir die Bedeutung, Prävalenz und Vielfalt von Interaktionen in Triggern und dass eine weitere Abstraktion von Interaktionen die Wiederverwendbarkeit von Prozessmustern verbessern kann. Daher birgt die Anwendung der Sprechakttheorie zumindest im ITSM großes Potenzial zur Prozessverbesserung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-74030-0_26 ddfd3e22ac8c8ff3ef1dd861bccd78b2;de;;;7.1.;;;Erhöhung der Regelbarkeit von Produktionsplanungs- und -steuerungssystemen In einem Umfeld stetig wachsender Marktdynamik und damit einhergehender zunehmender Komplexität der Unternehmensstrukturen und deren Produktionsprozesse sind produzierende Unternehmen gezwungen, sich diesem Umfeld anzupassen. Die Informationstechnologie ist dabei ein Schlüssel für produzierende Unternehmen, um die Souveränität über die eigenen Produktionsprozesse zurückzugewinnen. Die digitale Vernetzung über das eigene Unternehmen und die gesamte Supply Chain kann nur gelingen, wenn die digitale Planung möglichst genau die Realität abbildet und die Produktionssteuerung in Echtzeit auf Abweichungen reagieren kann. Dies führt im Wesentlichen zu einer Entwicklung der Prozesssteuerung hin zur Prozessregelung. Während die langfristige Produktions- und Ressourcenplanung in der Regel durch Enterprise Resource Planning (ERP)-Systeme abgebildet wird, wird die Detailplanung inklusive kurzfristiger Abweichungen und Echtzeitdaten auf Produktionsebene zunehmend durch Manufacturing Execution Systems (MES) auf der Produktionsebene unterstützt Produktionssteuerungsebene. Um jedoch die zugrunde liegenden Systemkonzepte standardisiert mit den Bestrebungen von Industrie 4.0 in Einklang zu bringen, ist die gegenseitige Funktionsintegration im Rahmen einer interoperablen Produktionsplanung und -steuerung von entscheidender Bedeutung. Dazu wurden insbesondere Untersuchungen zu Ursache-Wirkungs-Zusammenhängen durchgeführt. Übergeordnetes Forschungsziel ist somit ein valides Designmodell zur Erhöhung der Beherrschbarkeit von Produktionsplanungs- und Steuerungssystemen (PPS) im Kontext von Industrie 4.0.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29996-5_27 f8e2a1ac77b1056d4350f7e40e772a4d;de;;;7.1.;;;Adaptive Nutzung eines tragfähigen Systemmodells mit Wissenssystemdiagnose im Dienste der industriellen Demokratie in einem Textilhersteller Der Hauptzweck dieser Forschung besteht darin, das Viable System Model (VSM) von Beer zu verbessern, das auf kybernetischen Prinzipien und Werkzeugen basiert und darauf abzielt, anpassungsfähige, reaktionsschnelle und zielorientierte Organisationen zu entwickeln, die alle Merkmale der Lebensfähigkeit besitzen. Diese Studie bewertet die Stärken und Schwächen von VSM und schlägt vor, das Modell zu verbessern, indem es in Kombination mit Topps Knowledge System Diagnostics (KSD) verwendet wird, das versucht, die Bildungsregeln einer Organisation aufzudecken, die die Schaffung und Aufrechterhaltung von Wissen innerhalb einer Organisation ermöglicht. Es wird angenommen, dass eine adaptive Anwendung von VSM mit KSD, ausgestattet mit diesen Informationen, ungesunde Managementpraktiken heilen könnte – eine mangelnde Beteiligung der Mitarbeiter an der Entscheidungsfindung und Verantwortung und Aufteilung von Befugnissen –, die sowohl bei einem Textilhersteller als auch bei VSM beobachtet werden. Methodische Implikationen dieser Version der Multimethodologie werden diskutiert, und dann werden Fragen der Forschungsstandorte aufgedeckt und Empfehlungen ausgesprochen.;-;-;-;https://link.springer.com/article/10.1007/s11213-017-9419-6 4a9e2ac301b5ca9bdc324f2021542600;de;;;7.1.;;;Die vielen Dimensionen von Kristen Nygaard, Schöpferin der objektorientierten Programmierung und der Scandinavian School of System Development Professor Kristen Nygaard (1926-2002) war ein vielseitig begabter Wissenschaftler, dessen Leistungen in seinen späteren Jahren reichlich gewürdigt wurden. Für allgemeine Leser der Informatikgeschichte wird Nygaard mit Professor Ole-Johan Dahl als der Schöpfer der SIMULA-Programmiersprachen und der objektorientierten Programmierung anerkannt. Aber Nygaard hatte auch ein soziales und politisches Engagement, das ihn über die Jahre von einer liberal-demokratischen zu einer sozialistischen Position brachte, in der Solidarität und Ermächtigung die Hauptakkorde waren. Dieser Beitrag gibt einen komprimierten und anschaulichen Rundgang durch das Leben des vielseitigen Informatikers mit Schwerpunkt auf der Hand in Hand der wissenschaftlichen und politischen Seite von Nygaard, was zu seiner aktiven Zusammenarbeit mit den Gewerkschaften führte und ihn zu einem starken Anwalt der der Scandinavian School of System Development and Participatory Design.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15199-6_5 214b10b7d65e45b78589d6cf487e9dff;de;;;7.1.;;;PLM-Modell (Product Lifecycle Management) zur Optimierung der Lieferkette Product Lifecycle Management (PLM) ist ein integrierter Geschäftsansatz für die gemeinsame Erstellung, Verwaltung und Verbreitung von technischen Informationen im gesamten erweiterten Unternehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35758-9_12 648a216d15d4397d62d94e75732ba5a5;de;;;7.1.;;;Ein Unternehmensarchitekturansatz für das Umweltmanagement Die Umweltverantwortung wird schnell zu einem wichtigen Aspekt des strategischen Managements, da sich die Realität des Klimawandels einstellt und die entsprechenden Vorschriften in naher Zukunft voraussichtlich erheblich verschärft werden. Viele Unternehmen reagieren auf diese Herausforderung mit der Einführung von Umweltberichts- und -managementsystemen. Allerdings ist die Umweltinitiative oft nicht richtig in die Gesamtgeschäftsstrategie integriert, sodass das Management keinen zeitnahen Zugang zu entsprechenden Umweltinformationen hat. Dieses Papier argumentiert für den Nutzen der Integration des Umweltmanagement-(EM)-Projekts in die kontinuierliche Unternehmensarchitektur (EA)-Initiative, die in allen erfolgreichen Unternehmen vorhanden ist. Dies geschieht, indem gezeigt wird, wie ein Referenzarchitektur-Framework und eine Meta-Methodik unter Verwendung von EA-Artefakten verwendet werden können, um das EM-System und die Organisation gemeinsam zu gestalten, um eine angemessene Synergie zu erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15509-3_5 9568bc5c74cb7c5128b80451f5fba0bd;de;;;7.1.;;;Implementierung von „What-, How- and Why-Learning“ in der Offshore-Bohrplanung Das Paper präsentiert den theoretischen Hintergrund und die Implementierung von „What, How, and Why Learning“ in der Offshore-Bohrplanung. Diese Prinzipien wurden aus einem Modell der betrieblichen Sozialisierung von Neuankömmlingen abgeleitet und zur Verbesserung der Sicherheit und Effizienz angewendet. Neben der verbesserten Struktur und Informationsfülle des Programms nutzte das neue Planungsmodell auch mehr praktisches Offshore-Wissen in Aktion als traditionell. Gleichzeitig mit der Umsetzung des neu konzipierten Programms wurden deutlich verbesserte Bohrraten und geringere Verletzungsraten beobachtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-85729-410-4_209 1a48b9a26a8788f82197c9fb356ab21a;de;;;7.2.;;;Lehren für die Zukunft aus einem Jahrzehnt der Informedia-Videoanalyseforschung Das übergreifende Ziel des Projekts Informedia Digital Video Library war es, ein maschinelles Verständnis von Videomedien zu erreichen, einschließlich aller Aspekte der Suche, des Abrufs, der Visualisierung und der Zusammenfassung sowohl in zeitgenössischen als auch archivierten Inhaltssammlungen. Die vom Informedia-Projekt entwickelte Basistechnologie kombiniert das Verstehen von Sprache, Bild und natürlicher Sprache, um gesendete Videos automatisch zu transkribieren, zu segmentieren und zu indizieren, um eine intelligente Suche und Bildsuche zu ermöglichen. Obwohl die Sprachverarbeitung die einflussreichste Komponente für den Erfolg des Informedia-Projekts war, können andere Modalitäten in verschiedenen Situationen kritisch sein. Im Rahmen der TRECVID-Benchmarks durchgeführte Bewertungen zeigen, dass zwar einige Fortschritte erzielt wurden, aber noch viel Arbeit vor uns liegt. Die grundsätzliche „semantische Lücke“ besteht noch, aber es gibt eine Reihe vielversprechender Ansätze, sie zu überbrücken.;-;-;-;https://link.springer.com/chapter/10.1007/11526346_1 94818de48ddd658731c9cfe2ba34bff8;de;;;7.2.;;;Eine vergleichende Studie zwischen possibilistischen und probabilistischen Ansätzen zur einsprachigen Wortsinn-Begriffsklärung Dieses Papier schlägt und bewertet einen neuen possibilistischen Ansatz für die automatische einsprachige Wortsinn-Begriffsklärung (WSD). Tatsächlich leiden die traditionellen Wörterbücher trotz ihrer Vorteile unter dem Mangel an genauen Informationen, die für WSD nützlich sind. Darüber hinaus fehlt es an flächendeckenden semantisch gekennzeichneten Korpora, an denen Lernmethoden trainiert werden könnten. Aus diesen vielfältigen Gründen wurde es wichtig, ein semantisches Kontextwörterbuch (SDC) zu verwenden, das das maschinelle Lernen in einer semantischen Plattform von WSD gewährleistet. Unser Ansatz kombiniert traditionelle Wörterbücher und beschriftete Korpora, um ein SDC aufzubauen und den Sinn eines Wortes mithilfe eines possibilistischen Matching-Modells zu identifizieren. Außerdem präsentieren und evaluieren wir einen zweiten neuen probabilistischen Ansatz für die automatische einsprachige WSD. Dieser Ansatz verwendet und erweitert eine bestehende probabilistische semantische Distanz, um Ähnlichkeiten zwischen Wörtern zu berechnen, indem ein semantischer Graph eines traditionellen Wörterbuchs und des SDC genutzt wird. Um diese beiden Ansätze zu bewerten und zu vergleichen, führten wir Experimente mit der standardmäßigen ROMANSEVAL-Testsammlung durch und verglichen unsere Ergebnisse mit einigen bestehenden französischen einsprachigen WSD-Systemen. Experimente zeigten eine ermutigende Verbesserung in Bezug auf die Begriffsklärungsraten französischer Wörter. Diese Ergebnisse zeigen den Beitrag der Möglichkeitstheorie als Mittel zur Behandlung von Ungenauigkeiten in Informationssystemen.;-;-;-;https://link.springer.com/article/10.1007/s10115-014-0753-z 8eb1c6bfbc5657ed08675035484ba60d;de;;;7.2.;;;Blickbewegungsgesteuerte Random Forests für das Abfrageclustering in der automatischen Videoanmerkung In den letzten Jahren hat die rasante Zunahme der Menge an Multimediainhalten zur Entwicklung mehrerer automatischer Annotationsansätze geführt. Parallel dazu zeigte die hohe Verfügbarkeit großer Mengen von Benutzerinteraktionsdaten die Notwendigkeit zur Entwicklung automatischer Anmerkungstechniken, die das implizite Benutzerfeedback während interaktiver Multimedia-Retrieval-Aufgaben ausnutzen. In diesem Zusammenhang schlägt dieser Artikel eine Methode zur automatischen Videoannotation vor, indem implizites Benutzerfeedback beim interaktiven Videoabruf genutzt wird, wie es durch Blickbewegungen, Mausklicks und Anfragen an eine inhaltsbasierte Videosuchmaschine ausgedrückt wird. Wir nutzen diese Interaktionsdaten, um Videoaufnahmen mit Merkmalsvektoren basierend auf aggregierten Blickbewegungen darzustellen. Diese Informationen werden verwendet, um einen Klassifikator zu trainieren, der für neue Benutzer interessante Aufnahmen identifizieren kann. Anschließend schlagen wir ein Framework vor, das während des Tests: a) Themen identifiziert (ausgedrückt durch Anfragecluster), nach denen neue Benutzer suchen, basierend auf einem neuartigen Clustering-Algorithmus und b) Multimediadaten (dh Videoaufnahmen) den identifizierten . zuordnet Themen mit überwachter Klassifikation. Der neuartige Clustering-Algorithmus basiert auf Random Forests und wird von zwei Faktoren angetrieben: erstens durch die Entfernungsmaße zwischen verschiedenen Abfragesätzen und zweitens durch die Homogenität der während jedes durch das Clustering-Verfahren definierten Abfragecluster betrachteten Aufnahmen von der Leistung des blickbasierten Klassifikators bei diesen Aufnahmen. Die Auswertung zeigt, dass die Verwendung von aggregierten Blickdaten für Videoannotationszwecke genutzt werden kann.;-;-;-;https://link.springer.com/article/10.1007/s11042-015-3221-1 d06e72173451350c4b085db059565f11;de;;;7.1.;;;Analyse zum Aufbau von Managementmodi des E-Government-Informationsaustauschs in China In diesem Beitrag werden die administrativen Hindernisse für den E-Government-Informationsaustausch in China aufgrund ihrer gemeinsamen Charakteristika auf Praxisebene in vier Arten zusammengefasst: Ressortinteressen, Austauschkosten, Störung des Datenaustauschs und Dezentralisierung der Verwaltungsorgane. Dementsprechend schlägt dieses Papier vier Modi des Koordinierungsmanagements vor, die diese Hindernisse beseitigen und den reibungslosen Ablauf des E-Government-Informationsaustauschs erleichtern sollen, und veranschaulicht diese Modi anhand von empfehlenswerten Fällen des Informationsaustauschs.;-;-;-;https://link.springer.com/chapter/10.1007/11906070_20 7cfba532df8c0008ba1ac25b9152e507;de;;;7.1.;;;Organisation und Planung von Workshops Bemerkenswert ist, dass sich die Planungsliteratur bis etwa 1950 vor allem den Beschreibungen von Amtshilfen, Planungsgremien und Verfahren sowie der Stellung der Planungsgruppen in der Unternehmensstruktur widmete. Quantitative Methoden wurden bisher kaum in der Planung eingesetzt. Es war eine Aktivität, bei der die Hauptinteressenspunkte waren: Produktdokumentation und Spezifikationen, Codierung, Auftragsformulare, Routenkarten, Qualitätskontrolle und Planungstafeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-01029-5_1 9c6ce758dc38fd35d9a6ad084072a74e;de;;;7.1.;;;Entwicklung des Well-Located Land Index zur Einrichtung intelligenter Siedlungen für die Gemeinde Ekurhuleni, Südafrika Seit den Anfängen der Demokratie im Jahr 1994 hat sich die räumliche Form südafrikanischer Städte kaum verändert. Die räumliche Segregation und Fragmentierung in den Städten besteht weiterhin, insbesondere in Ekurhuleni, trotz zahlreicher und gut formulierter politischer Dokumente wie dem Nationalen Entwicklungsplan (NDP) und „Breaking New Ground“, die räumliche Transformation und Integration fordern. Dies liegt vor allem daran, dass es unzureichende Instrumente gibt, um Planer bei der Identifizierung von strategisch günstig gelegenen Grundstücken und schwachen Umsetzungsmechanismen zu unterstützen. Folglich skizziert diese Studie ein Planungsunterstützungssystem (PSS), das als Well-Located-Index (WLLI) bezeichnet wird und ein geografisches Informationssystem (GIS) und den analytischen Hierarchieprozess (AHP) verwendet, um Planer bei der Identifizierung, Quantifizierung und Visualisierung von gut lokalisiertem Land zu unterstützen in Ekurhuleni. Die Studie zeigt auch, dass das WLLI PSS ein unschätzbares Instrument ist, um die evidenzbasierte Entscheidungsfindung voranzutreiben, die nachhaltige und intelligente Städte in Südafrika fördert. Das WLLI wird die Ausrichtung auf intelligentes und gut gelegenes Land erleichtern und der Stadtverwaltung Ekurhuleni klare Richtlinien für die zukünftige Entwicklung geben, wenn das Erbe der räumlichen Trennung rückgängig gemacht werden soll.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-57819-4_6 ab999b7fa4addfcfbd6ea51711bdeb1a;de;;;7.1.;;;Kollaborative Services für die kundenindividuelle Produktion in vernetzten Unternehmen Zunehmend stellt sich die Nachfrage der Verbraucher nach modischen Produkten als bedeutende Herausforderung für die Unternehmensleiter heraus. Um dieser Nachfrage gerecht zu werden, sind Unternehmen aufgefordert, in kleinen Serien innovative und modische Waren von hoher Qualität, erschwinglichem Preis und Umweltverträglichkeit in kurzer Zeit und mit hohem Serviceniveau zu liefern. Als Folge dieser sich schnell entwickelnden Herausforderungen bilden Unternehmen kollaborative Netzwerke, um solche Produkte und Dienstleistungen kollaborativ zu entwerfen, zu entwickeln, zu produzieren und zu vertreiben. Diese hochintegrierten und dynamischen Versorgungsnetzwerke hängen intensiv von neuen Werkzeugen, Methoden und verwandten Diensten ab, auf denen der kollaborative Netzwerkbetrieb beruht. Dieses Papier präsentiert eine konkrete Fallstudienimplementierung dieser kollaborativen unterstützenden Dienste durch die Realisierung eines kollaborativen Portals.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40543-3_39 af3b22ea7d8947d026172a215496b828;de;;;7.2.;;;Entwicklung und Evaluation eines emotionalen Chat-Systems mit Tastsinn Wir haben einen Prototyp eines Chat-Systems mit Tastsinn entwickelt. Abhängig von der Griffigkeit einer Maus werden zwei oder mehr Arten von Gesichtsmarkierungen ((∧ ∧), (< >) usw.) in ein Chatfenster eingegeben. Wir wenden dieses System auf eine Art elektronisches Konferenzsystem an, das als Remote Seminar Support System bezeichnet wird. Aus den Ergebnissen der Experimente haben wir herausgefunden, dass die Eingabemethode mit dem Tastsinn für vielbeschäftigte Benutzer nützlich ist, die keine Zeit zum Tippen auf Tastaturen hatten. Und wir haben festgestellt, dass die Benutzer dieses Systems an diesem System interessiert waren.;-;-;-;https://link.springer.com/chapter/10.1007/11552413_150 6643e6181e9fd5ce925ab0ec3e53e9d7;de;;;7.1.;;;E-MATE: Eine offene Architektur zur Unterstützung der Benutzermobilität Wenn die Welt vernetzt wird, müssen die Menschen überall und jederzeit auf Informationen zugreifen können, unabhängig von ihrem Gerät (Laptop, Mobiltelefon...). Sie suchen nach situierten Diensten, die relevante kontextsensitive Informationen identifizieren und bündeln. Lokalisierte Dienste für mobile Menschen müssen 1) Benutzerprofil: wer der Benutzer ist, 2) Raum: wo der Benutzer ist, 3) Zeit: wann der Benutzer den Dienst benötigt 4) Kontext: von welchen Diensten der Benutzer umgeben ist, integrieren. Ein situierter Service ist multimodal, georeferenziert und personalisiert. Ein multimodaler Dienst ist über sehr unterschiedliche Geräte verfügbar. Ein georeferenzierter Dienst wählt Informationen entsprechend der physischen Position des Benutzers aus. Ein personalisierter Service wählt nur relevante Informationen aus. Dieses Papier stellt die Hauptelemente einer Architektur vor, die das Design, die Implementierung und den Einsatz von situierten Diensten fördert. Diese Elemente können in drei Prozesse organisiert werden: Personalisierung, Bereitstellung und Zugriff auf einen Dienst. Personalisierung ist der Prozess, bei dem die richtigen Informationen ausgewählt und zur richtigen Zeit mit der passenden Benutzeroberfläche präsentiert werden. Die Bereitstellung von Diensten wird durch Anwendungsserver unterstützt, die verteilte Schemata von Fat-Clients bis hin zu Thin-Clients unterstützen. Der Zugriff auf den Dienst erfolgt über Portale, die es ermöglichen, den Client-Teil des Dienstes zu erhalten. Ein Dienstbetrachter verwendet dann einen Objekt-Renderer, um die Benutzeroberfläche entsprechend dem Geräteprofil, den Dienstmerkmalen und Layoutinformationen im laufenden Betrieb zu generieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-9978-8_20 3f2f21d0dc68f630d604d2100aeba0b8;de;;;7.1.;;;Codesign von Web-Informationssystemen Web-Informationssysteme sind heutzutage weit verbreitet. E-Business, Edutainment, Infotainment, Community und Identity Web-Systeme sind daten- und informationsintensiv. Sie integrieren eine Vielzahl von Datenbank-, Workflow- und anderen Verarbeitungs-, Kommunikations- und Präsentationssystemen. Ihre Gestaltung und Entwicklung basiert somit auf einer integrierten Entwicklung von Strukturierung, Funktionalität, Verteilung und Interaktivität der Nutzer. Das Codesign-Framework ermöglicht die Integration dieser verschiedenen Aspekte. Dieses Kapitel untersucht den Codesign-Ansatz und seinen Einsatz für die Entwicklung großer Web-Informationssysteme.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-17112-8_9 07e96f5fe69b1da93656a57b10ad7c17;de;;;7.1.;;;Eine Meta-Methodik für kollaborative Netzwerkorganisationen: Eine Fallstudie und Reflexionen Gegenwärtig besteht ein großer Bedarf an Methoden und Referenzmodellen, um die Schaffung und den Betrieb verschiedener Arten von kollaborativen vernetzten Organisationen (CNO) zu unterstützen und zu leiten. Die Bemühungen, diesen Bedarf zu decken, können durch eine msta-Methodik, die vielfältige CNO-Erstellungs- und Betriebskenntnisse integriert, erheblich unterstützt werden. Dieses Papier setzt frühere Forschungen zu Konzept, Anforderungen, Design, Verifizierung und möglichen Implementierungen einer CNO-Lebenszyklus-Metamethodologie fort, indem eine zusätzliche Fallstudie und anschließende Überlegungen beschrieben werden, die zur Verfeinerung und Erweiterung der vorgeschlagenen Metamethodik führen.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-29766-9_10 cd392a53804a1d16cba5ef6cbc0cec41;de;;;7.2.;;;Vektor-Clustering unterstützen: Von lokaler Einschränkung zu globaler Stabilität In den letzten Jahren wurden zahlreiche Kernel-basierte Clustering-Algorithmen vorgeschlagen. Dabei haben Support Vector Machines als Standardwerkzeuge zur Klassifizierung und zum Clustering eine wichtige Rolle gespielt. Die Informationsbeschaffung aus den Daten in Abwesenheit von Zielmarken als attraktiver Aspekt unüberwachter Verfahren erfordert die Realisierung einer klaren Wahrnehmung der topologischen Struktur der Muster. Darüber hinaus muss der Lernende ein Gleichgewicht zwischen Verallgemeinerungs- und Rauschunterdrückungsfähigkeiten und auch eine Regularisierung der Komplexität herstellen. Der Support Vector Clustering (SVC)-Ansatz ist zwar global informativ, aber es fehlen Mechanismen, um die Schlussfolgerungen aus lokalen Statistiken zu nutzen. Die Parametrisierung des Algorithmus und die Einbettung lokaler Methoden ist noch ein offenes Problem im SVC-Algorithmus. In diesem Kapitel wird die unüberwachte Support-Vektor-Methode für das Clustering untersucht. Im Anschluss an die vorangegangenen Arbeiten werden wir die jüngsten Bemühungen vorstellen, die darauf abzielen, einen zuverlässigen Rahmen für die Automatisierung des Clustering-Verfahrens und die Regularisierung der Komplexität der Entscheidungsgrenzen zu schaffen. Das neuartige Verfahren nutzt die von einem Mixture of Factor Analyzer (MFA) erhaltenen Informationen unter der Annahme, dass nichtlineare Mannigfaltigkeiten mit niedrigeren Dimensionen lokal linear zusammenhängen und sich glatt ändern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01091-0_10 df519e46d03e3923ed3bb160517ccf16;de;;;7.1.;;;Konzeptionelle Entwicklung von Ontologien für psychische Gesundheit Die Kreuzung des 20. und 21. Jahrhunderts wird als Zeitalter der Information bezeichnet. Diese Ära ist geprägt von vielfältigen kolossalen Fortschritten in den Informationstechnologien (ITs) [9, 11, 49]. Das explosive Wachstum der Informationstechnologien beginnt nicht nur unser Leben, sondern auch unser Denken zu bestimmen. In diesem Zeitalter wird der Fortschritt in vielen Disziplinen in erster Linie davon bestimmt, wie gut eine Disziplin IT-Fortschritte in die eigenen Prozesse einbinden kann. Der Bereich Healthcare ist besonders gut positioniert, um von ITs zu profitieren. Zahlreiche Fortschritte in der medizinischen Forschung haben zu einem explosionsartigen Wachstum der Menge an klinischen Informationen geführt, die Ärzten und anderen Gesundheitsdienstleistern zur Verfügung stehen. Der neue Bereich der Medizinischen Informatik verwendet ITs, um klinische Informationen zu verwalten und zugänglich zu machen, wenn sie für wichtige Entscheidungen benötigt werden. Klinische Entscheidungsunterstützungssysteme (CDSS) bilden somit einen wichtigen Aspekt der Medizinischen Informatik.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05183-8_13 55c74709bc69dff95813d6a3c330d931;de;;;7.2.;;;Domainübergreifender Abruf im Rechts- und Patentbereich: Eine Reproduzierbarkeitsstudie Die domänenspezifische Suche war aufgrund verschiedener Herausforderungen wie der domänenspezifischen Sprache, der einzigartigen Aufgabenstellung sowie des Fehlens zugänglicher Abfragen und entsprechender Relevanzbeurteilungen schon immer eine herausfordernde Aufgabe bei der Informationsbeschaffung. In den letzten Jahren haben vortrainierte Sprachmodelle – wie BERT – die Web- und Nachrichtensuche revolutioniert. Natürlich zielt die Community darauf ab, diese Fortschritte an den domänenübergreifenden Transfer von Suchmodellen für domänenspezifische Suche anzupassen. Im Zusammenhang mit dem Abruf von Rechtsdokumenten haben Shao et al. schlagen das BERT-PLI-Framework vor, indem;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72240-1_1 714fd43da748e7647e9547a3f06dd53f;de;;;7.2.;;;Ein praxisorientiertes Framework für Übersetzer als Expertensuche Dieser Artikel beschreibt eine Methode und ein Werkzeug, um Fachübersetzer in einem On-Demand-Übersetzungsdienst zu identifizieren. Wir gehen von bestehenden Bemühungen zur Expertensuche aus und berücksichtigen zusätzliche Parameter basierend auf dem realen Szenario der Aufgabe. Das System identifiziert zuerst thematisches Fachwissen unter Verwendung einer Aggregationsfunktion über Relevanzbewertungen von zuvor übersetzten Dokumenten durch jeden Übersetzer und dann eine Methode zum Einstufen lernen, um nicht-topische Relevanzfaktoren zu berücksichtigen, die Teil des Entscheidungsprozesses des Benutzers sind, wie z als Preis und Dauer der Übersetzung. Wir testen das System an einer manuell erstellten Testsammlung und zeigen, dass die Methode den Anwender bei der Auswahl des besten Übersetzers effektiv unterstützen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11382-1_14 d5ac05fc5d4b7dabd1460b75ca572fe6;de;;;7.2.;;;Auf dem Weg zu einem partizipativen Multimedia-Lernmodell Der Zweck dieses Papiers besteht darin, ein partizipatives multimediales Lernmodell vorzustellen, das bei der Gestaltung multimedialer Lernumgebungen verwendet werden kann, die einen aktiven Lernprozess und eine kreative Beteiligung unterstützen. Partizipatives multimediales Lernen kann als Lernen mit Systemen definiert werden, die es den Lernenden ermöglichen, einen Teil der Lernmaterialien selbst zu produzieren. Ziel des Modells ist es, das menschliche Informationsverarbeitungssystem abzubilden und die Transformation freier kognitiver Ressourcen in eine für die Wissenskonstruktion notwendige kognitive Belastung zu unterstützen. Der Beitrag geht auch auf die Ergebnisse einer empirischen Studie ein, die die Wirksamkeit von Schüler-generierten Illustrationen untersucht. Finnische Grundschüler (;-;-;-;https://link.springer.com/article/10.1007/s10639-005-5711-7 636188b5a6530f3b42c5151011c1ca9a;de;;;7.2.;;;Dublin City University beim CLEF 2005: Cross-Language Speech Retrieval (CL-SR) Experimente Die Teilnahme der Dublin City University an der CLEF 2005 CL-SR-Aufgabe konzentrierte sich auf die Untersuchung der Anwendung unserer bestehenden Information Retrieval-Methoden basierend auf dem Okapi-Modell auf den Konversationssprachdatensatz. Dies erforderte einen Ansatz zur Bestimmung ungefährer Satzgrenzen innerhalb der bereitgestellten frei fließenden automatischen Transkription, damit wir unser zusammenfassendes Pseudo-Relevanz-Feedback (PRF) verwenden können. Wir haben auch explorative Experimente zur Verwendung der Metadaten durchgeführt, die mit den Dokumententranskriptionen für die Indexierung und das Relevanzfeedback bereitgestellt wurden. Die Themen wurden mit Systran V3.0 maschineller Übersetzung ins Englische übersetzt. In den meisten Fällen schnitten nur Themenaussagen im Titelfeld besser ab als kombinierte Titel- und Beschreibungsthemen. PRF mit unserer angepassten Methode hat sich als effektiv erwiesen und die absolute Leistung wird durch die Kombination der automatischen Dokumententranskription mit zusätzlichen Metadatenfeldern verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/11878773_87 6d37160654c695183e907dee211ef71e;de;;;7.2.;;;Eine Methodik zur Identifizierung von Extremalbelastungen in Datenflüssen in Informationssystemen Der Beitrag stellt zwei Techniken zur Identifizierung extremer Belastungen durch die Bestimmung spezieller Schwellenwerte vor, um zwischen „normalen“ und „extremen“ Werten in Informationsdatenflüssen zu unterscheiden. Beide Algorithmen basieren auf dem Rényi-Limit-Theorem über die Verdünnung von Erneuerungsprozessflüssen und dem Pickands-Balkema-de-Haan-Theorem über die asymptotische Verteilung für Peaks über große Schwellen. Die Methodik kann auf verschiedene Informationssysteme angewendet werden. Die beiden Methoden unterscheiden sich in der Richtung der Schwellenbewegung. Der aufsteigende Algorithmus erhöht den Wert des Schwellenwerts, während der absteigende ihn schrittweise verringert. Darüber hinaus schlagen wir für die absteigende Methode eine Möglichkeit vor, die kumulierten Daten zu verarbeiten. Die wichtigsten Phasen beider Methoden werden durch Flussdiagramme dargestellt. Einige grafische Ergebnisse werden für Testdaten gezeigt, die von einem speziellen Informationssystem generiert wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-44615-8_8 6a2e494d968d87470991f1cda524d83d;de;;;7.2.;;;Effiziente Auswahl verschiedener In letzter Zeit ist die schlüsselwortbasierte Abfrageschnittstelle ein De-facto-Standard für das Abrufen von Informationen. Ein Benutzer gibt ein Schlüsselwort an und erhält notwendige Objekte, die eng mit dem Schlüsselwort verbunden sind. Die Auswahl der benötigten Objekte ist eines der wichtigsten Probleme in der Datenbankliteratur. Oben-;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-05693-7_3 a6909207e3d5300acb49242a118bd3f5;de;;;7.2.;;;Ein Multi-Agenten-Rechtsempfehlungssystem Infonorma ist ein Multi-Agenten-System, das seinen Nutzern Empfehlungen zu für sie interessanten normativen Rechtsinstrumenten liefert. Der Filter-Agent von Infonorma klassifiziert normative Instrumente, die als Semantic Web-Dokumente dargestellt werden, in Rechtszweige und führt eine inhaltliche Ähnlichkeitsanalyse durch. Dieser Agent sowie das gesamte Infonorma-System wurden nach den Richtlinien von MAAEM modelliert, einer Softwareentwicklungsmethodik für das Multi-Agenten-Anwendungsengineering. Dieser Artikel beschreibt die Infonorma-Anforderungsspezifikation, die architektonische Entwurfslösung für diese Anforderungen, das detaillierte Design der;-;-;-;https://link.springer.com/article/10.1007/s10506-008-9062-8 ba0e233a7f774e1e3a611398de88948a;de;;;7.1.;;;Effiziente und zuverlässige Fertigung – eine Software-Perspektive Die Entwicklung effizienter und zuverlässiger Fertigungssysteme war schon immer ein Ziel der modernen Fertigung. Um effizient zu sein, müssen solche Systeme einen hohen Durchsatz erreichen und gleichzeitig alle Fristen einhalten. Um zuverlässig zu sein, müssen solche Systeme in der Lage sein, Fehler zu erkennen und zu korrigieren, wie beispielsweise Hardwareausfälle und deren Auswirkungen sowie Abweichungen des tatsächlichen Betriebs vom geplanten Betrieb.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-1230-7_13 9a4c96314f396c7e6951011cf24bc985;de;;;7.2.;;;Ein neuer Kantendetektor basierend auf Uninorms Ein neuer Fuzzy-Kantendetektor basierend auf Uninormen wird vorgeschlagen und eingehend untersucht. Das Verhalten verschiedener Klassen von Uninormen wird diskutiert. Die erhaltenen Ergebnisse legen nahe, dass die beste Uninorm zur Verbesserung des Kantenerkennungsprozesses die Uninorm ist;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08855-6_19 0f181881022d278eb72eef582d0a9bdd;de;;;7.2.;;;Erforschung ethnischer Musik, geleitet von personalisierten Empfehlungen: Systemdesign und -bewertung Ethnische Musiksammlungen bieten Einblicke in die Kultur verschiedener Gemeinschaften. Es fehlen jedoch Werkzeuge, die es der breiten Öffentlichkeit ermöglichen, diese Musikbibliotheken zu erkunden. Wir präsentieren und evaluieren ein Erkundungssystem für ethnische Musiksammlungen, das einen Empfehlungsalgorithmus und eine Webradio-Schnittstelle umfasst. Das vorgeschlagene System bietet Empfehlungen, die sich an die Präferenzen des Benutzers anpassen. Ein Blinder;-;-;-;https://link.springer.com/article/10.1007/s42452-020-2318-y 92a8f818a3c273fc39b5364c815de9e7;de;;;7.2.;;;Online-Auswertung von Gebotsvorhersagemodellen in einer groß angelegten Computational Advertising-Plattform: Entscheidungsfindung und Erkenntnisse Online-Medien bieten Vermarktern Möglichkeiten, effektive Markenbotschaften an ein breites Publikum in großem Maßstab zu übermitteln. Werbetechnologieplattformen ermöglichen es Werbetreibenden, ihre Zielgruppe zu erreichen, indem sie Online-Nutzern Anzeigenimpressionen in Echtzeit liefern. Um die beste Marketingbotschaft für einen Nutzer zu identifizieren und Impressionen zum richtigen Preis zu kaufen, verlassen wir uns stark auf Gebotsvorhersage- und Optimierungsmodelle. Auch wenn die Gebotsvorhersagemodelle in der Literatur gut untersucht sind, ist das ebenso wichtige Thema;-;-;-;https://link.springer.com/article/10.1007/s10115-016-0972-6 63e6524e62262ad94846d74bd563e999;de;;;7.2.;;;Vertrauenswürdige kollaborative Filterung durch Reduzierung von Rauschen und Redundanz Die Verbreitung des elektronischen Handels (EC) hat die Art und Weise, wie Menschen online einkaufen, revolutioniert. Webbasierte Technologien ermöglichen es Menschen, aktiver mit Händlern und Dienstanbietern zu interagieren. Solche Kaufprotokolle und Kommentare führen weiter zur Verbreitung von Empfehlungssystemen. Bestehende Empfehlungsalgorithmen nutzen entweder frühere Transaktionen oder Kundenbewertungen, um Benutzerinteressen an bestimmten Artikeln vorherzusagen. Durch gefälschte Bewerter kann ein gewaltiges Rauschen in solche Informationen eingebracht werden, und Informationsredundanz führt auch dazu, dass das Empfehlungssystem verwickelt wird. In dieser Arbeit untersuchen wir zunächst Benutzerbewertungen und frühere Transaktionen, um die Glaubwürdigkeit der Benutzer und die Bedeutung von Artikeln einzuschätzen, um die Auswirkungen von Inhaltsverschmutzern zu reduzieren. Dann schlagen wir vor, die redundanten Informationen von homogenen Benutzern basierend auf der Linkanalyse zu beseitigen. Schließlich wird ein einheitlicher Rahmen vorgeschlagen, um sie in eine mathematische Formulierung einzubeziehen, die effizient optimiert werden kann. Experimentelle Ergebnisse mit realen Daten zeigen, dass unser Modell andere Basislinien deutlich übertreffen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25255-1_11 896b67aca46453b140f8918813a07e77;de;;;7.2.;;;ODER Spezifisches Domänenmodell für Gebrauchstauglichkeitsbewertungen intraoperativer Systeme Das Studium der Gebrauchstauglichkeit eines Systems ist in den letzten Jahrzehnten immer beliebter geworden und wird als entscheidender Faktor für den Erfolg vieler Systeme und Produkte angesehen. In einer komplexen Domäne wie dem Operationssaal ist es noch wichtiger, Systeme mit hoher Benutzerfreundlichkeit zu schaffen, da Mängel im Design schwerwiegende Auswirkungen haben können. Die Bewertung der Benutzerfreundlichkeit von Systemen in komplexen Domänen wie dem Operationssaal (OP) ist jedoch kein leichtes Unterfangen. Um die Komplexität der OR-Domäne zu bewältigen, benötigen Usability-Spezialisten tiefgreifendes Domänenwissen, das sie sich in der Regel nicht aneignen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21504-9_3 3694b17b99557390432ccb4f3060f646;de;;;7.2.;;;Kompakte Darstellung für groß angelegtes Clustering und Ähnlichkeitssuche Obwohl der inhaltsbasierte Bildabruf seit vielen Jahren erforscht wurde, werden in gegenwärtigen Bildsuchmaschinen nur wenige inhaltsbasierte Verfahren implementiert. Dies liegt zum Teil an der großen Schwierigkeit bei der Indexierung und Suche im hochdimensionalen Merkmalsraum nach großen Bilddatensätzen. In diesem Beitrag schlagen wir eine neuartige Methode vor, um den Inhalt jedes Bildes als einen oder mehrere Hash-Codes darzustellen, die als spezielle Schlüsselwörter betrachtet werden können. Aufgrund dieser kompakten Darstellung können Bilder anhand ihres visuellen Inhalts sehr schnell abgerufen werden. Darüber hinaus sind zwei erweiterte Funktionalitäten implementiert. Eine davon ist das inhaltsbasierte Bild-Clustering, das vereinfacht wird, indem Bilder mit identischen oder nahezu identischen Hash-Codes gruppiert werden. Die andere ist die inhaltsbasierte Ähnlichkeitssuche, die angenähert wird, indem Bilder mit ähnlichen Hash-Codes gefunden werden. Der Hash-Code-Extraktionsprozess ist sehr einfach und sowohl das Bildclustering als auch die Ähnlichkeitssuche können in Echtzeit durchgeführt werden. Experimente mit über 11 Millionen aus dem Internet gesammelten Bildern belegen die Effizienz und Effektivität der vorgeschlagenen Methode.;-;-;-;https://link.springer.com/chapter/10.1007/11922162_95 58f67cd4dec883cf52c776696a888611;de;;;7.1.;;;Die Rolle von Bildungs- und Berufsverbänden bei der Beratung bei der Kapazitätsplanung Dieses Papier untersucht die Gründe für eine Informationstechnologie (IT)-Bildungspolitik für Entwicklungsländer und schlägt Beiträge vor, die IT-Fachverbände zu ihrer Entwicklung beitragen können. Zu den behandelten Bereichen gehören die Sensibilisierung der Öffentlichkeit für IT, der Bedarf an technischer Infrastruktur und kaufmännischem Know-how, die Entwicklung der akademischen Curriculumentwicklung und Akkreditierung, die Formulierung professioneller Praxisstandards und die Schaffung gemeinsamer Ausbildungsprogramme mit der Industrie.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35195-7_22 9e5cf38d85ed329048903fdda19cc960;de;;;7.2.;;;Verwenden von Dokumenteinbettungen für die Hintergrundverknüpfung von Nachrichtenartikeln Dieser Artikel beschreibt unsere Experimente bei der Verwendung von Dokumenteinbettungen, um Hintergrundlinks zu Nachrichtenartikeln bereitzustellen. Diese Arbeit wurde im Rahmen des jüngsten TREC 2020 News Tracks durchgeführt [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-80599-9_28 f982521104573928834634e65564cbef;de;;;7.1.;;;Förderung der verteilten Zusammenarbeit durch Portfolio-Optimierung von Collaboration-Tools Verteilte Zusammenarbeit ist ein weit verbreitetes Phänomen in der heutigen Welt virtueller Organisationen und einer ständig steigenden Zahl ausgelagerter und ausgelagerter Projekte. Misserfolge in der Zusammenarbeit aufgrund von räumlichen, zeitlichen und kulturellen Unterschieden führen zum Scheitern vieler verteilter Projekte und zu großen finanziellen Verlusten. Ein gut ausgewähltes Portfolio an Kollaborationstools verbessert die Zusammenarbeit und trägt zu einer höheren Projekterfolgsquote bei. In der wissenschaftlichen Literatur gibt es jedoch keine Methode, die eine Anleitung zur Auswahl eines geeigneten Collaboration-Tools-Portfolios (CTP) bietet, das die verteilte Zusammenarbeit fördern würde.;-;-;-;https://link.springer.com/chapter/10.1057/9780230362994_8 f8038b3ae88337f2d3c601e694781c9e;de;;;7.1.;;;Entwicklung eines Reifegradbewertungsmodells für ein IT-gestütztes Energiemanagement Maturity Assessment Modeling ist ein anerkanntes Instrument sowohl im akademischen als auch im wirtschaftlichen Bereich, das in jüngster Zeit im Zusammenhang mit nachhaltiger Informations- und Kommunikationstechnologie in den Fokus der Diskussion gerückt ist. Gleichzeitig bleibt die Akzeptanz von Corporate Environmental Information Systems (CEMIS) in der Unternehmenswelt bescheiden und CEMIS sieht sich weiterhin mit diversen Problemen konfrontiert. Vor diesem Hintergrund wird ein Reifegradbewertungsmodell für IT-gestütztes Umweltmanagement entwickelt mit dem Ziel, Unternehmen Anreize für den Einsatz von CEMIS zu geben und damit den Einsatz im Unternehmensbereich zu steigern. Langfristiges Ziel ist es, den Stellenwert des Umweltmanagements grundlegend zu verändern, so dass es nicht mehr als passiv, nicht integriert und oft kostspielig betrachtet wird, sondern als strategisches Instrument, dessen Potenziale mit Hilfe von Reifegradbewertungsmodell. Die Entwicklung von Reifegradbewertungsmodellen wird zunächst mit Hilfe eines Vorgehensmodells veranschaulicht. Da die Entwicklung eines Reifegradbewertungsmodells für das Umweltmanagement im Allgemeinen ein sehr umfangreiches Unterfangen darstellt, wird die Anwendung des hier entwickelten Modells im begrenzten Kontext des Energiemanagements und der geplanten Implementierung in einem Unternehmensnetzwerk untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36011-4_9 4d87a02d52bd4e71750e1aad49fb39ee;de;;;7.1.;;;Performance Management: Von der Entscheidungsunterstützung bis zur Performance Governance Dieses Kapitel ist der erste des zweiten Teils des Buches und führt in das Konzept des Corporate Performance Management ein, analysiert die Hauptkomponenten und bietet einen Überblick über die gebräuchlichsten Softwareumgebungen, die zur Implementierung solcher Produkte verwendet werden, einschließlich der von Oracle Hyperion, SAP , Cognos IBM, SAS, Microsoft, Board und Tagetik. Auch die Schlüsselrollen in jedem CPM-Projekt sind definiert: Unternehmensberater, Business Intelligence Experten und Performance Management Architekten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13235-3_6 8d0f566c544c30ca0d7c1c2aebf45c8b;de;;;7.2.;;;MUSIKABRUF IN P2P-NETZWERKEN UNTER DER WARPING DISTANCE Peer-to-Peer-(P2P)-Netzwerke bieten die Vorteile einer erhöhten Größe der Gesamtdatenbank, die von den Netzwerkknoten geboten wird, Fehlertoleranzunterstützung für Peer-Ausfälle und Arbeitslastverteilung. Die Speicherung und der Austausch von Musikdateien hat den traditionellen zentralisierten Server-Client-Ansatz längst aufgegeben und die Vorteile von P2P-Netzwerken genutzt. In diesem Beitrag untersuchen wir das Problem der Suche nach ähnlichen akustischen Daten über unstrukturierte dezentrale P2P-Netzwerke. Als Entfernungsmaß verwenden wir die Zeitverzerrung. Wir schlagen einen neuartigen Algorithmus vor, der ähnliche Audiodaten effizient wiedergewinnt. Der vorgeschlagene Algorithmus nutzt das Fehlen von Overhead in unstrukturierten P2P-Netzwerken und minimiert den erforderlichen Verkehr für alle Operationen durch die Verwendung eines intelligenten Sampling-Schemas. Detaillierte experimentelle Ergebnisse zeigen die Effizienz des vorgeschlagenen Algorithmus im Vergleich zu einem bestehenden Basisalgorithmus.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-5347-4_6 b3e994e1dd94fcea70d0a7c3e1cc3295;de;;;7.2.;;;Nachrüstung von Sicherheit in ein webbasiertes Informationssystem Dieses Papier berichtet über eine inkrementelle Methode, die es ermöglicht, einem bestehenden, aber unsicheren System, wie einem Prototyp oder einem Legacy-System, Sicherheitsmechanismen hinzuzufügen. Die inkrementelle Methode wird vorgestellt und als Showcase ihre Anwendung am Beispiel eines webbasierten Informationssystems demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45068-8_58 defa3a595b1d43383c7e9efd12601665;de;;;7.2.;;;Was sich XML-IR-Benutzer wünschen können Es wird davon ausgegangen, dass XML-IR-Systeme durch die Fokussierung des Abrufs auf eine niedrigere Granularität als Dokumente den Informationsbedarf der Benutzer besser befriedigen als herkömmliche IR-Systeme. Die Teilnehmer des Ad-hoc-Tracks von INEX entwickeln basierend auf dieser Annahme XML-IR-Systeme mit einer Bewertungsmethodik in der Tradition von Cranfield. Seit der Einführung von INEX wird jedoch darüber diskutiert, inwieweit einige der Ad-hoc-Aufgaben auf echte Benutzer anwendbar sind. Der Zweck des Tracks User-Case Studies besteht darin, die Anwendung von XML-IR-Systemen aus der Perspektive der Benutzer zu untersuchen. Dieses Papier skizziert die Beteiligung von QUT an diesem Track. Für unser Engagement haben wir ein User-Experiment mit einem XML-IR-System (GPX) und drei Schnittstellen durchgeführt: einer Standard-Keyword-Schnittstelle, einer Natural Language-Schnittstelle (NLPX) und einer Query-by-Template-Schnittstelle (Bricks). Im Anschluss an das Experiment haben wir die Benutzer zu ihren Erfahrungen befragt und sie - im Vergleich zu einem herkömmlichen XML-IR-System - gefragt, für welche Aufgaben sie ein XML-IR-System verwenden würden, welche zusätzlichen Informationen sie benötigen würden, um mit einem XML-IR-System zu interagieren. IR-System und wie möchten sie XML-IR-Ergebnisse präsentiert sehen. Es ist zu hoffen, dass die Ergebnisse dieser Studie uns näher dazu bringen, zu verstehen, was Benutzer von XML-IR-Systemen erwarten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73888-6_40 07db989f637b8a461fd4d0acb17d287b;de;;;7.2.;;;Zusammenfassung mehrerer Dokumente mit einer Clustering-basierten Hybridstrategie In diesem Beitrag schlagen wir einen Clustering-basierten Hybridansatz für die Zusammenfassung mehrerer Dokumente vor, der Satzclustering, lokale Empfehlung und globale Suche integriert. Für das Satzclustering verwenden wir ein stabilitätsbasiertes Verfahren, das die optimale Clusternummer automatisch bestimmen kann. Wir gewichten Sätze mit Begriffen, die sie für die lokale Satzempfehlung jedes Clusters enthalten. Für die globale Auswahl schlagen wir ein globales Kriterium vor, um die Gesamtleistung einer Zusammenfassung zu bewerten. So werden die Sätze in der abschließenden Zusammenfassung nicht nur von der Konfiguration einzelner Cluster, sondern auch von der Gesamtleistung bestimmt. Mit diesem Ansatz wird die Leistung auf höchstem Niveau erfolgreich auf dem Korpus von DUC04 ausgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/11880592_53 2d9698937c641cd3ee4046a16da93386;de;;;7.2.;;;MusiClef: Multimodale Musik-Tagging-Aufgabe MusiClef ist eine multimodale Musik-Benchmarking-Initiative, die eine MediaEval 2012 Brave New Task zum multimodalen Music Tagging durchführen wird. Dieses Papier beschreibt den Aufbau dieser Aufgabe und zeigt, wie sie bestehende Benchmarking-Initiativen ergänzt und weniger erforschte methodische Richtungen beim Abrufen von Musikinformationen fördert. MusiClef beschäftigt sich mit einem konkreten Use Case, fördert darauf aufbauende multimodale Ansätze und strebt nach größtmöglicher Transparenz der Ergebnisse. Transparenz wird auf mehreren Ebenen und Stufen gefördert, vom Merkmalsextraktionsverfahren bis zur Evaluierungsphase, in der eine dedizierte Kategorisierung von Ground-Truth-Tags verwendet wird, um das Verständnis der Beziehung zwischen den vorgeschlagenen Ansätzen und den experimentellen Ergebnissen zu vertiefen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33247-0_5 b6e5e5c95b64e00278a2864cc8795153;de;;;7.1.;;;Recherchen zur IMC-Organisation Die Theorie der integrierten Marketingkommunikation ist zu einem neuen betriebswirtschaftlichen Paradigma geworden und hat bei Forschern der Marketingtheorie und bei Unternehmensmanagern immer mehr Aufmerksamkeit auf sich gezogen. Die Bedeutung, Notwendigkeit und Bedeutung der IMC-Theoriestrategie wurde bereits oft diskutiert. Dieses Kapitel konzentriert sich auf die Implementierung der IMC-Strategie, konzentriert sich auf die Diskussion einer wichtigen Grundlage des Implementierungsprozesses, der Gestaltung der Organisationsstruktur. Der Autor versucht, eine Idee vorzuschlagen, die dazu beiträgt, die Ziele des IMC-Strukturdesigns während der Diskussion der integrierten Marketingkommunikation im Implementierungsprozess zu erreichen, wie die vollständige Umsetzung und Implementierung des Organisationsstrukturdesigns der IMC-Strategie gewährleistet werden kann, wie die Zusammenarbeit zwischen der IMC-Abteilung und anderen relevanten Abteilungen für die integrierte Marketingkommunikation, wie die integrierte Marketingkommunikation in der Entwicklungstendenz gefördert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38091-4_4 50112d9276ccdd8c4b65df43d11f2e6b;de;;;7.1.;;;Ein integrierter Ansatz für die taktische Planung der Lieferkette und die Cashflow-Bewertung Dieser Beitrag stellt eine Methodik vor, die eine Flussoptimierung und ein Kostenmodell kombiniert, um gleichzeitig eine taktische Planung eines Produktivsystems zu realisieren und die finanzielle Leistungsfähigkeit der vorgeschlagenen Pläne zu bewerten. Das angesprochene System ist eine standortübergreifende, produktübergreifende Supply-Chain-Struktur mit endlichen Produktions-, Lager- und Transportkapazitäten. Um physikalische Strömungen zu modellieren, schlagen wir ein Optimierungsmodell vor, das alle Randbedingungen des physikalischen Systems berücksichtigt. Es berechnet Produktions- und Transportpläne und maximiert gleichzeitig die Nachfragezufriedenheitsrate. Um dann die durch das Optimierungsmodell gefundene Lösung finanziell zu bewerten, schlagen wir ein Kostenmodell vor, das Activity Based Costing (ABC) als Bewertungsmethode mit Kostentreibermechanismus verwendet. Um schließlich sowohl Optimierungs- als auch Kostenmodelle in einem globalen integrierten Modell zu koppeln, verwenden wir einen Ansatz namens PREVA for PRocess EVAluation, der im Allgemeinen verwendet wird, um das Managementkontrollsystem einer Lieferkette anhand finanzieller und physischer Kennzahlen einzurichten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29996-5_9 bde99786e81837811a61c636d555e755;de;;;7.2.;;;Regelextraktions-Framework mit groben Sets und neuronalen Netzen Dieser Beitrag befasst sich mit der Vereinfachung von Klassifikationsregeln für das Data Mining unter Verwendung der Grobmengentheorie in Kombination mit neuronalen Netzen. Beim Attributreduktionsprozess erzeugt der vorgeschlagene Ansatz eine minimale Reduktion und eine minimale Anzahl von Regeln mit hoher Genauigkeit. Experimentelle Ergebnisse mit Beispieldatensätzen im UCI-Repository zeigen, dass diese Methode eine gute Leistung bietet, um prägnante und genaue Regeln zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30499-9_155 5a23da489d7c45722ab751a46f9a6708;de;;;7.2.;;;Fokussiertes Browsing: Bereitstellung von aktuellem Feedback für die Linkauswahl beim Hypertext-Browsing Beim Treffen von Entscheidungen darüber, ob zu einer verlinkten Seite navigiert werden soll, sind Benutzer von Standardbrowsern von Hypertextdokumenten, die von einer Suchmaschine zum Abrufen von Informationen zurückgegeben werden, vollständig auf den Inhalt des mit Links verbundenen Ankertexts und des umgebenden Textes angewiesen. Diese Informationen reichen oft nicht aus, um zuverlässige Entscheidungen zu treffen, ob eine verlinkte Seite geöffnet werden soll, und sie können vielen Links zu Seiten folgen, die nicht hilfreich sind und anschließend zur vorherigen Seite zurückkehren. Wir beschreiben einen Prototyp;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78646-7_82 15dee530c5bcb095c6ebedf9c48b86a5;de;;;7.2.;;;Multimodaler medizinischer Bildabruf Die medizinische Bildgewinnung ist eine der entscheidenden Aufgaben im ärztlichen Alltag. Dieser Beitrag untersucht drei Formen der medizinischen Bildsuche: Text-, visuelle und multimodale Suche. Wir untersuchen, indem wir verschiedene Gewichtungsmodelle für die Textsuche evaluieren. Beim visuellen Abruf haben wir uns darauf konzentriert, Low-Level-Features zu extrahieren und deren Leistung zu untersuchen. Für das multimodale Retrieval haben wir die späte Fusion verwendet, um die besten Text- und visuellen Ergebnisse zu kombinieren. Wir fanden heraus, dass die Wahl des Gewichtungsmodells für die Textsuche einen dramatischen Einfluss auf das Ergebnis der multimodalen Suche hat. Die Ergebnisse aus dem Text- und Visual Retrieval werden mittels Linearkombination verschmolzen, die zu den einfachsten und am häufigsten verwendeten Methoden gehört. Unsere Ergebnisse zeigen deutlich, dass die Fusion von Text und visuellem Retrieval mit einer geeigneten Fusionstechnik die Retrieval-Performance verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37169-1_8 5518b58e2a61e5a8b626baf85ac4c385;de;;;7.2.;;;Unterstützung komplexer Suchaufgaben Es besteht im Bereich der IR ein breiter Konsens darüber, dass die Suche in vielen Anwendungsfällen und Anwendungen komplex ist, sowohl im Web als auch in domänenspezifischen Sammlungen, sowohl beruflich als auch im täglichen Leben. Doch unser Verständnis komplexer Suchaufgaben ist im Vergleich zu einfachen Nachschlageaufgaben bestenfalls fragmentiert. Der Workshop befasste sich mit den vielen offenen Forschungsfragen: Was sind die offensichtlichen Anwendungsfälle und Anwendungen der komplexen Suche? Was sind wesentliche Merkmale von Arbeitsaufgaben und Suchaufgaben zu beachten? Und wie entwickeln sich diese im Laufe der Zeit? Bei einer Vielzahl von Informationen, die von einführenden bis spezialisierten, von maßgeblichen bis hin zu spekulativen oder eigenwilligen Informationen reichen, wann sollte man welche Informationsquellen aufzeigen? Wie entwickelt sich der Prozess der Informationssuche und was sind relevante Unterschiede zwischen den verschiedenen Phasen? Mit komplexem Aufgaben- und Suchprozessmanagement, der Kombination von Suche, Browsing und Empfehlungen und der Unterstützung der explorativen Suche mit Sensemaking und Analytics stellt das UI- und UX-Design eine überforderte Herausforderung dar. Woher wissen wir, dass unser Ansatz gut ist? Die Unterstützung komplexer Suchaufgaben erfordert neue Kooperationen im gesamten Bereich der IR, und der vorgeschlagene Workshop wird eine vielfältige Gruppe von Forschern zusammenbringen, um an einer der größten Herausforderungen unseres Bereichs zu arbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16354-3_99 771fa302035cb19a02aa4d013912ef14;de;;;7.2.;;;University of Chicago bei CLEF2004: Abruf von sprachübergreifendem Text und gesprochenen Dokumenten Die University of Chicago beteiligte sich am Cross-Language Evaluation Forum 2004 (CLEF2004) mit mehrsprachigen mehrsprachigen, zweisprachigen und gesprochenen Sprachkursen. Sprachübergreifende Experimente konzentrierten sich darauf, den Herausforderungen neuer Sprachen mit frei verfügbaren Ressourcen zu begegnen. Wir stellten fest, dass durch die zusätzliche Anwendung von Pseudo-Relevanz-Feedback eine bescheidene Effektivität erreicht werden könnte, um einige Lücken in verarmten lexikalischen Ressourcen zu schließen. Experimente mit einem neuen Dimensionsreduktionsansatz zur Neuordnung der abgerufenen Ergebnisse brachten jedoch keine Verbesserung. Schließlich zielten Experimente zum Abrufen von gesprochenen Dokumenten darauf ab, den Herausforderungen unbekannter Story-Randbedingungen und verrauschtem Abrufen durch abfragebasierte Zusammenführung feinkörniger überlappender Fenster und Pseudo-Feedback-Abfrageerweiterung zu begegnen, um das Abrufen zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/11519645_18 f8f1d61bbe09e45d534322950d846b8d;de;;;7.2.;;;Forschung zum dynamischen Bewertungsalgorithmus der Netzwerklast basierend auf Durchsatzüberwachung Um das Problem der zu geringen Gesamtlast einzelner Knoten zu lösen, wurde ein dynamischer Netzlast-Auswertungsalgorithmus basierend auf Durchsatzüberwachung vorgeschlagen. Zur Vervollständigung der Monitoring-Beschreibung der dynamischen Netzdurchsatzrate wurden die Knotenüberwachungsmengenanalyse und die Bewertungsparameterbestimmung verwendet. Auf dieser Grundlage wurde durch die Verbesserung der Lastwirkung, der Bewertungsmechanismus-Erstellung und der Korrekturfaktorberechnung der neue Bewertungsalgorithmus fertiggestellt. Die experimentellen Ergebnisse zeigten, dass nach Anwendung des dynamischen Netzlastbewertungsalgorithmus basierend auf Durchsatzüberwachung das Problem der zu geringen Gesamtlast einzelner Knoten effektiv gelöst wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36402-1_26 f15073cf9b54808b76d786d0d9520299;de;;;7.2.;;;Ein effizientes und nachweislich sicheres zertifikatsloses Public-Key-Verschlüsselungssystem für Telecare-Medizin-Informationssysteme Telecare Medicine Information Systems (TMIS) fördern die traditionellen medizinischen und Gesundheitsdienste durch Informations- und Kommunikationstechnologie. Da der Arzt und das Pflegepersonal den physiologischen Zustand des Patienten in TMIS aus der Ferne überwachen können, sollte die Vertraulichkeit dieser sensiblen Daten geschützt werden, was im Gesetz zur Übertragbarkeit und Rechenschaftspflicht von Krankenversicherungen von zentraler Bedeutung ist. In diesem Papier schlagen wir ein effizientes zertifikatloses Verschlüsselungsschema mit öffentlichem Schlüssel ohne bilineare Paarung für TMIS vor. Unser Vorschlag hat sich im Random-Orakel-Modell unter der Härteannahme des rechnerischen Diffie-Hellman-Problems als sicher erwiesen. Darüber hinaus erreicht dieses Schema nach der Modifikation des ursprünglichen Modells der zertifikatslosen Verschlüsselung die Vertrauensstufe von Girault 3. Im Vergleich zu den verwandten Protokollen zeigen die Durchführungsbewertungen, dass unser Schema effizienter und geeigneter ist, um mit mobilen Geräten mit geringem Stromverbrauch für TMIS zusammenzuarbeiten.;-;-;-;https://link.springer.com/article/10.1007/s10916-013-9965-0 75ac1dbf8a4a1cef8bd2516d2d9e7e4c;de;;;7.1.;;;Robuste Planung und Steuerung mit intelligenten Produkten Die Fortschritte in der Produktionsplanung und -steuerung in den letzten Jahrzehnten haben den zentralisierten Charakter der Planungsfunktion bestätigt. Die Zentralisierung hat jedoch Nachteile, wenn eine schnelle Reaktion auf lokale Produktionsprobleme erforderlich ist. Daher entsteht ein erneutes Interesse an dezentralen Ansätzen. In diesem Beitrag wird die Möglichkeit untersucht, intelligente Produkte zum dezentralen Umgang mit Störungen einzusetzen. Intelligente Produkte kennen ihren lokalen Kontext und können mit lokalen Fertigungsressourcen verhandeln. Somit können lokale Problemlösungen vorgeschlagen werden, praktisch zeitgleich mit dem Auftreten des Problems. Der Beitrag demonstriert die Realisierbarkeit dieses Ansatzes anhand einer Simulationsstudie. Aus Vergleichsgründen wird die TAC-SCM-Umgebung verwendet. Darüber hinaus wird die Robustheit als zusätzliches Maß für die Leistung herangezogen. Die Ergebnisse der Simulationen sind ermutigend.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15117-0_12 fede7e58b236047ea0d18df0582810c9;de;;;7.1.;;;Bildungsinformatik für Entwicklung: Eine Typologie der ICT4D-Pädagogik Dieses Papier ist ein Versuch, die Bildung von Informationssystemen (IS) innerhalb des Forschungs- und Praxisdiskurses zu Informations- und Kommunikationstechnologien für die Entwicklung (ICT4D) zu positionieren. Die Motivation für die Studie ergibt sich aus dem Verständnis, dass die Forschung zu ICT4D-Theorien und -Praxis zwar an Popularität gewonnen hat, aber nur sehr wenig Anstrengungen unternommen wurden, um die Verbindung zwischen universitärer Bildung und ICT4D-Praktiken herzustellen. Die Literatur zur IS-Bildung beschäftigt sich immer noch mit Diskussionen über Curricula und Pädagogik, die darauf abzielen, Schüler mit instrumentellem Wissen auszustatten, das auf den „aufholenden“ und „konformistischen“ IS-Praktiken basiert. Infolgedessen werden die Lernenden, insbesondere im Grundstudium, wenig oder gar nicht mit den IS-Diskursen der Reformisten und Transformisten konfrontiert, die als entscheidend für den Erfolg von ICT4D identifiziert wurden. Durch Parallelen zu anderen Mustern in der ICT4D-Forschung und -Praxis hofft diese Studie, eine Lücke in der IS-Bildung aufzuzeigen, die, wenn sie nicht behoben wird, weiterhin ein großes Hindernis für ICT4D-Initiativen in Entwicklungsländern darstellen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-19115-3_28 ce22f358c74de2389bdd37962170b806;de;;;7.2.;;;Vergrößerte Cluster Wir verwenden Techniken von Kleinbergs Hubs and Authorities und Kernel-Funktionen wie in Support Vector Machines, um eine neue Form des Clusterings zu definieren. Die Erhöhung des Nichtlinearitätsgrads der Kernel führt zu einer Erhöhung der Granularität des Datenraums und zu einer natürlichen Entwicklung von Clustern zu Subclustern. Der vorgeschlagene Algorithmus zur Konstruktion von gezoomten Clustern wurde entwickelt, um auf sehr großen Datensätzen zu laufen, wie sie in Webverzeichnissen und der Bioinformatik zu finden sind.;-;-;-;https://link.springer.com/chapter/10.1007/11893257_91 ba869cc5bbf946fe0dd4b82cc43d8188;de;;;7.2.;;;Empfehlung von Lernobjekten mit kollaborativer Filterung und Kompetenzen Dieser Beitrag stellt ein Empfehlungssystem für Lernobjekte vor, das einen kollaborativen Filtermechanismus basierend auf Kompetenzen verwendet. Das Modell ermöglicht es den Studierenden, automatisch Empfehlungen zu Lernobjekten zu erhalten, je nach Interessen der Studierenden, aber auch nach zu entwickelnden Kompetenzen. Der implementierte Prototyp war in der Lage, den Studierenden relevante Inhalte zu empfehlen, die ihnen bei der Entwicklung von Kompetenzen helfen sollen. Das Papier präsentiert auch einige Experimente, die zeigen, dass das Empfehlungssystem ein gutes Maß an Genauigkeit für die gemachten Vorschläge hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15378-5_4 42b4595eec44e28e998f7bd5a81deed4;de;;;7.2.;;;Adaptives zeitliches Modell für IPTV-Empfehlung Wie der IPTV-Dienstleister dabei unterstützt werden kann, seinen Kunden die Programmempfehlung zu geben, ist das Problem, das wir in diesem Dokument lösen möchten. Hier bieten wir ein adaptives Zeitmodell an, um mehrere Mitglieder unter einem gemeinsamen IPTV-Konto zu identifizieren. Die Zeitintervalle werden zunächst in jedem Konto erkannt und definiert. Dann wird die Präferenzähnlichkeit unter den Intervallen berechnet, um die Mitglieder zu extrahieren. Danach werten wir unser Modell an den Industriedatensätzen eines namhaften IPTV-Anbieters aus. Die experimentellen Ergebnisse zeigen, dass unser vorgeschlagenes Modell vielversprechend ist und die neuesten Algorithmen mit geringer Rechenkomplexität und Vielseitigkeit ohne Benutzerfeedback übertrifft. Darüber hinaus wurde das vorgeschlagene Modell vom IPTV-Anbieter offiziell übernommen und 2013 mit ausgezeichneter Benutzerzufriedenheit in seinen IPTV-Systemen angewendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-21042-1_21 9e9066d8ac4aa96da27ff0a1389e2bb0;de;;;7.2.;;;Eigenschaften von intervallbewerteten Fuzzy-Beziehungen, Atanassov-Operatoren und zerlegbaren Operationen In diesem Artikel untersuchen wir Eigenschaften von intervallbewerteten Fuzzy-Relationen, die 1975 von L.A. Zadeh eingeführt wurden. Die Fuzzy-Set-Theorie hat sich als nützliches Werkzeug erwiesen, um Situationen zu beschreiben, in denen die Daten ungenau oder vage sind. Die intervallwertige Fuzzy-Mengentheorie ist eine Verallgemeinerung der Fuzzy-Mengentheorie, die auch von Zadeh 1965 eingeführt wurde. Wir untersuchen einige Eigenschaften von intervallwertigen Fuzzy-Relationen im Kontext der Atanassov-Operatoren und zerlegbaren Operationen in der intervallwertigen Fuzzy-Mengentheorie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14055-6_68 5abc0bfd23ee67bbc0c64a0c4a45f1ba;de;;;7.2.;;;Risikomanagement-Anwendung der Recurrent Mixture Density Network-Modelle Wir betrachten die Verallgemeinerung des klassischen GARCH-Modells in zwei Richtungen: Zum einen die Berücksichtigung nichtlinearer Abhängigkeiten im bedingten Mittelwert und in der bedingten Varianz und zum anderen die Spezifikation der bedingten Dichte. Als Werkzeug für die nichtlineare Regression verwenden wir neuronale netzwerkbasierte Modellierung, sogenannte rekurrente Mischungsdichtenetzwerke, die den bedingten Mittelwert und die Varianz durch mehrschichtige Perzeptrone beschreiben. Alle Modelle werden hinsichtlich ihrer Out-of-Sample-Vorhersagefähigkeit im Hinblick auf die Bewertung der Value-at-Risk-Prognose verglichen. Die empirische Analyse basiert auf Renditereihen von Aktienindizes verschiedener Finanzmärkte. Die Ergebnisse zeigen, dass für alle Märkte die Verbesserung der Prognose durch nicht-lineare Modelle gegenüber linearen vernachlässigbar ist, während nicht-gauß-Modelle die Gauß-Modelle in Bezug auf die meisten Bewertungstests deutlich dominieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44989-2_70 9a8c559f9bea9347877de13875246f2d;de;;;7.2.;;;Universität Alicante bei GeoCLEF 2005 Für unsere Teilnahme an GeoCLEF 2005 haben wir ein System aus drei Modulen entwickelt. Eines davon ist ein Information Retrieval-Modul und die anderen sind Module zur Erkennung benannter Entitäten, die auf maschinellem Lernen und auf Wissen basieren. Zur Lösung der vorgeschlagenen Aufgaben haben wir mehrere Durchläufe mit unterschiedlichen Kombinationen dieser Module durchgeführt. Das System erreichte den zweiten Platz bei den Aufgaben gegen deutsche Sammlungen und den dritten Platz bei den Aufgaben gegen englische Sammlungen.;-;-;-;https://link.springer.com/chapter/10.1007/11878773_103 7ca5a9b48bc99743a6025846ea6f99d6;de;;;7.2.;;;Multigranulationsentscheidungstheoretische Grobsätze in unvollständigen Informationssystemen Wir untersuchen entscheidungstheoretische Grobsätze der Multigranulation in unvollständigen Informationssystemen. Basierend auf dem Bayesschen Entscheidungsverfahren schlagen wir die Begriffe gewichtete mittlere entscheidungstheoretische Grobsätze mit Multigranulation, optimistische entscheidungstheoretische Grobsätze mit Multigranulation und pessimistische entscheidungstheoretische Grobsätze mit Multigranulation in einem unvollständigen Informationssystem vor. Wir untersuchen die Beziehungen zwischen den vorgeschlagenen entscheidungstheoretischen Rough-Set-Modellen der Multigranulation und anderen verwandten Rough-Set-Modellen. Wir untersuchen auch einige grundlegende Eigenschaften dieser Modelle. Wir geben ein Beispiel, um die Anwendung der vorgeschlagenen Modelle zu veranschaulichen.;-;-;-;https://link.springer.com/article/10.1007/s13042-015-0407-9 b95ab6fe099c197cfd1d14b170403e71;de;;;7.2.;;;Ein sprachbasierter kombinierter Requirements-Engineering-Ansatz Unter Organisations-/Geschäftssystemen versteht man soziale Systeme, deren Bestandteile Akteure (Mensch oder Maschine) sind, die Informationen (Wörter, Zeichen) austauschen, um Geschäfte zu tätigen und die Mission der Organisation zu erfüllen. Soziale Systeme und Anforderungen an ihr unterstützendes Informationssystem können mit der Language-Action-Perspektive einfach und richtig studiert werden, was in letzter Zeit im Requirements Engineering immer mehr an Bedeutung gewinnt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35604-4_1 cef36029ae65015ca22c39cd4a77ae70;de;;;7.2.;;;Semantische Suche und Analyse über einen großen Bestand an wissenschaftlichen Artikeln Wir stellen die Architektur des Systems vor, die auf die Suche und Synthese von Informationen innerhalb von Dokumenten-Repositories abzielt, die aus verschiedenen Quellen stammen, wobei Dokumente nicht unbedingt im gleichen Format und im gleichen Detaillierungsgrad bereitgestellt werden. Es wird erwartet, dass das System Domänenwissensschnittstellen bereitstellt, die es den intern implementierten Algorithmen ermöglichen, Beziehungen zwischen Dokumenten (sowie Autoren, Institutionen usw.) und Konzepten (wie z. Das System sollte durch wissenschaftliche Inhaltsspeicherung, Leistung analytischer Prozesse und Suchgeschwindigkeit skalierbar sein. Bei komplexen Rechenaufgaben (wie die Erstellung umfangreicherer semantischer Indizes für die Suchverbesserungen) sollte es den Paradigmen der hierarchischen Modellierung und Berechnung folgen, die als Interaktion zwischen Domänenexperten, Systemexperten und entsprechend implementierten intelligenten Modulen konzipiert sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24809-2_1 7f2c0e98cd11a2d2dfe2bb4a22c19254;de;;;7.2.;;;oMAP: Kombinieren von Klassifikatoren zur automatischen Ausrichtung von OWL-Ontologien In diesem Beitrag werden eine Methode und ein Werkzeug zum automatischen Abgleich von OWL-Ontologien vorgestellt, einem entscheidenden Schritt, um die Interoperabilität heterogener Systeme im Semantic Web zu erreichen. Um geeignete Abbildungskandidaten (zusammen mit ihren Gewichten) zu finden, werden verschiedene Komponenten kombiniert und das Regelwerk mit maximaler Übereinstimmungswahrscheinlichkeit ausgewählt. Auf maschinellem Lernen basierende Klassifikatoren und ein neuer Klassifikator, der die Struktur und die Semantik der OWL-Ontologien verwendet, werden vorgeschlagen. Unsere Methode wurde auf einem unabhängigen Test-Set implementiert und bewertet, das von einem internationalen Ontologie-Alignment-Wettbewerb bereitgestellt wurde. Wir stellen die Ergebnisse dieser Bewertung in Bezug auf die anderen Wettbewerber zur Verfügung.;-;-;-;https://link.springer.com/chapter/10.1007/11581062_11 0eae8d8e1573be3ea8c25925ba2e8410;de;;;7.1.;;;Abgrenzung rechteckiger Bewirtschaftungszonen und Anbauplanung unter Unsicherheit in den Bodeneigenschaften In diesem Artikel behandeln wir zwei Probleme, mit denen Landwirte häufig konfrontiert sind. Die erste besteht darin, eine Unterteilung eines landwirtschaftlichen Feldes in rechteckige und homogene Bewirtschaftungszonen gemäß einer bestimmten Bodeneigenschaft zu erstellen, die eine zeitliche Variabilität aufweist, die durch eine Reihe möglicher Szenarien dargestellt wird. Das zweite Problem weist den zuvor definierten Bewirtschaftungszonen die richtige Fruchtfolge zu. Diese Probleme verbinden Aspekte der Präzisionslandwirtschaft und der Optimierung mit dem Ziel einer mittelfristigen, standort- und zeitspezifischen Bewirtschaftung des Feldes, die konsistent und effektiv ist. Daher schlagen wir ein zweistufiges stochastisches ganzzahliges Programmiermodell mit Rückgriff vor, das das Abgrenzungsproblem einer endlichen Anzahl möglicher Szenarien löst, danach schlagen wir ein deterministisches Ernteplanungsmodell vor und kombinieren sie dann zu einem neuen zweistufigen stochastischen Programm die beide Probleme unter Sicherheitsbedingungen gleichzeitig lösen können. Wir beschreiben die vorgeschlagene Methodik und die in dieser Forschung erzielten Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-53982-9_7 95bdf87d38ae1e7757a9d2853fada088;de;;;7.1.;;;Modell des Informationstechnologiemanagements - MITM Ausgangspunkt für die Entwicklung eines neuen Ansatzes für die Auswahl der Informationstechnologie ist das in Kapitel 1 erwähnte Inkompatibilitätsprinzip von L.A. Zadeh [59], das auf die Möglichkeit der Modellierung komplexer Systeme verweist. Nach diesem Prinzip wurden die in dieser Arbeit vorgestellten Modelle unter Beibehaltung der erforderlichen Präzision und unter Beibehaltung der beabsichtigten Funktionalität entwickelt. Die Anwendbarkeit der vorgeschlagenen Modelle ist mit einer einheitlichen Konvention zur Beschreibung von Modellen und Standards aus der Systemtheorie verbunden [13-16]. Die Sicherstellung einer ausreichenden Genauigkeit der Modellierung bedeutet die Fähigkeit, sich auf die Qualität der Fertigungs- und Managementprozesse, die bei der Umsetzung von IT-Projekten anfallen, verlässlich zu beziehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40877-9_2 8972e1db2ce4b7dffcafa0c7b20f7cba;de;;;7.1.;;;Pflegetechnologien? Geschlecht, Pflege und Fähigkeiten im Umgang mit Informationssystemen für die Patientenversorgung Eine systematische Überprüfung der Auswirkungen von Gesundheitsinformations- und Kommunikationstechnologien (IKT) auf die medizinische Versorgung stellt fest, dass IKT „an und für sich keinen Krankheits- oder Gesundheitszustand verändern“ (Chaudhry et al., 2006: E-18) . Die Autoren betonen die Bedeutung des Einsatzes von IKT und des Kontexts, in dem sie eingesetzt werden, in ihrer Diskussion der möglichen Auswirkungen solcher Technologien. Dieses Buch beschäftigt sich in ähnlicher Weise mit dem Verständnis der IKT-Nutzung im Kontext, fügt jedoch unserer Erforschung des Themas eine zusätzliche Dimension hinzu – die des Geschlechts. In diesem Kapitel wird untersucht, wie das Geschlecht die Art und Weise beeinflusst, wie Pflegekräfte IKT im Kontext ihrer Arbeit als Pflegekräfte nutzen und darüber nachdenken. Die Pflegearbeit beinhaltet traditionell sehr viel hochqualifizierte Pflegearbeit, erfordert jedoch zunehmend den Einsatz von IKT, die zum Teil überwiegend administrative Funktionen haben. Dieser Wandel, der mit strukturellen Veränderungen im Gesundheitswesen zusammenhängt, die das Wesen der Pflegearbeit verändert haben, hat eine einzigartige Reihe von geschlechtsspezifischen Spannungen geschaffen, da sich ein feminisierter Beruf mit seiner Beziehung zu maskulinisierter Technologie und feminisierter Verwaltungsarbeit auseinandersetzt. In diesem Kapitel werden diese Spannungen anhand empirischer Daten aus einer qualitativen Fallstudie über die Interaktionen und Wahrnehmungen von Pflegepersonal in der Notaufnahme mit einem computergestützten Patient Care Information System (PCIS), einer Verwaltungstechnologie zum Sammeln standardisierter Patientendaten, untersucht.;-;-;-;https://link.springer.com/chapter/10.1057/9780230245396_6 4f40318df7f1050b775667cd2e33cb12;de;;;7.2.;;;Entwicklung einer Methode zur Bewertung der Ermüdung und ihrer wirtschaftlichen Auswirkungen Wenn eine Methode zur qualitativen und quantitativen Bewertung von Fatigue entwickelt werden kann, wird sie nicht nur zur Selbstkontrolle des Einzelnen und zur Verbesserung der Arbeitsgesundheit nützlich sein, sondern auch um die Entwicklung und Vermarktung von Anti-Fatigue-Medikamenten und Nahrungsergänzungsmitteln zu erleichtern. Obwohl es schwierig ist, den durch Fatigue verursachten ökonomischen Verlust genau zu bestimmen, steht außer Frage, dass die erfolgreiche Unterdrückung der chronischen Fatigue (die ein Faktor ist, der für das Auftreten oder die Verschlimmerung von lebensstilbedingten chronischen Krankheiten verantwortlich ist) erheblich dazu beitragen wird, die medizinischen Ausgaben. Es ist bekannt, dass wesentliche Ermüdungserscheinungen, die sich in Form einer beeinträchtigten körperlichen und geistigen Funktion zeigen, eng mit der Funktion der Frontallappen (die das Zentrum für die Ermüdungserkennung sein können) und des autonomen Nervensystems zusammenhängen. Aus diesem Grund erfordert die Quantifizierung von Fatigue die Entwicklung von Biomarkern, die Veränderungen der Frontallappenfunktion (Arbeitsgedächtnis etc.) und der Funktion des autonomen Nervensystems (Pulswellen etc.) objektiv und sensitiv bewerten können. Qualitative und quantitative Bewertungen von Fatigue werden durch Metaanalysen von Veränderungen biochemischer, immunologischer und physiologischer Marker in Blut, Speichel und Urin sowie Veränderungen der Bildgebung der Gehirnfunktion bei psychischer oder physischer Belastung möglich sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-73464-2_3 0cd83424f978a86220721b4233e6afb7;de;;;7.2.;;;Zuordnen von Linux-Sicherheitszielen zu vorhandenen Testsuiten Der Common Criteria-Standard bietet eine Infrastruktur, um Sicherheitsfunktionen von IT-Produkten zu bewerten und zu bescheinigen, dass von Produktanbietern geforderte Sicherheitsrichtlinien von den Sicherheitsfunktionen selbst korrekt durchgesetzt werden. Die Zertifizierung von Open-Source-Software (OSS) kann den Weg zur OSS-Einführung in einer Reihe von sicherheitsbewussten Anwendungsumgebungen ebnen. Jüngste Erfahrungen bei der Zertifizierung von Linux-Distributionen haben auf das Problem hingewiesen, eine Zuordnung zwischen Beschreibungen von OSS-Sicherheitsfunktionen und bestehenden, unabhängig entwickelten Testsuiten wie dem Linux Test Project zu finden. In diesem Papier beschreiben wir einen auf Matching-Techniken basierenden Mechanismus, der halbautomatisch Sicherheitsfunktionen mit bestehenden Testsuites, wie sie beispielsweise von Open-Source-Communitys entwickelt wurden, zuordnet.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09684-1_3 576e879188c517f118cb7c452712085b;de;;;7.2.;;;Schlüsselschätzung in elektronischer Tanzmusik In diesem Artikel untersuchen wir Schlüsselschätzungen in der elektronischen Tanzmusik, einem Überbegriff, der sich auf eine Vielzahl von elektronischen Musik-Subgenres bezieht, die zum Tanzen in Nachtclubs und Raves gedacht sind. Wir beginnen mit der Definition von Tonalität und Tonart, bevor wir die grundlegende Architektur einer vorlagenbasierten Tonartschätzungsmethode skizzieren. Anschließend berichten wir über die klanglichen Eigenschaften elektronischer Tanzmusik, um mögliche Modifikationen der beschriebenen Methode abzuleiten. Wir erstellen neue Schlüsselprofile, die diese Beobachtungen mit einer Korpusanalyse kombinieren, und fügen dem Basisalgorithmus zwei Vorverarbeitungsstufen hinzu. Abschließend vergleichen wir unsere Profile mit bestehenden und testen unsere Modifikationen an unabhängigen Datensätzen von Pop- und elektronischer Tanzmusik, beobachten interessante Verbesserungen der Performance oder unserer Algorithmen und schlagen Wege für zukünftige Forschungen vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30671-1_25 4bc724fa03a64b8e3bb402a512977724;de;;;7.2.;;;Vergleich der Zusammenfassung von Textforen in Abhängigkeit vom Abfragetyp für Textforen Zur Evaluation der abfrageorientierten Textzusammenfassung werden verschiedene Ansätze entwickelt. Für Textforen ist dieses Verfahren jedoch nicht klar definiert und Standardansätze sind nicht geeignet. Die Bewertung der abfrageorientierten Textzusammenfassung hängt stark vom Abfragetyp ab. Wir vergleichen zwei typische Szenarien der Suche nach beruflich bedeutsamen Informationen in Internetforen. Unser Interesse gilt den Gemeinsamkeiten und Unterschieden zwischen relevanzorientierten Abfragen und nutzenorientierten Abfragen. Um diese Abfragetypen zu vergleichen, haben wir Datensätze gesammelt, textuelle, strukturelle Merkmale und soziale Graphenmerkmale extrahiert, verschiedene Rankingmodelle konstruiert, geeignete Qualitätsmaße (NDCG) verwendet und Merkmalsauswahltechniken angewendet, um die Ursachen von Unterschieden zu untersuchen. Wir haben herausgefunden, dass diese Abfragetypen von Natur aus sehr unterschiedlich sind und eine schwache Korrelation aufweisen. Es sollten unterschiedliche Modelltypen und -funktionen verwendet werden, um ein effizientes Informationsabrufsystem für jeden Abfragetyp zu erstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-32213-1_24 e7bb407d747d84917395941a5de40cf5;de;;;7.1.;;;Wissensbasierter Lifecycle-Management-Ansatz für Produkt-Service-Systeme (PSS) Product Service Systems (PSS) sind neue industrielle Angebote, die ein Produkt und zugehörige Dienstleistungen in ein kundenspezifisches Bündel integrieren und dem Kunden eine Gesamtlösung für ein bestimmtes Problem bieten. Der Lebenszyklus von PSS ist geprägt von zusammengeführten Produkt- und Servicestrukturen und einer engen Interaktion zwischen Anbieter, Lieferanten und Kunden, nicht nur in der Entwicklungsphase, sondern insbesondere während des Betriebs von PSS. Daher muss ein Lifecycle-Management-Ansatz für PSS sowohl den virtuellen als auch den realen (operativen) Lebenszyklus von PSS zusammenführen. Um dieses Ziel zu erreichen, muss operatives Wissen über eine PSS-Instanz gesammelt, aggregiert, verwaltet und durch verbesserte Lifecycle-Management-Methoden genutzt werden, um Anbieter, Lieferanten und Kunden bei der Entwicklung, Bereitstellung und dem Betrieb von PSS zu unterstützen. Das vorliegende Papier stellt einen wissensbasierten Lifecycle-Management-Ansatz für PSS vor, der eine ontologische Repräsentation von PSS-Wissen und 3 wissensbasierte Lifecycle-Methoden berücksichtigt, um Engineering-Prozesse adaptiv zu gestalten, den beteiligten Akteuren das entsprechende PSS-Wissen bereitzustellen und die Stakeholder zu unterstützen in ihren Entscheidungsprozessen. Die Komponenten dieses Ansatzes wurden als zentrale Lifecycle-Management-Methoden für das PSS-Management identifiziert. Sie werden noch innerhalb des von der Deutschen Forschungsgemeinschaft (DFG) geförderten Sonderforschungsbereichs TR29 entwickelt, der das gesamte Engineering von PSS untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41501-2_24 6c0d518bc3430be298888c6d94c80ec6;de;;;7.1.;;;Geologische Informationen für die Planung von aggregierten Ressourcen Bau und Instandhaltung der Infrastruktur sind auf Rohstoffe wie Gesteinskörnungen (Schotter, Sand und Kies) angewiesen. Trotz dieser Abhängigkeit geht die Stadterweiterung oft zu Lasten der Produktion dieser lebenswichtigen Rohstoffe. Das Versäumnis, den Schutz und die Gewinnung von Gesteinsrohstoffen zu planen, führt oft zu erhöhten Verbraucherkosten, Umweltschäden und einer feindlichen Beziehung zwischen der Gesteinsindustrie und der Gemeinschaft.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0303-2_7 ee30755c6226bde7887c0767447eaeb2;de;;;7.1.;;;Eine Systemlösung zur gleichzeitigen Prozessplanung und Werkstattsteuerung In diesem Beitrag werden aktuelle Schwachstellen in der Fertigungsplanung und die Notwendigkeit einer stärkeren Zusammenarbeit zwischen Prozessplanung und Disposition diskutiert. Anschließend werden der Ansatz und die prototypischen Entwicklungen eines neuen Softwaresystems beschrieben (;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34876-6_31 546120365ce3ff6a3a6aea605f217670;de;;;7.2.;;;Unwürdige Wächter: Nappula Child Welfare Information System In diesem Papier untersuchen wir eine finnische Kinderschutzdienstsoftware Nappula. Wir weisen auf einige Probleme mit dem System in Bezug auf die gespeicherten und verwendeten Informationen hin. Es teilt einige der Probleme, die in Patienteninformationssystemen vorherrschen, ohne es genau zu sein. Einige dieser Probleme umfassen, sind aber nicht beschränkt auf Datenschutzprobleme und die fehlende Möglichkeit, Daten in bestimmten Situationen zu korrigieren, neben anderen ethischen Fragen. Wir weisen darauf hin, dass das System Probleme hat, die mit den Werten von Kinderschutzdiensten, Sozialdiensten und der Gesellschaft nicht gerechtfertigt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-97931-1_5 1bdf4f770a1020175a5ba2143214db51;de;;;7.2.;;;IRAIA: Eine Portaltechnologie mit einer semantischen Ebene, die Multimedia Retrieval und inhaberübergreifende Inhaltserstellung koordiniert Dieses Papier stellt eine Technologie für Informationsportale vor, die Multimedia-Recherche unterstützt und sich gleichzeitig auf unterschiedliche Ökologien der Umgebungen von Informationsanbietern und Inhaltseigentümern konzentriert. Das heißt, es adressiert die medienübergreifende Informationsbereitstellung und den inhaberübergreifenden Content-Building. Die Technologie wurde im Rahmen des RP5-Projekts IRAIA . entwickelt;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-0381-1_16 a3d9960fa3bf5ae0aa411cbcb348a6d0;de;;;7.2.;;;Um das soziale Monster zu besiegen: Der Kampf um soziale Inklusion unter Gleichaltrigen im Bereich der Systementwicklung Die Mechanismen der sozialen Eingliederung und Ausgrenzung können unter Fachleuten innerhalb von Organisationen und Praxisgemeinschaften funktionieren. Diese Mechanismen können in formale Organisationsstrukturen eingebettet werden und üben eine starke Kontrolle darüber aus, wer die Mitglieder von Organisationen und Gemeinschaften innerhalb ihrer Gesellschaft als akzeptabel und inakzeptabel erachten. Mit Kapitaltheorien als theoretischer Linse analysieren wir die Texte von Interviews mit Wissensführern in einer Softwareentwicklungsorganisation. Die Analyse zeigt, wie ein Schwellenereignis funktioniert, um Neuankömmlinge in eine Sammlung sozialer Gemeinschaften aufzunehmen. Bis zum Schwellenereignis sind Gemeinschaften von Neuankömmlingen sozial ausgegrenzt. Die Existenz des Schwellenereignisses und die Natur des Schwellenereignisses ist eine unausgesprochene und nicht anerkannte Struktur, die bei der Schaffung des sozialen Gefüges der Organisation oder Gemeinschaft verwendet wird. Es wird kollektiv, aber implizit entschieden, wann ein solches Ereignis eintritt und die soziale Inklusion ohne anderweitige Erklärung ausgelöst wird.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-34588-4_24 3085832a498f251af739080e64a6a70c;de;;;7.1.;;;Operative und strukturelle Geschäfts-IT-Ausrichtung In den letzten Jahren hat sich die Unternehmensarchitektur nach und nach als das herausragende Mittel zur Veränderung und Transformation großer Organisationen herauskristallisiert. Durch den Einsatz von Architekturprinzipien streben Unternehmen danach, die Komplexität von Geschäftsprozessen und IT-Systemen und deren harmonische Ausrichtung zu beherrschen. Leider wurde der koevolutionäre und emergente Charakter von Alignment in der IS-Forschung nur sehr selten berücksichtigt. Auch wenn sich verschiedene Ansätze auf das Alignment der Business-IT konzentrieren, neigen die meisten dazu, sich auf das Alignment als Zustand oder Ergebnis zu konzentrieren. In diesem Papier argumentieren wir, dass ein dynamischer Ansatz erforderlich ist, um eine langfristige Ausrichtung der Unternehmens-IT zu erreichen. Darüber hinaus zeigen wir, dass die Wahl der architektonischen Prinzipien einen Einfluss auf die Fähigkeit hat, sowohl betriebliche als auch bauliche Ausrichtung zu erreichen und aufrechtzuerhalten. Als Grundlage für die Analyse dient eine Fallstudie. Die Schlussfolgerung ist, dass eine unternehmenszentrierte Architektur Handlungsspielräume für eine dynamische operative Ausrichtung schaffen kann und dass ein geschäftsorientiertes IT-Management die IS-Architektur langfristig an die Business-Architektur angleichen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25370-6_20 cccfe342be8309fea65d8f7e651c12a9;de;;;7.1.;;;Proaktive oder reaktive IT-Führungskräfte? Ein Test zweier konkurrierender Hypothesen zu IT-Innovation und Umgebungsausrichtung Wann nützt es einem Unternehmen, mit Informationstechnologie (IT) eine Innovationsführerschaft zu übernehmen? Wie sollte ein Unternehmen seine IT-Innovation auf eine dynamische Branche ausrichten? Zur Beantwortung dieser Fragen stellen wir eine Typologie von;-;-;-;https://link.springer.com/article/10.1057/ejis.2010.36 9fa557324ac799f375a45540d64be5ac;de;;;7.1.;;;Ein Leitfaden für das Fähigkeitsmanagement Digitalisierung, kürzere Produktzyklen, Überangebot an Märkten und steigende Kundenanforderungen bestimmen und beeinflussen den Wandel von der Industrie- zur Informationsgesellschaft. Dadurch stehen Unternehmen vor neuen Herausforderungen, ihre Marktposition, Transparenz und Effizienz zu halten. Unternehmen meistern diese Herausforderungen durch die Umsetzung von Strategien. Um Strategien erfolgreich umzusetzen und gewünschte Ziele zu erreichen, sollten Unternehmen über bestimmte Fähigkeiten verfügen. Damit wächst die Nachfrage nach einem methodischen Capability-Management-Ansatz. In diesem Kapitel wird ein Prozess zum Identifizieren, Strukturieren und Verwalten von Unternehmensfunktionen vorgestellt. Der Leitfaden basiert auf einem integrierten Fähigkeitsansatz, der aus einer Reihe von wissenschaftlichen Untersuchungen und praktischen Erfahrungen über Jahre resultiert. Der aus vier Bausteinen bestehende Leitfaden zum Capability-Management stellt einen flexiblen „Engineering“-Ansatz für Capability-Katalog-Entwickler, -Designer und -Evaluatoren dar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-40564-3_12 d40bcdea5c53b25da887de869a28bcf0;de;;;7.2.;;;Reproduzierbarkeit von Experimenten bei der Bewertung von Empfehlungssystemen Die Bewertung von Empfehlungssystemen basiert normalerweise auf Vorhersagegenauigkeitsmetriken mit besseren Bewertungen, was Empfehlungen von höherer Qualität bedeutet. Der Vergleich der Ergebnisse wird jedoch immer schwieriger, da es unterschiedliche Empfehlungsrahmen und unterschiedliche Settings bei der Gestaltung und Durchführung der Experimente gibt. Darüber hinaus kann es zwischen den verschiedenen Frameworks geringfügige Unterschiede bei der Algorithmusimplementierung geben. In diesem Papier vergleichen wir bekannte Empfehlungsalgorithmen unter Verwendung desselben Datensatzes, derselben Metriken und allgemeinen Einstellungen, deren Ergebnisse auf Ergebnisunterschiede zwischen den Frameworks mit den exakt gleichen Einstellungen hinweisen. Daher schlagen wir die Verwendung von Standards vor, die als Richtlinien befolgt werden sollten, um die Reproduzierbarkeit von Experimenten und die Reproduzierbarkeit der Ergebnisse sicherzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-92007-8_34 47831fa6098a5e26a09c16404228819b;de;;;7.2.;;;Auf dem Weg zu einem Mediationssystem-Framework für einen transparenten Zugang zu weit verbreiteten Quellen In diesem Beitrag wird das Projekt MediaGrid vorgestellt, dessen Ziel die Definition eines Vermittlungsrahmens für den transparenten Zugang zu weitgehend verteilten Quellen ist. Frameworks sind wiederverwendbare Designelemente, die als eine Reihe von Schnittstellen und Komponenten zusammen mit der Beschreibung ihrer Zusammenarbeit ausgedrückt werden. Zu den Forschungsthemen des MediaGrid-Projekts gehören das Metadatendesign, die Generierung von Vermittlungsanfragen sowie die adaptive und interaktive Anfrageauswertung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30145-5_4 7080c40daca8cd9b3b69c962243f01ad;de;;;7.2.;;;Erfahrungsbasiertes Vertrauen im E-Commerce Vertrauen ist für den E-Commerce von Bedeutung und hat zunehmende Aufmerksamkeit in E-Commerce, Multiagenten-Systemen und künstlicher Intelligenz (KI) erfahren. Der theoretischen Grundlage und den intelligenten Techniken für Vertrauen im E-Commerce wurde jedoch weder aus logischer noch aus der Sicht intelligenter Systeme viel Aufmerksamkeit geschenkt. Dieses Papier wird diese Lücke schließen, indem es wissensbasiertes Vertrauen, inferenzbasiertes Vertrauen, fallbasiertes Vertrauen und erfahrungsbasiertes Vertrauen im E-Commerce und ihre Wechselbeziehungen aus der Sicht intelligenter Systeme untersucht. Der vorgeschlagene Ansatz wird die Erforschung und Entwicklung von Vertrauen, Multiagentensystemen, E-Commerce und E-Diensten erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75466-6_74 cdaf32d07b6e151d442443745aedb069;de;;;7.2.;;;Automatische Kurztextanmerkung für das Fragenbeantwortungssystem Die semantische Annotation für Text ist ein gut untersuchtes Thema. Es wurde jedoch wenig Beitrag zur Anwendung kurzer Textanmerkungen geleistet. In diesem Artikel wird für diesen Zweck ein automatischer Annotationsansatz vorgeschlagen, der kurze Texte mit semantischen Labels für Frageantwortsysteme annotiert. Im ersten Schritt werden Schlüsselwörter aus einer Frage extrahiert und dann wird ein semantisches Label-Auswahlmodul verwendet, um semantische Labels zum Markieren von Schlüsselwörtern auszuwählen. Wenn kein geeignetes Label vorhanden ist, wird WordNet verwendet, um Kandidatenlabels zu erhalten, um diese Schlüsselwörter zu kommentieren, indem die Ähnlichkeit zwischen jedem Schlüsselwort in der Frage und der Konzeptliste in unserer vordefinierten Tagger-Ontologie berechnet wird. Um die Genauigkeit der Annotation zu verbessern, entwickeln wir auch eine naive Bayesian-basierte Methode zur Unterscheidung von Multisenses und zur Zuweisung bester semantischer Labels durch Bezugnahme auf historisch kommentierte Fragen. Vorläufige Experimente zu 6 Kategorien zeigen, dass unser Ansatz eine durchschnittliche Genauigkeit von 76 % erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22810-0_18 3d296eba91ce34e638cd466bd0f13f10;de;;;7.2.;;;Transformationale Akzeptanz von staatlichen Bürgerdiensten: Ein konzeptioneller Rahmen Trotz des in der Literatur geäußerten Bedarfs, die Mechanismen zu beleuchten, die dem Transformationsprozess von t-Government zugrunde liegen, müssen noch Untersuchungen zu den kritischen Faktoren durchgeführt werden, die die Akzeptanz der Transformationsdienste der Kommunalverwaltung durch die Bürger beeinflussen. Um diese Lücke zu schließen, berichtet diese Studie über die Ergebnisse der Anwendung des Structured-Case-Ansatzes und schlägt einen Rahmen vor, um die Erfolgsfaktoren für t-Gov im griechischen Kontext zu untersuchen. Das Papier zeigt, dass eine transformative Regierung kein Staat ist, sondern ein Prozess, der Erfahrungsurteile erfordert. Bestehende Akzeptanztheorien müssen daher durch zusätzliche Variablen ergänzt werden, die sich auf die Akzeptanz transformativer Dienste durch die Bürger auswirken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22878-0_12 a0cdbea3eee6439216b025bd6336e6e1;de;;;7.2.;;;Vertrauenserweiterte Empfehlungssysteme für eine effiziente Online-Zusammenarbeit Vertrauen wurde in der Vergangenheit von vielen Forschern als Lösung zur Unterstützung des Prozesses der Empfehlungserstellung untersucht. In dieser Arbeit untersuchen wir die Machbarkeit des Aufbaus von Netzwerken vertrauenswürdiger Benutzer unter Verwendung der vorhandenen Evidenz, die von einem Standardempfehlungssystem geliefert werden würde. Da es heute an Modellen mangelt, die helfen könnten, die Beziehung zwischen Vertrauen und Ähnlichkeit zu finden, bauen wir unsere eigenen auf, die eine Reihe empirischer Gleichungen verwenden, um Ähnlichkeitsmetriken in subjektives logisches Vertrauen abzubilden. In diesem Papier führen wir eine Bewertung des vorgeschlagenen Modells als Teil eines vollständigen Empfehlungssystems durch. Schließlich präsentieren wir die interessanten Ergebnisse dieser Evaluierung, die die Leistung und Vorteile unserer Vertrauensmodellierungstechnik sowie ihre Auswirkungen auf die Benutzergemeinschaft im Laufe der Zeit zeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02056-8_3 1dea8514273fb6867353d9eba0fb2369;de;;;7.2.;;;Musik-Emotions-Maps im Erregungs-Valenz-Raum In diesem Artikel stellen wir den Ansatz vor, bei dem die Erkennung von Emotionen durch das zugehörige Regressionsproblem modelliert wird. Die Durchführung von Experimenten erforderte den Aufbau einer Datenbank, die Annotation von Samples durch Musikexperten, die Konstruktion von Regressoren, die Auswahl von Attributen und die Analyse ausgewählter Musikkompositionen. Wir erhielten einen zufriedenstellenden Korrelationskoeffizientenwert für SVM für den Regressionsalgorithmus von 0,88 für Erregung und 0,74 für Valenz. Das Ergebnis der Anwendung von Regressoren sind Emotionskarten der Musikkompositionen. Sie liefern neue Erkenntnisse über die Verteilung von Emotionen in musikalischen Kompositionen. Sie offenbaren neue Erkenntnisse, die bisher nur Musikexperten zur Verfügung standen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-45378-1_60 12fe5fe6a536e4edf669e31fc4b15d83;de;;;7.2.;;;Neurokognitiv inspirierte haptische Benutzeroberflächen Haptische Systeme und Geräte sind eine neue Ergänzung zu multimodalen Systemen. Diese Geräte haben weit verbreitete Anwendungen wie chirurgische Simulationen, medizinisches und verfahrenstechnisches Training, wissenschaftliche Visualisierungen, unterstützende und rehabilitative Geräte für Personen mit körperlichen oder neurologischen Behinderungen und Hilfsmittel für blinde Personen. Während das Potenzial der Haptik in der natürlichen Mensch-Maschine-Interaktion unbestritten ist, ist die Realisierung solcher Mittel noch in weiter Ferne. Es gibt erhebliche Forschungsherausforderungen bei der Entwicklung natürlicher haptischer Schnittstellen. Die Erforschung menschlicher taktiler Fähigkeiten ist ein neues Unterfangen, und viele der verfügbaren Systeme beinhalten immer noch nicht das Domänenwissen der Psychophysik, der Biomechanik und der neurologischen Elemente der haptischen Wahrnehmung. Die Entwicklung intelligenter und effektiver haptischer Schnittstellen und Geräte erfordert umfangreiche Studien, die Wahrnehmungsphänomene mit messbaren Parametern verknüpfen und dieses Domänenwissen in die Entwicklung haptischer Schnittstellen einbeziehen. In diesem Beitrag werden Design, Entwicklung und Usability-Tests einer neurokognitiv inspirierten haptischen Benutzeroberfläche für blinde Personen vorgestellt. Das vorgeschlagene Systemdesign ist von neurokognitiven Grundlagen der haptischen Wahrnehmung inspiriert und berücksichtigt die rechnerischen Aspekte und Anforderungen multimodaler Informationsverarbeitungssysteme. Usability-Tests des Systems legen nahe, dass biologisch inspirierte haptische Benutzeroberflächen ein leistungsfähiges Paradigma für das Design haptischer Benutzeroberflächen bilden können.;-;-;-;https://link.springer.com/article/10.1007/s11042-007-0167-y de21f16189137c264f60cfbbe19dff07;de;;;7.1.;;;Hat ein Jahrzehnt der Computerisierung einen Unterschied in der Schulverwaltung gemacht? Das Papier beschreibt eine Längsschnittstudie zur Bewertung der Wirksamkeit und Nutzbarkeit eines computergestützten Schulverwaltungs- und Verwaltungssystems, das in den meisten Sekundarschulen im Vereinigten Königreich verwendet wird. 1990 und 1996 wurden Fallstudien durchgeführt, und 1999 wurde eine umfassende Erhebung an Sekundarschulen in England durchgeführt. Anhand der Umfrageergebnisse versuchten wir zu bewerten, wie erfolgreich das System im Einsatz war und wie sich seine Rolle verändert hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-306-47006-6_9 295edc16f706788aefc00c9350a19684;de;;;7.1.;;;Konzeptionelle Informationssysteme diskutiert durch ein IT-Sicherheitstool Konzeptuelle Informationssysteme basieren auf einer Formalisierung des Begriffs „Konzept“, wie er in der traditionellen philosophischen Logik diskutiert wird. Diese Formalisierung unterstützt einen menschenzentrierten Ansatz bei der Entwicklung von Informationssystemen. Wir diskutieren diesen Ansatz anhand eines implementierten konzeptionellen Informationssystems zur Unterstützung des IT-Sicherheitsmanagements in Unternehmen und Organisationen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-39967-4_27 68e816ef21762713982b3870cff2b55c;de;;;7.1.;;;Eine explorative Studie zu Risikofaktoren für die Implementierung serviceorientierter IS-Projekte Für IS-Projektleiter ist die erfolgreiche Umsetzung der Projekte immer eine Herausforderung. Da immer mehr Unternehmen damit beginnen, serviceorientierte IS-Projekte zu entwickeln, ist es außerdem unerlässlich, die Quellen und Auswirkungen relevanter Risiken zu bewerten. Diese Forschung zielte darauf ab, Risikofaktoren im Zusammenhang mit serviceorientierten IS-Projekten zu identifizieren und die Auswirkungen dieser Risikofaktoren zu analysieren. Unter Anwendung des von IBM vorgeschlagenen SIMM (Service Integrated Maturity Model) wurden Kundendienstsysteme ausgewählt, um den Forschungsrahmen zu rechtfertigen. Das Ergebnis zeigte, dass die Risikofaktoren, die die Einführung serviceorientierter Systeme beeinflussten, unzureichende Technologieplanung, fehlendes Fachwissen, ineffektive Projektsteuerung und organisatorische Fehlausrichtungen waren, aufgelistet in der Reihenfolge der Einflussstärke. Die Ergebnisse dieser Forschung sollen Managern dabei helfen, die Risiken und die Bedeutung dieser Risiken zu erkennen und zu kontrollieren, wenn sie Entscheidungen über die Einführung serviceorientierter Systeme treffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01256-3_8 bc467c606ae9305bfbc6812bb41f429f;de;;;7.1.;;;ERP-Systeme und BSC in der Betriebsführung: Eine Ergebnisanalyse von Unternehmen Ziel dieser Studie ist es, die Schwierigkeiten und Synergien zwischen der strategischen Managementmethodik BSC (Balanced Scorecard) und dem integrierten Informationssystem ERP (Enterprise Resource Planning) in der Betriebsführung zu verifizieren, zu analysieren und zu beschreiben. Dies ist eine multiple Fallstudie, die sich auf die Beziehung zwischen diesen Systemen konzentriert und zu einem theoretischen Modell beiträgt, das die Eigenschaften beider Managementsysteme in Beziehung setzt. Basierend auf einem breiten theoretischen Rahmen, der mehrere Themen in Bezug auf Betriebsführung, Strategie, Organisationssystem, ERP, Leistungsindizes und BSC behandelt, wurden fünf Unternehmen zu Fragebögen besucht, die es ermöglichten, Synergien, Vorteile, Probleme und Schwierigkeiten zwischen BSC und ERP zu identifizieren . Zum Abschluss dieser Studie wurden Beobachtungen zu den BSC- und ERP-Systemen gemacht, insbesondere zu den identifizierten Schwierigkeiten und Synergien zwischen ihnen in der Betriebsführung. Herausragend in dieser Arbeit ist die Bedeutung dieser beiden Systeme für die Planung, Umsetzung und Überwachung von Strategien in Organisationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-51133-7_57 35f264eb626c96abd9fb5e816915aa4b;de;;;7.2.;;;Die Untersuchung von Informationsfehlern in Organisationen In einem perfekten Informationssystem würden die Informationen immer frei durch eine Organisation fließen und effektiv genutzt werden. Leider leben wir in einer unvollkommenen Welt und müssen eine Reihe von Hindernissen für den Informationsfluss berücksichtigen, von denen einige den Fluss ablenken oder verändern, während andere ihn einfach aufsaugen und praktisch zu Informationssenken werden (Unesco, 1977). .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83091-4_12 9b27c2139d34acb19f072e20e25114af;de;;;7.2.;;;Stemming des armen Mannes: Unbeaufsichtigte Erkennung von gleichstammigen Wörtern Wir präsentieren einen neuen, vollständig unbeaufsichtigten, vom Menschen eingriffsfreien Algorithmus zum Stemming für eine offene Klasse von Sprachen. Da es sich nicht auf vorhandene große Datensammlungen oder andere linguistische Ressourcen als Rohtext stützt, ist es besonders für Sprachen mit geringer Dichte attraktiv. Das Stammesproblem wird als eine Entscheidung formuliert, ob zwei gegebene Wörter Varianten desselben Stammes sind und erfordert, dass in diesem Fall eine konkatenative Beziehung zwischen den beiden besteht. Die zugrunde liegende Theorie macht keine Annahmen darüber, ob die Sprache viel Morphologie verwendet oder nicht, ob sie Präfixe oder Suffixe verwendet oder ob Affixe lang oder kurz sind. Es wird jedoch davon ausgegangen, dass 1. hervorstechende Affixe häufig sein müssen, 2. Wörter im Wesentlichen Sequenzen von zufälligen Zeichen variabler Länge sind und außerdem 3. dass eine Heuristik darüber gültig ist, was eine systematische Affixänderung ausmacht. Getestet auf vier typologisch weit voneinander entfernten Sprachen zeigt der Stemmer vielversprechende Ergebnisse in einer Bewertung gegen einen von Menschen gemachten Goldstandard.;-;-;-;https://link.springer.com/chapter/10.1007/11880592_25 c0e6e877c758945a2349909fb5377aa5;de;;;7.1.;;;Smart Cities, lokale Gemeinschaft und sozioökonomische Entwicklung: Der Fall von Bologna Dieses Kapitel untersucht die Metropolregion Bologna, Italien, mit dem Ziel zu verstehen, wie sich die Durchsetzung einer intelligenten Wirtschaft auf intelligente Städte auswirkt und die soziale und kulturelle Entwicklung fördert. Wir konzentrieren uns insbesondere auf Schlüsselfaktoren der Smart Economy, die Verknüpfung von Smart Economy und sozialer Entwicklung, Kulturerhaltung, Denkmalpflege und ökologisches Management. Die Datenanalyse zeigt, dass intelligente Initiativen insbesondere im Kontext der Wirtschafts- und Finanzkrise kein Wirtschaftswachstum garantieren. Eine gute digitale Infrastruktur kann die Verbreitung von Informationen erleichtern und neue Chancen für Wirtschaft und Gesellschaft bieten, aber sie reicht nicht aus. Wir haben beobachtet, dass die traditionelle, kooperationsfinanzierte lokale Sozialstruktur eher einen sehr interessanten Ausgangspunkt für eine neue Peer-to-Peer-Organisation von Wirtschaft und Gesellschaft darstellen kann. Ungeachtet dessen benötigen traditionelle Sozialstrukturen dringend eine infrastrukturelle Aktualisierung, um neue sozioökonomische Strategien effektiv durchzusetzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-1610-3_23 94ade60b8c5709fceef0626fbf817427;de;;;7.2.;;;Erkennen getarnter Anwendungen auf Märkten für mobile Anwendungen Anwendungsplagiate oder Anwendungsklonen sind eine neue Bedrohung auf den Märkten für mobile Anwendungen. Es verringert die Gewinne der ursprünglichen Entwickler und beeinträchtigt manchmal sogar die Sicherheit und Privatsphäre der Benutzer. In diesem Whitepaper stellen wir ein neues Konzept namens Camouflaged Applications vor, bei dem externe Funktionen mobiler Anwendungen wie Symbole, Screenshots, Anwendungsnamen oder Beschreibungen kopiert werden. Wir schlagen dann ein skalierbares Erkennungs-Framework vor, das diese verdächtig ähnlichen getarnten Anwendungen finden kann. Um dies zu erreichen, wenden wir in unserem Framework textbasierte Retrieval-Methoden und inhaltsbasierte Image-Retrieval-Methoden an. Unser Framework ist mit 30.625 Android-Anwendungen aus dem offiziellen Google Play-Markt implementiert und getestet. Die Versuchsergebnisse zeigen, dass selbst der amtliche Markt aus 477 potentiell getarnten Opfern besteht, was 1,56 % der getesteten Proben abdeckt. Unser Beitrag unterstreicht, dass diese getarnten Anwendungen nicht nur potenzielle Sicherheitsbedrohungen aufdecken, sondern auch die Qualitäten der Märkte für mobile Anwendungen beeinträchtigen. Unser Papier analysiert auch das Verhalten von erkannten getarnten Anwendungen und berechnet die Fehlalarmraten des vorgeschlagenen Frameworks.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-15943-0_15 fb5e1c893ecd387b62796642f8d66eb9;de;;;7.1.;;;Eine eingehende, explorative Bewertung der Implementierung des National Health Information Systems in einem Distriktkrankenhaus in Tansania Ein gut funktionierendes Gesundheitsinformationssystem (HIS) ist entscheidend für eine effektive und effiziente Erbringung von Gesundheitsdienstleistungen. In Tansania gibt es ein nationales HIS namens Mfumo wa Taarifa za Uendeshaji Huduma za Afya (MTUHA). Es umfasst einen Leitfaden/Handbuch, eine Reihe von Registern zur Primärdatenerhebung und Sekundärdatenbücher, in denen Informationen aus den Registern summiert oder für Berechnungen verwendet werden.;-;-;-;https://link.springer.com/article/10.1186/1472-6963-14-91 0344a33160fcb868de549fa6e5bd876d;de;;;7.1.;;;Management of Process Excellence: Was ist das und warum brauchen Sie es? Als ich 1995 zum ersten Mal von Deutschland in die USA zog, erwartete ich, dass jedes Unternehmen über Geschäftsprozesse und Business Process Management (BPM) diskutieren würde. Da ich mit den Prozessorientierungsbüchern von Scheer [1] und Hammer [2] vertraut war, war mir klar, dass BPM im US-Geschäft ebenso wie in Deutschland ein neues Trendthema ist. Diese Erwartung erwies sich jedoch als Illusion.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77825-7_1 8d5c7962f411e00e260faab770c06bfc;de;;;7.1.;;;Der Zauberring in Aktion: Kontrolle von Produktion und Lagerbeständen Die Steuerung der Lager- und Produktionsprozesse, typische Formen der Managementkontrolle, die auf die in Abschn.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-64194-8_11 209a35ea168e150497445d7cc345bcc2;de;;;7.2.;;;DEMIDS: Ein Missbrauchserkennungssystem für Datenbanksysteme Trotz der Notwendigkeit, in Datenbanksystemen (DBS) gespeicherte Informationen zu schützen, reichen bestehende Sicherheitsmodelle nicht aus, um Missbrauch, insbesondere Insidermissbrauch durch legitime Benutzer, zu verhindern. Darüber hinaus wurden Konzepte zur Missbrauchserkennung bei DBS durch die bestehende Forschung zur Missbrauchserkennung nicht angemessen behandelt. Obwohl es Mittel gibt, um die in einem Datenbanksystem gespeicherten Informationen vor Missbrauch zu schützen, werden sie von Sicherheitsbeauftragten selten verwendet, da die Sicherheitsrichtlinien der Organisation entweder ungenau oder gar nicht bekannt sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35501-6_12 50e5c6ff63f74edf54fbd235d3d18de9;de;;;7.1.;;;Welche Entscheidungen in der Fertigungslogistik werden durch Operational Research unterstützt? Eine Literaturübersicht In diesem Beitrag wird eine Literaturübersicht zu Anwendungen der Betriebsforschung für die Entscheidungsfindung in der Fertigungslogistik vorgestellt. Insgesamt 80 Anwendungen veröffentlicht in;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-77249-3_24 77be7c0515a88bd7865823f02f072afd;de;;;7.1.;;;Integration von Beschaffungs-, Produktionsplanungs- und Bestandsmanagementprozessen durch Verhandlungsinformationen Verhandlung ist ein grundlegender Prozess für die Unternehmensaktivitäten. In diesem Papier untersuchen wir das Problem der Schaffung eines Werkzeugs, das es einem Fertigungsunternehmen ermöglicht, die Verhandlungen im Zusammenhang mit dem Beschaffungsprozess mit der Produktionsplanung und den Lagerprozessen zu integrieren. Wir formulieren das Beschaffungsproblem als umgekehrte kombinatorische Auktion und stellen eine neue mathematische Formulierung zur Verfügung, die Beschaffungs-, Produktions- und Lagerkosten berücksichtigt.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-8139-1_26 87e032e6873ddb67479048a8ab57829b;de;;;7.1.;;;Ein Werkzeug zur Unterstützung der funktionsorientierten Entwicklung Dieser Beitrag beschäftigt sich mit Featured Driven Development (FDD), einer agilen Softwareentwicklungsmethode. Entsprechend der Anforderungsanalyse für die Anwendung der FDD-Methode wurde ein Informationssystem geschaffen, das allen Teammitgliedern Instrumente zur Verfolgung der Methode an die Hand gibt. Dieses Tool wurde als webbasierte Mehrbenutzer-Anwendung implementiert, die es ermöglicht, Feature-Listen zu erstellen, ein Projekt zu planen, die Zusammenarbeit zwischen den Mitgliedern eines Feature-Teams zu unterstützen und den Projektfortschritt anschaulich zu verfolgen. Um das Projektmanagement und die Kommunikation mit Kundenvertretern zu unterstützen, wurde eine breite Palette von Berichtsfunktionen bereitgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85279-7_16 7c674a2cdf566fa3e185c112b5d9d68a;de;;;7.1.;;;Resilienz als Wettbewerbsvorteil für kleine IT-Unternehmen Resilienz, definiert als Fähigkeit zum kontinuierlichen Wiederaufbau, basiert auf Hamels früheren Arbeiten zu Kernkompetenzen. Wir setzen das Resilienz-Konzept ein, um die Leistungsunterschiede kleiner IT-Unternehmen zu erklären. Unsere Interviews mit Eigentümer-Managern legen nahe, dass das Resilienzkonzept nicht ausreicht, um Wettbewerbsvorteile zu berücksichtigen, und legen nahe, dass eine ausschließliche Konzentration auf Kernkompetenzen sogar Wettbewerbsnachteile verursachen kann. Insbesondere jene Manager, die sich zu sehr auf ihre eigenen Kernkompetenzen konzentrierten und Marktentwicklungen und andere Stakeholder ignorierten, schufen Wettbewerbsnachteile. Wir schlagen daher vor, dass Resilienz nur dann ein Wettbewerbsvorteil sein kann, wenn sie um die Option erweitert wird, Kernkompetenzen zu ersetzen. Zudem müssen Kernkompetenzen häufig durch Kompetenzen von Partnern oder Kunden ergänzt werden, um Wettbewerbsvorteile zu erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-34410-1_12 239d8c7548d533f6096c03c609193de9;de;;;7.1.;;;Kooperative Prozesse und Workflow-Management für die Unternehmensintegration Aufkommende organisatorische Alternativen zu Hierarchie und extremer Arbeitsteilung verändern die Landschaft der Unternehmenskultur und -praxis. Die meisten Konzepte gehen weit von der taylor-fordistischen Tradition weg und haben eines gemeinsam: Sie sind das Ergebnis einer Fokussierung auf Prozesse statt auf funktionale Verantwortlichkeiten [3,4,12,13]. Diese Prozesse sind entweder Primärprozesse oder operative Prozesse, also materielle, informationelle und relationale/kommunikative Geschäftsprozesse [11,12,13] oder die Veränderungsprozesse, also kontinuierliche Verbesserungs- und Neugestaltungsprozesse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-60889-6_53 ae077cb1bdaf773a465d5454f3615859;de;;;7.2.;;;JHU Ad-hoc-Experimente beim CLEF 2008 Für CLEF 2008 führte die JHU ein- und zweisprachige Experimente in den ad-hoc TEL- und Persisch-Aufgaben durch. Darüber hinaus führten wir mehrere Post-hoc-Experimente mit früheren CLEF-Ad-hoc-Testsätzen in 13 Sprachen durch.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04447-2_21 7348d133ddc2db5a6eac77834c8d73c9;de;;;7.2.;;;Auswertung von Vorhersagen für die Abfrageleistung basierend auf der Brownschen Distanzkorrelation Moderne Information Retrieval-Systeme leiden unter einer radikalen Varianzleistung, obwohl ihre mittlere Leistung gut ist. Um dieses Problem zu lösen, wurde im letzten Jahrzehnt der Query Performance Predictor untersucht, der die Leistung von Abfragen ohne Informationen zur Relevanzbewertung vorhersagt, was in einem realen System ziemlich teuer oder sogar unmöglich ist. Zur Auswertung des Abfrageleistungs-Prädiktors wird der Korrelationskoeffizient zwischen der Ausgabe des Prädiktors und der durchschnittlichen Genauigkeit der Abfrage berechnet. Aktuelle Arbeiten verwenden hauptsächlich Korrelationsmetriken wie den Pearson-Korrelationskoeffizienten, Spearmans Rho und Kendalls Tau. Diese Korrelationsmetriken weisen jedoch einige Einschränkungen bei der Bewertung der Qualität des Prädiktors auf. Zu diesem Zweck führen wir eine neue Metrik ein, die auf der Brownschen Distanzkorrelation basiert (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09265-2_65 4332bf6d4447da9631af865db1c437fc;de;;;7.2.;;;Effiziente Online-Neuheitserkennung in Nachrichtenstreams Die Erkennung von Neuheiten in Textströmen ist eine anspruchsvolle Aufgabe, die in vielen verschiedenen Szenarien auftaucht, von E-Mail-Threads bis hin zu RSS-Newsfeeds auf einem Mobiltelefon. Ein effizienter Neuheitserkennungsalgorithmus kann dem Benutzer beim Zugriff auf interessante Informationen viel Zeit sparen. Die meisten neueren Forschungen zur Erkennung neuartiger Dokumente in Textströmen verwenden entweder geometrische Abstände oder Verteilungsähnlichkeiten, wobei erstere typischerweise besser abschneiden, aber langsamer sind, da wir ein eingehendes Dokument mit allen zuvor gesehenen vergleichen müssen. In diesem Beitrag schlagen wir einen neuen Algorithmus zur Erkennung von Neuheiten vor, der auf dem;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41230-1_5 dc689b4dc3dda6895af0544e23dec819;de;;;7.2.;;;Ein entscheidungstheoretisches Modell für dezentrales Abfrage-Routing in hierarchischen Peer-to-Peer-Netzwerken Effizientes und effektives Routing von inhaltsbasierten Anfragen ist ein aufkommendes Problem in Peer-to-Peer-Netzwerken und kann als eine Erweiterung des traditionellen Problems der „Ressourcenauswahl“ angesehen werden. Der entscheidungstheoretische Rahmen zur Ressourcenauswahl zielt im Gegensatz zu anderen Ansätzen auf die Minimierung der Gesamtkosten, einschließlich z. monetäre Kosten, Zeit und Abrufqualität. Eine Variante dieses Frameworks wurde erfolgreich auf hierarchische Peer-to-Peer-Netzwerke angewendet (wo Peers in DL-Peers und Hubs unterteilt sind), aber dieser Ansatz berücksichtigt nur die Abrufqualität. Dieses Papier schlägt ein neues Modell vor, das auch die Zeitkosten von Hubs (d. h. die Anzahl der Hops in nachfolgenden Schritten) berücksichtigen kann. Die Auswertung an einem großen Prüfstand zeigt, dass dieser Ansatz die Gesamtkosten für den Abruf drastisch reduziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71496-5_16 abc82c4049f1da9ff48f9ce046e37d74;de;;;7.2.;;;University of Wolverhampton beim CLEF 2007 Dieses Papier berichtet über die Teilnahme der University of Wolverhampton am Multiple Language Question Answering (QA@CLEF) Track der CLEF 2007 Kampagne. Wir haben die sprachübergreifende Aufgabe Rumänisch-Englisch mit einem Question Answering (QA)-System angegangen, das eine Frage in der Ausgangssprache (zB Rumänisch) verarbeitet, die identifizierten Schlüsselwörter in die Zielsprache (zB Englisch) übersetzt und schließlich nach Antworten in die englische Dokumentensammlung. Wir haben einen Durchlauf unseres Systems eingereicht, der eine Gesamtgenauigkeit von 14 % und eine Genauigkeit gegenüber Nicht-NIL-Antworten von 33,73 % erreicht hat. Die Fehleranalyse ergab, dass diese geringe Leistung hauptsächlich auf das Fehlen einer zuverlässigen Übersetzungsmethodik von der Quelle in die Zielsprache zurückzuführen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85760-0_36 911b4cbde0ecb04aaf1ab8838c92cd27;de;;;7.2.;;;Zur Entdeckung des semantischen Kontexts von Abfragen durch Game-Playing Um die Beantwortung von Abfragen zu modellieren, stellt sich die Frage, wie die Bedeutung einer Benutzeranfrage funktional ist, um eine wertvolle Antwort zu erhalten. In diesem Beitrag (1) untersuchen wir die Fragestellung innerhalb einer bestehenden Peer-to-Peer-Architektur für den Wissensaustausch – KEx genannt, (2) erweitern wir die Query-Antwort-Funktionalität von KEx um einen koevolutiven Prozess basierend auf den Präferenzinformationen des Benutzers , (3) wir modellieren die Beantwortung von Anfragen als Sprachspiel.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-25957-2_17 74868245452a4a5baf406dd6e32cd50b;de;;;7.2.;;;Ein verbesserter BM25-Algorithmus zur klinischen Entscheidungsunterstützung in der Präzisionsmedizin basierend auf Co-Wort-Analyse und Kuckuckssuche Das Abrufen von Gen- und Krankheitsinformationen aus einer umfangreichen Sammlung biomedizinischer Abstracts, um Ärzte bei klinischen Entscheidungen zu unterstützen, ist eine der wichtigsten Forschungsrichtungen der Präzisionsmedizin.;-;-;-;https://link.springer.com/article/10.1186/s12911-021-01454-5 41c67ed966c1a9f9084a03986ce7da4e;de;;;7.1.;;;Landnutzungsplanung in der Chaco-Ebene (Burruyacú, Argentinien): Teil 2: Erstellung eines Konsensplans zur Minderung von Landnutzungskonflikten und Minimierung der Landdegradation Der Distrikt Burruyacú (Provinz Tucumán, Nordwestargentinien) ist traditionell ein Gebiet mit ländlichen Aktivitäten, die auf der Ausbeutung des Chaco-Waldes für Holz und Viehzucht basieren. Seit den 1960er Jahren begannen lokale Institutionen aufgrund günstiger Bodenverhältnisse und guter Marktpreise, Sojabohnen zu fördern. Der Anbau von Sojabohnen seit den 1970er Jahren hat zu einer bedeutenden Reduzierung des Chaco-Waldes geführt und auch eine physische Bodendegradation, insbesondere Bodenverdichtung und Erosion, verursacht. Eine Flächennutzungsplanungsübung wurde unter Verwendung des Flächennutzungsplanungs- und Informationssystems (LUPIS) als räumliches Entscheidungsunterstützungssystem durchgeführt. LUPIS erleichtert die Erstellung alternativer Landnutzungspläne, indem es die relative Bedeutung anpasst, die von mehreren Interessengruppen der Präferenz- und Vermeidungspolitik beigemessen wird. Das System führt zur Zuweisung konkurrierender Landnutzungen an Landkarteneinheiten gemäß ihren bevorzugten Ressourcenanforderungen, abhängig von der Ressourcenbasis des Gebiets und den Anforderungen der Interessengruppen. Nach der Erstellung eines Landnutzungsplans für jede im Untersuchungsgebiet identifizierte Stakeholder-Kategorie, einschließlich kommerzieller Landwirte, konservativer/konventioneller Landwirte und Naturschützer, wurde ein Konsensplan erstellt, um die Landnutzungskonflikte zwischen mechanisierter Landwirtschaft, traditioneller Landwirtschaft und Waldschutz zu adressieren. und zur Minderung der Bodendegradation, die durch extensive Trockenwirtschaft verursacht wird. Obwohl die Planungsübung die Interessengruppen nicht direkt einbezog, sind die Ergebnisse praktisch und realistisch genug, um darauf hinzuweisen, dass der Ansatz auf die gesamte Chaco-Ebene ausgeweitet werden könnte.;-;-;-;https://link.springer.com/article/10.1007/s00267-008-9114-6 caa11c3b84d8673528b6829878528f5b;de;;;7.2.;;;Erweitern von Benutzerprofilen in kollaborativen Filteralgorithmen zur Linderung des Sparsity-Problems Die Überfülle an Informationen und die damit verbundene Schwierigkeit, interessante Inhalte zu entdecken, haben den Auswahlprozess für Endnutzer erschwert. Empfehlungssysteme versuchen, diesen Inhaltsauswahlprozess zu unterstützen, indem sie intelligente Personalisierungstechniken verwenden, die die Informationen filtern. Die am häufigsten verwendeten Empfehlungsalgorithmen basieren auf Collaborative Filtering (CF). Heutige CF-Techniken sind jedoch für das Vorschlagen von anbietergenerierten Inhalten optimiert und verlieren teilweise ihre Wirksamkeit, wenn sie benutzergenerierten Inhalt empfehlen. Daher schlagen wir einen fortschrittlichen CF-Algorithmus vor, der die spezifischen Eigenschaften von nutzergenerierten Inhalten (wie die spärliche Datenmatrix) berücksichtigt. Um dieses Sparsity-Problem zu mildern, werden Profile mit wahrscheinlichen zukünftigen Verbräuchen erweitert. Diese erweiterten Profile erhöhen die Profilüberlappungswahrscheinlichkeit, wodurch die Anzahl der Nachbarn erhöht wird, die für die Berechnung der Empfehlungen verwendet werden. Auf diese Weise werden die Empfehlungen im Vergleich zu herkömmlichen CF-Empfehlungen präziser und vielfältiger. Dieses Papier erklärt den vorgeschlagenen Algorithmus im Detail und demonstriert die Verbesserungen gegenüber Standard-CF.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22810-0_17 7fd7a143bcf41d462ce06aee3c94dfec;de;;;7.2.;;;Multi-Aspekt-Blog-Sentiment-Analyse basierend auf dem LDA-Themenmodell und dem Hownet-Lexikon Blog ist eine wichtige Web2.0-Anwendung, die viele Benutzer anzieht, ihre subjektiven Bewertungen zu Finanzereignissen, politischen Ereignissen und anderen Objekten auszudrücken. Normalerweise enthält eine Blog-Seite mehr als ein Thema. Die bestehenden Untersuchungen zur Multi-Aspect-Sentiment-Analyse konzentrieren sich jedoch auf die Produktbewertungen. In diesem Artikel schlagen wir eine Multi-Aspekte-Methode zur Sentimentanalyse für chinesische Blogs vor, die auf dem LDA-Themenmodell und dem Hownet-Lexikon basiert. Zunächst verwenden wir ein chinesisches Blog-Korpus, um ein LDA-Themenmodell zu trainieren und die Themen dieses Korpus zu identifizieren. Anschließend wird das trainierte LDA-Modell verwendet, um die Themen von Blog-Seiten mit Absätzen zu segmentieren. Danach wird die auf Hownet basierende Sentiment-Word-Tagging-Methode verwendet, um die Sentiment-Orientierung jedes Blog-Themas zu berechnen. So kann die Sentiment-Orientierung der Blog-Seiten durch die Sentiment-Orientierung von Blog-Themen mit mehreren Aspekten dargestellt werden. Die Testergebnisse des SINA Blog-Datensatzes zeigen, dass unsere Methode nicht nur gute Themensegmente erhält, sondern auch die Leistung der Sentimentklassifizierung verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23982-3_17 9e001358b5c89c84a1906ffbc3fb6dcc;de;;;7.1.;;;Entwurf eines Cache-Management-Schemas für Gateways im Fahrzeugtelematiknetz Dieses Papier schlägt und misst die Leistung eines Cache-Verwaltungsschemas für Fahrzeugtelematiknetze, um einen fortschrittlichen Routenempfehlungsdienst bereitzustellen, der sich auf Gateways konzentriert, die Informationen zwischen einem bestimmten Server und Fahrzeugen weiterleiten. Als verbesserte Version von reinem FAR (Furthest Away Replacement) ersetzt das vorgeschlagene Schema 1) die euklidische Distanz durch die Netzwerkdistanz bei der Schätzung der Distanz zu einem Datenelement, 2) bindet jedes Cache-Element an einen Link im Zielstraßennetz, 3) führt eine Richtungsgewichtung ein, um die Richtungstendenz des aktuellen Verkehrsflusses zu berücksichtigen, und schließlich 4) plant die Cache-Anforderungen gemäß ihren Winkelpositionen, um die mehreren anhängigen Anforderungen effizient zu behandeln. Simulationsergebnisse, die mit den realen Flugbahndaten eines derzeit in Betrieb befindlichen Tracking-Systems durchgeführt wurden, zeigen, dass das vorgeschlagene Schema die Cache-Trefferquote um bis zu 9,2 % im Vergleich zu FAR verbessern kann, sowie dass das vorgeschlagene winkelbasierte Scheduling Schema kann die Cache-Trefferquote um bis zu 2,3 ​​% weiter verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02454-2_65 cee44aba523b22ab40ead34b26b91c7a;de;;;7.2.;;;Verwenden von mehrstufigen Grafiken für Fahrplaninformationen in Eisenbahnsystemen In vielen Anwendungsgebieten treten Shortest Path Finding-Probleme in sehr großen Graphen auf. Szenarien, in denen viele Online-Anfragen nach kürzesten Wegen in Echtzeit bearbeitet werden müssen, treten beispielsweise in Verkehrsinformationssystemen auf. In solchen Systemen basieren die Techniken, die zur Beschleunigung der Berechnung des kürzesten Weges in Betracht gezogen werden, gewöhnlich auf vorberechneten Informationen. Ein in diesem Zusammenhang häufig vorgeschlagener Ansatz ist eine Platzreduktion, bei der vorberechnete kürzeste Pfade durch einzelne Kanten mit einem Gewicht gleich der Länge des entsprechenden kürzesten Pfads ersetzt werden. In diesem Beitrag geben wir eine erste systematische experimentelle Untersuchung eines solchen Raumreduktionsansatzes. Wir führen das Konzept der mehrstufigen Graphenzerlegung ein. Für ein konkretes Anwendungsszenario aus dem Bereich der Fahrplanauskunft im ÖPNV führen wir eine detaillierte Analyse und experimentelle Auswertung von Shortest Path Berechnungen auf Basis einer mehrstufigen Graphenzerlegung durch.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45643-0_4 9a95dd3c0391ff613f7961cd86ae6e4d;de;;;7.2.;;;Sprachgesteuerte MPEG-4-basierte Gesichtsanimation über ein neuronales Netzwerk In diesem Papier werden einige Clustering- und maschinelle Lernmethoden kombiniert, um die Entsprechung zwischen sprachakustischen und MPEG-4-basierten Gesichtsanimationsparametern zu lernen. Die Merkmale von Audio- und Bildsequenzen können aus der großen aufgezeichneten audiovisuellen Datenbank extrahiert werden. Die Sequenzen der Gesichtsanimationsparameter (FAP) können berechnet und dann zu FAP-Mustern geclustert werden. Ein künstliches neuronales Netz (ANN) wurde trainiert, um die linearen Vorhersagekoeffizienten (LPC) und einige prosodische Merkmale der natürlichen Sprache einer Person auf FAP-Muster abzubilden. Die Leistung unseres Systems zeigt, dass der vorgeschlagene Lernalgorithmus geeignet ist, der den Realismus der Echtzeit-Gesichtsanimation während des Sprechens erheblich verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45453-5_152 f7b8302d9147bea6e475a3ff27574e18;de;;;7.2.;;;Ein Anästhesie-Informationssystem zur Überwachung und Protokollierung während der chirurgischen Anästhesie Wir haben ein Anästhesie-Informationssystem (AIS) entwickelt, das den Anästhesisten bei der Überwachung und Aufzeichnung während eines chirurgischen Eingriffs unterstützt. Bei der Entwicklung des Systems wurde Wert darauf gelegt, eine Anästhesist-Computer-Schnittstelle bereitzustellen, die an typische Situationen während der Anästhesie und an das individuelle Benutzerverhalten angepasst werden kann. Ein wesentliches Merkmal dieser Schnittstelle ist die Integration der Ein- und Ausgabe von Informationen. Das einzige Gerät zur Interaktion zwischen Anästhesist und AIS ist ein berührungsempfindlicher, hochauflösender Farbbildschirm. Der Anästhesist gibt Informationen ein, indem er die auf dem Bildschirm angezeigten virtuellen Funktionstasten berührt. Ein Datenfenster zeigt alle im Laufe der Zeit generierten Daten an, wie beispielsweise automatisch aufgezeichnete Vitalparameter, einschließlich Blutdruck, Herzfrequenz sowie rektale und ösophageale Temperaturen, sowie manuell eingegebene Variablen wie verabreichte Medikamente und Beatmungseinstellungen. Die vom AIS gesammelten Informationen werden auf mehreren Seiten auf der Kathodenstrahlröhre dargestellt. Eine Hauptverteilerseite gibt einen Gesamtüberblick über den Inhalt jeder Arbeitsseite. Während der Operation wird automatisch ein einseitiges Narkoseprotokoll auf einem mehrfarbigen digitalen Plotter geplottet. Ein Beispiel für den Einsatz des AIS wird aus einem Feldtest des Systems vorgestellt, bei dem es im OP evaluiert wurde, ohne den laufenden Betrieb zu stören. Medizinisches Personal, das das AIS benutzte, ahmte das Aufzeichnungs- und Informationssuchverhalten des Anästhesisten nach, war jedoch nicht für die Durchführung der Anästhesie verantwortlich.;-;-;-;https://link.springer.com/article/10.1007/BF02851173 e5be463e6d25b83ea527e7d0fc2b4419;de;;;7.2.;;;HM-Card: Ein neues Hypermedia-Autorensystem HM-Card ist ein neuartiges Hypermedia-Autoren- und Präsentationssystem zur Entwicklung und Nutzung verschiedenster Hypermedia-Anwendungen auf PCs/MS-Windows. Es ist das erste Werkzeug zur Implementierung des HM-Datenmodells, einem neueren Ansatz zur Bereitstellung einer soliden theoretischen Grundlage für die anspruchsvolle Strukturierung und Navigation von Hypermedia-Datenbanken. In diesem Papier behandeln wir jedoch nur das HM-Datenmodell als zugrundeliegende theoretische Grundlage für das eigentliche Autorensystem HM-Card. HM-Card bietet ein umfangreiches Set an funktionalen und strukturellen Autorenelementen wie Animationen, Frage-/Antwort-Dialogen, transparentem Import externer Dokumente und Ausführung anderer MS-Windows-Anwendungen. Die Benutzeroberfläche von HM-Card soll das schnelle Prototyping und das Authoring komplexer Hypermedia-Anwendungen unterstützen. Fertige HM-Card-Anwendungen können als eigenständige Systeme betrieben werden, in MS-Windows OLE (Object Linking and Embedding Concept) Clients verwendet werden, sowie als Module in große verteilte Hypermediasysteme integriert werden.;-;-;-;https://link.springer.com/article/10.1007/BF01215881 9c53a1c03befd61e4d9f9bb5b7b4dda9;de;;;7.2.;;;Förderung der digitalen Forensik Die Vielfalt der verwendeten Computer- und Kommunikationssysteme sowie die schiere Menge an Daten, die in allen Aspekten der persönlichen, staatlichen und kommerziellen Aktivitäten verarbeitet werden, stellen die Strafverfolgungsbehörden und insbesondere die Compliance-Beauftragten vor erhebliche Herausforderungen. Es gibt zwar kommerzielle Tools für eine Reihe häufiger Probleme, dies ist jedoch in vielen komplexeren Fällen nicht immer ausreichend. Darüber hinaus sind sich Ermittler, die nur mit solchen Instrumenten vertraut sind, möglicherweise der Grenzen des Umfangs und der Genauigkeit nicht bewusst, was möglicherweise dazu führt, dass Beweise verloren gehen oder ungerechtfertigtes Vertrauen darauf setzen. Darüber hinaus ist es nicht nur entscheidend, ein tiefes Verständnis der zugrunde liegenden Funktionsprinzipien der analysierten Systeme zu haben, sondern es besteht manchmal auch die Notwendigkeit, über die Fähigkeiten bestehender Toolsets, des zugrunde liegenden Wissens, der Konzepte und analytische Fähigkeiten, für die wir argumentieren, werden derzeit nicht in einem kompakten Hochschulkontext angeboten, sondern eher ad hoc erworben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39377-8_34 311a61679cf99b70fa211e00201d2c57;de;;;7.2.;;;Ein Überblick über die Toolunterstützung für die benutzerbezogene Kommunikation in der FLOSS-Entwicklung Free/Libre/Open Source Software (FLOSS)-Projekte verlassen sich auf Internet-Tools zur Kommunikation und Koordination ihrer Arbeit. Die Kommunikation zwischen Entwicklern wird in FLOSS-Projekten gut unterstützt, aber die Benutzer-Entwickler-Kommunikation hat sich als Herausforderung erwiesen. In diesem Beitrag werden folgende Fragen untersucht: „Welche Kommunikationsmittel gibt es in FLOSS-Projekten für die Anwender-Entwickler-Kommunikation? Welche Mittel sollte es geben?“ Wir haben eine Literaturrecherche zur Kommunikation in FLOSS-Projekten durchgeführt und die Ergebnisse der Human-Computer Interaction (HCI)-Literatur zur Benutzer-Entwickler-Kommunikation gegenübergestellt. Die HCI-Literatur weist darauf hin, dass während der Anforderungserstellung, des Entwurfs und der Bewertungsaufgaben eine Benutzer-Entwickler-Kommunikation erforderlich ist und dass HCI-Spezialisten für die Orchestrierung der Kommunikation und der benutzerbezogenen Aufgaben benötigt werden. Die Kommunikation während der Evaluationsaufgabe wird in FLOSS-Projekten etwas unterstützt, aber Design und Anforderungserstellung sind stark unterstützungsbedürftig, obwohl bereits Ideen präsentiert wurden. Darüber hinaus benötigen HCI-Spezialisten in FLOSS-Projekten unterschiedliche kommunikative Unterstützung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24418-6_7 3b3a5c3bd5227233a5b9f16ead8e1760;de;;;7.2.;;;Eine Studie zur Augenbewegungsanalyse zur Untersuchung der Lerneffizienz mit einem Textmarker Für Lernende wie Grund-, Mittel- und Oberstufenschüler ist der Erwerb der Fähigkeit, verschiedene Arten von Fragen in jedem Fach zu lösen, eines der wichtigsten Lernziele.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-40247-5_58 7fc8a78ebe3c826cc2ca3e7083c48bfd;de;;;7.1.;;;Datendesign Die strategische Ebene des Datendesigns (Datenarchitektur) definiert die prozessunabhängigen Datenbanken, die ein Unternehmen pflegen möchte, und legt Standards für den Datenaustausch zwischen Anwendungen innerhalb und außerhalb des Unternehmens fest.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-03086-8_3 0f1c02ef801c6d807edd96f18276f3a6;de;;;7.1.;;;Integration von Informationssystemen Unternehmen haben oft heterogene Informationssysteme, in die unterschiedliche „Bedeutungen“ eingebettet sind. Folglich haben Systeme Schwierigkeiten, miteinander zu kommunizieren, und Benutzer können nicht effektiv mit ihnen interagieren. Es gibt semantische Barrieren, die einen reibungslosen Informationsfluss und die Möglichkeit der Wiederverwendung von Wissen verhindern. Infolgedessen können Softwareentwickler die „Unordnung“ verschiedener mentaler Modelle und Sprache, die ein normaler Teil des Unternehmenslebens sind, oft nicht modellieren und erfassen. Diese Situation unterstreicht die Notwendigkeit, Mensch und Technologie so zu integrieren, dass ein gemeinsames, konzeptionelles Verständnis innerhalb und zwischen den Kulturen, in denen die Systeme etabliert sind, ermöglicht wird. Eine erfolgreiche Integration sollte es sowohl den Systemen als auch der Organisation ermöglichen, sich an Veränderungen anzupassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35611-2_7 5ba13b95cc2e0c5e74d8549c29d124cf;de;;;7.1.;;;Untersuchung der Interoperabilitäts-Governance: Der Fall eines Gerichtsinformationssystems In der neuesten Version des Europäischen Interoperabilitätsrahmens der Europäischen Union (EIF 2017) wurde das Konzept der „Interoperabilitäts-Governance“ als Schlüsselfaktor der Interoperabilität eingeführt. Der Beitrag untersucht dieses Konzept in einem Informationssystem für die Justiz. Es wird insbesondere untersucht, wie sich die Governance-Struktur des integrierten Verwaltungsgerichts-Fallmanagementsystems Griechenlands auf die Entscheidungen zur Interoperabilität ausgewirkt hat. Um dieses Ziel zu erreichen, verwenden wir eine Fallstudienmethodik. Unsere Ergebnisse stimmen in den meisten Teilen mit dem konzeptionellen Modell des EIF 2017 überein. Wir bekräftigen, dass das Erfordernis der Unabhängigkeit der Justiz gewisse Grenzen setzt, die in einer Interoperabilitäts-Governance-Struktur der Gerichte beachtet werden müssen. Wir betonen, wie wichtig es ist, sich vor der Einführung eines Informationssystems in der Justiz mit bestimmten Fragen der Interoperabilität zu befassen. Wir kommen zu dem Schluss, dass eine „dynamische“ Governance-Struktur, d. h. eine Struktur, die sich während des Lebenszyklus eines Informationssystems ändert, mit den Herausforderungen der realen Welt in Bezug auf die Interoperabilität vereinbar ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58141-1_3 ed69473d7921b54f1b2a25aeb81f82a9;de;;;7.2.;;;Prädiktive Modellierung von ausgedrückten Emotionen in der Musik durch paarweise Vergleiche Wir stellen ein experimentelles Paradigma mit zwei Alternativen Forced-Choice (2AFC) vor, um ausgedrückte Emotionen in Musik unter Verwendung der Dimensionen Erregung und Valenz (AV) zu quantifizieren. Es wird ein breites Spektrum bekannter Audiofunktionen untersucht, um die ausgedrückten Emotionen in Musik anhand von Lernkurven und wesentlichen Basislinien vorherzusagen. Darüber hinaus untersuchen wir die Skalierbarkeitsprobleme bei der Verwendung von 2AFC bei der Quantifizierung von Emotionen, die in Musik in großen Musikdatenbanken ausgedrückt werden. Die Möglichkeit, die Annotationsaufgabe auf mehrere Personen aufzuteilen, während die Vergleiche der einzelnen Personen zusammengefasst werden, wird untersucht, indem die subjektiven Unterschiede der Rangordnung von Emotionen im AV-Raum untersucht werden. Wir finden dies aufgrund der großen Varianz in der Rangfolge der Auszüge der Fächer problematisch. Schließlich wird die Lösung von Skalierbarkeitsproblemen durch Reduzierung der Anzahl von paarweisen Vergleichen analysiert. Wir vergleichen zwei aktive Lernschemata mit einer zufälligen Auswahl von Vergleichen unter Verwendung von Lernkurven. Wir zeigen, dass ein geeignetes prädiktives Modell der ausgedrückten Valenz in der Musik aus nur 15% der Gesamtzahl der Vergleiche erreicht werden kann, wenn das aktive Lernschema des Erwartungswerts der Information (EVOI) verwendet wird. Für die Dimension Erregung benötigen wir 9% der Gesamtzahl der Vergleiche.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41248-6_14 4ddaf307b4f231c18f8fccf2ed59c541;de;;;7.2.;;;Reengineering von Legacy-Anwendungen in Software-Produktlinien: eine systematische Zuordnung Software-Produktlinien (SPLs) sind Familien von Systemen, die gemeinsame Assets teilen und eine disziplinierte Wiederverwendung ermöglichen. Selten beginnen SPLs bei Null, stattdessen beginnen sie normalerweise mit einer Reihe bestehender Systeme, die einem Reengineering-Prozess unterzogen werden. Viele Ansätze zur Durchführung des Reengineering-Prozesses wurden vorgeschlagen und in der Forschungsliteratur dokumentiert. Dieses Szenario ist ein klarer Beleg für das Interesse an diesem Forschungsgebiet. Wir haben eine systematische Mapping-Studie durchgeführt, um einen Überblick über die aktuelle Forschung zum Reengineering bestehender Systeme zu SPLs zu geben, die Community-Aktivität in Bezug auf Veranstaltungsorte und Häufigkeit von Veröffentlichungen in diesem Bereich zu identifizieren und Trends und offene Fragen aufzuzeigen, die als Referenz dienen könnten für die zukünftige Forschung. In dieser Studie wurden 119 relevante Publikationen identifiziert. Diese Primärquellen wurden in sechs verschiedene Dimensionen eingeteilt, die sich auf Reengineering-Phasen, angewandte Strategien, bei der Bewertung verwendete Systemtypen, Eingabeartefakte, Ausgabeartefakte und Werkzeugunterstützung beziehen. Die Analyse der Ergebnisse zeigt neben der Verfügbarkeit einiger Tools die Existenz einer konsolidierten Community zu diesem Thema und eine breite Palette von Strategien zum Umgang mit unterschiedlichen Phasen und Aufgaben des Reengineering-Prozesses. Wir identifizieren einige offene Fragen und Bereiche für zukünftige Forschung wie die Implementierung von Automatisierung und Werkzeugunterstützung, die Nutzung unterschiedlicher Informationsquellen, Verbesserungsbedarf im Feature-Management, die Definition von Möglichkeiten, verschiedene Strategien und Methoden zu kombinieren, Mangel an ausgeklügelten Refactoring, Notwendigkeit neuer Metriken und Maßnahmen und einer robusteren empirischen Bewertung. Das Reengineering bestehender Systeme in SPLs ist ein aktives Forschungsthema mit echtem Nutzen in der Praxis. Diese Mapping-Studie motiviert neue Forschungen in diesem Bereich sowie die Einführung einer systematischen Wiederverwendung in Softwareunternehmen.;-;-;-;https://link.springer.com/article/10.1007/s10664-017-9499-z 317e90718e64ec176883f93b163007a7;de;;;7.2.;;;Zusammenfassung der Standpunkte mehrerer Dokumente mit Fokus auf Fakten, Meinungen und Wissen Ein interaktives Informationsabrufsystem, das unterschiedliche Arten von Zusammenfassungen der abgerufenen Dokumente entsprechend den Informationsbedürfnissen, der Situation oder dem Suchzweck jedes Benutzers bereitstellt, kann zum Verständnis des Dokumentinhalts effektiv sein. Der Zweck dieser Studie ist es, einen Zusammenfasser für mehrere Dokumente zu erstellen.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-4102-0_24 704eaf38294e8ddf10230bbaae2d4a31;de;;;7.2.;;;Ein Ansatz zur automatischen Abfrageerweiterung basierend auf NLP und Semantik Heutzutage gibt es eine riesige Menge digitaler Daten, die in Repositorien gespeichert sind und von Suchsystemen abgefragt werden, die auf schlüsselwortbasierten Schnittstellen basieren. Daher ist der Abruf von Informationen aus Repositorien zu einem wichtigen Thema geworden. Organisationen implementieren normalerweise Architekturen basierend auf relationalen Datenbanken, die die Syntax und Semantik der Daten nicht berücksichtigen. Um dieses Problem zu lösen, führen sie komplexe Extract, Transform and Load (ETL)-Prozesse von relationalen Repositories bis zu Triple Stores durch. Die meisten Organisationen führen diese Migration jedoch aus Mangel an Zeit, Geld und Wissen nicht durch.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10085-2_32 42a7a1466f0e3f1aee0e488e3eddb3a2;de;;;7.2.;;;Latente semantische Analyse für Vektorraumerweiterung und Fuzzy-Logik-basiertes genetisches Clustering Dieses Papier schlägt ein verbessertes Modell der latenten semantischen Analyse (LSA) vor, um Textdokumente darzustellen, und nutzt einen auf Fuzzy-Logik basierenden genetischen Algorithmus (FLGA) zum Clustern. Der standardmäßige genetische Algorithmus (GA) im herkömmlichen Vektorraummodell ist ziemlich schwierig zu handhaben, da die hochdimensionale Codierung von GA es ermöglicht, die optimale Lösung in einem komplizierten Raum zu erforschen, der anfällig für ein Überlaufproblem ist. Das LSA-basierte Korpusmodell reduziert nicht nur die Dimensionen drastisch, sondern schafft auch eine zugrundeliegende semantische Struktur, die die konzeptionelle Unterscheidung von Dokumenten und indirekt die Clusterfähigkeit von GA (genetic clustering) verbessert. In dieser Studie wird eine neuartige FLGA in Verbindung mit diesem semantischen Modell vorgeschlagen. Entsprechend der Natur der biologischen Evolution werden mehrere Fuzzy-Regler bereitgestellt, um das Verhalten des GA adaptiv anzupassen und zu optimieren, was die vorzeitige Konvergenz zu einer suboptimalen Lösung effektiv verhindern kann. Die Versuchsergebnisse zeigen, dass die Fuzzy-Logic-Controller die Fähigkeit des GA verbessern, die globale optimale Lösung zu erkunden, und die Verwendung des LSA-basierten Textdarstellungsverfahrens für FLGA verbessert seine Clustering-Leistung weiter.;-;-;-;https://link.springer.com/article/10.1007/s10115-009-0191-5 5fcf062f7bc3c7836be7a9ce1fd3548b;de;;;7.2.;;;Wie wird eine IT-Innovation assimiliert? Das Konzept der organisatorischen Assimilation von Innovationen der Informationstechnologie (IT) wird in der Forschungsliteratur wenig erforscht. Hier überdenken wir das Konzept und konzentrieren uns insbesondere auf die Assimilation im Gebrauch. Aus der Perspektive des organisationalen Lernens schlagen wir vor, dass das Experimentieren in der Anwendung als assimilativer Motor dient, der die Interpretation und Routine der Innovation vorantreibt, was wiederum zu ihrer letztendlichen konzeptionellen Sublimierung und Selbstverständlichkeit führt. Aus diesem Modell ergeben sich mehrere neue Möglichkeiten für die Forschung.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-8000-X_17 4b352cf115207254f26eec8548aa790c;de;;;7.2.;;;Nationale Umweltdateneinrichtungen und -dienste der Tschechischen Republik und ihre Verwendung in der Umweltökonomie Nationale Umweltdateneinrichtungen und -dienste sind Teil der Umweltinformationssysteme des Umweltministeriums der Tschechischen Republik, die seit 1990 entwickelt werden. Im Jahr 2010 wurde mit der Entwicklung des Nationalen Informationssystems zur Sammlung und Bewertung von Informationen über die Umweltverschmutzung begonnen , kofinanziert aus dem Europäischen Fonds für regionale Entwicklung. Dieses Projekt besteht aus einem integrierten Meldesystem (ISPOP), einem Umwelt-Helpdesk (EnviHELP) und dem nationalen INSPIRE-Geoportal, die zwischen 2010 und 2013 entwickelt und auf der ISESS 2013 diskutiert wurden. Dieses Papier stellt die aktuelle Entwicklung mehrerer nationaler Einrichtungen und Dienste für Umwelt- und Finanzdaten, die auf der Implementierung von E-Government in der Tschechischen Republik und dem offenen Umwelt- und Finanzdatenansatz des tschechischen Umweltministeriums und des tschechischen Finanzministeriums basieren. Es stellt auch das Web-Informationssystem vor, das es uns ermöglicht hat, die Beziehung zwischen Umweltökonomie und kommunaler Abfallwirtschaft in der Tschechischen Republik zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-15994-2_36 fbd5a736e4e8cf03628e543799a4d215;de;;;7.1.;;;BPM@KMU – Gestaltung von e-Learning für die Einführung von BPM in kleinen und mittleren Unternehmen Business Process Management (BPM) wird auch für kleine und mittlere Unternehmen (KMU) immer relevanter. Heutige Strategien und Ansätze zur Umsetzung von BPM stützen sich auf Methoden und Tools, die hauptsächlich von Großunternehmen entwickelt wurden und auf diese ausgerichtet sind, aber weniger auf die Bedürfnisse kleiner und mittelständischer Unternehmen. Mit dem Projekt BPM@KMU führt das Institut für Wirtschaftsinformatik einer bayerischen Hochschule gemeinsam mit der Virtuellen Hochschule Bayern (VHB) und einer Reihe mittelständischer Unternehmen ein Projekt durch, das auf eine effiziente Implementierung von BPM in solchen Organisationen abzielt. Betrachtet man e-Learning als Enabler oder Werkzeug, das bestehende Barrieren für die Implementierung von Geschäftsprozessmanagement ausgleicht, bietet dieses Papier einen Fallstudienbericht über die Beobachtungen bei der Gestaltung und Implementierung des BPM@KMU e-Learning-Programms unter der Leitung des;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23471-2_3 d239e65c2eed4b26a14fc8f0b2988d74;de;;;7.1.;;;Digital Co-Creation in der Stadtplanung und -entwicklung ermöglichen Co-Creation ist für die Stadtplanung unabdingbar. Die Online-Bürgerbeteiligung ist eine etablierte Methode, um Feedback von Bürgern zu den unterschiedlichsten Plänen einzuholen. Doch Werkzeuge und Methoden für digitalisierte Workshops sind rar. Die Stadt Hamburg und die HafenCity Universität entwickeln ein System, das digitale Online- und Vor-Ort-Beteiligung integriert. Dieser Beitrag berichtet über Erfahrungen und Erkenntnisse bei der Entwicklung und Erprobung von digitalen Touch-Tischen, Peripheriegeräten und Software. Während sich Touchtables als leistungsfähige Workshop-Tools zur Visualisierung von Karten, Plänen, Stadtdaten und 3D-Modellen erwiesen, zeigte sich auch, dass die Gestaltung von Schnittstellen für die Eingabe der Bürger eine Herausforderung darstellt. Von hoher Bedeutung und hohem Potenzial ist die Entwicklung von KI-basierten Funktionalitäten zur Unterstützung von Benutzereingaben und Feedbackauswertungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5784-2_34 e59f2d0e4431c1118a7bfd3611dd2ac2;de;;;7.1.;;;Die Bedeutung von Design in der IS entdecken: Rezensionen und zukünftige Richtungen Der Zweck dieser Studie ist es, die Bedeutung von Design für Wissenschaftler der Informationssysteme (IS) zu identifizieren, die in ihrer Forschung offenbart wurden. Wir führten eine umfassende Überprüfung von IS-Forschungspapieren aus den Jahren 1970 bis 2007 durch, die sich auf Designforschung im Allgemeinen beziehen, und analysierten sie, um einen Überblick über ihren Umfang und ihre Muster mit zwei Ansätzen zu erhalten. Der erste Ansatz ordnet die bestehende Forschung in einem Designraum an, der auf der Aufmerksamkeit für Designartefakte im Vergleich zu Designprozessen und ihrem Interesse am analytischen oder synthetischen Aspekt der Designkognition basiert. Der zweite Ansatz ordnet die bestehende Forschung in einem Entwurfsraum an, der auf der Ebene des Organisationssystems von lokal bis global basiert, auf das sich das Design auswirkt, und dem zeitlichen Zustand (Vergangenheit, Gegenwart, Zukunft), den es berücksichtigt. Schließlich greift diese Studie auf, wo der Mangel an Designforschung in der IS als zukünftige Forschungsmöglichkeiten verbleibt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20633-7_9 c062e9bc1d034d28478dd1010b4100dc;de;;;7.1.;;;Modellierungsarchitektur und Referenzmodelle für das ERP5-Projekt Die Einführung von ERP-Systemen durch kleine und mittlere Unternehmen ist aufgrund der Kosten möglicherweise nicht möglich. Gleichzeitig bleibt der Benutzer bei der Anpassung des ERP an die speziellen Bedürfnisse des Unternehmens mangels Zugriff und Kenntnis des jeweiligen Codes abhängig von den Verkäufern des Systems. Freie und Open-Source-Software kann Unternehmen Vorteile bringen, jedoch ist für ihre Einführung die Entwicklung von Techniken und Werkzeugen erforderlich, um ihre Bereitstellung und Code-Wartung zu erleichtern. Dieser Artikel betont die Bedeutung der Definition von Modellierungsarchitekturen und Referenzmodellen für die Entwicklung und Wartung von Open-Source-ERPs, insbesondere des ERP5-Projekts.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-34456-X_73 30ae316b742af1fa4baad89027665fb5;de;;;7.1.;;;Produktentwicklung und kollaborative ICT-Tools Dieses Kapitel bietet zwei neue Sichtweisen und Implikationen bezüglich kollaborativer IKT-Tools-Nutzungsformen in Produktentwicklungsprozessen durch Analysen von Fallstudien in den Bereichen IT, Kommunikation, Elektronik, Automobil (einschließlich Komponenten), Maschinenbau, Halbleiter, Chemie, Medizin und Vertrieb. Die erste dieser Ansichten veranschaulicht, wie kollaborative IKT-Tools in den beiden Entwicklungsprozessen der Entwicklung neuer und neuartiger Produkte und der Aufrüstung bestehender Produkte verwendet werden – mit anderen Worten, die Verwendung von IKT-Tools hängt vom Kontext der Produktentwicklung ab. Die zweite dieser Ansichten beschreibt, wie sich die Nutzung von IKT-Tools in jeder der Phasen (oder Schritte) des Entwicklungsprozesses für neue Produkte unterscheidet, indem sie sich auf die zeitlichen Änderungen in Geschäftsprozessen konzentriert, um zu sehen, wie sich die Nutzung von IKT-Tools ändert.;-;-;-;https://link.springer.com/chapter/10.1057/9781137286932_6 542a5ff191d9c6c0e8c75fd9858c2441;de;;;7.1.;;;Ein Entscheidungsunterstützungsmodell für die Personalzuweisung des mobilen medizinischen Dienstes Princess Mother’s Medical Volunteer (PMMV) Foundation ist der anerkannteste und bedeutendste Anbieter kostenloser mobiler medizinischer Dienste (MMS) in Thailand. Sie verlangen von Freiwilligen aus Partnerkrankenhäusern, die arme Bevölkerungsgruppen in abgelegenen Gebieten des Landes, in denen der Zugang zu allgemeinmedizinischen Diensten begrenzt ist, medizinisch versorgen. Zu den Freiwilligen gehören normalerweise vier Arten von Mitarbeitern: Ärzte, Zahnärzte, Krankenschwestern und Apotheker. Gemäß ihrem Einsatzplan müssen das PMMV und seine Arbeitspartner freiwilliges medizinisches Personal den Einsatzorten entsprechend den Standortanforderungen ordnungsgemäß zuordnen/zuordnen. Im aktuellen Planungsprozess muss das PMMV riesige Datenmengen von verschiedenen Organisationen im Land organisieren, was zu einer langen Bearbeitungszeit für Zuteilungsentscheidungen führt. Darüber hinaus erlaubt der derzeitige Prozess den Entscheidungsträgern nicht, medizinisches Personal mit akzeptablen Transportkosten effizient zuzuweisen. Es besteht eine erhebliche Möglichkeit, diesen Prozess zu verbessern, indem analytische Modelle verwendet werden, um diese Entscheidungsfindung zu unterstützen. Daher schlägt dieses Papier ein Entscheidungsunterstützungsmodell für die Personalzuweisung vor. Das vorgeschlagene Modell liegt in Form eines Computerinformationssystems (CIS) vor, das sorgfältig entwickelt wurde, um den Zugang zu heterogenen Daten und die Benutzerfreundlichkeit durch Entscheidungsträger zu erleichtern. Das vorgeschlagene CIS wird die PMMV-Zentralen und -Partner dabei unterstützen, riesige Datenmengen effizienter und effektiver zu verwalten, während der Entscheidungsalgorithmus Planern helfen kann, die mit ihren Entscheidungen verbundenen Kosten so gering wie möglich zu halten. Die Ergebnisse dieser Forschung wurden von potenziellen Benutzern durch eine Fokusgruppenmethode überprüft. Das Ergebnis zeigte, dass die potenziellen Nutzer mit der Gesamtleistung dieses Systems sehr zufrieden waren.;-;-;-;https://link.springer.com/article/10.1007/s10479-015-1991-5 4a445df7aa2d4a0a8b9c4f7727ad263d;de;;;7.2.;;;Protokoll für zertifikatbasierte Zugriffssteuerungsrichtlinien Beschreibungssprache Die Zugangskontrolle in weit verteilten Netzwerken muss in Domänen unterteilt werden, um sie leicht skalierbar und handhabbar zu machen. Auch das Managementsystem muss automatisiert werden, um die Komplexität zu reduzieren. Die rollenbasierte Zugriffskontrolle ermöglicht es, dieses Ziel zu erreichen, jedoch würde das Hinzufügen einer Public-Key-Infrastruktur zum RBAC-Ansatz die Systemfunktionen in vielerlei Hinsicht erweitern. Eine davon ist die Möglichkeit, zertifikatbasierte Richtlinien anzugeben, die den Zugriff auf Systemressourcen durch Benutzer aus nicht vertrauenswürdigen Quellen ermöglichen. Das Hinzufügen einer digitalen Signatur zu Richtlinien erhöht die Systemsicherheit. Dieses Papier beschreibt das Kommunikationsprotokoll in einem zertifikatbasierten Zugangskontrollsystem, basierend auf dem in [1] beschriebenen XACML-Standard.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-26325-X_21 d3e83c0cd8ecd1f111e0e41cec6563ff;de;;;7.2.;;;Entscheidungshilfe in der Medizin Verschiedene Methoden zur Entscheidungsunterstützung in der Medizin werden überprüft und die Gründe für deren Erfolg und Misserfolg analysiert. Unsere Diskussion orientiert sich an der Literatur zu diesem Thema und vor allem an den kritischen Rezensionen von Professor Peter Reichertz, einem der Gründerväter der Medizinischen Informatik. Unsere Überprüfung beginnt mit der Analyse des Nutzens der (computerbasierten) Krankenakte für die Entscheidungsfindung und betrachtet die Möglichkeiten der Integration von Entscheidungsunterstützungsprogrammen mit Informationssystemen in Krankenhäusern. Die verschiedenen Arten von medizinischem Wissen (empirisch und wissenschaftlich) und ihre Implementierungen (als statistische, logische, inverse oder heuristische Modelle) werden diskutiert. Es werden Vorschläge für die zukünftige Forschung zur Entscheidungsunterstützung in der Medizin gemacht und die Konsequenzen für das medizinische Curriculum aufgezeigt. Der Aufsatz enthält häufige Zitate aus den Veröffentlichungen von Peter Reichertz, dem diese Rezension gewidmet ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-48706-4_1 ba996947723c4ab76509e61ea7f915ad;de;;;7.2.;;;Informationssystem für die globale Nachhaltigkeitsberichterstattung In dem Artikel beschreiben wir verschiedene Methoden, die für die Leistungsbewertung von Unternehmen in Betracht gezogen werden – wie die Nachhaltigkeitsbewertung von Ernährungs- und Landwirtschaftssystemen (SAFA) durch die Ernährungs- und Landwirtschaftsorganisation (FAO) und andere standardisierte Berichtsrahmen. Wir analysieren und berücksichtigen gemeinsame Merkmale der verwendeten Leistungsindikatoren. Darüber hinaus untersuchen wir verschiedene Eigenschaften der definierten Key Performance Indicators und zusätzlichen Performance Indicators, um ein Datenmodell für ein generisches Informationssystem vorzuschlagen. Das vorgeschlagene Datenmodell soll für verschiedene Leistungsbewertungsmethoden wiederverwendbar sein. Wir führen verschiedene Abstraktionen der Bewertungsmethoden auf der Ebene von Leistungsindikatoren und Berichtsergebnissen ein. Es ist wichtig, der Organisation die Verwendung derselben Daten in mehreren verschiedenen Berichten zu ermöglichen und den Berichtsprozess zu vereinfachen und zu beschleunigen. Das resultierende Kerndatenmodell des Informationssystems wird in dem Artikel zusammen mit einer kurzen Beschreibung des implementierten Prototypsystems beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41151-9_59 b6b7c9b67ef6d2b1118ce6a57222b17f;de;;;7.1.;;;Eine Systemplanung für einen Kohlelogistikdienstleister In China ist Kohle der wichtigste Energieträger. Transformiert durch moderne Logistik werden Kohletransport und -vermarktung einen guten Gewinn erzielen. Auf diesem Gebiet wurden viele Untersuchungen durchgeführt, aber nur wenige Unternehmen haben eine gute Lösung. Dieser Artikel fasst einen Programmvorschlag für die Umwandlung eines traditionellen Kohlevermarktungs- und Transportunternehmens in einen Kohlelogistikanbieter zusammen. Der Plan umfasst die allgemeine Lösungs-, Logistik- und Informationssystemplanung. Am Ende dieses Artikels werden die wirtschaftliche Rendite und der soziale Nutzen der Transformation prognostiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23998-4_44 7357d8aa698569a20e07899375de7fc3;de;;;7.2.;;;Intelligente Systeme zur Überwachung und Prävention in Gesundheitsinformationssystemen Die Interoperabilität in Healthcare Information Systems (KIS) ist heute eine Grundvoraussetzung. Die Agentur für Integration, Verbreitung und Archivierung medizinischer Informationen (AIDA) ist eine interoperable Gesundheitsplattform, die diese Anforderungen gewährleistet und in;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09153-2_15 138fbcb2a1425a0c607495684ca0f02e;de;;;7.1.;;;Computer-Aided Decision Support Engineering Die aktuelle DSS-Forschung hat die Tragfähigkeit von DSS gezeigt, die aktive Unterstützung bieten, wissensbasiert sind, Kreativität fördern und als Werkzeuge zur Organisation von Gedanken dienen können. Die wenigsten dieser vielversprechenden Ansätze wurden in der Praxis in der Praxis erprobt. In diesem Papier wird vorgeschlagen, dass einer der wichtigsten Gründe für diese Lücke in der modernen DSS-Forschung und -Praxis die Notwendigkeit einer umfassenden und einheitlichen DSS-Entwicklungsmethodik ist. Darüber hinaus skizziert das Papier eine solche Methodik namens „Decision Support Engineering“, die in einer Reihe von Praxisfällen erfolgreich angewendet wurde, und diskutiert ihre Auswirkungen auf den Entwurf und den Bau einer computergestützten DSS-Entwicklungsworkbench.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-02952-7_13 ae395f29fda4cdd6f3253a7fb4530aee;de;;;7.1.;;;Entwicklung von europäischen Leitlinien und einer gemeinsamen Datenbank zur Risiko-/Gefahrenbewertung für die Flächennutzungsplanung im Kontext der Gefahren schwerer Unfälle In diesem Papier werden die jüngsten Entwicklungen in Europa und die Arbeiten einer technischen Arbeitsgruppe der Kommission vorgestellt, die auf die Entwicklung eines kohärenteren Rahmens für Entscheidungen über die Landnutzungsplanung (LUP) im Kontext der Gefahren schwerer Unfälle abzielen, da von der Seveso-II-Richtlinie gefordert. Die Arbeit bezieht sich auf die Ausarbeitung von Leitlinien zum konsistenten und transparenten Umgang mit den wichtigsten LUP-Themen, wie z Seveso-Betriebe und Wohn- und sensible Gebiete. Das Papier beschreibt auch die Bemühungen zur Entwicklung einer technischen Datenbank mit Risiko-/Gefahrenbewertungsdaten, die in den zugrunde liegenden Risikoanalysen verwendet werden sollen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-85729-410-4_494 8c532963bd73866a98599a3e0f9a01dd;de;;;7.1.;;;Eine synthetisierende Konzeptualisierung von Kommunikation in einem Umfeld von Marketing/Physical Distribution In diesem Dokument werden die Anforderungen an Informationssysteme für die Elemente des Marketing- und physischen Vertriebsmanagements eines typischen Management-Informationssystems eines Unternehmens untersucht. Präsentiert wird ein Marketinginformationssystem, das die Subsysteme Rechnungswesen, Marketing Intelligence, Marketingforschung und Marketingwissenschaft mit einem Logistikinformationssystem kombiniert, um die Marketingentscheidungen und die Vertriebseffizienz zu optimieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10966-4_41 aab3a7e35e287b97fce7407f1a9a19dc;de;;;7.2.;;;Der wahrgenommene Nutzen von Informationen, die über elektronische Entscheidungshilfen präsentiert werden: Eine Verbraucherperspektive Jüngste Fortschritte in der elektronischen Technologie haben ein praktikables alternatives Informationsbereitstellungssystem in Form von elektronischen Entscheidungshilfen (EDAs) ermöglicht. Die Verbraucher werden jedoch nur dann von solchen technologischen Innovationen profitieren, wenn sie als hilfreich bei der Entscheidungsfindung wahrgenommen werden. Die aktuelle Studie untersucht die Auswirkungen der Art des EDA-Formats (autonom versus dominant) und der Bereitstellung von Bildungsinformationen auf den wahrgenommenen Nutzen von Informationen, die über eine elektronische Entscheidungshilfe präsentiert werden. Darüber hinaus werden die Zusammenhänge zwischen diesen beiden Dimensionen und spezifischen Verbrauchermerkmalen wie Produktvertrautheit, Computervertrautheit und Kontrollort sowie Produkttyp (Such- versus Erlebnisware) systematisch identifiziert und bewertet. Die Ergebnisse legen nahe, dass die Auswahl eines geeigneten Formats von der Art des ausgewählten Produkts abhängt, während die Einbeziehung von Bildungsinformationen den wahrgenommenen Nutzen der Informationen bei der Auswahl beider Produkttypen erhöht.;-;-;-;https://link.springer.com/article/10.1007/BF00412471 d1dd07daa9494f1c0a20b637cb3df519;de;;;7.2.;;;Klassifizierungsbasierte Abfrageauswertung in Wissensdatenbanksystemen Die Klassifizierung als Strukturierungsprinzip für Daten ist eine gemeinsame Grundlage vieler Wissensdatenbanksysteme. Eine neuere Idee besteht darin, Klassifikationen für Abfrageauswertungszwecke zu verwenden, wie es kürzlich in Konzeptsprachimplementierungen und im fortgeschrittenen deduktiven Datenbanksystem getan wurde;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-46808-7_13 a4fd71e031988dc28bf3de21cbabfc3a;de;;;7.2.;;;Nutzermodellierung im Gesundheitswesen – eine Pilotstudie Das Abrufen von Patienteninformationen aus großen computergestützten Patientenakten kann in Abhängigkeit von den Informationsbedürfnissen des Benutzers durch verschiedene Techniken erleichtert werden. Dieses Papier beschreibt eine Studie zum Informationsbedarf in den hämatoonkologischen Abteilungen von drei Krankenhäusern aus verschiedenen Ländern. Von verschiedenen Akteuren in der stationären Versorgung wurde ein Fragebogen abgenommen. Es wurde ein Modell der stationären Versorgung aufgebaut, das aus Management- und operativen Tätigkeiten (Aufgaben) besteht. Der Informationsbedarf wurde im Hinblick auf benötigte Daten, nützliche Suchkriterien und Präsentationstechniken analysiert. Es wurden unterschiedliche Informationsbedürfnisse zwischen den Benutzern festgestellt, jedoch nicht zwischen den Aufgaben. Zwischen den drei Ländern herrschte eine große Einheitlichkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-51659-7_165 7d536da44fd70e7f7b5ac21360238998;de;;;7.1.;;;Erfolg und Qualität durch den Einsatz von Standards in Teamprojekten sichern: Schülerwahrnehmung Dieser Beitrag berichtet über eine Studie, die die Faktoren analysiert, die zum Erfolg und zur Qualität von Softwareentwicklungsprojekten in einem Bildungsumfeld beitragen. Softwareentwicklungsstandards wurden überprüft, um Schlüsselfaktoren für den Projekterfolg sowie Erfolgs- und Qualitätsmaßstäbe zu identifizieren. In Interviews mit Studierenden wurde dann untersucht, inwieweit die Studierenden Softwareentwicklungsstandards in ihren Projekten implementiert haben und welche Auswirkungen diese Standards auf den Projekterfolg und die Qualität haben. Die Schüler betrachteten Standards im Allgemeinen als „bewährte“ Vorgehensweisen und waren der Meinung, dass die Anwendung von Standards den Projekterfolg unterstützte. Die Faktoren, die am meisten zum Erfolg und zur Qualität ihrer Teamprojekte beitrugen, waren die Teamzusammensetzung, die Fähigkeiten innerhalb des Entwicklungsteams und die Kommunikation innerhalb des Teams.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03115-1_20 10acc987c01eb6672ffc1e7a2fdeacf8;de;;;7.1.;;;IT-Performance-Management in fünf Organisationen Diese Studie liefert Erkenntnisse darüber, wie Unternehmen die Vorteile des IT-Performance-Managements erzielen und optimieren können. Der Mehrwert aus Investitionen wird durch eine Fokussierung auf das IT-Performance-Management erreicht, das es ermöglicht, nicht wertschöpfende Aktivitäten und Prozesse (und damit die organisatorische Effizienz) zu entfernen und die organisatorische Effektivität zu steigern. In unserer Arbeit haben wir ein Framework verwendet, das IT-Performance-Management-Eigenschaften enthält, die auf Organisationen abgebildet werden, um ihren IT-Performance-Management-Reifegrad zu bestimmen. Obwohl die von unserer Studie untersuchten Organisationen in der gleichen Branche tätig sind, zeigen unsere Ergebnisse eine große Vielfalt an angewandten IT-Performance-Management-Ansätzen und die unterschiedlichen Reifegrade zwischen den Organisationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23388-3_1 58bd096f728b61659e9b262e6710ec5a;de;;;7.1.;;;Prozessmuster für agile Methoden Die Notwendigkeit, auf spezifische Situationen und Anforderungen zugeschnittene Softwareentwicklungsmethoden zu konstruieren, hat zur Generierung allgemeiner Methodenfragmente geführt, oder;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-73947-2_18 9f4787e076dd747e4568cd74638a336a;de;;;7.1.;;;Repertoires der Zusammenarbeit für das Katastrophenmanagement: Verhandlungen über den Erfolg von Emerging and Dynamic Systems Katastrophen sind aufkommende und dynamische Szenarien, an denen verschiedene Akteure an komplexen Entscheidungen beteiligt sind, und als solche müssen Katastrophenmanagementsysteme diesen Bedingungen Rechnung tragen. Um diese Systeme effektiver zu konzipieren, zu bauen und einzuführen, schlagen wir vor, dass Rettungsdienste in Erwägung ziehen, ihre traditionellen „Command and Control“-Ansätze und gemeinsamen Betriebsbilder (CoP) durch gezielte „kollaborative“ Ansätze zu ergänzen. Diese würden die Erstellung eines dynamischen Betriebsbildes (DOP) erleichtern und eine Reihe von Systemoptionen bereitstellen, mit denen Katastrophen besser verwaltet werden können. Kollaboratives Management und ausgehandelte Integration von Technologie- und Informationsnutzung sowie Prozessentwicklung stellen einen Paradigmenwechsel in unserem Denken im Katastrophenmanagement dar. Wir haben McCanns (1983) Negotiated Arrangements Theory (NAT) verwendet, um Probleme und Probleme mit traditionellen Kommando- und Kontrollansätzen und CoP während dreier Katastrophenszenarien aufzuzeigen. Als Ergebnis der aus dieser Analyse gewonnenen Erkenntnisse schlagen wir vor, dass die Entwicklung eines ergänzenden Ansatzes des „Repertoires der Zusammenarbeit“ für die Aushandlung von DoP für das Katastrophenmanagement positive Auswirkungen auf die Ergebnisse des Katastrophenmanagements haben würde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38862-0_2 664c7e39607c532a6dca8a816c6c11d0;de;;;7.1.;;;Eine Integrationsarchitektur für Fertigungsplanung und -ausführung Prozessplanung und Fertigungsdurchführung sind zwei Hauptfunktionen in einem Produktentwicklungszyklus. Branchen benötigen diese Funktionen, um mit anderen verwandten Fertigungsanwendungen wie Konstruktion, Ressourcenplanung, Produktionsplanung und Anlagensteuerung Plug-and-Play-fähig zu sein. In diesen Bereichen bestehen Informationsbarrieren für die Interoperabilität zwischen kommerziellen Systemen. Basierend auf den Aktivitätsmodellen für die Prozessplanung und Fertigungsdurchführung wurde ein Set von Grundlagenschnittstellen entwickelt, um das Problem zu bewältigen. Es wird erwartet, dass sich die Schnittstellen mit dem Aufkommen neuer Technologien und industrieller Praktiken weiterentwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35351-7_29 6afe30a66c947e95d72aaf17e6d84fcd;de;;;7.2.;;;TEMPER: Eine Feedback-Methode zur zeitlichen Relevanz Das Ziel einer Blog-Destillation (Blog-Feed-Suche) ist es, Blogs nach ihrer wiederkehrenden Relevanz für die Suchanfrage zu ranken. Eine interessante Eigenschaft der Blog-Destillation, die sie von traditionellen Retrieval-Aufgaben unterscheidet, ist ihre Zeitabhängigkeit. In diesem Papier untersuchen wir den Effekt der Zeitabhängigkeit bei der Abfrageerweiterung. Wir schlagen ein Framework vor, TEMPER, das verschiedene Begriffe für verschiedene Zeiten auswählt und Blogs nach ihrer Relevanz für die Abfrage im Zeitverlauf einordnet. Durch die Generierung mehrerer erweiterter Abfragen basierend auf der Zeit sind wir in der Lage, die Dynamik des Themas sowohl in Bezug auf Aspekte als auch in Bezug auf den Wortschatz zu erfassen. Wir zeigen Leistungssteigerungen gegenüber den Basistechniken, die unabhängig von der Zeit eine einzelne erweiterte Abfrage unter Verwendung der am häufigsten abgerufenen Posts oder Blogs generieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20161-5_43 dbcb79d4a1fade1d577f435f2ff7d896;de;;;7.2.;;;Verbesserung der Kompetenz Empfehlungssysteme nach Odds Ratio Expertenempfehlungen, die bei der Rückverfolgung von Fachwissen und nicht von Dokumenten helfen, beginnen, einige fortgeschrittene Techniken zum Abrufen von Informationen anzuwenden. Dieses Papier stellt ein Odds-Ratio-Modell vor, um Expertenentitäten für die Expertenfindung zu modellieren. Dieses Modell verwendet Odds Ratio anstelle von Rohwahrscheinlichkeiten, um Sprachmodellierungstechniken zu verwenden. Ein rohes Sprachmodell, das die vorherige Wahrscheinlichkeit für die Glättung verwendet, hat die Tendenz, „gewöhnliche“ Experten zu stärken. In einem solchen Modell erhöht sich die Punktzahl eines Kandidatenexperten mit zunehmender Wahrscheinlichkeit des Vorhergehenden. Daher würde das System tendenziell Personen vorschlagen, die relativ große vorherige Wahrscheinlichkeiten haben, aber nicht die echten Experten. Im Odds-Ratio-Modell wird eine solche Tendenz vermieden, indem ein umgekehrtes Verhältnis der vorherigen Wahrscheinlichkeit angewendet wird, um „normalen“ Experten Rechnung zu tragen. Die Experimente mit TREC-Testsammlungen zeigen, dass das Odds-Ratio-Modell die Leistung bemerkenswert verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68636-1_1 570f7af42701ef20badd2a5ad204474e;de;;;7.2.;;;BioASQ auf der CLEF2021: groß angelegte biomedizinische semantische Indexierung und Beantwortung von Fragen Dieses Papier beschreibt die neunte Ausgabe der BioASQ Challenge, die als Evaluierungslabor im Rahmen von CLEF2021 durchgeführt wird. Ziel von BioASQ ist die Förderung von Systemen und Methoden für den hochpräzisen biomedizinischen Informationszugang. Dies geschieht durch die Organisation einer Reihe von Herausforderungen (geteilte Aufgaben) zur groß angelegten biomedizinischen semantischen Indexierung und Beantwortung von Fragen, bei der verschiedene Teams Systeme entwickeln, die auf den gleichen anspruchsvollen Benchmark-Datensätzen konkurrieren, die den tatsächlichen Informationsbedarf biomedizinischer Experten repräsentieren. Um diesen Informationsfindungsprozess zu erleichtern, wurden im Rahmen der BioASQ-Challenge zwei komplementäre Aufgaben eingeführt: (a) die automatisierte Erschließung großer Mengen unmarkierter Daten, hauptsächlich wissenschaftlicher Artikel, mit biomedizinischen Konzepten, (b) die Bearbeitung biomedizinischer Fragestellungen und die Generierung von nachvollziehbare Antworten. BioASQ belohnt die wettbewerbsfähigsten Systeme, die den Stand der Technik übertreffen, und schafft es, die Forschungsfront zu erweitern, um sicherzustellen, dass die biomedizinischen Experten direkten Zugang zu wertvollem Wissen haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72240-1_73 dc1cdc81fac55038404c756535366135;de;;;7.2.;;;Forschung zur semantischen Interoperabilität für die geschäftliche Zusammenarbeit Um mit den heterogenen Systemen und der Vielfalt von Geschäftsdaten, Geschäftsmodellen und Beschreibungen verschiedener Unternehmen im Interoperationsprozess umzugehen, wird in diesem Papier ein semantischer Interoperabilitätsrahmen für die Unternehmenszusammenarbeit vorgeschlagen. Im Rahmen wird ein Ontologiesystem mit mehreren Facetten eingeführt, das die geschäftliche Zusammenarbeit unterstützt, um ein einheitliches Verständnis während des gesamten Interoperationsprozesses zu ermöglichen. Basierend auf dem Framework wird eine Methode verwendet, um Ontologien aus mehreren Quellen schnell zu extrahieren und ein semantisches Mapping basierend auf gemischten Ontologien zu realisieren, um die semantischen Konflikte zu lösen. Der Webdienst wird verwendet, um die Heterogenität auf Systemebene zu beseitigen, und wird semantisch erweitert, um die Anforderungen der Diensterkennung zu erfüllen. Danach wird der On-Demand-Geschäftsaufbau durch die dynamische Kombination von Diensten erreicht. Schließlich wird eine prototypische Plattform entwickelt und die Machbarkeit unseres Frameworks verifiziert. Unser vorgeschlagener Rahmen bietet nützliche Referenzen für KMU, um unternehmensübergreifende Geschäftszusammenarbeit in China zu realisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33068-1_19 4fdffd2f4d155b4794ec5780a2595f82;de;;;7.2.;;;Über Ähnlichkeitsmaße für Multimedia-Datenbankanwendungen Eine Multimedia-Datenbankabfrage besteht aus einem Satz von Fuzzy- und Booleschen (oder scharfen) Prädikaten, Konstanten, Variablen und Konjunktions-, Disjunktions- und Negationsoperatoren. Die Fuzzy-Prädikate werden anhand verschiedener Medienkriterien wie Farbe, Form, Layout, Schlagwort bewertet. Da die medienbasierte Auswertung Ähnlichkeitswerte liefert, werden die Ergebnisse einer solchen Abfrage als geordnete Menge definiert. Da viele Multimediaanwendungen teilweise Übereinstimmungen erfordern, enthalten Abfrageergebnisse auch Tupel, die nicht alle Prädikate erfüllen. Daher kann jede Fuzzy-Semantik, die die boolesche Semantik der Konjunktion auf direkte Weise erweitert, für Multimediadatenbanken nicht wünschenswert sein. In diesem Beitrag konzentrieren wir uns auf das Problem der „;-;-;-;https://link.springer.com/article/10.1007/PL00011658 ad8df57c31536aecb77fca493afa7db6;de;;;7.2.;;;Das MINERVA-Projekt: Wege zur kollaborativen Suche in digitalen Bibliotheken mit Peer-to-Peer-Technologie Wir betrachten das Problem der kollaborativen Suche über eine große Anzahl digitaler Bibliotheken und Strategien zur Abfrageweiterleitung in einer Peer-to-Peer (P2P)-Umgebung. Digitale Bibliotheken und Nutzer werden gleichermaßen als Peers und damit als Teil des P2P-Netzwerks angesehen. Unser System bietet eine vielseitige Plattform für eine skalierbare Suchmaschine, die lokale Indexstrukturen von autonomen Peers mit einem globalen Verzeichnis basierend auf einer verteilten Hash-Tabelle (DHT) als Overlay-Netzwerk kombiniert. Experimente mit dem MINERVA-Prototyp-Testbed untersuchen den Nutzen und die Kosten der P2P-Suche für Keyword-Abfragen.;-;-;-;https://link.springer.com/chapter/10.1007/11549819_6 73e661fd6bed79df8ced64facc47550c;de;;;7.2.;;;Messung der Fähigkeit von Score-Verteilungen zur Modellrelevanz Die Modellierung der Bewertungsverteilung von Dokumenten, die von einem Informationsabrufsystem (IR) zurückgegeben werden, ist sowohl von theoretischer als auch praktischer Bedeutung. Deren Ziel ist es, relevante und nicht relevante Dokumente anhand ihrer Punktzahl mit einer gewissen Sicherheit ableiten zu können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25631-8_3 65fbd035f97d2b7b31768ccaba8c2fd9;de;;;7.2.;;;Coverage-basierte Methoden zur verteilungsbezogenen Stoppwortauswahl in der Textsegmentierung Im Gegensatz zu den üblichen Stoppwörtern beim Information Retrieval sind Verteilungsstoppwörter dokumentspezifisch und beziehen sich auf Wörter, die mehr oder weniger gleichmäßig über ein Dokument verteilt sind. Das Isolieren von Verteilungsstoppwörtern hat sich für die Textsegmentierung als nützlich erwiesen, da es hilft, die Darstellung eines Segments zu verbessern, indem die überlappenden Wörter zwischen benachbarten Segmenten reduziert werden. In diesem Papier schlagen wir drei neue Maßnahmen zur Auswahl von Verteilungsstoppwörtern vor und erweitern den Begriff Verteilungsstoppwörter von der Dokumentebene auf eine Themenebene. Zwei unserer neuen Maße basieren auf der Verteilungsabdeckung eines Wortes und das andere wird von einem bestehenden Maß namens Verteilungsdifferenz erweitert, indem es sich auf die Dichte von Wörtern stützt, ähnlich wie ein anderes Maß namens Verteilungssignifikanz. Unsere Experimente zeigen, dass diese neuen Maße nicht nur effizient zu berechnen sind, sondern auch genauer oder vergleichbar mit den bestehenden Maßen für die Auswahl von Verteilungsstoppwörtern sind und dass die Auswahl von Verteilungsstoppwörtern auf Themenebene genauer ist als die Auswahl auf Dokumentebene für die Unterthemensegmentierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15760-8_27 15a131f587032fcf02b083fbe082ed19;de;;;7.1.;;;Dynamische Rekonfiguration zusammengesetzter konvergenter Dienste, unterstützt durch multimodale Suche Zusammengesetzte konvergente Dienste integrieren eine Reihe von Funktionalitäten aus Web- und Telekommunikationsdomänen. Aufgrund der großen Anzahl verfügbarer Funktionalitäten ist in vielen Bereichen eine Automatisierung des Kompositionsprozesses erforderlich. Eine automatisierte Zusammensetzung ist jedoch in der Praxis nicht machbar, wenn Rekonfigurationsmechanismen nicht berücksichtigt werden. Dieses Papier stellt einen neuartigen Ansatz für die dynamische Rekonfiguration konvergenter Dienste vor, der unter Berücksichtigung von Benutzerpräferenzen fehlerhafte Regionen von zusammengesetzten konvergenten Diensten ersetzt. Um die Leistungsbereiche zu ersetzen, wird eine multimodale Suche durchgeführt. Unsere Beiträge sind: ein Modell zur Darstellung zusammengesetzter konvergenter Dienste und ein regionalbasierter Algorithmus zur Rekonfiguration von Diensten, die durch multimodale Suche unterstützt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19027-3_11 7df8b4185fc83b757a3bc6c016c3676a;de;;;7.1.;;;Strukturelle Artefakte in der Methodik: Der Sicherheitsimperativ Die Organisationsstruktur hat mit menschlichen Beziehungen zu tun und unterscheidet sich von den verschiedenen Artefakten (wie Informationstechnologie, Systementwicklungsmethoden und andere mechanische Produkte), die diese Beziehungen widerspiegeln. Die Informationstechnologie stellt ein Artefakt der ersten Ebene dar und Methoden der Systementwicklung stellen ein Artefakt der zweiten Ebene dar. Dieses Papier erläutert und illustriert eine Theorie, in der Method Engineering strukturelle Artefakte der dritten Ebene in Organisationen einführt. Es ist eine Demonstration enthalten, die Sicherheit als eine der Systemanforderungen verwendet, die von strukturellen Artefakten der dritten Ebene wie dem Methoden-Engineering erfasst werden müssen. Diese Demonstration zeigt, wie Method Engineering vollständigere und auf die organisatorische Situation abgestimmte Methoden hervorbringen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35080-6_2 65d7e4d285f9b05f1b75593cd463a6c9;de;;;7.1.;;;Intelligente Unterstützung bei der Software-Release-Planung Eine der wichtigsten Fragen bei der inkrementellen Softwareentwicklung ist die Entscheidung über die am besten geeigneten Software-Release-Pläne unter Berücksichtigung aller expliziten und impliziten Ziele und Einschränkungen. Solche Entscheidungen sind noch komplizierter geworden, wenn eine große Zahl von Stakeholdern wie verschiedene Benutzergruppen, Manager oder Entwickler anwesend sind. Die frühzeitige Einbindung der Kunden und das Verständnis ihrer tatsächlichen Bedürfnisse ist jedoch einer der zentralen Erfolgsfaktoren des Softwaregeschäfts [16].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24659-6_18 8b19f4da23c35229ab540ca255bf5112;de;;;7.2.;;;Internationale Zusammenarbeit in der Bildungsforschung Im ersten Teil des Essays diskutieren die Autoren einige Fragen der internationalen Kooperation in der Bildungsforschung: Kooperationsziele, das Ideal des Universalismus, sprachliche und kulturelle Unterschiede, die Organisation der Kooperation. Die Diskussion stützt sich auf die Ergebnisse der umfangreichen Literaturrecherchen der Autoren und ihrer Anfragen bei Forschern, Forschungsdirektoren und Forschungsfinanzierungsagenturen in mehreren Ländern. Der zweite Teil stellt die Empfehlungen der Autorinnen und Autoren zur zukünftigen Entwicklung der internationalen Kooperation in der Bildungsforschung dar und weist darauf hin, dass ihre Entwicklung zu einer zukunftsfähigen wissenschaftlichen Disziplin Voraussetzung für ihren erfolgreichen Einsatz als bildungspolitisches Instrument ist. Es wird vorgeschlagen, in naher Zukunft drei Bereichen der Zusammenarbeit höchste Priorität einzuräumen:;-;-;-;https://link.springer.com/article/10.1007/BF00639035 e8036d2154d0b23e2340bf6f9de7444d;de;;;7.2.;;;Über die Suche nach ausländischen Namen Wir adressieren die ausländische Namenssuche in einer sehr heterogenen Nutzergemeinschaft. Die Benutzerkompetenz reicht von sehr erfahrenen Archivaren bis hin zu ängstlichen Benutzern, die vor Technologie zurückschrecken. Somit müssen alle Systemschnittstellen eine minimale Abhängigkeit vom Benutzer annehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12275-0_42 ae709722d097fd2fe7cdb495c5b64b3d;de;;;7.2.;;;Vergleichende Bewertung der geologischen Katastrophenanfälligkeit mittels Multiregressionsverfahren und räumlicher Genauigkeitsvalidierung Geologische Katastrophen verursachen nicht nur wirtschaftliche Verluste und ökologische Zerstörung, sondern bedrohen auch ernsthaft das menschliche Überleben. Die Auswahl einer geeigneten Methode zur Bewertung der Anfälligkeit für geologische Katastrophen ist ein wichtiger Bestandteil der geologischen Katastrophenforschung. Ziel dieser Studie ist es, die Genauigkeit und Zuverlässigkeit von Multi-Regressionsmethoden für die Bewertung der geologischen Katastrophenanfälligkeit zu untersuchen, einschließlich der logistischen Regression (LR), der räumlichen Autoregression (SAR), der geografisch gewichteten Regression (GWR) und der Support Vector Regression (SVR). , die alle in der Literatur ausführlich diskutiert wurden. In dieser Studie haben wir die chinesische Provinz Yunnan als Forschungsstandort ausgewählt und Daten zu typischen geologischen Katastrophenereignissen und den damit verbundenen Gefahren innerhalb des Untersuchungsgebiets gesammelt, um ein entsprechendes Indexsystem für die geologische Katastrophenbewertung zu erstellen. Vier Methoden wurden verwendet, um die geologische Katastrophenanfälligkeit zu modellieren und zu bewerten. Die Vorhersagefähigkeit der Methoden wurde anhand der Receiver Operating Characteristic (ROC)-Kurve und der Erfolgsratenkurve überprüft. Schließlich wurde eine räumliche Genauigkeitsvalidierung eingeführt, um die Ergebnisse der Bewertung zu verbessern, was durch die Kurve der räumlichen Empfängerbetriebscharakteristik (SROC) und die Kurve der räumlichen Erfolgsrate (SSR) demonstriert wurde. Die Ergebnisse deuten darauf hin, dass: 1) diese Methoden alle in Bezug auf die SROC- und SSR-Kurven gültig sind und die Methode zur Validierung der räumlichen Genauigkeit ihre Modellierungsergebnisse und -genauigkeit verbessert hat, sodass die Werte der Fläche unter der Kurve (AUC) der ROC-Kurven erhöht wurden um ca. 3–13 % und die AUC der Erfolgsratenkurvenwerte um 15–20 % erhöht, 2) die Bewertungsgenauigkeiten von LR, SAR, GWR und SVR betrugen 0,8325, 0,8393, 0,8370 und 0,8539 vier statistische Regressionsmethoden haben alle eine gute Bewertungsfähigkeit für die geologische Katastrophenanfälligkeitsbewertung und die Bewertungsergebnisse von SVR sind vernünftiger als andere, 3) nach den Bewertungsergebnissen von SVR sind die zentral-südlichen Yunnan-Provinzen die Gebiete mit der höchsten Anfälligkeit und die niedrigsten Die Anfälligkeit liegt hauptsächlich im zentralen und nördlichen Teil des Untersuchungsgebietes.;-;-;-;https://link.springer.com/article/10.1007/s11442-017-1386-4 a56f50556907137cb5b06b5ab1906040;de;;;7.2.;;;Gesamtvergleich auf den Standard-Recall-Levels mehrerer Retrieval-Methoden mit dem Friedman-Test Wir schlagen eine neue Anwendung des statistischen Signifikanztests nach Friedman vor, um multiple Retrievalmethoden zu vergleichen. Nach Messung der durchschnittlichen Präzision auf den elf Standard-Recall-Levels bietet unsere Anwendung des Friedman-Tests einen globalen Vergleich der Methoden. In einigen Experimenten liefert dieser Test zusätzliche und nützliche Informationen, um zu entscheiden, ob sich die Methoden unterscheiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71496-5_68 f68fed01b7facb8b8b424556006085b4;de;;;7.2.;;;Bewertung der Netzwerkleistung mit Paketmessung: Ein Versuchsansatz zur Leistungsbewertung für das Universitätscampusnetzwerk Für fast alle Benutzer ist es wichtig zu wissen, wie ihre Netzwerkumgebung richtig oder passend funktionieren kann. Insbesondere wird es als bedeutsam angesehen, ob die tatsächlich erbrachte (d. h. gemessene) Leistung der theoretischen, basierend auf der Formulierung, ähnlich ist oder nicht. Manchmal kann sich die erstere Leistung aus unserer Erfahrung heraus etwas von der letzteren unterscheiden. Wir haben eine Art Videoübertragungssystem verwendet, das als Netzwerkkonferenzsystem verwendet werden kann. Nicht nur, weil ein solches System in der verteilten Campus-Netzwerkumgebung immer nützlicher wird, sondern auch, weil das System während des Betriebs eine gewisse Menge an Paketflüssen zwischen und/oder zwischen seinen Elementen übertragen muss. Ein solches Videoübertragungssystem kann angemessen und anwendbar sein, um eine effektive Messung der Paketflussmenge in dem verteilten Campus-Netzwerk als eine relativ breite experimentelle Umgebung zu realisieren. Dieses Papier beschreibt, wie ein Netzwerkkonferenzschema konfiguriert wird, um die Netzwerkleistung zu formulieren und wie die Paketflussmenge an bestimmten Punkten im relevanten Netzwerk gemessen wird. Eine Testbewertung der Netzwerkleistung wurde auch durch Vergleich der Paketflussmenge für die formulierte (d.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25462-8_13 d8939d7d38ca4560ce4f443e1d8cc718;de;;;7.2.;;;Ein Rahmen für die empirische Bewertung konzeptioneller Modellierungstechniken Der Beitrag stellt einen Rahmen für die empirische Bewertung konzeptioneller Modellierungstechniken vor, die im Requirements Engineering verwendet werden. Das Framework basiert auf der Vorstellung, dass Modellierungstechniken über ihre zugrunde liegenden Grammatiken verglichen werden sollten. Das Framework identifiziert zwei Arten von Dimensionen in empirischen Vergleichen – beeinflussende und betroffene Dimensionen. Die beeinflussenden Dimensionen bieten Anleitungen für die Aufgabendefinition, unabhängige Variablen und Kontrollen, während die betroffenen Dimensionen die möglichen vermittelnden Variablen und abhängigen Variablen definieren. Insbesondere befasst sich das Framework mit der Abhängigkeit zwischen der Modellierungsaufgabe – Modellerstellung und Modellinterpretation – und den Leistungsmaßen der Modellierungsgrammatik. Die Nützlichkeit des Frameworks wird demonstriert, indem es verwendet wird, um vorhandene Arbeiten zur Bewertung von Modellierungstechniken zu kategorisieren. Das Papier diskutiert auch theoretische Grundlagen, die die Hypothesengenerierung und die Messung von Variablen leiten können. Schließlich befasst sich der Artikel mit möglichen Niveaus für kategoriale Variablen und Möglichkeiten zur Messung von Intervallvariablen, insbesondere der grammatikalischen Leistungsmaße.;-;-;-;https://link.springer.com/article/10.1007/s00766-004-0204-6 d30253ce1312868bb05ed67ba2fea056;de;;;7.2.;;;Bewertung von reaktanten- und produktbasierten Ansätzen zum Design kombinatorischer Bibliotheken Die große Anzahl von Verbindungen, die jetzt in Programmen zur Wirkstoffforschung verfügbar sind, hat zu einem Bedarf an Methoden zur Auswahl von Verbindungen sowohl von externen Anbietern als auch für kombinatorische Bibliotheksdesignverfahren geführt. In diesem Artikel beschreiben wir eine Methode, die entwickelt wurde, um Verbindungen nach ihrer Wahrscheinlichkeit, Aktivität zu zeigen, zu bewerten und einzustufen. Das Verfahren kann verwendet werden, um die Reihenfolge zu bestimmen, in der Verbindungen gescreent werden sollten, sowie um Programme zum Erwerb von Verbindungen zu leiten. Anschließend beschreiben wir eine Reihe von Experimenten, die wir durchgeführt haben, um die Vorteile des Designs kombinatorischer Bibliotheken durch eine Analyse des Produktraums statt des Reaktantenraums zu untersuchen. Die Experimente basieren auf mehreren verschiedenen Diversitätsmetriken und molekularen Deskriptoren. Wir zeigen auch, wie die produktbasierte Auswahl es ermöglicht, mehrere Ziele gleichzeitig zu optimieren, z.;-;-;-;https://link.springer.com/chapter/10.1007/0-306-46883-2_15 365b5234612b954df404697a73fe70bc;de;;;7.2.;;;Räumlich-zeitliche Keyword-Abfragen in sozialen Netzwerken Aufgrund der großen Menge an Daten aus sozialen Netzwerken, die in immer größerer Geschwindigkeit produziert werden, und deren Komplexität haben sich neuere Arbeiten mit dem Problem beschäftigt, solche Daten effizient nach sozialen, zeitlichen oder räumlichen Dimensionen abzufragen. In dieser Arbeit schlagen wir ein Datenmodell vor, das all diese Dimensionen berücksichtigt, und vergleichen verschiedene Ansätze für eine effiziente Abfrageausführung auf einem großen realen Datensatz unter Verwendung von standardisierten relationalen Technologien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40683-6_6 f5434188187af1d219e1f5090833bbd2;de;;;7.1.;;;Ein Modellierungs-Framework für personalbasierte Geschäftsprozesse Die Implementierung eines integrierten Informationssystems, wie einem ERP (Enterprise Resource Planning) oder einem APS (Advanced Planning Systems) ist heutzutage ein zentrales Thema für Unternehmen. Die Probleme, die bei ihrer immer schwierigen Integration auftreten können, werden heute besser erkannt, auch wenn sie oft multiple und komplexe Ursachen haben. Die Definition neuer Geschäftsprozesse und die Kopplung von Systemen mit Benutzern sind daher viele Probleme. Die Integration solcher Systeme erfordert eine Abbildung zwischen den im Unternehmen eingesetzten Prozessen und den von den Informationssystemen unterstützten Standardprozessen. Dabei geht der Implementierung des Informationssystems immer ein BPR-Projekt (Business Process Reengineering) voraus. Wir schlagen vor, die Geschäftsprozesse besser an die menschlichen Akteure anzupassen, indem Konzepte wie Rolle, Kompetenz und Wissen der Human Ressource explizit berücksichtigt werden. Wir zeigen, wie diese Konzepte Techniken wie BPR ergänzen können, um die Bedürfnisse und Möglichkeiten der Belegschaft besser zu identifizieren, mit dem Endziel, die Effizienz und Akzeptanz des zu implementierenden Systems zu erhöhen.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-23581-7_3 62dd670f6eba92c50cb94ffacd39e31b;de;;;7.1.;;;Prozessplanung durch computergestützte Klassifikation und Codierung Dieser Beitrag beschreibt die Entwicklung eines Klassifikationssystems für die Prozessplanung. Das System generiert sowohl einen Prozessplan für die Produktion als auch eine Klassifizierungsnummer basierend auf der Klassifizierungstheorie. Das System ist in der Programmiersprache C mit Schnittstellen zu einer relationalen Datenbank implementiert. Dadurch können der generierte Prozessplan und die Klassifikationsnummer zur Informationsabfrage in die Datenbank geladen werden.;-;-;-;https://link.springer.com/article/10.1007/BF02601529 9e4593d95bbe3502ba825ae82dbd6f54;de;;;7.1.;;;Leitfaden für einen strategischen Beschaffungsplanungsansatz auf regulierten Rohstoffmärkten Der Zugriff virtueller Organisationen auf Rohstoffe erfordert normalerweise externe Ressourcen. In vielen Fällen ist der Rohstoffmarkt reguliert und die VO-Grundsätze Vertrauen, Kundenorientierung etc. sind nicht anwendbar. Folglich muss die VO dem Kunden zuverlässige Lösungen bieten und gleichzeitig auf den Zugang zu den benötigten Rohstoffen angewiesen sein. Ziel des vorgeschlagenen Papiers ist es, einen Leitfaden für eine strategische Beschaffungsplanung für die verarbeitende Industrie auf regulierten Rohstoffmärkten vorzulegen. Dieser Leitfaden kann verwendet werden, um bestimmte Sourcing-Optionen zu bewerten. Das Hauptziel dieses Leitfadens ist es, die negativen Auswirkungen der Marktregulierung frühzeitig zu erkennen und durch die Entwicklung strategischer Alternativen zu reduzieren. Die erfolgreiche Anwendung dieses Leitfadens wird am praktischen Beispiel der Feuerfestindustrie und einem ihrer Rohstoffe, dem feuerfesten Bauxit, demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04568-4_39 f9f78ed4a48ba1b48bb2cd8bbf98fe1f;de;;;7.1.;;;Informationssicherheits-Managementsysteme - Ein Reifegradmodell basierend auf ISO/IEC 27001 Ein Informationssicherheits-Managementsystem gemäß ISO/IEC 27001 ist der Satz von „dem Teil des Gesamtmanagementsystems, basierend auf einem Geschäftsrisikoansatz, um die Informationssicherheit einzurichten, zu implementieren, zu betreiben, zu überwachen, zu überprüfen, aufrechtzuerhalten und zu verbessern“. . ISO/IEC 27001 definiert die Anforderungen und den Prozess zur Implementierung eines Informationssicherheits-Managementsystems. Die Umsetzung dieses Standards ohne detaillierten Plan kann jedoch für Organisationen zur Belastung werden. Dieses Papier präsentiert ein Reifegradmodell für die Planung, Implementierung, Überwachung und Verbesserung eines Informationssicherheits-Managementsystems basierend auf ISO/IEC 27001. Der Zweck dieses Modells ist es, Organisationen ein Bewertungsinstrument zur Verfügung zu stellen, um ihre aktuellen Informationen zu erhalten Reifegrad des Sicherheitsmanagementsystems. Die Ergebnisse können dann verwendet werden, um einen Verbesserungsplan zu erstellen, der Unternehmen dabei unterstützt, ihren angestrebten Reifegrad zu erreichen. Dieses Reifegradmodell ermöglicht es Organisationen, ihren aktuellen Stand der Dinge gemäß den in ISO/IEC 27001 definierten Best Practices zu bewerten nützlicher und neuartiger Beitrag zur Domäne des Informationssicherheitsmanagements unter Berücksichtigung der Best Practices der Domäne.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-93931-5_8 370ac2f9b8b5e217f51bb1c40de98fe4;de;;;7.2.;;;Verwenden des Blickverhaltens zur Messung der kognitiven Belastung Die Messung und Beeinflussung der kognitiven Belastung während der Informationsverarbeitung kann als vielversprechendes Instrument angesehen werden, um das Risiko einer Informationsüberflutung zu mindern und gleichzeitig die Verarbeitungsfähigkeiten zu erhöhen. In dieser Studie zeigen wir, wie mit einem Eye-Tracking-Gerät generierte Querschnitts-Zeitreihendaten verwendet werden, um kognitive Belastungsniveaus anzuzeigen. Dabei kombinieren wir mehrere Maßnahmen zu Fixationen, Sakkaden und Blinzeln und berechnen eine umfassende und robuste Maßnahme. Die Anwendbarkeit wird durch die Durchführung von zwei getrennten Experimenten in einem Entscheidungsszenario im Kontext der Informationsvisualisierung nachgewiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-01087-4_9 5bbd46f4601fd199abe5041ba7bdbf10;de;;;7.2.;;;Adaptiver Gewichtungsansatz für kontextsensitives Retrieval-Modell Um die Kontextinformationen bestmöglich für sinnvolle Hinweise auf die Absicht des Benutzers zu nutzen, schlägt dieses Papier einen adaptiven Gewichtungsansatz vor, um das aktuelle kontextsensitive Abrufmodell zu verbessern. Das;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35341-3_37 09c05a180296e92b83c7c53cefad35b3;de;;;7.2.;;;Diskriminative Dimensionalitätsreduktionszuordnungen Diskriminative Dimensionsreduktion zielt auf eine niedrigdimensionale, in der Regel nichtlineare Darstellung von gegebenen Daten ab, so dass Informationen, wie sie durch diskriminative Hilfsmarkierungen spezifiziert werden, so genau wie möglich dargestellt werden. Im Mittelpunkt dieses Beitrags stehen zwei offene Probleme im Zusammenhang mit dieser Frage: (i) Wie lässt sich die diskriminative Dimensionalitätsreduktion quantitativ bewerten? (ii) wie kommt man zu expliziten nichtlinearen diskriminativen Dimensionsreduktionsabbildungen? Basierend auf neueren Arbeiten für den unbeaufsichtigten Fall schlagen wir eine Bewertungsmaßnahme und eine explizite diskriminative Dimensionsreduktionskartierung unter Verwendung der Fisher-Informationen vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34156-4_13 f9dee2830b05c22e9e71bebed7e96ca6;de;;;7.2.;;;Evaluierungsmodell für Big-Data-Integrationstools Angesichts des wachsenden Bedarfs und Bedarfs von Unternehmen an Daten und Informationen, die den Entscheidungsprozess positiv unterstützen, besteht kein Zweifel an der Bedeutung der Auswahl des richtigen und geeigneten Integrationstools für die verschiedenen Geschäftsarten. Aus diesem Grund besteht das wesentliche Ziel dieser Studie darin, ein Modell zu erstellen, das als Grundlage für die Bewertung der verschiedenen Alternativen und Lösungen dient, die auf dem Markt existieren, um die Herausforderungen der Big-Data-Integration zu bewältigen. Der Bewertungsprozess eines Datenintegrationsprodukts beginnt mit der Definition und Priorisierung kritischer Anforderungen und Kriterien. In diesem Bewertungsmodell werden die bewerteten Merkmale in drei Hauptgruppen eingeteilt: einfache Integration und Implementierung, Service- und Supportqualität sowie Kosten. Nach der Identifizierung der wesentlichen Kriterien und Merkmale ist es notwendig, die Gewichtung zu bestimmen, die diese Kriterien bei der Bewertung haben sollen. Anschließend muss überprüft werden, welche Lösungen auf dem Markt am besten zu den Anforderungen des Unternehmens passen und diese besser erfüllen können. Vergleichen Sie schließlich die Lösungen, die diesen Rahmen übernehmen. Eine gewichtete Bewertung anhand klar definierter Kriterien wie Benutzerfreundlichkeit, Qualität des technischen Supports, Datenschutz und Sicherheit ist unabdingbar. Dieser Prozess ist von grundlegender Bedeutung, um zu überprüfen, ob die Lösung das bietet, was die Organisation benötigt, wenn sie die Geschäftsanforderungen und ihre Integrationsanforderungen erfüllt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-16187-3_58 bc76aeadc116f9484434d64d31574fc3;de;;;7.2.;;;Vektorraummodelle zum Kodieren und Abrufen von Längsschnittdaten der Krankenakte Vektorraummodelle (VSMs) werden häufig als Information-Retrieval-Verfahren verwendet und wurden an viele Anwendungen angepasst. In diesem Artikel schlagen wir eine neuartige Verwendung von VSMs für die Klassifizierung und den Abruf von Längsschnittdaten elektronischer Patientenakten vor. Diese Daten enthalten Sequenzen von klinischen Ereignissen, die auf Behandlungsentscheidungen basieren, aber der Behandlungsplan wird nicht mit den Ereignissen aufgezeichnet. Die Ziele unserer VSM-Methoden sind (1) zu identifizieren, welcher Plan einer bestimmten Patientenbehandlungssequenz am besten entspricht und (2) Patienten zu finden, deren Behandlungsgeschichte einem bestimmten Plan am nächsten kommt. Wir erstellen zunächst ein traditionelles VSM, das Standardbegriffe verwendet, die den Ereignissen in klinischen Plänen und Behandlungsgeschichten entsprechen. Wir betrachten auch zeitliche Terme, die binäre Beziehungen des Vorrangs zwischen oder des gleichzeitigen Auftretens dieser Ereignisse darstellen. Wir erstellen vier alternative VSMs, die unterschiedliche Kombinationen von Standard- und Zeitbegriffen als Dimensionen verwenden, und bewerten ihre Leistung anhand von manuell annotierten Daten zu Chemotherapieplänen und Behandlungsgeschichten für Brustkrebspatientinnen. Bei der Klassifizierung der Behandlungsgeschichten verwendete der beste Ansatz zeitliche Begriffe, die eine Genauigkeit von 87 % bei der Identifizierung des richtigen klinischen Plans aufwiesen. Bei der Informationsbeschaffung zeigten unsere Ergebnisse, dass das traditionelle VSM am besten abschneidet. Unsere Ergebnisse zeigen, dass VSMs eine gute Leistung für die Klassifizierung und den Abruf von elektronischen Längsschnittdaten haben, aber die Ergebnisse hängen von der Konstruktion des Modells ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-41576-5_1 75e62b373a6112e7961acbe4797c4337;de;;;7.2.;;;Verwenden von Relevanz-Feedback in der Expertensuche In Enterprise-Einstellungen wird die Expertensuche als wichtige Aufgabe angesehen. Bei dieser Suchaufgabe benötigt der Benutzer Fachwissen - er benötigt beispielsweise Hilfe von jemandem zu einem interessanten Thema. Ein Expertensuchsystem unterstützt Benutzer bei ihrem „Expertise-Bedarf“, indem es Personen mit relevantem Fachwissen zu dem interessierenden Thema vorschlägt. In dieser Arbeit wenden wir einen Expertensuchansatz an, der Kandidaten nicht explizit als Antwort auf eine Abfrage einordnet, sondern implizit Kandidaten unter Berücksichtigung einer Rangfolge des Dokuments in Bezug auf das Abfragethema. Es hat sich gezeigt, dass Pseudorelevanz-Feedback, auch Abfrageerweiterung genannt, die Abrufleistung bei Ad-hoc-Suchaufgaben verbessert. In dieser Arbeit untersuchen wir, inwieweit die Query-Expansion in einer Expertensuchaufgabe angewendet werden kann, um die Genauigkeit des generierten Rankings von Kandidaten zu verbessern. Wir definieren zwei Ansätze für die Abfrageerweiterung, einen basierend auf der anfänglichen Rangfolge von Dokumenten für das Abfragethema. Der zweite Ansatz basiert auf der endgültigen Rangfolge der Kandidaten. Die Ziele dieses Papiers sind zweifach. Erstens, um zu bestimmen, ob die Abfrageerweiterung erfolgreich in der Expertensuchaufgabe angewendet werden kann, und zweitens, um festzustellen, ob eine der beiden Formen der Abfrageerweiterung eine robuste, verbesserte Suchleistung bereitstellen kann. Wir führen eine gründliche Bewertung durch, die die beiden Ansätze zur Abfrageerweiterung im Kontext der TREC 2005- und 2006-Enterprise-Tracks gegenüberstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71496-5_39 e751cfdb73622ec0a503a97597bdf741;de;;;7.1.;;;Engineering eines Cyber-Physical Intersection Management – ​​Ein Erfahrungsbericht Das Engineering von Cyber-Physical Systems (CPS) stellt die heutigen Software-Engineering-Prozesse vor große Herausforderungen. CPS sind nicht nur sehr eng mit realen Objekten und Prozessen verwandt, auch ihre internen Strukturen sind heterogener als klassische Informationssysteme. In diesem Erfahrungsbericht gehen wir auf eine prototypische Umsetzung für ein Kreuzungsmanagementsystem auf Basis physikalischer Modelle in Form von Roboterautos ein. Die Schritte zur Implementierung des funktionierenden physischen Prototyps werden beschrieben. Während der Implementierung gewonnene Erkenntnisse werden präsentiert und Beobachtungen mit bekannten Softwareprozessen verglichen. Die gewonnenen Erkenntnisse fließen in den Roman ein;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-56997-0_2 6e59e3d36a53db99e4bab22913a387bd;de;;;7.2.;;;Eine empirische Bewertung von Basislinien-Feature-Location-Techniken Feature Location (FL) zielt darauf ab, beobachtbare Funktionalitäten im Quellcode zu lokalisieren. In Anbetracht ihrer Schlüsselrolle bei der Softwarewartung wurde eine breite Palette automatisierter und halbautomatischer Feature Location Techniques (FLTs) vorgeschlagen. Um FLTs zu vergleichen, sollte ein offener Standardsatz nicht-subjektiver, reproduzierbarer „Compare-to“-FLT-Techniken (Baseline-Techniken) zur Bewertung verwendet werden. Um die Leistung von FLTs im Vergleich zu verschiedenen Basistechniken in Beziehung zu setzen, sollten diese Vergleichstechniken gegeneinander bewertet werden. Aber die Bewertung über FLTs hinweg wird durch empirische Designs, die unterschiedliche FL-Ziele und Bewertungskriterien beinhalten, durcheinander gebracht. Dieses Papier bewegt sich in Richtung einer Standardisierung der FLT-Vergleichbarkeit, indem es acht Basistechniken in einem empirischen Design bewertet, das diese Störfaktoren anspricht. Diese Basistechniken werden in zwölf Fallstudien bewertet, um ihre Leistung einzustufen. Die Ergebnisse der Fallstudien deuten darauf hin, dass unterschiedliche Baseline-Techniken unterschiedlich funktionieren und dass VSM-Lucene und LSI-Matlab besser abschneiden als andere Implementierungen. Durch die Darstellung der relativen Leistungen von Baseline-Techniken erleichtert dieses Papier den empirischen Quervergleich bestehender und zukünftiger FLTs. Schließlich legen die Ergebnisse nahe, dass die Leistung von FLTs zusätzlich zu den FLTs selbst teilweise von den System-/Benchmark-Eigenschaften abhängt.;-;-;-;https://link.springer.com/article/10.1007/s10664-019-09734-5 0ffabfdef8d918f9317c21545eb629c6;de;;;7.2.;;;Ein neuartiger phasenbasierter Ansatz zur Beurteilung der Oberflächenqualität von Tränenfilmen mittels Lateral Shearing Interferometry Die laterale Scherinterferometrie (LSI) kann zur Beurteilung der Eigenschaften des Tränenfilms verwendet werden. Insbesondere hat es die Fähigkeit, dynamische Variationen der Oberflächenqualität des Tränenfilms (TFSQ) während eines Interblink-Intervalls in einem;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24369-6_36 e10ac7311c37041250f9cbb6e4cac207;de;;;7.2.;;;Direkte Schätzung der Fehlertoleranz neuronaler Feedforward-Netze in der Mustererkennung Dieser Artikel untersucht das Fehlertoleranzproblem von neuronalen Feedforward-Netzen, die in der Mustererkennung implementiert sind. Basierend auf der dynamischen Systemtheorie werden zwei Konzepte des Pseudo-Attraktors und seiner Anziehungsregion eingeführt. Es wurde ein Verfahren zum Schätzen der Fehlertoleranz von neuronalen Feedforward-Netzen entwickelt. In diesem Beitrag werden auch Begriffsdefinitionen und detaillierte Herleitungen der Methodik vorgestellt. Einige vorläufige Ergebnisse von Fallstudien mit der vorgeschlagenen Methode werden gezeigt, die vorgeschlagene Methode hat einen Rahmen und eine effiziente Möglichkeit zur direkten Bewertung der Fehlertoleranz in neuronalen Netzen mit Vorwärtskopplung bereitgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/11893257_14 1eb42b368fe3c56c23fed6f723e7928c;de;;;7.2.;;;Neue Paradigmen für die Motivation zum Lernen und zum Weiterlernen Die verschiedenen naturwissenschaftlichen und technischen Disziplinen, die an dem neuen Entwicklungsprozess beteiligt sind, sollten sich so umorientieren, dass die Entwicklung wirklich nützlicher Ausbildungstechnologien für flexibles Lernen und Fernunterricht förderlich ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-1199-5_5 9b92961b60b5b1c407ceb7ef7e4e35d9;de;;;7.2.;;;Vorgeschlagener Ansatz zur Bewertung der Qualität von Topic Maps Topic Maps dienen der Strukturierung von Inhalten und Wissen aus unterschiedlichen Informationsquellen und unterschiedlichen Sprachen. Sie werden als semantische Strukturen definiert, die es ermöglichen, alle von ihnen repräsentierten Subjekte zu organisieren. Sie sollen die Navigation und die Informationssuche in diesen Ressourcen verbessern. In diesem Beitrag schlagen wir vor, die Qualität von Topic Maps zu untersuchen. Die Qualität der Topic Map umfasst verschiedene Aspekte, von denen einige bei konzeptionellen Schemata üblich sind, andere bei Information-Retrieval-Systemen üblich sind und einige andere Aspekte spezifisch für das Problem von Topic Maps sind Qualität bezogen auf den Umfang der Topic Map. Tatsächlich sind Topic Maps normalerweise sehr groß und umfangreich, da sie Tausende von Topics und Assoziationen enthalten können. Diese große Menge an Informationen und Komplexität kann zu einer schlechten Organisation der Topic Map führen, so dass die Suche nach Informationen mithilfe der Topic Map-Struktur eine sehr schwierige Aufgabe ist und Benutzer nicht leicht finden können, was sie wollen. Um das Volumen der Topic Map zu verwalten, schlagen wir in diesem Zusammenhang eine dynamische Bereinigungsmethode vor, wenn wir die Topic Map anzeigen, indem wir eine Liste von Meta-Eigenschaften definieren, die jedem Thema zugeordnet sind. Die erste Meta-Eigenschaft stellt den Topic-Score dar, der seine Relevanz im Zeitverlauf widerspiegelt, und die zweite Meta-Eigenschaft gibt an, zu welcher Ebene das Thema in der Topic Map gehört.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24443-8_7 2a639486df603c373d51a4bc1e0242cb;de;;;7.2.;;;Ein neuartiger Ansatz des Process Mining mit Event Graph Moderne Unternehmen bewegen sich bei der Modellierung ihrer Geschäftsprozesse zunehmend in Richtung des Workflow-Paradigmas. Ein vorherrschender Ansatz setzt auf Process Mining, das darauf abzielt, Workflow-Modelle aus Protokolldateien zu entdecken, die umfangreiche Prozessinformationen enthalten. Die entdeckten Prozessmodelle werden dann verwendet, um Informationssysteme für das Workflow-Management zu modellieren und zu entwerfen. Obwohl Workflow-Protokolle umfangreiche Informationen enthalten, wurden sie in vielen bestehenden Modellierungsformalismen wie Petri-Netzen nicht vollständig genutzt. In diesem Papier schlagen wir einen neuartigen Ansatz für Process Mining vor, der Ereignisgraphen verwendet, um verschiedene prozessbezogene Informationen zu integrieren. Die Analyse wird durchgeführt, um die Vorteile von ereignisgraphbasierten Modellen im Vergleich zu Petri-Netzen aufzuzeigen. Es wird auch eine Fallstudie berichtet, um den gesamten Bergbauprozess zu veranschaulichen. Schließlich wird eine vorläufige Bewertung durchgeführt, um die Vorzüge unserer Methode in Bezug auf Präzision, Verallgemeinerung und Robustheit aufzuzeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15387-7_17 b1318f7c2db1cc04de314bfda888141b;de;;;7.2.;;;Linguistische Zusammenfassungen von Zeitreihen: Zu einigen zusätzlichen datenunabhängigen Qualitätskriterien Wir erweitern unseren Ansatz zur linguistischen Zusammenfassung von Zeitreihen (vgl. Kacprzyk, Wilbik und Zadrożny), bei dem ein auf einem Kalkül linguistisch quantifizierter Aussagen basierender Ansatz verwendet wird und der Kern des Problems mit einer linguistischen Quantoren-getriebenen Aggregation gleichgesetzt wird von Teilwerten (Trends). Grundsätzlich präsentieren wir hier einige Umformulierungen und Erweiterungen unserer Arbeiten, hauptsächlich durch die Einbeziehung einer komplexeren Auswertung der erhaltenen sprachlichen Zusammenfassungen. Neben dem Grundkriterium eines Wahrheitsgrades (Gültigkeit) verwenden wir hier als zusätzliche Kriterien auch einen Grad an Ungenauigkeit, Spezifität, Unschärfe und Fokussierung. Aus Gründen der Einfachheit und Nachvollziehbarkeit verwenden wir jedoch in der ersten Aufnahme die Wahrheitsgrade (Gültigkeitsgrade) und den Fokus, die normalerweise den Raum möglicher linguistischer Zusammenfassungen erheblich reduzieren, und dann - für eine normalerweise viel kleinere Menge von linguistischen Zusammenfassungen erhalten - Wir verwenden die verbleibenden drei Grade von Ungenauigkeit, Spezifität und Unschärfe, um eine endgültige Auswahl geeigneter linguistischer Zusammenfassungen zu treffen. Wir zeigen eine Anwendung zur absoluten Performanceanalyse von Tagesnotierungen eines Investmentfonds.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10728-3_8 c3f45ad448cb29ad4fd942d8f9c3425f;de;;;7.2.;;;3D-Visualisierung und multimodale Interaktion mit zeitlichen Informationen mithilfe von Zeitleisten Dieser Beitrag berichtet über das Design, die Entwicklung und die Evaluierung von TimeViewer, einem System, das die Speicherung, Visualisierung und multimodale Interaktion mit zeitlichen und semantischen Informationen mithilfe von Zeitleisten in 3D-Umgebungen ermöglicht. Wir konzentrieren uns auf die Anwendung interaktiver 3D-Zeitlinien zur zeitlichen Informationsvisualisierung und erweitern deren Fähigkeiten um das neuartige Konzept eines Zeittunnels. Unsere Arbeit zielt darauf ab, über den aktuellen Stand der Technik hinaus die Interaktion mit 3D-Umgebungen unter Verwendung einer Vielzahl von Eingabemodi wie Berührung und kinästhetischer Ganzkörperinteraktion zu untersuchen. Qualitative Ergebnisse wurden durch eine Evaluation mit 16 Benutzern erhoben, um die Meinung der Benutzer zum System, die Effizienz der angebotenen Interaktionen und direkte zukünftige Forschungen in diesem Bereich zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40477-1_13 80afbd61e1f4c3547bd33b50a28aa035;de;;;7.2.;;;Andere Computational Intelligence-Themen Der Lernprozess eines Perceptron-Netzwerks, bei dem die Netzwerkverbindungsstärken systematisch so modifiziert werden, dass sich die Antwort des Netzwerks der gewünschten Antwort fortschreitend annähert, kann als nichtlineares Optimierungsproblem strukturiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-2247-8_3 5e3f67ab046e13540a7a9e44dd3faf19;de;;;7.1.;;;Änderungsmanagement in e-Infrastrukturen zur Unterstützung von Service Level Agreements Service Level Agreements (SLAs) sind ein gängiges Instrument, um den Verantwortungsbereich zusammenarbeitender Organisationen abzugrenzen. Sie sind für eine Vielzahl von industriellen und geschäftlichen Anwendungen unverzichtbar. Allerdings haben SLAs bisher nicht viel Aufmerksamkeit von Forschungsorganisationen erhalten, die zusammenarbeiten, um umfassende und nachhaltige Computerinfrastrukturen oder e-Infrastrukturen (eIS) bereitzustellen, um die europäische wissenschaftliche Gemeinschaft zu unterstützen. Da viele eIS-Projekte ihren Entwicklungsstand verlassen haben und mittlerweile hochgradig ausgereifte Dienste anbieten, wird der Aspekt des IT-Service-Managements relevant.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29740-3_15 0b6e5a92c818eb82b430493beb0f831f;de;;;7.1.;;;Design des Netzwerkplattform-Schemas basierend auf einem umfassenden Informationsaustausch über die charakteristische Landwirtschaft der Stadt Zigong Ein Netzwerkplattform-Schema zielt auf die charakteristische Landwirtschaft der Zigong City ab, die der Aktualität der charakteristischen Landwirtschaft, den Anforderungen des umfassenden Informationsaustauschs und dem Status der Netzwerktopologie der Stadt entspricht. In dem Schema werden viele Lösungen angegeben, wie z. Schließlich werden die Leistungsfähigkeit und Sicherheit des Netzwerkschemas analysiert und zusammengefasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18333-1_64 fedcaf8fe96185bdd6efbdcb72b2d0d4;de;;;7.1.;;;Design und Implementierung eines Materialversorgungssystems basierend auf B/S und C/S Mixed Mode Um den Managementmodus der Unternehmensproduktionslogistik in Kombination mit der JIT-Ideologie des schlanken Logistikmanagements zu verbessern und zu optimieren, wurde in dem Papier ein neuer Logistikverteilungsmodus eingeführt, der bei unzureichenden Materialien die Materialverteilung durch direktes Senden von Materialbedarfsanweisungen vorantreibt. Mit .NET technisch konzipiert und realisiert es ein Pull-basiertes Materialversorgungssystem basierend auf B/S und C/S Mixed Mode, dessen Modellierung, Funktionen sowie die Schlüsseltechnologien detailliert beschrieben wurden. Das System wurde in einer Montageindustrie in die Praxis umgesetzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34531-9_10 04f71419fa8a8d995f6cc9ee8d60aa1d;de;;;7.1.;;;Instandhaltungsentscheidungsprozess – Eine Fallstudie eines Personenbeförderungsunternehmens Im vorliegenden Papier konzentriert sich die Forschungsarbeit der Autoren auf die Analyse der Leistung von Instandhaltungsentscheidungsprozessen unter Berücksichtigung der notwendigen Betriebsdatenverfügbarkeit. Daher werden im Abschnitt Einführung die Wartungsprobleme von Transportsystemen beschrieben. Später wird eine umfassende Literaturübersicht im analysierten Forschungsgebiet bereitgestellt. Dies gibt die Möglichkeit, den Entscheidungsprozess im Instandhaltungsmanagementbereich der Verkehrssysteme darzustellen. Später, im nächsten Abschnitt, wird die Fallstudie zur Leistung von Instandhaltungsmanagementprozessen in ausgewählten Personenbeförderungsunternehmen untersucht. Anschließend werden die zur betrieblichen Datenerhebung eingesetzten Computersysteme charakterisiert und die Datenverfügbarkeit untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19216-1_29 59ee8d80c26756067c42c2f043675164;de;;;7.2.;;;Eine Analyse der Informationsvisualisierung Philosophen haben sich spätestens seit Platon auf visuelle Metaphern verlassen, um Ideen zu analysieren und ihre Theorien zu erklären. Descartes ist berühmt für sein Achsensystem und Wittgenstein für seinen ersten Entwurf von Wahrheitstabellendiagrammen. Heute ist Visualisierung eine Form des „computergestützten Sehens“ von Informationen in Daten. Daher sind Informationen die grundlegende „Währung“, die über eine Visualisierungspipeline ausgetauscht wird. In diesem Artikel untersuchen wir die Arten von Informationen, die in verschiedenen Phasen einer allgemeinen Visualisierungspipeline auftreten können. Wir tun dies aus quantitativer und qualitativer Sicht. Die quantitative Analyse basiert auf der Informationstheorie von Shannon. Die qualitative Analyse wird auf Basis von Floridis Taxonomie in der Informationsphilosophie entwickelt. Anschließend diskutieren wir ausführlich, wie die Bedingung der „Datenverarbeitungsungleichheit“ in einer Visualisierungspipeline durchbrochen werden kann. Dieser theoretische Befund unterstreicht die Nützlichkeit und Bedeutung der Visualisierung im Umgang mit dem zunehmenden Problem der Datenflut. Wir zeigen, dass das Thema Visualisierung sowohl qualitativ als auch quantitativ untersucht werden sollte, vorzugsweise in einer interdisziplinären Synergie zwischen Informationstheorie und Informationsphilosophie.;-;-;-;https://link.springer.com/article/10.1007/s11229-012-0183-y 164f31134abf3df018f030100fe0d682;de;;;7.2.;;;Bewertung der Überlebensfähigkeit in großen mobilen Ad-hoc-Netzwerken Überlebensfähigkeit bezieht sich auf die Fähigkeit eines Netzwerksystems, kritische Dienste rechtzeitig für Endbenutzer bei Ausfällen und/oder Angriffen zu erfüllen. Um ein System mit hoher Überlebensfähigkeit zu etablieren, ist es notwendig, seine Überlebensfähigkeit zu messen, um die Leistung der Dienste des Systems unter widrigen Bedingungen zu bewerten. Entsprechend den Überlebensanforderungen großer mobiler Ad-hoc-Netzwerke (MANETs) schlagen wir ein neuartiges Modell zur quantitativen Bewertung der Überlebensfähigkeit vor. Das vorgeschlagene Modell berücksichtigt verschiedene Arten von Fehlern und Verbindungszuständen mobiler Hosts und verwendet die zeitkontinuierliche Markov-Kette (CTMC), um die Überlebensfähigkeit von MANETs präzise zu beschreiben. Wir stellen die Zuverlässigkeitstheorie vor, um eine quantitative Analyse und Überlebensfähigkeitsbewertung von Segment-für-Segment-Routing (SSR), mehrpfadbasiertem Segment-für-Segment-Routing (MP-SSR) und segmentweisem Mehrpfad-Routing (SS -MPR) in groß angelegten MANETs. Mit dem vorgeschlagenen Modell lässt sich die Netzleistung viel einfacher analysieren als mit einem simulationsbasierten Ansatz. Die numerische Validierung zeigt, dass das vorgeschlagene Modell verwendet werden kann, um ein besseres Bewertungsergebnis zur Überlebensfähigkeit von großskaligen MANETs zu erhalten.;-;-;-;https://link.springer.com/article/10.1007/s11390-009-9260-1 6fed46e0feef31d2322ae3f19a7ecfc9;de;;;7.2.;;;Blockdiagonaler Ansatz zur nicht-negativen Faktorisierung von spärlichen linguistischen Matrizen und Tensoren extragroßer Dimension unter Verwendung der latenten Dirichlet-Verteilung Dieser Artikel beschreibt Algorithmen zur nicht-negativen Faktorisierung von dünn besetzten Matrizen und Tensoren, die eine beliebte Technologie in der künstlichen Intelligenz im Allgemeinen und in der Computerlinguistik im Besonderen ist. Es wird vorgeschlagen, die latente Dirichlet-Verteilung zu verwenden, um Matrizen und Tensoren auf eine Blockdiagonalform zu reduzieren, um Berechnungen zu parallelisieren und die nicht-negative Faktorisierung von linguistischen Matrizen und Tensoren extrem großer Dimension zu beschleunigen. Das vorgeschlagene Modell ermöglicht es auch, Modelle mit neuen Daten zu ergänzen, ohne von Anfang an eine nicht negative Faktorisierung des gesamten sehr großen Tensors durchzuführen.;-;-;-;https://link.springer.com/article/10.1007/s10559-018-0087-z 8b0ac00736e2684b50f59609a2e82d4d;de;;;7.2.;;;Einführung eines Informationssystems zur erfolgreichen Unterstützung der selektiven Aufmerksamkeit in Online-Kursen Menschliche Lernprozesse hängen stark von der Aufmerksamkeit jedes einzelnen Lernenden ab. Aus diesem Grund ist jede Messung, die dazu beiträgt, die Aufmerksamkeit der Schüler zu steigern, von großer Bedeutung. Bislang gibt es einige Entwicklungen namens Audience-Response-Systeme, die nur für die Präsenzschulung auch für Massen verfügbar sind. In dieser Publikation stellen wir ein webbasiertes Informationssystem vor, das auch für Online-Systeme nutzbar ist. Die Aufmerksamkeit der Studierenden wird durch verschiedene Interaktionsformen während des Livestreams einer Vorlesung gewahrt. Die Evaluation zeigte, dass das System dazu beiträgt, die Aufmerksamkeit jedes einzelnen Teilnehmers zu erhöhen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39194-1_18 64e5d440d0af21398b766ddc1ccded68;de;;;7.2.;;;Agentenbasierte Architektur für flexibles Design, Analyse und Bewertung von Lean Cells Wir präsentieren eine Agentenarchitektur zur Unterstützung von schlanken Abläufen über die Fertigungslieferketten hinweg. Unsere Architektur adressiert das Problem des heterogenen Informationsmanagements, die Notwendigkeit der Analyse gemischter Fertigungsansätze und die Kompromisse zwischen Effizienz und Genauigkeit von Analysemethoden. Wir schlagen fünf verschiedene Schichten vor, um diese Anforderungen zu erfüllen: eine XML/RDF/DAML-Informationszugriffsschicht, eine Ressourcenvektor-Repräsentationsschicht, eine Analyseschicht, eine Koordinationsschicht und eine Visualisierungsschicht. Unsere erfolgreichen Ergebnisse bei der Entwicklung von Agentensystemen zur Unterstützung des schlanken Fertigungszellen- und Lieferkettenmanagements bestätigen unseren mehrschichtigen Ansatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35412-5_21 c041a16cb10fca4a778916213522edc5;de;;;7.2.;;;Bewertung kollaborativer Unternehmensnetzwerke: Fallstudie zu brasilianischen virtuellen Unternehmen Die Not der sogenannten neuen digitalen Wirtschaft mit der intensiven Verbreitung der Informations- und Telekommunikationstechnologien hat in den letzten Jahren eine Revolution in der Geschäftswelt hervorgerufen und die Wege und Strategien der Unternehmen trotz der Art ihrer Produkte, Märkte und Prozesse. Somit werden die Organisationsnetzwerke zu einer alternativen Möglichkeit, die Produktion von Gütern und Dienstleistungen zu organisieren und können von den Unternehmen zur Verbesserung ihrer Wettbewerbsposition genutzt werden. Ziel dieses Artikels ist es, das Konzept virtueller Unternehmen als dynamische kollaborative Netzwerke anhand einiger Fälle in anderen Ländern aufzuzeigen, das Verhalten von kollaborativen Netzwerken zu untersuchen und die Erfahrungen ausländischer virtueller Unternehmen mit einigen brasilianischen zu vergleichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14341-0_3 75a33e0864313b117de75048e84e8c29;de;;;7.1.;;;Vergleich dreier formaler Analyseansätze der Tropos-Familie Tropos ist eine Softwareentwicklungsmethodik, die auf Konzepten basiert, die verwendet werden, um frühe Anforderungen zu modellieren, das i*-Framework. Neben einem methodischen Rahmen befasst sich die Forschung auch mit der formalen Analyseunterstützung. In früheren Arbeiten haben wir die prototypische Umgebung SNet basierend auf dem Trust-Confidence-Distrust (TCD)-Ansatz für die Darstellung und dynamische Bewertung von agentenbasierten Designs für interorganisationale Netzwerke vorgeschlagen. Es gibt zwei wesentliche Bestandteile: i* für die statische Modellierung der Domäne und ConGolog für die dynamische Analyse über Simulationen. In diesem Papier vergleichen wir unseren Ansatz mit zwei anderen Ansätzen, die i*/Tropos-Modelle bereichern, um formalere Analysen zu ermöglichen, Formal Tropos und Secure Tropos. Obwohl der beabsichtigte Einsatz von SNet ziemlich unterschiedlich ist, gibt es eine Reihe von Gemeinsamkeiten, die hervorgehoben werden, sowie die Unterschiede, die eine kombinierte Verwendung nahelegen, einschließlich komplementärer Analyseformen wie Model Checking versus Simulation.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77990-2_10 3c007bd88b2db6bedc23afd342786ab2;de;;;7.2.;;;Ein informationstheoretischer Ansatz zur Reizverarbeitung im olfaktorischen System Biologische Kommunikations- und Informationssysteme haben sich über Jahrmillionen entwickelt. Obwohl sie unter anderen Entwurfskriterien optimiert wurden als die neueren künstlichen technischen Kommunikationssysteme, unterliegen beide den gleichen informationstheoretischen Prinzipien. Der Zweck dieses Vorschlags ist es, handhabbare Kanalmodelle zu entwerfen, die den Informationsfluss und die Signalverarbeitung durch zelluläre und neuronale Einheiten beschreiben. In der Biologie werden Kanäle durch die Übertragung miteinander verflochtener chemischer und elektrischer Reize gebildet. Ein typisches, aber immer noch handhabbares Beispiel ist das Riechsystem von Säugetieren. Mäuse werden als Modell verwendet, um die Grundprinzipien des Informationsaustauschs zwischen sensorischen Neuronen und dem Gehirn mit informationstheoretischen Mitteln zu erforschen. Massive Parallelität, optimale Quantisierung und Informationsfusion werden wichtige Herausforderungen sein, die es zu bewältigen gilt. Das Endziel dieses Vorschlags ist zweierlei. Zunächst werden Biologen analytische Modelle zur Verfügung gestellt, um bestimmte Aspekte neuronaler Prozesse auf rein numerischer Basis zu simulieren. Zweitens wird die Funktionsweise biologischer Übertragungswege erforscht, die Grundprinzipien isoliert und nützliche Eigenschaften auf technische Kommunikationssysteme übertragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-54729-9_16 3c4f90d9366fd0c9ad1aa644317a9dc8;de;;;7.1.;;;Individuelle und gesellschaftliche Auswirkungen von Datenverarbeitung und Büroautomatisierung in Dienstleistungsbranchen In den letzten zwanzig Jahren haben wir tiefgreifendere Veränderungen der Arbeitsbedingungen in Dienstleistungsbranchen (z. B. Banken, Versicherungen usw. Darüber hinaus wissen wir, dass die nächsten zehn Jahre noch tiefgreifendere Veränderungen bringen werden. Diese Veränderungen sind in erster Linie auf die triviale Tatsache zurückzuführen, dass das einzige Produkt in diesem Sektor Informationen sind. Ohne groß auf die Informationstechnologie einzugehen, möchten wir einige Aspekte der Entwicklungen der Informationstechnologie zusammenfassen, die für die Berufssituation von Kaufleuten und mittleren Führungskräften am wichtigsten erscheinen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-70453-6_10 266636a280cbadd4ee37ae5d15ded0b7;de;;;7.1.;;;Informationsmodellierung und -abfrage in Hypermedia-Systemen Bei der ersten Generation von Hypermedia-Systemen lag das Hauptaugenmerk auf der Flexibilität der Informationsorganisation und dem einfachen Navigationszugriff. Insbesondere wurde diese Art der Interaktion im Gegensatz zu traditionellen Information-Retrieval-Systemen, die auf formalen Abfragesprachen basieren, hervorgehoben. Leider wurden die Grenzen des Browsing-Paradigmas bei der Annäherung an reale und große Hypermedia-Anwendungen schnell erkannt und so wurde in der Literatur häufig über die bekannten Probleme der Desorientierung und des kognitiven Overheads berichtet und diskutiert [18]. Um solche Probleme zu mildern, wurden Suchmöglichkeiten für Hypertexte mehr oder weniger integriert hinzugefügt. Dies hat zur Folge, dass inhaltsbasierte Anfragen gestellt und direkt ausgewertet werden können, was eine sofortige Antwort auf eine Anfrage ergibt, während eine Browsersitzung lange dauern kann, bis sie zum Ziel konvergiert oder gar nicht konvergiert. Das Problem bleibt weiterhin, dass solche Abfragen die Struktur von Informationen nicht berücksichtigen und keine verknüpften Informationssammlungen aufgrund der Angabe ihrer Struktur sowie ihres Inhalts abrufen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-1373-1_6 380283965535722281c1d0360f146ce2;de;;;7.1.;;;Erforschung der Produktmodellfunktionstestplanung mit Informationstechnologie Dieses Papier verwendet die Methode der Planung und Definition eines analytischen Modells von Produktnummern, Entitätsmodellen, Testmodellen und Leistungszielen des Systemprototyps wurde verwendet, um im Laufe der Forschung die Forschung zu Art, Funktion, Wert des Modells fortzusetzen und Entwicklung von Produkten. Während der Prototypherstellung stellt sich heraus, dass es notwendig ist, die Ziele und Aufgaben verschiedener Modelle zu bestimmen, den ungefähren Abstand zwischen den Modellen und den realen Produkten zu bewerten, einen Modellleistungstestplan zu entwickeln, das Schlüsselzeitberichtsformular für Modellmontage. Die Ergebnisse zeigen, dass je nach Stand der Forschung und Entwicklung von Produkten eine rechtzeitige Bewertung, die rationelle Anpassung der verschiedenen Modelltypen, Funktion und Wert sowie die Implementierung eines angemessen kurzen, anpassungsfähigen und schnellen Produktentwicklungsmodells die Effizienz erheblich verbessern können Produktentwicklung und verkürzen den Produktentwicklungszyklus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23345-6_67 092e2cf4e385a23988b6cc19e7af56d2;de;;;7.1.;;;Der Weg zur SOX-Compliance bei Trinity Industries Prozess- und informationstechnische Veränderungen in Organisationen sind nicht immer freiwillig und durch strategische Ziele motiviert. Stattdessen können sie Organisationen von Regulierungsbehörden und Zertifizierungsstellen auferlegt werden. Dieser Lehrfall konzentriert sich auf die mehrjährige Reise eines Unternehmens, Prozess- und Informationstechnologieänderungen vorzunehmen, um ein neues Regelwerk, bekannt als Sarbanes-Oxley Act (SOX), zu erfüllen. Auch wenn sich die SOX-Compliance-Arbeit auf das Entwerfen, Implementieren und Testen interner Kontrollen konzentriert, sind diese Kontrollen nichts anderes als Aktivitäten, die sicherstellen sollen, dass die Prozesse im Zusammenhang mit der Erstellung von Finanzinformationen korrekt abgeschlossen werden und die von ihnen generierten finanziellen Darstellungen zuverlässig sind. Somit bietet dieser Lehrfall trotz seiner Betonung auf interne Kontrollen, Rechnungswesen und Revision den Studierenden Einblicke in die Compliance-bezogene Prozessverbesserung und Systemintegration im Allgemeinen.;-;-;-;https://link.springer.com/article/10.1057/jittc.2011.11 6be1825aab0a89bd82b5239c0bcffd40;de;;;7.1.;;;Eine neue Ära: Überwindung potenzieller Konflikte zwischen Marketingmanagement und MIS Um organisatorische Ziele zu erreichen, müssen Marketingmanager mit Führungskräften aus anderen Geschäftsfunktionen zusammenarbeiten. Trotz dieser bekannten Prämisse erleben viele moderne und profitable Unternehmen ernsthafte Konflikte zwischen Marketing und anderen Unternehmensabteilungen. Frühere Autoren (Kotler 1978 und Shapiro 1977) haben sich mit abteilungsübergreifenden Rivalitäten zwischen Marketing und: Produktion, Forschung und Abteilungs- und Öffentlichkeitsarbeit beschäftigt. Diese Autoren zeigten, wie einzigartig jede dieser berichteten Geschäftsfunktionen war und wie sich Rivalitäten zwischen den Gruppen mit dem Marketing entwickelten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16946-0_76 6f1f9dba408a67891307dc7077cd8b08;de;;;7.1.;;;Technologiemanagement in der Digital Manufacturing Science Der grundlegende Prozess der digitalen Fertigung ist das Design, die Simulation und die Herstellung von Produkten in einer digitalen Umgebung. Das heißt, wenn Sie einen Auftrag erhalten, vervollständigen Sie zunächst die Konzeption und das Gesamtdesign. Beenden Sie dann die Computersimulation oder den Rapid Prototyping-Prozess. Bis die technische Planung Engineering, CAM- und CAQ-Prozess abgeschlossen ist und das Produkt schließlich entsteht. Der obige Prozess ist nicht nur ein einfacher Herstellungsprozess, sondern ein komplexes System, das sich auf zahlreiche Glieder bezieht. Daher müssen traditionelle Fertigungsunternehmen ein neues Organisations- und Managementmodell etablieren, um sich an den digitalen Fertigungsprozess anzupassen. In einem digitalen Unternehmen sollte ein perfektes Wettbewerbssystem von Märkten etabliert werden, um die Wettbewerbskraft des Unternehmens zu stärken. Unter diesem Wettbewerbssystem kann das Unternehmen gemäß den sich ständig ändernden Marktinformationen und Kundenaufträgen und ausgehend von der Gesamtsituation und dem langfristigen Nutzen seinen Produktions- und Managementzustand bewerten, seinen zukünftigen Betriebsstatus vorhersagen, die Forschung und Entwicklung Strategie und Produktionsplan nach dem Entscheidungsmodell. Um diese Funktionen zu erreichen, wird das Technologiemanagement zu einer der grundlegenden Theorien der digitalen Fertigungswissenschaft.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-85729-564-4_7 385677751ba4d5f564fb67f5d07e9b66;de;;;7.1.;;;Berechnung der Zusammensetzungsspezifikation für die Entwicklung von Informationssystemen Der Beitrag stellt einen neuartigen Ansatz für die Manipulation von Typspezifikationen als grundlegende Operationen vor, mit denen verschiedene Formen von Kompositionen in Informationssystemen entwickelt werden sollen. Darunter sind interoperable Kompositionen von bereits existierenden Komponenten, die während des Informationssystemdesigns gebildet wurden, heterogene Multidatenbankkompositionen, Datenbankschema- und Ontologieintegration, Kompositionen von Arbeitsabläufen, Kompositionen vom Typ des Ergebnisses algebraischer Operationen über typisierte Datensammlungen. In der Arbeit wird der kompositorische Spezifikationskalkül im Kontext einer solchen Anwendung vorgestellt – der Entwicklung von Kompositionsinformationssystemen. Das Prinzip der Zerlegung von Typspezifikationen in eine Sammlung von Typreduktionen, die als Wiederverwendungs- und Zusammensetzungseinheiten dienen, wird formuliert. Es wird ein Vorgang definiert, bei dem die gängigste Reduzierung für Komponenten und die Spezifikation von Anforderungstypen vorgenommen werden. Die Veredelungseigenschaft des gemeinsamen Reduktes führt zu einer berechtigten Identifizierung von wiederverwendbaren Bauteilfragmenten. Typgitter und Algebra basierend auf einem teilweise geordneten Satz vollständiger Typspezifikationen und das Typkommunalitätsprinzip werden definiert. Typspezifikationskompositionsoperationen der Algebra basieren auf der Identifizierung gemeinsamer Informationen in den zusammengesetzten Spezifikationen. Das Papier präsentiert eine Kombination von semi-formalen und formalen Modellierungseinrichtungen, um nachweislich korrekte Operationen der gemeinsamen Reduktionsidentifikation, der Zusammenstellung von Typenspezifikationen und der Wiederverwendung durchzuführen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48252-0_24 bdea22d3c03f3825b5aeb991bdd53b0e;de;;;7.1.;;;High Resolution Supply Chain Management – ​​Auflösung des Polylemmas der Produktion durch Informationstransparenz und organisatorische Integration High Resolution Supply Chain Management (HRSCM) zielt darauf ab, den Trend einer ständig steigenden Planungskomplexität zu stoppen. Unternehmen in Hochlohnländern streben heute meist mit ausgeklügelten, kapitalintensiven Planungsansätzen nach einer weiteren Optimierung ihrer Prozesse [3]. Die flexible Anpassungsfähigkeit an sich dynamisch ändernde Bedingungen wird durch die starre und zentralisierte Planungslogik eingeschränkt. So wird Flexibilität derzeit durch teure Lagerbestände und Überkapazitäten erreicht, um Liefer- oder Lieferterminverschiebungen zu bewältigen. HRSCM beschreibt die Herstellung einer lückenlosen Informationstransparenz in Lieferketten mit dem Ziel, die Warenverfügbarkeit durch dezentrale, selbstoptimierende Regelkreise für die Produktionsplanung und -steuerung (PPS) sicherzustellen. HRSCM verfolgt damit die Idee, dass sich Organisationsstrukturen und Prozesse an dynamische Bedingungen anpassen können. Basis für dieses neue PPS-Modell sind stabile Prozesse, konsequente Kundenorientierung, erhöhte Kapazitätsflexibilität und das Verständnis von Produktionssystemen als tragfähige, sozio-technische Systeme [1, 2].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16358-6_41 417fce52d982a14f4269420a3ed46ba6;de;;;7.2.;;;Die Verwendung von ökonomischen Klassifikatoren zur Erschließung wissenschaftlicher Publikationen Dabei werden die Erfahrungen aus der Anwendung des OKVED 2-Wirtschaftsklassifikators zur Erschließung wissenschaftlicher Publikationen berücksichtigt. Mehr als 9500 Artikel zum Thema „Automatisierung. Computer Engineering“ in maßgeblichen russischen Zeitschriften waren das Material für die Studie. Einige Mittel zur vergleichenden Analyse von Wirtschaftsstatistiken und Ergebnisse der Klassifikation wissenschaftlicher Publikationen werden aufgezeigt.;-;-;-;https://link.springer.com/article/10.3103/S0147688215040115 b3a248835339723b0c735204cb0e98c2;de;;;7.2.;;;Hier oder dort Information-Retrieval-Systeme werden traditionell nach absoluten Relevanzbeurteilungen bewertet: Jedes Dokument wird für sich allein auf Relevanz beurteilt, unabhängig von anderen Dokumenten, die möglicherweise zum Thema gehören. Wir stellen die Hypothese auf, dass Präferenzurteile der Form „Dokument A ist relevanter als Dokument B“ für Assessoren leichter zu treffen sind als absolute Urteile und belegen unsere Hypothese durch eine Studie mit Assessoren. Anschließend untersuchen wir Methoden zur Bewertung von Suchmaschinen anhand von Präferenzurteilen. Darüber hinaus zeigen wir, dass wir durch die Verwendung von Inferenzen und geschickter Auswahl von Paaren zur Beurteilung nicht alle Paare von Dokumenten vergleichen müssen, um Bewertungsmethoden anzuwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78646-7_5 ed0294c7ba2a37b905e6ac51f5529eab;de;;;7.2.;;;Whistle for music: Verwendung von Melodietranskription und ungefährem String-Matching zur inhaltsbasierten Abfrage über eine MIDI-Datenbank In diesem Beitrag stellen wir ein „Whistle for Music“-System vor, das es Benutzern ermöglicht, Musik im MIDI-Format durch Pfeifen eines Melodiefragments abzurufen. Drei wesentliche Komponenten sind die Abfrageverarbeitung, die MIDI-Vorverarbeitung und eine ungefähre Suchmaschine. Für die Abfrageverarbeitung haben wir einen Echtzeit- und robusten Whistle-to-MIDI-Konverter erreicht. Zur Merkmalsextraktion kann die vorgeschlagene MIDI-Vorverarbeitung individuelle, lokale und globale Melodiebeschreibungen aus MIDI-Dateien extrahieren. Um die Suchanfrage mit dem Ziel abzugleichen, erweitern wir eine bestehende Suchmaschine zu einer schnellen ungefähren melodischen Matching-Engine. Basierend auf der Integration dieser drei Komponenten kann das System eine Liste von MIDI-Dateien zurückgeben, die nach ihrer Übereinstimmung mit dem Pfeifen geordnet sind. Abschließend erfolgt die systematische Auswertung für das Query-by-Whistling-System. Die Ergebnisse zeigen, dass sorgfältige Messungen und objektive Vergleiche dazu führen können, den Skalierungstrend von Anfrage und Ziel zu kennen. Erfreulich ist, dass anhand der Bewertungsmethoden die Leistung vorhergesagt werden kann.;-;-;-;https://link.springer.com/article/10.1007/s11042-007-0128-5 a9eac55e10c3b42dc5ec9eee4e7804f0;de;;;7.2.;;;Tags für Online-Fotos empfehlen lernen Das Empfehlen von Text-Tags für Online-Fotos ist für Online-Fotodienste nützlich. Wir schlagen einen neuartigen Ansatz zur Tag-Empfehlung vor, indem wir sowohl die zugrunde liegende semantische Korrelation zwischen visuellen Inhalten und Text-Tags als auch die aus realistischen Online-Fotos gewonnene Tag-Popularität nutzen. Wir wenden unseren Ansatz auf eine Datenbank mit echten Online-Fotos an und bewerten ihre Leistung sowohl durch objektive als auch durch subjektive Bewertungen. Experimente zeigen die verbesserte Leistungsfähigkeit des vorgeschlagenen Ansatzes im Vergleich zu den Stand der Technik in der Literatur.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-0056-2_29 17daea8a6cd25b955b0a77b5ecf27a42;de;;;7.2.;;;Englische Grammatik als Satzmodell für die konzeptionelle Modellierung mit NIAM Sätze in natürlicher Sprache, die während der konzeptionellen Modellierung von NIAM entstehen, werden grammatikalisch analysiert, wobei eine funktionale, beschreibende Grammatik des Englischen verwendet wird. Der grammatikalische Ansatz kann Objekttypen aufdecken, die der Analytiker ansonsten übersehen könnte. Einige unerwünschte NIAM-Rollenbenennungspraktiken werden hervorgehoben. Es wird betont, wie wichtig es ist, in jedem Faktentyp genau ein Verb zu haben. Es wird vorgeschlagen, dass die Verbalisierung zur Validierung konzeptioneller Schemadiagramme durch die Verwendung grammatikalischer Analyse während der Schemaerstellung verbessert werden kann. Es wird gezeigt, dass viele Satzkomponenten eine einfache Zuordnung zu NIAM-Schemaelementen haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34870-4_17 07d962783e9b0787bc346efb8a93a70d;de;;;7.2.;;;Förderung von Grundlagenforschung nach szientometrischen Kriterien Die Frage der Finanzierung der Grundlagenforschung wird untersucht. Öffentliche Fördermodelle für Forschungseinrichtungen werden vorgestellt. Ein neuer Ansatz zur Bewertung möglicher Themenbereiche auf Basis bibliometrischer und webometrischer Indikatoren wird eingeführt. Die Architektur des staatlichen Systems wissenschaftlicher und technischer Informationen wird diskutiert. Szientometrische Methoden bieten ein Instrument zur Lösung der Infrastrukturprobleme der russischen Wissenschaft.;-;-;-;https://link.springer.com/article/10.3103/S0147688218030024 d1b1efe57297b4e193409c0f41f75415;de;;;7.2.;;;Verlaufsabhängige Inferenzkontrolle von Abfragen durch dynamische Richtlinienanpassung Die richtlinienbasierte Inferenzsteuerung von Anfragen, die an ein logikorientiertes Informationssystem gesendet werden, erfordert, dass wir die Historie von Anfragen und Antworten an einen bestimmten Benutzer berücksichtigen. Bei den meisten früheren Ansätzen erfasst das Steuersystem die Historie, indem es eine fiktive Ansicht aufrechterhält, die der Benutzer durch Ausnutzung rationaler Argumentation erzeugen soll. In diesem Beitrag schlagen und untersuchen wir eine alternative Möglichkeit zur Darstellung der Historie, nämlich durch eine geeignete Anpassung der Vertraulichkeitspolitik nach einer Antwort auf eine Anfrage. Grundsätzlich rechnet eine solche Politikanpassung alle relevanten Schritte des formalen Beweises vor, dass die fiktive Sichtweise logischerweise ein Politikelement impliziert. Wir konzentrieren uns auf propositionale Informationssysteme.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22348-8_10 a4f5c772ce16e2adb59d917714976af0;de;;;7.2.;;;Ähnlichkeitsbewertung basierend auf Intuitionistic Fuzzy Set für die Auswahl von Service-Clustern als Cloud-Service-Kandidat Cloud Manufacturing (CMfg) bietet neue Möglichkeiten für die Servitization und bettet eine Reihe von Funktionsmerkmalen ein, um die Zusammenarbeit zwischen verschiedenen Service Providern und ihren Ressourcen zu verbessern. Das Hauptziel besteht darin, eine dedizierte Fertigungs-Cloud zusammenzustellen, indem sie eine Reihe von Cloud-Diensten umfasst, um einen angeforderten Dienst herzustellen. CMfg ist ein junges Konzept, das jedoch in der akademischen und industriellen Forschung in China bereits weit verbreitet ist. Das Papier konzentriert sich zunächst auf den Hintergrund der Fertigungsumgebung, um seinen Zweck zu verstehen. Als Einführung wird daher das Konzept von CMfg diskutiert. Schließlich präsentieren wir eine Methode, die auf einem intuitiven Fuzzy-Set basiert, zur Ähnlichkeitsbewertung zwischen Cloud-Diensten und Dienst-Clustern. Das Ziel besteht darin, den besten Service-Cluster zu finden, um zusammengesetzte Ressourcenservices als Cloud-Service-Kandidaten bereitzustellen. Unsere Methode ist ABC (Artificial Bee Colony) optimiert und ihre Leistung wird durch Experimente diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36796-0_5 9bee14de00c4ad66b700930fc6fa8c5e;de;;;7.2.;;;Zeitbewusste Empfehlungssysteme: eine umfassende Übersicht und Analyse vorhandener Bewertungsprotokolle Die Ausnutzung des zeitlichen Kontextes hat sich als effektiver Ansatz zur Verbesserung der Empfehlungsleistung erwiesen, wie z.B. beim Netflix-Preiswettbewerb. Zeitbewusste Empfehlungssysteme (TARS) finden in der Tat zunehmend Beachtung. Es wurde eine breite Palette von Ansätzen vorgeschlagen, die sich mit der Zeitdimension in der Benutzermodellierung und Empfehlungsstrategien befassen. In der Literatur jedoch scheinen die berichteten Ergebnisse und Schlussfolgerungen zur Einbeziehung und Nutzung von Zeitinformationen in die Empfehlungsprozesse teilweise widersprüchlich zu sein. Mit dem Ziel, bestehende Diskrepanzen zu klären und zu adressieren, präsentieren wir in diesem Papier eine umfassende Übersicht und Analyse des Stands der Technik zu TARS. Die Analyse zeigt, dass in den verwendeten Bewertungsprotokollen – Metriken und Methoden – bedeutsame Abweichungen auftreten. Wir identifizieren eine Reihe von Schlüsselbedingungen für die Offline-Evaluierung von TARS und bieten auf der Grundlage dieser Bedingungen eine umfassende Klassifizierung von Evaluierungsprotokollen für TARS. Darüber hinaus schlagen wir einen methodischen Beschreibungsrahmen vor, der darauf abzielt, den Bewertungsprozess fair und reproduzierbar zu gestalten. Wir präsentieren auch eine empirische Studie zum Einfluss verschiedener Bewertungsprotokolle auf die Messung der relativen Leistung bekannter TARS. Die erhaltenen Ergebnisse zeigen, dass unterschiedliche Verwendungen der obigen Bewertungsbedingungen zu bemerkenswert unterschiedlichen Leistungs- und relativen Rangwerten der Empfehlungsansätze führen. Sie zeigen die Notwendigkeit einer klaren Angabe der Bewertungsbedingungen, die verwendet werden, um die Vergleichbarkeit und Reproduzierbarkeit der berichteten Ergebnisse zu gewährleisten. Aus unseren Analysen und Experimenten schließen wir schließlich mit methodischen Fragen, die eine robuste Bewertung von TARS berücksichtigen sollten. Darüber hinaus bieten wir eine Reihe allgemeiner Richtlinien zur Auswahl geeigneter Bedingungen für die Bewertung bestimmter TARS.;-;-;-;https://link.springer.com/article/10.1007/s11257-012-9136-x 0d833322f0c210e567aa0d92f6cb3ad6;de;;;7.2.;;;Unausgewogenes Lernen in Relevanz-Feedback mit Biased Minimax Probability Machine für Bildabrufaufgaben In den letzten Jahren hat die Minimax Probability Machine (MPM) eine hervorragende Leistung bei einer Vielzahl von Mustererkennungsproblemen gezeigt. Gleichzeitig wurden verschiedene Methoden des maschinellen Lernens bei Relevanz-Feedback-Aufgaben im Content-based Image Retrieval (CBIR) eingesetzt. Eines der Probleme bei typischen Techniken für Relevanz-Feedback besteht darin, dass sie das relevante Feedback und das irrelevante Feedback gleich behandeln. Mit anderen Worten, die negativen Instanzen überwiegen die positiven Instanzen. Daher ist die Annahme, dass sie ausgewogen sind, falsch. In diesem Papier untersuchen wir, wie MPM auf die Bildsuche angewendet werden kann, genauer gesagt, Biased MPM während der Relevanz-Feedback-Iterationen. Wir formulieren das Relevanz-Feedback basierend auf einem modifizierten MPM namens Biased Minimax Probability Machine (BMPM). Im Gegensatz zu früheren Methoden steuert dieses Modell direkt die Genauigkeit der Klassifizierung der zukünftigen Daten, um verzerrte Klassifikatoren aufzubauen. Daher bietet es eine rigorose Behandlung von unausgewogenen Daten. Zur Verdeutlichung der Vorteile werden mathematische Formulierungen und Erläuterungen gegeben. Experimente werden durchgeführt, um die Leistung unseres vorgeschlagenen Rahmens zu bewerten, in dem ermutigende und vielversprechende experimentelle Ergebnisse erzielt werden.;-;-;-;https://link.springer.com/chapter/10.1007/11893028_39 096ba19cfe4e5e30c7ca47ce9798d7a6;de;;;7.1.;;;Review zur kollaborativen Entscheidungsfindung in der Lieferkette: Die Beziehung zwischen E-Collaboration-Technologie und Entwicklung von interorganisationalem Vertrauen In erfolgreichen Kooperationen in der Lieferkette sind effektive Kommunikation und die Entwicklung von interorganisationalem Vertrauen ein Schlüsselfaktor. Der Zweck dieser Literaturübersicht besteht darin, zunächst die bisherige Literatur zum Zusammenhang zwischen der Einführung von E-Collaboration-Technologie und Faktoren zu überprüfen, die die Entwicklung von Vertrauen in Lieferkettenkooperationen beeinflussen. Diese Studie ist wichtig, um die Fragen zu beantworten, ob die Einführung von E-Collaboration-Technologie das Vertrauen zwischen Organisationen bei der kollaborativen Entscheidungsfindung im Bereich der Lieferkette unterstützen oder behindern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33980-6_37 827a0f361fadf552716116279bc4e316;de;;;7.1.;;;Eine intelligente Abrufplattform für verteilte landwirtschaftliche Wissenschafts- und Technologiedaten Im Agrarbereich nimmt die Vielfalt der von Organisationen verwendeten Daten rapide zu. Außerdem besteht eine zunehmende Nachfrage nach dem Zugriff auf diese Daten. Nun verursacht das Problem der digitalen Kluft ernsthafte Probleme bei der Manipulation der verteilten Informationen. Ausgehend von dieser Bedingung präsentiert dieses Papier die intelligente Retrieval-Architektur von verteilten landwirtschaftlichen Wissenschafts- und Technologiedaten, die sich auf die Erforschung der Integrationsunterstützungstechnologie, das Konzept zur Erweiterung der Wiedergewinnungstechnologie basierend auf der landwirtschaftlichen Ontologie und die Personalisierungs-Retrieval-Technik basierend auf dem Benutzermodell konzentriert. Im Experiment beweist die im Paper bereitgestellte intelligente Datenanwendungsplattform, dass die Architektur effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18333-1_24 3d6e2e79c7a8c66c455f67914496c0c8;de;;;7.1.;;;Reform der öffentlichen Verwaltung in Italien Dieses Kapitel untersucht die Entwicklung der Rolle des öffentlichen Managers in einem gegebenen historischen und lokalen Kontext: der italienischen öffentlichen Verwaltung, wie sie seit den frühen 1990er Jahren eine Welle von Reformen durchgemacht hat. Historisch gesehen hat die italienische öffentliche Verwaltung ihre Unfähigkeit gezeigt, ihre Organisation und Aktivitäten an die neuen Aufgaben und Funktionen anzupassen, die im Laufe der Zeit in einem dynamischen Verhältnis zwischen der Rolle des Staates, den wirtschaftlichen Bedingungen und den Bedürfnissen der Gesellschaft übernommen wurden. Vor diesem Hintergrund wird die neue reformistische Saison, die in den 1990er Jahren begann, als Moment des Bruchs mit der Kontinuität der Vergangenheit beschrieben. Diese radikalen Reformen haben die Richtlinien für einen schrittweisen Übergang von einem Staat, der als „Verwaltungsinstitution“ betrachtet wird, zu einem „Regulierungsstaat“ umrissen. Diese Entwicklung hat sich auch auf die hierarchische Schichtung in der öffentlichen Verwaltung ausgewirkt, was zu einer Divergenz bei der Entwicklung von Rollen und damit verbundenen Kompetenzen und beruflichen Fähigkeiten zwischen dem oberen und mittleren Management geführt hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-43799-2_4 82c7a204ce9a766aa3c3e4f17bc5f767;de;;;7.1.;;;Ein Artefaktmodell für Projekte, die der Unternehmensarchitektur entsprechen Dieser Artikel stellt ein Modell für Projekte vor, die der Enterprise Architecture (EA) entsprechen müssen, damit ihre Ergebnisse mit der breiteren Organisation abgestimmt werden können. Das Modell enthält Projektartefakte (d. h. Ergebnisse wie Softwarearchitekturdokumente), ihre gegenseitigen Beziehungen, ihre Beziehung zu EA und die Prozesse, in denen sie erstellt und auf Konformität getestet werden. Wir beginnen mit der Anwendung der Aktivitätstheorie, um die entscheidende vermittelnde Rolle von Artefakten in Projekten aufzuzeigen und die neuen EA-bezogenen Artefakte zu identifizieren und zu begründen, die wir einführen. Anschließend integrieren wir diese Erkenntnisse und bestehende Best Practices in einen Standard-Systementwicklungsansatz, um ein praktisches Modell zu erstellen, das Projekte für die EA-Konformität beantragen können. Dieses Modell enthält sowohl neue, dedizierte EA-Artefakte als auch bekannte vorhandene Artefakte, von denen wir beschreiben, wie sie EA-konform sein sollten. Schließlich werden zwei Aktionsforschungsstudien verwendet, um das Modell empirisch zu untermauern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89218-2_3 b5cb83c542e8694186c4cc73035f16aa;de;;;7.1.;;;Das Problem der Ressourcenzugriffsberechtigungsroute in einem kollaborativen Fertigungssystem Die meisten kollaborativen Fertigungssysteme basieren auf verteilten Informationssystemen oder sind daran beteiligt. Das Zugriffskontrollmodell als wichtige Infrastruktureinrichtung eines Informationssystems wird häufig verwendet, um die gemeinsame Nutzung von Ressourcen und die Zusammenarbeit in einem kollaborativen Fertigungssystem zu steuern. Das Konfigurieren und Ausführen eines Zugriffskontrollmodells in einem kollaborativen Fertigungssystem ist jedoch ein komplexeres Problem. Der Grund dafür ist, dass in einem solchen System auf mehr Ressourcen zugegriffen und komplexere Sicherheitsrichtlinien und -regeln von verschiedenen Partnern befolgt werden müssen als in einem einzelnen Informationssystem. Eine nicht intuitive Semantik von Sicherheitsrichtlinien führt direkt zu Verwirrung der Administratoren bei der Beurteilung der Legitimität von Autorisierungsaktionen. Sie wissen nicht einmal, welche Autorisierungsaktionen ausgeführt werden sollen und von welchem ​​Ausführungsauftrag ausgeführt werden soll. Daher ist es notwendig, eine Berechtigungsaktionssequenz einschließlich eines Berechtigungsaktionssatzes und der Ausführungsreihenfolge zu konfigurieren, um den Administratoren zu helfen, die gegebene Berechtigungsaufgabe auszuführen, ohne diese Sicherheitsrichtlinien und -regeln für mehrere Quellen zu verletzen. In diesem Dokument wird zunächst die Konfiguration der Berechtigungsaktionssequenz als Autorisierungsroutenproblem definiert. Anschließend wird das Problem als klassisches Planungsproblem modelliert und ein GraphPlan-Algorithmus überarbeitet, um es zu lösen. Basierend auf dem modellierten Problem und dem überarbeiteten Algorithmus wird ein Prototypsystem namens PolicyProber entwickelt, um Administratoren visuell eine Berechtigungsaktionssequenz bereitzustellen. Anhand mehrerer Fälle wird die Wirksamkeit des vorgestellten Modells, der Methode und des Algorithmus demonstriert. Die Forschungsergebnisse und ihre Anwendung in der Industrie können Administratoren helfen, richtige Entscheidungen zu treffen, was indirekt die Sicherheit eines kollaborativen Fertigungssystems stärken kann.;-;-;-;https://link.springer.com/article/10.1007/s10845-012-0690-1 40f9ce23f2cfb7ac7e8db837abcbca2a;de;;;7.1.;;;Diagnose und Gestaltung von Organisationen Nachdem wir uns nun die grundlegenden Konzepte von OC angesehen haben, werde ich im Folgenden zeigen, wie diese sowohl bei der Diagnose einer bereits bestehenden Organisation als auch als Leitfaden für die Gestaltung einer neuen Organisation angewendet werden können. In beiden Fällen besteht die grundlegende Linie der Studie darin, die Lebensfähigkeit der Organisation zu bewerten oder, falls es sich um eine Neugründung handelt, ihr zu helfen, mit den richtigen Elementen zu beginnen, um ihre Lebensfähigkeit zu sichern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22318-1_2 641d88099dc3765b34269bc5c184f1b3;de;;;7.1.;;;Ein konzeptioneller Graphen-Ansatz für das Design von Informationssystemen Es besteht eine wachsende Tendenz und Notwendigkeit in Informationssystemen, Anwendungen unter Verwendung einer Anzahl verschiedener Sprachen zu modellieren, mit einer anschließenden Integration dieser Modelle. Eine Möglichkeit wäre, eine Abbildung zwischen jedem Paar dieser Modellierungssprachen bereitzustellen. Alternativ könnte eine konzeptionelle Kernsprache als Standardübersetzungsvermittler verwendet werden, wodurch die erforderliche Gesamtabbildung von n;-;-;-;https://link.springer.com/chapter/10.1007/3-540-57454-9_4 745a19d210c017a162f9a08688c2b5b3;de;;;7.2.;;;Ein Android-Tablet-Tool für die Modellierung der Unternehmensarchitektur in kleinen und mittleren Unternehmen Enterprise Architecture (EA) wird verwendet, um die Ausrichtung verschiedener Facetten eines Unternehmens zu verbessern. Die Anerkennung der Notwendigkeit von EA in kleinen und mittleren Unternehmen (KMU) ist in letzter Zeit als Mittel zur Bewältigung von Komplexität und Veränderungen gestiegen [1]. Aufgrund der spezifischen Probleme und Besonderheiten von KMU ist ein anderer Ansatz erforderlich. Daher wurde CHOOSE als EA-Ansatz entwickelt, der sich auf die Merkmale und Bedürfnisse von KMU konzentriert und an sie angepasst ist [2]. Während der mit CHOOSE durchgeführten Fallstudien wurde der Bedarf an Software-Tool-Unterstützung deutlich. Dieses Papier beschreibt ein mobiles Softwaretool zur Unterstützung des CHOOSE-Ansatzes, das den CEO als Unternehmensarchitekt durch den gesamten EA-Prozess führen und die Implementierung, Verwaltung und Wartung des resultierenden EA-Modells erleichtern soll. Die generischen Entwicklungsentscheidungen machen dieses Softwaretool für eine Vielzahl von Modellen breit anwendbar. Schließlich wird die Bewertung in zwei belgischen KMU vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41641-5_11 d45217ee72a2ddf56891a63d88946078;de;;;7.2.;;;Können Textzusammenfassungen helfen, Bewertungen vorherzusagen? Eine Fallstudie zu Filmkritiken Dieses Papier präsentiert eine Analyse der Bewertungsinferenzaufgabe – die Aufgabe, die einer Rezension zugeordnete Bewertung im Kontext von Filmkritiken korrekt vorherzusagen. Um dieses Ziel zu erreichen, untersuchen wir die Verwendung automatischer Textzusammenfassungen anstelle der vollständigen Überprüfungen. Es wird ein extrinsischer Bewertungsrahmen vorgeschlagen, bei dem vollständige Überprüfungen und verschiedene Arten von Zusammenfassungen (positionsbezogen, generisch und stimmungsbasiert) mehrerer Kompressionsraten (von 10 bis 50 %) bewertet werden. Wir stehen vor einer schwierigen Aufgabe, jedoch sind die erhaltenen Ergebnisse sehr vielversprechend und zeigen, dass Zusammenfassungen für das Bewertungsinferenzproblem geeignet sind und mindestens genauso gut wie die vollständigen Bewertungen abschneiden, wenn Zusammenfassungen eine Komprimierungsrate von mindestens 30% aufweisen. Darüber hinaus stellen wir auch fest, dass die Art und Weise der Überprüfung sowie der Schreibstil die Leistung der verschiedenen Arten von Zusammenfassungen stark bestimmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31178-9_33 0a0695320e9d667b0f87c4b844d38e26;de;;;7.2.;;;Modellierung und Simulation für die Ausbreitung von Sicherheitsrisiken in kritischen Informationssystemen Bestehende Risikoausbreitungsmodelle sind für die Analyse von Cyberangriffen durch verschiedene Bedrohungen von Informationssystemen begrenzt und unzureichend, da sie sich nur begrenzt auf eine bestimmte Bedrohung, beispielsweise einen einzelnen Virus oder Wurm, konzentrieren. Daher schlagen wir hier ein Risikoausbreitungsmodell basierend auf dem Markov-Prozess vor, das auf verschiedene Bedrohungen von Informationssystemen angewendet werden kann. Darüber hinaus werden Simulationen durchgeführt, einschließlich des Falles, dass eine Bedrohung im Zusammenhang mit anderen Bedrohungen auftritt, wobei fünf Szenarien verwendet werden, um das vorgeschlagene Modell zu verifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74377-4_90 56e780205668beb792aae6fd22c32d16;de;;;7.2.;;;Aktives Sampling für das Ranglernen durch Optimierung der Fläche unter der ROC-Kurve Das Erlernen von Ranking-Funktionen ist für die Lösung vieler Probleme von entscheidender Bedeutung, von der Dokumentensuche bis zum Aufbau von Empfehlungssystemen basierend auf den Präferenzen eines einzelnen Benutzers oder kollaborativer Filterung. Das Erlernen des Rangs ist insbesondere für adaptive oder personalisierbare Aufgaben erforderlich, einschließlich E-Mail-Priorisierung, individualisierte Empfehlungssysteme, personalisierte Nachrichtenausschnittsdienste und so weiter. Während die Herausforderung des Lernens zum Rangieren in der Literatur angesprochen wurde, wurde wenig Arbeit in einem Rahmen für aktives Lernen geleistet, bei dem das erforderliche Benutzerfeedback minimiert wird, indem nur die informativsten Instanzen ausgewählt werden, um den Ranglernenden zu trainieren. Dieses Papier befasst sich direkt mit aktivem Rank-Learning, schlägt eine neue Sampling-Strategie vor, die auf der Minimierung des Hinge-Rank-Verlustes basiert, und demonstriert die Wirksamkeit der Active Sampling-Methode für rankSVM an zwei Standard-Rank-Learning-Datensätzen. Die vorgeschlagene Methode zeigt überzeugende Ergebnisse bei der Optimierung von drei Leistungsmetriken sowie eine Verbesserung gegenüber vier Basislinien, einschließlich entropiebasierter, divergenzbasierter, unsicherheitsbasierter und zufälliger Stichprobenverfahren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00958-7_10 6a5783b769b06cd2e26dd5be606bcbe6;de;;;7.1.;;;Problemuntersuchung Um den grundlegenden Anforderungen an wissenschaftliche Relevanz und Strenge der DSR gerecht zu werden, bedarf es einer genauen Problemstellung (Abschn. 2.2). Das folgende Kapitel beschreibt den anfänglichen unerwünschten Zustand einer lokalen Problemsituation, gefolgt von der Problemauswahl und deren Übertragung in eine;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-19233-4_4 2ceeba04db571a2a186a8bf2272958bc;de;;;7.2.;;;Sollten MT-Systeme als Black Boxes in CLIR verwendet werden? Die Übersetzungsphase beim Cross Language Information Retrieval (CLIR) ist die wichtigste Phase, um die Sprachbarriere zwischen Dokumenten und Abfragen zu überwinden. In den letzten Jahren haben sich maschinelle Übersetzungssysteme (MT) zum dominierenden Übersetzungsansatz in CLIR entwickelt. Im Gegensatz zum Information Retrieval (IR) konzentriert sich MT jedoch auf die morphologische und syntaktische Qualität des Satzes. Dies erfordert große Trainingsressourcen und eine hohe Rechenleistung für Training und Übersetzung. Wir präsentieren eine neuartige Technik für MT, die speziell für CLIR entwickelt wurde. Bei diesem Verfahren wird vor der Trainingsphase eine IR-Textvorverarbeitung in Form von Stoppwortentfernung und Wortstammbildung auf den MT-Trainingskorpus angewendet. Es wurde festgestellt, dass die Anwendung dieses Vorverarbeitungsschritts den Übersetzungsprozess erheblich beschleunigt, ohne die Abrufqualität zu beeinträchtigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20161-5_70 1cca0f94c1ca81de7224f091864318a5;de;;;7.2.;;;Beschreiben von Kategorien von Objekten für Menüabrufsysteme Bei der Suche nach Informationen in menübasierten Retrievalsystemen haben Benutzer die Wahl zwischen einer Reihe von Kategorien. Der erfolgreiche Abruf von Informationen hängt entscheidend davon ab, ob der Benutzer die Aufteilung der Objekte in Kategorien und die Systembezeichnungen für diese Kategorien versteht. Diese Forschung vergleicht verschiedene Arten der Beschreibung schlecht definierter Kategorien von Objekten unter Verwendung von Kombinationen von Namen und Beispielen. Beispiele bieten eine vielversprechende Möglichkeit, sowohl als Mittel zur flexiblen Benennung neuer oder schwieriger Menükategorien als auch als methodisches Werkzeug zur Untersuchung bestimmter Kategorisierungsprobleme.;-;-;-;https://link.springer.com/article/10.3758/BF03202396 d36791f2ad5bcaff39106810148e1ffb;de;;;7.2.;;;Objektvorschlag über Gruppierung mit eingeschränkter Tiefenkonnektivität Der Objektvorschlag zielt darauf ab, kategorieunabhängige Objektkandidaten mit einer begrenzten Anzahl von Bounding Boxes zu erkennen. In diesem Artikel schlagen wir eine neuartige Objektvorschlagsmethode für RGB-D-Bilder mit der Einschränkung der Tiefenkonnektivität vor, die die Schlüsseltechniken bei der Gruppierung basierender Objektvorschläge effektiv verbessern kann, einschließlich Segmentgenerierung, Hypothesenerweiterung und Kandidatenranking. Bei einem gegebenen RGB-D-Bild erzeugen wir zunächst Segmente unter Verwendung einer tiefenbewussten hierarchischen Segmentierung. Als nächstes kombinieren wir die Segmente hierarchisch auf jeder Ebene zu Hypothesen und erweitern diese Hypothesen weiter auf Objektkandidaten unter Verwendung von Tiefenkonnektivitätsbeschränkungs-Regionalwachstum. Schließlich bewerten wir die Objektkandidaten anhand ihrer Farb- und Tiefenmerkmale und wählen die mit den höchsten Punktzahlen als Objektvorschlagsergebnis aus. Wir haben die vorgeschlagene Methode am größten RGB-D-Bilddatensatz für den Objektvorschlag validiert und unsere Methode ist den Methoden des Standes der Technik überlegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-77383-4_4 2778b2175108f4bf246dbd568346b27c;de;;;7.2.;;;AIS und semantische Abfrage Das semantische Web hat verschiedene spannende Möglichkeiten zum Erkunden geschaffen. Hier präsentieren wir eine von der Natur inspirierte Lösung für eine solche Gelegenheit, die semantische Abfragen zur Informationsbeschaffung. Wir lassen uns vom menschlichen Immunsystem inspirieren und entwickeln eine Analogie zwischen Antikörpern und Abfragen. Erfolgreiche Antikörper sind solche, die durch eine Infektion aktiviert werden. Diese Antikörper werden zum Klonen angeregt, jedoch unvollkommen, was zu einer Vielzahl ähnlicher Antikörper führt, die besser geeignet sind, die Infektion zu bekämpfen. Analog können Abfragen, die relevante Ergebnisse liefern, geklont werden, um verschiedene ähnliche Abfragen zu erzeugen, von denen jede eine Verbesserung gegenüber der ursprünglichen Abfrage darstellen kann. Das semantische Web ist konzeptbasiert und verfügt über eine Reihe von Regeln für die Erstellung ausdrucksstarker, aber standardisierter Abfragen mit klarer Semantik, die ihre Modifikation leitet. Dieser Beitrag diskutiert die Implementierung und Evaluierung einer solchen immunbasierten Information Retrieval-Technik für das Semantic Web. Zwei Abfragemutationsoperatoren,;-;-;-;https://link.springer.com/chapter/10.1007/11431053_23 b97d3e555f716cbb0d86469b49d38497;de;;;7.2.;;;Eine umfassende Methode zur Erkennung, Lokalisierung, Extraktion und Erkennung von arabischen Videotexten Mit dem rasanten Wachstum der Zahl der Fernsehsender, des Internets und der Online-Informationsdienste werden immer mehr Informationen verfügbar und zugänglich. Die Digitalisierung verbessert die Bestandserhaltung und erleichtert den Zugang zu Dokumenten. Wenn jedoch die Menge an Dokumenten wichtig wird, reicht die Digitalisierung nicht aus, um einen effizienten Zugriff zu gewährleisten. Tatsächlich müssen wir semantische Informationen extrahieren, damit Benutzer schnell finden, was wir brauchen. Der in Videosequenzen enthaltene Text wird für das Indexierungs- und Suchsystem dringend benötigt. Dieser Text ist jedoch aufgrund der Variabilität seiner Größe, der Zeichen mit geringer Auflösung und der Komplexität der Hintergründe schwer zu erkennen und zu erkennen. Um diese Mängel zu beheben, schlagen wir ein Zwei-Aufgaben-System vor: Als ersten Schritt extrahieren wir die Textinformationen aus Videosequenzen und zweitens erkennen wir diesen Text. Unser System wird auf einer vielfältigen Datenbank getestet, die aus mehreren arabischen Nachrichtensendungen besteht. Die erzielten Ergebnisse sind ermutigend und belegen die Qualitäten unseres Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15696-0_60 ead584388dc547364add1e2e81daa2ba;de;;;7.2.;;;Berechnung der Überlebensfähigkeit vernetzter Informationssysteme Die Überlebensfähigkeit sollte bei vernetzten Informationssystemen über die Sicherheit hinaus betrachtet werden, was die Fähigkeit unterstreicht, weiterhin Dienste in einer bösartigen Umgebung zeitnah bereitzustellen. Als offenes komplexes System wird das vernetzte Informationssystem durch eine serviceorientierte hierarchische Struktur dargestellt, und Fehlerszenarien werden als Stimulationen verstanden, die die Umgebung auf Systeme einwirkt, während Änderungen der Leistung von Systemdiensten als Systemreaktionen gelten. Der Überlebensfähigkeitstest wird nach einem Testschema durchgeführt, das sich aus Ereignissen, atomaren Missionen, Fehlerszenarien und Diensten zusammensetzt. Die Überlebensfähigkeit wird Schicht für Schicht basierend auf dem Ergebnis des Überlebenstests anhand von drei Spezifikationen (Widerstand, Erkennung und Erholung) berechnet. Dieses Berechnungsverfahren ist praktikabler als ein herkömmliches zustandsbasiertes Verfahren, da es die direkte Definition von Systemzuständen und den Berechnungszustandsübergang in einen geschichteten Berechnungsprozess umwandelt.;-;-;-;https://link.springer.com/chapter/10.1007/11596981_59 d94ea9e641d47e872af35f2f9978a768;de;;;7.2.;;;Ungefähres Denken und Rechnen basierend auf dem Prinzip der ungefähren Bewertung flexibler sprachlicher Funktionen Ausgehend von der Beziehung zwischen flexiblen linguistischen Regeln und flexiblen linguistischen Funktionen enthüllt dieses Kapitel das mathematische Wesen des approximativen Denkens und stellt dann ein approximatives Argumentationsverfahren und zwei approximative Bewertungsverfahren numerischer Funktionen vor. Außerdem werden die in diesem Buch vorgestellten Methoden des approximativen Denkens und Rechnens im Prinzip mit den traditionellen Fuzzy-Methoden verglichen und kommentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-1549-6_17 b0704d686c4019f610eb7dd0ef1f06af;de;;;7.1.;;;Modellierung und Visualisierung von Stadtplanungs- und Bauentwicklungsprozessen für die Kommunalverwaltung kleiner Siedlungen Das aktuelle und spezifische Problem in der tschechischen Kommunalverwaltung kleiner Siedlungen ist die sehr geringe Beteiligung der Bürger in diesen kleinen Dörfern aufgrund der komplexen und auch zeitlich variierenden Form der Gesetze und gesetzlichen Bestimmungen. All dies wirkt sich auf die Passivität der Bürger vor Ort aus. Unser Beitrag stellt die ursprüngliche computergestützte Organisationsmodellierung und Simulation relevanter sozio-technischer Prozesse der Stadtplanung und Bauentwicklung vor. Während unseres Experiments führten wir eine erste Analyse und anschließend zwei statistische Erhebungen durch, die uns unsere Hypothese über die Nützlichkeit unseres Ansatzes bestätigten, da die meisten Menschen uns bestätigt haben, dass sie jetzt über einen höheren Wissensstand verfügen, der es ihnen ermöglicht, mehr an der Zukunft. Da eine der Dimensionen der Lebensqualität auch die Selbstverwirklichung und Teilhabe der Menschen vor Ort ist, erwarten wir eine Verbesserung der Lebensqualität im Allgemeinen. Unser Ansatz basiert auf der ursprünglichen Art von Prozesslandkarten, die die Gesetzgebung beschreiben, visualisieren und simulieren. Dies verschafft den Menschen vor Ort ein besseres Verständnis ihrer Lebenssituation und bewirkt eine bessere Teilhabe und damit eine Verbesserung der Lebensqualität.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44860-1_4 69e364f3d6a3200743eea9d2896bcf9d;de;;;7.1.;;;Wissensaufbau zur Verbesserung einer Software-Organisation Software Process Improvement (SPI) ist ein systematischer Ansatz zur Verbesserung der Fähigkeiten einer Softwareorganisation. Diese Studie zeigt die Ergebnisse einer kollaborativen Forschungsinitiative, in der ein SPI-Projekt durchgeführt und als organisationaler Wissensaufbau analysiert wurde. Die Studie erklärt, wie Wissen durch Transformation zwischen implizitem und explizitem Wissen und durch Interaktion zwischen verschiedenen Organisationsebenen von Akteuren entsteht. Basierend auf unseren Erkenntnissen wird vorgeschlagen, dass in einem SPI-Projekt zwei Arten von Wissen basierend auf einem völlig unterschiedlichen Wissensbildungsverhalten erzeugt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35404-0_13 15bb97c7852b97ff42b56c0bd2065845;de;;;7.1.;;;Status der Hochgeschwindigkeitsbahn-Transportorganisation Hochgeschwindigkeitsbahnen haben sich weltweit mit geringem Energieverbrauch, geringer Umweltverschmutzung, großer Transportkapazität, hoher Sicherheit, hoher Geschwindigkeit, Einsparung von Landressourcen und hoher Pünktlichkeit rasant entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-63033-4_1 cc52edf6d3ef4f835b9ea9dbfbacf44e;de;;;7.1.;;;Design eines elektrischen Fernsteuerungs-Lehrsystems basierend auf einem intelligenten allgegenwärtigen Lernnetzwerkmodell Das traditionelle Lehrsystem des Lehrproblems der elektrischen Fernbedienung mit geringer Präzision und Intelligenz im allgegenwärtigen Lernnetzwerkmodell wird für dieses elektrische Fernbedienungslehrsystemdesign, das Systemrahmendesign basierend auf dem elektrischen Fernbedienungslehren, das Sammel- und Erkennungsmoduldesign, vorgeschlagen. Soundidentifikation des Hardwaredesigns, automatisches Tracking-Sensordesign, Spracherkennungssoftwaredesign, Softwaredesign, realisierte die elektrische Fernbedienung das Design des Lehrsystems, experimentelle Daten zeigen, dass das vorgeschlagene intelligente allgegenwärtige Lernen im Rahmen des Netzwerkmodells des Lehrsystemdesigns, elektrisch fernbedienung fernbedienung lehren mit hoher präzision.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63955-6_19 af69e9e1dd90c349a08aabfd3ac6ef7e;de;;;7.2.;;;Probabilistische Methoden zur Klassifizierung von strukturierten Dokumenten bei INEX’07 In diesem Papier werden die Ergebnisse unserer Teilnahme am Document Mining-Track auf der INEX’07 vorgestellt. Wir haben uns auf die Aufgabe der Klassifizierung von XML-Dokumenten konzentriert. Unser Ansatz zum Umgang mit strukturierten Dokumentdarstellungen verwendet Klassifizierungsmethoden für Klartext, die auf abgeflachte Versionen der Dokumente angewendet werden, bei denen einige ihrer strukturellen Eigenschaften in Klartext übersetzt wurden. Wir haben verschiedene Möglichkeiten untersucht, strukturierte Dokumente in flache Dokumente zu konvertieren, in Kombination mit zwei probabilistischen Methoden zur Textkategorisierung. Die wichtigste Schlussfolgerung unserer Experimente ist, dass es eine schwierige Aufgabe ist, die Dokumentstruktur zu nutzen, um die Klassifizierungsergebnisse zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85902-4_18 7d035d038fe05dd964ae56fb4bfa77e7;de;;;7.2.;;;Auswahl des gewichteten stimmbasierten Klassifikator-Ensembles unter Verwendung eines genetischen Algorithmus zur Erkennung benannter Entitäten In diesem Papier berichten wir über die Suchfähigkeit des genetischen Algorithmus (GA), um ein gewichtetes stimmenbasiertes Klassifikator-Ensemble für die Named Entity Recognition (NER) zu konstruieren. Unsere zugrunde liegende Annahme ist, dass sich die Zuverlässigkeit der Vorhersagen jedes Klassifikators zwischen den verschiedenen benannten Entitäten (NE)-Klassen unterscheidet. Die Abstimmungsgewichte sollten für die NE-Klassen hoch sein, für die der Klassifikator am zuverlässigsten ist, und niedrig für die NE-Klassen, für die der Klassifikator überhaupt nicht zuverlässig ist. Hier wird versucht, den Abstimmungsbetrag für jede Klasse in jedem Klassifikator unter Verwendung von GA zu quantifizieren. Wir verwenden das Maximum Entropy (ME)-Framework, um eine Reihe von Klassifikatoren zu erstellen, die von den verschiedenen Darstellungen einer Reihe von Merkmalen abhängig sind, die sprachunabhängig sind. Die vorgeschlagene Technik wird mit zwei ressourcenbeschränkten Sprachen evaluiert, nämlich Bengali und Hindi. Die Auswertungsergebnisse liefern die Recall-, Präzisions- und F-Maßwerte von 73,81 %, 84,92 % bzw. 78,98 % für Bengali und 65,12 %, 82,03 % bzw. 72,60 % für Hindi. Die Ergebnisse zeigen auch, dass das vorgeschlagene gewichtete stimmbasierte Klassifikator-Ensemble, das von GA identifiziert wurde, alle einzelnen Klassifikatoren und drei konventionelle Klassifikatoren übertrifft;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13881-2_27 8f7a45d5199cd598b7e65e2a3041dc44;de;;;7.2.;;;Eine implizite Relevanz-Feedback-Methode für CBIR mit Echtzeit-Eye-Tracking Relevanz-Feedback ist ein effizienter Ansatz zur Verbesserung der Leistung von inhaltsbasierten Bildabrufsystemen, und implizite Relevanz-Feedback-Ansätze, die das Feedback der Benutzer durch biometrische Geräte (z. In diesem Beitrag wird ein neuartiges Bildabrufsystem mit implizitem Relevanz-Feedback vorgeschlagen, das als Eye-Tracking-basiertes Relevanz-Feedback-System (ETRFs) bezeichnet wird. ETRFs besteht aus drei Hauptmodulen: Bildabruf-Subsystem basierend auf der Bag-of-Word-Architektur, Bewertung der Benutzerrelevanz, die implizit relevante Bilder mit Hilfe eines modernen Eye-Trackers erfasst, und Relevanz-Feedback-Modul, das eine gewichtete Abfrageerweiterungsmethode auf Fuse anwendet Relevanz-Feedback der Nutzer. ETRFs wird online und in Echtzeit implementiert, wodurch es sich deutlich von anderen Offline-Systemen unterscheidet. Zehn Probanden nehmen an unseren Experimenten mit dem Datensatz von Oxford-Gebäuden und UKBench teil. Die experimentellen Ergebnisse zeigen, dass ETRFs eine bemerkenswerte Verbesserung der Bildwiederherstellungsleistung erzielen.;-;-;-;https://link.springer.com/article/10.1007/s11042-015-2873-1 3357d9a926e2123e582cd754d5436310;de;;;7.1.;;;Kooperative Arbeit im Missionsbetrieb: Analyse und Implikationen für die Computerunterstützung Dieses Papier beschreibt die kooperative Arbeit im Echtzeit-Flugbetrieb im SAMPEX Mission Operations Room des NASA Goddard Space Flight Center. Diese Domäne ist ein Beispiel für eine verteilte Überwachungssteuerung, bei der ein Team von menschlichen Bedienern ein dynamisches, komplexes, hochautomatisiertes System überwacht. Solche Betriebsumgebungen unterscheiden sich in wichtigen Punkten von der artefaktzentrierten Zusammenarbeit (z. B. kollaboratives Zeichnen, Schreiben, Entwerfen). Dieses Papier untersucht diese Unterschiede und artikuliert auch den Bedarf an Aktivitätsmanagement-Tools für dynamische Kontrollumgebungen. Kandidatenmodelle aus der Human-Machine-Systems-Engineering-Literatur werden vorgeschlagen, um die zugrunde liegende Struktur für solche Werkzeuge bereitzustellen.;-;-;-;https://link.springer.com/article/10.1007/BF00773444 ad96cfb97831d95a88f7b5ee51c67246;de;;;7.1.;;;SOMA: ein organischer und autonomer Ansatz zur Produktionsplanung und -steuerung Die Komplexität von Fertigungssystemen überfordert ihre Struktur und stellt harte Bedingungen für ihren Routinebetrieb. Dieser Beitrag analysiert zunächst dieses Problem und schlägt einen neuen Ansatz für die Planung und den Betrieb von Fertigungssystemen vor, der auf der dynamischen Aggregation autonomer Fertigungseinheiten basiert, die kooperativ und verhandelt auf der Grundlage der aktuellen und zukünftigen Marktbedürfnisse arbeiten. Anschließend legt es eine Systemarchitektur fest und stellt eine Methodik für die Produktionsplanung und -steuerung vor, die in der Lage ist, die Ziele und Einschränkungen dieser autonomen Einheiten mit verbesserter Synergie zu erfüllen und die Integrität des Systems zu wahren.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35086-8_20 a655cf1987811bb413f69dac7fb5d8db;de;;;7.2.;;;Eine Methode zur Musikstrukturanalyse mit MPEG-4 TwinVQ Audio Compression Diese vorliegende Arbeit schlägt ein Verfahren zum Analysieren einer Musikstruktur unter Verwendung von Autokorrelationskoeffizienten vor, die im Codierschritt der TwinVQ-Audiokompression berechnet werden. Wir fassen die Autokorrelationssequenz unter Verwendung der extrahierten musikalischen Einheit in Untersequenzen zusammen und klassifizieren dann die Untersequenzen und weisen einer Klasse eine Bezeichnung zu. Aus einer Sequenz von Labels extrahieren wir Teilsequenzen mit der längsten Übereinstimmung, um die Struktur eines Musikstücks zu analysieren. Um die Leistung unserer Methode zu bewerten, vergleichen wir die durch unsere Methode extrahierten Teilsequenzen mit denen von Hand. Die experimentellen Ergebnisse zeigen, dass unsere Methode eine gute Leistung bei der Analyse der Struktur eines Musikstücks hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15702-8_10 29d3c22d5e3b9cf61d2dccc073972cb7;de;;;7.2.;;;Umgang mit OOV-Wörtern in indischer Sprache – Englisch CLIR Aufgrund fehlender Ressourcen ist die sprachübergreifende Informationsbeschaffung für viele indische Sprachen eine schwierige Aufgabe. Google Translate bietet eine einfache Möglichkeit für die Übersetzung von indischen Sprachen ins Englische, aber aufgrund von Lexikonbeschränkungen werden die meisten Wörter, die nicht im Wortschatz enthalten sind, Buchstabe für Buchstabe zusammen mit ihrem Suffix transkribiert, was zu einer ungewöhnlich langen Zeichenfolge führt. Die resultierende Zeichenfolge stimmt oft nicht mit der beabsichtigten Übersetzung überein, was das Abrufen beeinträchtigt. Wir schlagen einen Ansatz vor, um das richtige Wort aus solchen Zeichenfolgen zu extrahieren, indem die Wortsegmentierung zusammen mit dem ungefähren Zeichenfolgenvergleich mit dem Soundex-Algorithmus und der Levenshtein-Distanz verwendet wird. Wir evaluieren unseren Ansatz in drei indischen Sprachen und finden eine durchschnittliche Verbesserung von 5,8% MAP im FIRE-2010-Datensatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28997-2_45 b4fbd208b9a7a64aedb607ba4c376aae;de;;;7.2.;;;FISER: Eine effektive Methode zur Erkennung von Interaktionen zwischen thematischen Personen Das Entdecken der Interaktionen zwischen den Personen, die in einer Reihe von Themendokumenten erwähnt werden, kann den Lesern helfen, den Hintergrund des Themas zu konstruieren und das Dokumentverständnis zu erleichtern. Um Personeninteraktionen zu erkennen, benötigen wir eine Erkennungsmethode, die Textsegmente identifizieren kann, die Informationen über die Interaktionen enthalten. Informationsextraktionsalgorithmen analysieren dann die Segmente, um Interaktionstupel zu extrahieren und ein Interaktionsnetzwerk von Themenpersonen aufzubauen. In diesem Beitrag definieren wir die Interaktionserkennung als Klassifikationsproblem. Die vorgeschlagene Interaktionserkennungsmethode namens FISER nutzt neunzehn Funktionen, die syntaktische, kontextabhängige und semantische Informationen im Text abdecken, um interaktive Segmente in Themendokumenten zu erkennen. Empirische Auswertungen belegen die Wirksamkeit von FISER und zeigen, dass es viele bekannte Open IE-Methoden deutlich übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35341-3_23 cda8e08968f48c6a2d38132bb092d0e9;de;;;7.2.;;;Überblick über den zweiten Workshop zu Medical Content-Based Retrieval for Clinical Decision Support Der zweite Workshop zu Medical Content-Based Retrieval for Clinical Decision Support fand am 22. September 2011 auf der MICCAI-Konferenz in Toronto, Kanada, statt. Der Workshop brachte mehr als 40 registrierte Forscher zusammen, die sich für den Bereich Medical Content-based Retrieval interessieren. Elf Beiträge wurden angenommen und im Workshop präsentiert. Zwei eingeladene Referenten gaben einen Überblick über den Stand der akademischen Forschung und industrielle Perspektiven. Abgerundet wurde das Programm durch eine Podiumsdiskussion über die Rolle der inhaltsbasierten Abfrage bei der klinischen Entscheidungsunterstützung. Diese Übersicht stellt die wichtigsten Highlights und Diskussionen des Workshops vor, fasst die Neuerungen zusammen und stellt die präsentierten Papiere vor, die in diesem Proceeding bereitgestellt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28460-1_1 312d34f341346d2b57d6393cd25fffea;de;;;7.2.;;;Ungefähre Bewertung flexibler sprachlicher Funktionen In diesem Kapitel werden die ungefähren Bewertungsprinzipien flexibler linguistischer Funktionen aus mathematischer Sicht analysiert und aufgezeigt und die entsprechenden Methoden angegeben. Außerdem werden Näherungsberechnungen unter Verwendung der Näherungsbewertung flexibler linguistischer Funktionen und Kommentare zum traditionellen Fuzzy-Logiksystem erörtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-1549-6_16 4a6571226b50b5ecb8ecdd229ba8017a;de;;;7.2.;;;Die kollektive Intelligenz der Lernenden nutzen: Ein Web2.0-Ansatz für E-Learning Lernende haben heute Zugang zu einer Vielzahl von Quellen, in denen sie regelmäßig Lernressourcen außerhalb des regulären Kursmaterials suchen, finden und verwenden. Obwohl E-Learning-Systeme eine Vielzahl von Werkzeugen und Funktionalitäten bieten, gibt es keine speziellen Vorkehrungen für die Lernenden, diese wertvollen Ressourcen einfach zu speichern und zu teilen. In dieser Arbeit stellen wir SHAREK vor, einen Web2.0-inspirierten Ansatz, der es Lernenden ermöglicht, ihre Ressourcen zu speichern und zu teilen. Insbesondere kombiniert SHAREK Techniken der künstlichen Intelligenz wie Empfehlungssysteme und Informationsabruf mit Web2.0-Technologien, einschließlich RSS und Tagging, um einen einfachen Austausch von Ressourcen und Wissen zu ermöglichen. Abschließend berichten wir über die Implementierung und Validierung von SHAREK.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69132-7_47 7cb2928023de19ff7928fe1ca16f45de;de;;;7.2.;;;Verbesserung der Aktualität der Suchmaschinen durch einen probabilistischen Ansatz basierenden inkrementellen Crawler Das Web wird mit Daten überflutet. Während der Crawler dafür verantwortlich ist, auf diese Webseiten zuzugreifen und sie an den Indexer weiterzugeben, um sie den Benutzern der Suchmaschine zur Verfügung zu stellen, hat die Geschwindigkeit, mit der sich diese Webseiten ändern, für den Crawler die Notwendigkeit geschaffen, Aktualisierungsstrategien anzuwenden, um aktualisierte/ geänderten Inhalt an die Suchmaschinenbenutzer. Darüber hinaus ist Deep Web der Teil des Webs, der alarmierend viele Qualitätsdaten enthält (im Vergleich zum normalen/Oberflächen-Web), aber für den Crawler einer Suchmaschine technisch nicht zugänglich ist. Die vorhandenen Deep-Web-Crawling-Methoden helfen, auf die Deep-Web-Daten von den Ergebnisseiten zuzugreifen, die durch das Ausfüllen von Formularen mit einer Reihe von Abfragen und den Zugriff auf die Webdatenbanken über diese generiert werden. Diese Verfahren leiden jedoch daran, dass sie die Aktualität der lokalen Datenbanken nicht aufrechterhalten können. Sowohl das Surface Web als auch das Deep Web benötigen ein inkrementelles Crawling in Verbindung mit der normalen Crawling-Architektur, um dieses Problem zu lösen. Das Crawlen des Deep Web erfordert die Auswahl eines geeigneten Satzes von Abfragen, damit diese fast alle Datensätze in der Datenquelle abdecken können und außerdem sollte die Überlappung von Datensätzen gering sein, damit die Netzwerkauslastung reduziert wird. Ein inkrementeller Crawl trägt mit jedem Inkrement zu einer Erhöhung der Netzwerkauslastung bei. Daher sollte ein reduzierter Abfragesatz wie zuvor beschrieben verwendet werden, um die Netzwerkauslastung zu minimieren. Unsere Beiträge in dieser Arbeit sind der Entwurf eines probabilistischen Ansatzes basierenden inkrementellen Crawlers, um die dynamischen Veränderungen der Oberflächen-Webseiten zu verarbeiten, die Anpassung der oben genannten Methode mit einer Modifikation, um die dynamischen Veränderungen in den Deep-Web-Datenbanken zu verarbeiten, eine neue Bewertungsmaßnahme namens die 'Crawl-Trefferrate', um die Effizienz des inkrementellen Crawlers in Bezug auf die Anzahl der tatsächlich notwendigen Crawls in der prognostizierten Zeit zu bewerten und einen semantisch gewichteten Set-Covering-Algorithmus zur Reduzierung der Anfragen, so dass die Netzwerkkosten für jedes Inkrement des Crawls ohne Kompromisse bei der Anzahl der abgerufenen Datensätze. Die Auswertung des inkrementellen Crawlers zeigt eine gute Verbesserung der Aktualität der Datenbanken und eine gute Crawl-Trefferquote (83 % für Webseiten und 81 % für Deep Web-Datenbanken) mit einem geringeren Overhead im Vergleich zum Ausgangswert.;-;-;-;https://link.springer.com/article/10.1007/s10796-016-9701-7 f2909b871b746a8ec41b9ced5d708d94;de;;;7.2.;;;Tattoo-ID: Automatischer Tattoo-Bildabruf zur Identifizierung von Verdächtigen und Opfern Tätowierungen werden von Strafverfolgungsbehörden verwendet, um ein Opfer oder einen Verdächtigen mit einer falschen Identität zu identifizieren. Die derzeitige Methode zum Abgleichen von Tätowierungen basiert auf von Menschen zugewiesenen Klassenbezeichnungen, die zeitaufwendig, subjektiv und von begrenzter Leistung sind. Es ist wünschenswert, ein inhaltsbasiertes Bildabrufsystem (CBIR) zum automatischen Abgleichen und Abrufen von Tätowierungen aufzubauen. Wir untersuchen mehrere wichtige Designprobleme im Zusammenhang mit dem Bau eines Prototyp-CBIR-Systems für eine Tattoo-Bilddatenbank. Unser System berechnet die Ähnlichkeit zwischen der Abfrage und den gespeicherten Tätowierungen anhand des Bildinhalts, um die ähnlichsten Tätowierungen abzurufen. Die Leistung des Systems wird anhand einer Datenbank mit 2.157 Tätowierungen aus 20 verschiedenen Klassen bewertet. Auswirkungen von Segmentierungsfehlern, Bildtransformationen (z. B. Unschärfe, Beleuchtung), Einfluss von semantischen Labels und Relevanzrückmeldung werden ebenfalls untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77255-2_28 bc1211f3779438028e84a5fcd9b23850;de;;;7.1.;;;Spiele für die Gesundheit Gesundheit ist eine elementare Grundlage für ein erfolgreiches menschliches Leben. Die durchschnittliche Lebenserwartung der Menschen war noch nie so hoch wie heute, und der medizinische Fortschritt hat die allgemeine Gesundheit der Bevölkerung stark verbessert. Moderne Gesellschaften werden jedoch durch neue Komplikationen in Form von Zivilisationskrankheiten belastet, die durch verschiedene Aspekte des modernen Lebens, wie zum Beispiel Bewegungsmangel, entstehen. Der Druck auf die öffentlichen Gesundheitssysteme nimmt mit dem Aufkommen weiterer komplexer und teurer Behandlungsmöglichkeiten und aufgrund der Komplikationen infolge des demografischen Wandels stetig zu. Die technologischen Fortschritte des Industrie- und Informationszeitalters, die Computerrevolution im Allgemeinen und Videospiele zur Unterhaltung tragen insbesondere zur Prävalenz einiger weit verbreiteter Gesundheitsprobleme im Zusammenhang mit dem Lebensstil bei. Gleichzeitig spielen auch Computergeräte und interaktive Anwendungen eine wichtige Rolle bei der Verbesserung aller Bereiche der individuellen und öffentlichen Gesundheit. Neuere Forschungen und frühe kommerzielle Veröffentlichungen liefern überzeugende Beweise dafür, dass insbesondere spielerische Anwendungen und Spiele für die Gesundheit Ansätze bieten, die dazu beitragen können, die Motivationsbarrieren zu überwinden, die erfolgreiche Gesundheitsbehandlungen oder präventive Maßnahmen und Verhaltensweisen oft behindern. Dieses Kapitel gibt einen Überblick über die Argumente, die die Anwendung von Spiel- und Spieltechniken für die persönliche und öffentliche Gesundheit motivieren. Es fasst die grundsätzlichen Versprechen und Herausforderungen von Spielen für die Gesundheitsforschung und -entwicklung zusammen, gibt Ansatzpunkte für deren Gestaltung und Umsetzung, zeigt ausgewählte Aspekte im Sinne beispielhafter Anwendungen und zeigt drängende offene Herausforderungen sowie vielversprechende Wege für weitere Forschung und Entwicklung . Eine Auswahl an Qualitätsreferenzen zum Weiterlesen ist im letzten Abschnitt enthalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-46152-6_10 79291398bd2d3527c077663342062957;de;;;7.2.;;;Stereosalienzanalyse basierend auf Disparitätseinfluss und räumlicher Unähnlichkeit Dieses Papier präsentiert einen einfachen Ansatz zur Erkennung hervorstechender Regionen in Stereobildern. Der Ansatz berechnet die Salienz unter Berücksichtigung von drei Faktoren: Disparitätseinfluss, zentrale Verzerrung und räumliche Unähnlichkeit. Zuerst wird ein Bild in gleichgroße Patches aufgeteilt, um ein Downsampling durchzuführen. Als nächstes wird der Disparitätseinfluss basierend auf der Disparitätskarte geschätzt. Außerdem wird jedem Patch ein zentraler Bias-Wert zugewiesen und die räumliche Unähnlichkeit wird zwischen den Patches in einem reduzierten Dimensionsraum gemessen. Danach wird das Produkt aller aus dem Bild extrahierten Faktoren berechnet. Schließlich wird durch einen Normalisierungsprozess die Salienzkarte erhalten. In den Experimenten werden vier hochmoderne Methoden zum Vergleich mit dem PSU-Stereo-Salienz-Benchmark-Datensatz (SSB) verwendet. Die experimentellen Ergebnisse zeigen, dass unser Verfahren eine bessere Leistung als die anderen für die Detektion von hervorstechenden Stereoregionen aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-77383-4_25 3cd7ee9c7930f78518d28bf79e46bae4;de;;;7.2.;;;LDA-basierte Themenbildung und Themensatzverstärkung für die graphenbasierte Zusammenfassung mehrerer Dokumente In den letzten Jahren haben graphenbasierte Ranking-Algorithmen viel Aufmerksamkeit bei der Dokumentenzusammenfassung auf sich gezogen. Dieser Artikel stellt unsere jüngsten Arbeiten zur Anwendung eines Themenmodells, nämlich LDA, in der graphbasierten Zusammenfassung vor. Im vorgeschlagenen Ansatz wird LDA verwendet, um automatisch eine Reihe von semantischen Themen aus den zusammenzufassenden Dokumenten zu identifizieren. Die identifizierten Themen werden dann verwendet, um einen zweiteiligen Graphen zu erstellen, um die Dokumente darzustellen. Die Thema-Satz-Verstärkung wird implementiert, um die Salienzwerte von Themen und Sätzen gleichzeitig zu berechnen. Durch das Einbeziehen der in die Themen eingebetteten Informationen kann das Ergebnis der Satzeinstufung verbessert werden. Mit dem Datensatz DUC 2004 werden Experimente durchgeführt, um die Wirksamkeit des vorgeschlagenen Ansatzes zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35341-3_33 bb4db341bc42056022fd529dfdd8f439;de;;;7.2.;;;Auswahl eines umweltfreundlichen Behandlungsplans basierend auf einem dreidimensionalen Fuzzy-Bewertungsmodell Die Weiterentwicklung von Smart Medical bereichert die Behandlungspläne für verschiedene Krankheiten. Es wird jedoch zu einer Herausforderung, einen effizienten Behandlungsplan zur Reduzierung der Umweltverschmutzung, Verringerung der Nebenwirkungen sowie der Behandlungskosten auf den Weg zu bringen. Um dieser Herausforderung zu begegnen und die Behandlungspläne während ihres gesamten Lebenszyklus zu bewerten, stellt dieser Beitrag zunächst ein dreidimensionales Bewertungsmodell vor und schlägt dann eine Bewertungs- und Auswahlstrategie für umweltfreundliche medizinische Behandlungspläne basierend auf einem dreidimensionalen Fuzzy-Bewertungsmodell vor ein anschauliches Beispiel wird durchgeführt, um die Machbarkeit des vorgeschlagenen Ansatzes zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0281-6_60 c664034a9351f4e6d616d928d7ba9573;de;;;7.2.;;;Bipolare konjunktive Abfrageauswertung für Ontologie-basierte Datenbankabfragen In Anlehnung an das in [21] entworfene flexible Abfragesystem, das den Ausdruck von Benutzerpräferenzen als bipolare Bedingungen vom Typ „und wenn möglich“ gegenüber relationalen Datenbanken und Ontologien ermöglicht, beschreiben wir in diesem Artikel den Bewertungsprozess von Benutzeranfragen unter dem Erweiterung des logischen Rahmens auf Bipolarität vom Typ „oder sonst“ [15,14]. Anfragen, die an unser System gerichtet sind, sind bipolare konjunktive Anfragen aus bipolaren Atomen, und ihre Auswertung beruht auf einem dreistufigen Algorithmus: (i);-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40769-7_34 bfb76979707c54b0596fbc6f02e8e21d;de;;;7.2.;;;Modellgesteuerter Nutzlastsensor-Betriebsassistenz für eine Transporthubschrauber-Crew in bemannten-unbemannten Teaming-Missionen: Assistenz-Realisierung, Modellierung Experimentelle Bewertung der psychischen Arbeitsbelastung Eines der Forschungsgebiete am Institut für Flugsystemtechnik (IFS) der Universität der Bundeswehr (UniBwM) ist die Integration von Aufklärungssensor-Bedienerunterstützung in bemannte unbemannte Teaming (MUM-T) Transporthubschrauber (HC) Missionen. Der gezielte Einsatz von Missionssensoren, die von mehreren unbemannten Luftfahrzeugen (Multi-UAV) getragen werden, bringt bei solchen Missionen neue und wirkungsvolle Aspekte mit sich, insbesondere in arbeitslastintensiven Situationen. Ein assoziiertes System mit variablen Automatisierungsstufen unterstützt die Crew des HC durch den Einsatz von maschinenausführbaren Funktionalitäten und High-Level-Fähigkeiten. Die Arbeitsprozesse der Besatzungen zur Handhabung der Aufklärungsnutzlast sowie zur Ableitung und Einbindung relevanter Informationen in den Missionsverlauf werden voraussichtlich zu einer zusätzlichen mentalen Arbeitsbelastung (MWL) während des Betriebs führen. Dieser Beitrag gibt zunächst einen Überblick über das Assistenzkonzept für den Sensorbetrieb zur Minimierung des MWL der Besatzungen. Darüber hinaus wird eine Instanz eines kombinierten Aufgaben- und Ressourcenmodells vorgestellt, das MWL für mehrere Automatisierungsstufen in der Sensorführung und Nutzlastsensordatenauswertung beschreibt. Modellparameter der menschlichen Interaktion für ein ganzheitliches Aufgaben- und Aktivitätsset werden beschrieben. Schließlich wird eine Methode zur Bestimmung des Bedarfsparameterwerts aus einem Datensatz einer experimentellen Kampagne und Ergebnisse vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-58472-0_5 b70a4245c2a356fa1393042ff9e0d4c8;de;;;7.2.;;;Textabrufmethoden für das Ranking von Elementen beim kollaborativen Filtern Collaborative Filtering (CF) zielt darauf ab, unbekannte Bewertungen eines Benutzers von anderen ähnlichen Benutzern vorherzusagen. Die Einzigartigkeit des Problems hat seine Formulierung von anderen Informationsabrufproblemen unterschieden. Während sich die Formulierung bei Rating-Vorhersageaufgaben als effektiv erwiesen hat, hat sie die potenziellen Verbindungen zwischen diesen Algorithmen und Information Retrieval (IR)-Modellen eingeschränkt. In diesem Papier schlagen wir einen gemeinsamen Notationsrahmen für IR und Rating-basierte CF vor, sowie eine Technik, CF-Daten mit einer bestimmten Struktur zu versehen, um jede IR-Gewichtungsfunktion damit verwenden zu können. Wir argumentieren, dass die Flexibilität unseres Ansatzes zu viel leistungsfähigeren Algorithmen führen kann. Tatsächlich haben wir in dieser Arbeit festgestellt, dass IR-Modelle zusammen mit verschiedenen Normalisierungsstrategien bei Item-Ranking-Aufgaben gut funktionieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20161-5_30 0a49ee06a53641ab62a19ff94a0cc381;de;;;7.2.;;;Ansätze zur Verwendung einer Wort-Bild-Ontologie und eines annotierten Bildkorpus als Intermedia für den mehrsprachigen Bildabruf In ImageCLEFphoto2006 werden zwei Arten von Intermedia untersucht. Der Ansatz, eine Wort-Bild-Ontologie zu verwenden, ordnet Bilder grundlegenden Konzepten in einer Ontologie zu und misst die Ähnlichkeit zwischen zwei Bildern unter Verwendung der Art der Beziehung der Ontologie. Der Ansatz, einen annotierten Bildkorpus zu verwenden, ordnet Bilder Texten zu, die Konzepte in den Bildern beschreiben, und die Ähnlichkeit zweier Bilder wird durch Textgegenstücke unter Verwendung von BM25 gemessen. Die offiziellen Läufe zeigen, dass visuelle Abfragen und Intermedia nützlich sind. Vergleicht man die Läufe, die nur eine Textabfrage verwenden, mit den Läufen, die Textabfragen und visuelle Abfragen zusammenführen, verbesserte die letztere die Leistung der ersteren um 71 % bis 119 %. Selbst in der Situation, in der Beispielbilder zuvor aus der Bildersammlung entfernt wurden, wurde die Leistung immer noch um 21% bis 43% verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74999-8_76 9c01ace7e01e35445298c3b4f32806c1;de;;;7.2.;;;Quantitatives Bewertungsmodell für das Informationssicherheitsrisiko von drahtlosen Kommunikationsnetzwerken unter Big Data Die quantitative Bewertung des Informationssicherheitsrisikos in einem drahtlosen Kommunikationsnetz kann die Sicherheit des Kommunikationsnetzes effektiv garantieren. Um das Problem zu lösen, dass die herkömmliche Methode zur Bewertung der Netzwerksicherheit nicht effektiv ist, wird ein quantitatives Risikobewertungsmodell der Informationssicherheit von drahtlosen Kommunikationsnetzwerken unter Big Data erstellt. Unter Verwendung des drahtlosen Aufbaus und Arbeitsprinzips wird das Risikobewertungssystem der drahtlosen Kommunikation aufgebaut und die Indexgewichtung bestimmt. Auf dieser Grundlage wird die Netzwerkinformationsfunktionsschnittstelle eingesetzt, die Anfangswahrscheinlichkeit berechnet und das quantitative Risikobewertungsmodell der Informationssicherheit von drahtlosen Kommunikationsnetzwerken unter Big Data erstellt. Die experimentellen Ergebnisse zeigen, dass unter der Bedingung einer Erhöhung der Häufigkeit von Netzwerkangriffen der Wert des Sicherheitspotenzials des Modells immer auf einem höheren Niveau liegt, was auf eine bessere Leistung des Modells hinweist und hilfreich ist, um die Sicherheit des Systems zu erkennen. Es ist praktisch, rechtzeitig genaue Sicherheitsschutzmaßnahmen bereitzustellen, um Sicherheitsrisiken zu widerstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36402-1_49 451b74e62e6c721031b09a7ce3023c37;de;;;7.2.;;;Ähnlichkeitssuch- und Clustering-Algorithmen zur Verarbeitung von Datenbanken mit zweidimensionalen und dreidimensionalen chemischen Strukturen Datenbanken chemischer Strukturen spielen in der Feinchemie eine immer wichtigere Rolle, z.B. für die Entwicklung neuartiger Pharmazeutika und Agrochemikalien (;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-1350-2_5 48671c224b38831235a2a97adb6a2d66;de;;;7.2.;;;Eine multidisziplinäre Wissenschaft der Mensch-Computer-Interaktion in der biomedizinischen Informatik Gesundheitsinformationstechnologien sind zu unverzichtbaren Werkzeugen für die Praxis der klinischen Medizin geworden. Es bleiben jedoch zahlreiche Herausforderungen für die vollständige Ausschöpfung seines Potenzials als Instrumente, die die klinische Versorgung voranbringen und die Patientensicherheit erhöhen. Die Mensch-Computer-Interaktion (HCI) ist eine Disziplin, die sowohl in der Informatik als auch in den Sozial- und Verhaltenswissenschaften verwurzelt ist. Es befasst sich hauptsächlich mit der Bewertung und Verbesserung der Benutzererfahrung, Benutzerfreundlichkeit und Nützlichkeit von Technologie. HCI in Medizin und Gesundheitswesen, das Thema dieses Bandes, erstreckt sich über die klinische und Verbraucherinformatik und richtet sich an eine Reihe von Benutzergruppen, darunter Anbieter, biomedizinische Wissenschaftler und Patienten. Die Bandbreite von HCI in der Biomedizin und im Gesundheitswesen ist ziemlich breit und umfasst Tausende von Zeitschriftenartikeln aus medizinischen Disziplinen und Bereichen der Verbrauchergesundheit. Obwohl die 14 Kapitel in diesem Band in Bezug auf Thema und Umfang recht unterschiedlich sind, liegt der Schwerpunkt stärker auf der klinischen Informatik mit einigen Kapiteln, die sich mit Fragen der Verbrauchergesundheitsinformatik befassen. Dieses Einführungskapitel gibt einen kurzen Überblick über die anderen Kapitel dieses Bandes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-17272-9_1 7b6eaa5a63add60c342a599653c10e9d;de;;;7.2.;;;Verbesserung der maschinellen Übersetzungsbewertung durch einfache sprachlich motivierte Funktionen Unter Verwendung des Regressions-SVM-Frameworks schlägt dieses Papier eine linguistisch motivierte Feature-Engineering-Strategie vor, um eine MT-Bewertungsmetrik mit einer besseren Korrelation mit menschlichen Bewertungen zu entwickeln. Im Gegensatz zu den gängigen Praktiken der „gierigen“ Kombination aller verfügbaren Funktionen werden nach menschlicher Intuition für die Übersetzungsqualität sechs Funktionen vorgeschlagen. Anschließend wird der Beitrag linguistischer Merkmale anhand einer Bergsteigerstrategie untersucht und analysiert. Experimente zeigen, dass das Regressions-SVM-Modell mit sechs linguistischen informationsbasierten Merkmalen im Vergleich zum SVM-Ranking-Modell oder den vorherigen Versuchen zu umfassenden linguistischen Merkmalen besser über verschiedene Datensätze hinweg generalisiert und diese linguistischen Merkmale mit geeigneten nicht-linguistischen Metriken erweitert werden können zusätzliche Verbesserungen.;-;-;-;https://link.springer.com/article/10.1007/s11390-011-9415-8 28b87b085fbad0e531904e354a96e493;de;;;7.2.;;;Ein automatisches Schlüsselwortextraktionssystem für wissenschaftliche Dokumente Automatische Schlüsselwortextraktionstechniken spielen bei vielen Aufgaben eine wichtige Rolle, darunter Indizierung, Kategorisierung, Zusammenfassung und Suche. In diesem Beitrag entwickeln und evaluieren wir ein automatisches Keyphrase-Extraktionssystem für wissenschaftliche Dokumente. Im Vergleich zu früheren Arbeiten konzentriert sich unser System auf zwei wichtige Aspekte: (1) Präzisere Lokalisierung potenzieller Schlüsselphrasen: Es wird ein neues Verfahren zur Generierung von Kandidatenphrasen vorgeschlagen, das auf dem Kernworterweiterungsalgorithmus basiert, der die Größe des Kandidatensatzes um etwa . reduzieren kann 75%, ohne die Rechenkomplexität zu erhöhen, (2) Überlappungsbeseitigung für die Ausgabeliste: Wenn eine Phrase und ihre Unterphrasen als Kandidaten koexistieren, wird ein inverses Dokumenthäufigkeitsmerkmal eingeführt, um die richtige Granularität auszuwählen. Für die Phrasengewichtung wurden zusätzliche neue Funktionen hinzugefügt. Zur Bewertung des vorgeschlagenen Systems wurden Experimente basierend auf realen Datensätzen durchgeführt. Die Ergebnisse zeigen die Effizienz und Effektivität des verfeinerten Kandidatensatzes und zeigen, dass die neuen Funktionen die Genauigkeit des Systems verbessern. Die Gesamtleistung unseres Systems schneidet im Vergleich zu anderen hochmodernen Keyphrase-Extraktionssystemen günstig ab.;-;-;-;https://link.springer.com/article/10.1007/s10115-012-0480-2 d04d680169123300c07d596f0e6baf74;de;;;7.2.;;;ADEB: Ein dynamisches Alert-Grad-Evaluierungsmodell für die Blogosphäre Dieses Papier schlägt ein dynamisches Bewertungsmodell für den Alarmgrad (mit dem Namen ADEB) für die Blogosphäre vor, um die schlechte Verfolgungsfähigkeit der Themenverbreitung in traditionellen Themenerkennungsmodellen zu verbessern. Das Modell berücksichtigt umfassend die gegenseitige Beeinflussung von Alert-Text und Verbreitungsgeschwindigkeit und modifiziert die Auswertungsergebnisse dynamisch durch Analyse der Alert-Thema-Auftrittshäufigkeit, Rezensionen, Kommentare und der bestehenden Zeit des Blog-Themas. Durch das Verfolgen der Themengenerierung und -verbreitung des Alert-Blogs vermeidet ADEB effektiv die Ungenauigkeit des statischen Alert-Grenzwerts, verkürzt die Alert-Reaktionszeit und verbessert die Erkennungsfähigkeit des Burst-Alerts. Um die Leistung von ADEB zu validieren, zeigen die Experimente am Datenkorpus zur „Campus-Netzwerkkultur“ eine höhere Anwendungsvalidität und Praktikabilität der Alarmbewertung für die Blogosphäre.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03996-6_8 bdc824335d657ef085b6e429cf3ace58;de;;;7.2.;;;Domänenmodell einer Mustersprache für die Klassenverantwortungszuweisung für Informationssysteme Die Zuweisung der Klassenverantwortung ist eine Entwurfsentscheidung, die früh in der Entwurfsphase in der Softwareentwicklung getroffen werden muss, um Analysemodellierung und Entwurfsmodellierung zu überbrücken. Es stützt sich jedoch stark auf das Fachwissen und die Erfahrung des Entwicklers und wurde ad-hoc durchgeführt. Die vorliegende Arbeit beschreibt allgemeine schrittweise Richtlinien, liefert jedoch keine konkreten Methoden. In diesem Papier stellen wir eine Mustersprache vor, die dabei hilft, Klassenverantwortlichkeiten für Anwendungen im Bereich der Informationssysteme zu identifizieren und zuzuweisen. Die vorgestellte Mustersprache besteht aus acht Mustern. Bevor wir die Muster für die Klassenverantwortungszuweisung präsentieren, stellen wir ein Domänenmodell vor, das Idiome für die Zusammensetzung jedes Musters bereitstellt. Die beteiligten Rollen im Domänenmodell werden erläutert. Wir greifen eine Musterspezifikation auf und erklären die Art und Weise, wie das Muster zusammengesetzt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35600-1_6 43b64fcf84395be13134dc7a310e7fd9;de;;;7.2.;;;MEXIR auf der INEX-2011 Dies ist das zweite Jahr der Teilnahme der Kasetsart University an INEX. Wir haben an zwei Tracks teilgenommen: Snippet Retrieval und Data Centric. In diesem Jahr haben wir ein XML-Informationsabrufsystem eingeführt, das MySQL und Sphinx verwendet und das wir More Efficient XML Information Retrieval (MEXIR) nennen. In unserem System werden XML-Dokumente in einer Tabelle mit einem festen relationalen Schema gespeichert. Das Schema ist unabhängig von der logischen Struktur von XML-Dokumenten. Darüber hinaus stellen wir eine Strukturgewichtungsfunktion vor, die die Leistung von MEXIR optimiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35734-3_16 c9ab608df20f59016ea097b2c2cf1d45;de;;;7.2.;;;Eine empirische Studie zu einem interaktiven, sitzungsorientierten computergestützten Verhandlungsunterstützungssystem (NSS) Verhandeln ist eine der vier wichtigsten Entscheidungsrollen von Managern. Tatsächlich nimmt die Lösung von Konflikten 20 % der Arbeitszeit eines Managers ein. Diese zunehmende Häufigkeit von Verhandlungsszenarien in Verbindung mit der zunehmenden Komplexität der in einer Verhandlung zu lösenden Probleme machen die Möglichkeit der Computererweiterung für die Verhandlung sehr attraktiv. Implementierungen von computergestützten Verhandlungsunterstützungssystemen (NSS) in der Geschäftswelt, in internationalen Angelegenheiten, im Arbeitsrecht sowie in Umwelt- und Sicherheitsstreitigkeiten haben ihr Potenzial gezeigt, Verhandlungsprobleme für Verhandlungspartner beherrschbarer und verständlicher zu machen. Dennoch haben Pioniere der NSS-Forschung ihre Bestürzung über den Mangel an rigoroser empirischer Forschung und Bewertung von NSS zum Ausdruck gebracht. Insbesondere besteht Forschungsbedarf, um zu ermitteln, wie und unter welchen Umständen Verhandlungsprozesse durch die NSS-Unterstützung verbessert werden können.;-;-;-;https://link.springer.com/article/10.1007/BF01409712 e219bac712b2b9b4833dcadec95dbfed;de;;;7.2.;;;Eine Bewertung von Hash-Funktionen auf einer leistungsanalysebeständigen Prozessorarchitektur Kryptografische Hash-Funktionen sind eine allgegenwärtige Komponente in sicherheitskritischer Software und Geräten, sie unterstützen digitale Signatur- und Datenauthentizitätsschemata, Mechanismen zur Schlüsselableitung, Pseudozufallszahlengenerierung und so weiter. Ein Kriterium für Kandidaten-Hash-Funktionen in der;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21040-2_11 7f83699122b0b98e69ad8064eaf3ffee;de;;;7.2.;;;Verfeinern der Diagrammpartitionierung für das Clustering in sozialen Netzwerken Die Graphpartitionierung ist bei vielen Anwendungen ein traditionelles Problem, und es wurden eine Reihe hochwertiger Algorithmen entwickelt. In letzter Zeit hat die Nachfrage nach der Analyse sozialer Netzwerke das neue Forschungsinteresse an Graph-Clustering geweckt. Soziale Netzwerke unterscheiden sich von herkömmlichen Graphen dadurch, dass sie einige Schlüsseleigenschaften aufweisen, die in gängigen Partitionierungsalgorithmen weitgehend vernachlässigt werden. In diesem Papier schlagen wir einen neuartigen Rahmen vor, um Cluster in realen sozialen Netzwerken zu finden. Das Framework besteht aus mehreren Schlüsselfunktionen. Zuerst definieren wir eine neue Metrik, die die kleine Weltstärke zwischen zwei Vertices misst. Zweitens entwerfen wir eine Strategie, die diese Metrik verwendet, um bestehende Partitionierungsalgorithmen für gemeinsame Zielfunktionen gierig, aber effektiv zu verfeinern. Wir führen eine umfangreiche Leistungsstudie durch. Die empirischen Ergebnisse zeigen deutlich, dass das vorgeschlagene Framework die Ergebnisse moderner Methoden deutlich verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17616-6_9 c05c2b600a5cb6c59ee846deef1f6de3;de;;;7.2.;;;Verwenden von Software-Agenten zur Verbesserung der Funktionalität des Social Knowledge Portals Moderne wissensbasierte Organisationen benötigen IT-Lösungen, die die Ausführung ihrer Geschäftsprozesse unterstützen, indem sie den Zugriff auf kodifiziertes Wissen zu diesen Prozessen ermöglichen. Dieses Wissen kann mithilfe sozialer Software wie Wikis und Blogs gesammelt und geteilt werden. Aber nutzergenerierte Inhalte führen oft zu einer Granularität des Wissens. Oftmals ist es notwendig, das Gesamtbild zu vermitteln, und insbesondere wenn die Organisation in viele Teams aufgeteilt ist, ist es notwendig, eine Kompetenzlandkarte bereitzustellen. Eines der Konzepte, die angewendet werden können, um diese Probleme anzugehen, ist die Software-Agenten-Gesellschaft, die auf der Spitze der sozialen Softwareplattform operiert. In diesem Beitrag präsentieren wir ein Konzept der Architektur einer solchen Lösung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41687-3_4 3b56f6cf0f058d31f14a2bd6b2af084a;de;;;7.1.;;;Eine Fertigungsinformationsinfrastruktur, um teambasiertes Design mit globaler Fertigung zu verbinden Die Entwicklung hin zu teambasierter Konstruktion und globaler Fertigung hat zu erheblichen Verbesserungen der Informationsunterstützungssysteme geführt, um Produktdesignern und Fertigungsingenieuren die Entscheidungsfindung zu erleichtern. Dieses Papier beschreibt die Ergebnisse eines Forschungsprogramms, das die in Produkt- und Fertigungsmodellen erforderlichen Informationsinfrastrukturen für die Fertigung untersucht hat. Ein Datenmodell zur Darstellung globaler Produktionsstätten wird vorgeschlagen. Darüber hinaus wurde ein Produktdaten-Framework definiert, das mehrere Fertigungsansichten eines Produkts unterstützen kann. Zur Veranschaulichung wurden die Bearbeitungs- und Montageprozesse herangezogen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35412-5_33 182787b4b231265dbdd03bbf7e50fc2e;de;;;7.1.;;;Praxisleitfaden zur Produktionsplanung und -steuerung in der HVLV-Produktion In diesem Papier werden wir eine Reihe von Überlegungen und Richtlinien vorschlagen, von denen wir glauben, dass sie für einen effizienten Fluss in der sich nicht wiederholenden Produktion entscheidend sind. Die vorgeschlagenen Faktoren sind Erkenntnisse, die durch die Anwendung von Lean-Prinzipien auf zwei Fälle von sich nicht wiederholenden Herstellern gewonnen wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30000-5_73 9ad22b81802be048d3cee3bc0f30a977;de;;;7.2.;;;Semantisch-distanzbasierte Auswertung von Ranking-Anfragen über relationale Datenbanken Bei der herkömmlichen Datenbanksuche wird beim Vergleichsprozess ein Mustervergleich verwendet. Bei einer Abfrage mit einigen Suchwörtern werden Tupel nur dann ausgewählt, wenn die Wörter der Tupel genau mit den Abfragewörtern übereinstimmen. In diesem Beitrag schlagen wir eine neue Methode zur Bewertung relationaler Ranking-Anfragen (oder;-;-;-;https://link.springer.com/article/10.1007/s10844-009-0116-5 2a2738947af8d654371f9730212a2251;de;;;7.2.;;;Ein allgemeiner Ansatz für das Clustering in großen Datenbanken mit Rauschen Mehrere Clustering-Algorithmen können auf das Clustern in großen Multimedia-Datenbanken angewendet werden. Die Effektivität und Effizienz der bestehenden Algorithmen sind jedoch etwas eingeschränkt, da das Clustern in Multimediadatenbanken das Clustern von hochdimensionalen Merkmalsvektoren erfordert und weil Multimediadatenbanken oft große Mengen an Rauschen enthalten. In diesem Papier stellen wir daher einen neuen auf Kernel Density Estimation basierenden Algorithmus für das Clustering in großen Multimedia-Datenbanken namens DENCLUE (DENsity-based CLUstEring) vor. Kernel Density Estimation (KDE) modelliert die Gesamtpunktdichte analytisch als Summe der Kernel- (oder Einfluss-) Funktionen der Datenpunkte. Cluster können dann durch Bestimmung von Dichteattraktoren identifiziert werden und Cluster beliebiger Form können leicht durch eine einfache Gleichung der Gesamtdichtefunktion beschrieben werden. Die Vorteile unseres KDE-basierten DENCLUE-Ansatzes sind: (1) er hat eine solide mathematische Basis, (2) er hat gute Clustering-Eigenschaften in Datensätzen mit hohem Rauschanteil, (3) er erlaubt eine kompakte mathematische Beschreibung beliebig geformter Cluster in hochdimensionalen Datensätzen, und (4) es ist deutlich schneller als bestehende Algorithmen. Um die Effektivität und Effizienz von DENCLUE zu demonstrieren, führen wir eine Reihe von Experimenten mit einer Reihe verschiedener Datensätze aus der CAD und Molekularbiologie durch. Ein Vergleich mit k-Means, DBSCAN und BIRCH zeigt die Überlegenheit unseres neuen Algorithmus.;-;-;-;https://link.springer.com/article/10.1007/s10115-003-0086-9 7fd1889b6ec3c26ccc988f0eaad255e6;de;;;7.1.;;;Internationaler ERP-Lehrkoffer: Design und Erfahrungen Enterprise Resource Planning (ERP)-Systeme gehören zu den am weitesten verbreiteten großen Informationssystemen. Industrie und Studierende in IT-nahen Fächern erwarten, dass die ERP-Ausbildung bereits während des Studiums Teil des Studiums ist. Traditionelle Lehrmaterialien verwenden jedoch etwas vereinfachte Mehrrollen- und organisationsübergreifende Prozesse, die die Realität in Unternehmen nicht vollständig widerspiegeln, beispielsweise in Bezug auf rollenbasierte Berechtigungen oder Koordinationsherausforderungen in internationalen Organisationen. Dieses Papier berichtet über einen Versuch, die SAP ERP GBI-Fallstudie auf eine internationale Dimension auszudehnen. Zu diesem Zweck wurde eine internationale ERP-Fallstudie entwickelt, die im Beitrag mit ihrem didaktischen Ansatz, der technischen Umsetzung der Fallstudie in SAP und der Lehrumgebung vorgestellt wird. Die Arbeit ist eine gemeinsame Anstrengung der Universität Rostock und der Technischen Universität Riga, die sich auf die Verbesserung der ERP-Einführungsausbildung für Studiengänge in Informationstechnologie und Wirtschaftsinformatik konzentriert. Ein wesentliches Merkmal der internationalen ERP-Fallstudie ist, dass Studierende beider Hochschulen kollaborativ an laufenden Geschäftsprozessen im SAP ERP-System arbeiten. Evaluationen legen nahe, dass die Studierenden die Fallstudie als geeignetes Mittel schätzen, um einen Einblick in die realen Herausforderungen des ERP-Einsatzes im internationalen Kontext zu bekommen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-29133-8_7 20c1289f3d6e4a8a6dded929bde12b4e;de;;;7.2.;;;Ein konzeptioneller Rahmen für die Personalisierung von Aufgaben und Werkzeugen in der IS-Bildung Lernerzentrierte, selbstregulierte Lernansätze wie Flipped Classrooms oder personalisierte Lernumgebungen (PLEs) sind beliebt. Dieser Beitrag analysiert personalisiertes Lernen in kollaborativen, selbstregulierten E-Learning-Ansätzen unter Anwendung der Theorie des kognitiven Fits, um die Personalisierung von Lernaufgaben und Lernwerkzeugen zu erklären. Der PLF wird vorgestellt, der die Kernkonstrukte solcher Lernprozesse sowie eine Methode zur Personalisierung definiert. Die Machbarkeit des Frameworks wird anhand eines Gedankenexperiments demonstriert, das seine mögliche Anwendung auf einen Universitätslehrgang zu elektronischen Verhandlungen im Rahmen eines IS-Curriculums beschreibt. Aktuelle Lernmethoden des Studiengangs und neue Lernmethoden passend zum PLF werden verglichen und kritisch diskutiert, Potenziale zur Verbesserung des personalisierten Lernens sowie Wege zur personalisierten Lernforschung aufgezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-23095-1_3 2f1a7f7a422572788c396ff901ff80f5;de;;;7.2.;;;Informationssystem für Antitumormittel: Biologisches Modul der Computerdatenbank Die Struktur des biologischen Moduls der Computerdatenbank im ISIS/Base-Format des Informationssystems für Antitumorwirkstoffe des Krebsforschungszentrums GU Blokhin (CRC), RAMS, ist gegeben und die organisatorischen und technologischen Aspekte seines Ladens, Bearbeitens Abruf und Verwendung werden beschrieben.;-;-;-;https://link.springer.com/article/10.3103/S0005105507050068 a1cb5475e1b851f579f442d3676756dc;de;;;7.2.;;;Erkennen von Beschränkungen und deren Beziehungen aus behördlichen Dokumenten mithilfe von NLP-Techniken Das Extrahieren von Einschränkungen und Prozessmodellen aus natürlichsprachlichem Text ist eine ständige Herausforderung. Während der Fokus der aktuellen Forschung lediglich auf der Extraktion selbst liegt, präsentiert dieser Beitrag einen dreistufigen Ansatz, um Beschränkungen zu gruppieren sowie Beziehungen zwischen Beschränkungen zu erkennen und anzuzeigen, um deren Implementierung zu erleichtern. Dazu verwendet der Ansatz NLP-Techniken, um Sätze mit Beschränkungen zu extrahieren, sie z. Diese Beziehungen werden mit Hilfe von Netzwerkkarten dargestellt. Der Ansatz wird prototypisch umgesetzt und anhand von regulatorischen Dokumenten aus dem Finanzsektor sowie Experteninterviews bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-02610-3_15 1d940b4a7e6104303ac79334d5317641;de;;;7.2.;;;Skalierungsauswahl in SIFT Flow für robusten dichten Bildabgleich SIFT Flow ist eine Methode, um ein Bild an seinen Nachbarn in einer großen Bildersammlung bestehend aus einer Vielzahl von Szenen auszurichten. Ursprünglich für die szenenübergreifende Ausrichtung vorgeschlagen, hat es ein gutes Potenzial für einen robusten dichten Abgleich zwischen Bildern einer Szene, die unter großen Änderungen der Betrachtungsbedingungen aufgenommen wurden. Dieses Potenzial wurde jedoch nicht vollständig ausgeschöpft, da dichtes SIFT im SIFT-Fluss unter einem einzigen vordefinierten Maßstab extrahiert wird. In diesem Artikel untersuchen wir dieses Potenzial und schlagen neue Algorithmen zur Auswahl geeigneter Skalen vor, während der SIFT-Fluss für den dichten Bildabgleich angewendet wird. Indem wir das Verhalten des SIFT-Flusses unter Skalenänderungen untersuchen, schlagen wir zwei neue Konzepte vor, nämlich den optimalen relativen Skalenfaktor (ORSF) und den optimalen Anpassungsmaßstab (OMS) unter Verwendung von gradientenverstärkten normalisierten gegenseitigen Informationen. ORSF und OMS definieren die am besten geeigneten Skalen während des SIFT-Flow-Matchings. Es werden suboptimale und optimale Methoden zur Schätzung von ORSF und OMS vorgeschlagen. Es wird gezeigt, dass durch die Anwendung von ORSF und OMS die Genauigkeit des SIFT-Flusses für den dichten Bildabgleich bei Bildern mit signifikanten Maßstabsänderungen stark verbessert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03731-8_10 fc236eb97c0a150df17f585120c8691f;de;;;7.1.;;;Nutzung von Handydaten für das Notfallmanagement: eine systematische Literaturübersicht Notfallmanagement (EM) ist aufgrund der verheerenden Auswirkungen von Notfällen seit jeher ein Anliegen von Menschen aus allen Gesellschaftsschichten. Der weltweite Ausbruch von COVID-19 im Jahr 2020 hat EM zum Top-Thema gedrängt. Da Mobiltelefone allgegenwärtig geworden sind, haben viele Wissenschaftler Interesse daran gezeigt, Mobiltelefondaten für EM zu verwenden. Dieser Artikel präsentiert eine systematische Literaturübersicht über die Nutzung von Mobiltelefondaten für EM, die 65 verwandte Artikel umfasst, die zwischen 2014 und 2019 aus sechs elektronischen Datenbanken verfasst wurden. Aus den überprüften Artikeln gingen fünf Themen zur Nutzung von Mobiltelefondaten für EM hervor, und es wird ein systematischer Rahmen vorgeschlagen, um den aktuellen Stand der Forschung zu veranschaulichen. In diesem Papier werden auch EM im Rahmen der COVID-19-Pandemie und fünf zukünftige Auswirkungen des vorgeschlagenen Rahmens als Leitfaden für die zukünftige Arbeit erörtert.;-;-;-;https://link.springer.com/article/10.1007/s10796-020-10057-w 5b2f339fa4735cd620db6102a0707a6f;de;;;7.1.;;;Energiemanagement basierend auf dem Internet der Dinge Die Kontrolle des Energieverbrauchs und die Nutzung erneuerbarer Energien werden in diesen Jahren immer wichtiger. Darüber hinaus gibt es einen starken Übergang von einem Modell, bei dem die Produktion geplant und vorhersehbar ist, zu einem anderen dezentralen Modell, das schwer vorhersehbar ist und das Energiemanagement in verteilten Umgebungen wirklich schwierig ist, was die Integration neuer Techniken wie der Informations- und Kommunikationstechnologie erfordert (IKT) und künstliche Intelligenz. Mit dem Internet der Dinge (IoT) können Geräte jedoch miteinander kommunizieren und Daten austauschen. Das IoT-Paradigma verspricht, die Sichtbarkeit und das Bewusstsein für den Energieverbrauch durch intelligente Sensoren und Zähler in Maschinen und Produktionslinien zu erhöhen. Die verbundenen Objekte sind darauf ausgelegt, Daten in Echtzeit zu sammeln und zu analysieren. Sie ermöglichen somit die Überwachung und Steuerung der Nutzung und des Verbrauchs. Dadurch können Echtzeit-Energieverbrauchsdaten aus Produktionsprozessen einfach gesammelt und analysiert werden, um die Entscheidungsfindung zu verbessern. In diesem Zusammenhang trägt dieses Dokument zum Verständnis der durch die IoT-Technik ermöglichten Energieerzeugungsmanagementpraktiken bei. Diese Technik stellt ein Element eines offenen Systems dar, das immer in permanenter Interaktion mit anderen Systemen steht. Dafür ist das Vorhandensein von Interoperabilität in dieser Technik zur Anpassung an andere bereits bestehende oder noch zu schaffende Systeme unerlässlich. Darüber hinaus können Energiemanager die Einführung des IoT nutzenorientiert anpassen, indem sie Energiemanagementpraktiken angehen, die stärker auf die Geschäfts-, Daten- und Systemreife und die verfügbaren Informationstools ausgerichtet sind. Schließlich kann diese Arbeit als Informationsplattform für Planer und Installateure im Bereich des intelligenten Energiemanagements betrachtet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-64987-6_20 ba4c20e59dc81095edcca3e7fa68ed8c;de;;;7.1.;;;Literaturstudium im Ausland zur SCM-Strategie mit einem hochmodernen SCM-Strategiemodell Es gibt viele Forschungsarbeiten und Bücher über die SCM-Strategie, aber nur wenige Bücher basieren auf der strategischen Managementtheorie im reinen Sinne. Infolgedessen sind Theorien selbst flach und nicht tiefgründig. Mit anderen Worten, SCM konzentriert sich auf einen strategischen Bereich der Supply-Chain-Aktivitäten, während es jedoch nur wenige Bücher gibt, die auf der Grundlage der theoretischen oder traditionellen Artikel der Managementstrategie im reinen Sinne geschrieben wurden. Das Ziel dieses Artikels ist es, die theoretischen Strategieformulierungskonzepte aus 50 Büchern zu überprüfen, die in den Jahren 2004 bis 1990 veröffentlicht wurden, während wir Mitte 1995 Logistikliteraturstudien mit fast demselben Ansatz durchgeführt und Beiträge zu wissenschaftlichen Zeitschriften in Japan erstellt haben. Diese Art der SCM-Literaturstudie ist eine brandneue Forschung und der erste Versuch einer Forschungstätigkeit in Japan. Als Umfrageergebnis wurde deutlich, dass die meisten Bücher strukturellen Aspekten der SCM-Strategieformulierung als State-of-the-Art-SCM-Modell in Verbindung mit der Managementstrategietheorie wenig Beachtung geschenkt haben. Aus diesem Grund haben wir die Inhalte der SCM-Strategie in fünfzig Büchern überprüft und schließlich unsere eigene SCM-Strategiestruktur und -formulierung vorgeschlagen, die auf strategischen Theorien basiert, die aus der traditionellen internationalen Managementtheorie sowie der strategischen Theorie des klassischen Managements extrahiert wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07287-6_14 15a88df8426743bd371f50a1d176639b;de;;;7.1.;;;Geschäftsstrategien und Organisationsdesign Geschäftsstrategien ermöglichen es einem Unternehmen, seine Stärken zu betonen und seine Schwächen abzuschwächen. Ohne die gibt es keinen Fokus und die Firma kann sich im Geschäftslabyrinth verlieren. In diesem Kapitel werden die Zusammenhänge zwischen Internationalisierung, Geschäftsstrategien und Organisationsstrukturen erläutert. Es verfolgt auch die Wurzeln, verfolgt die Entwicklung und führt in die aktuellen Fragen von Geschäftsstrategien und Organisationsdesigns ein. Darüber hinaus vergleicht es die verschiedenen Strategien und Organisationsstrukturen, die für verschiedene Unternehmenstypen geeignet sind, und schlägt vor, wie sich diese Strategien und Organisationsstrukturen gegenseitig ergänzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35164-8_5 32ba90a6b674f1900b730ae0402e1a71;de;;;7.1.;;;Intellektualisierung von Bildungsinformationssystemen basierend auf adaptiven semantischen Modellen Für ein effektives Funktionieren von Informationssystemen und technologischen Prozessen im Bildungsbereich sowie für das strategische Management von Bildungseinrichtungen müssen eine Reihe von Problemen gelöst werden. Der Beitrag präsentiert eine kurze Analyse der Ergebnisse des Forschungsteams des Autors zu den Problemen der Intellektualisierung von Informationssystemen und technologischen Prozessen im Bildungsbereich sowie der vorgeschlagenen Lösungsansätze. In den bestehenden intellektuellen Informationssystemen fehlt deren zielgerichtete Verwendung für die Steuerung des Bildungsprozesses nach den geforderten Prinzipien der didaktischen Systeme. Zudem ist das Problem der Realisierung von Interaktivität und Kreativität im Unterricht unter Nutzung von Intellektuellen Informationssystemen für Bildungszwecke (IISEP) und deren Qualitätsbestimmung unzureichend untersucht. Um die bestehenden Mängel von IISEP zu beseitigen, schlagen wir vor, intelligente Module zu schaffen, die direkt in IISEP integriert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-92363-5_8 c368fb48a99b156766466ff6031f6a2a;de;;;7.1.;;;Die Integration chemischer Informationssysteme in firmeninterne Systeme in einer modernen Computerumgebung Chemische Informationssysteme befassen sich mit dem Speichern, Suchen und Abrufen von Informationen über chemische Strukturen. Die gespeicherten Informationen können grafische Strukturbeschreibungen auf mehreren Ebenen und zusätzlich eine große Vielfalt numerischer und textueller Daten in Verbindung mit der chemischen Struktur umfassen. Chemische Informationssysteme unterscheiden sich von anderen Systemtypen durch ihre Fähigkeit, Suchen durchzuführen, bei denen die Suchanfrage ganz oder teilweise durch eine grafische Darstellung definiert ist. Diese Fähigkeit, nach ganzen Strukturen oder Teilstrukturen zu suchen (Unterstruktursuche) hat die Entwicklung mehrerer Generationen spezialisierter Softwaresysteme sichergestellt, die es dem Chemiker in letzter Zeit, wenn auch nicht in den frühesten Implementierungen, ermöglicht haben, mit dem System in der natürlichen Sprache von . zu kommunizieren Chemie, das chemische Strukturdiagramm.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-85872-7_8 00cc3e7752f0816cf3480c06dfc06051;de;;;7.2.;;;Vergleich und Bewertung der Ontologiekonstruktion im Unternehmenskontext Die Strukturierung von Unternehmensinformationen und die Unterstützung des Wissensmanagements ist ein wachsendes Anwendungsfeld für Unternehmensontologien. Die in diesem Beitrag vorgestellte Forschungsarbeit konzentriert sich auf die Konstruktion von Unternehmensontologien. In einem Experiment wurden zwei Methoden parallel bei der Entwicklung einer Ontologie für ein Unternehmen der Automobilzulieferindustrie eingesetzt. Eine Methode basiert auf der automatischen Ontologiekonstruktion, die andere Methode ist ein manueller Ansatz basierend auf kochbuchähnlichen Anweisungen. Die Arbeit vergleicht und bewertet die Methoden und ihre Ergebnisse. Für die Ontologiebewertung wurden ausgewählte Ansätze kombiniert, darunter sowohl die Bewertung durch Ontologieingenieure als auch die Bewertung durch Domänenexperten. Die wichtigste Schlussfolgerung ist, dass die verglichenen Methoden unterschiedliche Stärken haben und eine Integration sowohl entwickelter Ontologien als auch verwendeter Methoden untersucht werden sollte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77581-2_15 bb2f7f0d6637ac085900593871cd0d8f;de;;;7.1.;;;Keiretsu: Japanische multinationale Unternehmen und die Postmoderne Kapitel 3 konzentrierte sich auf grundlegende kulturelle Prinzipien und Kapitel 4 auf grundlegende japanische Wirtschaftsstrategien. In diesem Kapitel betrachten wir die dritte Dimension, die Best als Grundlage für die japanische Wettbewerbsfähigkeit wahrnahm: die Produktionsorganisation.;-;-;-;https://link.springer.com/chapter/10.1057/9780333985687_5 8d04a82bcc4f1786acc16a668984a7b5;de;;;7.2.;;;Vermittlung von Nutzermodellen zur erweiterten Personalisierung in Empfehlungssystemen Die Bereitstellung personalisierter Empfehlungen für Benutzer erfordert eine genaue Modellierung ihrer Interessen und Bedürfnisse. Diese Arbeit schlägt einen allgemeinen Rahmen und spezifische Methoden vor, um die Genauigkeit der Benutzermodellierung in Empfehlungssystemen zu verbessern, indem von anderen Empfehlungssystemen gesammelte Daten importiert und integriert werden. Ein solcher Prozess wird als User Model Mediation bezeichnet. Die Arbeit diskutiert die Details eines solchen generischen Benutzermodellierungs-Mediations-Frameworks. Es stellt ein generisches Datenrepräsentationsmodell zur Benutzermodellierung bereit, demonstriert seine Kompatibilität mit bestehenden Empfehlungstechniken und diskutiert die allgemeinen Schritte der Mediation. Im Einzelnen werden vier Hauptarten der Mediation vorgestellt: benutzerübergreifend, artikelübergreifend, kontextübergreifend und vertretungsübergreifend. Schließlich berichtet die Arbeit über die Anwendung des Mediationsrahmens und illustriert diese mit praktischen Mediationsszenarien. Auswertungen dieser Szenarien zeigen die potenziellen Vorteile der Datenvermittlung durch Benutzermodellierung, da sie unter bestimmten Bedingungen eine Verbesserung der Qualität der den Benutzern bereitgestellten Empfehlungen ermöglicht.;-;-;-;https://link.springer.com/article/10.1007/s11257-007-9042-9 15be494d509df6d6d4539dc6c9c9045e;de;;;7.2.;;;Informationstheoretisches paarweises Clustering In diesem Beitrag entwickeln wir einen informationstheoretischen Ansatz für das paarweise Clustering. Der Laplace-Operator der paarweisen Ähnlichkeitsmatrix kann verwendet werden, um einen Markov-Random Walk auf den Datenpunkten zu definieren. Diese Ansicht bildet eine probabilistische Interpretation von spektralen Clustering-Methoden. Wir verwenden dieses Wahrscheinlichkeitsmodell, um eine neuartige Clustering-Kostenfunktion zu definieren, die auf der Maximierung der gegenseitigen Informationen zwischen aufeinanderfolgend besuchten Clustern von Zuständen der Markov-Kette basiert, die durch die Laplace-Matrix des Graphen definiert wird. Die Komplexität des Algorithmus ist auf dünn besetzten Graphen linear. Die verbesserte Leistung und die reduzierte Rechenkomplexität des vorgeschlagenen Algorithmus werden an mehreren Standarddatensätzen demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39140-8_7 1e1e9884b4bcb4a460fe35b08cdb0c7d;de;;;7.2.;;;Abrufen hierarchischer Lehrplanelemente für die Analyse der Prüfungsfragen Lehrende, Institutionen und Zertifizierungsstellen möchten oft wissen, ob Studierende angemessen und vollständig im Hinblick auf einen Standard bewertet werden. Damit Lehrkräfte erkennen können, ob Prüfungen ausgewogen oder thematisch korrekt sind, untersuchen wir die Herausforderung, Prüfungsfragen in eine Konzepthierarchie einzuordnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30671-1_42 145dd2d7a26437076fca70cf8ee9e381;de;;;7.1.;;;Sichere stochastische Planung: Planung zur Vermeidung tödlicher Zustände Markov-Entscheidungsprozesse (MDPs) werden als Standardmodell in der Planung der Künstlichen Intelligenz angewendet. MDPs werden verwendet, um optimale oder nahezu optimale Richtlinien oder Pläne zu erstellen. Ein Bereich, der in Diskussionen über die Planung unter stochastischen Umgebungen oft vermisst wird, ist der Umgang von MDPs mit Sicherheitsbeschränkungen, ausgedrückt als Wahrscheinlichkeit des Erreichens von Bedrohungszuständen. Wir stellen eine Methode vor, um eine wertoptimierte Politik zu finden, die die Sicherheitsbeschränkung erfüllt, und berichten über die Gültigkeit und Wirksamkeit unserer Methode durch eine Reihe von Experimenten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04879-1_8 832075564ca14e65f39ba162611b8d2b;de;;;7.1.;;;Vertretung und Vermittlung im digitalisierten Arbeiten: Nachweise aus der Instandhaltung von Bergbaumaschinen Die zunehmende Digitalisierung der Arbeit führt zu einer zunehmend vernetzten und wissensbasierten Praxis. Daher müssen wir uns ständig erkundigen;-;-;-;https://link.springer.com/article/10.1057/s41265-017-0050-x 6bd94ac159b79f786fd26f23cb11454e;de;;;7.1.;;;Verbesserung des Wissensmanagements im Gesundheitswesen: Re-Engineering-Ansatz für eine erfolgreiche Implementierung Änderungen der Geschäftspraktiken bergen Risiken. Schon immer wurde versucht, verschiedene Konzepte für eine erfolgreiche Neustrukturierung von Geschäftsprozessen zu entwickeln, um eine Technologieübernahme zu ermöglichen. Dies liegt daran, dass der Erfolg eines jeden Unternehmens sowohl von seiner Struktur als auch von seiner Fähigkeit zur Einführung neuer Technologien abhängt. Infolgedessen gehen die großen Erfolgsgeschichten der Weltwirtschaft von den Organisationen aus, die am besten in der Lage sind, neue Technologien zu übernehmen, zu denen unweigerlich die Informationstechnologie (IT) gehört. In diesem Kapitel wird untersucht, wie Business Process Reengineering (BPR) zur Verbesserung des Wissensmanagements (WM) in Gesundheitsdiensten eingesetzt werden kann, indem (i) die Wirksamkeit und Nützlichkeit von BPR bewertet, (ii) eine kritische Überprüfung von Ansätzen für BPR vorgelegt wird und (iii) beschreiben einen Rahmen für die Verwendung von BPR für KM basierend auf empirischer Forschung. Ziel ist es, einen fundierten strategischen und taktischen Managementansatz für die erfolgreiche Implementierung von Wissensmanagementsystemen (KMS) zur Verbesserung der Projektverwaltung im Gesundheitswesen bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/b137171_4 0f1335827c6236512ffebb53fa9d3e4d;de;;;7.2.;;;GEOUJA-System. Die erste Teilnahme der Universität Jaén am GEOCLEF 2006 Dieses Papier beschreibt die erste Teilnahme der SINAI-Gruppe der Universität Jaén an GeoCLEF 2006. Wir haben ein System entwickelt, das aus drei Hauptmodulen besteht: dem Übersetzungssubsystem, das mit Abfragen ins Spanische und Deutsche gegen die englische Sammlung arbeitet, die Abfrageerweiterung Subsystem, das einen Recognizer für benannte Entitäten, ein Thesaurus-Erweiterungsmodul und ein geografisches Informationsblatt-Modul sowie das Informationsabruf-Subsystem integriert. Wir haben an der einsprachigen und der zweisprachigen Aufgabe teilgenommen. Die erhaltenen Ergebnisse zeigten, dass die Verwendung von geografischen und Thesaurus-Informationen zur Abfrageerweiterung die Abfrage in unseren Versuchen nicht verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74999-8_116 35b0797328150121fc7a2b2112a948bf;de;;;7.2.;;;Kognitive zeitliche Dokumentprioritäten Der zeitliche Informationsabruf nutzt zeitliche Merkmale von Dokumentensammlungen und Abfragen. Temporale Dokumentpriorwerte werden verwendet, um die Bewertung eines Dokuments basierend auf seiner Veröffentlichungszeit anzupassen. Wir betrachten eine Klasse von zeitlichen Dokumenten-Prioritäten, die von Retentionsfunktionen inspiriert sind, die in der kognitiven Psychologie betrachtet werden und die verwendet werden, um den Verfall des Gedächtnisses zu modellieren. Viele solcher Funktionen, die als zeitliches Dokument-Prior verwendet werden, wirken sich positiv auf die Gesamtabrufleistung aus. Wir untersuchen die Stabilität dieses Effekts über Nachrichten- und Microblog-Sammlungen hinweg und entdecken interessante Unterschiede zwischen den Aufbewahrungsfunktionen. Wir untersuchen auch das Problem der Optimierung von Parametern der Aufbewahrungsfunktionen als zeitliche Dokumentprior, einige Aufbewahrungsfunktionen zeigen über große Bereiche des Parameterraums eine konstant gute Leistung. Eine Aufbewahrungsfunktion basierend auf einer Weibull-Verteilung ist die bevorzugte Wahl für ein zeitliches Dokument-Prior.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36973-5_27 8cb1782489031f3ee1544e65f46ca610;de;;;7.2.;;;Clubmixer: Eine Präsentationsplattform für MIR-Projekte Die Bewertung von Lösungen für viele Musik-IR-Probleme – wie Playlist-Generierung, Musikähnlichkeit – ohne formale Bewertungsmaßnahmen erfordert häufig Benutzerstudien, um die Vorteile einer Lösung gegenüber der anderen festzustellen. Der Aufbau eines entsprechenden Anwendungsframeworks zum Bereitstellen und Testen von Benutzerantworten ist eine mühsame und komplexe Aufgabe. Wir präsentieren Clubmixer - ein fortschrittliches Client-Server-basiertes Audiosystem, das MIR-Forschern als Präsentations- und Prototyping-Plattform dienen könnte. Das Projekt zielt darauf ab, ein Software-Framework bereitzustellen, das den Aufwand für die Erstellung von MIR-basierten Lösungen minimiert. Die offene Architektur und die Verwendung offener Standards bieten eine hohe Flexibilität für mehrere MIR-bezogene Bereiche (z. B. inhaltsbasiertes Abrufen, kollaboratives Abrufen usw.). Wir beschreiben den aktuellen Stand des Systems und skizzieren die Hauptfunktionalität sowie die Vorteile von Clubmixer für die MIR-Forschung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27169-4_10 a0bd5a0eb5259a602a46df1154746706;de;;;7.2.;;;Stichwortsuche in relationalen Datenbanken Dieser Artikel gibt einen Überblick über die Forschung zur Ermöglichung der Schlüsselwortsuche in relationalen Datenbanken. Wir stellen grundlegende Merkmale vor und diskutieren Forschungsdimensionen, einschließlich Datendarstellung, Ranking, effiziente Verarbeitung, Abfragedarstellung und Ergebnispräsentation. Verschiedene Ansätze zur Entwicklung des Suchsystems werden beschrieben und in einem gemeinsamen Rahmen verglichen. Wir diskutieren die Entwicklung neuer Forschungsstrategien zur Lösung der Probleme im Zusammenhang mit probabilistischen Modellen, effizienten Top-;-;-;-;https://link.springer.com/article/10.1007/s10115-010-0284-1 5b170ea914b368f1c1ffe6941668e865;de;;;7.2.;;;Evaluation einer Forschungsumgebung der Digital Humanities: der CULTURA-Ansatz Digital Humanities-Initiativen spielen eine wichtige Rolle, um die Sammlungen des kulturellen Erbes erstmals der globalen Gemeinschaft von Forschern und der breiten Öffentlichkeit zugänglich zu machen. Weitere Arbeiten sind erforderlich, um nützliche und verwendbare Werkzeuge bereitzustellen, die Benutzer bei der Arbeit mit diesen digitalen Inhalten in virtuellen Umgebungen unterstützen. Das CULTURA-Projekt hat eine korpusunabhängige Forschungsumgebung entwickelt, die innovative Dienste integriert, die ein breites Spektrum von Benutzern bei ihrer Interaktion mit kulturellen Artefakten anleiten, unterstützen und befähigen. Dieser Artikel stellt (1) das CULTURA-System und die CULTURA-Dienste und die beiden Sammlungen vor, die zum Testen und Einsatz der Forschungsumgebung der digitalen Geisteswissenschaften verwendet wurden, und (2) eine Evaluierungsmethodik und eine formative Evaluierungsstudie mit Nachwuchswissenschaftlern. Es wurde ein Bewertungsmodell entwickelt, das als gemeinsame Grundlage für systematische Bewertungen der CULTURA-Umgebung mit Nutzergemeinschaften rund um die beiden Prüfstandssammlungen diente. Die Bewertungsmethode hat sich als geeignet erwiesen, unterschiedliche Bewertungsstrategien aufzunehmen und ermöglicht eine sinnvolle Zusammenführung von Bewertungsergebnissen. Die Evaluationsergebnisse weisen auf eine positive Wahrnehmung von CULTURA hin. Eine Reihe nützlicher Vorschläge für zukünftige Verbesserungen wurden gesammelt und in die Entwicklung des nächsten Releases der Forschungsumgebung eingespeist.;-;-;-;https://link.springer.com/article/10.1007/s00799-014-0127-x c848405d32911cbc148786094113c34b;de;;;7.2.;;;Beschleunigung der Service-Erkennung mit hierarchischem Clustering Dieses Whitepaper stellt einen effizienten Web Service Discovery-Ansatz vor, der auf hierarchischem Clustering basiert. Herkömmliche Web-Service-Discovery-Ansätze organisieren das Service-Repository normalerweise in Listenform, daher wird das Service-Matchmaking mit linearer Komplexität durchgeführt. In dieser Arbeit werden Services in einem Repository unter Verwendung hierarchischer Clustering-Algorithmen mit einem Distanzmaß von einem angeschlossenen Matchmaker geclustert. Die Diensterkennung wird dann über das resultierende Dendrogramm (binärer Baum) durchgeführt. Im Vergleich zu herkömmlichen Ansätzen, die meist eine erschöpfende Suche durchführen, zeigen wir, dass das Service-Clustering-Verfahren eine dramatische Verbesserung der Zeitkomplexität mit einem akzeptablen Genauigkeitsverlust bringt.;-;-;-;https://link.springer.com/article/10.1007/s10796-014-9525-2 d7fbf39958d1320e7063d930320f79c4;de;;;7.2.;;;Ein logischer Inferenzansatz zur Abfrageerweiterung mit Social Tags Query Expansion (QE) bezieht sich auf die Information Retrieval (IR)-Technik, bei der angenommene relevante Begriffe zu einer Abfrage hinzugefügt werden, um sie informativer zu machen und damit die Wahrscheinlichkeit, relevante Dokumente abzurufen. Ein zentrales Problem besteht darin, die hinzuzufügenden Begriffe zu identifizieren und in die ursprüngliche Abfrage zu integrieren. Wir lösen dieses Problem, indem wir Social Tags als Erweiterungsbegriffe verwenden, die im Web frei verfügbar sind. Wir integrieren diese Tags in die Abfrage, indem wir den QE-Prozess als logische Schlussfolgerung behandeln (ursprünglich in [3] vorgeschlagen) und das Hinzufügen von Tags als zusätzliche Deduktion zu diesem Prozess betrachten. Diese Arbeit erweitert Nies logische Inferenzformalisierung von QE auf die Verarbeitung sozialer Tags und schlägt eine Schätzung der Tag-Salienz vor, von der experimentell gezeigt wurde, dass sie wettbewerbsfähige Abrufleistung liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04417-5_39 172aad2d810bc3d80f420795e1753729;de;;;7.2.;;;Eine neue Methode zum Abbau von durchschnittlichen Utility-Itemsets Data Mining ist eines der spannendsten Gebiete der letzten Jahre. Sein Zweck ist es, nützliche Informationen und Wissen aus großen Datenbanken für Geschäftsentscheidungen und andere Bereiche zu entdecken. Ein technisches Thema des Data Mining ist Utility Mining, das Itemsets mit hohem Nutzen entdeckt. Ein Itemset im traditionellen Utility Mining berücksichtigt individuelle Gewinne und Mengen von Items in Transaktionen, unabhängig von seiner Länge. Anschließend wird das Durchschnittsnutzenmaß vorgeschlagen. Dieses Maß ist der Gesamtnutzen eines Itemsets geteilt durch die Anzahl der Items. Mehrere Mining-Algorithmen wurden auch für das Mining von High-Average-Utility-Itemsets (HAUIs) aus einer Transaktionsdatenbank vorgeschlagen. Die Anzahl der generierten Kandidaten ist jedoch sehr groß, da ein Itemset kein HAUI ist, sondern daraus generierte Itemsets und andere HAUIs sein können. Es wurden einige wirksame Ansätze vorgeschlagen, um Kandidaten zu beschneiden und Zeit zu sparen. Dieses Papier schlägt eine neue Methode vor, um HAUI aus Transaktionsdatenbanken zu minen. Der Vorteil dieser Methode liegt in der effizienten Kandidatenreduktion durch den Einsatz von HAUI-Tree. Eine neue Itemset-Struktur wird ebenfalls entwickelt, um die Geschwindigkeit der Berechnung der Werte von Itemsets zu verbessern und die Speichernutzung zu optimieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45237-0_5 aedb950eb5c2be6cdfab543caa98af87;de;;;7.2.;;;Kognitive Belastung der Ontologie als Mittel der Informationsrepräsentation im Bildungsprozess Der Artikel beschreibt den Prozess der Bewertung der kognitiven Belastung der Ontologie als Mittel der Informationsrepräsentation im Bildungsprozess. Ein solches Verfahren ermöglicht es, die visuelle Darstellung der Ontologie unter dem Gesichtspunkt ihrer kognitiven Wahrnehmung zu bewerten. Es werden die Merkmale der kognitiven Wahrnehmung von Informationen dargestellt, sowie die wichtigen Merkmale der kognitiven Belastung im Kontext des Bildungsprozesses identifiziert. Die grundlegenden Mittel der Informationsdarstellung, die im Bildungsprozess verwendet werden, werden betrachtet. Es wird der Ansatz des Knowledge Mapping beschrieben, bei dem Knowledge Maps als Grundprinzip der Informationsvisualisierung dienen, um deren Wahrnehmung zu erleichtern. Es wird bestimmt, dass die Ontologie, die als eine Domäne eines konzeptionellen Modells fungiert, die Bildung einer Wissensbasis für die unter Verwendung einer Wissenskartendarstellung und -speicherung angezeigten Informationen bereitstellt. Es wird ein Überblick über Studien zur Verwendung von Ontologien im Bildungsprozess gegeben. Die Elemente der Ontologie und Softwarewerkzeuge zu ihrer Entwicklung werden beschrieben, sowie die wichtigsten Ebenen der in der Ontologie gespeicherten Informationsrepräsentation hervorgehoben. Es zeigte sich, dass unter einer Vielzahl von Mitteln zur Darstellung der Ontologie die grafische Methode die Implementierung einer visuellen Darstellung der Ontologiekonzepte (und damit der Fachbegriffe und der Beziehungen zwischen ihnen) ermöglicht, die die kognitive Wahrnehmung die in der Ontologie enthaltenen Informationen. Es werden verschiedene Metriken zur Beurteilung der Qualität der entwickelten Ontologie skizziert. Darunter wird eine Gruppe von kognitiven Ergonomiemetriken unterschieden, die es ermöglichen, das ontologische Modell hinsichtlich seiner visuellen Darstellungsqualität zu beurteilen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-80129-8_25 9de4e4950b2cc6e0ccb90afafe2ac0b6;de;;;7.2.;;;Automatische Auswertung von Ontologien Wir können beobachten, dass sich der Fokus moderner Informationssysteme von der „Datenverarbeitung“ hin zur „Begriffsverarbeitung“ verlagert, d. h. die Grundeinheit der Verarbeitung ist immer weniger ein atomares Datenstück, sondern wird mehr zu einem semantischen Begriff, der interpretierbar ist und steht in einem Kontext mit anderen Konzepten. Eine Ontologie wird im Allgemeinen als eine Struktur verwendet, die Wissen über einen bestimmten Bereich erfasst, indem relevante Konzepte und Beziehungen zwischen ihnen bereitgestellt werden. Die Analyse von Textdaten spielt eine wichtige Rolle bei der Konstruktion und Nutzung von Ontologien, insbesondere mit der wachsenden Popularität der halbautomatischen Ontologiekonstruktion (hier auch als Ontologielernen bezeichnet). Für das Problem der halbautomatischen Ontologiekonstruktion wurden verschiedene Methoden der Wissensentdeckung übernommen;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84628-754-1_11 ac8a6d919254c9502d2d7f840534c4b6;de;;;7.2.;;;Terminologie-Spektrum-Analyse natürlichsprachlicher chemischer Dokumente: Routine zum Abrufen von begriffsähnlichen Phrasen Ziel dieser Studie ist die Entwicklung, Erprobung und Bewertung einer Methodik zur automatischen Extraktion eines vollständigen Satzes von „begriffsähnlichen Phrasen“ und die Erstellung eines Terminologiespektrums aus einer Sammlung natürlichsprachiger PDF-Dokumente im Bereich der Chemie. Die Definition von „begriffsähnlichen Phrasen“ ist ein oder mehrere aufeinanderfolgende Wörter und/oder alphanumerische Zeichenfolgenkombinationen mit unveränderter Schreibweise, die spezifische wissenschaftliche Bedeutungen vermitteln. Ein Terminologiespektrum für ein Dokument in natürlicher Sprache ist eine indizierte Liste von gekennzeichneten Entitäten, einschließlich: anerkannte allgemeine wissenschaftliche Konzepte, Begriffe, die mit bestehenden Thesauri verknüpft sind, Namen chemischer Substanzen/Reaktionen und begriffsähnliche Phrasen. Die Retrieval-Routine basiert auf einer N-Gram-Textanalyse mit einer sequentiellen Ausführung verschiedener „Accept and Reject“-Regeln unter Berücksichtigung der morphologischen und strukturellen Informationen.;-;-;-;https://link.springer.com/article/10.1186/s13321-016-0136-4 c183f03ac2ed019779081e08382b1f0c;de;;;7.2.;;;Abfrage-Ranking in der Informationsintegration Angesichts der wachsenden Zahl strukturierter und sich entwickelnder Online-Repositorys ist der Bedarf an leichtgewichtiger Informationsintegration in den letzten Jahren gestiegen. Wir haben einen Integrationsansatz entwickelt, der auf partielle Mappings für das Query-Rewriting setzt und diese mit einer kontrollierten Entspannung kombiniert. In diesem Beitrag schlagen wir einen neuartigen Ansatz vor, um die Ergebnisse solcher umgeschriebenen und entspannten Abfragen über verschiedene Quellen zu ordnen, indem wir mangelndes Vertrauen in die für das Umschreiben verwendeten Abbildungen bestrafen sowie höhere Grade der eingeführten kontrollierten Entspannung bestrafen und präsentieren die durchgeführte Bewertung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13094-6_19 afb7db775644e944be16fc2663ba3a75;de;;;7.2.;;;Usability im Kontext von Open-Source-Software von Unternehmen – Erste Erkenntnisse aus einer empirischen Fallstudie Im Kontext der Entwicklung von Open-Source-Software (OSS) wird die Benutzerfreundlichkeit aufgrund einer wachsenden Benutzerpopulation, die nur an nutzbaren Anwendungen interessiert ist, nicht an ihrer Entwicklung, zu einem wichtigen Thema. Unternehmen versuchen, sich einen Wettbewerbsvorteil von OSS durch die Nutzung verfügbarer Komponenten zu verschaffen, aber die Offenheit ist in der Geschäftswelt mit Lizenzen, Patenten und geistigen Eigentumsrechten schwer zu erreichen. Dieses Papier analysiert Usability und User-Interface (UI)-Entwicklung im Unternehmens-OSS-Kontext anhand einer interpretativen Fallstudie in einer Softwareentwicklungseinheit eines großen, globalen Konzerns. Unsere ersten Ergebnisse legen nahe, dass im OSS-Kontext ein Bedarf an Spezialisten für Mensch-Computer-Interaktion besteht. Es zeigt sich, dass mit der auf OSS basierenden Software mehr Zeit für Usability und UI-Design aufgewendet werden kann. Aus Sicht des Unternehmens gibt es noch viele Fragen bei der Entscheidung, welche Teile des Produkts Open Source werden. Insbesondere UI-Code kann aufgrund von Wettbewerbsvorteilen und Patenten geschlossen bleiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09684-1_33 bd80eaa9e8ef9cda4ed2517355f8bc42;de;;;7.2.;;;Auf einem Nearest-Neighbor-Problem unter Minkowski- und Leistungsmetriken für große Datensätze Der Beitrag stellt den sequentiellen und den parallelen Algorithmus zur Lösung des Nearest-Neighbor-Problems in der Ebene vor, basierend auf der verallgemeinerten Voronoi-Diagrammkonstruktion. Die Anwendungen des Problems finden sich in den Bereichen Vernetzung, Kommunikation, verteilte Systeme, Computermodellierung und Information Retrieval. Die Eingabe für das Problem ist die Menge der zirkulären Standorte;-;-;-;https://link.springer.com/article/10.1023/A%3A1014310721543 fa477f536e54d950f0e4d2f4e3d942b6;de;;;7.2.;;;Eine hybride Methode zur Identifikation von Sentiment-Schlüsselsätzen mit lexikalischer Semantik und syntaktischen Abhängigkeiten Viele Nachrichtenartikel in Internetportal, Blog und Foren haben immer ihre eigenen emotionalen Orientierungen. Da der Sentiment-Schlüsselsatz eine wichtige Rolle bei der Überwachung sozialer Trends und des öffentlichen Stimmungszustands spielt, gab es in letzter Zeit erhebliche Fortschritte in diesem Bereich, insbesondere bei der lexikonbasierten Methode. Die lexikonbasierte Methode hängt jedoch vollständig von der lexikalischen Semantik ab und gräbt die implizierte syntaktische Struktur nicht aus. Wir schlagen eine neue Methode vor, die lexikalische Semantik und syntaktische Abhängigkeiten integriert. Und das Verfahren führt ein Abhängigkeits-Parsing auf der Grundlage eines neuartigen lexikonbasierten Algorithmus durch. Experimentelle Ergebnisse des COAE-2014-Datensatzes zeigen, dass dieser Ansatz andere Basislinien der Identifizierung von Sentimentschlüsselsätzen deutlich übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11119-3_2 5ee38e819aeb5b4fc90835dfdc4855de;de;;;7.2.;;;Modellierung der räumlichen Interaktion mit einem neuronalen Netz Neurocomputing hat das Potenzial, viele Bereiche der Stadt- und Regionalmodellierung zu revolutionieren, indem es ein universelles Systemmodellierungswerkzeug für Anwendungen bereitstellt, in denen Daten vorhanden sind. Dieses Kapitel untersucht die empirische Leistungsfähigkeit eines neuronalen Feedforward-Netzes als Grundlage für die Darstellung der räumlichen Interaktion, die in den Fahrten zur Arbeit enthalten ist. Die Leistung der neuronalen Netzdarstellung wird mit verschiedenen Typen konventioneller Modelle verglichen. Es wird der Schluss gezogen, dass in diesem und verwandten Bereichen erhebliches Potenzial für viele weitere neuronale Netzanwendungen besteht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-77500-0_10 803ed30b6e520a1673ec9f897864b6ec;de;;;7.2.;;;Kombination von Random Sub Space Algorithm und Support Vector Machines Classifier für die arabische Meinungsanalyse In diesem Beitrag wird ein arabisches Meinungsanalysesystem vorgeschlagen. Diese Art von Anwendungen erzeugt Daten mit einer großen Anzahl von Funktionen, während die Anzahl der Stichproben begrenzt ist. Die große Anzahl von Merkmalen im Vergleich zur Anzahl der Stichproben führt zu einem Übertraining, wenn keine geeigneten Maßnahmen ergriffen werden. Um dieses Problem zu lösen, führen wir einen neuen Ansatz ein, der auf dem Random Sub Space (RSS)-Algorithmus basiert und den Lernenden der Support Vector Machine (SVM) als individuelle Klassifikatoren integriert, um ein Betriebssystem anzubieten, das in der Lage ist, Meinungen zu identifizieren, die in Leserkommentaren in arabischen Zeitungsblogs präsentiert werden . Die Hauptschritte dieser Studie basieren hauptsächlich auf der Korpuskonstruktion, der Extraktion statistischer Merkmale und der anschließenden Klassifikation der Meinung nach dem hybriden Ansatz RSS-SVM. Die Ergebnisse der Experimente auf der Grundlage von 800 Kommentaren aus algerischen Zeitungen sind sehr ermutigend, jedoch muss eine automatische natürliche Sprachverarbeitung hinzugefügt werden, um den Vektor der Primitiven zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-17996-4_16 be5b0e40e23c74417cf08b735729a79e;de;;;7.2.;;;Auf dem Weg zur automatisierten Annotation von Prozessmodellen Viele Techniken zur erweiterten Analyse von Prozessmodellen bauen auf der Annotation von Prozessmodellen mit Elementen aus vordefinierten Vokabularen wie Taxonomien auf. Die manuelle Annotation von Prozessmodellen ist jedoch umständlich und unter Berücksichtigung der Größe der Taxonomien teilweise sogar kaum zu bewältigen. In diesem Beitrag stellen wir den ersten Ansatz zur automatischen Annotation von Prozessmodellen mit den Konzepten einer Taxonomie vor. Unser Ansatz baut auf der korpusbasierten Methode der Ähnlichkeit zweiter Ordnung, verschiedenen Ähnlichkeitsfunktionen und einer Markov-Logik-Formalisierung auf. Eine Evaluation mit einem Set von 12 Prozessmodellen bestehend aus 148 Aktivitäten und der PCF Taxonomie bestehend aus 1.131 Konzepten zeigt, dass unser Ansatz zufriedenstellende Ergebnisse liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19069-3_25 530a2902f4d40629a080ce889fd4fe0f;de;;;7.2.;;;Ein objektalgebraischer Ansatz zur Dekomposition von Multidatabase-Abfragen in In diesem Whitepaper wird ein Ansatz zur Abfragezerlegung in einer Umgebung mit mehreren Datenbanken vorgestellt. Der einzigartige Aspekt dieses Ansatzes besteht darin, dass er auf der Durchführung von Transformationen über eine Objektalgebra basiert, die als Grundlage für eine globale Abfragesprache verwendet werden kann. In dem Beitrag stellen wir zunächst unsere Multidatenbankumgebung und unser semantisches Framework vor, in dem ein globales konzeptionelles Schema basierend auf dem Object Data Management Group-Standard die Informationen aus heterogenen Datenquellen umfasst, die sowohl relationale Datenbanken als auch objektorientierte Datenbanken und Flatfile-Quellen umfassen. Die Metadaten zum globalen Schema werden mit Informationen über virtuelle Klassen sowie virtuelle Beziehungen und Vererbungshierarchien, die zwischen mehreren Quellen existieren, angereichert. Die AQUA-Objektalgebra wird als formale Grundlage für die Manipulation des Abfrageausdrucks über die Multidatenbank verwendet. AQUA wird mit Verteilungsoperatoren für den Umgang mit Datenverteilungsproblemen erweitert. Während der Abfragezerlegung führen wir eine umfassende Analyse von Traversalen für Pfadausdrücke durch, die virtuelle Beziehungen und Hierarchien für den Zugriff auf mehrere heterogene Quellen beinhalten. Die algebraisch definierten Verteilungsoperatoren erweitern den globalen algebraischen Ausdruck um semantische Informationen über die Struktur, Verteilung und Lokalisierung der für die Lösung der Abfrage relevanten Datenquellen. Durch die Verwendung einer Objektalgebra als Grundlage für die Abfrageverarbeitung sind wir in der Lage, algebraische Transformationen zu definieren und Rewriting-Techniken während der Dekompositionsphase zu nutzen. Unsere Verwendung einer Objektalgebra bietet auch eine formale und einheitliche Darstellung für den Umgang mit einem objektorientierten Ansatz zur Verarbeitung von Abfragen in mehreren Datenbanken. Als Teil unserer Diskussion über die Abfrageverarbeitung fügen wir einen Überblick über einen globalen Objektidentifikationsansatz zum Beziehen von semantisch äquivalenten Objekten aus verschiedenen Datenquellen hinzu, der veranschaulicht, wie Wissen über die globale Objektidentität in den Zerlegungs- und Assemblierungsprozessen verwendet wird.;-;-;-;https://link.springer.com/article/10.1023/A%3A1015630231324 09a1d94210309ee387c6027162e30a74;de;;;7.1.;;;Smart Assembly – daten- und modellgetrieben Die Welt verändert sich deutlich und die Fertigung steht vor großen Herausforderungen. Aktuelle Fertigungsparadigmen müssen sich in Richtung einer besseren Agilität entwickeln, um die aktuelle Marktnachfrage zu erfüllen. Die entsprechende Forschung wurde gestartet und die daraus resultierenden neuen Ansätze wie Smart Manufacturing, Digital Manufacturing und Cognitive Factory werden vorgestellt. Die eigentliche Herausforderung für Fertigungsunternehmen besteht heute jedoch darin, eine Infrastruktur aufzubauen, die den Austausch von Wissen und Informationen in einer Fertigungsumgebung unabhängig von Zeit und Ort ermöglicht. Dieser Artikel gibt einen Überblick über einige der neuesten Ansätze und Forschungsinitiativen und schlägt den Einsatz semantischer Technologien bei der Informationsintegration vor. Der Einsatz von Semantik ermöglicht es, Informationen und Wissen in einer für Mensch und Maschine verständlichen Form darzustellen und bietet die Möglichkeit, sich flexibler an Veränderungen anzupassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-77405-3_37 b9c66296d0010299459658905a6a4106;de;;;7.2.;;;Ein Demonstrationsfall zu Schritten und Regeln für den Übergang von der Prozessebene zu softwarelogischen Architekturen in Unternehmensmodellen In der Analysephase einer Unternehmensinformationssystementwicklung kann die Abstimmung zwischen den Anforderungen auf Prozessebene (Informationssysteme) und den Anforderungen auf Produktebene (Softwaresystem) möglicherweise nicht richtig erreicht werden. Die Modellierung der Prozesse für das Geschäft des Unternehmens reicht für Implementierungsteams oft nicht aus, und die Implementierungsanforderungen werden oft nicht mit den Anforderungen des Unternehmens und der Interessengruppen ausgerichtet. In diesem Papier demonstrieren wir anhand eines realen Industriebeispiels, wie Übergangsschritte und -regeln verwendet werden, um sicherzustellen, dass die Anforderungen auf Prozess- und Produktebene im Rahmen eines Ansatzes aufeinander abgestimmt sind, der die Erstellung der beabsichtigten Anforderungen unterstützt. Die Eingabe für die Übergangsschritte ist eine logische Architektur des Informationssystems, und die Ausgabe ist ein Anwendungsfallmodell auf Produktebene (Software).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41641-5_20 a6012493dd6ac41e9aae2693d4dc2d69;de;;;7.2.;;;Effiziente parallele Algorithmen für die XML-Filterung mit strukturellen und Wertbeschränkungen Informationssuchende Anwendungen verwenden Informationsfiltertechniken als Hauptbestandteil ihrer Funktionsweise. Der Zweck des vorliegenden Artikels besteht darin, Techniken zur effizienten Implementierung skalierbarer und effizienter Informationsfiltertechniken basierend auf der XML-Darstellung zu untersuchen, wenn sowohl strukturelle als auch Wertbeschränkungen auferlegt werden. In den meisten bereitgestellten Implementierungen wird die XML-Darstellung in Einprozessorsystemen verwendet, und die beteiligten Benutzerprofile werden unter Verwendung der XPath-Abfragesprache dargestellt und es werden effiziente heuristische Techniken zur Einschränkung der Komplexität des Filtermechanismus verwendet. Hier schlagen wir einen parallelen Filteralgorithmus vor, der auf dem bekannten YFilter-Algorithmus basiert, der dynamisch einen Workload-Balancing-Ansatz auf jeden Thread anwendet, um die beste Parallelisierung zu erzielen. Darüber hinaus bietet der vorgeschlagene Filteralgorithmus Unterstützung für wertbasierte Prädikate durch Einbetten von drei verschiedenen Algorithmen zur Behandlung von Wertbeschränkungen während der XML-Filterung, basierend auf der Popularität und der semantischen Interpretation der Prädikatewerte. Experimentelle Ergebnisse zeigen, dass das vorgeschlagene System die bisherigen parallelen Ansätze für das XML-Filterproblem übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36608-6_1 c6278305de54857b70f5b1271d213682;de;;;7.2.;;;So passen Sie die Mensch-Maschine-Schnittstelle und die mentalen Modelle der Bediener an Was wirft bei der Aufgabenkomplexität Probleme oder Fragen für die Mensch-Maschine-Schnittstelle auf? Dies könnte unsere erste Frage in diesem Beitrag darstellen. Aber diese Frage selbst enthält drei Fragen: Was ist eine komplexe Aufgabe? Welche Probleme ergeben sich aus dieser Komplexität für die Betreibertätigkeit? Und was sind die Probleme für die Mensch-Maschine-Schnittstelle?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-02933-6_24 a2480f1a98297a6d7f55696061ec0b02;de;;;7.2.;;;Gestalten durch Selbstorganisation Beim Entwurf mechanischer Systeme basiert die normalerweise verwendete Methode auf dem sogenannten Reduktionismus. Reduktionismus ist sehr einfach und mächtig, denn er basiert auf der Eins-zu-Eins-Entsprechung zwischen den benötigten Funktionen und den notwendigen Komponenten des Systems. Darüber hinaus passen Reduktionismus und das Konzept der zentralen Steuerung natürlich zusammen, da die Beziehungen zwischen Funktionen und Komponenten in zentralen Steuerungssystemen klar erkennbar sind. Das Thema dieses Buches ist die Designtheorie, die Selbstorganisation nutzt, was das Gegenteil von reduktionistischem Design ist. Bei der Konstruktion durch Selbstorganisation, anstatt Funktionen direkt Komponenten zuzuweisen,;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-54055-7_1 b21aa3c0cfaf2d4a05d67b96bf33464e;de;;;7.2.;;;Iteratives evolutionäres Unterraum-Clustering Wir schlagen in diesem Beitrag eine Unterraum-Clusterbildung in hochdimensionalen Datensätzen mit einem iterativen evolutionären Algorithmus vor. Der evolutionäre Algorithmus bietet eine originelle Alternative, um das Problem der Auswahl von Unterräumen zu lösen, um mit komplexen Datenstrukturen in verschiedenen Unterräumen umzugehen. Diese Unterräume, die bestimmte Datenstrukturen zeigen, werden iterativ ausgewählt. Dieser Schritt ermöglicht es uns, Daten und Subspace gleichzeitig zu clustern. Der evolutionäre Ansatz bewertet eine Teilmenge von Dimensionen mit einem Maß, um den besten Datencluster zu finden, und wiederholt dann den Prozess für mehrere Teilmengen, die iterativ vom evolutionären Algorithmus ausgewählt wurden. Experimente und Vergleiche an Datensätzen mit einer großen Anzahl von Messungen zeigen die Wirksamkeit des vorgeschlagenen Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34475-6_51 1d41717f5cbb1b4bbbe58ed9ffb4ca3b;de;;;7.2.;;;Ein neuartiger Rahmen für die Bewertung und Korrektur von Bewegungsfehlern für das monokulare mikroskopische visuelle System Das monokulare mikroskopische visuelle System (MMVS) wird im Allgemeinen bei der Mikromanipulation und 3D-Messung von Mikroobjekten angewendet. Bewegungsfehler beeinflussen jedoch unweigerlich die Präzision der 3D-Rekonstruktion von Mikroobjekten in MMVS. Dieses Papier stellt einen neuartigen Rahmen zur Fehlerbewertung und -korrektur für die Rotationsbewegung vor, um die Messgenauigkeit von MMVS zu verbessern. Erstens werden sowohl das geometrische Modell der einachsigen Rotation als auch das Abbildungsmodell erstellt, um die idealen Rotationsbewegungsbahnen von verfolgten Punkten zu erhalten. Zweitens werden die Drehbewegungsfehler durch Trajektorienverfolgung genau bewertet. Schließlich wird ein Fehlerkorrekturmodell verwendet, um den Verschiebungsfehler in jedem Frame aus dem von unserem System erfassten Bewegtvideo zu kompensieren. Die experimentellen Ergebnisse zeigen, dass der vorgeschlagene Berechnungsrahmen 76% der Bewegungsfehler effektiv reduziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33506-8_25 231c3ab452581c846765a4ba1e1fcd2d;de;;;7.2.;;;Eine überarbeitete Perspektive auf Dokumentationspraktiken in der modernen Organisation Es gibt eine Reihe von Gründen für die Verwendung verschiedener Methoden bei der Entwicklung von Systemen (Broady, Walters & Hartley (1994)), insbesondere eine Verringerung der Benutzerunzufriedenheit und eine effektivere Kommunikation zwischen Systementwicklern und Benutzern. Diese reduzieren das Risiko, dass ein neues System seinen Benutzern als vollendete Tatsache präsentiert wird. Die Verwendung eines geeigneten Modellierungsparadigmas kann zu einem besseren Endprodukt, einer verbesserten Konsistenz und der Wahrscheinlichkeit einer verbesserten Benutzerakzeptanz führen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-70761-7_1 7ff604576680ee2b15692d3df856f3d2;de;;;7.2.;;;Extraktion von Frage-Antwort-Sätzen mit Anleitungen unter Verwendung von Abfragesätzen In dieser Studie beschreiben wir, wie man einen Satz extrahiert, der als richtige Antwort auf eine How-To-Frage zu den im Web zu ergreifenden Aktionen dient. Das Unterscheidungsmerkmal dieser Studie ist die Extraktion von Sätzen unter Verwendung einer Reihe von Abfragen, nachdem Abfragen gesammelt wurden, die für die Antwortextraktion als effektiv angesehen werden. Durch die Verwendung eines Abfragesatzes ist es möglich, die Antwort zu extrahieren, die als Ausdruck des Inhalts der für die Frage relevanten Webseite angesehen wird. In den Ergebnissen des Experiments betrug der durchschnittliche Recall 77,3% und die durchschnittliche Präzision 62,9%.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32541-0_11 97e3703ee45a46b44b37f4e32576eeef;de;;;7.2.;;;Bewertung des Brandrisikos mittels Multikriteriumsanalyse – eine Fallstudie Waldbrände sind eine der Hauptursachen für ökologische Störungen und Umweltbedenken in tropischen Laubwäldern Südindiens. In dieser Studie verwenden wir die Fuzzy-Set-Theorie, die mit einem Entscheidungsalgorithmus in einem Geographic Information Systems (GIS)-Framework integriert ist, um das Waldbrandrisiko abzubilden. Die Fuzzy-Set-Theorie implementiert Klassen oder Gruppierungen von Daten mit Grenzen, die nicht scharf definiert sind (d. h. unscharf) und besteht aus einer Regelbasis, Zugehörigkeitsfunktionen und einem Inferenzverfahren. Wir haben Satelliten-Fernerkundungsdatensätze in Verbindung mit topografischen, Vegetations-, Klima- und sozioökonomischen Datensätzen verwendet, um die ursächlichen Faktoren von Bränden abzuleiten. Räumliche Daten zu diesen biophysikalischen und sozioökonomischen Parametern wurden auf Bezirksebene aggregiert und in einem GIS-Rahmen organisiert. Ein partizipativer multikriterieller Entscheidungsansatz mit analytischem Hierarchieprozess wurde entwickelt, um zu einer Entscheidungsmatrix zu gelangen, die die wichtigen ursächlichen Faktoren von Bränden identifiziert. Diese Expertenurteile wurden dann mit einem räumlichen Fuzzy-Entscheidungsalgorithmus integriert, um das Waldbrandrisiko abzubilden. Die Ergebnisse dieser Studie waren sehr nützlich, um potenzielle „Hotspots“ des Brandrisikos zu identifizieren, an denen Waldbrandschutzmaßnahmen im Voraus ergriffen werden können. Darüber hinaus zeigt diese Studie auch das Potenzial der Multikriteriumsanalyse, die mit GIS integriert ist, als wirksames Instrument bei der Einschätzung, „wo und wann“ Waldbrände am wahrscheinlichsten auftreten werden.;-;-;-;https://link.springer.com/article/10.1007/s10661-009-0997-3 3bc8e25a00df1cd41ab02682794aebbf;de;;;7.1.;;;Simulationsspiele im Projektmanagement-Umfeld Der Beitrag beschreibt und analysiert die Erfahrungen aus der Entwicklung von PROSIGA- und TRAINER-Spielen im Projektmanagement-Umfeld. Es werden die Vorteile des Einsatzes von Planspielen vorgestellt sowie Aussichten für die weitere Arbeit mit dieser Art von Werkzeugen. Es werden verschiedene Aspekte des Spieleentwicklungsprozesses kommentiert und insbesondere der damit verbundene Gesamtaufwand aufgezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35506-1_10 169ece93629a70b7b07de1ae40f6fdc6;de;;;7.1.;;;Die Bedeutung der Informationstechnologie Advanced Manufacturing Technology (AMT) ist um den Computer herum aufgebaut und umfasst ein oder mehrere Systeme wie computergestütztes Design, Robotik, Gruppentechnologie und automatisierte Materialhandhabung. Die Technologie ist ab sofort verfügbar. Aber die Kluft zwischen tatsächlichen Ergebnissen und Potenzial ist unglaublich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-38009-3_19 a3b95afd38d40c211834c7fc2711ca9a;de;;;7.2.;;;Ein schneller Abrufalgorithmus für umfangreiche XML-Daten Dieses Papier schlägt einen neuartigen Ansatz zum Abrufen großer XML-Daten unter Verwendung des Vektorraummodells vor. Das Vektorraummodell wird häufig in der Information Retrieval-Community verwendet. Für die Evaluation of XML Retrieval (INEX) 2006 Adhoc Track haben wir im vergangenen Jahr ein System mit Fragmentelementen entwickelt. Das System ermöglichte das Durchsuchen von XML-Elementen nach Abfragen mit unterschiedlichen Einschränkungen bezüglich der in die Suche einzubeziehenden XML-Elemente, ohne die Sammlung neu indizieren zu müssen, wodurch flexiblere Abfragen unterstützt wurden. Das System benötigte jedoch beträchtliche Zeit, um die Fragmentelemente zu vereinigen. Um das Problem zu lösen, besteht unser neues System aus einer invertierten Dateiliste und einer relativen invertierten Pfadliste auf dem INEX 2007 Adhoc Track Korpus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85902-4_12 fbec62e4c14be1afa5a80cf76639240b;de;;;7.2.;;;Clustering von kurzen Texten mit engen Domänen unter Verwendung der Kullback-Leibler-Distanz Das Clustern von Texten mit kurzer Länge ist selbst eine schwierige Aufgabe, aber das Hinzufügen der engen Domäneneigenschaft stellt eine zusätzliche Herausforderung für aktuelle Clustering-Verfahren dar. Wir adressierten dieses Problem mit der Verwendung eines neuen Abstandsmaßes zwischen Dokumenten, das auf dem symmetrischen Kullback-Leibler-Abstand basiert. Obwohl dieses Maß häufig verwendet wird, um einen Abstand zwischen zwei Wahrscheinlichkeitsverteilungen zu berechnen, haben wir es angepasst, um einen Abstandswert zwischen zwei Dokumenten zu erhalten. Wir haben Experimente über zwei verschiedene Korpora mit schmalen Domänen durchgeführt und unsere Ergebnisse zeigen, dass es möglich ist, dieses Maß für das angesprochene Problem zu verwenden, um vergleichbare Ergebnisse zu erhalten als diejenigen, die das Jaccard-Ähnlichkeitsmaß verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-70939-8_54 8f65fbc5d1473a8f9fc22a4005203bf6;de;;;7.2.;;;Flexibles semantikbasiertes Service-Matchmaking und Discovery Automatisierte Techniken und Werkzeuge sind erforderlich, um Dienste effektiv zu lokalisieren, die eine gegebene Benutzeranforderung in einem Mobilitätskontext erfüllen. Zu diesem Zweck wurde die Verwendung semantischer Beschreibungen von Diensten breit motiviert und für die automatisierte Diensterkennung unter hochdynamischen und kontextabhängigen Anforderungen empfohlen. Unser Ziel in dieser Arbeit ist es, einen ontologiebasierten hybriden Ansatz vorzuschlagen, bei dem verschiedene Arten von Matchmaking-Strategien miteinander kombiniert werden, um eine adaptive, flexible und effiziente Service-Discovery-Umgebung bereitzustellen. Der Ansatz nutzt insbesondere das semantische Wissen über die Geschäftsdomäne, das von einer Servicebeschreibungen zugrunde liegenden Domänenontologie bereitgestellt wird, und die semantische Organisation von Services in einer Serviceontologie auf verschiedenen Abstraktionsebenen.;-;-;-;https://link.springer.com/article/10.1007/s11280-007-0040-y f704736ec97069cb26b446ff9e597ec8;de;;;7.2.;;;Wissensbasierter Ansatz zur Auswahl von Frageantwortsystemen Nach wie vor ist eine Zunahme der im Web veröffentlichten Daten zu beobachten. Die schlüsselwortbasierte Suche, die von den meisten Suchmaschinen verwendet wird, ist eine gängige Methode zum Abrufen von Informationen im Web. Anschließend kann eine schlüsselwortbasierte Suche eine große Menge an wiedergewonnenen wertlosen Informationen bereitstellen. Dieses Problem kann durch das Question Answering System (QAS, QA-System) gelöst werden. Eine der herausfordernden Aufgaben für verfügbare QS-Systeme besteht darin, die Fragen in natürlicher Sprache richtig zu verstehen und die genaue Bedeutung abzuleiten, um genaue Antworten zu erhalten. Eine bedeutende Rolle der QS und eine zunehmende Zahl von ihnen kann ein Problem bei der Auswahl des am besten geeigneten QS-Systems verursachen. Das allgemeine Ziel dieses Dokuments ist es, einen wissensbasierten Ansatz für die Auswahl von QS-Systemen bereitzustellen. Es soll die Systematisierung des Wissens sicherstellen und den Benutzern helfen, eine geeignete Lösung zu finden, die ihren Bedürfnissen entspricht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24069-5_34 fadbf6c4f02c2f2c32e0031b2c831151;de;;;7.2.;;;Bericht über Thomson Legal and Regulatory Experiments bei CLEF-2004 Thomson Legal and Regulatory hat an den ein- und zweisprachigen Tracks von CLEF-2004 teilgenommen. Einsprachige Experimente umfassten Portugiesisch, Russisch und Finnisch. Wir haben eine neue Abfragestruktur untersucht, um finnische Verbindungen zu verarbeiten. Unser Hauptaugenmerk lag auf der zweisprachigen Suche vom Deutschen ins Französische. Unser Ansatz verwendet Abfrageübersetzung und Pseudorelevanz-Feedback nach der Übersetzung. Wir haben zwei Übersetzungsmodelle für die Übersetzung von Abfragen verglichen und zusammengesetzte Übersetzungen anhand von Fruchtbarkeitswahrscheinlichkeiten erfasst. Der auf Fruchtbarkeit basierende Ansatz wählt zwar gute Begriffe, trägt jedoch nicht dazu bei, den zweisprachigen Abruf zu verbessern. Pseudo-Relevanz-Feedback führte andererseits zu einer verbesserten durchschnittlichen Präzision.;-;-;-;https://link.springer.com/chapter/10.1007/11519645_11 0fffd68b49c2b4f210ab5647ac8dee49;de;;;7.2.;;;Quantitative Bewertung von Erinnerung und Präzision von CAT Crawler, einer Suchmaschine, die auf das Auffinden kritisch bewerteter Themen spezialisiert ist Critically Appraised Topics (CATs) sind ein nützliches Instrument, das Ärzten hilft, klinische Entscheidungen zu treffen, während sich das Gesundheitswesen auf die Praxis der evidenzbasierten Medizin (EBM) zubewegt. Das schnell wachsende World Wide Web bietet Ärzten einen Ort, an dem sie ihre bewerteten Themen online teilen können, aber es wird immer mehr Zeit benötigt, um ein bestimmtes Thema in einem so umfangreichen Repository zu finden.;-;-;-;https://link.springer.com/article/10.1186/1472-6947-4-21 78b1a4f4c40234c04c869f30b0db0df9;de;;;7.2.;;;Extrahieren von Keyframes für Überwachungsvideos basierend auf Histogrammen der räumlichen Farbverteilung In diesem Artikel wird eine neue Methode zur Extraktion von Schlüsselbildern unter Verwendung von Histogrammen der räumlichen Farbverteilung vorgeschlagen. Pixel derselben Farbe grenzen in einem Bild aneinander oder nicht aneinander an, was einen spürbaren räumlichen Charakter darstellt. Mit dieser Eigenschaft werden die Pixel als zusammenhängende und nicht zusammenhängende Pixel klassifiziert. Daher unterscheiden verfeinerte Histogramme die kleinen Änderungen besser als die ursprünglichen Histogramme zwischen Einzelbildern und ermöglichen feine Unterscheidungen, die den ursprünglichen Histogrammen ähneln. Mit der Auswertung unserer Experimente extrahiert dieser Ansatz Schlüsselbilder effizienter und genauer.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10467-1_96 ca4f7cde1c2325689f5e859f10d635c8;de;;;7.2.;;;Ein neuer Ansatz für die sprachübergreifende Plagiatsanalyse In diesem Beitrag wird eine neue Methode zur sprachübergreifenden Plagiatsanalyse vorgestellt. Unsere Aufgabe ist es, die plagiierten Passagen in den verdächtigen Dokumenten und die entsprechenden Fragmente in den Quelldokumenten aufzuspüren. Wir schlagen eine Plagiatserkennungsmethode vor, die aus fünf Hauptphasen besteht: Sprachnormalisierung, Abrufen von Kandidatendokumenten, Klassifikatortraining, Plagiatsanalyse und Nachbearbeitung. Um unsere Methode zu evaluieren, haben wir ein Korpus mit künstlichen Plagiatsdelikten erstellt. Es wurden zwei verschiedene Experimente durchgeführt, wobei der erste nur einsprachige Plagiatsfälle betrachtet, während der zweite nur sprachübergreifende Plagiatsfälle betrachtet. Die Ergebnisse zeigten, dass das sprachübergreifende Experiment 86 % der Leistung des einsprachigen Ausgangswerts erreichte. Wir haben auch analysiert, wie sich die plagiierte Textlänge auf die Gesamtleistung der Methode auswirkt. Diese Analyse zeigte, dass unsere Methode bei mittleren und großen Plagiatspassagen bessere Ergebnisse erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15998-5_4 3dd524e702d95b92dd798e1f4f053ed4;de;;;7.2.;;;NEXI, jetzt und als nächstes NEXI wurde in INEX 2004 als Abfragesprache zur Spezifikation strukturierter und unstrukturierter Abfragen auf XML-Dokumente eingeführt. Eine Sprache, die ausdrucksstark genug für INEX und dennoch einfach genug ist, damit die Benutzer es richtig machen. Diese Ziele wurden erreicht. Insbesondere die Fehlerquote bei CAS-Abfragen ist von 63 % im Jahr 2003 auf 12 % im Jahr 2004 gesunken. Dieser Rückgang ist nicht nur auf die Sprache, sondern auch auf die damit eingeführten Werkzeuge zurückzuführen: von 13 IP-Adressen heruntergeladen, während auf eine Web-Implementierung 635 Mal von 71 Adressen zugegriffen wurde.;-;-;-;https://link.springer.com/chapter/10.1007/11424550_3 aca79427060ad0d0de9cc10b928f39d8;de;;;7.2.;;;DSR: Eine Sammlung zur Bewertung von abgestuften Krankheits-Symptom-Beziehungen Die effektive Extraktion von geordneten Krankheits-Symptom-Beziehungen ist eine kritische Komponente bei verschiedenen medizinischen Aufgaben, einschließlich der computergestützten medizinischen Diagnose oder der Entdeckung unerwarteter Assoziationen zwischen Krankheiten. Während bei den verschiedenen medizinischen Aufgaben bestehende Verfahren zur Extraktion von Krankheitssymptomen als Grundlage verwendet werden, steht keine Sammlung zur Verfügung, um die Leistung solcher Verfahren systematisch zu bewerten. In diesem Beitrag stellen wir die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-45442-5_54 1b0dbb0be8fb0caf8428288ddd153584;de;;;7.2.;;;Anthropomorphismus in der Dienstleistungserbringung verstehen: eine Metaanalyse physischer Roboter, Chatbots und anderer KI Immer mehr Unternehmen führen Serviceroboter wie physische Roboter und virtuelle Chatbots ein, um ihren Kunden Dienstleistungen anzubieten. Während einige Firmen Roboter verwenden, die Menschen ähneln, indem sie menschlich aussehen und handeln, um die Nutzungsabsicht der Kunden für diese Technologie zu erhöhen, setzen andere maschinenähnliche Roboter ein, um unheimliche Taleffekte zu vermeiden, in der Annahme, dass sehr menschenähnliche Roboter Gefühle der Unheimlichkeit hervorrufen können. In der Serviceliteratur herrscht kein Konsens darüber, ob der Anthropomorphismus von Robotern der Kunden ihre Nutzungsabsicht erleichtert oder einschränkt. Die vorliegende Metaanalyse synthetisiert Daten von 11.053 Personen, die mit Servicerobotern interagieren, die in 108 unabhängigen Stichproben gemeldet wurden. Die Studie fasst frühere Forschungen zusammen, um dieses Problem zu klären und das Verständnis des Konstrukts zu verbessern. Wir entwickeln ein umfassendes Modell, um die Beziehungen zwischen Anthropomorphismus und seinen Vorläufern und Konsequenzen zu untersuchen. Als Auslöser des Anthropomorphismus werden Kundenmerkmale und -prädispositionen (z. B. Computerangst), Soziodemografie (z. B. Geschlecht) und Roboterdesignmerkmale (z. B. physisch, nicht-physisch) identifiziert. Als wichtige Mediatoren werden Robotereigenschaften (z. B. Intelligenz) und funktionale Eigenschaften (z. B. Nützlichkeit) identifiziert, während relationale Eigenschaften (z. B. Rapport) als Mediatoren weniger unterstützt werden. Die Ergebnisse verdeutlichen kontextuelle Umstände, in denen Anthropomorphismus die Absicht des Kunden, einen Roboter zu verwenden, beeinflusst. Die Moderatorenanalyse weist darauf hin, dass die Wirkung vom Robotertyp (d. h. Robotergeschlecht) und vom Diensttyp (d. h. Besitz verarbeitender Dienst, mentaler Reiz verarbeitender Dienst) abhängt. Basierend auf diesen Erkenntnissen entwickeln wir eine umfassende Agenda für die zukünftige Forschung zu Servicerobotern im Marketing.;-;-;-;https://link.springer.com/article/10.1007/s11747-020-00762-y 7878b30e11ae3885900bad4af3a1b5b6;de;;;7.1.;;;Smart Department: Gestaltung digitaler Anwendungen für intelligente Organisationen Die Veränderungen in der Intellektualisierung von Informationsprozessen von Unternehmen und Organisationen in den letzten Jahren erfordern eine angemessene Transformation der modernen Bildungsumgebung. Informationsprozesse in Bildungsorganisationen weisen eine Reihe von Merkmalen auf, die einen erheblichen Einfluss auf ihre Automatisierung haben. Dies liegt vor allem daran, dass in ihnen der wichtigste „Produktionsprozess“ – der Lernprozess – ein Informationsprozess ist, der eng mit den Informationsmanagementprozessen der Organisation verflochten ist. Der Artikel analysiert die bestehenden Digitalisierungserfahrungen von Bildungs- und Managementprozessen und die Möglichkeit ihrer Integration. Die Analyse zeigte die fehlende Verknüpfung zwischen den Parametern der bestehenden Automatisierungssysteme der Universitätsverwaltung und den Informationsprozessen auf Fakultätsebene, die in den letzten Jahren sehr starke Veränderungen in Richtung einer Verkomplizierung und Erhöhung der Informationsmenge erfahren haben. Inzwischen sind der Bildungsprozess und das Bildungsprozessmanagement auf Domebene integriert. Die Fakultäten der Universitäten klassifizieren zu Recht die Zahl der sogenannten geistigen Organisationen, deren effektive Tätigkeit unter modernen Bedingungen auf der maximalen Nutzung der Fähigkeiten moderner digitaler Technologien beruhen sollte. Basierend auf der Analyse wurde ein neuer methodischer Ansatz zur Bildung eines voll funktionsfähigen Digitalisierungssystems der Lehrstuhltätigkeit russischer Universitäten entwickelt und vorgestellt. Dieser Ansatz wird im Kontext des von den Autoren vorgeschlagenen Konzepts einer „Smart Department“ betrachtet, also einer Abteilung, deren Aktivitäten durch ein integriertes Automatisierungssystem für alle Informationsprozesse auf Abteilungsebene unterstützt werden. Berücksichtigt wird das Konzept der „Smart Department“ auf Basis der Erstellung digitaler Anwendungen, die alle Bereiche ihrer Informationstätigkeit abdecken. Die Autoren haben das konzeptionelle Modell einer „Smart Department“ beschrieben, also einer Abteilung, deren Aktivitäten von der Gesamtheit moderner digitaler Anwendungen unterstützt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-56433-9_154 9333cda4495778db7b7878bb122880d8;de;;;7.1.;;;Ein Lernrahmen für die Kundenintegration: Know-how-Erwerb, -Verbreitung und -Nutzung Erfolgreiche Produktinnovationen werden zunehmend als Ergebnis der Integration von Kunden in den Entwicklungsprozess neuer Produkte erkannt. Trotz der Aufmerksamkeit dieses Forschungsthemas ist das Verständnis dafür, wie man von Kunden lernen kann, in Umfang und Tiefe immer noch begrenzt. Diese Forschung untersucht das „Lernen“ im Kontext der Kundenintegration und diskutiert einen konzeptionellen Rahmen aus der Lerntheorie mit dem Erwerb, der Weitergabe und der Nutzung von Kunden-Know-how als kritische Schritte. Das Papier berichtet über eine vergleichende Fallstudie von neuen Produktentwicklungsprojekten im Business-to-Business-Kontext. Die Ergebnisse zeigen empirische Unterstützung für das entwickelte Framework und zeigen die Bedeutung einer differenzierten Betrachtung der drei Schritte. Sie führen zu Determinanten für die erfolgreiche Integration von Kunden-Know-how in neue Produktentwicklungsprojekte.;-;-;-;https://link.springer.com/article/10.1007/s12087-008-0024-y 11e1b25532d647672d1c05ddc49ca4fa;de;;;7.2.;;;Probenidentifikation in Hip-Hop-Musik Sampling ist ein kreatives Werkzeug in der Komposition, das seit den 1980er Jahren in der Produktion und Komposition populärer Musik weit verbreitet ist. Das Konzept des Samplings wurde jedoch im Music Information Retrieval lange Zeit nicht thematisiert. Wir argumentieren, dass Informationen über die Herkunft von Samples einen großen musikwissenschaftlichen Wert haben und zur Organisation und Offenlegung großer Musiksammlungen verwendet werden können. In diesem Beitrag stellen wir das Problem der automatischen Sample-Identifikation vor und präsentieren einen ersten Ansatz für den Fall von Hip-Hop-Musik. Insbesondere modifizieren und optimieren wir einen bestehenden Fingerprinting-Ansatz, um die notwendigen Anforderungen einer realen Probenidentifikationsaufgabe zu erfüllen. Die erhaltenen Ergebnisse zeigen die Tragfähigkeit eines solchen Ansatzes und eröffnen neue Wege für die Forschung, insbesondere im Hinblick auf die Rückschlüsse auf Künstlereinflüsse und das Auffinden von musikalischen Wiederverwendungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41248-6_16 f0e4a90713430608cffd07ccdf73fd68;de;;;7.2.;;;Risikokommunikation, Risikowahrnehmung und Informationssicherheit In diesem Papier wird die Ansicht vertreten, dass die Wahrnehmung der Risiken im Zusammenhang mit Informationssystemen durch eine Person die Wahrscheinlichkeit und das Ausmaß bestimmt, in dem sie oder er bei der Verwendung eines Computers Risikoverhalten eingeht. Es wird vorgeschlagen, dass dieses Verhalten manipuliert werden kann, indem eine Mitteilung über das Risiko von Informationssystemen in einer bestimmten Weise „eingerahmt“ wird. Um eine große Effektivität bei der Übermittlung einer Informationssicherheitsnachricht an einen Computerbenutzer zu erzielen, wird in diesem Papier erörtert und demonstriert, wie sein individueller kognitiver Stil bei der Gestaltung der Risikonachricht berücksichtigt werden sollte. Daraus folgt, dass, wenn das Risikoverhalten von Computerbenutzern aufgrund einer Zunahme des wahrgenommenen Risikos weniger riskant wird, das Niveau der Informationssicherheit steigt.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-31167-X_11 b70112ff7b01147e382b2cac2c76d457;de;;;7.2.;;;Inhaltsbasierter medizinischer Bildabruf mit Low-Level-Visualfunktionen und Modality Identification Dieses Papier präsentiert die Ergebnisse der Bildsuche, die von der BioIngenium Research Group im Rahmen der ImageCLEFmed 2007-Ausgabe erhalten wurden. Der angewandte Ansatz besteht aus zwei Hauptphasen: einer Vorverarbeitungsphase, die einen Bildkategorieindex erstellt, und einer Abrufphase, die ähnliche Bilder einordnet. Beide Phasen basieren ausschließlich auf visuellen Informationen. Die Experimente zeigen einen konsistenten Rahmen mit der Theorie beim inhaltsbasierten Bildabruf: Das Filtern von Bildern mit einem konzeptionellen Index übertrifft nur auf Rankings basierende Strategien, das Kombinieren von Merkmalen ist besser als die Verwendung einzelner Merkmale, und Low-Level-Merkmale reichen nicht aus, um die Bildsemantik zu modellieren .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85760-0_78 4085c14092aff689cdae27cc031a7e8a;de;;;7.2.;;;Extraktion von ankerbezogenen Texten und deren Bewertung durch Benutzerstudien Semantischer Textabschnitt (STP) ist ein Textabschnitt in der Originalseite, der sich semantisch auf den Anker bezieht, der auf die Zielseite zeigt. STPs können die Fakten und die Meinungen der Leute zu den Zielseiten enthalten. STPs können für verschiedene übergeordnete Anwendungen wie die automatische Zusammenfassung und die Kategorisierung von Dokumenten verwendet werden. In diesem Papier konzentrieren wir uns auf die Extraktion von STPs. Wir führen eine STP-Umfrage durch, um die Positionen von STPs in Originalseiten zu sehen und HTML-Tags herauszufinden, die STPs von den anderen Textteilen in Originalseiten trennen können. Anschließend entwickeln wir eine Methode zur Extraktion von STPs basierend auf dem Ergebnis der Umfrage. Die experimentellen Ergebnisse zeigen, dass unsere Methode eine hohe Leistung erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73345-4_51 396ba16ef9fe1055250d0becf58721b3;de;;;7.2.;;;CLEF 2017 eHealth Evaluation Lab Übersicht In diesem Papier geben wir einen Überblick über die fünfte Ausgabe des CLEF eHealth-Evaluierungslabors. CLEF eHealth 2017 setzt unsere Bemühungen zum Aufbau von Evaluierungsressourcen fort, um Patienten, ihre Angehörigen, klinisches Personal und Gesundheitswissenschaftler beim Verstehen, Zugreifen und Verfassen von eHealth-Informationen in einem mehrsprachigen Umfeld zu erleichtern und zu unterstützen. Das diesjährige Lab bot drei Aufgaben: Aufgabe 1 zur mehrsprachigen Informationsextraktion als Erweiterung der letztjährigen Aufgabe zu französischen Korpora, Aufgabe 2 zu technologisch unterstützten Reviews in der empirischen Medizin als neue Pilotaufgabe und Aufgabe 3 zu patientenzentrierter Informationsgewinnung (IR) aufbauend auf den IR-Aufgaben 2013-16. Insgesamt nahmen 32 Teams an diesen Aufgaben teil (11 in Aufgabe 1, 14 in Aufgabe 2 und 7 in Aufgabe 3). Wir haben auch den Replikationspfad von 2016 fortgeführt. Hier beschreiben wir die für diese Aufgaben geschaffenen Ressourcen, die angewandte Evaluierungsmethodik und geben den Teilnehmern eine kurze Zusammenfassung der diesjährigen Herausforderungen und erzielten Ergebnisse. Wie in den Vorjahren haben die Veranstalter Daten und Werkzeuge rund um die Laboraufgaben für die zukünftige Forschung und Entwicklung zur Verfügung gestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-65813-1_26 c1ecdb727abb53bd34deb1688fb51957;de;;;7.2.;;;Bewertungsbasierte kollaborative Filterung: Algorithmen und Auswertung Empfehlungssysteme helfen Benutzern, Informationen zu finden, indem sie Inhalte empfehlen, die einem Benutzer vielleicht nicht bekannt sind, aber hoffentlich gefallen werden. Bewertungsbasierte Empfehlungssysteme zur kollaborativen Filterung tun dies, indem sie Muster finden, die über die Bewertungen anderer Benutzer hinweg konsistent sind. Diese Muster können allein oder in Verbindung mit anderen Formen des Zugriffs auf soziale Informationen verwendet werden, um Inhalte zu identifizieren und zu empfehlen, die einem Benutzer gefallen könnten. Dieses Kapitel gibt einen Überblick über die Konzepte, Algorithmen und Bewertungsmittel, die den Kern der Forschung und Praxis des kollaborativen Filterns bilden. Obwohl es viele Empfehlungsalgorithmen gibt, dienen die von uns behandelten als Grundlage für einen Großteil der vergangenen und gegenwärtigen Algorithmenentwicklung. Nach der Vorstellung dieser Algorithmen präsentieren wir Beispiele für zwei neuere Richtungen bei Empfehlungsalgorithmen: Learning-to-Rank- und Ensemble-Empfehlungsalgorithmen. Abschließend beschreiben wir, wie kollaborative Filteralgorithmen evaluiert werden können, und listen verfügbare Ressourcen und Datensätze auf, um weitere Experimente zu unterstützen. Das Ziel dieses Kapitels ist es, den Lesern die notwendige Wissensgrundlage zu bieten, um fortgeschrittenere Themen in der Empfehlung zu erkunden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-90092-6_10 fb0d2cfd272c999d30a8a9bf3ab61522;de;;;7.1.;;;Ein CAP-Rahmen und seine Methodik In diesem Beitrag werden ein Rahmenwerk zur computergestützten Prozessplanung (CAPP) und seine Methodik vorgestellt. Ein CAP-Framework ist eine Softwarestruktur, die eine generische, konsistente Betriebsumgebung für die Entwicklung realer CAP-Systeme bereitstellt. Basierend auf einer Framework-Technologie werden die Fähigkeiten des CAP-Frameworks diskutiert. Die Methodik des CAP-Frameworks gliedert sich in drei Teile: Referenzarchitektur, Modellierungsmethoden sowie Implementierungsstrategie und -methode. Es werden Anleitungen für das Design, die Entwicklung und den Betrieb des CAPP-Rahmens und der praktischen CAPP-Systeme gegeben.;-;-;-;https://link.springer.com/article/10.1007/BF01199880 35fc53d74e7d373e97bb61c0fc282afa;de;;;7.1.;;;Massenanpassungsfähigkeitsplanung mit additiver Fertigung Mass Customization zielt darauf ab, große Mengen kundenspezifischer Produkte zu niedrigen Kosten herzustellen, die mit der Massenproduktion vergleichbar sind. Die beiden operativen Ziele Mass Customization, Produktionsflexibilität und Kosteneffizienz stehen jedoch im Widerspruch zueinander. Unter diesen Umständen begann eine der bekannten Prototyping-Technologien, die additive Fertigung (AM), mit ihrer Mehrfachfunktion im Produktionssystem auf sich aufmerksam zu machen, die es Massenkunden ermöglicht, die beiden widersprüchlichen Ziele zu erreichen. Diese Studie definiert Mass Customization Capability Planning (MCCP) als einen Produktionsplanungsprozess, der zwischen Produktionsflexibilität und Kosteneffizienz abwägt. Außerdem wird das mathematische Planungsmodell von MCCP entwickelt, um es zu unterstützen. Da das MCCP-Modell stochastische Parameter enthält, wird ein heuristisches Verfahren auf den Lösungssuchprozess angewendet. Danach wurde das MCCP-Modell durch die experimentelle Analyse validiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99704-9_23 6aed50b284717d362d48b3b83152e2b6;de;;;7.2.;;;Die Sentient Map und ihre Anwendung auf die E-Learning-Umgebung der Macro University Die Empfindungskarte ist ein neues Paradigma für die visuelle Informationsbeschaffung. Es ermöglicht dem Benutzer, Daten als Karten anzuzeigen, so dass Gesten, insbesondere C-Gesten, für die Interaktion zwischen dem Benutzer und dem multimedialen Informationssystem verwendet werden können. Verschiedene C-Gesten werden dann dynamisch in räumliche/zeitliche Abfragen oder σ-Abfragen für Multimedia-Informationsquellen und Datenbanken umgewandelt. Als Testumgebung dient eine E-Learning-Umgebung namens Macro University, um diesen Ansatz zu evaluieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-40053-2_1 68216a4dc5552e41b2fa08fa8f347e0c;de;;;7.2.;;;Zur kontext- und sequenzbewussten Anreicherung und Abfrage von Dokumenten in Richtung personalisierter Empfehlungen Die Menge an unstrukturierten Daten ist in den letzten zwei Jahrzehnten exponentiell gewachsen und wächst noch schneller. Infolgedessen spielte das effiziente Management dieser Art von Daten in fast allen Organisationen eine wichtige Rolle.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12778-1_1 6690ccc98c4f62b5b9fd3c0262794e23;de;;;7.2.;;;Kombination positiver und negativer Rückmeldungen mit faktorisierter Ähnlichkeitsmatrix für Empfehlungssysteme Herkömmliche kollaborative Filteralgorithmen wie ItemKNN können die Beziehungen zwischen Elementen, die nicht von mindestens einem Benutzer bewertet werden, nicht erfassen. Um dieses Problem zu lösen, werden die artikelbasierten Faktormodelle vorgeschlagen, um einen niedrigdimensionalen Raum zu verwenden, um implizite Beziehungen zwischen den Artikeln zu lernen. Diese Modelle betrachten jedoch alle von den Benutzern bewerteten Elemente gleichermaßen als positive Beispiele, was unvernünftig ist und die tatsächlichen Präferenzen der Benutzer nicht interpretiert. Um die oben genannten Probleme anzugehen, schlagen wir in diesem Papier ein neuartiges Item-basiertes Latent-Faktor-Modell vor, das positive und negative Rückmeldungen der Benutzer beim Erlernen von Item-Item-Korrelationen berücksichtigen kann. Insbesondere teilen wir für jeden Nutzer seine bewerteten Artikel in zwei verschiedene Teile, d. h. positive Beispiele und negative Beispiele, je nachdem, ob die Bewertung des Artikels über der durchschnittlichen Bewertung des Nutzers liegt oder nicht. In unserem Modell gehen wir davon aus, dass die prognostizierte Bewertung eines Artikels erhöht werden sollte, wenn der Artikel den meisten positiven Beispielen ähnelt. Im Gegenteil, die prognostizierte Bewertung sollte verringert werden, wenn das Item den meisten negativen Beispielen ähnlich ist. Die Item-Item-Ähnlichkeit wird durch ein inneres Produkt von zwei niedrigdimensionalen Item-Latentfaktor-Matrizen angenähert, die unter Verwendung eines Strukturgleichungsmodellierungsansatzes gelernt werden. Umfangreiche Experimente an zwei Benchmark-Datensätzen zeigen, dass unsere Methode im Vergleich zu bestehenden Ansätzen sowohl in der Rating-Vorhersage als auch in der Top-;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-21042-1_19 af33f7136d44baf9b8e46f10d7c3dd50;de;;;7.2.;;;Modifizierter K-Means-Algorithmus für die Clustering-Analyse von Hainan Green Tangerine Peel K-Means ist ein Klassiker, die Aufteilung des Clustering-Algorithmus, zur Klassifizierung der globulären Daten. Nach Angaben des anfänglichen Clustering-Zentrums berücksichtigt dieses Papier die Eigenschaften verschiedener hierarchischer Clusteralgorithmen und wählt den geeigneten hierarchischen Clusteralgorithmus aus, um K-Means zu verbessern, und kombiniert mit Hainan Green Tangerine Peel Clusteranalyse von Daten, die Experimente verglichen werden. Die Ergebnisse zeigen, dass der verbesserte Algorithmus den Abstand zwischen den Klassen untereinander vergrößert, stabile Clusterergebnisse und eine bessere Implementierung von Data Mining ermöglicht. Abschließend noch eine Zusammenfassung der beiden Algorithmen und der weiteren Forschungsrichtung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45526-5_14 6e89cad68964c5792d4e65871a854305;de;;;7.2.;;;Zur Logik linkskontinuierlicher t-Normen und rechtskontinuierlicher t-Konormen Doppelrestgitter sind Erweiterungen von Restgittern mit einem extramonoidalen Operator, der zusammen mit seinem Doppelrest die Rolle einer starken Disjunktionsoperation spielt. Sie wurden von Orłowska und Radzikowska eingeführt. In diesem Artikel betrachten wir die Unterklasse der doppelten Restgitterstrukturen, die Erweiterungen von MTL-Algebren sind, dh prälineare, beschränkte, kommutative und ganzzahlige Restgitter. MTL-Algebren bilden die algebraische Semantik für die MTL-Logik, das System der mathematischen Fuzzy-Logik, das bzgl. die Klasse der Gitterreste auf dem reellen Einheitsintervall [0, 1], die durch linksstetige t-Normen induziert wird. Unser Ziel ist es, die Logik zu axiomatisieren, deren beabsichtigte Semantik kommutative und integrale doppelt residuierte Strukturen auf [0, 1] sind, die durch eine beliebige linksstetige t-Norm, eine beliebige rechtsstetige t-Konorm und deren entsprechendes Residuum induziert werden Operationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-50153-2_48 d6c40e926b16fe4d54f53b9d7eacf17f;de;;;7.2.;;;Experimente zu Pseudo-Relevanz-Feedback mit Graph Random Walks Walk In diesem Artikel wenden wir einen graphenbasierten Ansatz für Pseudorelevanz-Feedback an. Wir modellieren Term-Kookkurrenzen in einem festen Fenster oder auf Dokumentebene als Graph und wenden einen Random-Walk-Algorithmus an, um Expansionsterme auszuwählen. Die Bewertung des vorgeschlagenen Ansatzes anhand mehrerer Standard-TREC- und CLEF-Sammlungen, einschließlich des jüngsten TREC-Microblog-Datensatzes, zeigt, dass dieser Ansatz im Einklang mit den neuesten Pseudorelevanz-Feedback-Modellen steht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34109-0_20 e2d1243e5e676aa8b0df74e401e164d3;de;;;7.2.;;;Konstruktion der Konzepthierarchie durch Kombination von Spektralclustering und Subsumptionsschätzung Mit der rasanten Entwicklung des Webs wird das Hinzufügen von strukturellen Anleitungen (in Form von Konzepthierarchien) für die Webdokumentnavigation zu einem heißen Forschungsthema. In diesem Beitrag stellen wir eine Methode zur automatischen Erfassung von Konzepthierarchien vor. Bei einer gegebenen Menge von Konzepten wird jedes Konzept als Scheitelpunkt in einem ungerichteten, gewichteten Graphen betrachtet. Das Problem der Konzepthierarchiekonstruktion wird dann in ein modifiziertes Graphenpartitionierungsproblem transformiert und durch spektrale Methoden gelöst. Da der ungerichtete Graph die Hyponymieinformationen bezüglich der Konzepte nicht genau darstellen kann, wird die Subsumtionsschätzung eingeführt, um den spektralen Clustering-Algorithmus zu leiten. Experimente mit realen Daten zeigen sehr ermutigende Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/11912873_22 773f0c835907d2a2e3b0ed62f6f5a250;de;;;7.2.;;;Einführung und Entwicklung professioneller Standards im Lehrplan für Wirtschaftsinformatik Angesichts der wachsenden Besorgnis in der Öffentlichkeit und der jüngsten Mandate von Akkreditierungsstellen für Wirtschaftsprogramme und curricularen Arbeitsgruppen wird die Bedeutung der Vermittlung ethischer Themen in Wirtschaftsinformatikprogrammen diskutiert. Innovative Strategien, die verwendet werden, um die Anwendung ethischer Kriterien auf allgemeine Situationen zu lehren, werden überprüft. Die Ergebnisse einer Umfrage unter Fakultätsmitgliedern der Wirtschaftsinformatik in den USA werden vorgestellt und mit früheren Studien verglichen, die sich hauptsächlich auf Informatik- und Software-Engineering-Programme bezogen. Es werden Einblicke in die Themen, Techniken, Abdeckungsgrad und Bewertungstechniken gegeben, die derzeit im Ethikunterricht in computerbezogenen Programmen verwendet werden. Wichtige Anliegen und zukünftige Arbeiten werden ebenfalls skizziert.;-;-;-;https://link.springer.com/article/10.1007/s10676-005-5985-x 3ff857c027afeebf4f03a4358dfc5acf;de;;;7.2.;;;Ein vertrauensbasiertes Modell für Informationsintegrität in offenen Systemen Während es schwierig ist, konventionelle Sicherheitsdienste ohne eine zentrale Autorität auf ein System anzuwenden, bietet das Vertrauensmanagement eine Lösung für die Informationssicherung in einem solchen System. In diesem Papier haben wir ein richtlinienorientiertes Entscheidungsmodell basierend auf dem Objektvertrauensmanagement entwickelt, um Benutzer bei der Auswahl zuverlässiger und sicherer Informationen in einem offenen System zu unterstützen. Im vorgeschlagenen Modell repräsentiert ein Objekt ein Thema oder ein Thema, das zur Diskussion steht, und es kann mehrere Versionen haben, von denen jede die Meinung eines Subjekts zu den Eigenschaften dieses Objekts repräsentiert. Das entwickelte vertrauensbasierte Entscheidungsmodell unterstützt einen Benutzer bei der Auswahl einer Objektversion mit gewünschtem Qualitätsniveau und Sicherheitsmerkmalen aus verfügbaren Versionen eines gegebenen Objekts. Das Modell wägt sowohl positive als auch negative Aspekte einer Objektversion ab, und ein Bewerter kann in Form einer Richtlinienspezifikation explizit angeben, welche Merkmale einer Objektversion nicht akzeptabel und welche vorteilhaft sind. Eine politische Sprache auf hoher Ebene, genannt;-;-;-;https://link.springer.com/chapter/10.1007/0-387-31167-X_22 88fe64acf9a9f2b0a797b6084d1aeca8;de;;;7.2.;;;Eine Evaluierung thesaurus-erweiterter visueller Schnittstellen für mehrsprachige digitale Bibliotheken In diesem Papier beschreiben wir eine vergleichende Benutzerbewertung von zwei mehrsprachigen thesaurus-erweiterten visuellen Benutzeroberflächen, nämlich T-Saurus und Searchling, die für digitale Bibliotheken entwickelt wurden. Die Studie nutzte 25 akademische Benutzer, die drei Suchaufgaben auf beiden Benutzeroberflächen des digitalen UNESCO-Portals mit 400.000 Dokumenten durchgeführt haben. Es wendete Fragebögen zur Benutzerfreundlichkeit und Angebotsstärke, Interviews, Denkanstöße und direkte Beobachtung an, um die Bewertung der Schlüsselkomponenten beider Benutzeroberflächen durch die Benutzer zu untersuchen, nämlich mehrsprachige Funktionen sowie Thesaurus und Suchfunktionen. Die gesammelten empirischen Daten werden für Designer von Suchschnittstellen nützlich sein, die Thesaurus und mehrsprachige Funktionen verwenden. Ergebnisse der Studie zeigen, dass Nutzer die Suchaufgaben mit thesaurus-erweiterten Suchoberflächen erfolgreich durchführen konnten. Sie bevorzugten Searchling jedoch wegen seiner flexiblen Sprachoption, dem Thesaurus-Browsing und der Visualisierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24469-8_25 5733b7bb116afd249d9af4e8d984fa33;de;;;7.2.;;;Nutzung von VGI zur Anreicherung von Gazetteer: Eine Fallstudie zum Geoparsing von Twitter-Nachrichten Mit dem Aufkommen von Volunteered Geographical Information (VGI) wächst die Menge der von Nutzern beigesteuerten Geodaten jeden Tag auf der ganzen Welt. Solche Geodaten können wertvolle Informationen enthalten, die anderen Forschungsbereichen helfen können, wie beispielsweise den Digital Gazetteers, die beim Geographic Information Retrieval (GIR) verwendet werden. Die Digital Gazetteers spielen eine wichtige Rolle im Geoparsing-Prozess. Sie müssen sich aktuell und möglichst vollständig halten, damit Geoparser eine Suche durchführen und die Ortsnamenerkennung dann präzise über digitale Texte auflösen können. In diesem Zusammenhang schlägt dieses Papier eine Methode zur Gazetteer-Anreicherung vor, die VGI-Datenquellen nutzt. VGI-Umgebungen wurden zwar ursprünglich nicht als Ortsverzeichnisse entwickelt, enthalten jedoch häufig detailliertere und aktuellere Informationen als Ortsverzeichnisse. Unsere Methode wird in einer Geoparser-Umgebung angewendet, indem ihr Heuristiksatz angepasst und der entsprechende Gazetteer angereichert wird. Eine Fallstudie wurde durch Geoparsing von Twitter-Nachrichten durchgeführt, die sich ausschließlich auf Mikrotexte konzentrierten, um die Leistung des angereicherten Systems zu bewerten. Die erhaltenen Ergebnisse wurden mit früheren Ergebnissen einer Fallstudie verglichen, in der derselbe Datensatz und sowohl der Gazetteer als auch der Geoparser ohne Verbesserungen verwendet wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-18251-3_2 fb04533066bdc0f086aeffc176d85c99;de;;;7.2.;;;JHU/APL-Ad-hoc-Experimente beim CLEF 2006 Die JHU/APL hat ihre Teilnahme am mehrsprachigen Retrieval bei CLEF im Jahr 2006 fortgesetzt. Wir haben erneut unsere charakteristische Technik zur Bekämpfung von Sprachvielfalt und morphologischer Komplexität angewendet: Zeichen-N-Gramm-Tokenisierung. In diesem Jahr haben wir am Ad-hoc-Cross-Language-Track teilgenommen und sowohl ein- als auch zweisprachige Läufe eingereicht. Unsere diesjährigen experimentellen Ergebnisse stimmen mit unseren früheren Berichten überein, dass N-Gramme in sprachlich komplexen Sprachen besonders gut abschneiden, insbesondere in Bulgarisch und Ungarisch, wo einsprachige Verbesserungen von 27% bzw. 70% im Vergleich zu durch Leerzeichen getrennten Wortformen beobachtet wurden. Wie beim CLEF 2005 nutzten unsere zweisprachigen Einreichungen die Unterwortübersetzung, die statistische Übersetzung von Zeichen-N-Grammen mit ausgerichteten Korpora, wenn parallele Daten verfügbar waren, und die webbasierte maschinelle Übersetzung, wenn uns keine geeigneten Daten zur Verfügung standen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74999-8_22 aa01a03c57cf53baaa6b5edfbbeeb796;de;;;7.2.;;;Ein Clustered Retrieval-Ansatz zum Kategorisieren und Annotieren von Bildern Bilder sind schwer zu klassifizieren und zu kommentieren, aber die Verfügbarkeit digitaler Bilddatenbanken führt zu einer ständigen Nachfrage nach Werkzeugen, die Bildinhalte automatisch analysieren und entweder mit einer Kategorie oder einem Satz von Wörtern beschreiben. Wir entwickeln zwei clusterbasierte medienübergreifende Relevanzmodelle, die Bilder effektiv kategorisieren und kommentieren, indem wir eine sprachenübergreifende Retrievaltechnik anpassen, um die Begriffe auszuwählen, die am wahrscheinlichsten mit den visuellen Merkmalen eines Bildes verbunden sind.;-;-;-;https://link.springer.com/chapter/10.1007/11878773_73 8f0b2a9ef8293ab704f7487a00b589da;de;;;7.2.;;;Ein Zusammenfassungsalgorithmus für mehrere Nachrichten auf der Grundlage der Alterungstheorie Dieser Artikel konzentriert sich auf das Problem der Zusammenfassung von Nachrichtenereignissen in der Zusammenfassung mehrerer Dokumente, die darauf abzielen, mehrere Nachrichten zu demselben Ereignis in der Zeitachse zusammenzufassen. Die meisten traditionellen Lösungen für dieses Problem berücksichtigen die Merkmale der Textoberfläche und themenbezogene Merkmale, wie die Länge jedes Satzes, die Position des Satzes im Dokument, die Anzahl der Themenwörter usw. Traditionelle Methoden ignorierten, dass alle Das Ereignis hat seinen Lebenszyklus einschließlich Geburt, Wachstum, Reife und Tod. In diesem Beitrag wird ein neuartiger Ansatz zur Zusammenfassung von Mehrfachnachrichten zu demselben Thema unter Berücksichtigung sowohl der traditionellen Merkmale als auch des Lebenskreismerkmals jedes Ereignisses vorgestellt. Der vorgeschlagene Ansatz besteht aus vier Schritten. Zunächst werden aus jedem Nachrichtenartikel Sätze und ihr Veröffentlichungsdatum extrahiert. Zweitens werden die extrahierten Sätze vorbehandelt, um den Einfluss von Geräuschen wie Synonymen zu reduzieren. Drittens werden Lebenskreismerkmale und andere vier Kategorien von Merkmalen gesammelt, die in diesem Bereich häufig verwendet werden. Schließlich wird das SVM-Modell verwendet, um diese Funktionen zu trainieren, um den zusammenfassenden Satz des Nachrichtendokuments zu erkennen. Dieser Ansatz wurde an den öffentlichen Datensätzen DUC-2002 und TAC-2010 getestet, und die Ergebnisse zeigen, dass unser Ansatz bei der Zusammenfassung mehrerer Nachrichten in Zeitachsen effektiver ist als bestehende Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25255-1_37 aae67132f6b3e908db1d2d17ff1ed783;de;;;7.2.;;;Phrasen-Clustering ohne Dokumentkontext Wir haben verschiedene Clustering-Algorithmen auf die Aufgabe des Clusterns von Mehrwortbegriffen angewendet, um eine menschlich gebaute Ontologie widerzuspiegeln. Die Clusterbildung wurde ohne die üblichen Informationen zum gemeinsamen Auftreten von Dokumenten durchgeführt. Unser Clustering-Algorithmus CPCL (Classification by Preferential Clustered Link) basiert auf allgemeinen lexiko-syntaktischen Beziehungen, die kein vorheriges Domänenwissen oder die Existenz eines Trainingssatzes erfordern. Die Ergebnisse zeigen, dass CPCL in Bezug auf die Clusterhomogenität gut abschneidet und eine gute Anpassungsfähigkeit für den Umgang mit großen und dünn besetzten Matrizen zeigt.;-;-;-;https://link.springer.com/chapter/10.1007/11735106_50 e9469292458c01184c4815b634757e62;de;;;7.2.;;;Sampling-Präzision bis in eine Tiefe von 10000 beim CLEF 2007 Wir haben ein Experiment durchgeführt, um die Vollständigkeit der Relevanzbeurteilungen für die einsprachigen Informationsabrufaufgaben Bulgarisch, Tschechisch und Ungarisch des Ad-hoc-Tracks des Cross-Language Evaluation Forum (CLEF) 2007 zu testen erhielt 50 Abfragen in natürlicher Sprache, und das Ziel war es, alle relevanten Dokumente (mit hoher Präzision) in einem bestimmten Dokumentensatz zu finden. Für jede Sprache haben wir eine Stichprobe der ersten 10000 abgerufenen Elemente eingereicht, um die Häufigkeit relevanter Elemente in tieferen Rängen als der offiziellen Bewertungstiefe zu untersuchen (von 60 für Tschechisch und 80 für Bulgarisch und Ungarisch). Die Ergebnisse deuten darauf hin, dass der Prozentsatz der bewerteten relevanten Items im Durchschnitt weniger als 60 % für Tschechisch, 70 % für Bulgarisch und 85 % für Ungarisch betrug. Dieser Vollständigkeitsgrad steht im Einklang mit den Schätzungen, die für einige frühere Testsammlungen vorgenommen wurden, die immer noch als nützlich und angemessen für den Vergleich von Abfragemethoden angesehen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85760-0_7 8d26ff8e352d50537d753dd0b269ceb4;de;;;7.2.;;;Auswertung von Benutzerverhaltenssimulationen Es sind mehrere Ansätze bekannt, die auf die Bewertung der Leistung von Benutzerverhaltensmodellen und verwandten Simulationsansätzen abzielen. Dieses Kapitel beschreibt und evaluiert einen neuen Ansatz zur Leistungsbewertung von Benutzerverhaltenssimulationen auf Basis generierter Dialoge. Performance bedeutet hier die Fähigkeit einer Benutzerverhaltenssimulation, das Interaktionsverhalten realer Benutzer in einem Dialog mit einem gesprochenen Dialogsystem nachzuahmen. Die Grundidee des darzustellenden Evaluationsansatzes ist der Vergleich von Dialogsets durch die enthaltenen Dialogverläufe.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-62518-8_6 780d54f749e76e224b69231ae1e2b358;de;;;7.1.;;;Umgang mit kognitiven Verzerrungen während der Katastrophenhilfe: die Entwicklung eines Aide-Memoires Katastrophen sind hochkomplex mit oft extremen Folgen und werden oft durch Entscheidungsfehler verschärft. Das menschliche Verhalten in diesem Bereich bietet einen fruchtbaren Boden, um die Entscheidungsfindung zu untersuchen und Verbesserungsmöglichkeiten zu identifizieren. Diese Forschung zielte darauf ab, die Qualität der Entscheidungsfindung durch die Entwicklung eines Aide-Memoires für den Umgang mit kognitiven Verzerrungen im Notfallmanagement zu verbessern. Auf der Grundlage der einschlägigen Literatur identifizierten 58 der führenden australischen Experten für Meereskatastrophenbekämpfung die wichtigsten kognitiven Verzerrungen in einem Gruppensetting und ordneten sie ein. Die Ergebnisse wurden in eine für Notfallmanagementpraktiker relevante Sprache übersetzt und in eine Reihe von Fragen umformuliert. Die Identifizierung von neun kognitiven Verzerrungen im Aide-Memoire kann zunächst verwendet werden, um die verfügbaren Informationen, Erkenntnisse und Entscheidungen zu bewerten und dann die Bedeutung der Informationen, Erkenntnisse und Entscheidungen zu bestimmen. Das Papier diskutiert die Anwendbarkeit des Aide Memoires auf Entscheidungsfehler, die bei jüngsten vom Menschen verursachten und Naturkatastrophen festgestellt wurden. Schließlich geht der Artikel auf die Kritik ein, dass Forschungsergebnisse für die Industrie oft nicht nützlich sind, indem er vorschlägt, wie das Aide Memoire in der Praxis verwendet werden kann.;-;-;-;https://link.springer.com/article/10.1007/s10111-019-00564-5 2bac3bb3aaaf3b8c033686b5457d15ea;de;;;7.1.;;;Erfolgsmessung für Planung und Steuerung in KMU Dieses Papier untersucht das Konzept der strategischen Leistungsmessung in KMU. Um der Untersuchung eine gewisse Tiefe und Breite zu verleihen, wurde die Forschung in zwei Phasen gegliedert. Die erste Phase der Forschung konzentrierte sich darauf, festzustellen, ob KMU strategische Leistungskennzahlen entwickeln und anwenden. Eine Umfrage unter acht KMU im Südwesten Englands wurde mittels halbstrukturierter Interviews durchgeführt. Die zweite Phase beinhaltete eine vertiefte Untersuchung und basierte auf der Beobachtung der Einführung eines strategischen Erfolgsmessungssystems in einem kleinen Unternehmen. Die bisherigen Ergebnisse deuten darauf hin, dass KMU ein gutes Verständnis für die Finanzmessung haben und sich in Richtung kundenorientierter Maßnahmen bewegen. Allerdings fehlt es diesen Maßnahmen in der Regel an strategischer Ausrichtung, und viele werden hinsichtlich ihres Werts für die Geschäftsverbesserung in Frage gestellt. Die Beobachtungen während der zweiten Forschungsphase, der Entwicklung eines neuen strategischen Leistungsmessungssystems in einem KMU, zeigten die potenziellen Planungs- und Kontrollvorteile des verwendeten Gestaltungsprozesses. Besondere Schwierigkeiten zeigten sich jedoch bei der Entwicklung und Implementierung des Performance-Measurement-Systems. Zur Analyse dieser Schwierigkeiten werden nun weitere Forschungen (Phase drei) durchgeführt. Dieser Beitrag beschreibt die ersten beiden Phasen der Arbeit. Es wird eine Einführung gegeben, die sowohl den Bezug dieser Arbeit zur vorhandenen Literatur als auch den Kontext für die Studie herstellt. Die wichtigsten Erkenntnisse aus der Arbeit werden nach einer Beschreibung der angewandten Forschungsmethodik dargestellt. Der Beitrag schließt mit einer Zusammenfassung der wichtigsten Ergebnisse und einer Reihe von Vorschlägen, die verwendet werden, um die Forschung in Phase drei zu erweitern.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35569-6_27 7f035dff2710a360561c5d2c29b34d30;de;;;7.1.;;;Leitung und Umsetzung des Informationssystems Information existierte schon lange vor der Entwicklung von Computern und Software. Es gab auch Systeme zum Umgang mit diesen Informationen, wobei verschiedene Technologien verwendet wurden (Keilschrift, Petroglyphen, Gutenbergs Druckerpresse usw.). Noch weiter zurück in der Zeit, lange bevor Menschen geschriebene Sprache verwenden konnten, konnten sie Informationen und Wissen durch Mythen und Rituale vermitteln. Diese Rituale könnten einige der ersten konstruierten Informationssysteme sein. Jagdgeschichten und andere außergewöhnliche Ereignisse wurden Teil der erzählten Geschichten, und als sie in einem von allen zeremoniellen Belangen losgelösten Drama inszeniert wurden, war ein erster wichtiger Schritt in Richtung Theater als spezialisierte Tätigkeit getan. Der Entwicklungsprozess einer Theaterproduktion könnte daher als eines der authentischsten Modelle für die Entwicklung manueller Informationssysteme angesehen werden. (Brocket 1987, Abelli und Révay 2004);-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-70802-7_2 7d71c8c431b6cecc091483aef482b7e5;de;;;7.1.;;;Ontologie-Evolution Das Forschungsgebiet des Ontology Engineering scheint einen gewissen Reifegrad erreicht zu haben, wenn man bedenkt, dass es eine Vielzahl aktueller Methoden und Werkzeuge zur Formalisierung und Anwendung von Wissensrepräsentationsmodellen gibt. Es gibt jedoch noch wenig Verständnis und Unterstützung für die evolutionären Aspekte von Ontologien. Dies ist besonders wichtig in verteilten und kollaborativen Umgebungen wie dem Semantic Web, wo Ontologien sich natürlich mit ihren Nutzungsgemeinschaften entwickeln. Für das Management der Evolution einzelner Ontologien wurden etablierte Techniken der Datenschema-Evolution erfolgreich übernommen, und es scheint sich ein Konsens über ein allgemeines Ontologie-Evolutionsprozessmodell abzuzeichnen. Weit weniger erforscht ist jedoch das Problem der Evolution interorganisationaler Ontologien. In diesem „komplexen“ und dynamischen Umfeld erfordert ein kollaboratives Veränderungsprozessmodell leistungsfähigere Engineering-, Argumentations- und Verhandlungsmethoden, ergänzt durch Unterstützung für das Kontextabhängigkeitsmanagement konstruiert. Insbesondere der Bereich System Engineering bietet eine Fülle von Techniken und Werkzeugen für die Versionierung, Zusammenführung und Weiterentwicklung von Software-Artefakten, und viele dieser Techniken können in einer Ontologie-Engineering-Umgebung wiederverwendet werden. Basierend auf dieser Erkenntnis bietet dieses Kapitel einen einheitlichen Überblick über die große Vielfalt von Modellen und Mechanismen, die verwendet werden können, um alle oben genannten Aspekte der Ontologie-Evolution zu unterstützen. Die wichtigste verbleibende Herausforderung besteht darin, auf der Grundlage dieser Mechanismen einen einzigen Rahmen zu konstruieren, der auf die Bedürfnisse einer bestimmten Umgebung zugeschnitten werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-69900-4_5 de1ae240f45da08c4e89334f3440b1ef;de;;;7.1.;;;Organisation des Wissensmanagements auf Basis hybrider intelligenter Methoden Der vorliegende Beitrag beschäftigt sich mit aktuellen Fragen der Gestaltung und Organisation von Wissensmanagementsystemen. Die Hintergründe werden kurz durchgespielt, aktuelle Trends der Informationssystementwicklung werden aufgezeigt. Es werden unterschiedliche Wissenstypen analysiert, die Bedeutung impliziter Wissenstypen für die kognitive Aktivität und neue Wissensgenerierung aufgezeigt. Vorteile und Anwendung von Methoden und Modellen der künstlichen Intelligenz bei der Erstellung von Wissensmanagementsystemen werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-18473-9_11 5a456ed9a1f50401df4074c9aa628c88;de;;;7.2.;;;Gedanken visualisieren Anschauliche Gedankenausdrücke gehen Jahrtausende älter als die geschriebene Sprache. Sie haben sich in Gemeinschaften durch eine Art informelle Benutzertests entwickelt, die sie verfeinert haben. Die Analyse der gängigen visuellen Kommunikation zeigt Konsistenzen, die die Denkweise der Menschen beleuchten und das Design leiten, der Prozess kann ins Labor gebracht und beschleunigt werden. Wie die Sprache abstrahieren und schematisieren sie, im Gegensatz zur Sprache, die Eigenschaften der Seite (z , Pfeile, Kästchen, Kleckse, Ähnlichkeiten, Symbole), um Bedeutungen zu vermitteln. Die visuellen Ausdrücke dieser Bedeutungen (z. B. Individuum, Kategorie, Ordnung, Beziehung, Korrespondenz, Kontinuum, Hierarchie) haben Analogien in Sprache, Gestik und insbesondere in den Mustern, die entstehen, wenn Menschen die Welt um sich herum gestalten und Dinge zu Stapeln anordnen und Reihen und Hierarchien und Arrays, räumliche-Abstraktion-Aktions-Verbindungen genannt term;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-7485-2_1 5bb78e42fc317dd039e098a92c12604f;de;;;7.2.;;;Ein wissensbasierter Ansatz für visuelle Informationen Wir schlagen einen auf Beschreibungslogiken basierenden Ansatz für die Darstellung und den Abruf visueller Informationen vor. Wir betrachten zunächst Objekte mit Formen, die durch halbalgebraische Mengen beschrieben werden.;-;-;-;https://link.springer.com/article/10.1023/A%3A1020145906546 3f5ffa23ebf9d0033c4b0022717e5b60;de;;;7.2.;;;Filtern für die profilbezogene Zusammenfassung mehrerer Dokumente In diesem Artikel stellen wir eine Methode zur Informationsfilterung vor, die aus einer Reihe von Dokumenten die wichtigsten Auszüge in Bezug auf ein Benutzerprofil auswählt. Diese Methode stützt sich sowohl auf strukturierte Profile als auch auf eine thematische Analyse von Dokumenten. Die Themenanalyse dient auch dazu, ein Profil in Bezug auf ein bestimmtes Dokument zu erweitern, indem die Begriffe des Dokuments ausgewählt werden, die eng mit denen des Profils verknüpft sind. Diese Erweiterung ist eine Möglichkeit, Auszüge, die mit Profilen verknüpft sind, zuverlässiger auszuwählen, aber auch Auszüge auszuwählen, die neue und interessante Informationen zu ihren Themen liefern können. Diese Methode wurde durch das REDUIT-System implementiert, das erfolgreich für die Dokumentenfilterung und Passagenextraktion evaluiert wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-31865-1_10 9369253526e2f5611f7f4fe69ff24d7b;de;;;7.2.;;;Ein Überblick über grobe neuronale Netze Dieses Papier basiert auf der Grobmengentheorie und neuronalen Netzen und führt hauptsächlich die früheren Forscher in die Verwendung der Grobmengentheorie ein, die die überlegene Fähigkeit hat, Redundanz auszuschließen, und neuronaler Netze, die die Fähigkeit zur Selbstorganisation und Selbstlernung besitzt um die Vorteile des anderen zu ergänzen, um grobe neuronale Netze mit besserer Leistung zu erhalten. Dieses Papier beschreibt auch die Möglichkeit der Integration dieser beiden Theorien und der aktuellen Mainstream-Fusionsmethode und nimmt dann zwei weitere Mainstream-frühere neuronale Netze, neuronale Netze mit Backpropagation und neuronale Netze mit radialer Basisfunktion, als Beispiel für die Integration in die grobe Mengentheorie . Dieses Beispiel beschreibt das Fusionsverfahren, die Fusionsleistung und den entsprechenden Lernalgorithmus nach der Fusion im Detail.;-;-;-;https://link.springer.com/article/10.1007/s00521-015-2009-6 22220be4ac8320066f21c41585f013be;de;;;7.1.;;;Statistisches Verhalten der verteilten Übergangsplanung Das Problem der Übergangsplanung besteht darin, ein System mit möglichst geringen Kosten von einer bestehenden Ausgangskonfiguration in eine gewünschte Endkonfiguration zu überführen. Frühere Arbeiten zeigen, dass das Übergangsplanungsproblem auf ein bipartites Matching-Problem reduziert werden kann und der stabile Heiratsalgorithmus verwendet werden kann, um einen minimalen Kostenübergang in einer verteilten Umgebung anzunähern. In diesem Papier untersuchen wir die Effizienz dieser Abbildung, einschließlich des besten und schlechtesten Falls und des statistischen Verhaltens. Wir diskutieren den Zusammenhang zwischen der Algorithmusleistung und der Verteilung der Eingabedaten. Wir zeigen, dass es zwar Fälle gibt, in denen dieser Algorithmus schlecht funktioniert, aber gut funktioniert, wenn die Kosten für den Übergang zwischen verteilten Ressourcen einer Normalverteilung folgen. Wir diskutieren die Anwendbarkeit dieses Algorithmus auf reale Situationen, in denen Ressourcen auf diese Weise verteilt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-70587-1_7 e9645c810431df74e6c09eddcfbe96db;de;;;7.1.;;;Clustering-Theorie im Design von Informationssystemen Ein typischer erster Schritt im Systemanalyse- oder Entwurfsprozess besteht darin, das System hierarchisch in Teilsysteme zu zerlegen, bis jedes Teilsystem keine sinnvolle Zerlegung zulässt oder als gestaltbar erkannt wird. Für die eigentliche Konstruktionsarbeit werden Gruppen dieser pensilen Subsysteme Konstruktionsgruppen zugeordnet und deren Bemühungen zum Gesamtsystem verkettet. Die vorliegende Arbeit konzentriert sich auf das Problem der Gruppierung der Subsysteme – eine optimale Aufteilung wird gesucht. Für eine vernünftige Metrik für die Menge von Subsystemen stellt sich heraus, dass sie als Objekte auf einer Linie behandelt werden können, ein Fall, in dem exakte optimale Lösungen bestimmt werden können. Es wird eine dynamische Programmierung/LaGrangescher Algorithmus gegeben und die Computerlösung für ein Beispiel von 100 Subsystemen vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0043918 2410d74845200090477f378b5a55560b;de;;;7.1.;;;Verteilte Modellverwaltungsplattform für unternehmensübergreifendes Geschäftsprozessmanagement in virtuellen Unternehmensnetzwerken Planung und Design virtueller Unternehmensnetzwerke führen zu komplexen Herausforderungen. Aus konzeptioneller Sicht haben sich Geschäftsprozesse in Verbindung mit dem Einsatz grafischer Methoden und Werkzeuge als ideale Gestaltungselemente erwiesen. Insbesondere für Netzwerkdesign und -implementierung dient die Geschäftsprozessmodellierung als grundlegender Ausgangspunkt. Bestehende Tools für das Geschäftsprozessmanagement bieten jedoch keine ausreichende Unterstützung für das Design und die Implementierung von Virtual Enterprise-Netzwerken. So beschreiben die Autoren in dem Artikel einen Modellierungsansatz, der einer globalen und einer lokalen Beschreibung von Geschäftsprozessen gewidmet ist, und einer verteilten Modellmanagementplattform. Letzteres unterstützt die kollaborative Erstellung und Anwendung von Modellen in Netzwerkumgebungen.;-;-;-;https://link.springer.com/article/10.1007/s10845-007-0060-6 067c75b759f3c44763f9c38b57123965;de;;;7.1.;;;Building Information Modeling (BIM) für das Facility Management – ​​Literaturübersicht und zukünftiger Bedarf Facility Management (FM) ist eine Disziplin, die aus verschiedenen Operationen, Aktivitäten und Wartungsdiensten besteht, um die Hauptfunktionen eines Gebäudes oder einer Einrichtung zu unterstützen. Es erfordert umfassende Informationen über die Anlage. Während derzeit verschiedene FM-Informationssysteme verwendet werden, um solche Informationen zu verwalten, wurden die vielfältigen grafischen und nicht-grafischen Informationen, die in Building Information Models (BIM) aus der Vornutzungsphase gespeichert sind, nicht ausreichend in bestehende FM-Systeme integriert. BIM mit seinen Visualisierungs-, Interoperabilitäts- und Informationsaustauschfunktionen kann FM-Aktivitäten rationalisieren. Daher hat der Einsatz von BIM für FM weltweites Forschungsinteresse geweckt. Der vorliegende Beitrag analysiert diesen Trend anhand einer qualitativen Analyse der aktuellen Literatur zu diesem Thema. Insbesondere untersucht dieser Beitrag die Natur von BIM und FM in ihren vielfältigen Funktionen und Wechselwirkungen. Die Analyse konzentriert sich auf das Wertschöpfungspotenzial von BIM und berichtet über die Ergebnisse, um den Nutzen von BIM für FM zu benennen und potenzielle Herausforderungen zu bewerten, die den effektiven Einsatz von BIM im FM behindern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45937-9_1 b355349e3cea157dcbe44d87b91f16f6;de;;;7.1.;;;Ein Modell ohne IPR als Lösung für die Wiederverwendung und das Verständnis von Informationssystemen In diesem in Arbeit befindlichen Papier wird argumentiert, dass ein Grund, warum die Wiederverwendung von Softwarekomponenten bei der Entwicklung von Informationssystemen nicht häufiger vorkommt und warum Benutzer die von ihnen verwendeten Systeme nicht verstehen und verstehen, teilweise von der Implementierung des aktuellen IPR1-Systems und den Auswirkungen darauf abhängt das proprietäre Softwaremodell. An seiner Stelle wird ein vollwertiges Anti-IPR-System angeboten, das von den GNU GPL- und CC Attribution-ShareAlike-Lizenzen modifiziert wurde. Darüber hinaus werden Gründe angegeben, warum sowohl die Wiederverwendung von Softwarekomponenten als auch das Verständnis von Software verbessert würden. Außerdem werden vorläufig einige Geschäftsmodelle vorgeschlagen, die in diesem Umfeld tragfähig sind. Schließlich wird untersucht, wie dies – zumindest teilweise – in der aktuellen IPR-Umgebung implementiert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-84822-8_21 5088c7c70b6a493a8a0f4a576a5dc4fd;de;;;7.1.;;;Enterprise Resource Planning und Business Intelligence zur Verbesserung der Unternehmensleistung im privaten Sektor von KSA: Eine vorläufige Überprüfung Der Einsatz von Enterprise Resource Planning (ERP) und Business Intelligence (BI), der als komplex, umständlich und kostspielig angesehen wird, übersteigt oft die ursprünglich geschätzten Ressourcen. Es wurde entwickelt, um grundlegende Prozesse in der gesamten Organisation über ein zentralisiertes Datenbankblatt oder jede Art von Tools, die von der Organisation verwendet werden, zu modellieren und zu automatisieren. Der Erfolg der ERP-Systemnutzung erfordert nicht den Abbruch der traditionellen ERP-Systemmodelle, sondern deren Neuplattform und Hosting. Die Integration von ERP mit BI, genannt ERPBI-Anwendung, wird oft als strategische Investition angesehen, die einen erheblichen Wettbewerbsvorteil mit positiver Rendite bieten kann und somit zum Umsatz und Wachstum des Unternehmens beiträgt, was wiederum die Gesamtleistung von Organisationen des Privatsektors verbessert. Die Literatur hat gezeigt, dass ERPBI von keinem bestimmten Modell unterstützt wird. Das Fehlen von Modellen führt zu einer unsachgemäßen Verwendung und Annahme von ERPBI. Die aktuellen Forschungen belegen, dass Modelle für die ERPBI-Einführung nicht anwendbar oder nicht verfügbar sind. Viele wichtige Faktoren für eine erfolgreiche Adoption wurden übersehen. Das Ziel dieses Papiers ist es daher, die signifikanten Faktoren zu identifizieren, die die Verhaltensabsicht zur Einführung von ERPBI im privaten Sektor des Königreichs Saudi-Arabien (KSA) beeinflussen könnten. In dieser Studie wurden 30 Spezialisten aus dem Privatsektor von KSA befragt, die an ERPBI beteiligt sind. Die Ergebnisse zeigten, dass zur Förderung eines effektiven ERPBI-Modells alle notwendigen Faktoren berücksichtigt werden müssen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99007-1_33 e1d9b889e533ea3479750a5d7877e31b;de;;;7.1.;;;Optimierungsmodelle für die Funkplanung von drahtlosen Mesh-Netzwerken In diesem Beitrag schlagen wir neuartige Optimierungsmodelle für die Planung von Wireless Mesh Networks vor, deren Ziel es ist, die Netzwerkinstallationskosten zu minimieren und gleichzeitig die Wireless Mesh Clients vollständig abzudecken. Unsere Mixed-Integer-Linear-Programmiermodelle zielen darauf ab, die Anzahl und Positionen von Mesh-Router und Access Points auszuwählen, während Verkehrsrouting, Interferenzen, Ratenanpassung und Kanalzuweisung auf genaue Weise berücksichtigt werden. Wir liefern die optimalen Lösungen der vorgeschlagenen Problemformulierungen an einer Reihe von Instanzen mit realistischer Größe und diskutieren den Einfluss verschiedener Parameter auf die Eigenschaften der geplanten Netze.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72606-7_25 ac27f935b1dfdc7a9cf8957d118508f7;de;;;7.2.;;;Adaptiver Algorithmus zur Plagiaterkennung: Der leistungsstärkste Ansatz beim PAN 2014 Text Alignment Competition Die Aufgabe der (einsprachigen) Textausrichtung besteht darin, ähnliche Textfragmente zwischen zwei gegebenen Dokumenten zu finden. Es hat Anwendungen in der Plagiatserkennung, Erkennung von Textwiederverwendung, Autorenidentifikation, Autorenhilfe und Informationsabruf, um nur einige zu nennen. Wir beschreiben unseren Ansatz zur Teilaufgabe Textausrichtung des Plagiatserkennungswettbewerbs der PAN 2014, der zum leistungsstärksten System des PAN 2014-Wettbewerbs führte und das leistungsstärkste System des PAN 2013-Wettbewerbs um die kumulative Bewertungsmaßnahme Plagdet übertrifft. Unsere Methode beruht auf einem Satzähnlichkeitsmaß, das auf einem tf-idf-ähnlichen Gewichtungsschema basiert, das es uns ermöglicht, Stoppwörter zu berücksichtigen, ohne die Rate falsch positiver Ergebnisse zu erhöhen. Wir führen einen rekursiven Algorithmus ein, um die Bereiche passender Sätze auf Passagen maximaler Länge zu erweitern. Außerdem stellen wir eine neuartige Filtermethode vor, um überlappende Plagiatsfälle aufzulösen. Unser System ist als Open Source verfügbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24027-5_42 4974c6b33ef47f47112ace41cdb82590;de;;;7.1.;;;Die vereinfachte Enterprise Architecture Management-Methodik für Lehrzwecke Enterprise Architecture erlaubt es, ein Unternehmen im Hinblick auf Struktur, Funktionsweise und Ziele zu beschreiben, zu analysieren und zu gestalten. Dabei werden sowohl Business- als auch IT-Komponenten einer Organisation berücksichtigt. Methoden und Technologien des Enterprise Architecture Managements helfen Unternehmen, ihre digitale Strategie umzusetzen, Unternehmenskohärenz herzustellen und die Geschäftstransformation zu koordinieren. Die Lehre von Enterprise Architecture an Hochschulen ist aufgrund der Interdisziplinarität des Fachs, seines generalisierten Charakters und des engen Praxisbezugs eine schwierige Aufgabe. Darüber hinaus sind moderne Methoden des Enterprise Architecture Managements für Studenten schwierig und enthalten viele Details, die für bestimmte Situationen relevant sind. Obwohl es mehrere Methoden und Ansätze für die Vermittlung von Unternehmensarchitekturen gibt, spiegeln sie nicht die jüngste Änderung der Anwendungsszenarien für Unternehmensarchitektur wider – eine Verschiebung von der Ausrichtung zwischen Business und IT hin zu Unternehmenskohärenz und Koordination der Business Transformation. Die Arbeit bietet eine vereinfachte Methodik des Enterprise Architecture Managements, die den Studierenden einerseits zum Verständnis zur Verfügung steht und andererseits den Studierenden ermöglicht, die wesentlichen Methoden und Technologien der Enterprise Architecture zu verstehen und in der Praxis anzuwenden. Auch Anforderungen an die Methodik werden gesammelt und im Papier dargestellt. Die vorgeschlagene Methodik wird an mehreren Universitäten verwendet und ihre Anwendung innerhalb der Business School einer Universität wird demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00787-4_6 f6cb8b417b3fbc19e24f774339e36cb7;de;;;7.1.;;;Teil des Mobiliars werden: Die Institutionalisierung von Informationssystemen Die Institutionalisierung von Informationssystemen ermöglicht es Führungskräften in Organisationen, sich auf ihre Hauptaufgaben zu konzentrieren und ihnen kreative Energie zu widmen. Dieser Beitrag argumentiert, dass der Prozess der Entscheidung, ob ein Informationssystem institutionalisiert ist oder nicht, besser verstanden werden kann, wenn man seine politische Dimension untersucht. Wir konzentrieren uns auf das Scheitern, das Informationssystem des Londoner Rettungsdienstes zu institutionalisieren. Unsere Analyse entschlüsselt die politischen Faktoren, die den Systemzusammenbruch und seine Aufgabe beeinflusst haben. Dabei schlagen wir einen Rahmen vor, der auf der interpretativen Tradition der Forschung zu Informationssystemen basiert. Der von uns vorgestellte Rahmen wird zum Verständnis von Macht und Institutionalisierung in der Forschung zu Organisationsinformationssystemen beitragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35309-8_20 b8ea872d312eabb0015571c63746bd42;de;;;7.1.;;;Ein fähigkeitsbasiertes Modell für adaptive Organisationen Multiagentensysteme sind in den letzten Jahren populär geworden, um komplexe, adaptive Systeme in einer verteilten, heterogenen Umgebung aufzubauen. Multiagenten-Systeme sind tendenziell robuster und in vielen Fällen effizienter als einzelne monolithische Anwendungen. Allerdings machen unvorhersehbare Anwendungsumgebungen Multiagentensysteme anfällig für einzelne Ausfälle, die ihre Fähigkeit, ihr Gesamtziel zu erreichen, erheblich einschränken können. Das Problem besteht darin, dass Multiagent-Systeme typischerweise dafür ausgelegt sind, innerhalb einer begrenzten Menge von Konfigurationen zu arbeiten. Selbst wenn das System über die Ressourcen und die Rechenleistung verfügt, um sein Ziel zu erreichen, kann es durch seine eigene Struktur und das Wissen über die Fähigkeiten seiner Mitglieder eingeschränkt sein. Um diese Probleme zu überwinden, entwickeln wir ein Framework, das es ermöglicht;-;-;-;https://link.springer.com/article/10.1007/s10458-007-9019-4 a2c996a82b536cb0e14d8de12bc0c614;de;;;7.1.;;;Ein systematischer Ansatz zur Definition der Domäne des Informationssystem-Sicherheitsrisikomanagements Sicherheitsbedenken sind heute das Herzstück von Informationssystemen, sowohl auf technologischer als auch auf organisatorischer Ebene. Bei über 200 praxisorientierten Risikomanagementmethoden und mehreren verfügbaren akademischen Sicherheitsmodellierungsrahmen besteht eine große Herausforderung darin, den am besten geeigneten Ansatz auszuwählen. Die Auswahl wird durch das Fehlen eines wirklichen Verständnisses der Domäne des Sicherheitsrisikomanagements und ihrer Ontologie verwandter Konzepte noch schwieriger. Dieses Kapitel trägt zur Entstehung einer solchen Ontologie bei. Es schlägt einen rigorosen Ansatz vor und wendet diesen an, um eine Ontologie oder ein Domänenmodell des Risikomanagements für die Sicherheit von Informationssystemen zu erstellen. Das vorgeschlagene Domänenmodell kann dann verwendet werden, um Sicherheitsrisikomanagementmethoden zu vergleichen, auszuwählen oder anderweitig zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12544-7_16 a09bfb08a986d19d6e735ee0f648cb6c;de;;;7.1.;;;Signalabdeckung von Tieflandgebieten mit geografischen Informationssystemen, Fallstudie: Kassingar-Gebiet, Sudan Telekommunikationsdienste sind heute eines der wichtigsten Mittel zum Austausch von Informationen, was die Welt durch die Dienste der Telekommunikationsunternehmen zu einem kleinen Dorf macht. Daher besteht ein kontinuierliches Interesse daran, Kommunikationsdienste anzubieten, um das Leben der Menschen zu erleichtern und an einer Ausweitung der Abdeckung in größerem Umfang zu arbeiten. In diesem Kapitel diskutieren wir das Fehlen von Signalen oder Schwächen im Gebiet Kassingar, Sudan, als eine Lösung, um einen besseren Service für Tieflandgebiete bereitzustellen. Dieser Artikel zielte darauf ab, die Beschaffenheit (Höhe und Neigung) des Untersuchungsgebiets zu untersuchen und zu analysieren, und welche Auswirkungen auf die Signalqualität mit GIS-Techniken abgeleitet werden können. Durch die Analyse haben wir festgestellt, dass das Untersuchungsgebiet innerhalb der Abdeckung von nur zwei Türmen der insgesamt acht Türme liegt, die die Region umgeben. Nachdem sichergestellt wurde, dass die verbleibenden Türme wegen der Entfernung ausgeschlossen wurden oder auf der anderen Seite des Nils existieren und weil die Wasseroberfläche ein Reflexionsfaktor für Signale ist. Die Ergebnisse zeigen sich klar und direkt in der starken Beziehung zwischen der (Höhe und Position) der Türme und dem unteren Untersuchungsbereich, die zu einem schwachen Signal oder manchmal zu Abwesenheiten führt. Wir schlagen vor, im Untersuchungsgebiet bei Long 31,912523°, Lat 18,596873° einen neuen Turm zu bauen, der eine hohe Signalqualität im Untersuchungsgebiet sicherstellt und die Signalabdeckung im gesamten Umland verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-32930-3_15 74486cf869a49f10f837647c3c95d7a8;de;;;7.1.;;;Großrechnersysteme in der Stahlindustrie Die Nippon Steel Corporation (NSC) unterhält große Computersysteme, die für die Stahlindustrie typisch sind. Dazu zählen das hauptverwaltungsbezogene Vertriebs- und Produktionsleitsystem sowie stahlwerksbezogene integrierte Produktionsleitsysteme. Dieser Bericht beschreibt die Beziehung zwischen den beiden Arten von Kontrollsystemen und, hauptsächlich in Bezug auf stahlwerksbasierte Kontrollsysteme, ihre Notwendigkeit – warum sie einen großen Umfang haben sollten – Rolle, Struktur, Entwicklungsprozess und Erweiterung in der Zukunft.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-68051-2_17 6aa11b70eb4b1e3a8b650e22d8daf8d9;de;;;7.1.;;;Experimentelle Realität: Prinzipien für das Design von Augmented Environments Das Laboratory of Design for Cognition bei EDF R&D (LDC) ist ein lebendiges Labor, das wir geschaffen haben, um Augmented Environment (AE) für kollaboratives Arbeiten, genauer „kognitives Arbeiten“ (weiße Kragen, Ingenieure, Büroangestellte) zu entwickeln. Es ist ein Unternehmenslabor in einer großen Industrie, in dem die natürliche Aktivität realer Benutzer in verschiedenen Räumen (Projektraum, Besprechungsraum, Lounge usw.) kontinuierlich beobachtet wird „normale“ Besprechungen, es ist auch der „Mutterraum“ aller erweiterten Besprechungsräume im Unternehmen, in dem neue Systeme, Dienste und Geräte getestet werden. Das LDC hat einen einzigartigen Datensatz über den Einsatz von AE gesammelt und verschiedene Beobachtungs- und Designtechniken entwickelt, die in diesem Kapitel beschrieben werden. LDC verwendet neuartige Techniken der digitalen Ethnographie, die teilweise dort erfunden wurden (SubCam, offsat) und teilweise anderswo entwickelt und adaptiert wurden (360°-Video, WebDiver, etc.). Am LDC wurden auch einige neue Theorien entwickelt, um Verhalten zu erklären und Innovationen zu leiten: kognitive Attraktoren, experimentelle Realität und das Triple-Determination-Framework.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84800-098-8_5 ab9c02631920d2f522db02bde2e8eed0;de;;;7.1.;;;Entscheidungsunterstützungssysteme in Wasserressourcen Computergestützte Entscheidungsunterstützungssysteme können die Grundlage für die Maximierung der Produktivität, Kosteneffizienz und Zuverlässigkeit komplexer Wasserressourcensysteme bilden. Die drei grundlegenden Subsysteme eines Entscheidungsunterstützungssystems (DSS) sind: (i) Dialog-Subsystem, (ii) Daten-Subsystem und (iii) Modell-Subsystem. Die Mikrocomputerrevolution und das Aufkommen von Anwendungen von künstlicher Intelligenz und Expertensystemen haben stark zur Entwicklung von DSS beigetragen, die leistungsstark, kostengünstig und sensibel für die tatsächlichen Probleme sind, mit denen Wasserplaner und -manager konfrontiert sind. Die rasante Entwicklung von DSSs in der Wasserressourcenplanung und -verwaltung wurde durch die Präsentation einer breiten Palette von Implementierungen bei einem kürzlich an der Colorado State University abgehaltenen Workshop unterstrichen. Als Fallstudie wird ein erfolgreich implementiertes DSS für die Investitionsplanung zur Kontrolle des Salzgehalts von Flusseinzugsgebieten beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-1697-8_23 42e5ceb3799036f2a605edac8a07aa9d;de;;;7.1.;;;Ein neuer Pufferplanungsalgorithmus basierend auf der Raumgrößenänderung In diesem Artikel wird das Problem der Pufferplanung für die verbindungszentrierte Grundrissplanung untersucht. Toträume, die nicht von Blöcken gehalten werden, sind der verfügbare Ort für die Puffereinfügung. Um diese Räume für den Pufferbedarf optimal zu nutzen, müssen wir Blöcke verschieben, damit die Raumgröße der Blöcke angepasst wird und Toträume neu verteilt werden können. In diesem Artikel stellen wir einen neuen Algorithmus vor, um Blöcke nicht nur innerhalb seines Raums, sondern auch in dem Raum zu verschieben, der derzeit von anderen Blöcken eingenommen wird, indem diese Blöcke gegebenenfalls weggeschoben werden, ohne die topologische und die Gesamtfläche zu verletzen. Nach Anwendung dieses Verfahrens zum Umverteilen von Toträumen kann die Anzahl der Netze, die die Verzögerungsbeschränkung erfüllen, optimiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/11596356_31 755dc5fd8986e7b1e8d2aea369a9a43a;de;;;7.1.;;;Reduzierung von FCA-Attributen in Informationssystemen Eines der Hauptziele der formalen Konzeptanalyse (FCA) und der groben Mengenlehre (RST) ist die Reduzierung redundanter Informationen. Merkmalsauswahlmechanismen wurden in vielen Arbeiten separat untersucht. In diesem Papier analysieren wir das Ergebnis der Anwendung der in FCA angegebenen Reduktionsmechanismen auf RST und geben Interpretationen dieser Reduktionen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-91473-2_47 7f1479193328070429dc204e88f7986d;de;;;7.1.;;;Management und die Hybridisierung von Expertise: EFTPOS im Rückblick Dieses Papier wird zeigen, wie die britischen Banken durch ihre Erfahrung mit dem Design von EFTPOS-Netzwerken den strategischen Wert erkannt haben, IT-Know-how im eigenen Haus zu behalten. Die Banken versuchten zunächst, IT-Know-how von anderen Organisationen „aufzukaufen“, waren jedoch zunächst gezwungen, das Know-how in einer gemeinsam kontrollierten Organisation namens EFTPOS UK anzusiedeln, und dann gezwungen, das neue IT-Know-how in ihren bestehenden IT-Abteilungen aufzubauen. Diese Manipulationen des „organisatorischen Standorts“ von Know-how gaben einzelnen Banken die Möglichkeit, eigene Technologiestrategien zu entwickeln, die sie umgehend nutzten, um Wettbewerbsvorteile zu erzielen. Es wird argumentiert, dass sich aus dem aktiven Management zweier weiterer Kompetenzdimensionen eine größere Fähigkeit zur Gestaltung individueller Technologiestrategien und zur Nutzung von Wettbewerbsvorteilen ergibt: Diese werden als interner Standort und individuelle Kompetenzaufteilung bezeichnet. Der erste Begriff bezieht sich darauf, wo sich in der Organisation technisches Know-how befindet, und der zweite darauf, wie technisches Know-how zwischen Einzelpersonen aufgeteilt wird. Der Prozess, durch den sich die individuelle Aufteilung des Fachwissens ändert, wird als Hybridisierung von Fachwissen bezeichnet, und es wird argumentiert, dass dies, obwohl es in gewissem Maße „natürlich“ ist, sicherlich bewältigt werden kann. Die Argumente für eine aggressivere und explizitere Expertise-Strategie, einschließlich des aktiven Managements des Hybridisierungsprozesses, werden unter Bezugnahme auf die Art des Netzwerkdesigns und die Praktiken beim Management von technischem Know-how in anderen Branchen vorgebracht.;-;-;-;https://link.springer.com/article/10.1080/026839697345233 88e6affc30dd7cb17c0ca7e6f038676a;de;;;7.1.;;;Stabilität des V-Mechanismus – Blitzabstürze und Lawineneffekte Flash-Crashs, die als starke Kursrückgänge wahrgenommen werden, die sich kurz darauf erholen, haben die öffentliche Aufmerksamkeit auf die Anfälligkeit des IT-basierten Aktienhandels gelenkt. In diesem Artikel erklären wir Flash-Crashs als Ergebnis von Handlungen rationaler Agenten. Wir argumentieren, dass die Weiterentwicklung der Informationstechnologie, die lange Zeit mit Wettbewerbsvorteilen verbunden war, zu Unklarheiten in Bezug auf die Spielform führen kann, die zu einem Hypergame führt. Wir verwenden die Hypergame-Theorie, um zu zeigen, dass ein Marktcrash einen Gleichgewichtszustand darstellt, wenn Spieler das wahre Spiel falsch wahrnehmen. Sobald die Mehrdeutigkeit behoben ist, passen sich die Preise wieder dem entsprechenden Niveau an, wodurch der charakteristische Flash-Crash-Effekt entsteht. Durch die Analyse der Interaktion mit dem Herdenverhalten stellen wir fest, dass Flash-Crashs unvermeidlich und ein systemisches Problem moderner Finanzmärkte sein können. Darüber hinaus weisen wir darauf hin, dass Flash-Crash-ähnliche Effekte auch in anderen Anwendungen relevant sind, die auf eine zunehmende Automatisierung angewiesen sind, wie zum Beispiel das automatisierte Management des Energiebedarfs.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-12415-1_5 dee4328cfd428e92d12ac8f9c79cf6d9;de;;;7.1.;;;Die Forschung zu Lehrmethoden des objektorientierten Ansatzes in Management Information Systems Curriculum Für Studierende der Wirtschaftswissenschaften und Management ist es schwierig, den objektorientierten Ansatz basierend auf der Unified Modeling Language (UML) im Lehrplan für Management Information Systems (MIS) zu erlernen. Um dieses Problem zu lösen, werden Lehrern wie folgt vier Methoden zur Vermittlung dieses Ansatzes angeboten. Das Zusammenfassen von Konsistenzregeln hilft den Schülern, logische Beziehungen zwischen UML-Diagrammen zu verstehen. Die Definition des Kerns von UML hilft den Schülern, Schwerpunkte zu erfassen. Das Entwerfen kreativer Experimente hilft den Schülern, Konzepte und Notationen von UML tief zu verstehen. Mit Hilfe spezifischer Programmcodes können abstrakte UML-Diagramme für Studierende anschaulicher erklärt werden. Diese Methoden haben sich als effektiv erwiesen, um diesen Ansatz im MIS-Curriculum zu vermitteln.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-7010-6_123 99abb3825f790951d4c90200df7b49b1;de;;;7.2.;;;Universität Twente bei GeoCLEF 2006: Geofiltered Document Retrieval Dieses Papier beschreibt den Ansatz der Universität Twente bei ihrer ersten Teilnahme an GeoCLEF. Ein großer Aufwand wurde in den Aufbau eines geographischen Thesaurus gesteckt, der verwendet wurde, um den Dokumenten und Abfragen geographisches Wissen hinzuzufügen. Geografische Filterung wurde auf die Ergebnisse angewendet, die von einem Abruf nach Inhaltsausführung zurückgegeben wurden. Der Einsatz einer solchen geografischen Wissensdatenbank zeigte jedoch keinen Mehrwert – die reine Content-Baseline übertraf alle geografisch gefilterten Durchläufe.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74999-8_123 a4c8b0dc65194cd6ac2ecd210491c3d7;de;;;7.1.;;;Intelligenter semantischer Informationsabruf in der medizinischen Musterkognitiven Analyse In diesem Beitrag wird ein neuer Ansatz zur Interpretation semantischer Informationen aus komplexen Röntgenbildern vorgestellt. Die Aufgaben der Analyse und Interpretation kognitiver Bedeutung ausgewählter medizindiagnostischer Bilder werden durch die Anwendung von Graphenbildsprachen auf Basis von Baumgrammatiken ermöglicht. Eines der Hauptprobleme beim schnellen Zugriff und der Analyse von Informationen, die bei verschiedenen medizinischen Untersuchungen gesammelt wurden, besteht darin, die visuellen Informationen effizient in eine Form zu überführen, die eine intelligente Erkennung und ein Verständnis der semantischen Bedeutung ausgewählter Muster ermöglicht. Ein weiteres Problem beim Zugriff auf nützliche Informationen in Multimediadatenbanken ist die Schaffung eines Verfahrens zur Darstellung und Indexierung wichtiger Objekte, die die Dateninhalte bilden. In der Arbeit beschreiben wir einige Beispiele, die Möglichkeiten zur Anwendung von Bildsprachentechniken bei der Erstellung intelligenter kognitiver Multimediasysteme für ausgewählte Klassen medizinischer Bilder, die insbesondere Handgelenkstrukturen zeigen, vorstellen.;-;-;-;https://link.springer.com/chapter/10.1007/11424925_89 87e0401351f5b866205f52e1a123824e;de;;;7.2.;;;Verteilter Algorithmus für das Clustering von Textdokumenten basierend auf dem k-Means-Ansatz Das vorgestellte Papier beschreibt das Design und die Implementierung eines verteilten k-Means-Clustering-Algorithmus für die Analyse von Textdokumenten. Die Motivation für die in diesem Papier vorgestellten Forschungsanstrengungen besteht darin, einen verteilten Ansatz vorzuschlagen, der auf aktuellen In-Memory-Distributed-Computing-Technologien basiert. Wir haben unsere Jbowl-Java-Text-Mining-Bibliothek und GridGain als Framework für verteiltes Computing verwendet. Unter Verwendung dieser Technologien haben wir den verteilten K-Means-Clustering-Algorithmus in zwei Modifikationen entworfen und implementiert und die Experimente mit den Standard-Textdatensammlungen durchgeführt. Die Experimente wurden in zwei Testumgebungen durchgeführt – einer verteilten Computerinfrastruktur und auf einem Multi-Core-Server.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-28561-0_13 8f3df274ae5bc0600edd3f8da330b99b;de;;;7.2.;;;Über Modelle von Konzepten und Daten Bernhard Thalheims wegweisendes Buch mit dem Titel „Entity-Relationship Modeling: Foundations of Database Technology“ [9] beginnt mit einer Auflistung der Schwächen und Stärken aktueller Ansätze zu Datenbankmodellen. Seine Analyse ist heute genauso gültig wie bei ihrer Veröffentlichung im Jahr 2000. Ein wichtiges Merkmal des Information Systems Engineering ist die Notwendigkeit, die Komplexität von Software und Datensystemen zu beherrschen und gleichzeitig Konstruktionsdetails verständlich darstellen zu können. Der Trend zu eingebetteten Systemen erfordert die Integration von Software- und Datenmodellen mit Modellen der Anwendungsdomänen, seien sie technisch, organisatorisch, personenzentriert oder eine Mischung daraus. Es folgt eine Diskussion möglicher Ursachen der Schwächen nach Bernhard Thalheim sowie Vorschläge für Ansätze zur Beseitigung der Schwächen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28279-9_14 67891f25eacb58efbdbe5436fde97b80;de;;;7.2.;;;Verbrauchervertrauen als Schlüssel zum Unternehmenserfolg 1966 begannen Forscher, Artikel zum Thema Vertrauen in hoch bewerteten Zeitschriften zu veröffentlichen. Bis 1993 stand Vertrauen jedoch selten im Fokus der Forschung. In den letzten Jahren gab es jedoch eine wachsende Zahl von Vertrauensartikeln, die 2003 einen Höhepunkt erreichte (109 Veröffentlichungen).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-8307-7_2 c7ce93edae056f8b6b555657c7c138a1;de;;;7.1.;;;Umgebungen für die Landanwendungsentwicklung: Probleme und Gestaltungsrichtlinien In diesem Beitrag untersuchen wir die grundlegenden Fragen im Zusammenhang mit der Gestaltung von Entwicklungsumgebungen für Anwendungen im Bereich der Landinformationsanalyse (Landplanung, Risikobewertung, Städtebau, Immissionsschutz usw.). Insbesondere diskutieren wir den Ansatz, den wir für das Design der Entwicklungsumgebung für richtig halten. Darüber hinaus weisen wir darauf hin, dass die Entwicklungsumgebungen dem Benutzer Hochsprachen für die komplexe primitive Integration auf einer einzigartigen logischen Datenstruktur bereitstellen sollten. Die Flexibilität dieser Sprachen gibt den Umfang der Umgebung. Es werden auch Beispiele für die Leistungsfähigkeit solcher Sprachen bereitgestellt, die eine reale Entwicklungsumgebung nutzen, um zu zeigen, was die gegenwärtige Technologie und das Know-how zur Realisierung solcher Systeme ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-58795-0_29 58cf0b072546aac0e1e88f6d9cbb363f;de;;;7.1.;;;Analyse und Gestaltung von Produktions- und Kontrollstrukturen Ziel dieser Arbeit ist es, den Zusammenhang zwischen Produktionsstruktur und Kontrollstruktur zu veranschaulichen. Es werden identifizierte Produktionsgrundtypen (PBTs) und Steuerungsgrundtypen (CBTs) verwendet, die es erlauben, bestehende Strukturen schnell zu analysieren und Alternativen zu entwickeln. Merkmale wie Produktvielfalt und (Variationen des) Produktionsvolumens stellen die Verbindung zwischen einzelnen PBTs und CBTs sowie die Verbindung zwischen Konfigurationen der Grundtypen her. (Konfigurationen der) Produktions- und Steuerungsmodule werden in einem integralen Ansatz neu gestaltet. Die Grundtypen visualisieren die Auswirkungen der Anwendung unterschiedlicher Entwurfsstrategien.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35304-3_16 e81928300ce00d44f54c937022c242d4;de;;;7.1.;;;Die Einführung eines Leistungsmanagementsystems in der italienischen Armee Das letzte Reformprogramm im italienischen öffentlichen Sektor wurde durch das Gesetzesdekret 150/2009 realisiert, das den Leistungszyklus einführte, um die Effizienz und Effektivität der öffentlichen Organisationen zu verbessern. Die Leistung und deren Bewertung ist eine der Säulen des New Public Management (NPM) [1]. Kontrolle und Rechenschaftspflicht spielen eine unschätzbare Rolle beim institutionellen und organisatorischen Wandel [2]. Die italienische Armee beteiligt sich ebenso wie die anderen öffentlichen Organisationen an diesem Veränderungsprozess durch die Einführung eines Leistungsmanagementsystems (PMS), um „mit weniger mehr zu erreichen“ [3]. Inzwischen befindet sich die Armee mitten in diesem Prozess, mehrere Schritte wurden unternommen, aber es werden weitere und weitere Kritiken unternommen, um ein effektives Decision Support System (DSS) zu implementieren. Dieser Artikel soll auf die folgende Frage antworten: Wie setzt die italienische Armee PMS ein und welche Auswirkungen hat es auf die Organisation?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23065-3_22 cf630a66e6cbb5cbd4f047de137de725;de;;;7.2.;;;Bildabruf und Annotation mit maximaler Entropie Wir präsentieren und diskutieren unsere Beteiligung an den vier Aufgaben der ImageCLEF 2006 Evaluation. Insbesondere präsentieren wir einen neuartigen Ansatz zum Erlernen von Merkmalsgewichtungen in unserem inhaltsbasierten Bildabrufsystem FIRE. Bei einer gegebenen Menge von Trainingsbildern mit bekannter Relevanz untereinander wird die Wiedergewinnungsaufgabe als Klassifikationsaufgabe umformuliert und dann werden die Gewichte zum Kombinieren einer Menge von Merkmalen diskriminativ unter Verwendung des maximalen Entropierahmens trainiert. Experimentelle Ergebnisse für die medizinische Retrieval-Aufgabe zeigen große Verbesserungen gegenüber heuristisch gewählten Gewichtungen. Weiterhin wird der Maximum-Entropie-Ansatz für die automatischen Bildannotationsaufgaben in Kombination mit einem teilbasierten Objektmodell verwendet. Mit unseren Objektklassifizierungsmethoden haben wir die besten Ergebnisse in der medizinischen und in der Objektannotation erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74999-8_91 3319f55c4501c1b1693f3f81c8dfbcd0;de;;;7.2.;;;Eine neue Methode zur sprachübergreifenden Suche nach Chunks mit ein- und zweisprachigen Korpora Information Retrieval (IR) ist ein wichtiger Bereich der Natural Language Processing (NLP). Eines der grundlegenden Probleme beim zweisprachigen Abrufen von Informationen in Suchmaschinen scheint die Art und das Ausmaß zu sein, in dem Benutzer nach Phrasen und Blöcken verlangen. Das Hauptproblem entsteht, wenn die bestehenden zweisprachigen Wörterbücher den tatsächlichen Bedarf der Benutzer an der Übersetzung solcher Phrasen und Teile in eine alternative Sprache nicht erfüllen können und die Ergebnisse oft nicht zuverlässig sind. In diesem Projekt soll ein heuristisches Verfahren zur Extraktion der korrekten Äquivalente von quellsprachlichen Chunks unter Verwendung von ein- und zweisprachigen linguistischen Korpora sowie Textklassifikationsalgorithmen vorgestellt werden. Experimentelle Ergebnisse zeigten, dass unsere Methode eine Genauigkeitsrate von 86,13 % erreichte, was sehr ermutigend erscheint.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15766-0_45 1b2d012f278fc48414f330c924a4278c;de;;;7.2.;;;Annotation heterogener Multimedia-Inhalte mit automatischer Spracherkennung Dieser Beitrag berichtet über den Aufbau und die Evaluierung robuster Spracherkennungssystemteile, die auf die Transkriptgenerierung für heterogene, reale Mediensammlungen ausgerichtet sind. Das System wird zum Generieren von Sprachtranskripten für die NIST/TRECVID-2007-Testsammlung eingesetzt, die Teil eines niederländischen Real-Life-Archivs nachrichtenbezogener Genres ist. Leistungszahlen für diese Art von Inhalten werden mit Zahlen für Testdaten von Rundfunknachrichten verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77051-0_8 3d5668b7c550a951d24923aa5efb5937;de;;;7.2.;;;Auswirkungen der Begriffsindexierung für den Abruf von arabischen Dokumenten In diesem Papier adaptieren wir die Standardmethode zur Extraktion von Mehrwortbegriffen für die arabische Sprache. Wir definieren die sprachlichen Vorgaben und entwickeln ein Termextraktionstool. Wir experimentieren mit dem Begriffsextraktionsprogramm für den Dokumentenabruf in einem bestimmten Bereich, bewerten zwei Arten von Mehrwortbegriffsgewichtungsfunktionen unter Berücksichtigung des Korpus oder des Dokuments und demonstrieren die Effizienz der Mehrwortbegriffsindexierung für beide Gewichtungen bis zu 5,8% durchschnittliche Präzision.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69858-6_49 677aafec35fb7bf98bc7f41e2cae9b9a;de;;;7.2.;;;Informationssystem zur Notfallentscheidung zum Erdbeben- und Katastrophenschutz in Shanghai City Um die Notwendigkeit einer schnellen Entwicklung der Wirtschaft in Shanghai und des Schutzes vor Erdbeben und Katastrophenvorsorge in der Megastadt zu erfüllen, ist es notwendig, ein Informationssystem für die Entstehungsentscheidung zum Schutz vor Erdbeben und Katastrophenvorsorge in der Stadt aufzubauen. In diesem Beitrag wird GIS auf „das Informationssystem für die Notfallentscheidung zum Schutz vor Erdbeben und Katastrophenvorsorge in Shanghai City (Baoshan-Experimentierregion)“ angewendet. Wir stellen den Aufbau und die Wirkung jedes Funktionsbausteins dieses Informationssystems vor. Dieses Informationssystem besteht aus 7 Funktionsmodulen: Hintergrundinformationen Seismologie und Geologie, Subsystem zur schnellen Bewertung von Erdbebenschäden, Subsystem für die entscheidenden Informationen zur Erdbebenentstehung, Informationsabfrage, Wartung und Verwaltung des Systems, Hilfe, Beenden. Kernbestandteile dieses Informationssystems sind das Subsystem zur schnellen Bewertung von Erdbebenschäden und das Subsystem für die entscheidenden Informationen zur Erdbebenentstehung. Außerdem führt dieser Artikel in die Anwendung der Technologie der Farb-Infrarot-Luftbildfernerkundung auf dieses Informationssystem ein.;-;-;-;https://link.springer.com/article/10.1007/s11589-000-0028-5 433d9240207d6ad0bc147ae5bb42b0eb;de;;;7.2.;;;Das beste Bild finden: Medienübergreifendes Abrufen von Inhalten Wir fragen die Bilder von Yahoo! Nachrichten für Personen und Objekte durch Verwendung der begleitenden Nachrichtenbeschriftungen als Indizierungsanmerkung. Unser Ziel ist es, diese Bilder ganz oben auf der Antwortliste zu finden, in denen die gesuchten Personen oder Gegenstände am prominentesten vorkommen. Wir zeigen, dass ein auf syntaktischer, semantischer und diskursiver Analyse des kurzen Nachrichtentextes basierendes Erscheinungs- oder Inhaltsmodell nur dann sinnvoll ist, das beste Bild einer Objektperson zu finden, wenn die Datenbank Fotos enthält, die jeweils viele Entitäten abbilden. Unter anderen Umständen hat eine einfachere Repräsentation mit Nomen eine gute Leistung. Die Erscheinungsmodelle werden in einer probabilistischen Rankingfunktion getestet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78646-7_53 85e2357a5a3809a8bfefc4d59f3172f2;de;;;7.2.;;;Überprüfung des gegenseitigen Authentifizierungsprotokolls für das MobInfoSec-System Dieses Papier präsentiert eine detaillierte Analyse des Protokolls zur gegenseitigen Authentifizierung, das speziell für das System MobInfoSec entwickelt wurde - für ein mobiles Gerät zum Teilen und Schützen von Verschlusssachen. MobInfoSec verwendet feinkörnige Zugriffsregeln, die durch allgemeine Zugriffsstrukturen beschrieben werden. In diesem Papier beschreiben wir die Architektur und Funktionsweise des Systems und die Anforderungen an kryptografische Authentifizierungsprotokolle, die sich sowohl aus Standards, der Sammlung bewährter Praktiken als auch direkt aus der Vision des Systems ergeben. Der Artikel enthält eine Beschreibung der Teile des Protokolls und eine formale Analyse seiner Sicherheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24369-6_38 425557443648628c7810399e89dc3983;de;;;7.1.;;;Computerexperimente im Co-Design von Markt und Lieferkette: ein Ansatz mit gemischten Agenten Die synthetische Umgebung für Analyse und Simulation (SEAS) ist eine computergestützte Experimentierumgebung, die reale Ökonomien nachahmt, mit mehreren miteinander verbundenen Märkten, mehreren Waren und Dienstleistungen, mehreren Unternehmen und Kanälen und mehreren Verbrauchern, die alle von Grund auf aufgebaut sind. Es ist bevölkert mit menschlichen Agenten, die strategisch komplexe Entscheidungen treffen, und künstlichen Agenten, die einfache, aber detailintensive Entscheidungen treffen. Diese Agenten können mit realen Daten kalibriert werden und dürfen in dieser synthetischen Wirtschaft dieselben Entscheidungen treffen wie ihre realen Gegenstücke. Die resultierenden Ergebnisse können überraschend genau sein. In diesem Artikel werden die Forschungen in diesem Bereich diskutiert und die Architektur von SEAS detailliert beschrieben. Außerdem wird eine detaillierte Fallstudie zum Co-Design von Markt und Lieferkette für den Business-to-Business-E-Commerce in der PC-Branche vorgestellt.;-;-;-;https://link.springer.com/article/10.1007/s10257-005-0021-6 4f6f26be73aebadb3a0bc52211f276ae;de;;;7.1.;;;Ein paar Richtlinien für eine gute Nutzung von PLM-Software Softwareanbieter bieten PLM-Lösungen an, um den gleichnamigen organisatorischen Ansatz zu unterstützen, insbesondere während des Prozesses der Neuproduktentwicklung (NPD). Diese Tools sind jedoch kein Allheilmittel. Diese Mitteilung bezieht ihre theoretischen und methodischen Grundlagen in der Betriebswirtschaftslehre. Wir versuchen zu verstehen, wie Manager die Benutzer beeinflussen können, damit sie ihr PLM-Tool sinnvoll einsetzen. Wir analysieren den Fall eines Automobilherstellers, der vor acht Jahren eine PLM-Software gekauft hat. Unser qualitativer Ansatz hat es uns ermöglicht, die Bedeutung von Managementmaßnahmen und -regulierung für einen effizienten Einsatz von PLM-Tools hervorzuheben. Auf theoretischer Ebene verwenden wir die PLM-Funktionen in Anlehnung an Grieves, um die vom Tool erlaubte Effektivität der Informationsintegration zu bestimmen. Wir schlagen einige Erweiterungen der in der Literatur zu Informationssystemen anerkannten soziomaterialen Typologie von Agenturen vor. Schließlich schlagen wir einige Managementrichtlinien für einen guten Einsatz von PLM-Tools vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41501-2_4 067f0d04b536acc4c153d17d5974533c;de;;;7.1.;;;Geschäftsprozessmanagement, kontinuierliche Verbesserung und Unternehmensarchitektur: Im Dschungel der Governance Business Process Management (BPM) ist grundlegend für die Anforderungsspezifikationen von IT/IS-Systemen und ist auch in Enterprise Architecture (EA)-Frameworks und -Praktiken gut positioniert. Kontinuierliche Verbesserung (CI) bezieht sich auf schlanke, Six-Sigma-Agenden und unaufhörliche Anstrengungen zur Steigerung der Effektivität der Organisation. Dieses Papier entwickelt eine Position von EA-getriebenem BPM als langfristig, strategisch und „langsam“, während CI kurzfristig, operativ und „schnell“ ist. Es wird eine Fallstudie vorgestellt, in der CI außerdem lokal und BPM zentral in einer größeren Organisation angesiedelt ist. Dies führt zu Konflikten zwischen BPM und CI, bei denen der Unternehmenswert beider untergraben wird, da IS-Initiativen zur ERP-Implementierung verlängert werden und CI-Initiativen nicht den zukünftigen Szenarien entsprechen. In diesem Papier wird EA als Vermittler behandelt, bei dem EA Geschäftsmöglichkeiten für „positive“ CI-Initiativen kommuniziert und darauf abzielt, „negative“ CI-Initiativen zu stoppen. Ein EA-basierter Prozessverfolgungsmechanismus wird vorgeschlagen und demonstriert, der Geschäftsprozesse, ERP und silobasierte Elemente für CI-Initiativen verbindet. Darüber hinaus wird ein CI-Projektmanagement-Tool diskutiert, um Screening-Möglichkeiten für EA-basierte CI-Reviews zu skizzieren. Es wird eine Agenda entwickelt, um sicherzustellen, dass CI-Projekte gemäß der Enterprise Architecture und entlang der Organisationsarchitektur entwickelt werden und nicht als Siloprojekte. Darüber hinaus ist Enterprise Architecture in einem solchen Fall nicht allein, um Veränderungen herbeizuführen, und EA muss Methoden entwickeln, um sich mit anderen Veränderungsprozessen zu synchronisieren und abzustimmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-96367-9_4 341af3674eadf5a056cfac3590c5db3d;de;;;7.1.;;;Eine Architektur auf Metaebene für strategische Überlegungen in der Marineplanung Das Management von Marineorganisationen zielt auf die Maximierung des Missionserfolgs durch Überwachung, Planung und strategische Überlegungen ab. Dieses Papier präsentiert eine Meta-Level-Architektur für strategische Überlegungen in der Marineplanung. Die Architektur wird mit Entscheidungswissen von Marinebereichsexperten instanziiert und zu einem ausführbaren Modell geformt, das verwendet wird, um eine Reihe von Simulationen durchzuführen. Zur Auswertung der Simulationsergebnisse werden eine Reihe relevanter Eigenschaften für die Planungsentscheidung identifiziert und formalisiert. Diese Eigenschaften werden für die Simulationsspuren validiert.;-;-;-;https://link.springer.com/chapter/10.1007/11504894_117 b3bee229442dd7258d79f81f2d05af30;de;;;7.2.;;;Ähnlichkeitsmodell und Begriffszuordnung für die Dokumentkategorisierung Im Kontext von Information Retrieval und Dokumentkategorisierung basieren sowohl euklidische Distanz- als auch Kosinus-basierte Ähnlichkeitsmodelle auf der Annahme, dass Termvektoren orthogonal sind. Aber diese Annahme ist nicht wahr. Begriffsassoziationen werden in solchen Ähnlichkeitsmodellen ignoriert. In diesem Beitrag werden die Eigenschaften des Begriffs-Dokumenten-Raums, des Begriffs-Kategorien-Raums und des Kategorie-Dokumenten-Raums analysiert. Dann schlagen wir ohne die Annahme der Begriffsunabhängigkeit ein neues mathematisches Modell vor, um die Assoziation zwischen Begriffen abzuschätzen und ein ∞-Ähnlichkeitsmodell von Dokumenten zu definieren. Hier nutzen wir so weit wie möglich die vorhandene Kategoriemitgliedschaft, die durch den Korpus repräsentiert wird, und das Ziel ist es, die Kategorisierungsleistung zu verbessern. Die empirischen Ergebnisse stammen von;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36271-1_22 2e7cca01dbb9c17e206b216c06eacdf1;de;;;7.2.;;;Eine Analyse von Plug-and-Play-Business-Software Die Fähigkeit, das Potenzial von Innovationen zu realisieren, ist wichtig für den Erfolg von Gesellschaften. Der Kern des Konzepts von Plug and Play Business ist ein integriertes Set von ICT-Tools, die Innovatoren dabei unterstützen, ihre Ideen in Unternehmen umzusetzen, indem sie virtuelle Unternehmen für eine interorganisationale und interoperable Zusammenarbeit bilden. In diesem Beitrag analysieren wir das Konzept des Plug-and-Play-Business und stellen eine Formalisierung relevanter Aspekte dar, wie zum Beispiel die verschiedenen Aufgaben bei der virtuellen Unternehmensgründung und -kollaboration. Wir untersuchen die funktionalen Anforderungen von Plug-and-Play-Business-Software und bewerten die Nützlichkeit bestehender Technologien für deren Implementierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-39229-5_4 82977c3cee584613c02d6be144ee5d2e;de;;;7.2.;;;Probabilistische iterative Duplikaterkennung Das Problem, ungefähr doppelte Datensätze zwischen Datenbanken zu identifizieren, ist unter anderem als Duplikaterkennung oder Datensatzverknüpfung bekannt. Dazu werden typischerweise entweder Regeln oder eine gewichtete Aggregation von Abständen zwischen den einzelnen Attributen potentieller Duplikate verwendet. Die Auswahl der geeigneten Regeln, Distanzfunktionen, Gewichtungen und Schwellenwerte erfordert jedoch ein tiefes Verständnis des Anwendungsbereichs oder ein gutes repräsentatives Trainingsset für überwachte Lernansätze. In diesem Beitrag präsentieren wir einen unbeaufsichtigten, domänenunabhängigen Ansatz, der mit einem breiten Alignment potenzieller Duplikate beginnt und die Verteilung der beobachteten Distanzen zwischen potenziellen Duplikaten und Nicht-Duplikaten analysiert, um das anfängliche Alignment iterativ zu verfeinern. Auswertungen zeigen, dass dieser Ansatz andere unüberwachte Ansätze verdrängt und fast die gleiche Genauigkeit erreicht wie selbst vollständig überwachte, domänenabhängige Ansätze.;-;-;-;https://link.springer.com/chapter/10.1007/11575801_19 2e16aa29e0adbcab468ff47738fbf35b;de;;;7.2.;;;Rhetorische Figuration als Metrik in der Textzusammenfassung Wir zeigen, dass oberflächliche Marker pragmatischer Absicht verwendet werden können, um die wichtigen Sätze im Text zu erkennen und dadurch die Leistung von Textzusammenfassungssystemen zu verbessern. Insbesondere konzentrieren wir uns auf die Verwendung der automatisierten Erkennung rhetorischer Figuren – charakteristische syntaktische Muster einer überzeugenden Sprache – um Informationen für eine zusätzliche Metrik bereitzustellen, um die Leistung des MEAD-Summierers zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06483-3_2 15f0c2e888d1ffe4a99dc50d6773a902;de;;;7.2.;;;Geführte Tiefenverbesserung durch anisotrope Diffusion In diesem Beitrag schlagen wir vor, Inpainting und Upsampling für fehlerhafte Tiefenkarten durchzuführen, wenn ausgerichtete Farbbilder vorliegen. Diese Aufgaben werden als das Problem der geführten Tiefenverbesserung bezeichnet. Wir formulieren das Problem basierend auf dem Wärmediffusionsgerüst. Die Pixel mit bekannten Tiefenwerten werden als Wärmequellen behandelt und die Tiefenverbesserung erfolgt durch Diffundieren der Tiefe von diesen Quellen in unbekannte Bereiche. Die Diffusionsleitfähigkeit ist im Hinblick auf das Leitfarbbild so ausgelegt, dass ein lineares anisotropes Diffusionsproblem entsteht. Wir werfen das Steady-State-Problem dieser Diffusion weiter in das berühmte Random-Walk-Modell, bei dem die Verbesserung effizient durch die Lösung eines dünn besetzten linearen Systems erreicht wird. Der vorgeschlagene Algorithmus wird anhand des Middlebury-Stereodatensatzes quantitativ ausgewertet und zum Inpainten von Kinect-Daten und zum Upsampling der Reichweitendaten von Lidar angewendet. Vergleiche mit den häufig verwendeten bilateralen Filter- und Markov-Random-Field-basierten Methoden werden ebenfalls vorgestellt, was zeigt, dass unser Algorithmus kompetent ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03731-8_38 bb305407dcb1afa7b76fea3003dae56e;de;;;7.1.;;;Offenes Farm Management Information System zur Unterstützung ökologischer und ökonomischer Aufgaben Ein Farm Management Information System (FMIS) ist ein ausgeklügeltes Werkzeug zur Verwaltung von Geodaten und -funktionen, da es Antworten auf zwei grundlegende Fragen liefert: Was ist wo passiert? Der vorgestellte Ansatz FOODIE (Farm-Oriented Open Data in Europe) und DataBio (Data-Driven Bioeconomy) kann als OpenFMIS anerkannt werden, bei dem Umwelt- und Referenzdaten für die Präzisionslandwirtschaft kostenlos zur Verfügung gestellt werden. Auf der anderen Seite werden Mehrwertdienste wie Ertragspotenzial, Sensorüberwachung und/oder Maschinenparküberwachung aufgrund der Kosten für Hardware und nicht triviale Berechnungen über standardisierte Webservices kostenpflichtig bereitgestellt. Ergebnisse, d. h. Referenz-, umwelt- und landwirtschaftsbezogene Geodaten, können über die FOODIE-Plattform bezogen werden. All diese Ergebnisse gleich welcher Art werden im europäischen DataBio-Projekt verwendet, um die Umweltbelastung zu minimieren und gleichzeitig den wirtschaftlichen Nutzen zu maximieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-89935-0_19 0298987c69a460977d211f4d471610ef;de;;;7.1.;;;BPR für die Entwicklung von Informationssystemen – eine Fallstudie Der Einsatz von BPR-Techniken in der CIS-Entwicklung ist in den Phasen Strategie, Analyse und Anforderungsdefinition sinnvoll, jedoch nur, wenn er Teil einer unternehmensweiten Qualitätsverbesserungsinitiative ist. Seine Hauptstärken liegen in Techniken für eine ausgewogene Ermächtigung der Interessengruppen und eine Nivellierung von Macht von einem hierarchischen Basispunkt aus. Darüber hinaus kann sich der Einsatz von BPR-Techniken bei der CIS-Entwicklung positiv auf die Qualität des CIS auswirken.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34848-3_5 dec0fce71d034cb363a2581a1c314381;de;;;7.1.;;;Komplexitätsmanagement in Produktionssystemen: Ansatz zur Unterstützung der Problemlösung durch ganzheitliche Strukturbetrachtung Sowohl externe als auch interne Einflüsse beeinflussen die Planung und den Betrieb von Produktionsanlagen. Langjährige Trends kombiniert mit Themen wie Digitalisierung und Künstliche Intelligenz erhöhen die Komplexität bei der Bewältigung von Problemen in Produktionssystemen. Damit einhergehend steigt die Gefahr von Planungsfehlern und dem Verlust der langfristigen Wettbewerbsfähigkeit. In diesem Beitrag wird ein innovativer Ansatz vorgestellt, der Problemlösungsprozesse bei der Planung und dem Betrieb von Produktionsanlagen unterstützt. Dazu werden qualitative Strukturmodellierung und Analyse von Problemsituationen angewendet. Im Kern konzentriert sich der Artikel auf ein Framework, das die Grundlage für die Modellierung von Problemsituationen, deren Analyse und die organisatorische und technische Integration der Methode bildet. Weiterhin wird mit dem Konzept bausteinbasierter Domänenbeziehungsmodelle eine Möglichkeit vorgestellt, mit der die Struktur von Problemsituationen modelliert und analysiert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30000-5_52 697cebc089eb7b1a911cf2b76e9e13c4;de;;;7.2.;;;Untersuchen adaptiver Fenstergrößen für den Entitätsabruf Mit der kontinuierlichen Aufmerksamkeit moderner Suchmaschinen, Entitäten und nicht nur Dokumente für eine bestimmte Abfrage abzurufen, führen wir eine neue Methode zur Verbesserung der Entitätsranking-Aufgabe ein. Eine Entitätsranking-Aufgabe befasst sich mit dem Abrufen einer Rangliste von Entitäten als Antwort auf eine bestimmte Abfrage. Einige erfolgreiche Modelle verwendeten die Idee der Assoziationsfindung in einem Textfenster und nicht im gesamten Dokument. Diese Studien betrachteten jedoch nur feste Fenstergrößen. Diese Arbeit schlägt einen Weg vor, eine adaptive Fenstergröße für jedes Dokument zu erzeugen, indem einige der Dokumentmerkmale verwendet werden. Zu diesen Funktionen gehören die Dokumentlänge, die durchschnittliche Satzlänge, die Anzahl der Entitäten im Dokument und der Lesbarkeitsindex. Experimentelle Ergebnisse zeigen einen positiven Effekt, wenn diese Dokumentmerkmale bei der Bestimmung der Fenstergröße berücksichtigt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06028-6_59 c9a7dc49ec6c1004bec24fa6b5d37e3a;de;;;7.1.;;;Überlegungen zur Gesundheitsinformationstechnologie bei der Integration medizinischer und zahnmedizinischer Daten Die elektronische Integration von zahnärztlicher und medizinischer Versorgung kann erreicht werden, indem Folgendes bestimmt wird: (1) klinischer, epidemiologischer und finanzieller Bedarf, (2) ineinandergreifende Komponenten und andere verfügbare Technologien, (3) potenzielle Anpassungen und/oder Hindernisse, die bei der Integration eine Rolle spielen können und (4) Aufstellung und Umsetzung eines Plans, der zu integrierten Aktivitäten führt. Wir überprüfen die Bedingungen, die von integrierten Ansätzen profitieren können, die derzeit in der klinischen Versorgung eingesetzten Technologien sowie unterstützende Faktoren für die Integration.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98298-4_11 9e368e7f1dcff882e6a4f863a7c12ba7;de;;;7.2.;;;Zeitliche Semantik: Eine Studie über ein Stream-basiertes Ranking-System für Entitätsbeziehungen In den letzten Jahren haben Suchmaschinen damit begonnen, semantisch relevante Entitätsinformationen zusammen mit Dokumentensuchergebnissen darzustellen. Entitätsrankingsysteme werden verwendet, um Empfehlungen für verwandte Entitäten zu berechnen, die ein Benutzer möglicherweise auch erkunden möchte. Typischerweise erfolgt dies durch Rangieren von Beziehungen zwischen Entitäten in einem semantischen Wissensgraphen unter Verwendung von Signalen, die in einer Datenquelle gefunden werden, sowie Typanmerkungen auf den Knoten und Links des Graphen. Der Prozess der Erstellung dieser Rankings kann jedoch viel Zeit in Anspruch nehmen. Infolgedessen hinken Entity-Ranking-Systeme typischerweise den realen Ereignissen hinterher und präsentieren relevante Entitäten mit veralteten Beziehungen zum Suchbegriff oder sogar veralteten Entitäten, die durch neuere Beziehungen oder Entitäten ersetzt werden sollten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25010-6_28 96711ada933a7cef29fc89577c35cf38;de;;;7.2.;;;Eine Forschungsagenda zur Sicherung der Informationsqualität in öffentlichen Sicherheitsnetzwerken: Informationsorchestrierung als Mittelweg zwischen hierarchischen und netzzentrischen Ansätzen Eine der zentralen Herausforderungen in öffentlichen Sicherheitsnetzen ist die Gewährleistung einer hohen Informationsqualität (IQ) während der Katastrophenhilfe. Da viele Evaluierungsberichte über Katastrophenhilfemaßnahmen Fälle von schlechtem IQ aufgedeckt haben, suchen sowohl Wissenschaftler als auch Praktiker nach Informationsarchitekturen, die den IQ sicherstellen. Dieser Artikel konzentriert sich auf die Hürden und Chancen der IQ-Sicherung durch Informationsarchitekturen. Ausgehend von zwei gegensätzlichen Koordinationsansätzen, hierarchisch versus netzentrisch, schlagen wir vor, einen hybriden, auf Informationsorchestrierung basierenden Ansatz zur Sicherstellung des IQ zu verwenden. Während hierarchische Koordinationsansätze dazu führen, dass Architekturen vordefinierte Informationsflüsse in Abhängigkeit von Strukturen und Verfahren diktieren, betont die netzzentrische Informationskoordination die Notwendigkeit individueller, ereignisgesteuerter Selbstsynchronisation. Obwohl beide Architekturen ihre Stärken und Schwächen haben, die von mehreren Eventualitäten abhängen, enthalten beide Merkmale, die die IQ-Sicherheit von Hilfskräften erschweren. Die Informationsorchestrierung bietet den Mittelweg zwischen hierarchischen und netzzentrischen Ansätzen und wird als heterarchische Form der Informationskoordination definiert, die aus einem spezifischen Satz von Rollen und Fähigkeiten in Bezug auf die Sammlung, Anreicherung und Verbreitung hochwertiger Informationen besteht. Fähigkeiten, die nach dem Ansatz der Informationsorchestrierung entwickelt werden müssen, bilden eine Forschungsagenda.;-;-;-;https://link.springer.com/article/10.1007/s10111-011-0172-9 ab39a46ed17de8b0bcf37b598d107189;de;;;7.2.;;;Aktive, medizinische Dokumente im Gesundheitswesen Im Gesundheitswesen sind verteilte und heterogene Informationssysteme zu beobachten. Um die Vision einer lückenlosen Gesundheitsversorgung umzusetzen, müssen die Grenzen der Institutionen geschlossen werden. Darüber hinaus müssen die Mitglieder des Gesundheitsteams nach dem Prinzip der Informationslogistik informiert werden, um Behandlungsprozesse effektiv und effizient zu unterstützen. Da das Gesundheitswesen als komplexes, adaptives System verstanden werden kann, ist ein agentenbasierter Ansatz für ein Informationssystem, das flexibel auf Veränderungen seiner Umgebung reagieren kann, eine adäquate Lösung. Nach der Identifikation von Merkmalen des Gesundheitsbereichs wird das Lösungskonzept aktiver, medizinischer Dokumente beschrieben, ergänzt durch einen Analyse- und Entwicklungsansatz für ein entsprechendes agentenbasiertes System.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-32062-8_16 6780fb3719037c981d884136dd37bc44;de;;;7.2.;;;Verbesserung des inhaltsbasierten Bildabrufs durch Identifizierung der am wenigsten und am meisten korrelierten visuellen Wörter In diesem Beitrag schlagen wir ein Modell zur direkten Einbindung von Bildinhalten in ein (kurzfristiges) Nutzerprofil vor, das auf Korrelationen zwischen visuellen Wörtern und Anpassung des Ähnlichkeitsmaßes basiert. Die Beziehungen zwischen visuellen Wörtern auf verschiedenen kontextuellen Ebenen werden untersucht. Wir führen verschiedene Korrelationsbegriffe ein und vergleichen sie, die wir im Allgemeinen als bild- und umgebungsbasiert bezeichnen. Die Informationen über die am stärksten und die am wenigsten korrelierten visuellen Wörter können genutzt werden, um das Ähnlichkeitsmaß anzupassen. Die Auswertung, die einem Experiment mit realen Benutzern (zukünftige Arbeit) vorausgeht, erfolgt im Rahmen des Pseudo-Relevanz-Feedbacks. Wir testen unsere neue Methode an drei großen Datensammlungen, nämlich MIRFlickr, ImageCLEF und einer Sammlung des British National Geological Survey (BGS). Das vorgeschlagene Modell ist rechnerisch billig und auf große Bildsammlungen skalierbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35341-3_27 6ac3d6660e7a47e88cbefe294084a1c3;de;;;7.1.;;;Beratung für Karriere- und Organisationsentwicklung Dieses Kapitel befasst sich mit der Beratung zur Karriereentwicklung und Organisationsentwicklung. Karriereberatung konzentriert sich in der Regel auf die individuelle Entwicklung, während die Organisationsentwicklung darauf abzielt, die Funktionsweise eines Unternehmens oder einer anderen Organisation zu verbessern. Beide Beratungsarten bieten den Menschen Werkzeuge, um den vielfältigen Herausforderungen der heutigen Arbeitswelt zu begegnen und ihnen zu helfen, Zufriedenheit, Zielstrebigkeit und herausragende Leistung zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-8927-7_10 bf5db21dff95738aa806a100fe2fe49d;de;;;7.1.;;;Geschäftsprozessorientierung in griechischen KMU: Analyse von Herstellungsprozessen und deren Enterprise-Systemimplementierungen Der Einsatz von Best-Practice-Herstellungsprozessen durch griechische KMU wird zusammen mit den entsprechenden Prozessimplementierungen mit Packaged Enterprise Systems (ES) untersucht. Die Studie analysiert einzelne Prozesse aus der Perspektive eines Implementierers, fokussiert auf defiziente Prozess-Use-Cases und geht den Ursachen solcher Mängel nach. Produktionsstammdaten sowie Planungs-, Terminierungs-, Ausführungs-, Kostenrechnungs- und Business Intelligence-Prozesse werden an einer Stichprobe von 15 griechischen KMU analysiert, die erfolgreich ein einziges ERP-System implementiert haben. In der Produktionsplanung, Terminierung und Plankalkulation werden Mängel festgestellt. Sie sind auf fehlende Kenntnisse und Erfahrungen sowie auf die Geschäftskultur der Unternehmen zurückzuführen. Bevor diese Prozesse implementiert werden können, ist auch ein umfassendes Reengineering der Geschäftsprozesse erforderlich. Die Ergebnisse legen nahe, dass unter Bedingungen geringer Prozess- und ES-Nutzungsreife eine Analyse einzelner Prozesse erforderlich ist, bevor die übergeordnete Geschäftsprozessorientierung und Geschäftsprozessreifeindikatoren bewertet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24358-5_30 d2e11284addb22beb9a669b55f079cbe;de;;;7.1.;;;Design von Visualisierungen für die Stadtmodellierung Stadtplanungsexperten verwenden häufig Computermodelle, um alternative Landnutzungsstrategien zu bewerten, insbesondere wenn sie mit Verkehrs- und Umweltentscheidungen interagieren. Das stark gestiegene Datenvolumen neuer Landnutzungsmodelle erschwert deren effektive Nutzung ohne geeignete Visualisierungstools. Wir präsentieren Urban View, ein Visualisierungssystem für die Stadtmodellierung, und beschreiben eine Benutzerstudie, um geeignete Visualisierungen für die Stadtmodellierungsdomäne zu bestimmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-6783-0_20 6b021b5e3d8c35a8419706deae61fe1a;de;;;7.2.;;;Zur Entwicklung und Entwicklung des computergestützten Denkens von Studenten am Beispiel der Vermittlung grundlegender Computeranwendungen Angesichts der aktuellen Situation des Mangels an „computergestützten Denkfähigkeiten“ von College-Studenten analysiert dieser Beitrag die Faktoren, die die Entwicklung der Fähigkeit zum computergestützten Denken beeinflussen. Am Beispiel des Kurses „Computer Application Foundation“ werden in diesem Beitrag die Verbindungen und Standards erläutert, die bei der Entwicklung der Fähigkeit zum Computational Thinking beachtet werden müssen, sowie einige Probleme, die bei der Entwicklung von rechnerisches Denken kultivieren. Durch dieses Papier haben sich mehr Wissenschaftler dem Forschungsgebiet der Fähigkeit zum computergestützten Denken angeschlossen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6113-9_28 e7e0cb3e7e3c905a75154b35a80df7bf;de;;;7.2.;;;Vertraulichkeitserhaltende Abfrageausführung fragmentierter ausgelagerter Daten Die Gewährleistung der Vertraulichkeit ausgelagerter Daten ist weiterhin ein Bereich aktiver Forschung im Bereich des Datenschutzes. Fast alle existierenden Ansätze zur Wahrung der Privatsphäre, um dieses Problem anzugehen, beruhen auf schwergewichtigen kryptographischen Techniken mit einem großen Rechenaufwand, der große Datenbanken ineffizient macht. In diesem Papier gehen wir dieses Problem an, indem wir einen bestehenden Ansatz verbessern, der auf einer Kombination aus Fragmentierung und Verschlüsselung basiert. Wir präsentieren eine Methode zur Optimierung und Ausführung von Abfragen über verteilte Fragmente, die in verschiedenen Cloud-Speicherdienstanbietern gespeichert sind. Anschließend erweitern wir diesen Ansatz, indem wir eine auf Private Information Retrieval (PIR) basierende Abfragetechnik präsentieren, um die Vertraulichkeit der Daten im Rahmen eines kollaborativen Cloud-Speicherdienstanbietermodells durchzusetzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36818-9_47 31ad1ec96caa84a1e44f96ed34dfa34a;de;;;7.2.;;;Informationssystem für Forschung und Betrieb in einer universitären Radiologieabteilung Mehrere relationale Datenbankverwaltungssysteme wurden in Fortran/Assembler auf einem Digital PDP 11/45-Computer implementiert, um die Patientendaten der diagnostischen Radiologie, Nuklearmedizin und therapeutischen Radiologie in Rush-Presbyterian-St. Lukas Medical Center. Jedes System umfasst sein eigenes Online-Konversationseingabepaket, und alle Systeme verwenden das gleiche einfache Abrufpaket. Ersteres besteht aus verschiedenen Anwendungsprogrammen zum Eingeben und Aktualisieren der Informationen. Letzteres ist ein Universal-MIRS-Interpreter (Medical Information Retrieval System), der das Abrufprogramm ausführt, um die interessierenden Daten abzutasten und die zusammenfassende Auflistung erzeugt. Die für jeden Patienten gespeicherten Daten enthalten einen Satz allgemeiner Informationen und verschiedene Sätze spezifischer Informationen für verschiedene Arten von Studien, die möglicherweise nur für ausgewählte Patientengruppen gelten. Die Daten jedes Felds innerhalb eines Satzes werden durch Typ, Länge und Versatz zum Anfang definiert. Somit können dem System problemlos neue Studien hinzugefügt werden, ohne die bestehenden Programme zu modifizieren. MIRS, ein vollständig in Assembler geschriebener Übersetzer, verwendet die Definitionen in der Wörterbuchdatei, um die Daten, die den Variablennamen im Abrufprogramm entsprechen, zu suchen und zu konvertieren, führt die relevanten booleschen Operationen durch, entscheidet, ob die Kriterien erfüllt sind, und gibt die Ergebnisse aus. Es hat sich herausgestellt, dass ein solches System aufgrund seiner einfachen Wartung und schnellen Wiederherstellung nahezu zufriedenstellend ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-52247-5_51 b17457c36eaa969dfb9b5b27cb74ae83;de;;;7.2.;;;Neuer Ansatz für die Bewertung der Informationssicherheit und das Management von IT-Systemen in Bildungseinrichtungen Sicherheitsbewertung und -management sind für webbasierte Informationstechnologie (IT)-Systeme, insbesondere für Bildungseinrichtungen, immer wichtiger geworden. Für die Sicherheitsbewertung und das Management von IT-Systemen in Bildungseinrichtungen ist die Bestimmung des Sicherheitsniveaus für ein einzelnes IT-System gut entwickelt. Allerdings ist es nach wie vor schwierig, das Informationssicherheitsniveau der gesamten Bildungseinrichtung unter Berücksichtigung mehrerer IT-Systeme zu bewerten, da möglicherweise zu viele verschiedene IT-Systeme in einer Einrichtung vorhanden sind, Bildungseinrichtungen sehr unterschiedlich sein können und es kein Standardmodell oder eine Standardmethode gibt eine vertretbare Bewertung der Informationssicherheit zwischen verschiedenen Bildungseinrichtungen unter Berücksichtigung ihrer Unterschiede bereitzustellen. Angesichts dieser Schwierigkeiten wird in dieser Arbeit ein Sicherheitsbewertungsmodell der IT-Systeme von Bildungseinrichtungen (SEMEIS) vorgeschlagen, um das Informationssicherheitsmanagement für die Bildungseinrichtungen zu erleichtern. Zunächst wird eine vereinfachte Sicherheitsbewertung für Informationssysteme der Bildungsindustrie (EIISSLPR) mit einer neuen Gewichtungsumverteilungsstrategie für ein einzelnes IT-System vorgeschlagen, indem wichtige Bewertungsfragen aus EIISSLPR ausgewählt und die Gewichte dieser Fragen neu verteilt werden. Dann wird für die gesamte Bildungseinrichtung der analytische Hierarchieprozess (AHP) verwendet, um die Gewichte mehrerer IT-Systeme auf verschiedene Sicherheitsstufen neu zu verteilen. Unter Berücksichtigung des Risikos möglicher Sicherheitslücken im Netzwerk wird durch Gewichtung verschiedener Faktoren ein Risikoindex formuliert, durch eine Nutzenfunktion normalisiert und mit den realen Daten der zu bewertenden Institutionen berechnet. Schließlich wird die Informationssicherheitsleistung von Bildungseinrichtungen als Endnote von SEMEIS erhalten. Die Ergebnisse zeigen, dass SEMEIS das Sicherheitsniveau der Bildungseinrichtungen praktisch bewerten und ein effizientes und effektives Managementwerkzeug für das Informationssicherheitsmanagement bereitstellen kann.;-;-;-;https://link.springer.com/article/10.1007/s12204-020-2231-y f0ed269a024aaacbcd17b6dfe5fe7acb;de;;;7.2.;;;Nationale und globale Outsourcing-Praktiken von Amerikas effektivsten IS-Benutzern Mit zunehmendem Kostensenkungsdruck hat sich in den letzten Jahren das Outsourcing – die gezielte Übergabe einiger Funktionen der Informationssysteme und der Abwicklung an einen Subunternehmer – als wichtige Option für Chief Information Officers (CIOs) herauskristallisiert. In diesem Beitrag stellen wir die Ergebnisse unserer explorativen, empirischen Forschung zu Praktiken und Sichtweisen von IS-Outsourcing vor. Dabei wurde die Forschungsmethodik einer fragebogenbasierten Mailbefragung verwendet. Die Umfragestichprobe bestand aus Unternehmen, die von . als die effektivsten Nutzer von IS identifiziert wurden;-;-;-;https://link.springer.com/article/10.1057/jit.1995.30 2213c88f1b1960825e0dba15ad18b7e5;de;;;7.1.;;;Forschung zum technologischen Architekturdesign von geologischen Gefahrenüberwachungs- und Rettungs-nach-Katastrophen-Systemen basierend auf Cloud Computing und Internet of Things Die geologische Katastrophenüberwachung und -warnung sowie die Unterstützung von Rettungsdiensten nach einer Katastrophe ist ein wichtiges Mittel, um die Fähigkeit zur aktiven Bewältigung geologischer Katastrophen zu verbessern. Geologische Katastrophen verschlimmern sich mit Ingenieurbau und übermäßiger Erschließung von Ressourcen zunehmend, daher ist es notwendig, vernünftige Überwachungstechnologien zur wissenschaftlichen Prävention einzusetzen. Der Artikel beginnt mit der Konstruktion der wichtigsten Schlüsseltechnologien des Echtzeitüberwachungs- und Warnsystems für geologische Katastrophen und des Rettungssystems nach Katastrophen, fasst die Hauptmerkmale der Informationstechnologie der neuen Generation zusammen, schlägt die Kniffe und Methoden zur Lösung der Überwachungsdatenerfassung, der drahtlosen Fernübertragung vor, Architekturoptimierung und -integration, schnelles Mining von Schlüsseldaten, Notfallrettungssystem und systematisches Management von Rettungsmaterial basierend auf Technologien wie Internet of Things (IOT), Informationstechnologie der neuen Generation, Cloud Computing, Megadaten, und diskutiert das Realisierungsschema von Schlüsseltechnologien wie Integration von RFID-Technologie und Sensornetzwerktechnologie und Experten-Entscheidungsmodell. Wie sich in der Praxis gezeigt hat, ist die genannte Technologie machbar und die Systeme sind sehr zuverlässig und fortschrittlich, die in der Lage sind, erhebliche technologische Unterstützung bei der Entscheidungsfindung im Bereich Katastrophenvorsorge und -prävention zu leisten.;-;-;-;https://link.springer.com/article/10.1007/s13198-017-0638-0 f0ad146ee4659a709000a38fb4f2b0ff;de;;;7.1.;;;Neue Institutionenökonomik, Vermittlungstheorie und die intermediäre Perspektive Nach dieser rein deskriptiven Betrachtungsweise des Speditionsgeschäfts ist eine genauere, theoretisch fundiertere Arbeit zur Funktionsweise multimodaler Transportketten sowie zu den Mittlerrollen und Funktionen von Spediteuren darin gefordert. In den letzten Abschnitten wurde die Marktstruktur als selbstverständlich vorausgesetzt und Speditionen nur als einer von vielen Akteuren betrachtet, die spezielle Funktionen in Transport- oder Logistikketten erfüllen, ohne „hinter die Kulissen“ zu schauen. Nun stellt sich die Frage „Warum ist das so? gestiegen, denn wenn Spediteure als wichtige Mittler in multimodalen Transport- und Logistikketten gelten, können sie nicht nur rechtlich und funktional beschrieben werden. Daher muss eine echte intermediäre Perspektive entwickelt werden, die in den folgenden Abschnitten durchgeführt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-2775-0_3 0ba16331a1acd21e415f4f0af206ca8d;de;;;7.2.;;;Geländekomplexität und Reduzierung topografischer Daten Digitale Geländedaten sind für eine Vielzahl von Anwendungen in der Kartierung und räumlichen Analyse nützlich. Die meisten verfügbaren Geländedaten sind in einem Rasterformat organisiert, darunter die am häufigsten verwendeten Digital Elevation Models (DEM) des US Geological Survey. Ein häufiges Problem bei DEM für die räumliche Analyse im Landschaftsmaßstab besteht darin, dass die Rastercodierung der Topographie einer Datenredundanz unterliegt und daher die Datenmengen untragbar groß werden können. Um die Effizienz sowohl bei der Datenspeicherung als auch bei der Informationsverarbeitung zu verbessern, muss die Redundanz der Geländedaten durch Eliminieren unnötiger Elemente minimiert werden. Inwieweit ein Satz von Geländedaten zur Verbesserung der Speicher- und Verarbeitungseffizienz reduziert werden kann, hängt von der Komplexität des Geländes ab. Im Allgemeinen können Datenelemente für einfachere, glattere Oberflächen erheblich reduziert werden, ohne dass kritische topografische Informationen verloren gehen. Bei komplexen Terrains sollten mehr Datenelemente beibehalten werden, wenn die Topographie adäquat dargestellt werden soll. In diesem Beitrag stellen wir ein Maß für die Geländekomplexität vor, das auf dem Verhalten ausgewählter Datenelemente bei der Darstellung der Eigenschaften einer Oberfläche basiert. Der Index der Geländekomplexität wird von einem geschätzten Parameter abgeleitet, der die Beziehung zwischen Geländedarstellung (prozentuale Oberflächendarstellung) und relativer Datenmenge (prozentuale DEM-Elemente) bezeichnet. Der Index kann verwendet werden, um die erforderliche Menge an topografischen Daten abzuschätzen und den angemessenen Grad der Datenreduktion zu bestimmen. Zwei Vierecke mit unterschiedlichen topographischen Eigenschaften wurden untersucht, um die Wirksamkeit der entwickelten Methodik zu veranschaulichen.;-;-;-;https://link.springer.com/article/10.1007/s101090050011 b7e4d57e2f2ca7dcadeba0e0e8e40524;de;;;7.2.;;;Kontextualisieren von naiven Bayes-Vorhersagen Ein Klassifizierungsprozess kann als eine Reihe von Aktionen angesehen werden, durch die mehrere Objekte bewertet werden, um vorherzusagen, zu welcher Klasse(n) diese Objekte gehören. In Situationen, in denen Transparenz eine notwendige Bedingung ist, müssen Vorhersagen, die sich aus einem Klassifizierungsprozess ergeben, interpretierbar sein. In diesem Artikel schlagen wir eine neuartige Variante eines naiven Bayes (NB)-Klassifikationsprozesses vor, der solche interpretierbaren Vorhersagen liefert. In der vorgeschlagenen Variante werden Augmented Appraisal Degrees (AADs) zur Kontextualisierung der durchgeführten Bewertungen verwendet, um die Vorhersagen zu treffen. Da ein AAD als mathematische Darstellung der konnotativen Bedeutung in einer erfahrungsbasierten Bewertung konzipiert ist, hilft die Einbindung von AADs in ein NB-Klassifikationsverfahren, die resultierenden Vorhersagen in einen Kontext zu setzen. Ein anschauliches Beispiel, in dem die vorgeschlagene Version der NB-Klassifikation für die Kategorisierung von Nachrichtenartikeln verwendet wird, zeigt, wie solche kontextualisierten Vorhersagen ihre Interpretierbarkeit begünstigen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-50153-2_60 44d307820ccd866aeac424cf0ac69ac1;de;;;7.2.;;;ECRYPT: Die Herausforderungen der kryptografischen Forschung für das nächste Jahrzehnt In den letzten dreißig Jahren hat sich die Kryptologie von einer geheimen Kunst zu einer modernen Wissenschaft entwickelt. Schwächere Algorithmen und Algorithmen mit kurzen Schlüsseln verschwinden, die politische Kontrolle der Kryptographie wurde reduziert und sichere Kryptographie wird immer mehr zu einer Ware. Darüber hinaus werden auch Implementierungen sicherer. Dieser Fortschritt kann zu der Annahme führen, dass das Kryptographieproblem „gelöst“ ist. In diesem Artikel werden jedoch einige der bevorstehenden Herausforderungen im Bereich kryptografischer Algorithmen und Protokolle erörtert. Wir erklären auch, wie das ECRYPT Network of Excellence (www.ecrypt.eu.org) versucht, einige der Herausforderungen anzugehen, indem es 250 europäische Forscher auf dem Gebiet der Kryptologie und dem verwandten Bereich der Wasserzeichenmarkierung zusammenbringt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30598-9_1 67367aa9f63a9ff7f413b2ed487a4f97;de;;;7.2.;;;Freigegebene und durchsuchbare verschlüsselte Daten für nicht vertrauenswürdige Server Aktuelle Sicherheitsmechanismen stellen ein Risiko für Unternehmen dar, die ihre Datenverwaltung auf nicht vertrauenswürdige Server auslagern. Das Verschlüsseln und Entschlüsseln sensibler Daten auf der Clientseite ist in dieser Situation der normale Ansatz, verursacht jedoch einen hohen Kommunikations- und Rechenaufwand, wenn nur eine Teilmenge der Daten benötigt wird, beispielsweise das Auswählen von Datensätzen in einer Datenbanktabelle basierend auf einer Stichwortsuche. Es wurden neue kryptographische Schemata vorgeschlagen, die verschlüsselte Abfragen über verschlüsselte Daten unterstützen, aber alle von einem einzigen Satz geheimer Schlüssel abhängen, was den Zugriff eines einzelnen Benutzers oder die gemeinsame Nutzung von Schlüsseln durch mehrere Benutzer impliziert, wobei der Schlüsselwiderruf eine kostspielige Datenneuverschlüsselung erfordert. In diesem Papier schlagen wir ein Verschlüsselungsschema vor, bei dem jeder autorisierte Benutzer im System seine eigenen Schlüssel zum Ver- und Entschlüsseln von Daten hat. Das Schema unterstützt eine Schlüsselwortsuche, die es dem Server ermöglicht, nur die verschlüsselten Daten zurückzugeben, die eine verschlüsselte Abfrage erfüllen, ohne sie zu entschlüsseln. Wir bieten zwei Konstruktionen des Schemas an, die formale Beweise für ihre Sicherheit liefern. Außerdem berichten wir über die Ergebnisse einer prototypischen Umsetzung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-70567-3_10 3fe64e4382bb1f3a5a9d044a9cc184c4;de;;;7.2.;;;Invariante Charakterisierungen von Fuzzy-Relations-Informationssystemen unter Homomorphismen Ein Homomorphismus ist ein wichtiges mathematisches Werkzeug, um Beziehungen zwischen Fuzzy-Relations-Informationssystemen zu untersuchen. Dieser Artikel widmet sich der Untersuchung der Reduktion in einem Fuzzy-Relations-Informationssystem und seiner invarianten Charakterisierungen unter Homomorphismen. Zuerst werden Schnittreduktion, Vereinigungsreduktion und Reduktion in einem Fuzzy-Relations-Informationssystem vorgeschlagen. Dann werden die Eigenschaften der Schnittmengenreduktion, Vereinigungsreduktion und Reduktion angegeben. Als nächstes werden Fuzzy-Relationen in einem Fuzzy-Relations-Informationssystem entsprechend ihrer Wichtigkeit in notwendige, relativ notwendige und unnötige Fuzzy-Relationen unterteilt. Schließlich werden einige invariante und inverse invariante Charakterisierungen von Fuzzy-Relations-Informationssystemen unter Konsistenz bzw. kompatiblen Homomorphismen erhalten. Es ist erwähnenswert, dass wir mittels Homomorphismus ein relativ kleineres Bildsystem erhalten können, das die gleichen Datenstrukturen (d. h. invariante Charakterisierungen) wie ein gegebenes Originalsystem aufweist.;-;-;-;https://link.springer.com/article/10.1007/s00500-018-3451-z d8744ecb61f89ce1b94c1b9dfca9011e;de;;;7.2.;;;Systematische Literaturrecherche von Frage-Antwort-Systemen Immer mehr Gesundheitsorganisationen bieten ihren Bürgern mit Hilfe von Online-Frage-Antwort-Systemen (QA) auf ihren Websites Selbstbedienung an. Bürger stellen Fragen, die von Fachleuten und Experten beantwortet werden sollen. Der Service kann von professionellen Experten betrieben werden, die zuerst die Fragen lesen, die die Besucher online gestellt haben. Anschließend schreiben und veröffentlichen sie die Antworten für die Fragesteller und helfen so anderen Besuchern bei der Suche nach Informationen zu ähnlichen Fragen. Eine andere Möglichkeit, einen solchen QA-Dienst zu betreiben, besteht darin, dass Besucher sich gegenseitig helfen können. Die Qualität nutzergenerierter Antworten basiert auf dem Vertrauen der Nutzer, Peer Monitoring und Belohnungsmechanismen [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-68476-1_5 1b4eecf8064c451d418e89e1c76f2173;de;;;7.1.;;;Entwurfsüberlegungen für den Aufbau von Cyber-Täuschungssystemen Cyber-Täuschung kann ein wesentlicher Bestandteil der Organisation von Cyber-Operationen in der modernen Cyber-Landschaft werden. Cyber-Verteidiger und Missionskommandanten können die Cyber-Täuschung als wirksames Mittel zum Schutz der Cyber-Assets von Missionen und zum Sicherstellen des Missionserfolgs nutzen, indem sie Gegner während der Planung und Durchführung von Cyber-Operationen und -Missionen täuschen und ablenken. Um eine effektive Integration der Cyber-Täuschung zu ermöglichen, wäre es notwendig, einen systematischen Entwurfsprozess zum Aufbau eines robusten und nachhaltigen Täuschungssystems mit erweiterbaren Täuschungsfunktionen zu schaffen, das von einer Befehls- und Kontrollschnittstelle geleitet wird, die mit den aktuellen Praktiken und Standards des Verteidigungsministeriums und zivilen Cyber-Operationen kompatibel ist . In diesem Kapitel diskutieren die Autoren verschiedene Designaspekte bei der Gestaltung von Cyber-Täuschungssystemen, die eine Vielzahl von Cyber-Operationsanforderungen erfüllen und angemessen auf die Missionsziele ausgerichtet sind. Zu diesen Designaspekten gehören allgemeine Täuschungsziele, Täuschungsdesign-Taxonomie, Kompromissanalyse, Täuschungsdesignprozess, Designüberlegungen wie Modularität, Schnittstellen und Wirkung auf Cyber-Verteidiger, Interoperabilität mit aktuellen Tools, Täuschungsszenarien, Gegnerengagement, Rollen der Täuschung in Cyber-Kill-Ketten und Metriken wie den Arbeitsfaktor des Gegners. Die Autoren erwarten, die Herausforderungen und Chancen der Gestaltung von Cyber-Täuschungssystemen darzustellen und weitere Gedanken und Diskussionen in der breiteren Forschungsgemeinschaft anzustoßen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-32699-3_4 30d27b2077a79b305862c36d50063279;de;;;7.2.;;;"Ein adaptives assoziatives Gedächtnissystem basierend auf autonomer Reaktion zwischen Bildspeichern Um ein ""denkendes"" Verarbeitungssystem zu konstruieren, wird eine neue Architektur eines adaptiven assoziativen Speichersystems vorgeschlagen. Dieses Gedächtnissystem behandelt „Bilder“ als grundlegende Informationseinheiten und passt sich durch autonome Reaktionen zwischen den Bildern an die Umgebung der Außenwelt an. Die Bilder müssen keine klaren, eindeutigen Symbole oder Muster sein, sie können auch mehrdeutige, undeutliche Symbole oder Muster sein. Dieses Speichersystem ist eine Art neuronales Netzwerk, das aus Knoten und Verbindungen besteht, die als lokalistisches Ausbreitungsaktivierungsnetzwerk bezeichnet werden. Jeder Knoten enthält ein Bild auf lokalistische Weise. Bilder in hochaktiven Knoten interagieren autonom und generieren neue Bilder und Verknüpfungen. Durch diese Reaktion zwischen Bildern werden verschiedene Formen von Bildern automatisch erzeugt unter Beschränkungen von Verknüpfungen mit benachbarten Knoten. In diesem System sind drei einfache Bildreaktionsoperationen definiert. Jede Operation erzeugt ein neues Bild durch Kombinieren von Pseudofiguren oder Merkmalen und Verknüpfungen von zwei Bildern.";-;-;-;https://link.springer.com/article/10.1007/BF02480856 670bce8534c2e9b04b71071d08b66ff7;de;;;7.2.;;;Mining von relevanten und informativen Beiträgen aus Textforen In der modernen Welt ist der Wettbewerbsvorteil für jeden Menschen die Möglichkeit, schnell und bequem an Informationen zu kommen. Webforen nehmen einen bedeutenden Platz unter den Informationsquellen ein. Es ist ein guter Ort, um sich beruflich bedeutsames Wissen zu verschiedenen Themen anzueignen. Manchmal ist es jedoch nicht einfach, die Stellen im Forum zu identifizieren, die nützliche Informationen enthalten, die den Benutzeranforderungen entsprechen. In diesem Beitrag betrachten wir das Problem der automatischen Zusammenfassung von Forentexten und beschreiben die Methoden, die zu dessen Lösung beitragen können. Wir untersuchen den Unterschied zwischen relevanzorientierten und nutzbringenden Abfragetypen. Wir beschreiben unseren Datensatz, der über 4000 markierte Beiträge aus Webforen zu verschiedenen Themenbereichen enthält. Die Beiträge wurden von Experten markiert, indem sie für ausgewählte Abfragetypen auf einer Skala von 0 bis 5 geschätzt wurden. Die Ergebnisse unserer Studie können als Hintergrund für die Erstellung von Anwendungen zum Abrufen von Informationen dienen, die die Suchzeit des Benutzers verkürzen und die Qualität der Suchergebnisse erhöhen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-13283-5_12 53f6589de39af549eab0417778b059b8;de;;;7.1.;;;Kontinuierliche Release-Planung in einer großen Scrum-Entwicklungsorganisation bei Ericsson Scrum-Entwicklung im großen Maßstab erfordert einen Release-Planungsprozess, der die agile Arbeitsweise und Planung unterstützt. Die meisten der bestehenden Release-Planungsprozesse sind plangesteuert und für eine große Scrum-Organisation schlecht geeignet. Diese Fallstudie beschreibt, wie die Release-Planung in einer 350-köpfigen Scrum-Entwicklungsorganisation mit über 20 Teams bei Ericsson im Jahr 2011 durchgeführt wurde, und die damit verbundenen Herausforderungen und Vorteile. Die Daten wurden mit 39 Interviews erhoben, die transkribiert, kodiert und analysiert wurden. Der Release-Planungsprozess war kontinuierlich und gekennzeichnet durch regelmäßige Scoping- und Priorisierungsentscheidungen sowie durch inkrementelle Ausarbeitung von Features. Die Herausforderungen waren die Überforderung durch externen Druck, die Verwaltung nicht funktionsspezifischer Arbeiten und das Gleichgewicht zwischen Entwicklungseffizienz und dem Aufbau generalistischer Teams. Die Vorteile waren die erhöhte Flexibilität und kürzere Entwicklungsvorlaufzeit, die Vermeidung von Verschwendung im Planungsprozess und die erhöhte Motivation der Entwickler.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38314-4_14 bfe727cdca1432538ce6598b5b2e70e7;de;;;7.1.;;;Geschäftsgespräche: Ein High-Level-Systemmodell für die Agentenkoordination In diesem Beitrag stellen wir Business Conversations als High-Level-Software-Strukturierungskonzept für verteilte Systeme vor, bei denen mehrere autonome Agenten (möglicherweise in verschiedenen Organisationseinheiten) ihre langfristigen Aktivitäten zur Erfüllung einer kooperativen Aufgabe koordinieren müssen. Wir motivieren Business Conversations zunächst als Systemmodell, das sich für die Beschreibung von Mensch-Mensch-, Mensch-Software- sowie Software-Software-Kooperation eignet. Anschließend erläutern wir, warum wir dieses Modell für die Beschreibung organisationaler kooperativer Arbeit für geeigneter halten als softwarezentrierte Objektmodelle. Die Kernkonzepte des Business Conversation-Modells werden anhand eines objektorientierten Modells beschrieben. Abschließend berichten wir über unsere Erfahrungen beim Aufbau eines prototypischen Agentenprogrammierungs-Frameworks mit Business Conversations zur Agentenkoordination basierend auf mobilen und persistenten Threads, wie sie von der persistenten Programmiersprache Tycoon bereitgestellt werden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-64823-2_20 f99425cef168b621dcb342ff43af5cfb;de;;;7.2.;;;Lösen von Sprachproblemen in einem mehrsprachigen Verbund digitaler Bibliotheken Diese Arbeit stellt eine Architektur vor, um bereits vorhandene digitale Bibliotheken mit in verschiedenen Sprachen geschriebenen Dokumenten zu föderieren. Ein Benutzer kann über eine einzigartige und benutzerfreundliche Benutzeroberfläche, die in der Sprache generiert wird, die er aus den verfügbaren Sprachen wählt, Anfragen an alle föderierten digitalen Bibliotheken stellen. Die Abfrage wird über alle relevanten Datenbanken im System ausgeführt, egal in welcher Sprache deren Dokumente verfasst sind. Die Abfrage wird bei Bedarf automatisch übersetzt. Diese Architektur basiert auf Ontologien, die nicht nur verwendet werden, um das globale Schema darzustellen, sondern auch die Ausführung von Softwaremodulen im System zu steuern, sie umfasst auch drei Wörterbücher, um die Sprachbarrieren zu lösen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36087-5_59 1887d53bd5b38b8a295f05fff0afc9f4;de;;;7.2.;;;AntSearch — ein neuer Suchalgorithmus In diesem Artikel schlagen wir einen neuen Ameisen-basierten Suchalgorithmus namens AntSearch vor. Wir beschreiben einen Prozess der Stigmergie und Diffusion von Pheromonen, der zu einem Grad an Selbstorganisation führt, der durch die unabhängigen Aktionen und Wiederholungen seiner einzelnen Agenten bewirkt wird. Wir verwenden es bei der Konstruktion in unserem sich ständig weiterentwickelnden System AntSearch. Wir diskutieren einige der aufgeworfenen Probleme und versuchen, einige seiner Erfolge zu erklären und seine Fehler zu erklären. Wir analysieren die Hauptmerkmale des Algorithmus und versuchen den Einfluss der Parameterwerte auf das Verhalten dieses Systems zu erklären.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39985-8_42 63397d6126e7eaf125e3ecbd982c1099;de;;;7.2.;;;Semantische Distanzen für Sinnesgruppen und Anwendungen in der Wortsinn-Begriffsklärung Sowohl die Information Retrieval-Community als auch die Data-Mining-Community haben ein zunehmendes Interesse an der Untersuchung möglicher Vorteile der Verwendung von Word Sense Disambiguation (WSD) zur Verbesserung semantischer Informationen im Information Retrieval- und Data-Mining-Prozess. Obwohl widersprüchliche Ergebnisse berichtet wurden, gibt es starke Hinweise darauf, dass die Verwendung von WSD zur Leistung von IR- und Data-Mining-Algorithmen beitragen kann. In diesem Artikel schlagen wir zwei Methoden vor, um die semantische Distanz einer Menge von Sinnen in einem hierarchischen Thesaurus zu berechnen und sie für die Durchführung unüberwachter WSD zu verwenden. Erste Versuche haben uns ermutigende Ergebnisse geliefert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-32394-5_7 ae8000611ffd87ff4012720e450e83df;de;;;7.2.;;;Adaptives Benutzerprofilmodell und kollaboratives Filtern für personalisierte Nachrichten In den letzten Jahren hat die personalisierte Nachrichtenempfehlung in der IR-Community zunehmende Aufmerksamkeit erfahren. Das Kernproblem der personalisierten Empfehlung besteht darin, die Interessen der Nutzer und deren Veränderungen zu modellieren und zu verfolgen. Um dieses Problem anzugehen, wurden sowohl inhaltsbasierte Filterung (CBF) als auch kollaborative Filterung (CF) untersucht. Nutzerinteressen umfassen Interessen an festen Kategorien und dynamischen Ereignissen, doch in aktuellen CBF-Ansätzen fehlt es an der Möglichkeit, Nutzerinteressen auf Ereignisebene zu modellieren. In diesem Beitrag schlagen wir einen neuartigen Ansatz zur Modellierung von Benutzerprofilen vor. In diesem Modell werden Benutzerinteressen durch einen mehrschichtigen Baum mit einer dynamisch veränderbaren Struktur modelliert, dessen obere Schichten verwendet werden, um Benutzerinteressen in festen Kategorien zu modellieren und die unteren Schichten für dynamische Ereignisse dienen. Somit kann dieses Modell das Leseverhalten des Benutzers sowohl bei festen Kategorien als auch bei dynamischen Ereignissen verfolgen und folglich die Interessenänderungen erfassen. Ein modifizierter CF-Algorithmus basierend auf dem hierarchisch strukturierten Profilmodell wird ebenfalls vorgeschlagen. Experimentelle Ergebnisse zeigen die Vorteile unseres Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/11610113_42 d43f519a8abb624f30347f80b2a6d0c2;de;;;7.1.;;;Integrierte Entscheidungsunterstützungssysteme für die städtische Verkehrsplanung: Diskussion von Umsetzung und Erfahrungen In den letzten Jahren ist die Planung und das Betriebsmanagement des öffentlichen Verkehrs immer komplexer geworden, da immer strengere finanzielle Beschränkungen die Fähigkeit beeinträchtigen, auf die sich ändernde Reisenachfrage zu reagieren. Die Dynamik des Problems führt dazu, dass kein ein für alle Mal ein Gleichgewicht zwischen Dienstleistungsqualität und Finanzpolitik erreicht werden kann und dennoch getroffene Planungsentscheidungen oft langfristige Auswirkungen haben. Die Planungs- und Terminierungsprobleme von Führungskräften lassen sich nach dem betrachteten Zeithorizont klassifizieren, wie in Tabelle 1 dargestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-85966-3_19 8e240b04557a937376aa31d9c2a53b3a;de;;;7.1.;;;Analytisches Framework Dieses Kapitel legt die analytischen Grundlagen für die anschließende empirische Analyse des strategischen Managements und der Wettbewerbsstrategie im islamischen Finanzwesen. Es ist in vier Abschnitte gegliedert. Zunächst werden die wesentlichen Theorien des Strategischen Managements mit Schwerpunkt auf möglichen Einflussfaktoren des Unternehmensverhaltens und dem Repertoire von Wettbewerbsstrategien beschrieben. Zweitens wird das islamische Finanzwesen sowohl in Bezug auf seine theoretischen Grundlagen als auch seine tatsächlichen Erscheinungsformen und Praktiken dargestellt. Drittens präsentiert eine empirische Literaturrecherche frühere Studien zu den bestimmenden Faktoren der Unternehmensleistung. Ausgehend von den vorangegangenen Abschnitten wird schließlich ein konzeptionelles Modell entwickelt, das als Rahmen dient, um detaillierte Hypothesen für die empirische Studie zu generieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-5406-6_2 d0015dd934fc045ffd3fdbbb815fa399;de;;;7.1.;;;Implementierung fortschrittlicher Technologie im japanischen Bankwesen Kapitel 4 lieferte Beweise für Giganten im Werden: die Finanzdienstleistungskonzerne, die über den Rahmen der meisten Universalbanken hinausgehen, wie sie in Amerika und Westeuropa verstanden werden. Diese aufkommenden japanischen Versionen von;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-11368-2_5 55df80f47b8d6b485d46f12929f9ac05;de;;;7.1.;;;Lernen, den kollaborativen Designprozess zu planen Ein Schlüsselfaktor für die Zusammenarbeit im Team ist der Prozess, den die Teilnehmer verfolgen. Die Planung dieses Prozesses hilft Teams, ihre Ziele zu erreichen. In kollaborativen Designumgebungen sollte die Prozessmodellierung verwendet werden, um die Zusammenarbeit explizit zu machen. In der Forschung zum computergestützten kollaborativen Lernen (CSCL) haben wir beobachtet, dass die meisten Umgebungen die Definition von kollaborativen Prozessen durch Lehrlinge und Facilitatoren nicht unterstützen. Diese Unterstützung ist sehr wichtig, wenn der Ansatz auf projektbasiertem Lernen (PBL) basiert. Die Planung der Interaktionen und des Prozesses eines Projekts ist eine Möglichkeit, die Gruppenteilnehmer zur Zusammenarbeit anzuregen und dadurch die gegenseitige Abhängigkeit und das Engagement zwischen der Arbeit und den Lernaktivitäten zu fördern. Wir stellen eine kooperative projektbasierte Lernumgebung vor, die Facilitatoren und Auszubildende bei der Planung ihrer Arbeit unterstützt, um das Bewusstsein für den Lernprozess zu stärken.;-;-;-;https://link.springer.com/chapter/10.1007/11568421_4 3ead5691a43ec8d5f9d69064ff4190ba;de;;;7.1.;;;ArcObjects-Entwicklung im Zonendesign mit Visual Basic for Applications Das Problem der modifizierbaren Flächeneinheiten (MAUP) ist in der geographischen Analyse alltäglich. Das MAUP stellt Fragen bezüglich Maßstab und Konfiguration von geografischen Partitionen, die repräsentativ für räumliche Daten mit feinerer Auflösung sind. Bis heute können diese Probleme nicht vollständig gelöst werden. Sie können nur manipuliert werden. Diese „Manipulation“ kann durch ein automatisiertes Zoning-Verfahren (AZP) erreicht werden. Theoretisch fasst dieser Algorithmus räumliche Partitionen in einen Satz von Zonen zusammen, die für eine interessierende Funktion optimiert sind, so dass unabhängig von der räumlichen Konfiguration ein optimales Ergebnis erzielt wird. Unter Verwendung einer Softwareumgebung für geografische Informationssysteme (GIS) wurde ein automatisiertes Zoning-Verfahren für die ArcGIS 8.3-Desktop-Software unter Verwendung von ArcObjects-Entwicklung mit Visual Basic for Applications (VBA) erstellt. Das voll funktionsfähige Programm stellt einen deterministischen, globalen Optimierungsansatz dar, der n Zonen in eine kleinere Anzahl von m Zonen aggregiert, wobei die Moran-I-Statistik der räumlichen Autokorrelation die primäre zu optimierende Funktion ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24709-8_111 6bbf50c99bd528b28aa2248b9b455507;de;;;7.1.;;;Implementieren eines globalen Informationstechnologieprodukts in einem lokalisierten Kontext Diese Fallstudie untersucht das Phänomen der Implementierung eines globalen Informationstechnologieprodukts in einem lokalisierten Kontext. Die Studie versucht, Probleme im Zusammenhang mit der Lokalisierungserfahrung von ERP-Anwendern in China zu untersuchen. Insbesondere untersucht das Papier die ERP-Systemimplementierung in fünf Unternehmen in China. Trotz seines Potenzials gilt ERP als eines der am schwierigsten zu implementierenden Systeme. Das Risiko der Implementierung eines ERP-Pakets in China ist aufgrund der relativ rückständigen, nicht standardmäßigen Managementmechanismen und Geschäftsprozesse in diesem Umfeld noch höher. Unter Berücksichtigung dieser Schwächen argumentiert dieses Papier, dass BPR eine bedeutende Rolle bei der ERP-Bereitstellung spielen könnte. Da das ERP-Konzept für chinesische Unternehmen noch neu ist, haben relativ wenige Unternehmen BPR als vorbereitenden Schritt für die ERP-Implementierung durchgeführt. Indem wir ein Verständnis für die Bedeutung von BPR entwickeln, leiten wir basierend auf den Fallstudien fünf wichtige Erkenntnisse ab. Diese umfassen, was in der Literatur als Schlüsselthemen für eine ERP-Implementierung vorgeschlagen wird, und integrieren, was unsere Forschung als wesentliche Probleme für Organisationen ergab, die ein globales IT-Produkt in einem lokalisierten Kontext implementieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35695-2_12 02319d4d416456a186c8ce4a4dc44968;de;;;7.2.;;;Auswahl von Funktionsunterräumen für einen effizienten Videoabruf Der Fluch der Dimensionalität ist ein wichtiges Thema bei der Videoindexierung. Ein extrem hochdimensionaler Merkmalsraum verschlechtert ernsthaft die Effizienz und die Effektivität des Videoabrufs. In diesem Papier nutzen wir die Merkmale der Dokumentenrelevanz und schlagen einen statistischen Ansatz vor, um einen effektiven Teilmerkmalsraum aus einer Multimedia-Dokumentensammlung zu lernen. Dies umfasst vier Schritte: (1) dichtebasierte Merkmalstermextraktion, (2) Faktorenanalyse, (3) Biclustering und (4) kommunalitätsbasierte Komponentenauswahl. Diskrete Merkmalterme sind ein Satz von Merkmalsclustern, die die Merkmalsverteilung glätten, um die Unterscheidungskraft zu verbessern, die Faktoranalyse versucht, die Korrelation zwischen verschiedenen Merkmalsdimensionen in einer Belastungsmatrix darzustellen, die Bi-Clustering gruppiert sowohl Komponenten als auch Faktoren in der Faktorbelastungsmatrix und wählt Merkmalskomponenten aus jedem Bi-Cluster gemäß der Kommunalität aus. Wir haben umfangreiche vergleichende Video-Retrieval-Experimente mit der Sammlung TRECVid 2006 durchgeführt. Signifikante Leistungsverbesserungen werden gegenüber dem Basiswert, PCA-basiertem K-Mean-Clustering, gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11301-7_76 80bfa9d328c1bb621386f3b19d1d6194;de;;;7.2.;;;Halbüberwachte nichtnegative Matrixfaktorisierung für Microblog-Clustering basierend auf Termkorrelation Das Clustern von Microblogs ist in vielen Webanwendungen sehr wichtig. In diesem Papier schlagen wir eine semi-überwachte nichtnegative Matrixfaktorisierungs-Clustering-Methode vor, die auf der Termkorrelation basiert. Die Schlüsselidee besteht darin, Termkorrelationsdaten zu untersuchen, die die semantischen Informationen für die Termgewichtung gut erfassen. Anschließend formulieren wir das Microblog-Clustering-Problem als eine nicht-negative Matrixfaktorisierung unter Verwendung von Einschränkungen auf Wortebene. Empirische Studien mit realen Datensätzen zeigen die überlegene Leistung unseres Frameworks beim Umgang mit verrauschten und kurzen Microblogs.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11116-2_46 09ba89d85eef28af8e821de2e1d0fc92;de;;;7.2.;;;Forschungsmethodik für Enterprise Interoperability Architecture Approach Da die Technologie immer weitreichender und vernetzter wird, wird die Notwendigkeit der Interoperabilität immer wichtiger. Die Ontology of Enterprise Interoperability (OoEI) wurde als wissenschaftliches Referenzmodell zur Interoperabilität definiert, das zu einem gemeinsamen Verständnis dieses Themas führt. Die OoEI wurde im allgemeinen Kontext der Enterprise Interoperability mit High-Level-Konzepten unter Verwendung der Systemtheorie vorgeschlagen. Dies muss mit Konzepten aus dem Enterprise-Bereich angereichert werden. Die Disziplin Enterprise Architecture (EA) befürwortet den Einsatz von Modellen zur Unterstützung von Business Services in Unternehmen. Unter anderem konzentriert sich diese Arbeit auf ArchiMate. Um Business-Services-Unterstützung zu bieten, sollte ArchiMate in der Lage sein, verschiedene Eigenschaften zu analysieren, wie z.B. die Interoperabilitätsanforderungen. Dieses Papier schlägt eine Reihe von Konzepten vor, die die EA- und Interoperabilitätsbereiche abdecken. Durch Literaturrecherche und Rahmenrecherche identifizieren wir Schlüsselaspekte der Interoperabilität und EA und deren Assoziationen, was zu einem konzeptionellen Referenzmodell für die integrierte Enterprise Architecture Interoperability führt. Das vorgeschlagene Modell wird auf der Grundlage der Design Science Research-Methodik definiert. Im Rahmen des Forschungsansatzes wird für die Evaluation eine Fallbeispieldarstellung verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38490-5_2 1a579555b527bb8648221baf589312fa;de;;;7.2.;;;Schlüsselabfragen für Clustering und Labeling In diesem Papier betrachten wir das Dokumentclustering-Problem aus der Perspektive des Information Retrieval. Die Idee ist, Abfragen als Features im Clustering-Prozess zu verwenden, die schließlich auch als beschreibende Cluster-Labels „kostenlos“ dienen. Unsere neuartige Perspektive umfasst Abfragebeschränkungen für Clustering und Cluster-Labeling, die die Konsistenz mit einer schlüsselwortbasierten Referenzsuchmaschine sicherstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48051-0_4 79860315a5a047e7f6b206ff14fffa93;de;;;7.2.;;;QAPD: ein ontologiebasiertes Frageantwortsystem im Bereich Physikphysics Die enorme Entwicklung in der Informationstechnologie führte zu einer Datenexplosion und begründete den Bedarf an leistungsstarken und dennoch effizienten Strategien zur Wissensentdeckung. Question Answering (QA)-Systeme ermöglichten das Stellen von Fragen und das Abrufen von Antworten mithilfe von Abfragen in natürlicher Sprache. Im ontologiebasierten QS-System sind die wissensbasierten Daten, in denen die Antworten gesucht werden, strukturiert organisiert. Der Frage-Antwort-Abruf der Ontologie-Wissensdatenbank bietet eine bequeme Möglichkeit, Wissen zur Verwendung zu erhalten. In diesem Beitrag wird QAPD vorgestellt, ein ontologiebasiertes QS-System für den Physikbereich, das die Verarbeitung natürlicher Sprache, Ontologien und Informationsabruftechnologien integriert, um informative Informationen für Benutzer bereitzustellen. Dieses System ermöglicht es Benutzern, Informationen aus formalen Ontologien mithilfe von Eingabeabfragen abzurufen, die in natürlicher Sprache formuliert sind. Wir schlugen die Inferenz-Schema-Mapping-Methode vor, die die Kombination von semantischen und syntaktischen Informationen und attributbasierten Inferenz verwendet, um die Fragen der Benutzer in eine ontologische Wissensdatenbank-Abfrage umzuwandeln. Darüber hinaus wird eine neuartige Domänenontologie für den Physikbereich namens EAEONT vorgestellt. Relevante Normen und Vorschriften wurden während des Ontologie-Erstellungsprozesses umfassend genutzt. Das ursprüngliche Merkmal von System ist die Strategie, mit der die Lücke zwischen der Ausdruckskraft der Benutzer und der formalen Wissensrepräsentation geschlossen wird. Dieses System wurde in englischer Sprache entwickelt und getestet und verwendet eine Ontologie, die den Physikbereich modelliert. Das erreichte Leistungsniveau ermöglicht den Einsatz des Systems in realen Umgebungen.;-;-;-;https://link.springer.com/article/10.1007/s00500-016-2328-2 5d327cb48513b6a1189e8601eaba3448;de;;;7.1.;;;Fachorientierung als Mittel zur Gestaltung von Wirtschaftsinformatik – eine theoretische Analyse und Zusammenfassung (Wirtschafts-)Informationssysteme werden durch die Zunahme der Datenmenge, aber auch durch immer mehr miteinander verbundene Elemente, die alle aufeinander abgestimmt werden müssen, um als einheitliches System zu funktionieren, immer komplexer. (Geschäfts-)Prozesse richtig zu verstehen und zu beschreiben, ist einer der Grundpfeiler bei der Erstellung fast aller Informationssysteme. Während die Systeme selbst komplexer geworden sind und sich die Mittel zu ihrer Programmierung in den letzten Jahrzehnten weiterentwickelt haben, stagnieren die Mittel zur Analyse und Kommunikation über die von ihnen ausgeführten Prozesse seit den 1960er Jahren auf einem vereinfachenden Niveau. In den letzten 15 Jahren wurde an der Entwicklung von Konzepten und Werkzeugen zum Thema Themenorientierung und subjektorientierte (Geschäfts-)Prozessmodellierung und -management (S-BPM) anders als früher, klassische Prozessbeschreibungen gearbeitet Ansätze. Dieser Beitrag analysiert und argumentiert über die Unzulänglichkeiten und Diskrepanzen dieser klassischen Ansätze und argumentiert, wie Subjektorientierung eine Verbesserung sein kann, wenn sie als Mittel bei der Gestaltung und Entwicklung von Informationssystemen eingesetzt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20485-3_25 3c2809c928e89c31a9d0835aabb96e10;de;;;7.2.;;;Prefetching-Schema unter Berücksichtigung der Präferenzen des mobilen Benutzers in mobilen Netzwerken Dieses Papier schlägt eine Prefetching-Methode für mobiles Computing vor, die das Interesse des Benutzers und die allgemeine Popularität berücksichtigt. Für mobile Computerumgebungen gibt es Einschränkungen wie Bandbreite, Latenz und Verkehr. Da wir derzeit den vereinigten multimedialen mobilen Informationsdienst dem sprachbasierten vorziehen, werden diese Hindernisse als große Probleme angesehen. Um diese Probleme zu lösen, wurden verschiedene Techniken sowie Caching oder Prefetching untersucht. Die meisten von ihnen reichen jedoch nicht aus, um die vom Benutzer gewünschte Datenmenge bereitzustellen. Wir schlagen eine Vorabrufmethode vor, um Informationen frühzeitig bereitzustellen, indem Informationen über das frühere Interesse des Benutzers und die Popularität verwendet werden. Im Vergleich zu den vorherigen Verfahren in numerischen Ergebnissen verbessert das vorgeschlagene Verfahren die Vorabrufleistung, um die maximale Effektivität zu erreichen und verringert die Fehlerrate der Informationssuche.;-;-;-;https://link.springer.com/chapter/10.1007/11424826_96 0fb3db59cdab83de5a9c75192bf614bb;de;;;7.2.;;;Vergleich der energetischen und immunologischen Selektion in der agentenbasierten evolutionären Optimierung In der Arbeit wird die Idee eines immunologischen Selektionsmechanismus für die agentenbasierte evolutionäre Berechnung vorgestellt. Allgemeine Überlegungen werden durch das spezielle System veranschaulicht, das der Funktionsoptimierung gewidmet ist. Ausgewählte experimentelle Ergebnisse ermöglichen den Vergleich der Leistungsfähigkeit von immuninspirierten Selektionsmechanismen und klassischen energetischen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-33521-8_1 0b8000c06e0634873840040ac5a90e35;de;;;7.2.;;;Shifting Primes: Erweiterung von Pseudo-Mersenne-Primzahlen zur Optimierung des ECC für MSP430-basierte zukünftige Internet-of-Things-Geräte Die Sicherheitsunterstützung für kleine und intelligente Geräte ist eines der wichtigsten Themen im Future Internet of Things, da Technologien wie 6LoWPAN den Zugang zur realen Welt über das Internet öffnen. 6LoWPAN-Geräte sind in Bezug auf Rechenleistung, Speicher, Kommunikationsbandbreite und Batterieleistung stark eingeschränkt. Um die Sicherheit zu unterstützen, ist es daher notwendig, neue optimierte und skalierbare kryptographische Mechanismen zu implementieren, die der Kommunikation Sicherheit, Authentifizierung, Privatsphäre und Integrität verleihen. Unsere Forschung konzentriert sich auf die mathematische Optimierung kryptografischer Primitive für Public Key Cryptography (PKC) basierend auf Elliptic Curve Cryptography (ECC) für 6LoWPAN. Konkret handelt es sich bei dem vorgestellten Beitrag um eine Reihe mathematischer Optimierungen und deren Implementierung für ECC in den 6LoWPAN-Geräten auf Basis des Mikroprozessors Texas Instrument MSP430. Die vorgestellten Optimierungen konzentrieren sich auf die Montgomery-Multiplikationsoperation, die mit Bit-Shifting implementiert wurde, und die Definition spezieller Pseudo-Mersenne-Primzahlen, die wir als ”shifting primes” bezeichnet haben. Diese Optimierungen ermöglichen es, die Skalarmultiplikation (Operation für ECC-Operationen) zu implementieren, die eine Zeit von 1.2665 Sekunden erreicht, was 42,8% niedriger ist als die von der Stand der Technik-Lösung TinyECC (2.217 Sekunden) erreichte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23300-5_16 cc3439e0a760026499ab9468ba3e94be;de;;;7.2.;;;Integration von HCI-Spezialisten in Open-Source-Softwareentwicklungsprojekte Typische Open Source Software (OSS) Entwicklungsprojekte sind um technisch talentierte Entwickler organisiert, deren Kommunikation auf technischen Aspekten und Quellcode basiert. Entscheidungsmacht wird durch nachgewiesene Kompetenz und Aktivität im Projekt gewonnen und nicht-technische Meinungen der Endnutzer werden zu oft vernachlässigt. Darüber hinaus haben auch Spezialisten für Mensch-Computer-Interaktion (HCI) Schwierigkeiten, sich an OSS-Projekten zu beteiligen, da es keine klare Zuständigkeit und Verantwortung für sie zu geben scheint. In diesem auf HCI- und OSS-Literatur basierenden Papier stellen wir ein erweitertes Organisationsmodell für OSS-Entwicklungsprojekte vor, das eine neue Kommunikationsebene und Rollen für die Betreuung menschlicher Aspekte von Software hinzufügt. Das vorgeschlagene Modell macht die Existenz von HCI-Spezialisten in den Projekten sichtbar und fördert die Interaktion zwischen Entwicklern und den HCI-Spezialisten im Projektverlauf.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02032-2_22 23946cdd957e35d157630aca1b32a3d9;de;;;7.2.;;;Konzeptioneller Rahmen für affektive und kognitive Produktgestaltung In dieser Studie haben wir einen konzeptionellen Rahmen des affektiven und kognitiven Designs vorgeschlagen, der auf der Mensch-Produkt-Interaktion basiert. Anschließend wird ein systematischer Ansatz basierend auf dem vorgeschlagenen konzeptionellen Rahmen für die Entwicklung eines Assistenzsystems für Designer vorgestellt, um Informationen und Daten zur Gestaltung neuer affektiver und kognitiver Produkte zu sammeln. Diese Forschung kann als besonders wichtig angesehen werden, da sie auf eine breite Palette von Industrien ausgeweitet werden kann und sich auf Aspekte des Produkts auf der Ebene der einzelnen Elemente konzentrieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-91806-8_10 54cba88a4c6ccf7a43cf02b989308474;de;;;7.1.;;;Eine praktische Lösung für die komplexen menschlichen Probleme des Informationssicherheitsdesigns Es wurde bereits gezeigt (Hitchings, 1994), dass die Art und Weise, wie Informationssicherheit implementiert wurde, geändert werden muss. Die Systemanalyse hat begonnen, sowohl menschliche Probleme als auch technische Faktoren zu berücksichtigen (Checkland und Scholes, 1990). Die Zunahme von Verletzungen der Informationssicherheit zeigt, dass menschliche Probleme nicht ignoriert werden dürfen. Vernetzung und verteiltes Rechnen führen dazu, dass ein Informationssystem nicht mehr isoliert betrachtet werden kann. Die Umgebung und die Interaktionen mit anderen Systemen und Benutzern sind ein wichtiger Faktor, der bei der Gestaltung der Sicherheit berücksichtigt werden muss. Diese Probleme wurden von Hitchings (1995) diskutiert und eine neue Methodik namens Virtual Methodology (VM) vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-5041-2919-0_1 60fdcf2bcf50be05354c8262285efc4f;de;;;7.1.;;;Produktionsänderungen weniger störend gestalten: Agentengesteuerte Integration In diesem Beitrag werden einige Ergebnisse unserer jüngsten Untersuchung zum Umgang mit Veränderungen in Fertigungsumgebungen vorgestellt. Die hier präsentierten Ergebnisse basieren auf unseren jüngsten Besuchen in Produktionsstätten (um die aktuelle Industriepraxis zu verstehen) und einer umfassenden Literaturrecherche. Es hat sich gezeigt, dass Agenten- und Multiagenten-basierte Technologien die Kraft und Flexibilität besitzen, mit der Shop-Dynamik umzugehen. Dieses Papier erörtert auch Forschungsmöglichkeiten und Herausforderungen in diesem Bereich und stellt unsere jüngsten Forschungsarbeiten zur Entwicklung agentenbasierter Technologien zur Rationalisierung und Koordination von Konstruktions- und Produktionsaktivitäten innerhalb eines Fertigungsunternehmens sowie zwischen dem Unternehmen und seinen Zulieferern vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-36594-7_29 f507e2e5000dd773255681c4025a1a32;de;;;7.1.;;;Anwenden des Konfliktmanagementprozesses auf Wiki-Communitys Konflikte sind Meinungsverschiedenheiten zwischen Mitgliedern und implizieren unvereinbare Ziele, Wünsche und Interessen. Unbehandelte Konflikte können sich negativ auf die Gruppenleistung und die Zufriedenheit der Mitglieder auswirken. In virtuellen Gemeinschaften diskutieren Mitglieder, wenn sie gemeinsam Online-Aufgaben durchführen, sodass Konflikte entstehen können. Wiki-Communitys sind beliebte virtuelle Communities, die eine ausdrucksstarke Anzahl von Mitgliedern zur Online-Produktion von Artikeln einbeziehen. Konflikte im Wiki-Kontext sind dann kritisch, da sie die Qualität der Artikel und sogar die Wiki-Glaubwürdigkeit beeinträchtigen. Wir schlagen einen Managementprozess vor, der Aktivitäten zur Identifizierung, Analyse, Reaktion sowie Überwachung und Kontrolle von Konflikten für Wiki-Communitys umfasst. Um die Aktivitäten zu erläutern und den Prozess auszuwerten, verwenden wir Wikipedia.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29958-2_22 436da3d3fed5f49b9f9e712f8dee1c78;de;;;7.1.;;;Entwicklungsstufen in der flexiblen Fertigung Jahrzehntelang haben sich in der industriellen Fertigung und Massenfertigung die sogenannten starren Formen der Automatisierung durchgesetzt, wie zum Beispiel automatisierte Linien und Transferstraßen in der Automobil- und Konsumgüterindustrie, kurvengesteuerte Automaten in der Massenfertigung von Standardkomponenten (Schrauben , Muttern, Bolzen), Sondermaschinen oder Einzweckmaschinen für spezielle Fertigungsprobleme. Alle diese Automatisierungsarten zeichnen sich dadurch aus, dass sich aufgrund des hohen Aufwands für die Einrichtung des Fertigungsprozesses die Überarbeitung der Produktion eines bestimmten Teils oder eines ganzen Produktes erst nach einigen Wochen, bei Sondermaschinen sogar nach einigen Jahren lohnt .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-70272-3_3 1592273841dd963b1abe86ee41acd0f3;de;;;7.1.;;;Ein Entscheidungsunterstützungssystem für die Implementierung von ERP-Systemen in kleinen mittleren Unternehmen (KMU) Kleine mittelständische Unternehmen (KMU) stehen bei der Implementierung von Enterprise Resource Planning (ERP)-Systemen vor erheblichen Herausforderungen, jedoch werden ERP-Systeme aufgrund ihrer Vorteile zu einem wesentlichen und integralen Bestandteil der Geschäftsstrategie von KMU. Diese Studie untersucht die Implementierung von (ERP-)Systemen in KMU und die Rolle, die bestimmte kritische Erfolgsfaktoren (CSF) bei ihrer erfolgreichen Implementierung spielen. Basierend auf den gesammelten Primärdaten wird der Zusammenhang zwischen den Variablen Zeit, Küste und realisierter Leistung hergestellt. Ein auf Simulationsmodellen basierendes Entscheidungsunterstützungssystem (DSS) wurde vorgeschlagen und entwickelt. Das entwickelte DSS-Modell unterstützt den Entscheidungsprozess während der Implementierung, indem es verschiedene Implementierungsszenarien durchführt und sich für die am besten optimierte Lösung entscheidet, die zu einem optimalen Zeitpunkt eine höhere Leistung zu vernünftigen Kosten bietet. Indem wir uns auf dieses Modell stützen, können wir uns darauf beziehen, wie KMU verschiedene GFK und Ressourcen besser nutzen und priorisieren können, indem sie die beste Implementierungsstrategie vor der realen Implementierung auswählen und so Zeit und Geld sparen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24358-5_31 d0b6b0aa7d68f04a2a233dfdb5ac3927;de;;;7.1.;;;Eine wissensbasierte kollaborative Plattform für das Design und den Einsatz von Fertigungssystemen Die PLM-Systeme bieten keine Verbindung zu tatsächlichen Leistungsindikatoren in Bezug auf Kosten-, Zeit- und Qualitätsparameter. Dieses Papier beschreibt eine Kollaborationsplattform, die auf einem semantischen Kern basiert, der Wissen über Produkte, Prozesse und Ressourcen ausdrückt. Die Plattform ist internetbasiert und verbindet Ingenieure im erweiterten Unternehmen mit Werkstattpersonal. Das Konzept basiert sowohl auf einer Reihe von unterschiedlichen Komponenten und Elementen, die die Wissensbasis bilden, als auch auf einem Satz von Softwareagenten. Letztere sind mit einer Reihe von Computer Aided (CAx)-Systemen verbunden und bieten Entscheidungsunterstützungsfunktionen für den Entwurf einer Produktionslinie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41501-2_27 6a9a97d6fc74c88446bc21c9be42a307;de;;;7.1.;;;Der Duft der Innovation: Auf dem Weg zu einem integrierten Managementrahmen für die Innovationskommunikation Innovation ist ein breites Spektrum neuer digitaler Technologien, eine Notwendigkeit für fast jedes Unternehmen, das im globalen Geschäft tätig ist. Im Zeitalter der Informations- und digitalen Technologien hat sich die Art der Innovation jedoch verändert und ein besseres Verständnis von Kommunikation und Information für Innovation ist für den strategischen Erfolg von entscheidender Bedeutung. Dieses Kapitel beantwortet die Frage: Wie können Unternehmen die Unternehmenskommunikation überdenken und neu gestalten, um mehrere neue und traditionelle Kommunikationsinstrumente zu verwalten, um erfolgreich zu informieren und für Innovationen im digitalen Informationszeitalter zu kommunizieren? Nach der Vorstellung eines theoretischen Ansatzes der Innovationskommunikation, der in bestehende Managementkonzepte und -frameworks integriert ist, stellt dieses Buchkapitel ein neues fähigkeitsbasiertes Managementframework der Innovationskommunikation vor. Dieser Rahmen besteht aus drei Hauptphasen:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41479-4_13 e3fe7982f49d365d80ee1f7c4ffc9908;de;;;7.2.;;;Minimierung von Konservativitätsverletzungen bei Ontologie-Alignments: Algorithmen und Auswertung Um die Interoperabilität zwischen ontologiebasierten Systemen zu ermöglichen, wurden Ontologie-Matching-Techniken vorgeschlagen. Wenn die erzeugten Abbildungen jedoch zu unerwünschten logischen Konsequenzen führen, kann ihre Nützlichkeit verringert werden. In diesem Papier stellen wir einen Ansatz vor, um Verletzungen des sogenannten Konservativitätsprinzips zu erkennen und zu minimieren, bei denen neue Subsumtionsfolgen zwischen benannten Konzepten in einer der Eingabeontologien als unerwünscht angesehen werden. Die praktische Anwendbarkeit des vorgeschlagenen Ansatzes wird experimentell an den Datensätzen der Ontology Alignment Evaluation Initiative demonstriert.;-;-;-;https://link.springer.com/article/10.1007/s10115-016-0983-3 5cf0c0d8f6263450393ae2db1c8cfb9a;de;;;7.1.;;;Anwendungen und Umgebungen für Multi-Agenten-Systeme In diesem Whitepaper werden Multi-Agenten-Systemumgebungen (MAS) aus Anwendungssicht behandelt. Es bietet eine strukturierte Sicht auf umgebungszentrierte MAS-Anwendungen. Diese umfasst drei Basiskonfigurationen, die MAS-Anwendungen direkt anwenden oder zu einer zusammengesetzten Konfiguration kombinieren können. Für jede Konfiguration stellt das Papier Schlüsselthemen, Anforderungen und Möglichkeiten vor (z. B. Zeitmanagementprobleme, reale Erweiterungsmöglichkeiten und Anforderungen an Zustands-Snapshots). Somit beschreibt das Papier, welche Umgebungstechnologie implementiert werden kann, um MAS-Anwendungen zu bedienen. Beispielanwendungen veranschaulichen die Konfigurationen. Als nächstes stellen elektronische Institutionen ein Beispiel für eine Umwelttechnologie dar, die sich mit Normen und Gesetzen in einer Agentengesellschaft befasst und bereits eine gewisse Reife erreicht hat. Im Vergleich dazu befinden sich anwendungsdomänenspezifische Umgebungstechnologien noch im Anfangsstadium.;-;-;-;https://link.springer.com/article/10.1007/s10458-006-9002-5 783f7c6ddfb179518789d6c0fb2f7f77;de;;;7.1.;;;Diskurs und Organisationstransformation in der Wirtschaftsinformatik Der organisatorische Diskurs in all seinen Formen und Gestalten ist ein wesentliches Element jeder organisatorischen Umgebung. Es fungiert gleichzeitig als Ausdruck und Schaffung von Organisationsstrukturen, während es Individuen ermöglicht, eine kohärente soziale Realität zu schaffen, die ihr Selbstverständnis einrahmt (Mumby und Clair 1997). Was gesagt wird, wie es gesagt wird und auch was nicht gesagt, aber im Ungesagten impliziert wird, umfasst die Sprachspiele, die verwendet werden, um Entscheidungen und Handlungen innerhalb einer Organisation zu kennzeichnen und zu fördern sowie zu routinieren und zu legitimieren. Als Untersuchung von Textdaten bietet die Diskursanalyse somit eine aufschlussreiche Möglichkeit, die rhetorischen Argumente des IT-gestützten organisatorischen Wandels zu reflektieren und aufzudecken, und kann verwendet werden, um organisatorische Kämpfe bei der Nutzung von IT zur Schaffung, Reproduktion und Transformation von Organisationen zu untersuchen .;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35634-1_26 a811001e695e369d35f365bdaee739b2;de;;;7.1.;;;Entwicklung verteilter Informationssysteme: Ontologischer Ansatz Die konzeptionellen Grundlagen des Einsatzes von Ontologien im Prozess der Entwicklung von Informationssystemen wurden im Beitrag des Artikels zusammengefasst und analysiert. Der Autor betrachtet den systematischen und gleichzeitig kognitiven Ansatz zur Entwicklung verteilter Informationssysteme. Hier wird die Ontologie zur Verwaltung, Präsentation und Integration von vielfältigem Wissen in einem einheitlichen semantischen Modell-Multifunktionssystem verwendet. Außerdem beschreibt der Artikel die Zusammensetzung einer einzigen Ontologie als Grundlage der semantischen Struktur des Wissensbasismodells verteilter Informationssysteme. Der Autor schlägt die Prinzipien der systemkognitiven Analyse des objektorientierten Domänenwissens und des ontologischen Synthesealgorithmus und der Formalisierungsbeschreibung von Modellen der semantischen Struktur von Objekten, Prozessen und Problemklassen vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-18473-9_12 08597d83ffb99e1f8b551eb871ca9927;de;;;7.2.;;;Experimente zum Abrufen gesprochener Dokumente mit dem IR-n-System Dieses Papier beschreibt die erste Teilnahme des IR-n-Systems am Spoken Document Retrieval, wobei der Schwerpunkt auf den Experimenten liegt, die wir vor der Teilnahme durchgeführt haben, und die von uns erzielten Ergebnisse zeigt. Das IR-n-System ist ein Information Retrieval-System, das auf Passagen und der Erkennung von Sätzen basiert, um sie zu definieren. Das Hauptziel dieses Experiments besteht also darin, das IR-n-System mit Hilfe des Äußerungsteilers und der Technik der überlappenden Passagen an die gesprochene Dokumentstruktur anzupassen, die es ermöglicht, Äußerungen und Sätze zuzuordnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30222-3_64 f7851f15807f8b44d792dfbb1a0c1dff;de;;;7.2.;;;Hybrider XML-Abruf erneut besucht Die weit verbreitete Einführung von XML erfordert strukturbewusste Systeme, die Informationen effektiv aus XML-Dokumentsammlungen abrufen können. Dieses Papier berichtet über die Teilnahme der RMIT-Gruppe am INEX 2004 Ad-hoc-Track, in dem wir verschiedene Aspekte der XML-Retrieval-Aufgabe untersuchen. Unsere vorläufige Analyse von CO- und VCAS-Relevanzbewertungen identifiziert drei XML-Abrufszenarien:;-;-;-;https://link.springer.com/chapter/10.1007/11424550_13 19d56eca53515fd06c507dbc4513bc1b;de;;;7.1.;;;Entscheidung: Technologieerwerb In diesem Kapitel betrachten wir die Entscheidungsfindung auf strategischer/Organisationsebene, die Geschäftsfallanalyse und die Kostenbegründung. Nachdem wir uns bewusst geworden sind, welche Technologien und Innovationen verfügbar sind (Kapitel 1) und was wir aufgrund unserer Szenario- und Technologieinnovationsplanung, -analyse und -auswahl (Kapitel 2) benötigen, wird eine Entscheidung getroffen, bestimmte neue Technologien oder Innovationen zu übernehmen und abzulehnen Andere.;-;-;-;https://link.springer.com/chapter/10.1057/9780230596016_3 97fa5cab6f37455025dc6f0596fb1604;de;;;7.1.;;;Schlüsselfaktoren für eine erfolgreiche ERP-Implementierung: Fallstudien von privaten und öffentlichen Organisationen in Thailand Enterprise-Resource-Planning-Systeme (ERP) werden zunehmend von Organisationen in Entwicklungsländern eingesetzt. Das Ziel dieser Studie ist es, die Prozesse zu verstehen und die Schlüsselfaktoren zu untersuchen, die die ERP-Implementierung in Unternehmen beeinflussen. Um die Faktoren abzuleiten und die Situation der ERP-Implementierung zu untersuchen, führt diese Studie Fallstudien zur ERP-Implementierung in privaten und öffentlichen Organisationen in Thailand durch. Die Forschung bietet eine Erklärung der Unterschiede bei der ERP-Implementierung in Bezug auf ihr organisatorisches und kulturelles Umfeld. Das Ergebnis dieser Studie kann als Leitfaden für das Management in Organisationen verwendet werden, die die Implementierung von ERP planen, um solche Probleme im Zusammenhang mit den Phänomenen effektiv vorherzusehen und zu bewältigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-58801-8_1 67371d8aa0e87e6b1fb4b17e789d5d2c;de;;;7.1.;;;Disziplin und kreative Arbeit – Design des Automodells des nächsten Jahres Dieses Kapitel befasst sich mit dem Management kreativer Designarbeit in großen Organisationen. Der Schwerpunkt des Kapitels liegt auf der Komplexität für den Einzelnen, Vorschläge durch den kreativen Prozess zu navigieren. Ein kleiner Vorfall in einem mehrere Millionen Dollar teuren, dreijährigen Projekt mit dem Ziel, ein weiteres Jahresmodell eines bestehenden Autos herauszubringen, wird ausgewählt, um zu veranschaulichen, wie organisatorische Einbettung Komplexität erzeugt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-9827-9_12 26fb8a78842cfe88173c65f8adf1655d;de;;;7.1.;;;Studie zu den Auswirkungen chinesischer landwirtschaftsnaher Unternehmen, die Informatisierung zur Koordinierung von Angebot und Nachfrage implementieren: Basierend auf den Untersuchungsdaten von 125 Unternehmen in Zhejiang In der Lieferkette landwirtschaftlicher Produkte müssen landwirtschaftliche Unternehmen eine effektive Angebots- und Nachfragekoordination anwenden, um maximale Interessen zu erzielen. Wenn Unternehmen im Zeitalter der Informationsnetzwerke keine Informatisierung implementieren, wird die Effizienz der Angebots- und Nachfragekoordination verringert. In diesem Papier werden anhand von Beispielen die signifikanten Auswirkungen der Informationsbeschaffung und -gewinnung, der Fähigkeit zur Informationsintegration und des Informationsaustauschs auf die Angebots- und Nachfragekoordination sowie die minimalen Auswirkungen der automatischen Informationsverarbeitung und Überwachung der Fähigkeit zur Angebots- und Nachfragekoordination von Unternehmen analysiert. Die Untersuchungs- und Analyseergebnisse zeigen auch, dass es viele Probleme im Hinblick auf die Informatisierung chinesischer Agrarunternehmen gibt. In diesem Papier werden einige Vorschläge zur Optimierung der Informatisierung der Lieferkettenkoordinierung landwirtschaftlicher Produkte vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27711-5_67 414c030a880ef55c0f53d177c2159beb;de;;;7.2.;;;Exponentielles Fuzzy-C-Means für kollaboratives Filtern Collaborative Filtering (CF) ist eine der beliebtesten Techniken für den Erfolg von Empfehlungssystemen. Es sagt das Interesse der Benutzer voraus, indem es Informationen von früheren Benutzern sammelt, die die gleichen Meinungen haben. Die beliebtesten Ansätze im CF-Forschungsbereich sind Matrix-Faktorisierungs-Methoden wie SVD. Viele bekannte Empfehlungssysteme verwenden diese Methode jedoch nicht, bleiben aber aufgrund der Einfachheit und Erklärbarkeit immer noch bei Nachbarschaftsmodellen. Es gibt einige Bedenken, die Nachbarschaftsmodelle einschränken, um eine höhere Vorhersagegenauigkeit zu erreichen. Um diese Bedenken auszuräumen, schlagen wir einen neuen exponentiellen Fuzzy-Clustering-Algorithmus (XFCM) vor, indem die Zielfunktion des Clusterings mit einer Exponentialgleichung umformuliert wird, um die Methode der Zugehörigkeitszuweisung zu verbessern. Die vorgeschlagene Methode ordnet den Clustern Daten zu, indem sie irrelevante Daten aggressiv ausschließt, was besser ist als andere Fuzzy-C-Means-(FCM)-Varianten. Die Experimente zeigen, dass XFCM-basierte CF 6,9 % gegenüber der itembasierten Methode und 3,0 % gegenüber SVD in Bezug auf den mittleren absoluten Fehler für 100 K und 1 M MovieLens-Datensätze verbesserten.;-;-;-;https://link.springer.com/article/10.1007/s11390-012-1244-x 5a75678a12a164e59730556d71642e3c;de;;;7.1.;;;Eine Architektur für mobile Agenten, um das Überleben von kollaborativen Informationssystemen zu ermöglichen Wirtschaftliche Zwänge zwingen Unternehmen dazu, sich in virtuelle Unternehmen neu zu gruppieren, um reaktiver zu sein. Diese Verknüpfung führt zu Abhängigkeiten zwischen virtuellen Unternehmensprozessen, was im Falle eines Prozessfehlers ein Problem darstellen kann, da ein solches Problem die gesamte Aktivität des virtuellen Unternehmens gefährden kann. Daher erscheint es relevant, Mechanismen festzulegen, die eine Verbesserung der Prozesszuverlässigkeit ermöglichen. Zunächst schlagen wir eine Methode vor, um zu bestimmen, wie die Informationssystemressourcen, die die Prozesse unterstützen, verwendet werden. Dann definieren wir die Architektur eines Systems, das für das Management des Überlebens von Prozessen verantwortlich ist. Wir haben die Architektur so entworfen, dass sie in einen großen, heterogenen und dynamischen Kontext passt, der virtuelle Unternehmen charakterisiert. Wir validieren unseren Ansatz mit einem Prototyp, der erste Ergebnisse liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-38269-2_52 199af3555836cb90cd8c4e5f2b5931dc;de;;;7.2.;;;Dokumentensammlungen prüfen Das Papier stellt zwei Verfahren vor, die es Informationssuchenden ermöglichen, große Dokumentensammlungen zu inspizieren. Die erste Methode strukturiert Dokumentensammlungen in sinnvolle Gruppen. Hier werden drei unterschiedliche Ansätze vorgestellt: Gruppierung nach der Topologie der Sammlung (zB Verlinkung und Verzeichnisstruktur von Intranet-Dokumenten), Gruppierung nach Inhalt der Dokumente (zB Ähnlichkeitsrelation) und Gruppierung nach dem Leserverhalten bei der Nutzung die Dokumentensammlung. Nach der Bildung von Gruppen unterstützt die zweite Methode den Leser bei der Charakterisierung von Text, indem kurze und relevante Informationen aus einzelnen Dokumenten und Gruppen extrahiert werden. Anhand statistischer Ansätze werden repräsentative Schlagworte jedes Dokuments und auch der Dokumentgruppen berechnet. Später werden die wichtigsten Sätze aus einzelnen Dokumenten und Dokumentengruppen als Zusammenfassungen extrahiert. Abgestimmt auf die unterschiedlichen Informationsbedürfnisse werden Algorithmen für indikative, informative und thematische Zusammenfassungen entwickelt. Dabei wird besonders darauf geachtet, lesbare und sinnvolle Zusammenfassungen zu erstellen. Schließlich präsentieren wir drei Anwendungen, die diese Verfahren nutzen, um verschiedene Informationsbedürfnisse zu erfüllen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24642-8_14 ff2e561e67f06951dae79cdb57ea1e2a;de;;;7.2.;;;Affektive Raumforschung für Impressionismus-Gemälde In diesem Beitrag untersuchen wir die affektiven Inhalte von Bildern des Impressionismus. Während sich die frühere Analyse von Kunstwerken auf die Anmerkungen künstlerischer Konzepte wie Stile und Epochen konzentrierte, ist ein wahrnehmungsbezogener Aspekt die Untersuchung der Emotionen, in die Künstler projiziert wurden. Wir schlagen affektiven Raum vor, um alle affektiven Faktoren aus Merkmalen zu verschmelzen. Da die Farbkombination sensibler und intuitiver für Emotionen ist, wird ein Merkmal auf Metaebene, die Farbharmonie, eingeführt, um die semantischen Lücken zu schließen. Unter Berücksichtigung der Korrelationsbeziehungen zwischen Merkmalen und Emotionen wird der affektive Raum durch eine latente semantische Analyse mehrerer Typen untersucht. Experimentelle Ergebnisse zeigen die Wirksamkeit von harmonischen Merkmalen und affektiven Räumen durch Multi-Label-Emotions-Annotation. Einige potenzielle Anwendungen werden auch basierend auf dem affektiven Raum demonstriert, einschließlich der Emotionalisierung des Malens und des emotionsbasierten Diashow-Systems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89796-5_40 2dcf07eb65d1f990bdf318a5551dfec5;de;;;7.2.;;;Graphbasierte Ontologiekonstruktion aus heterogenen Evidenzen Ontologien sind Werkzeuge zur Beschreibung und Strukturierung von Wissen mit vielen Anwendungen bei der Suche und Analyse komplexer Wissensbasen. Da deren manueller Aufbau ein kostspieliger Prozess ist, gibt es verschiedene Ansätze, Ontologien automatisch durch die Analyse entsprechender Dokumente zu booten. Eine solche Analyse muss die Konzepte und die Beziehungen finden, die die Ontologie bilden sollen. Da die Methoden der Beziehungsextraktion jedoch ungenau sind und nicht alle Konzepte homogen abdecken können, ist der anfängliche Satz von Beziehungen in der Regel inkonsistent und ziemlich unausgewogen - ein Problem, das unseres Wissens bisher weitgehend ignoriert wurde. In diesem Papier definieren wir das Problem, eine konsistente sowie richtig strukturierte Ontologie aus einer Menge inkonsistenter und heterogener Beziehungen zu extrahieren. Darüber hinaus schlagen und vergleichen wir drei graphenbasierte Methoden zur Lösung des Ontologie-Extraktionsproblems. Wir extrahieren Beziehungen aus einem umfangreichen Datensatz von mehr als 325K Dokumenten und bewerten unsere Methoden anhand einer Goldstandard-Ontologie mit mehr als 12K Beziehungen. Unsere Studie zeigt, dass ein Algorithmus, der auf einer modifizierten Formulierung des Dominating-Set-Problems basiert, gierige Methoden übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04930-9_6 dd2ea50ad11a98c1e858746ed78db53d;de;;;7.2.;;;Mathematisches Gerät zur Sicherheitsbewertung von Kryptographie und Sicherheitscodes, die in sicherheitsbezogenen Kommunikationssystemen verwendet werden Der Beitrag befasst sich mit den Problemen der Sicherheitsbewertung eines kombinierten Systems, das aus der Kryptographie und den Sicherheitscodes besteht, die in der Sicherheitskommunikationsschicht innerhalb eines sicherheitsbezogenen Systems angewendet werden. In den meisten Fällen werden die Kryptographiecodes mit den Sicherheitscodes kombiniert, die die Leistung des Kryptographiesystems erhöhen. Bei diesen Anwendungen ist es sehr wichtig, die Optimierung der Auswahl von Sicherheits- und Kryptografiecodeparametern zu realisieren, damit die Wahrscheinlichkeit von Fehlern in der Ausgabe des Kryptografiedecoders, die durch elektromagnetische Störungen (EMI) verursacht werden, unter dem garantierten Sicherheitsintegritätslevel (SIL) liegt. . Der Hauptteil der Arbeit präsentiert die numerischen Ergebnisse einer durchschnittlichen Wahrscheinlichkeit von in der Praxis verwendeten Blockkryptographie-Codes (Blockchiffren 2-DES, 3-DES, AES) mit einer Kombination mehrerer Codewortlängen von Sicherheitsblockkanal-Hamming-Codes in Abhängigkeit von die Bitfehlerrate (BER) des Rauschkommunikationskanals.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24660-9_15 013a6748f85048ee95f7dee7fcfe4bd5;de;;;7.1.;;;Interaktive Multimedia-Informationssysteme für die Bildung Da die computergestützten und audiovisuellen Technologien integriert wurden, sind jetzt Hardwareplattformen verfügbar, die die Speicherung und integrierte Anzeige von Multimediainformationen ermöglichen. Der Zugriff auf Multimedia-Informationsressourcen ermöglicht die Konstruktion reichhaltiger und hochgetreuer Darstellungen der realen Welt. Bildung ist ein Anwendungsgebiet mit großem Potenzial für computerbasierte Multimedia-Informationssysteme (MIS). Interaktivität an der Schnittstelle, Führung innerhalb von Informationsräumen, strategische Beratung beim Wissenserwerb und das Aushandeln von Problemräumen sind zentrale Themen bei der Gestaltung effektiver Bildungsanwendungen. Die Entwicklung solcher Anwendungen erfordert die gemeinsame Anstrengung von Informatikern, Psychologen und Pädagogen. Ein zentrales Thema bei der Gestaltung relevanter und effektiver Systeme ist die Einbeziehung der Zielnutzer – der Kursgestalter/Tutoren und Lernenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-77331-0_24 857ca2c176d7a5bdc0f85544baf162f6;de;;;7.2.;;;Personalisierte MTV-affektive Analyse mit Benutzerprofil Gegenwärtig ist MTV zu einer wichtigen Lieblingsbeschäftigung der Menschen geworden. Eine affektive Analyse, die die in MTVs enthaltenen affektiven Zustände extrahieren kann, könnte eine potenzielle und vielversprechende Lösung für einen effizienten und intelligenten MTV-Zugang sein. Eines der schwierigsten und unzureichend behandelten Probleme der affektiven Analyse besteht darin, dass das affektive Verstehen persönlich und unter den Benutzern unterschiedlich ist. Folglich ist es sinnvoll, eine personalisierte affektive Modellierungstechnik zu entwickeln. Da die Rückmeldungen und Beschreibungen des Benutzers über affektive Zustände wertvolle und relativ zuverlässige Hinweise auf das persönliche affektive Verständnis des Benutzers liefern, sollte es sinnvoll sein, eine personalisierte affektive Modellierung durch die Analyse der im Benutzerprofil aufgezeichneten affektiven Beschreibungen durchzuführen. Unter Verwendung des Benutzerprofils schlagen wir einen neuartigen Ansatz vor, der die Unterstützungsvektorregression und das psychologische affektive Modell kombiniert, um eine personalisierte affektive Analyse zu erreichen. Die experimentellen Ergebnisse, die sowohl Benutzerstudien als auch Vergleiche zwischen aktuellen Ansätzen umfassen, veranschaulichen die Wirksamkeit und Vorteile unserer vorgeschlagenen Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89796-5_34 8a29de0306a686d480f96350b30b1430;de;;;7.1.;;;Erforschung des Zusammenspiels von Gestaltung und Entstehung von Geschäftsprozessen als organisatorische Routinen Ein Großteil der BPM-Literatur betrachtet das Design und die Implementierung von Geschäftsprozessen als einen Top-Down-Prozess, der auf strategischer Ausrichtung und Managementkontrolle aufbaut. Obwohl diese Sichtweise das Design vieler IT-Artefakte für Geschäftsprozesse ermöglicht hat, steht sie im Widerspruch zu der Beobachtung, dass Informationsinfrastrukturen, einschließlich der Geschäftsprozessinfrastruktur eines Unternehmens, driften, ein Begriff, der sich auf das Fehlen einer Top-down-Managementkontrolle bezieht. Das Papier trägt zur Auflösung dieser Inkonsistenz bei, indem es ein Meta-Framework entwickelt, das Geschäftsprozesse als entstehende organisatorische Routinen konzeptualisiert, die durch IT-Artefakte repräsentiert, ermöglicht und eingeschränkt werden. IT-Artefakte werden in Prozessen der funktional-hierarchischen Zerlegung und in sozialen Designprozessen entwickelt. Organisatorische Routinen haben ostensive und performative Aspekte, die eine sich gegenseitig konstituierende Dualität bilden. Eine Literaturrecherche zeigt, dass die Vorschläge des Meta-Frameworks im BPM-Bereich nur unzureichend berücksichtigt wurden. Der Beitrag schließt mit einem Ausblick auf die Anwendung des Meta-Frameworks, um Theorien über das Zusammenspiel von Designprojekten mit der späteren Entstehung von Geschäftsprozessen in Organisationen zu entwickeln.;-;-;-;https://link.springer.com/article/10.1007/s12599-014-0335-3 0faf5120fce282238cc98e935164558b;de;;;7.1.;;;Informationstechnologie für persönliche, unpersönliche und automatisierte E-Koordinationsmodi Koordination kann als der Prozess des Erreichens konzertierter Aktionen (Thompson, 1967) in Situationen der Aufgabenabhängigkeit definiert werden (Crowston, 1997). Elektronische Koordinierung (im Folgenden als E-Koordinierung bezeichnet) bezieht sich auf Situationen, in denen ein Koordinierungsprozess auf elektronischen Medien und Informationstechnologie (IT) beruht. Elektronische Medien und IT spielen in fortgeschrittenen Gesellschaften als (Teil-)Ersatz für menschliche Koordinationspraktiken eine unverzichtbare Rolle und ermöglichen damit den globalen wissensbasierten Arbeitsplatz (Majchrzak;-;-;-;https://link.springer.com/chapter/10.1057/9780230582408_9 68aaabd8551a6b9b9affde99dcc896bd;de;;;7.1.;;;Allgemeine Verwaltungsfunktionen Die administrative Komponente des Onkologischen Zentrums ist seit seiner Gründung ein wichtiger Verfechter des OCIS. Obwohl der ursprüngliche Finanzierungsmechanismus für OCIS aus einem Zuschuss bestand, haben zentrale Kernmittel, die von der Onkologieverwaltung beschafft wurden, den Großteil der Entwicklungs- und Wartungsaktivitäten in den letzten zehn Jahren bereitgestellt. Tatsächlich sind die Krankenhauskomponenten von OCIS direkt von der zentralen Verwaltung des Zentrums verantwortlich. Wie in Kapitel 1 beschrieben, wurde während der Planungsphase des Gebäudes des Onkologischen Zentrums im Jahr 1975 erkannt, dass computerverwaltete medizinische Daten von großem Nutzen für eine qualitativ hochwertige Versorgung von Krebspatienten sein würden. OCIS wurde mit dieser grundlegenden Mission gegründet.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-3638-2_8 2885c57fc2b68a378a7138f2ca785641;de;;;7.1.;;;Das Design eines Qualitäts- und Messkontroll-Ausführungssystems basierend auf dem IOT-Bus In diesem Beitrag werden die kritischen Faktoren des Herstellungsprozesses anhand von vier Aspekten analysiert: Materialeinkauf, Produktverkauf, stückweiser Prozess und Einheit der Einzelproduktausrüstung. Darüber hinaus gibt es eine allgemeine Analyse und Gestaltung von Qualitäts- und Messsteuerungs-Ausführungssystemen auf Basis des Internet of Things Bus und des Geschäftsprozessmodells von Qualität und Messung sowie des Modells für Systemsteuerung und -verfolgung auf Basis des Internet of Things Dinge werden hauptsächlich diskutiert. Das Studium des Systems liefert auch eine nützliche Referenz für den Aufbau eines ähnlichen Informationssystems von großen Eisen- und Stahlunternehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46466-3_53 bdcd267f8d0dad28eeadd7339d1fbf7d;de;;;7.1.;;;Interorganisationale Informationssysteme und Interaktion im öffentlichen vs. privaten Sektor – Vergleich zweier Fälle Dieses Papier vergleicht interorganisationale (IO) Interaktion und interorganisationale Informationssysteme (IOS) im öffentlichen und privaten Sektor. Der Zweck des Papiers besteht darin, Unterschiede und Ähnlichkeiten zwischen E-Government und E-Business mit Fokus auf IOS und Interaktion zu untersuchen. Dies geschieht, um das Lernen zwischen den beiden Bereichen zu erleichtern. Ausgangspunkt sind zwei Fallstudien, die im privaten vs. öffentlichen Sektor durchgeführt wurden. Eine vergleichende Studie wird mit IO-Konzepten aus Industriemärkten durchgeführt, die eine IO-Beziehung charakterisieren (Kontinuität, Komplexität, Symmetrie und Formalität) und Konzepten, die Dimensionen solcher Beziehungen beschreiben (Links, Bonds und Ties). Die Ergebnisse der vergleichenden Studie zeigen, dass es einige Ähnlichkeiten in Bezug auf die Interaktion in den Beziehungen zwischen Organisationen in den beiden Sektoren gibt. Auch gibt es Unterschiede je nach Analyseebene (empirische Ebene vs. analytische Ebene). Die Studie zeigt die Notwendigkeit, den Organisationswert, den Endkunden- oder Kunden-/Bürgerwert und die Art der Gegenstände, die in der Interaktion ausgetauscht werden, explizit anzugeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14799-9_4 6a3f6d217b6ae7c8924fb16d1ad6e10a;de;;;7.1.;;;Verbesserung des IT-Outsourcings: Vertragsmodell für Governance und Management aus Kundensicht In Anlehnung an einen Design Science Research (DSR)-Ansatz präsentiert dieses Papier ein Governance- und Management-Modell für IT-Outsourcing-Dienste, aus der Perspektive spezifischer Governance-Mechanismen, strategischer Ausrichtung und Managementprozess, diese Kombination ist in der Fachliteratur nicht explizit. Das entworfene Modell verweist aus Kundensicht auf vertragliche Mechanismen des Outsourcings. Der Evaluierungsprozess wird anhand einer Fallstudie durchgeführt: Anwendung des Modells bei einer ecuadorianischen Institution des Finanzsektors, die sich entschieden hat, eine Reihe ihrer IT-Dienstleistungen auszulagern. Für die Datenerfassung und -aufzeichnung hat Participant Observation verwendet, auch unter Verwendung von Critical Success Factors in der Fachliteratur wird eine Compliance-Prüfung durchgeführt. Die Arbeit trägt dazu bei, den Praktikern ein praktisches Werkzeug zur Verfügung zu stellen und das vorhandene Wissen im Bereich Business Process Outsourcing, IT-bezogen, zu erweitern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-56535-4_61 111354a4cda7a86e4347d40f1db36357;de;;;7.1.;;;SCHUTZ DES VERKEHRSSEKTORS VOR NEGATIVEN AUSWIRKUNGEN DES KLIMAWANDELS Beobachtete und prognostizierte Klimaänderungen wie Temperaturanstieg, Meeresspiegelanstieg und Zunahme der Häufigkeit und Intensität von Extremwetterereignissen stellen den Betrieb kritischer Infrastrukturen vor Herausforderungen, insbesondere im Verkehrssektor, der eine Säule von Wirtschaft und Gesellschaft ist. Wie die anderen Sektoren der kritischen Infrastruktur umfasst der Verkehrssektor komplexe Systeme, deren Verantwortlichkeiten auf viele Akteure verteilt sind. Die Herausforderungen bei der Umsetzung integrierter Ansätze zur Anpassung an den Klimawandel im Verkehrssektor erfordern eine angemessene Governance und koordiniertes Handeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-70395-4_1 7b95f348ff344570a5af26b39d2a93e6;de;;;7.1.;;;Datenanalyse und Diskussionen In diesem Kapitel wird die Analyse der Daten aus den beiden Umfragerunden vorgestellt. Im Einzelnen produzierte Survey I 89 ausgefüllte Fragebögen von 25 Akademikern und 64 Praktikern von CCFs. Die Analyseergebnisse zeigten, dass alle 16 ERM-Reifekriterien von großer Bedeutung waren und dass 66 der 71 ERM-Best Practices in den CCFs maßgeblich anwendbar waren. Die fünf als nicht signifikant anwendbar befundenen Praktiken wurden ausgeschlossen, und der Ausschluss wurde durch die entsprechenden Kommentare aus vier Interviews mit den Praktikern, die ursprünglich in die Umfragestichprobe aufgenommen wurden, gestützt. Somit wurden die 16 Kriterien und 66 Best Practices in das ERM-Reifemodell aufgenommen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-287-549-5_7 e3c89e1726f1ee97e10d1e4bca9d8e02;de;;;7.1.;;;Erreichen der Agilität des Supply Chain Managements durch Anwendungen der Informationstechnologie Agilität in Lieferketten ist entscheidend für Wettbewerbsvorteile, da sie dazu beiträgt, Chancen in sich schnell verändernden Märkten zu erkunden und zu nutzen. Unternehmen sind zunehmend auf Informationstechnologie (IT) für das Supply Chain Management als Wettbewerbsinstrument angewiesen, um eine solche Agilität zu ermöglichen. Die Rolle der IT für die Agilität der Lieferkette wurde jedoch wenig erforscht. Das Papier zielt darauf ab, diese Lücke zu schließen, indem weiter untersucht wird, wie sich IT-Anwendungen auf die Agilität der Lieferkette auswirken. Wir schlagen vor, dass die IT-Infrastrukturintegration, bestehend aus Datenkonsistenz und funktionsübergreifender Anwendungsintegration, entscheidend ist, um Agilität zu erreichen, da verschiedene Integrationsprozesse in agilen Lieferketten durch fragmentierte IT-Infrastrukturen behindert werden können, die den Informationsfluss und Koordinationsaktivitäten zwischen Funktionseinheiten und Netzwerkpartnern ermöglichen . Darüber hinaus veranschaulichen wir die Auswirkungen der IT-Infrastrukturintegration auf die Agilität in verschiedenen betrieblichen Dimensionen, wie Geschwindigkeit und Flexibilität in der gesamten Lieferkette.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-74157-4_29 9bea4f8c71c3988c47119d4e68b0a5b5;de;;;7.1.;;;Ein Panorama der semantischen EAI-Initiativen und die Übernahme von Ontologien durch diese Initiativen Enterprise Application Integration (EAI) spielt eine wichtige Rolle durch die Verknüpfung heterogener Anwendungen, um Geschäftsprozesse innerhalb und zwischen Organisationen zu unterstützen. In diesem Zusammenhang treten häufig semantische Konflikte auf, die für eine erfolgreiche Interoperation bearbeitet werden müssen. In den letzten Jahren zielten viele EAI-Initiativen darauf ab, die Herausforderungen der semantischen Interoperabilität durch den Einsatz von Ontologien auf verschiedene Weise anzugehen. Dieses Papier zielt darauf ab, durch eine systematische Überprüfungsmethode einige Aspekte im Zusammenhang mit semantischen EAI-Initiativen und der Übernahme von Ontologien durch sie aufzuzeigen, nämlich: (i) die Anwendungsdomänen, in denen diese Initiativen durchgeführt wurden, (ii) den Schwerpunkt die Initiativen in Bezug auf Integrationsschichten (Daten, Nachrichten/Dienste und Prozesse), (iii) die Übernahme von Ontologien durch die EAI-Forschung im Laufe der Jahre und (iv) die Merkmale dieser Ontologien. Wir bieten ein Panorama dieser Aspekte und identifizieren Lücken und Trends, die weitere Forschungen leiten können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36796-0_17 d2a4f1445207068daaab22c5477b6584;de;;;7.1.;;;Überblick über die OSSAD-Methodik Die Office Support System Analysis and Design (OSSAD)-Methodik wurde entwickelt, um die Analyse und das Design von Büroorganisationen und Office-Support-Systemen (OSS) zu leiten ((Conrath und Dumas, 1989). Eine neue Methodik wurde benötigt, da frühere Systementwurfsmethoden den Schwerpunkt auf technische Aspekte und ignorierte die organisatorischen Probleme einer Büroumgebung (Leppänen und Savolainen 1988, Leppänen und Savolainen 1989). Die Probleme der früheren Ansätze waren zahlreich (Friedman, 1997, Marcus und Robey, 1988, Schaefer 1988, S. 40–43, 169–171. Das OSSAD-Projekt im ESPRIT-Programm wurde von Forschern aus Frankreich, Deutschland, Kanada, Italien und Finnland unterstützt. Während seiner Entwicklung wurde es in all diesen Ländern praxiserprobt und angewendet. Dieses Kapitel gibt einen kurzen Überblick über dieser Methodik und fasst das OSSAD-Handbuch zusammen (Conrath und Dumas, 1989).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-1464-9_4 f69c822e9d26c80441ffd79c691a3cd9;de;;;7.2.;;;Erlernen nichttaxonomischer semantischer Beziehungen aus Domänentexten Die Ontologie einer Domäne besteht hauptsächlich aus Konzepten, taxonomischen (hierarchischen) Relationen und nicht-taxonomischen Relationen. Die automatische Ontologiekonstruktion erfordert Methoden zum Extrahieren sowohl taxonomischer als auch nicht-taxonomischer Beziehungen. Im Vergleich zu umfangreichen Arbeiten zur Konzeptextraktion und zum Lernen von taxonomischen Relationen wurde der Identifizierung und Kennzeichnung nicht-taxonomischer Relationen im Text-Mining wenig Aufmerksamkeit geschenkt. In diesem Papier schlagen wir eine unbeaufsichtigte Technik vor, um nicht-taxonomische Beziehungen aus Domänentexten zu extrahieren. Wir schlagen die VF*ICF-Metrik vor, um die Bedeutung eines Verbs als repräsentatives Relationslabel zu messen, ganz ähnlich wie das TF*IDF-Maß bei der Informationsbeschaffung. Domänenrelevante Konzepte (Substantive) werden mit früher entwickelten Techniken extrahiert. Nicht taxonomische Kandidatenbeziehungen werden als (SVO-)Tripel der Form (Subjekt, Verb, Objekt) aus Domänentexten generiert. Ein statistisches Verfahren mit Log-Likelihood-Verhältnissen wird verwendet, um die Bedeutung von Beziehungen zwischen Konzepten abzuschätzen und geeignete Beziehungslabels auszuwählen. Texte aus zwei Domänen, den Domänentexten Electronic Voting (EV) und den Domänentexten Tenders and Mergers (TNM), werden verwendet, um unsere Methode mit einem der bestehenden Ansätze zu vergleichen. Experimente zeigten, dass unsere Methode in beiden Domänen eine bessere Leistung erzielte.;-;-;-;https://link.springer.com/article/10.1007/s10844-011-0149-4 5a603a84c94c76f5de3383f87090559d;de;;;7.1.;;;Kritische Elemente und Erkenntnisse aus der Implementierung eines RFID-fähigen Gesundheitsmanagementsystems in einer medizinischen Organisation Gesundheitsdienstleistungen sind komplex und lebenswichtig. Ein Fehler in jedem Verfahren kann zu unheilbaren Folgen führen. Zahlreiche Forscher führen daher Informations- und Kommunikationstechnologien ein, um die Qualität der Dienstleistungen zu verbessern und die Patientensicherheit durch Reduzierung der medizinischen Fehler zu erhöhen. Die Radiofrequenz-Identifikation (RFID) gilt als eines der aufkommenden Werkzeuge, die bei der Bewältigung der Herausforderungen der gegenwärtigen Situation helfen. In den letzten Jahren wurde RFID in medizinischen Organisationen eingesetzt, um medizinische Geräte zu verwalten und zu verfolgen, Patienten zu überwachen und zu identifizieren, sicherzustellen, dass dem richtigen Patienten das richtige Medikament verabreicht wird und um die Verwendung von Arzneimittelfälschungen zu verhindern. Der Großteil der vorhandenen Literatur konzentriert sich jedoch darauf, zu zeigen, wie RFID der Gesundheitsbranche zugute kommen kann, während den Managementfragen beim Aufbau eines RFID-Projekts in medizinischen Organisationen wenig Aufmerksamkeit geschenkt wurde. In diesem Beitrag wird eine explorative Fallstudie in einer medizinischen Einrichtung durchgeführt, um den Entwicklungsrahmen und kritische Aspekte zu veranschaulichen, die in der Vorbereitungs-, Implementierungs- und Wartungsphase des Baus eines solchen Projekts berücksichtigt werden sollten. Alle in diesem Papier diskutierten Erfahrungen und Ergebnisse bieten wertvolle und nützliche Erkenntnisse, um diejenigen zu lenken, die ihre Reise mit RFID in medizinischen Organisationen beginnen möchten.;-;-;-;https://link.springer.com/article/10.1007/s10916-009-9403-5 90246e0cf082a5c96429139781732816;de;;;7.2.;;;Evaluierung einer benutzermodellbasierten Personalisierungsarchitektur für digitale Nachrichtendienste Es wird eine Architektur vorgestellt, die eine personalisierte Filterung und Verbreitung von Nachrichten bereitstellt. Es basiert auf Benutzerprofilen und bietet Mechanismen, die es dem Benutzer ermöglichen, die Interaktion zwischen drei verschiedenen Quellen von Relevanzbeurteilungen zu steuern und auf seine eigenen Bedürfnisse abzustimmen: die vorhandene Zeitungskategorisierung nach Rubriken, die Abfrage von Basisinformationen zu vom Benutzer ausgewählten Schlüsselwörtern und einem zusätzlichen Betrieb der automatischen Kategorisierung anhand einer alternativen Kategorienhierarchie. Diese drei Ebenen decken einige der vielversprechendsten Zugangsmethoden für digitale Bibliotheken ab. Die vorgeschlagene Architektur wurde implementiert und es werden Bewertungsergebnisse präsentiert, die die Benutzerreaktion, die Systemeffizienz und die Benutzerpräferenzen in Bezug auf die ihnen zur Verfügung gestellten Methoden umfassen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45268-0_24 696ed671e4e14c3e5003ff1540711050;de;;;7.2.;;;Verwenden der Textklassifizierungsmethode im Relevanz-Feedback Beim modernen Information Retrieval sind traditionelle Relevanz-Feedback-Techniken, die die Begriffe in den relevanten Dokumenten verwenden, um die anfängliche Abfrage des Benutzers zu bereichern, eine effektive Methode, um die Abrufleistung zu verbessern. In diesem Papier untersuchen wir diese Methode erneut und zeigen, dass sie in der Realität nicht zutrifft – viele in traditionellen Ansätzen identifizierte Erweiterungsbegriffe haben tatsächlich keinen Bezug zur Abfrage und sind schädlich für den Abruf. Wir schlagen dann eine auf Textklassifizierung basierende Methode für das Relevanz-Feedback vor. Der an den Feedback-Dokumenten trainierte Klassifikator kann den Rest der Dokumente klassifizieren. Somit stehen in der Ergebnisliste die relevanten Dokumente vor den nicht relevanten Dokumenten. Dieser neue Ansatz vermeidet das Modifizieren der Abfrage über den Textklassifizierungsalgorithmus im Relevanz-Feedback und ist eine neue Richtung für die Relevanz-Feedback-Techniken. Unsere Experimente mit dem TREC-Datensatz zeigen, dass die Retrieval-Effektivität durch die Verwendung von Textklassifizierung erheblich verbessert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12101-2_45 ed0de6e5e995e3ae82a3272b8b1a651a;de;;;7.2.;;;Ähnlichkeit zwischen Geschäftsprozessmodellen messen Qualitätsaspekte werden immer wichtiger, wenn die Geschäftsprozessmodellierung in einem Großunternehmen eingesetzt wird. Um eine redundante Speicherung und ein effizientes Wiederauffinden relevanter Prozessmodelle in Modelldatenbanken zu ermöglichen, ist es erforderlich, ein theoretisches Verständnis dafür zu entwickeln, wie ein Grad an Verhaltensähnlichkeit definiert werden kann. In diesem Beitrag gehen wir diese Herausforderung auf neuartige Weise an. Wir verwenden kausale Fußabdrücke als abstrakte Darstellung des von einem Prozessmodell erfassten Verhaltens, da sie es uns ermöglichen, Modelle zu vergleichen, die in formalen Modellierungssprachen wie Petri-Netzen und informellen wie EPCs definiert sind. Basierend auf dem aus zwei Modellen abgeleiteten kausalen Fußabdruck berechnen wir deren Ähnlichkeit auf Basis des etablierten Vektorraummodells aus dem Information Retrieval. Wir validieren dieses Konzept mit einem Experiment unter Verwendung des SAP-Referenzmodells und einer Implementierung im ProM-Framework.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36926-1_33 d3a4ce20a6257a34d6dbe55a9beee80d;de;;;7.2.;;;Härteschätzung mit Jensen-Shannon-Divergenz zwischen mehreren Bewertungsfunktionen abfragen Wir betrachten das Problem der Abfrageleistung und schlagen eine neuartige Methode zur automatischen Vorhersage der Schwierigkeit einer Abfrage vor. Im Gegensatz zu einer Reihe bestehender Techniken, die auf der Untersuchung der Ranglisten basieren, die als Antwort auf gestörte Versionen der Abfrage in Bezug auf die gegebene Sammlung oder gestörte Versionen der Sammlung in Bezug auf die gegebene Abfrage zurückgegeben werden, basiert unsere Technik auf der Untersuchung der Rangfolge Listen, die von mehreren Bewertungsfunktionen (Abruf-Engines) in Bezug auf die angegebene Abfrage und Sammlung zurückgegeben werden. Im Wesentlichen schlagen wir vor, dass die Ergebnisse, die von mehreren Abfrage-Engines zurückgegeben werden, bei „einfachen“ Abfragen relativ ähnlich sind, jedoch bei „schwierigen“ Abfragen unterschiedlicher. Durch den geeigneten Einsatz der Jensen-Shannon-Divergenz zur Messung der „Diversität“ der zurückgegebenen Ergebnisse demonstrieren wir eine Methodik zur Vorhersage von Abfrageschwierigkeiten, deren Leistung die bestehenden Techniken für TREC-Sammlungen oft bemerkenswert übersteigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71496-5_20 1e7517b2c103b33c7f86977d78a072af;de;;;7.2.;;;Methoden zur Sammlung und Auswertung vergleichbarer Dokumente Besondere Aufmerksamkeit wird Methoden zur Sammlung und Auswertung vergleichbarer Korpora gewidmet, nicht nur zur Verbesserung der statistischen maschinellen Übersetzung (SMT), sondern auch für andere Anwendungen, z. die Extraktion von Paraphrasen. Der potenzielle Wert solcher Korpora erfordert effiziente und effektive Methoden zu deren Sammlung und Bewertung. Die meisten dieser Methoden wurden beim Abrufen von Dokumentpaaren für Sprachen mit guten Ressourcen getestet, es fehlt jedoch an Arbeit in Bereichen weniger populärer (unterversorgter) Sprachen oder Domänen. Dieses Kapitel beschreibt die Arbeit bei der Entwicklung von Methoden zum automatischen Sammeln vergleichbarer Korpora aus dem Web, insbesondere für unterversorgte Sprachen. Es werden verschiedene Online-Quellen untersucht und eine Bewertungsmethode entwickelt, um die Qualität der gefundenen Dokumente zu beurteilen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20128-8_5 ee09cc971f7d5e7a98d1eba62be03db9;de;;;7.2.;;;Automatische Extraktion semantischer Beziehungen aus Textdokumenten Ontologien spielen in den letzten Jahren eine wichtige Rolle in den Anwendungen, insbesondere im Semantic Web, Information Retrieval, Information Extraction und Question Answering. Ontologien werden verwendet, um das Wissen zu spezifizieren, das zwischen den verschiedenen Systemen ausgetauscht und geteilt wird. Ontologien definieren die formale Semantik der zur Beschreibung von Daten verwendeten Begriffe und die Beziehungen zwischen diesen Begriffen. Daher besteht einer der wichtigen Schritte zum Aufbau der domänenspezifischen Ontologie darin, die semantischen Beziehungen zwischen den Begriffen der Ontologie zu konstruieren. Dieses Papier stellt unsere vorgeschlagene Methode zur automatischen Extraktion semantischer Relationen aus Textdokumenten der ACM Digital Library dar. Eine Zufallsstichprobe aus 170 Kategorien von ACM-Kategorien wird verwendet, um unsere vorgeschlagene Methode zu bewerten. Die generierten Ergebnisse zeigen, dass unsere vorgeschlagene Methode eine hohe Präzision erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48057-2_24 94a8afd890b5e6e60feae638279408a3;de;;;7.2.;;;Fusion von Retrievalmodellen beim CLEF 2008 Ad Hoc Persian Track Metasuchmaschinen senden die Benutzeranfrage an mehrere zugrunde liegende Suchmaschinen und führen dann ihre abgerufenen Ergebnisse zusammen, um eine einzige Liste zu erstellen, die den Informationsbedürfnissen der Benutzer besser entspricht. Gemäß der Idee hinter Metasuchmaschinen scheint es, dass die Zusammenführung der Ergebnisse aus verschiedenen Suchmodellen die Suchabdeckung und -präzision verbessert. In dieser Studie haben wir den Effekt der Fusion verschiedener Retrievaltechniken auf die Leistung des persischen Retrievals untersucht. Wir verwenden eine Erweiterung des Operators Ordered Weighted Average (OWA) namens IOWA und ein Gewichtungsschema, NOWA, um die Ergebnisse zusammenzuführen. Unsere experimentellen Ergebnisse zeigen, dass die Zusammenführung durch OWA-Betreiber zu einem besseren MAP führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04447-2_11 cc87635a37dcd39d8412ca36cc76793c;de;;;7.1.;;;Ein Ansatz für elektronisches Brokerage in TINA-Umgebungen Das Konzept der elektronischen Vermittlung basiert auf der Nutzung neuer Informationstechnologien, um einen Dienst bereitzustellen, der die Beziehung zwischen Kunden und Dienstanbietern in einer Multidienstumgebung erleichtern und organisieren kann. Dieser neue Dienst, der von den sogenannten „Elektronischen Brokern“ unterstützt wird, wird es Dienstanbietern ermöglichen, ihre Angebote zu veröffentlichen und zu bewerben und gleichzeitig den Endnutzern einen einfachen und effizienten Zugriff auf die angebotenen Dienste und Informationen zu ermöglichen. In diesem Beitrag wird eine Architektur für diesen elektronischen Maklerdienst vorgestellt, die derzeit im Rahmen des europäischen Projekts ABS (Architecture for Information Brokerage Service) ACTS entwickelt wird. Obwohl hauptsächlich für Umgebungen des „elektronischen Handels“ entwickelt, versucht das Papier zu zeigen, wie die Architektur von ABS-Brokeragediensten für Architekturen zur Unterstützung mehrerer Dienste wie TINA nützlich sein kann.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0056979 d5d8bbfda2295dc2479556a418a6a534;de;;;7.1.;;;Ermöglichung des Designs und des Teilens von Lernplänen durch Netztechnologien: Das IAMEL-System Dieser Beitrag berichtet über die Forschungsarbeit der Autoren im Rahmen des IAMEL-Projekts, das vom italienischen Bildungsministerium unterstützt wird. Das Projekt zielte hauptsächlich auf die Verbesserung des Mathematikunterrichts/-lernens ab, indem Lehrern spezifische E-Learning-Plattformen zur Verfügung gestellt wurden, die mit einer Reihe spezieller Tools ausgestattet waren, die den Aufbau und die Durchführung spezifischer Feldversuche unterstützen. Eines der Hauptergebnisse des Projekts war die Entwicklung einer Methodik zur Durchführung des Designs von pädagogischen Interventionen, eine solche Methodik basierte auf einem konzeptionellen zielorientierten Rahmen und auf verschiedenen Autorenwerkzeugen, darunter das IAMEL-System, ein Online-Tool vollständig in dem Papier beschrieben, das sowohl die Erstellung als auch den Austausch von pädagogischen Plänen ermöglicht und das Design und die Modellierung von pädagogischen Interventionen mit unterschiedlicher Granularität und Reichweite genehmigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16318-0_38 54f736afd68723bbe8a20fde46a3a7cb;de;;;7.1.;;;Mindset-Theorie von Handlungsphasen und Wenn-Dann-Planung In diesem Kapitel stellen wir die Mindset-Theorie der Aktionsphasen (MAP) und die Selbstregulierungsstrategie von Umsetzungsabsichten vor. MAP schlägt vier aufeinanderfolgende unterschiedliche Phasen vor, die man während der Zielverfolgung durchläuft. In jeder Phase steht der zielstrebige Mensch vor unterschiedlichen Herausforderungen, und die Aktivierung spezifischer kognitiver Verfahren (d. h. Mindsets) hilft, diese Herausforderungen zu meistern. Diese Denkweisen können sich auch auf nicht verwandte Aufgaben übertragen und das Verhalten beeinflussen. Umsetzungsabsichten sind konkrete Wenn-Dann-Pläne (d. h. „Wenn kritische Situation S eintritt, dann werde ich zielgerichtete Reaktion R durchführen! In fast 100 unabhängigen Studien mit mehr als 8000 Teilnehmern wurde gezeigt, dass Umsetzungsabsichten die Zielerreichung über die reine Zielbildung hinaus fördern (Gollwitzer und Sheeran, Adv Exp Soc Psychol 38:69–119, 2006). Wir stellen angewandte Kontexte und neuere Entwicklungen von MAP und Implementierungsintentionen vor und schließen das Kapitel mit der Diskussion einer Studie zu den Auswirkungen von Implementierungsintentionen im Bereich der Konsumpsychologie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-13788-5_2 0729b48fbbfce18f2b506bd5ff5dfe71;de;;;7.1.;;;Elektronische Integration von Supply Chain Operations: Kontext, Entwicklung und Praktiken Erfolgreiche Unternehmen scheinen heute diejenigen zu sein, die ihre internen Prozesse sorgfältig mit externen Lieferanten und Kunden in einzigartigen Lieferketten verknüpft haben (Fröhlich und Westbrook 2001, Boyer, Fröhlich und Hult 2004). Bei diesem Bestreben, interne Prozesse mit externen Lieferanten und Kunden zu verknüpfen, ist der Informationsaustausch zwischen Unternehmen von entscheidender Bedeutung. Elektronischer Datenaustausch (EDI) in der Vergangenheit und das Internet in den letzten zehn Jahren haben es Partnern in der Lieferkette ermöglicht, auf denselben Daten zu reagieren (Christopher 2005). Diese Realität erklärt einen Großteil der anfänglichen Begeisterung der Unternehmen für die Einführung des Internets und internetbasierter Anwendungen in den frühen 1990er Jahren. Das ultimative Ziel der Unternehmen, die Prozessintegration über die gesamte Lieferkette hinweg zu erreichen, war jetzt viel machbarer als je zuvor.;-;-;-;https://link.springer.com/chapter/10.1057/9780230234956_12 4cbb83bdbb5df148d859ac9fe02f76db;de;;;7.2.;;;Computer in der Pflege: Der neueste Stand der Technik Der Einfluss des Computers auf die meisten Bereiche menschlicher Bemühungen war revolutionär. In den 25 Jahren seit der ersten großen wissenschaftlichen Tagung, die sich den Einsatzmöglichkeiten des Computers in der medizinischen Versorgung widmete, sind Mikroelektronik und Computer in praktisch allen Bereichen des modernen Gesundheitswesens zum Einsatz gekommen. Nicht mehr nur verherrlichte Aktenschränke, sondern der Computer hat jetzt Anwendungen, die von der Krankenhausfinanz- und Inventarverwaltung bis hin zur Diagnose und Behandlung von Patienten reichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-3622-1_18 3fa84ce0912795205219fea48e3c8878;de;;;7.2.;;;Indexierung textueller Datenbanken basierend auf lexikalischen Ressourcen: Eine Fallstudie für Serbisch In diesem Beitrag beschreiben wir einen Ansatz zur Verbesserung der Ergebnisse des Information Retrieval für große Textdatenbanken durch Vorindexierung von Dokumenten unter Verwendung von Wortbeuteln und Named-Entity-Erkennung. Der Ansatz wurde auf eine Datenbank geologischer Projekte angewendet, die seit mehreren Jahrzehnten von der Republik Serbien finanziert werden. Jedes Dokument in dieser Datenbank wird durch einen zusammenfassenden Bericht beschrieben, der aus Metadaten zum geologischen Projekt besteht, wie Titel, Domäne, Schlüsselwörter, Zusammenfassung und geografische Lage. Aus diesen Metadaten wurde mit Hilfe von morphologischen Wörterbüchern und Transducern ein Sack voller Wörter erzeugt, während benannte Entitäten mit einem regelbasierten System erkannt wurden. Beide wurden dann für die Vorindexierung von Dokumenten für Informationsabrufzwecke verwendet, wobei die Rangfolge der abgerufenen Dokumente auf mehreren basierte;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27932-9_15 7178f1a9edf4bae63949fbc77ca514a1;de;;;7.2.;;;Prägnante Argumente von Multi-Prover Interactive Proofs und ihre Effizienzvorteile sind rechensichere Wissensbeweise für NP, bei denen die Laufzeit des Verifizierers unabhängig von der Zeitkomplexität der NP-nichtdeterministischen Maschine für die betrachtete Sprache ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32009-5_16 dcfc49f8833617c361b58bd45b92b49a;de;;;7.1.;;;ERFOLGREICHE INTERNATIONALE SYSTEME AUFBAUEN Während Unternehmen nach neuen Wegen suchen, um aus ihren Investitionen in Unternehmenssysteme geschäftlichen Nutzen zu ziehen, versuchen sie natürlich, ihre Systeme extern mit Lieferanten, Kunden und anderen Geschäftspartnern zu integrieren, indem sie sogenannte interorganisationale Systeme (IOS) implementieren. Obwohl viele Unternehmen erhebliche Vorteile von IOS erkannt haben, ist klar, dass noch viel mehr Verbesserungen erzielt werden können. Der Schlüssel zur Realisierung zusätzlicher Vorteile liegt darin, IOS auf dem Verständnis aufzubauen, dass die Vorteile, die ein Unternehmen von IOS erhält, nicht nur von seinen eigenen Implementierungsentscheidungen, sondern auch von denen seiner Geschäftspartner abhängen. Dieses Papier untersucht die Bedingungen, die die Realisierung von IOS fördern und hemmen, stellt zwei Beispiele von Unternehmen vor, die diese Bedingungen erfolgreich angegangen sind, und untersucht, warum einige Organisationen es schwierig finden, diese Beispiele nachzuahmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-5347-4_4 e55793945b61d1dfceb904f005b9e199;de;;;7.1.;;;Kinderleicht – Eine literaturbasierte Umfrage zu gamifizierten Instrumenten und Methoden zur Förderung der Bürgerbeteiligung in der Stadtplanung Da Stadtplanungsprozesse oft komplex und langwierig sind, muss die Förderung der Bürgerbeteiligung in diesem Sektor als große Herausforderung angesehen werden. Dennoch bietet die bisherige Forschung zu diesem Thema verschiedene Lösungsansätze, die darauf abzielen, dieses Problem anzugehen, entweder durch den Fokus auf spielerische Formate oder auf Gamification und Serious Gaming. Diese Ansätze werden oft separat betrachtet und liefern vielversprechende Stärken zur Verbesserung der Bürgerbeteiligung im urbanen Raum. Daher erscheint eine Zusammenfassung dieser Strategien lohnenswert und wird daher in diesem Papier weiter untersucht. Um aktuelle Arbeiten zu diesem Thema systematisch zu analysieren, wird der Beitrag über eine literaturbasierte Klassifikation verschiedener Stadien der Bürgerbeteiligung strukturiert, die unterscheiden, ob Bürger;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-64322-9_3 680a4c669dc672e13b90c4c8e5f00204;de;;;7.2.;;;Zufälliger Rundgang auf Themenebene durch das probabilistische Modell In diesem Beitrag untersuchen wir das Problem des Random Walks auf Themenebene, der den Random Walk auf Themenebene betrifft. Zuvor wurden mehrere verwandte Arbeiten wie zum Beispiel themenbezogenes Page Rank durchgeführt. Allerdings wurden Themen in diesen Methoden vordefiniert, wodurch die Methoden nicht auf verschiedene Domänen anwendbar sind. In diesem Beitrag schlagen wir einen vierstufigen Ansatz für den Random Walk auf Themenebene vor. Wir verwenden ein probabilistisches Themenmodell, um Themen automatisch aus Dokumenten zu extrahieren. Dann führen wir den Random Walk auf Themenebene durch. Wir schlagen auch einen Ansatz vor, um Themen der Abfrage zu modellieren und dann den Random-Walk-Ranking-Score mit dem Relevanz-Score basierend auf den Modellierungsergebnissen zu kombinieren. Experimentelle Ergebnisse an einem realen Datensatz zeigen, dass unser vorgeschlagener Ansatz die Basismethoden der Verwendung von Sprachmodellen und die der Verwendung von traditionellem PageRank deutlich übertreffen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00672-2_16 880704343d223ad12430879bd7560524;de;;;7.2.;;;Die Studie zum inhaltsbasierten Multimedia-Datenabrufsystem In letzter Zeit hat der Fortschritt in der Hardware und der Kommunikationstechnologie die Nachfrage nach vielfältigen Multimedia-Informationen, die einschließlich aller Bilder, Audio-, Video-, Text-, numerischen Daten usw Funktionen der Datenspeicherung, Suche, Übertragung, Anzeige usw. Das neueste Bildabrufsystem wird sukzessive von einem textbasierten auf ein inhaltsbasiertes Retrieval umgestellt, das den Bildinhalt selbst als Features nutzt. Beim inhaltsbasierten Abruf wird die Kombination von Farbe, Form, Layout, Textur usw., die zur Beschreibung jedes Bildes oder Objekts verwendet werden, als ein wichtiges Element angesehen. Das existierende Verfahren hat hauptsächlich Histogramme aus dem inhaltsbasierten Bildverfahren unter Verwendung von Farbinformationen verwendet, aber dies hat den Nachteil, dass es empfindlich auf die Helligkeit des Lichts und die Objektgröße im Bild ist. Somit soll das vorliegende Verfahren ein System entwerfen und implementieren, das Bilder ähnlich dem Abfragebild aus einer Bilddatenbank abrufen kann, ohne Bildinformationen bei der Verwendung von Farbmerkmalen zu verlieren.;-;-;-;https://link.springer.com/article/10.1007/s11042-011-0758-5 070f5820bbaf9427325f00c67f0e5bbf;de;;;7.2.;;;Das „M-Wort“: Multimediale Schnittstellen und ihre Rolle in interaktiven Lernsystemen Wie im Vorwort der Herausgeber besprochen, verwenden viele Autoren Begriffe mit einer scheinbar ungenauen Vorstellung von ihrer Bedeutung – und von dem, was der Leser unter ihnen versteht. Dieses Kapitel leistet einen wertvollen Beitrag, indem es Definitionen vorschlägt, die zwei wichtige Konzepte unterscheiden:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-58126-7_1 c06367460e76d36f5252ee88e22df14a;de;;;7.2.;;;Risikobewertung eines virtuellen Unternehmens basierend auf der umfassenden Bewertungsmethode Fuzzy Für die organisatorische Spezialität eines virtuellen Unternehmens steht das Unternehmen vor komplizierteren Risikomanagementproblemen als in einem traditionellen Unternehmen. Daher haben die Analyse der wichtigsten Einflussfaktoren auf das Risiko und die eingehende Bewertung des Risikomanagementniveaus für ein virtuelles Unternehmen ihre wichtige und realistische Bedeutung. Ausgehend vom Aspekt des Lebenszyklus unterteilt dieses Papier den Zyklus eines virtuellen Unternehmens in vier Zeiträume, nämlich Erkennungszeitraum, Bauzeit, Betriebszeit und Kündigungszeitraum. Danach analysiert dieses Papier die möglichen Risiken, die in jeder Periode auftreten und erstellt ein System von Risikoindikatoren. Demnach konstruiert der Beitrag ein Risikobewertungsmodell basierend auf der Fuzzy-Mathematik-Theorie, übernimmt dieses Modell dann zur Bewertung der Projektrisiken virtueller Unternehmen und bezeugt seine Wirksamkeit abschließend anhand eines Beispiels.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75466-6_8 8a0d033249b3ddf6e40fd06fc6dbe32e;de;;;7.1.;;;Microflows: Automatisierte Planung und Umsetzung dynamischer Workflows mit semantisch annotierten Microservices Unternehmen stehen zunehmend unter Druck, ihre Geschäftsprozesse schnell und flexibel an externe und interne Software und andere Veränderungen anzupassen. Um der schnellen Änderung und Bereitstellung von Softwarefunktionen gerecht zu werden, haben sich Microservices als beliebter Architekturstil zur Aufteilung der Geschäftslogik in kleine Dienste entwickelt, auf die mit leichtgewichtigen Mechanismen zugegriffen werden kann, was zu einem höheren Grad an dynamischer Integration von Informationsdiensten in Prozesse führt. Aktuelle prozessbewusste Informationssysteme verlassen sich in der Regel auf manuell vorkonfigurierte statische Prozessmodelle und weisen während der Prozessdurchführung Herausforderungen bei der Reaktion auf unvorhergesehene dynamische Veränderungen auf. Dieses Whitepaper stellt Microflows vor, einen automatischen leichtgewichtigen deklarativen Ansatz für die Workflow-zentrierte Orchestrierung von semantisch annotierten Microservices mit agentenbasierten Clients, graphbasierten Methoden und den leichtgewichtigen semantischen Vokabularen JSON-LD und Hydra. Eine Fallstudie zeigt die Vorteile des Ansatzes für die Automatisierung der Workflow-Modellierung und -Umsetzung in einer dynamischen Microservice-Umgebung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-57222-2_9 9d4dafcb902cec2981231e2543617552;de;;;7.1.;;;IT-Ausbildung für Hotelmanager Welches Maß an Verständnis benötigen Studierende des Hospitality Managements für die Informationstechnologie, um ihre zukünftigen Rollen in der Industrie zu erfüllen? Dieses Dokument beschreibt Computerkurse, die im Bereich Hospitality Management im australischen TAFE-Sektor angeboten werden, und wie diese Kurse versuchen, die Anforderungen der Branche zu erfüllen. In letzter Zeit hat sich die Art und Weise, wie Gaststätten Informationssysteme beziehen, erheblich verschoben, weg vom Bau kundenspezifischer Systeme hin zu spezialisierten Paketsystemen. Neue Lehrplanentwicklungen spiegeln diese Veränderungen in der Branche wider.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35089-9_24 9123c3df23adfdd536400ee0b5c9dcfe;de;;;7.1.;;;SPIELE: Grünes aktives Energiemanagement in IT-Service-Centern Die Vision des kürzlich gestarteten europäischen Forschungsprojekts GAMES ist eine neue Generation energieeffizienter IT-Servicezentren, die sowohl die Eigenschaften der im Zentrum laufenden Anwendungen als auch kontextbezogene Anpassungsfunktionen berücksichtigt, die sowohl auf Anwendungsebene aktiviert werden können und innerhalb der IT- und Versorgungsinfrastruktur. Die Adaptivität auf Anwendungsebene basiert auf dem serviceorientierten Paradigma, das eine dynamische Zusammensetzung und Neuzusammensetzung von Diensten ermöglicht, um mit den Benutzern etablierte Quality of Service Levels zu gewährleisten. Auf Infrastrukturebene wird Anpassungsfähigkeit angestrebt, indem die Systemkomponenten je nach Zustand des Servicezentrums dynamisch ein- und ausgeschaltet werden können. Diese beiden Perspektiven werden jedoch normalerweise getrennt betrachtet, wobei auf verschiedenen Ebenen Anwendungen und Infrastruktur verwaltet werden. Während Leistung und Kosten in der Regel die Hauptparameter sind, die sowohl während des Entwurfs als auch während der Laufzeit berücksichtigt werden, ist die Energieeffizienz des Servicezentrums normalerweise kein Problem. Da jedoch der Einfluss von Service-Centern auf den weltweiten Energieverbrauch immer wichtiger wird und die Energieressourcen insbesondere in Spitzenzeiten immer knapper werden, ist eine effiziente Energienutzung in Service-Centern ein wichtiges Tor. Im GAMES-Projekt werden Ziele zur Verbesserung der Energieeffizienz auf der Grundlage der Nutzung der Adaptivität, des Aufbaus einer Wissensbasis zur Bewertung der Auswirkungen der Anwendungen auf den Energieverbrauch des Servicecenters und der Nutzung der Anwendungsmerkmale für eine verbesserte Ressourcennutzung angegangen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17722-4_17 51184655630de8800e245cc5684d1163;de;;;7.1.;;;In der Stimmung, Technologie zu verstehen: Eine Längsschnittstudie über diskursive Praktiken beim Londoner Rettungsdienst Dieses Papier befasst sich damit, wie eine Organisation, die bei der Implementierung eines Informationssystems eine schwere Katastrophe erlebte, versucht hat, ihr Identitätsgefühl wiederherzustellen, während sie gleichzeitig auf sektorale und nationale Vorgaben reagiert hat, die den Einsatz von Informationstechnologie als Mittel zur Verbesserung ihrer Leistung fortsetzen. Die Organisation ist der London Ambulance Service (LAS). Die Katastrophe ereignete sich vor 10 Jahren während der LASCAD-Implementierung (LAS Computer Aided Despatch) im Oktober 1992. Die Institutionen, die die weitere Einführung der Informationstechnologie vorschreiben, sind das Gesundheitsministerium, die britische Regierung und die Volkspresse, die als Hüter der öffentliches Interesse. Diese Forschung befasst sich mit den Diskursen über die Implementierung von Informationssystemen (IS), die in den letzten 10 Jahren am LAS stattgefunden haben, wie sie von Institutionen eingerahmt und durch lokale Erinnerungen geprägt wurden. Darüber hinaus thematisiert sie das emotionale Medium, in dem diese Diskurse nach den Ereignissen vom Oktober 1992 stattgefunden haben. Dabei betrachtet die Forschung die emotionalen und kognitiven Dimensionen der IS-Implementierung und -Nutzung oder wie eine dauerhafte Stimmung und ein durchdringender Modus der Argumentieren und Handeln durchdrangen sich im letzten Jahrzehnt in drei IS-Projekten am LAS.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35634-1_23 0603811bb66675a424a8cbcb3880392f;de;;;7.2.;;;Eine String-Ähnlichkeitsbewertung für die Ausrichtung von Ontologien im Gesundheitswesen an HL7-FHIR-Ressourcen Gegenwärtige Gesundheitsdienste verlangen die Umwandlung von Gesundheitsdaten in einen gegenseitigen Weg unter Einhaltung der Standards für die Verwirklichung des Datenaustauschs, wodurch die Anforderungen an die Interoperabilität erhöht werden. Die meisten der entwickelten Techniken, die dieses Feld adressieren, befassen sich nur mit spezifischen Eins-zu-eins-Szenarien der Datentransformation. Unter diesen Lösungen gilt die Übersetzung von Gesundheitsdaten in Ontologien als Antwort auf die Interoperabilität. Bei Ontologietransformationen werden jedoch unterschiedliche Begriffe für dasselbe Konzept erzeugt, was zu klinischen Fehlinterpretationen führt. Um dies zu vermeiden, werden Ontologie-Alignment-Techniken verwendet, um verschiedene Ontologien basierend auf spezifischen String- und semantischen Ähnlichkeitsmetriken abzugleichen, wobei sehr wenig systematische Analyse durchgeführt wurde, welche String-Ähnlichkeitsmetriken sich besser verhalten. Um diese Lücke zu schließen, untersuchen wir in diesem Papier die Suche nach der effizientesten String-Ähnlichkeitsmetrik, basierend auf einem bestehenden Ansatz, der jeden Gesundheitsdatensatz in HL7-FHIR umwandeln kann, indem letzterer in Ontologien übersetzt und durch syntaktische semantische Ähnlichkeiten. Die Bewertung dieses Ansatzes erfolgt anhand der String-Ähnlichkeitsmetriken der Levenshtein-Distanz, Cosinus-Ähnlichkeit, Jaro-Winkler-Distanz und Jaccard-Ähnlichkeit, was dazu führt, dass die Levenshtein-Distanz zuverlässigere Ergebnisse bei der Behandlung von Ontologien im Gesundheitswesen liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-22871-2_68 b7cca1a71a1fbba8feb3260fafc10b9c;de;;;7.2.;;;MPEG-7-Funktionen in Hilbert-Räumen: Abfragen ähnlicher Bilder mit linearen Überlagerungen Diese Arbeit untersucht die Analogien zwischen einer Information Retrieval (IR)-Aufgabe und dem Prozess der Messung einer beobachtbaren Größe in der Quantenmechanik (QM), angewendet auf digitale Bilder, die durch MPEG-7 Visual Descriptors repräsentiert werden. Bildcluster werden als Überlagerungen von Vektoren beschrieben, wobei die Verteilung der Merkmalswerte aller Mitglieder berücksichtigt wird. Ähnlichkeitsbewertungen werden unter Verwendung der geometrischen Struktur von Hilberträumen mit einem Teil der QM-Regeln berechnet und verwendet, um Clusterzuordnungen zu berechnen. Um die Methode zu testen, wurde ein Softwareprototyp entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24971-6_24 ab6ea1295626553f1d5dec5ea9c868d4;de;;;7.2.;;;Semantisches strukturelles Ähnlichkeitsmaß für das Clustering von XML-Dokumenten Das semantische Clustern von XML-Dokumenten ist zu einer großen Herausforderung in der XML-Datenverwaltung geworden. Das zentrale Forschungsthema besteht darin, die Ähnlichkeitsfunktionen von XML-Dokumenten zu finden. Frühere Arbeiten haben jedoch der Topologiestruktur mehr Bedeutung beigemessen als den semantischen Informationen. In diesem Artikel basiert die Berechnung der Ähnlichkeit zwischen zwei XML-Dokumenten sowohl auf strukturellen als auch auf semantischen Informationen. Dann wird eine minimale Spanning-Tree-Clustering-Methode verwendet, um XML-Dokumente zu clustern. Die Versuchsergebnisse zeigen, dass das neue Verfahren in Bezug auf Reinheit und Randindex besser abschneidet als das Basislinien-Ähnlichkeitsmaß.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05250-7_25 89e5e0aeb5fc73fd33656fe8ea4be5a7;de;;;7.2.;;;Mechanische Impedanz als Kopplungsparameter von Kraft- und Durchbiegungswahrnehmung: experimentelle Auswertung In diesem Beitrag wird die mechanische Impedanz eines menschlichen Probanden als potentieller Kopplungsparameter zwischen Kraft- und Auslenkungswahrnehmung untersucht. Es wurden Messungen der Kraftwahrnehmungsschwelle von 27 Probanden an der Fingerspitze und der mechanischen Impedanz von 29 Probanden am gleichen Ort im Frequenzbereich von 5 ... 1000 Hz durchgeführt. Aus den Ergebnissen wurde ein Modell für die Impedanz angepasst und Schwellenwerte für die Wahrnehmung von Auslenkungen berechnet. Diese wurden mit bereits veröffentlichten Schwellenwerten anderer Forschungsgruppen verglichen. Die Ergebnisse zeigen eine gute Anpassung beider Datensätze und bestätigen somit die mechanische Impedanz als Kopplungsparameter zwischen diesen beiden Wahrnehmungsdimensionen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31401-8_18 b2b07d2f0c69d0951aff0c90d94d2877;de;;;7.2.;;;Evaluierung eines Informationsintegrationssystems zum Brandverhalten für südkalifornische Chaparral Wildlands Der enge Kontakt zwischen trockenen, feuergefährdeten Chaparral-Wildgebieten und der Stadtentwicklung in Südkalifornien führt zu Flächenbränden, die 200.000 ha verbrannt, 700 Bauwerke zerstört und in einem einzigen Jahr 16 Menschenleben gefordert haben. 1972 gründete der US-Kongress FIRESCOPE, um südkalifornische Feuerwehr- und Notfalldienste zu unterstützen und Computermethoden zur Simulation des Verhaltens von Waldbränden zu entwickeln.;-;-;-;https://link.springer.com/article/10.1007/BF01866240 faf342c3a146025506910304257e77ad;de;;;7.2.;;;Evaluation des Semantic Data Quality Management Framework (SDQM) In diesem Kapitel evaluieren wir den vorgeschlagenen SDQM-Ansatz. Die Evaluationsmethodik von SDQM ist in drei Teile gegliedert. Der erste Teil befasst sich mit der Bewertung der Präzision und des Abrufs der Algorithmen zur Überwachung und Bewertung der Datenqualität von SDQM. Der zweite Teil evaluiert die praktische Anwendbarkeit von SDQM durch Anwendung des Frameworks auf drei verschiedene Use Cases, nämlich einen Business Use Case auf Materialstammdaten einer großen Organisation, einen Semantic Web Use Case mit Daten aus DBpedia und einen Use Case, der Fähigkeit von SDQM, inkonsistente Datenanforderungen automatisch zu erkennen. Im dritten Teil der Evaluation wird SDQM mit einem herkömmlichen Datenqualitätstool verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-12225-6_9 7fd75904ca71f1477c2214c500a2841f;de;;;7.1.;;;Was ist Eigeninitiative? In diesem Papier werden einige alternative Theorien zur Erklärung des Begriffs „Initiative“ vorgestellt, wie er beim Entwurf von KI-Systemen mit gemischten Initiativen verwendet wird. Obwohl im Bereich der interaktiven Systeme mit gemischten Initiativen derzeit aktiv geforscht wird, scheint es auf diesem Gebiet keinen wirklichen Konsens darüber zu geben, was der Begriff „Initiative“ tatsächlich bedeutet. Durch die Beschreibung verschiedener möglicher Ansätze zur Modellierung von Initiative wollen wir die potenzielle Bedeutung jeder einzelnen Theorie für die Gestaltung gemischter Initiativsysteme aufzeigen. Der Aufsatz schließt mit einer Zusammenfassung einiger der wichtigsten Gemeinsamkeiten der Theorien und einem Kommentar zu den inhärenten Schwierigkeiten der Übung, wodurch die Einschränkungen verdeutlicht werden, die bei der Gestaltung solcher Theorien als Grundlage für die Gestaltung von Systemen mit gemischten Initiativen notwendigerweise angetroffen werden.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008398023083 80319b18478f05075c121ac408a1a7e5;de;;;7.1.;;;Räumliche Beschränkungsmodellierung mit einer GIS-Erweiterung von UML und OCL: Anwendung auf landwirtschaftliche Informationssysteme In zahlreichen Fällen ist die Modellierung von Geographischen Informationssystemen (GIS) eine schwierige Aufgabe. Diese Tatsache ist teilweise auf die natürliche Komplexität von Raumtypen und Invarianten zurückzuführen. Basierend auf dieser Beobachtung zielt der vorliegende Beitrag darauf ab, die Unified Modeling Language (UML) und die zugehörige Object Constraint Language (OCL) zu spezialisieren, um den Entwurf von GIS zu erleichtern. Es werden eine vollständige Studie der vorgeschlagenen Erweiterungen sowie mehrere eingehende Experimente im Bereich der landwirtschaftlichen Informationssysteme vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/11518358_13 b97555cdec4516bb17c83d3d6fafabef;de;;;7.1.;;;Entwicklung und Zukunft des Management Accounting in Japan und den USA: Managementphilosophien im Vergleich Das Management Accounting in Japan durchlief nach dem Zweiten Weltkrieg zwei Hauptentwicklungsstadien. In der ersten Periode gab die japanische Regierung dem Import von fortgeschrittenem Management und Rechnungswesen aus dem Westen einen Impuls und wurzelte in privaten Unternehmen. Später schufen und etablierten viele große japanische Unternehmen, befreit von staatlichen Zwängen, positiv ein neues Management Accounting im japanischen Stil:;-;-;-;https://link.springer.com/chapter/10.1057/9781403948151_3 f00e51cb44a024b4e2e62403dc95c9e8;de;;;7.1.;;;Prozessinteraktion in IS-Entwicklungsprojekten verstehen und managen Softwarebasierte Informationssysteme müssen als Teil des geschäftlichen Wandels entwickelt und implementiert werden. Dies ist eine große Herausforderung, da Business Change und die Entwicklung softwarebasierter Informationssysteme meist in getrennten Prozessen erfolgen. Daher besteht ein Bedarf, die Beziehung zwischen diesen beiden Arten von Prozessen zu verstehen und zu verwalten. In diesem Beitrag greifen wir auf eine Längsschnitt-Fallstudie zurück. Wir schlagen einen Rahmen vor, um den Fall als Interaktion zwischen Softwareentwicklungsprozessen und organisatorischen Veränderungsprozessen zu analysieren. In der Analyse stellen wir fest, dass das Framework uns ermöglicht, kritische Ereignisse im Fall zu verstehen, was zu den Ereignissen geführt hat und was die Folgen sind. Wir diskutieren die Implikationen für die Wirtschaftsinformatik und diskutieren insbesondere den Beitrag iterativer und inkrementeller Softwareentwicklung zum Projektmanagement.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32270-9_2 4b75b97f8b4d16ed25181d71a5f46026;de;;;7.1.;;;Intercompany Supply Chain Management basierend auf einem ganzheitlichen E-Business-Konzept Diese Fallstudie zum Supply Chain Management zeigt, wie die Hermes Schleifmittel GmbH & Co. durch einen kombinierten organisatorischen und technologischen Ansatz ihre inner- und zwischenbetrieblichen Lieferketten verbessert hat. Das Konzept der fraktalen Gesellschaft ist die Grundlage für die strukturelle und organisatorische Gestaltung. Auf der IT-Seite wurde der Wandel durch die Einführung eines integrativen Betriebsinformationssystems an allen Produktionsstandorten ermöglicht. Die inner- und zwischenbetriebliche Lieferkette von Hermes wird nach dem Supply Chain Open Reference (SCOR) Modell des Supply Chain Council beschrieben. Es umfasst die Kundenbeziehungen zwischen den Lieferanten, den autonomen Produktionsstandorten der Hermes-Gruppe und den Kunden. Die Umsetzung eines ganzheitlichen E-Business-Konzepts ermöglicht eine Automatisierung von Standard-Business-Events, die durch Reduzierung der Durchlaufzeiten und des Personalaufwands zu einer Effizienzsteigerung führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55792-7_11 4f13f18461d62b69c85faa54295f1b65;de;;;7.2.;;;Neuheit und Vielfalt in Empfehlungssystemen Neuheit und Vielfalt wurden zusammen mit Genauigkeit als wichtigste Eigenschaften nützlicher Empfehlungen identifiziert. Auf diesem Gebiet wurden beträchtliche Fortschritte in Bezug auf die Definition von Methoden zur Verbesserung solcher Eigenschaften sowie von Methoden und Metriken zur Bewertung der Funktionsweise solcher Methoden erzielt. In diesem Kapitel geben wir einen Überblick über die wichtigsten Beiträge zu diesem Bereich im Bereich der Empfehlungssysteme und versuchen, sie in einer einheitlichen Sichtweise miteinander zu verbinden, indem wir die gemeinsamen Elemente analysieren, die den verschiedenen Formen zugrunde liegen, in denen Neuheit und Vielfalt angesprochen wurden, und Identifizierung von Verbindungen zu eng verwandten Arbeiten zur Vielfalt in anderen Bereichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-7637-6_26 c3a38063a26d60259b7eb16d9579a0b2;de;;;7.2.;;;Eine skalierbare Suche nach dem nächsten Nachbarn in P2P-Systemen Die Ähnlichkeitssuche in metrischen Räumen stellt in vielen Anwendungen ein wichtiges Paradigma für die inhaltsbasierte Abfrage dar. Bestehende zentralisierte Suchstrukturen können den Abruf beschleunigen, aber sie können nicht auf große Datenmengen skaliert werden, da die Antwortzeit linear mit der Größe der durchsuchten Datei ansteigt. In diesem Artikel untersuchen wir das Problem der Ausführung der Abfragen des nächsten Nachbarn in einer verteilten metrischen Struktur, die auf dem P2P-Kommunikationsparadigma und der verallgemeinerten Hyperplane-Partitionierung basiert. Durch die Ausnutzung der Parallelität in einem dynamischen Computernetzwerk lässt sich die Abfrageausführung sehr gut skalieren, wenn sowohl die Anzahl der Entfernungsberechnungen als auch die Anzahl der Hops zwischen den Peers berücksichtigt werden. Die Ergebnisse werden durch Experimente an realen Datensätzen verifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-31838-5_6 0248cb1ec9ef6824b4b8fd2e2b8f4ac8;de;;;7.2.;;;Untersuchung des Tragekomforts von Uniformhemden aus Zellulose unter Berücksichtigung der Umweltbelastung Ziel dieser Studie ist es, den Tragekomfort von Uniformhemden zu bewerten und den geeigneten Wert für die voreingestellte Temperatur von Klimaanlagen durch Messung von Materialeigenschaften und psychophysiologischen Reaktionen zu untersuchen. Das Uniformhemd wurde aus Zellulosematerialien wie Rayon und Tencel hergestellt, um es unter heißen Bedingungen wie den Sommern in Japan zu tragen. Die Messung der Materialeigenschaften erfolgte gemäß dem Kawabata Evaluation System (KES), Japan Industrial Standards (JIS) und Moisture Management Tester (MMT). Physiologische Reaktionsmessungen waren Elektrokardiogramm (EKG), Atmung, Hauttemperatur und die Feuchtigkeit in der Kleidung. Die Messung der psychologischen Reaktion erfolgte durch die semantische Differenzialmethode und die Rangfolgemethode. Wir kamen zu dem Schluss, dass die Uniformhemden aus Viskose auch bei heißen Bedingungen wie dem Sommer in Japan bequem sind. 29°C, da die Temperatureinstellung von Klimaanlagen für den Menschen zu heiß ist. Die Atmung scheint ein wichtiger Faktor für die Bewertung des Tragekomforts zu sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24369-6_44 8a36bd65644f9f461162313b9e2e768a;de;;;7.2.;;;Anpassung der Filterreihenfolge basierend auf der Attraktorauswahl für das Datenrundfunksystem Die jüngste Verbreitung verschiedener Datenrundfunkdienste führt dazu, dass enorme und vielfältige heterogene Daten bereitgestellt werden. Da Daten, die ein Kunde benötigt, ein Teil davon sind, besteht ein zunehmendes Interesse an Informationsfilterungstechniken, bei denen ein Kunde automatisch die erforderlichen Daten auswählt und speichert. Wenn ein Client eine Filterung durchführt, wendet er im Allgemeinen einige Filter nacheinander an, und die zum Filtern erforderliche Zeit ändert sich entsprechend der Reihenfolge der Filter. Andererseits gab es in den letzten Jahren viele Studien über die Attraktorauswahl, die eine autonome Parameterkontrolltechnik ist, die auf dem Wissen von lebenden Organismen basiert. Um die Filterbelastung zu reduzieren, schlagen wir in diesem Kapitel neuartige Verfahren vor, die die Filterreihenfolge adaptiv entsprechend der Änderung des Sendeinhalts ändern. Diese Verfahren entscheiden adaptiv die Steuerparameter zum Filtern unter Verwendung einer Attraktorauswahl.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-1636-5_8 dd7d7ccffc967e2826663cd8b09f373a;de;;;7.2.;;;Automatisches Zusammenführen von Straßenvektordaten mit Orthoimagery Die jüngste Zunahme von Geoinformationen im Web hat den einfachen Zugriff auf eine Vielzahl von Geodaten ermöglicht. Die Fähigkeit, verschiedene Geodatensätze zu einem einzigen zusammengesetzten Datensatz zu kombinieren, ist eines der zentralen Themen der modernen Geoinformationsverarbeitung. Durch die Zusammenführung verschiedener Geodatensätze kann man eine Vielzahl von Abfragen unterstützen, die mit keinem dieser Datensätze isoliert beantwortet werden könnten. Die automatische Zusammenführung von Geodaten aus verschiedenen Datenquellen bleibt jedoch eine anspruchsvolle Aufgabe. Dies liegt daran, dass aus verschiedenen Datenquellen erhaltene Geodaten unterschiedliche Projektionen, unterschiedliche Genauigkeitsstufen und unterschiedliche Formate (z. B. Raster- oder Vektorformat) aufweisen können, was zu unterschiedlichen Positionsinkonsistenzen führt. Die meisten der existierenden Algorithmen befassen sich nur mit der Vektor-zu-Vektor-Daten-Zusammenführung oder erfordern menschliches Eingreifen, um die Vektor-Daten-zu-Bild-Zusammenführung zu erreichen. In diesem Artikel beschreiben wir einen neuartigen Ansatz zur Fusion von Geodaten mit dem Namen AMS-Conflation, der eine automatische Vektor-zu-Bild-Zusammenführung erreicht. Wir beschreiben eine effiziente Technik, um automatisch Kontrollpunktpaare aus den Orthobildern und Vektordaten zu erzeugen, indem die Informationen aus den Vektordaten genutzt werden, um eine lokalisierte Bildverarbeitung an den Orthobildern durchzuführen. Wir evaluieren auch eine Filtertechnik, um automatisch ungenaue Paare aus den generierten Kontrollpunkten zu eliminieren. Wir zeigen, dass diese Zusammenführungstechniken die Straßen automatisch in Orthobildern ausrichten können, sodass 75 % der zusammengeführten Straßen innerhalb von 3,6 Metern von den realen Straßenachsen entfernt sind, verglichen mit 35 % der ursprünglichen Vektordaten für Teilgebiete der Grafschaft St. Louis , MO.;-;-;-;https://link.springer.com/article/10.1007/s10707-006-0344-6 c9bb2bdc6119157777a32a73bd819068;de;;;7.1.;;;Das Enterprise-Design-Framework trifft das System für Systemmethodiken Im ersten Teil der Arbeit wird ein Rahmen skizziert, der organisatorische Prozesse aus einer Lernperspektive modelliert. Dieses Framework ist als Enterprise Design Framework (EDF) bekannt und wurde über mehrere Jahre entwickelt, um die Arbeit im Bereich der allgemeinen Unternehmensberatung zu unterstützen. Der EDF wird dann mit dem System für Systemmethodiken berechnet. Die Komplementarität der beiden Modelle wird diskutiert und es werden Wege aufgezeigt, wie sie sich gegenseitig verfeinern. Die Verwendung des verfeinerten EDF wird veranschaulicht, indem er auf eine Reihe von Themen angewendet wird, die für die Systemgemeinschaft relevant sind.;-;-;-;https://link.springer.com/article/10.1007/BF02253394 312e6a3d44d59d4b79ba355555770e38;de;;;7.2.;;;Aneignung rechtlicher Informationen: Auswertung von Datenbanken für Forschende Dieser Beitrag zeigt die Ergebnisse einer Studie, die im Rahmen eines Projekts der Region Rhône-Alpes mit dem Titel „Textuelles Engineering und digitale Bibliotheken“ durchgeführt wurde. Ziel dieser Umfrage ist es, das Aneignungsverhalten von Rechtstexten durch Rechtsforscher zu aktualisieren, um einen eigenen Arbeitsplatz für den Juristen zu schaffen und ihm den Zugriff und die Aneignung eines digitalen Textes zu ermöglichen. Online-Dienste für rechtliche Informationen werden von Forschern noch wenig genutzt und müssen entwickelt werden, um Benutzern bei der Abfrage von Online-Informationen zu helfen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45268-0_59 13963ff05a0c6af44762712c13dcece3;de;;;7.2.;;;RSGUI mit umgekehrtem Vorhersagealgorithmus Rough Set Graphical User Interface (RSGUI) ist ein Softwaresystem, das für die Entscheidungsfindung auf Grundlage inkonsistenter Daten geeignet ist. Es ist einzigartig in seiner Fähigkeit, den auf groben Sätzen basierenden Umkehrvorhersagealgorithmus anzuwenden. Traditionell werden Bedingungsattributwerte verwendet, um Entscheidungsattributwerte vorherzusagen. Bei der umgekehrten Vorhersage werden die Entscheidungsattributwerte angegeben und die Bedingungsattributwerte, die zu dieser Entscheidung führen würden, vorhergesagt. Die umgekehrte Vorhersage wurde in einer elektronischen Einkaufsanwendung verwendet, um die Eigenschaften von Produkten bereitzustellen, die Kunden kaufen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76973-6_19 fb9365db0a867f0660caee4f118f724c;de;;;7.1.;;;Geschäftsmodellierung bei der Transformation einer Kostenstelle in eine Leistungseinheit In diesem Artikel werden die Erfahrungen beim Aufbau eines Customer Attention Service als erster Schritt zur Transformation der IT-Abteilung in eine Service-Unit dargestellt. Der Einsatz verschiedener Modellierungstechniken in verschiedenen Phasen des Projekts mit dem Titel GESU wird beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35067-7_20 93a163ef2c89f0f890bc021eb419431e;de;;;7.1.;;;Ausdruck des Designproblems durch Design Space Model zur Unterstützung des kollaborativen Designs im Grundplan des Architekturdesigns Beim kollaborativen Design treten die Unterschiede zwischen den Designern wahrscheinlich in Bezug auf Sichtweisen und Erkennungslücken von Designproblemen auf. Es wird Zeit und Arbeit für die Designer kosten, sich das gemeinsame Bewusstsein für die Probleme anzueignen. Um das Problem zu lösen und kollaboratives Design zu unterstützen, schlagen wir eine Struktur mit drei Merkmalen als Interaktionsprozessmodell vor: Die Merkmale sind die gemeinsame Sicht auf den Entwurfsraum, das Erfassen der gemeinsamen Suchdomäne und die gegenseitige Bewertung von Entwurfsbeschränkungen. Basierend auf dem Interaktionsprozessmodell wurde als Verifikationsfall das Kollaborationsdesign der Zonenanordnung einer Grundschule durchgeführt, die auf einem Server akkumulierten Gesprächsaufzeichnungen und die Designhistorie analysiert und die Nützlichkeit des Modells verifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15621-2_47 dd4762330d57f1aed75663bf6485245b;de;;;7.1.;;;Mediennutzung und Geschwindigkeit bei der Informationsbeschaffung von Führungskräften: eine explorative Studie Dieses Papier berichtet über eine Feldstudie, die drei wichtige Dimensionen der Informationsnutzung bei der Entscheidungsfindung adressiert: (1) wie sich Kombinationen von Informationsquelle und Medium im Laufe der Zeit im Verlauf von Entscheidungsfindungsprozessen der Führungsebene verändern, (2) wie sich die Geschwindigkeit der Informationsbeschaffung auf die Medienauswahl und (3) wie Mediennutzungsmuster in und aus Meetings einfließen. Die Ergebnisse erweitern die integrierte Literatur zur Informationsbeschaffung und Entscheidungsfindung, führen die Vorstellung ein, dass die Geschwindigkeit der Informationsbeschaffung die Medienauswahl während des Entscheidungsprozesses beeinflusst, und erweitern das Verständnis der Informationsbeschaffung von Führungskräften in der Unternehmenspraxis. Die Autoren identifizieren potenzielle Anwendungen für die Praxis der Informationssysteme und werfen kritische Fragen auf, um die zukünftige Forschung zu fokussieren.;-;-;-;https://link.springer.com/article/10.1057/ejis.1993.37 75e7da8c796b465454d2b22c8a4508ff;de;;;7.1.;;;Effizientes und koordiniertes Checkpointing für zuverlässiges verteiltes Datenstrommanagement Data Stream Management (DSM) adressiert die kontinuierliche Verarbeitung von Sensordaten. DSM erfordert die Kombination von Stream-Operatoren, die auf verschiedenen verteilten Geräten ausgeführt werden können, in Stream-Prozessen. Aufgrund der jüngsten Vorteile bei Sensortechnologien und drahtloser Kommunikation gewinnt DSM in verschiedenen Anwendungsdomänen zunehmend an Bedeutung. Gerade im Gesundheitswesen kann die kontinuierliche Überwachung von Patienten zu Hause (Telemonitoring) deutlich von DSM profitieren. Eine wesentliche Voraussetzung beim Telemonitoring ist jedoch, dass DSM ein hohes Maß an Zuverlässigkeit bietet. In diesem Papier stellen wir einen neuartigen Ansatz für eine effiziente und koordinierte Checkpointing-Funktion für Strombetreiber vor, die zuverlässiges DSM unterstützt und gleichzeitig die hohe Ergebnisqualität aufrechterhält, die für Anwendungen im Gesundheitswesen erforderlich ist. Darüber hinaus präsentieren wir Evaluierungsergebnisse unseres Checkpointing-Ansatzes, der in unserer Prozess- und Datenstrommanagement-Infrastruktur OSIRIS-SE implementiert ist. OSIRIS-SE unterstützt ein flexibles Fehlerhandling sowie ein effizientes und koordiniertes Checkpointing durch eine konsequente Operator-Migration. Dies gewährleistet eine lückenlose und durchgängige Datenstromverarbeitung auch im Fehlerfall.;-;-;-;https://link.springer.com/chapter/10.1007/11827252_23 dc17357944e03db0d1c1e1eaf7bd0b1c;de;;;7.2.;;;Aufbau einer modernen digitalen Infrastruktur für die Speicherung und Analyse von wissenschaftlichen und technologischen Informationen Die Grundlagen, Rahmenbedingungen und konkreten Maßnahmen zur Schaffung einer modernen digitalen Infrastruktur wissenschaftlicher und technologischer Informationen in der Russischen Föderation werden ebenso diskutiert wie organisatorische, politische, wirtschaftliche und rechtliche Aspekte des Aufbaus einer digitalen wissenschaftlichen und technologischen Infrastruktur Information.;-;-;-;https://link.springer.com/article/10.3103/S0147688219020138 2b9fe29a869a6ec939a4dbfc808068f1;de;;;7.2.;;;Tagging der vietnamesischen Wortart basierend auf einem Modell zur Begriffsklärung von Wörtern mit mehreren Kategorien POS-Tagging ist eine grundlegende Arbeit in der Verarbeitung natürlicher Sprache, die die spätere Verarbeitungsqualität bestimmt, und die Mehrdeutigkeit von Wörtern aus mehreren Kategorien wirkt sich direkt auf die Genauigkeit des vietnamesischen POS-Tagging aus. Derzeit hat die POS-Kennzeichnung von Englisch und Chinesisch bessere Ergebnisse erzielt, aber die Genauigkeit der vietnamesischen POS-Kennzeichnung muss noch verbessert werden. Um dieses Problem anzugehen, schlägt dieses Papier eine neue Methode des vietnamesischen POS-Tagging vor, die auf dem Disambiguierungsmodell für mehrere Kategorien von Wörtern und dem Wortart-Wörterbuch basiert , die zum Aufbau des POS-Tagging-Korpus verwendet werden. 396.946 Wörter aus mehreren Kategorien wurden aus dem Korpus extrahiert, unter Verwendung statistischer Verfahren wird das Disambiguierungsmodell der vietnamesischen Wortart mit maximaler Entropie konstruiert, auf dessen Grundlage die Wörter mit mehreren Kategorien und die Wörter ohne mehrere Kategorien markiert werden. Experimentelle Ergebnisse zeigen, dass die in der Arbeit vorgeschlagene Methode besser ist als das bestehende Modell, was bewiesen ist, dass die Methode machbar und effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-73618-1_23 3496113e37539d29abeecb15c4107ca1;de;;;7.2.;;;Kombination von biologischen Datenbanken und Text Mining zur Unterstützung neuer bioinformatischer Anwendungen Ein großer Teil des biologischen Wissens ist heute nur noch aus Volltext-Forschungsarbeiten verfügbar. Da weder manuelle Datenbankkuratoren noch Benutzer mit der schnell wachsenden Menge an wissenschaftlicher Literatur Schritt halten können, gewinnen Ansätze zur Verarbeitung natürlicher Sprache für bioinformatische Projekte zunehmend an Bedeutung.;-;-;-;https://link.springer.com/chapter/10.1007/11428817_28 11a955942243dceb131074a94ed33186;de;;;7.2.;;;EvoTunes: Crowdsourcing-basierte Musikempfehlung In den letzten Tagen gab es viele Versuche, automatisch Musikclips zu empfehlen, von denen erwartet wird, dass sie einem Hörer gefallen. In diesem Beitrag stellen wir ein neuartiges Musikempfehlungssystem vor, das automatisch die direkten Antworten der Hörer über die Zufriedenheit, zwei bestimmte Lieder nacheinander zu spielen, sammelt und sich entsprechend für eine verbesserte Musikempfehlung weiterentwickelt. Unser Musik-Streaming-Webdienst namens „EvoTunes“ wird ausführlich beschrieben. Experimentelle Ergebnisse mit dem Dienst zeigen, dass die Erfolgsrate der Empfehlung im Laufe der Zeit durch den vorgeschlagenen Evolutionsprozess steigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-04117-9_32 742752e258117616146b943595334182;de;;;7.2.;;;Fuzzy Granular Classifier-Ansatz zur Spam-Erkennung Spam-E-Mail-Probleme sind ein Hauptmangel der E-Mail-Technologie für die Computersicherheit. In dieser Forschung wird ein granulares Klassifikatormodell vorgeschlagen, um Hyperboxen in der Geometrie von Informationsgranulaten für die Spam-Erkennung in drei Schritten zu entdecken. Im ersten Schritt wird der k-Means-Clustering-Algorithmus angewendet, um die Seed_points zu finden, um die granulare Struktur der Spam- und Nicht-Spam-Muster aufzubauen. Darüber hinaus erfasst die Anwendung der Intervallanalyse durch die hohe Homogenität der Muster den wesentlichen Teil der Struktur der Spam- und Nicht-Spam-Klassifizierer. Im zweiten Schritt wird der PSO-Algorithmus mit dem k-Means hybridisiert, um die Leistung der formalisierten Informationsgranulate zu optimieren. Das vorgeschlagene Modell wird basierend auf den Kriterien für Genauigkeit, Fehlklassifizierung und Abdeckung bewertet. Experimentelle Ergebnisse zeigen, dass die Leistung unseres vorgeschlagenen Modells durch die Anwendung der Partikelschwarmoptimierung und des Fuzzy-Sets erhöht wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24306-1_25 79fe8a05d14651a67f9ccda64202bfc6;de;;;7.2.;;;Automatische Problemextraktion aus einem fokussierten Dialog Es wurden verschiedene Methoden zur Strukturierung des Prozesses der Domänenmodellierung vorgeschlagen, aber es gibt nur wenige Softwaretools, die den Prozess der Konstruktion eines Domänenmodells automatisch unterstützen. Das Problem ist, dass es schwierig ist, die relevanten Konzepte aus natürlichsprachlichen Texten zu extrahieren, da diese typischerweise viele irrelevante Details enthalten, die von relevanten Konzepten schwer zu unterscheiden sind. In diesem Papier schlagen wir einen alternativen Ansatz vor, um Domänenmodelle aus natürlichsprachlichen Eingaben zu extrahieren. Die Idee ist, dass aus einem natürlichsprachlichen Text, der in einem fokussierten Dialogspiel produziert wird, eine effektivere, automatische Extraktion möglich ist. Wir präsentieren eine Anwendung dieser Idee im Bereich der Vorverhandlung, in Kombination mit ausgeklügelten Parsing- und Transduktionstechniken für natürliche Sprache und relativ einfachen Mustervergleichsregeln. Weiterhin wird ein Prototyp einer konversationsorientierten Experimentierumgebung zur kooperativen Konzeptualisierung vorgestellt. Es wurden mehrere Experimente durchgeführt, um den Ansatz und die Umgebung zu bewerten, und eine Technik zur Messung der Extraktionsqualität wurde definiert. Die Experimente zeigen, dass selbst mit einer einfachen Implementierung des vorgeschlagenen Ansatzes einigermaßen akzeptable Ergebnisse erzielt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73351-5_18 d7e333c277d6f6e85e3239c2ffc1b3e8;de;;;7.2.;;;Formale Sicherheitsanalyse und Leistungsbewertung des Linkable Anonymous Access Protocol Die Einführung von E-Health-Anwendungen hat nicht nur Vorteile gebracht, sondern auch ernsthafte Bedenken hinsichtlich der Sicherheit und des Datenschutzes von Gesundheitsdaten aufgeworfen. Die steigenden Anforderungen an den Zugang zu Gesundheitsdaten haben kritische Fragen und Herausforderungen bezüglich der Vertraulichkeit elektronischer Patientenakten und der Effizienz des Zugangs zu diesen Akten aufgezeigt. Ziel dieser Arbeit ist es daher, einen sicheren und effizienten Zugang zu elektronischen Patientenakten bereitzustellen. In diesem Artikel schlagen wir ein neuartiges Protokoll namens Linkable Anonymous Access Protocol (LAA) vor. Wir verifizieren und analysieren das Protokoll formal anhand von Sicherheitseigenschaften wie Geheimhaltung und Authentifizierung mit dem Casper/FDR2-Verifizierungstool. Darüber hinaus haben wir das Protokoll mithilfe der Java-Technologie implementiert, um seine Leistung zu bewerten. Unsere formale Sicherheitsanalyse und Leistungsbewertung hat bewiesen, dass das LAA-Protokoll den sicheren Zugriff auf elektronische Patientenakten unterstützt, ohne die Leistung zu beeinträchtigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55032-4_51 f675d453991b8275343b363f60497746;de;;;7.2.;;;Bewertung der Komplexität der Informationssystemarchitektur mithilfe von Fraktalen Informationssysteme sammeln, verarbeiten, speichern und geben Informationen zum Nutzen ihrer Stakeholder aus. Sie reichen vom einfachen Smartphone bis zum World Wide Web. Eine Architektur eines Informationssystems repräsentiert eine übergeordnete Ansicht einer bestimmten Facette des Systems. Eine wichtige Sicht auf das Informationssystem bietet seine Informationsarchitektur, die es den Beteiligten ermöglicht, den Informationstransfer zwischen den Systemkomponenten zu visualisieren. Die Bewertung der Komplexität dieser Informationsarchitektur gibt den Beteiligten die Möglichkeit, die aus Informationssicht beste Architektur auszuwählen. In diesem Beitrag schlagen wir vor, die fraktale Dimension als Mittel zur Bewertung der Komplexität der Informationsarchitektur von Systemen zu verwenden. Fraktale sind wiederkehrende Muster auf mehreren Skalen und Fraktale können anhand ihrer Dimensionen bewertet werden. In diesem Papier modellieren wir die Informationsarchitektur als Fraktal, berechnen ihre Dimension und bestimmen ihre Komplexität. Wir entwickeln die Theorie zur fraktalen Komplexitätsbewertung, schlagen Algorithmen für die praktische Anwendung vor und wenden diese zur Bewertung der Komplexität von Architekturen an.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22056-2_34 4f3e992d51c253d78ba795006d7e3f5c;de;;;7.2.;;;Die Macht der kontextuellen Suggestion Der Evaluierungsprozess für den TREC Contextual Suggestion Track nimmt viel Zeit und Ressourcen in Anspruch, dauert mehrere Wochen und kostet Tausende Dollar an Gutachtervergütung. Der Track bewertet eine Point-of-Interest-Empfehlungsaufgabe, wobei Crowdsourcing-Mitarbeiter als Quelle für Benutzerprofile und Bewertungen verwendet werden. Angesichts der Kosten der Bewertung untersuchen wir Streckendaten, um eine Orientierungshilfe für zukünftige Experimente zu dieser Aufgabe zu geben, insbesondere im Hinblick auf die Anzahl der erforderlichen Prüfer. Um einen Einblick zu gewinnen, betrachten wir zunächst die potenziellen Auswirkungen von weniger Gutachtern auf die TREC 2013-Experimente. Anschließend geben wir Empfehlungen für zukünftige Experimente. Unser Ziel ist es, die Kosten zu minimieren und gleichzeitig die Anforderungen dieser Experimente zu erfüllen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16354-3_39 262a9afe7717947dd105aec166e9981d;de;;;7.1.;;;Der Einfluss von Struktur auf Konvergenzaktivitäten mit Gruppenunterstützungssystemen Die Erleichterung von Gruppenentscheidungen und -verhandlungen ist ein breites Thema und hat beträchtliche Aufmerksamkeit erhalten (siehe Kapitel von Ackermann und Eden sowie Richardson und Andersen in diesem Band). Da sich die Forschung zu Group Support Systems (GSS) in den letzten Jahrzehnten weiterentwickelt hat, wurde eine Menge nützliches Wissen über Gruppenprozesse, Ideengenerierung und Entscheidungsfindung gefunden (siehe das Kapitel von Lewis in diesem Band). auf Aspekte der Entscheidungsstruktur (siehe zum Beispiel Kapitel von Salo und Hamalainen, Hujala und Kurttila, diesem Band). Siehe das Kapitel von Kolfshoten et al. in diesem Band: Sie betrachten eine Reihe von Aspekten im Zusammenhang mit Collaboration Engineering. Es gibt jedoch noch Bereiche, die eingehender Forschung bedürfen, um Unsicherheiten zu beseitigen und die computervermittelte Gruppenprozessforschung in die zweite Phase zu bringen Dekade des 21. Jahrhunderts. Zum Beispiel wurde die Fähigkeit, sich auf die würdigsten Ideen zu konvergieren, um sie in Wissen zu übersetzen, in dieser Forschungsliteratur allgemein vernachlässigt. Dies ist angesichts der Bedeutung des Gruppenprozesses bedauerlich, insbesondere angesichts der Menge der von GSS generierten Ideen. In diesem Kapitel liegt unser Fokus auf den Auswirkungen der Struktur auf Konvergenzaktivitäten mit GSS. Die Erfahrung zeigt, dass die Konvergenzdynamik durch Moderation (z. B. Protokoll) sowie durch spezialisierte technologische Unterstützung (z. B. ein „Dashboard“) beeinflusst wird einen kurzen Überblick über die Forschung und präsentiert eine empirische Studie, um die verbleibenden Probleme (und die möglichen Lösungen) sowie Richtungen für die Zukunft zu veranschaulichen lernen.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-9097-3_18 f67971a3bf5d57f72c297580e5cf5b52;de;;;7.1.;;;Die Know-Net-Methode In diesem Kapitel werden die Hauptelemente der Know-Net-Methodik vorgestellt. Diese Methodik wurde als unterstützendes Werkzeug konzipiert, um den Entwurf, die Entwicklung und den Einsatz einer ganzheitlichen Wissensmanagement-(KM)-Infrastruktur zu unterstützen, die auf die Geschäftsstrategie ausgerichtet ist, um die Planung der organisatorischen Veränderungen zu erleichtern, die für den Erfolg von KM erforderlich sind, und um zu zeigen Möglichkeiten, die Auswirkungen der KM-Initiative auf die Gesamtleistung der Organisation zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0069-0_3 b62dc2d2d2f3fb513ddfbe55c3d8b2f8;de;;;7.1.;;;Informationsressourcen Wenn Computer für Mengenvermesser und die Bauindustrie insgesamt von Nutzen sein sollen, müssen Programme mit Blick auf die Bedürfnisse der Benutzer geschrieben werden. Der Informationsbedarf der Industrie muss daher untersucht werden, um die Bereiche zu ermitteln, in denen Computer am nützlichsten wären. Um diesen Nutzen beurteilen zu können, muss die Komplexität der Kommunikation innerhalb der Branche entwirrt werden. Auf diese Weise ist es möglich, die Probleme zu definieren, die durch Computernutzung zufriedenstellend gelöst werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-15681-8_6 1744f61ecc8fd07fe0c52fb0e60aac4a;de;;;7.1.;;;Multiagenten-basierte dynamische Bereitstellungsplanung in einem RTLS-fähigen Automotive Shipment Yard Echtzeit-Informationen zum Fahrzeugstandort ermöglichen eine effizientere Entscheidungsfindung in einer dynamischen Umgebung des Automobil-Lieferhofs. In diesem Beitrag wird ein Multiagenten-basiertes dezentrales Entscheidungsmodell für die Fahrzeugeinsatzplanung in einem Verladebahnhof vorgeschlagen. Eine Multiagenten-Architektur soll dezentrale Algorithmen ermöglichen und verschiedene Agenten dynamisch koordinieren. Die Ergebnisse von Computerexperimenten zeigen, dass das vorgeschlagene Bereitstellungsmodell eine aktuelle Bereitstellungspraxis in Bezug auf die Bereitstellungsleistungskennzahlen übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72665-4_4 0738547611728b5f3937feeceb0cf3c1;de;;;7.1.;;;Nutzungs- und Angebotsdynamik: Eine analytische Linse für die Informationssystemforschung Dieses Papier beschreibt einen doppelten Fokus auf die Dynamik von Nutzung und Angebot als analytische Linse für die Dekonstruktion und Untersuchung des IT-Artefakts. Anschließend wird ein Beispiel für die Anwendung dieses Ansatzes in der empirischen Arbeit gegeben. In den letzten 20 Jahren konzentrierten sich die meisten Forschungsarbeiten entweder auf die organisatorische Nutzung von Informationssystemen oder auf deren Entwicklung und Bereitstellung. Es besteht die Notwendigkeit, diese beiden Bilder in einen kombinierten Fokus zu bringen, um die Entstehung, Definition und Modifikation aufstrebender Systeme zu untersuchen. Aufbauend auf Arbeiten in der Tradition der Innovationsstudien wird eine analytische Linse entwickelt, um das sich entwickelnde IT-Artefakt über die Grenzen von Nutzung und Angebot hinweg zu untersuchen. Seine Anwendung wird in einer Studie zur virtuellen Realität im Bausektor demonstriert. Das Sensemaking in den Softwareunternehmen, die Virtual-Reality-Anwendungen für die Branche bereitstellen, und in den Ingenieur-, Design- und Bauunternehmen, die sie verwenden, wird untersucht. Der Vergleich hat eine Diskrepanz der Prioritäten aufgedeckt, die eine Herausforderung für die Einrichtung und dauerhafte Gültigkeit dieser Anträge darstellt. Der Beitrag schließt mit einer Reflexion darüber, wie dieser Ansatz auf bestehenden theoretischen Verständnissen von Informationssystemen aufbaut und uns helfen kann, diese zu erweitern und wie die Forschung, die diesen Ansatz verwendet, die Praxis beeinflussen kann.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-8095-6_50 954c03bb006e4217e974234bde315ec6;de;;;7.1.;;;Ein pragmatischer Ansatz für das Wissensmanagement in einem KMU im Engineering Design In kleinen und mittleren Unternehmen (KMU) können Wissensmanagementsysteme nicht wie in Großunternehmen berücksichtigt werden. In diesem Beitrag argumentieren wir, dass Wissensmanagement in KMU durch die Schaffung einer Kultur des Wissensaustauschs erreicht werden kann. In diesem Zusammenhang ist es nicht unser Ziel, spezifisches technisches Berufs-Know-how zu formalisieren, sondern einige einfache kontextuelle Wissensdeskriptoren zu formalisieren, die mit den von Akteuren behandelten technischen Objekten verbunden sind. Ein Prototyp-Softwaretool namens KALIS wurde entwickelt, um die Zusammenarbeit zu fördern und den Informations- und Wissensaustausch zwischen Ingenieuren zu unterstützen. Das Framework des Tools basiert auf den Prinzipien des Wissensspeichers und auf drei Arten von Arbeitsbereichen, die mit einem Showroom-Konzept verbunden sind, um die Informationsbeschaffung zu verbessern. Anhand von zwei Beispielen demonstrieren wir die Unterstützung von Ingenieuren bei Projekten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78431-9_26 e49de964ffdc5e4b7c00a6163b56ac0f;de;;;7.2.;;;Vergleich von Crowd-basierten, spielbasierten und maschinenbasierten Ansätzen bei anfänglichen Abfrage- und Abfrageverfeinerungsaufgaben Menschliche Rechentechniken haben ihre Fähigkeit bewiesen, Teile von Aufgaben zu erfüllen, die maschinenbasierte Techniken schwierig finden. Die Abfrageverfeinerung ist eine Aufgabe, die von menschlicher Beteiligung profitieren kann. Wir führen ein Experiment durch, das die Beiträge von zwei Benutzertypen bewertet: studentische Teilnehmer und Crowdworker, die von einem Online-Arbeitsmarkt angeheuert werden. Menschlichen Teilnehmern wird zugewiesen, eine von zwei Abfrageschnittstellen zu verwenden: eine traditionelle webbasierte Schnittstelle oder eine spielbasierte Schnittstelle. Wir bitten jede Gruppe, manuell Abfragen zu erstellen, um auf den Informationsbedarf von TREC zu reagieren und den daraus resultierenden Rückruf und die Genauigkeit zu berechnen. Traditionelle Webinterface-Benutzer erhalten Feedback zu ihren ersten Anfragen und werden gebeten, diese Informationen zu verwenden, um ihre ursprünglichen Anfragen neu zu formulieren. Die Benutzer der Spieloberfläche erhalten eine sofortige Bewertung und bitten darum, ihre Abfragen basierend auf ihren Bewertungen zu verfeinern. Wir messen die resultierende Feedback-basierte Verbesserung für jede Gruppe und vergleichen die Ergebnisse von menschlichen Berechnungstechniken mit maschinenbasierten Algorithmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36973-5_42 bb950cda9f7595cb100062a75de3c205;de;;;7.1.;;;Unternehmensarchitektur: Informierte Steuerung von Unternehmen in Bewegung Unternehmen sind ständig in Bewegung. Neue Technologien, neue Marktchancen, Kostensenkung, Prozessverbesserung, Serviceinnovation, Globalisierung, Fusionen, Übernahmen usw. veranlassen Unternehmen kontinuierlich zu Veränderungen. Diese Vielfalt von Veränderungstreibern führt auch dazu, dass Unternehmen das richtige Gleichgewicht zwischen den vielen, oft widersprüchlichen Treibern für Veränderungen suchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09492-2_2 9c1a60d913303dec407bf9ba2e226862;de;;;7.1.;;;Die Potenziale von Fokusgruppen in der E-Business-Forschung: Theorievalidierung Fokusgruppen ermöglichen die schnelle und zeitnahe Zusammenstellung, Integration und Zusammenführung der Ansichten einer Vielzahl unterschiedlicher Akteure zu einer plausiblen Theorie. In diesem Beitrag wird die Nützlichkeit der Fokusgruppe als E-Business-Forschungsmethode anhand eines Beispiels für den Einsatz von Fokusgruppen zum Zwecke der Theorievalidierung untersucht. Unsere Ergebnisse legen nahe, dass eine Fokusgruppe als Strategie in der E-Business-Forschung wirksam sein kann und eine nützliche Alternative oder Ergänzung zu traditionelleren empirischen Methoden darstellt. Wir bieten eine Reihe von Richtlinien für effektive Fokusgruppen in der E-Business-Forschung, die sich für Forscher als nützlich erweisen können, die die Fokusgruppenmethode in einem Forschungsdesign anwenden möchten.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35692-1_12 3d04dc1ce4c11640afc243973f05238d;de;;;7.1.;;;Ein effizienter Ansatz zur Kombination von Fernerkundung und stichprobenbasierter Bestandsaufnahme für Forstbetriebe im Übergang zur naturnahen Waldbewirtschaftung Diese Arbeit basiert auf Ergebnissen einer Studie in einem Landesforstbetrieb in Nordrhein-Westfalen, Deutschland. Motiviert wurde diese Studie sowohl durch die Einführung neuer technologischer Möglichkeiten als auch durch die Notwendigkeit, das Bestands- und Monitoringsystem in der Waldbewirtschaftung aufgrund von Entwicklungen und Veränderungen in den waldbaulichen Konzepten und sich ändernden Bewirtschaftungszielen (Ökologie, Biodiversität, Stabilität, effektive Kosten) anzupassen und zu verändern Geschäftsführung, organisatorische Veränderungen). Der Beitrag konzentriert sich auf den Aspekt waldbaulicher Konzepte. Das entwickelte und evaluierte System kann sowohl im Altersklassenwald, im Übergangswald als auch im naturnahen Wald eingesetzt werden. Das System wurde zusammen mit einigen Optionen hinsichtlich Fernerkundungsdaten und Analysemethoden getestet. Das schlussendlich vorgeschlagene Konzept besteht aus fünf Informationsebenen, die für die langfristige Planung und das laufende Management nützlich sind: (i) eine Ortho-Image-Map basierend auf farbigen Infrarotfotos, (ii) Kartierung einzelner Objekte von hohem Interesse, ( iii) Bestandskartierung und -beschreibung, (v) verlässliche Gesamt- und Strukturdaten für Bestandsgruppen (iv) verlässliche Gesamt- und Strukturdaten für den Gesamtbetrieb mit (iv) und (v) auf Basis einer stichprobenbasierten kontinuierlichen Waldinventur. Für das Schätzverfahren innerhalb der stichprobenbasierten Kontinuierlichen Waldinventur wird eine Schichtungsschätzungstechnik entwickelt, die Schätzfehler im Vergleich zur einfachen Schätzung reduziert. Es wird gezeigt, dass das System sehr kosteneffizient und gleichzeitig von hoher Informationsqualität ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-9886-6_4 83b5aaa294af7aa3de4c8ddc339d2f43;de;;;7.1.;;;Design und Implementierung einer effizienten Methode zur Verifizierung des Zertifikatspfads in hierarchischen Public-Key-Infrastrukturen Um die Sicherheitsbedrohungen für E-Commerce und E-Business-Transaktionen zu bekämpfen, sind robuste und vertrauenswürdige Sicherheitssysteme erforderlich. Public Key Infrastructure (PKI) ist ein Rahmenwerk, auf dem die Sicherheitsdienste aufgebaut werden. Die meisten Unternehmen setzen hierarchische PKI als Sicherheitsinfrastruktur ein, in der der Zertifikatspfad unidirektional ist, sodass die Entwicklung und Validierung des Zertifikatspfads einfach und unkompliziert ist. In diesem Papier schlagen wir eine neuartige Methode zur Zertifikatspfadverifikation in hierarchischen Public-Key-Infrastrukturen vor und vergleichen die experimentellen Ergebnisse mit den bestehenden Zertifikatspfadverifikationsmethoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12214-9_51 4e58a7a1ad45275bf1ea8b5864fb6860;de;;;7.1.;;;Umweltsoftwaresysteme im Nationalpark-Monitoring und -Management Das Monitoring und Management des Nationalparks (NP) beschäftigt sich mit Dutzenden verschiedener Daten, deren Herkunft so vielfältig ist wie die Bereiche, die im Monitoring-Prozess abgedeckt werden. Internationale, nationale und föderale Verantwortung findet sich ebenso wie NGO-Datenbanken, Crowdsourcing-Anwendungen oder dedizierte Feldstudien in F&E – Aktivitäten einzelner Forschungsgruppen. Umweltsoftwaresysteme sind intelligente Stifte zur Verwaltung, Analyse und Visualisierung der Umwelt-, aber auch der Verwaltungsdaten aus den verschiedenen genannten Quellen. Der Beitrag beleuchtet unterschiedliche Tätigkeitsfelder des NP-Monitorings und -Managements und stellt Softwaresysteme vor, die im NP Hunsrück-Hochwald (Deutschland) im Einsatz sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-89935-0_4 50af890ed2fa9514a5e4023c3cd366f1;de;;;7.1.;;;Die Theorie der Risiken Die Risikomanagementprozesse sind ein integraler Bestandteil jedes IA-Programms. Man sollte damit beginnen, die aktuellen Bedrohungen für Informationssysteme zu identifizieren und diese Bedrohungen mit den Schwachstellen der Informationssysteme des Unternehmens abzugleichen. Dann kann man durch einen Risikobewertungsprozess beginnen, ein kosteneffektives IA-Programm zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/1-84628-489-9_3 a81c8c2aa931ae456eeedae885c3187f;de;;;7.1.;;;Ein länderübergreifender Vergleich der Einführung eines ubiquitären Supply Chain Managements Ziel dieses Papiers ist es, die Einführung eines allgegenwärtigen Lieferkettenmanagementsystems (USCM) in verschiedenen nationalen Kontexten zu untersuchen: Großbritannien und Südkorea. Um dieses Ziel zu erreichen, schlägt dieser Beitrag ein Forschungsmodell vor, das aus Faktoren in Bezug auf organisatorische, informationstechnische und umweltbezogene Aspekte besteht. In Großbritannien und Südkorea wurden Daten gesammelt, um eine länderübergreifende Vergleichsanalyse durchzuführen. Die Ergebnisse zeigen, dass die Hauptunterschiede zwischen den beiden Ländern in der Branche, der Art der USCM-Einführung und den USCM-Vorteilen gefunden wurden. Viele der organisatorischen, informationstechnischen und umweltbezogenen Faktoren sind in den beiden Ländern ähnlich. Da es zu diesem Thema wenig empirische Forschung gibt, liefern die Ergebnisse wertvolle Erkenntnisse für Wissenschaftler und Praktiker. Weitere Forschung ist erforderlich, um die Anwendung von USCM in den verschiedenen industriellen Kontexten zu untersuchen.;-;-;-;https://link.springer.com/article/10.1007/s00779-011-0438-5 f7eb8fb1541eb3df74aa94bb2d73d8b4;de;;;7.1.;;;Die Gültigkeit von Methoden zur Risikobewertung der Informationssicherheit für Organisationen Basierend auf statistischen Daten zeigt sich ein Widerspruch zwischen steigenden finanziellen Investitionen in die Informationssicherheit (IS) von Organisationen und einer stetig steigenden Zahl von IS-Vorfällen durch interne Nutzer. Es wird ein Fazit zur kognitiven Vulnerabilität und geringen Validität moderner IS-Risikobewertungsmethoden gezogen. Es wurden Stereotype identifiziert, deren Folge kognitive Fehler bei der Einschätzung von IS-Risiken sind: Priorität des technischen Schutzes von Informationen vor externen Bedrohungen des IS vor organisatorischem und technischem Schutz vor internen Bedrohungen, Misstrauen gegenüber dem internen Auftraggeber, Wahrnehmung dieser ausschließlich als Gegenstand starker Führungsbeeinflussung, unter Vernachlässigung seiner subjektiven Rolle im IS-Management, Einschränkung der Arbeit mit Personal innerhalb des IS-Managementsystems durch einmalige Maßnahmen und statische Kriterien zur Bewertung menschlicher Risiken und Unachtsamkeit gegenüber systemischen Maßnahmen und dynamische, situative Kriterien. Die Notwendigkeit der Aktualisierung von Standards für das IS-Risikomanagement sowie der Entwicklung neuer Methoden und Instrumente zur Bewertung von IS-Risiken auf der Grundlage der Ablehnung überholter Stereotype wird begründet.;-;-;-;https://link.springer.com/article/10.3103/S014768822004005X 69b3d4c13165de3b88cb71907a602f66;de;;;7.2.;;;Beantwortung kontextbezogener Fragen basierend auf Ontologien und Fragevorlagen Die kontextuelle Frageantwort (CQA), bei der die Informationsbedürfnisse der Benutzer durch einen interaktiven Frageantwortdialog (QA) befriedigt werden, hat in letzter Zeit mehr Aufmerksamkeit in der Forschung auf sich gezogen. Eine Herausforderung besteht darin, Kontextinformationen in den Verstehensprozess relevanter Fragen zu integrieren. In diesem Beitrag wird eine Diskursstruktur vorgeschlagen, um semantische Informationen zu erhalten, und Ansätze zur Erkennung des Relevanztyps und zur Fusion von Kontextinformationen nach Relevanztyp werden vorgeschlagen. Das System wird anhand realer kontextbezogener QS-Daten bewertet. Die Ergebnisse zeigen, dass eine bessere Leistung als bei einem Basissystem und fast dieselbe Leistung erzielt wird, als wenn diese Kontextphänomene manuell aufgelöst würden. Eine detaillierte Bewertungsanalyse wird vorgestellt.;-;-;-;https://link.springer.com/article/10.1007/s11704-011-1031-9 b2b5329d73a0fd0424cd69856f0a7140;de;;;7.1.;;;Auf dem Weg zu menschzentrierten Fabriken: Anforderungen und Gestaltungsaspekte einer arbeiterzentrierten Jobzuteilung Die neue Sichtweise, in der Fabrik und Arbeiter gesehen werden, ist der Mensch im Mittelpunkt des Produktionssystems, daher sollten die Mitarbeiter in die Arbeitsgestaltung und Aufgabenverteilungsprozesse einbezogen werden. Die Vorteile dieses Paradigmenwechsels von der aufgabenzentrierten Organisation zur arbeiterzentrierten Fabrik sind zweifellos die hohe Korrelation zwischen Job und Arbeiter in Bezug auf Fähigkeiten, Erfahrung und Arbeitereigenschaften. Ein menschenzentriertes System ist nützlich, um das Wissen und die Fähigkeiten von Arbeitnehmern unabhängig von Alter und Rolle zu verbessern, und bei dieser Art von Modell entspricht die Arbeit dem Arbeitnehmer und seinen Bedürfnissen. In diesem Zusammenhang ist es von größter Bedeutung, ein mitarbeiterorientiertes Job-Allokator-Tool zu konzipieren und zu entwickeln, bei dem die menschliche Dimension ein Schlüsselfaktor ist. Die vorliegende Studie befasst sich daher mit den Anforderungen und Gestaltungsaspekten eines arbeiterzentrierten Job-Allokators als Enabler für menschenzentrierte Arbeitsplätze der Zukunft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44733-8_52 7ba9457268366a17449dae3886d9db34;de;;;7.1.;;;Integriertes Wasserressourcenmanagement in Brasilien Der Prozess des Managements der Wasserressourcen in Brasilien steht am Anfang und wurde durch die Nationale Wasserressourcenpolitik (Politica Nacional de Recursos Hídricos (PNRH)) festgelegt. Das PNRH präsentiert die Grundlagen und Prinzipien des 1992 in Dublin gegründeten IWRM und verfügt über gute Managementinstrumente, wird aber in Brasilien nicht vollständig umgesetzt. Der PNRH räumt quantitativen Aspekten den Vorrang ein und bezieht sich fast nicht auf Grundwasser. Kulturelle und regionale Besonderheiten wurden in der Politik trotz hoher Vielfalt nicht berücksichtigt. Solche Aspekte sollten von den zuständigen Einzugsgebietskomitees in die Gewässerpläne für die Einzugsgebiete umgesetzt werden. Es gibt noch viel zu tun, um das IWRM in Brasilien zu etablieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-16565-9_2 0eb862433580311f230de73f337f469a;de;;;7.1.;;;Bündelung der Lieferkette: Literaturübersicht zu kollaborativen Strategien Um Unternehmen in der kollaborativen Lieferkette zu unterstützen, wurden in den letzten Jahren neue Strategien aufgesetzt und entwickelt. In diesem Zusammenhang besteht der erste Aspekt dieses Papiers darin, einen Überblick über diese verschiedenen kollaborativen Strategien entweder auf vertikaler oder horizontaler Ebene zu geben. Für beide Formen der Zusammenarbeit entwickeln wir literaturbasierte Konstrukte weiter. Nach dieser groß angelegten Umfrage schlägt dieses Papier einen konzeptionellen Rahmen für die Bündelung der Lieferkette als horizontale kollaborative Logistikstrategie vor. Darüber hinaus ist es unser Ziel, die Verbindung zwischen horizontaler kollaborativer Logistik und nachhaltiger Entwicklung hervorzuheben, um zu zeigen, dass die Strategie der Bündelung der Lieferkette die Ziele der nachhaltigen Entwicklung erreichen kann, nämlich die ökologischen, wirtschaftlichen und gesellschaftlichen Ziele.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32775-9_52 2de92869b4e72be1540c15ea4e1fc393;de;;;7.2.;;;Einführung in die Informationsqualität Die bei Google eingegebene Suchanfrage „Datenqualität“ liefert etwa drei Millionen Seiten, eine ähnliche Suche nach dem Begriff „Informationsqualität“ (IQ) liefert etwa eineinhalb Millionen Seiten, beide Häufigkeiten zeigen die zunehmende Bedeutung von Daten- und Informationsqualität. Ziel dieses Kapitels ist es, die Perspektiven aufzuzeigen und zu diskutieren, die Daten- und Informationsqualität (D&I) zu einem Thema machen, das es wert ist, untersucht und verstanden zu werden. Wir zuerst (Abschn.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24106-7_1 e3f9d77604bedcd9b370d84283d33bf8;de;;;7.2.;;;Effiziente Fragenklassifizierung und -auffindung mithilfe von Kategorieinformationen und Worteinbettung in cQA-Dienste Die Aufgabe, nicht gekennzeichnete Fragen automatisch in vordefinierte Kategorien (oder Themen) einzuordnen und eine ähnliche Frage effektiv abzurufen, sind entscheidende Aspekte eines effektiven cQA-Dienstes. Wir sprechen zuerst die Probleme an, die mit der Schätzung und Verwendung der Verteilung von Wörtern in jeder Kategorie von Wortgewichtungen verbunden sind. Wir wenden dann eine automatische Erweiterungsworterzeugungstechnik an, die auf unserer vorgeschlagenen Gewichtungsmethode und dem Pseudo-Relevanz-Feedback auf die Frageklassifizierung basiert. Um zweitens das lexikalische Lückenproblem bei der Abfrage von fraglichen Wörtern anzugehen, wird zunächst der Fallrahmen des Satzes unter Verwendung der extrahierten Komponenten eines Satzes definiert und dann ein Ähnlichkeitsmaß basierend auf dem Fallrahmen und der Worteinbettung abgeleitet, um die Ähnlichkeiten zwischen zwei Sätze. Diese Ähnlichkeiten werden dann verwendet, um die Ergebnisse des ersten Abrufmodells neu zu ordnen. Folglich verbessern die vorgeschlagenen Methoden die Leistung der Fragenklassifizierung und -auffindung erheblich.;-;-;-;https://link.springer.com/article/10.1007/s10844-019-00556-x 0be0ed080d27b5c5f23438bfb91224df;de;;;7.1.;;;Entwicklung von Plänen zur Verwaltung von Kryptografieschlüsseln für Gesundheitseinrichtungen Um die ePHI von Patienten zu sichern, müssen Gesundheitseinrichtungen sicherstellen, dass in ihrer Organisation ein qualifizierter Schlüsselverwaltungsplan implementiert wird. Die Auswahl und ordnungsgemäße Pflege von Kryptografieschlüsseln und Hashfunktionen kann eine Kompromittierung kritischer Gesundheitssysteme verhindern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-43020-7_82 eda23fe5264abd100a1affca8eeab47f;de;;;7.1.;;;Computernetzwerke in der sowjetischen wissenschaftlichen Gemeinschaft Computernetzwerke bieten Wissenschaftlern als Host neue Möglichkeiten, die vom Zugriff auf entfernte Ressourcen und Datenbanken bis hin zu verbesserter Kommunikation durch elektronische Post reichen. Obwohl die Vernetzung traditionell einer der schwächsten Bereiche der sowjetischen Informatik war [1], wurden inzwischen eine Reihe von lokalen Netzen an Forschungsinstituten und der erste Teil eines landesweiten Paketvermittlungsnetzes für die Akademie der Wissenschaften aufgebaut. Neben einem Überblick über die Errungenschaften in diesen Bereichen untersucht dieser Beitrag den Einfluss zweier grundlegender Netzwerktechnologien, Datenübertragungsmedien und Computer, auf die Entwicklung von Netzwerken. Es wird nur der nichtmilitärische Bereich betrachtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-3647-8_10 682b2f4e0e358b6503980746ba5ffe44;de;;;7.1.;;;Eine Analyse der Auswirkungen von Industrie 4.0 auf die Produktionsplanung und -steuerung Die Produktionsplanung und -steuerung von Industrieunternehmen basiert oft auf einer ungenauen Datenbasis. Die zunehmende Verfügbarkeit und Qualität von Daten durch die Technologien und Elemente von Industrie 4.0 eröffnen vielversprechende Potenziale zur Effizienzsteigerung. Dieses Papier stellt die Auswirkungen von Industrie 4.0-Technologien und -Elementen auf die Produktionsplanung und -steuerung vor, die durch ein deduktives Forschungsdesign untersucht wurden. Durch eine quantitative Analyse dieser Wirkungen wird eine Orientierung für die Auswahl von Industrie 4.0-Technologien und -Elementen gegeben, um die Planungsaktivitäten der PPC gezielt zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99707-0_15 0aad7eea770b58e2b9cc1e39e475ef68;de;;;7.1.;;;Sicherheitskritische Systeme: Vorausschauende, vorbestimmende, öffentlich-gute Systeme? Das Aufkommen sicherheitskritischer Systeme und deren sehr erwünschte Institutionalisierung beinhaltet domänen- und anwendungsunabhängige Fragen, die in gewissem Sinne mit den voneinander abhängigen Fragen der;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0975-4_1 04a89828ac346db3db190514cc0af7d5;de;;;7.1.;;;"Berginformationssystem: Ein verteiltes E-Government-Büro Das „Berginformationssystem“ ist ein E-Government-Dienstleistungssystem, das der Berggemeinde in Italien wirklich benötigte und umfassende Dienste bietet. Das System muss lokale und zentrale öffentliche Dienste vermitteln: Wenn ein Dienst den Beginn vieler Verfahren erfordert, die für verschiedene öffentliche Verwaltungen zuständig sind, nennen wir diesen Dienst einen ""zwischenverwaltungsdienst"". Ein „dienstübergreifendes Dienstsystem“ muss diesen zeitlich und logisch verknüpften Ablauf von Verwaltungsverfahren unter Einbeziehung verschiedener Dienststellen der öffentlichen Verwaltung koordinieren und zertifizieren („Dienstleistung als Ganzes zertifizieren“).";-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35696-9_7 71174f88c5a648de6996385822f6adef;de;;;7.1.;;;ERP nach der Einführung: Nutzen und Wert – Eine empirische Studie zu portugiesischen KMU Sowohl Wissenschaftler als auch Praktiker haben ein wachsendes Interesse am Wert der Informationstechnologie (IT). Dies ist insbesondere bei Systemen wie Enterprise Resource Planning (ERP) wichtig, da der Einsatz dieser Systeme mit erheblichen Investitionen verbunden ist. In dieser Studie versuchen wir, Determinanten von ERP-Nutzung und -Wert zu messen und zu untersuchen. Basierend auf der Diffusion of Innovation (DOI) Literatur zur Erklärung der ERP-Nutzung und der Resource-Based View (RBV) Theorie zur Erklärung des ERP-Wertes entwickeln wir ein Forschungsmodell, auf dem neun Hypothesen zur Messung von ERP in Post-Adoptions-Phasen und seiner Auswirkungen auf die Leistung der portugiesischen kleinen und mittleren Unternehmen (KMU). Das Modell wurde durch Strukturgleichungsmodellierung (SEM) an einem Datensatz von 134 im Internet befragten Firmen getestet. Wir finden, dass Kompatibilität, Best Practices, Komplexität, Effizienz, Schulung und Wettbewerbsdruck wichtige Determinanten der ERP-Nutzung sind. Zusammen mit der Nutzung tragen Kollaborations- und Analysefunktionen zum „ERP-Wert“ bei. Obwohl diese Studie einen Einblick in die Nutzung und Gewinnung von ERP durch KMU bietet, konzentriert sich diese Studie im Gegensatz zu dem in der Literatur beschriebenen typischen Fokus auf die ERP-Einführung auf die Phasen nach der Einführung, die die tatsächliche Nutzung mit der Wertschöpfung verknüpfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33244-9_5 21ff4902b48aca96023aeb42ae390992;de;;;7.1.;;;Ableiten von Enterprise Engineering- und Integrations-Frameworks aus Supply-Chain-Management-Praktiken Enterprise Engineering und Enterprise Integration wurden als Schlüsselthemen im Enterprise Management eingesetzt. Seit den 80er Jahren wurden mehrere Ansätze, Methoden, Sprachen und Frameworks vorgeschlagen. Trotz der zahlreichen Ergebnisse, die derzeit vorliegen, entstehen ständig neue Trends und Lösungen. Dieses Papier bietet einen Überblick über die aktuellen Probleme im Bereich Enterprise Engineering und Integration, die Strategien, Lösungen und unsere Vision über zukünftige Trends.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-29766-9_23 6d502aa5bdbb3d2d1b76b56c9cbd84e8;de;;;7.1.;;;Eine Forschung zur Datenmodellierung von Unternehmen basierend auf Kontrollsystemen Der Schlüssel zum erfolgreichen Aufbau eines Unternehmensinformationssystems ist eine umfassende Planung der Unternehmensdaten. Dieses Papier, das auf der Analyse von Unternehmensobjekten, Unternehmensprodukten und Managementaktivitäten gemäß den Elementen des Unternehmenssteuerungssystems basiert, stellt die Klassifizierung von Unternehmensdaten nach Unternehmensstatus und Unternehmensmerkmalen vor , Unternehmensverhalten und Unternehmensleistung, und ein neuer Beschreibungsrahmen, um sie auszudrücken, indem der Fünffachausdruck und die Situationsrechnung aus dem Prädikat erster Ordnung verwendet werden. Das Ergebnis erfasst Unternehmensführungsaktivitäten, spiegelt den Zustand von Unternehmen wider und bietet Datenunterstützung für Managemententscheidungen, die auch das erste Datenkriterium für Unternehmensinformationssysteme liefern sollen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75902-9_70 b3b58df698b02484ec64868e8c88ed2a;de;;;7.2.;;;Schwach überwachte Extraktion benannter Entitäten mit Wortdarstellungen Die Extraktion benannter Entitäten ist eine wichtige Teilaufgabe der Informationsextraktion (IE) und auch eine wichtige Komponente für viele Aufgaben der Verarbeitung natürlicher Sprache (NLP) und des Informationsabrufs (IR). Dieses Papier schlägt eine schwach überwachte Methode zur Extraktion benannter Entitäten vor, indem Wortrepräsentationen auf Web-Scale-Korpus gelernt werden. Zu den Highlights unserer Methode gehören: (1) Wortdarstellungen können entweder in Webdokumenten oder Abfrageprotokollen trainiert werden, (2) Das Auffinden der korrekt benannten Entitäten wird von einer kleinen Menge von Seed-Entitäten geleitet, ohne dass Domänenkenntnisse oder menschliche Arbeit erforderlich sind, Ermöglicht den Erwerb von benannten Entitäten jeder Domain. Umfangreiche Experimente wurden durchgeführt, um die Wirksamkeit und Effizienz unserer Methode im Vergleich zu den Ansätzen des Standes der Technik zu überprüfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-55705-2_15 c395f54f7c62750ff2431ff0dd2164fe;de;;;7.2.;;;United We Stand: Mehrere Strategien zur Themenkennzeichnung nutzen Using Die Themenkennzeichnung zielt darauf ab, eine solide, möglicherweise aus mehreren Wörtern bestehende Beschriftung bereitzustellen, die ein Thema darstellt, das aus einem Themenmodell stammt. Dies ist von größtem praktischen Interesse, um schnell den Informationsgehalt eines Themas zu erfassen – die übliche Rangliste von Wörtern, die ein Thema maximiert, schränkt diese Aufgabe ein. In diesem Beitrag stellen wir drei neue unüberwachte n-gram Topic Labeler vor, die vergleichbare Ergebnisse erzielen als die bestehenden unüberwachten Topic Labeler, jedoch anderen Annahmen folgen. Wir zeigen, dass die Kombination von Topic-Labelern – auch nur zwei – es ermöglicht, eine Verbesserung von 64 % im Vergleich zu Single-Topic-Labeler-Ansätzen anzustreben und somit die Forschung in diese Richtung eröffnet. Schließlich stellen wir einen vierten Themenlabeler vor, der repräsentative Sätze extrahiert und die Dirichlet-Glättung verwendet, um kontextbezogene Informationen hinzuzufügen. Dieser satzbasierte Labeler bietet starke Ersatzkandidaten, wenn N-Gramm-Themenlabeler keine relevanten Labels bereitstellen, was zu einer Themenabdeckung von 94 % führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-91947-8_37 74cc284b6ab3d7eff78cf863de08c917;de;;;7.2.;;;Die Bedeutung externer Unterstützung bei der Einführung von Open-Source-Serversoftware IT-Manager scheinen bei der Einführung von OSS in Ermangelung professioneller Unterstützung zu zögern. Frühere qualitative Studien haben in der Tat gezeigt, dass die Verfügbarkeit externer Unterstützung für die Einführung von OSS wichtig ist. Daher halten wir es für interessant, mehr Einblick in die Rolle der externen Unterstützung im Adoptionsprozess zu gewinnen. Zu diesem Zweck haben wir eine Web-Umfrage mit 95 belgischen Organisationen durchgeführt. Unsere Daten legen ein ausgewogenes Bild nahe. Wie erwartet zeigen unsere Ergebnisse, dass die Mehrheit der Organisationen in unserer Stichprobe auf kommerziellen Support wie den Support von Anbietern oder Drittanbietern angewiesen ist. Selbst Organisationen, die OSS in großem Umfang eingesetzt haben – und die daher wahrscheinlich einige Erfahrung und Vertrautheit mit OSS haben – verlassen sich auf kommerzielle Unterstützung. Dennoch gab ein beträchtlicher Anteil der Organisationen an, sich nicht auf kommerzielle Unterstützung zu verlassen, was darauf hindeutet, dass internes Fachwissen für eine erfolgreiche Einführung ausreichen kann. Schließlich und am überraschendsten haben wir festgestellt, dass die OSS-Community von einem großen Teil der Organisationen genutzt wird. Dies weist darauf hin, dass die OSS-Community eine wertvolle Quelle externer Unterstützung für Organisationen ist. Es scheint jedoch, dass es hauptsächlich von Organisationen mit einem ziemlich starken IT-Hintergrund verwendet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02032-2_12 84f82c581c3914bdec9043060a1f2945;de;;;7.2.;;;Schätzung der Leistungsspektraldichte mit der Yule Walker AR-Methode für tamilische Sprachsignale Fenstertheorie immer ein aktives Forschungsthema in der digitalen Signalverarbeitung. Es wird hauptsächlich zur Reduzierung von Streuverlusten in der Spektralanalyse verwendet. In dieser Arbeit wird der Effekt der Fensterung bei der Schätzung der spektralen Leistungsdichte eines tamilischen Sprachsignals analysiert. Vier verschiedene Fensterfunktionen werden implementiert und ihre Leistung wird basierend auf Parametern wie Nebenkeulenpegel, Abfall und Verstärkung bewertet. Basierend auf den Experimenten wurde festgestellt, dass die Wirkung der Anwendung des Hamming-Fensters am besten für das tamilische Sprachsignal geeignet ist. Es kann die spektralen Diskontinuitäten des Signals reduzieren und dieser Effekt des Hamming-Fensters wird als die potente Metrik zum Schätzen der spektralen Leistung des Tamil-Sprachsignals angegeben. Hier wird die Schätzung der Power Spectral Density (PSD) mit parametrischen und nicht-parametrischen Methoden berechnet. Als Parameter wird die Reduzierung des Rauschverhältnisses in PSD betrachtet und durch den Crest-Faktor geschätzt. Schließlich schließt das Papier mit der Notwendigkeit der besten Fenstermethode für PSD, insbesondere in parametrischen Techniken. Die Auswertung erfolgt sowohl objektiv als auch subjektiv für tamilische Sprachdatensätze.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19403-0_49 e6a7a165b514b7a09f8f8fe896063c19;de;;;7.2.;;;Optimierung der Blockchiffre und des Betriebsmodus-Overheads am Link Layer Security Framework in den drahtlosen Sensornetzwerken Aufgrund der ressourcenbeschränkten Umgebungen, in denen die drahtlosen Sensornetzwerke (WSNs) arbeiten, sollten die Sicherheitsprotokolle und -algorithmen so ausgelegt sein, dass sie in WSNs verwendet werden, um die optimale Leistung zu erzielen. Die Effizienz der Blockchiffre und der Modus, in dem sie betrieben wird, sind entscheidende Faktoren für die Leistungsfähigkeit jedes Sicherheitsprotokolls. In diesem Papier konzentrieren wir uns daher auf die Frage der Optimierung des Kompromisses zwischen Sicherheit und Leistung beim Link-Layer-Framework in WSNs. Wir bewerten die Ressourcenanforderungen der Blockchiffren, die sich charakteristisch voneinander unterscheiden, in konventionellen Modi und den Modi der Authenticated Encryption (AE). Als Vergleichsbasis verwenden wir die Skipjack-Chiffre im CBC-Modus. Unseres Wissens ist unsere erste experimentelle Evaluierung der AES-Chiffre, der XXTEA-Chiffre, des OCB-Modus und des CCM-Modus in der Sicherungsarchitektur der Sicherungsschicht für WSNs.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89862-7_22 c2184d2ac621ba99fe0d1965b1175a89;de;;;7.2.;;;Sentimentbasiertes Ranking von Blog-Posts unter Verwendung der rhetorischen Strukturtheorie Die Polaritätsschätzung in großräumigen und multitopischen Domänen ist ein schwieriges Thema. Die meisten Lösungen nach dem Stand der Technik beruhen im Wesentlichen auf der Häufigkeit von gefühlstragenden Wörtern (z. Diese Ansätze ignorieren die strukturellen Aspekte eines Dokuments, die wertvolle Informationen enthalten. Die Rhetorische Strukturtheorie (RST) liefert wichtige Informationen über die relative Bedeutung der verschiedenen Textspannen in einem Dokument. Dieses Wissen könnte für die Sentimentanalyse und Polaritätsklassifizierung nützlich sein. RST wurde jedoch nur für Polaritätsklassifizierungsprobleme in eingeschränkten und kleinen Szenarien untersucht. Das Hauptziel dieses Papiers ist es, die Nützlichkeit von RST in einem groß angelegten Polaritätsranking von Blog-Posts zu untersuchen. Wir wenden Methoden auf Satzebene an, um die Schlüsselsätze auszuwählen, die die allgemeine thematische Stimmung eines Blogbeitrags vermitteln. Anschließend wenden wir die RST-Analyse auf diese Kernsätze an, um die Klassifizierung ihrer Polarität zu leiten und so eine Gesamteinschätzung der Polarität des Dokuments in Bezug auf ein bestimmtes Thema zu generieren. Unsere Ergebnisse zeigen, dass RST wertvolle Informationen über die Diskursstruktur der Texte liefert, die verwendet werden können, um ein genaueres Ranking von Dokumenten in Bezug auf ihre geschätzte Stimmung in Multi-Topic-Blogs zu erstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38824-8_2 237872a3a8089ce52d907dd4e74ed5c1;de;;;7.2.;;;Lernen, Bilder aus Textabfragen mit einem diskriminierenden Modell abzurufen Diese Arbeit stellt ein diskriminatives Modell für die Wiedergewinnung von Bildern aus Textabfragen vor. Die Kernidee dieses Ansatzes besteht darin, einen Verlust zu minimieren, der direkt mit der Abrufleistung des Modells zusammenhängt. Zu diesem Zweck stützen wir uns auf einen Ranking-Verlust, der kürzlich erfolgreich auf Text-Retrieval-Probleme angewendet wurde. Die mit dem Corel-Datensatz durchgeführten Experimente zeigen, dass unser Ansatz im Vergleich zu generativen Modellen, die den Stand der Technik darstellen, günstig abschneidet (z beste Alternative).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71545-0_4 48ef58789e846be3a4a506390273e541;de;;;7.2.;;;Robuste und schnelle Suchmethode mit zwei Durchgängen für die Textsuche, die fehlerhafte Abfragen aufgrund von Missverständnissen abdeckt Dieses Papier schlägt eine robuste und schnelle Lyric-Suchmethode für die Musikinformationsabfrage (MIR) vor. Die Effektivität von Textsuchsystemen, die auf Volltext-Retrieval-Engines oder Web-Suchmaschinen basieren, wird stark beeinträchtigt, wenn die Abfragen von Textphrasen aufgrund von Verhörungen falsche Teile enthalten. Obwohl mehrere frühere Studien phonetische Mustervergleichstechniken vorgeschlagen haben, um die Lieder zu identifizieren, auf die sich die falsch gehörten Textphrasen beziehen, muss noch ein Echtzeit-Suchalgorithmus realisiert werden. Dieses Papier schlägt ein schnelles Verfahren zum Abgleichen von phonetischen Zeichenfolgen vor, das einen Suchalgorithmus mit zwei Durchgängen verwendet. Es besteht darin, die wahrscheinlichen Kandidaten durch eine schnelle indexbasierte Suche im ersten Durchgang vorzuselektieren und im zweiten Durchgang einen auf dynamischer Programmierung basierenden Suchprozess mit einer adaptiven Beendigungsstrategie auszuführen. Experimentelle Ergebnisse zeigen, dass das vorgeschlagene Suchverfahren die Verarbeitungszeit im Vergleich zu den herkömmlichen Verfahren um mehr als 87% reduziert, ohne dass die Suchgenauigkeit verloren geht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28601-8_26 068fc55e713d87187115ef07e39d9fe4;de;;;7.1.;;;Entwurf eines energieeffizienten IoT-basierten intelligenten Verkehrssystems: Bedarf, Architektur, Eigenschaften, Herausforderungen und Anwendungen Das Ausmaß des Verkehrswachstums in den letzten Jahren und die damit verbundene Abhängigkeit von Industrie und Haushalt haben die Probleme der Verkehrsüberlastung, der Verkehrsüberlastung sowie der Sorge um die Sicherheit und Verfügbarkeit von Ressourcen für die Passagiere in den Vordergrund gerückt. Die Integration des IoT in die Verkehrssysteme hat eine instrumentelle Lösung für solche Probleme gebracht, gleichzeitig aber auch periphere Pendelinformationen bereitgestellt, den Weg für ein intelligenteres und informierteres Reisen geebnet und intelligente Verkehrssysteme (ITS) hervorgebracht. Die nun gestellte Herausforderung besteht darin, den umfangreichen Leistungsbedarf von IoT-basierten Technologien zu reduzieren, die in solchen Systemen implementiert werden sollen. In diesem Kapitel untersuchen wir den Bedarf, den Umfang, die Architektur, die beteiligten Schlüsseltechnologien und die jeweiligen Leistungsoptimierungsaussichten für ITS und bieten Energieeffizienzlösungen, die für jede technische Schicht von ITS implementiert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-7399-2_9 7878fb40349b947850dc80d51ceb46d9;de;;;7.2.;;;Ein subword-normalisierter Cut-Ansatz zur automatischen Story-Segmentierung chinesischer Rundfunknachrichten Dieser Artikel präsentiert einen Ansatz mit subword normalized cut (N-cut) zur automatischen Story-Segmentierung von chinesischen Nachrichtensendungen (BN). Wir stellen ein Spracherkennungstranskript unter Verwendung eines gewichteten ungerichteten Graphen dar, bei dem die Knoten Sätzen entsprechen und die Gewichte der Kanten Ähnlichkeiten zwischen den Sätzen beschreiben. Die Story-Segmentierung wird als Graph-Partitionierungsproblem unter dem N-Schnitt-Kriterium formalisiert, das gleichzeitig die Ähnlichkeit über verschiedene Partitionen minimiert und die Ähnlichkeit innerhalb jeder Partition maximiert. Wir messen Ähnlichkeiten zwischen Sätzen und führen eine N-Schnitt-Segmentierung an den Zeichen/Silben (d. h. Unterworteinheiten) überlappenden N-Gramm-Sequenzen durch. Unser Verfahren funktioniert auf Unterwortebenen, da der Unterwortvergleich robust gegenüber Spracherkennungsfehlern und Wörtern außerhalb des Vokabulars ist. Experimente am TDT2-Mandarin-BN-Korpus zeigen, dass der silbenbigrammbasierte N-Schnitt das beste F1-Maß von 0,6911 mit einer relativen Verbesserung von 11,52 % gegenüber dem vorherigen wortbasierten N-Schnitt mit einem F1-Maß von 0,6197 erreicht. Der N-Schnitt auf den Unterwortebenen ist effektiver als auf der Wortebene für die Story-Segmentierung von verrauschten chinesischen BN-Transkripten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04769-5_12 bb14648b3e8a3e1fbfee8824837a1796;de;;;7.2.;;;g-binary: Ein neuer nicht parametrisierter Code für eine verbesserte invertierte Dateikomprimierung Die invertierte Datei ist ein beliebtes und effizientes Verfahren zum Indizieren von Textdatenbanken und wird häufig in Anwendungen zum Abrufen von Informationen verwendet. Als Ergebnis ist die Forschungsliteratur reich an Modellen (global und lokal), die invertierte Dateiindizes beschreiben und komprimieren. Globale Modelle komprimieren den gesamten invertierten Dateiindex nach der gleichen Methode und können in parametrisierte und nicht parametrisierte unterschieden werden. Letztere verwenden feste Codes und sind auf dynamische Dokumentensammlungen anwendbar. Lokale Modelle werden immer in dem Sinne parametrisiert, dass die von ihnen verwendete Methode Annahmen über die Verteilung jedes einzelnen Wortes in der Dokumentensammlung der Textdatenbank macht. In der vorliegenden Studie untersuchen wir einige der wichtigsten Integer-Kompressionscodes und schlagen vor;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45227-0_46 e62a63d6fc35a6335e25b40764f10f1c;de;;;7.2.;;;Diverse Dimensionszerlegung für Itemset-Räume Wir führen das Problem der Zerlegung diverser Dimensionen in Transaktionsdatenbanken ein, bei denen eine Dimension eine Menge sich gegenseitig ausschließender Itemsets ist. Das Problem, das wir betrachten, erfordert eine Zerlegung des Itemset-Raums in Dimensionen, die zueinander orthogonal sind und eine hohe Abdeckung der Eingabedatenbank bieten. Das von uns vorgeschlagene Mining-Framework kann als dimensionsverringernde Transformation vom Raum aller Items in den Raum orthogonaler Dimensionen interpretiert werden. Basierend auf informationstheoretischen Konzepten formulieren wir das Diversity-Dimension-Zerlegungsproblem mit einer einzigen Zielfunktion, die gleichzeitig Einschränkungen bezüglich Abdeckung, Exklusivität und Orthogonalität erfasst. Wir zeigen, dass unser Problem ist;-;-;-;https://link.springer.com/article/10.1007/s10115-012-0518-5 59cf2583241a3f08b10016ee6da0f471;de;;;7.1.;;;Verfügbar zu versprechen Fortschrittliche Informationstechnologien und eine erweiterte Logistikinfrastruktur verändern das globale Geschäftsumfeld. Käufer und Verkäufer können jetzt Informationen austauschen und Entscheidungen in Echtzeit austauschen, während Produkte innerhalb weniger Tage von Ort zu Ort weltweit transportiert werden können. Um Wettbewerbsvorteile in der neuen Geschäftslandschaft zu erzielen, definieren Unternehmen ihre Geschäftsmodelle neu, um nicht nur die Effizienz der Back-End-Logistik zu steigern, sondern auch die Kundenzufriedenheit im Front-End zu verbessern. Available to Promise (ATP) ist eine Geschäftsfunktion an der Spitze dieses Trends, da sie eine herausragende Rolle bei der direkten Verknüpfung von Kundenaufträgen mit Unternehmensressourcen spielt und den Kompromiss zwischen Front-End- und Back-End-Leistung bewerten muss.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-7953-5_11 48412c50838b685b4cf9e4d3d8cd9628;de;;;7.1.;;;Erforschung der Integration von Instandhaltung und Produktionsmanagement in KMU Der Beitrag präsentiert die Ergebnisse einer explorativen Untersuchung anhand von 10 KMU, die als Fallstudien verwendet wurden, um den Stand der Praxis in Bezug auf die Integration von Instandhaltung und Produktionsmanagement zu beobachten. Ziel der Forschung ist es, die Qualität der Integration mit Hilfe einer Reifegradbewertungsmethode zu bewerten. Die resultierenden Erkenntnisse erlauben eine erste Besorgnis über Stärken und Schwächen des Instandhaltungsmanagements und seiner Beziehung zum Produktionsmanagement in KMU.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44739-0_62 58429d661898ed4f50b69ff195338975;de;;;7.1.;;;Ein Projektmanagement-Hybridmodell der Softwareentwicklung in einer akademischen Umgebung Das Paradigma des Projektmanagements verändert sich. Agile Methoden sind Teil dieses Wandels. Sie standen im Gegensatz zu traditionellen Standards und ihre Verbreitung und Verflechtung führt zu einer Anpassung traditioneller Modelle an hybride Modelle, insbesondere bei kleinen Projekten. Sie ermöglichen ein Gleichgewicht zwischen Flexibilität und Vorhersehbarkeit. Es gibt kein Standard-Hybridmodell, es muss an das zu entwickelnde Projekt angepasst werden. Dieses Papier zielt darauf ab, die Leistungsfähigkeit eines hybriden Modells zu analysieren, bei dem die Initiierung, Planung und Fertigstellung der traditionellen Methodik folgte und die Entwicklung der agilen Methodik (Scrum) folgte. Dieses Modell wurde von einem Team verwendet, das für die Leitung und Entwicklung eines Softwareprojekts im akademischen Umfeld verantwortlich war. Das Projekt bestand in der Entwicklung einer digitalen Plattform zur Unterstützung des Projektmanagements in kleinen und mittleren Unternehmen (KMU). Das Team wurde von Universitätsstudenten zusammengestellt und das Hybridmodell wurde von den Lehrenden des Studiengangs definiert. Die Daten wurden durch Beobachtung und die Anwendung eines Fragebogens an das Team gesammelt. Die Ergebnisse zeigen, dass das verwendete Modell für die Verwaltung und Entwicklung dieses Projekts in einem akademischen Umfeld effektiv war, da es weniger formell und für Personen mit wenig Erfahrung im Projektmanagement besser geeignet war als ein rein traditionelles Modell.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72651-5_12 491951e144d17e4002f5ce2e52baa9ac;de;;;7.1.;;;Wissensgesteuerte Marketingmanagement-Unterstützungssysteme I: Künstliche Intelligenz, Wissensrepräsentation und Expertensysteme Ein Marketingmanager ist einem kontinuierlichen Strom von Daten und Informationen ausgesetzt, die er mit seinem Wissen und seiner Erfahrung kombiniert, um Probleme zu erkennen und auf Marktchancen zu reagieren. Ein Marketer versucht ständig herauszufinden, was passiert und warum (Monitoring und Diagnose) und entwickelt ständig Marketingaktionen und -programme, die zu Entwicklungen in die gewünschte Richtung führen sollen (Planung und Design). Der Zweck von Marketing-Management-Unterstützungssystemen besteht darin, den Marketing-Entscheidungsträger bei der Durchführung dieser Aufgaben zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4595-8_5 e6e14ade30819df168238b9a97c44bd4;de;;;7.1.;;;Verbreitung von Fernwärme unter Nutzung lokaler Energieressourcen durch strategisches Gebäudebestandsmanagement: Eine Fallstudie in Fukushima, Japan Fernwärmesysteme mit Kraft-Wärme-Kopplung und erneuerbaren Ressourcen gelten als wirksamer Ansatz zur Ressourcenschonung und Reduzierung der Treibhausgasemissionen (THG). Es wird jedoch davon ausgegangen, dass die weit verbreiteten Alterungs- und Entvölkerungsprobleme sowie die Popularisierung energiesparender Technologien in Gebäuden den Energieverbrauch stark senken, was zu Ineffizienz bei der Fernwärme und Hindernissen für die Technologieverbreitung führt. Aus langfristiger Sicht haben Landnutzungsänderungen, insbesondere das Fortschreiten kompakter Stadtpläne, das Potenzial, den Rückgang des Energieverbrauchs auszugleichen, der die Effizienz von Fernwärmesystemen aufrechterhält. In diesem Beitrag wird ein integriertes Modell entwickelt, das auf einer Gebäudekohortenanalyse basiert, um die wirtschaftliche Machbarkeit und die Umweltauswirkungen der Einführung von Fernwärmesystemen in einen langfristigen kompakten Stadtplan zu bewerten. An einem Fall in der Soma-Region von Fukushima, Japan, wird eine potenzielle Abwanderung von den Vororten in die Hauptbahnhof-Bezirke simuliert, wo die Einführung von Fernwärme auf Basis gasbefeuerter Kraft-Wärme-Kopplung erwartet wird. Die Ergebnisse deuten darauf hin, dass die geführte Migration in konzentrierte Bevölkerungszentren die Wärmebedarfsdichte erheblich erhöhen kann, was eine breitere Anwendung von Fernwärmesystemen und eine bessere kohlenstoffarme Leistung unterstützt. Diese Ergebnisse werden in Bezug auf technologische Innovation und damit verbundene Politiken weiter diskutiert. Es wird der Schluss gezogen, dass Politiken in Bezug auf städtische Flächennutzungsplanung und Energiemanagement integriert und langfristig quantitativ bewertet werden sollten, um eine nachhaltige kohlenstoffarme Stadtentwicklung zu unterstützen.;-;-;-;https://link.springer.com/article/10.1007/s11708-018-0577-8 530da59a8e19ab65cc8e3c21f3a44a4b;de;;;7.1.;;;Die Unternehmenszentrale in der Organisationsdesigntheorie: eine organisationsökonomische Perspektive Die Konzernzentrale (CHQ) ist ein wichtiger Teil der Organisation großer Unternehmen, wird jedoch in der Organisationsdesigntheorie vernachlässigt. In diesem kurzen Aufsatz argumentiere ich, dass wir ein besseres Verständnis des CHQ brauchen, um unser Verständnis der Verbindung zwischen dem Top-Management-Team und dem Rest der Organisation zu vertiefen und unser Verständnis der Kosten und Vorteile einer hierarchischen Organisation in Allgemeines. Ich skizziere eine Reihe von organisationsökonomischen Ideen, die helfen können, diese Herausforderungen anzugehen.;-;-;-;https://link.springer.com/article/10.1186/s41469-019-0048-7 9bd349062430954954eaedf6f83d39aa;de;;;7.1.;;;Ein Rahmen für die Schätzung der Kosten für den Aufbau vertrauenswürdiger Computersysteme Fortschritte auf dem Gebiet der Computernetzwerktechnologie haben es ermöglicht, beispiellose Niveaus des Informationsaustauschs zwischen Benutzern zu ermöglichen. Infolgedessen besteht innerhalb des Verteidigungsministeriums (DOD) ein erhöhter Bedarf, sensible Informationen und Datenquellen vor unbefugtem Zugriff oder Offenlegung zu schützen. Aus diesem Grund nimmt die Zahl der Akquisitionen der USAF Electronic Systems Division (ESD) zu, die darauf abzielen, strenge Sicherheitsanforderungen zu erfüllen. In der Kostenanalyse-Community fehlte ein systematischer Ansatz zur Schätzung der Ressourcen zum Aufbau von Computersystemen, die beim Schutz der von ihnen verarbeiteten Informationen vertrauenswürdig sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-3202-5_1 041f91e06211efb531fa71a58bbb3d00;de;;;7.1.;;;Gestaltung eines intelligenten Transportsystems für nachhaltige Wertschöpfung Value Das Smart Transportation System (STS) nutzt ubiquitäres und vernetztes Computing, um die Effizienz der urbanen Mobilität zu verbessern. Während die bestehende IS-Arbeit verschiedene Faktoren untersucht hat, die die STS-Entwicklung beeinflussen, wird nicht berücksichtigt, wie Wert für den Aufbau eines nachhaltigeren STS geschaffen werden kann. Basierend auf der Value Co-Creation-Theorie und der Stakeholder-Theorie versuchen wir, die sozio-technische Gestaltung des STS-Ökosystems zu verstehen und zu verstehen, wie Regierung, Unternehmen und Bürger gemeinsam nachhaltigen Wert für die Gestaltung und Umsetzung von STS-Initiativen schaffen. Um dieses Ziel zu erreichen, führen wir im Zeitraum 2016–2018 in Shijiazhuang, China, eine Längsschnitt-Fallstudie durch. Wir bieten sowohl theoretische als auch praktische Erklärungen zu (i) zentralen Wertfacetten im Hinblick auf eine nachhaltige STS-Gestaltung und -Implementierung und (ii) eine ganzheitliche Sicht auf den iterativen Wertschöpfungsprozess, der von Schlüsselakteuren vorangetrieben wird. Diese Studie leistet einen besonderen Beitrag zur IS-, Marketing- und Transportliteratur, indem sie ein kritisches Verständnis der sozialen Dynamiken für die Gestaltung eines Big Data-gesteuerten STS-Ökosystems bietet.;-;-;-;https://link.springer.com/article/10.1007/s10796-021-10139-3 447e1ab5b205711c503f6fd9d56cbfad;de;;;7.1.;;;Der Service Meta Modeling Editor – Bottom-Up-Integration von Servicemodellen Die Logistikdienstleistungsbranche zeichnet sich durch ein hohes Maß an Zusammenarbeit zwischen Logistikkunden und -anbietern aus. Tatsächlich haben sich in den letzten Jahren ausgeklügelte, wissensintensive Geschäftsmodelle wie die Fourth-Party- und Lead-Logistik herausgebildet, die für die Planung, Koordination und Überwachung ganzer Lieferketten über Logistikunternehmen hinweg verantwortlich sind. Die Logistics Service Engineering and Management (LSEM)-Plattform ist eine serviceorientierte Infrastruktur für die Entwicklung und das Management von kollaborativer Kontraktlogistik, die Vierten- und Leadlogistik ermöglicht. Das Service Modeling Framework (SMF) ist ein zentrales Element der LSEM-Plattform. Es ermöglicht den Nutzern der Plattform, Logistikdienstleistungen verschiedener Anbieter zu definieren, zu verwalten und zu kombinieren und ermöglicht eine integrierte Sicht auf komplexe Service-Setups. In diesem Whitepaper wird der Service Meta Modeling Editor als wesentlicher Bestandteil des SMF vorgestellt. Es ermöglicht die Verbindung und Integration verschiedener Arten von Servicemodellen und vermeidet die Notwendigkeit, ein komplexes, globales Servicemodell zu definieren und zu pflegen. Stattdessen wird ein umfassendes Servicemodell von unten nach oben aufgebaut, indem Elemente aus verschiedenen Modellen auf Metamodellebene verknüpft werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38827-9_26 7fc896317582c7b7d2f3ab4944f7c37d;de;;;7.2.;;;Framework zur Bewertung von Sicherheitsrisiken für Smart Cars mithilfe der Angriffsbaumanalyse Da die Automobilindustrie in letzter Zeit Informationstechnologien übernommen hat, werden letztere verwendet, um mechanische Systeme durch elektronisch gesteuerte Systeme zu ersetzen. Darüber hinaus entwickeln sich Autos zu Smart Cars oder Connected Cars, da sie mit verschiedenen IT-Geräten und Netzwerken wie VANET (Vehicular Ad hoc NETwork) verbunden sind. Obwohl in der Vergangenheit keine Bedenken hinsichtlich des Hackens von Autos bestanden, treten nun verschiedene Sicherheitsbedrohungen auf, da elektronische Systeme nach und nach den Innenraum vieler Autos füllen, die wiederum mit externen Netzwerken verbunden sind. Daher haben Forscher damit begonnen, die Sicherheit von Smart Cars zu untersuchen, was zur Offenlegung von Sicherheitsbedrohungen durch das Testen oder die Entwicklung verschiedener Automobilsicherheitstechnologien führte. Die Sicherheitsbedrohungen, denen Smart Cars ausgesetzt sind, treten jedoch nicht häufig auf, und praktisch ist es unrealistisch, zu versuchen, jede mögliche Sicherheitsbedrohung zu bewältigen, wenn man Faktoren wie Leistung, Kompatibilität usw. berücksichtigt. Darüber hinaus wird der übermäßige Einsatz von Sicherheitstechnologie die Gesamtkosten des Fahrzeugs erhöhen und die Effektivität der Investitionen verringern. Daher sollten die Sicherheitsrisiken von Smart Cars bewertet und priorisiert werden, um effiziente Sicherheitsmaßnahmen zu etablieren. Zu diesem Zweck wurde in dieser Studie ein Rahmen für die Bewertung von Sicherheitsrisiken erstellt, um effiziente Maßnahmen für die Sicherheit von Smart Cars zu etablieren. Der vorgeschlagene Rahmen für die Bewertung von Sicherheitsrisiken konfigurierte das Bewertungsverfahren basierend auf dem herkömmlichen Sicherheitsrisikoanalysemodell GMITS (ISO13335) und nutzte die „Angriffsbaumanalyse“, um die Bedrohungen und Schwachstellen zu bewerten. Das Sicherheitsrisikobewertungs-Framework verwendet die Ergebnisse einer Asset-Analyse, einer Bedrohungs-/Schwachstellenanalyse und einer Risikoanalyse, um das Risiko abschließend zu bewerten und die Risikoeinstufung zu ermitteln. Darüber hinaus hat es den vorgeschlagenen Rahmen tatsächlich angewendet, um Sicherheitsrisiken in Bezug auf die gezielte Erhöhung der Fahrzeuggeschwindigkeit und den Verlust personenbezogener Daten zu bewerten, die die wichtigsten Bedrohungen für intelligente Autos darstellen. Hier wurde das Framework auf die Erhöhung der Fahrzeuggeschwindigkeit und den Verlust personenbezogener Daten angewendet, die die wichtigsten Bedrohungen darstellen.;-;-;-;https://link.springer.com/article/10.1007/s12652-016-0442-8 62587ced9e9296f264649d2de56cd977;de;;;7.1.;;;SoKNOS – Einsatz semantischer Technologien in Disaster Management Software Katastrophenmanagement-Software unterstützt die Mitarbeiter bei großen Katastrophenereignissen wie Erdbeben oder Überschwemmungen, indem sie beispielsweise relevante Informationen bereitstellt, die Aufgaben- und Ressourcenplanung erleichtert und die Kommunikation mit allen Beteiligten steuert. In diesem Papier stellen wir das SoKNOS-Unterstützungssystem vor, das ein funktionaler Prototyp für solche Software ist, die semantische Technologien für verschiedene Zwecke verwendet. Ontologien werden verwendet, um ein gegenseitiges Verständnis zwischen Entwicklern und Endbenutzern aus verschiedenen Organisationen zu schaffen. Informationsquellen und Dienste werden mit Ontologien annotiert, um die Bereitstellung der richtigen Informationen zum richtigen Zeitpunkt zu verbessern, bestehende Systeme und Datenbanken an das SoKNOS-System anzubinden und eine ontologiebasierte Visualisierung bereitzustellen. Darüber hinaus werden die Aktionen der Benutzer ständig überwacht und Fehler werden durch den Einsatz einer ontologiebasierten Konsistenzprüfung vermieden. Wir zeigen, wie der durchgängige und ganzheitliche Einsatz semantischer Technologien zu einer signifikanten Verbesserung sowohl der Entwicklung als auch der Benutzerfreundlichkeit von Katastrophenmanagement-Software führt und stellen einige wichtige Erkenntnisse aus dem Einsatz semantischer Technologien in einem groß angelegten Softwareprojekt vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21064-8_13 662a8120c4023846e81aa7659383bf7c;de;;;7.2.;;;Ein überwachtes Keyphrase-Extraktionssystem basierend auf dem Erlernen der Graphendarstellung Aktuelle überwachte Ansätze zur Schlüsselphrasenextraktion stellen jede Kandidatenphrase mit einer Reihe von handgefertigten Funktionen dar, und maschinelle Lernalgorithmen werden trainiert, um Schlüsselphrasen von Nicht-Schlüsselwörtern zu unterscheiden. Obwohl sich die manuell entworfenen Features in der Praxis bewährt haben, ist das Feature Engineering ein arbeitsintensiver Prozess, der Expertenwissen erfordert und normalerweise nicht gut verallgemeinert werden kann. Um dies anzugehen, stellen wir SurfKE vor, einen Ansatz, der das Dokument als Wortgraph darstellt und seine Struktur nutzt, um zugrunde liegende erklärende Faktoren aufzudecken, die in den Daten verborgen sind und Schlüsselphrasen von Nicht-Schlüsselwörtern unterscheiden können. Experimentelle Ergebnisse zeigen, dass SurfKE, das seine selbstentdeckten Funktionen in einem überwachten probabilistischen Rahmen verwendet, bemerkenswerte Leistungsverbesserungen gegenüber früheren überwachten und unüberwachten Schlüsselphrasen-Extraktionssystemen erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-15712-8_13 8fe5168e7c271c34b152ba61027e5590;de;;;7.2.;;;Online-Bewertungen für alle: Das Living Lab von Mr. DLib für wissenschaftliche Empfehlungen Wir stellen das erste „lebendige Labor“ für wissenschaftliche Empfehlungssysteme vor. Dieses Lab ermöglicht Forschern von Empfehlungssystemen, Online-Bewertungen ihrer neuartigen Algorithmen für wissenschaftliche Empfehlungen durchzuführen, dh Empfehlungen für Forschungsarbeiten, Zitationen, Konferenzen, Forschungsstipendien usw. Empfehlungen werden über die API des Living Lab an Plattformen wie Literaturverwaltungssoftware geliefert und digitale Bibliotheken. Das Living Lab baut auf dem Empfehlungssystem as-a-Service Mr. DLib auf. Aktuelle Partner sind die Literaturverwaltungssoftware JabRef und das Forschungsteam CORE. Wir präsentieren die Architektur des Living Labs von Mr. DLib sowie Nutzungsstatistiken der ersten 16 Monate des Betriebs. In dieser Zeit wurden 1.826.643 Empfehlungen mit einer durchschnittlichen Klickrate von 0,21 % geliefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-15719-7_27 a40c8addd49b91f01d6e0b549036b5b9;de;;;7.2.;;;Systematisierung der Anforderungsdefinition für Softwareentwicklungsprozesse mit einer Geschäftsmodellierungsarchitektur Es stehen verschiedene Modellierungsmethoden, Techniken und Werkzeuge zur Verfügung, um das Verständnis und die Analyse der Komplexität moderner Organisationen zu erleichtern. Solche Methoden, Techniken und Werkzeuge werden verwendet, um die komplexe Organisationspraxis verständlicher zu machen. Einige von ihnen unterstützen Methoden zur Entwicklung von Informationssystemen. Was jedoch beobachtet wird, ist die fehlende Integration der Analyse zwischen zwei Domänen: der Geschäftsdomäne und der Systemdomäne. Die Abstimmung zwischen den Softwareanforderungen und dem tatsächlichen Bedarf an der Geschäftsinformatisierung kann durch Techniken der Geschäftsmodellierung verbessert werden. In dieser Arbeit wurde vorgeschlagen, Aktivitäten für die Geschäftsmodellierung in die UP (Unified Process)-basierten Methoden oder in jede andere Methodik, die auf denselben Prinzipien basiert, einzufügen, um die Identifizierung von Softwareanforderungen zu systematisieren, die auf die Geschäftsziele ausgerichtet sind . Die in der Methode definierten Aktivitäten entsprechen dem iterativen und inkrementellen Modell sowie den gut etablierten Schnittstellen zu den UP-vordefinierten Aktivitäten, was einige Vorteile zeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75902-9_52 245f2683640dbd037a068916a9b56bbc;de;;;7.2.;;;Forostar: Ein System für GIR Wir beschreiben unsere Methoden zur Generierung und Anwendung von Kookkurrenzmodellen zum Zweck der Disambiguierung von Ortsnamen. Wir erklären ausführlich unsere Verwendung von Kookkurrenzmodellen zur Disambiguierung von Ortsnamen anhand eines aus Wikipedia generierten Modells. Das vorgestellte System ist in zwei Phasen unterteilt: einen Batch-Text- und geografischen Indexer und eine Echtzeit-Abfrage-Engine. Vier alternative Abfragekonstruktionen und sechs Methoden zur Generierung eines geografischen Index werden verglichen. Das Papier schließt mit einer vollständigen Beschreibung der zukünftigen Arbeit und Möglichkeiten, wie das System optimiert werden könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74999-8_119 89362e524aebdb4f7675c97029deb7fc;de;;;7.2.;;;Random walk-basiertes Lernen von Entitätsrepräsentationen und Re-Ranking für die Entitätssuche Linked Data (LD) ist zu einer wertvollen Quelle für Faktenaufzeichnungen geworden, und die Suche nach Entitäten ist eine grundlegende Aufgabe in LD. Die Aufgabe besteht darin, bei einer gegebenen Abfrage, die aus einem Satz von Schlüsselwörtern besteht, einen Satz relevanter Entitäten in LD abzurufen. Die modernen Ansätze für die Entitätssuche basieren auf Information-Retrieval-Techniken. In diesem Beitrag werden diese Ansätze zunächst anhand einer traditionellen Bewertungsmetrik, recall@, untersucht.;-;-;-;https://link.springer.com/article/10.1007/s10115-020-01445-4 901555546133bfd283c2d6c265764b9b;de;;;7.2.;;;Informationsqualitätsrahmen für verifizierbare Intelligenzprodukte Intelligence Unternehmen investieren zunehmend in Technologie, um riesige Datenmengen zu sammeln und zu verarbeiten. Trotzdem werden sie oft bei ihren Bemühungen, die Daten effektiv zu nutzen, um Geschäftsprozesse zu verbessern und bessere Entscheidungen zu treffen, behindert. Diese Schwierigkeit wird häufig durch Informationsqualitätsprobleme innerhalb der Organisation und anderer verwandter Organisationen verursacht.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-0176-7_14 362f19b802053f0fc33848f2ec73c250;de;;;7.2.;;;Ein genaues und effizientes nichtlineares Tiefenquantisierungsschema Wie bekannt, liegen Tiefeninformationen als Schwebeabstandsdaten vor, wenn sie zuerst von einem Tiefensensor erfasst werden. Im Hinblick auf Speicherung und Übertragung ist eine Quantisierung in mehrere Tiefenschichten erforderlich. Im Allgemeinen widersprechen sich die Effizienz der Tiefenquantisierung und die Genauigkeit der Ansichtssynthese. Da während der Ansichtssynthese eine 3D-Verformungsrundungsberechnung existiert, verursachen Tiefenänderungen innerhalb eines bestimmten Bereichs keine unterschiedliche verzerrte Position. Dieses Phänomen bietet eine gute Möglichkeit, Tiefendaten effizienter zu quantisieren. Die 3D-Warping-Rundungsberechnung kann jedoch auch eine zusätzliche Verzerrung der Ansichtssynthese bewirken, wenn das Warped-Intervall und das Bildauflösungsintervall falsch ausgerichtet sind. Um eine effiziente Tiefenquantisierung zu erreichen, ohne eine zusätzliche Verzerrung der Ansichtssynthese einzuführen,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24078-7_39 9dcfcd88aee2adbdc8db2606c32a56da;de;;;7.2.;;;Verwendung von Prädikat-Argument-Strukturen für kontextabhängigen Meinungsabruf Aktuelle Opinion Retrieval-Techniken liefern keine kontextabhängigen relevanten Ergebnisse. Sie verwenden die Häufigkeit von Meinungswörtern in Dokumenten oder in der Nähe von Abfragewörtern, so dass Meinungsdokumente, die die Wörter enthalten, ungeachtet ihrer kontextuellen oder semantischen Relevanz für das Abfragethema abgerufen werden. So können Meinungen, die zur qualitativen Analyse von Produkten, zur Leistungsmessung von Unternehmen und öffentlichen Reaktionen auf politische Entscheidungen eingeholt werden, weitgehend verzerrt sein. Wir schlagen eine Satzebene vor;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25856-5_29 d0d05711886f13dbd4785559e4edb792;de;;;7.2.;;;Verwendung von Sprachmodell, Phrasen und Wikipedia-Forward-Links für INEX 2009 In diesem Beitrag stellen wir die Arbeit der Information Retrieval Modeling Group (MRIM) des Computer Science Laboratory of Grenoble (LIG) beim INEX 2009 Ad Hoc Track vor. Unser diesjähriges Ziel war zweierlei: erstens die Wirkung von extrahierten Nominalphrasen zu untersuchen, die zusätzlich zu Wörtern als Begriffe verwendet werden, und zweitens die Verwendung von Vorwärtslinks in Wikipedia zur Erweiterung von Suchanfragen. Für den Abruf verwenden wir ein Sprachmodell mit Dirichlet-Glättung für Dokumente und/oder Doxel, und mit einem Fetch-and-Browse-Ansatz wählen wir eine Rangfolge der Ergebnisse aus. Unsere besten Läufe gemäß Doxel-Bewertung erhalten den ersten Rang bei der Aufgabe Gründlich, und gemäß der Dokumentenbewertung erhalten wir den ersten Rang bei den Aufgaben Fokussiert, Relevanz im Kontext und Beste im Kontext.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14556-8_12 05ce15d6c83040762a737e1bdead7fd2;de;;;7.2.;;;Ein hybrider Ansatz für die Messung der relationalen Ähnlichkeit Die Messung der relationalen Ähnlichkeit zwischen Wortpaaren ist bei vielen Verarbeitungsaufgaben natürlicher Sprache wichtig, wie etwa der Informationsextraktion und der Informationswiedergewinnung. Das Papier schlägt einen hybriden Ansatz für die relationale Ähnlichkeitsmessung vor, der auf verschiedenen Aspekten basiert, einschließlich;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37450-0_32 1157403987ff75466bed11d6f3eaf36a;de;;;7.2.;;;Schutz der Integrität von Java-Komponenten vor Trojanischen Pferden Wir diskutieren, wie die Integrität von Komponenten von Java-Anwendungen geschützt werden kann. Es werden intrinsische und extrinsische Schutzmechanismen eingesetzt. Zu den Funktionen der Java-Anwendungsprogrammierschnittstelle gehören Berechtigungen und signierte JAR-Dateien. Die Stärke der Methoden hängt vom Betriebssystem ab, in das die Java Virtual Machine eingebettet ist. Es werden mögliche Angriffe von Trojanischen Pferden auf die Komponentenintegrität aufgezeigt und ein Ansatz vorgestellt, um diese zu verhindern bzw.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35693-8_6 c062c916d6a431753ba1be761087da45;de;;;7.2.;;;Vom Schüler-Geek zum Lehrer-Geek-Chic – Reflexionen darüber, wie Computer als Schüler und dann als Lehrer verwendet wurden Dieses Kapitel ist eine Reflexion über die Computernutzung in der Zeit des Autors als Sekundarschüler und dann fünf Jahre später als qualifizierter Informatiklehrer. Trotz des ungleichmäßigen Informatikunterrichts in den 1980er Jahren, geringer Schülerzahl und der Marginalisierung des Fachs, florierte die Informatik in den 1990er Jahren. Mit ständig steigenden Einschreibungen für Computerfächer und einer starken Nachfrage nach Zugang zum Computerraum waren die Ressourcen erschöpft und die Spannungen hoch. Einige der frühen Probleme, die bei der Einführung des Computers auftauchten, wurden gelöst, während andere weiterhin eine Herausforderung darstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55119-2_6 ac64f6a4d7ccd73c922ec877e1883f1a;de;;;7.1.;;;Verkehrspolitik: Social Media und nutzergenerierte Inhalte in einem sich wandelnden Informationsparadigma Die rasanten und jüngsten Entwicklungen in sozialen Netzwerken bieten Transportanbietern, Regierungen und Hochschulen eine Vision von Informationskanälen der „nächsten Generation“. In diesem Kapitel werden die wichtigsten Anforderungen an eine Methodik zum Sammeln von Informationen in sozialen Medien im Verkehrskontext identifiziert und die damit verbundenen Herausforderungen aufgezeigt. Es werden drei Fragen adressiert, (1) die Art und Weise, wie Social Media-Daten neben oder potenziell anstelle von aktuellen Verkehrsdatenquellen verwendet werden können, (2) die technischen Herausforderungen beim Text-Mining von Social Media, die Schwierigkeiten bei der Generierung hochwertiger Daten für den Verkehr schaffen und schließlich (3) ob es größere institutionelle Hindernisse bei der Nutzung des Potenzials von Social-Media-Daten für den Verkehrssektor gibt. Das Kapitel zeigt, dass Informationen aus sozialen Medien die traditionelle Datensammlung ergänzen, bereichern (oder sogar ersetzen) können. Während weitere Forschung erforderlich ist, um automatische oder halbautomatische Methoden zum Sammeln und Analysieren von verkehrsbezogenen Social-Media-Informationen zu entwickeln, werden in diesem Sektor auch neue Fähigkeiten benötigt, um den Nutzen dieser neuen Informationsquelle zu maximieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27237-5_15 295fdcd04780ffe5af17578af46f916c;de;;;7.2.;;;Ein Benchmark für inhaltsbasiertes Retrieval in bivariaten Datensammlungen Riesige Mengen unterschiedlicher Forschungsdaten werden produziert und in digitalen Bibliotheken öffentlich zugänglich gemacht. Eine wichtige Kategorie sind bivariate Daten (Messungen einer Variablen gegenüber der anderen). Beispiele für bivariate Daten sind Beobachtungen von Temperatur- und Ozonwerten (z. B. in der Umweltbeobachtung), der heimischen Produktion und der Arbeitslosigkeit (z. B. in der Wirtschaft) oder des Bildungs- und Einkommensniveaus (in den Sozialwissenschaften). Für den Zugriff auf diese Daten ist der inhaltsbasierte Abruf eine wichtige Abfragemodalität. Es ermöglicht Forschern, nach bestimmten Beziehungen zwischen Datenvariablen zu suchen (z. B. quadratische Abhängigkeit der Temperatur von der Höhe). Allerdings ist ein solcher Abruf bisher eine Herausforderung, da nicht klar ist, welche Ähnlichkeitsmaßnahmen anzuwenden sind. Es wurden verschiedene Ansätze vorgeschlagen, jedoch wurden keine Benchmarks zum Vergleich ihrer Retrieval-Effektivität definiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33290-6_31 05649967cc9388a27835ac0b36cabaac;de;;;7.2.;;;TLDRet: Ein zeitlich semantisch erleichtertes Linked Data Retrieval Framework Zeitliche Merkmale, wie Datum und Uhrzeit oder Uhrzeit eines Ereignisses, verwenden eine präzise Semantik für jede Art von Informationsabruf und damit für den Abruf von Linked-Data-Informationen. Wir haben jedoch festgestellt, dass die meisten Techniken zum Abrufen von Linked-Data-Informationen der Leistungsfähigkeit der zeitlichen Merkmalsaufnahme wenig Aufmerksamkeit schenken. Wir schlagen ein schlüsselwortbasiertes Framework zum Abrufen von Linked-Data-Informationen namens TLDRet vor, das zeitliche Merkmale einbeziehen und präzisere Ergebnisse liefern kann. Eine vorläufige Bewertung unseres Systems zeigt eine vielversprechende Leistung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06826-8_18 27b09324a05b6659575a44e57e75a101;de;;;7.2.;;;Übersicht der passenden Systeme Dieses Kapitel gibt einen Überblick über Matcher, die in den letzten Jahrzehnten entstanden sind. Es gab bereits einige Vergleiche von Matching-Systemen, insbesondere in (Parent und Spaccapietra;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38721-0_8 ad3a014dd4e0a18ff76ae380a6218674;de;;;7.2.;;;PageRank ohne Hyperlinks: Reranking mit PubMed-bezogenen Artikelnetzwerken für den biomedizinischen Textabruf Graphanalysealgorithmen wie PageRank und HITS sind in Webumgebungen erfolgreich, weil sie wichtige Beziehungen zwischen Dokumenten aus manuell erstellten Hyperlinks extrahieren können. Wir betrachten die Anwendung dieser Techniken auf die biomedizinische Textsuche. Im aktuellen PubMed;-;-;-;https://link.springer.com/article/10.1186/1471-2105-9-270 48365bfff66f7d49c33e80a2ec7c0c73;de;;;7.2.;;;Ein statistischer Ansatz zur Modellierung semantischer Beziehungen zwischen Dokumenten in digitalen Bibliotheken E-Learning-Repositorien und digitale Bibliotheken werden schnell zu wichtigen Quellen für die Sammlung von Informationen und Lernmaterialien. Solche Systeme müssen daher Dienste bereitstellen, um die Lernbedürfnisse ihrer Benutzer zu unterstützen. Wenn ein Retrievalsystem zeigt, wie seine Dokumente semantisch zueinander stehen, erhält der Benutzer die Freiheit, aus verschiedenen Materialien auszuwählen und sein Studium fokussiert zu steuern. Dies erfordert ein Modell, das Arten von Dokumentbeziehungen identifiziert, die verschiedene Aspekte des Lernens berücksichtigen müssen. Dieser Artikel definiert drei solcher Typen und ein einzigartiges statistisches Modell, das sie in technischen/wissenschaftlichen Dokumenten automatisch identifizieren kann. Das Modell definiert Maße zur Quantifizierung des Verwandtschaftsgrads auf der Grundlage unterschiedlicher statistischer Muster, die die gemeinsamen Begriffe in einem Dokumentenpaar aufweisen. Dieser Ansatz erfordert nicht unbedingt eine Wissensbasis oder einen Hypertext zum Identifizieren der charakteristischen Beziehung zwischen zwei Dokumenten. Ein solches statistisches Modell kann erweitert werden, um weitere Verwandtschaftstypen aufzubauen und kann neben verschiedenen anderen Techniken in Empfehlungsmaschinen für digitale Bibliotheken verwendet werden. Unsere Experimente mit einer großen Anzahl technischer Dokumente zeigen, dass unsere Techniken die verschiedenen Arten von Beziehungen zwischen Dokumenten effektiv extrahieren.;-;-;-;https://link.springer.com/article/10.1007/s10844-016-0423-6 93ba4e13b127c073206551be27fd81f0;de;;;7.2.;;;Ein nutzerzentrierter Ansatz für die Website-Entwicklung Website-Entwicklungsaktivitäten sind ein wachsender Aspekt der IT-Arbeit in vielen Organisationen. Derzeit scheint es jedoch nur wenige Methoden oder Frameworks für die Website-Entwicklung zu geben, und zahlreiche Forscher haben angemerkt, dass der Großteil der Website-Entwicklungsarbeit scheinbar ad hoc durchgeführt wird. In diesem Papier wird ein benutzerzentrierter Website-Entwicklungsansatz beschrieben und eine Fallstudie in einer britischen Universitätsabteilung wird bereitgestellt, um den Ansatz zu demonstrieren und zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35604-4_13 e394ba37b85686662a1c224934086681;de;;;7.2.;;;Kryptografische Hash-Funktionen Kryptografische Hashfunktionen sind ein wichtiges Werkzeug der Kryptografie und spielen eine grundlegende Rolle für eine effiziente und sichere Informationsverarbeitung. Eine Hash-Funktion verarbeitet eine beliebige Eingabenachricht mit endlicher Länge zu einer Ausgabe fester Länge, die als Hash-Wert bezeichnet wird. Aus Sicherheitsgründen sollte ein Hashwert nicht als Bild für zwei verschiedene Eingabenachrichten dienen und es sollte schwierig sein, die Eingabenachricht aus einem bestimmten Hashwert zu finden. Sichere Hashfunktionen dienen der Datenintegrität, Nichtabstreitbarkeit und Authentizität der Quelle in Verbindung mit den digitalen Signaturschemata. Keyed Hash-Funktionen, auch Message Authentication Codes (MACs) genannt, dienen der Datenintegrität und der Authentifizierung der Datenherkunft in der Einstellung des geheimen Schlüssels. Die Bausteine ​​von Hashfunktionen können mit Blockchiffren, modularer Arithmetik oder von Grund auf neu gestaltet werden. Die Designprinzipien der beliebten Merkle-Damgård-Konstruktion werden in fast allen weit verbreiteten Standard-Hash-Funktionen wie MD5 und SHA-1 befolgt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04117-4_4 816a4812fc9f30bc850be9ce74acc651;de;;;7.1.;;;Technische Infrastruktur: Strom für das Unternehmen Die Entwicklung des Gesundheitsmarktes stellt neue Anforderungen an den Einsatz von Informationstechnologie. Strategien für die Neugestaltung von Prozessen und die betriebliche Effektivität sind der Schlüssel zum Überleben und zum Gewinnen von Wettbewerbsvorteilen. Die zugrundeliegende Informationstechnologiearchitektur – die technische Infrastruktur – muss flexibel genug sein, um sich an die sich ändernden Anforderungen der Gesundheitsbranche anzupassen, und muss sowohl kostengünstig als auch handhabbar strukturiert sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-0519-7_12 24add481be869785800bfd598a56425c;de;;;7.2.;;;Alles wird immer besser, abgesehen von der Datenmenge Der Beitrag befasst sich zunächst mit den Hauptproblemen der aktuellen inhaltsbasierten Bildsuche und kommt zu dem Schluss, dass die größten Innovationsfaktoren in der Größe der Datensätze, der Möglichkeit, ein Bild sanft zu segmentieren, der interaktiven Spezifikation des Benutzerwunsches, der Schärfe und invariante Fähigkeiten von Features und das maschinelle Lernen von Konzepten. Unter diesen wird alles von Jahr zu Jahr besser, abgesehen von der Notwendigkeit der Annotation, die mit jeder Vergrößerung des Datensatzes schlechter wird. Daher richten wir unsere Aufmerksamkeit auf die Frage, welcher Anteil der Bilder beschriftet werden muss, um ein fast ähnliches Ergebnis zu erhalten, als wenn alle Bilder durch Annotation beschriftet worden wären? Und wie können wir ein interaktives Annotationsschema entwerfen, bei dem wir die Bilder zur Annotation bereitstellen, die in der Definition des Konzepts am informativsten sind (Grenzen)? Es scheint, dass wir ein zufälliges gefolgt von einem sequentiellen Annotationsschema entwickelt haben, das die Annotation von 1% gleich 25 Elementen in einem Datensatz von 2500 Gesichtern und Nicht-Gesichtern erfordert, um eine fast identische Grenze des Gesichtskonzepts im Vergleich zu der Situation zu erhalten, in der alle Bilder wären beschriftet worden. Dieser Ansatz für diesen Datensatz hat den Annotationsaufwand um 99 % reduziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27814-6_8 cf232cdba63c92ac1dbc56cc8a1d8b84;de;;;7.2.;;;Vier Perspektiven der Unternehmensmodellierung und Auswirkungen auf Unternehmensinformationssysteme Die Abstimmung zwischen Enterprise Modeling (EM) und Software Specification (SS) ist noch ungewiss, was zu Unternehmensinformationssystemen von geringer Qualität führt. Daher könnte nur die EM-getriebene Softwaregeneration helfen, Softwarefunktionalitäten an Domänenanforderungen auszurichten. Dies inspiriert die Entstehung innovativer Ansätze wie der SDBC (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-45688-7_66 488102fb3cc6d9382a9d90b315fc2c89;de;;;7.2.;;;Schlüsselwortbasierter Informationsaustausch in der ACORN Multi-Agent-Architektur ACORN bietet eine agentenbasierte Architektur für den Abruf und die Bereitstellung von Informationen über Netzwerke hinweg. Das Hauptziel dieses Papiers besteht darin, das Design und die Implementierung des Informationsaustauschs in einer Gemeinschaft mobiler Agenten in ACORN vorzustellen, basierend auf dem Austausch von Schlüsselphrasen und dem Vergleich zwischen Agenten. Beim schlüsselphrasenbasierten Informationsaustausch werden Schlüsselphrasen und ihre Gewichtung verwendet, um Benutzerinteressen und Dokumentinhalte darzustellen. Agenten verwenden diese Schlüsselwort-Gewichts-Paare, um andere relevante Agenten zu finden. Zwei Ähnlichkeitsmaße, das Teilstring-Indizierungsverfahren und das Kosinusmaßverfahren, werden verglichen. Die ACORN with Cosinus-Maßnahme erweist sich hinsichtlich des sinnvollen Informationsaustauschs und der Ausführungszeit als effizienter.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45391-1_20 0e244f5c6a8a6aff74d9b3edaacfeca7;de;;;7.2.;;;Sprachübergreifende Pseudorelevanz-Feedback-Techniken für informellen Text Frühere Arbeiten haben gezeigt, dass Pseudo-Relevanz-Feedback (PRF) für das sprachenübergreifende Information Retrieval (CLIR) wirksam sein kann. Diese Forschung basierte hauptsächlich auf Korpora wie Nachrichtenartikeln, die in relativ formaler Sprache verfasst wurden. In diesem Papier greifen wir das CLIR-Problem erneut auf und konzentrieren uns dabei auf die Probleme, die bei informellen Texten wie Blogs und Foren auftreten. Um das Problem der beiden Hauptquellen von „verrauschtem“ Text anzugehen, nämlich die Übersetzung und der informelle Charakter der Dokumente, schlagen wir vor, zwischen inter- und intrasprachlichen PRF zu wählen, basierend auf den Eigenschaften der Sprache der Abfrage und der Korpora gesucht wird. Experimentelle Ergebnisse zeigen, dass dieser Ansatz die Ergebnisse nach dem Stand der Technik, die für ein- und mehrsprachige Umgebungen berichtet wurden, deutlich übertreffen kann. Weitere Analysen zeigen, dass inter-language PRF besonders bei Anfragen mit schlechter Übersetzungsqualität hilfreich ist. Intrasprachliches PRF ist für qualitativ hochwertige übersetzte Abfragen nützlicher, da es die Auswirkungen potenzieller Übersetzungsfehler in Dokumenten reduziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06028-6_22 b9e219f635fea391ed79fd3e25377377;de;;;7.2.;;;Mining umstrittener Dokumente Diese Arbeit schlägt eine unüberwachte Methode vor, die darauf abzielt, die Qualität der Meinungsforschung in strittigen Texten zu verbessern. Es präsentiert ein Wahrscheinlichkeitsmodell des Joint Topic Viewpoint (JTV), um die zugrunde liegenden abweichenden argumentativen Ausdrücke zu analysieren, die in einer Sammlung umstrittener Dokumente vorhanden sein können. Es erweitert die ursprüngliche latente Dirichlet-Zuordnung, wodurch es Domain- und Thesaurus-unabhängig wird, z. B. nicht auf WordNet-Abdeckung angewiesen ist. Das konzipierte JTV hat das Potenzial, automatisch die Aufgabe zu übernehmen, verknüpfte Begriffe zu extrahieren, die einen argumentativen Ausdruck bezeichnen, entsprechend den versteckten Themen, die es diskutiert, und dem eingebetteten Standpunkt, den es äußert. Darüber hinaus ermöglicht die Struktur von JTV die unüberwachte Gruppierung der erhaltenen Argumentationsausdrücke gemäß ihren Standpunkten unter Verwendung eines eingeschränkten Clustering-Ansatzes. Es werden Experimente mit drei Arten von umstrittenen Dokumenten durchgeführt: Umfragen, Online-Debatten und Leitartikel. Die qualitativen und quantitativen Analysen der experimentellen Ergebnisse zeigen die Wirksamkeit unseres Modells bei der Behandlung von sechs verschiedenen strittigen Fragen im Vergleich zu einer Methode nach dem Stand der Technik. Darüber hinaus wird die Fähigkeit demonstriert, automatisch unverwechselbare und informative Muster von argumentativen Ausdrücken zu generieren. Darüber hinaus erweist sich die Kohärenz dieser argumentativen Ausdrücke als qualitativ hochwertig, wenn sie auf der Grundlage eines kürzlich eingeführten automatischen Kohärenzmaßes bewertet wird.;-;-;-;https://link.springer.com/article/10.1007/s10115-015-0888-6 64e7680a6f3be27c4fea6509d3018043;de;;;7.2.;;;Einsprachige und sprachenübergreifende QS mit AliQAn- und BRILI-Systemen für CLEF 2006 Eine frühere Version von AliQAn nahm an der einsprachigen Fragebeantwortungsaufgabe des CLEF 2005 teil. Für den diesjährigen Lauf werden dem System neue und repräsentative Muster bei der Frageanalyse und Extraktion der Antwort hinzugefügt. Eine neue Ontologie von Fragetypen wurde aufgenommen. Die ungenauen Fragen wurden verbessert. Die Engine zum Abrufen von Informationen wurde modifiziert, indem nur die erkannten Schlüsselwörter aus dem Frageanalysemodul berücksichtigt wurden. Außerdem wurden viele PoS-Tagger- und SUPAR-Fehler behoben und schließlich Wörterbücher über Städte und Länder integriert. Zur Bearbeitung von Cross-Lingual-Aufgaben verwenden wir das BRILI-System. Die erzielten Ergebnisse sind eine Gesamtgenauigkeit von 37,89 % für einsprachige und 21,58 % für zweisprachige Aufgaben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74999-8_53 542c6a369e237a15e9d4bb608e362363;de;;;7.2.;;;Drei Aspekte zur Lösung des Warteschlangenservicesystems auf der Weltausstellung in Shanghai Dieses Papier analysiert das Warteschlangenproblem, das während der Shanghai World Expo 2010 aufgetreten ist. Das Warteschlangenproblem wird auf drei Ebenen diskutiert. Die drei Ebenen umfassen die physischen, psychologischen und sozialen Aspekte des Warteschlangenproblems. Das kollektive Verhalten der Besucher wird durch die Analyse der Informationen aus den verschiedenen Quellen, wie dem Netz der elektronischen Augen, der Bewertungsplattform auf Basis des Mobiltelefonsystems und des Internets, untersucht. Es wird eine hybride Informationsnetzwerktechnologie implementiert. Basierend auf der Systemmethodik Wuli-Shili-Renli (WSR) wird ein neuer theoretischer Analyserahmen für das Warteschlangenproblem vorgeschlagen.;-;-;-;https://link.springer.com/article/10.1007/s11518-013-5223-8 a8d1c2564b2b662a7873854c2ec74d7c;de;;;7.2.;;;: Effiziente Tag-basierte kollaborative räumliche Suche in einem geo-sozialen Netzwerk Die Verbreitung von geo-sozialen Netzwerken wie Foursquare und Facebook Places ermöglicht es Benutzern, Standortinformationen und die entsprechenden beschreibenden Tags zu generieren. Über geo-soziale Netzwerke können Nutzer mit ähnlichen Interessen gemeinsam soziale Aktivitäten planen. In diesem Artikel wird ein neuartiger Abfragetyp vorgeschlagen, der als Tag-basierter Top-;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29038-1_40 5e521fd207f968ef6d385b2755f815ba;de;;;7.1.;;;Ein verallgemeinertes Klassifikationsmodell für die Spezifikation der Informationsarchitektur Dieses Papier präsentiert ein formales Modell für die Spezifikation der Informationsarchitektur. Da das Modell auch eine Interpretation bei der Zellherstellungsbildung hat und angemessene effektive Techniken zum Lösen dieses letzteren Problems verfügbar sind, können diese Techniken auch auf die Spezifikation der Informationsarchitektur angewendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-78910-6_126 aa74c7c7a077340338c19aeee50f6834;de;;;7.1.;;;Auf dem Weg zum Compiler für Business-IT-Systeme Geschäftsinformationssysteme und Unternehmensanwendungen haben sich in den letzten Jahrzehnten kontinuierlich zu Business-IT-Systemen entwickelt, die das Geschäftsprozessmanagement direkt mit den neuesten technologischen Entwicklungen wie Webservices und serviceorientierten Architekturen verbinden und integrieren. Viele dieser technologischen Entwicklungen umfassen Bereiche der bisherigen wissenschaftlichen Forschung: Geschäftsregeln stehen in engem Zusammenhang mit Expertensystemen, Semantic-Web-Technologie nutzt Ergebnisse aus Beschreibungslogiken, Versuche, Web-Services mit intelligenten Planungstechniken zu komponieren, sowie die Analyse von Geschäftsprozessen und Web Servicechoreografien basieren oft auf Model Checking. Damit sind viele der bei diesen neuen Technologien auftretenden Probleme zumindest prinzipiell gelöst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22386-0_1 20ecc12776dc28cccffa733719bfccf2;de;;;7.1.;;;Gestaltung von Multimedia-Schnittstellen Multimediale Schnittstellen werden derzeit durch Intuition geschaffen. Es wird die Entwicklung einer Methode zur Analyse und Gestaltung von Multimedia-Präsentationsschnittstellen beschrieben. Die Studie untersucht aufgabenbasierte Informationsanalyse, Persistenz von Informationen, Auswahlaufmerksamkeit und Parallelität in der Präsentation. Die Methode bietet eine Agenda mit Themen, Diagrammen und Techniken für die Spezifikation sowie Richtlinien für die Medienauswahl und Präsentationsskripts. Die Anwendung der Methode wird anhand einer Fallstudie zum Notfallmanagement an Bord veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-57433-6_42 970e339d47a668db01c84c3336eda5a2;de;;;7.1.;;;Hin zu einer höheren Reife des Konfigurationsmanagements Konfigurationsmanagement (CM) als Disziplin, die die Konsistenz zwischen Produktinformationen und der Realität über den gesamten Produktlebenszyklus hinweg sicherstellt, wird in letzter Zeit von den meisten Branchen mehr geschätzt. Obwohl die umfangreichen Vorteile dieser Disziplin, wie die direkte Auswirkung auf die Erhöhung der Kapitalrendite, die Senkung der Lebenszykluskosten und der Vorlaufzeit, von den meisten Unternehmen erkannt werden, gibt es kein spezifisches Reifegradmodell in diesem Bereich zur Bewertung verschiedener Aspekte der CM-Aktivitäten von Unternehmen. Aus diesem Grund wird in diesem Papier ein Framework zur Konfigurationsmanagement-Reifegradbewertung entwickelt, das auf dem neuesten Stand der Technik, Standards und anderen Reifegradmodellen basiert. Um den gesamten CM-Reifegrad verschiedener Industriesektoren anhand des entwickelten Reifegradmodells zu bewerten, wurde das Reifegradbewertungsmaterial im Rahmen einer Web-Befragung an ein breites Spektrum von CM-bezogenen Mitarbeitern in verschiedenen Industriesektoren versandt. Die umfangreichen Ergebnisse dieser Analyse haben das Gesamtkompetenzniveau verschiedener Branchen sowie Verbesserungspotenziale aufgezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41501-2_40 51b559772a4766dd1ff14661777f1d2f;de;;;7.1.;;;Untersuchung von Fehlerfaktoren bei der Einführung von Unternehmenssystemen aus der Perspektive des Mitarbeiteralters Die aktuelle Studie untersucht die Rolle des Alters der Mitarbeiter bei der Wahrnehmung von Gründen für das Scheitern von Enterprise System (ES)-Implementierungen. Auf der Grundlage empirischer Daten, die von polnischen ES-Praktikern gesammelt wurden, und dem Ansatz der Grounded Theory folgend, wurde die Taxonomie der berichteten Fehlerfaktoren entwickelt. Als nächstes wurde eine Analyse der Unterschiede in der Wahrnehmung von Versagensfaktoren in Abhängigkeit vom Alter der Befragten durchgeführt. Die altersbasierte Analyse zeigte, dass die Wahrnehmung von ES-Versagensfaktoren mit dem Alter der Mitarbeiter variieren kann. Die wichtigsten Ergebnisse deuten darauf hin, dass ältere Arbeitnehmer dazu neigen, ES-Versagen aus der Perspektive eines Unternehmens und seiner Organisation wahrzunehmen, während jüngere Arbeitnehmer Ursachen für ES-Versagen hauptsächlich in der Organisation von ES-Implementierungsprojekten erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-66996-0_9 de08fe29bde15570e924faec86eef826;de;;;7.1.;;;Balancieren Sie Ihre Datendiät Die Rolle von Management-Informationssystemen bei der Umwandlung von Daten in Informationen ist dem Verdauungssystem eines Tieres nicht unähnlich, das Nahrung in Energie umwandelt. Daten sind die „Nahrung“ der Organisation: Ohne sie wird die Organisation verdorren und sterben. Aber die bloße Eingabe von Daten in ein System reicht für das Überleben der Organisation nicht aus. Irrelevante oder überschüssige Daten können mit Junk Food verglichen werden, das die Organisation der notwendigen Vitamine, Mineralstoffe und Spurenelemente verhungert und zu einer ineffizienten (vielleicht sogar fetten?) Organisation führt.;-;-;-;https://link.springer.com/article/10.1057/ori.1990.10 4108215e4ccb8a17a09fb9a65224c44d;de;;;7.2.;;;Über transparentes Recht, gute Gesetzgebung und Zugang zu Rechtsinformationen: Auf dem Weg zu einem integrierten Rechtsinformationssystem Dieses Papier knüpft an Jon Bings großartige Vision eines integrierten nationalen Rechtsinformationssystems an. Die Absicht dieses Beitrags ist es, Bings Vision eines integrierten Informationssystems zu variieren, indem der Fokus auf die Laien, also auf diejenigen, die dem Gesetz unterliegen, verlagert wird. Die modifizierte Vision ist ein integriertes Informationssystem, das den Bürgern einen verständlichen Zugang zum Recht ermöglicht. Dies setzt jedoch eine eindeutige und transparente Rechtsordnung voraus. Dementsprechend wird auch betont, dass intelligentes Legal Knowledge Engineering ein hohes Potenzial hat, die Präzision und Rationalität im Recht zu erhöhen und damit die Berechenbarkeit des Rechts und die Rechtssicherheit zu gewährleisten. Die zentrale Hypothese lautet, dass es rationaler ist, den Rechtssubjekt in den Mittelpunkt zu stellen, um mit den Mitteln und Technologien unserer Zeit größtmögliche Rechtspräzision anzustreben, als strategische Unklarheiten aufrechtzuerhalten. Auf dieser Grundlage schlägt das Papier die Entwicklung eines grundlegenden Sets kontrollierbarer und justizierbarer grundlegender juristischer Formulierungsstandards auf EU- und nationaler Ebene vor und fördert einen Transparenz-by-Design-Ansatz für juristisches Knowledge Engineering, um Präzision, Integrität, Verständlichkeit und Zugänglichkeit zu verbessern des Gesetzes. Ähnlich wie die Vision von Jon Bing wird auch diese modifizierte Vision eines integrierten Rechtsinformationssystems höchstwahrscheinlich unerfüllt bleiben. Doch was wäre Wissenschaft ohne Visionen und (Science-)Fictions?;-;-;-;https://link.springer.com/article/10.1007/s10506-015-9172-z 0ab715830eb2ee44f747d8096f87678f;de;;;7.2.;;;Strukturelle Merkmale zur Vorhersage der sprachlichen Qualität von Texten Der Satzbau gilt als wichtiger Bestandteil der sprachlichen Gesamtqualität des Textes. Allerdings haben nur wenige empirische Studien versucht, zu charakterisieren, wie und inwieweit strukturelle Merkmale die Gewandtheit und die sprachliche Qualität bestimmen. Wir berichten über die Ergebnisse von Experimenten zur Vorhersagekraft syntaktischer Phrasierungsstatistiken und anderen strukturellen Merkmalen für diese Aspekte von Text. Als Goldstandard werden manuelle Bewertungen der Satzflüssigkeit für die maschinelle Übersetzungsbewertung und der Textqualität für die Zusammenfassungsbewertung verwendet. Wir stellen fest, dass viele strukturelle Merkmale in Bezug auf die Phrasenlänge schwach, aber signifikant mit der Geläufigkeit korreliert sind, und Klassifikatoren, die auf der gesamten Suite struktureller Merkmale basieren, können eine hohe Genauigkeit beim paarweisen Vergleich der Satzflussigkeit und bei der Unterscheidung von maschinellen Übersetzungen von menschlichen Übersetzungen erreichen. Wir testen auch die Hypothese, dass die erlernten Modelle allgemeine Fließfähigkeitseigenschaften erfassen, die auf von Menschen verfassten Text anwendbar sind. Die Ergebnisse unserer Experimente stützen die Hypothese nicht. Gleichzeitig erweisen sich Strukturmerkmale und darauf basierende Modelle als robust für die automatische Bewertung der sprachlichen Qualität von Mehrdokumentenzusammenfassungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15573-4_12 fdfb8676e69688301d051b59d9521b19;de;;;7.2.;;;Ein neuer Ansatz für die inhaltsbasierte Bildsuche mit Fuzzy Das Auffinden eines Bildes aus einer großen Menge von Bildern ist ein äußerst schwieriges Problem. Eine Lösung besteht darin, Bilder manuell zu beschriften, aber dies ist sehr teuer, zeitaufwendig und für viele Anwendungen nicht durchführbar. Darüber hinaus hängt der Kennzeichnungsprozess von der semantischen Genauigkeit bei der Beschreibung des Bildes ab. Daher werden viele inhaltsbasierte Image Retrieval (CBIR)-Systeme entwickelt, um Low-Level-Merkmale zum Beschreiben des Bildinhalts zu extrahieren. Dieser Ansatz verringert jedoch die menschliche Interaktion mit dem System aufgrund der semantischen Lücke zwischen Low-Level-Features und High-Level-Konzepten. In dieser Studie verwenden wir Fuzzy-Logik, um CBIR zu verbessern, indem wir Benutzern ermöglichen, ihre Anforderungen in Worten auszudrücken, der natürlichen Art der menschlichen Kommunikation. In unserem System wird das Bild durch einen Fuzzy-Attributed-Relational-Graph (FARG) dargestellt, der jedes Objekt im Bild, seine Attribute und seine räumliche Beziehung beschreibt. Die Textur- und Farbattribute werden so berechnet, dass sie das Human Vision System (HSV) modellieren. Wir haben einen neuen Ansatz für das Graph-Matching vorgeschlagen, der dem menschlichen Denkprozess ähnelt. Das vorgeschlagene System wird von verschiedenen Benutzern mit unterschiedlichen Perspektiven bewertet und entspricht in hohem Maße der Benutzerzufriedenheit.;-;-;-;https://link.springer.com/article/10.1007/s11235-008-9142-9 f3223abba8ec8d924c31f6043225cf8c;de;;;7.1.;;;Untersuchung des Potenzials von fähigkeitsorientiertem Design und Bereitstellung in einer KMU-Fallstudie Die Wettbewerbsfähigkeit auf einem internationalen Markt ist in vielen Unternehmensbereichen eng mit der Fähigkeit verbunden, Geschäftsmodelle und Unternehmensstrategien schnell an Veränderungen des Marktumfelds oder der Kundenanforderungen anzupassen. Das Kompetenzmanagement gehört zu den Ansätzen, die als Beiträge zur Bewältigung dieser Herausforderungen vorgeschlagen wurden. Eine der wichtigsten Funktionen besteht darin, den Bereitstellungskontext eines Geschäftsservices explizit zu erfassen und Mechanismen zum Konfigurieren oder Generieren seiner Bereitstellung bereitzustellen. Zu den Ansätzen für das Fähigkeitsmanagement gehört der im Rahmen des EU-RP7-Projekts CaaS vorgeschlagene Ansatz von Capability-Driven Design and Delivery (CDD). Das Ziel dieses Papiers ist es, zu (1) einem besseren Verständnis des Potenzials von CDD und (2) zur Validierung des CDD-Ansatzes beizutragen. Das Papier befasst sich mit diesen Aspekten am Beispiel eines kleinen und mittleren Unternehmens (KMU).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19243-7_1 df2e98b0505ac6bfdda43b048cfdd796;de;;;7.1.;;;Den Wert integrierter RFID-Systeme verstehen: eine Fallstudie aus dem Bekleidungseinzelhandel Dieser Beitrag beschäftigt sich mit dem Geschäftswert der Radio Frequency Identification (RFID)-Technologie im Einzelhandel. Wir präsentieren eine Fallstudie eines RFID-Projekts bei Galeria Kaufhof, einem Tochterunternehmen der Metro Group und einer der größten Warenhausketten Europas. Das Projekt umfasst eine Vielzahl von RFID-Anwendungen an der Schnittstelle von Filiallogistik und Kundenservice. Der Beitrag, den unsere Studie zur Literatur leistet, ist dreifach. Zunächst beschreiben wir einen innovativen Großversuch, der in mehrfacher Hinsicht über die bisherigen Projekte hinausgeht. Der grundlegendste Unterschied zu früheren Versuchen ist die vollständige Integration von RFID-Ereignisdaten mit Point-of-Sale (POS) und Stammdaten, die dem Händler erstmals die Möglichkeit bietet, physische Prozesse im Laden direkt zu beobachten und zu analysieren. Zweitens erlaubt die Heterogenität der von Kaufhof implementierten RFID-Anwendungen Theorien über die Auswirkungen von RFID auf Geschäftsprozesse aus IT-Wert-Sicht. Wir entwickeln ein konzeptionelles Modell, um die verschiedenen Ursache-Wirkungs-Ketten zwischen RFID-Investitionen und deren Auswirkungen auf die Unternehmensleistung, die Rolle komplementärer und kontextueller Faktoren sowie die Schwierigkeit, diese Auswirkungen mit objektiven Leistungsmaßen zu bewerten, zu erklären. Drittens vergleichen wir den Fall mit einem früheren Kaufhof-Prozess, der etwa 5 Jahre zuvor durchgeführt wurde. Die Unterschiede zwischen den Erkenntnissen, die das Unternehmen in den beiden Projekten gewonnen hat, verdeutlichen die Auswirkungen des technologischen Fortschritts und der Standardisierungsbemühungen der letzten Jahre auf die Wahrnehmung des Geschäftswerts von RFID durch die Führungskräfte, was eine Reihe nützlicher Implikationen für die Praxis ermöglicht.;-;-;-;https://link.springer.com/article/10.1057/ejis.2009.33 768cad4b7900bcff241dea8640e67f75;de;;;7.1.;;;Begründung und Design der erweiterten Krebsaufklärung für Langzeitüberlebende (EXCELS): eine randomisierte Kontrollstudie zu „High-Touch“- vs. „High-Tech“-Tools zum Selbstmanagement von Krebsüberlebenden in der Primärversorgung Überlebende von Brust-, Darm- und Prostatakrebs haben ein erhöhtes Risiko für Spät- und Langzeitfolgen nach der Behandlung. Die Nachbehandlungsphase der Versorgung ist oft schlecht koordiniert und die Überlebenden steuern die Nachsorge mit minimalen Informationen oder Anleitung durch ihr Gesundheitsteam. Dieses Manuskript beschreibt das Extended Cancer Education for Longer-term Survivors (EXCELS) in Primary Care Protocol. EXCELS ist eine randomisierte kontrollierte Studie zum Testen der Wirksamkeit von Selbstmanagement-Schulungsstrategien auf Patientenebene in Bezug auf die Einhaltung präventiver Gesundheitsdienste und Leitlinien zur Nachsorge von Krebsüberlebenden.;-;-;-;https://link.springer.com/article/10.1186/s12885-019-5531-6 db7b46691a356e044a2348c282fadd91;de;;;7.2.;;;Zertifikatsbasierte PKI und B2B E-Commerce: Passendes Match oder nicht? In diesem Papier wird vorgeschlagen, dass eine dringende Neubewertung erforderlich ist, um zu beurteilen, ob auf X.509-Zertifikaten basierende Strukturen die beste Technologie sind, um Sicherheitsschemata für den elektronischen Geschäftsverkehr zwischen Unternehmen (B2B) zu implementieren. Insbesondere schlägt sie vor, dass alternative Strukturen auf der Grundlage vereinfachter Verzeichnisschemata und „Trading Partner Agreements“ und anderer Konzepte weitaus effizientere und skalierbarere Lösungen bieten. Darüber hinaus lösen Verzeichnisstrukturen und dazugehörige Rechtsvereinbarungen das Problem der Beweiserhebung und -präsentation bei Streitigkeiten, insbesondere wenn es sich um Gerichtsverfahren handelt, besser. An der Spiegelung der altehrwürdigen Praxis der Einbeziehung eines „Notars“ oder „Zeugen“ in eine wichtige Reihe von Transaktionen, wie sie beispielsweise im B2B-Umfeld relevant sind, in Informationssystemen und Datennetzen noch viel Arbeit zu leisten. Dies unterscheidet sich deutlich von der Business-to-Consumer-Situation (B2C), bei der Transaktionen auf viel kleinerem Niveau durchgeführt werden. Insgesamt ist jedoch der Bedarf an vertrauenswürdigen Computerumgebungen (wie solche, die auf Schemata der „obligatorischen Zugriffssteuerung“ basieren) von größter Bedeutung, um Vertrauen in jedes beteiligte Computer-/Datennetzwerkschema aufzubauen.;-;-;-;https://link.springer.com/chapter/10.1007/0-306-46998-7_2 49ebc1b5f1339fcdda6f4898c16e3f2c;de;;;7.1.;;;Praktiken der physischen Vermögensverwaltung in der Industrie: Vergleiche zwischen Griechenland und anderen EU-Ländern Physical Asset Management ist „das optimale Lebenszyklusmanagement von Sachwerten, um die festgelegten Geschäftsziele nachhaltig zu erreichen“. Ein physischer Vermögenswert ist definiert als ein physischer Gegenstand, der einen potenziellen oder tatsächlichen Wert für eine Organisation hat. In den Jahren 2011-2012 führte der European Asset Management Committee (EAMC) der European Federation of National Maintenance Societies (EFNMS) eine Umfrage unter Branchen durch, die die Praktiken der physischen Asset-Verwaltung abbilden wollten. Die Umfrage enthielt Fragen zum Geschäftsumfeld der Befragten, Managementpraktiken, Verwendung von Key Performance Indicators, Unternehmensrichtlinien und treibenden Faktoren. Dieses Papier präsentiert die tieferen Ergebnisse der Umfrage zu den Antworten, den Einflüssen des Industriesektors und des Geschäftsumfelds auf die Praktiken der physischen Vermögensverwaltung, der Identifizierung typischer bestehender Vermögensverwaltungsprofile und Verbesserungsvorschläge. Der Schwerpunkt liegt auf dem Vergleich der Vermögensverwaltungspraktiken zwischen Griechenland und anderen EU-Ländern und bietet Einblicke in verschiedene technologische, geschäftliche Umgebungen und andere Faktoren, die die Praktiken der physischen Vermögensverwaltung beeinflussen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41263-9_63 78c57bab36e91ecae7e0c96ae32ca9e6;de;;;7.1.;;;Verlagerungsaktionsplanung in Elektrofahrzeug-Sharing-Systemen In diesem Beitrag wird ein Entwurf eines Umzugsplaners für Elektrofahrzeug-Sharing-Systeme vorgestellt, der Fahrzeuge regelmäßig auf mehrere Stationen verteilt, um die Servicefreundlichkeit zu verbessern. Für den Verlagerungsvektor oder die durch eine Verlagerungsstrategie vorgegebene Zielfahrzeugverteilung erstellt der vorgeschlagene Planer zwei Präferenzlisten, eine für Fahrzeuge in Überlaufstationen und die andere für Unterlaufstationen. Anschließend ordnet das Matching-Verfahren jedem Elektrofahrzeug eine Station so zu, dass die Umzugsentfernung und -zeit mit Hilfe eines modifizierten Stable-Ehe-Problemlösers minimiert werden. Die Leistungsmessung wird durch eine prototypische Implementierung zusätzlich zu dem zuvor entwickelten Analyse-Framework und realen Fahrtaufzeichnungen in der Region Jeju City durchgeführt. Die morgendliche Umzugsstrategie kann sowohl hinsichtlich der Umzugsentfernung als auch der Anzahl der Umzüge am besten vom vorgeschlagenen Umzugsplaner profitieren, hauptsächlich aufgrund des symmetrischen Verkehrsmusters am Morgen und am Abend.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35455-7_5 d74246cb650b9d779b5f3e1a2b53d65d;de;;;7.1.;;;Transformation des Gesundheitswesens: politische Diskurse zu IT und patientenzentrierter Versorgung Informationstechnologie (IT) wird in der politischen und wissenschaftlichen Literatur zunehmend als Schlüssel zur Modernisierung der Gesundheitsversorgung und zur patientenzentrierten Gesundheitsversorgung angesehen. Das Konzept der Patient-Centred Care (PCC) und die Rolle der IT bei der Transformation des Gesundheitswesens sind jedoch nicht einfach. Ihre Bedeutungen müssen ausgepackt werden, um Annahmen hinter verschiedenen Visionen und ihre Auswirkungen auf die IT-gestützte Transformation des Gesundheitswesens aufzudecken. Zu diesem Zweck gibt dieser Aufsatz einen Überblick über die Literatur zu PCC und IT und analysiert die englische Gesundheitspolitik zwischen 1989 und 2013. Die englische Politik hat sich zum Ziel gesetzt, das Gesundheitswesen von einer organisationszentrierten zu einer patientenzentrierten zu transformieren und hat die IT in den Mittelpunkt dieses Prozesses gestellt. Diese politische Vision basiert auf umstrittenen Konzeptualisierungen von PCC. Die IT-Implementierung ist problematisch und dies liegt zumindest teilweise an den zugrunde liegenden Zielen und Visionen der Gesundheitspolitik. Wenn diese Fehlausrichtung nicht angegangen wird, ist es unwahrscheinlich, dass die Herstellung technologisch überlegener Systeme oder besserer IT-Implementierungsstrategien zu weitreichenden und wesentlichen Veränderungen in der Art und Weise führt, wie das Gesundheitswesen bereitgestellt und erlebt wird. Damit die IT einen wirklich patientenzentrierten Gesundheitsdienst unterstützen kann, müssen die Bedürfnisse und Wünsche der Patienten identifiziert und in IT-gestützte Dienste integriert werden, anstatt einfach nachträglich hinzugefügt zu werden.;-;-;-;https://link.springer.com/article/10.1057/ejis.2014.40 f0ba35d3daccf46b62cc84e54b94b1ad;de;;;7.1.;;;Business-to-Business E-Marketplaces: Ein Literaturüberblick und Motivationen E-Business-Anwendungen erfordern solide Geschäftsmodelle, um die beteiligten Fertigungsunternehmen zu unterstützen und echte Vorteile aus diesen Anwendungen zu ziehen. Die Rentabilität von E-Marktplätzen kann durch die Integration von Multi-Agenten-Paradigmen, Produktionsplanungs-, Verhandlungs- und Koalitionsunterstützungstools gesteigert werden. In diesem Kapitel wird das Konzept der E-Marktplätze und die Einführung im Business-to-Business-Umfeld vorgestellt. Anschließend wird der Stand der wissenschaftlichen Literatur für die verschiedenen in der Literatur vorgeschlagenen Werkzeuge diskutiert. Das Kapitel diskutiert den Bedarf an innovativen Werkzeugen zur Unterstützung der E-Marktplätze, um den Mehrwert der E-Marktplätze zu steigern. Abschließend werden die Beweggründe diskutiert und der Aufbau des Buches beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-85729-707-5_1 ebae8fb2fc9b41cb347f3d6b89504dbb;de;;;7.1.;;;Ausfallbegründung durch deduktive Planung Dieser Beitrag beschäftigt sich mit der Automatisierung des Schlussfolgerns aus unvollständigen Informationen mittels Default-Logiken. Wir bieten Beweisverfahren für die wichtigsten Argumentationsmodi der Standardlogik, nämlich leichtgläubiges und skeptisches Denken. Wir beginnen damit, dass wir die Aufgabe des leichtgläubigen Denkens in Ausfalllogiken als deduktive Planungsprobleme umformulieren. Diese Interpretation liefert uns mehrere interessante und wertvolle Einblicke in die Beweistheorie der Ausfalllogiken. In erster Linie ermöglicht es uns, die große Anzahl verfügbarer Methoden, Algorithmen und Implementierungen zur Lösung deduktiver Planungsprobleme zu nutzen. Als Beispiel zeigen wir, wie leichtgläubiges Denken in bestimmten Varianten der Default-Logik mit Hilfe einer Planungsmethode auf Basis einer gleichungslogischen Programmierung umsetzbar ist. Darüber hinaus erlaubt uns unsere Interpretation, theoretische Ergebnisse, wie beispielsweise Komplexitätsergebnisse, aus dem Bereich der Planung auf den Bereich der Ausfalllogiken zu übertragen. Auf diese Weise haben wir zwei noch unbekannte Klassen von Ausfalltheorien isoliert, für die die Entscheidung der leichtgläubigen Folgerung polynomiell ist.;-;-;-;https://link.springer.com/article/10.1007/BF00881829 568a3b89e3abc1301b774400b2eaf5d4;de;;;7.2.;;;Die TU Kaiserslautern auf der INEX 2006 Digitale Bibliotheken bieten bequemen Zugriff auf große Textmengen, aber es ist schwierig, die für einen bestimmten Informationsbedarf relevanten Informationen zu finden. Die Workshops der Initiative zur Evaluation des XML-Retrievals (INEX) bieten ein Forum, um die Wirksamkeit von Retrieval-Strategien zu testen. In diesem Beitrag stellen wir die aktuelle Version unserer Suchmaschine vor, die für INEX 2006 eingesetzt wurde: Wie schon bei der INEX 2005 nutzt unsere Suchmaschine Strukturmuster – insbesondere die automatische Erkennung von Titeln – in den Rechercheergebnissen aus, um die passenden Ergebnisse zu finden überlappende Elemente. In diesem Jahr untersuchen wir, wie wir diese Methode ändern können, um besser mit der Wikipedia-Sammlung zu funktionieren, die deutlich größer ist als die in den Vorjahren verwendete IEEE-Sammlung. Wir zeigen, dass unsere Optimierungen sowohl die Abrufqualität erhalten als auch die Abrufzeit deutlich reduzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73888-6_22 7a0db04c0ae8fadf8d13f04014555154;de;;;7.2.;;;Positionsorientiertes Übersetzungsmodell für Zitationsempfehlungen Das Ziel eines Zitationsempfehlungssystems besteht darin, einige Referenzen für einen Ausschnitt in einem Artikel oder einem Buch vorzuschlagen, und dies ist sowohl für Autoren als auch für die Leser sehr nützlich. Das Zitationsempfehlungsproblem kann als Information-Retrieval-Problem formuliert werden, bei dem die Abfrage der Ausschnitt aus einem Artikel ist und die relevanten Dokumente die zitierten Artikel sind. In der Realität können das Zitationsschnipsel und die zitierten Artikel unterschiedlich beschrieben werden, was die Aufgabe der Zitationsempfehlung erschwert. Das Übersetzungsmodell ist sehr nützlich, um die Wortschatzlücke zwischen Abfragen und Dokumenten bei der Informationsbeschaffung zu schließen. Es kann mit einer Sammlung von Abfrage- und Dokumentpaaren trainiert werden, von denen angenommen wird, dass sie parallel sind. Solche Trainingsdaten enthalten jedoch viel Rauschen: Ein relevantes Dokument enthält normalerweise neben irrelevanten auch einige relevante Teile. Insbesondere darf der Zitationsausschnitt nur einen Teil des Inhalts des zitierten Artikels erwähnen. Um dieses Problem zu lösen, schlagen wir in diesem Artikel eine Methode vor, um Übersetzungsmodelle an solchen verrauschten Daten zu trainieren, das sogenannte positionsorientierte Übersetzungsmodell. Dieses Modell versucht, die Abfrage auf die relevantesten Teile des Dokuments auszurichten, damit sich die geschätzten Übersetzungswahrscheinlichkeiten stärker darauf stützen können. Wir testen dieses Modell in einer Zitierempfehlungsaufgabe für wissenschaftliche Arbeiten. Unsere Experimente zeigen, dass die vorgeschlagene Methode die bisherigen Retrievalmethoden auf Basis von Translationsmodellen deutlich verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34109-0_27 d9bdec3d3bdef368d720719fbf80c0db;de;;;7.2.;;;Ausnutzen von Meinungsverschiedenheiten durch unbefristete Aufgaben zur Erfassung von Interpretationsräumen Ein wichtiger Aspekt des Semantic Web ist, dass Systeme den Inhalt und Kontext von Text, Bildern, Tönen und Videos verstehen. Obwohl die Forschung in diesen Bereichen in den letzten Jahren Fortschritte gemacht hat, besteht immer noch eine semantische Lücke zwischen den verfügbaren Multimediadaten und den von Menschen annotierten Metadaten, die den Inhalt beschreiben. Diese Forschung untersucht, wie der gesamte Interpretationsraum des Menschen über Inhalt und Kontext dieser Daten erfasst werden kann. Die Methodik besteht darin, offene Crowdsourcing-Aufgaben zu verwenden, die die Erfassung mehrerer Interpretationen in Kombination mit nicht übereinstimmenden Metriken zur Bewertung der Ergebnisse optimieren. Diese Beschreibungen können sinnvoll verwendet werden, um die Informationsbeschaffung und -empfehlung von Multimedia zu verbessern, um Komponenten des maschinellen Lernens zu trainieren und zu bewerten sowie die Ausbildung und Bewertung von Experten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-34129-3_56 b238337313e72dbeef6d2e2284263ed8;de;;;7.1.;;;Theoretischer Hintergrund Die Studie orientiert sich im Bereich des strategischen Managements, genauer gesagt in der Strategieprozessforschung. Unter Berücksichtigung der inhärenten Verflechtungen zwischen Strategieprozess und Strategieinhalten wird die Studie inhaltliche Elemente einbeziehen, um ganzheitlichere Erkenntnisse in der Strategiebildung zu gewinnen. Der theoretische Hintergrund der Studie bleibt jedoch das Feld der Strategieprozessforschung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-9350-8_2 16c36b6b9b945e4ff72f1fa714a67f12;de;;;7.1.;;;Dynamische Zusammensetzung und Analyse moderner serviceorientierter Informationssysteme Trotz aller Vorteile, die eine serviceorientierte Architektur (SOA) mit sich bringt, argumentieren Experten, dass SOA mehr Komplexität in Informationssysteme bringt, anstatt sie aufzulösen. Das Problem der Serviceintegration stellt moderne Unternehmen vor Herausforderungen, die das Risiko der SOA-Implementierung eingehen. Einer der wichtigen Aspekte dieses Problems betrifft die dynamische Dienstzusammensetzung, die viele Arten von Informationen und Beschränkungen berücksichtigen muss, die in jedem Unternehmen vorhanden sind. Darüber hinaus sollten auch alle Änderungen in der Geschäftslogik zeitnah reflektiert werden. Dieses Kapitel schlägt den Ansatz zur Lösung des genannten Problems vor, der auf Konzepten wie modellgetriebener Architektur (MDA), Ontologiemodellierung und logischer Analyse basiert. Der Ansatz besteht aus mehreren Modellierungsschritten und einer logischen Finite-Scope-Analyse zur automatisierten Übersetzung von Geschäftsprozessen in die Abfolge von Dienstaufrufen. Die formale Sprache der relationalen Logik wird als Schlüsselelement des vorgeschlagenen Ansatzes vorgeschlagen, der für die logische Analyse und die Generierung von Service-Workflows verantwortlich ist. Wir präsentieren eine logische Theorie zur automatischen Spezialisierung von generischen Orchestrierungsvorlagen, die der semantischen Spezifikation abstrakter Dienste in OWL-S nahe kommen. Die entwickelte logische Theorie wird formal in Begriffen der relationalen Logik beschrieben. Unser Ansatz wird mit der Software MIT Alloy Analyzer implementiert und getestet.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-7582-8_2 a1f6e2cc0894149c030d1abf11b93f3d;de;;;7.2.;;;Agentenbasierte Modellierung als Forschungswerkzeug für die kriminologische Forschung Computergestützte Modellierungstechniken, die aus Bereichen wie der Informatik und der künstlichen Intelligenz stammen, können für die kriminologische Forschung von Vorteil sein. Aufgrund ihrer formalen Natur können Rechenmodelle von Maschinen verarbeitet werden, die mit ihnen arbeiten, beispielsweise zu Simulationszwecken. Infolgedessen können diese Techniken dazu beitragen, Erkenntnisse zu gewinnen, die auf der Grundlage rein informeller Theorien fehlten. Ein bekanntes Beispiel für eine solche Technik, die in der Kriminologie weit verbreitet ist, ist die agentenbasierte Modellierung.;-;-;-;https://link.springer.com/article/10.1186/s40163-014-0014-1 57bdbede41f72cfb651b8c77f9e3b7be;de;;;7.2.;;;Von oblivious AES zu effizienter und sicherer Datenbank Join in der Multiparty Setting Die AES-Blockchiffre ist ein wichtiges kryptografisches Grundelement mit vielen Anwendungen. In dieser Arbeit beschreiben wir, wie die AES-128-Blockchiffre in der Mehrparteienumgebung effizient implementiert werden kann, in der sowohl der Schlüssel als auch der Klartext in einer geheimen gemeinsamen Form vorliegen. Insbesondere untersuchen wir mehrere Ansätze für die AES-S-Box-Substitution basierend auf einer unauffälligen Tabellensuche und Schaltungsbewertung. Angesichts dieser sicheren AES-Implementierung erstellen wir eine universell zusammensetzbare Datenbank-Join-Operation für geheime gemeinsam genutzte Tabellen. Das resultierende Protokoll skaliert nahezu linear mit der Datenbankgröße und kann mittelgroße Datenbanken mit 100.000 Zeilen in wenigen Minuten zusammenführen, was viele datenschutzwahrende Data-Mining-Algorithmen in der Praxis umsetzbar macht. Alle praktischen Implementierungen und Leistungsmessungen erfolgen auf dem;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38980-1_6 e7864d2e6f2dccb9e136cf4294d3681c;de;;;7.2.;;;Prozessinnovationen und -verbesserungen messen Eine große Herausforderung bei der Prozessverbesserung besteht darin, Prozessinnovationen zu verstehen. und Verbesserung der Effizienz und Nutzung. Woher wissen wir, dass Prozessinnovationen und -verbesserungen organisatorische Vorteile bringen? Wir brauchen einen Mechanismus zum Messen. In diesem Papier berichten wir von einer Längsschnittstudie der Aktionsforschung beim Telekommunikationsunternehmen Ericsson, in der ein Messmechanismus entwickelt und erfolgreich in der Praxis eingesetzt wurde, um die Prozesseffizienz zu verstehen, zu lernen und zu messen. Konkret wurde der Messmechanismus durch empirische Tests in Kombination mit einem Ziel-Frage-Metriken (GQM) Ansatz aufgebaut. Der resultierende Messmechanismus besteht aus vier korrelierten Metriken, die Prozessnutzung, Prozessverpflichtung, Prozesslernen und Prozessverbesserung anzeigen. Derselbe Messmechanismus kann auch verwendet werden, um Feedback und Bewertungen zu erhalten, wodurch es der Organisation ermöglicht wird, die Prozesseffizienz und -nutzung sowie den Erfolg der Prozessverbesserungen zu bestimmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-72804-9_14 cf4513cb41ff4e921bd1e850c20034c5;de;;;7.2.;;;Identifizierung der Live-Version mit Audioszenenerkennung Dieses Papier präsentiert ein Live-Versions-Musikidentifikationssystem durch Modifizieren des herkömmlichen Coverlied-Identifikationssystems. Das vorgeschlagene System umfasst zwei Phasen: eine Phase zur Identifizierung der Live-Version und eine Phase zur Erkennung einer Audioszene. Wir verbessern die Genauigkeit des Systems, indem wir Ähnlichkeitsbewertungen in der Live-Versionsidentifikationsphase gewichten und Szenen mithilfe von RMS, Pulsklarheit und Ähnlichkeitsbewertungen unterscheiden. Die Ergebnisse zeigen, dass die vorgeschlagene Methode besser abschneidet als die vorherige Methode. Der endgültige Algorithmus erreicht im Durchschnitt eine Genauigkeit von 70 %.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-14445-0_35 5db960c5585e88383aa282fca1f1a5da;de;;;7.2.;;;Fortgeschrittene lexikalische Ontologien und hybride wissensbasierte Systeme: Erste Schritte zu einem dynamischen elektronischen Rechtskommentar Die Forschung zum Legal Information Retrieval (IR) hat die Tatsache betont, dass juristische Wissenssysteme ausreichend in der Lage sein sollten, die Semantik einer Datenbank zu interpretieren und zu handhaben. Die Modellierung von (Experten-)Wissen unter Verwendung von Ontologien verbessert die Fähigkeit, Informationen aus Dokumenten zu extrahieren und zu nutzen. Dieser Beitrag stellt Theorien, Ideen und Vorstellungen zur Entwicklung dynamischer elektronischer Kommentare auf der Grundlage einer umfassenden Rechtsontologie vor.;-;-;-;https://link.springer.com/article/10.1007/s10506-007-9029-1 03face705e6ea914f9f583f483d205ca;de;;;7.1.;;;Die NG-OSS-Evolution von Telekommunikationsdienstanbietern: Von netzwerkorientiert zu kundenorientiert Jetzt stehen die Telekommunikationsdienstanbieter vor großen Herausforderungen, da das traditionell getrennte Netzwerk und der Dienst zusammenwachsen. Kunden interessieren sich mehr für die Servicequalität, wie Bereitstellungszeit, Fehlerbeseitigung, Rechnungsverwaltung und Sicherheitsfragen, die nicht auf Netzwerke stützen. Die Netzbetreiber müssen ihre Kern-Legacy-Mainframe-Betriebsunterstützungssysteme (OSS) mit Komponenten der neuen Generation integrieren, die die Anforderungen neuer Serviceangebote bewältigen können, was bedeutet, dass das NG-OSS auf Kunden und nicht auf Netzwerke achten sollte. Dieses Papier untersucht den Legacy-OSS-Frame mit seiner Hauptkomponente und analysiert, welcher Teil geschwächt oder konvergiert und welcher Teil verbessert oder aktualisiert werden sollte. Dann schlägt es eine idealisiertere Sicht einer funktionalen OSS-Architektur vor, die den Konzepten des Telecom Operations Map (TOM)-Modells des TeleManagement Forums entspricht. Im letzten Teil wird diskutiert, wie sich das OSS erfolgreich und reibungslos von netzwerkorientiert zu kundenorientiert weiterentwickeln lässt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-76312-5_46 a0f39225b68b5754c97e52b6715aa8a0;de;;;7.2.;;;Mean Normalized Retrieval Order (MNRO): ein neues inhaltsbasiertes Leistungsmaß für den Bildabruf Die Ergebnisse eines inhaltsbasierten Bildabrufsystems können durch mehrere Leistungsmaße bewertet werden, von denen jedes andere Bewertungskriterien verwendet. Viele der auf dem Gebiet der Informationswiedergewinnung verwendeten Verfahren wurden zur Verwendung in Bildwiedergewinnungssystemen übernommen. Dieses Papier gibt einen Überblick über die am häufigsten verwendeten Leistungsmaße für die Wiedergewinnungsbewertung mit besonderem Schwerpunkt auf den Annahmen, die während ihres Entwurfs getroffen wurden. Genauer gesagt konzentriert es sich auf die Designprinzipien der häufig verwendeten Mean Average Precision (MAP) und Average Normalized Modified Retrieval Rank (ANMRR) und zeigt deren Grenzen auf. Es schlägt auch ein neues Leistungsmaß für Bildabrufsysteme vor, das;-;-;-;https://link.springer.com/article/10.1007/s11042-012-1192-z 48a2d9870472b6d0cd5cb81bbd931ad8;de;;;7.1.;;;Netzwerkoptimierung im Flugverkehrsmanagement Viele Probleme im Flugverkehrsmanagement haben einen gemeinsamen Aspekt: ​​Es gilt, die Durchlaufzeit von Waren und Passagieren durch das System zu minimieren. Jedes dieser Elemente muss beim Durchlaufen des Systems eine bestimmte Abfolge von Operationen durchlaufen. Betriebsführungsverfahren in Verkehrssystemen basieren im Allgemeinen auf einer Planungsphase und auf einer Echtzeitphase. Bei ersteren werden Artikel nach Kapazität und anderen Vorschriften (z. B. Slot-Zuteilung) zugeteilt. Letzteres basiert auf der Idee, jedes Mal, wenn dies möglich ist, Items durch das System zu schieben und so die Lösung der Konflikte, die in den folgenden Phasen der Operationskette auftreten können, nachzuverlagern. Dies sieht den bekannten Push-Strategien in der Fertigung sehr ähnlich. Dennoch haben sich Pull-Strategien im Fertigungsumfeld oft als effektiver erwiesen. Auf dieser Grundlage stellen wir in diesem Papier die Flight Information Region (FIR) als Service-Netzwerk dar und schlagen einige Experimente vor, um die Wirkung von Pull-Typ-Strategien im Echtzeit-Flow-Management zu überprüfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-60836-0_5 2312dfed71bdaa1fb0f2c73f3b77099b;de;;;7.1.;;;Der Vergleich ausgewählter Risikomanagementmethoden für das Projektmanagement Projektmanagement ist eine Reihe von validierten und beschriebenen Verfahren, die die Implementierung und das Management definierter Aktivitäten, die sich auf ein bestimmtes Projekt beziehen, umfassend lösen. In der Tschechischen Republik wurde das Thema des Risikomanagements in Projekten oft vernachlässigt und begann sich mehr an ESF-Projekte zu wenden, bei denen das Risikomanagement erforderlich ist. Am häufigsten werden für die Risikoanalyse 3 Methoden verwendet - Sensitivitätsanalyse, RIPRAN-Methode, Scoring-Methode. Der folgende Artikel konzentriert sich auf Methoden des Risikomanagements, die in der allgemeinen Praxis nicht verwendet werden, und betreffen unmittelbar das Projektrisikomanagement. Der Nutzen dieser Arbeit liegt in der Verbindung zwischen Methoden des Projektmanagements und Methoden der Risikoanalyse. Das Ergebnis ist ein Überblick über die wesentlichen Vor- und Nachteile dieser Methoden und die Möglichkeit ihres Einsatzes in verschiedenen Projektphasen unter Berücksichtigung der Zeit- und Kosteneffizienz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41151-9_48 1be74360f362e73cbb9d0eee0860ce75;de;;;7.2.;;;Rollenbasierte Erfahrungen, Medienwahrnehmung und Erfolg beim Wissenstransfer in virtuellen Dyaden Wissenstransfer (KT) ist der Prozess, durch den man von der Erfahrung eines anderen beeinflusst wird. Während viele der Herausforderungen der KT in der Literatur diskutiert wurden (z. B. Anreize, kognitive Einschränkungen), hat die Herausforderung der KT in virtuellen Umgebungen nur begrenzte Aufmerksamkeit erhalten. In diesem Artikel liegt unser Interesse an der Untersuchung asymmetrischer KT, bei der ein Sender mehr Wissen über ein Thema hat als ein Empfänger. Wir konzentrieren uns auf eine dyadische Beziehung zwischen geografisch verteilten Sender- und Empfängereinheiten, unterstützt durch eine multimediale Technologieumgebung. Ausgehend von der KT-Literatur und der Channel Expansion Theory untersuchen wir speziell die Entwicklung und Beziehung zwischen rollenbasierten Erfahrungen (z. B. mit Partner, Thema, Medien) und Wahrnehmungen von Medienreichtum. Unsere Ergebnisse belegen, dass KT-Rollen in Bezug auf den Erwerb von Erfahrungen und Erweiterungen der Wahrnehmung von Medienreichtum von Bedeutung sind. Trotz einiger Unterschiede bei den erworbenen Erfahrungen legen unsere Ergebnisse auch nahe, dass KT-Partner in ihren Wahrnehmungen der erworbenen Erfahrungen konvergieren und sich zu gemeinsamen (oder kongruenten) Wahrnehmungen des Medienreichtums entwickeln. Schließlich liefern unsere Ergebnisse den Beweis, dass die Sender-Empfänger-Kongruenz in der Wahrnehmung des Medienreichtums den KT-Erfolg beeinflusst.;-;-;-;https://link.springer.com/article/10.1007/s10726-006-9047-5 ee6985f427556ffecd99df7cfcb81e57;de;;;7.2.;;;VIRMA: Visueller Bildabruf durch Shape-Matching Die riesige Menge an Bildsammlungen, die mit Multimedia-Anwendungen verbunden sind, hat verschiedene Ansätze für die inhaltsbasierte Bildsuche hervorgebracht, dh das Abrufen von Bildern basierend auf ihrem visuellen Inhalt anstelle von Textbeschreibungen. In diesem Beitrag stellen wir ein System namens VIRMA (Visual Image Retrieval by Shape MAtching) vor, das verschiedene Techniken aus dem Computer Vision kombiniert, um inhaltsbasierte Bildabrufe basierend auf Shape Matching durchzuführen. Die Architektur des VIRMA-Systems wird dargestellt und Algorithmen, die dem entwickelten Prototyp zugrunde liegen, werden kurz beschrieben. Die Anwendung von VIRMA auf eine Datenbank mit Bildern aus der realen Welt zeigt seine Wirksamkeit beim Abrufen visueller Bilder.;-;-;-;https://link.springer.com/chapter/10.1007/11875604_24 10837ad0bc26b13be6c184a29a113cb3;de;;;7.2.;;;Förderung der Verständlichkeit bei der Suche nach Gesundheitsinformationen für Verbraucher Suchmaschinen sind zu einem gängigen Mittel geworden, um Gesundheitsinformationen zu erhalten. Obwohl sich der Zugangsmechanismus für die Suche nach faktischen Gesundheitsinformationen stark entwickelt hat, bleiben komplexe Gesundheitssuchen, die keine einzige endgültige Antwort haben, undefinierbar. Antworten auf eine komplexe Gesundheitsabfrage enthalten unterschiedliche Standpunkte und verwirren einen nicht erfahrenen Verbraucher. Für einen Verbraucher mit begrenztem medizinischen Hintergrund ist es anspruchsvoll, sich einen ausgewogenen Blick auf die unterschiedlichen Perspektiven zu verschaffen. Dieser Forschungsvorschlag weist darauf hin, dass Verbraucher umfassende und nützliche Informationen brauchen. Um den Verbrauchern zu helfen, die abgerufenen Inhalte besser zu verstehen, besteht der vorgeschlagene Ansatz darin, den abgerufenen Inhalten zusätzliche Informationen hinzuzufügen. Eine anwendbare Möglichkeit besteht darin, die abgerufenen Inhalte als unterstützend, neutral oder ablehnend zu klassifizieren. Die Klassifizierungsetiketten dienen als zusätzliche Informationen zur Ergänzung der abgerufenen Inhalte. Andere potenzielle Zusatzinformationen und Möglichkeiten, die Informationen in eine Suchmaschine zu integrieren, werden in unserer späteren Arbeit recherchiert. In diesem Vorschlag werden die Herausforderungen erzählt und die damit verbundenen Arbeiten überprüft. Forschungsfragen und übergeordnete Ziele werden genannt. Die vorgeschlagene Arbeit wird diskutiert und die Forschungsskizze dargestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-56608-5_72 e8dd9c81c437227afa222a5749d74d93;de;;;7.2.;;;Community-basierte Feedbacktechniken zur Verbesserung der Videosuche video In diesem Papier stellen wir einen neuartigen Ansatz vor, um Benutzern bei der schwierigen Aufgabe der Videosuche zu helfen. Wir verwenden ein grafikbasiertes Modell, das auf implizitem Feedback basiert, das aus den Interaktionen früherer Nutzer unseres Videosuchsystems gewonnen wurde, um Empfehlungen zur Unterstützung der Nutzer bei ihren Suchaufgaben zu geben. Dieser Ansatz bedeutet, dass Benutzer nicht damit belastet werden, explizites Feedback zu geben, während sie dennoch die Vorteile von Empfehlungen nutzen. Das Ziel dieses Ansatzes ist es, die Qualität der Ergebnisse, die Benutzer finden, zu verbessern und damit auch Benutzern zu helfen, einen großen und schwierigen Informationsraum zu erkunden. Insbesondere möchten wir den Nutzern die anspruchsvolle Aufgabe der Videosuche deutlich erleichtern. Die Ergebnisse unserer Auswertung zeigen, dass wir unsere Ziele erreicht haben, die Leistung der Nutzer beim Abrufen relevanter Videos verbessert wurde und die Nutzer die Sammlung besser erkunden konnten.;-;-;-;https://link.springer.com/article/10.1007/s11760-008-0087-y acba93a27c383fdb1a9024687510ecd9;de;;;7.2.;;;Entwicklung fortschrittlicher Bildverarbeitungstechnologie und deren Anwendung in der computergestützten Diagnose und Chirurgie Dieser Beitrag beschreibt unsere Studien zur medizinischen Bildverarbeitung und ihren medizinischen Anwendungen. In unserem Labor haben wir Systeme der computergestützten Diagnostik (CAD) und der computergestützten Chirurgie (CAS) entwickelt. Die wichtigen Funktionen von CAD und CAS sind (1) Generierung anatomischer Karten basierend auf Bilderkennungs- und Bildverständnistechnologien, (2) automatische Erkennung abnormaler Regionen, (3) Führung zu bestimmten Bereichen, z. B. einer abnormalen Region, (4) Generierung zusätzlicher Assistenzinformationen, die in der Praxis nicht direkt sichtbar sind, z. B. anatomische Namen, Messwerte (Durchmesser, Volumen usw.), Ergebnisse der chirurgischen Simulation und in endoskopischer Ansicht jenseits einer Organwand vorhandene Organe und (5 ) Visualisierung solcher Informationen. Wir stellen medizinische Bildverarbeitungstechnologien und von uns entwickelte CAD/CAS-Systeme kurz vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30541-5_63 bea476a7b3993e35c576df20bb6a0dfd;de;;;7.2.;;;DEXA deckt 15 Jahre E-Government-Forschung ab Der Begriff „Electronic Government“ wurde vor fünfzehn Jahren zu einem gebräuchlichen Etikett und seitdem befasst sich die DEXA in ihrem Conference Cluster mit der Entwicklung des E-Government. Ein solches Jubiläum bietet Gelegenheit zur Reflexion. Die DEXA Aix-Konferenz 2002 war die erste große internationale Konferenz zum Thema E-Government-F&E und brachte die europäische Gemeinschaft zusammen, die erheblichen Einfluss auf die Gestaltung von E-Government ausübte. Zuerst wird diese prägende Phase skizziert, dann wird über Zukunftsperspektiven nachgedacht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22389-6_1 ae02b94aec038d1d13b41641e4d7b917;de;;;7.2.;;;Interaktive und zweisprachige Fragenbeantwortung mit Term Suggestion und Passage Retrieval Die Aufgabe zur Beantwortung von Fragen erfordert eine Benutzerinteraktion. Benutzer können dem System helfen, indem sie die Fragen umformulieren, ihnen Informationen hinzufügen oder die Dokumente auswählen, an denen das System arbeiten soll, um die Antworten zu erhalten. Unsere Gruppe hat die Auswirkungen auf die Benutzerinteraktion untersucht, wenn Begriffe vorgeschlagen werden, die der Frage hinzugefügt werden sollen, und die Unterschiede zwischen der Verwendung von Fragmenten oder vollständigen Dokumenten. Dieser Artikel beschreibt die von uns durchgeführten Experimente und diskutiert die Ergebnisse, die wir erhalten haben.;-;-;-;https://link.springer.com/chapter/10.1007/11519645_37 ba2428c73201fc850d810aeaf9436f3c;de;;;7.2.;;;Hierarchische Blockgrößenentscheidung für H.264/AVC Intra Prediction Bei der H.264/AVC-Intracodierung wird die Ratenverzerrungsoptimierung (RDO) verwendet, um die beste Blockgröße zu bestimmen. Es erfordert eine enorme Menge an Rechenressourcen, insbesondere für das High Profile, das die zusätzliche blockweise 8×8-Vorhersage enthält. Offensichtlich könnte eine Blockgrößenvorhersage mit hoher Genauigkeit die Rechenkomplexität erheblich reduzieren. Zu diesem Zweck wird in dieser Arbeit ein zweistufiges Blockgrößen-Entscheidungsschema für die H.264/AVC-Intra-Vorhersage vorgeschlagen. In der ersten Stufe wird die Summe des absoluten Nachbarpixelfehlers (SAAPE) verwendet, um den Makroblock in Textur- und homogene Gruppen zu klassifizieren. Dann werden die SAAPE von Unterblöcken weiter angewendet, um in der zweiten Stufe die beste Blockgröße zu bestimmen. Bei einem solchen zweistufigen Design werden nur eine oder zwei Blockgrößen für jeden Makroblock für den nachfolgenden RDO-Prozess ausgewählt. Umfangreiche experimentelle Ergebnisse haben gezeigt, dass der vorgeschlagene Algorithmus zu einer durchschnittlichen Reduzierung der Codierungszeit von über 45% bei einer vernachlässigbaren Verschlechterung der Ratenverzerrungsleistung führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03731-8_9 614135349432e2f57e0f45369dd13820;de;;;7.2.;;;Bewertung der Bildqualität basierend auf der Energie der strukturellen Verzerrung Die objektive Bildqualitätsbewertung (QA), die die Bildqualität automatisch in Übereinstimmung mit der menschlichen Wahrnehmung bewertet, ist für zahlreiche Bild- und Videoverarbeitungsanwendungen von wesentlicher Bedeutung. Wir schlagen eine neue objektive QS-Methode für ein vollständiges Referenzmodell basierend auf der Energie der strukturellen Verzerrung (ESD) vor. Zuerst sammeln wir die Eigenschaften der Strukturinformationen durch die Normalisierungsverarbeitung für das Referenzbild. Zweitens wird die Information der ESD gewonnen, indem das Bild unabhängig auf das charakteristische Signal der Strukturinformation projiziert wird. Schließlich wird der objektive Qualitätswert durch Berechnen der ESD-Unterschiede zwischen den Referenz- und verzerrten Bildern erhalten. In diesem Papier schlagen wir eine Implementierung mit einfachen Parametern für unsere Bild-QA vor. Experimentelle Ergebnisse zeigen, dass das vorgeschlagene Verfahren gut mit dem subjektiven Qualitätswert übereinstimmt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77255-2_94 a1ec192db824fbb3cd988a054f441fa6;de;;;7.1.;;;Ein Stufenmodell der Informationstechnologie im Gesundheitswesen Die Gesundheitsbranche steht vor großen Herausforderungen wie steigenden Kosten, Fachkräftemangel, einer rasch alternden Bevölkerung und einer Zunahme chronischer Krankheiten sowie Epidemien. Die Informationstechnologie im Gesundheitswesen (IT) wurde vorgeschlagen, um einige dieser Herausforderungen zu mildern. Insbesondere kann die IT die Automatisierung, Integration und Verwaltung von klinischen und administrativen Funktionen im Gesundheitswesen ermöglichen. Dies hat das Potenzial, Kosten zu senken, die Arbeitsbelastung des medizinischen Fachpersonals zu entlasten und die Qualität des Gesundheitswesens im Zuge der Fortschritte in der IT zu verbessern. In dieser Hinsicht ist die Untersuchung der Stadien des Fortschritts der Gesundheits-IT unerlässlich, um die Trends der Vergangenheit zu verstehen, die aktuellen Herausforderungen anzugehen und die IT zu nutzen, um die Gesundheitsversorgung in Zukunft zu verbessern. Obwohl es umfangreiche Literatur zu den Stadien der IT-Evolution gibt, gibt es nur wenige Studien, die sich auf die Gesundheits-IT beziehen. Angesichts der einzigartigen Herausforderungen des Gesundheitssektors wollen wir in unserer Studie eine solche Lücke schließen. In Anlehnung an das Nolan-Stufenmodell schlagen wir ein Modell vor, um die Stufen der IT-Evolution im Gesundheitswesen zu erklären, die Initiierungs-, Ansteckungs-, Kontroll- und Integrationsstufen umfassen. Das Modell wurde mit Schwerpunkt auf Gesundheits-IT in Singapur entwickelt, aufgrund der fortschrittlichen IT- und medizinischen Infrastruktur Singapurs und der im Vergleich zu anderen Industrieländern relativ niedrigeren Ausgaben für das Gesundheitswesen. Auf diese Weise trägt diese Studie zum Verständnis der Rolle der IT im Gesundheitswesen aus dynamischer und evolutionärer Sicht bei.;-;-;-;https://link.springer.com/article/10.1007/s12553-015-0097-z 26ae5bb26d2ddffd6ca01a620c51a54e;de;;;7.2.;;;Zeitdruck und Aufgabenanpassung Angesichts der enormen Bedeutung der Zeit als Organisationsprinzip für das Verhalten ist es überraschend, wie wenig Aufmerksamkeit ihr als Entscheidungs- und Entscheidungsfaktor geschenkt wurde. In der Tat bedeutet Entscheiden per Definition, zu einer Schlussfolgerung zu gelangen oder sich zu entscheiden. Daher ist die Entscheidungsfindung im Konzept der Zeit verwurzelt, und Zeit ist eine der wichtigsten Ressourcen, auf die sich Entscheidungsfindung und Wahl stützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-6846-6_5 b637b428ef89404cd84ddee4da83c67c;de;;;7.1.;;;Ein schichtübergreifender Ansatz für das Fehlermanagement-Framework in drahtlosen Sensornetzwerken Wireless Sensor Network (WSN) ist eine Sammlung von Sensorknoten, die zufällig in einer verteilten Umgebung eingesetzt werden. Fehlererkennung und -management sind wichtige Kriterien in drahtlosen Sensornetzwerken. Der Cross-Layer-Ansatz wird verwendet, um die Fehlermanagementebene in drahtlosen Sensornetzwerken zu implementieren. Es wird ein Cross-Layer-Ansatz (XLA) entwickelt, der den traditionellen Layered-Ansatz (TLA) ersetzt, der in drahtlosen Sensornetzwerken verwendet wurde. Das Designprinzip von XLA besteht darin, dass sowohl die Daten als auch die funktionalen Operationen traditioneller Kommunikationsschichten in einem einzigen Protokoll zusammengefasst sind. Das Ziel dieses Papiers ist es, einen Cross-Layer-Ansatz (XLA)-Algorithmus für das Fehlermanagement zu erstellen und dieser wird unter Verwendung von Hochsprache verifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12214-9_100 639b23e3000d5534517ce193f847c96e;de;;;7.1.;;;Produktionsplanung im innerbetrieblichen Netzwerk – Eine Studie unter dem Gesichtspunkt annotativer parakonsistenter Logik Die Wettbewerbsfähigkeit von Unternehmen, die im Rahmen der globalen Nachhaltigkeit agieren, hat auf verschiedene Verwaltungsformen zurückgegriffen, um die Unternehmen an der Spitze des Marktes zu halten. Eine der effizientesten Verwaltungsarten ist die effektive Planung, um eine Aufgabe mit dem minimalen Zeitaufwand und den geringstmöglichen Kosten zu erledigen. Durch die unzähligen Anforderungen aus Technik und Markt ist die Planung immer komplexer geworden. Ein relevanter Aspekt der Planung besteht darin, dass die Sektoren, die sie beeinflussen, ob produktiv oder nicht, eine Kette von Einflüssen zusammensetzen, die über Erfolg oder Misserfolg einer solchen Planung entscheiden. Eine Möglichkeit, eine Netzwerkmatrixanalyse anzugehen, ist die parakonsistente Logik, ein mathematisches Modell, das nicht der klassischen Logik folgt. Es war dann möglich, die Wirksamkeit dieses Modells der Planungsanalyse als eine zu verwendende und zu untersuchende und anschließend zu übernehmende und anzuwendende Methode zu überprüfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22756-6_26 45987417de162ceac9e78d3816754f42;de;;;7.1.;;;Virtual Factory Framework zur Unterstützung der Produktionsplanung und -steuerung Die Entwicklung optimaler Produktionspläne für intelligente Fertigungssysteme ist eine Herausforderung, da sich Shopfloor-Ereignisse dynamisch ändern. Eine virtuelle Fabrik mit Engineering-Tools, Simulation und Optimierung generiert und kommuniziert Leistungsdaten, um eine kluge Entscheidungsfindung für verschiedene Steuerungsebenen zu ermöglichen. Dieses Papier beschreibt eine solche Plattform speziell für die Produktionsplanung. Wir diskutieren auch die Verifizierung und Validierung der konstituierenden Modelle. Anhand eines Fallbeispiels einer Maschinenhalle wird die Datengenerierung für die Produktionsplanung in einer virtuellen Fabrik demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-51133-7_35 201c5a4825d7e043e7d3b77be5841733;de;;;7.1.;;;Ein ontologiebasiertes System für Wissensmanagement und Lernen in der neuropädiatrischen Physiotherapie In diesem Kapitel wird zunächst ein umfassender Überblick über den aktuellen Stand der Technik im Bereich Wissensmanagement und Ontologien gegeben. Als nächstes schlagen wir eine Methodik zur Modellierung und zum Aufbau eines ontologiebasierten Systems für das Wissensmanagement im Bereich der neuropädiatrischen Physiotherapie und deren Anwendung zur Lernunterstützung vor. Dieser Bereich der Physiotherapie umfasst die Diagnose, Behandlung und Beurteilung von Patienten mit neurologischen Verletzungen. Das Domänenwissen in der Physiotherapie ist naturgemäß komplex, mehrdeutig und nicht standardisiert. In dieser Arbeit wurde Wissen von Fachexperten erhoben und mit Informationen aus Fachbüchern ergänzt. Das erworbene Wissen wurde als Ontologie dargestellt. Die formalen Verfahren ermöglichten die Entwicklung einer Wissensbasis zur weiteren Verwendung in einem Bildungsinstrument. Die Vollständigkeit und Konsistenz des formalen Modells wurde überprüft. Insgesamt ist der Hauptbeitrag der Arbeit eine auf Konsensusvokabular basierende Domänenontologie für einen wichtigen Bereich der Gesundheitswissenschaften und die Möglichkeit, sie als Werkzeug zur Unterstützung des Lernens von Bachelorstudierenden einzusetzen. Insbesondere die Anwendung der Ontologie für das Lernen in der Physiotherapie ist von großer Bedeutung, da sie neben klassischen Lehrmethoden auch multimediale Ressourcen sowie aktive Lernkonzepte umfasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04584-4_13 20fbc1786f7fa115457c71def99695c7;de;;;7.1.;;;Eine computergestützte Prozessplanungsmethode unter Berücksichtigung der Produktionsplanung Als Brücke zwischen Produktdesign und Fertigung spielt die Prozessplanung eine wichtige Rolle. Computergestützte Prozessplanung (CAPP) wurde in diesem halben Jahrhundert aktiv diskutiert und zahlreiche Arbeiten durchgeführt. Um den aktuellen hohen Anforderungen an die Realisierung einer agilen Fertigung gerecht zu werden, wurde eine Reihe flexibler Prozessplanungsmethoden entwickelt. Diese Methoden behandelten die Prozessplanung nur für ein Produkt und generieren den optimalen Plan, der die kürzeste Gesamtbearbeitungszeit erreicht. In der realen Fertigung werden jedoch mehrere Werkstücke mit mehreren Werkzeugmaschinen im gleichen Zeitraum bearbeitet, und das Streben nach der kürzesten Bearbeitungszeit für jedes Werkstück kann zu einer schlechten Produktivität führen. Diese Forschung zielt darauf ab, diese Methoden im Hinblick auf die Gesamtproduktivität zu verbessern. Die Auswahl des optimalen Prozessplans in den konventionellen Methoden und die Produktionsplanung wurden zusammengeführt und dann als 0-1 Integer-Programmierproblem formuliert. Diese Methode wurde an einem einfachen Beispiel angewendet und ihr Potenzial aufgezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22756-6_43 22e828707220c4c7aaebde9bda9a3ac9;de;;;7.2.;;;Ein System für den Vergleich von Arzneimittelprodukten mit mehreren Attributen Wir beschreiben ein System für die Suche nach Arzneimitteln mit mehreren Attributen. Anschließend demonstrieren wir die Leistung des Systems anhand von Beispielabfragen und evaluieren die namensbasierte Ähnlichkeitssuchkomponente. Zehn Arzneimittelnamen wurden verwendet, um eine Datenbank bestehender Arzneimittelnamen unter Verwendung von fünf verschiedenen Abrufmethoden abzufragen. Die abgerufenen Namen wurden in Masterlisten zusammengeführt und 15 Apothekern präsentiert. Apotheker bewerteten die Ähnlichkeit zwischen dem Abfragenamen und jedem abgerufenen Namen auf einer Skala von 1–5. Wir berichten über die Präzision unserer fünf verschiedenen Abrufmethoden auf 11 Erinnerungsstufen. Die beste Einzelmaßnahme war Editex mit einer Genauigkeit von 17,4 %, gemittelt über 11 Erinnerungsstufen. Ein Regressionsmodell, das vier objektive Ähnlichkeitsmaße als Prädiktoren verwendet, machte 40,6% der Varianz der beobachteten mittleren Ähnlichkeitsbewertungen aus. Die automatisierte Suche nach Arzneimitteln mit mehreren Attributen kann die Effektivität und Effizienz von Screening-Prozessen vor der Zulassung verbessern und dadurch Medikationsfehler verhindern.;-;-;-;https://link.springer.com/article/10.1023/B%3AJOMS.0000021519.75230.e5 70aaf83a3956a30614ed98216f59281f;de;;;7.2.;;;Sinn machen über Sinn Wir schlagen vor, dass die standardmäßige feinkörnige Aufteilung der Sinne und (größeren) Homographen durch einen Lexikographen zur Verwendung durch einen menschlichen Leser möglicherweise kein geeignetes Ziel für die rechnerische WSD-Aufgabe ist. Wir argumentieren, dass das Niveau der Sinnesdiskriminierung, das die natürliche Sprachverarbeitung (NLP) benötigt, ungefähr dem von Homographen entspricht, obwohl wir psycholinguistische Beweise diskutieren, dass es weitläufige Sinneseinteilungen mit einer gewissen etymologischen Ableitung (dh nicht-homographisch) gibt, die für den Menschen so unterschiedlich sind als homographische, und sie können Teil der breiten Klasse von Sinnesteilungen sein, die wir hier zu identifizieren versuchen. Wir verbinden diese Diskussion mit der Beobachtung, dass große NLP-Aufgaben wie maschinelle Übersetzung (MT) und Information Retrieval (IR) anscheinend keine unabhängigen WSD-Module benötigen, wie sie im Forschungsbereich hergestellt werden, obwohl sie WSD zweifellos auf andere Weise erledigen. Unsere Schlussfolgerung ist, dass sich WSD weiterhin auf diese breiten Unterscheidungen konzentrieren sollte, bei denen es sehr gut abschneiden kann, und dadurch möglicherweise den nahezu 100-prozentigen Erfolg bieten sollte, den die meisten NLP scheinbar erfordern, mit Ausnahme von sehr feinen Fragen des Zielworts Wahl in MT. Dieser Vorschlag kann als eine Neuausrichtung von WSD auf das angesehen werden, was es tatsächlich auf dem Standard-Erfolgsniveau leisten kann, aber wir argumentieren, dass dies, anstatt einer idealisierten Vision von Sinn, die von der Lexikographie übernommen wurde, das ist, was Menschen und Maschinen zuverlässig unterscheiden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-4809-8_3 9bfbc58a73995bf8088de3c336c021e4;de;;;7.1.;;;Vorhersage der Prozesszeit für Zwecke der frühen Produktionsplanung Der Produktionshochlauf ist entscheidend, um wettbewerbsfähig zu bleiben und Marktanteile zu gewinnen, aber während des Hochlaufs treten einige häufige Probleme auf. Ein Problem hängt unter anderem mit der Reife der Produktionsprozesse zusammen, einschließlich unvorhergesehener Engpässe. Dieses Papier trägt zum Produktionsplanungsteil des Anlaufprozesses bei, indem es zeigt, wie die Prozesszeit für neue Teile vorhergesagt werden kann, die in eine bestehende Fertigungsumgebung eingeführt werden sollen. Es wird ein statistisches Modell auf Basis historischer Produktdaten verwendet und die möglichen Vorteile des Modells aufgezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22756-6_50 893126edc05c9e1632f5c8ca09d7e451;de;;;7.1.;;;Eine Plattform für die Planung von Katastropheneinsätzen mit Interdependenzsimulationsfunktion Katastrophen können zu großen Verlusten an Menschenleben und Sachwerten führen. Die Planung einer effektiven Katastrophenhilfe zur Minimierung der damit verbundenen Verluste ist eine grundlegende Herausforderung für Entscheidungsträger. Der Planungsprozess kann verbessert werden, indem voneinander abhängige kritische Infrastrukturen simuliert und das Systemverhalten in Katastrophenszenarien bewertet werden. Dieses Papier beschreibt eine Simulationsplattform für die Planung von Katastropheneinsätzen, die die Entscheidungsfindung basierend auf den Wechselwirkungen zwischen einem Stromnetz und einem Überwachungs- und Datenerfassungssystem (SCADA) unterstützt. Unter Berücksichtigung der physischen Einschränkungen des Stromnetzes und des SCADA-Netzwerks wird den Katastrophenhelfern eine Reihe von machbaren Konfigurationen präsentiert. Die Nützlichkeit der Plattform wird anhand eines Beispielszenarios demonstriert, das die Stromverteilung an ein Krankenhaus während eines Katastrophenereignisses beinhaltet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45330-4_13 23de41800f34125703b29a96a926ecb8;de;;;7.1.;;;Aufbau nachhaltiger Kooperationen und akademischer Netzwerke in Ländern mit niedrigem Einkommen: Fall von Masterstudiengängen Bei der Entwicklung von Gesundheitsinformationssystemen wurden lokale Spezialisten benötigt, um die lokale Führung zu übernehmen und andere auszubilden. Durch Drittmittel wurden in Kooperation zwischen einer lokalen Universität und der Universität Oslo neun Masterstudiengänge in Gesundheitsinformationssystemen in Entwicklungsländern eingerichtet. Während die Entwicklungsanstrengungen nach der Ausgabe der anfänglichen Projektmittel tendenziell nachlassen, war die Aufrechterhaltung der Programme auch für die Aufrechterhaltung der Gesundheitsinformationssysteme von entscheidender Bedeutung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-19115-3_33 e26821b75e5380dbb99250b5f96bb095;de;;;7.2.;;;Verbesserung und Erweiterung zu ATSQL2 Als Hauptschnittstelle für die Interaktion zwischen Benutzer und temporaler Datenbank bestimmt die temporale Abfragesprache die Funktionalität der temporalen Datenbank und ihre Implementierungsdetails. Somit ist die Wahl der Abfragesprache ein entscheidender Schritt für den Entwurf einer temporalen Datenbank. Aktuelle theoretische Ergebnisse der temporalen Datenbank umfassen verschiedene Arten von temporalen Datenmodellen und Abfragesprachen. Typische Abfragesprachen sind TempSQL, Tquel, TSQL2 und ATSQL2. Die von der Verarbeitungskomponente der Zeitdaten TempDB gewählte Abfragesprache ist das verbesserte ATSQL2. Um die ATSQL2-Sprache genau zu erklären, ist es notwendig, ihre Syntax und Semantik zu studieren. Da ATSQL2 seine Grenzen hat, wird in diesem Kapitel eine detaillierte Beschreibung des verbesserten ATSQL2 vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14959-7_12 7a1e1fab0b057c7146409cd126d78a38;de;;;7.2.;;;Klassifizierung von Eindringlingsdaten mit GM-SOM Dieses Papier verwendet eine einfache Modifikation des klassischen Kohonen-Netzwerks (SOM), die eine parallele Verarbeitung von Eingabedatenvektoren oder eine Partitionierung des Problems bei unzureichenden Ressourcen (Speicher, Festplattenplatz usw.) ermöglicht, um alle Eingabevektoren auf einmal zu verarbeiten. Der Algorithmus wurde implementiert, um eine Spezifikation moderner Multicore-Grafikprozessoren zu erfüllen, um eine massive Parallelität zu erreichen. Der Algorithmus wählt potenzielle Schwerpunkte von Datenclustern vorab aus und verwendet sie als Gewichtungsvektoren im endgültigen SOM-Netzwerk. In diesem Artikel wird der Algorithmus auf einen bekannten Datensatz von KDD Cup 1999 Eindringlingen angewendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33260-9_7 11e5d2108e02f7bca4e9095dd2b29100;de;;;7.2.;;;Auf dem Weg zu einer sicheren Mediation Ein sicheres vermitteltes Informationssystem sollte Szenarien unterstützen, in denen sich dynamisch ändernde Informationsquellen ihre Informationsressourcen bewerben und anwendungsspezifische Mediatoren diese Ressourcen sammeln und zu nützlichen Informationen zusammenfügen, um die Anfragen ihrer spontanen Kunden zu unterstützen. Dabei sollten die Mediatoren Sicherheitseinschränkungen in den Anwendungsumgebungen durchsetzen. In diesem Beitrag vergleichen wir vermittelte Informationssysteme mit föderierten Datenbanksystemen hinsichtlich Design- und Sicherheitsaspekten, um die unterschiedlichen Motivationen beider Systeme zu verdeutlichen. Darüber hinaus präsentieren wir unser sicheres vermitteltes Abfrageprotokoll unter Verwendung der Konzepte von Credentials für die authentische Autorisierung. Wir heben auch einige Multimedia-spezifische Sicherheitsanforderungen und -mechanismen hervor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-84901-4_7 3606a7f86fdad166104858046cf48c81;de;;;7.2.;;;Ein Multi-Instanz-Multi-Label-Lernrahmen für den Bildabruf Denn Multi-Instanz- und Multi-Label-Lernen kann das Problem der Mehrdeutigkeit bei der Verarbeitung von Bildern effektiv lösen. In diesem Papier wird eine Multi-Instanz- und Multi-Label-Lernmethode basierend auf Content Based Image Retrieve (CBIR) vorgeschlagen, und die Bildverarbeitungsstufe, die wir beim Bildabrufprozess verwenden, ist Multi-Instanz und Multi-Label. Wir korrespondieren die Instanzen mit Kategorie-Labels, indem wir ein Paket verwenden, das die Farb- und Texturmerkmale des Bildbereichs enthält. Je nachdem, ob der Benutzer ein Bild auswählt, um positive Musterpakete und Anti-Pakete zu generieren, indem Multi-Instanz-Lernalgorithmen zum Lernen verwendet werden, unter Verwendung des Bildabrufs und des Relevanz-Feedbacks zeigen die experimentellen Ergebnisse, dass der Algorithmus besser ist als die anderen drei Algorithmen Ergebnisse abrufen und die Abrufeffizienz ist höher. Entsprechend wählt der Benutzer ein Bild aus, um positive Musterpakete und Anti-Pakete zu erzeugen, unter Verwendung von Mehrinstanz-Lernalgorithmen zum Lernen, unter Verwendung des Bildabrufs und der Relevanzrückmeldung. Im Vergleich zu mehreren Algorithmen zeigen die experimentellen Ergebnisse, dass die Leistung unseres Algorithmus besser und seine Abrufeffizienz höher ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44980-6_27 8d364279a0e5fabde8e5e8b65c695348;de;;;7.2.;;;Dynamische Zentralität für gerichtetes Co-Autoren-Netzwerk mit Kontext Das Co-Autoren-Netzwerk ist ein typisches Beispiel für ein dynamisches komplexes Netzwerk, das sich im Laufe der Zeit entwickelt und verändert. Eine Möglichkeit, die Dynamik des Netzwerks zu erfassen und zu beschreiben, ist die Bestimmung von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45237-0_17 35e45a604353ca1755030cc462fcc100;de;;;7.1.;;;GOAT: Ein Tool zur Planung drahtloser Sensornetzwerke In diesem Beitrag wird GOAT vorgestellt, ein Softwaretool, das entwickelt wurde, um die Auswirkungen verschiedener Medium Access Control (MAC) und Routing-Protokolle auf den Energieverbrauch in Wireless Sensor Networks (WSNs) zu untersuchen. GOAT ist ein grafisches Netzwerkanalysetool, das es ermöglicht, WSNs zu entwerfen, den Energieverbrauch und die Gesamtlebensdauer in vollständig konfigurierbaren WSN-Szenarien zu berechnen. Ziel des GOAT-Tools ist es, vor der WSN-Bereitstellung in einer realen Umgebung Kenntnisse über das Verhalten von WSNs in Bezug auf Knotenkonnektivität und Energieverbrauch zu erlangen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23440-3_12 53f7d5735766c8a9496bb9a7a72c37db;de;;;7.2.;;;Eine Reise zum BSO: Bewertung früherer und neuerer Ideen von Mario Bunge als Grundlage für Informationssysteme und Softwareentwicklung Eine prominente theoretische Grundlage für die Analyse, das Design und die Entwicklung von IT ist die allgemeine Ontologie - ein Zweig der Philosophie, der die Realität untersucht. Eine weit verbreitete allgemeine Ontologie ist BWW (Bunge-Wand-Weber) – basierend auf Ideen des Philosophen und Physikers Mario Bunge, synthetisiert von Wand und Weber. Es gilt als wesentlicher Beitrag zur konzeptionellen Modellierung, zum Datenbankdesign, zum Datensammlungsdesign und zur Informationsqualität sowie zur Theorie der IT. Gleichzeitig wurde die Ontologie auf einer frühen Teilmenge von Bunges Philosophie gegründet und Bunges Ideen haben sich seitdem weiterentwickelt. Eine wichtige Frage ist daher: Rufen die neueren Ideen von Bunge nach einer neuen Ontologie? In diesem Beitrag führen wir eine Analyse der Forschung von Bunge durch, die darauf abzielt, dieser Frage nachzugehen. Wir vergleichen die Konstrukte von BWW mit der sogenannten Systemistischen Ontologie (BSO) von Bunge – einer neuen Ontologie, die auf breiteren und neueren Ideen basiert, die von Bunge entwickelt wurden. Ausgehend von diesem Vergleich bieten wir Anregungen für Ontologie-Studien sowie zukünftige Anwendungen von Bunge in der konzeptionellen Modellierung und anderen Bereichen der IT.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-49418-6_24 d625445033670feb21f9775987ba03cb;de;;;7.1.;;;Analyse von Standards hin zu einer simulationsbasierten integrierten Produktionsplanung Die Produktionsplanung erfolgt auf Unternehmens-, Betriebs- und Prozessebene. Obwohl Produktionspläne auf höheren Ebenen diejenigen auf niedrigeren Ebenen einschränken, sind die Prozesse zur Erstellung dieser Pläne in der Praxis normalerweise nicht gut integriert. Aus diesem Grund spiegeln die Pläne auf niedrigeren Ebenen möglicherweise nicht genau wider, was auf den höheren Ebenen geplant wurde, während die Pläne auf der höheren Ebene möglicherweise nicht auf den vorherrschenden Bedingungen auf den niedrigeren Ebenen basieren. Simulationsmodelle, die die Leistung eines Produktionsplans bewerten, müssen auch in Produktionsmanagementsysteme integriert werden. Dieses Papier bietet einen Hintergrund zu Integrationsproblemen im Zusammenhang mit simulationsbasierter mehrstufiger Produktionsplanung, indem es aktuelle Praktiken, Standards und Werkzeuge untersucht. Wir legen den Grundstein für eine standardbasierte Simulation zur integrierten Produktionsplanung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22759-7_5 ebf351f5b7afd5e970ae6227f462267b;de;;;7.1.;;;Zukünftige Richtungen für Forschung und Entwicklung im Batch-Prozess-Systembau Das globale Geschäfts- und Fertigungsumfeld, dem die Spezial- und Konsumgütersegmente des CPI ausgesetzt sind, drängt die Batch-Verarbeitung unaufhaltsam in die Hightech-Spitze. In diesem Beitrag werden die Merkmale der Mehrzweck-Gemischanlage des Jahres 2000 besprochen und die Auswirkungen auf ihre Auslegung und ihren Betrieb zusammengefasst. Es werden Forschungsrichtungen für die Entwicklung von Batchprozesssystemen vorgeschlagen, die Designanwendungen, Betriebsanwendungen und Werkzeugentwicklungen umfassen. Erforderliche Fortschritte im computergestützten Design umfassen die Definition von Aufgabennetzwerken, den vorläufigen Entwurf von Mehrzweckanlagen, den Nachrüstentwurf und das Anlagenlayout. Zu den Anforderungen an die Computerunterstützung für den Betrieb gehören die Integration der Anwendungsebenen der Betriebshierarchie sowie spezifische Entwicklungen in den Bereichen Planung, Überwachung und Diagnose sowie Steuerung. Fortschritte bei den Werkzeugen beinhalten verbesserte Fähigkeiten beim Entwickeln und Testen von Algorithmen zur Lösung strukturierter 0-1-Entscheidungsprobleme und zur Interpretation ihrer Ergebnisse, weitere Verbesserungen der Fähigkeiten zum Umgang mit großskaligen differentiellen algebraischen Simulationsmodellen mit impliziten Diskontinuitäten und die Erstellung flexibler Datenmodelle für Stapeloperationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-60972-5_2 2850a90a1296fc9c3fe98c9c9906041e;de;;;7.2.;;;CyberGate-Visualisierung Analysesysteme für computervermittelte Kommunikation (CMC) sind wichtig, um die Verantwortlichkeit der Teilnehmer und die Analysefähigkeiten der Forscher zu verbessern. Bestehende CMC-Systeme konzentrieren sich jedoch auf strukturelle Merkmale und bieten wenig Unterstützung für die Analyse von Textinhalten im Web-Diskurs. Um diesen Mangel zu beheben, schlagen wir einen Rahmen für die CMC-Textanalyse vor, der auf der systemischen funktionallinguistischen Theorie basiert. Unser Framework adressiert mehrere mehrdeutige CMC-Text-Mining-Probleme, einschließlich der relevanten Aufgaben, Features, Informationstypen, Feature-Auswahlmethoden und Visualisierungstechniken. Darauf aufbauend haben wir ein System namens CyberGate entwickelt, das die Techniken Writeprint und Ink Blot beinhaltet. Diese Techniken beinhalten komplementäre Merkmalsauswahl- und Visualisierungsmethoden, um eine breite Palette von Analyse- und Kategorisierungsmöglichkeiten zu ermöglichen. Anhand eines Anwendungsbeispiels wird die Fähigkeit dieser Techniken für die CMC-Textanalyse veranschaulicht. Darüber hinaus wurden Experimente im Vergleich mit einer Benchmark-Technik (Support Vector Machine) durchgeführt, um die Eignung der Writeprint- und Ink-Blot-Techniken von CyberGate zur Kategorisierung verschiedener Formen von CMC-Text zu bewerten. Die Ergebnisse zeigten, dass die CyberGate-Techniken in den meisten Fällen mit der Leistung der Support Vector Machine übereinstimmten, während sie diese bei bestimmten Informationstypen übertrafen. Zusammenfassend zeigen die Ergebnisse, dass das System und sein zugrundeliegender Entwurfsrahmen die Textinhaltsanalysefunktionen gegenüber denen in bestehenden CMC-Systemen dramatisch verbessern können.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-1557-2_12 9cb0561891fa3720b242807fbb71aa9a;de;;;7.1.;;;DDTK-Projekt: Analyse, Design und Implementierung einer ODP-Anwendung In diesem Papier wird über kürzlich abgeschlossene Arbeiten zur Entwicklung eines Toolkits zur Kommunikationsunterstützung berichtet. Die Analyse-, Design- und Implementierungsschritte dieses Projekts folgen eng dem Open Distributed Processing Referenzmodell (RM-ODP). Als Grundlage unserer Entwicklung haben wir die ODP-Konzepte und Designregeln verwendet. In diesem Papier stellen wir die Ergebnisse der Anwendung von ODP auf einen konkreten Fall zusammen mit allen zusätzlichen Elementen vor, die sich aus unserer Fallanalyse ergeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34882-7_22 847c5547b1177e6513ac639c463c55c3;de;;;7.1.;;;Budgetgebundene Workflow-Planung für die Einlasskontrolle In diesem Papier gehen wir von einer Umgebung mit mehreren heterogenen Ressourcen aus, die Dienste mit unterschiedlichen Fähigkeiten und unterschiedlichen Kosten bereitstellen. Benutzer möchten diese Dienste nutzen, um eine Workflow-Anwendung innerhalb einer bestimmten Frist und eines bestimmten Budgets auszuführen. Das in diesem Papier behandelte Problem besteht darin, einen praktikablen Plan für die Ausführung des Workflows zu finden, der es den Anbietern ermöglicht, zu entscheiden, ob sie den vom Benutzer festgelegten spezifischen Einschränkungen zustimmen können. Wenn sie der Zulassung des Workflows zustimmen, können Anbieter Leistungen für deren Ausführung termin- und budgetgerecht zuweisen und gleichzeitig die vorhandene Belastung im Umfeld des Anbieters (bestätigte Reservierungen anderer Nutzer, deren Anfragen angenommen wurden) berücksichtigen ). Eine neuartige Heuristik wird vorgeschlagen und unter Verwendung von Simulationen mit vier verschiedenen realen Workflow-Anwendungen bewertet.;-;-;-;https://link.springer.com/article/10.1007/s10723-013-9257-4 23c5ffbfcbceb204f02821b68e64ce6f;de;;;7.1.;;;Ein Pufferplanungsalgorithmus für das Floorplanning auf Chipebene Dieses Papier untersucht das Pufferplanungsproblem für die verbindungszentrierte Grundrissplanung für Nanometertechnologien. Die Toträume sind die Räume, die innerhalb einer Platzierung ungenutzt bleiben und von keinem Schaltungsblock gehalten werden. In diesem Papier haben wir einen Pufferplanungsalgorithmus vorgeschlagen, der auf der Totraumumverteilung basiert, um Toträume für die Puffereinfügung gut zu nutzen. In Verbindung mit Schaltungsblöcken unter topologischen Darstellungen kann der Totraum neu verteilt werden, indem einige Schaltungsblöcke innerhalb ihrer Räume in der Anordnung frei bewegt werden. Die Gesamtfläche und die Topologie der Platzierung bleiben während der Totraum-Umverteilung unverändert. Die Anzahl der Netze, die die Verzögerungsbedingung erfüllen, kann durch Umverteilen des Totraums über die gesamte Anordnung erhöht werden, was durch die experimentellen Ergebnisse gezeigt wurde. Die Zunahme der Anzahl von Netzen, die die Verzögerungsbeschränkung erfüllen, beträgt durchschnittlich 9%.;-;-;-;https://link.springer.com/article/10.1360/03yf0028 a5526c45bfed333d5ef7490afa0152fd;de;;;7.1.;;;Wissen im Engineering Change Management erfassen und wiederverwenden: Ein Fall aus der Automobilentwicklung Die Entwicklung komplexer Produkte, wie zum Beispiel Automobile, bringt technische Änderungen mit sich, die häufig eine Neugestaltung oder Änderung der Produkte erfordern. Obwohl sich herausgestellt hat, dass ein effizientes Wissensmanagement und die Zusammenarbeit bei technischen Änderungen entscheidend für den Erfolg der Entwicklung neuer Produkte sind, konzentrieren sich bestehende Systeme für technische Änderungen hauptsächlich darauf, Dokumente zu den technischen Änderungen zu speichern oder einfach die Genehmigungsprozesse zu automatisieren die aus Kollaborations- und Entscheidungsfindungsprozessen generiert wird, kann nicht einfach erfasst und verwaltet werden. Dies schränkt folglich die Nutzung der Systeme durch die Teilnehmer an Engineering-Change-Prozessen ein. Dieses Papier beschreibt ein Modell für Wissensmanagement und Zusammenarbeit in technischen Veränderungsprozessen und baut auf der Grundlage des Modells ein prototypisches System auf, das die Stärken des Modells demonstriert. Wir haben ein großes koreanisches Automobilunternehmen untersucht, um die einzigartigen Anforderungen der Automobilindustrie an technische Veränderungen zu analysieren. Wir haben auch Domänenontologien aus dem Fall entwickelt, um den Wissensaustausch im Designprozess zu erleichtern. Um ein effizientes Abrufen und Wiederverwenden vergangener technischer Änderungen zu erreichen, haben wir eine fallbasierte Argumentation (CBR) mit einem konzeptbasierten Ähnlichkeitsmaß verwendet.;-;-;-;https://link.springer.com/article/10.1007/s10796-006-9009-0 8a344a70dea1279ba3adaff60aef6f3c;de;;;7.1.;;;Vom ersten Planer zum letzten Planer Engineered-to-Order (ETO)-Netzwerke sind dynamisch und schwer zu definieren, und ihre Planungs- und Steuerungsfunktionen werden häufig durch die Handlungen von Lieferanten und Kunden beeinflusst. Häufig kommt es bei Projekten zu Verzögerungen, Budgetüberschreitungen und Qualitätsmängeln. Daher ist ein Projektmanagement erforderlich, das Engineering- und Produktionsprozesse im gesamten Netzwerk synchronisiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22759-7_28 e183c0f283c15a37bdb40aa7ab0ea7ce;de;;;7.1.;;;Hin zu einem multifraktalen Ansatz in der IS-Entwicklung Da heutige Unternehmen sich ständig an sich schnell ändernde externe Umgebungen anpassen müssen, ist es notwendig, mit Variationen und sich ändernden Bedingungen in der Entwicklung von Informationssystemen (IS) umzugehen. Dies kann durch die Verwendung von multifraktalen IS-Entwicklungsmethoden erreicht werden. Fraktale Ansätze wurden teilweise bereits in der adaptiven Unternehmensentwicklung, der adaptiven Fertigungssystementwicklung und der Softwareentwicklung getestet. Dies legt nahe, dass eine multifraktale IS-Entwicklung einerseits angemessen ist, weil das Informationssystem das Unternehmen (in diesem Fall ein fraktales) angemessen widerspiegeln sollte, und andererseits ist es möglich, weil einige Elemente davon bereits umgesetzt. Die Entwicklung der multifraktalen IS zielt darauf ab, die relative Vollständigkeit durch relative Einfachheit zu verwalten, die in verschiedenen Subsystemen entdeckt werden muss, die die Entwicklung des Informationssystems beeinflussen. Dies impliziert im Wesentlichen die Notwendigkeit einer gründlichen Analyse und eines Verständnisses von Geschäftsstrukturen und -prozessen, um Muster zu entdecken, die für die Identifizierung von fraktalen Merkmalen nützlich sind. Derzeit sind nur einige Leitlinien für die Entwicklung von multifraktalen IS aus gemeldeten Erfahrungen mit der Entwicklung fraktaler Systeme und der Verwendung fraktaler Ansätze in anderen Bereichen abgeleitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-68772-8_23 f69df97b8b10601b60f8afe2708e1b21;de;;;7.2.;;;Erfassung des geografischen Einflusses in POI-Empfehlungen Point-of-Interest (POI)-Empfehlung ist ein wichtiger Dienst für standortbasierte soziale Netzwerke (LBSNs). Es empfiehlt den Benutzern neue Orte wie Clubs, Restaurants und Cafés. Ob empfohlene Standorte den Interessen der Nutzer entsprechen, hängt von drei Faktoren ab: Nutzerpräferenz, sozialer Einfluss und geografischer Einfluss. Daher ist das Extrahieren der Informationen aus den Check-in-Datensätzen der Benutzer der Schlüssel zur POI-Empfehlung in LBSNs. Das Erfassen von Benutzerpräferenzen und sozialem Einfluss ist relativ einfach, da es analog zu den Methoden in einem Filmempfehlungssystem ist. Es ist jedoch ein neues Thema, geographischen Einfluss zu erfassen. Frühere Studien haben gezeigt, dass sich die Check-in-Standorte über mehrere Zentren verteilen und wir in der Lage sind, auf der Gauß-Verteilung basierende Modelle zu verwenden, um das Check-in-Verhalten der Benutzer zu schätzen. Dennoch sind Zentren, die Methoden entdecken, unbefriedigend. In diesem Papier schlagen wir zwei Modelle vor – das Gaußsche Mischungsmodell (GMM) und das auf genetischen Algorithmen basierende Gaußsche Mischungsmodell (GA-GMM), um den geografischen Einfluss zu erfassen. Genauer gesagt nutzen wir GMM, um die Aktivitätszentren der Benutzer automatisch zu lernen, und wir verwenden GA-GMM, um GMM durch Eliminieren von Ausreißern zu verbessern. Experimentelle Ergebnisse eines realen LBSN-Datensatzes zeigen, dass GMM mehrere beliebte geografische Erfassungsmodelle in Bezug auf die POI-Empfehlung übertrifft, während GA-GMM den Effekt von Ausreißern ausschließt und GMM verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-42042-9_66 882b6e716df9d87d1ce503dfb4c2353f;de;;;7.2.;;;Finanzierungskapazitätsanalyse von Immobilienentwicklungsunternehmen auf Basis von DEA Fuzzy Data Envelopment Analysis (DEA)-Bewertungsmodell in der Fähigkeit zur Finanzierung von Immobilienunternehmen hat das unvollständige Gewicht der Informationsverarbeitung verbessert. Indexwerte wurden in trapezförmige Fuzzy-Zahlen umgewandelt, dann mit unvollständigen Informationen zu Indexgewichten als Beschränkungen ein Fuzzy-DEA-Modell mit nur Ausgaben und Präferenz erstellt und dann durch Anwendung der;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23023-3_40 31f42628df1f95e12f1e38b5dddab909;de;;;7.2.;;;Messung der wahrgenommenen semantischen Qualität von Informationsmodellen Die semantische Qualität drückt den Grad der Übereinstimmung zwischen den von einem Modell übermittelten Informationen und der modellierten Domäne aus. Als frühzeitiger Qualitätsindikator des Systems, das das Modell implementiert, muss die semantische Qualität vor der Implementierung bewertet werden. Aktuelle Bewertungsansätze basieren auf ontologischen oder Metamodellanalysen und/oder verwenden objektive Metriken. Sie ignorieren die Wahrnehmung der semantischen Qualität durch den Modellbenutzer, die auch bestimmt, ob die Vorteile der Verwendung eines originalgetreuen Modells erreicht werden. Der Beitrag stellt die Entwicklung eines wahrgenommenen semantischen Qualitätsmaßes vor. Es stellt einen Maßnahmen-Pretest dar, d. h. eine Studie, die darauf abzielt, eine neue Maßnahme vor ihrem Einsatz in Forschung und Praxis zu verfeinern und zu validieren. Die Ergebnisse des Pretests zeigen, dass unsere Messgröße zuverlässig ist und sich ausreichend von anderen wahrnehmungsbasierten Messgrößen der Informationsmodellnutzung wie Benutzerfreundlichkeit, Nützlichkeit und Nutzerzufriedenheit unterscheidet.;-;-;-;https://link.springer.com/chapter/10.1007/11568346_41 37491342dbdc968f6d4a57a32950a5c6;de;;;7.2.;;;Ein inhaltsadressierbares Netzwerk für die Ähnlichkeitssuche in metrischen Räumen In diesem Beitrag stellen wir eine skalierbare und verteilte Zugriffsstruktur für die Ähnlichkeitssuche in metrischen Räumen vor. Der Ansatz basiert auf dem Paradigma Content-adressable Network (CAN), das eine Distributed Hash Table (DHT)-Abstraktion über einen kartesischen Raum bereitstellt. Wir haben die CAN-Struktur erweitert, um das Speichern und Abrufen von generischen metrischen Raumobjekten zu unterstützen. Wir verwenden Pivots zum Projizieren von Objekten des metrischen Raums in ein;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71661-7_9 c49387deb94db49ce60d78ac188348f0;de;;;7.2.;;;Quantum Logic Based MPEG Query Format Algebra Al Die Notwendigkeit einer schnellen Verarbeitung von Anfrageanfragen in Multimedia-Retrieval-Systemen ist offensichtlich. Eine Grundlage für die Optimierung ist die Formalisierung der entsprechenden Abfragesprache durch eine entsprechende Algebra. Darüber hinaus ist eine Algebra wichtig, um die Tiefe und Gültigkeit einer Abfragesprache zu demonstrieren. In diesem Zusammenhang trägt der Artikel ein formales Semantikmodell für das neuartige standardisierte MPEG-Abfrageformat für die Multimediasuche bei. Neben der Spezifikation seiner Syntax und Semantik wird unser quantenlogischer Ansatz für Fuzzy Retrieval im Sinne des formalen Modells diskutiert. Neben der Validität unserer Formalisierung wird an einigen Beispielen demonstriert, die Vorteile sowie die Mängel des Abfrageformats werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27169-4_15 fe9fdd5d3ae16017e11f8466aca6453c;de;;;7.2.;;;Evolutionäres Lernen mit einer neuromolekularen Architektur: ein biologisch motivierter Ansatz zur computergestützten Anpassungsfähigkeit Die Wirksamkeit des evolutionären Lernens hängt sowohl von den verwendeten Variantenauswahl-Suchoperationen als auch von den Struktur-Funktions-Beziehungen der Organisation ab, auf die diese Operationen angewendet werden. Einige Organisationen – insbesondere solche, die in der Biologie vorkommen – sind evolutionsfreundlicher als andere. Wir beschreiben eine künstliche neuromolekulare (ANM) Architektur, die die Struktur-Funktions-Beziehungen veranschaulicht, die der evolutionären Anpassungsfähigkeit zugrunde liegen, und die Art und Weise, wie diese Beziehungen in Computerprogrammen dargestellt werden können. Das ANM-System, ein gehirnähnliches Design, das intra- und intereuronale Verarbeitungsebenen kombiniert, kann mit einer Vielzahl von Aufgaben zur Mustererkennung und Effektorsteuerung gekoppelt werden. Die Fähigkeiten des Modells, insbesondere seine Anpassungsfähigkeitseigenschaften, werden hier im Kontext der chinesischen Zeichenerkennung veranschaulicht.;-;-;-;https://link.springer.com/article/10.1007/s005000050003 7b2988ec4a08e9397ffb76fcd693fed0;de;;;7.2.;;;Point-in-Polygon-Analyse unter Gewissheit und Unsicherheit Die Point-in-Polygon-Abfrage in geografischen Informationssystemen unter Gewissheit und Unsicherheit wird in diesem Beitrag formal analysiert. Es wird argumentiert, dass Punkte und Polygone mit unterschiedlichen Darstellungsschemata präzise, ​​unscharf (unpräzise) und zufällig (mit Fehlern) sein können. Mit Sicherheit lassen sich Punkte und Polygone im Allgemeinen durch ihre charakteristischen Funktionen darstellen. Unter durch Ungenauigkeit induzierter Unsicherheit können sie durch Fuzzy-Mengen dargestellt werden, die durch Zugehörigkeitsfunktionen gekennzeichnet sind. Wenn Unsicherheit durch Zufall induziert wird, können Punkte und Polygone durch Ortsfehlermodelle beschrieben werden, in denen Wahrscheinlichkeitsargumente verwendet werden. Punkte und Polygone unter Gewissheit erweisen sich als Spezialfall von solchen unter Ungenauigkeit und zufälliger Unsicherheit.;-;-;-;https://link.springer.com/article/10.1023/A%3A1009764319102 379ee563d1f0d58e26ed9bdea60bf3ea;de;;;7.1.;;;Management von Prozessexzellenz Um erfolgreich zu sein, müssen sich Unternehmen schnell auf neue Chancen und Bedrohungen einstellen. Sie müssen kluge Entscheidungen treffen und schnell ausführen. Innovation und Agilität werden zu wesentlichen Erfolgsfaktoren. Das Management of Process Excellence (MPE) ist ein Schlüsselfaktor. Sie führt zu einem funktionierenden „Echtzeitunternehmen“. MPE verbindet Unternehmensstrategie mit Mensch und Technologie für höchste operative Leistung. Technologien wie Service Oriented Architectures (SOA) oder das Web 2.0 unterstützen diesen Ansatz. Wissenswerte wie Referenzmodelle steigern die Produktivität nochmals. Das daraus resultierende Unternehmen der nächsten Generation ist bereit für langfristigen Erfolg. In diesem Kapitel wird MPE beschrieben, ein Ansatz zur Erreichung von Agilität und Innovation durch Geschäftsprozessmanagement. Es beschreibt die Beziehung zwischen Prozessmanagement und Innovation und wie die Prozessautomatisierung der nächsten Generation diese Bemühungen unterstützen kann. Abschließend wird ein geeigneter Prozess-Governance-Ansatz für MPE vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01982-1_2 cc0303547d7bbd2ab63d77e8270af5fd;de;;;7.2.;;;Schnelle Bewertung von Vorhersagemethoden mit dem Automated Property Prediction Package von DIPPR Es wurde ein automatisiertes Eigenschaftsvorhersagepaket entwickelt, das eine schnelle Bewertung von Gruppenbeiträgen, entsprechenden Zuständen, empirischen und theoretischen Methoden zur Schätzung von Eigenschaften ermöglicht. Das Eigenschaftsvorhersagepaket, das Teil des DIPPR . ist;-;-;-;https://link.springer.com/article/10.1007/s10765-007-0224-9 34c3df9a6ded9161239d3b1b2d3da9d9;de;;;7.2.;;;Variational Graph Embedding für global und lokal konsistente Merkmalsextraktion Bestehende Merkmalsextraktionsverfahren untersuchen entweder globale statistische oder lokale geometrische Informationen, die den Daten zugrunde liegen. In diesem Papier schlagen wir einen allgemeinen Rahmen vor, um Funktionen zu lernen, die beide Arten von Informationen berücksichtigen, basierend auf Variationsoptimierung von nichtparametrischen Lernkriterien. Anhand von gegenseitigen Informationen und der Bayes-Fehlerrate als Beispielkriterien zeigen wir, dass qualitativ hochwertige Merkmale aus einem Variationsgrapheneinbettungsverfahren gelernt werden können, das durch einen iterativen EM-ähnlichen Algorithmus gelöst wird, bei dem der E-Schritt einen Variationsaffinitätsgraphen lernt M-Step wiederum bettet diesen Graphen durch Spektralanalyse ein. Der resultierende Feature-Lerner hat mehrere ansprechende Eigenschaften, wie z;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04174-7_35 ca5a467b5f08358b9ca4ed087258bb67;de;;;7.2.;;;Eine P2P-Architektur für das Abrufen von Multimedia-Inhalten Die Abruffunktionen der meisten Peer-to-Peer (P2P)-Systeme beschränken sich auf Abfragen, die auf eindeutigen Kennungen oder kleinen Schlüsselwörtern basieren. Dieser Ansatz kann sehr arbeitsintensiv und inkonsistent sein. In diesem Beitrag untersuchen wir ein Szenario, in dem eine große Menge an Multimedia-Ressourcen in einem P2P-Netzwerk mithilfe effizienter inhaltsbasierter Bild- und Video-Retrieval-Funktionalitäten gemeinsam genutzt werden. Die Herausforderung in solchen Systemen besteht darin, die Anzahl der gesendeten Nachrichten zu begrenzen, um die Nützlichkeit jedes im Abfrageprozess kontaktierten Peers zu maximieren. Dieses Ziel erreichen wir durch die Einführung eines neuartigen Algorithmus zum Routing von Benutzeranfragen. Der vorgeschlagene Ansatz nutzt kompakte Darstellungen von Multimedia-Ressourcen, die von jedem Peer gemeinsam genutzt werden, um die Netztopologie auf der Grundlage von Abfrageinteraktionen zwischen Benutzern dynamisch an Peer-Interessen anzupassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69423-6_45 53f8943b89b103b35036b2a687a34566;de;;;7.2.;;;Multimodale biomedizinische Bildgewinnung mit hierarchischer Klassifikation und Modalitätsfusion Bilder werden häufig in Artikeln verwendet, um wesentliche Informationen im Zusammenhang mit korreliertem Text zu vermitteln. Die aufgabenspezifische Suche nach Bildern stellt jedoch erhebliche Herausforderungen. Um die Einschränkungen von Low-Level-Feature-Repräsentationen bei der inhaltsbasierten Bildsuche (CBIR) zu minimieren und die textbasierte Suche zu ergänzen, schlagen wir einen multimodalen Bildsuchansatz vor, der die hierarchische Organisation von Modalitäten nutzt und sowohl Intra- als auch Intermodalität verwendet Fusionstechniken. Für die CBIR-Suche wurden mehrere visuelle Merkmale extrahiert, um die Bilder darzustellen. Modalitätsspezifische Informationen wurden für die Ähnlichkeitsfusion und die Auswahl einer relevanten Bilduntermenge verwendet. Die intramodale Fusion von Abrufergebnissen wurde durchgeführt, indem Bilder nach bestimmten Informationselementen durchsucht wurden. Unsere Methoden verwenden aus relevanten Komponenten in einem Dokument extrahierten Text, um strukturierte Darstellungen als „angereicherte Zitate“ für den textbasierten Suchansatz zu erstellen. Schließlich besteht die multimodale Suche aus einer gewichteten Linearkombination von Ähnlichkeitswerten unabhängiger Ausgabeergebnisse aus textuellen und visuellen Suchansätzen (Intermodalität). Die Suchergebnisse wurden anhand eines standardmäßigen ImageCLEFmed 2012-Evaluierungsdatensatzes von 300.000 Bildern mit zugehörigen Anmerkungen ausgewertet. In ImageCLEFmed 2012 erreichten wir einen statistisch signifikanten durchschnittlichen durchschnittlichen Präzisions-Score (MAP) von 0,2533 und eine bessere Leistung (7 % Verbesserung) als vergleichbare Ergebnisse.;-;-;-;https://link.springer.com/article/10.1007/s13735-013-0038-4 03939bddc044c745903167eb3f55e4f4;de;;;7.2.;;;Die Indizierung mit WordNet-Synonymen kann die Abrufergebnisse verbessern Dieses Papier beschreibt eine Methode, die für die Aufgabe Robust - Word Sense Disambiguation beim CLEF 2009 entwickelt wurde. In unserem Ansatz wird ein erweiterter WordNet-Index aus der eindeutigen Dokumentensammlung generiert. Dieser Index enthält Synonyme, Hypernyme und Holonyme der in Dokumenten enthaltenen eindeutigen Wörter. Abfragewörter werden durch Terme integriert, die mittels einer Pseudo-Relevanz-Feedback-Technik extrahiert wurden. Sowohl im erweiterten WordNet-Index als auch im Default-Index wird nach dem Satz von Begriffen aus Abfragewörtern und Begriffen, die aus Pseudo-Relevanz-Feedback resultieren, gesucht. Die Ergebnisse zeigen, dass sich die Verwendung des erweiterten Index als nicht sinnvoll erwies und 14 – 16 % weniger MAP im Vergleich zum Basissystem erzielte. Bei einigen Abfragen war es jedoch besonders hilfreich, Indexbegriffe mit Synonymen zu erweitern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15754-7_15 e71b8ccf67e9e7a14ea586165a9615b6;de;;;7.2.;;;Multiobjektive Bewertung der Musikklassifizierung Die Musikklassifizierung zielt auf die Verwaltung persönlicher Musiksammlungen oder die Empfehlung neuer Songs ab. Hier sind mehrere Schritte erforderlich: Merkmalsextraktion und -verarbeitung, Auswahl der relevantesten davon und Training von Klassifikationsmodellen. Die gesamte Klassifizierungskette wird durch ein ausgewähltes Leistungsmaß bewertet. Oft werden Standard-Konfusionsmatrix-basierte Metriken wie die Genauigkeit berechnet. Es kann jedoch sinnvoll sein, die Methoden je nach aktuellem Anwendungsszenario mit weiteren Metriken zu vergleichen. Für diese Arbeit haben wir eine große empirische Studie für verschiedene Musikkategorien erstellt, die verschiedene Feature-Sets, Verarbeitungsmethoden und Klassifikationsalgorithmen verwendet. Der Zusammenhang zwischen verschiedenen Metriken wird diskutiert und die Ideen für eine bessere Algorithmusbewertung werden skizziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24466-7_41 cfa4f2daa69458bc02878fa38020b228;de;;;7.2.;;;Forschung zur Semantic Label Extraction of Domain Entity Relation basierend auf CRF und Regeln Für die riesigen Datenmengen im Web stellt dieser Artikel eine Extraktionsmethode für die semantische Bezeichnung von Entitätsbeziehungen im Tourismusbereich vor, die auf den bedingten Zufallsfeldern und -regeln basiert. Bei diesem Verfahren werden zunächst die Klassifikationsideen der Named-Entity-Erkennung genutzt, semantische Items, die Entity-Relationen widerspiegeln, werden als semantische Labels in den zu kennzeichnenden Kontextinformationen betrachtet und identifizieren das semantische Label mit CRF, dann jeweils entsprechend der relativen Position Informationen der beiden Entitäten und semantische Labels und Regeln werden die semantischen Labels den zugehörigen Entitäten zugewiesen. Die experimentellen Ergebnisse des Korpus im Bereich Tourismus zeigen, dass diese Methode das F-Maß von 73,68% erreichen kann, was darauf hinweist, dass die Methode für die semantische Label-Extraktion von Entitätsbeziehungen machbar und effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29426-6_19 23e527ac62b87d280068cbab3773fa9c;de;;;7.2.;;;Eine Bewertung des Standes der Technik im Kontext-a Mobile Computing ist ein innovatives Feld, das zunehmend an Aufmerksamkeit gewinnt, da viele neue Systeme in diese Richtung entwickelt wurden. Von diesen Systemen ist es wünschenswert, dass viele kontextbewusst sind, mit dem Ziel, ihre angebotenen Dienste zu optimieren und zu automatisieren. Solche Systeme stellen Komponenten bereit, deren Hauptfunktion darin besteht, die Kontextinformationen zu verwalten, die zwischen Sensoren, Aktoren und Anwendungen kommuniziert werden. In diesen Systemen ist die Verwendung von Middleware eine Lösung für die Notwendigkeit, den sich ändernden Kontext zu erkennen und sich an diesen anzupassen. Im Mobile Computing sind Faktoren wie Skalierbarkeit, Verteilungsunterstützung, Selbstadaption, Mobilitätsunterstützung und Modularität/Steckbarkeit von besonderem Interesse. In der Literatur sind viele Versuche dokumentiert, die Systeme betreffen, die darauf abzielen, einige oder alle dieser Anforderungen zu erfüllen und die für die Implementierung kontextsensitiver Systeme verwendet werden. Das Ziel dieses Kapitels ist es, den aktuellen Stand der Technik in kontextsensitiven Systemarchitekturen zu studieren und zu präsentieren. Diese werden anhand einer Reihe von Merkmalen wie Verteilungsunterstützung, Privatsphäre, Mobilität oder Fehlertoleranz bewertet und verglichen. Schließlich dokumentieren wir unsere aktuellen Ergebnisse und ersten Entscheidungen zum Design eines Kontextmanagement-Middleware-Systems, das den Entwurf und die Bereitstellung adaptiver Anwendungen in mobilen und ubiquitären Computerumgebungen ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-78578-3_42 37eaeb2b4e263a1cff92ca29de3ccc32;de;;;7.1.;;;Funktionen, Kommunikation und Organisation In diesem Kapitel beginnen wir mit einer Beschreibung des typischen Geschäfts in Bezug auf die drei Hauptfunktionen Produktionsbetrieb, Marketing und Buchhaltung. Darüber hinaus wird auf die Bedeutung der Unterstützung der Büro-/Verwaltungsinformatik für diese Tätigkeiten hingewiesen. Die Existenz dieser drei unterschiedlichen Funktionen schafft Spezialisierung. Aufgrund der Spezialisierung ist Kommunikation erforderlich. Wenn ein Unternehmen an Größe wächst, wird es immer mehr Kommunikation geben, und um Chaos zu vermeiden, muss organisiert werden. Organisation und Kommunikation gehen Hand in Hand. Wenn Sie über die Unternehmenskommunikation nachdenken, müssen Sie eine Vielzahl von Faktoren berücksichtigen: die Art des Geschäftsbereichs, die Größe des Unternehmens und die Vorlieben der einzelnen Personen innerhalb des Unternehmens.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2395-2_3 0a33deb57282684a6738803ee5573616;de;;;7.1.;;;Systemdenken und computerintegrierte Fertigung Computer-Integrated Manufacturing (CIM) ist ein unternehmensweites Organisationsthema, das weit über einzelne Hardware-Software-Installationen hinausgeht. Für erfolgreiches Systemdesign und -implementierung benötigt CIM ein generisches Modell, das die komplexe Mensch-Technik-Interaktion widerspiegelt. Dieses Papier beschreibt ein solches auf Kybernetik basierendes Modell und vergleicht es mit Situationen in der Fertigungsindustrie. Es wird gezeigt, dass dieser Ansatz ein erhebliches Potenzial hat, eine Grundlage für die Realisierung effektiver Fertigungsanlagen zu schaffen.;-;-;-;https://link.springer.com/article/10.1007/BF02169162 54c320bbde9f4f7414e1459c9908bbf2;de;;;7.1.;;;Definieren von Metriken für die konzeptionelle Schemaentwicklung Es wird allgemein angenommen, dass ein gut entworfenes Konzeptschema über die Zeit stabil bleibt. In der aktuellen Literatur wird jedoch selten darauf eingegangen, wie eine solche Stabilität im operativen Geschäftsumfeld mit sich entwickelnden Informationsbedürfnissen und Datenbankstrukturen beobachtet und gemessen werden sollte. Dieses Papier erstellt einen Rahmen für die Stabilität konzeptioneller Schemata und entwickelt daraus eine Reihe von Metriken. Die Metriken basieren auf einfachen Messungen konzeptioneller Merkmale. Die Validität des Metrikensatzes wird hier theoretisch argumentiert, die operationelle Validität kann durch eine Längsschnittstudie zur Evolution konzeptioneller Schemata nachgewiesen werden. Der Hauptbeitrag dieses Papiers ist die Erkenntnis, dass die Messung der konzeptionellen Schemastabilität ein wesentlicher Schritt zum Verständnis und zur Verbesserung aktueller Theorien und Best Practices für den Entwurf hochwertiger Schemata ist, die den Test der Zeit bestehen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48196-6_13 3c858d4666c40c11c42a2f107c5b7b8f;de;;;7.1.;;;Denken und Handeln Bevor sich dieses Kapitel mit dem Einfluss von Kultur auf das Denken bzw. die Weltanschauung (Philosophie) und das Handeln (Führen) von Menschen im Projekt-, Prozess- und Qualitätsmanagement bei der Entwicklung interkultureller Benutzerschnittstellen beschäftigen kann, ein Einblick in die Grundlagen der Kulturwissenschaften ist notwendig.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-17427-9_2 21b708e3a31bd3f94b5cbd1aa2c37d19;de;;;7.2.;;;Eine quantitative Bewertung der globalen Wortsinninduktion Word Sense Induction (WSI) ist die Aufgabe, die darauf abzielt, den Sinn von Wörtern in Texten automatisch zu erkennen, ohne dass handgemachte Ressourcen oder kommentierte Daten erforderlich sind. Bisher extrahieren die meisten WSI-Algorithmen die unterschiedlichen Bedeutungen eines Wortes „lokal“ pro Wort, d. In diesem Beitrag vergleichen wir die Leistung solcher Algorithmen mit einem Algorithmus, der einen „globalen“ Ansatz verwendet, dh die verschiedenen Bedeutungen eines bestimmten Wortes werden durch Vergleich und Abgrenzung zu den Bedeutungen anderer Wörter vollständig bestimmt -durchgebranntes Wortraummodell. Wir übernehmen den Bewertungsrahmen, der in der Aufgabe SemEval-2010 Word Sense Induction & Disambiguation vorgeschlagen wurde. Alle Systeme, die an dieser Aufgabe teilgenommen haben, verwenden ein lokales Schema zur Bestimmung der verschiedenen Bedeutungen eines Wortes. Wir vergleichen ihre Ergebnisse mit denen des globalen Ansatzes und diskutieren die Vor- und Nachteile beider Ansätze.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19400-9_20 e99827fb3c1294bab4b831a78aff12eb;de;;;7.2.;;;Workspace Awareness in Echtzeit verteilter Groupware: Framework, Widgets und Evaluierung, Die umfassende Interaktion von Mensch zu Mensch, die durch gemeinsam genutzte physische Arbeitsbereiche geboten wird, ermöglicht es den Mitarbeitern, aktuelle Informationen über die Interaktion anderer mit der Aufgabenumgebung zu erhalten. Dieses Wissen ist;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-3588-3_18 8ecda3d633182ba039e29e6e0e07410a;de;;;7.2.;;;Wörterbuchbasierte thailändische CLIR: Eine experimentelle Untersuchung der thailändischen CLIR Dieses Papier beschreibt unsere Teilnahme am Cross-Language Evaluation Forum. Unsere Ziele für dieses Experiment waren dreifach. Zunächst wurde die Abdeckung des zweisprachigen Thai-Wörterbuchs bei der Übersetzung von Abfragen bewertet. Zweitens untersuchten wir, ob sich der Segmentierungsprozess auf die CLIR auswirkte. Schließlich untersucht diese Forschung Techniken zur Abfragebildung. Da dies unser erstes internationales Experiment in CLIR ist, verwendet unser Ansatz wörterbuchbasierte Techniken, um thailändische Abfragen in englische Abfragen zu übersetzen. Bei CLEF wurden vier Läufe eingereicht: (a) einzelne Mapping-Übersetzung mit manueller Segmentierung, (b) mehrere Mapping-Übersetzung mit manueller Segmentierung, (c) einzelne Mapping-Übersetzung mit automatischer Segmentierung und (d) einzelne Mapping mit Abfrageverbesserung unter Verwendung von Wörtern aus unserem Thai Thesaurus. Die Retrieval-Effektivität war schlechter als von uns erwartet. Die einfache Wörterbuchabbildungstechnik ist nicht in der Lage, eine Abrufeffektivität zu erreichen, obwohl die Wörterbuchsuche einen sehr hohen Prozentsatz von Abbildungswörtern ergab. Die Wörter aus der Wörterbuchsuche sind keine spezifischen Begriffe, aber jedes ist einer Definition oder Bedeutung dieses Begriffs zugeordnet. Darüber hinaus haben thailändische Stoppwörter, Wortstämme und Worttrennungen die Wirksamkeit von thailändischem CLIR verringert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45691-0_18 b38d2fec0d30552959776f6c035f9790;de;;;7.2.;;;Verbesserung der Verbreitung von Informationstechnologie in Gemeinschaften in Entwicklungsländern Die Verbreitung von Informationstechnologie in einem Kontext der Entwicklungsländer ist aufgrund der Tatsache, dass sich die meisten der Zielgruppen in einem Umfeld der Marktvernachlässigung befinden, schwierig. Marktvernachlässigungsumgebungen sind durch ein Versagen des Marktes gekennzeichnet, um Einfluss zu nehmen. In diesen Umgebungen ist der Kundenstamm marginalisiert, klein oder hat eine geringe Wirtschaftskraft. Folglich sind die Aussichten auf eine unmittelbare Kapitalrendite oder einen Gewinn kurz- oder mittelfristig in diesen Umgebungen gering. Die Softwareentwicklung für marktvernachlässigte Bereiche steht vor einer Reihe einzigartiger Herausforderungen und muss dennoch Produkte von hoher Qualität, innerhalb des Budgets und im Zeitrahmen produzieren. Herkömmliche Softwaremethoden wurden in diesen Bereichen mit begrenztem Erfolg angewendet, aber aufgrund der einzigartigen Herausforderungen in diesen Bereichen hat sich gezeigt, dass eine neue oder angepasste Softwaremethodik erforderlich ist, um die effektive Verbreitung von Technologie in Marktnachlässigkeitsgemeinschaften sicherzustellen. In diesem Papier wollen wir die einzigartigen Probleme bei der Entwicklung für Marktnachlässigkeitsbereiche herausarbeiten und Werkzeuge und Methoden identifizieren, die in einer Softwareentwicklungsmethodik erforderlich sind, um diese Probleme anzugehen, um die Verbreitung von Informationstechnologie in Marktnachlässigkeitsbereichen zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09682-7-9_8 9c65f1b8636132e0ca5b8d14d588b0a1;de;;;7.2.;;;Untersuchung des Einflusses der Review-Tag-Funktion auf die Produktbewertung und Informationswahrnehmung beliebter Produkte Da Online-Bewertungen für Verbraucher zu einer immer wichtigeren Informationsquelle geworden sind, um Produkte beim Online-Shopping zu bewerten, haben viele Plattformen damit begonnen, Bewertungsmechanismen einzuführen, um den Wert solch umfangreicher Bewertungen zu maximieren. In den letzten Jahren wurde die Review-Tag-Funktion in die Praxis übernommen und ist führend in der Forschung zu Sentiment- und Meinungsextraktionstechniken. Die Untersuchung ihrer Auswirkungen wurde jedoch weitgehend übersehen. In diesem Beitrag untersuchen wir den Effekt der Review-Tag-Funktion auf zwei zentrale Ergebnisse, indem wir einen Rahmen durch die Linse der Attributionstheorie vorschlagen. Das eine ist die Bewertung hoch bewerteter beliebter Produkte, das andere ist die Wahrnehmung der Nützlichkeit von Produktbewertungen. Experimentelle Methoden und qualitative Analysen wurden verwendet, um unsere Hypothesen zu testen. Unsere Ergebnisse zeigen die Bedeutung der Anwendung von Tag-Funktionen, da sie die Produktbewertung von Verbrauchern für beliebte Produkte weiter verbessert. Wir fanden auch heraus, dass unterschiedliche Erscheinungsformen der Tag-Funktionen die kognitiven Vorurteile der Verbraucher bei der Wahrnehmung der Bewertung der Hilfsbereitschaft beeinflussen.;-;-;-;https://link.springer.com/article/10.1007/s10257-021-00532-5 eb48016e87597eb53603f22ed26a4f7d;de;;;7.2.;;;Energiebasierte zeitliche neuronale Netze zur Imputation fehlender Werte Die Imputation fehlender Werte in hochdimensionalen Zeitreihen ist ein schwieriges Problem. Es gab einige Ansätze für das Problem [11,8], bei denen neuronale Architekturen als Wahrscheinlichkeitsmodelle der Daten trainiert wurden. Wir argumentieren jedoch, dass dieser Ansatz nicht optimal ist. Wir schlagen vor, zeitliche neuronale Netze mit latenten Variablen als energiebasierte Modelle zu betrachten und sie direkt auf die Wiederherstellung fehlender Werte zu trainieren. In diesem Beitrag stellen wir zwei energiebasierte Modelle vor. Das erste Modell basiert auf einer eindimensionalen Faltung und das zweite Modell verwendet ein rekurrentes neuronales Netz. Wir zeigen, wie Ideen aus dem energiebasierten Lernrahmen verwendet werden können, um diese Modelle zu trainieren, um fehlende Werte wiederherzustellen. Die Modelle werden auf einem Motion-Capture-Datensatz ausgewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34481-7_70 8ae335f9143500cc558260a62a7d39c1;de;;;7.1.;;;Die Rolle eines wertorientierten IT-Bedarfsmanagements bei der Geschäfts-/IT-Ausrichtung: Der Fall von ZON Multimedia Unternehmen streben mehr denn je danach, ihre Struktur und ihr Initiativenportfolio aufeinander abzustimmen und die Wertschöpfung zu unterstützen. Im Allgemeinen fehlen jedoch wesentliche, explizite und übergreifende Modelle, die es ermöglichen, das Endergebnis über den gesamten Lebenszyklus der Initiative im Auge zu behalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38774-6_4 daba518de51a38248e3a5021ab8495a6;de;;;7.1.;;;Prozesskonfiguration – Kombination der Prinzipien der Produktkonfiguration und der Prozessplanung Produktkonfiguration ist der Prozess des Generierens einer Produktvariante aus einem zuvor definierten Produktfamilienmodell und zusätzlichen Produktspezifikationen für diese Variante. Der Prozess, relevante Arbeitsgänge für die Herstellung dieses Produkts zu durchforsten und diese in Ordnung zu bringen, wird als Prozessplanung bezeichnet. Dieses Papier beschreibt die Hauptmerkmale der Produktkonfigurations- und Prozessplanungsprinzipien und führt zu dem neuen Konzept der Prozesskonfiguration, das die Prozessplanungsaufgabe mithilfe von Produktkonfigurationsprinzipien löst.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35569-6_48 236a5dd8f5545a011a8237274dced3f1;de;;;7.2.;;;Untersuchung von Ranking-Methoden im Problembereich Military Value of Information (VoI) Die Bestimmung der relativen Bedeutung von riesigen Mengen einzelner Informationen ist im militärischen Umfeld eine Herausforderung. Durch die Aggregation des Wissens verschiedener militärischer Geheimdienstexperten können Entscheidungshilfen geschaffen werden. Ein nächster Schritt in der laufenden Forschung in diesem Bereich ist die Untersuchung der Verwendung von drei prominenten Ranking-Methoden zur Aggregation von Meinungen von Analysten des Militärgeheimdienstes in Bezug auf den Problembereich Value of Information (VoI). Dieses Papier bietet eine Diskussion über die laufende VoI-Forschung und zeigt die Ergebnisse eines militärbezogenen Experiments unter Verwendung von Borda-Zählung, Condorcet-Abstimmung und Instant-Runoff-Abstimmung (IRV) als Ranking-Aggregationsmodelle. Diese Ranking-Methoden werden mit der „Ground Truth“ verglichen, wie sie vom aktuellen Fuzzy-basierten VoI-Prototypsystem generiert wird. Die Ergebnisse durch die Einbeziehung der Ranking-Modelle in die Daten des Experiments zeigen die Wirksamkeit dieser Methoden bei der Aggregation von Meinungen von Fachexperten (KMU) und zeigen deutlich den „Weisheit der Menge“-Effekt. Implikationen im Zusammenhang mit der laufenden VoI-Forschung werden zusammen mit zukünftigen Forschungsplänen diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-50146-4_11 f4bb4fd3456cde08e775ceaf19603a59;de;;;7.2.;;;Automatische Qualitätsbewertung eines erklärenden Wörterbuchs durch Vergleich der Wortsinne Wörter im erklärenden Wörterbuch haben unterschiedliche Bedeutungen (Sinne), die unter Verwendung natürlicher Sprachdefinitionen beschrieben werden. Wenn die Definitionen zweier Bedeutungen desselben Wortes zu ähnlich sind, ist es schwierig, den Unterschied zu erfassen und somit schwer zu beurteilen, welcher der beiden Bedeutungen in einem bestimmten Kontext gemeint ist, insbesondere wenn eine solche Entscheidung automatisch getroffen werden soll wie bei der Aufgabe der automatischen Wortsinn-Begriffsklärung. Wir schlagen eine Methode zur formalen Bewertung dieses Qualitätsaspekts eines erklärenden Wörterbuchs vor, indem wir die Ähnlichkeit verschiedener Bedeutungen desselben Wortes berechnen. Wir berechnen die Ähnlichkeit zwischen zwei gegebenen Sinnen als relative Anzahl gleicher oder synonymer Wörter in ihren Definitionen. Neben der allgemeinen Bewertung des Wörterbuchs werden die einzelnen verdächtigen Definitionen zur möglichen Verbesserung gemeldet. In unseren Experimenten haben wir das Erklärwörterbuch von Anaya für Spanisch verwendet. Unsere Experimente zeigen, dass es in diesem Wörterbuch etwa 10 % im Wesentlichen ähnlicher Definitionen gibt, was auf eine eher niedrige Qualität hindeutet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39866-0_54 c74f4cfa2d190624910a679b2d2465dc;de;;;7.2.;;;Auf dem Weg zu Prinzipien für den Entwurf und die Bewertung von Multimediasystemen Das schnelle Wachstum der Multimedia-Technologie hat es möglich gemacht, dem Benutzer Audio, Grafik, Video und Animation in hoher Qualität zu liefern. Diesem technologischen Wachstum wurde jedoch nicht durch ein Wachstum des Designwissens begegnet. Es ist zwar möglich, Multimedia zu haben, aber es ist keineswegs offensichtlich, dass wir wissen, wie man hochwertige Multimedia-Systeme entwickelt, die in dem von uns erwarteten Ausmaß voll nutzbar sind. Um die Situation zu verbessern, wird intensiv daran gearbeitet, Richtlinien, Styleguides und Prinzipien für die Multimedia-Gestaltung zu entwickeln. Dieses Papier veranschaulicht das Problem, mit dem Designer (und Benutzer) von Multimediasystemen konfrontiert sind, indem es einige der Designfehler untersucht, die in einem öffentlichen Informationssystem gemacht wurden (als Beispiel für eine Klasse von Multimediasystemen). Wir überlegen dann, welche Konstruktionsmerkmale solche Prinzipien berücksichtigen sollten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-3605-7_16 1969cda0afbf2a97e4581618693fecb7;de;;;7.2.;;;Optimierung der Partitionierungsstrategien für eine schnellere invertierte Indexkomprimierung Der invertierte Index ist eine Schlüsselkomponente für Suchmaschinen, um Milliarden von Dokumenten zu verwalten und schnell auf Benutzeranfragen zu reagieren. Während erhebliche Anstrengungen unternommen wurden, um die Platzbelegung und die Decodierungsgeschwindigkeit zu reduzieren, wurde die Codierungsgeschwindigkeit beim Erstellen des Index übersehen. Eine Partitionierung des Indexes, die an seiner gruppierten Verteilung ausgerichtet ist, kann die komprimierte Größe effektiv minimieren und gleichzeitig seinen Konstruktionsprozess beschleunigen. In dieser Studie führen wir die Komprimierungsgeschwindigkeit als ein Kriterium zur Bewertung von Komprimierungstechniken ein und analysieren die Leistung verschiedener Partitionierungsstrategien gründlich. Es werden auch Optimierungen vorgeschlagen, um modernste Methoden mit schnellerer Komprimierungsgeschwindigkeit und mehr Flexibilität bei der Partitionierung eines Indexes zu verbessern. Experimente zeigen, dass unsere Methoden eine viel bessere Komprimierungsgeschwindigkeit bieten, während eine hervorragende Raumbelegung und Dekompressionsgeschwindigkeit beibehalten werden. Netzwerke.;-;-;-;https://link.springer.com/article/10.1007/s11704-016-6252-5 5630490873109c4888112563bf3af862;de;;;7.2.;;;Bewertung der Genauigkeit von digitalen Höhenmodellen Es besteht ein wachsendes Interesse an der Untersuchung der Genauigkeit von digitalen Höhenmodellen (DEM). Die Leute haben jedoch normalerweise eine unausgewogene Sicht auf DEM-Fehler. Sie betonen DEM-Abtastfehler, ignorieren jedoch den Einfluss der DEM-Auflösung und der Geländerauheit auf die Genauigkeit der Geländedarstellung. Diese Forschung stellt das Konzept des DEM-Geländedarstellungsfehlers (Et) vor und untersucht dann die Erzeugung, Faktoren, Messung und Simulation von DEM-Geländedarstellungsfehlern. Als wichtigste Methodik in dieser Untersuchung wird ein vergleichender Ansatz mit mehreren Auflösungen und mehreren Reliefs verwendet. Das Experiment zeigt einen quantitativen Zusammenhang zwischen dem Fehler und der Variation von Auflösung und Geländerauheit auf globaler Ebene. Der quadratische Mittelwertfehler (RMS Et) wird gegen die Oberflächenprofilkrümmung regressiert (;-;-;-;https://link.springer.com/article/10.1007/BF02888692 9accc87ff1521bc24f5140791c82189b;de;;;7.2.;;;Mehrsprachiger Informationsdienst basierend auf der Kombination von Smartphone und Digital Signage In letzter Zeit besuchen viele Menschen aufgrund des Fortschritts der Globalisierung in der Welt oft das Ausland, und Japan strebt auch an, eine tourismusorientierte Nation zu werden. Auf der Welt werden jedoch verschiedene Sprachen verwendet, und es ist zu einem Engpass für die Menschen geworden, andere Länder zu besuchen. In dieser Forschung wurde durch die Kombination des Smartphones und der auf der iBeacon-Technologie basierenden Digital Signage ein mehrsprachiges Informationsdienstsystem entwickelt. Dieses System wurde in den Informationsdienst in Shirakawa-go, der zum UNESCO-Weltkulturerbe gehört, implementiert und das Evaluierungsexperiment durchgeführt. In dem Experiment wurden mehrere ausländische Touristen gebeten, das mehrsprachige Informationsdienstsystem zu nutzen, und die Wirksamkeit dieses Systems wurde evaluiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-65521-5_56 51e245be3100755ca7482445bbe00ed3;de;;;7.2.;;;Übersichten über mit Konzeptdiagrammen definierte Modelle Analysemodelle und Entwurfsmethoden werden immer komplexer, was es erforderlich macht, Übersichten über diese Modelle zu erstellen, die sowohl durch die Auswahl von Konzepten als auch durch Makroansichten von Modellen definiert werden. Übersichten über Modelle zu erstellen, die durch Texte und ER- oder OO-Metamodelle definiert sind, ist nicht einfach. Daher schlagen wir vor, Modelle mit Konzeptdiagrammen zu definieren, bei denen es sich um gerichtete Graphen handelt, bei denen Knoten die an einem Modell beteiligten Konzepte darstellen und Bögen Abhängigkeiten zwischen Definitionen seiner Konzepte veranschaulichen. Da Konzeptdiagramme gerichtete Graphen sind, ermöglichen sie bei der Auswahl von Konzepten leicht, die Konzepte zu sehen, die mit den ausgewählten Konzepten ausgewählt werden müssen und die, die nicht ausgewählt werden. Eine Makroansicht eines Modells ist ein gerichteter Graph, bei dem Knoten Konzeptdiagramme darstellen und Bögen Makroabhängigkeiten zwischen diesen Diagrammen veranschaulichen. Somit ermöglichen Konzeptdiagramme die Definition von Übersichten über Konzepte von Modellen, die sowohl durch eine Auswahl von Konzepten als auch durch Makroansichten dieser Modelle definiert werden. Wir präsentieren Konzeptdiagramme einer Übersicht über die UML.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35500-9_20 18a77b9dec4a15541f6e720d21051a5b;de;;;7.2.;;;Identifizieren von Beziehungen zwischen physiologischen Maßen und Bewertungsmetriken für 3D-Interaktionstechniken Dieses Projekt zielt darauf ab, eine Methodik zur Untersuchung der Beziehungen zwischen physiologischen Maßen und Bewertungsmetriken für 3D-Interaktionstechniken unter Verwendung von Methoden der multivariaten Datenanalyse vorzustellen. Physiologische Reaktionen wie Herzfrequenz und Hautleitwert liefern objektive Daten über den Stress des Benutzers während der Interaktion. Dies könnte beispielsweise nützlich sein, um qualitative Aspekte von Interaktionstechniken zu bewerten, ohne sich ausschließlich auf subjektive Daten zu verlassen. Darüber hinaus könnten diese Daten dazu beitragen, die Analyse der Aufgabenleistung zu verbessern, indem verschiedene Reaktionen auf 3D-Interaktionstechniken gemessen werden. Vor diesem Hintergrund schlagen wir eine Methodik vor, die ein Testprotokoll, ein Normalisierungsverfahren und statistische Techniken definiert und die Verwendung physiologischer Maßnahmen während des Bewertungsprozesses berücksichtigt. Ein Fallstudienvergleich zwischen zwei 3D-Interaktionstechniken (Ray-Casting und HOMER) zeigt vielversprechende Ergebnisse, die auf die Herzfrequenzvariabilität, gemessen am NN50-Parameter, als potenzieller Index der Aufgabenleistung hinweisen. Weitere Studien sind erforderlich, um Leitlinien für Bewertungsprozesse zu erstellen, die auf klar definierten Zusammenhängen zwischen menschlichem Verhalten und menschlichen Handlungen, die in 3D-Benutzeroberflächen realisiert werden, basieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23765-2_45 ca24325640bec9faa5a52a7ced81683b;de;;;7.2.;;;Optimierung der kontrollierten Auswertung von Closed-Relational-Queries Für relationale Datenbanken ist die kontrollierte Abfrageauswertung ein effektiver Mechanismus zur Inferenzkontrolle, der die Vertraulichkeit bezüglich einer zuvor erklärten Vertraulichkeitsrichtlinie bewahrt. Implementierungen einer kontrollierten Abfrageauswertung sind aufgrund kostspieliger Theorembeweiseraufrufe normalerweise nicht effizient. Eine entsprechend eingeschränkte kontrollierte Abfrageauswertung kann effizient implementiert werden, ist jedoch aus Sicht von Datenbankbenutzern und Sicherheitsadministratoren nicht flexibel genug. In diesem Beitrag schlagen wir ein optimiertes Framework für die kontrollierte Abfrageauswertung in relationalen Datenbanken vor, das einerseits effizient implementierbar ist und andererseits die Einschränkungen bisheriger Ansätze lockert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01244-0_19 ab02e653f523e3331693b3d3cc6f02de;de;;;7.2.;;;Fünf und zehn Jahre später: Haben sich die DSR-Standards geändert? Mehr als zehn Jahre sind seit der Veröffentlichung von Hevner et al [1] und fünf Jahre vergangen, seit Venable [2] Redakteure und DSR-Forscher zu Standards und Kriterien zur Beurteilung der Qualität und Eignung von DSR-Einreichungen zur Veröffentlichung befragt hat. Seitdem wurde viel über Evaluation, Designtheorie und Standards für die DSR-Publikation diskutiert. Dieser Beitrag versucht, die Frage zu beantworten, wie sich die Standards für die Beurteilung der Qualität (z. Dazu befragte der Autor Redakteure der „Basket-of-Eight“-Zeitschriften von IS Scholars, Mitglieder des Programmkomitees der DESRIST-Konferenz und DESRIST-(Co-)Autoren. Dieses Papier vergleicht die quantitativen Ergebnisse der aktuellen Erhebung mit der Erhebung von 2010.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-18714-3_17 4d9319cd1681c90e33e2d28ceec92de6;de;;;7.2.;;;Audioqualitätsbewertung in Echtzeit für adaptive Multimedia-Protokolle Die Audioqualität bei der IP-Telefonie wird maßgeblich durch den Einfluss von Paketverlustrate, Burstiness und Verteilung auf eine bestimmte Audiokompressionstechnik beeinflusst. In diesem Artikel schlagen wir ein neues statistisch-basiertes Online-Audioqualitätsbewertungs-Framework vor, Audio Genome, das die Audioqualität eines laufenden Internet-Audios für viele verschiedene Codecs unter allen Netzwerkverlustbedingungen in Echtzeit ableiten kann. Unser Ansatz ist den vorgeschlagenen lernbasierten Techniken in Bezug auf Rechengeschwindigkeit und einfache Bereitstellung überlegen. Unsere umfangreichen Evaluierungsexperimente, die große Simulationsszenarien umfassen, zeigen, dass unser Ansatz für adaptive Echtzeit-Audiomechanismen genau und praktikabel ist. Schließlich zeigen wir einen Einsatz von Audio Genome als integralen Bestandteil eines adaptiven Geschwindigkeitskontrollmechanismus.;-;-;-;https://link.springer.com/chapter/10.1007/11572831_12 9b46a89ab66c1c473fe3120e9b4c2498;de;;;7.2.;;;Weniger kohlensäurehaltige Getränke: Eine Multi-Methoden-Studie zu überzeugenden Erinnerungen In diesem Papier präsentieren wir erste Ergebnisse unserer Multi-Methoden-Studie, in der die Auswirkungen von Erinnerungen auf die Wirksamkeit von Informationssystemen untersucht wurden, die darauf abzielen, Verhaltensänderungen zu erleichtern. Unsere Studie konzentrierte sich ausdrücklich auf Erinnerungen als ein wichtiges überzeugendes Softwaremerkmal, das zur Unterstützung von Verhaltensänderungen eingesetzt werden sollte. Wir haben einen Prototyp entwickelt, der darauf abzielt, die Menschen zu ermutigen, den Konsum von Limonaden und kohlensäurehaltigen Getränken schrittweise zu reduzieren. Es wurde eine 14-tägige Multimethoden-Pilotstudie durchgeführt, die aus einer statistischen Analyse gefolgt von einer qualitativen Fokusgruppe bestand. Die statistische Analyse zeigt, dass die Teilnehmer in der zweiten Hälfte der Studie weniger kohlensäurehaltige Getränke konsumierten, und das Feedback aus der Fokusgruppenstudie zeigt, dass Erinnerungen die Teilnehmer erfolgreich davon überzeugt haben, ein Protokoll über ihren Konsum von kohlensäurehaltigen Getränken zu führen. Unsere Studie unterstützt die Behauptung, dass überzeugende Erinnerungen ein außergewöhnliches Potenzial haben, Menschen dabei zu helfen, ihr Verhalten zu ändern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31037-9_23 d8ae217f57f750809c37d157814015c8;de;;;7.2.;;;Verbessern des metrischen Lernens der Bilddistanz durch Einbetten semantischer Beziehungen Das Erlernen einer geeigneten Distanzmetrik ist für viele Anwendungen für Computer Vision und Bildklassifizierung von entscheidender Bedeutung. Die Nachbarschaftskomponentenanalyse (NCA) ist eine effektive Methode zum Lernen von Distanzmetriken, die die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34778-8_39 efdadec9a41d4f76f1d1742ffef091d3;de;;;7.2.;;;Abfrageauswertung in probabilistischen RDF-Datenbanken In den letzten Jahren wurde RDF in einer Vielzahl von Domänen als Wissensrepräsentationsmodell verwendet. Einige Domänen sind voller Unsicherheit. Somit ist es erwünscht, probabilistische RDF-Daten zu verarbeiten und zu verwalten. Die Kernoperation von Abfragen in einer probabilistischen RDF-Datenbank besteht darin, die Wahrscheinlichkeit des Ergebnisses einer Abfrage zu berechnen. In diesem Papier beschreiben wir ein allgemeines Framework zur Unterstützung von SPARQL-Abfragen in probabilistischen RDF-Datenbanken. Insbesondere betrachten wir die Möglichkeit der transitiven Inferenz für RDF-Instanzdaten. Wir zeigen, dass die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04409-0_32 3be757e7a3a2d374f11f9683af404b78;de;;;7.2.;;;Zum automatischen Abrufen von Albumcovern Wir präsentieren erste Schritte zum intelligenten Abrufen von Musikalben-Covern aus dem Web. Das stetige Wachstum des elektronischen Musikvertriebs erhöht ständig das Interesse an Methoden zur automatischen Bereitstellung von Mehrwert wie Liedtexten oder Albumcovern. Während bestehende Ansätze auf großen proprietären Datenbanken basieren, konzentrieren wir uns auf Methoden, die das gesamte Web nutzen, indem wir;-;-;-;https://link.springer.com/chapter/10.1007/11735106_58 76183bf0584ab8e02ed9f27d250a3946;de;;;7.2.;;;Ein modifizierter Ameisen-basierter Text-Clustering-Algorithmus mit semantischem Ähnlichkeitsmaß Ameisenbasiertes Textclustering ist eine vielversprechende Technik, die große Aufmerksamkeit in der Forschung auf sich gezogen hat. Dieses Papier versucht, den standardmäßigen ameisenbasierten Text-Clustering-Algorithmus in zwei Dimensionen zu verbessern. Einerseits wird das ontologiebasierte semantische Ähnlichkeitsmaß in Verbindung mit dem traditionellen vektorraummodellbasierten Maß verwendet, um eine genauere Bewertung der Ähnlichkeit zwischen Dokumenten bereitzustellen. Andererseits wird das Ameisenverhaltensmodell modifiziert, um eine bessere algorithmische Leistung zu erzielen. Insbesondere wird die Ameisenbewegungsregel so angepasst, dass eine beladene Ameise zu einem dichten Bereich der gleichen Art von Gegenständen wie der tragende Gegenstand der Ameise geleitet wird und eine unbeladene Ameise zu einem Bereich geleitet wird, der einen Gegenstand enthält, der sich von den umgebenden Gegenständen darin unterscheidet sein Viertel Moore. Unter Verwendung von WordNet als Basis-Ontologie zur Bewertung der semantischen Ähnlichkeit zwischen Dokumenten wird der vorgeschlagene Algorithmus mit einem Beispielsatz von Dokumenten getestet, die aus dem Reuters-21578-Korpus entnommen wurden Text-Clustering-Algorithmus und der k-Means-Algorithmus.;-;-;-;https://link.springer.com/article/10.1007/s11518-006-5029-z b181d5f92615c9814d38482f75561d9d;de;;;7.2.;;;Ein effizientes Multicast-Hybrid-Routing-Protokoll für MANETs Multicasting reduziert die Kommunikationskosten für Anwendungen, die dieselben Datenpakete an mehrere Ziele senden müssen, anstatt über mehrere Unicasts zu senden. Es reduziert auch die erforderliche Kanalbandbreite, die Sender- und Router-Verarbeitung und die Lieferverzögerung. Dieses Papier vergleicht die Leistung eines effizienten Multicast-Hybrid-Routing-Protokolls mit dem bestehenden. d.h. MAODV. Wir untersuchen die Zuverlässigkeit sowie proaktive Ansätze von Multicast Hybrid Distance Vector (MHDV) für MANETs, ​​die verwendet werden, um die Packet Delivery Ratio (PDR) in allen möglichen Mobilitätsraten im Vergleich zu MAODV zu verbessern. Es wird auch beobachtet, dass die PDR und die Ende-zu-Ende-Verzögerung des vorgeschlagenen Routing-Protokolls für eine geringere Anzahl von Sendern besser sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12214-9_5 2c513f17983a6a5938c86d23b4e74b88;de;;;7.1.;;;Anpassung der Produktsoftware: Erkenntnisse aus einer umfangreichen IS-Literaturrecherche In den letzten Jahren haben Unternehmen damit begonnen, Kunden nicht nur mittels Marktforschung zu befragen, sondern in den Innovationsprozess zu integrieren. In der Informationssystemforschung (IS) wurde sowohl Individualisierung als Möglichkeit zur Bedienung der Einzigartigkeit der Kunden (inside-out) als auch als Form der Kundenintegration und Wertschöpfung (outside-in) betrachtet. Da jedoch viele Softwareanbieter den Wandel vom Hersteller zum Dienstleistungsunternehmen vollzogen haben, unterstreicht Customization as a Service in der Praxis die Fortsetzung von Anpassungsprojekten. Dieser Beitrag geht der Forschungsfrage nach, wie Konzepte der Individualisierung in der neueren IS-Literatur unterschieden werden. Durch eine umfassende Überprüfung der IS-Literatur zwischen 2001 und 2011 stellen wir fest, dass zukünftige Forschungen davon profitieren könnten, Wissensinteraktionen in Anpassungsprozessen tiefer zu betrachten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35142-6_15 e08b9acbb1336f7d7607520a55c568e3;de;;;7.1.;;;Methodik und Technologien der komplexen Objekte Proaktives intellektuelles Situationsmanagement und -kontrolle in Notfällen In diesem Artikel werden die Ergebnisse der Problemlösung von Programmen zur Wiederherstellung komplexer Objekte (CO) diskutiert, die auf der Strukturdynamikverwaltung und -steuerung dieser Objekte basieren. Der Hauptvorteil ist die kombinierte Verwendung verschiedener Modelle, Methoden und Algorithmen (analytisch, Simulation, logisch-algebraisch und deren Kombinationen), die es ermöglicht, ihre objektiv vorhandenen Mängel und Einschränkungen auszugleichen und gleichzeitig ihre positiven Eigenschaften bei der Planung und Terminierung für CO proaktive intellektuelle Situationsanalyse zu verbessern Verwaltung und Kontrolle in Notfällen. Die vorgeschlagene Integration von CO-Management- und Kontrollmethoden ermöglicht es, auf konstruktiver Ebene die inhaltlichen und formalen Aspekte der Problemlösung zu verknüpfen. Im Rahmen der vorgestellten Methodik kann auf die bisher gewonnenen grundlegenden wissenschaftlichen Ergebnisse der modernen Regelungstheorie komplexer dynamischer Systeme und des Knowledge Engineering mit abstimmbarer Struktur beim situativen Management komplexer Objektwiederherstellung zurückgegriffen werden. Es ermöglicht, die Abfolge von Aufgaben und Operationen zu bestimmen (um CO-Disaster-Recovery-Pläne und -Zeitpläne zu synthetisieren), Kompromisslösungen zu finden und vernünftig auszuwählen, wenn mehrere Optionen für die Abfolge von Operationen vorhanden sind. Die entwickelten CO-Disaster-Recovery-Pläne und -Zeitpläne werden unter Einbeziehung von Experten bewertet und deren implizite Expertise mit Hilfe eines multikriteriellen Ansatzes identifiziert. Die Problembeschreibung der Wiederherstellung wird angegeben. Die neue Methode der multikriteriellen Bewertung der CO-Disaster-Recovery-Pläne und -Zeitpläne, basierend auf einer Kombination von experimentellen Entwurfsmodellen und Modellen der Fuzzy-Regel-basierten Sprache, wird vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-50097-9_24 f09cb340f183c1c87a6af331b5f810ea;de;;;7.1.;;;Kontextgesteuertes System zur Unterstützung der Reiseplanung: Ein Ansatz und OpenStreetMap-basierte Datenbankbildung für Attraktionen Form Die Zahl der Touristen ist zuletzt deutlich gestiegen. Im Jahr 2016 stieg die Gesamtzahl der Touristen auf der Welt auf über eine Milliarde. Menschen reisen um die Welt und interessieren sich für neue Informationssysteme, die Zeit und Geld sparen und zusätzliche kontextbezogene Informationen über den Standort liefern können. Die Entwicklung von Informations- und Kommunikationstechnologien und geografischen Informationssystemen ermöglicht die Schaffung neuer Informationssysteme für Touristen, die ihnen eine höhere Benutzererfahrung bieten. Jeder Tourist besitzt heute ein Smartphone, das Informationen von verschiedenen Sensoren erfassen kann und eine komfortable Schnittstelle zu solchen Informationssystemen bietet. Das Papier schlägt einen Ansatz für die Entwicklung eines Unterstützungssystems für die Reiseplanung vor, das auf die Reisegenerierung basierend auf den Präferenzen der Touristen und den Kontextinformationen in der betrachteten Region abzielt. Da an manchen Orten kein Internetzugang verfügbar ist und das Herunterladen großer Informationsmengen im Ausland teuer werden kann, wird vorgeschlagen, die Attraktionendatenbank offline vorzubereiten, auf das Smartphone des Benutzers herunterzuladen und während der Fahrt zu verwenden. Für die Datenbankbildung wird vorgeschlagen, den OpenStreetMap-Dienst zum Sammeln von Informationen über Sehenswürdigkeiten und den Wikipedia-Dienst zur Extraktion der Medieninhalte über diese zu verwenden. Der Prototyp des touristischen Reiseplanungsunterstützungssystems wurde für ein Android-basiertes Smartphone implementiert und von einer Touristengruppe in St. Petersburg getestet. Darüber hinaus ist das System in der Lage, sich dynamisch mit Fahrzeug-Infotainmentsystemen zu verbinden, um die Qualität der Interaktion mit dem Touristen zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-31608-2_10 613718cfe9dc2cc77a3d3771b6d4b770;de;;;7.2.;;;Synopsis Alignment: Importieren externer Textinformationen für die Filmanalyse mit mehreren Modellen Textinformationen, die bei der Erkennung von Nachrichtenvideokonzepten eine wichtige Rolle spielen, wurden in der hochmodernen Filmanalysetechnologie ignoriert. Dies ist so, weil Filmuntertitel Rede von Rollen sind, die den Inhalt des Films nicht direkt beschreiben und wenig zur Filmanalyse beitragen. In diesem Artikel importieren wir kollaborative Schnittzusammenfassungen von professionellen Filmseiten für die Filmanalyse, die einen detaillierten Beschreibungstext des Films liefern. Zwei Ausrichtungsmethoden, Untertitelausrichtung und RoleNet-Ausrichtung, werden komplementär vorgeschlagen, um die Synopse am Film auszurichten, um Textinformationen auf Szenenebene des Films zu erhalten. Das Experiment zeigt, dass die vorgeschlagenen Methoden die Synopse effektiv an der Filmszene ausrichten können und die importierten Textinformationen eine vom Benutzer bevorzugte Zusammenfassung bieten können, als nur die Verwendung audiovisueller Funktionen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89796-5_30 170abd43cbe435f0ac6e6bd09578e088;de;;;7.2.;;;Dokumentlängen mit Bezeichnern darstellen Die Länge jedes indizierten Dokuments wird von den gängigsten Bewertungsfunktionen für die Textsuche benötigt, um es in Bezug auf die aktuelle Abfrage einzustufen. Aus Effizienzgründen halten Informationswiedergewinnungssysteme diese Informationen im Hauptspeicher. Dieses Papier schlägt eine neuartige Strategie vor, um die Länge jedes Dokuments direkt in der Dokumentkennung zu kodieren, wodurch der Hauptspeicherbedarf reduziert wird. Die Technik basiert auf einer einfachen Methode zur Zuweisung von Dokumentkennungen und einer Funktion, die es ermöglicht,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20161-5_66 caa0ba9a775b7a4739281344942a4f98;de;;;7.2.;;;Opinion Target Network und Bootstrapping-Methode für die Extraktion chinesischer Opinion Targets Opinion-Mining-Systeme erleiden einen großen Verlust, wenn in neu verfassten Reviews ständig unbekannte Meinungsziele auftauchen. Frühere Methoden zur Extraktion von Meinungszielen betrachten in der Regel von Menschen erstellte Meinungsziele als Samen und verwenden syntaktische/statistische Muster, um Meinungsziele zu extrahieren. Drei Probleme sind erwähnenswert. Erstens sind die manuell definierten Meinungsziele zu groß, um gute Samen zu sein. Zweitens ist die Liste, die Samen enthält, nicht aussagekräftig, um die Beziehung zwischen den Samen darzustellen. Drittens ist ein Zyklus der Meinungszielextraktion kaum in der Lage, eine zufriedenstellende Leistung zu erbringen. Dadurch ist die Abdeckung der bestehenden Methoden eher gering. In diesem Papier wird das Opinion Target Network (OTN) vorgeschlagen, um Atom-Meinungsziele von Komponenten und Attributen in einem zweischichtigen Graphen zu organisieren. Basierend auf OTN wird eine Bootstrapping-Methode zur Extraktion von Meinungszielen durch Generalisierung und Ausbreitung in mehreren Zyklen entwickelt. Experimente zur Extraktion von chinesischen Meinungszielen zeigen, dass die vorgeschlagene Methode effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04769-5_30 8ba381aac668008e597784b775b86446;de;;;7.2.;;;Untersuchung der Bewertung der Fruchtbarkeit von Kulturland in der Wüstenoase Xinjiang basierend auf GIS-Technologie – am Beispiel der Staatsfarm Nr. 22 Dieses Papier, am Beispiel No.22 State Farm, Agricultural Division No.2, XPCC und mit Unterstützung von GIS, nimmt die landwirtschaftlich genutzte Parzelle als Bewertungseinheit und wählt 13 Einflussfaktoren aus fünf Aspekten des Nährstoffs der Kulturschicht, physikalische und Chemische Eigenschaften der Anbauschicht, Bodenmanagement, Klimabedingungen und Hindernisfaktor zur Etablierung eines Bewertungssystems und Modells für die Fruchtbarkeitsbewertung von Wüstenoasen Auf der Grundlage einer großen Menge an Informationen über die Fruchtbarkeit von Anbauflächen durch Feldproben und Laboranalysen und unterstützt durch GIS nutzt der Beitrag mathematische Methoden und mathematische Modelle wie hierarchische Analyseverfahren und umfassende Fuzzy-Bewertungsverfahren, um automatische und quantitative Auswertung der Kulturlandfruchtbarkeit, Analyse von Flächenstatistiken und Verteilungsmerkmalen der Kulturlandfruchtbarkeit auf verschiedenen Ebenen und Hauptmerkmalen von Kulturland in verschiedenen Klassen in State Farm No.22 und Analyse der Flächenverteilung. Die Ergebnisse zeigen, dass das kultivierte Land in der Staatsfarm Nr. 22 in sechs Klassen eingeteilt werden kann, von denen Klasse 1 Land IFI (integrierter Fruchtbarkeitsindex) 0,74 ~ 1,00 beträgt, Fläche 3788,11 hm2 , was 7,67 % der Gesamtfläche ausmacht, Klasse 2 - Land der Klasse 6 für 36,45 %, 43,47 %, 12,32 %, 0,089% bzw. 0,0001% der Gesamtfläche. Forschungsergebnisse sind von Bedeutung, um das lokale Qualitätsmanagement von landwirtschaftlichen Nutzflächen zu lenken und den Bau neuer ländlicher Räume zu fördern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18336-2_35 a4fa50666d969c11556cbcd81e50d8da;de;;;7.2.;;;Ein Frage-Antwort-System für Leseverständnistests In diesem Beitrag wird eine Methodik zur Lösung des Problems der Fragebeantwortung für Leseverständnistests vorgestellt. Das implementierte System akzeptiert ein Dokument als Eingabe und beantwortet Multiple-Choice-Fragen dazu. Es verwendet die Lucene Information Retrieval Engine zur Durchführung der Informationsextraktion unter Verwendung zusätzlicher automatisierter linguistischer Verarbeitung wie Stemming, Anaphora-Auflösung und Part-of-Speech-Tagging. Der vorgeschlagene Ansatz validiert die Antworten, indem der von Lucene für jede Frage abgerufene Text mit seinen Kandidatenantworten verglichen wird. Zu diesem Zweck wird eine Validierung auf Basis von textuellem Engagement durchgeführt. Wir haben die durchgeführten Experimente ausgewertet, um die Qualität der vorgeschlagenen Methodik anhand von zwei in internationalen Foren weit verbreiteten Korpora zu überprüfen. Die erhaltenen Ergebnisse zeigen, dass das vorgeschlagene System die richtige Antwort auf eine bestimmte Frage mit einem Prozentsatz von 33-37% auswählt, ein Ergebnis, das den Durchschnitt aller in der QA4MRE-Aufgabe des CLEF 2011 und 2012 eingereichten Durchläufe übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38989-4_36 292fc3a6590be0f3154e63bd739c3864;de;;;7.2.;;;Themenerkennung von Zeitschriftenartikeln basierend auf semantischen Merkmalen Die Zahl der elektronischen Zeitschriftenartikel wächst schneller als je zuvor, Informationen werden schneller generiert, als Menschen damit umgehen können. Um dieses Problem zu lösen, haben viele elektronische Zeitschriftendatenbanken Schlagwortsuchmethoden vorgeschlagen, um den Aufwand und die Zeit, die die Benutzer bei der Suche in den Archiven der Zeitschrift aufwenden, zu verringern. Dennoch müssen sich die Nutzer mit einer Vielzahl von Suchergebnissen auseinandersetzen. Die effiziente Suche, also die Darstellung der Suchergebnisse in Kategorien, ist zu einem wichtigen aktuellen Forschungsthema geworden. Lassen sich Suchergebnisse nach Themen klassifizieren und anzeigen, finden Nutzer schnell interessante Papers. Traditionelle Methoden der Themenerkennung verwenden jedoch nur Worthäufigkeiten und ignorieren die Bedeutung der Semantik. Auch die bibliographischen Strukturen (z.B.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02568-6_65 2f7b664f6141b85e513798c592633fec;de;;;7.2.;;;Der Wert von Benutzerfeedback Information-Retrieval-Systeme und ihre Nutzer treten in einen Dialog. Während der Hauptinformationsfluss vom System zum Benutzer erfolgt, bietet das Feedback vom Benutzer zum System viele Möglichkeiten für kurz- und langfristiges Lernen. In diesem Vortrag werde ich zwei miteinander verbundene Fragen untersuchen, die für den effektiven Einsatz von Feedback von zentraler Bedeutung sind. Erstens, wie kann Benutzerfeedback gesammelt werden, damit es den Benutzer nicht belastet? Ich werde argumentieren, dass die Mechanismen zum Sammeln von Feedback in die Gestaltung des Abrufprozesses integriert werden müssen, damit die kurzfristigen Ziele des Benutzers gut mit dem Ziel des Systems, Feedback zu sammeln, ausgerichtet sind. Zweitens, wenn diese Integration erfolgreich ist, wie wertvoll sind dann die Informationen, die das Benutzer-Feedback liefert? Für die Aufgaben der Retrievalbewertung und Abfragedisambiguierung wird im Vortrag quantifiziert, wie viel Benutzerfeedback den menschlichen Annotatoraufwand sparen bzw. die Retrievalqualität verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20161-5_3 7c7d16cba0961cdabc8dcff877e51391;de;;;7.2.;;;PageRank mit Textähnlichkeit und Video-Beinahe-Duplikat-Einschränkungen für das Re-Ranking von News Storys Pseudo-Relevanz-Feedback ist eine beliebte und weithin akzeptierte Strategie zur Neuformulierung von Abfragen zum Abrufen und Neuordnen von Dokumenten. Bei dieser Aufgabe treten jedoch Probleme auf, wenn vermeintlich relevante Dokumente tatsächlich irrelevant sind, was zu einer Verschiebung des Fokus der umformulierten Abfrage führt. Dieser Artikel konzentriert sich auf das Abrufen und Re-Ranking von Nachrichten und bietet eine neue Perspektive durch die Untersuchung der paarweisen Beschränkungen, die aus Video-Fast-Duplikaten für die beschränkungsgesteuerte Neuordnung abgeleitet werden. Wir schlagen eine neuartige Anwendung von PageRank vor, einem Pseudorelevanz-Feedback-Algorithmus, und verwenden die auf dem Text aufbauenden Einschränkungen, um die Relevanzqualität zu verbessern. Echtzeit-Experimente wurden unter Verwendung einer großen Broadcast-Videodatenbank durchgeführt, die mehr als 34.000 Nachrichtenartikel enthält.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11301-7_53 ec73bfb422a1cbd7e457d92fd0aae08d;de;;;7.2.;;;Ein Überblick über Methoden des Security Requirements Engineering in Bezug auf Risikoanalyse und Model-Driven Engineering Einer der wichtigsten Aspekte, die dazu beitragen, die Qualität und Kosten sicherer Informationssysteme in ihren frühen Phasen des Entwicklungslebenszyklus zu verbessern, ist das Security Requirements Engineering (SRE). Es ist jedoch nicht trivial, solche Anforderungen zu erfüllen. Eine Domäne, die sich auch mit der Ermittlung von Sicherheitsanforderungen befasst, ist die Risikoanalyse (RA). Daher führen wir eine Überprüfung der SRE-Methoden durch, um zu analysieren, welche mit RA-Prozessen kompatibel sind. Darüber hinaus erfolgt der Übergang von diesen frühen Sicherheitsanforderungen zu Sicherheitsrichtlinien in späteren Phasen des Lebenszyklus im Allgemeinen nicht automatisch, informell und unvollständig. Model-Driven Engineering (MDE) verwendet zur Bewältigung solcher Fragestellungen formale Modelle und automatische Modelltransformationen. Daher überprüfen wir auch, welche SRE-Methoden mit MDE-Ansätzen kompatibel sind. Folglich basiert unsere Überprüfung auf Kriterien, die teilweise aus bestehenden Erhebungsarbeiten abgeleitet, weiter angereichert und spezialisiert wurden, um die Kompatibilität von SRE-Methoden mit den Disziplinen RA und MDE zu bewerten. Es fasst die Erkenntnisse zu diesem Thema zusammen, um das Verständnis zu verbessern und die Bewertung und Auswahl von SRE-Methoden zu erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10975-6_6 361f258176734511b385cfbd1399528a;de;;;7.1.;;;Ein systematischer Überblick über den Einsatz von Groupware-Technologien im Notfallmanagement Der Begriff Groupware wurde im Zusammenhang mit Notfällen verwendet, um unter anderem zu ermöglichen, dass die Verwaltung und Durchführung von Notfällen von mehreren Beteiligten gleichzeitig, kooperierend und/oder koordinierend durchgeführt werden kann. Diese Arbeit zielt darauf ab, den Stand der Technik über Groupware-Technologien zu analysieren, die von Forschern entwickelt wurden, um das Management von Notfällen zu unterstützen. In diesem Sinne wurden die Technologien und ihre Handlungsfelder erhoben und analysiert: Pre-Emergency Event (Vorbereitung und Mitigation, wo Planung und Vorbereitung auf einen möglichen Notfall eintritt, während des Notfalls (dessen Ziel es ist, die Durchführung von Maßnahmen zu fördern und zu verfolgen) ) und Post-Notfall-Ereignis, das beispielsweise die Phase der Umstrukturierung, des Wiederaufbaus und der Regeneration der vom Notfall betroffenen Standorte umfasst von Groupware-Technologien, die im Vor- und Nachauflauf zum Nachteil der Nach-Emergency-Phase funktionieren, was Entwicklern von Groupware-Technologien die Möglichkeit eröffnet, diese Phase auszunutzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-32169-7_3 016f2bd9dd1365eb898a8edb7a534651;de;;;7.1.;;;Erforschung und Implementierung des Pinyin-Tagging-Systems basierend auf Wortsegmentierung Das Pinyin-Tagging-System hat ein breites Anwendungsspektrum. Die Tagging-Genauigkeit ist aufgrund von Problemen mit chinesischen Polyphonen geringer. Das chinesische Mehrton-Wortverhältnis ist weitaus geringer als beim Polyphon, sodass der Tagging-Ansatz der Wortsegmentierung die Tagging-Genauigkeit verbessern kann. Die Tagging-Genauigkeit wird um 10,8% verbessert. Der Pinyin-Wörterbuchmechanismus wird im Wortsegmentierungsprozess untersucht, um die Tagging-Geschwindigkeit zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25658-5_59 4a797cb1ebd1e27546f094e601f4feab;de;;;7.1.;;;Ein Vergleich von Modellierungsframeworks für Softwareprozesse und Informationssysteme Dieser Beitrag vertritt die Position, dass Softwareprozessmodellierung und Informationssystemmodellierung thematisch eng verwandt sind – obwohl die Forschung von zwei recht unterschiedlichen Lagern betrieben wird und sich die Ansätze unterscheiden. Wir denken, dass beide Bereiche von einer stärkeren Zusammenarbeit profitieren würden. Die enge Beziehung zwischen den Feldern wird durch ein Modellierungsbeispiel aufgezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-57739-4_32 2d386bf780b1dea864e5bccb15e6e43e;de;;;7.1.;;;Corporate Memories für Wissensmanagement in der industriellen Praxis: Perspektiven und Herausforderungen Ein Kernkonzept in der Diskussion um die technologische Unterstützung des Wissensmanagements ist das Corporate Memory. Ein Corporate oder Organizational Memory kann als umfassendes Computersystem charakterisiert werden, das das gesammelte Know-how und andere Wissensressourcen eines Unternehmens erfasst und zur Steigerung der Effizienz und Effektivität wissensintensiver Arbeitsprozesse zur Verfügung stellt. Die erfolgreiche Entwicklung eines solchen Systems erfordert eine sorgfältige Analyse der etablierten Arbeitspraktiken und der verfügbaren informationstechnischen (IT) Infrastruktur. Dies ist unabdingbar, um eine kostengünstige Lösung bereitzustellen, die von den Benutzern akzeptiert wird und in Zukunft weiterentwickelt werden kann. Dieses Kapitel vergleicht und fasst unsere Erfahrungen aus drei Fallstudien zu Corporate Memories zur Unterstützung verschiedener Aspekte im Produktlebenszyklus von drei europäischen Unternehmen zusammen. Basierend auf den durchgeführten Analysen und prototypischen Implementierungen skizzieren wir einen allgemeinen Rahmen für die Entwicklungsmethodik, Architektur und technische Umsetzung eines Corporate Memory.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-03723-2_9 067aa97989598907649a0d022ff4d27b;de;;;7.1.;;;Kosten und Nutzen eines computergestützten regionalen Blutinventarsystems Im Rahmen einer Untersuchung der Betriebsführungsprobleme regionaler Blutversorgungszentren wurde ein computergestütztes Blutinventar-Informations- und Planungssystem konzipiert, entwickelt und implementiert. Das System wurde in sechs Stufen konzipiert und entwickelt. Die sechs Entwurfs- und Entwicklungsphasen sind: (A) Pflege und Auflistung des Blutbestands in den größten Blutbanken, (B) zusammenfassende Berichterstattung nach Blutbankstandort, (C) Berichterstattung des Blutbestands nach Alter und Typ, (D) Erweiterung um kleinere Blutbanken, (E) Berichterstattung über eine größere Vielfalt von Transaktionen und (F) Vorhersage kurzfristiger Blutbestände. Alle sechs Stufen wurden umgesetzt und sind noch in Betrieb. Die Entwicklungs- und Betriebskosten jeder Stufe werden ausgewiesen und mit dem geschätzten Nutzen, sowohl dem potenziellen als auch dem erreichten, verglichen. Der geschätzte Nutzen des Systems übersteigt die Kosten deutlich. Die endgültige Version des Systems besteht aus mehreren Modulen, von denen einige optional sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-7636-9_33 22066b74d3c5c716628a2ac555121d56;de;;;7.2.;;;Erweiterte Verarbeitung fehlender Daten für kollaboratives Filtern Speicherbasiertes kollaboratives Filtern (CF) wird in dem Empfehlungssystem basierend auf ähnlichen Benutzern oder Elementen häufig verwendet. Alle diese Ansätze leiden jedoch unter der Datenknappheit. In vielen Fällen ist die User-Item-Matrix recht spärlich, was direkt zu ungenauen Empfehlungsergebnissen führt. Dieses Papier konzentriert das gedächtnisbasierte kollaborative Filterproblem auf den Faktor: fehlende Datenverarbeitung. Wir schlagen eine erweiterte Verarbeitung fehlender Daten vor, die zwei Schritte umfasst: (1) Verwendung eines verbesserten CHARM-Algorithmus zum Mining geschlossener Teilmengen – eine Gruppe von Benutzern, die Interesse an einigen Elementen teilen, (2) Verwendung eines angepassten Slope One-Algorithmus basierend auf Teilmengen, um nicht nur Informationen von sowohl Benutzer als auch Items, aber auch Informationen, die weder in das User-Array noch in das Item-Array fallen. Danach verwenden wir den Pearson-Korrelationskoeffizienten-Algorithmus zur Vorhersage der Bewertung für aktive Benutzer. Schließlich zeigen die empirischen Bewertungsergebnisse, dass der vorgeschlagene Ansatz andere hochmoderne CF-Algorithmen übertrifft und robuster gegen Datenknappheit ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34707-8_36 8d3d4c6da8a387209d84144f108b3d26;de;;;7.2.;;;Automatisierte Auswertung von Annotatoren für Museumssammlungen mit subjektiver Logik Museen digitalisieren ihre Sammlungen schnell und stehen vor der großen Herausforderung, jedes digitalisierte Artefakt zu kommentieren. Deshalb öffnen sie ihre Archive für den Empfang von Annotationen von Experten weltweit. Dieses Papier präsentiert eine Architektur zur Auswahl des geeignetsten Satzes von Annotatoren für ein bestimmtes Artefakt, basierend auf semantischen Verwandtschaftsmaßen zwischen dem Gegenstand des Artefakts und den Fachgebieten der Annotatoren. Wir verwenden auch Mechanismen zur Bewertung der Qualität der bereitgestellten Annotationen und verwalten und aktualisieren ständig die Vertrauens-, Reputations- und Fachwissensinformationen registrierter Annotatoren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29852-3_18 f94b28a1fec05a10669d2d89039676d5;de;;;7.2.;;;Eine praktische Bewertung der Benutzerfreundlichkeit von Sicherheitsfunktionen in Endbenutzeranwendungen Die Darstellung und Benutzerfreundlichkeit von Sicherheitsmerkmalen kann ein erhebliches Hindernis für einen wirksamen Schutz von Endbenutzersystemen darstellen. Um die Art und das Ausmaß von Problemen zu untersuchen, die bei Versuchen auftreten können, Sicherheit in Standard-Endbenutzeranwendungen zu verwenden, präsentiert dieses Papier Ergebnisse einer Reihe praktischer Benutzerversuche aus Webbrowsing, Textverarbeitung und E-Mail-Aktivitäten. Die Ergebnisse basieren auf strukturierten Tests mit 15 Teilnehmern (die eine Mischung aus allgemeinen und fortgeschrittenen Benutzern darstellen), die zeigen, dass Benutzer in vielen Fällen Schwierigkeiten zu haben scheinen, grundlegende Sicherheitsaufgaben innerhalb der betreffenden Anwendungen zu verstehen und auszuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-72367-9_18 c7794a6adcff1b0540d0b789f84ac9e7;de;;;7.2.;;;SQX-Lib: Entwicklung eines semantischen Abfrageerweiterungssystems in einer Mediengruppe In letzter Zeit hat die Menge der in Repositorien gespeicherten digitalen Daten exponentiell zugenommen. Daher ist der effiziente und effektive Abruf von Informationen aus ihnen zu einem zentralen Thema geworden. Organisationen verwenden traditionelle Architekturen und Methoden, die auf klassischen relationalen Datenbanken basieren, aber diese Ansätze berücksichtigen nicht die Semantik der Daten oder führen komplexe ETL-Prozesse von relationalen Repositories bis hin zu Triple-Repositories durch. Die meisten Unternehmen führen diese Art der Migration aus Mangel an Zeit, Geld oder Wissen nicht durch.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06028-6_95 fe22e01adff3541108618cc6f45c17de;de;;;7.2.;;;Lerntop- Die Datensatzverknüpfung identifiziert mehrere Datensätze, die sich auf dieselbe Entität beziehen, auch wenn sie nicht bitweise identisch sind. Sie ist damit eine unverzichtbare Technologie für die Datenintegration und Datenbereinigung. Bestehende Ansätze zur Datensatzverknüpfung beruhen hauptsächlich auf Ähnlichkeitsfunktionen basierend auf den Oberflächenformen der Datensätze und sind daher nicht in der Lage, komplexe Koreferenzdatensätze zu identifizieren. Dies schränkt die Wirksamkeit bestehender Ansätze stark ein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23088-2_12 587f49f07973873be7e78be8b932b30d;de;;;7.2.;;;News-Empfehlung in Echtzeit Empfehlungssysteme unterstützen Benutzer, die in Situationen der Informationsüberflutung stehen. Typischerweise entstehen solche Situationen, wenn Benutzer zwischen einer immensen Anzahl von Alternativen wählen müssen. Beispiele hierfür sind die Entscheidung, welche Songs Sie anhören, welche Filme Sie ansehen und welche Nachrichtenartikel Sie lesen möchten. In diesem Kapitel skizzieren wir den Fall des Vorschlagens von Nachrichtenartikeln. Diese Aufgabe bringt eine Reihe von Herausforderungen mit sich. Erstens bleiben Nachrichtensammlungen im Gegensatz zu Filmen oder Liedern nicht relevant. Benutzer fordern weiterhin neue Inhalte an. Zweitens vermeiden Benutzer die Erstellung konsistenter Profile und lehnen somit Anmeldevorgänge ab. Drittens kommen Anfragen in riesigen Strömen an. Aufgrund der kurzen Verbrauchszeiten fordern Benutzer schnell den nächsten Artikel zum Lesen an. Die Bewältigung dieser Herausforderungen erfordert Anpassungen an bestehende Empfehlungsstrategien sowie die Entwicklung neuer.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-14178-7_6 596d7b2c0baf26320121678a1709adcd;de;;;7.2.;;;Augenbewegungen bei der Wiederherstellung von Software-Traceability-Links Information Retrieval (IR)-Ansätze wie Latent Semantic Indexing (LSI) und Vector Space Model (VSM) werden häufig angewendet, um Links zur Rückverfolgbarkeit von Software wiederherzustellen. Kürzlich wurde ein Ansatz vorgeschlagen, der auf den Blicken von Entwicklern basiert, um Rückverfolgbarkeitslinks abzurufen. Dieser Beitrag präsentiert eine vergleichende Studie zu IR- und Eye-Gaze-basierten Ansätzen. Darüber hinaus wird über die Möglichkeit berichtet, Eye-Gag-Links als alternative Benchmark im Vergleich zu Commits zu verwenden. In der durchgeführten Studie wurden Entwickler gebeten, Aufgaben zur Fehlerlokalisierung auf dem Open-Source-Themensystem JabRef durchzuführen. Das;-;-;-;https://link.springer.com/article/10.1007/s10664-016-9486-9 ae912a1b4096cd7582ebb9e83e41e41c;de;;;7.2.;;;Der theoretische Rahmen von CRM CRM-Projekte sind immer mehr auf zwei gegensätzliche Konzepte ausgerichtet: Effizienz und Effektivität. Ein Unternehmen muss einerseits effektiv am Markt sein, um Kundenbeziehungen zu pflegen, seinen Marktanteil zu halten und seine Marktdurchdringung zu verbessern, andererseits muss das Unternehmen effizient sein. Dies bedeutet, dass IT-Abteilungen sorgfältige Bewertungen von IT-Investitionen und -Projekten durchführen müssen, da es sehr schwer zu verstehen ist, ob Initiativen einen Return on Investment oder zumindest eine direkte und eindeutige Amortisation haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35554-7_3 f5882eed995967adff72ea3bb81e98de;de;;;7.2.;;;XRL: Eine XML-basierte Abfragesprache für erweiterte Dienste in digitalen Bibliotheken In diesem Papier stellen wir eine neue XML-basierte Abfragesprache für XML-Dokumente mit der Bezeichnung XRL vor. Diese Sprache drückt Datenbankbedingungen bezüglich der Attribute und der Struktur von Dokumenten aus, sowie Informationen Retrieval Bedingungen bezüglich ihres Inhalts und ihrer Relevanz. XRL-Abfragen können in einem XML-Repository gespeichert und wie jedes andere XML-Dokument bearbeitet werden. Um die Nützlichkeit dieser Sprache zu veranschaulichen, beschreiben wir auch einige allgemeine Richtlinien ihrer aktuellen Implementierung und präsentieren eine Beispielanwendung. Diese Anwendung besteht aus einem Abonnement-/Benachrichtigungsdienst für Nachrichtenartikel, die gemäß den Vorlieben jedes Benutzers regelmäßig aus einer digitalen Zeitungsbibliothek abgerufen werden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-46146-9_30 a8bf0aa0068a4e231ddc894e43bee339;de;;;7.2.;;;SCHNELL: Für eine effektivere und effizientere Bildsuche Dieses Papier konzentriert sich auf die Entwicklung einer Fast And Semantics-Tailored (FAST) Image Retrieval Methodik. Zu den Beiträgen der FAST-Methodik zur CBIR-Literatur gehören insbesondere: (1) Entwicklung einer neuen Indexierungsmethode basierend auf Fuzzy-Logik, um Farb-, Textur- und Forminformationen in einen regionenbasierten Ansatz zur Verbesserung der Abrufeffektivität und -robustheit zu integrieren, ( 2) Entwicklung einer neuen hierarchischen Indexierungsstruktur und des entsprechenden hierarchischen, Eliminations-basierten A*-Retrieval (HEAR)-Algorithmus zur signifikanten Verbesserung der Retrieval-Effizienz ohne Einbußen bei der Retrieval-Effektivität, es wird gezeigt, dass HEAR garantiert eine logarithmische Suche im durchschnittlicher Fall, (3) Verwendung von Benutzerrelevanz-Feedback, um den effektiven Abruf an die individualisierten Abfragepräferenzen jedes Benutzers durch die neuartigen Algorithmen zum Beschneiden von Indexbäumen (ITP) und adaptiven Bereichsgewichtungsaktualisierungen (ARWU) anzupassen. Theoretische Analysen und experimentelle Auswertungen zeigen, dass die FAST-Methodik viel versprechend ist, um eine schnelle und semantikgerechte Bildwiederherstellung in CBIR zu ermöglichen.;-;-;-;https://link.springer.com/article/10.1007/s00530-005-0180-9 6020d2dc8c34f98571aeef5d11b2cd1b;de;;;7.2.;;;Effektive Eckenanpassung für die transformierte Bilderkennung Image Es gibt viele Anwendungen, beispielsweise den Urheberrechtsschutz von Bildern, bei denen transformierte Bilder eines bestimmten Testbilds identifiziert werden müssen. Die Lösung des Identifikationsproblems besteht aus zwei Hauptstufen. In Stufe eins werden für alle Bilder bestimmte repräsentative Merkmale erkannt. In Stufe zwei werden die repräsentativen Merkmale des Testbildes und der gespeicherten Bilder verglichen, um die transformierten Bilder für das Testbild zu identifizieren. Wir haben die Technik zum Extrahieren robuster repräsentativer Merkmale – Ecken – in unserer früheren Arbeit beschrieben [1]. Dieses Papier konzentriert sich auf unsere Arbeit der zweiten Stufe zur effektiven Corner-Matching-Technik für die transformierte Bildidentifikation. Experimentelle Ergebnisse zeigen, dass die vorgeschlagene Corner-Matching-Technik sehr effektiv beim Identifizieren der transformierten Bilder für ein gegebenes Testbild ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77255-2_92 bc2eab6affb18373e86f1ff0ab75f731;de;;;7.2.;;;Eine Studie zur Glätte der Dokumentgewichtung in Pseudorelevanz-Feedback Beim Pseudo-Relevanz-Feedback (PRF) spielt das Dokumentengewicht, das angibt, wie wichtig ein Dokument für das PRF-Modell ist, eine Schlüsselrolle. In diesem Papier untersuchen wir das Problem der Glätte der Dokumentgewichte in PRF. Der Begriff;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17187-1_50 dd27bf04d177d690de729fdb3772186b;de;;;7.2.;;;Ein Schema zum Abrufen von Bildern mit Konzepten für mehrere Instanzen und Pseudobilder Pseudo Die inhaltsbasierte Bildersuche galt lange Zeit als schwierige Aufgabe. Das Treffen richtiger Vermutungen über die Benutzerintention (Wahrnehmung) basierend auf den Abfragebildern ist ein kritischer Schritt bei der inhaltsbasierten Suche. Ein Schlüsselkonzept in diesem Papier ist, wie wir die vom Benutzer bevorzugten Bildmerkmale aus den mehreren vom Benutzer bereitgestellten Mustern finden. Das zweite Schlüsselkonzept besteht darin, dass wir einen Satz konsistenter „Pseudobilder“ generieren, wenn der Benutzer nicht eine ausreichende Anzahl von Samples bereitstellt. Der Begriff der Bildmerkmalsstabilität wird somit eingeführt. Beim Realisieren der vorhergehenden Konzepte wird ein Bildsuchschema unter Verwendung der gewichteten Bildmerkmale niedriger Ebene entwickelt. Am Ende werden quantitative Simulationsergebnisse verwendet, um die Wirksamkeit dieser Konzepte zu zeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30541-5_20 0531ca7b9c35da11e54ad58d1483fceb;de;;;7.2.;;;Anwendung von verbessertem ACO bei der Auswahl des Distributionsroutings für Notfalllogistik Kombinierte Charakteristik der Notfalllogistik, etabliertes Dual-Target-Delivery-Modell nach dem Prinzip „Verteilungseffizienz zuerst, beides Wirtschaftlichkeit“ und löste das Modell mit dem Fisch-Schwarm-Ameisenkolonie-Algorithmus. Der Algorithmus untersucht zunächst die Logistik und Verteilung in der Notfallroutenanwendung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31965-5_51 550ed5f2b2f6c958dce774378286a14a;de;;;7.2.;;;Schnelles inhaltsbasiertes Mining von Web2.0-Videos Die Anhäufung vieler transformierter Versionen der gleichen Originalvideos auf Web2.0-Sites hat einen negativen Einfluss auf die Qualität der den Benutzern präsentierten Ergebnisse und auf die Verwaltung der Inhalte durch den Anbieter. Eine automatische Identifizierung solcher;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89796-5_11 e71f867a77644ec8fa5e7de98eac2777;de;;;7.2.;;;ERFORSCHUNG DES AUSDRUCKS VON FORM, HANDLUNG UND INTERAKTION Das zentrale Thema von Ambient Intelligence ist, dass leistungsfähige Rechen-, Kommunikations- und Speichermöglichkeiten vorhanden, aber unsichtbar sind. wir glauben das;-;-;-;https://link.springer.com/chapter/10.1007/11402985_13 ad0e2f679f9dba1b46445ba3393d487e;de;;;7.2.;;;Ein Verbesserungsalgorithmus für den Zugriff auf Muster durch Clustering in interaktiven VRML-Umgebungen Die Durchquerungspfade des Benutzers in VRML-Umgebungen können oft interessante Beziehungen zwischen den Objekten aufdecken. Die massiven Gegenstände werden jedoch immer in den Lagereinheiten gelagert und verstreut. Dies erhöht die Suchzeit und verringert die Systemleistung. Leider wird dieses Problem in den traditionellen VRML-Umgebungen nie berücksichtigt. In diesem Papier entwickeln wir eine effiziente Clustering-Methode, um die Effizienz des Zugriffs auf Objekte zu verbessern. Die Clustering-Methodik ist besonders geeignet für die Untersuchung von Zusammenhängen zwischen Objekten, um die Zugriffszeit zu reduzieren. Basierend auf der Co-Occurrence-Tabelle und dem Clustering-Algorithmus für Ähnlichkeitsmuster können wir diese Muster effektiver und effizienter clustern. Um die Qualität der Cluster beizubehalten, wird der Ähnlichkeitsmuster-Clustering-Algorithmus vorgestellt, der diese Anforderung erfüllt. Unsere experimentelle Auswertung am VRML-Datensatz zeigt, dass unser Algorithmus nicht nur die Zugriffszeit deutlich verkürzt, sondern auch die Rechenleistung verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30543-9_68 4a6a80c6d6030c7ff9b5424bddf0e5f2;de;;;7.1.;;;Instrumente des Kosten- und Ergebniscontrollings Controlling als ziel- und entscheidungsorientiertes System erfordert eine Bereitstellung von entscheidungsrelevanten Daten durch die Instrumente des Kosten- und Ergebniscontrollings. Grundlage für deren Ermittlung sind somit das Planungssystem des Unternehmens und darüber hinaus die Kostenrechnung, die Dokumentationszwecken dient. Nach dem Grundsatz der Vollständigkeit muss ein solches Planungssystem alle Entscheidungsbereiche des Unternehmens abdecken. Anhand der unterschiedlichen Unternehmensfunktionen lässt sich eine separate Planung von Beschaffungs-, Produktions-, Vertriebs- und Logistikbereich differenzieren. Ein wesentliches Merkmal dieser Planung, wie in Abbildung 60 auf Seite 39 dargestellt, ist die Zusammensetzung aus mehreren Detailplanungen. Ein derart detailliertes Planungssystem kann nicht direkt Grundlage eines unternehmensweiten Kosten- und Ergebniscontrollings sein. Diese Detailplanungen basieren nicht wie zB andere Kostenrechnungen auf monetären Zahlen, sondern meist auf mengen- und zeitbasierten Zahlen. Das Kosten- und Ergebniscontrolling könnte seine Aufgabe der Verdichtung von Informationen zum Gewinnziel nicht erfüllen, wenn es nur auf der gesamten Detailplanung basieren würde. Der Hauptgrund dafür ist die riesige Datenmenge, die verarbeitet werden muss.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-60769-1_13 cf65668f51c97fd2b6b72943d1c3ac8a;de;;;7.2.;;;Erkennen von gewalttätigen Szenen in Filmen durch akustische und visuelle Hinweise Um Gewalt in Filmen zu erkennen, stellen wir eine dreistufige Methode vor, die visuelle und auditive Hinweise integriert. Bei unserer Methode werden zunächst die Aufnahmen mit potenziell gewalttätigem Inhalt nach universellen Filmregeln identifiziert. Es wird eine modifizierte halbüberwachte Lerntechnik basierend auf halbüberwachtem merkmalübergreifendem Lernen (SCFL) verwendet, da sie in der Lage ist, verschiedene Arten von Merkmalen zu kombinieren und nicht gekennzeichnete Daten zu verwenden, um die Klassifikationsleistung zu verbessern. Dann werden für die Kandidatenschüsse weiter typische gewaltbezogene Audioeffekte erkannt, und wir schaffen es, die von den Klassifikatoren verschiedener Audioereignisse ausgegebenen Konfidenzen in eine schussbasierte Gewaltbewertung umzuwandeln. Schließlich werden die ersten zweistufigen probabilistischen Ausgänge verstärkend integriert, um die endgültige Inferenz zu erzeugen. Die experimentellen Ergebnisse an vier typischen Actionfilmen zeigen vorläufig die Wirksamkeit unserer Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89796-5_33 8a7afa92304306e19ac41ebc9d202e4f;de;;;7.2.;;;Semantikgetriebener Multimedia-Retrieval mit dem MPEG Query Format Das MPEG Query Format (MPQF) ist ein neuer Standard des MPEG-Standardisierungsausschusses, der eine standardisierte Schnittstelle zu Multimedia-Dokumenten-Repositorys bereitstellt. Der Zweck dieses Papiers ist die Beschreibung der notwendigen Erweiterungen, die es MPQF ermöglichen, Metadaten zu verwalten, die mit Semantic Web-Sprachen wie RDF und OWL modelliert wurden, sowie Abfragekonstrukte basierend auf SPARQL. Die vorgeschlagenen Änderungen umfassen die Definition eines neuen MPQF-Abfragetyps und eine Verallgemeinerung des MPQF-Metadatenverarbeitungsmodells. Soweit uns bekannt ist, ist dies die erste Arbeit, die das MPEG-Abfrageformat auf die semantikgesteuerte Suche und Abfrage von Multimediainhalten anwendet.;-;-;-;https://link.springer.com/article/10.1007/s11042-009-0390-9 dcb8be6457e405e12daa49660102b020;de;;;7.2.;;;Auf dem Weg zu einem Semantic Linked Data Retrieval-Modell Diese Forschung zielt darauf ab, unser Semantic Linked Data Retrieval Model (SLDRM) vorzustellen, das konzipiert wurde, um die traditionelle Ad-hoc-Abrufaufgabe von INEX 2013 Linked Data Track durchzuführen. SLDRM wurde basierend auf der Kombination einiger neuartiger semantischer Repräsentationsmodelle für die Verarbeitung von Abfragen zur englischen Abfrage und vorgeschlagenen Techniken zum Erstellen und Optimieren von Abfragen in der Indri-Suchmaschine entwickelt, um strukturierte Textdaten effektiv abzurufen. Basierend auf SLDRM wurde ein Semantic Linked Data Retrieval System (SLDRS) aufgebaut, um die Leistung von SLDRM zu bewerten. Zur Bewertung der Genauigkeit von SLDRS wurden die Bewertungsmethoden des INEX 2013 Linked Data Track verwendet, die auf der Verwendung der Testthemen der Standard-Ad-hoc-Suchaufgabe und der zwei Standard-Scores MRR und TREC MAiP basieren. Die Experimente zeigen, dass der MAiP-Score unseres SLDRS im Vergleich zu allen eingereichten Durchläufen von INEX 2013 Linked Data Track am höchsten ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12778-1_23 d5fb81c970cb48d47fc94fe66f874e2a;de;;;7.2.;;;Bewertung eines maschinellen Übersetzungssystems für Arabisch basierend auf der universellen Netzwerksprache In diesem Beitrag wird ein maschinelles Übersetzungssystem (MT) bewertet, das auf dem interlingua-Ansatz basiert, dem Universal Network Language (UNL)-System, das für die mehrsprachige Übersetzung entwickelt wurde. Die Studie befasst sich mit der Bewertung der englisch-arabischen Übersetzung und zielt darauf ab, die auf UNL basierenden MÜ-Systeme mit anderen Systemen zu vergleichen. Es dient auch dazu, die Entwicklung der Systemstudie zu analysieren, indem es die Ergebnisse auf Satzebene vergleicht. Die Evaluierung erfolgt anhand der Encyclopedia of Life Support Systems (EOLSS), einem umfangreichen Korpus, der mehrere sprachliche und kulturelle Hintergründe abdeckt. Drei automatisierte Metriken werden ausgewertet, nämlich BLEU, F;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12550-8_20 a87c74d8f5581173b51bfedeed2351b4;de;;;7.2.;;;Ein Ansatz zur automatischen Erkennung von Musikbandmitgliedern basierend auf überwachtem Lernen Das automatische Extrahieren von sachlichen Informationen über musikalische Entitäten, wie z. B. das Erkennen der Mitglieder einer Band, hilft beim Aufbau fortschrittlicher Browsing-Schnittstellen und Empfehlungssysteme. In diesem Papier wird ein überwachter Ansatz zum Erlernen der Identifizierung und Extraktion der Mitglieder einer Musikband aus verwandten Webdokumenten vorgeschlagen. Während bestehende Verfahren hierfür manuell optimierte Regeln verwenden, lernt die vorgestellte Technik aus automatisch beschrifteten Beispielen, wodurch auch manuelle Annotationen obsolet werden. Der vorgestellte Ansatz wird mit bestehenden regelbasierten Methoden zur Extraktion von Bandmitgliedern verglichen, indem eine systematische Auswertung an zwei verschiedenen Testsätzen durchgeführt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37425-8_10 8808d54d113e45439c676f0bfd5a2ee6;de;;;7.2.;;;Ein Evaluationsansatz zur smarten Unterstützung von Lehr- und Lernprozessen Im Projekt KOSMOS-2 wurde mit „MeinKosmos“ ein smarter Lernansatz in Form eines modernen Portals für Studierende an Hochschulen entwickelt. Eine wichtige Frage aus Sicht von Hochschulen und Lehrenden ist, welche Qualität solche neuen Tools haben oder welchen Nutzen sie haben. Dieser Artikel beschreibt den im Projekt KOSMOS-2 definierten Evaluationsansatz für das Lernportal „MeinKosmos“ und die Ergebnisse der Anwendung des Ansatzes in einem grundständigen Studiengang. Im Fokus der Evaluation stehen der Lernerfolg der Studierenden und die Qualität der Metasuche.;-;-;-;https://link.springer.com/article/10.1186/s40561-018-0081-y f157f4953b1fe566471a96213ffb11e3;de;;;7.2.;;;Integrieren von visuellen Worteinbettungen in das Übersetzungssprachmodell für die Suche nach Schlüsselwörtern in historischen mongolischen Dokumentenbildern Im Rahmen von Bag-of-Visual-Words (BoVW) fehlt die semantische Verwandtschaft zwischen visuellen Wörtern. Daher wurde in diesem Beitrag ein visueller Worteinbettungsansatz vorgeschlagen, der der Worteinbettungstechnik in der natürlichen Sprachverarbeitung (NLP) ähnelt. Zunächst werden im Rahmen von BoVW aus einer Wortbildsammlung eine Vielzahl visueller Wörter extrahiert und gesammelt. Und dann wird ein Deep-Learning-Verfahren verwendet, um visuelle Wörter in Einbettungsvektoren in einem semantischen Raum abzubilden. Danach werden die visuellen Worteinbettungen in ein Übersetzungssprachmodell integriert, um das Ziel des Keyword-Spottings im Szenario der Query-by-Example zu erreichen. Experimentelle Ergebnisse belegen, dass der vorgeschlagene auf visuellen Worteinbettungen basierende Übersetzungssprachenmodell-Ansatz für das Keyword-Spotting verschiedene moderne Methoden übertrifft, darunter BoVW, Sprachmodell (LM), Übersetzungssprachmodell mit gegenseitiger Information (TLM-MI) und latente Dirichlet-Zuteilung (LDA).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-77383-4_60 dc091e0a5a3d6d6095b68834c4d71817;de;;;7.2.;;;Informationstechnologie-Diskurs als Katalysator des Kulturwandels In den letzten Jahrzehnten steht die Welt vor einer neuen Kultur. Eine Kultur, die ihre eigene Sprache, Gewohnheiten, Sitten und Sitten hat. Dies ist die Kultur der Informationstechnologie. Informationstechnologie wird im Unterrichtsbereich und zu pädagogischen Zwecken sowie im Management- und Evaluationsbereich eingesetzt. Es ist eine neue Kultur, mit der Schüler, Lehrer und anderes Schulpersonal zu tun haben. Daher müssen sie alle einen Veränderungsprozess durchlaufen, der eine Anpassung an eine neue Situation erfordert. Sowohl die Schulkultur als auch die persönlichen Einstellungen wandeln sich vom intuitiven Handeln hin zum Verhalten nach standardisierten Verfahren. Dazu muss ein „Gerüst“-Mechanismus geschaffen werden, ein System der Unterstützung und Schulung des Schulpersonals. Die Umsetzung dieser Kultur sollte die drei Genres berücksichtigen: Transaktional – Verwendung klar definierter und einfach zu verwendender Daten, Funktional – Umgang mit kollektiven Daten, die in der Schule extrahiert werden, und Literatur – Umgang mit impliziten Informationen, die aus verstanden werden können verschiedene Berichte, die zu einer effektiven Implementierung und Nutzung der IT führen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35061-5_4 02d009eea23419c18e731850061b6286;de;;;7.1.;;;Integration von Supply Chain Management und Informationssystem: Schlüssel zum Wettbewerbsvorteil der Zukunft Um die Nachhaltigkeit der Organisation zu verbessern, ist SCM als strategische Geschäftspolitik des 21. Jahrhunderts bekannt. Supply Chain Management (SCM) ist eine Methodik, die sich aus der Automatisierung entwickelt hat. SCM kann als Integration wichtiger Geschäftsprozesse zwischen Endbenutzern und ursprünglichen Anbietern von Waren, Dienstleistungen und Informationen beschrieben werden. Supply Chain Management Information System (SCMIS) ist immer wichtiger geworden, um eine Lieferkette sicher und effektiv zu betreiben und sogar komparative Vorteile zu erzielen. Eine erfolgreiche Supply Chain ohne IT ist dennoch nicht möglich. Da die Anbieter weltweit verteilt sind, werden die Abläufe innerhalb und außerhalb des Unternehmens koordiniert. Dieses Dokument erläutert die Hauptmerkmale von SCIS, seine Beziehung zueinander und seine Beziehung zu Leistung und Teamarbeit. Dieses Dokument definiert den SCIS. Im Hinblick auf das Interesse der IT an SCM wurde versucht, die wesentlichen Probleme für den Einsatz im SCM zu definieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0942-8_31 9a3881c1f0f37e8efb444822d01a5539;de;;;7.1.;;;Schulen als organisatorische Konnektoren und Reproduzenten der Hierarchie des Lernerfolgs Dieses Kapitel beschreibt eine 30-jährige Geschichte des Einsatzes des Curriculum-Management-Audits in den Vereinigten Staaten, um das Lernen von Schülern zu verbessern. Das Audit basiert auf Begriffen der Maschinenbürokratie und ist der Inbegriff von organisatorischer Rationalität und Kontrolle. Die Prüfungsstandards und -indikatoren werden zusammen mit den Anwendungsparadoxien skizziert, d. h. verbesserte Mittel der internen Kontrolle, die erforderlich sind, um das Lernen der Schüler zu verbessern, wie in massenhaft durchgeführten Tests nachgewiesen, schränkt die Autonomie der Lehrer enger ein und ist die Quelle des Widerstands der Lehrer gegen das Lernen der Schüler, wie gemessen durch diese Prüfungen. Das zweite Paradoxon besteht darin, dass die Flexibilität der Lehrkräfte bei der Anpassung des Lehrplans eine Voraussetzung ist, um das Lernen der Schüler zu maximieren. Dies ist das „Paradox der Verwaltung“, ein Konzept, das so alt ist wie das Audit selbst in der Organisationstheorie. Die Arbeit von Basil Bernstein im Vereinigten Königreich wird als eine andere Art der Prüfung eines Bildungsprogramms mit einem anderen Fragenkomplex bezeichnet. Solche Fragen würden jedoch die Macht der politischen Eliten in den Fokus rücken, die heute die Kontrolle über die Schulbildung ausüben und von ihnen wahrscheinlich nicht positiv bewertet werden, da sie ihren Anteil an der Erhaltung der aktuellen sozio-politisch-ökonomischen Ungleichheiten aufdecken würden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-1350-5_49 1229f62292ecf10e9bad0493976a20ec;de;;;7.2.;;;Impfung von ausführbaren Windows-Programmen zur Installationszeit zur Abwehr von Stack-Smashing-Angriffen Stack-Smashing ist immer noch eine der beliebtesten Techniken für Angriffe auf Computersysteme. In diesem Papier stellen wir eine Anti-Stack-Smashing-Verteidigungstechnik für Microsoft Windows-Systeme vor. Unser Ansatz funktioniert zur Installationszeit und ist nicht auf den Zugriff auf den Quellcode angewiesen: Der Benutzer entscheidet, wann und welche ausführbaren Dateien geimpft werden. Unsere Technik besteht darin, eine bestimmte ausführbare Datei mit einem Mechanismus zu instrumentieren, um Stack-Smashing-Angriffe zu erkennen. Wir haben einen Prototyp entwickelt, der unsere Technik implementiert und verifiziert, dass sie erfolgreich gegen tatsächlichen Exploit-Code verteidigt. Anschließend haben wir unseren Prototyp erweitert, um DLLs, Multithread-Anwendungen und DLLs, die von Multithread-Anwendungen verwendet werden, zu impfen, was erhebliche zusätzliche Komplikationen mit sich bringt. Wir präsentieren vielversprechende Leistungsergebnisse, gemessen an SPEC2000-Benchmarks: Geimpfte ausführbare Dateien waren nicht mehr als 8% langsamer als ihre ungeimpften Originale.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-8143-X_15 510339cc35a9f78a1d5db2028629c658;de;;;7.2.;;;Wiederherstellen überlappender Teiltöne für die monaurale perfekte harmonische musikalische Klangtrennung unter Verwendung der modifizierten gemeinsamen Amplitudenmodulation Die monaurale musikalische Klangtrennung versucht, eine oder mehrere Instrumentenquellen aus einer polyphonen Einkanalmischung zu isolieren. Die Hauptherausforderung besteht darin, Musikklänge mit Tonhöhen genau zu trennen, bei denen sich ihre Teiltöne überlappen. Im allgemeinen Fall hat jede Quelle einen oder mehrere nicht überlappende Teiltöne. Es gibt jedoch den Fall, dass für mindestens eine Quelle kein nicht überlappender Teil verfügbar ist, was zu einem komplexeren Problem führt. Um dieses Problem anzugehen, schlagen wir eine neuartige Methode namens Modified Common Amplitude Modulation (Modified-CAM) vor, die darauf abzielt, monauralen perfekten harmonischen Musikklang (außer dem Unisono) insbesondere für das perfekte Oktavintervall zu trennen. Das vorgeschlagene System kann sowohl die Amplituden als auch die Phasen der perfekten Oktave genau wiederherstellen, was als typische, aber schwierigste Bedingung angesehen werden kann. Wir evaluieren das vorgeschlagene System in der Musikinstrumenten-Beispieldatenbank der University of Iowa und die Experimentergebnisse zeigen die Überlegenheit des Systems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-77380-3_87 bc5a95f0be0d8bb754fe448c86b6d4cf;de;;;7.1.;;;Frühwarnsysteme für Stadtpolitik und Stadtplanung Modelle sollen neben ihrem pädagogischen Wert auch entscheidungsfördernd sein. Es gibt bekanntlich viele Gründe, warum dies nicht sein kann. Sowohl technische als auch politische Entscheidungsträger lassen sich häufig von anderen Faktoren als den im Modell verkörperten leiten. Dies können beispielsweise vergangene Entscheidungen dieser Personen oder Vereinbarungen sein, Stimmen im Austausch für die Lieblingsprojekte des anderen zu tauschen. Unter diesen Umständen kann ein Modell relativ wenig dazu beitragen, die „richtige“ Entscheidung zu beeinflussen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-3560-3_14 bb4f52bfd60e0eb95d0962d54a3eba46;de;;;7.1.;;;Ein Domänenmodell für die IST-Infrastruktur Ein Model Driven Engineering (MDE)-Ansatz wird bzgl. Zusammenarbeit mehrerer Agenten, die die Fähigkeiten der Technologie der Informationsgesellschaft (IST) erwerben. Unser Fokus liegt auf den Stakeholdern von Arbeitssystemen, ihren adaptiven Zyklen und ihren aufeinander abgestimmten Assets, insbesondere berechnungsunabhängigen Modellen. In Bezug auf den Stand der Technik im Bereich der Interoperabilität von Softwareanwendungen werden drei „fehlende“ Fragmente des Domänenmodells für die IST-Infrastruktur untersucht: a;-;-;-;https://link.springer.com/chapter/10.1007/1-84628-152-0_33 0f667ef17e3b8b544b0808144004e7e4;de;;;7.2.;;;Ein Ansatz zur Ableitung globaler Berechtigungen in föderierten Datenbanksystemen Globale Berechtigungen in föderierten Datenbanksystemen können aus lokalen Berechtigungen abgeleitet werden, die von Komponentendatenbanken exportiert werden. Dieses Papier befasst sich mit Problemen im Zusammenhang mit der Entwicklung von Techniken zur Analyse lokaler Berechtigungen und zur Konstruktion globaler Berechtigungen, bei denen semantische Korrespondenzen zwischen Subjekten in verschiedenen Komponentendatenbanken auf der Grundlage der Berechtigungskompatibilität identifiziert werden. Die Abstraktion kompatibler Berechtigungen wird diskutiert, um halbautomatisch globale Berechtigungen abzuleiten, die mit den lokalen konsistent sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35167-4_5 63f62ac9bf18089cbba92190c7884546;de;;;7.2.;;;Automatische Berichterstellung basierend auf multimodalen Informationen In diesem Papier schlagen wir ein neues Framework vor, das multimodale Social-Media-Informationen nutzen kann, um automatisch verwandte Berichte für Benutzer oder Behörden zu generieren. Erstens verwenden wir DBSCAN (Density Based Spatial Clustering of Applications with Noise), um Ereignisse in offiziellen Nachrichten-Websites zu erkennen. Dann werden einige inoffizielle Informationsdetails von sozialen Netzwerkplattformen (Foursquare, Twitter, YouTube) extrahiert, die genutzt werden, um den offiziellen Bericht zu verbessern, um einige latente und nützliche Informationen auszugraben. In diesem Prozess haben wir einige klassische Textverarbeitungsmethoden und Computer-Vision-Technologien angewendet, um die durch benutzergenerierte Inhalte (UGCs) hochgeladenen Rauschinformationen zu reduzieren. Dann haben wir das LSTM-CNN-Modell angewendet, um die zugehörige Bildunterschrift zu generieren und visuelle Informationen erfolgreich in Textinformationen umzuwandeln. Schließlich haben wir einige latente Themen mithilfe der Graphcluster-Methode extrahiert, um den Abschlussbericht zu erstellen. Um die Wirksamkeit unseres Frameworks zu demonstrieren, haben wir einen großen Veranstaltungsdatensatz aus mehreren Quellen von offiziellen Nachrichten-Websites und Twitter erhalten. Schließlich zeigt die Anwenderstudie die Praktikabilität unseres Ansatzes.;-;-;-;https://link.springer.com/article/10.1007/s11042-016-3936-7 f1f3404d23f33add567897a6e637fe04;de;;;7.2.;;;Barefooted Usability Evaluation: Mindset, Ressourcen und Kompetenzen ansprechen Mangelnde Usability-Spezialisten, hoher Ressourcenbedarf und Entwickler-Mindsets sind drei wesentliche Hindernisse für die Einführung von Usability-Engineering in Softwareunternehmen. Dieser Ph.D. Das Projekt untersucht den Effekt, wenn Softwareentwickler und Endbenutzer Usability-Engineering-Methoden anstelle eines Spezialisten anwenden, eine Lösung, die die Barrieren reduzieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23768-3_36 58a881376b3f99d0e23bce759284da96;de;;;7.2.;;;Eine neue blinde Bildqualitätsbewertung basierend auf Pairwise In letzter Zeit waren die Algorithmen der allgemeinen blinden Bildqualitätsbewertung (BIQA) ein wichtiges Forschungsgebiet auf dem Gebiet der Bildverarbeitung, aber die bisherigen Ansätze hängen in der Regel von menschlichen Bildwerten für das Training und die Verwendung von Regressionsmethoden zur Vorhersage der Bildqualität ab. In diesem Papier wenden wir zuerst das Vollreferenz-Bildqualitätsmaß an, um die Bildqualitätsbewertungen für das Training zu erhalten, damit unser Algorithmus unabhängig von der Beurteilung durch den Menschen ist. Dann abstrahieren wir Merkmale unter Verwendung eines NSS-Modells des Bild-DCT-Koeffizienten, der die Wahrnehmungsqualität anzeigt, und importieren anschließend den paarweisen Ansatz des Lernens zum Rangieren (maschinell gelerntes Ranking), um die Wahrnehmungsbewertungen der Bildqualität vorherzusagen. Unser Algorithmus wurde auf der LIVE II- und CSIQ-Datenbank getestet und korreliert nachweislich in hohem Maße mit der menschlichen Beurteilung der Bildqualität, ist besser als der beliebte SSIM-Index und konkurriert mit den modernsten BIQA-Algorithmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-46681-1_72 0999683bb3a6d1ac5b9a131336e212be;de;;;7.2.;;;Zur Vokabelgröße in der Darstellung von visuellen Wörtern Bag-of-visual-words ist eine beliebte Bilddarstellung, die eine hohe Übereinstimmungsgenauigkeit und -effizienz erzeugt. Während sich die Wortschatzgröße auf die Übereinstimmungsgenauigkeit auswirkt, wird die Wortschatzgröße in der bestehenden Forschung in der Regel empirisch ausgewählt. Untersuchungen zu repräsentativen lokalen Deskriptoren zeigen, dass bei ähnlichkeitsbasiertem Clustering das Ähnlichkeitsmaß innerhalb des Clusters bei der direkten Zuordnung die gleiche Rolle spielt wie die Wortschatzgröße beim visuellen Wortvergleich. Basierend auf dieser Beobachtung schlagen wir vor, ähnlichkeitsbasiertes Clustering zu verwenden, um die optimale Vokabulargröße für einen gegebenen Datensatz beim visuellen Wortvergleich zu bestimmen. Vorläufige Experimente mit drei Datensätzen liefern ermutigende Ergebnisse und zeigen das Potenzial des vorgeschlagenen Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15702-8_38 7e831674d90e592f8475835616092233;de;;;7.2.;;;Wenig überfluten, mehr zwischenspeichern: Effektive Ergebniswiederverwendung in P2P-IR-Systemen Moderne Peer-to-Peer Information Retrieval (P2P IR) Systeme leiden unter ihrer fehlenden Reaktionszeitgarantie, insbesondere bei Skalierung. Um dieses Problem anzugehen, wurden in letzter Zeit eine Reihe von Techniken zum Zwischenspeichern von invertierten Listenschnittpunkten mit mehreren Begriffen und Abfrageergebnissen vorgeschlagen. Diese ermöglichen zwar schnelle Abfrageauswertungen mit geringem Netzwerk-Overhead, berücksichtigen jedoch nicht die potenziellen Auswirkungen von Caching auf Verbesserungen der Ergebnisqualität. In diesem Artikel schlagen wir die Verwendung eines Cache-fähigen Abfrage-Routing-Schemas vor, das nicht nur die Antwortverzögerungen für eine Abfrage reduziert, sondern auch eine Möglichkeit bietet, die Ergebnisqualität zu verbessern und gleichzeitig die Netzwerknutzung gering zu halten. Hierzu leisten wir in diesem Beitrag dreifache Beiträge. Zuallererst entwickeln wir eine Cache-bewusste, mehrstufige Abfrage-Routing-Strategie, die ein Gleichgewicht zwischen Abfrageeffizienz und Ergebnisqualität bietet. Als nächstes schlagen wir vor, die zwischengespeicherten Ergebnisse sogar von Teilmengen einer Abfrage aggressiv für eine ungefähre Zwischenspeicherungstechnik wiederzuverwenden, die den Bandbreiten-Overhead drastisch reduzieren kann, und die Bedingungen zu untersuchen, unter denen ein solches Schema eine gute Ergebnisqualität beibehalten kann. Schließlich evaluieren wir diese Techniken empirisch über ein voll funktionsfähiges P2P-IR-System, indem wir einen umfangreichen Wikipedia-Benchmark verwenden und sowohl synthetische als auch reale Abfrageworkloads verwenden. Unsere Ergebnisse zeigen, dass unser Vorschlag, Ergebnis-Caching mit Cache-bewusstem Abfrage-Routing mit mehreren Runden zu kombinieren, den Netzwerkverkehr um mehr als die Hälfte reduzieren und gleichzeitig die Ergebnisqualität verdoppeln kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78568-2_19 2c262d483ac0c05a66a39731032043ba;de;;;7.2.;;;Kollaboratives Filtern: Das Ziel von Empfehlungssystemen und die Bedeutung von Nutzerbewertungen In diesem Beitrag wird die Bedeutung numerischer Nutzerbewertungen in Empfehlungssystemen untersucht, indem deren Einbeziehung/Ausschluss sowohl bei der Generierung als auch bei der Bewertung von Empfehlungen berücksichtigt wird. Wenn Standardbewertungsmetriken verwendet werden, zeigen experimentelle Ergebnisse, dass die Einbeziehung numerischer Bewertungswerte in den Empfehlungsprozess die Ergebnisse nicht verbessert. Die Bewertung der Genauigkeit eines Empfehlungsalgorithmus erfordert jedoch die Identifizierung des Ziels des Systems. Bewertungskennzahlen wie such;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12275-0_35 87d2c74cc03a7cea6d4911bde601304f;de;;;7.2.;;;Vorläufige Studie zur erwarteten Leistung von kollaborativen MAUT-Filteralgorithmen In diesem Artikel werden die Ergebnisse einer ersten Studie zur Leistung eines Satzes von kollaborativen Filteralgorithmen mit mehreren Attributen unter verschiedenen experimentellen Bedingungen vorgestellt. Ein Online-Simulator wurde verwendet, um eine große Anzahl synthetischer Datensätze mit unterschiedlichen Eigenschaften zu erstellen. Anschließend wurden die untersuchten Algorithmen auf allen Datensätzen unter Verwendung verschiedener Leistungsmetriken ausgeführt und bewertet. Es folgte eine statistische Analyse der Ergebnisse, bei der versucht wurde, erste Schlussfolgerungen über die erwartete Leistung der untersuchten Algorithmen unter verschiedenen Betriebsbedingungen zu ziehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87783-7_67 016cdab8a807806adcbd5ccdca8694e5;de;;;7.2.;;;Ein Ansatz zur Erweiterung von Abfragen und zur Anreicherung von Benutzerprofilen, um die Leistung von Empfehlungssystemen zu verbessern, die auf einer Folksonomie arbeiten In diesem Artikel schlagen wir einen Ansatz zur Erweiterung von Abfragen und zur Anreicherung von Benutzerprofilen vor, um die Leistung von Empfehlungssystemen zu verbessern, die auf einer Folksonomie arbeiten und die Tags speichern und klassifizieren, die zum Kennzeichnen einer Reihe verfügbarer Ressourcen verwendet werden. Unser Ansatz erstellt und pflegt ein Profil für jeden Benutzer. Wenn er eine Abfrage (bestehend aus einer Reihe von Tags) zu dieser Folksonomie sendet, um eine Reihe von Ressourcen von seinem Interesse abzurufen, findet es automatisch weitere „autoritative“ Tags, um seine Abfrage zu bereichern und schlägt sie ihm vor. Alle für den Nutzer interessanten „autoritativen“ Tags werden zur Verfeinerung seiner Anfrage genutzt und zusammen mit den von ihm direkt angegebenen Tags bereichernd in seinem Profil gespeichert. Die Erweiterung von Benutzerabfragen und die Anreicherung von Benutzerprofilen ermöglichen es jedem inhaltsbasierten Empfehlungssystem, das auf der Folksonomie arbeitet, eine große Anzahl von Ressourcen abzurufen und vorzuschlagen, die den Benutzerbedürfnissen und -wünschen entsprechen. Darüber hinaus können angereicherte Benutzerprofile jedes Empfehlungssystem zur kollaborativen Filterung anleiten, proaktiv viele für ihn relevante Ressourcen zu entdecken und einem Benutzer vorzuschlagen, selbst wenn er nicht explizit danach gesucht hat.;-;-;-;https://link.springer.com/article/10.1007/s11257-010-9072-6 b4fb59ac88edca1c8e47272cd8280f25;de;;;7.2.;;;Forschung zur Bewertung der Sicherheit von landwirtschaftlichen Pflanzungen in der Provinz Hebei Die Sicherheit der landwirtschaftlichen Pflanzung von Hebei ist relativ zu den landwirtschaftlichen Produkten der Verbrauchersicherheit der gesamten Provinz und der Region Peking-Tianjin. Dieses Papier wählt die Sicherheit von landwirtschaftlichen Pflanzen als Forschungsgegenstand von Produkten und konzentriert sich auf die Eigenschaften der Pflanze für landwirtschaftliche Produkte. Dieses Papier wendet Theorie und Methode der systemumfassenden Bewertung auf den Bildschirmindex der landwirtschaftlichen Bepflanzungsbewertung an, um ein Bewertungsmodell der landwirtschaftlichen Bepflanzungssicherheit zu erstellen. Dieses Papier hält sich an das Prinzip der qualitativen Analyse mit quantitativer Analyse, wendet die Methode der AHP-Planung eines umfassenden Rankings jedes Index an und bewertet wissenschaftlich das Sicherheitssystem für landwirtschaftliche Produkte in der Provinz Hebei. Der Zweck dieses Papiers ist es, in der Provinz Hebei die wissenschaftliche Grundlage für die Verbesserung der Sicherheitspolitik für landwirtschaftliche Anpflanzungen zu schaffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27278-3_15 7b228e6d24a039fa433fa3e82469123c;de;;;7.2.;;;Die Anwendung des Kalman-Filter-basierten Mensch-Computer-Lernmodells auf die chinesische Wortsegmentierung Dieses Papier präsentiert ein Lernmodell für die Mensch-Computer-Interaktion zur Segmentierung chinesischer Texte, die weder vom Lexikon noch von einem annotierten Korpus abhängig sind. Es ermöglicht Benutzern, dem System Sprachkenntnisse hinzuzufügen, indem sie direkt in den Segmentierungsprozess eingreifen. Innerhalb begrenzter Zeiten des Benutzereingriffs wird ein Segmentierungsergebnis zurückgegeben, das der Verwendung vollständig entspricht (oder mit einer genauen Rate von 100% nach manueller Beurteilung). Ein auf Kalman-Filtern basierendes Modell wird verwendet, um die Absicht von Benutzern schnell und präzise aus ihren Eingriffen zu lernen und zu schätzen, um Systemvorhersagefehler später zu reduzieren. Experimente zeigen, dass es eine ermutigende Leistung bei der Einsparung von menschlichem Aufwand erzielt und der Segmentierer mit dem von den Benutzern gelernten Wissen das Basismodell bei der Segmentierung homogener Texte um etwa 10 % übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37247-6_18 d9c1685688153e56952a6d40fab7a0c2;de;;;7.2.;;;Automatisches Verstehen von Signalen Durch den Einsatz von Computern für verschiedene Aufgaben, einschließlich der Verbesserung, Beschreibung und Bewertung von Signalen, umfassen wir typischerweise drei Schritte: Signalverarbeitung (um ein Signal besserer Qualität zu erhalten), Signalanalyse (zur Extraktion und Berechnung nützlicher Merkmale des Signals) und Signalerkennung (für Klassifikation von Signalen und zur Unterstützung von Entscheidungsprozessen). Im Papier wird der nächste Schritt vorgeschlagen und präsentiert: automatisches Verständnis des Signalgüteinhalts. Die Idee des automatischen Verstehens wird allgemein beschrieben und anhand von Problemen aus der medizinischen Bildgebung veranschaulicht. Wie gezeigt werden kann, kann das automatische Verstehen der Signale in Bevölkerungsuntersuchungen (als Filter zur Vorselektion von Patienten mit Problemen, die eine ärztliche Hilfeleistung erfordern) oder als zusätzliches intelligentes Werkzeug zur eingehenden Analyse besonders schwieriger diagnostischer Probleme, sowie neuartiger einer Suchmaschine für die inhaltsbasierte Suche in multimedialen Datenbanken. In der Arbeit wird die allgemeine Idee eines zweidirektionalen, wissensbasierten Datenflusses vorgestellt, wenn Signale verstanden werden müssen, anstelle einer eindirektionalen Sequenz von Verarbeitungsschritten, wenn das Signal nur analysiert und klassifiziert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39985-8_66 919931bcb852f973380b76a2fae947cf;de;;;7.2.;;;Gesundheitsbewertung des Artillerie-Kommandoinformationssystems basierend auf einem Kombinationsmodell Mit Blick auf die Eigenschaften des Artillerie-Kommandoinformationssystems, wie z Gesundheitsbewertungsmodell des Systems. Beispielergebnisse zeigen, dass das Modell den technischen Status des Systems effektiv bewerten kann, einige Hinweise für die Verwaltung und Verwendung von Ausrüstung in der Armee liefern und auch eine Entscheidungshilfe für die Instandhaltungsarbeiten der Armee bieten kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0238-5_89 cfe8ae6da33563f7dbd34ff7d092b3f7;de;;;7.1.;;;Generische Informationssystemarchitektur für verteilte Multimedia-Indexierung und -Verwaltung Effektive und skalierbare verteilte Lösungen für die Datenindexierung und -verwaltung sollten Lösungen für drei sensible Fragen bieten: die Systemarchitektur, die die genannten Einrichtungen integriert, die Verwaltung der Indexierungstechniken und die Modellierung der Metadaten, die die Multimediainhalte beschreiben. Dieses Papier stellt eine generische und skalierbare verteilte Architekturlösung vor, die eine flexible Indexierungsmanagementtechnik integriert und den Umgang mit beliebigen Metadatenmodellen ermöglicht. Unsere Lösung wurde im Rahmen des LINDO-Projekts entwickelt, indem die bestehenden Lösungen für jedes Problem genutzt und verbessert wurden und gleichzeitig die Anforderungen des Projekts berücksichtigt wurden. Die Lösung bietet eine innovative Indexierungsverwaltungstechnik und umfasst die Architektur des Systems und das Metadatenmodell, das es unterstützt. Um unseren Vorschlag zu validieren, werden mehrere Implementierungen vorgestellt, die sich auf Rundfunk-, Videoüberwachungs- und Archivierungsaktivitäten beziehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23737-9_25 5cc12b04d5a8222d4a48238296c27981;de;;;7.2.;;;Bewertung von nachrichtenbasierten Handelsstrategien Das Wunder der Märkte liegt in der Tatsache, dass verstreute Informationen sofort verarbeitet werden, indem die Preise von Waren, Dienstleistungen und Vermögenswerten angepasst werden. Finanzmärkte sind besonders effizient bei der Verarbeitung von Informationen, die typischerweise in Textnachrichten eingebettet sind, die dann von den Anlegern interpretiert werden. Vor kurzem haben Forscher damit begonnen, die Nachrichtenstimmung automatisch zu bestimmen, um Aktienkursbewegungen zu erklären. Interessanterweise funktioniert dieses sogenannte Nachrichten-Sentiment ziemlich gut, um Aktienrenditen zu erklären. In diesem Papier versuchen wir, Handelsstrategien zu entwickeln, die auf Textnachrichten aufbauen, um höhere Gewinne zu erzielen als Benchmark-Strategien. Im Wesentlichen gelingt uns dies, indem wir den Nachweis erbringen, dass eine nachrichtenbasierte Handelsstrategie unsere Benchmarks tatsächlich um das 9,06-fache übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-28151-3_2 8e74a2dc4a21f9f6ef1eb90bdd62491f;de;;;7.1.;;;Konzeptuelles Handlungsmodell als Instrument zur Entwicklung eines Unterstützungssystems für Demenzpflege Der klinische Bereich der kognitiven Erkrankungen und Demenz zeichnet sich durch seinen hochkomplexen Wissensbereich aus, der Fachwissen und Erfahrung im Umgang mit Situationen mit einer Vielzahl von Symptomen und Erkrankungen erfordert, verteilt auf verschiedene Ebenen in Organisationen und verschiedenen Berufen. In diesem Beitrag wird eine Fallstudie vorgestellt, in der der Prozess der Untersuchung von Verdacht auf Demenz in Patientenfällen analysiert wurde. Ein früher Prototyp des Entscheidungsunterstützungssystems DMSS (Dementia Management and Support System) wurde in den Prozess integriert. Das Hauptziel der Fallstudie war die Erfassung und Modellierung der komplexen Zielaktivität zum Zweck des Wissenserwerbs und der Formalisierung bei der Entwicklung eines Entscheidungsunterstützungssystems für die Domäne. Das resultierende Modell ist insofern allgemein, als es Strukturen und erforderliches Wissen auf verschiedenen Versorgungsebenen erfasst, jedoch spezifisch genug, um eine Wahrnehmung des Nutzungskontextes und eine semi-formale Grundlage für die Weiterentwicklung des Systems für verschiedene Nutzungsumgebungen mit unterschiedlichen lokalen Lösungen zur Arbeitsteilung usw. Die Ergebnisse fließen in die Entwicklung von DMSS ein und das allgemeine Rahmenwerk für die Aktivitätsanalyse wird entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09659-9_7 9d4ea98837a0549541f12242ce56e8a4;de;;;7.2.;;;Ein wissensverankertes integratives Bildsuch- und -abrufsystem Klinische Daten, die sekundär zur Unterstützung von Forschungsaktivitäten verwendet werden können, werden regelmäßig in drei signifikant unterschiedlichen Formaten gespeichert: (1) strukturierte, kodifizierte Datenelemente, (2) halbstrukturierter oder unstrukturierter Erzähltext und (3) multimodale Bilder. In diesem Manuskript beschreiben wir das Design eines Computersystems, das die ontologieverankerte Abfrage und Integration solcher Datentypen aus mehreren Quellsystemen unterstützen soll. Zu den weiteren Merkmalen des beschriebenen Systems gehören (1) die Verwendung von auf Grid-Diensten basierenden elektronischen Datenaustauschmodellen, um die Verwendung unseres Systems in Umgebungen mit mehreren Standorten zu ermöglichen, und (2) die Verwendung eines Software-Frameworks, das sowohl potenzielle Sicherheits- als auch Bedenken hinsichtlich der Vertraulichkeit von Patienten, die bei der Übermittlung oder anderweitigen Manipulation potenziell privilegierter persönlicher Gesundheitsdaten auftreten Wir werden unsere Diskussion in den spezifischen experimentellen Kontext der konzeptorientierten Abfrage und Integration von korrelierten strukturierten Daten, narrativen Texten und Bildern für die Krebsforschung einrahmen.;-;-;-;https://link.springer.com/article/10.1007/s10278-007-9086-8 27e1ffd40092eab0fbe46f16d5dee1f6;de;;;7.2.;;;Interdisziplinarität und Innovationsdynamik. Zur Konvergenz von Forschung, Technologie, Wirtschaft und Gesellschaft Im Zeitalter der Globalisierung hängen Wirtschaftswachstum und das Wohlergehen der Nationen entscheidend von grundlegenden Innovationen ab. Bildung und Wissen sind daher ein wichtiger Wettbewerbsvorteil in hochentwickelten Ländern mit hohen Gehaltsstandards, aber Rohstoffknappheit. Im 21. Jahrhundert werden Innovationen aus problemorientierter Forschung entstehen, die traditionelle Fakultäten und Disziplinen überschreitet. Daher brauchen wir Plattformen des interdisziplinären Dialogs, um transdisziplinäre Problemstellungen (z. B. Umwelt, Energie, Information, Gesundheit, Wohlfahrt) auszuwählen und neue Technologieportfolios zu clustern. Die Forschungscluster der Exzellenzinitiative an deutschen Hochschulen sind Beispiele für konvergierende Wissenschaften. Die Integration der Natur- und Ingenieurwissenschaften sowie der Medizin ist nur zu realisieren, wenn die wissenschaftlichen Ausbildungen (z . Als Beispiel für ein interdisziplinäres Zentrum für Forschung und Lehre an der Technischen Universität München wird die Carl von Linde-Akademie vorgestellt.;-;-;-;https://link.springer.com/article/10.1007/s10202-011-0088-8 7a6bda039fc346245b2eeac35c3485f4;de;;;7.2.;;;Konkurrierende modellbasierte Tonauswertung für Mandarin-Sprache Der Ton ist ein charakteristisches Merkmal in Mandarin. Dieses Papier beschreibt einen Versuch, die Tonauswertung für kontinuierliche Mandarin-Sprache zu automatisieren. Ein auf HMM basierendes Tonmodell mit erzwungener Ausrichtung wird verwendet, um Tonwert für Mandarin-Silben zu erhalten. Der konkurrierende modellbasierte Ansatz wird eingeführt, um tonale Silbenbewertung zu erhalten. Insbesondere generieren wir die silbenbasierten Konkurrenzmodelle, indem wir das vereinfachte linguistische wissensbasierte Anfangs-/Endnetz verwenden. Um eine objektivere Tonbewertung zu erhalten, integrieren wir tonale Silbenbewertung und Tonbewertung zusammen, um die Gesamtergebnisse der Tonbewertung zu erhalten. Die experimentellen Ergebnisse zeigen, dass dieses vorgeschlagene, auf konkurrierenden Modellen basierende Verfahren eine genaue Tonbewertung liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34595-1_26 efdca02a4200b239e66dcbc55cb73e25;de;;;7.2.;;;Gewichtslernen für das Dokumenttoleranz-Grobsatzmodell Das Erstellen eines Dokumentmodells für eine effiziente Schlüsselwortsuche ist ein seit langem untersuchtes Problem im Bereich Information Retrieval. In diesem Beitrag untersuchen wir die Anwendung des Tolerance Rough Set Model for Documents (TRSM) für dieses Problem. Wir bieten außerdem eine Erweiterung von TRSM mit einem Weight-Learning-Verfahren (TRSM-WL) an und vergleichen die Leistung dieser beiden Algorithmen bei der Stichwortsuche. Darüber hinaus stellen wir eine Verallgemeinerung von TRSM-WL bereit, die der zugrunde liegenden Modellstruktur zusätzliche Einschränkungen auferlegt und mit einer überwachten Variante der expliziten semantischen Analyse vergleichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41299-8_37 b3131b9b4b484b18709b6b73b3230dbd;de;;;7.2.;;;Extrahieren von Informationen über Anti-AIDS-Inhibitoren aus der biologischen Literatur basierend auf Ontologie Heutzutage ist es immer noch das Hauptproblem, die Inhibitoren von Retrovirus, Protease und Integrase im Anti-AIDS-Arzneimitteldesign zu finden. Die Forschungen und experimentellen Ergebnisse zu Anti-AIDS-Hemmern existieren jedoch hauptsächlich in einer großen Anzahl wissenschaftlicher Literatur, nicht in einem für Computer lesbaren Format. In diesem Artikel stellen wir einen Ontologie-basierten Informationsextraktionsansatz (OIE) vor, um Anti-AIDS-Inhibitoren aus der Literatur zu extrahieren. Der Schlüssel zu diesem Ansatz ist die Konstruktion einer Anti-AIDS-Inhibitor-Ontologie, die einen semantischen Rahmen für die Informationsextraktion und die Annotation des Korpus bietet. Folglich konzentriert sich dieses Papier hauptsächlich auf die Architektur von OIE, auf der wir die Anti-AIDS-Ontologie mithilfe von Prot . aufbauen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73814-5_7 17b0d12d04908295c1d8041136b07834;de;;;7.2.;;;Leicht überwachte Akquisition von benannten Entitäten und linguistischen Mustern für das mehrsprachige Text-Mining Named Entity Recognition and Classification (NERC) ist ein wichtiger Bestandteil von Anwendungen wie Opinion Tracking, Information Extraction oder Question Answering. Wenn diese Anwendungen in mehreren Sprachen funktionieren müssen, wird NERC zu einem Engpass, da seine Entwicklung sprachspezifische Tools und Ressourcen wie Namenslisten oder kommentierte Korpora erfordert. Dieses Papier stellt ein leicht überwachtes System vor, das Listen von Namen und linguistischen Mustern aus großen Rohtextsammlungen in westlichen Sprachen erfasst und mit nur wenigen Samen pro Klasse beginnt, die von einem menschlichen Experten ausgewählt wurden. Es wurden Experimente mit englischen und spanischen Nachrichtensammlungen und mit der spanischen Wikipedia durchgeführt. Die Auswertung der NE-Klassifikation anhand von Standarddatensätzen zeigt, dass NE-Listen eine hohe Präzision erreichen und dass kontextuelle Muster die Erinnerungsfähigkeit signifikant erhöhen. Daher wäre es hilfreich für Anwendungen, bei denen keine annotierten NERC-Daten verfügbar sind, wie z. B. solche, die mit mehreren westlichen Sprachen oder Informationen aus verschiedenen Domänen umgehen müssen.;-;-;-;https://link.springer.com/article/10.1007/s10115-012-0502-0 7f264c87fba63cfdb554f80ff1b6d2b1;de;;;7.2.;;;Prädiktive statistische Modelle für die Benutzermodellierung Die Grenzen traditioneller Methoden der Wissensrepräsentation zur Modellierung von komplexem menschlichem Verhalten führten zur Untersuchung statistischer Modelle. Prädiktive statistische Modelle ermöglichen die Antizipation bestimmter Aspekte des menschlichen Verhaltens wie Ziele, Handlungen und Präferenzen. In diesem Papier motivieren wir die Entwicklung dieser Modelle im Kontext des Benutzermodellierungsunternehmens. Anschließend besprechen wir die beiden Hauptansätze der prädiktiven statistischen Modellierung, inhaltsbasiert und kollaborativ, und diskutieren die wichtigsten Techniken zur Entwicklung prädiktiver statistischer Modelle. Wir berücksichtigen auch die Bewertungsanforderungen dieser Modelle im Kontext der Benutzermodellierung und schlagen Themen für die zukünftige Forschung vor.;-;-;-;https://link.springer.com/article/10.1023/A%3A1011175525451 8435248c5c980fc2267af899ddf4ff93;de;;;7.1.;;;Kooperation bei der Gestaltung von Wissensproduktionssystemen modellieren: Die In diesem Beitrag werden die neuesten Entwicklungen der MadeIn-Coop-Methode zur Modellierung des Mensch-Maschine- und Mensch-Mensch-Kooperationsprozesses sowie eine Anwendung dieser Methode für den Entwurf einer kooperativeren Version des C . vorgestellt;-;-;-;https://link.springer.com/article/10.1007/BF00133654 55b7b76656f8011247a14b25c12a7d57;de;;;7.1.;;;Mereotopologische Beschreibung von Produkt-Prozess-Informationen und -Wissen für PLM Dieses Papier beschreibt einen Beschreibungsansatz zur Modellierung von Produktprozessinformationen im Kontext von montageorientiertem Design und Product Lifecycle Management (PLM). Die wachsende Entwicklung von Modellen, Methoden, Systemen und Werkzeugen über den gesamten Produktlebenszyklus hat Grenzen und Schwierigkeiten aufgezeigt – wie das Bewusstsein und das Verständnis im Engineering –, die zuvor nicht existierten. Eine neue Herausforderung besteht weiterhin darin, das Bewusstsein und das Verständnis der Akteure beim Management von Produktinformationen und -wissen zu erhöhen. Dies erfordert Anstrengungen in neuen inspirierten Ansätzen in der qualitativen Darstellung und Argumentation des Produkts und der Prozesse, in ontologischen Anwendungen, wissensbasierten Ansätzen, Modellen usw. Das Hauptziel besteht darin, Montageinformationen konsistent, zugänglich und verwertbar durch Datenmanagementsysteme zu machen und computergestützte X-Tools durch die Einführung einer logischen Grundlage. Dabei werden Produkt-Prozess-Beziehungen betrachtet und in der Teil-Ganzes-Theorie unterstützt durch die Mereologie und ihre Erweiterung, die Mereotopologie, beschrieben und in eine Ontologie umgesetzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35758-9_7 a5e0abfd3c354cb583983747359a7569;de;;;7.1.;;;Ressourcenanpassung für eine skalierbare Agentengesellschaft im MoTiV-PTA-Bereich Agentenbasierte Ansätze werden immer ausgereifter für Anwendungen, die über große Netzwerke wie das Internet verteilt sind. Obwohl die Anwendungstypen stark variieren und von der Informationsabfrage bis zum elektronischen Handel reichen, können alle diese Systeme von einer gemeinsamen Infrastruktur unterstützt werden, die von generischen Agenten-Entwicklungsumgebungen bereitgestellt wird. In diesem Kapitel beschreiben wir das MECCA-System (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-58418-3_7 d295d0f0c4e190435f428f7780bf31c4;de;;;7.1.;;;Enterprise Risk Management: Anwendungen ökonomischer Modellierung und Informationstechnologie Fabrikhallen in der gesamten Weltwirtschaft verwandeln sich schnell in potenziell fruchtbare Labors für die Forschung in den Kognitionswissenschaften. Die Informationsrevolution hat unser Verständnis von Wahrnehmung und Kognition herausgefordert. Innovationen in den Informationstechnologien haben uns auch neue Methoden und Umgebungen für das Studium der Kognition geliefert.;-;-;-;https://link.springer.com/article/10.1007/BF02512355 a6c8bcb4b940e7a28b99f0134d561a3e;de;;;7.2.;;;Governance, Risiko und Compliance: Eine strategische Ausrichtungsperspektive angewendet auf zwei Fallstudien Governance, Risk and Compliance (GRC) ist für Unternehmen von entscheidender Bedeutung geworden und damit auch die Notwendigkeit, dies durch IKT zu unterstützen. Dieses Papier positioniert GRC in einer integrierten strategischen Perspektive, bietet Leitlinien zur Bewertung des Reifegrades und definiert Wege zur Erreichung einer strategischen Ausrichtung. Der Ansatz wird auf zwei Fallstudien angewendet, um die GRC-Reife der Organisationen „wie sie ist“ und „zu sein“ zu klären. Diese Fälle wurden im Versorgungs- und Finanzsektor untersucht. Beide zeigen, dass Organisationen ähnliche GRC-Reifegrade haben können, aber ganz unterschiedliche Wege gehen, um eine Ausrichtung in Bezug auf GRC zu erreichen. Während der niederländische Energieversorger an einem Weg festhielt, bei dem die Organisationsstrategie in Bezug auf GRC als Ausgangspunkt genommen wurde, ging das Finanzinstitut einen Weg, auf dem die IT-Lösungsstrategie richtungsweisend war. Bei der Interpretation dieses Ergebnisses scheint es, dass die vorhandenen IT-Assets einen starken Einfluss auf die Auswahl des Ausrichtungspfads haben. Weitere Fallstudien werden befürwortet, um den Ansatz weiter zu validieren und zur Optimierung der strategischen und integrierten Perspektive auf GRC beizutragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33332-3_19 c8a7bd22c41aefda4c890c78b9178a97;de;;;7.1.;;;Auf dem Weg zum Aufbau eines Wissensmanagementsystems: Anforderungen an ein ISO-konformes Framework Heutzutage müssen Unternehmen wissensgetrieben sein, um wettbewerbsfähig zu sein und in der wissensbasierten Wirtschaft zu bestehen. Dies bedeutet, dass Wissen eine wichtige wertschöpfende Ressource für solche Organisationen sein muss und das Wissensmanagementsystem in das gesamte Unternehmensmanagementsystem eingebettet sein muss. Wissensmanagement ist heute nicht nur eine mögliche Best Practice von Industrieführern und ein Thema der akademischen Forschung, sondern auch ein „Must-have“-Element jedes Unternehmens. Dementsprechend wurde das Wissensmanagement kürzlich in die Normen ISO 9001:2015 und ISO 30401 aufgenommen, die Anforderungen an Wissensmanagementsysteme spezifizieren. Die Hauptforschungsfrage des aktuellen Papiers lautet, wie die Wissensmanagementanforderungen der ISO in Frameworks für die Modellierung und das Management von Unternehmensarchitekturen eingebettet werden können. Dieses Papier analysiert und fasst wissensmanagementbezogene ISO-Anforderungen für Unternehmensmanagementsysteme zusammen und transformiert sie in Anforderungen für eine domänenspezifische Modellierungssprache. Wissensmanagement-orientierte Unternehmensmodellierungs-Frameworks werden weiter untersucht und mit ISO-Anforderungen verglichen. Dieser Vergleich zeigt die fragmentierte Unterstützung der ISO-Anforderungen. Somit unterstreicht die Forschung die Notwendigkeit einer ISO-konformen wissensorientierten Erweiterung für bestehende, bewährte EM-Frameworks und stellt Anforderungen dafür bereit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-35151-9_3 fcecc288d445afd9c34312652250c1f4;de;;;7.2.;;;Eye-Tracking der Faktoren von Prozessmodellverständnisaufgaben Das Verständnis von Geschäftsprozessmodellen war bisher mit verschiedenen Faktoren verbunden. Diese Faktoren wurden mit statistischen Ansätzen entweder auf Modellrepositorien oder auf Experimenten basierend auf Verständnisfragen ermittelt. Wir haben festgestellt, dass der Experte bei Verständnisfragen zu einem Prozessmodell normalerweise nur einen Teil des gesamten Modells untersucht, um die Antwort zu geben. Dieses Papier formalisiert diese Beobachtung unter dem Begriff der relevanten Region. Wir führen ein Experiment mit Eye-Tracking durch, um zu beweisen, dass die relevante Region tatsächlich mit der Antwort auf die Verständnisfrage korreliert. Wir beweisen auch, dass es möglich ist, vorherzusagen, ob die richtige Antwort auf eine Verständnisfrage gegeben wird, wenn man die Anzahl und die Zeit kennt, die für die Fixierung von Elementen der Relevanten Region aufgewendet wird. Dieses Papier legt die Grundlagen für zukünftige Verbesserungen der Modellverständnisforschung und -praxis.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38709-8_15 938504b70fdddad0e66e36ce5cd597e4;de;;;7.2.;;;Ein skalierbarer Ansatz für den inhaltsbasierten Bildabruf im Cloud-Rechenzentrum Das Aufkommen von Cloud-Rechenzentren verbessert die Möglichkeiten der Online-Datenspeicherung. Da in Rechenzentren riesige Datenmengen gespeichert werden, ist es notwendig, Interessensdaten in einem solchen verteilten System effektiv zu lokalisieren und darauf zuzugreifen. Herkömmliche Suchtechniken ermöglichen es Benutzern jedoch nur, Bilder nach genau passenden Schlüsselwörtern über einen zentralisierten Index zu durchsuchen. Diese Techniken können die Anforderungen des inhaltsbasierten Bildabrufs (CBIR) nicht erfüllen. In diesem Papier schlagen wir ein skalierbares Bildabruf-Framework vor, das die Inhaltsähnlichkeitssuche und die semantische Suche in der verteilten Umgebung effizient unterstützen kann. Die Kernidee besteht darin, Bildmerkmalsvektoren in verteilte Hash-Tabellen (DHTs) zu integrieren, indem die Eigenschaft des locality sensitive Hashing (LSH) ausgenutzt wird. Daher werden Bilder mit ähnlichem Inhalt höchstwahrscheinlich in demselben Knoten gesammelt, ohne dass globale Informationen bekannt sind. Für die Suche nach semantisch nahen Bildern wird das Relevanzfeedback in unser System übernommen, um die Lücke zwischen Low-Level-Features und High-Level-Features zu schließen. Wir zeigen, dass unser Ansatz eine hohe Recall-Rate bei guter Lastverteilung liefert und nur wenige Hops benötigt.;-;-;-;https://link.springer.com/article/10.1007/s10796-013-9467-0 e00cf097f6304183171c2c43d199b4b6;de;;;7.2.;;;Ausnutzung der semantischen Ähnlichkeit von Kontextsituationen für die Vorfilterungsempfehlung Kontextbewusste Empfehlungssysteme zielen darauf ab, traditionelle kontextfreie Empfehlungssysteme zu übertreffen, indem sie Informationen über den Kontext nutzen, in dem die Bewertungen der Benutzer erfasst werden. In diesem Beitrag stellen wir einen neuartigen kontextuellen Vorfilterungsansatz vor, der die semantischen Ähnlichkeiten zwischen kontextuellen Situationen nutzt. Zur Beurteilung der Kontextähnlichkeit stützen wir uns nur auf die verfügbaren Bewertungen der Nutzer und erachten zwei kontextuelle Situationen als ähnlich, die das Bewertungsverhalten der Nutzer in ähnlicher Weise beeinflussen. Wir präsentieren eine umfassende vergleichende Bewertung des vorgeschlagenen Ansatzes unter Verwendung mehrerer kontextbezogen markierter Rating-Datensätze. Wir zeigen, dass es modernste kontextbewusste Empfehlungstechniken übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38844-6_14 52a0dec7893e0a92a3c57a64e0a383df;de;;;7.2.;;;Expertisebasierte Peer-Selektion in Peer-to-Peer-Netzwerken Peer-to-Peer-Systeme haben sich als effektive Möglichkeit zum Datenaustausch erwiesen. Moderne Protokolle sind in der Lage, eine Nachricht effizient an einen bestimmten Peer weiterzuleiten. Die Bestimmung des Ziel-Peers ist jedoch nicht immer trivial. Wir schlagen ein Modell vor, bei dem Peers ihre Expertise im Peer-to-Peer-Netzwerk bewerben. Das Wissen über die Expertise anderer Peers bildet eine semantische Topologie. Basierend auf der semantischen Ähnlichkeit zwischen dem Thema einer Anfrage und dem Fachwissen anderer Peers kann ein Peer geeignete Peers auswählen, an die Anfragen weitergeleitet werden, anstatt die Anfrage zu übertragen oder an eine zufällige Gruppe von Peers zu senden. Um unser semantisches Ähnlichkeitsmaß zu berechnen, gehen wir vereinfachend davon aus, dass die Peers dieselbe Ontologie haben. Wir evaluieren das Modell in einem bibliografischen Szenario, in dem Peers bibliografische Beschreibungen von Publikationen untereinander austauschen. In Simulationsexperimenten, ergänzt durch ein reales Feldexperiment, zeigen wir, wie die expertenbasierte Peer-Selektion die Performance eines Peer-to-Peer-Systems in Bezug auf Präzision, Erinnerung und Anzahl der Nachrichten verbessert.;-;-;-;https://link.springer.com/article/10.1007/s10115-006-0055-1 157e080c7382582c067125e6c7b6f853;de;;;7.2.;;;Über datenschutzwahrende Wege zur Portierung des österreichischen eID-Systems in die Public Cloud Die sichere Authentifizierung und eindeutige Identifizierung österreichischer Staatsbürger sind die Hauptfunktionen des österreichischen eID-Systems. Um die Akzeptanz dieses eID-Systems bei Online-Bewerbungen zu erleichtern, wurde das Open-Source-Modul MOA-ID entwickelt, das die Identifizierung und Authentifizierung auf Basis der österreichischen Bürgerkarte (der offiziellen österreichischen eID) für Leistungserbringer verwaltet. Derzeit behandelt das österreichische eID-System MOA-ID als vertrauenswürdige Instanz, die lokal in der Domäne jedes Diensteanbieters eingesetzt wird. Obwohl dieses Modell tatsächlich einige Vorteile bietet, kann in manchen Situationen ein zentralisierter Bereitstellungsansatz von MOA-ID vorzuziehen sein. In diesem Papier schlagen wir daher einen zentralisierten Bereitstellungsansatz von MOA-ID in der Public Cloud vor. Der Umzug eines vertrauenswürdigen Dienstes in die Public Cloud bringt jedoch neue Hindernisse mit sich, da die Cloud nicht als vertrauenswürdig angesehen werden kann. Wir begegnen diesen Hindernissen, indem wir drei unterschiedliche Ansätze vorstellen und evaluieren, wodurch der Workflow des aktuellen österreichischen eID-Systems beibehalten und die Privatsphäre der Bürger gewahrt wird, wenn davon ausgegangen wird, dass MOA-ID ehrlich, aber neugierig handelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39218-4_23 3b03d291861a6ec089674756287be9d0;de;;;7.2.;;;Kontextbezogene Strategien zur Erkennung von Spam in akademischen Portalen Das Aufkommen von Social-Networking-Plattformen im Online-Raum und ihre ständig wachsende Benutzerbasis haben Spammern eine neue Arena eröffnet, die sie ausnutzen können. Spam kann auf solchen Plattformen und anderen interaktiven Tools wie Foren und Instant Messaging einfach und schwer erstellt werden, um seine Verbreitung zu stoppen, was die Entwicklung besserer Erkennungsstrategien erfordert. In diesem Papier stellen wir eine kontextbezogene Strategie zur Erkennung von Spam in einer eingeschränkten Domäne wie einem akademischen Portal vor. Das vorgeschlagene Verfahren verwendet die Beziehung zwischen den Konzepten der Domäne und den Konzepten der einzelnen Nachrichtenfragmente, um die Relevanz der Nachricht für den gegebenen Kontext zu bestimmen und die Ausreißer zu markieren. Die Strategie wurde unter Verwendung eines Prototypsystems getestet, das über Netzwerk- und interaktive Funktionen für die Teilnehmer zum Informationsaustausch verfügte, und die Ergebnisse zeigten, dass die kontextbezogene Strategie bei der Erkennung von Spam ziemlich erfolgreich war.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27308-7_26 04edc00e61284e7b8bd60c031720f82c;de;;;7.2.;;;Sicherheitsanalyse und Verbesserung eines auf Bio-Hashing basierenden Drei-Faktor-Authentifizierungsschemas für medizinische Telecare-Informationssysteme Der Einsatz von Telecare Medical Information Systems (TMIS) über öffentliche Netze birgt die Gefahr, dass sensible medizinische Informationen illegalen Einrichtungen preisgegeben werden. Obwohl eine Reihe von Drei-Faktor-Authentifizierungs-Schemata (3FA) entwickelt wurden, um dieser Herausforderung zu begegnen, haben sich die meisten von ihnen als fehlerhaft herausgestellt. Das Verständnis von Sicherheits- und Datenschutzfehlern von Authentifizierungsprotokollen ist eine Voraussetzung, um sowohl vorhandene Protokolle zu reparieren als auch zukünftige Protokolle zu entwerfen. In diesem Artikel untersuchen wir das 3FA-Protokoll von Lu et al. für TMIS (J Med Syst 39:32, 2015) und zeigen, dass es die behaupteten Sicherheits- und Datenschutzziele nicht erreichen kann. (1) Es bietet keine Anonymität und Unauffindbarkeit und ist anfällig für die folgenden Angriffe, die auf die Privatsphäre der Benutzer abzielen: Identitätsoffenlegungsangriff, Identitätsratenangriff und Tracking-Angriff. (2) Es ist anfällig für Offline-Passworterraten-Angriffe, Angriffe auf Benutzeridentität und Server-Angriffe. Dann präsentieren wir ein verbessertes 3FA-Schema und zeigen, dass das neue Schema die Geheimhaltung von Sitzungsschlüsseln und die gegenseitige Authentifizierung mit dem formalen Verifizierungstool ProVerif erfüllt. Darüber hinaus wird eine detaillierte heuristische Sicherheitsanalyse präsentiert, um zu zeigen, dass unser neues Schema verschiedenen Angriffen standhält und die gewünschten Sicherheitsfunktionen bietet. Darüber hinaus zeigt die Leistungsanalyse, dass unser vorgeschlagenes Protokoll eine praktische Lösung für TMIS ist.;-;-;-;https://link.springer.com/article/10.1007/s12652-017-0516-2 4c121699dd0695d77eef8de4d91b06e9;de;;;7.2.;;;Auf dem Weg zur Bereicherung geographischer Datenbanken Die Geographische Datenbank (GDB) ist das Rückgrat des Geographischen Informationssystems (GIS). Denn alle Arten von Datenverwaltungen basieren auf Art, Relevanz und Umfang der gespeicherten Daten und werden stark beeinflusst. Dennoch reicht dieser Datensatz manchmal nicht aus, um die adäquate Entscheidung zu treffen. Dann ist es von primärem Interesse, andere Datenquellen bereitzustellen, um die inhärente GDB zu ergänzen. In diesem Zusammenhang schlagen wir einen vierstufigen Ansatz zur semantischen Datenanreicherung vor, bestehend aus: Textsegmentierung, Themenidentifikation, Delegation und Textfilterung. Außerdem wird schließlich eine Verfeinerung ausgeführt, um die Datenanreicherungsergebnisse zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13881-2_22 28eac87d88b143b6161d008bf926f90f;de;;;7.2.;;;Die Art der soziokognitiven Aktivität der Schüler bei der Handhabung und Verarbeitung multimedialer wissenschaftlicher Materialien in einer Kleingruppen-Lernaufgabe Dieser Beitrag beschreibt eine Fallstudie, die soziokognitive Prozesse von Studierenden in einer multimedialen naturwissenschaftlichen Lernaufgabe untersucht. Durch die Fokussierung auf die diskursive, kognitive und kollaborative Aktivität der Schüler auf mikroanalytischer Ebene beschreibt die Studie die Art der strategischen Aktivität und sozialen Interaktion der Schüler bei der Handhabung und Verarbeitung von Informationen aus einer Multimedia-CD-ROM-Wissenschaftsenzyklopädie. Die Teilnehmer der Studie waren achtzehn 12-jährige Schüler einer finnischen Grundschulklasse, die einzeln und in Zweiergruppen an einer Posteraufgabe arbeiteten. Die Forschungsdaten bestehen aus Video- und Audioaufzeichnungen, Online-Beobachtungen, Interviews, Fragebögen und Bewertungen von Schülerplakaten. Neben Queranalysen der gesamten Datenstichprobe werden die Ergebnisse der Studie durch drei fallbasierte analytische Beschreibungen hervorgehoben, die die Natur der Navigationsprozesse, der sozialen Interaktion und der kognitiven Aktivität der Schüler im Multimedia-Kontext charakterisieren. Die Ergebnisse der Studie zeigen unterschiedliche Strategien für den Umgang und die Verarbeitung von Informationen mit Multimedia auf. Die Art der studentischen Aktivität zeigt jedoch, dass die kognitiven Strategien der Studierenden bei der Verarbeitung und Handhabung multimedialer Wissenschaftsmaterialien und die Art der sozialen Interaktionen, an denen sie teilnahmen, eher prozedural und produktorientiert waren. Dies spiegelte sich auch in den Posterdisplays der Studenten wider, die eher oberflächliche und inkohärente konzeptionelle Darstellungen zeigten. Insgesamt zeigt die Studie, dass der Gestaltung von Unterrichtssituationen und pädagogischen Unterstützungen für multimediales Lernen mehr Aufmerksamkeit geschenkt werden muss.;-;-;-;https://link.springer.com/article/10.1023/A%3A1012272119868 98a5f12870e136be65994c8bd9c74483;de;;;7.2.;;;secFleck: Eine Public-Key-Technologieplattform für drahtlose Sensornetzwerke Wir beschreiben das Design und die Implementierung einer Public-Key-Plattform, secFleck, basierend auf einem handelsüblichen Trusted Platform Module (TPM)-Chip, der die Fähigkeiten eines Standardknotens erweitert. Im Gegensatz zu früheren Public-Key-Softwareimplementierungen bietet dieser Ansatz Sicherheit auf E-Commerce-Niveau, ist rechenschnell, energieeffizient und hat geringe finanzielle Kosten – alles wesentliche Attribute für sichere große Sensornetzwerke. Wir beschreiben die secFleck Message Security Services wie Vertraulichkeit, Authentizität und Integrität und präsentieren Leistungsergebnisse wie Rechenzeit, Energieverbrauch und Kosten. Es folgen auf secFleck aufbauende Beispiele für symmetrisches Schlüsselmanagement, sicheres RPC und sicheres Software-Update.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00224-3_19 ea095c698368af44855266ccd0db9a20;de;;;7.2.;;;Einfluss der Nachbarschaft auf die netzwerkinterne Verarbeitung in Sensornetzwerken Drahtlose Sensornetzwerke wachsen in Bezug auf Abdeckung und Knotendichte von wenigen handplatzierten Geräten zu größeren Netzwerken. Aus verschiedenen Gründen wie der Skalierbarkeit erfordern größere Netzwerkgrößen eine gewisse Verwaltung der großen Datenmengen, die ein Sensornetzwerk liefert. Eine Möglichkeit, diese Daten zu verwalten, ist die Verarbeitung von Informationen im Netzwerk. In diesem Beitrag wird untersucht, wie die Netzwerkarchitektur eines Sensornetzwerks (insbesondere die Nachbarschaftsstruktur) die Schlussfolgerungen beeinflussen kann, die ein Sensornetzwerk aus seinen Messungen zieht. Die Ergebnisse zeigen, dass nichtplanare Strukturen für das Routing und einige Verarbeitungsanwendungen im Netzwerk nicht durchführbar sind. Strukturen mit geringen durchschnittlichen Kantenlängen liefern bessere quantitative Ergebnisse, während solche mit hohen Kantendichten bessere qualitative Ergebnisse liefern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87473-7_9 cdb08aade39e437e47b9a99b74a22085;de;;;7.2.;;;Multi-Label-Attributbewertung basierend auf Fuzzy Rough Sets Bei einer Lernaufgabe mit mehreren Labels kann jeder Probe ein oder mehrere Labels zugewiesen werden. Darüber hinaus sind Multilabel-Klassifizierungsaufgaben oft durch hochdimensionale und inkonsistente Attribute gekennzeichnet. Fuzzy-Rough-Sets sind ein effektives mathematisches Werkzeug zum Umgang mit Inkonsistenz und Attributreduktion. In dieser Arbeit diskutieren wir die Reduktion von Multi-Label-Attributen im Rahmen von Fuzzy-Rough-Sets. Wir analysieren die Definitionen der Fuzzy Lower Approximation in der Multilabel-Klassifizierung und geben verschiedene Verbesserungen der traditionellen Algorithmen. Darüber hinaus ist die Attributabhängigkeitsfunktion definiert, um Bedingungsattribute auszuwerten. Basierend auf der Abhängigkeitsfunktion wird ein Multilabel-Attributreduktionsalgorithmus konstruiert. Numerische Experimente zeigen die Wirksamkeit der vorgeschlagenen Technik.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08644-6_10 8fc4010b35b9d2ffbb5232feada3eca6;de;;;7.2.;;;Sprachanpassung für die Klassifizierung von Entity Relations über kontradiktorische neuronale Netze Die Klassifizierung von Entitätenbeziehungen zielt darauf ab, die semantische Beziehung zwischen zwei markierten Entitäten in einem gegebenen Satz zu klassifizieren und spielt eine wichtige Rolle in verschiedenen Anwendungen der Verarbeitung natürlicher Sprache. Bestehende Studien konzentrieren sich jedoch auf die Nutzung einsprachiger Daten in Englisch, da es an gekennzeichneten Daten in anderen Sprachen mangelt. Wie man effektiv von einer reich beschrifteten Sprache profitieren kann, um einer schlecht beschrifteten Sprache zu helfen, ist immer noch ein offenes Problem. In diesem Beitrag entwickeln wir einen Sprachanpassungsrahmen für die Klassifikation von mehrsprachigen Entitätsbeziehungen. Die Grundidee besteht darin, kontradiktorische neuronale Netze (AdvNN) zu verwenden, um Merkmalsdarstellungen von einer Sprache in eine andere zu übertragen. Insbesondere ermöglicht ein derartiger Sprachanpassungsrahmen eine Merkmalsimitation über den Wettbewerb zwischen einem Satzcodierer und einem konkurrierenden Sprachdiskriminator, um effektive Darstellungen zu erzeugen. Um die Wirksamkeit von AdvNN zu überprüfen, führen wir zwei Arten von gegnerischen Strukturen ein, Zweikanal-AdvNN und Einkanal-AdvNN. Experimentelle Ergebnisse des mehrsprachigen Trainingskorpus ACE 2005 zeigen, dass unser einkanaliges AdvNN sowohl in unbeaufsichtigten als auch in teilüberwachten Szenarien die beste Leistung erzielt und eine Verbesserung von 6,61 % bzw. beziehungsweise. Im Vergleich zu Baselines, die direkt ein maschinelles Übersetzungsmodul übernehmen, stellen wir fest, dass sowohl Dual-Channel- als auch Single-Channel-AdvNN die Leistung signifikant verbessern (;-;-;-;https://link.springer.com/article/10.1007/s11390-020-9713-0 532ec580363c45177ab11c2c36139848;de;;;7.2.;;;Neural-IR-Explorer: Ein inhaltsorientiertes Tool zum Erkunden der Ergebnisse der Neuordnung von Neuronen In diesem Papier schauen wir über die metrikbasierte Bewertung von Information Retrieval-Systemen hinaus, um die Gründe für die Ranking-Ergebnisse zu untersuchen. Wir präsentieren den inhaltsorientierten Neural-IR-Explorer, der es Benutzern ermöglicht, durch Retrieval-Ergebnisse zu blättern und das Innenleben und die feinkörnigen Ergebnisse neuronaler Re-Ranking-Modelle zu untersuchen. Der Explorer enthält eine kategorisierte Übersicht der verfügbaren Abfragen sowie eine individuelle Abfrageergebnisansicht mit verschiedenen Optionen, um semantische Verbindungen zwischen Abfrage-Dokument-Paaren hervorzuheben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-45442-5_58 3b11458266540a384c623aa0fa8177b5;de;;;7.2.;;;Experimentelle Bewertung von Protus 2.1 Implementierte Protus 2.1 für die Programmiersprache Java wurde in realen Bildungsumgebungen verwendet. Die Experimente wurden mit einem Bildungsdatensatz durchgeführt, der aus 440 Lernenden besteht, Studenten im 3. Der Versuch dauerte zwei Semester. Beteiligte Lernende waren Programmieranfänger, die im vorangegangenen Semester den Grundkurs Computerkompetenz erfolgreich bestanden haben. Sie wurden in zwei Gruppen eingeteilt: die experimentelle Gruppe und die Kontrollgruppe. Die Lernenden der Kontrollgruppe lernten mit der vorherigen Version des Systems und erhielten keine Empfehlung oder Anleitung durch den Kurs, während die Lernenden der Experimentalgruppe das Protus 2.1-System verwenden mussten. Die Lernenden beider Gruppen nahmen an keinem parallelen traditionellen Kurs teil und mussten kein zusätzliches Material oder Hilfe verwenden. In diesem Kapitel werden die Ergebnisse der Evaluation und Diskussion der Analyse der Ergebnisse bezüglich der Validität des Tutorensystems, die in den vorherigen Kapiteln vorgestellt wurden, hervorgehoben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-41163-7_12 58320a4c4b150babb10442e249afbc7e;de;;;7.2.;;;Leistungsverbesserung bei kollaborativen Empfehlungen mit Multi-Layer-Perceptron Die Empfehlung besteht darin, Informationen anzubieten, die den Interessen und Vorlieben des Benutzers entsprechen, um bessere Dienste bereitzustellen und die Informationsflut zu reduzieren. Es lenkt in letzter Zeit die Aufmerksamkeit auf Internetnutzer und Informationsanbieter. Die kollaborative Filterung ist eine der weit verbreiteten Methoden zur Empfehlung. Es empfiehlt einem Benutzer ein Element basierend auf den Präferenzen der Referenzbenutzer für das Zielelement oder den Präferenzen des Zielbenutzers für die Referenzelemente. In diesem Beitrag schlagen wir eine auf neuronalen Netzwerken basierende kollaborative Filtermethode vor. Unsere Methode baut ein Modell auf, indem sie die Korrelation zwischen Benutzern oder Gegenständen unter Verwendung eines mehrschichtigen Perzeptrons lernt. Wir untersuchen auch die Integration verschiedener Informationen, um das Sparsity-Problem zu lösen und die Referenzbenutzer oder -elemente basierend auf Ähnlichkeit auszuwählen, um die Leistung zu verbessern. Wir zeigen schließlich, dass unsere Methode die bestehenden Methoden durch Experimente mit den EachMovie-Daten übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/11893295_40 e027674c75c858563b4d37fa5f97d9ec;de;;;7.2.;;;Unüberwachtes Ensemble von Ranking-Modellen für Nachrichtenkommentare mit Pseudo-Antworten Das Ranking von Kommentaren in einem Online-Nachrichtendienst ist eine praktisch wichtige Aufgabe, und daher gibt es viele Studien zu dieser Aufgabe. Obwohl Ensemble-Techniken allgemein bekannt sind, um die Leistung von Modellen zu verbessern, gibt es nur wenige Arten von Forschung zu Ensemble-Neural-Ranking-Modellen. In diesem Artikel untersuchen wir, wie die Leistung der Kommentar-Ranking-Aufgabe durch den Einsatz von unüberwachten Ensemble-Methoden verbessert werden kann. Wir schlagen ein neues Hybridverfahren vor, das aus einem Ausgangsauswahlverfahren und einem typischen Mittelungsverfahren besteht. Unsere Methode verwendet eine Pseudoantwort, die durch den Durchschnitt mehrerer Modellausgaben dargestellt wird. Die Pseudoantwort wird verwendet, um mehrere Modellausgaben über Rangbewertungsmetriken zu bewerten, und die Ergebnisse werden verwendet, um die Modelle auszuwählen und zu gewichten. Experimentelle Ergebnisse der Kommentar-Ranking-Aufgabe zeigen, dass unsere vorgeschlagene Methode mehrere Ensemble-Baselines übertrifft, einschließlich einer überwachten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-45442-5_17 fd05be9db404118b97d0105d16a13550;de;;;7.1.;;;Balanced Scorecard-Entwicklung: Ein Überblick über die Literatur und Hinweise für die zukünftige Forschung Der Bereich der Leistungsmessung (PM) hat sich in den letzten zwei Jahrzehnten mit der Entwicklung neuer Messsysteme wie Balanced Scorecard (BSC), Leistungsprisma, Leistungspyramide, Economic Value Added (EVA), Economic Profit (EP) und Techniken zur Selbsteinschätzung. Diese Entwicklungen sind wohl eine Reaktion auf die schnell zunehmenden Bilanzierungsprobleme, die auftreten, wenn die Messung der Leistung von Geschäftsbereichen nur auf traditionellen finanzbuchhalterischen Kennzahlen wie dem Return on Investment (ROI) und dem Gewinn pro Aktie basiert (EPS). In den meisten Geschäftsbereichen gibt es immaterielle Vermögenswerte, die nicht bilanziert werden, aber wesentlich zur Leistung der Geschäftsbereiche beitragen können. Traditionelle Rechnungslegungsmethoden konzentrieren sich nur auf die finanzielle Leistung und vernachlässigen daher viele nichtfinanzielle Aspekte. Darüber hinaus lenken diese traditionellen Finanzkennzahlen die Aufmerksamkeit auf die kurzfristige Leistung und können irreführende Signale für kontinuierliche Verbesserung und Innovationsaktivitäten geben, die für das heutige Wettbewerbsumfeld äußerst wichtig sind.;-;-;-;https://link.springer.com/chapter/10.1057/9780230353275_9 5000498cb06f55b67c4561483787230a;de;;;7.2.;;;Anwendung semantischer Kernel auf literaturbasierte Genfunktionsannotationen In den letzten Jahren wurde eine Reihe von maschinellen Lernansätzen zur literaturbasierten Genfunktionsannotation vorgeschlagen. Aufgrund von Problemen wie dem Fehlen von gekennzeichneten Daten, Klassenungleichgewichten und Rechenkosten waren sie jedoch in der Regel nicht in der Lage, einfachere Ansätze basierend auf String-Matching zu übertreffen. In diesem Papier untersuchen wir die Verwendung semantischer Kernel als Möglichkeit, die der Aufgabe innewohnende Datenknappheit zu beheben, und schlagen eine einfache, aber effektive Lösung vor, um mit Klassenungleichgewicht umzugehen. Aus Experimenten mit den TREC Genomics Track-Daten erreicht unser Ansatz bessere Ergebnisse;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24477-3_8 41bf6ab9de1247fe2682e9ada38d5678;de;;;7.2.;;;NLPX auf der INEX 2006 XML-Informationsabrufsysteme (XML-IR) zielen darauf ab, die Informationsbedürfnisse der Benutzer besser zu erfüllen als herkömmliche IR-Systeme, indem sie Ergebnisse unterhalb der Dokumentebene zurückgeben. Um XML-IR-Systeme verwenden zu können, müssen Benutzer ihre strukturellen und inhaltlichen Informationsbedürfnisse in einer strukturierten Abfrage kapseln. In der Vergangenheit wurden diese strukturierten Abfragen mit formalen Sprachen wie NEXI formatiert. Leider sind formale Abfragesprachen sehr komplex und für erfahrene - geschweige denn gelegentliche - Benutzer zu schwierig zu verwenden und zu eng an die zugrunde liegende physische Struktur der Sammlung gebunden. Die NLP-Aufgabe von INEX untersucht das Potenzial der Verwendung natürlicher Sprache, um strukturierte Abfragen zu spezifizieren. QUT beteiligt sich seit seiner Gründung an der NLP-Aufgabe mit unserem System NLPX. Hier besprechen wir die Änderungen, die wir seit letztem Jahr an NLPX vorgenommen haben, einschließlich unserer Bemühungen, NLPX auf Wikipedia zu portieren. Zweitens präsentieren wir die Ergebnisse des INEX-Tracks 2006, bei dem NLPX der leistungsstärkste Teilnehmer bei den gründlichen und fokussierten Aufgaben war.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73888-6_30 c8a1d37bf27770869e695951205a0994;de;;;7.2.;;;Eine Bewertung von N-Gram-Korrespondenzmodellen für die Transliterationserkennung Die Transliterationserkennung (TD) ist eine Unteraufgabe der natürlichen Sprachverarbeitung (NLP), die verwendet wird, um übereinstimmende benannte Entitäten (NEs) aus parallelem oder vergleichbarem Text zu finden, wobei sich jeder Sprachtext in einem anderen Schriftsystem befindet. Die Aufgabe zielt darauf ab, qualitativ hochwertige Transliterationslexika zu erstellen, um die Leistung in sprachübergreifenden Anwendungen wie maschineller Übersetzung (MT) und sprachübergreifendem Informationsabruf (CLIR) zu verbessern. Jüngste Bewertungen von TD-Methoden (z. B. diejenigen aus der NEWS 2010 Transliteration Mining Shared Task (Kumaran et al., 2010)) unterstreichen den Bedarf an weiteren Methoden, die die TD-Leistung verbessern können. Dieses Papier trägt zu diesem Bedarf bei, indem es die Verwendung von N-Gram-Korrespondenzen in der Quell-Zielsprache für TD bewertet. Wir präsentieren TD-Experimente, die drei verschiedene Klassen von n-Gramm-Korrespondenzmodellen auf Standard-Transliterationsdatensätzen aus den 2009 und 2010 geteilten Aufgaben zur Transliterationsgenerierung verwenden (Li et al. (Report of NEWS 2009 machine transliteration shared task. Proceedings of the 2009 Named Entities .) Workshop: Shared Task on Transliteration, 2009), Li ua (Report of NEWS 2010 Transliteration Generation Shared Task. Proceedings of the 2010 Named Entities Workshop, 2010)). Die Ergebnisse zeigen relativ signifikante TD-Leistungsverbesserungen zwischen der Verwendung von N-Gram-Korrespondenzmodellen niedrigerer und höherer Ordnung und zwischen den verschiedenen Klassen von N-Gramm-Korrespondenzmodellen. Wir zeigen, dass unser TD-Versuchsaufbau im Hinblick auf den erforderlichen Suchaufwand komplexer ist als der in verwandten Arbeiten (Li et al. (Report of NEWS 2010 transliteration generation shared task. Proceedings of the 2010 Named Entities Workshop, 2010)) und dass die besten TD-Leistungen aus den n-Gramm-Korrespondenzmodellen in dieser Arbeit mit denen von State-of-the-Art-Methoden vergleichbar sind. Unsere Ergebnisse zeigen auch, dass die n-Gramm-Größe, die für die Entwicklung hochwertiger Transliterationsmodelle in verschiedenen Sprachen und Schriftsystemen verwendet werden sollte, variiert. Unsere Arbeit dient daher dazu, einen vorläufigen Einblick in die n-Gramm-Größen zu geben, die erforderlich sind, um verwandte hochwertige TD-Modelle für verschiedene Sprachpaare und Schriftsysteme zu modellieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06764-3_79 2d26fb2c3b676767467f3e9591710a91;de;;;7.2.;;;Beseitigung falscher sprachenübergreifender Links in Wikipedia Viele Wikipedia-Artikel, die dasselbe Thema in verschiedenen Sprachausgaben behandeln, sind über sprachübergreifende Links miteinander verbunden, die das Verständnis von Themen in mehreren Sprachen sowie sprachübergreifende Anwendungen zum Abrufen von Informationen ermöglichen. Sprachübergreifende Links werden jedoch von den Nutzern der Wikipedia manuell hinzugefügt und sind daher oft falsch. In diesem Beitrag schlagen wir einen Ansatz vor, um fehlerhafte sprachenübergreifende Links automatisch zu eliminieren, basierend auf der Beobachtung, dass Gruppen von Artikeln, die paarweise durch sprachenübergreifende Links verbunden sind, unabhängige verbundene Komponenten bilden. Für jedes;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-68786-5_9 0ebc8aaef9da38b820d9b6ad20ec66be;de;;;7.2.;;;Paarweiser Vergleichsbasierter objektiver Score für die automatisierte Bewertung von Segmenten in einer chirurgischen Aufgabe Aktuelle Methoden zur manuellen Bewertung der chirurgischen Fertigkeit ergeben eine Gesamtpunktzahl für die gesamte Aufgabe. Der globale Score informiert die chirurgischen Auszubildenden nicht darüber, wo sie sich in der Aufgabe verbessern müssen. Wir haben einen Rahmen entwickelt und evaluiert, um automatisch einen objektiven Score zur Beurteilung der Manöverfähigkeit (umschriebene Segmente) innerhalb einer chirurgischen Aufgabe zu generieren. Wir verwendeten einen vorhandenen Video- und kinematischen Datensatz (mit manueller Annotation für Manöver) einer Näh- und Knotenarbeit, die von 18 Chirurgen an einem Tischmodell mit einem da Vinci;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07521-1_15 e9c23188c0bc0d94f73a1395608ad4a0;de;;;7.2.;;;Leistungsbewertung für den Komponentenabruf In diesem Papier haben wir einen verbesserten Spreizaktivierungsalgorithmus vorgeschlagen. Da SARM viel Rechenzeit erfordert, ist ein verbesserter SARM möglich, um unnötige Aktivierungswerte zu reduzieren. Durch das Entfernen der Teile mit einer geringen Anzahl von Referenzen im Retrievalprozess wurde die Zeit für das Retrieval in der Simulation im Vergleich zu SARM um 37,8% reduziert. Außerdem konzentrieren wir uns in diesem Papier auf die Leistungsbewertung unseres Komponenten-Wiederherstellungssystems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74484-9_85 d42fc890b74e33f77f6e717e71981286;de;;;7.2.;;;Stimmungsverfolgung von Radiosender-Sendungen Dieser Beitrag stellt ein Beispiel für ein System zur Analyse von Emotionen vor, die in Radiosendungen enthalten sind. Wir bereiteten Trainingsdaten vor, führten Merkmalsextraktion durch, bauten Klassifikatoren für die Musik-/Sprachunterscheidung und für die Emotionserkennung in Musik. Um Veränderungen der Emotionen zu untersuchen, haben wir aufgezeichnete Sendungen von 4 ausgewählten europäischen Radiosendern verwendet. Die gesammelten Daten ermöglichten es uns, die dominante Emotion in den Radiosendungen zu bestimmen und Karten zu erstellen, die die zeitliche Verteilung von Emotionen visualisieren. Die gewonnenen Ergebnisse liefern einen neuen interessanten Blick auf den emotionalen Inhalt von Radiosendungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08326-1_19 73cb3f6d23cf2ffba152fa855dccf821;de;;;7.2.;;;Clustering von Kurztexten und deren Auswertung In letzter Zeit ist das Interesse an der Bündelung von Kurztexten gestiegen, da sie in vielen NLP-Anwendungen verwendet werden könnten. Je nach Antrag könnte eine Vielzahl von Kurztexten hauptsächlich durch Länge (z. B. Satz, Absätze) und Art (z. B. wissenschaftliche Aufsätze, Zeitungen) definiert werden. Es ist schwierig, eine Clustering-Methode zu finden, die in der Lage ist, kurzen Text im Allgemeinen zu clustern. In diesem Beitrag gruppieren wir 4 verschiedene Korpora mit unterschiedlichen Textsorten unterschiedlicher Länge und bewerten sie anhand des Goldstandards. Basierend auf diesen Clustering-Experimenten zeigen wir, wie sich verschiedene Ähnlichkeitsmaße, Clustering-Algorithmen und Cluster-Bewertungsmethoden auf die resultierenden Cluster auswirken. Wir diskutieren vier bestehende korpusbasierte Ähnlichkeitsmethoden, Cosinus-Ähnlichkeit, Latent Semantic Analysis, Short Text Vector Space Model und Kullback-Leibler-Distanz, vier bekannte Clustering-Methoden, Complete Link, Single Link, Average Link hierarchical Clustering und Spectral Clustering, und drei Auswertungsmethoden, Clustering F-Maß, adjustierter Rand Index und V. Unsere Experimente zeigen, dass korpusbasierte Ähnlichkeitsmaße die Cluster nicht signifikant beeinflussen und dass die Leistung des spektralen Clustering besser ist als das hierarchische Clustering. Wir zeigen auch, dass die von den Bewertungsmethoden angegebenen Werte nicht immer die Nutzbarkeit der Cluster wiedergeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28601-8_15 3c174af7cecb59d1663090ee154ae4ca;de;;;7.2.;;;Patentabruf basierend auf mehreren Informationsquellen Abfrageerweiterungsmethoden haben sich als wirksam erwiesen, um die durchschnittliche Leistung des Patentabrufs zu verbessern, und die meisten Abfrageerweiterungsmethoden verwenden eine einzige Informationsquelle für die Auswahl von Abfrageerweiterungsbegriffen. In diesem Papier schlagen wir eine Methode vor, die externe Ressourcen nutzt, um den Patentabruf zu verbessern. Die Google-Suchmaschine und der Derwent World Patents Index wurden als externe Ressourcen verwendet, um die Leistung von Abfrageerweiterungsmethoden zu verbessern. LambdaRank wurde verwendet, um die Leistung des Patentabrufs zu verbessern, indem verschiedene Abfrageerweiterungsmethoden mit verschiedenen Textfeldgewichtungsstrategien verschiedener Ressourcen kombiniert wurden. Experimente mit TREC-Datensätzen zeigten, dass unsere Kombination mehrerer Informationsquellen für die Formulierung von Abfragen effektiver war als die Verwendung einer einzelnen Quelle, um die Leistung des Patentabrufs zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48051-0_10 7229de7129626e642e1e8fa7ce8fd55d;de;;;7.2.;;;Abfrageumformulierung basierend auf Benutzergewohnheiten für Query-by-Humming-Systeme Query-by-Humming (QBH)-Systeme verwenden menschliches Brummen als Eingabe und verwenden es als Abfrage, um Musik so genau wie möglich aus einer Datenbank abzurufen. Wir schlagen einen neuartigen Weg zur Neuformulierung von Abfragen für die QBH-Suchmaschine vor, indem wir die Brummgewohnheiten des Benutzers modellieren. In vielen Forschungen haben sich Query-Neuformulierungstechnologien als sehr effektiv erwiesen. Eine kritische Herausforderung für QBH besteht darin, dass das Summen ziemlich ungenau ist. Detaillierte Statistiken und Analysen zu einer Vielzahl von summenden Abfragen und Zielen wurden basierend auf dem IOACAS-Datensatz erstellt. Dann haben wir die häufigsten Brummfehler zusammengefasst, die zu dem schlechten Abrufeffekt führen. Wir haben ein Fünf-Tupel zur Darstellung von Fehlern definiert und ein User-Summing-Modell basierend auf dem Hidden Markov Modell vorgeschlagen. Die Abfrage des Benutzers wird durch das Modell umformuliert. Der Ansatz wird auf dem Ict-Muse QBH-System, SOSO-QBH-System und Midomi-QBH-System unter Verwendung des QBSH-Datensatzes evaluiert. Die experimentellen Ergebnisse zeigen deutlich, dass der in diesem Papier gewählte Ansatz die Qualität des Benutzersummens erheblich verbessern kann, was wiederum den Effekt des Informationsabrufs verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35341-3_34 3898d8082e2023ebbd58d1f0bce6add2;de;;;7.1.;;;Modellmanagement: Der Kern intelligenter Entscheidungsunterstützung Die intelligente Unterstützung der Entscheidungsfindung ist seit vielen Jahren ein wichtiges Thema im automatisierten Systemdesign. Wissenschaftliche Felder wie Entscheidungsanalyse, künstliche Intelligenz, Entscheidungsunterstützungssysteme und Expertensysteme haben zu diesem Bereich beigetragen. Wesentliche Erkenntnisse über die auftretenden Probleme legen inzwischen nahe, dass sich der harte Kern der zu bearbeitenden Probleme im Wesentlichen mit Fragen der Modellierung und des Modellmanagements beschäftigt. Die Idee dabei ist, relevante Daten zu laufenden Prozessen über geeignete Modelle in Erkenntnisse zu transformieren, die dann die Grundlage für eine gute Entscheidungsfindung sind. Die verwendeten Modelle reichen von klassischen Ansätzen wie Differentialgleichungen, Spielen, Wahrscheinlichkeitstheorie, Entscheidungsanalyse und anderen bis hin zu modernen Frameworks in der künstlichen Intelligenz, die von Logikprogrammierung bis hin zu allen Arten von wissensbasiertem Denken reichen. Dabei dienen die letztgenannten Aspekte insbesondere als Meta-Wissensspezifikationswerkzeug, das es ermöglicht, darzustellen, wie menschliche Fachkräfte alle Arten von klassischen Werkzeugen zur Problemlösung einsetzen und einsetzen. Der vorliegende Beitrag diskutiert diese Erkenntnisse ausführlich und interpretiert, wie Modellmanagement mit Phänomenen wie Intelligenz, Lernen, Anpassung, Einsicht und auf höchster Ebene auch Bewusstsein zusammenhängt. Das Papier befasst sich auch mit Fragen des adäquaten Einsatzes von Modellmanagementansätzen für verschiedene Anwendungsbereiche und enthält auch einen Überblick über Projekte dieser Art, die derzeit am FAW in Ulm bearbeitet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-84218-4_31 c38667b2d04b10a2a7c6313c40dd3eef;de;;;7.2.;;;Kollaboratives Clustering für kooperatives Caching in mobilen Ad-hoc-Netzwerken Die größte Herausforderung in einem mobilen Ad-hoc-Netzwerk besteht darin, den gewünschten mobilen Knoten bei Bedarf Daten bereitzustellen. Caching erhöht tendenziell die Datenverfügbarkeit in einer drahtlosen Ad-hoc-Umgebung. Caching, wenn es zusammen mit Clustering eingesetzt wird, kann erhebliche Vorteile in Bezug auf die Informationsverfügbarkeit und den Informationsabruf in einer Ad-hoc-Umgebung mit sich bringen. Clustering wird in MANETs häufig verwendet, um Netzwerkknoten zu Clustern zusammenzubinden. Hier schlagen wir einen kollaborativen Clustering-Ansatz für kooperatives Caching (4C) in einem mobilen Ad-hoc-Netzwerk vor, der die Cache-Verwaltung insgesamt verbessert und den Overhead für den Nachrichtenaustausch verringert. Es erhöht auch die Rate, mit der Daten abgerufen werden, indem die Zugriffslatenz reduziert wird. Darüber hinaus soll der starke Verkehr in der Nähe des Datenservers verringert werden. Bei dieser Arbeit arbeiten alle Cluster-Knoten innerhalb eines Clusters beim Caching zusammen und alle Cluster-Heads im gesamten Netzwerk zusammenarbeiten für eine effiziente Cache-Wartung. Darüber hinaus können sich Clients für eine Registrierung bei ihren jeweiligen Clusterköpfen entscheiden, um aktuelle Aktualisierungen der zwischengespeicherten Informationen zu erhalten. Data Server überträgt Updates über Clusterköpfe an die registrierten Clients.;-;-;-;https://link.springer.com/article/10.1007/s11277-016-3815-6 06978e6eab30e4bf940c0af429bb1726;de;;;7.1.;;;Katastrophenrisikomanagement in China Katastrophen waren im Laufe der Geschichte endemisch. In der Judeo-Geschichte war die von Noah überlebte Flut eine so vollständige Katastrophe für die heutige Menschheit, wie man sich nur vorstellen kann. Ägypten wurde von Dürren und Überschwemmungen des Nils heimgesucht. In der griechisch-römischen Kultur verursachten Ereignisse wie die Eruptionen des Vesuvs enormes Leid und Schaden. Ähnliche Katastrophen unterbrachen die menschlichen Aktivitäten auf der ganzen Welt, einschließlich nicht aufgezeichneter Ereignisse auf der Osterinsel. Die Internationale Föderation der Rotkreuz- und Rothalbmondgesellschaften gab an, dass in den letzten 10 Jahren fast zwei Milliarden Menschen von Katastrophen betroffen waren. Die Menschen in Asien machten zwischen 1975 und 2003 fast 89 % der von Naturkatastrophen betroffenen Bevölkerung aus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11474-8_6 b24a268d1ca839d78fb1dcb8ef39fa8a;de;;;7.1.;;;Zielgerichtete Navigation für animierte Charaktere mit Echtzeit-Pfadplanung und -steuerung Dieses Papier stellt eine neue Technik zur Berechnung kollisionsfreier Navigationsbewegungen aus Befehlen auf Aufgabenebene für animierte menschliche Charaktere in interaktiven virtuellen Umgebungen vor. Die Implementierung des Algorithmus verwendet die Hardware-Rendering-Pipeline, die üblicherweise auf Grafikbeschleunigerkarten zu finden ist, um eine schnelle 2D-Bewegungsplanung durchzuführen. Bei einer geometrischen 3D-Beschreibung eines animierten Charakters und einer ebenen Geländeumgebung können kollisionsfreie Navigationspfade zwischen Anfangs- und Zielort mit interaktiven Raten berechnet werden. Die Geschwindigkeit wird erhöht, indem die Grafikhardware genutzt wird, um die Hindernisgeometrie für die Planung schnell in eine 2D-Bitmap zu projizieren. Die Bitmap kann durch eine beliebige Anzahl von standardmäßigen dynamischen Programmiertechniken durchsucht werden, um einen endgültigen Pfad zu erzeugen. Zyklische Bewegungserfassungsdaten werden zusammen mit einem einfachen proportionalen Ableitungsregler verwendet, um das Zeichen zu animieren, während es dem berechneten Pfad folgt. Die Technik wurde auf einer SGI Indigo2-Workstation implementiert und läuft mit interaktiven Raten. Es ermöglicht die Echtzeit-Modifikation der Zielpositionen und Hindernispositionen für mehrere Charaktere in komplexen Umgebungen, die aus mehr als 15.000 Dreiecken bestehen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-49384-0_14 dc04560007f0b430ac137b66e01e7db1;de;;;7.1.;;;Design der CTRON Execution Control Interface CTRON bietet eine von der Hardwarearchitektur unabhängige Betriebssystemschnittstelle. Das Ziel besteht darin, eine ausgezeichnete Portabilität von OS-Komponenten, die CTRON-Spezifikationen implementieren, und von Anwendungsprogrammen sicherzustellen. Um dieses Ziel zu erreichen, basiert das Design auf einer zweischichtigen OS-Konfiguration, bestehend aus einem Basic OS und einem Extended OS. Die CTRON-Ausführungssteuerung gehört zum Extended OS. Die Ausführungssteuerungsschnittstelle, die Ausführungsumgebungen bereitstellt und die Programmausführung steuert, beeinflusst die Gesamtleistung stark. Die CTRON-Ausführungssteuerungsschnittstelle gewährleistet eine hohe Leistung, indem sie eine Kombination von Ressourcen aus dem Kernel im Basic OS und aus anderen Teilen des Extended OS übernimmt.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-68081-9_13 4cf18295b9fe39a3ca16e95ee0e2f73a;de;;;7.1.;;;Kommentare zu „Informationssysteme als Sozialwissenschaft“ von R.K. Stempel Dies ist ein sehr gutes Papier für diese Konferenz, da es sich gut eignet, um viele Diskussionen und Debatten auszulösen. Ich fand in der Zeitung so viele strittige Themen zum FRISCO-Bericht [Fa196], dass ich die Idee aufgeben musste, sie alle in meinen Kommentaren zu diskutieren. Deshalb möchte ich mich auf einige Punkte konzentrieren, die ich für die wichtigsten halte.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35500-9_3 fc9e0333ed59c8146cf047ad21b6f634;de;;;7.1.;;;Supply-Chain-Simulation Integrierte Diskrete-Ereignis-Modellierung mit System-Dynamik-Modellierung Dieses Papier beschreibt ein neuartiges Simulationsframework, das die diskrete Ereignismodellierung mit der Systemdynamikmodellierung integriert. Ersteres hat Stärke bei der Bewertung der Systemleistung, während letzteres den Vorteil hat, Rückkopplungsmechanismen in komplexen Systemen darzustellen. Wir entwickeln derzeit ein Hybridmodellierungs-Framework, das diskrete Ereignismodellierung mit Systemdynamikmodellierung kombiniert. Die Ziele dieses Rahmenwerks sind: (1) Rückkopplungen von Supply-Chain-Aktivitäten in Mechanismen sozialer Systeme zu simulieren, (2) Management-Simulation langfristig zu ermöglichen und schließlich (3) Anforderungsspezifikationen an das Supply-Chain-Management-Gaming zu klären . Dieses Papier fasst dieses Framework zusammen und stellt Anwendungsbeispiele dar.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-74157-4_39 55f8dc6c30d2c5fc98153ce39591317f;de;;;7.1.;;;Eine Softwarearchitektur für Verkehrsplanung und -überwachung in einem kollaborativen Netzwerk Transportplaner benötigen Softwareunterstützung, um Transportressourcen einfach zu überwachen und zu disponieren, insbesondere wenn der Transport multimodal ist und Ressourcen von verschiedenen Unternehmen in ihrem Netzwerk verwendet werden. Wir nennen eine solche Anwendung einen Verkehrskontrollturm. In diesem Beitrag wird eine Softwarearchitektur für Verkehrskontrolltürme vorgestellt. Es konzentriert sich insbesondere auf die neuartigen Aspekte der Softwarearchitektur. Diese sind: die Möglichkeit, die Überwachung von Ressourcen und Aufgaben einfach zu konfigurieren, die Möglichkeit, die Anweisungen zur Überwachung von Ressourcen und Aufgaben basierend auf dem Transportplan zu erstellen, und die Fähigkeit, die Überwachungsanweisungen dynamisch anzupassen. Ein Prototyp der Softwarearchitektur wird implementiert und anhand von drei Nutzungsszenarien evaluiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24141-8_25 33122db6b9ed92abb3565433febbcbd4;de;;;7.1.;;;Entscheidungssysteme in der Produktionsplanung In der Praxis ist die Produktionsplanung Teil des komplexen Informations- und Entscheidungsflusses, der das Produktionsplanungs- und -steuerungssystem bildet. Diese Perspektive der Entscheidungsfindungssysteme verbessert unser Verständnis der Produktionsplanung. Das Kapitel stellt eine Systemmethodik zur Verbesserung von Produktionsplanungssystemen vor und beschreibt Techniken, die verwendet werden können, um Produktionsplanungssysteme darzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-33117-4_4 91f7bca66e04a7fdc1bc3f751bc62212;de;;;7.1.;;;Von der Programmierung bis zum Systemdesign Der Beitrag skizziert die Entwicklung der Berufsbildung von einwöchigen Programmierkursen hin zu zweieinhalbjährigen Studiengängen. Es konzentriert sich darauf, wie sich die Bildungsinhalte mit der Ausweitung des Einsatzes der Informationstechnik und mit der Entwicklung von Computern verändert haben. Eine der wichtigeren Fragen, die in diesem Artikel behandelt werden, ist, ob die Arbeitgeber in diesem Bereich die Quantität und Qualität des Unterrichts im Hinblick auf die Nachfrage nach Arbeitskräften im Land als ausreichend angesehen haben.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-24168-X_19 9d6c51a7363a83edbb7718ad291a39a8;de;;;7.1.;;;Kulturelle Kalibrierung: Technologiedesign für Tourismus-Websites Bei günstigen sozioökonomischen und politischen Rahmenbedingungen verzeichnet der Tourismus sowohl auf internationaler als auch auf nationaler Ebene ein beeindruckendes Wachstum. Nach den von der UNWTO veröffentlichten Zahlen (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-58640-3_36 330365ebc480d1c3159d8924d05c3c8f;de;;;7.2.;;;Emotions-Tag-basierter Musikabrufalgorithmus Musik soll Emotionen ausdrücken und durch Tags interpretiert werden. Unterschiedliche Emotions-Tags beschreiben dasselbe Musikstück aus unterschiedlichen Perspektiven. Dieses Papier schlägt einen Musik-Retrieval-Algorithmus vor, der auf den Emotions-Tags der Benutzer basiert. Zuerst erstellen wir einen zweiteiligen Graphen mit Tags auf der einen Seite und Musik auf der anderen, um die semantische Ähnlichkeit zwischen den Tags durch T_SimRank zu berechnen. Zweitens verwenden wir den T_PageRank-Algorithmus, um die Musik-Popularität zu ermitteln. Schließlich, indem wir den Vorteil des Erlernens des Rankings nutzen, kombinieren wir viele Methoden, um die endgültigen Ranking-Ergebnisse zu erhalten. Experimentelle Ergebnisse zeigen, dass unsere Methode besser ist als die traditionelle Cosinus-Ähnlichkeit und die Co_Tags-Ähnlichkeit, und die fusionierte Methode schneidet besser ab als die Einzelmethode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17187-1_56 db394619ab8119d662d12429c4f28b62;de;;;7.2.;;;Partitionsbasierter hierarchischer Index für den Textabruf Zusammen mit der Einzelwortabfrage wird die Phrasenabfrage häufig in der digitalen Bibliothek verwendet. Dieses Papier schlägt eine neue partitionsbasierte hierarchische Indexstruktur für eine effiziente Phrasenabfrage und einen parallelen Algorithmus basierend auf der Indexstruktur vor. In diesem Schema wird ein Dokument in mehrere Elemente unterteilt. Die Elemente sind auf mehrere Prozessoren verteilt. In jedem Prozessor wird ein hierarchischer invertierter Index aufgebaut, mit dem Einzelwort- und Phrasenanfragen effizient beantwortet werden können. Diese Indexstruktur und die Partition machen die Buchungslisten kürzer. Gleichzeitig wird die Integer-Kompressionstechnik effizienter verwendet. Experimente und Analysen zeigen, dass die Auswertungszeit von Abfragen erheblich verkürzt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45160-0_16 3c8746dc5e5926eb5866227e8868729b;de;;;7.2.;;;SC Spectra: Eine weiche Kardinalitäts-Approximation in linearer Zeit für den Textvergleich Die weiche Kardinalität (SC) ist eine abgeschwächte Version der klassischen Kardinalität der Mengenlehre. Aufgrund des unerschwinglichen Rechenaufwands (exponentielle Ordnung) wurde jedoch in der Vergangenheit eine in der Anzahl der Terme im Text quadratische Approximation vorgeschlagen. SC Spectra ist ein neues Verfahren zur linearen Annäherung von Textstrings, das Textstrings in aufeinanderfolgende Teilstrings (d. h. q-Gramm) unterschiedlicher Größe aufteilt. Somit ermöglichte SC in Kombination mit Ähnlichkeitskoeffizienten die Konstruktion einer Familie von Ähnlichkeitsfunktionen für den Textvergleich. Diese Ähnlichkeitsmaße wurden in der Vergangenheit verwendet, um ein Problem der Entitätsauflösung (Namensübereinstimmung) anzugehen, das das SoftTFIDF-Maß übertraf. Die SC-Spektren-Methode verbessert die vorherigen Ergebnisse mit weniger Zeitaufwand und erzielt eine bessere Leistung. Dadurch kann das neue Verfahren auch bei relativ großen Dokumenten eingesetzt werden, wie sie beispielsweise in klassischen Information Retrieval-Sammlungen enthalten sind. Die SC-Spektren-Methode übertraf die Basislinien von SoftTFIDF und Cosinus tf-idf mit einem Ansatz, der keine Termgewichtung erfordert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25330-0_19 02bf6e3dcd32269cb4592a6519dc85e6;de;;;7.2.;;;Bewertung von Simulationsansätzen und Bedarf an MDE in der Energieeffizienz-, Leistungs- und Verfügbarkeitsbewertung von IoT Das Internet der Dinge (IoT) ist ein neuartiges Paradigma, bei dem Entitäten Teil des Internets werden. Es hat konvergierte Technologien in Bezug auf Sensorik, Computer, Informationsverarbeitung, Vernetzung und Steuerung intelligenter Technologien. Zu den konvergierten Technologien zählen drahtlose Sensornetzwerke (WSNs), intelligente Sensorik, Fernerkundung, energiearme drahtlose Kommunikation und Cloud-Computing. Die verteilten Sensornetzwerke werden als verbindende Geräte verwendet, um gemessene Informationen und Steueranweisungen zu übertragen. Daher sind Energieeffizienz und Leistungsfähigkeit von WSNs für IoT-Anwendungen von entscheidender Bedeutung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-93557-7_3 6e3510e71ca3acdc42654adf5745121d;de;;;7.2.;;;Ein auf Antwortvalidierung basierender Ansatz zur Beantwortung von Fragen im biomedizinischen Bereich Angesichts der ständig wachsenden Literatur im biomedizinischen Bereich ist es für Forscher nicht möglich, alle Informationen manuell durchzugehen, um Fragen zu beantworten. Immer wichtiger wird die Aufgabe, in Texten enthaltenes Wissen in Formen zu bringen, die Maschinen zur automatisierten Verarbeitung nutzen können. Dieses Papier beschreibt ein System zur Beantwortung von Multiple-Choice-Fragen für den biomedizinischen Bereich beim Lesen eines bestimmten Dokuments. In dieser Studie verwenden wir die Daten aus der Pilotaufgabe „Maschinelles Lesen von biomedizinischen Texten über die Alzheimer-Krankheit“, die eine Aufgabe des Question Answering for Machine Reading Evaluation (QA4MRE) Lab am CLEF 2012 ist. Wir adaptieren das Konzept der Antwortvalidierung, das geht davon aus, dass die Übergenerierungshypothesen im Validierungsschritt überprüft werden. Im Folgenden wird die Abfrageerweiterungstechnik „Globale Analyse“ angewendet. Das beste Ergebnis ist 0,51;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07455-9_16 7ba689fdedd95db60535707329183648;de;;;7.1.;;;Objektorientierte Modellierung und Analyse von Geschäftsprozessen Viele Probleme innerhalb von Unternehmen sind sowohl auf organisatorische als auch auf technologische Probleme zurückzuführen. Die Integration von Prozessen hinsichtlich Dynamik und Nebenläufigkeit bei der Entscheidungsfindung ist ein Schlüsselelement zur Erreichung von Flexibilität. Veränderte Aufgaben und Zeitrahmen müssen durch neu strukturierte Prozessketten abgebildet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34919-0_8 04c342d749c2b3bd9c28b44e4d635223;de;;;7.1.;;;Dynamische Planung mit Bayesian Network, angewendet in MAS Die Anwendung der Informationstechnologie im Bereich der Biomedizin hat in den letzten Jahren zunehmend an Bedeutung gewonnen. Dieses Dokument stellt ein Multiagentensystem vor, das Agenten mit automatischen Planungsfunktionen basierend auf der CBP-BDI-Architektur (Case Based Planning) (Belief, Desire, Intention) enthält. Dieser Agent schlägt einen neuen Argumentationsagenten-Modellmechanismus vor, der komplexe Prozesse als externe Dienste modellieren kann. Die Agenten fungieren als Web-Services-Koordinatoren, die die vier Phasen des fallbasierten Planungszyklus implementieren. Das Multi-Agenten-System wurde in einem realen Szenario zur Klassifizierung von Leukämiepatienten implementiert. Die erzielten Ergebnisse werden in diesem Papier vorgestellt und zeigen die Wirksamkeit des vorgeschlagenen Organisationsmodells.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12433-4_14 c93ba78ab572da7ec85754b0295c4fbd;de;;;7.1.;;;Macht und Konfliktbeherrschung durch Informationssysteme und IKT In Kapitel I haben wir bereits den engen Zusammenhang zwischen Information und Macht beobachtet, gerade in unserer heutigen wissensintensiven Gesellschaft gilt der Spruch „Information ist Macht“ mehr denn je.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4421-0_8 4a85a35124f26f56e84e510e9b34836b;de;;;7.1.;;;Soziale Online-Transparenz in Unternehmensinformationssystemen: Risiken und Risikofaktoren Unternehmen integrieren soziale Netzwerke in ihre Informationssysteme, um Kollegialität, Situationsbewusstsein, Koordination und Zusammenarbeit zwischen ihren Mitgliedern zu verbessern. Social-Networking-Funktionen können in traditionellen Systemen wie Online-Profil, Kalender, Dashboard, automatische Antwort und Status angezeigt werden. Spezialisiertere Systeme ermöglichen maßgeschneiderte Funktionen zum Deklarieren und Teilen und Abrufen aktueller und vergangener Engagements, Teammitgliedschaften, zugewiesener Aufgaben und Prioritäten. Eine solche soziale Transparenz ist in der Regel freiwillig und nicht streng durch organisatorische Governance und Normen verankert. Trotz seiner positiven Konnotationen können daraus negative Folgen wie Informationsüberflutung, soziales Faulenzen und unerwünschter Druck resultieren. Wir haben eine mehrstufige qualitative Studie mit Fokusgruppen, Interviews und Beobachtungen durchgeführt, um die soziale Online-Transparenz zu konzeptualisieren und die Risiken zu untersuchen, die sich aus einer nicht gesteuerten Implementierung ergeben. Unsere Forschung zielt darauf ab, den ersten Schritt zu einer systematischen Methode zur Risikoidentifikation und -minderung rund um die soziale Online-Transparenz zu bieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37632-1_9 8725810d1b320c6209337c8c18274d49;de;;;7.2.;;;Abrufen von Begriffen und ihren Varianten in einem lexikalisierten Vereinheitlichungs-basierten Framework Die Begriffsextraktion ist ein wichtiges Anliegen bei der Informationsbeschaffung. Begriffe sind keine festen Formen und ihre Variationen verhindern, dass sie durch eine Übereinstimmung mit ihrer anfänglichen Zeichenfolge oder Flexion identifiziert werden. Wir zeigen, dass ein lokaler syntaktischer Ansatz für dieses Problem gute Ergebnisse sowohl für die Qualität der Identifizierung als auch für die Parsing-Zeit liefern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-2099-5_14 5bee184115f2b62a8398ac93b7319c3d;de;;;7.2.;;;Bewertung der Qualität unbeaufsichtigter Themen in Songtexten Wie nützlich sind Themenmodelle auf der Grundlage von Liedtexten für Anwendungen beim Abrufen von Musikinformationen? Unüberwachte Themenmodelle auf Textkorpora sind oft schwer zu interpretieren. Anhand einer großen Songtextsammlung untersuchen wir, wie gut automatisch generierte Topics mit manuellen Topic-Annotationen zusammenhängen. Wir schlagen vor, die Kurtosis-Metrik zu verwenden, um unüberwachte Themen mit einem Referenzmodell überwachter Themen abzugleichen. Diese Metrik ist gut für Themenbewertungen geeignet, da sie stärker mit manuellen Themenqualitätswerten korreliert als bestehende Maße für semantische Kohärenz. Wir zeigen auch, wie es für eine detaillierte grafische Bewertung der Themenqualität verwendet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06028-6_55 920120423585fe9331a5f148f79a5668;de;;;7.2.;;;Ein passender Algorithmus für den elektronischen Datenaustausch Eines der Probleme beim tatsächlichen elektronischen Handel liegt in der Datenheterogenität (d. h. Format und Wortschatz). Diese Darstellungsinkompatibilität, insbesondere im EDI (Electronic Data Interchange), wird manuell mit Hilfe eines menschlichen Experten verwaltet, der die Verwendungsrichtlinie jeder zu übersetzenden Nachricht konsultiert. Diese Handarbeit ist mühsam, fehleranfällig und teuer. Das Ziel dieser Arbeit ist es, die semantische Korrespondenzerkennung zwischen den EDI-Nachrichten verschiedener Standards durch die Verwendung von XML-Schema als Pivot-Format teilweise zu automatisieren. Dieser halbautomatische Schemaabgleichsalgorithmus verwendet zwei Schemata von EDI-Nachrichten als Eingabe und berechnet die grundlegende Ähnlichkeit zwischen jedem Elementpaar durch Vergleich ihrer Textbeschreibung und des Datentyps. Dann berechnet es den strukturellen Ähnlichkeitswert basierend auf den strukturellen Nachbarn jedes Elements (Vorfahren, Geschwister, unmittelbare Kinder und Blattelemente) mit einer Aggregationsfunktion. Die grundlegende Ähnlichkeit und die strukturellen Ähnlichkeitswerte werden bei der paarweisen Elementähnlichkeitsberechnung verwendet, die der endgültige Ähnlichkeitswert zwischen zwei Elementen ist. Das Papier zeigt auch einige Implementierungsprobleme und ein Testszenario für EX-SMAL mit Nachrichten aus den EDIFACT- und SWIFT-Standards.;-;-;-;https://link.springer.com/chapter/10.1007/11607380_4 e0afe121d633c7a57396b88a6eba77dc;de;;;7.2.;;;MatchMySound: Feedback zur Online-Musikausbildung Die schnelle Verbreitung des Internets hat die Musikausbildung, die einst nur die Domäne der reichen Elite war, einer beispiellosen Anzahl von Menschen auf der ganzen Welt zugänglich gemacht. Da Privatunterricht jedoch immer noch teuer ist, lernen die meisten Menschen derzeit ein Instrument ausschließlich auf der Grundlage von Einweg-Lehrmaterialien, die ohne Feedback informieren. In diesem Artikel beschreiben und implementieren wir ein System, mit dem interaktive Übungen zu webbasierten Selbstlernmaterialien hinzugefügt werden können, die durch Vergleich mit dem vom Lehrer gespielten Beispiel sofortiges Feedback zum Spiel der Schüler geben. Um die Qualität des vom System erzeugten Feedbacks zu bewerten, wird seine Bewertung mit zwei Lehrern auf Konservatoriumsniveau bei 216 Gitarrenübungsversuchen von 108 Anfänger-Hobbygitarristen verglichen. Die Ergebnisse zeigen, dass das System sehr vielversprechend ist, da seine Noten recht gut mit den Noten der menschlichen Lehrer übereinstimmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13296-9_24 4619cebe9af0901d8adc2123452c0edd;de;;;7.2.;;;Abgleich von Objekteigenschaften unter Verwendung der Überlappung zwischen importierten Ontologien Verknüpfte Daten im großen Maßstab basieren häufig auf relationalen Datenbanken und werden daher tendenziell mit umfangreichen Objekteigenschaften modelliert, die die genaue Beziehung zwischen zwei Objekten spezifizieren, anstatt eine generische is-a- oder part-of-Beziehung. Wir untersuchen dieses Phänomen an von der Regierung herausgegebenen statistischen Daten, bei denen ein berechtigtes Interesse daran besteht, solche Objekteigenschaften für die Datenintegration abzugleichen. Dabei machen wir uns zu Nutze, dass die Kennzeichnung der Objekte zwar oft heterogen ist, z.B. ex1:geo und ex2:location verlinken sie auf Individuen semantisch ähnlicher Codelisten, z.B. Länderlisten. Moderne Ontologie-Matching-Tools nutzen diesen Effekt nicht und neigen daher dazu, die möglichen Übereinstimmungen zu übersehen. Wir verbessern den modernen Matching-Prozess, indem wir die Individuen solcher importierten Ontologien separat ausrichten und die Überlappung zwischen ihnen berechnen, um den Matching der Objekteigenschaften zu verbessern. Die Matcher selbst werden als Blackboxen verwendet und sind somit austauschbar. Die neuen Übereinstimmungen, die mit dieser Methode gefunden wurden, führen zu einer bis zu 2,5-fachen Erhöhung des Wiederaufrufs bei realen Daten bei nur geringem Präzisionsverlust.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07443-6_49 9f0e680415fbce1ff6c3f78a92a8c278;de;;;7.1.;;;Architekturbasierte IT-Portfoliobewertung Dieses Papier beschreibt die Bestandteile einer integrierten IT-Bewertungsmethode, die Architekturmodelle als Rückgrat verwendet. Zunächst untersucht es die Verbindung zwischen der Mission und Vision der Organisation und der übergeordneten Strategie, wie dem Value-Center-Ansatz und dem Betriebsmodell. Diese strategischen Entscheidungen bestimmen die Aspekte, die bei der Bewertung des Wertes des IT-Portfolios berücksichtigt werden müssen. Die daraus resultierenden Geschäftsanforderungen können in Verbindung mit der Unternehmensarchitektur der Organisation modelliert werden. Dies liefert konkrete Einblicke in den Beitrag dieser Elemente zum Geschäft. KPIs werden dann mit Geschäftsanforderungen einerseits und Architekturelementen andererseits verknüpft und die Messung dieser KPIs bestimmt die operative Leistung der Organisation und ihrer IT. Der Beitrag verwendet eine Implementierung der Bedell-Methode zur Veranschaulichung dieses Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16770-6_4 10adaa12c188bc298461611ba9daa51b;de;;;7.2.;;;Semantikbasiertes Empfehlungssystem mit Human Feeling Relevance Measure Diese Arbeit stellt ein Empfehlungssystem für Wirtschaftsnachrichtenartikel vor. Seine Ziele sind dreifach: (i) Verwaltung des Vokabulars des Wirtschaftsnachrichtenbereichs, um das System basierend auf der nahtlosen Intervention des Dokumentaristen zu verbessern, (ii) automatische Mehrfachklassifizierung der neuen Wirtschaftsartikel und Benutzerprofile basierend auf dem Domänenvokabular iii) die Artikel empfehlen, indem sie die Mehrfachklassifizierung der Artikel und Profile der Benutzer vergleichen. Es gibt zwar mehrere Lösungen, um Nachrichten zu empfehlen, Dokumente mehrfach zu klassifizieren und Darstellungen von Artikeln und Profilen zu vergleichen. Sie sind nicht automatisch anpassbar, um eine gegenseitige Antwort auf die vorherigen Punkte zu geben. Darüber hinaus fehlt den bestehenden Ansätzen eine wesentliche Korrelation mit der menschlichen und insbesondere der dokumentarischen Perspektive.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-14654-6_11 1bb431aa03bc3915c09558d1595ba157;de;;;7.1.;;;Integration einer flachen holonischen Form in eine HLA-Umgebung Manager müssen interne Systeme und Kontrollen schaffen und aufrechterhalten, um sicherzustellen, dass ihre kundenorientierten Strategien umgesetzt werden. Unternehmen befinden sich derzeit in einer Spirale der permanenten Optimierung. Dementsprechend wenden sich viele Unternehmen ihrem Kerngeschäft zu. In diesem Rahmen fällt die Entwicklung des Konzepts der „Industriepartnerschaft“ auf. In diesem Zusammenhang und zur Steuerung der Kunden-Lieferanten-Beziehungen (CSR) haben wir ein selbstorganisiertes Kontrollmodell vorgeschlagen, bei dem alle Partnerunternehmen (Kunden/Lieferanten) verhandeln, um eine gute Qualität der Verbindungen zwischen Kunden und Lieferanten zu gewährleisten. Dies bedeutet, die Kundenerwartungen so gut wie möglich zu erfüllen und die Kapazitäten der Lieferanten zu respektieren. In diesem Vorschlag ist die selbstorganisierte Kontrolle genauer durch eine Organisationsarchitektur vom Typ der flachen holonischen Form gekennzeichnet. Diese flache holonische Form basiert auf dem Konzept der autonomen Kontrollinstanz (ACE). Die holonische Architektur, das Verhalten eines ACE, die Interaktionsmechanismen zwischen ACEs und der Selbstbewertungslieferantenprozess werden vorgestellt und anschließend wird die Modellierung von ACEs mittels Discrete Event System Specification (DEVS) beschrieben. Eine Implementierung der Simulation eines solchen Systems erfolgte über eine verteilte Simulationsumgebung High Level Architecture (HLA). Eine Fallstudie zur Veranschaulichung des vorgeschlagenen Ansatzes wird vorgestellt.;-;-;-;https://link.springer.com/article/10.1007/s10845-008-0106-4 7da1096e7137acebf6a99f6739a94489;de;;;7.1.;;;Herausforderungen bei der Produktionssteuerung in der Lebensmittel- und Eisenindustrie Ein Vergleich der Lebensmittelindustrie in Holland mit der Eisenindustrie in Dänemark zeigt eine große Ähnlichkeit in mehreren Bereichen wie der Auftragsabwicklung, der Lieferpräzision und der Produktionsplanungsstruktur. Die Lebensmittel- und die Eisenindustrie werden traditionell nicht verglichen, aber aufgrund der Entwicklung innerhalb der Lebensmittelindustrie hin zu kundenspezifischen Marken und der Entwicklung in der Eisenindustrie hin zu einer generischen Produktion von nicht kundenspezifischen Teilen nähern sich beide Branchen der gleichen Situation . Dieser Beitrag diskutiert die Entwicklung beider Branchen und stellt ähnliche Entwicklungen in mehreren Bereichen vor: Einengung der Planungsebenen, neue Kontrollstrukturen und Anforderungen an zukünftige Produktionsplanungssysteme. Das Papier ist eine erweiterte Version eines ausgewählten Papiers der WG5.7 APMS‘96 Konferenz in Kyoto, Japan (ISBN: 4-915740-20-X).;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35304-3_26 566cdb6c052bf5ca9f815a5cc1a773bb;de;;;7.1.;;;Ansätze zur Reiseplanung mobiler Agenten in drahtlosen Sensornetzwerken – Stand der Technik und aktuelle Herausforderungen Ein allgegenwärtiges eingebettetes Netzwerk, wie ein drahtloses Sensornetzwerk (WSN), zeichnet sich durch seine Fähigkeit aus, gemeinsame Aufgaben durch gemeinsame Nutzung von Ressourcen auszuführen, die in Knoten- oder Netzwerkdomänen platziert sind. Eine der kritischsten Eigenschaften eines auf mobilen Agenten (MA) basierenden drahtlosen Sensornetzwerks ist die Gestaltung der Reiseroute durch das WSN für mobile Agenten. Darüber hinaus wird aufgrund der Knotendichte und -platzierung eine riesige Menge an redundanten Daten von Sensoren erzeugt. Dies verbraucht Netzwerkressourcen wie Bandbreite und Energie, wodurch die Lebensdauer des Sensornetzwerks verkürzt wird. Mehrere Studien haben die Vorteile des Einsatzes der Mobile-Agent-Technologie als wirksame Technik zur Überwindung dieser Einschränkungen gezeigt. MA-Reiseroutenplanungstechniken können in Abhängigkeit von den Faktoren, die die Route der MA definieren, in drei Kategorien eingeteilt werden: statische Reiseroute, dynamische Reiseroute und hybridbasiert. Dieses Papier präsentiert einen Überblick über die modernsten MA-Reiseplanungstechniken in WSN. Die Vorteile und Unzulänglichkeiten verschiedener MA-Reiseplanungsansätze werden als Motivation für die zukünftige Arbeit an einem energieeffizienten MA-Reiseplanungsmechanismus dargestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-52569-3_13 46e38733cd0d28dc15dcfe439265a766;de;;;7.1.;;;Statisches Integritätsmanagement in objektorientierten Datenbanken: Design und Implementierung In diesem Papier schlagen wir eine effiziente Technik vor, um Integritätsbeschränkungen in objektorientierten Datenbankprogrammiersprachen statisch zu verwalten. Wir stellen uns in den Kontext einer vereinfachten Datenbankprogrammiersprache, nahe O;-;-;-;https://link.springer.com/chapter/10.1007/BFb0100993 ab346bbc0fe43a8c0b0cab56f2e59b2d;de;;;7.1.;;;Die Anwendung fortschrittlicher Fertigungstechnologie in Neuseeland Das Papier fasst die Arbeit der Manufacturing Systems Research Group an der University of Auckland zusammen. Die Gruppe verfügt über starke Forschungsaktivitäten in den Bereichen Computer-Integrated Manufacturing (CIM), Machine Vision, Simulation und künstliche Intelligenz und bietet einen Forschungsschwerpunkt für die technologische Entwicklung der neuseeländischen Fertigungsindustrie. Die Forschungsaktivitäten konzentrieren sich auf Bereiche, die komplementär zu internationalen Entwicklungen sind, um die traditionellen Stärken der Branche, wie die Fähigkeit, Kleinserien zu bewältigen, sowie ihre Vielseitigkeit und Anpassungsfähigkeit an neue Fertigungsanforderungen zu stärken.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-13255-3_38 14376d21979ab968358d43496928e55b;de;;;7.2.;;;Entwicklung von Soft- und Hardware von Entry-Level-Vision-Systemen für Navigationsaufgaben und Messen Der Artikel beschreibt methodische und praktische Aspekte zur Ausstattung mobiler Einrichtungen mit Computer Vision Systemen zur Lösung von Navigations- und Messaufgaben. Es gibt ein Gesamtschema der Software- und algorithmischen Unterstützung des integrierten Informationssystems basierend auf Computer Vision für mobile Einrichtungen. Dort wurden Prinzipien des Aufbaus solcher Systeme beschrieben und mögliche Optionen für Software- und Hardwareanordnungen bereitgestellt. Es wurden Fragen zur Automatisierung der Kalibrierung einiger Komponenten der Messstrecke und der Verbindung verschiedener heterogener Systeme hervorgehoben. Es gibt Beispiele für die Implementierung eines integrierten Informationssystems für Navigations- und Messaufgaben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37374-9_45 9d41ee5008a36d1e779db15015f2b57d;de;;;7.2.;;;Die Anwendbarkeit verallgemeinerter Einschränkungen bei der räumlich-zeitlichen Datenbankmodellierung und -abfrage Aus formaler Sicht kann ein Constraint als eine Beziehung gesehen werden, die erfüllt werden muss. In Bezug auf die Daten- und Informationsmodellierung bieten Beschränkungen ein deklaratives und elegantes Mittel zur effizienten Darstellung von Daten. Darüber hinaus unterstützen Beschränkungen die Definition der Datensemantik. Zum Beispiel die Menge der gültigen Temperaturen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-09968-1_7 248a8c28e8100f23a76f40f856c2b43e;de;;;7.1.;;;Das Know-Net-Tool Um die Designziele und Architekturentscheidungen, die bei der Entwicklung des Know-Net-Tools getroffen wurden, zu verknüpfen, wird in diesem Abschnitt kurz die informations- und kommunikationstechnische Unterstützung des Wissensmanagements (KM) anhand der Wissenskonversionsprozesse von Nonaka und Takeuchi (1995). Dieser Prozess unterscheidet zwischen vier Modi der Wissenstransformation und des Wissensflusses zwischen implizitem und explizitem Wissen: Sozialisation (von implizit zu implizit), Externalisierung (von implizit zu explizit), Kombination (von explizit zu explizit) und Internalisierung (von explizit zu implizit). (Abbildung 4.1). Welche Arten von Softwaretools könnten nützlich sein, um diese Art des Wissenstransfers zu unterstützen?;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0069-0_4 0463592504af733699bdd3d75783e647;de;;;7.1.;;;Ontologien für Interoperabilität Das Ziel dieses Kapitels ist es, den Lesern zu helfen, zu verstehen, wie Ontologien verwendet werden können, um die Interoperabilität zwischen heterogenen Informationssystemen zu verbessern. Wir verstehen;-;-;-;https://link.springer.com/chapter/10.1007/978-0-85729-724-2_3 978bb319f361917938a327b0b0585672;de;;;7.1.;;;Integration von PLM-, MES- und ERP-Systemen zur Optimierung von Engineering, Produktion und Business Im Zeitalter von Industrie 4.0 ist der Schlüsselfaktor für den Erfolg eines Unternehmens die Zusammenarbeit der verschiedenen Abteilungen, um Wissen und Informationen auszutauschen und so Zeit und Kosten zu optimieren. In Unternehmen sind in der Regel drei IT-Kernsysteme vorhanden: Product Lifecycle Management (PLM), Manufacturing Execution System (MES) und Enterprise Resource Planning (ERP). PLM verwaltet Produkt- und Prozessdesigninformationen, MES überwacht und steuert die Ausführung des Fertigungsprozesses in der Werkstatt, und ERP verfolgt Geschäftsressourcen und den Status von Geschäftsverpflichtungen. Dieses Papier beschreibt den Integrationsprozess zur Optimierung der Engineering-, Produktions-, Geschäfts- und Managementaktivitäten in einem produzierenden Unternehmen, das nach dem One-of-a-Kind-Production (OKP) arbeitet. Es erklärt die Architektur einer solchen Integration sowie die angewandte Methodik für die Anpassung der im Unternehmen verfügbaren PLM-, MES- und ERP-Systeme. Darüber hinaus hebt das Papier die spezifischen Lösungen hervor, die entwickelt wurden, um das Datenmanagement der verschiedenen Systeme sowie die IoT-Technologie zur Unterstützung der Datenkommunikation zu integrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-62807-9_7 0dfd68b2b684e98ecb154a16eca46732;de;;;7.2.;;;Struktur in einer Dokumentensammlung finden Vorhersagemethoden betrachten gespeicherte Beispiele mit richtigen Antworten und Projektantworten für neue Beispiele. Man würde erwarten, dass der Prozess nicht abgeschlossen werden kann, wenn wir keine Antworten für die Trainingsbeispiele erhalten. Angesichts einer Sammlung von Dokumenten haben wir kein Problem damit, den unstrukturierten Satz von Wörtern für jedes Dokument in eine strukturierte Tabelle umzuwandeln. Aber auch die letzte Spalte muss ausgefüllt werden. In Abbildung 5.1 sehen wir eine Tabelle, eine Liste mit Beschriftungen und die Tabellenspalte mit den beschrifteten Antworten. Jemand muss eine Liste potenzieller Labels erstellen. Angesichts der Liste weist jemand den Dokumenten Labels zu. Manchmal kann die Zuweisung von Labels automatisiert werden, z. B. das Label, dass der Aktienkurs eines Unternehmens gestiegen ist. In den meisten Fällen, z. B. bei der Zuweisung von Themen zu Nachrichtenartikeln, wird die Zuweisung von Labels von Menschen vorgenommen, und dies kann eine mühsame und teure Aufgabe sein. Gibt es eine Möglichkeit, einer Dokumentensammlung automatisch Labels zuzuweisen? Wir werden diese Aufgabe besprechen. Es werden nicht nur die Labels vergeben, sondern auch die Labelliste automatisch ermittelt. Da solche Schlüsselinformationen in der Problembeschreibung fehlen, sollten unsere Erwartungen an eine genaue Vorhersageleistung von Standardvorhersageanwendungen mit gekennzeichneten Daten reduziert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34555-0_5 b6d58fd475943f1b5f7b9dbcf733aa43;de;;;7.2.;;;Themenset-Größengestaltung mit den Bewertungsmaßstäben für kurze Textgespräche Short Text Conversation (STC) ist eine neue NTCIR-Aufgabe, die sich mit der folgenden Forschungsfrage befasst: Können Systeme einen alten Kommentar aus dem Repository bei einem gegebenen Mikroblog-Repository und einem neuen Beitrag zu diesem Mikroblog wiederverwenden, um den Autor des neuen Beitrags zufrieden zu stellen? Die offiziellen Bewertungsmaßnahmen des STC sind;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-28940-3_25 2337b8d20d572a76b002dd3fbeaee698;de;;;7.1.;;;Das Potenzial einer netzwerkzentrierten Lösung für Nachhaltigkeit in Geschäftsprozessen Aufgrund des zunehmenden Drucks durch internationale Regulierung, Kunden und andere Interessengruppen erleben Unternehmen zunehmend die Notwendigkeit, Nachhaltigkeitsaspekte in ihre Kerngeschäftsprozesse und ihren täglichen Betrieb zu integrieren. Dazu benötigen sie Softwarelösungen, die die Erfassung, Analyse und Einbindung von Nachhaltigkeitsindikatoren in die richtigen Prozesse in ihren Betrieben vereinfachen. Die vorherrschenden Systeme sind jedoch unternehmenszentriert in dem Sinne, dass sie im Besitz eines einzigen Unternehmens sind und von diesem verwendet werden, das die Daten aus verschiedenen Quellen sammelt und für seine internen Entscheidungen verwendet. In diesem Beitrag werden drei exemplarische Anwendungsfälle beschrieben, in denen Nachhaltigkeit eine zentrale Rolle spielt, und einen Überblick über die wesentlichen Probleme des aktuellen Stands der Technik gegeben. Im zweiten Teil des Papiers wird ein neuer Ansatz für den Austausch von Nachhaltigkeitsindikatoren vorgestellt, der es vielen Anbietern und Verbrauchern von Umweltdaten ermöglicht, sich mit einer gemeinsamen Plattform zu verbinden und diese zu nutzen. Abschließend analysiert der Beitrag die potenziellen Risiken und Vorteile der Einführung einer solchen Netzwerkplattform und veranschaulicht anhand der drei Business Use Cases die sich daraus ergebenden Chancen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27488-6_11 bd354f1f0e7fa97ea6c9fc6f054d48c9;de;;;7.1.;;;Digital Manufacturing – die Entwicklungsrichtung der Fertigungstechnologie im 21. Nach der Einführung in die Konzepte der digitalen Fertigungstechnologie wird in dem Beitrag der disziplinäre Rahmen der digitalen Fertigung vorgestellt, indem dessen Grundkonzept, Theoriegrundlage, Schlüsseltechnologie und wissenschaftliche Probleme detailliert diskutiert werden. Als Kern der fortschrittlichen Fertigungstechnologie entwickelt sich die digitale Fertigung nach und nach zur wichtigsten Fertigungstechnologie des 21. Jahrhunderts. Zunächst werden die Hauptmerkmale der digitalen Fertigung aufgezeigt und ihre wichtigsten unterstützenden Technologien untersucht, indem sie in vier Ebenen in Bezug auf Produktentwicklung, numerische Steuerung, Produktionsmanagement bzw. Unternehmenszusammenarbeit gruppiert werden. Darüber hinaus werden die bestehenden Probleme in der Forschung zur multidisziplinären Theoriegrundlage der digitalen Fertigung wie Fertigungsinformatik, Computational Manufacturing und Manufacturing Intelligence aufgezeigt. Anschließend werden die wissenschaftlichen Kernprobleme der digitalen Fertigung eingehend erörtert, wobei der Schwerpunkt auf der Digitalisierung von Fertigungsinformationen, der Modellierung von Fertigungsbeschränkungen, der Hochgeschwindigkeits- und hochpräzisen numerischen Steuerungstheorie sowie der internetbasierten Zusammenarbeit und Integration liegt. Abschließend werden die Entwicklungstrends und Anwendungsperspektiven der digitalen Fertigung abgeschlossen.;-;-;-;https://link.springer.com/article/10.1007/s11465-006-0021-3 ffd9fa3a73fbf0478821799491025e2e;de;;;7.1.;;;Proaktive Wissensbereitstellung für Enterprise Knowledge Management Ein Überblick über die aktuellen Trends in modernen Unternehmen motiviert die zentralen Anforderungen an das Wissensmanagement und dessen Unterstützung durch Informationstechnologie. Wir veranschaulichen proaktive Wissensvermittlung und kontextsensitive Informationsbeschaffung durch die Präsentation des KnowMore-Systems. Dieser Prototyp realisiert eine aktive Unterstützung durch die Bereitstellung relevanter Informationen zu aktuellen Aufgaben in Unternehmen, die von einem Workflow-System verwaltet werden. Wir identifizieren die Schlüsselkonzepte, die repräsentiert werden müssen, um mit der bestehenden Heterogenität umzugehen. Wir skizzieren die Architektur des Systems und beleuchten einige Implementierungsdetails.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0101416 d582f14f4cd4bad22060637e38183374;de;;;7.1.;;;Die Rolle des Kontexts bei der Entscheidungsfindung: einige Implikationen für das Datenbankdesign Mit zunehmender Integration von Computersystemen durch lokale und weiträumige Kommunikationsnetze besteht in vielen Organisationen die Möglichkeit, Informationen aus Datenbanken abzurufen, um sie zu unterstützen;-;-;-;https://link.springer.com/article/10.1057/palgrave.ejis.3000261 26a0d53280efefb233fdf9066bfc94f5;de;;;7.1.;;;Was ist in einer Beziehung? Zur Unterscheidung von Eigentumsbesitz und Objektbindung Dieses Papier schlägt Verbesserungen der zugrunde liegenden Daten- oder Meta-Metamodelle vor, die zur Darstellung von Informationssystemen und IS-Entwicklungsmethoden verwendet werden. Es konzentriert sich auf die Modellierung von Zusammenhängen mit besonderem Bezug auf CASE und Methodik Engineering. Bestehende Modelle werden untersucht und einige Probleme identifiziert, die sich aus der Verwechslung des Verbindungsaspekts von Beziehungen mit ihrem Eigentumsaspekt ergeben. Als Lösung wird die Trennung von Beziehungsattributen von Informationen darüber vorgeschlagen, welche Objekte sie verknüpfen, und ein Bindungskonzept wird vorgeschlagen, um die Verknüpfungsinformationen zu modellieren. Das verbesserte Modell wird theoretisch, semantisch und praktisch an drei Metamodellen getestet.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34870-4_15 1be90885b27a38a84a7a21f71b2c53db;de;;;7.1.;;;Standardisierung im eGovernment managen: Ein auf Koordinationstheorie basierendes Analyse-Framework Für ein reibungsloses organisatorisches, semantisches, technisches und rechtliches Zusammenwirken von eGovernment-Diensten spielt die Standardisierung eine wichtige Rolle. Dennoch kämpft die Standardisierung mit der Komplexität der Verwaltungsverfahren, die unterstützt und online bereitgestellt werden müssen. Die Bewältigung dieser Komplexität stellt eine entscheidende Herausforderung für ein effizientes und effektives eGovernment dar. Es wurden unterschiedliche Management-Frameworks entwickelt, aber der Fortschritt der Standardisierung in der Praxis wird noch immer als unzureichend wahrgenommen. Um der Herausforderung des Standardisierungsmanagements im eGovernment zu begegnen, schlagen wir einen auf Koordinationstheorie basierenden Analyserahmen vor. Es besteht aus drei Koordinationsmodi, die sich nach ihren Mechanismen und relevanten Kontextdimensionen unterscheiden. In unserem Forschungsansatz interpretieren wir eine Einzelfallstudie eines Standardisierungsprojekts in Deutschland, bei dem Artefakte aus pragmatischer Perspektive entwickelt wurden. Wir diskutieren unsere Ergebnisse und schließen daraus Implikationen für Forschung und Praxis.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98690-6_6 cba1e42f6ccabad722a9b8e6b6ed7f55;de;;;7.2.;;;Beurteilung der Qualität der Bildsegmentierung – Konzepte, Methoden und Anwendung Die Bildsegmentierung ist ein entscheidender Schritt in der Informationsgewinnungskette der Fernerkundung. Als Schritt vor der Klassifikation ist die Qualität des Segmentierungsergebnisses von grundlegender Bedeutung. Dieser Beitrag gibt einen Überblick über bestehende Verfahren zur Bewertung der Bildsegmentierungsqualität. Darüber hinaus werden sieben aktuelle Programme für Fernerkundungsbilder vorgestellt und deren Ergebnisse basierend auf sehr hochauflösenden IKONOS-Daten mit einem empirischen Diskrepanzverfahren ausgewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77058-9_42 7ab9256737d0c88c5471b1a311ba9237;de;;;7.2.;;;SchenQL: Evaluation einer Abfragesprache für bibliografische Metadaten Der Zugriff auf Informationen muss unkompliziert sein, da Benutzer möglicherweise nicht von komplexen und potenziell reichhaltigeren Daten profitieren, die möglicherweise weniger leicht zu erhalten sind. Die Nachfrage eines Benutzers nach der Beantwortung komplexerer Forschungsfragen einschließlich Aggregationen könnte durch den Einsatz von SQL erfüllt werden. Dies geht jedoch mit dem Preis einer hohen Komplexität einher, die auch für geschulte Programmierer ein hohes Maß an Know-how erfordert. Eine domänenspezifische Abfragesprache könnte eine einfache Lösung für dieses Problem bieten. Obwohl weniger generisch, ist es wünschenswert, dass Benutzer, die mit der Abfragekonstruktion nicht vertraut sind, bei der Formulierung komplexer Informationsbedürfnisse unterstützt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-64452-9_30 d2a585979cd48d28126321a958b06d5a;de;;;7.2.;;;Aufrechterhaltung des Vertrauens in Cloud Computing durch SLA-Überwachung Das Vertrauen in Cloud Computing aufrechtzuerhalten ist aufgrund der Dynamik des Cloud Computing und der Fragilität des Vertrauens eine große Herausforderung. Vertrauen kann aufgebaut werden, indem erfolgreiche Transaktionen durchgeführt und alle Parameter des zwischen zwei interagierenden Parteien erstellten Service Level Agreements (SLA) erfüllt werden. Vertrauen kann durch kontinuierliche Überwachung dieser vordefinierten SLA-Parameter aufrechterhalten werden. Es gibt eine Reihe von Kommentaren zur SLA-Überwachung, die verschiedene Rahmenbedingungen für die proaktive oder reaktive Erkennung von SLA-Verstößen beschreiben. Ziel dieser Arbeit ist es, einen Überblick über die Literatur zu geben und eine vergleichende Analyse des SLA-Monitorings im Hinblick auf die Vertrauenspflege im Cloud Computing vorzunehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12643-2_83 f014368c76851e0948d509bc3983cc3a;de;;;7.1.;;;Fertigungsflexibilität Fertigungsflexibilität könnte sich auf die Fähigkeit eines Fertigungssystems beziehen, sich erfolgreich an sich ändernde Umgebungsbedingungen sowie sich ändernde Produkt- und Prozessanforderungen anzupassen. Es könnte sich auf die Fähigkeit des Produktionssystems beziehen, die durch die Umgebung induzierte Instabilität erfolgreich zu bewältigen. Flexibilität, bietet dem Produktionswerk die Möglichkeit, die Kundenzufriedenheit und Rentabilität unter Bedingungen von Veränderungen und Unsicherheit aufrechtzuerhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-1705-4_11 fd4af6e1b3dbe303222460bc862d87ba;de;;;7.1.;;;Bewertungstool für Designsysteme Im Jahr 2010 wurde eine explorative Umfrage mit Schwerpunkt auf Entwurfsmethoden, -werkzeugen und -techniken durchgeführt, um zu verstehen, welche Art von Entwurfsverfahren in kleinen und mittleren Unternehmen (KMU) in Ost-Quebec verwendet werden. Diese Studie zeigt, dass die meisten KMU angaben, einen strukturierten Designprozess zu verwenden, während nur sehr wenige regelmäßige Benutzer von strukturierten Methoden, ausgeklügelten Tools oder spezialisierten Designtechniken (MTT) sind. Da die Ergebnisse darauf hindeuten, dass der Gestaltungsprozess in KMU nicht so strukturiert ist, wie man es erwarten könnte, wurde eine neue Studie gestartet. Konkret besteht das Forschungsziel darin, die wichtigsten Determinanten der Entwurfsleistung zu identifizieren und Indikatoren zur Bewertung des Entwurfsprozesses sowie der anderen Dimensionen von Entwurfsprojekten zu entwickeln. In diesem Modell beschreiben sechs Dimensionen das sogenannte Designsystem: die Umweltdimension, die human- und technisch-wissenschaftliche Achse, das Management, der Designprozess und die Produktaspekte. Die Dimensionen werden anhand einer Reihe von Variablen (Deskriptoren) bewertet, um das „Designsystem“ einer Organisation zu bewerten. Jeder Deskriptor bezieht sich auf die folgenden Aspekte: (i) die Art der von der Organisation verwendeten Methoden, Werkzeuge und Aktivitäten, (ii) die Bedeutung des Deskriptors in Bezug auf den Projekterfolg, (iii) das Leistungsniveau der Organisation in diesem Bereich Angelegenheit und (iv) die Beteiligung der Partner. Der Fragebogen wurde von acht Partnern pilothaft getestet und weiterentwickelt. Neben dem Modell und dem Fragebogen bietet der Beitrag einen Überblick über die Umfrageergebnisse und veranschaulicht, wie das Bewertungstool verwendet werden kann, um die Herausforderungen zu identifizieren, denen sich ein Unternehmen stellen muss, um seine Designpraktiken zu verbessern. Schließlich zeigt er die Stärken und Schwächen des Fragebogens auf und identifiziert die Verbesserungen, die zuvor vorgenommen werden müssen, um ihn als Grundlage für eine Beobachtungsstelle zu verwenden, die die Entwicklung der Designpraktiken von Organisationen messen und überwachen soll.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35758-9_32 903fd81ff4c75ae748e529b504479990;de;;;7.1.;;;Geschäftsmodelle für fortschrittliche IKT in der Logistik Diese wissenschaftliche Arbeit erklärt, wie IKT zusammen mit einem innovativen Geschäftsansatz Lieferketten verbessern kann. Die präsentierten Ergebnisse stammen aus der Anwendung einer neuartigen Methodik, die entwickelt wurde, um die Entwicklung der Geschäftsmodelle verschiedener Geschäftsakteure zu untersuchen, die zu einem Geschäftsökosystem gehören, das sich auf komodale Logistiknetzwerke konzentriert. Jeder Akteurstyp verfolgt sein eigenes Wertesystem auf der Grundlage der Schlüsselelemente, die die Art seiner Aktivitäten und Geschäfte identifizieren und charakterisieren. Der Fokus der Geschäftsmodelle liegt auf den Schlüsselelementen, die die Wertschöpfungsbeziehungen zwischen den beteiligten Akteuren in der vorgeschlagenen Logistik-Referenzwertschöpfungskette charakterisieren. Die vorgestellte Arbeit konzentriert sich auf die Erweiterung und Erforschung der traditionellen Konzepte von Geschäftsmodellen, die ihre Entwicklung im Hinblick auf das zukünftige Geschäftsumfeld zeigen. Zwei Fallstudien werden vorgestellt, um die Entwicklung der Geschäftsmodelle der beteiligten Logistikakteure in einem Business Ecosystem praxisnah aufzuzeigen und konkrete Beispiele aus Industrien zu präsentieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-17419-8_2 812de02805cf71db835a6722f3b79559;de;;;7.1.;;;Bewertungsrahmen für die Prozessplanung Um Prozessplanungsaktivitäten zu rationalisieren oder die Ergebnisse der Prozessplanung zu verbessern, haben sich verschiedene Prozessplanungsansätze mit unterschiedlichem Grad an computergestützter Unterstützung und Automatisierung etabliert. Diese Ansätze reichen von allgemeinen bis hin zu sehr speziellen Ansätzen für spezifische Probleme und haben spezifische Vor- und Nachteile. Sowohl bei der Entwicklung neuer Ansätze als auch bei der Auswahl bestehender für die Anwendung im Feld müssen deren Eigenschaften umfassend berücksichtigt werden. Die bisherige Forschung berührt jedoch nur punktuell die Zielsetzungen bezüglich des Planungsprozesses bzw. der allgemein geforderten Informationsqualität aus Prozessplänen. Dieses Papier präsentiert die Synthese eines umfassenden Bewertungsrahmens für die Prozessplanung, einschließlich planungsprozess- und ergebnisbezogener Kriterien, basierend auf einer umfassenden Literaturrecherche.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99704-9_58 100d5d19fc266fe161de5f405d447de2;de;;;7.2.;;;Microblog Retrieval bei Katastrophen: Vergleichende Bewertung von IR-Methoden Microblogging-Sites sind wichtige Quellen für Situationsinformationen bei Naturkatastrophen oder von Menschen verursachten Katastrophen. Daher ist es wichtig, Information Retrieval (IR)-Systeme zu entwickeln und zu testen, die bei Katastrophen Informationen aus Microblogs abrufen. Aus dieser Perspektive wurde auf der 8. Sitzung des Forums für die Auswertung von Informationen (FIRE) 2016 ein Track organisiert, der sich auf das Abrufen von Microblogs bei Katastrophenereignissen konzentriert. Eine Sammlung von etwa 50.000 Microblogs, die während des Erdbebens in Nepal im April 2015 veröffentlicht wurden, wurde zusammen mit sieben pragmatischen Informationsbedürfnissen während einer Katastrophensituation veröffentlicht. Die Aufgabe bestand darin, für diese Informationsbedürfnisse relevante Microblogs abzurufen. Zehn Teams nahmen an der Aufgabe teil und fünfzehn Läufe wurden eingereicht. Die Bewertung der Leistung verschiedener Methoden zum Abrufen von Mikroblogs, wie sie von den Teilnehmern eingereicht wurden, ergaben mehrere Herausforderungen im Zusammenhang mit dem Abruf von Mikroblogs. In diesem Kapitel beschreiben wir unsere Erfahrung bei der Organisation des FIRE-Tracks beim Abrufen von Microblogs bei Katastrophenereignissen. Darüber hinaus schlagen wir zwei neuartige Methoden für die genannte Aufgabe vor, die besser abschneiden als alle Methoden, die beim FIRE-Track eingereicht wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-73606-8_2 8e7acaa4505999cf6ef88123240f4225;de;;;7.2.;;;Systematischer Entwurf fehlertoleranter Computer Der Ursprung des Konzepts der Fehlertoleranz und die Entwicklung von Richtlinien für den systematischen Entwurf fehlertoleranter Systeme werden untersucht. Die aktuelle Formulierung der Leitlinien, Designparadigma genannt, wird vorgestellt. Das Problem der Verwendung von Standard-Subsystemen in einem fehlertoleranten System wird diskutiert. Zusammenfassend wird eine Analogie komplexer fehlertoleranter Systeme und lebender Organismen vorgeschlagen, um das Verständnis der Fehlertoleranz voranzutreiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0937-2_1 6b4b3973213609f3ad10b183b9624aa3;de;;;7.2.;;;Clustering Driven Cascade Classifiers für die Mehrfachindizierung polyphoner Musik nach Instrumenten Das Erkennen und Trennen von Tönen, die von verschiedenen Instrumenten gespielt werden, ist sehr nützlich, um Audiodateien mit semantischen Informationen zu kennzeichnen. Für die Klangfarbenerkennung wurden bereits zahlreiche Ansätze zur Extraktion von akustischen Merkmalen vorgeschlagen. Leider kann keiner dieser monophonen Timbre-Schätzalgorithmen erfolgreich auf polyphone Klänge angewendet werden, die in der realen Musikwelt häufiger vorkommen. Dies hat die Forschung zu einem hierarchisch strukturierten Kaskadenklassifikationssystem angeregt, das vom menschlichen Wahrnehmungsprozess inspiriert ist. Dieses Kaskadenklassifikationssystem nimmt eine erste Schätzung auf der höheren Ebene des Entscheidungsattributs vor, das für die Musikinstrumentenfamilie steht. Dann erfolgt die weitere Schätzung innerhalb dieses spezifischen Familienbereichs. Die traditionellen hierarchischen Strukturen wurden jedoch in menschlicher Semantik konstruiert, die aus menschlicher Sicht sinnvoll, aber für das Kaskadensystem nicht angemessen sind. Wir führen das neue hierarchische Instrumentenschema entsprechend den Clustering-Ergebnissen der akustischen Merkmale ein. Dieses neue Schema beschreibt die Ähnlichkeit zwischen verschiedenen Instrumenten oder zwischen verschiedenen Spieltechniken desselben Instruments besser. Die Klassifizierungsergebnisse zeigen eine höhere Genauigkeit des Kaskadensystems mit dem neuen Schema im Vergleich zu den traditionellen Schemata.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11674-2_2 8c67dd6a6baad8b5b7cecee734fe3abc;de;;;7.1.;;;Das Potenzial der Informationstechnologie zur Unterstützung von Lehrern und Bildungsmanagern bei der Verwaltung ihrer Arbeitsumgebung Der Einsatz von Informationstechnologie (IT) zur Unterstützung von Klassenlehrern und Schulleitern bei der besseren Organisation und Verwaltung der Lernumgebung hat wenig Aufmerksamkeit erfahren, obwohl viele Anwendungen oder Systeme dies als eines ihrer Ziele angeben. Diese Sonderausgabe versucht, diese Lücke zu schließen. Dieses Einführungspapier gibt einen Überblick über das Unterstützungsangebot der IT im Bildungsbereich und diskutiert, wie die Entwicklung dieser Unterstützungssysteme analytisch angegangen werden muss. Schließlich gibt es einen Überblick über die für diese Ausgabe der Zeitschrift eingeladenen Beiträge, die die weitreichende Entwicklung der IT zur Unterstützung von Lehrern, Lehre und Verwaltung von beiden illustrieren;-;-;-;https://link.springer.com/article/10.1023/A%3A1018625600131 b08681d4de7c8fe7c1f88069a8c0392f;de;;;7.1.;;;Startup-Engagement im Rahmen der Technologiestrategieplanung – Wie Rheinmetall Automotive die Innovation durch Corporate Venturing steigert In einem sich schnell ändernden Umfeld, das von globalen Megatrends, disruptiven technologischen Entwicklungen und einer wachsenden Zahl neuer Marktteilnehmer geprägt ist, müssen globale Tier-One-Zulieferer der Automobilindustrie ihre Technologiestrategieplanung unter Berücksichtigung aktueller Trends im Innovationsmanagement anpassen, um ihre vorherrschende Spitzenposition. Dieses Papier stellt den Ansatz von Rheinmetall Automotive vor, moderne Open-Innovation-Paradigmen mit Fokus auf Outside-in-Innovation durch Corporate Venturing zu übernehmen. Eingebettet in den Entwicklungsprozess der technologischen Ausrichtung hat Rheinmetall Automotive ein strategisches Modell entwickelt, um das Engagement von Startups zu planen, um die aktuelle Produktentwicklung zu verbessern und die weitere Diversifizierung zu verbessern. Hier beschreiben wir in mehreren Schritten, wie dieses unternehmensspezifische Strategiemodell konzipiert wurde und welche Voraussetzungen zu beachten sind, um das Modell im Unternehmenskontext einzuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-28005-5_58 73181d8cfe658ad74e068bcb4ed60453;de;;;7.1.;;;Der Einfluss allgegenwärtiger Computertechnologien auf die Veränderung und das Management von Geschäftsprozessen: Der Fall des National Library Board von Singapur Ubiquitous Computing-Technologien erreichen einen technischen Reifegrad, der ihre Anwendung in alltäglichen Geschäftsumgebungen ermöglicht. Da Unternehmen zunehmend diese Technologien wie die Radiofrequenz-Identifikation (RFID) einsetzen, wird ein tieferes Verständnis ihrer Auswirkungen auf das Geschäftsprozessmanagement und -design innovative Möglichkeiten für Unternehmen aufzeigen, die sie zur Erreichung ihrer Ziele nutzen können. Der Fall der RFID-Einführung beim National Library Board (NLB) zeigt, wie die Technologie Dequalifizierung, Modularität und Beweglichkeit in Geschäftsprozessen ermöglicht hat. Dadurch hat die NLB eine höhere Effizienz erreicht, neuartige und differenzierte Dienstleistungen entwickelt und eine höhere Kundenzufriedenheit erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-28918-6_12 3513f3874efa1945a86f3852b3eba92c;de;;;7.1.;;;Product Lifecycle Management in der Bildung: Schlüssel zur Innovation in Technik und Technologie Product Lifecycle Management in der Bildung ist der Schlüssel zu Innovation und Erfolg in Organisationen im Ingenieur- und Technologiesektor. Dieses Papier veranschaulicht, dass die Einbeziehung von PLM-Schulungen in die Kursarbeit und die Ausbildung von Best Practices, Prozessen und Lösungen in Bildungseinrichtungen und Organisationen dazu beiträgt, die intellektuellen Ressourcen einer Organisation zu nutzen und sie in verfügbare Ressourcen zu verwandeln. PLM-Ausbildung und -Training vermittelt Visionen, technisches Know-how und Lösungen zur Verbesserung der Produktivität und Effizienz in den Bereichen Engineering, Business, Operations und Supply Chain in verschiedenen Branchen wie OEMs, ihren Zulieferern, Einzelhandel, Pharmazie und Bekleidungsindustrie usw Kernmethoden, Werkzeuge und Prozesse erzielen neben der Förderung der Innovation in Engineering und Technologie erhebliche Kosteneinsparungen und eine gemeinsame Ressourcennutzung zwischen verschiedenen Geschäftsbereichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45937-9_13 cda2a4cdaa6bd6d15e24acfcf0a789e9;de;;;7.2.;;;Experimentelle Evaluierung eines robusten MAC-Protokolls für netzwerkkodiertes Zwei-Wege-Relaying Es wird eine drahtlose Halbduplex-Relaiskommunikation zwischen zwei Knoten berücksichtigt. Eine Zwei-Wege-Decodierungs-und-Weiterleitungsstrategie, die Netzwerkcodierung am Relais verwendet, sollte in der Lage sein, den Datendurchsatz zu erhöhen. Es wird ein spezielles Medienzugriffs-(MAC)-Protokoll basierend auf einem TDD/TDMA-Schema vorgeschlagen, das eine robuste Synchronisation zwischen den Endgeräten herstellt. Eine experimentelle Bewertung des vorgeschlagenen MAC-Protokolls wird unter Verwendung eines softwaredefinierten Funksystems durchgeführt, das aus einem Endgerät für jeden Knoten im Netzwerk besteht. Es wird gezeigt, dass das vorgeschlagene Protokoll den versprochenen Durchsatzgewinn der Netzwerkcodierung für große Burst-Längen realisiert. Außerdem wird die zusätzliche Menge an Verarbeitungszeit, Speicher und Signalisierung beschrieben, die aufgrund der Netzwerkcodierung erforderlich ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23041-7_10 7c4127c7bc2f3577cd848cc33089c95e;de;;;7.2.;;;Blockchain für die Cybersicherheit von öffentlichen E-Services: Vorteile und Herausforderungen einer dezentralen Architektur Traditionelle E-Services für Behörden basieren auf zentralisierten Datenspeichern, Verarbeitungs- und Verwaltungssystemen und -lösungen, die mehreren Einschränkungen unterliegen, beispielsweise Single Point of Failure, Vertrauenskonzentration, fehlende Transparenz, Nachverfolgung und Verifizierbarkeit. In dem Papier wird die Anwendbarkeit eines dezentralisierten Ansatzes für den Aufbau von E-Services für Behörden erörtert. Die finanziellen, betrieblichen und sicherheitstechnischen Vorteile des dezentralisierten Ansatzes im Vergleich zum zentralisierten werden beschrieben. Die wichtigsten Herausforderungen für die Cybersicherheit werden identifiziert. Die Autoren präsentieren, wie die Nutzung der Blockchain-Technologie die identifizierten Probleme lösen könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-59959-1_12 c175d6046099a629dadaadfb11bfb304;de;;;7.2.;;;Kerntechniken von Frage-Antwort-Systemen über Wissensdatenbanken: eine Umfrage Das Semantic Web enthält eine enorme Menge an Informationen in Form von Wissensdatenbanken (KB). Um diese Informationen verfügbar zu machen, wurden in den letzten Jahren viele Frageantwortsysteme (QA) über KBs erstellt. Der Aufbau eines QS-Systems über KBs ist schwierig, da viele verschiedene Herausforderungen zu lösen sind. Um diesen Herausforderungen zu begegnen, kombinieren QS-Systeme im Allgemeinen Techniken aus der Verarbeitung natürlicher Sprache, Informationsabruf, maschinellem Lernen und Semantic Web. Das Ziel dieser Umfrage ist es, einen Überblick über die Techniken zu geben, die in aktuellen QS-Systemen über KBs verwendet werden. Wir stellen die von den QS-Systemen verwendeten Techniken vor, die anhand einer beliebten Reihe von Benchmarks evaluiert wurden: Question Answering over Linked Data. Techniken, die die gleiche Aufgabe lösen, werden zunächst gruppiert und dann beschrieben. Die Vor- und Nachteile werden für jede Technik besprochen. Dies ermöglicht einen direkten Vergleich ähnlicher Techniken. Darüber hinaus weisen wir auf Techniken hin, die über WebQuestions und SimpleQuestions verwendet werden, die zwei weitere beliebte Benchmarks für QA-Systeme sind.;-;-;-;https://link.springer.com/article/10.1007/s10115-017-1100-y ba97869af76be33efc79745c768cecef;de;;;7.2.;;;Interaktive Exploration zum Abrufen von Bildern Wir präsentieren eine neue Version unseres inhaltsbasierten Bildrecherchesystems RETIN. Es basiert auf einer adaptiven Quantisierung des Farbraums, zusammen mit neuen Funktionen, die darauf abzielen, die räumliche Beziehung zwischen Farben darzustellen. Die Farbanalyse wird auch auf die Textur ausgedehnt. Unter Verwendung dieser leistungsstarken Indizes wird eine originelle interaktive Suchstrategie eingeführt. Der Prozess basiert auf zwei Schritten zur Handhabung des Abrufens sehr großer Bildkategorien. Zunächst wird eine kontrollierte Explorationsmethode der Datenbank vorgestellt. Zweitens wird ein auf statistischem Lernen basierendes Relevanz-Feedback-Verfahren vorgeschlagen. Alle Schritte werden durch Experimente in einer generalistischen Datenbank evaluiert.;-;-;-;https://link.springer.com/article/10.1155/ASP.2005.2173 46d6d2cce0b0fb6557779661cd289d6e;de;;;7.2.;;;WiKi’mantics: Ontologien interpretieren mit WikipediA Im Kontext des Semantic Web lassen sich viele ontologiebezogene Operationen auf eine grundlegende Aufgabe reduzieren: die Semantik, die sich unter der oberflächlichen Darstellung ontologischer Entitäten verbirgt, so genau wie möglich zu finden. Dies ist jedoch aufgrund der Mehrdeutigkeit der Semantik und des Fehlens einer systematischen Engineering-Methode keine leichte Aufgabe, um zu führen, wie wir Semantik verstehen. Wir erkennen die Kluft zwischen menschlichen Kognitions- und Wissensrepräsentationsformalismen an: Obwohl präzise logische Formeln als kanonische Repräsentation ontologischer Entitäten verwendet werden können, kann das Verständnis solcher Formeln variieren. Eine praktikable Lösung für die Gegenüberstellung semantischer Interpretationen besteht daher darin, solche kognitiven Variationen zu reflektieren. In diesem Beitrag schlagen wir eine Annäherung der Semantik unter Verwendung von Wortgruppen/Phrasen vor, die als WɪKɪ . bezeichnet wird;-;-;-;https://link.springer.com/article/10.1007/s10115-009-0247-6 ea50f281f65ab7e9335872b48570a13e;de;;;7.2.;;;Der Fall von Evaluations- und Rechenschaftspflichten im Bildungswesen als Bereich für die Entwicklung von politikformbaren Indikatoren auf Systemebene Bildungsindikatorensysteme haben sich von deskriptiven Statistiken über Bildungsfinanzierung, Zugang und Teilnahme und Bildungsabschluss (im Sinne von Anteilen der Bevölkerung, die bestimmte formale Bildungsniveaus erreicht haben) zu komplexeren Maßnahmenbündeln entwickelt, die testbasierte und umfragebasierte Daten enthalten. Der prominenteste konzeptionelle Rahmen ist der Input-Prozess-Output-Kontextrahmen, in dem Prozessindikatoren als die ambitionierteste Kategorie angesehen werden können. Prozessindikatoren stellen durch die Politik formbare Bedingungen auf Klassenzimmer-, Schul- und nationaler Systemebene dar. Wenn Länder über vergleichbare Prozessindikatoren sowie vergleichbare Ergebnisindikatoren wie die Ergebnisse von PISA und TIMSS verfügen, könnten sie diese Informationen verwenden, um die Wirksamkeit relevanter politischer Maßnahmen zu bewerten. In diesem Artikel werden Indikatoren zu Evaluierungs- und Rechenschaftspflichten auf nationaler Ebene als ein Beispiel für Indikatoren auf der Ebene von politikveränderbaren Systemen untersucht. Der Schwerpunkt liegt auf der Entwicklung von Indikatoren, und zu diesem Zweck versucht der Hauptteil des Papiers, einen ausgefeilten konzeptionellen Rahmen für Bildungsevaluation, -monitoring und -bewertung zu spezifizieren. Ein besonderer Schwerpunkt liegt auf Hypothesen über die Art und Weise, wie Evaluation, Feedback und Belohnung (tatsächliche Anwendung von Belohnungen oder Sanktionen) als Hebel der Bildungsleistung fungieren könnten. Wichtige Erklärungsmechanismen, die als Hintergrundprinzipien der Bildungspolitik angesehen werden könnten, sind anreizbasierte administrative Kontrolle, Marktmechanismen und „Wahl“ sowie organisationales Lernen. Es wird geschlussfolgert, dass die empirische Evidenz für jeden dieser drei Mechanismen relativ dürftig ist, dass jedoch ein erhöhter Leistungsdruck ein gemeinsamer kausaler Zwischenfaktor sein könnte. Als nächstes wird versucht, einen umfassenden beschreibenden Rahmen für Bewertungs- und Rechenschaftsverfahren bereitzustellen. Die Grundauslegung dieses Frameworks wird durch die Frage bestimmt: Wer bewertet was, für welche Zwecke oder Verwendungszwecke, mit welchen Methoden. Es führt zur Unterscheidung von Evaluationsakteuren oder -anbietern, Evaluationsobjekten auf verschiedenen Ebenen des Systems, spezifischen Evaluationsfunktionen, Monitoring- und Bewertungsformen und einer Reihe von methodischen Kernansätzen, die auf unterschiedlichen Datenarten (Testdaten, Statistik und Überprüfung und Forschung basierende Daten). Ein Teil dieses Rahmens wird verwendet, um die drei Indikatorenbereiche zu spezifizieren, Angebotsvielfalt, Art der Rechenschaftsorientierung und institutionelle Infrastruktur. Diese Indikatoren könnten grundsätzlich zu qualitativen Länderprofilen führen. Wenn ausreichende statistische Informationen verfügbar wären, wären quantitative Informationen über Umfang (Anzahl der Einheiten, Schulen, Lehrer, Schüler, beteiligt) und Intensität (in Bezug auf die finanziellen Investitionen und Ausgaben) sehr interessant. Solche statistischen Informationen sind jedoch in den meisten Ländern nicht ohne weiteres verfügbar. Die Angelegenheit scheint ausreichend relevant zu sein, um die nationale Statistik in diesem Bereich zu verbessern, und dies würde auch für regionale Informationen auf Landesebene in den Bundesländern gelten, falls die Bewertungs- und Rechenschaftslegungsrichtlinien und -bestimmungen zwischen den Ländern unterschiedlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-90615-7_16 cd3f5812304160ce79f44c2dd505c756;de;;;7.1.;;;Systemisches Strategisches Management für VBEs im verarbeitenden Gewerbe Das Konzept der Virtual Organization Breeding Environment (VBE) wird heute als grundlegende Einheit verstanden, um die Bildung dynamischer kollaborativer Organisationen, insbesondere virtueller Organisationen (VOs), zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-84837-2_3 309d110885e5db4bc08bda95d76a81ca;de;;;7.2.;;;Überblick über das CLEF eHealth Evaluation Lab 2020 In diesem Papier geben wir einen Überblick über die achtjährige Ausgabe der Konferenz und der Labs des Evaluierungsforums (CLEF) eHealth-Evaluierungslabor. Die Conference and Labs des Evaluationsforums (CLEF) eHealth 2020 setzt unsere Entwicklung von Evaluationsaufgaben und -ressourcen seit 2012 fort, um die Schwierigkeiten von Laien anzugehen, valide und relevante Informationen in ihrer bevorzugten Sprache abzurufen und zu verarbeiten, um gesundheitszentrierte Entscheidungen zu treffen. Das diesjährige Lab hat zwei Aufgaben ausgeschrieben. Aufgabe 1 zur Informationsextraktion (IE) war neu und konzentrierte sich auf die automatische klinische Kodierung von Diagnose und Verfahren, die zehnte Überarbeitung der Codes der International Statistical Classification of Diseases and Related Health Problems (ICD10) sowie das Auffinden der entsprechenden Textschnipsel für klinische Fälle Dokumente auf Spanisch. Aufgabe 2 zum Informationsabruf (IR) war eine neuartige Erweiterung der beliebtesten und etabliertesten Aufgabe in der Konferenz und den Laboren des Evaluierungsforums (CLEF) eHealth zur Verbrauchergesundheitssuche (CHS). Zu diesen Aufgaben wurden insgesamt 55 Einreichungen eingereicht. Hier beschreiben wir die Ressourcen, die für die beiden Aufgaben geschaffen wurden, und die angewandte Evaluierungsmethodik. Wir fassen auch Laboreinreichungen und Ergebnisse zusammen. Wie in den Vorjahren haben die Veranstalter Daten und Werkzeuge rund um die Laboraufgaben für die zukünftige Forschung und Entwicklung zur Verfügung gestellt. Das anhaltend große Interesse der Gemeinschaft an den Aufgaben und ihren Ressourcen hat dazu geführt, dass die Conference and Labs des Evaluationsforums (CLEF) eHealth zu einem primären Ort für alle interdisziplinären Akteure des Ökosystems für die Produktion, Verarbeitung und den Konsum elektronischer Gesundheitsinformationen gereift sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58219-7_19 c0c32955544867dd994d83301421c3f9;de;;;7.1.;;;Entwurf und Implementierung eines Überwachungs- und Frühwarnsystems für Staunässe in städtischen Straßen Staunässe tritt fast bei jedem Regenschauer auf Stadtstraßen und den konkaven Überführungen in Peking auf. Dies hat schwerwiegende Auswirkungen auf die Sicherheit des täglichen Reiseverkehrs der Menschen. Um diese Art von Problem zu lösen, wurde in dieser Arbeit ein Überwachungsnetzwerk durch Wasserstandssensoren und andere Technologien des Internets der Dinge entworfen und ein Überwachungs- und Frühwarnsystem zur Erkennung von Echtzeitinformationen über Staunässe in städtischen Straßen entwickelt. Dieses System kann Echtzeitinformationen über die Staunässe erfassen, eine schnelle Abfragestatistik für bestimmte Straßen oder Gebiete erstellen und auch den Kurznachrichtendienst für die Öffentlichkeit bereitstellen. Es ist sehr praktisch für die Manager, die in der Hochwasserschutzabteilung und in der Kommandozentrale arbeiten, die Echtzeitinformationen über den Staunässestatus rund um städtische Straßen zu sammeln. Dies ist hilfreich für die Kommunalverwaltung, den entsprechenden Notfallplan durchzuführen und Staunässeinformationen für die Öffentlichkeit herauszugeben, um die Auswirkungen des plötzlichen Unwetters auf die Reisesicherheit der Menschen zu reduzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19620-6_68 e25e8802af65e5f2b87125f0e28e3086;de;;;7.1.;;;Optimierung der Devisenverwaltungsvorgänge mit Finanzportalen von Unternehmen Globaler Wettbewerb und sinkende Gewinnmargen zwingen Unternehmen dazu, ihre Betriebskosten zu senken. Dies übt Druck auf alle Geschäftsbereiche und Betriebe aus, einschließlich des Finanzmanagements. Ein Ansatz zur Steigerung der betrieblichen Effizienz ist die Automatisierung bestehender Prozesse durch den Wegfall unnötiger manueller Eingriffe. Alternativ kann man neue, verbesserte Prozesse entwerfen und implementieren. Dies ist eine anspruchsvolle Aufgabe, die noch komplexer wird, wenn sich das Finanzmanagement mit dem heterogenen Umfeld eines multinationalen Konzerns auseinandersetzen muss. In diesem Sinne ist der Einsatz von Informationssystemen erforderlich, die dazu beitragen, die Komplexität von Integrations-, Kommunikations-, Koordinations- und Kollaborationsherausforderungen zu reduzieren. So sucht die Finanzverwaltung nach dem Äquivalent des von Chou (1999) postulierten globalen Informationssystems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-49487-4_6 50de872f060dd40968d703b90785a891;de;;;7.1.;;;Der institutionelle Kontext von Informationen Dieses Papier nimmt eine Informationssystemperspektive ein, um die jüngsten amerikanischen Präsidentschaftswahlen zu untersuchen. Die Wahl kann als Entscheidungsfindungsprozess angesehen werden, um den Führer auszuwählen, der die Wünsche und Interessen des Volkes vertritt. Das den Prozess unterstützende System ist ein Informationssystem mit Informationstechnologie, Eingaben, Ausgaben, Benutzern, menschlichen Bedienern, Verfahren, Annahmen und Zielen. Das Funktionieren des Systems ist tief in das politische Leben mit seiner Geschichte, seinen Institutionen, Verfahren, Normen und Stärken und Schwächen eingebettet. Die Ausgabe des Systems ist daher eher eine ausreichend gute als die genaueste Antwort.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35611-2_15 dd4c07bc5b60fe1fdbe5f5aee92fa880;de;;;7.1.;;;Design und Implementierung eines Informationsmodells für die Konfiguration und das Leistungsmanagement von MPLS-TE/VPN/QoS Multi Protocol Label Switching (MPLS) gilt allgemein als ausgereifte Technologie. Viele Internet Service Provider (ISPs) und Telekommunikationsanbieter haben es implementiert oder ziehen es in Erwägung. Eine benutzerfreundliche integrierte Verwaltungslösung wird von diesen ISPs verlangt. Um eine wirklich integrierte Managementlösung zu realisieren, ist ein kombiniertes Managementinformationsmodell unerlässlich. In diesem Papier schlagen wir ein Informationsmodell für integriertes Konfigurations- und Leistungsmanagement von MPLS-Traffic Engineering (MPLS-TE)/VPN/QoS vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45235-5_80 b3bd664703c979e59a77abf2b63d8879;de;;;7.1.;;;Untersuchung der Integrationsdesign-Methode des Klinischen Pathway-Systems für Rektumprolaps TCMCM Dieses Papier befürwortet den Einsatz von Expertensystemen und evidenzbasierter Medizin im klinischen Pfadsystem der Traditionellen Chinesischen Medizin (TCM). Es schlägt ein intelligentes rekonfigurierbares System mit mehreren Agenten vor, um mit einer dynamischen Umgebung der traditionellen chinesischen Medizin fertig zu werden, in der die Anwendungsintegration des Rektumprolaps-Klinikpfades angesichts des bestehenden Unsicherheitsfeldes der klinischen medizinischen Entscheidungsfindung unterstützt wird. Eine Integrations-Design-Methode des Rektumprolaps-TCM-Klinikpfad-Systems besteht in der Verwendung von Design-Regeln, die auf empirischen und theoretischen Kenntnissen basieren. Basierend auf Fallbegründungen werden medizinische Expertensysteme zur Verbesserung und Regulierung des klinischen Pfadsystems des Rektumprolaps vorgestellt. Die Beziehung zwischen dem Design für das klinische Pfadinformationssystem und dem Expertensystem und die Analyse der Systemzuverlässigkeits-Wachstumstestplattform wird diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_467 c4d1ac759deb2a5555914073ffeacc69;de;;;7.2.;;;Soft-Labeling-Bildschema mit Fuzzy Support Vector Machine Beim Relevanz-Feedback von inhaltsbasierten Image-Retrieval-(CBIR)-Systemen ist die Anzahl der Trainingsproben normalerweise gering, da die Bildkennzeichnung eine zeitaufwendige Aufgabe ist und Benutzer oft nicht bereit sind, während des Feedback-Prozesses zu viele Bilder zu kennzeichnen. Dies führt zu dem Problem mit kleinen Stichproben, bei dem die Leistung des Relevanz-Feedbacks durch die geringe Anzahl von Trainingsstichproben eingeschränkt ist. Vor diesem Hintergrund schlagen wir eine Soft-Labeling-Technik vor, die die Verwendung von unmarkierten Daten untersucht, um den Trainingsdatensatz zu vergrößern. Der Beitrag dieses Buchkapitels ist die Entwicklung eines Soft-Labeling-Frameworks, das versucht, das Problem der kleinen Stichprobe in CBIR-Systemen anzugehen. Indem wir die Eigenschaften von beschrifteten Bildern untersuchen, schlagen wir vor, einen unüberwachten Clustering-Algorithmus zu verwenden, um unbeschriftete Bilder auszuwählen, die wir als weich beschriftete Bilder bezeichnen. Die Relevanz der weich markierten Bilder wird unter Verwendung einer Fuzzy-Mitgliedschaftsfunktion geschätzt und in die Fuzzy-Support-Vektor-Maschine (FSVM) für ein effektives Lernen integriert. Experimentelle Ergebnisse basierend auf einer Datenbank von 10.000 Bildern belegen die Wirksamkeit der vorgeschlagenen Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76827-2_11 62b3f66c257788e96a90a9c632a3d341;de;;;7.2.;;;Clustering von Ragas basierend auf Sprungsequenzen zur automatischen Raga-Identifikation Raga ist eine Seele der indischen Musik und die indische Musik wurde auf der Grundlage von Raga studiert. Es kann auch der Hauptparameter für den inhaltsbasierten Abruf von Audio im Music Information Retrieval(MIR)-System sein. In der westlichen Musik hat die Melodie nicht viele Variationen, aber in der indischen Musik hat die Melodie viele Variationen in Form von Ragas. Die Schwierigkeit, die komplexe Struktur von Raga zu verstehen, macht das Problem der automatischen Raga-Identifikation zu einem kritischen Problem. Viele verschiedene Versuche wurden unternommen, um das Raga-Identifikationsproblem anzugehen, aber die Realisierung eines solchen Systems für eine große Sammlung von Raga ist noch ein langer Weg. Diesbezüglich gibt es viele Probleme, die gelöst werden müssen. Wir haben Lösungen entwickelt, um zwei Probleme in unserer Arbeit anzugehen und stellen die Methoden und die experimentelle Analyse in diesem Papier vor. Das erste Problem besteht darin, die große Anzahl von Raga-Klassen zu handhaben, die durch die Clustering-Technik basierend auf Sprungsequenzen gelöst wird. Das zweite Problem, das hier angesprochen wird, besteht darin, die Berechnung der Tonleiter (Tonika) des Liedes zu vermeiden, um die Noten im Lied zu identifizieren. So nähern Sie sich einer Methode, bei der die Raga-Identifikation auch ohne Kenntnis der Tonika (Skala) des Liedes erfolgen kann. In diesem Beitrag stellen wir die Bedeutung der Sprungsequenz bei der Raga-Identifikation vor. Wir präsentieren auch die experimentellen Ergebnisse zur natürlichen Clusterbildung der Ragas zusammen mit der Clusteridentifikation für ein bestimmtes Lied.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31686-9_38 384578e34e47c15be48899bc7a9bd2cf;de;;;7.1.;;;Workflow-Partitionierung in mobilen Informationssystemen Der zunehmende Erfolg drahtloser Technologien unterstützt die Verbreitung mobiler Informationssysteme, aber die Jugend der zugrunde liegenden Technologie und ihre besonderen Eigenschaften wirken sich auf die Entwicklung solcher Systeme aus. Beispielsweise muss die Ausführung von Geschäftsprozessen in einem solchen Kontext mit der variablen und schwankenden Bandbreite, die den verschiedenen Geräten zur Verfügung steht, zurechtkommen. Dies führt dazu, dass der Designer die Unabhängigkeit jedes Akteurs betont – durch Minimierung von Interaktionen und Wissensaustausch – um die Zuverlässigkeit des gesamten Systems zu erhöhen.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-22874-8_7 1f1af21f4be7be4604b567e88ffc52c4;de;;;7.1.;;;Eine herstellerspezifische Sicherheitsbewertungsmethodik für kritische Infrastrukturkomponenten Der Schutz kritischer Infrastrukturanlagen wie Telekommunikationsnetze und Energieerzeugungs- und -verteilungsanlagen vor Cyberangriffen ist eine große Herausforderung. Da Sicherheit jedoch ein komplexes und vielschichtiges Thema ist, fehlt oft eine Grundlage für Hersteller, um die Sicherheit von Produkten, die in kritischen Infrastrukturen eingesetzt werden, zu beurteilen. Dieses Dokument beschreibt eine strukturierte Sicherheitsbewertungsmethodik, die speziell für die Verwendung durch Hersteller während der Produktentwicklung entwickelt wurde. Die Methodik, die Risikoanalyse, theoretische Bewertung und praktische Bewertung umfasst, antizipiert die Herausforderungen der Betriebssicherheit, bevor Produkte in kritischen Infrastrukturen eingesetzt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16806-2_16 1b763c4f59ab0da37988cde153f41f04;de;;;7.1.;;;Agent.Enterprise in Kürze Die Domäne der Fertigungslogistik entwickelt sich ständig zu immer komplexeren Supply-Chain-Strukturen, die immer flexiblere Produktionskapazitäten erfordern. Es wird ein Konzept vorgeschlagen, das die Fähigkeiten der Agententechnologie nutzt, um in einer so komplexen Umgebung Flexibilität zu bieten und gleichzeitig die vielfältigen Abhängigkeiten und individuellen Verhaltensweisen von Akteuren in modernen Unternehmensnetzwerken nicht zu beeinträchtigen. Das Agent.Enterprise-Konzept wird in einer prototypischen Implementierung demonstriert, die verschiedene Multiagentensysteme (MAS) in ein Multi-Multiagentensystem (MMAS) integriert. Es bietet ein integriertes, aber verteiltes und flexibles Supply Chain Management, von der organisationsübergreifenden Koordination bis hin zur detaillierten Produktionsplanung auf Fertigungsebene.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-32062-8_5 aeec7a7ea21ed0df1113c129c701ac44;de;;;7.1.;;;Crowd-Computing-Framework für Geoinformationsaufgaben In dem Artikel wird eine allgemeine Crowd-Computing-Framework-Architektur diskutiert. Das vorgeschlagene Framework kann verwendet werden, um Crowd-Computing-Workflows unterschiedlicher Komplexität zusammenzustellen. Zu seinen herausragenden Merkmalen gehören die ontologische Beschreibung der Kompetenzprofile von Crowd-Mitgliedern, die automatische Zuweisung von Aufgaben an Crowd-Mitglieder, die Unterstützung sowohl menschlicher als auch nicht-menschlicher Recheneinheiten (Hybrid-Crowd) sowie räumliche Merkmale der Crowd-Mitglieder, die den Einsatz der vorgeschlagenen Rahmen für eine Vielzahl von Crowdsourcing-Geoinformationsaufgaben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16667-4_7 77024d0ebf9d27b88832691cd19a8673;de;;;7.1.;;;Entwicklung eines auftragsbezogenen Leistungsmesssystems: Eine Fallstudie Die konventionelle Maxime, was gemessen wird, wird getan, hat viele Unternehmen über Jahre hinweg dazu motiviert, ihre Leistung systematisch zu messen. Früher ausschließlich auf finanzielle, rückwärtsgewandte Maßnahmen fokussiert, ist es heute allgemein anerkannt, dass sich ein Performance Measurement System (PMS) an den langfristigen strategischen Zielen eines Unternehmens ausrichten soll. Diese Ziele werden maßgeblich von der Produktionssituation des Unternehmens bestimmt und umgekehrt. Als die Autoren von einem norwegischen Engineering-to-Order-Unternehmen (ETO) mit der Bitte um ein PMS kontaktiert wurden, konnten die Autoren keine Literatur identifizieren, die sich explizit auf PMS für ETO bezieht. Die Autoren machten sich daher daran, das PMS von Grund auf neu zu gestalten. Der Zweck dieses Papiers besteht darin, zu veranschaulichen, wie das PMS in enger Zusammenarbeit mit dem Fallunternehmen unter Berücksichtigung der allgemeinen Merkmale und Wettbewerbsprioritäten von ETO entwickelt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44733-8_59 b8008b6e73b626050d899246b79fc42f;de;;;7.1.;;;Engineering-IT-Management für die End-to-End-PLM-Struktur im Automobilsektor Die PLM-Infrastruktur spielt heute eine Schlüsselrolle in den Prozessen von Unternehmen in Bezug auf die Endproduktqualität, bestimmt aber auch praktisch die Unternehmenskultur, Validität der Daten, Komplexität, Singularität und vor allem Rentabilität. Um diese integrierten Prozesse zu ermöglichen, werden darüber hinaus PLM-Systeme benötigt, die von Lösungsarchitekten verwaltet werden, die sowohl für IT- als auch für Engineering-Lösungen Experten sind. Gelegentlich ist ein einzelnes Werkzeug nicht in der Lage, Prozesse von Anfang bis Ende abzuwickeln. Aus diesem Grund besteht ein Bedarf an mehreren Softwares. Diese vielfältigen Programme haben charakteristische starke Aspekte mit ihren Schwächen und bestimmen die Arbeitsweise von Unternehmen. Dennoch neigen sie dazu, komplexe Daten- und Prozessflüsse zu erzeugen. Um diese Unterbrechungen zu vermeiden und eine einzige Datenquelle bereitzustellen, ist es notwendig, einen durchgängigen Prozess auf einer einzigen Plattform im Unternehmen zu schaffen. Hier müssen die Lösungsarchitekten diese PLM-Reise für alle Abteilungen nach ihren Bedürfnissen führen. Gerade im Automotive-Bereich beginnt die Reise mit den Anforderungen, die dann zu funktionalen und logischen Objekten getrieben werden. Die weiteren Phasen sind Konstruktion, Fertigung, Planung und Arbeitsanweisungen, die durch die Zuweisung der Ressourcen geführt werden müssen. Es versteht sich von selbst, dass all diese Funktionen unterschiedliche Fachkenntnisse erfordern, jedoch kann die Rückverfolgbarkeit nur in einem linearen Fluss gehandhabt werden, damit die Wirkungsanalyse und das Änderungsmanagement reibungslos funktionieren. Um diesen Anforderungen gerecht zu werden, sollten Lösungsarchitekten sowohl IT- als auch Engineering-Anforderungen berücksichtigen, um einen durchgängigen Prozessfluss zu schaffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-62807-9_61 1f7055c7c2b08a9a9001ac3b92486f37;de;;;7.2.;;;Ausnutzen des PageRank auf verschiedenen Blockebenen In den letzten Jahren wurden Information-Retrieval-Methoden entwickelt, die sich auf die Linkanalyse konzentrieren. Der PageRank und HITS sind zwei typische. Entsprechend der hierarchischen Organisation von Webseiten könnten wir den Webgraph in Blöcke auf verschiedenen Ebenen unterteilen, wie z. Verzeichnisebene, Hostebene und Domänenebene. Auf der Grundlage der Blockierung könnten wir die verschiedenen Hyperlinks zwischen den Seiten analysieren. Mehrere Ansätze schlugen vor, dass der Intra-Hyperlink in einem Host bei der Berechnung des PageRank weniger nützlich sein könnte. Es gibt jedoch keine Berichte darüber, wie sich der Intra- oder Inter-Hyperlink konkret auf den PageRank auswirkt. Darüber hinaus können Inter-Hyperlink und Intra-Hyperlink basierend auf unterschiedlichen Blockebenen zwei relative Konzepte sein. Welche Ebene sollte also optimal sein, um den Intra- oder Inter-Hyperlink zu unterscheiden? Und wie könnte das Verhältnis zwischen Intra-Hyperlink und Inter-Hyperlink letztendlich die Leistung des PageRank-Algorithmus verbessern? In diesem Papier analysieren wir die Linkverteilung auf den verschiedenen Blockebenen und bewerten die Bedeutung des Intra- und Inter-Hyperlinks für den PageRank im TREC Web Track Datensatz. Ein Experiment zeigt, dass der Abruf die beste Leistung erzielen könnte, wenn wir den Block auf Host-Ebene setzen und das Verhältnis der Gewichtung zwischen dem Intra-Hyperlink und dem Inter-Hyperlink 1:4 beträgt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30480-7_26 12fffff2cdf3f12844c7123b52eee140;de;;;7.1.;;;Experten-Entscheidungsunterstützungssysteme für die Entscheidungsfindung Computer haben enorme Beiträge zur Transaktionsverarbeitung geleistet. Die höchste Auszahlung, die der Computer erzielen kann, liegt jedoch nicht in der Transaktionsverarbeitung, sondern in der Entscheidungsfindung. In letzter Zeit werden Expertensysteme gerade erst im Entscheidungsprozess eingesetzt. Einzelne Technologien allein reichen für eine effektive Entscheidungsunterstützung nicht aus. Der Zweck dieses Papiers ist es, die verwandten Fragen der Entscheidungsunterstützung zu untersuchen und ein Expertenentscheidungsunterstützungssystem (EDSS) zu entwickeln, um Entscheidungsunterstützungssysteme und Expertensysteme zu einem einheitlichen Ganzen zur Entscheidungsunterstützung zu kombinieren. Der Schwerpunkt wird auf der Entwicklung eines DSS/ES-Modells liegen, das verwendet werden kann, um die traditionelle DSS-Datenbank und die ES-Wissensdatenbank zum Aufbau eines benutzerfreundlichen EDSS zu integrieren.;-;-;-;https://link.springer.com/article/10.1057/jit.1988.16 27deb58d92636689cc59fa5e81ee7d12;de;;;7.1.;;;Verwenden von ArchiMate und TOGAF zum Verständnis der Unternehmensarchitektur und der ITIL-Beziehung Business/IT-Alignment ist zu einem der wichtigsten Anliegen von Unternehmen geworden. Enterprise Architecture (EA) und ITIL, zwei unterschiedliche Governance-Ansätze mit unterschiedlichen Perspektiven, haben sich in letzter Zeit in der Praxis durchgesetzt. Parallele EA- und ITIL-Projekte können jedoch zu Ressourcenverschwendung und Doppelarbeit bei Kosten und Aufwand führen. In diesem Papier schlagen wir eine EA- und ITIL-Integration vor, die ArchiMate als gemeinsamen Referenzrahmen verwendet. Wir möchten auch darauf hinweisen, dass die Implementierung von ITIL wie die Implementierung jeder anderen Architekturänderung ist und zeigen dies, indem wir TOGAF verwenden, um eine ITIL-Implementierung auf ArchiSurance durchzuführen, einer fiktiven Organisation aus der bekannten ArchiMate-Fallstudie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38490-5_11 2989560ba231ab4c1cfbc0bc1c9548d6;de;;;7.1.;;;Eine Untersuchung des Benutzerkonzepts im Satellitendesign und seiner Implikationen für die soziale und wirtschaftliche Entwicklung in Afrika Weltraumbezogene Daten liegen unberührt in Datentresoren, während viele potenzielle Anwendungsfälle für Weltraumanwendungen von der Raumfahrtindustrie nicht genutzt werden. Diese Lücke kann bestehen, weil die Konzeptualisierung des Benutzers in der Raumfahrtindustrie zu eng ist und dennoch die Architektur und damit die Ergebnisse einer Satellitenmission beeinflusst. Annahmen über Nutzer und Märkte werden nicht auf der Grundlage von Daten und Marktforschungen getroffen, die an sich, insbesondere in Afrika, typischerweise schwer zu erhalten sind. Dies führt zu einem mangelnden Verständnis des Endbenutzers und seines sozialen und wirtschaftlichen Kontexts, der auf unzureichende Anforderungen im Satellitendesign zurückführt. Diese Einschränkung wirkt sich insbesondere auf Anwendungen in Entwicklungsländern aus, bei denen das Benutzer- und Nutznießerkonzept oft ungeprüft und unangefochten auffällt. Diese Studie untersucht die Kluft zwischen potenziellen Nutzern in Afrika und der Satellitentechnologie und dem Missionsdesign und wie diese Kluft nicht nur wirtschaftlichen Ursprungs ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-59158-8_11 c607dab73bc539c50040f56fa5a8bad0;de;;;7.1.;;;E-Governance für Smart Cities Dieses Kapitel „E-Governance für Smart City“ soll konzeptionelle Klarheit über die Thematik des Buches schaffen. Das Kapitel soll dem Buch eine grobe Richtung geben. Bisher wird die E-Governance-Literatur von Autoren dominiert, die Informatiker und IT-Spezialisten sind, da einige technische Probleme zu lösen sind (wie zum Beispiel Big Data-Management), aber dieses Buch nimmt eine Abkehr und wird von Domänenspezialisten verfasst, die sich damit beschäftigen zur Stadt. Gemeinsam erarbeiten wir das entstehende E-Governance-System für Smart City aus der Sicht von Spezialisten für urbane Domänen wie Spezialisten für Stadtentwicklung, Stadtplanung, Klimawandel, CO2-Bilanzierung, Wasser-Governance, Energie-Governance, Öffentlicher Raum usw . Zunächst wird die Definition von E-Governance und E-Government aus Sicht verschiedener Organisationen zusammengetragen. Anschließend wird aufgezählt, wie Verbraucher von Governance, wie Bürger, Regierungen und Unternehmen, von E-Governance profitieren. Darüber hinaus zeichnet es fünf verschiedene Phasen der E-Governance-Entwicklung nach, wie zum Beispiel Phase-1(1996–1999): Basic Web Presence, Phase-2(1997–2000): Interactive Web, Phase-3(1998–2003): Transaction Web , Phase-4(2000–2005): Integratives und Transformations-Web und Phase-5(2005+): Smart City Governance-Web. Vor 2005 gab es einen schnellen Übergang in Phasen, aber mit dem Aufkommen von Phase 5 gibt es einen Trend zur Stabilisierung der städtischen E-Governance. Dieses Kapitel zählt neue funktionale Spezialisierungen von E-Governance in verschiedenen Phasen auf und diskutiert das Smart City E-Governance System und seine wichtigsten Anforderungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-287-287-6_1 d6bac0ac0172674398d7dd0a17f2ac86;de;;;7.1.;;;Entwicklung eines Entscheidungsunterstützungssystems zur Erleichterung der multikriteriellen Entscheidungsfindung während des humanitären Einsatzes innerhalb eines Projektlebenszyklus Der Einsatz von Entscheidungsunterstützungssystemen ist ein wichtiger Bestandteil des Supply Chain Managements. Eine schnelle und angemessene Entscheidungsfindung ist manchmal schwer zu erreichen. Drei Fragen stellen sich: Wie sammelt man relevante Daten und nutzt Erfahrungen aus der Vergangenheit, wie trifft man die Entscheidung, wenn viele Kriterien berücksichtigt werden müssen und wie können wir eine schnelle Entscheidungsfindung sicherstellen. Mit diesen drei Problemen sind derzeit viele Unternehmen konfrontiert und einige Lösungen wurden bereits in der Literatur vorgeschlagen. In einigen Fällen ist es jedoch schwierig, wenn nicht möglich, diese Lösungen anzuwenden. Humanitäre Organisationen haben beispielsweise Schwierigkeiten, auf Erfahrungen aus der Vergangenheit aufzubauen. Eine schnelle Entscheidungsfindung ist in diesem Sektor von entscheidender Bedeutung. Der Zweck dieses Papiers besteht darin, ein Entscheidungsfindungsinstrument zu entwerfen und zu entwickeln, um die Leistung der humanitären Logistik zu unterstützen. Eine Fallstudie beim Französischen Roten Kreuz wird diesen Vorschlag validieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41263-9_22 8f2f41f894936706971eca6006d38088;de;;;7.1.;;;Zukünftige Richtungen für die Forschung zu Informationstechnologie und Bildungsmanagement In diesem Beitrag werden die Merkmale der bisherigen Forschung zu Informationstechnologie und Bildungsmanagement (ITEM) dargestellt. Vorschläge für die zukünftige Forschung in Bezug auf Forschungsthemen und Methodik werden formuliert. Darüber hinaus wird die sogenannte User Acceptance Audit Methodik vorgestellt, die Hindernisse und Förderer für den Systemerfolg identifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34844-5_49 1f3342037d4585be76d2c8adacf942b6;de;;;7.1.;;;Chancen und Hindernisse bei der Nutzung von IT-Systemen: Einbettung von Movex in Edsbyns Ressourcennetzwerk Nur wenige Technologien sind von so hohen Erwartungen umgeben wie die Informationstechnologie (IT). Visionäre, Unternehmensberater und Akademiker schreiben der IT regelmäßig die Macht der Öffnung zu;-;-;-;https://link.springer.com/chapter/10.1057/9780230379695_15 9a446b4249831dff3759320617fe8574;de;;;7.2.;;;Verbesserungen beim Suffix-Baum-Clustering Wir untersuchen Dokumentenclustering durch die Adaption der Methode von Zamir und Etzioni für Suffix Tree Clustering. Wir haben ihn mit erheblichen Verbesserungen in Bezug auf Effektivität und Effizienz im Vergleich zum ursprünglichen Algorithmus modifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06028-6_73 df0153a02ed3b2e9afdf12d7ae06b1de;de;;;7.2.;;;Die Auswirkungen von Outsourcing-Ankündigungen auf die Marktwerte von Schweizer Unternehmen: Eine Eventstudie Die möglichen Vorteile von IT-Outsourcing werden sehr kontrovers diskutiert. Zur Ermittlung der Kostenwirkungen müssen Kostendaten für die interne Erbringung der IT-Leistungen vorliegen. Diese Daten sind jedoch oft nicht im notwendigen Detaillierungsgrad verfügbar. Beispielsweise sind die in den Fachabteilungen anfallenden IT-Kosten in der Regel nicht gut dokumentiert. Darüber hinaus sind die Wertversprechen ausgelagerter IT-Services wie hochwertigerer Kundenservice, schlankere Geschäftsprozesse und bessere und frühere Informationen über IT-Innovationen schwer zu quantifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88851-2_9 f69ca5baa94c1f5a14d5067738e86a57;de;;;7.2.;;;Die Bedeutung von Linknachweisen in Wikipedia Wikipedia ist eine der beliebtesten Informationsquellen im Web. Die freie Enzyklopädie ist eng verknüpft. Die Linkstruktur in Wikipedia unterscheidet sich von der des Webs insgesamt: Interne Links in Wikipedia basieren normalerweise auf Wörtern, die natürlicherweise auf einer Seite vorkommen, und verweisen auf einen anderen semantisch verwandten Eintrag. Unser Hauptziel ist es herauszufinden, ob die Linkstruktur von Wikipedia zur Verbesserung der Ad-hoc-Informationssuche genutzt werden kann. Wir analysieren zunächst den Zusammenhang zwischen Wikipedia-Links und der Relevanz von Seiten. Anschließend experimentieren wir mit der Verwendung von Link-Evidenz beim gezielten Abrufen von Wikipedia-Inhalten, basierend auf der Testsammlung von INEX 2006. Unsere wichtigsten Ergebnisse sind: Erstens zeigt unsere Analyse der Linkstruktur, dass die Wikipedia-Linkstruktur eine (möglicherweise schwache) Indikator der Relevanz. Zweitens zeigen unsere Experimente zu INEX-Ad-hoc-Retrieval-Aufgaben, dass wir eine signifikante Verbesserung der Retrieval-Effektivität sehen, wenn die Link-Evidenz für den lokalen Kontext sensibel gemacht wird. Daher haben wir im Gegensatz zu früheren TREC-Experimenten mit gecrawlten Webdaten gezeigt, dass die Linkstruktur von Wikipedia dazu beitragen kann, die Effektivität des Ad-hoc-Abrufs zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78646-7_26 a62a47dffded441788da925e196fe5ac;de;;;7.2.;;;Auf SPI zur Bewertung von Einflussdiagrammen Ein Einflussdiagramm ist ein probabilistisches grafisches Modell, das verwendet wird, um Entscheidungsprobleme unter Unsicherheit darzustellen und zu lösen. Seine Bewertung erfordert eine Reihe von Kombinationen und Marginalisierungen mit den Potenzialen, die mit dem Einflussdiagramm verbunden sind. Das Finden einer optimalen Ordnung für diese Operationen, die NP-hart ist, ist ein Element von entscheidender Bedeutung für die Effizienz der Auswertung. Der SPI-Algorithmus betrachtet die Auswertung als ein kombinatorisches Faktorisierungsproblem. In diesem Papier beschreiben wir, wie die Prinzipien von SPI verwendet werden können, um Einflussdiagramme zu lösen. Wir beinhalten auch eine Bewertung verschiedener Kombinationsauswahlheuristiken und einen Vergleich mit dem Variableneliminationsalgorithmus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08795-5_52 5260ce34f7d1930029eeaf450a292544;de;;;7.2.;;;iQA: Ein intelligentes System zur Beantwortung von Fragen Question Answering (QA) ist die Studie über die Methodik, die genaue Antworten auf Fragen in natürlicher Sprache liefert. Dieses Papier versucht, die Abdeckung und Genauigkeit von QS-Systemen zu erhöhen, indem die semantische Lücke zwischen Fragen mit abgekürzten Begriffen und ihren möglichen Antworten verringert wird. Um dieses Ziel zu erreichen, umfasst die Verarbeitung (1) das Identifizieren von Begriffen, die Abkürzungen aus der Frage des Benutzers in natürlicher Sprache sein könnten, (2) das Abrufen von Dokumenten, die für diesen Abkürzungsbegriff relevant sind, (3) das Filtern von Nominalphrasen, die als potenzielle Langformen für long angesehen werden diese Abkürzung im zurückgegebenen Ergebnis.;-;-;-;https://link.springer.com/chapter/10.1007/11599517_38 36ef655549924c3c312c83aea44b2910;de;;;7.2.;;;Leistungsbewertung des entwickelten automatischen Notenübersetzungssystems Das automatische Musiknoten-Übersetzungssystem bezieht sich auf die Fähigkeit eines Computers, die aufgenommene oder aufgezeichnete Melodie automatisch und sofort in Musiknoten zu übersetzen. Dieser Artikel stellt die Entwicklung eines solchen Systems vor, bei dem ein Musiker Musik direkt ohne zusätzliche Prozesse oder Verfahren in Echtzeitumgebungen komponieren kann. Bei diesem automatischen Übersetzungssystem werden die Informationen der aufgenommenen oder aufgenommenen Melodie von einem Mikrofon oder Musikinstrument zuerst durch digitale Signalverarbeitung (DSP) analysiert, um ihre Grundfrequenz zu extrahieren. Die extrahierte Grundfrequenz wird dann im Computer mit der vordefinierten Frequenz von Musiknoten verglichen. Die angepasste Musiknotenfrequenz wird an der entwickelten Notenzeilenschnittstelle sofort erkannt. Die Leistung des entwickelten automatischen Notenübersetzungssystems wird mit verschiedenen Abtastraten bewertet. Die Ergebnisse zeigen, dass die optimierte Abtastrate für die höchste Genauigkeit im entwickelten System 44100 Hz beträgt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25483-3_13 b2bb45c77d1b3dafb3476adbd61803a0;de;;;7.2.;;;Verwendung von Aktualitäts- und Informationsmaßnahmen zur Verbesserung der Dokumentendarstellung für die Erkennung von Story-Links Mehrere Informationsorganisations-, Zugriffs- und Filtersysteme können von anderen Arten von Dokumentdarstellungen profitieren als die, die beim traditionellen Information Retrieval (IR) verwendet werden. Topic Detection and Tracking (TDT) ist ein Beispiel für eine solche Domäne. In diesem Beitrag zeigen wir, dass traditionelle Methoden zur Begriffsgewichtung aktuelle Informationen nicht erfassen und dies zu einer unzureichenden Darstellung von Dokumenten für TDT-Anwendungen führt. Wir stellen verschiedene Hypothesen zu den Faktoren vor, die bei der Verbesserung der Dokumentendarstellung für Story Link Detection (SLD) – eine Kernaufgabe von TDT – helfen können. Diese Hypothesen werden mit verschiedenen TDT-Korpora getestet. Aus unseren Experimenten und Analysen haben wir herausgefunden, dass um a;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71496-5_36 c528ab72b4bac592d0a3fff42260fdd3;de;;;7.2.;;;Terminologie-Mining Terminology Mining ist ein großer Fortschritt bei der Terminologieextraktion und umfasst die Erfassung und Strukturierung der Kandidatenbegriffe. Wir stellen eine Terminologie-Mining-Methode vor, die auf linguistischen Kriterien und kombinierten Computermethoden basiert. Im Terminology Mining wird auf den Erwerb komplexer Begriffe, das Auffinden neuer Begriffe, aber auch auf die Strukturierung der erworbenen Kandidatenbegriffe Bezug genommen. Zunächst werden die sprachlichen Spezifikationen der Begriffe für das Französische gegeben und eine Typologie der Basisbegriffe und ihrer Variationen definiert. Wir betonen den entscheidenden Teil des Umgangs mit Termvariationen, um eine linguistische Strukturierung aufzubauen, eine fortgeschrittene Lexikalisierung zu erkennen und eine optimierte Repräsentativität der Kandidaten-Termvorkommen zu erhalten. Zweitens gehen wir zu den implementierten Rechenmethoden über: flaches Parsing, morphologische Analyse, morphologisches Regellernen und lexikalische Statistik. Drittens wird das System zur Identifizierung von Basisbegriffen und deren Variationen, ACABIT (Automatic Corpus-Based Acquisition of Binary Terms), vorgestellt: seine Architektur, die Sprachen, auf die es angewendet wird, und seine Funktionen. Abschließend wird ein Überblick über Evaluationsmethoden zur Terminologieextraktion gegeben und Ergebnisse zur Effizienz von ACABIT in Evaluationskampagnen diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45092-4_2 b854c8fa1c50b467f6242b59fd311032;de;;;7.2.;;;Automatische Synchronisierung zwischen Audio und partieller Musikpartiturdarstellung In diesem Beitrag schlagen wir einen Algorithmus namens ParSi (Partial Synchronization) vor, der verschiedene PCM-Ausführungen mit einer partiellen Musikpartiturdarstellung ausrichtet. Im Allgemeinen erfordern die meisten Synchronisationsalgorithmen eine vollständige Partiturdarstellung, trotzdem ist unser Algorithmus in der Lage, verschiedene PCM-Audioausführungen mit einer in MIDI kodierten Partitur zu synchronisieren. Daher wird beim Audio-Score-Alignment nur ein vom Benutzer ausgewähltes MIDI-Instrument verwendet. Die Audioanalyse erfolgt mit einem Notch-Filter. Während der Entscheidungsphase wird ein Satz bequemer Parameter verwendet. Die Analyse der Synchronisationsergebnisse wird bereitgestellt. Es zeigt, dass wir eine gute automatische Synchronisation haben können, selbst wenn nur eine Teilpunktzahl verfügbar ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14758-6_9 4f1d166b86d7162f3e86317fc956e998;de;;;7.2.;;;Kombinieren von Bild- und strukturiertem Textabruf Zwei gängige Ansätze beim Abrufen von Bildern aus einer Sammlung sind das Abrufen von Textschlüsselwörtern und das Abrufen von visuellem Inhalt. Es ist jedoch allgemein anerkannt, dass es mit Schlüsselwörtern allein unmöglich ist, visuellen Inhalt vollständig zu beschreiben. Dieser Beitrag berichtet über die Teilnahme der RMIT University-Gruppe am Multimedia-Track INEX 2005, wo wir unseren Ansatz untersucht haben, Beweise aus einem inhaltsorientierten XML-Retrieval-System und einem inhaltsbasierten Bild-Retrieval-System unter Verwendung einer linearen Kombination von Beweisen zu kombinieren. Unser Ansatz ergab das beste Gesamtergebnis für den INEX 2005 Multimedia Track unter Verwendung der Standardbewertungsmaße. Wir haben unsere Arbeit erweitert, indem wir den Parameter für die lineare Kombination von Evidenz variierten, und wir haben auch die Leistung der von den Teilnehmern eingereichten Läufe mit der neu vorgeschlagenen Bewertungsmetrik HiXEval untersucht. Wir zeigen, dass die Verwendung von CBIR in Verbindung mit der Textsuche zu einer besseren Abrufleistung führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-34963-1_40 28ac2858f2ccb92323bda2005ac55de4;de;;;7.2.;;;Formalisierung der Informationsbewertung in einem mehrwertigen Logik-Framework Dieses Papier befasst sich mit der Aufgabe des Informations-Scorings, das als Messung des Vertrauensgrades verstanden wird, der in eine Information investiert werden kann. Dazu wird vorgeschlagen, den Vertrauensbildungsprozess als sequentielle Integration relevanter Dimensionen zu modellieren. Es schlägt auch vor, sowohl den Grad des Vertrauens als auch den Prozess in einem erweiterten mehrwertigen Logikrahmen zu formalisieren, der zwischen einer indifferenten Ebene und der tatsächlichen Unmöglichkeit der Messung unterscheidet. Um den Prozess zu formalisieren, werden mehrwertige Kombinationsoperatoren vorgeschlagen, die dem gewünschten Verhalten entsprechen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08795-5_33 9b4e1662e6942ac1ed91fadb154384f4;de;;;7.1.;;;Management und Führung für die digitale Transformation im Tourismus Informations- und Kommunikationstechnologien sind wesentliche Treiber des Wandels. Auch im Tourismus müssen Unternehmen und ganze Destinationen neue Geschäftsmodelle finden, um wettbewerbsfähig und relevant zu bleiben. Die Möglichkeiten digitaler Technologien bei der Entwicklung neuer Geschäftsmodelle zu nutzen heißt;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-030-05324-6_68-1 b7c63ee60775af509e7584507e23e8ec;de;;;7.2.;;;Ein adaptives Spreading-Aktivierungsschema zur Durchführung einer effektiveren kollaborativen Empfehlung Während die Spread-Aktivierung ihre Wirksamkeit bei der Lösung des Problems des Kaltstarts und der spärlichen Empfehlung bei der Zusammenarbeit unter Beweis gestellt hat, wird sie mit zunehmender Dichte des Datensatzes einen Leistungsabfall (Überaktivierung) erleiden. In diesem Papier stellen wir zunächst die Konzepte der Rating-Ähnlichkeitsmatrix (RSM) und der Rating-Ähnlichkeits-Aggregation (RSA) vor, auf deren Grundlage wir dann das bestehende Spreading-Aktivierungsschema erweitern, um sowohl die binären (Transaktions-) als auch die numerischen Bewertungen zu behandeln. Danach wird ein iterativer Algorithmus vorgeschlagen, um RSM-Parameter aus den beobachteten Bewertungen zu lernen, wodurch er sich automatisch an die Benutzerähnlichkeit anpasst, die durch ihre Bewertungen auf verschiedenen Gegenständen gezeigt wird. Daher sind die Ähnlichkeitsberechnungen in der Regel vernünftiger und effektiver. Schließlich testen wir unsere Methode mit dem EachMovie-Datensatz, dem typischsten Benchmark für kollaborative Empfehlungen und zeigen, dass unsere Methode erfolgreich den Effekt der Überaktivierung abmildert und die bestehenden Algorithmen sowohl auf den spärlichen als auch auf den dichten Datensatz übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/11546924_10 8164ca5c1ec5ce28e942af87c4bcd271;de;;;7.2.;;;Eine interaktive Papier- und Digitalstift-Schnittstelle für den Query-by-Sketch-Bildabruf Eine große Herausforderung beim Umgang mit großen Sammlungen digitaler Bilder besteht darin, relevante Objekte zu finden, insbesondere wenn keine Metadaten zu den Objekten verfügbar sind. Content-based Image Retrieval (CBIR) behebt dieses Problem, es fehlen jedoch in der Regel Abfragebilder, die gut genug sind, um den Informationsbedarf des Benutzers auszudrücken. Daher wurde CBIR in Query-by-Sketch mit von Benutzern bereitgestellten Skizzen als Abfrageobjekte betrachtet – aber bisher litt dies unter den Einschränkungen bestehender Benutzeroberflächen. In diesem Papier stellen wir eine neuartige Benutzeroberfläche für die Abfrage nach Skizze vor, die die aufkommende interaktive Papier- und digitale Stifttechnologie nutzt. Benutzer können auf benutzerfreundliche Weise Skizzen auf Papier zeichnen. Durch eine Streaming-Schnittstelle vom digitalen Stift zum darunterliegenden CBIR-System kann die Suche interaktiv vom Papier-Frontend aus gestartet werden. Wir stellen die Implementierung der interaktiven Papier-/Digitalstift-Schnittstelle auf QbS, unserem System für CBIR anhand von Skizzen vor und stellen die Evaluierung des Systems anhand der MIRFICKR-25000-Bildersammlung ausführlich vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28997-2_27 974f0a915fbf1814f8db19f89677a182;de;;;7.2.;;;Design der Benutzer-System-Schnittstelle Viele Gestaltungsprinzipien, die sich auf die Schnittstelle zwischen computerbasierten Systemen und ihren menschlichen Benutzern beziehen, leiten sich aus Überlegungen des menschlichen Faktors (HF) ab. Im ersten Teil dieses Beitrags wird gezeigt, wie einige der wichtigsten HF-basierten Prinzipien in den von Ronald Stamper vorgeschlagenen organisatorischen semiotischen Rahmen eingefügt werden können. Im zweiten Teil des Beitrags wird der Nutzen dieser Integration aufgezeigt, indem gezeigt wird, wie eine semiotische Perspektive zu einem analytischeren Verständnis der Implikationen der betreffenden Gestaltungsprinzipien führen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35611-2_8 e95125be12f02b15b47ae4a34b048c26;de;;;7.2.;;;Über einige Verwendungen eines geschichteten Teilers in einem ordinalen Rahmen In diesem Beitrag interessieren wir uns für die Berücksichtigung von Präferenzen bei abteilungsähnlichen Abfragen. Das Interesse an der Einführung von Präferenzen besteht darin, zuerst den Benutzerbedürfnissen gerecht zu werden und dann diskriminierte Ergebnisse anstelle eines flachen Satzes von Elementen zu erhalten. Hier besteht die Idee darin, ordinale Präferenzen zu verwenden, die für einen gelegentlichen Benutzer nicht zu anspruchsvoll sind. Darüber hinaus ist der betrachtete Abfragetyp vom Divisionsoperator und einigen seiner Variationen inspiriert, bei denen Präferenzen nur für den Divisor gelten. Die Division zielt darauf ab, die mit einer bestimmten Menge von Werten assoziierten Elemente abzurufen, und in ähnlicher Weise sucht die Anti-Division nach Elementen, die keinem der Werte einer bestimmten Menge zugeordnet sind. Einer der Schwerpunkte dieses Artikels ist es, Abfragen zu untersuchen, die diese beiden Aspekte mischen. Um mit der Bezeichnung der (Anti-)Teilung kohärent zu bleiben, wird die Eigenschaft des gelieferten Ergebnisses charakterisiert. Schließlich wird der Implementierung solcher Abfragen mit Hilfe eines regulären Datenbankmanagementsystems besondere Aufmerksamkeit gewidmet und einige experimentelle Ergebnisse verdeutlichen die Machbarkeit des Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10663-7_9 1e8f15a385c05165a85f847b49b74636;de;;;7.2.;;;Utility-basierter Ansatz zur Darstellung der Gesprächspräferenzen von Agenten Mit dem wachsenden Interesse an auf Multi-Agent-Systemen (MAS) basierenden Lösungen findet man mehrere MAS-Konzepte und -Implementierungen, die demselben Ziel dienen. Diese Systeme mit ihrem komplexen Verhalten sind selten vorhersehbar. Sie können je nach Interaktionssequenz der Agenten unterschiedliche Ergebnisse liefern. Folglich wurde eine Bewertung der Qualität der von MAS zurückgegebenen Ergebnisse dringend erforderlich. Unser Ansatz ist an der Auswertung von High-Level-Daten interessiert, indem die Präferenzen der Agenten in Bezug auf Performative berücksichtigt werden. In Analogie zum Wirtschaftsbereich können Agenten nach Dienstleistungen fragen, also sind sie;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08855-6_46 044900c2c7bdb1402cc3d62576a1ba71;de;;;7.2.;;;Leistungsbewertung der Umschaltung zwischen Routing-Protokollen in mobilen Ad-hoc-Netzwerken Ad-hoc-Netzwerke verwenden Routing-Protokolle, damit Knoten außerhalb der Reichweite über Zwischenknoten miteinander kommunizieren können. Die angeborene Dynamik und Komplexität von mobilen Ad-hoc-Netzwerken hat dazu geführt, dass zahlreiche Routing-Protokolle für Ad-hoc-Netzwerke vorgeschlagen wurden. Darüber hinaus wird in der Literatur weiterhin über zahlreiche Varianten und Hybride dieser bestehenden Protokolle berichtet. Diese Vielfalt scheint dem Feld inhärent zu sein, und es scheint unwahrscheinlich, dass es jemals eine „one-size-fits-all“-Lösung für das Ad-hoc-Routing-Problem geben wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25483-3_17 7f4c937d51915e8b7f7e8b08b0f34e35;de;;;7.2.;;;Bibliographische Namensdisambiguierung mit Graph Convolutional Network Namensdisambiguierung, die darauf abzielt, reale Personen von Dokumenten, die mit derselben Referenz verbunden sind, durch Unterteilung der Dokumente zu unterscheiden, hat bei vielen intelligenten Aufgaben, z. Bestehende Methoden implementieren die Namensdisambiguierung unter Verwendung von Verknüpfungsinformationen oder biografischen Merkmalen, jedoch versuchen nur wenige Arbeiten, sie effektiv zu kombinieren. In diesem Papier schlagen wir ein neuartiges Modell vor, das strukturelle Informationen und Attributmerkmale basierend auf dem Graph Convolutional Network enthält, um diskriminierende Einbettung zu lernen, und eine individuelle Unterscheidung durch die Ausstattung eines hierarchischen Clustering-Algorithmus erreicht. Wir evaluieren das vorgeschlagene Modell auf realen akademischen Netzwerken Aminer, und experimentelle Ergebnisse zeigen, dass die vorgeschlagene Methode mit den modernsten Methoden konkurrenzfähig ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-34223-4_34 af9af6b170989067dd25655782c89f94;de;;;7.2.;;;Nutzung von Hintergrundinformationen bei der Wissenssuche aus Text Dieses Papier beschreibt das FACT-System zur Wissensfindung aus Text. Es entdeckt Assoziationen – Muster des gemeinsamen Auftretens – zwischen Schlüsselwörtern, die die Elemente in einer Sammlung von Textdokumenten kennzeichnen. Wenn außerdem Hintergrundwissen über die Schlüsselwörter, die die Dokumente kennzeichnen, verfügbar ist, kann FACT diese Informationen in seinem Ermittlungsprozess verwenden. FACT nimmt eine abfragezentrierte Sicht der Wissensermittlung ein, bei der eine Ermittlungsanforderung als Abfrage der impliziten Menge möglicher Ergebnisse, die von einer Sammlung von Dokumenten unterstützt werden, angesehen wird und wobei Hintergrundwissen verwendet wird, um Einschränkungen für die gewünschten Ergebnisse dieses Abfrageprozesses zu spezifizieren. Die Ausführung einer Wissensermittlungsabfrage ist so strukturiert, dass diese Hintergrundwissensbeschränkungen bei der Suche nach möglichen Ergebnissen ausgenutzt werden können. Anstatt von einem Benutzer zu verlangen, einen expliziten Abfrageausdruck in der Wissensermittlungs-Abfragesprache anzugeben, präsentiert FACT dem Benutzer schließlich eine einfach zu verwendende grafische Schnittstelle zur Abfragesprache, wobei die Sprache eine wohldefinierte Semantik für die Ermittlungsaktionen bereitstellt, die ein Benutzer über die Schnittstelle.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008693204338 bcdee49c8157793ee80909a5ad3ca578;de;;;7.2.;;;Die Wikipedia-Bildabrufaufgabe Die Wikipedia-Image-Retrieval-Aufgabe bei ImageCLEF bietet eine Testumgebung für die systemorientierte Auswertung des visuellen Informations-Retrievals aus einer Sammlung von Wikipedia-Bildern. Ziel ist es, die Effektivität von Retrieval-Ansätzen zu untersuchen, die textliche und visuelle Beweise im Kontext einer großen und heterogenen Sammlung von Bildern nutzen, die von Benutzern mit unterschiedlichen Informationsbedürfnissen gesucht werden. Dieses Kapitel bietet einen Überblick über die verfügbaren Testsammlungen, fasst die Retrieval-Ansätze zusammen, die von den Gruppen, die an der Aufgabe während der ImageCLEF-Kampagnen 2008 und 2009 teilnahmen, verwendet wurden, bietet eine Analyse der wichtigsten Evaluierungsergebnisse, identifiziert bewährte Verfahren für eine effektive Recherche und diskutiert offene Punkte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15181-1_9 a97da0a8683e043c45651e87fd9589f3;de;;;7.2.;;;Verwenden manueller und automatisierter Annotationen, um Bilder nach semantischer Ähnlichkeit zu durchsuchen Das Auffinden semantisch ähnlicher Bilder ist ein Problem, das auf Bildanmerkungen beruht, die manuell von Amateuren oder Profis zugewiesen oder automatisch von einem Algorithmus unter Verwendung von Low-Level-Bildmerkmalen berechnet werden. Diese Bildanmerkungen erzeugen einen Schlüsselwortraum, in dem eine Unähnlichkeitsfunktion die semantische Beziehung zwischen Bildern quantifiziert. Vor diesem Hintergrund verfolgt diese Arbeit zwei Ziele. Zuerst vergleichen wir Amateurannotationen mit professionellen Benutzerannotationen und schlagen ein Modell für manuelle Annotationsfehler vor, genauer gesagt ein asymmetrisches Binärmodell. Zweitens untersuchen wir verschiedene Aspekte der Suche nach semantischer Ähnlichkeit. Genauer gesagt untersuchen wir die Genauigkeit manueller Annotationen im Vergleich zu automatischen Annotationen, den Einfluss manueller Annotationen mit unterschiedlicher Genauigkeit als Folge falscher Annotationen und untersuchen den Einfluss der Dimensionalität des Schlüsselwortraums. Um diese Aspekte zu beurteilen, haben wir Experimente an einem professionellen Bilddatensatz (Corel) und zwei Amateur-Bilddatensätzen (einer mit 25.000 Flickr-Bildern und einer mit 269.648 Flickr-Bildern) mit einer Vielzahl von Schlagworten, mit unterschiedlichen Ähnlichkeitsfunktionen und sowohl mit manuellen als auch automatische Annotationsmethoden. Wir stellen fest, dass manuelle Annotationen auf Amateurebene eine bessere Leistung für Spitzenergebnisse in allen Datensätzen (MP@20) bieten. Für Full Rank Measures (MAP) in den realen Datensätzen (Flickr) ist das Abrufen durch semantische Ähnlichkeit mit automatischen Annotationen jedoch ähnlich oder besser als manuelle Annotationen auf Amateurebene.;-;-;-;https://link.springer.com/article/10.1007/s11042-010-0558-3 8b71eca3cedce02be5d0865f0719a607;de;;;7.2.;;;NURBS-Oberflächen mit Wasserzeichen versehen Die Popularität des World Wide Web und die leichte Verfügbarkeit der digitalen Inhalte haben die Sicherheitsprobleme in den Vordergrund gerückt. NURBS wird aufgrund seiner starken repräsentativen Eigenschaften häufig im computergestützten Geometriedesign und in der Computergrafik verwendet. In diesem Papier stellen wir einen blinden Wasserzeichen-Algorithmus für NURBS-Oberflächen vor. Zuerst werden die von der NURBS-Oberfläche abgetasteten Punkte im DCT-Bereich mit einem Wasserzeichen versehen, dann wird die mit Wasserzeichen versehene NURBS-Oberfläche durch iteratives Anpassen der mit Wasserzeichen versehenen Punkte erhalten. In der Wasserzeichenerkennungsstufe wird der Vorzeichenkorrelationsdetektor verwendet, der ein Blinddetektor ist und dementsprechend wird die ursprüngliche NURBS-Oberfläche für die Erkennung nicht benötigt. Die experimentellen Ergebnisse zeigen, dass der Algorithmus die Form der NURBS-Oberfläche beibehält. Der vorgeschlagene Algorithmus ist robust gegenüber Angriffen wie Knoteneinfügung, Knotenentfernung, Neuparametrisierung, Ordnungserhöhung, Ordnungsreduzierung, additivem weißen Gaußschen Rauschen, Rotation, Translation, Skalierung, Multi-Wasserzeichen-Angriffen usw.;-;-;-;https://link.springer.com/chapter/10.1007/11582267_29 d53e089248a6b9619445004f9ee4424d;de;;;7.2.;;;Zerlegung von Patentansprüchen für eine verbesserte Informationsextraktion In mehreren Anwendungsbereichen hat die Forschung zur Verarbeitung natürlicher Sprache und zur Informationsextraktion wertvolle Werkzeuge hervorgebracht, die den Menschen bei der Strukturierung, Aggregation und Verwaltung großer Mengen von als Text verfügbaren Informationen unterstützen. Patentansprüche sind, obwohl sie einer Reihe strenger Beschränkungen unterliegen und daher in vorhersehbare Strukturen gezwungen sind, in einer Sprache geschrieben, an der selbst gute Parsing-Algorithmen kläglich versagen. Dies wird hauptsächlich durch lange und komplexe Sätze verursacht, die aus einer Vielzahl von beschreibenden Elementen bestehen. Wir präsentieren einen Ansatz zum Aufteilen von Patentansprüchen in mehrere Teile, um die Parsing-Leistung für die weitere automatische Verarbeitung zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19231-9_10 be7e52be095e519d9b562b1409f79036;de;;;7.2.;;;Eine Anpassungsmethode für hierarchische Benutzerprofile in personalisierten Dokumentenabrufsystemen Heutzutage werden Personalisierungssysteme immer bekannter. Normalerweise sammeln solche Systeme Informationen über einen Benutzer, um ihm bessere Ergebnisse zu empfehlen: Webseiten, Dokumente usw. Ein wichtiger Aspekt bei der Modellierung von Benutzerverfahren ist es, das Profil entsprechend den Änderungen der Benutzerinteressen aktuell zu halten. In dieser Arbeit wird ein hierarchisches Modell des Benutzerprofils betrachtet. Verbindungen zwischen Begriffen in einer Hierarchie spiegeln die Generalisierungsbeziehung wider. Es wird eine Reihe von Annahmen für die Profilstruktur vorgeschlagen. Für ein solches Nutzerprofil wird ein Verfahren zu dessen Anpassung vorgestellt und ein Qualitätskriterium für dieses Verfahren vorgeschlagen. Die experimentelle Auswertung hat gezeigt, dass das Qualitätskriterium erfüllt ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-15702-3_11 92993006f910c0d355c8f5d961459f66;de;;;7.2.;;;IKT-Unterstützung für die fortschreitende Harmonisierung internationaler Allianzen Internationale Allianzen sind Vereinbarungen zwischen mehreren Ländern über die Zusammenarbeit im Handel oder in anderen Formen der Wirtschaftstätigkeit zum gegenseitigen Nutzen. Dieses Papier konzentriert sich darauf, wie Informations- und Kommunikationstechnologien (IKT) die Transaktionseffizienz und effektive Kontrollen im Kontext sich entwickelnder internationaler Allianzen unterstützen können. Wir konzentrieren uns auf das Potenzial elektronischer Verfahren zur automatisierten Verwaltung der Dokumentenflüsse, analog zu Workflow-Systemen innerhalb von Organisationen. Die größte Herausforderung besteht jedoch darin, die;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-7907-9_27 cbd037d7120c00ad1fed2e6d9136f26c;de;;;7.2.;;;Ein semantischer Ansatz für die Abstraktion von Geschäftsprozessmodellen Modelle von Geschäftsprozessen können leicht groß und schwer verständlich werden. Abstraktion hat sich als wirksames Mittel erwiesen, um eine lesbare, übergeordnete Ansicht eines Geschäftsprozessmodells darzustellen, indem aggregierte Aktivitäten angezeigt und irrelevante Details weggelassen werden. Es ist jedoch eine offene Frage, wie Aktivitäten in einer Weise zu übergeordneten Aufgaben zusammengefasst werden können, die solchen Aktionen von erfahrenen Modellierern entspricht. In diesem Beitrag wird ein Ansatz vorgestellt, der;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21640-4_37 a9f718f05b32526c256b0f40839a37e3;de;;;7.2.;;;Schnell aktualisierbares Indexierungsschema für strukturierte XML-Dokumente In der Information Retrieval (IR)-Gemeinschaft werden in letzter Zeit Forschungen durchgeführt, um ihre traditionellen Indexierungs- und Retrieval-Schemata auf die Suche nach XML-Dokumenten anzuwenden. Die meisten der vorgeschlagenen Indexierungsschemata gehen jedoch von einer statischen Umgebung aus, in der es keine Aktualisierung der Teile von XML-Dokumenten gibt. Es ist eine schnelle und effiziente Indexierungstechnik erforderlich, die dynamische Aktualisierungen von XML-Dokumenten in der Geschäftsdomäne unterstützen soll. In diesem Beitrag schlagen wir einen erweiterten invertierten Index vor, der Aktualisierungen des Inhalts und der Struktur von XML-Dokumenten zeitnah verarbeiten kann. Unter Verwendung der vorgeschlagenen Indexstruktur ist es möglich, eine effiziente Aktualisierung der Teile von XML-Dokumenten zu unterstützen, da Platz und Zeit für die Neuindizierung drastisch reduziert werden. Experimentelle Ergebnisse zeigen, dass unser Indexierungsschema für Aktualisierungsvorgänge schneller ist als die vorherigen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45036-X_21 d30ee8ea9e7ce43b3839f7e1e26a1533;de;;;7.2.;;;Ein perzeptueller Subjektivitätsbegriff in interaktiven inhaltsbasierten Bildabrufsystemen Dieses Kapitel stellt einen neuen Rahmen vor, der als Fuzzy-Relevanz-Feedback in interaktiven inhaltsbasierten Bildabrufsystemen (CBIR) bezeichnet wird. Ein herkömmliches binäres Kennzeichnungsschema bei der Relevanzrückmeldung erfordert eine harte Entscheidung über die Relevanz jedes abgerufenen Bildes. Dies ist unflexibel, da die Benutzerinterpretation in Bezug auf unterschiedliche Informationsbedürfnisse und Wahrnehmungssubjektivität variiert. Darüber hinaus neigen Benutzer dazu, aus den Abrufergebnissen zu lernen, um ihre Informationspriorität weiter zu verfeinern. Es reicht daher nicht aus, die unscharfe Wahrnehmung der Bildähnlichkeit durch die Nutzer mit knackiger Logik zu beschreiben. Vor diesem Hintergrund wird ein Fuzzy-Framework eingeführt, um die ungenaue Interpretation visueller Inhalte durch die Nutzer in das Relevanz-Feedback zu integrieren. Ein effizienter Lernansatz wird unter Verwendung eines Fuzzy Radial Basis Function Network (FRBFN) entwickelt. Das Netzwerk ist basierend auf einem hierarchischen Clustering-Algorithmus aufgebaut. Die zugrunde liegenden Netzwerkparameter werden aufgrund ihrer Recheneffizienz durch die Annahme einer auf Gradientenabstieg basierenden Trainingsstrategie optimiert. Experimentelle Ergebnisse mit einer Datenbank von 10.000 Bildern zeigen die Wirksamkeit der vorgeschlagenen Methode.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-32367-8_3 d715d66d54b9fdd702b36e6fe29a30a5;de;;;7.2.;;;Ereignisgesteuerte Dokumentenauswahl für die Extraktion von Terrorismusinformationen In diesem Papier untersuchen wir die Aufgabe, Informationen über Ereignisse im Zusammenhang mit Terrorismus zu extrahieren, die in einer großen Dokumentensammlung verborgen sind. Die Aufgabe geht davon aus, dass ein Ereignis im Zusammenhang mit Terrorismus durch eine Reihe von Entitäts- und Beziehungsinstanzen beschrieben werden kann. Um den Zeit- und Arbeitsaufwand beim Extrahieren dieser ereignisbezogenen Instanzen zu reduzieren, sollte die Aufgabe idealerweise nur an den relevanten Dokumenten ausgeführt werden. Wir haben daher einige Strategien zur Dokumentenauswahl vorgeschlagen, die auf Mustern der Informationsextraktion (IE) basieren. Jede Strategie versucht, jeweils ein Dokument auszuwählen, so dass der Gewinn an ereignisbezogenen Instanzinformationen maximiert wird. Unsere IE-basierten Dokumentauswahlstrategien gehen davon aus, dass einige IE-Muster angegeben werden, um Ereignisinstanzen zu extrahieren. Wir haben einige Experimente für ein Ereignis im Zusammenhang mit Terrorismus durchgeführt. Experimente haben gezeigt, dass unsere vorgeschlagenen IE-basierten Dokumentauswahlstrategien bei der Extraktionsaufgabe für Nachrichtensammlungen unterschiedlicher Größe gut funktionieren.;-;-;-;https://link.springer.com/chapter/10.1007/11427995_4 2e3379948db160be7bfd2a59243ee252;de;;;7.2.;;;ALBAYZIN 2018 Bewertung der Erkennung gesprochener Begriffe: eine internationale Bewertung mit mehreren Domänen auf Spanisch Search on Speech (SoS) ist aufgrund der riesigen Menge an Informationen, die in Audio- und Video-Repositorys gespeichert sind, ein anspruchsvoller Bereich. Spoken Term Detection (STD) ist eine SoS-bezogene Aufgabe, die darauf abzielt, Daten aus einem Sprachspeicher abzurufen, wenn eine Textdarstellung eines Suchbegriffs (der ein oder mehrere Wörter enthalten kann) gegeben ist. Dieses Papier präsentiert eine international offene Multi-Domain-Bewertung für STD in Spanisch. Die Auswertung wurde sorgfältig konzipiert, so dass mehrere Analysen der wichtigsten Ergebnisse durchgeführt werden können. Die Bewertungsaufgabe zielt darauf ab, die Sprachdateien abzurufen, die die Begriffe enthalten, ihre Start- und Endzeiten sowie eine Bewertung anzugeben, die die der Erkennung gegebene Sicherheit widerspiegelt. Bei der Auswertung wurden drei verschiedene spanische Sprachdatenbanken verwendet, die unterschiedliche Domänen umfassen: die MAVIR-Datenbank, die eine Reihe von Vorträgen aus Workshops umfasst, die RTVE-Datenbank, die ausgestrahlte Nachrichtensendungen enthält, und die COREMAH-Datenbank, die spontane 2-Personen enthält Sprachgespräche zu verschiedenen Themen. Wir stellen die Evaluation selbst, die drei Datenbanken, die Evaluationsmetrik, die zur Evaluation vorgelegten Systeme, die Ergebnisse und detaillierte Nachevaluierungsanalysen anhand einiger Begriffseigenschaften (innerhalb/außerhalb des Wortschatzes, Einzelwort /Begriffe aus mehreren Wörtern und muttersprachliche/fremde Begriffe). Auch Fusionsergebnisse der zur Bewertung vorgelegten Primärsysteme werden präsentiert. An der Evaluation nahmen drei verschiedene Forschungsgruppen teil, 11 verschiedene Systeme wurden eingereicht. Die erhaltenen Ergebnisse deuten darauf hin, dass die STD-Aufgabe noch im Gange ist und die Leistung sehr empfindlich auf Änderungen in der Datendomäne reagiert.;-;-;-;https://link.springer.com/article/10.1186/s13636-019-0159-7 c6038794171b541728779a44a8c1f386;de;;;7.2.;;;RDF-Stores für verbesserte Wohnumgebungen: Ein Überblick Die Handhabung großer Wissensdatenbanken mit Informationen aus verschiedenen Domänen wie dem World Wide Web ist ein komplexes Problem, das im Resource Description Framework (RDF) angesprochen wird, indem den Daten selbst eine semantische Bedeutung hinzugefügt wird. Die Menge an verknüpften Daten hat eine Reihe von spezialisierten Datenbanken mit sich gebracht, die in der Lage sind, RDF-Daten zu speichern und zu verarbeiten, sogenannte RDF-Speicher. Wir untersuchen die RDF-Ladenlandschaft mit dem Ziel, einen RDF-Laden zu finden, der die Speicheranforderungen einer verbesserten Wohnumgebung ausreichend erfüllt, genauer gesagt die Anforderungen einer Smart Space-Plattform, die darauf abzielt, auf einem Cluster aus stromsparender Hardware zu laufen, die vollständig zu Hause lokal ausgeführt werden, um Daten für ein reaktives Assistenzsystem zu protokollieren, das zB Aktivitätserkennung oder Domotik umfasst. Wir präsentieren eine Literaturanalyse von RDF-Stores und identifizieren vielversprechende Kandidaten für die Implementierung von Consumer Smart Spaces. Basierend auf den Erkenntnissen unserer Studie schlagen wir abschließend verschiedene relevante Aspekte von RDF-Speichersystemen vor, die in Umgebungen mit unterstütztem Wohnumfeld berücksichtigt werden müssen, und vergleichen die verfügbaren Lösungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-10752-9_2 d927ac5d2ac430367dabea48d5c9411b;de;;;7.2.;;;Abrufen von NASA-Problemberichten mit natürlicher Sprache Es wird ein System beschrieben, das Problemberichte aus einer NASA-Datenbank abruft. Die Datenbank wird mit natürlichsprachlichen Fragen abgefragt. Mit einem regelbasierten Tagger werden zunächst jedem Wort in der Frage Wortart-Tags zugewiesen. Ein partieller Parse der Frage wird dann mit unabhängigen Mengen deterministischer endlicher Automaten erzeugt. Unter Verwendung von partiellen Parse-Informationen durchsucht eine Nachschlagestrategie die Datenbank nach Problemberichten, die für die Frage relevant sind. Zur Verbesserung der Genauigkeit wurden ein Bigramm-Stammer und unregelmäßige Verbkonjugate in das System integriert. Das System wird durch eine Reihe von fünfundfünfzig Fragen bewertet, die von NASA-Ingenieuren gestellt wurden. Es wird auch eine Diskussion über die zukünftige Forschung vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36271-1_13 b94ce3a81d32078485f1169b5e55d70f;de;;;7.2.;;;Spiegelt die Themenmodellierung semantische Prototypen wider? Das Kapitel führt eine Darstellung eines Textereignisses als eine Mischung aus semantischen Stereotypen und Sachinformationen ein. Wir stellen auch eine Methode vor, um semantische Prototypen, die spezifisch für ein bestimmtes Ereignis sind, von generischen Elementen zu unterscheiden, die Informationen zu Ursachen und Ergebnissen liefern können. Darüber hinaus werden in diesem Kapitel die Ergebnisse von Experimenten zur unüberwachten Themenextraktion diskutiert, die an Dokumenten aus einem großen Korpus mit zusätzlicher zeitlicher Struktur durchgeführt wurden. Diese Experimente wurden als Vergleich der Art von Informationen realisiert, die von Latent Dirichlet Allocation basierend auf Log-Entropie-Gewichten und Vektorraummodellierung bereitgestellt wurden. Der Einfluss verschiedener Korpuszeitfenster auf diese Informationen wird diskutiert. Schließlich versuchen wir zu beantworten, ob die unbeaufsichtigte Topic-Modellierung tiefere semantische Informationen widerspiegeln kann, wie beispielsweise Elemente, die ein bestimmtes Ereignis oder seine Ursachen und Ergebnisse beschreiben, und diese aus Sachdaten unterscheiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10383-9_11 406ef716bd24f0d40226c1b31b724ad3;de;;;7.2.;;;Ein Protégé-Plug-In zur Ontologie-Extraktion aus Text basierend auf linguistischer Analyse In diesem Beitrag beschreiben wir ein Plug-In (OntoLT) für das weit verbreitete Ontologie-Entwicklungstool Protégé, das die interaktive Extraktion und/oder Erweiterung von Ontologien aus Text unterstützt. Der OntoLT-Ansatz bietet eine Umgebung für die Integration der linguistischen Analyse in das Ontologie-Engineering durch die Definition von Abbildungsregeln, die linguistische Entitäten in annotierten Textsammlungen Konzept- und Attributkandidaten (d. Der Beitrag erläutert diesen Ansatz genauer und diskutiert einige erste Experimente zur Ableitung einer flachen Ontologie für den Bereich der Neurologie aus einer entsprechenden Sammlung neurologischer wissenschaftlicher Abstracts.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-25956-5_3 38e5f44395b3c4c497de405d121c0a9c;de;;;7.2.;;;Dokumente als Personengemische für die Expertenfindung modellieren In diesem Beitrag beschäftigen wir uns mit dem Problem der Suche nach sachkundigen Personen im Unternehmen, der sogenannten Expertenfindung (oder Expertensuche). Wir stellen einen probabilistischen Algorithmus vor, der davon ausgeht, dass Begriffe in Dokumenten von Personen produziert werden, die darin erwähnt werden. Wir stellen Dokumente, die zu einer Abfrage abgerufen werden, als Mischungen von Sprachmodellen für Kandidaten von Experten dar. Es werden zwei Methoden zur Extraktion persönlicher Sprachmodelle vorgeschlagen sowie die Art und Weise, wie sie mit anderen Nachweisen der Expertise kombiniert werden können. Experimente, die mit der TREC Enterprise-Kollektion durchgeführt wurden, zeigen die Überlegenheit unseres Ansatzes im Vergleich zu den besten unter den bestehenden Lösungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78646-7_29 7430f242a4f23fd414db62094acb6ca9;de;;;7.1.;;;Fachorientiertes Referenzmodell für die Inbetriebnahme des virtuellen Fabrikbetriebs Die Inbetriebnahme von Fertigungsanlagen gilt als komplexe und zugleich kritische Phase im Lebenszyklus einer Produktionsanlage, denn Fehler und Verzögerungen führen zu langen Stillstandzeiten und kostenintensiven Nacharbeiten beim Produktionsstart. Optimierungen und Rationalisierungen dieser Phase lassen sich durch die Idee der virtuellen Inbetriebnahme realisieren. Dieser Beitrag fasst konzeptionelle Ansätze zur virtuellen Inbetriebnahme zusammen und konzertiert diese mit Hilfe von themenorientierten Vorgehensmodellen. Diese bilden als Referenzmodelle den Prozess der Anlagenauslegung ab und demonstrieren den Vorteil der virtuellen Inbetriebnahme hinsichtlich Zeit, Kosten und Qualität. Die Diskussion entlang anerkannter Qualitätskriterien zeigt, dass das Referenzmodell geeignet ist, den am Anlagenbau beteiligten Personen Orientierung zu geben und die Erstellung unternehmensspezifischer Modelle zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-79186-5_11 7aad87b1f746b01d9d72ce79cc1fe961;de;;;7.1.;;;Wissensmanagement in einer verteilten Organisation Für fortgeschrittene Organisationen ist es sehr wichtig geworden, Informationen aus verschiedenen Dokumentenquellen innerhalb von Unternehmen und aus externen Quellen wie dem Internet optimal zu nutzen. Es gibt viele Technologien in der Entwicklung, die sich mit der Wissensentdeckung befassen. Andererseits fehlt es an effizienten Technologien, die sich auf die Organisation und den Austausch von vorhandenem Wissen konzentrieren. In diesem Beitrag stellen wir die Forschung im Rahmen von Know Web vor;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35529-0_32 cee274a9ae303572dababbe0b5546319;de;;;7.2.;;;Auf dem Weg zur Diagrammverarbeitung: Ein schematisches Informationssystem Wir befürworten die Entwicklung eines Agenten, der in der Lage ist, Diagramminformationen in all ihren Formen direkt zu verarbeiten. Genauso wie wir von intelligenten Agenten erwarten, dass sie mit natürlicher Sprache vertraut sind, erwarten wir von ihnen, dass sie Diagramminformationen und ihre Verarbeitung fließend beherrschen. Zu diesem Zweck stellen wir eine Methodik vor, beschreiben ein schematisches Informationssystem, das den Wert dieser Forschungsrichtung zeigt, und evaluieren dieses System, um seine zukünftigen Erweiterungen zu motivieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0109-3_24 39bdbdd816ce41472ac741b954eaaefe;de;;;7.2.;;;Schätzung der Wahrscheinlichkeitsdichte von Inhaltstypen zur Förderung der Suche nach medizinischen Unterlagen Record Krankheiten und Symptome treten in Krankenakten in der Regel in verschiedenen Inhaltstypen auf: positiv, negativ, Familienanamnese und andere. Herkömmliche Informationsabrufsysteme, die von der Schlüsselwortübereinstimmung abhängig sind, werden oft durch die Inhaltstypen beeinträchtigt. In diesem Artikel schlagen wir einen neuartigen Lernansatz vor, der die Inhaltstypen als Funktionen nutzt, um die Suche nach medizinischen Unterlagen zu verbessern. Insbesondere werden die unterschiedlichen Inhalte aus den Krankenakten mit einem Bayes-basierten Klassifikationsverfahren identifiziert. Dann führen wir unsere typbasierte Gewichtungsfunktion ein, um die Inhaltstypen zu nutzen, bei der die Gewichtungen der Inhaltstypen automatisch berechnet werden, indem die Wahrscheinlichkeitsdichtefunktionen in den Dokumenten geschätzt werden. Schließlich evaluieren wir den Ansatz anhand der Datensätze der TREC 2011 und 2012 Medical Records, wobei unsere experimentellen Ergebnisse zeigen, dass unser Ansatz vielversprechend und überlegen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30671-1_19 132ec3ce91dfe37e9a0cf85a963286ea;de;;;7.2.;;;Überlegungen zum Wesen der Information Ich möchte von der These ausgehen, dass Automatisierung und Leben sowie Automatisierung und soziale Organisation als echte Einheit von Gemeinsamkeiten und Unterschieden zu erkennen sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-76817-0_32 b4d0f539c855d4bc94a39383fe5fd6f8;de;;;7.2.;;;Bericht: Der Prozessmodell-Matching-Wettbewerb 2013 Das Prozessmodell-Matching bezieht sich auf die Herstellung von Korrespondenzen zwischen Aktivitäten von Prozessmodellen. Die Anwendungen des Prozessmodell-Matchings sind vielfältig und reichen von der Modellvalidierung über die Harmonisierung von Prozessvarianten bis hin zum effektiven Management von Prozessmodellsammlungen. In jüngster Zeit führte diese Nachfrage zur Entwicklung verschiedener Techniken für den Prozessmodellabgleich. Diese Techniken sind jedoch Heuristiken und daher sind ihre Ergebnisse von Natur aus unsicher und müssen auf einer gemeinsamen Grundlage bewertet werden. Derzeit fehlen der BPM-Community jedoch etablierte Datensätze und Frameworks für die Auswertung. Der Process Model Matching Contest 2013 zielte darauf ab, die Notwendigkeit einer effektiven Bewertung zu adressieren, indem er Prozessmodell-Matching-Probleme über veröffentlichte Datensätze definiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06257-0_35 8f0e4b67e6900630ed61ba98e9dd5bd3;de;;;7.1.;;;Übersicht zur Risikominderung Die Methode Risk Reduction Overview (RRO) gibt einen nachvollziehbaren Überblick über den Zusammenhang von Risiken, Maßnahmen und Restrisiken. Die Methode soll die Kommunikation zwischen verschiedenen Stakeholdern im komplexen Risikomanagement unterstützen. Es werden sieben Gründe angesprochen, warum das Risikomanagement in der IT-Sicherheit viele Unsicherheiten und sich schnell ändernde Faktoren aufweist, vier für die IT-Sicherheit im Allgemeinen und drei für große Unternehmen im Besonderen. Die RRO-Visualisierung hat sich als wertvoll erwiesen, um ein Design oder eine Änderung in einer komplexen Umgebung zu diskutieren, zu optimieren, zu bewerten und zu prüfen. Die Methode wurde in den letzten sechs Jahren in großen staatlichen und militärischen Organisationen eingesetzt, evaluiert und verbessert. Sieben Bereiche in Design und Entscheidungsfindung werden identifiziert, in denen sich eine RRO als vorteilhaft erweist. Trotz des weithin anerkannten Bedarfs an Risikomanagement glauben wir, dass dies die erste praktische Methode ist, die einen umfassenden Überblick liefert und die Kommunikation zwischen verschiedenen Interessengruppen verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10975-6_18 6f05c588b27fcc74651733a76d077fb7;de;;;7.1.;;;Die Entstehung des Netzwerkunternehmens Begünstigt wurde die Einführung der Telematik durch die dramatischen Veränderungen mit den daraus resultierenden großen Engpässen im internationalen Geschäft, die in den siebziger Jahren im wirtschaftlichen Umfeld der OECD-Länder aufgetreten sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-3001-8_2 b7cb80b3c0d171a6a55995b3b1b5ac8b;de;;;7.1.;;;Innovation oder Renovierung? Das Management von Strategie- und Adoptionsentscheidungen innerhalb einer Universität Die meisten Universitäten nutzen E-Learning-Einrichtungen, um das Online-Lernen zu verwalten, und in diesem Papier wird gefragt, wie die Entscheidung getroffen wird, dieses E-Learning-Paket anstelle dieses zu übernehmen und dann, wie man es nutzt. Wir schlagen vor, dass Entscheidungen zur Einführung von Bildungstechnologien auf zwei Ebenen getroffen werden: Strategische Entscheidungen werden von der Universität getroffen, um ein bestimmtes Paket zu implementieren, und dann treffen einzelne Akademiker Übernahmeentscheidungen bezüglich der Aspekte des Pakets, die sie in ihrer Lehre verwenden werden, und wie sie es verwenden werden Ihnen. In dem Papier schlagen wir vor, dass eine solche Technologie als Innovation betrachtet und durch die Linse der Innovationsadoptionstheorie betrachtet werden sollte. Wir argumentieren, dass die Analyse dieser Adoptionsentscheidungen auf jeder Ebene unterschiedlich gestaltet werden muss, wobei ein für diese Ebene angemessener Ansatz verwendet werden muss.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19715-4_12 83956b4f5aa0d5f54057e707da096caf;de;;;7.1.;;;Digitale Innovation und Transformation: Ansatz und Erfahrungen Der Übergang von klassischen zu digitalen Geschäftsmodellen, also die digitale Transformation, erfordert ein hohes Maß an Agilität in Unternehmen und eine Möglichkeit, die erforderlichen organisatorischen und strukturellen Veränderungen systematisch aufzubauen und zu steuern. Darüber hinaus werden digitale Geschäftsmodelle oft durch technologische Innovationen ausgelöst und führen zu völlig neuen Produkten und Dienstleistungen. Folglich sind im Rahmen der digitalen Innovation neue Betriebsabläufe oder substanzielle Neudefinitionen der bestehenden erforderlich. Sowohl die digitale Transformation als auch die digitale Innovation erfordern eine methodische und technische Integration von Ansätzen aus unterschiedlichen Bereichen der Wirtschaftsinformatik, um die erforderlichen Veränderungen zu ermöglichen, wie beispielsweise Digital Business Model Management (BMM), Capability Management (CM) und Enterprise Architecture Management (EAM). Das Buchkapitel greift diese methodische und technische Integration auf, indem es den Digital Innovations and Transformation Process (DITP) mit dem Schwerpunkt Methodenunterstützung und den „Digital Business Architect“ (DBA) als modernes Qualifikationsprofil für Fachkräfte im Unternehmen vorschlägt bei Innovations- und Transformationsinitiativen. Das DITP befähigt den DBA, als Teil des Business Executive Teams in einem Unternehmen zwischen Betriebswirtschafts- und Technologieexperten zu moderieren, um deren Anforderungen unter Berücksichtigung integrativer Business-IT-Alignment Konzepte umzusetzen. DITP und DBA integrieren und verbinden ausgewählte Techniken aus BMM, CM und EAM. Das Kapitel stellt das DITP und den DBA mit Fokus auf ihre Kernfunktionen vor und veranschaulicht anhand von Anwendungsfällen aus der digitalen Transformation den Einsatz von DITP in der Praxis.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-49640-1_2 a177629a412f43a287390095a3e139a9;de;;;7.1.;;;Human Centeredness: Ein Paradigma des 21. Jahrhunderts für Industriekulturen Die Kulturen des „Fließbandmanagements“ und der „maschinenzentrierten“ Technologie prägen seit über einem halben Jahrhundert die Gestaltung der modernen Industriekulturen. Die technologiezentrierten modernen Industriekulturen stehen heute vor Herausforderungen der Postmoderne, die sich aus den Beschränkungen des vorherrschenden Mechanismusparadigmas und seinen Auswirkungen auf die Gestaltung der Informationsgesellschaft und der Arbeitswelt ergeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-1967-8_18 a80cc19da7c98f0f3d289648259360b9;de;;;7.1.;;;Business Intelligence und geografisches Informationssystem für Hydrogeologie Wir haben das Hydrogeologische Informationssystem (HgIS) entwickelt. Sie dient dazu, Daten aus verfügbaren Datenquellen jeglicher Art zu laden, Daten zu visualisieren und zu analysieren sowie einfache Modelle zu implementieren. HgIS basiert hauptsächlich auf der Business Intelligence (BI)-Plattform von Pentaho. HgIS verwendet im Vergleich zu Enterprise BI-Lösungen nur einige Komponenten von BI. Angemessenheit und Einschränkung von Data Warehousing und BI-Anwendung für Grundwasserdaten werden diskutiert. Die Extraktion, Transformation und das Laden von Daten konzentriert sich auf die Integration einer Vielzahl strukturierter und semistrukturierter Daten. Data Warehouse verwendet ein hybrides Schneeflocken-/Stern-Schema. Das Inmon-Paradigma wird verwendet, weil die Datensemantik bekannt und das Datenvolumen begrenzt ist. HgIS ist datenunabhängig, datenbankunabhängig, skalierbar und interoperabel. Die Architektur des Systems entspricht einer Spatial Business Intelligence Solution (GeoBI) – einer Kombination aus BI und Geoinformationssystemen (GIS). Grundwasserpraktiker arbeiten seit Jahrzehnten mit GIS-Software, aber BI-Technologien und -Tools wurden bisher nicht auf Grundwasserdaten angewendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-89935-0_14 da3ad30a8a566cb8bb41ce9f0c85b433;de;;;7.1.;;;Optimale WCDMA-Netzwerkplanung durch multiobjektiven evolutionären Algorithmus mit problemspezifischer genetischer Operation Das Planungsproblem des Breitband-Codemultiplex-Vielfachzugriffs (WCDMA) erfordert, den Standort und die Konfigurationsparameter der Basisstationen (BSs) zu bestimmen, um die Kapazität zu maximieren und die Installationskosten zu minimieren. Dieses Problem kann als komplexes Mengenüberdeckungsproblem formuliert werden. Im Vergleich zu den klassischen Mengenabdeckungsproblemen ist der Abdeckungsbereich jeder BS im Voraus unbekannt. Dies bewirkt, dass die Auswahl jedes BS-Standorts und jeder Konfigurationsparameter durch die Standort- und Konfigurationsparameter der Nachbar-BSs bestimmt wird. Dementsprechend werden wir ein Wettbewerbs- und Kooperationsmodell basierend auf der neu abgedeckten Fläche der BS durchführen, um das Verhältnis der BS zu messen. Dann wird eine effiziente genetische Operation basierend auf diesem Modell vorgeschlagen, um Lösungen von neuer Qualität zu generieren. Weiterhin werden auch vier BS-Konfigurationsparameter, d. h. die Antennenhöhe, Antennenneigung, Sektororientierung und Pilotsignalleistung, berücksichtigt. Da es zu viele Kombinationsebenen der Konfigurationsparameter gibt, wird ein Codierverfahren basierend auf orthogonalem Design präsentiert, um den Suchraum zu reduzieren. Anschließend verschmelzen wir das vorgeschlagene Codierungsverfahren und die genetische Operation in die multiobjektive evolutionäre Algorithmus-basierte Dekomposition (MOEA/D-M2M), um das WCDMA-Netzwerkplanungsproblem zu lösen. Simulationsergebnisse zeigen die Wirksamkeit der vorgeschlagenen Kodierung und genetischen Operation im Vergleich mit dem bestehenden Gegenstück.;-;-;-;https://link.springer.com/article/10.1007/s10115-014-0799-y 87f9e500f83fff15f1e298214ef068d1;de;;;7.2.;;;Microservice-Remodularisierung von monolithischen Unternehmenssystemen zur Einbettung in industrielle IoT-Netzwerke Dieses Papier befasst sich mit der Herausforderung, „Backoffice“-Unternehmenssystemfunktionen zu entkoppeln, um sie in das Industrial Internet-of-Things (IIoT) zu integrieren. IIoT ist eine weithin erwartete Strategie, die IoT-Technologien zur Verwaltung physischer Objektbewegungen, Interaktionen und Kontexte mit Geschäftskontexten kombiniert. Unternehmenssysteme, die diese Kontexte unterstützen, sind jedoch notorisch groß und monolithisch und koordinieren zentralisierte Geschäftsprozesse durch Softwarekomponenten, die für die Verwaltung von Geschäftsobjekten (BOs) bestimmt sind. Solche Objekte und ihre zugehörigen Operationen sind aufgrund der asynchronen und benutzergesteuerten Natur der Geschäftsprozesse und komplexer BO-Abhängigkeiten, wie z. B. Viele-zu-Viele- und Aggregationsbeziehungen, schwer manuell zu entkoppeln. Hier stellen wir eine Software-Remodularisierungstechnik für Unternehmenssysteme vor, um die Entdeckung feinkörniger Microservices zu unterstützen, die extrahiert und eingebettet werden können, um auf IIoT-Netzwerkknoten ausgeführt zu werden. Es kombiniert das semantische Wissen von Enterprise-Systemen, d. h. die BO-Struktur, mit syntaktischem Wissen des Codes, d. h. verschiedene Abhängigkeiten auf der Ebene von Klassen und Methoden. Unter Verwendung extrahierter Feature-Sets basierend auf semantischen und syntaktischen Abhängigkeiten wird dann K-Means-Clustering und -Optimierung verwendet, um Microservices zu empfehlen, d. h. Umverteilungen von BO-Operationen durch Microservices von BO-zentrierten Komponenten von Unternehmenssystemen. Der Ansatz wird mit dem Open-Source-ERP-System Dolibarr validiert, in dem wir Prozesse identifizieren, die sowohl „Edge“-Operationen als auch Request-Response-Aufrufe an das Cloud-basierte Unternehmenssystem umfassen. Durch Experimentieren mit Amazon GreenGrass-Bereitstellungen und Simulation von IIoT-Knoten zeigen wir, dass die empfohlenen Microservices wichtige nichtfunktionale Eigenschaften aufweisen, nämlich hohe Ausführungseffizienz, Skalierbarkeit und Verfügbarkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-79382-1_26 1ea1995edc73aea81579d63fb1a617fa;de;;;7.2.;;;Ad-hoc- und geografische IR-Ansätze von MIRACLE für CLEF 2006 In diesem Papier werden die Ansätze des Miracle-Teams von 2006 für die Aufgaben zum Abrufen von Ad-hoc- und geografischen Informationen vorgestellt. Ein erster Satz von Durchläufen wurde unter Verwendung eines Satzes von Basiskomponenten erhalten. Dann wurde durch das Zusammenstellen spezieller Kombinationen dieser Läufe ein erweiterter Satz erhalten. In Bezug auf frühere Kampagnen wurden einige Verbesserungen in unserem System eingeführt: Ein Prototyp zur Erkennung von Entitäten wurde in unser Tokenisierungsschema integriert und die Leistung unserer Indexierungs- und Abrufmaschine wurde verbessert. Für GeoCLEF haben wir das Abrufen mithilfe von Geo-Entitäts- und Textreferenzen separat getestet und diese dann mit verschiedenen Ansätzen kombiniert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74999-8_110 aa4faa7fe8978fd4b0eee1f16f70c29d;de;;;7.2.;;;Ontologie-unterstützte FAQ-Verarbeitung und Ranking-Techniken Dieses Dokument beschreibt ein FAQ-System im Bereich Personal Computer (PC), das Ontologie als Schlüsseltechnik verwendet, um FAQs vorzuverarbeiten und Benutzeranfragen zu verarbeiten. Es ist auch mit einer verbesserten Ranking-Technik ausgestattet, um abgerufene, abfragerelevante Ergebnisse zu präsentieren. Grundsätzlich basiert das System auf der Wrapper-Technik, um die aus einer heterogenen Umgebung gesammelten FAQ-Informationen zu bereinigen, abzurufen und umzuwandeln und sie in einer ontologischen Datenbank zu speichern. Beim Abrufen von FAQs schneidet das System irrelevante Suchbegriffe ab, verwendet entweder vollständige oder teilweise übereinstimmende Keywords, um FAQs abzurufen, und entfernt widersprüchliche FAQs, bevor die endgültigen Ergebnisse an den Benutzer weitergegeben werden. Die Ontologie spielt bei allen oben genannten Aktivitäten die Schlüsselrolle. Um eine effektivere Darstellung der Suchergebnisse zu erzielen, verwendet das System eine verbesserte Ranking-Technik, die die Erscheinungswahrscheinlichkeit, den Zufriedenheitswert, den Kompatibilitätswert und den statistischen Ähnlichkeitswert als vier richtig gewichtete Maße umfasst, um die FAQs einzuordnen. Unsere Experimente zeigen, dass das System die Präzisionsrate verbessert und bessere Ranking-Ergebnisse liefert. Das vorgeschlagene FAQ-System weist die folgenden interessanten Merkmale auf. Erstens kann die ontologiegestützte FAQ-Extraktion aus Webseiten FAQ-Informationen bereinigen, indem redundante Daten entfernt, fehlende Daten wiederhergestellt und inkonsistente Daten aufgelöst werden. Zweitens werden die FAQs in einem ontologiegerichteten internen Format gespeichert, das den semantikbeschränkten Abruf von FAQs unterstützt. Drittens hilft die ontologiegestützte Verarbeitung natürlicher Sprache von Benutzeranfragen, die Absicht des Benutzers zu lokalisieren. Schließlich hilft die Match-Based-Ranking-Methode auf Teil-Keywords, dem Benutzer die am meisten gesuchten, konfliktfreien FAQ-Lösungen zu präsentieren.;-;-;-;https://link.springer.com/article/10.1007/s10844-006-0009-9 af7672532bdf2cfbf771aac65a752b39;de;;;7.2.;;;Empfehlung von Items in allgegenwärtigen Szenarien: Modelle und experimentelle Analyse In diesem Papier schlagen und untersuchen wir die Wirksamkeit vollständig dezentralisierter, kollaborativer Filtertechniken. Diese sind besonders interessant für den Einsatz in durchdringenden Systemen kleiner Geräte mit begrenzten Kommunikations- und Rechenfähigkeiten. Insbesondere gehen wir davon aus, dass Artikel mit Smart Tags (z. Benutzer greifen auf Informationen, die in Smart Tags gespeichert sind, zu und ändern sie transparent durch intelligente Lesegeräte, die bereits auf kommerziellen Mobiltelefonen verfügbar sind. Intelligente Lesegeräte verwenden private Informationen über das frühere Verhalten des Benutzers und aggregieren Informationen, die von Smarttags abgerufen werden, um neue Elemente zu empfehlen, die mit größerer Wahrscheinlichkeit die Benutzererwartungen erfüllen. Beachten Sie, dass wir keine Übertragungsfähigkeiten zwischen Smart Tags voraussetzen: Der Informationsaustausch zwischen ihnen wird durch kollektive und unvorhersehbare Navigationsmuster der Benutzer vermittelt. Unsere Algorithmen erfordern keine explizite Interaktion zwischen den Benutzern und können einfach und effizient implementiert werden. Wir analysieren ihr theoretisches Verhalten und bewerten ihre Leistung in der Praxis durch Simulation sowohl an synthetischen als auch realen, öffentlich verfügbaren Datensätzen. Außerdem vergleichen wir die Leistungsfähigkeit unserer vollständig dezentralen Lösungen mit der moderner zentralisierter Strategien.;-;-;-;https://link.springer.com/article/10.1007/s10115-010-0338-4 62232e7101a5fc44d75fb4b52511848a;de;;;7.1.;;;Landschaft und soziale Teilhabe: Der Zielatlas der Region Umbrien und der Landschaftsvertrag des Trasimenischen Sees Innerhalb der wichtigsten Ressourcen, die für die nächsten Landschaftsmodelle nützlich sind, stellen die Menschen, die an ihren Orten leben, den Anfang und das Ende aller neuen möglichen Regenerationspfade dar: Landschaft wird von Menschen wahrgenommen, sie ist für Menschen und sie kommt von Menschen. Bei der Landschaftsgestaltung kommt der Politik, ob gewollt oder ungewollt, eine Hauptrolle zu. Die Reaktivierung der Beziehung, die die Gemeinde mit ihrer Landschaft verbindet, ist entscheidend, um ihre Bedeutung zu verstehen und darauf zu reagieren, und die Repräsentationsinstrumente können in dieser Hinsicht nützlich sein, um die Landschaft zu präsentieren, zu beschreiben und zu kommunizieren, Bürger einzubeziehen und zu unterstützen ihre Teilnahme. In diesem Zusammenhang zielt die Forschung darauf ab, die umbrische Regionalstrategie des Co-Designs für die integrierte Governance im politischen und öffentlichen Raum vorzustellen. Die vorgestellte Methodik beabsichtigt, einige Modelle für die nachhaltige und demokratische Entwicklung eines Gesellschaftsvertrags in Verbindung mit Umweltbürgerschaft und dem Co-Design-Ansatz zu fördern. In dieser Strategie der öffentlich-privaten Partnerschaft (PPP) ist die akademische Forschung von grundlegender Bedeutung, um eine Standardisierung der Untersuchungs- und Interventionsansätze zu erreichen, und der erstellte Atlas der Ziele stellt ein zeitgemäßes Instrument dar, um Beziehungen aufzuzeigen und „Wege“ entsprechend zu definieren mit den europäischen Leitlinien, die in einigen regionalen Strategien angewendet werden. Diese Leitlinie kann im Landschaftsvertrag, insbesondere dem des Trasimenischen Sees, einer Vereinbarung zwischen Bürgern und Verwaltung für territoriale Governance und Kohäsionspolitik, angewendet werden. Es beginnt mit einem gut strukturierten kognitiven Rahmen und wird bis zur aktiven Regierung des Territoriums abgeschlossen. Das Hauptziel ist die Einbeziehung von Bürgern und Wirtschaftssubjekten in eine Strategie, die darauf abzielt, das Zusammengehörigkeitsgefühl zu stärken. In dieser Hinsicht fördert es die notwendigen sozialen und kulturellen Veränderungen und erhöht die Effizienz der Produktivität im Sinne einer nachhaltigen Entwicklung eines homogenen territorialen Raums. Besondere Fallstudien und Strategien werden detailliert beschrieben, um die möglichen Auswirkungen der entwickelten Instrumente für die Landschaftsplanung zu erläutern. Der Ansatz beim Thema Repräsentation ist zentral, um das Wissen zu synthetisieren und seinen Wert zu stärken, mit den Bürgern zu teilen und sie einzubeziehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94150-9_9 63019f489283330144e376a85c392934;de;;;7.2.;;;Regelwürfel für kausale Untersuchungen Angesichts der enorm steigenden Komplexität moderner Fahrzeuge spielen Qualitätsingenieure eine Schlüsselrolle in der heutigen Automobilindustrie. Die Felddatenanalyse unterstützt Korrekturmaßnahmen in Entwicklung, Produktion und After Sales Support. Wir zerlegen die Anforderungen und zeigen, dass Assoziationsregeln als beliebter Ansatz zur Generierung von Erklärungsmodellen noch Mängel aufweisen. Eine vielversprechende Alternative sind die kürzlich vorgeschlagenen interaktiven Regelwürfel. Wir erweitern diese Arbeit, indem wir eine Möglichkeit einführen, sie intuitiv zu visualisieren und sinnvoll einzuordnen. Darüber hinaus präsentieren wir Methoden, um ein Problem interaktiv zu faktorisieren und Hypothesen zu validieren, indem wir Muster basierend auf Erwartungen ordnen und ein würfelbasiertes Netzwerk verwandter Einflüsse durchsuchen. All dies wird derzeit als interaktives Werkzeug zur Garantiedatenanalyse in der Automobilindustrie eingesetzt. Eine Fallstudie aus der Praxis zeigt, wie Ingenieure sie erfolgreich einsetzen, um die Ursachen von Qualitätsproblemen zu identifizieren.;-;-;-;https://link.springer.com/article/10.1007/s10115-008-0141-7 ba286e6b4d2684c5b115af48987bdb15;de;;;7.2.;;;Umgang mit Themendrift für die Themenverfolgung in Microblogs Mikroblogs wie Twitter sind zu einer immer beliebter werdenden Quelle für Echtzeit-Informationen geworden, bei denen Benutzer verlangen können, die Entwicklung der Themen, an denen sie interessiert sind, zu verfolgen auf dem neuesten Stand der traditionellen Nachrichtenfilterung sein. In unserer Anpassung verwenden wir die Linkinformationen, um den Inhalt von Tweets anzureichern, und die sozialen Symbole, um die Qualität der Tweets einzuschätzen. Darüber hinaus stellen wir fest, dass Themen in Microblogs aufgrund der Informationsredundanz und Themendivergenz von Tweets sehr wahrscheinlich driften. Um die Themendrift im Laufe der Zeit zu bewältigen, verwenden wir einen clusterbasierten Unterthemen-Erkennungsalgorithmus, um zu erkennen, ob eine Drift auftritt und das erkannte Unterthema als aktueller Schwerpunkt des allgemeinen Themas betrachtet wird, um die Themendrift anzupassen. Experimentelle Ergebnisse am Korpus von TREC2012 Microblog Track zeigen, dass unser Ansatz sowohl bei den T11SU- als auch bei den F-0.5-Metriken eine bemerkenswerte Leistung erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16354-3_52 dc474f3be2bef91821beaab4bea74853;de;;;7.2.;;;Eine Studie zur Bewertung der Kernkompetenzen in Kleinstädten basierend auf der groben Mengentheorie Um den subjektiven Charakter der bestehenden eigenen Kernkompetenzbewertungsmethode zu überwinden, stellen wir eine grobmengentheoretische Fuzzy-Umfangbewertungsmethode vor, die den Vorteil hat, mit unsicheren Informationen umzugehen. Wir bestimmen den Gewichtungskoeffizienten jedes Bewertungsindex nach Attributsignifikanz. Dann bestimmen wir den Gewichtungskoeffizienten basierend auf der attributiv signifikanten Berechnung von Informationssystemen und erhalten weiter die objektiven Gewichtungskoeffizienten. Diese Methode kann den Mehrzielkonflikt lösen und ist in der Praxis gut umsetzbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27287-5_18 b29061eabe19cc9a043b94724b091a4b;de;;;7.2.;;;Nutzung von Ergebnisdiversifikationsmethoden für die Merkmalsauswahl beim Learning to Rank In diesem Papier wenden wir verschiedene Strategien der gierigen Ergebnisdiversifizierung an, um das Problem der Merkmalsauswahl für das Erlernen des Rankings zu lösen. Unsere experimentellen Auswertungen mit mehreren Standarddatensätzen zeigen, dass solche Diversifizierungsmethoden im Vergleich zu den Baselines aus der Literatur sehr effektiv sind, um die Merkmalsuntergruppen zu identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06028-6_41 ef3f1645e5456990fbf80c7da4625668;de;;;7.2.;;;Experimente zum Ausschluss metonymischer Ortsnamen aus GIR Für die GeoCLEF-Aufgabe der CLEF-Kampagne 2006 untersuchen wir die Identifizierung wörtlicher (geographischer) und metonymischer Bedeutungen von Ortsnamen (der Ortsname bezieht sich auf eine andere, verwandte Entität) und deren unterschiedliche Indizierung. Bei der Dokumentenvorverarbeitung werden Ortsnamensinne mit einem Klassifikator identifiziert, der sich nur auf flache Merkmale stützt. In entsprechenden Dokumentenfeldern sind unterschiedliche Sinne hinterlegt, d.h.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74999-8_114 aef28b6277d82bd08e16365604f2382f;de;;;7.2.;;;Verwenden der Fuzzy-Sentiment-Computing- und Inferenzmethode zur Untersuchung von Online-Bewertungen von Verbrauchern Dieser Beitrag befasst sich mit dem Problem des Sentiment Mining von Online-Bewertungen basierend auf der Theorie der Verbraucherpsychologie und des Verbraucherverhaltens. Angesichts der Fuzzy-Attribute der Online-Rezensionen haben wir unscharfe Gruppenbasen der Verbraucherpsychologie etabliert. Es werden vier Fuzzy-Basen erstellt, darunter Merkmale, Sinn, Stimmung und Bewertung. Die Elemente der Verbrauchereinstellung werden durch Bewertungen in natürlicher Sprache widergespiegelt. Ein Fuzzy-Sentiment-Berechnungsalgorithmus von Online-Bewertungen für die Verbraucherstimmung wird entwickelt, und es wird auch eine Fuzzy-Regelbasis basierend auf dem Verbraucherentscheidungsprozess präsentiert. Schließlich zeigt sich anhand eines Experiments, dass sich der vorgeschlagene Ansatz sehr gut als Analysewerkzeug für das Sentiment-Mining-Problem von Online-Reviews eignet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28592-9_30 2c5e83e113b3b3a7074652c2095f84d4;de;;;7.2.;;;Neue Strategien zur Emotionserkennung In „The Media Equation: How People Treat Computers […] Like Real People and Places“ berichten Reeves und Nass (1996) über zahlreiche psychologische Studien, die zeigen, dass Nutzer Computer, also SDS, als reale und gleichwertige Interaktionspartner behandeln. Dabei unterscheidet sich das Interaktionsverhalten z.B. wenn Maschinen mit weiblichen statt mit männlichen Stimmen ausgestattet sind. Die Notwendigkeit für eine Maschine, die Gefühle und Emotionen ihres Gegenübers zu verstehen, ist daher ein zentraler Aspekt des „affektiven Computing“ (Picard 1997) und kann eminent zur Adaptivität beitragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-4593-7_4 38bfc966651c9a0a342406a31dac9129;de;;;7.1.;;;Entscheidungsfindung in den Sozialwissenschaften Dieses Kapitel untersucht vier sozialwissenschaftliche Disziplinen und ihre Perspektiven und Anliegen in Bezug auf die Entscheidungsfindung. Das Kapitel ist in vier Perspektiven gegliedert: Soziologie, Management, Marketing und Bildung. Zu den Schlüsselkonzepten, die im Abschnitt Soziologie behandelt werden, gehört, wie Entscheidungen durch Kooperation, Wettbewerb, Vertrauen, Gegenseitigkeit und soziale Normen eingeschränkt und kontrolliert werden. Die Managementdisziplin wird als Wissenschaft der Entscheidungsfindung angesehen und dieser zweite Abschnitt untersucht rationale Entscheidungsfindung, Risiko, Unsicherheit, Entscheidungsschule, individuelle und Gruppenentscheidung sowie das Konzept der adaptiven Entscheidungsfindung. Der dritte große Abschnitt untersucht die Entscheidungsfindung aus einer Marketingperspektive mit einem breiten Blick auf die Kommunikation von Informationen und gesellschaftlichen Einflüssen. Der Schwerpunkt in diesem Abschnitt liegt auf der Entsperrung der Blackbox, um das Verständnis von Denkweisen, Kundenverhalten, kognitivem Stil und Marktbewertung zu optimieren. Der letzte Abschnitt befasst sich mit der adaptiven Entscheidungsfindung in der Bildung und diskutiert neuere Studien in verschiedenen Bildungsbereichen, einschließlich der Pflichtschulbildung: Regelschüler, außergewöhnliche Schüler (begabt, begabt und besonders) und in anderen Bereichen wie Hochschulbildung, Berufsbildung, Gesundheit und Medizin Bildung und Lernen am Arbeitsplatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-6708-3_1 41fcbc95e5f7b94a1247fe1e8a889d73;de;;;7.2.;;;BASIL: Effektive Erkennung von nahezu duplizierten Bildern mit Gensequenz-Alignment Das Auffinden von nahezu doppelten Bildern ist eine häufig vorkommende Aufgabe beim Multimedia Information Retrieval (MIR). Zu diesem Zweck schlagen wir eine neue Idee vor, indem wir zwei scheinbar nicht miteinander verbundene Bereiche verbinden –;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12275-0_22 d57b35d317716aaf5c9b0ccb4791710f;de;;;7.2.;;;PreCon – Expressive Kontextvorhersage mit stochastischer Modellprüfung Allgegenwärtige Systeme müssen den Kontext des Menschen bestimmen, um die richtigen Dienste zur richtigen Zeit bereitzustellen. Da die Bedürfnisse des Menschen oft an seinen zukünftigen Kontext gekoppelt sind, ist die Fähigkeit, relevante Veränderungen im Kontext eines Benutzers vorherzusagen, ein Schlüsselfaktor für die Bereitstellung von Intelligenz und Proaktivität. Aktuelle Kontextvorhersagesysteme ermöglichen es Anwendungen nur, den nächsten Benutzerkontext abzufragen (z. B. den nächsten Standort des Benutzers). Dies schränkt den Nutzen der Kontextvorhersage stark ein, da diese Ansätze nicht aussagekräftiger antworten können;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23641-9_29 e893b40c42471920fc3e0f25d263b384;de;;;7.2.;;;GIS und multikriterielle Auswertung zur Optimierung von Tsetsefliegen-Ausrottungsprogrammen Tsetsefliegen sind die Überträger von Trypanosomen, dem Erreger der Trypanosomiasis, einer weit verbreiteten Tier- und Menschenkrankheit in Afrika. Die Kontrolle von Tsetse kann große Landflächen für die Viehhaltung öffnen, mit den damit verbundenen Vorteilen der Entwicklung von Mischkulturen und Viehzuchtsystemen. Neben möglichen positiven Auswirkungen gibt es aber auch Risiken: Die Rodung würde sich beschleunigen und der Viehbestand würde steigen, was zu einer Verringerung der Vegetationsdecke und einer Zunahme von Abfluss und Erosion führen würde, könnte auch ein erhöhter Druck auf Schutzgebiete und Reduzierungen entstehen in der Biodiversität. Das Ziel dieser Studie ist zu zeigen, wie fernerfasste und andere Umweltdaten in einem Entscheidungsunterstützungssystem kombiniert werden können, um Tsetse-Kontrollprogramme so zu informieren, dass mögliche schädliche Auswirkungen der Tsetse-Kontrolle begrenzt werden können. Für Sambia wird eine Methodik entwickelt, die einen baumbasierten Entscheidungsunterstützungsansatz mit dem Einsatz von Multiple-Criteria Evaluation (MCE) innerhalb eines geografischen Informationssystems (GIS) kombiniert, um gezielt Gebiete für die Tsetse-Kontrolle zu bestimmen. Die Ergebnisse zeigen eine klare Differenzierung der prioritären Gebiete unter einer Reihe von hypothetischen Szenarien, und einige Gebiete (z. Es wird auch gezeigt, dass vorrangige Gebiete keine isolierten Tsetse-Populationen umfassen, was bedeutet, dass die Krankheitsbekämpfung mit einem integrierten Ansatz wahrscheinlich wirtschaftlich rentabler ist als die lokale Ausrottung.;-;-;-;https://link.springer.com/article/10.1007/s10661-006-9210-0 1412ae25d81b66222157750b9ecd6232;de;;;7.2.;;;Entwerfen von Zuständen, Aktionen und Belohnungen für die Verwendung von POMDP in der Sitzungssuche Die Sitzungssuche ist eine Aufgabe zum Abrufen von Informationen, die eine Folge von Abfragen für einen komplexen Informationsbedarf umfasst. Es zeichnet sich durch reichhaltige Benutzer-System-Interaktionen und zeitliche Abhängigkeit zwischen Abfragen und zwischen aufeinander folgenden Benutzerverhalten aus. In jüngster Zeit wurden Anstrengungen zur Modellierung der Sitzungssuche unter Verwendung des Partially Observable Markov Decision Process (POMDP) ​​unternommen. Um das POMDP-Modell optimal nutzen zu können, ist es entscheidend, geeignete Definitionen für seine grundlegenden Elemente zu finden –;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16354-3_58 0b52518fea9c8b8cd9abee4bbd927135;de;;;7.2.;;;Das Wikipedia-XML-Korpus Dieser Artikel stellt die allgemeine Wikipedia-XML-Sammlung vor, die für den strukturierten Informationsabruf und das strukturierte maschinelle Lernen entwickelt wurde. Diese Sammlung wurde aus der Wikipedia Enclyclopedia erstellt. Wir erläutern hier insbesondere, welche Teile dieser Sammlung während der INEX 2006 für den Ad-hoc-Track und für den XML-Mining-Track verwendet wurden. Beachten Sie, dass auch andere Tracks von INEX - zum Beispiel Multimedia-Tracks - auf dieser Sammlung basieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73888-6_2 43ac5a747c5010156680c2bc5e1c3e85;de;;;7.2.;;;Verbesserung der Genauigkeit von Tagging-Systemen mit Tag-Qualifiern und dem Taggraph-Vokabularsystem Dieser kurze Artikel befasst sich mit der mangelnden Genauigkeit von Social-Tagging-Systemen als Informationsabrufsystemen im Vergleich zu herkömmlichen Suchmaschinen. Der Mangel an Genauigkeit wird durch die Vokabularprobleme und die Natur von Tagging-Systemen verursacht, die auf einer geringeren Anzahl von Indexbegriffen für jede Ressource beruhen. Ein Taggraphen-Vokabularsystem, das auf einem gewichteten gerichteten Graphen von Tags basiert, und Tag-Qualifizierer werden vorgeschlagen, um diese Probleme zu mildern und die Präzision und die Erinnerungsfähigkeit von sozialen Tagging-Systemen zu erhöhen. Beide Lösungen basieren auf Community-Beiträgen, daher sollten spezielle Verfahren wie das Task-Routing verwendet werden, um die Anzahl der Beiträge zu erhöhen und damit ein genaueres System zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-77745-0_21 7aed1304d1c3952a5907f133bec15a87;de;;;7.2.;;;Ein mehrsprachiger Ansatz zur Verbesserung der Passagensuche für die automatische Beantwortung von Fragen Das Auffinden von thematisch relevanten Passagen über eine riesige Dokumentensammlung wird als von zentraler Bedeutung für viele Aufgaben der Informationsbeschaffung, insbesondere für das Question Answering (QA), angesehen. Passage Retrieval (PR) ist in der Tat ein seit langem bestehendes Problem in der Qualitätssicherung, das in den letzten Jahrzehnten umfassend untersucht wurde und noch weitere Anstrengungen erfordert, um einem Benutzer eine bessere Chance zu geben, eine relevante Antwort auf seine Frage der menschlichen natürlichen Sprache zu finden . Dieses Papier beschreibt einen erfolgreichen Versuch, PR und Ranking für Open Domain QA zu verbessern, indem die relevanteste Passage zu einer bestimmten Frage herausgefunden wird. Es verwendet ein SVM-Modell (Support Vector Machine), das eine Reihe verschiedener leistungsstarker Textähnlichkeitsmaße enthält, die unsere Funktionen bilden. Zu diesen letzteren gehören unsere neue vorgeschlagene n-Gramm-basierte Metrik, die sich auf den Abhängigkeitsgrad von n-Gramm-Wörtern der Frage in der Passage stützt, sowie andere lexikalische und semantische Merkmale, die sich bereits in einer kürzlich durchgeführten Aufgabe zur semantischen Textähnlichkeit als erfolgreich erwiesen haben ( STS). Wir haben ein System namens PRSYS implementiert, um unseren Ansatz in verschiedenen Sprachen zu validieren. Unsere experimentellen Bewertungen haben eine vergleichbare Leistung mit anderen ähnlichen Systemen mit starker Leistung gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-41754-7_11 477f6be2f8442b5b6dbcce16a2bff059;de;;;7.2.;;;Extrahieren von Funktionen zum Verifizieren von WordNet WordNet ist ein semantisches Lexikon für die englische Sprache und viele Länder haben ihr eigenes WordNet entwickelt. Fast alle WordNets werden manuell erstellt und leider sind diese WordNets nicht verifiziert und werden in vielen wissensbasierten Anwendungen verwendet. In diesem Artikel zielten wir auf die clusterbasierte Verifizierung einer manuell erstellten lexikalischen Taxonomie WordNet, nämlich des koreanischen WordNet, U-WIN. Zu diesem Zweck werden zwei Arten von Clustering-Methoden verwendet: der K-Means-Ansatz und der ICA-basierte Ansatz. Als Ergebnis liefert der ICA-basierte Ansatz bessere Ergebnisse und zeigt sehr effektive Eigenschaften zum Extrahieren von Merkmalen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76719-0_66 aa24f77514022ac0c8b0f512f6a900de;de;;;7.1.;;;QOL-Forschung in Bezug auf bestimmte Lebensbereiche In diesem Kapitel wird die Lebensqualitätsforschung behandelt, die spezifisch für den Lebensbereich ist. Die abgedeckten Lebensbereiche sind Konsum, Freizeit, Gemeinschaft, Arbeit, Familie, Wirtschaft, Gesundheit, Spiritualität und Wohnen. Innerhalb jedes Lebensbereichs liegt der Fokus darauf, die Lebensqualität innerhalb der Grenzen dieses Bereichs zu verstehen. Zum Beispiel konzentrieren wir uns auf das Wohlbefinden der Verbraucher im Bereich des Verbraucherlebens. Wir definieren das Konstrukt basierend auf verfügbaren Konzeptualisierungen. Wir zitieren Beweise für die Auswirkungen des Wohlbefindens der Verbraucher auf die allgemeine Lebensqualität. Wir vermitteln dem Leser ein Verständnis der verschiedenen Moderatoren und Mediatoren des Verbraucherwohlbefindens auf die allgemeine Lebensqualität. Wir gehen noch weiter, indem wir die Faktoren beschreiben, die das Wohlbefinden der Verbraucher beeinflussen. Dann beschreiben wir Ideen für die Gestaltung von Produkten, Dienstleistungen und Programmen, um das Wohlbefinden der Verbraucher zu verbessern. Wir wenden die gleiche Logik an, um unter anderem das Wohlbefinden in der Freizeit, die Lebensqualität in der Gemeinschaft, das Arbeitsleben, die Lebensqualität der Familie, das wirtschaftliche Wohlergehen und die gesundheitsbezogene Lebensqualität anzugehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-9837-8_6 eb1d2fab7cd4af79243a73cd07ca71bc;de;;;7.2.;;;Quantitative Bewertung von intrusionstoleranten Systemen, die DoS-Angriffen ausgesetzt sind, über Semi-Markov-Kostenmodelle In diesem Papier bewerten wir quantitativ die Sicherheit von intrusionstoleranten Systemen mit präventiver Wartung, die DoS-Angriffen (Denial of Service) ausgesetzt sind. Genauer gesagt entwickeln wir zwei Semi-Markov-Kostenmodelle und beschreiben das stochastische Verhalten zweier einbruchstoleranter Systeme mit unterschiedlichen präventiven Wartungsrichtlinien. Die optimalen präventiven Wartungspläne werden analytisch abgeleitet, um die langfristigen Durchschnittskosten zu minimieren. Darüber hinaus führen wir die Sensitivitätsanalyse der Modellparameter durch numerische Experimente durch. Die hier gewonnenen Ergebnisse wären auch nützlich, um ubiquitäre Systeme zu entwerfen, die externen böswilligen Angriffen ausgesetzt sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77090-9_4 9c8ca06cb080009ae8de14393b137286;de;;;7.2.;;;Bewertung der Disponentenanforderungen an automatisiertes Kundenfeedback im ÖPNV In diesem Beitrag wird eine Studie zur Analyse grundlegender Anforderungen an Dispositionssysteme im ÖPNV vorgestellt, die die neuen technischen Möglichkeiten der automatisierten Kundenrückmeldung integriert. Disponenten in deutschen Transportunternehmen werden zu ihrer Akzeptanz und Erwartungshaltung hinsichtlich der Integration von automatisiertem Kundenfeedback in ihre Dispositionsentscheidungen befragt. Die Ergebnisse dienen als Grundlage für die nutzerorientierte Entwicklung von Dispatching- und mobilen Informationssystemen im ÖPNV mit bidirektionaler Kommunikation.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22723-8_56 aa6dea74ed94e8c7158c3137f0687ad9;de;;;7.2.;;;Vulnerabilitätsbewertung in einer vulkanischen Risikobewertung in Zentralmexiko durch einen Multi-Kriterien-GIS-Ansatz Das Tal von Toluca ist ein wichtiges Industrie- und Landwirtschaftsgebiet in Zentralmexiko, insbesondere die Stadt Toluca, die Hauptstadt des Bundesstaates Mexiko. Der Vulkan Nevado de Toluca liegt im Südwesten des Toluca-Beckens. Ergebnisse aus der Phase der Vulnerabilitätsbewertung des Untersuchungsgebiets (5.040 km²);-;-;-;https://link.springer.com/article/10.1007/s11069-006-0018-6 d5c346e203d216d766a094ca2efa3f39;de;;;7.2.;;;SSIM-basierte fehlerresistente Videocodierung über paketvermittelte Netzwerke Die visuelle Qualität ist ein kritischer Faktor komprimierter Videos für die fehleranfällige Übertragung. Dieses Papier schlägt ein auf struktureller Ähnlichkeit (SSIM) basierendes fehlerresistentes Videocodierungsschema vor, um die visuelle Qualität komprimierter Videos für die Übertragung über paketvermittelte Netzwerke zu verbessern. In dem vorgeschlagenen Schema wird ein SSIM-basiertes Ende-zu-Ende-Verzerrungsmodell entwickelt, um die Wahrnehmungsverzerrung für die räumliche und zeitliche Fehlerausbreitung abzuschätzen. Basierend auf dem Modell wird eine optimale Modusauswahlstrategie präsentiert, um die Ratenverzerrungsleistung zu verbessern. Experimente zeigen, dass das vorgeschlagene Schema die visuelle Qualität für die H.264/AVC-Videocodierung über paketvermittelte Netzwerke signifikant verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34778-8_24 a81c1d7bc4aa5d39786d339a7421e82b;de;;;7.2.;;;Grundlegendes zur Computernetzwerksicherheit Bevor wir über Netzwerksicherheit sprechen, müssen wir allgemein verstehen, was Sicherheit ist. Sicherheit ist ein kontinuierlicher Prozess zum Schutz eines Objekts vor unbefugtem Zugriff. Es ist ein Zustand des Seins oder des Gefühls, vor Schaden geschützt zu sein. Dieses Objekt in diesem Zustand kann eine Person, eine Organisation wie ein Unternehmen oder ein Eigentum wie ein Computersystem oder eine Datei sein. Sicherheit kommt von sicher, d.h;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-4543-1_2 9e8aaa993177b4d48674cc6c640b8264;de;;;7.2.;;;Optimierung von parallelem GNG durch Neuronen, die Prozessen zugeordnet sind Größe, Komplexität und Dimensionalität von Datensammlungen nehmen seit Beginn des Computerzeitalters ständig zu. Clustering wird verwendet, um Strukturen aufzudecken und große Mengen an Rohdaten zu reduzieren. Es gibt zwei Hauptprobleme beim Clustern basierend auf unüberwachtem Lernen, wie z. B. Growing Neural Gas (GNG) [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-59105-6_6 91c430f84e371602aad96c0ca114379b;de;;;7.2.;;;Eine Analyse von Literaturrezensionen zum IS-Geschäftswert: Wie Mängel in der Methodik und Theorieanwendung zu einer begrenzten Wirksamkeit führten Die anhaltenden Zweifel am Wert von IS-Investitionen zeigen, dass es den IS-Forschern nicht gelungen ist, den wirtschaftlichen Nutzen von IS vollständig zu identifizieren und zu erklären. In diesem Beitrag wird davon ausgegangen, dass Literaturrecherchen, die ein leistungsfähiges Instrument zur Identifizierung und Synthese von Wissen darstellen, aufgrund methodischer Mängel nicht ihr volles Potenzial zur Lösung dieses Problems ausgeschöpft haben. Die Analyse von 18 Literaturübersichten, die in den letzten 20 Jahren in einschlägigen wissenschaftlichen Publikationen veröffentlicht wurden, zeigt solche Mängel auf. Zwei der wichtigsten identifizierten Schwächen sind (1) der Mangel an Theorien in den meisten Reviews und (2) eine schwache Verknüpfung der Reviews, was zu geringen Fortschritten in der Theorie- und Rahmenentwicklung führt. Die systematische Identifizierung dieser Schwächen und die Extraktion vielversprechender methodischer Beispiele aus der Literatur der Vergangenheit sind die Hauptbeiträge dieser Arbeit, die die Erstellung effektiverer Literaturübersichten in der zukünftigen Forschung unterstützt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14874-3_10 1d961b608eb8f8019cd9f212183f296a;de;;;7.2.;;;Datenschutzerhaltende Informationsmärkte für die Berechnung statistischer Daten Stellen Sie sich einen „Informationsmarkt“ vor, auf dem private und potenziell sensible Daten gesammelt, als Ware behandelt und zu aggregierten Informationen mit kommerziellem Wert verarbeitet werden. Zugriffs- und Verarbeitungsprivilegien dieser Daten können durch durchsetzbare „Dienstleistungsverträge“ festgelegt werden und verschiedene Vertragsregeln können mit verschiedenen Datenfeldern verknüpft werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03549-4_3 17182c40807dbd9d89afee46854c1f80;de;;;7.2.;;;Erkenntnisse aus der Gestaltung und Bewertung visueller informationssuchender Systeme Das Entwerfen von informationssuchenden Systemen wird zu einer immer komplexeren Aufgabe, da die heutigen Informationsräume in Quantität, Heterogenität und Dimensionalität schnell wachsen. Die Herausforderung besteht darin, Benutzeroberflächen bereitzustellen, die auch für unerfahrene Benutzer eine zufriedenstellende Benutzerfreundlichkeit und Benutzererfahrung bieten. Obwohl Informationsvisualisierung und Interaktionsdesign Lösungen bieten, verwenden viele informationssuchende Systeme wie Online-Kataloge für Bibliotheken oder Websuchmaschinen nach wie vor veraltete Benutzeroberflächenkonzepte, die vor Jahrzehnten entwickelt wurden. In diesem Beitrag stellen wir vier Prinzipien vor, die wir als entscheidend für das erfolgreiche Design eines modernen visuellen Informationssuchsystems identifiziert haben. Diese sind (1) verschiedene Formen der Formulierung eines Informationsbedarfs zu unterstützen, (2) analytische und browsingorientierte Erkundungsmethoden zu integrieren, (3) Ansichten zu verschiedenen Dimensionen des Informationsraums zu geben und (4) um Suche ein genussvolles Erlebnis. Diese Gestaltungsprinzipien basieren auf unseren langjährigen Erfahrungen in der nutzerzentrierten Gestaltung und Bewertung visueller informationssuchender Systeme. Dementsprechend werden wir einzelne Entwürfe aus unserer eigenen Arbeit der letzten 10 Jahre präsentieren, um jedes Prinzip zu veranschaulichen und so die Lücke zwischen der wissenschaftlichen Diskussion und der gestaltenden Praxis zu schließen, die Forschungsideen oft verhindert hat, Realität zu werden. Meistens ist die Suche jedoch nur ein Teil einer übergeordneten Benutzeraktivität (z. B. das Schreiben einer Arbeit). Daher sollte sich die zukünftige Forschung auf die Herausforderungen konzentrieren, wenn die Suche in einem so breiteren Kontext betrachtet wird. In den letzten beiden Kapiteln werden wir einige dieser Herausforderungen aufzeigen und unsere Vision einer integrierten und konsistenten digitalen Arbeitsumgebung namens Zoomable Object-Oriented Information Landscape skizzieren.;-;-;-;https://link.springer.com/article/10.1007/s00799-009-0052-6 d45997e305d4cef8c12f39ee96d561ea;de;;;7.2.;;;Attributgrammatiken für die Anpassung des Layouts von Controlling-Haus In diesem Whitepaper wird ein neues Framework für die Designautomatisierung vorgestellt. Die Diskussion konzentriert sich auf die syntaktische Verarbeitung, die in ein ausgewähltes Architekturproblem der Anpassung des Hauslayouts eingebettet ist. Hauslayout wird als mehrdimensionale Konzeptstruktur von Domänenwissen interpretiert. Die syntaktische Strukturierung basiert auf kontextfreien Methoden. Wir schlagen Konstruktionen kontextfreier Grammatiken vor, die von Konzepten des multidimensionalen Wissensraums angetrieben werden. Der Formalismus bietet eine konsistente Darstellung einer ungefähren grammatikalischen Korrektheit der Hausaufteilung. Die Ausstattung von Grammatiken mit Attributen ermöglicht den Informationsfluss zwischen Domänenkonzepten, unterstützt die Offenlegung von Funktionen und schränkt die Überprüfung ein. Der Ansatz wird an einem einfachen Hausplan validiert und die Richtungen für die zukünftige Entwicklung des Systems werden skizziert. Das Papier konzentriert sich nur auf den konzeptionellen Rahmen und soll als solches dazu anregen, die verschiedenen Umsetzungsüberlegungen zu erforschen, die für groß angelegte Anwendungen erforderlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-45378-1_61 8b88508f9dd170fc5ea75fafc02852ef;de;;;7.1.;;;Nachhaltiges Wasserressourcenmanagement: Flusseinzugsgebietsmodellierung und Entscheidungsunterstützungsrahmen Nachhaltigkeit ist ein wichtiges Ziel des Wasserressourcenmanagements und dieses Papier beschreibt einen Modellierungs- und Entscheidungsunterstützungsrahmen, der dies erreicht, veranschaulicht durch Anwendungen in den Einzugsgebieten der britischen Themse und des Mekong. Das Framework zur Entscheidungsunterstützung enthält mehrere Module, darunter eine interaktive Benutzeroberfläche, die mit einem GIS verknüpft ist, eine Geodatenbank, eine Wissensdatenbank, Simulationsmodelle und Optimierungsverfahren. Basierend auf der Analyse von Szenarien und vorgeschlagenen Interventionen bilden effiziente Modellierungs- und Optimierungswerkzeuge einen umfassenden integrierten Entscheidungshilferahmen für die Analyse und das operative Management von Wasserressourcen im Flusseinzugsgebiet, wobei unser Schwerpunkt auf einer praktischen Umsetzung durch sorgfältiges Screening von Alternativen lag, Berücksichtigung des institutionellen Rahmens und direkte Einbindung der Stakeholder in den Entscheidungsprozess. Das Handeln in diesem Umfeld ist transparent, reproduzierbar und überprüfbar und sichert das Vertrauen aller interessierten Parteien. In diesem Papier werden seine Anwendungen für die Wassernutzung im Mekong-Einzugsgebiet und das Dürremanagement des Reservoirsystems der unteren Themse erörtert.;-;-;-;https://link.springer.com/article/10.1007/s11859-009-0615-9 6de89c71ee81d208d4210a8046062a22;de;;;7.2.;;;Die Methodik der gerichtlichen Verhaltensforschung: Ein Rückblick und Kritik Der Zweck dieses Artikels besteht darin, zur Entwicklung einer besseren Passung zwischen Theorie und Methodik in der gerichtlichen Verhaltensforschung beizutragen, indem er diese überprüft, bewertet und Empfehlungen für deren Anwendung ausspricht. Die methodische Praxis der gerichtlichen Verhaltensforschung wird bewertet und Empfehlungen und Zukunftsprognosen gegeben. Vier Komponenten der Methodik – Forschungsdesign, Datenquellen und Generierungsverfahren, Operationalisierung und Messung von Konzepten sowie statistische Methoden und Maßnahmen – werden diskutiert. Justizielles Verhalten wird als primäres Augenmerk auf die Erklärung des Verhaltens einzelner Entscheidungsträger verstanden, umfasst aber auch die Entscheidungsfindung innerhalb oder durch Entscheidungsträgergruppen und durch Gerichte.;-;-;-;https://link.springer.com/article/10.1007/BF00989986 11328b42db8864721adf7faa2584416c;de;;;7.2.;;;Erreichbarkeitsanalyse von graphmodellierten Sammlungen Dieser Beitrag befasst sich mit dem potenziellen Abruf beim multimodalen Informationsabruf in graphenbasierten Modellen. Wir bieten einen Rahmen, um Individualität und Kombination von Merkmalen verschiedener Modalitäten durch unsere Formulierung der Facettensuche zu nutzen. Wir verwenden eine potenzielle Erinnerungsanalyse an einer Testsammlung, um Einblicke in den Korpus zu gewinnen und die Rolle mehrerer Facetten, Beziehungen zwischen den Objekten und semantischen Verknüpfungen bei der Verbesserung der Erinnerung weiter hervorzuheben. Wir führen die Experimente an einem multimodalen Datensatz durch, der etwa 400.000 Dokumente und Bilder enthält. Wir zeigen, dass die Nutzung mehrerer Facetten vor allem die Erinnerung an sehr harte Themen um bis zu 316% erhöht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16354-3_41 d23be83c580d468611f23ee034af9e0b;de;;;7.2.;;;PowerAqua: Angeln im Semantic Web Das Semantic Web (SW) bietet die Möglichkeit, neuartige, anspruchsvolle Formen der Fragebeantwortung (QA) zu entwickeln. Insbesondere die Verfügbarkeit von verteiltem semantischem Markup in großem Maßstab öffnet den Weg für QS-Systeme, die solche semantischen Informationen nutzen können, um präzise, ​​formal abgeleitete Antworten auf Fragen zu geben. Gleichzeitig bringt die verteilte, heterogene, großräumige Natur der semantischen Informationen erhebliche Herausforderungen mit sich. In diesem Whitepaper beschreiben wir das Design eines QS-Systems, PowerAqua, das entwickelt wurde, um semantisches Markup im Web zu nutzen, um Antworten auf Fragen in natürlicher Sprache zu geben. PowerAqua geht nicht davon aus, dass der Benutzer zuvor über die semantischen Ressourcen verfügt. Das System nimmt als Eingabe eine Abfrage in natürlicher Sprache, übersetzt sie in einen Satz logischer Abfragen, die dann durch Abfragen und Aggregation von Informationen aus mehreren heterogenen semantischen Quellen beantwortet werden.;-;-;-;https://link.springer.com/chapter/10.1007/11762256_30 165586cd127ad0b153232c0b84ef92c2;de;;;7.2.;;;Ein einfacher linearer Ranking-Algorithmus mit abfrageabhängigen Intercept-Variablen Die LETOR-Website enthält drei Datensätze zum Abrufen von Informationen, die als Benchmark für das Testen von Ideen für maschinelles Lernen für das Ranking verwendet werden. Teilnehmende Algorithmen werden mit Standard-IR-Ranking-Messungen (NDCG, Präzision, MAP) gemessen. Ähnlich wie bei anderen beteiligten Algorithmen trainieren wir einen linearen Klassifikator. Im Gegensatz dazu definieren wir für jede Abfrage eine zusätzliche kostenlose Benchmark-Variable. Damit lässt sich ausdrücken, dass Ergebnisse für verschiedene Abfragen für die Relevanzbestimmung nicht vergleichbar sind. Die Ergebnisse sind etwas besser, aber deutlich einfacher als die der berichteten teilnehmenden Algorithmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00958-7_67 6089cfe53e4d8f247ca81c43bd1d6cb8;de;;;7.2.;;;Parkplatzvorhersage basierend auf genetischem Algorithmus und RNN In Bezug auf die Vorhersage von kurzfristig unbesetzten Parkplätzen des Parkleit- und Informationssystems (PGIS) wird ein Vorhersageverfahren vorgeschlagen, das genetische Algorithmen in Kombination mit einem rekurrenten neuronalen Netz (RNN) verwendet. Legen Sie zunächst die Parameter der RNN-Population fest, einschließlich des Suchraums der verborgenen Schichten des neuronalen Netzwerks, der Neuronennummer und des Neuronentyps. Dann durch Einstellen der Parameter des genetischen Algorithmus zum Antreiben und Steuern des RNN-Trainingsprozesses und Verwenden des RMSE-Werts des Vorhersageergebnisses als die Fitnessfunktion des genetischen Algorithmus, um den individuellen Bewertungsindex des RNN durchzuführen. Schließlich werden die RMSE-Werte der vorhergesagten Ergebnisse aller RNN-Individuen im experimentellen Datensatz durch zwei verschiedene Szenarien von Vorhersagebeispielen verglichen, um das beste Vorhersagemodell zu erhalten. Die Ergebnisse von Experimenten zeigen, dass dieses Verfahren eine ausgezeichnete Vorhersagegenauigkeit und eine breite Anwendbarkeit für die Vorhersage von Kurzzeit- und Parklücken in Parkleitinformationssystemen aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00776-8_79 de92114a6ccebc431dbc6631614e5347;de;;;7.2.;;;Unüberwachter Antwortabruf mit Data Fusion für die Beantwortung von Community-Fragen (cQA)-Systeme haben die Vorteile der Fortschritte beim neuronalen Informationsabruf genossen, von denen einige Modelle kommentierte Dokumente als überwachte Daten benötigen. Im Gegensatz zu der Menge überwachter Daten für cQA-Systeme haben jedoch die nutzergenerierten Daten in cQA-Standorten im Laufe der Zeit stark zugenommen. Wir konzentrieren uns daher auf unbeaufsichtigte Modelle und gehen die Aufgabe an, relevante Antworten für neue Fragen aus bestehenden cQA-Daten abzurufen und schlagen zwei Frameworks vor, um ein Question Retrieval (QR)-Modell für Answer Retrieval (AR) zu nutzen. Der erste Rahmen stuft Antworten nach den kombinierten Bewertungen von QR- und AR-Modellen ein und der zweite Rahmen stuft Antworten anhand der Bewertungen eines QR-Modells ein und;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-42835-8_2 ee9316db5c16a8dcc3713b6f9b06fa2e;de;;;7.2.;;;Für einen themenorientierten Zugriff auf Volltextdokumente Wir befassen uns mit dem Thema, einen themenorientierten Zugang zu Volltextdokumenten bereitzustellen. Die von uns vorgeschlagene Methodik ist eine Kombination aus Themensegmentierung und Information Retrieval-Techniken. Durch die Segmentierung des Textes in themenorientierte Segmente erhalten wir kleine und zusammenhängende Dokumente, die auf zwei Arten verwendet werden können: als Grundlage für die automatische Generierung von Hypertext-Links und als Visualisierungshilfe für den Leser, dem eine kleine Menge fokussierter eingeschränkte Textausschnitte. Bei Vorhandensein einer Konzepthierarchie oder Ontologie können Informationswiedergewinnungstechniken verwendet werden, um die erhaltenen Segmente mit Konzepten in der Ontologie zu verbinden. In diesem Beitrag konzentrieren wir uns auf die Textsegmentierungsphase: Wir beschreiben unseren Ansatz zur Segmentierung, diskutieren Fragen der Bewertung und berichten über vorläufige Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30230-8_45 b552599003ba3286e22f129031400090;de;;;7.2.;;;Verbesserung der Klassifizierung von Textbildern durch segmentierte visuelle Inhalte für die Bildsuchmaschine Dieser Beitrag befasst sich mit der Nutzung der Abhängigkeiten zwischen der textuellen Indexierung eines Bildes (einem Satz von Schlüsselwörtern) und seiner visuellen Indexierung (Farb- und Formmerkmale). Experimentiert wird an einem Fotokorpus einer Presseagentur (EDITING) und an einem weiteren Korpus von Tier- und Landschaftsfotografien (COREL). Beide werden manuell nach Schlüsselwörtern indiziert. Schlagworte der Nachrichtenfotos werden aus einem hierarchisch strukturierten Thesaurus extrahiert. Schlüsselwörter des Corel-Korpus werden semantisch mit der WordNet-Datenbank verknüpft. Aus ihrer textuellen Indexierung wird eine semantische Gruppierung der Fotos konstruiert. Wir verwenden zwei verschiedene visuelle Segmentierungsschemata. Einer basiert auf Interessengebieten, der andere auf homogenen Farbklecksen. Beide Segmentierungsschemata werden verwendet, um die Leistung eines inhaltsbasierten Bildabrufsystems zu bewerten, das Text- und visuelle Beschreibungen kombiniert. Die Ergebnisse der visuell-textuellen Klassifikationen zeigen eine Verbesserung von 50% gegenüber der Klassifikation, die nur Textinformationen verwendet. Schließlich zeigen wir, wie dieses System angewendet wird, um eine Web-Bildsuchmaschine zu verbessern. Zu diesem Zweck veranschaulichen wir eine Methode, die es erlaubt, nur genaue Bilder auszuwählen, die aus einer Textabfrage resultieren.;-;-;-;https://link.springer.com/article/10.1007/s11042-005-6543-6 4882537ef7407fcaccd509f5dca946f4;de;;;7.2.;;;Reduzieren von Eingabedaten zur Beantwortung von Fragen mithilfe der Erkennung benannter Entitäten In einer früheren Arbeit haben wir bewiesen, dass die Named Entity Recognition eine wichtige Rolle bei der Verbesserung der Fragebeantwortung spielt, indem sie sowohl die Qualität der Daten erhöht als auch deren Quantität reduziert. Hier präsentieren wir eine eingehendere Diskussion, in der verschiedene Möglichkeiten untersucht werden, wie NER angewendet werden kann, um eine maximale Datenreduktion zu erzielen. Wir erreichen eine Reduzierung von 60 % ohne signifikanten Datenverlust und eine Reduzierung von 92,5% mit einer angemessenen Auswirkung auf die Datenqualität.;-;-;-;https://link.springer.com/chapter/10.1007/11551874_55 b369347b2ebd24c0b91e61c645578e66;de;;;7.2.;;;Forschung zu einem Radarsystem mit sofortiger Polarisation und einem externen Experiment Radar mit momentaner Polarisation kann eine Radarziel-Polarisationsstreuungsmatrix (PSM) erhalten, indem ein Einzelimpulsecho verwendet wird. Das System überwindet die Fehler des Radars zur Messung der Polarisationspolarisation zwischen Pulsen und misst genau die PSM des sich bewegenden Ziels. Somit können die Fähigkeiten der Erkennung, Entstörung und Zielerkennung verbessert werden. Der vorliegende Beitrag berichtet über das erste internationale selbstentwickelte Radar-Experimentalsystem mit momentaner Polarisation und unter Verwendung dieses Systems werden die Messexperimente der Zielpolarisationseigenschaften durchgeführt. Die Ergebnisse zeigen, dass die Leistung der Messung der momentanen Zielpolarisation durch verschiedene Wellenformen gut ist. Die grundlegenden und üblichen Probleme bei der Extraktion von Polarisationsstreuungsmerkmalen und der Erkennungsdomäne werden gelöst.;-;-;-;https://link.springer.com/article/10.1007/s11434-010-3102-y 2e193c1aa511a4dba04b0058b967f7d3;de;;;7.2.;;;Sammlungsrangfolge und -auswahl für die Suche nach föderierten Entitäten Die Entitätssuche hat sich in den letzten Jahren zu einem wichtigen Forschungsthema entwickelt, wurde aber bisher nur zentralisiert behandelt. In diesem Beitrag präsentieren wir einen Versuch, die Aufgabe des Ad-hoc-Entity-Retrievals in einer kooperativen verteilten Umgebung zu lösen. Wir schlagen eine neue Sammlungsrangfolge- und Auswahlmethode für die Entitätssuche vor, genannt AENN. Der Kerngedanke ist, dass eine schlanke, namensbasierte Repräsentation von Entitäten effizient beim zentralen Broker hinterlegt werden kann, der somit nicht auf Sampling angewiesen ist. Diese Darstellung kann dann für das Ranking und die Auswahl von Sammlungen verwendet werden, so dass die Anzahl der ausgewählten Sammlungen und die Anzahl der von jeder Sammlung angeforderten Ergebnisse dynamisch pro Abfrage angepasst werden. Anhand einer Sammlung strukturierter Datensätze in RDF und einer Stichprobe echter Websuchanfragen, die auf Entitäten abzielen, zeigen wir, dass unser Ansatz modernste Methoden zum Abrufen von verteilten Dokumenten sowohl in Bezug auf Effektivität als auch Effizienz übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34109-0_9 0055af53d269f4aea7b68143ca04b87a;de;;;7.2.;;;Cross-Language Retrieval mit HAIRCUT beim CLEF 2004 Die JHU/APL untersuchte während der CLEF-Evaluierung 2004 weiterhin den Einsatz von Knowledge-Light-Methoden für den mehrsprachigen Abruf. Wir verließen uns auf die sprachneutralen Techniken der Zeichen-N-Gramm-Tokenisierung, der Erweiterung der Abfragen vor der Übersetzung, der statistischen Übersetzung mit ausgerichteten parallelen Korpora, der Fusion aus unterschiedlichen Abrufen und dem Vertrauen auf Sprachähnlichkeit, wenn Ressourcen knapp sind. Wir nahmen an den ein- und zweisprachigen Evaluationen teil. Unsere Ergebnisse stützen die Behauptungen, dass die n-gram-basierte Abfrage hocheffektiv ist, dass die Fusion mehrerer Abfragen bei der zweisprachigen Abfrage hilfreich ist und dass das Vertrauen auf Sprachähnlichkeit anstelle der Übersetzung ein leistungsstarkes System mit reichlich vorhandenen Übersetzungsressourcen und einer geringeren Leistung übertreffen kann ähnliche Abfragesprache.;-;-;-;https://link.springer.com/chapter/10.1007/11519645_5 85cd7887c4af9012014c0e95a5709f2c;de;;;7.2.;;;Textkategorisierung basierend auf der Fuzzy-Soft-Set-Theorie In diesem Artikel haben wir eine neue Methode zur Textkategorisierung vorgeschlagen, die auf der Fuzzy-Soft-Set-Theorie basiert, dem sogenannten Fuzzy-Soft-Set-Klassifikator (FSSC). Wir verwenden eine Fuzzy-Soft-Set-Darstellung, die aus der Bag-of-Words-Darstellung abgeleitet wurde, und definieren jeden Begriff als eigenständiges Wort in der Wortmenge der Dokumentensammlung. Die FSSC kategorisieren jedes Dokument unter Verwendung der Fuzzy-C-Means-Formel zur Klassifizierung und verwenden Fuzzy-Soft-Set-Ähnlichkeit, um den Abstand zwischen zwei Dokumenten zu messen. Wir führen die Experimente mit dem Standard-Reuters-21578-Datensatz durch und verwenden drei Arten von Gewichtungen wie Boolean, Termhäufigkeit und Termhäufigkeit-invertierte Dokumenthäufigkeit, um die Leistung von FSSC mit anderen vier Klassifikatoren wie kNN, Bayesian, Rocchio, und SVM. Wir verwenden Präzision, Recall, F-Maß, Retun-Size und die Laufzeit als Leistungsbewertung. Ergebnis gezeigt, dass es keinen absoluten Gewinner gibt. Der FSSC hat eine niedrigere Präzision, Recall- und F-Messung als SVM und kNN, aber FSSC kann schneller als beide arbeiten. Im Vergleich zu Bayesian und Rocchio arbeitet der FSSC langsamer, hat aber eine höhere Präzision und F-Maß.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31128-4_25 a7765440a4ee6c9aa5b77be458f20139;de;;;7.2.;;;Ein präziser hartgeschnittener EM-Algorithmus für Mischungen von Gauß'schen Prozessen Die Mischung aus Gaußschen Prozessen (MGP) ist ein leistungsfähiges Framework für maschinelles Lernen. Das Lernen oder Schätzen von Parametern ist jedoch immer noch ein sehr anspruchsvolles Problem. In diesem Beitrag wird ein präziser Hard-Cut-EM-Algorithmus zum Erlernen der Parameter des MGP ohne Näherung in der Ableitung vorgeschlagen. Die experimentellen Ergebnisse zeigen, dass unser vorgeschlagener Hartschnitt-EM-Algorithmus für MGP machbar ist und sogar zwei verfügbare Hartschnitt-EM-Algorithmen übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09339-0_7 6634ce6316b2ab1a587238d17ecb51b2;de;;;7.1.;;;Volumetrische Werkzeuge für die Bearbeitungsplanung Der Beitrag stellt als Einführung kurz die Berechnungsmethode MAT durch Unterteilung vor, den sogenannten «Divide-and-Conquer»-Algorithmus, bei dem die Delaunay-Knoten berechnet werden. Im Folgenden wird beschrieben, wie diese Methode zur Berechnung der MAT negativer Objekte angewendet werden kann. Die negative MAT liefert wichtige Informationen über das Äußere des Objekts für den Materialabtrag und die maximalen Radien für den Zugang. Der Prozess der Berechnung der negativen MAT umfasst auch die Bestimmung unendlicher Delaunay-Knoten. Der Beitrag stellt Methoden zur Rekombination der Delaunay-Knoten nach bestimmten Regeln für die Objektrekonstruktion, das Offsetting und die Objektunterteilung vor. Schließlich beschreibt das Papier, wie diese Werkzeuge für die Bearbeitung und die Bearbeitungsplanung verwendet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35492-7_11 dbff03f08532d16fc5fd3b3771ae8dd0;de;;;7.1.;;;SIRPSS – Planungsunterstützungssystem für die Planung von nachhaltigen Industriestandorten Verlassene Industriestandorte sollten nachhaltig saniert werden, um Brachflächen zu reduzieren. Planungsunterstützungssysteme (PSS) können in der frühen Planungsphase helfen, indem sie den Planern mögliche Ergebnisse verschiedener Sanierungsszenarien präsentieren. In diesem Papier wird ein PSS vorgestellt, das auf der Grundlage früherer Erfahrungen eine nachhaltige Entscheidung zur Neuentwicklung von Industriestandorten unterstützt. Erfahrungen aus der Vergangenheit werden als Fälle im System erfasst. Case Based Reasoning (CBR) wird angewendet. Für Standorte, die neu entwickelt werden müssen, werden ähnliche neu entwickelte Fälle aus der Fallbibliothek abgerufen. Strategien, die in früheren Fällen angewendet wurden, werden überprüft und die neue Website wird auf der Grundlage der Vergleichsstudie neuer Fälle und früherer Erfahrungen zusammen mit den Beiträgen von Planern entworfen. Nachhaltigkeit wird dynamisch auf Standort- und regionaler Ebene bewertet. Zur Veranschaulichung des Systems wird ein Schaukasten präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-90315-6_1 413ed274995d584d2232902d22ffe522;de;;;7.1.;;;Informationsmodellierung und Simulation in großen abhängigen kritischen Infrastrukturen – Ein Überblick über das europäische integrierte Projekt IRRIIS IRRIIS („Integrated Risk Reduction of Information-based Infrastructure Systems“) ist ein europäisches integriertes Projekt, das im Februar 2006 innerhalb der 6.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03552-4_12 2fd9328a8ec12ba798341d9ecfdb39f5;de;;;7.1.;;;Unterstützung des Business Process Reengineering in der Industrie: Auf dem Weg zu einer Methodik In den letzten Jahren ist die Notwendigkeit für Unternehmen (privater und öffentlicher Sektor, Produktions- und Dienstleistungsunternehmen) entstanden, sich in einem breiten Spektrum von Betriebsbereichen wettbewerbsfähig zu verhalten. Der Wettbewerbsdruck, insbesondere in der verarbeitenden Industrie, hat einen großen Teil der Unternehmen dazu veranlasst, ihre Strategien zu überdenken und ihre Fähigkeiten zu entwickeln. Die Nachfrage der Verbraucher nach einer höheren Produktqualität und -vielfalt (Hayes und Jaikumar, 1988), die enorme Zunahme der Produktvielfalt innerhalb der Märkte (Wortmann, 1990) und die kürzer werdenden Produktlebenszyklen (Pisano und Wheelwright, 1995) haben alle den Bedarf an Veränderung. Um diesem Bedarf gerecht zu werden, suchen Unternehmen ständig nach neuen Methoden zur Verbesserung ihrer Betriebsleistung (Voss und Blackmon, 1994). Im Laufe der Jahre sind viele thematische Fertigungsinitiativen entstanden, die ein Mittel versprochen haben, dieses Leistungsniveau zu erreichen. Trotz der vielversprechenden Themen wie Just in Time, World Class Manufacturing, Lean Production, Total Quality Management und jetzt Business Process Reengineering wurde die Industrie nur schwach angenommen (Voss und Robinson, 1987).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5091-4_12 8a9ed64c1d6abed373b02260c9b72c1b;de;;;7.2.;;;QDex: Ein Datenbank-Profiler für die Exploration von generischen Biodaten und die qualitätsbewusste Integration In den Human- und Biowissenschaften arbeiten Forscher intensiv zusammen und tauschen genomische, biomedizinische und experimentelle Ergebnisse aus. Dies erfordert die dynamische Integration verschiedener Datenbanken in ein einziges Repository oder ein Warehouse. Die in diese Warehouses integrierten Daten stammen aus verschiedenen heterogenen Quellen mit unterschiedlicher Qualität und Vertrauen. Meistens werden sie weder rigoros ausgewählt noch sorgfältig auf Datenqualität kontrolliert. Datenaufbereitung und Datenqualitätsmetadaten werden empfohlen, aber noch immer unzureichend genutzt, um die Qualität sicherzustellen und die Ergebnisse von Informationsabruf- oder Data-Mining-Verfahren zu validieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77010-7_2 503be6979e0a09fff23fd49e69f7cf0d;de;;;7.2.;;;Ein integrierter deterministischer und nichtdeterministischer Inferenzalgorithmus für die sequentielle Kennzeichnung In diesem Beitrag präsentieren wir einen neuen Suchalgorithmus für sequenzielle Labeling-Aufgaben basierend auf den bedingten Markov-Modellen (CMMs). Im Gegensatz zur herkömmlichen Strahlsuche durchquert unsere Methode alle möglichen eingehenden Bögen und berücksichtigt auch die bisher „lokalen Besten“ jedes vorherigen Knotens. Darüber hinaus schlagen wir zwei Heuristiken vor, um die Effizienzanforderung zu erfüllen. Um die Wirkung unserer Methode zu demonstrieren, wurden im Experiment sechs verschiedene und groß angelegte sequenzielle Markierungsaufgaben durchgeführt. Darüber hinaus vergleichen wir unsere Methode mit Viterbi- und Beam-Suchansätzen. Die experimentellen Ergebnisse zeigen, dass unsere Methode nicht nur eine wesentliche Verbesserung der Laufzeiteffizienz, sondern auch eine etwas bessere Genauigkeit liefert. Kurz gesagt, unsere Methode erreicht 94,49 F;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17187-1_21 b0ef3036681604cc037b6c128db144f4;de;;;7.1.;;;Infrastruktur als System Wasser interagiert mit mehreren anderen Wirtschaftssektoren (Wasserkrafterzeugung, Trinkwasser, Bewässerung, industrielle Nutzung). Zusätzliche Wasserkraft kann die Verfügbarkeit von Wasser für die Bewässerung oder für die industrielle Nutzung verringern, beides mit direkten Auswirkungen auf die Wirtschaft. Somit treten Infrastrukturdienste sowohl als Output für Benutzer als auch als Input unter den Rohstoffen für andere Infrastrukturprozesse oder Dienste an anderer Stelle auf, was bedeutet, dass Infrastrukturdienste Teil eines Netzwerks sind. Ein Infrastruktursystem stellt eine komplexe Gruppierung von Geräten und Personen mit einem Ziel dar, das in der Regel von den benachbarten Subsystemen beeinflusst wird, die oft mehrere (normalerweise widersprüchliche) Ziele verfolgen und einen Kompromiss durch Kompromisse usw.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-48559-7_6 fae2ae64db7c610b358a36feed528d6b;de;;;7.1.;;;Ein hierarchisches Agentenmodell basierend auf Fähigkeiten, Regeln und Wissen Das Hauptziel dieser Forschung ist es, Agenten nach unterschiedlichen Situationen zu strukturieren, mit denen sie umgehen müssen. Um dies zu erreichen, schlagen wir ein konzeptionelles Modell mit einer hierarchischen Struktur vor, die durch das Skill-Rule-Wissen (;-;-;-;https://link.springer.com/chapter/10.1007/3-540-61291-2_52 f912dde7aca15b0cdb5f259bb98b2fb6;de;;;7.1.;;;Erfahrungen beim Einsatz unterschiedlicher Kommunikationsstile in Geschäftsprozessunterstützungssystemen mit der Shared Spaces Architektur Obwohl das Konzept der Shared Spaces schon lange bekannt war, wurde es erst mit dem Aufkommen des Internets und sozialer Software populär. Auf diese Weise ist das Konzept auch in andere IT-Bereiche vorgedrungen, unter anderem in den Bereich des Business Process Managements, was die Notwendigkeit zur Untersuchung der Nutzung von Shared Spaces in Verbindung mit Business Process Support (BPS) mit sich bringt. Der erste Teil dieses Erfahrungsberichts beschreibt die Erfahrungen der Autoren mit dem Bau, der Einführung in die betriebliche Praxis und der Nutzung von BPS-Systemen basierend auf der Shared-Spaces-Architektur. Es werden drei Anwendungsbeispiele vorgestellt, die die Zusammenarbeit/Kommunikation im Rahmen von Geschäftsprozessinstanzen unterstützen sollen. Diese Systeme verwenden drei verschiedene Mechanismen, um Kommunikation/Zusammenarbeit zu arrangieren. Das erste System basiert auf kollaborativer Planung, das zweite auf der spezialisierten Struktur der Shared Spaces und das dritte auf Statusänderungen der Prozesse. Der zweite Teil des Beitrags widmet sich der Analyse der Beispiele aus dem ersten Teil, um eine vorläufige Taxonomie von Kommunikationsstilen in Systemen mit Shared-Spaces-Architektur zu erstellen. Zu diesem Zweck identifizierten die Autoren drei binäre Parameter, die die Art und Weise charakterisieren, wie Einladungen zum Besuch eines Shared Space ausgestellt werden. Diese Parameter können zum Analysieren der Kommunikationsfähigkeiten von BPS-Systemen sowie anderer Arten von Computersystemen mit der Shared-Spaces-Architektur verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21640-4_23 4a9e1d0613e12e9c47eae527af2ef0cf;de;;;7.1.;;;Integration eines dreifach nachhaltigen Managements unter Berücksichtigung der mehrstufigen Lieferkette für Kraftstoffe der nächsten Generation Biokraftstoffabhängige Energieträger wirken sich positiv auf Umwelt, Wirtschaft und Gesellschaft aus. Um diesen Kraftstoff der nächsten Generation in einem entwickelten Maßstab angemessen zu nutzen, ist ein gut durchdachtes und effizientes Lieferkettenmanagement erforderlich. Daher ist es notwendig, eine nachhaltige Biokraftstoff-Lieferkette zu konzipieren und zu entwickeln, die wirtschaftlich ist, Umweltgefahren minimiert und den sozialen Nutzen verbessert. In dieser Studie wird ein mehrstufiges und multizielorientiertes nachhaltiges Supply Chain Management entwickelt. Dieser langfristige Planungshorizont ist in eine äquivalente Anzahl von Teilperioden unterteilt, in denen alle Ziele gleichzeitig ausgeführt werden. Ziel ist es, einen Rahmen für das mehrstufige nachhaltige Lieferkettenmanagement zu schaffen, der den CO2-Ausstoß reduziert und die neuen Beschäftigungsmöglichkeiten im gesamten Zeitraum voll ausschöpft. Die Parameter in diesem Modell werden benötigt, um sich während der Zeit auszudehnen, um der steigenden Nachfrage nach Märkten gerecht zu werden. Die erweiterten;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-57993-7_25 8beca6bb385e202689dab7fbd5cbf3fa;de;;;7.2.;;;Hardware-Unterstützung für Language Aware Information Mining Information Retrieval aus Text oder „Text Mining“ ist der Prozess, interessantes und nicht triviales Wissen aus unstrukturiertem Text zu extrahieren. Angesichts der ständig wachsenden Informationsmengen, die im Internet gespeichert oder in einem Computersystem archiviert werden, sind Hochleistungs-Datenverarbeitungsarchitekturen erforderlich, um diese Daten in Echtzeit zu verarbeiten. Das Ziel der in diesem Beitrag vorgestellten Arbeit ist die Entwicklung eines Hardware Text Mining IP-Cores für den Einsatz in FPGA-basierten Systemen. In diesem Whitepaper beschreiben wir die Vorverarbeitungs-Engine, die wir für die PRESENCE II PCI-Karte entwickelt haben, um die Identifizierung signifikanter Wörter in einem Dokument zu beschleunigen und deren Häufigkeit und Position zu protokollieren. Die Leistung dieses Systems wird dann mit einer äquivalenten Softwareimplementierung unter Verwendung des Lucene-Softwarepakets verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/11893011_53 c2838c6b560f2cc09008a3b3406e098a;de;;;7.2.;;;Ergosemiotik der User Interface Forschung und Gestaltung: Grundlagen, Ziele, Potenziale, Zwei Richtungen der Computersemiotik, die strukturalistische und die linguo-ergonomische, werden betrachtet. Die Notwendigkeit in der Ergosemiotik, ihre Grundlagen, Ziele und Potenziale werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-58648-2_21 b10e907018cd00e2b24e4475957eee2a;de;;;7.1.;;;Adaptiver Mensch-Computer-Dialog Wenn zwei oder mehr Personen miteinander sprechen, gibt es eine Vielzahl von Parametern und Stilmitteln, die einen solchen Dialog beeinflussen können. Dies können situationsbezogene Parameter sein, z. B. eine Person hat es eilig, die Umgebung ist laut, es regnet usw., oder sprecherbezogene Parameter, z ist nervös wegen einer anstehenden Prüfung etc. Darüber hinaus neigen Menschen dazu, bestimmte Stilmittel zu verwenden, um zu betonen, was sie in der Interaktion ausdrücken wollen, z die Bedeutung der paralinguistischen Parameter und die Wechselbeziehung zwischen Situation und Verhalten der Gesprächspartner. Darüber hinaus ist der Mensch in der Lage, diesen Kontext im Dialog zu berücksichtigen. Diese Anpassung erfolgt typischerweise unterschwellig, d. h. der Sprecher merkt es nicht einmal.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-3129-7_3 483b9fc9e0ce8eea89a60baa3f09a921;de;;;7.1.;;;Zu lernende Lektionen Die Bewertungs- und Reflexionspapiere in dieser Sonderausgabe von Bildung und Informationstechnologien zeigen einige interessante Arten von Unterstützung, die die Informationstechnologie (IT) für diejenigen bieten kann, die Klassenzimmer und Bildungseinrichtungen leiten. Die meisten Arbeiten basieren auf Längsschnittstudien, die den Wert der vorgestellten IT-Anwendungen bestätigen. Die Papiere unterstützen nachdrücklich den Einfluss der in Abb. 1 enthaltenen Variablengruppen im Einführungspapier und ein weiterer Vergleich mit dem Analyserahmen kann Rückschlüsse darauf ziehen, welche Faktoren für eine erfolgreiche Umsetzung von besonderer Bedeutung sind. Wir können daraus schließen, dass, obwohl der ursprüngliche Rahmen für IT-Management-Implementierungen auf institutioneller Ebene konzipiert wurde, er zusätzlich einen Orientierungsrahmen für die Bewertung der Auswirkungen der IT auf die Vielzahl von Verwaltungsrollen im Klassenzimmer bieten kann und sogar eine Orientierungshilfe und Bewertungstool für eine virtuellere Umgebung der Zukunft;-;-;-;https://link.springer.com/article/10.1023/A%3A1018637902857 e8df4f9396bcb33838c4187a7a8a03bb;de;;;7.1.;;;Bewertung von benutzerdefinierten Dashboards: Ein Fall für die Entwicklung von Datenvisualisierungskompetenz Gesundheitsinformations-Dashboards, bei denen es sich um Sammlungen relevanter Indikatoren-Visualisierungen für das Management handelt, sind zu einem gebräuchlichen Merkmal und einer Strategie für eine verbesserte Informationsnutzung im Gesundheitssektor geworden. Sie sollten jedem Manager qualitativ hochwertige Informationen in einem Format zur Verfügung stellen, das die Leistung der Gesundheitsversorgung hervorhebt, und daher gute Kenntnisse der Visualisierungstechniken sowohl für die Entwicklung als auch für die Interpretation erfordern. Da das Gesundheitsmanagement eine verteilte und dezentralisierte Aktivität ist, müssen Dashboards für verschiedene Benutzer und verschiedene Verwaltungsebenen der Gesundheitsdienste relevant sein. Dies kann erreicht werden, indem es allen Benutzern ermöglicht wird, ihre eigenen Dashboards auf der Grundlage der von ihnen benötigten Indikatoren zu erstellen und in geeigneter Weise darzustellen, um die lokalen prioritären Aktivitäten zu verfolgen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-18400-1_37 80060a0a61540b4caa40da4d0f7c2908;de;;;7.1.;;;Ein konzeptionelles Modell für die Implementierung von Produktionsnivellierung (Heijunka) in Batch-Produktionssystemen In diesem Dokument wird ein Implementierungsmodell für eine neue Methode zum Produktionsnivellieren erläutert, die für ein Batch-Produktionssystem entwickelt wurde. Die Hauptstruktur dieses Modells basiert auf drei Konstrukten: traditioneller Rahmen für die Betriebsplanung, Lean-Manufacturing-Konzepte für die Produktionsnivellierung und Fallstudienleitfäden. Durch die Kombination des ersten und zweiten Konstrukts wurde ein Framework für Production Leveling für Batch-Produktionssysteme entwickelt. Dann wurden Fallstudienleitlinien angewendet, um eine geeignete Implementierungssequenz zu definieren, die Prioritätskriterien für Produkte und einen Plan für die Produktionsebene für die Kapazitätsanalyse umfasst. Dieses konzeptionelle Modell wurde auf eine brasilianische Tochtergesellschaft eines multinationalen Unternehmens angewendet. Darüber hinaus belegen die Ergebnisse eine Leistungsverbesserung und wurden daher sowohl von den Managern als auch vom Produktionspersonal genehmigt. Schließlich können Forscher und Praktiker aufgrund von Forschungsbeschränkungen die allgemeine Anwendbarkeit dieser Methode bestätigen, indem sie sie in Unternehmen anwenden, die Ähnlichkeiten in Bezug auf Stapelverarbeitungsvorgänge aufweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16358-6_11 a160fe361c787c899900de7ba853bf9d;de;;;7.1.;;;Strategische Analyse und Strategieformulierung Das Ziel dieses Kapitels ist es, einen breiten Überblick über die Phasen des strategischen Marketingprozesses zu geben und einige der Techniken vorzustellen, die bei der Entwicklung eines strategischen Plans verwendet werden. In den letzten zwei Jahrzehnten wurde dieses Thema ausführlich behandelt, und am Ende des Kapitels befindet sich eine Literaturliste, um den Leser zu weiterführenden Quellen zu führen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-27486-4_2 ea51c2bc819cd9f3e31d5f29ca4b7e06;de;;;7.2.;;;Die Konsistenz- und Ranking-Methode basierend auf der linguistischen Vergleichsvariablen Die Studie entwickelte eine Konsistenz-Approximations- und Ranking-Methode basierend auf der linguistischen Vergleichsvariable. Das Verfahren konstruiert die Konsistenz-Fuzzy-Komplementär-Beurteilungsmatrix unter Verwendung der Beurteilungsmatrix der linguistischen Variablen. Die Beurteilungsmatrix wird durch die Fuzzy-Menge oder die vage Menge der linguistischen Vergleichsvariablen definiert. Das Verfahren erhält das VPIS und VNIS basierend auf dem TOPSIS-Verfahren. Und die relativ ähnlichen Annäherungsgrade mit dem Abstand zwischen Alternativen und VPIS oder VNIS werden definiert. Anschließend analysiert die Studie die Auswirkungen auf die Bewertungsqualität, die durch Bewertungsmethode, Indexgewichtung und Gutachter verursacht werden. Schließlich wurden die Verbesserungsmethoden diskutiert und ein Beispiel vorgestellt, um die vorgeschlagene Methode zu veranschaulichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16397-5_29 dd3b648b103de08513bb4ee253f03346;de;;;7.2.;;;Eine Multikriteriumsbewertung des MemSys5-Programms für PET Bei der Positronen-Emissions-Tomographie (PET) müssen Bilder aus verrauschten Projektionsdaten rekonstruiert werden. Das Rauschen der PET-Daten kann durch eine Poisson-Verteilung modelliert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-8729-7_16 b69d97ee7bfca7a6c70b317f832edcad;de;;;7.2.;;;Themenkategorisierung und Darstellung der von Gesundheitsgemeinschaften generierten Daten Die Darstellung und Kategorisierung der von professionellen Gesundheitsdienstleistern freigegebenen Daten sind gut untersucht und praktisch umgesetzt worden. Diese haben das Browsen, die Suche und das Lernen von Gesundheitsinformationen auf höherer Ebene erleichtert. Auf der anderen Seite gibt es nur wenige entsprechende Studien zur Darstellung und Kategorisierung von von Gesundheitsgemeinschaften generierten Daten. Es ist in der Regel komplexer, inkonsistenter und mehrdeutig und wirft folglich Herausforderungen für den Datenzugriff und die Analyse auf. Dieses Papier untersucht verschiedene Darstellungen für von Gesundheitsgemeinschaften generierte Daten und kategorisiert diese Daten in Bezug auf Gesundheitsthemen. Darüber hinaus verwendet diese Arbeit pseudo-markierte Daten, um die überwachten Themenkategorisierungsmodelle zu trainieren, was den gesamten Kategorisierungsprozess unüberwacht und erweiterbar macht, um große Datenmengen zu verarbeiten. Die umfangreichen Experimente an zwei realen Datensätzen enthüllen unsere interessanten Ergebnisse der informativen Darstellungsansätze und effektiven Kategorisierungsmodelle für von Gesundheitsgemeinschaften generierte Daten.;-;-;-;https://link.springer.com/article/10.1007/s11042-015-3094-3 305bb4242ce3992c1c65b8aad22f57ff;de;;;7.2.;;;Methodik für die vorherige Bewertung der Interoperabilität Interoperabilität ist die Fähigkeit von zwei oder mehr Systemen oder Komponenten, Informationen auszutauschen und die ausgetauschten Informationen ohne besonderen Aufwand auf einem der beiden Systeme zu verwenden. Dieses Papier versucht, einen Rahmen für die Bewertung und Verbesserung der Interoperabilität bei jedem der Partner vorzuschlagen, die in einer Lieferkette zusammenarbeiten. Die Definition des Rahmens basiert auf drei wichtigen Hypothesen. Die erste Hypothese setzt die Existenz von Interoperationsaktivitäten voraus, die dem Teil der Geschäftsprozesse entsprechen, der Bemühungen um Interoperabilität darstellt. Die zweite ist die Definition von Key Performance Indicators (KPIs) als Aggregation von Zeit-, Kosten- und Qualitätsleistung für Interoperationsaktivitäten und auch für tatsächliche Geschäftsaktivitäten. Der dritte schlägt vor, die Auswirkungen von Interoperabilitätsinvestitionen auf die Unternehmensziele in zwei Schritten zu analysieren: Der erste Schritt ist die Bewertung der Auswirkungen von Interoperabilitätslösungen auf KPIs, der zweite Schritt analysiert die Auswirkungen der Verbesserung der KPIs auf die Erreichung der betrieblichen, taktischen und strategischen Ziele. Außerdem wird eine Methodik für die vorherige Bewertung der Interoperabilität und Verbesserung auf der Grundlage dieses Rahmens vorgeschlagen. Ziel dieser Methodik ist die Validierung von zu implementierenden Interoperabilitätslösungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15961-9_82 6909459fd6a24519a667237fe6be8db1;de;;;7.2.;;;Predictive Analytics im Gesundheitswesen: Methoden und Ansätze zur Erkennung des Wiederaufnahmerisikos Die zunehmende Konzentration auf evidenzbasierte Gesundheitsdienstleistungen sowie steigende Gesundheitsausgaben für stationäre Behandlungen zwingen Krankenhäuser, neue Ansätze einzuführen, um eine effizientere Erbringung dieser Dienstleistungen zu ermöglichen. Als neues Maß für die Qualität der Gesundheitsversorgung werden Wiederaufnahmequoten zunehmend verwendet, um die Versorgungsqualität zu bestimmen, die Krankenhausleistung zu messen und die Finanzierungsraten zu bestimmen oder sogar Strafen zu verhängen. Daher ist es wichtig, Patienten mit hohem Wiederaufnahmerisiko zu bestimmen. Dies kann durch den Einsatz prädiktiver Risikomodelle erfolgen, die das Risiko einer Wiedereinweisung ins Krankenhaus für einzelne Patienten mithilfe verschiedener Data-Mining-Techniken und Algorithmen vorhersagen können. Basierend auf diesen Modellen und mit der steigenden Datenmenge in Krankenhäusern können Kliniker und Krankenhausleitung bei ihrer täglichen Entscheidungsfindung zur Senkung der Wiederaufnahmeraten unterstützt werden. Letztlich kann die Implementierung solcher Vorhersagemodelle dazu beitragen, unnötige Kosten zu vermeiden und die Qualität der Gesundheitsversorgung zu verbessern. Ziel dieser Arbeit ist es, aktuelle Risikovorhersagemodelle im Gesundheitswesen im Hinblick auf ihre spezifischen Anwendungsgebiete, angewandten Algorithmen und die daraus resultierende Genauigkeit zu identifizieren und zu analysieren, um die Eignung verschiedener Methoden in unterschiedlichen Versorgungskontexten zu bestimmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-72287-0_5 d5ebbe5f1550693231531a09491bda94;de;;;7.2.;;;Eine neuartige Metrik zur Bewertung der Wirksamkeit von IDS Heutzutage genießt das Intrusion Detection System (IDS) eine beträchtliche Aufmerksamkeit als ein entscheidendes Element der Netzwerksicherheit. Es stellt sich die Frage, welches IDS für unser System wirksam ist. Die Antwort sollte unweigerlich die Bewertung der Wirksamkeit von IDS berücksichtigen. Um dieser Herausforderung zu begegnen, wurden viele wertvolle Bewertungsmetriken eingeführt, wie z;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55415-5_18 a517a9032fe05f978b23284793775f6e;de;;;7.1.;;;Räumlicher Evolutionsalgorithmus für großflächiges Grundwassermanagement Großräumige Probleme des Grundwassermanagements stellen aufgrund der räumlichen Komplexität und Heterogenität große Rechenherausforderungen für die Entscheidungsfindung. Diese Studie beschreibt einen Modellierungsrahmen zur Lösung großräumiger Probleme des Grundwassermanagements unter Verwendung eines neu entwickelten räumlichen evolutionären Algorithmus (SEA). Diese Methode berücksichtigt räumliche Muster der hydrologischen Bedingungen, um die optimale Suche nach räumlichen Entscheidungsvariablen zu erleichtern. Der SEA verwendet eine hierarchische Baumstruktur, um räumliche Variablen effizienter darzustellen als die Datenstruktur, die von einem regulären EA verwendet wird. Darüber hinaus werden spezielle Crossover-, Mutations- und Selektionsoperatoren entsprechend der Baumdarstellung entworfen. In dieser Arbeit wurde die SEA auf die Suche nach der maximalen Vegetationsabdeckung im Zusammenhang mit einem verteilten Grundwassersystem in einer ariden Region angewendet. Computerexperimente demonstrieren die Effizienz von SEA für großräumige räumliche Optimierungsprobleme. Die Erweiterung dieses Algorithmus für andere Probleme des Wasserressourcenmanagements.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12286-1_14 de2671cc8a5dfe4a0dd18642662f199b;de;;;7.1.;;;Ein neuartiges Framework für die Erstellung virtueller Organisationen in der Cloud Heutzutage müssen virtuelle Organisationen (VOs) neue Technologien nutzen, um schnell auf Kooperationsmöglichkeiten reagieren zu können. Cloud Computing ist ein neues Paradigma, das die VO-Effizienz und -Flexibilität steigern und gleichzeitig die VO-Ausgaben und die Reaktionszeit senken könnte. Außerdem ist die VO-Zuchtumgebung (VBE) ein Ansatz, um effiziente VOs zu erstellen. Somit kann die Kombination von VBE und Cloud Computing die Erstellung von VOs und Reaktionen auf bevorstehende Gelegenheiten erleichtern. In diesem Papier wurde ein Framework zum Erstellen von VO in einer Cloud-Umgebung vorgeschlagen, das drei Phasen umfasst: Erstellen und Verwalten von VBE in der Cloud, Verschieben von VBE in die Cloud und schließlich Erstellen von VO in der Cloud. Der vorgeschlagene Rahmen kann als Lösung zur Erfüllung der VO-Anforderungen betrachtet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44745-1_43 335fb1fa1770b83505a8cde667aec00f;de;;;7.1.;;;Praktische Herausforderungen der Unternehmensmodellierung im Lichte des Business- und IT-Alignments Die Notwendigkeit, eine Kluft zwischen organisatorischem Kontext und Technologie innerhalb von Unternehmen zu verringern, wurde sowohl von Forschern als auch von Praktikern erkannt und diskutiert. Um dieses Problem zu lösen, ist es erforderlich, sowohl die Geschäfts- als auch die IT-Dimension des Unternehmensbetriebs zu erfassen und zu analysieren. In dieser Hinsicht gilt Enterprise Modeling derzeit als weit verbreitetes und leistungsstarkes Werkzeug, das die Ausrichtung des Geschäfts auf die IT ermöglicht und erleichtert. Die zentrale Rolle des EM-Prozesses ist der EM-Praktiker – eine Person, die das EM-Projekt zur erfolgreichen Erreichung seiner Ziele unterstützt und vorantreibt. Die Durchführung von EM ist ein sehr kollaborativer und nicht trivialer Prozess, der beträchtliche Fähigkeiten und Erfahrung erfordert, da während des gesamten EM-Projekts verschiedene Herausforderungen zu bewältigen und zu bewältigen sind. Trotz eines recht breiten Spektrums an verwandter Forschung muss die Frage der EM-Herausforderungen weiter untersucht werden, insbesondere im Hinblick auf die Sichtweise von EM-Praktikern. Der Zweck dieses Papiers ist es daher, Herausforderungen zu identifizieren, denen sich EM-Praktiker normalerweise während ihrer Modellierungsbemühungen gegenübersehen, unter Berücksichtigung des möglichen Einflusses dieser Herausforderungen auf die erfolgreiche Durchführung von EM und die anschließende Ausrichtung von Business und IT.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34549-4_3 d13ad81e22ece0f5eed7c9044c384e19;de;;;7.2.;;;Ein risikobasierter Ansatz zur Formalisierung von Informationssicherheitsanforderungen für die Softwareentwicklung Eine Hauptursache für Informationssicherheitsprobleme ist oft ein zu komplexes Softwaredesign, das nicht einfach oder korrekt implementiert, gewartet oder geprüft werden kann. Daher ist es wichtig, risikobasierte Anforderungen an die Informationssicherheit zu etablieren, die in Informationssicherheitsspezifikationen umgewandelt werden können, die von Programmierern verwendet werden können, um sicherheitsrelevanten Code zu entwickeln. Dieses Papier stellt einen risikobasierten Ansatz zur Formalisierung von Informationssicherheitsanforderungen für die Softwareentwicklung vor. Basierend auf einem formalen, strukturierten Risikomanagementmodell konzentriert es sich auf;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39377-8_30 9da02ecb6b388bd12f70db0ac1969c1a;de;;;7.2.;;;Multimodale Wahrnehmung Um Multimedia- und Virtual-Reality-Produkte und -Dienste zu entwerfen, zu optimieren und bereitzustellen, ist es notwendig, die Leistung an die Fähigkeiten der Benutzer anzupassen. Wenn ein Multimediasystem verwendet wird, führt das Vorhandensein von Audio- und Videostimuli zu signifikanten modalen Cross-Effekten (die Sinnesströme interagieren). Dieses Papier stellt eine Reihe von modalen Wechselwirkungen vor, die für Kommunikationssysteme relevant sind, und diskutiert die fortgeschrittenen experimentellen Techniken, die erforderlich sind, um Daten zur Modellierung der multimodalen Wahrnehmung bereitzustellen. Ziel der Arbeit ist es, ein multimodales Wahrnehmungsmodell bereitzustellen, das zur Leistungsbewertung verwendet und in Kodierungsalgorithmen integriert werden kann. Die aktuellen und zukünftigen Anwendungen der multimodalen Modellierung werden diskutiert.;-;-;-;https://link.springer.com/article/10.1023/A%3A1009666623193 7585e385e90b7386197a9cd1ca31d297;de;;;7.2.;;;Auf dem Weg zu einem Modell der Technologieakzeptanz: Ein konzeptioneller Modellvorschlag Es wird ein konzeptionelles Modell für die Einführung von Informations- und Kommunikationstechnologien (IKT) durch kleine mittlere Unternehmen (KMU) vorgeschlagen. Die Forschung verwendet mehrere IKT-Einführungsmodelle als Grundlage mit theoretischer Untermauerung durch die Theorie der Innovationsdiffusion und das Technologieakzeptanzmodell (TAM). In einem explorativen Forschungsansatz wurde das Modell bei 200 KMU untersucht, deren Kerngeschäft IKT ist. Diese Studie zeigt, dass diese KMU mit denselben Problemen konfrontiert sind wie alle anderen Industriesektoren. Diese Arbeit weist auf Schwachstellen in KMU-Umgebungen in Bezug auf die Einführung von IKT hin und schlägt vor, was sie möglicherweise tun müssen, um die Erfolgsquote einer vorgeschlagenen Einführung zu erhöhen. Die Methodik für die Entwicklung des Rahmenwerks wird beschrieben und Empfehlungen für verbesserte regierungsgeführte Initiativen zur Einführung von IKT gegeben. Die Anwendung der allgemeinen Methodik hat zu neuen Möglichkeiten geführt, das Ethos und die Kultur rund um die Themen in den Rahmen neuer Projekte einzubetten, die als Ergebnis staatlicher Interventionen entwickelt wurden. Es wird ein konzeptionelles Modell vorgeschlagen, das zu einem tieferen Verständnis der betrachteten Probleme führen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02388-0_20 ed19abaf6480dfbd03f1f456cfcbca11;de;;;7.2.;;;Wie nutzen Angehörige der Gesundheitsberufe Systeme zum Austausch von Gesundheitsinformationen? Messung der Nutzung zur Evaluierung und Systemverbesserung Der Austausch von Gesundheitsinformationen (Health Information Exchange, HIE) ist ein Weg zur Verbesserung der Patientenversorgung und eine wichtige Priorität im Rahmen der Anforderungen an die sinnvolle Nutzung. Wir wissen jedoch sehr wenig über den Einsatz von HIE-Systemen. Zu verstehen, wie medizinisches Fachpersonal HIE-Systeme tatsächlich nutzt, bietet praktische Einblicke in die Systembewertung, hilft bei der Systemverbesserung und hilft Organisationen bei der Leistungsbewertung. Wir haben eine neuartige Methode entwickelt, um die HIE-Nutzung von Fachleuten aus den Protokolldateien einer operativen HIE-fördernden Organisation zu beschreiben. Das System verwendete eine webseitenartige Schnittstelle. Die Bildschirmnummer, -typen und -variation dienten dazu, alle Sitzungen in fünf Kategorien der HIE-Nutzung zu gruppieren:;-;-;-;https://link.springer.com/article/10.1007/s10916-011-9810-2 da92c885a2a6ab4d5028804d5ed5e9b8;de;;;7.2.;;;Ein MPEG-7-Schema für die semantische Inhaltsmodellierung und Filterung von digitalem Video Teil 5 des MPEG-7-Standards spezifiziert Multimedia Description Schemes (MDS), d. h. das Format, dem Multimedia-Inhaltsmodelle entsprechen sollten, um die Interoperabilität über mehrere Plattformen und Anwendungen hinweg sicherzustellen. Der Standard legt jedoch nicht fest, wie der Inhalt oder das zugehörige Modell gefiltert werden kann. Dieses Papier schlägt ein MPEG-7-Schema vor, das für die Modellierung und Filterung von digitalen Videoinhalten eingesetzt werden kann. Das vorgeschlagene Schema, COSMOS-7, erzeugt reichhaltige und facettenreiche semantische Inhaltsmodelle und unterstützt einen inhaltsbasierten Filteransatz, der nur Inhalte analysiert, die sich direkt auf die bevorzugten Inhaltsanforderungen des Benutzers beziehen. Wir präsentieren Details des Schemas, Frontend-Systeme, die für die Inhaltsmodellierung und -filterung verwendet werden, und Erfahrungen mit einer Reihe von Benutzern.;-;-;-;https://link.springer.com/article/10.1007/s00530-006-0012-6 021b7be224fd7f3fbd757b7faabd5de0;de;;;7.1.;;;IKT-Infrastruktur des Katastrophenmanagements in Indien Mit dem Aufkommen der Informations- und Kommunikationstechnologien (IKT) gibt es einen bemerkenswerten Wandel im Katastrophenmanagement. IKT finden eine Vielzahl von Anwendungen im Katastrophenmanagement, d. h. Internet, geografische Informationssysteme, Fernerkundung und satellitengestützte Kommunikationssysteme helfen exponentiell in jeder Phase des Katastrophenmanagements. Die Rolle der IKT hat mit dem Paradigmenwechsel im Katastrophenmanagement von der Katastrophenhilfe, -reaktion und -wiederherstellung zu einem ganzheitlichen Katastrophenmanagement, das Vorbeugung, Eindämmung, Vorsorge, Reaktion, Hilfe, Wiederherstellung und Wiederaufbau umfasst, erheblich zugenommen. Fortschritte in den Bereichen IT und E-Governance werden auf andere Bereiche einschließlich des Katastrophenmanagements übertragen. Dies wird durch die Vielzahl von IKT-Anwendungen belegt, die von verschiedenen Behörden im Zusammenhang mit dem Katastrophenmanagement in Indien entwickelt wurden. Die Möglichkeiten der IKT müssen jedoch noch genutzt werden. Das Hauptargument des Kapitels ist, dass die Bemühungen der Regierungen auf Bundes- und Landesebene, die IKT-Potenziale für das Katastrophenmanagement zu nutzen, unzureichend und einseitig sind. Das Kapitel argumentiert auch, dass die Anwendung von IKT im Katastrophenmanagement an bestimmte Voraussetzungen und Herausforderungen gebunden ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4291-6_13 a3eb9bb97e59bfd29778d72fc6865321;de;;;7.1.;;;Offene Kriminalitäts-Aggregation und -Management für die Gestaltung sicherer Räume in urbanen Umgebungen Dieses Papier beschreibt die wichtigsten Forschungs- und Entwicklungsaktivitäten, die seit dem Start des DESURBS-Projekts (www.desurbs.eu) im Jahr 2011 bisher erreicht wurden. Das Projekt konzentriert sich auf die Entwicklung eines Decision-Support System Portals (DSSP), das Informations-, Daten- und Softwaremodule, die städtische Vermögenswerte, Gefahren und Verarbeitungsmodelle darstellen, die Risiken und potenzielle Gefährdungen der Sicherheit simulieren. Die Nutzung des DSSP wird die Gestaltung sichererer und widerstandsfähigerer urbaner Räume unterstützen. Insbesondere bietet es sicherheitsbezogene Szenarien mit Kontextinformationen, um verschiedene Benutzertypen zu unterstützen, die sich auf städtische Raumplanung und -planung spezialisiert haben. Das DSSP ist ein webfähiges System, das auch an die Nutzung mobiler Geräte angepasst ist. Es wird mit geografischen Karten und visualisierten aggregierten Daten aus einer Reihe heterogener Quellen unterstützt. Auch ein responsives Webdesign, das sich der Auflösung von smarten Mobilgeräten anpasst, wurde realisiert. Das heißt, Mobiltelefone mit geringer Leistung können immer noch kartenorientierte Daten reaktionsschnell bereitstellen, während sie mehrere Plattformen verwenden (aktuell Android und iOS). Der erste DSSP-Prototyp verwendet den Kriminalstatistik-Feed des Vereinigten Königreichs aus dem Jahr 2012 und analysiert Kriminalitätstrends in 13 englischen Städten (einschließlich Greater London), die auf vier Großregionen verteilt sind. Die DSSP zeigt Kriminalitätsrohdaten über einen Marker auf einer Karte an, während sie unter bestimmten Kriminalitätstypen aggregiert und als „Heatmaps“ visualisiert werden. Die spezifischen Visualisierungen sind auf die verschiedenen Verwaltungsregionen wie Quartiere, Einzugsgebiete und Postleitzahlen ausgerichtet. Es ermöglicht Benutzern auch, historische Kriminalitätstrends für eine Region im Zeitverlauf zu untersuchen, in der Kriminalitätsstatistiken gegenübergestellt werden. Die Skalierbarkeit des DSSP wurde auch unter immer größeren Datensätzen und Benutzerzahlen getestet, mit getesteter Belastung des Kartenservers und der Hauptbenutzeranwendung von Django. In naher Zukunft soll auch der Geschwindigkeitsunterschied zwischen der mobilen und der Desktop-Oberfläche für ein definiertes Aufgabenspektrum mit der Anwendung durchgeführt und dargestellt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41151-9_30 f7a173706dd811a3297c1b992e8cfb47;de;;;7.1.;;;Mögliche wissenschaftlich-technische Lösungen für das Problem der Frühwarnung In diesem Kapitel wird die komplexe Problematik eines Frühwarnsystems für Cyberangriffe auf russische Staats- und Unternehmensinformationsressourcen untersucht. Es wird ein Ansatz vorgeschlagen, um die erforderlichen Warnsysteme basierend auf dem „Computing Cognitivism“ zu erstellen, einem relativ neuen wissenschaftlichen Forschungsgebiet, bei dem Kognition und kognitive Prozesse eine Art symbolische Berechnung sind. Es wird gezeigt, dass der kognitive Ansatz es ermöglicht, Systeme zu schaffen, die sich von den traditionellen Systemen zur Erkennung, Prävention und Wiederherstellung von Cyber-Angriffen grundlegend unterscheiden (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-79036-7_4 d9a87c62add4355ed44c446f5a8033cf;de;;;7.1.;;;Medizinische personenbezogene Daten in sicheren Informationssystemen Zwischen sicheren Informationssystemen (IS) liegen auch medizinische IS, die die Arbeit verschiedener medizinischer Einrichtungen sowie Apotheken und Versicherungen unterstützen. Sie alle müssen mit medizinischen personenbezogenen Daten arbeiten, die die Privatsphäre berücksichtigen sollten. Der Datenschutz ist das Recht des Einzelnen, zu bestimmen, ob, wann und wie Daten über ihn erhoben, gespeichert, verwendet und an andere weitergegeben werden. Nach dieser Definition werden medizinische Personendaten als sensible Daten behandelt, die nur unter bestimmten Voraussetzungen erhoben und verarbeitet werden können. In diesem Beitrag konzentrieren wir uns auf personenbezogene medizinische Daten, die in Krankenakten gespeichert sind. Es gibt nämlich zahlreiche Nachrichtenflüsse zwischen medizinischem Personal und Krankenakten, die oft völlig ungeschützt sind und leichter als erwartet zugänglich sind. Wir werden die Richtlinien für medizinisches Personal zum Schutz personenbezogener Daten, die entsprechende slowenische Gesetzgebung und die Empfehlungen einer bestimmten Institution studieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01112-2_35 928f94cb23728911b85d007222abb29a;de;;;7.1.;;;Techniken und Methoden für die Entwicklung von Multimediasystemen: Ein Überblick über die industrielle Praxis Dieser Beitrag versucht die Frage zu beantworten, wie werden Multimediasysteme in der Praxis entwickelt? Hier werden die Ergebnisse einer vorläufigen postalischen Umfrage unter den Top-1000-Unternehmen der allgemeinen Industrie und den wichtigsten 100 Unternehmen der Multimedia-Industrie in Irland berichtet, die zeigen, dass es keinen einheitlichen Ansatz für die Entwicklung von Multimediasystemen gibt und dass die von der Literatur vorgeschriebenen Ansätze in der Praxis nicht verwendet wird. Nichtsdestotrotz zeigen die Ergebnisse deutlich, dass Praktiker dem Einsatz systematischer Methoden und Techniken für die Multimediaentwicklung positiv gegenüberstehen. Diese Umfrage ebnet den Weg für eine detailliertere und aufschlussreichere qualitative Forschung zu Entwicklungspraktiken.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35489-7_6 b78f5bcb686b1486c0c7aebec4d9534b;de;;;7.1.;;;Sichere Koordination von Aktivitätsressourcen: Empirische Beweise für ein verbessertes Sicherheitsbewusstsein bei der Gestaltung sicherer Geschäftsprozesse Systementwicklungsmethoden beziehen Sicherheitsanforderungen nachträglich in die nicht-funktionalen Anforderungen von Systemen ein. Das Fehlen einer angemessenen Zugriffskontrolle für den Informationsaustausch zwischen Geschäftsaktivitäten kann Unternehmen anfällig für Bedrohungen der Informationssicherheit machen. Die Kluft zwischen Systementwicklung und Systemsicherheit führt zu Softwareentwicklungsbemühungen, die kein Verständnis für Sicherheitsrisiken haben. Wir gehen der Forschungsfrage nach:;-;-;-;https://link.springer.com/article/10.1057/ejis.2008.42 d3c7d4a352cf048d8cf03230cf98b2d7;de;;;7.1.;;;Komplexe IT-Umgebungen: Ermittlung der Informationsintegrität In diesem Papier betrachten wir die Auswirkungen des Wechsels von der Mainframe-Architektur zum 2-Tier-Client-Server zum N-Tier-Client-Server auf Kontrollmaßnahmen. Wir werden sehen, dass die herkömmlichen Maßnahmen in einer mehr oder weniger flachen Mainframe-Umgebung in einer großen (und komplexen) N-Tier-Client-Server-Umgebung nicht mehr ausreichen. Wir schlagen Middleware-Lösungen vor, die dazu führen, dass die Vollständigkeitskontrollen von den Benutzern weg und in die IT-Umgebung verlagert werden. Um den Benutzern die Kontrolle über die Informationsintegrität zu ermöglichen, schlagen wir vor, das Hauptbuch als zentrale Anlaufstelle für den System- und Prozessabgleich zu verwenden. Daraus ergibt sich in einer solchen Organisation eine neue Funktion: der Prozesscontroller. Er ist Eigentümer der allermeisten Systemschnittstellen und für die Zuverlässigkeit der Schnittstellen verantwortlich.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35501-6_10 bc20c52587c1c83027aa1662d5e0f7f8;de;;;7.1.;;;Governance von Arbeitsschutz- und Umweltrisiken Bereits vor 150 Jahren wurden in den Industrieländern Aktivitäten im Bereich Arbeitssicherheit und Gesundheitsschutz (OSH) gestartet. Getrennte und spezifische Maßnahmen richteten sich auf die Unfallverhütung sowie die Diagnose, Behandlung und Vorbeugung von Berufskrankheiten. Mit der fortschreitenden Industrialisierung hat die Komplexität der Sicherheits- und Gesundheitsprobleme und -herausforderungen erheblich zugenommen, was umfassendere Ansätze erfordert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-8289-4_4 18ee3601f662e408404d5dc2f31f4145;de;;;7.1.;;;Systempraxis in der Beratung Das Papier behandelt den Bereich des Systemdenkens und der Praxis in der Unternehmensberatung hauptsächlich im Tata Consultancy Service in Indien. Als größte Beratungsorganisation des Landes hat sie den Bedarf und die Möglichkeit, sich mit sehr großen und von Natur aus komplexen Gesellschaftssystemen zu befassen. Es muss neue ganzheitliche Ansätze entwickeln, um die Aufgaben zu erfüllen. Um dieser Anforderung gerecht zu werden, wurde 1982 das Systems Engineering and Cybernetic Center (SECC) gegründet. Das Papier beschrieb die Entstehung und den Tätigkeitsbereich des SECC im Laufe der Jahre und hob die Formulierung eines interaktiven Beratungsparadigmas und einen Multimodellierungsansatz zur Lösung komplexer Probleme hervor. Deren philosophische Grundlagen werden zusammen mit der Systempraxis in einigen typischen komplexen Aufgabenstellungen diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF02169363 8959b670f6a977b8786aef73e19d25ea;de;;;7.1.;;;Organisationsmuster für eine frühzeitige Anforderungsanalyse Die frühe Anforderungsanalyse befasst sich mit der Modellierung und dem Verständnis des organisatorischen Kontexts, in dem ein Softwaresystem schließlich funktionieren wird. Dieses Papier schlägt Organisationsmuster vor, die durch Organisationstheorien motiviert sind, um die Konstruktion von Organisationsmodellen zu erleichtern. Diese Muster werden aus realen organisatorischen Einstellungen definiert, modelliert in;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45017-3_41 dd7ade9643f5ae13e6be477dad1de00c;de;;;7.1.;;;Die NIAM-Methode der Informationsanalyse Dieses erste Kapitel beginnt mit einer Definition dessen, was wir in diesem Buch unter „Informationsanalyse“ verstehen, was bei der Informationsanalyse zu tun ist und was die Ergebnisse ihrer Anwendung sein sollten. Dieses Kapitel dient als Rahmen und Bezugspunkt für die kommenden Kapitel.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-0451-4_1 b57071a8aeaebb436461544c82a93347;de;;;7.1.;;;Kollaborative Serious Games zur Sensibilisierung für gemeinsame Ressourcen im Supply Chain Management Die Herstellung ist heute ein komplexer Prozess, der oft zu langen, spröden Lieferketten führt, mit erheblichen Beiträgen zum globalen Ressourcenbedarf und mit negativen Auswirkungen auf die Umwelt (CO;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44736-9_60 0a525b860befbd6df8401f9dbd727b10;de;;;7.1.;;;Wie können B2B E-Marketplaces (EM) die Qualität der Lieferkette verbessern? Supply Chain Management (SCM) ist eine Quelle von Wettbewerbsvorteilen in Unternehmen, insbesondere für Unternehmen, deren Supply Chain (SC) den Kern ihres Geschäfts darstellt oder eng mit ihrem Kerngeschäft verbunden ist. Traditionell verwenden Unternehmen Re-Engineering-Praktiken und organisatorische Verbesserungsprogramme, um ihren Wettbewerbsvorteil durch die Optimierung ihres Lieferkettenmanagements zu erhöhen. Mit dem Fortschritt der Technologien begannen Organisationen, Prozesse zu fertigen und fortschrittlichere Kommunikationstechnologien und technologische Werkzeuge – wie E-Marketplaces (EM) und RFID-Tags – einzusetzen, um die Qualität ihrer SC zu erhöhen. Das Ziel dieses Papiers ist es, das Qualitätskonzept in SC und die Anwendung von B2B-EMs zur Verbesserung der Qualität ihrer Lieferkette zu beleuchten. Darüber hinaus werden in dieser Studie der Adoptionsprozess und kritische Faktoren untersucht, die den Erfolg der EM-Adoption in SC beeinflussen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-76312-5_8 409b5cfe8470dd92a22d6e097ac37c70;de;;;7.1.;;;Gesellschaftliche Verantwortung von Wirtschaft und Informationssystemen In diesem Kapitel stellen wir die Entwicklung der (CSR) Corporate Social Responsibility als Entwicklungsfaktor der IS-Nutzung vor. Zunächst untersuchen wir im Detail, wie Unternehmen versuchen können, die (positiven oder negativen) Externalitäten im Zusammenhang mit IKT in ihrem Lebenszyklus zu optimieren. Dann bestehen wir darauf, dass Unternehmen zunehmend zum Handeln gezwungen erscheinen, um zu kommunizieren. Abschließend diskutieren wir die Potenziale von IKT und SID im Hinblick auf den Erhalt der Umwelt und den sozialen Fortschritt. Die IS werden dann in einem entschlossen proaktiven Ansatz für CSR eingesetzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19423-8_12 e06d5ee033bf3b1c8825a2c3a2e433fa;de;;;7.2.;;;Bewertungskriterien für die Präferenzen von Musikvideo-Zuschauern und ihre Eigenschaften Diese Studie untersuchte die Merkmale von Musikvideo-Zuschauern und ihre Präferenzbewertungskriterien. Wir führten ausführliche Interviews nach der Bewertungsrastermethode mit zehn Teilnehmern. Alle Teilnehmer sehen sich häufig Musikvideos an. Unsere Teilnehmer können in folgende zwei Typen unterteilt werden: (1);-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74873-1_61 078df0c27414866eb84645f1fe57c72d;de;;;7.2.;;;Unvollkommene Informationen in relationalen Datenbanken Datenbanken modellieren die reale Welt auf zwei Ebenen: Das Datenbankschema spezifiziert die Struktur der Datenbank und die Datenbankerweiterung repräsentiert eine Reihe von Fakten oder Ereignissen der realen Welt. Das;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-6245-0_3 2af6490b8b40e8f999aa1ef9b37375b8;de;;;7.1.;;;Ein Workshop über die Zukunft der Unternehmensinformationssysteme Enterprise Information Systems (EIS) können in drei Generationen eingeteilt werden, beginnend mit dem anwendungszentrierten, über das datenzentrierte und dann zum zeitgenössischen Denken, das als prozesszentriert bezeichnet werden kann. Das übergeordnete Thema der CONFENIS 2011 war die Neukonzeption von EIS. Eine Möglichkeit der Neukonzeptionierung besteht darin, mit einem leeren Blatt zu beginnen und „out of the box“ zu denken. Dieses Thema wurde in einem Workshop auf der CONFENIS 2011 behandelt, der sich mit der Zukunft von EIS beschäftigte. Der Workshop bestand aus einer großen Anzahl von Experten aus der ganzen Welt, aufgeteilt in sieben Gruppen, die das Thema mit LEGO SERIOUS PLAY diskutierten, um die Diskussionen zu erleichtern und anzuregen. Die siebenköpfige Gruppe stellte sieben Herausforderungen für die Zukunft von EIS und wir schlagen vor, dass die nächste Generation von EIS als menschenzentriert konzipiert werden sollte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28827-2_3 9bfa83fc63909d7a687ba78d44738f06;de;;;7.1.;;;Gruppen sind nicht immer gleich Die Idee, Gruppentreffen zur gleichen Zeit und am gleichen Ort per Computer zu unterstützen, wirft das Problem auf, wie hervorstechende Merkmale des Gruppenverhaltens in Meetings verstanden werden. In diesem Beitrag werfen wir einen kritischen Blick auf verschiedene Überzeugungen zum Gruppenverhalten in der Forschung zu elektronischen Besprechungssystemen (EMS). Das Papier argumentiert auf der Grundlage einer empirischen Studie, dass das Konzept eines kleinen, kohärenten Unternehmensteams, das in der gesamten EMS-Forschung so weit verbreitet ist, nicht unbedingt ein gültiger Ausgangspunkt für die Vorstellung von Meeting-Unterstützung ist. Insbesondere bewertet das Papier kritisch eine Reihe von Überzeugungen zu Benutzeraspekten, Gruppenmerkmalen wie Zusammensetzung, Struktur und Protokollen sowie Aufgabenmerkmalen wie Art, Wichtigkeit und Zielerreichung. Wenn diese herausragenden Merkmale deutlich variieren können, kann die gesamte Tagungsunterstützung daher nicht so gestaltet werden, wie es in der aktuellen Forschung vorgesehen ist. Abschließend skizzieren wir einige Forschungsfragen – sowohl empirischer als auch konstruktiver Natur –, die angegangen werden müssen, wenn die EMS-Forschung Probleme der Computerunterstützung in Gruppen angehen möchte, die nicht mit Geschäftsteams vergleichbar sind.;-;-;-;https://link.springer.com/article/10.1007/BF00805694 6342dbe5f2fafc0c5c73b7f216b3ef36;de;;;7.1.;;;Darstellung der Entscheidungspraxis im Requirements Engineering: ein Fall von massgeschneiderter Entwicklung Komplexe Entscheidungsfindung ist ein prominenter Aspekt des Requirements Engineering (RE) und der Bedarf an verbesserter Entscheidungsunterstützung für RE-Entscheider wurde von einer Reihe von Autoren in der Forschungsliteratur identifiziert. Ein erster Schritt zu einer besseren Entscheidungsunterstützung im Requirements Engineering besteht darin, die vielschichtigen Entscheidungssituationen von Entscheidungsträgern zu verstehen. In diesem Beitrag liegt der Fokus auf der Entscheidungsfindung im Bereich RE in der großmaßstäblichen kundenspezifischen Entwicklung. Die Entscheidungssituation von EE-Entscheidern auf Teilsystemebene wurde bei einem Anlagenbauer untersucht und in diesem Beitrag dargestellt. Diese Situationen werden beispielsweise in Bezug auf RE-Entscheidungsfragen, RE-Entscheidungsaktivitäten und RE-Entscheidungsprozesse beschrieben. Auch Faktoren, die die Entscheidungsträger im Bereich RE beeinflussen, werden identifiziert.;-;-;-;https://link.springer.com/article/10.1007/s00766-008-0068-2 c1ef33468694d284b0eb277e3cdd2f2e;de;;;7.1.;;;Analyse der Best-Practice-Politik und des Benchmarking-Verhaltens für das staatliche Wissensmanagement Die koreanische Regierung verfügt über mehrere Best-Practice-Wettbewerbs- und Verbreitungsprogramme zum Zweck der Reform der öffentlichen Verwaltung und der Verbesserung der staatlichen Dienstleistungen. Aus der Perspektive des Wissensmanagements bewertet dieses Papier die Best-Practice-Politik und analysiert die Hauptfaktoren, die die Anerkennung, Übernahme und Nutzung von Best Practices durch die E-Mail-basierte Umfrage und das Interview mit Kommunalverwaltungsbeamten beeinflussen. Das Ergebnis zeigt, dass 1) die Anerkennung der Best-Practice-Programme und der Best Practices selbst durch die Regierungsbeamten nicht hoch ist, 2) die Annahme und Nutzung einer Best Practice von ihrem Wert und dem Informationsbedarf der Beamten beeinflusst wird, 3) die Anerkennung von Die Best-Practice-Politik wirkt sich auf die Anerkennung und Übernahme einer besten Praxis aus, und 4) Die Anerkennung und Nutzung einer bewährten Praxis wird durch die Berufserfahrung beeinflusst. Das Ergebnis liefert wichtige Implikationen für die Gestaltung und Umsetzung von staatlichen Wissensmanagementsystemen und -strategien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24683-1_8 b4485f890a931f9fe93b0dfcd1e02596;de;;;7.1.;;;Gesicherter und effizienter Informationsaustausch in kollaborativen Netzwerken: Das singuläre Informationssystem Der Informationsaustausch ist Gegenstand intensiver Forschung aus ganz getrennten Communities, die sich beispielsweise mit vernetzten Objekten, der Interoperabilität industrieller Informationssysteme, personenbezogenen Informationssystemen oder der Datensicherheit beschäftigen. Ein einheitlicher Rahmen, der die Bedingungen der Wechselbeziehungen elementarer Informationssysteme definiert, könnte es ermöglichen, diese Probleme mit einer ganzheitlichen Sichtweise anzugehen. Zu diesem Zweck schlagen wir das Konzept des singulären Informationssystems (SIS) vor und geben die Grundprinzipien an, die die Verbindung von zwei SIS ermöglichen. Wir zeigen dann, wie der Informationsaustausch zwischen Objekten, Personen und Organisationen von einem solchen einheitlichen Paradigma profitieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24141-8_42 e9b3e53b114f9f29faddebd1ceb0f9a9;de;;;7.2.;;;Automatisierte Bewertung von Retinopathien mittels Bildzytometrie Retinopathische Veränderungen treten bei vielen Augenerkrankungen auf, und wenn sie frühzeitig erkannt werden, können viele der durch verschiedene Verletzungen verursachten Veränderungen verhindert oder in einigen Fällen rückgängig gemacht werden. Der Nachweis und die Quantifizierung dieser Veränderungen erfordert jedoch derzeit eine mühsame invasive und manuelle Untersuchung von Bildern der Netzhaut-Vollmontage. Um die quantitativen Beschränkungen zu beseitigen, haben wir ein Softwaresystem entwickelt, das die Anzahl der Gefäßzellen und die Abdeckung der Netzhaut in Wholemount-Trypsin-Verdauungsbildern automatisch bestimmt. Um die Nützlichkeit des Systems zu verifizieren, wurden retinale Trypsinverdauungen von Wildtyp- (bcl-2 +/+) und bcl-2-defizienten (bcl-2 –/–) Mäusen verglichen. Bcl-2 ist ein kritischer Regulator der Apoptose mit einer signifikanten Rolle bei der retinalen Angiogenese und Vaskularisierung. Die bcl-2 –/– -Mäuse zeigten eine signifikante Verringerung der retinalen Gefäßdichte und -komplexität. Somit zeigen unsere Ergebnisse das Potenzial für eine automatisierte Bewertung von retinalen Trypsinverdauen, die die Unterschiede zwischen dem Wildtyp- und bcl-2-defizienten retinalen Gefäßsystem darstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28255-3_64 f9357a585e866bd6e85d21c5e5757255;de;;;7.2.;;;Unüberwachte quadratische Diskriminanzeinbettungen mit Gaußschen Mischungsmodellen In dieser Arbeit beschäftigen wir uns mit dem Problem, niedrigdimensionale Darstellungsräume für geclusterte hochdimensionale Daten zu finden. Der hier vorgeschlagene neue Einbettungsraum namens;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19032-2_8 91bcc1c34e8e7c53c5053c7a8dd091b1;de;;;7.2.;;;Das SQO-OSS-Qualitätsmodell: Messbasierte Open-Source-Softwarebewertung Die Bewertung der Softwarequalität war schon immer ein wichtiger Bestandteil des Softwaregeschäfts. Der Qualitätsbewertungsprozess basiert in der Regel auf hierarchischen Qualitätsmodellen, die verschiedene Aspekte der Softwarequalität messen und eine Charakterisierung der bewerteten Produktqualität ableiten. Aufgrund der besonderen Natur von Open-Source-Software sind bestehende Modelle für detaillierte Qualitätsbewertungen ungeeignet. In diesem Papier stellen wir ein hierarchisches Qualitätsmodell vor, das Quellcode- und Community-Prozesse bewertet, basierend auf der automatischen Berechnung von Metrikwerten und deren Korrelation mit einem Satz vordefinierter Qualitätsprofile.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09684-1_19 014a04162f7f01faf87d74caa4cdf10e;de;;;7.2.;;;Ein regelbasiertes Transformationssystem zur Konvertierung halbstrukturierter medizinischer Dokumente Die elektronische Gesundheitsakte (EHR) ermöglichte die kosteneffiziente Handhabung und Verarbeitung von Gesundheitsinformationen. Durch die Speicherung medizinischer Dokumente in digitalisierter Form stellt die EHR die schnelle und zuverlässige Verfügbarkeit von Gesundheitsinformationen sicher. Da jedoch nicht alle Gesundheitsdienstleister das gleiche EHR-Format und die gleichen Gesundheitsdokumentstrukturen verwenden, wird die Effizienz des Datenaustauschprozesses stark reduziert. In diesem Beitrag stellen wir ein regelbasiertes Transformationssystem vor, das halbstrukturierten (annotierten) Text in standardisierte Formate wie HL7 CDA umwandelt. Unser Ansatz identifiziert relevante Informationen im Eingabedokument, indem es seine Struktur sowie seinen Inhalt analysiert und die erforderlichen Elemente in entsprechende wiederverwendbare CDA-Vorlagen einfügt, wobei die Vorlagen gemäß den typspezifischen Anforderungen des CDA-Dokuments ausgewählt werden. Die Forschungsergebnisse ermöglichen die effiziente Transformation verschiedener EPA-Strukturen in ein standardisiertes Format und tragen so dazu bei, die Effizienz des Datenaustauschs zwischen den Leistungserbringern zu erhöhen.;-;-;-;https://link.springer.com/article/10.1007/s12553-013-0040-0 82f602e206131f1f0ecddcf085920427;de;;;7.2.;;;Segmentieren und Beschriften von Abfragesequenzen in einer Umgebung mit mehreren Datenbanken Beim Sammeln von Informationen aus mehreren unabhängigen Datenquellen stellen Benutzer in der Regel eine Reihe von Abfragen an jede Quelle, kombinieren (union) oder querverweisen (join) die Ergebnisse, um die benötigten Informationen zu erhalten. Darüber hinaus gibt es beim Sammeln von Informationen einiges an Versuch und Irrtum, bei dem Abfragen entsprechend den Ergebnissen einer vorherigen Abfrage in der Sequenz rekursiv verfeinert werden. Aus der Sicht eines Außenstehenden mag das Ziel einer solchen Abfolge von Abfragen nicht ohne weiteres ersichtlich sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25109-2_24 68b5c7087bd27d1685b0cda5a3eb70c4;de;;;7.1.;;;Verteilte Benutzererfahrung in überzeugenden Technologieumgebungen Immer mehr überzeugende Technologiesysteme bestehen aus mehreren Geräten, die eine effiziente Just-in-Time-Interaktion mit dem Benutzer ermöglichen. Die Entwicklung von Multi-Device-Systemen zur Unterstützung einer menschlichen Aktivität bringt neue Herausforderungen für Interaktion und User Experience Design mit sich. Die in diesem Papier identifizierte Hauptherausforderung ist die erfolgreiche Gestaltung einer kohärenten Benutzererfahrung, die die Benutzerakzeptanz verbessern und sich positiv auf die Überzeugungskraft des Systems insgesamt auswirken kann. Dieses Papier analysiert eine Umgebung zur Überwachung der Herzfrequenz mit mehreren Geräten, um das Ziel unserer Forschung zu veranschaulichen. Wir schlagen den Begriff vor;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77006-0_10 1e4301e391824ae6abf62381f434a6c4;de;;;7.1.;;;Soziales Lernen als Basis für kooperative kleinwaldige Bewirtschaftung Dieses Papier analysiert die Governance-Eigenschaften eines innovativen Politikinstruments für nachhaltige Waldbewirtschaftung in Flandern, nämlich eines Mechanismus, der auf sozialem Lernen und kollaborativer Planung innerhalb gemeinsamer Waldbewirtschaftungsorganisationen basiert. Diese Organisationen haben erfolgreich nichtindustrielle private Waldbesitzer in die Bewältigung des Übergangs zu einer nachhaltigen Bewirtschaftung in der kleinbäuerlichen Forstwirtschaft einbezogen. Warum war dieses innovative Programm erfolgreich? Und was sind seine Mängel und möglichen Einschränkungen? Die in diesem Beitrag entwickelte Hypothese ist, dass der Erfolg der Waldgruppen durch die explizite Organisation eines sozialen Lernprozesses ermöglicht wurde, der zu einer Veränderung der Überzeugungen und der sozialen Normen der Waldbesitzer und -nutzer führt. Basierend auf der Analyse dieses Falles der genossenschaftlichen Forstwirtschaft und theoretischen Erkenntnissen aus der Governance-Theorie wird der Beitrag zur Förderung des sozialen Lernens von drei unterschiedlichen Mechanismen festgestellt, nämlich (1) der Rückgriff auf Nachhaltigkeitskriterien und -indikatoren als ergebnisoffenes Lernen (2) das Experimentieren mit disruptiven Handlungsstrategien, um neue Überzeugungen in die Praxis umzusetzen, und (3) den Aufbau neuer Formen der sozialen Zusammenarbeit um diese neuen Überzeugungen und Praktiken herum.;-;-;-;https://link.springer.com/article/10.1007/s11842-009-9075-5 eb5e464415310cc1a146d8fe02f69ccb;de;;;7.1.;;;Ein systemdynamisches Modell der Prävention durch Design zur Eliminierung menschlicher Fehler Theoretisch ist Prävention durch Design (PtD) der effektivste Ansatz, um menschliche Fehler im Baubereich zu vermeiden. Allerdings fehlt es an einer rigorosen empirischen Analyse zum Schwerpunkt der PtD. Daher zielt diese Forschung darauf ab, ein Systemdynamikmodell zu entwickeln, das einen Mechanismus zur Identifizierung des Schwerpunkts von PtD und relevanter Designfaktoren in Bezug auf menschliches Versagen abbildet. Als Rahmen des Modells dient die Aufzugsinstallation, und es werden drei Untermodelle „Erkennungsverhalten“, „Umwelt-Erkennung“ und „Design-Umwelt“ entwickelt. Ihre quantitativen Zusammenhänge werden vor der Entwicklung des Systemdynamikmodells anhand empirischer Daten analysiert. Anschließend wird die Sicherheitsleistung basierend auf einem achtstündigen Arbeitstag simuliert und Sensitivitätsanalysen durchgeführt, um die Auswirkungen jedes Konstruktionsfaktors auf menschliches Versagen zu bestimmen. Diese Studie bietet Einblicke in PtD unter Verwendung verschiedener Designfaktoren, die verallgemeinert und verwendet werden können, um sicherere Designs in komplexen Arbeitsumgebungen zu entwickeln.;-;-;-;https://link.springer.com/article/10.1007/s12205-019-0845-0 b719f24ab95b5e0e2116b63e23ebd491;de;;;7.1.;;;Service-Design und Koevolution eines aufstrebenden KMU-Wellness-Ökosystems Dieses Papier stellt die Bildung eines finnischen KMU-Wellness-Ökosystems in seinen ersten Phasen vor. Die Aktivitäten umfassen die Festlegung einer gemeinsamen Vision des Ökosystems, seines Zielzustands und seiner Herausforderungen sowie der gemeinsamen Service-Design-Möglichkeiten. Das Ökosystem besteht aus mittelständischen Unternehmen, die ihr Angebot auf Technologie- und Serviceebene integrieren möchten. Die Forscher unterstützen und beobachten die Entstehung des Ökosystems mit Workshops und Interviews, um die Ökosystem-Koevolution und die Möglichkeiten des Service-Designs zu analysieren. Dieses Papier konzentriert sich auf die frühen Aktivitäten der Koevolution und des Servicedesigns innerhalb des Ökosystems, der Lösungspaketierung aus der Sicht des Ökosystems, bevor die Serviceangebote mit den Kunden getestet werden. Diese Maßnahmen sind eng mit anderen Herausforderungen bei der Gestaltung des KMU-Wellness-Service-Ökosystems verbunden, diese Herausforderungen werden ebenfalls untersucht und in diesem Papier vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09546-2_1 ca4cd236486de3b7678d8d6879830fe1;de;;;7.1.;;;Einsatz von ERP-Systemen in der Automobilindustrie, Sicherheitsinspektion (Fallstudie: IRAN KHODRO Automotive Company) Die Automobilindustrie und der Automobilproduktionsprozess ist einer der komplexesten und umfangreichsten Produktionsprozesse. Informationstechnologie (IT) und ERP-Systeme umfassen heute einen Großteil der Produktionsprozesse. Ohne integrierte Systeme wie ERP werden die Produktions- und Lieferkettenprozesse durcheinander geraten. Die ERP-Systeme, die neueste Generation von MRP-Systemen, erleichtern die Produktions- und Verkaufsprozesse dieser Branchen und dies ist sowieso der wesentliche Entwicklungsfaktor dieser Branchen. Heutzutage entwickeln und implementieren viele große Unternehmen die ERP-Systeme. Die ERP-Systeme erleichtern viele Organisationsprozesse und machen die Organisation effizienzsteigernd. Die Sicherheit ist ein sehr wichtiger Teil der ERP-Strategie in der Organisation, Sicherheit in den ERP-Systemen ist aufgrund der Integrität und des Umfangs wichtiger für lokale und ältere Systeme. Die Missachtung dieses Punktes kann über Erfolg oder Misserfolg solcher Systeme eine große Rolle spielen. Die IRANKHODRO ist die größte Automobilfabrik im Nahen Osten mit einer Jahresproduktion von über 600.000 Autos. In diesem Dokument werden die Erfahrungen mit der Bereitstellung von ERP-Sicherheit bei der Firma IRANKHODRO vorgestellt. Vor kurzem hat es mit der Einführung von ERP-Systemen einen großen Schritt in Richtung weiterer Entwicklungen gemacht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15717-2_18 b8f7be133be85947b9247e7e12c91f05;de;;;7.1.;;;Formale Gestaltung kooperativer Systeme Dieses Papier beginnt mit einer formalen Definition des Konzepts der Kooperation in verteilten Systemen. Das vorgeschlagene Modell basiert auf der Verwendung von Graphen und Logik, wobei Logik Widerspruch und Pragmatismus ausdrückt. Die dynamische Strukturierung solcher Systeme führt zum Konzept der Multi-Connection auf Kooperationsebene und zu einer mehrschichtigen formalen Top-Down-Entwurfsmethodik. Das Protokoll, das die Mehrfachverbindungsverwaltung oder den Mitgliedschaftsdienst bereitstellt, wird unter Verwendung des VAL-Tools und einer auf Petri-Netzen basierenden Spezifikation spezifiziert und verifiziert. Es wird gezeigt, wie das resultierende System als korrekt nachgewiesen werden kann. Die VAL-Beschreibung wird dann in eine Estelle-Beschreibung übersetzt, die auf einer verteilten Plattform implementiert wurde. Private mögliche Gesprächsuntergruppen (PCSs) innerhalb einer kooperativen Gruppe von Agenten wurden ebenfalls eingeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34892-6_22 1991ed6cd9c3aa2dfb7bdc28fccbff66;de;;;7.2.;;;Interaktives Unterstützungssystem für Kleidungsdesign Dieses Papier schlägt ein System zur Unterstützung des Kleiderdesigns vor. Interaktive genetische Algorithmen werden auf das Unterstützungssystem angewendet, um das Kansei-Design der Benutzer im Kleidungsdesign widerzuspiegeln. Das System präsentiert einem Benutzer mehrere entworfene Kleidungskandidaten und ein Benutzer bewertet sie. Nach Einschätzung des Benutzers gibt das System den Kleidungskandidaten genetische Algorithmen (GA) Operationen, Auswahl, Crossover und Mutationen. Durch Wiederholung der Verfahren, Präsentation, Bewertung und GA-Operationen erhält man zufriedenstellende Kleidung. Probandenexperimente werden durchgeführt, um die Nützlichkeit des vorgestellten Systems zu überprüfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69162-4_68 698e45e3c529ede10acd62ae8b96d6b7;de;;;7.2.;;;Nutzerintentionen in der digitalen Fotoproduktion: Ein Testdatensatz Das Fotografieren mit einer Digitalkamera oder einem Fotohandy ist ein Prozess, der durch eine bestimmte Motivation ausgelöst wird. Die Leute wollen zum Beispiel den Fortschritt einer Aufgabe dokumentieren, andere wollen einen Moment der Freude festhalten. In diesem Beitrag präsentieren wir einen öffentlich zugänglichen Datensatz mit 1.309 Fotos sowie Anmerkungen zu den Absichten der Fotografen. Dieser Datensatz ist das Ergebnis einer großen Umfrage auf Flickr und soll eine gemeinsame Grundlage für gemeinsame Recherchen zu Nutzerintentionen in der Fotoproduktion bilden. Die Umfragedaten wurden mit Amazon Mechanical Turk validiert. Neben der Besprechung des Erstellungsprozesses des Datensatzes präsentieren wir auch Informationen zur Struktur und geben Statistiken zum Datensatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-04114-8_15 e804c7793d82cd0d1d3d04a98e1778a3;de;;;7.2.;;;Extrahieren von Informationen aus Freitext-Radiologieberichten Wir beschreiben ein System zum Extrahieren und Strukturieren der in Freitext-Radiologieberichten enthaltenen Informationen. Das System verwendet natürliche Sprachverarbeitungstechniken, um Freitextbeschreibungen in strukturierte Informationseinheiten umzuwandeln, die verwendet werden können, um Bilddatenbanken zu indizieren und Zugang zu diesen bereitzustellen. Um den Zugriff auf die Ergebnisse des Systems zu ermöglichen, haben wir eine einzigartige Benutzeroberfläche für die Berichterstattung und den Zugriff auf radiologische Berichte entwickelt. Wir präsentieren eine allgemeine Systemarchitektur zur Informationsextraktion. Obwohl sich der Prototyp auf die Thoraxradiologie konzentriert, kann dieses System auf andere Bereiche der Medizin ausgeweitet werden. Wir besprechen die Wissensquellen und -strukturen des Systems und erklären, wie natürliche Sprachverarbeitungstechniken verwendet werden, um Informationen aus Berichten zu extrahieren. Die Ergebnisse der klinischen Erprobung des Prototyps werden präsentiert und bewertet.;-;-;-;https://link.springer.com/article/10.1007/s007990050024 2fdaf9f8e597b876f0d020f87c05b8e0;de;;;7.2.;;;Erfassen und Bereitstellen von Designentscheidungen Dieses Arbeitspapier beschreibt ein sich entwickelndes Entwurfsprinzip, das den Entwurfsprozess eines physischen Artefakts erfassen soll. Das Modell soll nützlich sein, um Design und Redesign zu unterstützen, um die Kommunikation zwischen Designern und Designteams zu verbessern und für verschiedene Aktivitäten im späteren Lebenszyklus wie die Erstellung und Pflege von Produktkonfigurationsmodellen für das Konfigurationsdesign oder die Analyse des entworfenen Artefakts während der Produktionstechnik . Darüber hinaus sollte das Modell nützlich sein, um die Vollständigkeit, Validität und Konsistenz des Designprozesses selbst für Aktivitäten zur Verbesserung des Designprozesses zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35187-2_1 e725ad85ee8be23b4015f97c6cf35372;de;;;7.2.;;;Menschliche Geschlechtsunterschiede in kognitiven Präferenzen gegenüber attraktiven Gesichtern in einem visuellen Oddball-Paradigma: Eine ERP-Studie In dieser Studie untersuchten wir mithilfe von Ereignisbezogenem Potenzial (ERP) als Reaktion auf Gesichter und Objektreize den zeitlichen Verlauf von kognitiven Verzerrungen und Geschlechtsunterschieden für die Gesichtsattraktivität während eines visuellen Oddball-Paradigmas. 10 Frauen und 10 Männer wurden mit dieser Aufgabe konfrontiert, bei der sie gebeten wurden, innerhalb einer Reihe häufiger Reize (neutrale Objekte) möglichst schnell auf seltene attraktive oder unattraktive Gesichter mit neutralem Ausdruck hinzuweisen. Verhaltensanalysen zeigten, dass Männer längere Reaktionszeiten zeigten als Frauen und abweichende attraktive Gesichter langsamer erkannt wurden als abweichende unattraktive Gesichter nur bei Männern. In Übereinstimmung mit den Verhaltensergebnissen zeigten die ERP-Ergebnisse, dass in Bezug auf Frauen die N2b-Spitzenlatenzen sowohl für attraktive als auch für unattraktive Gesichter bei Männern verlängert waren, was möglicherweise die frühe implizite Aufmerksamkeit auf markante Gesichter widerspiegelt. Danach riefen abweichende attraktive Gesichter bei beiden Geschlechtern im Vergleich zu abweichenden unattraktiven Gesichtern größere P3b-Amplituden hervor, was die kognitive Voreingenommenheit gegenüber der Gesichtsschönheit offenbarte. Wichtig ist, dass nur bei Männern die P3b-Spitzenlatenzen bei attraktiven Gesichtern länger waren als bei ihren unattraktiven Gegenstücken. Daher ist es wahrscheinlich, dass geschlechtsspezifische Unterschiede, die bei der Erkennung der Attraktivität des Gesichts gefunden werden, recht früh im Informationsverarbeitungsmechanismus beginnen könnten. Aus evolutionärer Sicht bestätigten die ERP- und Verhaltensbeweise zusammen eine vernünftige Annahme, dass, obwohl sowohl Männer als auch Frauen Verarbeitungspräferenzen für attraktive Gesichter zeigten, Männer im Vergleich zu Frauen charakteristischen evolutionsbezogenen Hinweisen, insbesondere attraktiven Informationen, mehr Wert beimessen könnten .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37835-5_10 9be8b4360f23ccd9ef0e99f4528aef6c;de;;;7.2.;;;A Research of Agricultural Informationalization Evaluation and Decision Support System Diese Forschung zielt darauf ab, eine umfassende Bewertungsmethode zu entwickeln, die die Etablierung eines Bewertungs- und Entscheidungsunterstützungssystems für die landwirtschaftliche Informationalisierung unterstützt. Die Forschung hat erhebliche Fortschritte bei der Realisierung der Bewertungsindexsystematik, der Indexdatenerfassung, der statistischen Auswertung, der Präsentation des Bewertungsergebnisses usw. gemacht. Sie bietet ein Instrument mit großer Wirksamkeit und praktischem Wert. Mit diesen Ergebnissen können sowohl horizontale als auch vertikale Vergleiche der Evaluierungsarbeit zur landwirtschaftlichen Informationalisierung durch verschiedene Provinzen leicht angestellt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27281-3_58 433774fca85c074e60505de49a227cf0;de;;;7.2.;;;Trendigkeit und Emotion, zwei Schlüsselfaktoren für die Vorhersage der ästhetischen Präferenz bei der Gestaltung von Fahrzeuginnenräumen bei chinesischen Verbrauchern Die Semantik spiegelt wider, was Menschen in der Produkterscheinung wahrnehmen. Frühere Studien zeigen, dass die Beschreibung des Produktauftritts durch den Benutzer in drei grundlegende semantische Dimensionen (Trend, Komplexität und Emotion) eingeteilt werden kann. Jede Dimension bildete eine lineare Beziehung zur Neuheit, die sich als einer der bestimmenden Faktoren für die ästhetische Präferenz erwiesen hat. Obwohl das Innendesign von Automobilen dem Produktdesign untergeordnet ist, ist es einzigartig, da das Innendesign komplizierter und zeitaufwändiger ist und der Wachstumszyklus von Innenarchitekten viel länger ist. In dieser Studie haben wir eine große Anzahl von Fahrzeuginnenraumfotos gesammelt und durch Sortieren und Clustern repräsentative Fotos aus jeder Fahrzeugkategorie (Limousine, SUV, Pick-up und Mini-Auto) extrahiert. Dann führten wir eine Studie zu chinesischen Verbrauchern durch, um die Beziehung zwischen drei semantischen Dimensionen und ästhetischen Präferenzen bei der Gestaltung von Innenformen zu untersuchen, und erstellten mit schrittweiser Regressionsanalyse einen mathematischen Ausdruck für sie. Das Ergebnis zeigt: Für die ästhetische Präferenz der chinesischen Verbraucher bei der Gestaltung von Fahrzeuginnenraumformen haben sowohl Trendigkeit als auch Emotion einen signifikanten Einfluss auf die ästhetische Präferenz, während der Einfluss der Komplexität äußerst gering ist. Um die Designeffizienz zu verbessern, sollten Designer daher Trend- und Emotionsfaktoren während der neuen ästhetischen Generation und der Designrevisionsphase berücksichtigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-92141-9_32 4e499caff83d6f88265f6b41f8b35f97;de;;;7.2.;;;Beyond Shot Retrieval: Suche nach Nachrichtensendungen mithilfe von Sprachmodellen von Konzepten Aktuelle Videosuchsysteme geben üblicherweise Videoaufnahmen als Ergebnisse zurück. Wir glauben, dass sich Benutzer besser mit längeren semantischen Videoeinheiten identifizieren können und schlagen einen Abrufrahmen für Nachrichtenartikel vor, die aus mehreren Einstellungen bestehen. Das Framework ist in zwei Teile gegliedert: (1) Ein konzeptbasiertes Sprachmodell, das Nachrichten mit bekannten Vorkommen semantischer Konzepte nach der Wahrscheinlichkeit einordnet, dass ein wichtiges Konzept aus der Konzeptverteilung der Nachricht erzeugt wird und (2) ein Wahrscheinlichkeitsmodell des ungewissen Vorhandenseins oder Risikos dieser Konzepte. In diesem Artikel verwenden wir eine Methode, um die Leistung des Story-Retrievals zu bewerten, basierend auf dem TRECVID Shot-based Retrieval Groundtruth. Unsere Experimente mit der Kollektion TRECVID 2005 zeigen eine signifikante Leistungsverbesserung gegenüber vier Standardmethoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12275-0_23 88de521a39ac1cf1eeb4ec7708d74cfd;de;;;7.1.;;;Spannungen zwischen individueller Nutzung und Netzwerkakzeptanz von Social Media Plattformen Soziale Medien haben sich in den Alltag vieler Menschen verbreitet, stellen den Einzelnen jedoch immer noch vor Herausforderungen bei der Nutzung dieser Plattformen. Dieser Beitrag untersucht die vielfältigen Möglichkeiten, wie Social-Media-Plattformen von Einzelpersonen eingesetzt werden, basierend auf einer Untersuchung von 4 Vignetten, die durch Befragungen von Einzelpersonen im Kontext einer Universität erstellt wurden. Eine Analyse der Vignetten und des individuellen Nutzungsverhaltens verdeutlicht das Spannungsverhältnis zwischen der netzwerkbasierten Einführung von Social Media-Plattformen und den Einschränkungen, die das Netzwerk der individuellen Nutzung der Plattform auferlegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38862-0_16 c69edff91c6c902353c05766401c8b39;de;;;7.1.;;;Anwendung neuronaler Netze in der Trajektorienplanung des Einstiegsfahrzeugs für variable Ziele Ein Verfahren zur Onboard-Erzeugung der Eintrittsbahn für variable Ziele wird diskutiert. Herkömmliche Trajektorienplanungsalgorithmen können nur für die festen Endbedingungen ohne Berücksichtigung der variablen Ziele verwendet werden. Falls das Fahrzeug die Eintrittsflugbahn aufgrund einer Beschädigung oder eines Effektorversagens alarmieren muss, muss das Eintrittsleitsystem in Echtzeit eine durchführbare Eintrittsflugbahn entsprechend einem anderen möglichen Landeplatz aus aktuellen Flugbedingungen entwerfen. Die herkömmlichen Ansätze müssen erweitert werden, um die Echtzeit-Redesign-Fähigkeit für variable Ziele bereitzustellen, und die Redesign-Trajektorie würde auch alle Pfadbeschränkungen und geänderten Terminalbedingungen erfüllen. In diesem Artikel wird das neuronale Netzwerk als Hauptcontroller verwendet, um dieses Problem zu lösen. Die Online-Probleme der Neugestaltung der Trajektorie und der Steuerungsparametergenerierung können in das Offline-Trainingsproblem des neuronalen Netzes umgewandelt werden, wenn die Anfangsbedingungen und die ausgewählten Endbedingungen gegeben sind. Numerische Simulationen mit einem wiederverwendbaren Trägerraketenmodell für verschiedene Endbedingungen werden vorgestellt, um die Leistungsfähigkeit und Wirksamkeit des Ansatzes zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23896-3_38 20fc79262dae4bc894352f353ec96594;de;;;7.1.;;;Ein Rahmen für die Implementierung von Cloud-ERP-Systemen in Entwicklungsländern: Lernen von den unteren Kommunalverwaltungen in Uganda Kommunale Behörden wie Kommunen stehen ebenfalls vor der Herausforderung, Dienstleistungen effizient und effektiv bereitzustellen und ziehen daher zunehmend ERP-Systeme in Betracht, um ihren Betrieb zu unterstützen. Die erfolgreiche Implementierung eines ERP-Systems hängt von mehreren Faktoren ab, einschließlich eines tragfähigen Rahmens, um die organisatorischen Bemühungen zu lenken. Diese Forschung zielt darauf ab, die Art und den Inhalt eines möglichen Rahmens zur Implementierung eines ERP-Systems zu untersuchen, das für Entwicklungsländer nützlich sein könnte. Zu diesem Zweck wendet es eine explorative Methodik an, die Fokusgruppen einbezieht, um die Aktivitäten zu verstehen, die für eine erfolgreiche Implementierung eines kommunalen ERP-Systems in einem Entwicklungsland, Uganda, unerlässlich sind. Unser Ergebnis zeigt, dass selbst bei der Einführung eines Cloud-Computing-Modells bei der Implementierung von ERP-Systemen in Kommunalverwaltungen in Entwicklungsländern berücksichtigt werden sollte, dass Entwicklungsländer die Besonderheiten des Kontexts der Entwicklungsländer berücksichtigen sollten. Diese Forschung bietet einen einzigartigen Rahmen, der Überwachung und Bewertung mit Kontextualisierung, Implementierung, Übergang und Realisierung von Aktivitäten integriert, um ein Cloud-ERP-System in einer Kommunalverwaltung eines Entwicklungslandes erfolgreich zu implementieren. Die Ergebnisse unterstützen Entscheidungsträger und Anbieter dabei, die Gesamt- oder Teilfehlerrate der ERP-Implementierung in Kommunalverwaltungen von Entwicklungsländern zu reduzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20671-0_19 b2600abc9714f2614984090116bcd3f1;de;;;7.1.;;;Prozessmethodik für das Notfallmanagement Das Notfallmanagement wird durch Führungsfunktionen repräsentiert, die darauf abzielen, die Anfälligkeit für Gefahren zu verringern und Katastrophen zu bewältigen. Notfälle haben oft direkte Auswirkungen auf die Umwelt. Der Fokus dieses Beitrags liegt auf der Identifikation und nachfolgenden Softwareunterstützungsprozessen im Notfallmanagement. Das Papier zielt darauf ab, eine Prozessmethodik für das Notfallmanagement im Detail zu beschreiben. Die Methodik beschreibt das Management einer für das Notfallmanagement geeigneten Informationssystementwicklung, die auf Geschäftsprozessen aufbaut. Die Methodik besteht aus fünf Hauptphasen. Jede Phase wird in Bezug auf einzelne Aktivitäten, Arbeitsergebnisse und Benutzerrollen beschrieben. Der nächste Teil des Papiers empfiehlt den Einsatz bestimmter Technologien, Werkzeuge und Ressourcen, die sich bei der Analyse von Notfallsituationen in der Tschechischen Republik erfolgreich bewährt haben. Das direkte Ergebnis der neuartigen Verfahrensmethodik ist eine effektivere Lösung von Notfallsituationen und damit die Reduzierung negativer Umweltauswirkungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22285-6_33 96e98f83ae91ebf37c4e380ebab04358;de;;;7.1.;;;Design und Implementierung eines Risikobewertungssystems für heterogene Identitätsallianzen Die heterogene Identitätsallianz besteht aus mehreren Identitätsmanagementplattformen, die Architekturen und Anwendungen übergreifend sind, und bietet ein einheitliches Identitätsmanagement und einheitliche Dienste. Dieses Papier konzentriert sich auf den heterogenen Allianz-Risikobewertungsrahmen. Das Netzwerkverhalten und die Identitätsattribute der Benutzer im Allianzsystem werden als die wichtigsten bewerteten Faktoren ausgewählt. In Kombination mit der Risikobewertung der Informationssicherheit wird das Risikobewertungssystem des Allianzsystems von Web entworfen und implementiert. Schließlich zeigt die Entwicklung des Systems die Ergebnisse der Risikobewertung visuell an, was den Aufsichtsbehörden hilft, die gefährlichen Faktoren des Allianzsystems visuell zu erkennen und entsprechende Maßnahmen zu ergreifen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-57881-7_28 e6bf73e1b59d8433472bc73743843aad;de;;;7.2.;;;Bildbasierter World-perceiving Knowledge Graph (WpKG) mit Ungenauigkeit Wissensgraphen sind ein Datenformat, das die Darstellung von Semantik ermöglicht. Die meisten verfügbaren Grafiken konzentrieren sich auf die Darstellung von Fakten, ihren Merkmalen und Beziehungen zwischen ihnen. Aus der Sicht möglicher Anwendungen semantisch reichhaltiger Datenformate in intelligenten realen Szenarien besteht jedoch ein Bedarf an Wissensgraphen, die kontextbezogene Informationen bezüglich realistischer und zufälliger Beziehungen zwischen Elementen in der realen Welt beschreiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-50146-4_31 5dccd7d053e2b0f877788e7b97a54f03;de;;;7.2.;;;Qualitätsbestätigung von elektrischen Messdaten für Weltraumbauteile basierend auf der MSA-Methode Die Genauigkeit und Genauigkeit der Daten ist die wichtigste Eigenschaft elektrischer Messdaten bei der Sicherung von Luft- und Raumfahrtteilen. Ausgehend vom Grundprinzip der Messsystemanalyse fokussieren wir uns auf das Varianzverfahren zur Analyse der Wiederholbarkeit und der Reproduzierbarkeit elektrischer Messdaten. Durch die Untersuchung des Fehlers des zu erzeugenden Messsystems berechnen wir den Anteil verschiedener Fehlerquellen, die das Messergebnis, das Zusammenspiel beeinflussen, bestimmen den Zustand des Messsystems und die Messdatenqualität synthetisch und ergreifen wirksame Maßnahmen, um den Fehler zu reduzieren oder zu beseitigen. Mit dem Quarzoszillator-Messsystem mit allgemeinem Instrument haben wir die Praxis weitergeführt und helfen uns, das Problem der Datenqualität zu erkennen. Durch die klare Angabe des Messintervalls werden die Ergebnisse der Berechnung des spezifischen Gewichts der Wiederholbarkeit und Reproduzierbarkeit von mehr als 70 % auf weniger als 10 % der Gesamtabweichung reduziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4163-6_41 a5c329b19d2796a90497936be131e94e;de;;;7.2.;;;Informationsfusion für die intelligente agentenbasierte Informationssammlung In diesem Beitrag wird das Problem der Informationsfusion für agentenbasierte Informationserfassungssysteme diskutiert. Zunächst wird der Rahmen der Informationssammlung in Multi-Agenten-Umgebungen vorgestellt und dann ein kooperativer Fusionsalgorithmus für unstrukturierte Dokumente. Die Leistung wird auch durch die traditionellen Methoden Precision und Recall erbracht und zeigt, dass der Fusionsalgorithmus effizient ist.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45490-X_55 c342fb34d19694ea647d1a403947c8d1;de;;;7.2.;;;Inkrementelle Methode zur Aktualisierung von Approximationen in DRSA unter Variationen mehrerer Objekte Der dominanzbasierte Rough-Set-Ansatz (DRSA) verwendet Dominanzbeziehungen, um Äquivalenzrelationen in herkömmlichen Rough-Set-Modellen zu ersetzen, damit er präferenzgeordnete Informationen verarbeiten kann. Bis heute wird DRSA häufig bei Entscheidungsproblemen mit mehreren Kriterien eingesetzt. Da sich jedoch die gesammelten Daten von Zeit zu Zeit weiterentwickeln, gibt es bei diesen realen Problemen oft einige Variationen der Attributmengen oder Objektmengen. In den dynamischen Informationssystemen ist die häufige Aktualisierung der unteren und oberen Approximationen von DRSA ein notwendiger Schritt zur weiteren Aktualisierung von Attributreduktionen und Entscheidungsregeln, die für die Wissensfindung und Entscheidungsfindung wichtig sind. Das inkrementelle Aktualisieren von Näherungen ist eine Art effektiver Methoden, um die Rechenlast zu reduzieren, wenn eine Variation auftritt. Die meisten aktuellen Studien zu inkrementellen Methoden berücksichtigen nur konventionelle Grobmodellmodelle und die Situation, wenn ein einzelnes Objekt in einem Informationssystem variiert. In diesem Papier konzentrieren wir uns auf die Variationen von Objektsätzen und diskutieren inkrementelle Methoden zur Aktualisierung von Approximationen von DRSA, wenn sich mehrere Objekte ändern. Die Fortschreibungsprinzipien in verschiedenen dynamischen Situationen werden mit Detailnachweisen angegeben und die entsprechenden inkrementellen Algorithmen werden ebenfalls entwickelt. Die experimentellen Auswertungen an 12 UCI-Datensätzen zeigen, dass unsere vorgeschlagenen inkrementellen Ansätze die Rechenzeit im Vergleich zum nicht-inkrementalen Ansatz sowie einer in der Literatur typischen inkrementellen Methode effektiv reduzieren.;-;-;-;https://link.springer.com/article/10.1007/s13042-015-0477-8 56f16089328df812a843df0234116550;de;;;7.1.;;;Strategischer Fit von Planungsumgebungen: Hin zu einem integrierten Framework Integrated Zahlreiche Studien haben gezeigt, wie wichtig es ist, eine strategische Passung zwischen der tatsächlichen Planungsumgebung und den eingesetzten Produktionsplanungs- und Steuerungssystemen zu erreichen. Wird dieser strategische Fit nicht erreicht, führt dies oft zu suboptimalen Lösungen, die sich wiederum negativ auf die Produktionsplanung und die Leistungsfähigkeit der Steuerung auswirken. Durch die Verwendung einer Literaturstudienmethodik wird ein umfassendes Planungsumgebungs-Mapping-Framework entwickelt und durch die Untersuchung von fünf Fertigungsunternehmen getestet. Das Framework untersucht auch die Kausalität zwischen Planungsumgebungsvariablen. Die Ergebnisse des Mappings können als Ausgangspunkt verwendet werden, um geeignete Produktionsplanungs- und Steuerungslösungen zu entwerfen, Unternehmen zu vergleichen und mögliche Verbesserungsbereiche zu identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-73758-4_6 f6b85e5363d8fe4a99f17802c72d6214;de;;;7.1.;;;Integriertes Fähigkeitsreifemodell für Schiffsdesign und -konstruktion Die Projektbeschränkungen nehmen in Bezug auf Zeit, Kosten, Kundenzufriedenheit, Return on Investment und Qualität kontinuierlich zu. Außerdem nehmen sie in Bezug auf Komplexität, Anzahl der Beteiligten, Anzahl der zu verwaltenden Parameter und Anzahl der Interaktionen zwischen diesen Parametern zu. In diesem Papier führen wir eine Literaturstudie zum integrierten Fähigkeitsreifemodell (CMMI) für Schiffsdesign und -konstruktion durch. Der Zweck besteht darin, eine Struktur für CMMI im Schiffsdesign und -bau zu verstehen, zu demonstrieren und zu entwickeln. Capability-Reife-Modelle bieten Unternehmen ein einfaches, aber effektives Werkzeug, um ihre Prozesse zu organisieren, zu steuern und zu überwachen. Hervorgegangen aus dem Software Engineering haben sich die Anwendungsfelder erweitert und die Reifegradmodellforschung gewinnt an Bedeutung. Bisher gibt es nur wenige begrenzte Studien zur Anwendbarkeit von Fähigkeitsreifemodellen für den Schiffsentwurf und -bau. Die entwickelte Struktur kann als strukturierte Matrix verwendet werden, um den Reifegrad des Unternehmens durch messbare Stufen zu bewerten. Darüber hinaus kann die strukturierte Matrix verwendet werden, um einzelne am Schiffsentwurfs- und Bauprozess beteiligte Unternehmen, beispielsweise eine Werft, zu bewerten und zu verbessern und verschiedene Konfigurationen der Wertschöpfungskette zu bewerten, dh alternative Konfigurationen von Akteuren, die einen geplanten Schiffsentwurf und -bau durchführen Projekt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44733-8_37 11f23f891c24f322c78d5f20621fcd69;de;;;7.2.;;;Indizierung von Nukleotiddatenbanken für eine schnelle Abfrageauswertung Eine Anfrage an eine Nukleotiddatenbank ist eine DNA-Sequenz. Antworten sind ähnliche Sequenzen, dh Sequenzen mit einem hochwertigen lokalen Alignment. Bestehende Techniken zum Finden von Antworten verwenden eine umfassende Suche, aber es ist wahrscheinlich, dass diese Algorithmen mit zunehmender Datenbankgröße unerschwinglich werden. Wir haben einen partitionierten Suchansatz entwickelt, bei dem lokale Alignment-String-Matching-Techniken zusammen mit einem Index verwendet werden. Wir zeigen, dass Teilstrings oder Intervalle fester Länge eine geeignete Grundlage für die Indizierung in Verbindung mit lokaler Ausrichtung auf wahrscheinliche Antworten sind. Durch geeignete Komprimierungstechniken wird die Indexgröße auf einem akzeptablen Niveau gehalten und Abfragen können um ein Vielfaches schneller ausgewertet werden als mit erschöpfenden Suchtechniken.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0014158 1ce6cc90e6409653352675fbe5717fa6;de;;;7.2.;;;Bewertung der Ontologiekriterien für Anforderungen in einem geografischen Reisebereich Eine Ontologie ist ein Modell einer Wissensdomäne. Das in einer Ontologie erfasste Wissen kann zur Bereitstellung von Interoperabilität, Informationsaustausch und Reduzierung semantischer Mehrdeutigkeit in Anwendungsbereichen wie Knowledge Management, Semantic Web und E-Commerce genutzt werden. Da jeder dieser Anwendungsbereiche unterschiedliche Anforderungen haben kann, wie beurteilen wir, ob eine Ontologie die Anforderungen einer bestimmten Anwendung angemessen erfüllt? In diesem Beitrag betrachten wir, wie anhand bestehender Kriterien und Maßnahmen unterschiedliche Aspekte der Eignung von Ontologien für Anwendungsgebiete im Reise- und Geographiebereich bewertet werden können. Konkret betrachten wir einige bestehende Abdeckungsmaße, schlagen neue vor und stellen fest, ob sie die Anwendungsanforderungen einer angemessenen Granularität erfüllen.;-;-;-;https://link.springer.com/chapter/10.1007/11575801_36 45ebe42a28bd9c06362fe801d737288c;de;;;7.2.;;;Zur Entwicklung von Indikatoren mit Textanalyse: Untersuchung von Konzeptvektoren, die auf englische und chinesische Texte angewendet werden In diesem Beitrag wird untersucht, wie für relativ kleine Korpora öffentlich zugänglicher Dokumente hochwertige, vokabularbasierte Klassifikatoren gefunden werden können, die für Competitive Intelligence nützlich sind. Zwei Korpora aktueller Geschäftsberichte werden untersucht und verglichen, eine in englischer und eine in chinesischer Sprache. Das Papier testet, ob Vokabulare vorhersagen können, ob Unternehmen relativ innovativ sind oder nicht, indem Vokabulare von Inhaltswörtern und Funktionswörtern untersucht werden. Wir stellen fest, dass die getesteten Vokabulare tatsächlich effektive Indikatoren oder Klassifikatoren produzieren und dass Funktionswörter überraschenderweise besonders effektiv sind. Das Papier bietet auch einen umfassenden konzeptionellen und theoretischen Hintergrund, um die Untersuchung im Kontext einer EMCUT-Problematik zu gestalten, nämlich der Zuordnung von Entitäten zu Klassifikationsschemata unter Verwendung von aus Text abgeleiteten Informationen.;-;-;-;https://link.springer.com/article/10.1007/s10257-013-0228-x 4800f8241112856ba15a1f755711a5c2;de;;;7.2.;;;Pair Hidden-Markov-Modell für Named Entity Matching Dieses Papier stellt ein Paar-Hidden-Markov-Modell (Paar-HMM) vor, um die Ähnlichkeit zwischen zweisprachigen benannten Entitäten zu bewerten. Das Paar-HMM wurde von Mackay und Kondrak [1] übernommen, die es für die Aufgabe der verwandten Identifizierung verwendeten und später von Wieling et al. [5] für den niederländischen Dialektvergleich. Bei der Verwendung des Paar-HMM zur Bewertung benannter Entitäten berücksichtigen wir den Schritt der phonetischen Darstellung nicht, wie dies bei den meisten Ähnlichkeitsmesssystemen für benannte Entitäten der Fall ist. Stattdessen betrachten wir die ursprüngliche orthographische Darstellung der Eingabedaten und führen diakritische Zeichen oder Akzente in die Paar-HMM-Darstellung ein, um Aussprachevariationen in den Eingabedaten zu berücksichtigen. Wir haben zuerst das Paar-HMM angepasst, um die Ähnlichkeit zwischen benannten Entitäten aus Sprachen (Französisch und Englisch) zu messen, die das gleiche Schriftsystem (das lateinische Alphabet) verwenden, und Sprachen (Englisch und Russisch), die ein anderes Schriftsystem verwenden. Die Ergebnisse sind ermutigend, da wir vorschlagen, das Paar-HMM auf anwendungsorientiertere Erkennungs- und Generierungsaufgaben für benannte Entitäten auszuweiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-3658-2_87 3db191aafe218df1ee3bc3165907d2d0;de;;;7.2.;;;Remodularisierungsanalyse für Microservice Discovery mit syntaktischem und semantischem Clustering Dieses Papier befasst sich mit der Herausforderung der automatisierten Remodularisierung großer Systeme als Microservices. Es konzentriert sich auf die Analyse von Enterprise-Systemen, die in Unternehmensbereichen weit verbreitet sind und notorisch groß, monolithisch und manuell schwer zu entkoppeln sind, da sie asynchrone, benutzergesteuerte Geschäftsprozesse und Geschäftsobjekte (BOs) mit komplexen strukturellen Beziehungen verwalten. Die vorgestellte Technik nutzt semantisches Wissen von Unternehmenssystemen, d. h. BO-Struktur, zusammen mit syntaktischem Wissen des Codes, d. Auf semantischer Ebene bilden aus Datenbanken abgeleitete BOs die Grundlage für das prospektive Clustering von Klassen als Module, während auf syntaktischer Ebene Struktur- und Interaktionsdetails von Klassen weitere Erkenntnisse für Modulabhängigkeiten und Clustering auf Basis von K-Means Clustering und Optimierung liefern. Unsere integrierten Techniken werden mit zwei Open-Source-Unternehmens-Kundenbeziehungsmanagementsystemen, SugarCRM und ChurchCRM, validiert. Die Ergebnisse zeigen eine verbesserte Machbarkeit der Remodularisierung von Unternehmenssystemen (einschließlich codierter BOs und Klassen) als Microservices. Darüber hinaus zeigen die empfohlenen Microservices, die in „Backend“-Unternehmenssysteme integriert sind, Verbesserungen bei wichtigen nichtfunktionalen Merkmalen, nämlich hohe Ausführungseffizienz, Skalierbarkeit und Verfügbarkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-49435-3_1 53256214dfb2ae420dbacd424891e1ba;de;;;7.2.;;;Analyse von Social Media Posts zur Früherkennung psychischer Erkrankungen of Dieses Papier präsentiert einen mehrgleisigen Ansatz zur Vorhersage des frühen Risikos von psychischen Gesundheitsproblemen durch nutzergenerierte Inhalte in sozialen Medien. Supervised Learning und Information Retrieval-Methoden werden verwendet, um das Depressionsrisiko eines Benutzers aufgrund des Inhalts seiner Beiträge in reddit abzuschätzen. Der hier vorgestellte Ansatz wurde an der Pilotaufgabe CLEF eRisk 2017 evaluiert. Wir beschreiben die Details von fünf der Aufgabe gestellten Systeme und vergleichen ihre Leistung. Die Vergleiche zeigen, dass die Kombination von Information Retrieval und maschinellen Lernmethoden die besten Ergebnisse liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-89656-4_11 717a46b97915f938223e99cf1f42e3bf;de;;;7.1.;;;Migration von Legacy-Anwendungen auf eine CORBA-Plattform: eine Fallstudie Ein wichtiges Problem, mit dem viele große Unternehmen heute konfrontiert sind, betrifft die Unterstützung und Weiterentwicklung ihrer großen (alten) Informationssysteme. In diesem Beitrag stellen wir einen Ansatz für die Migration großer und voneinander abhängiger Legacy-Informationssysteme auf CORBA-basierte Plattformen vor. Unser Ansatz ermöglicht eine kontinuierliche Verfügbarkeit der Informationssysteme, minimale Manpower für die Implementierung und den Erhalt der Autonomie der unabhängigen Informationssysteme. Die Informationssysteme der ABB AG dienen als Fallbeispiel zur Darstellung unseres Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34947-3_9 7707c5ea8ae01370fc883c6a1837d954;de;;;7.1.;;;"Erstellung des „Dossier Représentatif“ Dieser Beitrag analysiert die Komplexität der Zusammenarbeit in Krankenhäusern. Der Informationsaustausch unter verschiedenen technologischen Systemen und Arbeitsorganisationen wird mit besonderem Augenmerk auf die Rolle verschiedener Arten von bildschirmbasierten Aufzeichnungen untersucht. Die Notwendigkeit der Unterstützung lokaler Praxen, der beruflichen Distanz und der unterschiedlichen Weltbilder des medizinischen und pflegerischen Personals und der Verwaltung wird betont. Vier Bedeutungen des Informationsaustauschs basierend auf der Idee eines „Dossier réprésentatif“ werden untersucht: (i) ein Kerndokument patientenbezogener Basisdaten, das von allen Organisationseinheiten und Berufen geteilt wird, (ii) Verwendung des (Echtzeit-) Transfer von Daten in einer verteilten Umgebung, um die Möglichkeit für Dialog zu stärken, (iii) Computerunterstützung für das ""Browsen"" durch eine Vielzahl von Ordnern, die unterschiedliche Praktiken einbetten, (iv) ein einheitliches Dossier, das von einem begrenzten kollaborativen Ensemble geteilt wird.";-;-;-;https://link.springer.com/article/10.1007/BF00754329 28acbb9d4df985869d0f9b17d2261be3;de;;;7.1.;;;Integrierte Entscheidungsalgorithmen für das Asset Management von automatisch gesteuerten elektrischen Übertragungssystemen Stromübertragungssysteme bestehen aus einer großen Anzahl physischer Anlagen, einschließlich Übertragungsleitungen, Leistungstransformatoren und Leistungsschaltern, die kapitalintensiv sind, stark verteilt sind und ausfallen können. Die Verwaltung dieser Assets unter Ressourcenbeschränkungen erfordert die Überwachung des Gerätezustands, die in die Entscheidungsfindung auf Systemebene integriert ist, um eine Reihe verschiedener Betriebs-, Wartungs- und Investitionsziele zu optimieren. Industrielle Prozesse haben sich zu diesem Zweck im Laufe der Jahre ad hoc entwickelt, und es gibt keine systematischen Strukturen, um die verschiedenen Entscheidungsprobleme zu koordinieren. In diesem Papier beschreiben wir unsere Fortschritte beim Aufbau einer prototypischen Struktur für diesen Zweck zusammen mit einer Software-Hardware-Umgebung, um sie bereitzustellen und zu testen. Wir konzentrieren uns insbesondere auf die Entscheidungsalgorithmen und den Benders-Ansatz, den wir gewählt haben, um sie integriert zu lösen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72584-8_140 a5c3c36b7183d8d6010b1dc39d6506af;de;;;7.2.;;;Passage Retrieval in Log-Dateien: Ein Ansatz basierend auf der Abfrageanreicherung Die Frage-Antwort-Systeme gelten als die nächste Generation von Suchmaschinen. Dieser Beitrag konzentriert sich auf den ersten Schritt dieses Prozesses, nämlich die Suche nach relevanten Passagen mit Antworten. Passage Retrieval kann aufgrund der Komplexität der Daten, Logfiles in unserem Fall, schwierig sein. Unser Beitrag basiert auf der Anreicherung von Abfragen durch die Verwendung von a;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14770-8_39 0b26929b6aafe276a8bc5da6e630d6ff;de;;;7.2.;;;Multimediale Dokumentenspeicherung, -klassifizierung und -wiederherstellung: Integration des MULTOS-Systems Die Entwicklung effektiver Multimedia-Büro-Dokumentenablagesysteme erfordert sowohl optische als auch magnetische Speicherung, kombinierte Verwendung von Indexierung, Text- und Bilddatenzugriffstechniken, automatische Dokumentenklassifizierung und eine flexible, intelligente Benutzeroberfläche, die Benutzern, die keine Computerexperten sind, umfangreiche Funktionen bietet. In diesem Beitrag stellen wir die neuesten Entwicklungen im ESPRIT-Projekt MULTOS vor, die zu einem integrierten Prototypensystem mit den oben genannten Eigenschaften geführt haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-1063-8_60 f2cb92b512e652b2418a3c47023b834d;de;;;7.2.;;;Ein Framework für Broker-unterstützte virtuelle Unternehmen Ein virtuelles Unternehmen wird als ein zeitlicher Zusammenschluss von Unternehmen charakterisiert, die zusammenkommen, um bestimmte gemeinsame Ziele und Aufgaben zu erreichen. Das Hauptproblem für ein virtuelles Unternehmen ist die Identifizierung der geeigneten Unternehmen, um eine solche Allianz zu bilden, um die gewünschten Ergebnisse zu erzielen. Dieses Verfahren beinhaltet eine Reihe deutlicher Schwierigkeiten, die im antagonistischen Umfeld der sich entwickelnden globalen elektronischen Wirtschaft effizient angegangen werden sollten. In diesem Papier schlagen wir einen offenen Rahmen für die Bildung virtueller Unternehmen über das Internet unter Verwendung des Begriffs der Informationsbroker vor. Unsere Studie zeigt, dass ein Information Broker in diesem Zusammenhang sehr nützlich sein kann, indem er als Konstrukteur und Administrator einer solchen Allianz auftritt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35585-6_9 70a52496999c7601fe7ed662d14c93ce;de;;;7.2.;;;Zur relativen Bedeutung von Toponymen in GeoCLEF In dieser Arbeit haben wir versucht, die relative Bedeutung der geografischen und WordNet-extrahierten Begriffe in Bezug auf den Rest der Abfrage zu bestimmen. In unserem System werden geografische Begriffe mit WordNet-Holonymen und -Synonymen erweitert und separat indiziert. Wir haben die relative Bedeutung der Begriffe überprüft, indem wir ihr Gewicht mit 0,75, 0,5 und 0,25 multipliziert haben. Der Vergleich mit dem Basissystem, das nur Lucene verwendet, zeigt, dass es in einigen Fällen möglich ist, die mittlere durchschnittliche Genauigkeit durch Abwägen der relativen Bedeutung von geografischen Begriffen in Bezug auf die Inhaltswörter in der Abfrage zu verbessern. Wir haben auch beobachtet, dass WordNet-Holonyme bei der Verbesserung der Erinnerung helfen können, aber WordNet hat eine geringe Abdeckung und die Begriffserweiterung ist bei mehrdeutigen Ortsnamen sinnvoll.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85760-0_103 438d1a2700c45841816895da429318be;de;;;7.2.;;;Darstellung von Kontextinformationen für den Dokumentenabruf Die Bag-of-Words-Repräsentation (BoW), die im Information Retrieval (IR) weit verbreitet ist, stellt Dokumente und Abfragen als Wortlisten dar, die nichts über Kontextinformationen ausdrücken. Wenn wir nach Informationen suchen, stellen wir fest, dass in einem Dokument nicht alles explizit angegeben ist, sodass Kontextinformationen erforderlich sind, um den Inhalt zu verstehen. Dieses Papier schlägt die Verwendung von Bag of Concepts (BoC) und Holographic Reduced Representation (HRR) in der IR vor. Diese Darstellungen gehen über BoW hinaus, indem sie Kontextinformationen in Dokumentdarstellungen integrieren. Sowohl HRR als auch BoC werden unter Verwendung einer als Random Indexing bekannten Vektorraum-Methodik erstellt und ermöglichen es, zusätzliches Wissen aus verschiedenen Quellen auszudrücken. Unsere Experimente haben die Machbarkeit der Darstellungen gezeigt und die mittlere durchschnittliche Genauigkeit im Vergleich zum traditionellen Vektorraummodell um bis zu 7% verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04957-6_21 3a60be95956015b7880176bbcedf203d;de;;;7.1.;;;Eine Methode zur Wiederverwendung vorhandener ITIL-Prozesse zur Erstellung eines ISO 27001 ISMS-Prozesses, angewendet auf ein hochverfügbares Videokonferenz-Cloud-Szenario Viele Unternehmen haben ihre Geschäftsprozesse bereits nach definierten und organisierten Standards eingerichtet. Zwei von Unternehmen nachgefragte Standards sind IT Infrastructure Library (ITIL) und ISO 27001. Oft beginnen Unternehmen mit der Zertifizierung ihrer Geschäftsprozesse nach ITIL und fahren mit ISO 27001 fort. Für kleine und mittelständische Unternehmen ist es schwierig, die ISO 27001-Zertifizierung. Die IT-Abteilungen dieser Unternehmen haben oft nicht die Zeit, die Standards im Tagesgeschäft vollständig zu beachten. ITIL und ISO 27001 passen perfekt in Unternehmen und helfen, Fehler durch die Standardisierung und Vergleichbarkeit von Produkten und Dienstleistungen untereinander und mit anderen Unternehmen und Partnern zu reduzieren. ISO 27001 befasst sich speziell mit Sicherheitsrisiken, Gegenmaßnahmen und Abhilfemaßnahmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40511-2_16 c71c329059b309f258e2286bc1c98943;de;;;7.1.;;;Fertigung – Gestern, Heute und Morgen Im Jahr 1790 bezeichnete Johann Beckmann, der in Göttingen Wirtschaftswissenschaften lehrte, erstmals den Begriff „Technik“, um die Wissenschaft der Herstellungsverfahren in den verschiedenen Gewerken, den „nützlichen Künsten“, umfassend zu beschreiben. Seine Gedanken legte er in der Arbeit „Leitfaden zur Technik oder zur Wissenschaft des Handwerks, der Fabriken und Manufakturen, vor allem derjenigen, die sich direkt mit Landwirtschaft, Polizei und Kamerawissenschaft befassten“, nieder.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-78124-7_2 c0242c8a2933997a0cb8e4b59098ee87;de;;;7.1.;;;Sieben Paradoxe des Geschäftsprozessmanagements in einer hypervernetzten Welt Business Process Management ist eine grenzenübergreifende Disziplin, die betriebliche Fähigkeiten und Technologien aufeinander abstimmt, um Geschäftsprozesse zu entwerfen und zu verwalten. Das;-;-;-;https://link.springer.com/article/10.1007/s12599-020-00646-z 888194ecb3e8ce6ce0ec20edf8d19b0d;de;;;7.2.;;;Empfehlung für reale stimmungsbasierte Musik Wir präsentieren ein Musikempfehlungssystem, das sowohl kollaboratives Filtern als auch stimmungsbasierte Empfehlungen umfasst. Die Vorteile der Einbeziehung stimmungsbasierter Empfehlungen gegenüber sowohl inhalts-/genrebasierten als auch kollaborativen Filterungs-basierten Empfehlungen werden anhand einer realen Benutzerbewertung veranschaulicht, an der 54 Benutzer an einer einmonatigen Bewertung teilnahmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68636-1_57 163d566f0ee121105739f869f71462e9;de;;;7.2.;;;Automatischer thematischer Extraktor Wir haben ein System geschaffen, das musikalische „Schlüsselwörter“ oder Themen identifiziert. Das System sucht nach allen Mustern, die aus melodischer (für unsere Zwecke intervallischer) Wiederholung in einem Stück bestehen. Dabei werden in der Regel viele Muster freigelegt, von denen viele entweder uninteressant oder nur oberflächlich wichtig sind. Filter reduzieren die Anzahl oder Prävalenz oder beides solcher Muster. Muster werden dann nach wahrnehmungsrelevanten Merkmalen bewertet. Die Top-Ranking-Muster entsprechen wichtigen thematischen oder motivischen musikalischen Inhalten, wie durch Vergleiche mit veröffentlichten musikalischen Themenkatalogen nachgewiesen wurde. Das System arbeitet robust über eine breite Palette von Stilen hinweg und verlässt sich auf keine Metadaten bei seiner Eingabe, wodurch es unabhängig und effizient Multimediadaten katalogisieren kann.;-;-;-;https://link.springer.com/article/10.1023/A%3A1023549700206 4e5525c2d4731bd0c8b3cfcc0c419d80;de;;;7.2.;;;Ein Überblick über Fragen rund um die Bewertung industrieller Hypermedia-Anwendungen In den letzten 30 Jahren haben Unternehmen, die ihre Leistung verbessern wollten, nach und nach Computer an ihren Arbeitsplätzen eingeführt, und dies hat dazu geführt, dass Computer in Fertigungshallen auftauchten. Im Rahmen ihrer Aufgaben werden Mitarbeiter in der Werkstatt nun aufgefordert, Computeranwendungen, insbesondere industrielle Hypermedia-Anwendungen (IHA), die aufgabenbezogene Informationen (Einrichtung, Montage, Wartung, Prüfung und Qualitätsverfahren) enthalten, zur Unterstützung der Aufgabenerfüllung zu verwenden und/oder Schulungsaktivitäten. Wenn eine IHA akzeptiert und verwendet wird, bietet sie sowohl dem Unternehmen als auch den Betreibern viele Vorteile. Daher sollte logischerweise eine IHA bewertet werden, um zu überprüfen, inwieweit sie verwendet wird oder verwendet werden wird. Es ist zwar sinnvoll, das Ausmaß der Akzeptanz zu kennen, die Auswertung sollte aber auch erklären, warum dies so ist, damit Entwickler ihre Anstrengungen auf Schlüsselmerkmale konzentrieren können, die die Benutzerakzeptanz beeinflussen. Um die wichtigsten Merkmale zu identifizieren, wird in diesem Papier die Literatur zur Entwicklung und Bewertung von IHAs untersucht. Ziel ist es, diese Schlüsselmerkmale in einem Rahmen zusammenzufassen und zu organisieren und darauf hinzuweisen, dass der Grad der Wertschätzung einiger der Merkmale von Benutzerunterschieden beeinflusst wird. Dieses Framework bietet Entwicklern einen Referenzrahmen, um zu bewerten, ob eine IHA die Erwartungen der meisten Benutzer erfüllt, um ihre Mängel zu beheben und um einen Wissensschatz rund um die Entwicklung gut gestalteter IHAs aufzubauen. Bevor der vorgeschlagene Rahmen zur Bewertung einer IHA vor und nach der Implementierung verwendet wird, ist es wichtig, zuverlässige und valide Instrumente zu finden, um zwei der vier Merkmale zu messen und empirische Tests durchzuführen. Diese Arbeiten sind derzeit im Gange.;-;-;-;https://link.springer.com/article/10.1007/s00170-007-1265-8 21702f9914ec3c33a8de11422ff14ac6;de;;;7.2.;;;Die Verwendung von MCDM zur Bewertung von Kompromissen zwischen räumlichen Zielen Im Umweltmanagement wird die Leistung politischer Alternativen oft in Karten dargestellt. Eine solche Karte ist eine Kriteriumskarte, die die Auswirkungen einer Alternative für jeden Standort zeigt. Der Entscheidungsträger wird gebeten, diese Karten zu verwenden, um Alternativen zu vergleichen und schließlich die bevorzugte auszuwählen. Da die meisten Menschen Referenzkarten wie Straßenkarten verwenden, sind Karten vertraut und sollen die Realität wiedergeben. Entscheidungsträger nutzen daher gerne Karten zur Entscheidungsunterstützung (siehe zum Beispiel Kohsiek;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45772-2_25 517e4ae49e5155e11be3e7a764a651c6;de;;;7.2.;;;Wirksamkeit der Informationen zur Notendauer für den Musikabruf Beim inhaltsbasierten Abrufen von Musikinformationen werden aus Musik extrahierte Funktionen verwendet, um Abfragen zu beantworten. Bei melodischen Abfragen sind die beiden Hauptmerkmale die Tonhöhe und die Dauer der Noten. Die Tonhöhenfunktion wurde gut erforscht, während die Dauer noch nicht vollständig erforscht wurde. In diesem Artikel diskutieren wir, wie die Notendauerfunktion verwendet werden kann, um die Effektivität des Musikabrufs zu verändern. Notizen werden durch Zeichenfolgen dargestellt, die als Standardisierungen bezeichnet werden. Eine Standardisierung ist für eine ungefähre Saitenübereinstimmung ausgelegt und kann melodische Informationen möglicherweise nicht genau erfassen. Um Tonhöhen darzustellen, verwenden wir eine Reihe von Tonhöhenunterschieden. Unsere Dauerstandardisierung verwendet eine Reihe von fünf Symbolen, die die relative Dauer benachbarter Noten darstellen. Für beide Merkmale wird die Smith-Waterman-Ausrichtung zum Abgleichen verwendet. Wir demonstrieren die Kombination der Ähnlichkeit in beiden Merkmalen mit einem Vektormodell. Die Ergebnisse unserer Experimente zur Effektivität des Abrufens zeigen, dass die Ähnlichkeit der Notendauer an sich für ein effektives Abrufen von Musik nicht nützlich ist. Das Kombinieren von Tonhöhen- und Dauerähnlichkeit unter Verwendung des Vektormodells verbessert die Abrufeffektivität nicht gegenüber der alleinigen Verwendung von Tonhöhen.;-;-;-;https://link.springer.com/chapter/10.1007/11408079_25 eb6095b92930270ab46239f9346fbbf7;de;;;7.2.;;;Verbesserung der Reaktionsfähigkeit von Schülerforen: Erkennung doppelter Fragen in Bildungsforen Studentenforen sind wichtig für das Engagement der Studenten und das Lernen in Universitätskursen, erfordern jedoch hohe Personalressourcen, um zu moderieren und Fragen zu beantworten. In Einführungskursen können die Inhalte jedes Jahr fast unverändert bleiben, sodass die in den Kursforen gestellten Fragen über verschiedene Iterationen hinweg nicht viel Abwechslung aufweisen, was eine Möglichkeit zur Automatisierung bietet. Dieses Papier stellt einen Datensatz von Forenthreads und Metainformationen der Teilnehmer des Webdesign- und Entwicklungskurses der Australian National University zum Zweck der doppelten Frageerkennung in Bildungsforen zusammen. Ein hochmodernes neuronales Netzmodell wird auf dem Datensatz trainiert, um seine Nützlichkeit zu messen. Es wird eine Genauigkeit von 91,8 % erreicht, die mit anderen Datensätzen mit ähnlichen Eigenschaften vergleichbar ist. Ein leistungsstarkes neuronales Netzwerk für diesen Datensatz könnte möglicherweise verwendet werden, um ein Live-System zu erstellen, das Antworten auf doppelte Fragen in Kursforen erkennt und wiederverwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36718-3_35 c395bc574190ab8c331db34f02090a6e;de;;;7.2.;;;Ein neuer effizienter und unvoreingenommener Ansatz für die Bewertung der Clustering-Qualität Herkömmliche Qualitätsindizes (Inertia, DB, …) sind bekanntermaßen methodenabhängige Indizes, die es in einigen Fällen nicht erlauben, die Qualität des Clusterings richtig einzuschätzen, wie beispielsweise bei komplexen Daten wie Textdaten. Wir schlagen daher einen alternativen Ansatz für die Clustering-Qualitätsbewertung vor, der auf unüberwachten Messungen von Recall, Precision und F-Measure basiert und die Deskriptoren der mit den erhaltenen Clustern assoziierten Daten ausnutzt. Es werden zwei Indexkategorien vorgeschlagen, nämlich Makro- und Mikroindizes. Dieses Papier konzentriert sich auch auf die Konstruktion eines neuen kumulativen Mikropräzisionsindex, der es ermöglicht, die Gesamtqualität eines Clustering-Ergebnisses zu bewerten und dabei klar zwischen homogenen und heterogenen oder degenerierten Ergebnissen zu unterscheiden. Der experimentelle Vergleich des Verhaltens der klassischen Indizes mit unserem neuen Ansatz wird anhand eines polythematischen Datensatzes bibliographischer Referenzen aus der PASCAL-Datenbank durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28320-8_18 45b071b34a040cbf8887bc61a7e3a1cb;de;;;7.2.;;;CICE-BCubed: Ein neues Bewertungsmaß für überlappende Clustering-Algorithmen Die Evaluierung von Clustering-Algorithmen ist ein Feld der Mustererkennung, das noch Gegenstand intensiver Diskussionen ist. Die meisten in der Literatur gefundenen Qualitätsmaße wurden entwickelt, um nicht überlappende Clusterings zu bewerten, selbst wenn die meisten realen Probleme besser mit überlappenden Clusteringalgorithmen modelliert werden. Es wurden eine Reihe wünschenswerter Bedingungen vorgeschlagen, die von Qualitätsmaßen erfüllt werden müssen, die zur Bewertung von Clustering-Algorithmen verwendet werden, aber Maßnahmen, die alle Bedingungen erfüllen, können immer noch nicht adäquat mehrere Phänomene behandeln, die bei überlappender Clusterbildung auftreten. In diesem Papier konzentrieren wir uns auf einen speziellen Fall solcher wünschenswerter Bedingungen, die bestehende Maßnahmen, die zuvor ausgesprochene Bedingungen erfüllen, nicht erfüllen. Wir schlagen ein neues Bewertungsmaß vor, das das untersuchte Phänomen für den Fall von überlappenden Clustern korrekt behandelt und gleichzeitig die bisher bestehenden Bedingungen erfüllt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41822-8_20 e127d15f2dbdd9544486ee7876b50ca8;de;;;7.2.;;;Ein neuer Texterkennungsalgorithmus in Bildern/Videoframes In diesem Papier schlagen wir einen neuen Texterkennungsalgorithmus für Bilder/Videoframes in einem Grob-zu-Fein-Framework vor. Zuerst wird bei der Grobdetektion ein Multiskalen-Wavelet-Energiemerkmal verwendet, um alle möglichen Textpixel zu lokalisieren, und dann wird ein dichtebasiertes Bereichswachstumsverfahren entwickelt, um diese Pixel zu Textzeilen zu verbinden. Zweitens werden bei der Feinerfassung vier Arten von Texturmerkmalen kombiniert, um eine Textzeile darzustellen, und ein SVM-Klassifizierer wird verwendet, um Texte aus den Kandidaten zu identifizieren. Experimentelle Ergebnisse an zwei Datensätzen zeigen die ermutigende Leistung des vorgeschlagenen Algorithmus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30542-2_106 aae938d5c15157e4b498c6bdbe859a87;de;;;7.2.;;;Musik nach Stimmungen indexieren: Design und Integration eines automatischen inhaltsbasierten Annotators Im Rahmen der Inhaltsanalyse zur Indexierung und zum Abruf wird ein Verfahren zur Erstellung automatischer Musikstimmungskommentare vorgestellt. Die Methode basiert auf Ergebnissen aus psychologischen Studien und ist in einen überwachten Lernansatz eingebettet, bei dem musikalische Merkmale verwendet werden, die automatisch aus dem rohen Audiosignal extrahiert werden. Wir stellen hier einige der relevantesten Audiofunktionen vor, um dieses Problem zu lösen. Eine Ground Truth, die für Schulungen verwendet wird, wird sowohl unter Verwendung von sozialen Netzwerk-Informationssystemen (Weisheit der Massen) als auch individueller Experten (Weisheit der wenigen) erstellt. Auf experimenteller Ebene evaluieren wir unseren Ansatz anhand einer Datenbank mit 1.000 Songs. Es wurden Tests verschiedener Klassifizierungsmethoden, Konfigurationen und Optimierungen durchgeführt, die zeigen, dass Support Vector Machines für die jeweilige Aufgabe am besten funktionieren. Darüber hinaus bewerten wir die Robustheit des Algorithmus gegenüber verschiedenen Audiokompressionsschemata. Diese oft vernachlässigte Tatsache ist grundlegend für den Aufbau eines unter realen Bedingungen einsetzbaren Systems. Darüber hinaus wird die Integration einer schnellen und skalierbaren Version dieser Technik mit dem europäischen Projekt PHAROS diskutiert. Diese reale Anwendung demonstriert die Verwendbarkeit dieses Tools, um umfangreiche Datenbanken mit Anmerkungen zu versehen. Wir berichten auch über eine Nutzerbewertung im Kontext der Suchmaschine PHAROS, bei der Menschen nach Nutzen, Interesse und Innovation dieser Technologie in realen Anwendungsfällen befragt werden.;-;-;-;https://link.springer.com/article/10.1007/s11042-009-0360-2 2dee93859d04db3fc4c67dc4015ccbe2;de;;;7.2.;;;Die Prinzipien der Organisation der Suche nach einem Objekt in einem Bild, der Verfolgung eines Objekts und der Auswahl informativer Merkmale basierend auf der visuellen Wahrnehmung einer Person Eine deutliche Erweiterung des Anwendungsbereichs von Computer Vision, insbesondere in Echtzeitsystemen, stellt sehr hohe Anforderungen an Produktivität und Effizienz der Informationsverarbeitung und erfordert in Feedbacksystemen auch Informationsverzögerungen. Solche Anforderungen werden durch traditionelle Ansätze nicht gewährleistet. Der Ausweg aus der Situation könnte darin bestehen, als Prototyp die Organisationsprinzipien des menschlichen visuellen Systems zu verwenden, das eine sehr hohe Selektivität der Wahrnehmung von Videoinformationen aufweist. Das Papier präsentiert ein verallgemeinertes dynamisches Modell der Organisation dieser Prinzipien. Es wird vorgeschlagen, sie zu verwenden, um die Suche nach einem Objekt in einem groben Bild einer Szene zu organisieren, ein Objekt zu verfolgen und gegebenenfalls seine Klassifizierung oder Erkennung auf einer detaillierteren Ebene durchzuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-61656-4_2 b6aa7567bc4273a184acad1f77b16ba6;de;;;7.2.;;;Themenbasierte Erstellung eines persisch-englischen Vergleichskorpus Eine der wichtigsten Fragen beim Cross Language Information Retrieval (CLIR) ist, wo man das Übersetzungswissen erhält. Mehrsprachige Korpora sind für diesen Zweck wertvolle Ressourcen, aber es wurden nur wenige Studien zum Aufbau mehrsprachiger Korpora in persischer Sprache durchgeführt. In dieser Studie schlagen wir eine Methode vor, um ein persisch-englisches vergleichbares Korpus unter Verwendung zweier unabhängiger Nachrichtensammlungen und basierend auf Datums- und Themenkriterien zu erstellen. Im Gegensatz zu den meisten bestehenden Methoden, die Veröffentlichungsdaten als Hauptbasis für das Alignment von Dokumenten verwenden, betrachten wir auch datumsunabhängige Alignments: Alignments, die nur auf Themen und Konzeptähnlichkeiten basieren. Um Alignments von geringer Qualität zu vermeiden, gruppieren wir die Sammlungen anhand ihrer Themen vor den Alignments, was es uns ermöglicht, ähnliche Dokumente mit weit entfernten Veröffentlichungsdaten abzugleichen. Evaluationsergebnisse zeigen die hohe Qualität des konstruierten Korpus und die Möglichkeit, für die Aufgabe von CLIR hochwertiges Assoziationswissen aus dem Korpus zu extrahieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25631-8_41 63f4acc59550ef69681cd1a8b866ba97;de;;;7.2.;;;Eine praktische Methodik zur Entwicklung eines Netzwerks von E-Government-Domain-Ontologien Ontologien werden häufig zur Lösung semantischer Interoperabilitätsprobleme im E-Government-Bereich vorgeschlagen. Allerdings wird methodischen Fragen der Ontologieentwicklung in diesem Bereich weniger Aufmerksamkeit geschenkt. Diese sind nicht ausreichend gelöst. Bestehende Ansätze in der Ontologieentwicklung sind technisch sehr anspruchsvoll und erfordern eine lange Lernkurve und sind daher für diesen Zweck ineffizient. E-Government-Domain-Ontologien könnten eher von Domain-Experten als von Ontologie-Ingenieuren entwickelt werden. Das Papier schlägt eine neuartige Ontologie-Entwicklungsmethodik für die Konstruktion von leichtgewichtigen Domänenontologien vor, indem die Ontologie-Modellierung näher an Domänenexperten gebracht wird, die tatsächliche Domänenwissensträger sind. Der Ansatz wird durch die Entwicklung eines Netzwerks von E-Government-Domain-Ontologien veranschaulicht und bewertet, die verwendet werden, um die semantische Interoperabilität staatlicher Informationssysteme (IS) in Estland zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27260-8_1 c7d22b34d9fe8a90bd6dd26a834149da;de;;;7.2.;;;Theoretische Grundlage Dieses Kapitel beginnt mit einer kurzen Einführung in die verschiedenen Forschungsrichtungen, die die theoretische Grundlage für diese Arbeit bildeten (Abschnitt 3.1). Daran schließt sich die Darstellung der Ideenbewertung als Kernaktivität im Frontend der Innovation an (Abschnitt 3.2). Als Teil dieser Darstellung konzentriert sich die Diskussion auf: (i) warum eine kompetente Ideenbewertung für den NPD-Erfolg wichtig ist, (ii) wie neue Produktideen bewertet werden und (iii) wer neue Produktideen im Frühstadium bewerten sollte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-19784-1_3 0db7a5e33e9aae8b169a6e7d093b7572;de;;;7.2.;;;Eine schnelle Filterung für Ähnlichkeitsabfragen in Motion Capture-Datenbanken Eine Ähnlichkeitsabfrage von Bewegungserfassungsdaten hat in den letzten Jahren beträchtliche Aufmerksamkeit erregt. In diesem Papier konzentrieren wir uns auf Merkmalsextraktion und schnelle Filtermethoden im Ähnlichkeitsabrufsystem. Eine Darstellung von Bewegungserfassungsdaten sind Gelenkwinkel, die verschiedene menschliche Körperhaltungen unterscheiden können. Wir schlagen eine neue Technik zur Dimensionsreduktion vor, die auf dem Durchschnitt und der Varianz von Gelenkwinkeln basiert. Unsere Dimensionsreduktion ist einfach zu verstehen und umzusetzen. In Experimenten werden im Testdatensatz mit insgesamt 60.000 Frames zwanzig Dance-Motion-Clips verwendet, die sich in Länge und Stil unterscheiden. Die Ergebnisse unserer Schnellfilterung zeigen eine Leistung von bis zu 100 % bzw. 70 % beim Recall und der Präzision.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10467-1_35 07c5d057ca0714fec36d29c4e9803606;de;;;7.2.;;;Priorisierte Auswertung von sich kontinuierlich bewegenden Abfragen gegenüber Streaming-Standorten Bestehende Ansätze zur Verwaltung von Streaming-Positionsaktualisierungen gehen im Allgemeinen davon aus, dass alle aktiven Benutzeranforderungen die gleiche Bedeutung haben, und ignorieren die Möglichkeit jeglicher Prioritäten bezüglich der Lieferung von Ergebnissen in geschäftskritischen mobilen Anwendungen. Die Priorisierung von Abfragen könnte entweder explizit nach den Präferenzen der Benutzer oder implizit von der Verarbeitungs-Engine selbst zugewiesen werden, um die Systemlast besser zu regulieren. In dieser Arbeit untersuchen wir speziell die prioritätsbasierte Bewertung von Rangfolge-Abfragen mit kontinuierlicher Reichweite gegen Standorte von sich bewegenden Objekten, die in einen zentralen Prozessor strömen. Wir definieren ein vielseitiges Modell mit alternativen Scoring-Funktionen zur Entscheidung von Bewertungsstrategien, die an die relative Bedeutung von Abfragen und die aktuelle Verteilung von Objekten angepasst werden können. Wir schlagen auch einen Verarbeitungsmechanismus vor, der durch Rangfolgeprioritäten verbessert wird, der die gemeinsame Berechnung nutzt und es ermöglicht, dass kritische Anfragen häufiger Antworten erhalten als weniger anspruchsvolle. Eine umfassende experimentelle Studie mit Performance-Ergebnissen liefert konkrete Beweise dafür, dass ein solches Schema in der Lage ist, zahlreiche bewegte Anfragen unterschiedlicher Priorität und räumlicher Ausdehnung mit minimalem System-Overhead effizient zu handhaben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69497-7_17 36faef1ca9a0b48cea36a19160551cda;de;;;7.2.;;;Eine Bewertung von semantischen Online-Annotatoren für die Aufgabe zur Schlüsselwortextraktion Die Aufgabe der Schlüsselwortextraktion zielt darauf ab, Ausdrücke (oder Entitäten) zu erfassen, die die Hauptthemen eines Dokuments am besten repräsentieren. Angesichts der schnellen Verbreitung dieser semantischen Online-Annotatoren und ihres Beitrags zum Wachstum des Semantic Web besteht eine wichtige Aufgabe darin, ihre Qualität zu bewerten. Dieser Artikel präsentiert eine Bewertung der Qualität und Stabilität semantischer Annotatoren auf domänenspezifischen und offenen Domänenkorpora. Wir werten fünf semantische Annotatoren aus und vergleichen sie mit zwei hochmodernen Keyword-Extraktoren, nämlich KP-miner und Maui. Unsere Auswertung zeigt, dass semantische Annotatoren Keyword-Extraktoren nicht übertreffen können und dass Annotatoren bei Domains mit hoher Keyword-Dichte am besten abschneiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13560-1_44 636404f64ac52366fe5874e874f70c18;de;;;7.2.;;;Kombinieren von kurz- und langfristigen Audiofunktionen für die Erkennung von TV-Sporthighlights Als Träger hochrangiger Semantik wird das Audiosignal immer mehr in der inhaltsbasierten Multimedia-Wiedergewinnung verwendet. In diesem Artikel untersuchen wir die Erkennung von TV-Tennisspielen auf der Grundlage der Verwendung von kurz- und langfristigen Audiofunktionen und schlagen zwei Ansätze vor, Entscheidungsfusion und hierarchischer Klassifikator, um diese beiden Arten von Audiofunktionen zu kombinieren. Da mehr Informationen in die Entscheidungsfindung einfließen, wird die Gesamtleistung des Systems verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/11735106_44 aa9b151aebe56656e63ef23cd677038b;de;;;7.2.;;;JacUOD: Eine neue Ähnlichkeitsmessung für kollaboratives Filtern Kollaboratives Filtern (CF) wird häufig auf Empfehlungssysteme angewendet, da es Benutzern dabei helfen kann, ihre Lieblingsartikel zu entdecken. Eine Ähnlichkeitsmessung, die die Ähnlichkeit zwischen zwei Benutzern oder Gegenständen misst, ist für CF von entscheidender Bedeutung. Traditionelle Ansätze zur Ähnlichkeitsmessung für speicherbasierte CF können jedoch stark verbessert werden. In diesem Beitrag schlagen wir eine neuartige Ähnlichkeitsmessung namens Jaccard Uniform Operator Distance (JacUOD) vor, um die Ähnlichkeit effektiv zu messen. Unser JacUOD-Ansatz zielt darauf ab, den Ähnlichkeitsvergleich für Vektoren in verschiedenen mehrdimensionalen Vektorräumen zu vereinheitlichen. Im Vergleich zu herkömmlichen Ansätzen zur Ähnlichkeitsmessung behandelt JacUOD die Dimensionszahldifferenz für verschiedene Vektorräume richtig. Wir führen Experimente auf Basis der bekannten MovieLens-Datensätze durch und zeigen die Effektivität unseres Ansatzes am Beispiel der nutzerbasierten CF. Die experimentellen Ergebnisse zeigen, dass unser JacUOD-Ansatz eine bessere Vorhersagegenauigkeit erreicht als herkömmliche Ansätze zur Ähnlichkeitsmessung.;-;-;-;https://link.springer.com/article/10.1007/s11390-012-1301-5 15749fb683038e73930b780a1c8609d9;de;;;7.2.;;;TALP auf der GeoCLEF 2006: Experimente mit JIRS und Lucene mit dem ADL Feature Type Thesaurus Dieses Papier beschreibt unsere Experimente in Geographical Information Retrieval (GIR) im Zusammenhang mit unserer Teilnahme an der CLEF 2006 GeoCLEF Monolingual English Aufgabe. Unser System mit dem Namen TALP-GeoIR folgt einer ähnlichen Architektur des GeoTALP-IR-Systems, das auf der GeoCLEF 2005 vorgestellt wurde, mit einigen Änderungen in den Abrufmodi und der Geographical Knowledge Base (KB).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74999-8_124 b5bc6ea7c151ca245da34056854d21e0;de;;;7.2.;;;Hervorhebung von Wiesel-Sätzen zur Förderung kritischer Informationssuche im Web Dieses Papier schlägt ein System vor, das Wieselsätze beim Durchsuchen von Webseiten hervorhebt. Der Begriff Wieselsatz wird im Kontext dieser Arbeit als Zitat mit unbekannter oder nicht identifizierbarer Quelle definiert. Nach dieser Definition erkennt das System automatisch Wieselsätze in durchsuchten Webseiten. Anschließend untersuchen wir, wie sich das Hervorheben von Wieselsätzen auf das Suchverhalten und die Entscheidungsfindung der Nutzer auswirkt, die im Web nach Informationen suchen. Eine Online-Benutzerstudie ergab folgende Ergebnisse: (1) Die Hervorhebung der Wieselsätze ermutigte die Teilnehmer, mehr Zeit in das Surfen im Internet zu investieren und eine größere Anzahl von Webseiten anzuzeigen. (2) Der Effekt von (1) war signifikanter, wenn die Teilnehmer mit den Suchthemen vertraut waren. (3) Beim Surfen im Internet änderte sich das Vertrauen der Suchantworten weniger, wenn die Teilnehmer mit den angegebenen Themen vertraut waren. Die Ergebnisse liefern Erkenntnisse darüber, wie Benutzer das Sammeln von Irreführungen im Web vermeiden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-34223-4_27 1299409a7f735aae293c460741b031f8;de;;;7.2.;;;Leistungsvergleich von Fusionsoperatoren bei der bimodalen Fernerkundungs-Schneeerkennung Dieser Beitrag beschreibt das für die Schneedetektion entwickelte und implementierte System, das auf der Fusion von optischen und Synthetic Aperture Radar (SAR) Fernerkundungsmodalitäten basiert. Die Arbeit konzentriert sich auf den Leistungsvergleich verschiedener Fusionsbetreiber für die Umsetzung der Fusionsstufe. Beim optischen Signal wird der sogenannte Normalized Difference Snow Index (NDSI) verwendet, während bei SAR das binäre Vorhandensein von nassem und trockenem Schnee verwendet wird. Wir berücksichtigen die Soft Data Fusion, ein Framework, in dem mehrere Operatoren enthalten sind. Der Vergleich wird an einem Satz von Satellitenbildern durchgeführt, indem die standardmäßigen Receiver Operating Curves (ROC) und der entsprechende Bereich unter den Kurven (AUC) berechnet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14058-7_22 49fd3cbe29b48498f74a9a118ed9d864;de;;;7.2.;;;Die Evaluierung von Desperado – ein computergestütztes Werkzeug zur Unterstützung der Wiederverwendung von Design Die Wiederverwendung von bisherigem Konstruktionswissen bei der Lösung eines aktuellen Problems ist ein potenziell wichtiger Weg, um die Konstruktionseffizienz zu verbessern. Die ungeführte Wiederverwendung ist jedoch mit Problemen behaftet. Unser aktuelles Ziel ist es, die Probleme im Zusammenhang mit der Wiederverwendung in technischen Kontexten durch ein computergestütztes Unterstützungstool zu begrenzen, das die effektive Codierung von Informationen für die spätere Wiederverwendung anleitet. In diesem Artikel wird eine Evaluierung eines solchen von uns entwickelten Tools vorgestellt, das als Desperado bekannt ist. Die Evaluation umfasste die Beobachtung akademischer Designer, die mit oder ohne Desperado an einem kurzen Design-Briefing arbeiteten. Unsere Beobachtungsdaten werden in Verbindung mit den subjektiven Erfahrungen der Designer bei der Verwendung von Desperado berichtet. Es zeigte sich, dass sich durch die Einführung des Systems zwar die Art der Gestaltungsarbeit der Nutzer veränderte, diese Veränderungen jedoch in erster Linie mit einer besseren Erkundung und Bewertung möglicher Gestaltungsoptionen verbunden waren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0515-2_29 6b3eab3af29b2d2ea2a7de2be03ba3fc;de;;;7.1.;;;Anwendung von Wissensmanagement zur Unterstützung einer virtuellen Organisation von Werkzeug- und Formenbauern Dieses Papier beschreibt einen Rahmen zur Unterstützung des Wissensmanagements in einer virtuellen Organisation, die im Werkzeug- und Formenbau tätig ist. Der gewählte Ansatz zielt darauf ab, einen Wissensmanagement-Lebenszyklus während des Betriebs einer VE anzuwenden, um die Wissenskapitalisierung und -verbreitung innerhalb der VE-Umgebung zu maximieren. Das für die Erstellung und den Betrieb der VE relevante Wissen wird in verschiedenen, aber stark zusammenhängenden Schichten gespeichert, die richtig verwaltet werden müssen. Zugangsrechte, Wissens- und Informationsstand, Datenschutz und sicherheitsrelevante Aspekte sind in dem Rahmenwerk enthalten, wobei berücksichtigt wird, dass jedes Unternehmen das Recht hat zu definieren, wer Zugang zu dem von einem solchen Unternehmen veröffentlichten Wissen hat und in welchem ​​Detaillierungsgrad.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35704-1_37 0092a07e00c68af87d20b675ffc3db9d;de;;;7.1.;;;Computer Anwendungen Dieses Kapitel befasst sich mit einer Reihe von Computeranwendungen. Ziel ist es, Ihnen Kenntnisse und Verständnis für eine Vielzahl von Anwendungen zu vermitteln. Für das GCSE-Niveau sind die allgemeinen Grundsätze wichtiger als detaillierte Kenntnisse über bestimmte Geräte.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-12035-2_11 e5631b6bec72aede53bfed6985c38c12;de;;;7.1.;;;Referenzrahmenwerk für die grüne virtuelle Enterprise-Züchtungsumgebung Ein Green Virtual Enterprise (GVE) ist ein aufstrebendes, nachhaltiges, vernetztes Produktions- und Logistikunternehmensmodell, das sich darauf konzentriert, umweltfreundliche Produkte auf dem Markt anzubieten, zu liefern und vom Markt zurückzuholen, im Rahmen eines Lebenszyklusdenkens und unterstützt durch sein Quellnetzwerk. In diesem Papier wird ein GVE-Zuchtumgebungsreferenzrahmen als gemeinsamer architektonischer Rahmen vorgeschlagen, der einen klaren Ansatz für die Konzeption nachhaltiger und vollständig flexibler Vorwärts- und Rückwärtsversorgungsnetze im Kontext einer Zuchtumgebung bietet, basierend auf fünf Bausteinen: Hauptakteure, Betriebsprinzipien, Lebenszyklus und unterstützende Technologien, um GVEs zu erstellen und zu verwalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23330-2_59 542e9b91b1573eb7860c1508f3580483;de;;;7.1.;;;Design und Implementierung eines linearen Hash-Algorithmus in einer verschachtelten Transaktionsumgebung In diesem Papier präsentieren wir ein Design und eine Implementierung eines linearen Hashing-Algorithmus in einer verschachtelten Transaktionsumgebung, um große Datenmengen zu verarbeiten. Verschachtelte Transaktionen ermöglichen die parallele Ausführung von Transaktionen und verarbeiten Transaktionsabbrüche und sorgen so für mehr Parallelität und effiziente Wiederherstellung. Wir entwerfen ein Client/Server-Modell mit einer geschichteten Systemarchitektur. Wir haben bei unserer Systemimplementierung eine objektorientierte Methodik verwendet, die dabei hilft, die Programmierkomponenten unabhängig zu entwerfen und zu implementieren. In unserem Modell werden Buckets als Objekte und lineare Hash-Operationen als Methoden modelliert. Diese Methoden entsprechen verschachtelten Transaktionen und werden unter Verwendung des Multithreading-Paradigmas implementiert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48309-8_64 d62b22834f3c7072e39adb63ea0dc700;de;;;7.1.;;;Förderung eines effektiven Wissensaustauschs zwischen Teams in der agilen Softwareentwicklung Agile Methoden haben unterschiedliche Praktiken, die letztendlich den Wissensaustausch innerhalb des Teams (KS) fördern. Sie geben jedoch keine Empfehlungen zum Umgang mit teamübergreifenden KS. Die Unterstützung von inter-team KS ist grundlegend für die Skalierung von Agilität in der gesamten Organisation und gilt als der neue Horizont für die agile Softwareentwicklung. Diese Studie versucht, die Effektivität des Wissensaustauschs zwischen Teams in agilen Softwareentwicklungsorganisationen zu verstehen. Anhand der Grounded Theory haben wir Daten von vier brasilianischen Organisationen sowie von einem Experten für agile Methodenimplementierung analysiert. Wir haben beobachtet, dass die Unternehmen unterschiedliche Arbeitspraktiken anwenden, die einen Wissensaustausch über Teamgrenzen hinweg ermöglichen. Unser Hauptbeitrag ist ein konzeptionelles Modell, das erklärt, wie effektiver Wissensaustausch zwischen agilen Teams von der Anwendung zielgerichteter Praktiken sowie organisatorischen Bedingungen und Anreizen abhängt. Dieses Verständnis stellt einen innovativen Fokus im Kontext agiler Methoden dar und zeigt auf, was man beim Beschreiten dieses Weges beachten muss. Es bietet jedoch Möglichkeiten für weitere Studien zur Verfeinerung und Ausweitung des Modells auf andere organisatorische Kontexte. Der Wissensaustausch zwischen Teams spiegelt die Art und Weise wider, wie agile Softwareentwicklungsorganisationen mit der Unternehmensagilität umgehen und Wissen als Ressource für die Wettbewerbsfähigkeit betrachten.;-;-;-;https://link.springer.com/article/10.1007/s10664-014-9307-y 4dcd98e7558e1532040cf9852f90c1d8;de;;;7.2.;;;Usability-Modell für die medizinische Benutzeroberfläche des Beatmungssystems auf der Intensivstation Ein Usability-Modell ist eine hierarchische Struktur, die die Schlüsselelemente wie Benutzer, Benutzeroberfläche und Interaktion zwischen ihnen umfasst. Es handelt sich um eine generische Vorlage, die unabhängig von Usability-Bewertungsmethoden ist und Flexibilität für die Anpassung an verschiedene Kontexte und Domänen bietet. In diesem Beitrag wird ein Usability-Modell für medizinische Benutzerschnittstellen, insbesondere für Beatmungssysteme auf der Intensivstation (ICU), basierend auf Normans handlungsorientiertem Sieben-Schritte-Modell vorgeschlagen, um einen entsprechenden medizinischen Kontext zu erfassen. Ein Beatmungssystem ist ein therapeutisches Gerät, das schwerkranken Patienten eine Atemunterstützung bietet. Derzeit wird die Gebrauchstauglichkeit von Benutzerschnittstellen von Beatmungssystemen durch typische Usability-Bewertungsverfahren aus der Softwareindustrie bewertet. Bei diesen Bewertungsmethoden fehlen wichtige Elemente im medizinischen Kontext. Daher wird ein Bedarf an einem spezialisierten Usability-Modell für medizinische Benutzerschnittstellen mit einem vorgeschlagenen Usability-Modell erfüllt, das wichtige Elemente wie medizinische Benutzer, Benutzerschnittstelle, Intensivstationsumgebung und erforderliche Zeit umfasst. Dieses Usability-Modell wird zunächst durch eine menschliche Arbeitsanalyse anhand von Videos ausgewählter Aufgaben mit medizinischen Benutzeroberflächen und dann mit einem Überblick über kritische Faktoren, die medizinische Benutzeroberflächen auf der Intensivstation beeinflussen, validiert. Zukünftig kann ein vorgeschlagenes Usability-Modell mit einer geeigneten Usability-Bewertungsmethode zur Evaluierung medizinischer Benutzerschnittstellen integriert werden, um damit verbundene medizinische Usability-Probleme effektiver zu identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41145-8_5 1da0be479e9376fdbda2452f74a2e4e3;de;;;7.2.;;;Ein kognitionszentrierter Personalisierungsrahmen für Inhalte aus dem Kulturerbe Die Heterogenität des Publikums von Einrichtungen des Kulturerbes stellt die Bereitstellung der Inhalte vor zahlreiche Herausforderungen. In Anbetracht dessen, dass Menschen sich in der Art und Weise unterscheiden, wie sie Informationen wahrnehmen, verarbeiten und abrufen und dass ihre individuellen kognitiven Unterschiede ihre Erfahrung, Leistung und ihren Wissenserwerb bei der Durchführung von Aktivitäten des kulturellen Erbes beeinflussen, sollte der Faktor menschliche Kognition als wichtiger Personalisierungsfaktor betrachtet werden in kulturhistorischen Kontexten. Zu diesem Zweck schlagen wir einen kognitionszentrierten Personalisierungsrahmen für die Bereitstellung von Aktivitäten zum kulturellen Erbe vor, der auf die kognitiven Eigenschaften der Benutzer zugeschnitten ist. Das Framework implementiert regelbasierte Personalisierungsalgorithmen, die auf kognitionszentrierten Benutzermodellen basieren, die implizit, transparent und zur Laufzeit basierend auf Klassifikatoren erstellt werden, die kognitive Eigenschaften des Endbenutzers mit Interaktions- und visuellen Verhaltensmustern korrelieren. Um den vorgeschlagenen Rahmen zu evaluieren und die externe Validität der experimentellen Ergebnisse zu verbessern, führten wir zwei Eye-Tracking-Inter-Subject-Benutzerstudien durch (;-;-;-;https://link.springer.com/article/10.1007/s11257-019-09226-7 6f4c0d62d236d42b03ef37c24f3dc992;de;;;7.2.;;;Entwerfen eines dezentralen Verkehrsinformationssystems — AutoNomos Wir schlagen ein dezentrales Verkehrsinformationssystem – Auto-Nomos – vor, das auf einer gründlichen Untersuchung der Verkehrseigenschaften basiert und eine hierarchische Datenaggregation und -weiterleitung zur individuellen Information und Unterstützung der Verkehrsteilnehmer empfiehlt. Unser Ansatz unterscheidet sich von der Feldarbeit durch die konsequente Anwendung lokaler Regeln und lokaler dezentraler Datenverarbeitung, die sich als Schlüsseleigenschaft robuster und skalierbarer Computersysteme herausstellt. Wir präsentieren eine flexible VANET-Middleware, die die Anwendungsentwicklung unterstützt, indem sie generische Funktionalität für Verkehrsanwendungen bereitstellt. Wir diskutieren die architektonische Gestaltung des Gesamtsystems und liefern Lösungen für wichtige Gestaltungskonzepte, die die Innovation des Ansatzes demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-92666-5_29 fecb75852d2844cb7ea9ccac32939688;de;;;7.2.;;;Evaluierung kommerzieller OCR: Eine neue zielgerichtete Methodik für Videodokumente In Videostreams eingebettete Texte vermitteln wichtige Informationen für die Dokumentation. Viele Texterkennungs- und -erkennungssysteme wurden entwickelt, um solche Dokumentardaten automatisch aus Videoströmen zu extrahieren. Die meisten beteiligten Forschungsteams argumentieren, dass kommerzielle OCR bei Bildern, die aus einem Videostream extrahiert wurden, nicht richtig funktioniert. So konzipieren sie ihre eigenen Detektionssysteme. Trotzdem wurde kommerzielle OCR noch nie an solchen Korpora bewertet. Dieser Artikel beschreibt eine neue Methode zur Bewertung einer kommerziellen OCR in einem Videodokument. Diese Methodik ist zielorientiert: Das System wird proportional zu den TFIDF-Werten (Term Frequency Inverse Document Frequency) von Texten bestraft [1]. Wir experimentieren unsere Methodik mit Abbyy FineReader 6.0.;-;-;-;https://link.springer.com/chapter/10.1007/11551188_74 4c573a016e8e4400f47d8e0668b07f41;de;;;7.2.;;;Temporale multinomiale Mischung für instanzorientiertes evolutionäres Clustering Evolutionäres Clustering zielt darauf ab, die zeitliche Entwicklung von Clustern zu erfassen. Dieses Thema ist besonders wichtig im Zusammenhang mit Social-Media-Daten, die natürlich zeitlich getrieben sind. In diesem Artikel schlagen wir eine neue probabilistische modellbasierte evolutionäre Clustering-Technik vor. Das Temporale Multinomial Mixture (TMM) ist eine Erweiterung des klassischen Mischungsmodells, das das gleichzeitige Auftreten von Merkmalen im Kompromiss mit der zeitlichen Glätte optimiert. Unser Modell wird für zwei aktuelle Fallstudien zur Meinungsaggregation im Zeitverlauf evaluiert. Wir vergleichen vier verschiedene probabilistische Clustering-Modelle und zeigen die Überlegenheit unseres Vorschlags bei der Aufgabe des instanzorientierten Clusterings.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16354-3_66 ca815e2e180ee9fe8357723644fb5d86;de;;;7.2.;;;Ein Wahrscheinlichkeitsmodell für das Abrufen verwandter Entitäten mithilfe von Beziehungsmustern Da das Web zum größten Wissensrepositorium wird, das verschiedene Entitäten und deren Beziehungen enthält, weckt die Aufgabe des Abrufs verwandter Entitäten das Interesse auf dem Gebiet des Informationsabrufs. Diese anspruchsvolle Aufgabe wird in TREC 2009 Entity Track eingeführt. Bei dieser Aufgabe ist bei gegebener Entität und dem Typ der Zielentität sowie der im Freitext beschriebenen Art ihrer Beziehung ein Abrufsystem erforderlich, um eine Rangliste von verwandten Entitäten vom Zieltyp zurückzugeben. Das bedeutet, dass das Entity-Ranking über die Entity-Relevanz hinausgeht und die Beurteilung der Relation in die Bewertung der gefundenen Entitäten integriert. In diesem Papier schlagen wir ein Wahrscheinlichkeitsmodell vor, das ein Beziehungsmuster verwendet, um die Aufgabe des Abrufens verwandter Entitäten zu lösen. Dieses Modell berücksichtigt sowohl die Relevanz als auch die Beziehung zwischen Entitäten. Wir konzentrieren uns auf die Verwendung von Beziehungsmustern, um den Grad der Beziehungsübereinstimmung zwischen Entitäten zu messen und dann die Wahrscheinlichkeit des Auftretens einer Beziehung zwischen zwei Entitäten abzuschätzen. Darüber hinaus repräsentieren wir Entitäten durch ihr Kontextsprachmodell und messen die Relevanz zwischen zwei Entitäten durch einen Sprachmodellansatz. Experimentelle Ergebnisse des TREC Entity Track-Datensatzes zeigen, dass unser vorgeschlagenes Modell die Abrufleistung gegenüber dem Ausgangswert signifikant verbessert. Auch der Vergleich mit anderen Ansätzen zeigt die Effektivität unseres Modells.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25975-3_28 8429fd742512815e0704e164c62b50b2;de;;;7.1.;;;Zur Relevanz von Unternehmensarchitektur und IT-Governance für die digitale Bewahrung Die digitale Bewahrung wurde als eine der wichtigsten Herausforderungen bei der Bereitstellung vertrauenswürdiger Informationen und nachhaltiger eGovernment-Dienste erkannt. Es gab jedoch wenig Konvergenz bei der Angleichung der technisch orientierten Ansätze, um die Langlebigkeit von Informationen in sich ständig ändernden Technologieumgebungen bereitzustellen, und der organisatorischen Probleme, mit denen öffentliche Stellen konfrontiert sind, durch einen systematischen Rahmen, der organisatorische und technologische Fragen im sozialen Bereich der E-Government.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22878-0_28 3c97d7cf37271dab2e190823463f8b29;de;;;7.1.;;;Dimensionierung und Standortplanung für drahtlose Netzwerke unter mehrstufiger kooperativer Weiterleitung In diesem Beitrag wird das Problem der Netzdimensionierung und Standortplanung in Multi-Hop-Funknetzen untersucht. Eine Schlüsseltechnologie des drahtlosen kooperativen Multi-Level-Relaying (CR) ist integriert, die als effektives Entwurfsparadigma zur Erzielung einer Durchsatzverbesserung anerkannt wurde. Es wird eine mathematische Formulierung vorgestellt, um die Art des Problems zu erfassen und das Verhalten von CR auf mehreren Ebenen zu charakterisieren. Die Aufgaben der Dimensionierung, Relaisplatzierung, Relaiszuordnung und Relaissequenzdesign wurden in einem einheitlichen Optimierungsrahmen berücksichtigt. Die Formulierung ist ein nichtlineares ganzzahliges Programm. Um die hartnäckige Rechenkomplexität in Lösung zu vermeiden, wird ein effizienter zweiphasiger Algorithmus entwickelt. Wir führen eine Reihe von Fallstudien durch, um den vorgeschlagenen Algorithmus zu verifizieren, wobei die Ergebnisse die Effizienz unseres vorgeschlagenen Algorithmus und die signifikanten Vorteile in Bezug auf die Reduzierung der Bereitstellungskosten unter mehrstufiger CR demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01399-7_17 c3f944881ab3b25882e3586395557418;de;;;7.1.;;;Eine qualitative Bewertung von IoT-getriebener eHealth: Wissensmanagement, Geschäftsmodelle und Chancen, Bereitstellung und Evolution eHealth hat ein großes Potenzial, und seine Einführung kann als notwendig erachtet werden, um eine bessere ambulante und ferne medizinische Versorgung, eine höhere Qualität, einen geringeren Personalbedarf und ein geringeres Kostenpotenzial im Gesundheitswesen zu erreichen. In diesem Kapitel versuchen die Autoren, eine vernünftige qualitative Bewertung von IoT-getriebener eHealth aus theoretischer und praktischer Sicht zu geben. Sie befassen sich mit den damit verbundenen Fragen des Wissensmanagements und dem Beitrag des IoT zu eHealth sowie mit Anforderungen, Vorteilen, Einschränkungen und Eintrittsbarrieren. Besondere Aufmerksamkeit wird den Sicherheits- und Datenschutzfragen gewidmet. Abschließend werden die Rahmenbedingungen für Businesspläne und begleitende Wertschöpfungsketten realistisch analysiert. Die sich daraus ergebenden Umsetzungsfragen und erforderlichen Verpflichtungen werden ebenfalls diskutiert. Die Autoren bestätigen, dass IoT-driven eHealth passieren kann und passieren wird, jedoch muss noch viel mehr angegangen werden, um es wieder in Einklang mit medizinischen und allgemeinen technologischen Entwicklungen in eine industrielle State-of-the-Art-Perspektive zu bringen und zu erkennen und zu erhalten rechtzeitig die Vorteile.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94117-2_2 782da846a485993618cea96bfc2e0475;de;;;7.2.;;;Bewertung der Sicherheit von industriellen Steuerungsgeräten: Standards, Technologien und Herausforderungen Cyber ​​Security für industrielle Automatisierungs- und Steuerungssysteme war in den letzten Jahren ein viel diskutiertes Thema. Die Sicherheitsbewertung industrieller Steuergeräte gewinnt zunehmend an Aufmerksamkeit. In diesem Beitrag werden die Sicherheitsbewertungsstandards für industrielle Steuergeräte analysiert und die entsprechenden verschiedenen Zertifizierungen verglichen. In der Zwischenzeit schlägt dieses Papier mehrere wichtige Testtechnologien vor, die bei der Bewertung von Geräten verwendet werden können, und analysiert den Hauptunterschied im Vergleich zu herkömmlichen IT-Geräten. Schließlich wurden in diesem Beitrag die Herausforderungen erörtert, denen wir bei der Bewertung industrieller Steuergeräte gegenüberstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45237-0_57 b06c214d685d885144ee71cfe49da1a5;de;;;7.2.;;;Vergleich von Paragram- und Handschuh-Ergebnissen für Ähnlichkeitsbenchmarks Distributional Semantics Models (DSM) leiten den Wortraum aus linguistischen Elementen im Kontext ab. In diesem Artikel stellen wir einen Vergleich zwischen zwei Methoden zur Nachbearbeitung von Verbesserungen der Basislinien-DSM-Vektoren vor. Die Gegenanpassungsmethode, die Antonymie- und Synonymiebeschränkungen in die Paragram-Vektorraumdarstellungen durchsetzt, zeigte kürzlich eine Verbesserung der Fähigkeit der Vektoren, semantische Ähnlichkeit zu beurteilen. Die zweite Methode ist unsere neuartige RESM-Methode, die auf GloVe-Basislinienvektoren angewendet wird. Durch Anwendung der Hubness-Reduktionsmethode, Implementierung von relationalem Wissen in das Modell durch Nachrüsten von Synonymen und Bereitstellung einer neuen Rangordnungsähnlichkeitsdefinition RESM, die den höchsten Vektorkomponentenwerten maximales Gewicht verleiht, gleichen wir die Ergebnisse für die ESL- und TOEFL-Sätze im Vergleich zu unseren Berechnungen mit die Methoden Paragram und Paragram + Counterfitting. Das Paragram oder unser Cosinus-Retrofitting-Verfahren sind State-of-the-Art-Ergebnisse für den SIMLEX-999 Goldstandard. Anscheinend ist relationales Wissen und Gegenanpassung wichtiger für die Beurteilung semantischer Ähnlichkeit als die Sinnbestimmung für Wörter.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98678-4_25 652c04ee440c0edf08e6d7b94b1fba4d;de;;;7.2.;;;Die Auswirkungen des Gesetzes auf das Rechnungslegungsinformationssystem: Eine Analyse der IAS/IFRS-Einführung in italienischen Unternehmen In letzter Zeit haben mehrere Gesetze (38/2005, 231/2001, 262/2005) das rechtliche System der internen Kontrolle der Unternehmen in Italien überarbeitet, was eine Anpassung des Rechnungslegungsinformationssystems (AIS) erforderte;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-2404-9_56 2d7be5e76a7aab5a820b22cb9844f95e;de;;;7.2.;;;Clustering von Empfehlern beim kollaborativen Filtern mit expliziten Vertrauensinformationen In dieser Arbeit untersuchen wir die Vorteile der Kombination von Clustering- und Social-Trust-Informationen für Recommender-Systeme. Wir demonstrieren die Leistungsvorteile traditioneller Clustering-Algorithmen wie;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22200-9_9 7f22852fa95d873d2f121e79632e6895;de;;;7.2.;;;Modalanalyse – Messungen im Vergleich zu FEM und Simulation künstlicher neuronaler Netze Der Artikel befasst sich mit der experimentellen Modalanalyse von Glaslaminatplatten mit unterschiedlicher Form und diese Ergebnisse werden mit denen verglichen, die durch Anwendungen der künstlichen neuronalen Netze (ANN) und der Finite-Elemente-Methode (FEM)-Simulation erhalten wurden. Wir haben die Abhängigkeit der erzeugten Modenfrequenz als Funktion der Probendicke sowie der Probenform (Rundung) von Glaslaminatproben untersucht. Die Übereinstimmung von experimentellen und simulierten Ergebnissen ist sehr gut.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22389-1_16 c9982194f7231414a97c0fb9a08177b7;de;;;7.2.;;;Stimmungsanalyse mit einer mehrsprachigen Pipeline Die Stimmungsanalyse bezieht sich auf das Abrufen der Stimmung eines Autors aus einem Text. Wir analysieren die Unterschiede, die bei der Stimmungsbewertung zwischen den Sprachen auftreten. Wir präsentieren unsere Experimente für die niederländische und englische Sprache basierend auf im Web verfügbaren Foren-, Blog-, Nachrichten- und Social-Media-Texten, wobei wir uns auf die Unterschiede im Gebrauch einer Sprache und den Einfluss der Grammatik einer Sprache auf die Stimmungsanalyse konzentrieren . Wir schlagen eine mehrsprachige Pipeline vor, um zu bewerten, wie die Meinung eines Autors in verschiedenen Sprachen vermittelt wird. Es gelingt uns, positive und negative Texte mit einer Genauigkeit von ca. 71 % für Englisch und 79 % für Niederländisch korrekt zu klassifizieren. Die Auswertung der Ergebnisse zeigt jedoch, dass die Verwendung gängiger Ausdrücke, Emoticons, Slangsprache, Ironie, Sarkasmus und Zynismus, Akronyme und unterschiedliche Negationsformen im Englischen eine direkte Vergleichbarkeit der zugrunde liegenden Sentimentwerte verhindern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24434-6_10 5d80ec1c76d04ce217505a6996419cc2;de;;;7.2.;;;Nutzung von Neuheit und Vielfalt bei der Tag-Empfehlung Das Design und die Bewertung von Tag-Empfehlungsmethoden haben sich nur auf die Relevanz konzentriert. Andere Aspekte wie Neuheit und Vielfalt können jedoch ebenso wichtig sein, um die Nützlichkeit der Empfehlungen zu bewerten. In dieser Arbeit definieren wir diese beiden Aspekte im Kontext der Tag-Empfehlung und schlagen eine neuartige Empfehlungsstrategie vor, die sie gemeinsam mit Relevanz betrachtet. Diese Strategie erweitert eine hochmoderne Methode basierend auf Genetic Programming um Neuheits- und Diversitätsmetriken sowohl als Attribute als auch als Teil der Zielfunktion. Wir bewerten die vorgeschlagene Strategie anhand von Daten, die von 3 beliebten Web 2.0-Anwendungen gesammelt wurden: LastFM, YouTube und YahooVideo. Unsere Experimente zeigen, dass unsere Strategie die State-of-the-Art-Alternative in Bezug auf Neuheit und Vielfalt übertrifft, ohne die Relevanz zu beeinträchtigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36973-5_32 83f50faf80f15a8a608c5d4ae1003ecb;de;;;7.2.;;;Forschung zum chinesischen Wortsegmentierungsalgorithmus basierend auf speziellen Identifikatoren Chinesische Informationsverarbeitung ist eine mühsame und massive Informationsverarbeitungstechnik, chinesische Textverarbeitung ist, dass das Ganze projektbezogen und einer der wichtigsten Aspekte ist. Dieses Papier stellt ein Wortsegmentierungsverfahren auf der Grundlage spezieller Identifikatoren bereit und realisiert ein Wortsegmentierungssystem durch Kombinieren des speziellen Identifikatorsatzes mit der modifizierten Zwei-Zeichen-Wörterbuchstruktur, bevor es den Vergleichstest für dieses System und andere Wortsegmentierungssysteme von SOUGOU . durchführt Testtext des Trainingskorpus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24010-2_51 06eecfe43b259fdb8cfeebf368ee0998;de;;;7.2.;;;Bewertung der Effektivität des Videoabrufs In diesem Beitrag werden die Ergebnisse der TRECVID-Video-Retrieval-Evaluierungen der letzten zwei Jahre untersucht. Obwohl es ermutigende Beweise für Fortschritte beim Videoabruf gibt, gibt es mehrere große Enttäuschungen, die bestätigen, dass der Bereich des Videoabrufs noch in den Kinderschuhen steckt. Viele Veröffentlichungen schreiben den verschiedenen Techniken unbekümmert Verbesserungen bei den Retrievalaufgaben zu, ohne der statistischen Verlässlichkeit der Vergleiche viel Aufmerksamkeit zu schenken. Wir führen eine Analyse der offiziellen TRECVID-Auswertungsergebnisse durch, wobei wir sowohl die Fehlerraten von Suchversuchen als auch ANOVA-Messungen verwenden, und zeigen, dass der Unterschied zwischen vielen Systemen statistisch nicht signifikant ist. Wir schließen die Arbeit mit den Lehren aus beiden Ergebnissen mit und ohne statistisch signifikantem Unterschied.;-;-;-;https://link.springer.com/chapter/10.1007/11526346_25 9da20196606257388666258bcebea677;de;;;7.2.;;;Konzeptindizierung für die automatisierte Textkategorisierung In diesem Artikel untersuchen wir das Potenzial der Konzeptindizierung mit WordNet-Synsets für die Textkategorisierung im Vergleich zum traditionellen Textdarstellungsmodell für Wörter. Wir haben eine Reihe von Experimenten durchgeführt, in denen wir auch die Möglichkeit testen, einfache, aber robuste Disambiguierungsmethoden für die Konzeptindizierung zu verwenden, sowie die Wirksamkeit von Stopplistenfiltern und Stammzellen auf der semantischen SemCor-Konkordanz. Die Ergebnisse sind nicht schlüssig, aber vielversprechend.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27779-8_17 22a5a03731adc3ae77a43a661aa51a3f;de;;;7.2.;;;Eine Einführung in Crowdsourcing für die Sprach- und Multimediatechnologieforschung Die Sprach- und Multimediatechnologieforschung stützt sich häufig auf große, manuell erstellte Datensätze zum Training oder zur Bewertung von Algorithmen und Systemen. Die Erstellung dieser Datensätze ist oft kostspielig mit erheblichen Herausforderungen in Bezug auf die Rekrutierung von Personal für die Durchführung der Arbeiten. Crowdsourcing-Methoden mit skalierbaren Arbeitskräftepools, die auf Abruf verfügbar sind, bieten ein flexibles Mittel zur schnellen und kostengünstigen Erstellung vieler dieser Datensätze, um bestehende Forschungsanforderungen zu unterstützen und möglicherweise neue Forschungsinitiativen zu fördern, die ansonsten nicht möglich wären.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36415-0_9 9c5e8289f31ad1c22b3c751614db64ca;de;;;7.2.;;;Generieren chinesischer Gedichte aus Bildern basierend auf neuronalen Netzen Die Erzeugung klassischer chinesischer Poesie aus Bildern ist eine überwältigend herausfordernde Arbeit im Bereich der künstlichen Intelligenz. Inspiriert von den jüngsten Fortschritten bei der automatischen Generierung von Bildbeschreibungen und der Generierung chinesischer Gedichte, präsentieren wir in diesem Artikel ein generatives Modell, das auf einem tiefen wiederkehrenden Rahmen basiert, der Bilder in Form von Gedichten beschreibt. Unser Modell besteht aus zwei Teilen, einer besteht darin, Informationen gemäß der in Bildern präsentierten Semantik zu extrahieren, und der andere besteht darin, jede Zeile des Gedichts inkrementell gemäß den extrahierten semantischen Informationen aus den Bildern durch ein rekurrentes neuronales Netzwerk zu generieren. Experimentelle Ergebnisse belegen gründlich die Wirksamkeit unseres Ansatzes durch manuelle Auswertung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-77380-3_52 9b6980548ad985cb6f712350ab593be4;de;;;7.2.;;;Über additive Generatoren von Gruppierungsfunktionen Dieses Papier setzt frühere Arbeiten zu additiven Generatoren von Überlappungsfunktionen fort und führt die Konstruktion von Gruppierungsfunktionen mittels additiver Generatoren ein, die als ein Paar von einstelligen Funktionen definiert sind, die geeignete Eigenschaften erfüllen. Einige wichtige Ergebnisse werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08852-5_26 db225fc2033198df9baac757ab02a708;de;;;7.1.;;;Verbindung von Informatikstudenten der Generation Z mit Technologie durch die Task-Technology-Fit-Theorie In dieser Studie wurde untersucht, wie eine interaktive E-Ressource verwendet werden könnte, um die Leistung der Schüler für eine bestimmte Aufgabe der Informationssysteme zu steigern. Als Akademiker haben wir Mühe, Quellen zu finden, die wirklich mit der „Generation Z“ sprechen, wie sie es vorzieht. Wir wollten herausfinden, ob wir eine solche Ressource schaffen können, um die Leistung der Schüler zu steigern. Diese Studie untersucht die Nützlichkeit eines selbst erstellten E-Lehrbuchs für Systemanalyse und -design durch die Linse der Aufgabentechnologie-Anpassungstheorie. Eine quantitative Datenanalyse wurde an einer Gruppe von Studenten der Wirtschaftsinformatik durchgeführt. Es wurde ein signifikanter Zusammenhang zwischen den Merkmalen der Aufgaben und der zur Durchführung der spezifischen Aufgabe verwendeten Technologie gefunden. Es wurde auch ein signifikanter Zusammenhang zwischen dem Verständnis der Studierenden für die Arbeit und der Verbesserung ihrer Kenntnisse sowie ihren Beiträgen zu einem Team gefunden. Die Generation Z ist stark auf Gleichaltrige angewiesen, obwohl die Literatur sagt, dass ihre sozialen Fähigkeiten unterentwickelt sind. Als Akademiker müssen wir die Generation Z verstehen und wissen, wie sie am liebsten studiert, und dann Inhalte und Werkzeuge für sie entwickeln, damit sie ihr Wissen erweitern und lebenslange Lernende werden können. Hochschulen sollten stärker auf die Studierenden und weniger auf die Lehrenden ausgerichtet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-35629-3_13 ef950ec7741f2e8af9e904f322b563b8;de;;;7.2.;;;Neue Perspektiven auf die Sicherheit von Infosystemen Dieses Papier zeichnet die Geschichte und Entwicklung der verschiedenen Kriterienbemühungen im Zusammenhang mit der Computersystem- und Netzwerksicherheit nach. Es stellt mehrere neue Sicherheitsanforderungen fest, die sich aus neuen Systemarchitekturen, intensiver Vernetzung, unterschiedlichen Betriebsumgebungen und sich entwickelnden Online-Diensten ergeben. Schließlich spekuliert sie über die weitere Rolle der Common Criteria.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35259-6_15 5593e91c0252ef40b1027ca9983257d6;de;;;7.2.;;;Zur Sicherheit der Forensik zur Bildmanipulation In diesem Papier präsentieren wir ein einheitliches Verständnis der formalen Leistungsbewertung für forensische Bildmanipulationstechniken. Beim Hypothesentestmodell wird Sicherheit als die Schwierigkeit bezeichnet, ein vorhandenes forensisches System zu umgehen und es dazu zu bringen, zwei Arten von forensischen Fehlern zu erzeugen, d. h. fehlende und falsche Alarmerkennung. Wir weisen darauf hin, dass die in der aktuellen Literatur selten angesprochene Sicherheit bezüglich des Risikos von Fehlalarmen für die Bewertung der Leistungsfähigkeit von forensischen Manipulationstechniken gleichermaßen wichtig ist. Mit einer Fallstudie zum Resampling-basierten Zusammensetzungs-Forensik-Detektor bestätigen sowohl qualitative Analysen als auch experimentelle Ergebnisse die Richtigkeit und Rationalität unseres Verständnisses zur Manipulationsforensik-Sicherheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24075-6_10 1c84c54f38d0807e2fc5a2c0a2575dbc;de;;;7.2.;;;Subjektive Geschäftspolarisierung: Stimmungsanalyse trifft auf prädiktive Modellierung Das Wachstum des Internets und der Informationstechnologie hat große Veränderungen im Bereich der Kommunikation mit sich gebracht, die heutzutage über soziale Medien oder thematische Foren stattfindet. Dies führte zu einer Flut von frei verfügbaren Informationen: Sie bietet Unternehmen die Möglichkeit, ihre Glaubwürdigkeit zu bewerten und die „Stimmung“ ihrer Märkte zu beobachten. Die Anwendung der Sentiment Analysis (SA) wurde vorgeschlagen, um über objektive Regeln positive oder negative Meinungen aus (unstrukturierten) Texten zu extrahieren. Die Kommunikationsliteratur hebt stattdessen hervor, wie eine solche Polarisierung von einer subjektiven Bewertung der Texte durch die Empfänger herrührt. In Geschäftsanwendungen wird der Empfänger (d. h. der Marketingleiter) von den Werten und der Mission des Unternehmens geleitet. In unserem Papier schlagen wir eine Strategie vor, um Markenimage und Unternehmenswerte mit einer subjektiven SA zu verbinden, ein probabilistischer Kernel-Klassifikator wurde verwendet, um eine Diskriminierungsregel zu erhalten und die Klassifizierungsergebnisse einzustufen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-01863-8_35 782829fe92c3271aea9698a0601b6a6c;de;;;7.2.;;;Abfragevorschläge für textuelle Problemlösungs-Repositorys Textuelle Problemlösungs-Repositorys sind heute in verschiedenen Formen verfügbar, meist als Problemlösungs-Paare aus Community-Frage-Antwort-Systemen. Moderne Suchmaschinen, die im Web arbeiten, können Benutzern während der Eingabe von Abfragen in Echtzeit mögliche Vervollständigungen vorschlagen. Wir untersuchen die Problematik der Generierung intelligenter Abfragevorschläge für Nutzer angepasster Suchsysteme, die eine Abfrage über Problemlösungs-Repositorys ermöglichen. Aufgrund des geringen Umfangs und der Spezialisierung solcher Systeme haben wir oft nicht den Luxus, auf Abfrageprotokolle angewiesen zu sein, um Abfragevorschläge zu finden. Wir schlagen ein Retrievalmodell zum Generieren von Abfragevorschlägen für die Suche nach einer Menge von Problemlösungspaaren vor. Wir machen uns die Problemlösungspartition zunutze, die solchen Repositorys innewohnt, um traditionelle Abfragevorschlagsmechanismen zu verbessern, die für Systeme entwickelt wurden, die allgemeine Textkorpora durchsuchen. Wir evaluieren unsere Technik gegenüber realen Problemlösungsdatensätzen und veranschaulichen, dass unsere Technik große und statistisch signifikante Verbesserungen gegenüber dem Stand der Technik bei der Abfragevorschlagung bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36973-5_48 b83983e089c1763827383cdcfe7e861b;de;;;7.2.;;;Sicherheitsverwaltung für Föderationen, Lagerhäuser und andere abgeleitete Daten Die Sicherheitsverwaltung ist in Datenbanken mit mehreren Ebenen abgeleiteter Daten schwieriger, z. Metadaten (z. B. Sicherheitsanforderungen), die auf jeder Ebene ausgedrückt werden, müssen auf der anderen Ebene sichtbar und verständlich sein. Wir beschreiben mehrere Anwendungsfälle, in denen Schichten verhandeln, um ihre Geschäftsanforderungen in Einklang zu bringen. Die Quellen müssen der abgeleiteten Ebene genügend Berechtigungen gewähren, um die Anwendungen zu unterstützen, die abgeleitete Ebene muss genügend Einschränkungen erzwingen, damit die Bedenken der Quellen erfüllt werden, und die Beziehung zwischen den Berechtigungen an der Quelle und der abgeleiteten Ebene muss sichtbar und überprüfbar sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35508-5_14 ca5a3c1484c8805a8e7568d4d868e903;de;;;7.2.;;;Bewertung der wirtschaftlichen Effektivität von Provinzen mit Rough- und Fuzzy-Sets Der Beitrag stellt das Problem der Einflussbewertung von Menschen, die in den Provinzen eines Landes leben, auf ihren Produktionswert vor. Die Produktion in einer bestimmten Provinz hängt von einer Reihe von wirtschaftlichen Faktoren ab, aber nicht nur. Es hängt auch von Merkmalen von Menschen (nicht nur von Managern) ab wie: organisatorische Cleverness, Fleiß und Einfallsreichtum, Lokalpatriotismus, Engagement und Bildungsniveau. Die Autoren wendeten 2 Methoden zur wirtschaftlichen Effektivitätsbewertung von Provinzen auf der Grundlage von groben und unscharfen Sets an, die es ermöglichen, ihre Vor- und Nachteile zu vergleichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-1902-1_114 84b6b07a8601a53ffd741a4b5ce1da63;de;;;7.2.;;;Analyse des gesamten Blockierungsverhaltens von Banyan-basierten optischen Schaltnetzen unter Nebensprecheinschränkung Vertically Stacked Optical Banyan (VSOB) ist eine attraktive Architektur für den Bau von Banyan-basierten optischen Switches. Die Blockierungsanalyse ist ein effektiver Ansatz, um die Netzwerkleistung zu untersuchen und einen eleganten Kompromiss zwischen Hardwarekosten, Blockierungswahrscheinlichkeit und Übersprechtoleranz zu finden, jedoch wurde wenig unternommen, um das Blockierungsverhalten von VSOB-Netzwerken unter Übersprechbeschränkungen zu analysieren. In diesem Papier untersuchen wir das gesamte Blockierungsverhalten eines VSOB-Netzwerks unter verschiedenen Graden von Übersprechen, wobei eine Obergrenze für die Blockierungswahrscheinlichkeit des Netzwerks entwickelt wird. Die obere Grenze bildet das Gesamtleistungsverhalten eines VSOB-Netzwerks genau ab, wie es durch umfangreiche Simulationsergebnisse verifiziert wurde, und stimmt mit der strikt blockierungsfreien Bedingung des Netzwerks überein. Die abgeleitete obere Grenze ist signifikant, weil sie die inhärente Beziehung zwischen der Blockierungswahrscheinlichkeit und den Netzwerkhardwarekosten offenbart, durch die ein wünschenswerter Kompromiss zwischen ihnen unter verschiedenen Graden von Nebensprecheinschränkungen gemacht werden kann. Außerdem zeigt die obere Grenze, wie das Übersprechen der Theorie von Vermittlungssystemen eine neue Dimension hinzufügt. Insbesondere bietet unser Bound Netzwerkentwicklern ein effektives Werkzeug zur Schätzung der maximalen Blockierungswahrscheinlichkeit eines VSOB-Netzwerks, in dem verschiedene Routing-Algorithmen mit garantierter Leistung in Bezug auf Blockierungswahrscheinlichkeit und Hardwarekosten angewendet werden können. Eine wichtige Schlussfolgerung aus unserer Arbeit ist, dass die Hardwarekosten von VSOB-Netzwerken drastisch reduziert werden können, ohne dass eine signifikant hohe Blockierungswahrscheinlichkeit unter Berücksichtigung des Übersprechens eingeführt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74784-0_11 0d45b114f27a2feb4338d9fa551d3a3d;de;;;7.1.;;;Widerstehen, einhalten oder Abhilfe schaffen? Eine Untersuchung verschiedener Facetten der Benutzerinteraktion mit Informationssystemen Dieses Papier bietet eine Zusammenfassung von Studien zur Benutzerresistenz gegen Informationstechnologie und identifiziert Workaround-Aktivitäten als ein wenig untersuchtes und eigenständiges, aber verwandtes Phänomen. Bisherige Kategorisierungen von Resistenzen haben die Zusammenhänge zwischen den Beweggründen für Verfahrensabweichungen und den damit verbundenen Workaround-Aktivitäten weitgehend versäumt. Dieses Papier entwickelt ein zusammengesetztes Modell von Resistenz/Umgehung, das von zwei Fallstudienstandorten abgeleitet wurde. Wir finden vier wichtige Vorbedingungen, die sowohl aus positiven als auch aus negativen Resistenzgründen abgeleitet sind, und identifizieren Assoziationen und Verbindungen zu verschiedenen resultierenden Problemumgehungsverhalten und liefern unterstützende Beweisketten aus den beiden Fallstudien.;-;-;-;https://link.springer.com/article/10.1057/palgrave.ejis.3000629 99a20f1d377061b3048a58e7df17785f;de;;;7.1.;;;Methodik zur Ermittlung des Bedarfs von KMU an internationalisierten und kollaborativen Netzwerken Dieses Papier bietet eine Methodik zur Unterstützung von Forschern bei der Identifizierung von KMU-Bedürfnissen, die bei der Etablierung kollaborativer Prozesse in nicht-hierarchischen Fertigungsnetzwerken angetroffen werden. Darüber hinaus bestimmt die Methodik auch den Bedarf, wenn nicht-hierarchische Netzwerke ihre Prozesse und Abläufe internationalisieren, um die Globalisierung und das Wettbewerbsumfeld zu überwinden. Das Hauptziel dieser Studie ist es, eine Methodik bereitzustellen, die es Forschern ermöglicht, Faktoren der KMU-Integration mit besonderem Schwerpunkt auf der Internationalisierung von Operationen und der Etablierung von Kooperationsprozessen mit vernetzten Partnern zu unterstreichen. Die bereitgestellte Methodik ist der erste Schritt zur Entwicklung einer zukünftigen empirischen Studie, um die Ergebnisse der auf KMU angewandten Literaturrecherche zu untersuchen und die Bedürfnisse der Unternehmen zu identifizieren, die bei der Etablierung internationalisierter und kollaborativer Prozesse in nicht-hierarchischen Netzwerken aufgetreten sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40361-3_59 cb0c29f3f7e3dfc660aa2ce19b3f0c67;de;;;7.1.;;;Wissensmanagement für ein kooperatives Konstruktionssystem Alle fünf Jahre startet das französische Industrieministerium eine Studie zu den Schlüsseltechnologien der nächsten fünf Jahre. Wissenskapitalisierung war eine der erwähnten Technologien im Jahr 2000. Diese Arbeit beginnt mit der Beschreibung einiger damals prognostizierter Probleme und der tatsächlichen Situation seither. In diesem Zusammenhang wird eine Definition für Wissensmanagement vorgestellt und einige verwandte Konzepte vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/1-84628-210-1_8 28969108419e6b6a90df3b89a33547ab;de;;;7.1.;;;Servicesystem-Innovation Service-Innovation wurde von vielen Autoren diskutiert, aber normalerweise nicht aus einer Systemperspektive. Die aktuelle Literatur über Dienstleistungssysteme und Dienstleistungsinnovation betont kommerzielle Angebote mehrerer Partner, Ökosysteme interagierender Anbieter und Verbraucher, die Globalisierung und die sich wandelnde Natur fortgeschrittener Volkswirtschaften. So interessant diese groß angelegten Themen auch sind, bei Diskussionen auf dieser Ebene werden operative und organisatorische Fragen übersehen, die Service-Innovatoren angehen müssen, um spezifische, lokalisierte Systeme zu schaffen oder zu verbessern, die Services für interne und/oder externe Kunden bereitstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09768-8_5 ef8596fb0bf665f64dacaa4cc1b3c67a;de;;;7.1.;;;Auf geordnete Weise in Richtung Agilität Das Papier schlägt eine neue Methode des Übergangs von der traditionellen Softwareentwicklung (TSD) zur agilen Softwareentwicklung (ASD) vor, die als unterbrechungsfreier Übergang bezeichnet wird. Die Neuheit der Methode besteht darin, die wesentlichen Übergangsschritte zum agilen „Mindset“ vollziehen zu können und dabei im Rahmen eines bereits etablierten TSD-Prozesses zu bleiben. Die Methode wird unter Verwendung einer Wissenstransformationsperspektive entwickelt, um die Hauptmerkmale der ASD-Mentalität und deren Unterschiede zu der von TSD zu identifizieren. Genauer gesagt verwendet es eine Version des SECI-Modells von Nonako, um die Softwareentwicklung darzustellen. Um die aktuelle Denkweise zu analysieren und den Übergang zu einer agileren Denkweise zu planen, schlägt das Papier vor, eine Prozessmodellierungstechnik zu verwenden, die den Softwareentwicklungsprozess als komplexes sozio-technisches System betrachtet. Das Papier diskutiert auch externe Bedingungen, die den Weg zur Agilität behindern könnten und ein Anhalten des Übergangs erfordern, und wie man bei der Entwicklung komplexer Systeme agil wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-62386-3_9 644af3bac538566dc2352014c6d5e6bc;de;;;7.1.;;;Digitale Transformation als Quelle für innovatives Wachstum für kleine und mittlere Unternehmen in Russland Die Digitalisierung des Geschäfts ist für große Unternehmen zu einem mächtigen Instrument zur Effizienzsteigerung geworden. Es hat es ermöglicht, die Geschwindigkeit und Effektivität der Entscheidungsfindung zu erhöhen. Digitale Technologien wurden jedoch vor allem in großen Unternehmen eingeführt. Aber der aktuelle Entwicklungsstand der digitalen Technologie verändert die Situation, immer mehr kleine und mittlere Unternehmen beginnen, moderne digitale Werkzeuge zu verwenden. Ziel der Forschung ist es daher, die Hauptaspekte der digitalen Transformation in kleinen und mittleren Unternehmen (KMU) zu untersuchen und ihre Auswirkungen auf die innovative Entwicklung und Wettbewerbsfähigkeit von KMU zu bestimmen. Die Autoren weisen auf die Untersuchung der digitalen Transformation von KMU in High-Tech-Branchen in Russland hin, da sie heute zu den Lokomotiven des nationalen Wirtschaftswachstums werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-45831-7_7 6e0cf2b843a83aafebbe77c16f6a025e;de;;;7.2.;;;Latent Dirichlet Allocation (LDA) und Themenmodellierung: Modelle, Anwendungen, eine Umfrage Die Themenmodellierung ist eine der leistungsstärksten Techniken im Text Mining für Data Mining, die Ermittlung latenter Daten und das Finden von Beziehungen zwischen Daten und Textdokumenten. Forscher haben viele Artikel auf dem Gebiet der Themenmodellierung veröffentlicht und in verschiedenen Bereichen wie Software Engineering, Politikwissenschaft, Medizin- und Sprachwissenschaft usw. angewendet. Es gibt verschiedene Methoden zur Themenmodellierung, Latent Dirichlet Allocation (LDA) ist eine der am meisten in diesem Bereich beliebt. Forscher haben verschiedene Modelle vorgeschlagen, die auf dem LDA in der Themenmodellierung basieren. Nach früheren Arbeiten wird dieses Papier sehr nützlich und wertvoll für die Einführung von LDA-Ansätzen in die Themenmodellierung sein. In diesem Artikel haben wir hochwissenschaftliche Artikel (zwischen 2003 und 2016) zur Themenmodellierung basierend auf LDA untersucht, um die Forschungsentwicklung, aktuelle Trends und die intellektuelle Struktur der Themenmodellierung zu entdecken. Darüber hinaus fassen wir Herausforderungen zusammen und stellen bekannte Tools und Datensätze in der Themenmodellierung auf Basis von LDA vor.;-;-;-;https://link.springer.com/article/10.1007/s11042-018-6894-4 cfd0c1c398fda2d9c279939dbeb64e8c;de;;;7.2.;;;Teilprozesserkennung: Möglichkeiten für die Prozessdiagnose Die meisten Geschäftsprozesse im wirklichen Leben werden nicht streng von den Informationssystemen gesteuert, die sie unterstützen. Dieses Verhalten spiegelt sich in den von Informationssystemen gespeicherten Spuren wider. Es ist nützlich, in frühen Phasen der Geschäftsprozessanalyse zu diagnostizieren. Die Prozessdiagnose ist Teil des Process Mining und umfasst die Prozessleistungsanalyse, die Erkennung von Anomalien und die Inspektion interessanter Muster erkannten Teilprozesse. Dieser Vorschlag ermöglicht es, die ausgerichteten Spuren zu segmentieren und repräsentative Gruppen von Unterprozessen zu bilden, die den analysierten Prozess bilden. Der erhaltene Baum von Bausteinen spiegelt die hierarchische Organisation wider, die zwischen den Teilprozessen unter Berücksichtigung der wichtigsten Ausführungsmuster aufgebaut wird. Der Vorschlag ermöglicht eine größere Genauigkeit bei der Diagnose. Basierend auf den Erkenntnissen werden Implikationen für Theorie und Praxis diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36611-6_4 5779e5389216f2b70fd45c697ade982b;de;;;7.2.;;;Was ist falsch an der Verbreitung der Innovationstheorie? Dieser Beitrag untersucht den Nutzen der Verbreitung von Innovationsforschung bei der Entwicklung theoretischer Darstellungen der Einführung komplexer und vernetzter IT-Lösungen. Wir kontrastieren sechs Vermutungen, die der DOI-Forschung zugrunde liegen, mit Felddaten, die aus der Untersuchung der Verbreitung von EDI gewonnen wurden. Unsere Analyse zeigt, dass DOI-basierte Analysen einige wichtige Facetten bei der Verbreitung komplexer Technologien übersehen. Wir schlagen vor, komplexe IT-Lösungen als sozial konstruierte und lernintensive Artefakte zu verstehen, die aus unterschiedlichen Gründen in volatilen Diffusionsarenen eingesetzt werden können. Daher sollten DOI-Forscher die komplexen, vernetzten und lernintensiven Merkmale von Technologie sorgfältig erkennen, die Rolle institutioneller Regime verstehen, sich auf Prozessmerkmale (einschließlich Historien) und Schlüsselakteure in der Diffusionsarena konzentrieren, mehrschichtige Theorien entwickeln, die Mappings ausklammern zwischen verschiedenen Schichten und Schauplätzen, verwenden Sie mehrere Perspektiven, einschließlich politischer Modelle, institutioneller Modelle und Theorien des Teamverhaltens, und wenden Sie unterschiedliche Zeitskalen an, während Sie Berichte darüber erstellen, was passiert ist und warum. Im Allgemeinen fordert das Papier die Entwicklung von DOI-Theorien am Standort unter Verwendung mehrerer Analyseebenen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35404-0_11 5534c4472d40e397cf77d86f9897e5b0;de;;;7.2.;;;Kostensensitives Lernen im Social Image Tagging: Review, neue Ideen und Evaluation Das Erlernen von visuellen Konzepten erfordert in der Regel eine Reihe von manuellen Trainingsbildern mit Expertenkennzeichnung. Das Erfassen einer ausreichenden Anzahl zuverlässiger Anmerkungen kann jedoch zeitaufwändig oder unpraktisch sein. Daher ist es in vielen Situationen vorzuziehen, unbeaufsichtigtes Lernen an von Benutzern beigesteuerten Tags aus zahlreichen Quellen wie sozialen Internet-Communitys und Websites durchzuführen. Kostensensitives Lernen ist ein natürlicher Ansatz für das unüberwachte visuelle Konzeptlernen, da es die Genauigkeit des Lernsystems in Bezug auf die Kosten eines Fehlers grundlegend optimiert. In diesem Beitrag wird das Problem des kostensensiblen unüberwachten Lernens visueller Konzepte aus sozialen Bildern beleuchtet, die neuen Ideen vorgestellt und repräsentative Ansätze aus der Forschungsliteratur vergleichend bewertet.;-;-;-;https://link.springer.com/article/10.1007/s13735-012-0022-4 a05106cd27b915fe473720dcb6151b96;de;;;7.2.;;;Relevanz-Feedback für die inhaltsbasierte Bildsuche: Was können drei Mausklicks bewirken? Wir stellen eine neuartige Relevanz-Feedback-Methode für den inhaltsbasierten Bildabruf vor und demonstrieren ihre Wirksamkeit anhand einer Teilmenge der Corel Gallery-Fotosammlung und fünf niedriger Farbdeskriptoren. Relevanzinformationen werden in aktualisierte, analytisch berechnete Deskriptorgewichte und eine neue Abfragedarstellung übersetzt, und somit kombiniert das System Bewegungen sowohl im Abfrage- als auch im Gewichtsraum. Um die Wirksamkeit von Relevanz-Feedback zu beurteilen, bestimmen wir zunächst das Gewichtungsset, das im Durchschnitt für eine Reihe möglicher Abfragen optimal ist. Das resultierende Multiple-Descriptor-Retrieval-Modell liefert signifikante Leistungssteigerungen gegenüber allen Single-Descriptor-Modellen und liefert den Maßstab, an dem wir die zusätzliche Verbesserung durch Relevanz-Feedback messen. Wir modellieren eine Reihe von Szenarien der Nutzer-System-Interaktion, die sich hinsichtlich der genauen Art und des Ausmaßes der Relevanzrückmeldung unterscheiden. In allen Szenarien führt Relevanz-Feedback zu einer signifikanten Verbesserung der Retrieval-Performance, was darauf hindeutet, dass der feedbackinduzierte Performance-Gewinn ein robustes Phänomen ist. Basierend auf einem Vergleich der verschiedenen Szenarien identifizieren wir optimale Interaktionsmodelle, die hohe Performancegewinne bei geringen Betriebskosten für den Benutzer bringen. Um die vorgeschlagene relevante Feedback-Technik zu unterstützen, haben wir ein neuartiges Präsentationsparadigma entwickelt, das es ermöglicht, Relevanz als kontinuierliche Variable zu behandeln.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36618-0_26 4ded0059640555adcd86f768b2ecb9dd;de;;;7.2.;;;Verbesserter Zugang zum Bibliome: der TREC 2004 Genomics Track Das Ziel des TREC Genomics Track ist es, die Informationsbeschaffung im Bereich der Genomik durch die Erstellung von Testsammlungen zu verbessern, die es Forschern ermöglichen, Fehler ihrer Systeme zu verbessern und besser zu verstehen. Der Track von 2004 umfasste eine Ad-hoc-Retrieval-Aufgabe, bei der die Verwendung einer Suchmaschine simuliert wurde, um Dokumente zu biomedizinischen Themen zu erhalten. Dieser Artikel beschreibt den Genomics Track der Text Retrieval Conference (TREC) 2004, ein Forum zur Evaluierung von IR-Forschungssystemen, bei dem kürzlich begonnen wurde, das Retrieval im Bereich der Genomik zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/1747-5333-1-3 30f7cff86a857c86c9f73cdba4795073;de;;;7.2.;;;Verwenden des Informationsgewinns zum Filtern von Informationen in CLEF CL-SR Track Dieses Papier beschreibt die erste Teilnahme des SINAI-Teams am CLEF 2007 CL-SR Track. Das SINAI-Team hat nur an der englischen Aufgabe teilgenommen. Die englische Sammlung umfasst Segmente der Audiospracherkennung und Themen zur Evaluierung der Information Retrieval-Systeme. Diese Sammlung enthält Interviews mit Überlebenden des Holocaust, die manuell segmentiert wurden. Darüber hinaus enthält jedes Segment verschiedene Felder mit zusätzlichen Informationen. Die Themen zur Bewertung der englischen Aufgabe sind in Tschechisch, Englisch, Französisch, Deutsch, Niederländisch und Spanisch verfügbar. In diesem Jahr will das Team nur einen ersten Kontakt mit der Aufgabe und der Kollektion herstellen. Daher wurde die Sammlung mit der Information Gain-Technik vorverarbeitet, um die Felder mit den relevantesten Informationen zu filtern. Das Lemur-Toolkit war das Information Retrieval-System, das in den Experimenten verwendet wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85760-0_91 9ebd8b7355b82e90b43034a192b9fc38;de;;;7.2.;;;Kompakte Zusammenfassung für Mobiltelefone In diesem Papier schlagen wir eine neue Zusammenfassungsmethode vor, die für das Senden von Text an Mobiltelefone geeignet ist. In der mobilen Zugangsforschung ist es ein wichtiges Thema, kompakte und informative Zusammenfassungen auf einem Bildschirm anzuzeigen, der viel kleiner ist als der eines gewöhnlichen Computers. Im Web wurden Dokumente mit verschiedenen Genres veröffentlicht, die Informationen wie Meinungen, Bewertungen usw. präsentieren. Die meisten bisherigen Zusammenfassungsforschungen haben sich jedoch auf sachliche Informationen und Themen in Dokumenten konzentriert. Bei einem Dokument, das die Meinung des Autors vertritt, gingen wir davon aus, dass die Kombination von Sachinformationen und subjektiven Informationen wie Meinungen effektiv wäre, um kurze, aber informative Zusammenfassungen zu erstellen, die den Inhalt der Originaldokumente verständlich machen. Wir schlagen eine Zusammenfassungsmethode vor, die die typische Textstruktur des Genres ausnutzt. Wir testen die Wirksamkeit der vorgeschlagenen Methoden, indem wir drei Benutzer, die das Genre der „Spalten“ im Alltag verwenden, bitten, Zusammenfassungen im Hinblick auf den Wiedererkennungstest wichtiger Sätze zu bewerten und ihr Verständnis von Originaldokumenten nachzuweisen. Mit dem Verständnistest wurde unsere Methode, die auf der Verwendung von Satztypen basiert, als aussagekräftiger bewertet als die bisherigen Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24641-1_13 acc063ba68b76e4e6760e457b2b60c02;de;;;7.1.;;;Die Vorteile der Unternehmensarchitektur bei der organisatorischen Transformation Heute, da Unternehmen ihre Aktivitäten ständig an sich ändernde Umstände anpassen, findet eine kontinuierliche Geschäftstransformation statt. Die Planung und Steuerung dieser Transformation kann jedoch eine entmutigende Aufgabe sein, da im Laufe der Jahre Komplexität in die Organisation eingebaut wurde. Enterprise Architecture (EA) wurde weithin als Planungs- und Governance-Ansatz angepasst, um die Komplexität und den ständigen Wandel zu bewältigen und die Organisation auf ein gemeinsames Ziel auszurichten. Dieser Artikel untersucht den EA-Nutzen-Realisierungsprozess, indem geklärt wird, wie EA-Vorteile realisiert werden. Der Fokus liegt insbesondere auf den Strategien, Ressourcen und Praktiken, von denen der EA profitiert. Die aus einer eingehenden Fallstudie abgeleiteten Ergebnisse zeigen, dass der Prozess der Nutzenrealisierung von EA eine lange, ineinander verflochtene Kette von Aktivitäten darstellt. Organisationen profitieren auf verschiedene Weise von EA: von der Initiierung, wenn sich ein umfassendes Verständnis bildet, bis hin zu Jahren später, wenn messbare Ergebnisse wie Kosteneinsparungen sichtbar werden. Es werden Vorschläge gemacht, was in EA-Programme integriert werden sollte.;-;-;-;https://link.springer.com/article/10.1007/s12599-019-00605-3 0aa661945882e44ce8cba7c113028e97;de;;;7.1.;;;Arbeitsverteilung, Methodik und Technologie für ISD und Wartung Die Informationssysteme, die wir heute um uns herum sehen, unterscheiden sich auf den ersten Blick stark von denen, die vor 30 Jahren entwickelt wurden. Auf der anderen Seite scheinen wir immer noch mit vielen der gleichen Probleme zu kämpfen, wie zum Beispiel verspätete Projekte und unerfüllte Kundenanforderungen. In diesem Artikel präsentieren wir ausgewählte Daten aus Umfrageuntersuchungen, die wir in den Jahren 1993, 1998 und 2003 bei norwegischen Organisationen über die Entwicklung und Wartung von Informationssystemen durchgeführt haben. Die Untersuchungen befassen sich mit vielen der gleichen Bereiche wie frühere Untersuchungen, z.B. von Lientz und Swanson Ende der 1970er Jahre, so können wir über einige Tendenzen der Entwicklung in den letzten 30 Jahren berichten. Ein wichtiges Ergebnis ist, dass selbst wenn wir große Veränderungen in der verwendeten Implementierungstechnologie und -methoden beobachten, eine Reihe von Aspekten wie der Gesamtprozentsatz der Zeit, die für die Wartung und Weiterentwicklung von Systemen in der Produktion verwendet wird, im Vergleich zur Zeit für die Entwicklung bemerkenswert stabil ist. Gleiches gilt für die Ersatzrate, etwa 50 % der zu entwickelnden „neuen“ Systeme sind Ersatzsysteme. Da wir andererseits über komplexere Infrastrukturen verfügen, die die Informationssysteme unterstützen, werden immer mehr Ressourcen für andere Aufgaben wie Betrieb und Benutzerunterstützung verwendet. Für die Unterstützung neuer Informationssysteme in der Organisation steht immer weniger Zeit zur Verfügung;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34732-5_13 040ed8a24f211dc52808ddecc2bb7eca;de;;;7.1.;;;Experimentieren mit Organization Analyser, einem Tool zur Untersuchung von Entscheidungsnetzwerken in Organisationen Dieses Papier berichtet über Experimente mit dem Organization Analyzer (OA), einem Softwareprototyp, der darauf abzielt, die Identifizierung und Analyse von Entscheidungsnetzwerken in Organisationen zu unterstützen. Frühere Forschungen haben gezeigt, dass ein Netzwerkansatz für die Untersuchung von Organisationen von großem Nutzen ist. Diese Forschung hat Organisationen als aus einer Vielzahl unterschiedlicher Arten von Netzwerken zusammengesetzt betrachtet: aufstrebende Netzwerke, etablierte Netzwerke, Kommunikationsnetzwerke, Weinreben usw. Es ist jedoch oft schwierig, einen solchen Ansatz zu operationalisieren, wenn so komplexe Phänomene wie die Entscheidungsfindung in Organisationen untersucht werden und Umsetzung.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34967-1_1 0d87c2134fbc73268222ac1800ab0f95;de;;;7.1.;;;Anpassung von Optimierungsmodellen in volatile Transportszenarien Bei der Online-Optimierung wird eine Folge von Entscheidungsmodellinstanzen generiert und nacheinander gelöst. Die Definition eines neuen aktualisierten Entscheidungsmodells wird durch ein Ereignis ausgelöst, das die Realisierung der bisher verfolgten Lösung gefährdet. Es bleibt keine Zeit, mit den richtigen Parametern für das neue Entscheidungsmodell zu experimentieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27612-5_4 5b273374a1c7819a1d3385c5ffef7fd6;de;;;7.1.;;;Hin zu einem risikoorientierten Sicherheitsanforderungsmanagement in der agilen Softwareentwicklung Der Fokus auf User Stories in Agile bedeutet, dass nicht-funktionale Anforderungen wie Sicherheit nicht immer explizit sind. Dies erschwert es dem Entwicklungsteam, die erforderliche Funktionalität zuverlässig und sicher zu implementieren. Sicherheitschecklisten können helfen, aber sie berücksichtigen nicht den Kontext der Anwendung und sind nicht Teil des Product Backlogs.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-21297-1_12 ec8cafff65b9a42c9355d02eb75f1904;de;;;7.2.;;;Automatisiertes Essay-Scoring mit Multi-Classifier Fusion Die Methode der Multi-Classifier-Fusion wurde auf die Bewertung von Aufsätzen angewendet. In diesem Papier wurde jeder Aufsatz durch das Vector Space Model (VSM) repräsentiert. Nachdem wir die Stoppwörter entfernt hatten, extrahierten wir die Merkmale des Inhalts und der Linguistik aus den Aufsätzen, und jeder Vektor wurde durch die entsprechende Gewichtung ausgedrückt. Drei klassische Ansätze, darunter Dokumentenhäufigkeit (DF), Informationsgewinn (IG) und Chi-Quadrat-Statistik (CHI), wurden verwendet, um Merkmale anhand einiger vorbestimmter Schwellenwerte auszuwählen. Anhand der experimentellen Ergebnisse haben wir den Testaufsatz mit verschiedenen Klassifikatoren wie Naive Bayes (NB), K Nearest Neighbors (KNN) und Support Vector Machine (SVM) in eine geeignete Kategorie eingeteilt. Schließlich wurde der Ensemble-Klassifikator von diesen Komponenten-Klassifikatoren kombiniert. Nach dem Training für die Multi-Classifier-Fusionstechnik zeigen die Experimente zu CET4-Aufsätzen zum gleichen Thema im Chinese Learner English Corpus (CLEC), dass eine Genauigkeit von über 73% erreicht wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24010-2_21 b985de4568edf00f64ee16ea30bc5ab8;de;;;7.2.;;;Grüne Middleware Um Innovationen zu fördern, Energieunabhängigkeit anzugehen, auf die globale Erwärmung zu reagieren und die Widerstandsfähigkeit in Notfällen zu erhöhen, fördern Regierungen auf der ganzen Welt Bemühungen zur Modernisierung von Stromnetzen, indem sie Initiativen für intelligente Netze, E-Energie und E-Mobilität initiieren [5, 6, 3, 4 ]. EIN;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22179-8_18 116ab2a8bb167f18e1c6349be2a9b4fb;de;;;7.1.;;;Untersuchung der Zufriedenheit von Behörden mit elektronischen Aktenverwaltungssystemen im E-Government: Eine groß angelegte Umfragestudie Während E-Government stetig voranschreitet und reift, können fortschrittliche technologische Fähigkeiten allein nicht garantieren, dass die Behörden den vollen Nutzen der ermöglichenden computergestützten Systeme ausschöpfen. Diese Studie analysiert Informationssysteme in E-Government-Umgebungen, indem sie die Zufriedenheit der Behörden mit einem elektronischen Aktenverwaltungssystem (ERMS) untersucht. Insbesondere untersuchen wir die wichtigsten Zufriedenheitsdeterminanten, zu denen die Einhaltung gesetzlicher Vorschriften, die Stellenrelevanz und die Zufriedenheit mit den Supportdiensten für die Nutzung des ERMS gehören. Wir testen unser Modell und die darin enthaltenen Hypothesen anhand einer groß angelegten Umfrage, an der insgesamt 1.652 Regierungsbehörden in Taiwan beteiligt sind. Unsere Ergebnisse zeigen signifikante Auswirkungen der Einhaltung gesetzlicher Vorschriften auf die Stellenrelevanz und die Zufriedenheit mit den Unterstützungsdiensten, die wiederum die Zufriedenheit der Regierungsbehörden mit einem ERMS bestimmen. Unsere Daten passen relativ gut zu unserem Modell, was einen erheblichen Teil der Varianz bei der Zufriedenheit der Agenturen mit einem ERMS erklären kann. Unsere Ergebnisse haben mehrere wichtige Implikationen für Forschung und Praxis, die ebenfalls diskutiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01256-3_3 d469f14c704e6d4d21dcf8b26c492750;de;;;7.1.;;;Infomobilität für „Auto-Fahrer“-Systeme: Referenzmodell und Fallstudie Der vorgeschlagene Ansatz zur Infomobilität basiert auf den Konzepten des Cyber-Physical Systems und der kontextbewussten Entscheidungsunterstützung. Das System „Autofahrer“ wird als kollaboratives cyber-physisches System betrachtet. Seine dynamische Natur wird über die Kontextmanagement-Technologie angesprochen. Der Kontext wird als „Problemsituation“ modelliert. Es spezifiziert Domänenwissen, das die Situation und die in dieser Situation zu lösenden Probleme beschreibt. Eine Anwendung dieser Ideen wird am Beispiel einer Entscheidungshilfe für Autoreisende veranschaulicht. In diesem Beispiel generiert das vorgeschlagene System Ad-hoc-Reisepläne und unterstützt Touristen bei der Planung ihrer Besuchszeiten für Attraktionen in Abhängigkeit von den Kontextinformationen über die aktuelle Situation in der Region und ihre voraussichtliche Entwicklung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44745-1_73 281a7fafc69b847d7189f0f02e988955;de;;;7.1.;;;Bewertung der Fertigungsstrategie für die Unternehmensintegration Bestehende Ansätze zur Unternehmensintegration sind in Bezug auf den strategischen Planungsprozess begrenzt, der jeder größeren Veränderung vorausgehen sollte, wie z. B. Unternehmensintegration, Neugestaltung von Geschäftsprozessen, Einführung der Mobilfunkfertigung usw. Basierend auf unseren Erfahrungen mit erfolgreicher Transformation Fertigungsaktivitäten für Cellular Manufacturing, schlagen wir vor, dass es tatsächlich möglich ist, eine Methodik zur Unterstützung der Bewertung der Fertigungsstrategie zu entwickeln, und dass die Werkzeuge und Techniken, die wir bei der Analyse der bestehenden Umgebungen vor der Einführung von Cellular Manufacturing verwendeten, die Grundlage für eine solche Methodik bilden könnten .;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34983-1_9 1222b696b8fa482c662677803fa456ae;de;;;7.2.;;;Abfrageerweiterung mit den minimalen Relevanzbeurteilungen Abfrageerweiterungstechniken wählen im Allgemeinen neue Abfragebegriffe aus einem Satz von Dokumenten mit dem höchsten Rang aus. Obwohl die manuelle Beurteilung dieser Dokumente durch den Benutzer sehr hilfreich wäre, um gute Erweiterungsbedingungen auszuwählen, ist es in praktischen Situationen schwierig, genügend Feedback von Benutzern zu erhalten. In diesem Papier schlagen wir eine Abfrageerweiterungstechnik vor, die selbst dann gut funktioniert, wenn ein Benutzer nur ein relevantes Dokument und ein nicht relevantes Dokument benachrichtigt. Um diese spezifische Bedingung anzugehen, führen wir zwei Verfeinerungen einer bekannten Abfrageerweiterungstechnik ein. Eine besteht darin, Dokumente, die möglicherweise relevant sind, durch ein transduktives Lernverfahren zu erhöhen, da die relevanteren Dokumente die bessere Leistung erbringen. Das andere ist ein modifiziertes Termbewertungsschema basierend auf den Ergebnissen des Lernverfahrens und einer einfachen Funktion. Experimentelle Ergebnisse zeigen, dass unsere Technik einige traditionelle Methoden in Bezug auf Standardpräzision und Rückrufkriterien übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/11562382_3 84b8eaeec4847cb4f5767eaaa1cfecd2;de;;;7.2.;;;Entwicklung mehrsprachiger Text-Mining-Workflows in UIMA und U-Compare Wir präsentieren eine generische, sprachunabhängige Methode zum Aufbau mehrsprachiger Text-Mining-Workflows. Der vorgeschlagene Mechanismus wird als Erweiterung von U-Compare implementiert, einer Plattform, die auf der Unstructured Information Management Architecture (UIMA) basiert und die Konstruktion, Vergleich und Bewertung interoperabler Text-Mining-Workflows ermöglicht. UIMA unterstützte bisher ausschließlich einsprachige Workflows. Der Aufbau mehrsprachiger Workflows weist herausfordernde Probleme auf, z. B. die Darstellung mehrsprachiger Dokumentensammlungen und die parallele Ausführung sprachabhängiger Komponenten. Als Anwendung unserer Methode entwickeln wir einen mehrsprachigen Workflow, der mit einer neuen Heuristik Begriffe aus einer parallelen Sammlung extrahiert. Für unsere Experimente konstruieren wir ein Parallelkorpus bestehend aus ca. 188.000 PubMed-Artikeltiteln für Französisch und Englisch. Unsere Anwendung wird anhand einer beliebten einsprachigen Termextraktionsmethode, dem C-Wert, bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31178-9_8 eca3d0b3955ed248a6187f5d02cb9aed;de;;;7.1.;;;Eine Beobachtungsstudie einer verteilten kartenbasierten Planungsumgebung Es ist schwierig, verteilte agile Teams bei der Durchführung von Planungsmeetings zu unterstützen. In verteilten Umgebungen ist die Verwendung von Papierkarteikarten für die Planung nicht bequem, da einige Teammitglieder keinen Zugriff auf die physischen Karten haben. Wir präsentieren die Ergebnisse einer Beobachtungsstudie, in der ein auf verteilten Karten basierendes Planungstool im Vergleich zur Planung mit physischen Karten bewertet wurde. Das Feedback der Teilnehmer war ermutigend. Die Ergebnisse zeigten, dass die Teams zum Teil begeistert waren, das Tool zu verwenden, weil Telepointer das Wissen über die Aktionen der anderen Teilnehmer erleichterten. Wir haben auch festgestellt, dass die Kommunikation verbessert wurde, da das Tool das Interesse der Teams an der Besprechung und den Gesprächen zum Thema aufrechterhielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68255-4_6 f4ee48028e37bf7f7d33eca8bad3b015;de;;;7.1.;;;Neue Ansätze für Verkehrsprognosemodelle Im Jahr 1992 vergab die Federal Highway Administration kleine Forschungsaufträge an vier Teams von Verkehrsforschern, um alternative Ansätze zur Verbesserung des Prognoseprozesses für die städtische Reisenachfrage zu entwickeln. Der Zweck dieser Verträge bestand darin, jedem Forschungsteam die Möglichkeit zu geben, zu erklären, wie Verkehrsplanungsmodelle verbessert werden könnten und sollten, um die neuen Prognoseanforderungen der jüngsten Gesetzgebung zu erfüllen, die Auswirkungen neuer Verkehrstechnologien zu berücksichtigen und die Theorien zum Reiseverhalten zu nutzen und Methoden, die sich in den letzten zwei Jahrzehnten entwickelt haben.;-;-;-;https://link.springer.com/article/10.1007/BF00165703 3786f700c13d9ebaf2689ff9e2895c2a;de;;;7.1.;;;Gestaltung von Managemententscheidungen in Organisationssystemen auf der Grundlage der Simulation ihrer Tätigkeit Es werden die methodischen Probleme der Gestaltung eines Entscheidungssystems auf der Grundlage des diskreten Modells kollektiver, zielgerichteter und geregelter Aktivität betrachtet, die Informations- und Funktionsmodelle vorgestellt und die Prinzipien der Bildung der Hierarchie von Zielfunktionen (Kriterien) beschrieben, der allgemeine Algorithmus zur Lösung des Problems, mögliche Methoden der multikriteriellen Optimierung und der parametrischen Synthese in einem komplexen Organisationssystem werden vorgestellt, der Entwurf eines Simulationsmodells des Systems und dessen rechnerische Implementierung vorgestellt.;-;-;-;https://link.springer.com/article/10.1134/S1064230708010188 63cf5c3105c7df40917ec2ddc79a3364;de;;;7.1.;;;Anwendung eines leistungsbasierten Ansatzes zur wirtschaftlichen Bewertung von Informationen Beschrieben wird die Anwendung eines Systemdynamikmodells, um einen Geldwert für die von einem vorgeschlagenen MIS bereitzustellenden Verwaltungsinformationen für die Straßenbetriebsabteilung eines Vertragskraftverkehrsunternehmens bereitzustellen. Das Informationssystem, die Managementrichtlinien und Entscheidungsregeln der Abteilung werden modelliert. Die Ergebnisse der Fallstudie werden präsentiert und es wird argumentiert, den demonstrierten systemdynamischen Ansatz zur ökonomischen Bewertung von Informationen auf andere Organisationen zu übertragen.;-;-;-;https://link.springer.com/article/10.1057/jors.1981.205 2d0ffd8dea2897a1e3578a5498085440;de;;;7.1.;;;Wie entwickelt sich ein Messprogramm in Softwareorganisationen? Die Etablierung eines Software-Messprogramms innerhalb einer Organisation ist keine einfache Aufgabe. Frühere Literaturübersichten haben sich auf die Verbesserung von Softwareprozessen im Allgemeinen konzentriert und Softwaremessungen wurden in Fallstudien analysiert. Diese Literaturübersicht sammelt die Daten einzelner Fälle und stellt die kritischen Erfolgsfaktoren dar, die spezifisch für Software-Messprogramme sind. Wir präsentieren eine Kategorisierung der Erfolgsfaktoren basierend auf organisatorischen Rollen, die an der Messung beteiligt sind. Darüber hinaus werden die wichtigsten Erfolgselemente in verschiedenen Phasen des Lebenszyklus des Messprogramms analysiert. Es scheint, dass die Rolle des oberen Managements zu Beginn der Messung entscheidend ist und der Einfluss der einzelnen Entwickler in den späteren Phasen zunimmt. Die Nutzung der Messdaten und die Verbesserung der Mess- und Entwicklungsprozesse erfordert wieder eine aktive Unterstützung durch das Management.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69566-0_20 442f4df9cbaabccaa25aa11878081ad9;de;;;7.1.;;;Die prädiktive Expertise des Disponenten: eine interdisziplinäre Perspektive Dieser Artikel beschreibt einen Teil eines vierjährigen interdisziplinären Forschungsprogramms (Operations Research, Cognitive Science, Information Systems und Organizational Behaviour), das die Frage „Was ist Planung?“ untersucht und einige der gewonnenen Erkenntnisse präsentiert. Die möglichen Auswirkungen dieser Arbeit auf KI- und OR-Scheduling-Ansätze werden diskutiert und abschließend wird ein Modellierungsparadigma vorgestellt, das sich für das Studium der Planung als nützlich erwiesen hat und in einer fortschrittlichen Planungsplattform implementiert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-12362-9_15 5b625d6ef65eb38a47283049ef97db3d;de;;;7.1.;;;Eine verbesserte computergestützte Prozessplanungsmethode unter Berücksichtigung der Produktionsplanung Die Prozessplanung ist unerlässlich, um ein ausgeklügeltes Fertigungssystem zu erreichen, und die computergestützte Prozessplanung (CAPP) wurde diskutiert. Unter Berücksichtigung der aktuellen Anforderungen zur Realisierung einer agilen Fertigung wurde ein Set flexibler CAPP-Methoden entwickelt, bei denen die Prozessplanung für ein Produkt mit einer Maschine behandelt wird. Bei der tatsächlichen Fertigung werden normalerweise mehrere Werkstücke mit mehreren Werkzeugmaschinen in der gleichen Zeit bearbeitet, und das Streben nach Optimalität für jedes Produkt unabhängig kann zu einer schlechten Produktivität führen. Aus diesem Grund wurde die Integration von Prozessplanung und Produktionsplanung durchgeführt, indem das integrierte Problem als ein 0–1 ganzzahliges Programmierproblem formuliert wurde. Diese Formulierung ist jedoch mit einem enormen Rechenaufwand verbunden. Dieses Papier stellt ein verbessertes Verfahren bereit, bei dem das integrierte Problem als gemischt-ganzzahliges Programmierproblem formuliert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-51133-7_22 03bb066cb1463217df3fe803988460cf;de;;;7.1.;;;Ein konzeptioneller Rahmen zur Modellierung komplexer Anpassungen kollaborativer Netzwerke Das Papier erarbeitet methodische Grundlagen der komplexen Anpassung kollaborativer Netzwerke (CN). Wir betrachten Herausforderungen und zugrunde liegende Prinzipien der CN-Komplexadaption. Anschließend wird die DIMA-Methodik der integrierten CN-Modellierung betrachtet. Der Beitrag endet mit der Vorstellung des fünfstufigen CN-Komplex-Anpassungskonzepts und einer zusammenfassenden DIMA-Methodenanwendung in den CN-Komplex-Anpassungseinstellungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-38269-2_2 349a8f595390a17e4b6024a8e028dd77;de;;;7.2.;;;Ein implizites Aspektmodellierungs-Framework für die diversitätsorientierte Abfrageerweiterung Diversified Query Expansion zielt darauf ab, dem Benutzer eine vielfältige Liste von Abfrageerweiterungen zu präsentieren, um seine Absicht dem Retrieval-System besser mitzuteilen. Gegenwärtige diversifizierte Erweiterungstechniken verwenden entweder externe Wissensquellen, um die verschiedenen Aspekte und ihre Beziehungen, die der Benutzerabfrage zugrunde liegen, explizit zu modellieren oder Abfrageaspekte implizit zu modellieren. Diese Techniken gehen jedoch davon aus, dass Abfrageaspekte unabhängig voneinander sind. Wir schlagen ein einheitliches Framework vor, das völlig implizit diversifizierte Abfrageerweiterungen erzeugt und dabei auch die Beziehungen zwischen Abfrageaspekten berücksichtigt. Insbesondere identifiziert das Framework Abfrageaspekte und ihre Beziehungen, indem es die semantischen Eigenschaften von Kontextphrasen nutzt, die in den am höchsten bewerteten abgerufenen Dokumenten für die bereitgestellte Benutzerabfrage vorkommen, und sie auf ein Mutating-Markov-Chain-Modell abbildet, um eine vielfältige Ordnung zu erzeugen von Abfrageaspekten. Wir testen unser Framework mit einer Reihe von mehrdeutigen und facettenreichen Abfragen, die in der NTCIR-12 IMine-2 Task verwendet werden, und zeigen durch eine umfassende empirische Analyse, dass unser Framework bestehende implizite diversifizierte Abfrageerweiterungsalgorithmen durchweg übertrifft. Der Nutzen unseres Algorithmus zeigt sich erst in der zweiten Reihe von Experimenten, bei denen wir diversifizierte Abfrageerweiterungen für eine Suchmaschine generieren, die Dokumente aus bestimmten wissenschaftlichen Bereichen indiziert. Selbst in einem solchen Nischenszenario liefert unser Algorithmus durchweg robuste Ergebnisse und ist besser als andere implizite Ansätze.;-;-;-;https://link.springer.com/article/10.1007/s10844-019-00581-w 9c27404c8ed70e6bec4228849474ce13;de;;;7.1.;;;CPS-PMBOK: Wie man Cyber-Physical System Development Projekte besser verwaltet Wir schlagen spezifische Praktiken für das Management von Entwicklungsprojekten für Cyber-Physical Systems (CPS) vor. Unser Ansatz heißt CPS-PMBOK, da er auf dem PMBOK-Wissen des Project Management Institute basiert. CPS-PMBOK konzentriert sich auf die Bereiche Integration, Umfang, Humanressourcen und Stakeholder-Wissen, die unter Berücksichtigung einiger Besonderheiten von CPS ausgewählt wurden, wie z. Der vorgeschlagene Ansatz wurde mit Managern und Entwicklern einer F&E-Organisation bewertet, die feststellten, dass die vorgeschlagenen Praktiken mehrere Aspekte im Zusammenhang mit CPS-Projekten verbessern können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-40783-4_9 5a8b58c2e3612215f7aeb746ebcfba98;de;;;7.1.;;;Forschung zum Anwendungsintegrationsmodell für den landwirtschaftlichen Betrieb der integrativen Produktion und Vermarktung Die Integration von Anwendungssystemen in heterogene Umgebungen ist für die meisten landwirtschaftlichen Unternehmen nach und nach zu einer dringenden Anforderung geworden. Die große Vielfalt an Implementierungstechnologien erhöht die Komplexität der Anwendungsintegration. Um die Entwicklung von Integrationslösungen zu erleichtern, schlagen wir die Spezifikation der Anwendungsintegration vor. Dazu analysierten wir die aktuelle Informationslage, das Umfeld von Anwendungssystemen und die spezifischen Anforderungen der Integration. Wir haben auch die Integrationstechnologien studiert. Und dann wurde das ESB-SOA-Modell für den landwirtschaftlichen Betrieb der integrativen Produktion und Vermarktung auf der Grundlage einer Reihe fortschrittlicher Technologien wie ESB, SOA, EAI und Web Service vorgeschlagen. Basierend auf ESB- und SOA-Technologien ist das Modell in der Lage, verschiedene Dienstressourcen in den geografisch verteilten Computerumgebungen effektiv zu nutzen und zu integrieren. Und durch intelligente Agententechnologien unterstützt es Kooperations- und Koordinationsmechanismen für die Serviceaktivitäten. Zur Veranschaulichung und Validierung des Profils wird eine Fallstudie vorgestellt, in der das vorgeschlagene Profil verwendet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18354-6_80 f8dc207cd14d42d367bfd5f56b107541;de;;;7.1.;;;Überblick über objektorientierte Integrationstechnologien In den letzten Jahren gab es ein wachsendes Interesse an der Verwendung verschiedener intelligenter Verarbeitungstechniken, wie beispielsweise neuronalen Netzen, genetischen Algorithmen, Fuzzy-Logik und Expertensystemen, um eine breite Palette komplexer Probleme zu lösen. In vielen Fällen übertreffen intelligente Techniken die traditionelleren statistischen Techniken, jedoch wird auch erkannt, dass jede der Techniken ihre Grenzen hat. Idealerweise kann ein Problem am besten gelöst werden, indem verschiedene Verarbeitungstechniken zugelassen werden, um verschiedene Teile des Problems zu handhaben. Daraus sind intelligente Hybridsysteme entstanden, die verschiedene intelligente Verarbeitungstechnologien kombinieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-1369-4_4 dc3d7b5af3a8c82a46bf77afd6614cf3;de;;;7.2.;;;Ein selbstüberwachter Ansatz zur Extraktion von Attribut-Wert-Paaren aus Wikipedia-Artikeln Wikipedia ist die größte Enzyklopädie im Internet und wird häufig als zuverlässige Informationsquelle verwendet. Forscher haben Entitäten, Beziehungen und Attribut-Wert-Paare aus Wikipedia extrahiert und für Informationsabrufaufgaben verwendet. In diesem Papier präsentieren wir einen selbstüberwachten Ansatz zum autonomen Extrahieren von Attribut-Wert-Paaren aus Wikipedia-Artikeln. Wir wenden unsere Methode auf das Wikipedia-Problem bei der automatischen Infobox-Generierung an und übertrafen eine in der Literatur vorgestellte Methode um 21,92% in der Präzision, 26,86% in der Erinnerung und 24,29% in F1.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16321-0_29 81d735c5c28467e8d3474409473a3a96;de;;;7.2.;;;Zweisprachiges Übersetzungssystem für Wetterbericht Ziel des Papiers ist die Entwicklung eines zweisprachigen Übersetzungssystems für Englisch und Tamil unter Verwendung eines hybriden Ansatzes. Wir verwenden regelbasierte maschinelle Übersetzung (RBMT) und wissensbasierte maschinelle Übersetzung (KBMT). Da es sich um ein zweisprachiges Übersetzungssystem handelt, ist sowohl eine Übersetzung von Englisch nach Tamil als auch von Tamil nach Englisch möglich. Die einfachen Sätze werden nach den Regeln in RBMT übersetzt. Die komplexen Sätze werden mit KBMT in einfache Sätze gespalten/konvertiert und mit RBMT übersetzt und dann verarbeitet, um Text in der Zielsprache zu erhalten. Sie ist auf die Domain Weather Report beschränkt und kann in Zukunft auf weitere Domains ausgeweitet werden;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22726-4_17 e4641833e32a30ab9a95681b67b71da0;de;;;7.2.;;;Faktoren, die den Informationsaustausch, die Zusammenarbeit und die Koordination zwischen Verwaltungsbehörden einer chinesischen Universität beeinflussen Informations- und Kommunikationstechnologie (IKT) verbessert die Effektivität und Effizienz von Regierungsangelegenheiten. Studien zum Einsatz von IKT im Bereich der Bildungsverwaltung sind jedoch rar. Durch einen Mixed-Methods-Ansatz konzentrierte sich die aktuelle Studie auf die Anwendung von IKT in der Bildungsverwaltung, um die Zusammenarbeit zwischen verschiedenen Verwaltungsbehörden einer Universität zu verbessern. Als Beispiel diente eine chinesische Universität. Unter 194 Mitarbeiterinnen und Mitarbeitern des Studiensekretariats und des Studiensekretariats wurde eine Fragebogenerhebung durchgeführt. Die Ergebnisse der Strukturgleichungsmodellierung wurden durch die Analyse von Interviews mit neun Führungskräften aus den genannten Fachbereichen erläutert. Wir haben festgestellt, dass die Autorität der Institution und die Informationssicherheit einen signifikant positiven Einfluss auf den Grad des Informationsaustauschs und die Wirkung der Zusammenarbeit mit Behörden haben, während die Kosten einen signifikant negativen Einfluss haben. Interorganisationales Vertrauen und Organisationskompatibilität haben einen signifikanten positiven Einfluss auf die Wirkung der Agenturzusammenarbeit. Diese Faktoren haben jedoch keinen signifikanten Einfluss auf den Grad des Informationsaustauschs, da es schwierig ist, sie in der Phase des Informationsaustauschs zu unterscheiden. Der Faktor „operative Fähigkeiten“ hat keinen signifikanten Einfluss auf den Grad des Informationsaustauschs und der Agenturzusammenarbeit, was auf den Hintergrund dieser Studie zurückzuführen ist. Der Informationsaustausch hat einen negativen Einfluss auf die Zusammenarbeit mit Agenturen, was unseren Hypothesen widerspricht. Die Art und die Merkmale von Informationen und Abteilungen können akzeptable Erklärungen für dieses Phänomen sein, das wir aus der qualitativen Analyse gewonnen haben.;-;-;-;https://link.springer.com/article/10.1007/s10257-015-0298-z 9cd3545a43bf7669b5063136d5eb36e5;de;;;7.2.;;;Annahme der Airbnb-Plattform durch indische Reisende Ein Großteil der bisherigen wissenschaftlichen Debatte über Sharing Economy hat sich auf den Einsatz von Technologie in entwickelten Ländern konzentriert. Der jüngste Anstieg der Einführung mobiler Technologien in Entwicklungsländern hat jedoch einen geeigneten Nährboden für die Sharing Economy geschaffen. Der Mangel an einheimischen Theorien im Tourismus- und Gastgewerbe mit der erschreckenden Nutzung der einheitlichen Theorie der Akzeptanz und Nutzung von Technologie (UTAUT) macht diese Forschung notwendig. Diese Studie adaptierte das Meta-UTAUT-Modell als theoretische Linse und erweiterte das Modell um hedonische Motivation, Vertrauen und Selbstwirksamkeit. Basierend auf Daten von 301 potenziellen indischen Verbrauchern unterstreichen die Ergebnisse die zentrale Rolle der Einstellung, die die Auswirkungen von Anstrengungserwartung, sozialem Einfluss und erleichternden Bedingungen auf die Absicht der Verbraucher, Airbnb zu nutzen, maßgeblich beeinflusst. In der Zwischenzeit hat sich die Leistungserwartung neben der Einstellung, dem Vertrauen und der Selbstwirksamkeit als wichtiger direkter Bestimmungsfaktor für die Absicht herausgestellt. Das vorgeschlagene Modell erklärte bis zu 65 % Abweichung von der Absicht indischer Verbraucher, Airbnb zu nutzen.;-;-;-;https://link.springer.com/article/10.1007/s10796-020-10060-1 21770e4e52f17b68c924cf20116b5cc0;de;;;7.2.;;;Leistungsanalyse von Methoden künstlicher neuronaler Netze Die komplexen Anforderungen vieler moderner Anwendungen schreien nach flexiblen, anpassungsfähigen Geräten, die schnell als Lösung statt mechanischer Brutalität auf veränderte Umstände reagieren können. Künstliche Neuronale Systeme (ANS) versprechen diese Fähigkeit. Es ist die Absicht dieses Kapitels, Wege zu finden, um diese Leistung und ihre Leistung zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-0713-6_12 201faad5e4b728eacc32284ec7691c55;de;;;7.2.;;;Beibehalten von Informationen zum Abrufen von Passagen unter Verwendung analoger Argumentation in einer Aufgabe zur Beantwortung von Fragen In diesem Artikel untersuchen wir, ob eine Frage und ihre Antwort mit analogem Denken in Beziehung gesetzt werden können, indem verschiedene Arten von Textvorkommen in einer Frageantwortaufgabe (QA) verwendet werden. Wir argumentieren, dass im Kontext des Abrufs von QS-Passagen kostengünstige Sprachmerkmale einen positiven Einfluss auf die Darstellung des Informationsbedarfs haben können, der auch in anderen Passagen mit einigen analogen Merkmalen auftaucht. Wir versuchen, dies durch Abfrageerweiterungs- und Abfragestoppwort-Austauschstrategien zwischen analogen Frage-Antwort-Paaren zu nutzen, die durch ein Bayesian Analogical Reasoning-Framework modelliert werden. Unsere Studie unter Verwendung der Datensätze von ResPubliQA 2009 und 2010 zeigt, dass die vorhergesagte analoge Beziehung zwischen Frage-Antwort-Paaren verwendet werden kann, um den Informationsbedarf der QA-Passage-Abrufaufgabe aufrechtzuerhalten, aber eine schlechte Leistung bei der Bestimmung des Fragetyps hat. Unser bestes Genauigkeitsergebnis wurde durch die Verwendung von . erreicht;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25631-8_44 2991adc61db630015f6fc0ebf6efae07;de;;;7.2.;;;Implementieren der Booleschen Matrixfaktorisierung Die Matrixfaktorisierung oder Faktoranalyse ist eine wichtige Aufgabe, die bei der Analyse hochdimensionaler realer Daten hilfreich ist. Es gibt mehrere wohlbekannte Verfahren und Algorithmen zur Faktorisierung von realen Daten, aber viele Anwendungsgebiete, einschließlich Informationswiedergewinnung, Mustererkennung und Data Mining, erfordern eher die Verarbeitung von binären als realen Daten. Leider versagen die Methoden der reellen Matrixfaktorisierung im letzteren Fall. In diesem Artikel stellen wir den Hintergrund der Aufgabe, neuronale Netze, genetische Algorithmen und nicht-negative Matrix-Fakrotisierungs-basierte Löser vor und vergleichen die Ergebnisse aus Computerexperimenten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87536-9_56 233417e603f3cfb4798c62403b0753d7;de;;;7.2.;;;Zeitliche Videosegmentierung mit Support Vector Machine Ein erster Schritt, der erforderlich ist, um eine Videoindizierung und ein Wiederauffinden von visuellen Daten zu ermöglichen, besteht darin, eine zeitliche Segmentierung durchzuführen, d. h. den Ort von Kameraaufnahmeübergängen zu finden, die entweder abrupt oder allmählich sein können. Wir verwenden die SVM-Technik, um zu entscheiden, ob innerhalb einer gegebenen Videosequenz ein Aufnahmeübergang existiert oder nicht. Eine aktive Lernstrategie wird verwendet, um das Training von SVM-Klassifikatoren zu beschleunigen. Wir führen auch eine neue Funktionsbeschreibung von Videoframes basierend auf Local Binary Pattern (LBP) ein. Der Kosinusabstand wird verwendet, um den Unterschied zwischen Frames in unseren Arbeiten zu qualifizieren. Die vorgeschlagene Methode wird auf der Benchmarking-Plattform TRECVID-2005 evaluiert und die experimentellen Ergebnisse zeigen die Wirksamkeit der Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68636-1_45 4a76d43a770d66451b25db3becb649bb;de;;;7.1.;;;Lernen, Organisationsdesign und Daten abzustimmen Die Beziehung zwischen organisationalem Lernen und Organisationsdesign wird untersucht. Insbesondere untersuchen wir die informationsverarbeitenden Aspekte des organisationalen Lernens in Bezug auf eine zweiwertige Entscheidungsaufgabe und die Beziehung dieser Aspekte zur Organisationsstruktur. Unser Hauptbeitrag besteht darin, Carleys (1992) Modell dieses Prozesses zu erweitern. Das ursprüngliche Modell geht davon aus, dass alle Dateneingaben in die Entscheidungsfindungsprozesse von gleicher Bedeutung oder „Gewicht“ sind, um die richtige Gesamtentscheidung der Organisation zu bestimmen. Die hier beschriebene Erweiterung berücksichtigt die natürlichere Situation uneinheitlicher Beweislasten. Weitere Erweiterungen des Modells werden ebenfalls diskutiert. Solche organisationalen Lernleistungsmessungen bieten einen interessanten Rahmen, um den jüngsten Trend zu flacheren Organisationsstrukturen zu analysieren. Diese Forschung legt nahe, dass flachere Strukturen nicht immer besser sind, sondern dass Datenumgebung, ultimative Leistungsziele und der relative Bedarf an Lerngeschwindigkeit verwendet werden können, um ein Kontingenzmodell für die Wahl der Organisationsstruktur zu bilden.;-;-;-;https://link.springer.com/article/10.1007/BF01299066 135a89cb03669648cd50af61a2197408;de;;;7.2.;;;Überbrückung der Wertmodellierung zu ArchiMate über Transaktionsmodellierung Die Modellierungssprache ArchiMate bietet eine kohärente und ganzheitliche Sicht auf ein Unternehmen in Bezug auf Produkte, Dienstleistungen, Geschäftsprozesse, Akteure, Geschäftseinheiten, Softwareanwendungen und mehr. ArchiMate fehlt es derzeit jedoch an (1) Expressivität bei der Modellierung eines Unternehmens aus einer Werteaustauschperspektive und (2) an Strenge und Richtlinien bei der Modellierung von Geschäftsprozessen, die die aus der Wertperspektive relevanten Transaktionen realisieren. Um diese Probleme zu lösen, zeigen wir, wie man eine Verbindung herstellt;-;-;-;https://link.springer.com/article/10.1007/s10270-012-0299-z f3efeae913895009cda0140ef60b9dae;de;;;7.2.;;;Semantic-Enabled Information Access: Eine Anwendung im Strommarktbereich In diesem Kapitel kombinieren wir Theorien aus Ontologien, Case-Base-Argumentation und Fuzzy-Algebra, um einen neuartigen Rahmen für den semantikgestützten Informationszugriff zu konstruieren. Dieses Framework ist in der Lage, einen umfassenden und effektiven Weg für die Entwicklung semantischer Information Retrieval-Systeme bereitzustellen, die darauf abzielen, spezifische Domänen zu bedienen und in spezifischen Kontexten zu arbeiten. Um die Leser zu erleichtern und auch die Wirksamkeit des vorgeschlagenen Rahmens zu demonstrieren, wird die Theorie durch eine reale Anwendung im Strommarktbereich präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11684-1_2 c3dd05af4396f7c9dae50cb51d85b0c5;de;;;7.2.;;;Bewertung der Extraktion von Referenzzeichenfolgen mit zeilenbasierten bedingten Zufallsfeldern: Eine Fallstudie mit deutschsprachigen Publikationen Die Extraktion einzelner Referenzstrings aus dem Referenzteil wissenschaftlicher Publikationen ist ein wichtiger Schritt in der Zitierextraktionspipeline. Aktuelle Ansätze teilen diese Aufgabe in zwei Schritte auf, indem sie zuerst die Referenzabschnittsbereiche erkennen und dann die Textzeilen in solchen Bereichen in Referenzzeichenfolgen gruppieren. Wir schlagen ein Klassifikationsmodell vor, das jede Zeile in einer Publikation als potentiellen Teil eines Referenzstrings betrachtet. Durch Anwenden von zeilenbasierten bedingten Zufallsfeldern anstelle der Konstruktion des grafischen Modells basierend auf einzelnen Wörtern bieten Abhängigkeiten und Muster, die in Referenzabschnitten typisch sind, starke Eigenschaften, während die Gesamtkomplexität des Modells reduziert wird. Wir haben unseren neuartigen Ansatz RefExt gegen verschiedene State-of-the-Art-Tools (Cermine, GROBID und ParsCit) und einen Goldstandard, der aus 100 deutschsprachigen Volltextpublikationen aus den Sozialwissenschaften besteht, evaluiert. Die Auswertung zeigt, dass wir in der Lage sind, moderne Tools zu übertreffen, die auf der Identifizierung von Referenzabschnittsflächen beruhen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67162-8_15 6e8c8aeee5f5ccb4cfcc68032ae6743f;de;;;7.2.;;;Evaluationsinfrastrukturen für wissenschaftliche Aufgabenteilungen Akademische Suchsysteme unterstützen die Benutzer bei der Suche nach Informationen zu bestimmten Themen von wissenschaftlichem Interesse und haben sich von frühen katalogbasierten Bibliothekssystemen zu modernen Web-Scale-Systemen entwickelt. Die Bewertung der Leistung der zugrunde liegenden Retrieval-Ansätze bleibt jedoch eine Herausforderung. Es müssen immer mehr Anforderungen zur Erzielung genauer Retrievalergebnisse berücksichtigt werden, z. Aufgrund dieser Anforderungen können kleine bis mittelgroße akademische Recherchesysteme ihr Retrievalsystem nicht intern evaluieren. Evaluierungsinfrastrukturen für gemeinsame Aufgaben entschärfen diese Situation. Sie ermöglichen es Forschern, mit Retrieval-Ansätzen in bestimmten Such- und Empfehlungsszenarien zu experimentieren, ohne eine eigene Infrastruktur aufzubauen. In diesem Beitrag gehen wir auf die Vor- und Nachteile von vier modernen Evaluierungsinfrastrukturen für Such- und Empfehlungsaufgaben hinsichtlich der folgenden Anforderungen ein: Unterstützung von Online- und Offline-Evaluierungen, Domänenspezifität von gemeinsamen Aufgaben und Reproduzierbarkeit von Experimenten Ergebnisse. Darüber hinaus stellen wir ein Konzept für eine Evaluierungsinfrastruktur vor, das darauf abzielt, die Mängel bei gemeinsamen Aufgaben für Such- und Empfehlungssysteme zu reduzieren.;-;-;-;https://link.springer.com/article/10.1007/s13222-020-00335-x c98b2c235b29bc2e15cc6ca663e483a5;de;;;7.2.;;;Themen Inferenz durch gewichtete gegenseitige Informationsmaße, berechnet aus einem strukturierten Korpus Comp Dieses Papier schlägt einen neuartigen Rahmen für Themeninferenzen vor, der auf der Skalierbarkeit und Anpassungsfähigkeit von Methoden der gegenseitigen Information (MI) aufbaut. Das Framework soll systematisch ein robusteres Sprachmodell (LM) für themenorientierte Suchbegriffe im Bereich in;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22327-3_7 06cbc58a8cc4cca171de0c7ce835bafa;de;;;7.2.;;;CINDI auf der ImageCLEF 2006: Image Retrieval & Annotation Tasks for the General Photographic and Medical Image Collections Dieses Papier stellt die Techniken und die Analyse verschiedener Durchläufe vor, die von der CINDI-Gruppe in ImageCLEF 2006 eingereicht wurden. Für den Ad-hoc-Abruf von Bildern sowohl aus der fotografischen als auch aus der medizinischen Bildsammlung experimentierten wir mit modaler (Bild und Text) Interaktion und Integration Ansätze basierend auf dem Relevanz-Feedback in Form von textueller Abfrageerweiterung und visueller Abfragepunktbewegung mit adaptiven Ähnlichkeitsvergleichsfunktionen. Für die automatischen Annotationsaufgaben sowohl für die medizinischen als auch für die Objektsammlungen haben wir mit einem Klassifikator-Kombinationsansatz experimentiert, bei dem mehrere probabilistische Multi-Class Support Vector Machine-Klassifikatoren mit Merkmalen auf verschiedenen Ebenen als Eingaben kombiniert werden, um die endgültigen Wahrscheinlichkeitswerte jeder Kategorie vorherzusagen als Bildanmerkung. In diesem Papier wird über die Analyse der Ergebnisse der verschiedenen Durchläufe berichtet, die wir sowohl für die Bildabruf- als auch für die Annotationsaufgaben eingereicht haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74999-8_90 34f1575fc372fedcd084b923efdd69ab;de;;;7.2.;;;Farbpriorität basierende Bildumfärbung für Dichromate In diesem Papier stellen wir einen Algorithmus zur Neufärbung von Bildern für Dichromate gemäß der Schlüsselfarbpriorität vor. Die Sichtbarkeit der mangelhaften Betrachter bildet eine Prioritätsreihenfolge der Schlüsselfarben und wird dann verwendet, um das Umfärbeproblem der Reihe nach in einen Satz kleinerer und richtiger Unterprobleme aufzuteilen. Darüber hinaus kann unser Ansatz sowohl den Farbkontrast als auch die Natürlichkeit gemäß der Schlüsselfarbpriorität effizient und effektiv erhalten. Experimentelle Ergebnisse belegen die Überlegenheit unserer Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15696-0_59 99c243fdcd22ed0ae0e660a6a19e4007;de;;;7.2.;;;Lebenszyklusmodellierung von Nachrichtenereignissen mithilfe der Alterungstheorie In diesem Beitrag wird ein adaptives Verfahren zur Erkennung von Nachrichtenereignissen vorgeschlagen. Wir betrachten ein Nachrichtenereignis als eine Lebensform und schlagen eine Alterungstheorie vor, um seine Lebensdauer zu modellieren. Ein Nachrichtenereignis wird mit einer Flut von Nachrichtenberichten populär und verblasst mit der Zeit. Wir integrieren die vorgeschlagene Alterungstheorie in den traditionellen Single-Pass-Clustering-Algorithmus, um die Lebensdauer von Nachrichtenereignissen zu modellieren. Die Versuchsergebnisse zeigen, dass die vorgeschlagene Methode im Vergleich zu anderen Ansätzen eine ziemlich gute Leistung sowohl für lang andauernde als auch für kurzfristige Ereignisse aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39857-8_7 7b195e32ef4c5d742c5122642de36949;de;;;7.2.;;;Integration von Image Matching und Klassifikation für multimediale Navigation Mit der jüngsten explosionsartigen Zunahme der Bildmenge im World Wide Web ist es immer schwieriger geworden, nach interessanten Bildern zu suchen. Die Klassifizierung von Bildern hilft Benutzern, effizient auf eine große Bildersammlung zuzugreifen. Die Klassifizierung reduziert den Suchraum, indem nicht verwandte Bilder herausgefiltert werden. Die Klassifizierung ermöglicht auch benutzerfreundlichere Schnittstellen: Benutzer können den Ergebnisraum besser visualisieren, indem sie die repräsentativen Bilder der Kandidaten durchsuchen. In diesem Papier stellen wir eine Technik zur Bildklassifizierung basierend auf Farbe, Form und Komposition unter Verwendung der Primärobjekte vor. Wir wenden diese Klassifikationstechnik beim Bildabgleich zum Abrufen von Bildern im Web an. Unsere experimentellen Ergebnisse zeigen, dass dieser Ansatz 73% der Erinnerung aufrechterhalten kann, indem nur 24% des gesamten Datensatzes durchsucht werden. Wir zeigen auch, wie wir eine solche Technik anwenden, um Benutzern bei der Navigation zu helfen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1009662215895 c95c328d723a0705b0edbad0c5a2bef7;de;;;7.2.;;;Von der Substanzialisten- zur Prozessmetaphysik – Exploring Shifts in IS Research Dieser Artikel untersucht die Verschiebungen in der Informationssystemforschung (IS) von einem positivistischen zu einem interpretativen zu einem soziomaterialen Paradigma, indem er zeigt, wie die Verschiebungen den Übergang von der substanziellen hin zur Prozessmetaphysik widerspiegeln. Eine solche metaphysische Grundlage bietet eine Grundlage für ein tieferes Verständnis der Paradigmenunterschiede und der Kämpfe, wenn Veränderungen auftreten. Nach einem kurzen historischen Überblick über die substanzielle und prozessuale Metaphysik und einer Zusammenfassung ihrer wichtigsten Annahmen untersucht der Artikel Paradigmenwechsel in der IS-Forschung und beleuchtet die zugrunde liegende metaphysische Natur der umgebenden Schwierigkeiten und Kontroversen. Der Artikel treibt die Paradigmendebatte voran, indem er auf die metaphysische Natur paradigmatischer Veränderungen in der IS-Forschung aufmerksam macht und intellektuellen Raum für die Konzeption und das Verständnis neuer Forschungsansätze jenseits des Modells von Burrell und Morgan öffnet;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49733-4_3 ad0ac9c49882cb36c0c0fca7a5f0183a;de;;;7.2.;;;Auf dem Weg zu einem fairen Ranking durch die Definition latenter Gruppen mithilfe von abgeleiteten Merkmalen Die Fairness der Gruppe bei Suche und Empfehlung rückt in den letzten Jahren zunehmend in den Fokus. In diesem Beitrag wird untersucht, wie latente Gruppen für ein faires Ranking definiert werden können, die nicht durch in sich geschlossene Merkmale bestimmt werden können, sondern aus externen Datenquellen abgeleitet werden müssen. Insbesondere nehmen wir den Semantic Scholar-Datensatz, der im TREC 2020 Fairness Ranking Track veröffentlicht wurde, als Fallstudie ab und extrahieren mehrere fairnessbezogene Dimensionen der Autorenidentität, einschließlich Geschlecht und Standort, um Gruppen zu bilden. Darüber hinaus schlagen wir einen fairness-bewussten Re-Ranking-Algorithmus vor, der sowohl die gewichtete Relevanz als auch die Vielfalt der zurückgegebenen Elemente für bestimmte Abfragen berücksichtigt. Unsere experimentellen Ergebnisse zeigen, dass verschiedene Kombinationen von relativen Gewichten, die Relevanz-, Geschlechts- und Standortgruppen zugewiesen werden, wie erwartet funktionieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-78818-6_1 d707f82730888bbc9ca689118771d669;de;;;7.2.;;;Was geschah im CLEF 2007 Die Organisation der Evaluierungskampagne des CLEF 2007 wird beschrieben und Einzelheiten zu den Strecken, Testsammlungen, Evaluierungsinfrastruktur und Teilnahme werden bereitgestellt. Die wichtigsten Ergebnisse werden kommentiert und zukünftige Entwicklungen in der Organisation des CLEF werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85760-0_1 4c3013e4fed415bc2f44f8a08e506ce1;de;;;7.1.;;;Zur Erfassung von Prozessanforderungen von Workflow-basierten Wirtschaftsinformationssystemen Die Workflow-Technologie verwaltet die Ausführung von Geschäftsaktivitäten und koordiniert den Informationsfluss im gesamten Unternehmen. Es entwickelt sich zu einer der am schnellsten wachsenden Disziplinen in der Informationstechnologie. Es ist wichtig, die Workflow-spezifischen Anforderungen von Geschäftsinformationssystemen korrekt und effektiv zu erfassen, bevor sie durch Workflow-Management-Systeme bereitgestellt werden. In diesem Papier betrachten wir verschiedene Aspekte bei der Erfassung solcher Anforderungen und schlagen einen systematischen mehrschichtigen Modellierungsansatz vor. Wir teilen die Anforderungen der Workflow-Spezifikation in fünf grundlegende Dimensionen auf: Struktur, Daten, Ausführung, Zeit und Transaktion. Die in diesem Dokument vorgestellten Konzepte wurden als Grundlage für die Entwicklung eines Workflow-Modellierungs- und Verifizierungstools, FlowMake, verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0875-7_23 542031ec53373f9bc7f2cc86bc924cf1;de;;;7.1.;;;Die Datenverarbeitungsabteilung Es ist eines der Paradoxe der Automatisierung, dass es sich um eine arbeitsintensive Tätigkeit handelt. Das heißt, der grundlegende Prozess des Identifizierens, Entwerfens und Erstellens automatisierter Systeme erfordert einen erheblichen Aufwand von Menschen mit vielen unterschiedlichen Fähigkeiten. Die kaufmännische Datenverarbeitung bildet keine Ausnahme von dieser allgemeinen Aussage und fügt ihr insofern eine weitere Dimension hinzu, als auch der Betrieb eines kaufmännischen Rechenzentrums ein erhebliches Spektrum an Fähigkeiten erfordert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-19938-9_13 d2b3fdf4733ca786d785ffda1f96f158;de;;;7.1.;;;Die Erfassung von Informationen vor der Reise: Ein Ansatz mit erklärter Präferenz Dieses Papier beschreibt eine Studie zu den Auswirkungen von Vorabinformationen auf das Reiseverhalten, die im Rahmen des DRIVE-Projekts EURONETT durchgeführt wurde. Ziel der Studie war es, die Anforderungen der Reisenden an unterschiedliche Arten von Reiseinformationen und Erhebungsmethoden zu untersuchen und den Prozess der Informationsbeschaffung auf Veränderungen des Reiseverhaltens zu beziehen. Die Studie wurde unter Verwendung eines festgelegten Präferenzansatzes durchgeführt, der auf der Verwendung einer mikrocomputerbasierten Simulation eines Informationssystems vor der Fahrt zu Hause basiert, das Informationen über die Fahrzeiten von zu Hause ins Stadtzentrum mit Bus und Auto zu verschiedenen Zeiten von der Tag. Ein neues Merkmal der angegebenen Präferenzübung war, dass die Befragten durch den Prozess der Informationsbeschaffung effektiv ihre eigene Auswahl an Alternativen generierten. Parallel dazu wurden Umfragen in Birmingham und Athen durchgeführt, die einen Vergleich des Verhaltens in typischen süd- und nordeuropäischen Umgebungen ermöglichten.;-;-;-;https://link.springer.com/article/10.1007/BF01307058 4cf5dc029bcf122c38761029eacbfb91;de;;;7.2.;;;Konzeptualisierung der virtuellen kollaborativen Arbeit Der Zweck dieser Arbeit ist es, die mit virtueller kollaborativer Arbeit verbundenen Phänomene sowohl aus einer kognitiven als auch aus einer sozial-kognitiven Perspektive zu definieren. Die Autoren stellen einen Ansatz vor, der davon ausgeht, dass alle Menschen natürliche Sinnesmacher, Sinnesgeber und Organisatoren sind. Die Autoren postulieren, dass die kollaborative Arbeit, die wir sowohl in informellen (Ad-hoc-Teams oder Gemeinschaften) als auch in formalen (organisatorischen) Umgebungen beobachten, auf grundlegendem, allgegenwärtigem kognitivem und sozialem Verhalten beruht, das eng mit kontextspezifischen Problemen oder Situationen verbunden ist. Das Papier beginnt mit der Herausforderung, Begriffe wie „virtuell“ und „Team“ neu zu definieren, um den Fokus der Studie subtil von „proximal vs. verteilt“ auf das fruchtbarere „Grundverhalten vs .“ Das Papier stellt dann einen Rahmen für virtuelle kollaborative Arbeit vor und diskutiert seine Auswirkungen auf Fragen im Zusammenhang mit Teams, Führung, Kreativität sowie der Gestaltung und Nutzung von Informationstechnologie.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-73025-7_4 e77a2500c3c42e0be89b069f56849bb0;de;;;7.1.;;;Ein Privacy-Engineering-Framework für das Internet der Dinge Dieses Papier beschreibt ein Privacy-Engineering-Framework für das Internet der Dinge (IoT). Es zeigt, wie bestehende Arbeiten und Forschungen zum IoT-Datenschutz und zum Privacy Engineering in eine Reihe grundlegender Konzepte integriert werden können, die dabei helfen, Privacy Engineering im IoT zu praktizieren. Zu diesen Konzepten gehören Privacy-Engineering-Ziele, Privacy-Protection-Eigenschaften, Privacy-Engineering-Prinzipien, Ermittlung von Anforderungen an den Datenschutz und Gestaltung der zugehörigen Funktionen. Das resultierende Framework macht den entscheidenden Unterschied zwischen Datenschutz-Engineering für IoT-Systeme, die auf Datenverantwortliche, Datenverarbeiter und zugehörige Integratoren abzielen, und Datenschutz-Engineering für IoT-Subsysteme, die auf Lieferanten abzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-50796-5_7 bf2e62bb5028ee11a369267144541035;de;;;7.2.;;;GeoSocialRec: Empfehlungen in standortbasierten sozialen Netzwerken erklären Soziale Netzwerke haben sich mit der Kombination von geografischen Daten zu standortbasierten sozialen Netzwerken (LBSNs) entwickelt. LBSNs geben Benutzern die Möglichkeit, nicht nur miteinander zu kommunizieren, sondern auch Bilder, Videos, Standorte und Aktivitäten zu teilen. In diesem Artikel haben wir ein Online-Empfehlungssystem für LBSNs namens GeoSocialRec implementiert, in dem Benutzer Erklärungen zusammen mit Empfehlungen zu Freunden, Orten und Aktivitäten erhalten. Wir haben eine Benutzerstudie durchgeführt, die zeigt, dass Benutzer dazu neigen, die Meinung ihrer Freunde mehr zu bevorzugen als die Gesamtmeinung der Benutzer. Darüber hinaus ist der bevorzugte Erklärungsstil der Benutzer bei der Freundesempfehlung derjenige, der alle menschlichen Ketten (d.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40683-6_7 d967abbfa590632df0174de1a8a7ff0f;de;;;7.1.;;;Komplexe Objekte vereinfachen: Der PROBE-Ansatz, um sie zu modellieren und abzufragen Mehrere aktuelle Veröffentlichungen haben Anwendungsanforderungen, Datenmodellfähigkeiten oder Implementierungsansätze zur Unterstützung von Objekten mit einer komplexen internen Struktur beschrieben. Diese „komplexen Objekte“ sind interessant, weil sie oft in interessanten neuen Anwendungen von Datenbanken, wie zum Beispiel im Engineering, zu finden sind. Leider wurden die Anforderungen an komplexe Objekte typischerweise beschrieben, ohne sie auf spezifische neue Fähigkeiten zu beziehen, die vom DBMS gefordert werden, und häufig wurden die Erweiterungen an das relationale Modell gebunden. In diesem Beitrag wird versucht, die Anforderungen an solche Fähigkeiten modellunabhängig zu klären. Es zeigt, dass eine relativ kleine Anzahl von Fähigkeiten wirklich benötigt wird, und skizziert, wie wir versuchen, viele davon in PROBE zu integrieren, ein objektorientiertes DBMS, das bei CCA entwickelt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-72617-0_2 2455fad6df66024dd0f626cc8fb30afc;de;;;7.1.;;;Wissenspolitik bei der Nutzung von GIS für das Landmanagement in Indien Dieses Papier konzentriert sich auf das Verständnis der Wissenspolitik, die eine effektive Nutzung von geografischen Informationssystemen (GIS) zur Bewältigung des Landdegradationsproblems in Indien verhindert. Es wird argumentiert, dass die Themen Macht und Wissenspolitik allgegenwärtig in die Darstellung des Problembereichs und der Technologie selbst eingebettet sind. Die Bewältigung dieser Probleme ist ein untrennbarer Bestandteil der Herausforderungen bei der Gestaltung und Implementierung von Informationssystemen. Die theoretische Perspektive wird zunächst um politische Überlegungen im Zusammenhang mit der gemeinsamen Konstruktion und Nutzung von Wissensdomänen entwickelt, die für die Gestaltung von GIS-Anwendungen zur Bekämpfung der Landdegradation relevant sind. Dieser theoretische Rahmen wird herangezogen, um die Politik der Repräsentation, die Politik der unsichtbaren Arbeit und die Politik von Institutionen zu analysieren, die bei einer GIS-Implementierung im ländlichen Indien beobachtet werden. Die Analyse zeigt auch, wie die heimtückischen Auswirkungen einer solchen Politik etwas abgemildert werden können, indem sozio-materielle Netzwerke geschaffen werden, um kommunikatives Handeln zu fördern, das zu einer besseren Design- und Technologieakzeptanz bei den Endnutzern führt.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-8095-6_32 256e5f64a6055324c3b0ce352880b6cf;de;;;7.1.;;;Design und Implementierung einer generischen Softwarearchitektur für das Management von Residential Services der nächsten Generation In diesem Beitrag befassen wir uns mit dem Entwurf einer generischen Architektur für das Management von Wohndienstleistungen. Die Architektur besteht aus Komponenten sowohl auf Kunden- als auch auf Anbieterseite. Die wichtigsten Merkmale der Architektur sind die Service-Modularität, das Konzept der Service-Sessions, Service-Packaging und Subscription. Die Architektur ermöglicht es Dienstanbietern und Telekommunikationsbetreibern, ihren Kunden schnell neue integrierte Mehrwertdienste bereitzustellen. Layer-based Design stellt sicher, dass die Architektur unabhängig von der jeweiligen Service- und Service-Realisierungstechnologie ist. Die Architektur stellt eine allgemeine Zugriffssitzungsverwaltung, Dienstsitzungsverwaltung, Abonnementverwaltung und Abrechnung bereit. Die Implementierung basiert auf J2EE (Java 2 Enterprise Edition). Die verschiedenen Komponenten der Architektur werden zusammen mit den Implementierungsfragen diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35674-7_59 9e1ca3300611e2e128ed1c0bdab5dcae;de;;;7.1.;;;Anwendungen modellbasierter kooperativer Agenten in der Produktionsplanung Das Tri-Base-Bekanntschaftsmodell des Verhaltens des Agenten wird in diesem Papier vorgestellt. Dies stellt eine Erweiterung des Twin-Base-Modells dar [Cao 97]. Basierend auf praktischen Erfahrungen versucht das neue Modell, Parallelverarbeitung, Vorrangbeschränkungen und knappe Ressourcen zu bewältigen. Die Idee, die Verhandlungsprozesse zwischen den Agenten durch die interne Planungsaktivität der Agenten zu ersetzen, wird betont. Diese Strategie wird durch regelmäßige Revisionen des Wissens und der Daten ermöglicht, die in den Tri-Base-Wissens-/Datenbanken enthalten sind.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0054519 e4624e1a1f76f755cc256f53cc45bd0d;de;;;7.1.;;;Effektive organisatorische Reaktion von Unternehmen auf Indiens Liberalisierung und Globalisierung Die indische Wirtschaft begann ab 1991 ernsthaft zu liberalisieren und zu globalisieren. Es werden die wichtigsten Elemente der strukturellen Anpassung der Wirtschaft beschrieben, die ein weitaus wettbewerbsfähigeres und turbulenteres, aber auch chancenreiches Marktumfeld geschaffen haben. Basierend auf früheren westlichen und indischen Forschungen wurde ein Modell für die effektive Bewältigung eines solchen Marktumfelds entwickelt. Das Modell argumentiert, dass die stärkere Nutzung von politischen Rahmenbedingungen, die unternehmerische, organische, professionelle und partizipative Führungsstile repräsentieren, sowie Mechanismen zur Verringerung von Unsicherheit, Differenzierung und Integration tendenziell die Unternehmensleistung in einem solchen Umfeld verbessern, während ihr Fehlen oder eine geringe Nutzung die es. Zur Bewertung des Modells werden vier Informationsquellen herangezogen: veröffentlichte Informationen darüber, wie indische Unternehmen im Allgemeinen mit der wirtschaftlichen Liberalisierung und Globalisierung fertig geworden sind, drei Fallstudien zu Unternehmen, Daten aus einer kürzlich durchgeführten Studie mit 139 indischen Unternehmen und eine weitere Studie mit 54 indischen Unternehmen. Alle vier Quellen stimmen in ihrer Unterstützung für das Modell weitgehend überein. Es werden mehrere Fragen im Zusammenhang mit den Perspektiven der Kontingenz und der strategischen Wahl sowie der Verallgemeinerbarkeit, Anwendbarkeit, Akzeptanz und Verbreitung von Politikrahmen und Neugestaltungsmechanismen erörtert.;-;-;-;https://link.springer.com/article/10.1023/A%3A1016204105440 2e9fcb07aedb30dcb68e81077e49844a;de;;;7.1.;;;Design und Implementierung einer richtlinienbasierten Ressourcenmanagementarchitektur Richtlinienbasiertes Management kann das Verhalten eines Netzwerks oder verteilten Systems durch deklarative Anweisungen auf hoher Ebene steuern, die dynamisch eingeführt, auf Konsistenz überprüft, verfeinert und bewertet werden, was in der Regel zu einer Reihe von Aktionen auf niedriger Ebene führt. Wir sehen Richtlinien tatsächlich als Mittel zur dynamischen Erweiterung der Funktionalität von Managementsystemen in Verbindung mit bereits vorhandener „festverdrahteter“ Managementlogik. In diesem Papier diskutieren wir zunächst die Richtlinienverwaltungsaspekte einer Ressourcenverwaltungsarchitektur für IP Differentiated Services-Netzwerke und konzentrieren uns auf die Funktionalität der Netzwerkdimensionierungskomponente. Anschließend präsentieren wir eine detaillierte Beschreibung des Designs und der Implementierung der Komponenten des Policy-Management-Subsystems, die b, eingesetzt werden müssen, um unser System richtliniengesteuert zu machen. Schließlich präsentieren wir Beispiele für Netzdimensionierungsrichtlinien, die ihre Transformation von ihrer Definition durch den Betreiber bis zu ihrer Durchsetzung beschreiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35674-7_27 1de7a806828402907dd1e647928f95e2;de;;;7.1.;;;„Trust Engineering:“ Von den Anforderungen zum Systemdesign und -wartung – Eine funktionierende nationale Lotteriesystemerfahrung Basierend auf unserer Erfahrung bei der Konzeption, dem Aufbau und der Wartung eines Informationssystems zur Unterstützung einer großen elektronischen Lotterie präsentieren wir in diesem Papier einen einheitlichen Ansatz für die Gestaltung und Implementierung elektronischer Lotterien mit dem Schwerpunkt auf pragmatischer Treuhandgründung. Dieser Ansatz folgt eng den Methoden, die üblicherweise bei der Entwicklung allgemeiner Informationssysteme verwendet werden. Im Mittelpunkt des vorgeschlagenen Ansatzes steht jedoch die Zerlegung eines sicherheitskritischen Systems in Schichten, die grundlegende Vertrauenskomponenten enthalten, um das Vertrauensmanagement zu erleichtern, zuerst entlang der Schichten und dann, wenn wir von Schicht zu Schicht wechseln. Wir glauben, dass ein solch strukturierter Ansatz, der auf Schichten und Vertrauenskomponenten basiert, Designern von sicherheitskritischen Anwendungen helfen kann, nachweislich robuste und überprüfbare Systeme zu entwickeln, die Menschen ohne Zögern verwenden werden.;-;-;-;https://link.springer.com/chapter/10.1007/11556992_4 06bc269b7128d980bce8325a302d0025;de;;;7.1.;;;Zur Integration von Aktionsforschung und Designforschung Die IS-Forschung steht in der Kritik, wenig Einfluss auf die Praxis zu haben. Ein Ansatz, um mehr Relevanz zu erreichen, besteht darin, Forschung mit geeigneten Forschungsmethoden durchzuführen, die die Interessen von Forschern und Praktikern ausbalancieren. In diesem Kapitel werden die Ähnlichkeiten zwischen zwei Methoden untersucht, die diesem Auftrag gerecht werden, indem sie eine proaktive Haltung zur Untersuchung von Informationssystemen in Organisationen einnehmen. Diese beiden Ansätze, Aktionsforschung und Designforschung, greifen beide direkt in Bereiche der „realen Welt“ ein und bewirken Veränderungen in diesen Bereichen. Wir untersuchen diese Ähnlichkeiten, indem wir Exemplare jeder Art von Forschung nach den Kriterien der anderen untersuchen. Unsere Analyse zeigt interessante Parallelen und Ähnlichkeiten zwischen den beiden, was darauf hindeutet, dass die beiden Ansätze viel voneinander lernen können. Basierend auf unserer Analyse schlagen wir Wege vor, um die Integration der beiden Ansätze zu erleichtern, die unserer Meinung nach sowohl für die IS-Forschung im Allgemeinen als auch für die IS-Forschung nützlich sein werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-5653-8_13 750c853f724d87eeb202518eeffb3dc1;de;;;7.1.;;;Arbeit des IEEE P1157 Medical Data Interchange Committee Das Institute of Electrical and Electronics Engineers (IEEE) arbeitet unter der Schirmherrschaft der Engineering in Medicine and Biology Society (EMBS) seit mehreren Jahren an der Entwicklung von Kommunikationsstandards für medizinische Systeme Papier.;-;-;-;https://link.springer.com/article/10.1007/BF01723372 fc32ee7a41982caee9be564e07111de1;de;;;7.2.;;;Prinzipien der menschlichen Leistung, Daten und Datenquellen Source Wenn Überlegungen zu menschlichen Faktoren in das Systemdesign einbezogen werden sollen, müssen Designer in der Lage sein, auf zuverlässige Informationen in brauchbarer Form über menschliche Fähigkeiten und Grenzen leicht zuzugreifen. Im Laufe der Jahre wurden viele Versuche unternommen, diesen Bedarf zu decken. Zwei der jüngsten sind die;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-0437-8_16 49ab54ba8f63641418148bc7d7959a7d;de;;;7.2.;;;Impliziter Wissensaustausch mit autonomem Verhalten der Peer-Gruppe Autonomic Computing ist eine vielversprechende Technik in der Informationstechnologieindustrie. Abhängig vom autonomen Computing in der Peer-Gruppe kann man diese traditionellen, aber scheinbar unlösbaren Aufgaben leicht lösen. Dieses Papier stellt das Distributed Hypertext Categorization System (DHCS) vor, in dem die Directed Acyclic Graph Support Vector Machines (DAGSVM) zum Erlernen von Multi-Class-Hypertext-Klassifikatoren in das autonome Computing von Peer Groups integriert sind. Im Gegensatz zu herkömmlichen Peer-to-Peer-Systemen beschränkt sich das aktuelle Verhalten der Mitglieder von DHCS nicht auf die gemeinsame Nutzung von Ressourcen – Daten, Dateien und andere konkrete Arten, sondern umfasst auch den Austausch von Wissen auf hoher Ebene. Im Prototyp DHCS wird ein impliziter Wissensaustausch zwischen den lokalen Lernmaschinen erreicht, der selbstkonfigurierend und selbstoptimierend ist. Die wichtigsten Probleme, die beim Design und der Implementierung von DHCS auftreten, werden ebenfalls mit Lösungen beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30208-7_117 67475129120907a0d68bbb632ed5daff;de;;;7.2.;;;Eine kapitale Idee Seit der Entstehung des Lebens ist die Erde zu einem Kapitalschöpfungssystem geworden. Die Kapitalschöpfung hat das Gesicht der Welt von einer Ansammlung von Gesteinen, Gasen und Wasser zu einem Ensemble aus Wäldern, Ebenen, Städten und anderen Formen von Kapital verändert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9418-2_1 d1bf8bcdc977bc627c03465f29e30341;de;;;7.2.;;;Der UVA-Farbdokumentendatensatz Publikationen zur Farbbildanalyse von Farbdokumenten präsentieren Ergebnisse zu kleinen, nicht öffentlich verfügbaren Datensätzen. In diesem Papier schlagen wir einen gut definierten und fundierten Farbdatensatz vor, der aus über 1000 Seiten besteht, mit zugehörigen Tools zur Auswertung. Da wir uns auf spezifische Aspekte von Farbdokumenten konzentrieren, lassen wir den Textinhalt des Dokuments in der Ground Truth aus. Die Groundtruthing- und Bewertungstools für Farbdaten basieren auf einem wohldefinierten Dokumentenmodell, Komplexitätsmaßen zur Einschätzung der inhärenten Schwierigkeit einer Seitenanalyse und fundierten Bewertungsmaßstäben. Zusammen bilden sie eine geeignete Grundlage für die Bewertung vielfältiger Anwendungen in der Farbdokumentenanalyse. Sowohl der Datensatz als auch die Tools sind über unsere Website unter http://www.science.uva.nl/UvA-CDD verfügbar;-;-;-;https://link.springer.com/article/10.1007/s10032-004-0135-2 c2867141943a97a33002368d978e038a;de;;;7.2.;;;Dokumentkomprimierung für eine effiziente Query-Biased-Snippet-Generierung Aktuelle Websuchmaschinen geben abfragebezogene Snippets für jedes Dokument zurück, das sie in einer Ergebnismenge auflisten. Aus Effizienzgründen müssen Suchmaschinen, die mit großen Sammlungen arbeiten, Snippets für allgemeine Abfragen zwischenspeichern und Dokumente zwischenspeichern, um eine schnelle Generierung von Snippets für nicht zwischengespeicherte Abfragen zu ermöglichen. Um die Trefferquote in einem Dokumentencache während der Snippet-Generierung zu verbessern, schlagen wir verschiedene Schemata zur Reduzierung der Dokumentengröße vor und evaluieren sie, wodurch die Anzahl der Dokumente im Cache erhöht wird. Insbesondere sprechen wir uns gegen weitere Verbesserungen der Dokumentenkomprimierung aus und plädieren für Schemata, die Dokumente basierend auf den;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00958-7_45 927aa6d7b8c7b3d379b1d5323f99ac6c;de;;;7.2.;;;Datenverarbeitungsmethode eines kleinen Kommunikationssystems mit fünf Sinnen Wir haben ein kleines Kommunikationssystem mit fünf Sinnen entwickelt. Das System besteht aus einem Fünf-Sinne-Informationserkennungssystem und einem Fünf-Sinne-Informationsverarbeitungssystem. Das System misst den Hautwiderstand und den Fingerdruck einer Person als Tastsinn, Umgebungsgeräusche als Gehör bei einem Geräuschsensor, Umgebungslicht als Sehsinn bei einem Beleuchtungssensor, Gas (Geruch) als Sinn von Geruch durch einen Gassensor und Puls und Temperatur einer Person als Gesundheitsinformationen durch einen Pulssensor und einen Temperatursensor. Wir haben mit dem System experimentiert. Ein Sender überträgt seine Daten an einen Empfänger. Wir fanden, dass das System nützlich sein könnte, um die Situation einer Person an einem abgelegenen Ort zu bestimmen. Wir haben festgestellt, dass das Verfahren zum Hervorheben und Anzeigen eines Datenwerts (Daten von Rauschen und Licht) besser bewertet wurde als das Verfahren zum Anzeigen von sieben Datentypen, wie sie sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45226-3_102 653abf06e58910a5e121db0381af4d9a;de;;;7.1.;;;Dezentrales und kollaboratives Produktionsmanagement — Voraussetzung für eine global verteilte Fertigung Aufgrund aktueller Markttrends steigt die Notwendigkeit einer dezentralen und kollaborativen Produktionssteuerung und wird immer komplexer. In dieser Situation spezifiziert das ESPRIT-Projekt DECOR einen Rahmen für verteiltes intra- und interorganisationales Produktionsmanagement. Darüber hinaus wird ein allgemeines Informationssystemkonzept entwickelt, das mehrstufige, verteilte und autonome Entscheidungssysteme konzipiert, unterstützt und koordiniert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34879-7_44 db02910e7ee9dee9dfd7df706f4dfa32;de;;;7.1.;;;Designprobleme für agentenbasierte Ressourcenlokalisierungssysteme Während Wissen von vielen als Vermögenswert angesehen wird, ist es oft schwierig, bestimmte Elemente in einem großen elektronischen Korpus zu finden. Dieses Whitepaper stellt ein agentenbasiertes Framework für die Lokalisierung von Ressourcen vor, um eine bestimmte Abfrage zu lösen, und betrachtet das damit verbundene Designproblem. Aspekte der vorgestellten Arbeit ergänzen die aktuelle Forschung sowohl zu Expertisefindern als auch zu Empfehlungssystemen. Die wesentlichen Aspekte für das vorgeschlagene Design sind Skalierbarkeit sowie die Fähigkeit, zu lernen und sich an sich ändernde Ressourcen anzupassen. Da Wissen in elektronischen Ressourcen oft implizit und daher schwer zu finden ist, haben wir die Verwendung von Ontologien vorgeschlagen, um die Semantik zu extrahieren und die Bedeutung abzuleiten, um die erforderlichen Ergebnisse zu erhalten. Wir untersuchen den Einsatz von Praxisgemeinschaften, wenden ontologiebasierte Netzwerke und den Austausch von E-Mail-Nachrichten an, um den Ressourcenfindungsprozess zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36277-0_15 50b0164c815844f483e559eada157d37;de;;;7.1.;;;Kollaboratives BP Engineering in Allianzen von KMU Um den wirtschaftlichen Zwängen gerecht zu werden, konzentrieren sich Unternehmen immer mehr auf ihr eigenes Geschäft. Dieser Trend beinhaltet die Erneuerung der Unternehmensorganisation, um eine unternehmensübergreifende Partnerschaft zu integrieren. Diese virtuellen (oder erweiterten oder vernetzten) Unternehmensorganisationen benötigen Modellierungstechniken, die die Zusammenarbeit zwischen Unternehmen berücksichtigen und flexibel und schlank genug sind, um in „kurzfristigen“ Projekten eingesetzt zu werden. Dies kann dazu führen, dass Managementmodi, die zuvor den Produktionsaktivitäten gewidmet waren, angepasst werden, um Engineering-Aktivitäten einzubeziehen. Zu diesem Zweck haben wir einen Modellierungsrahmen vorgeschlagen, der sowohl statische als auch dynamische Sichtweisen auf die Allianzorganisation integriert. Dieser duale Ansatz kann verwendet werden, um die Entwicklung der Allianzen zu kontrollieren oder die Art und Weise zu steuern, wie gemeinsame Geschäftsprozesse entwickelt werden. In diesem Beitrag konzentrieren wir uns auf die kollaborative Geschäftsprozessgestaltung. Zu diesem Zweck schlagen wir eine mehrstufige Beschreibung vor: Zunächst werden Managementregeln berücksichtigt, um „konzeptuelle“ Modelle auszuwählen, dann wird die Allianz-Kollaborationsstrategie, vertraglich formalisiert, verwendet, um diese konzeptionelle Beschreibung in eine organisatorische zu überführen, aus der operative Modelle kann eingestellt werden. Auf diese Weise können zuvor definierte „Allianzstruktur“ und „Evolutionsszenarien“ kombiniert werden, um zu definieren, wie Geschäftsprozesse modelliert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35704-1_47 ae8800d255bebfcb938357f4ba88f921;de;;;7.2.;;;Entwicklung eines dezentralen Marktinformationssystems Ein dezentrales Marktinformationssystem (DMIS), das Marktinformationen aggregiert und bereitstellt, ist eine wichtige Komponente, um Märkte in Grid- und Peer-to-Peer-Systemen zu erreichen. Die vorgeschlagene Arbeit ist die Entwicklung eines Frameworks für das DMIS, das die wirtschaftliche Bereitstellung innerhalb der wichtigsten technischen Anforderungen wie Skalierbarkeit in Richtung auf Knoten und Datenattribute und Robustheit gegenüber Ausfällen erfüllt. Die vorgeschlagene Arbeit ermöglicht auch die Gewinnung von Ergebnissen bezüglich des Kompromisses zwischen wirtschaftlichem Nutzen und technischen Kosten. Die Einführung dynamischer adaptiver Prozesse verspricht Effizienzsteigerungen bei verteilten Abfragen und Routing-Strukturen. Dieser Forschungsantrag präsentiert und diskutiert die Forschungsfragen und -herausforderungen, den aktuellen Wissensstand und die vorgeschlagene Forschungsmethodik für die Entwicklung des DMIS-Frameworks.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76888-3_46 f733052cb5cc08eab035fcc967ba3154;de;;;7.2.;;;Ein Artikelsprachenmodell für die BBS-Suche Bulletin Board Systems (BBS) sind ähnlich wie Blogs, Newsgroups, Online-Foren usw. Online-Rundfunkräume, in denen Menschen Ideen austauschen und Ankündigungen machen können. Da BBS zu wertvollen Wissens- und Informationsspeichern werden, sind effektive BBS-Suchmaschinen erforderlich, um die Informationen allgemein zugänglich und nützlich zu machen. Die für die Websuche bewährten Techniken sind jedoch aufgrund der Beschaffenheit von BBS nicht für die Suche nach BBS-Artikeln geeignet. In diesem Artikel schlagen wir ein neuartiges Artikelsprachenmodell (LM) vor, um eine effektive BBS-Suchmaschine aufzubauen. Wir untersuchen die Unterschiede zwischen BBS-Artikeln und Webseiten und erweitern dann das traditionelle LM auf Autoren-LM und Kategorie-LM. Der Artikel LM ist in dem Sinne mächtig, dass er die drei LMs in einem einzigen Framework kombinieren kann. Experimentelle Ergebnisse zeigen, dass unser Artikel LM sowohl den INQUERY-Algorithmus als auch den traditionellen LM deutlich übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/11531371_22 c58051ca4491075bf06770b385b5a105;de;;;7.2.;;;Die Rolle der Technologie bei der Gestaltung der beruflichen Zukunft von Gemeinschaftsapothekern: Der Fall des elektronischen Verschreibungsdienstes im englischen National Health Service Informations- und Kommunikationstechnologie (IKT) wurde im letzten Jahrzehnt umfassend als Mittel zur Reform, Modernisierung und Umgestaltung nationaler Gesundheitssysteme auf der ganzen Welt vorgeschlagen. Dadurch verändert es unweigerlich die Arbeitspraktiken und kann längerfristige Konsequenzen für die Gesundheitsberufe haben. In diesem Beitrag wird untersucht, wie IKT die berufliche Zukunft von Apothekern in der öffentlichen Hand gestalten kann, indem er sich auf die laufende Forschung zu einem nationalen Projekt in England stützt, um die elektronische Übermittlung von Rezepten zwischen Ärzten und Apotheken zu etablieren. Das Projekt veranschaulicht, wie Technologie verschiedene Möglichkeiten eröffnet, die die berufliche Stellung von Apothekern in Zukunft beeinflussen können, indem sie ihre Arbeitspraktiken, Zuständigkeiten, Rollen, Werte, Macht und Grenzen formen. Unser Ziel ist es nicht, diese subtilen und widersprüchlichen Veränderungen zu bewerten, sondern einen geeigneten analytischen Rahmen zu entwickeln und zur Debatte um die Rolle der Technologie bei der Gestaltung der beruflichen Zukunft beizutragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21364-9_12 c154cbc41cd0e548cd3b1dd2fee91c75;de;;;7.2.;;;Ein Blick in die Richtlinien zur Geschäftsprozessmodellierung aus dem Blickwinkel des Technologieakzeptanzmodells Die Geschäftsprozessmodellierung ist einer der ersten Schritte zur Erreichung der Unternehmensziele in der Phase des Requirements Engineering. Aus diesem Grund ist die Qualität der Geschäftsprozessmodellierung ein wesentlicher Aspekt für die Entwicklung und den technischen Support eines jeden Unternehmens. Modellierungsexperten verlassen sich hauptsächlich auf ihre persönliche Erfahrung und das stillschweigende Wissen. Um weniger erfahrenen Modellierern zu helfen, haben viele Autoren Modellierungsrichtlinien formuliert, um eine bessere Modellqualität zu erreichen. Unser Forschungsziel ist es, die Akzeptanz dieser Leitlinien für die Lehre durch eine Umfrage zu überprüfen. Um dieses Ziel zu erreichen, untersuchen wir anhand einer Umfrage unter kubanischen Doktoranden den Nutzen, die Benutzerfreundlichkeit und die Intention eines gesammelten pragmatischen Leitfadens nach dem Technologieakzeptanzmodell. Die Ergebnisse zeigen die besten und schlechtesten Richtlinien, wie sie von unerfahrenen Modellierern wahrgenommen werden. Wir haben auch beobachtet, dass die wahrgenommene Benutzerfreundlichkeit einen wichtigen Einfluss auf die wahrgenommene Nützlichkeit hat und gleichzeitig die Absicht der Anfänger, die Richtlinien zu verwenden, beeinflusst. Dies impliziert, dass, um die Verwendung der Richtlinien durch Nachwuchsmodellierer sicherzustellen, diese verständlich und ihr Nutzen gut motiviert sein sollten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45501-2_6 870c46f66e18d69f03fb50ed7c0d74fa;de;;;7.2.;;;Modellierung des Prozesses der elektronischen Unterschrift mit Petrinetzen und (Max, Plus) Algebra In diesem Artikel wird die Modellierung und Bewertung des Prozesses der elektronischen Signatur (ES) diskutiert. Dieser Prozess kann unter bestimmten Gesichtspunkten als eine Klasse von Dynamic Discrete Event Systems (DDES) dargestellt werden. In diesem Rahmen studieren wir diese Klasse unter Verwendung von Petri-Netzen (PN) und der Theorie linearer Systeme in der (max, +)-Algebra. Wir führen diese beiden Formalismen mit dem Ziel ein, das grafische und analytische Verhalten des untersuchten Prozesses zu beschreiben. Die Auflösung des (max, +)-Modells, das das System beschreibt, ermöglicht es uns, die Prozessleistungen in Bezug auf die Auftrittsdaten verschiedener Ereignisse, aus denen es besteht, zu bewerten (Authentifizierung, Hashcodierung, Signatur, Zeitstempel). Um unsere Methodik zu veranschaulichen, beenden wir diesen Artikel mit einem Zahlenbeispiel.;-;-;-;https://link.springer.com/chapter/10.1007/11424925_83 65432e6c772a46e8be4ccd0ba93b452a;de;;;7.1.;;;Sozio-technisches Design: Unerfülltes Versprechen oder Zukunftschance? Sozio-technisches Design ist mittlerweile über 50 Jahre alt. Es begann mit dem Wunsch einer Gruppe von Therapeuten, Forschern und Beratern, die von ihnen entwickelten Techniken umfassender einzusetzen, um kriegsgeschädigten Soldaten zu helfen, ihre psychische Gesundheit wiederzuerlangen und in ein ziviles Leben zurückzukehren. Diese Gruppe, von denen die meisten vor dem Krieg mit der Londoner Tavistock-Klinik verbunden waren und von denen einige medizinisch qualifiziert waren, glaubten, dass die von ihnen entwickelten therapeutischen Instrumente und Techniken nützlich auf die Arbeitsorganisation in der Industrie angewendet werden könnten. Sie sahen dies als Einschränkung und Degradierung vieler Mitarbeiter niedrigerer Ränge, die gezwungen waren, ihre Tage mit einfachen Routineaufgaben zu verbringen, ohne die Möglichkeit einer persönlichen Entwicklung oder Arbeitszufriedenheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35505-4_3 60e54c69c6a0e8b151ae63a25fd76fc0;de;;;7.2.;;;Content Management in Mixed Reality Systemen Content-Management-Systeme bilden das Rückgrat der meisten interaktiven Multimedia-Anwendungen von heute. Mixed Reality Systeme sind heute wohl die ambitioniertesten Multimedia-Anwendungen. In diesem Beitrag werden einige Konsequenzen dieser Ergebnisse diskutiert. Eine CMS-Architektur des Standes der Technik wird kurz beschrieben und eine ähnliche Architektur wird für eine allgemeine Art von MR-Anwendung vorgeschlagen. Als erstes Ergebnis ist aus Sicht der Software-Architekten ein erheblicher Anstieg der Komplexität zu beobachten. Andererseits soll ein strukturierter Umgang mit den verschiedenen Inhaltsarten zu einer besseren Systemqualität führen. Das Papier präsentiert keine abschließende Schlussfolgerung, sondern bietet eine Reihe von Schlüsselfragen, die bei zukünftigen MR-Anwendungen mit Content-Management-Systemen zu berücksichtigen sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35660-0_63 bca0c777fde1734048b04626d7729ba7;de;;;7.1.;;;Case „VDA EDI“ – Das EDI-Projekt für die deutsche Automobilindustrie In der Automobilindustrie machte EDI seine ersten Schritte auf deutschem (Netzwerk-)Boden. Das VDA-EDI-Projekt hat die längste Tradition und ist nach wie vor das Projekt mit dem Maximum an EDI-Anbindungen und EDI-Verkehr in Deutschland. Der Fall zeigt, wie eine spezifische Branchenstruktur und ein besonders wettbewerbsorientiertes und dynamisches Umfeld die schnelle und gründliche Verbreitung einer – damals revolutionär – aufkommenden Technologie begünstigten. Nach einer Beschreibung der Branche zeichne ich die Geschichte des VDA-EDI-Projekts bis hin zur Verbreitungs- und Nutzungssituation 1994 nach, die Grundlage für die Analyse ist. Die Analyse folgt dem in Kapitel 2 erarbeiteten konzeptionellen Rahmen und umfasst Aspekte aus der Innovationstheorie, der Transaktionskostentheorie und der Machtabhängigkeitstheorie. Eine abschließende Konsolidierung stellt das EDI-Projekt in den Rahmen der politischen Ökonomie für die deutsche Automobilindustrie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08436-5_3 257bcc869134bd404d6a308e13222f14;de;;;7.2.;;;Possibilistische vs. relationale Semantik für Logiken unvollständiger Informationen Dieses Papier schlägt eine Erweiterung der MEL-Logik auf eine Sprache vor, die nur Modalformeln der Tiefe 0 oder 1 enthält. MEL ist eine Logik unvollständiger Informationen, bei der ein Agent sowohl Überzeugungen als auch explizit ignorierte Fakten ausdrücken kann, die nur Modalformeln der Tiefe 1 und keine objektiven verwendet. Die erweiterte Logik, genannt MEL;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08795-5_35 0bbba724da84293569129126a012f9f0;de;;;7.2.;;;Lösung von multikriteriellen Entscheidungsproblemen unter possibilistischer Unsicherheit mit optimistischen und pessimistischen Hilfsmitteln Dieses Papier schlägt einen qualitativen Ansatz vor, um multikriterielle Entscheidungsprobleme unter possibilistischer Unsicherheit zu lösen. Abhängig von der Einstellung der Entscheidungsträgerin bezüglich Unsicherheit (also optimistisch oder pessimistisch) und ihrer Einstellung zu Kriterien (also konjunktiv oder disjunktiv), vier;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08852-5_28 b0eb277da5f7b93a4aadae4fd95dc7d4;de;;;7.2.;;;Automatisiertes Mapping von klinischen Begriffen in SNOMED-CT. Ein Antrag zur Kodifizierung von Verfahren in der Pathologie Klinische Terminologien gelten als Schlüsseltechnologie für die präzise und standardisierte Erfassung klinischer Daten, die für den genauen Austausch von Informationen zwischen verschiedenen Anwendungen, Krankenakten und Entscheidungsunterstützungssystemen von entscheidender Bedeutung ist. Ein wichtiger Schritt zur Förderung der tatsächlichen Verwendung klinischer Terminologien wie SNOMED-CT besteht darin, den Prozess der Zuordnung zwischen lokalen Terminologiebegriffen und Terminologiekonzepten zu erleichtern. In diesem Papier schlagen wir ein Mapping-Tool vor, um Text-to-Concept-Mappings in SNOMED-CT zu entdecken. Namensbasierte Techniken wurden mit einem Abfrageerweiterungssystem kombiniert, um alternative Suchbegriffe zu generieren, und mit einer Strategie zur Analyse und Nutzung der semantischen Beziehungen der SNOMED-CT-Konzepte. Das entwickelte Tool wurde evaluiert und mit den Suchdiensten zweier SNOMED-CT-Browser verglichen. Unser Tool kartierte automatisch klinische Begriffe aus einem spanischen Glossar von Verfahren in der Pathologie mit 88,0 % Präzision und 51,4 % Wiedererkennungswert, was eine wesentliche Verbesserung der Wiedererkennung (28 % bzw. Die durch das Mapping-Tool erzielten Verbesserungen sind ermutigend. Unsere Ergebnisse demonstrieren die Möglichkeit, klinische Glossare mit SNOMED-CT-Konzepten durch eine Kombination aus Struktur-, Abfrageerweiterungs- und benannten Techniken genau zuzuordnen. Wir haben gezeigt, dass SNOMED-CT eine großartige Wissensquelle ist, um Synonyme für den medizinischen Bereich abzuleiten. Die Ergebnisse zeigen, dass ein automatisiertes Abfrageerweiterungssystem die Herausforderung der Vokabularfehlanpassung teilweise überwindet.;-;-;-;https://link.springer.com/article/10.1007/s10916-014-0134-x b73f5a4ae84044f2445816cae5449bc1;de;;;7.2.;;;eGovGrid: Ein Service-Grid-basiertes Framework für die E-Government-Interoperabilität Interoperabilität wurde als ein wichtiges Thema bei der Implementierung von E-Government-Systemen angesehen. In diesem Papier wird ein Service-Grid-basiertes Framework für die Interoperabilität – eGovGrid – vorgeschlagen, das die „horizontale“ gemeinsame Nutzung von Ressourcen und die Interoperabilität zwischen „vertikalen“ e-Government-Subsystemen erleichtert. Zu den Schlüsselkonzepten und -technologien gehören ein ontologiebasiertes E-Government-Service-Metadatenmodell, ein Service-Repository, das als virtueller Pool heterogener E-Government-Services dient, und eine entsprechende Architektur. Die Wirksamkeit von eGovGrid beim Aufbau von e-Government-Systemen wird an einem realen Fall demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75494-9_44 b12f9af2852f6b87e2f505562c54dcdb;de;;;7.2.;;;Eine neue Text-Clustering-Methode mit Hidden-Markov-Modell Hochdimensional und semantisch relevant ist Textclustering nach wie vor ein wichtiges Thema im Data Mining. Es wurde jedoch wenig Arbeit geleistet, um die Attribute des Clustering-Prozesses zu untersuchen, und frühere Studien konzentrierten sich nur auf die Eigenschaften des Textes selbst. Als dynamischen und sequentiellen Prozess wollen wir Textclustering als Zustandsübergänge für Wörter oder Dokumente beschreiben. Am Beispiel der K-Means-Clustering-Methode versuchen wir, den Clustering-Prozess in mehrere Sequenzen zu zerlegen. Basierend auf der Erforschung sequenzieller und zeitlicher Datenclustering schlagen wir eine neue Textclustering-Methode vor, die HMM (Hidden Markov Model) verwendet. Und durch die Experimente mit Reuters-21578 zeigen die Ergebnisse, dass dieser Ansatz eine genaue Clustering-Partition bietet und im Vergleich zum K-Means-Algorithmus bessere Leistungsraten erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73351-5_7 902a3bc217cd92841f94dad892b696fe;de;;;7.1.;;;Visualisierung und Messung der Unternehmensarchitektur: Ein explorativer BioPharma-Fall Wir testen eine Methode, die zuvor entwickelt und verwendet wurde, um die verborgene interne Architekturstruktur von Softwaresystemen aufzudecken. Der Fokus dieses Papiers liegt darauf zu testen, ob es auch neue Fakten über die Komponenten und deren Beziehungen in einer Unternehmensarchitektur aufdecken kann, d. h. ob die Methode die verborgene äußere Struktur zwischen Architekturkomponenten aufdecken kann. Unser Test verwendet Daten eines biopharmazeutischen Unternehmens. Insgesamt haben wir 407 Komponenten und 1.157 Abhängigkeiten analysiert. Die Ergebnisse zeigen, dass die Unternehmensstruktur als Kern-Peripherie-Architektur mit Verbreitungskosten von 23 %, Kerngröße von 32 % und Architekturdurchfluss von 67 % klassifiziert werden kann. Wir haben auch festgestellt, dass Geschäftskomponenten als Kontrollelemente, Infrastrukturkomponenten als gemeinsam genutzt und Softwareanwendungen als zum Kern gehörend klassifiziert werden können. Diese Ergebnisse legen nahe, dass die Methode effektiv sein könnte, um die verborgene Struktur einer Unternehmensarchitektur aufzudecken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41641-5_2 5478b9bf926b8b19ebf02e29b623daba;de;;;7.1.;;;Simulationsbasierte Risikominderung für Planungsinspektionen Unternehmen, die Software entwickeln, haben erkannt, dass Software-Prozessmodelle besonders nützlich sind, um einen hohen Qualitätsstandard aufrechtzuerhalten. Im letzten Jahrzehnt wurden Simulationen von Softwareprozessen in verschiedenen Umgebungen und Umgebungen verwendet. Dieses Papier gibt einen kurzen Überblick über die Vorteile der Softwareprozesssimulation und beschreibt die Entwicklung eines diskreten Ereignismodells, eine Technik, die bisher in diesem Bereich selten verwendet wurde. Das in diesem Dokument vorgestellte Modell erfasst das Verhalten eines detaillierten Codeinspektionsprozesses. Es zielt darauf ab, die Risiken zu reduzieren, die mit der Implementierung von Inspektionsprozessen und -techniken im gesamten Entwicklungsprozess verbunden sind. Die Ermittlung der zugrundeliegenden Ursache-Wirkungs-Beziehungen mit Hilfe von Data-Mining-Techniken und empirischen Daten wird erläutert. Abschließend gibt der Beitrag einen Ausblick auf unsere zukünftige Arbeit.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36209-6_9 a993a4ebb29c3f2bbdfbecf1c4868b67;de;;;7.1.;;;Anwendungssteuerungen in einer Client/Server-Umgebung In Client/Server-Systemen ist die Integrität der Datenverarbeitung durch die fehlende Kontrolle über die Frontend-Anwendungen gefährdet. Die Migration von Kontrollen von der Anwendungsebene auf die Datenbankebene kann eine Lösung für dieses Problem sein. In diesem Beitrag wird analysiert, wie wesentliche Anwendungssteuerungen in der Datenbankumgebung implementiert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35693-8_5 86d66bbf54187c6e6e6146ae78912d13;de;;;7.1.;;;Eine Philosophie der Informationstechnologie und Systeme (IT & S) als Werkzeuge: Kontext der Werkzeugentwicklung, zugehörige Fähigkeiten und der Prozess des globalen Technologietransfers (GTT) Es ist die Absicht dieses Papiers, eine Philosophie der Informationstechnologie und -systeme (IT & S) als Werkzeuge und die Auswirkungen dieser Philosophie auf den Global Technical Transfer (GTT)-Prozess von IT & S zu diskutieren.;-;-;-;https://link.springer.com/article/10.1023/A%3A1011443406476 b3a55e8491852d9c2e9b5bfcea5f9aa6;de;;;7.1.;;;Die Entwicklung und Validierung der Datentransformation Die Kernfunktionen der Informationstechnologie – Datenspeicherung, Datenverarbeitung und Datenabruf – sind Teil der grundlegenden Infrastruktur von Unternehmen geworden. Die Begründung der Vorteile der Computertechnologie hat sich von einem datenverarbeitungsorientierten Ansatz zu einem geschäftsorientierten Ansatz verlagert. Data Warehousing ist ein Konzept, das diesen geschäftsorientierten Ansatz unterstützt. Das primäre Ziel eines Data Warehouse ist es, das Management im Entscheidungsprozess zu erleichtern. Dies wird erreicht, indem rohe Betriebsdaten in strategische Informationen für die Entscheidungsfindung umgewandelt werden. Die Qualitätssicherung ist ein wichtiges Entscheidungsfeld im Hochschulbereich. Data Warehousing bietet die Möglichkeit, die großen Mengen detaillierter Studierendendaten der Hochschulen zur Entscheidungsunterstützung im Bereich der Qualitätssicherung zu nutzen. Dieses Kapitel (die Hauptarbeit für den Masterstudiengang Wirtschaftsinformatik) beschreibt die laufende Untersuchung zum Data Warehousing anhand von Studierendendaten.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-78578-3_43 4b1f590a4bd9680357fc43cc96d02a3f;de;;;7.1.;;;Systeme jetzt ... und damals? In diesem Buch haben wir untersucht, wie dem unersättlichen Informationsbedürfnis bei der Steuerung aller Aspekte eines modernen Wirtschaftsunternehmens durch den Einsatz des digitalen Computers im Rahmen einer geordneten Datenverwaltung Rechnung getragen werden kann. Die Techniken für den Entwurf und die Implementierung eines solchen Systems haben wir im Zusammenhang mit relativ einfachen Datenverarbeitungsroutinen wie der Gehaltsabrechnung, der Auftragsabwicklung usw. erörtert. Die Rechtfertigung für die Verwendung des Computers in solchen Systemen liegt häufig in den Nebenproduktinformationen, die das Management durch die Ausführung der Routinen auf dem Computer erhält.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-15975-8_16 897abee5683c91a8d5b37b6cb65bdca1;de;;;7.2.;;;Benutzeroberflächen In den vorherigen Kapiteln haben wir die den Bürosystemen zugrunde liegende Technologie sowie einige verfügbare Grundelemente und Werkzeuge untersucht. Zusätzlich zu diesen Schichten kann die Anwendungsentwurfs- und -implementierungsschicht auch sinnvollerweise in eine Unterschicht, die die Benutzerschnittstelle implementiert, und eine Unterschicht, die die Anwendungsfunktionalität implementiert, unterteilt werden. Dieses Kapitel befasst sich mit dem Design von Benutzeroberflächen. Bei der Gestaltung von Benutzerschnittstellen geht es um Techniken für eine einfache, effektive Kommunikation zwischen einer Person (Bürosystembenutzer) und einem Computer (Bürosystem), die wiederum das Vehikel für eine bequeme Kommunikation zwischen Einzelpersonen (z ist ein äußerst wichtiges Thema im Bereich Büroinformatik, da hier überwiegend Nicht-Techniker ohne Ausbildung und Wunsch für eine Ausbildung in Informatik sind. Dies steht im Gegensatz zu den meisten Bereichen der Informatik wie Programmiersprachen oder Datenverarbeitung, wo die Hauptbenutzer des Systems oder der Autor der Programme ausgebildete Computerleute sind, deren Hauptaufgabe die technische Computerarbeit ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83095-2_6 95e143d9537e3d5c5afddf7941876745;de;;;7.2.;;;Eine Methode zur Vokabularrevision basierend auf Modality Splitting Die Verwendung linguistischer Fuzzy-Variablen zur Beschreibung von Daten verbessert die Interpretierbarkeit von Datenabfragesystemen und damit deren Qualität unter der Bedingung, dass die betrachteten Modalitäten eine Ununterscheidbarkeitsbeziehung in Angemessenheit mit der zugrunde liegenden Datenstruktur induzieren. Dieses Papier schlägt eine Methode vor, um zu allgemeine Modalitäten zu identifizieren und aufzuspalten, um schließlich ein geeigneteres Vokabular bzgl. die Datenstruktur.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08852-5_15 ca103ae80d9d040800f61371b978de12;de;;;7.2.;;;Analytischer Hierarchieprozess unter Gruppenentscheidungen mit einigen induzierten Aggregationsoperatoren Dieses Papier konzentriert sich auf die Erweiterung des Analytical Hierarchy Process under Group Decision Making (AHP-GDM) mit einigen induzierten Aggregationsoperatoren. Diese Erweiterung verallgemeinert den Aggregationsprozess, der in AHP-GDM verwendet wird, indem sie mehr Flexibilität bei dem spezifischen betrachteten Problem ermöglicht. Der Operator Induced Ordered Weighted Average (IOWA) ist ein vielversprechendes Werkzeug für die Entscheidungsfindung mit der Fähigkeit, den komplexen Einstellungscharakter von Entscheidungsträgern widerzuspiegeln. Die Maximum Entropy OWA (MEOWA), die auf dem Prinzip der maximalen Entropie und dem Orness-Level basiert, ist eine systematische Methode zur Ableitung von Gewichten für die Entscheidungsanalyse. In diesem Beitrag liegt der Fokus auf der Integration einiger induzierter Aggregationsoperatoren mit dem AHP-GDM-basierten MEOWA als Erweiterungsmodell. Ein anschauliches Beispiel wird vorgestellt, um die Ergebnisse zu zeigen, die mit verschiedenen Typen von Aggregationsoperatoren erhalten wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08795-5_49 0c16494d59989b8ad1ff908482e419ad;de;;;7.2.;;;Methoden zum Verknüpfen von EHR-Notizen mit Bildungsmaterialien Es hat sich gezeigt, dass der Zugriff auf die eigenen elektronischen Patientenakten (EHR) der Patienten ihr medizinisches Verständnis verbessern und klinisch relevante Vorteile bieten kann. In den EHR-Notizen sind jedoch Sprachen vorherrschend, die für Nichtmediziner schwer zu verstehen sind. Die in der EHR enthaltenen wertvollen und maßgeblichen Informationen sind daher für die Patienten weniger zugänglich, die letztendlich am meisten von den Informationen profitieren. Um dieser Herausforderung zu begegnen, entwickeln wir ein System zum Abrufen von EHR-Notizen-spezifischen verbraucherorientierten Online-Gesundheitserziehungsmaterialien. Wir haben verschiedene Methoden zur Abfragegenerierung untersucht, um lange EHR-Notizen in effektive Abfragen umzuwandeln, einschließlich Themenmodellen und Schlüsselkonzeptidentifikation. Unsere Experimente zeigen, dass Abfragen, die Schlüsselkonzepte verwenden, die durch ein lernbasiertes Modell mit Pseudorelevanz-Feedback identifiziert wurden, das Basissystem der Verwendung der Volltextnotiz deutlich übertreffen.;-;-;-;https://link.springer.com/article/10.1007/s10791-015-9263-1 18f0a6a82e2b38702e45b40b84bdd542;de;;;7.2.;;;Nutzung visueller Konzepte und Vorhersage der Abfrageleistung für den semantischen Videoabruf In diesem Beitrag stellen wir einen neuartigen Ansatz vor, der die visuelle Konzepterkennung auf verrauschter Aufnahmeebene nutzt, um den textbasierten Videoabruf zu verbessern. Im Gegensatz zu den meisten verwandten Arbeiten in diesem Bereich betrachten wir ganze Videos als Abrufeinheiten und konzentrieren uns auf Abfragen, die ein allgemeines Thema (semantisches Thema) eines Videos ansprechen. Der Abruf erfolgt unter Verwendung eines kohärenzbasierten Frameworks zur Vorhersage der Abfrageleistung. In diesem Rahmen verwenden wir Videodarstellungen, die aus den in Videos erkannten visuellen Konzepten abgeleitet werden, um das bestmögliche Suchergebnis unter Berücksichtigung der Suchanfrage, der Videosammlung, der verfügbaren Suchmechanismen und der Ressourcen zur Änderung der Suchanfrage auszuwählen. Neben der Untersuchung des Potenzials dieses Ansatzes, typische textbasierte Videoabruf-Baselines zu übertreffen, untersuchen wir auch die Möglichkeit, die Abrufleistung durch die Kombination unserer konzeptbasierten Abfrageleistungsindikatoren mit den Indikatoren, die den gesprochenen Inhalt der Videos verwenden, weiter zu verbessern . Der vorgeschlagene Retrieval-Ansatz ist datengetrieben, erfordert keine vorherige Schulung und stützt sich ausschließlich auf die Analysen der Videosammlung und verschiedene Ergebnislisten, die für den angegebenen Abfragetext zurückgegeben werden. Die Experimente werden mit den MediaEval 2010-Datensätzen durchgeführt und demonstrieren die Wirksamkeit unseres Ansatzes.;-;-;-;https://link.springer.com/article/10.1007/s13735-012-0018-0 f16db29a6877d813ce221ad5109d58dc;de;;;7.2.;;;Datenschutzerhaltende Stichwortsuche über verschlüsselte Daten im Cloud-Computing Die Suche nach verschlüsselten Daten ist eine Technik von großem Interesse im Zeitalter des Cloud Computing, da viele glauben, dass sensible Daten vor der Auslagerung auf die Cloud-Server verschlüsselt werden müssen, um den Datenschutz der Benutzer zu gewährleisten. Die Entwicklung eines effizienten und sicheren Suchschemas für verschlüsselte Daten umfasst Techniken aus mehreren Domänen – Informationsabruf zur Indexdarstellung, Algorithmen für die Sucheffizienz und das richtige Design kryptografischer Protokolle, um die Sicherheit und den Datenschutz des Gesamtsystems zu gewährleisten. Dieses Kapitel bietet eine grundlegende Einführung in die Problemdefinition, das Systemmodell und einen Überblick über die modernsten Mechanismen zur Implementierung einer datenschutzwahrenden Schlüsselwortsuche über verschlüsselte Daten. Wir präsentieren auch eine integrierte Lösung, die hoffentlich mehr Einblicke in dieses wichtige Problem bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-9278-8_9 0514397e9e8457296877b23fad6cc4c3;de;;;7.2.;;;Erweiterung kognitiver Architekturen mit semantischen Ressourcen Dieses Papier stellt einen integrierten Modellierungsrahmen vor, bei dem die Lern- und Wissensabrufmechanismen der kognitiven Architektur von ACT-R mit einer semantischen Ressource kombiniert werden. Unser Ziel ist es, ACT-R um ein skalierbares Wissensmodell zu erweitern, um subsymbolische Prozesse mit konsistenten, allgemeinen deklarativen Darstellungen auf hoher Ebene zu unterstützen. Designprinzipien, Methodik und Implementierungsbeispiele werden bereitgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22887-2_23 4e13d37f182fd505a763225382200110;de;;;7.1.;;;Professionalisierung des Geschäftsprozessmanagements: Auf dem Weg zu einem Wissensschatz für BPM Business Process Management (BPM) entwickelt sich rasant als etablierte Disziplin. Es gibt eine Reihe von Bemühungen, die verschiedenen Aspekte der BPM-Praxis zu formalisieren, die Schaffung eines formalen Wissensbestands (BoK) ist eine solche Anstrengung. Wissenskörper sind Artefakte, die nachweislich die Professionalisierung verschiedener Disziplinen beschleunigt haben. Damit dies in BPM gelingt, ist es wichtig, die breitere Geschäftsprozess-Community einzubeziehen und eine BoK abzuleiten, die wesentliche Merkmale aufweist, die den Anforderungen der Disziplin gerecht werden. Wir argumentieren für die Notwendigkeit einer umfassenden BoK für den BPM-Bereich und präsentieren eine Kernliste der wesentlichen Merkmale, die bei der Entwicklung einer BoK auf der Grundlage vorläufiger empirischer Erkenntnisse zu berücksichtigen sind. Das Papier identifiziert und kritisiert bestehende Wissensbestände in Bezug auf BPM und ruft nachdrücklich dazu auf, eine genauere und nachhaltigere BoK für BPM zu entwickeln. Ein Ansatz für diese Bemühungen wird mit vorläufigen Ergebnissen vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20511-8_68 e5871ca3a0de0fa33699011d1e1b3281;de;;;7.2.;;;Ein Rank-Aggregation-Framework für die multimodale Video-Geokodierung Dieses Papier schlägt ein Rank-Aggregations-Framework für die multimodale Video-Geokodierung vor. Mit Videos verbundene textliche und visuelle Beschreibungen werden verwendet, um Ranglisten zu definieren. Diese Ranglisten werden später kombiniert, und die resultierende Rangliste wird verwendet, um geeignete Orte für Videos zu definieren. Es wird eine Architektur entworfen, die das vorgeschlagene Framework implementiert. In dieser Architektur gibt es für jede Modalität (z. B. textuell und visuell) spezifische Module, die unabhängig entwickelt und weiterentwickelt werden können. Eine weitere Komponente ist ein Datenfusionsmodul, das für die nahtlose Kombination der für jede Modalität definierten Ranglisten verantwortlich ist. Wir haben das vorgeschlagene Framework im Rahmen der MediaEval 2012 Placement Task validiert, deren Ziel es ist, Videos automatisch geographische Koordinaten zuzuweisen. Die erhaltenen Ergebnisse zeigen, wie unser multimodaler Ansatz die Geokodierungsergebnisse im Vergleich zu Methoden verbessert, die auf einer einzigen Modalität basieren (entweder textuelle oder visuelle Deskriptoren). Wir zeigen auch, dass der vorgeschlagene multimodale Ansatz vergleichbare Ergebnisse mit den besten Einreichungen für die Platzierungsaufgabe im Jahr 2012 liefert, ohne zusätzliche Informationen außer den verfügbaren Entwicklungs-/Trainingsdaten. Ein weiterer Beitrag dieser Arbeit bezieht sich auf den Vorschlag einer neuen Wirksamkeitsbewertungsmaßnahme. Die vorgeschlagene Maßnahme basiert auf Entfernungsbewertungen, die zusammenfassen, wie effektiv ein entwickelter/getesteter Ansatz unter Berücksichtigung seines Gesamtergebnisses für einen Testdatensatz ist.;-;-;-;https://link.springer.com/article/10.1007/s11042-013-1588-4 e5064d687e89c289a2e8f2cda3e0545f;de;;;7.2.;;;Ein sprachunabhängiger Ansatz zur Identifizierung der benannten Entitäten in unterversorgten Sprachen und zum Clustern mehrsprachiger Dokumente Dieser Beitrag stellt einen sprachunabhängigen Ansatz des Multilingual Document Clustering (MDC) für vergleichbare Korpora vor. Named Entites (NEs) wie Personen, Standorte, Organisationen spielen eine wichtige Rolle bei der Messung der Dokumentähnlichkeit. Wir schlagen eine Methode vor, um diese NEs zu identifizieren, die in unterversorgten indischen Sprachen (Hindi und Marathi) vorhanden sind, indem die NEs verwendet werden, die in Englisch vorhanden sind, einer Sprache mit hohem Ressourcenbedarf. Die identifizierten NEs werden dann zur Bildung von mehrsprachigen Dokumentenclustern unter Verwendung des Bisecting k-Means-Clustering-Algorithmus verwendet. Wir haben keine nicht-englischen linguistischen Tools oder Ressourcen wie WordNet, Part-Of-Speech-Tagger, zweisprachige Wörterbücher usw. verwendet, was den vorgeschlagenen Ansatz vollständig sprachunabhängig macht. Die Experimente werden mit einem Standarddatensatz durchgeführt, der von FIRE für ihre 2010 Ad-hoc Cross-Lingual Document Retrieval-Aufgabe zu indischen Sprachen bereitgestellt wurde. Für unsere Experimente haben wir englische, Hindi- und Marathi-Nachrichtendatensätze berücksichtigt. Das System wird anhand von F-Score-, Reinheits- und Normalized Mutual Information-Maßnahmen bewertet und die erhaltenen Ergebnisse sind ermutigend.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23708-9_9 4194bad77cddb9b36267fc08f2bab418;de;;;7.2.;;;Angriffsbewusste Integritätskontrolle in Datenbanken (Eingeladene Zusammenfassung) Herkömmliche Datenbankintegritätskontrolle konzentriert sich auf die Behandlung von Integritätseinschränkungsverletzungen, die durch Fehler und Bedienerfehler verursacht werden. Da es jedoch immer mehr böswillige Angriffe auf Datenbanksysteme gibt, wird das traditionelle Konzept der Integritätskontrolle zu;-;-;-;https://link.springer.com/chapter/10.1007/0-387-31167-X_19 7f4e62374027e6cc983cbfa4d008f4e1;de;;;7.2.;;;Nutzung der Theorie der Informationssuche für die Benutzerinteraktion mit der automatischen Vervollständigung von Bildabfragen Query Auto-Completion (QAC) ist eine häufig verwendete Funktion in Suchmaschinen, bei der die Benutzerinteraktion mit einer solchen expliziten Funktion durch die mögliche automatische Vorschlagsstellung von Abfragen basierend auf einem vom Benutzer eingegebenen Präfix erleichtert wird. Bestehende QAC-Modelle haben die Benutzerinteraktion ein wenig verfolgt und können den Informationsbedarfskontext (IN) eines Benutzers nicht erfassen. In dieser Arbeit entwickeln wir eine neue QAC-Aufgabe, die auf ein Bild angewendet wird, um Patch-Wahrscheinlichkeiten (eine der Schlüsselkomponenten der Informationssuche-Theorie) für Abfragevorschläge zu schätzen. Unsere Arbeit unterstützt die Abfragevervollständigung, indem ein Benutzerabfragepräfix (ein oder zwei Zeichen) zu einer vollständigen Abfrage erweitert wird, wobei ein auf Nahrungssuche basierendes probabilistisches Patch-Auswahlmodell verwendet wird. Wir präsentieren iBERT, um das BERT-Modell (Bidirectional Encoder Representations from Transformers) zu verfeinern, das kombinierte Text-Bild-Abfragen für eine Lösung zur Bild-QAC nutzt, indem Wahrscheinlichkeiten einer großen Menge von Bild-Patches berechnet werden. Die reflektierten Patch-Wahrscheinlichkeiten werden zur Auswahl verwendet, während sie sich ändernden Informationsbedürfnissen oder kontextuellen Mechanismen gegenüber agnostisch sind. Experimentelle Ergebnisse zeigen, dass die automatische Vervollständigung von Abfragen mithilfe von Abfragen in natürlicher Sprache und Bildern effektiver ist als nur Abfragen auf Sprachebene. Außerdem ermöglicht unser fein abgestimmtes iBERT-Modell eine effiziente Einstufung von Patches im Bild.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-45439-5_44 5b9ea31551a75e90641d0ed8f550f147;de;;;7.2.;;;Geografische latente Variablenmodelle für den Mikroblog-Abruf Obwohl sich Themenmodelle, die für mit geografischen Metadaten annotierte Textsammlungen entworfen wurden, bei der Erfassung von Wortschatzpräferenzen von Menschen in verschiedenen geografischen Regionen als effektiv erwiesen haben, ist wenig über ihren Nutzen für die Informationssuche im Allgemeinen oder die Mikroblog-Suche im Besonderen bekannt. In dieser Arbeit schlagen wir einfache und skalierbare generative Modelle für geographische latente Variablen und eine Methode vor, um die Genauigkeit des Abrufens aus Sammlungen von Dokumenten mit Geo-Tags durch Dokumentenerweiterung zu verbessern, die auf den durch die vorgeschlagenen Modelle identifizierten Themen basiert. Insbesondere vergleichen wir experimentell die Retrieval-Effektivität von vier geographischen latenten Variablenmodellen: zwei geographischen Varianten der Post-hoc-LDA, einem latenten Variablenmodell ohne versteckte Themen und einem Themenmodell, das Hintergrund von geographisch spezifischen Themen trennen kann. Die an TREC-Microblog-Datensätzen durchgeführten Experimente zeigen eine signifikante Verbesserung der Suchgenauigkeit der vorgeschlagenen Methode sowohl gegenüber dem traditionellen probabilistischen Abrufmodell als auch gegenüber Abrufmodellen, die geografische Post-hoc-Varianten von LDA verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16354-3_70 29e5603ddcb9b69efb4900f318d66e02;de;;;7.2.;;;Messtechniken und Caching-Effekte Die Gesamtzeit für die Abfrageausführung besteht aus der Zeit, die für die Übertragung von Daten von der Festplatte in den Speicher aufgewendet wird, und der Zeit, die für die Durchführung der tatsächlichen Berechnungen aufgewendet wird. Bei jeder Messung der Gesamtzeit einer gegebenen Hardwarekonfiguration werden die beiden separaten Kosten aggregiert. Dies macht es schwierig, Ergebnisse zu reproduzieren und abzuleiten, welche der beiden Kosten tatsächlich von den von Forschern vorgeschlagenen Modifikationen beeinflusst werden. In diesem Artikel zeigen wir, dass wiederholte Übermittlungen derselben Abfrage ein Mittel zur Schätzung des rechnerischen Anteils der gesamten Abfrageausführungszeit bieten. Der Vorteil von getrennten Messungen wird beispielhaft für eine besondere Optimierung veranschaulicht, die, wie sich herausstellt, lediglich den Rechenaufwand reduziert. Schließlich können wir durch den Austausch wiederholter Abfragebegriffe mit Surrogaten ähnlicher Dokumentenhäufigkeit die natürlichen Caching-Effekte messen, die als Folge von Termwiederholungen in Abfrageprotokollen auftreten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00958-7_68 09b89c052a428ec691a57c679058375e;de;;;7.1.;;;Vernetzter Service-Innovationsprozess in der Produktion eines neuen urbanen Raums Wenn ein neu fertiggestelltes Stadtgebiet nicht den Visionen entspricht, bringt dies Enttäuschungen für die Bewohner und Verluste für die Dienstleister im Gebiet. Um in der Stadtentwicklung erforderliche Prozessinnovationen zu spezifizieren, konzipieren wir neue Stadtgebiete als Dienstleistungsinnovationen und vergleichen Stadtentwicklung mit neuer Dienstleistungsentwicklung. Wir kommen zu dem Schluss, dass die Entwicklung städtischer Gebiete als Prozess der kundenorientierten Dienstleistungsentwicklung und -produktion wahrscheinlich zur Zufriedenheit aller Beteiligten führen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16358-6_75 43bce281d45753464171d8c87060020c;de;;;7.1.;;;Multi-Agenten-Koordinierungsmechanismus in verteilter Umgebung Dieses Papier zeigt, wie verschiedene Agenten zusammenarbeiten können, um komplexe Aufgaben zu erfüllen und ihre Objekte, Planung, Wissen und Aktion usw. Unter Verwendung einer hierarchischen Architektur implementieren wir ein Multi-Agenten-Prototypsystem-NHMAS in einer verteilten Netzwerksystemumgebung. Nach einer kurzen Beschreibung des Rahmens verschiedener Agenten und ihrer Funktionen diskutiert das Papier die Koordinationsmechanismen von NHMAS im Detail. Wir untersuchen eine heuristische Strategie bei der Aufgabenverteilung. Ein Vorteil dieser Aufgabenverteilungsstrategie besteht darin, dass das System zu kritischen Zeiten nicht zusätzlich belastet wird. Für die Notwendigkeit, verschiedene Agentenaktionen zu koordinieren, fügen wir Teilordnungsbeschränkungen zwischen Aktionen hinzu, die Konfliktwahrscheinlichkeiten aufweisen, und stellen unseren Planungsalgorithmus, die Konfliktlösung und die Kommunikationssprache vor. Abschließend geben wir eine kurze Leistungsanalyse der Aglet-Workbench für NHMAS.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45785-2_35 6ddcee6fc1acc0eda9a47dc23d5d3821;de;;;7.1.;;;Multikriterieller Ansatz mit simulationsbasierter Balanced Scorecard zur Entscheidungsunterstützung in Gesundheitseinrichtungen: Eine Fallstudie in der Notaufnahme Gesundheitsforschung hat in jeder Volkswirtschaft Priorität, und diese Forschung – im Kontext des Aufbaus eines nachhaltigeren und effizienteren Gesundheitssystems – untersucht, wie die Praktiken des Betriebsmanagements auf klinische Anwendungen übertragen werden können. Gesundheitssysteme im Allgemeinen (und Notaufnahmen im Besonderen) auf der ganzen Welt stehen vor enormen Herausforderungen, um die zunehmend widersprüchlichen Ziele zu erreichen, eine breite Zugänglichkeit bereitzustellen und qualitativ hochwertige Dienste effizient und schnell bereitzustellen. Der in dieser Studie vorgeschlagene Rahmen integriert Simulationsmodellierung, die Balanced Scorecard und multikriterielle Entscheidungsanalyse mit dem Ziel, ein Entscheidungsunterstützungssystem für Gesundheitsmanager bereitzustellen. Mithilfe des Analytic Hierarchy Process werden Simulationsergebnisse aggregiert, um definierte strategische sowie taktische und operative Ziele zu erreichen. Die Vermittlung der Bedeutung der untersuchten Strategien kann Führungskräfte dazu ermutigen, die Empfehlungen des Rahmenwerks in der Notaufnahme des Partnerkrankenhauses umzusetzen.;-;-;-;https://link.springer.com/chapter/10.1057/9781137535696_5 9479fad22741cbac83693f5cd9223f7c;de;;;7.1.;;;Analyse zur Charakteristik und Realisierung von High Performance Enterprise Human Resource Management Seit der Entwicklung der Betriebswirtschaftslehre forschen Unternehmen und Manager für ein höheres Personalleistungsmanagement. In den letzten Jahren hat das Hochleistungs-Personalmanagementsystem des Unternehmens hohes Ansehen erlangt. Um die Verwaltung, Entwicklung und Nutzung sowie Konfiguration für die Personalressourcen zu verbessern, sind viele Unternehmen in den Hochleistungsmanagementanwendungen nicht klar und haben kein tiefes Verständnis für die Struktur von Hochleistungsarbeitssystemen. Durch Interviews und Fragebögen werden charakteristische Faktoren eines leistungsstarken Personalmanagements und deren Auswirkungen auf die Unternehmensführung analysiert. Nach der inhaltlichen technischen Analyse wird ein Weg aufgezeigt, um die Realisierung eines Hochleistungs-Personalmanagements zu entwickeln und weiterhin eine Führungsrolle beim Personalmanagement für Unternehmen zu übernehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35419-9_56 f977b724033444165903bac9d564e9b9;de;;;7.1.;;;Auf dem Weg zu einem Fahrplan für die Einbeziehung der Nutzer in die Entwicklung von E-Government-Diensten Neue Technologien bedeuten neue Wege, Dienstleistungen zu entwickeln, bereitzustellen und zu nutzen. In dem Bestreben, dass Regierungsorganisationen Beziehungen zu ihren Bürgern aufbauen und pflegen, ist E-Präsenz von großer Bedeutung. E-Dienste sind ein Weg, und es wurde argumentiert, dass die Beteiligung der Nutzer ein wichtiger Bestandteil der Entwicklung dieser Dienste ist. In diesem Papier analysieren wir eine Auswahl von Ansätzen zur Benutzerbeteiligung aus einer Zielperspektive, um zu sehen, wie sie in einen Kontext der Entwicklung von E-Government-Diensten passen. Dabei identifizieren wir vier Herausforderungen, die bei der Einbeziehung von Benutzern in die Entwicklung angegangen werden müssen: 1) Identifizierung des Benutzerzielsegments, 2) Identifizierung des einzelnen Benutzers innerhalb jedes Segments, 3) Anreize für die Teilnahme der Benutzer und 4) Mangel an angemessenen Fähigkeiten;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14799-9_22 fb0cd2a5abfcad8e83c10476d131caa0;de;;;7.1.;;;Personal- und Wissensmanagement Zukünftige Innovationen in Logistik und Supply Chain Management werden durch technologische, regionale, wirtschaftliche und soziale Veränderungen sowie Nachhaltigkeit und Ressourcenbeschränkungen getrieben. Sie werden nicht auftreten, ohne ausreichende Aufmerksamkeit für die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-92447-2_10 a24adb56349ba1652f47beb27b69502e;de;;;7.1.;;;Strahlen der Einzigartigkeit – Cloud in multinationalen Organisationen: Herausforderung für traditionelle Geschäftssystemausrichtungen Cloud-Computing-Initiativen unterstützen multinationale Unternehmen bei der Optimierung der Ressourcennutzung und bieten gleichzeitig allgegenwärtige Kapazitäten, um die Erwartungen der Benutzer darin zu erfüllen. Anfang der 1990er Jahre durchgeführte Untersuchungen zeigten jedoch Konsequenzen, wenn es Unstimmigkeiten zwischen Geschäfts- und IT-Strategien gab. Das Aufkommen des Utility Computing durch Cloud-basierte Ressourcenentwicklung scheint sowohl die Wahrnehmung von IT-Ressourcen als auch die Erwartungen an deren Nutzung verändert zu haben. In diesem Beitrag untersuchen wir mithilfe einer ressourcenbasierten Sicht auf Cloud Computing die Natur der einzigartigen Kapazitätsentwicklung in multinationalen Organisationen. Beweise für die Forschung wurden durch Interviews gesammelt, die in zwei bekannten multinationalen Unternehmen in den Sektoren Öl und Erdgas bzw. der Automobilindustrie durchgeführt wurden. Die aus dieser Untersuchung gezogenen Lehren werden wahrscheinlich für Unternehmen von Vorteil sein, die Cloud-basierte Lösungen implementieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45526-5_9 985f51e90a436173613f774c40f4628a;de;;;7.1.;;;Behavlets: eine Methode zur praktischen Spielermodellierung mit psychologisch basierten Spielereigenschaften und domänenspezifischen Merkmalen Da sich die demografische Entwicklung der Spieler erweitert, ist es wichtig geworden, die Variationen der Spielertypen zu verstehen. Verbesserte Spielermodelle können Spieldesignern helfen, Spiele zu erstellen, die eine Reihe von Spielstilen berücksichtigen, und können auch das Design von Systemen erleichtern, die den aktuell ausgedrückten Spielertyp erkennen und sich dynamisch in Echtzeit anpassen. Bestehende Ansätze können Spieler modellieren, aber die meisten konzentrieren sich auf das Verfolgen und Klassifizieren des Verhaltens basierend auf einfachen funktionalen Metriken wie Todesfälle, spezifische Entscheidungen, Spieler-Avatar-Attribute und Abschlusszeiten. Wir beschreiben einen neuartigen Ansatz, der versucht, Expertenwissen zu nutzen, indem ein theoretisches Framework verwendet wird, das Verhaltens- und Spieldesignmuster verbindet. Ziel ist es, Spieleigenschaften aus Handlungssequenzen abzuleiten, die intrinsisch verhaltensaufklärend sind – die wir, weil sie verhaltenspsychologisch direkt interpretierbar sind, „Behavlets“ nennen. Wir präsentieren die theoretische Untermauerung dieses Ansatzes aus Forschungsbereichen wie Psychologie, Temperamenttheorie, Spielermodellierung und Spielkomposition. Der Prozess der Behavlet-Erstellung wird detailliert beschrieben, illustriert mit einem Klon des bekannten Spiels Pac-Man, mit Daten, die von 100 Teilnehmern gesammelt wurden. Außerdem wird eine Workshop-basierte Evaluationsstudie vorgestellt, in der neun Game-Design-Experten-Teilnehmer über die Behavlet-Konzepte und erforderlichen Modelle informiert wurden und dann versuchten, die Methode auf Spiele der bekannten Ego-Shooter-Genres anzuwenden, am Beispiel von 'Gears of War', (Microsoft). Die Teilnehmer fanden 139 Behavlet-Konzepte, die von Verhaltenspräferenzen der Temperamenttypen bis hin zu Designmustern der Shooter-Genre-Spiele abbilden. Wir kommen zu dem Schluss, dass der Behavlet-Ansatz viel versprechend ist, bestehende Methoden ergänzt und die theoretische Validität von Spielermodellen verbessern kann.;-;-;-;https://link.springer.com/article/10.1007/s11257-016-9170-1 a56e7321329489eb958fa144355054f5;de;;;7.2.;;;Fuzzy-RBF-Neuralnetzwerkmodell für die Entscheidungsfindung mit mehreren Attributen In diesem Artikel wird untersucht, wie man aus den neuen Alternativen nach historischen oder aktuellen Alternativen eine beste Alternative vergleicht und auswählt. Bisherige Methoden benötigen nicht nur viele Daten, sondern sind auch komplex. Daher haben wir eine RBF-Neuralnetzwerkmethode vorgeschlagen, die nicht nur die Vorteile üblicher neuronaler Netzwerkmethoden hat, sondern auch viel weniger Stichproben benötigt und unkompliziert ist. Die Anzahl der Neuronen auf der versteckten Ebene ist leicht zu bestimmen. Dieses Modell kann Attributgewichtungen automatisch bestimmen, sodass die Gewichtungen objektiver und genauer verteilt werden. Darüber hinaus werden die spezifischen Präferenzen des Entscheidungsträgers für Unsicherheit, d. h. risikoavers, risikoliebend oder risikoneutral, bei der Bestimmung der Gewichte berücksichtigt. Daher kann unsere Methode objektive Ergebnisse liefern und gleichzeitig die subjektiven Absichten des Entscheidungsträgers berücksichtigen. Ein Zahlenbeispiel soll das Verfahren veranschaulichen.;-;-;-;https://link.springer.com/chapter/10.1007/11893295_115 527b5a578e4e20e3985cca9d7e556030;de;;;7.2.;;;Modellierung von Lernenden durch Analyse kognitiver Fähigkeiten und Lernstile Die Bereitstellung von Adaptivität in webbasierten Bildungssystemen unterstützt Lernende in ihrem Lernprozess und erleichtert ihnen das Lernen. Die Bereitstellung von Anpassungsfähigkeit erfordert jedoch die Kenntnis der Bedürfnisse der Lernenden. Daher ist die Lernermodellierung, der Prozess der Erstellung und Aktualisierung eines Lernermodells, ein entscheidender Aspekt adaptiver Systeme und notwendig, um Kursinhalte bereitzustellen, die den Bedürfnissen der Lerner entsprechen. In diesem Kapitel diskutieren wir aktuelle Forschungsergebnisse, die sich auf kognitive Merkmale und Lernstile konzentrieren. Wir zeigen Ansätze, mit denen kognitive Merkmale und Lernstile identifiziert werden können. Um zusätzliche Daten zur Verbesserung der Lernermodellierung zu erhalten, diskutieren wir Untersuchungen zum Zusammenhang von kognitiven Merkmalen und Lernstilen sowie die sich aus dieser Kombination ergebenden Anpassungsaspekte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74155-8_10 7d201f6d64a83241040916ce31bcf576;de;;;7.2.;;;Leistungsbewertung probabilistischer zeitabhängiger Reisezeitberechnung Die Rechenleistung von Routenplanungsalgorithmen ist in neueren realen Navigationsanwendungen mit vielen gleichzeitigen Routenanforderungen immer wichtiger geworden. Navigationsanwendungen sollten möglichst schnell und möglichst mit Mehrwert Routen empfehlen. Dieses Papier präsentiert eine Leistungsbewertung des Hauptteils des probabilistischen zeitabhängigen Routenplanungsalgorithmus. Der Hauptteil des Algorithmus berechnet die volle Wahrscheinlichkeitsverteilung der Reisezeit auf Routen mit Monte-Carlo-Simulation. Experimente zeigen die Leistungsfähigkeit des Algorithmus und schlagen reale Einsatzmöglichkeiten in modernen Navigationsanwendungen vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-45378-1_34 02634efb8d5292c52a8b564db844b23f;de;;;7.2.;;;Nochmals Verzweigung versus lineare Logik Es wird ein kurzer Überblick über die zeitliche Logik gegeben, die bei der gleichzeitigen Programmverifikation und bei der Datenbank- und Systemspezifikation verwendet wird. Die Eigenschaften der zugrunde liegenden modalen Rahmenstrukturen werden analysiert. Die relativen Vorteile der linearen und verzweigten Ansätze werden diskutiert. Die Kontroverse zwischen Zustand und Pfadformeln wird erneut aufgegriffen. Ein metalinearer Operator;-;-;-;https://link.springer.com/article/10.1007/BF01888216 75a78ba6bc9f8061574d86088541fa29;de;;;7.2.;;;Cyberspace und Organisationsstruktur: Eine Analyse des Umfelds Kritischer Infrastrukturen Heute werden mehr denn je Organisationen geschaffen, um die Cyberspace-Umgebung zu schützen. Die Fähigkeit von Cyberorganisationen, die mit der Verteidigung kritischer Infrastrukturressourcen beauftragt sind, wurde von zahlreichen Cybersicherheitsexperten in Frage gestellt. Die Organisationstheorie besagt, dass Organisationen so aufgebaut sein sollten, dass sie sich ihrer Betriebsumgebung anpassen. Wenig Forschung in diesem Bereich verbindet die Organisationstheorie mit der Cyber-Organisationsstruktur. Aufgrund der Verbindung des Cyberspace mit kritischen Infrastrukturanlagen rechtfertigen die Faktoren, die die Struktur von Cyberorganisationen zum Schutz dieser Anlagen beeinflussen, Analysen, um Verbesserungsmöglichkeiten zu identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48737-3_1 e70b3f1f62e074bfcc8ccc059ff6b9c1;de;;;7.2.;;;Echtzeit-Datenaggregation in verteilten sozialen Unternehmensplattformen Die weit verbreitete Nutzung sozialer Plattformen in modernen Organisationen führt zur Generierung einer großen Menge an Inhalten, die über verschiedene soziale Tools geteilt werden. Diese Informationen sind verteilt und oft unstrukturiert, was es schwierig macht, ihren Wert im Unternehmenskontext voll auszuschöpfen. Während Semantic-Web-Technologien die Veröffentlichung aussagekräftiger und strukturierter Daten ermöglichen, umfassen die Hauptherausforderungen: (1) Echtzeit-Integration von verteilten sozialen Daten und (2) Inhaltspersonalisierung, um relevante Informationen zu identifizieren und sie den Benutzern zu präsentieren, um die Informationsflut zu begrenzen . Dieses Forschungspapier stützt sich auf einen Anwendungsfall in Unternehmen und diskutiert Praktiken bei der Echtzeitintegration sozialer Daten in verteilte soziale Plattformen. Wir schlagen vor, Semantic-Web-Technologien mit standardisierten Transportprotokollen zu kombinieren, um eine effiziente und Open-Source-Schicht für die Aggregation verteilter sozialer Daten in einem Unternehmen bereitzustellen. Wir zeigen auch, wie unsere Komponente die Entwicklung personalisierter sozialer Plattformen erleichtern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40543-3_74 02feac2f0359db2af172f2482cd946ec;de;;;7.1.;;;Über Ereignisse zur Änderung der Unternehmensarchitektur In der Praxis ist es schwierig, ein qualitativ hochwertiges Enterprise Architecture (EA)-Modell hinsichtlich Aktualität und Vollständigkeit aufrechtzuerhalten. Weder Literatur aus der Praxis und EA-Frameworks noch EA-Forschungsliteratur bieten jedoch ausreichende Orientierungshilfen für die schwierige Aufgabe der Pflege von EA-Modellen. Kürzlich haben Forscher Methoden vorgestellt, um strukturierte Daten aus bestehenden Datenquellen zu sammeln, z.B. aus dem IT-Betrieb, um EA-Modelle (halb-)automatisch zu aktualisieren. In diesem Papier argumentieren wir für die zusätzliche Nutzung von EA-Change-Events aus (Management-)Informationssystemen. Diese Änderungsereignisse stellen keine klar zuordenbaren strukturierten Informationen bereit, können jedoch verwendet werden, um manuelle EA-Modellpflegeaufgaben bei Änderungen auszulösen und zu leiten. Wir präsentieren die erste Klassifikation relevanter Ereignisse in der EA-Literatur und erläutern ihre Quellen und Auswirkungen auf das EA-Modell. Schließlich schlagen wir einen ereignisgesteuerten Modellwartungsworkflow vor, erläutern einen beispielhaften Anwendungsfall und weisen auf offene Probleme im Kontext von EA-Change-Ereignissen hin.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34163-2_8 a85e5efd90a37cc015c824a5a9a62bd9;de;;;7.1.;;;Lektionen für die Zukunft Durch die Fokussierung auf Erfolgsfaktoren wollen wir künftig MOE-Katastrophen verhindern. Dies ist aufgrund des hohen Risikos, das jedem MOE innewohnt, und des eher begrenzten aktuellen Wissens über MOE ein realistisches Ziel. Es lohnt sich auf jeden Fall weiterzuverfolgen, denn wir haben bemerkenswerte Unterschiede in der Zielerreichung der MOEs festgestellt. Wäre das Wiener Krankenhaus mit der gleichen Leistung wie das Münchner Krankenhaus fertiggestellt worden oder wäre das Leistungsniveau der Krankenhäuser dem der Olympischen Spiele gleichgekommen, hätten Projektträger (und Steuerzahler) erheblich profitiert. Die Lehren, die wir aus unseren Fällen ziehen können, sind vielfältig. Einige Fälle haben Informationen zu den „Do’s“ geliefert, andere haben die „Don’ts“ des MOE-Managements klar aufgezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24818-7_17 93d5fe087be1f0a7b0a24754da21c5e8;de;;;7.1.;;;Einige Anmerkungen zur ERP-Systemimplementierung in mittelständischen Unternehmen Nach einem generischen Vorgehensmodell werden Empfehlungen für die Einführung von ERP-Systemen in mittelständischen Unternehmen gegeben. Wir konzentrieren uns auf diese Unternehmen, weil sie mit den gleichen Aufgaben konfrontiert sind wie Großunternehmen, aber mittelständische Unternehmen weniger Ressourcen haben und daher effizienter agieren müssen, um die Einführung eines ERP-Systems erfolgreich zu gestalten. Die Inhalte des Papers reichen von Projektmanagement, Business Process Reengineering, Anwendungsentwicklung, Reporting und Customizing bis hin zur Auswahl von Hardware und Key-Usern, Datenmigration und Anwenderschulungen. Während andere Publikationen eher allgemeine Ratschläge geben, sind die Empfehlungen in diesem Papier anwendungsorientiert und einfach anzuwenden. Darüber hinaus sind die Empfehlungen nicht von einem bestimmten ERP-System abhängig.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24358-5_28 c36dad7f25478e46316b10a952cb91a2;de;;;7.2.;;;Bewertung von P2P-Informationsempfehlungen basierend auf kollaborativer Filterung Kollaboratives Filtern ist eine Empfehlungs-/Filtermethode für soziale Informationen, und das Peer-to-Peer (P2P)-Computernetzwerk ist ein Netzwerk, in dem Informationen auf Peer-to-Peer-Basis verteilt werden (jeder Peer-Knoten arbeitet als Server, als Client , und sogar ein Router). Diese Forschung zielt darauf ab, ein Modell eines P2P-Informationsempfehlungssystems basierend auf kollaborativer Filterung zu entwickeln und die Fähigkeit des Systems durch Computersimulationen basierend auf dem Modell zu bewerten. Wir haben zuvor ein einfaches Modell vorgeschlagen, und das Modell in diesem Papier ist ein modifiziertes Modell, das sich mehr auf Empfehlungsagenten und Benutzer-Agent-Interaktionen konzentriert. Wir haben ein Computersimulatorprogramm entwickelt und Simulationen mit mehreren Parametereinstellungen getestet. Aus den Ergebnissen der Simulationen werden Empfehlungserinnerung und Präzision bewertet. Die Ergebnisse zeigen, dass die Agenten wahrscheinlich übermäßig empfehlen, sodass der Erinnerungswert hoch wird, der Präzisionswert jedoch niedrig wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73110-8_48 c04ef5cdde130cdc4fcba9b8bf46b8c6;de;;;7.2.;;;Umschreiben von Abfragen in natürlicher Sprache mithilfe von Mustern In diesem Beitrag wird eine auf vordefinierten Mustern basierende Methode vorgestellt, die natürlichsprachliche Abfragen in eine mehrschichtige, flexible, skalierbare und objektorientierte Abfragesprache umschreibt. Das Verfahren wurde entwickelt, um Ärzte bei ihrer Suche nach klinischen Informationen in einem elektronischen Patientenaktensystem zu unterstützen. Da die Abfragesprache des Systems für Ärzte schwierig zu handhaben ist, ermöglicht dieses Verfahren Abfragen unter Verwendung natürlicher Sprache gegenüber der Verwendung einer dedizierten objektorientierten Abfragesprache. Das entwickelte Verfahren zur Informationsextraktion kann als ein System zur Erkennung benannter Entitäten angesehen werden, das auf regulären Ausdrücken basiert und Teile der Abfrage markiert. Die Muster werden rekursiv aus der anfänglichen natürlichen Sprachabfrage und aus atomaren Mustern konstruiert, die den Entitäten, den Beziehungen und den Beschränkungen des zugrunde liegenden Modells entsprechen, das elektronische Gesundheitsakten darstellt. Eine weitere Evaluierung ist erforderlich, aber die vorläufigen Ergebnisse, die durch das Testen einer Reihe von Abfragen in natürlicher Sprache erzielt wurden, sind sehr ermutigend.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24471-6_4 15c5f0796bdb5c496c96a36ed7e78fc9;de;;;7.2.;;;Verwendung eines konnektionistischen Ansatzes zur Verbesserung von Domänenontologien: Selbstorganisierende Wortkategorie-Maps erneut besucht In diesem Beitrag stellen wir einen auf neuronalen Netzen basierenden Ansatz vor, um Wörter einer bestimmten Domäne nach ihren semantischen Beziehungen zu organisieren. Die aus domänenspezifischen Textdokumenten extrahierten Begriffe werden auf eine zweidimensionale Karte abgebildet, um eine intuitive Benutzeroberfläche bereitzustellen, die semantisch ähnliche Wörter in räumlich ähnlichen Regionen anzeigt. Diese Darstellung eines Domänenvokabulars unterstützt den Aufbau und die Bereicherung von Domänenontologien, indem relevante Konzepte und deren Beziehungen sichtbar gemacht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45228-7_27 c7b5bdda3a32b4834019d0423db30c5b;de;;;7.2.;;;Ein flexibles Nachrichtenfiltermodell, das eine hierarchische Fuzzy-Kategorisierung nutzt In diesem Beitrag stellen wir ein neuartiges Nachrichtenfiltermodell vor, das auf flexiblen und weichen Filterkriterien basiert und eine unscharfe hierarchische Kategorisierung von Nachrichten nutzt. Das Filtermodul wurde entwickelt, um Nachrichtenfachleuten und allgemeinen Benutzern ein interaktives und personalisiertes Werkzeug für die Sammlung und Übermittlung von Nachrichten bereitzustellen. Es nutzt inhaltsbasierte Filterkriterien und kategoriebasierte Filtertechniken, um dem Benutzer eine Rangliste von Nachrichten oder Nachrichtenclustern zu liefern. Wenn der Benutzer es vorzieht, eine synthetische Ansicht der Themen der neuesten Nachrichten zu haben, die durch den Stream übertragen werden, filtert das System Gruppen (Cluster) von Nachrichten mit homogenem Inhalt, die automatisch durch die Anwendung eines Fuzzy-Clustering-Algorithmus identifiziert werden, der die neuesten Nachrichten organisiert Nachrichten in eine unscharfe Hierarchie. Der Filter kann vom Benutzer explizit trainiert werden, um seine/ihre Interessen zu erfahren, sowie implizit, indem er seine/ihre Interaktion mit dem System überwacht. Mehrere Filterkriterien können angewendet werden, um Nachrichten basierend auf den Informationspräferenzen und Präsentationspräferenzen des Benutzers auszuwählen und für die Benutzer einzustufen. Benutzerpräferenzen geben an, welche Informationen (die Inhalte von Interesse) für den Benutzer relevant sind, welche Quellen zuverlässige Informationen liefern und wie lange die Informationen relevant bleiben. Jede einzelne Nachricht oder jeder Nachrichtencluster, der hinsichtlich ihres Inhalts homogen ist, wird auf der Grundlage eines anpassbaren Entscheidungsfindungsansatzes mit mehreren Kriterien ausgewählt und auf Grundlage einer Kombination von Kriterien, die der Benutzer in seinen Präsentationspräferenzen spezifiziert, eingestuft.;-;-;-;https://link.springer.com/chapter/10.1007/11766254_15 7ab5efedc403f5c6c99566ff8fb23a74;de;;;7.2.;;;Nutzung von geografischen Karten für die soziale Visualisierung, um das Bewusstsein in Online-Praxisgemeinschaften zu fördern Das Auffinden von Informationen in Online-Communitys ist von entscheidender Bedeutung, da die Inhalte den Benutzern einen Community-Wert bei der Nutzung und Teilnahme an ihnen bieten. Der Informationsabruf kann jedoch hinderlich sein, da die Menge an Informationen für die Benutzer überwältigend sein kann oder unentdeckt bleiben kann. Um die Erkundung von Gemeinschaften zu unterstützen und das Bewusstsein für die Aktivitäten innerhalb einer Gemeinschaft zu fördern, wird soziale Visualisierung angewendet, indem fünf verschiedene Mashups unter Verwendung von geografischen Karten erstellt werden, die mit zusätzlichen Daten einer Online-Community of Practice (CoP) für öffentliche Arbeitsverwaltungen (ÖAV) kombiniert werden. Die Visualisierungen konzentrieren sich auf verschiedene Aspekte der Community und verknüpfen sie mit den Standorten der Mitglieder, um das Bewusstsein innerhalb der Community zu erhöhen. Die Ansichten zeigen Daten, die sich auf die eigene Teilnahme der Mitglieder, die prominentesten Tags für Themen pro Standort, eine egozentrische Visualisierung des eigenen sozialen Netzwerks, die Gesamtaktivität innerhalb der Community und die Teilnahme an Gruppen und Themen konzentrieren. Zur Bewertung der Visualisierungen wurde eine Expertenbewertung mit fünf Teilnehmern in einem Thinking Aloud Test durchgeführt. Die Ergebnisse zeigen, dass das Tool motiviert, die Online-Community zu erkunden und das Bewusstsein für die Aktivitäten innerhalb der Community sowie die diskutierten Themen zu schärfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-50020-7_4 9b078fed5aeee041759747fca7afd614;de;;;7.2.;;;Kombinieren von Pixeldomänen und komprimierten Domänenindexen für skizzenbasierten Bildabruf Sketch-based Image Retrieval (SBIR) ermöglicht eine präzise visuelle Abfrage mit einfachen und weit verbreiteten Mitteln. Bei den SBIR-Ansätzen besteht die Herausforderung darin, die Bilddatensatzmerkmale in einer Struktur darzustellen, die es einem ermöglicht, Bilder in einem skalierbaren System effizient und effektiv abzurufen. Wir stellen eine skizzenbasierte Bildwiederherstellungslösung vor, bei der Skizzen und natürliche Bildkonturen sowohl im komprimierten Wavelet-Bereich als auch im Pixelbereich dargestellt und verglichen werden. Die Abfrage wird effizient im Wavelet-Bereich durchgeführt, während Effektivitätsverfeinerungen unter Verwendung des Pixelbereichs erreicht werden, um die räumliche Konsistenz zwischen den Skizzenstrichen und den natürlichen Bildkonturen zu überprüfen. Außerdem präsentieren wir ein effizientes Schema invertierter Listen für den skizzenbasierten Bildabruf unter Verwendung der komprimierten Domäne von Wavelets. Unser Vorschlag der Indexierung bietet zwei Hauptvorteile: Die Datenmenge zur Berechnung der Abfrage ist kleiner als bei der herkömmlichen Methode, während sie eine bessere Effektivität bietet.;-;-;-;https://link.springer.com/article/10.1007/s11042-017-4758-y 1c55a315d6f2d5ebc7eba5358714101e;de;;;7.1.;;;Anatomie eines nativen XML-Basisverwaltungssystems Es gibt mehrere Alternativen zur Verwaltung großer XML-Dokumentensammlungen, die von Dateisystemen über relationale oder andere Datenbanksysteme bis hin zu speziell zugeschnittenen XML-Basisverwaltungssystemen reichen. In diesem Whitepaper geben wir eine Tour durch Natix, ein von Grund auf neu entwickeltes Datenbankverwaltungssystem zum Speichern und Verarbeiten von XML-Daten. Entgegen der verbreiteten Meinung, dass die Verwaltung von XML-Daten nur eine weitere Anwendung für traditionelle Datenbanken wie relationale Systeme ist, zeigen wir, wie fast jede Komponente in einem Datenbanksystem in Bezug auf Eignung und Leistung beeinflusst wird. Wir zeigen, wie Sie Bereiche wie Storage, Transaktionsmanagement – ​​einschließlich Recovery und Multi-User-Synchronisation – sowie die Abfrageverarbeitung für XML gestalten und optimieren können.;-;-;-;https://link.springer.com/article/10.1007/s00778-002-0080-y be5495d1452f61bc95073b94b7dd2b2a;de;;;7.1.;;;Medizinische Angelegenheiten und professionelle Dienstleistungen Neue Medikamente, Geräte und biologische pharmazeutische Produkte werden für eine Vielzahl menschlicher Krankheiten entwickelt, um die aktuelle medizinische Behandlung zu erweitern und die Patientenversorgung zu verbessern. Die Pipeline der Arzneimittelentwicklung erfordert jahrelange unermüdliche wissenschaftliche Bemühungen, Beziehungen und Unterstützung von Gesundheitsdienstleistern, Patientenengagement, öffentliches Bewusstsein und Geschäftssinn, um eine molekulare Einheit von der ersten Entdeckung durch die Schichten klinischer Studien und im Erfolgsfall durch Verhandlungen zu führen behördliche Zulassung durch die US-amerikanische Food and Drug Administration (FDA).;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-69094-0_11 374fa2afdbcce016f0893b8fbe9c743f;de;;;7.2.;;;Mündliche Entscheidungsanalyse Die verbale Entscheidungsanalyse ist ein neuer methodischer Ansatz zur Konstruktion von Entscheidungsmethoden mit mehreren Kriterien. Der Ansatz basiert auf Kognitionspsychologie, angewandter Mathematik und Informatik. Probleme, den Entscheidungsträgern genaue quantitative Schätzungen zu entlocken, können durch die Verwendung bevorzugter Informationen der Entscheidungsträger in der Ordinalform (z. Es ist bekannt, dass diese Art von Urteilen viel stabiler und konsistenter ist. Es werden Möglichkeiten diskutiert, ordinale Urteile für die Bewertung von Alternativen anhand mehrerer Kriterien zu erhalten und zu verwenden. Die Familie der auf dem Ansatz basierenden Entscheidungsmethoden wird beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4939-3094-4_15 24c15eea56a3e4c229b27132924c021c;de;;;7.2.;;;Überblick über die groß angelegte visuelle Konzepterkennungs- und Annotationsaufgabe von CLEF 2009 Die Large-Scale Visual Concept Detection and Annotation Task (LS-VCDT) in ImageCLEF 2009 zielt auf die Erkennung von 53 Konzepten in Verbraucherfotos ab. Diese Konzepte sind in einer Ontologie strukturiert, die während des Trainings und der Klassifizierung der Fotos verwendet werden kann. Der Datensatz besteht aus 18.000 Flickr-Fotos, die manuell mit 53 Konzepten annotiert wurden. 5.000 Fotos wurden zum Training und 13.000 zum Testen verwendet. Es wurden zwei Bewertungsparadigmen angewendet, die Bewertung pro Konzept und die Bewertung pro Foto. Die Bewertung pro Konzept erfolgte durch Berechnung der Equal Error Rate (EER) und der Area Under Curve (AUC). Für die Bewertung pro Foto wurde ein kürzlich vorgeschlagenes ontologiebasiertes Maß verwendet, das die Hierarchie und die Beziehungen der Ontologie berücksichtigt und eine Punktzahl pro Foto berechnet. Insgesamt nahmen 19 Forschungsgruppen teil und reichten 73 Durchläufe ein. Für die Konzepte konnte eine durchschnittliche AUC von 84 % erreicht werden, darunter auch Konzepte mit einer AUC von 95 %. Die Klassifizierungsleistung für jedes Foto lag zwischen 68,7 % und 100 % mit einer durchschnittlichen Punktzahl von 89,6 %.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15751-6_10 9e7ec26ba59c72cbee70e7307823d76c;de;;;7.2.;;;eRisk 2020: Herausforderungen bei Selbstverletzung und Depression Dieses Papier beschreibt eRisk, das CLEF-Labor für frühe Risikovorhersage im Internet. eRisk startete 2017 als Versuch, die experimentellen Grundlagen der Risikofrüherkennung zu legen. In den letzten drei Ausgaben von eRisk (2017, 2018 und 2019) organisierte das Labor eine Reihe von Herausforderungen zur Früherkennung von Risiken, die sich an den Problemen der Erkennung von Depressionen, Anorexie und Selbstverletzung orientierten. In diesem Papier fassen wir die wichtigsten Erkenntnisse aus der Vergangenheit zusammen und diskutieren unsere Zukunftspläne für die Ausgabe 2020.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-45442-5_72 c9d00a11ddfa83f3d3c1b00e3ba8b98a;de;;;7.2.;;;Abfrageempfehlung mit Abfrageprotokollen in Suchmaschinen In diesem Artikel schlagen wir eine Methode vor, die bei einer an eine Suchmaschine gesendeten Anfrage eine Liste verwandter Anfragen vorschlägt. Die zugehörigen Abfragen basieren auf zuvor ausgegebenen Abfragen und können vom Benutzer an die Suchmaschine ausgegeben werden, um den Suchprozess abzustimmen oder umzuleiten. Das vorgeschlagene Verfahren basiert auf einem Anfrageclustering-Prozess, bei dem Gruppen semantisch ähnlicher Anfragen identifiziert werden. Der Clustering-Prozess verwendet den Inhalt der historischen Präferenzen von Benutzern, die im Abfrageprotokoll der Suchmaschine registriert sind. Die Methode erkennt nicht nur die zugehörigen Anfragen, sondern ordnet sie auch nach einem Relevanzkriterium. Schließlich zeigen wir mit Experimenten über das Abfrageprotokoll einer Suchmaschine die Wirksamkeit der Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30192-9_58 9b28d485c9c37cdb51c5cc768a50054c;de;;;7.2.;;;Ein Clustering-Framework basierend auf Adaptive Space Mapping und Rescaling Herkömmliche Clusteralgorithmen leiden häufig unter einem Modell-Misfit-Problem, wenn die Verteilung der realen Daten nicht zu den Modellannahmen passt. Um dieses Problem anzugehen, schlagen wir ein neuartiges Clustering-Framework vor, das auf adaptiver Raumabbildung und Neuskalierung basiert, das als M-R-Framework bezeichnet wird. Die Grundidee unseres Ansatzes besteht darin, die Datendarstellung so anzupassen, dass die Datenverteilung besser zu den Modellannahmen passt. Insbesondere werden Dokumente zuerst in Bezug auf die Clusterzentren in einen niedrigdimensionalen Raum abgebildet, so dass die Verteilungsstatistiken jedes Clusters in der entsprechenden Dimension analysiert werden können. Mit den erhaltenen Statistiken wird dann eine Neuskalierungsoperation angewendet, um die Datenverteilung basierend auf den Modellannahmen zu regulieren. Diese beiden Schritte werden iterativ zusammen mit dem Clustering-Algorithmus durchgeführt, um die Clustering-Leistung ständig zu verbessern. In unserer Arbeit wenden wir das M-R-Framework auf den am weitesten verbreiteten Clustering-Algorithmus, d. h. k-Means, als Beispiel an. Experimente mit bekannten Datensätzen zeigen, dass unser M-R-Framework eine vergleichbare Leistung mit modernsten Methoden erzielen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04769-5_32 628441ece787aeb2fdbd29066582e467;de;;;7.2.;;;Ein mehrschichtiges Entführungsmodell der Gebäudeerkennung Dieser Beitrag befasst sich auf eher konzeptioneller Ebene mit dem Problem der Gebäudeerkennung aus großflächigen Luftbildern. Nach der Definition des Problems und der Beschreibung der Annahmen und Einschränkungen wird das Objekterkennungsproblem in verschiedene Schichten zerlegt, beginnend mit den vorverarbeiteten Bildern über Zwischenebenen von rohen und segmentierten Oberflächen bis hin zu einer geometrischen und semantischen Beschreibung von Gebäuden. Die Interaktion der Aufgaben auf jeder Ebene wird als geschichtetes Abduktionsmodell basierend auf der Hypothese formuliert, dass die visuelle Wahrnehmung geschichtete Abduktion ist. Eine kurze Begründung dieser Hypothese wird im dritten Abschnitt zusammen mit einem grundlegenden Hintergrund der Entführung gegeben. Der verbleibende Teil des Beitrags beschäftigt sich mit der Anwendung des allgemeinen Entführungsmodells auf das Problem der Gebäudeerkennung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-9242-1_12 349ead8bb0482821d5285a5ce5e14183;de;;;7.2.;;;Verbesserung der Qualität der agglomerativen Planung bei der gleichzeitigen Verarbeitung von häufigen Itemset-Abfragen Häufiges Itemset-Mining wird oft als erweiterte Abfrage angesehen, bei der ein Benutzer das Quell-Dataset und die Mustereinschränkungen unter Verwendung eines bestimmten Einschränkungsmodells angibt. Vor kurzem wurde ein neues Problem der Optimierung der Verarbeitung von Stapeln von häufigen Itemset-Abfragen in Betracht gezogen. Die beste bisher vorgeschlagene Technik für dieses Problem ist Common Counting, das in der gleichzeitigen Verarbeitung von häufigen Itemset-Abfragen und der Integration ihrer Datenbankscans besteht. Common Counting erfordert, dass Datenstrukturen mehrerer Abfragen gleichzeitig im Hauptspeicher abgelegt werden. Da in der Praxis der Speicher begrenzt ist, besteht das entscheidende Problem darin, die Abfragen auf Common Counting-Phasen zu verteilen, damit die I/O-Kosten optimiert werden. Nach unseren früheren Studien ist der beste Algorithmus für diese Aufgabe, der auf große Abfragemengen anwendbar ist, CCAgglomerativ. In diesem Artikel stellen wir eine neuartige Abfrageplanungsmethode CCAgglomerativeNoise vor, die auf CCAgglomerative basiert und ihre Chancen erhöht, eine optimale Lösung zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-33521-8_23 4e801078869ed4bec0c74ddab628afe9;de;;;7.2.;;;Konfigurationsmanagement - Eine Grundlage des hochsicheren Software-Engineering-Prozesses Neben der Konzeptphase konzentriert sich IT-Security auf die beiden Hauptteile im Lebenszyklus des Softwareprodukts, die Betriebs- und die Konstruktionsphase. Die Konstruktionsphase als Grundlage für die Korrektheit des Softwareprodukts ist derzeit Gegenstand eines Projektes namens DA (Developmental Assurance) beim BSI (Bundesamt für Sicherheit in der Informationstechnik) in Bonn, Deutschland, mit Koordination dieser Aktivitäten in der internationale Reichweite. Eine der Schlüsseltechnologien zur Verwaltung des Software-Engineering-Prozesses ist die Verwendung eines werkzeuggesteuerten Software-Konfigurationsmanagements.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-5041-2919-0_40 0a251ecdc14c82944b7d2cd6a8f64caa;de;;;7.2.;;;Fernerkundungsbildfusion basierend auf adaptivem neuronalen RBF-Netzwerk Mit der Verfügbarkeit von Multisensor- und Multifrequenz-Bilddaten von operationellen Beobachtungssatelliten ist die Fusion von Bilddaten zu einem wichtigen Werkzeug bei der Auswertung und Segmentierung von Fernerkundungsbildern geworden. In diesem Beitrag wird ein neuartiges neuronales Netz mit Radius-Basisfunktion (RBF) mit einigen charakteristischen Trainingsstrategien vorgestellt, das mehrere Informationsquellen effizient integrieren und die potenziellen Vorteile jedes Merkmals ausnutzen kann. Aus Fernerkundungsbildern extrahierte Multiskalenmerkmale werden adaptiv ausgewertet und zur Segmentierung verwendet. Es werden experimentelle Ergebnisse aus künstlichen und realen Daten präsentiert, die die Wirksamkeit unseres Vorschlags belegen.;-;-;-;https://link.springer.com/chapter/10.1007/11893257_35 ed1e149d22368e9033d04f89c40767af;de;;;7.1.;;;Wie vor Was – Eine Untersuchung des Prozesses der Entwicklung von Kompetenzen für das Management einer Diffusionsrichtlinie für „zentrale Auswahl, lokales Eigentum“ zur Unterstützung der organisatorischen Transformation Studien zur Verbreitung von IT-Innovationen haben in der Regel einzelne Technologieinnovationen untersucht. Für viele Organisationen ist die Verbreitung eine Richtlinie, nach der die IT verwaltet wird. Eine besondere Form der Politik zielt darauf ab, „zentrale Auswahl, lokale Eigenverantwortung“ (CSLO) zu erreichen. Dieses Papier untersucht die organisatorische Entwicklung der Kompetenzen, um eine CSLO-Politik erfolgreich zu betreiben. Es untersucht eine einzelne Fallgeschichte mit der Verbreitung von drei Systemen als Teil einer IT-Strategie in einer unterteilten öffentlichen Gesundheitsorganisation. Es unterstreicht (1) die Notwendigkeit, relevante CSLO-Kompetenzen durch die Praxis zu entwickeln, bevor man sich auf eine Strategie einlässt, (2) die beträchtliche Zeit, die für ihre Entwicklung benötigt wird, und (3) die gegenwärtige Schwierigkeit, im Voraus zu erkennen, ob eine Organisation über sie verfügt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35092-9_8 590c6d74624d47682ce3cb775386db11;de;;;7.1.;;;Eine Umfrage zur Reiseplanung mobiler Agenten für die Informationsfusion in drahtlosen Sensornetzwerken In drahtlosen Sensornetzwerken (WSNs) ist der Mobile Agent (MA) ein neues Paradigma, das in letzter Zeit mehr Aufmerksamkeit erlangt hat. In diesem Paradigma migriert MA zwischen Sensorknoten (SNs) zur Datenfusion. Im Vergleich zum traditionellen Client/Server-Paradigma, bei dem jeder SN im Netzwerk seine gesammelten Daten an die Senke sendet, bietet MA jedoch eine gute Alternative in Bezug auf Energieverbrauch, Reaktionszeit und Netzwerklebensdauer. In diesem Paradigma sind die wichtigsten Eigenschaften von MA die Routenplanung, sie war schon immer ein Problem und ein NP-schweres Problem. In diesem Papier präsentieren wir einen Überblick über die vorgeschlagenen Routenplanungsansätze für MAs in WSNs. MA Reiseroutenplanungstechniken können in drei Kategorien eingeteilt werden: statische Reiseroutenplanung, dynamische Reiseroutenplanung und hybride Reiseroutenplanung. Die Vorteile und Mängel der verschiedenen MA-Reiseplanungsansätze werden vorgestellt. Darüber hinaus implementieren, simulieren und vergleichen wir die bekanntesten Routenplanungsalgorithmen auf einem gemeinsamen Parameterraum und treffen realistische Annahmen auf Netzwerkebene.;-;-;-;https://link.springer.com/article/10.1007/s11831-020-09417-1 0363056de2176a9b7f3fe5977b79ca78;de;;;7.1.;;;Perspektiven der Integration von Fertigungstechnik-Software Die weltweite Nachfrage nach integrierten CAD/CAM/CAE-Softwarelösungen wächst rasant. Es wird erwartet, dass das Geschäft mit professionellen Computerdienstleistungen, zu dem auch Systemintegratoren gehören, wachsen wird, um diese Nachfrage zu befriedigen, da Datenaustauschformate und Schnittstellenprotokolle zwischen CAD/CAM/CAE-Softwareanwendungen größtenteils inkompatibel sind. Diese Inkompatibilität führt zu erhöhten Geschäftsmöglichkeiten für professionelle Integratoren, die benutzerdefinierte Integrationslösungen erstellen, um den Datenaustausch zwischen Softwareanwendungen zu unterstützen. Diese Lösungen sind teuer in der Implementierung, erfordern viel Entwicklungszeit, sind sehr unflexibel und basieren nicht auf Industriestandards. Diese kundenspezifischen Lösungen führen zu zahlreichen Problemen, die in drei große technische Hindernisse unterteilt werden können: 1) das fehlende Verständnis dafür, welche Informationen und welches Wissen zwischen Fertigungsdesign, Planung und Produktionsbereichen ausgetauscht werden, 2) das Fehlen von Informationsstandards, die definieren, Struktur und Inhalt von Daten, die von mehreren Fertigungsanwendungen gemeinsam genutzt werden müssen, und 3) das Fehlen von Standardschnittstellenprotokollen zwischen Unterstützungssystemen, z;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35063-9_3 caecdb61bf8f23433d217b31e99581fe;de;;;7.2.;;;Kompakte Darstellungen beim XML-Abruf Dieses Papier beschreibt die Teilnahme der Information Retrieval and Interaction Group der Robert Gordon University am INEX 2006 Ad-hoc-Track. Wir konzentrierten uns auf zwei Fragen: „Welche potenzielle Beweise verwenden menschliche Bewerter, um relevante XML-Elemente zu identifizieren?“ und „Wie können diese Beweise von Computern für dieselbe Aufgabe verwendet werden?“. Unsere Hauptstrategie bestand darin, Beweise zu untersuchen, die sich nicht nur aus dem Inhalt, sondern auch aus den oberflächlichen Merkmalen der Darstellung von Texten ergaben. Wir haben das Vektorraummodell und das Sprachmodell verwendet, das Schätzungen basierend auf dem Elementvolltext und der kompakten Darstellung des Elements kombiniert. Wir haben eine Reihe von nicht-inhaltlichen Vorhern analysiert, um die Effektivität des Abrufs zu steigern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73888-6_7 7f8fe0c0a5874923a093fc17a12d02ff;de;;;7.2.;;;Auswirkungen von sozialer Distanz und passender Nachrichtenorientierung auf die Produktbewertung der Verbraucher Trotz eines enormen Anstiegs des Online-Verkaufs von Erlebnisprodukten (z. B. Kleidung) bleibt ungeklärt, wie solche Produkte präsentiert werden können, um Online-Konsumenten besser zu faszinieren. Im Vergleich zur Model-Präsentation (d. h. von professionellen Models präsentiert) entwickelt sich die Peer-Präsentation (d. In Anlehnung an die Construal-Level-Theorie untersuchen wir die Effekte von Peer-Präsentation vs. Modell-Präsentation und die Eignung zwischen Empfehlungsbotschaften und diesen beiden Präsentationsarten. Wir schlagen vor, dass die Peer-Präsentation im Vergleich zur Modellpräsentation eine engere psychologische Distanz zu einem Verbraucher ergibt und wahrscheinlich eine geringere mentale Konstruierung des Verbrauchers hervorruft. Daher ist neben der Präsentation unter Kollegen eine Empfehlungsnachricht, die zu einer niederen Auslegung (d. h. sekundären Merkmalen) passt, überzeugender. Im Gegensatz dazu ist neben der Modellpräsentation eine Empfehlungsbotschaft, die zu einem übergeordneten Konstrukt (d. Laborexperimente und ein Feldexperiment sollen diese Hypothesen überprüfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07293-7_76 50d0beb6a4a436751631e56a4dcd72f6;de;;;7.1.;;;Datenzentrierte Unternehmensplanung – ein ganzheitlicher Ansatz Aufgrund der zunehmenden Popularität, ein eigenes Unternehmen zu gründen, entsteht die Nachfrage nach einem gut vorbereiteten Plan. Nicht nur um Investoren zu gewinnen, sondern auch um eine solide Basis für eine erfolgreiche Unternehmensgründung zu schaffen. Erhebung, Auswahl, Analyse und Präsentation numerischer Daten sind unverzichtbare Tätigkeiten, um Wirtschaftlichkeit von Anfang an zu ermöglichen. Dieser Artikel bietet einen gut geplanten und strukturierten Geschäftsplan, indem verschiedene Ansätze verwendet werden, um die wesentlichen Aspekte der Unternehmensgründung zu verfeinern. Es enthält nicht nur eine detaillierte Beschreibung der Geschäftsidee, sondern berücksichtigt auch alle Marketing- sowie Finanzaspekte. Ansätze wie SWOT-Analyse, Marketing-Mix, Wettbewerbs-, Finanz- und Szenarioanalyse geben einen detaillierten Überblick über die verschiedenen Arten der Datennutzung, -interpretation und -darstellung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-19069-9_17 68d88b85e31d0b576d1f682918aadb10;de;;;7.2.;;;Ermitteln der Clusteranzahl auf Basis von Eigenvektoren Die Anzahl der Cluster zu finden ist eine anspruchsvolle Aufgabe. Wir schlagen eine neue Methode zur Bewertung einer Gruppennummer vor. Unsere Lösung verwendet nur einfache Eigenschaften von vorzeichenlosen Laplace-Eigenvektoren. Die neuartige Methode wurde in unseren vorherigen Spektralalgorithmus integriert. Die Leistung der modifizierten Version ist konkurrenzfähig zu bestehenden Lösungen. Wir evaluieren den vorgeschlagenen Ansatz empirisch unter Verwendung von Standardtestsätzen und zeigen, dass er auch für schwach getrennte Gruppen unterschiedlicher Dichte eine korrekte Partitionierung finden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38634-3_25 c7d6e562a1fea1152418dff46309856c;de;;;7.2.;;;Evaluierung von E-Business-Software E-Business ist eine Geschäftsstrategie, die auf die Nutzung der neuen Informations- und Kommunikationstechnologien und insbesondere des Internets als neue Art der Kommunikation, zur Integration von Geschäftsprozessen und zur Verbesserung der Beziehungen zu Kunden, Lieferanten und anderen Unternehmensmitarbeitern ausgerichtet ist. Dieser Wandel hin zu einer E-Business-Strategie führt zu einer starken Nachfrage von Unternehmen nach E-Business-Softwarelösungen.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-29360-4_50 7418b8a968cd18ca4c6b8079369ef137;de;;;7.2.;;;Eine Methode der bevorzugten Vereinigung mehrerer abgerufener Elemente für die XML-Abrufaufgabe Wir haben ein Passage-Retrieval-System für XML-Dokumente unter Verwendung des Vektorraummodells entwickelt. Um bei der Abfrage flexibler zu sein, haben wir auch eine Methode zur Vereinheitlichung mehrerer abgerufener Elemente und ein Fragmentindizierungssystem entwickelt. Unser System besteht aus einer invertierten Datei und einer Pfadliste der XML Path Language (XPath). Die Validität der Methode wurde im Rahmen des Ad-hoc-Tracks der Initiative for the Evaluation of XML Retrieval (INEX) 2006 getestet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73888-6_5 7b2edb6102f09a731cbc704b11030a9d;de;;;7.2.;;;Extrahieren von Nanopublikationen aus IR-Papieren Die veröffentlichten wissenschaftlichen Ergebnisse sollten reproduzierbar sein, ansonsten werden die in den Veröffentlichungen berichteten wissenschaftlichen Erkenntnisse von der Community weniger geschätzt. Mehrere Unternehmen wie myExperiment, RunMyCode oder DIRECT tragen zur Verfügbarkeit von Daten, Experimenten und Algorithmen bei. Einige dieser Experimente und Algorithmen werden sogar in späteren Veröffentlichungen erwähnt oder erwähnt. Im Allgemeinen fassen Forschungsartikel, die experimentelle Ergebnisse präsentieren, nur die verwendeten Algorithmen und Daten zusammen. In den besseren Fällen verweisen die Artikel auf einen Weblink, auf dem der Code zu finden ist. Wir berichten hier über unsere Erfahrungen mit der Extraktion der notwendigen Daten, um möglicherweise IR-Experimente zu reproduzieren. Wir machen auch Überlegungen, diese Informationsextraktion zu automatisieren und die Daten als IR-Nanopublikationen zu speichern, die später bei Bedarf durch automatisierte Prozesse abgefragt und aggregiert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12979-2_5 959063b26080d6a3ab7c384db8b111e7;de;;;7.2.;;;Machbarkeitsstudie von Signalähnlichkeitsmessungen zur Verbesserung der morphologischen Bewertung des menschlichen Gehirns mit Bildern von Multi-Echo-T2-Star-gewichteten MR-Sequenzen Die Messung der Signalkorrelation wird häufig verwendet, um spezifische Gewebe zu segmentieren, abnormale Regionen zu lokalisieren und Funktionsbereiche in dynamischen Bildgebungsmodalitäten zu analysieren. In diesem Artikel diskutierten wir die Machbarkeit von Ähnlichkeitskartierungen, die aus sechs Signalkoeffizientenmessungen abgeleitet wurden, um die morphologische Bewertung des menschlichen Gehirns zu verbessern. Diese Bilder stammen von einem digitalen Phantom und vier normalen Freiwilligen, die mit Multi-Echo-T2-Stern-gewichteten MR-Sequenzen gescannt wurden. Simulationsstudien haben gezeigt, dass Ähnlichkeitsabbildungen von Kreuzkorrelation, normalisierter Kreuzkorrelation, mittlerer quadratischer Fehler und Kubiksummenkoeffizient nicht hilfreich sind, um die Referenzregion von ihrem umgebenden Gewebe zu unterscheiden. Klinische Experimente konzentrierten sich auf Ähnlichkeitskoeffizienten-Mapping (SCM) und verbessertes SCM (iSCM). Die Endergebnisse haben die vergleichbare Leistungsfähigkeit von SCM und iSCM bei der Verbesserung der Bildqualität anhand quantitativer Metriken und visueller Analyse gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06269-3_26 b902b33a5950fd40d2587a981002bcd8;de;;;7.1.;;;Der neue Ansatz — Management Endlich sind wir im wahren Zentrum der Dinge angekommen. Hier bedient der Besitzer des schwarzen Ledersessels subtil die Hebel der Macht, an denen Entscheidungen getroffen werden, die sich direkt auf die Gesundheit des gesamten Unternehmens auswirken. Um die Dinge ganz klar zu machen, sprechen wir von dem Block ‚Senior Management‘, der in Abbildung 11.1 dargestellt ist. Auf der linken Seite werden die verschiedenen Titel einer solchen Rolle angezeigt, während auf der rechten Seite die Hauptfunktionen angezeigt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0469-8_11 70c92cd2cb4922caaf199e2f990badcc;de;;;7.1.;;;Struktur und Kommunikation im Prozess des organisatorischen Wandels: Osteuropa-Erfahrung und ihre allgemeine Relevanz Jede organisatorische Veränderung erzeugt einen gewissen organisatorischen Stress und macht das Personal sowohl zu Gewinnern als auch zu Verlierern innerhalb der Organisation. Dies ist zu einem großen Teil auf den unvermeidlichen Wechsel der Organisationsperspektive sowie die daraus resultierende organisatorische Umstrukturierung zurückzuführen. In diesem Papier untersuchen wir die organisatorischen Perspektiven, die im Allgemeinen vom Top-Management eingenommen werden, und untersuchen die daraus resultierenden Belastungen, die bei dem Versuch entstehen, die daraus resultierenden Rezepte für Veränderungen umzusetzen. Wir legen fest, dass sich das mittlere Management durch von oben initiierte organisatorische Veränderungsprozesse am stärksten bedroht fühlt. Wir zeigen, wie sie dieses Gefühl auf der hierarchischen Leiter weiter nach unten übertragen. Ein wesentlicher Faktor hierbei ist ein virtueller Kommunikationsbruch innerhalb der Organisation, der sich aus der radikalen Veränderung des Kommunikationskontextes ergibt. Wir zeigen, wie sich die Situation noch verschlimmert, wenn das mittlere Management die Rolle des Dolmetschers der Absichten des Top-Managements und des alleinigen Hüters der Macht der von ihm geführten Organisationseinheit und damit des Beschützers seines Personals übernimmt. Auf diese Weise wird die bisherige Organisationsstruktur zu einer Infrastruktur für stillschweigende Widerstände gegen organisatorische Veränderungen, die ihre Ziele auf lange Sicht vereiteln können. Anhand des von Nappelbaum entwickelten Modells zur Problemformulierung und -auswahl wird diese Situation untersucht und mit der Frage der Umsetzungsgestaltung für eine strategische Entscheidung des oberen Managements in Verbindung gebracht. Es wird festgelegt, dass Teambuilding ein fester Bestandteil dieses Prozesses ist und nicht nur diejenigen einbeziehen sollten, die den Wandel anstoßen und entsprechende Entscheidungen vorbereiten, sondern auch alle Ebenen der Organisationsleitung. Dieses Verständnis verleiht dem Begriff des partizipativen Managements eine neue Note und stellt neue Anforderungen an die organisatorische Kommunikation und an die Computerunterstützung für organisatorische Veränderungen. In dieser Hinsicht wird das Konzept der variablen Präzisionsmodellierung von Wissen über lokale Enactment-Prozesse (entwickelt innerhalb von SASOS von Humphreys und Berkeley) besonders relevant. In diesem Rahmen soll jedoch der Begriff des Zoomens von Aggregation/Disaggregation hin zu Reflexion und analytischer Neuinterpretation und kreativer Synthese neu gedacht werden. Die hier vorgestellten theoretischen Ideen werden durch die jüngsten Erfahrungen mit Versuchen zur organisatorischen Transformation und Geschäftsentwicklung im ungarischen Reformprozess und der russischen;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35348-7_4 54571f5b2ec8d591436a7e749fda0f96;de;;;7.2.;;;Ein kollaboratives Dokumentenranking-Modell für eine facettenreiche Suche In diesem Beitrag wird ein neuartiges kollaboratives Dokument-Ranking-Modell vorgestellt, das darauf abzielt, eine komplexe Aufgabe der Informationssuche zu lösen, die einen vielschichtigen Informationsbedarf beinhaltet. Dazu betrachten wir eine Gruppe von Benutzern, die als Experten betrachtet werden, die zusammenarbeiten, indem sie die unterschiedlichen Facetten der Anfrage bearbeiten. Wir schlagen einen zweistufigen Algorithmus vor, der auf einem Relevanz-Feedback-Prozess basiert, der zunächst eine Dokumentenbewertung für jeden Experten durchführt und dann Dokumente anhand der Lernmethode Expectation-Maximisation den am besten geeigneten Experten zuordnet. Die Leistungsverbesserung wird durch Experimente mit dem interaktiven TREC-Benchmark demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45068-6_10 6ded109e73a31d902f9f41f974f518e5;de;;;7.2.;;;Ein System zum Auffinden von Beziehungen durch Merkmalsextraktion aus Textdatenbanken Es wird ein Verfahren für den Zugriff auf textbasierte Informationen unter Verwendung domänenspezifischer Funktionen anstelle von Dokumenten allein vorgestellt. Die Grundlage dieses Ansatzes ist die Fähigkeit, automatisch Merkmale aus großen Textdatenbanken zu extrahieren und statistisch signifikante Beziehungen oder Assoziationen zwischen diesen Merkmalen zu identifizieren. Die Techniken, die diesen Ansatz unterstützen, werden diskutiert, und Beispiele aus einer Anwendung, die diese Techniken verwendet, werden als . bezeichnet;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-2099-5_27 ae4c224e1b3386e70dac6adb618c753c;de;;;7.2.;;;Ein probabilistisches Modell zum Clustern von Textdokumenten mit mehreren Feldern Wir adressieren das Problem der Bündelung von Dokumenten mit mehreren Bereichen, wie z. B. wissenschaftliche Literatur mit den unterschiedlichen Bereichen: Titel, Zusammenfassung, Schlüsselwörter, Haupttext und Referenzen. Unter Berücksichtigung der unterschiedlichen Wortverteilungen jedes Feldes schlagen wir ein neues Wahrscheinlichkeitsmodell vor, das feldunabhängige Clustering-Modell (FICM), um Dokumente mit mehreren Feldern zu gruppieren. Die Vorteile von FICM ergeben sich nicht nur aus der Integration der Unterscheidungsfähigkeiten jedes Feldes, sondern auch aus der Möglichkeit, das am besten geeignete probabilistische Komponentenmodell für jedes Feld auszuwählen. Wir untersuchten die Leistung von FICM zum Problem der Clusterung biomedizinischer Dokumente mit drei Feldern (Titel, Zusammenfassung und MeSH). Aus den Genomik-Track-Daten von TREC 2004 und TREC 2005 generierten wir zufällig 60 Datensätze, wobei die Anzahl der Klassen in jedem Datensatz zwischen 3 und 12 lag. Durch die Anwendung der geeigneten Konfiguration generativer Modelle für jedes Feld übertraf FICM ein klassisches multinomiales Modell in 59 der insgesamt 60 Datensätze, von denen 47 auf 95 % statistisch signifikant waren, und FICM übertraf auch ein multivariates Bernoulli-Modell in 52 der insgesamt 60 Datensätze, von denen 36 auf 95 % statistisch signifikant waren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71496-5_31 ad45249032712917d72bc14e6964f0a3;de;;;7.2.;;;Ein intelligentes Bewertungssystem für beschreibende Prüfungsarbeiten basierend auf probabilistischer latenter semantischer Analyse In dieser Arbeit haben wir ein intelligentes Benotungssystem entwickelt, das beschreibende Prüfungsarbeiten automatisch bewertet, basierend auf probabilistischer latenter semantischer Analyse (PLSA). Für die Benotung haben wir die semantische Ähnlichkeit zwischen einer Schülerarbeit und einer Modellarbeit geschätzt. PLSA ist in der Lage, komplexe semantische Strukturen gegebener Kontexte, wie Textpassagen, darzustellen und wird verwendet, um linguistisches semantisches Wissen aufzubauen, das bei der Einschätzung kontextueller semantischer Ähnlichkeit verwendet werden könnte. In dieser Arbeit haben wir die echten Prüfungsarbeiten markiert und wir können eine Genauigkeit von etwa 74 % einer manuellen Benotung erreichen, 7 % mehr als die des Simple Vector Space Model.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30549-1_114 84201f7d268dc5d2bd3831bc833665a3;de;;;7.2.;;;Harte Wissenschaft mildern: Antwort auf Newell und Card Eine Quelle des intellektuellen Overheads, auf die Wissenschaftler regelmäßig stoßen, ist der Ruf, „hart“ zu sein, gute Wissenschaft durch strenge methodologische Beschränkungen zu gewährleisten. Newell und Card (1985) haben es sich zur Aufgabe gemacht, der Psychologie der Mensch-Computer-Interaktion solche Einschränkungen aufzuerlegen. Obwohl ihre Diskussion durch die Festlegung eines Bezugspunkts zur theoretischen Debatte in der Mensch-Computer-Interaktion beiträgt, scheitert ihre spezifische Argumentation. Ihr Programm ist unmotiviert, stark eingeschränkt und leidet grundsätzlich an diesen Einschränkungen. Eine oberste Priorität für die Psychologie der Mensch-Computer-Interaktion sollte die Formulierung eines alternativen Erklärungsprogramms sein, eines, das als Ausgangspunkt die Notwendigkeit nimmt, die tatsächlichen Probleme zu verstehen, die mit der Bereitstellung besserer Computerwerkzeuge für den Menschen verbunden sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-5472-7_5 72c2740433f8d81b4e6e51f0cb10fda1;de;;;7.2.;;;Fragen mit einem beantworten In diesem Beitrag stellen wir ein auf Redundanz basierendes Question Answering-System und ein speziell auf Question Answering ausgerichtetes Passage Retrieval-Verfahren vor. Wir nehmen an, dass in einer ausreichend großen Dokumentensammlung die Antwort auf eine bestimmte Frage in verschiedenen Formen vorkommen kann. Daher ist es möglich, einen oder mehrere Sätze zu finden, die die Antwort enthalten und auch Token aus der ursprünglichen Frage enthalten. Die Passage Retrieval-Engine ist nahezu sprachunabhängig, da sie auf N-Gramm-Strukturen basiert. Fragenklassifizierungs- und Antwortextraktionsmodule basieren auf flachen Mustern.;-;-;-;https://link.springer.com/article/10.1007/s10844-009-0082-y a2e46187f2ebfc50e8e3937b60ba9fa3;de;;;7.2.;;;Automatisierte Objektextraktion für den medizinischen Bildabruf mit dem Insight Toolkit (ITK) Visual Information Retrieval ist eine aufstrebende Domäne im medizinischen Bereich, wie sie es seit mehr als zehn Jahren in der Computer Vision gibt. Es hat das Potenzial, die wachsende Menge visueller medizinischer Daten besser zu verwalten. Eines der häufigsten Anwendungsgebiete für Content-based Medical Image Retrieval (CBIR) ist die Diagnosehilfe. Durch das Einreichen eines Bildes, das eine bestimmte Pathologie zeigt, an ein CBIR-System, kann der medizinische Experte ähnliche Fälle leicht finden. Ein Hauptproblem ist der Hintergrund, der das Objekt in vielen medizinischen Bildern umgibt. Um die Bilder herum sind Systemparameter der Bildgebungsmodalitäten in Text sowie Patientenname oder ein Logo der Einrichtung hinterlegt. Bei solchen verrauschten Eingabedaten findet der Bildabruf oft eher Bilder, bei denen das Objekt im gleichen Bereich erscheint und von ähnlichen Strukturen umgeben ist. Während in spezialisierten Anwendungsdomänen die Segmentierung die Forschung auf einen bestimmten Bereich fokussieren kann, benötigen PACS-ähnliche (Picture Archiving and Communication System) Datenbanken mit einer großen Vielfalt von Bildern einen allgemeineren Ansatz. Dieser Artikel beschreibt einen Algorithmus zum Extrahieren des wichtigen Objekts des Bildes, um die für CBIR zu analysierende Datenmenge zu reduzieren und fokussiert die Analyse auf das wichtige Objekt. Die meisten aktuellen Lösungen indizieren das gesamte Bild, ohne zwischen Objekt und Hintergrund zu unterscheiden, wenn verschiedene PACS-ähnliche Datenbanken oder radiologische Lehrdateien verwendet werden. Unsere Anforderung ist ein vollautomatischer Algorithmus zur Objektextraktion. Medizinische Bilder haben den Vorteil, dass sie normalerweise ein bestimmtes Objekt mehr oder weniger im Zentrum des Bildes haben. Die zur Auswertung dieser Aufgabe verwendete Datenbank stammt aus einer Radiologie-Lehrdatei namens;-;-;-;https://link.springer.com/chapter/10.1007/11880592_36 aebcc6ced37681101a8fd4109a997d1c;de;;;7.2.;;;Der Fall der doppelten Dokumentenmessung, Suche und Wissenschaft Viele der Dokumente in großen Textsammlungen sind Duplikate und Versionen voneinander. In neueren Forschungen haben wir neue Methoden entwickelt, um solche Duplikate zu finden, aber da es keine direkt vergleichbaren Vorarbeiten gab, hatten wir keinen Maßstab dafür, ob wir erfolgreich waren. Schlimmer noch, das Konzept des „Duplikats“ erwies sich nicht nur als schwer zu definieren, sondern war bei Überlegung auch logisch nicht vertretbar. Unsere Untersuchung hat ein Paradox in der Informatikforschung aufgezeigt: Objektive Ergebnismessung beinhaltet eine subjektive Wahl des bevorzugten Maßes, und Versuche, Maßzahlen zu definieren, können leicht in zirkulärem Denken scheitern. Außerdem sind einige Maßnahmen Abstraktionen, die komplexe Phänomene der realen Welt vereinfachen, sodass der Erfolg einer Maßnahme außerhalb des Forschungskontexts möglicherweise nicht aussagekräftig ist. Dabei handelt es sich nicht nur um akademische Anliegen, sondern um erhebliche Probleme bei der Gestaltung von Forschungsprojekten. In dieser Arbeit wird der Fall der doppelten Dokumente verwendet, um zu untersuchen, ob und wann es angemessen ist, zu behaupten, dass die Forschung erfolgreich ist.;-;-;-;https://link.springer.com/chapter/10.1007/11610113_4 c83c4543969344d68aeace346b732941;de;;;7.2.;;;Nachrichten, Bilder und Roboter Unter Kommunikation versteht man die Übermittlung von Informationen (eine „Nachricht“ oder ein „Bild“). Die Übertragung erfolgt von einem Sender über ein Medium zu einem Empfänger. Es gibt einen Markt für Informationen – Nachfrage und Angebot an Informationen. Die Nachfrage besteht bei Verbrauchern oder Unternehmen, die Informationen wünschen, die Bereitstellung durch Anbieter von Nachrichten und Bildern – Medien. Es gibt einen Marktpreis für Informationen. Es gibt einen Preis für Briefe (Porto), für Telefongespräche, für Fax, für Zeitungen, für Bücher, für private Anlagebriefe, für Kabelfernsehen, für das Ausleihen von Videos, für Filmshows, für den Eintritt in Konzerte und Museen und Freizeitparks.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-0659-7_3 3660ca2b0ec9d594218a093865ce0741;de;;;7.2.;;;Ein verbessertes Authentifizierungsschema für H.264/SVC und seine Leistungsbewertung über nicht stationäre drahtlose Mobilfunknetze In diesem Papier wird ein bitstrombasiertes Authentifizierungsschema für H.264/Scalable Video Coding (SVC) vorgeschlagen. Das vorgeschlagene Schema integriert nahtlos kryptografische Algorithmen und Löschkorrekturcodes (ECCs) in SVC-Videostreams, so dass die authentifizierten Streams formatkonform mit den SVC-Spezifikationen sind und die dreidimensionale Skalierbarkeit (d. h. räumlich, qualitativ und zeitlich) der Originalstreams bewahren. Wir implementieren unser Schema auf einem Smartphone und untersuchen seine Leistung über ein realistisches, paketverlustbehaftetes drahtloses Mobilfunknetz. Unsere Analyse und experimentellen Ergebnisse zeigen, dass das Schema sehr hohe Verifikationsraten bei geringerem Kommunikationsaufwand und viel geringerer Decodierungsverzögerung im Vergleich zu den bestehenden Lösungen erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34601-9_15 db8bb68dcf394d38689732607b9bddcb;de;;;7.2.;;;Das Problem des Gazetteer-Inhaltsmodells: Könnten Geodateninfrastrukturen es bieten? Der Gazetteer wird in verschiedenen Kontexten unterschiedlich wahrgenommen: Geografische Informationssysteme, digitale Bibliotheken, toponymische Standardisierungsprozesse und Kartotoponomie. Diese Kontexte prägen den Inhalt des SDI-Gazetteers. Dieses Papier analysiert die konventionellen Kerneigenschaften und die Natur des Gazetteers, um den Aufbau von SDI Gazetteern zu erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72385-1_11 0d6c00d80e05795c2b75be013639c74f;de;;;7.2.;;;Zur Auswertung von Vorhersagen für die Abfrageleistung Die Abfrageleistungsvorhersage (QPP) dient dazu, die Abfrageschwierigkeit zu schätzen, ohne die Informationen zur Relevanzbewertung zu kennen. Die Qualität des Prädiktors wird durch den Korrelationskoeffizienten zwischen den vorhergesagten Werten und der tatsächlichen durchschnittlichen Präzision (AP) bewertet. Der Korrelationskoeffizient nach Pearson, Spearman’s Rho und Kendall’ Tau sind die beliebtesten Messungen zur Berechnung des Korrelationskoeffizienten zwischen vorhergesagten Werten und AP. Frühere Arbeiten haben gezeigt, dass diese Methoden nicht ausreichend gerecht und geeignet sind, um die Qualität des Prädiktors zu bewerten. In diesem Papier fügen wir zwei neue Methoden hinzu, den maximalen Informationskoeffizienten (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09265-2_20 6759dfdb9297b5000d0bdec7f7639920;de;;;7.2.;;;Effiziente Dublettenerkennung in der Cloud mit einem neuen Signaturschema Die Dublettenerkennung ist als eine entscheidende Aufgabe zur Verbesserung der Datenqualität anerkannt. Verwandte Arbeiten zu diesem Problem zielen hauptsächlich darauf ab, effiziente Ansätze über eine einzige Maschine vorzuschlagen. Mit steigendem Datenvolumen ist die Performance bei der Dublettenerkennung jedoch noch lange nicht zufriedenstellend. Daher versuchen wir, das Problem der Duplikaterkennung über MapReduce, ein Share-Nothing-Paradigma, zu lösen. Wir argumentieren, dass die Leistung der Verwendung von MapReduce zur Erkennung von Duplikaten hauptsächlich von der Anzahl der Kandidaten-Datensatzpaare abhängt. In diesem Papier haben wir ein neues Signaturschema mit einer neuen Pruning-Strategie über MapReduce vorgeschlagen, um die Anzahl der Kandidaten-Datensatzpaare zu minimieren. Unsere experimentellen Ergebnisse sowohl an realen als auch an synthetischen Datensätzen zeigen, dass unsere vorgeschlagene signaturbasierte Methode effizient und skalierbar ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23535-1_23 5141beee0aeceb9e459a6a4d69dc29c8;de;;;7.1.;;;Jüngste Trends in der rechtsbibliographischen Dokumentation Wir diskutieren die Entwicklung von fakten- und bibliographischen Datenbanken und Datenbanksystemen, einschließlich Managementsystemen und Information-Retrieval-Systemen. Im Hinblick auf die aktuelle Situation und zukünftige Planungen wird insbesondere auf die Internationale Bibliographie zu Computern und Recht verwiesen.;-;-;-;https://link.springer.com/article/10.1007/BF00186489 e3a5782cce2826a00d0d78d6e2f07081;de;;;7.2.;;;FRAU: Drahtlose Indoor-Positionierung basierend auf Fingerabdruck-Auswertung Das Ortsbewusstsein eines Benutzers oder eines Geräts wurde schon immer als Schlüsselelement zur Verbesserung der Netzwerkleistung und Verbesserung der Benutzererfahrung angesehen, indem effiziente Mobilität und innovative standortbasierte Dienste ermöglicht werden. In diesem Papier präsentieren wir unseren Vorschlag namens;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01399-7_19 8c615a46ba014fa6b47ddc259407ab7d;de;;;7.2.;;;Ein konzeptioneller Rahmen für die Gestaltung und Bewertung affektiver Gebrauchstauglichkeit in pädagogischen Geosimulationssystemen In diesem Artikel schlagen wir einen konzeptionellen Rahmen vor, um die Konzepte der Benutzerfreundlichkeit, der Computerausbildung und der affektiven Qualität zu verbinden. Wir analysieren die Interaktion Schüler-Lehrer im Lichte von Lernstrategien, die in pädagogischen Geosimulatoren verwendet werden, um die wichtigsten emotionalen Konstrukte zu definieren, die an diesem Prozess beteiligt sind. Wir erarbeiten diese erste Analyse, indem wir identifizieren, welche interaktiven Objekte mit den identifizierten emotionalen Konstrukten assoziiert werden sollten. Wir verbinden diese Objekte mit einer Architektur, die die grundlegenden Komponenten eines pädagogischen Geosimulationssystems sowie die dabei verwendeten Lernstrategien definiert. Den Nutzen des Frameworks veranschaulichen wir mit einer Evaluation eines Bildungs-Geosimulators für die Polizeiausbildung sowie einer Evaluation der Zufriedenheit der Studierenden während der Interaktion in verschiedenen Szenarien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74796-3_48 6ef16a2f3d82e26136d8c71d9dd71859;de;;;7.2.;;;Modell zur Leistungsbewertung und -verbesserung von Self-Service-Systemen Der Beitrag analysiert das Thema Produktivität und Rentabilität von Servicesystemen. Schwerpunkt der Forschung ist der Selbstbedienungsbereich, nämlich die Steigerung der Produktivität von ATM-Netzen. Paper präsentiert die Leistungsbewertung von Self-Service-Systemen und ein Verbesserungsmodell zur Steigerung der Rentabilität. Dieses Modell kombiniert interne und externe Qualitätskriterien und liefert ein detailliertes Verständnis der Hauptkomponenten der Produktivitätsbewertung und der Methoden. Anhand des Modells ist es möglich, Bewertungs- und Verbesserungswerkzeuge zur Steigerung der Produktivität von SB-Systemen zu erstellen. Das experimentelle Ergebnis zeigt, dass mit dem entwickelten Produktivitätsmodell, der KNN-Methode und dem Optimierungsverfahren die Produktivität des Geldautomaten-Cash-Managements um etwa 33 Prozent gesteigert werden konnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27260-8_7 9807c651c5eb977a7c3f73ca374b706f;de;;;7.2.;;;E-Success: Ein Instrument zur Messung des Website-Erfolgs Die folgende Studie beschreibt die Entwicklung von e-Success, einem Instrument zur Beurteilung des Erfolgs von Websites aus betriebswirtschaftlicher Sicht. E-Success basiert auf einem aus der Theorie abgeleiteten Modell und beinhaltet einen Mess- und Bewertungsprozess sowie einen umfangreichen Zielkatalog. Durch die Bewertung von Zielen nach ihrer Bedeutung für ein Unternehmen kann mit e-Success der Erfolg von Websites unterschiedlichster Unternehmen, unabhängig von Größe oder Branche, bewertet werden. Dies ermöglicht die Ableitung von Verbesserungsmaßnahmen und bildet die Grundlage für einen erfolgreichen Internetauftritt. Zudem weist die empirische Anwendung des Instruments bei Schweizer Hoteliers und Walliser Winzern auf spezifische Stärken und Schwächen von e-Success hin.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-211-99407-8_8 c46b15cff82d0a8daefcea5271b18320;de;;;7.2.;;;Die Grundkonzepte der Fuzzy-Set-Theorie Gemeinsames Merkmal der unter aktiver Beteiligung von Experten lösbaren Probleme ist das Vorhandensein der vielseitigen Informationen, die für die mathematische Formalisierung im Rahmen der traditionellen Konzepte schwierig sind. Dies hängt zum Teil damit zusammen, dass Experten bei der Beschreibung oder Einschätzung von realen Objekten und Situationen Wörter einer natürlichen Sprache verwenden, um ihre subjektive Erfahrung, ihr Urteilsvermögen, ihre Ansichten und Interessen widerzuspiegeln. Die Verwendung solcher Wörter bringt Unsicherheit in die von einem Experten erhaltene Information in Form von Unschärfe. In üblichen Sprachen verwechseln sich die Begriffe Unsicherheit, Unschärfe und Zufälligkeit, wurden jedoch in einer Wissenschaftssprache vor vielen Jahren differenziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20125-7_1 a317d3f426f6dc6e3613990be9959dce;de;;;7.2.;;;Open-Source-Umgebungen für kollaborative Experimente in e-Science Open Source Software (OSS) für e-Science sollte sich auf das Paradigma einer verteilten Umgebung über einen Multisystem-Mix aus Web Services und Grid-Technologien beziehen, die den Datenaustausch über Dienste nach Standards im Bereich des Grid und des Dienstes ermöglichen Orientiertes Rechnen (SOC). Tatsächlich sind Biologen, Ärzte und Wissenschaftler oft an zeitaufwändigen Experimenten beteiligt und wissen um den Schwierigkeitsgrad, eine gegebene Hypothese durch Laborexperimente zu validieren oder abzulehnen. Die Vorteile von OSS für e-Science berücksichtigen, dass so viele Betriebsknoten wie möglich kooperativ arbeiten können, indem sie Daten, Ressourcen und Software gemeinsam nutzen, wodurch der Engpass von Lizenzen für die verteilte Nutzung von Tools vermieden wird, die für die Leistung erforderlich sind;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09684-1_41 d6e5519a22a08f72a44baed86e0d556a;de;;;7.2.;;;Telemedizin in Deutschland In Deutschland gibt es mittlerweile viele erfolgreiche Spezialanwendungen der Telemedizin. Allerdings sind diese Projekte aufgrund des hochkomplexen deutschen Gesundheitssystems, begrenzter Finanzierung, heterogener informationstechnischer (IT)-Standards in der ambulanten und Krankenhausversorgung, der unzureichenden amtlichen elektronischen Gesundheitskarte, unterschiedlicher Datenschutz- und Datenschutzbestimmungen meist nicht auf das ganze Bundesgebiet übertragbar von Bund und Ländern, Zweifel von Ärzten und Patienten sowie ungleiche Kosten und Nutzen für die verschiedenen Akteure in der Telemedizin. Die Lösungen dieser Probleme sind: bessere gesetzliche Regelungen für ein nahtloses Zusammenspiel von ambulanter und stationärer Versorgung, verbesserte IT-Standards und Unterstützung der Interoperabilität von telemedizinischer und anderer Gesundheits-IT, Anpassung der Gesundheitsorganisation, Arbeitsabläufe und Kostenerstattung für telemedizinische Leistungen sowie bessere Information und Aufklärung aller Akteure über die Notwendigkeit und Grenzen der Telemedizin. Der Nutzen der Telemedizin ist unbestritten, aber diese Vorteile für das gesamte Gesundheitssystem in Deutschland zu erreichen, erfordert viel Arbeit, Zeit und guten Willen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74658-4_60 7dbbd210df412c0e4d05ed0222aab54f;de;;;7.2.;;;Sind Testsammlungen „echt“? Spiegelung der realen Komplexität in IR-Testsammlungen Die objektive Wirksamkeitsbewertung ist ein wichtiges Thema im Bereich Information Retrieval (IR), wie die zahlreichen Evaluierungskampagnen in diesem Bereich unterstreichen. Die zunehmende Verbreitung von Informationen hat zu einer Vielzahl von IR-Anwendungsszenarien geführt, die unterschiedliche Informationsarten (Modalitäten), heterogene Dokumente und kontextangereicherte Abfragen beinhalten. In diesem Beitrag argumentieren wir, dass die Komplexität akademischer Testsammlungen im Laufe der Jahre zugenommen hat, sie jedoch im Vergleich zu operativen Sammlungen in realen Anwendungen immer noch zu einfach sind. Darüber hinaus hat die Forschung Abrufmethoden für sehr spezifische Modalitäten wie Bewertungen, geografische Koordinaten und Zeitstempel hervorgebracht. Es ist jedoch noch unklar, wie neue Modalitäten systematisch in IR-Systeme integriert werden können. Wir schlagen daher eine Kategorisierung von Modalitäten vor, die nicht nur die Analyse der Komplexität einer Sammlung ermöglicht, sondern auch hilft, Methoden auf ganze Modalitätskategorien zu verallgemeinern, anstatt spezifisch für eine einzelne Modalität zu sein. Darüber hinaus diskutieren wir, wie eine so komplexe Sammlung methodisch für den Einsatz in einer Evaluationskampagne aufgebaut werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24027-5_23 7bc3f073a57c02d514735ce6a4ccc7c8;de;;;7.2.;;;Themenanalyse durch Durchsuchen von Schlagzeileninformationen Wie bei der Themendarstellung in Standard-Themenmodellen werden die Wörter, die in einem Dokument vorkommen, unter der Annahme „Wortsack“ gleich gewichtet. Die Wort-Themen-Zuordnung lehnt sich an die hochfrequenten Wörter an und ignoriert den Einfluss der niederfrequenten Wörter. Als Ergebnis wird es sich letztendlich auf die Leistung der Themenrepräsentation auswirken. Im Allgemeinen können die statistischen Informationen aus der gesamten Dokumentensammlung verwendet werden, um diese Situation zu verbessern. Darüber hinaus fassen Schlagzeilen bestimmter Dokumente, wie z. B. Nachrichtenartikel, normalerweise die wichtigen Elemente des Dokuments zusammen, und die Wörter in Schlagzeilen sind besser geeignet, um die Themen darzustellen. Allerdings betrachten nur wenige frühere Studien die Schlagzeile als reichhaltige Informationen, die für die Themenmodellierung von Bedeutung sind. In diesem Beitrag schlagen wir ein neues Schlagzeilen-basiertes Themenmodell vor, um eine wohlgeformte Themenbeschreibung zu erreichen. Experimentelle Ergebnisse zu drei weit verbreiteten Datensätzen zeigen, dass das vorgeschlagene auf Schlagzeilen basierende Modellierungsschema eine geringere Perplexität erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-62008-0_9 649a439b6bf029b2aee0a9187d66014b;de;;;7.2.;;;Ein hybrider Ansatz für den automatischen Wortabstand auf Koreanisch Dieses Papier schlägt ein hybrides automatisches Wortabstandssystem für die koreanische Sprache vor, das stochastische und wissensbasierte Ansätze kombiniert. Unser System definiert die optimalen Aufteilungspunkte eines Eingabesatzes unter Verwendung von zwei einfachen Parametern: (a) relative Worthäufigkeit und (b) Silben-N-Gramm-Statistik, extrahiert aus großen verarbeiteten Korpora, die 33.643.884 Wort-Token enthalten. Während dieses Verfahren Probleme aufgrund von eventuellem Datenrauschen unter Verwendung verarbeiteter Trainingsdaten und Datenknappheit unter Verwendung syllabischer n-Gramm-Statistiken und großer Korpora effizient löst, bleibt immer noch das Problem der Verarbeitung unsichtbarer Wörter, das selbst mit einem riesigen Korpus kaum zu bewältigen ist. Daher kompensiert diese Studie den stochastisch-basierten Ansatz, (a) die Kandidatenwörter dynamisch mit der längsten Radix-Auswahl unter möglichen Morphemen zu erweitern und (b) die ungleiche Behandlung zwischen lexikalischen Hauptkategorien und lexikalischen Nebenkategorien zu übernehmen. Das aktuelle kombinierte Modell beseitigt die Nachteile des stochastisch-basierten Wortabstandsalgorithmus und zeigt ermutigende Ergebnisse: Es erreichte eine Genauigkeit von 97,51% bei der Worteinheitskorrektur aus den externen Testdaten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24677-0_30 53ff0835aa482735cea302bfb019f02b;de;;;7.2.;;;Eine UML-basierte Methode zur Entwicklung von Richtlinien zur Unterstützung des Vertrauensmanagements Die meisten bestehenden Ansätze für das Vertrauensmanagement konzentrieren sich auf die Frage der Vertrauenswürdigkeit anderer Entitäten und der Vertrauensbildung zwischen Entitäten. Dies ist besonders relevant für dynamische, offene und verteilte Systeme, bei denen Identität und Absichten anderer Entitäten ungewiss sein können. Diese Ansätze bieten Methoden zum Management von Vertrauen und damit zum Management von Risiken und Sicherheit. Die Methoden befassen sich jedoch hauptsächlich mit dem Trustmanagement aus Sicht des Treugebers und der Frage der Risikominderung, denen der Treugeber ausgesetzt ist. Dieses Papier befasst sich mit der wichtigen, aber ziemlich vernachlässigten Herausforderung, die Risiken zu verstehen, denen ein ganzes System ausgesetzt ist, wenn einige der Akteure innerhalb des Systems vertrauensbasierte Entscheidungen treffen. Das Papier trägt dazu bei, indem es eine Methode zur Modellierung und Analyse von Vertrauen sowie zur Identifizierung und Bewertung der damit verbundenen Risiken und Chancen vorschlägt. Die Analyse erleichtert die Erfassung von Vertrauensrichtlinien, deren Durchsetzung die vertrauensbasierten Entscheidungen innerhalb des Systems optimiert. Unterstützt wird das Verfahren durch formale, UML-basierte Sprachen zur Modellierung von Vertrauensszenarien und zur Spezifikation von Vertrauensrichtlinien.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09428-1_3 5310efc9f9d1ca6fc8e1f7e4656d4f51;de;;;7.2.;;;Stalker, eine mehrsprachige Text-Mining-Suchmaschine für Open Source Intelligence Open Source Intelligence (OSINT) ist eine Disziplin zum Sammeln von Informationen, bei der Informationen aus offenen Quellen gesammelt und analysiert werden, um nutzbare Informationen zu erzeugen. Die internationalen Geheimdienstgemeinschaften haben erlebt, dass Open Sources in den letzten Jahren immer einfacher und billiger zu erwerben sind. Aber bis zu 80 % der elektronischen Daten sind textuell und die wertvollsten Informationen sind oft versteckt und in Seiten verschlüsselt, die weder strukturiert noch klassifiziert sind. Der Zugriff auf all diese quell- und sprachlich heterogenen Rohdaten und deren Umwandlung in Informationen ist daher stark mit der automatischen Textanalyse und -synthese verbunden, die stark mit der Beherrschung der Probleme der Mehrsprachigkeit verbunden ist. Dieses Papier beschreibt ein Content-Enablement-System, das sowohl Experten als auch der allgemeinen Öffentlichkeit eine tiefe semantische Suche und einen Informationszugriff auf große Mengen verteilter Multimediadaten ermöglicht. STALKER bietet eine sprachunabhängige Suche und dynamische Klassifikationsfunktionen für eine breite Palette von Daten, die aus mehreren Quellen in einer Reihe kulturell unterschiedlicher Sprachen gesammelt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88181-0_5 37d56fe68088aef07f7b71217f501924;de;;;7.2.;;;Ein genetischer Programmieransatz zum Erlernen semantischer Informationsextraktionsregeln aus Nachrichten Aufgrund der zunehmenden Datenmenge, die von Nachrichtenquellen bereitgestellt wird, und des benutzerspezifischen Informationsbedarfs wurden in letzter Zeit viele Nachrichtenpersonalisierungssysteme vorgeschlagen. Häufig verarbeiten diese Systeme Nachrichtendaten automatisch zu Informationen, wobei sie sich auf zugrunde liegende Wissensbasen stützen, die Konzepte und deren Beziehungen für bestimmte Domänen enthalten. Dazu werden häufig Informationsextraktionsregeln verwendet, die jedoch meist manuell erstellt werden. Da es schwierig ist, ein Gleichgewicht zwischen Präzision und Erinnerung effizient aufrechtzuerhalten, während ein manueller Ansatz verwendet wird, präsentieren wir einen auf genetischer Programmierung basierenden Ansatz zum automatischen Lernen semantischer Informationsextraktionsregeln aus (Finanz-)Nachrichten, die Ereignisse extrahieren. Unsere Bewertungsergebnisse zeigen, dass unsere Regeln im Vergleich zu den von erfahrenen Benutzern erstellten Regeln zur Informationsextraktion um 27 % höher sind;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11749-2_32 830fb6cd567924a9fad3f0d903af977c;de;;;7.2.;;;Organisation der Informationsproduktion In diesem Kapitel analysieren wir, wie alternative Organisationen der Informationsproduktion mit der Anreizbereitstellung interagieren. Einige verwandte Fragen wurden in Kapitel 3 behandelt. Der Hauptunterschied besteht darin, dass wir den Auswahlsätzen und den Motivationen der Spieler jetzt mehr Struktur auferlegen, sodass wir die Analyse noch ein Stück weit vorantreiben können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-48636-4_10 1a5fe4411468f608157c25f90518e1ef;de;;;7.2.;;;Experimentelle Bewertung des bestandsbasierten diskret aktualisierenden Market Makers für das unternehmensinterne Vorhersagemarktsystem mit VIPS Dieser Beitrag entwickelt ein unternehmensinternes Prognosemarktsystem als kollektiv-wissensbasiertes Prognoseinstrument für ein Unternehmen und bewertet dessen Leistung durch Laborexperimente. Das System verwendet die Variable-Interval Prediction Security (VIPS) als die auf dem Markt zu handelnde Vorhersagesicherheit und wird von einem ursprünglichen computerisierten Market Maker gesteuert, der für den Wertpapiertyp geeignet ist. Der Market Maker bewertet jede Einheit von VIPS mit einer Gaußschen Preisverteilung und aktualisiert die Verteilung intermittierend durch eine bestandsbasierte Aktualisierungslogik entsprechend den Transaktionen im Markt. Laborexperimente werden mit einem virtuellen Bedarfsprognoseproblem durchgeführt, um zu untersuchen, ob das System als subjektives Prognosewerkzeug richtig funktioniert. Die Experimente bestätigen, dass das System in der Lage ist, Arbitrage-Aktionen zu bestrafen und daher seine Leistung ziemlich stabil ist. Darüber hinaus kann die Ausgabepreisverteilung als ungefähre Prognoseverteilung dienen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16358-6_7 efe1b6d53f23dcff85f1b57c52529277;de;;;7.2.;;;Auf dem Weg zu einer effizienten Leistungsbewertung von Kommunikationssystemen, die durch Nachrichtensequenzdiagramme beschrieben werden Ein Message Sequence Chart (MSC) ist eine allgemeine Beschreibung der Nachrichteninteraktion zwischen Systemkomponenten und ihrer Umgebung. Die Kommunikation zwischen verteilten Instanzen kann durch MSCs beschrieben werden und diese Beschreibungen können um Begriffe für Zeitverbrauch und Ressourcen erweitert und anschließend in ein Systemleistungsmodell aufgenommen werden. Solche Modelle können durch diskrete Ereignissimulation oder unter vernünftigen Annahmen alternativ mit analytischen Warteschlangennetzwerkalgorithmen evaluiert werden. Auf diese Weise können mit geringem Aufwand Steady-State-Leistungskennzahlen wie Ressourcenauslastungen und End-to-End-Verzögerungen berechnet werden. Die Simulation verwendet die gleichen Eingaben wie die analytischen Formeln und ermöglicht die Untersuchung des dynamischen Leistungsverhaltens oder die Untersuchung von Modellen mit Merkmalen, die mit analytischen Formeln nicht behandelt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39979-7_27 07c8c631093458b9ea3e592109b0ed0e;de;;;7.2.;;;World Framework für Sicherheits-Benchmark-Änderungen Das Papier enthält die Präsentation eines Rahmenwerks, das die Qualität von Informationssicherheitsprodukten und -verfahren erheblich verbessern würde, und einen Kommentar zu den Schwierigkeiten bei der Implementierung eines solchen Modells. Die Hauptidee hinter dem Rahmen ist die Schaffung einer Stelle, die die Qualität von Informationssicherheitsprodukten und -verfahren bewertet, ähnlich dem System der ISO 9000-Zertifikate.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35691-4_34 1a3ab7076c2cc011fed9bf28a0409a9e;de;;;7.2.;;;Patientenentwicklung auf einen Blick: Eine Auswertung einer medizinischen Datenvisualisierung Dieser Beitrag beschreibt die Ergebnisse einer Evaluationsstudie eines Prototyps zur Visualisierung zeitorientierter medizinischer Daten. Probanden waren neun Ärzte. Der Prototyp kombiniert bekannte visuelle Darstellungstechniken und umfangreiche Interaktionstechniken. Ziel der Studie war es, die Benutzerfreundlichkeit des Systems zu beurteilen und zu beurteilen, ob der Prototyp relevante Probleme von Ärzten in Krankenhäusern löst. Es zeigte sich, dass einer der großen Vorteile des Systems darin bestand, dass Ärzte die Entwicklung der Patienten auf einen Blick sehen konnten. Es zeigte sich auch, dass die Nutzer ein leicht erlernbares und verständliches Design und vertraute Visualisierungen eindeutig bevorzugten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23768-3_24 da18e774661511b6ec3fc9d169f3c150;de;;;7.2.;;;Untersuchung des Einflusses des ethischen Klimas von Organisationen auf das Wissensmanagement In den letzten Jahren wurde Wissensmanagement als wesentliche Strategie zur Förderung der Schaffung von organisatorischem intellektuellem Kapital eingesetzt. Organisatorisches intellektuelles Kapital kann sowohl individuell als auch kollektiv abgeleitet werden, um persönliches und organisatorisches Wissen zu schaffen, zu speichern, zu teilen, zu erwerben und anzuwenden. Einige Organisationen konzentrieren sich jedoch nur auf die Entwicklung des öffentlichen Gutes, trotz der Bedenken, die sich aus dem Eigeninteresse des Einzelnen oder möglichen Risiken ergeben. Das unterschiedliche Anliegen individueller und kollektiver Perspektiven auf Wissensmanagement führt unweigerlich zu ethischen Konflikten und ethischer Kultur in der Organisation (Jarvenpaa et al., J Manage Inf Syst 14(4):29–64,;-;-;-;https://link.springer.com/article/10.1007/s10551-010-0725-5 27af1e0f74c5ee7234e7adbcff54f3cd;de;;;7.2.;;;Räumliche endliche nicht-gaußsche Mischung für die Farbbildsegmentierung Color Ein neuer Farbbildsegmentierungsalgorithmus basierend auf der Integration von räumlichen Informationen in endliche verallgemeinerte Dirichlet-Mischungsmodelle wird vorgestellt. Die Integration räumlicher Informationen erfolgt über die Berücksichtigung von Bildpixelnachbarschaften. Das dargestellte Segmentierungsmodell wird unter Verwendung einer Maximum-Likelihood-Schätzung innerhalb eines Erwartungsmaximierungs-(EM)-Optimierungsrahmens gelernt. Die mit realen Bildern quantitativ ausgewerteten Ergebnisse sind sehr ermutigend und besser als die mit ähnlichen Ansätzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24965-5_58 aae69426c4bbb0d5628ae7363734b2b8;de;;;7.2.;;;Nutzbare Schnittstellen mit kulturellen Dimensionen entwerfen Es gibt ebenso viele Argumente dagegen wie die Unterstützung der Aufnahme von Kultur in das Design von Benutzeroberflächen. Ein Argument legt nahe, dass es notwendig ist, das subjektive kulturelle Profil der Schnittstelle mit dem kulturellen Profil der Benutzer abzugleichen, um die Benutzerfreundlichkeit und Leistung zu verbessern. Im Gegensatz dazu argumentieren wir, dass die Schnittstellendesignmerkmale, die erforderlich sind, um Schnittstellen zu entwerfen, die eine Seite von vier der fünf von Hofstede vorgeschlagenen Kulturdimensionen berücksichtigen, zu einer Erhöhung der Benutzerfreundlichkeit für alle Benutzer führen, unabhängig vom kulturellen Profil der Benutzer. Die Sekundärdatenanalyse eines früheren Experiments hat unser Argument etwas unterstützt, aber wir kommen zu dem Schluss, dass weitere Forschungen zu den Auswirkungen von Hofstedes kulturellen Dimensionen erforderlich sind, bevor unsere Hypothesen akzeptiert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/11555261_57 efd55c51fd47f31bb28870d6b51debeb;de;;;7.2.;;;Computergestützte Entscheidungsfindung in der Abfallwirtschaft Es wird auf die zunehmende Verbreitung von Computern als Hilfsmittel zur Verwaltung technischer Systeme hingewiesen. Im Rahmen des Umweltmanagements werden Geoinformationssysteme (GIS) zunehmend zur Unterstützung und Strukturierung der raumbezogenen Informationen zum Projekt eingesetzt, während Multicriteria Decision Aid (MCDA) einen rationalen Rahmen und Algorithmen zur Entscheidungsfindung in angesichts vieler und widersprüchlicher Entscheidungskriterien. Zur Entwicklung von Entscheidungsunterstützungssystemen durch die Verknüpfung von GIS mit MCDA wird derzeit am Joint Research Center an einer Methodik geforscht. Die Methodik wird skizziert und eine aktuelle Anwendung auf die Bewirtschaftung von Industrieabfällen auf regionaler Ebene beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-3213-0_12 8dd6911c8bc7e3c930114d1fe7ff1571;de;;;7.2.;;;Reise nach DOR: Eine Retro-Science-Fiction-Geschichte über die Erforschung von eRezepten Der Kern dieser Arbeit ist eine Science-Fiction-Kurzgeschichte. Wir sind auf dem Planeten DOR. Eine Gruppe von Wissenschaftlern arbeitet an einem Experiment, bei dem die zugrunde liegenden Mechanismen der Getriebe einer Kolossmaschine (ein komplexes System aus Zahnrädern und Hebeln, Drähten und Rohren) verändert werden. Einige seiner Mechanismen sind auch als bekannt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21364-9_10 b3e28a3c5dc086008c292b0f97c8ffaa;de;;;7.2.;;;Hybride Aktivitäten von AODV für drahtloses Ad-hoc-Sensornetzwerk Mit der bevorstehenden Verfügbarkeit von kostengünstigen Kurzstrecken zusammen mit den Fortschritten bei drahtlosen Netzwerken wird erwartet, dass drahtlose Ad-hoc-Sensornetzwerke allgemein eingesetzt werden. Viele Anwendungen für drahtlose Kommunikationsnetze wie drahtlose Sensoren, industrielle Steuerung und Überwachung, intelligente Landwirtschaft, Bestandsverfolgung und Sicherheit würden von einem Kommunikationsprotokoll profitieren. Routing spielt in solchen Szenarien eine wichtige Rolle. In diesem Papier wurde ein Hybrid-Routing-Protokoll namens Hybrid-AODV vorgeschlagen. Das Ziel dieses Papiers ist es, die Leistung des vorgeschlagenen Protokolls basierend auf einem Ad-hoc-Sensornetzwerk zu charakterisieren. Ein umfassendes Simulationsexperiment zeigt, dass das vorgeschlagene Hybrid-AODV-Protokoll in Bezug auf PDR und Ende-zu-Ende-Verzögerung für alle Mobilitätsraten und verschiedene Bereichsgittergrößen besser abschneidet als AODV.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12214-9_8 97c923d2cdb0ef51021037cdfb97e126;de;;;7.2.;;;Bewertung des Spielererlebnisses: Ein Ansatz basierend auf der Personal Construct Theory Die wissenschaftliche und industrielle Gemeinschaft im Zusammenhang mit der Videospielforschung und -wirtschaft beschäftigt sich immer mehr mit der Notwendigkeit einer angemessenen Bewertung und Bewertung von Spielen. Dieses Papier schlägt eine Bewertungsmethodik vor, die auf der Personal Construct Theory (PCT) basiert. Mit dem PCT können identifizierende Konstrukte verarbeitet werden, um einen Raum zu definieren, in dem domänenrelevante Elemente – in unserem Fall VGs – positioniert werden können. Das Hauptlob von PCT ist, dass der testführende Forscher den Benutzern keine vordefinierten Konstrukte zur Verfügung stellt, was den Bewertungsprozess verzerren kann. Darüber hinaus verbindet PCT qualitative Aspekte mit einer quantitativen Bewertung ihrer Relevanz, was insbesondere für einen operativen Ansatz auch im Game Design nützlich ist. In diesem Papier untersuchen wir die Anwendung des PCT auf den besonderen Fall der Bewertung ganzer VG-Typologien. Bei der Diskussion der Ergebnisse zeichnen und heben wir hervor, dass VGs als spannende Herausforderungen wahrgenommen werden, bei denen persönliche Fähigkeiten kontinuierlich auf die Probe gestellt werden. Dies unterstreicht die reaktive Natur von VGs und die Tatsache, dass Spieler gerne stimuliert werden und ihre Reaktionsfähigkeiten entwickeln und testen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04052-8_11 bef34aa9fe016a90abff1c310b86f28c;de;;;7.2.;;;Bürgerevaluation einer Online-Plattform zur Visualisierung von Argumenten für ePartizipation Tools zur Argumentvisualisierung (AV) erleichtern strukturierte Debatten unter Verwendung von Elementen wie Themen, Positionen und Argumenten. Auf diese Weise erscheinen AV-Tools vielversprechend zur Verbesserung der eParticipation, z.B. durch Vermeidung von Wiederholungen und Erhöhung der Klarheit in Debatten. In diesem Papier präsentieren und diskutieren wir die Meinung der Bürger zur Nutzung einer AV-Plattform für ePartizipation, insbesondere zur Diskussion des aufkommenden Themas Umwelt und Klimawandel. Die Ergebnisse waren interessant, die meisten Nutzer fanden die Plattform und das Thema interessant und verständlich und gaben an, die Plattform in Zukunft wieder zu nutzen und weiterzuempfehlen. Es gab jedoch auch negative Rückmeldungen, meist in Bezug auf Dinge, die die Benutzer frustrierten (z. Da unsere Bewertung auf einem ausgereiften AV-Tool basiert und sich auf allgemeine Aspekte solcher Tools konzentriert, glauben wir, dass die Ergebnisse auch auf andere AV-Plattformen anwendbar sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33250-0_5 7bedc86d5dfd5662d7ea1b4197efca2e;de;;;7.1.;;;Entwurf und Implementierung des Systems zur Bewertung und Verwaltung der Gesamtqualität von Universitätsstudenten Dieses Papier zielt darauf ab, eine umfassende, objektive, faire, unparteiische und effiziente Systemplattform zur Bewertung und Verwaltung der Gesamtqualität von Universitätsstudenten für Universitäten und Bildungsbehörden auf allen Ebenen bereitzustellen. In diesem System wird die dreistufige B/S-Struktur verwendet, das Informationszentrum fungiert als Kern des Gesamtrahmens, und Funktionsmodule werden basierend auf J2EE+Struts und der Orecle 10g-Datenbank entworfen. Schließlich wird das Konzept der Datenbank, der Logik und der physikalischen Struktur entworfen. Alles in allem zeigen die Betriebsergebnisse, dass das System die beabsichtigten Designanforderungen erfüllt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03718-4_18 60eaf29e2dcf9e5f738b1daef972618f;de;;;7.2.;;;Karten, Einfluss und Beeinflusst werden Durch das Aufkommen der Geodateninfrastruktur verschmelzen die Welten der professionellen und öffentlichen Kartennutzer. Mit dieser Entwicklung können Geowissenschaftler in hochgradig interaktiven Geovisualisierungsumgebungen arbeiten, während Outdoor-Enthusiasten ihre Aktivitäten mit Google Earth im Feld aufzeichnen, aber auch die Karte an eine andere Position bringen. Diese Position ist stark von anderen Disziplinen geprägt, ermöglicht es aber auch Kartographen, zur Entwicklung dieser und anderer Disziplinen beizutragen.;-;-;-;https://link.springer.com/article/10.1007/BF03543951 8f59ed8dbf602e5dbeffb370487f151c;de;;;7.2.;;;Evaluierung eines integrierten Papier- und digitalen Dokumentenmanagementsystems Papierdokumente sind nach wie vor fester Bestandteil unseres Arbeitsalltags und werden es voraussichtlich auch auf absehbare Zeit bleiben. Glücklicherweise haben Fortschritte in der elektronischen Technologie in den letzten Jahren die Entwicklung digitaler Systeme ermöglicht, die Papier- und digitales Dokumentenmanagement besser integrieren. Keines dieser integrierten Dokumenten-Management-Systeme wurde jedoch unseres Wissens dahingehend evaluiert, ob die Benutzer sie tatsächlich für die Verwaltung von Papierdokumenten als wertvoll erachten. In diesem Beitrag präsentieren wir eine Benutzerstudie eines solchen Systems namens SOPHYA, das eine Möglichkeit bietet, die Verwaltung von Dokumentenartefakten aus der realen Welt (z. und das Ablegen von Dokumenten können insbesondere bei großen Sammlungen besser unterstützt werden. Bei der Studie handelt es sich um eine laborbasierte Auswertung, bei der Teilnehmer mit Erfahrung im Dokumentenmanagement das System für verschiedene Aufgaben wie das Auffinden und Abrufen von Ordnern nutzten und aufgrund ihrer eigenen Erfahrungen Feedback gaben. Die Ergebnisse dieser Studie zeigen, dass Benutzer in der Lage sind, Softwarefunktionen, die sie zum Speichern und Abrufen von elektronischen Dokumenten verwenden, auch zur effektiven Verwaltung von Papierdokumenten einzusetzen. Unsere Studie hat auch eine Reihe weiterer potenzieller Vorteile identifiziert, die sich die Benutzer für eine solche Technologie in ihren unterschiedlichen Arbeitsumgebungen vorstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23765-2_8 8375f6cf9fef058dd4908d8af72dc804;de;;;7.2.;;;Natural Language Processing: eine Prolog-Perspektive Natural Language Processing (NLP) ist ein dynamisches Feld der interdisziplinären Informatikforschung. Letztendlich zielt NLP darauf ab, Intelligenz in Software einzubauen, damit Software eine natürliche Sprache so geschickt und kunstvoll wie Menschen verarbeiten kann. Prolog, eine universelle Logikprogrammiersprache, wurde ausgiebig verwendet, um NLP-Anwendungen oder Komponenten davon zu entwickeln. Dieser Bericht befasst sich mit der Einführung des interessierten Lesers in das weite Feld des NLP in Bezug auf NLP-Anwendungen, die in Prolog oder aus Prolog-Komponenten erstellt werden.;-;-;-;https://link.springer.com/article/10.1007/s10462-009-9151-4 f8203514d79784d74e67009173cfe5c4;de;;;7.2.;;;PLM-Reifebewertung und -vorhersage basierend auf einer Reifebewertung und Fuzzy-Sets-Theorie Unternehmen verwenden PLM-Reifegradmodelle, um die PLM-Implementierung zu bewerten und relative Positionen bei der PLM-Auswahl zu erkennen, um die Vorteile von PLM besser zu nutzen. Die meisten traditionellen PLM-Reifemodelle sind jedoch relativ zeit- und energieaufwendig. Diese Arbeit konzentriert sich auf den Vorschlag eines Fuzzy Extended PCMA (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45937-9_33 41c487bc6929674e0d9cd5dfe9184f62;de;;;7.2.;;;Gekennzeichneter VoIP-Datensatz zur Evaluierung von Intrusion Detection VoIP ist zu einer Hauptanwendung der Multimediakommunikation über IP geworden. Viele Initiativen auf der ganzen Welt konzentrieren sich auf die Erkennung von Angriffen auf VoIP-Dienste und -Infrastrukturen. Aufgrund des Fehlens eines gemeinsamen gekennzeichneten Datensatzes, ähnlich dem, der bei der TCP/IP-Netzwerk-basierten Intrusion Detection verfügbar ist, können ihre Ergebnisse nicht verglichen werden. VoIP-Anbieter können ihre Daten aufgrund von Datenschutzvereinbarungen der Nutzer nicht zur Verfügung stellen. In diesem Whitepaper schlagen wir ein Framework zum Anpassen und Generieren von VoIP-Datenverkehr in kontrollierten Umgebungen vor. Wir bieten einen gekennzeichneten Datensatz, der in zwei Arten von SIP-Netzwerken generiert wird. Unser Datensatz besteht aus Signalisierungs- und anderen Protokollspuren, Anrufdetailaufzeichnungen und Serverprotokollen. Mit diesem Beitrag wollen wir die Arbeiten zur VoIP-Anomalie und Intrusion Detection durch deren Anwendung auf gemeinsame Datensätze vergleichbar machen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13971-0_10 af0498f838ce0af0f58a8f82079e7b2a;de;;;7.2.;;;Ein Rahmen zur Bewertung der semiotischen Interoperabilität für den Informationsaustausch Interoperabilität ist die Fähigkeit von Einheiten in einer Organisation zusammenzuarbeiten, die Aspekte von der technischen bis zur geschäftlichen Ebene abdeckt. In den letzten Jahrzehnten haben sich das Interoperabilitätskonzept und sein Kontext rasant verändert. Es erweitert sich vom weitgehend IT-fokussierten Bereich zum geschäftsorientierten Bereich. Die Bewertung der Interoperabilität ist ein zunehmendes Anliegen in verschiedenen Forschungsbereichen. Es gibt eine wachsende Zahl von Forschern, die begonnen haben, sich nicht nur auf digitale Aspekte zu konzentrieren, sondern auch auf wirtschaftsbezogene, menschenbezogene und soziale Aspekte. Unsere vorangegangene Untersuchung zeigt, dass Interoperabilitätsprobleme aus diesen Perspektiven zunehmend Anlass zur Sorge geben. Wenn wir den Informationsaustausch und die geschäftliche Zusammenarbeit innerhalb von Organisationen untersuchen, werden die Geschäftsaktivitäten und Operationen in Organisationen, die sich direkt auf die Geschäftsleistung auswirken, von Geschäftsprozessen bestimmt. Daher ist die Interoperabilität zwischen Geschäftsprozessen der Schlüssel zur Gewährleistung des Informationsaustauschs. Dieses Papier schlägt einen Rahmen aus einer neuen Perspektive vor – der semiotischen Perspektive, um die Interoperabilitätsbewertung zu verbessern. Der Rahmen leitet sich aus einer Machbarkeitsstudie ab, die Interoperabilitätsbarrieren in Organisationen untersucht. Das Framework bietet die Möglichkeit, die Interoperabilität zwischen Geschäftsprozessen zu analysieren, zu messen und zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94541-5_9 4f11b0bd89b899d9bfbbea699adf68c8;de;;;7.2.;;;Komplexe Fragen beantworten: Homogen oder heterogen, welches Ensemble ist besser? In diesem Beitrag werden homogene und heterogene Ensembles verwendet, um die komplexe Fragestellungsaufgabe zu lösen. Für das homogene Ensemble verwenden wir Support Vector Machines (SVM) als Lernalgorithmus und verwenden einen Cross-Validation Committees (CVC)-Ansatz, um mehrere Basismodelle zu bilden. Wir verwenden SVM-, Hidden-Markov-Modelle (HMM), Conditional Random Fields (CRF) und Maximum Entropy (MaxEnt)-Techniken, um verschiedene Basismodelle für das heterogene Ensemble zu erstellen. Experimentelle Analysen zeigen, dass beide Ensemble-Methoden konventionelle Systeme übertreffen und heterogene Ensembles besser sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07983-7_21 cafaa8a70e5d84d02906d0feaee90da8;de;;;7.2.;;;Evaluation einer Argumentvisualisierungsplattform durch Experten und Entscheidungsträger Tools zur Argumentvisualisierung (AV) ermöglichen strukturierte Debatten rund um Themen, Positionen und Argumente. Diese Tools haben das Potenzial, die Transparenz erheblich zu verbessern, z.B. indem es das Verständnis komplexer Gesetze und Diskussionen ermöglicht. In diesem Papier präsentieren wir die Ergebnisse der Evaluierung einer AV-Plattform durch Experten und politische Entscheidungsträger. Die Ergebnisse legen nahe, dass das Potenzial solcher Instrumente insbesondere für das Verständnis komplexer Gesetze und Debatten groß ist. Die Ergebnisse deuten darauf hin, dass ein AV-Tool potenziell auch für massive Überlegungen verwendet werden kann, wenn jedoch die Benutzerfreundlichkeit weiter verbessert wird. Sie schlagen außerdem vor, dass ein AV-Tool für die Analyse- und Politikgestaltungsphasen der Politikgestaltung besonders relevant erscheint, wo die Identifizierung, Ausarbeitung und Präsentation komplexer Themen erforderlich ist. In diesem Papier haben wir ein ausgereiftes AV-Tool verwendet und konzentrieren uns auf die Bewertung allgemeiner Aspekte solcher Plattformen, daher glauben wir, dass die Ergebnisse auch für andere AV-Plattformen gelten können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23333-3_7 710fcbf12bad43d64b0bec0d6c0e91b8;de;;;7.2.;;;KLM Form Analyzer: Automatisierte Auswertung von Aufgaben zum Ausfüllen von Webformularen mithilfe von Human Performance Models Das Ausfüllen von Formularen ist eine häufige und häufige Aufgabe bei der Webinteraktion. Daher ist es eine wichtige Aufgabe, Webformulare zu entwerfen, die die Effizienz der Benutzer steigern. In diesem Artikel wird ein Tool mit dem Namen KLM Form Analyzer (KLM-FA) vorgestellt, das mühelose Vorhersagen der Ausführungszeiten von Aufgaben zum Ausfüllen von Webformularen ermöglicht. Dazu verwendet das Tool etablierte Modelle der menschlichen Leistung, nämlich das Keystroke Level Model und optional das Fitts-Gesetz. KLM-FA kann verschiedene Bewertungsszenarien sowohl im formativen als auch im summativen Kontext unterstützen, sowie nach unterschiedlichen Interaktionsstrategien oder modellierten Benutzereigenschaften. Eine Studie untersuchte die Genauigkeit von KLM-FA-Vorhersagen, indem sie sie mit den Ausführungszeiten der Teilnehmer für sechs Aufgaben zum Ausfüllen von Formularen auf beliebten Social-Networking-Websites verglich. Das Tool erstellte auf effiziente Weise hochpräzise Vorhersagen (89,1 % Übereinstimmung mit Benutzerdaten).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40480-1_36 0eb5403fc308f0f1884f4685ca5a2ef4;de;;;7.2.;;;Evaluierung einer P300-basierten Schnittstelle zur Smart Home-Steuerung In diesem Beitrag wird eine hybride neurophysiologische Schnittstelle zur Steuerung eines virtuellen Smart Homes evaluiert. Elektrookulographie (EOG) und Elektroenzephalographie (EEG) Techniken werden verwendet, um Biosignale vom Körper des Benutzers aufzuzeichnen. Die Signale werden weiter analysiert und in Befehle zur Steuerung eines virtuellen Smart Homes übersetzt. Der Zweck der Studie war die Bewertung der implementierten Schnittstelle und die Ablehnung einer Reihe von möglichen fehlerhaften Befehlen, die von der Schnittstelle generiert wurden. Aus einem Hauptmenü kann der Benutzer eine Maske auswählen, die ein zweites Menü mit zusätzlichen Befehlen aufdeckt. Der Benutzer hat die Möglichkeit, die Verbreitung einer fehlerhaft ausgewählten Maske im System abzubrechen, indem er einen anderen Punkt aus dem Hauptmenü auswählt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28255-3_20 1823aafab4aa743038c676a0d28b1d82;de;;;7.2.;;;Verständlichkeitsbewertung eines VoIP Multi-Flow Block Interleavers Inter Diese Arbeit trägt dazu bei, zu demonstrieren, welche Wahrnehmungsvorteile erwartet werden können, indem den Netzwerkknoten einige Verarbeitungsfunktionen für die Klasse der interaktiven Audiostreaming-Anwendungen hinzugefügt werden. Insbesondere schlagen wir einen neuen Sprachstrom-Multi-Flow-Block-Interleaver vor und wir zeigen, dass er eine Verständlichkeitsleistung sehr nahe dem Referenz-End-to-End-Interleaver bietet, selbst unter Bedingungen, bei denen die Ende-zu-Ende-Verschachtelung nicht durchführbar ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00972-3_18 dc004ecf0f628a32f7e442e6d638eb79;de;;;7.2.;;;Abfrageapproximation durch semantische Ähnlichkeit in GeoPQL In diesem Beitrag wird eine Methode zur Query-Approximation in geographischen Informationssystemen vorgeschlagen. In unserem Ansatz werden Abfragen durch die Geographical Pictorial Query Language (GeoPQL) ausgedrückt und die Abfrageannäherung erfolgt mit;-;-;-;https://link.springer.com/chapter/10.1007/11915072_73 01736ef510b355a20f214a976d52a78a;de;;;7.2.;;;Ein erkennungsbasierter Ansatz für das Datenbankontologie-Design In diesem Artikel stellen wir einen Ansatz für das aufgabengesteuerte Ontologie-Design vor, der auf der Informationserkennung aus Datenbankschemata basiert. Es werden Techniken zum halbautomatischen Auffinden von Begriffen und Beziehungen, die im Informationsraum verwendet werden, zur Bezeichnung von Konzepten, ihren Eigenschaften und Verknüpfungen vorgeschlagen, die in zwei Stufen angewendet werden. Im ersten Schritt liegt der Fokus auf der Entdeckung der Heterogenität/Ambiguität von Datenrepräsentationen in verschiedenen Schemata. Dazu werden Schemaelemente nach definierten Vergleichsmerkmalen verglichen und Ähnlichkeitskoeffizienten bewertet. Diese Stufe erzeugt eine Reihe von Kandidaten für die Vereinigung in Ontologiekonzepte. In der zweiten Phase werden Entscheidungen darüber getroffen, welche Kandidaten zu Konzepten vereinigen und wie Konzepte durch semantische Verknüpfungen verknüpft werden sollen. Auf Ontologiekonzepte und -verknüpfungen kann aus unterschiedlichen Perspektiven zugegriffen werden, sodass die Ontologie verschiedenen Zwecken dienen kann, z Terminologische Beziehungen zwischen Elementen in verschiedenen Schemata.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008686328306 a6c37c9357213b6ece8a651627a6a4fd;de;;;7.2.;;;Verwenden von Glaubensnetzwerken und Fisher Kernels für die strukturierte Dokumentenklassifizierung Wir betrachten die Klassifizierung von strukturierten (z. B. XML) Textdokumenten. Wir schlagen zunächst ein generatives Modell auf Basis von Belief Networks vor, das es uns ermöglicht, gleichzeitig Struktur- und Inhaltsinformationen zu berücksichtigen. Anschließend zeigen wir, wie dieses Modell mit der Fisher-Kernel-Methode zu einem effizienteren Klassifikator erweitert werden kann. In beiden Fällen werden Modellparameter aus einem gekennzeichneten Trainingssatz repräsentativer Dokumente gelernt. Wir präsentieren Experimente zu zwei Sammlungen von strukturierten Dokumenten: WebKB, das sich zu einem Referenzkorpus für die HTML-Seitenklassifikation entwickelt hat, und das neue INEX-Korpus, das für die Evaluierung von XML-Informationsauffindungssystemen entwickelt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39804-2_13 32949d74dafc3ac3913f20ba3816b904;de;;;7.2.;;;Logikorientierte Vertraulichkeitsrichtlinien für die kontrollierte Interaktionsausführung Controlled Interaction Execution ist ein spezifisches Konzept der Inferenzsteuerung für logikorientierte Informationssysteme. Die Interaktionen umfassen die Beantwortung von Abfragen, die Aktualisierungsverarbeitung und die Veröffentlichung von Daten, und die Betriebssteuerung basiert auf deklarativen Richtlinien. Ergänzend zu einer früheren Umfrage zu diesem Konzept behandeln wir in dieser Arbeit verschiedene Formen von Vertraulichkeitsrichtlinien hinsichtlich ihrer Syntax, Semantik, Algorithmen und Pragmatik. Das Interesse eines Informationsanbieters an Vertraulichkeit betrachten wir jeweils als Ausnahme von seiner allgemeinen Bereitschaft und Zustimmung Informationen mit einem Kunden teilen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37134-9_1 51f256f1bca1062321ac6dd7e9a62228;de;;;7.2.;;;Definition von Wissensschichten für textuelle fallbasierte Argumentation Textuelle CBR-Anwendungen befassen sich mit Problemen, die traditionell von der Information Retrieval-Gemeinschaft angesprochen wurden, nämlich die Handhabung von Textdokumenten. Da CBR eine KI-Technik ist, stellt sich die Frage, welches Wissen das System verbessern kann, woher dieses Wissen kommt und wie es zur Leistungsfähigkeit eines solchen Systems beiträgt. Diesen Fragen werden wir in diesem Beitrag nachgehen, indem wir zeigen, wie die verschiedenen in einem bestimmten Bereich verfügbaren Erkenntnisse genutzt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0056342 74aa4bf46133ae81916c59f15ed6adf2;de;;;7.2.;;;Zur Bewertung der OSS-Vertrauenswürdigkeit: Lehren aus der Beobachtung relevanter OSS-Projekte Um die Einführung von Open-Source-Software (OSS) in der Industrie zu erleichtern, ist es wichtig, potenziellen Benutzern (d. Dieses Papier stellt einen Teil der Arbeit vor, die zu diesem Zweck im QualiPSo-Projekt geleistet wurde. Es wird eine Reihe von Faktoren vorgestellt, von denen angenommen wird, dass sie die Wahrnehmung der Vertrauenswürdigkeit beeinflussen. Um zu prüfen, ob auf Basis dieser Faktoren eine korrekte, vollständige und zuverlässige Bewertung der Vertrauenswürdigkeit abgeleitet werden kann, wurde eine Reihe bekannter OSS-Projekte ausgewählt. Anschließend wurde die Möglichkeit geprüft, die vorgeschlagenen Faktoren bei jedem Projekt zu bewerten: Nicht alle Faktoren scheinen beobachtbar oder messbar zu sein. Das Papier berichtet, welche Informationen zur Unterstützung der Evaluation zur Verfügung stehen und welche nicht. Dieses Wissen gilt als nützlich für Benutzer, die gewarnt werden, dass es bei der Charakterisierung von OSS-Produkten noch dunkle Bereiche gibt, und für Entwickler, die mehr Daten und Eigenschaften zu ihren Produkten bereitstellen sollten, um ihre Einführung zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09684-1_37 d46ef551c30195cca035546173093149;de;;;7.2.;;;Evaluation des offensiven Ansatzes in der Informationssicherheitsausbildung In der Informationssicherheitsausbildung an Universitäten besteht die Tendenz, nicht nur Schutzmaßnahmen, sondern auch Angriffstechniken zu vermitteln. Immer mehr Universitäten bieten praktische Labs an, in denen Studierende sowohl die Sicht der Angreifer als auch der Administratoren erfahren können. Das Kennenlernen der Sichtweise der Angreifer soll zu einem besseren Verständnis der Informationssicherheit und ihrer Probleme führen, verglichen mit der Vermittlung von reinen Verteidigungsstrategien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15257-3_18 f306153a0c4919112301431dc9b15353;de;;;7.2.;;;Domänenexperten, die die Interaktion auf die Benutzer zuschneiden – eine Evaluierungsstudie Dieses Papier stellt ACKTUS, ein Modellierungswerkzeug zur Entwicklung wissensbasierter Systeme für den Gesundheitsbereich, und eine Evaluierungsstudie des Systems vor. Der Hauptzweck der Evaluierung bestand darin, zu untersuchen, ob die Funktionalität und das Interaktionsdesign von ACKTUS ausreichend intuitiv waren, damit die Domänenexperten ihr Wissen einbringen und das Interaktionsdesign der Anwendungen der drei Endbenutzer modellieren können. Ein weiterer Zweck bestand darin, die Anwendbarkeit des Aktivitätsbewertungsprotokolls AAIMA für die Analyse zu bewerten. Das Studiendesign war qualitativ und formativ und nutzte Beobachtungen und Interviews mit Benutzern, um Daten zu sammeln. Es nahmen drei medizinische Experten und zwei Experten für Ergotherapie teil, die ihr Fachwissen in vier verschiedenen Bereichen zur Verfügung stellten. Die Teilnehmer verbesserten ihr Verständnis und ihre Fähigkeiten während des Evaluierungszeitraums, was zu verbesserten wissensbasierten Anwendungen führte. Das AAIMA-Protokoll hat sich bewährt und die Ergebnisse fließen in die laufende Entwicklungsarbeit zur Entwicklung der adaptiven Funktionalität der ACKTUS-Systeme ein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23765-2_44 c0ac0c16512faa77a872a73d20b64c8f;de;;;7.1.;;;Kritische Aspekte der Informations- und Kommunikationstechnologie in Vendor Managed Inventory Der Einsatz von Informations- und Kommunikationstechnologie (IKT) in der Zusammenarbeit in der Lieferkette hat bei Forschern und Praktikern große Aufmerksamkeit erregt. Die vielfältigen Aspekte der IKT bieten eine breite Auswahl an Forschungs- und Anwendungsfeldern. Dieses Papier behandelt den Informationsaustausch und legt einen besonderen Fokus auf den Grad der Datenintegration, wenn IKT zur Unterstützung des Nachschubprozesses nach dem Prinzip des Vendor Managed Inventory (VMI) eingesetzt wird, dh wenn der Lieferant für den Nachschubprozess im Auftrag des Kunden verantwortlich ist [1]. Die Ergebnisse kommen zu dem Schluss, dass es nicht die Fähigkeiten der verfügbaren Computertechnologie und der verfügbaren Anwendungen sind, die den Grad der Datenintegration in das Kollaborationsprogramm einschränken. Die wichtigste Einschränkung ist die Kompetenz und das Vertrauen der Entscheidungsträger in Informationsaustausch und Computersysteme und deren potenzielle Vorteile. Die angewandte Forschungsmethodik ist eine vergleichende Fallstudie, bei der der Grad der Datenintegration und der Grad der Datennutzung in fünf Fällen von VMI-Zusammenarbeit untersucht wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-77249-3_46 d5b6c617db6e4853bb1abead646d2ca5;de;;;7.1.;;;Management by Issues: ein Organisationssystem zur Bearbeitung von Problemen und Chancen Organisationen brauchen bessere Möglichkeiten, um den Prozess der Entdeckung und Handhabung von Problemen und Chancen zu fördern und zu kontrollieren. Dieser Artikel schlägt eine Methodik und ein Informationssystem vor, um diesen Prozess durch die Integration von Issue Management und Leistungsbewertung zu unterstützen. Ergebnisse einer Testimplementierung werden diskutiert.;-;-;-;https://link.springer.com/article/10.1057/palgrave.kmrp.8500063 a9a6e2db6bf83521776d59a95c162728;de;;;7.1.;;;Überdenken des Prozessmodells – Upstream-Management Elektrizitätsversorgungsunternehmen haben erhebliche organisatorische Veränderungen durchgemacht, die weitgehend von politischer und gesetzgeberischer Politik beeinflusst und vorangetrieben wurden. Sie haben sich im Allgemeinen von der vertikal integrierten, staatseigenen Monopolorganisation, die für die Erzeugung, Übertragung, Verteilung und Lieferung von Elektrizität verantwortlich ist, hin zu einem wettbewerbsfähigen Strommarkt bewegt . Dieser Trend hat erhebliche Auswirkungen auf die strategischen Entscheidungen zur Bereitstellung von Telekommunikationsdiensten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-40283-3_24 376557c49d4c304c35e020aff2e5d7e2;de;;;7.1.;;;Grenzüberschreitendes komplementäres Wissen managen: Konzeptionelle Entwicklungen im Geschäftsprozessansatz des Wissensmanagements in multinationalen Unternehmen Das aktuelle Interesse an „Wissensmanagement“ in Unternehmen (Nonaka und Takeuchi, 1995, von Krogh und Roos, 1996, Grant, 1997, Stewart, 1997, Boisot, 1998, Teece, 1998);-;-;-;https://link.springer.com/chapter/10.1057/9780230501553_13 daf5e6b50f8aa2557d50af17c9e32e45;de;;;7.1.;;;Auf dem Weg zur kollaborativen Abfrageplanung in Datenbanknetzwerken mit mehreren Parteien Verteilte Datenbanknetzwerke mit mehreren Parteien erfordern sichere und dezentralisierte Dienste zur Abfrageplanung. In dieser Arbeit schlagen wir den Dienst zur kollaborativen Abfrageplanung (CQP) vor, der es mehreren Parteien ermöglicht, Abfragen gemeinsam zu planen und gleichzeitig die Offenlegung sensibler Informationen zu kontrollieren. Wir führen mehrere simulierte Experimente durch, um die Leistungsmerkmale unseres Ansatzes im Vergleich zu anderen Planungsschemata zu bewerten, und untersuchen auch den Kompromiss zwischen der Vertraulichkeit von Informationen und der Effizienz des Abfrageplans. Die Auswertung zeigt, dass der CQP-Dienst bei der gemeinsamen Nutzung von mehr als 30 % der Abfrageplanungsinformationen zwischen Koalitionsparteien in der Lage ist, einigermaßen effiziente Abfragepläne zu erstellen. Am Ende skizzieren wir auch mögliche Verbesserungen des CQP-Service.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-20810-7_2 a5ae7e2f485246c7f22a7959eeee5b20;de;;;7.1.;;;Ein klarer Blick auf das Design rauscharmer Verstärker mit CMOS-Technologie Eine detaillierte Erklärung zum Design von rauscharmen Verstärkern wird in diesem Papier gegeben. Die Breitband-Low-Noise-Verstärker sind in 0,18 µm CMOS-Technologie implementiert. Die verschiedenen Designs von rauscharmen Verstärkern wie LNAs, die die Verlustleistung reduzieren, weniger Fläche belegen und weniger Strom verbrauchen, werden im Hinblick auf dieses Papier vorgestellt. Ein rauscharmes Verstärkerdesign verwendet verschiedene Methoden, z. B. die Verwendung von mittig angezapften Induktivitäten, indem die Stufen miteinander verbunden werden, die in diesem Papier erläutert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4851-2_14 5d0729643e6c80daba5e02a6284e12e0;de;;;7.2.;;;Zusammenfassung von Elementen bei der Personalisierung von Nachrichtenliefersystemen Der Designer eines Informationsfiltersystems auf der Grundlage von Benutzerpräferenzen, die als Benutzermodelle formuliert sind, muss entscheiden, welche Methode verwendet werden soll, um Zusammenfassungen der verfügbaren Dokumente bereitzustellen, ohne Informationen zu verlieren, die für einen bestimmten Benutzer von Bedeutung sein können, auch wenn sie nicht als solche angesehen werden würden allgemeine Bedingungen. In diesem Beitrag beschreiben wir eine personalisierte Zusammenfassung, um die Relevanzdichte der vom System gesendeten Informationen zu maximieren. Die Auswahl verwendet einen Relevanz-Feedback-Mechanismus, der kurzfristige Interessen erfasst, die durch die Annahme oder Ablehnung der empfangenen Nachrichten durch einen Benutzer angezeigt werden. Mit einer Gruppe von Benutzern wurden kontrollierte Experimente durchgeführt und zufriedenstellende und aufschlussreiche Ergebnisse erzielt, die Material für die weitere Entwicklung lieferten. Die experimentellen Ergebnisse deuten darauf hin, dass personalisierte Zusammenfassungen zumindest in Bezug auf die Identifizierung von Dokumenten, die Benutzerpräferenzen erfüllen, besser abschneiden als generische Zusammenfassungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30120-2_7 4a73f993526aac1d557a441cea099d22;de;;;7.2.;;;Ein tabellarischer Überblick über die automatisierte Tabellenverarbeitung Tabellen sind das einzige akzeptable Mittel, um bestimmte Arten von strukturierten Daten zu kommunizieren. Eine genaue Definition von „Tabellarität“ bleibt schwer fassbar, da einige bürokratische Formulare, mehrspaltige Textlayouts und schematische Zeichnungen viele Merkmale von Tabellen gemeinsam haben. Es gibt erhebliche Unterschiede zwischen Satztabellen, elektronischen Dateien, die für die Anzeige von Tabellen bestimmt sind, und Tabellen in symbolischer Form, die für den Informationsabruf bestimmt sind. Obwohl sich die meisten bisherigen Forschungen mit der Extraktion von geometrischen Informationen auf niedriger Ebene aus gescannten Rasterbildern von Papiertabellen befasst haben, kann der jüngste Trend zur Analyse von Tabellen in elektronischer Form den Weg zu einem höheren Niveau des Tabellenverständnisses ebnen. Neuere Forschungen zur Tabellenzusammensetzung und Tabellenanalyse haben unser Verständnis der Unterscheidung zwischen den logischen und physischen Strukturen von Tabellen verbessert und zu verbesserten Formalismen für die Modellierung von Tabellen geführt. Die vorliegende Studie zeigt, dass Fortschritte bei einem halben Dutzend spezifischer Forschungsfragen die Tür öffnen würden, um vorhandene Papier- und elektronische Tabellen für Datenbankaktualisierungen, tabellarisches Browsen, strukturierten Informationsabruf über grafische und Audioschnittstellen, multimediale Tabellenbearbeitung und plattformunabhängige Anzeige. Obwohl Tabellen kein konventionelles Format sind, um den Hauptinhalt von Fachbeiträgen zu vermitteln, versuchen wir hier, unsere natürliche Geschwätzigkeit zu bändigen, indem wir dieses Genre übernehmen, um das, was wir über Tabellen zu sagen haben, vollständig in tabellarischer Form zu kommunizieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-40953-X_9 cca7b04a7cd874906de1847950f3e4fb;de;;;7.2.;;;Lernen der Relevanz sozialer Tags durch Ranking-orientiertes Neighbor Voting Qualitativ hochwertige Tags spielen eine entscheidende Rolle in Anwendungen, die Online-Multimedia-Suche beinhalten, wie z. Allerdings sind benutzergenerierte Tags in der realen Welt oft ungenau und unvollständig, um die Bildinhalte zu beschreiben, was die Leistung aktueller Suchsysteme stark beeinträchtigt. Um die Beschreibungsfähigkeit von Social Tags zu verbessern, ist ein grundlegendes Thema das Erlernen der Tag-Relevanz, bei dem es darum geht, die Relevanz eines Tags in Bezug auf den Inhalt eines Bildes effektiv zu interpretieren. In diesem Artikel untersuchen wir das Problem aus einer neuen Perspektive des Erlernens des Rankings und entwickeln einen neuartigen Ansatz, um das Erlernen der Tag-Relevanz zu erleichtern, um die Ranking-Performance der Tag-basierten Bildsuche direkt zu optimieren. Insbesondere wird ein Überwachungsschritt in das Nachbar-Voting-Schema eingeführt, bei dem die Tag-Relevanz durch Akkumulieren von Stimmen von visuellen Nachbarn geschätzt wird. Durch die explizite Modellierung der Nachbargewichte und Tag-Korrelationen wird das Risiko heuristischer Annahmen effektiv vermieden. Außerdem leidet unser Ansatz nicht unter dem Skalierbarkeitsproblem, da ein generisches Modell gelernt wird, das auf alle Tags angewendet werden kann. Umfangreiche Experimente an zwei Benchmark-Datensätzen im Vergleich mit modernsten Methoden zeigen, dass unser Ansatz vielversprechend ist.;-;-;-;https://link.springer.com/article/10.1007/s11042-016-3512-1 1185126d586009d5c1ee0a32526ace48;de;;;7.2.;;;Formindizierung und -wiederherstellung: Ein hybrider Ansatz mit ontologischen Beschreibungen Dieser Beitrag stellt einen neuartigen hybriden Ansatz für das visuelle Informationsabruf (VIR) vor, der die Formanalyse von Objekten im Bild mit ihrer Indizierung durch Textbeschreibungen kombiniert. Das Hauptziel der vorgestellten Technik ist die Anwendung der von den Autoren vorgeschlagenen Two Segments Turning Function (2STF) für eine effiziente Verarbeitung von invarianten gegenüber räumlichen Variationen und die Implementierung semantischer Web-Ansätze für ontologiebasierte benutzerorientierte Annotationen von Multimediainformationen. Bei dem vorgeschlagenen Ansatz werden die textuellen Abfragen des Benutzers in Bildmerkmale umgewandelt, die für die Suche, Indizierung, Interpretation und den Abruf von Bildern verwendet werden. Eine Entscheidung über die Ähnlichkeit zwischen dem abgerufenen Bild und der Benutzeranfrage wird getroffen, indem die Formkonvergenz zu 2STF berechnet wird, indem sie mit dem Abgleich der ontologischen Anmerkungen von Objekten im Bild kombiniert wird und auf diese Weise eine automatische Definition der maschinenverständlichen Semantik bereitgestellt wird. Um den vorgeschlagenen Ansatz zu bewerten, wurde das System Image Retrieval by Ontological Description of Shapes unter Verwendung einiger Standardbilddomänen entwickelt und getestet.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-8735-6_72 d7175b8078ecd79bb6b75b0783a99e62;de;;;7.2.;;;Anonymität und historische Anonymität in standortbasierten Diensten Das Problem des Schutzes der Privatsphäre von Benutzern in Location-Based Services (LBS) wurde in letzter Zeit ausführlich untersucht und es wurden mehrere Abwehrtechniken vorgeschlagen. In diesem Beitrag stellen wir zunächst eine Kategorisierung von Datenschutzangriffen und den damit verbundenen Abwehrmaßnahmen vor. Dann betrachten wir die Klasse der Verteidigungstechniken, die darauf abzielen, Privatsphäre durch Anonymität zu gewährleisten, und insbesondere Algorithmen, die eine „historische k-Anonymität“ erreichen, wenn der Gegner eine Spur von Anfragen erhält, die als von demselben (anonymen) Benutzer gestellt erkannt werden. Schließlich untersuchen wir die Probleme, die bei der experimentellen Bewertung von auf Anonymität basierenden Abwehrtechniken auftreten, und zeigen, dass Simulationen von Benutzerbewegungen, die auf meist zufälligen Bewegungen basieren, in einigen Fällen zu einer Überschätzung des Datenschutzes und in anderen Fällen zu überschützenden Techniken führen können. Die obigen Ergebnisse werden durch den Vergleich mit einer realistischeren Simulation mit einem agentenbasierten Simulator unter Berücksichtigung eines spezifischen Bereitstellungsszenarios erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03511-1_1 72a1d6f430efc632be031f95c1ff590e;de;;;7.1.;;;Verhandlungspartner in Entscheidungsfindungsprozessen in der Fertigung Die Entscheidungsfindung in Echtzeit für Vor-Ort-Bestellungen wird unter Verwendung einer neuartigen verteilten Agentenarchitektur in Betracht gezogen. Die Auftragsagenten werden in der Lage sein, mehrstufige Verhandlungen unter Verwendung eines marktbasierten Modells mit kontinuierlicher Doppelauktion durchzuführen, das Ressourcen als Produzenten und Aufträge als Kunden darstellt. Qualitative Informationen zu Ressourcen und Auftragsanforderungen werden in einer Qualitätsfunktionsdefinition (QFD)-Entscheidungstabelle erfasst. Die QFD-Entscheidungstabelle stellt auch die Schnittstelle für den Agenten bereit, um Ziele, Attribute und Benutzerpräferenzen in Bezug auf Ressourcen und Auftragsanforderungen zu bewerten. Dies lenkt die Verhandlungen gegen die am besten geeigneten Ressourcen in jeder Phase durch den Markt. Insbesondere können die Agenten aus Erfahrungen lernen und sich dem Marktwandel anpassen. Der Betrieb eines solchen Systems wird in einem Anwendungskontext der Bekleidungsindustrie veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45370-9_8 0d4caca66ba493438610a23cc2a042d5;de;;;7.2.;;;Auswertung der Flugzeugverteilung in Satelliten-Spotbeams Kommende Bordunterhaltung und andere Onboard-Datendienste verlangen auf Lang- und Kurzstreckenflügen in der ganzen Welt Breitband-Datenverbindungen. Um dieses Verkehrsaufkommen zu bewältigen, insbesondere in Meeresgebieten, in denen keine Bodeninfrastruktur verfügbar ist, bieten Satellitensysteme Breitband-Satellitenverbindungen für Avionikzwecke.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40552-5_5 23da9cd3ff414b2825e3133f0d12bad5;de;;;7.2.;;;Bewertung des durchschnittlichen Auswahlgeschwindigkeitsverhältnisses zwischen einem Eye-Tracking- und einem Head-Tracking-Interaktionsinterface Für eine natürliche Interaktion verwenden Menschen, die in eine virtuelle Umgebung (wie ein CAVE-System) eingetaucht sind, multimodale Eingabegeräte (d. h. Zeigegeräte, haptische Geräte, 3D-Maus, Infrarotmarker usw.). Bei körperlich eingeschränkten Menschen mit eingeschränkter Handbewegung ist es notwendig, andere spezielle Eingabegeräte zu verwenden, um eine natürliche Interaktion durchführen zu können. Für den Rückschluss auf ihre Vorlieben oder Interessen in Bezug auf die Umgebung ist es möglich, ihre Augen- oder Kopfbewegungen zu berücksichtigen. Basierend auf der Analyse der Augenbewegungen kann eine assistierende High-Level-Eye-Tracking-Schnittstelle entworfen werden, um die Absichten der Benutzer zu finden. Eine natürliche Interaktion kann teilweise auch durch Kopfbewegungen erfolgen. Diese Arbeit ist eine vergleichende Studie bezüglich der Schnelligkeit der Auswahl zwischen zwei Interaktionsschnittstellen, eine basierend auf Headtracking und die andere basierend auf Eyetracking. Es wurden mehrere Experimente durchgeführt, um ein Auswahlgeschwindigkeitsverhältnis während des Prozesses der Auswahl virtueller Objekte zu erhalten. Dieser Parameter ist nützlich bei der Bewertung der Schnelligkeit oder Ergonomie einer bestimmten Auswahlmethode, vorausgesetzt, dass die Augen fast sofort auf die interessierenden Objekte fokussieren, lange bevor eine Auswahl mit einem anderen Interaktionsgerät (z. B. Maus, Zeigestab, Infrarot) abgeschlossen ist Markierungen). Für die Tests wurde die Verfolgung von Augen- und Kopfbewegungen mit einem schnellen und hochpräzisen Eyetracker am Kopf und einem am Kopf angebrachten Magnetsensor mit 6 DoF durchgeführt. Die Blickrichtung wird in Bezug auf die Ausrichtung des Kopfes berücksichtigt, sodass sich die Benutzer während der Experimente frei umdrehen oder bewegen können. Die auf Eye-Tracking basierende Interaktionsschnittstelle ermöglicht es den Benutzern, eine Auswahl durch einfaches Anschauen von Objekten zu treffen, während die Head-Tracking-Methode die Benutzer zwingt, ihren Kopf auf die Objekte zu drehen, die sie auswählen möchten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19170-1_20 f0ad9b98e6f6f3b613e13ceb1b2c56e7;de;;;7.2.;;;Visualisierung von Suchergebnissen verlinkter Open Data Genaue Informationen von hoher Qualität zu finden, ist immer noch eine herausfordernde Aufgabe, insbesondere im Hinblick auf die zunehmende Ressourcenmenge in aktuellen Informationssystemen. Dies gilt insbesondere dann, wenn auf den nachgefragten Informationen politische Entscheidungen mit Auswirkungen auf Mensch, Wirtschaft oder Umwelt basieren. Um die Generierung von Suchergebnissen und die Analyse von Benutzeranfragen zu verbessern, verwenden immer mehr Information-Retrieval-Systeme Linked Open Data und andere semantische Wissensbasen. Dennoch bleiben die semantischen Informationen, die bei der Generierung von Suchergebnissen verwendet werden, den Nutzern meist verborgen, obwohl sie den Nutzer maßgeblich beim Verständnis und der Bewertung von Suchergebnissen unterstützen. Der vorgestellte Ansatz kombiniert Informationsvisualisierungen mit semantischen Informationen, um visuelles Feedback über die Gründe für den Abruf der Ergebnisse zu geben. Es stellt die semantische Interpretation und den Zusammenhang zwischen Suchbegriffen und Suchergebnissen visuell dar, bietet mehr Transparenz bei der Generierung von Suchergebnissen und ermöglicht es dem Benutzer, die Relevanz der gefundenen Ressourcen für seine individuelle Suche eindeutig einzuschätzen. Der Ansatz unterstützt auch die gängigen Suchstrategien, indem er visuelles Feedback zur Verfeinerung und Verbesserung der Abfrage bereitstellt. Neben der detaillierten Beschreibung des Suchsystems zeigt eine Evaluation des Ansatzes, dass die Nutzung semantischer Informationen die Nutzer bei Bewertungs- und Entscheidungsaufgaben erheblich unterstützt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-5301-6_7 aa79756878cb3f0c02ba4646b6f6c3d2;de;;;7.2.;;;Egoistische Suche beim Spielen von Shogi Steht ein Mensch vor einem komplexen Problem mit einer Vielzahl möglicher Lösungen und Berechnungen, wird er nicht immer logisch handeln. Beim Glücksspiel, der öffentlichen Lotterie usw. sehen wir einen Mechanismus, durch den ein Buchmacher einen Gewinn wahrscheinlich macht. Dort werden die Gewinnchancen vom menschlichen Spieler immer überschätzt. In der öffentlichen Lotterie zum Beispiel lassen sich manche Leute von unbegründeten Gerüchten verführen (z. B. wenn der Verkaufsladen an der Reihe ist, zu gewinnen). Andere Menschen ergreifen abergläubische Handlungen, die auf Wahrsagerei beruhen. Ein ganz anderes Beispiel für irrationale menschliche Entscheidungsfindung in Spielen findet sich im Bereich der unvollkommenen Informationen und im Glücksspiel Mahjong. Eine kürzlich durchgeführte Studie [1], die Spielaufzeichnungen von Internet-Mahjong bewertete, kam zu dem Schluss, dass einige Amateurspieler die Bemerkung eines Profis wie ein Sprichwort behandeln und sie blind glauben, obwohl es an Beweisen für die Behauptung mangelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74873-1_52 ed9d996b85e9bfa7604fc05392f60fda;de;;;7.2.;;;Wenn ich eine Million Anfragen hätte Da Dokumentensammlungen größer werden, müssen der Informationsbedarf und die Relevanzbeurteilungen in einer Testsammlung innerhalb eines begrenzten Budgets gut ausgewählt werden, um die zuverlässigsten und robustesten Bewertungsergebnisse zu liefern. In dieser Arbeit analysieren wir eine Stichprobe von Abfragen, die nach Länge und Korpusangemessenheit kategorisiert sind, um den richtigen Anteil zu bestimmen, der zur Unterscheidung zwischen Systemen erforderlich ist. Wir analysieren auch die angemessene Arbeitsteilung zwischen Themenentwicklung und Relevanzbeurteilungen und zeigen, dass nur eine kleine, verzerrte Stichprobe von Abfragen mit spärlichen Urteilen erforderlich ist, um dieselben Ergebnisse wie eine viel größere Stichprobe von Abfragen zu erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00958-7_27 1013e952ef92dfea646620a1c404324a;de;;;7.1.;;;Ein neues Modell für das Informationssicherheits-Risikomanagement Dieser Artikel stellt eine neue Risikomanagementmethode für das Informationssicherheitsrisikomanagement vor, die erstmals in der IT-Abteilung eines Telekommunikationsunternehmens im Iran vorgeschlagen und angewendet wurde. Gemäß den gesetzlichen Anforderungen und dem strategischen Sicherheitsplan hat das genannte Unternehmen ein Informationssicherheitsrisikomanagement (ISMS) implementiert. Eine der Hauptphasen des ISMS ist also das Risikomanagement. Die Ergebnisse zeigen, dass die Methodik des Informationssicherheits-Risikomanagements, die die Risikoidentifikation, Risikoanalyse, Risikobewertung und Risikobehandlung umfasst, die Frameworks der ISO 27005, ISO 27002, ISO 27011, OCTAVE und NIST 800-30 und OWASP Standards verwendet. Diese neue Methode ist praktisch und genau und eignet sich für große Organisationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-34269-2_38 e0d35b7f1d48ce96162a6cbce28dc4eb;de;;;7.2.;;;Auswirkungen einer Tabletop-Oberfläche auf die Co-Konstruktion von Concept Maps Concept Mapping ist eine Methode zur Externalisierung und Reflexion von Wissen über Phänomene der realen Welt. In kooperativen Umgebungen können Concept Maps auch verwendet werden, um kooperative Lernaktivitäten und die Entwicklung eines gemeinsamen Verständnisses über das Thema Mapping zu unterstützen. Dieser Prozess stellt Anforderungen an die Toolunterstützung, die in bestehenden Concept-Mapping-Tools kaum berücksichtigt wurden. Wir präsentieren eine Tabletop-Oberfläche, die diesen Anforderungen gerecht wird. In einer empirischen Studie wurden die positiven Auswirkungen auf den kooperativen Kartierungsprozess, der durch das vorgeschlagene System ermöglicht wird, im Vergleich zu einem traditionellen, bildschirmbasierten System gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23765-2_31 5dcee648d052d4df7c78243aad309e10;de;;;7.2.;;;Erweitern eines XML-Mediator mit Textabfrage Die Unterstützung von Volltextabfragen in einem XML-Mediator ist ein schwieriges Problem. Dies liegt daran, dass die meisten Datenquellen keine Keyword-Suche und kein Ranking bieten. In diesem Papier berichten wir über die Integration der Hauptfunktionalitäten des aufkommenden XQuery-Textstandards in XLive, einem vollständigen XML/XQuery-Mediator. Unser Ansatz besteht darin, virtuelle Dokumente in Ansichten nach Schlüsselwörtern zu indizieren. Ausgewählte virtuelle Dokumente werden bei Bedarf Datenquellenobjekten zugeordnet. Somit wird der Mediatorauswahloperator effizient erweitert, um eine Volltextsuche in Ansichten zu unterstützen. Stichwortsuche und Ergebnisranking sind integriert. Wir ordnen die Ergebnisse mit einer an XPath angepassten Relevanzformel, basierend auf der Anzahl der Schlüsselwörter in Elementen und der Entfernung zu den gesuchten Knoten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74063-6_9 ae5d5ac02d8c4f9dbd27175b86fc08b9;de;;;7.2.;;;Automatisierte Usability-Evaluierung während der modellbasierten interaktiven Systementwicklung In diesem Papier beschreiben wir einen Ansatz zur effizienten Bewertung der Benutzerfreundlichkeit einer interaktiven Anwendung, der zur Unterstützung verschiedener Plattformen und Modalitäten realisiert wurde. Daher kombinieren wir unsere Multi-Access Service Platform (MASP), eine modellbasierte Laufzeitumgebung, um multimodale Benutzeroberflächen anzubieten, mit der MeMo-Workbench, einem Werkzeug zur automatisierten Usability-Analyse. Anstatt ein Systemmodell durch Reverse-Engineering abzuleiten oder Screenshots für die automatisierte Usability-Analyse annotieren, verwenden wir die Semantik der Laufzeitmodelle des MASP. Dies ermöglicht es uns, den Evaluierungsaufwand zu reduzieren, indem wir Teile des Testprozesses für verschiedene Kombinationen von Plattformen und Benutzergruppen automatisieren, die von der Anwendung angesprochen werden sollen. Darüber hinaus kann die Usability-Evaluierung durch das Testen der Anwendung zur Laufzeit auch Systemdynamiken und Informationen berücksichtigen, die zur Entwurfszeit nicht verfügbar sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85992-5_12 4b43da919fd0a913351937d75d621459;de;;;7.2.;;;Modellierung von H.264/AVC VBR-Videoverkehr: Vergleich eines Markov- und eines selbstähnlichen Quellmodells Wir vergleichen die Angemessenheit von zwei Modellen für realistische Videoquellen, nämlich der fraktionalen Brownschen Bewegung (fBm) und der Markov-modulierten Flüssigkeitsströmung (Mmff). Wir verwenden den Ansatz der effektiven Bandbreite, um die Wahrscheinlichkeit zu ermitteln, dass der Pufferinhalt einen bestimmten Schwellenwert überschreitet. Wir verwenden eine Formel, in der die Varianzfunktion, d. h. die Varianz des in einem Intervall der Länge;-;-;-;https://link.springer.com/article/10.1007/s11235-008-9114-0 17987e7d90fca1ceac53a7c949094ccb;de;;;7.2.;;;Datenbewusste Kommunikation für Energy Harvesting-Sensornetzwerke Wir schlagen eine Data Aware Communication Technique (DACT) vor, die den Energieverbrauch in Energy Harvesting Wireless Sensor Networks (EH-WSN) reduziert. DACT nutzt die Datenkorrelation in EH-WSN-Anwendungen für den Haushalt, um den Kommunikationsaufwand zu reduzieren. Es passt seine Funktionalität an Korrelationen in den über das EH-WSN übermittelten Daten an und arbeitet unabhängig von räumlichen und zeitlichen Korrelationen, ohne Standortinformationen zu benötigen. Unsere Ergebnisse zeigen, dass DACT die Kommunikationseffizienz von Sensorknoten verbessert und dazu beitragen kann, den Energieverbrauch im Leerlauf in einem durchschnittlich großen Haus im Vergleich zu räumlich/zeitlichen korrelationsbasierten Kommunikationstechniken um bis zu 90 % zu reduzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-33936-8_10 faf65ddf92cebb76bf6019040b759681;de;;;7.2.;;;Automatische Bereitstellung einer medizinischen Wissensdatenbank mit linguistischen Methoden Der Beitrag stellt eine Methodik zur Erstellung eines semantischen Modells von Krankheitssymptomen vor. Ausgangsmaterial für die Methodik sind medizinische Texte, die die Symptome beschreiben. Semantische Beschreibungen werden mithilfe natürlicher Sprachverarbeitungsmethoden und lexikalischer Ressourcen automatisch aus Text extrahiert. Die Methoden transformieren Text, der Symptome beschreibt, in einen Satz von Regeln, die ihre semantischen Beschreibungen bilden. Die Beschreibungen bestehen aus einer Reihe von Konzepten und Beziehungen zwischen ihnen. Die Kombination all dieser Beschreibungen bildet ein Modell der Krankheitssymptome.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22732-5_13 6fd923a6011cff98820aed61948bb55f;de;;;7.2.;;;Modell zur Bewertung des Lieferkettenrisikos in einer Fuzzy-Umgebung In diesem Papier haben wir die Klassifizierung des Supply Chain Risk (SCR) analysiert und deren Indexsysteme auf der Grundlage der zahlreichen Ergebnisse vorgestellt. Entsprechend seiner Eigenschaften haben wir das allgemeine Bewertungsmodell von SCR in Fuzzy-Umgebungen etabliert. Dann schlugen wir sein verbessertes Modell durch das Fuzzy-Information-Messsystem mit der Interpretation und dem synthetischen Effekt vor. Schließlich haben wir ein numerisches Beispiel zur Analyse des Modells spezifiziert, die Ergebnisse zeigen, dass das Verfahren nicht nur die bestehenden Fuzzy-Entscheidungsverfahren berücksichtigt, sondern auch die Entscheidungspräferenz erfolgreich in den Optimierungsprozess einbezieht. Daher kann die Fuzzy-Analysetechnik in vielen Bereichen der Fuzzy-Risikobewertung weit verbreitet verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32054-5_185 9ab923b911374ae8fccbade3a57340fa;de;;;7.2.;;;Evaluierung eines barrierefreien Home-Control- und Telecare-Systems Der Artikel stellt einen Teil der Forschung vor, die im Rahmen eines Projekts durchgeführt wurde, das darauf abzielt, die Interaktion von Menschen mit Behinderungen und älteren Menschen mit ihrer Umwelt durch den Einsatz von Informations- und Kommunikationstechnologien herzustellen. Wir stellen methodische Aspekte zu Beteiligungsmodellen, User Experience, Technologieakzeptanz und Peer Training vor. Die Technologie wurde entwickelt, um die Wirksamkeit der entwickelten Systeme und Schnittstellen zu testen. Die Evaluierung wurde in einer Automatisierungsumgebung mit älteren Menschen als Benutzern durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23768-3_74 5bc3d044cd69f299366889a622a9bde6;de;;;7.2.;;;Eine Anforderungsbewertungsmethode für Schiffe zur Maximierung des Betriebswerts unter Unsicherheit Als Kommunikationsschnittstelle von Produktinformationen zwischen diesen und den Schiffbauern spielen von Reedereien definierte Anforderungen eine Rolle, und das Produktdesign wird entsprechend den Anforderungen optimiert. Die Schiffslebensdauer beträgt etwa 30 Jahre, in denen die ursprünglichen Anforderungen an Relevanz verlieren können. In diesem Papier untersuchen wir die Einführung von Unsicherheit und Flexibilität in Anforderungen, damit Schiffe nicht nur für einen einzelnen gegebenen technischen Zustand, sondern für eine Reihe möglicher Betriebsszenarien, einschließlich Veränderungen des wirtschaftlichen Umfelds für Reedereien, optimal ausgelegt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45937-9_16 14a591c3311bbda06081c45ffadd4017;de;;;7.2.;;;Der Forschungsansatz und die Methodik einer interpretativen Studie eines Web-Informationssystems: Kontextualisierende Praxis Dieses Papier kontextualisiert den Forschungsansatz, der in einer interpretativen Informationssystemstudie verfolgt wurde, die die Entwicklung eines Web-Informationssystems untersuchte. Das Papier liefert Details zum methodischen Ansatz des Projekts, den verwendeten Annahmen und den verwendeten Forschungstechniken bei der Durchführung einer spezifischen interpretativen Studie zur IS-Entwicklung. Das Ziel dieses Beitrags ist es, eine detaillierte Darstellung des Spektrums der gewählten Methoden zu geben, um die Strenge des Forschungsprozesses im Zusammenhang mit der interpretativen IS-Forschung zu beschreiben. Dieser Beitrag veranschaulicht, wie Methoden, die als visuelle methodische Techniken beschrieben werden, auf eine Wirtschaftsinformatik-Studie angewendet werden können. Mit der Präsentation dieses Details hofft man, dass andere IS-Forscher ihre eigene Praxis bei der Durchführung interpretativer Forschungsprojekte im Vergleich zu den für dieses Projekt ausgewählten Verfahren reflektieren können. Der Beitrag überbrückt den theoretischen Hintergrund der bestehenden Literatur, um zu veranschaulichen, wie die Auseinandersetzung mit Methoden und Forschungspraxis zur Auseinandersetzung mit einem gewählten Forschungsthema beiträgt.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-8095-6_13 85ef3142a1c2d84dc0afa23c6441db4f;de;;;7.2.;;;Cosinus-Distanzmetrik-Lernen für die Sprecherverifizierung mit der Methode des nächsten Nachbarn mit großer Marge In diesem Artikel wird ein neuartiges Cosinus-Ähnlichkeitsmetrik-Lernen basierend auf der Nearest Neighborhood (LMNN) mit großem Rand für ein i-vektorbasiertes Sprecherverifikationssystem vorgeschlagen. Im Allgemeinen basiert die Entscheidung in einem i-vektorbasierten Sprecherverifizierungssystem auf dem Kosinusabstand zwischen dem Test-i-Vektor und dem Ziel-i-Vektor. Metrische Lernmethoden werden verwendet, um die Variation innerhalb der Klasse zu reduzieren und die Variation zwischen den Klassen zu maximieren. Bei diesem vorgeschlagenen Verfahren wird eine Cosinus-Ähnlichkeits-Großspannen-Nächstnachbarschafts-(CSLMNN)-Metrik aus den Entwicklungsdaten gelernt. Die Test- und Ziel-i-Vektoren werden unter Verwendung der gelernten Metrik linear transformiert. Das Ziel des Erlernens der Metrik besteht darin, sicherzustellen, dass die k-nächsten Nachbarn, die zu demselben Sprecher gehören, geclustert werden, während Betrüger mit großem Abstand entfernt werden. Experimente, die mit den NIST-2008- und YOHO-Datenbanken durchgeführt wurden, zeigen eine verbesserte Leistung im Vergleich zu einem Sprecherverifizierungssystem, bei dem keine gelernte Metrik verwendet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13168-9_33 ff81e29e3939fa5f7dd80d42b9019799;de;;;7.2.;;;Leistungsbewertung und Verbesserung des Surface Coverage Relay Protocol Area-Coverage-Protokolle zielen darauf ab, redundante Sensorknoten auszuschalten und gleichzeitig die vollständige Abdeckung des Bereichs durch die verbleibenden aktiven Knoten sicherzustellen. Die Konnektivität der Teilmenge der aktiven Knoten muss ebenfalls bereitgestellt werden, damit Überwachungsberichte die Senkenstationen erreichen können. Bestehende Lösungen behandeln diese beiden Probleme kaum als einheitliches und nur sehr wenige sind robust gegenüber nicht idealen physikalischen Bedingungen. In diesem Papier schlagen wir eine tiefgreifende Analyse und einige Verbesserungen eines lokalisierten Algorithmus für die Flächenabdeckung vor, der auf Surface Coverage Relays (SCR) basiert und in der Lage ist, verbundene aktive Knotensätze aufzubauen, die das Gebiet vollständig abdecken. Wir haben zunächst die kritische Phase unseres Protokolls (die Relaisauswahl) verbessert und zeigen, dass die Anzahl der aktiven Knoten drastisch reduziert werden kann. Wir werfen dann die Frage der Robustheit des Protokolls auf, sobald eine realistische physikalische Schicht simuliert wird. Unser Algorithmus erwies sich als interessante Lösung, da er auch unter realistischen Physical-Layer-Bedingungen immer noch eine hohe Abdeckung gewährleisten konnte. Wir haben auch die Möglichkeit hinzugefügt, den Gesamtanteil der aktiven Knoten durch einen neuen Parameter, der während der lokalen Relaisauswahlphasen verwendet wird, fein abzustimmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79549-0_11 3a1dad45e024516b392275c99ce28b0d;de;;;7.2.;;;Evaluierung von formaterhaltenden Verschlüsselungsalgorithmen für den Schutz kritischer Infrastrukturen Älteren kritischen Infrastruktursystemen fehlen sichere Kommunikationsfähigkeiten, die vor modernen Bedrohungen schützen können. Insbesondere betriebliche Anforderungen wie Nachrichtenformat und Interoperabilität verhindern die Übernahme von Standardverschlüsselungsalgorithmen. Drei neue Algorithmen, die vom National Institute of Standards and Technology (NIST) zur formaterhaltenden Verschlüsselung empfohlen werden, könnten potenziell die Verschlüsselung von Legacy-Protokollen in kritischen Infrastrukturanlagen unterstützen. Die drei Algorithmen FF1, FF2 und FF3 bieten die Möglichkeit, beliebig formatierte Daten ohne Auffüllen oder Abschneiden zu verschlüsseln, was eine entscheidende Voraussetzung für die Interoperabilität in Legacy-Systemen ist. Dieses Papier präsentiert eine Bewertung der drei Algorithmen in Bezug auf Entropie und Betriebslatenz, wenn sie auf einem Xilinx Virtex-6 (XC6VLX240T) FPGA implementiert werden. Obwohl die drei Algorithmen die Sicherheitsmerkmale der zugrunde liegenden Advanced Encryption Standard (AES)-Verschlüsselung erben, weisen sie einige wichtige Unterschiede in ihren Leistungsmerkmalen auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45355-1_16 c83d2ba621409d5f2ba299eeebdfeeaf;de;;;7.2.;;;Perspektiven neuer Tools für die Softwareentwicklung Nur aus einem besseren mathematisch-praktischen Verständnis der Tätigkeit des Programmierens können neue Werkzeuge für die Softwareentwicklung entstehen. Die richtige Trennung von Anliegen innerhalb des Entwicklungsprozesses in die Phasen Problemanalyse, Problemspezifikation, algorithmisches Design und Implementierung soll zu besser verständlichen, zuverlässigeren und leichter modifizierbaren Softwaresystemen führen. Neue Trends wie Abstraktion;-;-;-;https://link.springer.com/chapter/10.1007/3-540-10885-8_34 be1e58b8c4a6d73208c3ef8a39a14c4a;de;;;7.2.;;;Wie Technologie den therapeutischen Prozess beeinflusst: Eine vergleichende Feldbewertung von Augmented Reality und In-vivo-Expositionstherapie bei Phobie von Kleintieren Die In-vivo-Expositionstherapie (IVET) ist ein empfohlenes Protokoll zur Behandlung spezifischer Phobien. In jüngerer Zeit haben mehrere Studien gezeigt, dass die Augmented Reality Exposure Therapy (ARET) eine potenziell wirksame Technologie in diesem Bereich ist. Das Ziel dieser Arbeit ist es, die vorläufigen Ergebnisse einer vergleichenden Analyse von ARET und IVET zur Behandlung von Phobie bei Kleintieren vorzustellen. Um die Aktivität der Teilnehmer zu analysieren, haben wir eine multidisziplinäre und gemischte Perspektive eingenommen, die auf klinischen und benutzerzentrierten Ansätzen basiert. Diese Pilotergebnisse zeigen, dass sowohl ARET als auch IVET klinisch wirksam sind. Beide Therapien bewirken eine signifikante Reduzierung der klinischen Ergebnismaße und ermöglichen den Klienten, nach der therapeutischen Sitzung mit einem echten phobischen Reiz zu interagieren. Die Ergebnisse zeigen auch einige wesentliche Unterschiede zwischen technologievermittelter Therapie und traditioneller nicht-vermittelter Therapie. Wir diskutieren diese Ergebnisse im Hinblick auf zukünftige Gestaltungs- und Bewertungsrichtlinien für Technologien zur psychischen Gesundheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23774-4_43 447c1a7818fdb63ade97430ade36d464;de;;;7.2.;;;Charakterisierung von Benutzerfunktionen zur Unterstützung einer inklusiven Designbewertung Designer benötigen Wissen und Daten über Benutzer, um die Produktzugänglichkeit in den frühen Phasen des Designs effektiv zu bewerten. Dieses Papier geht dieses Problem an, indem es die sensorischen, kognitiven und motorischen Dimensionen der Benutzerfähigkeit aufzeigt, die für die Produktinteraktion wichtig sind. Die Beziehung zwischen Benutzerfähigkeit und Produktnachfrage wird als zugrunde liegendes konzeptionelles Modell für Produktdesignbewertungen und zur Schätzung der Anzahl der Personen verwendet, die potenziell von der Verwendung eines bestimmten Produkts ausgeschlossen sind.;-;-;-;https://link.springer.com/article/10.1007/s10209-007-0083-y d1c6ffc729d1b2064946d42c45818e88;de;;;7.2.;;;Aspekte des Umgangs mit unvollständigen Daten in temporären Datenbanken In Wirklichkeit haben einige Objekte oder Konzepte Eigenschaften mit zeitvarianter oder zeitbezogener Natur. Die Modellierung solcher Objekte oder Konzepte in einem (relationalen) Datenbankschema ist möglich, aber zeitvariante und zeitbezogene Attribute haben Auswirkungen auf die Konsistenz der gesamten Datenbank. Daher wurden temporale Datenbankmodelle vorgeschlagen, um damit umzugehen. Die Zeit selbst kann die Quelle von Ungenauigkeit, Unschärfe und Unsicherheit sein, da existierende Zeitmessgeräte von Natur aus unvollkommen sind. Dementsprechend verwaltet der Mensch die Zeit mit Zeitangaben und Zeitvorstellungen, die Ungenauigkeiten, Unklarheiten und Unsicherheiten enthalten können. Die Unvollkommenheit der vom Menschen verwendeten Zeitangaben wird jedoch durch die menschliche Interpretation gestützt, während Informationssysteme dafür außergewöhnliche Unterstützung benötigen. Es gibt mehrere Vorschläge zum Umgang mit solchen Unvollkommenheiten bei der Modellierung zeitlicher Aspekte. Einige dieser Vorschläge sehen die Grundlage des Systems in der Umwandlung der Spezifität zeitlicher Begriffe zwischen verwendeten zeitlichen Ausdrücken. Andere Vorschläge betrachten die zeitlichen Angaben in den verwendeten zeitlichen Ausdrücken als Quelle der Unvollkommenheit. In diesem Kapitel wird ein Überblick über die grundlegenden Konzepte und Fragen der Modellierung von Zeit als solcher oder in (relationalen) Datenbankmodellen und der Unvollkommenheiten gegeben, die während oder als Ergebnis dieser Modellierung auftreten können. Daneben wird eine neuartige und derzeit erforschte Technik zum Umgang mit einigen dieser Unvollkommenheiten vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-00954-4_9 7019f5241bb117bd18c6185cf56178dd;de;;;7.2.;;;Multiobjektive kombinatorische Optimierung zur Leistungsbewertung durch eine meta-heuristische Satisficing Tradeoff-Methode In diesem Beitrag wird ein effektiver meta-heuristischer Ansatz vorgeschlagen, um eine befriedigende Kompromissmethode zur Lösung multiobjektiver kombinatorischer Optimierungsprobleme der Leistungsbewertung zu realisieren. Zunächst werden Pareto-optimale Lösungen (Individuen) unter Verwendung eines genetischen Algorithmus mit familienelitärem Konzept für ein multiobjektives kombinatorisches Optimierungsproblem generiert. Dann versuchen wir, eine bevorzugte Lösung des Entscheidungsträgers basierend auf der Satisficing Tradeoff-Methode zu finden. Normalerweise muss ein herkömmliches befriedigendes Kompromissverfahren ein komplexes Min-Max-Problem in jeder Iteration des Algorithmus für ein gegebenes Anspruchsniveau jeder Zielfunktion lösen. Das Min-Max-Problem besteht darin, den maximalen Wert einer regularisierten Reue-Funktion zu minimieren. In diesem Beitrag wird eine neue meta-heuristische Satisficing Tradeoff-Methode vorgeschlagen, bei der wir nicht in jeder Iteration ein komplexes Min-Max-Problem lösen müssen, sondern versuchen, eine Min-Max-Lösung in den erzeugten Pareto-Optimalen Lösungen (Individuen) zu finden durch den genetischen Algorithmus. Wir überarbeiten die Min-Max-Lösung weiter, indem wir einen lokalen Suchansatz verwenden, wie beispielsweise ein simuliertes Glühverfahren. Als numerisches Beispiel wird ein Flowshop-Scheduling-Problem angeführt, um die Wirksamkeit der in diesem Papier vorgeschlagenen Methode zu überprüfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35569-6_60 b64d4fbe1694336e50599e5489aca016;de;;;7.2.;;;Kompakte Implementierung und Leistungsbewertung von Hash-Funktionen in ATtiny-Geräten Die allgegenwärtige Verbreitung elektronischer Geräte in sicherheits- und datenschutzrelevanten Anwendungen hat die Forschung in der Kryptographie gefördert. In diesem Zusammenhang war das Studium von leichten Algorithmen in den letzten Jahren eine sehr aktive Richtung. Im Allgemeinen sind symmetrische kryptografische Primitive gute Kandidaten für kostengünstige Implementierungen. Mehrere frühere Arbeiten haben beispielsweise die Leistung von Blockchiffren auf verschiedenen Plattformen untersucht. Angeregt durch die jüngste SHA3-Konkurrenz erweitert dieser Artikel diese Studien auf eine weitere Familie kryptografischer Primitive, nämlich Hashfunktionen. Wir haben verschiedene Algorithmen auf einem ATMEL AVR ATtiny45 8-Bit-Mikrocontroller implementiert und bieten deren Leistungsbewertung an. Alle Implementierungen wurden mit dem Ziel der Minimierung der Codegröße und Speicherauslastung durchgeführt und werden über eine gemeinsame Schnittstelle ausgewertet. Als Teil unseres Beitrags stellen wir alle entsprechenden Quellcodes auf einer Webseite unter einer Open-Source-Lizenz zur Verfügung. Wir hoffen, dass dieses Papier eine gute Grundlage für Forscher und Entwickler von eingebetteten Systemen bietet, die immer mehr Funktionen in intelligente Geräte der nächsten Generation integrieren müssen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37288-9_11 1938d6bbddeb646a17eddcacd845bd0a;de;;;7.2.;;;Verhaltensforschung im Straßenverkehr Es wird ein Überblick über einige der Forschungsschwerpunkte zum menschlichen Verhalten im Straßenverkehr gegeben, deren Ziel es ist, Forschungsergebnisse anzuwenden, um zur Lösung von Problemen der Verkehrssicherheit und -effizienz beizutragen. Die Themen werden unter drei Hauptüberschriften diskutiert, Methoden und Instrumentierung, Grundlagenforschung zum menschlichen Verhalten und angewandte Forschungsgebiete. Die ersten beiden werden als Unterstützung für die dritte angesehen. Der Review spiegelt zum großen Teil die Arbeit des Institute for Perception TNO wider. Einige zukünftige Trends werden markiert und Forschungsprioritäten vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-3283-8_27 37c59539a7ce8099af65efa6c38fb5aa;de;;;7.2.;;;Technologie im Wandel der Bildung Dieses Papier befasst sich mit der Beziehung zwischen gesellschaftlichen Bedürfnissen und IKT. Insbesondere wird aufgezeigt, wie die Gesellschaft aufgrund der neuen Technologien heute unterschiedliche Ziele und Bedürfnisse hat. Dazu gehört die Anerkennung des Wandels in der Mathematik und der Sprache der Vernunft, daher werden diskrete Verfahren wie die Approximation wichtiger als die Arithmetik. Und doch kann der Wandel für Lehrkräfte bedrohlich sein, auch für innovative. Es wird wichtig sein, dass die Lernenden die besten neuen Technologien für die Informationsverarbeitung nutzen. Aber auch neue Curriculum-Projekte wie der Aufbau eines Adressbuchs sollten zum Erlernen von Informationen und Umgang mit Informationen konzipiert werden. Es wird ein auf Kooperation basierendes Veränderungsmodell vorgeschlagen, das auf willigen Lehrern aufbaut, die für bestimmte Unterrichtsstunden mit einem Techniklehrer gepaart werden. Hilfestellungen aus dem Internet und Verknüpfungen mit traditionellen pädagogischen Ideen, wie der Rolle des Lehrers, sollen den Grundstein für einen ergebnisoffenen Wandel legen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35499-6_3 3b4dab0c562fd55586e825bdda92e40c;de;;;7.2.;;;Substanzkonsum ist ein Risikofaktor für neurokognitive Defizite und neuropsychiatrische Belastungen bei akuter und früher HIV-Infektion Die akuten und frühen Stadien der HIV-Infektion (AEH) sind durch eine erhebliche Virusreplikation, Immunaktivierung und Veränderungen des Hirnstoffwechsels gekennzeichnet. Über Prävalenz und Prädiktoren von neurokognitiven Defiziten und neuropsychiatrischen Störungen in diesem Zeitraum ist jedoch wenig bekannt. Die vorliegende Studie untersuchte den Einfluss von demografischen Faktoren, HIV-Krankheit und Substanzkonsum auf HIV-assoziierte neurokognitive Beeinträchtigungen und selbstberichtete neuropsychiatrische Belastungen bei 46 antiretroviral-naiven Erwachsenen mit einer medianen Infektionsdauer von 75 Tagen im Vergleich zu einer Stichprobe von 21 HIV-seronegativen (HIV−) Erwachsene mit vergleichbarer Demografie und Risikofaktoren. Den Teilnehmern wurde eine kurze neurokognitive Batterie verabreicht, die demografisch angepasst war und exekutive Funktionen, Gedächtnis, psychomotorische Geschwindigkeit und Sprachflüssigkeit sowie das Profile of Mood States, ein Selbstberichtsmaß für neuropsychiatrische Belastung, bewertete. Odds Ratios zeigten, dass die Wahrscheinlichkeit einer neurokognitiven Beeinträchtigung, insbesondere in den Bereichen Lern- und Informationsverarbeitungsgeschwindigkeit, bei AEH-Teilnehmern fast viermal höher war als bei ihren seronegativen Gegenstücken. In ähnlicher Weise war AEH mit einer fast fünffachen Zunahme der Wahrscheinlichkeit neuropsychiatrischer Störungen verbunden, insbesondere bei Angstzuständen und Depressionen. In der AEH-Stichprobe war eine HIV-assoziierte neurokognitive Beeinträchtigung mit problematischem Methamphetaminkonsum und höheren HIV-RNA-Plasmaspiegeln verbunden, während neuropsychiatrische Belastung ausschließlich mit hochriskantem Alkoholkonsum in Verbindung gebracht wurde. Die Ergebnisse dieser Studie, die frühere Erkenntnisse aus der Neurobildgebung erweitern, weisen darauf hin, dass HIV-assoziierte neurokognitive Beeinträchtigungen und neuropsychiatrische Belastungen während der AEH stark verbreitet sind und mit einem risikoreichen Substanzkonsum verbunden sind.;-;-;-;https://link.springer.com/article/10.1007/s13365-012-0141-y 9d2ab100c6bba39185696a5db59db247;de;;;7.2.;;;Ein Wikipedia-basiertes mehrsprachiges Retrieval-Modell In diesem Beitrag wird CL-ESA vorgestellt, ein neues mehrsprachiges Retrievalmodell zur Analyse sprachübergreifender Ähnlichkeiten. Das Retrieval-Modell nutzt die mehrsprachige Ausrichtung von Wikipedia: ein Dokument gegeben;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78646-7_51 71030de37ca029b16766877511e4c52a;de;;;7.2.;;;Beantworten von Keyword-Abfragen durch zwischengespeicherte Unterabfragen in Modellen zum Abrufen der besten Übereinstimmung Caching ist eine der Techniken, die Information Retrieval Systems (IRS) und Web Search Engines (WSEs) verwenden, um die Verarbeitungskosten zu senken und schnellere Reaktionszeiten zu erreichen. In diesem Beitrag stellen wir Top-;-;-;-;https://link.springer.com/article/10.1007/s10844-014-0330-7 271da03179128403c41207f7d80ebba4;de;;;7.2.;;;ProOnto: Datenschutzontologie für rechtliche Begründungen Die DSGVO (DSGVO, VERORDNUNG (EU) 2016/679 DES EUROPÄISCHEN PARLAMENTS UND DES RATES vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG (Datenschutz-Grundverordnung)) führt die Selbstbewertung digitaler Risiken und die Modulierung von Pflichten auf der Grundlage der Folgenabschätzungsanalyse ein, einschließlich konkreter Maßnahmen zum Schutz der Menschenwürde und der Grundrechte der betroffenen Person. Semantische Web-Technologien und rechtliche Argumentationstools können den standardmäßigen Datenschutz und die Einhaltung gesetzlicher Vorschriften unterstützen. Vor diesem Hintergrund präsentiert dieses Papier einen ersten Entwurf einer Rechtsontologie zur DSGVO, genannt PrOnto, die das Ziel hat, eine juristische Wissensmodellierung der Datenschutzbeauftragten, Datenarten, Arten von Verarbeitungsvorgängen, Rechten und Pflichten bereitzustellen. Die hier verwendete Methodik basiert auf der rechtstheoretischen Analyse verbunden mit ontologischen Mustern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98349-3_11 7a86be272503239a0b81ee207b3877ee;de;;;7.2.;;;Vergleichbarkeit von Prozessmodellversionen durch Quantifizierung von Änderungen Eine zentrale Aufgabe im Business Process Management Lifecycle ist die Bewertung von Geschäftsprozessen, um eine solide Basis für Prozessverbesserungen zu erhalten. Geschäftsprozesse werden als Prozessmodelle beschrieben, die explizit die Operationen angeben, die durchgeführt werden müssen, um die Geschäftsziele des Unternehmens zu erreichen. Diese Prozessmodelle entwickeln sich im Laufe der Zeit aufgrund sich ändernder Marktbedingungen, Prozessverbesserungen oder Gesetzesänderungen usw. weiter und führen zu mehreren Prozessversionen. Unter solchen Umständen erfordert die Prozessanalyse den Vergleich mehrerer Prozessversionen, die sogenannte Multiversionsbewertung. Dieser Beitrag nimmt sich dieser Herausforderung an und stellt eine Technik vor, um individuelle Einflüsse durch unterschiedliche Prozessversionen zu identifizieren und zu quantifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41641-5_7 b76370d3e99f54043eb1213134ccac51;de;;;7.2.;;;Enttäuschungen und Freuden, Ängste und Hoffnungen, hervorgerufen durch einige Jahrzehnte in der Leistungsbewertung Die Elemente der Modellierung im Allgemeinen und der Leistungsbewertung von diskreten Ereignissystemen (DES) im Besonderen haben in den letzten vier Jahrzehnten einen enormen Wandel erfahren. Das Ziel dieses Beitrags ist es, auf all diese Entwicklungen zurückzublicken und zu versuchen, einige besondere Erfahrungen aus der Vergangenheit festzuhalten. Ich werde versuchen, diese Elemente danach zu klassifizieren, was ich als ihre positiven oder negativen Möglichkeiten wahrgenommen habe. Alle geäußerten Ansichten sind meine eigenen und völlig subjektiv. Nichts wird bewiesen, da es keine Theoreme geben wird. Wir zählen zunächst eine Liste von Ereignissen oder Situationen auf, die sich in diesen vier Jahrzehnten ereignet haben und die ich als positiv betrachte. Ein entgegengesetzter Satz negativer Argumente wird folgen. Anschließend werde ich eine Liste von Risiken aufzählen, die aus meiner persönlichen Wahrnehmung Gefahren für den Bereich der Modellierung und Leistungsbewertung von Systemen im Bereich Computer und Telekommunikation darstellen. Schließlich werden einige Vorschläge gemacht, um die Qualität des Fachwissens der Gemeinschaft zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25575-5_1 424d43a873e5390772f3518b25afebbf;de;;;7.2.;;;Bewertungsschema für Netzwerksicherheit und Datenschutz für Cyber ​​Physical Systems (CPS) Mit dem rasanten Wachstum von Cyber-Physical Systems (CPSs) und dem Internet der Dinge (IoT) in allen Lebensbereichen stehen Forscher vor neuen Herausforderungen bei der Sensornetzwerksicherheit. Der Großteil der Forschung in diesem Bereich beschäftigt sich nur mit Schwachstellen, Angriffen und Gegenmaßnahmen. Die Berücksichtigung der Sicherheit von WSN als umfassende Einheit im praktischen Einsatz von CPS fehlt jedoch noch. Die Systemingenieure müssen in der Lage sein, die Leistung eines WSN gegen Angriffe und Ausfälle zu bewerten, damit sie zuverlässige und stabile Netzwerke entwickeln können. In diesem Kapitel erläutern wir unser vorgeschlagenes neuartiges Multi-Level Network Security & Privacy Evaluation Scheme (NSES), um verschiedene Sicherheitsstufen darzustellen. Das Hauptziel dieses Bewertungsschemas besteht darin, Systemingenieuren und Sicherheitsexperten dabei zu helfen, die Sicherheitsanforderungen ihrer Netzwerke zu bewerten und das erforderliche Schutzniveau des Netzwerks in frühen Entwurfsphasen aufrechtzuerhalten. Anhand von fünf verschiedenen Fallstudien haben wir die Anwendung dieses Schemas demonstriert. In diesem Kapitel wird erläutert, wie dieses Schema verwendet werden kann, um die Sicherheit in verschiedenen Szenarien zu bewerten und zu bewerten. Diese Fallstudien helfen auch dabei, die Verwendbarkeit des vorgeschlagenen Schemas in verschiedenen Anwendungsbereichen zu bestätigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-38557-6_9 847aef09e5f9ce4cd96d601496ca6547;de;;;7.2.;;;Eine modulare Testplattform zur Evaluierung von Sicherheitsprotokollen in NFC-Anwendungen In diesem Beitrag stellen wir die Vorteile und Möglichkeiten einer modularen Testplattform zur Evaluierung von Sicherheitsprotokollen in NFC-Anwendungen vor. Darüber hinaus zeigen wir auch einige praktische Umsetzungsergebnisse dieses Baukastensystems. Ziel der Plattform ist es, ein hochmodulares System bereitzustellen. Das Hinzufügen oder Entfernen bestimmter Funktionen kann erfolgen, ohne dass das gesamte System neu erstellt werden muss. Mit dieser Plattform können Sicherheitsmaßnahmen sowohl in Hardware als auch in Software getestet und bewertet werden. Es kann als Basis für eine breite Palette von sicherheitsrelevanten Anwendungen dienen, wobei NFC unser Interessengebiet ist, aber auch in anderen Bereichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24712-5_15 9c1361f5e1491a9621abbcc85eb77c8f;de;;;7.2.;;;Ein Lernrahmen für neuronale Netze mit eingeschränkten Optimierungsmethoden Herkömmliches überwachtes Lernen in neuronalen Netzen wird ausgeführt, indem eine uneingeschränkte Minimierung einer geeignet definierten Kostenfunktion durchgeführt wird. Dieser Ansatz hat gewisse Nachteile, die durch die Einbeziehung zusätzlicher Kenntnisse in den Ausbildungsformalismus überwunden werden können. In diesem Beitrag werden zwei Arten von solchem ​​Zusatzwissen untersucht: Netzwerkspezifisches Wissen (das dem neuronalen Netz unabhängig von dem zu lösenden Problem zugeordnet ist) oder problemspezifisches Wissen (das hilft, eine bestimmte Lernaufgabe zu lösen). Ein eingeschränkter Optimierungsrahmen wird eingeführt, um diese Arten von Wissen in den Lernformalismus zu integrieren. Wir präsentieren drei Beispiele für die Verbesserung des Lernverhaltens neuronaler Netze unter Verwendung von zusätzlichem Wissen im Kontext unseres eingeschränkten Optimierungsrahmens. Die beiden netzwerkspezifischen Beispiele sollen Konvergenz und Lerngeschwindigkeit in der breiten Klasse von Feedforward-Netzwerken verbessern, während das dritte problemspezifische Beispiel sich auf die effiziente Faktorisierung von 2D-Polynomen unter Verwendung geeignet konstruierter Sigma-Pi-Netzwerke bezieht.;-;-;-;https://link.springer.com/article/10.1023/A%3A1019240304484 e2ed96e618754fe2c7a3242ba4a7069f;de;;;7.2.;;;Implementierung und Evaluierung eines SCA-resistenten Embedded-Prozessors Seitenkanalanalyse (SCA)-Angriffe sind eine Bedrohung für viele eingebettete Anwendungen, die ein Sicherheitsbedürfnis haben. Da eingebettete Prozessoren das Herzstück solcher Anwendungen sind, ist es wünschenswert, SCA-Angriffen mit Gegenmaßnahmen zu begegnen, die „natürlich“ zum Einsatz in diesen Prozessoren passen. Dieses Papier beschreibt unsere Arbeit bei der Implementierung eines solchen Schutzkonzepts in einen ASIC-Prototyp und unsere Ergebnisse aus einer praktischen Bewertung seiner Sicherheit. Wir können zeigen, dass das Grundprinzip der Begrenzung des „Leaking“-Anteils des Prozessors recht gut funktioniert, um die Seitenkanalleckage zu reduzieren. Aus diesem Ergebnis können wir wertvolle Schlussfolgerungen für das zukünftige Embedded-Prozessor-Design ziehen. Um die verbleibende Leckage zu minimieren, fordert das Sicherheitskonzept die Anwendung eines sicheren Logikstils. Wir haben zwei konkrete sichere Logikstile (iMDPL und DWDDL) verwendet, um diesen Sicherheitszuwachs zu demonstrieren. Leider scheint keiner dieser Logikstile einen besonders guten Job zu machen, da wir SCA-Leckage immer noch dem sicheren Logikteil des Prozessors zuschreiben konnten. Wenn ein besser geeigneter Logikstil verwendet werden kann, glauben wir, dass die Gesamtleckage des Prozessors weiter reduziert werden kann. Daher halten wir das evaluierte Sicherheitskonzept für eine praktikable Methode zum Schutz eingebetteter Prozessoren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27257-8_10 6b6781ddd9c3df77945fd2854a7b8138;de;;;7.2.;;;Klassifikationsgenauigkeit ist nicht genug Wir argumentieren, dass eine Bewertung des Systemverhaltens auf der Ebene der Musik erforderlich ist, um die grundlegenden Probleme der Musikgenreerkennung (MGR) und andere Aufgaben des Abrufs von Musikinformationen, wie z. Eine kürzlich durchgeführte Überprüfung der Werke in MGR seit 1995 zeigt, dass die meisten (82 %) die Fähigkeit eines Systems, Genres zu erkennen, anhand seiner Klassifikationsgenauigkeit messen. Nachdem wir die Bewertung in MGR überprüft haben, zeigen wir, dass weder die Klassifikationsgenauigkeit noch die Erinnerung und Präzision noch die Verwirrungstabellen notwendigerweise die Fähigkeit eines Systems widerspiegeln, Genres in Musiksignalen zu erkennen. Daher können solche Gütezahlen nicht verwendet werden, um die Genreerkennungsleistung von MGR-Systemen zuverlässig einzustufen, zu fördern oder abzuwerten;-;-;-;https://link.springer.com/article/10.1007/s10844-013-0250-y 377da646892ea375119cf8061d763814;de;;;7.1.;;;FMS-Software: Datenstrukturen verteilter FMS-Datenbanken Für die vorliegenden Zwecke wird unter einem flexiblen Fertigungssystem (FMS) ein System verstanden, das sich mit hochrangigen verteilten Datenverarbeitungssystemen und automatisiertem Materialfluss aus dem Fertigungsbereich unter Verwendung von computergesteuerten Werkzeugmaschinen, Robotern und Inspektionsmaschinen befasst. Dieser hohe Grad an flexibler Automatisierung kann natürlich nur erreicht werden, wenn Computer nicht nur für die Prozesssteuerung, sondern für das Gesamtsystem eingesetzt werden. Um die erforderliche Flexibilität und hohe Intelligenz innerhalb von FMS-Systemen bereitzustellen, ist es notwendig, ein verteiltes Datenbankmanagementsystem (DMS) in die hierarchische Steuerung einzubinden. Ein DMS existiert in einem FMS-System, in dem logisch integrierte Daten physisch zwischen einer Reihe von separaten Fertigungseinrichtungen verteilt werden. Es werden die Grundprinzipien verteilter Systeme und ein Beispiel für eine verteilte FMS-Tooldatenbankstruktur gegeben. Die Werkzeugdatenstruktur wurde am Trent Polytechnic auf Mikrocomputern entworfen und implementiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-06546-2_55 24ef940ebfe734a1afdddd100002b191;de;;;7.1.;;;Identifikation von Faktoren bei der Einführung und Implementierung von PLM-Methoden und -Systemen im industriellen Kontext Der Automobil-Engineering-Prozess zeichnet sich durch eine lange und komplexe Designtätigkeit aus, die von der Anforderungsformulierung und den ersten Skizzen in der Vorentwurfsphase bis hin zu den finalen detaillierten und physikalischen Modellen reicht. Jede Designphase umfasst unterschiedliche Prozessschritte und Aufgaben, die eng miteinander verzahnt sind. Die verschiedenen Designphasen erfordern Product Life Cycle (PLM)-Systeme, die in der Lage sind, die unterschiedlichen Arten von Design- und Fertigungsinformationen zu verarbeiten. Derzeit ist die Implementierung von PLM-Systemen im industriellen Kontext eine große Herausforderung. Der Grund dafür ist, dass die Unternehmen nicht nur mit den technischen Fragen solcher Systeme konfrontiert sind, sondern auch mit organisatorischen Aspekten wie dem „Faktor Mensch“. Darüber hinaus stehen die Unternehmen vor Problemen, die nicht direkt mit den Funktionalitäten von PLM-Systemen zusammenhängen, sondern mit der Integrations- bzw. Implementierungsphase solcher Systeme in Unternehmen. Die zentrale Forschungsfrage in diesem Fall lautet: Was sind die wichtigen Faktoren, die die Integration und Implementierung von PLM-Systemen beeinflussen. Der folgende Beitrag wird versuchen, diese Faktoren mittels Aktionsforschung in der Automobilindustrie zu identifizieren. Dieser Beitrag berichtet über die ersten Schritte eines Forschungsprogramms zu den Implementierungsfaktoren von PLM-Systemen unter Anwendung der Design Research Methodik (DRM) nach Blessing. Der Schwerpunkt dieses Papiers liegt auf der Definition von Methoden- und Systemimplementierungsansätzen und der Präsentation der Ergebnisse der deskriptiven Studie, die durchgeführt wurde, um die Herausforderungen, Probleme und Schwächen bei der Implementierung von PLM-Systemen zu identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-33111-9_35 ad8b48bd590cd1d9f6db9520c4f1b3c0;de;;;7.1.;;;Auflösen der Interoperabilität im Concurrent Engineering Um einem zunehmend wettbewerbsorientierten Umfeld im Kontext der Globalisierung zu begegnen und sich auf Kerngeschäftsaktivitäten mit hohem Mehrwert zu konzentrieren, müssen Unternehmen Partnerschaften mit anderen Unternehmen eingehen, die auf komplementäre Bereiche spezialisiert sind. Ein solcher Ansatz, der hauptsächlich auf der Optimierung der Wertschöpfungskette basiert, wird als Virtualisierung des Unternehmens bezeichnet. Unternehmen, die auf Virtualisierung, Untervergabe und Outsourcing angewiesen sind, müssen die Aktivitäten aller Partner koordinieren, die Ergebnisse ihrer Aktivitäten integrieren, föderierte Informationen aus den verschiedenen implizierten Informationssystemen verwalten und sie als Produkt für die Kunden neu verpacken . Die übernommene Organisation, die sowohl interne als auch externe Ressourcen berücksichtigt, wird als „Extended Enterprise“ bezeichnet. Dennoch wird es in solch komplexen, aufstrebenden vernetzten Organisationen immer schwieriger, interne und externe Ressourcen wie digitale Informationen, digitale Dienste und computergestützte Prozesse auszutauschen, zu teilen und zu verwalten. Darüber hinaus werden durch Unternehmensaktivitäten erzeugte digitale Artefakte immer heterogener und komplexer. Nach der Charakterisierung der erwarteten Interoperabilität für kollaborative Plattformsysteme und der Hervorhebung von Interoperabilitätsproblemen und -bremsen, die noch nicht angesprochen wurden, beschreibt dieses Kapitel einen innovativen Ansatz zum Aufbau von Interoperabilität basierend auf einem Federated Framework von Legacy-eBusiness-Standards eines bestimmten Ökosystems. Es impliziert, sich wichtigen Problemen im Zusammenhang mit der semantischen Erhaltung entlang des Lebenszyklus der Artefakte und Infrastrukturen zu stellen, die zur Definition und Nutzung einer Anwendung erforderlich sind. Wir präsentieren zwei Anwendungsfallstudien, die Interoperabilitätsstrategien anwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13776-6_6 79e044d66a395222f98b7559c0db7020;de;;;7.1.;;;Agentenbasiertes Kontextmanagement für serviceorientierte Umgebungen Der Kontext ist ein wichtiger Aspekt bei der Erkennung und Auswahl von Diensten. Sie wird durch eine Reihe von Qualitätsparametern repräsentiert. Jede Wertänderung eines der Kontextparameter (CP) ändert den gesamten Kontext. Die Relevanz der entdeckten Dienste wird oft anhand der Ähnlichkeit zwischen Dienstkontext und Benutzerkontext gemessen. Wenn diese beiden für die Abfrage eines bestimmten Benutzers nicht übereinstimmen, können die entsprechenden Dienste nicht aufgerufen werden oder würden, selbst wenn sie aufgerufen werden, schlecht funktionieren. Dieses Papier schlägt ein neues Kontextmanagement-Framework vor. Dies hält die Kontextinformationen innerhalb einer Domäne auf strukturierte Weise, so dass der Diensterkennungsmechanismus schneller arbeitet und bessere Ergebnisse hinsichtlich der Relevanz von Diensten liefert, die für die Anfragen des Benutzers spezifisch sind. Autonomie-, Reaktivitäts- und Veracity-Eigenschaften eines Agenten helfen dabei, eine verbesserte Dynamik für das vorgeschlagene Framework zu erreichen. Außerdem wird über die Umsetzung der Konzepte und eine vergleichende Studie berichtet. Das vorgeschlagene Framework schneidet in Bezug auf Suchzeit, Populationsgröße sowie verschiedene Abfragen gut ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45237-0_34 869ab32b758af7ca9867552529c63961;de;;;7.1.;;;Praktische Erfahrungen in der Konzeption und Durchführung von Umfragen im empirischen Software Engineering Eine Umfrage ist eine empirische Forschungsstrategie zur Sammlung von Informationen aus heterogenen Quellen. Auf diese Weise weisen Umfrageergebnisse oft eine hohe externe Validität auf. Es ergänzt andere empirische Forschungsstrategien wie kontrollierte Experimente, die ihre Stärken meist in der hohen internen Validität der Ergebnisse haben. Während in der Software-Engineering-Literatur über eine wachsende Zahl von (quasi-)kontrollierten Experimenten berichtet wird, wurden dort nur wenige Ergebnisse groß angelegter Umfragen veröffentlicht. Daher fehlt es noch an Wissen, wie Umfragen systematisch für die empirische Forschung im Bereich Software Engineering genutzt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45143-3_7 e24ebb10df3dc85425c03cf84db3528f;de;;;7.1.;;;Einige Probleme bei der zukünftigen Entwicklung von User Interface Management System (UIMS) Viele neuere Forschungen haben sich auf die Entwicklung besserer Werkzeuge zur Unterstützung des Entwurfs, der Spezifikation, der Implementierung und der Bewertung von Mensch-Computer-Dialogen konzentriert. Solche Werkzeuge wurden verschiedentlich als „User Interface Management Systems“ (Kasik 1982, Buxton et al. 1983), „Dialog Management Systems“ (Roach et al. 1982) und „Abstract Interaction Handler“ (Feldman & Rodgers 1982) bezeichnet. Benutzerschnittstellenverwaltungssysteme (UIMS) bauen auf Konzepten auf, die in früheren Benutzerschnittstellenspezifikations- und Prototyping-Systemen entwickelt wurden (Newman 1968, Mason & Carey 1981). Der Stand der Technik ist nun an dem Punkt angekommen, an dem UIMS-Pakete kommerziell verfügbar werden (Rubel Software 1983, Wasserman & Shewmake 1982, Woodmansee 1983).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-70041-5_8 2624e351d293b1b4ddab3639396b8a50;de;;;7.2.;;;Die Rolle von WSD für mehrsprachige Anwendungen in natürlicher Sprache Heutzutage nimmt der Bedarf an erweiterter Freitextfilterung in mehrsprachigen Umgebungen zu. Daher ist es beim Suchen nach bestimmten Schlüsselwörtern im mehrsprachigen Informationsraum wünschenswert, Vorkommen zu eliminieren, bei denen das Wort oder die Wörter jeder Sprache in einem unangemessenen Sinne verwendet werden. Diese Aufgabe könnte in Internetbrowsern und Ressourcenerkennungssystemen, relationalen Datenbanken mit Freitextfeldern, elektronischen Dokumentenverwaltungssystemen, Data Warehouse- und Data Mining-Systemen usw. ausgenutzt werden. Um dieses Problem zu lösen, präsentieren wir in diesem Artikel eine Begriffsklärung von Word Sense Schnittstelle, die die Wörter in verschiedenen Sprachen zurückgibt und für mehrsprachige Anwendungen in natürlicher Sprache verwendet werden könnte. Diese Schnittstelle löst lexikalische Mehrdeutigkeiten von Substantiven und Verben in Eingabetexten einiger europäischer Sprachen (Englisch, Spanisch), verwendet die Taxonomie der lexikalischen Wissensdatenbank von EuroWordNet und gibt eine mehrsprachige Ausgabe der Wortsinne (Englisch, Spanisch, Katalanisch und Baskisch) zurück. Zusätzlich zu den Relationen in WordNet 1.5 enthält EuroWordNet sprachen- und kategorieübergreifende Relationen, die direkt für die mehrsprachige Wortsinn-Begriffsklärung nützlich sind. Diese Schnittstelle wurde mit der Programmiersprache C++ implementiert und bietet einen visuellen Rahmen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-46154-X_6 b0105b1a43fd4cc43c31358bf20644a6;de;;;7.2.;;;Sind Seeds mit menschlichem Input gut genug für die Erweiterung des Entity-Sets? Seeds Rewriting durch Nutzung des semantischen Wissens von Wikipedia Entity Set Expansion ist eine wichtige Aufgabe für die offene Informationsextraktion, die sich auf die Erweiterung eines gegebenen partiellen Seed-Sets auf ein vollständigeres Set bezieht, das zu derselben semantischen Klasse gehört. Viele frühere Forschungen haben bewiesen, dass die Qualität von Samen die Expansionsleistung stark beeinflussen kann, da vom Menschen eingebrachte Samen mehrdeutig, spärlich usw. minderwertige. In unserer Methode nutzen wir Wikipedia als semantisches Wissen, um die semantische Verwandtschaft und Mehrdeutigkeit jedes Seeds zu messen. Darüber hinaus verwenden wir Webressourcen, um die Population zu messen, um die spärliche Seeds zu vermeiden. Dann wird neues Saatgut erzeugt, um ursprüngliches, minderwertiges Saatgut zu ersetzen. Experimentelle Ergebnisse zeigen, dass neue Seed-Sets, die durch unsere Methode erzeugt werden, die Leistung der Entitätsexpansion um bis zu durchschnittlich 9,1 % gegenüber den ursprünglichen Seed-Sets verbessern können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35341-3_9 12b835ab9c33169f1f26dd2402f8fbb9;de;;;7.2.;;;Einem neuen Hund alte Tricks beibringen: Mehrsprachiges Retrieval mit Zero-Shot-Learning wiederbeleben Während sich täglich Milliarden von nicht englischsprachigen Benutzern auf Suchmaschinen verlassen, wird das Problem der Ad-hoc-Informationsabfrage für nicht englischsprachige Sprachen selten untersucht. Dies liegt vor allem daran, dass es an Datensätzen fehlt, die geeignet sind, Ranking-Algorithmen zu trainieren. In diesem Papier gehen wir den Mangel an Daten an, indem wir vortrainierte mehrsprachige Sprachmodelle nutzen, um ein auf englischen Sammlungen trainiertes Abrufsystem auf nicht-englische Abfragen und Dokumente zu übertragen. Unser Modell wird in einer Zero-Shot-Einstellung bewertet, d. h. wir verwenden es, um Relevanzbewertungen für Abfrage-Dokument-Paare in Sprachen vorherzusagen, die während des Trainings nie gesehen wurden. Unsere Ergebnisse zeigen, dass der vorgeschlagene Ansatz unüberwachte Abruftechniken für Arabisch, Chinesisch (Mandarin) und Spanisch deutlich übertreffen kann. Wir zeigen auch, dass die Ergänzung der englischen Trainingssammlung mit einigen Beispielen aus der Zielsprache manchmal die Leistung verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-45442-5_31 370cc735bf1e75d240aa1c5e0c71c4db;de;;;7.2.;;;Eine visuelle Multimedia-Abfragesprache für die zeitliche Analyse von Videodaten Die Speicherung verschiedener Medien in Multimedia-Datenbanken stellt Abfragetechniken vor neue Herausforderungen – Herausforderungen, die die Ausdruckskraft traditioneller textbasierter Abfragesprachen übersteigen. Neue Abfrageschnittstellen sollten Eigenschaften nutzen;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0463-0_5 70e532ad27633a652b5b7dd663cf36ef;de;;;7.2.;;;Automatisches Text-Clustering in der polnischen Sprache Der Beitrag stellt das Problem der automatischen Gruppierung von Texten in der polnischen Sprache vor, die hierarchische Methoden verwendet. Der Clustering-Prozess besteht aus zwei Phasen: dem Erzeugen des Vektors im Term-Space und dem eigentlichen Clustering. Die erste Stufe verwendet ein Flexionswörterbuch der polnischen Sprache. Die zweite Stufe nutzt die Clustering-Software Cluto. Die im Beitrag vorgestellten Ergebnisse umfassen eine Bewertung der Effektivität des Algorithmus in Abhängigkeit von verschiedenen Faktoren sowie eine Diskussion des Einflusses der Datengröße auf die Clusteringzeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39985-8_45 5fe62a840462454dcff64a0be700572e;de;;;7.2.;;;Die Verwendung von Zusammenfassungen beim XML-Abruf Die Verfügbarkeit der logischen Struktur von Dokumenten beim inhaltsorientierten XML-Retrieval kann für Benutzer von XML-Retrieval-Systemen von Vorteil sein. Die Forschung zum strukturierten Dokumenten-Retrieval hat jedoch bisher nicht systematisch untersucht, wie Struktur verwendet werden kann, um den Suchprozess von Benutzern zu erleichtern. Wir untersuchen, wie Nutzer eines XML-Retrieval-Systems, wenn überhaupt, durch Verdichtung in ihrem Suchprozess unterstützt werden können. Um diese Frage zu beantworten, wurde ein interaktives Information-Retrieval-System entwickelt und eine Studie mit menschlichen Suchern durchgeführt. Die Ergebnisse zeigen, dass Suchende die bereitgestellten Zusammenfassungen aktiv nutzen und dass die Verwendung der Zusammenfassungen auf verschiedenen Ebenen der XML-Dokumentstruktur variierte. Die Ergebnisse haben Auswirkungen auf das Design interaktiver XML-Retrieval-Systeme.;-;-;-;https://link.springer.com/chapter/10.1007/11863878_7 b6ed2cadd7eb4cd4a78b482fb007eedb;de;;;7.2.;;;Zur praktischen Machbarkeit von Secure Distributed Computing Secure Distributed Computing adressiert das Problem, eine Berechnung mit einer Anzahl von gegenseitig misstrauischen Teilnehmern durchzuführen, so dass jeder der Teilnehmer nur begrenzten Zugriff auf die für die Berechnung benötigten Informationen hat. In den letzten zehn Jahren wurden eine Reihe von Lösungen für dieses Problem entwickelt. Die verschiedenen vorgeschlagenen Lösungen unterscheiden sich in den verwendeten kryptographischen Primitiven und in der Klasse der durchführbaren Berechnungen. Allen hinreichend allgemeinen Lösungen ist jedoch eines gemeinsam: Der Kommunikationsaufwand zwischen den Beteiligten erscheint unerschwinglich.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35515-3_37 0c55ffa9236f0575fe848ee01128bbf5;de;;;7.2.;;;Automatische Extraktion von Genom-Glossar durch Abfrage ausgelöst Im Bereich der Genomforschung ist das Verständnis eines bestimmten Gennamens ein Portal zu den meisten Informationsabruf- (IR) und Informationsextraktions-(IE)-Systemen. In diesem Artikel stellen wir eine automatische Methode vor, um ein genomisches Glossar zu extrahieren, das durch den ursprünglichen Gennamen in der Abfrage ausgelöst wird. LocusLink-Gennamen und MEDLINE-Abstracts werden in unserem System verwendet und spielen die Rollen von Abfrage-Triggern bzw. genomischem Korpus. Die Auswertung des extrahierten Glossars erfolgt durch Abfrageerweiterung in der Ad-hoc-Abrufaufgabe TREC2003 Genomics Track, und die Versuchsergebnisse zeigen, dass 90,15% Rückruf erreicht werden können.;-;-;-;https://link.springer.com/chapter/10.1007/11691730_4 0951673a1b949f013574254dc54c7d37;de;;;7.2.;;;Formalismus inhaltsbasierter Multimediasysteme In diesem Kapitel wird ein neuer Formalismus für inhaltsbasierte Wiederauffindungs-Multimediasysteme vorgeschlagen, um einen allgemeinen Rahmen und ein Kriterium für die Beschreibung und Bewertung von inhaltsbasierten Wiederauffindungsanwendungen bereitzustellen. Insbesondere haben wir neue Methoden vorgeschlagen, um die ähnlichkeitsbasierte Retrieval-Engine durch Lernen basierend auf dem Ranking-Feedback von Benutzern anzupassen. Aufgrund unserer vorläufigen experimentellen Ergebnisse bei der Gesichtserkennung ist das System in der Lage, seine Ähnlichkeitsfunktion anzupassen, um nachfolgende Abfragen sowohl im kurzfristigen als auch im langfristigen Sinne zu verbessern. Während die Wahrnehmungskonsistenz beim Ähnlichkeitsvergleich eines einzelnen Benutzers durch unseren langfristigen Lernansatz erfasst werden kann, wie aus den experimentellen Ergebnissen hervorgeht, und somit zum Aufbau von;-;-;-;https://link.springer.com/chapter/10.1007/0-306-47033-0_2 5d851ab934215b08cd3a862fb7dcfd3c;de;;;7.2.;;;Eine Einführung in die Kryptologie Dieser Beitrag gibt einen Überblick über den Stand der Technik beim Entwurf kryptographischer Algorithmen. Es überprüft die verschiedenen Arten von Algorithmen für die Verschlüsselung und Authentifizierung und erklärt die Prinzipien von Stromchiffren, Blockchiffren, Hash-Funktionen, Verschlüsselungsalgorithmen mit öffentlichem Schlüssel und digitalen Signaturschemata. Anschließend werden Entwurfs- und Bewertungsverfahren für kryptographische Algorithmen diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-49477-4_14 efb2f0bfdca26977b344e20373ae122e;de;;;7.2.;;;Abruf biomedizinischer Literatur basierend auf Patienteninformationen Informations- und Kommunikationstechnologien haben zu einer Explosion biomedizinischer Daten geführt. Bezüglich der Menge an wissenschaftlicher Literatur ist ein proportionales Wachstum zu verzeichnen, aber die Methoden zur Informationsbeschaffung folgten nicht demselben Muster. Durch die Verwendung spezialisierter klinischer Suchmaschinen wie PubMed, Medscape und Cochrane sind biomedizinische Publikationen für klinische Anwender sofort verfügbar. Zusätzliche Parameter wie der Benutzerkontext werden jedoch noch nicht berücksichtigt. Erste Abfragen liefern immer noch zu viele Ergebnisse ohne ein relevanzbasiertes Ranking. Ziel dieser Arbeit war es, eine neue Methode zu entwickeln, um die wissenschaftliche Literaturrecherche aus verschiedenen Quellen zu verbessern, indem Patienteninformationen in den Abrufprozess einbezogen werden. Zwei Pathologien wurden verwendet, um die vorgeschlagene Methode zu testen: Diabetes und arterielle Hypertonie. Die erhaltenen Ergebnisse deuten auf die Eignung des Ansatzes hin und heben die Veröffentlichungen zu Patientenmerkmalen hervor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29752-6_23 9de425369185a14fa89b9d66f0ba8874;de;;;7.2.;;;Evaluierung der Kontrollen und Metriken des Cybersicherheitsmanagements kritischer Infrastrukturen: Eine Literaturübersicht unter Berücksichtigung des NIST Cybersecurity Framework In den letzten Jahren hat das Cybersicherheitsmanagement aufgrund einer steigenden Zahl und auch zunehmender Schwere von Cyberangriffen insbesondere auf kritische Infrastrukturen von Ländern erhebliche Aufmerksamkeit erlangt. Gerade die rasante Digitalisierung birgt viele Schwachstellen, die bei unsachgemäßem Management leicht ausgenutzt werden können. Folglich hat die Europäische Union (EU) ihre erste Richtlinie zur Cybersicherheit erlassen. Es basiert auf dem Cybersecurity Framework des US National Institute of Standards and Technology (NIST) und verlangt von Organisationen kritischer Infrastrukturen, ihre Cybersicherheitsbemühungen regelmäßig zu überwachen und zu melden. Wir haben untersucht, ob der wissenschaftliche Wissensschatz im Bereich Cybersicherheitsmetriken und -kontrollen die konstituierenden NIST-Funktionen abdeckt und ob NIST merkliche Lücken in Bezug auf die Literatur aufweist. Unsere Analyse ergab interessante Ergebnisse in beide Richtungen, die auf Ungleichgewichte im akademischen Diskurs und unterrepräsentierte Bereiche im NIST-Rahmen hinweisen. In Bezug auf ersteres argumentieren wir, dass zukünftige Forschung sich stärker mit der Erkennung, Reaktion und Wiederherstellung von Vorfällen beschäftigen sollte. In Bezug auf letzteres könnte NIST auch davon profitieren, sich auf eine Reihe von identifizierten Themenbereichen auszudehnen, beispielsweise Naturkatastrophen, monetäre Aspekte und das Organisationsklima.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-03638-6_23 78ea2b0c19142a8b81cbb9737eecdffa;de;;;7.2.;;;Erstellen einer hybriden Datenbankanwendung für strukturierte Dokumente In diesem Artikel schlagen wir eine datenbankinterne Darstellung für SGML-/HyTime-Dokumente basierend auf objektorientierter Datenbanktechnologie mit folgenden Eigenschaften vor: Dokumente beliebiger Art können verwaltet werden. Die Semantik architektonischer Formen wird durch Methoden abgebildet, die Teil des Datenbankschemas sind, und durch die datenbankinterne Darstellung von HyTime-spezifischen Merkmalen. Das Framework enthält Mechanismen, um die Konformität von Dokumenten mit dem HyTime-Standard sicherzustellen. Maßnahmen zur verbesserten Leistung von HyTime-Operationen werden ebenfalls beschrieben. Die datenbankinterne Darstellung von Dokumenten ist ein Hybrid zwischen einer vollständig strukturierten und einer flachen Darstellung. Die strukturierte Darstellung unterstützt nämlich besser die HyTime-Semantik und Modifikationen von Dokumentkomponenten. Andererseits sind die meisten Operationen für die flache Darstellung schneller, wie gezeigt wird.;-;-;-;https://link.springer.com/article/10.1023/A%3A1009647314833 65050b9cf4b0ac1357ad0c434a807ab0;de;;;7.2.;;;Multiperspektivischer Entrauschungs-Reader für das Leseverständnis mit mehreren Absätzen Multi-Absatz-Leseverständnis (MPRC) zielt darauf ab, Fragen basierend auf einer Reihe von Absätzen zu beantworten. Die Hintergrundabsätze in MPRC werden normalerweise von Information Retrieval (IR)-Systemen gesammelt. Die meisten MPRC-Modelle lesen wahllos alle Hintergrundabsätze und betrachten Absätze, die den Antwortstring enthalten, als Grundwahrheiten. Einige dieser Absätze sind semantisch nicht mit der Frage verbunden, daher lenken die verrauschten Daten das Modell davon ab, die richtige Antwort zu finden. Außerdem verwenden die meisten MPRC-Methoden nur die Absatz-Frage-Relevanz, um die Antwortspanne vorherzusagen. Die Nutzung der Absatz-Absatz-Relevanz, die verbesserte und ergänzende Beweise liefert, wurde jedoch nur mit begrenzten Methoden untersucht. Um diese Probleme anzugehen, schlagen wir ein hierarchisches Modell mit einem mehrstufigen Aufmerksamkeitsmechanismus vor, der sowohl die Wechselbeziehung (Absatz-Frage-Relevanz) als auch die Intra-Beziehung (Absatz-Absatz-Relevanz) nutzen kann, um verrauschte Daten herauszufiltern und extrahieren Sie die endgültige Antwort. Wir führen Experimente an zwei anspruchsvollen öffentlichen Datensätzen Quasar-T und SearchQA durch. Die Ergebnisse zeigen, dass unser Modell die jüngsten MPRC-Baselines übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36718-3_19 3ef81ecda0534a4388c80f5aeb78f493;de;;;7.2.;;;Verbesserung der teilüberwachten Textklassifizierung durch Verwendung von Wikipedia-Wissen Die halbüberwachte Textklassifizierung verwendet sowohl gekennzeichnete als auch nicht gekennzeichnete Daten, um Klassifikatoren zu konstruieren. Das Hauptproblem besteht darin, wie die nicht gekennzeichneten Daten verwendet werden. Das auf Clustern basierende Klassifizierungsverfahren übertrifft andere halbüberwachte Textklassifizierungsalgorithmen. Seine Leistungen sind jedoch immer noch begrenzt, da die Darstellung des Vektorraummodells die semantischen Beziehungen zwischen Wörtern weitgehend ignoriert. In diesem Artikel schlagen wir einen neuen Ansatz vor, um dieses Problem mithilfe von Wikipedia-Wissen anzugehen. Wir reichern die Dokumentdarstellung mit semantischen Wikipedia-Merkmalen (Konzepten und Kategorien) an, schlagen ein neues Ähnlichkeitsmaß basierend auf der semantischen Relevanz zwischen Wikipedia-Features vor und wenden dieses Ähnlichkeitsmaß auf die clusterbasierte Klassifikation an. Experimentelle Ergebnisse an mehreren Korpora zeigen, dass unser vorgeschlagenes Verfahren die Leistung der semi-überwachten Textklassifizierung effektiv verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38562-9_3 8613965e2fbe148247b66440539a8792;de;;;7.2.;;;Das Konzept der Bio-Fitness in der bio-inspirierten computergestützten Metapher-Abstraktion Eine Computermetapher, die auf einigen biologischen Phänomenen oder Strukturen basiert, wird als Bio-Inspired Computational Metapher (BICM) bezeichnet. Obwohl Computer und Biologie unterschiedliche Bereiche sind, sollte es einige Kriterien für die Bewertung der Stärke eines BICM geben. Die Kriterien würden auf den biologischen Phänomenen oder Strukturen basieren, die die Computermetapher inspiriert haben. Dieser Beitrag stellt das neue Konzept „Bio-Fitness“ zur Bewertung der Abstraktionsstärke eines BICM vor. Das Konzept der Bio-Fitness würde sowohl der Informatik als auch der Biologie zugutekommen. Ein Immunsystem (IS) ist ein komplexes biologisches System, das aus verschiedenen biologischen Phänomenen besteht. Das aufstrebende Gebiet des künstlichen Immunsystems (AIS) nutzt die IS-Mechanismen, um eine Vielzahl von BICMs zu abstrahieren. Hier versuchen wir, das Konzept der Bio-Fitness im AIS-Kontext zu erarbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89853-5_23 80fb1680da1d5309818ebf87b3e981cb;de;;;7.2.;;;Worteinbettungsbasierte Neuformulierung für lange Abfragen in der Informationssuche Es hat sich gezeigt, dass lange Abfragen für Informationssuchmaschinen sehr oft schwieriger sind als kurze Abfragen, um gute Ergebnisse zu erzielen. In diesem Beitrag stellen wir einen auf der Worteinbettung basierenden Ansatz vor. Aus der ursprünglichen Abfrage werden zunächst kurze Abfragen oder Konzepte extrahiert. Dann durchlaufen mit Hilfe eines trainierten Worteinbettungsmodells alle Abfrageelemente eine Reihe von Umformulierungsoperationen einschließlich Löschen, Ersetzen und Hinzufügen von Begriffen, um profitablere Abfragedarstellungen zu erhalten. Schließlich werden alle umformulierten Elemente linear mit der ursprünglichen Abfrage kombiniert. Es werden Experimente an drei TREC-Sammlungen durchgeführt, und die experimentellen Ergebnisse zeigen, dass die vorgeschlagene Methode die Abrufleistung im Durchschnitt verbessern kann und insbesondere bei langen Abfragen effektiv ist. Im Vergleich zu mehreren Baseline-Methoden nach dem Stand der Technik ist die vorgeschlagene Methode sehr gut.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-60029-7_19 cda186424ba2e722ea792e9bae85a29a;de;;;7.2.;;;Mikroprozessor-Messinformationssystem zur Schätzung von Bewegungsparametern Untersucht wird ein Mikroprozessorsystem zur Abschätzung von Bewegungsparametern — Beschleunigung sowie Geschwindigkeits- und Weginkremente — mit Hilfe eines digitalen Signalprozessors KM 1813VE1. Für die zulässige Verarbeitungszeit des Systems bei Echtzeitmessungen werden analytische Ausdrücke abgeleitet.;-;-;-;https://link.springer.com/article/10.1007/BF00978258 884ca5ad579fc5cfaed8fd479ec5f197;de;;;7.2.;;;IT-Sicherheitszertifizierung und -kriterien IT-Sicherheitszertifizierung und IT-Sicherheitsbewertungskriterien haben ihren Charakter gegenüber den ersten Bemühungen um ca. vor 20 Jahren. Auch in zivilen und kommerziellen Anwendungsbereichen haben sie zunehmend an Interesse gewonnen. Daher vergleicht dieses Papier sie mit früherer Kritik und mit den neuen Herausforderungen in der IT-Sicherheit. Nach einer Einführung in das Konzept der Sicherheitszertifizierung werden die etablierten IT-Sicherheitszertifizierungsschemata und die dazugehörigen Kriterien vorgestellt. Anschließend werden deren Schwächen und Probleme beschrieben, insbesondere im Hinblick auf die heutigen Sicherheitsanforderungen. Es werden Verbesserungen der Kriterien und der Zertifizierungssysteme vorgestellt und Vorschläge gemacht, aktuelle Zertifizierungs- und Bewertungsschemata trotz ihrer Mängel anzuwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35515-3_1 b71b73cbe5ea2becd55a5db71bcab05a;de;;;7.2.;;;Erlernen diskreter Satzdarstellungen durch Konstruktion und Zerlegung In diesem Papier beschäftigen wir uns mit dem Problem des Erlernens von niedrigdimensionalen, diskreten Darstellungen von reellwertigen Vektoren. Wir schlagen einen neuen Algorithmus namens Ähnlichkeitsmatrixkonstruktion und -zerlegung (C&D) vor. In der Vorbereitungsphase generieren wir konstruktiv einen Satz konsistenter, unverzerrter und umfassender Ankervektoren und erhalten ihre niedrigdimensionalen Formen mit PCA. Der C&D-Algorithmus lernt die diskreten Darstellungen von Vektoren in Stapeln. Für einen Stapel von Eingabevektoren konstruieren wir zunächst eine Ähnlichkeitsmatrix zwischen ihnen und den Ankervektoren und lernen dann ihre diskreten Darstellungen aus der Ähnlichkeitsmatrixzerlegung, wobei die niedrigdimensionalen Formen der Ankervektoren als fester Faktor des . betrachtet werden Ähnlichkeitsmatrix bzw. Die Matrixzerlegung ist ein gemischt-ganzzahliges Optimierungsproblem. Wir erhalten die optimale Lösung für jedes Bit mit mathematischer Ableitung und verwenden dann die diskrete Koordinatenabstiegsmethode, um sie zu lösen. Der C&D-Algorithmus lernt nicht direkt diskrete Darstellungen aus den Eingabevektoren, was ihn von anderen diskreten Lernalgorithmen unterscheidet. Wir evaluieren den C&D-Algorithmus bei satzeinbettenden Kompressionsaufgaben. Umfangreiche experimentelle Ergebnisse zeigen, dass der C&D-Algorithmus die neuesten 4 Methoden übertrifft und den neuesten Stand der Technik erreicht. Detaillierte Analysen und Ablationsstudien bestätigen die Rationalität des C&D-Algorithmus weiter.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63830-6_66 b5ecca24bc6866ecb1039685771d13db;de;;;7.2.;;;Verwenden von Pseudo-Feedback zur Verbesserung des sprachenübergreifenden Ontologie-Mappings Übersetzungstechniken werden oft von Ansätzen zur sprachenübergreifenden Ontologie-Mapping (CLOM) ​​verwendet, um ein sprachenübergreifendes Abbildungsproblem in ein einsprachiges Abbildungsproblem umzuwandeln, das dann durch hochmoderne einsprachige Ontologie-Abgleichswerkzeuge gelöst werden kann. Dabei können jedoch verrauschte Übersetzungen die Qualität der Übereinstimmungen beeinträchtigen, die durch die nachfolgenden einsprachigen Übereinstimmungstechniken erzeugt werden. In diesem Beitrag wird ein neuartiger Ansatz zur Verbesserung der Qualität des sprachenübergreifenden Ontologie-Mappings vorgestellt und bewertet. Der vorgeschlagene Ansatz verwendet die Pseudo-Feedback-Technik, die dem gut verstandenen Relevanz-Feedback-Mechanismus ähnelt, der im Bereich der Informationsabfrage verwendet wird. Durch die Auswertung wird gezeigt, dass Pseudo-Feedback die Matching-Qualität in einem CLOM-Szenario verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21034-1_23 57a58de8cb7b6e70a2f7fbba856fa916;de;;;7.2.;;;Verloren in der Übersetzung? Ein mehrsprachiger Query Builder verbessert die Qualität von PubMed-Abfragen: eine randomisierte kontrollierte Studie MEDLINE ist die weltweit am weitesten verbreitete medizinische bibliografische Datenbank. Die meisten ihrer Zitate sind auf Englisch, und dies kann für einige Forscher ein Hindernis sein, auf die in der Datenbank enthaltenen Informationen zuzugreifen. Wir haben einen mehrsprachigen Abfrage-Generator erstellt, um den Zugriff auf die PubMed-Untergruppe mit einer anderen Sprache als Englisch zu erleichtern. Das Ziel unserer Studie war es, die Auswirkungen dieses mehrsprachigen Abfragegenerators auf die Qualität von PubMed-Abfragen für nicht englischsprachige Ärzte und medizinische Forscher zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s12911-017-0490-9 803bbfe60bd601deaa99bd6d87cc21b9;de;;;7.2.;;;QUEST: Abfrage komplexer Informationen durch direkte Manipulation Wenn Nutzer in unbekannten Domänen nach Informationen suchen, haben sie in der Regel Schwierigkeiten, eine adäquate (Text-)Abfrage zu formulieren. Oftmals enden Benutzer mit wiederholten Neuformulierungen und Abfrageverfeinerungen, ohne ihre tatsächlichen Ziele unbedingt zu erreichen. In diesem Beitrag schlagen wir eine Benutzeroberfläche vor, die in der Lage ist, Benutzern flexible und ergonomische Interaktionselemente zu bieten, um auch komplexe Anfragen einfach und direkt zu formulieren. Wir nennen dieses Konzept;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39209-2_28 ea6e17833743b240f1c2489e0c64c34d;de;;;7.2.;;;Ein Vergleich von Ansätzen zur Sprachidentifikation bei kurzen, abfrageartigen Texten In einer mehrsprachigen Information Retrieval-Einstellung ist die Kenntnis der Sprache einer Benutzeranfrage für die weitere Verarbeitung wichtig. Daher vergleichen wir die Leistung einiger typischer Ansätze zur Spracherkennung bei sehr kurzen Texten im Abfragestil. Die Ergebnisse zeigen, dass bereits bei einzelnen Wörtern eine Genauigkeit von über 80 % erreicht werden kann, bei etwas längeren Texten sogar Genauigkeitswerte nahe 100 %.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12275-0_59 2b0ae9032d5b7adfb8cb859b8ad09e81;de;;;7.1.;;;Der Prototyp des Kontextaustauschnetzwerks In diesem Papier beschreiben wir eine prototypische Implementierung des Context Interchange Network (CIN). Die CIN soll die intelligente Integration von kontextuell (d. h. semantisch) heterogenen Daten ermöglichen. Das System verwendet explizites Kontextwissen und einen Kontextmediator, um Konflikte automatisch zu erkennen und durch Kontextkonvertierung zu lösen. Das Netzwerk ermöglicht auch eine Kontextexplikation, wodurch es einem Datenempfänger ermöglicht wird, die Bedeutung der durch die Quelldaten repräsentierten Informationen zu verstehen. Anhand einer Finanzapplikation wird die Funktionalität des Prototyps veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34913-8_5 2fd6e57bcd8e22820ca834e45acea879;de;;;7.2.;;;Ranglisten-Abruf von Modellen der Computerbiologie Das Studium biologischer Systeme erfordert rechnerische Unterstützung. Wenn Sie auf ein biologisches Problem abzielen, kann die Wiederverwendung vorhandener Computermodelle Zeit und Mühe sparen. Die Entscheidung für potenziell geeignete Modelle wird jedoch mit der zunehmenden Zahl verfügbarer Rechenmodelle und angesichts der zunehmenden Komplexität der Modelle schwieriger. Erstens ist es unter einer Reihe potenzieller Modellkandidaten schwierig, sich für das Modell zu entscheiden, das am besten zu seinen Bedürfnissen passt. Zweitens ist es schwierig, die Natur eines unbekannten Modells, das in einem Suchergebnissatz aufgeführt ist, zu erfassen und zu beurteilen, wie gut es für das jeweilige Problem geeignet ist, das man sich vorstellt.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-11-423 a3fc31536fe3474ff9c51b74b0f6bcf1;de;;;7.2.;;;Tiefe neuronale Netze für die Abfrageerweiterung mithilfe von Word-Einbettungen Die Abfrageerweiterung ist ein Verfahren zum Mildern des Vokabularfehlanpassungsproblems, das bei Informationsabrufaufgaben vorhanden ist. Frühere Arbeiten haben gezeigt, dass Terme, die für die Abfrageerweiterung durch traditionelle Pseudorelevanz-Feedback-Methoden wie das Mischungsmodell ausgewählt wurden, für den Abrufprozess nicht immer hilfreich sind. In diesem Beitrag zeigen wir, dass dies auch für neuere vorgeschlagene einbettungsbasierte Abfrageerweiterungsmethoden gilt. Anschließend führen wir einen Klassifikator für künstliche neuronale Netze ein, der Begriffsworteinbettungen als Eingabe verwendet, um die Nützlichkeit von Abfrageerweiterungstermen vorherzusagen. Experimente mit vier TREC Newswire- und Web-Sammlungen zeigen, dass die Verwendung von Begriffen, die vom Klassifikator für die Erweiterung ausgewählt wurden, die Abrufleistung im Vergleich zu Wettbewerbsbasiswerten erheblich verbessert. Die Ergebnisse sind auch robuster als die Basislinien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-15719-7_26 94ea8fa82ee51eac466ae31e8a63b3ef;de;;;7.1.;;;Systemischer Ansatz und Soft Systems Methodology of Organization and Management Studies Dieses Kapitel besteht aus drei Teilen. Der erste Teil diskutiert die Notwendigkeit und Bedeutung des Systemansatzes in der Management- und Sozialforschung. Es versucht, die Fallstricke herkömmlicher analytischer und reduktionistischer Methoden bei der Bewältigung komplexer sozialer und Managementfragen aufzuzeigen. Es definiert und veranschaulicht dann die Verwendung verschiedener Konzepte, Theorien und Gesetze, die für den Systemansatz relevant sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-81-322-2214-9_5 0768e0ad7cf59f1bfb6ea1d5fbc7c0f4;de;;;7.2.;;;Re-Ranking im Kontext von CBIR: Eine vergleichende Studie In den letzten Jahren wurden viele Anstrengungen zum Re-Ranking-Mechanismus im Kontext von Content Based Image Retrieval (CBIR) unternommen, um die Ergebnisse zu verbessern, die nach der ersten Suche basierend auf Bildmerkmalen beantwortet wurden. In diesem Papier behandeln wir dieses Schema der Neuordnung, das hier in zwei Richtungen kategorisiert wird: Neurangierung basierend auf;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-56535-4_30 2547e6e3f9a789ac4138bef20a4d15a8;de;;;7.2.;;;Metadatenanreicherung einer multidisziplinären digitalen Bibliothek: Ein semantikbasierter Ansatz In den wissenschaftlichen digitalen Bibliotheken können einige Arbeiten aus verschiedenen Forschungsgemeinschaften durch gemeinschaftsabhängige Schlüsselwörter beschrieben werden, auch wenn sie ein semantisch ähnliches Thema haben. Artikel, die nicht mit genügend Schlagwortvariationen versehen sind, werden in jedem Informationsabrufsystem schlecht indexiert, was den potenziell fruchtbaren Austausch zwischen wissenschaftlichen Disziplinen einschränkt. In diesem Artikel stellen wir eine neuartige experimentell entworfene Pipeline für semantikbasiertes Tagging mit mehreren Labels vor, die für digitale Open-Access-Metadatenbibliotheken entwickelt wurde. Der Ansatz beginnt mit dem Lernen aus einer standardmäßigen wissenschaftlichen Kategorisierung und einer Stichprobe themenmarkierter Artikel, um semantisch relevante Artikel zu finden und ihre Metadaten entsprechend anzureichern. Unsere vorgeschlagene Pipeline soll es Forschern ermöglichen, auf Artikel aus verschiedenen Disziplinen zuzugreifen, die dazu neigen, unterschiedliche Terminologien zu verwenden. Es ermöglicht das Abrufen semantisch relevanter Artikel bei einer begrenzten bekannten Variation von Suchbegriffen. Zusätzlich zur Erzielung einer Genauigkeit, die höher ist als bei einer erweiterten abfragebasierten Methode, die einen aus einem semantischen Netzwerk extrahierten Themensynonymsatz verwendet, zeigen unsere Experimente auch eine höhere rechnerische Skalierbarkeit im Vergleich zu anderen vergleichbaren Techniken. Wir haben einen neuen Benchmark erstellt, der aus den Open-Access-Metadaten einer wissenschaftlichen digitalen Bibliothek extrahiert und zusammen mit dem Experimentcode veröffentlicht wurde, um weitere Forschungen zu diesem Thema zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00066-0_3 0b4bb6ffe0a861ab0f5eab148cde009a;de;;;7.2.;;;Studie über stornierbare Biometrie zur Verbesserung der Sicherheit des biometrischen Authentifizierungssystems In letzter Zeit gibt es eine weit verbreitete Verwendung von biometrischen Authentifizierungssystemen. Dies liegt daran, dass biometrische Systeme offen und groß angelegt sind und Registrierungs- und Authentifizierungssysteme getrennt sind. Für die löschbare Biometrietechnologie in biometrischen Systemen sind viele Verfahren vorgeschlagen worden. Jedoch ist das Sicherheitskriterium in solchen Fällen in der stornierbaren biometrischen Technologie unbestimmt. Darüber hinaus gibt es noch keine Arbeiten zur systematischen Untersuchung der Sicherheit biometrischer Authentifizierungssysteme. In diesem Papier betrachten wir die stornierbaren biometrischen Techniken aus der Perspektive der Sicherheit des Systems. Darüber hinaus überprüfen wir die Auswirkungen der Liveness-Detection-Techniken auf die Sicherheitsvorkehrungen mit der Fehlerbaumanalyse, einer Risikobewertungsmethode zum Datenschutz und Techniken zur Spoofing-Prävention.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24369-6_46 223fb32beeac0063e2545f6cb549bbc8;de;;;7.2.;;;Übersetzung des grundlegenden Modells der Anatomie ins Französische mit wissensbasierten und lexikalischen Methoden Das Foundational Model of Anatomy (FMA) ist die Referenzontologie der menschlichen Anatomie. Das FMA-Vokabular wurde in das von CISMeF entwickelte Health Multi Terminological Portal (HMTP) auf der Grundlage des CISMeF-Informationssystems integriert, das auch 26 andere Terminologien und kontrollierte Vokabulare, hauptsächlich in Französisch, umfasst. FMA ist jedoch hauptsächlich in Englisch. In diesem Zusammenhang könnte die Übersetzung englischer Begriffe der FMA ins Französische auch für die Suche und Indexierung französischer Anatomieressourcen hilfreich sein. Verschiedene Studien haben automatische Methoden untersucht, um die Übersetzung medizinischer Terminologien zu unterstützen oder mehrsprachige medizinische Vokabulare zu erstellen. Ziel dieser Studie war es, die Übersetzung des FMA-Vokabulars ins Französische zu erleichtern.;-;-;-;https://link.springer.com/article/10.1186/1472-6947-11-65 50a858b44840d716f5d97d99dd815ccf;de;;;7.2.;;;Relevanz-Feedback beim XML-Abruf Sehr heterogene XML-Datensammlungen ohne globales Schema, wie sie beispielsweise in Verbünden digitaler Bibliotheken oder wissenschaftlichen Datenbeständen entstehen, können mit XQuery oder XPath allein nicht effektiv abgefragt werden, sondern erfordern einen rangierten Retrieval-Ansatz. Wie aus umfangreicher Arbeit im IR-Bereich bekannt, kann das vom Benutzer bereitgestellte Relevanz-Feedback, das die automatische Abfrageverfeinerung oder -erweiterung vorantreibt, oft zu einer verbesserten Suchergebnisseitenqualität (z. In diesem Whitepaper stellen wir ein Framework für die feedbackgesteuerte XML-Abfrageverfeinerung vor und adressieren mehrere Bausteine, einschließlich der Neugewichtung von Abfragebedingungen und der ontologiebasierten Abfrageerweiterung. Wir zeigen die Probleme auf, die sich speziell im XML-Kontext ergeben und nicht einfach mit klassischen IR-Techniken gelöst werden können, und stellen unsere Lösungsansätze vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30192-9_18 b158a6d2b0dae9d725f7d5268aa0dc9c;de;;;7.2.;;;Applied Computational Trust in Utilities Management: eine Fallstudie zum Stadtrat von Cava de’ Tirreni Dieses Papier beschreibt eine Anwendung von Computational Trust-Techniken zur Verbesserung des Informationssystems für die Wasserversorgung der Stadt Cava de’ Tirreni, Italien. Der Studienfall umfasst eine Bevölkerung von fast 52 000 Personen und etwa 23 000 Konsumverträgen. Die Stadtverwaltung ist für die Wasserversorgung und deren Abrechnung zuständig. Ein korrekter Abrechnungsprozess erfordert die Erfassung von Wasserverbrauchsdaten jedes Bürgers, eine Aufgabe, die von den Mitarbeitern der Stadtverwaltung teilweise nicht kontrolliert werden kann und daher ohne die Mitwirkung der Bürger nicht ordnungsgemäß durchgeführt werden kann. Schlechte oder bösartige Daten sind für beide Parteien potenziell schädlich. Das Ziel dieses Experiments ist es, Computer-Trust-Techniken auszunutzen, um den Prozess der Validierung der empfangenen Daten besser zu verwalten. Der Mehrwert von Computational Trust liegt in seiner autonomen Umsetzung und in seiner eingehenden Berücksichtigung sozialer und ökologischer Variablen, die über die einfache Datenvalidierung hinausgehen. Der Bewertungsabschnitt, der Daten aus 6 Jahren umfasst, wird die ermutigenden Ergebnisse präsentieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-73655-6_11 6defcfaa99d4baaefba1fa0e843af148;de;;;7.2.;;;Einbetten und Vorhersagen von Beziehungen zwischen Software-Sicherheitseinheiten: Ein auf Knowledge Graph basierender Ansatz Softwaresicherheitswissen umfasst heterogene Sicherheitskonzepte (z. B. Softwareschwächen und Angriffsmuster) und Sicherheitsinstanzen (z. B. die Schwachstellen eines bestimmten Softwareprodukts), die als Softwaresicherheitseinheiten angesehen werden können. Unter Softwaresicherheitsentitäten gibt es viele typinterne Beziehungen sowie viele typübergreifende Beziehungen. Die Vorhersage von Beziehungen zwischen Softwaresicherheitsentitäten hilft, das Wissen über Softwaresicherheit zu erweitern (z. B. das Auffinden fehlender Beziehungen zwischen bestehenden Entitäten). Leider sind Softwaresicherheitsentitäten derzeit in separaten Datenbanken dokumentiert, wie Common Vulnerabilities and Exposures (CVE), Common Weakness Enumeration (CWE) und Common Attack Pattern Enumeration and Classification (CAPEC). Diese Hyperdokumentdarstellung kann keine effektive Argumentation von Software-Entitätsbeziehungen unterstützen. In diesem Papier schlagen wir vor, heterogene Softwaresicherheitskonzepte und Instanzen aus separaten Datenbanken zu einem kohärenten Wissensgraphen zu konsolidieren. Wir entwickeln eine Methode zur Einbettung von Wissensgraphen, die die symbolischen relationalen und beschreibenden Informationen von Software-Sicherheitsentitäten in einen kontinuierlichen Vektorraum einbettet. Die resultierenden Entitäts- und Beziehungseinbettungen sind prädiktiv für Softwaresicherheitsentitätsbeziehungen. Basierend auf der Open-World-Annahme führen wir umfangreiche Experimente durch, um die Wirksamkeit unseres auf Wissensgraphen basierenden Ansatzes zur Vorhersage verschiedener typinterner und typübergreifender Beziehungen von Software-Sicherheitsentitäten zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36718-3_5 c87405400f74f8f2f58703fae290594e;de;;;7.1.;;;Design und Implementierung eines CIM-Informationssystems Die Informationsintegration ist von entscheidender Bedeutung, um die Wettbewerbsfähigkeit der Fertigungsbetriebe zu erhalten. Um die Rolle der Information in der integrierten Fertigung besser zu verstehen, wurde ein Fallstudienansatz gewählt. Informationen gelten heute als Unternehmenswert. Die Erstellung, Verarbeitung, Bewegung und Sicherheit von Informationen ist daher genauso wichtig wie die Produkte/Dienstleistungen eines Unternehmens. Die Fallstudien haben dazu beigetragen, die Anforderungen und Probleme bei der Entwicklung eines Informationssystems und eines unterstützenden Software-Frameworks für ein Fertigungsunternehmen zu identifizieren. Dieses Papier beschreibt eine Fallstudie, die sich mit der integrierten Herstellung von Glasfaserprodukten befasst. Es wurde ein schrittweiser Entwicklungs- und Implementierungsansatz gewählt, bei dem ein kleiner, überschaubarer Teil des Systems für die Fallstudie betrachtet wird, gefolgt von funktionaler Modellierung (IDEFO) und Datenflussmodellierung (Datenflussdiagramme). Dadurch werden die interessierenden Informationen identifiziert. Die Informationsbeziehungen werden unter Verwendung von Extended Entity Relationship (EER)-Diagrammen modelliert, die dann auf ein relationales Modell abgebildet werden. Die so erhaltenen relationalen Tabellen wurden auf einem kommerziellen Database Management System (DBMS) implementiert. Die funktionalen Einschränkungen und Anwendungsschnittstellen wurden dann unter Verwendung von Structured Query Languages ​​(SQL) und kommerziellen Anwendungsschnittstellentools erstellt. Nachfolgende Abschnitte beschreiben die Funktionsmodelle, Datenflussdiagramme (DFDs), EER-Diagramme, das relationale Datenbankdesign und die für das System entwickelten Benutzer-/Anwendungsschnittstellen. Implementierungserfahrungen und Beobachtungen werden zusammen mit den Anwendungen des implementierten Systems diskutiert. Die Fallstudie hat bei der Entwicklung eines vorläufigen Datenmodells (d. h. eines Datenmodells, mit dem eine vernünftige Interpretation der Daten erhalten werden kann) für Materialhandhabungsfunktionen (MH) geholfen.;-;-;-;https://link.springer.com/article/10.1007/BF01206535 a34677ab9058c0c2b8ad461b684f0d04;de;;;7.1.;;;Umfrage zu IC&T im Katastrophenschutz und im Katastrophenmanagement Dieses Kapitel dient als Einführung in das Thema des Bandes und bildet den Rahmen der Diskussion. Es ist weitgehend eine Überprüfung und Synthese der Literatur, die auch einige persönliche Vorschläge und Schlussfolgerungen enthält. Es ist in vielerlei Hinsicht ein Arbeitspapier, wobei der Begriff Arbeitspapier im Sinne des Entwurfs des gesamten Bandes verwendet wird, sowie ein Artikel, der Feedback und Diskussionen in den anderen Kapiteln hervorrufen soll. Dieses Kapitel dient auch als Teilanalyse der Literatur. Im ersten Abschnitt des Kapitels listen wir die Rolle der IT&C in Katastrophensituationen auf, besprechen einige der internationalen und nationalen Regelungen zu diesem Thema und plädieren für spezifische Regelungen zur IT zur Katastrophenvorsorge. Der zweite Teil betont die verschiedenen Aspekte von Katastrophen und den Zusammenhang mit der Gestaltung spezifischer IT-Mittel. Der dritte Teil befasst sich mit der Resilienz und Robustheit der Gesellschaft und der IT-Systeme in Katastrophensituationen und der Rolle von IT-Mitteln bei der Verbesserung der Katastrophenresilienz.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-9136-6_1 23525f45b8192f0fe9989eed0aedf511;de;;;7.1.;;;Green Supply Chain Management Information Integration Framework und Betriebsmodusanalyse Konnotation und Systematik des Green Supply Chain Managements (GSCM) sind bisher schon sehr inhaltsreich und auch die theoretische Forschung hat fruchtbare Ergebnisse gebracht. Derzeit fehlt jedoch der Konnotation und dem System des Green Supply Chain Managements noch die Informationsgrundlage, so dass es schwierig ist, die Umsetzung von Green Supply Chain Management zu überwachen, zu analysieren und zu bewerten. Basierend auf der Konnotation und dem System des Green Supply Chain Managements diskutiert diese Arbeit, wie die Informationsbasis des Green Supply Chain Managements aufgebaut werden kann, und stellt ein neues Informationsintegrations-Framework und einen neuen Betriebsmodus der Green Supply Chain vor. Es legt die Grundlage für die Verwirklichung der Bedeutung und des Systems des grünen Lieferkettenmanagements und der Integration des Unternehmensmanagement-Informationssystems und bietet einen Weg zur Lösung des Problems, dass das grüne Lieferkettenmanagementsystem schwer zu überwachen, zu analysieren und zu bewerten ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2381-2_15 858601edac191d7f9729d93d87251354;de;;;7.1.;;;Mass Customization im Produktlebenszyklus Diese Studie bietet eine Einführung in die Mass Customization im Produktlebenszyklus – das Ziel von Mass Customization, Mass Customization-Konfigurationen und neuen Kundenintegrationstechniken, modularen Designtechniken, flexiblen Fertigungssystemen (FMS) und Supply-Chain-Management-Methoden. Die Studie überprüft drei ausgewählte Bücher und einundzwanzig ausgewählte Veröffentlichungen – frühe Veröffentlichungen, die das Ziel der Massenindividualisierung beschreiben, frühe Veröffentlichungen, die Konfigurationen der kundenspezifischen Massenanpassung beschreiben, und aktuelle Veröffentlichungen, die neue Kundenintegrationstechniken, modulare Designtechniken, FMS und Lieferketten beschreiben Managementmethoden bzw. Die Studie zeigt, dass das Ziel von Mass Customization darin besteht, individuell angepasste Produkte mit Massenproduktionsvolumen, Kosten und Effizienz herzustellen, dass die meisten Unternehmen „Assembly-to-Order“-Konfigurationen verwenden, um standardisierte Produkte zu erstellen, und dass mehr Arbeit an interaktive Kundenintegrationstechniken, kollaborative modulare Designtechniken, rekonfigurierbare Fertigungssysteme und integrierte Supply-Chain-Management-Methoden, um das Ziel der Massenanpassung zu erreichen.;-;-;-;https://link.springer.com/article/10.1007/s10845-012-0691-0 607b10b5b03434e673e2c1917d9d25c3;de;;;7.1.;;;Anwendung des Prozessverbesserungsansatzes auf das Design und die Entwicklung eines multimedialen Schulungsmanagementsystems Multimedia-basiertes Schulungsmanagement wurde wegen seiner administrativen Effizienz bei der Verwaltung des Schulungsprozesses herausgefordert. Das Problem könnte sich aus dem Systemdesign und der Entwicklung ergeben, die sich oft auf die funktionale Bereitstellung statt auf die Prozessneugestaltung konzentriert. In diesem Artikel wird ein Ansatz zur Prozessverbesserung durch die Anwendung von Prozessflussdiagrammen und Wertanalysetechniken vorgeschlagen. Dieser Ansatz analysiert und diagnostiziert zunächst spezifische Aufgaben im gesamten Trainingsmanagementprozess. Unnötige Aufgaben wurden anschließend integriert, neu gestaltet oder eliminiert, um den neu strukturierten Prozess einfacher, flexibler und kostengünstiger zu gestalten. Zur Veranschaulichung wird der Aufbau des multimedialen Trainingsmanagementsystems von MTI beschrieben. Die Ergebnisse der Systemleistungsbewertung zeigten, dass der Aufwand für das interne Schulungsmanagement reduziert und der gesamte Prozess auf ein Viertel der ursprünglichen Zykluszeit komprimiert wurde.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45453-5_42 dc21bc4f62a25d31082ef308471bed77;de;;;7.1.;;;Weiterentwicklung und Anwendung der Human-Machine-Interface (HMI)-Technologie für unbemannte Flugsysteme Schnittstellendesigns, die für Handheld-Steuerungs- und Rückmeldegeräte (z. B. Smartphones und Tablets) typisch sind, werden in der Gemeinschaft kleiner unbemannter Flugsysteme (sUAS) aufgrund der zunehmenden Verwendung in ferngesteuerten (R/C) Modellflugzeugplattformen leichter zugänglich Verarbeitung zu Kosten [4] und erhöhte Interoperabilität zur Unterstützung kundenspezifischer Entwicklung und Programmierung [2], [33]. Diese kleineren, energieeffizienten Steuerungssysteme haben das Potenzial, das Paradigma der sUAS-Steuerung zu ändern, um sie stärker auf halbautonome Operationen auszurichten, basierend auf ihrer angeborenen Fähigkeit, intuitive Benutzerinteraktionen bereitzustellen [44], niedrige Kosten, Reduzierung von Latenzeffekten auf die Steuerung, und verbesserte Echtzeitkonfiguration und Datenmessung [33]. Das Ziel dieser Studie ist es, gemeinsame Themen in der Weiterentwicklung und Anwendung von Mensch-Maschine-Schnittstellen-Technologien in der UAS-Steuerung zu identifizieren. Dieses Papier schlägt vor, die verfügbare Literatur und zugehörige Technologiedesigns zu überprüfen und herauszufinden, wie die UAS-Community diese Technologie und Interaktionskonzepte am besten nutzen kann, um einen sicheren und effizienten Betrieb von UAS zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07863-2_27 023e5b040d43e36477b4d5283161a5b2;de;;;7.1.;;;Ontologische Unterstützung für prozessorientiertes Kompetenzmanagement Die prozessorientierte Vorgehensweise hat sich in den letzten Jahrzehnten für viele Unternehmen zu einem unverzichtbaren Standard entwickelt. Diese Situation erfordert eine neue Sichtweise des Kompetenzmanagements. Die Kompetenzen der Mitarbeiter sollten im Rahmen der im Geschäftsprozess implementierten Aufgaben berücksichtigt werden. Die größte Herausforderung besteht nach den Beobachtungen des Autors in der fehlenden konsistenten Betrachtung der Gesamtaspekte des Personalwesens in Verbindung mit dem Geschäftsprozessfluss. Insbesondere besteht eine Lücke zwischen den in BPM-Systemen definierten Prozessmodellen und den in HR-Systemen definierten Kompetenzbeschreibungen. Ziel dieser Arbeit ist es, basierend auf einer vom Autor entworfenen Software Competence Ontology eine Lösung vorzuschlagen, die zur Unterstützung des prozessorientierten Kompetenzmanagements in einem Softwareentwicklungsunternehmen eingesetzt werden kann. Der Hauptzweck der Lösung besteht darin, die Suche nach den besten Auftragnehmern für die Durchführung der Geschäftsprozessaufgaben zu erleichtern. Zu diesem Zweck wurde eine Methode entwickelt, um die Fähigkeiten und das Wissen der Kandidaten zu vergleichen. Der vorgestellte Ansatz kann in prozessbasierten und virtuellen Organisationen nützlich sein, in denen die Umgebung dynamisch ist und häufige Änderungen erforderlich sind, um die Wettbewerbsfähigkeit und Agilität des Unternehmens zu erhalten. Ein beispielhafter Vorschlag zur praktischen Umsetzung eines ontologiegestützten Geschäftsprozessmodells wurde vorgestellt und am Prozess des Software Configuration Managements illustriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-77721-4_3 cbe8717f808a9b63248135bbcb86bff4;de;;;7.1.;;;Ein wissensbasiertes Entscheidungsfindungs-Framework für die Gestaltung von Fertigungsnetzwerken für kundenspezifische Produkte Die effiziente Gestaltung von Fertigungsnetzwerken ist für ein nachhaltiges Wachstum von größter Bedeutung. Die Etablierung von Mass Customization und der Übergang zur Personalisierung erschweren Designaktivitäten und führen zu Unmengen an ungenutzten Daten. Diese Forschungsarbeit zielt darauf ab, vorhandenes Wissen zu nutzen, um die Entscheidungsfindung während des anfänglichen Entwurfs von Fertigungsnetzwerken zu verbessern, die kundenspezifische Bestellungen von Industrieanlagen ausführen. Es wird ein zu Software weiterentwickeltes Verfahren vorgeschlagen, das einen genetischen Algorithmus mit wissensangereicherten Operatoren und einen intelligenten Initialisierungsalgorithmus umfasst, der vorhandenes Planungswissen ausnutzt. Die Validierung des Verfahrens erfolgt anhand von Daten eines Hochpräzisionsformenbaus und seines Netzwerks von First-Tier-Lieferanten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44739-0_69 96b29aaa5b4f08c5fffe0cbf40e3c3e6;de;;;7.1.;;;Service-orientierte digitale identitätsbezogene Datenschutz-Interoperabilität: Implementierungs-Framework von Privacy-as-a-Set-of-Services (PaaSS) Der Schutz der digitalen Identität ist ein entscheidender Aspekt, um die Zusammenarbeit zwischen heterogenen und verteilten Informationssystemen erfolgreich zu ermöglichen. In diesem Zusammenhang könnte die Privatsphäre eine Schlüsselrolle für den Schutz und die Sicherheit der digitalen Identität spielen. Somit würde eine Identitätsschicht, in der interoperabler Datenschutz in Form einer Reihe von Diensten statt monolithischer Anwendungen bereitgestellt wird, unweigerlich auf die Notwendigkeit der Zusammenarbeit reagieren. In diesem Artikel schlagen wir ein neuartiges, mehrschichtiges serviceorientiertes Implementierungsframework vor, das sich die Mitglieder von IT-Sicherheitsprojekten ausleihen können, um die Datenschutzanforderungen im Zusammenhang mit der digitalen Identität erfolgreich in eine Reihe von Diensten zu verwandeln. Mehrere Blöcke sind auf fünf Schichten verteilt und drei Mapping Gateways bestimmen die Roadmap der Implementierungsaufwands-Governance. Sieben lose gekoppelte, öffentlich gehostete und für On-Demand-Anrufe verfügbare Dienste sind spezifiziert, um serviceorientierte Architekturen zu unterstützen. OMG SoaML-Diagramme, BPMN-Prozessbeschreibungen und SOA-Artefakte-Spezifikationen werden bereitgestellt und erläutert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33068-1_18 51c8cf88f5673020225e806883897e22;de;;;7.2.;;;Sichere und effiziente Wildcard-Suche über verschlüsselte Daten In dieser Arbeit untersuchen wir das Problem der sicheren Wildcard-Suche über verschlüsselte Daten. Die Einstellung besteht aus drei Entitäten, nämlich. der Dateneigentümer, der Server und der Client. Der Dateneigentümer lagert die verschlüsselten Daten an den Server aus, der die Anfragen der Clients unbewusst bearbeitet. Wir analysieren zunächst die Effizienz und Sicherheit von zwei aktuellen Vorschlägen des International Journal of Information Security, die als Wei-Reiter (WR) und Hu-Han (HH) Protokoll bezeichnet werden. Wir zeigen, dass das HH-Protokoll völlig unsicher ist, während WR für das Problem der Wildcard-Suche über verschlüsselte Daten nicht skalierbar ist. Unser Hauptbeitrag besteht aus drei Protokollen, nämlich.;-;-;-;https://link.springer.com/article/10.1007/s10207-020-00492-w c811cdfb48c595feb0222206ddeca422;de;;;7.1.;;;Ein nähebasierter Ansatz zur Bewertung von Lebensräumen Die Planung für eine einzelne Art, mehrere Arten oder Ökosysteme hängt stark von räumlichen Interaktionen in der Landschaft ab. Es bestehen Probleme bei der Bewertung von Veränderungen des Lebensraums von Wildtieren über große räumliche und zeitliche Bereiche. Dieses Papier veranschaulicht die Verwendung von geografischen Informationssystemen (GIS) zur Bewertung des Lebensraums für eine einzelne Art, das Kraushuhn (;-;-;-;https://link.springer.com/article/10.1007/BF00128997 e003717365dcd94f7b3fed12dd03bf3f;de;;;7.1.;;;Organisation, Fehler und Sicherheit Am frühen Nachmittag stürzt ein 32-jähriger Arbeiter von einem 4 m hohen Gerüst und prallt mit der rechten Körperseite auf den Boden. Der Rettungsdienst (EMS) beurteilt den Patienten, der sich als aufmerksam und hämodynamisch stabil erwiesen hat. Er wird zur weiteren Untersuchung in die Notaufnahme eines nahegelegenen Krankenhauses gebracht. Dort ist der Notarzt mit sechs Notfällen sehr beschäftigt, während weitere Patienten warten. Bei der Ankunft sind Blutdruck und Herzfrequenz des Patienten im normalen Bereich und die Lunge ist auskultatorisch frei. Die Hauptbeschwerden des Patienten sind lokalisierte Schmerzen auf der rechten Brustseite, die sich bei tiefer Atmung und Bewegung verschlimmern. In der Radiologie wird der Patient einer Röntgenaufnahme des Thorax (CXR) unterzogen. Der Radiologietechniker, der die Patienten hauptsächlich anhand des Nachnamens identifiziert, verteilt fälschlicherweise die falschen Filme. Die CXR des Patienten zeigt eine Reihe normaler Befunde, da sie von einem anderen Patienten stammen. Der Patient kehrt in die Notaufnahme zurück, begleitet von einer Schwesternschülerin, die den Patienten überwachen soll, während der Rest des Personals bei anderen Fällen hilft. Im Laufe der folgenden halben Stunde wird der Patient zunehmend kurzatmig und ängstlich. Der Notarzt wird von der Schwesternschülerin gerufen, um den Patienten zu untersuchen. Er überprüft die CXR-Filme und verschreibt, nachdem er jegliche Brust- und Lungenpathologie ausgeschlossen hat, Morphin-Boli, die zur Schmerzkontrolle erforderlich sind. Kurz nachdem Morphin verabreicht wurde, wird der Patient betäubt. Das kurz zuvor von der Schwester ins Zimmer gebrachte Pulsoximeter zeigt eine Sauerstoffsättigung von 79 % an. Die Beutel-Masken-Beatmung wird sofort eingeleitet. Nach einer ereignislosen Intubation bemerkt der Notarzt verminderte Atemgeräusche auf der rechten Brustseite und ein subkutanes Emphysem. Während der Vorbereitung der Thoraxdrainage sinkt die Sauerstoffsättigung des Patienten schlagartig auf 40s. Der EKG-Monitor zeigt Kammerflimmern an. Ein Defibrillator wird sofort besorgt, der Schock verzögert sich jedoch, da die Bediener mit der neuen Version des Geräts nicht vertraut sind. Schließlich erweisen sich die Wiederbelebungsmaßnahmen als erfolgreich und der Patient gewinnt den Spontankreislauf zurück. Der CXR wird erneut untersucht und der Swap entdeckt. Die korrekten Filme werden überprüft und multiple Rippenfrakturen und ein rechtsseitiger Pneumothorax identifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-41427-0_14 de25e1441c74ba3254cdf9b45d94dfb8;de;;;7.2.;;;Subjektive Qualitätsbewertung des stereoskopischen omnidirektionalen Bildes Stereoskopische omnidirektionale Bilder sind ein Blickfang, weil sie ein realistisches und immersives Erlebnis bieten können. Aufgrund der zusätzlichen Tiefenwahrnehmung, die durch stereoskopische omnidirektionale Bilder bereitgestellt wird, ist es wünschenswert und dringend, die Gesamtqualität der Erfahrung (QoE) dieser Bilder, einschließlich der Bildqualität, Tiefenwahrnehmung usw. Die meisten existierenden Studien basieren jedoch auf omnidirektionalen 2D-Bildern und es wird nur die Bildqualität berücksichtigt. In diesem Papier stellen wir die allererste;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00776-8_54 5c026ff7805cacca33c8dfa1c18e6776;de;;;7.2.;;;Untersuchen von Kundenreaktionen auf gefälschte Online-Rezensionen: Die Rolle von Verdacht und Produktwissen Online-Bewertungen sind ein zentrales Element moderner Mund-zu-Mund-Propaganda und können die Kaufabsicht der Kunden stark beeinflussen. Kunden können jedoch auch wissen, dass diese Tools manipuliert oder gefälscht werden können und der Verdacht auf die Echtheit der Bewertung ihren Einfluss beeinträchtigen kann. Ziel dieser Arbeit ist es, die Auswirkungen des Verdachts auf gefälschte Bewertungen auf die Wirksamkeit von Bewertungen bei der Beeinflussung der Kaufabsichten der Kunden zu untersuchen. Die Ergebnisse unserer empirischen Studie zeigen, dass Kunden, die der Authentizität von Bewertungen verdächtig sind, die Bewertungen weniger überzeugend finden und ihre Kaufwahrscheinlichkeit umkehren. Sie gilt im Übrigen unabhängig von Vorkenntnissen über das Produkt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-69644-7_18 360b44262d7c20116b26dcdf49fb04f8;de;;;7.2.;;;Passende qualitative Raumszenenbeschreibungen á la Tabu Das Abgleichen räumlicher Szenenbeschreibungen erfordert geeignete Darstellungen und Algorithmen basierend auf der jeweiligen Anwendung. Diese Arbeit skizziert ein einfaches Modell zum Abgleich qualitativ beschriebener räumlicher Szenen, die aus Kartenskizzen extrahiert wurden. Standardmäßige qualitative Beschränkungsnetzwerke werden kombiniert, um eine geeignete qualitative Darstellung für eine skizzierte räumliche Szene bereitzustellen. Zwei Szenen werden dann unter Verwendung einer Implementierung der Tabu-Such-Metaheuristik unter Verwendung von Standard- und Spezialdatenstrukturen abgeglichen. Wir geben eine detaillierte Beschreibung der Darstellung und des Algorithmus und untersuchen die Leistung des Modells anhand eines Beispieldatensatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45111-9_34 87b7c2e3d75a79771fc4a78e7cc453a9;de;;;7.1.;;;Das Operations Excellence Audit Sheet In diesem Dokument wird ein Audit-Blatt für Operations Excellence (OE) vorgestellt, das es Unternehmen ermöglicht, eine schnelle Bewertung ihrer Betriebsleistung zu erhalten. Das Blatt basiert auf bekannten Bewertungsschemata im Bereich Lean Manufacturing, die von Godson, Kobayashi und Schonberger entwickelt wurden. Diese drei Schemata werden im Audit Sheet kombiniert und erweitert, das 15 Bereiche der operativen Exzellenz definiert. Das Audit Sheet ist ein leistungsstarkes Werkzeug, um den aktuellen Zustand zu beurteilen und den zukünftigen Zustand des Unternehmensbetriebs zu planen. Es wurde erfolgreich in mehreren Enterprise Reengineering-Projekten angewendet, um Entscheidungsträgern ausreichend Input zu geben, um Verbesserungsziele zu identifizieren und die aktuelle Betriebsstrategie zu überarbeiten. Die Verwendung des Auditbogens wird an zwei Fallbeispielen aus der norwegischen Industrie demonstriert und es werden einige Einblicke in die Anwendbarkeit des Auditbogens auf verschiedene Arten von Herstellungsprozessen gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-77249-3_14 7b73302c777d142712e163d6c5effa87;de;;;7.2.;;;Intelligente Fuzzy-gewichtete Durchschnitte von Informationen, die durch Fuzzy-Zahlen ermittelt wurden Wir veranschaulichen einen vorläufigen Vorschlag gewichteter Fuzzy-Mittelwerte zwischen zwei Zugehörigkeitsfunktionen. Konflikte sowie Vereinbarungen zwischen den verschiedenen Informationsquellen der beiden neuen Betreiber sind endogen in die Durchschnittsgewichte eingebettet. Der Vorschlag ist motiviert durch das praktische Problem der Bewertung des Fuzzy-Volatilitätsparameters in der Black- und Scholes-Umgebung durch alternative Schätzer.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08795-5_48 ea9bc6832fe5a685b916d858beb3ed60;de;;;7.2.;;;Einführung agiler Softwareentwicklung in Kombination mit benutzerzentriertem Design und Lean Startup: Eine systematische Literaturübersicht zu Reifegradmodellen Der Einsatz von Agile in der Softwareentwicklungsbranche in den letzten zwei Jahrzehnten hat gezeigt, dass es in einigen Aspekten glanzlos ist, beispielsweise bei der Gewährleistung der Benutzerbeteiligung und der Sicherstellung, dass die richtige Software erstellt wird. Es gibt Berichte, dass die Kombination von Agile mit Lean Startup und User-Centered Design (UCD) hilft, diese Mängel zu überwinden und gleichzeitig mehrere andere Vorteile bietet. Es gibt jedoch nicht viel Dokumentation darüber, wie dieser „kombinierte Ansatz“ verwendet werden kann, und die Anpassung bestehender Organisationen an sich ist eine Herausforderung, bei der der Einsatz eines Instruments zur Steuerung oder Bewertung solcher Transformationen typischerweise ausschlaggebend für ihren Erfolg ist. Daher versuchen wir in diesem Papier Reifegradmodelle zu identifizieren, die den Einsatz von Agile, Lean Startup und UCD bewerten. Wir haben eine systematische Literaturrecherche der Reifegradmodelle für diese drei Methoden durchgeführt, die zwischen 2001 und 2020 veröffentlicht wurden. Wir haben die Reifegradmodelle charakterisiert und festgestellt, wie sie Reife sehen, wie sie angewendet und bewertet wurden. Als erweiterte Version eines früheren Papiers haben wir unsere Analysekriterien erweitert und die Modelle dahingehend weiter klassifiziert, wie sie den Reifegrad interpretieren und welche Strategie sie für einen Verbesserungsprozess vorschlagen, sowie neue Erkenntnisse zu verschiedenen Aspekten der Modelle liefern. Wir fanden 35 Reifegradmodelle, davon 23 für Agile, 5 für Lean Thinking, 5 für UCD und 2 für Agile und UCD kombiniert. Es wurden keine Modelle für die Kombination der drei Methoden (auch nicht für Lean Startup) gefunden, wie aufgrund der Neuheit des Ansatzes erwartet. Bestehende Modelle konzentrieren sich hauptsächlich auf die Übernahme von Praktiken und den Erwerb von Fähigkeiten zur kontinuierlichen Verbesserung und werden normalerweise unter Berücksichtigung eines bestimmten Kontexts entwickelt. Wir stellen auch fest, dass bei den meisten Modellen keine geeigneten Bewertungsverfahren durchgeführt werden, was auf das Fehlen etablierter Methoden und Richtlinien zur Entwicklung von Reifegradmodellen zurückzuführen sein könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-75418-1_24 0e5eed7101eac9267f56e5624b6d77df;de;;;7.2.;;;Der aktuelle Forschungsstand zu E-Government in Entwicklungsländern: Ein Literaturüberblick Dieses Papier berichtet über einen Überblick über die Literatur über eGovernment im Kontext von Entwicklungsländern, die zwischen 2005 und 2010 veröffentlicht wurde. Die Erkenntnisse aus diesem Überblick können Forscher bei ihrer weiteren Untersuchung der eGovernment-Implementierung, insbesondere im Kontext von Entwicklungsländern, leiten. Aus einer Überprüfung von 108 Papieren ergab die Studie einige wesentliche Veränderungen im Bereich der E-Government-Forschung. Dazu gehörten die verstärkte Übernahme von Interpretationsparadigmen und die verstärkte Verwendung von Theorien in der Forschung. Zukünftige Forschungsrichtungen aus methodischer Sicht wurden vorgegeben: mehr Beachtung von Forschungsparadigma und -methodik, Erhalt des Multikulturalismus in der eGovernment-Forschung, Förderung von Aktionsforschung und Längsschnittstudien sowie Verbesserung der Forschungsqualität durch theoriegeleitete Grundlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33489-4_1 75a503456300fd3f9a733ba82d364121;de;;;7.2.;;;Stimmen in polyphoner Musik trennen: Ein Contig-Mapping-Ansatz Die Sprachtrennung ist eine kritische Komponente beim Abrufen von Musikinformationen, bei der Musikanalyse und bei automatisierten Transkriptionssystemen. Wir präsentieren einen Contig-Mapping-Ansatz zur Sprachtrennung basierend auf Wahrnehmungsprinzipien. Der Algorithmus läuft in;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-31807-1_1 53bec6cbc7c6f8bae45ebe969e671172;de;;;7.2.;;;Fortschritte bei Spam-Filtertechniken Heutzutage ist E-Mail-Spam keine Neuheit, aber immer noch ein wichtiges wachsendes Problem mit großen wirtschaftlichen Auswirkungen auf die Gesellschaft. Glücklicherweise gibt es verschiedene Ansätze, die die meisten dieser Nachrichten automatisch erkennen und entfernen können, und die bekanntesten basieren auf Techniken des maschinellen Lernens wie Naive Bayes-Klassifikatoren und Support Vector Machines. Es gibt jedoch mehrere verschiedene Modelle von Naive Bayes-Filtern, was in der Spam-Literatur nicht immer anerkannt wird. In diesem Kapitel stellen und vergleichen wir sieben verschiedene Versionen von Naive Bayes-Klassifikatoren, die bekannte lineare Support Vector Machine und eine neue Methode basierend auf dem Prinzip der minimalen Beschreibungslänge. Darüber hinaus haben wir ein empirisches Experiment an sechs öffentlichen und realen nicht-kodierten Datensätzen durchgeführt. Die Ergebnisse zeigen, dass der vorgeschlagene Filter einfach zu implementieren, inkrementell aktualisierbar ist und die aktuellen Spam-Filter deutlich übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25237-2_12 9c57483570d12793681ef1dd50d5e0d0;de;;;7.2.;;;Erstellen, Modellieren und Visualisieren von metabolischen Netzwerken Metabolische Netzwerke verbinden Stoffwechsel und Regulation. Diese komplexen Netzwerke sind aufgrund der unterschiedlichen Arten von Informationen, die dargestellt werden müssen, schwer zu verstehen und zu erstellen. Dieses Kapitel beschreibt eine Reihe miteinander verbundener Werkzeuge zur Entwicklung, Darstellung und Modellierung metabolischer Netzwerke. Die Metabolic Network Interactions Database, MetNetDB, enthält Informationen zu regulatorischen und metabolischen Interaktionen, die aus einer Kombination von Webdatenbanken und Beiträgen von Biologen in ihrem Fachgebiet abgeleitet wurden. PathBinderA durchsucht das biologische „Literaturom“, indem es nach neuen Interaktionen sucht oder Beweise für bestehende Interaktionen in metabolischen Netzwerken unterstützt. Sätze aus Abstracts werden nach der Wahrscheinlichkeit geordnet, dass eine Interaktion beschrieben und mit Beweisen aus anderen Sätzen kombiniert wird. FCModeler, ein öffentlich verfügbares Softwarepaket, ermöglicht es dem Biologen, metabolische und regulatorische Netzwerkkarten zu visualisieren und zu modellieren. FCModeler hilft bei der Entwicklung und Bewertung von Hypothesen und bietet einen Modellierungsrahmen für die Bewertung der großen Datenmengen, die durch Hochdurchsatz-Genexpressionsexperimente erfasst werden.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-25739-X_17 654f16ec0aaa2f8b5a2310a434147763;de;;;7.2.;;;Berücksichtigung von Gesprächsszenen in der Filmzusammenfassung Da die manuelle Videozusammenfassung zeitaufwendig ist und ein hohes Maß an Fachwissen erfordert, ist eine effektive automatische Videozusammenfassungsmethode erforderlich. Obwohl bestehende Videozusammenfassungsmethoden für einige Videos verwendbar sind, wird es manchmal schwierig, die Geschichten aus den generierten Zusammenfassungen zu verstehen, wenn sie auf geschichtenorientierte Videos wie Filme angewendet werden, da es ihnen oft an Kontinuität fehlt. In diesem Artikel schlagen wir eine Methode zur Zusammenfassung von Videos vor, die die Geschichte über die Sequenz der extrahierten Aufnahmen hinaus vermitteln kann, sodass sie den Wahrnehmungsmustern der Benutzer entsprechen. Insbesondere untersuchen wir den Einfluss von Gesprächsszenen auf das Geschichtenerzählen von Filmen. Die Auswertung von zusammengefassten Videos stellt eine weitere Herausforderung dar, da bestehende Auswertungsmethoden zur Textzusammenfassung nicht direkt auf die Videozusammenfassung angewendet werden können. Daher schlagen wir eine Methode zum Vergleichen von zusammengefassten Filmen vor, die die Integrität von Gesprächsszenen beibehält, mit denen, die dies nicht tun. Wir zeigen, wie sich die Erhaltung von Gesprächsaspekten auf die Qualität zusammengefasster Videos auswirkt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-03520-4_16 54aa2fe91634fbcd8161fd30ff8abb60;de;;;7.2.;;;Neurophysiologische Bewertung der Ambivalenz gegenüber Informationen Durch die Verbreitung von Technologien sind Informationen allgegenwärtig für Einzelpersonen verfügbar, die darauf angewiesen sind, Entscheidungen zu treffen oder Transaktionen durchzuführen. Wir konzentrieren uns darauf, wie und warum die Wertigkeit von Informationen bei Einzelpersonen gemischte Reaktionen hervorrufen und möglicherweise ihren Entscheidungsprozess beeinflussen kann. Die bisherige Forschung im Bereich IS hat sich hauptsächlich auf positive und negative Reaktionen auf Technologie (in den meisten Fällen getrennt) konzentriert. Wir untersuchen das gleichzeitige Vorhandensein positiver und negativer Dispositionen –;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-60073-0_6 30b17a25ed9622427a7b2f798642f246;de;;;7.1.;;;Prolog * Einführung Die postindustrielle Gesellschaft ist von auffallend komplexer Natur, fortschreitende Arbeitsteilung und Veränderungen der Produktions- und Güterstrukturen führen zu einer sich vertiefenden Interdependenz von Akteuren und wirtschaftlichen Marktteilnehmern und lassen – ermöglicht und verstärkt durch mächtige Transport- und Telekommunikationsmedien – die Die Globalisierung der Märkte und damit auch der Gesellschaft geht zwangsläufig mit steigenden Informationsanforderungen und komplexeren Steuerungs- und Entscheidungsaufgaben einher. Ob es um staatliche Planung und Politik geht, um die Entscheidungsfindung im Top-Management großer und insbesondere multinationaler Unternehmen oder die wissenschaftliche Forschung: Rationelles Handeln hängt mehr denn je entscheidend von unseren;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-6856-1_1 61709fc12547d722d74becf78bc46d0c;de;;;7.1.;;;Eine strukturierte Methodik zur Implementierung von Leistungsmesssystemen in kollaborativen Netzwerken Kollaboration ist eine der am häufigsten verwendeten Strategien im Geschäftsumfeld. Unternehmen, die zusammenarbeiten, benötigen zuverlässige und effiziente Leistungsinformationen. Viele kollaborative Unternehmen implementieren jedoch ein gemeinsames Leistungsmessungssystem nicht in angemessener Weise, da solide Mechanismen fehlen, die alle Elemente innerhalb eines Leistungsmessungssystems verbinden. Der Zweck dieses Papiers ist es, eine Methodik bereitzustellen, die auf einer Multikriteriums-Entscheidungsmethode basiert, die hilft, die verschiedenen Elemente zu implementieren, die ein Leistungsmesssystem für kollaborative Netzwerke bilden. Mit dieser Methodik verfügen Unternehmen über ein Werkzeug, um alle Aspekte des Performance-Measurement-Systems zu definieren und umzusetzen. Dieser Ansatz wurde auf ein kollaboratives Unternehmensnetzwerk aus dem Automobilsektor angewendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23330-2_17 efaf982f00257100c1d12b318db0fefb;de;;;7.1.;;;Verkehrsleitsystem auf Basis kartografischer Datenbanken und Geoinformationstechnologien Untersucht werden Software und Informationstools zur kartographischen Unterstützung der Verkehrsdisposition auf Basis elektronischer Regionalkarten und Geoinformationssysteme (GIS).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-37629-3_13 ac1b7ecdbcd84399f37d2cc7abb763e5;de;;;7.2.;;;Robuste abfragespezifische Pseudo-Feedback-Dokumentauswahl zur Abfrageerweiterung Beim Abrufen von Dokumenten unter Verwendung von Pseudo-Relevanz-Feedback wird nach dem anfänglichen Ranking eine feste Anzahl von Dokumenten mit dem höchsten Rang als Feedback ausgewählt, um ein neues Erweiterungsabfragemodell zu erstellen. Der intuitiven, aber kritischen Tatsache, dass die Abrufleistung für verschiedene Abfragen empfindlich auf die Auswahl einer unterschiedlichen Anzahl von Feedback-Dokumenten reagiert, wurde jedoch sehr wenig Aufmerksamkeit geschenkt. In diesem Papier untersuchen wir zwei Ansätze, um den Faktor der abfragespezifischen Auswahl von Feedback-Dokumenten automatisch zu berücksichtigen. Die erste besteht darin, die „optimale“ Anzahl von Feedback-Dokumenten in Bezug auf eine Anfrage zu bestimmen, indem die Klarheitsbewertung und der kumulative Gewinn übernommen werden. Der andere Ansatz besteht darin, dass wir, anstatt die optimale Zahl zu erfassen, hoffen, den Effekt der Zahlen von Feedback-Dokumenten abzuschwächen, d. h. die Robustheit des Pseudo-Relevanz-Feedback-Prozesses durch ein Mischungsmodell zu verbessern. Unsere experimentellen Ergebnisse zeigen, dass beide Ansätze die Abrufleistung insgesamt verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78646-7_54 35b274729cb19a4064149ac873d2ee32;de;;;7.2.;;;Fehlerschwellenvorhersage mit linearen Programmiermethoden Dieses Papier stellt eine neue experimentelle Methodik vor, die mit einer Reihe von Programmstrukturparametern arbeitet. Wir haben einige einfache Metriken für diese Parameter berechnet und dann lineare Programmiertechniken darauf angewendet. So konnte ein Modell definiert werden, das den Risikograd eines Programms vorhersagen kann, nämlich wie anfällig es für Fehler ist. Das neue System stellt die Softwaredateien als Punkte auf einem n-dimensionalen Raum dar (jede Dimension ist eines der strukturellen Attribute für jede Datei). Ausgehend von diesem Modell wird das Problem, die gefährlicheren Dateien herauszufinden, auf das Problem zurückgeführt, um zwei Sätze in;-;-;-;https://link.springer.com/article/10.1023/A%3A1023006528274 4bc9f0813850e933df1f03125686cab2;de;;;7.2.;;;IR-n im CLEF Robust WSD Task 2008 In unserem Ansatz zur Robust WSD-Aufgabe haben wir ein passagebasiertes System zusammen mit einem WordNet und einer WSD-basierten Begriffserweiterung für die Dokumente und Abfragen verwendet. Darüber hinaus haben wir mit zwei bekannten Relevanz-Feedback-Methoden - LCA und PRF - experimentiert, um herauszufinden, welche besser geeignet ist, um von der WSD-Abfrageerweiterung auf Basis von Wordnet zu profitieren. Unser bester Lauf hat einen 4. - 0.4008 MAP - erhalten. Ein wichtiges Ergebnis ist, dass LCA besser zu dieser Aufgabe passt als PRF, da es die erweiterten Dokumente und Abfragen nutzen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04447-2_16 918c2558c518bdf78f788a6b2406f217;de;;;7.2.;;;Auswahl der Objektsignaturfunktionen für die handschriftliche Jawi-Erkennung Die Trace-Transformation ermöglicht es, eine unbegrenzte Anzahl von Bildmerkmalen zu konstruieren, die für eine ausgewählte Gruppe von Bildtransformationen invariant sind. Die Objektsignatur in Form einer Zahlenfolge ist eine Art der Transformationsfunktionen. In diesem Beitrag demonstrieren wir eine Wrapper-Methode zusammen mit mehreren Ranking-Bewertungsmessungen, um nützliche Funktionen für die Erkennung handgeschriebener Jawi-Bilder auszuwählen. Wir vergleichen das Ergebnis der Erkennung mit denen, die wir mit Methoden erhalten, bei denen Merkmale zufällig oder gar nicht ausgewählt werden. Die vorgeschlagenen Methoden scheinen am vielversprechendsten zu sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14883-5_88 2ee60532891462dd022ea04c1c573ef7;de;;;7.2.;;;Mining-Assoziationsmuster zwischen Musik- und Videoclips in professionellem MTV Video- und Musikclips in MTV passen auf besondere Weise zusammen, um einen attraktiven Effekt zu erzielen. In diesem Papier verwenden wir ein zweiflügeliges Harmoniummodell, um die zugrunde liegenden Assoziationsmuster zwischen Musik und Videoclips in professionellem MTV zu lernen und darzustellen. Wir verwenden die entdeckten Muster auch, um die automatische MTV-Generierung zu erleichtern. Ausgestattet mit einem Rohvideo und einem bestimmten professionellen MTV als Vorlage generieren wir ein neues MTV, indem wir für jeden Musikclip basierend auf dem trainierten Modell effizient den am meisten verwandten Videoclip ableiten. Unsere Methode zeigt ermutigende Ergebnisse im Vergleich zu anderen Ansätzen zur automatischen MTV-Erzeugung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-92892-8_41 dafe2b40fe2eaf3579a988774052e975;de;;;7.2.;;;Fuzzy Linguistic Scales: Definition, Eigenschaften und Anwendungen Dieser Beitrag untersucht die mathematischen Aspekte einer formalisierten Beschreibung des Menschen als Messgerät. Es wird davon ausgegangen, dass die Person die realen Objekteigenschaften in Form von sprachlichen Werten beschreibt. Der subjektive Komfort einer solchen Beschreibung hängt von der Auswahl und Zusammensetzung solcher sprachlichen Werte ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36216-6_3 7ba20fc7dd1fa66de26138922c6971e0;de;;;7.2.;;;Funktionen zur Unterstützung von beständigen Chat-Konversationen Die Persistenz von Chat-Gesprächen ist einer der interessanten Aspekte von Chat-Tools, die sie als Kommunikationsmedium noch nützlicher machen. Persistenz allein ist jedoch nicht sinnvoll, es sei denn, es gibt Funktionen, die persistente Konversationen unterstützen, um die Benutzerfreundlichkeit einer persistenten Umgebung zu erhöhen. Darüber hinaus vereinfachen diese Funktionen die Unterhaltungs- und Informationsabrufprozesse für Chat-Teilnehmer. Dieses Papier zeigt auf, wie verschiedene Tools für persistente Chats versucht haben, solche Schwierigkeiten durch den Einsatz von Designfaktoren und -strategien zu überwinden. Designfaktoren beziehen sich auf die besondere Funktionalität einer Funktion und sind im Allgemeinen Konzepte, die das Chat-Tool unterstützen sollte. Designstrategien konzentrieren sich mehr auf die Regeln und Einschränkungen, die für die Benutzer gelten, und die in den Tools verfügbaren Funktionen. Eine Reihe von Gestaltungsfaktoren und Strategien für anhaltende Chat-Gespräche wird vorgestellt und in Bezug auf die Funktionen diskutiert, die anhaltende Chat-Gespräche unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21796-8_28 152f1e9d1f6fab40f428c8c876cf13b2;de;;;7.2.;;;Erforschung überwachter und unüberwachter Methoden zur Erkennung von Themen in biomedizinischen Texten Die Themenerkennung ist eine Aufgabe, die Themen (z. B. Biochemie und Proteinstruktur) in wissenschaftlichen Artikeln basierend auf dem Informationsgehalt automatisch identifiziert. Die Themenerkennung wird vielen anderen Aufgaben der Verarbeitung natürlicher Sprache zugute kommen, einschließlich Informationsabruf, Textzusammenfassung und Beantwortung von Fragen, und ist ein notwendiger Schritt zum Aufbau eines Informationssystems, das Biologen eine effiziente Möglichkeit bietet, Informationen aus einem Ozean von Literatur zu suchen.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-7-140 0759076b4e051f84bf5054f0ca0e0f20;de;;;7.1.;;;Transportnetzdesign integrierter Netze mit dynamischem Echtzeit-Routing Integrierte Echtzeit-Dynamic-Routing-(IRR)-Netzwerke bieten dynamische Routing-Funktionen für mehrere Dienstklassen in einem integrierten Transportnetzwerk. In einem früheren Journal-Artikel wurde gezeigt, dass IRR-Netzwerke reduzierte Netzwerkverwaltungskosten ermöglichen, da mit dynamischem Echtzeit-Routing eine Reihe von Netzwerkoperationen vereinfacht oder eliminiert werden, was zu Einsparungen bei Betriebskosten und -kosten führt. In diesem Beitrag wird ein neuer Algorithmus für das Transportdesign von IRR-Netzen beschrieben, der ein nahezu optimales Capacity Engineering erreicht. Insbesondere erreicht eine optimale Lösung des Karmarkar-Algorithmus für das lineare Programmierflussmodell eine Reduzierung der Netzwerkdesignkosten um ungefähr 5 bis 8 Prozentpunkte im Vergleich zu den Designs von vorgeplanten dynamischen Netzwerken, die mit heuristischen Designtechniken gelöst werden. Die in diesem und dem vorherigen Journal-Papier beschriebenen Optimierungstechniken erzielen durch die richtige Modellierung des effizienteren Betriebs von IRR-Netzen erhebliche Kapitalkostensenkungen und Netzleistungsverbesserungen.;-;-;-;https://link.springer.com/article/10.1007/BF01036826 19d69ead1ff0aa53417939d119696193;de;;;7.1.;;;Minimalistisches künstliches Auge für autonome Roboter und Bahnplanung Das visuelle Tracking ist ein Merkmal von großer Bedeutung für ein künstliches autonomes System, das mit der Umgebung verbunden ist. Es ist auch ein offenes Forschungsproblem mit großer Aktivität im Bereich der Computer Vision. In diesem Beitrag wird ein minimalistisches Trackingsystem für autonome Roboter vorgeschlagen, das hauptsächlich für Navigationsaufgaben entwickelt wurde. Das Konzept des Minimalismus übersetzt sich in ein Verarbeitungssystem mit sehr geringer Reichweite, das aber dennoch Identifizierung und Verfolgung in Echtzeit entwickelt. Das vorgeschlagene Schema wird experimentell mit einer grundlegenden Tracking-Aufgabe evaluiert, bei der das System eine geometrische Markierung in der Umgebung erkennt, ihre dreidimensionale Position berechnet und die Bewegung des Auges koordiniert, um die Entfernung zum Ziel zu verringern und seinen Fokus zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24834-9_28 e7f57ce806378a1d8ff17bf66623f7f1;de;;;7.2.;;;Analyse von Akkordfolgedaten Harmonie ist ein wichtiger Bestandteil der Musik. Akkordfolgen, die harmonische Veränderungen der Musik mit verständlicher Notation darstellen, wurden in der populären Musik und im Jazz verwendet. Dieser Artikel geht der Frage nach, ob eine Akkordfolge für den Musikabruf zusammengefasst werden kann. Es werden verschiedene Möglichkeiten für Akkordfolgevereinfachungsschemata, N-Gramm-Konstruktionsschemata und Distanzfunktionen untersucht. Experimente zeigen, dass solche Profile zur Künstlergruppierung und zum Abruf von Kompositionen über Top-k-Abfragen verwendet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11674-2_8 42c4b842a272cf6eeae649151804a6bb;de;;;7.2.;;;Aktualisieren von Benutzern über zeitkritische Ereignisse Bei unerwarteten Ereignissen wie Naturkatastrophen verlassen sich Einzelpersonen auf die von Nachrichtenagenturen generierten Informationen, um ein Verständnis dieser Ereignisse zu gewinnen. Diese Informationen sind zwar häufig umfangreich, werden jedoch häufig durch die Aufnahme unwichtiger, doppelter oder falscher Informationen beeinträchtigt. Es ist wichtig, den Benutzern nur die neuen, wichtigen Informationen über diese Ereignisse während ihrer Entwicklung präsentieren zu können. Wir stellen das Problem der Aktualisierung von Benutzern über zeitkritische Nachrichtenereignisse vor und konzentrieren uns auf die Aufgabe, zu entscheiden, welche Informationen für die Aktualisierung von Benutzern ausgewählt werden sollen, wenn sich ein Ereignis entwickelt. Wir schlagen eine Lösung für dieses Problem vor, die Techniken des Informationsabrufs und der Zusammenfassung mehrerer Dokumente umfasst, und bewerten diesen Ansatz anhand einer Reihe historischer Ereignisse unter Verwendung eines großen Stroms von Nachrichtendokumenten. Außerdem stellen wir eine Bewertungsmethode vor, die deutlich kostengünstiger ist als herkömmliche Ansätze der zeitlichen Zusammenfassung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36973-5_41 16eae8cb1932955ce47a4e54f6423a21;de;;;7.2.;;;Kombination globaler und lokaler Informationen für die wissensgestützte Bildanalyse und Klassifizierung Es wird ein lernender Ansatz zur wissensgestützten Bildanalyse und Klassifikation vorgeschlagen, der globale und lokale Informationen mit explizit definiertem Wissen in Form einer Ontologie kombiniert. Die Ontologie spezifiziert die interessierende Domäne, ihre Unterdomänen, die Konzepte, die sich auf jede Unterdomäne beziehen, sowie kontextbezogene Informationen. Support Vector Machines (SVMs) werden verwendet, um den Ontologie-Unterdomänen eine Bildklassifizierung basierend auf globalen Bildbeschreibungen bereitzustellen. Parallel dazu wird ein Segmentierungsalgorithmus angewendet, um das Bild in Regionen zu segmentieren, und es werden wieder SVMs verwendet, diesmal zum Durchführen einer anfänglichen Abbildung zwischen visuellen Merkmalen auf niedriger Ebene der Region und den Konzepten in der Ontologie. Dann ein;-;-;-;https://link.springer.com/article/10.1155/2007/45842 5736bd6bcaae8b8f919e79c3e4634aff;de;;;7.2.;;;Textkategorisierung basierend auf regularisierten linearen Klassifikationsmethoden Bei Textkategorisierungsproblemen wurden eine Reihe von linearen Klassifikationsverfahren wie die lineare Anpassung der kleinsten Quadrate (LLSF), logistische Regression und Support Vector Machines (SVMs) angewendet. Diese Verfahren teilen die Ähnlichkeit, indem sie Hyperebenen finden, die eine Klasse von Dokumentvektoren ungefähr von ihrem Komplement trennen. Support-Vektor-Maschinen gelten jedoch bisher insofern als besonders, als sie nachweislich die Leistung nach dem Stand der Technik erreichen. Es lohnt sich daher zu verstehen, ob eine so gute Leistung nur beim SVM-Design zu finden ist oder ob sie auch durch andere lineare Klassifizierungsmethoden erreicht werden kann. In diesem Beitrag vergleichen wir eine Reihe bekannter linearer Klassifikationsmethoden sowie einige Varianten im Rahmen regularisierter linearer Systeme. Wir werden die statistischen und numerischen Eigenschaften dieser Algorithmen diskutieren, wobei der Schwerpunkt auf der Textkategorisierung liegt. Wir werden auch einige numerische Experimente bereitstellen, um diese Algorithmen an einer Reihe von Datensätzen zu veranschaulichen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1011441423217 4cb7135724aee8da12a709ecc682cfbe;de;;;7.2.;;;Ein Word-Spotting-Framework für historische maschinengedruckte Dokumente In diesem Papier schlagen wir ein Word-Spotting-Framework vor, um auf den Inhalt historischer maschinengedruckter Dokumente ohne die Verwendung einer optischen Zeichenerkennungsmaschine zuzugreifen. Ein Vorverarbeitungsschritt wird durchgeführt, um die Qualität der Dokumentenbilder zu verbessern, während die Wortsegmentierung unter Verwendung zweier komplementärer Segmentierungsmethoden erfolgt. Bei der vorgeschlagenen Methodik werden synthetische Wortbilder aus Schlüsselwörtern erzeugt und diese Bilder werden mit allen Wörtern in den digitalisierten Dokumenten verglichen. Ein Benutzer-Feedback-Prozess wird verwendet, um das Suchverfahren zu verfeinern. Die Methodik wurde in frühneugriechischen Dokumenten evaluiert, die im 17. und 18. Jahrhundert gedruckt wurden. Um die Effizienz des Zugriffs und der Suche zu verbessern, wurden Techniken zur Verarbeitung natürlicher Sprache adressiert, die einen morphologischen Generator umfassen, der das Suchen in Dokumenten unter Verwendung nur einer Basiswortform zum Auffinden aller entsprechenden flektierten Wortformen und eines Synonymwörterbuchs ermöglicht, das weiter erleichtert den Zugang zum semantischen Kontext von Dokumenten.;-;-;-;https://link.springer.com/article/10.1007/s10032-010-0134-4 438b414aaf2f05cfa9da4dd9b1079fcf;de;;;7.2.;;;Kardinalitätsschätzung und dynamische Längenanpassung für Bloom-Filter Bloom-Filter werden häufig in verteilten Anwendungen verwendet, insbesondere in verteilten Datenbanken und verteilten Informationssystemen, um Netzwerkanforderungen zu reduzieren und die Leistung zu erhöhen. In dieser Arbeit schlagen wir zwei neuartige Bloom-Filterfunktionen vor, die für verteilte Datenbanken und Informationssysteme wichtig sind. Zuerst stellen wir einen neuen Ansatz vor, um einen Bloom-Filter so zu codieren, dass seine Länge an die Kardinalität der Menge, die er repräsentiert, angepasst werden kann, mit vernachlässigbarem Overhead in Bezug auf Berechnung und falsch positive Wahrscheinlichkeit. Die vorgeschlagene Codierung ermöglicht erhebliche Netzwerkeinsparungen in verteilten Datenbanken, da sie es den teilnehmenden Knoten ermöglicht, die Länge jedes Bloom-Filters zu optimieren, bevor sie beispielsweise beim Ausführen von Bloom-Joins über das Netzwerk gesendet werden. Zweitens zeigen wir, wie die Anzahl der verschiedenen Elemente in einem Bloom-Filter für Situationen geschätzt wird, in denen die dargestellte Menge nicht materialisiert wird. Diese Situationen treten häufig in verteilten Datenbanken auf, wo die Schätzung der Kardinalität der repräsentierten Mengen zum Erstellen eines effizienten Abfrageplans erforderlich ist. Die Schätzung ist sehr genau und hat enge Wahrscheinlichkeitsgrenzen. Für beide Funktionen bieten wir eine gründliche probabilistische Analyse und eine umfangreiche experimentelle Bewertung, die die Wirksamkeit unserer Ansätze bestätigen.;-;-;-;https://link.springer.com/article/10.1007/s10619-010-7067-2 e4f0aa4609a7cd4be3d5d4a9c2f3d717;de;;;7.2.;;;Ein verbesserter Signal-Subspace-Algorithmus zur Sprachverbesserung Die meisten Algorithmen zur Sprachverbesserung sind darauf ausgelegt, den Sprachhörkomfort zu verbessern. Jedoch wird der Frequenzspektrumscharakter nach der Sprachverstärkung ernsthaft zerstört. Um einen besseren Sprachhörkomfort mit weniger frequenzspektralen Schäden zu erreichen, präsentieren wir einen verbesserten Signal-Subspace-Algorithmus zur Sprachverbesserung. Im Vergleich zur traditionellen Signalraummethode kann der verbesserte Algorithmus den Mel-Frequenz-Cepstral-Koeffizienten (MFCC) verringern, eine Bewertungsmaßnahme, die weniger frequenzspektrale Schäden an der Stimme bedeutet und gleichzeitig die Intelligenz der Stimmen erhält. Außerdem kann das Verfahren den Abstand der leicht zu verwechselnden Stimmen vergrößern, was eine Verbesserung des Spracherkennungsverhältnisses bedeutet. Damit erhalten wir den Zweck der Sprachverbesserung. Der verbesserte Algorithmus wird in einem Spracherkennungsprogramm verwendet und weist eine gute Leistung auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45526-5_10 0b92040c70af2c0e15fbc9680ed19986;de;;;7.2.;;;Hybrides bioinspiriertes Nutzerclustering zur Generierung diversifizierter Empfehlungen Die Forschung und Entwicklung von Empfehlungssystemen konzentriert sich traditionell auf die Verbesserung und Gewährleistung der Empfehlungsgenauigkeit, um die Benutzerzufriedenheit zu erreichen. Andererseits haben die alternativen Empfehlungsqualitäten wie Vielfalt und Neuheit in jüngster Zeit große Aufmerksamkeit von der Forschung erfahren. In diesem Beitrag präsentieren wir eine detaillierte Studie zur Vielfalt von Empfehlungssystemen, um Forschern bei der Entwicklung von Empfehlungsansätzen zu helfen, um effiziente Empfehlungen zu generieren. Wir haben auch die bestehenden Arbeiten analysiert, um Auswirkungen und Qualität diversifizierter Empfehlungen zu bewerten. Basierend auf unserer detaillierten Untersuchung der Vielfalt der Empfehlungen verlagern wir den allgemeinen Fokus von Genauigkeitszielen hin zu Erkundungen, die über die Genauigkeit von Empfehlungen hinausgehen. Der Bedarf an Empfehlungssystemen, die vielfältige Empfehlungen ohne Kompromisse bei der Genauigkeit erzeugen, ist sehr hoch, um den wachsenden Anforderungen der Benutzer gerecht zu werden. Um das Personalisierungsproblem in Reiseempfehlungssystemen anzugehen, präsentieren wir das hybride Swarm Intelligence Clustering-Ensemble-basierte Empfehlungsframework, um vielfältige und genaue Point of Interest-Empfehlungen zu generieren. Unser vorgeschlagener Empfehlungsansatz verwendet mehrere Schwarmoptimierungsalgorithmen, um ein Clustering-Ensemble für die Erzeugung eines effizienten Benutzerclusterings zu bilden. Wir haben unseren vorgeschlagenen Empfehlungsansatz anhand eines groß angelegten Echtzeit-Datensatzes von TripAdvisor bewertet, um die Qualität der Empfehlungen in Bezug auf Vielfalt und Genauigkeit einzuschätzen. Die experimentellen Ergebnisse zeigen die gesteigerte Effizienz des vorgeschlagenen Empfehlungsansatzes gegenüber dem Stand der Technik.;-;-;-;https://link.springer.com/article/10.1007/s00521-019-04128-6 a1947597871e3f34827871b1eec1d9bb;de;;;7.1.;;;Endlich steht ein echtes Business Intelligence System zur Verfügung In diesem Kapitel bieten wir unsere wichtigsten Erkenntnisse zu operativen und analytischen Systemen aus einer geschäftsorientierten Perspektive und diskutieren, wie diese zu einem schnellen kombinierten System vereinheitlicht werden sollten. Wir zeigen auf, wie Benchmarking geändert werden sollte, um das einheitliche System für die operative und analytische Verarbeitung zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19363-7_8 3dff07f3f7051aab687b102a4350c6a8;de;;;7.2.;;;Die Bedeutung visueller Kontexthinweise in der Multimedia-Übersetzung Da Video-Sharing-Websites wie YouTube immer zahlreicher werden, ist die Möglichkeit, Videoclips schnell in mehrere Sprachen zu übersetzen, zu einer wesentlichen Komponente für die Verbesserung ihrer globalen Reichweite und Wirkung geworden. Darüber hinaus ist die Möglichkeit, Untertitel in einer Vielzahl von Sprachen bereitzustellen, von größter Bedeutung, um eine größere Vielfalt von Zuschauern zu erreichen. Wir untersuchen die Bedeutung visueller Kontexthinweise, indem wir Transkripte von Multimediaclips (die es Transkriptionisten ermöglichen, visuelle Kontexthinweise in ihren Übersetzungen zu verwenden) mit ihren entsprechenden schriftlichen Transkripten (die dies nicht tun) vergleichen. Darüber hinaus vergleichen wir Übersetzungen, die mit Crowdsourcing-Mitarbeitern erstellt wurden, mit denen von professionellen Übersetzern hinsichtlich Kosten und Qualität. Schließlich evaluieren wir mehrere Multimedia-Genres, um die Auswirkungen visueller Kontexthinweise auf jedes zu untersuchen und die Ergebnisse durch Heatmaps zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23708-9_13 efaac4e325340a13a8b11045b94252b2;de;;;7.2.;;;Eine effektive neue Technologie für die verteilte Verarbeitung von Messdaten durch das automatisierte Steuerungssystem S/C Die Technologie der mehrstufig verteilten automatisierten Verarbeitung von Messdaten durch ein S/C-Steuerungssystem basierend auf einer problemorientierten Variante des Systemansatzes und entsprechender logischer Struktur des Sets von Modellen und Algorithmen, die die Suche nach rationalen Lösungen für verteilte Verarbeitungsaufgabe, berücksichtigt werden. Die Ergebnisse der Simulation in voller Größe werden präsentiert.;-;-;-;https://link.springer.com/article/10.1134/S0038094615070151 b009ae26d097b284b9feae47e897896a;de;;;7.2.;;;Kombinieren von textuellen und visuellen Funktionen für den Bildabruf Dieses Papier stellt die Ansätze vor, die das MIRACLE-Team bei der ImageCLEF 2005 zur Bildsuche verwendet hat. Textbasierte und inhaltsbasierte Techniken wurden getestet, zusammen mit einer Kombination beider Methoden zur Verbesserung der Bildsuche. Die in diesem Jahr definierten textbasierten Experimente versuchen, semantische Informationsquellen wie Thesaurus mit semantischen Daten oder Textstrukturen zu nutzen. Andererseits gehören inhaltsbasierte Techniken nicht zur Hauptkompetenz des MIRACLE-Teams, sondern es wurde eine multidisziplinäre Beteiligung an allen Aspekten der Informationsbeschaffung angestrebt. Bei Bedarf greifen wir auf ein öffentlich zugängliches Bildabrufsystem (GIFT 4) zurück.;-;-;-;https://link.springer.com/chapter/10.1007/11878773_75 2bd7375099e59cd23b27b7516499d6ed;de;;;7.2.;;;Cyber-Physical Systems Security basierend auf einer vernetzten und korrelierten Schwachstellendatenbank Die jüngsten Fortschritte in der Datenanalyse führen zu dynamischen datengesteuerten Schwachstellenbewertungen, bei denen Daten aus Repositorys für Schwachstellenwarnungen sowie aus Netzwerken der Cyber-Physical-System (CPS)-Schicht und standardisierten Aufzählungen verwendet werden. Derzeitige Prozesse zur Schwachstellenbewertung werden jedoch meist manuell durchgeführt. Die riesige Menge gescannter Daten erfordert jedoch eine umfangreiche Informationsverarbeitung und analytische Argumentation, die angesichts der Ungenauigkeit der manuellen Schwachstellenanalyse nicht erfüllt werden konnte. In diesem Papier schlagen wir vor, eine vernetzte und korrelierte Datenbank zum Sammeln, Extrahieren, Filtern und Visualisieren von Schwachstellendaten über mehrere vorhandene Repositorys hinweg zu verwenden, wodurch CPS-Schwachstelleninformationen abgeleitet werden. Basierend auf unserer lokal aktualisierten Datenbank bieten wir eine eingehende Fallstudie zu gesammelten CPS-Schwachstellendaten, um die Trends der CPS-Schwachstellen zu untersuchen. Auf diese Weise wollen wir einen höheren Automatisierungsgrad bei der Sensibilisierung für Schwachstellen und bei der Risikoanalyse beim Schutz kritischer Infrastrukturen (CIs) unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37670-3_6 7764de990ff9895677a35ce272ddc807;de;;;7.2.;;;Ontologische Schichtung in einer Ökologie von Infohabitants Dieses Papier berichtet über Fortschritte aus dem EEII-Forschungsprojekt, bei dem die ontologische Schichtung bei der Untersuchung von Offenheit angewendet wird. Wir erläutern einen Stratifizierungsansatz, um die Gesamtkomplexität konzeptioneller Modelle zu reduzieren und ihre Modularität zu verbessern. Man unterscheidet zwischen ontologischer und epistemologischer Schichtung. Die Anwendung des Stratifizierungsansatzes auf das Design von Agentensystemen wird erläutert und illustriert. Eine vorläufige Charakterisierung der relevanten Schichten wird gegeben. Die breitere Relevanz dieses Ergebnisses für das Design von Informationsinfrastrukturen wird angesprochen: Die ontologische Schichtung wird der Schlüssel zum Modellmanagement und zur semantischen Interoperabilität in einer allgegenwärtigen und modellgetriebenen Informationsinfrastruktur sein.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-23852-2_12 72866141aa7cd55c2580416e71653785;de;;;7.2.;;;Ein Prototyp eines Crowdsourcing-Ansatzes für den Dokumentenzusammenfassungsdienst Dieses Papier schlägt einen Crowdsourcing-Ansatz für informative Dokumentenzusammenfassungsdienste vor. Es erfasst zunächst die Aufgabe, ein langes Dokument als ein bi-objektives kombinatorisches Optimierungsproblem zusammenzufassen. Eine zu minimierende Zielfunktion ist die Zeit zum Verstehen der Zusammenfassung, die andere zu maximieren ist die Menge des darin verbleibenden Informationsgehalts. Der Lösungsraum des Problems besteht aus verschiedenen Kombinationen von in Frage kommenden kondensierten Elementen, die das gesamte Dokument als Menge abdecken. Da es für einen Computeralgorithmus nicht einfach ist, komprimierte Elemente unterschiedlicher Länge zu erstellen, die natürlich und für den Menschen leicht verständlich sind, sowie die beiden objektiven Funktionen für eine mögliche Zusammenfassung auszuwerten, werden diese Teilaufgaben an menschliche Mitwirkende gebündelt . Der Rest des Ansatzes wird von einem Computeralgorithmus gehandhabt. Die Funktionsweise des Ansatzes wird in einem Laborversuch mit einem als Webanwendung implementierten Pilotsystem getestet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41263-9_54 02c30433aa29a4ea52436d3b125ec426;de;;;7.2.;;;Ein lexikalischer Ansatz für die Beantwortung spanischer Fragen In diesem Papier werden die Ergebnisse unseres Systems bei der spanischen Frageantworten-Aufgabe des CLEF 2007 erörtert. Unser System basiert auf einem vollständig datengesteuerten Ansatz, der Informationsabruf und maschinelle Lerntechniken kombiniert. Es beruht hauptsächlich auf der Verwendung lexikalischer Informationen und vermeidet komplexe Sprachverarbeitungsverfahren. Evaluationsergebnisse zeigen, dass dieser Ansatz sehr effektiv ist, um Definitionsfragen aus Wikipedia zu beantworten. Im Gegensatz dazu zeigen sie auch, dass es sehr schwierig ist, faktische Fragen aus dieser Ressource allein aufgrund der Verwendung lexikalischer Überschneidungen und Redundanz zu beantworten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85760-0_40 f9fed8a0fd7c70f022fcf2f849a8364d;de;;;7.2.;;;Ein klonaler Algorithmus für das Immungedächtnis zur numerischen und kombinatorischen Optimierung Inspiriert durch die klonale Selektionstheorie zusammen mit dem Immunnetzwerkmodell präsentieren wir einen neuen künstlichen Immunalgorithmus namens Immungedächtnisklonaler Algorithmus (IMCA). Zunächst wird der vom Immunsystem inspirierte klonale Operator diskutiert. Die IMCA umfasst zwei Versionen, die auf unterschiedlichen Mechanismen des Immungedächtnisses basieren, nämlich den klonalen Algorithmus des adaptiven Immungedächtnisses (AIMCA) und die klonale Strategie des Immungedächtnisses (IMCS). In der AIMCA werden die Mutationsrate und die Speichereinheitsgröße jedes Antikörpers dynamisch angepasst. Das IMCS realisiert gleichzeitig die Evolution sowohl der Antikörperpopulation als auch der Gedächtniseinheit. Durch die Verwendung des klonalen Auswahloperators wird die globale Suche effektiv mit der lokalen Suche kombiniert. Entsprechend der Antikörper-Antikörper (Ab-Ab)-Affinität und der Antikörper-Antigen (Ab-Ag)-Affinität kann die IMCA die Größe der Gedächtniseinheiten und der Antikörperpopulation adaptiv zuordnen. In den Experimenten werden 18 multimodale Funktionen mit einer Dimensionalität von zwei bis tausend und kombinatorische Optimierungsprobleme wie das Travelling-Salesman- und Rucksack-Problem (KPs) verwendet, um die Leistung des IMCA zu validieren. Die Rechenkosten pro Iteration werden dargestellt. Experimentelle Ergebnisse zeigen, dass die IMCA eine hohe Konvergenzgeschwindigkeit und eine starke Fähigkeit besitzt, die Diversität der Bevölkerung zu erhöhen und vorzeitige Konvergenz bis zu einem gewissen Grad zu vermeiden. Theoretisch wird vorausgesetzt, dass der IMCA mit Wahrscheinlichkeit 1 konvergent ist.;-;-;-;https://link.springer.com/article/10.1007/s11704-010-0573-6 e08126867cac68a7747fec554d139857;de;;;7.1.;;;DiCoT: Eine Methode zur Anwendung verteilter Kognition auf das Design von Teamarbeitssystemen Verteilte Kognition wird immer beliebter, um über Gruppenarbeit und die Gestaltung von Artefakten in Arbeitssystemen nachzudenken. DiCoT (Distributed Cognition for Teamwork) ist eine Methodik und ein Repräsentationssystem, das wir entwickeln, um die verteilte Kognitionsanalyse bei der Arbeit kleiner Teams zu unterstützen. Es stützt sich auf Ideen aus dem Kontextuellen Design, orientiert sie jedoch neu an den Prinzipien, die für die verteilte Kognition zentral sind. Wenn es verwendet wird, um über mögliche Änderungen am Design eines Systems nachzudenken, stützt es sich auch auf die Schadensanalyse, um über die wahrscheinlichen Auswirkungen von Änderungen aus der Perspektive der verteilten Kognition nachzudenken. Der Ansatz wurde in einer großen, stark frequentierten Rettungsleitstelle entwickelt und getestet. Es unterstützt die Argumentation sowohl über das bestehende Systemdesign als auch über mögliche zukünftige Designs.;-;-;-;https://link.springer.com/chapter/10.1007/11752707_3 befc87c38360867b80558f88dd4c0fd0;de;;;7.2.;;;Multimodale Sprachwahrnehmung: Ein Paradigma für die Sprachwissenschaft Die Sprachwissenschaft hat sich als das Studium eines unimodalen Phänomens entwickelt. Sprache wurde als ein ausschließlich auditives Ereignis betrachtet, wie die wegweisende Sprachkettenillustration von Denes & Pinson (1963) in Abbildung 1 zeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-2367-1_4 5466dc5eee80eecf683467e20877d5c2;de;;;7.2.;;;Ein chinesischer Ansatz zur Erkennung neuer Wörter basierend auf Unabhängigkeitstests Die Erkennung neuer Wörter ist von großer Bedeutung für die chinesische Textinformationsverarbeitung, die sich direkt auf die Fähigkeiten der Wortsegmentierung, der Informationsgewinnung und der automatischen Übersetzung auswirkt. Dieses Papier konzentriert sich auf das Problem der Erkennung neuer chinesischer Wörter und schlägt einen auf Unabhängigkeitstests basierenden Erkennungsansatz ohne vorherige Informationen vor. Der Artikel analysiert statistische Merkmale neuer Wörter in chinesischen Texten, verwendet statistische Hypothesentests, um die Korrelationen zwischen benachbarten semantischen Einheiten abzuleiten, und schlägt einen iterativen Algorithmus vor, um neue Wörter schrittweise zu erkennen. Unser Algorithmus wird sowohl an großen Korpussen als auch an kurzen Nachrichtentexten evaluiert. Experimentelle Ergebnisse zeigen, dass dieser Ansatz effektiv neue Wörter aus allen Arten von Nachrichten erkennen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99957-9_17 eb590e366f7eb61dc51c7f91a0714c86;de;;;7.2.;;;Erfolgsfaktoren elektronischer Märkte: Einfluss von Kontext und Prozess auf Ergebnisse In den letzten Jahren haben sich viele elektronische Märkte geöffnet, aber die Akzeptanz elektronischer Marktplätze war weltweit geringer als erwartet. Eine beträchtliche Anzahl elektronischer Märkte hat bereits aufgehört zu existieren und mehrere sind während der jüngsten Dot-Corn-Krise zusammengebrochen. Vielleicht hat ein besseres Verständnis der Risikofaktoren, der Komplexität und der Marktanforderungen dieser elektronischen Märkte vor der Implementierung den Entwicklern ermöglicht, effektivere Informationssystemlösungen zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35614-3_12 aa1864353cec5d7967420cc44d3527a5;de;;;7.2.;;;Eine e-Education-Plattform für schwer visualisierbare Lehr-Lern-Prozesse Wir präsentieren eine Lehr-Lern-Plattform für E-Education, die entwickelt wurde, um die bidirektionale Kommunikation zwischen Lehrenden und Lernenden beim Lehren-Lernen des Verhaltens nicht sichtbarer Prozesse zu ermöglichen. Diese Plattform erleichtert auch die pädagogische Evaluation des konzeptionellen und praktischen Verständnisses der Lernenden. Wir diskutieren die kognitive Belastungstheorie im Kontext von E-Education und ihren Einfluss auf die Gestaltung und Entwicklung einer solchen Bildungsplattform. Wir beschreiben die Nutzung dieser Lehr-Lern-Plattform in einem Bildungsmodell ohne Anwesenheit des Dozenten und als ergänzendes Material zu den Kursen. Wir diskutieren auch die Erfahrungen mit dieser Plattform beim Einsatz in Netzwerk- und Betriebssystemkursen. Wir beschreiben diejenigen Eigenschaften dieser Plattform, die die Kommunikation zwischen Lernenden und Lehrenden vereinfachen und erleichtern. Außerdem beschreiben wir die aktuelle Implementierung unserer e-Educational-Plattform und diskutieren die Evaluation unserer Plattform durch Studierende der Networking- und Betriebssystem-Studiengänge im Fernstudium.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35617-4_22 987727dbc9760873f8cd942c897b4d67;de;;;7.2.;;;Entwerfen eines föderierten Multimedia-Informationssystems im Semantic Web Ein föderiertes webbasiertes Multimedia-Informationssystem sammelt einerseits seine Daten aus verschiedenen Webquellen, andererseits bietet es dem Endbenutzer eine reichhaltige Semantik, die seinen Inhalt beschreibt, und eine benutzerfreundliche Umgebung zum Ausdrücken von Abfragen über seine Daten. Es gibt drei wesentliche Bestandteile, um ein solches System erfolgreich einzusetzen. Zunächst braucht man eine Entwurfsmethodik, die verschiedene Entwurfsphasen und ihre zugrunde liegenden Modelle identifiziert, die als Rahmen für den Designer dienen. Zweitens muss es eine Reihe von Werkzeugen geben, die das Design ausführen können, d. h. sie dienen als Back-End des Informationssystems, das die Modelle mit Daten aus verschiedenen Webquellen instanziiert. Drittens muss es auch einen Einstiegspunkt für den Endbenutzer geben, an dem er erkunden kann, was das System für ihn tun kann und wo er seine Anfragen formulieren kann. Dieses Papier ist eine Fortsetzung unserer früheren Arbeit, in der die Hera-Entwurfsmethodik beschrieben wurde, und trägt zu allen drei oben genannten Problemen bei. Insbesondere verfeinert es die bestehende Methodik, indem es ein explizites RDFS-basiertes Integrationsmodell präsentiert und erklärt, wie der Mediator dieses Modell verwendet, um Abfrageergebnisse zu erhalten. Das Problem eines benutzerfreundlichen Frontends wird durch die Einführung unserer Schnittstelle zum Durchsuchen und Abfragen von RDFS-basierten Ontologien adressiert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45017-3_25 8452997751565dca69a245ebb3999195;de;;;7.2.;;;Ein unüberwachtes Aspekterkennungsmodell für die Sentimentanalyse von Bewertungen Mit dem rasanten Wachstum von nutzergenerierten Inhalten im Internet ist die Sentimentanalyse von Online-Bewertungen in letzter Zeit zu einem heißen Forschungsthema geworden, aber aufgrund der Vielfalt und des breiten Angebots an Produkten und Dienstleistungen sind die überwachten und domänenspezifischen Modelle oft nicht praktikabel. Da die Anzahl der Bewertungen steigt, ist es unerlässlich, ein effizientes Sentiment-Analysemodell zu entwickeln, das in der Lage ist, Produktaspekte zu extrahieren und die Sentiments für Aspekte zu bestimmen. In diesem Beitrag schlagen wir ein unbeaufsichtigtes Modell zur Erkennung von Aspekten in Reviews vor. In diesem Modell wird zunächst eine verallgemeinerte Methode zum Erlernen von Mehrwortaspekten vorgeschlagen. Zweitens wird ein Satz heuristischer Regeln verwendet, um den Einfluss eines Meinungswortes auf die Erkennung des Aspekts zu berücksichtigen. Drittens wird eine neue Metrik basierend auf gegenseitiger Information und Aspektfrequenz vorgeschlagen, um Aspekte mit einem neuen iterativen Bootstrapping-Algorithmus zu bewerten. Der vorgestellte Bootstrapping-Algorithmus arbeitet mit einem unüberwachten Seed-Set. Schließlich werden zwei Beschneidungsmethoden vorgestellt, die auf den Beziehungen zwischen Aspekten in Reviews basieren, um fehlerhafte Aspekte zu entfernen. Das vorgeschlagene Modell erfordert keine gekennzeichneten Trainingsdaten und kann auf andere Sprachen oder Domänen angewendet werden. Wir demonstrieren die Wirksamkeit unseres Modells anhand einer Sammlung von Produktbewertungsdatensätzen, wo es andere Techniken übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38824-8_12 cf7a9a2dd363fa9c08266941b4d4eeda;de;;;7.2.;;;Themenmodellierung für die Wortsinninduktion In diesem Beitrag stellen wir einen neuartigen Ansatz zur Wortsinninduktion vor, der auf Themenmodellierung basiert. Der Schlüssel zu unserer Methodik ist die Verwendung von Wort-Topic-Verteilungen als Mittel zur Schätzung von Sinnverteilungen. Wir liefern diese Verteilungen als Eingabe für einen Clustering-Algorithmus, um automatisch zwischen den Bedeutungen semantisch mehrdeutiger Wörter zu unterscheiden. Die Ergebnisse unserer Evaluierungsexperimente zeigen, dass die Leistungsfähigkeit unseres Ansatzes mit den modernsten Methoden vergleichbar ist, deren Sinnesunterscheidungen nicht so leicht interpretierbar sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40722-2_10 adb5a8af512b706a3a7ef90f86306baf;de;;;7.2.;;;Schätzung der logistischen Regressionsparameter basierend auf paralleler Matrixberechnung Als verteiltes Computing-Framework überwindet MapReduce teilweise die Einschränkungen des zentralisierten Systems in Bezug auf Berechnung und Speicherung. Bei der Matrixberechnung besteht jedoch ein Paradox zwischen verteilter Datenspeicherung und intensiv gekoppeltem Rechnen. Um dieses Problem zu lösen, wurden neue Ansätze zur Matrixtransposition und -multiplikation mit MapReduce vorgestellt. Durch die Anwendung eines neuen Modells basierend auf parallelen Matrix-Computing-Methoden wurde der Engpass der Berechnung für den logistischen Regressionsalgorithmus erfolgreich überwunden. Experimentelle Ergebnisse bewiesen, dass das neue Rechenmodell eine nahezu lineare Beschleunigung erreichen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24999-0_38 b53326ca55810c1cd87cf5521bc9bb0b;de;;;7.2.;;;Ausdrucksstarke Abfragesprachen für Constraint-Datenbanken mit komplexen Werten Motiviert durch komplexe Constraint-Werte, die es uns ermöglichen, verschachtelte endlich darstellbare Mengen darzustellen, untersuchen wir die Ausdruckskraft verschiedener Abfragesprachen gegenüber Constraint-Komplex-Wert-Datenbanken. Die von uns verwendeten Werkzeuge liegen in Form von Kollapsergebnissen vor, die im Kontext der Logik erster Ordnung gut etabliert sind. Wir zeigen, dass der aktiv-generische Kollaps für Strukturen mit o-Minimalität und jeder relationalen Signatur im komplexen Wertmodell auf die Logik zweiter Ordnung übertragen wird. Wir betrachten das Sicherheitsproblem auch im Kontext von eingebetteten endlichen komplexen Wertmodellen und einschränkenden komplexen Wertdatenbanken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20152-3_15 29447a25f0712f61cc256497cbe4bc04;de;;;7.2.;;;Der Bildschirm und die Welt: Eine phänomenologische Untersuchung zu Bildschirmen und unserem Engagement in der Welt In diesem Beitrag versuchen wir zu zeigen, wie die Phänomenologie eine interessante und neuartige Grundlage für das Nachdenken über Bildschirme in einer Welt bieten kann, in der Bildschirme heute alle Aspekte unseres täglichen Lebens durchdringen. Zunächst werden die wichtigsten phänomenologischen Konzepte diskutiert. Darauf folgt die Anwendung auf das Phänomen eines Bildschirms. In unserer Phänomenologie des Bildschirms versuchen wir, einen Bildschirm als Bildschirm in seiner eigentlichen Bildschirmhaftigkeit wesentlich darzustellen. Wir folgen Heideggers Argument, dass sich der Bildschirm nur in seiner Funktion als Bildschirm in der Welt als Bildschirm zeigen wird, wo Bildschirme sind, was sie sind. Wir behaupten und beabsichtigen zu zeigen, dass unsere Analyse viele Erkenntnisse über die Screenness von Screens liefert, die wir durch keine andere Untersuchungsmethode gewinnen können. Wir zeigen auch, dass, obwohl unsere Methode nicht empirisch ist, ihre Ergebnisse viele wichtige Auswirkungen auf die empirische Welt haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35505-4_18 7448c1f4849bcd8974c0ffede537d6eb;de;;;7.2.;;;Esstisch der Zukunft: Speiseempfehlung basierend auf der Anerkennung von Essaktivitäten Der Esstisch ist eine der Umgebungen, die noch von der Informationstechnologie erforscht werden müssen und die für ein glückliches und gesundes Leben aller wichtig sein könnten. Wir haben das Future Dining Table-System studiert, die Essumgebung der Zukunft. Das System verfügt über die Echtzeiterkennung der Essaktivität, die durch die Geschichte der Handbewegungen zu den Speisen auf dem Tisch dargestellt wird. Die Historie der Essensaktionen wird verwendet, um den aktuellen Status des Essens zu kennen. Aktuell empfiehlt das System je nach Speisestatus zusätzliche Gerichte. Es wird erwartet, dass es im Zeitalter des Arbeitskräftemangels als Ersatz für einen Essensserver nützlich sein wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15231-3_5 96f5fbf2e8f1f78f00b86ee8f81a8571;de;;;7.1.;;;Das elektronische Regierungssystem der Ukraine und eine Methode zur Erhöhung seiner Sicherheit Die Hauptkonzepte der Dienstqualität, die die Betriebssicherheit des elektronischen Regierungssystems der Ukraine beeinflussen, werden untersucht. Analysiert werden die Parameter und Sicherheitsanforderungen, die den zuverlässigen Betrieb des Systems gewährleisten. Es wird ein Verfahren zur Erhöhung der Betriebssicherheit einer Telekommunikationsinfrastruktur vorgeschlagen.;-;-;-;https://link.springer.com/article/10.1007/s10559-015-9739-4 74f696610d34b4a857b4d29dfed02600;de;;;7.2.;;;Programmumwandlung zur Überprüfung der Störungsfreiheit bei Programmen mit Zeigern Neue Ansätze für die dynamische Informationsflussüberwachung sind vielversprechend, da sie eine permissive (die Annahme einer großen Teilmenge von Ausführungen akzeptieren) und dennoch eine solide (alle unsicheren Ausführungen ablehnende) Durchsetzung der Nichteinmischung ermöglichen. In diesem Papier stellen wir einen dynamischen Informationsflussmonitor für eine Sprache vor, die Zeiger unterstützt. Unser strömungsempfindlicher Monitor stützt sich auf eine vorherige statische Analyse, um die Störungsfreiheit solide durchzusetzen. Wir schlagen auch eine Programmtransformation vor, die das Verhalten der ursprünglichen Programme beibehält und unseren Sicherheitsmonitor fest integriert. Diese Programmtransformation ermöglicht sowohl eine dynamische als auch eine statische Überprüfung der Nichtinterferenz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39218-4_18 de6c9527aa8ac8688603531928556989;de;;;7.1.;;;Die Rolle des Data Warehouse als Quelle der Wissensgewinnung bei der Entscheidungsfindung. Eine empirische Studie Der Hauptzweck dieser Forschung besteht darin, die Rolle und Bedeutung von Data Warehouses (DW) bei der Verbesserung der Effektivität der Entscheidungsfindung empirisch zu untersuchen. Es wird angenommen und angenommen, dass von der DW aussagekräftige und signifikante Informationen gewonnen werden können, die wertvolles Wissen zur Unterstützung von Geschäftsprozessen und Entscheidungen liefern. Als geeignete Methode zur Datenerhebung wurde eine Fragebogenerhebung per Post angesehen. Der Fragebogen wurde basierend auf den Erkenntnissen aus der einschlägigen Literatur und anderen verwandten Forschungsfragebögen entwickelt. Ausgewählt wurden alle Firmen (277), die zum Zeitpunkt der Datenerhebung an der Amman Stock Exchange (ASE) notiert waren. Die Forscher kamen zu zahlreichen signifikanten und bemerkenswerten Ergebnissen zur DW und ihrer Rolle bei der Verbesserung des Entscheidungsprozesses. Die Ergebnisse der Umfrage zeigten, dass der Anteil der DW-Implementierung in den beteiligten jordanischen Firmen 35 % beträgt. Generell standen die Befragten der Umsetzung der DW positiv gegenüber.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-28868-0_2 32ddf49bdedacfbaec4990e55fda3af6;de;;;7.1.;;;Kollaborationsinfrastruktur für die lernende Organisation Human Interaction Management (HIM) ist eine ganzheitliche Theorie der menschlichen Zusammenarbeit, die Managementprinzipien und -muster für auf Wissensarbeit ausgerichtete Geschäftsprozesse bereitstellt. Das Human Interaction Management System (HIMS) ist die zugehörige Softwaretechnologie zur Prozessgestaltung, -durchführung und -steuerung. Zielorientiertes Organisationsdesign (GOOD) ist die zugehörige Change-Management-Methodik. In diesem Beitrag schlagen wir vor, dass HIM, HIMS und GOOD die Grundlage für eine Zusammenarbeitsinfrastruktur bilden, die der Lernenden Organisation förderlich ist und ein gutes sozio-technisches Design beispielhaft darstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30359-3_11 c5f27f23c3984f6fed70107b68efe106;de;;;7.1.;;;Information Engineering zum Entwickeln und Testen kohärenter, integrierter und kontextabhängiger Benutzeroberflächen Die Menge und Komplexität des Verkehrs auf den niederländischen Binnenwasserstraßen hat zugenommen. Das Verkehrsmanagement wurde von der lokalen Verkehrssteuerung auf das Korridorverkehrsmanagement verlagert. Aufgrund dieser Veränderungen haben Betreiber in nautischen Verkehrsmanagementzentren Schwierigkeiten, ein ausreichendes Situationsbewusstsein zu erlangen und aufrechtzuerhalten. In unserer bisherigen Forschung wurden drei Gruppen von Mängeln der aktuellen Situationsbewusstseinsunterstützung identifiziert. Um diese Mängel zu überwinden, wurde ein theoretischer Rahmen für Benutzerschnittstellenkonzepte der Informationstechnik entwickelt und für den Entwurf von drei Schnittstellenkonzepten verwendet. Eine stimmige, integrierte und kontextabhängig anpassbare Benutzeroberfläche wurde entworfen und als testbare Prototypen implementiert. Um den Prozess des Information Engineering zu unterstützen, haben wir benutzerzentrierte Designtechniken mit dem Formalismus der Mengenlehre, gerichteten Graphen und semantischen Netzwerken kombiniert. Diese haben sich aus methodischer Sicht sowohl bei der Konzeptualisierung als auch bei der Umsetzung der Konzepte als nützlich erwiesen. Die Verwendbarkeit dieser Konzepte wurde in einer Simulatorumgebung getestet. Die Ergebnisse zeigen, dass die implementierten Prototypen eine wichtige Verbesserung gegenüber den herkömmlichen Schnittstellenlösungen darstellen, die derzeit von den Betreibern des nautischen Verkehrsmanagements verwendet werden. Es wurde jedoch erkannt, dass die kohärente Implementierung der Benutzerschnittstelle noch an einer Reihe von Mängeln litt. Am positivsten wurde die kontextabhängig anpassbare Benutzeroberfläche bewertet.;-;-;-;https://link.springer.com/article/10.1007/s10111-017-0412-8 6f6c4f2816bdbd353b634c137f4925db;de;;;7.1.;;;Kundenorientierte und umweltfreundliche Netzwerke für Gesundheitsmoden – der CoReNet-Ansatz Das Design, die Produktion und der Vertrieb von Kleinserien von gesundheitsmodischen Produkten für bestimmte Zielgruppen mit großer Marktwirkung für die europäische Industrie wie ältere Menschen, Behinderte, Diabetiker und Adipositas stellt eine Herausforderung für europäische Unternehmen dar, die die Nachfrage mit erschwinglichen Preisen und umweltfreundlichen Produkten. Zusätzlich zu dieser Herausforderung suchen Textil-, Bekleidungs- und Schuhhersteller nach innovativen kollaborativen Netzwerklösungen, die einen kompletten digitalen Lebenszyklus für die vom Markt geforderten Produkte und Dienstleistungen bieten könnten. Ausgerichtet auf diesen Bedarf zielt das EU-Projekt CoReNet darauf ab, ein neues intelligentes kollaboratives verbraucherorientiertes Framework mit den dazugehörigen Diensten und Komponenten zu entwerfen und zu entwickeln. Dieses Papier befasst sich mit der multidisziplinären Komplexität kundenorientierter und umweltfreundlicher Netzwerke für gesundheitsmodische Produkte, insbesondere mit Blick auf die Analyse von Geschäftsanforderungen, Fragen der Wertschöpfungskette, Produktionskoplanung und Co-Design-Themen in kollaborativen Geschäftsprozessen, die auf eine hohe Variabilität der Verbraucher zugeschnitten sind Nachfrage und Erwartungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23330-2_8 0749a6de5db28b4729c5f65370ec4912;de;;;7.1.;;;ERP-Implementierungskosten: Eine vorläufige Untersuchung Die zentrale Frage der hier berichteten Forschung lautet, „welche Faktoren die Implementierungskosten von Enterprise Resource Planning (ERP) beeinflussen“. Auf diese Frage lassen sich in der Literatur noch keine ausreichenden Antworten finden. Eine „theoretische“ Antwort auf diese Frage wurde entworfen, indem die spärlich verfügbare Literatur zu ERP-Implementierungskosten studiert und relevante Elemente aus den verwandten Bereichen Softwarekostenschätzung, COTS-Implementierungskostenschätzung und kritische Erfolgsfaktoren der ERP-Implementierung hinzugefügt wurden. Dieses Ergebnis wurde mit empirischen Daten zweier Großunternehmen verglichen. Das kombinierte Ergebnis kann als erster Versuch angesehen werden, eine allgemein gültige Liste von Kostentreibern für die ERP-Einführung zu definieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88710-2_8 197bdc3148112a2ab84cd8aa09afa242;de;;;7.2.;;;Taxonomisches Wissen nutzen, um semantische Ähnlichkeit zu berechnen: Eine Bewertung im biomedizinischen Bereich Die Bestimmung der semantischen Ähnlichkeit zwischen Konzeptpaaren ist eine wichtige Aufgabe bei vielen sprachbezogenen Problemen. Im biomedizinischen Bereich wurden mehrere Ansätze vorgeschlagen, um die semantische Ähnlichkeit zwischen Konzepten durch Nutzung des von einer Domänenontologie bereitgestellten Wissens zu bewerten. In diesem Beitrag werden einige dieser Ansätze untersucht, wobei die taxonomische Struktur einer biomedizinischen Ontologie (SNOMED-CT) genutzt wird. Dann wird ein neues Maß basierend auf der Berechnung der Menge überlappenden und nicht überlappenden taxonomischen Wissens zwischen Konzeptpaaren präsentiert. Die Leistung unseres Angebots wird anhand einer Reihe von Standard-Benchmarks von manuell eingestuften Begriffen mit ähnlichen verglichen. Die Korrelation zwischen den Ergebnissen der computergestützten Ansätze und dem manuellen Ranking zeigt, dass unser Vorschlag die bisherigen Arbeiten deutlich übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13022-9_28 f82526ae546ecc358c874a25123707d6;de;;;7.2.;;;Ein Entwicklungswerkzeug für Spoken-Dialogue-Systeme und deren Evaluation In letzter Zeit wurde die Technologie zur Spracherkennung und Sprachverarbeitung verbessert, und Spracherkennungssysteme und Dialogsysteme wurden für den praktischen Gebrauch entwickelt. Um jedoch praktisch zu werden, sollten nicht nur diese grundlegenden Techniken, sondern auch die Techniken der Portabilität und Erweiterbarkeit entwickelt werden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44805-5_50 2347d6bb038cbe61e3796ab4b0d9fca1;de;;;7.2.;;;Die Sonne erleuchten Dieser Artikel präsentiert einen Ansatz zum Durchsuchen von Sammlungen von Webseiten über Musikkünstler anhand von beschreibenden Begriffen und multimedialen Inhalten. Zu diesem Zweck wurde eine Benutzeroberfläche namens;-;-;-;https://link.springer.com/article/10.1007/s11042-009-0396-3 faeeba0758435f3cdb334b1df7af1821;de;;;7.2.;;;Risikobasierte Informationsintegration für die Schiffsnavigation Das Navigational Risk Detection and Assessment System (NARIDAS) ist ein Ansatz zur risikobasierten Informationsintegration auf der Schiffsbrücke. Der Zweck dieses neuartigen Systems besteht darin, die Datenüberflutung zu reduzieren und das Situationsbewusstsein des Brückenteams zu unterstützen. Dieses Papier konzentriert sich auf die Evaluierung von NARIDAS während des Entwicklungsprozesses. Die Evaluation wird mit Systemprototypen und Praktikern durchgeführt. Es werden drei Bewertungsebenen angesprochen: die Validität des Risikomodells, das Design der grafischen Benutzeroberfläche (GUI) und die Benutzerfreundlichkeit des Systems. In zwei Evaluationsstudien wurden auf allen drei Ebenen positive Ergebnisse erzielt. Diese Ergebnisse legen nahe, dass NARIDAS ein valides Modell für die Risiken der Schiffsnavigation, eine gut gestaltete Benutzeroberfläche und eine hohe Benutzerfreundlichkeit bietet, um das situative Risikobewusstsein des Brückenteams zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73331-7_73 5c26ea5dc425d8d6c8e1005025fa1812;de;;;7.2.;;;Ein Gaußsches Copula-Regressionsmodell für die Vorhersage der Kinokasseneinnahmen In diesem Artikel befassen wir uns erneut mit der Aufgabe der Vorhersage der Einnahmen an den Kinokassen unter Verwendung mehrerer Funktionen. Die Kinokasseneinnahmen werden von zahlreichen Faktoren beeinflusst. Bisherige Arbeiten mit diskriminativen Modellen gehen davon aus, dass diese Faktoren identisch und unabhängig verteilt sind. Die Korrelationen zwischen diesen Faktoren werden selten berücksichtigt, was die Leistung diskriminativer Modelle bei dieser Aufgabe einschränkte. Um diese Probleme anzugehen, untersuchen wir ein neues Gaußsches Copula-Regressionsmodell. Basierend auf diesem Modell müssen wir keine vorherigen Annahmen über die Randverteilungen der Merkmale treffen. Insbesondere führen wir für jedes der geglätteten Merkmale eine kumulative Wahrscheinlichkeitsschätzung durch. Die Schätzung lernt die Randverteilungen und bildet alle Merkmale in einen einheitlichen Vektorraum ab. Sequentiell überbrücken wir die Randverteilungen mit einer Copula-Funktion, um ihre gemeinsame Verteilung zu erzeugen, und lernen die Abhängigkeitsstruktur zwischen ihnen kennen. Darüber hinaus schlagen wir einen recheneffizienten Näherungsalgorithmus für verantwortliche Variableninferenz vor. Experimentelle Ergebnisse zu zwei Filmdatensätzen aus dem chinesischen und dem US-amerikanischen Markt zeigen, dass unser Ansatz starke diskriminative Regressions-Baselines übertrifft.;-;-;-;https://link.springer.com/article/10.1007/s11432-015-0905-6 2554c942407e8e5efa8ddd292f153b7d;de;;;7.2.;;;Clustering von Dokumenten mit mehreren Ansichten über die Ensemble-Methode Multi-View-Clustering ist zu einer wichtigen Erweiterung des Ensemble-Clusterings geworden. Beim Multi-View-Clustering wenden wir Clustering-Algorithmen auf verschiedene Ansichten der Daten an, um unterschiedliche Cluster-Labels für denselben Objektsatz zu erhalten. Diese Ergebnisse werden dann so kombiniert, dass die abschließende Clusterbildung ein besseres Ergebnis liefert als die individuelle Clusterbildung der einzelnen Mehrfachansichtsdaten. Multi-View-Clustering kann in verschiedenen Phasen des Clustering-Paradigmas angewendet werden. Dieses Papier schlägt einen neuartigen Multi-View-Clustering-Algorithmus vor, der verschiedene Ensemble-Techniken kombiniert. Unser Ansatz basiert auf der Berechnung verschiedener Ähnlichkeitsmatrizen auf den einzelnen Datensätzen und aggregiert diese zu einer kombinierten Ähnlichkeitsmatrix, die dann verwendet wird, um das endgültige Clustering zu erhalten. Wir haben unseren Ansatz an mehreren Datensätzen getestet und einen Vergleich mit anderen State-of-the-Art-Algorithmen durchgeführt. Unsere Ergebnisse zeigen, dass der vorgeschlagene Algorithmus mehrere andere Methoden in Bezug auf die Genauigkeit übertrifft, während er die Gesamtkomplexität der einzelnen Ansätze beibehält.;-;-;-;https://link.springer.com/article/10.1007/s10844-014-0307-6 90b770810624c8c2bc5fea8d0cdf1a6d;de;;;7.2.;;;Auf dem Weg zu einer optimierten multimodalen Konzeptindexierung Information Retrieval im (Social) Web bewegt sich von einem reinen Begriffsfrequenz-basierten Ansatz hin zu einer erweiterten Methode, die konzeptionelle multimodale Merkmale auf semantischer Ebene beinhaltet. In diesem Artikel stellen wir einen Ansatz für die semantikbasierte Keyword-Suche vor und konzentrieren uns insbesondere auf seine Optimierung, um ihn auf reale Sammlungen im Social-Media-Bereich zu skalieren. Darüber hinaus präsentieren wir ein facettenreiches Indexierungs-Framework und eine Architektur, die Inhalte mit semantischen Konzepten in Beziehung setzt, die semantisch indiziert und durchsucht werden sollen. Wir untersuchen die Verwendung von Textkonzepten in einer Social-Media-Domäne und beobachten eine signifikante Verbesserung durch die Verwendung einer konzeptbasierten Lösung für die Stichwortsuche. Wir adressieren das Problem der Zeitkomplexität, das für konzeptbasierte Methoden ein kritisches Thema ist, indem wir uns auf die Optimierung konzentrieren, um größere und realistischere Anwendungen zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27932-9_13 221559c37efe263350a49b7540ef5590;de;;;7.2.;;;Themenerkennung mit MFSs Bei der Analyse einer Dokumentensammlung ist eine Schlüsselinformation die Anzahl der darin enthaltenen unterschiedlichen Themen. Dokumentenclustering wurde als Werkzeug verwendet, um die Extraktion solcher Informationen zu erleichtern. Bestehende Clustering-Methoden berücksichtigen jedoch nicht die Wortfolgen in den Dokumenten und verfügen normalerweise nicht über die Mittel, um die Inhalte innerhalb jedes Themenclusters zu beschreiben. In diesem Papier halten wir unsere Untersuchung und Ergebnisse fest, indem wir maximal häufige Wortfolgen (MFSs) als Bausteine ​​zur Identifizierung unterschiedlicher Themen verwenden. Die unterstützenden Dokumente von MFSs werden in eine Äquivalenzklasse gruppiert und dann mit einem Themencluster verknüpft, und die MFSs dienen als Dokumentclusterkennung. Wir beschreiben die ursprüngliche Methode zum Extrahieren des Satzes von MFSs und wie sie angepasst werden kann, um Themen in einem Textdatensatz zu identifizieren. Wir demonstrieren auch, wie die MFSs selbst als Themendeskriptoren für die Cluster fungieren können. Schließlich wird die Benchmarking-Studie mit anderen bestehenden Clustering-Methoden, d.h.;-;-;-;https://link.springer.com/chapter/10.1007/11779568_38 4237ea07c1db8d2f5dec49eb0f084160;de;;;7.2.;;;Ranking von Suchergebnissen für inhaltsbasierte soziale Bilder mit sozialen Tags Mit dem rasanten Wachstum von Social-Image-Hosting-Websites wie Flickr ist es einfacher, eine große Datenbank mit markierten Bildern aufzubauen. Social Tags haben sich als effektiv für den schlüsselwortbasierten Bildabruf erwiesen und werden auf diesen Websites häufig verwendet, aber ob sie für die Verbesserung des inhaltsbasierten Bildabrufs von Vorteil sind, wurde in früheren Arbeiten nicht gründlich untersucht. In diesem Beitrag untersuchen wir, ob und wie Social Tags zur Verbesserung inhaltsbasierter Bildersuchergebnisse eingesetzt werden können. Wir schlagen einen unbeaufsichtigten Ansatz für automatisches Ranking ohne Benutzerinteraktionen vor. Es verbreitet visuelle und textuelle Informationen in einem Bild-Tag-Beziehungsdiagramm mit einem gegenseitigen Verstärkungsprozess. Wir führen Experimente durch, die zeigen, dass unser Ansatz erfolgreich Social Tags für das Ranking und die Verbesserung von inhaltsbasierten Social Image Search Ergebnissen verwenden kann und besser abschneidet als andere Ansätze.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25631-8_14 219b08dfae99299444443c5636ec280b;de;;;7.2.;;;Praktische Evaluation von Lempel-Ziv-78 und Lempel-Ziv-Welch Tries Wir präsentieren die erste gründliche praktische Studie der Lempel-Ziv-78- und der Lempel-Ziv-Welch-Berechnung basierend auf Trie-Datenstrukturen. Mit einer sorgfältigen Auswahl an Trie-Darstellungen können wir gut abgestimmte beliebte Trie-Datenstrukturen wie Judy, m-Bonsai oder Cedar schlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67428-5_16 6615de9ef8afadf7a224c8ebf518ed4f;de;;;7.2.;;;Vorhersage des Benutzerengagement-Status für die Online-Evaluierung intelligenter Assistenten Die Evaluation intelligenter Assistenten in Groß- und Online-Umgebungen bleibt eine offene Herausforderung. Auf dem Nutzerverhalten basierende Online-Bewertungsmetriken haben sich bei der Überwachung umfangreicher Websuch- und Empfehlungssysteme als sehr effektiv erwiesen. Daher betrachten wir die Vorhersage des User-Engagement-Status als den allerersten und kritischsten Schritt zur Online-Evaluierung für intelligente Assistenten. In dieser Arbeit schlagen wir zunächst einen neuartigen Rahmen vor, um den Nutzerengagement-Status in vier Kategorien zu klassifizieren – Erfüllung, Fortsetzung, Neuformulierung und Aufgabe. Anschließend demonstrieren wir, wie einfache, aber indikative Metriken basierend auf dem Framework entworfen werden, um das Nutzerengagement zu quantifizieren. Unser Ziel ist es auch, die Vorhersage des Nutzerengagements mit Methoden des maschinellen Lernens zu automatisieren. Wir vergleichen verschiedene Modelle und Funktionen zur Vorhersage des Engagement-Status anhand von vier realen Datensätzen. Wir führen detaillierte Analysen zu Features und Fehlerfällen durch, um die Leistungsfähigkeit aktueller Modelle sowie potenzielle Herausforderungen zu diskutieren.(;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72113-8_29 d938b626aaa102bdca286ea95bc73bff;de;;;7.1.;;;Benchmarking-Konzept für Energieeffizienz in der Fertigungsindustrie – Ein ganzheitliches Energieeffizienzmodell Die Ermittlung und der Vergleich der Energieeffizienz über alle Planungsebenen hinweg ist eine der zentralen Herausforderungen für kleine und mittlere Unternehmen (KMU). Denn es fehlt an Transparenz und Informationen, um die größten Energieverbraucher auf Anlagenebene sowie auf Produktions- und Maschinenebene zu identifizieren. Daher besteht die Notwendigkeit, ein ganzheitliches Energieeffizienzmodell zu entwickeln, das alle drei Planungsebenen integriert und Entscheidungsträger mit den wesentlichen Informationen unterstützt. In diesem Beitrag werden erste Ergebnisse einer laufenden Benchmark-Studie vorgestellt, die mit Unternehmen aus Österreich, Belgien und Deutschland durchgeführt wurde. Erste Ergebnisse zeigen, dass es an der Informationsintegration von der Werkstatt bis zur Planungsebene mangelt, wodurch KMU ihre strategischen Energieeffizienzziele verfehlen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33980-6_43 aa19db8fafa560dc33a0be483018bef3;de;;;7.2.;;;Analyse und Bewertung von Techniken zur Extraktion von Klassen im Ontologie-Lernprozess Dieser Artikel analysiert und bewertet im Kontext des Ontologie-Lernens einige Techniken, um Kandidatenbegriffe zu identifizieren und in Klassen einer Taxonomie zu extrahieren. Außerdem weist diese Arbeit auf einige Inkonsistenzen hin, die bei der Vorverarbeitung von Textkorpus auftreten können, und schlägt Techniken vor, um gute Begriffe als Kandidaten für Klassen einer Taxonomie zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13033-5_50 82f5603481b5fd7cf9a86a671b9daa0a;de;;;7.2.;;;Heterogenes metrisches Lernen für Cross-Modal Multimedia Retrieval Aufgrund der massiven Explosion von Multimediainhalten im Web fordern Benutzer eine neue Art der Informationsabfrage, die als modale Multimediaabfrage bezeichnet wird, bei der Benutzer Abfragen eines Medientyps senden und Ergebnisse verschiedener anderer Medientypen erhalten. Das effektive Abrufen von heterogenen Multimediainhalten bringt neue Herausforderungen mit sich. Ein wesentlicher Aspekt dieser Herausforderungen ist das Erlernen eines;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41230-1_4 608c5fc25c7b718d137a0c20ffac77a0;de;;;7.2.;;;Modellierung von Benutzerinteressen für Zero-Query-Ranking Proaktive Suchsysteme wie Google Now und Microsoft Cortana haben mit dem Wachstum des mobilen Internets an Popularität gewonnen. Im Gegensatz zu herkömmlichen reaktiven Suchsystemen, bei denen Suchmaschinen Ergebnisse als Reaktion auf von den Benutzern gestellte Anfragen zurückgeben, senden proaktive Systeme aktiv Informationskarten an die Benutzer auf mobilen Geräten basierend auf dem Kontext zu Zeit, Ort, Umgebung (z . Ein proaktives System ist ein Null-Abfrage-Informationsabrufsystem, das die Benutzermodellierung entscheidend für das Verständnis der Benutzerinformationsbedürfnisse macht. In diesem Papier untersuchen wir die Benutzermodellierung in proaktiven Suchsystemen und schlagen eine Learning-to-Rank-Methode für proaktives Ranking vor. Wir untersuchen eine Vielzahl von Möglichkeiten zur Modellierung von Benutzerinteressen, die von der direkten Modellierung der historischen Interaktion mit Inhaltstypen bis hin zur feinkörnigen Modellierung auf Entitätsebene und demografischen Informationen der Benutzer reichen. Um das Feature-Sparsity-Problem bei der Entity-Modellierung zu reduzieren, schlagen wir semantische Ähnlichkeits-Features mit Worteinbettung und einer Entity-Taxonomie in der Wissensdatenbank vor. Experimente, die mit Daten eines großen kommerziellen proaktiven Suchsystems durchgeführt wurden, zeigen, dass unsere Methode eine starke Basismethode, die im Produktionssystem eingesetzt wird, deutlich übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30671-1_13 8469b457feefaec0aa40f1f6151d1b01;de;;;7.2.;;;Analyse von zehn Reverse Engineering Tools Reverse Engineering-Tools können verwendet werden, um die Informationsbedürfnisse von Software-Maintainern zu befriedigen. Insbesondere bei der Pflege umfangreicher Legacy-Systeme ist die Unterstützung von Tools unabdingbar. Reverse-Engineering-Tools bieten verschiedene Arten von Fähigkeiten, um dem Tool-Benutzer die benötigten Informationen bereitzustellen. In diesem Papier analysieren wir die bereitgestellten Fähigkeiten im Hinblick auf vier Aspekte: bereitgestellte Datenstrukturen, Visualisierungsmechanismen, Mechanismen zur Spezifikation von Informationen und Navigationsfunktionen. Wir bieten eine kompakte Analyse von zehn repräsentativen Reverse Engineering Tools zur Unterstützung von C, C++ oder Java: Eclipse Java Development Tools, Wind River Workbench (für C und C++), Understand (für C++), Imagix 4D, Creole, Javadoc, Javasrc, Source Navigator, Doxygen und HyperSoft. Die Ergebnisse der Studie ergänzen die früheren Erkenntnisse in diesem wichtigen Bereich.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-3660-5_67 11e1562e3fc5b3ccbf743e552623059a;de;;;7.2.;;;Komplexe Methoden und Klassenzuordnung in verteilten OODBSs In einem verteilten objektorientierten Datenbanksystem (DODBS) müssen Abfragen, die an verschiedenen Standorten ausgeführte Methoden aufrufen und auf verschiedene Klassen zugreifen, sehr effizient ausgeführt werden. Daher müssen die aufgerufenen Methoden und Klassen, auf die durch die Abfragen zugegriffen wird, Sites zugewiesen werden, um die Datenübertragungskosten bei der Verarbeitung einer bestimmten Menge von Abfragen zu reduzieren. Das Methoden- und Klassenzuweisungsproblem (MCA) muss komplexe Abhängigkeiten zwischen Abfragen, Methoden und Klassen berücksichtigen. In diesem Papier entwickeln wir ein umfassendes Kostenmodell für den gesamten Datentransfer, der bei der Verarbeitung einer bestimmten Menge von Abfragen anfällt, indem wir die Abhängigkeiten zwischen den Abfragen, Methoden und Klassen einbeziehen. Darüber hinaus entwickeln wir einen iterativen Ansatz, um eine nahezu optimale Lösung für die kombinierten MCA-Probleme unter Verwendung des obigen Kostenmodells zu generieren. Bei diesem Ansatz beginnen wir mit einer anfänglichen Klassenzuordnung (CA), die für die Methodenzuordnung (MA) verwendet wird, die wiederum für CA verwendet wird, und so weiter. Wir beenden diesen iterativen MCA, wenn die Gesamtkosten für die Datenübertragung bei der Verarbeitung der angegebenen Abfragen nicht weiter gesenkt werden. Wir präsentieren auch die Ergebnisse von Experimenten, die durchgeführt wurden, um die Wirksamkeit unseres Ansatzes zu bewerten, indem wir die Ergebnisse mit einer vollständigen Aufzählungslösung vergleichen (die die optimale Lösung garantiert).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0895-5_16 07f38ae3ae4914c52439628ba00958a5;de;;;7.2.;;;Die TU Kaiserslautern auf der INEX 2005 Digitale Bibliotheken bieten bequemen Zugriff auf große Textmengen, aber es ist schwierig, die für einen bestimmten Informationsbedarf relevanten Informationen zu finden. Die Workshops der Initiative zur Evaluation des XML-Retrievals (INEX) bieten ein Forum, um die Wirksamkeit von Retrieval-Strategien zu testen. In diesem Beitrag stellen wir die beiden Strategien der TU Kaiserslautern auf der INEX 2005 vor: Die erste Methode nutzt Hintergrundwissen über das Dokumentenschema (Elementbeziehungen), um Abfragen mit strukturellen Einschränkungen zu unterstützen. Das zweite Verfahren nutzt strukturelle Muster in den Abrufergebnissen aus, um die geeigneten Ergebnisse unter überlappenden Elementen zu finden. Bei der Auswertung der offiziellen Ergebnisse des Workshops stellen wir fest, dass Elementbeziehungen die Retrievalqualität für die Testkollektion nicht verbessern, Muster jedoch zu einer verbesserten frühen Präzision führen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-34963-1_15 3dcca2a533ee21b6b0a6a82ab9a9f459;de;;;7.2.;;;Verbesserung der Durchsetzung von Integritätsbeschränkungen durch erweiterte Regeln und Abhängigkeitsdiagramme Integrity Enforcement (IE) ist in allen Bereichen der Informationsverarbeitung wichtig – DBs, webbasierte Systeme, E-Commerce. Neben der Überprüfung und Durchsetzung der Konsistenz für gegebene Datenmodifikationen müssen Ansätze für IE auch Terminierungskontrolle, Reparaturmechanismen, Effekterhaltung und Effizienz bewältigen. Bestehende Ansätze behandeln diese Probleme jedoch auf viele verschiedene Arten. Oft ist die Reparaturgenerierung zu komplex, Reparaturtermine ungenau spezifiziert und der Effekterhalt nicht ausreichend. In dieser Arbeit schlagen wir vor, Integritätsbeschränkungen um Terminierungsgrenzen zu erweitern und die Durchsetzungsaufgabe durch Abhängigkeitsgraphen (DG) darzustellen, die eine effiziente Vorverarbeitung ohne kostspielige Laufzeitbewertung von Beschränkungen ermöglichen. Darüber hinaus präsentieren wir eine Optimierungstechnik durch Serialisierung von DGs und einen historischen Ansatz zur Effekterhaltung. Unser Hauptbeitrag ist ein einheitliches Framework, das alle relevanten Kriterien für die Durchsetzung der Integrität berücksichtigt und zeigt, wie Abbruchkontrolle, Effekterhaltung und Effizienz für den Einsatz in modernen Datenbankmanagementsystemen gestaltet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44759-8_50 2cc639f92ee404be6e62d2a3a12affa0;de;;;7.2.;;;Ein platzsparender Indizierungsalgorithmus für die Verarbeitung boolescher Abfragen Invertierte Indizes sind der grundlegende Index für Information-Retrieval-Systeme. Aufgrund der Korrelation zwischen Begriffen können invertierte Listen im Index erhebliche Überschneidungen und damit Redundanz aufweisen. In diesem Beitrag schlagen wir einen neuen Ansatz vor, der;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35063-4_47 a88f419e7c645cbd380de3a2a7d80ca2;de;;;7.2.;;;Verringerung des Widerstands älterer japanischer Benutzer gegenüber Computern durch den Einsatz von Touchscreen-Technologie Die Standard-QWERTZ-Tastatur gilt aufgrund ihrer begrenzten Erfahrung mit Schreibmaschinen und der hohen kognitiven Anforderungen bei der Eingabe japanischer Zeichen als Hauptgrund für die Zurückhaltung gegenüber der Verwendung von Computertechnologie durch ältere Japaner. Der Touchscreen ermöglicht Benutzern die direktere Eingabe japanischer Zeichen und soll diesen Widerstand mäßigen. Ein E-Mail-Terminal mit Touchscreen wurde entwickelt und mit dem gleichen Terminal mit Standard-Tastatur und -Maus verglichen. Computereinstellungen und subjektive Bewertungen von 32 älteren Erwachsenen wurden gemessen. Die Ergebnisse zeigten, dass der Angstfaktor der Computereinstellungen im Touchscreen-Zustand signifikant abnahm.;-;-;-;https://link.springer.com/article/10.1007/s10209-004-0098-6 6534042386493af6dea539062306af9b;de;;;7.2.;;;Anpassen der Semantic Spreading-Aktivierung an die Entitätsverknüpfung im Text Die Extraktion und Begriffsklärung von Wissen, das von Textressourcen im Web geleitet wird, ist ein entscheidender Prozess, um das Web of Linked Data voranzubringen. Ziel unserer Arbeit ist es, Rohdaten semantisch anzureichern, indem die Erwähnungen benannter Entitäten im Text mit den entsprechenden bekannten Entitäten in Wissensdatenbanken verknüpft werden. Bei unserem Ansatz werden mehrere Aspekte berücksichtigt: das Vorwissen einer Entität in Wikipedia (dh die Schlüsselphrasen- und Gemeinsamkeitsmerkmale, die durch das Crawlen des Wikipedia-Dumps im Voraus berechnet werden können), eine Reihe von Merkmalen, die aus dem Eingabetext und aus der Wissensdatenbank extrahiert wurden, zusammen mit der Korrelation/Relevanz zwischen den Ressourcen in Linked Data. Genauer gesagt untersucht diese Arbeit die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-41754-7_7 521e8fea946e79253b19022de5cdf091;de;;;7.2.;;;Semantische Interoperabilität mehrsprachiger Sprachressourcen durch automatisches Mapping Das PMKI-Projekt ist eine Aktion der Europäischen Kommission mit dem Ziel, eine öffentliche mehrsprachige Wissensmanagement-Infrastruktur zu schaffen, um E-Commerce-Lösungen in einer mehrsprachigen Umgebung zu unterstützen. Eine solche Infrastruktur besteht aus einer Reihe von Werkzeugen, die Interoperabilität zwischen mehrsprachigen Klassifikationssystemen (wie Thesauri) und anderen Sprachressourcen herstellen können, sodass sie über eine Web-Verbreitungsplattform leicht zugänglich und von kleinen und mittleren Unternehmen (KMU) wiederverwendbar sind , sowie von öffentlichen Verwaltungen. In diesem Beitrag werden die Standards zur Darstellung von Sprachressourcen und eine Methodik für die automatische Zuordnung zwischen Thesauri, basierend auf einem Information Retrieval Framework, vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98349-3_12 b61419906ccb08b3864e76c3e9052d1c;de;;;7.2.;;;Domänenbasierte semantische Komprimierung für automatische Erweiterung und Empfehlung des Textverständnisses Diese Arbeit präsentiert eine Anwendung der semantischen Kompression, bei der Domänenfrequenzwörterbücher verwendet werden, um das Verständnis von Dokumenten zu verbessern. Dies wird erreicht, indem das Feedback des Benutzers in die vorgeschlagene Lösung einbezogen wird. Es werden Experimente und Beispiele für die tatsächliche Ausgabe gegeben. Darüber hinaus wird ein Maß definiert und vorgestellt, mit dem Veränderungen in einer Struktur vorhandener Gruppen bewertet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23938-0_5 feb34e9c7e13cdb73a2fb76efbcb7dae;de;;;7.2.;;;Dynamisches Abrufen von Elementen in einer halbstrukturierten Sammlung Dieses Papier beschreibt unsere Methodik zum dynamischen Abrufen von XML-Elementen, einen Überblick über ihre Implementierung in einer strukturierten Umgebung und die Herausforderungen, die sich durch ihre Anwendung auf die INEX-Wikipedia [4]-Sammlung ergeben, die treffender als halbstrukturiert bezeichnet werden kann. Unser System basiert auf dem Vektorraummodell [9] und seine Grundfunktionen werden mit dem Smart experimentellen Retrievalsystem [8] ausgeführt. Eine wesentliche Änderung des Systems in diesem Jahr ist die Einführung einer Methode zur dynamischen Berechnung von Abfragetermgewichtungen [6], die mit den dynamisch erzeugten und gewichteten Elementvektoren korreliert werden. Der dynamische Elementabruf erfordert nur eine einzige Indizierung der Dokumentensammlung auf der Ebene des grundlegenden Indizierungsknotens (in diesem Fall des Absatzes). Es gibt eine nach Rang geordnete Liste von Elementen zurück, die derjenigen entspricht, die von derselben Abfrage für einen All-Element-Index der Sammlung erstellt wird. (Eine detaillierte Beschreibung dieser Methode findet sich in [1].) Da wir von einer gut strukturierten Sammlung, wie den INEX IEEE-Dokumenten, zu Wikipedia übergehen, müssen Änderungen in der Struktur der Artikel berücksichtigt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73888-6_9 c663a32a0df08e5a85d6aa846a61946d;de;;;7.2.;;;Ontologische Abfrageverarbeitungs- und -pflegetechniken für FAQ-Systeme Dieses Papier veranschaulichte einen Schnittstellenagenten, der als Assistent zwischen den Benutzern und FAQ-Systemen arbeitet, um FAQs im Bereich Personal Computer abzurufen. Es kann die Probleme, die mit herkömmlichen FAQ-Abrufsystemen verbunden sind, effektiv angehen. Insbesondere haben wir uns damit befasst, wie die Ontologie Schnittstellenagenten hilft, bessere FAQ-Dienste und zugehörige Algorithmen bereitzustellen, die detailliert beschrieben werden. Unsere vorläufigen Experimente haben gezeigt, dass die Absicht und der Fokus der Benutzer von bis zu achtzig Prozent der Benutzeranfragen vom System richtig verstanden werden können und haben dementsprechend die Anfragelösungen mit einer höheren Benutzerzufriedenheit versehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79355-7_10 bfbc38095ea75956278d70d66e8250e9;de;;;7.2.;;;Über einen mathematischen Vergleich zwischen Hierarchie und Netzwerk mit einer Klassifikation von Koordinationsstrukturen Dieses Papier schlägt ein mathematisches Modell vor, um eine Netzwerkorganisation mit einer hierarchischen Organisation zu vergleichen. Um das Modell zu formulieren, definieren wir einen dreidimensionalen Rahmen der Koordinationsstruktur eines Netzwerks und anderer typischer Koordinationsstrukturen. Im Rahmen können wir eine Netzwerkstruktur definieren, indem wir sie einer Hierarchie im Hinblick auf die Verteilung der Entscheidungsfindung gegenüberstellen, die eines der Hauptmerkmale der Informationsverarbeitung ist. Basierend auf dieser Definition haben wir ein mathematisches Modell zur Bewertung von Koordinationsstrukturen entwickelt. Mit diesem Modell können wir zwei Randbedingungen zwischen den Koordinationsstrukturen bezüglich der optimalen Koordinationsstruktur ableiten. Die Randbedingungen helfen uns zu verstehen, warum eine Organisation ihre Koordinationsstruktur von einer Hierarchie zu einem Netzwerk ändert und welche Faktoren diese Veränderung bewirken. Sie ermöglichen es uns zum Beispiel, Punkte des Strukturwandels zu finden, an denen sich die optimale Koordinationsstruktur von einer Hierarchie zu einer Hierarchie mit Delegation oder von einer Hierarchie mit Delegation zu einem Netzwerk verschiebt, wenn sich die Art der Aufgabe von Routine zu Nicht-Routine ändert . Zusammenfassend kann unser Framework und Modell eine Grundlage für die Diskussion der Prozesse bieten, die auftreten, wenn sich Koordinationsstrukturen zwischen einer Hierarchie und einem Netzwerk ändern.;-;-;-;https://link.springer.com/article/10.1023/A%3A1013454200524 a024c02736ee896ae1277dba236757e9;de;;;7.2.;;;Umgang mit Depressionen durch ein System zur Unterstützung von Verhaltensänderungen ohne persönliche Therapie Wir präsentieren Ergebnisse einer Studie, die den Einfluss überzeugender Erinnerungen und virtueller Proben auf die Wirksamkeit eines Verhaltensänderungsunterstützungssystems untersucht. Good Life Compass ist ein webbasiertes BCSS, das darauf abzielt, Menschen mit leichter bis mittelschwerer Depression ohne persönliche Therapie zu unterstützen. Die Inhalte der virtuellen Probe stammen aus der Akzeptanz- und Commitment-Therapie. Berechtigte Teilnehmer wurden in eine Interventionsstudie und eine Kontrollgruppe (Warteliste) randomisiert. In dieser Arbeit sollen beide Gruppen als Interventionsgruppe 1 bzw. 2 angegeben werden. Zur Datenerhebung verwendeten wir halbstrukturierte Fragebögen und Interviews nach dem Studium. Als Ergebnis erkannten die Teilnehmer überzeugende Erinnerungen als hilfreich bei der Erledigung wöchentlicher Aufgaben und virtuelle Proben als effektive Technik zum Erlernen neuer Verhaltensweisen an.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07127-5_14 9f123e54a6069992bcc66c38fef54c0d;de;;;7.2.;;;Mehrere Klassifikatoren für verschiedene Merkmale in der Klangfarbenschätzung Computerspeicher- und Netzwerktechniken haben einen enormen Bedarf mit sich gebracht, einen Weg zu finden, digitale Musikaufnahmen automatisch zu indizieren. In diesem Kapitel werden die neuesten akustischen Funktionen für die automatische Klangfarbenindexierung untersucht, um effiziente Klassifikationsmodelle wie Entscheidungsbaum und KNN zu erstellen. Die Autoren erstellten eine Datenbank mit mehr als einer Million Musikinstrumenten-Klangschnitten, die jeweils durch eine Vielzahl von Funktionen beschrieben werden, darunter Standard-MPEG7-Audiodeskriptoren, Funktionen zur Spracherkennung und viele neue von den Autoren entwickelte Audiofunktionen, die vom Zeitraum bis zum Spektralbereich reichen Domain. Jedes Klassifizierungsmodell wurde mit einer Merkmalsauswahl basierend auf seinen unterschiedlichen Eigenschaften für das blinde Schalltrennungssystem abgestimmt. Basierend auf den experimentellen Ergebnissen schlugen die Autoren einen neuen Rahmen für;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05183-8_14 a8960df09199a2193a2e1a2120cdc6de;de;;;7.2.;;;Mining von Text mithilfe von Schlüsselwortverteilungen Knowledge Discovery in Databases (KDD) konzentriert sich auf die computergestützte Erkundung großer Datenmengen und auf die Entdeckung interessanter Muster darin. Während sich die meisten Arbeiten an KDD mit strukturierten Datenbanken beschäftigten, gab es wenig Arbeit im Umgang mit der riesigen Menge an Informationen, die nur in unstrukturierter Textform verfügbar sind. Dieses Papier beschreibt das KDT-System für Knowledge Discovery in Text, bei dem Dokumente durch Schlüsselwörter gekennzeichnet werden und die Wissensermittlung durch Analysieren der Häufigkeiten des gemeinsamen Auftretens der verschiedenen Schlüsselwörter, die die Dokumente kennzeichnen, durchgeführt wird. Wir zeigen, wie dieser Schlüsselwort-Frequenz-Ansatz eine Reihe von KDD-Operationen unterstützt und eine geeignete Grundlage für die Entdeckung und Erkundung von Wissen für Sammlungen von unstrukturiertem Text bietet.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008623632443 6cdd1f6885809f88986d8571bbfdad6b;de;;;7.2.;;;Phrasenbasierte Definitionsfragenbeantwortung mit Definitionsterminologie Wir schlagen eine Definitionsmethode zur Beantwortung von Fragen vor, die linguistische Informationen und ein auf Definitionsterminologie basierendes Ranking verwendet. Wir führen syntaktische Definitionsmuster ein, die leicht zu konstruieren sind und das Überdeckungsproblem reduzieren. Phrasen werden unter Verwendung der syntaktischen Muster extrahiert, und die Redundanz wird basierend auf lexikalischer Überlappung und semantischer Übereinstimmung beseitigt. Um die Phrasen einzuordnen, haben wir mehrere Beweise verwendet, darunter externe Definitionen und Definitionsterminologie. Obwohl externe Definitionen nützlich sind, ist es offensichtlich, dass sie nicht alle möglichen Ziele abdecken können. Der Definitionsterminologie-Score, der die Definitionsähnlichkeit der Phrase widerspiegelt, wurde entwickelt, um die unvollständigen externen Definitionen zu unterstützen. Experimentelle Ergebnisse belegen, dass unsere Methode effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/11562382_19 b760a77c0864d5f9f1d1270a0f15b41d;de;;;7.2.;;;Auswirkungen der Verwendung von Beziehungen zwischen Ontologien zur Verbesserung der Ontologie-Suchergebnisse Die Verwendung von semantischen Websuchmaschinen wie Watson, Swoogle oder Sindice zum Auffinden von Ontologien ist eine komplexe Erkundungsaktivität. Im Allgemeinen müssen mehrere Abfragen formuliert, Ergebnisseiten durchsucht und die zurückgegebenen Ontologien miteinander verglichen werden, um eine relevante und angemessene Teilmenge von Ontologien für die beabsichtigte Verwendung zu erhalten. Unsere Hypothese ist, dass zumindest einige der Schwierigkeiten im Zusammenhang mit der Suche nach Ontologien auf die fehlende Struktur der Suchergebnisse zurückzuführen sind, bei denen implizit miteinander verbundene Ontologien getrennt und auf verschiedenen Ergebnisseiten angezeigt werden. In früheren Veröffentlichungen haben wir ein Software-Framework vorgestellt,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30284-8_37 bfafa04975a4830a329d25a8a15f6f96;de;;;7.2.;;;Schlüsselwortbasierte Suche über Datenbanken: Eine Roadmap für eine Referenzarchitektur gepaart mit einem Evaluationsframework Strukturierte Datenquellen versprechen, der nächste Treiber für erhebliche sozioökonomische Auswirkungen sowohl für Menschen als auch für Unternehmen zu sein. Dennoch kann der Zugriff über formale Sprachen wie SQL oder SPARQL für Endbenutzer mühsam und frustrierend werden. Um dieses Problem zu lösen, wird die Stichwortsuche in Datenbanken zur Technologie der Wahl, auch wenn sie unter Effizienz- und Effektivitätsproblemen leidet, die eine Einführung im Web-Maßstab verhindern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-49521-6_1 d9dcf2e24e76f4446e21df8a085ecb77;de;;;7.2.;;;Endlich additive Wahrscheinlichkeitsmaße in der automatisierten medizinischen Diagnostik Wir beschreiben einen probabilistischen Ansatz zur Klassifizierung einer Menge von Objekten, wenn ein Klassifizierungskriterium als propositionale Formel dargestellt werden kann. Es ist bekannt, dass Wahrscheinlichkeitsmaße nicht wahrheitsfunktional sind. Wie auch immer, wenn;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08855-6_2 2600d162b382dd9a6d1c33c331ba36c7;de;;;7.2.;;;Biometrie-gesteuerte intelligente Umgebungen: Abstrakter Rahmen und Evaluierung Wir präsentieren einen abstrakten Rahmen für „intelligente Innenumgebungen“, die unauffällig von biometrischen Erfassungsgeräten wie Videokameras, Mikrofonen usw Aufenthaltsort der Insassen. Wir abstrahieren die intelligente Umgebung durch ein Zustandsübergangssystem: Jeder Zustand erfasst eine Menge von Individuen, die sich in verschiedenen Zonen der Umgebung aufhalten. Da die biometrische Erkennung ungenau ist, sind Zustandsinformationen wahrscheinlichkeitstheoretischer Natur. Ein Ereignis abstrahiert einen biometrischen Erkennungsschritt, und die Übergangsfunktion abstrahiert die zum Bewirken von Zustandsübergängen erforderliche Schlussfolgerung. Auf diese Weise können wir unterschiedliche Typen biometrischer Sensoren und auch unterschiedliche Kriterien für Zustandsübergänge berücksichtigen. Wir definieren die Begriffe „Präzision“ und „Rückruf“ einer intelligenten Umgebung in Bezug darauf, wie gut sie in der Lage ist, Insassen zu identifizieren. Wir haben einen Prototyp einer intelligenten Umgebung basierend auf unseren vorgeschlagenen Konzepten entwickelt und stellen in diesem Papier experimentelle Ergebnisse vor. Unsere Schlussfolgerung ist, dass das Zustandsübergangsmodell eine effektive Abstraktion einer intelligenten Umgebung ist und als Grundlage für die Integration verschiedener Erkennungs- und Argumentationsfähigkeiten dient.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69293-5_8 1beea275ff6339fb4083c4bd1fc18106;de;;;7.2.;;;Multimodaler korrelierter Schwerpunktraum für die mehrsprachige modale Abfrage Wir präsentieren einen neuartigen modalitätsübergreifenden Retrieval-Ansatz, bei dem die Textmodalität in verschiedenen Sprachen vorhanden ist. Wir rufen semantisch ähnliche Dokumente über Modalitäten in verschiedenen Sprachen hinweg unter Verwendung eines korrelierten Schwerpunktraums unüberwachter Abruf (C;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16354-3_9 501deeaa6e8a8966bd151514ca6da42e;de;;;7.2.;;;Automatische Bildbeschreibung basierend auf Textdaten In den letzten zwei Jahrzehnten werden in mehreren Anwendungsbereichen Bilder in zunehmendem Maße produziert. In der Medizin werden beispielsweise täglich eine Vielzahl von Bildern verschiedener bildgebender Verfahren (z. B. Computertomographie, Magnetresonanz, Nuklearbildgebung etc.) angefertigt, um die klinische Entscheidungsfindung zu unterstützen. Dadurch wird ein voll funktionsfähiges Bildverwaltungssystem für die Endbenutzer erforderlich. Trotz aktueller Forschungen hat die Praxis bewiesen, dass das Problem des Bildmanagements stark mit der Bilddarstellung verbunden ist. Der Beitrag dieses Beitrags erleichtert die Darstellung von Bildern und die Extraktion ihrer Inhalts- und Kontextbeschreibungen. Tatsächlich führen wir ein ausdrucksstarkes und erweiterbares XML-basiertes Metamodell ein, das Metadaten und inhaltsbasierte Bilder von Bildern erfassen kann. Wir schlagen auch einen Ansatz zur Informationsextraktion vor, um eine automatische Beschreibung von Bildinhalten unter Verwendung zugehöriger Metadaten bereitzustellen. Es generiert automatisch XML-Instanzen, die Metadaten und hervorstechende Objekte entsprechend den Extraktionsmustern markieren. In diesem Beitrag veranschaulichen wir unseren Vorschlag unter Verwendung des medizinischen Bereichs der Lungenröntgen und wir zeigen unsere ersten experimentellen Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/11890591_7 1415bd6a27eb1ad61a90660627789fdf;de;;;7.2.;;;Eine vergleichende Studie zu Pub/Sub-Methoden in strukturierten P2P-Netzwerken Methoden für Publish/Subscribe-Anwendungen über P2P-Netzwerke sind seit langem ein Forschungsthema. Es wurden viele Ansätze entwickelt und evaluiert, die jedoch in der Regel auf unterschiedlichen Annahmen basieren, was einen gegenseitigen Vergleich sehr schwierig bis unmöglich macht. Wir identifizieren zwei Entwurfsmuster, die verwendet werden können, um Publish/Subscribe-Anwendungen über strukturierte P2P-Netzwerke zu implementieren, und bieten eine analytische Analyse ihrer Komplexität. Anhand einer Charakterisierung verschiedener realer Nutzungsszenarien zeigen wir, welcher Ansatz für bestimmte Anwendungsklassen vorzuziehen ist. Schließlich präsentieren wir Simulationsergebnisse, die unsere Analyse unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71661-7_37 05e2384433c6e0bef4ce9685a4a6d438;de;;;7.2.;;;Kombination von Effektivität und Effizienz für die Schema-Matching-Bewertung spielt eine zentrale Rolle in vielen Anwendungen, die Interoperabilität zwischen heterogenen Datenquellen erfordern. Eine gute Bewertung der unterschiedlichen Fähigkeiten von Schema-Matching-Systemen ist mit zunehmender Komplexität solcher Systeme von entscheidender Bedeutung. Die Fähigkeiten von Matching-Systemen beinhalten verschiedene (möglicherweise widersprüchliche) Aspekte, darunter Match-Qualität und Match-Effizienz. Die Analyse der Effizienz eines Schema-Matching-Systems, wenn sie durchgeführt wird, wird in der Regel getrennt von der Analyse der Effektivität durchgeführt. In diesem Beitrag stellen wir den Trade-off zwischen Schema-Matching-Effektivität und -Effizienz als multiobjektives Optimierungsproblem vor. Diese Darstellung ermöglicht es uns, ein kombiniertes Maß als Kompromiss zwischen ihnen zu erhalten. Wir kombinieren beide Leistungsaspekte in einer gewichteten Mittelwertfunktion, um die Wirtschaftlichkeit eines Schema-Matching-Systems zu bestimmen. Wir wenden unseren vorgeschlagenen Ansatz an, um zwei derzeit existierende Mainstream-Schema-Matching-Systeme zu evaluieren, nämlich;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78999-4_4 2876075bad75e39d022e8dcea63250b7;de;;;7.2.;;;Auswertung von abfrageunabhängigen Objektmerkmalen für die Relevanzprognose Pre In diesem Artikel wird eine Reihe von Experimenten vorgestellt, die die Wirksamkeit von abfrageunabhängigen Merkmalen untersuchen, die aus abgerufenen Objekten extrahiert wurden, um die Relevanz vorherzusagen. Die Funktionen wurden in eine Reihe von konzeptionellen Kategorien gruppiert und basierend auf Click-Through-Daten, die in einer Benutzerstudie im Labor gesammelt wurden, einzeln bewertet. Die Ergebnisse zeigten, dass, während textliche und visuelle Funktionen für die Relevanzvorhersage in einem themenunabhängigen Zustand nützlich waren, eine Reihe von Funktionen effektiv sein können, wenn Themenwissen verfügbar war. Wir haben die ursprüngliche Studie auch aus der Perspektive der signifikanten Merkmale, die durch unsere Experimente identifiziert wurden, erneut besucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71496-5_27 0a9cab1aa9a81624648116c0f450863c;de;;;7.1.;;;Das vorgeschlagene SOA-MM Die in dieser Arbeit verwendete Delphi-Varianten-Technik half bei der Entwicklung eines neuen unternehmensübergreifenden SOA MM (nach drei Runden-Fragebogen), das aus fünf Reifegraden und sieben SOA-Domänen (Enabler) besteht: Architektur, Infrastruktur, Bereitstellung, Information, Prozess , Organisation, Governance, zusammen mit den entsprechenden Schwerpunkten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-02453-0_5 2de4e6a78243bd453b049dee9ff66b68;de;;;7.1.;;;Aufbau von Projektteams bei der Einführung von Enterprise-Systemen: Die Notwendigkeit der Einbeziehung des Projekttyps Das Ziel dieser Studie ist es, den Aufbau von Projektteams bei der Einführung von Unternehmenssystemen (ES) zu untersuchen und besser zu verstehen. Die Analyse baut auf zweiphasigen Untersuchungen auf, die unter zwei Gruppen von ES-Anwendern durchgeführt wurden. Zu den untersuchten Fragen, die in der ersten, explorativen Phase der Forschung aufgedeckt wurden, gehören die Zusammensetzung des Lenkungsausschusses, die Zusammensetzung des Projektteams und die Einbeziehung der Vertreter des Systemanbieters. Als nächstes wird in der zweiten Phase ihr Einfluss auf den Erfolg der ES-Einführung untersucht. Dabei untersucht die Analyse die Auswirkungen des Projekttyps, der durch vier Kriterien definiert wird: Übernahmeumfang, organisationsübergreifender Fokus, Unternehmensgröße und Projektdauer. Empfehlungen zum Aufbau von Projektteams und zur zukünftigen Forschung schließen das Papier ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25676-9_5 706717699390ddb37619631de2593f39;de;;;7.1.;;;Geschäftsprozessmanagementsysteme – die kontinuierliche Verbesserung in Industriedienstleistungen ermöglichen Ziel des Beitrags ist es, die Möglichkeiten zu analysieren, die moderne Business Process Management Systeme (BPMS) zur Verbesserung der industriellen Serviceprozesse bieten. Eine Fallstudie identifiziert Verbesserungsmöglichkeiten im Order-to-Cash-Prozess in zwei Service Lines eines großen Industriedienstleisters. Die Implementierung eines Geschäftsprozessmanagementsystems im untersuchten Fallkontext erhöht potenziell die Serviceprozessqualität und beschleunigt den Order-to-Cash-Prozess erheblich. Die praktische Implikation ist, dass Anbieter von Industriedienstleistungen BPMS als potenzielles Mittel zur Verbesserung der Rentabilität durch einen schnelleren Order-to-Cash-Prozess betrachten sollten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16358-6_79 c0422fb1cf25f8dda9f0cd3127bb3ca6;de;;;7.1.;;;Ein Big Data-zentriertes integriertes Framework und typische Systemkonfigurationen für Smart Factory Personalisierte Konsumnachfrage und globale Herausforderungen wie Energieknappheit und Bevölkerungsalterung erfordern ein flexibles, effizientes und grünes Produktionsparadigma. Smart Factory zielt darauf ab, diese Probleme anzugehen, indem aufkommende Informationstechnologien und künstliche Intelligenz mit Fertigungsressourcen gekoppelt werden, um ein cyber-physisches Produktionssystem zu implementieren. In diesem Papier schlagen wir ein Cloud-basiertes und Big Data-zentriertes Framework für die Smart Factory vor. Big Data in der Cloud ermöglicht nicht nur Transparenz für die Aufsichtskontrolle, sondern koordiniert auch den Selbstorganisationsprozess der Fertigungsressourcen, um sowohl eine hohe Flexibilität als auch Effizienz zu erreichen. Darüber hinaus fassen wir acht typische Systemkonfigurationen nach drei Schlüsselparametern zusammen. Diese Konfigurationen können verschiedenen Zwecken dienen und erleichtern die Systemanalyse und das Design.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-44350-8_2 693848221f6a93037abe350da3ee4ac7;de;;;7.2.;;;Sprachmodelle für kollaborative Filterumgebungen Sprachmodelle sind State-of-the-Art-Methoden im Information Retrieval. Ihre solide statistische Grundlage und ihre hohe Effektivität bei mehreren Retrievalaufgaben sind der Schlüssel zu ihrem aktuellen Erfolg. In diesem Papier untersuchen wir, wie diese Modelle angewendet werden können, um die Aufgabe der Berechnung von Benutzer- oder Objektumgebungen in einem kollaborativen Filterszenario zu bewältigen. Unsere Experimente zeigten, dass dieser Ansatz anderen Nachbarschaftsstrategien überlegen und zudem sehr effizient ist. Unser Vorschlag zeigte in Verbindung mit einem einfachen nachbarschaftsbasierten Recommender eine hervorragende Leistung im Vergleich zu modernsten Methoden (NNCosNgbr und PureSVD) bei geringer Rechenkomplexität.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30671-1_45 089c9829ae9320c41e4ef1ff787d67ed;de;;;7.2.;;;Ein Remote-Videostudienbewertungssystem mit einem Benutzerprofil Wir schlagen ein effizientes Bewertungssystem für Video-Fernstudien vor, das mit einer Informationsfilterung basierend auf dem Benutzerprofil an die personalisierten Eigenschaften des einzelnen Studenten angepasst ist. Für die Einstellungsfragen zur Verwendung des Videos extrahieren wir einen Keyframe basierend auf den Standort-, Größen- und Farbinformationen und extrahieren ein Einstellungsfragenintervall mit Graustufenhistogramm und Zeitfenstern. Für eine effiziente Auswertung stellen wir auch Fragen, die ein kategoriebasiertes System und ein schlüsselwortbasiertes System bilden. Somit können Studierende ihre Studienleistungen ergänzend zu den unzureichenden Kenntnissen verbessern und ihr Interesse am Fach aufrechterhalten.;-;-;-;https://link.springer.com/chapter/10.1007/11424826_30 edfac4d9168a28594906b37d0e98561d;de;;;7.2.;;;Qualität der semantischen Kompression bei der Klassifikation Artikel präsentiert Ergebnisse der Implementierung der semantischen Kompression für Englisch. Eine Idee der semantischen Kompression wird mit Beispielen wieder eingeführt und Schritte zur Durchführung des Experiments werden gegeben. Es wird eine Aufgabe des Re-Engineering vorhandener Strukturen beschrieben, um sie auf bereits bestehende Projektinfrastrukturen für Experimente anzuwenden. Das Experiment demonstriert die Gültigkeit der Forschung zusammen mit realen Beispielen für semantisch komprimierte Dokumente.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16693-8_18 ba72ac71114228af4e3f10fc8c574b59;de;;;7.2.;;;Über einige Ansätze zur Auswertung in personalisierten Dokumentenabrufsystemen Aufgrund der Informationsflut im Internet ist es eine schwierige Aufgabe, relevante Informationen zu erhalten. Neue Techniken und ausgeklügelte Methoden werden entwickelt, um die Effizienz des Suchprozesses zu verbessern. In unserer Forschung konzentrieren wir uns auf ein personalisiertes Dokumentenabrufsystem, mit dem die Relevanz von gesuchten Dokumenten angepasst werden kann. Anhand von Nutzerdaten, Nutzungsdaten und sozialen Verbindungen zwischen Nutzern ermittelt es aktuelle Nutzerprofile und empfiehlt bessere Dokumente. In der Arbeit analysieren wir eine Methodik für experimentelle Auswertungen in simulierter Umgebung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-14799-0_18 146ce1bdd121161a6516b937f1b98cc6;de;;;7.1.;;;Koordinieren von verteiltem Wissen: Eine Studie über die Verwendung eines organisatorischen Gedächtnisses In diesem Beitrag wird eine ethnographisch fundierte Untersuchung zum Einsatz eines Organisationsgedächtnisses vorgestellt, die sich insbesondere auf die Verwendung von Informationen bei der Ausübung von Arbeit konzentriert. Wir argumentieren, dass das Verständnis, wie Menschen verteiltes Wissen nutzen, entscheidend für die Gestaltung eines organisatorischen Gedächtnisses ist. Wir nehmen jedoch die Perspektive ein, dass ein „organisatorisches Gedächtnis“ nicht technologieabhängig, sondern eine emergente Eigenschaft der Gruppeninteraktion ist. In diesem Sinne bildet die Technologie nicht das organisatorische Gedächtnis, sondern bietet ein neuartiges Mittel zur Verbesserung der Koordination kollaborativen Handelns. Die Studie untersucht die Erstellung, Entwicklung und Pflege von Wissensrepositorien und -archiven. Das im Organisationsgedächtnis festgehaltene Wissen und die Informationen ermöglichten es den Teammitgliedern, ein gemeinsames Verständnis des Designs zu entwickeln und ein Verständnis für die Probleme und Anliegen der anderen Disziplinen zu gewinnen. Die Studie zeigt auf, warum Technik nicht losgelöst von ihren Nutzungskontexten zu denken ist, sondern auch, wie Designer die gestalterische Flexibilität nutzen können, die Menschen in ihrem Alltag einsetzen. Die Ergebnisse der Studie sind daher sowohl für die Gestaltung von Wissensarchiven als auch für das Management dieser Informationen in Organisationen von direkter Relevanz.;-;-;-;https://link.springer.com/article/10.1007/s101110050012 aedb0ceaf2f43d334b1ed71f68981ebc;de;;;7.1.;;;Ein stochastisches Programmiermodell für die Umverteilungsplanung von Multi-Ware in der Katastrophenhilfe Wenn eine Katastrophe großen Ausmaßes eintritt, sollte eine Reihe von Hilfszentren für die Evakuierung bestimmt werden, und eine Vielzahl von Multi-Waren sollte an diese Hilfszentren verteilt werden, um grundlegende Lebenserhaltung zu gewährleisten. Da die Verteilung mehrerer Waren in Friedenszeiten unvollkommen und unausgewogen sein kann, können die überschüssigen Waren in einigen Hilfszentren an andere Hilfszentren mit Engpässen umverteilt werden, um diese Waren effektiv und effizient zu nutzen. Dieses Multi-Commodity-Umverteilungsproblem ist auch ein wichtiges Thema im Notfallmanagement. Verschiedene unsichere Elemente umfassen das Verkehrsnetz, Angebot und Nachfrage, was dieses Problem zu einer großen Herausforderung macht. Um dieses Problem zu lösen, wurde ein zweistufiges gemischt-ganzzahliges stochastisches Programmiermodell vorgeschlagen, um diesen Umverteilungsprozess für mehrere Waren zu erleichtern. In unserem Modell definieren wir die Unzufriedenheitskosten basierend auf der Größe des Hilfszentrums, der ungedeckten Nachfrage und dem Überangebot an Waren im Hilfszentrum. Unser Ziel ist es dann, die gesamten Unzufriedenheitskosten in der ersten Stufe zu minimieren und die Gesamttransportzeit in der zweiten Stufe nacheinander zu minimieren. Schließlich wird eine zufällig generierte numerische Instanz getestet und die Berechnungsergebnisse zeigen, dass das vorgeschlagene Modell effektive und effiziente Entscheidungen im Multi-Commodity-Umverteilungsprozess liefern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99704-9_9 ad8a248694f28b4a994903661ccd480b;de;;;7.1.;;;Die XML-Abfrageausführungs-Engine (XEE) Die Eigenschaften von XML-Dokumenten erfordern neue Wege zum Speichern und Abfragen solcher Dokumente. In diesem Whitepaper stellen wir das Konzept unserer XML Query Execution Engine (;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-9978-8_7 1ec2edc22c8ce253b7afb0b80880e7c6;de;;;7.1.;;;Urbane Medientrends zur Ermöglichung der Bürgerbeteiligung in der Stadtplanung: Alter Wein in neuen Fässern? In den letzten Jahren haben sich durch den Aufstieg der Smart Cities eine Fülle neuer Möglichkeiten für interaktive Stadtplanung herausgebildet. Dieser Beitrag untersucht das Potenzial urbaner Medien zur Neugestaltung der Rolle der Bürger in der Stadtplanung. Sowohl die historische Rolle, die Bürger bei der Entwicklung von Quartieren gespielt haben, als auch den Prozess der Stadtplanung werden anhand einer Literaturrecherche dargestellt. Darüber hinaus werden aktuelle Visionen zur Stadtplanung und Bürgerbeteiligung in Smart Cities überprüft. Die Erkenntnisse aus dieser Literaturstudie werden aus Experteninterviews mit sechs Haupttrends in urbanen Medien konfrontiert. Als Ergebnis liefern wir einen Überblick, der Stadtplanern in Quartieren hilft, von den Vorteilen urbaner Medien zu profitieren und deren Risiken zu vermeiden. Wir fanden heraus, dass die Entwicklung urbaner Medien sowohl positive als auch negative Auswirkungen auf die Bürgerbeteiligung an der Stadtplanung in Quartieren haben könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98578-7_5 674428adaf3bd30685168f951b5b4279;de;;;7.1.;;;Effizientes Tourismus-Website-Design für das Supply Chain Management Tourism Supply Chain (TSC) ist eine neue Art von akademischen Bereichen, die die Theorie und Methodik des Supply Chain Managements von Tourismusdienstleistungen erweitern. Dieses Papier nimmt Reisewebsites als Knotenpunkt und untersucht die Probleme der Supply-Chain-Koordination mit anderen Mitgliedern, die den operativen Einblick, dem Reiseunternehmen für optimale Leistung und Wettbewerbsvorteile, also die Koordination und harmonische Entwicklung des Tourismus, sicher ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29084-8_102 bf70cc073d678bd246d31753adfd4707;de;;;7.2.;;;Fokus auf Umsetzung In diesem Beitrag wird ein Modell für den Umsetzungsprozess des Schulwandels vorgestellt. Das Modell wurde aus der Beobachtung und Interaktion mit geplanten Veränderungen in einer Vielzahl von Schulen entwickelt und zeichnet den Prozess in acht Phasen nach, vom anfänglichen Klima für den Wandel bis hin zu vollständigen Feldversuchen innovativer Programme. In jeder dieser Phasen wird der Beitrag einer Reihe von Komponenten diskutiert: der soziale Kontext, in dem sich Veränderungen vollziehen, organisatorische Überlegungen, die Rolle der Evaluation, die Entwicklung innovativer Programme und die Rolle des Lehrers, Schulleiters, Administrators, und akademisch. Das Modell wird als konzeptioneller Rahmen präsentiert, aus dem Umsetzungsstrategien für die Umsetzung von Veränderungen in den Schulen abgeleitet werden können und werden.;-;-;-;https://link.springer.com/article/10.1007/BF02138788 8087719646a15a64b469bdef5b8261bd;de;;;7.2.;;;Generieren von Extrakten mit genetischen Algorithmen Dieses Papier beschreibt eine Anwendung genetischer Algorithmen zur Textzusammenfassung. Wir haben einen Satzextraktionsalgorithmus entwickelt, der einige der Nachteile herkömmlicher Satzextraktoren überwindet und verschiedene Merkmale der Zusammenfassungen berücksichtigt. Die Fitnessfunktion kann leicht modifiziert werden, um Funktionen wie Benutzermodellierung und -anpassung zu integrieren. Das System wurde mit Standardverfahren bewertet und die erhaltenen Ergebnisse sind sehr gut.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36618-0_37 d8828e226f09cf1a0523c222bb42dd64;de;;;7.2.;;;Kollaborative Umgebungen zur Unterstützung professioneller Gemeinschaften: Ein Living Lab-Ansatz Der Living-Labs-Ansatz innerhalb von ECOSPACE konzentriert sich auf den frühen Aufbau einer Benutzergemeinschaft und die aktive Einbeziehung der Benutzer in den Prozess der Entwicklung, Erprobung und Bewertung neuer Kollaborationskonzepte und -tools. Dieses Papier berichtet über die Implementierung und Bewertung des Living Labs-Ansatzes, um Innovationen in kollaborativen Arbeitsumgebungen zu erleichtern, um professionelle Gemeinschaften zu verbessern. Der Living-Lab-Ansatz gilt als Strategie für Innovation, Veränderung und Akzeptanz. Die Perspektive sozio-technischer Systeme wird genutzt, um die veränderungskatalysierende Rolle des Living-Lab-Ansatzes zu verstehen und zu erklären.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04568-4_65 125b3fb19b9c5a89eba1ccc77209f592;de;;;7.2.;;;Computergestützte Ökosysteme in der häuslichen Gesundheitsversorgung Der Schwerpunkt dieses Kapitels liegt auf der Bewertung, wie Informationstechnologie und Computer-Ökosysteme in der elektronischen Gesundheitsversorgung angemessen angewendet werden können, ohne die Servicequalität zu beeinträchtigen. Wir führen diese Bewertung durch, indem wir zwei Szenarien (;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-1555-5_10 9d15cd446363d88e2c65816335262d90;de;;;7.2.;;;Vier vielversprechende Multimedia-Datenbanken und ihre Verkörperungen Multimediale Datenbanksysteme gewinnen als Werkzeug, um aus multimedialen „Inhalten“ zusätzliche Werte zu extrahieren und zu generieren, immer mehr an Bedeutung. In diesem Papier werden vier Multimedia-Datenbanksysteme vom Standpunkt vielversprechender Inhaltsquellen vorgeschlagen, die Netzwerk-Multimedia-Datenbanken, die Stream-MM-Datenbanksysteme, die Bibliotheks-MM-Datenbanksysteme und die MM-Datenbanksysteme der realen Welt. Wichtige zu lösende Probleme, d. h., was zu tun ist, werden auch für jede Datenbank besprochen. Drei konkrete Multimediasysteme der Forschungsgruppe der Autoren werden dann vorgestellt und als Verkörperungen dieser Multimediasysteme diskutiert, (1) das offene Global Image Retrieval and Linking System, GIRLS, für die Vermittlung WWW-Datengeschwindigkeit als Netzwerk-MM-Datenbanksysteme, ( 2) die flexible Multimedia-Datenbankplattform GOLS und (3) das Autorensystem auf höherer Ebene für die Stream-MM-Umgebungen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1009638027049 575004de2c5e6ef762d9ff74e6a93d3e;de;;;7.2.;;;Bewertung von „Connecting for Health“: Politische Auswirkungen eines britischen Megaprogramms Weltweit wird die Einführung von Informations- und Kommunikationstechnologien (IKT) vorgeschlagen, um das Gesundheitswesen zu transformieren, es „besser“ (z. B. sicherer, zugänglicher und patientenorientierter) und effizienter zu machen, indem das Management von Gesundheitsorganisationen erleichtert wird und Prozesse. Die Implementierung von IKT ist seit mindestens einem Jahrzehnt ein wesentlicher Bestandteil der britischen Regierungsstrategie für den National Health Service (NHS), zuletzt im National Program for IT (NPfIT) für England zum Ausdruck gebracht, das als das größte nichtmilitärische Initiative der IT-Implementierung in der Welt und nun in die umfassendere institutionelle Struktur von „Connecting for Health“ [2] eingeordnet.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-84822-8_25 7aa7e1f35843b4bf414bebbdc2e2df7e;de;;;7.2.;;;Auf dem Weg zum kumulativen Fortschritt in der agentenbasierten Simulation Dieses Papier betont, wie wichtig es ist, sich auf Modellierungsprozesse zu konzentrieren, um kumulative Fortschritte bei agentenbasierten Ansätzen zu erzielen. In diesem Beitrag stellen wir unseren Ansatz zur Analyse von Modellierungsprozessen vor und untersuchen seine Möglichkeiten für einen kumulativen Fortschritt. Die Fähigkeiten unseres Ansatzes lassen sich wie folgt zusammenfassen: (1) Unser Ansatz hat ein großes Potenzial, kumulative Fortschritte bei agentenbasierten Ansätzen zu fördern, und (2) die von unserem Ansatz gefundenen Elemente haben hohe Möglichkeiten, die reale Welt zu beeinflussen als Toolkits und unterstützen das KISS-Prinzip.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45548-5_13 6d8a0f7429e06442f4382892f62af13c;de;;;7.2.;;;Überblick über das CLEF eHealth Evaluation Lab 2019 In diesem Papier geben wir einen Überblick über die siebte Jahresausgabe des CLEF eHealth-Evaluierungslabors. CLEF eHealth 2019 setzt unsere Bemühungen zum Aufbau von Evaluierungsressourcen rund um die Erleichterung und Unterstützung von Patienten, ihren Angehörigen, klinischem Personal und Gesundheitswissenschaftlern beim Verstehen, Zugreifen und Verfassen elektronischer Gesundheitsinformationen in einem mehrsprachigen Umfeld fort. Das diesjährige Lab hat drei Aufgaben ausgeschrieben: Aufgabe 1 zur Erschließung nicht-technischer Zusammenfassungen deutscher Tierversuche mit Codes der Internationalen Klassifikation der Krankheiten, Version 10, Aufgabe 2 zu technologiegestützten Reviews in der Erfahrungsmedizin aufbauend auf Aufgaben von 2017 und 2018 in englischer Sprache und Aufgabe 3 zur Verbrauchergesundheitssuche in ein- und mehrsprachigen Umgebungen, die auf den Informationsabrufaufgaben 2013–18 aufbaut Insgesamt nahmen neun Teams an diesen Aufgaben teil (sechs in Aufgabe 1 und drei in Aufgabe 2). Hier beschreiben wir die für diese Aufgaben geschaffenen Ressourcen und die angewandte Evaluierungsmethodik. Wir geben auch eine kurze Zusammenfassung der Teilnehmer über die diesjährigen Herausforderungen und die erzielten Ergebnisse. Wie in den Vorjahren haben die Veranstalter Daten und Werkzeuge rund um die Laboraufgaben für die zukünftige Forschung und Entwicklung zur Verfügung gestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-28577-7_26 100521d8ec2750d7ce7dc8dfea67bc6d;de;;;7.1.;;;Ein Modellansatz zur Bildung von Synergieeffekten in der Automobilindustrie mit Big-Data-Lösungen: Anwendung für Distributions- und Transportdienstleistungsstrategie Die Automobilindustrie ist derzeit der führende Industriesektor in der Slowakei. Innovative Lösungen und Nachhaltigkeit spielen eine Schlüsselrolle für den kontinuierlichen Fortschritt von Unternehmen. Unter diesen haben Big-Data-Lösungen einen erheblichen Einfluss. In diesem Kapitel wird der Einsatz von Big-Data-Lösungen in der Automobilindustrie und deren Verbindung zu Synergieeffekten im strategischen Management untersucht. Von diesen neuartigen Ansätzen sind Big-Data-Lösungen und sich abzeichnende Synergieeffekte notwendig, um Empfehlungen für erfolgreiche kollaborative Lösungen zu entwickeln. So werden beispielsweise bei der Herstellung von Elektrogroßfahrzeugen vielfältige Dienstleistungen benötigt – vom Versand bis zur Teilelieferung. Diese Dienstleistungen verbinden den Kunden eng mit dem Unternehmen, das seinen Bedürfnissen entspricht. Der Einsatz von Big Data-Technologie für Elektroautos und eine umweltfreundlichere Automobilindustrie in Bezug auf Distributions- und Transportdienstleistungen gehören zu den wettbewerbsfähigsten Strategien in dieser Branche.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-76998-1_34 0e2017f1799cb2301e84984227826ae8;de;;;7.1.;;;Neigungsgenauigkeit und Trassenplanung auf komprimiertem Gelände Wir berichten über Varianten der verlustbehafteten Geländekompressionsmethode ODETLAP, bei denen das rekonstruierte Gelände eine genaue Neigung und Höhe aufweist. Die Neigung ist wichtig für Anwendungen wie Mobilität, Sicht und Hydrologie. Eine Variante besteht darin, ein regelmäßiges Punkteraster anstelle der wichtigsten Punkte auszuwählen, was mehr Punkte erfordert, aber weniger Platz benötigt. Eine andere Variante fügt dem überbestimmten System einen neuen Gleichungstyp hinzu, um die Neigung der rekonstruierten Fläche nahe an die Neigung der ursprünglichen Fläche zu bringen. Tests an sechs Datensätzen mit Höhenbereichen von 505 m bis 1040 m, komprimiert mit Verhältnissen von 146:1 bis 1046:1 relativ zur ursprünglichen Binärdateigröße, zeigten RMS-Höhenfehler von 10 m und Neigungsfehler von 3 bis 10 Grad. Das rekonstruierte Gelände unterstützt auch die Planung optimaler Wege, die Sichtfelder der Beobachter vermeiden. Auf dem rekonstruierten Gelände geplante Wege waren nur 5 bis 20 % teurer als auf dem ursprünglichen Gelände geplante Wege. Kompromisse zwischen komprimierter Datengröße und Ausgabegenauigkeit sind möglich. Daher ist es besser möglich, Geländedaten auf tragbaren Geräten zu speichern oder über langsame Verbindungen zu übertragen und sie dann in Anwendungen zu verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68566-1_19 7375248885d0d93522e70174e16d6715;de;;;7.2.;;;Internetwork-Zugriffskontrolle mit Public-Key-Zertifikaten Access Control Security Scheme* (PASS) auf Paketebene ist ein Schema zur Durchsetzung von Richtlinien zur Kontrolle des Paketverkehrs zwischen Domänen zwischen miteinander verbundenen administrativen Domänen (ADs). Als unverzichtbarer Bestandteil des Schemas enthält PASS ein Inter-Domain-Authentifizierungsprotokoll, das auf dem ITU-T X.509 Public-Key-Zertifikatverzeichnisdienst basiert. Dadurch entfällt die Notwendigkeit eines dedizierten Zugriffskontrollservers in jedem AD und das Teilen privater Schlüssel zwischen benachbarten Netzwerkeinheiten. Dieses Papier befasst sich mit dem Design des PASS-Schemas und des Inter-Domain-Authentifizierungsprotokolls. Eine Overhead-Analyse und ein Vergleich mit anderen Schemata werden ebenfalls bereitgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-5041-2919-0_21 6eaefeb0a117ea31aa4441c39c1713a1;de;;;7.1.;;;Integriertes Management von Sicherheitsrichtlinien Der Entwurf eines integrierten Ansatzes für das Sicherheitsmanagement stellt eine schwierige Herausforderung dar, aber die Anforderungen moderner Informationssysteme machen es äußerst dringend, Forschungsanstrengungen in diese Richtung zu widmen. Drei Integrationsperspektiven lassen sich identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22348-8_3 aa01d3e95eb8dcd2f717c125f85d934e;de;;;7.1.;;;BIM für FM: Eine Fallunterstützung für den Geschäftslebenszyklus Über den Einsatz von BIM im Betrieb und in der Instandhaltung von Gebäuden liegen relativ wenige Informationen vor. Gemeldete Fälle der Einführung von BIM zur Unterstützung des Facility Managements und des Lebenszyklusmanagements zeigen, dass die Implementierung von BIM für FM-Prozesse im Allgemeinen auf einen experimentellen Maßstab beschränkt ist. Selbst große öffentliche Eigentümer, die BIM für die Verwaltung ihrer Bauprojekte verwenden, haben es nicht in ihre FM-Aktivitäten integriert. Daher gibt es kaum Belege für den Nutzen von BIM in der Betriebsphase. Darüber hinaus sind die Herausforderungen bei der Umstellung von traditionellen FM-Prozessen auf neue BIM-basierte Prozesse wenig bekannt. In diesem Papier dokumentieren wir einige der Probleme, die mit der Einführung von BIM in FM verbunden sind, und identifizieren einige Anwendungen, Kennzahlen und Vorteile im Zusammenhang mit der Einführung. Die Ergebnisse basieren auf einer Fallstudie, die im Rahmen eines großen Sanierungsprojekts in Manchester, Großbritannien, durchgeführt wurde. Die Ergebnisse zeigen einen sprunghaften Anstieg des Bewusstseins hinsichtlich potenzieller Vorteile von BIM bei FM-Aktivitäten und dem Lifecycle-Informationsmanagement.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45937-9_7 8b79c8b4d8ffddd5dd9697e4a3dc3ecd;de;;;7.1.;;;Unsicherheit und Management Accounting: Chance, Gewinnchance und Gewinn Dieses Kapitel betrachtet in Verbindung mit dem „Wertkonzept“ im vorherigen Kapitel das Konzept des Gewinns im Managementzyklus, von der Unsicherheit über die Gewinnwahrscheinlichkeit bis zur Gewinnrealisierung, und untersucht die Bedeutung von Gewinn- und Risikomanagement im Management Accounting. Da das betriebswirtschaftliche Umfeld immer wechselhafter, komplizierter und schwer vorhersehbar wird, müssen die führenden Führungskräfte in Unternehmensorganisationen Chancen und Risiken genauer vorhersagen. Der buchhalterische Gewinn ist in der Regel weit von realen Möglichkeiten entfernt. Daher kann ein Management Accounting, das sich auf den Buchgewinn stützt, für die echte Unternehmensführung irrelevant werden. Dieses Kapitel gibt einen Überblick über die Literatur zum Zusammenhang zwischen Unsicherheit und Gewinnmanagement mit dem Ziel, die Bedeutung von Gewinnchance zu klären, die ohne Chancenprognose und das objektive Verständnis und die Steuerung der Organisationsstruktur nicht existieren kann. Gleichzeitig konzentriert sich dieses Kapitel darauf, wie wichtig es ist, der Unsicherheit im Geschäftszyklus und der Fähigkeit der Menschen, Risiken wahrzunehmen, kontinuierlich Aufmerksamkeit zu schenken. Der Managementzyklus von der Opportunität über die Gewinnchance bis zur Gewinnrealisierung wird als zirkuläres Modell mit Feed-Forward- und Feedback-Kontrollen dargestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8989-3_4 f6fab8c60dd85ff106f347b4e60687ca;de;;;7.1.;;;Erreichen einer flexiblen Prozessinteroperabilität im Homecare-Bereich durch aspektorientierte Servicezusammenstellung In der Altenpflege wird der Mangel an verfügbaren finanziellen und personellen Ressourcen für die Bewältigung einer steigenden Zahl älterer Menschen kritisch. Aktuelle Lösungen für dieses Problem konzentrieren sich auf Effizienzgewinne durch den Einsatz von Informationssystemen und umfassen häusliche Pflegedienste durch IT-Systeme. Die derzeitigen IT-Systeme, die häusliche Pflegedienste integrieren, haben jedoch Schwierigkeiten, mit der Dynamik des Benutzerkontexts und der Vielfalt der Bedürfnisse und Präferenzen der Pflegebedürftigen umzugehen. Dies macht die verfügbaren Homecare-Dienste auf Prozessebene kaum interoperabel, insbesondere aufgrund der fehlenden Unterstützung der Prozessflexibilität. In diesem Beitrag stellen wir einen Ansatz vor, der in der Lage ist, solche Interoperabilitätsprobleme auf der Grundlage einer aspektorientierten Dienstzusammensetzung zu lösen. Wir demonstrieren die Machbarkeit unseres Ansatzes und der vorgeschlagenen Architektur durch die Implementierung eines Prototyps für ein Erinnerungsdienstszenario.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36796-0_6 23fa79ec5634ad62098ae5d9b0a52497;de;;;7.1.;;;Erreichen einer nachhaltigen Entwicklung durch deren Integration in das Geschäftsprozessmanagementsystem Der Artikel soll einen Ansatz präsentieren, wie nachhaltigkeitsbezogene Themen in das Managementsystem einer Organisation integriert werden können. Als Ausgangspunkt und Bindeglied verwenden wir einen prozessorientierten Ansatz (BPM) zur Führung von Unternehmen und wenden darauf Nachhaltigkeitsdimensionen (ökonomisch, ökologisch und sozial) an. Mit diesem Ansatz ändern wir keine bestehenden oder bereits etablierten Managementsysteme von Unternehmen, sondern passen sie an, indem wir die Unternehmensvision, -strategie und vor allem die Management- und Kernprozesse modifizieren. Die Integration nachhaltigkeitsbezogener Prozesse in das Organisationsmanagementsystem verhindert „Brandbekämpfung“- und Ad-hoc-Aktivitäten, die von Unternehmen durchgeführt werden, um die zunehmende Zahl von nachhaltigkeitsbezogenen Standards zu erfüllen. Darüber hinaus präsentieren wir zwei Führungskräftetrainings (Geschäftsprozessmanagement und Nachhaltigkeitsmanagement), die in Kombination Führungskräfte in die Lage versetzen, sich an das heute wettbewerbsintensive Geschäftsumfeld anzupassen. Bei dem hier vorgestellten Konzept handelt es sich um einen neuartigen Ansatz im Rahmen der ECQA (European Certification and Qualification Organization), der eine bedarfsgerechte Bündelung von Managementfähigkeiten und -trainings (BPM und Nachhaltigkeitsmanagement) ermöglicht. Die präsentierten Ergebnisse sind insbesondere für Prozessanalysten, Qualitätsmanager, Nachhaltigkeitsmanager, Social Responsibility Manager und ähnliche Berufsbilder nützlich, um die Aktivitäten und Prozesse ihrer Unternehmen im Hinblick auf die Werte der nachhaltigen Entwicklung zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24647-5_20 1fa98f7a092fb0e7cf727b1e314a3cfd;de;;;7.1.;;;Für den Stromsektor geltende Cybersicherheitsstandards Um die Herausforderungen der Cybersicherheit im sich wandelnden Stromsektor umfassend zu adressieren, sollten in erster Linie standardisierte Lösungen verwendet werden. Ziel dieses Kapitels ist es, alle relevanten Normen vorzustellen, die für diesen Zweck nützlich sein können. Die Publikationen wurden auf Basis einer systematischen Literaturrecherche ermittelt. Sie werden in vier Kategorien eingeteilt, die sich auf Cybersicherheitskontrollen, Anforderungen, Bewertungsmethoden und Datenschutzfragen beziehen. Sechs der am weitesten verbreiteten Dokumente werden detaillierter beschrieben. Das Kapitel schließt mit einer Diskussion der Bereiche, in denen weitere Verbesserungen wünschenswert wären. Der Stand der Verabschiedung von Standards im Stromsektor wird dargestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-19538-0_3 377791bd5876205c11f7a8b89c1b861c;de;;;7.2.;;;Zwei Begriffsschichten: eine alternative Topologie zur Darstellung von Begriffsbeziehungen im Bayesian Network Retrieval Modelian Das Bayesian Network Retrieval Model bietet den Vorteil, dass die Hauptbeziehungen zwischen den Begriffen aus einer Sammlung mittels eines Polytree-Netzwerks erfasst werden können, das den Entwurf und die Anwendung effizienter Lern- und Ausbreitungsalgorithmen ermöglicht. Aber in einigen Situationen, in denen die Anzahl der Knoten im Graphen sehr hoch ist (die im Bayes-Netzwerk dargestellte Sammlung ist sehr groß), könnten diese Ausbreitungsverfahren nicht so schnell sein, wie es von einem interaktiven Abrufsystem benötigt wird. In diesem Beitrag stellen wir eine alternative Topologie zur Darstellung von Termbeziehungen vor, die die Ausbreitung mit exakten Algorithmen vermeidet und sich sehr gut für die Verwaltung großer Dokumentensammlungen eignet. Diese neue Topologie basiert auf zwei Begriffsschichten. Wir vergleichen die Retrieval-Effektivität des neuen Modells mit dem alten anhand mehrerer Dokumentensammlungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-3744-3_21 2674244f43e98f84f719f3ed19ced5c9;de;;;7.2.;;;Lernmodelle für Ranking-Aggregate Aggregierte Ranking-Aufgaben sind solche, bei denen Dokumente nicht das endgültige Ranking-Ergebnis, sondern eine vermittelnde Komponente sind. Beispielsweise wird bei der Expertensuche nach Berücksichtigung eines Dokumentenrankings ein Ranking von Kandidaten mit relevanter Expertise zu einer Anfrage erstellt. Es gibt viele Modelle für aggregierte Ranking-Aufgaben, jedoch ist es schwierig, eine effektive und robuste Einstellung für verschiedene aggregierte Ranking-Aufgaben zu erreichen. In dieser Arbeit schlagen wir einen neuen erlernten Ansatz zum aggregierten Ranking vor, der verschiedene Dokument-Ranking-Features sowie aggregierte Ranking-Ansätze kombiniert. Wir experimentieren mit unserem vorgeschlagenen Ansatz, indem wir zwei TREC-Testsammlungen für die Experten- und Blogsuche verwenden. Unsere experimentellen Ergebnisse belegen die Wirksamkeit und Robustheit eines gelernten Modells für das aggregierte Ranking in verschiedenen Einstellungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20161-5_52 2ada734fd54d7cbd7966d393657cb9b4;de;;;7.2.;;;Digitale Therapie: Willenskraft als Teil des kognitiv-affektiven Verarbeitungssystems im Dienste der Gewohnheitsänderung ansprechen Wir wissen viel zu wenig darüber, wie man effektive digitale Interventionen gestaltet, um eine nachhaltige Verhaltensänderung und ein verbessertes Wohlbefinden zu unterstützen. Das Ziel der vorliegenden Arbeit war es, in zweierlei Hinsicht einen Beitrag zu leisten. Erstens wollen wir einen Beitrag zur aktuellen Praxis bei der Gestaltung solcher Interventionen leisten. Zweitens versuchen wir, zentrale Forschungsfragen zu identifizieren, die Ausgangspunkt für ein detaillierteres und umfassenderes zukünftiges Forschungsprogramm sein könnten. Die von uns vorgeschlagenen Vorschläge spiegeln wider, dass die Konstruktion digitaler Interventionen als iterativer Prozess zu verstehen ist, der sowohl inhaltliche als auch gestalterische Faktoren berücksichtigen sollte. Wir argumentieren jedoch, dass Interventionsforschung und praktische Designerfahrung nicht nur etwas sind, das der Grundlagenforschung in höflicher Distanz folgt, sondern vielmehr deren inhärente Ergänzung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68504-3_16 3ecca0706c8fe4aa6a635d75c8838aca;de;;;7.2.;;;Eine systematische Methodik zur ambulanten Prozessanalyse basierend auf Process Mining Aufgrund der steigenden Nachfrage nach medizinischen Dienstleistungen war ein Gesundheitsumfeld wichtig. Es gab mehrere Forschungsarbeiten zur Verbesserung klinischer Prozesse wie Verkürzung der Wartezeit auf Beratungsgespräche, Optimierung von Reservierungssystemen usw. In diesem Beitrag schlagen wir eine Methode zur Analyse ambulanter Prozesse basierend auf Process Mining vor. Process Mining zielt darauf ab, sachkundige Informationen aus Ereignisprotokollen zu extrahieren, die in Informationssystemen aufgezeichnet wurden. Die vorgeschlagene Methodik umfasst Datenintegration, Datenexploration, Datenanalyse und Diskussionsschritte. Bei der Datenanalyse werden Prozesserkennung, Deltaanalyse und Was-wäre-wenn-Analyse anhand von Leistungsanalyseergebnissen durchgeführt. Um unsere Methode zu validieren, führen wir eine Fallstudie mit einem tertiären allgemeinen Universitätskrankenhaus in Korea durch.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08222-6_3 5547e3b41b2ce8f13c4af8a4dcb4d01e;de;;;7.2.;;;Authentizitätsidentifizierung der digitalen Aufnahmedaten von Sprechern basierend auf einem quantengenetischen Algorithmus Das Problem, das wir in diesem Papier zu lösen versuchen, ist die Authentizitätsidentifizierung der digitalen Aufnahmedaten von Sprechern. Als wichtige Grundlage der gerichtlichen Identifizierung ist es entscheidend, die Authentizität digitaler Aufnahmedaten sicherzustellen. Es wurde eine große Anzahl von Lösungen vorgeschlagen, um das Problem anzugehen. Klassische Verfahren basieren jedoch normalerweise eher auf logischen Symbolen als auf der physikalischen Erfassung von Energie oder Phase, und diese Lösungen weisen Nachteile in Bezug auf Identifikationsineffizienz, Algorithmusinstabilität und hohen Zeitaufwand auf. In dieser Arbeit schlagen wir vor, die Quantentheorie zu verwenden, um das Problem anzugehen. Jeder Manipulationsvorgang für digitale Aufzeichnungsdaten kann zu einer Ladungsänderung im Speicher führen, und er kann die subtile Änderung nutzen, um die Identifizierung zu implementieren. Zuerst analysieren wir die Quantennatur der Speicherung und untersuchen, um die Durchlässigkeit des Sprachsignals als charakteristischen Wert durch die Quantentunneltheorie zu extrahieren. Zweitens verwenden wir mit dem Ziel der Eigenschaften des Sprachsignals die Durchlässigkeit, um die Drehwinkelschrittfunktion zu definieren und schlagen einen verbesserten quantengenetischen Algorithmus vor, um die Phasenänderung zu erkennen. Das vorgeschlagene Verfahren erreicht die Authentizitätsidentifikation basierend auf einer Phasendetektion. Die in dieser Forschung erzielten Ergebnisse umfassen, dass das Problem durch eine Phasendetektionslösung auf der Grundlage eines quantengenetischen Algorithmus angegangen werden kann und Leistungsvorteile im Vergleich zu bestehenden Lösungen durch Simulationsexperimente gezeigt werden. Es ist nicht nur theoretisch, sondern auch praktisch machbar, eine Authentizitätsidentifizierung von gesprochenen digitalen Aufnahmedaten zu realisieren.;-;-;-;https://link.springer.com/article/10.1007/s11042-017-5369-3 de92b582a6f8a815689c2b7597db2674;de;;;7.1.;;;Agile Planung und Verfolgung von Softwareprojekten mit dem State-Space-Ansatz Alle Projekte müssen verfolgt und ihre Statusinformationen an das Management gemeldet werden, um ihre Ausführung zu kontrollieren, und haben begrenzte Ressourcen in Bezug auf Budget und Zeit, so dass agile Projekte es sind. Ihre Nachverfolgung ist ein Overhead für die Softwareprojekte, da die Nachverfolgung eine Managementaktivität, keine technische, für die Entwicklung des Softwareprodukts ist. Zur Verfolgung agiler Projekte wurden verschiedene Tracking-Techniken entwickelt. Wir haben sie als schwergewichtig und leichtgewichtig klassifiziert, in Bezug auf die erhaltenen oder nicht gepflegten Informationen darüber, zu welcher Phase des Projektlebenszyklus eine teilweise erledigte Aufgabe gehört. Leichtgewichtige Techniken berücksichtigen die erledigten Aufgaben, aber nicht die teilweise erledigten Aufgaben, während schwere Techniken die erledigten Aufgaben berücksichtigen sowie die Statusinformationen darüber, zu welcher Phase des Projektlebenszyklus die teilweise erledigten Aufgaben gehören zu. Leichte Techniken sind nicht effektiv, weil die teilweise erledigten Aufgaben nicht berücksichtigt werden, und schwere Techniken nutzen die Ressourcen nicht effizient. In diesem Beitrag wird eine leichtgewichtige Tracking-Technik unter Verwendung des State-Space-Ansatzes entworfen, die sowohl die abgeschlossenen Aufgaben als auch die teilweise abgeschlossenen Aufgaben berücksichtigt, jedoch ohne die Zustandsinformationen für die teilweise abgeschlossenen Aufgaben zu pflegen, um die Projekte effektiv zu verfolgen und zu nutzen die Ressourcen effizient. Die Anwendung der Technik mittels Monte-Carlo-Simulation wird anhand eines Projekts demonstriert, das mit der agilen Softwareentwicklungsphilosophie durchgeführt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0404-1_26 f0a58eacb0ec5a434878dc357a8fc505;de;;;7.1.;;;Rationalisierung des Designprozesses Es besteht erwartungsgemäß eine starke Sympathie zwischen der Literatur zum Organisationsdesign und der zum Produktdesign. Produktdesign ist nur eine Manifestation des allgemeinen Organisationsproblems: Wie man einen Aufgabenkomplex in klar definierte Teilaufgaben aufteilt und das geteilte Ganze dann koordiniert, um ein fokussiertes Ziel zu verfolgen. Dieses Papier skizziert die Sympathien zwischen diesen beiden Literaturen und zeigt, wie Produktdesigntechniken wie Conjoint-Analyse, Qualitätsfunktionsimplementierung, Taguchi-Methoden, Design für die Montage, Value Engineering, Fehlermöglichkeiten- und Effektanalyse, empirische Richtlinien, Teambildung und organisatorische Initiativen verschiedene Facetten des allgemeinen Koordinationsproblems ansprechen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-1390-8_13 956266a04d9ca5d65765cbb3e302a46f;de;;;7.1.;;;Die Erhöhung der Sicherheit in Gesundheitsinformationssystemen Mit dem Fortschritt und der Entwicklung der Informationstechnologie wurden die internen Daten in medizinischen Organisationen computerisiert und das medizinische Informationssystem weiter etabliert. Darüber hinaus verbessert die Nutzung des Internets die Informationskommunikation sowie beeinflusst die Entwicklung des medizinischen Informationssystems, dass viele medizinische Informationen über das Internet übertragen werden. Da es ein Netzwerk innerhalb eines anderen Netzwerks gibt, bilden alle Netzwerke, wenn sie miteinander verbunden sind, das „Internet“. Aus diesem Grund gilt das Internet als risikoreiche und öffentliche Umgebung, die leicht zerstört und überfallen werden kann, um einen entsprechenden Schutz zu erlangen. Darüber hinaus sind die Daten im medizinischen Netzwerksystem vertraulich, so dass es zum Schutz der Privatsphäre erforderlich ist, wie z. B. elektronische Patientenakten, ärztliche vertrauliche Informationen und berechtigungskontrollierte Daten im Krankenhaus. Infolgedessen wird ein medizinisches Netzwerksystem als Netzwerk betrachtet, das eine hohe Sicherheit erfordert, bei der hervorragende Schutz- und Verwaltungsstrategien unvermeidlich sind, um illegale Ereignisse und Angriffe von außen zu verhindern. Diese Studie schlägt sichere medizinische Managementstrategien vor, die auf die Netzwerkumgebung des Informationssystems der medizinischen Organisation angewendet werden, um externe oder interne Informationssicherheitsereignisse zu vermeiden, um einen reibungslosen und sicheren Betrieb des medizinischen Systems zu ermöglichen, der nicht nur den Patienten zugute kommt, sondern den Ärzten eine bequemere Nutzung zu ermöglichen und die medizinische Gesamtqualität weiter zu fördern. Die Ziele könnten erreicht werden, indem ein illegales Eindringen oder Diebstahl medizinischer Informationen verhindert, die Vollständigkeit und Sicherheit medizinischer Informationen geschützt, Managementfehler des internen Informationssystems in medizinischen Organisationen vermieden und ein hochzuverlässiges medizinisches Informationssystem bereitgestellt werden.;-;-;-;https://link.springer.com/article/10.1007/s10916-010-9628-3 85169a85aa6bc998501503a872477ae4;de;;;7.2.;;;Imputation fehlender Werte bei der Bewertung nuklearer Schutzmaßnahmen durch ein 2-Tupel-Rechenmodell Die Bewertung der nuklearen Sicherheitsvorkehrungen zielt darauf ab, sicherzustellen, dass Länder Nuklearprogramme nicht für Nuklearwaffenzwecke missbrauchen. Experten der Internationalen Atomenergiebehörde (IAEA) werten viele Indikatoren anhand unterschiedlicher Quellen aus, die vage und ungenau sind. Die Verwendung sprachlicher Informationen hat eine bessere Möglichkeit geschaffen, mit solchen Unsicherheiten umzugehen. Fehlende Werte in der Bewertung sind jedoch häufig der Fall, weil viele Indikatoren vorhanden sind und die Experten nicht über ausreichende Kenntnisse oder Erfahrungen verfügen. Diese fehlenden Werte können das Bewertungsergebnis verzerren. In diesem Beitrag stellen wir einen Imputationsprozess basierend auf kollaborativer Filterung vor, der sich mit dem linguistischen 2-Tupel-Berechnungsmodell befasst und ein Vertrauensmaß, um solche Probleme zu bewältigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13208-7_26 99adafa41dcbc076ce8dc54fb45c8c71;de;;;7.2.;;;Neue Werkzeugmaschinen und Systeme Die Werkzeugmaschinenindustrie erfreut sich einer Zeit der schnellen Innovation, angetrieben von Endverbrauchern, die die Bedeutung der Produktion wiederentdeckt haben, nach einer langen Zeit, in der Finanzen und Marketing die einzigen Instrumente für den industriellen Erfolg zu sein schienen. Innovation wird auch durch internen Druck vorangetrieben: Europäische Hersteller müssen ständig neue Lösungen vorschlagen, um der Entwicklung eines immer wettbewerbsintensiveren Marktes zu begegnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55776-7_18 dc2acf448bb065ae628f0a5407b78bc4;de;;;7.2.;;;Zusammenfassung mehrerer Dokumente für E-Learning Da eine große Menge an Lernmaterialien im E-Learning verfügbar ist, wurde die automatische Zusammenfassung in der digitalen Bibliothek für E-Learning verwendet. Die Zusammenfassung mehrerer Dokumente extrahiert Informationen aus mehreren Textdokumenten. Es verbessert die Effektivität des Abrufs und die Zugänglichkeit von Lernmaterialien im E-Learning. Verwandte Studien haben gezeigt, dass die hierarchische Zusammenfassung eine vielversprechende Technik ist. Die hierarchische Zusammenfassung wurde auf die Zusammenfassung mehrerer Dokumente erweitert. Dieser Beitrag untersucht den Einfluss der Organisation von Dokumenten auf die hierarchische Zusammenfassung. Die automatische Dokumentenclustering-Technik wurde für die Organisation von Lernmaterialien entwickelt. Auf der Grundlage dieser Techniken wird ein hierarchisches Zusammenfassungssystem für mehrere Dokumente entwickelt. Das System bietet ein wesentliches Werkzeug für E-Learning.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03697-2_33 13a15b873fd6156c558007ef57b51fea;de;;;7.2.;;;Diversifizierung von Suchergebnissen mithilfe der Zeit Einen Überblick über eine historische Entität oder ein Ereignis zu erhalten, kann in den Suchergebnissen schwierig sein, insbesondere wenn wichtige Daten zu der Entität oder dem Ereignis nicht im Voraus bekannt sind. Bei solchen Informationsbedürfnissen profitieren Benutzer, wenn die zurückgegebenen Ergebnisse verschiedene Daten abdecken und so einen Überblick über die Ereignisse im Laufe der Geschichte geben. Eine solche Methode kann ein Baustein für Anwendungen sein, zum Beispiel in;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30671-1_69 49542b9c66e574692a18e52c6ecf42a9;de;;;7.2.;;;Analyse von Ähnlichkeitsmaßen mit WordNet-basiertem Textdokument-Clustering Das Clustering von Textdokumenten hilft beim Reorganisieren der großen Dokumentensammlungen in eine kleinere Anzahl von verwaltbaren Clustern. Während in der Vergangenheit mehrere Clustering-Verfahren und die zugehörigen Ähnlichkeitsmaße vorgeschlagen wurden, wird berichtet, dass die Partitions-Clustering-Algorithmen beim Dokumenten-Clustering gut funktionieren. Normalerweise wird die Kosinusfunktion verwendet, um die Ähnlichkeit zwischen zwei Dokumenten in der Kriteriumsfunktion zu messen, aber sie funktioniert möglicherweise nicht gut, wenn die Cluster nicht gut getrennt sind. Wortbedeutungen sind besser als Wortformen in Bezug auf die Darstellung der Themen von Dokumenten. Daher haben wir hier die Ontologie in den Textclustering-Algorithmus einbezogen. In dieser Forschung wird versucht, auf WordNet basierende Dokumentendarstellungen zu erstellen, indem jedem Wort ein Wortteil-Tag (POS) zugewiesen wird und indem die „Beutel-von-Wörter“-Datendarstellung mit dem Synset-Konzept angereichert wird, das dem von WordNet eingeführten Synonymsatz entspricht. Nach dem Ersetzen der „Wörtertasche“ durch ihre jeweiligen Synset-IDs wird eine Variante des K-Means-Algorithmus für das Dokumentenclustering verwendet. Anschließend vergleichen wir die drei gängigen Ähnlichkeitsmaße (Cosinus, Pearson Correlation Coefficient und Extended Jaccard) in Verbindung mit verschiedenen Arten der Vektorraumdarstellung (Term Frequency und Term Frequency-Inverse Document Frequency) von Dokumenten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27443-5_80 3fd6c590c4b469016260f7e6e799f771;de;;;7.2.;;;Persönliche Gedächtnishilfen der nächsten Generation Persönliche Gedächtnisunterstützung ist eine natürliche Anwendung des Ubiquitous Computing. Tragbare Computer nehmen an Größe und Leistungsfähigkeit zu, und die Hindernisse, die frühere computerbasierte Speicherhilfen einschränken, nehmen rapide ab. Mit jedem technischen Fortschritt wird eine neue Generation von „persönlichen Gedächtnishilfen“ aktiviert. In diesem Beitrag wird iRemember vorgestellt, unser Prototyp einer tragbaren „Gedächtnisprothese“. Es ermöglicht dem Träger, tägliche Erfahrungen (hauptsächlich Audio) zu erfassen und zu sammeln, und versucht, eine begrenzte Anzahl von häufigen Gedächtnisproblemen zu beheben, indem Werkzeuge bereitgestellt werden, um Gedächtnisauslöser in solchen Sammlungen zu finden. Dies ist ein früher Schritt in einem Bereich, der reif für Wachstum und Kontroversen ist. Die sozialen und rechtlichen Implikationen der allgegenwärtigen Aufzeichnung werden diskutiert und zusätzliche Gedächtnishilfen zur Behandlung anderer Gedächtnisprobleme vorgeschlagen.;-;-;-;https://link.springer.com/article/10.1023/B%3ABTTJ.0000047591.29175.89 63242e80b5bd1f8d36f62a8209666b69;de;;;7.2.;;;Sozialen Einfluss nutzen, um Kunden zu motivieren, Feedback zu generieren und zu teilen Eine Kombination aus High-Tech-Umgebungen und Konzepten zur sozialen Beeinflussung birgt großes Potenzial, das Verhalten und die Einstellungen von Einzelpersonen positiv zu beeinflussen. Basierend auf sozialpsychologischen Theorien untersucht diese Studie, wie die Designprinzipien des sozialen Einflusses das Kundenengagement beim Austausch von Feedback verändern. Dazu wurde ein Informationssystem bestehend aus Social Influence Design Prinzipien auf situierten Displays implementiert und mit 77 Twitter-Nutzern untersucht. Die Ergebnisse zeigen ein Wechselspiel zwischen den Designprinzipien und ihrer Fähigkeit, 52 % der Varianz der wahrgenommenen Überzeugungskraft des Systems zu erklären, was weiter 40 % der Varianz der Verhaltensabsicht der Teilnehmer vorhersagen kann, in Zukunft Feedback über das System zu geben. Die Ergebnisse könnten maßgeblich zu einem besseren Verständnis beitragen, wie der soziale Einfluss für die Kundenbindung durch soziotechnische Umgebungen weiter genutzt werden kann und wie er die Entwicklung neuartiger Überzeugungssysteme beeinflusst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07127-5_19 62a732f7591cc7e08ed69a8d5b59bd72;de;;;7.2.;;;Kollaboratives Filtern basierend auf transitiven Korrelationen zwischen Elementen Bei bestehenden kollaborativen Filteralgorithmen muss ein Benutzer eine ausreichende Anzahl von Elementen bewerten, bevor er zuverlässige Empfehlungen erhält. Um diese Einschränkung zu überwinden, bieten wir die Erkenntnis, dass Korrelationen zwischen Items ein Netzwerk bilden können, in dem wir transitive Korrelationen zwischen Items untersuchen. Das Aufkommen von Potenzgesetzen in solchen Netzwerken bedeutet die Existenz von Elementen mit wesentlich mehr transitiven Korrelationen. Der vorgeschlagene Algorithmus findet hochkorrelative Elemente und bietet effektive Empfehlungen durch Anpassung an Benutzerpräferenzen. Wir entwickeln auch Beschneidungskriterien, die die Rechenzeit reduzieren. Detaillierte experimentelle Ergebnisse verdeutlichen die Überlegenheit der vorgeschlagenen Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71496-5_34 f2a037f9266b767805f0bbd0e7aea169;de;;;7.2.;;;Nutzung räumlicher Transformationen zum Identifizieren von Mappings in hierarchischen Mediendaten Das Funktionieren eines multimodalen Integrationssystems erfordert Metadaten wie Ontologien, die Medienressourcen und Medienkomponenten beschreiben. Solche Metadaten sind im Allgemeinen anwendungs- und domänenabhängig, was zu Schwierigkeiten führt, wenn Medien über Domänen hinweg gemeinsam genutzt werden müssen. Somit besteht ein Bedarf an einem Mechanismus, der die Schlüsselbegriffe und/oder Medienkomponenten in Daten aus verschiedenen Quellen in Beziehung setzen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84628-799-2_13 9591d3f5ac47076c8d127d721c341e8a;de;;;7.2.;;;Durchbrechen der Schaltkreisgrößenbarriere für sichere Berechnungen unter DDH Unter der Annahme von Decisional Diffie-Hellman (DDH) präsentieren wir ein 2-von-2-Geheimnis-Sharing-Schema, das eine kompakte Bewertung von Verzweigungsprogrammen auf den Aktien unterstützt. Konkreter gibt es einen Bewertungsalgorithmus;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-53018-4_19 51116e19442ef6d54f53ada3444a6bdd;de;;;7.1.;;;Anwendung der 80/20-Regel im Software Engineering Rapid Application Development (RAD)-Modell Die Effizienz von Softwareprozessmodellen ist für die Verbesserung von Softwareprozessmodellen überaus notwendig. Die Software-Projektleiter können für eine effiziente Umsetzung von Software-Prozessmodellen sorgen. Als Ergebnis macht das effiziente Software Rapid Application Development (RAD) Modell den Softwareprozess effizient und letztendlich das effiziente Softwareprojektmanagement am Werk. Die historische Anwendung der 80/20-Methode im sozioökonomischen Bereich und im Bereich des Software-Projektmanagements war die Inspiration dieser Arbeit. All dies führte uns dazu, an der Anwendung der 80/20-Regel in der Softwareentwicklung Rapid Application Development (RAD) zu arbeiten. Das ultimative Ergebnis unserer Forschungsarbeit ist die Verbesserung des RAD-Modells durch Konzentration auf weniger Aktivitäten, die 80 Prozent der Gesamtproduktivität des Softwareprozesses bei der Arbeit ergeben können. Unsere Arbeit erleichtert Software-Ingenieuren tatsächlich, indem wir uns nur auf die kritischen Aktivitäten konzentrieren und ihre Zeit und Energie nicht auf die Aktivitäten verschwenden, die nur einen kleinen Teil des Gesamtergebnisses produzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22203-0_45 ac62b7d5cfd4468f455e0f712be77e94;de;;;7.1.;;;Unterschiedliche Planungs- und Steuerungskonzepte in Abhängigkeit von Logistik-, Branchen- und IT-Unterstützung Die Einführung und Implementierung von Logistiksoftware wird oft als kostspielig, mühsam zeitaufwendig, unflexibel und restriktiv in Bezug auf Geschäftsprozesse beurteilt. Dieser Vorwurf bezieht sich auf alle Arten von ERP-Software: Shopfloor-Scheduling-Systeme, größere Altsysteme wie PPC-Software oder die neuere SCM-Software. Darüber hinaus neigen verschiedene Personen in einem Unternehmen zu unterschiedlichen Ansichten über die Güte unterschiedlicher Ansätze und Konzepte der Planung und Steuerung in der Logistik. Dies hat und führt zu hochbrisanten Debatten. Durch oft polemische Argumentation wird ein Konzept gegen das andere ausgespielt. Selten werden die verschiedenen Geschäftsbereiche eines Unternehmens in ihren logistischen Besonderheiten als unterschiedlich erkannt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35569-6_50 b90c02161e1532c4e83621acc21bbbf7;de;;;7.1.;;;Einführung: Eingrenzen des Problems In diesem einleitenden Kapitel legen wir den Hintergrund des Model-Based Systems Engineering (MBSE) im Hinblick auf die Entwicklung komplexer, hochtechnologischer Systeme und die damit verbundenen Herausforderungen fest. Dieses Material ist die wesentliche Grundlage für den Rest des Buches. Wir eröffnen die Diskussion, indem wir die ästhetischen und technischen Dimensionen der Systemarchitektur berücksichtigen und die zugrunde liegende Begründung für MBSE liefern. Anschließend beschreiben wir den historischen Kontext für unser Fach und beginnen einen Prozess der Begriffsbestimmung, der in den folgenden Kapiteln fortgesetzt wird. Da das Thema Open Architecture im zeitgenössischen Systems Engineering so grundlegend ist, widmen wir uns seinen Grundprinzipien. Am wichtigsten für den Rest des Buchs definieren wir dann eine Taxonomie und einen begleitenden Satz von Begriffen, die es uns ermöglichen, verschiedene Systemarchitekturen in konsistente Kategorien einzuordnen, um Missverständnisse zu vermeiden und Merkmale zu entdecken, die zwischen Systemen einer bestimmten Art gemeinsam sind. Außerdem stellen wir eine Reihe grundlegender Grundsätze einer guten Systemarchitektur vor, die im gesamten Buch verwendet werden. Abschließend betrachten wir kurz, wie Architektur zu erfolgreichen Systementwicklungen beitragen kann und welche Rolle sie in einem Programmplan spielen sollte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-95669-5_1 36a4b3ac8f99ec48bb33723786031b3c;de;;;7.1.;;;Streng: Auswahl der „richtigen“ Architektur Moderne Anwendungen erfordern einen steigenden Bedarf an flexiblen und verteilten Lösungen. Dies und die Herausforderung von Open Systems räumen den Architekturentscheidungen während des Systemdesigns immer mehr Bedeutung ein. Allerdings scheinen die Fähigkeiten konventioneller Typen verteilter Systeme auf die unteren Ebenen der prozessübergreifenden Zusammenarbeit beschränkt zu sein. Die Integration kollaborativer Softwaresysteme erfordert also intelligente verteilte Architekturen. In diesem Beitrag wird das experimentelle Beratungssystem vorgestellt;-;-;-;https://link.springer.com/chapter/10.1007/BFb0024991 5486b817a2f15557a67ec565e988afd1;de;;;7.1.;;;Point-of-Care-Informationssysteme: State of the Art Die Anforderungen an die Dokumentation der Patientenversorgung und den Zugang zu Informationen durch medizinisches Fachpersonal haben sich in den letzten Jahren dramatisch verändert. Die Pflegefachkraft musste schon immer die Pflege dokumentieren und Patienteninformationen überprüfen, um Pflegeentscheidungen zu treffen, aber in der aktuellen Gesundheitsumgebung, in der stationäre Patienten akut erkrankt sind, der Personalbestand minimiert und die Pflege stärker über Disziplinen und Pflegeeinrichtungen integriert ist, ist die Die Dokumentationspflichten sind viel intensiver und der zeitnahe Zugriff auf aussagekräftige Informationen viel dringlicher. Wie aus den Ergebnissen der Studie des Institute of Medicine zur Patientenakte hervorgeht, können die aktuellen Patientenakten nicht alle für die Patientenversorgung erforderlichen Informationen angemessen verwalten. Zukünftige Aufzeichnungen müssen computerbasiert sein und aktiv im klinischen Prozess verwendet werden (Dick und Steen, 1991). Mit anderen Worten, die heutige Gesundheitsumgebung erfordert, dass medizinisches Fachpersonal über mehr und bessere automatisierte Informationsinstrumente verfügt, um eine qualitativ hochwertige Patientenversorgung zu gewährleisten. Diese Werkzeuge müssen als integraler Bestandteil der Patientenversorgung verfügbar sein und verwendet werden, sei es am Krankenbett, in der Arztpraxis oder zu Hause des Patienten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-2428-8_13 c835ac6109700a3a9d2637faa3b60f43;de;;;7.1.;;;Ein Multiagenten-System zur zuverlässigen Ausführung von automatisch zusammengestellten Ad-hoc-Prozessen Dieser Artikel stellt eine Architektur vor, um Ad-hoc-Prozesse für komplexe Mehrwertdienste automatisch zu erstellen und zuverlässig auszuführen. Die Einzigartigkeit von Ad-hoc-Prozessen besteht darin, Benutzer nicht nur in standardisierten Situationen wie traditionelle Workflows zu unterstützen, sondern auch in einzigartigen, einmaligen Situationen. Ausgehend von Benutzeranforderungen generiert eine Service Composition Engine solche Ad-hoc-Prozesse, die einzelne Dienste integrieren, um die gewünschte Funktionalität bereitzustellen. Unsere Infrastruktur führt Ad-hoc-Prozesse durch Transaktionsagenten im Peer-to-Peer-Stil aus. Die Prozessausführung erfolgt dabei unter Transaktionsgarantien. Darüber hinaus wird die Service Composition Engine verwendet, um bei Ausführungsfehlern neu zu planen.;-;-;-;https://link.springer.com/article/10.1007/s10458-006-5836-0 5fb220bca78ce7a7c654c9bdc0f15efa;de;;;7.1.;;;Verwendung von Mustern für das Wissensmanagement in der Keramikfliesen-Designkette Wissensmanagement (KM) ist ein komplexes Ziel, insbesondere im Fall von erweiterten Unternehmen, die aus KMU bestehen, und kritisch bei der Gestaltung und Entwicklung neuer Produkte (NPD). Die Verwendung von Mustern ist unerlässlich, um KM in kollaborativen NPD-Prozessen zu erhalten. In diesem Papier wird die Verwendung von Mustern vorgestellt, die im CE-TILE-Projekt zur Standardisierung von Informationen und Wissen in der Zusammenarbeit verwendet wurden. Die verschiedenen Typen von Mustern und Modellen, die für die Wissenserfassung, Formalisierung und Konfiguration etabliert wurden, werden ebenfalls beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/11863649_9 8875d55bdc3bfe50e41f628d907c03ad;de;;;7.1.;;;Entwicklung in einem virtuellen Unternehmen E-Government als virtuelles Unternehmen mit vielen vertikalen Portalen arbeitet in einem kollaborativen Netzwerk, um elektronische Dienste bereitzustellen. Die Dezentralisierung der E-Governance hängt davon ab, wie sehr eine Governance-Struktur ihre politischen, fiskalischen und administrativen Befugnisse dezentralisiert. Die Dezentralisierungsbereiche der E-Governance können Planung, Neugestaltung von Geschäftsprozessen, Änderungsmanagement, Unternehmensarchitektur, Netzwerke, Portale, Back-Offices, E-Services usw. sein. Eine unsachgemäße Dezentralisierung der E-Governance kann Kosten, Implementierung, Verwaltbarkeit und Vertrauen beeinträchtigen , Outsourcing und Lokalisierung. In diesem Papier analysieren wir ein zentralisiertes Webportal mit seinen Ergebnissen und leiten einen Rahmen für die Dezentralisierung der E-Governance ab. Wir schlagen eine Erweiterung der Soufflé-Theorie der Dezentralisierung vor, um einen geeigneten Dezentralisierungsgrad in der E-Governance zu kalibrieren. Am Ende erklären wir unseren Ansatz, indem wir ihn auf ein reales Szenario anwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-84837-2_45 dc86943cbdb75425c131445976df8155;de;;;7.1.;;;Werkstattberichte Ziel des Workshops war der Versuch, Bereiche und Art des Forschungsbedarfs zu identifizieren, der sich aus der Untersuchung von Informationen für die Kontrolle ergibt, da die Grenze des Kontrollsystems um die menschlichen Entscheidungselemente erweitert wurde. Die Workshops trafen sich an zwei Tagen und verfolgten zwei Herangehensweisen an die Diskussionen. In der ersten Sitzung ging es um eine allgemeine, breit angelegte Diskussion über die Art von Problemen in Informationssystemen, und am zweiten Tag wurde die Diskussion um die Untersuchung des Prozesses der Gestaltung eines integrierten Produktionssystems und der wahrscheinlichen Konzepte strukturiert nützlich sein und die spezifischen Probleme, die bei diesem Prozess aufgeworfen wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-4475-9_4 da62dac809c312fbb5de9aea48b16b62;de;;;7.1.;;;Analyse der aktuellen Situation und Weiterentwicklung der Strategie Strat Die Zielgruppe dieses Kapitels reicht vom CEO bis zum technischen Spezialisten (intern oder Berater), d. h. Stakeholder, die Hauptakteure in der Change-Methodik sind und durch ihre Rolle im Change-Prozess identifiziert werden. Dieses Kapitel legt großen Wert auf verschiedene Arten von vorläufigen Analysen, die als notwendig erachtet werden, um Veränderungsprozesse in Unternehmen zu unterstützen. Viele dieser Prozesse sind strategischer Natur und erfordern daher einen „strategischen Input“ des Managements mit Führungsfähigkeiten (siehe Kapitel 5). Oft müssen die verschiedenen strategischen Alternativen analysiert werden, um herauszufinden, welche organisatorisch, technisch und finanziell realistisch umsetzbar ist. Die hier beschriebenen analytischen Verfahren sind;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24744-9_8 7923297eee1c2bc915ae71bb9c6443c9;de;;;7.1.;;;Ein wirkungsvolles Crowdsourcing-Vermittlerdesign – ein Fall eines Crowdsourcing-Systems für Servicebilder Crowdsourcing wird in der Regel über eine zwischengeschaltete Organisation umgesetzt oder direkt von Lösungssuchenden koordiniert. Für diejenigen, die einen IT-basierten Crowdsourcing-Vermittler nutzen, sind die wichtigen Faktoren von Vermittlern, die das Crowdsourcing-Ergebnis beeinflussen, noch unklar. Darüber hinaus wurde wenig geforscht, wie ein Crowdsourcing-Vermittler gestaltet werden kann, der die kombinierten Herausforderungen der Berücksichtigung unterschiedlicher kognitiver Anspruchsniveaus der Beiträge von Lösungsanbietern, der Kombination von Beiträgen und der Bewertung von Beiträgen angehen kann. Dieses Papier identifiziert drei wichtige Faktoren und bietet ein neuartiges Design von Crowdsourcing-Vermittlern, um diese Herausforderungen zu bewältigen. Diese Studie verwendet einen Fall, der sich darauf konzentriert, wie kleine und mittlere Unternehmen (KMU) dabei unterstützt werden können, ihre Servicebilder zu entwickeln, um Serviceinnovationen auszulösen und ihre Serviceerfahrungen so zu gestalten, dass die gewünschten Ergebnisse der Kunden erzielt werden. Durch den Fall werden die Vorteile unseres Crowdsourcing-Vermittlerdesigns aufgezeigt und begründet. Die drei wichtigen Faktoren sind die Crowdsourcing-Wissensbasis, generative Netzwerke und das Empowerment der Crowd-Mitglieder. Diese Studie zeigt, dass der Crowdsourcing-Prozess die Chance erhöhen kann, kreative Lösungen für die Innovationsprobleme von KMU zu finden, wenn die drei Faktoren gut in das Crowdsourcing-Vermittlerdesign integriert und gemanagt werden. Diese Studie stellt auch ein neuartiges Design von Crowdsourcing-Vermittlern vor, das die kombinierten Herausforderungen der Bewältigung unterschiedlicher kognitiver Anforderungen von Crowd-Mitgliedern und der Kombination und Bewertung der Beiträge der Crowd-Mitglieder angehen kann, um ein wirkungsvolles Crowdsourcing-Ergebnis zu erzielen.;-;-;-;https://link.springer.com/article/10.1007/s10796-016-9700-8 43d37696c6944b74ab4026760616c7a4;de;;;7.1.;;;Verteiltes Schemamanagement in einem Kooperationsnetzwerk autonomer Agenten Für datenintensive, rechenintensive, kollaborative Entwicklungsanwendungsumgebungen wie die computerintegrierte Fertigung ist eine natürliche Architektur ein Netzwerk lose gekoppelter, autonomer und heterogener Agenten, wobei jeder Agent auf einer einzelnen Workstation ausgeführt wird. Jeder Agent ist in seiner Entscheidung autonom, seine Informationen geheim zu halten und einen anderen Teil seiner Informationen mit einigen anderen Agenten zu teilen. Durch die Integration und Wechselbeziehung der Agentenschemata können lose und enge Abhängigkeiten zwischen Agenteninformationen definiert werden. Die komplexe Ableitung/Integration von Agentenschemata und ihrer referentiellen Integrität kann durch einen Schemaverwaltungsmechanismus unterstützt werden. Diese Möglichkeit, von der wir behaupten, dass sie für kooperierende Teams in industriellen Automatisierungsanwendungen unerlässlich ist, ist das neue Merkmal, das in diesem Artikel vorgestellt wird. Das lokal bei jedem Agenten erstellte integrierte Schema ist eine kohärente Ansicht der lokalen und globalen Informationen, auf die dieser Agent zugreifen kann. Daher ist die physische und logische Verteilung von Informationen durch das Netzwerk für den Endbenutzer des Netzwerks vollständig verborgen und fehlt bei seinen Abfragen. Der Schemaverwaltungsmechanismus unterstützt die Definition komplexer abgeleiteter Typen und abgeleiteter Abbildungen, die Fernreferenzierung zwischen Informationen, die in verschiedenen Agenten gespeichert sind, und ihre referenziellen Integrität. Der hier beschriebene Schemaverwaltungsmechanismus wurde als Teil von . entwickelt;-;-;-;https://link.springer.com/chapter/10.1007/3-540-57234-1_57 c82fcbf39df63dfd556be261af39034d;de;;;7.1.;;;Ein durch Agenten erweitertes Framework zur Unterstützung der Vorabverteilung von Aufgaben in Workflow-Management-Systemen In einem traditionellen Workflow-Management-System wird normalerweise davon ausgegangen, dass: 1) eine Aufgabe ausgeführt werden kann, wenn und nur wenn alle Vorbedingungen dieser Aufgabe erfüllt sind (z. B. alle benötigten Informationen gut vorbereitet sind), 2) Daten Objekt einer Aufgabe kann nur dann freigegeben werden, wenn diese Aufgabe abgeschlossen ist. In der Praxis sind diese Annahmen bis zu einem gewissen Grad streng. Anhand des Beispiels in diesem Papier wird gezeigt, dass auch Teilvoraussetzungen einer Aufgabe erfüllt sind, dass die Aufgabe gestartet werden kann. Somit kann eine überlappende Ausführung von Aufgaben erreicht werden. Um dieses Ziel zu erreichen, führt dieses Papier zunächst das Konzept der Aufgabenvorabverteilung in WfMS ein und präsentiert dann ein um mehrere Agenten erweitertes WfMS-Framework zu dessen Unterstützung. Ein formalisiertes Workflow-Modell, das die Idee unterstützen kann, und einige Überlegungen zur Implementierung werden ebenfalls analysiert. Mit diesem Ansatz kann die Dauer eines Prozesses verkürzt werden. Selbst im schlimmsten Fall, d. h. die Überschneidung der Ausführung kann nicht erreicht werden, kann der Pre-Dispatching-Mechanismus dennoch als Bote fungieren, um Akteure zu informieren, wenn einige Aufgaben ankommen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45785-2_6 a1ae709cc4db078e5d42d80b2b69ccf7;de;;;7.1.;;;Unternehmensmodellierung für Business Intelligence Business Intelligence (BI)-Software soll es Geschäftsanwendern ermöglichen, einfach auf relevante Unternehmensinformationen zuzugreifen und diese zu analysieren, damit sie zeitnahe und faktenbasierte Entscheidungen treffen können. Trotz benutzerfreundlicher Funktionen wie Dashboards und anderer Visualisierungen empfinden Geschäftsanwender BI-Software jedoch immer noch als schwer zu verwenden und unflexibel für ihre Anforderungen. Darüber hinaus erfordern aktuelle BI-Initiativen erhebliche Anstrengungen von IT-Spezialisten, um Geschäftsabläufe und Anforderungen zu verstehen, um BI-Anwendungen zu erstellen und Abfragen zu formulieren. In diesem Papier stellen wir eine Vision für BI vor, die von der Unternehmensmodellierung angetrieben wird. Das Business Intelligence Model (BIM) soll es Geschäftsanwendern ermöglichen, Geschäftsabläufe und -strategien sowie Leistungsindikatoren so zu konzipieren, dass sie durch hochautomatisierte Tools mit Unternehmensdaten verbunden werden können. Das BIM stützt sich auf etablierte Geschäftspraktiken wie Balanced Scorecard und Strategy Maps sowie auf Anforderungen und konzeptionelle Modellierungstechniken wie z. Die Anbindung von BIM an Datenbanken wird durch eine ergänzende Forschungsarbeit zur konzeptionellen Datenintegration unterstützt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16782-9_3 f28df62080e737510f9297218fa96a27;de;;;7.1.;;;Die Governance und das Management von Risiken und Unsicherheiten Der vorherrschende Ansatz zur „Entscheidungsfindung unter Unsicherheit“ beschränkt sich auf die Verwendung statistischer Methoden, um negative Folgen zu vermeiden. Im Folgenden wird argumentiert, dass diese Art des Umgangs mit Risiken und Unsicherheiten im Allgemeinen nicht praktikabel ist, da Unsicherheit im Allgemeinen nicht quantifiziert werden kann und nicht die erforderlichen Eigenschaften für die Anwendung statistischer Methoden besitzt. Darüber hinaus ist die statistische Analyse rückwärts gerichtet und geht von Natur aus davon aus, dass sich die Vergangenheit größtenteils wiederholen wird. Der nachfolgend entwickelte Ansatz betrachtet Unsicherheit breiter und bezieht neben zukunftsgerichteten Einschätzungen auch objektive und subjektive Aspekte ein. Das Ziel des hier angebotenen Ansatzes ist eine Entscheidung, die dem Entscheidungsträger angesichts der Unsicherheit ein gewisses Vertrauen in die Entscheidung lässt, weil sie durch die Anwendung einer Variation einer effektiven Entscheidung getroffen wurde Prozess, der auch in anderen Entscheidungssituationen erfolgreich eingesetzt wurde, beispielsweise in den Bereichen Recht und Ingenieurwesen.;-;-;-;https://link.springer.com/article/10.1057/jdg.2013.21 e589c21c1b77006eb16487a02082723b;de;;;7.1.;;;Blockchains: Eine konzeptionelle Bewertung aus der Perspektive der Produktlebenszyklusimplementierung PLM-Systeme sind stark verteilte kollaborative Plattformen, die zu zahlreichen Herausforderungen in Bezug auf die Integrität und Zuverlässigkeit der ausgetauschten Informationen führen. Solche Probleme sind in der Regel mit herkömmlichen Softwarelösungen schwer zu lösen. Doch seit der Einführung von Blockchains werden solche Herausforderungen derzeit effektiv angegangen. Einerseits ging es bei der traditionellen Designphilosophie von PLM-Systemen hauptsächlich um zentralisierte proprietäre Systeme, die Schwierigkeiten haben, mit neuen verteilten und offenen Umgebungen zurechtzukommen, die durch die umfassende Nutzung von IoT-Plattformen und anderen Industrie-4.0-Tools bedingt sind. Auf der anderen Seite adressieren Blockchains Datenintegritätsprobleme durch Design und mildern einige der Vertrauensprobleme, die bei kollaborativen Plattformen auftreten. In diesem Papier untersuchen und bewerten wir die Integration der Blockchain-Technologie mit PLM-Systemen und heben die verschiedenen Vorteile, Herausforderungen und Probleme hervor, die diese Integration mit sich bringen könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-62807-9_46 3cbe8ab5bf22e41cf94210f0de07de91;de;;;7.1.;;;Informationssystem für Fahrer im integrierten Verkehrsmanagementsystem - TRISTAR Advanced Traveller Information Systems (ATIS) für Fahrer sind ein sehr wichtiges Element des modernen Verkehrsmanagements. In den letzten Jahren wird auch in Polen eine ITS-Infrastruktur entwickelt. Es ermöglicht die Übermittlung von Informationen über die Bedingungen im Straßennetz an die Fahrer, unter anderem durch spezielle Wechselverkehrszeichen (VMS). Diese Informationen ermöglichen es den Fahrern, Entscheidungen zu treffen und tragen so zur Verbesserung der Effizienz und Sicherheit des Verkehrssystems bei. Sie ermöglichen auch eine dynamische Steuerung der Verkehrsgeschwindigkeit unter Berücksichtigung von Wettergefahren, vorübergehenden Störungen oder Vorfällen. Paper bietet einen Überblick über verschiedene Lösungen für fortschrittliche Reiseinformationssysteme in Polen. Der Platz von ATIS in der Architektur des Tri-City TRISTAR-Systems wird ebenso beschrieben wie die Verwendung von Daten, Funktionen und Algorithmen, die ihre Implementierung ermöglichen. Darüber hinaus werden ATIS-Entwicklungspläne und Forschungsvorhaben zur Verbesserung der Funktionsweise des Systems vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24577-5_13 f98a9dbe71992366bf60d8abe2802008;de;;;7.2.;;;Über Wenn-Dann Multi Soft Sets-basierte Entscheidungsfindung Die Soft-Set-Theorie als neues mathematisches Werkzeug zum Umgang mit Unsicherheiten wurde erstmals von Molodtsov eingeführt und hat ein schnelles Wachstum erfahren. Verschiedene Anwendungen von Soft Set zum Zwecke der Entscheidungsfindung wurden von mehreren Forschern gezeigt. Aus verschiedenen vorgestellten Studien geht meist die Rolle von Soft Sets als Werkzeug bei der Sammlung der verschiedenen Attribute hervor, die eine Person benötigt, um zu bestimmen, welche Entscheidungen getroffen werden. In diesem Beitrag zeigen wir, wie Soft Set eine Rolle bei der Entscheidung einer Person spielen kann, die auf einer Vorgeschichte von Entscheidungen basiert, die früher getroffen wurden und als Referenz für die nächste Entscheidung verwendet werden. Daher führen wir ein (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55032-4_30 a8a7d4411bffe00afe1f5008da554a1a;de;;;7.2.;;;Auswahl und evolutionäre Entwicklung von Software-Service-Bundles: Eine fähigkeitsbasierte Methode Software-Dienstleistungspakete sind Kombinationen von Softwareprodukten und -diensten, die von ihren Anbietern für Kunden angeboten werden. Die Kunden wählen eine Kombination aus Softwareprodukt und zugehörigem Service, die für ihre spezifischen Umstände am besten geeignet ist. Das Papier schlägt eine auf dem Informationsaustausch basierende Methode vor, die Kunden bei der Auswahl der am besten geeigneten Kombination oder Konfiguration unterstützt und die kontinuierliche Verbesserung der Lösung als Reaktion auf sich ändernde Umstände unterstützt. Die Methode verwendet Prinzipien der Capability Driven Development, um Leistungsziele und kontextuelle Faktoren zu charakterisieren, die die Bereitstellung eines Software-Dienstleistungspakets beeinflussen. Die Anwendung des Verfahrens wird an einem anschaulichen Beispiel der Datenverarbeitung demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-39564-7_1 23c9c3ac4a8a6d00fe826a829b77ee17;de;;;7.2.;;;Experimente zu statistischen Ansätzen zum Ausgleich begrenzter sprachlicher Ressourcen Informationsabrufsysteme können von erweiterten linguistischen Ressourcen profitieren, wenn sie Aufgaben wie das Wortstammen oder die Übersetzung von Abfragen ausführen. Das Hauptziel unserer Experimente war die Entwicklung von Methoden, die den menschlichen Arbeitsaufwand minimieren, der für die Erstellung sprachlicher Ressourcen für neue Sprachen erforderlich ist. Zu diesem Zweck haben wir statistische Techniken angewendet, um Informationen direkt aus den Sammlungen zu extrahieren.;-;-;-;https://link.springer.com/chapter/10.1007/11519645_6 a316bdad0e25cf28a6a3acb60f3adba9;de;;;7.2.;;;Gesichtsbildabrufsystem mit TFV und Kombination von Teilbildern Das Gesichtsbild kann als komplexes visuelles Objekt angesehen werden, das eine Reihe charakterisierender Gesichtsmerkmale kombiniert. Diese Gesichtsmerkmale sind entscheidende Hinweise für die Maschine, um verschiedene Gesichtsbilder zu unterscheiden. Das Gesichtsbild enthält jedoch auch eine gewisse Menge redundanter Informationen, die nicht zu der Gesichtsbild-Wiedergewinnungsaufgabe beitragen können. Daher schlagen wir in diesem Papier ein Retrieval-System vor, das darauf abzielt, diesen Effekt auf drei verschiedenen Ebenen zu eliminieren. Der ternäre Merkmalsvektor (TFV) wird aus quantisierten Blocktransformationskoeffizienten erzeugt. Auf TFV basierende Histogramme werden aus bestimmten Teilbildern gebildet. Auf diese Weise werden nach und nach irrelevante Informationen entfernt und die strukturellen und statistischen Informationen kombiniert. Wir haben unsere Ideen über die öffentliche Gesichtsdatenbank FERET mit der kumulativen Match-Score-Bewertung bezeugt. Wir zeigen, dass die richtige Auswahl von Teilbild- und Merkmalsvektoren die Leistung bei minimierter Komplexität signifikant verbessern kann. Trotz der Einfachheit liefern die vorgeschlagenen Maßnahmen Ergebnisse, die den besten Ergebnissen anderer Methoden ebenbürtig sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76414-4_6 e61a50bd968f43172317eba9edc9244b;de;;;7.2.;;;Erforschung der automatischen Konvertierung von UML-Sequenzdiagrammen in CPN basierend auf modularer Konvertierung Ausfälle, die auf Leistungsmängel zurückzuführen sind, sind für die Entwicklung von Software immer fatal. Der beste Weg, dieses Problem zu lösen, besteht darin, den Leistungsbewertungsmechanismus von Software durch Modellierung und Simulation von Software in den Prozess des Softwareentwicklungslebenszyklus einzubringen. Aufgrund der Unterschiede zwischen der Semantik von UML und CPN wendet dieses Papier den Gedanken der modularen Konvertierung an und bietet ein Zwischenmodell zur Standardisierung von UML-Sequenzdiagrammen und CPN-Modellen, das eine Brücke zwischen den beiden Modellen schlägt. Der Prozess ist automatisch und erfordert nur wenige manuelle Eingriffe. Die konvertierten CPN-Modelle können direkt in der Softwareleistungsbewertung verwendet werden. Ein Beispiel wird gegeben, um die Wirksamkeit und Angemessenheit dieser Methode zu überprüfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31965-5_11 258a8f3e4870242791bddf50d921bc94;de;;;7.2.;;;Eine neue Bewertungsfunktion zur entropiebasierten Merkmalsauswahl aus unvollständigen Daten Beim Data Mining und Knowledge Discovery haben Bewertungsfunktionen zur Bewertung der Qualität von Merkmalen großen Einfluss auf die Ausgaben von Merkmalsauswahlalgorithmen. Bei den bestehenden entropiebasierten Merkmalsauswahlalgorithmen aus unvollständigen Daten werden Bewertungsfunktionen jedoch aufgrund von zwei Nachteilen oft unzureichend berechnet. Einer ist, dass die bestehenden Bewertungsfunktionen die Unterschiede der Unterscheidbarkeit von Merkmalen nicht berücksichtigt haben. Der andere ist, dass in den Merkmalsauswahlalgorithmen der Vorwärts-Greedy-Suche, wenn das Merkmal mit demselben Entropiewert nicht nur eins ist, die willkürliche Auswahl die Klassifikationsleistung beeinflussen kann. Dieses Papier stellt eine neue Bewertungsfunktion vor, um die Nachteile zu überwinden. Ein Hauptvorteil der vorgeschlagenen Bewertungsfunktion besteht darin, dass die Granularität der Klassifizierung bei den Bewertungsberechnungen für Kandidatenmerkmale berücksichtigt wird. Basierend auf der neuen Bewertungsfunktion wird ein entropiebasierter Merkmalsauswahlalgorithmus aus unvollständigen Daten entwickelt. Experimentelle Ergebnisse zeigen, dass die vorgeschlagene Bewertungsfunktion hinsichtlich der Klassifizierungsgenauigkeit effektiver ist als die bestehenden Bewertungsfunktionen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06605-9_9 714ceac880f82ccbe415d9c4cc955ab9;de;;;7.2.;;;Eine Simulationsumgebung zur Bewertung der Fahrleistung bei der Interaktion mit On-Board-Telematiksystemen Die Evaluation von Benutzerschnittstellen für Fahrzeugtelematiksysteme ist eine anspruchsvolle Aufgabe, da es notwendig ist, die Auswirkungen der Interaktion auf das Fahrverhalten zu verstehen. Zu diesem Zweck haben wir 2005 ein speziell für die Indoor-Bewertung dieser Systeme konzipiertes Framework entwickelt und vorgestellt. In diesem Papier stellen wir einige wesentliche Verbesserungen dieses Vorschlags vor. Insbesondere beschreiben wir ein grafisches Analysetool, das in der Lage ist, anhand der großen Datenmenge, die vom Simulator generiert wird, einen klaren und tiefen Einblick in das Fahrerverhalten zu geben. Darüber hinaus berichten wir über die durchgeführte Evaluationsanalyse zur Beurteilung der Wirksamkeit des Rahmens zur Messung der Fahrleistungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77581-2_30 65eb8dfbe41b1fda8493743d8056a185;de;;;7.2.;;;Pivot-basierte Ähnlichkeits-Wide-Joins fördern die Erkennung von Beinahe-Dubletten Überwachungssysteme, die darauf abzielen, die Entscheidungsfindung in Notfallszenarien zu verbessern, profitieren derzeit von Crowdsourcing-Informationen. Das Hauptproblem bei solchen Daten ist, dass sich die gesammelten Berichte untereinander schnell zu ähnlich werden. Daher fügen zu viele ähnliche Berichte, nämlich Beinahe-Duplikate, kein wertvolles Wissen hinzu, um Krisenkontrollausschüsse bei ihren Entscheidungsaufgaben zu unterstützen. Die aktuellen Ansätze zur Erkennung von Beinahe-Duplikaten basieren normalerweise auf einer zweifachen Verarbeitung, wobei die erste Phase auf Ähnlichkeitsabfragen oder Clustering-Techniken beruht, während die zweite und rechenintensivste Phase das Ergebnis aus der ersten verfeinert. Mit dem Ziel, diese Kosten zu reduzieren und auch die Fähigkeit zur Erkennung von Beinahe-Duplikationen zu verbessern, haben wir ein Rahmenmodell entwickelt, das auf dem Ähnlichkeits-Wide-Join-Datenbankoperator basiert. Dieses Papier erweitert die Wide-Join-Definition, die es ermöglicht, ihre Beschränkungen zu überwinden, und bietet einen effizienten Algorithmus, der auf Pivots basiert, der den gesamten Prozess beschleunigt und es gleichzeitig ermöglicht, die ähnlichsten Elemente in einem einzigen Durchgang abzurufen. Wir untersuchen auch Alternativen und schlagen effiziente Algorithmen zur Auswahl der Pivots vor. Experimente mit realen Datensätzen zeigen, dass unser Framework bis zu drei Größenordnungen schneller ist als die konkurrierenden Techniken in der Literatur, wobei es auch die Qualität des Ergebnisses um etwa 35% verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-62386-3_4 ad11452cba4d82c97abd379736617bbb;de;;;7.2.;;;Eine Umfrage zur Beschreibung und Modellierung audiovisueller Dokumente Die Zahl der im Internet verfügbaren audiovisuellen Dokumente nimmt exponentiell zu, da täglich mehr Videos produziert werden. Die jüngsten Fortschritte im Bereich der audiovisuellen Dokumente haben es ermöglicht, den Austausch dieser Dokumente in vielen Bereichen bekannt zu machen. Ganz allgemein hat das Interesse am Indexierungspotenzial audiovisueller Dokumente in verschiedenen Disziplinen, nämlich Filmen, Sportveranstaltungen usw., deutlich zugenommen. In diesem Rahmen konzentrierten sich mehrere Forschungsstudien auf die Umsetzung dieser Indexierung basierend auf der Segmentierung des audiovisuellen Dokuments in Fragmente. Diese Segmentierung wurde durch die entsprechenden Beschreibungen herbeigeführt. Obwohl der Indexierungsprozess wesentlich erscheint, bleibt die Art und Weise, wie audiovisuelle Dokumente verwertet und durchsucht werden, unbefriedigend. Anmerkungen auf der Grundlage allgemeiner Beschreibungen (Titel, Urheber, Herausgeber usw.) reichen nicht aus, um den Inhalt der audiovisuellen Dokumente zu beschreiben. Mit der Verbreitung audiovisueller Dokumente und den erwähnten Indexierungsgrenzen sollte die Frage beantwortet werden: „Was sind die relevanten Informationen der audiovisuellen Inhalte?“. In diesem Beitrag präsentieren wir eine Übersicht zur Charakterisierung der Beschreibung und Modellierung audiovisueller Dokumente. Wir klassifizieren die bestehenden Beschreibungsmethoden in drei Kategorien: eine Beschreibung auf niedriger Ebene, eine dokumentarische Beschreibung und eine semantische Beschreibung. Das Hauptziel dieser Studie besteht darin, einen Ansatz vorzuschlagen, der dabei hilft, den Inhalt eines audiovisuellen Dokuments zu beschreiben und zu organisieren, um eine bessere Untersuchung durchzuführen.;-;-;-;https://link.springer.com/article/10.1007/s11042-020-09589-9 302072139852cbabfe138880f7ed4ea5;de;;;7.2.;;;Verwenden von Informationsgewinnen zur Verbesserung der ImageCLEF 2006-Sammlung Dieses Papier beschreibt die Teilnahme des SINAI-Teams sowohl an der Ad-hoc-Aufgabe als auch an der medizinischen Aufgabe. Für die Ad-hoc-Aufgabe verwenden wir ein neues maschinelles Übersetzungssystem, das mit mehreren Übersetzern und Heuristiken arbeitet. Für die medizinische Aufgabe haben wir die Sammlungen mit Information Gain (IG) verarbeitet, um die besten Tags zu identifizieren, die bei der Indexierung berücksichtigt werden sollten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74999-8_89 36d5021d9e13e96e12b4b876bcead457;de;;;7.2.;;;Semantische Relationsextraktion basierend auf semi-überwachtem Lernen Viele Aufgaben der Informationsextraktion oder der Verarbeitung natürlicher Sprache haben die Eigenschaft, dass die Daten natürlich aus mehreren Ansichten bestehen – unzusammenhängende Teilmengen von Merkmalen. Insbesondere kann eine semantische Beziehung mit einigen Entitätspaaren oder Kontexten dargestellt werden, die die Entitätspaare umgeben. Zum Beispiel die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17187-1_26 5276c55dd59b577fbe512fa00d7dec4c;de;;;7.2.;;;Ein Rich-Ranking-Modell basierend auf der Matthew-Effekt-Optimierung Die meisten existierenden Ansätze zum Erlernen von Rangstufen behandeln die Effektivität jeder Abfrage gleich, was zu einem relativ geringeren Verhältnis von Abfragen mit hoher Effektivität (d. h. reichhaltige Abfragen) im erstellten Ranking-Modell führt. Solche Ranking-Modelle müssen weiter optimiert werden, um die Anzahl der Rich-Querys zu erhöhen. In diesem Beitrag werden Abfragen mit unterschiedlicher Effektivität unterschieden und die Abfragen mit höherer Effektivität werden stärker gewichtet. Wir modifizieren den Gradienten im LambdaMART-Algorithmus basierend auf einer neuen Perspektive des Matthew-Effekts, um die Optimierung der Rich-Querys hervorzuheben und das Rich-Ranking-Modell zu erstellen, und wir präsentieren einen Konsistenzsatz für das modifizierte Optimierungsziel. Basierend auf den Effektivitätsbewertungskriterien für Information Retrieval führen wir den Gini-Koeffizienten, die mittlere Varianz und die Mengenstatistik ein, um die Leistung der Rankingmodelle zu messen. Experimentelle Ergebnisse zeigen, dass die Ranking-Modelle des gradientenmodifizierten LambdaMART-Algorithmus basierend auf dem Matthew-Effekt einen stärkeren Matthew-Effekt im Vergleich zum ursprünglichen LambdaMART-Algorithmus aufweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-04648-4_38 4e3d86a562a37662fed4d9bd8683c0fb;de;;;7.2.;;;Entscheidungen über Lieferantenbeziehungen und Informationstechnologie In diesem Kapitel stellen wir ein mikroökonomisches Modell vor, das hilft, den Einfluss der transaktionsunterstützenden Informationstechnologie auf Entscheidungen über die Lieferantenauswahl und die Gestaltung von Einkaufsverträgen zu analysieren. In Abschnitt 4.1 wird der Fortschrittsbegriff in der Informationstechnologie mit Hilfe eines Staatspräferenzansatzes systematisiert. In Abschnitt 4.2 wird ein Modell von Lieferantenauswahlentscheidungen vorgestellt und diskutiert. Dieses Basismodell hilft zu erklären, wie die Informationstechnologie die Auswahl von Transaktionspartnern und die Stabilität von Lieferantenbeziehungen beeinflusst. In einem kurzen Exkurs wird das Grundmodell auf Outsourcing-Entscheidungen angewendet, um zu diskutieren, wie die Informationstechnologie die vertikale Integration von Organisationen beeinflussen kann. Schließlich wird in Abschnitt 4.3 das Basismodell erweitert, um Entscheidungen zur Auswahl der Informationstechnologie in die Analyse einzubeziehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-57574-7_4 a9020057edd39fd88f77d3a0544b0abf;de;;;7.2.;;;Nationales INSPIRE Geoportal der Tschechischen Republik Umweltinformationssysteme des tschechischen Umweltministeriums werden seit 1990 entwickelt. 2010 wurde mit der Schaffung des Nationalen Informationssystems zur Sammlung und Auswertung von Informationen über Umweltverschmutzung begonnen. Dieses Projekt wurde vom Europäischen Fonds für regionale Entwicklung kofinanziert. Das Projekt gliedert sich in drei Teile: (a) Integriertes Meldesystem (ISPOP), (b) Umwelt-Helpdesk (EnviHELP) und (c) Nationales INSPIRE Geoportal (Geoportal), die 2010-2013 entwickelt wurden. In diesem Artikel wird das Geoportal als nationale Umsetzung der INSPIRE-Richtlinie in der Tschechischen Republik mit mehreren Anwendungsbeispielen näher vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41151-9_40 378d2557452e72851df3e84baf51eb6b;de;;;7.2.;;;Verwenden von Fuzzy-Petrinetzen für die statische Analyse von Regelbasen Wir verwenden eine Fuzzy Petri Net (FPN) Struktur, um Wissen darzustellen und das Verhalten in unserer intelligenten objektorientierten Datenbankumgebung zu modellieren, die Fuzzy-, aktive und deduktive Regeln mit Datenbankobjekten integriert. Das Verhalten eines Systems kann jedoch unvorhersehbar sein, da sich die Regeln gegenseitig auslösen oder aufheben (Nichtbeendigung). Zwischen- und Endzustand der Datenbank können sich auch je nach der Reihenfolge der Regelausführungen unterscheiden (kein Zusammenfluss). Um problematische Verhaltensmuster vorherzusagen und zu lösen, verwenden wir eine statische Analyse der FPN-Struktur, die eine einfache Überprüfung der Beendigungseigenschaft ermöglicht, ohne dass ein zusätzliches Konstrukt erforderlich ist. Darüber hinaus garantieren wir mit unserem vorgeschlagenen Fuzzy-Inferenzalgorithmus konfluente Regelausführungen. Die in dieser Studie bereitgestellten Techniken und Lösungen können in verschiedenen komplexen Systemen wie Wettervorhersageanwendungen und Umweltinformationssystemen verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30182-0_8 4ec73fe82520b6ce34e3ef96f4680b8f;de;;;7.2.;;;Experiment zur Kombination von Beweisquellen für Passage Retrieval Passage Retrieval besteht darin, kurze aber informative Durchläufe eines Langtextes bei einer bestimmten Benutzeranfrage zu identifizieren. Wir diskutieren die Quellen von Evidenz, die bei der Auswahl wahrscheinlich hochwertiger Passagen helfen, wie z. Diese Maßnahmen unterscheiden sich vom traditionellen Informationsabrufverfahren durch die Verwendung des Kontexts der Passage.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30586-6_69 8a5856624c40d9d0fa4376d17c04de92;de;;;7.2.;;;Ein neues generatives Meinungsabfragemodell, das mehrere Rankingfaktoren integriert In diesem Beitrag präsentieren wir klare und formale Definitionen von Rankingfaktoren, die beim Opinion Retrieval berücksichtigt werden sollten und schlagen ein neues Opinion Retrieval-Modell vor, das die Faktoren gleichzeitig aus der Perspektive der generativen Modellierung kombiniert. Das vorgeschlagene Modell vereint formal das relevanzbasierte Ranking mit der Subjektivitätserkennung auf Dokumentebene, indem mehrere Rankingfaktoren berücksichtigt werden:;-;-;-;https://link.springer.com/article/10.1007/s10844-011-0164-5 602d159b5abe54a06119cf205cacc752;de;;;7.2.;;;Beantwortung von Fragen zu wissenschaftlichen Wissensgraphen Die Beantwortung von Fragen zu wissenschaftlichem Wissen, das Text und andere Artefakte umfasst, ist ein wesentlicher Bestandteil jedes Forschungslebenszyklus. Das Abfragen von wissenschaftlichem Wissen und das Auffinden geeigneter Antworten ist derzeit aus folgenden Hauptgründen kaum möglich: maschinenuntaugliche, mehrdeutige und unstrukturierte Inhalte in Publikationen Wir präsentieren JarvisQA, ein BERT-basiertes System zur Beantwortung von Fragen zu tabellarischen Ansichten von wissenschaftlichen Wissensgraphen. Solche Tabellen finden sich in vielfältiger Form in der wissenschaftlichen Literatur (z. B. Umfragen, Vergleiche oder Ergebnisse). Unser System kann direkte Antworten auf eine Vielzahl unterschiedlicher Fragen zu Tabellendaten in Artikeln abrufen. Darüber hinaus präsentieren wir einen vorläufigen Datensatz verwandter Tabellen und einen entsprechenden Satz natürlichsprachlicher Fragen. Dieser Datensatz dient als Benchmark für unser System und kann von anderen wiederverwendet werden. Darüber hinaus wird JarvisQA anhand von zwei Datensätzen im Vergleich zu anderen Baselines bewertet und zeigt eine zwei- bis dreifache Leistungssteigerung im Vergleich zu verwandten Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-54956-5_2 2f8c3e6b2a63d3cc50139e80dd319978;de;;;7.2.;;;„flüssige“ elektronische Marktplätze „Neutrale“ elektronische Marktplätze scheitern daran, dass ihre Struktur und Funktionsweise keine effektive Anpassung mehrerer Geschäftsmodelle ermöglicht, die den Interessen einer kritischen Masse von Nutzern dienen könnten. Wir schlagen einen neuen Ansatz für die Schaffung wirtschaftlich tragfähiger „neutraler“ elektronischer Marktplätze vor, der zeigt, dass dies durch die Fähigkeit, taxonomische Klassifikationen mit einer generischen Agenten-vermittelten Ontologie zu transzendieren und gleichzeitig durch die Bereitstellung einer flexiblen und aktiven Entscheidungsunterstützung erreicht werden kann. Taxonomien können Innovationen ersticken, indem sie künstliche Grenzen durch Kategorisierungsschemata und Abstraktionsebenen auferlegen. Die vorgeschlagene Architektur befasst sich mit diesem Problem, das einem „flüssigen“ E-Hub zugrunde liegt, der von einer taxonomischen Klassifikation zu einer anderen mutieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-39229-5_30 7470050a84d0cc2c1e78c1e202b171ea;de;;;7.2.;;;Ein Datenmodell für flexible Abfragen Der Beitrag beschäftigt sich mit dem Problem der flexiblen Abfrage mit vagen sprachlichen Ausdrücken und benutzerabhängigen Anforderungen. Wir schlagen eine Lösung vor, die auf der Einbeziehung von Gewichten in Bewertungsregeln durch die Verwendung von Fuzzy-Logik und Fuzzy-Ähnlichkeiten basiert. Wir definieren ein Datenmodell, das es ermöglicht, Anfragen über knackige Daten mit Fuzzy-Wissensbasis, Fuzzy-Interpretation vager Ausdrücke und Fuzzy-Ähnlichkeiten zu beantworten. Wir präsentieren eine Erweiterung einer positiven relationalen Algebra und zeigen, dass ihre Ausdruckskraft zusammen mit einem Fuzzy-Fixpunkt-Operator ausreicht, um Fuzzy-Datalog-Programme auszuwerten. Wir diskutieren auch ein Rechenmodell für Abfragen mit einem Schwellenwert für Wahrheitswerte und die Optimierung solcher Abfragen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44803-9_22 e12d2d5e7a630a15ec90ae36219115fc;de;;;7.2.;;;ADtreesLogit-Modell zur Vorhersage der Kundenabwanderung In diesem Papier schlagen wir ADTreesLogit vor, ein Modell, das die Vorteile des ADTrees-Modells und des logistischen Regressionsmodells integriert, um die Vorhersagegenauigkeit und Interpretierbarkeit bestehender Churn-Vorhersagemodelle zu verbessern. Wir zeigen, dass die Vorhersagegenauigkeit des ADTreesLogit-Modells insgesamt im Vergleich zu TreeNet® gut abschneidet, einem Modell, das 2003 den Goldpreis beim Modellierungswettbewerb zur Vorhersage der Abwanderung von mobilen Kunden (The Duke/NCR Teradata Churn Modeling Tournament) gewann. Tatsächlich hat ADtreesLogit an zwei wichtigen Beobachtungspunkten eine bessere Vorhersagegenauigkeit als TreeNet®.;-;-;-;https://link.springer.com/article/10.1007/s10479-008-0400-8 4cf598fa8049b498190e1f06d042bae4;de;;;7.2.;;;Ontologie-basierter Informationsaustausch Im letzten Kapitel haben wir das allgemeine Problem des Informationsaustauschs bei heterogenen Daten vorgestellt. In diesem Kapitel stellen wir Ontologien als Mittel zum Umgang mit semantischer Heterogenität vor. Wir diskutieren die Natur und Anwendungen von Ontologien und überprüfen bestehende Ansätze, die Ontologien für den Umgang mit heterogenen Daten verwenden. Wir identifizieren auch den Stand der Technik bei der ontologiebasierten Informationsintegration und identifizieren offene Probleme, die im weiteren Verlauf des Buches behandelt werden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-26907-X_2 7363e5fb98f00120ddd91426430355b7;de;;;7.2.;;;Auf dem Weg zu einem benutzerzentrierten Bildabrufsystem In den letzten Jahren gesammelte experimentelle Beweise zeigten die Bedeutung des Ranking-Prozesses bei der Informationsbeschaffung. Bei den Textdokumenten ist das Bildranking eine Aufgabe, die verschiedene Parameter beinhaltet. Sie hängen von den intrinsischen Eigenschaften eines Bildes ab, aber auch von der Indexierungssprache, die zur Darstellung seines semantischen Inhalts verwendet wird. Wir haben ein Gewichtungsmodell entwickelt, das diese Parameter in einem allgemeinen Schema kombiniert. Die beste Balance zwischen den Parametern zu finden, ist nicht einfach. Unterschiedliche Parameterkombinationen führen zu unterschiedlichen Rankings, die von den Nutzern mehr oder weniger akzeptiert werden können. In diesem Papier wählen wir eine Reihe von Testabfragen aus und präsentieren die Auswirkungen der Parameter auf den Rang jedes Bildes. Verschiedene Kombinationen werden besprochen und die beste Kombination angegeben. Für die Auswertung verfolgen wir einen nutzerorientierten Ansatz und vergleichen das Ranking jeder Parameterkombination mit dem durch menschliches Urteilsvermögen gegebenen Ranking. Dies ist ein Schritt in Richtung eines benutzerzentrierten Bildabrufsystems, das sich dynamisch an das Profil und die Vorlieben des Benutzers anpasst.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44469-6_6 7fe866ba4072305cc1a4a5560f01ae30;de;;;7.2.;;;Evaluierungsmodell der Business Continuity Management Umgebung für E-Learning Business Continuity Management (BCM) wird zur wichtigsten Sicherung des E-Learning. Die Umgebung von BCM ändert sich und beeinflusst die Implementierung von BCM. Daher sollten wir das Evaluierungsmodell der Business Continuity Management Environment gestalten, um die Qualität des BCM zu verbessern. Chancen und Risiken des Business Continuity Managements leiten sich aus Veränderungen der Umgebung ab. Unternehmen müssen Merkmale und Trends von Umweltveränderungen genau erkennen und unvorhersehbare Umweltveränderungen anpassen. Das Bewertungsmodell der Business Continuity Management Environment besteht aus fünf Teilen: Umweltbeobachtung, Umweltexploration Scout, Umweltanalyse, Umweltbewertung und Umweltprognose.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25989-0_53 57aba9a960c76f0255748ed68d419136;de;;;7.1.;;;Management von global verteilten Softwareentwicklungsprojekten in herstellerübergreifenden Konstellationen Das Outsourcing der globalen Informationssystementwicklung ist ein offensichtlicher Trend, der sich voraussichtlich in absehbarer Zukunft fortsetzen wird. Dabei werden IS-bezogene Dienste nicht nur zunehmend von verschiedenen geografischen Standorten gleichzeitig bereitgestellt, sondern darüber hinaus von mehreren Dienstanbietern mit Sitz in verschiedenen Ländern. Der Zweck dieses Papiers besteht darin, zu verstehen, wie sich die Beteiligung mehrerer Dienstanbieter auf das Management der global verteilten Informationssystementwicklungsprojekte auswirkt. Da die Forschung zu diesem Thema rar ist, haben wir als Forschungsansatz ein explorativ vertiefendes Einzelfallstudiendesign gewählt. Der von uns analysierte Fall umfasst ein globales Softwareentwicklungs-Outsourcing-Projekt, das von einer deutschen Bank zusammen mit mehreren weltweit verteilten Anbietern initiiert wurde. Für die Datensammlung und Datenanalyse haben wir Techniken übernommen, die von der Grounded-Theory-Methode vorgeschlagen werden. Während die vorhandene Literatur auf den mit Multi-Sourcing verbundenen erhöhten Managementaufwand hinweist, legt die Analyse unseres Falles nahe, dass der erforderliche Aufwand für das Management globaler Outsourcing-Projekte mit mehreren Anbietern unter anderem vom Reifegrad der Zusammenarbeit innerhalb des Anbieterportfolios abhängt. Darüber hinaus weisen unsere Daten darauf hin, dass diese Wechselspielreife positiv beeinflusst wird durch Erkenntnisse über den Kunden, die aus bereits bestehenden Kunden-Lieferanten-Beziehungen abgeleitet wurden. Der Beitrag schließt mit theoretischen und praktischen Implikationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15417-1_5 6b3ead9c7032063a4f1c7f6357ae8f29;de;;;7.1.;;;Ad-hoc-Architektur von Systemen für das Katastrophenrisikomanagement Das Wesen der Funktionsweise heutiger Systeme des Katastrophenrisikomanagements ist die Informationsverarbeitung für die Entscheidungsfindung im Zielbereich des Risikomanagements. Risikomanagement ist das spezifische Feld des Situationsmanagements. Katastrophen sind das Ergebnis der Evolution von Situationen, die sich auf verschiedene natürliche, technogene und menschliche Aktivitätsprozesse in der Umwelt beziehen. Der Hauptzweck von Katastrophenrisikomanagementsystemen (DRM) besteht darin, den Teilnehmern an Risikomanagementprozessen organisatorische und technologische Dienste zur Erfüllung der ihnen zugewiesenen Funktionen bereitzustellen. DRM-System ist ein komplexes organisatorisches und technisches System. Das Ergebnis seiner Konfiguration sollte dem Architekturmodell der Organisation entsprechen und alle Ebenen der organisatorischen und technischen Mittel umfassen, die den Betrieb gewährleisten. Ad-hoc-Architekturansichten sollten Standpunkte widerspiegeln, die mit dem Situationskontext (Semantik), den Positionen der Stakeholder und den verfügbaren erforderlichen Managementmitteln abgestimmt sind. Die Organisation des DRM-Systems basierend auf einem Ad-hoc-Architekturansatz wird in dem Papier vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-48939-7_12 8f449c56c898f284fbf4ffdd2c8b829b;de;;;7.1.;;;Verringerung der Unsicherheit bei der Ressourcenauswahl Der verteilte Abrufprozess ist von Unsicherheit geplagt. Stichproben, Auswahl, Zusammenführung und Rangfolge basieren alle auf sehr begrenzten Informationen im Vergleich zum zentralisierten Abruf. In diesem Papier konzentrieren wir uns darauf, die Unsicherheit innerhalb der Ressourcenauswahlphase zu verringern, indem wir eine Reihe von Schätzungen erhalten, anstatt uns nur auf eine Punktschätzung zu verlassen. Wir schlagen drei Methoden zur Verringerung der Unsicherheit vor, die mit aktuellen Baselines über drei verteilte Retrieval-Testbeds verglichen werden. Unsere Ergebnisse zeigen, dass die vorgeschlagenen Methoden die Baselines signifikant verbessern, die Unsicherheit reduzieren und die Robustheit der Ressourcenauswahl verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36973-5_43 50bf9429f5acbb7479971fd50e94ade8;de;;;7.2.;;;Verwendung von Transaktionsdaten aus ERP-Systemen für die Expertenfindung In den letzten zehn Jahren wurden Informationsabruftechniken erweitert, um Experten und nicht nur Dokumente zu suchen. Dies erfolgt durch Durchsuchen von Dokumentensammlungen sowohl nach Abfragethemen als auch nach zugehörigen Experten. Ein typischer Ansatz geht davon aus, dass Expertenkandidaten Autoren von Intranet-Dokumenten sind oder Social Writing-Aktivitäten in Blogs oder Online-Foren betreiben. Allerdings engagieren sich in vielen Organisationen die eigentlichen Experten, also die Menschen, die in ihrer täglichen Arbeit an Problemen arbeiten, selten mit solchen Schreibaktivitäten. Als Alternative verwenden wir strukturierte Unternehmensdaten – Arbeitszeittransaktionen, die vom ERP-System einer Organisation bereitgestellt werden – als Beweisquelle für das Ranking von Experten. Wir konzipieren ein Expertenfindungssystem für ein solches Unternehmen und kommen zu dem Schluss, dass es möglich ist, solche Transaktionsdaten, die aus den erforderlichen täglichen Geschäftsprozessen resultieren, als solide Quelle für die Expertenfindung zu verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15251-1_22 91b6cea47e167f022963159551e3c5f9;de;;;7.2.;;;Untersuchung der Rolle der Regierung bei der Verbreitung von Informationstechnologie Durch die Analyse von Umfragedaten von 1.211 Unternehmen aus 14 Branchen in Shanghai untersucht diese Studie Faktoren, die die Nutzung von Informationstechnologie in chinesischen Unternehmen beeinflussen, unter Anwendung eines Technologie-Organisations-Umwelt-Rahmens und einer institutionellen Theorie. Diese Studie bietet eine eingehende Untersuchung der staatlichen Auswirkungen auf die IT-Einführung chinesischer Unternehmen. Obwohl die Regierung die IT-Einführung der Unternehmen nicht direkt beeinflussen kann, tut sie dies indirekt, indem sie den Aufbau und das Management der IT-Infrastruktur der Unternehmen beeinflusst. Die Entscheidungen der Unternehmen über die Entwicklung der IT-Infrastruktur und das IT-Management fungieren als Vermittler zwischen der Regierungspolitik und der IT-Einführung der Unternehmen. Darüber hinaus passen sich Unternehmen auf unterschiedliche Weise an staatliche Einflüsse an. Die Ergebnisse deuten darauf hin, dass E-Government-Ansätze und staatliche Förderpolitiken einen signifikanten Einfluss auf die IT-Nutzung in produzierenden Unternehmen, in lokalen Unternehmen und in Unternehmen mit nationalem Hintergrund haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-72804-9_26 d3b613d29d765b850d9757d238cb9318;de;;;7.1.;;;Automatisierung der Entscheidungsunterstützung bei der Entwicklung von Lehrsystemen: der Fall von Bereitstellungssystemen In diesem Kapitel wird über Hintergrund und Umfang der präskriptiven Entscheidungstheorie (PDT) zur Automatisierung der Lehrsystementwicklung (ISD) im Allgemeinen und der „Medienauswahl“ im Besonderen berichtet. Die PDT verwendet interaktive Verfahren, die die Präferenzstruktur des Entscheidungsträgers aufdecken. Diese Präferenzstruktur bezieht sich auf objektive Berechnungsphasen, in denen der Computer alternative Vorschläge basierend auf verfügbaren Daten oder Wissensbasen untersucht. Dieses Verfahren wird durch ein Medienauswahlproblem veranschaulicht. Dieses Beispiel soll zeigen, dass es mit Hilfe der PDT möglich ist, Entscheidungsalternativen unter Berücksichtigung der relativen Bedeutung der einzelnen Ziele und der Ergebnisse für den Entscheidungsträger zu bewerten, wobei jede Phase des Bewertungsprozesses ausführlich erläutert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-57821-2_8 b2e066c28ce5e1510755b16bb2cae96a;de;;;7.1.;;;Routing-Algorithmen mit eingeschränkter Kapazität für die Evakuierungsplanung: eine Zusammenfassung der Ergebnisse Die Evakuierungsplanung ist für zahlreiche wichtige Anwendungen entscheidend, z.B. Katastrophenmanagement und Vorbereitung des Heimatschutzes. Es werden effiziente Instrumente benötigt, um Evakuierungspläne zu erstellen, die Routen und Zeitpläne zur Evakuierung der betroffenen Bevölkerung im Falle von Naturkatastrophen oder Terroranschlägen in Sicherheit bringen. Der bestehende lineare Programmieransatz verwendet zeiterweiterte Netzwerke, um den optimalen Evakuierungsplan zu berechnen und erfordert eine vom Benutzer bereitgestellte obere Grenze für die Evakuierungszeit. Es leidet unter hohen Rechenkosten und lässt sich in städtischen Szenarien möglicherweise nicht auf große Verkehrsnetze skalieren. In diesem Beitrag stellen wir einen heuristischen Algorithmus vor, nämlich Capacity Constrained Route Planner (CCRP), der eine suboptimale Lösung für das Evakuierungsplanungsproblem liefert. CCRP modelliert die Kapazität als Zeitreihe und verwendet einen kapazitätsbeschränkten Routing-Ansatz, um Einschränkungen der Routenkapazität zu berücksichtigen. Es adressiert die Einschränkungen des linearen Programmieransatzes, indem nur das ursprüngliche Evakuierungsnetzwerk verwendet wird und es erfordert keine Vorkenntnisse über die Evakuierungszeit. Die Leistungsbewertung verschiedener Netzwerkkonfigurationen zeigt, dass der CCRP-Algorithmus qualitativ hochwertige Lösungen erzeugt und die Rechenkosten im Vergleich zum linearen Programmieransatz, der optimale Lösungen liefert, erheblich reduziert. CCRP ist auch auf die Anzahl der Evakuierten und die Größe des Netzwerks skalierbar.;-;-;-;https://link.springer.com/chapter/10.1007/11535331_17 5f372d52609028f471a77d02b244f027;de;;;7.1.;;;Digitalisierung von Gesellschaft und Wirtschaft: Systematisierung personenbezogener Daten in Informationssystemen Die Probleme der Verwendung personenbezogener Daten, die sich aus der Ungenauigkeit von Begriffen ergeben, sowohl in der Informationstätigkeit als auch im Informationsrecht werden diskutiert. Die Argumente, die die Erstellung eines Thesaurus personenbezogener Daten und ihrer Informationsontologie ermöglichen können, werden vorgestellt. Die Ergebnisse einer Analyse nach dem Kategorie-Tensor-Ansatz ermöglichen eine Intensivierung der Diskussion zu diesem Thema. Dies weist auf die Notwendigkeit interdisziplinärer Bemühungen hin, eine Informationsontologie personenbezogener Daten zu schaffen, ohne die die digitale Transformation nicht möglich ist. Es wird die erste Version des N-dimensionalen kategorialen Modells personenbezogener Daten und Operationen mit ihnen vorgeschlagen und die Kategorien einer Person und der personenbezogenen Daten definiert.;-;-;-;https://link.springer.com/article/10.3103/S0147688220020124 4435d8dc6c895b3fce0448c8978962a7;de;;;7.1.;;;Auf dem Weg zu einer objektorientierten Architektur für CIM-Systeme Eine Architektur für ein System hilft, eine integrierte Vision zu schaffen. Eine Computerarchitektur besteht aus zwei Elementen: einer Struktur und einer Organisation (Lent, 1991). Struktur beschreibt die Komponenten und ihre Verbindungen. Organisation präsentiert das dynamische Erscheinungsbild von Komponenten und deren Verwaltung nach den ausgewählten Funktionsprinzipien. In diesem Kapitel schlagen wir eine objektorientierte Systemarchitektur für CIM-Anwendungen vor. Wir identifizieren einen generischen Rahmen (d. h. eine Grundstruktur — Ehrlich;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4844-3_5 19a154e2b5266bf24fea26a56761d89e;de;;;7.1.;;;Auditing von Revenue Assurance-Informationssystemen für Telekommunikationsbetreiber Die Prüfung von Informationssystemen zur Einkommenssicherung ist aufgrund ihrer Bedeutung für die Telekommunikationsbetreiber und ihrer Prüfungsschwierigkeiten ein heißes Thema. In diesem Papier wird zunächst der Anwendungsbereich des Informationssystems zur Einkommenssicherung von Telekommunikationsbetreibern beschrieben. Zweitens soll der IT-Audit-Rahmen für Telekommunikationsbetreiber auf der Grundlage des COSO- und COBIT-Rahmens und die Methode des Anwendungsaudits für die chinesischen Telekommunikationsbetreiber auf der Grundlage der umsatzgenerierten Geschäftsprozesse und der Risikobewertung vorangetrieben werden. Abschließend wird auf die Schwachstellen hingewiesen, die während des Auditierungsprozesses festgestellt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-76312-5_93 cb96cfd0c58b6a5922a9bdbd49522737;de;;;7.1.;;;Wertschöpfungskette der Technologie in Hochschulen: Von den IT-Ressourcen zur technologischen Leistung Verschiedene Studien bestätigen, dass die Präsenz von IT in Unternehmen zusammen mit personellen und anderen organisatorischen Ressourcen einen positiven Einfluss auf die Leistungsfähigkeit von Organisationen hat. Die Einzelheiten des Prozesses, durch den dieser Einfluss erzeugt wird, wurden jedoch nicht geklärt. Diese Studie basiert auf einer umfangreichen IT-Datenbank, die einer Stichprobe von Universitäten entspricht, stellt eine IT-technologische Leistungswertschöpfungskette dar und bestätigt die Hypothesen zu ihrer Funktionsweise. Das Ergebnis ist eine Wertschöpfungskette, die bei der IT-Planung beginnt, durch verschiedene technologiebezogene Komponenten in Organisationen geht und bei der Leistungsfähigkeit der Technologie endet. Wir glauben, dass diese Forschung für die Manager von Hochschuleinrichtungen nützlich ist, indem sie ihnen einen klaren Weg zur Verbesserung der Rendite von IT-Investitionen ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19715-4_2 12f95dc0ae8a3449613deaa0eb74e265;de;;;7.2.;;;Lokale Abfrageerweiterung unter Verwendung von Windows-Begriffen für robusten Abruf Dieses Papier beschreibt unsere Arbeit beim CLEF 2006 Robuste Aufgabe. Dies ist eine Ad-hoc-Aufgabe, bei der Methoden für einen stabilen Abruf untersucht werden, indem sich auf schlecht funktionierende Themen konzentriert werden. Wir haben an allen Teilaufgaben teilgenommen: einsprachig (Englisch, Französisch, Italienisch und Spanisch), zweisprachig (Italienisch zu Spanisch) und mehrsprachig (Spanisch zu [Englisch, Französisch, Italienisch und Spanisch]). Beim einsprachigen Retrieval haben wir uns auf die lokale Abfrageerweiterung konzentriert, d. h. nur die Informationen aus den abgerufenen Dokumenten zu verwenden, nicht aus der gesamten Dokumentensammlung oder externen Korpora, wie dem Web. Einige lokale Expansionstechniken wurden für Schulungsthemen angewendet. In Bezug auf die Robustheit war die effektivste Methode die Verwendung von Kookkurrenz-basierten Thesauri, die mithilfe von Kookkurrenzbeziehungen in Begriffsfenstern und nicht in vollständigen Dokumenten konstruiert wurden. Dies ist eine effektive Technik, die leicht implementiert werden kann, indem nur wenige Parameter eingestellt werden. In zwei- und mehrsprachigen Retrieval-Experimenten wurden mehrere maschinelle Übersetzungsprogramme verwendet, um Themen zu übersetzen. Für jede Zielsprache wurden die Übersetzungen zusammengeführt, bevor ein einsprachiger Abruf durchgeführt wurde. Wir haben auch die gleiche lokale Expansionstechnik angewendet. Beim mehrsprachigen Abruf wurde eine gewichtete Max-Min-Normalisierung verwendet, um Listen zusammenzuführen. In allen Teilaufgaben, an denen wir teilgenommen haben, erzielten unsere Pflichtläufe (mit Titel- und Beschreibungsfeldern der Themen) sehr gute Platzierungen. Läufe mit kurzen Abfragen (nur Titelfeld) erzielten mit derselben Expansionstechnik ebenfalls hohe MAP- und GMAP-Werte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74999-8_20 521ed4cd8a9dedea536cf2be715dc710;de;;;7.2.;;;Ein konzeptionelles Modell für die Wortsinn-Begriffsklärung bei der medizinischen Bildsuche Word Sense Disambiguation (WSD) ist die Aufgabe, die Bedeutung eines mehrdeutigen Wortes zu bestimmen. Dies ist ein offenes Problem bei der Verarbeitung natürlicher Sprache, da eine effektive WSD die Qualität verwandter Bereiche wie der Informationsabfrage verbessern kann. Obwohl WSD-Systeme dank verschiedener Technologien eine ausreichend hohe Genauigkeit erreichen, bleibt dies ein herausforderndes Problem im medizinischen Bereich. In diesem Papier schlagen wir ein konzeptionelles Modell vor, um das Wortsens-Ambiguitätsproblem unter Verwendung der semantischen Beziehungen zwischen extrahierten Konzepten durch das MetaMap-Tool und den UMLS-Metathesaurus zu lösen. Die Evaluierung unseres Disambiguierungsmodells erfolgt durch die Verwendung der Information Retrieval Domain. Die mit Clef Medical Image Retrieval 2009 durchgeführten Ergebnisse zeigen, dass unser WSD-Modell die Ergebnisse des MetaMap-WSD-Modells verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45068-6_26 e70608d26fd745ecabf0f025923b1fe7;de;;;7.2.;;;Einflussdiagramme und strukturierter Abruf: Garnata implementiert die SID- und CID-Modelle bei INEX’06 Dieses Papier stellt die Ergebnisse unserer Teilnahme an INEX’06 vor. Zwei Läufe wurden dem mit Garnata, unserem Informationsabrufsystem für strukturierte Dokumente, erhaltenen Ad-hoc-Thorough-Track vorgelegt. Wir haben zwei verschiedene Modelle basierend auf Einflussdiagrammen implementiert, das SID- und das CID-Modell. Das Ergebnis dieser ersten Teilnahme war sehr schlecht. In dem Papier beschreiben wir die Modelle, das System und analysieren die möglichen Gründe für solch eine schlechte Leistung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73888-6_17 44071b9b17332b599360bd9d02bad26f;de;;;7.2.;;;SyncRerank: Reranking von Mehrfachsuchergebnissen basierend auf vertikaler und horizontaler Verbreitung der Benutzerabsicht Dieses Papier schlägt neuartige Interaktionstechniken für parallele Suchaufgaben vor. Das System zeigt mehrere Suchergebnisse, die von einer Suchmaschine zurückgegeben werden, nebeneinander für jede Suchanfrage an. Das System ermöglicht es dem Benutzer, Suchergebnisse unter Verwendung eines Reranking-Algorithmus basierend auf vertikaler und horizontaler Ausbreitung seiner/ihrer Absicht neu zu ordnen. Es wird auch ein Verfahren zum Empfehlen von Operationen für bestimmte Schlüsselwörter vorgeschlagen, das Operationen unterstützt, wie beispielsweise den Wechsel zu einer parallelen Suche mit einem alternativen Begriff, das Herauf- oder Herabstufen von Ergebnissen in Bezug auf einen bestimmten Standpunkt usw. Auch Anwendungen für das vorgeschlagene System werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85481-4_11 1dfedb5b5309ac602f3c4fcd0ae51eca;de;;;7.1.;;;Überprüfung eines ERP-Systems zur Unterstützung von Lean Manufacturing Dieses Papier präsentiert eine Fallstudie und diskutiert die Probleme der Implementierung von Lean Manufacturing in einer globalen Organisation und deren Einführung in ein ERP-System. Es wird diskutiert und präsentiert, wie die Modellierung und Gestaltung der Fertigungsplanungs- und Steuerungsaufgabe erfolgen kann und wie sie im ERP-System implementiert wird, um den täglichen Betrieb im Fallunternehmen zu unterstützen. Das von der Organisation verwendete ERP-System ist die Oracle Ebusiness Suite, aber nicht die gesamte Suite. Bei der Einführung von Lean Manufacturing stehen die Fähigkeiten der ERP-Systeme zur Unterstützung der Fertigungsplanung und Steuerung von Mpc in einer Lean-Umgebung im Mittelpunkt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-77249-3_8 b6b000f84be3ed4622d1258c8d8a2da3;de;;;7.2.;;;Forschung über das Beschneiden von Hyperparameter-Optimierungsverfahren basierend auf Transferlernen in geografischen Informationssystemen Vor kurzem haben Forscher herausgefunden, dass einige automatisierte Optimierungsverfahren und -techniken den gesamten Suchprozess beschleunigen und bessere Hyperparameter-Modellkonfigurationen erhalten können. In diesem Beitrag wird die optimierte initiale Hyperparameterkonfiguration durch die unter der Definition von Metamerkmalen definierte Verlustfunktion in Kombination mit dem Algorithmus des Transferlernens erhalten. Darüber hinaus wird das sequenzmodellbasierte Hyperparameter-Optimierungsmodell (SMBO-Modell) durch die Einführung einer Pruning-Strategie transformiert. Durch Kategorisieren der Hyperparameter nach ihrer Wichtigkeit werden die unwichtigen Hyperparameter eliminiert, aber wichtige Hyperparameter verstärkt, so dass die endgültige Hyperparameter-Optimierungskonfiguration erhalten wird. Es ist das auf dieser Sekundäroptimierung basierende Parameteroptimierungsdesign, das es ermöglicht, relevante Informationen schnell zu suchen und auszuwählen und eine Datenanwendung durchzuführen. Das Hauptziel dieser Arbeit ist es, das mathematische Prinzip der Sekundäroptimierung zu verdeutlichen und es mit Geoinformationssystemen zu kombinieren, um die Wertentwicklung der Geoinformationsdatenbank zu schaffen.;-;-;-;https://link.springer.com/article/10.1007/s12517-021-06465-0 15d1033d67f005527da714a7c3a41cb1;de;;;7.2.;;;Bewertung von Empfehlungssystemen aus Nutzersicht: Überblick über den Stand der Technik Ein Empfehlungssystem ist eine Webtechnologie, die Benutzern basierend auf ihrem objektiven Verhalten oder explizit angegebenen Präferenzen proaktiv interessante Elemente vorschlägt. Bewertungen von Empfehlungssystemen (RS) haben sich traditionell auf die Leistung von Algorithmen konzentriert. Viele Forscher haben jedoch kürzlich damit begonnen, die Systemeffektivität und Bewertungskriterien aus der Perspektive der Benutzer zu untersuchen. In diesem Papier untersuchen wir den Stand der Forschung zur Benutzererfahrung in RS, indem wir untersuchen, wie Forscher Designmethoden bewertet haben, die die Fähigkeit von RS verbessern, Benutzern zu helfen, die Informationen oder Produkte zu finden, die sie wirklich bevorzugen, mit dem System leicht zu interagieren Vertrauen mit RS durch Systemtransparenz, Kontrolle und Mechanismen zum Schutz der Privatsphäre aufzubauen. Schließlich untersuchen wir, wie diese Systemdesignmerkmale die Akzeptanz der Technologie durch die Benutzer beeinflussen. Wir fassen bestehende Arbeiten zu drei entscheidenden Interaktionsaktivitäten zwischen Benutzer und System zusammen: dem initialen Präferenzerhebungsprozess, dem Präferenzverfeinerungsprozess und der Präsentation der Empfehlungsergebnisse des Systems. Darüber hinaus werden wir auch aktuelle Bewertungsrahmen behandeln, die die gesamten Wahrnehmungsqualitäten eines Empfehlungssystems messen und wie diese Eigenschaften die Verhaltensabsichten der Benutzer beeinflussen. Die wichtigsten Ergebnisse sind in einer Reihe von Gestaltungsrichtlinien zusammengefasst, die Wissenschaftlern und Praktikern nützliche Anregungen zum Design und zur Entwicklung effektiver Empfehlungssysteme geben können. Die Umfrage schafft auch Grundlagen für Forschende, um Zukunftsthemen zu verfolgen, die mit bestehenden Methoden nicht abgedeckt sind.;-;-;-;https://link.springer.com/article/10.1007/s11257-011-9115-7 3bff7dc164522c13138d9641ae161503;de;;;7.2.;;;Auswirkungen von E-Learning-Systemen und Selbsteffizienz auf die Ergebnisse der Schüler: ein Modellansatz Dieses Papier präsentiert einen Modellansatz zur Untersuchung der Beziehungen zwischen E-Learning-Systemen, Selbstwirksamkeit und den offensichtlichen Lernergebnissen der Studierenden für Online-Kurse an Universitäten.;-;-;-;https://link.springer.com/article/10.1186/2192-1962-2-6 c1323627072bd105f77a393146710853;de;;;7.2.;;;Evaluierung von drei Methoden zur Supply-Chain-Modellierung In diesem Beitrag werden drei verschiedene Ansätze zur Supply Chain Modellierung vorgestellt, die Event Process Chain (EPC), das Activity Chain Model (ACM) und die GRAI Grid Methode. Die drei Methoden werden beschrieben, wonach die Anwendung der Methoden auf einen Fall vorgestellt wird. Der Beitrag schließt mit einem Vergleich der Methoden und einer Diskussion ihrer Komplementarität.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35569-6_63 9127bc4348ce30f79146c0591ca4613f;de;;;7.2.;;;Technologie zur Verbesserung des Lernens In diesem Papier wird die Rolle von Managementinformationssystemen (MIS) bei der Unterstützung von Praktiken betrachtet, die zu verbesserten Ergebnissen führen können. In England wurden MIS nicht zentral von der Regierung oder Regierungsstellen bereitgestellt, sondern von Schulen gekauft. MIS haben Ressourcen angeboten, die hauptsächlich auf die Verwendung durch Manager und nicht auf Lehrer ausgerichtet sind. Dass die formative Bewertung von Lehrkräften zur Leistungssteigerung genutzt werden kann, wurde gut untersucht und ein klarer Zusammenhang wurde erkannt. Nationale Agenturen haben seit etwa dem Jahr 2000 Konzepte zur Bewertung des Lernens in der pädagogischen Praxis schulübergreifend gefördert. MIS können Schulen und Lehrkräften ein wichtiges Mittel zur Handhabung, Überprüfung und Überwachung von formativen Bewertungsdaten bieten. Obwohl einige Schulen zu diesem Zweck MIS verwenden, erkennen die meisten Schulen Einschränkungen ihres Systems, und Studien identifizieren zunehmend Probleme und spezifische Einschränkungen. Ein Pilotprojekt zeigt, wie Innovation Probleme angehen kann. Es ist jedoch klar, dass weiterer Innovations- und Entwicklungsbedarf besteht. Nationale Politiken müssen das gesamte Spektrum der Herausforderungen berücksichtigen, wenn Lehrkräfte MIS zur effektiven Unterstützung und Verbesserung der Lernleistung einsetzen sollen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-69312-5_13 c82439d67e8c52f42b36e71b87344ac4;de;;;7.2.;;;Abruf und Verbreitung von Informationen in verteilten und drahtlosen Umgebungen Dieses Papier untersucht einen Rahmen für den sicheren Abruf und die Verbreitung von Informationen (Text und Bild) in verteilten und drahtlosen Umgebungen (SECRET_DIDWE). Unsere Forschung konzentriert sich auf die Evaluierung und Integration von Information Retrieval-Techniken. Text Retrieval und Content-Based Image Retrieval-Techniken werden hauptsächlich für den Einsatz im medizinischen Umfeld untersucht. Das Framework basiert auf einer drahtlosen Architektur, um autorisiertem medizinischem Personal unter Verwendung einer agentenbasierten Architektur einen sicheren und transparenten Zugriff auf medizinische Unterlagen zu ermöglichen. Eine richtlinienbasierte Architektur ist Teil des Frameworks für die Verwendung von drahtlosen Sensorgeräten, fortschrittlichen Netzwerktopologien und Softwareagenten, um die Fernüberwachung von Patienten und älteren Menschen zu ermöglichen. Diese Technologien können verwendet werden, um eine kontinuierliche Überwachung des Zustands eines Patienten zu erreichen. Die medizinische Informationsklassifizierung basierend auf neuronalen Netztechniken vom Typ SVM (Support Vector Machines) zur Unterstützung der Diagnose ist ebenfalls in das Framework integriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-33865-1_83 bafd2ab5de5a6b51ef4fd6dff957c4b9;de;;;7.2.;;;Auswahl optimaler Hintergrundwissensquellen für die Ontologie-Matching-Aufgabe Es ist gängige Praxis, sich auf Hintergrundwissen (BK) zu verlassen, um den Ontologie-Abgleichprozess zu unterstützen und zu verbessern. Die Wahl einer geeigneten Quelle für Hintergrundwissen für eine bestimmte Matching-Aufgabe bleibt jedoch eine weitgehend unerforschte Frage. Im aktuellen Papier schlagen wir einen automatischen BK-Auswahlansatz vor, der nicht von einem anfänglichen direkten Matching abhängt, Mehrsprachigkeit verarbeiten kann und domänenunabhängig ist. Der Ansatz basiert auf der Konstruktion eines Index für eine Menge von BK-Kandidaten. Das abzugleichende Ontologiepaar wird als Abfrage in Bezug auf die indizierten BK-Quellen modelliert und der beste Kandidat innerhalb eines Information Retrieval-Paradigmas ausgewählt. Wir evaluieren unser System in einer Reihe von Experimenten in universellen und domänenspezifischen Matching-Szenarien. Die Ergebnisse zeigen, dass unser Ansatz in der Lage ist, für jede der betrachteten Matching-Aufgaben den BK auszuwählen, der die beste Alignment-Qualität in Bezug auf einen gegebenen Referenz-Alignment liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49004-5_42 eee2dc25292c5174a33971df79e0367b;de;;;7.1.;;;Schülerdaten Eltern können die Schule ihrer Kinder wählen. Eine Kernaufgabe der Berliner Senatsverwaltung für Bildung, Jugend und Wissenschaft (SenBildJugWiss) ist es daher, zu Beginn eines Schuljahres optimal ausgestattete Schulen mit einer ausreichenden Lehrerzahl zu haben. Ziel des Projekts war es, durch die effiziente Verarbeitung der Daten von rund 320.000 Schülern aus 700 Schulen genaue Zahlen zu erhalten. Diese Bearbeitung beinhaltete auch die Berichterstattung über die verschiedenen Zielgruppen des SenBildJugWiss. Die Lösung bestand darin, die OLAP-Datenbank Palo als Management-Informationssystem (MIS)-Tool zu implementieren. Dabei war es wichtig, zügig eine erste Version fertigzustellen, um den zukünftigen Anwendern wesentliche Funktionen aufzuzeigen, notwendige Anpassungen für die Integration in das bestehende System aufzuzeigen, Key Performance Indicators (KPIs) und deren Datenquellen zu definieren sowie die gewünschten Berichte erstellen. Eine der großen Herausforderungen bestand darin, eine homogene Datenstruktur zu schaffen und die Tabellen der Such- und Abfragesprache (SQL) zu harmonisieren. Das Ergebnis ist ein MIS, das den Anforderungen am besten entspricht und auch die strengen Datenschutzbestimmungen erfüllt. Die erstellten Berichte liefern unter anderem den erforderlichen Datenlieferstatus - die Anzahl der Schüler pro Klasse und Schulen, die für bestimmte Ressourcen berechtigt sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38411-0_16 d7a81dfa0b2f2332e075e69f68ce6150;de;;;7.1.;;;Prozessplandarstellung zur Shopfloor-Steuerung Produktplanung, Design, Herstellung und Management sind alles Elemente der Engineering-Funktion (Webster’s, 1985). Traditionell werden die ersten drei Engineering-Elemente zeitlich gestaffelt durchgeführt. Ein Produktingenieur entwickelt und detailliert die Designspezifikationen für ein Produkt. Das Ergebnis dieser Aktivität ist die;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-1230-7_14 de6130b7551c338fa49c961afa49c8d6;de;;;7.2.;;;Quantifizierung und Unterdrückung der Messstörung in rückgekoppelten Echtzeitsystemen Bei der Regelung von kontinuierlichen und physikalischen Systemen wird das geregelte System ausreichend schnell abgetastet, um die Dynamik des Systems zu erfassen. Im Allgemeinen kann diese Eigenschaft nicht auf die Steuerung von Computersystemen angewendet werden, da die gemessenen Variablen oft über einen Datensatz berechnet werden, z. In diesem Beitrag quantifizieren wir die in der Messgröße vorhandene Störung als Funktion der Datensatzgröße und der Abtastperiode und schlagen eine Regelungsstruktur vor, die die Messstörung unterdrückt. Die von uns durchgeführten Experimente zeigen, dass ein Regler mit der vorgeschlagenen Regelstruktur eine herkömmliche Regelstruktur in Bezug auf die Leistungssicherheit übertrifft.;-;-;-;https://link.springer.com/article/10.1007/s11241-008-9048-3 98678e8f945ff3c57d1aa7657b5ab981;de;;;7.1.;;;Verschmelzen von Geschäftsstrategien mit IT im digitalen Zeitalter Die Ausrichtung von IT-Management und Business ist der Schlüsselfaktor für den Erfolg von Unternehmen. Das IT-Management muss die Geschäftsstrategien pflegen und verstehen und in diesem Zusammenhang für das Management von Daten, Anwendungen und der Infrastrukturarchitektur vorgehen. Das Unternehmen muss auch Methoden implementieren, um die Logik hinter den Strategien, der Vision, der Organisation, den zu verbessernden Prozessen und den zu entwickelnden Funktionen auf das IT-Management im Kontext der Geschäftsarchitektur zu übertragen. Durch die Verschmelzung von Geschäftsstrategien mit IT-Management können die Unternehmen effizientere Geschäfts- und IT-Operationen, bessere Renditen, geringere Risiken und Komplexität erzielen, sodass die Organisation zwischen verschiedenen Vertriebskanälen agiler wird, das Projekt- und Änderungsmanagement einfacher wird und die Softwareentwicklungskosten gesenkt werden wird niedriger sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29739-8_15 49f1fbab05db9c8edb48bb13013283ef;de;;;7.2.;;;Erforschung nachhaltiger HCI-Forschungsdimensionen durch das Inclusive Innovation Framework Als in früheren Forschungen Frameworks und Gestaltungsprinzipien für Open Innovation und Open Sustainability Innovation (OSI) etabliert wurden, wurden deren Grundlagen aus den erweiterten Konzepten des Universal Designs (UD) aus der Mensch-Computer-Interaktion (HCI) in präskriptiver Form abgeleitet. Dies war auch die Grundlage eines inklusiven Innovationsrahmens (IIF), der auf eine nachhaltige Gestaltung von Informationssystemen abzielt. In diesem Papier wurde der IIF, der aus dem Konzept der Kombination von UD und Open Innovation (OI) zur Förderung der Informationstechnologie hervorgegangen ist, um Nachhaltigkeitsziele zu ermöglichen, zusammen mit OI- und OSI-Rahmen analysiert. Die Rolle von OI bei der Formulierung des IIF wurde dadurch gestärkt, was gleichzeitig dazu beigetragen hat, die erweiterten Konzepte von nachhaltiger HCI (SHCI) und deren zukünftigen Forschungspfad durch den Einsatz von IIF zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99605-9_11 4ec3382181c0f3bfd2c23395f12150cb;de;;;7.2.;;;Anpassung des Kompromisses zwischen Datenschutzgarantien und Rechenkosten bei PIR für sichere Hardware Datenbankabfragen stellen ein potenzielles Datenschutzrisiko für Benutzer dar, da sie möglicherweise sensible Informationen über die Person, die die Abfrage ausgibt, preisgeben. Folglich hat die datenschutzwahrende Abfrageverarbeitung in der Literatur erhebliche Aufmerksamkeit erlangt, und zahlreiche Techniken wurden vorgeschlagen, die versuchen, den Inhalt der Abfragen vor dem Datenbankserver zu verbergen. Die sichere hardwareunterstützte private Informationsabfrage (PIR) ist derzeit die einzige praktische Lösung, die genutzt werden kann, um Algorithmen zu erstellen, die perfekten Datenschutz bieten. Dennoch bieten bestehende Ansätze;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23556-6_9 77331e0ca747857bb3edc931b4983d64;de;;;7.1.;;;Agile Software-Engineering-Praktiken und ERP-Implementierung mit Fokus auf die SAP Activate-Methodik Die Implementierung von Enterprise Resource Planning (ERP) ist ein komplexer und aktiver Prozess, der eine Mischung aus technologischen und organisatorischen Interaktionen beinhaltet. Oft ist es das größte IT-Projekt, das eine Organisation jemals gestartet hat und erfordert eine gegenseitige Anpassung von System und Organisation. Das Konzept einer ERP-Implementierung zur Unterstützung von Geschäftsprozessen über verschiedene Abteilungen einer Organisation hinweg ist kein allgemeiner, starrer und einheitlicher Prozess, sondern ein lebendiger und von einer Reihe verschiedener Faktoren abhängig. Infolgedessen waren die Probleme im Zusammenhang mit dem ERP-Implementierungsprozess eines der Hauptanliegen in der Industrie. Daher wird der ERP-Implementierungsprozess von Praktikern und Wissenschaftlern in akademischen oder Industrieartikeln intensiv beachtet. Bisher konzentrierte sich die Forschung zu ERP-Systemen jedoch hauptsächlich auf Fragen der Verbreitung, Nutzung und Auswirkungen. Weniger Aufmerksamkeit wurde den bei der Konfiguration und Implementierung von ERP-Systemen verwendeten Methoden/Methodiken geschenkt, obwohl sie in der Praxis häufig verwendet werden, bleiben sie im Forschungsbereich der Informationssysteme noch weitgehend undokumentiert. Dieses Papier soll Einblicke aus der Praxis (SAP-ERP-Implementierungsteam mit 20 SAP-Beratern einschließlich Autoren dieses Papiers) in Bezug auf die agilen Engineering-Praktiken im ERP-Implementierungsprozess geben. Eine hartnäckig beharrliche Überzeugung war, dass ERP-Systeme aufgrund ihrer Komplexität und Beschaffenheit nicht Teil einer agilen Entwicklung sein können. Es zeichnet sich jedoch ab, dass agile Engineering-Praktiken nicht mehr ausschließlich mit der Softwareentwicklung verbunden sein werden, da SAP (größter ERP-Anbieter der Welt) kürzlich seine erste agile ERP-Implementierungsmethode namens SAP Activate Methodology eingeführt hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99951-7_13 90898369255ed5639454ac80cf2f85a6;de;;;7.1.;;;Integration von Cad und Cam durch die merkmalsbasierte Methodik für Design und Fertigung Es ist allgemein anerkannt, dass die erfolgreiche Integration von Computer Aided Design (CAD) und Computer Aided Manufacturing (CAM) der Fertigungsorganisation weitreichende Vorteile bringen wird. Aufgrund der großen Vielfalt an Hardware und Software, die in CAD- und CAM-Systemen verwendet wird, ist es jedoch nicht einfach, ein integriertes System zu entwerfen oder zu erstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-10890-9_37 cf9169cd94e7e45cbf105494e84dec87;de;;;7.1.;;;Entwicklung eines automatischen Montagesequenz-Generierungssystems basierend auf dem neuartigen Teileverbindungsdiagramm Um die Montageprozessplanung mit Hilfe von CAPP (Computer Aided Process Planning) durchzuführen, sind Forschungen zur Generierung der Montagesequenz heutzutage von vielen Forschern in ständiges Interesse gerückt und sie widmen sich der Optimierung der Montagesequenz nach neuen Ansätzen wie dem Genetic Algorithm und das neu von der Biologie inspirierte Prinzip wie die Ameisenkolonie-Optimierungsmethode. In diesem Beitrag analysiert das entwickelte System zur Generierung von Montagesequenzen die Beziehung zwischen montierten Teilen basierend auf Oberflächenkontaktinformationen. Darüber hinaus generiert dieses System den neuartigen Teileverbindungsgraphen für die Montageabläufe über analysierte Informationen wie gemeinsame Fläche zwischen Teilen, zugehöriges Verhältnis und Anzahl der verbundenen Teile. Schließlich wird die optimierte Montagereihenfolge logisch über den Teileverbindungsgraph generiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41501-2_54 b326dc613e30988993bfc3065e085469;de;;;7.1.;;;Determinanten für den Nutzen von Enterprise Architecture Management – ​​ein Forschungsmodell Eine erfolgreiche digitale Transformation in Unternehmen erfordert eine überragende infrastrukturelle Flexibilität innerhalb von Unternehmen und eine hohe IT-Kompetenz, um sich ändernde Geschäftsanforderungen zu erfüllen. Digitale Unternehmen stehen vor der Herausforderung, Business und IT zu kombinieren, um von bestehenden technologischen Errungenschaften zu profitieren. Frühere Studien haben gezeigt, dass es bestimmte Faktoren gibt, die den Nutzen von Enterprise Architecture Management beeinflussen. Allerdings gibt es durch die digitale Transformation noch einige weitere Einflussfaktoren, die noch nicht berücksichtigt wurden. Ein alternativer Forschungsansatz untersucht mehr Faktoren und hilft, einen tieferen Einblick in Wirkungsfaktoren zu erhalten. Dieses Papier stützt sich auf einen ersten Ansatz, um zusätzliche Faktoren und deren Einfluss auf EAM zu untersuchen. Der Ansatz basiert auf einer fundierten Literaturrecherche, um ein neues empirisches Forschungsmodell aufzubauen. Darüber hinaus wurden die Indikatoren am Fall der industriellen digitalen Transformation untersucht. Es wird gezeigt, dass Faktoren aggregiert zu den Determinanten IT-Landschaften, interne sowie externe Geschäftsumgebungen und die EAM-Etablierung einen wesentlichen Einfluss auf den Nutzen von EAM in Unternehmen haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-04849-5_9 cd9af4eb1fe1762ca7333f56b9c7d909;de;;;7.1.;;;Eine theoriebasierte Perspektive auf den Wert des Einkaufs- und Angebotsmanagements und seiner Versorgungsbasis zur Generierung von Wettbewerbsvorteilen Die kontinuierliche Wertschöpfung ist eines der wichtigsten Ziele von Unternehmen und die einzige Möglichkeit, langfristig wirtschaftlich zu bestehen. Immer mehr Forscher weisen auf die zentrale Bedeutung von Geschäftsbeziehungen für die Wertschöpfung hin (z. B. Anderson;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-5404-2_2 cecd9b21354bd9ca304fa400b60499a8;de;;;7.1.;;;Intellektuelle Struktur und Trends im Bereich humanitärer Einsätze Humanitäre Operationen (HO) haben das Interesse von Fachleuten und Akademikern geweckt, hauptsächlich aufgrund ihres Potenzials, menschliches Leid in Katastrophensituationen zu verringern, was zu einer Konsolidierung als Forschungsgebiet führte. Mit der Entwicklung des HO-Forschungsgebiets ist die Synthese des Wissens und der bisherigen Entdeckungen zu einer wichtigen Aufgabe für seine Weiterentwicklung geworden. In dieser Studie wurde eine Literaturrecherche basierend auf bibliometrischen Kartierungstechniken durchgeführt, um die intellektuelle Struktur von HO zu identifizieren. Als Hauptergebnisse präsentieren wir visuell die allgemeine sich abzeichnende Struktur des HO-Feldes unter Verwendung der VOS-Viewer-Software, um die Netzwerke der Hauptartikel zu entwerfen. Die zukunftsweisende Forschung auf diesem Gebiet ist in zwei Cluster organisiert: Humanitäres Supply Chain Management und Distributionsoptimierung in der humanitären Logistik. In Bezug auf die aufkommende intellektuelle Struktur wurden drei Cluster identifiziert: Beziehungsmanagement und Big Data, Standort von Gesundheitseinrichtungen und Optimierung des Netzwerkflusses. Abschließend werden noch einige Lücken und Fragen für die zukünftige Forschung aufgezeigt.;-;-;-;https://link.springer.com/article/10.1007/s10479-021-04022-2 6114b08215d8ffe84aed0e49c88241c1;de;;;7.1.;;;Menschzentrierte flexible Fertigungssysteme in der Zerspanung und Montage Sobald sich NC-Werkzeugmaschinen, Industrieroboter und automatisch geführte Fahrzeuge als eigenständige Einheiten als produktiv und zuverlässig erwiesen hatten, begann die Fertigungsindustrie, diese und verschiedene andere Geräte zu Systemen für eine flexible Transferstraßenfertigung zu kombinieren. Dies geschah Ende der 1970er Jahre, obwohl einige Bemühungen bereits zehn Jahre zuvor begonnen hatten, z.B. Sundstrand Machine Tool Company in den USA oder Molins Machine Co. in Großbritannien mit dem berühmten „System 24“. 1980 schätzte eine deutsche Studie [1] die weltweite Zahl flexibler Fertigungssysteme (FMS) auf etwa 80. Fünf Jahre später berichtete ein Bericht der Wirtschaftskommission der Vereinten Nationen für Europa von 350 [2]. Eine angemessene Schätzung ist, dass die weltweite Zahl bis 1992 zwischen 1000 und 1500 liegen sollte. Da es keine eindeutige Definition von FMS gibt, ist es schwierig, eine genaue Schätzung abzuleiten. Die Zahlen können jedoch Aufschluss über den Umfang der beteiligten Unternehmen, Maschinen und Personen geben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-2014-8_3 baaaed05a4c4ba23d09b076fc739b7e5;de;;;7.1.;;;Institutionalisierung eines schulischen Wissensmanagementsystems Dieses Kapitel veranschaulicht die Rolle und Anwendung von Informationstechnologien zur Unterstützung der Interaktion von Personen in virtuellen Gemeinschaften, um Wissen zu verwalten, indem es einen Überblick über Wissensmanagementsysteme und -werkzeuge bietet. Die Vorgaben zur Gestaltung eines schulischen WM-Systems werden diskutiert und die im WM-System installierten WM-Werkzeuge und Methoden wie Taxonomie, Wissensportal und Data Mining vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-287-233-3_6 88e8852e3d3f7f662b3a2948b59dea1e;de;;;7.1.;;;Identifizierung strategischer Planungsmuster von intelligenten Initiativen. Eine empirische Forschung in spanischen Smart Cities Die Projekte der Smart Cities fördern die Verbesserung und Effizienz öffentlicher Dienstleistungen sowie die Offenlegung und den Zugang zu mehr Informationen und bieten außergewöhnliche Möglichkeiten für Städte, eine neue Welle der Wohlstandsschaffung auszulösen. Trotz der Relevanz und Komplexität der strategischen Planung für die Smart City-Entwicklung wird sie jedoch weiterhin ignoriert. Diese Forschung trägt durch die Analyse des demografischen Profils und des Bürgerprofils von SCs zur vorherigen Forschung bei und identifiziert Schlüsselmuster in den strategischen Planungsprozessen der intelligenten Initiativen in Stadtverwaltungen, um den Erfolg der Umsetzung der SC-Initiative sicherzustellen. Um dieses Ziel zu erreichen, wurde in diesem Papier versucht, den strategischen Planungsprozess in einer Reihe von spanischen SC unter dem Mikroskop zu analysieren und insgesamt 1.635 intelligente Initiativen mit dem Ziel zu untersuchen, Muster im strategischen Planungsdesign zu identifizieren. Die Ergebnisse zeigen, dass kleinere Städte mit einem höheren Anteil älterer Menschen in der Regel formale strategische Planungsprozesse durchführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-57599-1_28 4bc801aa9ea1d5b80f696b852d319848;de;;;7.1.;;;Mehrere Perspektiven auf die technologische Verbreitung: Einblicke und Lehren Seit dem Zweiten Weltkrieg hat die Verwendung mathematischer Modelle unter den Bezeichnungen Systemanalyse, Entscheidungsanalyse, Operationsanalyse, Managementwissenschaft und Politikanalyse eine bemerkenswerte Verbreitung gefunden. Auch Technologieprognosen, Auswirkungen und Transfer haben den Trend widergespiegelt. Diesen reduktionistischen Ansätzen sind jedoch gravierende Einschränkungen inhärent und sie haben eine gravierende Kluft zwischen dem Modell und dem realen Entscheidungsträger geschaffen. Diese Diskussion konzentriert sich auf das Problem und ein Mittel, es zu überwinden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-02700-4_4 3f11568bc27d84df55c34bfb2b566336;de;;;7.1.;;;Dynamische Dienstkapazitäts- und Nachfrageanpassung in einem Holonischen öffentlichen Verkehrssystem Das Papier beschreibt die Entwicklung eines Flottenmanagementsystems für öffentliche Verkehrsdienste, das im semiheterarchischen Modus arbeitet: (1) langfristig hierarchisch, mit optimaler Aktivitätsplanung und Ressourcenplanung, (2) heterarchisch – agil und robust bei Störungen, mit real -zeitliche Umplanung von nicht erreichbaren Fahrern, nicht betriebsbereiten Bussen und gesperrten Strecken. Das holonische Paradigma wird verwendet, die holonische Transportkontrollarchitektur, die Arten von Holonen und die grundlegenden Kooperationsregeln zwischen ihnen werden vorgestellt. Das Papier beschreibt den Service Scheduler als zentrales, hierarchisches Informationssystem für ein optimiertes, langfristiges Kapazitätsmanagement. Das dezentrale, heterarchische Delegate MAS (Multi-Agent-System) führt ein Echtzeit-Änderungsmanagement für Kapazitäts- und Bedarfsabgleich durch, basierend auf intelligenten, in Ressourcen eingebetteten Geräten. Ein auf JADE basierender MAS-Implementierungsrahmen wird vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-32689-4_44 966cf3021ad3c14ed71e3d5eb44e02ce;de;;;7.2.;;;Experimenteller Vergleich von adaptiven vs. statischen Miniaturansichten Die Stichwortsuche ist eine sehr wichtige Methode, um Informationen auf Websites zusammen mit dem Link-basierten Browsen zu finden. Wie ein Informationsabrufsystem Suchergebnisse anzeigt, ist sehr wichtig, da Benutzer die meiste Zeit damit verbringen, die abgerufenen Informationen zu finden, zu lesen und zu verstehen. Als Anwendung von Informationsabrufsystemen wurde ein Selbsthilfesystem zur Fehlerbehebung bei der Druckqualität eingeführt. Als Methode zum Anzeigen von Suchergebnissen ist die Anzeige von Miniaturansichten bei der Diagnose von Druckfehlern sehr nützlich, da Benutzer keine komplexen Informationen im Text lesen und verstehen müssen. In dieser Studie wurden statische Thumbnails und adaptive Thumbnails verglichen, um Suchergebnisse anzuzeigen, um Druckfehler zu diagnostizieren. Die Ergebnisse zeigten, dass die statische Anzeige mit einer Miniaturansicht in Bezug auf die Benutzerleistung und -präferenz schlechter war. Es gab jedoch keinen signifikanten Unterschied zwischen der statischen Anzeige mit drei Miniaturansichten und der adaptiven Anzeige, obwohl die statische Anzeige mit drei Miniaturansichten im Durchschnitt besser war als die adaptive Anzeige.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73107-8_5 71bd2f4ee2d910a115303c2f65d864e0;de;;;7.2.;;;Erhöhte Präzision von automatisch generierten Trace-Links Um automatisch erstellte Trace-Links direkt während eines Projekts verwenden zu können, ist die Präzision der Links essenziell. Unser interaktionsbasierter Ansatz zur Erstellung von Trace-Links (IL) nutzt die in einer integrierten Entwicklungsumgebung (IDE) aufgezeichneten Interaktionen von Entwicklern während der Arbeit an einer Anforderung. Dazu müssen Entwickler vor dem Codieren die Anforderung angeben, an der sie arbeiten werden. Dieser Ansatz funktionierte in einem Open-Source-Projekt mit Entwicklern, die sich für die Interaktionsprotokolle interessierten, gut, funktionierte jedoch nicht gut mit Studenten, die nicht besonders motiviert waren, die Interaktionsaufzeichnung auszulösen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-15538-4_5 bea1aa21e9c4680689fab7adc738e542;de;;;7.1.;;;Objektorientierung basierend auf semantischen Transformationen Wir diskutieren Ansichtsmodellierung als Ansatz zur Objektorientierung für Endbenutzer und schlagen einen semantischen Rahmen für die Ableitung und Verwendung korrekter und konsistenter Ansichtsmodelle innerhalb des Xplain DBMS vor, der sowohl atomare als auch mehrwertige Attribute unterstützt.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0034678 df98d5913ae35dffd2c577b77f152fe9;de;;;7.1.;;;Verwenden des fraktalen Prozess-Asset-Modells zum Entwerfen der Prozessarchitektur eines Unternehmens: Erfahrungsbericht Das Fractal Process-Asset (FPA)-Modell wurde als Ansatz zur Identifizierung von Geschäftsprozessen und zur Definition von Beziehungen zwischen ihnen in einem Unternehmen vorgeschlagen. In diesem Beitrag wird über ein Projekt zur Anwendung des Modells in einem Hochschulunternehmen berichtet. Das Ziel dieses Projekts ist zweifach. Eine besteht darin, eine Prozessarchitektur zu entwerfen, die eine ganzheitliche Sicht auf die wichtigsten Geschäftsprozesse und deren Zusammenhänge in der Abteilung bietet, die für die Geschäftsplanung und -entwicklung verwendet werden soll. Zweitens ist zu testen, ob das FPA-Modell geeignet ist, eine ganzheitliche Sicht auf die wichtigsten Geschäftsprozesse und deren Zusammenhänge in einem Unternehmen zu schaffen. Das FPA-Modell wurde von Branchenexperten im Rahmen einer realen Organisation – der Fakultät für Computer- und Systemwissenschaften der Universität Stockholm – angewendet und bewertet. Die Ergebnisse zeigen, dass das FPA-Modell verständlich und geeignet ist, eine ganzheitliche Sicht auf die wesentlichen Geschäftsprozesse in einem Unternehmen und deren Zusammenhänge zu schaffen. Die erstellte Bildungsprozessarchitektur ist verständlich und kann für die Geschäftsplanung und -entwicklung verwendet werden. Obwohl die Studie nur in einer Organisation durchgeführt wurde, ist es wahrscheinlich, dass die erzielten Ergebnisse allgemeiner Natur sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-43745-2_20 f7de732d3bffe7218757c712e3596245;de;;;7.1.;;;Entwicklung eines Catchment Management Tools zur Bewertung des Umweltrisikos durch Nährstoffeinträge mit Open Source GIS Für die irische Umweltschutzbehörde (EPA) wird ein Catchment Management Tool (CMT) entwickelt, das es Flusseinzugsgebieten ermöglicht, das Umweltrisiko durch organische und anorganische Nährstoffeinträge aufgrund verschiedener Landnutzungen und menschlicher Aktivitäten zu bewerten. Das CMT wurde unter Verwendung von Open Source GIS (Geographical Information System)-Software erstellt, um die Entwicklung zu erleichtern und die Forschungsbenutzerbasis des Tools zu erweitern. Die Benutzeroberfläche des CMT ist flexibel gestaltet, um lokales Wissen in das System einfließen zu lassen sowie die Möglichkeit, Was-wäre-wenn-Szenarien in Bezug auf die Umweltbewertung auszuprobieren. Schadstofffrachten werden aus öffentlich verfügbaren Daten berechnet und hydrogeologisch empfindliche Gebiete (HSA) durch Kombination von Boden- und geologischen GIS-Schichten gebildet. Weitere Kombinationen von Belastungen und HSAs ermöglichen die Abgrenzung kritischer Quellgebiete, die Gebiete identifizieren, die erhebliche Mengen eines bestimmten Schadstoffs zu einem ausgewählten Wasserkörper beitragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41151-9_25 b52ac562fb59dc41f6a15d244f5c02f1;de;;;7.2.;;;Eine Methode zur Erkennung von Insider-Bedrohungen basierend auf der Analyse des Benutzerverhaltens Insider-Bedrohungen waren schon immer eine wichtige versteckte Gefahr für die Sicherheit von Informationssystemen, und die Erkennung von Insider-Bedrohungen ist das Hauptanliegen der Organisatoren von Informationssystemen. Vor der Anomalieerkennung verursacht der Prozess der Merkmalsextraktion oft einen Teil des Informationsverlusts, und die Erkennung von Insider-Bedrohungen zu einem einzigen Zeitpunkt führt oft zu falsch positiven Ergebnissen. Daher schlägt dieses Papier ein Benutzerverhaltensanalysemodell vor, indem das Benutzerverhalten über einen bestimmten Zeitraum aggregiert, Benutzerattribute umfassend charakterisiert und dann interne Angriffe erkannt werden. Zuerst werden die Eigenschaften des Benutzerverhaltens aus den Multi-Domain-Features extrahiert, die aus dem Audit-Log extrahiert wurden, und dann wird der XGBoost-Algorithmus zum Trainieren verwendet. Die experimentellen Ergebnisse eines Datensatzes zum Benutzerverhalten zeigen, dass der XGBoost-Algorithmus verwendet werden kann, um Insider-Bedrohungen zu identifizieren. Der Wert des F-Maß beträgt bis zu 99,96%, was besser ist als der SVM- und Random-Forest-Algorithmus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00828-4_43 b84015f0fdda194d4b70cc7e36dfeff0;de;;;7.2.;;;Datenschutz- und Sicherheitsüberlegungen In diesem Kapitel werden der Datenschutz in Ortungssystemen und die Auswirkungen auf standortbasierte Dienste in Innenräumen erörtert. Es stellt die wichtigsten Ansätze zur Gewährleistung des Datenschutzes vor, einschließlich der Berechnung mehrerer Parteien;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10699-1_9 4371986b98b836841a0da00f5af678ee;de;;;7.2.;;;Eine Usability-Evaluierungsmethode unter Anwendung von AHP- und Treemap-Techniken Dieser Bericht schlägt eine Visualisierungstechnik für checklistenbasierte Usability-Quantifizierungsmethoden vor. Durch Anwendung der Treemap-Methode lassen sich auf einen Blick die hierarchische Struktur von Checklisten, Gewichte von Checkitems und Bewertungsergebnisse für Zielsysteme erkennen. Es wird eine effektive Unterstützung der Usability-Analyse und deren Präsentationsaufgaben von Usability-Evaluierungsergebnissen erwartet. Ein Prototyp-Tool wurde auf einem PC implementiert und experimentelle Studien unter der Annahme tatsächlicher Usability-Evaluierungsaufgaben durchgeführt. Die Ergebnisse zeigen, dass die vorgeschlagene Methode die Ausführungszeit einiger typischer Aufgaben verbessert. Usability-Ingenieure bewerteten die Nützlichkeit der vorgeschlagenen Methode subjektiv besser als die gedruckte Tabellendarstellung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02574-7_22 b1a77d6db9e0dce6a069de79750d614d;de;;;7.2.;;;Ein flexibles Framework zur Evaluierung neuer Algorithmen für Dialogsysteme Die Forschung auf dem Gebiet der Dialogsysteme beinhaltet häufig den Aufbau eines Dialogsystems zur Auswertung von Algorithmen, Datensammlung und verschiedenen Experimenten. Es wird viel Zeit benötigt, um ein solches System zu erstellen. Um diese Aufgabe zu erleichtern, haben wir ein flexibles, erweiterbares und einfach zu bedienendes Framework geschaffen, das als Basis für das Experimentieren mit Dialogsystemen dienen kann. Die wichtigsten Merkmale des Frameworks werden in der Arbeit zusammen mit möglichen Wegen ihrer praktischen Anwendung vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-46154-X_61 ea54bbd99992b2f9c7d590a0441d537b;de;;;7.2.;;;Ein Leistungsvorhersageansatz zur Verbesserung der kollaborativen Filterleistung Die Leistungsvorhersage hat im IR-Bereich seit der Hälfte des letzten Jahrzehnts zunehmend an Aufmerksamkeit gewonnen und ist zu einem etablierten Forschungsthema in diesem Bereich geworden. In der vorliegenden Arbeit wird das Problem im Bereich des Collaborative Filtering (CF) neu formuliert, wo es bisher kaum erforscht ist. Wir untersuchen die Anpassung von klarheitsbasierten Abfrageleistungsprädiktoren zur Vorhersage der Nachbarleistung bei CF. Ein Prädiktor wird vorgeschlagen und in einen kNN CF-Algorithmus eingeführt, um eine dynamische Variante zu erzeugen, bei der Nachbarbewertungen basierend auf ihrer vorhergesagten Leistung gewichtet werden. Die Eigenschaften des Prädiktors werden empirisch untersucht, indem zunächst die Korrelation der Prädiktorausgabe mit einem vorgeschlagenen Maß der Nachbarleistung überprüft wird. Dann wird die Leistung der dynamischen kNN-Variante unter verschiedenen Sparsity- und Nachbarschaftsgrößenbedingungen untersucht, wobei die Variante den Basisalgorithmus mit zunehmender Differenz bei kleinen Nachbarschaften durchweg übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12275-0_34 93f7cb326c9c303491b5db47c7d00760;de;;;7.1.;;;Ein persönliches Informationsunterstützungssystem für die Ausführung kreativer Aufgaben Prinzipien des Aufbaus eines automatisierten Informationsunterstützungssystems werden zusammen mit ihrer Implementierung beschrieben. Die Autoren weisen als Hauptunterscheidungsmerkmal ihres Systems auf die Bestimmungen zur Personifizierung von Informationen entsprechend den Anforderungen und Fähigkeiten der Endnutzer hin. Es werden Hypertext-, DBMS- und IRS-Technologien eingesetzt. Verschiedene Arten von Informationen, einschließlich halbstrukturierter und unstrukturierter Informationen, können organisiert und kompakt gespeichert werden. Faktoren bei der Entwicklung des Systems werden zusammen mit seiner Organisationsstruktur und seinem Funktionsumfang beschrieben. Die praktischen Anwendungsbereiche des Systems sind aufgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-61282-3_26 cf1688df16b7efed7f62f37550f5963a;de;;;7.1.;;;Regularisierte angepasste Q-Iteration: Anwendung auf die Planung Wir betrachten Planung in einem Markovaschen Entscheidungsproblem, d. h. dem Problem, eine gute Politik zu finden, wenn man Zugang zu einem generativen Umweltmodell hat. Wir schlagen vor, eine angepasste Q-Iteration mit bestrafter (oder regularisierter) Regression der kleinsten Quadrate als Regressionsunterprogramm zu verwenden, um das Problem der Kontrolle der Modellkomplexität anzugehen. Der Algorithmus wird im Detail für den Fall präsentiert, wenn der Funktionsraum ein reproduzierender Kernel-Hilbert-Raum ist, der einer vom Benutzer gewählten Kernelfunktion zugrunde liegt. Wir leiten Grenzen für die Qualität der Lösung ab und argumentieren, dass datenabhängige Strafen zu einer nahezu optimalen Leistung führen können. Anhand eines einfachen Beispiels werden die Vorteile eines bestraften Verfahrens veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89722-4_5 5e7948f864ed5d3c8eb801af4a3cdb3f;de;;;7.1.;;;Relevanzbegründung für die Planung in relationalen Domänen Probabilistische relationale Modelle sind eine effiziente Möglichkeit, die Dynamik in realistischen Umgebungen, die aus vielen Objekten bestehen, zu lernen und darzustellen. Autonome intelligente Agenten, die diese Darstellung für alle Objekte begründen, müssen in exponentiell großen Zustandsräumen und großen Mengen stochastischer Aktionen planen. Eine wichtige Erkenntnis für die Recheneffizienz besteht darin, dass eine erfolgreiche Planung typischerweise nur eine kleine Teilmenge relevanter Objekte umfasst. In diesem Beitrag stellen wir ein probabilistisches Modell zur Darstellung der Planung mit Teilmengen von Objekten vor und geben eine Definition der Objektrelevanz. Unsere Definition reicht aus, um die Konsistenz zwischen wiederholter Planung in teilgeerdeten Modellen, die auf relevante Objekte beschränkt sind, und der Planung im voll geerdeten Modell nachzuweisen. Wir schlagen einen Algorithmus vor, der die Objektrelevanz nutzt, um in komplexen Domänen effizient zu planen. Empirische Ergebnisse in einer simulierten 3D-Blockwelt mit gelenkigem Manipulator und realistischer Physik belegen die Wirksamkeit unseres Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04180-8_65 ebae6819d4e089a75bdfa1b652a091b5;de;;;7.2.;;;MIRACLE Experiments in QA@CLEF 2006 auf Spanisch: Hauptaufgabe, Echtzeit-QA und explorative QA mit Wikipedia (WiQA) Wir beschreiben die Teilnahme der MIRACLE-Gruppe am QA-Track bei CLEF. Wir haben an drei Teilaufgaben teilgenommen und zwei Systeme vorgestellt, die auf Spanisch funktionieren. Das erste System ist ein traditionelles QS-System und wurde in der Hauptaufgabe und dem Real-Time QS-Pilotprojekt evaluiert. Das System bietet eine verbesserte Erkennung benannter Entitäten und eine flache linguistische Analyse und erreicht eine mäßige Leistung. Im Gegensatz dazu zeigen die Ergebnisse der RT-QA, dass dieser Ansatz vielversprechend ist, um Antworten in begrenzter Zeit zu liefern. Der zweite Systemfokus in der WiQA-Pilotaufgabe, der darauf abzielt, wichtige Schnipsel abzurufen, um eine Wikipedia zu vervollständigen. Das System verwendet Sammlungs-Link-Struktur, Kosinus-Ähnlichkeit und benannte Entitäten, um neue und wichtige Snippets abzurufen. Obwohl die Experimente nicht erschöpfend waren, scheint die Leistung von der Art des Konzepts abzuhängen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74999-8_55 dc206dd810550ab6e141e3f5bce13988;de;;;7.1.;;;Erkenntnisse und Synthese von Themen Dieses Kapitel diskutiert die wichtigsten Ergebnisse der Studie und versucht, die verschiedenen Themen, die durch die Studie zusammengeführt wurden, zusammenzufassen. Die Studie erklärt, wie die Flugzeit als unabhängige Variable ein kausaler Faktor für Gesamt- oder Teilvermittler wie die Marktgröße einer Stadt, die Attraktivität und räumliche Interaktion zwischen zwei Standorten und die anderen Dimensionen der Entfernung sein könnte, die in wiederum beeinflussen die abhängige Variable: Organisationsdesign. Abbildung 10.1 zeigt ein Vermittlungsmodell. Anstatt eine direkte kausale Beziehung zwischen einer unabhängigen Variablen und einer abhängigen Variablen zu vermuten, geht ein Mediationsmodell davon aus, dass die unabhängige Variable die Mediatorvariable verursacht, die wiederum die abhängige Variable verursacht. Die Mediatorvariable dient somit der Klärung der Beziehung zwischen unabhängigen und abhängigen Variablen (MacKinnon 2008).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35164-8_10 cd5837c667d9be737e34ea9c495e4046;de;;;7.1.;;;Einbruchsbeschränkung durch Isolation in Informationssystemen Systemschutzmechanismen wie Zugriffskontrollen können von autorisierten, aber böswilligen Benutzern, Masqueradern und Missetätern getäuscht werden. Daher werden Intrusion-Detection-Techniken ergänzend eingesetzt. Es könnte jedoch ein Schaden aufgetreten sein, bevor ein Einbruch erkannt wird. In vielen Computersystemen kann die Forderung nach einem hohen Grad an Zuverlässigkeit der Meldung von Einbrüchen zu einer schlechten Leistung bei der Erkennung von Einbrüchen führen und kann eine lange Erkennungslatenz verursachen. Infolgedessen kann ernsthafter Schaden verursacht werden, weil entweder viele Eindringversuche nie erkannt werden oder weil die durchschnittliche Erkennungslatenz zu lang ist. Der Prozess der Begrenzung des durch Einbrüche verursachten Schadens während des Prozesses der Einbruchserkennung wird als;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35508-5_1 e68b4ea716a25721d2764e6e5a0f2b63;de;;;7.1.;;;Eine Untersuchung zum Projekt einer digitalen umfassenden Leistungsplattform für den Schiffbau Dieses Papier konzentriert sich auf die Anforderungen des modernen Schiffbaumodus und untersucht das Projekt einer digitalen umfassenden Leistungsplattform für den Schiffbau. Der Zweck bestand darin, eine hohe Integration und Zusammenarbeit zwischen den Funktionen Design, Fertigung und Management in Schiffbauunternehmen zu realisieren und durch ein solches Lösungsprojekt, das eine innovative Entwicklungsplattform für Schiffbauunternehmen umfasst, eine hochgradig kollaborierte Industriekette mit ihren Zulieferern und Kundenindustrien zu bilden Schiffbau-Managementplattform, kollaborative geschäftsübergreifende Managementplattform, Ressourcenangebot und -nachfrage auf der Plattform für das Kollaborationsmanagement in der Industriekette. Als Kernkompetenzen von Schiffbauunternehmen wurde auch ein Datenstandard für Fertigungsressourcen vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75902-9_53 895d5e73d27bfa4f4d0070dbc7385151;de;;;7.1.;;;Prozessbasierte Analyse digital transformierender Fähigkeiten In der Industrie 4.0 werden aufgrund der technologischen Revolution viele Arbeitsplätze durch Maschinen ersetzt. Die digitale Transformation bringt neue Fähigkeiten mit sich, die die Menschen besitzen müssen. Dieses Papier präsentiert eine Lösung zur Erstellung eines Data Warehouse, um zukünftige berufliche Fähigkeiten basierend auf den tatsächlichen industriellen Geschäftsprozessen zu bewerten. Die Lösung sammelt Zeitreihendaten von Jobportalen und wandelt sie in das Data Warehouse um, um Fähigkeiten zu analysieren. Die Struktur des Data Warehouse und der Algorithmus zur Extraktion von Daten aus Stellenangeboten wurden eingeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94845-4_10 5a7eb01865d30297d642999002f082aa;de;;;7.1.;;;Die Auswirkungen von Transportstörungen auf die Leistung der E-Collaboration-Lieferkette In diesem Papier analysieren wir die Auswirkungen einer Transportunterbrechung auf die Leistung der Lieferkette mithilfe von Systemdynamiksimulationen. Die Leistungen von drei verschiedenen Lieferketten mit Internet-E-Collaboration-Tools werden mit der Annahme verglichen, dass eine Transportunterbrechung innerhalb von zwei Stufen einer fünfstufigen Lieferkette auftritt. Numerische Ergebnisse zeigen, dass Lieferketten von nicht kollaborativer Lieferkette zu kollaborativer Prognose und kollaborativer Planung (oder VMI) bei bestimmten Transportkatastrophen immer robuster werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75902-9_74 1d9ae65d9cf679fa9d5f98b27c7c3ea5;de;;;7.1.;;;Planung, Apps und das High-End-Smartphone: Erkundung der Landschaft des modernen geräteübergreifenden Wiederzugriffs Das schnelle Wachstum mobiler Geräte hat es den Benutzern erschwert, eine konsistente digitale Historie auf all ihren persönlichen Geräten zu pflegen. Selbst mit einer Vielzahl von Cloud-Computing-Lösungen wiederholen Benutzer weiterhin Websuchen und greifen erneut auf Webinhalte zu, mit denen sie bereits auf einem anderen Gerät interagiert haben. Dieses Papier präsentiert Einblicke in die geräteübergreifenden Wiederzugriffsgewohnheiten von 15 Smartphone-Nutzern. Wir haben untersucht, wie sie durch eine Kombination aus Datenprotokollierung, einer auf Screenshots basierenden Tagebuchstudie und Benutzerinterviews auf Inhalte zwischen ihrem Computer und ihrem Smartphone zugreifen. Bei 1276 geräteübergreifenden Wiederzugriffsereignissen haben wir festgestellt, dass Benutzer mit vergleichbarer Häufigkeit auf Inhalte zwischen ihrem Telefon und ihrem Computer zugreifen und dass Benutzer ihren Bedarf für den Wiederzugriff selten im Voraus planen. Basierend auf unseren Ergebnissen präsentieren wir Möglichkeiten für den Aufbau zukünftiger mobiler Systeme, um die ungeplanten Aktivitäten und den Bedarf von mobilen Benutzern beim erneuten Zugriff auf Inhalte zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21726-5_1 614be7f31f05130c9e0fbdf4ef114661;de;;;7.1.;;;M-CODD: Eine Technik zur konzeptionellen Gestaltung multimedialer Datenbanken Die Modellierung multimedialer Datenbanken im Kontext multimedialer Informationssysteme ist eine komplexe Aufgabe. Der Designer muss die Struktur und das dynamische Verhalten von Multimediaobjekten zusammen mit möglichen Benutzerinteraktionen darauf modellieren. Diese können inhaltsbasierte Abfragen und dynamische Präsentationen umfassen, die beide den Aufbau spezieller Indexstrukturen für die gespeicherten Daten erfordern können. Wir haben die . verlängert;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44819-5_5 65f93c20b1d93b2dcce490e59f3b5b06;de;;;7.1.;;;Dynamiken der Internationalisierung des europäischen Handels: Von nationaler zu europäischer Perspektive Internationalisierung ist einer der Schlüsselfaktoren der europäischen Wirtschaftsentwicklung. Wie WTO-Statistiken zeigen, wuchs das Weltaußenhandelsvolumen von 280 Mrd stetiger Anstieg für 2004, UNCTAD 2005, WTO 2005). Beide sind bekanntlich voneinander abhängig: Direktinvestitionen beinhalten Handelsaktivitäten und umgekehrt. Diese Tatsache ist im letzten Jahrzehnt in Japan zu beobachten. Der ehemalige Exportweltmeister steht heute hinter den USA, Deutschland und China auf Platz vier der führenden Exportländer.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-9254-3_8 0c7f42680b04f2e0ab3acc241f673f11;de;;;7.1.;;;Für ein besseres Verständnis von CMMI und agiler Integration – Mehrere Fallstudie von vier Unternehmen Die Menge an Software nimmt in den verschiedenen Domänen in Europa zu. Dies bietet den Industrien in kleineren Ländern gute Möglichkeiten, auf den internationalen Märkten zu arbeiten. Der Erfolg auf den globalen Märkten erfordert jedoch die schnelle Produktion qualitativ hochwertiger und fehlerfreier Software. Sowohl CMMI als auch agile Methoden scheinen eine fertige Lösung zur Verbesserung von Qualität und Durchlaufzeit zu bieten. Es gibt jedoch nicht viele empirische Belege dafür, 1) wie die Integration dieser beiden Aspekte in der Praxis erfolgen kann oder 2) was sie tatsächlich von Assessoren und Gruppen zur Verbesserung von Softwareprozessen verlangt. Das Ziel dieses Papiers ist es, das Verständnis von CMMI und agiler Integration zu verbessern, insbesondere mit Fokus auf die Forschungsfrage: Wie kann man CMMI-Assessments im „leichten“ Stil in agilen Kontexten einsetzen. Dies geschieht über vier Fallstudien, in denen Bewertungen unter Verwendung der Ziele des integrierten CMMI-Projektmanagements und der Zusammenarbeit und Koordination mit relevanten Prozessbereichen und Praktiken der Stakeholder von XP und Scrum durchgeführt wurden. Die Studie zeigt, dass der Einsatz agiler Praktiken die Erfüllung der Ziele der CMMI-Prozessbereiche unterstützen kann, aber es gibt noch viele Herausforderungen für die agilen Teams, die innerhalb der kontinuierlichen Verbesserungsprogramme gelöst werden müssen. Es identifiziert auch praktische Ratschläge für die Assessoren und Verbesserungsgruppen, die bei der Durchführung von Assessments im Kontext der agilen Softwareentwicklung zu berücksichtigen sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02152-7_30 368f4b712fbd8b116fc3969ba26949e0;de;;;7.2.;;;Unterschriften zur Beurteilung, Diagnose und Entscheidungsfindung im Altern Die computergestützte Entscheidungsfindung im Sozial- und Gesundheitswesen konzentriert sich traditionell auf die Darstellung und Umsetzung von Know-how und Leitlinien. Den zugrunde liegenden Datenstrukturen und Formalisierungen von Ontologien wurde weniger Aufmerksamkeit geschenkt. In diesem Papier zeigen wir, wie zugrunde liegende Signaturen einer Logik auf Monaden über geeignete Kategorien basieren können. Darüber hinaus plädieren wir dafür, anwendungsdomänenspezifische Logik und sogar funktionsübergreifende Logik zu verwenden, die durch allgemeine Logiken ermöglicht wird. Unsere Beispiele stammen aus der Entscheidungsfindung mit Bewertungsskalen und Konsensleitlinien in der Sozial- und Gesundheitsversorgung älterer Menschen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14058-7_27 937752f05e3d851e7262c69e65bb9287;de;;;7.2.;;;Einfluss der räumlichen Auflösung auf moderne Salienzmodelle Visuelle Aufmerksamkeit wurde in den letzten Jahrzehnten umfassend untersucht und angewendet. Zur Modellierung der visuellen Aufmerksamkeit wurden verschiedene Rechenmodelle vorgeschlagen, aber die meisten Forschungen werden unter der Annahme durchgeführt, dass bestimmte Bilder nur wenige begrenzte räumliche Auflösungen aufweisen. Die räumliche Auflösung ist ein wichtiges Merkmal des Bildes. Die Bildauflösung kann einen gewissen Einfluss auf die visuelle Aufmerksamkeit haben, und sie kann auch die Wirksamkeit von Modellen für die visuelle Aufmerksamkeit beeinflussen. Der Einfluss der räumlichen Auflösung auf Salienzmodelle wurde bisher nicht systematisch untersucht. In diesem Artikel diskutieren wir zwei Probleme im Zusammenhang mit Bildauflösung und Salienz: (1) Die meisten Salienzmodelle enthalten eine Downsampling-Funktion, die die Auflösung von Originalbildern ändert, um die Rechenkomplexität zu verringern und die Formalisierung des Algorithmus beizubehalten. Im ersten Teil diskutieren wir den Einfluss des Downsampling-Verhältnisses auf die Effektivität klassischer Salienzmodelle. (2) Im zweiten Teil untersuchen wir die Effektivität von Salienzmodellen in Bildern unterschiedlicher Auflösung. In diesem Teil wird ein Datensatz verwendet, der Bilder und entsprechende Augenbewegungsdaten in verschiedenen räumlichen Auflösungen bereitstellt. Wir wenden die Standardparameter für die Neuskalierung an und behalten sie unverändert bei. Anschließend analysieren wir die Leistung klassischer Modelle auf 8 Auflösungsstufen. Zusammenfassend untersuchen und analysieren wir systematisch Probleme der räumlichen Auflösung in der Erforschung der Salienzmodellierung. Die Ergebnisse dieser Arbeit können einen Leitfaden für die Verwendung klassischer Modelle in Bildern unterschiedlicher Auflösung liefern und sind hilfreich bei der Optimierung der rechnerischen Komplexität.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24078-7_8 269d8e84c378b27cd1cc8954ed64d208;de;;;7.2.;;;Modellierung unvollständiger räumlicher Informationen in einer Fuzzy-Objektorientierten Datenbank Die Annahme eines objektorientierten Datenbankmodells wurde von mehreren Forschern als angemessen für GIS-Anwendungen vorgeschlagen [1,5,12]: Es ermöglicht die Entwicklung eines Satzes von Datentypen, die eine Eins-zu-Eins-Korrespondenz mit geografischen Einheiten und somit direkt aufrechterhalten spiegelt die menschliche Wahrnehmung der Realität wider.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36423-8_5 cfb37cbdf26f0f351a223818cdd8e502;de;;;7.1.;;;Einführung des IT-Governance-Frameworks: Etablierung von Erfolgsfaktoren Die spektakulären Unternehmenszusammenbrüche im letzten Jahrzehnt haben zusammen mit der Einführung des Sarbanes-Oxley Act und ähnlicher Gesetze auf der ganzen Welt ein bedeutendes Bewusstsein für IT-Governance gefördert. Die Ursachen für Erfolg und Misserfolg bei der Einführung von IT-Governance-Frameworks müssen jedoch noch ausreichend untersucht werden. Diese Studie zielt darauf ab, diesen Mangel zu beheben, indem ein Forschungsmodell vorgeschlagen wird, um Faktoren zu untersuchen, die den Erfolg der Einführung von IT-Governance beeinflussen. Das Forschungsmodell stützt sich auf das Informationssystem-Erfolgsmodell von Delone und McLean (2003) und das Technologie-Organisation-Umwelt-Framework von Tomatzky und Fleisher (1990), um eine integrierte konzeptionelle Perspektive für die Untersuchung der Einführung und des Erfolgs von IT-Governance zu bieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24148-2_15 4bbf796ae282c849926aff72de295513;de;;;7.1.;;;Aktuelle und neue Anwendungen In diesem Kapitel beschreiben wir einige Anwendungsszenarien und experimentelle Prototypen basierend auf der Technologie von Multimedia-Datenbankmanagementsystemen. Dies gibt uns eine Vorstellung von typischen Anwendungsumgebungen für Multimedia-Datenbankmanagementsysteme und den unterschiedlichen Anforderungen, die diese Umgebungen auszeichnen. Wir geben zunächst einige Beispiele für die Datenbankunterstützung für Anwendungen mit viel Benutzerinteraktion. Zweitens betrachten wir kurz experimentelle Systeme, die sich mit dem inhaltsbasierten Abruf von Multimediadaten befassen. Schließlich fassen wir einige andere Anwendungsdomänen zusammen, die Multimedia-Datenbanksysteme verwenden können. Offensichtlich gibt es noch viele weitere experimentelle Systeme, die wir hier nicht behandeln können. Wir wollen dem Leser nur einen Eindruck von dem breiten Anwendungsspektrum und deren Potenzial in Bezug auf Multimediatechnik und Datenbanksysteme vermitteln.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0957-0_2 d1d8921799fe622b2c96956074b3e957;de;;;7.1.;;;Verstehen des Prozesses von Informationssystemen und der Entwicklung von IKT-Lehrplänen Die Lehrpläne der Universitäten für Informationssysteme und IKT müssen häufig aktualisiert werden, um den sich ändernden Technologien und deren Nutzung Rechnung zu tragen. Viele Autoren der Curriculumtheorie widmen Ansätzen zur Curriculumsänderung, die auf Forschungs-, Entwicklungs- und Verbreitungsmodellen basieren, die größte Aufmerksamkeit. Dieses Papier skizziert einige Einwände gegen die Anwendung von Modellen dieser Art, indem es beschreibt, wie ein Universitätslehrplan in Informationssystemen und IKT aufgebaut und umgebaut wird, und bietet stattdessen drei alternative Modelle an, eines basiert auf Lehrplanverhandlungen, ein anderes auf Innovationsübersetzung von Netzwerktheorie und die dritte auf einem ökologischen Modell. In unserer Diskussion dieser Modelle wird gezeigt, dass jedes Modell einen höheren Komplexitätsgrad als Forschungs-, Entwicklungs- und Verbreitungsmodelle in die Beschreibung des Curriculumentwicklungsprozesses einbezieht.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35615-0_31 218b379a52f3272d3d566c12f123da7d;de;;;7.1.;;;Verfahrensingenieure Die Fertigung bei UFC umfasst die Werkstatt (Zerspaner, Blech- und Montagetechniker) und die Verfahrenstechnik. Verfahrenstechniker, oder „Methoden“, wie sie in der Arbeit und in dieser Arbeit allgemein genannt werden, sind für die Erstellung von Betriebsanweisungen für Maschinenbediener zur Verwendung in der Teilefertigung verantwortlich. Sie programmieren NC-Drehmaschinen, Fräsmaschinen und Stanzautomaten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-22235-3_6 cb9ce4e5d48bbbd12dbc18c00e05828b;de;;;7.2.;;;Der Einfluss von Testfällen auf die Wartbarkeit deklarativer Vorgehensmodelle Deklarative Ansätze zur Prozessmodellierung gelten als gut geeignet für hochvolatile Umgebungen, da sie ein hohes Maß an Flexibilität bieten. Probleme beim Verständnis und der Pflege deklarativer Prozessmodelle erschweren jedoch deren Verwendung. Um diese Unzulänglichkeiten zu kompensieren, wurde eine testgetriebene Modellierung vorgeschlagen. In diesem Artikel wird von einem kontrollierten Experiment berichtet, in dem die Auswirkungen von testgetriebener Modellierung, insbesondere der Einführung von Testfällen, auf die Prozessmodellpflege bewertet wurden. Dabei modifizierten die Studierenden deklarative Vorgehensmodelle, ein Modell mit Testfallunterstützung und ein Modell ohne Testfallunterstützung. Die in diesem Experiment gesammelten Daten zeigen, dass die Einführung von Testfällen die kognitive Belastung signifikant senkt und die wahrgenommene Qualität der Veränderungen erhöht. Zudem führten Modellierer, die Testfälle zur Hand hatten, deutlich mehr Änderungsvorgänge durch, während gleichzeitig die Qualität der Prozessmodelle nicht abnahm.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21759-3_12 b53e2eb937b078676f1101f787ae83ca;de;;;7.2.;;;Zur Bewertung einiger Koronarstationen Beschrieben wird die Evaluation der Behandlung von Patienten mit Herzerkrankungen auf sechs Koronarstationen (CCU) in den Niederlanden. Nach der vorläufigen Diagnose haben etwa 32 % der aufgenommenen Patienten einen Verdacht auf einen akuten oder kürzlich aufgetretenen Infarkt. Es werden Ergebnisse präsentiert, die Unterschiede und Ähnlichkeiten zwischen CCUs zeigen. Die Beziehungen der klinischen Entitäten mit der Infarktgröße, wie sie durch biochemische Methoden bestimmt wurde, werden gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-93201-4_96 475f7be6867edf99c02b87c34a7e6df8;de;;;7.2.;;;Bildung effizienter Pipeline-Betriebsverfahren basierend auf einem ontologischen Ansatz Der Ansatz zur Entwicklung von Computersystemen zur automatisierten Konstruktion der Basisontologie wird vorgestellt. Es wurde die mathematische Unterstützung des Funktionierens intellektueller Agenten der Aktivitätsplanung auf der Grundlage von Ontologien entwickelt, die es ermöglichten, ihr Verhalten im Raum von Staaten zu formalisieren. Die Verwendung von Ontologien ermöglicht es, den Suchweg vom Anfangszustand zum Zielzustand einzugrenzen und irrelevante Alternativen abzulehnen. Ein solcher Ansatz ermöglichte es, die Aufgabe der Planung der Aktivitäten des intellektuellen Agenten auf das Problem der dynamischen Programmierung zu reduzieren, bei der die Zielfunktion die Zusammensetzung zweier Funktionen ist, die Wettbewerbskriterien festlegen. Anhand der entwickelten Methode wurde die Berechnung der notwendigen Kosten für die Pipeline-Modernisierung und der zu erwartenden wirtschaftlichen Wirkung aus deren Anwendung vorgenommen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-01069-0_41 c68938c4bef328ea822243be5ceafdd2;de;;;7.1.;;;Wie sich verhaltensbasierte Informatiksysteme im Gesundheitswesen mit medizinischen Informatiksystemen verbinden: Ein in Arbeit Die Entwicklungen in den letzten zehn Jahren zeigen, dass verhaltensbasierte Gesundheitsinformatiksysteme (BHIS) effektiv mit medizinischen Informatiksystemen (MISs) verbunden werden können und in Zukunft eine noch effektivere Integration versprechen. Dieses Kapitel enthält Beispiele für Implementierungstechniken und aktuelle Schnittstellenprozesse, die hauptsächlich aus Entwicklungen in der Veterans Health Administration (VHA) stammen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84996-344-2_12 a74b6f103fe9a4e94f8be087ea2c17a8;de;;;7.2.;;;Bewertung von nachhaltigem, maßgefertigtem Wohnen: Der Fall von CAP 44 Die Messung des Wertes eines Produkts vor dem Start seiner Produktion ist eine Möglichkeit, seinen guten Verkauf sicherzustellen. Die vorliegende Studie schlägt eine Methodik vor, um den intrinsischen Wert einer Wohnung zu bewerten. Der Wert wird in Bezug auf Nachhaltigkeit und Individualisierung gemessen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44736-9_29 46e54036d0b2c43dc95b61281a7080da;de;;;7.2.;;;Nutzungsbewusste Suche in Peer-to-Peer-Systemen Wir untersuchen Lösungen für ein Quellerkennungsproblem, das im Rahmen der Bereitstellung zeitkritischer kontextsensitiver Dienste über ein Peer-to-Peer-Kommunikationsparadigma definiert wird. Die vorgeschlagenen Mechanismen, die in ubiquitären Computerumgebungen stattfinden, nutzen die Lokalität von Referenzeigenschaften, die durch Kontextnutzungsmuster gezeigt werden, mit effizienten Mitteln, die von Active Networks bereitgestellt werden. Simulationsergebnisse zeigen, dass die neuen Verfahren den Netzwerkverkehr reduzieren, während sie die gute Suchzeit von Flood Broadcasting-Verfahren beibehalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77092-3_49 819f1bf881b48048ff60a798dab88ea7;de;;;7.2.;;;Multimedia Retrieval in einer medizinischen Bildsammlung: Ergebnisse mit Modalitätsklassen Die effektive Kommunikation zwischen Benutzer und Systemen ist ein Hauptziel im Bereich Multimedia Information Retrieval. In diesem Artikel wird die Modalitätsklassifikation von Bildern verwendet, um die Benutzeranfragen innerhalb der von den Organisatoren bereitgestellten ImageCLEF Medical Retrieval-Kollektion zu erweitern. Unser Hauptbeitrag besteht darin, aufzuzeigen, wie und wann Ergebnisse durch das Verständnis modalitätsbezogener Herausforderungen verbessert werden können. Dazu wird eine detaillierte Analyse der Ergebnisse der durchgeführten Experimente präsentiert und der Vergleich zwischen diesen Ergebnissen zeigt, dass die Verbesserung durch Modalitätsklassen-Abfrageerweiterung abfrageabhängig ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36678-9_13 c749080949c7031e26d31aa2d5e300c2;de;;;7.2.;;;Berücksichtigung von Missverständnissen bei der automatischen Bewertung von Essays mit A-TEST - Amrita Test Evaluation and Scoring Tool In großen Klassenzimmern mit begrenzter Lehrerzeit ist eine automatische Auswertung von Textantworten und ein personalisiertes Echtzeit-Feedback während des Lernprozesses erforderlich. In diesem Papier diskutieren wir das Amrita Test Evaluation & Scoring Tool (A-TEST), ein Textbewertungs- und Bewertungstool, das aus Kursmaterialien und von menschlichen Bewertern bewerteten Textantworten und auch direkt aus Lehrereingaben lernt. Wir verwenden die latente semantische Analyse (LSA), um die Schlüsselkonzepte zu identifizieren. Während die meisten AES-Systeme LSA verwenden, um die Antworten der Schüler mit einer Reihe von idealen Aufsätzen zu vergleichen, ignoriert dies das Erlernen der häufigen Missverständnisse, die Schüler über ein Thema haben können. A-TEST verwendet LSA auch, um Missverständnisse aus den Essays mit der niedrigsten Bewertung zu lernen und dies als Faktor für die Bewertung zu verwenden. „A-TEST“ wurde anhand von zwei Datensätzen mit 1400 und 1800 vorbewerteten Textantworten ausgewertet, die von zwei Lehrern manuell bewertet wurden. Die Scoring-Genauigkeit und die Kappa-Scores zwischen dem abgeleiteten „A-TEST“-Modell und den menschlichen Bewertern waren mit denen zwischen den menschlichen Bewertern vergleichbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08368-1_31 2f20bbf620e10f54916dd4f03a49a299;de;;;7.2.;;;Eine kritische Analyse der Semiotic Engineering Evaluation Methods Semiotic Engineering ist eine semiotische Theorie der HCI, die die Mensch-Computer-Interaktion als kontingenten Prozess der Designer-zu-Benutzer-Metakommunikation betrachtet. Die Theorie hat derzeit zwei Bewertungsmethoden, die Bewertung der Kommunikationsfähigkeit und die semiotische Inspektion. Ziel unserer Forschung ist es, beide Methoden kritisch zu hinterfragen, um sie insbesondere in ontologischer und epistemischer Hinsicht aufeinander abzustimmen und im Gebiet der Semiotic Engineering klarer zu positionieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74800-7_62 e9920f2e3ecb2647dbb35f0c052910c6;de;;;7.2.;;;Endbenutzer-Anpassung von intelligenten Umgebungen Einer der bemerkenswertesten Aspekte des World Wide Web ist, wie es normalen Menschen ohne technische Kenntnisse ermöglicht hat, an einer digitalen Revolution teilzunehmen, indem es die Art und Weise verändert, wie Dienstleistungen wie Einkaufen, Bildung und Unterhaltung angeboten und konsumiert werden. Die Verbreitung vernetzter Geräte, Sensoren und Aktoren, wie sie in digitalen Häusern zu finden sind, läutet einen ähnlichen „grundlegenden Wandel“ in den Fähigkeiten normaler Menschen ein, die von ihnen bewohnten elektronischen Räume anzupassen und zu nutzen. Durch die Koordination der Aktionen vernetzter Geräte oder Dienste ist es möglich, dass sich die Umgebung ganzheitlich und reaktiv verhält, um die Bedürfnisse der Bewohner zu befriedigen und eine intelligente Umgebung zu schaffen. Ferner ist es durch Zerlegen herkömmlicher Haushaltsgeräte in Sätze von elementareren netzwerkzugänglichen Diensten möglich, entweder das ursprüngliche Gerät zu rekonstruieren oder neue benutzerdefinierte Geräte zu schaffen, indem grundlegende Netzwerkdienste auf neuartige Weise kombiniert werden, wodurch ein sogenanntes virtuelles Gerät erzeugt wird. Dieses Prinzip kann erweitert werden, um Softwareanwendungen zu zerlegen und neu zusammenzusetzen, sodass Benutzer ihre eigenen maßgeschneiderten Anwendungen erstellen können. Zusammenfassend werden solche benutzererstellten Entitäten als Meta – Appliances oder – Applications bezeichnet, allgemeiner als MAps abgekürzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-93808-0_14 e24bbf2facf24c2ff8f1191370a06bc2;de;;;7.2.;;;Interaktiver Cluster-basierter personalisierter Abruf großer Dokumentensammlungen In letzter Zeit fügen viele Systeme und Websites Personalisierungsfunktionen zu ihren bereitgestellten Diensten hinzu. Bei großen Dokumentensammlungen ist es jedoch für den Benutzer schwierig, von Beginn seiner Suche an wirksame Abfragen zu richten, da genaue Abfragebegriffe möglicherweise nicht im Voraus bekannt sind. In diesem Beitrag beschreiben wir ein System, das einen hybriden Ansatz anwendet, um einem Benutzer bei der Identifizierung der relevantesten Dokumente zu helfen: Am Anfang wendet es dynamische Personalisierungstechniken an, die auf der Benutzermodellierung basieren, um die Suche in einer großen Dokumenten- und Multimedia-Inhaltssammlung einzuleiten, dann die Abfrage wird unter Verwendung eines auf Clustern basierenden Ansatzes weiter verfeinert, der dem Benutzer nach der Verarbeitung einer Untersammlung von Dokumenten mehr Kategorien zur Auswahl aus einer Liste neuer Schlüsselwörter präsentiert. Wir analysieren die wichtigsten Implementierungsoptionen für die modularen Komponenten der vorgeschlagenen Architektur: ein maschineller Lernansatz für personalisierte Dienste, ein Clustering-basierter Ansatz für eine benutzergerichtete Abfrageverfeinerung und ein Parallelverarbeitungsmodul, das Dokumentenclustering unterstützt, um die Antwort des Systems zu verringern mal.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68127-4_22 3bc805f3d4efb046e08bbda4b76b583d;de;;;7.2.;;;Zum Effekt der Lokalität bei der Komprimierung sozialer Netzwerke Wir verbessern die State-of-the-Art-Methode zur Graphkompression, indem wir die in sozialen Netzwerkgraphen beobachtete Referenzlokalität nutzen. Wir nutzen bestimmte dichte Teile dieser Graphen, die es uns ermöglichen, den Gesamtplatzbedarf weiter zu reduzieren. Die Analyse und experimentelle Bewertung unserer Methode bestätigt unsere Beobachtungen, da unsere Ergebnisse Verbesserungen gegenüber einer Vielzahl von Diagrammen sozialer Netzwerke darstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06028-6_71 f72a7ada8115ab8a1808b5e5bbbe3d76;de;;;7.2.;;;iCLEF 2004 Track-Übersicht: Pilotexperimente zur interaktiven sprachenübergreifenden Beantwortung von Fragen Für den interaktiven Track (iCLEF) des Cross-Language Evaluation Forum (CLEF) 2004 verwendeten fünf teilnehmenden Teams ein gemeinsames Bewertungsdesign, um die Fähigkeit interaktiver Systeme ihres eigenen Designs zu bewerten, die Aufgabe zu unterstützen, spezifische Antworten auf eng fokussierte Fragen in Sammlung von Dokumenten, die in einer anderen Sprache verfasst sind als der Sprache, in der die Fragen formuliert wurden. Diese Aufgabe ist ein interaktives Gegenstück zur vollautomatischen sprachübergreifenden Fragebeantwortungsaufgabe bei CLEF 2003 und 2004. Dieses Papier beschreibt das Evaluierungsdesign von iCLEF 2004, skizziert die Experimente der teilnehmenden Teams und präsentiert erste Ergebnisse aus Analysen der offiziellen Evaluierung Maßnahmen, die jedem teilnehmenden Team gemeldet wurden.;-;-;-;https://link.springer.com/chapter/10.1007/11519645_32 c7477f5b506712b42c860461ab996fe4;de;;;7.2.;;;Verwalten unstrukturierter E-Commerce-Informationen Dieses Dokument beschreibt eine E-Commerce-Anwendung, die auf dem Electronic Trading Opportunities System basiert. Dieses System ermöglicht es „Trade Points“ und handelsbezogenen Einrichtungen, Informationen per E-Mail auszutauschen. Dieses Umfeld bietet kleinen und mittleren Unternehmen ein enormes Handelspotenzial und -möglichkeiten, aber seine Effizienz ist begrenzt, da die Menge der im Umlauf befindlichen Nachrichten die menschliche Grenze überschreitet, um sie zu analysieren. Die hier beschriebene Anwendung unterstützt diesen Analyseprozess und ermöglicht die Extraktion der relevantesten Merkmale aus den Nachrichten. Die Bewerbung ist in drei Phasen gegliedert. Der erste ist für die Analyse und die Bereitstellung struktureller Informationen zu Texten zuständig. Die zweite identifiziert relevante Informationen zu Texten durch Clustering- und Kategorisierungsprozesse. Die dritte wendet Informationsextraktionstechniken an, die durch die Verwendung einer domänenspezifischen Wissensdatenbank unterstützt werden, um die unstrukturierten Informationen in strukturierte umzuwandeln. Am Ende erhält der Benutzer mehr Qualität in der Analyse und kann leichter interessante Ideen, Trends und Details finden, was kleinen und mittleren Unternehmen neue Handelsmöglichkeiten eröffnet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45275-1_36 4aa5df30ee7398b34b1a22762543b3aa;de;;;7.2.;;;SABINE: Ein Mehrzweck-Datensatz von semantisch annotierten sozialen Inhalten Social Business Intelligence (SBI) ist die Disziplin, die Unternehmensdaten mit sozialen Inhalten kombiniert, damit Entscheidungsträger die aus der Umwelt wahrgenommenen Trends analysieren können. SBI stellt die Forschung in verschiedenen Bereichen wie IR, Data Mining und NLP vor Herausforderungen. Leider wird die SBI-Forschung oft durch den Mangel an öffentlich zugänglichen, realen Daten für experimentelle Ansätze und durch die Schwierigkeiten bei der Bestimmung einer Grundwahrheit eingeschränkt . Um diese Lücke zu füllen präsentieren wir;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00668-6_5 65adc4ebfb89622fe8c16f5ce508de3c;de;;;7.2.;;;Unterstützung des Ermittlungsprozesses gegen Cyberkriminalität: Effektive Diskriminierung von Quellcode-Autoren basierend auf Informationen auf Byte-Ebene Die Quellcode-Autorenschaftsanalyse ist das spezielle Gebiet, das versucht, den Autor eines Computerprogramms zu identifizieren, indem jedes Programm als eine linguistisch analysierbare Einheit behandelt wird. Dies basiert in der Regel auf anderen unbestrittenen Programmbeispielen desselben Autors. Es gibt mehrere Fälle, in denen die Anwendung einer solchen Methode von großem Nutzen sein könnte, z präsentieren unseren Ansatz, der auf Byte-Level-N-Gram-Profilen basiert und eine Erweiterung einer Methode ist, die erfolgreich auf die Zuschreibung der Autorschaft von Texten in natürlicher Sprache angewendet wurde. Wir schlagen ein vereinfachtes Profil und ein neues Ähnlichkeitsmaß vor, das weniger kompliziert ist als der Algorithmus, der bei der Attribution der Textautorschaft verfolgt wird, und es scheint besser geeignet für die Quellcode-Identifizierung zu sein, da es besser mit sehr kleinen Trainingssätzen umgehen kann. Die Experimente wurden an zwei verschiedenen Datensätzen durchgeführt, einer mit in C++ geschriebenen Programmen und der zweite mit in Java geschriebenen Programmen. Im Gegensatz zu den traditionellen sprachabhängigen Metriken, die in früheren Studien verwendet wurden, kann unser Ansatz ohne zusätzliche Kosten auf jede Programmiersprache angewendet werden. Die dargestellten Genauigkeitsraten sind viel besser als die besten gemeldeten Ergebnisse für die gleichen Datensätze.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75993-5_14 c7891faa737f725ba4fe8ecd3e58b048;de;;;7.1.;;;Änderungsmanagement Veränderung in Organisationen ist eines der Themen, die aus verschiedenen Perspektiven und von verschiedenen Disziplinen als wichtiger Aspekt im Management untersucht wurden. Früher haben wir die physiologischen Aspekte von Veränderungen beachtet und überprüft, jetzt werden wir uns auf die Managementaspekte von Veränderungen innerhalb von Organisationen konzentrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-2757-4_13 a0e5e3d4a7bc4258e6fdcf0e9e91a6eb;de;;;7.1.;;;Das Wesen und die Rolle der organisatorischen Kontrolle Alle Organisationen (Unternehmen, Universitäten, Regierungen, Krankenhäuser) sind damit beschäftigt, menschliche Anstrengungen zur Erreichung der Unternehmensziele zu lenken. Unabhängig von ihrem formalen Zweck bestehen Organisationen aus Personen mit eigenen persönlichen Interessen. Auch wenn diese Personen und Gruppen dabei helfen wollen, organisatorische Ziele zu erreichen, muss die Organisation, der sie angehören, ihre Bemühungen koordinieren und auf bestimmte Ziele ausrichten. Daher müssen Organisationen das Verhalten von Menschen beeinflussen oder kontrollieren, wenn sie ihre Pläne erfüllen und ihre Ziele erreichen wollen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-1359-5_1 9c4e54deda615d7bab80537627b6488b;de;;;7.2.;;;Neuordnung der kollaborativen Filterung mit mehreren eigenständigen Modalitäten Ein Reranking-Algorithmus, Multi-Rerank, wird vorgeschlagen, um die Empfehlungsliste zu verfeinern, die durch kollaborative Filteransätze erzeugt wird. Multi-Rerank ist in der Lage, mehrere in sich geschlossene Modalitäten zu erfassen, d. h. Artikelmodalitäten, die aus der Benutzer-Artikel-Matrix extrahiert werden können, um Empfehlungslisten zu verbessern. Experimentelle Ergebnisse zeigen, dass Multi-Rerank zur Verbesserung verschiedener CF-Ansätze wirksam ist und zusätzliche Vorteile erzielt werden können, wenn mit mehreren Modalitäten anstelle einer einzelnen Modalität neu eingestuft wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20161-5_74 d8f248c69a88eaa19f691ddce0ed26f0;de;;;7.2.;;;Bewertung von Empfehlungen zu domänenübergreifenden Nachrichtenartikeln In dieser Arbeit werden Methoden untersucht, um den Nutzen von Empfehlungsdiensten für Nachrichtenartikel zu erhöhen. Der Zugriff auf verschiedene Nachrichtenanbieter ermöglicht es uns, domänenübergreifende Benutzerpräferenzen zu berücksichtigen. Wir beschäftigen uns mit Empfehlungssystemen mit ständig wechselnden Artikelkollektionen. Wir werden in der Lage sein, Benutzerfeedback von einem realen Empfehlungssystem zu beobachten, das in verschiedenen Domänen arbeitet. Wir werden evaluieren, wie Ergebnisse aus bestehenden Datensätzen den tatsächlichen Nutzerreaktionen entsprechen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38844-6_40 b4b57dfbb5f340180eae1db8902d0627;de;;;7.2.;;;Effiziente Pseudo-Relevanz-Feedback-Methoden für kollaborative Filterempfehlungen Kürzlich wurden relevanzbasierte Sprachmodelle als effektiver Ansatz für die kollaborative Filterung demonstriert. Nichtsdestotrotz ist diese Familie von Pseudo-Relevanz-Feedback-Techniken rechenintensiv, um sie auf Daten im Webmaßstab anzuwenden. Außerdem erfordern sie die Verwendung von Glättungsverfahren, die abgestimmt werden müssen. Diese Tatsachen führen uns dazu, andere ähnliche Techniken mit besseren Kompromissen zwischen Effektivität und Effizienz zu untersuchen. Insbesondere analysieren wir in diesem Papier die Anwendbarkeit von vier bekannten Abfrageerweiterungstechniken mit mehreren Wahrscheinlichkeitsschätzungen auf die Empfehlungsaufgabe. Darüber hinaus analysieren wir den Effekt der Nachbarschaftslänge und entwickeln eine neue Wahrscheinlichkeitsschätzung, die diese Eigenschaft berücksichtigt und zu besseren Empfehlungsrankings führt. Schließlich stellen wir fest, dass die vorgeschlagenen Algorithmen dramatisch schneller sind als diejenigen, die auf relevanzbasierten Sprachmodellen basieren, keine Parameter zum Abstimmen haben (außer denen der Nachbarschaft) und einen besseren Kompromiss zwischen Genauigkeit und Vielfalt bieten /Neuheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30671-1_44 8697bb20461d54da7903871503e72511;de;;;7.2.;;;TweetCred: Echtzeit-Glaubwürdigkeitsbewertung von Inhalten auf Twitter Bei plötzlich einsetzenden Krisenereignissen verringert das Vorhandensein von Spam, Gerüchten und gefälschten Inhalten auf Twitter den Wert der Informationen in seinen Nachrichten (oder „Tweets“). Eine mögliche Lösung für dieses Problem besteht darin, mittels maschinellem Lernen automatisch die Glaubwürdigkeit eines Tweets zu bewerten, also ob eine Person den Tweet als glaubwürdig oder vertrauenswürdig einstufen würde. Dies wurde oft als überwachtes Klassifizierungsproblem in einer Offline-Umgebung (post-hoc) formuliert und untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13734-6_16 7583e7e83d6107b2b7c37cc88c623599;de;;;7.2.;;;Auswählen von Trainingsdaten für die lernbasierte Twitter-Suche Das Erlernen des Rankings wird häufig als effektives Gewichtungsschema für die Twitter-Suche angewendet. Da die meisten Learning-to-Rank-Ansätze auf überwachtem Lernen basieren, kann ihre Wirksamkeit durch die Einbeziehung von Trainingsdaten geringer Qualität beeinträchtigt werden. In diesem Papier schlagen wir einen einfachen und effektiven Ansatz vor, der einen Abfragequalitätsklassifikator lernt, der die Trainingsdaten automatisch pro Abfrage auswählt. Experimentelle Ergebnisse der TREC-Tweets13-Sammlung zeigen, dass unser vorgeschlagener Ansatz die konventionelle Anwendung des Ranking-Lernens übertrifft, die das Ranking-Modell bei allen verfügbaren Trainingsabfragen lernt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16354-3_55 71540764e89927ef38474efaa08b13cd;de;;;7.2.;;;Die Anwendung von Preference Mapping in der ästhetischen Website-Evaluierung Das Ziel dieser Studie war es, eine Technik namens Preference Mapping auf den Kontext der ästhetischen Website-Bewertung anzuwenden. Preference Mapping ist eine Methode, bei der Evaluatoren und Stimuli gleichzeitig im selben mehrdimensionalen Raum repräsentiert werden. Benutzersegmentierungen und Präferenztreiber können leicht identifiziert werden. Wir argumentieren, dass diese Technik besonders für die Bewertung des Website-Designs geeignet ist, insbesondere für alternative Prototypenvergleiche. Die Anwendung dieser Methode auf einen tatsächlichen Datensatz führte zu einem besseren Verständnis der Teilnehmerpräferenzen, die durch einen einfachen Vergleich der Durchschnittsbewertungen nicht erreicht werden konnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23768-3_96 3092b4f0cec875f672b468e861e2de8c;de;;;7.2.;;;Aufgabenorientierte Webbenutzermodellierung zur Empfehlung Wir schlagen einen Ansatz vor, um das Navigationsverhalten von Webbenutzern basierend auf Mustern auf Aufgabenebene zu modellieren. Die entdeckten „Aufgaben“ werden probabilistisch als latente Variablen charakterisiert und repräsentieren die zugrundeliegenden Interessen oder das beabsichtigte Navigationsziel der Benutzer. Die Möglichkeit, die Wahrscheinlichkeiten zu messen, mit denen Seiten in Benutzersitzungen mit verschiedenen Aufgaben verknüpft sind, ermöglicht es uns, Aufgabenübergänge und Modalitätswechsel innerhalb (oder zwischen) Benutzersitzungen zu verfolgen und Navigationsmuster auf Aufgabenebene zu generieren. Wir schlagen auch ein Empfehlungssystem für maximale Entropie vor, das die Statistiken über die Navigationsaktivitäten der Benutzer auf Seitenebene mit unseren Nutzungsmustern auf Aufgabenebene kombiniert. Unsere Experimente zeigen, dass die Muster auf Aufgabenebene eine bessere Interpretierbarkeit der Navigation von Webbenutzern bieten und die Genauigkeit der Empfehlungen verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/11527886_15 9b7d932679da2bc78e4023baaa9dd56c;de;;;7.2.;;;Automatisieren der persönlichen Kategorisierung mit künstlichen neuronalen Netzen Sowohl Organisationen als auch Privatanwender investieren viel Zeit in die Zuordnung von gelesenen oder geschriebenen Dokumenten zu Kategorien. Eine automatische Dokumentenklassifizierung, die der subjektiven Klassifizierung des Benutzers entspricht, wird häufig verwendet, aber es sind noch viele anspruchsvolle Forschungsarbeiten erforderlich. Die selbstorganisierende Karte (SOM) ist ein künstliches neuronales Netz (ANN), das mathematisch charakterisiert wird, indem hochdimensionale Daten in eine zweidimensionale Darstellung transformiert werden. Dies ermöglicht ein automatisches Clustering der Eingabe, während die Topologie höherer Ordnung erhalten bleibt. Eine eng verwandte Methode ist der Algorithmus der Learning Vector Quantization (LVQ), der überwachtes Lernen verwendet, um die korrekte Datenklassifizierung zu maximieren. Diese Studie bewertet und vergleicht die Anwendung von SOM und LVQ auf die automatische Dokumentenklassifizierung basierend auf einem subjektiv vordefinierten Satz von Clustern in einer bestimmten Domäne. Im Experiment wurde eine Reihe von Dokumenten einer Organisation verwendet, die von einem Domänenexperten manuell geclustert wurden. Die Ergebnisse zeigen, dass trotz der subjektiven Natur der menschlichen Kategorisierung, automatische Dokumenten-Clustering-Verfahren mit beträchtlichem Erfolg dem subjektiven, persönlichen Clustering entsprechen, wobei das LVQ-Verfahren günstiger ist.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44566-8_19 7398ce0037df99f854005d89aae4bbdf;de;;;7.1.;;;Ein Prozess zur Entwicklung anpassungsfähiger und offener Servicesysteme: Anwendung im Supply Chain Management Serviceorientiertes Computing wird immer beliebter. Es ermöglicht den Entwurf flexibler und anpassungsfähiger Softwaresysteme, die bei Bedarf von Softwarekunden problemlos übernommen werden können. Diese Vorteile sind im Kontext des Supply Chain Managements von größter Bedeutung, daher schlägt dieses Papier vor, ProDAOSS, einen Prozess zur Entwicklung anpassungsfähiger und offener Servicesysteme, auf eine industrielle Fallstudie in der Ausgangslogistik anzuwenden. ProDAOSS ist als Plug-In für I-Tropos - eine breitere Entwicklungsmethodik - konzipiert, um den gesamten Softwareentwicklungslebenszyklus abzudecken. Auf Analyseebene wurden flexible Geschäftsprozesse generisch mit verschiedenen sich ergänzenden Sichten modelliert. Zunächst wird eine aggregierte Dienstansicht des gesamten Anwendungspakets angeboten, dann werden Dienste mithilfe einer Agentenontologie – durch das i*-Framework – aufgeteilt, um sie als eine Organisation von Agenten darzustellen. Eine dynamische Ansicht vervollständigt die Dokumentation, indem sie die Service-Realisierungspfade anbietet. In der Entwurfsphase schlägt die Servicecenter-Architektur ein architektonisches Referenzmuster für die Servicerealisierung auf anpassungsfähige und offene Weise vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01347-8_47 9d2804d823f79855df5058b6bd1e55ad;de;;;7.1.;;;Produktentwicklung mit Feature-Modellierung in mehreren Ansichten Die Featuremodellierung mit mehreren Ansichten kann Anwendungen aus verschiedenen Phasen der Produktentwicklung unterstützen, indem für jede dieser Anwendungen eine eigene Ansicht auf ein Produkt bereitgestellt wird. Jede Ansicht enthält ein für die Anwendung spezifisches Feature-Modell des Produkts. Aktuelle Ansätze für die Featuremodellierung mit mehreren Ansichten befassen sich nur mit Formularfeatures. Somit werden nur die späteren Produktentwicklungsphasen unterstützt, in denen die Geometrie vollständig spezifiziert werden muss. Außerdem beschäftigen sie sich nur mit Einzelteilen, nicht mit Baugruppen. Hier wird ein neuer Ansatz für die Featuremodellierung mit mehreren Ansichten vorgestellt, der diese Mängel überwindet. Es unterstützt konzeptionelles Design, Baugruppendesign, Teiledetaildesign und Teilefertigungsplanung, indem es eine Ansicht für jeden von ihnen bereitstellt. Die Ansichten und die Operationen, die darauf angewendet werden können, und die Arten, wie die Ansichten konsistent gehalten werden, werden beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35637-2_4 468ee34155cf35fbf45a49ce27bb5afc;de;;;7.1.;;;Bedingungen, die eine effektive Mitgliedschaft in mehreren Teams ermöglichen Die Forschung zur Arbeit in Teams und deren zunehmender Bedeutung als Ansatz zur Organisationsgestaltung hat eine lange Tradition. Während die implizite Annahme war, dass Einzelpersonen gleichzeitig in einem Team arbeiten, werden jetzt viele Einzelpersonen aufgefordert, mehrere Projekte und die damit verbundenen multiplen Teammitgliedschaften (MTM) gleichzeitig zu jonglieren. Dies schafft eine Reihe interessanter Möglichkeiten und Herausforderungen für Organisationen, die sich für eine solche Arbeitsstrukturierung entscheiden. In diesem Papier überprüfen wir die begrenzte vorhandene Forschung zur MTM-Arbeit. Anschließend präsentieren wir die Ergebnisse einer Umfrage, die die Verbreitung der MTM-Arbeit dokumentiert, und die Ergebnisse einer Pilotinterviewstudie, die eine Reihe von Herausforderungen, Vorteilen und förderlichen Bedingungen im Zusammenhang mit MTM-Arbeit aufzeigt. Wir diskutieren die Implikationen für Manager, die in MTM-Umgebungen arbeiten, sowie für Wissenschaftler von Teams und beschreiben dabei, was wir als zentrale Punkte auf der Agenda für die zukünftige Forschung zu diesem Thema sehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-73025-7_16 5ab3dd5b081787a898c26d26aa687e2f;de;;;7.1.;;;Ein Forschungsmodell zur Unternehmensmodellierung im IKT-gestützten Prozesswandel Es gibt wenige empirische Studien und begleitende Modelle der Unternehmensmodellierung (EM) in der Informations- und Kommunikationstechnologie (IKT) ermöglichten Prozessänderung. Dieses Papier stellt ein Forschungsmodell vor, das in einem Projekt verwendet werden soll, das den Einsatz von EM bei IKT-gestützten Prozessänderungen in norwegischen Westküstenunternehmen untersucht. Aufbauend auf Kategorien und Unterkategorien aus dem Bereich der Prozessmodellierung stellt das Modell ein breites Spektrum an Aussagen zur EM-Praxis dar und weckt damit unterschiedliche Richtungen der weiteren Untersuchung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89218-2_17 81459c96127e0b7efcbe983caf4be70f;de;;;7.1.;;;Hintergrund und Einführung Auch wenn die Ausgaben für Software eskalieren, bleibt die Produktivität hinter der Nachfrage nach neuer Software zurück. Gelieferte Software ist oft von schlechter Qualität und sehr schwierig (und teuer) zu warten. Die gleichen Trends sind in der gesamten Softwarebranche erkennbar. Die Wiederverwendung von Software hat jedoch das Potenzial, die Produktivität zu steigern, Kosten zu senken und die Softwarequalität zu verbessern. Jones (1984) schätzt, dass von allen 1983 geschriebenen Codes wahrscheinlich weniger als 15 Prozent einzigartig, neuartig und spezifisch für einzelne Anwendungen waren. Daher ist die Wiederverwendung vorhandener Softwareprodukte ein offensichtlicher Kandidatenbereich zur Steigerung der Produktivität und Kostensenkung, um die überflüssigen 85 Prozent der Entwicklung ganz oder teilweise zu erreichen. Ein geschätzter Durchschnitt von nur etwa 5 Prozent des Codes wird tatsächlich wiederverwendet (Frakes und Nejmeh 1987, zitieren DeMarco). Es wird erwartet, dass Verbesserungen der Softwarequalität durch den verstärkten Einsatz und das Testen einzelner Komponenten mit der daraus resultierenden Isolierung und Korrektur aller entdeckten Probleme entstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-3764-9_1 789190dd961b7e1f558cfdab7b60def7;de;;;7.1.;;;Stand der Praxis bei der Schätzung des Softwareaufwands: Eine Umfrage und Literaturübersicht Die Aufwandsschätzung ist ein Schlüsselfaktor für den Erfolg von Softwareprojekten, definiert als die Lieferung von Software in vereinbarter Qualität und Funktionalität innerhalb des Zeitplans und des Budgets. Traditionell wurde die Aufwandsschätzung für die Planung und Verfolgung von Projektressourcen verwendet. Auf diesen Zielen basierende Aufwandsschätzungsmethoden konzentrieren sich typischerweise auf die Bereitstellung genauer Schätzungen und unterstützen in der Regel keine Ziele, die in der Softwareindustrie in letzter Zeit wichtig geworden sind, wie z. Dieser Artikel präsentiert die Ergebnisse einer Studie zur Schätzung des Softwareaufwands aus industrieller Perspektive. Die Studie untersucht industrielle Ziele, die Fähigkeiten von Softwareorganisationen, bestimmte Schätzmethoden anzuwenden, und tatsächlich angewandte Praktiken der Softwareaufwandsschätzung. Abschließend werden die in der Umfrage identifizierten Anforderungen an Aufwandsschätzungsmethoden mit bestehenden Schätzmethoden verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22386-0_18 742855d78db44e119274cc498583a101;de;;;7.1.;;;Entwicklung eines Building Information Modeling Educational Framework für den tertiären Sektor in Neuseeland Während Building Information Modeling (BIM) schnell als Motor für Veränderungen im Architektur-, Ingenieur- und Bausektor auf der ganzen Welt anerkannt wird, war die Einführung von BIM in Graduierten- und Postgraduierten-Lehrprogramme im tertiären Sektor in Neuseeland bisher minimal . Neuseeland hat eine fortgeschrittene, wenn auch kleine Wirtschaft, und obwohl BIM zunehmend in der Industrie eingesetzt wird, gibt es keinen nationalen BIM-Ausbildungsrahmen und nur eine Hochschule im tertiären Sektor bietet BIM-Unterricht in Neuseeland (NZ) an. In diesem Papier werden die aktuellen Ansätze zur Integration von BIM in Studien- und Zertifikatsprogramme an 25 führenden internationalen Universitäten, pädagogische Ansätze und kritische Erfolgsfaktoren von BIM untersucht. Basierend auf dieser Überprüfung wird ein Entwurf eines BIM-Bildungsrahmens für Neuseeland vorgeschlagen. Ein Ansatz für die weitere Gestaltung, Entwicklung und Bereitstellung des Frameworks wird ebenfalls angeboten. Dieses Papier soll eine Debatte anstoßen und einen Konsens zwischen der akademischen Gemeinschaft und der Industrie über einen nationalen BIM-Bildungsrahmen für Neuseeland herbeiführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41501-2_60 f511beb04f242c4820816b09ea6f9830;de;;;7.1.;;;Die Effizienz von Wettbewerb und Planung Der Zweck dieses Papiers besteht darin, einige Anmerkungen zu den Vorzügen von Wettbewerb und Planung zur Erzielung von Effizienz in entwickelten Industrieländern zu machen. Ein Thema wird der Wettbewerb sein;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-15410-4_7 1fa9c4c40107a5d587a83b14380e7da5;de;;;7.2.;;;Zur Härte der informationstheoretischen Mehrparteienrechnung Wir greifen das folgende offene Problem der informationstheoretischen Kryptographie erneut auf: Hängt die Kommunikationskomplexität unbedingt sicherer Berechnungen von der Berechnungskomplexität der berechneten Funktion ab? Können zum Beispiel rechnerisch unbeschränkte Spieler ein berechnen?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24676-3_26 6bec5647431a8d73dbd4685198b0c4fb;de;;;7.2.;;;Lernende Benutzer- und Objektdarstellungen für Empfehlungssysteme Die Bereiche Recommender Systems (RS) und Information Retrieval (IR) sind eng miteinander verbunden. Ein Empfehlungssystem kann normalerweise als spezialisiertes Informationsabrufsystem angesehen werden, bei dem der Informationsbedarf im Benutzerprofil implizit ist. Diese Parallelität wurde in der Vergangenheit ausgenutzt, um Methoden zwischen Feldern zu übertragen. Ein beliebter Ansatz besteht darin, die standardmäßige Wortsackdarstellung von Abfragen und Dokumenten in IR auf die gleiche Ebene zu stellen wie die Benutzer- und Elementdarstellungen, die aus der Benutzer-Element-Matrix in RS erhalten werden. Darüber hinaus sind in den letzten Jahren neue Formen der Darstellung von Wörtern und Dokumenten als dicht verteilte Repräsentationen entstanden. Diese Einbettungen zeigen die Fähigkeit, die syntaktischen und semantischen Beziehungen von Wörtern zu erfassen und wurden sowohl in der IR- als auch in der natürlichen Sprachverarbeitung angewendet. Unser Ziel ist es, Möglichkeiten zu untersuchen, diese Techniken anzupassen, um Benutzer-/Artikeldarstellungen zu erstellen, ihre Qualität zu bewerten und Wege zu finden, sie zu nutzen, um nützliche Empfehlungen abzugeben. Darüber hinaus werden wir Wege untersuchen, um diese Darstellungen zu generieren, die die Eigenschaften nutzen, die speziell für kollaborative Filterdaten gelten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-15719-7_45 ff38a8334c85abb4bfd325ff5244581a;de;;;7.2.;;;Personalisierte Video-Ähnlichkeitsmessung Als effektive Methode zum Verwalten und Erkunden großer Videosammlungen hat die personalisierte Videosuche in den letzten Jahren große Aufmerksamkeit erfahren. Eines der Hauptprobleme bei der Entwicklung der entsprechenden Technik besteht darin, die Ähnlichkeitsmaße zu entwerfen und zu bewerten. Die meisten der bestehenden Ansätze übernehmen einfach die traditionelle euklidische Distanz oder ihre Varianten. Folglich leiden sie im Allgemeinen unter zwei Hauptnachteilen: (1) geringe Effektivität – die Genauigkeit des Wiederauffindens ist schlecht. Einer der Hauptgründe ist, dass sehr wenig Forschung zum Entwurf eines effektiven Fusionsschemas zur Integration multimodaler Informationen (z weitgehend entkoppelt von den entsprechenden Datenbankzugriffsmethoden (Indexierungsstrukturen). Dieser Artikel berichtet über eine neue Distanzmetrik namens personalisierte Videodistanz, um Informationen über individuelle Vorlieben und multimodale Eigenschaften effektiv in einer kompakten Signatur zu verschmelzen. Darüber hinaus wurde eine neuartige Hashing-basierte Indexierungsstruktur entwickelt, um einen schnellen Abrufprozess und eine bessere Skalierbarkeit zu ermöglichen. Basierend auf zwei großen Videotestsammlungen und sorgfältig konzipierten Abfragen mit unterschiedlicher Komplexität wurden umfangreiche empirische Studien durchgeführt. Wir beobachten signifikante Verbesserungen gegenüber den bestehenden Techniken in verschiedenen Aspekten.;-;-;-;https://link.springer.com/article/10.1007/s00530-010-0223-8 ff6e78da3f3d054667731cf1a57ee4d0;de;;;7.2.;;;Ein exportierbares CGIF-Modul aus der CP-Umgebung: Ein pragmatischer Ansatz Wir haben die Conceptual Programming Environment (CP) von einer einzelnen eigenständigen Anwendung auf eine Reihe von Komponentenmodulen aufgerüstet, um die Flexibilität der Umgebung zu erhöhen und die Verwendung jedes der Module durch Anwendungen außerhalb der Umgebung zu ermöglichen. Damit können die CP-Module, insbesondere CGIF, pragmatisch in realen Anwendungen getestet werden. Das CGIF-Modul ist als Komponente gekapselt und hat eine API-Spezifikation erhalten. Dieses Modul implementiert die NMSU-modifizierte ICCS2001-Version des CGIF-Austauschformats für Conceptual Graphs (CGs), das Teil von dpANS ist und für die Verknüpfung mit in C, C++, Java geschriebenen Anwendungen eingerichtet ist;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27769-9_21 6ac74fe7f7ea596cb40bceea94accaa7;de;;;7.1.;;;Integrierte Geschäftsprozessmodellierung, Analyse und unterstützende Tools Die Methode der objektorientierten Prozessoptimierung orientiert sich bei der Betrachtung des Unternehmens am gesamten Produktionsprozess. Sie führt im Zuge des Reengineering-Prozesses zu einer marktgerechten Organisation und Architektur der Geschäftsprozesse. Das Verfahren führt den Anwender von einer allgemeinen Architektur zur spezifischen Architektur der Systemunterstützung und zu den Schnittstellen in seinem Unternehmen. Die Modellstruktur gewährleistet die Integration und das gemeinsame Verständnis der Geschäftsprozesse im Unternehmen. Sie schafft die Voraussetzung, den Einsatz von Designprozessen als präzise Kosten-, Qualitäts- oder Zeitverbesserung den jeweiligen Geschäftsprozessen und Ressourcen zuzuordnen. Sie ist somit die Basis für jeden Optimierungsprozess.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35067-7_6 b0ec06465fa49652c0d5c5e746b99f84;de;;;7.1.;;;E-Business im Bausektor: ein serviceorientierter Ansatz Das e-NVISION-Projekt (www.e-nvision.org) zielt darauf ab, eine innovative e-Business-Plattform für KMU zu entwickeln und zu validieren, die es ihnen ermöglicht: in ihren Organisationen spezielle Geschäftsszenarien zu modellieren und anzupassen, die von ihren Kunden und Lieferanten gefordert werden, alle ihre Unternehmensanwendungen einer serviceorientierten Architektur folgen und rechtliche, wirtschaftliche und soziale Dienste externer Organisationen einbeziehen. Dieses Papier gibt einen Überblick über die Ergebnisse des Projekts zur Definition, Implementierung und Validierung von externen und Integrationsdiensten innerhalb der e-Business-Plattform. Die Übersicht enthält Details zu den e-Business-Szenarien des Bausektors, den verwendeten serviceorientierten Techniken, offenen Fragen zu tatsächlichen Implementierungen und Anwendungen sowie den Erfahrungen aus der Praxis.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03424-4_20 fcbf92179db937655439af457f20dd05;de;;;7.1.;;;Fortgeschrittene Schiffskontrollmethoden Das Kapitel stellt zwei Hauptforschungsrichtungen der Schiffsführung auf See vor: dynamische Positionierung (DP) des Schiffes und Entscheidungsunterstützung bei Kollisionen auf See. Die Steuerungsstruktur und Grundvoraussetzungen für das DV-System sind definiert. Ausgewählte Fragen der automatischen Steuerung eines dynamisch positionierten Schiffes werden diskutiert. Es wird eine Überprüfung fortgeschrittener Methoden zur Steuerung eines DP-Schiffs unter Berücksichtigung der Aufgaben bestimmter Teilsysteme durchgeführt. Im Rahmen der Entscheidungsunterstützung wird das Thema Kollisionsvermeidung auf See diskutiert. Dieses Problem wird als dynamische multikriterielle Optimierungsaufgabe definiert, die darin besteht, nach effektiven Lösungen zu suchen, die bestimmte Kriterien innerhalb einer Menge akzeptabler Lösungen erfüllen. Um dieses Problem zu lösen, wird die evolutionäre Methode der Bahnplanung verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-48587-0_20 b048e85d0ed47240d27afba3ae58598d;de;;;7.1.;;;Wissensmanagement für innovatives Design Innovation ist für Industrieunternehmen, die mehr denn je im Wettbewerb stehen, überlebensnotwendig. Aus diesem Grund ist es entscheidend, den Designern zu helfen, Innovationen schneller und effizienter als die Konkurrenz zu entwickeln. Das Ziel unserer Studie ist es, Designern einen Ansatz vorzuschlagen, um Innovationen in innovativem Design zu erleichtern. Durch die Analyse der multidisziplinären Literatur wird Wissensmanagement (KM) als vielversprechender Ansatz zur Unterstützung innovativer Gestaltung angesehen. Die Wechselwirkungen zwischen KM und Innovation wurden untersucht. Aus einer menschzentrierten Perspektive modellieren wir KM für Innovation, indem wir uns auf die effizientere Schaffung und Nutzung von Wissen im Design konzentrieren. Ein hierarchisches Modell wird konstruiert, um KM-Aktivitäten in Innovation zu verwandeln. Schließlich wird die Anwendbarkeit und Nützlichkeit unseres Ansatzes anhand eines Softwareprototyps demonstriert, der mit einem Industriepartner getestet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15973-2_45 b98d2b39982cfe4a26db867ad1197031;de;;;7.1.;;;Kontinuierliche Qualitätsverbesserung in der Logistikdienstleistungserbringung Getrieben durch zunehmende Wettbewerbsbeschränkungen begannen Unternehmen, zumindest Teile ihrer internen Aktivitäten vertraglich an spezialisierte externe Logistikdienstleister auszulagern. Dabei entstanden neue Geschäftsmodelle wie die Fourth Party Logistics, die als Koordinator der entstehenden Logistiknetzwerke fungiert. Die Hauptaufgabe des Anbieters ist die Planung, Überwachung und Messung der unterschiedlichen Netze seiner Kunden. Basierend auf einer Methode zur Integration von Prozessmodellierung und deren Simulation, komplexer Ereignisverarbeitung zur Erfassung von Echtzeitinformationen über Prozessausführungen und Serviceprofilen zur Messung der Qualität nachfolgender Serviceanbieter wird ein Closed-Loop-Ansatz zur Verbesserung der Servicequalität vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06695-0_22 c2a17e90ca3fd2a583ed73c8e58320c7;de;;;7.1.;;;Variabilitätsbasierte Releaseplanung Ein Releaseplan definiert die kurzfristige Weiterentwicklung eines Softwareprodukts im Hinblick auf den Umfang des Entwicklungsprojekts. In der Praxis basiert die Releaseplanung oft nur auf fragmentarisch definierten Anforderungen. Aktuelle Ansätze der Releaseplanung gehen jedoch davon aus, dass ein Anforderungskatalog in Form einer vollständigen flachen Anforderungsliste vorliegt. Dieses sehr frühe Engagement für Details reduziert die Flexibilität eines Produktmanagers bei der Planung der Produktentwicklung. In diesem Artikel wird untersucht, wie Variabilitätsmodellierung, eine Softwareproduktlinientechnik, verwendet werden kann, um die Entwicklung einer einzelnen Software zu planen, zu kommunizieren und zu verfolgen. Variabilitätsmodellierung kann die Anzahl der für die Release-Planung erforderlichen Entscheidungen und den Informationsbedarf für die Kommunikation mit Stakeholdern reduzieren. Ein industrieller Fall motiviert und veranschaulicht den Ansatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21544-5_15 9b131fe4515989538ef9a8c51964827e;de;;;7.1.;;;Produktionsplanung und -steuerung: Das Verbreitungsinstrument der Betriebsstrategie Das Ziel dieser Forschung ist die Analyse der Produktionsplanung und -steuerung (PPC) als Verbreitungsinstrument der Betriebsstrategie in Industrien, die im Wettbewerb um ökologische Nachhaltigkeit stehen. Wir haben eine qualitative Methodik verwendet, die durch Fallstudien gestützt wird, basierend auf Interviews mit Managern, die für die Produktionsplanung und -steuerung von vier großen brasilianischen Industrien verantwortlich sind. Die Ergebnisse zeigten, dass PPC ein effizientes Instrument sein kann, um die Betriebsstrategie aufgrund seiner Integrationsfähigkeit in die vielen Schlüsselbereiche einer Branche zu verbreiten, was praktische Auswirkungen auf die für die Formulierung und Umsetzung der Betriebsstrategie Verantwortlichen haben kann. Das Ergebnis ist wertvoll, da PPC als Verbündeter der Betriebs-/Produktionsleiter eingesetzt werden kann, um die Umsetzung der Betriebsstrategie in der Werkstatt zu fördern und zu leiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-51133-7_99 2146ca5afc605a62268ff57c90054bfa;de;;;7.1.;;;Nationale wissenschaftliche und technische Informationssysteme haben Potenzial für die Entwicklung wissenschaftlicher Diplomatie in der GUS Dieser Beitrag gibt eine Einschätzung des aktuellen Stands nationaler Systeme für wissenschaftliche und technische Informationen (NSs STI) in den Kategorien Regulierungsrahmen, Regierungsmodell und Struktur. Generell besteht für die GUS-Staaten die Tendenz, eine nachhaltige wirtschaftliche Entwicklung jedes Staates durch die Gestaltung und Umsetzung staatlicher Politik zu erreichen, unter anderem durch die Stärkung der Rolle von Wissenschaft und Technologie und die Einführung von Innovationen im Einklang mit den strategischen und taktischen Aufgaben der wissenschaftliche und technologische Entwicklung der Länder. Der Aufbau nationaler WTI-Systeme trägt dazu bei, den wissenschaftlichen und technischen Informationsaustausch, die Bildung gemeinsamer wissenschaftlicher Interessen und den Ausbau der internationalen Zusammenarbeit zu verbessern. Wissenschaftliche und technische Informationsressourcen, die in den nationalen WTI-Systemen konzentriert sind, sind das Hauptpotenzial für die Entwicklung der wissenschaftlichen Diplomatie und die Integration der GUS-Mitgliedstaaten in den Informationsraum. Es wird ein Vorschlag zur Realisierbarkeit eines spezialisierten elektronischen ressortübergreifenden Informations- und Analysesystems formuliert, das Bundesministerien, Akademien der Wissenschaften, wissenschaftliche Stiftungen, Entwicklungsinstitutionen (mit Befugnissen und Finanzen für koordinierte Wettbewerbe), Forschungsinstitute, Universitäten und andere Organisationen der Bereich der wissenschaftlichen und technischen Zusammenarbeit im Allgemeinen und in der GUS im Besonderen. Ein solches System wird dazu beitragen, die Planung gemeinsamer Projekte, die Finanzierung, den Aufbau wissenschaftlicher Staatsexpertise, die Auswahl zukunftsträchtiger Forschungsgebiete, die Themen von Wettbewerben und die Bewertung der Ergebnisse von Forschung und Entwicklung zu koordinieren. Das Format der bilateralen internationalen Zusammenarbeit in gemeinsamen wissenschaftlichen Projekten der GUS-Staaten ist ein vielversprechender Mechanismus für die wissenschaftliche Diplomatie, die Einführung von Innovationen zur Integration des wissenschaftlichen und technologischen Raums der GUS und zur Stärkung der Sicherheit jedes GUS-Mitgliedstaates und der Commonwealth als Ganzes.;-;-;-;https://link.springer.com/article/10.3103/S0147688219040105 25d01c161aa285846d4eafa8fb354980;de;;;7.1.;;;Entscheidungshilfe: Anwendung des State-of-the-Art Decision Support Systems (DSS) sind Sammlungen interagierender Computersysteme und Softwaretools, die die automatische oder halbautomatische Ableitung von Lösungsvorschlägen aus einem gegebenen Entscheidungsmodell ermöglichen. Ein DSS greift auf eine oder mehrere Datenquellen zu, um alle vom gepflegten Entscheidungsmodell prognostizierten Planungsdaten zu sammeln und leitet Lösungsvorschläge ab, die sowohl Planungsziele als auch Planungsanforderungen berücksichtigen. Wir fokussieren uns auf den Lösungsableitungsprozess mit besonderem Interesse an der Berücksichtigung fortlaufend und unvorhersehbar ankommender Planungsdaten (z.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-9682-4_3 0a8f75eb42dbac5dfdb2078c203a2efa;de;;;7.2.;;;Entwicklung und Evaluation eines digitalen Vegetations-Interaktionsspiels für Kinder In dieser Studie entwickeln wir ein neues digitales Sugoroku-Spiel, das das Phänomen der Vegetationssukzession in einem Wald darstellt. Die Ergebnisse der experimentellen Auswertung zeigten, dass das Spiel das Interesse der Schüler, die am Spiel teilnahmen, effektiv stimulierte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04052-8_37 205a1cd4e24bd1eb6d6b9a02bb478323;de;;;7.2.;;;ePartizipationsforschung: Ein Längsschnitt Dieses Papier bietet eine Aktualisierung des bestehenden Forschungsstandes zur ePartizipation und eine Längsschnittanalyse der Entwicklung des Bereichs ePartizipation auf der Grundlage eines gemeinsamen Analyserahmens. Anhand einer Literaturrecherche über den Zeitraum von April 2006 bis einschließlich März 2011 werden 123 Artikel identifiziert, analysiert und in die Kategorien eParticipation-Akteure, Aktivitäten, Kontextfaktoren, Wirkungen und Evaluation eingeordnet. Die Ergebnisse zeigen, dass das Feld eine hohe Dynamik aufweist, da sich die Schwerpunkte auf eParticipation-Aktivitäten, Kontextfaktoren und Effekte im Laufe der Zeit verschoben haben, teilweise in kontraintuitive Richtungen. Aufbauend auf der Analyse liefert der Schlussfolgerungsabschnitt Inputs für eine Forschungsagenda. Dazu gehören die Notwendigkeit, über eine technologische Perspektive hinauszugehen und die fortwährende Verlagerung des Forschungsschwerpunkts von der Regierung auf die Bürger und andere Interessengruppen zu fördern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23333-3_9 90a8ad52ecfec7504e98228b000e3b8a;de;;;7.2.;;;Personalisierte Buchempfehlungen, die mithilfe von Social Media-Daten erstellt wurden Buchempfehlungssysteme können kommerziellen Websites, Social-Media-Sites und digitalen Bibliotheken, um nur einige zu nennen, zugute kommen, indem sie den Wissenserwerbsprozess von Benutzern erleichtern, die nach Büchern suchen, die sie ansprechen. Auch wenn bestehende Buchempfehlungen, die entweder auf kollaborativer Filterung, Textinhalten oder dem hybriden Ansatz basieren, den Benutzern beim Auffinden von Büchern helfen (unter den Millionen verfügbaren), sind ihre Empfehlungen aufgrund ihrer kollektiven Annahme nicht personalisiert genug, um die Erwartungen der Benutzer zu erfüllen auf Gruppenpräferenz und/oder genaue Inhaltsübereinstimmung, was ein Fehler ist. Um dieses Problem anzugehen, haben wir entwickelt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24396-7_31 690f6eed2109442d1a3ddde7a64e7f56;de;;;7.2.;;;Indirekte Ausrichtung zwischen mehrsprachigen Ontologien: Eine Fallstudie zu koreanischen und schwedischen Ontologien Die existierenden Ontologie-Alignment-Verfahren haben versucht, automatisch semantische Korrespondenzen zwischen Ontologien zu erhalten. Sie gehen jedoch davon aus, dass alle Elemente von Quellontologien von identischen Sprachen geschrieben werden. In diesem Papier haben wir eine theoretische Idee zum Aufbau einer indirekten Ausrichtung zwischen mehrsprachigen Ontologien vorgestellt. Dadurch wurde eine neuartige Architektur zum Wiederverwenden und Zusammensetzen von Ausrichtungen zwischen Ontologien entworfen. Für eine einfache Fallstudie haben wir zwei mehrsprachige Ontologien gesammelt, die von koreanischen und schwedischen Sprachen geschrieben wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01665-3_24 fd80405a31822729cefd0b5701fdf763;de;;;7.1.;;;Strategien zur Entwicklung von Richtlinien und Anforderungen für einen sicheren und privaten elektronischen Handel Während das Internet die Art und Weise, wie Geschäfte abgewickelt werden, dramatisch verändert, sind Sicherheits- und Datenschutzfragen von größerer Bedeutung als je zuvor. Ein Hauptfehler in evolutionären elektronischen Handelssystemen ist das Versäumnis, Sicherheits- und Datenschutzprobleme angemessen anzugehen, daher werden Sicherheits- und Datenschutzrichtlinien entweder nachträglich für das System entwickelt oder überhaupt nicht. Ein Grund für dieses Versagen ist die Schwierigkeit, traditionelle Techniken des Software Requirements Engineering auf Systeme anzuwenden, in denen sich die Richtlinien ständig ändern, da auf die schnelle Einführung neuer Technologien, die diese Richtlinien gefährden, reagiert werden muss. Sicherheit und Datenschutz sollten von Anfang an ein wichtiges Anliegen sein, aber Praktiker benötigen neue systematische Mechanismen zur Bestimmung und Bewertung von Sicherheit und Datenschutz. Um diese Unterstützung zu bieten, setzen wir Szenariomanagement und zielorientierte Analysestrategien ein, um das Design und die Weiterentwicklung von Systemen für den elektronischen Handel zu erleichtern. Die Risiko- und Folgenabschätzung ist entscheidend, um sicherzustellen, dass die Systemanforderungen mit den Sicherheitsrichtlinien und Datenschutzrichtlinien eines Unternehmens in Einklang stehen. Daher passen wir unseren zielorientierten Ansatz an, indem wir eine Compliance-Aktivität einschließen, um sicherzustellen, dass sich alle Richtlinien in den tatsächlichen Systemanforderungen widerspiegeln. Unsere integrierte Strategie konzentriert sich daher auf die erste Spezifikation von Sicherheits- und Datenschutzrichtlinien und deren Operationalisierung in Systemanforderungen. Das ultimative Ziel unserer Arbeit ist es, tragfähige Lösungen zur Unterstützung der frühen Phasen des Softwarelebenszyklus zu demonstrieren, die insbesondere den Bedarf an neuen Ansätzen zur Gewährleistung der Abdeckung von Sicherheits- und Datenschutzanforderungen adressieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-1467-1_5 fc2bd8c8a3251d87fb9ef041842ed19f;de;;;7.2.;;;Ein neues Clustering-Ensemble-Framework In diesem Papier wird ein neues Kriterium für die Clustervalidierung vorgeschlagen. Dieses neue Clustervalidierungskriterium wird verwendet, um die Güte eines Clusters anzunähern. Die Cluster, die einen Schwellenwert der vorgeschlagenen Maßnahme erfüllen, werden ausgewählt, um an dem Clustering-Ensemble teilzunehmen. Um die ausgewählten Cluster zu kombinieren, werden einige Methoden als Aggregatoren verwendet. Unter Verwendung dieses neuen Cluster-Validierungskriteriums wird das erhaltene Ensemble anhand einiger bekannter und standardmäßiger Datensätze bewertet. Die empirischen Studien zeigen vielversprechende Ergebnisse für das unter Verwendung des vorgeschlagenen Kriteriums erhaltene Ensemble im Vergleich zu dem unter Verwendung des Standard-Cluster-Validierungskriteriums erhaltenen Ensemble. Um die besten Ergebnisse zu erzielen, liefert das Verfahren einen Algorithmus, auf dessen Grundlage man herausfinden kann, wie man die beste Teilmenge von Clustern aus einem Pool von Clustern auswählt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27337-7_19 0288df93283bc9733f70e975ff4856b0;de;;;7.2.;;;Eine Hybridtechnik für private standortbasierte Abfragen mit Datenbankschutz Mobilgeräte mit globalen Positionierungsfunktionen ermöglichen es Benutzern, Points of Interest (POI) in ihrer Nähe abzurufen. Um die Privatsphäre der Benutzer zu schützen, ist es wichtig, keine genauen Benutzerkoordinaten an nicht vertrauenswürdige Unternehmen weiterzugeben, die standortbasierte Dienste anbieten. Derzeit gibt es zwei Hauptansätze zum Schutz der Standortdaten von Benutzern:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02982-0_9 19ae3d064dd1c6fb9026bde561aae130;de;;;7.2.;;;Bewertung der Entfernung von Registrierungsdaten durch Shredder-Programme Shredder-Programme versuchen, die inhärente Unfähigkeit von Windows zu überwinden, Daten vollständig zu löschen. Ein Aktenvernichter ist nützlich, wenn man den Besitz eines Computers übertragen oder entsorgen muss, aber er kann von einem Verdächtigen ausgenutzt werden, um belastende Beweise zu löschen. Die meisten Shredder-Programme behaupten, alle Datenspuren zu entfernen. Dieses Papier untersucht diese Behauptungen, indem es forensische Untersuchungen von Computern durchführt, auf denen Schredderprogramme verwendet wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-84927-0_5 31f794d43d1b1cee4e266ec77d4c67c9;de;;;7.2.;;;Sozialinformatik als Wissensprojekt lehren Die Lehre der Sozialinformatik stellt die Herausforderung, Zukunftsszenarien der Technologieentwicklung und -nutzung darzustellen und zu kritisieren. Wir stellen uns vor, diese Herausforderung zu meistern, indem wir den Studierenden einen authentischen, interdisziplinären Bildungsrahmen bieten und praktische Erfahrungen aus dem Leben bieten. In diesem Beitrag werden wir zunächst die Idee von „Wissensprojekten“ entwickeln, um solche Bildungssettings zu fördern. Dann konzentrieren wir uns auf unsere Bemühungen, ein webbasiertes Softwaresystem namens CommSy zu entwickeln, das die Kommunikation und Koordination in Lerngemeinschaften unterstützt, die an Wissensprojekten beteiligt sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35663-1_27 2690a941ec336e531d1b8d0c42ca595a;de;;;7.2.;;;Wie kommuniziert man Empfehlungen? Evaluierung einer adaptiven Annotationstechnik In diesem Beitrag präsentieren wir eine Bewertung einer adaptiven Anmerkungstechnik (die Verwendung von Symbolen, um dem Benutzer bei der Auswahl des relevantesten vorgeschlagenen Elements zu helfen) unter Verwendung der Grounded Theory-Methodik. Ziel der Evaluation war es, das beste Icon herauszufinden, um die Systemempfehlungen möglichst effektiv zu kommunizieren.;-;-;-;https://link.springer.com/chapter/10.1007/11555261_97 b502b8391db8d7ee1287ca3c721a603f;de;;;7.2.;;;Analyse, Neugestaltung und Bewertung mit Teasing Apart, Piecing Together In diesem halbtägigen Tutorial lernen die Teilnehmer, wie und wann sie Teasing Apart, Piecing Together (TAPT) verwenden, eine zweiphasige Designmethode zum Verständnis und zur Neugestaltung von Benutzererfahrungen in neuen Kontexten. TAPT wurde entwickelt, um eine Lücke im Bereich erlebnisorientierter Methoden zu schließen, insbesondere im Hinblick auf das Verständnis ihrer sozialen und emotionalen Facetten. TAPT wurde sowohl in der Industrie als auch in der Wissenschaft erfolgreich eingesetzt, und dieser Workshop wird auf die Erfahrungen des Tutors in diesem Bereich zurückgreifen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23768-3_121 55a1a4f68151e7b6f0ed9199e67d0f1f;de;;;7.2.;;;Zufällige Indizierung zum Auffinden ähnlicher Knoten in großen RDF-Graphen Wir schlagen einen Ansatz zum Durchsuchen großer RDF-Graphen vor, der fortschrittliche Vektorraummodelle und insbesondere Random Indexing (RI) verwendet. Wir generieren zuerst Dokumente aus einem RDF-Graphen und indizieren sie dann mit RI, um einen semantischen Index zu generieren, der dann verwendet wird, um Ähnlichkeiten zwischen Graphknoten zu finden. Wir haben mit großen RDF-Graphen im Bereich Life Sciences experimentiert und die Domänenexperten in zwei Schritten engagiert: erstens, um eine Reihe von Schlüsselwörtern zu generieren, die für sie von Interesse sind, und zweitens, um die Qualität des Outputs der Random-Indexing-Methode zu beurteilen , die eine Reihe ähnlicher Begriffe (Literale und URIs) für jedes interessierende Keyword generiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25953-1_13 274fdc80e3771b54bfd0a6113dc8ca5e;de;;;7.2.;;;Interaktives Wiederauffinden von Markenbildern durch Verschmelzen von semantischen und visuellen Inhalten In diesem Beitrag schlagen wir ein effizientes Abfragesystem für Abfragen vor, das Markenbilder nach Ähnlichkeit aus den digitalen Bibliotheken von Patent- und Markenämtern abrufen kann. Logobilder werden sowohl durch ihren semantischen Inhalt durch die Wiener Codes als auch durch ihren visuellen Inhalt durch Form und Farbe als visuelle Hinweise beschrieben. Die Markendeskriptoren werden dann durch eine ortsabhängige Hashing-Datenstruktur indiziert, um ungefähr;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20161-5_32 de5102a7b8e4f3900e9f861f7f1dc120;de;;;7.2.;;;MIRACLE beim Ad-hoc CLEF 2005: Zusammenführen und Kombinieren ohne einen einzigen Ansatz zu verwenden Dieses Papier stellt den Teamansatz von 2005 Miracle für die Aufgaben der Ad-hoc-Informationsabfrage vor. Das Ziel der diesjährigen Experimente war zweierlei: weiterhin die Wirkung von Kombinationsansätzen auf Informationsbeschaffungsaufgaben zu testen und unsere grundlegenden Verarbeitungs- und Indexierungswerkzeuge zu verbessern und sie mit seltsamen Kodierungsschemata an neue Sprachen anzupassen. Ausgangspunkt war eine Reihe grundlegender Komponenten: Wortstammbildung, Transformation, Filterung, Eigennamenextraktion, Absatzextraktion und Pseudorelevanzfeedback. Einige dieser Basiskomponenten wurden in unterschiedlichen Kombinationen und Anwendungsreihenfolge für die Dokumentenindexierung und die Abfrageverarbeitung verwendet. Es wurden auch Kombinationen zweiter Ordnung getestet, indem der Durchschnitt oder die selektive Kombination der Dokumente, die durch verschiedene Ansätze für eine bestimmte Abfrage abgerufen wurden, ermittelt wurde. Im mehrsprachigen Track konzentrierten wir unsere Arbeit auf den Zusammenführungsprozess der Ergebnisse einsprachiger Läufe, um ein mehrsprachiges Gesamtergebnis zu erhalten, wobei wir uns auf verfügbare Übersetzungen stützten. In beiden sprachenübergreifenden Tracks haben wir verfügbare Übersetzungsressourcen verwendet, und in einigen Fällen haben wir einen kombinierten Ansatz verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/11878773_4 6ae8caf64105847ebc1cedff30b73e94;de;;;7.2.;;;Graphbasiertes Transferlernen für das Management der Variabilität von Hirnsignalen in NIRS-basierten BCIs Eine der größten Einschränkungen beim Einsatz von Brain-Computer-Interfaces (BCIs) basierend auf Nahinfrarot-Spektroskopie (NIRS) in realistischen Interaktionssituationen ist die lange Kalibrierungszeit, die vor jedem Einsatz benötigt wird, um einen fachspezifischen Klassifikator zu trainieren. Eine Möglichkeit, diese Kalibrierungszeit zu reduzieren, besteht darin, Daten, die von anderen Benutzern oder aus früheren Aufzeichnungssitzungen desselben Benutzers gesammelt wurden, als Trainingssatz zu verwenden. Gehirnsignale sind jedoch sehr variabel und die Verwendung heterogener Daten zum Trainieren eines einzelnen Klassifikators kann die Klassifikationsleistung dramatisch verschlechtern. Dieses Papier schlägt ein Transfer-Learning-Framework vor, in dem wir die Variabilität von Gehirnsignalen im Merkmalsraum mithilfe eines zweiteiligen Graphen modellieren. Die Aufteilung dieses Graphen in Untergraphen ermöglicht die Erstellung homogener Gruppen von NIRS-Daten mit ähnlichen räumlichen Verteilungen erklärender Variablen, die verwendet werden, um mehrere Vorhersagemodelle zu trainieren, die Wissen zwischen Datensätzen genau übertragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08855-6_30 54acd0178cab5ae7dc55094918e3caff;de;;;7.2.;;;Spielt Vertrauen für Benutzereinstellungen eine Rolle? Eine Studie zu Epinions-Bewertungen Empfehlungssysteme haben sich in den letzten Jahren zu nützlichen Online-Tools zur Unterstützung der täglichen E-Commerce-Aktivitäten entwickelt. Die Mehrheit der Empfehlungssysteme sagt Benutzerpräferenzen in Bezug auf Benutzer mit ähnlichem Geschmack voraus. Frühere Forschungen haben gezeigt, dass Vertrauensnetzwerke die Leistung von Empfehlungssystemen verbessern, wobei sie hauptsächlich von einzelnen Forschern entwickelte Algorithmen verwenden. In dieser Arbeit untersuchen wir unter Weglassung eines spezifischen Vertrauensschlussalgorithmus, wie nützlich es sein könnte, wenn explizite Vertrauensbeziehungen (ausgedrückt von Benutzern für andere) verwendet werden, um die besten Nachbarn (oder Prädiktoren) auszuwählen, um genaue Empfehlungen bereitzustellen. Wir haben unsere Experimente mit Daten von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13446-3_16 90450d32d443723c49fe22f1ab4d0fcd;de;;;7.2.;;;Räumlich-zeitliches SURF zur Erkennung menschlicher Handlungen Action In diesem Artikel schlagen wir einen neuen raum-zeitlichen Deskriptor namens ST-SURF vor. Letzteres basiert auf einer neuartigen Kombination zwischen dem Speed-Up-Robust-Feature (SURF) und dem optischen Fluss. Der Hessian-Detektor wird verwendet, um alle interessierenden Punkte zu finden. Um die Rechenzeit zu reduzieren, schlagen wir eine neue Methodik für die Videosegmentierung in Frame Packets (FPs) vor, basierend auf der Trajektorienverfolgung der interessierenden Punkte. Wir betrachten nur bewegliche Interessenpunktdeskriptoren, um ein robustes und leistungsfähiges diskriminatives Codebuch basierend auf K-Mittelwert-Clusterbildung zu erzeugen. Wir verwenden einen Standard-Sack-of-Visual-Words-Support Vector Machine (SVM)-Ansatz für die Aktionserkennung. Zur Auswertung werden die Experimente an KTH- und UCF-Sportdatensätzen durchgeführt. Es wird gezeigt, dass das entworfene ST-SURF vielversprechende Ergebnisse zeigt. Tatsächlich erreicht die vorgeschlagene Methode beim KTH-Datensatz eine Genauigkeit von 88,2%, was dem Stand der Technik entspricht. Auf dem realistischeren UCF-Sportdatensatz übertrifft unsere Methode die Leistung der besten Ergebnisse von Raum-Zeit-Deskriptoren/Hesse-Detektor mit 80,7%.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03731-8_47 95ba3637f196a4b666854ba041524e90;de;;;7.1.;;;Entscheidungsunterstützungssystem zur Optimierung der Gewächshausbewässerung Das Entscheidungsunterstützungssystem zur Optimierung der Gewächshausbewässerung (GDSS) wurde für das Bewässerungsmanagement von Gewächshauskulturen im nordwestlichen Trockengebiet Chinas entwickelt. GDSS-Prognosen zu relativen Erträgen und Hilfen bei der Entwicklung von Bewässerungsplänen in Bezug auf Wachstumsperioden unter umfassender Berücksichtigung der Boden-, Pflanzen- und Wasserversorgungsbedingungen Das System besteht aus drei Modulen. Das Datenbankmodul speichert alle Arten von Daten mithilfe der Access-Datenbank. Das Modellmodul beinhaltet Optimierungsmodelle von Gewächshauskulturen unter unzureichender Bewässerung aufgrund von Unsicherheit. Diese Modelle werden von Lingo programmiert, das über eine interne Schnittstelle aufgerufen werden kann. Das Mensch-Maschine-Dialogmodul ist nach dem Prinzip Benutzerführung, Benutzerfreundlichkeit, Visualität, Benutzerfreundlichkeit, Prägnanz und Einheitlichkeit konzipiert. Das GDSS kann den Entscheidungsträgern die alternative Entscheidungsfindung unter Unsicherheit zur Verfügung stellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54341-8_2 3767967e6587ef68de6ee08ae24eee76;de;;;7.1.;;;Ein integriertes Produktionsplanungsmodell mit Obsoleszenz- und Lebenszyklusbetrachtungen in einer umgekehrten Lieferkette Umweltbewusste Herstellung und Produktrückgewinnung werden im aktuellen Geschäftsszenario als wichtige Forschung angesehen. Dies ist auf die damit verbundenen Kosten für Neumaterial und Abfallentsorgung zurückzuführen, die jährlich deutlich gestiegen sind. Derzeit mangelt es an Modellierung der Probleme der Remanufacturing-Produktionsplanung mit Komponentenveralterung und Lebenszyklusbeschränkungen. In der Praxis können die Planungsentscheidungen direkte Auswirkungen auf das Abfall- und Entsorgungsaufkommen entlang einer umgekehrten Lieferkette haben. In diesem Artikel wird ein integriertes Produktionsplanungsmodell mit Komponentenveralterung und Lebenszyklusbetrachtungen vorgeschlagen, das dazu beiträgt, die damit verbundenen Gesamtkosten der Produktion, die Kosten der Lagerhaltung von wiederaufbereiteten Produkten und Komponenten, die Bestellkosten und die Entsorgungskosten zu minimieren. Numerische Beispiele werden auch vorgestellt, um dieses Produktionsplanungsproblem für wiederaufbereitete Produkte unter Verwendung der gemischten ganzzahligen Programmierungsoptimierung zu demonstrieren. Abschließend werden einige Beiträge dieser Studie und zukünftige Arbeiten diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22756-6_83 bab3c831c507a42acbbe177d4b84f18f;de;;;7.2.;;;Wertsensibles Design eines virtuellen Assistenten zur Workload-Harmonisierung in Teams Ungleiche Arbeitslastverteilungen in Teams können zu einer suboptimalen Teamleistung führen. Dieses Papier beschreibt daher das Design eines virtuellen Assistenten, der die Workload-Harmonisierung in Teams unterstützt, indem er die Arbeitsbelastung misst, Teammitglieder über ihre eigene und die Arbeitsbelastung anderer Teammitglieder informiert und Teammitglieder bei der Umverteilung der Arbeitsbelastung unterstützt. Der virtuelle Assistent wurde im Rahmen der Zugverkehrssteuerung nach der situierten Cognitive Engineering (sCE) Methodik entwickelt, die um einen wertsensitiven Entwurfsprozess erweitert wurde. Genauer gesagt wurden die Werte „Einsicht“, „anderen helfen“ und „Privatsphäre“ im gesamten Design des virtuellen Assistenten explizit berücksichtigt. Ein Prototyp des virtuellen Assistenten wurde in einer Fokusgruppe positiv bewertet. Der Beitrag des Papiers ist dabei zweifach. Zunächst wird eine Verbesserung einer menschzentrierten Entwicklungsmethodik – sCE mit Werten – beschrieben und deren Anwendung in einem konkreten Konstruktionsfall demonstriert. Zweitens wird eine neuartige, positiv bewertete Lösung zur Workload-Harmonisierung in Teams vorgestellt.;-;-;-;https://link.springer.com/article/10.1007/s10111-017-0408-4 734e23bae6803c89b24e8e4c1abd7c62;de;;;7.1.;;;Produktionskostenanalyse und Produktionsplanung für Werksfabriken unter Berücksichtigung der Märkte Heute wird viel Wert auf die Entwicklung von vollständig geschlossenen und kontrollierten Pflanzenfabriken gelegt, die darauf abzielen, verschiedene Gemüse sicher und konstant zu liefern. Eines der wichtigsten Themen der Werksfabriken sind jedoch die hohen Produktionskosten aufgrund der Investitionen und Ausrüstungen in den Fabriken und des täglichen Betriebs. Hier werden systematische Methoden erwogen, die Lieferpreise des Gemüses zu erhöhen und die Betriebskosten in den Pflanzenfabriken zu senken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22756-6_65 90675a74a1e6cf6864108549c54dd23c;de;;;7.1.;;;Ein Framework für die Multi-Roboter-Bewegungsplanung aus zeitlichen logischen Vorgaben Wir schlagen einen Rahmen für die Koordination eines Netzwerks von Robotern in Bezug auf formale Anforderungsspezifikationen vor, die in zeitlichen Logiken ausgedrückt werden. Eine reguläre Tessellation wird verwendet, um den interessierenden Raum in eine Vereinigung von disjunkten regulären und gleichen Zellen mit endlichen Facetten zu unterteilen, und jede Zelle kann nur von einem Roboter oder einem Hindernis besetzt werden. Es wird angenommen, dass jeder Roboter mit einer endlichen Sammlung zeitkontinuierlicher nichtlinearer Regelkreisdynamik ausgestattet ist, in der er betrieben werden kann. Der Roboter wird dann als hybrider Automat modelliert, um die endlich vielen Betriebsarten zu erfassen, die entweder innerhalb der aktuellen Zelle bleiben oder Erreichen einer benachbarten Zelle durch die entsprechende Facette. Unter Berücksichtigung der Bewegungsfähigkeiten kann eine bisimilar diskrete Abstraktion des hybriden Automaten konstruiert werden. Da die beiden Systeme bisimilar sind, können alle Eigenschaften, die in temporalen Logiken wie der linearen Zeitlogik, der Berechnungsbaumlogik und dem µ-Kalkül ausdrückbar sind, beibehalten werden. Die Bewegungsplanung kann dann auf einer diskreten Ebene erfolgen, indem die parallele Zusammensetzung diskreter Abstraktionen der Roboter mit einer in einer geeigneten zeitlichen Logik vorgegebenen Anforderungsspezifikation berücksichtigt wird. Die Bisimularität stellt sicher, dass die diskreten Planungslösungen von den Robotern ausführbar sind. Zu Demonstrationszwecken wird ein endlicher Automat als Abstraktion verwendet und die Anforderungsspezifikation wird in Computation Tree Logic ausgedrückt. Der Modelchecker Cadence SMV wird verwendet, um koordinierte verifizierte Bewegungsplanungslösungen zu generieren. Zwei autonome Flugroboter werden verwendet, um zu demonstrieren, wie der vorgeschlagene Rahmen zur Lösung koordinierter Bewegungsplanungsprobleme angewendet werden kann.;-;-;-;https://link.springer.com/article/10.1007/s11432-012-4605-8 80c3098bbb09d4293c23c8645482e963;de;;;7.1.;;;Ausbildung des Cyberkriegers In diesem Papier werden die wichtigsten Bildungskomponenten eines Lehrplans vorgeschlagen, der Personen für berufliche Aufgaben als Informationssicherungsexperten ausbilden soll – auch bekannt als: Cyberkrieger. Es schlägt einen gemeinsamen Mindestbestand an Wissen für alle Cyberkrieger vor, zusammen mit zwei Hauptspezialisierungskategorien: Cybertaktiker und Cyberstrategen. Das Papier beschreibt die Unterscheidung zwischen Taktiker und Stratege und bietet einen groben Überblick über die Ausbildung, die jeder erhalten sollte.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35694-5_24 bc014a37224aaf236b567f7315de26fc;de;;;7.1.;;;Design und Implementierung eines Düngeentscheidungssystems für Pflanzenempfehlungen basierend auf WEBGIS auf Dorfebene Um die Empfehlungsdüngung der Bauern in unserem Land zu untersuchen, wurden Städte und Dörfer des Kreises Hua als Untersuchungsgebiet genommen, die Empfehlungsdüngung von Weizen, Mais und Erdnüssen als Untersuchungsobjekt verwendet, Modellkomponenten der Erntebilanz entworfen Düngung mit objektorientierter Technik und entwickelte das Entscheidungsfindungssystem für die Düngung mit Anbauempfehlungen auf der Grundlage von ArcGIS Server auf Dorfebene. Das Entscheidungsfindungssystem realisierte eine Entscheidungsfindung bezüglich des Nährstoffmanagements und der Düngeempfehlungen für landwirtschaftliche Flächen in Abhängigkeit von der Bodenleistungskapazität, dem landwirtschaftlichen Produktionsniveau und dem Zielertrag der Ernte. Es wurde erfolgreich in der Pflanzenproduktion im Kreis Hua eingesetzt. Die Forschungsergebnisse zeigen, dass das System die Eigenschaft einer besseren Erweiterbarkeit als zuvor hat und es sehr einfach und praktisch ist, die Pflanzenproduktionskosten zu senken und die landwirtschaftliche Produktionseffizienz zu steigern, was technische Unterstützung bei der Entscheidungsfindung bei der Pflanzendüngung bietet und wesentlich zur Verbesserung der landwirtschaftlichen ökologische Umwelt und erhöhen die umfassende Produktionskapazität von Ackerland.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18336-2_44 e8ca4a14540fb3998e7d748a54aa12eb;de;;;7.2.;;;Informationssicherheit: Prozessbewertung und Produktbewertung Effektives Management in jeder Organisation erfordert einen ganzheitlichen Ansatz mit Fokus auf Informationssicherheit. Führungskräfte müssen wissen, wie gut ihre Organisation gemessen an international anerkannten Best Practices abschneidet. Teil des Problems des Informationssicherheitsmanagements ist, dass es entweder aus einer technologischen Perspektive betrachtet wird, die sich nur auf die Produktbewertung konzentriert, oder aus einer verfahrens- und managementbezogenen Perspektive, die sich auf die Bewertung der Managementprozesse konzentriert. Dieses Papier zielt darauf ab, eine konsolidierte Perspektive zu bieten, die diese beiden Aspekte bei der Messung und Bewertung des Informationssicherheitsniveaus einer Organisation berücksichtigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35515-3_2 4adcf817e76a0fce1772e64956769b97;de;;;7.1.;;;Auf dem Weg zu einem agentenbasierten Bestandsverwaltungssystem für humanitäre Hilfe Naturkatastrophen haben in den letzten zwei Jahrzehnten weltweit eine unvorhersehbare Intensität erreicht. Daher ist eine schnelle und effiziente Reaktion auf die dringende Hilfe erforderlich, um die Auswirkungen der Katastrophe in den betroffenen Gebieten zu mildern. Humanitäres Supply Chain Management spielt eine entscheidende Rolle für das Katastrophenschutzmanagement. Lager- und Bestandsverwaltung ist eine Schlüsselaktivität. Ihre Effektivität und Effizienz sind Herausforderungen bei der Notfallreaktion. Tatsächlich könnten durch eine angemessene schnelle und gut organisierte Verteilung von Nothilfegütern Schäden gemildert und mehr Leben gerettet werden. In diesem Artikel wird zunächst eine Literaturübersicht erstellt, um das humanitäre Lieferkettenmanagement besser zu definieren und die Merkmale und Bedürfnisse des Bestandsmanagements in einem Kontext nach Katastrophen hervorzuheben. Ein agentenbasiertes Modell und ein Simulator werden entwickelt, um Entscheidungsträgern zu ermöglichen, effiziente Szenarien zu finden, um effektiv auf dringende Anfragen nach einer Katastrophe zu reagieren. Erste Simulationsergebnisse werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-47093-1_18 4231f6712dce8cdf869aba01455df63d;de;;;7.2.;;;Mehrsprachige Plagiaterkennung Die mehrsprachige Textverarbeitung hat in den letzten Jahren immer mehr an Aufmerksamkeit gewonnen. Dieser Trend wird durch die globale Integration europäischer Staaten und die verschwindenden kulturellen und sozialen Grenzen noch verstärkt. Mehrsprachige Textverarbeitung ist zu einem wichtigen Feld geworden, das viele neue und interessante Probleme mit sich bringt. Dieses Papier beschreibt einen neuartigen Ansatz zur Erkennung mehrsprachiger Plagiate. Wir schlagen eine neue Methode namens MLPlag zur Plagiatserkennung in mehrsprachigen Umgebungen vor. Dieses Verfahren basiert auf der Analyse von Wortpositionen. Es verwendet den EuroWordNet-Thesaurus, der Wörter in sprachunabhängige Form umwandelt. Dies ermöglicht es, Dokumente zu identifizieren, die aus Quellen in anderen Sprachen kopiert wurden. Zur Verfeinerung unserer Methode wurden spezielle Techniken wie die semantikbasierte Wortnormalisierung integriert. Es identifiziert die Ersetzung von Synonymen, die von Plagiatoren verwendet werden, um die Dokumentübereinstimmung zu verbergen. Wir haben unsere Experimente an ein- und mehrsprachigen Korpora durchgeführt und ausgewertet und die Ergebnisse werden in diesem Papier vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85776-1_8 aa858169d1117fef881cf2b6a1470b5c;de;;;7.2.;;;Schwachstellen und Sicherheitseinschränkungen aktueller IP-Telefoniesysteme Innerhalb der traditionellen Telefonanlage hat sich im Laufe der Jahre ein gewisses Maß an Qualität und Sicherheit etabliert. Wenn wir versuchen, IP-Telefonie-Systeme als Kernbestandteil unserer zukünftigen Kommunikationsinfrastruktur (z. B. als klassische PBX-Erweiterung oder -Ersatz) einzusetzen, sind kontinuierliche Hochverfügbarkeit, stabiler und fehlerfreier Betrieb und der Schutz der Privatsphäre des gesprochenen Wortes Herausforderungen, die müssen unbedingt erfüllt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35413-2_5 13af1debb961ced6be9bb71f4bf35f91;de;;;7.2.;;;Ungefähre Informationsfilterung in Peer-to-Peer-Netzwerken Die meisten bisherigen Ansätze zur Informationsfilterung haben die zugrunde liegende Hypothese, potenziell Benachrichtigungen von jedem Informationsproduzenten an Abonnenten zu liefern. Dieses exakte Publish/Subscribe-Modell führt zu einem Engpass bei Effizienz und Skalierbarkeit und ist in bestimmten Anwendungen möglicherweise nicht einmal wünschenswert. Die hier vorgestellte Arbeit stellt MAPS vor, einen neuartigen Ansatz zur Unterstützung der ungefähren Informationsfilterung in einer Peer-to-Peer-Umgebung. In MAPS abonniert und überwacht ein Benutzer nur sorgfältig ausgewählte Datenquellen und erhält nur von diesen Quellen Benachrichtigungen über interessante Ereignisse. Auf diese Weise wird die Skalierbarkeit durch den Handelsrückruf für einen geringeren Nachrichtenverkehr verbessert. Wir definieren die Protokolle einer Peer-to-Peer-Architektur, die speziell für die ungefähre Informationsfilterung entwickelt wurde, und führen neue Strategien zur Knotenauswahl basierend auf Zeitreihenanalysetechniken ein, um die Auswahl von Datenquellen zu verbessern. Unsere experimentelle Auswertung zeigt, dass MAPS skalierbar ist, es erreicht einen hohen Wiedererkennungswert, indem es nur wenige Datenquellen überwacht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85481-4_3 cd56d4a155e39ecd528833ca3b004dc7;de;;;7.2.;;;Regelbasierter hierarchischer Rang: Ein unbeaufsichtigter Ansatz zur Extraktion sichtbarer Tags aus halbstrukturiertem chinesischen Text Die großen und wachsenden Mengen an halbstrukturierten chinesischen Texten bieten sowohl Herausforderungen als auch Möglichkeiten zur Verbesserung des Text-Mining und der Wissensentdeckung. Eine solche Herausforderung besteht darin, automatisch einen kleinen Satz sichtbarer Tags aus einem Dokument zu extrahieren, die das Thema des Dokuments genau erkennen und eine schnelle Informationsverarbeitung erleichtern können. Leider klafft zum jetzigen Zeitpunkt noch eine gewisse Lücke zwischen den bestehenden Methoden und der wirklichen technischen Anwendung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29894-4_15 5519d33443b7ab1032c8dbb995601f1b;de;;;7.2.;;;Das Problem der Unvergleichbarkeit in Frage stellen: Eine auf ZAPROS® basierende Ansatzmethodik Mit dem Ziel, Unvergleichbarkeitsfälle zwischen Alternativen zu reduzieren, um ein vollständiges und zufriedenstellendes Ergebnis zu präsentieren, wird ein neuer Ansatz zur Unterstützung des Entscheidungsprozesses zur verbalen Entscheidungsanalyse vorgestellt, der im Wesentlichen auf der ZAPROS III-Methode aufgebaut ist. Ein Werkzeug zur Anwendung der Methodik wurde entwickelt. Durch einige Unterschiede im Prozess wurden einige Optimierungen an der Methode vorgenommen, wobei ähnliche Werkzeuge berücksichtigt wurden, die die Lösung schlecht strukturierter Probleme unterstützen. Computerexperimente, die auf das Werkzeug angewendet wurden, lieferten vielversprechende Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87477-5_37 a6d034ecfee79cc3e9ff1ad5dcd022b5;de;;;7.2.;;;Leistungsbewertung des Multipath-Routing-Protokolls mit Lastausgleich für mobile Ad-hoc-Netzwerke Ein Ad-hoc-Netzwerk besteht aus autonomen, potenziell mobilen, drahtlosen Knoten, die ohne den Vorteil einer bestehenden Infrastruktur arbeiten. Jeder Knoten kann sich beliebig bewegen und führt Selbstverwaltung und Selbstorganisation durch. Aus diesem Grund gibt es Fälle, in denen ein nicht geplanter Streckenbau zu einer Verschlechterung der Netzleistung führen kann. In diesem Whitepaper stellen wir ein neues Routing-Protokoll vor, das die Load-Balancing- und Multipath-Lösung verwendet, um Daten mit einer probabilistischen Streuung zu senden. In dieser Untersuchung wird die Gesamtlast auf einer Route basierend auf der Warteschlangengröße des Relay-Knotens bewertet. Es wurden Simulationsexperimente durchgeführt, um einige der existierenden Protokolle mit dem vorgeschlagenen Routing-Protokoll zu vergleichen. Wir haben durch Simulationsergebnisse gezeigt, dass unsere vorgeschlagene Lösung die Last effizient verteilt und die Netzwerkleistung verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85693-1_11 fb6c65c6932bef2b7c48d2e409ece678;de;;;7.1.;;;Verständnis der Determinanten der Einführung von Cloud Computing in saudischen Gesundheitsorganisationen Cloud Computing ist ein sich entwickelndes Paradigma der Informationstechnologie, das sich auf viele Sektoren in vielen Ländern auswirkt. Obwohl Cloud Computing eine aufstrebende Technologie ist, gibt es in der Literatur wenig über seine Anwendung im saudischen Gesundheitssektor. Dieses Papier untersucht und identifiziert die Faktoren, die die Einführung von Cloud Computing in saudischen Gesundheitsorganisationen beeinflussen werden. Die Studie integriert den TOE (Technology-Organization-Environment)-Framework mit dem Information System Strategic Triangle (IS Triangle) und dem HOT-fit (Human-Organization-Technology)-Modell, um eine ganzheitliche Bewertung der Determinanten der Cloud-Computing-Einführung im Gesundheitswesen zu ermöglichen Organisationen. Von den fünf in dieser Studie untersuchten Perspektiven erwies sich die Geschäftsperspektive als die wichtigste, gefolgt von der Technologie-, Organisations- und Umweltperspektive und schließlich der menschlichen Perspektive. Die Ergebnisse der Studie zeigten, dass die fünf wichtigsten Faktoren, die die Einführung von Cloud Computing in diesem Zusammenhang beeinflussen, weiche Finanzanalyse, relativer Vorteil, harte Finanzanalyse, Einstellung gegenüber Veränderungen und Druck von Partnern im Geschäftsökosystem sind. Diese Studie identifiziert die kritischen Faktoren sowohl für Praktiker als auch für Akademiker, die die Entscheidungsfindung zur Einführung von Cloud Computing im saudischen Gesundheitswesen beeinflussen.;-;-;-;https://link.springer.com/article/10.1007/s40747-016-0021-9 fd82ac2f628f2d182af5c42331f970a3;de;;;7.1.;;;MUSE: Implementierung einer Designtheorie für Systeme, die konvergentes und divergentes Denken unterstützen Es wurde behauptet, dass Informationssysteme (IS) die Kreativität sowohl fördern als auch untergraben können. Zuvor haben wir eine IS-Designtheorie für Systeme vorgeschlagen, die die individuelle Kreativität durch die Förderung von konvergentem und divergentem Denken unterstützen. In diesem Beitrag skizzieren wir, wie wir diesen abstrakten Bauplan in einen lauffähigen Software-Prototyp umgewandelt haben. Das Kochen – ein bekannter kreativer Prozess – haben wir als exemplarische Domäne gewählt, um Form und Funktion des Prototyps zu veranschaulichen. In zukünftigen Arbeiten werden der Prototyp und die zugrunde liegende Designtheorie anhand von Fokusgruppen und Laborexperimenten empirisch evaluiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38827-9_34 2894f0feab96ccde7b2092bc27c4c827;de;;;7.1.;;;Online-Kooperativer Entwurf für den Entwurf von Stadtmöblierungen in einem Straßenpark In den letzten zehn Jahren des 21. Jahrhunderts hat die schnelle Entwicklung des Internets und der Computertechnologie die Durchführung kooperativer Designs über das Internet ermöglicht. Al-Douri (2010) argumentierte, dass der konventionellen Stadtplanung möglicherweise eine angemessene Abdeckung der wesentlichen Entwurfsaspekte der gebauten Umwelt fehlt, was durch digitale Modelle und Informationstechnologie-Tools korrigiert werden kann, die Designern helfen können, Entwurfsalternativen zu visualisieren und mit ihnen zu interagieren und dies zu korrigieren Problem. In Anlehnung an Carmona und Punter (2002) klassifizierte Ai-Douri städtebauliche Aspekte wie Stadtform, Stadtbild, öffentlicher Raum, Naturschutzgebiete, Landnutzung und Landschaftsarchitektur. Unter der Mehrbenutzerarchitektur für Teamumgebungen umfassen die technischen Voraussetzungen für die Umsetzung kooperativen Designs sowohl eine visuelle als auch eine semantische Darstellung sowie einen gemeinsamen Arbeitsbereich für gemeinsames Verständnis (Saad und Maher 1996). Inzwischen sind in der Literatur Forschungen zu Online-Designtools zu Koordination, Kollaboration und Kommunikation im kooperativen Design (Klein 1995, Nurcan 1998, Okukuni et al. 2000, Wang et al. 2009) unter Verwendung von Virtual Reality (VR) erschienen. Es lohnt sich, die Perspektive des kooperativen Online-Designs als Anwendung und Erweiterung der VR-Technologie zu erkunden. In diesem Kapitel konzentrieren wir uns auf eine gemeinsame visuelle Repräsentation und computervermittelte Kommunikation (Miller und Brunner 2008) zwischen den Teilnehmern, um einen Konsens über die Gestaltung eines Straßenparks zu erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13559-0_10 edb8a3618f5fc0d255418f67843a37a2;de;;;7.1.;;;Auf dem Weg zu einer intelligenten Montage- und Fertigungsumgebung – Modularer ICT-Support für Holonic Manufacturing System In diesem Beitrag werden die Möglichkeiten eines modularen und transparenteren Wissensmanagementkonzepts für eine holonische Montage- und Fertigungsumgebung diskutiert, das die Darstellung des vergangenen und gegenwärtigen Status des Produktionssystems verbessert und so die Anwendung autonomer Argumentation ermöglicht. Der modulare ICT-Ansatz wird für ein holonisches Fertigungssystem (HMS) entwickelt. Die Hauptmerkmale des Systems sind, dass es ein offenes System ist und Merkmale eines komplexen Systems aufweist. Das System selbst ist ein adaptives System, bei dem je nach Entwicklung des Produktionssystems selbst unterschiedliche Dienste benötigt werden. Der hier vertretene Forschungsansatz zielt darauf ab, das Wissensmanagement und die Prozesssteuerung zu verbessern, indem der Übergang von technologiebasierten Lösungen zu konÞgurierbaren Systemen und Prozessen erleichtert wird, bei denen die digitalen Modelle und modularen Wissensmanagementsysteme bedarfsgerecht konfiguriert werden können – nicht basierend auf den geschlossenen Altsystemen und feste Prozessplanung. Die Prinzipien der Modularisierung wie Funktionalitäten und Schnittstellen werden verwendet, um Interaktionen des Gesamtsystems zu behandeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28163-1_19 545ca91009e5ed7561000437e8378726;de;;;7.1.;;;Zur Analyse von Einstellungs- und Verhaltensreaktionen auf Merkmale des Verkehrssystems Dieser Bericht behandelt die Anforderungen an Planungsmethoden für Nahverkehrs- und kapitalarme Transportmöglichkeiten im Kontext von zwei Hauptzielen. Ziele sind (1) die Darstellung grundlegender Verhaltensprinzipien, die für den Planungsprozess relevant sind, und (2) die Diskussion alternativer Methoden zur Bewertung der Verhaltensfolgen von Verkehrsänderungen. Die Darstellung grundlegender Verhaltensprinzipien stützt sich im Wesentlichen auf die klassische Verhaltensverstärkungstheorie, aber auch auf Einstellungstheorie, Ökonometrie, Marketing und Psychometrie wird Bezug genommen. Die Diskussion der Datenerhebungsverfahren enthält Informationen zur Stichprobenspezifikation und veranschaulicht eine Vielzahl von Fragebogenformaten zur Erhebung von Wahrnehmungen und Präferenzen der Befragten. Vor- und Nachteile der Formate werden genannt. Ausgehend von der Diskussion von Verhaltensprinzipien und -methoden werden allgemeine Leitlinien für die Modellierungs- und Datenerhebungsanforderungen von Planungsmethoden für Nahverkehrs- und kapitalarme Verkehrsmittel angeboten.;-;-;-;https://link.springer.com/article/10.1007/BF00153579 27baa3eaf0aa2b9338314c0dec54c901;de;;;7.1.;;;Ein ontologischer und agentenbasierter Ansatz für das Wissensmanagement in einer verteilten Designumgebung Designaktivitäten werden zu einer zunehmend globalen, komplexen, multidisziplinären, informations- und wissensintensiven Aktivität. In diesem Papier wird vorgeschlagen, die Probleme im Zusammenhang mit Kommunikations- und Wissensmanagementaktivitäten in einer verteilten Entwurfsumgebung anzugehen, indem ein ontologisch orientierter Multi-Agenten-basierter Systemansatz (MAS) für das Wissensmanagement in einer verteilten Entwurfsumgebung übernommen wird. Dieser Ansatz wird eine Multi-Agent-Systemarchitektur verwenden, die interaktiv bei der Kommunikation und Koordination von Daten, Informationen und Wissen zwischen multidisziplinären verteilten/zusammengesetzten Designteams hilft.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-2393-4_24 b0e1fe591a5497d0aa2d6c53792ca58e;de;;;7.1.;;;Rolle der IKT im Pflanzenmanagement Jeden Tag stößt man in der Landwirtschaft auf neue und entscheidende Schwierigkeiten und Herausforderungen. Der Einsatz von Informations- und Kommunikationstechnologien (IKT) kann eine wesentliche Erleichterung für eine effizientere Pflanzenproduktion sein. Simply ICT wird als Drehscheibe von Technologien definiert, die die Speicherung, Verarbeitung von Daten/Informationen, die Kommunikation von Daten/Informationen und die Verteilung von Daten unterstützen. IKT umfasst daher Technologien wie Computer (Desktop und Laptop), Mobiltelefone, Internetverbindung, Peripheriegeräte und Software, die für Informationsverarbeitungs- und Kommunikationszwecke vorgesehen sind. Der Einsatz von IKT in der Landwirtschaft gewinnt zunehmend an Bedeutung. E-Landwirtschaft ist ein sich entwickelndes Feld, das auf die Verbesserung und Entwicklung des landwirtschaftlichen und ländlichen Sektors durch verbesserte Informations- und Kommunikationsprozesse abzielt. Noch wichtiger ist, dass die E-Landwirtschaft die Konzeption, Gestaltung, Entwicklung, Bewertung und Anwendung fortschrittlicher Methoden zur Nutzung von Informations- und Kommunikationstechnologien (IKT) im ländlichen Raum umfasst, wobei der Schwerpunkt auf der Pflanzenproduktion liegt. Alle Beteiligten des Pflanzenproduktionssystems benötigen Informationen und Kenntnisse über diese Phasen, um sie effizient zu verwalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9783-8_28 474684d700bbb3cd99d7012cec5ddd34;de;;;7.1.;;;Das seltsame Fehlen von Abstraktionsebenen beim Entwerfen von HCI Menschen verarbeiten und kommunizieren Informationen auf mehreren Abstraktionsebenen beim Lesen, Sprechen, Lösen von Problemen, Entwerfen und Interagieren mit Computern. Zum Beispiel können sich Schauspieler beim Lesen eines Artikels auf einen Buchstaben, ein Wort, eine Klausel, einen Satz oder einen Absatz konzentrieren. Sie fokussieren sich zu jedem Zeitpunkt auf eine bestimmte Abstraktionsebene, tun etwas und bewegen sich unter Umständen auf anderen Ebenen hin und her, bis die Akteure ihr Ziel erreichen. Nicht zwischen Abstraktionsebenen wechseln, wenn dies erforderlich ist, verringert die Leistung. Daraus folgt, dass die Mensch-Computer-Interaktion entsprechend gestaltet werden sollte, Abstraktionsebenen in Studien oder Leitlinien zur Gestaltung von HCI jedoch kaum explizit erwähnt werden. In diesem Vortrag schlage ich eine Methode vor, um Abstraktionsebenen in das Design von HCI als kritische Dimension des Designs adaptiver HCI zu integrieren. Der Vortrag demonstriert die Ideen mit Beispielen von HCI zur Unterstützung des Online-Lesens und des Lösens von Gruppenproblemen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-63546-0_2 607dc77ce060cff2bef35e431562a2f2;de;;;7.2.;;;Ein Sprachmodellierungsansatz für zeitliche Informationsbedürfnisse Diese Arbeit befasst sich mit Informationsbedürfnissen, die eine zeitliche Dimension haben, die durch einen zeitlichen Ausdruck in der Abfrage des Benutzers vermittelt wird. Zeitliche Ausdrücke wie;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12275-0_5 ea37a89d808aaf40732a94577eb72af7;de;;;7.2.;;;Automatische Abfragegenerierung aus Rechtstexten zum Abrufen der Rechtsprechung In diesem Beitrag wird die automatische Abfragegenerierung aus Rechtsentscheidungen untersucht und eine Testsammlung zur Bewertung der Rechtsprechungsrecherche beigesteuert. Für einen Satz oder Absatz innerhalb einer gerichtlichen Entscheidung, in der eine andere Entscheidung zitiert wird, wurden automatisch Abfragen aus einem Teil der Begriffe in diesem Satz oder Absatz generiert. Als Grundlage für den empirischen Vergleich automatischer Verfahren wurden auch manuell generierte Abfragen erstellt. Automatisch generierte Abfragen erwiesen sich als effektiver als die durchschnittlichen booleschen Abfragen von Experten. Die besten Keyword- und Booleschen Abfragen von Experten übertrafen jedoch die automatischen Abfragen deutlich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-70145-5_14 48d6bbb2dce286f8fdcfe05e5f66f573;de;;;7.1.;;;Kollaborative Wissensnetzwerke Dieser Beitrag skizziert die Beziehung zwischen Komplexitätsdenken und Leistungsmessung im Kontext dynamischer Organisationsstrukturen. Dabei reflektieren die Autoren insbesondere kollaborative Wissensnetzwerke als eine besondere Art von Allianz.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35704-1_2 899c4b7ac54795e21017aeb50e1be446;de;;;7.1.;;;Dynamische Transfermuster für eine schnelle multimodale Routenplanung Die Routenplanung nutzt geografische Daten direkt und gibt der Öffentlichkeit nützliche Empfehlungen. In der Praxis ist der Fahrplan von Transitfahrzeugen dynamisch und es kommt zu Verzögerungen in den Fahrplänen. Die Einbeziehung dieser dynamischen Fahrplanänderungen in die multimodale Routenberechnung ist schwierig und erfordert viele Rechenressourcen. Unser Ansatz erweitert den Stand der Technik für statische Fahrpläne, Transfer Patterns, für den dynamischen Fall. Daher ergänzen wir die Muster durch zusätzliche Kanten, die die Dynamik überdecken. Unser Ansatz wird im Open-Source-Routing-Framework OpenTripPlanner implementiert und mit bestehenden Methoden in der Stadt Warschau verglichen. Unsere Ergebnisse sind eine Größenordnung schneller als bestehende Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-56759-4_13 0809f2f3558eaa0d38d5ea26ce0c94d1;de;;;7.1.;;;Hypermedia-Nutzung in der Gruppenarbeit: Änderung von Produkt, Prozess und Strategie Hypermedia-Strukturen wurden mit CSCW-Funktionalität integriert, um das DOLPHIN-System zu entwickeln, eine elektronische Konferenzraumumgebung. In diesem Artikel wird über eine Studie berichtet, die untersucht, wie sich die DOLPHIN-Umgebung auf die Gruppenarbeit auswirkt. Um die Auswirkungen der Arbeit mit Hypermedien zu verstehen, wurden verschiedene Aspekte des Gruppenproblemlösens untersucht: das Produkt der Gruppe, kognitive Faktoren und der Gruppenprozess. Die Ergebnisse zeigten, dass Gruppen leicht mit hypermedialen Strukturen arbeiten können und dass diese Strukturen Gruppen beeinflussen, ein anderes Produkt zu produzieren, eine andere Strategie zu verwenden und einen anderen kollaborativen Stil zu verwenden, nämlich ihre Arbeit aufzuteilen. Die experimentellen Ergebnisse werden in einem Modell erläutert, das die Einbeziehung sowohl prozeduraler als auch semantischer Komponenten in die Hypermedia-Nutzung nahelegt. Wir diskutieren weitergehende Implikationen von Hypermedien für CSCW und Gruppenarbeit.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008627213701 3102bfbafadff919900a816178de8334;de;;;7.1.;;;Fortschrittliche Datenanalyse und Visualisierung für das Management der menschlichen Wahrnehmung von Sicherheit und Schutz in städtischen Räumen Die Entstehung dieser Arbeit begann während des DESURBS-Projekts. Der Umfang des Projekts bestand darin, beim Aufbau eines kollaborativen Entscheidungsunterstützungssystemportals zu helfen, in dem Raumplanungsexperten sich über die Gestaltung viel sichererer und sicherer Räume in städtischen Gebieten informieren konnten. Dies erreichte das Portal durch die Integration einer Reihe von Tools unter einer gemeinsamen, einfach zu bedienenden Oberfläche. Bei der weiteren Entwicklung wurden jedoch die Mängel des Projekts deutlich. Viele der offenen Daten verwendeten ein geändertes Format, während Anwendungen zunehmend speziell für einen einzelnen Datensatz entwickelt wurden. Um dies zu überwinden, wurde ein System namens KnowDS überarbeitet. Kern des neuen Designs ist die Entkopplung von Erfassung, Analyse und Gesamtdarstellung der Datenkomponenten. Die Erfassungskomponente wurde entwickelt, um die „Datenbereitstellungsmethoden“ zu erstellen und die Datenherkunft ähnlich einem Quellcode-Repository abzufragen. Die Analysekomponente basiert auf einer Reihe modularer Tools mit einer gemeinsamen Schnittstelle, die es ermöglicht, die Analyse in einem Plug-and-Play-Ansatz zu integrieren. Schließlich ist die Datenpräsentationskomponente der Ort, an dem die benutzerdefinierte Logik verwendet wird. Bei einem solchen Entwurfsansatz wird das Erstellen zukünftiger Anwendungen weniger anspruchsvoll. Infolgedessen wurden zwei Fallstudien mit dem neuen Rahmen berücksichtigt. Erstens wurde ein britischer Kriminalitäts-Webbrowser entwickelt, der Datenanalyseleistungen mit verschiedenen Granularitäten von Kriminalitätsarten ermöglicht und gleichzeitig Kriminalität in verschiedenen britischen Städten korreliert. Zweitens wurde auch eine mobile Anwendung entwickelt, die es ermöglicht, Berichte über die Sicherheitswahrnehmung der Bürger in städtischen Gebieten zu erstellen. Die beiden Anwendungen wurden unter dem neuen Entwurfsrahmen effizient gebaut und zeigen deutlich die Leistungsfähigkeit des neuen Systems, während sie aktiv neues Wissen über die Sicherheit im städtischen Raum generieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-15994-2_45 918881af23c588c2dfc5a932f3e95b99;de;;;7.1.;;;Eine empirische Studie zu Tabellenkalkulationsmängeln aus der Perspektive von Informationssystemen Der Einsatz von Tabellenkalkulationen zur Unterstützung von Geschäftsprozessen ist in der Industrie weit verbreitet. Aufgrund ihrer Kritikalität im Kontext dieser Geschäftsprozesse können Mängel in der Tabellenkalkulation den Geschäftsbetrieb einer Organisation erheblich beeinträchtigen. Es ist jedoch noch unklar, welche tatsächlichen und typischen Mängel von Tabellenkalkulationen, die als Informationssysteme verwendet werden, sind. Daher präsentieren wir in diesem Beitrag die Ergebnisse einer empirischen Studie zu Tabellenkalkulationsdefiziten aus der Perspektive von Informationssystemen. In diesem Sinne konzentrieren wir uns insbesondere auf die Leistung von Tabellenkalkulationen in ihrem jeweiligen Geschäftskontext. Das Ergebnis unserer Arbeit ist eine Liste von 20 in der Praxis typischerweise auftretenden Mängeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19027-3_5 77cc6fa80c9c4e0b98ecd166e10e53fc;de;;;7.1.;;;Vorstellung des Einflusses der ERP-APS-MES-Systemintegration auf die Effektivität von Entscheidungsprozessen in produzierenden Unternehmen Das Ziel dieses Artikels ist es, eine Analyse der Auswirkungen der ERP-APS-MES-Systemintegration auf den Entscheidungsprozess in einem produzierenden Unternehmen globaler Natur zu präsentieren. Im Rahmen des Artikels wurde der Datenfluss in den integrierten ERP-, APS- und MES-Systemen und die Einbindung dieser Daten in Business Intelligence-Systeme analysiert. Es wurden zwei Arten von BI-Systemen betrachtet, der erste Klassiker, der auf Suchtechnologien und der Verarbeitung von OLAP-Daten basiert, der zweite Typ sind die Systeme der „In-Memory“-Klasse. Es wurden auch die Auswirkungen der Integration von ERP-APS- und MES-Systemen auf die Effizienz der Unternehmensführung auf allen Ebenen beschrieben: strategisch, taktisch und operativ. Der von den Autoren vorgeschlagene Ansatz zielt darauf ab, die Zuverlässigkeit der Daten deutlich zu verbessern. Dadurch wird das Risiko fehlerhafter Daten bei der Planung und Bewertung von Umsetzungsprozessen reduziert. Nach Ansicht der Autoren wird die Integration dieser Systeme die Effektivität des Managements im produzierenden Unternehmen deutlich erhöhen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-18422-7_49 6d7f19e4d60baebff1d51ed415acdefe;de;;;7.1.;;;Simulationsbasiertes Design von Produktionsnetzwerken zur Herstellung personalisierter Produkte In diesem Beitrag wird eine Methode zur Gestaltung von Produktionsnetzwerken vorgestellt, die auf die Produktion personalisierter Güter ausgerichtet ist. Das Verfahren, das in ein Softwarewerkzeug implementiert wird, umfasst einen Mechanismus zum Generieren und Bewerten von alternativen Konfigurationen von Fertigungsnetzwerken. Eine erschöpfende Suche und ein intelligenter Suchalgorithmus werden verwendet, um effiziente Konfigurationen zu identifizieren. Bei der Bewertung werden mehrere widersprüchliche benutzerdefinierte Kriterien verwendet, darunter Kosten, Zeit, CO;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40352-1_38 55c87c7ca8aa5a83b528ddd210ad5514;de;;;7.2.;;;TALP beim GikiCLEF 2009 Dieser Artikel beschreibt unsere Experimente in Geographical Information Retrieval mit der Wikipedia-Sammlung im Rahmen unserer Teilnahme an der GikiCLEF 2009 Multilingual Task in Englisch und Spanisch. Unser System mit dem Namen gikiTALP verfolgt einen einfachen Ansatz, der den Standard-Informationsabruf mit der Sphinx-Volltextsuchmaschine und einige Techniken der Verarbeitung natürlicher Sprache ohne geografische Kenntnisse verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15754-7_38 073b1106209bf5a5a956b84bfc55fc01;de;;;7.2.;;;Cross-Lingual-QA: Eine modulare Basislinie in CLEF 2003 Wir bewerten die Durchführbarkeit der Anwendung aktuell verfügbarer Forschungsinstrumente auf das Problem der lingualen Qualitätssicherung. Durch die Kombination eines sprachenübergreifenden IR-Systems mit einem einsprachigen QS-System in kürzester Zeit erstellen wir eine Aufgabenbasis. Ein höheres;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30222-3_51 e60d3bc517fff9a26da574001d2a9fbc;de;;;7.1.;;;Mixed Reality mit einem kollaborativen Informationssystem In diesem Beitrag stellen wir eine Mixed-Reality-Umgebung (MIXER) für immersive Interaktionen vor. MIXER ist ein agentenbasiertes kollaboratives Informationssystem, das hybride Realität anzeigt, die interaktive Computergrafiken und reale Objekte vereint. MIXER ist ein agentenbasiertes kollaboratives Informationssystem, das hybride Realität anzeigt, die interaktive Computergrafiken und reale Objekte vereint. Das System umfasst ein Sensor-Subsystem, ein Netzwerk-Subsystem und ein Interaktions-Subsystem. Verwandte Themen zum Konzept der gemischten Interaktion, einschließlich Human Aware Computing, Mixed Reality Fusion, agentenbasierte Systeme, kollaboratives skalierbares Lernen in verteilten Systemen, QoE-QoS Balanced Management und Informationssicherheit werden diskutiert. Wir schlagen eine Systemarchitektur vor, um eine vernetzte Mixed-Reality-Fusion für Ambient Interaction durchzuführen. Die Komponenten des Mixed-Reality-Anzugs zur Durchführung einer menschlich bewussten Interaktion sind Interaktionsraum, Bewegungsüberwachung, Aktions- und Szenario-Synthesizer, Skriptgenerator, Wissensassistentensysteme, Szenarioanzeige und ein Mixed-Reality-Modul. Somit kann MIXER als integriertes System eine umfassende menschzentrierte Mixed-Reality-Suite für fortschrittliche Virtual-Reality- und Augmented-Reality-Anwendungen wie Therapie, Training und Fahrsimulationen bereitstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49178-3_16 eb2674bf5878d6b3dad11f89ce76a22f;de;;;7.2.;;;Groß angelegtes überwachtes Ähnlichkeitslernen in Netzwerken Das Problem des Ähnlichkeitslernens ist für viele Data-Mining-Anwendungen relevant, wie z. B. Empfehlungssysteme, Klassifizierung und Abruf. Dieses Problem ist insbesondere im Kontext von Netzwerken herausfordernd, die verschiedene Aspekte wie die topologische Struktur, den Inhalt und die Benutzerüberwachung beinhalten. Diese verschiedenen Aspekte müssen effektiv kombiniert werden, um eine ganzheitliche Ähnlichkeitsfunktion zu schaffen. Während die meisten Ähnlichkeitslernmethoden in Netzwerken wie;-;-;-;https://link.springer.com/article/10.1007/s10115-015-0894-8 59949f7c31064d0bd5318458698bcb34;de;;;7.1.;;;Losgrößenplanung mit nichtlinearen Kostenfunktionen zur Unterstützung der ökologischen Nachhaltigkeit In diesem Beitrag wird die Berücksichtigung nichtlinearer Kostenfunktionen basierend auf ökologischen Überlegungen für die Losgrößenplanung vorgeschlagen. Die klassischen Ansätze der Losgrößenoptimierung, der Wagner-Whitin-Algorithmus und die Part-Period Balancing Heuristik, werden um sogenannte Ökofaktoren ergänzt. Diese ökooptimierten Ansätze in Kombination mit einer Ökobilanzierung tragen dazu bei, die Gesamtproduktionskosten zu senken. Gleichzeitig wird die Umweltbelastung reduziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14306-9_1 f9089c9683ed5c6580d5e629963a3683;de;;;7.1.;;;Erkundung der beidhändigen Analyse von Geschäftsprozessen: Eine Design-Science-Forschung Traditionell werden Geschäftsprozesse in qualitativer oder quantitativer Form mit dem Ziel analysiert, bestehende Probleme in den Prozessen wie Engpässe, finanzielle oder Ressourcenverschwendung, Taktzeiten und Handarbeit auszunutzen, zu reduzieren oder zu beseitigen. Die Geschäftsprozessanalyse ist eine wichtige Phase des Business Process Management (BPM)-Lebenszyklus, da sie eine kritische Betrachtung von Problemen und möglichen Verbesserungen von Geschäftsprozessen ermöglicht. Es wurden jedoch nur wenige Studien durchgeführt, um neuartige Analysetechniken und -methoden bereitzustellen, um externe und zukünftige Möglichkeiten zu erkunden und zusätzlich die Erwartungen, Bedürfnisse und Erfahrungen der Kunden zu erfüllen. In diesem Zusammenhang haben wir den Design Science Research-Ansatz verwendet, um die Ambidextrous Analysis of Business Process (A2BP)-Methode zu entwickeln, die es Prozessanalysten ermöglicht, Explorations- und Exploitationsdenken in Einklang zu bringen. Wir haben das Problem und die Forschungsfragen durch ein systematisches Literaturmapping definiert. Anschließend evaluieren wir die vorgeschlagene Methode empirisch durch eine Expertenumfrage und eine Beobachtungsfallstudie, um die Nützlichkeit und Benutzerfreundlichkeit der Methode zu beurteilen. Insgesamt bewerteten die Teilnehmer der empirischen Studie die Methode positiv und schlugen Feedbacks zur Weiterentwicklung vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-93375-7_25 127e198050cbfb7d281db884547a3181;de;;;7.1.;;;Pair-Programming-Teams und hochwertiger Wissensaustausch: Eine vergleichende Studie zu kooperativen Belohnungsstrukturen Es gibt ein wachsendes Forschungsinteresse am Verständnis des Wissensaustauschs in der agilen Entwicklung. Dennoch entwickelt sich empirische Forschung, die Licht auf die zugrunde liegenden Praktiken wie Pair Programming wirft. Diese Studie nutzt Erkenntnisse aus der Coopetition- und Softwareliteratur, um die Untersuchung der Beziehung zwischen kooperativen Belohnungen und hochwertigem Wissensaustausch in Pair-Programming-Teams zu konzentrieren. Theoretische Hypothesen werden entwickelt und validiert, die darauf hindeuten, dass „koopetitive Belohnungen den qualitativ hochwertigen Wissensaustausch sowohl direkt als auch im Laufe der Zeit durch ihren Einfluss auf den Grad der Zufriedenheit mit dem Wissensaustausch beeinflussen“ und „die Auswirkung von kooperativen Belohnungen auf den hochwertigen Wissensaustausch“ hängt von der Aufgabenkomplexität und der Vorgeschichte der Arbeit mit einer ähnlichen Belohnungsstruktur ab. Diese Studie generiert ein neues Verständnis in Bezug auf die Verwendung von Belohnungen in Pair-Programming-Teams und bietet einen rigorosen und reproduzierbaren siebenstufigen experimentellen Prozess zur Simulation kooperativer Strukturen und zur Untersuchung ihrer Rolle in Pair Programming und in ähnlichen kollaborativen Kontexten.;-;-;-;https://link.springer.com/article/10.1007/s10796-015-9603-0 8a20e74383e3cd7e80cbae0f4b8569fe;de;;;7.1.;;;Dynamische Elemente der Multimediakartographie Von Computern angezeigte kartografische Darstellungen können durch akustische, visuelle und interaktive Multimediaelemente charakterisiert werden. Diese Elemente tragen dazu bei, kartografische Umgebungen anschaulicher, lebendiger und intuitiver zu gestalten. Die kartografische Kommunikation wird verbessert, hauptsächlich für Nicht-Experten und Gelegenheitskartenleser.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-03784-3_22 0d78a103b9a036bbcd8c581cf65f40c3;de;;;7.1.;;;Bazaar by Design: Verwaltung des zwischenbetrieblichen Austauschs in einem Open Source Service Network Wie in vielen anderen Branchen treiben wettbewerbliche Notwendigkeiten Open-Source-Softwareunternehmen dazu, sich an kooperativen Geschäftsnetzwerken zu beteiligen, um das von den Kunden nachgefragte komplette Produkt- und Dienstleistungsangebot anbieten zu können. Dieser Beitrag untersucht einen solchen aufkommenden Archetyp von Geschäftsnetzwerken: ein Open Source Service Network (OSSN). Diese Art von Geschäftsnetzwerk ist von besonderem Interesse, da es nicht nur zentrale Herausforderungen im Hinblick auf die Kommerzialisierung von OSS adressiert, sondern auch so funktioniert, dass Austauschprobleme zwischen den Teilnehmern überwunden werden, indem hauptsächlich auf soziale Mechanismen zurückgegriffen wird. Der Beitrag zeigt, wie sich soziale Mechanismen in OSSNs manifestieren und wie diese zur Koordination und Sicherung des Austauschs zwischen Unternehmen genutzt werden. Konkret veranschaulichen wir die Bedeutung (1) des eingeschränkten Zugangs, (2) der Bewertung des Rufs anderer, (3) einer gemeinsamen Makrokultur (Ziele und Normen) und (4) kollektiver Sanktionen für die Bestrafung von Unternehmen, die diese Ziele und Normen verletzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09768-8_12 2b832d60580e32ff422fea065ab2492a;de;;;7.1.;;;Big Data-basierte präzise Diagnose in Kommunikationssystemen im Weltraumbereich Mit der Zunahme der Abschussdichte in der Luft- und Raumfahrt ist die Stabilität des Schussbereichsmess- und -steuerungssystems und des Netzwerkkommunikationssystems im Bereich besonders wichtig. Der potenzielle Ausfall des Reichweiteninformationssystems erfordert mehr Aufmerksamkeit, einschließlich der Alterung der Leitung, der Zerstörung von Tieren, menschlichen Schäden und dem Einfluss von Viren. Elektromagnetische Interferenzen usw. können ernsthafte Probleme verursachen, wie Verzögerungen beim Start von Missionen, Fehler beim Empfangen und Überwachen von Signalen und die Unfähigkeit, Satellitensteuerungsbefehle im Orbit zu erteilen, und sogar schwere Unfälle mit Sternzerstörung verursachen. Um sich an die Tragfähigkeit während der hochdichten Aufgabenperiode anzupassen, die kognitiven Fähigkeiten des neuen Laststarts zu verbessern und die Fähigkeit der Reihe zur Ausführung schwieriger Aufgaben zu verbessern, ist es notwendig, den Start genau zu diagnostizieren und zu warten System des Raumbereichs.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6504-1_70 a67913675f618e37b81c9d375d91d2b9;de;;;7.2.;;;Sprachübergreifende Empfehlungen in einem ressourcenbasierten Lernszenario CROKODIL ist eine Plattform, die ressourcenbasierte Lernszenarien für selbstgesteuertes, aufgabenbezogenes Lernen mit Webressourcen unterstützt. Da CROKODIL die Bildung von möglicherweise großen Lerngemeinschaften ermöglicht, wachsen die gespeicherten Daten in großem Umfang. Daher wird eine angemessene Empfehlung von Tags und Lernressourcen für die Unterstützung der Lernenden immer wichtiger. Wir schlagen vor;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23985-4_28 c90646fcaa2db0db21eb80fa04ddb1fe;de;;;7.2.;;;Visittrack: Ein umfassender Service zur Überwachung der sozialen Aktivität älterer Erwachsener, die zu Hause leben Fortschritte in der Medizin ermöglichen es den Menschen, länger und unabhängiger zu leben als noch vor einigen Jahrzehnten. Dies hilft jedoch älteren Erwachsenen nicht direkt, ihr psychisches Wohlbefinden zu verbessern. Mehrere Studien zeigen, dass ältere Menschen in der Regel an sozialer Isolation leiden, die sich negativ auf ihre körperliche und geistige Verfassung auswirkt. Um ein solches Problem anzugehen, stellt dieser Beitrag Visitrack vor, einen allgegenwärtigen und unaufdringlichen Dienst, der entwickelt wurde, um die sozialen Aktivitäten von zu Hause lebenden älteren Menschen zu überwachen. Basierend auf den vom System abgerufenen und verarbeiteten Erfassungsdaten kann es verschiedene Aktionen ausführen. Zum Beispiel das Informieren von Familienmitgliedern und Freunden über lange Zeiträume ohne soziale Aktivität im Haus des älteren Erwachsenen. Der vorgeschlagene Dienst wurde durch eine kontrollierte experimentelle Studie evaluiert, die hochpräzise Ergebnisse lieferte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67585-5_52 8fbb67af5097d53a8534d7a392f27936;de;;;7.2.;;;vConnect: Wahrnehmen und interagieren mit der realen Welt von CAVE Die Cave Automatic Virtual Environment (CAVE) ist ein vollständig immersives Virtual Reality (VR)-System. CAVE-Systeme sind in vielen Anwendungen weit verbreitet, wie zum Beispiel Architektur- und Industriedesign, medizinische Ausbildung und Operationsplanung, Museen und Bildung. Eine Einschränkung für die meisten aktuellen CAVE-Systeme besteht jedoch darin, dass sie von der realen Welt getrennt sind. Der Benutzer im CAVE ist nicht in der Lage, die reale Welt um ihn herum wahrzunehmen. In diesem Papier schlagen wir vor, a;-;-;-;https://link.springer.com/article/10.1007/s11042-015-3121-4 66fe715450c9159c146f20debe2c4c6a;de;;;7.1.;;;Ein explorativer Ansatz für Prozesslebenszyklusübergänge aus einer paradigmenbasierten Perspektive Während im Geschäftsprozessmanagement häufig von der Verwendung eines einzigen Geschäftsprozessparadigmas (z. In diesem Papier werden verschiedene Geschäftsprozessmanagementstrategien untersucht, indem die Ansätze in verschiedenen Phasen des Prozesslebenszyklus sowie die verschiedenen Übergänge zwischen diesen Phasen analysiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21759-3_13 6d5925b5c26383d8998d6eb95a124f41;de;;;7.1.;;;Management von Weidesystemen: Von Entscheidungs- und biophysikalischen Modellen zu Handlungsprinzipien Veränderungen in den Futtersystemen unter Berücksichtigung neuer Umweltaspekte führen oft zu einer Neubewertung der landwirtschaftlichen Praktiken durch die Landwirte. Diese Veränderungen werfen auch neue Fragen hinsichtlich der Relevanz traditioneller Praktiken der Grünlandbewirtschaftung auf. Wir schlagen daher ein analytisches Schema vor, um einen Produktionsplan zu beschreiben, der mit den Landressourcen (Aussaat oder einheimisches Grasland) kompatibel ist. Zu diesem Zweck präsentieren wir ein konzeptionelles Modell, das verwendet werden kann, um eine Reihe von Weidemanagementpraktiken zu entwerfen, die einer Vielzahl von Spezifikationen entsprechen. Es umfasst eine Kombination von Entlaubungs- und Düngemethoden, die es ermöglichen, verschiedene Ziele in Bezug auf Kräuterertrag, Zusammensetzung und Grünlandbiodiversität zu erreichen. Schließlich schlagen wir mehrere Managementprinzipien vor, die diesen Veränderungen in den Futtersystemen zugrunde liegen. Diese Bewirtschaftungsgrundsätze ermöglichen es, monatlich bis jährlich Entscheidungen zu treffen, die Übereinstimmung zwischen den Betriebsmitteln und den Zielen der Landwirte zu bewerten und verschiedene Kombinationen von Herde und Land zu verschiedenen Jahreszeiten zu koordinieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-2666-8_50 ecf0a83b08f594d33c9b03170a743038;de;;;7.1.;;;Ein Rahmen für die Interpretation des Managements der IS-Sicherheit Im vorherigen Kapitel wurden die sozialphilosophischen Ausrichtungen der Forschung in Informationssystemen und Sicherheit identifiziert. In diesem Kapitel wird ein Rahmen für die Interpretation des Managements der Sicherheit von Informationssystemen geschaffen. Es wurde bereits erwähnt, dass beim Management von Informationssystemen die Bedeutung des Verständnisses sozio-organisatorischer Aspekte an Bedeutung gewonnen hat. Daher werden interpretative Ansätze bei der Analyse, dem Design und dem Management von Systemen vermehrt eingesetzt. Forscher im Bereich der Sicherheit von Informationssystemen sind jedoch immer noch in ihren funktionalistischen Traditionen gefangen und die meisten Ansätze basieren auf positivistischen Vorstellungen vom Wesen der Realität. Galliers (1991) weist darauf hin, dass diese Methoden eher für die Naturwissenschaften geeignet sind. Die Angemessenheit dieser Methoden wird in der Tat in Frage gestellt (Galliers 1991, 1993, Hirschheim 1985). Dies wirft auch die Frage auf, wie solche Methoden einem Praktiker beim Management der Informationssystemsicherheit helfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-14454-9_3 0b404c58bf63c439a5e70016a5d40ec9;de;;;7.1.;;;Fortschrittlicher Ansatz für die zukünftige Serviceentwicklung Moderne Unternehmen, einschließlich Telekommunikations- und Mobilfunkbetreiber, die im globalen Umfeld tätig sind, müssen technologische Effektivität und Innovation garantieren und ihre Technologien und Dienste erneuern. Kommunikationstechnologien und Dienstleistungsvielfalt sollen verbessert und extrem schnell weiterentwickelt werden. Dies führt zu der Notwendigkeit einer ständigen Anpassung und Neukonfiguration komplexer Softwaresysteme, die in einer globalen Umgebung verwendet werden, um bereitgestellte Dienste bereitzustellen und zu überwachen. OSS/BSS wird beispielsweise im Bereich von Telekommunikationsunternehmen eingesetzt. Die Rekonfiguration komplexer Softwaresysteme umfasst die Anwendungsentwicklung für die Servicebereitstellung, deren dynamische Überwachung und Rekonfiguration. Derzeit sind Systemanpassungs- und Service-Design-Strategien nur unzureichend formalisiert und validiert. Bei aktuellen Ansätzen nach dem Stand der Technik sind mehrere Iterationen unter Einbeziehung von Analysten und Systemarchitekten erforderlich, was zu einer zeit- und kostenaufwendigen Serviceentwicklung führt. Der in diesem Beitrag vorgeschlagene Ansatz schließt diese Lücke. Es verwendet ein wohldefiniertes Workflow- und Analysemodell für die Entwicklung und Anpassung komplexer Softwaresysteme. Die Anwendbarkeit dieses neuartigen Ansatzes wird durch ein implementiertes Softwaretool bestätigt. Der vorgeschlagene Ansatz und das vorgeschlagene Tool bieten eine Automatisierung der Serviceentwicklung, wobei der Schwerpunkt auf Planungs- und Designphasen liegt, sowohl funktionale als auch nicht-funktionale Anforderungen berücksichtigt und eine rechnerunabhängige Workflow-Transformation in das Ausführungsmodell realisiert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40552-5_21 cc70cca18fd574defdb2ecb7f73e81b9;de;;;7.1.;;;Ein von Physarum inspirierter Ansatz für das Design von Lieferkettennetzwerken Eine Lieferkette ist ein System, das Produkte vom Lieferanten zum Kunden transportiert, das bei allen wirtschaftlichen Aktivitäten eine sehr wichtige Rolle spielt. Dieses Papier schlägt einen neuartigen Algorithmus für ein Lieferkettennetzwerkdesign vor, das von biologischen Prinzipien der Nährstoffverteilung in protoplasmatischen Netzwerken des Schleimpilzes Physarum polycephalum inspiriert ist. Der Algorithmus behandelt Versorgungsnetze, in denen Kapazitätsinvestitionen und Produktflüsse Entscheidungsvariablen sind und die Netze die Produktnachfrage erfüllen müssen. Zwei Merkmale des Schleimpilzes werden in unseren Algorithmus übernommen. Der erste ist die Kontinuität des Flusses während des iterativen Prozesses, der bei der Echtzeitaktualisierung der mit den Lieferverbindungen verbundenen Kosten verwendet wird. Das zweite Merkmal ist die Anpassungsfähigkeit. Die Lieferkette kann bei Kostenänderungen in einen Gleichgewichtszustand konvergieren. Numerische Beispiele werden bereitgestellt, um die Praktikabilität und Flexibilität des vorgeschlagenen Verfahrensalgorithmus zu veranschaulichen.;-;-;-;https://link.springer.com/article/10.1007/s11432-015-5417-4 87e01fb043104b219ff1aeb7d7c919ca;de;;;7.1.;;;Der Wert von Wissen für erweiterte Unternehmen Wie die Welle der Zukunft gewinnt auch die „Wissensbewegung“ in Wirtschaftsunternehmen unaufhaltsam an Dynamik und Verbreitung. Die wissensbasierte Wirtschaft, Wissensmanagement, Wissensnetzwerke, Wissensarbeiter, Wissensmärkte, Wissensrohstoffe, Wissensressourcen, Wissensbestände und -flüsse sowie Wissensinfrastrukturen sind neue Konzepte, die alle das Etikett „Wissen“ tragen. Tatsächlich steht der Wissensfaktor im Mittelpunkt der Art und Weise, wie Unternehmen im 21. Jahrhundert geführt werden. Der Bedarf an Mechanismen zur Erfassung des Wertes von Wissen weist auf die Dringlichkeit der heutigen Wissensanforderungen hin und wird durch die rasanten Fortschritte in der Informations- und Kommunikationstechnologie immer intensiver.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-6071-7_10 0f494be417ca5b3e66ad91fedcebc5ec;de;;;7.1.;;;Regulierung von Bankholdings in Kenia, Nigeria und Südafrika: eine vergleichende Bestandsaufnahme und ein Aufruf zur panafrikanischen Regulierung Dieser Artikel gibt einen Überblick über die Regulierung von Bankholdings in drei afrikanischen Jurisdiktionen (Kenia, Nigeria und Südafrika) aus einer vergleichenden rechtlichen Perspektive (mit der EU und den USA) und identifiziert die Regulierung der Muttergesellschaft einer Bankengruppe auf der Grundlage von zehn identifizierte Elemente der Regulierung von Bankholdinggesellschaften. Es zeigt, dass die Regulierung in diesen afrikanischen Rechtsordnungen zwar fortgeschritten und oft konsistent ist, aber Unterschiede gibt. Diese Unterschiede erhöhen nicht nur die Kosten und verringern die Effizienz und Effektivität grenzüberschreitender Bankengruppen in Afrika, sondern erschweren auch die Arbeit der nationalen Aufsichtsbehörden, die die Risiken für die Sicherheit und Solidität des Finanzsystems überwachen und eindämmen wollen. Diese negativen Folgen veranlassen uns, den Aufbau eines harmonisierten panafrikanischen Regulierungsumfelds zu empfehlen, das sich auf die bereits bestehenden Gemeinsamkeiten stützt, da wir glauben, dass dies zur nachhaltigen Entwicklung und zum Wohlergehen Afrikas insgesamt beitragen würde.;-;-;-;https://link.springer.com/article/10.1057/s41261-017-0048-x ccbabe3268119b39a16bed09eef14f30;de;;;7.1.;;;Boxen, nicht-menschliche Stakeholder und die Übersetzung von IT durch Mediation Die Übernahme von technologischem Determinismus oder sozialem Konstruktivismus (oder einer dialektischen Kombination aus beiden) wird aufgrund fehlender Symmetrie zwischen organisatorischer Arbeit und Technologie als problematisch angesehen. Latours Begriff der Quasi-Objekte wird eingeführt, um die Grenzen einer künstlichen Unterscheidung zwischen Objekt- und Subjektwelten zu mildern, die sich aus der Annahme eines dualistischen Ansatzes ergibt. Es wird die Idee eines vermittelten Netzwerks von Technologie und organisatorischem Kontext vorgeschlagen, in dem informationstechnische Implementierungen durch Verbreitung durch Raum und Zeit zu Blackboxen werden. Dieser Prozess erfordert die Registrierung und Kontrolle von Verbündeten, was wiederum darauf hinweist, dass die Interessen relevanter Stakeholder (menschlich und nicht-menschlich) verstanden werden müssen. Die Ideen von Quasi-Objekten und vermittelten Netzwerken werden auf eine Fallstudie eines automatisierten Zugangskontrollsystems für einen Parkplatz angewendet. Die Fallstudie zeigt die möglichen Auswirkungen der (Informations-)Technologie auf die organisatorische Arbeit durch physische und informative Veränderungen in einer pluralistischen Situation.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34872-8_16 fae90567ff1b0da4ca794bcae1352175;de;;;7.1.;;;Lernplanungsmodell zur semantischen Prozesskompensation Jüngste Fortschritte in der Konformitätsanalyse von Geschäftsprozessen haben gezeigt, dass die Erkennung von Nicht-Konformitätszuständen durch das Erkennen von Inkonsistenzen zwischen Prozessmodellen und ihren historischen Ausführungsprotokollen trotz ihres tatsächlichen Verhaltens gelernt werden kann. Eine zentrale Herausforderung beim Management von Geschäftsprozessen ist der Ausgleich von Nichtkonformitäten. Die Konzentration dieser Arbeit liegt auf dem schwierigsten Aspekt der Herausforderung, bei dem der Prozess strukturell zwar konform ist, aber keine den vom Design geforderten Effekte erreicht. In dieser Arbeit schlagen wir ein Lern- und Planungsmodell vor, um die Kompensation von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-76587-7_3 e0af7292a86d94285ede3a4f7dd9b2b3;de;;;7.1.;;;Die Auswirkungen von Zusammenhängen auf Entscheidungsprozesse in Unternehmen entlang der Lieferkette Dieses Papier präsentiert einen angepassten GRAI-Grid-Ansatz zur Modellierung der Entscheidungsfindungsprozesse von vertikal verbundenen Unternehmen in einem Unternehmensnetzwerk. Ein Rahmen zur Bewertung von Fallstudien wird verwendet, um einen Teil der Lieferkette in drei verschiedenen Branchen zu modellieren und Bereiche zur Verbesserung der Konnektivität zwischen den einzelnen Unternehmen zu identifizieren. Als Schlüsselfaktoren für die Effektivität wurden die Undurchsichtigkeit der Nachfrageinformationen und Verzögerungen aufgrund unkoordinierter Entscheidungsprozesse in verbundenen Unternehmen festgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35321-0_45 c0f18bb62131747e75ea12b4e2d33b8d;de;;;7.1.;;;Kritische Faktoren für eine erfolgreiche Anwender-Lieferanten-Integration in den Designprozess von Produktionssystemen Die Einbindung von Ausrüstungslieferanten in die Gestaltung des Produktionssystems ist oft mit großen Vorteilen verbunden. Aus betriebswirtschaftlicher Sicht ist die Integration zwischen dem Nutzer und den Lieferanten der Produktionsanlagen jedoch nach wie vor eine Herausforderung. Der Zweck der Forschung besteht daher darin, zu untersuchen, wie Fertigungsunternehmen die Integration von Ausrüstungslieferanten bei der Entwicklung des Produktionssystems erleichtern und verwalten können. Basierend auf einer Echtzeit-Fallstudie in der Automobilindustrie werden 10 kritische Faktoren für eine erfolgreiche Lieferanten-/Anwender-Integration identifiziert, die sich in drei Kategorien einteilen lassen: Human Factors, Project Management Factors und Design Factors.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40352-1_53 a7277f420a38b412b907f636bed8f49c;de;;;7.1.;;;Privacy by Design: Ist das für soziale Netzwerke wichtig? Privatsphäre ist ein wichtiger Bestandteil der Freiheit und spielt eine Schlüsselrolle beim Schutz grundlegender Menschenrechte. Es wird immer schwieriger, die Tatsache zu ignorieren, dass die Rechte einer Person ohne ein angemessenes Maß an Privatsphäre beeinträchtigt werden. Nutzer wollen ihre Privatsphäre schützen – insbesondere in „privacy-invasiven“ Bereichen wie sozialen Netzwerken. Benutzer sozialer Netzwerke wissen jedoch selten, wie sie ihre eigene Privatsphäre durch Online-Mechanismen schützen können. Erforderlich ist ein neu entstehendes Konzept, das Benutzern die legitime Kontrolle über ihre eigenen persönlichen Daten ermöglicht und gleichzeitig die Vorteile der Nutzung von Online-Diensten wie sozialen Netzwerken bewahrt und aufrechterhält. Dieses Papier gibt einen Überblick über „Privacy by Design (PbD)“ und zeigt, wie es für verschiedene Datenschutzbereiche gilt. Ein solcher Ansatz wird dazu beitragen, viele der Datenschutzprobleme in Online-Informationssystemen zu mildern, und kann ein potenzieller Weg zum Schutz der personenbezogenen Daten der Benutzer sein. Die Forschung hat auch viele Fragen aufgeworfen, die für verschiedene Open-Source-verteilte soziale Netzwerke weiter untersucht werden müssen. Die Erkenntnisse aus dieser Forschung werden zu einer neuartigen verteilten Architektur führen, die den Benutzern von Online-Informationssystemen transparentere und rechenschaftspflichtigere Privatsphäre bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31668-5_16 adec170d4babd0526f97319082f58610;de;;;7.2.;;;Effiziente Content-Verteilungsmethode basierend auf Standort und Ähnlichkeit in einem unstrukturierten P2P-System Die Peer-to-Peer (P2P)-Systeme sind in den letzten Jahren aufgrund ihres hohen Potenzials zur gemeinsamen Nutzung verschiedener Ressourcen stark gewachsen. Die Ermittlung der Standort- und Inhaltsähnlichkeit zwischen Peers ist jedoch sehr kostspielig und zeitaufwändig, da viele Peers zusammenarbeiten müssen. In dieser Studie schlagen wir ein ISP2P-System (Intelligent Super-Peer based P2P) vor, das die Peers in drei Typen einteilt, ASP (Agent Super-Peer), SP (Super-Peer) und OP (Ordinary-Peer) und nutzt die Standortinformationen und Inhaltstypen, um einen effizienten Inhaltsverteilungs- und Abrufdienst bereitzustellen. Das vorgeschlagene System kann die Leistung der durchschnittlichen Nachrichtenantwortzeit verbessern und den Nachrichtenverkehr reduzieren, indem es die Ähnlichkeit der Netzwerkentfernung und des Inhalts verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74819-9_96 d08aa3fb4bff698185f30dac146e7eba;de;;;7.2.;;;Eine serviceorientierte Methode für die Governance von Gesundheitsnetzwerken Governance und Compliance von Versorgungsnetzen gewinnen in der IS-Forschung zunehmend an Bedeutung. Die Gestaltung medizinischer Workflow-Systeme und die Konformitätsprüfung von Pflegeprozessen nach nationalen und internationalen Richtlinien ist die Motivation für dieses Papier. Wir verfolgen einen prozessmodellbasierten Ansatz für das Management von Gesundheitsnetzwerken. Wir stellen eine servicebasierte Methode zur Konformitätsprüfung von Prozessmodellen vor und ermöglichen eine Konfiguration von Informationssystemen mit Prozessmodellen. Die Anwendung der Methode sowie die Diskussion des praktischen Nutzens werden anhand eines Praxisbeispiels veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24148-2_16 e8d2683b9c61451c753496a543d3d794;de;;;7.2.;;;Eine Methode zum Clustern von Online-Nachrichtendokumenten Um die Effizienz und Genauigkeit der Methode zur Online-Nachrichtenereigniserkennung (ONED) zu verbessern, wählen wir die Wörter aus, deren Begriffshäufigkeit (TF) größer als ein Schwellenwert ist, um das Vektorraummodell des Nachrichtendokuments zu erstellen, und schlagen eine zwei- Stage-Clustering-Methode für ONED. Dieses Verfahren unterteilt den Erkennungsprozess in zwei Phasen. Im ersten Schritt werden die in einem bestimmten Zeitraum gesammelten ähnlichen Dokumente zu Mikroclustern zusammengefasst. Im zweiten Schritt werden die Mikrocluster mit früheren Ereignisclustern verglichen. Die experimentellen Ergebnisse zeigen, dass das vorgeschlagene Verfahren weniger Rechenlast, höhere Rechengeschwindigkeit und weniger Genauigkeitsverlust aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35236-2_9 fd43989f130275b1d0844062f849c2d2;de;;;7.2.;;;Die Entscheidungsfindung von Verbrauchern in digitalen sozialen Einkaufsnetzwerken verfolgen Mehrere Online-Unternehmen erwägen die Integration von Funktionalitäten sozialer Netzwerke in ihren Online-Shop und schaffen so digitale Social Shopping Networks (DSNs). Da Freunden in der Regel vertraut wird oder sie ähnliche Interessen haben, wird oft erwartet, dass Käufer ihre Verbindungen nutzen, um die Entscheidungsfindung zu vereinfachen und die Chancen zu erhöhen, geeignete Produkte zu finden. Leider gibt es wenig Beweise oder Theorien, um zu rechtfertigen, ob, wann und wie sich dies manifestieren könnte. In dieser Studie gehen wir dieses Problem an, indem wir ein Modell entwickeln, wie sich die Entscheidungsfindung in einem DSN entfaltet. Das Modell kann als Grundlage für ein Forschungsprogramm dienen, das erklären soll, warum, wann und auf welche Weise Online-Shopper ihr soziales Netzwerk nutzen oder nicht mehr nutzen. Wir skizzieren die Hauptmerkmale einer empirischen Strategie, die die Prozessverfolgung durch den Einsatz komplementärer Techniken beinhaltet: Navigationsaufzeichnung, verbale Protokolle und Augenaktivität.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-41402-7_1 59d2458b6ebb27cd958ff41d0f2aff14;de;;;7.2.;;;Eine Bewertung von Argumentmustern basierend auf dem Datenfluss In diesem Papier werden wir einige der Problembereiche vorstellen, die Software-Ingenieuren während der Erstellung von Assurance-Fällen anfällig sind, basierend auf den Erfahrungen des Autors mit Assurance-Fällen. Um diese Probleme zu mindern, werden Assurance-Fallmuster basierend auf Datenflussdiagrammen vorgeschlagen, die Ingenieuren helfen, Assurance-Fälle zu entwickeln, indem diese Muster wiederverwendet werden. Es wird auch ein Bewertungsergebnis der Anwendung von Assurance-Fallmustern gezeigt, um einen Assurance-Fall für ein Smartcard-Anwendungssystem zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55032-4_43 d4082f14cff720ac02b37e06e691fa0c;de;;;7.2.;;;Einfache Morphem-Beschriftung in der unüberwachten Morphem-Analyse Dieses Papier beschreibt ein System zur unüberwachten Morphemanalyse und die Ergebnisse, die es bei der Morpho Challenge 2007 erhalten hat. Das System nimmt eine einfache Liste von Wörtern als Eingabe und gibt für jedes Wort eine Liste beschrifteter Morphemsegmente zurück. Morphemische Segmente werden durch einen unüberwachten Lernprozess gewonnen, der direkt auf verschiedene natürliche Sprachen angewendet werden kann. Die Ergebnisse von Wettbewerb 1 (Auswertung der Morphemanalysen) sind in Englisch, Finnisch und Deutsch besser als in Türkisch. Beim Informationsabruf (Wettbewerb 2) werden die besten Ergebnisse erzielt, wenn die Indizierung mit Okapi (BM25)-Gewichtung für alle Morpheme abzüglich derjenigen, die zu einer automatischen Stoppliste aus den häufigsten Morphemen gehören, durchgeführt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85760-0_112 15041f1a6c5c34087a483e09467fc6b9;de;;;7.2.;;;Ranking von semantisch annotierten Medienressourcen Das Ranking von Ressourcen ist in Information-Retrieval-Systemen relevant, um optimal zielgerichtete Ergebnisse bei anfänglich ausgegebenen Abfragen zu präsentieren. Herkömmliche Ranking-Ansätze aus dem Bereich Information Retrieval sind nicht immer für die semantische Umsetzung in Suchmaschinen geeignet. Daher schlägt dieses Papier einen angepassten Ranking-Ansatz für Multimedia-Ressourcen basierend auf semantischen Annotationen vor, der auf dem Vektorraummodell basiert. Eine erste Version des Ranking-Algorithmus wird evaluiert und Verfeinerungen vorgeschlagen, die wiederum in einem Endbenutzer-Experiment evaluiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23017-2_2 6a948a4c7f73e33ee868fc9d8b32031f;de;;;7.2.;;;Erkennung probabilistischer Ereignismuster Um das Auftreten komplexer Ereignisse in einem Ereignisstrom zu erkennen, müssen Abfragen entworfen werden, die reale Situationen beschreiben. Die Spezifikation komplexer Ereignismuster ist jedoch eine anspruchsvolle Aufgabe, die domänen- und systemspezifisches Wissen erfordert. Es sind neue Ansätze erforderlich, die automatisch Muster von potenziellem Interesse in einem starken Fluss von Ereignissen erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-21542-6_16 d5a1795fe7e5d2d679260e6bd0a67a55;de;;;7.2.;;;Reranking von Dokumenten mit antagonistischen Begriffen Für die Teilnahme der IICS-Gruppe an der domänenspezifischen Aufgabe (GIRT) der CLEF-Kampagne 2006 verwenden wir das gemeinsame Vorkommen von Suchbegriffen und antagonistischen Begriffen (Antonyme oder Cohyponyme) in Dokumenten, um Werte für die Neuordnung einer ersten Ergebnismenge abzuleiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74999-8_24 94f1e40f7001f26f3ae4dbb6f0b458c8;de;;;7.2.;;;Gewichtungslernen der Funktionen für eine verbesserte Abfrageklassifizierung Dieses Dokument ist ein Versuch, die Abfrageklassifizierung in Anrufweiterleitungsanwendungen zu verbessern. Wir haben eine neue Methode eingeführt, um Gewichte aus Trainingsdaten mittels Regressionsmodell zu lernen. In dieser Arbeit haben wir unsere Methode getestet mit;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31368-4_22 c4af19f7e698014bdf14c77b6e67295e;de;;;7.2.;;;Mentale Modelle: Ein Forschungsschwerpunkt für interaktive Lernsysteme Die Schwierigkeit, die Struktur und Funktionen von Computerprogrammen zu verstehen, ist besonders akut, wenn den Lernenden die Freiheit gegeben wird, Hypertextmaterialien zu erkunden, in denen die Möglichkeit der Desorientierung stark ist. Die Theorie des mentalen Modells ist ein Versuch, das menschliche Verständnis von Objekten und Phänomenen während des Lernens (und anderer Aktivitäten) zu modellieren und zu erklären. Die Erforschung mentaler Modelle in der Mensch-Computer-Interaktion kann wichtige Merkmale kognitiver Prozesse identifizieren und bei der Entwicklung forschungsbasierter Leitlinien für die Gestaltung interaktiver Lernsysteme helfen. Dieser Artikel fordert programmatische Forschung zu den mentalen Modellen von Lernenden und bietet Leitlinien für die Durchführung solcher Forschungen.;-;-;-;https://link.springer.com/article/10.1007/BF02296841 1d96fc18e46856819ae2d1ec25d48404;de;;;7.1.;;;Konflikt, Kooperation und die globale Autofabrik Seit 1973 hat die amerikanische Automobilindustrie einen Wandel hin zu kooperativen Arbeitsbeziehungen erlebt. Viele Beobachter sahen den Vertrag von 1984 zwischen General Motors (GM) und den United Auto Workers als wegweisende Vereinbarung, die den Beginn einer neuen Ära der Zusammenarbeit markierte. Historisch war das Erbe der Arbeitsbeziehungen in der Autoindustrie von Konflikten geprägt, von der Zeit blutiger Gewalt über das Recht auf gewerkschaftliche Organisation in den späten 1930er Jahren bis zur langwierigen Auseinandersetzung zwischen Arbeitern und Management über Fragen der Arbeitsplatzkontrolle in Lords Town im Jahr 1972 Im Gegensatz dazu gab es seit der Einführung eines Programms zur Qualität des Arbeitslebens bei GM im Jahr 1973 eine zunehmende Zahl von Kooperationsvereinbarungen, um sowohl neue als auch neu auftretende Probleme anzugehen. Die zentrale Bestimmung des GM-UAW-Pakts von 1984 – eine „Jobbank“, die die Vermittlung von Arbeitnehmern vorsieht, die aufgrund neuer Technologien und aus anderen Gründen vertrieben wurden – ist eines der bemerkenswertesten Beispiele. Allerdings sind die Arbeitsbeziehungen in der Autoindustrie noch immer von erheblichen Konflikten geprägt, da der Pakt von 1984 erst nach Drohungen der Konzerne und einem Streik der UAW zustande kam. Ziel dieses Essays ist es, den Wandel hin zu kooperativeren Arbeitsbeziehungen in der Automobilindustrie zu erklären, mit besonderem Fokus auf die Rolle des Konflikts selbst. Die Art dieser Zusammenarbeit wird auch im Hinblick auf die relative Macht von Arbeitnehmern und Management untersucht, widersprüchliche Interessen zu verfolgen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-1821-7_10 c40aa772fcb0be374393beaa0fef750e;de;;;7.1.;;;Intelligente umfassende Gesundheitssysteme Das Kapitel stellt den Stand der Technik bei intelligenten, durchdringenden Gesundheitsanwendungen und die entsprechenden Basistechnologien vor. Es erörtert allgegenwärtige Gesundheitssysteme in kontrollierten Umgebungen (z. B. Gesundheitsstationen oder Krankenhäuser) oder an Orten, an denen eine sofortige Gesundheitsversorgung nicht möglich ist (z. Ein besonderer Fokus liegt auf intelligenten Plattformen (z. B. Agenten, kontextbezogene und standortbasierte Dienste und Klassifizierungssysteme), die eine fortschrittliche Überwachung und Interpretation des Patientenstatus und der Umgebung ermöglichen, wodurch das gesamte medizinische Bewertungsverfahren optimiert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77662-8_5 5586ad67fafd3e6f879ad34ec93cf2dd;de;;;7.1.;;;Die Anwendung morpho-syntaktischer Sprachverarbeitung zur effektiven Textsuche Dieses Papier beschreibt einige der Arbeiten, die im Rahmen des ESPRIT II SIMPR-Projekts durchgeführt wurden. Ziel von SIMPR ist die Erforschung und Entwicklung von Methoden zur effektiven Abfrage und Manipulation von Textinformationen unter Verwendung automatischer natürlicher Sprachverarbeitungstechniken. Dieses Papier beschreibt die während des SIMPR entwickelten automatischen Sprachverarbeitungstechniken und wie diese verwendet wurden, um eine Methode zum Abrufen und Abgleichen von Textinformationen zu entwickeln. Eingabetexte werden auf der Ebene der morphosyntaktischen Sprachanalyse automatisch verarbeitet und aus dieser Verarbeitung werden baumstrukturierte interne Repräsentationen generiert, die für die Suche angepasst werden. Dieses Papier beschreibt die Sprachanalyse und wie sie in passenden Texten verwendet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-0705-8_44 eaff0edd819990c03790618fd22ce818;de;;;7.2.;;;Ein Rahmen zur Bewertung und Bewältigung der menschlichen Fähigkeiten, die zur Nutzung von Open-Source-Softwareplattformen in Entwicklungsländern erforderlich sind Während Open-Source-Softwareplattformen für Gesundheitsinformationen den Entwicklungsländern im Vergleich zu internen Lösungen eine kostengünstige, schnelle und risikoärmere Möglichkeit bieten, Gesundheitsinformationssysteme aufzubauen, können Herausforderungen bei der Personalkapazität ihre Fähigkeit zur Nutzung solcher Plattformen einschränken. Ausgehend von einer Fallstudie, die sich auf die Bereitstellungs- und Betriebsphasen der DHIS2-Plattform in Malawi konzentriert, stellen wir fest, dass Open-Source-Softwareplattformen eine Reihe von Personalkapazitäten erfordern, die über die Nutzung der Plattform hinausgehen. Die vollständige Nutzung von Open Source-Softwareplattformen für Gesundheitsinformationen erfordert die Verfügbarkeit von Plattformnutzungskapazität, Plattformbereitstellungskapazität, Plattformanpassungskapazität und Plattformmodulentwicklungskapazität. Die meisten Initiativen zum Aufbau von Kapazitäten für Informationssysteme in Entwicklungsländern waren kurzfristige Bemühungen, die sich auf die anfängliche Kapazität der Endnutzer zur Nutzung solcher Systeme konzentrierten. Um jedoch den schnellen Innovationen und Entwicklungen im Zusammenhang mit Open-Source-Softwareplattformen gerecht zu werden, sollte der Kapazitätsaufbau ein kontinuierlicher Prozess sein, der eine Reihe von Personalkapazitäten umfasst, nicht nur die Nutzung der Plattform.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-59111-7_8 c896eb9a322528142938dc1eecfba09f;de;;;7.2.;;;Einbinden generalisierter Quantoren in die Beschreibungslogik zur Darstellung von Datenquelleninhalten Systeme, die Benutzern bei der Auswahl von Datenquellen in einer Umgebung wie dem Internet helfen, müssen ausdrucksstark genug sein, um die formale Darstellung einer Vielzahl von Datenquellen zu ermöglichen. Wir bauen auf und erweitern die Konzeptsprache Beschreibungslogik (DL), um ein neuartiges Darstellungssystem vorzuschlagen, um dieses Ziel zu erreichen. Wir weisen darauf hin, dass es innerhalb der Beschreibungslogik technische Barrieren gibt, die die darstellbaren Arten von Datenquellen einschränken. Konkret zeigen wir, dass (1) DL in der Darstellung hinreichender Bedingungen umständlich ist und (2) DL Eigenschaften eines Begriffs selbst nur im Fall einer existenziellen Quantifizierung beschreiben kann. Um konkret zu sein, während es in DL leicht ist zu sagen 'Es gibt einige Objekte in einem Konzept C, von denen jedes die Eigenschaft P besitzt', ist es umständlich, wenn nicht unmöglich zu sagen 'Alle (die meisten, mehr als, -n, Mehr-als-1/2) derer, die die Eigenschaft P besitzen, sind im Konzept C' oder 'Die meisten (Mehr-als-n, Mehr-als-1/2) derer, die im Konzept C . enthalten sind halten die Eigenschaft P'. Diese Barrieren veranlassen uns, DL um den Begriff der generalisierten Quantoren zu erweitern. Wir verbessern die bisherigen Ergebnisse verallgemeinerter Quantoren, um sie mit traditioneller Logik interoperabel zu machen. Der vorgeschlagene Formalismus integriert die schönen Eigenschaften verallgemeinerter Quantoren in die Beschreibungslogik und erreicht damit mehr Ausdruckskraft als verschiedene Darstellungssysteme, die rein auf Beschreibungslogik basieren. Es wird auch gezeigt, dass unsere vorgeschlagene Sprache die mathematischen Eigenschaften beibehält, für die herkömmliche logikbasierte Formalismen bekannt sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35300-5_14 02735325d69b49f577925cea032d6a5c;de;;;7.2.;;;Ein neuer Algorithmus zur Komponentenzerlegung und Typerkennung tibetischer Silben In diesem Papier, das auf die Probleme abzielt, einschließlich, aber nicht beschränkt auf tibetische Sortierung, tibetische Silbenkomponentenattributstatistik, tibetische Spracherkennung im Anwendungsbereich der Komponentenerkennung tibetischer Silben, schlagen wir einen neuen Algorithmus zur Komponentenzerlegung und Typerkennung tibetischer Silben vor basierend auf TSRM (Tibetan Silable Rule Model). Experimentelle Ergebnisse zu gemischt arrangierten komplexen tibetischen Texten zeigen, dass unser neu vorgeschlagener Algorithmus sowohl eine Genauigkeitsrate als auch eine Erinnerungsrate von etwa 90% für die Komponentenzerlegung und die Typerkennung tibetischer Silben erreichen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-32236-6_34 dbdc925122377713bd4a770792820550;de;;;7.2.;;;Der Status von Technologien zur Verbesserung der Privatsphäre Dieses Papier erläutert Privacy-Enhancing Technologies (PETs), ihre Verankerung in den EU-Datenschutzrichtlinien und anderen Datenschutzsystemen und wie sie zur rechtmäßigen Verarbeitung personenbezogener Daten beitragen können. Wir blicken zurück, seit die Datenschutzbeauftragten der Niederlande und Ontarios 1995 PET definiert haben, um zu sehen, was sich geändert und was erreicht wurde. Als Beispiel für die zukünftige PET wird das EU-Projekt PISA (privacy integrated software agent) herangezogen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35696-9_15 1feee96a12ac0c887fc09924e2f308bf;de;;;7.1.;;;COSO in der Weltbank Dieses Papier beschreibt die Bedeutung interner Kontrollen für die Weltbank und das Projekt, das zur Implementierung des internen Kontrollrahmens von COSO in der Weltbank initiiert wurde. Das Papier schließt mit den Vorteilen des Projekts und einigen Herausforderungen für die zukünftigen Aktivitäten.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35501-6_1 2ce8cde6203edd33fc829a738a3c8dc1;de;;;7.1.;;;Entscheidungshilfe für strategisches Katastrophenmanagement: Erste Veröffentlichung eines Wikis Für ein erfolgreiches Notfallmanagement (EM) ist es entscheidend, dass alle Beteiligten, insbesondere Notfallhelfer im Gesundheitswesen, die gleiche Terminologie verwenden. Während des gesamten Lebenszyklus des Notfallmanagements ist es notwendig, dass einzelne Behörden zusammenarbeiten und Informationen und Ressourcen austauschen. Das Notfallmanagement ist bereits ein komplexer Prozess, aber eine behördenübergreifende Reaktion bringt zusätzliche Schwierigkeiten mit sich. Jede Agentur hat ihre eigenen Organisationskulturen, Strukturen und Technologien, die durch interne Prozesse und Systeme gesteuert werden. Um einige der mit einer behördenübergreifenden Reaktion verbundenen Herausforderungen anzugehen (z. B. mangelnde Koordination, Information und Interoperabilität), wird die Standardisierung gefördert. Durch die Sicherstellung der Verwendung gemeinsamer Begriffe können betriebliche Ineffizienzen und Verzögerungen reduziert und ein gemeinsames Vokabular über mehrere Agenturen hinweg gefördert werden. Aus diesem Grund wurde das S-HELP Strategic Disaster Management Wiki von der Universität Wien, Österreich (UNIVIE) entwickelt. Das Wiki bietet wichtige Glossarbegriffe, Definitionen und Standards, um die Entscheidungsfindung zu verbessern. Es wird als Teil des FP7-EU-Projekts S-HELP (Securing Health.Emergency.Learning.Planning) umgesetzt, das ein Decision Support (DS)-Tool für EM entwickelt und vom University College Cork (UCC), Irland, koordiniert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-39120-5_23 1d3fe6c7309bf50d3c529433d5f1c286;de;;;7.1.;;;Informationssysteme für „bösartige Probleme“ Ziel dieses Kommentars ist es, fruchtbare Forschungsrichtungen vorzuschlagen, die auf dem wechselseitigen Zusammenspiel von Social Media und kollektiver Intelligenz aufbauen. Wir konzentrieren uns auf „Wicked Problems“ – eine Klasse von Problemen, die Introne et al. (Künstl. Intell. 27:45–52,;-;-;-;https://link.springer.com/article/10.1007/s12599-013-0303-3 c8434c3a8046e33684dd521f0c993c30;de;;;7.2.;;;Sampling-Präzision bis 10000 Tiefe bei CLEF 2009 CL Wir haben ein Experiment durchgeführt, um die Vollständigkeit der Relevanzurteile für die einsprachigen Informationsabrufaufgaben Deutsch, Französisch, Englisch und Persisch (Farsi) des Ad-hoc-Tracks des Cross-Language Evaluation Forum (CLEF) 2009 zu testen Aufgaben erhielt das System 50 Abfragen in natürlicher Sprache mit dem Ziel, alle relevanten Dokumente (mit hoher Präzision) in einem bestimmten Dokumentensatz zu finden. Für jede Sprache haben wir eine Stichprobe der ersten 10000 abgerufenen Elemente eingereicht, um die Häufigkeit relevanter Elemente in tieferen Rängen als der offiziellen Bewertungstiefe von 60 für Deutsch, Französisch und Englisch und 80 für Persisch zu untersuchen. Die Ergebnisse legen nahe, dass der Anteil der bewerteten relevanten Items im Durchschnitt weniger als 62 % für Deutsch, 27 % für Französisch, 35 % für Englisch und 22 % für Persisch betrug.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15754-7_8 c009aacc5e2c885a9dc91fdb4e18910a;de;;;7.2.;;;Analyse der Ähnlichkeitsessenz für eine fallbasierte Empfehlung Erste Erfolge im Bereich der Empfehlungssysteme haben zu großem frühen Optimismus geführt. Als Forschungsgemeinschaft stehen wir jedoch noch am Anfang unseres Verständnisses dieser Anwendungen und ihrer Möglichkeiten. Bewertungsmetriken werden weiter verfeinert, aber wir müssen noch den relativen Beitrag der verschiedenen Wissenselemente berücksichtigen, die im Empfehlungsprozess eine Rolle spielen. In diesem Papier führen wir eine feingranulare Analyse eines erfolgreichen fallbasierten Empfehlungsansatzes durch und bieten eine Ablationsstudie des Ähnlichkeitswissens und der Beiträge der Ähnlichkeitsmetrik zur verbesserten Systemleistung. Insbesondere erweitern wir unsere früheren Analysen, um zu untersuchen, wie Maßnahmen zur;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-28631-8_52 d5312983713e09863fa30642988c42e3;de;;;7.2.;;;Banner-Personalisierung für E-Commerce Die Personalisierung von Websites in Echtzeit ist ein Konzept, das seit mehr als einem Jahrzehnt diskutiert wird, aber erst seit kurzem entsprechend neuer Marketingtrends in der Praxis angewendet wird. Diese Trends konzentrieren sich auf die Bereitstellung von benutzerspezifischen Inhalten basierend auf Verhalten und Präferenzen. Bannerempfehlungen in Form von personalisierten Anzeigen sind in diesem Zusammenhang ein viel beachteter Ansatz. Dennoch ist die Banner-Empfehlung in Bezug auf E-Commerce-Hauptseite-Slider und statische Banner auch heute noch ein unterschätztes Problem, da traditionell nur große E-Commerce-Shops damit umgehen. In diesem Papier schlagen wir ein integriertes Framework für die Banner-Personalisierung im E-Commerce vor, das bei kleinen bis mittleren E-Händlern angewendet werden kann. Unser Ansatz kombiniert Themenmodelle und ein neuronales Netz, um jedem Nutzer separat verfügbare Banner eines E-Commerce-Shops zu empfehlen und optimal zu ranken. Wir haben unser Framework anhand eines Datensatzes aus einem aktiven E-Commerce-Shop bewertet und zeigen, dass es andere gängige Ansätze übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-19823-7_53 8897e6a69a48f806d1859ffbd1a8ae54;de;;;7.2.;;;Kognitiver Stil und die Erwartungen an die Präferenzrepräsentation in Entscheidungsunterstützungssystemen Das Ziel dieser Arbeit ist es zu untersuchen, wie der kognitive Stil mit den Erwartungen an die Unterstützungsmechanismen, die im Entscheidungsunterstützungssystem angeboten werden, zusammenhängt, während das Problem der Entscheidungsfindung mit mehreren Kriterien analysiert wird. Wir analysieren die Erwartungen der Entscheider an die Darstellungsformen der Ergebnisse durch das System (z. B. Rankings vs. Ratings) sowie die unterschiedlichen Möglichkeiten, ihre Präferenzen (z. Der Zusammenhang zwischen dem durch das Rational-Experiential Inventory ermittelten kognitiven Stil und den Deklarationen der Entscheidungsträger wird mit Hilfe der Korrespondenz- und Clusteranalyse sowie Fraktionstests untersucht. Die Ergebnisse bestätigen in gewisser Weise die Postulate der Verhaltenstheorie der Entscheidungsfindung, dass die rationalen Entscheidungsträger die eher auf numerischen Kategorien basierenden Präferenzmechanismen gegenüber den erfahrungsbezogenen bevorzugen. Leider gibt es keine klaren Präferenzmuster für vielseitige oder gleichgültige Entscheidungsträger. Diese Ergebnisse korrelieren jedoch nicht so offensichtlich mit den abschließenden Empfehlungen entscheidungsunterstützender Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-21711-2_13 179dedc721eb80ef9540074ce9d7a338;de;;;7.1.;;;Abruf privater Informationen basierend auf dem Problem der Untergruppenmitgliedschaft Viele algorithmische Probleme, die verwendet werden, um die Sicherheit eines kryptographischen Systems zu beweisen, werden als Untergruppenmitgliedschaftsproblem charakterisiert. Dann wenden wir das Untergruppenmitgliedschaftsproblem auf private Informationsabrufschemata an, indem wir der Methode von Kushilevitz und Ostrovsky folgen. Das resultierende Schema hat dieselbe Kommunikationskomplexität wie das von Kushilevitz und Ostrovsky.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-47719-5_18 e1afa4da7218e3e847104b4b7c21daa6;de;;;7.1.;;;Dichtebasiertes Clustering basierend auf topologischen Eigenschaften des Datensatzes Bei der Wegplanung ist es oft erwünscht, einen möglichst kurzen Weg zu berechnen, während ein bestimmter Abstand zu Hindernissen eingehalten wird. Dieses Kapitel verwendet das Voronoi-Diagramm, um eine einfache und effiziente Lösung zur Berechnung eines solchen Pfades zu entwickeln. Durch Setzen des Spiels auf Null erhalten wir eine sehr gute Annäherung an den kürzesten Weg. Wir vergleichen die Leistung unseres Algorithmus mit anderen bestehenden Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85126-4_8 d83e77c71e89611243bd8774d5fe7a2c;de;;;7.1.;;;Automatische Prozessfehlerdiagnose und -überwachung durch Experten Die automatische Fehlerdiagnose, Überwachung und Steuerung sehr komplexer Systeme wird immer wichtiger. Dies ist die direkte Folge des Auftretens von Katastrophen in jüngster Zeit aufgrund einer unbefriedigenden Kontrolle oder einer versäumten Fehlerdiagnose (Three Mile Island und Tchernobyl sind nur einige Beispiele). Ohne eine gute Modellierungsmethodik, d. h. die Darstellung der Struktur und des Verhaltens der betrachteten Systeme in den wesentlichen Betriebszuständen, sind Steuerung und Fehlerdiagnose nicht realisierbar. Die herkömmlichen Methoden der großskaligen Modellierung erfordern umfassende Kenntnisse über das System, das aus konformen Elementen besteht (z. B. ein Satz gewöhnlicher Differentialgleichungen), und es dürfen keine Wissenslücken zugelassen werden. Komplexe physikalische Systeme (z. B. ein Kernkraftwerk, chemische Prozesse) enthalten verschiedene Arten von Elementen und Prozessen (z. B. nuklear, mechanisch, elektrisch, elektronisch usw.) mit unterschiedlicher Beschreibung und eventuell Lücken im verfügbaren Wissen. Der rein numerisch-mathematische Ansatz der Großsystemmodellierung konnte keine adäquate Methodik bieten, um die in diesem Bereich auftretenden Probleme zu lösen, daher wurden Methoden der symbolischen und künstlichen Intelligenz versucht, eine adäquate Lösung zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-8300-8_4 b8ae08b8f1c74dd6cb403d63353a0443;de;;;7.1.;;;Kann emotionales Design beim multimedialen Lernen wirklich Emotionen wecken? Das Ziel dieser Studie war es, die Auswirkungen von emotionalem Design auf die Leistung und Emotionen der Lernenden zu untersuchen. Wenn emotionales Design Auswirkungen auf die Leistung und Emotionen der Lernenden hat, haben wir versucht, Dimensionen zu untersuchen, die für solche Effekte verantwortlich sind. An dieser Studie nahmen 316 chinesische Universitätsstudenten teil. Die Studenten wurden in zwei Gruppen eingeteilt: NED-Gruppe - Studenten dieser Gruppe lernten Material basierend auf neutralem Design und PED-Gruppe - Studenten in dieser Gruppe lernten Material basierend auf positivem Design. Wir untersuchten die Unterschiede zwischen zwei Gruppen in der Lernleistung der Schüler sowie in der Emotion. Außerdem wurden Vorkenntnisse, Bindung und Transfertests durchgeführt und die Ergebnisse in zwei Gruppen verglichen. Darüber hinaus wurde die Emotion der Schüler mit einer positiven Affektskala und Biofeedback-Instrumenten gemessen. Die Ergebnisse zeigten, dass die PED-Gruppe die NED-Gruppe bei den Retentions- und Transfertests übertraf. Es wurde jedoch ein unbedeutender Unterschied zwischen zwei Gruppen in Bezug auf die Emotionen der Schüler gefunden. Unsere Ergebnisse legen nahe, dass der Effekt des emotionalen Designs zwar unbedeutend auf die Emotionen der Schüler war, aber signifikant auf die Lernleistung der Schüler (d. Basierend auf unseren Ergebnissen wurden verschiedene Implikationen gezogen und Vorschläge für Pädagogen und Forscher gemacht.;-;-;-;https://link.springer.com/article/10.1186/s41239-020-00198-y d895b595afad26d6af19f8018be5c23a;de;;;7.1.;;;Qualitätsmanagement-Unterstützungssysteme (QMSS) – Definition, Anforderungen und Umfang Qualitätsmanagement ist eine seit der zweiten Hälfte des 20. Jahrhunderts entwickelte Philosophie der Unternehmensführung. Methoden des Qualitätsmanagements haben sich sowohl in einzelnen Ländern als auch weltweit normalisiert. Das derzeit am weitesten verbreitete Normungssystem ist die Normenfamilie, die von der Internationalen Organisation für Normung herausgegeben und aktualisiert wird (sog. ISO 9000 Qualitätsmanagement). Die Einführung und Aufrechterhaltung des zertifizierten Qualitätssystems ist ein teurer Prozess mit hohem Arbeitsaufwand und bringt nicht immer die erwarteten Ergebnisse. Viele Autoren betonen die Tatsache, dass einer der Hauptgründe für das Fehlen eines effektiven Funktionierens des Qualitätssystems die Fehlerhaftigkeit des Informationssystems ist, insbesondere weisen sie auf Probleme bei der Aufrechterhaltung der Kontrolle über die erforderliche Dokumentation hin, die zu aufwändige Umsetzung des Qualitätsprozesses -intensive und unzureichende Art der Mitarbeiterschulung. Das Ziel dieses Papiers ist es, die Anforderungen und den Umfang von IT-Tools zu definieren, die die oben genannten Probleme lösen können. Diese Werkzeuge werden als Qualitätsmanagement-Unterstützungssysteme (QMSS) definiert. Das Hauptziel des ersten Teils dieses Papiers ist die Überprüfung der wichtigsten ISO 9000-Normen im Kontext der Anforderungen, die von QMSS erfüllt werden sollten. Der zweite Teil dieses Papiers schlägt die Hauptfunktionen und Komponenten solcher Systeme und Arten von Schnittstellen zwischen ihnen und anderen IT-Tools innerhalb eines bestimmten Unternehmens vor. In den Schlussfolgerungen dieses Papiers werden mögliche Implementierungsstrategien von QMSS-Tools vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24366-5_4 54e8ae55eb698a1c72f4c4396d5aa52d;de;;;7.2.;;;Benutzerprofilierung und Re-Identifikation: Fall einer universitätsweiten Netzwerkanalyse In diesem Beitrag stellen wir unsere Methodik zur Kontextinformationsverarbeitung, Modellierung des Nutzerverhaltens und Re-Identifikation vor. Unser primäres Interesse besteht darin, inwieweit ein Nutzer wieder identifiziert werden kann, wenn wir sein „Nutzerprofil“ haben und wie viele Informationen für eine erfolgreiche Wiedererkennung erforderlich sind. Wir arbeiten mit „Nutzerprofilen“, die das Nutzerverhalten in der Vergangenheit widerspiegeln. Wir beschreiben das Eingabedatum, das wir für die Erstellung von Verhaltensmerkmalen, das Ähnlichkeitssuchverfahren und eine Bewertung des Re-Identifikationsprozesses verwenden. Wir diskutieren (und stellen Ergebnisse unserer Experimente zur Verfügung), wie verschiedene Anfangsbedingungen sowie verschiedene Ansätze, die in der Ähnlichkeitssuche verwendet werden, die Ergebnisse beeinflussen und schlagen das optimale Szenario vor, bei dem wir die genauesten Ergebnisse erhalten. Wir liefern experimentelle Ergebnisse der Re-Identifikation von drei Protokollen (SSH, HTTP und HTTPS).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03748-1_1 0d8ae4ea22b825a9604ba1c089874c8a;de;;;7.2.;;;PERC: Ein persönlicher E-Mail-Klassifizierer Durch die Verbesserung der Genauigkeit beim Zuweisen neuer E-Mail-Nachrichten zu kleinen Ordnern kann die Wahrscheinlichkeit verringert werden, dass Benutzer für einige Themen doppelte Ordner erstellen. In diesem Papier haben wir ein hybrides Klassifizierungsmodell, PERC, vorgestellt und das Enron Email Corpus verwendet, um die Leistung von kNN, SVM und PERC in einer Simulation einer Echtzeitsituation zu untersuchen. Unsere Ergebnisse zeigen, dass PERC deutlich besser darin ist, Nachrichten kleinen Ordnern zuzuordnen. Die Auswirkungen unterschiedlicher Parametereinstellungen für die Klassifikatoren werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/11735106_41 43fa241db66951afd2ad4dd024fcfbc7;de;;;7.2.;;;Effiziente netzbasierte Videospeicherung und -abfrage Verschiedene Bereiche, wie Nachrichtensendungen (Nachrichten, Shows, Serien usw.), Werbung und medizinische Anwendungen, erfordern die Speicherung einer großen Menge an Videodaten, die später verwendet werden können. Content-Based Video Retrieval (CBVR)-Systeme sind sehr attraktiv, da sie Benutzern helfen können, Videosequenzen über große Videodatenbanken in Bezug auf bestimmte Themen, Charaktere oder Orte abzurufen. In den meisten Fällen gehören gespeicherte Videos zu verschiedenen Organisationen und haben eine recht anspruchsvolle Speicherkapazität. Diese Eigenschaften fügen sich auf natürliche Weise in das Konzept des Grid Computing ein, das dank der Nutzung heterogener Ressourcen, die durch die Zusammenarbeit und gemeinsame Nutzung von Ressourcen zwischen verschiedenen Institutionen zusammengestellt werden, eine große Rechen- und Speicherkapazität bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88871-0_59 278289e0e85dba7c23971ce5320ca34d;de;;;7.2.;;;Sprachmodellbasierte Abfrageklassifizierung In diesem Beitrag schlagen wir eine neue Art der Verwendung von Sprachmodellen in der Abfrageklassifikation für Frageantwortsysteme vor. Als Klassifikationsparadigma haben wir einen Bayes-Klassifikator verwendet. Experimentelle Ergebnisse zeigen, dass unser Ansatz aktuelle Klassifikationsmethoden wie Naive Bayes und SVM übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71496-5_77 31150f16f350b1210cfd6dd0ec071145;de;;;7.2.;;;Semantisch verbesserter Text Stemmer (SETS) für domänenübergreifendes Dokumentenclustering Dieser Artikel konzentriert sich auf die Verarbeitung von domänenübergreifenden Dokumenten-Repositorys, die durch die Wortmehrdeutigkeit und die Tatsache, dass monosemische Wörter domänenorientierter sind als polysemische Wörter, in Frage gestellt wird. Das Papier beschreibt einen semantisch verbesserten Textnormalisierungsalgorithmus (SETS), der darauf abzielt, das Dokumentenclustering zu verbessern, und untersucht die Leistung des sk-means-Clusteringalgorithmus über Domänen hinweg durch Vergleich der Clusterkohärenz, die mit semantikbasierten und traditionellen (TF-IDF-basierten) Dokumenten erzeugt wird Darstellungen. Die Bewertung wird an 20 generischen Unterdomänen von tausend Dokumenten durchgeführt, die jeweils zufällig aus dem Reuters21578-Korpus ausgewählt wurden. Die experimentellen Ergebnisse zeigen eine verbesserte Kohärenz der durch SETS erzeugten Cluster im Vergleich zu der mit dem Porter-Stammer erhaltenen Textnormalisierung. Darüber hinaus erweist sich die semantikbasierte Textnormalisierung als resistent gegen Rauschen, das häufig in der Indexaggregationsphase eingeführt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37343-5_12 4f6c1ee2db2cd2bf541184c987085b6c;de;;;7.2.;;;Was ist mit der inhaltsbasierten Informationsfilterung passiert? Die Personalisierung kann einen erheblichen Einfluss darauf haben, wie Informationen heute im Web verbreitet werden. Informationsfilterung kann ein wichtiger Bestandteil für ein personalisiertes Web sein. Collaborative Filtering wird bereits erfolgreich eingesetzt, um personalisierte Empfehlungen von Musiktiteln, Büchern, Filmen und mehr zu generieren. Das gleiche gilt nicht für die inhaltsbasierte Filterung. In diesem Papier identifizieren wir einige mögliche Gründe für das bemerkenswerte Fehlen eines breiten Spektrums an personalisierten Diensten zur Bereitstellung und Verbreitung von Informationen im Internet heute. Wir plädieren dafür, dass ein ganzheitlicherer Ansatz für die Erstellung von Benutzerprofilen erforderlich ist, und diskutieren eine Reihe noch offener, herausfordernder Forschungsfragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04417-5_23 8cf69c4630148b651e7ffbae9491376a;de;;;7.2.;;;Verbessern Sie die Vorhersagegenauigkeit durch die Identifizierung von Absprachen in P2P-Empfehlungssystemen Entsprechend dem böswilligen Kollusionsverhalten von Knoten in P2P-Netzwerken wird eine Methode zur Kollusionsidentifikation basierend auf der Idee des Clusterings vorgeschlagen. Dieses Verfahren berücksichtigt die Verhaltensmerkmale von Kollusion, durchsucht die Bewertungsknoten des Zielknotens nach drei Attributen der Bewertungsextreme, Bewertungszeit und historische Ähnlichkeit. Entsprechend der Größe des vermuteten Grades der Kollusion werden einige Gruppen bösartiger Kollusionsknoten ausgewählt. Experimente an einem realen Datensatz zeigen, dass die Empfehlungsgenauigkeit nach Ausschluss der identifizierten Kollusionsknoten deutlich verbessert wurde, was die Wirksamkeit der in diesem Papier vorgeschlagenen Methode belegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00776-8_72 c17d133832bcb7d5f7013b47d4401ed1;de;;;7.1.;;;Bewertung technischer Risiken (Zuverlässigkeit) von Luft- und Raumfahrtausrüstung im Konstruktions- und Entwicklungsprozess Um die Genauigkeit und Verlässlichkeit des gesamten Anforderungsspektrums an Muster von Luft- und Raumfahrtgeräten zu erreichen, ist eine systemische Koordination von Aufgaben über das Spektrum von Indikatoren und Parametern mit Risikoanalyse erforderlich. Theoretische und angewandte Grundlage für die Umsetzung der Systemkoordination ist der Ansatz, der auf einer innovativen Informationssystemmethodik des Risikomanagements basiert.;-;-;-;https://link.springer.com/article/10.3103/S1068799819040159 9a99335012721c3252fb1fac69a4dfa9;de;;;7.1.;;;Eine Überprüfung von Informationsflussdiagrammmodellen für Produkt-Service-Systeme Ein Produkt-Service-System (PSS) ist eine Kombination von Produkten und Dienstleistungen, um sowohl für Kunden als auch für Hersteller einen Mehrwert zu schaffen. Die funktionsorientierte Modellierung eines PSS bietet eine sinnvolle Möglichkeit, System-Inputs und -Outputs im Hinblick auf Datenkonsum und Informationsnutzung, also Informationsfluss, zu unterscheiden. Dieser Artikel präsentiert einen Überblick über diagrammartige Informationsflusswerkzeuge, die ein System durch seine Funktionen beschreiben sollen. Der Ursprung, das Konzept und die Anwendungsmöglichkeiten dieser Werkzeuge werden untersucht, gefolgt von einer Analyse der Informationsflussmodellierung hinsichtlich der wichtigsten PSS-Eigenschaften. Anschließend wird eine Fallstudie einer als PSS implementierten Auswahllaserschmelztechnologie verwendet, um die Anwendung der Informationsflussmodellierung für das PSS-Design zu zeigen. Eine Diskussion, die auf der Nützlichkeit der Werkzeuge bei der Modellierung der Schlüsselelemente von PSS und möglichen zukünftigen Forschungsrichtungen basiert, wird ebenfalls vorgestellt.;-;-;-;https://link.springer.com/article/10.1007/s00170-010-2765-5 a8ae149187609d49e9b28bee330c0cf8;de;;;7.2.;;;Markup in TATOE und Export nach SGML Dieses Papier präsentiert eine Methode zur Entwicklung von Grammatikregeln mit begrenztem Kontext, um Text automatisch zu markieren, indem bestimmte Textsegmente einer kleinen Anzahl wohldefinierter und anwendungsbestimmter semantischer Kategorien zugeordnet werden. Das Text Analysis Tool with Object Encoding (TATOE) wurde verwendet, um den iterativen Prozess der Entwicklung eines Regelwerks sowie den Aufbau und die Verwaltung der lexikalischen Ressourcen zu unterstützen. Die hier berichtete Arbeit ist Teil eines realen Anwendungsszenarios: die automatische semantische Auszeichnung deutscher Nachrichten, wie sie von einer deutschen Presseagentur nach dem SGML-basierten Standard News Industry Text Format (NITF) bereitgestellt wird, um deren Weiterverarbeitung zu erleichtern Austausch. Der implementierte Exportmechanismus des semantischen Markups in die NITF wird ebenfalls in dem Papier beschrieben.;-;-;-;https://link.springer.com/article/10.1023/A%3A1001070608920 a81cedfa22405445721a4334f924b0a3;de;;;7.2.;;;SANAPHOR: Ontologiebasierte Koreferenzauflösung Wir gehen das Problem der Auflösung von Koreferenzen in Textinhalten durch den Einsatz von Semantic Web-Techniken an. Konkret konzentrieren wir uns auf Nominalphrasen, die identifizierbare Entitäten, die im Text vorkommen, koreferenzieren. Unser System,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25007-6_27 b56951b03cba881da7713c49e54e92c9;de;;;7.2.;;;Zurückgezogen: Clustering von Wikipedia-Texten basierend auf Schlüsselwörtern Der Artikel stellt die Anwendung von spektralen Clustering-Algorithmen vor, die zum Gruppieren von Wikipedia-Suchergebnissen verwendet werden. Der Hauptbeitrag des Papiers ist eine Darstellungsmethode für Wikipedia-Artikel, die auf der Kombination von Wörtern und Links basiert und zur Kategorisierung von Suchergebnissen in diesem Repository verwendet wurde. Wir evaluieren den vorgeschlagenen Ansatz mit der Primärkomponentenanalyse und zeigen anhand von Testdaten, wie die Verwendung der Kosinustransformation zur Erstellung kombinierter Darstellungen eine Datenvariabilität beeinflusst. An einem Beispieltestdatensatz zeigen wir auch, wie die kombinierte Darstellung die Datentrennung verbessert, was die Gesamtergebnisse der Datenkategorisierung verbessert. Wir haben die wichtigsten spektralen Clustering-Methoden überprüft und sie anhand externer Validierungskriterien mit Standard-Clustering-Qualitätsmaßen verglichen. Die Diskussion über die Beschreibbarkeit von Bewertungsmaßnahmen und durchgeführte Experimente an Testdatensätzen ermöglicht es uns, den einen spektralen Clustering-Algorithmus auszuwählen, der in unserem System implementiert wurde. Wir gaben eine kurze Beschreibung der Systemarchitektur, die Online-Wikipedia-Artikel gruppiert, die mit bestimmten Schlüsselwörtern abgerufen wurden. Anhand des Systems zeigen wir, wie Clustering die Effektivität des Informationsabrufs für Wikipedia-Datenspeicher erhöht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-42092-9_39 301c32f87cbdfe499bcee4026452a338;de;;;7.1.;;;Umsetzbarkeit des Identity-Management-Teils in der Terminologie von Pfitzmann/Hansen für eine komplexe digitale Welt Basierend auf einer viel zitierten Terminologie bietet dieses Papier verschiedene Interpretationen von Konzepten, die in die Terminologie eingeführt wurden, um ein umsetzbares Datenschutzmodell für computervermittelte Interaktionen zwischen Einzelpersonen zu fordern. Es wird eine Trennung der digitalen Welt und der physischen Welt vorgeschlagen, sowie eine Verknüpfung der beiden Welten. Die digitale Welt enthält digitale Darstellungen von Individuen und besteht aus reinen Daten. Die physische Welt enthält Individuen und besteht aus Informationen (von Individuen produziert) und Daten. Darüber hinaus wird eine verfeinerte Definition von Privatsphäre erarbeitet, die als Rechtfertigung für das Identitätsmanagement von Personen dient, die an einer differenzierten Perspektive der Privatsphäre interessiert sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20769-3_2 fd513115bedc12739904741910ca7317;de;;;7.1.;;;Produkt- und Releaseplanungspraktiken für Extreme Programming Extreme Programming (XP) ist eine agile Softwareentwicklungsmethodik, die durch eine Reihe von Praktiken und Werten definiert wird. Obwohl der Wert von XP durch verschiedene Fallstudien aus der Praxis gut belegt ist, fehlen Verfahren für das Projektmanagement. Um XP für größere Projekte zu ermöglichen, bieten wir die Rolling Forecast-Praxis zur Unterstützung der Produktplanung und ein Optimierungsmodell zur Unterstützung bei der Release-Planung. Wir evaluieren die neuen Praktiken kurz anhand einer Fallstudie aus der Praxis.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13054-0_25 c74a142bbba78e8a19eef00a6b21ed03;de;;;7.1.;;;Die strategische Rolle von Expertensystemen in britischen Organisationen Eine 1994 von Coakes und Merchant durchgeführte Umfrage zur Nutzung von Computerinformationssystemen (CIS) durch britische Organisationen ergab, dass die Organisationen, die Expertensysteme verwendeten, andere Merkmale bei der Verwendung von CIS aufwiesen als diejenigen Organisationen, die keine Expertensysteme verwendeten. Dieses Papier betrachtet die Auswirkungen von Expertensystemen auf Organisationsstrukturen und Veränderungen und kommt zu dem Schluss, dass sie zwar eine Rolle bei den strategischen Aktivitäten von Organisationen spielen, aber nicht entscheidend für die sich wandelnde Rolle von Organisationen im Geschäftsleben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0601-2_17 4f2ba3acc631b04806c0920aa17c2813;de;;;7.1.;;;Programme zur Steigerung der IT-Readiness von Maschinenbauunternehmen Einer der wichtigsten Aspekte zur Sicherstellung der hohen Wettbewerbsfähigkeit der Unternehmen auf dem Markt ist das Vorhandensein der erforderlichen IT-Bereitschaft. Unter dem Begriff „IT-Readiness“ verstehen wir die Fähigkeit des Unternehmens, die Mission durch den effektivsten Einsatz moderner Informationstechnologien zu erreichen. Es bestehen Widersprüche zwischen der Notwendigkeit des Unternehmens, Konstruktions- und Produktionsstrukturen entsprechend den sich ändernden Marktbedingungen nachzubauen und dem Niveau des modernen IT-Einsatzes zur Pflege wissenschaftsintensiver Mustererstellungsprojekte. Kompliziert wird die Problemlage durch die fehlende Möglichkeit der schnellen Entwicklung teurer Informationsunterstützungssysteme durch das Fehlen großer finanzieller Mittel für die Maschinenbauunternehmen unter den Bedingungen eines instabilen Investitionsklimas und geringer Rentabilität. Daraus ergibt sich die Notwendigkeit einer stufenweisen IT-Einführung im Rahmen einer Lifecycle-Betreuung eines Neuanlagenbauprojekts, die auch für Maschinenbauunternehmen charakteristisch ist. Es stellte sich heraus, dass die Entwicklung der Hochtechnologie jetzt unter den Bedingungen der wesentlichen Beschränkungen der finanziellen Mittel weltweit durchgeführt wird. Unter diesen Bedingungen ist eine der fortschrittlichen Ideologien die Lean-Manufacturing-Methodik. Die Welterfahrung zeigt, dass der Erfolg dieser Einführung der Ideologie direkt mit einem effektiven Einsatz moderner Informationstechnologien der High-Tech-Musterdesign und Betriebswirtschaft verbunden ist. Eine wichtige Frage ist daher die Einhaltung des erforderlichen IT-Readiness des Unternehmens, das direkt mit einer technologischen Reife verbunden ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-22365-6_8 468baaa2ce585495f885bd3dabf5e22d;de;;;7.1.;;;Ein MultiAgent-System zur Überwachung von Booten in Meeresschutzgebieten Die Einrichtung eines Meeresschutzgebiets beinhaltet eine Zugangsüberwachung mit dem Ziel, das Eindringen nicht autorisierter Boote zu vermeiden – auch wenn man bedenkt, dass sich Meeresschutzgebiete normalerweise in schwer zugänglichen Gebieten befinden. Die Intrusion Detection in Meeresschutzgebieten erfolgt heute über Radarsysteme oder geeignete Kameras, die durch Bewegungssensoren aktiviert werden. In diesem Kapitel stellen wir ein Multiagentensystem zur Überwachung von Booten in Meeresschutzgebieten vor. Ziel des vorgeschlagenen Systems ist es, zwischen zugelassenen und nicht zugelassenen Booten zu unterscheiden, wobei erstere mit GPS+GSM-Geräten ausgestattet sind. Boote werden von einem digitalen Radar verfolgt, das ihre Positionen erkennt. Ein Prototyp des Systems wurde in einem Meeresschutzgebiet im Norden Sardiniens getestet. Die Ergebnisse zeigen, dass die Übernahme des vorgeschlagenen Ansatzes sowohl den Systemadministrator als auch die Mitarbeiter bei der Identifizierung von Eindringlingen erleichtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14843-9_16 ecdb6398163ce095c5605b843844ac9f;de;;;7.2.;;;Lernen, Microblog-Informationen für die QA-Abfrage zu nutzen Community Question Answering (cQA) Sites haben sich als Plattformen entwickelt, die speziell für den Austausch von Fragen und Antworten zwischen Benutzern entwickelt wurden. Obwohl Benutzer dazu neigen, qualitativ hochwertige Antworten auf cQA-Sites zu finden, nehmen sie auch auf anderen Plattformen wie Microblog-Networking-Sites an einem erheblichen Volumen an QA-Interaktionen teil. Dies ist zum Teil darauf zurückzuführen, dass Microblog-Plattformen aktuelle Informationen zu aktuellen Ereignissen enthalten, eine schnelle Informationsverbreitung ermöglichen und soziales Vertrauen haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-76941-7_38 380c31feead421ada36e3f109e10c505;de;;;7.2.;;;Architektur ontologiegesteuerter Computersysteme Die Entwicklung der allgemeinen Theorie und Anwendungen des Knowledge Engineering förderte die praktische Umsetzung wissens- und technologiebasierter Informationssysteme und deren effiziente Darstellung, Aktualisierung und Nutzung.;-;-;-;https://link.springer.com/article/10.1007/s10559-006-0061-z cc9101b441b61be86eef0f4690af818f;de;;;7.2.;;;Sprachübergreifende Plagiatserkennung Die sprachübergreifende Plagiatserkennung befasst sich mit der automatischen Identifizierung und Extraktion von Plagiaten in einem mehrsprachigen Umfeld. In dieser Einstellung wird ein verdächtiges Dokument angegeben und die Aufgabe besteht darin, alle Abschnitte des Dokuments abzurufen, die aus einer großen mehrsprachigen Dokumentensammlung stammen. Unsere Beiträge in diesem Bereich sind wie folgt: (1) Einführung eines umfassenden Retrieval-Prozesses zur sprachübergreifenden Plagiatserkennung, der die Unterschiede zur einsprachigen Plagiatserkennung herausstellt, (2) State-of-the-Art-Lösungen für zwei wichtige Teilaufgaben besprochen , (3) Retrievalmodelle zur Beurteilung der sprachübergreifenden Ähnlichkeit werden erhoben und (4) die drei Modelle CL-CNG, CL-ESA und CL-ASA verglichen. Unsere Bewertung ist realistisch: Sie stützt sich auf 120.000 Testdokumente, die aus den Corpora JRC-Acquis und Wikipedia ausgewählt werden, sodass für jedes Testdokument höchst ähnliche Dokumente in allen sechs Sprachen Englisch, Deutsch, Spanisch, Französisch, Niederländisch und Polnisch. Die Modelle werden in einer Reihe von Ranking-Aufgaben verwendet und mit jedem Modell werden mehr als 100 Millionen Ähnlichkeiten berechnet. Die Ergebnisse unserer Evaluierung zeigen, dass CL-CNG trotz seines einfachen Ansatzes die beste Wahl ist, um Texte über Sprachen hinweg zu bewerten und zu vergleichen, wenn sie syntaktisch verwandt sind. CL-ESA entspricht fast der Leistung von CL-CNG, jedoch auf beliebigen Sprachenpaaren. CL-ASA funktioniert am besten bei „exakten“ Übersetzungen, lässt sich jedoch nicht gut verallgemeinern.;-;-;-;https://link.springer.com/article/10.1007/s10579-009-9114-z 2eb0bc7c5fad53837fc7af7688e08958;de;;;7.1.;;;Logistikmanagement im Gesundheitswesen: Evolution oder Revolution? Die Entwicklung des Logistikmanagements In der Wirtschaft Das vergangene Jahrzehnt hatte erhebliche Auswirkungen auf die Investitionen, den Servicegrad und die Flexibilität des Unternehmens. Die Industrien konnten ihre Lagerbestände in allen Phasen des Produktions- und Vertriebsprozesses reduzieren. Durch eine deutliche Verkürzung der Vorlaufzeiten wurden die Servicelevel erhöht und bessere Möglichkeiten für eine flexible Antizipation der Nachfrage geschaffen. Aufgrund der Notwendigkeit einer Ausgabenreduzierung zeigen auch Krankenhäuser ein wachsendes Interesse an diesen neuen Konzepten. Bis zu einem gewissen Grad können sie im Gesundheitswesen übernommen werden. Krankenhausinformationssysteme können zur Anwendung dieser Konzepte im Gesundheitswesen beitragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-51659-7_87 9a1115f34c79c4f57c626212ebe546b2;de;;;7.1.;;;Augenbewegungen in der Fahrzeugsteuerung Die Messung des Blickverhaltens ist hilfreich, um die kognitiven Prozesse der Fahrzeugsteuerung zu verstehen und neue Assistenztechnologien zu testen. Der Großteil der Forschung zu Augenbewegungen bei der Fahrzeugkontrolle wurde im Kontext des Straßenverkehrs durchgeführt und wird daher in diesem Kapitel behandelt. Im Folgenden stellen wir zunächst die Fahraufgabe vor und skizzieren, wie mithilfe der Eye-Tracking-Methodik Erkenntnisse über die kognitiven Prozesse gewonnen werden können, die das Fahrverhalten steuern. Darüber hinaus beleuchten wir wichtige klassische Erkenntnisse und aktuelle Entwicklungen im Bereich der Augenbewegungen beim Autofahren. Dazu gehören Augenbewegungen bei grundlegenden Aufgaben der Fahrzeugsteuerung wie Lenken, Fahrmanöver und Erkennen von Gefahren im Straßenumfeld. Darüber hinaus werden Faktoren vorgestellt, die die Aufgabenleistung beeinflussen (z. B. Auswirkungen von visueller Ablenkung, Arbeitsbelastung, Müdigkeit, Fahrerfahrung und Altern), die durch die Anwendung der Eye-Tracking-Methode beobachtet werden können. Die Durchführung einer Eye-Tracking-Studie im Fahrkontext findet häufig in komplexen und hochdynamischen Umgebungen statt. Daher geben wir im letzten Teil dieses Kapitels einen praktischen Leitfaden, worauf es bei der Untersuchung von Augenbewegungen im Kontext der Fahrzeugsteuerung ankommt, einschließlich einer Übersicht über die am häufigsten verwendeten Parameter zur Beschreibung des Blickverhaltens im Kontext des Fahrens . Wir werden dieses einführende Kapitel mit einem Entwurf für die zukünftige Forschung zum Thema Augenbewegungen in der Fahrzeugsteuerung zusammenfassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20085-5_22 ed71bcee31952092bc98e4585bc9ddd3;de;;;7.1.;;;Verhaltensaspekte der Kommunikation im Managementprozess von IT-Projekten Der Beitrag stellt Forschungsergebnisse zur Bedeutung der Kommunikation in Projektteams vor, insbesondere deren Verhaltensaspekte, die den Erfolg oder Misserfolg eines IT-Projekts (IT-Projekts) beeinflussen. Der ganzheitliche Ansatz zum Thema Kommunikation umfasst neben den allgemein genannten Erfolgs- und Misserfolgsfaktoren solcher Projekte auch Themen wie die Teamarbeitskultur, ihre Größe, das erreichte Vertrauensniveau und die gegenseitige Freundlichkeit. Die Arbeit stellt den aktuellen Wissensstand und die Ergebnisse eigener Forschung zu Wirkungsfaktoren der Kommunikationsqualität in IT-Projekten vor. Die eigene Arbeit des Autors umfasste die Formulierung von Forschungshypothesen zu ausgewählten Einflussfaktoren von IT-Projekten in verschiedenen Wirtschaftssektoren sowie die Vorbereitung und Durchführung von Befragungen (unter Projektleitern, Leitern und Teammitgliedern sowohl auf der Seite von Dienstleistern als auch auf Kundenseite) sowie Beweis der vorgestellten Hypothesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99993-7_30 5a04c7614484dc1118bf29395b3384d4;de;;;7.2.;;;Drei-Wege-Entscheidungen und Drei-Wege-Clustering Eine Theorie der Drei-Wege-Entscheidungen wird basierend auf den Begriffen der drei Regionen und den damit verbundenen Aktionen zur Verarbeitung der drei Regionen formuliert. Inspiriert von der Theorie der Dreiwegeentscheidungen haben einige Forscher die Theorie der Dreiwegeentscheidungen weiter untersucht und in verschiedenen Bereichen angewendet. Nach einem Überblick über die jüngsten Studien zu Drei-Wege-Entscheidungen führt dieser Beitrag die Drei-Wege-Cluster-Analyse ein. Um das Problem der unsicheren Beziehung zwischen einem Objekt und einem Cluster anzugehen, wird eine Drei-Wege-Clustering-Darstellung vorgeschlagen, die die drei Arten von Beziehungen zwischen einem Objekt und einem Cluster widerspiegelt, nämlich definitiv dazugehören, unsicher und nicht dazugehören -auf jeden Fall. Darüber hinaus werden in diesem Papier einige Ansätze des Drei-Wege-Clusters besprochen und einige Zukunftsperspektiven und potenzielle Forschungsthemen auf der Grundlage der Drei-Wege-Clusteranalyse diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99368-3_2 472acb5ecd3b573bc0e7cb2126a95299;de;;;7.2.;;;Unterstützung globaler Softwareentwicklungsteams bei der Bewältigung der Herausforderungen der zeitlichen Streuung und der nationalen Vielfalt: Die Bedeutung von Führungsrollen Dieses Kapitel untersucht die Herausforderungen, die zeitliche Streuung und kulturelle Vielfalt für globale Softwareentwicklungsteams mit sich bringen, und schlägt vor, dass Führungskräfte eine entscheidende Rolle bei der Bewältigung dieser Herausforderungen spielen, indem sie die Teamaktivitäten ständig koordinieren und überwachen. Um diese Hypothesen zu testen, wurden Daten von 113 globalen Softwareentwicklungsteams in Europa und Südamerika gesammelt. Die Ergebnisse zeigten, dass der negative Effekt der zeitlichen Streuung auf die Teamleistung reduziert wurde, wenn die Führungskräfte ihre Überwachungs- und Koordinationsaufgaben ständig ausübten. Interessanterweise stand die nationale Vielfalt in einem negativen Zusammenhang mit der Leistung in Teams, wenn Führungskräfte nicht häufig ihre Überwachungs- und Koordinatorenfunktionen ausübten. Die Beziehung zwischen nationaler Vielfalt und Teamleistung erwies sich jedoch als positiv in Teams, in denen Führungskräfte sich stark mit ihren Überwachungs- und Koordinatorenfunktionen auseinandersetzen.;-;-;-;https://link.springer.com/chapter/10.1057/9781137336132_9 4fc9e9a2754b76c1de93fb78f5111649;de;;;7.2.;;;Sprach- und medienübergreifender Bildabruf: Eine empirische Studie bei ImageCLEF2007 Dieser Artikel fasst unsere empirische Studie zur sprach- und medienübergreifenden Bildsuche auf der CLEF-Bildsuche (ImageCLEF2007) zusammen. In diesem Jahr haben wir an der ImageCLEF-Foto-Retrieval-Aufgabe teilgenommen, bei der das Ziel der Retrieval-Aufgabe darin besteht, natürliche Fotos durch eine Abfrage mit Text- und Bildinformationen zu durchsuchen. In diesem Beitrag untersuchen wir die empirischen Bewertungen unserer Lösungen für die Bildrecherche-Aufgaben in drei Aspekten. Zunächst untersuchen wir die Anwendung von Sprachmodellen und Glättungsstrategien für die textbasierte Bildsuche, insbesondere mit Blick auf das Thema Kurztextabfrage. Zweitens untersuchen wir das Problem der medienübergreifenden Bildsuche mit einer einfachen Kombinationsstrategie. Schließlich untersuchen wir das Problem des sprachübergreifenden Bildabrufs zwischen Englisch und Chinesisch. Abschließend fassen wir unsere empirischen Erfahrungen zusammen und weisen auf zukünftige Richtungen hin.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85760-0_67 b9cc4169ef5865ae3380150e9dae20b2;de;;;7.2.;;;Hochwertiger Sachverständigennachweis für die Expertensuche In einer Enterprise-Umgebung kann ein Expertensuchsystem Benutzern bei ihrem „Expertenbedarf“ helfen, indem es Personen mit relevantem Fachwissen zum Thema vorschlägt. Diese Systeme funktionieren in der Regel, indem sie jedem Kandidatenexperten dokumentarische Nachweise über das Fachwissen zuordnen und dann die Kandidaten nach dem Umfang ordnen, in dem sich die Dokumente in ihrem Profil auf die Anfrage beziehen. Es gibt drei wichtige Faktoren, die die Auffindbarkeit eines Expertensuchsystems beeinflussen - erstens die Auswahl der Kandidatenprofile (die zu jedem Kandidaten gehörenden Dokumente), zweitens, wie die Aktualität der Dokumente gemessen wird, und drittens, wie die Evidenz der Know-how aus den zugehörigen Dokumenten wird gebündelt. In dieser Arbeit untersuchen wir eine neue Dimension der Expertenfindung, nämlich ob einige Dokumente im Profil jedes Kandidaten bessere Indikatoren für Expertise sind als andere. Wir wenden fünf Techniken an, um die Qualitätsdokumente in Kandidatenprofilen vorherzusagen, die wahrscheinlich gute Indikatoren für Fachwissen sind. Die angewandten Techniken umfassen die Identifizierung möglicher Kandidaten-Homepages und das Clustern der Dokumente in jedem Profil, um die Hauptkompetenzbereiche des Kandidaten zu bestimmen. Die vorgeschlagenen Ansätze werden anhand von drei Expertensuchaufgaben aus aktuellen TREC Enterprise-Tracks bewertet und liefern Schlussfolgerungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78646-7_27 a196884797d772a22dbef1e9613ffb49;de;;;7.2.;;;Nutzung und Einstellung zu einem Krankenhausinformationssystem durch medizinische Sekretäre, Pflegepersonal und Ärzte, denen die papierbasierte Krankenakte vorenthalten wurde: ein Fallbericht Die meisten Krankenhäuser führen und aktualisieren ihre papierbasierten Krankenakten nach der Einführung einer elektronischen Krankenakte oder eines Krankenhausinformationssystems (KIS). Dieser Fallbericht beschreibt ein KIS in einem Krankenhaus, wo die papierbasierten Krankenakten gescannt und gelöscht werden. Um das KIS umfassend evaluieren zu können, werden die Perspektiven von Arzthelferinnen und Pflegepersonal sowie von Ärzten beschrieben.;-;-;-;https://link.springer.com/article/10.1186/1472-6947-4-18 8a76da48a036957bd03b8585890ca8b7;de;;;7.2.;;;Automatisierte anatomische Beschriftungsarchitektur für die Inhaltserkennung in medizinischen Bildgebungsrepositorys Es ist bekannt, dass die Kombination von Textdaten mit visuellen Merkmalen die Suchfähigkeiten medizinischer Bilder verbessert. Die fortschrittlichsten Bildgebungsarchive indizieren heute jedoch nur die verfügbaren Metadaten der Studien, die oft nur begrenzte Mengen an klinisch nützlichen Informationen enthalten. Diese Arbeit schlägt eine anatomische Kennzeichnungsarchitektur vor, die in eine Open-Source-Archivsoftware integriert ist, um eine verbesserte multimodale Inhaltserkennung in realen medizinischen Bildgebungsrepositorys zu ermöglichen. Die vorgeschlagene Lösung umfasst eine technische Spezifikation für Klassifikatoren in einem erweiterbaren medizinischen Bildgebungsarchiv, eine Klassifikationsdatenbank zum Abfragen der extrahierten Informationen und eine Reihe von Proof-of-Concept-Klassifikatoren für konvolutionelle neuronale Netze zur Identifizierung des Vorhandenseins von Organen in Computertomographie-Scans. Das System extrahiert automatisch die Merkmale der anatomischen Region, die in der vorgeschlagenen Datenbank zur späteren Verwendung durch multimodale Abfragemechanismen gespeichert werden. Die Klassifikatoren wurden mit Kreuzvalidierung bewertet und ergaben einen besten F1-Score von 96 % und eine durchschnittliche Genauigkeit von 97 %. Wir erwarten, dass diese Funktionen in Zukunft in Produktionsumgebungen alltäglich werden, da sich automatisierte Erkennungslösungen in Bezug auf Genauigkeit, Rechenleistung und Interoperabilität verbessern.;-;-;-;https://link.springer.com/article/10.1007/s10916-018-1004-8 25fa6d148d956d11158640a5c162bab6;de;;;7.2.;;;Auf spärlicher Darstellung basierendes Histogramm beim Abrufen von Farbtexturen Es wird eine spärliche Darstellung vorgeschlagen, um das Histogramm von Merkmalsvektoren zu erzeugen, nämlich ein auf spärlicher Darstellung basierendes Histogramm (SRBH), bei dem ein Merkmalsvektor durch eine Anzahl von Basisvektoren anstatt durch einen Basisvektor im klassischen Histogramm dargestellt wird. Diese Verbesserung macht den SRBH zu einer genaueren Darstellung von Merkmalsvektoren, was durch die Analyse im Hinblick auf Rekonstruktionsfehler und die Anwendung beim Abrufen von Farbtexturen bestätigt wird. Beim Abrufen von Farbtexturen werden Merkmalsvektoren direkt aus Koeffizienten der diskreten Wavelet-Transformation (DWT) konstruiert. Wörterbücher für die spärliche Darstellung werden durch K-Means erzeugt. Ein Satz von Histogrammen auf der Grundlage einer spärlichen Darstellung von verschiedenen Merkmalsvektoren wird für die Bildwiederherstellung verwendet, und der Chi-Quadrat-Abstand wird als Ähnlichkeitsmaß verwendet. Experimentelle Ergebnisse, die durch Precision-Recall und Average Retrieval Rate (ARR) in vier weit verbreiteten Datenbanken für natürliche Farbtexturen bewertet wurden, zeigen, dass dieser Ansatz robust gegenüber der Anzahl der Wavelet-Zerlegungsstufen ist und klassische Histogramm- und State-of-the-Art-Ansätze übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48890-5_6 612206ccb06fe0df8bfcacbc44b0cb96;de;;;7.2.;;;Selbstorganisierende Musikräume mit Ankern personalisieren: Design und Evaluation Wir schlagen und evaluieren ein System zur inhaltsbasierten Visualisierung und Exploration von Musiksammlungen. Das System basiert auf einer Modifikation des Self-Organizing Map-Algorithmus von Kohonen und ermöglicht es Benutzern, die Positionen von Clustern mit akustisch ähnlichen Tracks im Musikraum auszuwählen. Eine zur Evaluierung des Systems durchgeführte Nutzerstudie zeigt, dass die Möglichkeit der Personalisierung des Musikraums als schwierig empfunden wurde. Umgekehrt zeigen die Benutzerstudie und objektive Metriken, die aus den Interaktionen der Benutzer mit der Benutzeroberfläche abgeleitet wurden, dass das vorgeschlagene System Einzelpersonen dabei half, Playlists schneller und unter Umständen effektiver zu erstellen. Wir glauben, dass personalisierte Browsing-Schnittstellen ein wichtiger Forschungsbereich im Bereich Multimedia Information Retrieval sind, und sowohl die System- als auch die Benutzerstudie tragen zur wachsenden Arbeit in diesem Bereich bei.;-;-;-;https://link.springer.com/article/10.1007/s11042-017-4465-8 9ce9be10dafdae74e14f18313ca6d02e;de;;;7.2.;;;Ein Rückblick auf die Beziehung zwischen neuen Variablen und der klassischen TAM-Struktur Die Integration verschiedener Theorien und die Erweiterung der Forschungsbereiche sind die Haupttrends im Forschungsbereich der IS-Adoption. Die klassische TAM-Struktur wurde durch neu hinzugefügte Variablen weitgehend aufgebraucht. Frühere Studien [1] haben die Beziehungen zwischen Variablen in TAM analysiert und die Stabilität der klassischen Struktur festgestellt, aber wie sieht es mit den Beziehungen zwischen neuen Variablen und der klassischen Struktur aus? Wir haben 30 Artikel aus den wichtigsten internationalen Zeitschriften für Analysen ausgewählt. Es wurde festgestellt, dass SE, SN und PBC hauptsächlich in erweitertem TAM verwendet werden. Die Beziehungen zwischen SE, PBC und TAM sind durchweg signifikant, aber die Integration von SN in TAM ist nicht so ideal. In unserer Bewertungsskala ist dieser Zusammenhang inkonsistent. In diesem Artikel werden auch andere Variablen und Beziehungen diskutiert. Die Schlussfolgerungen dieses Artikels werden eine Orientierungshilfe für zukünftige Forschungen zur erweiterten TAM-Modellbildung bieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75902-9_6 31a001c38e17ac59d07676327a10583b;de;;;7.2.;;;Verwendung des semiotischen Rahmens zur Untersuchung der sozialen Folgen der IT Das Funktionieren von Informationssystemen hängt von physischen Ressourcen, Humanressourcen und gesellschaftlichen Ressourcen ab. Physische Ressourcen beziehen sich auf natürliche Ressourcen, Technologien und physische Infrastruktur. Human Resources beziehen sich auf menschliche Arbeit, Wissen und Fähigkeiten im weitesten Sinne des Wortes. Gesellschaftliche Ressourcen beziehen sich auf Ressourcen, die in einem moralischen und ethischen System, einer Institution, Kultur, Sprache und Gemeinschaft enthalten sind. Beispiele für Werke, die solche Ideen beinhalten, sind;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-0803-8_8 be5111c9cb7395eeb8318b43e49c99db;de;;;7.2.;;;Zur Stabilität adaptiver Ähnlichkeitsmaße für den inhaltsbasierten Bildabruf Das Abrufen ähnlicher Bilder ist eine anspruchsvolle Aufgabe für die heutigen inhaltsbasierten Abrufsysteme. Mit dem Ziel einer hohen Retrieval-Performance erfassen diese Systeme häufig den Ähnlichkeitsbegriff des Benutzers durch ausdrucksstarke Bildmodelle und adaptive Ähnlichkeitsmaße, die versuchen, dem individuellen benutzerabhängigen Ähnlichkeitsbegriff möglichst nahe zu kommen. Da sich auf der Anfrageseite erscheinende Bildmodelle in ihrer Qualität erheblich von denen in der Multimediadatenbank gespeicherten unterscheiden können, müssen Ähnlichkeitsmaße robust gegenüber diesen individuellen Qualitätsänderungen sein, um eine hohe Abrufleistung aufrechtzuerhalten. Um die Robustheit von Ähnlichkeitsmaßen zu bewerten, führen wir das allgemeine Konzept der;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27355-1_33 b6e51b1eee48f2b2dcf19de47f1d973f;de;;;7.2.;;;Ein feingranularer XML-Strukturvergleichsansatz Da das Web weiter wächst und sich entwickelt, werden immer mehr Informationen in strukturell reichen Dokumenten, insbesondere XML-Dokumenten, platziert, um die Effizienz von Ähnlichkeitsclustering, Informationsabruf und Datenverwaltungsanwendungen zu verbessern. In der Literatur wurden verschiedene Algorithmen zum Vergleichen hierarchisch strukturierter Daten, z. B. XML-Dokumente, vorgeschlagen. Die meisten von ihnen verwenden Techniken zum Ermitteln des Bearbeitungsabstands zwischen Baumstrukturen, wobei XML-Dokumente als geordnete beschriftete Bäume modelliert werden. Dennoch führte eine gründliche Untersuchung aktueller Ansätze dazu, dass wir mehrere strukturelle Ähnlichkeitsaspekte, d. In diesem Papier stellen wir eine verbesserte Vergleichsmethode zur Verfügung, um mit feinkörnigen Teilbäumen und Blattknotenwiederholungen umzugehen, ohne die Gesamtkomplexität in Bezug auf aktuelle XML-Vergleichsmethoden zu erhöhen. Unser Ansatz besteht aus zwei Hauptalgorithmen, um die strukturelle Gemeinsamkeit zwischen Unterbäumen zu entdecken und die Kosten für baumbasierte Bearbeitungsoperationen zu berechnen. Ein Prototyp wurde entwickelt, um die Optimalität und Leistung unserer Methode zu bewerten. Experimentelle Ergebnisse sowohl an realen als auch an synthetischen XML-Daten zeigen eine bessere Leistung in Bezug auf alternative XML-Vergleichsmethoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75563-0_39 5ffc2e33aadf9acbf9679013a5c1dc93;de;;;7.2.;;;Klassifikation von fokalen Leberläsionen basierend auf tensorsparse Darstellungen von Mehrphasen-CT-Bildern Sowohl in der natürlichen Bildgebung als auch in der medizinischen Bildgebung hat sich die Bag-of-Visual-Words-Methode (BoVW) als effektive Methode für Klassifikationsaufgaben erwiesen. In diesem Artikel schlagen wir eine multilineare Erweiterung der traditionellen BoVW-Methode zur Klassifizierung fokaler Leberläsionen unter Verwendung von Mehrphasen-CT-Bildern vor. In unserem Ansatz bilden wir aus den entsprechenden Schnitten von Mehrphasen-CT-Bildern neue Volumina und extrahieren Würfel aus den Volumina als lokale Strukturen. Betrachten wir die hochdimensionalen lokalen Strukturen als Tensoren, schlagen wir einen K-CP (CANDECOMP/PARAFAC) Algorithmus vor, um ein Tensor-Wörterbuch auf iterative Weise zu lernen. Mit dem gelernten Tensor-Wörterbuch können wir spärliche Darstellungen jeder Gruppe von Mehrphasen-CT-Bildern berechnen. Der vorgeschlagene Tensor wurde bei der Klassifizierung fokaler Leberläsionen evaluiert und erzielte bessere Ergebnisse als die konventionelle BoVW-Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00767-6_64 90ed55454ec62b723aa1a6cb8e16fd78;de;;;7.2.;;;S-node: Ein Small-World-Navigationssystem für die explorative Suche Beim Abrufen von Zeitungen oder Weblogs, in denen bestimmte Begriffe und Ausdrücke häufig verwendet werden, ist es nicht einfach, den Benutzer an entsprechende Abfragebegriffe zu erinnern. Für diesen Fall ist es notwendig, typische Merkmalsbegriffe oder Dokumente im Dokumentenset darzustellen, ohne von der Eingabe des Benutzers abhängig zu sein. In diesem Beitrag schlagen wir das Navigationssystem „S-Node“ für Dokumente vor. Das System extrahiert zwei Arten von Wörtern, die Vollständigkeit oder Spezifität aus auf Japanisch geschriebenen Dokumenten basierend auf einem Wiederholungsindex zeigen, und erstellt Hyperlinks zwischen Dokumenten, die so kurz wie möglich zu verschiedenen Dokumenten reichen können, basierend auf dem gemeinsamen Vorkommen von Begriffen. Wir beschreiben die Implementierung des Systems und die Ergebnisse der Evaluierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04769-5_37 7be04bdc651f430dfac76df8eb5af154;de;;;7.2.;;;Bewertung der Meinungszusammenfassung im Ranking Wir diskutieren die Bewertung von Rankings von Dokumenten, die die Gesamtmeinung in Produktbewertungen zusammenfassen sollen. Ein solches Ranking kann von E-Commerce-Websites verwendet werden, um die öffentliche Meinung zu einem Produkt im Wesentlichen darzustellen. Die Unfähigkeit traditioneller IR-Metriken, eine solche Darstellung zu belohnen, wird argumentiert. Als Rahmen für eine solche Bewertung dient ein matrixbasiertes Kennzeichnungsverfahren. Drei alternative Metriken werden aus früheren ähnlichen Arbeiten übernommen, um die Repräsentativität der Meinung zu bewerten. In ähnlicher Weise werden zwei Metriken der Vollständigkeit halber angepasst. Schließlich vergleichen wir die Robustheit dieser Metriken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-70145-5_17 243b11634b4b0eeab13a0075aacf54ee;de;;;7.2.;;;Verschmelzung von Medizintechnik und Informationstechnik – Struktur, Integration und Prozessoptimierung Durch die konsequente und vor allem standardisierte Integration von Medizintechnik und IT können Krankenhäuser ihre Effizienz deutlich steigern. Daraus ergeben sich Prozessoptimierungen für die medizinische Dokumentation und organisatorische Vorteile bei der Administration der verwendeten Schnittstelle.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74658-4_57 19427897e20c2ebf4e1439d39eee9b90;de;;;7.1.;;;Entwicklung eines Unternehmensinformationssystems mit einem auf Geschäftskomponenten basierenden Ansatz Angesichts der großen Herausforderungen durch verschiedene Veränderungen wird das traditionelle Unternehmensinformationssystem obsolet. Die rechtzeitige Reaktion auf Marktveränderungen ist zum Wettbewerbsvorteil geworden. In diesem Beitrag wird die komponentenbasierte Entwicklung moderner Unternehmensinformationssysteme untersucht. Basierend auf der Geschäftskomponente und ihrer Technologie wird ein geschäftskomponentenbasierter Softwareentwicklungsprozess vorgeschlagen. Ein Clustering-Algorithmus wird verwendet, um die Geschäftskomponenten aus dem Anforderungsmodell zu identifizieren, und eine Regelbibliothek wird verwendet, um die Geschäftskomponenten zu einer Geschäftsanwendung zusammenzustellen. Es wird eine komponentenbasierte Hierarchiearchitektur des Unternehmensinformationssystems etabliert, die aus der Softwareinfrastrukturschicht, der Middleware-Containerschicht, der Geschäftsentitätsschicht, der Geschäftsprozessschicht und der Anwendungsschnittstellenschicht besteht. Das auf Geschäftskomponenten basierende Unternehmensinformationssystem verfügt über die schnelle Rekonfigurierbarkeit, Wiederverwendbarkeit und Erweiterbarkeit, um sich an die Veränderungen der Geschäftsumgebung anzupassen.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-34456-X_37 8889c8f9b4b2c909fafa48d7fc4b01f3;de;;;7.2.;;;Studie zu Bewertungsmethoden in Bezug auf Mineraleigenschaften Die Methoden der Bewertung von Mineralgrundstücken wirken sich direkt auf den gesamten Prozess des Marktes für Bergbaurechte aus, wie Gewährung, Abtretung, Übertragung, Hypothek, Verpfändung, Finanzierung und Listung, und wirken sich auch auf die Kapazität und die Höhe der Marktzuteilung in Bezug auf Mineralressourcen aus. Derzeit bewerten Wissenschaftler und Forscher das Mineralkonzessionsgebiet hinsichtlich des Werts von Quellen, Methodik, Bewertungsstandards, Grundstücksfinanzierung und Finanzierungsmethoden aus einer mehrdimensionalen Perspektive. Es verbessert unsere Methodik zur Bewertung des Werts des Bergbaus und hilft auch, einen einheitlichen, offenen nationalen Markt für Bergbaurechte aufzubauen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44085-8_13 244033b50bc79d8624d4d0cac9025dc1;de;;;7.1.;;;Field-Force-Enablement in australischen Asset-Management-Organisationen – eine vollständige Studie Diese Forschung hat ein breites Spektrum von Fragen im Zusammenhang mit dem Einsatz mobiler Informationssysteme zur Unterstützung der Außendienstmitarbeiter in australischen Versorgungsunternehmen untersucht. Besonderes Augenmerk wurde dabei auf die vorhandene Infrastruktur, Geschäftsprozesse und Informationssysteme der teilnehmenden Organisationen zur Unterstützung der Außendienstmitarbeiter gelegt. Diese Forschung hat ein multiperspektivisches Modell für Technologie, Organisation und Menschen (TOP) verwendet, um fünf Fallstudien zu verschiedenen technischen, organisatorischen und persönlichen Fragen im Zusammenhang mit der Einführung mobiler Informationssysteme durchzuführen. Diese Ergebnisse werden anderen großen Unternehmen helfen, ihre geografisch verteilten Ressourcen und Mitarbeiter besser zu verwalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-85729-493-7_19 3e1dc4a8aec33e5ea38b94e2d24c2cab;de;;;7.1.;;;Die industrielle Praxis der ITIL-Implementierung in mittelständischen Unternehmen Die Information Technology Infrastructure Library (ITIL) gewinnt für das IT-Service-Management im Industrie- und Verwaltungsbereich immer mehr an Bedeutung. Der Servicebetrieb als einer der fünf ITIL-Kernprozesse bietet Leitlinien für die Bereitstellung und Kontrolle von IT-Services auf vereinbarten Qualitätsniveaus. Hauptzweck dieses Papiers ist es, einen Beitrag zum Aspekt der industriellen Praxis der ITIL-Implementierung in kleinen und mittleren Unternehmen zu leisten. Dazu wird eine Fallstudie einer ITIL Service Operation Implementierung erläutert und analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41687-3_13 f59fa3430799bb0d57bd96a783335c3a;de;;;7.1.;;;Anwendung einer Anpassung des Prado-Projektmanagement-Reifegradmodells im akademischen Kontext Die Unternehmensstrategie eines Unternehmens ist bestimmend für seine Leistung. Die Notwendigkeit, Methoden zur Bewertung der Leistung von Projekten in Organisationen zu entwickeln, trägt stark zur Entwicklung von Reifegradmodellen bei. Die mangelnde Kenntnis dieser Reifegradmodelle führt dazu, dass Organisationen Probleme bei der Entwicklung und Verbesserung ihrer Projektmanagementprozesse haben. Das Hauptziel dieses Artikels besteht darin, ein Reifegradmodell anzupassen und anzuwenden, um die Entwicklung des Reifegrades von Projektmanagementpraktiken in Entwicklungsteams in einem akademischen Umfeld zu bewerten. Das Prado Project Management Maturity Model wurde auf die Projektteams der Studienfächer Entwicklung von Computeranwendungen des zweiten Studienjahres und Information Systems and Technologies Project des vierten Studienjahres des Integrated Masters in Engineering and Management of Information Systems der Universität Minho. Durch die Anwendung des Modells war es möglich, den Reifegrad zwischen den beiden curricularen Einheiten zu vergleichen und die Wirksamkeit der Lernmethoden und -strategien sowie die Ergebnisse der Projektmanagement-Kompetenzen während des Studiums zu überprüfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72660-7_34 c3e7836c4e3c16487788744412003a7f;de;;;7.1.;;;Kontextwissen Repräsentation und Argumentation im Kontextaustauschsystem Das Context Interchange Project präsentiert einen einzigartigen Ansatz zum Problem der semantischen Konfliktlösung zwischen mehreren heterogenen Datenquellen. Das System präsentiert den Empfängern (z. B. Benutzeranwendungen) eine semantisch aussagekräftige Sicht auf die Daten für alle verfügbaren Datenquellen. Die semantischen Konflikte werden automatisch erkannt und von einem Kontextvermittler unter Verwendung des Kontextwissens, das sowohl den Datenquellen als auch den Datenempfängern zugeordnet ist, abgeglichen. Die Ergebnisse werden gesammelt und im Empfängerkontext präsentiert. Die aktuelle Implementierung des Systems bietet Zugriff auf Flatfiles, klassische relationale Datenbanken, Online-Datenbanken und Webservices. Eine Beispielanwendung, die tatsächliche Finanzinformationsquellen verwendet, wird zusammen mit einer detaillierten Beschreibung des Betriebs des Systems für eine Beispielabfrage beschrieben.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008392513193 c0e7758605ef47c84b40e7fcb1d0a5a2;de;;;7.1.;;;Design und Implementierung eines adaptiven touristischen Empfehlungssystems Empfehlungssysteme und adaptive Systeme wurden in Reiseanwendungen eingeführt, um Reisende in ihren Entscheidungsprozessen zu unterstützen. Diese Systeme sollten auf die unerwarteten Veränderungen während der Fahrt reagieren. In diesem Fall müssen sie die Veränderungen vor, während und nach der Reise ganzheitlich erfassen. Darüber hinaus sollten sie auch an die Vorgaben und Bedingungen des Reisenden angepasst sein. Beispielsweise müssen alle Aspekte der Bedürfnisse des Reisenden berücksichtigt werden, beispielsweise persönliche, kulturelle und soziale. Ebenso sollten die Informationen über Unterkünfte, Flüge, Städte, Aktivitäten und Länder aus verschiedenen Quellen zusammengetragen werden. Darüber hinaus müssen diese Systeme aus dem Feedback der Reisenden lernen, um die Qualität der Empfehlungen zu verbessern. Die meisten Reiseanträge erfüllen jedoch nicht die oben genannten Anforderungen. Um diese Probleme und Probleme anzugehen, schlagen wir einen Reiseprozess vor und implementieren ihn, der von einem adaptiven touristischen Empfehlungsrahmen, einer Architektur und einem System unterstützt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-05476-6_26 3cd54b9b501709511f790cbb5cb3c751;de;;;7.2.;;;Simulationsbasiertes Serviceprozess-Benchmarking in Produkt-Dienstleistungs-Ökosystemen Der zunehmende Wettbewerb auf dem Markt führt zu einer Differenzierung der Diensteanbieter, indem hybride Dienste als Mehrwertdienste angeboten werden. In Produkt-Dienstleistungs-Ökosystemen ist die Effektivität unternehmensübergreifender Geschäftsprozesse ein wesentlicher Wettbewerbsfaktor. In diesem Beitrag stellen wir ein Vorgehensmodell für das simulationsbasierte Prozessbenchmarking im Bereich der industriellen Dienstleistungsbeschaffung vor. Im Fokus stehen unternehmensübergreifende Geschäftsprozesse in Servicenetzen in bilateralen Kollaborationsszenarien von Serviceprovidern und Servicekonsumenten. Eine systematische Analyse von Leistungsindikatoren misst Schwachstellen und Verbesserungspotenziale auf. Eine Reihe praktischer Anwendungsfälle ermöglicht die Validierung und Bewertung der erzielten Benchmarking-Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40543-3_5 1519f6eb11a79bee906e51d9630b5b67;de;;;7.2.;;;Ein Ansatz zur Qualitätsbewertung von Katasterkarten Es wird ein Ansatz zur Bewertung der Datenqualität vorgeschlagen, der vom Staatlichen Landdienst der Republik Lettland ausgearbeitet und umgesetzt wird. Der Ansatz basiert auf der Meinung von Land Service-Experten über die Qualität der Katasterkarten, die von den Nutzungspunkten abhängt. Zur Bewertung werden Qualitätsparameter der von Experten ermittelten Katasterkartenobjekte und deren Grenzwerte herangezogen. Es wird die Bewertungsmatrix verwendet, die es ermöglicht, die Qualität der Katasterkarten abhängig von ihrem Verwendungszweck zu definieren. Die Matrix dient dazu herauszufinden, welche Qualität eine Katasterkarte haben sollte, um für den gewählten Zweck verwendet zu werden. Der gegebene Ansatz ist flexibel, er bietet die Möglichkeit, Sätze von Qualitätsparametern und deren Grenzwerte zu ändern sowie den Ansatz für andere Datenqualitätsbewertungen zu verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-8735-6_20 47ce906c26d57cec9c234eea201d2b75;de;;;7.2.;;;Auf menschlichem hierarchischem Verhalten basierende Steuerung mobiler Agenten in ISpace mit verteilten Netzwerksensoren Das Ziel dieses Papiers ist die Untersuchung eines Steuerungsrahmens für mobile Roboter, die in einer gemeinsamen Umgebung mit Menschen arbeiten. Der Intelligent Space (iSpace) kann den gesamten Raum erfassen und durch die Verteilung von Sensoren die Situationen im Raum auswerten. Die mobilen Agenten bedienen die Bewohner im Raum und nutzen die ausgewerteten Informationen von iSpace. Der iSpace wertet die Situationen im Raum aus und lernt das Gehverhalten der Bewohner. Die menschliche Intelligenz manifestiert sich im Raum als Verhalten, als Reaktion auf die Situation im Raum. Der iSpace lernt das Verhalten und wendet es auf die Bewegungsplanung und -steuerung von mobilen Agenten an. In diesem Artikel wird die Anwendung von Fuzzy-Neuronalen Netzwerken vorgestellt, um das von Menschen gelernte Hindernisvermeidungsverhalten zu beschreiben. Simulations- und Versuchsergebnisse werden vorgestellt, um die Effizienz dieser Methode zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/11893295_94 1efae00381f5939ce1e116e31c1ed00f;de;;;7.1.;;;E-Government-Dienste: Zertifizierung und Sicherheitsüberlagerung E-Government-Dienste sind sehr schwierig zu implementieren, da sie alle zusammen rechtliche, organisatorische und technische Fragen aufwerfen, die jeweils sehr strenge Gestaltungs- und Umsetzungsanforderungen mit sich bringen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35696-9_8 3ba465bc3d76e8e26c4f0ed22c904611;de;;;7.1.;;;Anpassung als Morphing-Prozess: Eine Methodik zur Gestaltung und Bewertung adaptiver Organisationsstrukturen Änderungen von Zielen, Ressourcen oder der Umgebung können die Anpassung einer Organisation von einer Form in eine andere erforderlich machen. In vielen Fällen müssen die Organisationen jedoch weiterhin funktionieren, während die Anpassung stattfindet, d. In diesem Fall kann die Anpassung als ein Morphing-Prozess ausgedrückt werden, bei dem die Organisation durch eine Reihe inkrementeller Schritte, die die Gesamtfunktionalität und Leistung erhalten, von einer Form mit der zugehörigen Aufgabenzuweisung zu einer anderen übergeht. Die Koordination zwischen den Organisationsmitgliedern während der Anpassung ist von entscheidender Bedeutung. Ein Rechenmodell für diese Art der organisatorischen Anpassung auf operativer Ebene wird vorgestellt. Das Modell wird unter Verwendung der Colored Petri Net-Formulierung von diskreten ereignisdynamischen Systemen implementiert. Eine Entwurfsmethodik, die dieses Modell verwendet, wird skizziert und ein einfaches Beispiel wird verwendet, um den Ansatz zu veranschaulichen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1009628813441 1fea50bf0afcd349082db68ee07a6127;de;;;7.2.;;;Eine vergleichende Studie zu Pseudo-Relevanz-Feedback für die Ad-hoc-Abfrage In diesem Beitrag wird eine erste Untersuchung der relativen Wirksamkeit verschiedener populärer Methoden des Pseudo-Relevanz-Feedbacks (PRF) vorgestellt. Die Abrufleistung des Relevanzmodells und zwei KL-divergenzbasierte Divergenz-vom-Zufalls-(DFR)-Feedbackmethoden, die aus dem Rocchio-Algorithmus verallgemeinert wurden, werden durch umfangreiche Experimente mit Standard-TREC-Testsammlungen verglichen. Die Ergebnisse zeigen, dass eine auf KL-Divergenz basierende DFR-Methode (bezeichnet als;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23318-0_30 31fa07599bbf21a6e2eed51eb6ce3a10;de;;;7.1.;;;Semantic Task Management Framework: Informationen und Arbeit verbinden Trotz der wachsenden Bedeutung der Wissensarbeit in heutigen Organisationen ist ihre Unterstützung durch IKT-Werkzeuge noch eher begrenzt. Jüngste Trends in semantischen Technologien bieten neuartige Ansätze zur effektiven Lösung dieser Herausforderungen im Sinne eines semantikbasierten Aufgabenmanagements. Allerdings beinhaltet das Aufgabenmanagement das komplexe Zusammenspiel von Informationen und Arbeitstätigkeiten. Daher wird ein semantisches Task-Management-Framework benötigt, das eine anpassungsfähige semantische Grundlage unterstützt, um die Herausforderungen der Wissensarbeit über eine Reihe von Task-Services auf dem Desktop zu bewältigen. Dazu schlagen wir das Nepomuk Semantic Task Management Framework (STMF) als Plattform für ein aufgabenorientiertes Ökosystem für Desktop-Anwendungen vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02184-8_3 8991165993efb574984c30c47ba64181;de;;;7.1.;;;Forschung zur Qualität von Transaktionsstandards: Die Reife eines Forschungsthemas Dieses Papier enthält die Ergebnisse einer systematischen Literaturrecherche, die durchgeführt wurde, um die Abdeckung von Transaktionsstandards in Top-Informationssystemen (IS) und Managementzeitschriften zu bestimmen. Konkret soll eine Forschungslücke zu diesem Thema identifiziert werden. Die Top 25 Zeitschriften werden gründlich recherchiert und die ausgewählten Publikationen klassifiziert, um fundierte Aussagen treffen zu können. Eine moderate Menge an gefundener Literatur zielt speziell auf Transaktionsstandards ab. Zu Qualitätsaspekten von Transaktionsstandards findet sich kaum Forschung, die daher als Forschungslücke gilt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15509-3_10 b6307bc692c90f1ace4a2011ad553c6e;de;;;7.2.;;;Ein semantisches Modell für die Videobeschreibung und den Abruf In diesem Beitrag wird ein semantisches Video-Retrieval-System basierend auf den Geschichten der Videos vorgeschlagen. Ein hierarchisches Wissensmodell wird verwendet, um die in den Videos enthaltenen semantischen Bedeutungen auszudrücken, und es wird auch eine Videoabfragesprache bereitgestellt. Die Begriffe Objekt, Aktion und Beziehung werden verwendet, um reiche und komplexe semantische Bedeutungen in einer Abfrage zu spezifizieren. Basierend auf dem vorgeschlagenen Wissensmodell kann das Retrieval-System Rückschlüsse auf die in einer Abfrage vorkommenden Begriffe ziehen und feststellen, ob ein Video semantisch den Abfragebedingungen entspricht. Die semantische Ähnlichkeitsmessung wird auch für die Verarbeitung von Näherungsanfragen vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36228-2_24 f43eeab4d8c634592df8d3bda2682d3d;de;;;7.2.;;;Vielfalt der Wissensbasis in Organisationen: Ergebnisse einer agentenbasierten Simulation Die in Organisationen zur Entscheidungsfindung genutzte Wissensbasis ist in der Regel aufgrund unterschiedlicher Informationssysteme oder unterschiedlicher Expertise der Entscheidungsträger vielfältig. Durch eine agentenbasierte Simulation analysiert der Beitrag die Frage, welcher Grad an Diversität in der Wissensbasis einer Organisation von Vorteil ist. Die Ergebnisse zeigen, dass der bevorzugte Grad an Diversität auf subtile Weise von der Notwendigkeit und der Art und Weise abhängt, Entscheidungen in Organisationen zu koordinieren. Die Ergebnisse unterstützen jedoch, die Wissensbasis eher auf mittlerer Qualität zu vereinheitlichen als die Wissensbasis zu fragmentieren und zu spezialisieren. Darüber hinaus erscheinen Lern- und Anpassungsfähigkeiten in dezentralen Strukturen erfolgversprechender als die Investition in eine möglichst perfekte Wissensbasis.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19875-5_2 ef6ff63d25022d2249d0e0b533ded9b4;de;;;7.2.;;;Informationstechnologien und Umweltbildung - Gegenseitige Beeinflussung In diesem Papier werden die Ideen und Ergebnisse eines gemeinsamen europäischen Projekts an der Technischen Universität Sofia, Bulgarien, der Universität Sofia, Bulgarien, dem Institut für Wissenschaftspädagogik, Kiel, Deutschland, dem King's College, London, Großbritannien, dem International Aerospace Institute, Enschede, Niederlande präsentiert. Es umfasst die Implementierung von Fernerkundung, Satellitenbildverarbeitung und -interpretation, Wettervorhersage und geografischen Informationssystemen. Diese wurden in das Umweltbildungsprogramm der Universität Sofia sowie in das Informationsbildungsprogramm der Technischen Universität in Sofia integriert. Die Initiativen und Veränderungen in Umwelt- und Informatiklehrplänen werden vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35061-5_21 195955b72c0dea7fbc69a276815e645d;de;;;7.1.;;;Teamorganisation und webbasiertes Projektmanagement für kollaboratives Autobahndesign Aufgrund seiner distributiven und kollaborativen Eigenschaften ist es für Autobahnplanungsunternehmen schwierig, einen kollaborativen Autobahnentwurfsprozess zu verwalten. Um dieses Problem zu lösen, wurde ein webbasiertes Projektmanagementsystem für die kollaborative Autobahnplanung basierend auf der Software Project 2002 entwickelt. Zunächst wird die Organisationsstruktur des Designteams formuliert und der Designprozess analysiert und verbessert. Anschließend wurden webbasierte Projektplanungs- und Controllingmethoden untersucht. Anschließend werden die Systemstruktur und die Funktionen vorgeschlagen. Schließlich wurde eine Fallstudie illustriert, um die Anwendung des Systems zu zeigen. Die Anwendung zeigt, dass das System den kollaborativen Autobahnentwurfsprozess effektiv steuern und die Kommunikationseffizienz des Projekts verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16066-0_26 2e4b2ab48aee91eb39c8ee593355a8ae;de;;;7.1.;;;Forschungsprojekte Informatik und Wirtschaftsinformatik Dieses Buch skizziert einen allgemeinen Prozess zur Durchführung von Abschlussprojekten und umfasst die folgenden Komponenten, die von grundlegender Bedeutung sind: (i) Identifizierung der Fragestellung/Forschungsproblematik, (ii) Planung von Zeit und Ressourcen und (iii) Auswahl einer Forschungsmethode um die konkrete Frage zu studieren. In diesem Abschnitt betrachten wir, wie sich ein Abschlussprojekt auf Forschung und Forschungsmethoden bezieht. Zunächst besprechen wir die verschiedenen Bereiche innerhalb der Informatik und der Informationssysteme.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-3846-4_2 1508150867176393b30fd5a4fc3ededb;de;;;7.1.;;;Die Versionsverwaltungsarchitektur einer objektorientierten verteilten Systemumgebung: OZ++ Internet-basierte Software zum Abrufen von Informationen erregt Aufmerksamkeit aufgrund der potenziell großen Auswirkungen auf unsere Gesellschaft, die durch ihre Nützlichkeit bei der Verteilung, Weitergabe und Verteilung von Informationen hervorgerufen werden. Es ist jedoch schwierig, Software in einer Weitverkehrsnetzumgebung gemeinsam zu nutzen, zu verteilen und wiederzuverwenden. Das OZ++-System ist ein Softwaresystem, um dieses Problem zu lösen. Basierend auf dem Konzept der Objektorientierung bietet das System eine automatische Verteilungs- und Aktualisierungsfunktion von Software über Netzwerke. Mit dem System kann Software aus dem gesamten Netzwerk zusammengeführt werden, außerdem ist es möglich geworden, solche Software sofort auszuführen. Dieses Whitepaper stellt den Versionsverwaltungsmechanismus der attraktivsten Funktion von OZ++ vor. Seine Versionsverwaltung basiert auf der Schnittstelle von Klassen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-61487-7_35 8a0ed781394e8ae642952aedb2240cf8;de;;;7.1.;;;Lektionen und zukünftige Richtungen e-Transformation ist eine langfristige Herausforderung für alle Entwicklungsländer – ein tiefgreifender Reform- und Veränderungsprozess, den die Länder durchlaufen müssen, um sowohl die neuen Chancen zu nutzen, die sich aus der fortschreitenden technologischen Revolution ergeben, als auch den Erfordernissen des Wettbewerbs in einem immer schneller werdenden, innovationsgetriebene Weltwirtschaft. Alle Länder befinden sich noch in einem frühen Stadium der Beherrschung dieses neuen technisch-ökonomischen Paradigmas. Neue Erfahrungen bei der Gestaltung und Umsetzung nationaler E-Strategien zeigen, dass sich die Entwicklungswirkung von IKT-Investitionen in Abhängigkeit von vielen Faktoren verändert hat und diese Faktoren die zukünftige Richtung bestimmen sollten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-1185-8_16 222c80ef703ced248471af96b2cbbf73;de;;;7.1.;;;Abbildung von CMMI- und RUP-Prozess-Frameworks im Kontext der Ausarbeitung von Softwareprojektvorschlägen Um die Qualität zu verbessern, verwenden Unternehmen in großem Umfang Software Process Improvement (SPI)-Modelle und insbesondere CMMI. Dennoch zögern kleine und mittlere Unternehmen (KMU) bei der Einführung von CMMI, da die Komplexität und der Umfang des Frameworks eine Einführung verhindern. RUP wird als disziplinierter Ansatz für die Zuweisung von Aufgaben und Verantwortlichkeiten innerhalb einer Softwareorganisation präsentiert, mit dem Ziel, die Produktion von Software sicherzustellen, die den Bedürfnissen der Benutzer entspricht und unter strikter Einhaltung eines vorhersehbaren Zeitplans und Budgets. CMMI und RUP können zusammen verwendet werden, da CMMI definiert, was zu tun ist und RUP, was zu tun ist. In diesem Papier stellen wir die Zuordnungen zwischen den CMMI Maturity Levels 2 und 3 Prozessbereichen und den RUP-Aktivitäten, -Aufgaben, -Artefakten und -Rollen vor. Unser Hauptbeitrag bezieht sich auf die Abstimmung von CMMI und RUP in der Vorphase jedes Projekts: die Ausarbeitung des Projektantrags. Dieses Papier präsentiert auch die Bewertung der Wirksamkeit der RUP-Unterstützung für die Ausarbeitung der Projektvorschläge.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35702-2_12 fb9ceb809cf69f644337a37976f386dd;de;;;7.2.;;;DSGVO – Herausforderungen bei der Vereinbarkeit rechtlicher Regeln mit der technischen Realität Die wichtigsten tatsächlichen Auswirkungen der DSGVO-Verordnung der EU sollten in der Verbesserung des Datenschutzes von natürlichen Personen bestehen. Die scharfen DSGVO-Regeln müssen ein kontrollierbares Informationsumfeld schaffen und den Missbrauch personenbezogener Daten verhindern. Die allgemeinen Rechtsnormen der DSGVO können zwar aufgrund der bestehenden Bedrohungen als gerechtfertigt und gut motiviert angesehen werden, jedoch ergeben sich erhebliche Probleme, wenn wir versuchen, die DSGVO in einem realen Umfeld von Informationsverarbeitungssystemen umzusetzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58951-6_36 68a85a0ae7ed21d089c91d68824a25b4;de;;;7.2.;;;Spielt die Art des Attributs eine Rolle? Untersuchen, ob zugrunde liegende Faktoren die Produktattributpräferenz erklären Die meisten Untersuchungen zu Produktattributpräferenzen deuten darauf hin, dass Innovation durch verbesserte Eigenschaften der Innovation durch einzigartige Eigenschaften überlegen ist, doch der Markterfolg neuer Produkte mit einzigartigen Eigenschaften stellt diese Bewertungen in Frage. Um festzustellen, ob die Art des Attributs von Bedeutung ist, untersucht diese Studie, wie zwei zugrunde liegende Faktoren die Produktattributpräferenz erklären. Erstens schlägt ein theoretischer Rahmen zur Schemakongruenz vor, dass wahrgenommene Unterschiede und Vertrauen beide Attributtypeffekte vermitteln. Zweitens testen die Autoren, ob sich Produktattributpräferenzen aus den spezifischen Formen von erweiterten oder einzigartigen Attributen ergeben. Verbraucherbewertungen von 13 Produkterweiterungen zeigen, dass wahrgenommene Unterschiede und Vertrauen die Auswirkungen des Attributtyps auf die Produktpräferenzen stark beeinflussen. Die Auswirkungen der spezifischen Merkmalsform auf die Präferenzen sind mit denen von erweiterten und einzigartigen Merkmalen vergleichbar. Dieser Effekt wird in ähnlicher Weise durch wahrgenommene Unterschiede und Vertrauen vermittelt. Diese Studie liefert daher mehrere Beiträge zur Schemakongruenztheorie, einschließlich einer Demonstration von zwei umgekehrt U-förmigen Beziehungen, die wahrgenommene Unterschiede beinhalten. Für Manager kann das Aufdecken des Einflusses der Wahrnehmung von Unterschieden und des Vertrauens der Verbraucher ihnen helfen, neue Produkte zu vermarkten, die entweder eine Art oder verschiedene Formen von Attributen aufweisen.;-;-;-;https://link.springer.com/article/10.1057/s41262-017-0082-0 77d68f3ab4978af82a63a59556d2ef80;de;;;7.2.;;;Ein Ansatz zur semantischen Indexierung basierend auf dem Toleranz-Rough-Set-Modell In diesem Artikel schlagen wir einen allgemeinen Rahmen vor, der die semantische Indexierung und die Suche von Texten in wissenschaftlichen Dokumentenarchiven umfasst, wobei die Dokumentenrepräsentation mit Ausnahme des Inhalts einige zusätzliche Dokumentmetadaten, Zitate und semantische Informationen umfassen kann. Unsere Idee basiert auf der Anwendung des Tolerance Rough Set Model, semantischer Informationen, die aus Quelltext und Domänenontologie extrahiert wurden, um Konzepte in Zusammenhang mit Dokumenten anzunähern und die Vektordarstellung anzureichern. Wir präsentieren das Experiment, das über die frei zugänglichen biomedizinischen Forschungsartikel des Pubmed Cetral (PMC)-Portals durchgeführt wurde. Die experimentellen Ergebnisse zeigen die Vorteile der vorgeschlagenen Lösung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-00293-4_26 b25f9e9b8e6a36824e766d0bb959db37;de;;;7.2.;;;Analyse der interorganisationalen Geschäftsprozessmodellierung: Ein sprachlicher und konzeptioneller Ansatz Das Hauptziel dieses Papiers ist es, zum Verständnis des Bereichs der Geschäftsprozessmodellierung beizutragen, wobei der Schwerpunkt auf der Definition der interorganisationalen Geschäftsprozesse sowohl aus einer übergeordneten Modellierungsperspektive als auch aus einer technologischen Perspektive liegt. Wir haben den Ansatz von Conceptual Maps verwendet, um alle grundlegenden Konzepte zu klären, die diese beiden Felder umgeben. Wir präsentieren die beiden Conceptual Maps, die wir mit Hilfe eines webbasierten Tools für Korpuslinguistik und Knowledge Engineering namens Corpógrafo und unter Verwendung der IHMC Cmaps Tools für das Design der Conceptual Maps erstellt haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-38269-2_23 866dc0255b806450e67b13dc02a3c11c;de;;;7.1.;;;Nutzerinteraktion in digitalen Bibliotheken: Vielfalt durch Anpassung bewältigen Anpassungen der Benutzeroberfläche können verwendet werden, um verschiedene Herausforderungen bei der Benutzerinteraktion bei der Entwicklung digitaler Bibliothekssysteme anzugehen. Dieses Papier: (a) untersucht einige der intrinsischen Merkmale digitaler Bibliothekssysteme, (b) identifiziert einige der wichtigsten Herausforderungen der Mensch-Computer-Interaktion (HCI) in Bezug auf Design und architektonische Abstraktion für Benutzerschnittstellen zu digitalen Bibliothekssystemen und ( c) entwickelt eine Argumentation für Anpassungen in digitalen Bibliothekssystemen. Durch Parallelen zu neueren HCI-Forschungen zu anpassungsfähiger und adaptiver Benutzerinteraktion veranschaulicht der Artikel potenzielle Bereiche, in denen die Anpassung der Benutzeroberfläche eine nützliche Technik zur Verbesserung der Qualität der menschlichen Interaktion mit einem digitalen Bibliothekssystem darstellen kann.;-;-;-;https://link.springer.com/article/10.1007/s007999900020 0132dd46ed1381ca5661fbeb8c3d53c6;de;;;7.1.;;;Jenseits der Solidität: zur Verifikation semantischer Geschäftsprozessmodelle Die Überprüfung der Solidität des Kontrollflusses wird als wichtiger Schritt vor der Bereitstellung von Geschäftsprozessmodellen verstanden. Der Kontrollfluss erfasst jedoch nicht, was die Prozessaktivitäten tatsächlich tun, wenn sie ausgeführt werden. Semantische Annotationen bieten die Möglichkeit, dies zu berücksichtigen. Inspiriert von semantischen Webservice-Ansätzen wie OWL-S und WSMO betrachten wir Vorgehensmodelle, in denen die einzelnen Aktivitäten mit logischen Voraussetzungen und Wirkungen annotiert werden, spezifiziert relativ zu einer Ontologie, die die zugrunde liegende Geschäftsdomäne axiomatisiert. Die Verifikation befasst sich dann mit dem gesamten Prozessverhalten, das sich aus der Interaktion zwischen Kontrollfluss und Verhalten einzelner Aktivitäten ergibt. Dazu kombinieren wir Vorstellungen aus der Workflow-Community mit Vorstellungen aus der KI-Aktions- und Change-Literatur. Wir führen eine formale Ausführungssemantik für annotierte Geschäftsprozesse ein. Wir weisen auf vier anfallende Verifikationsaufgaben zu Vorbedingung/Wirkungskonflikten, Erreichbarkeit und Ausführbarkeit hin. Wir untersuchen die Grenze zwischen Klassen von Prozessen, die in polynomieller Zeit verifiziert werden können oder nicht. Für Vorbedingungs-/Wirkungskonflikte zeigen wir, dass die Grenzlinie dieselbe ist wie die der Ontologie-Axiome zugrunde liegenden Logik. Für Erreichbarkeit und Ausführbarkeit identifizieren wir eine Klasse von Prozessen, die in polynomieller Zeit durch einen von uns entwickelten Fixpunkt-Algorithmus verifiziert werden können. Wir zeigen, dass diese Klasse von Prozessen insofern maximal ist, als wenn sie in eine der relevantesten Richtungen verallgemeinert wird, die Validierungsaufgaben rechnerisch schwierig werden.;-;-;-;https://link.springer.com/article/10.1007/s10619-010-7060-9 885c4750a972512f513608bf7bff4a3d;de;;;7.1.;;;Protokoll zu Entwurfstechniken zur Implementierung von Best Practices für die Softwareentwicklung Software Engineering Best Practices ermöglichen eine deutliche Verbesserung der Softwareentwicklung. Die Umsetzung von Best Practices erfordert jedoch qualifizierte Fachkräfte, finanzielle Investitionen und technische Unterstützung, um die Umsetzung zu erleichtern und die entsprechende Verbesserung zu erzielen. In diesem Papier schlagen wir ein Protokoll vor, um Techniken zu entwerfen, um Best Practices der Softwareentwicklung zu implementieren. Das Protokoll umfasst die Identifizierung und Auswahl des zu verbessernden Prozesses, das Studium von Standards und Modellen, die Identifizierung der mit dem Prozess verbundenen Best Practices und der möglichen Implementierungstechniken. Darüber hinaus werden technische Designaktivitäten definiert, um Techniken zur Implementierung von Best Practices für die Softwareentwicklung zu erstellen oder anzupassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24647-5_10 6186ab7d99e39a91571589898c1a8541;de;;;7.1.;;;Expertenmeinungen zum Einsatz von Visual Analytics für die komplexe Planung der psychischen Gesundheitsversorgung: eine explorative Studie Gesundheitsexperten, darunter Planer und politische Entscheidungsträger, stehen in vielfältigen und sich ständig verändernden Gesundheitssystemen vor komplexen Entscheidungen. Visuelle Analysen können eine entscheidende Rolle bei der Unterstützung der Analyse komplexer Gesundheitsdaten und der Entscheidungsfindung spielen. Der Zweck dieser Studie bestand darin, die praktischen Erfahrungen von Experten in der Planung der psychischen Gesundheitsversorgung mit visuellen Analysetools zu untersuchen, zu untersuchen, wie gut aktuelle Visualisierungstechniken ihre Anforderungen erfüllen, und Prioritäten für die zukünftige Entwicklung von visuellen Analysetools mit praktischem Nutzen vorzuschlagen Psychiatrische Gesundheitspolitik und Entscheidungsfindung.;-;-;-;https://link.springer.com/article/10.1186/s12874-020-00986-0 2148a6193280f1c17580a3ce37f4d005;de;;;7.1.;;;Ein systematischer nutzerzentrierter Rahmen für das technische Produktdesign in kleinen und mittleren Unternehmen (KMU) Die systematische Integration von Nutzerbedürfnissen in die Produktgestaltung ist ein zentrales Thema in der Industrie, insbesondere für kleine und mittlere Unternehmen (KMU), denen es an Engineering-Methoden und Ressourcen mangelt. Darüber hinaus sind die meisten der in der Literatur beschriebenen Ansätze nicht flexibel genug, um auf die Bedürfnisse von KMU zugeschnitten zu werden, beziehen Nutzer nur in den frühen Entwurfsphasen mit ein und sind aufgrund der hohen Kosten in ihrer Umsetzung nicht vollständig zugänglich. Das vorliegende Papier schlägt einen benutzerzentrierten methodischen Entwurfsrahmen vor, der speziell auf KMU ausgerichtet ist und den Designer sowohl in Design- als auch in Fertigungsaspekten entlang des technischen Produktdesignprozesses unterstützt. Das Framework integriert Engineering-Methoden mit webbasierten Softwaretools, die die Kommunikation und die gleichzeitige Arbeit des Konstruktionsteams ermöglichen, und unterstützt die direkte Beteiligung der Benutzer. Neben modernsten Methoden ermöglicht das Framework die Integration speziell zugeschnittener Techniken. Der Rahmen wird durch eine industrielle Fallstudie, die in Zusammenarbeit mit einem italienischen KMU entwickelt wurde, erfolgreich validiert. Dadurch wird das Design eines Spritzgussgehäuses und der dazugehörigen Schnittstellen eines biomedizinischen elektronischen Geräts mit einer Reduzierung von Unsicherheit und Entwicklungszeit erreicht, indem Anwender in die Designphasen einbezogen und auf Basis der Designer Methoden und Werkzeuge vorgeschlagen werden ' Know-how und KMU-spezifische Ressourcen.;-;-;-;https://link.springer.com/article/10.1007/s00170-016-9857-9 5c8618eaf3634ad814a773842a2be0ef;de;;;7.1.;;;Governance und organisatorische Aspekte einer experimentellen Groupware in der italienischen öffentlichen Verwaltung zur Unterstützung multiinstitutioneller Partnerschaften Die Partnerschaften zwischen Forschung, öffentlicher Verwaltung und IKT-Industrie gelten als die wichtigsten Mittel zur Verbesserung von Entwicklung und Wettbewerbsfähigkeit, an denen jedoch häufig mehrere Organisationen, Interessengruppen und Akteure beteiligt sind. Groupware-Systeme können kollaborative Aktivitäten unter Verwendung der Technologie unterstützen, um Gruppenprozesse wie Informationsaustausch, Problemlösung, Dokumentenbearbeitung, Entscheidungsfindung, Planung, Terminplanung usw. zu unterstützen. Wir müssen mehr über kollaborative Prozesse in öffentlichen Verwaltungen verstehen, um Kontakte und Kommunikation zwischen zu verbessern Experten, Kompetenz- und Forschungszentren. Wir müssen also ein Modell für die CSCW-Governance definieren, um technologische Innovationen in multiorganisationalen und hochinnovativen Kontexten zu identifizieren und einzuführen und anschließend die besten Praktiken zu verbreiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-2148-2_11 d3a52a203afb17def16875695ff33d91;de;;;7.1.;;;Untersuchung der Auswirkungen von Instant Messaging auf die subjektive Aufgabenkomplexität und Benutzerzufriedenheit Instant Messaging (IM)-Technologien werden schnell am Arbeitsplatz eingesetzt. Aktuelle Studien konzentrieren sich hauptsächlich auf die Einführung von IM und wie IM verwendet wird. Es wurden nur wenige Untersuchungen durchgeführt, um die potenziellen Auswirkungen der Verwendung von IM am Arbeitsplatz zu verstehen. Dieses Papier theoretisiert und testet empirisch, wie die Häufigkeit von IM-Unterbrechungen und die Positionsmacht des Nachrichtensenders mit der polychronen Orientierung einer Person, d. h. der Multitasking-Präferenz, interagieren und gemeinsam die Mitarbeiterzufriedenheit und die subjektive Aufgabenkomplexität beeinflussen könnten. Die vorliegende Studie zeigt, dass polychrone Wissensarbeiter mit dem Multitasking-Arbeitsprozess mit IM-Technologie zufriedener sind als monochrone. Darüber hinaus hängt die Wirkung von Unterbrechungen von der polychronen Orientierung des Individuums ab. Die Erhöhung der Unterbrechungshäufigkeit reduziert nur die Prozesszufriedenheit monochroner Individuen, nicht aber polychroner Individuen. Darüber hinaus beeinflusst die polychrone Orientierung von Nachrichtenempfängern auch, wie sie Informationen verarbeiten. Wenn IM-Nachrichten von ihren Vorgesetzten gesendet werden, neigen monochrone Personen dazu, Aufgaben zu priorisieren und eine geringere Gesamtaufgabenkomplexität wahrzunehmen. Die Informationsverarbeitung polychroner Personen scheint weniger von der Positionsmacht des Nachrichtensenders beeinflusst zu werden.;-;-;-;https://link.springer.com/article/10.1057/ejis.2010.59 a06232ccad92e699f7dbeb2302aac522;de;;;7.2.;;;Fahrzeugtechnik für selbstfahrende Autos: Vorteile und Herausforderungen für alternde Autofahrer Die Entwicklung von selbstfahrenden Autos oder autonomen Fahrzeugen schreitet in einem unerwarteten Tempo voran. Ironischerweise ist der Fahrer bzw. die Fahrer-Fahrzeug-Interaktion ein weitgehend vernachlässigter Faktor bei der Entwicklung von Basistechnologien für autonome Fahrzeuge. In diesem Beitrag werden daher die Vorteile und Herausforderungen des alternden Autofahrers in Bezug auf die Fahrzeugtechnologie für selbstfahrende Autos auf Basis aktueller Studienergebnisse diskutiert. Wir fassen altersbezogene Merkmale sensorischer, motorischer und kognitiver Funktionen auf der Grundlage umfangreicher altersbezogener Forschungen zusammen, die besser alternden Fahrern einen vertrauten Eindruck vermitteln können. Darüber hinaus diskutieren wir einige Schlüsselaspekte, die berücksichtigt werden müssen, wie z. Darüber hinaus präsentieren wir forschungsbasierte Beispiele zu alternden Fahrern und fortschrittlicher Technologie, darunter einen ganzheitlichen Ansatz, der vom MIT AgeLab entwickelt wird, fortschrittliche Navigationssysteme und Gesundheitsüberwachungssysteme. Dieses Papier antizipiert viele Fragen, die sich aus der Interaktion autonomer Technologien mit einer älteren Fahrerpopulation ergeben können. Wir erwarten von den Ergebnissen unserer Studie eine Grundlage für weitere Entwicklungen zur Berücksichtigung der Bedürfnisse älterer Fahrer bei der Gestaltung selbstfahrender Fahrzeuge.;-;-;-;https://link.springer.com/article/10.1007/s12239-014-0034-6 2fcc479f3ea8c56892b10b2b3ff44aa4;de;;;7.2.;;;Informationskompetenz in den Niederlanden: Aufstieg, Fall und Wiederbelebung Dieser Beitrag beschreibt und reflektiert die Entwicklung der Informationskompetenz im niederländischen Lehrplan für die Sekundarstufe Anfang der 80er Jahre, ihren Platz im Lehrplan in den 90er Jahren und ihre Verflüchtigung Anfang 2000. Die Royal Academy of Arts and Sciences forderte Anfang 2013 eine Wiederbelebung der Informationskompetenz. Basierend auf den Erfahrungen aus der Vergangenheit werden wir unseren Beitrag mit einigen Überlegungen zu dieser Initiative abschließen und sich abzeichnende Möglichkeiten beschreiben;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55119-2_5 30e61916d8e019ee6b04c9c5eaf81098;de;;;7.2.;;;GroupLens for Usenet: Erfahrungen mit der Anwendung von kollaborativer Filterung auf ein soziales Informationssystem Wir leben im Zeitalter der Informationsüberflutung. Glauben Sie das nicht? Hier einige Beweise: Für die weltweite Gesamtjahresproduktion von Print-, Film-, optischen und magnetischen Inhalten würden etwa 1,5 Milliarden Gigabyte Speicherplatz benötigt. Dies entspricht 250 Megabyte pro Person für jeden Mann, jede Frau und jedes Kind auf der Erde. (;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0057-7_10 74e10f443f9b959df6d61afc7b77fe75;de;;;7.2.;;;Ein praktischer Ansatz zur Verwaltung der Datenkommunikationssicherheit Dieses Papier beschreibt einen praktischen Ansatz zur Verwaltung der Sicherheit von Datenkommunikationsinfrastrukturen. Der Ansatz basiert auf der Klassifizierung von Netzsegmenten und der Beschreibung der Beziehung zwischen den Segmenten. Dadurch erhalten Sie auch in großen Netzen einen klaren Überblick über die Sicherheitsmerkmale aller relevanten Datenkommunikationswege. Diese Ansicht ist nützlich für Produktmanager für die Datenkommunikation, Besitzer von Informationssystemen und IT-Auditoren. Die Beispiele in diesem Dokument basieren auf einer Implementierung dieses Ansatzes für die Rabobank IP-Netzwerkinfrastruktur. Die Beispiele spiegeln jedoch zu Veranschaulichungszwecken eine vereinfachte Version dieses Netzwerks wider.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35575-7_3 64089403c2af3e166f83993d6119d5f5;de;;;7.2.;;;Agent-Augmented Co-Space: Auf dem Weg zur Verschmelzung von realer Welt und Cyberspace Co-Space bezieht sich auf eine interaktive virtuelle Umgebung, die der realen Welt nachempfunden ist, in der wir uns befinden. Durch realistische 3D-Modellierungs- und Animationstechnologien simuliert Co-Space die reale Welt in Bezug auf das Erscheinungsbild unserer physischen Umgebung. Mit dem Fortschritt im durchdringenden Sensornetzwerk kann Co-Space auch das Geschehen in der physischen Welt in Echtzeit erfassen und spiegeln. Die Entwicklung von Co-Space bietet daher große Chancen für die Bereitstellung innovativer Anwendungen und Dienste. Um die Erfahrung der Benutzer im Co-Space zu bereichern, ist es insbesondere wichtig, Wissenseinrichtungen in Form von intelligenten Agenten zu integrieren, um die Interaktivität und Spielbarkeit darin zu verbessern. Dieser Beitrag beginnt mit einem kurzen Überblick über dieses aufstrebende Arbeitsgebiet im Zusammenhang mit Agenten in virtuellen Welten und integrierten kognitiven Architekturen. Anschließend besprechen wir die wichtigsten Anforderungen, Probleme und Herausforderungen bei der interaktiven und intelligenten Gestaltung von Co-Space. Dem Konzept der verkörperten Intelligenz folgend, schlagen wir vor, kognitive Agenten zu entwickeln, die auf einer Familie selbstorganisierender neuronaler Modelle basieren, die als Fusion Adaptive Resonance Theory (Fusion ART) bekannt ist. Unser ultimatives Ziel ist es, dass solche Agenten sich frei in der Landschaft des Co-Space bewegen, ein Bewusstsein für seine Umgebung entwickeln und mit Avataren echter Menschen interagieren. Zur Veranschaulichung wird eine Fallstudie unserer Bemühungen beim Aufbau des Co-Space Singapore Youth Olympic Village (YOV) vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16576-4_22 e27598fa636360f99eeafeda9b908a32;de;;;7.2.;;;SVM-basierte Funktionsauswahl und Klassifizierung für die E-Mail-Filterung Der E-Mail-Posteingang ist in der Tat ein gefährlicher Ort, aber mit Hilfe von Mustererkennungstools ist es möglich, die meisten verschwenderischen Elemente herauszufiltern, die den Endbenutzern Schaden zufügen können. Da Phishing- und Spam-Strategien ein widersprüchliches und dynamisches Verhalten gezeigt haben, hat sich die Anzahl der Variablen, die für eine ordnungsgemäße E-Mail-Klassifizierung berücksichtigt werden müssen, im Laufe der Zeit erheblich erhöht. Seit vielen Jahren haben diese Elemente die Mustererkennungs- und Machine-Learning-Communitys dazu bewegt, E-Mail-Filtertechniken weiter zu verbessern. Diese Arbeit präsentiert einen Ansatz zur eingebetteten Merkmalsauswahl, der eine nichtlineare Entscheidungsgrenze mit minimalem Fehler und einer reduzierten Anzahl von Merkmalen bestimmt, indem ihre Verwendung in der dualen Formulierung von binären Support Vector Machines (SVMs) bestraft wird. Das vorgeschlagene Verfahren optimiert die Breite eines anisotropen RBF-Kerns über aufeinanderfolgende Gradientenabstiegsschritte, wodurch diejenigen Merkmale eliminiert werden, die eine geringe Relevanz für das Modell haben. Experimente mit zwei realen Spam- und Phishing-Datensätzen zeigen, dass unser Ansatz eine bessere Leistung als bekannte Algorithmen zur Funktionsauswahl aufweist, während er konsequent eine geringere Anzahl von Variablen verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36530-0_11 5fb42e97ee24fdd03c6be82f6869920c;de;;;7.2.;;;Multimedia-Bildgebungsmodell eines Informationssystems basierend auf selbstorganisierenden neuronalen Kapselnetzen und Spieltheorie Mit dem Aufkommen der Multimedia-Technologie werden die Anwendungsgebiete von Computern weiter erweitert, wie z Lehre, etc. mit neuen Das Aufkommen von Anwendungsfeldern und die steigenden Ansprüche der Menschen an ein komplexes Datenmanagement nehmen zu und die Anforderungen an Datenbankmanagementsysteme steigen. Im Allgemeinen sind Zahlen und Zeichen formatierte Daten, und vorhandene Datenbanktechnologien, insbesondere relationale Datenbanktechnologien, können für eine gute Zugriffsverwaltung verwendet werden. Text, Ton und Bilder sind jedoch unformatierte Daten, sodass herkömmliche relationale Modelle nicht beschrieben und verarbeitet werden können. Zu diesem Zweck begann man, Multimedia-Datenbanktechnologie zu erforschen, um Multimedia-Daten zu verwalten. In diesem Papier haben wir ein Multimedia-Modell eines Managementsystems vorgeschlagen, das auf selbstorganisierenden neuronalen Kapselnetzwerken und Spieltheorie basiert. Experimentelle Ergebnisse zeigen, dass das vorgeschlagene Verfahren eine höhere Effizienz und Robustheit aufweist.;-;-;-;https://link.springer.com/article/10.1007/s11063-020-10258-z adeb87a2103e2e31f415d3480203abc7;de;;;7.2.;;;Zur Verbesserung des Repräsentationsbias von Process Mining Process-Mining-Techniken sind in der Lage, Wissen aus Ereignisprotokollen zu extrahieren, die in heutigen Informationssystemen allgemein verfügbar sind. Diese Techniken bieten neue Möglichkeiten, um;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34044-4_3 3c3da902be0545569a0410f9c3bc1606;de;;;7.2.;;;Heuristische Klassifikatorketten für die Multi-Label-Klassifizierung Die Multilabel-Klassifizierung geht im Gegensatz zur herkömmlichen Klassifizierung davon aus, dass jede Dateninstanz mehr als einem Label gleichzeitig zugeordnet sein kann. Multilabel-Lernverfahren nutzen Abhängigkeiten zwischen Labels, dies impliziert jedoch eine größere rechnerische Komplexität des Lernens.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40769-7_48 77cbcb44f1795c6f8c3e650ff65a8d11;de;;;7.2.;;;Mehrdimensionale Relevanz beim aufgabenspezifischen Retrieval In der Literatur wurden mehrere Relevanzkriterien vorgeschlagen. Relevanzkriterien hängen jedoch stark mit der Suchaufgabe zusammen. Daher ist es wichtig, die Kriterien zu verwenden, die für die betrachtete Suchaufgabe nützlich sind. Diese Forschung untersucht das Konzept der mehrdimensionalen Relevanz in einer bestimmten Suchaufgabe. Zunächst wollen wir Suchaufgaben und die damit verbundene Relevanzdimension untersuchen. Anschließend wollen wir die Ansätze untersuchen, die verwendet werden können, um mehr als eine Relevanzdimension zu kombinieren. Das Ziel dieser Studie ist es, das Retrieval-System in einer bestimmten Aufgabe zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72240-1_80 232efc1b7a0f49f43da71ce0e99f05de;de;;;7.2.;;;Allgegenwärtige Computing-Fähigkeiten und Bereitschaft zur Interaktion zwischen Benutzer und System: Eine Aktivitätsperspektive Basierend auf mobilen Computertechnologien ermöglichen allgegenwärtige Systeme den Menschen, überall und jederzeit auf Informationen zuzugreifen. Neben der Fähigkeit zur Interaktivität bezüglich der Verarbeitung von Anfragen basierend auf Benutzereingaben über Schnittstellen können allgegenwärtige Systeme Kontextualisierung und Personalisierung bieten, die sich mit Informationsfilterung basierend auf Aufgabenkontexten und Benutzerpräferenzen befassen, die den Benutzer unterwegs entlasten. Diese Studie untersucht, wie sich verschiedene Kombinationen dieser wichtigen ubiquitären Computerfunktionen auf das Benutzerverhalten auswirken. Unter Verwendung des vereinheitlichenden Rahmens der Aktivitätstheorie konzeptualisiert es die Benutzersysteminteraktion als eine werkzeugvermittelte Aktivität, deren verschiedene Aspekte durch Interaktivität, Kontextualisierung und Personalisierung erleichtert werden. Es wird die Hypothese aufgestellt, dass solche Fähigkeiten die Benutzererfahrungen beeinflussen, einschließlich des Gefühls der Kontrolle, der Motiverfüllung und des wahrgenommenen Verständnisses, die dazu führen, wie bereit Menschen sind, mit allgegenwärtigen Systemen zu interagieren. Die Ergebnisse eines Experiments unterstützen die hypothetischen Zusammenhänge und legen nahe, dass unterschiedliche Fähigkeiten in ihren Auswirkungen voneinander abhängig sind. Die Ergebnisse liefern Erkenntnisse darüber, wie ein systematischer und ausgewogener Ansatz des ubiquitären Systemdesigns verfolgt werden kann, um die Benutzererfahrung zu verbessern.;-;-;-;https://link.springer.com/article/10.1007/s10796-018-9866-3 bb013789acd6fe84b681b38ad057093f;de;;;7.2.;;;Welche Zukunft? Welche Technologie? Zum Problem der Beschreibung relevanter Futures Die Erforschung zukünftiger und aufkommender Technologien wirft eine Reihe bedeutender ontologischer und epistemologischer Herausforderungen auf. Die grundsätzliche Ungewissheit der Zukunft, verbunden mit Problemen sachgerechter Technikbeschreibungen im Allgemeinen, erschwert eine angemessene Darstellung der voraussichtlichen Ausgestaltung und Nutzung zukünftiger Technologien. In diesem Papier werden verschiedene Forschungsströme diskutiert, die sich mit diesem Thema befassen, einschließlich der Frage nach relevanter Beschreibung und Kontext, interpretativer Flexibilität, Technologieangeboten und Multistabilität technologischer Trajektorien. Das Papier schlägt vor, dass einige dieser Probleme durch einen demokratischen und partizipativen Ansatz in der Technologieforschung und -entwicklung angegangen werden können. Anschließend wird die partizipative Technikfolgenabschätzung als Beispiel für einen etablierten Weg der demokratischen Auseinandersetzung mit Technologieakteuren in Forschung und Entwicklung diskutiert. Der Beitrag schließt mit einer Diskussion der Verheißungen und Grenzen eines solchen partizipativen Ansatzes im Hinblick auf die Frage nach dem Verständnis und der Erforschung von Zukunftstechnologien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21364-9_7 dc951e4619e6c469ad53ae6abdec1991;de;;;7.2.;;;Verbesserung der Qualitätssicherungsstandards durch ein computergestütztes Patienteninformationssystem: Die nächste Generation von Systemlösungen Es ist zwingend erforderlich, dass wir bei unserem Versuch, eine qualitativ hochwertige Patientenversorgung zu gewährleisten, in die Zukunft nach einem revolutionären Patienteninformationssystem blicken müssen, das nicht nur die Qualität der Versorgung verbessert, sondern auch Zeit spart, damit die Ärzte und Pflegekräfte das tun können, was sie lieben tun das Beste, versorgen ihre Patienten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-51659-7_128 3c171e2ed345f8ecc6ff0f7036ce8eba;de;;;7.2.;;;Struktur und Hebel zur rechnerischen Bewertung von Kundenkapital Der Artikel stellt konzeptionelles Modell und empirische Forschung zur Bewertung des Kundenkapitals des Unternehmens vor. Die Methode dient nicht nur der Umsatz- und Renditeprognose, sondern auch der Bewertung möglicher Reaktionen auf die angestrebten Unternehmensbemühungen zur Kundenbewertung und Bewertung der Stabilität des Kundenkapitals. Der zusammengesetzte Index des Kundenkapitals wird durch experimentelle Forschung entworfen und getestet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15402-7_14 dee6c64596dd2910b2c4fc8a372a4a8f;de;;;7.2.;;;Pawlaks vielbewertetes Informationssystem, nicht-deterministisches Informationssystem und ein Vorschlag für neue Themen zur Informationsunvollständigkeit für die tatsächliche Anwendung In diesem Kapitel werden Pawlaks Many Valued Information System (MVIS), das nicht-deterministische Informationssystem (NIS) und verwandte neue Themen zur Informationsunvollständigkeit für die eigentliche Anwendung betrachtet. Pawlak schlug grobe Sets vor, die ursprünglich in einer Standardtabelle definiert waren, aber seine Forschungen in Nicht-Standardtabellen wie MVIS und NIS werden auch gesehen. Da vielen Forschern grobe Sets gut bekannt sind und bis jetzt mehrere Softwaretools vorgeschlagen wurden, wird es notwendig sein, von dieser Forschung an einer Standardtabelle zur Forschung über MVIS und NIS, insbesondere in Bezug auf NIS, überzugehen. In diesem Kapitel wird die bisherige Forschung untersucht und neue Themen für die tatsächliche Anwendung von NIS vorgeschlagen, nämlich Data Mining unter verschiedenen Arten von Unsicherheit, grobe mengenbasierte Schätzung eines tatsächlichen Werts, maschinelles Lernen durch Regelgenerierung, Informationsverdünnung und Anwendung auf den Fragebogen zur Wahrung der Privatsphäre in NIS. Solche neuen Themen werden die Rolle von Pawlaks Rough-Sets weiter ausbauen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-54966-8_9 50b878d8f5f31ae1c68c00d6578f8c8a;de;;;7.2.;;;Gewichtete Inferenzsysteme Dieses Kapitel gibt einen Überblick über verschiedene nicht-klassische logische Systeme, die durch die Einführung eines besonderen Grades (Gewichts) gekennzeichnet sind, der der Inferenz in ihnen zugeschrieben wird. Ein solcher Grad kann ein Wahrheitswert, Möglichkeitsgrad oder eine andere Art von Gewicht sein, die im Allgemeinen ein bestimmtes Maß an Unbestimmtheit kennzeichnet, das in der Argumentation enthalten ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5243-7_3 09a911818d2179eb41f2f60e90f5c3bd;de;;;7.2.;;;Biomimetische und bioinspirierte Wissenschaft und Technologie Zusätzlich zu ihren strategischen Rollen in Bereichen wie Energie, Umwelt, Gentechnologien, wie in den folgenden Kapiteln und Abschnitten beschrieben, bietet die biologische Welt der Menschheit auch ein einzigartiges Reservoir an intelligenten Ressourcen, das die Menschheit dazu inspiriert, biologische Systeme für technologische Kreationen zu erforschen und nachzuahmen und Innovationen aus ingenieurwissenschaftlicher und technologischer Sicht auf unterschiedlichen Ebenen einschließlich der Material-, Struktur-, Funktions- und Informationssteuerung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05340-5_8 6f491761bf28ce8b92732272501ec967;de;;;7.2.;;;— Wahnvorstellungen oder neue Perspektiven? — Die Medizininformatik erhebt den Anspruch, die Wissenschaft von der Natur, dem Aufbau und der Anwendung von Algorithmen in der Medizin zu sein /siehe 21, 22/. Von Natur aus interdisziplinär entwickelte es sich mit einer wachsenden Zahl von Anwendungen der Informationstechnologie in der theoretischen Medizin und allen Bereichen des Gesundheitswesens.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-93201-4_162 b89b66874b64968580c554d9d1cda00c;de;;;7.1.;;;Kollaborative Unterstützung für informelle Informationen in Systemen des kollektiven Gedächtnisses Informelle Informationen, wie das Fachwissen einer Organisation oder die von einer Gemeinschaft praktizierten Problemumgehungen, sind ein kritischer Bestandteil von organisatorischen oder kollektiven Gedächtnissystemen. Aus einer benutzerzentrierten Perspektive möchte ein Benutzer lediglich seine Arbeit erledigen und muss dazu seine unmittelbaren Probleme lösen. Wir haben untersucht, wie man dieses Problemlösen in ein kollektives Gedächtnis einbindet und wie man das daraus oder daraus erwachsende Lernen einbindet. Wir berichten hier über zwei Systeme, das Cafe ConstructionKit und die Collaborative Refinery, sowie eine Anwendung, Answer Garden 2, die mit diesen beiden Systemen erstellt wurde. Das Cafe ConstructionKit bietet Toolkit-Mechanismen zum Einbinden von Kommunikationsflüssen zwischen Personen (sowie Agenten) in ein organisatorisches Gedächtnis-Framework, und das Collaborative Refinery-System bietet Mechanismen zum Destillieren und Verfeinern der durch diese Kommunikationsflüsse erhaltenen informellen Informationen. Die Anwendung Answer Garden 2 demonstriert die Nützlichkeit dieser beiden zugrunde liegenden Systeme.;-;-;-;https://link.springer.com/article/10.1023/A%3A1026572712714 220c5109c6f7fc23c75fe3b73e89e9e4;de;;;7.1.;;;Prinzipien und Forschungsagenda für eine nachhaltige, datengesteuerte Planung und Kontrolle der Lebensmittelproduktion Dieser Beitrag untersucht die Themen Daten, Nachhaltigkeit sowie Produktionsplanung und -steuerung in Lebensmittellieferketten aus Sicht industrieller Lebensmittelproduzenten. Um in einer Branche mit niedrigen Gewinnmargen, starkem Wettbewerb und Nachhaltigkeitsbedenken wettbewerbsfähig zu bleiben, brauchen Lebensmittelhersteller neue Lösungen. Die Erfassung, Digitalisierung und Nutzung von Daten von Herstellern und nachgelagerten Lieferketten bietet Möglichkeiten zur neuen Nutzung von Daten, um die bestehenden Herausforderungen zu bewältigen. Diese Studie schlägt einige Prinzipien für eine nachhaltige, datengesteuerte Produktionsplanung und -steuerung (PPC) vor, wie z. Anschließend wird untersucht, wie sich diese Prinzipien auf die Nachhaltigkeit für Lebensmittelhersteller und die gesamte Lieferkette auswirken können, indem sie Vorteile wie weniger Lebensmittelverschwendung, geringere Lagerbestände und reduzierten Planungsaufwand bieten. Zukünftige Forschungsthemen sollten sich mit Themen wie Datenverfügbarkeit, Datennutzung in PPC, potenzieller Wert von Daten, Nachhaltigkeitskompromisse und Anwendungen digitaler Technologien in PPC befassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-57993-7_72 6ad818e95b30506b8c33ba7cdb8191c3;de;;;7.1.;;;Europäisches Eisenbahnverkehrsleitsystem (ERTMS) Der Artikel enthält Informationen zum Europäischen Eisenbahnverkehrsleitsystem (ERTMS). Dieses System ist eine der wichtigen Komponenten, die die Interoperabilität des europäischen Eisenbahnsystems gewährleisten. Der Aufbau des ERTMS wurde diskutiert und seine einzelnen Komponenten beschrieben. Zugbeeinflussungssysteme (TCS) werden in vielen Ländern der Welt eingesetzt. Dies waren jedoch lange Zeit meist nationale Systeme, die in einzelnen Ländern verwendet wurden. Das System wird in einzelnen europäischen Ländern (sowie außerhalb Europas) eingeführt, aber es wird viele Jahre dauern, bis die vollständige Interoperabilität des europäischen Eisenbahnsystems erreicht ist. Das Schienenverkehrsmanagement ist ein wichtiger Bestandteil der Schienenverkehrssysteme. Sie trägt wesentlich dazu bei, die erwartete Qualität und Effizienz des Bahnverkehrs unter Beibehaltung des erforderlichen Verkehrssicherheitsniveaus zu gewährleisten. Um zeitgemäßen Sicherheitsanforderungen und steigenden Nutzererwartungen gerecht zu werden, basieren Schienenverkehrsmanagementsysteme auf technologisch und funktional fortschrittlichen IT-Lösungen. Das Strategische Managementsystem harmonisiert alle technischen und organisatorischen Maßnahmen, um die vorausgesetzte Qualität und das erforderliche Niveau der Schienenverkehrssicherheit im jeweiligen Bereich zu gewährleisten. Natürlich ist das ERTMS kein System, das nur in Europa (der Europäischen Union) verwendet wird, sondern auch außerhalb der EU und Europas. Das ERTMS ist ein Beispiel für ein ITS-System im Schienenverkehr. Es ist festzustellen, dass die ITS-Implementierung nur eine sehr gute Anforderungsfestlegung an das System innerhalb der gesamten Europäischen Union zeigt. Es ist der im ITS am besten beschriebene Standard. Für das gesamte Verkehrssteuerungs- und -managementsystem im Straßenverkehr gibt es keine derart genauen Richtlinien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19150-8_7 926169a355d97d0c6909d976681ef033;de;;;7.1.;;;Überwindung der Lücke zwischen Aktion und einem dienenden Informationssystem Die Schaffung oder Anpassung von Informationssystemen zur Unterstützung von Menschen, die zielgerichtete Maßnahmen in organisatorischen Umgebungen durchführen, erfordert den Übergang von der Untersuchung der Problemsituation und dem Nachdenken über die zu ergreifenden Maßnahmen zu der Überlegung, wie diese Maßnahmen unterstützt werden können. Im Geschäftsumfeld wird diese Unterstützung unweigerlich technologiebasierte Informationssysteme mit sich bringen. Die meisten Ansätze zum Design von Informationssystemen vernachlässigen die Bedeutung der anfänglichen Explorations- und Sinnfindungsphase und gehen direkt zur Spezifikation des Geschäftsprozesses über, der durch die Anwendung einiger Software operationalisiert werden soll. Die hier beschriebenen Ideen wurden mit der Absicht entwickelt, eine Gruppe von Personen zu unterstützen, die eine Untersuchung durch die Verlagerung des Fokus von: Nachdenken über Aktion zu Nachdenken über Unterstützung in einer Weise führen, die das kundenorientierte Informationssystemdesign fördert. Die Ideen wurden durch eine Feldstudie von Action Research in einer britischen Bankenorganisation in die Praxis umgesetzt und hier beschreiben wir unsere;-;-;-;https://link.springer.com/article/10.1023/A%3A1019998319595 7abfa7b05aebb870453abfc56a8dc146;de;;;7.1.;;;Engineering-Routenplanungsalgorithmen Algorithmen zur Routenplanung in Verkehrsnetzen haben in letzter Zeit eine rasante Entwicklung durchlaufen, die zu Methoden geführt hat, die bis zu drei Millionen Mal schneller sind als der Algorithmus von Dijkstra. Wir geben einen Überblick über die Techniken, die diese Entwicklung ermöglichen, und zeigen Grenzen der laufenden Forschung zu anspruchsvolleren Varianten des Problems auf, die sich dynamisch ändernde Netzwerke, zeitabhängiges Routing und flexible Zielfunktionen umfassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02094-0_7 72b5bfe646bcea81e8185fcd608ff024;de;;;7.1.;;;Verbesserung der internationalen Kunden-Lieferanten-Beziehungen durch IT-Ressourcen: Eine Studie über taiwanesische Elektroniklieferanten Die wachsende Popularität von Outsourcing- und Offshore-Partnering-Aktivitäten wirft die Frage auf, welche Strategien für Unternehmen geeignet sind, um Kunden-Lieferanten-Beziehungen im internationalen Kontext erfolgreich zu managen. Es wurde wenig darüber geschrieben, wie sich Systeme der Informationstechnologie (IT) auf internationale Austauschbeziehungen auswirken können. In der vorliegenden Studie berichten wir darüber, wie Zulieferer IT als strategische Ressource nutzen, um ihre internationalen Austauschbeziehungen mit multinationalen Unternehmenskunden zu steuern. Aus Sicht des Lieferanten schlagen wir vor, dass zwei Arten von IT-Ressourcen – IT-Fortschritt und elektronische Integration – einen Wert für Lieferanten in Bezug auf Innovationskraft und Marktleistung schaffen. Wir argumentieren, dass dieser Wertschöpfungsprozess durch drei spezifische Formen der Governance vermittelt wird: Kooperation, Output-Monitoring und Verhaltensmonitoring. Um diese Argumente zu testen, werden Primärdaten von 240 taiwanesischen Elektroniklieferanten für Hypothesentests verwendet. Die Umfrageergebnisse belegen, dass die IT-Ressourcen der Lieferanten eine effektive Zusammenarbeit mit ihren internationalen Schlüsselkunden ermöglichen. Wichtig ist, dass von den drei Governance-Mechanismen die Kooperationsbereitschaft aufgrund der elektronischen Integration der Lieferanten den stärksten Einfluss auf die Lieferantenleistung hat.;-;-;-;https://link.springer.com/article/10.1057/jibs.2010.4 e6a4f37f0349c86ad9718b09a24f09b2;de;;;7.1.;;;Einführung von 2.0-Funktionalitäten in einem ERP Unternehmen und ERP-Redakteure zeigen ein zunehmendes Interesse an den Web 2.0-Technologien, die darauf abzielen, den Nutzer einer Website in die Erstellung von Inhalten einzubeziehen. Wir fassen in dieser Mitteilung zusammen, was diese Tools sind und geben einen Überblick über aktuelle Anwendungsbeispiele in Unternehmen. Wir zeigen am Beispiel des jüngsten ERP von SAP, Business By Design, dass, wenn in einigen ERPs 2.0-Tools bereits vorhanden sind, deren Integration in die Geschäftsprozesse noch nicht vollständig abgeschlossen ist. Dazu schlagen wir den ersten Entwurf einer Methodik vor, die darauf abzielt, 2.0-Geschäftsprozesse mit einem ERP 2.0 zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40361-3_14 00c3ba1793204ae414e77539fc198297;de;;;7.1.;;;Bodenerosionsstudien in Nordäthiopien Die Bodenerosion ist eines der größten globalen Umweltprobleme, die sowohl zu lokalen als auch zu externen Effekten führt. Die wirtschaftlichen Auswirkungen der Bodenerosion sind in Entwicklungsländern schwerwiegender, da sie nicht in der Lage sind, sie zu bewältigen und verlorene Nährstoffe zu ersetzen. Diese Länder weisen auch ein hohes Bevölkerungswachstum auf, was zu einer verstärkten Nutzung bereits angespannter Ressourcen und einer Ausweitung der Produktion auf marginale und fragile Länder führt. Solche Prozesse verschlimmern Erosion und Produktivitätsrückgänge, was zu einem Zyklus von Bevölkerung, Armut und Landdegradation führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-6778-5_5 370ee7922f6bcb9ab3a566cc1622d443;de;;;7.1.;;;Design und Anwendung von Indoor-Geografischen Informationssystemen Für die derzeitige Situation des Mangels an GIS-Indoor-Theorien und der Unzulänglichkeit von Indoor-GIS-Anwendungen wurden in diesem Papier eine Reihe von Indoor-GIS-Forschungstheorien, Indoor-Kartenkartografiespezifikationen und verwandte Technologien vorgeschlagen, die eng mit der Feuerwehrindustrie verbunden sind. Die Spezifikationen der Indoor-Kartenkartografie umfassten technologische Prozesse der Kartenkartografie und einen angepassten Datenaktualisierungsmechanismus, der für die schnelle, genaue und zeitnahe Erstellung professioneller Indoor-Karten geeignet ist. Die Schlüsseltechnologien wie dynamisches Zeichnen von Symbolen, nahtlose Integration im Innen- und Außenbereich, Kartenaktualisierung und Pfadanalyse wurden zunächst in der Notfallrettungsplattform zur Brandbekämpfung angewendet, um Funktionalitäten wie den nahtlosen Ausdruck im Innen- und Außenbereich, die regelmäßige Aktualisierung von POIs und die beste Rettungsweganalyse und verbessert die transparente Führungsebene der Feuerrettungsstelle und kann auch einen gewissen Bezugswert zu anderen Notfallrettungen haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-01766-2_85 4e3b671c520682d79ba33b9f050847ba;de;;;7.1.;;;Extreme Programming: Neubewertung des Anforderungsmanagementprozesses für einen Offsite-Kunden Literatur und Praxis des Software Engineerings haben gezeigt, dass ein effizientes Anforderungsmanagement die Essenz eines erfolgreichen Softwareprojekts ist. Wenn die Anforderungen schwanken und die Entwicklungsumgebung instabil ist, bietet die Extreme Programming (XP)-Methodik effiziente Mittel, um die Anforderungen durch die Kundenpraxis vor Ort zu erfüllen. Für viele Softwareunternehmen ist es jedoch schwierig, einen Kunden vor Ort zu haben. Um dieses Problem zu lösen, wurde früher ein Offsite-Kundenprozessmodell vorgeschlagen. Dieses Papier berichtet über Ergebnisse einer Studie eines Entwicklungsprojekts für mobile Anwendungen, bei der das Modell empirisch evaluiert wurde. Die Ergebnisse zeigen, dass das Modell selbst kontextabhängig ist und an den zugrunde liegenden Entwicklungsprozess angepasst werden muss. Basierend auf diesen Erkenntnissen wird ein verbessertes Modell vorgestellt. Es zeigt sich, dass das neue Modell effizient funktioniert und die Kommunikationsmechanismen zwischen Entwickler und Kunde verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30181-3_2 31b530fe4f93be20a2573324ea6318bb;de;;;7.1.;;;Grafikinterpreter von Designaktionen Dieses Papier beschreibt den Hintergrund und die Forschung für ein Diagrammsortier- und Analysesystem namens GIDA – Graphics Interpreter of Design Actions. Das GIDA-System untersucht, wie räumliche Beziehungen zwischen grafischen Symbolen in einer Konstruktionszeichnung extrahiert und die Transformationen der grafischen Elemente zwischen verschiedenen Zeichnungen in einem Konstruktionsprozess verfolgt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0868-6_21 69fcdbc1f85b0d1b52ef83f0ba3b3274;de;;;7.1.;;;Kontrollansichtsbasierte Ermittlung von funktionalen Anforderungen Der Beitrag befasst sich mit der wissensbasierten Modellierung des Unternehmensmanagements und der Erfassung von Benutzeranforderungen. Die Unternehmensführung wird aus Steuerungssicht betrachtet, die Führungsfunktion ist formal als Elementary Management Cycle (EMC) vordefiniert. Für die Erhebung von Domänenwissen und die BP-Analyse werden nur wenige neue Arten von spezialisierten Workflow-Modellen eingesetzt. Zwei Arten von logischen Lücken werden durch Transformationen des empirischen BP-Modells in das wissensbasierte BP-Modell identifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03424-4_11 14a97d59c694f0c3313af7e8857e1cfe;de;;;7.1.;;;Kompromisse bei der Zugänglichkeit bei der Planung des öffentlichen Nahverkehrs Die räumliche Zugänglichkeit ist ein kritischer Aspekt bei der Bereitstellung von Dienstleistungen, sowohl im öffentlichen als auch im privaten Bereich. In der Planung des öffentlichen Verkehrs umfasst Barrierefreiheit den Zugang und die geografische Abdeckung. Interessanterweise stehen diese beiden Überlegungen etwas im Widerspruch zueinander. Der Zugriff ist wichtig, da es sich um den Prozess handelt, der mit dem Ankommen und Verlassen des Dienstes verbunden ist. Ein solcher Zugang wird in räumlicher Hinsicht typischerweise als physische Nähe zu Haltestellen oder Bahnhöfen wahrgenommen. Zusätzliche Haltestellen entlang einer Route bedeuten in der Regel einen besseren Zugang, da eine Haltestelle eher innerhalb eines akzeptablen Geh-/Fahrstandards für eine größere Anzahl von Personen liegt. Auf der anderen Seite verlangsamen mehr Haltestellen und größere Zugangswege die Reisegeschwindigkeiten, wodurch der erreichbare Servicebereich bei einem gegebenen Reisezeitbudget verringert wird. Mehr Stopps entlang einer Route führen zu größeren Serviceunterbrechungen und längeren Reisezeiten. Je schneller die Reisezeit, desto wünschenswerter der Service. Wenn die Reisezeiten zu lang werden, wird außerdem die Nachfrage der Benutzer nach Diensten abnehmen. All dies bedeutet, dass der Haltestellenabstand entlang einer Route von zentraler Bedeutung für die Erreichbarkeit ist, da er ein Kompromiss zwischen Zugang (mehr Haltestellen) und geografischer Abdeckung (Serviceeffizienz durch weniger Haltestellen) ist. In diesem Papier werden Modellierungsansätze für die integrierte Lösung von Barrierefreiheitsproblemen beschrieben. Ein Bus-basierter Transitservice in Columbus, Ohio, wird verwendet, um die Nützlichkeit dieser Ansätze bei der Transitplanung zu veranschaulichen.;-;-;-;https://link.springer.com/article/10.1007/s101090300105 79dd15709648d78560052d552c7834bd;de;;;7.1.;;;Hypertext-Schreibprofile und Visualisierung Universitätsstudenten verwenden zunehmend Hypertext, um ihre Aufgaben zu schreiben. Um Hypertext effektiv einzusetzen, werden mehr Informationen über den Hypertext-Autorenprozess benötigt. Es gibt Merkmale von Hypertext, die sich in traditionellen Kompositionstheorien nicht widerspiegeln, insbesondere die Möglichkeit, Informationen visuell zu strukturieren. Unsere Studie zeigt, dass grafische Übersichtskarten, die bearbeitet werden können, ein ziemlich attraktives Merkmal von Hypertext-Autorensystemen sind. Dennoch profitieren nicht alle Schüler von solchen Funktionen. Schüler verwenden unterschiedliche Schreibstile, wenn sie Hypertext-Dokumente erstellen. Die Mehrheit der Schüler experimentiert mit den neuen Funktionen von Hypertext, andere sind jedoch noch immer vom Modell des Buches beeinflusst.;-;-;-;https://link.springer.com/article/10.1023/B%3ACHUM.0000009226.51168.47 a64fa18d83e6cf37ab32c2d56074c960;de;;;7.1.;;;Benutzerzentrierte Abstraktion von Workflow-Logik für Software-Engineering-Prozesse Softwareentwicklung ist ein dynamisches, kompliziertes und arbeitsintensives Unterfangen. Es wurden zahlreiche Software-Engineering-Prozessmodelle erstellt und angewendet, um der Komplexität, dem Termindruck und der Produktqualität zu begegnen. Diese Prozessmodelle sind eher abstrakt und für die Softwareingenieure, die diese Prozesse ausführen, nicht direkt operativ relevant, da sie meist relativ grobkörnige Arbeitspakete bereitstellen und keine feinkörnigen benutzerzentrierten Workflows, die Benutzer direkt unterstützen. Solche benutzerzentrierten Workflows waren schwer automatisiert zu implementieren, da sie sehr dynamisch sind und die Benutzerakzeptanz sowohl für die Modellierung als auch für die Vorgabe solch feinkörniger Aktivitäten ziemlich gering ist. Dieses Papier bietet einen Ansatz zur abstrakten Modellierung von Benutzerentscheidungen, die die tatsächliche Verfolgung solcher automatisierter Arbeitsabläufe beeinflussen. Durch das Verbergen interner Komplexität wird die Kommunikation mit Benutzern vereinfacht und gleichzeitig die erforderliche Flexibilität unterstützt. Dies trägt dazu bei, Hindernisse zu beseitigen und die Anwendung und Benutzerakzeptanz für automatisierte benutzerzentrierte Workflows im Software-Engineering und in Domänen mit ähnlichen Problemstellungen zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31069-0_26 f34fba70242d2a051212e1bdd8b57682;de;;;7.1.;;;Simulationsmodellgetriebenes Engineering für Fertigungszellen In unserer Forschung wird das Simulation Model Driven Engineering for Manufacturing Cell (SMDE-MC) vorgeschlagen. Der Zweck von SMDE-MC besteht darin, die fertigungstechnischen Prozesse auf Basis des Simulationsmodells zu unterstützen und das Spektrum der Steuerungsanwendungen und Simulationsanwendungen unter Verwendung der PC-basierten Steuerung zu erweitern. SMDE-MC liefert das Simulationsmodell, das die Fertigungszelle direkt mit PC-basierter Steuerung in der Ausführungsphase des Fertigungssystems steuert und überwacht. Wenn das Simulationsmodell dann auf sein Verhalten reagiert, wird das Fertigungssystem durch Synchronisieren des Verhaltens des Simulationsmodells gesteuert. In der Fertigungssystem-Implementierungsphase wird das Simulationsmodell mit realen Geräten, realen Controllern und Managementanwendungen unter einer Bedingung gemischt und synchronisiert, in der Teile von Geräten, Steuerprogrammen und Fertigungsmanagementanwendungen in einem Fertigungssystem nicht bereitgestellt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16358-6_46 e863e491135ea4042528d60e5b3689ef;de;;;7.1.;;;Ein Ansatz zur Entwicklung von Netzwerkkursen basierend auf dem Softwarelebenszyklus und seiner Implementierung Das Design des traditionellen Netzwerkkurses wird von seinen spezialisierten Lehrern und Technikern entwickelt, um sein Lehrziel zu erreichen. Diese Miniaturnetzwerkklasse kann als einmalige und nicht erneuerbare Ressource bezeichnet werden. Heutzutage, zusammen mit der ausgereiften Computerkomponenten-Technologie, ist die Entwicklung dieses Handbuchs werkstattartig obsolet. Dieser Beitrag diskutiert den Entwicklungsprozess des Netzwerkkurses basierend auf dem Modell des Softwarelebenszyklus und eine Fallstudie zum Netzwerkkurs Software Engineering. Es wurde ein rekonfigurierbarer Netzwerkkurs entwickelt, um das vorgeschlagene Verfahren gemäß dem Entwicklungsverfahren der Softwarekomponenten-Engineering-Technologie zu validieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-76312-5_23 6f7b33db2cea3fb5a1fe0d10d8e58d59;de;;;7.1.;;;Bewertung der Fähigkeit von Krankenhausinformationssystemen, eine evidenzbasierte Medizin im Iran zu etablieren Evidenzbasierte Medizin (EBM) ist die korrekte Verwendung der besten Evidenz bei der klinischen Entscheidungsfindung für die Patientenversorgung. Krankenhausinformationssysteme (KIS) können als Brücke zwischen medizinischen Daten und medizinischem Wissen fungieren, indem sie Patientendaten, individuelles klinisches Wissen und externe Evidenz kontextsensitiv zusammenführen und filtern. Ziel dieser Studie war es, die Fähigkeit von HIS zu ermitteln, EBM im Iran zu etablieren. Dieses beschreibende Kreuz;-;-;-;https://link.springer.com/article/10.1007/s10916-012-9904-5 50bde47f7f163e83d5d8446251b87676;de;;;7.1.;;;Datenkommunikation und Netzwerkdienste Es ist schwer, die Bedeutung schneller, billiger und zuverlässiger Telekommunikationsnetze für das Wachstum computergestützter Informationssysteme zu überschätzen. Die Probleme beim Aufbau erfolgreicher Netzwerke sind jedoch ebenso schwer zu überschätzen. Sie betreffen die meisten Aspekte des Managements von Informationssystemen, von Fragen der Politik und Strategie bis hin zu den viel engeren technischen Details der Umsetzung. In diesem Kapitel werden wir zunächst die Möglichkeiten diskutieren, die Netzwerke bieten, bevor wir einige der jüngsten technologischen Trends kurz zusammenfassen. Dies bildet den Rahmen für eine Auseinandersetzung mit den Fragen des Netzmanagements und den derzeit verfügbaren alternativen Netzdiensten. Vernetzung ist ein Hochsicherheitsbereich, und wir besprechen die damit verbundenen Risiken, bevor wir mit der Erkenntnis der Notwendigkeit einer Netzwerkstrategie schließen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-21555-3_8 8a1a483bece21320957d29d0c60c3ad4;de;;;7.1.;;;Analyse und Design von IT-Service-Systemen basierend auf service-dominanter Logik Die Leistung vieler Unternehmen hängt von ihrer Fähigkeit ab, ihre IT-Servicesysteme effektiv zu nutzen. Dies impliziert die Notwendigkeit, die Beziehungen zwischen IT-Dienstleister(n), IT-Management und Kunden zu optimieren. In diesem Papier schlagen wir ein Modell eines IT-Dienstleistungssystems vor, das auf der servicedominanten Logik basiert. Dieses Modell wird in einem internen organisatorischen Kontext betrachtet, in dem eine IT-Abteilung anderen Geschäftseinheiten IT-Services anbietet. Wir definieren drei Arten von Akteuren und die Beziehungen zwischen ihnen, einschließlich des Informationsaustauschs. Wir empfehlen außerdem, dass Kunden aktiv IT-Dienstleistungsangebote mitproduzieren und der IT-Dienstleister an der Gestaltung der Geschäftsprozesse in der Organisation mitwirken sollte. Eine Fallstudie zeigt, wie das IT-Dienstleistungssystem der Fachhochschule Lappland anhand des vorgeschlagenen Modells analysiert und neu gestaltet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24366-5_1 7153b08bc91d6bbcea165058adbe47fd;de;;;7.1.;;;Orchestrierung einer schlanken Implementierung Der Begriff Lean Manufacturing beschränkt sich nicht nur auf eine Reihe wohldefinierter Techniken, sondern repräsentiert einen breiten Ansatz zur Führung eines Unternehmens. Die Arbeit mit Lean umfasst viele Aspekte wie Produktionsplanung und -steuerung, Produktionstechnik, Produktentwicklung, Lieferkette und organisatorische Fragen. Um wirksam zu werden, müssen viele Funktionsbereiche und Abteilungen eingebunden werden. Gleichzeitig sind Unternehmen in ein dynamisches Umfeld eingebettet. Ziel des Papiers ist es, basierend auf zwei empirischen Studien, einen umfassenden Ansatz zur besseren Umsetzung von Lean-Initiativen vorzuschlagen. In dem Papier wird erörtert, wie eine konzertierte Anstrengung unter Berücksichtigung der Wechselwirkungen zwischen einzelnen Verbesserungsinitiativen durchgeführt werden kann. Der Begriff der Orchestrierung wird eingeführt und verschiedene Mittel zur Orchestrierung werden vorgestellt. Kritische Verhaltensaspekte für die Lean-Implementierung werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-77249-3_30 d15be298e06eb18c8ae02f5e57710c6e;de;;;7.1.;;;Von der Funktionsanalyse zur CAD-Modellierung basierend auf der durch den Designprozess getriebenen Wissenstransformation Die meisten Branchen verbringen derzeit zu viel Zeit damit, Informationen über den vergangenen Produktentwicklungsprozess zu finden. Dadurch verkürzt sich die Zeit, die sie für Innovationen aufwenden kann, erheblich. Die Autoren gehen davon aus, dass das Designprozess-Metamodell sehr interessant erscheint, um die Designrational zu modellieren und dann die Informationsbeschaffung zu beschleunigen. Tatsächlich unterstützt das Modell des Designprozesses teilweise alle Ressourcen, die an der Entscheidungsfindung beteiligt sind (d. h. wer, was, wann, warum, wo, wie). Die Autoren schlagen daher die Verwendung einer MBE-Architektur vor, um die Produktmodellierung basierend auf dem Designprozessmodell voranzutreiben. Die UML-Aktivitätsdiagramme und das IDEFØ-Metamodell sind verknüpft, um die automatische Generierung von Produktmodellen mit spezifischem Transformationswissen zu unterstützen. Das CAD-Modell wird teilweise aus der Produktfunktionsanalyse generiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35758-9_41 00e1aa74f73ee8dc5307a2fc97a8c988;de;;;7.1.;;;Unterschiede beim Lesen zwischen Wortsuche und Informationsrelevanzentscheidungen: Beweise durch Eye-Tracking Wir untersuchten Unterschiede in den Lesestrategien in Bezug auf die Ziele der Informationssuche und die wahrgenommene Textrelevanz. Unsere Ergebnisse zeigen, dass einige Aspekte des Lesens bei der Suche nach einem bestimmten Zielwort dem Lesen relevanter Texte zum Auffinden von Informationen ähnlich sind, während andere Aspekte dem Lesen irrelevanter Texte zum Auffinden von Informationen ähnlich sind. Wir zeigen auch signifikante Unterschiede in der Pupillenerweiterung bei endgültigen Fixierungen auf relevante Wörter und auf Relevanzentscheidungen. Unsere Ergebnisse zeigen die Machbarkeit der Verwendung von Eye-Tracking-Daten, um das Timing von Entscheidungen zu Informationssuche-Aufgaben in Bezug auf die erforderliche Tiefe der Informationsverarbeitung und das Relevanzniveau abzuleiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-41402-7_18 e9f08a13d99e310d94365f7fa66de955;de;;;7.1.;;;Grundlegende Veränderungen in der Marketingorganisation: Der Wandel hin zu einer kundenorientierten Organisationsstruktur Das Interesse an der Zukunft des Marketings und an Veränderungen in der Organisation und Rolle des Marketings innerhalb des Unternehmens wächst. Es gibt jedoch keine Forschung, die die wichtigsten Veränderungen in der Marketingorganisation ganzheitlich untersucht. Die Autoren stützen sich auf qualitative Interviews mit 50 Managern in den USA und Deutschland und argumentieren, dass isoliert diskutierte Veränderungen in der Marketingorganisation Teil einer allgemeineren Verschiebung hin zu kundenorientierten Organisationsstrukturen sind. Sie diskutieren zunächst zwei spezifische Änderungen im Zusammenhang mit der Gesamtverschiebung: Änderungen in Bezug auf die primären Marketingkoordinatoren und eine zunehmende Streuung der Marketingaktivitäten. Anschließend führen sie das Konzept einer kundenorientierten Organisationsstruktur ein, die Kundengruppen als primäre Grundlage für die Strukturierung der Organisation verwendet. Sie identifizieren typische organisatorische Übergänge, wenn Unternehmen zu einer kundenorientierten Organisationsstruktur übergehen, und diskutieren die Herausforderungen, denen sich Unternehmen bei diesem Übergang gegenübersehen. Sie schließen mit Implikationen für die akademische Forschung, die Managementpraxis und den Lehrplan von Business Schools.;-;-;-;https://link.springer.com/article/10.1177/0092070300284001 78cace4dc0197ef75b0b5f52c7a9ca08;de;;;7.1.;;;Internationales Karriere-Assessment mit dem Berufsinformationsnetz (O*NET) Das Berufsinformationsnetz (O*NET) ist eine erstklassige Quelle für Berufsinformationen. O*NET ist eine Open-Source-Online-Plattform, die Daten für fast alle Berufe in den Vereinigten Staaten enthält. Diese Daten werden kontinuierlich erhoben, verbreitet und aktualisiert. O*NET-Daten und -Produkte werden für viele Zwecke verwendet, von der Forschung über die Karriereentwicklung bis hin zur öffentlichen Politik. Vor kurzem haben internationale Nutzer damit begonnen, ähnliche Plattformen nach dem O*NET-Modell für ihre eigenen Länder zu entwickeln. O*NET unterstützt mehrere Möglichkeiten der internationalen Karrierebewertung und der interkulturellen Forschung. Dieses Kapitel gibt einen Überblick über die Geschichte und Struktur von O*NET sowie die zur Verfügung stehenden O*NET-Produkte und -Datenbanken. In diesem Kapitel werden dann Beispiele und Möglichkeiten zur Berufsbewertung sowohl in den Vereinigten Staaten als auch international beschrieben. Schließlich skizziert dieses Kapitel Herausforderungen und Überlegungen bei der internationalen Nutzung von O*NET sowie potenzielle Absatzmöglichkeiten und Möglichkeiten für eine internationale Karrierebewertung mit O*NET in der Zukunft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-25153-6_27 8d0bfadcc0353fea364166a0f50ffc08;de;;;7.1.;;;Analyse, Modellierung und Management internationaler Verhandlungen In diesem Papier wird das Verhandlungsmanagement, ein Rahmenwerk für die praktische Umsetzung computergestützter Unterstützung für Verhandlungsführer und ihre Mitarbeiter, definiert und beschrieben. Insbesondere werden drei integrierte Tools und die ihnen zugrunde liegenden Methoden erläutert. Der kollaborative Einsatz von Computern und Informationstechniken in komplexen Verhandlungen wird im Sinne eines „Discovery and Design“-Paradigmas umrahmt, bei dem die Parteien in Dialog treten, lernen und Vertrauen aufbauen, das die Verhandlung selbst durch einen Prozess gemeinsamer Analyse und Modellierung unterstützen kann.;-;-;-;https://link.springer.com/article/10.1007/BF01075193 171e99b2e267134343c7c0ad201a47ae;de;;;7.1.;;;Responsive Produktion in der Fertigung: Eine modulare Architektur Dieses Papier schlägt eine Architektur vor, die darauf abzielt, die Konvergenz der physischen und digitalen Welt durch CPS- und IoT-Technologien zu fördern, um kundenspezifischere und qualitativ hochwertigere Produkte nach Industrie 4.0-Konzepten zu ermöglichen. Die Architektur kombiniert Konzepte wie Cyber-Physical Systems, Dezentralisierung, Modularität und Skalierbarkeit mit dem Ziel einer responsiven Produktion. Durch die Kombination dieser Aspekte mit Virtualisierungs-, Kontextualisierungs-, Modellierungs- und Simulationsfunktionen wird es Selbstanpassung, Situationsbewusstsein und dezentralisierte Entscheidungsfindung ermöglichen, um dynamische Marktanforderungen zu erfüllen und das Design und die Neukonfiguration des Fertigungsunternehmens zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-78437-3_10 f9f47a2bbc0089b297c7803a54044557;de;;;7.1.;;;Das Design und die Implementierung einer Datensicherheitsmanagement- und Kontrollplattform Dieses Papier schlägt eine neue Datensicherheitsmanagement- und Kontrollplattform vor, um das Problem zu lösen, dass es an differenziertem Schutz für die Massen- und heterogenen Datenbestände von Unternehmen mangelt, die Strategie zum Schutz von Datenbeständen auf einer sehr grobkörnigen Ebene ist und die Unternehmenssicherheitsprodukte sind nur mit ihrer eigenen geschützten Ausrüstung beschäftigt sind, keine einheitliche Sicherheitsansicht haben und nicht in der Lage sind, Big-Data-Tracking und Forensik durchzuführen. Erstens ordnet es die Vertraulichkeit, Integrität und Verfügbarkeit von Datenbeständen basierend auf drei Merkmalen der Datensicherheit (Vertraulichkeit C, Integrität I, Benutzerfreundlichkeit A) zu, um den Geschäftswert von Datenbeständen besser widerzuspiegeln, und es unterscheidet die Wertstufen von Datenbeständen , um die Nutzung von Sicherheitsschutztools zu verbessern. Anschließend weist die Plattform je nach Datenklassifizierung automatisch bestimmte Datenebenen zu und ermöglicht so eine feingranulare Zugangskontrolle. Es untersucht auch die Konstruktionsmethode der Sicherheitssicht, um das Problem effektiv zu lösen, dass es keinen differenzierten Schutz für Unternehmensdatenbestände gibt, die Strategie zum Schutz von Datenbeständen auf einer sehr grobkörnigen Ebene ist und keine einheitliche Sicherheitssicht aufweist und nicht in der Lage Durchführung von Big-Data-Tracking und Forensik.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-48683-2_33 6719f817037244d5954943ed16ce62f7;de;;;7.1.;;;SharedPlans im elektronischen Handel Rationale Agenten müssen oft zusammenarbeiten [356]. Es gibt Aufgaben, die nicht von einem Agenten erledigt werden können, weil niemand über ausreichende Kompetenzen, Ressourcen oder Informationen verfügt, um das gesamte Problem allein zu lösen. In anderen Situationen können Agenten, die in derselben Umgebung arbeiten, von der Zusammenarbeit profitieren. Eine gemeinsame Aktion eines Teams besteht nicht nur aus gleichzeitigen und koordinierten Einzelaktionen, um gemeinsam zu agieren. Ein Team muss sich des Status der Gruppenarbeit als Ganzes bewusst sein und sich damit beschäftigen. Um dieses Problem zu beheben, wurde vorgeschlagen, dass Agenten ein fundiertes und explizites Modell kooperativer Problemlösung haben sollten, auf dem ihr Verhalten basieren kann. Mehrere solcher Modelle wurden vorgeschlagen [375, 344, 311, 259].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-60018-0_11 ef69b6024b526a3bd432431f583f9f02;de;;;7.1.;;;Bereitstellung von Lebenszykluslösungen Der klassische Finanzdienstleistungsmarkt zeichnet sich, wie oben skizziert, durch eine schlechte Beratungs- und Servicequalität aus – nicht nur für Privatkunden, sondern auch für High-End-Kunden im Private Banking;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-57412-2_5 f30beb4acc5fbba8f494fed6063d4d62;de;;;7.1.;;;Demontageprozessplanung unter End-of-Life-Produktqualität Die Qualität von Post-Consumer-Produkten ist eine der größten Unsicherheitsquellen bei Demontagesystemen. In diesem Beitrag wird ein Entscheidungswerkzeug zur Demontageprozessplanung unter Variabilität der End-of-Life-Produktqualität vorgestellt. Ziel ist es, den Gewinn des Demontageprozesses zu maximieren. Letzteres ist die Differenz zwischen den Einnahmen aus den wiedergewonnenen Teilen und den Kosten der Demontagearbeiten. Der Umsatz eines Produkts (Unterbaugruppe, Komponente) hängt von seiner Qualität ab. Der vorgeschlagene Ansatz hilft, Entscheidungen über den besten Demontageprozess und die Demontagetiefe in Abhängigkeit von der Qualität der zu demontierenden Produkte zu treffen. Industrielle Anwendbarkeit und Interesse werden anhand eines Industriefalles gezeigt, der sich auf die Wiederaufbereitung mechatronischer Teile in der Automobilindustrie konzentriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-42250-9_31 415d773210e3e922299e50bd1d40f97d;de;;;7.1.;;;Software Development Kit für das Design und die Implementierung von Multi-Agent-Systemen Der Beitrag stellt das entwickelte Technologie- und Softwarewerkzeug für den Entwurf und die Implementierung wissensbasierter Multiagentensysteme vor. Das Softwaretool besteht aus zwei Komponenten, die „;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45941-3_13 2ac316f3f1e262837f659d864594c27d;de;;;7.1.;;;Die Selbst-Star-Vision Das Erreichen verschiedener Selbst-⋆-Eigenschaften ist seit dem Bau des ersten Computers eine große Herausforderung der Informatik und des Ingenieurwesens. Die jüngste Reinkarnation dieser Herausforderung ist darauf zurückzuführen, dass große, komplexe und dynamische Informationssysteme plötzlich zu einem zentralen Bestandteil der Infrastruktur moderner Gesellschaften geworden sind. Dementsprechend ist es sehr wichtig geworden, diese Systeme so effizient wie möglich aufbauen, verwalten und nutzen zu können. Mit anderen Worten, diese Systeme müssen selbst-⋆ werden.;-;-;-;https://link.springer.com/chapter/10.1007/11428589_1 e377fa819df1509813d08f70f38bbacf;de;;;7.1.;;;Unternehmensstrategie für den Einzelhandel In Kapitel 1 und Kapitel 2 dieses Textes haben wir die Funktionen des Einzelhandels und die Entwicklung des Einzelhandels der Wirtschaft insbesondere seit der Mitte des 19. Jahrhunderts beschrieben. Diese Beschreibung enthielt einige Hinweise auf das Aufkommen und den relativen Erfolg verschiedener Formen des Einzelhandels wie Kaufhäuser und Multishop-Organisationen. Nach der Analyse des Einzelhandelswettbewerbs in Kapitel 3 besteht die Aufgabe dieses Kapitels darin, zu untersuchen, wie Einzelhandelsunternehmen im Hinblick auf ihre Geschäftsstrategien auf Wettbewerbs- und anderen Druck reagieren. In diesem Kapitel wird daher mit einem Abriss des Themas Geschäftsstrategie fortgefahren. Darauf folgt eine genauere Analyse der strategischen Entscheidungsfindung im Einzelhandel, einschließlich längerfristiger Entscheidungsbereiche wie vertikale Integration und die Rolle von Akquisitionen. Das Kapitel schließt mit einer Betrachtung der Fragen der Strategieumsetzung im Handel.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-21716-8_4 bd6b4cd88767030e42b06260cb840d8b;de;;;7.1.;;;Data-Brain-Modellierung für die systematische Hirninformatik Um die menschliche Intelligenz im Detail zu verstehen und die kognitiven Modelle zu finden, die für Web Intelligence (WI) benötigt werden, wendet Brain Informatics (BI) eine systematische Methodik an, um menschliche „denkende“ kognitive Funktionen und ihre neuronalen Strukturen und Mechanismen zu untersuchen, in denen das Gehirn arbeitet . Zur Unterstützung systematischer BI-Studien schlagen wir ein neues konzeptionelles Gehirndatenmodell vor, nämlich Data-Brain, das verschiedene Beziehungen zwischen mehreren menschlichen Gehirndatenquellen in Bezug auf alle wichtigen Aspekte und Fähigkeiten von menschlichen Informationsverarbeitungssystemen (HIPS) explizit darstellt. Der Aufbau eines solchen Data-Brains ist einerseits die Voraussetzung für eine systematische BI-Studie. Andererseits unterstützt die BI-Methodik eine solche Data-Brain-Konstruktion. In diesem Papier entwerfen wir ein mehrdimensionales Framework von Data-Brain und schlagen einen auf BI-Methoden basierenden Ansatz für die Data-Brain-Modellierung vor. Mit diesem Ansatz können wir ein formales Data-Brain konstruieren, das eine langfristige, ganzheitliche Vision zum Verständnis der Prinzipien und Mechanismen von HIPS bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04954-5_28 1dbf5698bfc4335e71a6da89161494f3;de;;;7.1.;;;Ein Framework zum Entwerfen von verteilten Verwaltungsanwendungen Dieses Papier präsentiert eine Methodik für die Spezifikation und den Entwurf von Multi-Domain-Managementsystemen, die Benutzer und Dienste in einer verteilten Telekommunikationsumgebung steuern, überwachen und verwalten. Es stellt ein Framework dar, das als Blaupause für den Entwurf und die Implementierung von verteilten Verwaltungsanwendungen dient. Es definiert eine Reihe von Konzepten und Methoden zur Führung der Analyse-, Entwurfs- und Implementierungsphasen von Managementanwendungen, die über heterogene Systeme verteilt sind. Das Rahmenwerk basiert auf Konzepten von Telekommunikationsmanagementnetzen und OpenDistributed Processing und wird teilweise im Rahmen des Projekts Pan-European Reference Configuration for IBC (Integrated Broadband Communication) Services Management (PRISM) entwickelt.;-;-;-;https://link.springer.com/article/10.1023/A%3A1018762826315 db2ec2ede6653c4516620268f620fb10;de;;;7.1.;;;Ein Entscheidungshilfesystem für die Fertigung: FlexQuar Dieses Papier soll eine generische Architektur vorschlagen, die Entscheidungsträgern hilft, mit entscheidungs- und organisationsbezogenen Veränderungen (Fertigungsereignisse, Änderung von Variablen, Neuverteilung von Rollen,…) umzugehen. Wir zeigen, wie diese Probleme teilweise mit dem FlexQuar-Ansatz gelöst werden können. Die jüngsten Ergebnisse des von den Europäischen Gemeinschaften geförderten Projekts FlexQuar ESPRIT III CIME werden hier beschrieben. Dieses dreijährige Projekt begann im September 1991 und umfasst vier industrielle Anwendungsstandorte, um die Projektergebnisse zu testen und zu integrieren. Ein Demonstrator wurde am Ende des ersten Jahres implementiert und getestet (Firma Pirelli) und ein anderer wurde an einem zweiten Anwendungsstandort zur Validierung des zweiten Projektjahres implementiert. Dieses Papier konzentriert sich auf den zweiten Demonstrator.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34879-7_92 b8cc2ab0dbdc329016ea358d0fa30dac;de;;;7.1.;;;Multiobjektiv-Routing-Probleme Viele Netzwerk-Routing-Probleme, insbesondere wenn der Transport gefährlicher Materialien involviert ist, sind von Natur aus multiobjektiv, dh es ist erwünscht, nicht nur die physikalische Weglänge, sondern auch andere Merkmale zu optimieren. Mehrere solcher Probleme werden hier definiert und ein allgemeiner Rahmen für Multi-Objective-Routing-Probleme wird vorgeschlagen. Der Begriff „effiziente Lösung“ wird definiert und anhand eines Beispiels gezeigt, dass ein Problem sehr viele effiziente Lösungen haben kann. Als nächstes werden potenziell nützliche Lösungsmethoden für Multiziel-Routing-Probleme diskutiert, wobei der Schwerpunkt auf der Verwendung der kürzesten/;-;-;-;https://link.springer.com/article/10.1007/BF02568585 4f068119b699691c84f59306e1b4f810;de;;;7.1.;;;Infrastruktursicherheit für intelligente Stromnetze: Eine Umfrage Der Einsatz von Smart-Grid-Technologien erregt in der Strombranche große Aufmerksamkeit. Der Begriff „Smart Grid“ bezieht sich auf die Modernisierung des Stromnetzes mit digitaler Technologie, die eine fortschrittliche Sensor- und Messinfrastruktur, Hochgeschwindigkeits-, vollintegrierte Zwei-Wege-Kommunikation und eine unterstützende Informationsinfrastruktur umfasst. Insbesondere kombiniert das Smart Grid eine ausgereifte Stromnetzinfrastruktur mit Informations- und Kommunikationstechnologie, um eine bessere Netzleistung in Bezug auf die Gesamtsystemeffizienz und -zuverlässigkeit zu bieten. Es unterstützt unter anderem einen wechselseitigen Energie- und Informationsfluss, erleichtert die Integration von zeitlich veränderlichen Energiequellen und neuen dynamischen Lasten. Neben diesen potenziellen Vorteilen bringt Smart Grid jedoch auch neue Herausforderungen mit sich, um die Sicherheit des Netzes und der Informationsinfrastruktur, die es verbindet und steuert, zu gewährleisten. Dieses Kapitel bietet einen kurzen Überblick über verschiedene wesentliche Komponenten des Smart Grid und einige der Sicherheitsherausforderungen, die praktisch alle Aspekte seines Betriebs umfassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38134-8_8 9bc9521450a5e9ecc6b980e1b7ea7046;de;;;7.1.;;;Ein Planungstool zur Simulation des Stadtwachstumsprozesses und der räumlichen Strategie der Stadtentwicklung in Chuandong, China Dieses Jahrhundert ist von einer rasanten Urbanisierung geprägt. Einige Statistiken sagen voraus, dass die Stadtbevölkerung der Welt bis 2030 fünf Milliarden erreichen wird (United Nations 2007). Diese rasante Urbanisierung hat nicht nur zu einer erweiterten Landnutzung geführt, sondern auch zu einem Bevölkerungswachstum in städtischen Gebieten und entwicklungsbedingten Umweltauswirkungen. Forscher beschäftigen sich daher zunehmend mit den Zusammenhängen zwischen Urbanisierung, Bevölkerungsdynamik und entwicklungsbedingten Umweltauswirkungen (Lambin und Geist 2001, Fontaine und Rounsevell 2009). In diesem Kapitel stellen wir ein Simulationswerkzeug vor, das räumliche strategische Planunterstützungssystem (SSP-SS), um die lokale Entscheidungsfindung bei der Stadtentwicklung zu unterstützen, das zwei separate Teile für die Simulation des Stadtwachstums und die Gesamtmenge des Energieverbrauchs und der Abfallentsorgung der Haushalte umfasst . Um den Prozess des Stadtwachstums darzustellen, wird der Constraint Cellular Automata (CA)-Ansatz verwendet und ein agentenbasiertes Modell zur Berechnung des Gesamtenergieverbrauchs und der Abfallentsorgung im Haushalt verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13559-0_2 841312a563fbb0eec360b0b8bd4011be;de;;;7.1.;;;Office 365 als Werkzeug für eine effektive interne Kommunikation im Unternehmensumfeld Die E-Mail-Kommunikation als eine der heute am weitesten verbreiteten Computeranwendungen ist bei ihren Benutzern im Allgemeinen sehr beliebt. Da es sowohl für die private als auch für die berufliche Kommunikation verwendet wird, treten bei der E-Mail-Nutzung auch Nachteile auf: eine zunehmende Anzahl von Nachrichten, die Benutzer, Systeme überfordern und extrem zeitaufwändig werden. Trotz der massiven Expansion von Social-Media-Sites behält die E-Mail-Kommunikation ihre Position und Bedeutung im organisatorischen Kommunikationsprozess und nimmt tendenziell zu. Die E-Mail-Kommunikation kann jedoch auch ineffizient sein und zu einer schlechten Arbeitseffizienz führen. Ziel dieses Kapitels ist eine Beschreibung und Analyse von Office 365 und seinen Komponenten mit Fokus auf SharePoint Online im Unternehmensumfeld. Wir werden allgemeine Empfehlungen und Richtlinien für eine bestimmte Organisation anbieten, die in der Praxis auf andere Organisationen anwendbar sind, die das System verwenden, oder für Organisationen, die eine Implementierung in Betracht ziehen. Das Kapitel beschreibt auch die teilweise Implementierung von Dienstleistungen innerhalb der ausgewählten Arbeitsplätze. Office 365-Komponenten, Komponenten von SharePoint Online, werden implementiert, um eine effektive Kommunikation innerhalb der Organisation zu verbessern und die Anzahl der gesendeten oder empfangenen E-Mails auf das erforderliche Minimum zu reduzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94117-2_12 f388385307071e1bd7bc5527dcd94177;de;;;7.1.;;;Symbolisches Management des Informationssicherheitsgrades durch Integer Splitting Dieser Beitrag demonstriert die Anwendung der Modularithmetik zur Kontrolle des Informationssicherheitsniveaus durch eine neue Technik, die als Integer-Splitting bezeichnet wird. Die grundlegenden Definitionen und Konzepte der Methode werden bereitgestellt. Die mathematische Funktion der entstehenden Transformation wird detailliert beschrieben, ihre Eigenschaften untersucht und die grundlegenden Theoreme bewiesen, die den Einsatz der Aufspaltung in der Praxis rechtfertigen. Es wurde ein aktives System entworfen und charakteristische Fälle seines Betriebs betrachtet.;-;-;-;https://link.springer.com/article/10.3103/S0147688217060107 94091e6682d9b8cf6d9a7dffee297935;de;;;7.1.;;;Unterstützung des Patienten beim Austausch von Gesundheitsinformationen: eine Literaturübersicht und Klassifikation von Schlüsselfaktoren Die Literatur zeigt, dass einer der wichtigsten Faktoren, die die weit verbreitete Einführung des Health Information Exchange (HIE) beeinflussen, die Unterstützung und Billigung durch Patienten ist. Um alle erwarteten Vorteile von HIE zu nutzen, ist die Akzeptanz der Technologie durch die Patienten eine noch nicht vollständig untersuchte Herausforderung. Es gibt einige Studien, die sich mit den Anforderungen an den elektronischen medizinischen Informationsaustausch aus Sicht und Erwartungen der Verbraucher beschäftigt haben. Diese Studie zielt darauf ab, die Literatur zu überprüfen, um Faktoren zu artikulieren, die sich auf Patienten auswirken, um HIE-Bemühungen zu unterstützen.;-;-;-;https://link.springer.com/article/10.1186/s12911-017-0436-2 1cf9fdc78eb08da64991f46d49baea04;de;;;7.1.;;;Verbindung von Forschung und Innovation durch den Einsatz von Living Labs für die Designwissenschaftsforschung In diesem Papier bieten wir einen Rahmen für die Kombination von Design-Science-Forschung mit einem Living-Lab-Ansatz. Während Living Labs einen Schwerpunkt auf Innovation haben, ist es auch wichtig, Forscher einzubeziehen, die einen strengeren Forschungsansatz verfolgen müssen, um Forschungsarbeiten zu erstellen. Der Rahmen wird durch Berichte aus einem Fall veranschaulicht, in dem der kombinierte Rahmen in Verbindung mit Forschung und Innovation im Wireless Trondheim Living Lab (WTLL) verwendet wurde. WTLL konzentriert sich auf die Forschung und Entwicklung von mobilen Anwendungen und Diensten. Der Fall, der die Entwicklung und Gestaltung wissenschaftlicher Forschung zu einem solchen Dienst, MSIS (Mobile Student Information System)/Campus-Guide, verfolgt, liefert Beweise für eine Möglichkeit, diese Ansätze zu kombinieren, um eine stärkere Beteiligung von Forschern an Innovationsprozessen zu ermöglichen und umgekehrt . Die Verallgemeinerbarkeit des Ansatzes ist jedoch nicht bewiesen, und weitere Forschungen werden untersuchen, wie wir den beschriebenen Ansatz in anderen Situationen einsetzen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32270-9_10 1927fa7a53f7c7c692e3ce06504c3390;de;;;7.1.;;;Implementierung einer verhaltensgesteuerten Entwicklung in einem Open Source ERP Ein typisches Problem im Software Engineering ist die Gewährleistung, dass alle Systemanforderungen korrekt durch den Quellcode umgesetzt werden. Traditionell ist die Anforderungsverfolgung eine manuelle Aufgabe, die darin besteht, Links von Anforderungen zum Quellcode zu halten und verschiedene Modellierungsartefakte, einschließlich Modelle, zu durchlaufen. Diese Techniken können jedoch nicht garantieren, dass Anforderungen immer korrekt durch den Quellcode implementiert werden. Um dieses Problem zu lösen, ist Behavior-Driven Development (BDD) eine Spezifikationstechnik, die durch die Verbindung der textuellen Beschreibung der Anforderungen mit automatisierten Tests automatisch überprüft, ob alle funktionalen Anforderungen vom Quellcode korrekt behandelt werden. Da für Enterprise Information Systems Anforderungen in der Regel durch die Analyse von Geschäftsprozessmodellen identifiziert werden und diese Prozesse durch Workflows implementiert werden, kann die Verbindung von Workflows mit automatisierten Tests über BDD-Spezifikationen eine automatisierte Rückverfolgbarkeit der Anforderungen ermöglichen. Das Ziel dieses Papiers ist es, diesen Vorschlag kurz vorzustellen und zu zeigen, wie er für das Open Source ERP5-System implementiert wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36611-6_22 734276c98346742e04356bab67af3de0;de;;;7.1.;;;Informationstechnologie und die Effizienz des brasilianischen Justizsystems Dieser Artikel enthält eine Analyse der Auswirkungen von Investitionen in die Informationstechnologie (IT) auf die Effizienz des brasilianischen Justizsystems. Um diese Untersuchung durchzuführen, wurde die Fallstudienmethode gewählt, um die Komplexität des oben genannten Phänomens zu behandeln. Die Organisationsstruktur und der Informationspfad des brasilianischen Justizsystems, der rechtliche Rahmen für elektronische Klagen sowie die Rolle des Nationalen Justizrats (NCJ) bei der Automatisierung des brasilianischen Justizsystems bilden die Grundlage für das Verständnis des Kontexts. Eine quantitative Analyse des Zusammenhangs zwischen IT-Investitionen und der Effizienz der Gerichte zeigt einen möglichen positiven Einfluss der IT auf die Reduzierung von Prozessdauer und -kosten und erhöht damit die operative und finanzielle Effizienz des brasilianischen Justizsystems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33489-4_11 f18550a39d8f2cb965fad72857d34330;de;;;7.1.;;;Berücksichtigung des Business Process Re-Engineering-Effekts: Business Flow Notation Struktur und die Management-Perspektive Diese Studie betrachtet die Art und Weise, in der die Geschäftsprozessmodellierung (BPM) die Geschäftsprozessänderung beeinflusst, wie z. Die Erwartungen des Top-Managements an die Informationstechnologie (IT) werden als steigend angesehen, daher wird BPM mit IT-Implementierung immer wichtiger. Obwohl japanische Firmen im Vergleich zu Firmen in westlichen Ländern tendenziell viel mehr für die Verbesserung der betrieblichen Effizienz ausgeben, scheinen die Ergebnisse jedoch nicht effektiv genug zu sein [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-42887-1_27 fabbc35b0581bc83f32bca14126a4bf7;de;;;7.1.;;;Prozessunterstützung für virtuelle Projekte im Baubereich Die Baubranche arbeitet seit einiger Zeit virtuell, aber mit wenig technologischer Unterstützung. Da der Druck in der Branche zunimmt, Kosteneffizienz und Qualität zu verbessern, besteht ein wachsender Bedarf an angemessener Prozessunterstützung. Derzeit verfügbare Technologien zur Prozessunterstützung sind in der Regel schwierig und zeitaufwendig einzurichten, um solche Projekte zu unterstützen, und sind daher trotz ihres potenziellen Nutzens nicht sehr praktikabel. Der Beitrag berichtet über die aktuelle Forschung zu einem benutzergesteuerten Prozessdesign-Ansatz, der die einfache Generierung einer auf ein bestimmtes Projekt zugeschnittenen Prozessunterstützung ermöglicht, die Infrastruktur eines virtuellen Unternehmens für ein bestimmtes Bauprojekt generiert und die Projektdurchführungsphase unterstützt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35399-9_34 4df0f10f9877519004741f6c9357847b;de;;;7.1.;;;Eine Studie zum Aufbau eines umfassenden PLM-Systems basierend auf der Nutzung der japanischen Stärke der Industrie Die Aufrechterhaltung der „japanischen Stärke“ bei der Digitalisierung des Produktentwicklungsprozesses ist für die japanische Industrie wichtig, um im sich verschärfenden globalen Marktwettbewerb zu bestehen. In diesem Beitrag wird untersucht, wie ein umfassendes PLM-System auf Basis der Engineering Process Integrated Architecture (EPIA) aufgebaut werden kann, um es anhand von konkreten Fällen zu realisieren. Das auf einer integrierten Datenbank basierende System integriert durchgängig den gesamten Prozess von Produktplanung, Entwicklung und Konstruktion, Fertigungsvorbereitung, Produktion, Einkauf, Vertrieb, Service und Wartung und ermöglicht die gegenseitige Zusammenarbeit der Informationen von PLM/SCM/CRM.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45937-9_25 dc8d9f356bd744e82724edd61509e98a;de;;;7.1.;;;ERP-Implementierungsstrategien: Die Bedeutung von Prozessmodellierung und -analyse Trotz umfangreicher Forschungs- und Wissensbestände zur ERP-Implementierung wird die Analyse von Umweltaspekten (z. B. organisatorischer Kontext, bestehende Geschäftsstrategien und Implementierungsstrategien), die den Implementierungserfolg beeinflussen, noch immer wenig erforscht. Das Ziel dieser Studie war es daher, einen Einblick in die Beziehung zwischen den Ex-ante-Geschäftsvariablen (d. h. den vor der Implementierung identifizierten Geschäftsmerkmalen), den ERP-Implementierungsstrategien und dem wahrgenommenen endgültigen Beitrag zu gewinnen. Anhand von Umfragedaten von 91 Befragten aus einer Stichprobe von 549 SAP-Anwendern in Spanien und Lateinamerika (eine Nettorücklaufquote von 16,6%) finden wir eine signifikante Korrelation zwischen bestimmten Geschäftsstrategien und bestimmten ERP-Implementierungsstrategien. Darüber hinaus beobachten wir, dass Prozessmapping und prozessbasierte Umsetzungsstrategien Umsetzungsergebnisse besser erklären als andere Strategien wie der Einsatz von Beratern und Vorerfahrungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15723-3_7 6f572d00f87d9ee67c3d1f1097e606ee;de;;;7.1.;;;Einsatz von Kollaborationsplattformen für Management-Kontrollprozesse: Neue Möglichkeiten der Integration In der Literatur wurde die Beziehung zwischen Management Control Systems (MCS) und Informations- und Kommunikationstechnologie (IKT) analysiert, mit besonderem Fokus auf informationsintegrierte Systeme (transaktionsorientierte Informationssysteme als Enterprise-Resource-Planning-Software, analyseorientierte Informationstools als Business-Intelligence-Software ). In den letzten Jahrzehnten hat die IKT Kollaborationsplattformen hervorgebracht, dh Hardware-/Softwarelösungen, die Menschen in einer „sozialen“ und sicheren Umgebung verbinden und nützliche Werkzeuge zum Erstellen, Organisieren, Suchen und Teilen von Dokumenten, Informationen, usw. Mehrere Studien haben die organisatorischen Auswirkungen solcher Plattformen, insbesondere für Arbeitsgruppen, sowie ihre Auswirkungen auf den Austausch von Wissen und Informationen, insbesondere im interorganisationalen Kontext, untersucht. Der Beitrag von Kollaborationsplattformen zu MCS ist jedoch noch wenig erforscht. Diese Studie analysiert die Nutzung von Kollaborationsplattformen in Forschungseinrichtungen (RIs). Basierend auf einer italienischen Fallstudie bietet der Artikel eine qualitative Bewertung der Einführung einer Kollaborationsplattform zur Unterstützung des Kommunikationsflusses in der RI. Wir heben hervor, wie diese Plattform zu einem wichtigen Unterstützungsinstrument für Managementkontrollprozesse geworden ist. Wir konzentrieren uns auf die Rolle der Kollaborationsplattform in jeder Steuerungskomponente und auf die Art und Weise, in der sie eine Möglichkeit für eine anspruchsvollere Integration zwischen diesen Komponenten darstellt. Das Papier soll sowohl zur akademischen Überbrückung der Studienlücke in Bezug auf die Beziehung zwischen MCS und IKT als auch zu Praktikern beitragen, indem es die Nutzung von Kollaborationsplattformen in einem bestimmten Kontext hervorhebt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23784-8_8 5c73855eddcf1becad55953554ffaa0f;de;;;7.1.;;;Gelernte Lektionen für ein besseres Management der Master-Geometrie Wenn ein Flugzeug als Endprodukt betrachtet wird, hat es eine komplexe Struktur mit zahlreichen zu verwaltenden Teilen. Komplexität erfordert multifunktionale Designaktivitäten, und multifunktionales Design erfordert eine kollaborative Arbeitsweise für einen kontinuierlichen Erfolg. Dieser kooperative Ansatz konnte nur mit Hilfe von Concurrent Engineering-Techniken erreicht werden. Derzeit werden in der digitalen Umgebung von CAD-Tools mehrere charakteristische Designaktivitäten durchgeführt. Positionsinformationen und Zusammenhänge zwischen Teilen eines Produkts werden mit Hilfe von assoziativen physikalischen CAD-Links bereitgestellt. Die Anforderung von CAD-Verbindungen während der Konstruktionsaktivitäten ebnet den Weg für die Verwendung von Master-Geometrie-Modellen als offizielle Quelle für die Flugzeugform und als geometrische Referenz für alle beteiligten Akteure. Master-Geometriemodelle müssen in Product Lifecycle Management-Tools verwaltet werden, um eine effektive Implementierung und Nutzung von Modellen von der Konzeption über das Design und die Herstellung bis hin zu Service und Entsorgung des Produkts zu ermöglichen. Einige unsachgemäße Fälle konnten beobachtet werden, wenn versucht wurde, eine Korrelation zwischen Master-Geometriemodellen und 3D-Produktmodellen in einer CAD-Umgebung zu erzeugen. In diesem Beitrag werden diese Fälle untersucht und mögliche Lösungsansätze, die das Ergebnis von Lessons Learned-Aktivitäten sind, anhand konkreter Beispiele vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41501-2_70 b97573362afea372c5d5cd4d5eab63bc;de;;;7.1.;;;Fortschritte im Design der Cybersicherheit: Ein integrierter Rahmen zur Quantifizierung der wirtschaftlichen Auswirkungen von Cyber-Terror-Verhalten Ein integrierter Rahmen zur Quantifizierung der wirtschaftlichen Auswirkungen von Cyberangriffen auf die Sicherheitssysteme von US-Flughäfen wird vorgelegt. Ein Cyberangriff auf die Vereinigten Staaten würde ein komplexes strategisches Verhalten von Terroristen beinhalten, die ohne US-Grenze oder Zugangspunkt in ein elektronisches Flughafensystem eindringen könnten. Gleichzeitig müssen die verteidigenden Einheiten die komplexen Prozesse berücksichtigen, die zu Unruhen führen können. Die Möglichkeit gleichzeitiger Bedrohungen durch Cyberangriffe erschwert es den verteidigenden Einrichtungen, ihre Flughäfen zu sichern, was die Notwendigkeit einer verbesserten und integrierten zwischenstaatlichen Zusammenarbeit unterstreicht. Die kollaborative Vernetzung erfordert eine enge zwischenstaatliche Koordinierung, um solchen Cyber-Terrorismus zum Schutz kritischer Infrastruktursysteme zu überwinden. Der Aufbau eines neuen Modells für strategische Cyber-Terror-Sicherheit erfordert eine Kombination aus kompetitiven und kooperativen Spielsituationen, um spezifische Strategien gegen Cyber-Terror zu entwickeln. Darüber hinaus hätte eine Flughafenschließung Auswirkungen auf die gesamte nationale und internationale Wirtschaft, diese Auswirkungen müssen mit einem räumlich disaggregierten Wirtschaftsmodell analysiert werden. Diese Studie kombiniert kompetitive und kooperative Spielsituationen mit einem ökonomischen Wirkungsmodell und schlägt das spieltheoretische nationale zwischenstaatliche Wirtschaftsmodell (G-NIEMO) vor. G-NIEMO ermittelt, welcher Flughafen im Falle der Abschaltung eines elektronischen Flughafensystems am anfälligsten ist. Anhand der probabilistischen Kosten von Flughafenschließungen identifiziert das Modell die wirtschaftliche Bedeutung der Cybersicherheit nach Veranstaltungsort und Branchentyp. Von G-NIEMO können Gleichgewichtsstrategien zum Schutz der US-Flughafensysteme entwickelt und eine allgemeine Richtlinie zur Bewertung der Ressourcenallokation an US-Regierungsbehörden bereitgestellt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-78021-4_15 9984e3c5678dc25b45ea56779da01fa9;de;;;7.1.;;;Veränderungsmanagement: Umsetzung, Lernen und Kreativität Organisationen sind nie statisch, etwas ändert sich ständig. Es gibt zum Beispiel Umsätze in der Mitgliedschaft, neue Verwaltungsverfahren werden eingeführt oder ein neuer Kunde tritt auf den Plan. Keines dieser Ereignisse ist vollständig in sich abgeschlossen, jedes hat Auswirkungen auf andere Aspekte des Unternehmenslebens. Einige von ihnen resultieren offensichtlich aus Entscheidungen, die innerhalb der Organisation getroffen wurden, einige von ihnen stammen aus Entscheidungen außerhalb und andere scheinen einfach zu passieren. Der gemeinsame Faktor ist, dass wenn sich etwas ändert, egal ob es von Organisationsmitgliedern geplant oder beschlossen wurde oder nicht, es Rückwirkungen haben wird, die von Menschen innerhalb und außerhalb der Organisation unterschiedlich begrüßt, verworfen oder ignoriert werden. Ihre Reaktionen werden wiederum andere Dinge beeinflussen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-22061-8_9 879febd34a6e4f8cd94c36e1dee4a615;de;;;7.1.;;;Eine Fallstudie zur Integration von Unternehmensanwendungen basierend auf einem Workflow-Management-System Das Workflow-Management-System (WFMS) ist ein flexibles Werkzeug für die Integration von Unternehmensanwendungen (EAI). Das EAI-Anbaugerät mit Workflow-Technologie ist günstig und komfortabel. Dies erweitert die Sichtweise von Unternehmen und gibt ihnen die Möglichkeit, ihre Legacy-Anwendungen durch fortschrittliche IT-Technologie zu integrieren. Durch eine Studie zu Umwelt und Strategie von Unternehmen etabliert dieses Papier eine Lösung des EAI basierend auf einem Workflow-Management-System und präsentiert ein EAI-Framework mit einer eingebetteten Workflow-Management-Komponente zur Unterstützung von Business-to-Business-Operationen. Heutzutage ist ein solches System jedoch nicht üblich. Es wird eine Fallstudie zur EAI-Implementierung im Hafen von Tianjin vorgestellt und ein kurzer Überblick über die aktuellen Unternehmensanwendungen und Informationssysteme in diesem Unternehmen wird ebenfalls vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75902-9_46 d0db165edcd02eb81388250ad1769d80;de;;;7.1.;;;Globale optimale Bahnplanung für mobile Roboter basierend auf verbessertem Dijkstra-Algorithmus und Ameisensystem-Algorithmus Basierend auf dem verbesserten Dijkstra-Algorithmus und dem Ameisensystem-Algorithmus wurde eine neuartige Methode zur globalen optimalen Bahnplanung für mobile Roboter vorgeschlagen. Diese Methode umfasst drei Schritte: Der erste Schritt besteht darin, die MAKLINK-Graphentheorie zu verwenden, um das Freiraummodell des mobilen Roboters zu erstellen, der zweite Schritt besteht darin, den verbesserten Dijkstra-Algorithmus zu übernehmen, um einen suboptimalen kollisionsfreien Weg zu ermitteln, und der dritte Schritt besteht darin, den Ameisensystemalgorithmus zu verwenden, um den Ort des suboptimalen Pfads einzustellen und zu optimieren, um den globalen optimalen Pfad für den mobilen Roboter zu erzeugen. Das Computersimulationsexperiment wurde durchgeführt und die Ergebnisse zeigen, dass diese Methode richtig und effektiv ist. Der Vergleich der Ergebnisse bestätigt, dass die vorgeschlagene Methode bei der globalen optimalen Pfadplanung besser ist als der hybride genetische Algorithmus.;-;-;-;https://link.springer.com/article/10.1007/s11771-006-0111-8 01f219c2ca7c659ff90c40344475ce91;de;;;7.1.;;;Erstellung von Prozessplänen aus CAD-Dateien durch KI-Techniken MUMP (MUlti-Methods Planner) ist ein in ESPRIT P865 entwickeltes Werkzeug zum Erstellen von Prozessplanungssystemen für Experten. MUMP ermöglicht die Kombination variantenreicher und generativer Ansätze in der Arbeitsvorbereitung und erkennt die Formmerkmale am Werkstück aus seiner Beschreibung in einem CAD-System. Die Erfahrungen mit der Anwendung des Systems auf den Flugzeugbau haben die Auswahl und Funktionalität der in MUMP zur Verfügung gestellten Techniken und Werkzeuge beeinflusst. Wir geben einen Gesamtüberblick über das System, erläutern die Hintergründe und berichten über die Erfahrungen beim Bau der aktuellen Versuchsversion.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-0705-8_15 27da034cc578b56e7a74b79caaa6a5f7;de;;;7.1.;;;Ein Performance-Management-Framework für das Management nachhaltiger kollaborativer Unternehmensnetzwerke Viele Unternehmen haben Schwierigkeiten zu verstehen, wie Nachhaltigkeit gemanagt werden kann. Dieses Szenario erfordert neue Werkzeuge, die helfen, die notwendigen Informationen zu definieren und zu sammeln, um die Leistung des Netzwerks zu verwalten und gleichzeitig seine Nachhaltigkeit zu gewährleisten. Der Zweck dieses Papiers besteht darin, ein integriertes Performance-Management-Framework vorzustellen, das diese Forschungslücke schließt und hilft, die Nachhaltigkeit des Unternehmensnetzwerks von seiner Strategie bis in seinen Betrieb zu steuern, um ein Instrument für das effizientere und effektivere Management der Nachhaltigkeitsleistung bereitzustellen. Das Framework wurde innerhalb einer Lieferkette für Badezimmermöbel angewendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44745-1_54 abb4fdc9aa68b75de081c899e637adaf;de;;;7.1.;;;Ein Peer-to-Peer-Service zur Unterstützung der Datenqualität: Design- und Implementierungsprobleme Neuere Forschungen haben die Bedeutung von Datenqualitätsproblemen in Umgebungen hervorgehoben, die durch umfangreiche Datenreplikation gekennzeichnet sind, wie beispielsweise kooperative Informationssysteme (CIS). Obwohl eine hohe Datenqualität eine strenge Anforderung an CISs ist, kann der hohe Grad an Datenreplikation, der solche Systeme kennzeichnet, zur Verbesserung der Datenqualität genutzt werden, da verschiedene Kopien derselben Daten verglichen werden können, um Qualitätsprobleme zu erkennen und möglicherweise zu lösen Ihnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30145-5_24 0bb0c776b9367eb5c714bacbd0298bd9;de;;;7.1.;;;Digitale Kompetenzen: Anforderungen an Informationstechnologien im Rahmen „Management Hochschule-Wirtschaft-Wissenschaft-Markt“ Aufgrund des wachsenden Bedarfs an besserem Management bei der Anwendung digitaler Tools wird es sehr wichtig, in Führungskräften die den sich ändernden Bedingungen entsprechenden notwendigen Kompetenzen zu entwickeln. Der Prozess der wirtschaftlichen Digitalisierung ist eine Herausforderung für die Bildung. Die Forschung argumentiert, dass Universitäten auf solche Herausforderungen reagieren sollten, indem sie nicht nur bei den Spezialisten für Informations- und Kommunikationstechnologien, sondern auch bei ihren zukünftigen Führungskräften neue Kompetenzen entwickeln. Dieser Prozess soll Interaktionen zwischen Universitäten, Industrien und Märkten erleichtern. Die Studierenden der Fachrichtung Management müssen sowohl Information Retrieval als auch systemalgorithmisches Denken beherrschen und sogar die ganz spezifischen Fähigkeiten von Programmiersprachen verstehen. Die Autoren argumentieren auch, dass zukünftige Führungskräfte durchaus die Notwendigkeit erkennen, Kompetenzen im Bereich der Informationstechnologie zu beherrschen, was durch die gewonnenen Forschungsergebnisse bestätigt wird. Darüber hinaus zeigen die Autoren, dass einige der Befragten bereits über spezifische Kenntnisse in diesem Bereich und eigene Erfahrungen im Umgang mit komplexen Informations- und Kommunikationsinstrumenten verfügen. Sowohl digitales Wissen als auch notwendige Fähigkeiten für zukünftige Führungskräfte werden von den Autoren in der Arbeit mit Experten und Studierenden identifiziert und zusätzlich als Kompetenzliste zusammengefasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-40749-0_89 342573d89959dfa8c779c25c84eeea35;de;;;7.1.;;;Automatisierung der Arbeit in der Haut- und Allergie-Privatklinik: Eine Fallstudie zur Verwendung einer Bildgebungsdatenbank zur Verwaltung von Patientenakten Heutzutage stehen viele Institutionen und Organisationen aufgrund der enorm zunehmenden Größe von Dokumenten vor ernsthaften Problemen, und dieses Problem löst die Speicher- und Abrufprobleme aufgrund des ständig wachsenden Platz- und Effizienzbedarfs weiter aus. Dieses Problem wird mit der Zeit und der Zunahme der Größe und Anzahl von Dokumenten in einer Organisation komplexer, daher besteht weltweit ein wachsender Bedarf, dieses Problem anzugehen. Diesem Bedarf und dieser Herausforderung kann begegnet werden, indem die enorme Menge an Papierdokumenten mithilfe eines Prozesses in Bilder umgewandelt wird, der es spezialisierten Dokumenten-Imaging-Mitarbeitern ermöglicht, den am besten geeigneten Bildtyp und die am besten geeignete Scanauflösung auszuwählen, wenn die Bilder von Dokumenten gespeichert werden müssen. Dieser Dokumentenverwaltungsprozess versucht, falls angewendet, das Problem des Bildspeichertyps und der Bildgröße bis zu einem gewissen Grad zu lösen. In diesem Beitrag präsentieren wir eine Fallstudie, die einem angewandten Prozess ähnelt, um die Registrierung neuer Patienten in einer Privatklinik zu verwalten und die Nachverfolgung der registrierten Patienten nach der Speicherung ihrer Datensätze in einem Bilddatenbanksystem zu optimieren, also durch diesen Automatisierungsansatz , optimieren wir den Arbeitsprozess und maximieren die Effizienz der Aufgaben der Haut- und Allergieklinik.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-3660-5_34 b07b7b962c45d5ba8fd0900bbe2e55af;de;;;7.1.;;;IT im Shopfloor – Kriterienbasierte Methoden für die Mensch-Maschine-Aufgabenzuordnung Während Entwicklung und Implementierung von Informationstechnologie (IT) von Experten durchgeführt werden müssen, wird die eigentliche Organisationsgestaltung oft dem Zufall überlassen. Im Bereich „Personal“ begnügen sich Veranstalter in der Regel damit, lediglich den Partizipationsgedanken und einen eher diffusen Anforderungs- und Rollenkatalog als Erfolgsweg zu propagieren. Dies garantiert keineswegs, dass die Bedürfnisse der Betroffenen bei Sanierungsprojekten berücksichtigt werden. Innerhalb des Projektteams bestehen die Gefahren von Machtungleichgewichten zwischen verschiedenen Interessengruppen, von Führungsblindheit und von gesellschaftlicher Erwünschtheit motiviertem Verhalten. Hinzu kommt das Problem der Legitimation von Bedarfen und Vorschlägen, wenn aufgrund einer Vielzahl betroffener Arbeitnehmer nur wenige Arbeitnehmer als Vertreter in das Projekt eingebunden;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-60313-6_12 88981a7bb1c23c950f2e74e111dc221e;de;;;7.1.;;;Bewertung der Eignung von Kapazitätsplanungsmethoden für die Festlegung von Lieferterminen: Eine ETO-Fallstudie Das Papier untersucht ein Engineering-to-Order (ETO)-Fertigungsunternehmen. Ein neuartiger Ansatz wird verwendet, um die Eignung von Kapazitätsplanungsmethoden in der Planungsumgebung des Unternehmens und bei der Festlegung von Lieferterminen zu bewerten, die für ETO-Unternehmen von strategischer Bedeutung sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29996-5_31 ea3c5b4a3edbeadf6ec324301a8c3d0a;de;;;7.1.;;;EX-ANTE- und EX-POST-Modellentwicklung und Überwachung des portugiesischen Luftwaffeneinsatzregimes Es gibt mehrere Theorien darüber, wie die Modelle der Unternehmensführung nach unterschiedlichen Perspektiven gestaltet werden können, und es gibt Vor- und Nachteile bei der Annahme jeder von ihnen. Die mehr oder weniger vollständige Dimension in Bezug auf den Anwendungsbereich jedes Modells ist auch ein wichtiger Aspekt bei seiner Verwendung und Offenlegung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16402-6_10 b23b4c6974baa77c5c4103ce3cd42ac1;de;;;7.1.;;;Verwaltung eines Portfolios von Lieferantenbeziehungen in internetgestützten elektronischen Marktplätzen Der korporative Einkauf hat sich vom einfachen Einkauf zum E-Sourcing gewandelt, was bedeutet, dass die Interaktion zwischen Unternehmen von transaktionalen zu relationalen Beziehungen umgewandelt wird. Das folgende Papier stellt den konzeptionellen Rahmen eines Lieferanten-Käufer-Portfolios vor, wenn die Beschaffung über das Internet erfolgt. Die gewählte Perspektive ist das Supply Chain Management. Unterschiedlich zwischen drei Arten von internetgestützten elektronischen Marktplätzen (privat, Konsortien und unabhängiger E-Markt) müssen verschiedene kooperative Geschäftsbeziehungen durch das Angebotsmanagement aufgebaut werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35692-1_16 1bd1b7c9b47ef284daf5a309e78607cc;de;;;7.1.;;;Empirische Forschung zum Produktqualitätsmanagement basierend auf PEM Das Performance-Excellence-Modell (PEM) wird nicht nur verwendet, um die Qualitätsmanagement-Auszeichnung zu überprüfen, sondern auch für die Durchführung der Selbstbewertung, um der Organisation einen großen Sprung zu ermöglichen, der ausgezeichnet ist. Das Papier stellt das Grundprinzip und den Rahmen von PEM vor. Dieser Artikel nimmt PEM am Beispiel einer Wasserpumpenfabrik und analysiert den Bauprozess und die Implementierungsmethode von sechs Systemen. Die sechs Systeme umfassen das Unternehmenskultursystem, das strategische Managementsystem, das Kunden- und Marktmanagementsystem, das Managementsystem, das Prozessmanagementsystem, das Erfolgsmessungs-, Analyse- und Verbesserungssystem. Es fasst die Leistungen des Pumpenunternehmens, bestehende Probleme und die zu beachtenden Angelegenheiten zusammen. Das Beispiel zeigt, dass PEM nicht nur eine wirksame Methode zur Verbesserung des Produktqualitätsmanagements ist, sondern auch die strebende Richtung des kleinen Fertigungsunternehmens, die eine nachhaltige Entwicklung und das Streben nach Exzellenz ist.;-;-;-;https://link.springer.com/chapter/10.2991/978-94-6239-100-0_52 5410902372df12823ba6d069af4376cc;de;;;7.1.;;;Architekturen für wissensbasierte Systeme der zweiten Generation Dieses Kapitel beschäftigt sich mit dem Konzept und Beispielen strukturierter wissensbasierter Systeme. Zunächst wird eine Bewertung der Wissensrepräsentationen der ersten Generation zusammengefasst. Zweitens wird die Rolle von Deep Knowledge zusammen mit den Ansätzen zur Wissensstrukturierung kommentiert, die auf der Wissensniveauspezifikation eines Agenten und dem aufgabenbasierten Ansatz für die symbolische Repräsentation basieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-55681-8_46 0e36292a1c0a1e9c5546f7386dfd0ead;de;;;7.1.;;;Strategische Pfadplanung auf Basis von Risiko vs. Zeit Die Wahl des Weges in einem urbanen Kampfumfeld bestimmt in größerem Maße das Überleben. In diesem Artikel schlagen wir einen Algorithmus vor, der strategische Pfade innerhalb einer Karte mit einer Reihe von Feinden findet, ohne vorgegebene Wegpunkte zu verwenden. Die Berechnung des strategischen Pfads basiert auf der für die Waffen jedes Feindes berechneten Trefferwahrscheinlichkeit und der Risiko-Zeit-Präferenz und erfolgt auf mehreren Abstraktionsebenen, um den Kompromiss zwischen Effizienz und Genauigkeit zu berücksichtigen, und die Berechnung des strategischen Pfads minimiert sowohl Zeit als auch Risiko nach Missionszielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89222-9_9 484a35edbce29a1665c82e9b49f64e6b;de;;;7.1.;;;James and Breasley Ltd James and Breasley Ltd (J & B) ist eine Fallstudie zu Design, Implementierung und Betrieb eines Finanzkontrollsystems. Es untersucht die Budgetkontrolle in einer Fertigungsumgebung und zeigt die technischen, betriebswirtschaftlichen und verhaltensbezogenen Aspekte der Finanzkontrolle. Die Hauptmerkmale werden in diesen Notizen erörtert, aber der Fall ist so reich an Material, dass Lehrer möglicherweise nur bestimmte Themen auswählen oder sogar andere untersuchen möchten, die hier nicht hervorgehoben werden. Zusammengenommen bilden die Fälle A und B eine realistische Grundlage für die Ableitung von Rahmenwerken für Managementkontrollsysteme.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-04018-6_11 3ea4e1dcbb35f50fc1708b2ffa3d25ca;de;;;7.1.;;;Verteiltes Modellmanagement für kollaborative Netzwerke in AEC Projekte in der Baubranche sind äußerst dynamisch, getrieben von äußeren Rahmenbedingungen, veränderten Nutzeranforderungen und häufig wechselnden Geschäftspartnern. Daher sollten in der gesamten Baubranche gemeinsame Prinzipien etabliert werden, die das Management von Bauprojektinformationen und -prozessen flexibel unterstützen. Dieser Beitrag stellt ein Beispiel für dynamische unternehmensübergreifende Prozessplanung, -durchführung und -steuerung auf Konzept- und Anwendungsebene vor. Es basiert auf einem lebenszyklusorientierten kollaborativen Geschäftsprozessmanagementmodell. Das Modell unterstützt die kollaborative Geschäftsprozessmodellierung durch die Verwendung vordefinierter Prozessmodule. Die Anpassung des Modells an die spezifischen Anforderungen des AEC&FM-Bereichs wird am Beispiel des Fehler- und Auslassungsmanagements in Architektur, Ingenieurwesen und Bauwesen (AEC) veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-38269-2_26 8687adc651c85204d5267fa052995459;de;;;7.1.;;;Abschätzung der räumlich-zeitlichen Verteilung von Eisenbahnbenutzern und ihre Anwendung auf die Planung der Katastrophenvorsorge Um Maßnahmen zur Minimierung menschlicher Schäden durch ein verheerendes Erdbeben zu entwickeln, ist es wichtig, die Merkmale der Bevölkerung und ihre räumlich-zeitliche Verteilung in einem städtischen Gebiet zu verstehen. In der vorliegenden Arbeit wird ein Modell konstruiert, das das Routenwahlverhalten und die Umsteigemöglichkeiten von Bahnbenutzern unter Verwendung eines geografischen Informationssystems simuliert. Die räumlich-zeitliche Verteilung der Nutzer wird durch die Anwendung des Modells auf den Großraum Tokio anhand von Daten aus einer Personenreiseerhebung geschätzt. Für die detaillierte Katastrophenvorsorgeplanung werden einige numerische Beispiele gezeigt, die das vorgeschlagene Modell verwenden. Dabei werden insbesondere die Anzahl und die räumlich-zeitliche Verteilung von Menschen mit Schwierigkeiten bei der Heimkehr diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00318-9_12 456639c07133fe0e2eebef38ee36f14e;de;;;7.1.;;;Intelligentes offenes CNC-System basierend auf dem Knowledge-Server-Konzept Im Idealfall intelligenter Werkzeugmaschinen [18] wurde der menschliche Mechaniker fast durch die Steuerung ersetzt. In den letzten zehn Jahren wurden viele Anstrengungen unternommen, um diesem Idealszenario näher zu kommen, aber die Art der Informationsverarbeitung innerhalb der CNC hat sich nicht allzu sehr verändert. Der Beitrag fasst die Anforderungen an eine intelligente CNC zusammen und bewertet die verschiedenen Forschungsanstrengungen in diesem Bereich mit verschiedenen Methoden der künstlichen Intelligenz (KI). Im zweiten Teil des Beitrags wird ein kostengünstiges Konzept für intelligente Systeme namens Knowledge Server for Controllers (KSC) vorgestellt. Es ermöglicht mehr Geräten, ihre intelligenten Verarbeitungsanforderungen zu erfüllen, indem sie denselben Server verwenden, der intelligente Daten verarbeiten kann. Im letzten Teil wird dieses Konzept in einer offenen CNC-Umgebung verwendet, um eine intelligente CNC aufzubauen. Auch die vorläufigen Ergebnisse der Umsetzung werden vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35492-7_33 7b7688d7a216f740ffc2f64661962171;de;;;7.1.;;;Design und Implementierung von Collaboration Support in Virtual Experiment Environment In einer virtuellen Experimentierumgebung ist es sehr wichtig, dass Benutzer zusammenarbeiten können, um ein Experiment durchzuführen. Basierend auf der Kombination von Kollaborationstechnologie und virtuellem Experiment hat das Papier eine Plattform zur Unterstützung der Kollaboration vorgeschlagen. In der Plattform bilden alle Benutzer, die kollaborieren werden, eine Gruppe, in der ein Hauptbenutzer existiert. Bei der Zusammenarbeit erstellt der Master-Benutzer Pakete, die Operationen des Master-Benutzers enthalten und über den Anwendungsserver an andere Benutzer sendet. Die anderen Benutzer können die Operationen in ihrem Terminal wiederherstellen. Der Anwendungsserver sorgt für die Synchronisation der Kollaboration. Gemäß der Analyse der laufenden Instanz weist das Kollaborationssystem eine dynamische Anpassungsfähigkeit und Verteilung von Kollaborationsfähigkeiten auf und löst effizient das Problem der Ressourcenteilung und Planung in der virtuellen Experimentierumgebung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17407-0_43 a7af378ebc286dd10eeac33cab74e1b1;de;;;7.1.;;;Forschung zur Systemdatenaustauschmethode von CITIS für CALS Dieses Papier untersucht die wichtigsten Informationsdienste und Datenaustauschfunktionen von CITIS (Contractor Integrated Technical Information Service) für CALS (Continuous Acquisition and Lifecycle Support), schlägt die Möglichkeit und den Vorteil des Datenaustauschs von CITIS mit der Technologie von Web Service vor und entwickelt mit dieser Technologie ein Prototypsystem für den Systemdatenaustausch von CITIS. Dieses System kann einen Datenaustausch zwischen Anwendungssystemen, heterogenen Betriebssystemen und Datenbanken erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-76312-5_17 e8acf88c474e77bb85eafb4c2a7b6549;de;;;7.1.;;;Analyse der IT-Flexibilität, um dynamische Fähigkeiten zu ermöglichen Die Fähigkeit, auf Veränderungen zu reagieren, ist ein ständiges Anliegen in der Informationssystemtechnik. Die Entwicklung flexibler und anpassungsfähiger IT-Lösungen ist aufgrund der Schwierigkeiten bei der Identifizierung und Vorhersage von Anpassungsbedarfen, die durch Umweltveränderungen und die Wettbewerbsposition von Unternehmen beeinflusst werden, eine Herausforderung. In diesem Beitrag greifen wir auf Theorien des strategischen Managements zurück, insbesondere auf Konzepte dynamischer Fähigkeiten, die mit nachhaltigem Vorteil umgehen, um Unternehmensanforderungen zu identifizieren und abzubilden. Diese Forschung ermöglicht die Analyse der Unternehmenstransformation durch die Modellierung der Kopplung und Ausrichtung zwischen IT- und Organisationsfähigkeiten unter Verwendung des i*-Frameworks. Potenzielle Inflexibilitäten und Auswirkungen von Veränderungen werden mit der Analyse von Abhängigkeitsausbreitungen untersucht. Ein hypothetischer Fall, der Erfahrungen aus SOA- und BPM-Implementierungen verwendet, demonstriert die Verwendung der vorgeschlagenen Modellierungskonstrukte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19243-7_5 50ffafc4f5f3457a1e5c8fb9f0d4ddbb;de;;;7.1.;;;Verwalten von Informationen mit Fuzzy Reasoning System in Design Reasoning und problembasierter Argumentation Design durch Argumentation ist ein natürlicher Charakter von Gestaltungsprozessen mit gesellschaftlicher Beteiligung. Issue-Based Information System (IBIS) ist ein Informationsrepräsentationssystem basierend auf einer strukturierten Datenbank. Es bietet eine hierarchisch verknüpfte Datenbankstruktur, um Designinformationen zu verwalten und Design durch Argumentation zu erleichtern. In diesem Artikel untersuchen wir die Verbesserung von IBIS mit der FRS-Technologie (Fuzzy Reasoning System). Der FRS fügt der Datenbank von IBIS rechnerisch implementierte dynamische Links hinzu. Solche dynamischen Verknüpfungen können logische Beziehungen und Argumentationsoperationen zwischen verwandten Themen darstellen, was eine weitere Klärung der Beziehungen zwischen Themen in IBS ermöglicht. Das verbesserte System stellt einen allgemeinen Rahmen bereit, um Konstruktionsinformationen zu verwalten und Konstruktionsschlussfolgerungen zu unterstützen, was wiederum zur maschinengestützten Konstruktion beiträgt. Das endgültige Ziel besteht darin, ein System zu formulieren, das Designwissen darstellen und die Argumentation in der Designanalyse unterstützen kann. Das System kann Konstrukteuren dabei helfen, konstruktionsbezogene Fragen und Anforderungen zu klären und zu verstehen und potenzielle Konstruktionsalternativen zu bewerten. Um das System und seine Einsatzmöglichkeiten zu demonstrieren, untersuchen wir ein von Schon präsentiertes Designexperiment erneut und repräsentieren mit unserem System FRS-IBIS das Designwissen und die Denkregeln der Architekten.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-5576-2_56 e2c0f3b6bd4faa70a8436050b8987f72;de;;;7.1.;;;Ein Ansatz zur Erstellung und Verwaltung von Enterprise Blueprints: Ein Fall für IT Blueprints Eine wichtige Rolle der Unternehmensarchitektur zielt auf die Modellierung von Unternehmensartefakten und deren Beziehungen ab, die von übergeordneten Konzepten bis hin zu physischen Konzepten wie Kommunikationsnetzwerken und Unternehmensstandorten reichen. Bekanntlich entwickeln sich diese Artefakte sowie ihre Beziehungen im Laufe der Zeit. Die dynamische Natur solcher Artefakte war nicht nur eine Schwierigkeit bei der Modellierung, sondern auch bei der Aktualisierung von Unternehmensplänen. Dieser Beitrag stellt unseren Ansatz zum Umgang mit Blueprints der Enterprise Architecture vor, basierend auf mehreren Jahren und Projekten in großen Organisationen, sowohl in der Finanz- als auch in der Telekommunikationsbranche.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01915-9_6 80cf0903ee0c2843ec789e2dba68a956;de;;;7.1.;;;Abruf privater Informationen mit sublinearer Online-Zeit Wir präsentieren die ersten Protokolle zum Abruf privater Informationen, die schnelle (sublineare) Datenbanksuchvorgänge ermöglichen, ohne die serverseitigen Speicheranforderungen zu erhöhen. Um diese Effizienzziele zu erreichen, arbeiten unsere Protokolle in einem Offline-/Online-Modell. In einem (n;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-45721-1_3 7e24b55c16602ec50d0423388307c61c;de;;;7.1.;;;Wissensmodellierung in Fuzzy-Expertensystemen Die Mehrheit der derzeitigen wissensbasierten Systeme/Expertensysteme (KBS/ES), Entscheidungsunterstützungssysteme (DSS) und Managementinformationssysteme (MIS) folgten dem traditionellen Muster, nur mit klar definierten, nicht unscharfen (harten) Problemen umzugehen Situationen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-18579-8_15 ab373e88944d707313a0d74b7c8e19d9;de;;;7.1.;;;Ein Mediationsinformationssystem zur Koordinierung der Reaktion auf eine Krise In einer Krisensituation müssen mehrere heterogene Akteure in Eile zusammenarbeiten, um die Krise zu lösen oder zumindest zu reduzieren. Ihre Koordination und der Informationstransfer zwischen ihnen in einem solchen Kontext sind ein entscheidender Punkt. Leider wurde der Mangel an Koordination und Zusammenarbeit oft als eine der Hauptschwächen der humanitären Krisenreaktion hervorgehoben. Um die Zusammenarbeit aller Akteure zu unterstützen, zielt das ISyCri-Projekt darauf ab, ein Informationssystem bereitzustellen. Dieses System muss für (i) Informationsaustausch, (ii) gemeinsame Nutzung von Diensten und (iii) Verhaltensorchestrierung zuständig sein. Dennoch ist eine Krise per Definition ein evolutionäres Phänomen. So wird eine Panel-Steuerung vorgestellt, um zu erkennen, wann das System aufgrund der Entwicklung der Situation geändert werden muss. In diesem Beitrag soll anhand eines Beispiels der Ansatz der Systemerstellung und des Control Panels vorgestellt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15961-9_20 cdfd802c97d61bd5fbecc56d818c59bf;de;;;7.1.;;;IS-Projekte „antreiben“ Anhand einer didaktischen Autofahr-Metapher beschäftigt sich dieser Beitrag mit einer proaktiven Art, Projekte mit hoher Unsicherheit zu „fahren“. Die zentrale Bedeutung von Problemkomplexität und Problemunsicherheit wird demonstriert, deren Zuordnung zur menschlichen Kognition überprüft und die Autofahren-Metapher als „fahrendes“ Projektmanagement entwickelt. Die MadPRYX-„Suite“ entwickelt didaktische Autofahrmodelle und praktische Scoreboard-Metriken auf der Suche nach einem erfolgreichen Gleichgewicht von;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09682-7-9_9 846fbf5447845d4e95bbf116a1dd6b91;de;;;7.1.;;;Supply Chain Management von Blutbanken Das Kapitel beginnt mit einem strategischen Überblick über die Lieferkette von Blutbanken. Anschließend stellen und beantworten wir Fragen zu (i) welchen Blutbankfunktionen an welchen Standorten durchgeführt werden sollen, (ii) welche Spenderbereiche und Transfusionsdienste welchen Gemeindeblutzentren zugeordnet werden sollen, (iii) wie viele Gemeindeblut community Zentren sollten sich in einer Region befinden, (iv) wo sie sich befinden und (v) wie Angebot und Nachfrage koordiniert werden sollten. Dann werden die vielen taktischen betrieblichen Probleme bei der Blutentnahme, der Herstellung mehrerer Produkte, der Festlegung und Kontrolle von Lagerbeständen, der Zuteilung von Blut an Krankenhäuser, der Lieferung an mehrere Standorte und der optimalen Entscheidungen über die Ausgabe, Kreuzprobe und Freigabe von Blut und Blutprodukten vorgestellt. Das Kapitel schließt mit Bereichen für zukünftige Forschungen.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-8066-2_5 b286802d0553f828bacc61f8c2c1af0c;de;;;7.1.;;;Entwicklung der Informationstechnologie im Bildungswesen in Hongkong in den letzten zehn Jahren In den frühen 1980er Jahren wurde Computer Eeukation als neues Unterrichtsfach in Hongkonger Schulen eingeführt. Fast alle Sekundarschulen bieten heute den Schülern der Mittelstufe (im Alter von 12 bis 14 Jahren) Computerkenntnisse und den Schülern der Oberstufe (15 bis 16 Jahre) Computerunterricht an. Computer wurden weder im Curriculum noch im Bereich CAL/CAI (computergestütztes Lernen/Unterrichten) eingesetzt. Hongkong hat sich von einer Entwicklungsphase zu einer Popularisierungsphase beim Einsatz von Informationstechnologie entwickelt, um Schulen in Verwaltung und Management zu unterstützen. In der Entwicklungsphase von über einem Jahrzehnt produzierten einzelne Schulen unkoordiniert ihre eigene Computer-Assisted School Administration (CASA)-Software. Die Popularisierung begann 1993, als die Regierung von Hongkong einen zentralisierten Ansatz zur Einführung des Schulverwaltungs- und Verwaltungssystems (SAMS) in etwa 1300 Schulen einführte. Schulen werden demnächst von der Regierung Zugang zum Internet erhalten. Ob bewusst ein Capacity Building für die IT in Hongkong geplant wurde, ist fraglich. Eine wichtige Frage ist, ob dieser Weg unvermeidlich ist, wenn Entwicklungsländer ihre IT-Kapazitäten im Bildungsbereich aufbauen, oder ob es Quantensprünge geben könnte, die die Anfänge und Anfänge früherer Umsetzer umgehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35195-7_7 432a67d6d94e7637184ce9f2b2e4e2b8;de;;;7.1.;;;Prozessbasierte Grundlagen Kapitel 6 führt Konzepte des globalen Geschäftsprozesses, des Geschäftsprozessdesigns, der Neugestaltung von Geschäftsprozessen und des Geschäftsprozessmanagements ein, um eine prozessbasierte Sicht der globalen Betriebsstrategie zu präsentieren und die Hauptprozesse der globalen Betriebsstrategie vorzustellen. Zuerst diskutieren wir die globale Lieferkettenstrategie, einschließlich ihrer Konzepte, globale Beschaffungsstrategie, globale interne Lieferkettenstrategie, globale Vertriebsstrategie, globale Lieferkettenkoordination, globale strategische Allianzen für Lieferketten und globale nachhaltige Lieferkettenstrategie. Zweitens stellen wir Konzepte der globalen Revenue-Management-Strategie vor, stellen ihren sich global entwickelnden Prozess vor und diskutieren Strategien für das globale Revenue-Management. Drittens diskutieren wir die globale Technologiestrategie, einschließlich ihrer Konzepte, der globalen Produktentwicklungsstrategie, der F&E-Internationalisierungsmodi, der globalen F&E-Koordination und -Kommunikation, der globalen F&E-Sourcing-Strategie und der Technologiestrategien für einen globalen nachhaltigen Betrieb. Schließlich diskutieren wir die globale Risikomanagementstrategie, einschließlich ihrer Konzepte, grundlegenden operativen Strategien, grundlegenden Ansätze und des Rahmenwerks für das operationelle Risikomanagement. In diesem Kapitel verwenden wir Fallbeispiele wie Etam Distribution Center, Global Supply Chain of H&M, SkyTeam Alliance, Microsoft Research Worldwide, Mattels Global Risks and Supply Chains und einen Fall Tiffany, um prozessbasierte Grundlagen zu veranschaulichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36708-3_6 bb8ba5a1e2f80805ff6d5cd748a88406;de;;;7.1.;;;Ontologie-basierte Interoperabilitätslösungen für die textile Lieferkette Die Interoperabilität innerhalb der Unternehmen ist für die textile Lieferkette unerlässlich, um den Herausforderungen der heutigen Wettbewerber effizient zu begegnen, neue Geschäftsmöglichkeiten zu finden und einen besseren Kundenservice zu bieten. Durch den semantisch konsistenten Austausch von Geschäftsdokumenten wird Interoperabilität erreicht. Allerdings stellt die Heterogenität der Unternehmensstrukturen Herausforderungen an die Herstellung der Interoperabilität. Ontologie-basiertes semantisches Interoperabilitäts-Framework hat sich nun als effektive Lösung für die Unternehmens-Interoperabilität erwiesen. In diesem Beitrag wurden die bestehenden ontologiebasierten Interoperabilitätslösungen im Kontext der textilen Lieferkette zusammengestellt und Forschungslücken identifiziert. Die ontologischen Methoden wie Unified Process for Ontology (UPON) und Methontology wurden analysiert und UPON als geeignete Ontologieentwicklungsmethode für die textile Lieferkette gezeigt.;-;-;-;https://link.springer.com/article/10.1007/s40436-014-0073-2 4703562be976afc15270e53d32f8df12;de;;;7.1.;;;Projektmanagement in internationalen IT Ventures – Geht die Praxis Hand in Hand mit der Theorie? IT-Lösungen bieten internationalen und globalen Unternehmen effektive Mittel, um lokale Abläufe zu koordinieren und den Fluss wichtiger Informationen und Kenntnisse über nationale Grenzen hinweg zu erleichtern. Das Papier konzentriert sich auf die Herausforderungen des Projektmanagements bei der Entwicklung einer eigenen IT-Lösung durch ein multinationales Facility-Management-Unternehmen – die SESCOM-Gruppe. Das Ziel des Papiers ist es, Ineffizienzen in Bezug auf Entwicklungsunterzyklen der Lösungen innerhalb des in der SESCOM-Gruppe eingeführten agilen Geschäftsprozessmanagementmodells festzustellen. Die Forschung umfasst den Ansatz der partizipativen Aktionsforschung (PAR), der Einblicke in die aktuelle Situation des Unternehmens bietet, wie sie von allen am Forschungsprozess beteiligten Stakeholdern in der Phase der Basisanalyse dargestellt wird, und zeigt Diskrepanzen zwischen Praxis und Theorie auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-46642-2_10 8c113a73d4147137fd50661d8e2c71c6;de;;;7.1.;;;SousChef: Verbessertes System zur Empfehlung von Mahlzeiten für ältere portugiesische Erwachsene Kontinuierliche Bemühungen, die Relevanz und Wirksamkeit von Ernährungsempfehlungen zu erhöhen, sind unerlässlich, um langfristige biologische Wirkungen zu fördern. Mehrere Studien weisen darauf hin, dass ältere Erwachsene oft Schwierigkeiten haben, die richtigen Entscheidungen in Bezug auf die Zubereitung von Mahlzeiten, eine gesunde Ernährung oder den Lebensmitteleinkauf zu treffen. In dieser Arbeit werden Forschungsergebnisse zu Nutzerbedürfnissen vorgestellt, bei denen verschiedene Interessengruppen zu ihren Bedürfnissen und Perspektiven im Bereich der Ernährung älterer Erwachsener angehört wurden. Darüber hinaus wird hier eine verbesserte Version von SousChef, einem Essensempfehlungssystem, vorgestellt, bei dem neue Heuristiken dem System hinzugefügt wurden und die Benutzer nun zwischen 4 bis 6 Mahlzeiten pro Tag wählen können. Da neben Ernährung und Lebensmittelpräferenzen ein weiterer wichtiger Faktor Auswirkungen auf die Lebensmittelauswahl hat, wurden neue Heuristiken in Betracht gezogen, um Verschwendung zu reduzieren und die Einkaufsliste zu verkürzen. Außerdem wurden dem System neue Heuristiken hinzugefügt, um die portugiesischen Ernährungsrichtlinien und Informationen über Lebensmittelpreise besser widerzuspiegeln, um Abfall zu reduzieren und die Einkaufsliste zu verkürzen. Die Ernährungsempfehlungen und die Anwendung wurden für ältere Erwachsene konzipiert und entwickelt, bieten freundliche Benutzeroberflächen und folgen den Richtlinien eines Ernährungsberaters.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-93644-4_6 3e9173bdcaea1770c1b726d122647030;de;;;7.1.;;;Modernisierung kleiner Hersteller in den USA und Japan: Öffentliche technologische Infrastrukturen und Strategien Obwohl sich die Vereinigten Staaten und Japan in vielen Aspekten der Industrie- und Technologiepolitik unterscheiden, teilen sie in den letzten Jahren eine zunehmende Besorgnis über die Modernisierung und technologische Aufrüstung kleiner und mittlerer Fertigungsunternehmen (KMU).;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-8739-6_11 7c95e7e862903280b43807eb7b95e1cc;de;;;7.1.;;;Innovation und Standardisierung im Bereich der Informationssysteme Dieser Bericht präsentiert die Ergebnisse eines Workshops, der im Rahmen der Arbeitskonferenz der IFIP-Arbeitsgruppe 8.1 an der Universität Leiden, Niederlande, vom 20. bis 22. September 1999 stattfand;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35500-9_28 093d667248018940e26ca6b81c4f46d1;de;;;7.1.;;;Entwicklung wertorientierter Geschäftsmodelle für Mobile Government Dieses Papier schlägt ein wertorientiertes Geschäftsmodell (BM)-Framework und einen Entwicklungsprozess zum Aufbau geeigneter Geschäftsmodelle vor, um die Planung, Implementierung, den Betrieb und die Bewertung von Mobile-Government-(MG)-Anwendungen zu unterstützen. MG-Stakeholder, Werte, Systeme, Dienstleistungen, Ressourcen, Kosten, Leistungen sowie Strategien und Aktionspläne sind als im BM-Framework festzulegende Komponenten enthalten. Um die Ziele der Wertschöpfung für alle beteiligten Parteien im Umfeld von Mobile Government zu erreichen, werden vier Stakeholder- und Wertperspektiven berücksichtigt: öffentliche Begünstigte, staatliche interne Organisationen, staatliche Dienstleistungskette sowie Gesellschaft und Nation. Basierend auf dem BM-Framework und den Wertedimensionen kann ein Geschäftsmodell erstellt werden, indem Werte, Ziele, Systeme, Dienstleistungen und Leistungskennzahlen für alle Stakeholder identifiziert und strukturell verknüpft werden. Um die Einführung und Bewertung von Mobile-Government-Programmen auf der Grundlage eines wertezentrierten Geschäftsmodells zu steuern und zu erleichtern, wird eine adaptive Balanced Scorecard (BSC) mit anderen Methoden und Instrumenten verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44426-9_27 5edbaa829748967f15db5a806e2bd344;de;;;7.1.;;;Reengineering und Fertigung von Geschäftsprozessen Die Möglichkeit, Aufgaben elektronisch zu verknüpfen, kann sowohl Kosten senken als auch den Kundenservice verbessern, hauptsächlich aufgrund der Tatsache, dass weniger Übergaben erforderlich sind und die Arbeit in Arbeit reibungslos durch das System läuft. Die unfertige Arbeit kann ein hergestellter Artikel oder die Informationen sein, die zur Unterstützung der physischen Umwandlungsaktivitäten erforderlich sind. Diese Informationsprozesse werden manchmal als Verwaltungsprozesse bezeichnet und können den Großteil der Ausgaben des Unternehmens widerspiegeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-1705-4_5 3fe9f15cedb042ac413bc96fbd2f4295;de;;;7.1.;;;Wissen als Leitgedanke in der Organisation internationaler Marketingabteilungen in Dienstleistungsunternehmen Die Internationalisierung der Märkte bietet für die meisten Unternehmen, auch für Dienstleistungsunternehmen, enorme Entwicklungspotenziale. Globale Chancen entstehen nur, wenn Marketingteams in der Lage sind, internationale Zusammenhänge zu verstehen und spezifische Angebote für Kunden anzupassen und zu positionieren. Es ist jedoch allgemein bekannt, dass die Organisation von Marketingabteilungen in Unternehmen eine Herausforderung darstellt, insbesondere wenn internationale Fragen berücksichtigt werden müssen. Marketingstrukturen werden in der Regel unter Berücksichtigung der fünf Dimensionen Organisation, Funktionsteilung, Geografie, Produktpalette und Kundenspezifika gestaltet. Die Marketingfunktion hat jedoch kürzlich einen neuen Rahmen entwickelt, indem sie den Schwerpunkt auf wichtige Perspektiven wie Marketingorientierung, Markenorientierung, E-Marketing und CRM gelegt hat. Diese Dimensionen haben zu einer Neudefinition der Struktur internationaler Marketingorganisationen geführt.;-;-;-;https://link.springer.com/chapter/10.1057/9780230274013_16 e3078d3d4be0de63f22d7aa145ba8415;de;;;7.1.;;;Der Capability-Management-Prozess: Den Weg ins Capability Engineering finden Unternehmen erreichen ihre Ziele durch die Umsetzung von Strategien. Die erfolgreiche Strategieumsetzung wird von Herausforderungen beeinflusst, denen sich ein Unternehmen stellen und meistern muss. Unternehmen benötigen spezifische Fähigkeiten, um Strategien effektiv umsetzen und gewünschte Ergebnisse erzielen zu können. Damit wächst die Nachfrage nach einem systematischen Capability-Management-Ansatz. In diesem Kapitel wird daher ein allgemeiner Prozess zum Identifizieren, Verbessern und Aufrechterhalten von Fähigkeiten in einem Unternehmen vorgestellt. Dies basiert auf einem integrierten Fähigkeitsansatz, der aus einer Reihe von Untersuchungen der letzten Jahre resultiert. Der aus vier Bausteinen bestehende Prozess des Fähigkeitsmanagements stellt einen flexiblen „Engineering“-Ansatz für Entwickler und Designer von Funktionskatalogen dar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-14571-6_5 e5f2995655bdb45f8f2a32c93fc2aa6b;de;;;7.1.;;;Wissensbasierte Praktiken im Katastrophenmanagement: Entwicklung zum digitalen Humanismus Während neue innovative und disruptive Technologien bestehende Technologien obsolet machen und in vielen Lebens- und Unternehmensbereichen organisatorische Neu- und Umbaumaßnahmen erforderlich machen, bleibt auch der Bereich des Katastrophenmanagements, insbesondere der Katastrophenvorsorge, nicht isoliert von den positiven Veränderungen, die die Transformationsfähigkeit der Digitalisierung mit sich bringt. Ein Mangel an behördenübergreifender Zusammenarbeit und Koordinierung beim Katastrophenrisikomanagement kann dies jedoch behindern. Die Eindämmung von Katastrophen wie Überschwemmungen erfordert ein hohes Maß an Zusammenarbeit zwischen mehreren Agenturen mit Spezialwissen in verschiedenen Disziplinen, die auf dasselbe Ziel hinarbeiten. Dieses Papier schlägt einen konzeptionellen Rahmen für eine digitalisierte wissensbasierte Kollaborationsplattform vor, die den digitalen Humanismus betont, der die Fähigkeit besitzt, die Zusammenarbeit mehrerer Behörden effektiv, schneller und kostengünstiger in Richtung einer größeren Wissensgenerierung und eines besseren gegenseitigen Verständnisses zu transformieren. Die Idee ist, den Menschen in den Mittelpunkt der Bemühungen zur Risikominderung zu stellen. Auf diese Weise würde das Gesamtbild der Digitalisierung die Unternehmenskultur und die Perspektive der Menschen berücksichtigen, um KM-Mechanismen wie Communities of Practices (CoPs) und andere wissensbasierte Praktiken zu ermöglichen, die eine effektive Interaktion und Zusammenarbeit zwischen Experten, Praktikern und Forschern ermöglichen würden. Dieses Papier leistet einen Leitfaden für Praktiker, um nicht nur erfolgreich ein wissensbasiertes Katastrophenmanagement zu implementieren, sondern auch die Ergebnisse für die öffentliche Sicherheit und eine größere Widerstandsfähigkeit der Gemeinschaft in diesem digitalen Zeitalter sicherzustellen. Dementsprechend ist der resultierende Rahmen als nützlicher Leitfaden gedacht, um auf die theoretischen Grundlagen des Konzepts von Informationssystemen, Wissensmanagement (WM) aufmerksam zu machen und das Zusammenspiel zwischen diesen und den Zielen des Katastrophenmanagements zu verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-68133-3_2 da7cfabfed6082042f02b503e84d5d89;de;;;7.1.;;;Gemeinsame Dienste in der irischen Kommunalverwaltung Dieses Papier untersucht die Nachfrage nach IKT-Shared-Services in der irischen Kommunalverwaltung, warum die Nutzung bisher so begrenzt war und welche Hindernisse für die Einführung historisch und heute bestehen. Die Untersuchung zeigt, dass von allen lokalen Gebietskörperschaften eine offensichtlich große Nachfrage nach gemeinsam genutzten IKT-Diensten besteht, dass die Inanspruchnahme jedoch in der Praxis gering ist und lokale Lösungen stärker als nationale Angebote bevorzugt werden. Eine Reihe von Hindernissen für die Adoption werden identifiziert und diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33489-4_10 761598798aab1fa23531a2d6ef7abc60;de;;;7.1.;;;Symbolische Prozesse in ERP versus Altsystemnutzung Es ist nicht verwunderlich, dass Enterprise Resource Planning (ERP)-Systeme um die Jahrhundertwende von mehr als 60 Prozent der Fortune-500-Unternehmen eingeführt wurden, da sie die Fähigkeit haben, ein effektives Business Reengineering und Management von Kern- und Supportprozessen zu fördern. Im Gegensatz dazu wurden Altsysteme häufig negativ konnotiert. Gleichzeitig ist es allgemein bekannt, dass manche Altsysteme nicht ersetzt werden, wenn Unternehmen ERP-Lösungen einführen, während weiterhin neue interne Systeme entwickelt werden. Während Risiken und Zeitaufwand als mögliche Gründe für den Nicht-Ersatz von Altsystemen hervorgehoben wurden, wurde den Prozessfragen sowie der symbolischen Bedeutung des ERP gegenüber den anderen koexistierenden Informationssystemen wenig Aufmerksamkeit geschenkt.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-8095-6_49 c0e9bdec9a380f018c1d16369996a8c5;de;;;7.1.;;;Implementierungsstrategien für die ERP-Einführung durch KMU ERP-Systeme gelten im aktuellen Geschäftsumfeld als geschäftskritische Informationssysteme. Die Einführung von ERP sollte nicht allein durch die Größe einer Organisation behindert werden. Die Hauptziele dieses Papiers sind die Erläuterung der verschiedenen Strategien, die Enterprise Resource Planning (ERP)-Anbieter entwickelt haben, um kleine und mittlere Unternehmen (KMU) zur Einführung ihrer Produkte zu ermutigen. Diese Strategien konzentrieren sich auf Lösungen wie vorkonfigurierte Lösungen, Implementierungsmethoden und Hosting-Optionen. Um diesem Ziel gerecht zu werden, werden in diesem Beitrag exemplarisch zwei Fallstudien herangezogen, die die Erfahrungen von Unternehmen aufzeigen, die diese strategischen Optionen genutzt haben. Basierend auf der vorhandenen Literatur wurden auch die Hürden bei der Einführung von ERP-Systemen in KMU diskutiert. Eine Diskussion über die Implementierungshindernisse ist enthalten, um zu erklären, wie Unternehmen eine effektive ERP-Systemimplementierung vorbereiten und planen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35594-3_30 614891de343ecf820522597da4dd424d;de;;;7.1.;;;Ressourcenmanagement und Signalisierungsarchitektur eines hybriden Multicast-Dienstes für die Multimedia-Verteilung Dieses Papier entwickelt eine Architektur und Designelemente für ein Ressourcenmanagement und ein Signalisierungssystem weiter, um den Aufbau und die Wartung eines mittelfristigen hybriden Multicast-Baums für Multimedia-Verteilungsdienste auf QoS-garantierte Weise über mehrere IP-Domänen hinweg zu unterstützen. Das als E-Cast bezeichnete System besteht aus einem Overlay-Teil – in Inter-Domain und möglichen IP-Level-Multicast in Intra-Domain. Jeder E-Cast-Baum ist einer gegebenen QoS-Klasse zugeordnet und besteht aus Unicast-Pipes, die durch Verhandlungen der Service-Level-Spezifikation zwischen den Domänenmanagern eingerichtet werden. Das Papier setzt eine frühere Arbeit fort, indem es ein Inter-Domain-Signalisierungssystem vorschlägt, um die Multicast-Verwaltungs- und -Steuerungsoperationen zu unterstützen, und dann das Ressourcenmanagement für Baumkonstruktions- und Anpassungsverfahren definiert, um die erforderlichen statischen und dynamischen Eigenschaften des Baums sicherzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87359-4_5 0fdedd011d057f34f0ff3a1c7258152d;de;;;7.1.;;;Anforderungen an die Netzwerkverwaltung für die drahtlose Kommunikationsumgebung Während der Mobilfunkmarkt reift und in die Ära der persönlichen Kommunikation eintritt, wird den Benutzern eine aufregende Reihe neuer, globaler Sprach-, Daten-, Video- und Multimediadienste präsentiert. Anbieter dieser Dienste werden es schwer haben, neue und teure Technologien zu nutzen und qualitativ hochwertige Dienste zu Preisen anzubieten, die wirtschaftlich genug sind, um die große Kundenbasis anzuziehen, die diese Dienste rentabel machen würde. Dies impliziert, dass viele verschiedene Netzwerkressourcen optimal genutzt und verwaltet werden müssen. Dienstanbieter müssten ihr gesamtes Netzwerk auf integrierte End-to-End-Weise mit minimalem technischen Personal und Fachwissen verwalten. Ein intelligentes Echtzeit-Netzwerkmanagement (NM) wird daher für die Realisierung und Lebensfähigkeit von Personal Communication Services immer wichtiger. In diesem Artikel wird das Netzwerkmanagement für diese neu entstehenden Dienste im Vergleich zu aktuellen drahtgebundenen (d. Wir werden NM sowohl im AMPS- als auch im GSM-Standard vergleichen und die NM-Anforderungen zukünftiger drahtloser Technologien untersuchen. Wir schließen mit unserer Einschätzung der Richtungen, die NM in den nächsten Jahren einschlagen wird.;-;-;-;https://link.springer.com/article/10.1007/BF02141602 e577af67540523b2b1ea03446ad94b06;de;;;7.1.;;;Erfassung von Verzögerungen und gültigen Zeiten in Data Warehouses – für zeitnahe konsistente Analysen Änderungen der realen Welt werden im Allgemeinen von Computersystemen verzögert entdeckt. Die typischen Aktualisierungsmuster für traditionelle Data Warehouses über Nacht oder sogar wöchentlich erhöhen diese Ausbreitungsverzögerung, bis die Informationen den Wissensarbeitern zur Verfügung stehen. In der Regel konzentrieren sich herkömmliche Data Warehouses auf zusammengefasste Daten (auf einer bestimmten Ebene) und nicht auf detaillierte Daten.;-;-;-;https://link.springer.com/article/10.1023/A%3A1016555410197 2f9bb9669a68924dce3a00ea11d79e2a;de;;;7.1.;;;Modellierung von Aktionen in dynamischen Konstruktionsprozessen Der Beitrag stellt den Ansatz zur Modellierung von Aktionen in den dynamischen Prozessen des Engineering-Designs im Bereich der Mikroelektronik und integrierten Schaltungen vor. Es erarbeitet den formalen Rahmen zur Darstellung von Prozessen, der Zustände dieser Prozesse und Prozessumgebungen, wobei die Aktionen die Bestandteile der Prozesse sind. Das vorgestellte Framework ist als Teil der PSI-Suite von Ontologien implementiert und wird mit drei verschiedenen Methoden bewertet: Benutzerbewertung, formale Bewertung und Commonsense-Bewertung nach der PSI-Shaker-Modellierungsmethodik. Die Suite von PSI-Ontologien wird verwendet, um dynamische Konstruktionsdesignprozesse in Cadence Project Planning Expert System-Softwareprototypen darzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01112-2_14 94b3dfa04cdd09928189a91ad6043345;de;;;7.1.;;;Fortschritte bei der urbanen Mobilität durch innovative datengesteuerte Modelle In diesem Kapitel werden aktuelle Erfahrungen mit offenen Daten aus verschiedenen Städten vorgestellt, um Wissen über verschiedene Aspekte der Mobilität in städtischen Gebieten zu extrahieren und zu strukturieren. Die meisten von ihnen sind Curitiba, Brasilien, gewidmet, einer großen Stadt in Südbrasilien, die seit den 1960er Jahren als innovativ in Stadtplanung und Verkehr gilt. Für die Modellierung der Mobilität aus offenen Daten kommen drei Ansätze in Betracht: komplexe Netzwerkmodelle, Link-Stream-Modelle und die Berechnung von Ursprung und Ziel im Transport und Verkehr von Fahrzeugen. Komplexe Netzmodelle von Verkehrssystemen offenbaren Strukturen, die Verkehrsmuster charakterisieren. Links-Stream-Modelle erfassen das zeitliche Verhalten von Transportsystemen und liefern Informationen über Staus, Umsteigen von Fahrgästen und Bündelungsphänomene. Darüber hinaus werden in diesem Kapitel Ansätze zur Charakterisierung von Herkunfts- und Zielorten im öffentlichen und privaten Verkehr untersucht. Basierend auf Daten aus dem Chipkarten-Ticketing im öffentlichen Personennahverkehr werden relevante Informationen über Personen gesammelt, die zu verschiedenen Tageszeiten öffentliche Verkehrsmittel zur Fortbewegung nutzen. Andererseits können während eines Tages aufgezeichnete Taxifahrten den Individualverkehr charakterisieren und die Informationen liefern, um relevante Fahrzeugströme in einer Stadt mit möglichen Auswirkungen auf den Verkehr abzubilden. Es werden die Ergebnisse der Herkunfts- und Bestimmungsorte von Fahrzeugen in Porto, Portugal, präsentiert. Es wird auch über die Erfahrungen des erfolgreichen Projekts Smart City Concepts in Curitiba berichtet, das ein Triple-Helix-Modell darstellt, das Wissenschaft, öffentliche und private Sektoren einbezieht. Die Ergebnisse werden unter besonderer Berücksichtigung der Beziehung zwischen den Partnern diskutiert und wie sie von verschiedenen Akteuren geteilt werden können, die die städtische Organisation und die öffentliche Politik für städtische Gebiete beeinflussen.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-030-69698-6_57 d9815c656aaef06920714473d9fdf39a;de;;;7.1.;;;Workflow-Unterstützung in tragbaren Produktionsinformationssystemen Das Internet der Dinge (IoT) ist die Vernetzung von physischen Objekten wie elektronischer Hardware oder Menschen mit tragbaren digitalen Geräten. IoT ermöglicht die Fernsteuerung von Dingen über bestehende Netzwerkinfrastrukturen hinweg. Ein Geschäftsprozess ist eine Sammlung zusammengehöriger Ereignisse, Aktivitäten und Entscheidungen, die eine Reihe von Ressourcen umfassen. Um Prozesse auf operativer Ebene zu unterstützen, kann ein Business Process Management System (BPMS) eingesetzt werden. Während der Prozessausführung werden eine Vielzahl von Informationen benötigt, um sinnvolle Entscheidungen zu treffen. Mit dem Aufkommen des IoT werden Daten von physischen Geräten generiert, die ihre Umgebung erfassen und bestimmte Aspekte der operativen Prozesse widerspiegeln. Wir stellen ein Toolset für ein IoT-fähiges Geschäftsprozessausführungssystem vor, das IoT für BPM nutzt, indem es IoT-Daten prozessbewusst bereitstellt, IoT-Daten für die Interaktion in einem vordefinierten Prozessmodell berücksichtigt und tragbare Benutzeroberflächen mit kontextspezifischen context Bereitstellung von IoT-Daten. Das Toolset wurde in der Fertigungsindustrie umfassend evaluiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-92901-9_20 c9a5c3e8b7ecc788a6d17322e6b63f4f;de;;;7.1.;;;Bright ICT: Social Media Analytics für Gesellschaft und Krisenmanagement Bright ICT verspricht eine neue Ära der IT-Einführung und -Nutzung, jedoch haben wir in dieser aktuellen Ära der allgegenwärtigen Computer- und Social-Media-Plattformen erlebt, wie IS-Benutzer im Entwicklungsprozess von Informationssystemen machtlos gemacht und von großen Technologieunternehmen durch die algorithmischen Strukturen von Social-Networking-Plattformen. 1987 warnten uns Markus & Bjorn-Andersen vor den möglichen Folgen dieser Situation, die sich heute tagtäglich zeigt, wenn der Datenschutz kompromittiert wird, Inhalte von Social-Media-Plattformen schwer bis unmöglich zu verwalten sind und unsere politischen und wirtschaftlichen Systeme gestört sind . Dieses Papier skizziert einen engagierten Forschungsansatz des RISE_SMA-Projekts, um innovativere theoretische Ansätze und Methoden zur Analyse von Social-Media-Daten zur Sicherung des sozialen Zusammenhalts in Krisenzeiten zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20671-0_37 1bd8775c5fcfacd87498c4b0474cc02c;de;;;7.1.;;;Auf dem Weg zu einem intelligenten integrierten System für die Stadtplanung mit GIS und Cloud Computing In den letzten Jahren ist der urbane Bereich immer komplexer geworden, ebenso wie das Wachstum neuer Technologien, neue Probleme sind aufgetreten. Daher blicken Städtebauorganisationen voraus, um nachhaltige Alternativen zu finden, die menschlichen städtischen Bedürfnisse zu befriedigen und ein hohes Maß an Effizienz mit dem besten Einsatz der verfügbaren Ressourcen zu erreichen. Dieses Papier schlägt ein intelligentes integriertes System vor, das ein geografisches Informationssystem (GIS) und Cloud-Computing-Technologie verwendet. Der geplante Ansatz basiert auf: (i) der Erweiterung des lokalen GIS durch Hinzufügen erforderlicher Informationen, (ii) der Vorhersage des städtischen Bedarfs für einen lokalen Bereich durch die Analyse von GIS-Informationen und (iii) der Unterstützung von Entscheidungsträgern um vorgeschlagene städtische Projekte unter Berücksichtigung der Einschränkungen in geeignete Gebiete einzupassen. Dieses Papier enthält eine neue Architektur, die die Hauptkomponenten des vorgeschlagenen Systems kombiniert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-90315-6_3 5b880ecacfb5593894cc13802d4686bb;de;;;7.1.;;;Bewertung von Technologien: eine wirtschaftsstrategische Perspektive Das Strategische Management von Technologie ist mittlerweile in der Literatur gut dokumentiert und in bester Praxis verankert. Das Argument für die Einbeziehung des Technologiemanagements auf strategischer Ebene ist weitgehend gewonnen. Viele Organisationen teilen jedoch die Forschungs- und Entwicklungsfunktion, die oft noch immer als „Subkultur“ innerhalb einer Organisation existiert, auf, die von einer direkten Beteiligung an vielen organisatorischen Veränderungsprogrammen ausgenommen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-9831-6_3 b0e1ce8b0fdaf0118f4b4cda4a92b392;de;;;7.1.;;;Zwei Frameworks zur Aufgabenanalyse: Eine Anwendung zum Einsatz intelligenter Systeme bei der Entwicklung von Informationssystemen Das Produktivitätsparadoxon der Informationstechnologie gilt als eines der schwierigsten Probleme im Computerbereich. Wir müssen versuchen, die Produktivität sowohl der Computeranwendungen als auch der Softwareindustrie zu verbessern. Daher ist es wichtig, produktive Bemühungen von unproduktiven zu identifizieren und zu unterscheiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34979-4_51 fe35773c1369cd6bd0f95b073b5a5ef4;de;;;7.1.;;;„Bleiben Sie der Erde treu!“*: Erfahrungsberichte zu artefaktzentriertem Design im Gesundheitswesen In diesem Beitrag berichten wir über zwei Gestaltungserfahrungen im Bereich der Gesundheitsinformationstechnologie, die die Vorteile der Abschaffung komplexer und abstrakter Darstellungen der Krankenhausarbeit und der Konzentration auf die Artefakte beleuchten, die Praktiker gewöhnlich in ihrer täglichen Praxis verwenden. Wir begründen unseren Ansatz in der aktuellen Literatur zu den oft unbeabsichtigten Mängeln von Gesundheitsinformationssystemen und schlagen eine leichtgewichtige Methode vor, um die Phasen der Anforderungsermittlung und des funktionalen Designs zu unterstützen. Anschließend diskutieren wir die wichtigsten Anforderungen unserer jüngsten Forschungsaktivitäten und geben Beispiele, wie diese in Form von modularen und wiederverwendbaren Designlösungen umgesetzt werden können.;-;-;-;https://link.springer.com/article/10.1007/s10606-011-9143-1 799d06da7a3835349e1fa3dedecf5283;de;;;7.1.;;;"Visionen der zukünftigen Fertigung in Europa Den Auswirkungen von „Megatrends“ und den daraus resultierenden Zielen folgend, wurden vier zentrale Visionen von Fabriken definiert, die die zukünftige Entwicklung in der Fertigung veranschaulichen können. Sie sind """;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38502-5_6 de18c2fb128c783b5f8cfa31a681ac3d;de;;;7.1.;;;Agentenbasiertes Framework für intelligente natürliche Sprachschnittstelle In diesem Beitrag präsentieren wir ein Framework für ein intelligentes Natural Language Interface (NLI), das den Bedarf einer eingebetteten Plattform mit einem agentenbasierten Ansatz erfüllt. Der vorgeschlagene Rahmen wird durch ein laufendes Sprachtechnologie-Forschungsprojekt motiviert, das darauf abzielt, einen generischen Synthesizer für Informationsverbreitungssysteme in lokalen Sprachen zu entwickeln. Die Architektur basiert auf verschiedenen Formen von Aktionsdarstellungen mit einer Abfolge von Transformationen, die Benutzereingaben (Text oder Sprache) in einen geeigneten Satz von Agentenaktionen umwandelt, die eine Reaktion auf die Eingabe erzeugen. Dieser Ansatz minimiert inkrementell die Komplexität und Mehrdeutigkeit der Eingabe in natürlicher Sprache, indem vordefinierte Sätze von Zwischenaktionen auf verschiedenen Ebenen verwendet werden, wodurch die Robustheit und Zuverlässigkeit des NLI erhöht wird.;-;-;-;https://link.springer.com/article/10.1007/s11235-011-9620-3 e5b3e45fe5524b9330d5646056d1be07;de;;;7.1.;;;Wissensaustausch in Industrialisierungsprojektmanagement-Praktiken Angesichts der komplexen und dynamischen Geschäftsumgebungen von heute verfolgen viele Unternehmen, insbesondere diejenigen, die in der Entwicklung neuer Produkte arbeiten, einen projektbasierten Ansatz, um bei der Bewältigung von Veränderungen effektiver und flexibler zu werden. Das Management komplexer Projekte erfordert jedoch gut identifizierte, definierte und dennoch maßgeschneiderte Praktiken. Dies wird umso bedeutsamer, wenn die Projektleiter neue Mitarbeiter sind, so dass sie sich schnell mit der unternehmensspezifischen Praxis vertraut machen. Die Forschungsmethodik der Fallstudie wurde unter Verwendung direkter Beobachtung und Dokumentenanalyse angewendet, um die Praktiken des Industrialisierungsprojektmanagements in einem Werk eines ersten Zulieferers der Automobilindustrie zu identifizieren. Kernprozesse des Product Engineering Process and Project Management, die wichtigsten verwendeten Tools und Aktivitäten von Industrialisierungsprojektmanagern wurden identifiziert, systematisiert und in einem Arbeitsbuch zusammengestellt, das als Leitfaden und Arbeitsinstrument für neue Industrialisierungsprojektmanager dienen soll.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-77703-0_5 0d2b38d881c5b8d0548d0e43870a41e2;de;;;7.1.;;;Benutzerinteraktion in mobilen Navigationsanwendungen Das Kapitel konzentriert sich auf die Kooperation und Interaktion in der multimodalen Routennavigation und gibt einen Überblick über die Vor- und Nachteile der multimodalen Interaktion bei ortsbezogenen Diensten im Allgemeinen. Das Ziel der Forschung war es, Methoden und Techniken für eine umfassendere Mensch-Computer-Interaktion zu untersuchen und Verbindungen und Benutzerpräferenzen bezüglich Sprache und taktiler Eingabemodalitäten bei einer Routennavigationsaufgabe zu untersuchen. Das Kapitel gibt auch einen Überblick über die Arbeit an einer mobilen Navigationsanwendung, die es dem Benutzer ermöglicht, Routen des öffentlichen Nahverkehrs mittels Sprache und Stiftzeigen abzufragen. Die erste Version der PDA-basierten Navigationsanwendung MUMS wurde mit den öffentlichen Verkehrsmitteln der Stadt Helsinki als Domäne entwickelt, und der Benutzer kann Fahrplan- und Navigationsinformationen entweder durch Fragen in natürlicher Sprache oder durch Klicken auf die Karte abfragen. Anhand von Nutzerstudien diskutieren wir auch die einzelnen Modalitäten und deren Einfluss in interaktiven Anwendungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-37110-6_9 b471bc68baab0143c2746185e2580fa5;de;;;7.1.;;;Kommunikation und Verständigung auf der ganzen Welt Kommunikation und Verständigung ist ein globales Thema. Dieser Vortrag nimmt eine systemtheoretische Perspektive in die Diskussion der Kommunikation ein. Es beginnt mit der Beschreibung komplexer informationsverarbeitender Systeme, die das Herzstück der Kommunikation sind, und deren verschiedenen Eigenschaften. Menschen werden als diese komplexen Informationsverarbeitungssysteme identifiziert. In der Präsentation wird weiter diskutiert, wie wichtig es ist, anzuerkennen, dass Kommunikation oft als selbstverständlich angesehen wird. Es werden die Vorteile der systemischen Betrachtung menschlicher Kommunikation und die Unterschiede zwischen einem linearen Informationsübertragungsmodell und einem transaktionalen Kommunikationsmodell aufgezeigt. Die Implikationen für die interkulturelle Kommunikation und das Verständnis, eine solche Modellierung der Kommunikation und mehr über die Anwendung dieser Überlegungen für Menschen, die sich mit Simulationen und Spielen beschäftigen, werden ebenfalls berücksichtigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-68189-2_10 290a1aee747ff4d4bce4542df8e7f6b4;de;;;7.1.;;;Ein strukturierter Ansatz zur Implementierung von Züchtungsumgebungen für virtuelle Organisationen im Werkzeug- und Formenbau – eine brasilianische Fallstudie Dieses Papier trägt zu dem allgemeinen Problem bei, wie klassische Industriecluster in Virtual Organization Breeding Environments (VBEs) transformiert werden. Unter Berücksichtigung von Referenzrahmen und Modellen wurde ein strukturierter Ansatz zur Implementierung von VBEs vorgeschlagen und seine vorläufigen Ergebnisse werden hier vorgestellt. Dieser Ansatz wurde vorläufig in einem Cluster von Formen- und Werkzeugindustrien aus Brasilien getestet, wo die wichtigsten VBE-Eigenschaften gefunden wurden. Zukünftig soll dieser strukturierte Ansatz als konkretes Mittel genutzt werden, um die Umsetzung jeglicher Art von VBE zu systematisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15961-9_23 fe44b7ff0b4c671ee59747f8e3458fb0;de;;;7.1.;;;Ermittlung der Barrieren, die zur IKT-Implementierung beitragen, unter Verwendung des Technologie-Organisations-Umwelt-Frameworks in äthiopischen Hochschulen Die Informations- und Kommunikationstechnologie (IKT) ist ein wichtiges Element zur Verbesserung der Lehr-Lern-Praktiken. Dieses Papier zielt darauf ab, die Hindernisse zu ermitteln, die die Implementierung von IKT in äthiopischen Hochschuleinrichtungen durch die Anpassung der Informationssystemtheorie (d. h. des Rahmens Technologie-Organisation-Umwelt (TOE)) beeinträchtigen. Die Studie verwendete eine Fallstudienforschungsmethode unter Verwendung eines qualitativen Forschungsansatzes. An den halbstrukturierten Interviewfragen und Fokusgruppendiskussionen nahmen gezielt die Akteure aus Hochschulen, Wissenschaftsministerium, Hochschulrelevanz- und Qualitätssicherungsagentur und Nichtregierungsorganisationen teil. Für die qualitative Analyse wurde die kostenlose Versionssoftware QDA Miner Lite verwendet, um die Technologie-Organisation-Umwelt-bezogenen Themen zu identifizieren. Die Ergebnisse wurden auf der Grundlage des EVG-Frameworks erläutert und zeigten, dass technologische, organisatorische und ökologische Barrieren die IKT-Implementierung in den Hochschulen Äthiopiens bestimmen. Diese durch die Übernahme des EVG-Rahmens festgestellten Hindernisse waren entscheidend für den zukünftigen strategischen Plan für die effektive Implementierung von IKT in den Lehr-Lern-Praktiken der Hochschulen des Landes.;-;-;-;https://link.springer.com/article/10.1007/s10639-020-10397-9 697dc431634433dcdd846b269c23792d;de;;;7.1.;;;Auf dem Weg zum autonomen Business Activity Management Geschäftsaktivitäten können sehr kompliziert und dynamisch sein. Diese Komplexität liegt in der Anzahl der Aktivitäten und der Organisation und vielen Geschäftsbeziehungen zwischen den Dingen, die eine Geschäftstätigkeit ausmachen, und ihrem Geschäftsumfeld. Die Dynamik der Geschäftstätigkeit ergibt sich aus dem Bedürfnis, die Geschäftstätigkeit kontinuierlich zu messen, zu überwachen, zu steuern und zu verbessern. Die Systeme, die solche Funktionen und Dienste bereitstellen, werden als Business Activity Management (BAM)-Systeme bezeichnet. Ein BAM-System ermöglicht es einem Unternehmen, rechtzeitig auf aufkommende Probleme zu reagieren. Richtige Zeit ist nicht gleich Echtzeit, aber Echtzeit ist in vielen Fällen eine der Anforderungen. Herkömmliche Techniken zum Aufbau von BAM-Systemen haben sich im Umgang mit der oben genannten Komplexität als unzureichend erwiesen. Es ist nicht ungewöhnlich, dass einige kleinere Störungen in einer abgelegenen Ecke des Systems unvorhergesehene und manchmal katastrophale globale Auswirkungen haben. Viele Situationen, die sich aus der extremen Dynamik dieser Systeme ergeben, sind nicht nur fragil, sondern erfordern auch manuelle Eingriffe, damit verteilte Anwendungen ordnungsgemäß funktionieren. Unserer Meinung nach sollten BAM-Systeme die Eigenschaften besitzen, der hohen Komplexität zu begegnen und den Aufbau robuster, konfigurierbarer, skalierbarer, selbstorganisierender und selbstverwaltender verteilter Systeme zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39671-0_20 11a3e6ae925b81975da63a2727912856;de;;;7.1.;;;Zu Dienstleistungen für kollaboratives Projektmanagement Dieser Beitrag stellt einen Ansatz für kollaboratives Projektmanagement vor. Der Fokus liegt auf der Unterstützung von Zusammenarbeit, Kommunikation und Vertrauen. Es gibt mehrere Projektmanagement-Tools zur Überwachung und Steuerung der Durchführung von Projektaufgaben. Allerdings ist es schwieriger, Unterstützung für wichtige immaterielle Vermögenswerte zu finden. In dem Beitrag wird ein Leadership-Ansatz als Managementmittel identifiziert und der Einsatz neuer IT-Technologien, insbesondere Social Media, zur Unterstützung der Führung im Projektmanagement diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04568-4_47 97685d3b9fb931d1fd02a0cf465470ed;de;;;7.1.;;;Instandhaltung von Anlagen und Flugzeugen: IT-gestützte Lösungen im Vergleich Building Information Modeling (BIM) kann sowohl neue als auch bestehende Architektur-/Ingenieur-/Bauprojekte (AEC) erheblich beeinflussen. Es kann eine virtuell simulierte und große integrierte Datenbank bereitstellen, die nicht nur für Design und Engineering, sondern auch für Planung und Management sowie für die Wartung von Einrichtungen genutzt werden kann. Obwohl die meisten BIM-Tools inzwischen ausgereift genug sind, um in verschiedenen Phasen des Projektlebenszyklus eingesetzt zu werden, waren sie viele Jahre lang primitiv und unterentwickelt. Die Konzepte, die BIM zugrunde liegen, gibt es seit den 1960er Jahren in verschiedenen Fertigungsindustrien wie der Automobilindustrie, dem Schiffbau oder der Luft- und Raumfahrt. In der Luft- und Raumfahrtindustrie, insbesondere in der Flugzeugkonstruktion und -fertigung, ist das BIM-ähnliche Konzept ein Digital Mock-Up (DMU). Es ist sowohl ein Werkzeug als auch ein Produkt der Ingenieurskunst. Wie bei BIM ist auch die DMU von Flugzeugen eine umfassende digitale Produktdarstellung, mit der die Nutzung, das Verhalten und die Leistung eines fertigen Flugzeugs simuliert werden. Obwohl BIM und DMU für verschiedene Branchen und Produkte verwendet werden, weisen sie Gemeinsamkeiten und Unterschiede auf. Dieses Papier beschreibt kurz BIM- und DMU-Technologien und ihren Kontext, wobei der Schwerpunkt auf der Implementierung dieser beiden Technologien für Betrieb und Wartung (O&M) liegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45937-9_2 6f1661d84016eef936da2ee68a9b49c5;de;;;7.1.;;;Ein UML-Ansatz in der ISMS-Implementierung Der Beitrag beschäftigt sich mit der Modellierung des Information Security Management Systems (ISMS). Das ISMS, basierend auf dem PDCA (Plan-Do-Check-Act)-Modell, wurde im Standard BS7799-2:2002 definiert. Das allgemeine Modell des ISMS wurde vorgestellt. Das Papier konzentriert sich nur auf die Ausarbeitung der Planphase und basiert auf der zuvor identifizierten ISMS-Geschäftsumgebung. Der UML-Ansatz ermöglicht konsistentere und effizientere Implementierungen des ISMS, unterstützt durch die Computerwerkzeuge. Das Papier zeigt die Möglichkeit des UML-Einsatzes im Bereich der Informationssicherheit.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-31167-X_18 6c70574710e0e9a125ac6085a4b1f121;de;;;7.1.;;;Die Auswirkungen von Unternehmenssystemen auf Geschäftsbeziehungen verstehen Enterprise Systems (ESs), also standardisierte Anwendungen von Softwareanbietern wie SAP oder Oracle, wurden in den letzten zehn Jahren in großem Umfang von Unternehmen eingesetzt. Heute alle;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-36402-5_51 7eddf1bdd81743b379bdd4d50848793c;de;;;7.1.;;;Ausgewählte Anwendungen des Structural Case-Based Reasoning Approach In diesem Kapitel beschreiben wir vier Anwendungen, die mit dem strukturellen CBR-Ansatz und der INRECA-Methodik entwickelt wurden: Das fallbasierte Helpdesk-Supportsystem HOMER, der Produktkatalog von Analog Devices, die fallbasierte Wartungsanwendung für das Hochgeschwindigkeits- Zug TGV und die Erlebnisfabrik Fraunhofer IESE. Die vier Systeme repräsentieren gemeinsame Anwendungsgebiete für CBR-Techniken. Sie unterscheiden sich hinsichtlich ihrer Komplexität, der Repräsentations- und Ähnlichkeitsmaßnahmen, die für die Entwicklung der Systeme erforderlich sind, und der Prozesse, die zum Betrieb der Anwendungen eingerichtet werden müssen. Damit verdeutlichen sie die Vielseitigkeit des INRECA-Ansatzes und die Bandbreite an Lösungen, die damit entwickelt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-40994-6_4 1711e366b01e35a967f7421cae87977d;de;;;7.1.;;;Entwicklung einer Referenzmethode für die Spieleproduktion durch Methodenvergleich In dieser Forschung verwenden wir einen formalen Methodenvergleichsansatz, um eine Referenzmethode für die Spieleproduktion zu konstruieren. Zunächst analysieren wir vier Spieleproduktionsmethoden unter Verwendung einer Metamodellierungstechnik: drei dokumentierte Methoden und eine Methode, die durch eine Fallstudie bei einer Spieleproduktionsfirma gewonnen wurde. Durch die Entwicklung einer Supermethode, die alle Aktivitäten und Konzepte von vier analysierten Methoden enthält, vergleichen wir die vier Methoden. Basierend auf der Super-Methode wird eine Referenzmethode konstruiert, die einen vollständigen Überblick über alle möglichen Schritte und Ergebnisse in einem Spieleproduktionsprozess gibt: die Referenzmethode für die Spieleproduktion.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-73947-2_24 0a7c6b8605750b366228da8b2819d0cd;de;;;7.1.;;;Global Sourcing der Informationssystementwicklung - Erklären von Projektergebnissen basierend auf sozialen, kulturellen und vermögensbezogenen Merkmalen Basierend auf Praxistheorie und Transaktionskostenökonomie integrieren wir drei Perspektiven der bisherigen Forschung: Wir erklären den Zusammenhang zwischen den Ergebnissen von Offshore-ISD-Projekten und kulturellen, sozialen sowie vermögensbezogenen Projektmerkmalen. Wir untermauern und verfeinern unser Modell mit einer Fallstudie von acht Projekten, in denen deutsche Unternehmen ISD-Aufgaben nach China, Indien, Ost- und Mitteleuropa ausgelagert haben. Wir stellen fest, dass das Projektergebnis stark von der Beziehungsqualität der Partner abhängt, die wiederum stark von Habitusunterschieden und der sozialen Distanz zwischen ihnen abhängt. Die negativen Auswirkungen dieser Faktoren können durch zwei Managementpraktiken reduziert werden, nämlich die Begrenzung von Grenzen und die Ermächtigung von Offshore-Partnern. Darüber hinaus stellen wir fest, dass der erforderliche Transfer von kundenspezifischem Wissen negative Auswirkungen auf das Projektergebnis haben kann. Die beobachteten Effekte stimmen jedoch nicht mit der traditionellen Erklärung der Transaktionskostenökonomie überein. Stattdessen passt die Erklärung der Praxistheorie zu den Daten: Das spezifische Wissen ist eingebettet in ein soziokulturelles Kampffeld und stellt eine wertvolle Ressource dar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33920-2_13 2acc2da31e119ffacdec5e43b3bdbc4e;de;;;7.1.;;;Planung freier Wege in verkehrsbewussten Raumnetzen Routenplanung und -empfehlung haben in den letzten Jahren große Aufmerksamkeit erfahren. Vor diesem Hintergrund untersuchen wir ein neuartiges Problem der Planung freier Wege in verkehrsbewussten räumlichen Netzen (TAUP-Abfragen), um potenzielle Verkehrsstaus zu vermeiden. Wir schlagen zwei probabilistische TAUP-Abfragen vor: (1) eine Zeitschwellenabfrage wie „Was ist der Weg vom Check-in-Schalter zum Flug SK 1217 mit der minimalen Stauwahrscheinlichkeit von höchstens 45 Minuten? eine Wahrscheinlichkeitsschwellen-Abfrage wie „Wie ist der schnellste Weg vom Check-in-Schalter zum Flug SK 1217, dessen Stauwahrscheinlichkeit kleiner als 20 % ist?“. Diese Anfragen werden hauptsächlich durch Anwendungen im Innenbereich motiviert, sind aber auch im Außenbereich anwendbar. Wir glauben, dass diese Abfragen in einigen beliebten Anwendungen nützlich sind, z. B. bei der Planung von ungehinderten Wegen für VIP-Gepäckstücke in Flughäfen und der Planung bequemer Routen für Reisende. Die TAUP-Anfragen werden durch zwei Schwierigkeiten herausgefordert: (1) wie das Verkehrsbewusstsein in räumlichen Netzen praktisch modelliert wird und (2) wie die TAUP-Anfragen effizient unter verschiedenen Abfrageeinstellungen berechnet werden. Um diese Herausforderungen zu meistern, bauen wir ein verkehrsbewusstes räumliches Netzwerk auf;-;-;-;https://link.springer.com/article/10.1007/s10707-015-0227-9 0985deb55280e616ca737d24798c959b;de;;;7.1.;;;CAD-Na und? Ende der 50er Jahre wurden Computer im Bauwesen eingesetzt. In der Zwischenzeit haben sich die CA-X-Technologien in Bereichen wie der Integration von Anwendungssoftware, 3D-Modellierung und -Simulation, Multimedia-Systemen, künstlicher Intelligenz, CADCAM, Robotik und computergestützter Integration von Design, Bau und Facility Management rasant weiterentwickelt. Der strukturelle Wandel in der Baubranche erfordert einen Übergang vom reinen CAD, wobei „D“ für Design and Drafting steht, hin zu CAC, wo das zweite „C“ für Konstruktion steht, also die Weiterverarbeitung der zuvor erzeugten CAD-Daten.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-5576-2_2 02963f2df79f409a0bf3cec707c37f1d;de;;;7.1.;;;Entscheidungsunterstützungssysteme für die Lebensmittelindustrie Es werden Anwendungen von Decision Support Systems (DSSs) in der Lebensmittelindustrie und insbesondere der Fischindustrie diskutiert. Die Menge der aufgezeichneten Daten in der Lebensmittelindustrie ist in den letzten zehn Jahren stark gestiegen, parallel zu den sinkenden Kosten für die Datenaufzeichnung durch Automatisierung und Computersysteme. Die Daten können verwendet werden, um die Anforderungen von Verbrauchern zu erfüllen, die Informationen über ihre Lebensmittel wie Herkunft, Auswirkungen auf die Umwelt und mehr wünschen. Durch Rückverfolgbarkeit kann dieser Datenfluss zur Entscheidungsunterstützung genutzt werden. Viele Bereiche der Lebensmittelverarbeitung können vom Einsatz von DSS profitieren. Zu diesen Bereichen gehören beispielsweise die Verringerung der Umweltauswirkungen der Lebensmittelverarbeitung, das Sicherheitsmanagement, das Verarbeitungsmanagement und das Lagermanagement. Forschungs- und Entwicklungsprojekte, an denen die Autoren mitgewirkt haben, und die folgenden Implementierungen von Softwarelösungen werden diskutiert und einige Beispiele für den praktischen Einsatz von DSS in der Lebensmittelindustrie als Ergebnis solcher Arbeiten gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13639-9_12 2edfc67ab4f0129a1fab62a981c6259a;de;;;7.1.;;;Ein objektorientierter Ansatz für die Produktmodellierung im Konstruktionsdesign Engineering Design als einer der anspruchsvollsten Anwendungsbereiche für Computer-Aided Engineering erfordert die Darstellung komplexer Datenelemente sowie komplexer Beziehungen zwischen ihnen. Benutzer in diesen Umgebungen haben festgestellt, dass herkömmliche Technologien in Bezug auf Flexibilität, Modellierungsleistung und Effizienz unzureichend sind. Daher wird es notwendig, Umgebungen zu entwickeln, die die verschiedenen Paradigmen unterstützen, die in großen Projekten verwendet werden. Solche Umgebungen erfordern eine gute Daten- und Wissensrepräsentation, effiziente Programmierfunktionen, angemessene Mechanismen zur Speicherung und Parallelitätskontrolle und eine gute Kommunikation mit anderen Softwaresystemen. In diesem Papier diskutieren wir die Hauptmerkmale der Konstruktionsprodukte und die Grenzen der aktuellen Konstruktionsproduktmodelle. Und dann stellen wir die Hauptmerkmale eines verbesserten objektorientierten Darstellungsmodells PDM und seiner Implementierung MOSS vor. An einem Beispiel wird die Anwendung des objektorientierten Darstellungsmodells PDM und der objektorientierten Programmierumgebung MOSS im Bereich des mechanischen CAD demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34930-5_12 d45744c95155a68ba659d8d4b6fb4f52;de;;;7.1.;;;Enterprise-Engineering-Methoden und -Tools, die Simulation, Emulation und Umsetzung über formale Modelle erleichtern Im gegenwärtigen industriellen Umfeld des zunehmenden Wettbewerbs auf einem globalisierten Markt müssen Unternehmen danach streben, die sich ständig ändernden Kundenwünsche genau zu erfüllen. Dementsprechend müssen Fertigungssysteme besser auf die Entwicklung der Geschäftsanforderungen reagieren und sicherstellen, dass sie diese sich ändernden Anforderungen direkt unterstützen. Die Unternehmensmodellierung hat wesentlich dazu beigetragen, diese Ziele zu erreichen, indem sie ein höheres Maß an Konsistenz zwischen der Anforderungsdefinition auf hoher Ebene und dem Systemdesign auf niedrigerer Ebene bietet. Um jedoch für Unternehmen wirklich nützlich zu sein, müssen Unternehmensmodelle ausreichend detailliert sein und ausreichend Spielraum bieten, damit die Modelle in praktikable Geschäftslösungen übersetzt werden können. Darüber hinaus muss die Vielfalt der verfügbaren Methoden und Werkzeuge zur Unternehmensmodellierung durch ein gemeinsames Framework positioniert werden, damit Beziehungen zwischen verschiedenen Modellierungsmethoden identifiziert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34983-1_15 bbe3321e96489a4e664500dae494ba24;de;;;7.1.;;;Ein Wissenssystem für integriertes Produktdesign In diesem Papier werden die Architektur- und Implementierungsprobleme für ein Wissenssystem zur Unterstützung des Produktdesigns erörtert. Die Ziele des Concurrent Design Advisor (CODA) sind eine Steigerung der Designqualität um 25 Prozent und der Effizienz um den Faktor 10. Die Verbesserung resultiert aus der Integration unterschiedlicher Wissensbasen, die von Kundenbedürfnissen bis hin zur Produktbewertung Prozesskonfiguration bis zur Produktionssteuerung. Eine Quelle der Effizienz ist die Automatisierung vieler Routineaufgaben und damit die Steigerung der Benutzerproduktivität. Eine weitere Quelle ist die Qualitätssteigerung der Erstkonstruktionen, die zahlreiche Iterationen im Konstruktionsprozess aufgrund schlechter Herstellbarkeit überflüssig macht. CODA basiert auf der allgemeinen Architektur des Creativity Support Systems, einem Expertensystem zur Unterstützung von Benutzern in bestimmten Bereichen, die kreative Lösungen erfordern. Die zweistufige Struktur des Systems besteht aus einem domänenunabhängigen Modul mit allgemeinen Werkzeugen und Techniken zur kreativen Problemlösung und einem domänenabhängigen Modul mit anwendungsspezifischem Wissen. Der Nutzen dieses Ansatzes wird im Bereich des gleichzeitigen Produktdesigns durch die Demonstration einer CODA innerhalb der allgemeinen Architektur des Systems veranschaulicht.;-;-;-;https://link.springer.com/article/10.1007/BF01471333 64f22d686452a8489a9f21420a08d7e6;de;;;7.1.;;;Ein aufgabenbasiertes Framework für mobile Anwendungen zur Verbesserung der Leistung von Verkäufern Das Papier schlägt einen Rahmen für mobile Anwendungen vor, der darauf abzielt, die Aufgaben von Verkäufern für mehr Leistung zu unterstützen, wenn sie in einer hochmobilen Arbeitsumgebung arbeiten. Zu diesem Zweck bietet das Papier zunächst einen Überblick über die Merkmale mobiler Technologien in Bezug auf mobile Geräte, Konnektivität und mobile Anwendungen. Nach der Ableitung einer Reihe von Vorschlägen bietet das Papier einige abschließende Bemerkungen und schlägt Bereiche für zukünftige Forschung vor;-;-;-;https://link.springer.com/chapter/10.1007/0-387-22874-8_4 1f2b86ce3b1d19503825447c75cdba80;de;;;7.1.;;;Fuzzy-bedingte Wahrscheinlichkeitsrelationen und ihre Anwendungen in Fuzzy-Informationssystemen In unseren realen Anwendungen können Daten unpräzise sein, wobei die Ebenen oder Genauigkeitsgrade der Daten intuitiv unterschiedlich sind. In diesem Fall werden Fuzzy-Set-Ausdrücke als Alternative zur Darstellung der ungenauen Daten in Betracht gezogen. Im Allgemeinen muss der Grad der Ähnlichkeitsbeziehung zwischen zwei unscharfen (unpräzisen) Daten in realen Anwendungen nicht unbedingt symmetrisch oder transitiv sein. Um ein solches Maß an Ähnlichkeit zwischen zwei Fuzzy-Daten bereitzustellen, haben wir die;-;-;-;https://link.springer.com/article/10.1007/s10115-003-0124-7 03a1edabc9e804113ba947fae920fb66;de;;;7.1.;;;Modellierung domänenspezifischer Anwendungsframeworks mit einer dynamischen Geschäftsobjektarchitektur: Ansatz und Implementierung Dieses Papier beschreibt den Ansatz einer Business Object Architecture (BOA)-Entwicklung und implementiert ihn durch eine Dynamic Systems Development Method (DSDM)-Lebenszyklusumgebung mit Schwerpunkt auf der Beteiligung des Endbenutzers und iterativem Prototyping. Die Dynamic Business Object Architecture (DBOA) wird verwendet, um die Konzeptualisierungs- und Designansätze für bestimmte Anwendungsdomänen zu unterstützen und zu integrieren. Im Besonderen wird die DBOA als Skelettunterstützung und Lebenszyklusbasis für die OO-Modellierungskonstruktion behandelt. Dieses Papier ist eine Reaktion auf die Überprüfung der ersten Einreichungen des RFP von OMGBODTF für Common Business Objects and Business Object Facilities (BOR FP1) zur Modellierung domänenspezifischer Anwendungsframeworks.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-1286-0_18 e4c8bf6b78a17620530de8fe6a0c07aa;de;;;7.1.;;;Der Einfluss von Untergruppendynamiken auf die Wissenskoordination in verteilten Softwareentwicklungsteams: Ein transaktives Speichersystem und die Perspektive der Gruppenfehlerlinie Mit der Globalisierung der Softwareindustrie sind verteilte Softwareteams (DSTs) immer häufiger geworden. Unter den verschiedenen sozialen Aspekten, die für den Erfolg verteilter Softwareprojekte wesentlich sind, liegt der Schwerpunkt dieser Forschung auf dem Einfluss der Dynamik zwischen Untergruppen auf die Wissenskoordination. Um diese Forschungsfrage zu beantworten, erweitern und wenden wir Theorien aus zwei Hauptquellen an: der Theorie der transaktiven Speichersysteme und dem Bruchlinienmodell. Wir beschreiben eine derzeit laufende Feldstudie. Die Ergebnisse dieser Studie werden Manager darüber informieren, wie DSTs Fähigkeiten entwickeln, um über zeitliche, geografische und kulturelle Grenzen hinweg erfolgreich zu arbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09768-8_7 094b4f8d84dd995b4ef3919a1112b70f;de;;;7.1.;;;Just-in-Time, MRP und schlanke Lieferketten In diesem Kapitel werden sehr aktuelle Themen wie Just-in-Time (JIT), Materialbedarfsplanung (MRP) und Lean-Konzepte in Supply Chains diskutiert. Konzepte von „Pull-basierten“ Systemen und „Push-basierten“ Systemen werden erläutert. Voraussetzungen für das JIT-System (Zero-Inventory) werden erläutert. Dies sind äußerst zuverlässige/zuverlässige Bezugsquellen in der Nähe, ein einziger Anbieter, sehr häufige Lieferungen in kleinen Mengen, direkte Lieferung von der Quelle bis zum Verbrauchsort und 100 % pünktliche Lieferungen. Die Lean-Philosophie zielt darauf ab, Bestände in der gesamten Lieferkette zu reduzieren, ohne das Risiko von Engpässen zu erhöhen. Das zweite große Thema in diesem Kapitel ist die MRP, gefolgt von einem Push-Dispositionssystem und einer Computersoftware für diskrete Produkte mit abhängigem (plumpigem) Bedarf. Auch Grenzen der MRP und deren Nachbesserung durch MRP II (Manufacturing Resource Planning) werden kurz aufgezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-81-322-1970-5_9 09fb575391975a85b6b2ce1a0ebf7ca6;de;;;7.1.;;;Über das Engineering komplexer Systeme: Multiskalenanalyse und Evolutionäres Engineering Wir beschreiben einen analytischen Ansatz, die Multiskalenanalyse, der die grundlegenden Grenzen des zerlegungsbasierten Engineerings für die Entwicklung hochkomplexer Systeme aufzeigen kann. Der planungsbasierte Prozess wird durch die gegenseitige Abhängigkeit der Komponenten und die Kommunikation zwischen den Designteams eingeschränkt. Daher sollte die Konstruktion vieler hochkomplexer Systeme durch Strategien verfolgt werden, die der biologischen Evolution oder Marktwirtschaften nachempfunden sind, bei denen umfangreiche Planungen aufgegeben werden und mehrere parallele Designbemühungen um die Übernahme durch Tests in der tatsächlichen Anwendung konkurrieren.;-;-;-;https://link.springer.com/chapter/10.1007/11494676_2 a9651333995a9c77aed07d505b5f3609;de;;;7.1.;;;Die Vorteile von SaaS-basierten Unternehmenssystemen für KMU - Eine Literaturübersicht Eine neue kostengünstige Generation von Software-as-a-Service basierten Enterprise Systemen steht ab sofort für kleine und mittelständische Unternehmen zur Verfügung und verleiht diesem Thema einen hohen Stellenwert. Es wurde festgestellt, dass diese Unternehmen nur einen begrenzten Nutzen aus Enterprise Systems ziehen können, im Gegensatz zu großen Unternehmen, die ein größeres Leistungsspektrum nutzen können. Inwieweit diese Vorteile realisiert werden können, ist noch unklar. Das Ziel dieses Papiers ist es daher, das aktuelle wissenschaftliche Wissen über die Vorteile von Enterprise Systems für kleine und mittlere Unternehmen zu identifizieren, zu klassifizieren, zu interpretieren und zu diskutieren. Dieses Papier klärt die Natur solcher Systeme und präsentiert eine systematische Literaturübersicht, in der die Forschung zu den Vorteilen von Unternehmenssystemen und wichtigen Komponenten davon untersucht wird, nämlich Enterprise Resource Planning, Supply Chain Management, Supplier Relationship Management und Customer Relationship Management. Das Ergebnis dieser Forschung bietet einen ersten Rahmen für potenzielle Vorteile von Software-as-a-Service-basierten Unternehmenssystemen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41077-2_3 86412fbca88bcbaacf30e56efc249943;de;;;7.1.;;;Business/IT-Ausrichtung: Die Perspektive der Führungskräfte Wie werden Unternehmen heute geführt und welche Rolle spielt ein modernes Business/IT-Alignment? Executive Information Systems (EIS) sollen das Top-Management bei der „Führung eines Unternehmens“ unterstützen. Viele Führungskräfte beklagen jedoch, dass EIS für ihre Führungsaufgabe wenig Relevanz haben. Dieser Artikel untersucht die Rolle des Business/IT-Alignments innerhalb einer EIS-Architektur der neuen Generation und trägt zu einem geschäftsorientierten Modell bei. Ein Prototyp demonstriert eine Instanziierung dieses Ansatzes. Die Ergebnisse werden zu sieben Empfehlungen zur Ausrichtung von Business und IT zusammengefasst, die zu einer besseren EIS-Architektur führen sollten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15402-7_19 8b53cc98192915f98855a2f360164670;de;;;7.1.;;;Einführung in semantisch aktivierte serviceorientierte Architekturen Die Informatik steht am Rande einer wichtigen neuen Abstraktionsperiode. Vor einer Generation haben wir gelernt, von Hardware zu abstrahieren, und derzeit lernen wir von Software im Sinne von serviceorientierten Architekturen (SOA) zu abstrahieren. Eine SOA ist im Wesentlichen eine Sammlung von Diensten. Für einen Kunden zählt der Service und nicht die spezifischen Software- oder Hardwarekomponenten, die zur Umsetzung dieses Services verwendet werden. Es ist eine allgemeine Erwartung, dass SOAs schnell zum führenden Software-Paradigma werden. Wir glauben jedoch, dass diese SOAs ohne eine signifikante Mechanisierung der Diensterkennung, Dienstanpassung, Dienstverhandlung, Dienstzusammensetzung, Dienstaufruf und Dienstüberwachung sowie der Daten-, Protokoll- und Prozessvermittlung nicht skalieren werden. Wir sehen die Zukunft der angewandten Informatik in Form von SOAs, die durch das Hinzufügen von Semantik als Mittel zum Umgang mit Heterogenität und Mechanisierung der Servicenutzung gestärkt werden. Dieser Ansatz wird als semantisch aktivierte serviceorientierte Architekturen oder kurz SESA bezeichnet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77020-6_4 322dec77b265303f873c7f1968a917ce;de;;;7.1.;;;Überblick über das Transaktionsmanagement mit mehreren Datenbanken Ein Multidatenbanksystem (MDBS) ist eine Einrichtung, die Benutzern den Zugriff auf Daten ermöglicht, die sich in mehreren autonomen Datenbankmanagementsystemen (DBMSs) befinden. In einem solchen System,;-;-;-;https://link.springer.com/article/10.1007/BF01231700 ebd437a8ed77f1e0c78de982923cff01;de;;;7.1.;;;Methodik zum Management von Herausforderungen im Produktlebenszyklus für virtuelle Unternehmen Für die meisten Unternehmen besteht ein großer Bedarf, ihr Produkt- und Servicemanagement in Open System Architecture zu entwickeln. Ein nachhaltiges Wachstum des Geschäfts beruht auf Dienstleistungen, die Unternehmen anbieten. Das Geschäftskonzept verändert sich über den Lebenszyklus hin zu wissensintensiv und wertkritisch. Produkte betten zunehmend Intelligenz ein, und Produkt- und Servicemodule entwickeln sich in dynamischer Beziehung durch ein wachsendes Wertschöpfungsnetzwerk von Partnern. Die Rolle der Service- und Produktarchitektur wird bei der Bewältigung der zunehmenden Komplexität immer wichtiger. Das Unternehmen von heute sucht nach einer Methodik und einem Computerwerkzeugsatz, die dabei helfen, Aspekte eines Unternehmens zu erfassen und diese zu analysieren, um Optionen zur Erfüllung der Geschäftsanforderungen zu identifizieren und zu vergleichen. Wir schlagen in diesem Artikel eine solche Methodik vor und stellen eine Fallstudie unter Verwendung von Toolsets vor, die erfolgreich im industriellen Umfeld im Produktlebenszyklus-Herausforderungsmanagement angewendet wird. Dieser Aspekt wird im Sinne der Nachhaltigkeit der Grundstoffindustrie gesehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35704-1_54 420ffd47f2be90b0b36a45444ffdf300;de;;;7.1.;;;"Die Tinker Toy Challenge – Ein Blick unter den Mantel der Unsichtbarkeit im Design von Informationssystemen Dieses Kapitel beschreibt einen analogen Lernansatz für das Design von Informationstechnologiesystemen. Der Kerngedanke ist die Kraft des Experimentierens – Experimentieren als Lehrmittel, um Schüler in die Gestaltung von Informationssystemen einzuführen, und Experimentieren als Lehrer, um eine praktische Aktivität zu entwickeln und zu verfeinern, die Schüler einbindet. Das Design von Informationstechnologiesystemen stellt für Studenten eine Herausforderung dar, da die Bits und Bytes, die durch das System verschoben werden müssen, schwer vorstellbar sind. Vor einem Jahrzehnt suchte ich einen Weg zu entwickeln, um einige der Konzepte des Systemdesigns erkennbarer zu machen, indem ich Bits und Bytes in die physikalische Welt übersetzte. So wurde die Tinker Toy Challenge geboren, bei der die Schüler die Aufgabe haben, ""eine 1-Pfund-Last drei lineare Füße zu bewegen"". Diese offene Herausforderung zwingt die Schüler, Fragen zu stellen, um den Problemraum besser zu verstehen und über die Anforderungen der Struktur nachzudenken. Dabei erforschen sie auch, was eine „Last“ sein kann und was „drei lineare Füße“ bedeuten könnte. Nach einem Jahrzehnt der Nutzung dieser Aktivität hat sich auch die Challenge weiterentwickelt.";-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03656-4_7 c7f1da7d044f9a3c88f0909e951eca96;de;;;7.1.;;;Entwicklung eines wissensbasierten Systems mit domänenspezifischen Ontologien und Experten: Die eSAFE-Fallstudie für das Veranstaltungsmanagement Wissen wird als strategischer Schlüsselfaktor für den Erfolg und das Überleben auf dem zunehmend wettbewerbsorientierten globalen Markt von heute angesehen. Diese Anerkennung ist einer der Hauptgründe für das exponentielle Wachstum bei der Entwicklung wissensbasierter Anwendungen. Jüngste Fortschritte auf diesem Gebiet haben zu einem verstärkten Forschungsinteresse an Ontologien und verschiedenen dynamischen Methoden zu deren Entwicklung und Pflege geführt. Ontologien gelten als eine der effizientesten Methoden zur Entwicklung semantisch gesteuerter wissensbasierter Systeme. In diesem Beitrag beschreiben wir einen Ansatz zur Entwicklung eines effektiven wissensbasierten Systems unter Verwendung expliziter Domänenontologien. Wir präsentieren auch Schlüsselprinzipien für die Organisation und Entwicklung inhaltsspezifischer Domänenontologien, die beim Wissenserwerb und beim Systemdesign helfen. Der Prozess wird anhand der Entwicklung eines wissensbasierten Systems für den Event-Management-Bereich veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/3-211-32710-X_39 1d8956dc7faa959085307fc68d256608;de;;;7.1.;;;Organisation und Verwaltung virtueller Unternehmen: Das EZB-Framework Dieses Papier führt einen Diskurs über die organisatorischen Anforderungen von virtuellen Unternehmen (VEs) ein. Die zunehmende wirtschaftliche Globalisierung bedroht die Wettbewerbsfähigkeit traditioneller Industriegebiete, die einen der Bausteine ​​der modernen Wirtschaft darstellen. VEs sind effiziente Lösungen für den Umgang mit Unsicherheit und Komplexität des gegenwärtigen Wettbewerbsumfelds, außerdem eignen sie sich zur Stärkung der globalen Wettbewerbsfähigkeit kleiner und mittlerer Unternehmen. Um die Inkubation und den Aufbau temporärer Unternehmensnetzwerke zu ermöglichen, wird ein VE-Organisationsrahmen eingeführt. Dieses Framework basiert auf der Rolle von drei Entitäten: Enabler, Catalyst und Broker (EZB). Die wichtigsten Vorteile des EZB-Ansatzes sind: wirksames Management horizontaler und vertikaler Beziehungen, effizienter Aufbau der VE, wirksames Management ihrer Betriebsphase.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35704-1_18 ed46efb22173c1799bdf3a76d104cc88;de;;;7.1.;;;Aktueller Stand und zukünftige Trends in der Entwicklung von Programmiersprachen für die Fertigung In der Entwicklung von Programmiersprachen, oder im weiteren Sinne von Werkzeugen und Sprachen, wurde ein Meilenstein für die Fertigung in zwei unterschiedlichen Bereichen erreicht, nämlich der Fabrikinformationsverarbeitung und der Fabrikautomatisierung, viele hervorragende, aber spezialisierte Werkzeuge und Sprachen wurden entwickelt. Für die meisten Tätigkeiten innerhalb einer Fabrik gibt es zahlreiche, aber unabhängige Computerhilfen, z. g. Produktionssteuerung, Betriebsdatenerfassung, Materialhandhabung und Prozesssteuerung.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0014793 1851462f8e09251ecc8bb4675d7747cd;de;;;7.1.;;;Fehlende Freunde? Die Geschlechterdimension in der Informationssystemforschung In diesem Beitrag wird argumentiert, dass die Forschung zu Gender und Informationssystemen, sowohl aus quantitativen als auch aus qualitativen Traditionen, problematisch ist, da das Konzept von Gender weiterhin wenig theoretisiert wird. Wir diskutieren, warum dies geschehen sein könnte, da das Interesse an Gender begonnen hat, andere Disziplinen zu durchdringen. Wir erarbeiten eine umfangreiche Forschungskritik, die einen statistischen Ansatz verwendet, und diskutieren vier aktuelle Veröffentlichungen mit einem MIS Quarterly Paper als Kardinalbeispiel. Wir schließen auch eine kürzere Diskussion qualitativer Literatur zu Gender und IS ein, die den Mangel an veröffentlichter Literatur in diesem Bereich widerspiegelt. Hier sehen wir ähnliche Tendenzen am Werk, wo sowohl Gender als auch Technologie als fixierte, „wesentliche“ und sogar stereotype Kategorien angesehen werden und wo Autoren noch nicht die Brennessel begriffen haben, den Begriff Gender solide gegen die umfassende Gender- und Informationstechnologie zu theoretisieren Literatur, die jetzt existiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35489-7_22 387ad09a670b74bcdec68d44049e5af4;de;;;7.1.;;;Datenmodellierung zum Umgang mit Unsicherheit in Fuzzy Logic Dieses Papier zeigt Modelle der Datenbeschreibung, die Unsicherheit beinhalten, wie unter anderem Modelle der Datenerweiterung EER, IF0. Diese Datenbankmodellierungswerkzeuge werden mit dem von uns vorgeschlagenen Muster FuzzyEER verglichen, das eine Erweiterung des EER-Modells ist, um Unsicherheit mit Fuzzy-Logik in Fuzzy-Datenbanken zu verwalten. Schließlich zeigt eine Tabelle die Komponenten des EER-Tools mit der Darstellung aller überarbeiteten Modelle.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34732-5_19 eda0aeac881a1d1d8e4cc9dd1934d786;de;;;7.1.;;;Komplexe Entscheidungssituationen In unserem täglichen Leben, in den Organisationen, in denen wir arbeiten, und in den Gemeinschaften, in denen wir leben, entstehen ständig Situationen, in denen eine Entscheidung getroffen werden muss. Das Wesen der Entscheidungsfindung liegt in der Formulierung alternativer Handlungsoptionen zur Bewältigung der jeweiligen Situation und in der Wahl zwischen diesen Alternativen nach einer Bewertung ihrer Wirksamkeit zur Erreichung der Ziele des Entscheidungsträgers.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-8815-9_1 701ad21f6b89b83d6123017980974412;de;;;7.1.;;;Ein strategisches städtisches Netzplanungstool zur Verbesserung der Widerstandsfähigkeit von Smart Grid-Netzen Die mangelnde Reaktionsfähigkeit und geringe Widerstandsfähigkeit der traditionellen Stadtarchitektur kann zu Instabilität und Versagen führen. Daher macht die strategische Positionierung neuer urbaner Elektrizität oder Stadtkomponenten die Stadt nicht nur widerstandsfähiger gegenüber Stromausfällen, sondern auch ein Schritt in Richtung einer grüneren und intelligenteren Stadt. Geld und Resilienz sind in diesem Fall zwei widersprüchliche Ziele. Im Falle von Stromausfällen können verteilte Energieressourcen den kritischen Bedarf an wichtigen Stadtkomponenten wie Krankenhäusern, Wasseraufbereitungsanlagen, Feuerwehr- und Polizeistationen decken. Darüber hinaus müssen die Akteure auf Stadtebene möglicherweise Geldeinsparungen und die allgemeine Widerstandsfähigkeit der Stadtplanung im Zusammenhang mit Änderungen der Stadtkomponenten in Betracht ziehen. Um Entscheidungsträgern Resilienz und monetäre Informationen zur Verfügung zu stellen, müssen die Auswirkungen der Veränderung der Stadtkomponenten analysiert werden. Dieses Papier stellt ein für diesen Zweck geeignetes neuartiges Werkzeug vor und berichtet über die Validierungsbemühungen durch einen Stakeholder-Workshop. Die Ergebnisse zeigen, dass vorhergesagte Ergebnisse von zwei alternativen Lösungen analysiert und mit Hilfe des Tools verglichen werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-02907-4_8 938e26c85fbedef5e655db73960d95bd;de;;;7.1.;;;Verderbliche Bestandsverwaltung und dynamische Preisgestaltung mit RFID-Technologie In preissensiblen Märkten können Preisaktionen in Verbindung mit einer geeigneten Artikelnachschubstrategie die Gesamtkosten der Marktbearbeitung effektiv kontrollieren. In Lieferketten mit verderblichen Produkten ist die Bestandsverwaltung bereits ein komplexes Problem und die Verwaltung von Produkten in einem dynamischen Preisumfeld noch schwieriger. Die Überwachung und Kontrolle zeitkritischer Produkte kann durch die Anwendung der Radiofrequenz-Identifikationstechnologie (RFID) erleichtert werden, die eine berührungslose Datenerfassung in Echtzeit und eine effiziente Anbindung an das Managementkontrollsystem in der Lieferkette ermöglicht. Dieses Papier beschreibt einen integrierten Rahmen für Bestandsverwaltung und Preisgestaltung in einem zeitdiskreten (periodischen Überprüfungs- und Bestellrahmen) und beschreibt einen effizienten Algorithmus, einschließlich einer neuen Annäherung, für das zugehörige Optimierungsproblem. Wir schlagen dann eine geeignete Architektur für die Anwendung der RFID-Technologie in diesem Zusammenhang vor, um die potenziellen Vorteile zu realisieren.;-;-;-;https://link.springer.com/article/10.1007/BF02706255 2db1d97978f84d14903e26a2b4658d79;de;;;7.1.;;;Von erweiterbaren Datenbanken bis hin zur Interoperabilität zwischen mehreren Datenbanken und GIS-Anwendungen Eines der Schlüsselkonzepte für die Unterstützung geographischer Objekte in GIS ist die Erweiterbarkeit von Datenbankmanagementsystemen. In diesem Beitrag werden wir zeigen, dass seine Verallgemeinerung in einer offenen verteilten Umgebung den Austausch von (fremden) Daten oder (fremden) Operationen zwischen mehreren Geodatenbanken und mehreren GIS-Anwendungssystemen und insbesondere zwischen Datenbanken und anwendungsspezifischen Berechnungsdienste. Dies ist ein Schritt zur Interoperabilität mehrerer (semi-)autonomer GIS-spezifischer Dienste mit Datenbankdiensten in einer globalen GIS-Umgebung (GGIS). Wir gehen auf die Vorteile von extern definierten Typen für einen verbesserten Austausch von Objekten zwischen einem Geodatenbanksystem und mehreren Anwendungssystemen in einer mehrsprachigen Umgebung ein. Dies beinhaltet die Unterstützung mehrerer Repräsentationen, die häufig für dasselbe Objekt erforderlich sind. Wir werden beschreiben, wie Remote Computing Services dem gleichen Prinzip folgen. Heterogenität in beiden Aspekten, sowohl in der Systemplattform als auch in der Datenrepräsentation, kann systematisch und explizit überwunden werden. Gleichzeitig wird das Schutzproblem angesprochen, das die konventionelle Erweiterbarkeit behindert. Durch den Einsatz unseres Geo DASDBS-Prototypsystems sind wir in der Lage, Messungen vorzustellen, die bestätigen, dass der Kostenaufwand durch externe Remote-Berechnungsdienste angesichts der erhöhten Flexibilität, die wir gewinnen, gut investiert ist.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-56869-7_13 326fedd106e8ab6814b762453c4b2dae;de;;;7.1.;;;Prognosekorrektur mit organisatorischem Debiasing bei der Revision des Unternehmens-Cashflows Unternehmen, die Informationssysteme verwenden, wie beispielsweise Entscheidungsunterstützungssysteme für wertende Prognosen, haben Geschäftsziele, die genaue Prognosen erfordern. Die Genauigkeit dieser Prognosen wird jedoch höchstwahrscheinlich durch organisatorische und individuelle Strukturen innerhalb des Unternehmens beeinflusst. Diese Verzerrungen, wie beispielsweise Umsatzziele oder persönliche Ziele, können die Vorhersagen der Prognostiker aufgrund finanzieller Anreize in vordefinierter Weise verändern. In diesem Papier wird argumentiert, dass die modellgetriebene Korrektur von Prognosen – die typischerweise nur statistische Methoden verwendet – organisatorische Debiasing-Methoden einbeziehen sollte. Bei einem internationalen Konzern prognostizieren lokale Experten Cashflows für das unternehmerische Risikomanagement. Die Prognosen werden später auf Unternehmensebene mit anschließenden Debiasing-Techniken zur Entscheidungsunterstützung aggregiert. Empirische Ergebnisse zeigen, dass die Berücksichtigung von Organisationszielen für Debiasing-Techniken die Prognosegenauigkeit stark verbessern kann. Der gesamte korrigierbare Expertenfehler wird für alle Forecasts eines Monats um bis zu 60 % reduziert, was den Managern eine bessere Entscheidungsunterstützung bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00713-3_18 37c8c5c978e91ee7cf7d08e9fbfc5377;de;;;7.1.;;;Metamodell einer Logistik-Service-Landkarte Mit dem Prinzip der Arbeitsteilung in der Logistik kann sich ein Integrator auf die Planung und Überwachung innerhalb eines Netzwerks konzentrieren, während untergeordnete Logistikdienstleister (LSPs) für die eigentliche physische Manipulation der Ware zuständig sind. Aufgrund heterogener Leistungsbeschreibungen, Prozesse und IT-Systeme benötigt der Integrator eine Plattform, die die Möglichkeit bietet, mit LSPs zu interagieren und Verträge für seine Kunden zu planen, auszuführen und zu überwachen. Eine solche Integrationsplattform wird derzeit im Forschungsprojekt Logistics Service Engineering & Management entwickelt. Entscheidend für eine solche Plattform ist die Fähigkeit, einen vollständigen Katalog zu pflegen und geeignete Dienste effizient zu identifizieren und auszuwählen. In diesem Beitrag wird ein metamodellbasierter Ansatz vorgestellt, der diesen Anforderungen gerecht wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06695-0_16 606a55851a50bfa7031e288c36ae74f7;de;;;7.1.;;;Transportsysteme: Überwachung, Kontrolle und Sicherheit Der Transport ist einer der wichtigsten Eckpfeiler der menschlichen Zivilisation, der den Transport von Menschen und Waren von einem Ort zum anderen erleichtert. Die Menschen nutzen für ihre alltäglichen Aktivitäten routinemäßig verschiedene Verkehrsmittel wie Straße, Luft, Schiene und Wasser. Die stetige Zunahme der Weltbevölkerung und die Urbanisierung rund um den Globus bringen die Verkehrssysteme jedoch an ihre Grenzen. Zweifellos ist das Straßenverkehrssystem am stärksten betroffen, da es schwierig und kostspielig ist, die Kapazität der bestehenden Infrastruktur durch den Bau oder Ausbau neuer Straßen, insbesondere in städtischen Gebieten, zu erhöhen. In diese Richtung können intelligente Verkehrssysteme (ITS) eine entscheidende Rolle bei der Verbesserung der Nutzung der bestehenden Verkehrsinfrastruktur spielen, indem sie elektronische, sensorische, Informations- und Kommunikationstechnologien in ein Verkehrssystem integrieren. Eine solche Integration stellt jedoch große Herausforderungen an die Überwachung, Steuerung und Sicherheit von Verkehrssystemen. Dieses Kapitel gibt einen Überblick über den Stand der Technik und die Herausforderungen bei der Implementierung von ITS in Straßenverkehrssystemen mit besonderem Schwerpunkt auf Überwachung, Kontrolle und Sicherheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44160-2_5 e8604d9a99ee9ed7d31e35b0e98ecaef;de;;;7.1.;;;Entwerfen eines lebenszyklusintegrierten Datennetzwerks für die Wiederaufarbeitung mit RFID-Technologie Mit dem Aufkommen von Bedenken hinsichtlich Umweltverschmutzung und Ressourcenerschöpfung haben die Erstausrüster begonnen, Verantwortung für eine umweltgerechte Herstellung gemäß den festgelegten Vorschriften zu übernehmen. Hersteller müssen daher entscheiden, wie viel sie recyceln und welche Optionen sie verfolgen, um Betriebskosten und Umweltbelastungen zu minimieren und gleichzeitig die Vorschriften einzuhalten. Sie können jedoch die Qualität der zurückgesandten Produkte nicht vorhersagen und die Planung von Recyclingaktivitäten ist daher nicht zuverlässig. Darüber hinaus haben die Komponenten der Produkte alle unterschiedliche Alter und Lebensdauer. Somit kann es eine Reihe von Komponenten geben, die mehr als einmal recycelt werden können. Wenn die Lebensdauer dieser Komponenten jedoch nicht verfügbar ist, können recycelbare Komponenten nach einmaligem Recycling entsorgt werden. In diesem Beitrag schlagen wir ein integriertes Datensystem vor, das mithilfe von Radiofrequenz-Identifikationstechnologie nützliche Informationen liefert, die die Wiederaufbereitung effizienter machen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40361-3_21 978aa08e9fa5c270068914978c745ab9;de;;;7.1.;;;Entdecken Sie Kooperations- und Wissensmanagement-Praktiken für die digitale Fabrik der Zukunft In letzter Zeit gab es eine Explosion neuer Technologien und Tools wie Wikis, Blogs, Tags, Facebook und viele andere, die allgemein unter Web 2.0 identifiziert werden und ein neues digitales Geschäftsökosystem versprechen, das von formalen/informellen und internen/externen Beziehungen gespeist wird und Interaktionen. Obwohl Web 2.0 sehr vielversprechend ist, um eine solche kollektive Wissensgenerierung zu ermöglichen, ist die Technologie allein nicht die einzige Zutat. Es ist auch erforderlich, die richtige Strategie, Governance, Kultur, Prozesse, Schulungen und Anreize unter anderem zu definieren, bevor solche innovativen offenen Räume für Zusammenarbeit und Wissensaustausch implementiert werden. Daher besteht das Ziel dieses Papiers darin, ein Wissensmanagement-(KM)-Framework und ein Reifegradmodell vorzustellen, das von einem gemeinsamen Forschungsprojekt von CEMEX und EPFL entwickelt wurde, um die AS-IS-Kooperationspraktiken in CEMEX vor der Implementierung des SMARTBRICKS Web 2.0-Prototyps für Business Process Management (BPM), derzeit in Entwicklung im Projekt Intelligent Manufacturing Systems (IMS) Swiss Digital Factory (DiFac).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04568-4_64 1be53e4f41e94fb36bdb603f40e13f18;de;;;7.1.;;;Informationen über Matchmaking integrieren Trends wie die massive Zunahme der über elektronische Netzwerke verfügbaren Informationen, die Verwendung von Online-Produktdaten durch verteilte, gleichzeitig arbeitende Entwicklungsteams und die dynamische Integration der Lieferkette für den elektronischen Handel belasten die traditionellen Methoden des Informationsaustauschs und -abrufs stark. Informationsquellen sind viel zu zahlreich und dynamisch, als dass sie mit herkömmlichen Methoden der Informationsabfrage gefunden werden könnten, und potenzielle Verbraucher sehen einen erhöhten Bedarf an automatischen Benachrichtigungsdiensten. Matchmaking ist ein auf neu entstehenden Informationsintegrationstechnologien basierender Ansatz, bei dem potenzielle Informationsproduzenten und -konsumenten Nachrichten senden, die ihre Informationsfähigkeiten und -bedürfnisse beschreiben. Diese Beschreibungen, die in reichhaltigen, maschinell interpretierbaren Beschreibungssprachen dargestellt werden, werden vom Matchmaker vereinheitlicht, um potenzielle Übereinstimmungen zu identifizieren. Basierend auf den Übereinstimmungen werden eine Vielzahl von Informationsvermittlungsdiensten durchgeführt. Wir führen Matchmaking ein und argumentieren, dass es vielen dynamischen Verbrauchern und Anbietern, die mit sich schnell ändernden Daten arbeiten, ermöglicht, Informationen effektiver auszutauschen als mit herkömmlichen Methoden. Es werden zwei Matchmaker beschrieben, der SHADE-Matchmaker, der über logikbasierte und strukturierte Textsprachen arbeitet, und der COINS-Matchmaker, der über Freitext arbeitet. Diese Matchmaker wurden für eine Vielzahl von Anwendungen verwendet, vor allem in den Bereichen Ingenieurwesen und elektronischer Handel. Wir beschreiben unsere Erfahrungen mit dem SHADE- und COINS-Matchmaker und skizzieren die wichtigsten beobachteten Vorteile und Probleme des Matchmaking.;-;-;-;https://link.springer.com/article/10.1007/BF00122130 f57726eb4e82c9d41b2694458c6ce2e1;de;;;7.1.;;;Eine vergleichende Studie über die Auswirkungen der ERP-Systemimplementierung auf große Unternehmen in der Slowakei und Slowenien Basierend auf einer Literaturrecherche kann festgestellt werden, dass nur sehr wenige Forschungsarbeiten veröffentlicht wurden, die sich auf Enterprise Resource Planning (ERP)-Systeme nach der Implementierungsphase konzentrieren. Dieser Beitrag versucht, dazu beizutragen, diese theoretische Lücke zu schließen. Ziel dieses Papiers ist es zu analysieren, ob ein signifikanter Unterschied in den Auswirkungen der ERP-Systemimplementierung auf die gesamten IS/IT-Kosten sowie im Anteil der IT/IS-Kosten, die der IT und anderen Abteilungen zugeschrieben werden, auf die Effizienz festgestellt werden können B. Rentabilität, Effektivität als Produktivität und Verfügbarkeit von IS/IT-Services. Die Untersuchung basiert auf Daten großer slowakischer und slowenischer Unternehmen. Die Modelle kontrollieren den Umfang und den Erfolg der ERP-Systemimplementierung und die IT-Ausrichtung des Unternehmens.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24358-5_32 dc1e40a70a1d03f7c4616417baea3328;de;;;7.1.;;;Neue Ansätze für die Multi-Agenten-Planung Die Koordination von Aktionen durch eine Gruppe von Agenten entspricht einem Gruppenplanungsprozess. Es wird eine Multi-Agenten-Planungstechnik vorgestellt, die ein dynamisches, iteratives Suchverfahren nutzt. Durch einen Prozess der Aggregation von Gruppenbeschränkungen konstruieren Agenten inkrementell einen Plan, der die Gruppe in einen Zustand bringt, in dem die soziale Wohlfahrt maximiert wird. Bei jedem Schritt stimmen die Agenten über die;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-1132-4_20 def3895fcc700940746ca0d25c41d602;de;;;7.1.;;;Das LOGI - Spiel - ein dynamisches modulares Logistikspiel Der Beitrag stellt ein interaktives, modulares Logistikspiel vor, in dem Material- und Informationsflüsse in einem Vertriebskanal simuliert werden können. Das Spiel basiert auf einer Modellbank mit einer Reihe von vorgefertigten Tabellenkalkulationsmodellen für Prognose, Bestands- und Produktionsmanagement sowie Verwaltung;-;-;-;https://link.springer.com/chapter/10.1007/978-1-5041-2870-4_17 12d1aee03b54e499e93731691c5ada1c;de;;;7.1.;;;Implementieren von Knowledge-Update-Sequenzen Die Aktualisierung von Wissensbasen wird zu einem wichtigen Thema in der Künstlichen Intelligenz und zu einem Schlüsselproblem bei der Wissensrepräsentation und Argumentation. Eine der neuesten Ideen zur Aktualisierung von Logikprogrammen besteht darin, zwischen Modellen von minimal generalisierten Antwortsätzen zu wählen, um die Nachteile früherer Ansätze zu überwinden. Dieses Papier beschreibt eine Implementierung der deklarativen Version von Aktualisierungssequenzen, die als Alternative zur Syntax-basierten Semantik vorgeschlagen wurde. Einer der Hauptbeiträge dieser Implementierung besteht darin, die schwachen Einschränkungen von DLV zu verwenden, um das/die Modell(e) einer Aktualisierungssequenz zu berechnen, neben der Präsentation der von den Autoren vorgeschlagenen genauen Definitionen und einem Online-Solver. Als Ergebnis skizziert der Beitrag die grundlegende Struktur des Systems, beschreibt die verwendete Technologie, diskutiert den Hauptprozess der Berechnung der Modelle und veranschaulicht das System anhand von Beispielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76631-5_1 d044485643779454db589ca2bb2cb66a;de;;;7.1.;;;BPM-Change-Planung mit der Change-Matrix und diskreten Optimierungsmethoden Jede Initiative zur Prozessverbesserung beinhaltet irgendeine Art von Veränderung. Aber je komplizierter die Bemühungen sind, desto mehr benötigen sie Werkzeuge für das Management des Veränderungsprozesses. Als wesentlicher Grund für die geringen Erfolgsraten bei der Neugestaltung von Geschäftsprozessen wurde ein Mangel an Werkzeugen für das Änderungsmanagement erkannt. Die Änderungsmatrix kann Managern dabei helfen, kritische Interaktionen zwischen Prozessen zu identifizieren und Probleme zu lösen, z kohärent. Einer der Nachteile der Matrix ist jedoch ihre Größenbeschränkung. Die Autoren beschreiben einen Weg zur Überwindung der Limitierung, stellen ein formales Modell der Matrix vor und formulieren das Problem der BPM-Change-Planung als diskretes Optimierungsproblem innerhalb des Modells.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06065-1_10 1a9896bb4541ef2fa2cb1b71a2f3b9de;de;;;7.1.;;;Systematische Unterstützung für den gesamten Lebenszyklus des Wissensmanagements durch erweiterte semantische Annotation über Informationssystemgrenzen hinweg In heutigen Organisationen gibt es eine Vielzahl von Informationssystemparadigmen, um die unterschiedlichen organisatorischen Bedürfnisse zu unterstützen, die einerseits auf verschiedenen Betriebsebenen, Taktiken und Strategien liegen und andererseits unterschiedlichen Arbeitsstilen unterliegen. Dies macht es schwierig, Wissensmanagementsysteme zu entwerfen, die in heterogene Informationssystemanwendungen integriert werden können. In diesem Papier stellen wir Tippanee vor, mit dem Benutzer semantische Annotationen über dynamisch generierte Inhalte über die Grenzen beliebiger Informationssystemanwendungen hinweg erstellen und verwalten können. Darüber hinaus zeigen wir, wie diese erweiterten semantischen Annotationsfunktionen im gesamten Wissensmanagement-Lebenszyklus systematisch genutzt werden können. Wir erklären, wie die wesentlich wichtige Transformation von implizit-explizit-implizitem Wissen der Reorganisation semantischer Schemata durch einen ausgereiften redaktionellen Prozess entspricht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-92901-9_7 d234cc8270a5b30f7fd583fd15e63473;de;;;7.1.;;;Globales intelligentes Logistik-Entscheidungssystem für die Herstellung medizinischer Geräte Globale Logistik zielt darauf ab, den Material-/Produktfluss und den Informationsfluss zu optimieren und zu steuern, damit Materialien/Produkte in der gewünschten Geschwindigkeit, in der richtigen Weise und im richtigen Volumen bewegt werden können. Die Produktionsprozesse in der Medizintechnikindustrie sind hochautomatisiert und dynamisch und die Aufträge individuell. Diese Studie präsentiert ein intelligentes globales Logistiksystem für die Planung und Planung von Produktionssystemen für medizinische Geräte, um die Logistikkosten zu minimieren. Die Optimierungstechnik für die Produktionsplanung in den Lieferketten medizinischer Geräte zeigt, wie ein intelligentes Logistiksystem reale Probleme effektiv lösen kann. Diese Forschung entwickelt ein intelligentes Entscheidungssystem für die globale Logistik von Produktionssystemen für medizinische Geräte. Das vorgeschlagene System wird mit realen Anwendungen verifiziert. Hersteller medizinischer Geräte können von dem vorgeschlagenen Optimierungssystem profitieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75902-9_11 d1f8e2f914f40b8c2cfbd590e87b0115;de;;;7.1.;;;Die Vergangenheit simulieren, um die Gegenwart zu verstehen. Ein kritischer Rückblick Dieser einleitende Essay soll die Kapitel des Buches einführen und einige Aspekte des theoretischen und konzeptionellen Rahmens vorstellen, der notwendig ist, um die Vorteile von Computersimulationstechniken und -technologien für historische Disziplinen zu berücksichtigen, aber auch aus Hunderten von Beispielen in der aktuellen wissenschaftlichen Literatur zu zitieren, um einen Überblick zu geben Kontext, in dem die einzelnen Beiträge besser verstanden werden können. Wir argumentieren, dass historische Simulationen viel mehr sein sollten als anschauliche Illustrationen dessen, was Gelehrte in der Gegenwart in der Vergangenheit glauben. Eine Simulation ist im Grunde die Computerdarstellung eines „Mechanismus“, der darstellt, wie soziale Absichten, Ziele und Verhaltensweisen in der Vergangenheit kausal verbunden waren. Dies kann durch die Formulierung eines „generativen Modells“, also eines Modells einer Reihe von Mechanismen, erfolgen. In diesem Kapitel wird vorgeschlagen, dass Computersimulationen als virtuelles Labor fungieren können, um zu untersuchen, wie menschliche Gesellschaften relevante Transformationen erlebt haben und auf welche Weise die Folgen dieser Transformationen in Technologie, Aktivitäten, Verhalten, Organisation oder Wissen auf andere soziale Agenten oder Gruppen von sozialen Agenten. Der Aufbau künstlicher Gesellschaften in einem Computer ermöglicht es uns zu verstehen, dass die soziale Realität nicht launisch ist. Es wurde irgendwie erzeugt, obwohl nicht immer dieselbe Ursache dieselbe Wirkung hat, weil soziale Handlungen nicht isoliert durchgeführt werden, sondern in komplexen und dialektischen Rahmen, die die Fähigkeit, Neigung oder Tendenz der Handlung begünstigen, verhindern oder modifizieren eine konkrete Wirkung zu erzeugen oder zu bestimmen. Diese Art, soziale Dynamiken in der Vergangenheit mit Hilfe von Computersimulationen zu untersuchen, gerät in den Kinderschuhen. Archäologen und Historiker haben damit begonnen, soziale Theorien in Computerprogramme umzusetzen, die versuchen, soziale Prozesse zu simulieren und mit verschiedenen Erklärungen über bekannte archäologische Gesellschaften zu experimentieren. Unser Buch ist nur ein weiteres Beispiel für einen aktuellen Trend unter Archäologen und Historikern: Historische Ereignisse ereigneten sich nur einmal und vor vielen Jahren, aber in einem Computer können Surrogate dieser Ereignisse hier und jetzt künstlich wiederholt werden, um zu verstehen, wie und warum sie passiert sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-31481-5_1 e8166fe23acfa664006f1e600ca67242;de;;;7.1.;;;Nachdenken über Design zum Sprechen: Kommunikationsunterstützungssysteme Die Unterstützung der Kommunikation zwischen Menschen ist zu einem wichtigen Bestandteil populärer Informationssysteme für Arbeit und Freizeit geworden. Einst auf Bürosysteme beschränkt, ist die Kommunikationsunterstützung heute allgegenwärtig, sie ist entweder die Hauptfunktion eines Systems (wie E-Mail und soziale Medien) oder eine wichtige Ergänzung anderer Funktionen (wie Computer, Datenverarbeitung, E-Commerce, medizinische Behandlung). und Entscheidungsfindung). Offensichtlich ist Kommunikation in Informationssystemen weit verbreitet. Wissen über Kommunikation ist daher ein wichtiger Bestandteil des Baukastens eines Entwicklers oder sollte es zumindest sein. Leider nicht, nicht in systematischer Form. Entwickler von Informationssystemen verlassen sich auf ihr gutes Urteilsvermögen und ihre eigenen Erfahrungen mit E-Mail, Instant Messaging, Tweets, Videokonferenzen und anderen. Ich frage in diesem Artikel – können wir es besser machen, indem wir auf Theorie aufbauen?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-2739-2_4 f73fb42924b8c68ccbe2ed0e73739156;de;;;7.1.;;;Systemarchitektur der nächsten Generation – die Matrix Das 21st Century Networks and Systems Project (21CN) von BT stellt das Unternehmen vor die Herausforderung, sich von einem PSTN-Anbieter zu einer echten Multiservice-zentrierten Organisation zu entwickeln. Dies verändert nicht nur den Servicehorizont radikal, sondern erfordert auch, dass BT ein herausragendes Kundenerlebnis bietet, eine schnelle Markteinführung ermöglicht und gleichzeitig die Gesamtbetriebskosten senkt.;-;-;-;https://link.springer.com/article/10.1007/s10550-005-0107-1 86eef67051631770584879df2fddd2ee;de;;;7.1.;;;Analyse der IT-gestützten Produktionssteuerung durch die Verknüpfung von Petrinetzen und statischen UML-Strukturdiagrammen Eine Methode zur Modellierung der Interaktion zwischen einem Produktionssteuerungsprozess und einem Informationssystem wird vorgestellt. Farbige Petrinetze werden verwendet, um den Prozess und die statische UML-Struktur zu modellieren. Wenn die Token im Internet als Objekte im Datenmodell modelliert werden, können die Übergänge im Prozessmodell als formale Ausdrücke über das Datenmodell spezifiziert werden. Somit verifiziert das Modell die Konsistenz zwischen Prozess und Informationssystem und kann als formale Spezifikation für z.B. eine ERP-Implementierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40361-3_19 80c2e7d52a8a793331d0aea98501eb53;de;;;7.1.;;;Design und Implementierung einer intelligenten Plattform zur Analyse von Buchhaltungsdaten basierend auf industriellem Cloud Computing Um die Fähigkeit der Buchhaltungsdatenanalyse und -statistik zu verbessern, wird ein Verfahren zum Aufbau einer modernen Buchhaltungsdatenanalyseplattform basierend auf industriellem Cloud-Computing vorgeschlagen. Das Zeitreihenmodell der modernen Abrechnungsdatenanalyse wird unter Verwendung eines Blockbitsequenz-Analyseverfahrens konstruiert, und die charakteristische Menge der Zuordnungsregel der Abrechnungsdaten wird extrahiert. In Kombination mit der Cloud-Computing-Technologie wird die moderne Plattform zur Analyse von Buchhaltungsdaten konstruiert, und der Fuzzy-C-Means-Clustering-Algorithmus wird verwendet, um das Clustern moderner Buchhaltungsdaten zu realisieren, was die Fähigkeit des parallelen Computings und der statistischen Analyse von Buchhaltungsdaten verbessern kann. Die Simulationsergebnisse zeigen, dass die konzipierte intelligente Datenanalyseplattform die statistische Analysefähigkeit von Abrechnungsdaten verbessert und die parallele Recheneffizienz erhöht.;-;-;-;https://link.springer.com/article/10.1186/s13638-020-1647-2 1d2d11f588ea8358286894ee5482261b;de;;;7.1.;;;Unternehmensrichtlinien zur Computersicherheit: die Realität Probleme der Computersicherheit werden normalerweise aus technischer Sicht angegangen. Immer mehr Organisationen und Computerspezialisten erkennen jedoch, dass die Anwendung von mehr Technologie als Grundlage für eine Antwort auf ein Problem, das sich aus der Technologie ergibt, auf lange Sicht keine praktikable Lösung sein kann. Dieses Papier zeigt, wie wichtig es ist, andere Überlegungen zu berücksichtigen, wie beispielsweise Geschäfts- und Managementanforderungen sowie praktische Benutzerfragen. Damit dieser Ansatz Fortschritte machen kann, müssen wir zunächst die aktuelle Situation in normalen Organisationen ermitteln. Dieses Papier beschreibt die wichtigsten Ergebnisse der Forschung, die durchgeführt wurde, um den Status der Computersicherheit in Unternehmen heute zu bestimmen.;-;-;-;https://link.springer.com/article/10.1057/ejis.1992.2 40bc50186ea4f63c7769a9ac8cdc95bf;de;;;7.1.;;;Integration der Supply-Chain-Planung mit zeit- und ressourcenbeschränkten Projektplanungsproblemen für thermische Sanierungsprojekte von Gebäuden CRIBA ist ein Projekt zur Industrialisierung thermischer Sanierungsverfahren von Gebäuden. Es besteht darin, maßgeschneiderte Isolierplatten zu entwerfen und zu konfigurieren, die an der Außenfassade der Gebäude angebracht werden, um die Ziele der thermischen Sanierung zu erreichen. Unsere Studie liefert ein Optimierungsmodell, das das Lieferkettennetzwerk umfassend plant, das isolierte Platten an die Baustellen des Gebäudes liefert und Renovierungsaktivitäten plant, die an den Baustellen unter der begrenzten Menge der verfügbaren Ressourcen durchgeführt werden sollten. In diesem Zusammenhang ist die Integration des Lieferkettenplanungsproblems mit dem ressourcenbeschränkten Mehrprojektplanungsproblem und der zeitbeschränkten Projektplanung von Interesse bei der Realisierung des Entscheidungsfindungswerkzeugs.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24141-8_53 89ef2404ea86eca600d006daa0e10b6b;de;;;7.1.;;;Software Analytics für die Planung der Produktentwicklung Die Weiterentwicklung eines Softwareprodukts ist unvermeidlich, da sich der Produktkontext ändert und das Produkt allmählich weniger nützlich wird, wenn es nicht angepasst wird. Die Planung ist die Grundlage für die Entwicklung eines Softwareprodukts. Der Produktmanager, der die Verantwortung für die Planung trägt, benötigt aber nicht immer Zugang zu qualitativ hochwertigen Informationen, um die bestmöglichen Planungsentscheidungen zu treffen. Die aktuelle Studie zielt darauf ab zu verstehen, ob und wann Analytics für die Produktplanung wertvoll sind und wie sie für einen Softwareproduktplan interpretiert werden können. Die Studie wurde mit einem interviewbasierten Umfragemethodik-Ansatz durch 17 eingehende halbstrukturierte Interviews mit Produktmanagern entworfen. Basierend auf den Ergebnissen der qualitativen Analyse der Interviews haben wir ein analysebasiertes Modell definiert. Das Modell zeigt, dass Analytik Potenziale hat, um die Interpretation von Produktzielen zu unterstützen, während sie sowohl durch Produkteigenschaften als auch durch Produktziele eingeschränkt wird. Das Modell impliziert, wie Analysen für eine gute Unterstützung der Produktplanungsentwicklung verwendet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-40515-5_2 94270b2ffb4210131a2d661bc0e033bb;de;;;7.1.;;;Die RETSINA MAS Infrastruktur RETSINA ist eine implementierte Multi-Agent-System-Infrastruktur, die seit mehreren Jahren entwickelt und in vielen Bereichen vom Finanzportfoliomanagement bis zur Logistikplanung eingesetzt wird. In diesem Papier destillieren wir aus unserer Erfahrung bei der Entwicklung von MASs, um eine generische MAS-Infrastruktur klar als domänenunabhängiges und wiederverwendbares Substrat zu definieren, das die sozialen Interaktionen der Agenten unterstützt. Darüber hinaus zeigen wir, dass die MAS-Infrastruktur Anforderungen an einen einzelnen Agenten stellt, wenn der Agent Mitglied eines MAS sein und verschiedene Komponenten der MAS-Infrastruktur nutzen möchte. Obwohl von Agenten erwartet wird, dass sie in ein MAS eintreten und nahtlos und mühelos mit den Agenten in der MAS-Infrastruktur interagieren, erfordert der aktuelle Stand der Technik, dass Agenten mit dem Wissen programmiert werden, welche Infrastruktur sie verwenden werden und welche verschiedenen Fallback- und Wiederherstellungsmechanismen, die die Infrastruktur bereitstellt. Durch die Bereitstellung eines abstrakten MAS-Infrastrukturmodells und einer konkret implementierten Instanz des Modells, RETSINA, tragen wir zur Entwicklung von Prinzipien und Praktiken bei, um die MAS-Infrastruktur „unsichtbar“ und für die interagierenden Akteure allgegenwärtig zu machen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1024172719965 414fa79505acb38b9b65877f5683e619;de;;;7.1.;;;Zelluläre Automatenmodellierung für die Brandausbreitung als Werkzeug zur Unterstützung der gemeindebasierten Planung zur Katastrophenvorsorge Als Werkzeug zur Unterstützung der Zusammenarbeit bei der gemeinschaftsbasierten Planung zur Katastrophenvorsorge in japanischen alten Holzbaugebieten versuchen wir, ein Simulationsmodell zur Brandausbreitung zu entwickeln, das eine Brandbekämpfungsaktivität unter Verwendung von Zellularautomaten (CA) beinhaltet. Das vorgeschlagene Modell kann den Prozess der Brandausbreitung in einem Gebäude behandeln, den herkömmliche Modelle nicht darstellen können. Ob sich ein Feuer ausbreiten kann oder nicht, basiert auf einem stochastischen Berechnungsverfahren, um eine unsichere Feuerausbreitung zu reproduzieren. Die durch den stochastischen Faktor verursachten Fehler werden analysiert, indem die Simulation zwei- oder mehrmals unter den gleichen Bedingungen durchgeführt wird. Darüber hinaus wird die Reproduzierbarkeit des Modells untersucht, indem Simulationsergebnisse mit tatsächlichen Brandaufzeichnungen verglichen werden.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-2409-6_13 7d36bad224a2ae741d806afa0bcc9147;de;;;7.1.;;;Wie gesund ist mein Projekt? Open-Source-Projektattribute als Erfolgsindikatoren Die Bestimmung, welche Faktoren das erfolgreiche Ergebnis eines Softwareprojekts beeinflussen können, wurde von vielen Wissenschaftlern und Softwareingenieuren als schwieriges Problem bezeichnet. In diesem Artikel verwenden wir maschinelles Lernen, um ein Modell zu erstellen, das die Phase, die ein Softwareprojekt erreicht hat, mit einiger Genauigkeit bestimmen kann. Unser Modell verwendet 8 Open-Source-Projektmetriken, um die Phase zu bestimmen, in der sich ein Projekt befindet. Wir validieren unser Modell anhand von zwei Leistungskennzahlen, der genauen Erfolgsrate bei der Klassifizierung eines Open-Source-Softwareprojekts und der Erfolgsrate über ein Intervall einer Phase seiner tatsächlichen Leistung unter Verwendung verschiedener Skalen unserer abhängigen Variablen. In allen Fällen erreichen wir eine Genauigkeit von über 70 % bei einer Abwesendklassifizierung (einer Abwärtsklassifizierung) und einer Genauigkeit von etwa 40% bei einer genauen Klassifizierung. Wir bestimmen auch die Faktoren (gemäß einem Klassifikator), der nur acht Variablen von allen in SourceForge verfügbaren Variablen verwendet, die den Zustand eines OSS-Projekts bestimmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38928-3_3 3e602c09ee10845f1b2388c826f2dcdb;de;;;7.1.;;;Sicherheit der Büroautomatisierung Der Begriff der Büroautomation ist in den letzten zehn Jahren stark gewachsen und umfasst heute weit mehr als Kopierer, Textverarbeitung und lokale Abrechnungsfunktionen. Ein modernes automatisiertes Büro kann eine breite Palette von Benutzerarbeitsplätzen umfassen, die über ein lokales Netzwerk (LAN) mit Dateiservern und Gateways mit Hauptcomputersystemen verbunden sind. Das Angebot an Softwaresystemen an den Arbeitsplätzen hat sich um Desktop-Publishing, E-Mail, Sekretariatsdienste wie Termin- und Terminplaner, Projektplanung, Kalkulationssysteme, Finanzplanung etc Großrechner.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-10137-5_6 672b4c50cb94157e677c95db64f10879;de;;;7.1.;;;Unternehmensarchitektur in der Praxis Die Unternehmensarchitektur, wie sie derzeit praktiziert wird, begann 1987 mit der Veröffentlichung des Artikels „A Framework for Information Systems Architecture“ von John Zachman Unternehmensarchitektur wird als Fehlschlag wahrgenommen. In diesem Buch beschreibe ich ein neues Framework für die Entwicklung von Unternehmensarchitekturen, das den bisherigen Fokus auf die Systemimplementierung aufgibt und sich auf das Erreichen der Unternehmensziele konzentriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-4306-0_1 1f9404dfb3a1522a7a49f969bf1ffbb2;de;;;7.1.;;;Verstärkung lernbasierte Dialogmanagementstrategie Dieses Papier schlägt einen neuartigen Markov-Entscheidungsprozess (MDP) vor, um das Problem des Erlernens einer optimalen Strategie durch einen Dialogmanager für ein Flugauskunftssystem zu lösen. Eine einzigartige Darstellung des Zustands wird präsentiert, gefolgt von einem relevanten Aktionsset und einem Belohnungsmodell, das für verschiedene Zeitschritte spezifisch ist. Für die Ausführung der Dialog-Management-Komponente wurden verschiedene Reinforcement Learning (RL)-Algorithmen implementiert, die auf klassischen Methoden und Deep-Learning-Techniken basieren. Um die Robustheit des Systems zu gewährleisten, wurde ein vorhandenes Slot-Filling (SF)-Modul in das System integriert. Das System kann auch bei einem Ausfall des SF-Moduls noch gültige Antworten generieren, um vernünftig zu handeln. Die experimentellen Ergebnisse zeigen, dass das vorgeschlagene MDP und das System versprechen, skalierbar zu sein, um die Absicht des Benutzers zu erfüllen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-04182-3_32 13a7bf55ce890ec70b809022328e7edf;de;;;7.1.;;;Jenseits der Budgetierung: Ein Performance-Management-Modell für Softwareentwicklungsteams Das Performance-Management-Modell von Beyond Budgeting ermöglicht es Unternehmen, mit sich ändernden Umgebungen Schritt zu halten, Strategien schnell zu erstellen und anzupassen und Mitarbeiter im gesamten Unternehmen zu befähigen, effektive Entscheidungen zu treffen. Wir argumentieren, dass dieses Performance-Management-Modell ideal für die agile Softwareentwicklung sein kann. Obwohl sie aus unterschiedlichen Disziplinen stammen, sind beide auf eine kundenorientierte, sich schnell verändernde Betriebsumgebung ausgelegt und das Beyond Budgeting-Modell bietet einen nützlichen Gesamtrahmen für die Forschung im Performance Management agiler Softwareentwicklungsteams. In diesem Artikel wird das Modell als Linse verwendet, um das Leistungsmanagement agiler Softwareentwicklungsteams in einem großen multinationalen Unternehmen zu untersuchen. Die Ergebnisse zeigen, dass einige traditionelle Performance-Management-Prozesse (insbesondere der Budgetierungsprozess), die zur Unterstützung des Performance-Managements von Softwareentwicklungsteams entwickelt wurden, die Leistung agiler Teams aufgrund ihrer Eignung zur Einhaltung der Anforderungen des Systementwicklungslebenszyklus beeinträchtigen können Modell.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16416-3_20 6bab8a18591e0a5a4ab7d159e6097cc6;de;;;7.1.;;;Entwicklung von Messgrößen zur Institutionalisierung von Enterprise Architecture Management in Organisationen Während den Architekten ausgeklügelte Methoden und Modelle des Enterprise Architecture Management (EAM) zur Verfügung stehen, bleibt es eine beobachtbare und kritische Herausforderung, EAM tatsächlich in der Organisation und bei Nicht-Architekten zu verankern, also zu institutionalisieren. Basierend auf früheren Arbeiten, die Designfaktoren für EAM im Lichte der institutionellen Theorie skizzieren, diskutiert diese Arbeit die theoretische Grundlage der jeweiligen Designfaktoren und schlägt Messelemente zur Bewertung der Institutionalisierung von EAM in Organisationen vor. Die Arbeit identifiziert Messelemente für die Faktoren Legitimität, Effizienz, Stakeholder-Vielfalt, organisatorische Verankerung, Zielkonsistenz, Inhaltserstellung, Verbreitung und Vertrauen, die dazu beitragen, EAM-Design aus mehreren, teilweise neuen Perspektiven zu bewerten und zu informieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34163-2_16 9c3c6ca93737be1eca03ffde03cb4416;de;;;7.1.;;;Strategische Steuerung: ein Überblick über die Themen Es gibt eine Reihe komplexer Fragen rund um die strategische Kontrolle. In diesem Kapitel versuche ich, einige der wichtigsten Aspekte zu skizzieren. Wir beginnen damit, dass wir Kontrolle als generisches Konzept und Verfahren betrachten. Die Hauptelemente Messung, Bewertung und Feedback sind sowohl kurz- als auch langfristig gleichermaßen relevant. Dennoch können spezifische Fragen oder Themen für strategische und operative Kontrollen variieren und wir identifizieren dann Themen von besonderer Relevanz für die strategische Kontrolle.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-20317-8_27 d57314c7e61c9fa63340cc76ecdf4dba;de;;;7.1.;;;Umfassende Verbesserung der industriellen Energieeffizienz: Pilotfall in einem europäischen Schienenfahrzeugwerk Energie- und Ressourceneffizienz erfordert die konsequente Umsetzung geeigneter Ansätze in der Industrie. Fabriken sind komplexere Systeme als Wohn- oder Gewerbegebäude. Im industriellen Bereich erfordern Verbesserungen der Energieeffizienz Maßnahmen, die schwer zu identifizieren sind und sich von Gebäude zu Herstellungsprozessbereichen unterscheiden. Dieses Papier stellt einen umfassenden Ansatz vor, um die Verbesserung der industriellen Energieeffizienz systematisch anzugehen. Der Ansatz wurde bei einem europäischen Schienenfahrzeughersteller entwickelt und getestet. Erkenntnisse aus dem vorgestellten Pilotfall bestätigen, dass diese ganzheitliche Sichtweise dazu beiträgt, die Energieeffizienz im industriellen Bereich richtig anzugehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44736-9_41 1105d0d779ee64a70f152f750167b561;de;;;7.1.;;;Routenplanung für Fahrzeuge mit UAVs basierend auf Set Covering Aufgrund der Komplexität der Zustellung auf der letzten Meile hat das aufstrebende Geschäft namens „Just-in-Time-Lieferung“ oft eine strenge Reichweitengrenze. Als neu aufgenommene Methode für die Zustellung auf der letzten Meile kann das UAV das Leistungsspektrum der Just-in-time-Zustellung mit Hilfe von Fahrzeugen erweitern. Dieses Papier schlägt ein Modell vor, das auf dem Set-Covering-Modell basiert, um den UAV-Startpunkt zu lokalisieren. Danach wird ein verbesserter Ameisenkolonie-Algorithmus verwendet, um das Lokalisierungsergebnis zu erhalten. Schließlich wird die Zuordnungsmethode des Kunden vorgeschlagen. Beide Methoden werden mit zufällig generierten Daten getestet und haben sich als effektiv erwiesen. Es bietet eine Referenz für die zukünftige Praxis des Just-in-Time-Liefergeschäfts.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30967-1_25 b7d7970079039ff0a6a7f67b613d1b7d;de;;;7.1.;;;Projekt Informations- und Kommunikationsmanagement Dieses Kapitel gibt einen Überblick über den Aufbau effektiver Informations- und Kommunikationssysteme für das Projektmanagement. Zunächst werden die vier Hauptkomponenten beschrieben, die ein Informationssystem in Bauunternehmen wahrscheinlich haben wird, nämlich: eine Dateiablage, eine Reihe spezialisierter Softwarepakete für die individuelle Produktivität, einen Projektplaner und einen kollaborativen Arbeitsplatz. Anschließend besprechen wir die Praxis des Kommunikationsmanagements und die damit verbundenen organisatorischen Probleme. Abschließend werden in einer kurzen Anmerkung die wichtigsten Arten von Dokumenten und Lageberichten vorgestellt, die üblicherweise in einem Bauvorhaben zirkulieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17092-8_6 39be493245d7929053fe60a32bae9fbe;de;;;7.1.;;;Die Rolle kollaborativer Netzwerke in der Nachhaltigkeit Zwischen den beiden Bereichen Collaborative Networks und Sustainability Science besteht ein großes Potenzial für gegenseitig vorteilhafte Synergien. Tatsächlich wurde dieses Potenzial in vielen Bereichen erkannt, in denen diese Synergien zu neuen Ansätzen und Lösungen führen. Es ist besonders offensichtlich, dass die Herausforderungen der Nachhaltigkeit eine breite Zusammenarbeit zwischen mehreren Akteuren erfordern, da die erforderlichen Veränderungen die Kapazitäten und Fähigkeiten der einzelnen Akteure übersteigen. Um den möglichen Beitrag und die Herausforderungen für Kooperationsnetzwerke im Bereich Nachhaltigkeit zu veranschaulichen, werden einige relevante Fälle, in denen bereits Beispiele für solche Synergien identifiziert wurden, kurz vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15961-9_1 af1f3e2c96e73b360f6425dad9928414;de;;;7.1.;;;Design der Informationsdienstplattform für die Qualitätsüberwachung von Bienenprodukten Die Informationsdienstplattform für die Qualitätsüberwachung und Rückverfolgung von Bienenprodukten wurde erforscht und entwickelt. Dieses Papier beschreibt das Designkonzept und die kritischen Technologien für den Aufbau der Informationsdienstplattform für die Qualitätsüberwachung und Rückverfolgung von Bienenprodukten. Das System verfügt über Funktionen der Fernerfassung von Informationen, der automatischen Codierung der Produktions-Einkaufsverarbeitung, der Barcode-Erzeugung und -Identifizierung, der Verfolgung und Rückverfolgung der Produktqualität, der Informationsfreigabe, der Herkunftsbewertung, der Marktvorhersage und der Analyse auf der Grundlage des geografischen Informationssystems (GIS). Informationstechnologie(IT)-Tools für die Qualitätskontrolle und Qualitätsverfolgung von Bienenprodukten in China.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-0213-9_66 9536c9aace5cd80403ef70bfb6cd0609;de;;;7.1.;;;Das virtuelle Entwicklungsbüro-Framework für Geschäftsnetzwerke: Eine Fallstudie aus dem umbrischen Verpackungsdistrikt Die Globalisierung des Wettbewerbs hat dazu geführt, dass sich Organisationen der Industrieländer neuen Arten von Wettbewerbern mit niedrigen Arbeitskosten und oft vorteilhaften Wechselkursen stellen müssen (was zu günstigen Exportverkaufspreisen führt). In einem solchen Szenario werden Innovation und organisatorische Flexibilität zu grundlegenden Hebeln, um Unternehmen in die Lage zu versetzen, ihre Wettbewerbsfähigkeit zu steigern. Aus diesem Grund entsteht die Notwendigkeit einer organisatorischen Methodik, die organisatorische Flexibilität und Innovationsfähigkeit ermöglicht. Unser Rezept besteht aus dem Konzept der Netzwerkunternehmen, um organisatorische Flexibilität zu ermöglichen, und der Formalisierung des VDO-Konzepts – Virtual Development Office – um Innovation in einer kollaborativen Umgebung zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-84837-2_62 79c0cc5bbdf121524cae28bc0412dba1;de;;;7.1.;;;Eine domänenspezifische Sprache für kontextbezogenes Design Dieser Beitrag untersucht die Rolle von User-Centered-Design-Ansätzen (UCD) bei der Gestaltung und Implementierung einer mobilen Social-Software-Anwendung, um studentische Sozialarbeiter an ihrem Arbeitsplatz zu unterstützen. Die Erfahrungen mit der Verwendung einer Variante von UCD werden beschrieben. Die Prinzipien und erwarteten Normen der UCD haben eine Reihe wichtiger Lehren gezogen. Es wird vorgeschlagen, dass diese Probleme und Erkenntnisse auf die unzureichende Präzision der Modellierung der Ergebnisse von UCD zurückzuführen sind, die modellgetriebene Ansätze zur Methodenintegration zwischen UCD-Ansätzen verhindert. Vor diesem Hintergrund wird vorgeschlagen, dass die Contextual Design-Methode ein guter Kandidat für die Erweiterung mit modellgetriebenen Prinzipien ist. Eine Teilmenge des Arbeitsmodells mit Schwerpunkt auf Kultur- und Flussmodellen wird unter Verwendung einer domänenspezifischen Sprache und eines unterstützenden Tools beschrieben, das unter Verwendung der MetaEdit+-Plattform erstellt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16488-0_5 338444808323f132ba3b632944d27d71;de;;;7.1.;;;Einführung von Product Lifecycle Management versus Lifecycle-Orientierung: Beweise von italienischen Unternehmen Der vorliegende Beitrag zeigt einige der Ergebnisse einer italienischen Forschungsinitiative im Bereich PLM. Ziel dieser Initiative – teilweise unterstützt durch das Linked Design European Project – ist die Durchführung einer empirischen Untersuchung der wichtigsten Treiber und Fragestellungen im Zusammenhang mit der Implementierung von PLM in der Industrie. Insbesondere das Verhältnis zwischen „PLM-Anwender“ und „lebenszyklusorientierten“ Unternehmen wird in diesem Papier diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41501-2_35 140d89a8632194cf7c63c4566d30f1ea;de;;;7.1.;;;Eine computerintegrierte FMEA für dynamische Lieferketten in einer flexiblen Umgebung Qualitätsmanagement (QM) für dynamische Lieferketten (DSCs) in einer flexiblen Umgebung hat im aktuellen Geschäftsumfeld zunehmende Aufmerksamkeit erfahren. Diese Studie konzentriert sich auf die Entwicklung eines QM-Tools, basierend auf dem Ansatz der Fehlermöglichkeits- und Wirkungsanalyse (FMEA) und zeigt, wie es von der Anwendung im Supply Chain Management (SCM) auf andere Geschäftsumgebungen ausgedehnt werden kann. Die Hauptbeiträge bestehen darin, einen iterativen Prozess mit FMEA für DSCs in einer flexibel basierten Umgebung zu implementieren, indem die Schwächen des traditionellen FMEA-Systems überwunden werden und eine benutzerfreundliche Oberfläche entwickelt wird, mit der die verteilten Parteien in Ketten als Ganzes kooperieren und die Anforderungen der dynamischen Steuerung erfüllen. Im Einzelnen schlägt dieses Papier einen computerintegrierten FMEA-Ansatz vor, der die FMEA im SCM durch automatisierte Verarbeitung unter Verwendung eines Fuzzy-Ansatzes und einer computerintegrierten und internetbasierten Schnittstelle zur Unterstützung der Systemimplementierung verbessert. Die Effizienz und praktische Bedeutung des vorgeschlagenen Systems wurde durch das entwickelte System anhand einer Fallstudie validiert. Das entwickelte System kann dazu beitragen, mögliche Fehler in Design und Betrieb zu vermeiden und darüber hinaus die Qualität von DSCs in einer flexiblen Umgebung sicherzustellen. Das vorgeschlagene System kann leicht auf komplexere reale Anwendungen ausgedehnt werden.;-;-;-;https://link.springer.com/article/10.1007/s00170-011-3526-9 dc7f0c370d50920050f6a9ab64499348;de;;;7.1.;;;Anwenden der topologischen Beziehungen von Formelementen zum Abrufen von Bauteildateien aus einem CAD-System Der effiziente Abruf gespeicherter CAD-Dateien ist ein Bereich, dem in den letzten Jahren große Aufmerksamkeit geschenkt wurde. Es wurden mehrere Produkte für das Produktdatenmanagement entwickelt, von denen die meisten auf der Verwendung von Codierungskonzepten zum Abrufen von Designs basieren. Die begrenzte Anzahl von Codes, die verwendet werden können, schränkt jedoch die Flexibilität der Teileformdarstellung und auch die Vielseitigkeit beim Abrufen vorhandener Zeichnungen ein. In diesem Papier wird ein integrierter Ansatz vorgeschlagen, der topologische Beziehungen zwischen Formularmerkmalen als Suchindizes verwendet. Die Verwendung eines Feature-Adjazenz-Graphen und auch eines Feature-Topologischen Beziehungsgraphen, der als Schnittstelle dient, ermöglicht es diesem Ansatz, das im CAD-System gespeicherte Feature-basierte B-Rep-Modell eines Teils in topologische Beziehungen zu übersetzen, die in einem relationale Datenbank. Darüber hinaus werden fünf Arten von Abfragen basierend auf topologischen Beziehungen verwendet, um das Abrufen von Designs zu unterstützen. Die vorgeschlagene Technik für den Entwurfsabruf ist bequemer als herkömmliche auf Codierung basierende Verfahren.;-;-;-;https://link.springer.com/article/10.1023/A%3A1007661215005 920fcf19bd8e831af05634cfe083b4d4;de;;;7.1.;;;Ein Framework für das PLM-Modelldesign In diesem Artikel konzentrieren wir uns auf die Implementierung von Geschäftsmodellen in PLM-Systemen. PLM kann ein Informationssystem sein, das ein Geschäftsmodell ohne spezifische Entwicklung nativ implementieren kann. Diese Implementierung ist ein entscheidender Schritt bei jedem Projekteinsatz dieser Informationssysteme. Es ist auch ein wichtiger Schritt während ihrer Entwicklung. Das Fehlen von Standards und Methoden vereinfacht jedoch nicht das Design und die Neukonfiguration. Dieses Papier schlägt einen Modellierungsansatz in PLM-Systemen vor, der auf dem MDA-Ansatz basiert. In diesem Zusammenhang schlagen wir verschiedene Modellierungsebenen (CIM / PIM / PSM) sowie auf Constraints (OCL) basierende Regelmechanismen vor. Dieser Ansatz wird durch die Framework-Realisierung auf Basis von Eclipse prototyping.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41501-2_17 de25ddf3184d21ece77251188fcf51cd;de;;;7.1.;;;Vom modellbasierten Systems Engineering zur modellbasierten Systemrealisierung: Rolle und Relevanz des IVTV-Plans Der IVTV-Plan (Integration, Verifizierung, Übergang und Validierung des Systems vor seiner Qualifizierung) wird während der Entwurfsphase entwickelt und validiert. Es beschreibt alle Aktivitäten, Ressourcen, Anforderungen, Mittel usw., die während der Realisierungsphase angefordert werden, so dass es der Bindestrich zwischen diesen beiden entscheidenden Phasen im Systemlebenszyklus ist. Aus vielen in diesem Papier diskutierten Gründen ist es heute notwendig, Unternehmen dabei zu helfen, detaillierte Entwurfsmodelle besser in die Realisierung zu überführen. Hauptsächlich bleibt der IVTV-Plan schwer auszunutzen. Dieser Artikel schlägt einen ersten Schritt in Richtung eines modellbasierten Realisierungsplans vor, d. h. ein Metamodell, das die Verbindungen zwischen Modellen, die aus dem modellbasierten System Engineering stammen, und den im IVTV-Plan erforderlichen Informationen darstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44739-0_14 a7dedac4c110fb5f1ffe7c46f8d14c5c;de;;;7.1.;;;Ein Framework für interaktive Hybridplanung Hybride Planung bietet einen leistungsstarken Mechanismus zur Lösung realer Planungsprobleme. Wir präsentieren einen domänenunabhängigen Ansatz mit gemischten Initiativen zur Plangenerierung, der auf einem formalen Konzept der hybriden Planung basiert. Es ermöglicht alle Interaktionsmodalitäten und Modelle der Initiative und bewahrt gleichzeitig die Solidität des Planungsprozesses. Die adäquate Einbindung der Entscheidungskompetenzen der Endnutzer auf diese Weise verbessert das Anwendungspotenzial sowie die Akzeptanz der Technologie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04617-9_3 7608456047e73fb063792df3c879f0a7;de;;;7.1.;;;Kostenfunktionsminimierungsbasierte gemeinsame UAV-Pfadplanung und Bereitstellung von Ladestationen (Workshop) Die rasante Entwicklung von automatischer Steuerung, drahtloser Kommunikation und intelligenter Informationsverarbeitung fördert den Wohlstand der Technologien für unbemannte Luftfahrzeuge (UAVs). In einigen Anwendungen müssen UAVs von gegebenen Quellorten zu bestimmten Zielen für die Aufgabenausführung fliegen, eine vernünftige Strategie zur Wegplanung und Ladestation (CSs) kann entworfen werden, um die Leistungssteigerung der Aufgabenausführung der UAVs zu erreichen. In diesem Papier betrachten wir die gemeinsame UAV-Pfadplanung und das CS-Bereitstellungsproblem. Wir betonen die Bedeutung der Gesamtzeit der UAVs für die Durchführung von Aufgaben und die Kosten für den Einsatz und die Wartung von CSs und formulieren das Problem der gemeinsamen Pfadplanung und des CS-Einsatzes als Problem der Minimierung der Kostenfunktion. Da das formulierte Optimierungsproblem ein nicht einfach zu lösendes NP-schweres Problem ist, schlagen wir einen heuristischen Algorithmus vor, der sukzessive zwei Teilprobleme, dh Pfadplanungs-Subproblem und Zielpfad-Auswahl-Subproblem durch Anwendung des A*-Algorithmus, K-shortest-path-Algorithmus solve löst bzw. genetischer Algorithmus (GA). Simulationsergebnisse bestätigen die Wirksamkeit des vorgeschlagenen Algorithmus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-41117-6_31 b91c0ae71c9b013de1cf46795ec15be1;de;;;7.1.;;;PLM-Funktionalitäten in der Modebranche. Vorläufige Ergebnisse eines Klassifikationsrahmens Product Lifecycle Management (PLM) ist bekanntlich eine Reihe von Geschäftslösungen und Tools für das Management des gesamten Lebenszyklus eines Produkts, von der Konzeption bis zur Entsorgung. Obwohl PLM in traditionellen Kontexten geboren wurde, wird es in letzter Zeit zunehmend in anderen Sektoren wie der Modeindustrie verwendet, auch wenn es mehrere Merkmale aufweist, die es vom traditionellen Ansatz der PLM-Bereitstellung distanzieren. Die Nachfrage nach maßgeschneiderten Produkten, schnelle Änderungen der Kundenpräferenzen und die daraus resultierenden kürzeren Produktlebenszyklen machen das Modeumfeld sehr komplex. Innerhalb dieses Szenarios hat PLM das Potenzial, der Modeindustrie zu ermöglichen, die Markteinführungszeit zu verkürzen und die Wettbewerbsfähigkeit im globalen Szenario zu steigern, aber oft gibt es keine klaren Richtlinien. Die Literatur ist nicht erschöpfend, da wir keine Artikel finden können, die alle Funktionen abdecken. Oft werden nur wenige Features genannt und die gleichen Funktionalitäten unterschiedlich bezeichnet. Um diese Lücke zu schließen, ist der Zweck dieser Forschung die Definition eines Rahmens für PLM-Funktionalitäten in der Mode, klassifiziert nach den Makroprozessen, an denen sie beteiligt sind. Das Ergebnis ist ein Überblick über die in Makroprozessen organisierten PLM-Funktionalitäten von der Entwicklung der kreativen Idee bis zur Ankunft in den Stores, validiert von Experten der PLM-Softwarehäuser der Modebranche. Aus betriebswirtschaftlicher Sicht stellt es eine klare Leitlinie dar, die Unternehmen und Anbieter dabei unterstützt, die gesamte Bandbreite der PLM-Funktionalitäten und die positiv involvierten Prozesse bei deren Implementierung zu identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-62807-9_42 6f4cafd6560db3aa98eab142fbff542f;de;;;7.1.;;;1,5 Millionen Jahre Informationssysteme: Dieser Aufsatz entwickelt das Argument, dass Informationssysteme nicht nur seit den letzten 50 Jahren (wie die meisten Berichte über IKT argumentieren) oder seit dem 1700 Jahrhundert (wie einige genauere Lesarten vermuten würden) existiert haben, sondern dass sie tatsächlich so alt sind wie die Menschheit. Es bietet einen historischen Überblick darüber, wie Informations- und Kommunikationssysteme stark mit einigen großen Veränderungen in der menschlichen Gesellschaft interagiert haben, und zeigt die Auswirkungen der jüngsten Veränderungen in den letzten 10 Jahren mit dem Internet. Es baut auf Literatur auf, die 3 große Phasen der Menschheitsgeschichte unterscheidet und die Rolle von Informations- und Kommunikationssystemen in jeder dieser Phasen erläutert. Das Hauptargument ist, dass die „Domestikation von Informationssystemen“ besser verstanden wird, wenn frühere Regimetransformationen und ihre Dynamiken berücksichtigt und untersucht werden. Implikationen dieser Entwicklungen in Bezug auf Innovation und Lernen werden dargelegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34732-5_16 232a1c804994c4baf8067f332adf4dfc;de;;;7.1.;;;Aktivitäten und Herausforderungen in der Planungsphase eines Software-Ökosystems Der zunehmende Wettbewerb zwingt Unternehmen dazu, neue Geschäftsmöglichkeiten zu finden, indem sie gemeinsam Geschäftsökosysteme aufbauen. Das Business-Ökosystem, in dem eine Reihe von Unternehmen gemeinsam digitale Dienstleistungen für ein bestimmtes Kundensegment entwickeln und bereitstellen, kann als Software-Ökosystem bezeichnet werden. Die Planung von Ökosystemen wurde in einigen Fallstudien untersucht, aber umfassenderes Wissen, wie man mit dem Aufbau von Software-Ökosystemen beginnen kann, ist noch erforderlich. Ziel dieser Fallstudie war es, Aktivitäten und Herausforderungen in der Planungsphase eines finnischen Software-Ökosystems zu untersuchen. Die Fallstudie wurde durchgeführt, indem Vertreter aller sechs Akteure des Ökosystems befragt und das Material der 12 Planungsworkshops analysiert wurden. Die Definition von Vision und Zielen, die Auswahl der Akteure und die Definition eines Governance-Modells waren die Hauptaktivitäten der Planungsphase. Wesentlich war auch, dass die Akteure des Software-Ökosystems gemeinsam mit der Konzeption digitaler Dienste und der Definition des Geschäftsmodells begonnen haben. Eine der größten Herausforderungen war, dass zu Beginn der Planungsphase keine klare Strategie definiert wurde. Darüber hinaus verlangsamten Vertrauensbildung zwischen den Akteuren, unterschiedliche Entscheidungsfähigkeiten und fehlende Stoffkenntnisse die Planungsphase. Die Schauspieler waren auch der Meinung, dass eine viel stärkere Führung erforderlich war.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-33742-1_7 aa70836447bd3acbb704e60991e1c186;de;;;7.1.;;;Lokale min.-energetische, F E-basierte Formulierung für die Gestaltung von Bohrlöchern In dieser Arbeit wurde ein neuer Algorithmus entwickelt, um einen optimalen Bohrlochpfad für Bohranwendungen zu generieren. Zur Interpolation des Bohrlochpfades wurde eine Finite-Elemente-Technik auf der Basis minimaler Energie verwendet. Der gerade Abschnitt des Bohrlochpfads am Anfang und am Ende des Segments wurde beibehalten. Der Schweregrad der Hundslänge wurde in der gegenwärtigen Interpolationstechnik beibehalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35492-7_20 0c8446026e02104766b90d7e1874fef6;de;;;7.1.;;;Qualität von Referenzmodellen für virtuelle Unternehmen Der Artikel beschreibt den Bedarf an hochwertigen Referenzmodellen für virtuelle Unternehmen, die den Aufbau globaler Unternehmensnetzwerke, virtueller Projektunternehmen und Dienstleistungsunternehmen beschleunigen. Obwohl viele Modelle in der Literatur vorgestellt wurden, wurde die Qualität dieser Modelle nicht gründlich erforscht. Dieser Artikel befasst sich mit der Notwendigkeit, eine Reihe von Designprinzipien zu entwickeln, und stellt einige Beispiele dafür vor, durch die die Benutzerfreundlichkeit und Langlebigkeit von Referenzmodellen verbessert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35621-1_14 94b399afbf62df55de752e59e6a7c9ac;de;;;7.1.;;;Modellierung mobiler Kundennachfragediskriminierung in Unternehmensinformationssystemen In einem hart umkämpften Umfeld wird die Echtzeit- und dynamische Kundenbedarfsanalysetechnologie von den Unternehmensinformationssystemen benötigt, um effizient und automatisch auf die Kundennachfrage zu reagieren. Basierend auf dem Hintergrund der Mobilfunkindustrie erstellt dieses Dokument ein Analysemodell für die mobile Kundennachfrage und schlägt Wege vor, um das Wissen über die Kundennachfrage zu erfassen. Erstens wird durch Untersuchung und spezifisches Interview ein Konturmodell von Kundenwertschichten erhalten, zweitens werden die signifikanten Attribute von Kundenwertschichten herausgefiltert, schließlich wird ein Kundennachfragediskriminierungsmodell erstellt, während die Kundennachfrageschicht als Ausgabe von das Modell und die Attributschicht der Kundennachfrage als Eingabe des Modells. Ein wohlgeformtes Modell könnte die Klassifizierung von Kundennachfragezielen dynamisch anhand ihrer Nachfrageattribute beurteilen. Dieses Modell wird bei der Analyse von mobilen Kundenstichproben verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-34456-X_60 12f3d0c5949bd5ca8770d7b28fd66739;de;;;7.1.;;;Drei Teufel des Systems Engineering Systems Engineering ist die Ingenieurdisziplin für den Aufbau, die Erweiterung und die Wartung von informationstechnischen Systemen. Während des System-Engineering-Prozesses begegnen die Entwickler den drei Teufeln des Systems Engineering: Komplexität, Veränderung und Unsicherheit. Der Umgang mit den drei Teufeln erfordert besondere Aufmerksamkeit und engagierte Anstrengung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-19938-8_3 f070ae59affdd563a392965b80739f1f;de;;;7.1.;;;Algorithmen für die WLAN-Abdeckungsplanung Die beeindruckende Marktverbreitung von IEEE 802.11 basierten Wireless Local Area Networks (WLANs) erfordert quantitative Ansätze im Netzplanungsverfahren. Es wird allgemein angenommen, dass solche Netze das Potenzial haben, traditionelle kabelgebundene lokale Netze in Innenräumen zu ersetzen und einen flexiblen Zugang im Freien zu ermöglichen, und schließlich mit klassischen zellularen Systemen konkurrieren (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-31963-4_5 3f37477432f39477d2904bec9b00118b;de;;;7.1.;;;Entwicklung der afrikanischen Bereitschaftstruppe Dieses Kapitel entschlüsselt, warum es für die Afrikanische Union in Zusammenarbeit mit RECs/RMs von entscheidender Bedeutung war, die African Standby Force (ASF) in jedem der fünf RECs im Rahmen der African Peace and Security Architecture (APSA) zu operationalisieren. Es wird argumentiert, dass ASF von a;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-70869-6_5 43224f0b27b25d0ed617f2afe8150e65;de;;;7.1.;;;Geschäftsmodell-Risikoanalyse: Vorhersage der Wahrscheinlichkeit der Rentabilität von Geschäftsnetzwerken In der Designphase der geschäftlichen Zusammenarbeit ist es wünschenswert, die Rentabilität des zukünftigen Unternehmens vorhersagen zu können. Daher wurden bereits Techniken zur Bewertung von Qualitäten wie Kosten, Einnahmen, Risiken und Rentabilität vorgeschlagen. Sie erlauben es dem Modellierer jedoch nicht, die Unsicherheit in Bezug auf das Design der betrachteten geschäftlichen Zusammenarbeit richtig zu bewältigen. In vielen realen Kollaborationsprojekten ist die Unsicherheit über die gegenwärtigen oder zukünftigen Eigenschaften des Unternehmens heute so groß, dass es problematisch wird, sie zu ignorieren. In diesem Beitrag schlagen wir einen Ansatz vor, der auf dem Predictive, Probabilistic Architecture Modeling Framework (P;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36796-0_11 92aaebd3ef769180c46445a75a036176;de;;;7.1.;;;Eine Engineering-Umgebung zur Unterstützung von Informationssicherheits-Managementsystemen Informationssicherheits-Managementsysteme (ISMS) spielen eine wichtige Rolle, um Unternehmen bei der sicheren Verwaltung ihrer Informationen zu unterstützen. Organisationen stehen jedoch von der Einrichtungsphase bis zur Optimierungsphase von ISMSs vor vielen Herausforderungen, da Organisationen viele Aufgaben mit verschiedenen Teilnehmern durchführen und eine große Menge an Dokumenten verwalten müssen. Infolgedessen ist es für eine Organisation schwierig, ein gutes und effektives ISMS aufzubauen und aufrechtzuerhalten. Dieses Dokument schlägt eine Engineering-Umgebung vor, um Organisationen mit ISMSs zu unterstützen. Dabei handelt es sich um eine Engineering-Umgebung, die verschiedene Support-Tools integriert, um Organisationen umfassende Möglichkeiten zur Verfügung zu stellen, um alle Aufgaben in ISMS-Lebenszyklusprozessen konsistent und kontinuierlich basierend auf den Standards der ISO/IEC 27000-Serie auszuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35264-5_5 df30bd2f00fa744c124c0468efa898ba;de;;;7.1.;;;Ein Design eines Bike-Sharing-Systems basierend auf GPS Dieses Papier untersucht das Problem des Fahrradverleihsystems. Was auch immer wir denken, ob Umweltschutz, persönliche Lebensqualität oder urbanes Verkehrsmanagement, es ist Zeit für die Umsetzung von Bikesharing. In diesem Beitrag wird ein neues Level-Design des Bike-Sharing-Systemmodells vorgeschlagen. Das neue Systemmodell verwendet Netzwerktechnologie, RFID-Technologie, Datenbanktechnologie und GPS-Technologie. Es kann eine optimierte Routennavigation bieten und die Fahrroute des Benutzers durch einen in Fahrrädern konfigurierten GPS-Empfänger aufzeichnen. Dieses Papier beschreibt auch die Konfiguration, Planung und den wissenschaftlichen Einsatz der Leasingstation. Alle Technologien, die in diesem Bikesharing-System zum Einsatz kamen, konnten vor Diebstahl und Vandalismus schützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31507-7_93 df84edc6326424a58fb691529abe10ae;de;;;7.1.;;;Optimierung des RFID-fähigen Einzelhandelsmanagements mit komplexer Ereignisverarbeitung Die durch Radiofrequenz-Identifikation (RFID) aktivierte Einzelhandelsgeschäftsverwaltung erfordert eine Optimierung des Arbeitsablaufs, um die Entscheidungsfindung in Echtzeit zu erleichtern. In diesem Beitrag wird die auf komplexe Ereignisverarbeitung (Complex Event Processing, CEP) basierende RFID-gestützte Einzelhandelsgeschäftsverwaltung untersucht, wobei der Schwerpunkt auf automatisierten Entscheidungen zur Regalauffüllung liegt. Wir definieren verschiedene Arten von Ereignisabfragen, um die Workflow-Aktionen von Einzelhändlern über die RFID-Datenströme auf mehreren Tagging-Ebenen (z. B. Artikel- und Behälterebene) zu beschreiben. Zur Erkennung von Ereignismustern werden nicht-deterministische Bewertungsmodelle auf Basis endlicher Automaten (NFA) verwendet. Um die Ergebnisse der Musterübereinstimmung im Prozess der Ereigniserkennung zu verwalten, wird ein Optimierungsalgorithmus im Ereignismodell angewendet, um die Ergebnisse der Ereigniserkennung gemeinsam zu nutzen. Ein simuliertes RFID-fähiges Einzelhandelsgeschäft wird verwendet, um die Wirksamkeit der Methode zu überprüfen. Die Versuchsergebnisse zeigen, dass der Algorithmus effektiv ist und den Management-Workflow für Einzelhandelsgeschäfte optimieren könnte.;-;-;-;https://link.springer.com/article/10.1007/s11633-018-1164-5 e66117a87390874ea2d9739978bfbacf;de;;;7.1.;;;Analyse dynamischer Interaktionen mit externen Parteien bei der Wartung von ERP-Systemen Das Papier untersucht Wartungspraktiken von Enterprise Resource Planning (ERP)-Systemen mit Schwerpunkt auf Interaktionen zwischen dem Wartungsteam vor Ort und Dritten. Anhand eines Fallstudienansatzes werden Instandhaltungsaktivitäten in ERP-Systemen identifiziert, in Instandhaltungskategorien eingeordnet und Dynamik und Häufigkeit der Interaktionen mit dem Drittanbieter charakterisiert. Bei der Untersuchung werden mehrere Bereitstellungen desselben ERP-Systems verwendet. Jede Bereitstellung befindet sich in einer anderen Phase ihres Lebenszyklus, was eine Analyse der Wartungsaktivitäten im Hinblick auf die Systemreife ermöglicht. Fünf gängige Wartungsaktivitäten (korrigierend, adaptiv, perfektionierend, präventiv, Benutzerunterstützung) werden betrachtet, während das Hauptaugenmerk auf eine kürzlich eingeführte Kategorie in Bezug auf „Kommunikation, Koordination und Wissensaustausch mit externen Parteien“ gerichtet ist, die als „externe Parteien“ bezeichnet wird. Interviews mit Wartungspersonal werden verwendet, um Wartungsaufgaben zu identifizieren, und die Datenbank für Wartungsanforderungen wird für die numerische Analyse von Wartungsanforderungen verwendet. Die Ergebnisse zeigen, dass die meisten Wartungsaufgaben vom Team vor Ort ausgeführt werden und an Dritte eskalierte Wartungsanforderungen längere Implementierungszeiten erfordern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24511-4_17 1829184cd3eba8c45f61c067eb08e52d;de;;;7.1.;;;Bewertung der IT-Nutzung in kleinen und mittleren Unternehmen: Empirische Untersuchung in fünf Fällen Kleine oder mittlere Unternehmen (KMU) machen einen bedeutenden Teil der Weltwirtschaft aus, insbesondere in Entwicklungsländern. In diesem Zusammenhang brachte der Einsatz von Informationstechnologien (IT) einen Hebel, um sich Wettbewerbsvorteile am Markt zu verschaffen. In dieser Hinsicht ist der effektive Einsatz von IT für die Aufrechterhaltung eines erfolgreichen Geschäftsbetriebs von entscheidender Bedeutung. Da die Bewertung die Verbesserung mit sich bringt, würde die Bewertung der IT-Nutzung in KMU sowohl den Geschäftsbetrieb als auch die organisatorischen Prozesse verbessern. Dieses Kapitel präsentiert eine explorative Studie zur Praxis eines neuen Modells zur Bewertung der IT-Nutzung in KMU, das als ITMEM bezeichnet wird: Information Technology Management Enhancement Model. Dieses Modell zielt darauf ab, das IT-Management und die IT-Prozesse innerhalb von 5 Bereichen (Identifikation, Auswahl, Erwerb, Nutzung und Schutz) zu verbessern, die den organisatorischen Einsatz von IT in einem zusammenhängenden Ganzen zusammenführen. Das Modell wurde auf Basis einer dreigliedrigen Struktur entwickelt, die (1) akademische Studien im Technologiemanagement, (2) Best Practices, die für die Kontrolle über IT-Operationen und -Prozesse einschließlich COBIT, CMMI und ITIL entwickelt wurden, und (3) Standards zum IT-Management und IT-Sicherheit. Die Datenerhebung erfolgte durch Erhebungsverfahren einschließlich quantitativer und qualitativer Ansätze. Die Ergebnisse wurden statistisch auf Zuverlässigkeit und Konsistenz getestet. Die Ergebnisse wurden als Stärken und Schwächen der Fälle in Bezug auf die IT-Nutzung dargestellt. Darüber hinaus wurden Auswirkungen auf das IT-Bewusstsein, deren Nutzung und Schutz, die Bedeutung der Bewertung und die Beziehung zwischen organisatorischen Prozessen und der IT-Nutzung berichtet. Es wurden Interviews mit Führungskräften der IT-Abteilungen in Unternehmen geführt. Die Ergebnisse zeigten, dass die Praxis des Assessments in Unternehmen für die IT-Nutzung der Mitarbeiter und die Steigerung der Qualität von Geschäftsprozessen ermutigend ist. Die berichteten Ergebnisse wären ein wertvoller Gewinn für Forscher, die ein Modell entwickeln, und für Praktiker, die Auswirkungen auf das Management in Bezug auf das IT-Management und die IT-Nutzung in KMU entwickeln. Darüber hinaus wird davon ausgegangen, dass die Forschung einen Beitrag zur Literatur im Hinblick auf die Implementierung von IT-Bewertungen in KMU-Fällen leisten wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38244-4_5 10ecdc3426a54c92462fb17d7f4472e4;de;;;7.1.;;;Eine finanzielle Perspektive zur Verbesserung der IKT-Dienstleistung: Ein Fall bei der belgischen Bahn In diesem Artikel wird die Finanzielle Vorausschau in einer Fallstudie bei ICTRA erörtert, die sich mit der Verbesserung der IKT-Dienstleistungserbringung befasst. Es skizziert den dreistufigen Ansatz des Finance Transformation Project und erläutert, wie dieser Ansatz ICTRA dabei geholfen hat, ein stärker geschäftsorientiertes ICT Shared Service Center zu werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36611-6_14 fb29771646f8cd50cae53f1fc934e45c;de;;;7.1.;;;Kontextanalyse der Lerndesignpraxis von Lehrkräften durch Aktivitätstheorie, verteilte Kognition und situierte Kognition Das Ziel dieser Arbeit war es zu analysieren, wie verschiedene theoretische Rahmen die Lerndesign-Praxis der Lehrkräfte umfassen. Wir haben die Verwendung der theoretischen Frameworks der Aktivitätstheorie, der verteilten Kognition und der situierten Kognition verglichen, um mit Datenanalysen und -interpretationen umzugehen, und sie verglichen. Die Aktivitätstheorie ist nützlich, um Technologie in Aktivitäten zu studieren, da die Analyseeinheit eine Aktivität ist und immer instrumentell vermittelt wird. Der Einsatz des Distributed Cognition Framework liegt in der Erforschung, wie mentale Schemata des Geistes Strukturen außerhalb des Geistes darstellen können. Schließlich konzentriert sich Situierte Kognition auf die Analyse der kontinuierlichen Beziehung zwischen Lehrern und Umweltinstrumenten, um auf die Unterrichtsplanung zu reagieren, um den Ablauf der Aktivitäten zu verstehen, die in diesem realen Szenario beteiligt sind. Die Analyse aus verschiedenen theoretischen Gesichtspunkten gab den Designern ein besseres Verständnis der Aktivitätsstruktur, wie die Artefakte verteilte kognitive Aktivitäten unterstützen und schließlich wie das Artefakt in den Planungsaktivitäten verkörpert wird. Die vorliegende Arbeit soll zu einem besseren Verständnis der Planungspraxis von Lehrkräften beigetragen haben, um die Gestaltung von Softwarediensten für die Unterrichtsplanung zu beeinflussen, die in die Unterrichtspraxis integriert werden sollen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20798-4_22 50b49f5a2c9fabcd6e716bdd21aff3d5;de;;;7.1.;;;Die Verwaltung und Verarbeitung von Netzwerkleistungsinformationen Die Leistungsfähigkeit von Kommunikationsnetzwerken kann intrusiv überwacht werden, indem Testpakete auf den getesteten Netzwerkverbindungen gesendet werden. Die von diesen Testpaketen erfahrenen Verzögerungen und die Anzahl verlorener oder duplizierter Testpakete können einen Hinweis auf die Leistung der überwachten Verbindungen liefern. Eine aufdringliche Netzwerküberwachung erzeugt selbst bei bescheidenen Abtastraten eine beträchtlich große Menge primitiver Daten. Diese Daten müssen angemessen zusammengefasst werden, um die erforderlichen Netzwerkleistungsanalysevorgänge zu bewältigen. Diese Operationen sind im Allgemeinen iterativer Natur, wobei die Ergebnisse der anfänglichen Verarbeitung und Analyse Anforderungen für die weitere Verarbeitung und Analyse erzeugen. Dieses Papier beschreibt die Architektur einer Datenbank, die eine effiziente Analyse der Netzwerkleistung unterstützen kann, indem die in verschiedenen Phasen gewonnenen Informationen wiederverwendet werden.;-;-;-;https://link.springer.com/article/10.1023/A%3A1009620519017 2cf9e6af44327929ec36be19229848a2;de;;;7.1.;;;Eine Reflexion über die Zusammenhänge zwischen Geschäftsprozessmanagement und Requirements Engineering aus Agilitäts-Perspektive Der Beitrag zeigt einige Aspekte der Wechselbeziehungen zwischen Geschäftsprozessmanagement, Agilität, Flexibilität und Requirements Engineering auf. Es zeigt einige Möglichkeiten zur agilen Entwicklung von Geschäftsprozessen und zur Entwicklung flexibler Prozesse für sich ändernde Anforderungen auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-74030-0_54 284ab346dd740b97d26e10a93ad7e48c;de;;;7.1.;;;Ein hypertextbasiertes Tool für die Wiederverwendung von Software in großem Maßstab Es wird ein hypertextbasiertes interaktives Werkzeug vorgestellt, das die Verwaltung großer Softwarebibliotheken unterstützt. Wir behaupten, dass ein einfacher, pragmatischer Ansatz zur Wiederverwendung von Software am besten geeignet ist, den Softwareingenieur bei der Lösung praktischer Probleme der Softwarekonfiguration aus wiederverwendbaren Komponenten zu unterstützen. Bei der Entwicklung des in diesem Beitrag beschriebenen Systems wurde der Schwerpunkt auf die halbautomatische Klassifizierung und interaktive Abfrage von Komponenten und deren Beschreibungen gelegt. Das System wurde in der BMW Automobilfertigung in München installiert. Erste Erfahrungen zeigen eine gute Usability und Akzeptanz.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-58113-8_177 51d1adcb1d8f28e2ca9f027dfa6c7457;de;;;7.1.;;;Das Funktionsprinzip von Zellulären Automaten Was genau ist das Leben? Wie definieren wir den wesentlichen Unterschied zwischen einem Lebenssystem und einem unbelebten? Dies ist eine seit langem bestehende Frage für die wissenschaftliche Forschung. In den 1950er Jahren schlug ein berühmter Mathematiker und Informatiker von Neumann vor, dass die Selbstreproduktion die einzigartige Eigenschaft von Lebewesen und auch die notwendige Bedingung für alles, was als Leben gilt, sei. Zu dieser Zeit war der Mechanismus der biologischen Selbstreproduktion noch nicht vollständig verstanden, daher zeigte eine solche Theorie die geniale Weitsicht von Neumann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7497-4_2 ed68e4248014acdd3a7a27db81341f0c;de;;;7.1.;;;Anwendung queueing-theoretischer Methoden im Operations Research Einer der wichtigsten Bereiche, der in die Zuständigkeit der Kybernetik fällt, ist der, der allgemein als „Operations Research“ bezeichnet wird. Unter dem Wort „Operation“ verstehen wir im gegebenen Kontext eine Reihe von Aktivitäten, die auf die Erreichung eines bestimmten Ziels ausgerichtet sind und in Form eines geeigneten Algorithmus umgesetzt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-3309-8_2 1623f04f70bf11ddd09f4c6204a55256;de;;;7.1.;;;I-Competere: Mit angewandter Intelligenz nach Kompetenzlücken bei Software-Projektmanagern suchen Menschen in Softwareentwicklungsteams sind entscheidend, um strategische Vorteile in einem hart umkämpften Markt zu erlangen und zu behalten. Infolgedessen haben menschliche Faktoren in der Softwareindustrie an Aufmerksamkeit gewonnen. Software-Projektmanager sind entscheidend für den Projekterfolg. Ein kompetenter Projektmanager ist in der Lage, jedes Problem zu lösen, auf das eine Organisation stoßen kann, unabhängig von ihrer Komplexität. Dieses Papier stellt I-Competere vor, ein Werkzeug, das entwickelt wurde, um Kompetenzlücken in Schlüsselpositionen des Managements durch Vorhersage von Planungs- und Terminierungskompetenzniveaus vorherzusagen. Basierend auf angewandten Intelligenztechniken ermöglicht I-Competere die Vorhersage und Antizipation von Kompetenzbedarf und artikuliert so Personalentwicklungsinstrumente und -techniken. Die Ergebnisse des Tests mit mehreren künstlichen neuronalen Netzen sind mehr als vielversprechend und zeigen Vorhersagegenauigkeit.;-;-;-;https://link.springer.com/article/10.1007/s10796-012-9369-6 e7f95c5587e3424af5036160c0d6fbb7;de;;;7.1.;;;Prozessübergreifende Produktionssteuerung durch kamerabasiertes Qualitätsmanagement innerhalb eines logistischen Assistenzsystems Eine ganzheitliche Integration der Qualitätsmessung in die Prozesssteuerung birgt insbesondere für mittelständische Unternehmen in den Bereichen Produktion und Logistik ein großes Potenzial. Da schlechte Ergebnisse von Qualitätsmessungen den gesamten Prozess vom Auftrag bis zur Auslieferung beeinflussen können, sollten die Qualitätsdaten im Rahmen einer übergeordneten Auftragssteuerung möglichst frühzeitig in den Entscheidungsprozess einfließen. In diesem Beitrag werden Ergebnisse des Supply Chain Execution-Projekts vorgestellt, bei dem ein kostengünstiges kamerabasiertes Qualitätsmesssystem entwickelt und in ein Logistic Assistant System integriert wurde, das eine simulationsbasierte Prozesssteuerung unter Berücksichtigung von Daten aus der gesamten Lieferkette ermöglicht. Dieser schlanke Low-Cost-Ansatz, der nicht auf ausgeklügelte IT-Infrastrukturen und Managementsysteme angewiesen ist, führt zu Ergebnissen, die insbesondere für KMU interessant sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22288-2_21 eb72a416a7b34ab32b326ebcb61fc940;de;;;7.1.;;;Analyse der Faktoren für die Implementierung von TPM: Eine Studie bei Herstellern von geschweißten Rohren Diese Studie zielt darauf ab, kritische Einflussfaktoren auf die Umsetzung von kontinuierlichen Verbesserungsprojekten, insbesondere des TPM, zu identifizieren und zu bewerten. Diese Studie ist eine Quali-Quanti-Studie und sammelt Daten mit Managern, die die TPM-Implementierung im Shopfloor leiten. Aus dieser Perspektive kann die vorliegende Arbeit den Produktionsleitern mit einer Bewertung der kritischen Faktoren beitragen, die bei Entscheidungsfindungsprozessen für die Implementierung von Verbesserungsprojekten und Fehlerbehebungsmethoden, insbesondere basierend auf TPM und Autonomous Maintenance, hilfreich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44739-0_64 aae0e14facb033dd3d6503afb0104d62;de;;;7.1.;;;Ein vietnamesisches System zur Beantwortung von Fragen in Vietnams Rechtsdokumenten In diesem Beitrag entwickeln wir ein vietnamesisches Frage-Antwort-System zur Beantwortung einfacher Fragen zu Bestimmungen, Prozessen, Verfahren und Sanktionen im Recht auf Unternehmen Vietnams. Die Forschung zum Aufbau eines vietnamesischen Frage-Antwort-Systems ist schwieriger als das englische Frage-Antwort-System, da es an vietnamesischen Verarbeitungsressourcen und -werkzeugen mangelt oder die Ergebnisse nicht hoch sind. Wir haben verfügbare vietnamesische Ressourcen und Tools verwendet und einige Tools (wie Lucene) und Algorithmen modifiziert, die auf Englisch gut funktionierten, auf Vietnamesisch. Aus diesem Grund haben wir ein auf Ähnlichkeit basierendes Modell vorgeschlagen, um ein vietnamesisches Frage-Antwort-System in den Rechtsdokumenten Vietnams aufzubauen, nämlich das vLawyer-System. Im experimentellen Abschnitt haben wir ein vielversprechendes Ergebnis erzielt, eine Genauigkeit von etwa 70% in Rechtsdokumenten, was bewiesen hat, dass unser Ansatz im Bereich Rechtsdokumente vernünftig ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45237-0_19 86c0f2f6126d572c71e8316605bbef5f;de;;;7.1.;;;Mit dem Multi-Living-Agent-Konzept komplexe Informationssysteme untersuchen In diesem Papier schlagen wir das Multi-Living Agent (MLA)-Konzept vor, das auf der Analyse der Eigenschaften komplexer Informationssysteme basiert, insbesondere solcher Systeme, die multifunktionale Operationen in einer Umgebung mit strengen Gegenmaßnahmen (SRSC) erfordern. Zunächst untersuchen wir die Darstellung der Lebensgrundlage des Systems unter den SRSC-Bedingungen und erhalten die grundlegende dynamische Darstellung des MLA aus dem Funktionsprofil des Systems. Als nächstes schlagen wir das Konzept der lebenden Selbstorganisation basierend auf dem Selbstorganisationsprofil des Systems vor und leiten ein Zwei-Set-Modell des lebenden Selbstorganisationsmechanismus her. Darüber hinaus präsentieren wir basierend auf den obigen Ergebnissen ein grundlegendes Konstruktionsmodell von MLA-basierten Informationssystemen im Bereich Informationssicherheit und Gegenmaßnahmen. Außerdem wird ein dreistufiger Verhandlungs-Koordinationsmechanismus abgeleitet. Abschließend präsentieren wir zwei Praxisbeispiele, die zeigen, wie das MLA-Konzept zur Analyse und Untersuchung realer komplexer Informationssysteme eingesetzt werden kann. Unserer Meinung nach wird der Vorschlag des MLA die Lücke zwischen der Forschung der Anwendung und der grundlegenden Anwendungsebene der Wissenschaft schließen. Es stellt die grundlegenden Forschungsmethoden und die unterstützenden Theorien für den Aufbau und die Analyse komplexer Informationssysteme im Bereich Informationssicherheit und Gegenmaßnahmen bereit.;-;-;-;https://link.springer.com/article/10.1007/s11432-008-0474-6 552fd57509e83928d060c400e4a95073;de;;;7.1.;;;Enterprise Knowledge Management basierend auf dem Plone Content Management System Dieses Papier stellte ein bequemes und perfektes Wissensmanagement-Informationssystem für Unternehmen dar, indem es die Wissensmanagement (KM)-Strategie in das Content Management System (CMS) einführte. Ein universelles Modell wurde auf KM unter der Plattform von CMS veröffentlicht. Darüber hinaus wurde ein Ansatz zur Wissensgewinnung durch Klassifikation unter RSS erforscht, um ein perfektes Knowledge Process System (KPS) aufzubauen. Auf Basis von PLONE CMS wurden verschiedene Funktionen auf KM ausgeführt, die das Wesentliche von Enterprise Knowledge Management (EKM) implizieren. Diese Forschung hat gute Aussichten entweder in Bezug auf Wirtschaftlichkeit oder Verfügbarkeit.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-34403-9_14 5cbdb931756e0fb2cce2f6e316576e61;de;;;7.1.;;;Die rasante Expansion der Wirtschaftsinformationen in den 1990er Jahren und die Herausforderung für Chinas Wirtschaftsreform In den frühen 1980er Jahren begann man über das Aufkommen einer neuen technologischen Revolution zu sprechen und bezeichnete sie als „dritte Welle“ und behauptete, dass die entwickelten Länder (DCs) in die „Informationsgesellschaft“, „postindustrielle Gesellschaft“ eingetreten seien. etc. Einige Ökonomen betrachten diesen Wandel als „Megashift“.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-75633-7_12 73d921ea8c0d20d418c371fe068755d8;de;;;7.1.;;;Künstliches neuronales Netz mit Back-Propagation für die Kostenschätzung der ERP-Einführung Kleine und mittlere Unternehmen (KMU) sind stark von Kosteneskalationen und -überschreitungen betroffen Zuverlässige Schätzung und Verwaltung der Kostenfaktoren sind ein Schlüssel für den Erfolg der Einführung von Enterprise Resource Planning (ERP)-Systemen in Unternehmen im Allgemeinen und KMU im Besonderen. Dieser Forschungsbereich ist noch unausgereift und erfordert einen erheblichen Forschungsaufwand, um eine solide und realistische Schätzung der Kostenfaktoren zu erhalten. Der Großteil der Forschung in diesem Bereich zielt auf die Verbesserung der Schätzungen ab, die durch Modelle der COCOMO-Familie berechnet werden. Diese Forschung ist der Beginn einer Reihe von Modellen, die versuchen würden, COCOMO durch andere Modelle zu ersetzen, die angemessener und auf ERP-Einführungen ausgerichtet sein könnten. In diesem Artikel wird ein künstliches neuronales Netzmodell mit Feed-Forward-Backpropagation zur Schätzung von Kostenfaktoren vorgestellt. Wir kommentieren Ergebnisse, Vorzüge und Grenzen des vorgeschlagenen Modells. Obwohl sich das Modell an KMU richtet, könnte es in verschiedenen Umgebungen und Kontexten erweitert und angewendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24355-4_19 fc27911da6f349bb9f72f0f41d6bd2d5;de;;;7.1.;;;Offene skalierbare Agentenarchitektur für Telekommunikationsanwendungen Dieses Papier beschreibt das JIAC-Projekt, eine offene und skalierbare Agentenarchitektur. Der heute stetig wachsende Telekommunikationsmarkt benötigt eine Plattform, um den daraus resultierenden wachsenden Anforderungen gerecht zu werden. JIAC-Java Intelligent Agent Componentware-bietet eine agentenbasierte Plattform, um diese Anforderungen von Telekommunikationsanwendungen zu erfüllen. Die Anforderungen an diese Anwendungen werden im 3. Kapitel detailliert beschrieben. Agentenorientierte Techniken, wie in den ersten Abschnitten beschrieben, gelten als die adäquate Lösung für die Wartung von Netzwerken und die Bereitstellung von Diensten. JIAC verwendet einen komponentenbasierten Ansatz, um benutzerdefinierte Agenten zu erstellen. Zur Realisierung von Telekommunikationsanwendungen greift JIAC auf die Metapher der elektronischen Marktplätze als Grundstruktur zurück.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0053956 cdf2c31d04b86e861c453d8a54134f20;de;;;7.1.;;;Verhalten, Leistung und Dilemmata der organisationsübergreifenden virtuellen Organisation Unternehmen sind zunehmend in Beziehungsnetzwerke mit anderen Organisationen eingebettet, die von strategischer Bedeutung sind. Die Teilnahme einer Organisation an einem Netzwerk kann den Zugang zu Informationen, Ressourcen, Märkten und Technologien ermöglichen oder sie in unproduktiven Beziehungen einschließen, aus denen sie schwer zu befreien sind. Daher reicht es nicht mehr aus, das Verhalten und die Leistung von Unternehmen zu analysieren, indem Unternehmen isoliert von ihren Netzwerkpartnern untersucht werden. Die Strategieforschung beschäftigt sich seit einiger Zeit mit interorganisationalen Allianzen. Das Hauptaugenmerk dieser Forschung lag jedoch auf der Untersuchung der Vorläufer der Netzwerkbildung, und den Auswirkungen von Allianzen und Netzwerken auf die Leistung eines Unternehmens wurde relativ weniger Aufmerksamkeit geschenkt. Da virtuelle Organisationen als strategische Netzwerke und Allianzen zwischen Organisationen konzeptualisiert werden, haben wir die Literatur über virtuelle Organisationen untersucht, um zu verstehen, was im interorganisationalen Kontext getan wurde. Wir fanden 34 Artikel von insgesamt 117 Artikeln über virtuelle Organisation, die virtuelles Organisieren auf interorganisationaler Ebene untersuchten. Wir haben jedes der in die engere Wahl gezogenen Papiere nach Art des virtuellen Organisierens (Netzwerkmitgliedschaft, Netzwerkstruktur, Bindungsmodalität und Zeitrahmen), Leistung und Dilemmata des virtuellen Organisierens klassifiziert. Unsere Analysen zeigten, dass die Strategie der virtuellen Organisation zwischen Organisationen mit den Zielen der virtuellen Organisation variierte. In allen in die engere Wahl gezogenen Papieren fanden wir ein Organisationsmuster, das davon abhing, ob die Organisation abstrakte Ressourcen (Wissen, Fähigkeiten, Kompetenzen usw.) oder bestimmte Ziele (Auslagerung von Schlüsselkomponenten) verfolgte. Virtuelles Organisieren für abstrakte Ressourcen zeigte tendenziell eine dezentralisierte Netzwerkstruktur und kollaborative Bindungen mit Partnern, während virtuelles Organisieren für bestimmte Ziele tendenziell eine zentralisierte Netzwerkstruktur und opportunistische Bindungen aufwies. Wir fanden einen Mangel an empirischer Literatur, die den Prozess der virtuellen Organisationsstrategie zwischen Organisationen und ihre Konsequenzen untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-73025-7_5 f4db80b95d5ff7970bcb1c246ff03d50;de;;;7.1.;;;Kritische Erfolgsfaktoren für die Migration zu OSS-on-the-Desktop: Gemeinsame Themen in drei südafrikanischen Fallstudien In diesem Beitrag werden die kritischen Erfolgsfaktoren im Zusammenhang mit der Migration von proprietärer Desktop-Software zu einer Open-Source-Software (OSS)-Desktop-Umgebung im südafrikanischen Kontext untersucht. Es wurde ein vergleichender Fallstudienanalyseansatz gewählt, bei dem drei Organisationen, die auf Desktop-OSS migriert sind, analysiert wurden. Für Vielfalt wurde jeweils eine Fallstudie aus der Regierung, der Privatwirtschaft und dem Bildungssektor herangezogen. Die meisten Ergebnisse stimmen mit denen in der verfügbaren Literatur überein, obwohl es bemerkenswerte Unterschiede in der relativen Bedeutung bestimmter Faktoren gibt.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-34226-5_29 0a22138bf5bde623a5d34f354b77fb71;de;;;7.1.;;;Systementwicklung in freier Wildbahn: Benutzergeführte Erkundung und Transformation von Organisationsvisionen Dieses Papier befasst sich mit einer immer wichtiger werdenden Kategorie der IT-Nutzung: der benutzergeführten Bereitstellung generischer Technologien in Unternehmensumgebungen. Es werden drei Fallstudien eines solchen Einsatzes vorgestellt: eine intern entwickelte webbasierte Collaboration-Anwendung, die bei verteilter Arbeit eines multinationalen Pharmaunternehmens eingesetzt wird, eine kommerzielle Groupware-Anwendung, die bei der Fusion eines nordeuropäischen Finanzunternehmens eingesetzt wird, und eine Kommunikationsinfrastruktur Multimedia-Telemedizin in einem norwegischen Krankenhaus. Die untersuchten Aktivitäten waren nicht vollständig in formellen Entwicklungsprojekten organisiert, sondern waren größtenteils Initiativen „in der Wildnis“, bei denen die Benutzer die Richtungen und Ergebnisse des Prozesses beeinflussten. In allen drei Fällen fanden wir eine langsame Transformation der anfänglichen organisatorischen Visionen und Absichten, eine sukzessive Ergänzung und Anpassung verschiedener technologischer Komponenten und allmähliche Veränderungen in der Arbeitspraxis. In diesem Papier klassifizieren wir diese Arbeit als Entwicklung, um die Bedeutung solcher Neugestaltungen, Anpassungen und Anpassungen der Technologien, die in Nutzungsumgebungen stattfinden, hervorzuheben. Abschließend diskutiert das Papier die Implikationen für die Position und den Beitrag des IS-Experten bei der Information dieses Prozesses.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-8095-6_33 8e8f0d6be7c09152074ae3755822a58a;de;;;7.1.;;;Ontologie als Werkzeug zur Unterstützung von IT-Managementstandards In diesem Papier diskutieren die Autoren die ursprüngliche Idee, Ontologien zu verwenden, um Anforderungen der Standards zu modellieren, die IT-Managementprozesse unterstützen. Als Beispiel sei das Open Group Architecture Framework (TOGAF) genannt. Es wird ein Übergang vom generischen Modell zum organisationsspezifischen Modell angezeigt. Das beschriebene Beispiel dient als Grundlage, um die Nützlichkeit eines solchen Modellierungsansatzes in einem breiteren Spektrum von Projekten in den Bereichen Produktionstechnik/Prozessmanagement zu prüfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13541-5_34 13a24fd692ae17a5ed6bbd111ee15f3d;de;;;7.1.;;;OP-Entscheidungsoptimierung durch Integration von Operationsplanung und Pflegedienstplan Das wissenschaftliche Management des Operationssaals (OP) erfordert eine effiziente Entscheidungsfindung, um den Wahltermin für die Operation festzulegen und qualifizierte Krankenschwestern in Schichten über einen bestimmten Zeitraum zuzuweisen. Diese beiden Entscheidungen, die OP-Planung und das Pflegepersonal, werden als mittelfristige Entscheidung klassifiziert. Sie beeinflussen sich gegenseitig, werden aber in der Literatur unabhängig voneinander gelöst. Es wird eine mittelfristige OP-Entscheidungsoptimierung beschrieben, die die Operationsplanung und die Pflegeplanung integriert, und ein ACO-Ansatz wird vorgeschlagen, um ein solches Mehrzieloptimierungsproblem zu lösen. Der Testfall aus den 10-tägigen tatsächlichen Krankenhausbetriebsdaten wird verwendet, um den vorgeschlagenen Ansatz zu bewerten. Die Vergleichsanalyse zeigt den Vorteil der integrierten Entscheidung bei der Abwägung der täglichen OP-Menge und der Arbeitsbelastung der Pflegekräfte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-47200-2_96 bb34250b56f1941d67b12dff4ee08cbc;de;;;7.1.;;;Eine Designmethode für die Produktaktualisierung bei unterschiedlichen Kundenanforderungen Eine nachhaltige Gesellschaft erfordert Veränderungen im traditionellen Paradigma der Massenproduktion und des Konsums. Produkte wie PCs und Smartphones werden entsorgt, obwohl sie voll funktionsfähig sind. Dieses Papier schlägt eine Designmethode für die Produktaufrüstbarkeit vor, die verschiedene Kundenanforderungen erfüllt, um den Produktwert zu erhöhen und die Wertlebensdauer zu verlängern, indem Komponenten ausgetauscht werden, die eng mit der Wertminderung verbunden sind. Darüber hinaus schlägt dieses Papier auch eine Methode vor, die zukünftige Produktleistungen, effektive aufrüstbare Produktkomponenten und die Nebenwirkungen von Upgrades auf andere Produktkomponenten spezifizieren kann. Schließlich diskutiert dieses Papier die Anwendbarkeit unserer vorgeschlagenen Konstruktionsmethode unter Berücksichtigung eines Staubsaugers und verschiedener unterschiedlicher Kundenanforderungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45937-9_10 cd1699eb991e7d4327d1184802ad1f65;de;;;7.1.;;;Erfahrungsmanagement im Wissensmanagement In diesem Beitrag werden Erfahrung und Wissen, Erfahrungsmanagement und Wissensmanagement sowie deren Zusammenhänge untersucht. Es schlägt auch Prozessperspektiven sowohl für das Erfahrungsmanagement als auch für das Wissensmanagement vor, die Erfahrungsverarbeitung und entsprechendes Management bzw. Der vorgeschlagene Ansatz wird die Erforschung und Entwicklung von Wissens- und Erfahrungsmanagement sowie wissensbasierten Systemen erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/11552413_140 f3456a975535d24b5de7af6ab9451078;de;;;7.1.;;;DMU Reifegradmanagement als Erweiterung des Kernproduktmodells Reverse Engineering (RE) von mechanischen Teilen besteht darin, ein virtuelles 3D-Modell mit Daten zu erstellen, die oft von 3D-Messsystemen wie Laserscannern erfasst werden. Die resultierende Punktwolke wird dann in ein geometrisches Modell umgewandelt. Der Zweck der RE-Aktivität besteht darin, Wartungs- oder Neugestaltungsvorgänge zu vereinfachen. Die Grenze der Literatur ist die Komponente, isoliert von ihrer Produktmontage. Aufgrund von Wartungsarbeiten vor Ort spiegelt ein langzeitig im Einsatz befindliches Produkt möglicherweise nicht mehr sein Digital Mock-Up (DMU) wider. Um einen effizienten Lebenszyklus aufrechtzuerhalten, müssen die vorgenommenen Änderungen berücksichtigt werden. Dieser Beitrag konzentriert sich auf die Entwicklung einer wissensbasierten RE-Methodik zur Unterstützung des DMU-Reifemanagements: Identifizierung der Reifegradvorgaben, die nicht gemeldeten Änderungen entsprechen, im CAD-Montagemodell, um es dem realen Produkt anzupassen. Dieser Ansatz wird durch eine Core Product Model-Datenmodellerweiterung unterstützt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35758-9_17 d097c5ba07bd7ccd9f0b05f9b8ec2efa;de;;;7.1.;;;Informationssysteme und qualitative Forschung Die meisten ausgereiften Sozialstudien beinhalten sowohl qualitative als auch quantitative Methoden im normalen Verlauf der Forschungsaktivitäten. Gelehrte können sich aufgrund des einen oder des anderen oder in einigen Fällen aufgrund der Kombination von beidem einen Namen machen. In Bereichen wie Soziologie, Psychologie, Geschichte, Politikwissenschaft und sogar Anthropologie ist die Balance gefunden, die Regeln werden akzeptiert. Die Betriebswirtschaftslehre im Allgemeinen und die Wirtschaftsinformatik im Besonderen haben es viel schwerer, mit der Bilanz zurechtzukommen. Bei so vielen Kollegen, die in der Betriebswirtschaftslehre, im Marketing, im Rechnungswesen und sogar im Organisationsverhalten ausschließlich quantitative Methoden anwenden, und andere Kollegen, die sich strikt an formale Methoden in der Informatik und Softwaretechnik halten, mussten wir uns manchmal einen harten Kampf liefern. Dieser Band belegt die Reifung der Wirtschaftsinformatik als Disziplin, die neben quantitativen Forschungsmethoden den Stellenwert qualitativer Methoden anerkennen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35309-8_1 0b0bea6c25c18fea356e3157e479322c;de;;;7.1.;;;Reengineering und kontinuierliche Verbesserung Die letzten zwei Jahrzehnte des zwanzigsten Jahrhunderts haben beispiellose Veränderungen in der Geschäfts- und Regierungslandschaft mit sich gebracht. Globalisierung, Deregulierung und Privatisierung haben das Wettbewerbsumfeld grundlegend verändert. Rasante Fortschritte in der Elektronik- und Informationstechnologie und deren Vordringen in die Verbrauchermärkte führen zu immer schnelleren Produktzyklen und verbessern die Preis-/Leistungserwartungen. Vielen Unternehmen fällt es schwer, in diesem sich schnell ändernden Umfeld zu bestehen. Unbeeindruckt von den etablierten Wegen entstehen scheinbar über Nacht neue Wettbewerber, die größere, alteingesessene Institutionen bedrohen – deren traditionelle Prozesse und Systeme zu langsam, unflexibel und kostspielig sind. Innerhalb weniger Jahre änderte sich das Vermögen mächtiger Unternehmen wie Ford und IBM und noch jüngerer Unternehmen wie der Digital Equipment Corporation von Gewinnen von Hunderten von Millionen oder Milliarden Dollar pro Jahr zu ebenso großen Verlusten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5281-9_21 4a9f3c794ac21edad9d92654c77bd69e;de;;;7.1.;;;Der Einfluss der Digitalisierung auf das Design von Informationssystemen – Eine explorative Fallstudie zur Digitalisierung im Versicherungsgeschäft Die Digitalisierung verändert in vielen Unternehmen Geschäftsprozessmodelle und -prozesse. Viele von ihnen benötigen jedoch eine Anleitung, wie sich die Digitalisierung auf die Gestaltung ihrer Informationssysteme auswirkt. Daher untersucht dieser Beitrag den Einfluss der Digitalisierung auf das Design von Informationssystemen. Wir wenden eine zweiphasige Forschungsmethode mit einer Literaturrecherche und einer explorativen Fallstudie an. Die Fallstudie fand im IT-Dienstleister eines großen Versicherungsunternehmens statt. Die Ergebnisse der Studie legen nahe, dass eine Reihe von Bereichen der Gestaltung von Informationssystemen betroffen sind, wie beispielsweise Architektur, Prozesse, Daten und Dienste.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-69023-0_13 11735fc674f13e42184dfc5f3dd794fa;de;;;7.1.;;;Implementierung von Business Process Reengineering basierend auf Workflow Management Um eine bessere Leistung von BPR zu erreichen, wird das Workflow-Management basierend auf der Kernidee und den Schritten von BPR in BPR integriert. Hauptprobleme des Hotelgeschäftsprozesses werden untersucht, gleichzeitig werden die Eigenschaften und Vorteile von WFM vorgestellt, die zeigen, dass WFM solide ist. Dann wird der BPR-Fall eines Fünf-Sterne-Hotels in Guangzhou vorgeschlagen, das den WFM-Workflow übernimmt. Die Miet- und Nebenkostenprozesse werden analysiert, der kollaborative Workflow und sein neuer Prozess nach dem Reengineering werden ebenfalls angegeben, wodurch bessere Ergebnisse erzielt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27281-3_5 d7a5949961ca388496d7b2a4e19f8511;de;;;7.1.;;;Untersuchung der Rolle von Informationssystemen bei der Minderung von Gate-Überlastungen durch Simulation: Theorie und Praxis an einem Massenexport-Terminal-Gate Anhand eines australischen Hackschnitzel-Exportterminals als Fallstudie präsentiert diese Studie ein Terminal-Gate-Simulationsmodell, das das Verständnis der komplexen Interaktionen am Terminal-Gate verbessert und das Potenzial von Informations- und digitalen Systemalternativen zur Minderung von Staus beschreibt. Die modellierten Alternativen umfassen: ein Terminal-Terminierungssystem zur Planung der Lkw-Ankunft, die Integration von Brückenwaageninformationen, um eine Phase des Entladevorgangs zu eliminieren, und die Reduzierung der Betriebszeit des Förderbands.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99704-9_45 490de19a743ea98a1c4ce4d284a21547;de;;;7.1.;;;Reifegradmodell für nachhaltige Lieferketten Die drei Dimensionen der Nachhaltigkeit wurden von akademischen Forschern überwiegend eigenständig bearbeitet. Unternehmen und ihre Lieferketten folgen diesem Trend oft, da Umwelt- und Sozialinitiativen von den Gesamtstrategien abgekoppelt sind. Die meisten Nachhaltigkeitsrahmen sind nicht direkt auf die inhärente Komplexität von Lieferketten anwendbar. Lieferketten müssen die Nachhaltigkeitsdimensionen in einer strategischen Weise angehen, die alle Interessengruppen einbezieht und die Lieferkettenziele an den Zielen der einzelnen Mitglieder ausrichtet. Je nach Reifegrad müssen Lieferketten ihre Transformationsstrategie anpassen. Unsere Forschung schlägt ein Modell vor, das Nachhaltigkeit in Lieferketten mit Reifegradüberlegungen integriert. Darüber hinaus wird ein Nachhaltigkeitsmodellierungs- und -berichtssystem entwickelt, das den Übergang zu höheren Reifegraden ermöglicht. Die vorgeschlagenen Artefakte nutzen die Funktionen aus etablierten Frameworks und können in präskriptiver Weise für Design und Implementierung verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12494-5_28 500d5c3451dcb6985ecac55cdf427ee6;de;;;7.1.;;;Ein Ansatz zur Visualisierung von Wissen über Informationssicherheit In diesem Papier wird die Anwendung internationaler Standards und Richtlinien zusammen mit von Anbietern gesponserten Akkreditierungsprogrammen bei der Entwicklung von Lehrplänen für Informationssicherheit und ein Ansatz zur Visualisierung dieses Wissens erörtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39377-8_16 831419c7f069796d425630bd20f74817;de;;;7.1.;;;Technologie- und lernende Gesellschaften im neuen Jahrtausend (indischer Kontext): Inhalt, Praxis und Management Das Papier beschreibt, wie die Informationstechnologie (mit Bezug auf den indischen Kontext) zur Umschulung und Umschulung der bestehenden Arbeitskräfte genutzt werden kann, um sie produktiver zu machen und die Technologie und Kreativität für ein besseres Produktdesign mit verkürztem Designlebenszyklus zu nutzen. Es gibt 10 neue Technologien, dh Digital Subscriber Line (DSL), Wireless Application Protocol (WAP), Extensive Markup Language (XML), Hyper Text Transfer Protocol (HTTP), Transmission Control Protocol/Internet Protocol (TCP/IP), Public Key Infrastructure Public (PKI), Firewall, Asynchronous Transfer Mode (ATM) Dense Wavelength Division Multiplexing und Open Source Betriebssystem (Linux), das Internet- und Web-fähige Anwendungen vorantreiben wird. Am Beispiel Indiens: Um eine Software-Supermacht zu werden, muss Indien Fachleute von internationalem Kaliber für Softwareentwicklung, Inhaltserstellung und Dienstleistungsmanagement entwickeln. Die neue IT-Politik [11] ermöglichte es Indien, aus den multisektoralen Ressourcen die notwendige technische Manpower für die Entwicklung von Software zu generieren. Die Regierung hat die Beteiligung des Privatsektors an der Schaffung der Humanressourcen erleichtert, und um die Qualität der Humanressourcen sicherzustellen, gibt es geeignete Qualitätssicherungssysteme, um diese Institutionen (privat und öffentlich) zu inspizieren und zu überwachen und Standardbewertungs- und Bewertungssysteme einzuführen für eine qualitativ hochwertige Ausbildung im IT-Sektor. Diese Richtlinien haben sich im Hinblick auf die Bereitstellung einer großen Menge an Arbeitskräften bewährt, um die Anforderungen der Softwareindustrie zu erfüllen. Indien hat die Verfügbarkeit von e-talentierten Arbeitskräften als wirtschaftlichen Vorteil genutzt, um sich im globalen Szenario als Software-Supermacht zu positionieren. Alle multinationalen Unternehmen haben sich dafür entschieden, Softwareentwicklungszentren, Designzentren und Servicezentren in Indien zu eröffnen, um den Kostenvorteil qualifizierter Arbeitskräfte für ihren wirtschaftlichen Vorteil zu nutzen. Dies hat Indiens wirtschaftliche Position in Bezug auf den Geldzufluss und den Export von Waren und Dienstleistungen verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35609-9_21 ffcb5e229c8e6aed6786106c4d091ada;de;;;7.1.;;;Wissensorganisation und Problemlösung Wie ist der Problemraum organisiert? Welche Rolle spielt Wissen bei der Organisation von Problemräumen und wie ist es strukturiert? Wie wird Textanalyse durchgeführt? Gibt es unterschiedliche Ansätze zur Generierung von Alternativen? Können neue Features geschaffen werden? Wie werden die Profile angereichert? Erfolgt die Problemlösung im Batch oder in Echtzeit?;-;-;-;https://link.springer.com/chapter/10.1057/978-1-137-59466-2_7 076c5afeae50a568b876bafe5b82fd42;de;;;7.1.;;;Kommentare zu „An Autopoietic View of the Concept Information Systems“ von E.-S. Abou-Zeid Der vom Autor vorgeschlagene Modellierungsrahmen hat die Fähigkeit, die dynamischen Veränderungen von Informationssystemen selbst anzupassen. In diesem Beitrag analysiere ich den rechnerischen Aspekt von „An Autopoietic View of the Concept ‚Information Systems‘“ des Autors und vergleiche ihn mit reflexiver Rechentechnik.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35500-9_15 005ca699905374a9c430979bda305db1;de;;;7.1.;;;Nutzung von Generationenmodellen für Asset-Management-Strategien in einer australischen Metro Rail Organisation Der Zweck des folgenden Papiers stellt den Ansatz von Metro Trains Melbourne zur Entwicklung und Nutzung eines „Generationsmodells“ zur Beschreibung der Entwicklungsstadien der Anlageklasse und der Gruppenstrategiedokumentation des Unternehmens vor und skizziert diese. Darüber hinaus fasst es die Ergebnisse der verschiedenen Asset-Entwicklungszustände, wie sie im Modell beschrieben sind, sowie die Kriterien und das Scoring zur Bewertung und Ermittlung des Generationenniveaus für Assetklassen- und Gruppenkritikalität und die Entwicklung von Folgestrategien zusammen. Dies ermöglicht die gezielte Ausrichtung spezifischer Verbesserungsmaßnahmen, welche Generation jede Anlageklasse und Gruppenstrategie entwickelt werden sollte, um das Mindestgenerationsniveau basierend auf der Kritikalität der Anlageklasse und Gruppe zu ermitteln. Die Fortschrittsrate bis zu höheren Generationsstufen basiert auch auf der Kritikalität (Anlageklassen und Gruppen mit hoher Kritikalität haben eine höhere Priorität als Anlageklassen und Gruppen mit mittlerer/niedriger Kritikalität) und anderen Faktoren, die auftreten und zusätzliche Zustandsinformationen müssen verglichen werden die Basisprognose (bestimmt auf der Ebene der vorherigen Generation), um das Vertrauen in die Prognose und die in dieser Prognose getroffenen Annahmen zu bestimmen. Das Scoring-System basiert darauf, ob die Anlageklassen und -gruppen die Kriterien erfüllen, teilweise erfüllen oder nicht erfüllen, das Ergebnis ist die Verbesserung der Generationen. Das Papier stellt die resultierenden Anlageklassen- und Gruppenstrategien des MTM vor, die sich derzeit entweder in der ersten, zweiten oder dritten Generation befinden und für alle Anlageklassenstrategien entwickelt wurden. Eine Variation dieses Generationenmodells wird auch bei der Entwicklung der MTM-Gruppenstrategien verwendet. Der Hauptvorteil der Einführung des Generationenmodells ist die Fähigkeit, die Erwartungen der Stakeholder zu verwalten. Es wird argumentiert, dass diese Fallstudie und die begleitende Forschung ein Beitrag für den Bereich des strategischen Asset Managements und innerhalb des International Journal of Strategic Engineering Asset Management sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27064-7_17 fd29af9cbd6183678abfc139676acb87;de;;;7.1.;;;IT-Unterstützung für organisationales Lernen: Die Organisation von Wissensnetzwerken In den ersten Kapiteln des Buches haben wir die Theorien und Konzepte des Wissensmanagements diskutiert. Ein tieferes Verständnis des Wissensgenerierungsprozesses in einem wirtschaftlichen oder Managementumfeld wird es dem Manager erleichtern, Wissensmanagement in einem Unternehmen einzuführen. In den vorangegangenen Kapiteln wurden Praxisbeispiele unterschiedlicher Größe, Komplexität und Schwerpunkte beschrieben, die alle mit Wissensmanagement im Managementkontext zu tun hatten. Diese Beispiele gaben einen Einblick in die Möglichkeiten des Wissensmanagements. Dieses Kapitel befasst sich mit der Unternehmensumgebung, die notwendig ist, um ein wissensbasiertes Unternehmen zu schaffen. Wenn ein Unternehmen versteht, welche entscheidende Rolle Wissen für seine zukünftige nachhaltige Entwicklung spielt, wie kann es die Einführung von wissensbasiertem Management angehen. Wie in diesem Kapitel argumentiert wird, entscheiden die Führungsmentalität (die Lernhaltung) und die unterstützende Architektur (Informations- und Wissenstechnologie) des Unternehmens über das Wissensmanagement.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5773-9_7 348029a54ed671e1d642247871b7e956;de;;;7.1.;;;Kognition, Geselligkeit und Einschränkungen Dieses Papier konzentriert sich auf die Herausforderung, technische Agenten zu entwickeln, die in modernen Computer- und Informationsumgebungen flexibel agieren. Es wird argumentiert, dass bestehende Agentenarchitekturen dazu neigen, die Flexibilität eines Agenten von Natur aus einzuschränken, da sie einen diskreten kognitiven und sozialen Verhaltensraum implizieren. Es wird ein neuartiges, generisches Constraint-Centered Architecture Framework (CCAF) vorgeschlagen, das darauf abzielt, Agenten in die Lage zu versetzen, in einem kontinuierlichen Verhaltensraum zu agieren. Obwohl einige Aspekte dieses Frameworks im Geschmack noch vorläufig sind, bietet es zwei bemerkenswerte Eigenschaften. Erstens nähert es sich der Flexibilität in Bezug auf Kognition (von reaktiv bis proaktiv) und Geselligkeit (von isoliert bis interaktiv). Zweitens behandelt es Flexibilität als eine emergente Eigenschaft (genauer gesagt als eine Eigenschaft, die sich aus dem kontinuierlichen Versuch eines Agenten ergibt, lokale und globale Einschränkungen zu handhaben). Eine wichtige Implikation der Überlegungen in diesem Artikel ist die Notwendigkeit, verschiedene bestehende Ansätze zur Handhabung von Einschränkungen zu einem kohärenten Ganzen zu integrieren, um wirklich flexible Agenten zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44568-4_13 ee1109fc0e22f8b47aac3c0576e214ae;de;;;7.1.;;;Erdbebenfrühwarnung für Verkehrslinien In diesem Beitrag wird das Potenzial von Erdbebenfrühwarnsystemen für Verkehrslinien analysiert. Die interdisziplinäre Arbeit konzentriert sich auf die schnelle Erstellung einer Alarmkarte während eines anhaltenden Erdbebens sowie die Bereitstellung einer Schadenskarte unmittelbar nach der Starkbewegungsphase, die mögliche Schäden an der Bahninfrastruktur visualisiert. Um diesen Anwendungsanforderungen gerecht zu werden, wird eine serviceorientierte Architektur basierend auf raumbezogenen Standards spezifiziert. Dies gewährleistet die Übertragbarkeit der Systemarchitektur auf verschiedene geografische Regionen sowie eine mögliche Übertragung auf andere Naturkatastrophen und Infrastruktursysteme. Der erste Teil des Papiers beschreibt die standardbasierten Dienste der Systemarchitektur zusammen mit Entwurfsprinzipien, die für die Realisierung von Frühwarnsystemen nützlich sind. Im zweiten Teil des Beitrags wird ein Online-Demonstrator für das beispielhafte Testgebiet im Bundesland Baden-Württemberg vorgestellt. Die Systemarchitektur des Demonstrators beinhaltet eine Erdbebenfrühwarnmethodik auf Basis künstlicher neuronaler Netze und eine infrastrukturspezifische Schadensbewertung. Der dritte Teil des Papiers analysiert das Potenzial, kostengünstige Sensoren im Gleis zu implementieren, die ein dichtes Netz direkt an der Bahninfrastruktur ermöglichen würden.;-;-;-;https://link.springer.com/article/10.1007/s11069-010-9609-3 022436a19cf9e7f26626917f5bb7980e;de;;;7.1.;;;HOMER: Ein semantisch verbesserter Wissensmanagement-Ansatz im Bereich hausgemachter Sprengstoff-Intelligenz Dieses Papier stellt einen neuen Ansatz für den Umgang mit Daten (Kodierung, Verwaltung und Abruf) in sicheren sensiblen und klassifizierten Organisationen (z. Dieser Ansatz signalisiert eine Abkehr von der aktuellen Nutzung von Datenbanken und der Nutzung von Informationstechnologien und ermöglicht eine Trennung der Bedenken zwischen der Art und Weise, wie Daten organisiert/strukturiert werden und wie Daten manipuliert/verarbeitet werden. Ein solcher Ansatz verwendet eine adaptive Wissensmanagementplattform, die in der Lage ist, den organisatorischen Betrieb von LEAs unter Verwendung von Daten zu unterstützen, die aus verschiedenen, heterogenen und Online-Quellen aggregiert wurden. Dieses Wissen wird dann mithilfe von Empfehlungsgebern mühelos an die Benutzer weitergegeben, um die Bedürfnisse der Organisation zu erfüllen. Darüber hinaus ist das System so konzipiert, dass es durch das Hinzufügen und Entfernen mehrerer Folksonomien (die Schwerpunktveränderungen oder neue Trends darstellen) eine einfachere Änderung der betrieblichen Anforderungen ermöglicht. Diese Änderungen werden durch Semantik weiter angereichert, die spezielle domänenspezifische Inhaltsempfehlungen und semantisch angereicherte Suchfunktionen bereitstellt. Dieser Ansatz des Wissensabrufs wurde im Rahmen des HOMER-Projekts auf den Bereich der hausgemachten Sprengstoffe und der Terrorismusbekämpfung angewendet, wo Daten aus Quellen wie Polizeidatenbanken, Online-Foren und Sprengstoff-Wikis aggregiert werden. Die Daten werden unstrukturiert gespeichert und von den Benutzern annotiert, um letztendlich nach dem Wissensabrufbedarf der Organisation kategorisiert zu werden, die in diesem Fall effiziente und effektive Ermittlungen zu selbst hergestellten Sprengstoffen durchführen soll. Wir beschreiben die Architektur eines Systems, das die entsprechenden Ermittlungsaktivitäten effizient und effektiv unterstützen kann, und präsentieren eine Bewertung aus Sicht der Endnutzer.;-;-;-;https://link.springer.com/article/10.1007/s13278-017-0451-4 ce251b191bd22cde771e7428fc899b12;de;;;7.1.;;;Entwicklung sozio-technischer Anwendungen für Ubiquitous Computing Eine große Herausforderung für das Design von ubiquitären Systemen besteht darin, Anwendungen zu erstellen, die rechtlich kompatibel sind und von ihren beabsichtigten Benutzern akzeptiert werden. Die heutigen europäischen Datenschutzgrundsätze widersprechen den Vorstellungen des Ubiquitous Computing. Zudem müssen sich die Nutzer mit unkonventionellen Interaktionskonzepten auseinandersetzen, die zu einem geringen Vertrauen und zu geringer Akzeptanz in solchen Systemen führen. Aktuelle Entwicklungsansätze decken diese Anliegen nicht ausreichend ab, da sie nicht systematisch Expertise aus den relevanten Disziplinen einbeziehen. Wir präsentieren einen neuartigen Entwicklungsansatz für ubiquitäre Systeme, der diese Bedenken explizit adressiert. Unsere primäre Aufgabe bestand darin, die gestiegene Anzahl von Stakeholdern und Abhängigkeiten bzw. Konflikte zwischen Anforderungen der einzelnen Disziplinen zu managen. Der Ansatz umfasst vordefinierte Artefakte und einen definierten Workflow mit Verantwortlichkeiten sowie Vorschläge zur Entwicklung des gegenseitigen Verständnisses. Wir wenden diesen multidisziplinären Ansatz an, um die allgegenwärtige Anwendung Meet-U zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30823-9_17 c797542fc659126d82850a09e909e189;de;;;7.1.;;;Reverse Logistics: Netzwerkdesign auf Basis der Ökobilanz Auf dem Weg zu einer nachhaltigeren Welt sind Unternehmen wie die Flugzeug- und Automobilindustrie stark an Leichtbaukomponenten und -lösungen interessiert. Zu diesen Lösungen zählen Aluminiumknetlegierungen, die ein hohes Potenzial für eine dramatische Gewichtsreduzierung von Strukturteilen bieten. Dennoch ist die Herstellung von Neualuminium jedoch sehr energieaufwendig. Daher und im SuPLight-Projekt interessieren wir uns für recyceltes Aluminium. Ziel dieses Projekts ist es, neue industrielle Modelle für nachhaltige Leichtbaulösungen zu adressieren – mit Recycling in High-End-Strukturbauteilen auf Basis von Knetlegierungen. In diesem Artikel befassen wir uns mit der Gestaltung der Reverse-Logistikkette, um die erforderliche Menge an recyceltem Aluminium für die Produktion von L-förmigen vorderen unteren Querlenkern für Pkw sicherzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41266-0_54 853f1b472be524cb17c3cb9a60d24284;de;;;7.1.;;;Design und Implementierung eines Enterprise Resources Content Management Systems In diesem Whitepaper wird ein Content-Management-System (CMS) für Unternehmen vorgestellt, das die Unternehmensressourcen mit der informationsausgebenden Website kombiniert und die Inhaltssammlung, Inhaltserstellung, Inhaltsbearbeitung, Vorlagenerstellung, Inhaltsgenehmigung, Inhaltsausgabe und Inhaltsbrowseranwendungen integriert zu einem Ganzen. Dieses System ermöglicht Benutzern die einfache und effiziente Ausgabe, Verwaltung und den Austausch von Informationen über Websites gemäß den unterschiedlichen Anforderungen der Benutzer, was darauf hindeutet, dass die Effizienz der täglichen Informationsverarbeitung auf Websites verbessert werden könnte. In diesem Beitrag wird die Architektur des Enterprise-Content-Management-Systems erläutert, seine wesentlichen Funktionen und Schlüsseltechnologien vorgestellt und die Website-Anwendungen dieses Systems als Beispiel angeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54930-4_26 f5cc7dc02a9d8fde0c9577cb4f606e3a;de;;;7.1.;;;Eine Überprüfung der Planungsstrategien Die Terminplanung ist eine wichtige Aktivität innerhalb von FC und PAC. Die Terminplanungsforschung hat in den letzten dreißig Jahren die kreativen Talente vieler Akademiker absorbiert. Trotz der zahlreichen Entwicklungen in der Terminplanung ist eine häufige Beschwerde von Fertigungsmitarbeitern, dass von akademischen Forschern entwickelte Terminierungstechniken und -lösungen mit der Realität des Fertigungsbereichs „nicht in Verbindung“ sind. In gewisser Weise ist diese Wahrnehmung einer großen Kluft zwischen Forschung und Praxis zutreffend, und wir werden darauf hinweisen, dass viele im Laufe der Jahre entwickelte Scheduling-Techniken in ihrer Anwendung eingeschränkt sind. Jüngste Entwicklungen bei computergestützten Planungslösungen deuten jedoch darauf hin, dass die Kluft zwischen der Forschungswelt und der Werkstatt langsam überbrückt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-1296-3_6 96f6c25719cf94bd385d0e84f047d50d;de;;;7.1.;;;Ein dynamischer Zugang zum Kontext in der Diffusionsforschung Kontextstudien zur Verbreitung der Informationstechnologie bieten eine Möglichkeit, sowohl die Produktion als auch die Verbreitung von IT-Innovationen zu verstehen. Anhand eines Fallbeispiels von Mobil-TV im Vereinigten Königreich verwendet dieses Papier die Akteursnetzwerktheorie (ANT), um den Kontext darzustellen, wie die verschiedenen branchenübergreifenden Gruppen und Technologien eingeschrieben und in den Aufbau und die Neuerfindung von Mobil-TV-Diensten umgesetzt wurden. Durch die Fokussierung auf die verschiedenen branchenübergreifenden Akteure wird der Kontext zu einer dynamischen Umgebung, die sich aus dem Verhalten anderer Akteure zusammensetzt, und nicht mehr als eine Reihe statischer Faktoren neu gestaltet. Implikationen für die Diffusionsforschung und -praxis werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-72804-9_21 036d16828bdd173e13097340368a5c9a;de;;;7.1.;;;Ein Rahmen für die kollaborative Katastrophenbewältigung: Ein Ansatz mit geerdeter Theorie Unsere Gesellschaft ist mit vielen Naturkatastrophen und von Menschen verursachten Katastrophen konfrontiert, die schwerwiegende Auswirkungen in Form von Todesfällen, Verletzungen, finanziellen Verlusten, psychischen Belastungen und wirtschaftlichen Auswirkungen haben können. Die Gesellschaft muss Wege finden, um die negativen Auswirkungen dieser Katastrophen so weit wie möglich zu verhindern oder zu reduzieren. In einigen Fällen wurden Informationssysteme verwendet, um die Notfallreaktion bis zu einem gewissen Grad zu unterstützen. Es besteht jedoch weiterhin die Notwendigkeit, wirksamere kollaborative Katastrophenschutzsysteme zu entwickeln. Um die Kernmerkmale solcher Systeme zu identifizieren, wird eine Grounded-Theory-Forschungsmethode zur Datensammlung und -analyse verwendet. Daten aus Interviews und Beobachtungen aus erster Hand wurden mit Literatur kombiniert und analysiert, um mehrere aufkommende Probleme und Konzepte in Bezug auf die gemeinsame Katastrophenhilfe zu entdecken. Die Themen und Konzepte wurden in vier Kategorien eingeteilt: (i) Kontextbewusstsein, (ii) Mehrparteienbeziehungen, (iii) aufgabenbasierte Koordination und (iv) IT-Unterstützung, die zusammen den Bedarf einer kollaborativen Koordination der Katastrophenhilfe identifizierten. Anhand von Daten aus den Daten wurden diese Faktoren miteinander in Beziehung gesetzt, um einen Rahmen für kontextbewusste Mehrparteien-Koordinationssysteme zu entwickeln. Diese Studie trägt zum Bereich des Notfallmanagements bei, da der Rahmen eine umfassende Theorie für die Koordinierung der Katastrophenhilfe darstellt, die als Leitfaden für die zukünftige Forschung zum Katastrophenmanagement dienen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-63546-0_3 d257faa8e0c683d32e530712316a0f44;de;;;7.1.;;;Rechenmodelle zur Integration sprachlicher und visueller Informationen: Eine Umfrage Dieser Artikel gibt einen Überblick über die Forschung zur Entwicklung von Computermodellen zur Integration sprachlicher und visueller Informationen. Es beginnt mit einer Diskussion tatsächlich implementierter Systeme und setzt sich mit rechnerisch motivierten Theorien der menschlichen Kognition fort. Da die bestehende Forschung mehrere Disziplinen (z. B. Verstehen natürlicher Sprache, Computer Vision, Wissensrepräsentation) sowie mehrere Anwendungsbereiche umfasst, ist ein wichtiger Beitrag dieser Arbeit die Kategorisierung der bestehenden Forschung nach Inputs und Zielen. Schließlich werden einige Schlüsselfragen im Zusammenhang mit der Integration von Informationen aus zwei so unterschiedlichen Quellen skizziert und mit bestehenden Forschungsarbeiten in Verbindung gebracht. Das zentrale Thema, das durchgängig behandelt wird, ist das Korrespondenzproblem, nämlich wie man visuelle Ereignisse mit Wörtern verbindet und umgekehrt.;-;-;-;https://link.springer.com/article/10.1007/BF00849725 375131ddbb9708363e8b128fc4018d11;de;;;7.1.;;;Exzellenzzentren für effektives Geschäftsprozessmanagement Dieses Papier erklärt und beschreibt, wie die Exzellenzzentren (CoEs) von Business Process Management (BPM) effektiv sein können. Die thematische Analyse von Daten, die von zwei großen südafrikanischen Finanzdienstleistungsunternehmen mit operativen CoEs gesammelt wurden, ergab ein Modell auf der Grundlage des Integrated Team Effectiveness Model, das die Faktoren zeigt, die die Effektivität eines CoE beeinflussen. Es wurde festgestellt, dass die Dienstleistungen, die das CoE anbietet, sowie die Industriestandards, an denen es sich ausrichtet, den größten Einfluss haben. Diese Forschung bietet praktischen Wert, indem sie Faktoren hervorhebt, die Organisationen in ihre Planung einbeziehen und die sie bei der Einrichtung oder Verbesserung der Dienste eines CoE berücksichtigen können. Das in dieser Arbeit vorgestellte BPM-CoE-Effektivitätsmodell ist ein theoretischer Beitrag auf diesem Gebiet und eine Erweiterung des bisher im Gesundheitswesen verwendeten ITEM-Modells.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49944-4_16 b546e8e9d4f914a0dae5641e9a9acd2b;de;;;7.1.;;;GeoCosm: Ein semantikbasierter Ansatz für die Informationsintegration von Geodaten Die Informationsintegration impliziert den Zugriff auf verteilte Informationsquellen, ohne die Autonomie der zugrunde liegenden Datenquellen zu beeinträchtigen. Die Integration verteilter Geodaten erfordert einen Mechanismus zum Auswählen der Datenquellen und zum effizienten Durchführen von Datenverarbeitungsvorgängen an den ausgewählten Quellen. Wir beschreiben einen semantikbasierten Informationsintegrationsansatz, der ein räumlich-zeitliches semantisches Modell verwendet, um den räumlichen Informationsgehalt der Quellen zu definieren, eine Konfliktlösungs-Ontologie verwendet, um semantische Heterogenität aufzulösen, und georäumliche Metadaten verwendet, um den Benutzern zu helfen, die Nützlichkeit des verfügbaren Datenquellen. Wir zeigen, wie die erfassten Metadaten für eine effiziente Abfrageplanung genutzt werden können. Basierend auf unserem vorgeschlagenen Ansatz entwickeln wir GeoCosm, einen webbasierten Prototyp, der helfen soll, autonom verteilte heterogene Geodaten zu integrieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-46140-X_13 6be5d8340e7116da9e2c5f6dca93306c;de;;;7.1.;;;Schritt zur Überwachung intelligenter Agenten in Gesundheitsinformationssystemen Eine Plattform zur Herstellung der Interoperabilität zwischen heterogenen Informationssystemen, die in einer Krankenhausumgebung implementiert sind, ist eher eine Anforderung als eine Option. Die Agentur für die Integration, Verbreitung und Archivierung medizinischer und klinischer Informationen (AIDA) ist eine Interoperabilitätsplattform, die speziell entwickelt wurde, um das Problem der Integration von Informationen aus mehreren Systemen und der Interoperabilität, Vertraulichkeit, Integrität und Datenverfügbarkeit anzugehen. Dieser Artikel konzentriert sich auf die Relevanz und Notwendigkeit einer solchen Wachsamkeit, um effektive neue Wege zu finden und zu entwerfen, um sie zu etablieren. Diese Studie gipfelte in der Schaffung von AIDAMonit, einer von Forschern des ALGORITMI Center entwickelten und getesteten Überwachungsplattform, die sich als vielversprechend erwiesen hat und für das reibungslose Funktionieren der Gesundheitseinrichtungen, die derzeit die AIDA-Plattform nutzen, äußerst vorteilhaft ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-45697-9_50 7d9b44fed1fe4ac7a35ace5898a05133;de;;;7.1.;;;Determinanten der Einführung von Lernmanagementsystemen in Nigeria: Ein hybrider SEM- und künstlicher neuronaler Netzansatz Untersuchungen haben gezeigt, dass Technologie, wenn sie umsichtig eingesetzt wird, das Potenzial hat, den Unterricht und das Lernen sowohl innerhalb als auch außerhalb des Klassenzimmers zu verbessern. Nur eine Handvoll afrikanischer Hochschulen haben Lernmanagementsysteme (LMS) vollständig implementiert, und in der Literatur fehlen Untersuchungen zu den Faktoren, die die Einführung von LMS fördern. Um diese Lücke zu schließen, untersucht die vorliegende Forschung die Faktoren, die zur Akzeptanz der LMS bei den Studierenden beitragen. Umfragedaten wurden von eingeschriebenen Studenten an vier nigerianischen Universitäten (;-;-;-;https://link.springer.com/article/10.1007/s10639-020-10110-w 37b950fc608ecaaf609b686ace859d55;de;;;7.1.;;;Ein datenschutzwahrendes Design-Framework in Bezug auf ein Umwelt-Scan-System zur Bekämpfung der organisierten Kriminalität Dieses Papier enthält vorläufige Empfehlungen zur Entwicklung eines Rahmens für das Design von Systemen zum Schutz der Privatsphäre im Zusammenhang mit dem EU-Projekt ePOOLICE, das darauf abzielt, ein Umwelt-Scansystem zur Bekämpfung der organisierten Kriminalität zu entwickeln, indem es Strafverfolgungsbehörden Möglichkeiten für eine strategische proaktive Planung als Reaktion auf das Aufkommen organisierter kriminelle Drohungen. Die Umgebungsscans werden an einer Vielzahl von Quellen durchgeführt, wobei der Schwerpunkt auf der Frühwarnung und der Offenlegung von Kriminalitätstrends liegt, nicht auf Einzelpersonen. Folglich sind personenbezogene Daten im Informationskontext von ePOOLICE nicht relevant, und daher verwendet das System keine sensiblen Informationen. Besondere Aufmerksamkeit wird dem umweltbezogenen Scanning von Datenströmen von Social-Networking-Sites gewidmet, basierend auf der Annahme, dass ethische und datenschutzrechtliche Aspekte in Bezug auf das Scannen von sozialen Medien ein erhebliches Herausforderungsszenario darstellen, das bei der Entwicklung eines datenschutzwahrenden Rahmens für ePOOLICE zu bewältigen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44208-1_19 18c24d8f667a19393ed4cd29864d52b1;de;;;7.1.;;;Studie zur Anwendung der Steuerplanung in Unternehmen Die Steuerplanung für Unternehmen ist eine Art von Finanzverwaltungsaktivitäten, um wirtschaftliche Zinsen durch die Anwendung der aktuellen Steuerpolitik zu erzielen, und sie kann sich positiv auf die Verbesserung des Unternehmensgewinns und der Wettbewerbsfähigkeit auswirken. In diesem Beitrag wird hauptsächlich die Methode der Steuern und Steuerplanung während der Gründungs-, Entwicklungs- und Reifezeit diskutiert, um sie durch den gesamten Lebenszyklus des Unternehmens zu ziehen. Es kann die echte Rolle der Steuerplanung spielen und die Gewinnmaximierung nach Steuern erfüllen, indem der zugehörige Steuerplanungsschlüssel an verschiedene Zyklusphasen angepasst wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24022-5_59 cd71319109d092bdec91deb14fef63f3;de;;;7.1.;;;Von lokal zu global: Europäische Unternehmenssoftwarestrategien in Asien ls Peripherie der Computerwelt ist Software zu einem zentralen Wachstumstreiber in einer expandierenden Weltwirtschaft geworden. Gekennzeichnet durch steigende Skalenerträge, Netzwerkexternalitäten und hohe Fixkosten, sind die First-Mover-Vorteile in der Softwarebranche besonders stark.;-;-;-;https://link.springer.com/chapter/10.1057/9780230107229_5 c2a875b9dce887efada75ba33820cd31;de;;;7.1.;;;Design, Implementierung und Evaluation eines Resource Management Multiagent Systems für ein Multimedia Processing Grid Dieses Whitepaper schlägt eine marktplatzbasierte Agentenarchitektur für Grid Resource Management vor, die auf Anwendungsebene funktioniert. Durch die Weiterleitung in FIPA als Agentensystem-Standard und Globus Toolkit als „de facto“ Middleware-Lösung für Grid-Computing erreichen wir die gewünschte Flexibilität und Modularität, um eine steckbare Agentenschicht für ein breiteres generisches Grid-Computing-Framework bereitzustellen. Die Agenten im System verwenden eine vor dem Systembetrieb erstellte Dienstprogrammtabelle als Informationsquelle zum Verbessern ihrer Verhandlungsfähigkeiten. Es ermöglicht ihnen, bei einem gegebenen Zustand der Ressourcen im Grid die vorhergesagte Leistung der möglichen Konfigurationen zu überprüfen und die am besten bewerteten Werte für einige Aufgabenausführungsparameter auszuwählen. Wir haben die Architektur mit JADE implementiert und Vorversuche zur Multimedia-Verarbeitung für die Konvertierung zwischen Videoformaten durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30470-8_36 29ba016580afcc9ae1c5912bc0a08d84;de;;;7.1.;;;Aufzeichnungs- und Codesysteme Kürzlich kehrte ein Hausarzt von einer zweimonatigen Landarztpraxis zurück und seine Einschätzung des Arztes und seiner Praxis lautete wie folgt: „Ich hatte die Gelegenheit, viele Patienten zu sehen, eine Vielzahl von Pathologien zu beobachten und viel Hausarztpraxis zu machen in einer Stadt nicht zu sehen, aber die Art und Weise, wie er sein Büro und sein Krankenaktensystem führte, war Chaos.“ Der Bewohner sagte im Grunde: „Die Praxis leitete den Arzt, und nicht der Arzt, der die Praxis leitete.“;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-3999-2_77 89eccbd6bbfbfd7954055812642a47b3;de;;;7.1.;;;Ein Toolset zur Abschätzung der Auswirkungen menschlicher Aktivitäten in der maritimen Raumplanung Der Meeresraum steht insgesamt unter zunehmendem Druck durch menschliche Aktivitäten. Traditionell bezogen sich die Aktivitäten in Ozeanen und Meeren auf die Fischerei und den Transport von Gütern und Personen. Heute leisten Offshore-Energieproduktion – Öl, Gas und Wind, Aquakultur und Tourismus auf See wichtige Beiträge zur Weltwirtschaft. Dies schafft Konkurrenz und Konflikte zwischen verschiedenen Nutzungen und erfordert eine übergreifende Regelung und Planung. Maritime Aktivitäten führen zu Belastungen der marinen Ökosysteme, und in vielen Gebieten sind schwerwiegende Auswirkungen zu beobachten. Die maritime Raumordnung wird als Instrument zur nachhaltigeren Bewirtschaftung der Meere und Ozeane angesehen, aber es werden Informationen und Instrumente benötigt. Das aktuelle Papier beschreibt ein Instrument zur Bewertung der kumulativen Auswirkungen maritimer Aktivitäten auf die marinen Ökosysteme, kombiniert mit einem Instrument zur Bewertung der Konflikte und Synergien zwischen diesen Aktivitäten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58811-3_38 aa6b71bb0a6df594e39f83b37b7fe274;de;;;7.1.;;;Ein Ansatz zum Wissensaustausch bei organisatorischen Veränderungen: Eine kritische Diskursanalyse Wissensmanagement in Organisationen hat in letzter Zeit aufgrund seines Potenzials zur Maximierung des Wettbewerbsvorteils durch den effektiveren Einsatz von Organisationswissen an Aufmerksamkeit gewonnen. Wie jedoch Wissen entsteht, gestört, geteilt, verloren und neu geschaffen wird;-;-;-;https://link.springer.com/chapter/10.1057/9780230524545_8 dd8d5531fa048006f8f179986b926b30;de;;;7.1.;;;MetaEdit – Eine flexible grafische Umgebung für die Methodenmodellierung Vorhandene CASE-Tools sind oft starr und unterstützen die nativen Methoden der Benutzer nicht. Um dies zu mildern, entstehen flexiblere und anpassbarere Tools, die als CASE-Shells bezeichnet werden. Die Anpassung dieser Tools ist jedoch immer noch mühsam und fehleranfällig und erfordert mehrere Konfigurationsdateien, die einer starren Syntax einiger Metamodellierungssprachen folgen. Um die Anpassung zu erleichtern, schlagen wir einen grafischen Metamodellierungseditor MetaEdit vor, mit dem die konzeptionellen Strukturen der Benutzermethodik einfach in einer leicht verständlichen grafischen Notation modelliert werden können. Mit MetaEdit können Methodenmodelle mit weniger Aufwand erstellt und die Konfigurationsdateien für die CASE-Shell (halb)automatisch erstellt werden. Das Werkzeug ist flexibel, d. h. seine Symbole und sein Metamodell sind benutzerdefinierbar. Folglich kann es als einfache CASE-Shell verwendet werden. MetaEdit basiert auf dem Datenmodell Object-Property-Role-Relationship (OPRR). Der Artikel stellt die Prinzipien vor, auf denen der Editor aufgebaut ist, beschreibt seine Funktionsweise und diskutiert seine Beziehungen zu anderen Forschungsarbeiten zur Metamodellierung.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-54059-8_85 f1b4ddd9ae6b4d7696beb1d2ef7aa717;de;;;7.1.;;;Forschung zum Praxislehrsystem der Produktionslogistik Systemdesign und Simulation Es ist sehr wichtig, die praktischen Fähigkeiten der Studenten in der Logistiktechnik zu schulen. Achten Sie in der traditionellen Praxislehre oft nur auf den Softwarebetrieb des Labors und vernachlässigen Sie die praktische Ausbildung, die sich mit den tatsächlichen Unternehmen verbindet, um den Unternehmen bei der Lösung ihrer praktischen Probleme zu helfen. Dies führt zu einer Trennung zwischen den Studierenden und der Realität, was die Studierenden daran hindert, die erlernte Theorie und Expertise anzuwenden. Um innovative Talente in der Logistik zu fördern, müssen die Studierenden mehr praktische Probleme integrieren, theoretisch und praktisch analysieren und lösen. In diesem Beitrag gestalten wir die Lehre der Logistiksystemplanung und Simulationspraxis im Studiengang Logistiksystemplanung und Simulation. Wir haben vorgeschlagen, das Produktionslogistiksystem in Kombination mit realen Fällen zu analysieren und zu entwerfen und das reale System zu simulieren. Durch das Falldesign kann es die Fähigkeit der Studenten verbessern, die praktischen Probleme in Kombination mit dem tatsächlichen Fall zu lösen. Dieses Design kann den Lehrenden den praktischen Fall des entsprechenden Studiengangs vermitteln und auch Hinweise geben, wie die praktische und innovative Fähigkeit von Studenten der Logistiktechnik verbessert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3250-4_67 312495c49d4e23ecd516e14a74776909;de;;;7.1.;;;Dynamische Navigationsmethode für mehrere Fahrzeuge für groß angelegte Evakuierungen von Menschenmengen In den letzten Jahren ist die Zahl der Kraftfahrzeuge im Land rasant gestiegen. Die Verkehrsnachfrage ist weiter gestiegen, während Landressourcen, Kapital und Energie immer angespannter geworden sind. Der Entwicklungstrend des städtischen Verkehrssystems ist nicht optimistisch. Gerade angesichts von Großveranstaltungen nahm die Evakuierung von Fahrzeugen plötzlich zu, was eine ernsthafte Planung für die Evakuierung einer ernsthaften Herausforderung darstellt. Eine angemessene und genaue Umsetzung des Notfallevakuierungsplans besteht darin, die Evakuierungszeit zumindest zu begrenzen, um den Schutz vor großen Verkehrsstaus zu minimieren. Unter anderem sind die Routenwahl und die Verkehrsflussverteilung die Kerninhalte des Notfallevakuierungsplans. In diesem Beitrag wird die Evakuierung von Verkehrsnotfällen bei wichtigen Aktivitäten als Forschungsgegenstand genommen und der Zustandsvektor jeder Straße wird gemäß dem Gedanken des Verknüpfungsanalysealgorithmus in das Navigationssystem eingeführt. Das Netzwerkmodell der Fluchtwegauswahl wird unter Verwendung der Theorie der räumlichen Vielfalt und der Theorie des minimalen Kosten-Maximum-Flusses erstellt und eine empirische Analyse des Straßennetzes durchgeführt. Auf der Grundlage der Forschung wird der Notfallevakuierungsplan für groß angelegte Aktivitäten vorgeschlagen und das Theorie- und Methodensystem der Notfallevakuierung bereichert, was bei der Formulierung vernünftigerer und effektiverer Verkehrsmanagementstrategien gemäß den Merkmalen der Notfallevakuierung helfen kann Wir bieten Entscheidungsgrundlagen für die Planung und das Management von Evakuierungstransporten in Städten. Es wird auch eine experimentelle Auswertung mit den realen Daten der Stadt Peking in Bezug auf Wirksamkeit und Wirksamkeit durchgeführt.;-;-;-;https://link.springer.com/article/10.1007/s10707-018-0320-y 3507c4a3db6718ab38cf1e462039b3ab;de;;;7.1.;;;Wertkombinationstechnik für die Bildauthentifizierung Für eine neuartige Bitmap-genaue Authentifizierung wird die Wertkombinationstechnik vorgeschlagen. Es kombiniert die Pixelwerte in einem Bildblock mit der Blockposition, und die kombinierten Werte werden als Anfangszustand des chaotischen Systems verwendet, um ein Wasserzeichen zu erzeugen. Darüber hinaus wird eine allgemeine Regel zur Analyse der Zuverlässigkeit von Algorithmen angegeben, und eine weitere Regel wird in diesem Beitrag vorgestellt, um einen Algorithmus mit hoher Zuverlässigkeit zu entwerfen. Dann veranschaulicht ein konkreter Algorithmus unser vorgeschlagenes Authentifizierungssystem. Ausgedehnte Experimente zeigen, dass dieses System effektiv gegen einen Merkmalsextraktionsangriff, Vektorquantisierungsangriff usw. widerstehen kann und sehr empfindlich gegenüber Manipulationen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77255-2_30 88f7de9f1f40fc3e9a49f74be8821383;de;;;7.1.;;;Kontrollierte Vokabulare in OODBs: Modellierungsprobleme und Implementierung Ein großes Problem, das in vielen großen Anwendungsbereichen auftritt, ist die Diskrepanz zwischen den Terminologien verschiedener Informationssysteme. Die von den Informationssystemen einer Organisation verwendeten Begriffe stimmen möglicherweise nicht mit den Begriffen einer anderen Organisation überein, selbst wenn sie sich in derselben Domäne befinden. Eine solche Situation behindert eindeutig die Kommunikation und den Informationsaustausch und verringert die Effizienz der Geschäftsabwicklung. Probleme dieser Art können mit einem kontrollierten Vokabular (CV) überwunden werden, einem System von Konzepten, das die Terminologien einer Domäne konsolidiert und vereinheitlicht. Lebensläufe sind jedoch groß und komplex und schwer zu verstehen. In diesem Beitrag wird eine Methodik zur Darstellung eines semantischen netzwerkbasierten CV als objektorientierte Datenbank (OODB) vorgestellt. Wir nennen eine solche Darstellung ein objektorientiertes Vokabular-Repository (OOVR). Die Methodik basiert auf einer strukturellen Analyse und Partitionierung des Quell-Lebenslaufs. Die Darstellung eines Lebenslaufs als OOVR bietet sowohl die für Datenbankmanagementsysteme typische Unterstützung als auch eine abstrakte Sicht, die das Verständnis für Aufbau und Inhalt des Lebenslaufs fördert. Nachdem wir die theoretischen Aspekte der Methodik besprochen haben, wenden wir sie auf die MED und InterMED an, zwei bestehende Lebensläufe aus dem medizinischen Bereich. Ein Programm, genannt OOVR Generator, zur automatischen Durchführung unserer Methodik wird beschrieben. Sowohl das MED-OOVR als auch das InterMED-OOVR wurden mit dem OOVR-Generator erstellt und existieren jeweils auf ONTOS, einem kommerziellen OODBMS. Der von InterMED abgeleitete OOVR ist derzeit im Web verfügbar.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008682210559 bf5f0a11641ee00d04e2178a872ed48e;de;;;7.1.;;;Verteilte Infrastruktur- und Anwendungsmodellierung: DIAMond Geschäftsprozesse werden häufig zu verteilten Prozessen. Dies liegt an der Entstehung globaler Märkte und globaler Fertigung, die durch verbesserte Kommunikation und Unterstützung durch ERP-Systeme ermöglicht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35385-2_8 529f474eb8c29647b1c02c5fda50901b;de;;;7.1.;;;Produktionssteuerung in der elektromechanischen Industrie Die heutige Situation in der elektromechanischen Industrie ist geprägt von einem tiefgreifenden Strukturwandel – sowohl in den Märkten als auch in den Produkten und in der Produktion. Wie auch in anderen Branchen ist die Zeit der ruhigen und geschützten Märkte vorbei. Viele Wettbewerber, insbesondere aus der „Triade“, wie Japan, USA und Westeuropa oft genannt werden, kämpfen um Marktanteile. Der Markt selbst wird immer kundenorientierter, das heißt die Produkte, ihre Funktionen, Qualität und Verfügbarkeit werden vom Markt und nicht mehr vom Hersteller bestimmt. Lieferzeit, Servicelevel und Qualität sind daher jetzt die wichtigsten Waffen in diesem Kampf. Da sie alle fertigungsrelevant sind, muss die Fertigungssteuerung zu ihrer Schärfung beitragen, insbesondere kann eine hohe Flexibilität und Reaktionsschnelligkeit durch die Fertigungssteuerung beeinflusst werden, die in dieser Situation vor allem gefordert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-73318-5_26 0fe1221fcd38c5313b62c126ebcd3f20;de;;;7.1.;;;Cyber-Situationsbewusstsein in Organisationen mit kritischen Infrastrukturen Die Fähigkeit zur Cybersicherheit spielt eine immer größere Rolle für die allgemeine nationale Sicherheit und die Sicherung der für die Gesellschaft lebenswichtigen Funktionen. Die nationale Cyber-Fähigkeit setzt sich hauptsächlich aus der Widerstandsfähigkeit von Unternehmen, die kritische Infrastrukturen betreiben, und ihrem Cyber-Situationsbewusstsein (CSA) zusammen. Nach allgemeiner Auffassung werden Komponenten kritischer Infrastrukturen komplexer und voneinander abhängiger, wodurch sich die Auswirkungen von Störfällen vervielfachen. In der Praxis beziehen sich die Maßnahmen auf die Entwicklung besserer CSA und das Verständnis einer Organisation kritischer Infrastrukturen. Ziel ist die gesamtgesellschaftliche Vorbereitung auf Vorfälle und deren Bewältigung. Das Arrangement basiert darauf, situationsspezifische Schlussfolgerungen richtig zu ziehen und bei Bedarf kritisches Wissen in den Cybernetzwerken der Gesellschaft zu teilen. Der Zielzustand wird mit einem effizienten Prozess erreicht, der ein dreistufiges (strategisches, operatives und technisch/taktisches) Betriebsmodell in Bezug auf die Entscheidungsfindung der Organisation umfasst. Die Cyber-Umgebung ist dynamisch und daher ist insbesondere die strategische Agilität bei der Vorbereitung auf Vorfälle gefragt. Die allgegenwärtigen Vorfälle, die auf die Gesellschaft abzielen, sind ein herausforderndes Cyber-Umfeld, wenn es um die kritische Reaktionsgeschwindigkeit des Situationsmanagements geht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-65722-2_10 505c1d2137a328c54dabd7343020cd6b;de;;;7.1.;;;Eine integrative Methode zur Entscheidungsfindung im EA-Management Durch Digitalisierung, stetigen technologischen Fortschritt und immer kürzer werdende Produktlebenszyklen stehen Unternehmen derzeit vor großen Herausforderungen. Um am Markt erfolgreich zu sein, müssen Geschäftsmodelle häufiger und schneller als früher an sich ändernde Marktbedingungen angepasst werden. Schnelle Anpassungsfähigkeit, auch Agilität genannt, ist in der heutigen Welt ein entscheidender Wettbewerbsfaktor. Aufgrund des stetig wachsenden IT-Anteils von Produkten und der Tatsache, dass diese mit IT hergestellt werden, hat die Änderung des Geschäftsmodells große Auswirkungen auf die Unternehmensarchitektur (EA). Die Entwicklung von EAs ist jedoch eine sehr komplexe Aufgabe, da viele Stakeholder mit widersprüchlichen Interessen in den Entscheidungsprozess eingebunden sind. Daher ist viel Zusammenarbeit erforderlich. Um Organisationen bei der Entwicklung ihres EA zu unterstützen, stellt dieser Artikel eine neuartige integrative Methode vor, die die Interessen von Stakeholdern systematisch in Entscheidungsaktivitäten einbezieht. Durch den Einsatz der Methode wird die Zusammenarbeit zwischen den beteiligten Akteuren verbessert, indem Berührungspunkte zwischen ihnen identifiziert werden. Darüber hinaus machen standardisierte Aktivitäten die Entscheidungsfindung transparenter und vergleichbarer, ohne die Kreativität einzuschränken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-49640-1_15 43509b4e0223696912e259f0c37c83ad;de;;;7.1.;;;DSS für kooperative Entscheidungsfindung Das Papier beschreibt ein DSS-System, das bei einer Reihe von Gruppenentscheidungsaufgaben nützlich sein sollte. Das System enthält mehrere unterschiedliche Subsysteme, die gemeinsame Datenstrukturen und Techniken verwenden, die auf der Graphentheorie basieren. Einige Anwendungen des Systems zur strategischen Planung für Informationssysteme werden beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-7029-8_13 525d8fd90d19d8e8f5e5fcf43dd4e37f;de;;;7.1.;;;Koordination in Organisationen „Koordination“ ist ein breites und buntes, aber kein gut definiertes Konzept, obwohl jeder eine Vorstellung von seiner Bedeutung hat. Koordinationsfragen spielten lange Zeit in vielen Wissenschaftsgebieten eine Rolle, etwa in den Wirtschaftswissenschaften, der Kybernetik (Mesarovic;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-3042-0_2 9253bc26e0f11b3d4264aeb39f142bdb;de;;;7.1.;;;Ein effizienter Wörterbuchmechanismus basierend auf Double-Byte Dictionary ist eine effiziente Verwaltung großer Mengen unterschiedlicher Zeichenfolgen im Speicher. Es hat erheblichen Einfluss auf den natürlichen Sprachprozess, die Informationsbeschaffung und andere Bereiche. In diesem Papier schlagen wir einen effizienten Wörterbuchmechanismus vor, der für Double-Byte-Codierungssprachen geeignet ist. Im Vergleich zu anderen fünf gängigen Wörterbuchmechanismen schneidet dieser Mechanismus am besten ab. Es verbessert die Suchleistung stark und reduziert die Komplexität des Aufbaus und der Pflege des Wörterbuchs. Es kann gut in großen und Echtzeit-Verarbeitungssystemen angewendet werden. Da Unicode ein typischer Doppelbyte-Code ist, der alle Arten von Zeichen auf der Welt darstellen kann, ist dieses Wörterbuch für mehrsprachige Wörterbücher geeignet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77094-7_53 0e985e1824758a4f095f3fdd1f0e35c9;de;;;7.1.;;;Die sensible Schnittstelle Eines der wichtigsten Probleme bei der Mensch-Computer-Interaktion besteht darin, die Kommunikation zwischen Benutzer und Computer zu maximieren. Wir behaupten, dass eine optimale Kommunikation erleichtert wird, wenn der Computer die Absichten des Computerbenutzers analysieren und darauf reagieren kann. Wir schlagen eine Philosophie für das Design von Computerschnittstellen vor, bei der der Computer die Absichten der Benutzer durch verbale und nonverbale Medien analysiert. In Bezug auf verbale Medien beschreiben wir ein Computerprogramm namens Operating System CONsultant (OSCON), das die Absichten von Benutzern aus dem Englischen im Bereich der Computerbetriebssysteme analysieren kann. In Bezug auf nonverbale Medien argumentieren wir, dass Computer die Absichten von Menschen besser analysieren können, wenn sie die Medien Mimik, Berührung und Ton erkennen. Einige Ergebnisse und Implikationen eines kürzlich durchgeführten Experiments zu kulturübergreifenden Emotionen in Gesichtern werden diskutiert. Wir beschreiben das IDIOMS-Projekt (Intelligent Decision-making In Online Management Systems), das eine Designphilosophie zur Erfassung der Konzepte und Absichten der Benutzer implementiert. Wir argumentieren, dass dieser Ansatz sicherstellen wird, dass die Computer ihre Benutzer besser verstehen und dies zu einer sensibleren Mensch-Computer-Schnittstelle führen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-1716-3_8 c198fd0a8d4990b1f9e8c6619bcb14f1;de;;;7.1.;;;Quantitative Modelle kollaborativer Netzwerke Der Beitrag befasst sich mit Fragen der mathematischen Modellierung kollaborativer Netzwerke (CN), die durch Komplexität und Unsicherheit von CN aufgrund von Interaktionen aktiver Elemente (Unternehmen), hoher Dynamik sowie externen und internen Störungen verursacht werden. Dieses Papier stellt einen integrierten Ansatz für die CN-Komplexmodellierung vor und veranschaulicht ihn am Beispiel des Produktionsnetzwerkdesigns und der Steuerung. Das Ziel dieser Forschung ist es, generische Modellkonstruktionen für das Design und die Kontrolle von CN zu entwickeln und zur Weiterentwicklung der theoretischen Grundlagen von CN beizutragen.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-29360-4_41 fbecc9b2365934c04ef90a19bfd9cd09;de;;;7.1.;;;Risikowarntechnologien und Notfallreaktionsmechanismen in Sichuan – Bau der Tibet-Eisenbahn Sicherheit ist eines der kritischsten Themen bei jedem großen Eisenbahnbauprojekt. In Anerkennung der Bedeutung der Sicherheit in der Eisenbahntechnik haben Praktiker und Forscher verschiedene Standards und Verfahren vorgeschlagen, um die Sicherheit bei Bauaktivitäten zu gewährleisten. In dieser Studie untersuchen wir zunächst vier kritische Forschungsbereiche von Risikowarntechnologien und Notfallreaktionsmechanismen im Eisenbahnbau, nämlich (i) Methoden zur Risikoidentifizierung von großen Eisenbahnbauprojekten, (ii) Risikomanagement von großen Eisenbahnbau , (iii) Notfallplanung und -management und (iv) Notfallreaktions- und Rettungsmechanismen. Nach Durchsicht der vorliegenden Studien präsentieren wir vier entsprechende Forschungsbereiche und Empfehlungen zum Bau der Sichuan-Tibet-Eisenbahn. Diese Studie zielt darauf ab, neue signifikante theoretische Elemente in den Entscheidungsfindungsprozess und den Bau dieses Eisenbahnprojekts in China einzubringen.;-;-;-;https://link.springer.com/article/10.1007/s42524-021-0151-7 c94b6a3030105149793ea0f1731a2b99;de;;;7.1.;;;Die sensible Schnittstelle Eines der wichtigsten Probleme bei der Mensch-Computer-Interaktion besteht darin, die Kommunikation zwischen Benutzer und Computer zu maximieren. Wir behaupten, dass eine optimale Kommunikation erleichtert wird, wenn der Computer die Absichten des Computerbenutzers analysieren und darauf reagieren kann. Wir schlagen eine Philosophie für das Design von Computerschnittstellen vor, bei der der Computer die Absichten der Benutzer durch verbale und nonverbale Medien analysiert. In Bezug auf verbale Medien beschreiben wir ein Computerprogramm namens Operating System CONsultant (OSCON), das die Absichten von Benutzern aus dem Englischen im Bereich der Computerbetriebssysteme analysieren kann. In Bezug auf nonverbale Medien argumentieren wir, dass Computer die Absichten von Menschen besser analysieren können, wenn sie die Medien Mimik, Berührung und Ton erkennen. Einige Ergebnisse und Implikationen eines kürzlich durchgeführten Experiments zu kulturübergreifenden Emotionen in Gesichtern werden diskutiert. Wir beschreiben das IDIOMS-Projekt (Intelligente Entscheidungsfindung in Online-Managementsystemen), das eine Designphilosophie zur Erfassung der Konzepte und Absichten von Benutzern implementiert. Wir argumentieren, dass dieser Ansatz sicherstellen wird, dass die Computer ihre Benutzer besser verstehen und dies zu einer sensibleren Mensch-Computer-Schnittstelle führen wird.;-;-;-;https://link.springer.com/article/10.1007/BF00127683 aef5f27b1d357fdbb059d9fe83e3b576;de;;;7.1.;;;Die Verwaltung und Anwendungen von Teleaktionsobjekten Teleaction Objects (TAOs) besitzen für die Objektinstanzen spezifisches privates Wissen. Der Benutzer kann das private Wissen eines TAO erstellen und ändern, sodass es automatisch auf bestimmte Ereignisse reagiert, um Operationen vorab durchzuführen, um zeitnahe Antworten zu generieren, die betriebliche Effizienz zu verbessern und die Konsistenz zu wahren. Darüber hinaus verfügen TAOs auch über eine Hypergraph-Struktur, die zu einer effektiven Präsentation und effizienten Kommunikation von Multimedia-Informationen führt. Das Active Multimedia System (AMS) dient der Verwaltung der TAOs. Im AMS verfügt jedes TAO über sein eigenes privates Wissen, das durch die aktiven Indexzellen realisiert wird. Die Anwendungen für Smart Multimedia Mail und Multimedia Information Retrieval werden beschrieben, um die Nützlichkeit von TAOs zu veranschaulichen. Wir diskutieren die Vorteile des vorgeschlagenen Ansatzes und die zukünftige Forschung.;-;-;-;https://link.springer.com/article/10.1007/BF01832137 bcea34f04262d6ded1c53cd08b13a020;de;;;7.1.;;;ASTERIX und 2.0 Wissensmanagement Wissensmanagementsysteme (KMS) in Unternehmen haben sich in den letzten Jahren tiefgreifend verändert. Sie sind zu KMS 2.0 geworden, die darauf abzielen, das Unternehmen zu transformieren und von einer neuen Beziehung zum Wissen im Einklang mit 2.0-Organisationen angetrieben werden. Diese 2.0 KMS haben Organisationsformen implementiert, die diejenigen stören, die zuvor die Leistung der Unternehmen geleitet haben. Dies kann manchmal zu paradoxen organisatorischen Dysfunktionen führen, wie die Schwierigkeiten einiger traditionell hierarchischer französischer Unternehmen zeigen. Durch eine Fallstudie von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45708-5_12 19fb541c3248bda534e82d79e022b825;de;;;7.1.;;;Integration von Wissensmanagement und kollaborativem Lernen durch technisch unterstützte Kommunikationsprozesse Die Entwicklung technischer Systeme zur Unterstützung des Lernens in Schulen und Hochschulen (CSCL-Systeme) oder in Unternehmen (Wissensmanagement-Systeme) erfolgt bisher weitgehend parallel und ohne oder mit geringem gegenseitigem Erfahrungsaustausch. Der hier vorgestellte Ansatz zielt darauf ab, die Stärken beider Entwicklungslinien zu vereinen, damit beide Vorteile aus dem jeweils anderen Nutzen Vorteile für jede Entwicklung erzielen. Detailliertes Requirements Engineering wird zu drei Forschungsfeldern vorgestellt: Kommunikationstheorie, Lernprozesse und eine Studie in Unternehmen. Die gesammelten Anforderungen führten zu einem ausgeklügelten Annotationskonzept, bei dem Annotationen als kommunikative Beiträge dienen und (segmentiertes) Material als Kontext verwendet wird. Die Kombination und Unterscheidung zwischen kommunikativen Beiträgen und dem Material selbst ist ein geeigneter Ansatz, um die Vorteile von CSCL-Systemen (Kommunikationsunterstützung) und Wissensmanagementsystemen (Unterstützung der Inhaltsspeicherung) zu integrieren. Diese Anforderungen sind in einem Softwaresystem, KOLUMBUS, zusammengefasst und mit seinen wesentlichen Merkmalen dargestellt. Um Erfahrungen mit KOLUMBUS zu sammeln und weitere Verbesserungspotenziale aufzuzeigen, wurden zwei Fallstudien durchgeführt. Die wesentlichen Ergebnisse, Vorteile und weiteren Potenziale, die sich aus diesen beiden Fallstudien ergeben, werden in diesem Beitrag beschrieben. Der Beitrag schließt mit Gestaltungsempfehlungen für ähnliche technische Systeme sowie organisatorischen Hinweisen für CSCL-Gruppen (in Schulen oder Universitäten sowie in Unternehmen).;-;-;-;https://link.springer.com/article/10.1007/s11134-006-7364-7 ed3983e99cb4989a671a9f283813ff44;de;;;7.1.;;;Marketingdaten verstehen: Einige MIS-Perspektiven zur Analyse großer Datensätze Trotz der wachsenden Größe und Komplexität von Unternehmensdaten hat die Technologie zu deren Analyse nicht mit den Fortschritten in der Datenerfassung Schritt gehalten, da Manager sich bei der Erstellung der benötigten Analysen und Berichte meist auf Experten für Marktforschung und Informationssysteme verlassen müssen . Wir besprechen hier einige nützliche Ansätze aus den Bereichen Informatik und Wirtschaftsinformatik zur Analyse großer Datensätze, z. eine gute Datenorganisation und den Einsatz flexibler Analysetools, um die Analyse übersichtlicher und benutzerfreundlicher zu gestalten. Diese Methoden werden zunehmend von Praktikern übernommen, die Schwierigkeiten haben, Business Intelligence aus großen Unternehmensdatenbanken zu generieren. Die Vorteile dieser Ansätze sind jedoch möglicherweise nicht nur auf Praktiker beschränkt, sondern können auch für akademische Forscher gelten, die mit großen Datensätzen arbeiten.;-;-;-;https://link.springer.com/article/10.1023/A%3A1009746706930 6b4819732d05fa93eef5f871a4c526dd;de;;;7.1.;;;Emergent Case Management für Ad-hoc-Prozesse: Eine Lösung basierend auf Microblogging und Activity Streams Neuere Forschungen haben die Notwendigkeit gezeigt, unstrukturierte Ad-hoc-Prozesse in das Geschäftsprozessmanagement einzubeziehen. Eine mögliche Lösung hierfür ist das Case Management, bei dem Informationen zu einer bestimmten Prozessinstanz in einer Fallakte gebündelt werden. Zusätzlich zu den bestehenden Top-Down-Ansätzen schlägt dieses Papier eine Bottom-Up-Sicht auf das Fallmanagement vor, die die neu entstehende benutzergesteuerte Fallbearbeitung nutzt. Wir leiten theoretisch die Eigenschaften eines solchen Systems ab und demonstrieren den Ansatz basierend auf einem Toolset aktueller Social Software Techniken wie Microblogging, Activity Streams und Tagging.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20511-8_36 d229b2f2206d23594cc0b3499d36b1b1;de;;;7.1.;;;Produktionskontrolle in kleinen Unternehmen Die flexible Automatisierung von Fertigungssystemen zeichnet sich durch die Computerintegration in Teilsysteme wie Verarbeitung, Transport, Lagerung, Handhabung und Steuerung aus. Die Struktur der Produktion wird durch die Zusammenstellung von Spezifikationen beeinflusst, die durch die Vielfalt der Werkstücke, Aufträge und Betriebsstoffe repräsentiert werden. Jeder hat einen anderen Einfluss auf die Ausführung unterschiedlicher Aufgaben in der Produktionssteuerung. Konventionell aufgabenorientierte modulare Programmsysteme zur Produktionssteuerung berücksichtigen stochastische Einflüsse und menschliches Verhalten nur unzureichend, so dass bei Kleinserien bis hin zu Losgröße Eins das Ziel entsprechender Planungs- und Produktionsabläufe nicht erreicht werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-73318-5_22 fa85c8fd772e3f5ba7a90c1f5573f2d0;de;;;7.1.;;;Tourismus-Züchtungsumfeld: Formen und Ebenen der Zusammenarbeit im Tourismussektor Der Tourismus, einer der größten Wirtschaftszweige der Welt, hat in den letzten Jahren starke Innovationen erfahren. Die wichtigsten Veränderungen sind auf die Verfügbarkeit neuer Informations- und Kommunikationstechnologien zurückzuführen, die Touristen direkt untereinander und mit Dienstleistern verbinden, sowie auf das immer personalisiertere Angebot an touristischen Erlebnissen. Eine solche Entwicklung kann ein Entwicklungsmotor für lokale Gemeinschaften sein, wenn sie in der Lage sind, das territoriale Tourismusangebot nach anderen Mustern der Zusammenarbeit neu zu organisieren. In diesem Papier schlagen wir ein Organisationsmodell für eine Tourismus-Züchtungsumgebung, TBE, vor, deren Mitglieder Tourismusunternehmen einer Region mit touristischer Berufung sind. Nachdem wir diskutiert haben, welche Formen kollaborativer vernetzter Organisationen aus der TBE hervorgehen können, präsentieren wir eine Klassifizierung der verschiedenen Ebenen der Zusammenarbeit, die sich in diesen Formen herausbilden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40543-3_55 248c6bf2216d02b53ecc53e1c7713a00;de;;;7.1.;;;Verbesserung der Kompetenzen im Geschäftsprozessmanagement durch Anwendung von Gamification-Aspekten in der Lehre von Bachelorstudierenden Motivation kann als einer der wichtigsten Treiber für das Lernen genannt werden. Neben der Motivation gibt es auch Erfahrung, Engagement und Aktivität, die das Know-how zu bestimmten Themen verbessern und den Wissenstransfer beschleunigen können. Gerade in der praktischen Ausbildung werden zunächst die theoretischen Konzepte vorgestellt und danach ist es wichtig, den Studierenden einen Rahmen zu bieten, in dem sie aus eigenen Erfahrungen lernen und ihr eigenes Know-how aufbauen. Dies geschieht durch die Konzeption und Durchführung der Simulation im Rahmen der Vorlesung Geschäftsprozessmanagement unter Berücksichtigung von Gamification-Aspekten. Dieser Beitrag zeigt den positiven Einfluss von Gamification-Aspekten anhand einer Studie (N = 44) in einem Bachelorstudiengang Business Process Management.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-95522-3_2 081dbc0f6d1ab01e24566e383bb35eef;de;;;7.1.;;;Auf dem Weg zu einer einheitlichen und konfigurierbaren Struktur für EA-Management-KPIs Die Disziplin Enterprise Architecture (EA) Management zielt darauf ab, Business und IT aufeinander abzustimmen, die Kommunikation zu fördern und die dauerhafte Transformation der Organisation zu unterstützen. Dabei werden EA-Managementinitiativen von entsprechenden EA-Managementzielen angetrieben, deren Erreichungsgrad messbar sein muss. Dies erfordert die Definition entsprechender Key Performance Indicators (KPIs), die es Unternehmensarchitekten ermöglichen, die Zielerfüllung zu planen, vorherzusagen, zu vergleichen und zu bewerten. Wie die aktuelle Fachliteratur zeigt, gibt es nur wenige KPIs, die sich der Validierung der Zielerreichung des EA-Managements widmen. Darüber hinaus sind bestehende Indikatoren unterschiedlich strukturiert, selektiv in Bezug auf die spezifischen EA-Managementziele, zu allgemein und vage in Bezug auf die erforderlichen Daten und bieten keine Übernahmetechniken für den Unternehmenskontext. In diesem Papier stellen wir eine Struktur vor, die eine einheitliche und konfigurierbare Beschreibung von EA-Management-KPIs ermöglicht. Während das Artefakt die Konsistenz zwischen den dokumentierten KPIs sicherstellt, bietet es außerdem eine Orientierungshilfe bei ihrer Einführung und organisationsspezifischen Anpassung. Wie erste Evaluierungsergebnisse belegen, halten die Experten der EA-Managementdomäne das Artefakt insgesamt für hilfreich und anwendbar und bestätigen gleichzeitig die Relevanz seiner Bestandteile.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34163-2_17 154fbe88e9c66057554154db07c07b9e;de;;;7.1.;;;Wachsendes Nervengas – ein paralleler Ansatz Der Beitrag befasst sich mit dem Problem der hochdimensionalen Datenclusterbildung. Eine Möglichkeit, diese Art von Daten zu clustern, basiert auf künstlichen neuronalen Netzen (ANN) wie SOM oder Growing Neural Gas (GNG). Die Lernphase des KNN, die insbesondere bei großen hochdimensionalen Datensätzen zeitaufwendig ist, ist der Hauptnachteil dieses Ansatzes zum Datenclustering. Die parallele Modifikation, Growing Neural Gas, und ihre Implementierung auf dem HPC-Cluster werden in dem Papier vorgestellt. Außerdem werden einige experimentelle Ergebnisse präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40925-7_38 de3369edd69bc51d5740c9adc9da3164;de;;;7.1.;;;Unterstützung der interaktiven Konfiguration und Planung: ein einschränkender und evolutionärer Ansatz Diese Mitteilung zielt darauf ab, ein zweistufiges interaktives Hilfssystem vorzuschlagen, das sich mit der Produktkonfiguration und der Produktionsplanung befasst. Der erste Schritt unterstützt interaktiv und gleichzeitig die Konfiguration eines Produktes und die Planung seines Produktionsprozesses. In einem zweiten Schritt werden dann die beiden vorherigen Aufgaben dank einer eingeschränkten Multikriteriumsoptimierung abgeschlossen, die dem Benutzer eine Reihe von Lösungen vorschlägt, die zu einer Pareto-Front gehören, die Kosten und Zykluszeit minimiert. Der erste Abschnitt des Papiers stellt das Problem vor. Die zweite schlägt eine Lösung für den ersten Schritt vor, die auf Einschränkungsfilterung sowohl für die Konfiguration als auch für die Planung beruht. Die folgenden schlagen einen evolutionären Optimierungsprozess und erste Berechnungsergebnisse vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16239-8_32 e8314659d5725b7a6d5e1de9926f1e67;de;;;7.1.;;;Virtual Enterprise Process Management: Eine Anwendung für die industrielle Instandhaltung Der Beitrag befasst sich zunächst mit den relevanten Konzepten zum virtuellen Unternehmensbetrieb sowie zu industriellen Instandhaltungsprozessen. Anschließend wird eine virtuelle Enterprise Enabling Platform vorgestellt. Die Architektur der Plattform und ihre Hauptmodule werden kurz vorgestellt. Innerhalb dieser Plattform wird eine Smart-Objekt-Erweiterung hervorgehoben. Dieses intelligente Objekt wird verwendet, um Daten von Remote-Geräten zu sammeln und über ein Gateway an die Virtual Enterprise Management Platform (VEMP) weiterzugeben. Die vom Smart Object gesammelten Daten werden mit den Business-Intelligence-Tools der Plattform aggregiert und überwacht, was die Umsetzung von Wartungsstrategien und steigenden Fehlerbedingungen ermöglicht, die einen Reparaturgeschäftsprozess auslösen. Im letzten Teil des Papiers wird ein Business Case für ein weltweit tätiges KMU diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44745-1_7 053a4319dc36d9ece89efde88f25fe11;de;;;7.1.;;;Aktive Wissensmodelle und Enterprise Knowledge Management In diesem Beitrag stellen wir einen neuartigen Ansatz zur Integration von Unternehmensmodellierung und Wissensmanagement in dynamisch vernetzten Organisationen vor. Der Ansatz basiert auf dem Konzept der aktiven Wissensmodelle (AKM;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35621-1_10 1412d2cc136a356d9bc977410b21170c;de;;;7.1.;;;Hybrid User Clustering-basiertes Reiseplanungssystem für personalisierte Point-of-Interest-Empfehlungen In jüngster Zeit ist die riesige Menge an benutzergenerierten Daten, die aus dem Internet erfasst wurden, die Hauptquelle für den Empfehlungserzeugungsprozess bei verschiedenen Echtzeit-Personalisierungsproblemen. Unter verschiedenen Typen von Empfehlungssystemen haben sich Ansätze auf der Grundlage von kollaborativer Filterung als effektiver erwiesen, um bessere Empfehlungen zu generieren. Die Empfehlungsmodelle, die auf diesem kollaborativen Filteransatz basieren, werden verwendet, um Elemente vorherzusagen, die dem Interesse eines aktiven Zielbenutzers sehr ähnlich sind. Daher wird ein neues hybrides Reiseempfehlungssystem (HUCTRS) auf Benutzerclustering-Basis vorgeschlagen, das mehrere Schwarmintelligenzalgorithmen für ein besseres Clustering integriert. Das vorgeschlagene HUCTRS wird experimentell an den groß angelegten Datensätzen bewertet, um seine Leistungseffizienz zu demonstrieren. Die erzielten Ergebnisse belegen auch das Potenzial der vorgeschlagenen HUCTRS gegenüber herkömmlichen Ansätzen durch eine verbesserte Benutzerzufriedenheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9953-8_27 6fda162aef08bb76c5c9d76db78b8ae3;de;;;7.1.;;;Schemaentwicklung in objekt- und prozessbewussten Informationssystemen: Probleme und Herausforderungen Die Ermöglichung von Prozessflexibilität ist für jedes prozessbewusste Informationssystem (PAIS) von entscheidender Bedeutung. Insbesondere müssen implementierte Prozesse möglicherweise häufig angepasst werden, um sich an sich ändernde Umgebungen und sich entwickelnde Bedürfnisse anzupassen. Bei der Entwicklung eines PAIS müssen entsprechende Prozessschemata kontrolliert verändert werden. Im Kontext objektbewusster Prozesse, die sich durch eine enge Integration von Prozessen und Daten auszeichnen, erfordert die PAIS-Evolution nicht nur die Evolution von Prozessschemata, sondern auch die Evolution von Daten- und Benutzerberechtigungsschemata. Da die verschiedenen Schemata eines objektbewussten PAIS eng integriert sind, erfordert die Änderung eines von ihnen in der Regel gleichzeitige Änderungen der anderen Schemata. Dieses Papier stellt einen Rahmen für die objektbewusste Prozessunterstützung vor und diskutiert die wichtigsten Anforderungen und Herausforderungen, um die Schemaentwicklung in objektbewusstem PAIS zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36285-9_37 1c3862c4840de7cf736f096cb4194901;de;;;7.1.;;;Geschäftsprozessmanagement für die MES-Bereitstellung: Einige Lehren aus der Erfahrung eines Wälzlagerherstellers Die physischen Produktions- und Informationssysteme von Industrieunternehmen müssen im Kontext des digitalen Übergangs von der automatisierten Industrie aus den 70er Jahren zur Industrie 4.0 angepasst werden. Das Informationssystem muss nämlich durch den Einsatz neuer Softwarelösungen wie dem Manufacturing Execution System (MES) ergänzt werden. Die Kontrolle dieses MES-Einsatzes ist ein kritischer Punkt, an dem Strukturierungsrahmen wie das Business Process Management (BPM) eine Lösung sein können. Tatsächlich ermöglicht das BPM den Managern, mit den Unternehmensveränderungen umzugehen und sie dank eines iterativen zyklischen Ansatzes zu kontrollieren. Darüber hinaus haben die jüngsten Entwicklungen, die Agilität in BPM eingeführt haben, es ermöglicht, einem hohen Maß an Unsicherheit Rechnung zu tragen und die Zusammenarbeit im Team zu fördern. Ausgehend von dieser Idee untersucht dieser Artikel diese Methode in einem industriellen Kontext, der von einem Luftfahrtlager-Zulieferunternehmen gegeben wird. Dieses Unternehmen setzt eine MES-Lösung für eine neue Hightech-Fertigungsanlage ein. Nach einem ersten informellen MES-Einsatz für eine Pilotanlage möchte das Unternehmen dieses MES systematisch in allen anderen Werken einsetzen. Ausgehend von einigen Beobachtungen, die während der laufenden MES-Implementierung gemacht wurden, schlägt dieses Papier vor, BPM als Mittel zu untersuchen, um Manager und Key-User bei der Optimierung des vorhandenen Wissens und der Verbesserung der aktuellen Praxis für seine weitere Wiederverwendung zu unterstützen. Anschließend werden einige Empfehlungen aus dieser Erfahrung gegeben, um Unternehmen zu helfen, die an einer solchen MES-Implementierung beteiligt sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-57993-7_49 ec4a11a4e90e5f53f274723643a7daab;de;;;7.1.;;;Semantisch unterstützte serviceorientierte Architektur: Konzepte, Technologie und Anwendung Semantisch aktivierte serviceorientierte Architektur, die auf Prinzipien der Serviceorientierung, semantischen Modellierung, intelligenten und automatisierten Integration ausgerichtet ist, definiert die Grundlage für eine Spitzentechnologie, die neue Wege zur Integration von Diensten ermöglicht, die sich besser an Änderungen der Geschäftsanforderungen während der Lebensdauer von Systemen anpassen . Wir definieren die Architektur ausgehend von einer globalen Perspektive und durch die Ontologie der Web-Service-Modellierung als semantisches Service-Modell beschränken wir uns auf ihre Dienste, Prozesse und Technologien, die wir für die Referenzimplementierung verwenden. An einem B2B-Integrationsszenario demonstrieren wir mehrere Aspekte der Architektur und beschreiben weiter die Bewertung der Implementierung gemäß einer von der Community vereinbarten Standardbewertungsmethodik für semantikbasierte Systeme.;-;-;-;https://link.springer.com/article/10.1007/s11761-007-0009-9 b4d8a50293415dedc3526cccd19c97f3;de;;;7.1.;;;Medizinische Datenbanken — Konzeptionelle und technische Aspekte In den letzten zehn Jahren wurde viel konzeptionelle und technische Arbeit geleistet, um die Verwaltung strukturierter medizinischer und medizinisch-administrativer Informationen durch Computersysteme zu unterstützen, was zu einer großen Anzahl von Datenbank- und Krankenaktenanwendungen führte. Dieses Papier konzentriert sich hauptsächlich auf einige wenige Hauptaspekte und umfasst hauptsächlich a;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-93169-7_7 bb85919626e5d8e079d29be8bd07388c;de;;;7.1.;;;Ein Algorithmus zur Formerstellung Unter der Annahme, dass Design ein hypothetischer Test des Bauens ist, stellt dieser Beitrag eine Methode vor, architektonisches Wissen durch direkte Manipulation geometrischer Objekte zu nutzen. Dieses Papier schlägt einen Rahmen vor, um nicht nur das Modellierte abzurufen und zu analysieren, sondern auch, wie es gestaltet ist;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0868-6_34 7979952d5300a5f5ac26b02560249020;de;;;7.1.;;;Ein rechtlicher Rahmen für Die Transformation unserer Gesellschaft in eine Netzwerkgesellschaft schreitet in einem erschreckenden Tempo voran. In diesem Zusammenhang hört man oft den Begriff Rechtsrahmen, aber es werden nur wenige Details zu diesem Rahmen veröffentlicht. Wie dieser Rahmen ist oder sein sollte, wurde im Allgemeinen nicht ausreichend diskutiert. Wenn wir uns damit begnügen, zuzusehen, wie sie von auf unterschiedlichen Grundlagen formulierten Richtlinien und ihrer ebenso unterschiedlichen Umsetzung geleitet wird, besteht die ernsthafte Gefahr, dass die Rechtsordnung zersplittert. Ein klarer Bezugsrahmen kann leicht zu einem Chaos werden, das unsere Grundrechte bedroht. Ausgangspunkt dieses Beitrags ist die Bewertung von E-Government als Komplex von Informationsprozessen. Diese werden im Lichte der Anforderungen des modernen Rechtsstaates bewertet. Ziel ist es, das Verhältnis zwischen den Anforderungen an Good Government und der neuen digitalen Betriebsumgebung zu ermitteln. Eine solche Analyse ist selten, obwohl verschiedene Länder aufgrund der Fortschritte in der Informationstechnologie elektronische Dienste in der Regierung entwickeln wollten.;-;-;-;https://link.springer.com/chapter/10.1007/10929179_69 277dfb9c6647f6a9fb5f01d7970b2f86;de;;;7.1.;;;Ein generischer Rahmen für die Simulation von Liefernetzwerken mit Verhandlungspartnern In diesem Beitrag stellen wir die Hauptaspekte des Problems der Simulation einer Lieferkette mit einem agentenbasierten System vor. Es wird betont, dass der Unterschied zu anderen Simulationsmodellen darin besteht, dass das Hauptkonzept der Simulationsumgebung die;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35698-3_23 b40f3f4a08909715202e540f517845a4;de;;;7.1.;;;IMM-I46: Inter Mobility Management für ein integriertes IPv4- und IPv6-Netzwerk Mobilität ist heutzutage allgegenwärtig. Mobilitätsmanagement ist ein wachsendes Problem bei IPv6 mit zahlreichen Problemen, die durch das Roaming zwischen IPv6- und IPv4-Zugangsnetzen aufgrund ständig wachsender Forschung entstehen. Die verschiedenen Architekturen bezüglich Übergang / Mobilität zwischen IPv6 und IPv4 werden untersucht. Die Studie zeigt, dass nur IPv6-initiierte Kommunikationen (von IPv6-basierten Netzwerken) mit IPv4-Knoten (in IPv4-basierten Netzwerken) berücksichtigt werden. Die bestehenden Architekturen in der Studie berücksichtigen nicht die Szenarien wie IPv6-Knoten, die das IPv4-Netzwerk besuchen, IPv4-Knoten, die das IPv6-Netzwerk besuchen, IPv4-initiierte Kommunikation mit anderen Knoten unabhängig von der IP-Version des Netzwerks. Das neu vorgeschlagene Mobilitätsmanagementsystem für die integrierten IPv4- und IPv6-Netze wird als IMM-I46 bezeichnet und bietet eine sofort implementierbare Detaillösung. Das vorgeschlagene IMM-I46-System hilft IPv6-Mobilbenutzern, neben dem Roaming in IPv6-Netzwerken auch in IPv4-basierten Netzwerken frei zu roamen, gewartet zu werden, mit dem Internet verbunden zu werden und umgekehrt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12214-9_4 5f189fdbb5fba44a58061249eaf6436e;de;;;7.1.;;;Wenn E-Business zu K-Business wird…‥wird es „ein natürlicher Akt“ sein? Dieses Papier schlägt vor, dass die nächste Welle des elektronischen Geschäftsverkehrs (E-Business) vom derzeitigen transaktionsbasierten E-Business zur Verschmelzung von E-Business und Wissensmanagement übergehen wird und dass Organisationen, die bereits intern Wissensmanagement (WM) eingeführt haben, finden werden Der Übergang zu dieser nächsten Welle des E-Business ist ein natürlicher und nachhaltiger Akt. Der erste Teil des Papiers untersucht aktuelle Trends und Prognosen in Bezug auf E-Business und WM und kommt zu dem Schluss, dass sich Organisationen in Richtung einer stärker vernetzten Wirtschaft bewegen, in der Partnerschaften, Zusammenarbeit und Wissensaustausch das aktuelle transaktionale E-Business ergänzen, und dass erfolgreiche WM eine Balance zwischen technologischen und organisatorischen Veränderungsinterventionen. Der zweite Teil des Papiers untersucht die Probleme im Zusammenhang mit der Etablierung einer Kultur des Wissensaustauschs in Vorbereitung auf die nächste vorgeschlagene Entwicklung des E-Business, indem die Zwischenergebnisse einer aktuellen Studie zur Einführung von KM-Praktiken durch Mitarbeiter eines globalen IT-Dienstleistungsunternehmens vorgestellt werden . Durch die Instanziierung verschiedener Annahmemodelle untersuchte die Studie den Zeitpunkt der Annahme und mögliche Faktoren, die die Annahme von 2 KM-Anwendungen durch 283 Umfrageteilnehmer beeinflussten. Die Ergebnisse dieser Forschung werden im Lichte der vorgeschlagenen nächsten Welle des E-Business interpretiert und bieten zusätzliche Überlegungen und Maßnahmen, die Organisationen ergreifen können, um erfolgreich an der Entwicklung des E-Business in einer stärker auf Wissensaustausch basierenden vernetzten Wirtschaft teilzunehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35692-1_28 f8b1ac4c999a5e923ab5409c877552fc;de;;;7.1.;;;ISD und Innovation durch die Linse der Fragmentierung verstehen Die Entwicklung von Informationssystemen (ISD) und Innovation ist ein komplexes und herausforderndes Unterfangen. In diesem Papier untersuchen wir den Prozess von ISD und Innovation, um die Mehrdeutigkeit solcher Prozesse zu beleuchten. Dies wurde in einer interpretativen Studie von 10 staatlichen ISD-Projekten durchgeführt, bei der 14 Interviews mit Schlüsselpersonen durchgeführt wurden. Zusätzlich wurden 11 Interviews mit Senior IT Consultants geführt. Basierend auf dieser Studie schlagen wir eine analytische Linse vor, um ISD und Innovation zu verstehen. Diese Linse basiert auf einer im empirischen Material begründeten Metapher. Diese Metapher,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38862-0_29 1c4b2bcf0e0ef188777358bb329cf0d7;de;;;7.1.;;;Eine Anwendung von Verkehrsmessungen auf die Routenplanung für die Verkehrsflusssimulation in MATSim Der Beitrag stellt den MATSim Junction Turning Ratios Route Planner (JTRRouter) vor, der es ermöglicht, Routenpläne für Fahrzeuge auf der Grundlage von Verkehrsmessungen an Kreuzungen zu erstellen. Die Autoren beschrieben ein allgemeines Design, Funktionalität und Anforderungen von JTRRouter und präsentierten dann eine Skizze des Routenplanungsalgorithmus und diskutierten seine Rechenkomplexität. Um die wesentlichen Fähigkeiten des Moduls zu veranschaulichen, wurde ein Beispiel einer Routenplanung für ein Fragment eines realen Stadtnetzes vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16472-9_29 b10aeadd69e86aa8745a4f13129f51bc;de;;;7.1.;;;Eine intelligente Software zur Bereitstellung von phasengesteuerten Sound-Planning-Services für echte Bauprojekte Heutzutage denken die meisten Bauvorhaben nur noch selten an ihre stichhaltige Planung in der Planungsphase, außer an die Lösung des Lärmproblems. Es betrifft zwei Gründe. Erstens können sich Akustiker und Architekt nicht sehr gut verstehen, da sie zwei unterschiedlichen Fachgebieten angehören. Zweitens betrifft es die Komplexität der städtischen Klangumgebung, die mehrere Disziplinen wie praktische Akustik, Soziologie, Kultur usw. umfasst. Es ist sehr schwierig für traditionelle Methoden, effektive Diagnosen zu stellen oder optimale Lösungen für die Klangplanung eines realen Projekts bereitzustellen . Durch die Etablierung einer neuen Software, die die Organisation von Stadtklangräumen optimieren und diagnostizieren kann, und einer entsprechenden Stadtklangraumdatenbank kann die neue Methode Menschen dabei helfen, die Rationalität einer Organisation von Stadtklangräumen intelligent zu analysieren und die Interaktion zwischen benachbarten Klangräumen zu beherrschen Räume. Darüber hinaus kann der Akustiker dem Architekten Sound-Planungsdienstleistungen für verschiedene Designebenen eines Projekts anbieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29084-8_111 60727d64b8802812afc0bc0c0464566c;de;;;7.1.;;;Mitfahrgelegenheiten: Ein Ansatz zur Routenplanung mit mehreren Quellen und Zielen Ridesharing gilt als eine der vielversprechenden Lösungen zur Reduzierung des Kraftstoffverbrauchs und zur Reduzierung von Staus in urbanen Städten und damit zur Reduzierung der Umweltbelastung. Mit der Weiterentwicklung der mobilen Social-Networking-Technologien ist es notwendig, die Prinzipien und gewünschten Eigenschaften von Mitfahrsystemen zu überdenken. Mitfahrgelegenheiten können bei den Menschen beliebt sein, wenn wir flexiblere und anpassungsfähigere Lösungen gemäß den Vorlieben der Teilnehmer anbieten und die sozialen Herausforderungen lösen können. In diesem Papier konzentrieren wir uns darauf, Menschen zur Nutzung eines Mitfahrsystems zu ermutigen, indem wir ihren Anforderungen in Bezug auf Sicherheit, Privatsphäre und Komfort gerecht werden und auch genügend Anreize für Fahrer und Mitfahrer bieten. Wir haben das Fahrgemeinschaftsproblem als ein Problem der Routenplanung mit mehreren Quellen und Zielen formuliert. Es wird eine Zielfunktion entwickelt, die verschiedene Zielkonflikte in einem einheitlichen Rahmen modelliert. Wir geben jedem Fahrer die Flexibilität, durch geeignete Anpassung der Gewichte die suboptimalen Bahnen nach seinen eigenen Anforderungen zu generieren. Diese suboptimalen Pfade werden in einer Prioritätsreihenfolge (Optimalität) erzeugt. Die Simulationsergebnisse haben gezeigt, dass das System das Potenzial hat, mehrere optimale Pfade zu berechnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35101-3_69 7a7eda22b7c752b202b1be3bb49d054a;de;;;7.1.;;;Ein Fall von Outsourcing in der Phenolharzindustrie Es fehlen noch Studien zum Outsourcing-Prozess in mehreren wichtigen nicht führenden Industrien weltweit und auch zur Existenz praktischer Modelle und Rahmenbedingungen, die den gesamten Prozess und nicht nur die Entscheidungsphase leiten. Der Artikel präsentiert ein praktisches Modell zur Durchführung des gesamten Outsourcing-Prozesses, der in vier Hauptphasen unterteilt ist (Motivation, Entscheidung, Umsetzung und Management). Es wurde erfolgreich in einem Fall angewendet, an dem zwei in Brasilien tätige multinationale Unternehmen in einer Lieferkette der Phenolharzindustrie beteiligt waren. Die Ergebnisse unterstrichen hauptsächlich die Angemessenheit des vorgeschlagenen Modells sowie die Bedeutung des Aufbaus einer auf Vertrauen und Integration durch Informationstechnologie basierenden Partnerschaft.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35704-1_52 d9ec149edf8ed0424e12198e50c62324;de;;;7.1.;;;Erleichterung der adaptiven Platzierung von Management- und Kontrollfunktionen in konvergenten IKT-Systemen Mechanismen für das Management und die Kontrolle (M&C) von großen IKT-Systemen, sowohl etablierte als auch innovative, verfolgen im Allgemeinen einen unterschiedlichen Ansatz in den Dimensionen von zentralisiert über verteilt und flache bis hierarchische Architekturen. In diesem Papier untersuchen wir repräsentative M&C-Frameworks und -Technologien und zeigen, dass eine derart restriktive Architekturwahl mit der Systemkonvergenz, wie Computer/Netzwerk und Festnetz/Mobil, nicht vereinbar ist. Um diese Situation zu verbessern, schlagen wir einen neuartigen Architekturansatz vor, der die adaptive Platzierung von M&C-Funktionen durch gleichzeitige Verwendung verschiedener Kombinationen von Verteilungs- und Hierarchiemustern erleichtert. Anhand eines Computer-/Netzwerksystems-Szenarios und eines Simulator-Prototyps veranschaulichen wir das Potenzial des vorgeschlagenen M&C-Ansatzes zur Erzielung einer effizienteren Gesamt-M&C von konvergenten IKT-Infrastrukturen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-7753-3_4 bea2ec96c25b348db9f56910d069fff4;de;;;7.1.;;;Versorgungsunsicherheit in der Lieferkette der Lebensmittelverarbeitung: Quellen und Bewältigungsstrategien Aspekte der Versorgungsunsicherheit wurden in der Literatur zum Supply Chain Management der Lebensmittelverarbeitung nicht speziell behandelt, da der Fokus hauptsächlich auf den Nachfrageaspekten lag. Dieser Beitrag gibt einen ersten Überblick über die vorhandene Literatur zum Thema Versorgungsunsicherheit bei Lebensmittelverarbeitern. Konkret stehen dabei die Arten von Versorgungsunsicherheiten und deren Ursachen sowie der Umgang der lebensmittelverarbeitenden Unternehmen damit in der Lebensmittelversorgungskette im Fokus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44733-8_23 8d122eb3f99f532a8704e13597f20eb4;de;;;7.1.;;;Modellierung der netzwerkbasierten Verteidigung: Erfolg und Misserfolg einer Unternehmensmodellierung Forschungsprojekte bergen ein inhärentes Risiko des Scheiterns und der Umgang mit diesem Risiko ist eine wichtige Aufgabe für alle Beteiligten. Dazu ist es notwendig, das Wissen über die während und nach dem Projekt gemachten Erfahrungen zu teilen. Dieses Papier untersucht ein kürzlich abgeschlossenes Forschungsprojekt zur Unternehmensmodellierung und trägt mit gewonnenen Erkenntnissen und Empfehlungen für zukünftige Unternehmensmodellierungsprojekte bei.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16782-9_9 d7899250e8b800ca1784181697bca63d;de;;;7.1.;;;Zum Design einer domänenspezifischen Abfragesprache für die metallurgische Industrie Viele Systeme müssen zwischen einem benutzerfreundlichen visuellen Abfrageeditor und einer textuellen Abfragesprache mit industrieller Stärke wählen, um große Mengen komplexer Daten zu verarbeiten. Einige von ihnen bieten beide Möglichkeiten für den Zugriff auf Daten in einem Lager.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-18422-7_45 02b8fe412b7b669e91c26a3ebe064f6f;de;;;7.1.;;;Entwicklung eines Wissensmanagementsystems mit einem ontologischen Ansatz in einer globalen Organisation In diesem Beitrag wird ein ontologiebasiertes Wissensmodell für das Wissensmanagement vorgestellt. Dieses Modell kann die Wissensentdeckung erleichtern, die Benutzern Einblicke für die Entscheidungsfindung bietet. Die Benutzer, die den Einblick benötigen, spielen normalerweise unterschiedliche Rollen mit unterschiedlichen Anforderungen in einer Organisation. Um die Anforderungen zu erfüllen, werden Erkenntnisse durch gezielt aggregierte Transaktionsdaten erzeugt. Dabei handelt es sich um einen semantischen Datenintegrationsprozess. In diesem Beitrag stellen wir ein Wissensmanagementsystem vor, das in der Lage ist, Wissensanforderungen im Domänenkontext darzustellen und die semantische Datenintegration durch Ontologiemodellierung zu ermöglichen. Der Wissensdomänenkontext von United Bible Societies wird verwendet, um die Merkmale der Wissensmanagementfähigkeiten zu veranschaulichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55355-4_35 bef747946ca17aef6a3b2d0ef301ee52;de;;;7.1.;;;Die Forschung zum integrierten und kollaborativen Handelssystem der Unternehmensherstellung Globale Optimierung und schnelle Reaktionsfähigkeit im Markt können nicht einfach durch Computerautomatisierung erreicht werden, ohne eine systematische Anwendungsintegration zu berücksichtigen. Die produzierenden Unternehmen benötigen eine integrierte Plattform und die koordinierte kommerzielle Unterstützungsplattform, um ihre gesamte Produktivität, Flexibilität, Wettbewerbsfähigkeit und die Fähigkeit zum Notfallmanagement zu verbessern. In diesem Beitrag wird ein E-Commerce-Projekt der Xuzhou Cigarettes Factory mit der Zigarettenindustriegruppe Jiangsu vorgestellt. Wir stellten die aktuelle informationsbasierte Situation der Xuzhou Cigarettes Factory mit der Zigarettenindustriegruppe Jiangsu vor, identifizierten die wichtigsten Probleme und Engpässe in der Unternehmensführung und schlugen die Lösung für die Fertigungsintegration und den kollaborativen Handel von Unternehmen vor. Unsere Lösung könnte für die Informationskonstruktion in produzierenden Unternehmen herangezogen und eingesetzt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75466-6_18 9b54c5d995fbe7da97191089dc7b621c;de;;;7.1.;;;Änderungen in der Fertigungsstrategie… Die Fabrik der Zukunft wird den Charakter eines Dienstleistungsunternehmens annehmen und erfordert damit grundlegende Veränderungen in der Produktionsphilosophie. Der Autor weist darauf hin, dass durch Arbeitsteilung und Arbeitserleichterung eine Produktivitätssteigerung aufgrund von Strukturen mit zeit- und kostenintensiven Schnittstellen begrenzt ist. Märkte und Wettbewerb erfordern neue Strategien und ein Umdenken bei der Konzeption neuer Produktionssysteme.;-;-;-;https://link.springer.com/article/10.1007/BF02953382 89ef47f51d5209893d1e64c3ab8e7a38;de;;;7.1.;;;Bereitstellung von Wissensmanagement in einer PLM-Umgebung: Eine Fallstudie zu Softwareintegratoren In den letzten Jahren wurden von mehreren Branchen zunehmend Investitionen im Bereich PLM getätigt. In der heutigen industriellen Produktion ist PLM ein unverzichtbares Werkzeug, um den Herausforderungen des immer anspruchsvolleren globalen Wettbewerbs und der immer kürzer werdenden Produktlebenszyklen zu begegnen. Komplexe Produkte erfordern die Zusammenarbeit großer Fachnetzwerke. Wissensmanagement (KM) kann auf zwei Arten verstanden werden: Die defensive Art baut den Wissensvorrat auf, um Personalabgängen entgegenzutreten, oder die offensive Art sieht in der Wissensentwicklung eine Empfehlung zur Generierung neuer Produkte. Die Verbindung zwischen PLM und KM ist interessant, da sie bei der Beantwortung von Problemen vor Ort helfen kann. In diesem Papier machen wir zunächst einen Stand der Wissens- und KM im PLM-Kontext. Dann schlagen wir eine Methodik vor, um KM im speziellen Fall eines Softwareintegrators einzusetzen. Schließlich schlagen wir ein experimentelles Protokoll vor, das es uns ermöglicht, einen Werkzeugdemonstrator auf agile Weise zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41501-2_31 34ab4f980e2ea9c7911acfdd54c4e2ab;de;;;7.1.;;;Erleichterung der Gruppenzusammenarbeit und Verbesserung der Lieferkettengespräche In diesem Kapitel geht es um Gruppen und Gruppenkommunikation auf organisatorischer und interorganisationaler Ebene. Die Umsetzung von Nachhaltigkeitsinitiativen erfordert oft die Zusammenarbeit in der Gruppe. Merkmale starker Teams werden identifiziert. Theorie und Forschung im Zusammenhang mit Entscheidungsfindungs- und Problemlösungsprozessen in kleinen Gruppen werden überprüft. Techniken auf Gruppenebene für Frame Breaking und Building, um kreative Alternativen zu identifizieren, werden identifiziert. Dann verlagert sich der Fokus auf Bemühungen um interorganisationale Zusammenarbeit (IOC). Komplexe Umweltprobleme, die den globalen Klimawandel begleiten, erfordern große gemeinsame Anstrengungen. Theorie zur Rolle der Kommunikation bei der Schaffung von entstehenden kollaborativen Strukturen wird identifiziert. Theorien und Forschung zum Lernen in IOCs werden überprüft. Es werden Techniken diskutiert, die verwendet werden, um Praxisgemeinschaften aufzubauen und das Gruppenlernen zu verbessern. Es wird überprüft, wie Sprache und Texte zur Effektivität des IOC beitragen können. Ein konkreter Fall der IOC-Interaktion, die Allianz zwischen Nichtregierungsorganisationen (NGO) und Unternehmen, wird im Hinblick auf ihre gemeinsamen Bemühungen um externe Kommunikation diskutiert. Schließlich liegt der Fokus auf nachhaltigen Lieferketten. Warum bilden Organisationen sie, wie werden sie geführt und welche Herausforderungen gibt es? Interne und externe Kommunikationsprobleme werden identifiziert und Best Practices angeboten. Die Interviewdaten beleuchten die Stadt Denver, die Aspen Skiing Company, Tyson Foods, Sam’s Club und Bayern Brewing.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-18005-2_7 56080b12a4da2149a7c8d4c54a32b579;de;;;7.1.;;;Ein kurzer tragbarer PLM-Kurs Dieses Papier stellt die modernen Ausbildungsprinzipien eines kurzen PLM-Kurses vor, der weltweit an Universitäten eingesetzt werden soll, die keine PDM-Software haben. Das Hauptziel dieses Kurses ist es, die Vorteile der Verwendung einer PLM-Strategie während des Produktentwicklungsprozesses darzustellen. Anhand einer Fallstudie werden verschiedene Prozessbereiche eines Produktlebenszyklus in einer kollaborativen Umgebung vorgestellt und untersucht. Die Studierenden müssen Aufgaben lösen und eine technische Lösung erarbeiten. Besonderes Augenmerk wird auf den Informationsaustausch über ein Open-Source-PDM-System gelegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45937-9_12 7f63d2c13769651666fb54c2363ccbc3;de;;;7.1.;;;Entscheidungsunterstützungssysteme basierend auf Multi-Agent-Simulation für die räumliche Gestaltung und das Management einer gebauten Umgebung: Die Fallstudie von Krankenhäusern Die soziale Dimension ist ein grundlegender Bestandteil einer nachhaltigen Raumplanung, -gestaltung und -verwaltung. Bei der Umsetzung von Lösungen ist es von größter Bedeutung, sich deren Anforderungen und Konsequenzen vorzustellen. Decision Support Systems zielen darauf ab, Entscheidungsprozesse bei der Entwicklung von Infrastrukturen und Diensten zu verbessern. Sie unterstützen Entscheidungsträger bei der Beurteilung, inwieweit die gestalteten Orte den Anforderungen der vorgesehenen Nutzer entsprechen. Allerdings gibt es eine intrinsische Grenze bei der Vorhersage neu auftretender Phänomene in räumlich komplexen Systemen. Dies liegt daran, dass die Nutzung der gebauten Umwelt von ihrer Funktion abweichen kann, da sie sich als Reaktion auf den Kontext ändert und das emergente und dynamische menschliche Raum- und Sozialverhalten widerspiegelt. Dieses Papier schlägt einen Multi-Agenten-Simulationsansatz vor, um die Entscheidungsfindung für das räumliche Design und das Management komplexer Systeme unter Risikobedingungen zu unterstützen. Eine virtuelle Simulation zeigt eine Krankenstation bei Gesundheitsgefährdung durch Krankenhausinfektion, wobei der Schwerpunkt auf der räumlichen Verteilung des Risikos liegt. Es wird angewendet, um Korrelationen zwischen menschlichen Eigenschaften, Verhaltensweisen und Aktivitäten herauszufinden, die durch die räumliche Gestaltung und Verteilung beeinflusst werden. Der Mechanismus zum Erstellen von Szenarien soll die Entscheidungsfindung verbessern, indem er die Simulationsergebnisse berücksichtigt. Die Visualisierung der Nutzung einer Gebäudeumgebung eignet sich zur Überprüfung von Hypothesen und zur Unterstützung betrieblicher Entscheidungen. Der vorgeschlagene Rahmen zielt darauf ab, die Fähigkeit des Gebäudes zu bewerten und vorherzusagen, die Nutzeraktivitäten zu unterstützen und die Sicherheit der Nutzer zu gewährleisten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58808-3_25 bc98e94d90ae19746f394533bd5fc57c;de;;;7.1.;;;Eine einheitliche Architektur für proaktive Wartung in Fertigungsunternehmen Da die industrielle Wartung ein Schlüsselbetrieb ist, müssen moderne Fertigungsunternehmen Wartungsverluste minimieren und ihre Gesamtleistung verbessern. Darüber hinaus können aufkommende Informationstechnologien wie das Internet der Dinge (IoT), Cyber-Physical Systems, Proactive Computing und Big Data Analyse im Kontext von Industrie 4.0 das Instandhaltungsmanagement mit dem Ziel verbessern, eine neue Instandhaltungsstrategie umzusetzen: proaktiv Wartung. Zu diesem Zweck schlagen wir eine einheitliche konzeptionelle Architektur für proaktive Wartung in einer sensorbasierten industriellen Umgebung vor. Darüber hinaus beschreiben wir, wie wir es unter Nutzung bestehender Dienste und Tools umsetzen wollen, deren Integration in das UPTIME Informationssystem mündet. Abschließend stellen wir unsere Pläne für die Bewertung in drei Industriefällen vor: einer Weißwaren-/Hausgeräteindustrie, einer Stahlindustrie und einer Luftfahrtindustrie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-13693-2_26 3056cac2c3b0eb34d61cbc14833fa73a;de;;;7.1.;;;Forschungshintergrund Der Einsatz von Kooperationen ist zu einem wichtigen Phänomen im internationalen Geschäft geworden. In den letzten 20 Jahren sind Genossenschaften von so gut wie nicht existent bis zu einem Punkt angewachsen, an dem täglich eine Neugründung einer Genossenschaft angekündigt wird (Lorange/Roos, 1990, 1992, Hergert/Morris, 1988). Aus diesem Grund haben Wissenschaftler begonnen, diesen Trend zu untersuchen, indem sie Datenbanken zu diesen Vereinbarungen zusammenstellen. Häufig werden Informationen über die Art der Vereinbarung, die strategische Begründung, die Eigentumsstruktur, die Branchenkonfiguration, die aktuelle Leistung und andere Variablen gesammelt, um die strategischen Motive, die Struktur und das Ergebnis dieser Vereinbarungen zu erklären und zu analysieren (Contractor/Lorange, 1988). Wie auch immer die Datenbasis zu Kooperationsvariablen aussehen mag, eine gemeinsame Aussage von Forschern zu diesem Thema ist, dass die Misserfolgsrate kooperativer Vereinbarungen hoch ist (Kogut, 1988, Beamish, 1988).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-09664-1_2 0693a0a846084024df46bbcdf1bd3bec;de;;;7.1.;;;Forschung zur dynamischen Datenüberwachung von Gebäudeinformationen von Stahlkonstruktionen von Schiffsbrücken basierend auf einem BIM-Modell Entsprechend der aktuellen Situation der Informatisierung im Bereich der Meerestechnik in China wird in diesem Papier die Idee vorgestellt, BIM-Technologie (Building Information Model) zur Implementierung des BLM-Systems (Building Engineering Life Cycle Management) in der Planungs-, Betrieb und Wartung, um die Wettbewerbsfähigkeit der Unternehmen im Kern schneller zu verbessern. BIM verfügt über eine leistungsstarke Visualisierungs- und Informationsintegrationsfähigkeit, kombiniert BIM mit Zustandsüberwachung, bietet eine gute Ausdrucksumgebung für die Überwachung von Informationen und verbessert die Interaktion zwischen Überwachungsinformationen und BIM-Modell. Die experimentellen Ergebnisse zeigen, dass die Erkennung von Liedfeenbrücken in Meerestechnikprojekten, die Verwendung von Revit-Strukturen, die Projektstruktur und das Software-Sensormodell mit visueller Warnung basierend auf BIM-Plugin und Datenmanagementplattform die Datenansicht Ansichts- und Datenmanagement, automatische Warnung, Überwachungskurve In diesem Beitrag wurde die vorgeschlagene Methode verifiziert und in praktischen Ingenieurprojekten angewendet.;-;-;-;https://link.springer.com/article/10.1007/s12517-021-06601-w 807ef4b922a9b06d82f4daaa0a578630;de;;;7.1.;;;Sicherheits-Framework für den digitalen Arbeitsplatz Sicherheit ist ein wichtiger Erfolgsfaktor für den digitalen Arbeitsplatz. Da der EXP viele vertrauliche Mitarbeiterinformationen verwaltet, ist es unbedingt erforderlich, sicherzustellen, dass die richtigen Sicherheitsstandards übernommen werden. Ein umfassendes Sicherheits-Framework deckt alle Aspekte der Sicherheit ab, wie z. B. logische Sicherheit, Funktionssicherheit, Anwendungssicherheit, Nachverfolgung von Sicherheitsereignissen und dergleichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-5512-4_10 5cdb72d42a282bb9bbe132046458bf86;de;;;7.1.;;;Die Entwicklung und Validierung einer Roadmap für die Rückverfolgbarkeit Organisationen, die in sicherheitskritischen Bereichen wie Medizintechnik, Luftfahrt und Automobil tätig sind, müssen sicherstellen, dass ihre Software sicher ist, und diesbezüglich objektive Nachweise erbringen. Dies kann unter anderem durch die Einhaltung domänenspezifischer Vorschriften und Richtlinien erreicht werden, die eine umfassende Umsetzung der Rückverfolgbarkeit vorschreiben. Es gibt jedoch eine Lücke zwischen den behördlichen Anforderungen an die Rückverfolgbarkeit und dem, was in der Praxis umgesetzt wird. Dieser Mangel an Compliance bedeutet, dass es für Organisationen schwierig ist, die Sicherheit ihrer Software zu bewerten und somit deren Sicherheit zu gewährleisten. Ein Grund für die Nichteinhaltung in Bezug auf die Rückverfolgbarkeit ist das Fehlen von Anleitungen, welche Rückverfolgbarkeit implementiert werden soll oder wie sie umgesetzt werden soll. In diesem Beitrag stellen wir die Entwicklung und Validierung einer Roadmap zur Umsetzung der Rückverfolgbarkeit im Medizinproduktebereich vor. Die Roadmap wird Medizinprodukteorganisationen einen Weg für eine effektive Umsetzung der Rückverfolgbarkeit bieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19860-6_5 a15fa58967fadc78c5aeac9ad4ec203b;de;;;7.1.;;;Die Doktrin des militärischen Wahrnehmungsmanagements in Konflikten Den ersten analytischen Schritt der Analyse widerspiegelnd, zeigt der erste Teil dieses Kapitels die chronologische Entwicklung dessen, was als Schlüsselkonzepte, Hauptparadigmen und Kernaspekte identifiziert werden kann, die in der ersten Gruppe von Dokumenten, nämlich den Dokumenten der Militärdoktrin, die sogenanntes Wahrnehmungsmanagement im Konflikt. Die Analyse basiert auf insgesamt 26 Doktrindokumenten, die das US-Militär zwischen 1991 und 2007 herausgegeben hat, ein Dokument stammt aus dem Jahr 1979.;-;-;-;https://link.springer.com/chapter/10.1057/9781137296849_4 fecdadf6ccefc40370939d2b1534935d;de;;;7.1.;;;Über Systems Engineering für die computerintegrierte Fertigung Factory Automation (FA) dient der Förderung der Vielfalt und Flexibilität der Produktion durch den Einsatz von Hard- und Software wie NC, MC, Industrieroboter, automatisches Lager, FTS, CAD-CAM und Produktionsleitinformationssystem. Die jüngste Tendenz der FA geht in Richtung systematischer statt isolierter Geräte und hin zu mehr Software als Hardware.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83590-2_3 cb364313fbbc0ae1cc715612c1b20c27;de;;;7.1.;;;Design und Implementierung eines IoT-basierten intelligenten Zustandsmanagementsystems für die Industrieanlagen Ein Kondensationsphänomen tritt auf, wenn der Wasserdampf in der Luft zu Wassertröpfchen wird. Viele Industrieanlagen werden durch das Kondensationsphänomen beschädigt. Ein Munitionslager ist eine der Einrichtungen, die durch dieses Phänomen beschädigt werden. Daher schlägt dieses Papier ein IoT-basiertes intelligentes Condition Management System (ICMS) für Industrieanlagen vor. Das vorgeschlagene System verhindert ein Kondensationsphänomen, indem es die Temperatur und Luftfeuchtigkeit misst und über eine Smartphone-Anwendung einen Alarmdienst über Eindringen und Gasexposition bietet. Daher ist es möglich geworden, die Munition effizient zu verwalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19656-5_7 efe470c720df22a0206ffacae2117d2b;de;;;7.1.;;;Implementierung agiler Methodik in Entwicklungsländern: Fallstudie im Libanon Forscher haben sich aufgrund ihres Potenzials zur Verbesserung der Produktqualität und Produktivitätssteigerung für agile Ansätze in der Entwicklung von Informationssystemen interessiert. Während agile Methoden oft mit der Projektorchestrierung in der Softwareentwicklung in Verbindung gebracht werden, haben sie ein breiteres Anwendungspotenzial innerhalb von ICT4D.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-65828-1_18 631df650c16387dc60b021a1eed3ef06;de;;;7.1.;;;WLAN-Planung und Leistungsbewertung für kommerzielle Anwendungen In der Vergangenheit war die WLAN-Planung flächendeckend ausgerichtet, um sicherzustellen, dass die Signalqualität in allen Zielgebieten zufriedenstellend ist. Da die Zahl der Benutzer mit Anwendungen mit höherem Durchsatz, die von hochentwickelten mobilen Computergeräten unterstützt werden, einerseits weiterhin schnell wächst und andererseits die neuen Hochgeschwindigkeits-WLANs auf Basis von IEEE 802.11 weiterhin eine bedeutende Verbreitung auf dem Markt für drahtlose Kommunikation haben wurde erkannt, dass die Kapazität für die WLAN-Planung ebenso wichtig ist wie die Abdeckung. In diesem Papier werden die Kapazitätsplanung und Leistungsbewertung von WLANs mit Schwerpunkt auf den Auswirkungen der Anforderungen an den Anwendungsdurchsatz, den Hochgeschwindigkeits-WLAN-Standards IEEE 802.11 und den Fähigkeiten des Benutzerterminals erörtert. Um den Einfluss der Hochgeschwindigkeits-WLANs und der Endgerätefähigkeiten auf den Netzwerkdurchsatz zu untersuchen, wird eine Leistungsbewertung mittels Messungen unter Verwendung der Standards IEEE 802.11ac und IEEE 802.11n durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94117-2_3 57f084489a8cd31f2d55f645d0f91422;de;;;7.1.;;;Abgrenzung und Kodifizierung hydrographischer Einheiten durch den Einsatz geographischer Informationssysteme Geographische Informationssysteme (GIS) bieten neue Methoden und Werkzeuge für die automatische Datenverarbeitung, die von Organisationen zur Verbesserung des Prozessmanagements eingesetzt werden. Das Einzugsgebiet gilt als Grundeinheit der territorialen Planung, für die die Abgrenzung der hydrographischen Einheiten der Schlüssel zur Verwaltung der Wasserressourcen ist. Der Mangel an Details in den geografischen Informationen der Einzugsgebiete muss behoben werden, um den Entscheidungsfindungsprozess und die damit verbundenen Aufgaben zu optimieren. Mit der Pfafstetter-Methodik wurde das Einzugsgebiet des Jubones in Level 6 unterteilt. Zu diesem Zweck verwendeten wir die hydrographischen Einheiten der Ebene 5, das räumliche Auflösungsdatenmodell SRTM von 30 m und GIS-Software. Auf Stufe 5 wurden 13943, 13944, 13945, 13947, 13948 und 13949 hydrographische Einheiten identifiziert. Entsprechend den ausgewählten Methodenrichtlinien wurden 9 Einzugsgebiete für jede hydrografische Stufe 5 Einheit kodiert. 54 hydrographische Einheiten auf Ebene 6, von denen 30 den Einzugsgebieten und 24 den Einzugsgebieten entsprechen, wodurch die geografischen Informationen aktualisiert werden. Die unterteilte Gesamtfläche betrug 312.223,06 ha. Es ist wichtig, die Forschung in anderen Einzugsgebieten zu replizieren und die Ergebnisse über die Plattformen der Geodateninfrastruktur (SDI) zu veröffentlichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-72727-1_14 0ce2e842bfc38097cb739beb92c7f45b;de;;;7.1.;;;Räumliches Crowdsourcing: eine Umfrage Crowdsourcing ist ein Computing-Paradigma, bei dem Menschen aktiv an einer Rechenaufgabe beteiligt sind, insbesondere für Aufgaben, die für den Menschen von Natur aus einfacher sind als für Computer. Spatial Crowdsourcing ist eine zunehmend beliebte Kategorie des Crowdsourcing im Zeitalter des mobilen Internets und der Sharing Economy, wo Aufgaben raumzeitlich sind und an einem bestimmten Ort und zu einer bestimmten Zeit erledigt werden müssen. Tatsächlich hat räumliches Crowdsourcing eine Reihe von jüngsten industriellen Erfolgen angeregt, darunter die Sharing Economy für städtische Dienste (Uber und Gigwalk) und die raumzeitliche Datenerfassung (OpenStreetMap und Waze). Diese Umfrage befasst sich eingehend mit den Herausforderungen und Techniken, die sich aus den einzigartigen Merkmalen des räumlichen Crowdsourcings ergeben. Insbesondere identifizieren wir vier algorithmische Kernprobleme beim räumlichen Crowdsourcing: (1) Aufgabenzuweisung, (2) Qualitätskontrolle, (3) Gestaltung von Anreizmechanismen und (4) Datenschutz. Wir führen eine umfassende und systematische Überprüfung der bestehenden Forschung zu den oben genannten vier Themen durch. Wir analysieren auch repräsentative räumliche Crowdsourcing-Anwendungen und erläutern, wie sie durch diese vier technischen Aspekte ermöglicht werden. Schließlich diskutieren wir offene Fragen, die für zukünftige Forschung und Anwendungen des räumlichen Crowdsourcings beantwortet werden müssen.;-;-;-;https://link.springer.com/article/10.1007/s00778-019-00568-7 15a5f56da69fbf6e834543b03ebc610b;de;;;7.1.;;;Wachsende Abhängigkeit des öffentlichen Bankgeschäfts von privaten Beratern für Marktexpertise und Risikomanagement in Indien 1991 liberalisierte Indien sein regulatorisches Marktsystem, den „License Raj“, und öffnete sich für den globalen Wettbewerb. Dies beseitigte die chronische Angebotslücke, die den indischen Markt kennzeichnet, und führte Effizienz, Qualität und Innovation in eine Wettbewerbsfähigkeit ein, die zuvor auf politischer „Konnektivität“ beruhte. Der weitgehend verstaatlichte Bankensektor konnte sich jedoch dem Marktumfeld nicht anpassen. Vor der Liberalisierung dienten Banken hauptsächlich als Infrastruktur für die Kreditvergabe, da die Investitionsgenehmigung in staatlicher Hand lag. Die Liberalisierung verlagerte diese Verantwortung auf die Banken, doch da ihnen die Infrastruktur, die Fachleute und die Werkzeuge fehlen, um Marktentwicklungen zu analysieren und Marktrisiken zu managen, verlassen sie sich paradoxerweise auf Berater mit einem zuverlässigen Ruf. Dieses Papier untersucht zwei Probleme. Erstens zeigt es, dass die Marktliberalisierung eine Infrastruktur professioneller Unternehmensdienstleistungen erfordert, um die entfesselten Marktkräfte zu analysieren und die Marktparteien mit geeigneten Instrumenten auszustatten. Indische Banken haben es bisher nicht geschafft, von „Kreditverwaltern“ zu Marktanalysten zu werden. Zweitens erörtert das Papier die Auswirkungen dieses Scheiterns auf andere professionelle Unternehmensdienstleistungen und die Industrie im Allgemeinen. Die Unfähigkeit der Banken, zwischen ausgeklügelten Geschäftsplänen und Betrug zu unterscheiden, korrumpiert den Markt für Unternehmensberatung, während die Kreditvergabe ohne Marktanalyse einen Verdrängungswettbewerb in einem gesättigten Markt ermöglicht.;-;-;-;https://link.springer.com/article/10.1057/palgrave.abm.9200044 a687be0b989db548ae57daf6e032ad92;de;;;7.1.;;;Effektives Biosicherheits-Wissensmanagement: eine Provenienzperspektive Biosicherheit deckt ein breites Spektrum von Themen ab, von der Identifizierung und Bekämpfung von Bedrohungen auf internationaler Ebene über den Grenz- und Postgrenzschutz bis hin zur Identifizierung und Bekämpfung von Schädlingen auf Farm-, Lebensmittelketten- und Exportebene. Die Wirksamkeit eines Biosicherheitssystems hängt von seiner Fähigkeit ab, sensible, aktuelle und Echtzeitinformationen über mögliche Bedrohungen so früh wie möglich einzuberufen, auszutauschen und zu diskutieren. In Australien werden jedoch auf der Ebene der Staatsgrenzen die meisten Daten zum zwischenstaatlichen Verkauf in papierbasierten Systemen gesammelt und in verschiedenen Formen verteilt. Dies behindert den Prozess des effektiven Informationszugangs und der Entscheidungsfindung erheblich. Provenienz beschreibt die Ergebnishistorie, einschließlich Personen-, Prozess- und Quelldaten. Durch die Erfassung, Integration und Analyse digitalisierter Herkunftsinformationen mit Domänenwissen könnten Biosicherheits-Informationssysteme bessere Möglichkeiten für den Zugriff und die Analyse von Informationen für eine angemessene Entscheidungsfindung bieten. In dieser Arbeit stellen wir unsere aktuelle Entwicklung zum Aufbau eines Fast-Echtzeit-Wissensmanagementsystems durch die Zusammenarbeit mit einer der sechs staatlichen Biosicherheitsbehörden in Australien vor, einschließlich der Entwicklung und Implementierung eines Wissensmodells und eines Workflows zur Erfassung von Herkunftsinformationen und einige erste Provenienzanalysen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-44159-7_18 68fdbe6eb2651c181629fe54f5766648;de;;;7.1.;;;Unterstützende Prozesse für kollaboratives SaaS Software-as-a-Service (SaaS) entwickelt sich zu einer sehr leistungsfähigen Strategie, um flexiblere Softwarelösungen zu entwickeln und deren Time-to-Market zu verkürzen. Typische SaaS-Anbieter sind KMU, die mehrere Einschränkungen haben, um wettbewerbsfähig zu bleiben. Die wesentliche Motivation dieser Arbeit besteht darin, bessere Mittel bereitzustellen, um Gruppen von SaaS-Anbietern (eine virtuelle Organisation – VO) zu ermöglichen, kollaborativ an wertvolleren SaaS-Lösungen zu arbeiten, die sich aus einzelnen und gemeinsamen SaaS-Anbietern zusammensetzen. Die Zusammenarbeit erfordert jedoch die Bearbeitung vieler Probleme in vielen Dimensionen. Diese Arbeit bietet eine umfassende und konsolidierte Liste von Referenzprozessen, mit denen sich SaaS-Anbieter entlang des (VO-)Lebenszyklus einer Zusammenarbeit befassen sollten. Dies hilft ihnen, ihre Aktivitäten und beteiligten Assets in einer Zusammenarbeit besser zu planen und zu verwalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40543-3_20 3e50e8146018a03a3d5ef3302f76e6ef;de;;;7.1.;;;Die Evolution des adaptiven Fallmanagements aus Sicht von DSS und sozialer Zusammenarbeit Das Papier skizziert die jüngsten Trends in der Entwicklung des adaptiven Fallmanagements (ACM). Ein solcher Trend besteht darin, dass ACM-Systeme neben Entscheidungsunterstützung und Wissensmanagement immer häufiger auch Funktionen enthalten, die für die Gruppenarbeitsunterstützung oder soziale Netzwerke typisch sind. Ein Social ACM (SACM) verbindet Wissensarbeiter in einer kollaborativen Umgebung und bringt Business Cases zusammen mit unterstützenden Komponenten in einen sozialen Raum und macht sie so zu Elementen eines sozialen Netzwerks. Darüber hinaus bietet SACM Mechanismen zur Erfassung und Formalisierung von Feedback und Interaktionen. Das Papier versucht Wege aufzuzeigen, wie moderne Social-Networking-Technologie und bestehende soziale Netzwerke von Unternehmen genutzt werden können. Da ACM häufig in Entscheidungsunterstützungssysteme (DSS) integriert ist, versucht der Artikel auch, die Entwicklung von ACM und DSS aus einer architektonischen Perspektive zu untersuchen, wobei auf die DSS-Architektur Bezug genommen wird, die in einem früheren Artikel derselben Autoren beschrieben wurde [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30528-8_1 4babbfed2a74cdc87986158f8889b2d4;de;;;7.1.;;;Ein Referenzpunkt für die Gestaltung eines Cybersicherheits-Curriculums für Universitäten Das Ziel dieser Studie ist es, ein Cybersicherheits-Curriculum aus einer Best-Practice-Perspektive für Universitäten und andere Hochschulen vorzuschlagen. Cybersicherheit ist ein schnell wachsender Teil des gesamten Arbeitsmarktes und der Fachkräftemangel im Bereich Cybersicherheit ist ein Faktor, der weltweit Aufmerksamkeit erfordert. Ein aktualisierter Ansatz ist erforderlich, um die Arbeitskräfte im Bereich Cybersicherheit aufzubauen. Eine umfassende Literaturrecherche wurde auf akademische Datenbanken für vorgeschlagene Curricula für Cybersicherheitskompetenzen angewendet. Es wurde auch in den Curricula für Cybersicherheit, die von Top-Universitäten angeboten werden, sowie beim Studium der Curriculum-Frameworks und -Richtlinien für Cybersicherheit angewendet. Die Kenntnisse, Fertigkeiten, Fähigkeiten und Module aus den oben genannten wurden integriert, um einen ganzheitlichen Bezugspunkt für ein Cybersicherheits-Curriculum zu erstellen. Die Studie ergab, dass ein weltweiter Bedarf an Cybersicherheitsabschlüssen besteht, insbesondere für afrikanische Länder wie Südafrika. Es müssen mehr Cybersicherheitsexperten in den erforderlichen technischen Fähigkeiten geschult werden, kombiniert mit den notwendigen Soft Skills, um produktiv zu sein und die Lücken in der Industrie zu schließen. Dies ist möglich, indem man sich auf den Vorschlag dieser Studie konzentriert, nämlich einen Bezugspunkt für Cybersicherheitsmodule, die in ein Cybersicherheits-Curriculum aufgenommen werden sollen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-81111-2_5 549045c68fc11c696943649afdef9258;de;;;7.1.;;;Unterstützung der Einführung von Innovationen in digitalen Unternehmen Kleine mittlere Unternehmen (KMU) stehen vor besonderen Herausforderungen, da der technologische Fortschritt immer schneller wird. Um mit den Marktanforderungen Schritt zu halten, benötigen diese KMU unter anderem neue Instrumente zur Verwaltung von Informationsinhalten und neue Fähigkeiten zur Problemlösung. Sie benötigen auch Personal, das in der Lage ist, die neuen Tools und Methoden zu analysieren, die am besten geeigneten auszuwählen, die Lösungen einzusetzen und ihre Mitarbeiter zu schulen. Größere Unternehmen können sich auf das Vorhandensein verschiedener Fähigkeiten im Unternehmen verlassen, um erfolgreiche Teams zu bilden, sie können sich externe Berater zur Unterstützung des Change Managements und breit angelegte Trainingsprogramme leisten, während KMU dies nicht können.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35492-7_22 1fcd739ac963d0f4949faf06c9a0be0a;de;;;7.1.;;;Enabler und Disablers für die betriebliche Integration in einem handwerksorientierten im Vergleich zu einem Massenproduktionsunternehmen Unternehmen kämpfen heute mit sich ständig ändernden Anforderungen aus Umweltbedenken und zunehmendem Wettbewerb. Daher ist es wichtig, Innovationen zu schaffen, zu verbessern und die Effizienz zu steigern, indem schlanke Wertschöpfungsketten erreicht werden. In diesem Papier untersuchen wir sowohl einen einzelnen Hersteller von handwerklichen Freizeitbooten als auch einen Massenhersteller von Autokomponenten, um Ähnlichkeiten und Unterschiede in Bezug auf die betriebliche Integration in diesen beiden Arten von Organisationen zu finden. Die Studie basiert auf Interviews und Feldstudien, die an der Produktionslinie durchgeführt wurden. In dieser Studie werden mehrere gemeinsame Enabler für Integration gefunden: informelle Kultur und wenig Hierarchie, geringe Distanz zwischen Prozessschritten und gegenseitige Belohnungen. Die Unterschiede zeigten sich im Grad der Standardisierung und Formalisierung, der Verknüpfung von Abteilungen und der Kenntnis der Gesamt- und Abteilungsstrategie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44739-0_27 2ce04229eb051185361e9261ee5896b0;de;;;7.1.;;;Ein fallbasiertes System für die Planung von Öl- und Gasbohrungen mit Risikobewertung Ein Fallbasissystem für ein komplexes Problem wie das Design von Ölfeldern muss reicher sein als das übliche Fallbasissystem. Genesis, das in diesem Papier beschriebene System, enthält große heterogene Fälle mit Wissen auf Metaebene. Es wurde ein mehrstufiges Indexierungsschema mit sowohl vorab zugewiesenen als auch dynamisch berechneten Indexierungsfunktionen implementiert. Eine Benutzeroberfläche ermöglicht die dynamische Erstellung von Ähnlichkeitsmaßen basierend auf der Modellierung der Absichten des Benutzers. Es werden sowohl Benutzerhilfen als auch Problemlösungseinrichtungen unterstützt, neu ist auch die Bereitstellung von Risikoabschätzungen. Leistungstests zeigen, dass die Fallbasis im Durchschnitt bessere Vorhersagen für neue Bohrlochentwicklungen liefert als Unternehmensexperten. Frühe Versionen des Systems wurden bei Ölgesellschaften in 6 Ländern auf der ganzen Welt eingesetzt, und die Forschung an der Verfeinerung des Systems wird als Reaktion auf das Feedback der Industrie fortgesetzt.;-;-;-;https://link.springer.com/article/10.1007/s10489-005-2371-7 8e96ad89760985b02fd562647d177c85;de;;;7.1.;;;Das Design von Bilddatenbanken basierend auf der Theorie der symbolischen Projektionen Wir präsentieren eine Methodik für die Gestaltung von Bilddatenbanken, die auf einer neuen räumlichen Wissensstruktur basiert. Diese räumliche Wissensstruktur besteht aus einer Bilddatenbank, symbolischen Projektionen, die die räumlichen Beziehungen zwischen Objekten oder Unterobjekten in einem Bild darstellen, und Regeln zum Ableiten komplexer räumlicher Beziehungen aus der verallgemeinerten 2D-String-Darstellung der symbolischen Projektionen. Der innovativste Aspekt dieser räumlichen Wissensstruktur ist die Verwendung symbolischer Projektionen, um bildliches Wissen als verallgemeinerte 2D-Strings darzustellen. Da räumliches Wissen in Zeichenfolgen kodiert ist, können Schlußfolgerungsregeln zum räumlichen Denken angewendet werden. Schließlich beschreiben wir ein prototypisches wissensbasiertes Bilddatenbanksystem, das räumliches Denken, flexibles Abrufen von Bildinformationen, Visualisierung und Manipulation unterstützt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-52208-5_34 f83fe393600631050688c961329baa50;de;;;7.1.;;;Datenbankdesign für Entscheidungsunterstützungssysteme Ausreichende Informationen sind die Voraussetzung für die Entscheidungsfindung. Moderne Entscheidungsträger benötigen interne Betriebsdaten und externe Intelligenz in ihrem Entscheidungsprozess. Aktuelle informationsproduzierende Mechanismen zielen jedoch grundsätzlich darauf ab, statische und operative Informationen bereitzustellen, die nur für strukturierte Aufgaben geeignet sind. Nach Ref.-Nr. 34, 3 und 56 sind die typischen Aufgaben für Entscheidungsträger entweder halbstrukturiert oder unstrukturiert. Daher ist ein neuer Ansatz erforderlich, um sich dieser neuen Herausforderung zu stellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2677-9_11 299160acca60f3a3745b34c8a03f65a0;de;;;7.1.;;;Sicherheitsmanagement – ​​Der Prozess Dieses Papier gibt einen Überblick über die organisatorische Infrastruktur, die für die erfolgreiche Implementierung von IT-Sicherheit erforderlich ist. Es werden Anleitungen zum Verfassen von Sicherheitsrichtlinien, zur Bewertung von Risiken, zur realistischen Einschätzung von Bedrohungen und zur Auswahl von Gegenmaßnahmen gegeben. Alle verfügbaren Mechanismen können dann innerhalb der Organisation an ihren richtigen Platz gebracht werden, um die gewünschte Sicherheit zu erreichen. Darüber hinaus wird es möglich sein, das Kosten-Nutzen-Verhältnis jedes Elements des Sicherheitsprogramms zu bewerten, um zu entscheiden, welche praktischen Kompromisse eingegangen werden müssen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-49248-8_18 2963b1b09a4395501eedce5167b98fb4;de;;;7.1.;;;Mentale Modelle und Fehler in Mensch-Maschine-Systemen Dieser Artikel befasst sich mit der Analyse von Fehlern und Fehlervermeidung aus Sicht der kognitiven Ergonomie bzw. der kognitiven Psychologie der Mensch-Computer-Interaktion. Fehlerursachen und deren Vermeidung werden anhand theoretischer Konzepte zum menschlichen Verhalten in Mensch-Maschine-Kommunikationsprozessen untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83091-4_23 4becad0cf562893fd3c77097950235af;de;;;7.1.;;;Planung in holonischen Fertigungssystemen In diesem Kapitel werden einige der Probleme im Zusammenhang mit holonischen Fertigungssystemen vorgestellt. Es beginnt mit der Darstellung des aktuellen Fertigungsszenarios und der Trends und bietet dann einige Hintergrundinformationen zum holonischen Konzept und seiner Anwendung auf die Fertigung. Die gegenwärtigen Einschränkungen und zukünftigen Trends der Fertigung legen mehr autonome und verteilte Organisationen für Fertigungssysteme nahe, holonische Fertigungssysteme werden als ein Weg vorgeschlagen, um eine solche Autonomie und Dezentralisierung zu erreichen. Nach einer kurzen Literaturübersicht wird eine spezifische Forschungsstudie zum Umgang mit Scheduling in holonischen Fertigungssystemen vorgestellt. Diese Arbeit basiert auf Aufgaben- und Ressourcenholons, die auf der Grundlage einer Variante des Vertragsnetzprotokolls zusammenarbeiten, die die Ausbreitung von Einschränkungen zwischen Operationen im Ausführungsplan ermöglicht. Das Kapitel schließt mit der Darstellung einiger Herausforderungen und zukünftiger Chancen für die Forschung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84628-752-7_7 d18338a511660794208e5edd05128bf6;de;;;7.1.;;;Ein neues verbessertes Cybersicherheits-Framework für medizinische Cyber-Physical-Systeme Medical Cyber-Physical Systems (MCPS) sind komplexe, ortsbezogene, vernetzte Systeme von Medizinprodukten, die als Teil des Heilungszentrums genutzt werden können, um Patienten die beste medizinische Versorgung zu bieten. Daher integrieren sie menschliche, Cyber- und physische Elemente. Da MCPS lebenswichtig und kontextsensitiv sind, sind sie für die Gesundheitsbranche von Bedeutung, die anfällig für Datenschutzverletzungen und Cyberangriffe ist. Als aufstrebender Forschungsbereich steht MCPS vor mehreren Herausforderungen in Bezug auf Systemzuverlässigkeit, Sicherheit, Autonomie und Sicherheit sowie Datenschutz. In diesem Papier untersuchen wir zunächst den Stand der Technik von MCPS in den letzten Jahrzehnten (1998–2020) und schlagen anschließend einen neuen Rahmen zur Berücksichtigung von Sicherheit/Datenschutz für MPCS vor, der mehrere Modelle umfasst, die verschiedene Sicherheitsdomänen abbilden. Eine Interaktion zwischen verschiedenen Modellen gefolgt von einer qualitativen Bewertung des Rahmens wurde durchgeführt, um eine detaillierte Beschreibung des vorgeschlagenen Rahmens zu präsentieren. Es ist in verschiedenen Gesundheitsbranchen wie Gesundheitswesen, Fertigung, Pharmazie usw. nützlich, die intelligente Geräte verwenden. Darüber hinaus kann das Framework angewendet werden, um die Sicherheit in der Umgebung des Internets der Dinge (IoT) zu verbessern. Es kann auch nützlich sein, im Rahmen des Erwägungsrahmens effiziente Arbeitsabläufe für Patienten bereitzustellen. Das Framework wird auch die Grundlage für die Implementierung von Cybersicherheitsinfrastrukturen in vielen Anwendungen des Gesundheitswesens legen.;-;-;-;https://link.springer.com/article/10.1007/s00450-021-00427-3 c4b7d65b8b1542ae6c6f8324f5edd827;de;;;7.1.;;;Die Bereitstellung von Flugverkehrsdiensten Die im vorherigen Kapitel zitierte Resolution A37-15 der ICAO-Versammlung erkennt in Anhang W an, dass die ICAO-Mitgliedstaaten gemäß Anhang 11 des Abkommens von Chicago verpflichtet sind, die Erbringung von Flugverkehrsdiensten in Lufträumen und auf Flugplätzen für von denen festgestellt wurde, dass solche Dienste erforderlich wären. Die Entschließung stellt auch fest, dass Anhang 11 die Mitgliedstaaten verpflichtet, sicherzustellen, dass Sicherheitsmanagementprogramme erstellt werden, und dass kooperative Bemühungen zwischen diesen Staaten zu einem effizienteren Flugverkehrsmanagement führen könnten. Dementsprechend beschließt die Entschließung, dass die Staaten bei der Durchführung von Flugverkehrsdiensten sicherstellen, dass die erbrachten Dienste den festgelegten Anforderungen an die Sicherheit, Ordnungsmäßigkeit und Effizienz der internationalen Zivilluftfahrt entsprechen, und unter Berücksichtigung der Notwendigkeit einer kosteneffizienten Einführung und des Betriebs von ZNS-/ATM-Systemen, Staaten erwägen gemeinsame Anstrengungen zur Einführung eines effizienteren Luftraummanagements, insbesondere im oberen Luftraum. Die Entschließung in Anhang W fordert die Staaten außerdem auf, sicherzustellen, dass Sicherheitsmanagementprogramme von den jeweiligen Flugverkehrsdienstleistern in allen Lufträumen und auf allen Flugplätzen eingeführt werden, auf denen Flugverkehrsdienste erbracht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25835-0_2 8753f63a90c679ccee24e0289171e870;de;;;7.1.;;;Die Verfolgung von Geschäftsregeln von ihrer Quelle über ihre Implementierung bis hin zum Support ist Wartung Geschäftsregeln beschreiben, wie Unternehmen Geschäfte machen. Ihr Wert wurde auch im Bereich der Informationssysteme (IS) erkannt, hauptsächlich wegen ihrer Fähigkeit, Anwendungen flexibel und anpassungsfähig zu machen. In diesem Papier argumentieren wir, dass Geschäftsregeln als Bindeglied zwischen Organisationen und ihren IS verwendet werden können. Wir zeigen, dass Geschäftsregeln ihren Ursprung in Organisationen haben und dass viele Geschäftsregeln explizit oder implizit in Unternehmensmodellen erfasst werden. Auf der Grundlage von Forschungsarbeiten treten wir dafür ein, dass Geschäftsregeln, wenn sie in geeigneter Weise verwaltet werden, dazu beitragen können, IS mit dem Geschäftsumfeld in Einklang zu bringen. In dem Papier schlagen wir ein Szenario für das Management von Geschäftsregeln vor, um Geschäftsregeln aus organisatorischer Sicht zu verwalten. Das Szenario erkennt das Business Rule Management als Schnittstelle zwischen der Unternehmensmodellierung und der IS-Entwicklung und -Wartung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-4852-9_23 cd41ec8e680b9da4ef27e89c628622b5;de;;;7.1.;;;Informationstechnologie im Bildungsmanagement der Schule von morgen Es werden die Grundprinzipien von Sizers Projekt „Coalition of Essential Schools“ in den USA und Chens Projekt „Kramim School“ in Israel, zwei „Schule der Zukunft“-Projekte, vorgestellt. Der mögliche Beitrag von ITEM zu jedem ihrer Prinzipien wird beispielhaft dargestellt. Es wird argumentiert, dass ITEM in der Schule der Zukunft unverzichtbar ist, insbesondere als Instrument zur Verbesserung der Schulleitung, der Einführung und des Managements von Veränderungen sowie zur Lehr- und Lernevaluation. Die „Schule der Zukunft“ muss sich noch weiterentwickeln und die aktuellen ITEM-Systeme müssen neu gestaltet werden, um ihren aufkommenden pädagogischen und administrativen Bedürfnissen gerecht zu werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35090-5_5 4bea2f722f83f92eda31947cd497d27f;de;;;7.1.;;;Einfluss von Organisationskultur und Kommunikation auf den erfolgreichen Einsatz von Informationstechnologie in Krankenhäusern In diesem Papier berichten wir über eine Fallstudie, in der Arten von Organisationskulturen, die die Kommunikation beeinflussen, als wichtigen Faktor bei der Untersuchung erfolgreicher IT-Einführung und -Implementierung im Gesundheitswesen untersucht werden. Wir beobachteten eine Krankenhausorganisation und fokussierten auf technologische Innovationen und die begleitenden Kommunikationsfaktoren bei der erfolgreichen IT-Implementierung. Die Ergebnisse zeigen die Bedeutung der Organisationskultur als wichtiger Faktor bei der Etablierung einer ausgewogenen Kommunikation als primären Einflussfaktor bei der Einführung neuer Technologien. Basierend auf theoretischen und empirischen Erkenntnissen schlagen wir ein Modell vor, das den Zusammenhang von Organisationskultur, Kommunikation und dem Erfolg bei der Einführung und Anpassung neuer IT-Systeme in Krankenhäusern beschreibt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39137-8_19 8ed1db58204fa725414a190be25e21d7;de;;;7.1.;;;Gestaltung der Verantwortlichkeit von Unternehmensarchitekturen Das Entwerfen von Unternehmensarchitekturen im Hinblick auf Verantwortlichkeit bedeutet, über Optionen nachzudenken. Anstatt Unternehmensarchitekturen als Produkte zu betrachten, versucht das Papier zu verstehen, wie sie hergestellt werden. Die Betrachtung von Unternehmensarchitektur als verschränkte Kategorie soziologischer, politischer und demokratischer Herausforderungen bietet die Möglichkeit, die politischen;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-37876-3_28 cb3a3bb439680c5070d14a8fef7a4c87;de;;;7.1.;;;Moderierende Wirkung von Umweltfaktoren auf die Entwicklung elektronischer Gesundheitsdienste und Gesundheitsergebnisse: Eine Analyse auf Länderebene Diese länderübergreifende Studie untersucht, wie die Beziehung zwischen nationalen eHealth-Initiativen und Gesundheitsergebnissen von (1) makroökonomischer Stabilität, (2) BIP pro Kopf und (3) Institutionen abhängt. Die ressourcenergänzende Perspektive von Resource Based View (RBV) und die Literatur zu Informationstechnologie und Gesundheitsergebnissen werden als theoretischer Leitrahmen verwendet. Öffentlich verfügbare Archivdaten aus mehr als 50 Ländern werden gesammelt, um den moderierenden Effekt zu verstehen. Gesundheitsergebnisse werden durch die Infant Survival Rate (ISR) gemessen. Die Ergebnisse zeigten, dass eHealth-Initiativen keine direkten Auswirkungen auf die Gesundheitsergebnisse haben, jedoch interagieren eHealth-Initiativen mit den oben genannten drei Eventualitäten, die die Gesundheitsergebnisse beeinflussen. Die makroökonomische Stabilität moderierte die Beziehung zwischen der Entwicklung der elektronischen Gesundheitsdienste und den Gesundheitsergebnissen positiv. Das Pro-Kopf-BIP und die Institutionen moderierten die Beziehung zwischen der Entwicklung von eHealth und den Gesundheitsergebnissen in eine negative Richtung. Implikationen der Ergebnisse für den theoretischen Diskurs der ressourcenkomplementären Perspektive und zukünftige Forschung werden in diesem Beitrag diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35142-6_10 4a87a1ce2f4ee6dc06235e13b139d81f;de;;;7.1.;;;Ein konzeptioneller Rahmen der Mensch-System-Interaktion unter Unsicherheit aus der Schattensystemperspektive Instabilität ist die Norm und das Notfallmanagement ist nach und nach zur allgemeinen Situation von Organisationen geworden. Aufgrund des Unternehmens werden Geschäftssysteme entwickelt, um bestimmte Geschäfte unter einer geplanten und kontrollierten Annahme abzuwickeln, die unsichere Geschäfte nicht lösen können. Stattdessen verlassen sich viele unsichere Geschäfte hauptsächlich auf die Interaktionen der Menschen, die unterschiedliche Perspektiven und den Austausch von Wissen zur Lösung bringen. Dieser Beitrag interpretiert die Darstellung von Schattensystemen unter Unsicherheit und analysiert weiter eine Art von Hindernis der Mensch-System-Interaktion basierend auf empirischer Analyse. Schließlich entwirft dieses Papier einen konzeptionellen Rahmen über das Feedback und die Befähigung zwischen Schattensystem und legitimem System, um dieses Hindernis zu lösen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-78288-7_15 fc3cabefb9b676900c9f67cb706ac91a;de;;;7.1.;;;Fähigkeitsorientierte Entwicklung – ein Ansatz zur Unterstützung sich entwickelnder Organisationen Die Notwendigkeit für Organisationen, in sich ändernden Umgebungen zu agieren, wird durch einen Ansatz adressiert, der die Organisationsentwicklung mit der Entwicklung von Informationssystemen (IS) unter Berücksichtigung von Änderungen im Anwendungskontext der Lösung integriert – Capability Driven Development (CDD). Ein Metamodell zur Darstellung von Geschäfts- und IS-Designs, bestehend aus Zielen, Key Performance Indicators, Capabilities, Kontext und Capability Delivery Patterns, wurde vorgeschlagen. Die Anwendung des Metamodells wird an einem Fall aus dem Bereich Energieeffizienz veranschaulicht. Eine Reihe von Problemen im Zusammenhang mit der Verwendung des CDD-Ansatzes, nämlich die Anwendung der Fähigkeitsbereitstellung, die CDD-Methodik und die Werkzeugunterstützung, werden ebenfalls erörtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34549-4_9 8e83070917f2c5352cad2efed9c5a4b0;de;;;7.1.;;;RSAII: Flexible robotisierte Einzelkommissionierung in kollaborativen Umgebungen für die Auftragsvorbereitung in Distributionszentren Distributionszentren sind Einrichtungen zur Lagerung und Verwaltung verschiedener Produkte, die an einen anderen Standort oder direkt an Kunden verteilt werden sollen. Obwohl diese Zentren einen hohen Automatisierungsgrad aufweisen, sind Aufgaben wie die Kommissionierung kaum automatisierbar und gehören zu den arbeitsintensivsten und monotonsten Aufgaben im Materialfluss. Die Kommissionierung, also das Sammeln von Artikeln zu einem Paket für den Versand, ist die Hauptursache für Fehler und mangelnde Effizienz. Obwohl die Vollautomatisierung der Kommissionieraufgabe sehr wünschenswert ist, schränken mehrere Faktoren wie die hohe Variabilität der Teile oder industrielle Anforderungen (Sicherheit, Robustheit...) die Vollautomatisierung der Aufgabe ein. RSAII hat einen hybriden Kommissionieransatz entwickelt, bei dem sich Roboter und Mensch den gleichen Arbeitsbereich teilen und hohe Automatisierung, Flexibilität und Sicherheit kombinieren. Die im Projekt definierten Ziele adressierten die wichtigsten technischen und industriellen Herausforderungen und es wurden drei Experimente mit zunehmender Komplexität durchgeführt: (1) Freestyle: Mono-Referenz-Kommissionierung mit hoher Verfügbarkeit, (2) Showcase: Sichere Multi-Referenz integriert mit aktueller Pick light solutions, (3) Feldtest: Kollaborative Lösung für Unitary Picking im Auftragsvorbereitungsbereich eines Distributionszentrums. Als Ergebnis des Feldtests wurde ein funktionsfähiger Prototyp entwickelt, der in einer realistischen Umgebung funktioniert und die Grundlage für die reale Implementierung des Systems beim ULMA-Kunden vor Ort darstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-34507-5_6 b07fee5cae7480424ef71684aedefe2e;de;;;7.1.;;;Der Einsatz eines Service Modelers zusammen mit einer PLM-Software für das Management produktbezogener Services: Ein erster anwendungsfallbasierter Ansatz zur Konfiguration von Servicekomponenten für produktbezogene Services Für die meisten Waren produzierenden Unternehmen ist die Erbringung produktbezogener Dienstleistungen bereits ein notwendiges Gut (Wildemann 2009). Solche Dienstleistungen werden von den meisten Unternehmen als notwendige Ergänzung zu einer erfolgreichen Warenproduktion angesehen. Um Produkte und Dienstleistungen zu managen, greifen Unternehmen auf unterschiedliche Methoden und Werkzeuge zurück, die den gesamten Lebenszyklus umfassen (Sendler 2009). Mit dem Ziel, Effizienz und Qualität zu bezahlbaren Kosten zu steigern, werden diese Methoden und Werkzeuge mit Hilfe von Informationssystemen wie PLM/PDM-Lösungen implementiert bzw. unterstützt. In diesem Zusammenhang ist zu beobachten, dass die Entwicklung und das Management von Dienstleistungen, obwohl sie für viele Unternehmen immer wichtiger werden, vernachlässigt werden. Weiterhin kann ein systematischer, toolgestützter Ansatz unter Verwendung der bestehenden PLM/PDM-Systeme als Problemfeld gesehen werden (Blinn et al. 2009).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41501-2_45 48b1a4624c6222bcba48034ecb93e1fa;de;;;7.1.;;;Verkehrsmodellierung und Operations Research: Eine fruchtbare Verbindung Der Zweck dieses Papiers ist zweifach. Es zielt zunächst darauf ab, in das Thema Verkehrsmodellierung einzuführen und damit die Weichen für die weiteren Beiträge dieses Bandes zu stellen. Gleichzeitig soll es auch auf die vielen Verbindungen zwischen Verkehrsmodellierung und Operations Research hinweisen und auf die reichhaltige und aufschlussreiche Natur dieser Verbindungen hinweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-03514-6_1 5e055f3a48884224ad367778001ca9ca;de;;;7.1.;;;Einführung von ISO/IEC 29110-Softwareprojektmanagementpraktiken in der frühen Phase: Eine Fallstudie Der ISO/IEC 29110-Standard hat im Kern einen Management- und Entwicklungsleitfaden [1], der sich an sehr kleine Einheiten (Unternehmen, Organisationen, Abteilungen oder Projekte) mit bis zu 25 Personen richtet [2], um ihnen zu helfen, die potenziellen Vorteile zu erschließen Standards zu verwenden, die speziell auf ihre Bedürfnisse zugeschnitten sind. In diesem Papier werden die Rolle und Struktur des Projektmanagements in der Norm ISO/IEC 29110 sowie der Entwurf und die Entwicklung einer Dokumentation zur Unterstützung des Projektmanagements erörtert. Dieses Papier beschreibt insbesondere eine Fallstudie eines frühen Anwenders von ISO/IEC 29110-Projektmanagementpraktiken und deren Erfahrungen mit deren Umsetzung im industriellen Kontext.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13036-1_20 6e4127da058c8ac0bd91c6e779d8ada9;de;;;7.1.;;;Objektorientiertes Echtzeit-Datenbankdesign und hierarchische Steuerungssysteme In diesem Beitrag werden Aspekte im Zusammenhang mit der Integration zwischen Datenbankverwaltungssystemen und hierarchischen Echtzeitsteuerungssystemen erörtert. Es wird eine Methode vorgestellt, die auf den Entwurf und das Prototyping von Echtzeitsteuerungssystemen und Echtzeitdatenbanken angewendet werden kann. Diese Methode basiert auf einer Erweiterung von High-Level-Petri-Netzen, genannt;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-3080-2_7 c9bd7d481f04c672065c52fa7648485b;de;;;7.1.;;;Die Entstehung von IS-Risiken aus der Eskalationsperspektive verstehen Dieser Beitrag untersucht IS-Risiken aus einer emergenten Perspektive. Die Analyse der Projekteskalation deckt die Entstehung von IS-Risiken und die Situationen auf, in denen IS-Risiken produziert und reproduziert werden. Um ein tieferes Verständnis zu erlangen, untersucht diese Studie ein erfolgloses IS-Projekt, das überzogen und budgetiert wurde. Die Ergebnisse zeigen, dass die Eskalation von Projekten eine wichtige Rolle bei der Entstehung von Risiken spielt. Um Risiken besser zu verstehen und zu managen, müssen die Ursachen der Eskalation verstanden werden. In dieser Studie waren die Ursachen der Projekteskalation hauptsächlich psychologischer und kommunikativer Natur, und die Eskalation hätte vermieden werden können, wenn sie erkannt und richtig gemanagt worden wären, bevor mehr Ressourcen für falsche Maßnahmen eingesetzt wurden. Die Studie bietet Beiträge zur Literatur und Praxis.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-7540-8_29 34092480953570274fdd12b6ed08a771;de;;;7.1.;;;Ein theoretischer Rahmen zur Analyse der Implementierung und der Auswirkungen von Qualitätssicherungssystemen in der europäischen Berufsbildung Dieses Kapitel stellt einen Rahmen dar, der beinhaltet, welche Faktoren die erfolgreiche Einführung von Qualitätssicherungssystemen (QAS) in der europäischen (I)Berufsbildung voraussichtlich beeinflussen werden. Der Rahmen wurde in sechs europäischen Ländern getestet (die Ergebnisse werden in den Kapiteln 3–8 vorgestellt), um zu klären, welche Faktoren für eine erfolgreiche Überprüfungsphase wichtig sind, und um eine Grundlage für die Entwicklung von Leitlinien für eine erfolgreiche Überprüfung in der Qualitätssicherung zu schaffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-9527-6_2 d33e1b40deeb886aa5c6380682c59271;de;;;7.1.;;;Ausgewählte Probleme der ITS-Projektentwicklung – Konzepterkundung und Machbarkeitsstudie Dieser Artikel stellt einige Probleme vor, die bei der Definition der Konfiguration und Architektur intelligenter Verkehrssysteme (ITS) in der Phase der Konzeptentwicklung und des Entwurfs dieser Systeme für städtische Gebiete auftreten können. Die Autoren schlagen ein systemisches Vorgehen (Systems Engineering) bei der Entwicklung der Dokumentation von ITS-Systemen und deren Umsetzung im urbanen Raum vor. Abgerundet wird die Beschreibung der vorgeschlagenen Richtlinien und Verfahren durch Beispiele für die Methodik der Konzepterforschung und Machbarkeitsstudie von ITS für die Stadt des Ballungsraums.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-66251-0_1 9912682e4472eab693b671248d04b135;de;;;7.1.;;;ERP und vier Dimensionen der Absorptionskapazität: Lehren aus einem Entwicklungsland Enterprise-Resource-Planning-Systeme können bei erfolgreicher Implementierung entscheidende strategische, operative und informationsbasierte Vorteile für neue Unternehmen bieten. Eine fehlgeschlagene Implementierung kann jedoch oft eher zu finanziellen Verlusten als zu Gewinnen führen. Bisher konzentrierte sich die Untersuchung der Misserfolge und Erfolge auf Implementierungen in großen Produktions- und Dienstleistungsunternehmen in westlichen Ländern, insbesondere in den USA. Nichtsdestotrotz hat die IT durch sinkende Hardwarekosten und zunehmende Vorteile eine intensive Verbreitung in Entwicklungsländern erlangt, die genauso viel Aufmerksamkeit verdient wie die Industrieländer. Ziel dieser Studie ist es, die Implikationen des Wissenstransfers in einem Entwicklungsland, der Türkei, als Paradigma in der Wissensgesellschaft zu untersuchen, mit Fokus auf Umsetzungsaktivitäten, die erfolgreiche Installationen begünstigen. Wir schlagen vor, dass die Absorptionsfähigkeit ein wichtiges Merkmal eines Unternehmens ist, das den Erfolg eines solchen Wissenstransfers erklärt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04757-2_41 a08889d0cacf2a3be95c1f9a0392df82;de;;;7.1.;;;Anpassbare Zugangskontrollrichtlinien für medizinische Informationssysteme IT-erzwungene Zugriffskontrollrichtlinien in medizinischen Informationssystemen müssen feingranular und dynamisch sein. Wir begründen diese Beobachtung auf der Grundlage der Gesetzgebung und auf der Grundlage der Entwicklung im Gesundheitswesen. Folglich ist eine rekonfigurierbare oder zumindest anpassbare Implementierung von Zugangskontrolleinrichtungen extrem wichtig geworden. Dafür bietet die aktuelle Technik keine ausreichende Unterstützung. Wir heben eine grundlegende Lösung hervor, um Mängel durch den Einsatz von Abhörtechniken zu beheben. Darüber hinaus identifizieren wir weiteren Forschungsbedarf, um die Herausforderungen einer dynamischen und feingranularen Zugangskontrolle langfristig zu bewältigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-40010-3_12 e523b5e0ad7df85d63c76a03eb916f6f;de;;;7.1.;;;Absichten, eine Karriere in Informationssystemen und Technologie anzustreben: Eine empirische Studie südafrikanischer Studenten Dieser Beitrag berichtet über eine Studie über die IT-Karriereinteressen von 263 südafrikanischen Universitätsstudenten. In erster Linie auf der Grundlage der sozialkognitiven Karrieretheorie wurden eine Reihe von Variablen ausgewählt und ihre Auswirkungen auf die Absichten der Studierenden, eine IT-Karriere einzuschlagen, und die Wahl des Studienfachs untersucht. Die Ergebnisse zeigten sehr geringe IT-Karriereabsichten bei den Studenten. Als wichtige Faktoren erwiesen sich berufliche Selbstwirksamkeit, Computererfahrung, Computerangst, Computerselbstwirksamkeit und wahrgenommene berufliche Belohnungen. Auch die Wahrnehmung der Studierenden zum Kern-Einführungskurs IS ist stark mit ihren Absichten verbunden. Demographie (Geschlecht und Rasse) hatte meist indirekte Auswirkungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15378-5_6 e6526d22cec78122658331cdc03c8042;de;;;7.1.;;;PLM-Nutzungsverhalten und Technologieanpassung Es treten häufig unvorhergesehene Managementprobleme auf, wenn Benutzer mit der Nutzung der IT beginnen. Sobald das Problem identifiziert ist, muss sichergestellt werden, dass eine Anpassung zwischen der Technologie, der Organisation und den Gruppen vorhanden ist. Die Angemessenheit einer solchen Anpassung spielt sogar bei erfolgreichen IT-Einführungsprojekten eine entscheidende Rolle. Die OEM-Industrie (Original Equipment Manufacturer) ist das repräsentativste Industriemodell in Taiwan. Diese Untersuchung ergab, dass der Anpassungsgrad bei der Verwendung des Product Lifecycle Management (PLM)-Softwaresystems in Taiwan zur Unterstützung von Forschungs- und Entwicklungsprojekten (F&E) von den Interaktionsbedingungen und der Aneignung zwischen der Technologie, der Organisation und den Gruppen abhängt. Im Prozess der Anpassung entstehen aus der Aneignung von Technik widersprüchliche Ereignisse. Der Grad der Lösung dieser auffälligen Ereignisse ist ein entscheidender Faktor bei der Bestimmung, ob das Unternehmen in der Lage ist, Wettbewerbsvorteile durch den Einsatz einer IT zu erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45071-0_7 bf484960c757d0950279d0e60f05748f;de;;;7.1.;;;Software-Projektmanagement in sehr kleinen Einheiten mit ISO/IEC 29110 Der kürzlich veröffentlichte ISO/IEC 29110 Standard Lifecycle Profiles for Very Small Entities hat im Kern einen Management and Engineering Guide [1], der sich an sehr kleine Einheiten (Unternehmen, Organisationen, Abteilungen oder Projekte) mit bis zu 25 Personen richtet [2] , um ihnen zu helfen, die potenziellen Vorteile der Verwendung von Standards zu erschließen, die speziell auf ihre Bedürfnisse zugeschnitten sind. In diesem Whitepaper werden die Rolle und Struktur des Projektmanagements im neuen ISO/IEC 29110 Standard Software Process Lifecycles for Very Small Entities sowie seine praktischen Implikationen erörtert. Dieses Papier konzentriert sich auch auf den Entwurf und die Entwicklung von Dokumentation zur Unterstützung des Projektmanagements und deren damit verbundene Verwendung in frühen Tests von ISO/IEC 29110.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31199-4_29 5b533f4c0570c4f993fbd6d9f9f87c13;de;;;7.1.;;;Argumente für Improvisation im Informationssicherheits-Risikomanagement Praktiker der Informationssicherheit (IS) sehen sich zunehmend unerwarteten Herausforderungen im IS-Risikomanagement gegenüber, die sie oft dazu drängen, spontan zu handeln. Nur wenige Studien haben sich der Untersuchung der Rolle dieser spontanen Maßnahmen bei der Minderung des IS-Risikos gewidmet. Studien haben sich auf klare Richtlinien und Richtlinien als solide Ansätze für ISRM (funktionalistische Ansätze) konzentriert. Wenn IS-Risikovorfälle im Kontext auftreten und sich voneinander unterscheiden, gelten inkrementalistische Ansätze für ISRM. Dieses Papier zeichnet qualitativ Standpunkte aus dem IS-Management auf die funktionalistische und inkrementalistische Sichtweise des Managements von IS-Risiken. Wir untersuchen Improvisation als Ausdruck spontanen Handelns anhand einer ausgewählten Fallstudie und argumentieren, dass Improvisation eine Verschmelzung funktionalistischer und inkrementalistischer Ansätze ist. Gespräche mit Fachleuten der Informationssicherheit, die aus der Fallstudie ausgewählt wurden, legen nahe, dass Improvisation als ein positives Mehrwertphänomen bei ISRM vorhanden ist. Dieses Papier präsentiert einen Fall für Improvisation in ISRM.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15346-4_18 6d8d032afd84ecdeea354b398c238528;de;;;7.1.;;;ERP-Unterstützung für Lean Production Im traditionellen Sinne wurde die IT oft als Mitverursacher von Verschwendung in der schlanken Produktion angesehen. Da sich die Geschäftswelt jedoch verändert und der Wettbewerb aus Niedriglohnländern zunimmt, müssen neue Modelle entwickelt werden, die Wettbewerbsvorteile durch die Kombination zeitgemäßer technologischer Fortschritte mit dem Lean-Paradigma liefern. Anhand eines Aktionsforschungsansatzes evaluiert dieser Beitrag die Unterstützungsfunktionalität von ERP-Systemen für die schlanke Produktion. Wir adressieren die Grundprinzipien der Lean Production im Vergleich zu den Funktionalitäten und Modulen eines zeitgemäßen ERP-Systems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33980-6_14 1f1e8046488bf58c0cafcca9631eb998;de;;;7.1.;;;Eine intelligente und datengesteuerte Lösung zur Entscheidungsunterstützung für das Problem der Online-Chirurgieplanung In operativen Geschäftssituationen ist es notwendig, sich dessen bewusst zu sein und zu verstehen, was um Sie herum passiert und was wahrscheinlich in naher Zukunft passieren wird, um optimale Entscheidungen zu treffen. Beispielsweise ist das Online Surgery Scheduling die Planungs- und Steuerungsaufgabe des OP-Managements und beinhaltet Entscheidungen, die aufgrund des hohen kognitiven und kommunikativen Aufwands zur Beschaffung der benötigten Informationen schwierig zu handhaben sind. Darüber hinaus unterscheiden mehrere Unsicherheiten wie Komplikationen, Absagen und Notfälle sowie die Notwendigkeit, die Eingriffe während der Durchführung zu überwachen und zu kontrollieren, die operativen Entscheidungsaufgaben in der Operationsplanung von den taktischen und strategischen Planungsentscheidungen. Der aufkommende Trend zur Vernetzung von Geräten und intelligenten Methoden in der Analytik ermöglicht jedoch innovative Ansätze zur Entscheidungsunterstützung in diesem Bereich. Unter Nutzung dieser Konzepte schlagen wir einen datengetriebenen Ansatz für ein Decisions Support System vor, das Komponenten zur Überwachung, Vorhersage und Optimierung in der Online-Chirurgieplanung umfasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-26169-6_5 fa127dab8fefb09a17b7e57df6d56121;de;;;7.1.;;;IT-Systeme im Business: Modell oder Realität? Dieser Beitrag reflektiert die Entwicklungen der letzten Jahrzehnte in der Geschäftsmodellierung und im Softwaredesign im Kontext eines spezifischen Nischenmarktes. Im ersten Teil beschreibt das Papier die sich wandelnde Rolle von Modellen und Modellierung in Kundenprojekten und in der Entwicklung von Standardsoftwarelösungen in den letzten 35 Jahren. Im zweiten Teil analysiert die Arbeit verschiedene Typen von Modellen und die Beziehung zwischen dem Modell als Artefakt und der modellierten Realität. Der Beitrag schließt mit einer kurzen Diskussion des IT-Systems selbst als notwendigerweise reduziertes und unvollständiges Modell von Geschäftsprozessen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-78428-1_3 4b56c8f8c81de84d98ece8997f097ca2;de;;;7.1.;;;IUP-Modellierungsmethode und ihre Anwendung für komplexe Informationssysteme Es wurde eine integrierte Modellierungsmethode basierend auf IDEF, UML und Petrinetz (IUP) vorgeschlagen. Das IDEF-Modell würde von IDEF0, IDEF1x und IDEF3 erstellt. Durch die Abbildungsregel würde das UML-Modell aus dem IDEF-Modell für objektorientiertes Softwaredesign transformiert. Die Schlüsselprozesse des IDEF-Modells und des UML-Modells würden in ein Petri-Netz umgewandelt, um die Wirksamkeit zu analysieren und Modelle zu modifizieren. Damit die Modelltransformation einfacher sein könnte, wurde in diesem Beitrag die Abbildungsregel zwischen IDEF, UML und Petrinetz untersucht. Mit dieser Methode wurde ein Modell für ein Ersatzteilmanagementsystem in einem größeren metallurgischen Unternehmen entworfen, das konfigurierbar, erweiterbar und wiederverwendbar ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23993-9_49 df96f04cd7a6b436c12d2dc152301cc1;de;;;7.1.;;;Für einen Ansatz zur Verknüpfung von Wissen und Vorhersage im Produktdesign Heutzutage gehört die Wiederverwendung von Wissen im Produktdesign zu den wichtigsten Herausforderungen im Product Lifecycle Management, insbesondere in den frühen Phasen. Tatsächlich haben in den letzten zehn Jahren gleichzeitige Konstruktionsprinzipien zahlreiche Einschränkungen eingeführt, die im Produktdesign im Hinblick auf den gesamten Produktlebenszyklus gut ausbalanciert und berücksichtigt werden müssen. Designer müssen sich ihrer Entscheidungen bewusst sein und brauchen Unterstützung bei ihren Routinetätigkeiten. Daher schlagen die Autoren vor, dieses Problem durch die Einführung des Konzepts der Generierung von Vorhersagen (Zukunft) anzugehen, um Wissen (Vergangenheit) im Entwurfsprozess (Gegenwart) zu aktivieren. Daher erfordert die Tatsache, Wissen und Vorhersagen zu verknüpfen, um eine angemessene Wiederverwendung von Wissen im Produktdesign durch Designer sicherzustellen, die Erfassung eines spezifischen Designkontexts. Zur Veranschaulichung des Ansatzes wird eine mechanische Baugruppe als Fallstudie vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-33111-9_23 3b3ca00aa8184381406e72c43bb12ce5;de;;;7.1.;;;Die Optimierung von Trainingssystemen Dieses Papier ist als problemorientierter Einstieg in ein immer neues Thema geschrieben, nämlich die Frage: Welche Methoden gibt es, um Trainingssysteme zu gestalten und wie gut sind sie?;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-3014-5_7 806e024e136da8148ece87cd30b44b5e;de;;;7.1.;;;Informationstechnologie-Assimilation in Schulen: Ein theoretischer und praktischer Rahmen Die Assimilation der Informationstechnologie (IT) stellt eine große Herausforderung für Schulen dar. Ein IT-Assimilations-Framework (ITAF) in Schulen wird vorgeschlagen. Die Hauptelemente jeder seiner Komponenten werden vorgestellt und das Potenzial des Frameworks als Werkzeug für die effektive und erfolgreiche Implementierung, den Betrieb und die Nutzung von IT in Schulen aufgezeigt. Ein integriertes Beispiel und ein Leitfaden für die Vorbereitungsprogramme von Schulmitarbeitern schließen unsere Diskussion ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34839-1_2 03da131d68e4aae48aecf15009dfb7ad;de;;;7.1.;;;Ein modellbasierter Ansatz zur unternehmensweiten Informationsunterstützung Dieses Papier demonstriert die Fähigkeit, eine Brücke zwischen konzeptionellen Informationsmodellen, die ein Fertigungsunternehmen repräsentieren, und der Realisierung dieser Modelle in einem relationalen Datenbankmanagementsystem zu schlagen. Die in dem Papier definierte Informationsarchitektur basiert auf dem ANSI-Drei-Schema-Ansatz für das Datenbankmanagement, der die Datenmanagementprobleme in drei separate Teile aufteilt und dadurch wichtige Vorteile in komplexen Systemen realisiert, in denen sich der Informationsaustausch häufig ändert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35063-9_15 89fa63b3ca4a78f807e8324009db6a98;de;;;7.1.;;;Verbesserung der HRM-Praktiken in den SOEs von Guangdong 1998, weniger als zwei Monate nachdem Shen, General Manager von Xinyue M&E Engineering Co. Ltd – einer Tochtergesellschaft der Xinyue Company Ltd – seinen Job aufgegeben hatte, reichte Liu, stellvertretender General Manager des Unternehmens, seinen Rücktritt beim Vorstand ein. Als Grund für die Aufgabe ihrer Positionen gaben sie an, dass die zwischenmenschlichen Beziehungen, mit denen sie zu tun hatten, zu komplex seien. Tatsächlich waren komplexe zwischenmenschliche Beziehungen nicht das einzige Problem im Zusammenhang mit dem Personalmanagement (HRM), mit dem das Unternehmen Xinyue (Xinyue) konfrontiert war.;-;-;-;https://link.springer.com/chapter/10.1057/9780230508668_9 8899623f01de93b79d52f01ef3b2d77d;de;;;7.1.;;;Zeitliche Offenlegung von Innovationen Der Beitrag befasst sich mit der Forschungsfrage, wie Innovationen in komplexen Informationsinfrastrukturen analysiert und bewertet werden können. Neuere Studien zu Innovationsprozessen mit standardbasierten Netzwerktechnologien haben nach neuen theoretischen Erkenntnissen verlangt als die traditionellen Studien zur Innovationsdiffusion. Das Verständnis dieser Art von Innovationen wird im Kontext komplexer Informationsinfrastrukturen besonders schwierig. Basierend auf dem empirischen Material einer Fallstudie einer IS-Innovation in einem norwegischen Krankenhaus bietet der Beitrag Einblicke in zeitliche Aspekte von Innovationen. Das Papier leistet zwei wesentliche Beiträge zur laufenden Diskussion. Es führt das Konzept der;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-8000-X_16 34bc25ec410a0b323d3f831577a5112a;de;;;7.1.;;;Mehrzielorientierte Energieplanung für Haushalte mit evolutionären Algorithmen In diesem Artikel werden die Fortschritte bei der Konzeption und Implementierung eines Empfehlungssystems zur Planung des Einsatzes von Haushaltsgeräten vorgestellt, das sich auf die Verbesserung der Energieeffizienz sowohl aus Sicht der Energieunternehmen als auch der Endverbraucher konzentriert. Das System schlägt vor, historische Informationen und Daten von Sensoren zu verwenden, um Instanzen des Planungsproblems unter Berücksichtigung von Benutzerpräferenzen zu definieren, die wiederum mit einem evolutionären Mehrzielansatz gelöst werden sollen, um den Energieverbrauch zu minimieren und die Qualität der den Benutzern angebotenen Dienste zu maximieren. Vielversprechende Ergebnisse werden in realistischen Fällen des Problems berichtet, verglichen mit Situationen, in denen keine intelligente Energieplanung verwendet wird (d. h. „;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-38889-8_21 e2426721e2066b882950349314e79455;de;;;7.1.;;;Gangplanungsforschung für Zweibeiner mit heterogenen Beinen Biped Robot with Heterogeneous Legs (BRHL) ist ein neuartiges Robotermodell, das aus einem künstlichen Bein und einem intelligenten bionischen Bein besteht. Mit der Beinprothese wird das gesunde Bein des Amputierten simuliert und das intelligente bionische Bein fungiert als intelligente Prothese. In diesem Artikel wird diskutiert, wie ein BRHL-Roboter das Gehen einer Person im Hinblick auf die Gangerkennung, Gangerzeugung und Gangkontrolle nachahmt. Simulative und praktische Systemexperimente beweisen die Gültigkeit des vorgestellten Plans und des vorgeschlagenen Algorithmus. Das Design dieses Roboters bietet eine hervorragende Plattform für die Erforschung intelligenter Beinprothesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15246-7_71 6d89c88c5e8a4b6c786884bb2e110f95;de;;;7.1.;;;Organisatorische Entscheidungsunterstützungssysteme: Parameter und Vorteile In diesem Kapitel werden Parameter identifiziert, die sich auf die Vorteile auswirken können, die durch Entscheidungsunterstützungssysteme von Organisationen erzielt werden. Einige dieser Faktoren wirken auf einer Mikroebene. Diese Entwurfsparameter ergeben sich aus Merkmalen, die das Organisationsentscheidungsunterstützungssystem (ODSS) aufweist. Andere Parameter, die den ODSS-Vorteil beeinflussen, wirken eher auf Makroebene. Diese Kontextparameter betreffen die Beziehungen zwischen einem ODSS und der Organisation, in der es eingesetzt wird. Entwickler, Administratoren und Forscher von ODSSs müssen sowohl Design- als auch Kontextparameter kennen. Die Behandlung dieser Parameter für ein bestimmtes ODSS beeinflusst den daraus erzielten Wert sowohl auf operativer als auch auf strategischer Ebene. Letztendlich wirken sich diese Vorteile auf die Wettbewerbsfähigkeit eines Unternehmens aus, indem es Umweltwellen reitet, während es Umweltstürme übersteht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-48713-5_22 c228712628e2fec73a1122dcb06926fc;de;;;7.1.;;;"Die PREMINV-Plattform für die Ausbildung in Management und Engineering für virtuelle Unternehmen In dem Papier definieren wir eine Hardware-Software-Struktur namens ""Plattform für die Ausbildung in Management und Ingenieurwesen für industrielle virtuelle Unternehmen (PREMINV)"", die zur Ausbildung von Studenten, den zukünftigen Ingenieuren, die in der Lage sein müssen, im virtuellen Unternehmen (VE) zu arbeiten, benötigt werden , auferlegt durch die Globalisierung der Produktion und des Wettbewerbs. Wir legen besonderen Wert auf besondere Qualifikationsanforderungen durch die neue VE-Umgebung. Zu diesem Zweck wird das Portalkonzept verwendet, das als Enterprise Information Portal (EIP) bezeichnet wird, da es die Infrastruktur für eine viel aktivere und personalisiertere Interaktion mit dem Benutzer bietet als eine typische Website. Es werden die Komponenten eines EIP und die Produkte vorgestellt, die ein Portal-Framework für die Registrierung und Integration von Anwendungen und Datenspeichern unter Verwendung von Internet-/Extranet-/Intranet-Infrastrukturen bereitstellen.";-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35585-6_61 a7525b5e0efda05a4683938481e51366;de;;;7.1.;;;Eine TOC-Perspektive zur Verbesserung des Managements kollaborativer Netzwerke Von kollaborativen Netzwerken wird in der Regel angenommen, dass sie den teilnehmenden Mitgliedern klare Vorteile und Wettbewerbsvorteile bringen. Da die Netzwerke andererseits typischerweise von heterogenen und autonomen Unternehmen gebildet werden, ist es natürlich, dass jedes Mitglied seine eigene Kultur und Interessenlage hat. Daher ist die Entwicklung von Methoden zur Erleichterung des Managementprozesses während der Betriebsphase eines virtuellen Unternehmens (VE) ein wichtiges Element für die breite Übernahme dieses Paradigmas. Ausgehend von einer kurzen Präsentation der Theory of Constraints stellt dieser Beitrag einen Ansatz dieser Konzepte für kollaborative Netzwerke vor und diskutiert ihre potenzielle Anwendung im Kontext einer (VE). Abschließend werden experimentelle Ergebnisse basierend auf Daten aus einem kollaborativen Netzwerk präsentiert und diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-84837-2_17 a0533d8a0897729a83168624ca8a235e;de;;;7.1.;;;Kombinatorische Optimierung und Green Logistics Das Ziel dieses Beitrags ist es, in das Gebiet der Grünen Logistik einzuführen und einige der dabei auftretenden Probleme zu beschreiben, die als kombinatorische Optimierungsprobleme formuliert werden können. Der Beitrag befasst sich insbesondere mit den Themen Reverse Logistik, Abfallmanagement sowie Fahrzeug-Routing und Disposition.;-;-;-;https://link.springer.com/article/10.1007/s10479-009-0651-z 847a0c9cc5585a43ac6fc82eaabbcfef;de;;;7.1.;;;Cybersicherheit in einer kognitiven Architektur Wie bei jedem elektronischen Informationsverarbeitungssystem in der heutigen Welt von Hackern, Malware, Spyware usw. Alle Informationen innerhalb eines SELBST müssen geschützt und vor Korruption (ob versehentlich oder absichtlich) bewahrt werden. Die versehentliche Korruption von Informationen und Wissen innerhalb eines SELF wird durch kontinuierliche Gegenprüfung und Selbstbewertung im Rahmen des ACNF behandelt. Kontinuierliche Kommunikationen zwischen Cognitrons innerhalb des Systems und ständige Auffrischung von Speicherinformationen verhindern, dass Informationen willkürlich modifiziert werden (Verlust von Bits) und vor Beschädigung aufgrund von Speicherfehlern und katastrophalen Interferenzproblemen, die zuvor erörtert wurden, geschützt werden. Diese schützen das System jedoch nicht vor absichtlichen Korruptionen und Hackern. Da ein SELF eine vollständig autonome, sich selbst entwickelnde, selbstlernende, folgerichtige künstliche Einheit sein soll, könnte jede Verfälschung von Informationen im künstlichen kognitiven Rahmen eines SELF verheerende Auswirkungen auf das Lernen, das Denken, das Gedächtnis und die kognitiven Prozesse eines SELF haben was bei verletzten Menschen auftritt (zB Kopfverletzung, Alzheimer). Korruption oder inkorrekte Modifikationen der Bedürfnisse, Beschränkungen, Ziele, Erinnerungen oder Algorithmen eines SELF können dazu führen, dass ein SELF völlig falsch handelt, sich entwickelt, sich erinnert oder lernt, und/oder außerhalb des Rahmens für die Absichten eines SELF liegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-8072-3_12 a957805b865be64ca223be1b85c18b7d;de;;;7.1.;;;Anpassung der Balanced Scorecard für eine Netzwerkbranche Der Fall der Clearingbranche Die Balanced Scorecard (BSC) ist ein etablierter Rahmen für die Führung eines Unternehmens, da sie finanzielle und nichtfinanzielle Perspektiven integriert. Der theoretischen und konzeptionellen Bewertung wurde wenig Aufmerksamkeit geschenkt. Wir veranschaulichen, wie die Stakeholder-Value-Theorie mit dem Konzept der BSC korrespondiert und zeigen die Bedeutung der zugrunde liegenden Ursache-Wirkungs-Beziehungen zwischen ihren Perspektiven. Für den Fall des Clearings in Europa, das derzeit vor tiefgreifenden Veränderungen steht, stellen wir unseren dreistufigen Ansatz zur Anpassung und Erweiterung des ursprünglichen Konzepts von Kaplan und Norton vor. Wir modifizieren die generische BSC, indem wir Risikomanagement als separate Perspektive hinzufügen und Wettbewerb und IT integrieren. Anhand mehrerer Fallstudien validieren wir dann, ob die modifizierte BSC für die Besonderheiten der Clearingbranche geeignet ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04280-5_21 44650803724fcd6e3135b9109172d79c;de;;;7.1.;;;Trennung von Modellierungs- und Konstruktionsprinzipien im Enterprise Engineering Ein agiles Unternehmen erfordert entwicklungsfähige Informationssysteme und Organisationsstrukturen. Einige Designtheorien, z.B. Die Theorie normalisierter Systeme, die ursprünglich für die Gestaltung von Informationssystemen entwickelt wurde, wurde für die Gestaltung von Organisationen verallgemeinert und erweitert. Neben Informationssystemen hat die Theorie der Normalisierten Systeme in letzter Zeit ihre Anwendbarkeit auf die organisatorische Ebene einschließlich der Geschäftsprozesse ausgedehnt. Dies führte zu einem Satz von 25 Designrichtlinien für normalisierte Systemgeschäftsprozesse. Auf der anderen Seite bietet Enterprise Ontology Vorteile beim Verständnis des Wesens von Organisationen für massive Abstraktion und Komplexitätsreduktion. Da diese beiden Forschungsrichtungen offenbar ähnliche Ziele verfolgen, nämlich Unternehmen mit unterschiedlichen Ansätzen zu gestalten, versuchten einige frühe Studien, sie zu vergleichen oder zu kombinieren. Die meisten von ihnen erzielten jedoch nur begrenzte Erfolge. Diese Forschung untersucht die Literatur und sucht nach einem neuen Weg, sie zu verbinden. Es kommt zu dem Schluss, dass es möglich sein könnte, diese beiden Artefakte nacheinander in zwei verschiedenen Phasen der Unternehmensentwicklung zu verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48393-1_28 868e6f3487b0fefd3726f8601be42c09;de;;;7.1.;;;Kooperation über Konflikte in Fertigungssystemen Der Beitrag diskutiert, wie Konflikte, die notwendigerweise zwischen verschiedenen Akteuren in einem Fertigungssystem entstehen, zugunsten des Gesamtsystems ausgenutzt werden können. Erfahrungen in Konfliktsituationen und deren Lösung bilden den Kern des sozialen Wissens des Systems. Ein Mechanismus zur kooperativen Problemformulierung und -lösung wird vorgeschlagen, dieser Mechanismus basiert auf der Nutzung der Erinnerungen früherer Konfliktfälle. Als Mittel, um dieses soziale Wissen zu erfassen und in die tatsächliche Steuerung von Fertigungssystemen zu übertragen, wird fallbasiertes Denken vorgeschlagen, da es in der Lage ist, unvollständige, inkonsistente und unformatierte Informationen zu verarbeiten und inkrementelles Lernen zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35357-9_17 93e4d808ab40bc6a947ff10651939615;de;;;7.1.;;;Automatische Generierung einer Roadmap für die E-Government-Implementierung Die Bewertung der Bereitschaft einzelner öffentlicher Stellen, spezifische e-Government-Programme und -Richtlinien durchzuführen, ist ein Schlüsselfaktor für den breiteren Einsatz und den Erfolg von e-Government. In diesem Artikel wird beschrieben, wie das e-Government-Reifemodell (eGov-MM) bestimmte Bereiche identifiziert, in denen öffentliche Stellen Verbesserungsbemühungen fokussieren sollten. eGov-MM ist ein Fähigkeitsreifemodell, das Fähigkeitsniveaus für jede kritische Variable und Schlüsseldomänenbereiche identifiziert, einen synthetischen Reifegrad für Institutionen vorschlägt und automatisch die Roadmap für jede bewertete öffentliche Behörde generiert. In diesem Artikel wird die automatische Generierung der vorgeschlagenen Roadmap detailliert beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14799-9_17 337701d39bdf49a25666a857937dd298;de;;;7.1.;;;Entwicklung eines LMS mit dynamischen Unterstützungsfunktionen für aktives Lernen In dieser Studie schlagen wir eine neue Art von Learning Management System (LMS) vor, die Lehrern mehr Freiheit bei der Planung des aktiven Lernens gibt. Wir nennen es „Dynamisches LMS (DLMS)“. Das DLMS generiert eine Benutzeroberfläche, in der Lernende auf die für Aktivitäten notwendigen Informationen zugreifen, indem sie ein „Learning Design Object (LDO)-Paket“ interpretieren. Es basiert auf einer minimalen Erweiterung des Instructional Management System-Learning Design (IMS-LD). Es bietet Lehrern viele Möglichkeiten. Sie können selbstlernend, eine Paar- oder Gruppenarbeit wählen und später sogar die Rollen in einer Gruppe wechseln. Es besteht aus dem „LD-Editor“ und dem „LD-Player“, die mit dem LDO-Paket kompatibel sind. Diese verknüpften Funktionen ermöglichen es Lehrern, eine Vielzahl von Aktivitäten zu planen und somit ein effektiveres aktives Lernen in ihrem Unterricht zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-40171-3_8 7329d823e35ddf0866eeb55de4e59950;de;;;7.1.;;;Notfallwarnsystem für schwere Unfälle Das Frühwarnsystem besteht hauptsächlich aus zwei Teilen, darunter das Frühwarnanalysesystem und das Gegenmaßnahmensystem, unter denen das Frühwarnanalysesystem ein Überwachungssystem, ein Frühwarninformationssystem, ein Frühwarnbewertungsindexsystem und ein Vorhersage- und Bewertungssystem enthält.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2871-8_2 688612bdab6a2f0c9da5897a38094a2f;de;;;7.1.;;;Zuweisen von Modellierungsressourcen in verteilten Modellverwaltungssystemen Aufgrund der wachsenden Popularität von verteilten Computersystemen und der erhöhten Modellierungsaktivität in den meisten Organisationen können durch die Implementierung von verteilten Modellverwaltungssystemen (DMMS) erhebliche Vorteile erzielt werden. Diese Systeme können als eine Sammlung logisch zusammenhängender Modellierungsressourcen definiert werden, die über ein Computernetzwerk verteilt sind. In mehrfacher Hinsicht sind die Funktionen von DMMS zu denen von verteilten Datenbanksystemen isomorph. Im Allgemeinen untersucht dieses Papier Fragen, die als zentral für die Entwicklung von verteilten Modellbasen (DMB) angesehen werden. Mehrere Kriterien, die für das gesamte DMB-Entwurfsproblem relevant sind, werden diskutiert. Konkret konzentriert sich dieser Beitrag auf das Problem der Verteilung von Entscheidungsmodellen und -werkzeugen (Lösern), die im Folgenden als;-;-;-;https://link.springer.com/article/10.1007/BF02283659 aba34092ac61115a8551504c7352e22a;de;;;7.1.;;;Wissensmanagement und Wissenspolitik: Illustrationen komplexer Produkte und Systeme Während in Teilen der Literatur zum Wissensmanagement der soziale Charakter von Wissen zunehmend anerkannt wird, argumentiert dieser Beitrag, dass die Auseinandersetzung mit wissenspolitischen Fragen nur begrenzt stattgefunden hat. Es gibt mittlerweile eine etablierte Kritik an technisch geführten Wissensmanagementpraktiken, in denen Wissen passiv, objektiviert und statisch behandelt wird. Ein Schlüsselelement dieser Kritik betrifft die Grenzen von Kodifizierungsstrategien, die darauf abzielen, implizites Wissen explizit zu machen. Dies basiert auf einer interpretativen Konzeptualisierung intersubjektiven Verstehens als immer vorläufig, unvollständig und eingebettet in Kontexte sozialen Handelns. Obwohl diese Position wohlwollend ist, wird argumentiert, dass die Betrachtung von Wissenspraktiken mehr beinhaltet als das Problem des Verstehens. Ein gemeinsames Verständnis, bei dem die Teilnehmer einer Interaktion eine zufriedenstellende Interpretation ihrer jeweiligen Positionen erreichen, impliziert in keiner Weise ein gegenseitiges Einvernehmen über die Gültigkeit dieser Positionen. Basierend auf den Erkenntnissen von Habermas über Modelle sozialen Handelns und wissensleitende Interessen bieten wir eine Reihe von Konzepten an, die die Sensibilität für das Verhältnis von Wissen, Macht und Interessen fördern. Aspekte der Argumentation werden dann anhand von Fallbeispielen aus der Organisationswissensforschung in Unternehmen illustriert, die komplexe Produkte und Systeme herstellen und einsetzen.;-;-;-;https://link.springer.com/article/10.1057/palgrave.ejis.3000398 0ffb78b608b79f5aa689375492a66c66;de;;;7.1.;;;Geschäftsanwender und der Entwicklungsprozess von Informationssystemen: eine Basis, die man kennen muss Wir diskutieren das Wachstum, den Nutzen und die Risiken von Geschäftsanwendern, die sich aktiver an der Entwicklung computergestützter Informationsanwendungen beteiligen. Nach einer kurzen Diskussion von Fragen des IS-Entwicklungsmanagements (Informationssystem) im Zusammenhang mit der benutzerbasierten IS-Entwicklung schlagen wir einen Rahmen vor, der aufzeigt, inwieweit bestimmte Geschäftsbenutzer über den Prozess der Entwicklung von IT-Systemen Bescheid wissen müssen. Anschließend skizzieren wir unsere jüngsten Forschungsergebnisse, die sich mit der Messung von BUD-Erfolgsfaktoren (Business User Development) befassen und die typischen IT-Involvement-Level von Geschäftsbenutzern identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35089-9_16 077e51eb1750c99453986817f6d3b920;de;;;7.1.;;;Auswirkung der Nutzung von interorganisationalen Systemen auf die Fähigkeiten und Leistung der Lieferkette Inter-Organisational Systems (IOS), das sind Informationssysteme, die über Organisationsgrenzen hinausgehen, werden zunehmend verwendet, um Unternehmen mit ihren Lieferkettenpartnern zu verbinden. Dieses Papier untersucht empirisch die Beziehung zwischen IOS-Nutzung, Lieferkettenfähigkeiten und Lieferkettenleistung. Das Forschungsmodell schlägt vor, dass die Verwendung von IOS die Lieferkettenleistung direkt und indirekt die Lieferkettenleistung durch Lieferkettenfähigkeiten verbessert. Um das Modell zu testen, wurde eine Umfrage unter 200 in Ghana tätigen Firmen durchgeführt, die IOS verwenden. Die Analyse des Modells wurde unter Verwendung von Partial Least Squares Structural Equation Modeling-Techniken durchgeführt. Die Ergebnisse der Studie bestätigten, dass sich die Nutzung von IOS positiv auf die Lieferkettenfähigkeiten und die Lieferkettenleistung auswirkte. Die Lieferkettenfähigkeiten wirkten sich ebenfalls positiv auf die Lieferkettenleistung aus. Darüber hinaus wurde festgestellt, dass die Lieferkettenfähigkeiten die Auswirkungen der IOS-Nutzung auf die Lieferkettenleistung teilweise vermitteln. Implikationen der Studie für Forschung und Praxis werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20671-0_20 d9ca4601d44ee71fdd3cc7fc197edb2c;de;;;7.1.;;;Einführung und Definition des Problems Software ist in den ersten Jahrzehnten ihres Bestehens zu einem wichtigen Produkt geworden. Es ist heute in vielen Formen vorhanden. Zum Beispiel: eingebettet in elektronische Geräte oder Autos, in Informationssysteme, die eine automatische Auftragsannahme ermöglichen und in Fabrikautomatisierungssysteme, die es wenigen Männern ermöglichen, eine Chemiefabrik zu betreiben. Der Umfang der zu entwickelnden Software ist von praktisch Null um 1950 auf einen geschätzten Wert von weltweit 140 Milliarden Dollar im Jahr 1985 angestiegen (Boehm 1988).;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-2486-7_1 f726ef7fb5ff536168e1436d663b9994;de;;;7.1.;;;Die indische Softwareindustrie: Auf dem Weg zur Reife In den letzten zehn Jahren hat Indien bewusst versucht, sich an der globalen Softwareindustrie zu beteiligen, indem es Kundenunternehmen im Westen Softwareentwicklungsdienste anbietet. Wir sehen in der indischen Softwareindustrie einen nachhaltigen Wettbewerbsvorteil und vernünftige Wachstumsaussichten. In gewisser Weise ist dies ein Kontrapunkt zu vielen der früheren Vorhersagen in der Literatur, die darauf hindeuteten, dass das Wachstum der Softwareindustrie in Indien ein vorübergehendes Phänomen war, das eine bestehende Chance des Mangels an Softwareingenieuren in westlichen Ländern nutzte und von der konsequente Schritte in Richtung Outsourcing.;-;-;-;https://link.springer.com/article/10.1080/026839697345008 5cd93f9fe4123e236eeeb97c73494714;de;;;7.1.;;;Identifizierung von Artefakten in Lebenszyklusphasen von CPPS Aktuelle Forschungs- und Entwicklungsaktivitäten im Bereich Engineering und Betrieb von Produktionssystemen konzentrieren sich auf die Erhöhung der Flexibilität und Anpassungsfähigkeit von Produktionssystemen. Ein gemeinsames Thema dieser Ansätze ist die Betrachtung hierarchischer und modularer Produktionssystemarchitekturen, bei denen die einzelnen Komponenten des Systems mit bestimmten Funktionalitäten und Informationen ausgestattet sind. Bislang gibt es kein einheitliches Verständnis darüber, was eine Komponente ausmacht, d. h. welche Teile eines Produktivsystems innerhalb der Hierarchie als Komponenten betrachtet werden können und welche Funktionalitäten und Informationen ihr zugeordnet sind. Diese Lücke wird in diesem, dem vorherigen und dem folgenden Kapitel geschlossen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-56345-9_6 8399089a5e3c65f4ddc64a817f0a8bd8;de;;;7.1.;;;Ergonomische Überlegungen beim Produktdesign durch PLM-Technologien Dieser Artikel präsentiert eine Integration einer Produktdesign-Methodik mit Schwerpunkt auf Ergonomie mit PLM. Die Artikulation erfordert einen vergleichenden Überblick über die Führungsebenen, die von beiden Ansätzen geboten werden. PLM konzentriert sich auf prozessuale Aktivitäten und Aufgabenerfüllung und unterstützt die ergonomische Designmethodik in eine Projekt- und Prozessmanagementebene, in der Entscheidungen und Kontrolle eine wichtige Rolle einnehmen. Als Ergebnis werden Workflow- und Indikatorenlösungen im Zusammenhang mit dem PLM-Strategieansatz entsprechend den besonderen Anforderungen der jeweiligen Methodik strukturiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-54660-5_4 83be5a2d31a64a60e2a68dfd3e11f934;de;;;7.1.;;;Registrieren von Software-Agenten in menschlichen Organisationen Komplexe Organisationen sind in erheblichem Maße durch interne Inkohärenz, durch Unterschiede zwischen den Präferenzen und Handlungsmustern der einzelnen Abteilungen sowie durch Widersprüche der Organisationsziele gekennzeichnet. Im Gegensatz dazu soll die Informationstechnologie kohärent funktionieren. Folglich gehen Informationssysteme (zur Unterstützung von Organisationsprozessen) in der Regel von der Annahme einer organisatorischen Kohärenz aus. Die traditionelleren Ansätze zur Implementierung von Informationssystemen in Organisationen stehen vor einem Dilemma. Entweder erzeugen sie dysfunktionale Einschränkungen, die der Organisation durch die Notwendigkeit des Informationssystems auferlegt werden, feste Ursache-Wirkungs-Beziehungen herzustellen. Oder sie führen umgekehrt zu einer Inkohärenz, die dem Informationssystem durch die Organisationsstruktur auferlegt wird. Mit der Agententechnologie haben wir jedoch die Chance, zu organisatorischen Informationsinfrastrukturen zu gelangen, die eine Unterbringung auf beiden Seiten ermöglichen. Der Beitrag beschreibt den theoretischen Hintergrund des INKA-Forschungsprojekts (das Teil des von der DFG geförderten Forschungsprogramms Sozionik ist). Ziel des Projekts ist es, Lösungen für das oben skizzierte Problem zu entwickeln, indem hybride Interaktionsformen zwischen Menschen und künstlichen Agenten in organisationalen Settings modelliert und erforscht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1177-7_9 c7ecdf4ccb7a7d36ce0a4118432ec167;de;;;7.1.;;;Tell Me What's My Business - Entwicklung einer Geschäftsmodell-Mining-Software Entscheidungsfindung, Innovation und Transformation von Geschäftsmodellen erfordern, dass Unternehmen ihr aktuelles Status-quo-Geschäftsmodell genau verstehen. Traditionelle Top-Down-Ansätze zur Visualisierung von Geschäftsmodellen sind jedoch menschzentriert, „de jure“, subjektiv, fehleranfällig und zeitaufwändig. Im Gegensatz dazu sammelt und konsolidiert das Bottom-up-Business Model Mining verschiedene Quellen geschäftsmodellbezogener Daten und präsentiert Geschäftsmodelle in vordefinierten Vorlagen wie dem Business Model Canvas. In diesem Papier wird ein Design-Science-Ansatz verwendet, um eine Business Model Mining-Software zu entwickeln, um Geschäftsmodelle automatisch von unten nach oben aus Enterprise-Resource-Planning-Systemen zu minen. In diesem Beitrag werden zunächst die Schwächen traditioneller Top-Down-Ansätze zur Visualisierung von Geschäftsmodellen und das Potenzial datengetriebener Ansätze diskutiert. Zweitens leitet dieses Papier Meta-Anforderungen und Designprinzipien als theoretische Grundlagen ab, um die Geschäftsmodell-Mining-Software zu konzipieren. Drittens instanziiert dieses Paper den „Business Model Miner“ in Microsoft PowerBI als funktionierende Software auf Basis von Daten aus drei realen SAP R/3 ERP-Systemen eines produzierenden Konzerns.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-92901-9_10 ac78d35589e1a1f4e883a9d63c1af9b3;de;;;7.1.;;;IT-Fähigkeiten und NPD-Performance: Untersuchung der vermittelnden Rolle von Team-Wissensprozessen Zwar gibt es reichlich Forschung, die untersucht, wie sich die Informationstechnologie (IT) auf die Leistung der Neuproduktentwicklung (NPD) auswirkt, aber über die vermittelnde Rolle von Team-Wissensprozessen ist wenig bekannt. Basierend auf der Literatur zu IS und Wissensmanagement entwickelt dieses Papier ein Modell, das Team-Wissensprozesse als verschiedene Einflusskanäle konzeptualisiert und zeigt, wie sie die Beziehung zwischen IT-Fähigkeiten und NPD-Leistung vermitteln. Das Papier vertieft unser Verständnis des nomologischen Netzwerks, das die IT mit der NPD-Leistung über die Zwischenwissensprozesse der Wissensbeschaffung und Wissensintegration verbindet. Implikationen für Forschung und Praxis werden diskutiert.;-;-;-;https://link.springer.com/article/10.1057/kmrp.2014.16 2d4cf025b833c602f7c184fead435cf8;de;;;7.1.;;;Entscheidungsunterstützung für das Katastrophenrisikomanagement: Integration von Schwachstellen in Frühwarnsysteme Trotz des Potenzials neuer Technologien und der Verbesserung der Frühwarnsysteme seit dem Tsunami 2004 nehmen Schäden durch Katastrophen nicht ab. Es besteht eindeutig Bedarf an einer besseren Integration der fragmentierten Landschaft von Forschern und Praktikern, die an verschiedenen Aspekten der Entscheidungsunterstützung für die Katastrophenvorsorge und -reaktion arbeiten. Um die Vorteile integrierter Systeme aufzuzeigen und zu diskutieren, konzentrieren wir uns in diesem Beitrag auf Schwachstellen und Frühwarnsysteme. Während Schwachstellen meist dazu dienen, Risikomanagement-Ressourcen zuzuweisen (Vorbereitung), sollen Frühwarnsysteme die Reaktionsphase einleiten. Indikatorenmodelle wurden als Teil von Rahmenwerken zur Katastrophenvorsorge und bei der Gestaltung von Frühwarnsystemen verwendet. In diesem Papier analysieren wir die Gemeinsamkeiten und Unterschiede zwischen beiden und skizzieren, wie ein integriertes System, das Schwachstellenbewertungen sowohl als Teil von Risikominderungsprogrammen als auch als Frühwarnung versteht, in Zukunft gestaltet werden soll.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11818-5_16 709af896f89af75d910b742789f839a1;de;;;7.1.;;;Hochwasserrisikominderungsanalyse mit Fernerkundung und GIS: Entsprechung mit Stadtplanungsplan Überschwemmung ist ein Überfließen von Wasser, das Land überschwemmt, und das Einströmen von Gezeiten auf das Land. Überschwemmungen verursachen in der Regel große Verluste an Menschenleben und weitreichende Sachschäden. In dieser Studie werden die Satelliten- und GIS-Datensätze integriert, um die Hochwasserzonenkartierung des Bezirks Surat, Gujarat, Indien, vorzubereiten. Hochauflösende Fernerkundungsbilder von Google-Earth, IRS-1D, topografische Karten im Maßstab 1:50000 werden mit hydraulischer Analyse und digitalem Höhenmodell (DEM) kombiniert, um die überflutungsgefährdeten Gebiete der verschiedenen Zonen zu identifizieren, die in Nord, Süd, Ost, West unterteilt sind , Central, South-East und South-West mit den Felduntersuchungen validiert. Die Arbeiten werden bis zum Stadtplanungsplan (TPS) erweitert, um die in Bezug auf Überflutung am stärksten gefährdeten Gebiete zu erkennen. Die Gesamtanalyse zeigt, dass mehr als 90–95 % der Fläche überflutet würden, wenn in naher Zukunft ein Hochwasser gleicher Häufigkeit über dieser Überschwemmungsebene auftreten würde. Zur Minderung der Hochwassergefahren werden verschiedene Sanierungsmaßnahmen vorgeschlagen, um den Gefährdungsgrad durch zukünftige Hochwasserereignisse zu senken.;-;-;-;https://link.springer.com/article/10.1007/s11269-013-0291-6 f3c8b934a0da6751b0c9588f6c325ba3;de;;;7.1.;;;Unterstützung für Wissensmanagement in mobiler Arbeit erkunden Dieser Beitrag berichtet über Feldforschungen aus der Elektrizitätsversorgungsindustrie und untersucht die Eignung aktueller Wissensmanagement-Perspektiven für die tägliche Arbeit mobiler Mitarbeiter. Über die Ergebnisse der empirischen Studie berichtend, unterscheiden wir vier Aspekte des lokalen und mobilen „Wissensmanagements“, wie es im mobilen Arbeitsumfeld stattfand:;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4441-4_14 829d2793fa6f53c1c31894ad4817dc79;de;;;7.1.;;;Wissenschafts- und Technologieausbildung: Japan, Singapur und Hongkong Bildung als bedeutende gesellschaftliche Aktivität spiegelt immer auch die Orientierungen einer Gesellschaft wider, und die Betonung der Entwicklung von Wissenschaft und Technik in den drei Gesellschaften spiegelt sich auch in der Bildung wider. In Japan forderte die Bildungsordnung von 1872 nach westlichen Vorbildern die Ausweitung des Bildungswesens für die breite Öffentlichkeit und die Einführung des fortgeschrittenen Lernens und der Technologie des Westens in großem Maßstab. Die vorgeschlagenen Bildungsinhalte wurden jedoch aufgrund der Beschränkungen der wirtschaftlichen und finanziellen Situation der Zeit nicht effektiv umgesetzt (Hiratsuka;-;-;-;https://link.springer.com/chapter/10.1057/9780230379060_6 9b6700be2a99528724595046e8880b64;de;;;7.1.;;;Ein pädagogisches Modell zur Vermittlung fachübergreifender Kommunikationsfähigkeiten, die für den Aufbau und Betrieb der VO-Infrastrukturen notwendig sind Die gegenwärtige Pädagogik erfordert eine Verbesserung bei der Vermittlung der Fähigkeiten, die erforderlich sind, um in interdisziplinären virtuellen Organisationen effektiv zu funktionieren. Studierende haben oft wenig Gelegenheit, fächerübergreifende Kommunikationsfähigkeiten zu entwickeln und die Anwendung der Fähigkeiten zu üben, die für die Entwicklung und den Betrieb virtueller Unternehmen erforderlich sind. Die Fakultät der Kent State University School of Technology hat eine zeitgesteuerte virtuelle Unternehmensumgebung geschaffen, in der die Entwicklung fachübergreifender Fähigkeiten ein wesentlicher Bestandteil des Lehrplans ist. Die Studierenden müssen die Infrastruktur entwickeln und Managementtechniken synthetisieren, um die strategische Planung und den täglichen Betrieb des Unternehmens zu erleichtern. Die Studierenden sind auch für die Lösung von fächerübergreifenden Kommunikationsproblemen verantwortlich, die auftreten können. Die Schüler verbringen einen Teil ihrer Zeit im Klassenzimmer und einen Teil ihrer Zeit in disziplinübergreifenden Meetings virtueller Unternehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35585-6_62 f354092d4f94bb6d44caa8d387f933cd;de;;;7.1.;;;Kommunikation in natürlicher Sprache mit Computern: Einige Probleme, Perspektiven und neue Richtungen Dieser Beitrag zeigt, wo wir bei der Realisierung natürlichsprachlicher Dialogsysteme stehen und wo wir die Forschungsanstrengungen richten sollten, um in diesem Bereich weitere Fortschritte zu erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-73402-1_26 ab5e0f92db4f54b834a62df553c6d14b;de;;;7.1.;;;Globales Geschäft auf der Autobahn: Implikationen für das Büro der Zukunft Die jüngsten und rasanten Entwicklungen im Bereich des elektronischen Handels, der den globalen Handel ermöglichte, haben viele Fragen über zukünftige Büros und zukünftige Büroarbeit aufgeworfen. Wird das Büro der Zukunft ein Ort oder ein Raum sein? Sind die Technologien ausgereift, um effektive interorganisationale Systeme zu unterstützen – und wenn nicht, welche Entwicklungsarbeit muss geleistet werden, und wenn ja, wie können wir sie am besten verbreiten? Wie verwalten wir die synchrone und asynchrone Kommunikation zwischen Gruppen? Wie managen wir multikulturelle und multidisziplinäre Teams? Wie ändern wir Geschäftsprozesse, um uns an ein globales Handelsumfeld anzupassen oder daraus Kapital zu schlagen? Diese und ähnliche Fragen wurden kürzlich auf einer internationalen Arbeitskonferenz zum Thema Informationssysteme und Technologie im „International Office of the Future“ (I0F) aufgeworfen. Die Mitwirkenden wurden gebeten, „Gestaltungsoptionen und Lösungsstrategien“ einzureichen, die sich mit Aspekten des zukünftigen Büros und der zukünftigen Büroarbeit auseinandersetzen. Eine detaillierte Inhaltsanalyse dieser Einreichungen ermöglichte es, die vielen sozio-technischen Aspekte von Designern zukünftiger Büroarbeit zu adressieren und die Systeme und Infrastrukturen zu identifizieren, die diese unterstützen. Die aus der Analyse hervorgegangenen Aspekte sind hier zusammengefasst. Die auffälligsten Ergebnisse dieser Analyse sind der Grad an Aufmerksamkeit, der anscheinend den sozialen Aspekten der IOF gegenüber den technischen und der wechselseitigen Natur der Themen geschenkt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34979-4_14 f69a61f30ad3c3ac9dab2d066df0616a;de;;;7.1.;;;Ausgewählte Probleme der Implementierung von Lean Manufacturing in mexikanischen KMU In diesem Beitrag werden die Ergebnisse der Untersuchung ausgewählter Probleme im Zusammenhang mit der Einführung von Lean Manufacturing in KMU in Mexiko vorgestellt. Die Analyse ist das Ergebnis einer Umfrage, die in einer Stichprobe von 24 produzierenden Unternehmen durchgeführt wurde, und wurde von einigen mexikanischen Regierungsinformationsquellen sowie zusätzlichen Studien, die zuvor durchgeführt wurden, unterstützt. Das Papier präsentiert auch einen vorläufigen Vorschlag einer Methodik zur Implementierung von Lean Manufacturing und des Modells von Lean Manufacturing, das unter den Bedingungen mexikanischer Industrieanlagen geeignet ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-77249-3_25 a362a15728864721a582cd016805dc58;de;;;7.1.;;;Die Modernisierung des öffentlichen Rechnungswesens in Portugal: Auswirkungen der Einführung der Prinzipien des neuen öffentlichen Managements Die Regierungen, die derzeit in einer Zeit rascher wirtschaftlicher Veränderungen leben, haben festgestellt, dass Maßnahmen ergriffen werden müssen, die die Rationalisierung und Rentabilität der verfügbaren Ressourcen fördern. Als Mitglied der Europäischen Union und gleichzeitig der Europäischen Wirtschaftsgemeinschaft ist Portugal den Konvergenzkriterien des Stabilitäts- und Wachstumspakts verpflichtet und daher zu Reformen gezwungen. Diese Studie umfasst einige der jüngsten Reformen, die in Portugal im Rahmen der neuen öffentlichen Verwaltung eingeführt wurden, und die Überarbeitung der zu diesem Thema verfügbaren Literatur.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24358-5_36 30ce3451597e192628c60620a4e25d35;de;;;7.1.;;;Wissensmanagement für E-Service-Delivery – Ein konzeptioneller Ansatz im E-Government Die kritische Herausforderung für den Erfolg von E-Government-Projekten ist die Möglichkeit, neue und interessante Kundenangebote zu erstellen. Dies erfordert eine Organisation, die in der Lage ist, ihre Geschäftsmodelle und Prozesse kontinuierlich (neu) zu gestalten und (neu) zu erfinden. Wissensmanagementsysteme (KMS) können solchen volatilen Anpassungen nur gerecht werden, wenn ihr Design eine reibungslose Anpassung und (Neu-)Konfiguration der zugrunde liegenden Geschäftsprozesse erlaubt. Ein solches KMS sichert oder verbessert sogar die erforderlichen Geschäftsergebnisse. Wir beschreiben hier einen konzeptionellen Ansatz für KM, der eine sehr hohe Anpassungsfähigkeit gewährleistet, um dynamische Veränderungen in Geschäftsmodellen und Informationsarchitekturen zu berücksichtigen. Das GPWM-Projekt der öffentlichen Verwaltung Basel – Schweiz – wird abschließend als Fallstudie des vorgeschlagenen Ansatzes vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24683-1_1 257775f55886077e1b3203add3bf0be3;de;;;7.1.;;;Sich entwickelnde Informationssysteme: Jenseits von zeitlichen Informationssystemen Um heute wettbewerbsfähig zu sein, muss sich eine Organisation schnell an ihr dynamisches Umfeld anpassen können. In diesem Beitrag diskutieren wir den Bedarf an Informationssystemen, die im gleichen Maße entwicklungsfähig sind wie Organisationen. Die Anforderungen sich entwickelnder Organisationen an ihre Informationssysteme werden identifiziert, gefolgt von alternativen Ansätzen für angemessene Entwicklungslebenszyklen von Informationssystemen. Wir verfolgen einen evolutionären Ansatz, der zu sogenannten Evolving Information Systems führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-7557-6_49 194c510a7e53d9b769793d7fecc34bd6;de;;;7.1.;;;Verhaltensperspektiven auf Theorien des Unternehmens Ökonomische Theorien des Unternehmens sind Theorien der rationalen Wahl. Sie verwenden starke Annahmen über das individuelle menschliche Verhalten, um Vorhersagen über das Gesamtverhalten im Gleichgewicht abzuleiten. Größtenteils versuchen sie, beobachtetes Verhalten auf Märkten zu rationalisieren, um zu zeigen, wie es sich vorstellen kann, aus eigennützigem Verhalten von Einzelpersonen und Unternehmen hervorzugehen. Solche Theorien sind gegenüber zwei klassischen Unterscheidungen, die der Verhaltensliteratur bekannt sind, etwas gleichgültig. Erstens neigen sie dazu, Unterschiede zwischen der Entscheidungsfindung durch Einzelpersonen und der Entscheidungsfindung durch Unternehmen zu ignorieren, da sie letztere hauptsächlich als Handlungen bestimmter Einzelpersonen betrachten – normalerweise Manager, aber manchmal Eigentümer. Zweitens bewegen sie sich leicht von Theorien des optimalen Verhaltens zu Theorien des tatsächlichen Verhaltens, wobei sie größtenteils annehmen, dass das tatsächliche menschliche Verhalten durch einen Wettbewerbsprozess zum Optimum getrieben wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-7791-5_10 f058a209d5cf8cc4285af21ea9c4f198;de;;;7.1.;;;Semantische Verbesserung der Textsuche Aktuelle Information Retrieval-Systeme konzentrieren sich auf die Verwendung von Schlüsselwörtern, um auf Benutzeranfragen zu antworten. Wir schlagen die zusätzliche Verwendung von Oberflächenwissen vor, um die Genauigkeit der Informationsbeschaffung zu verbessern. Unser Ansatz basiert auf dem Datenbankkonzept der semantischen Modellierung (insbesondere Entitäten und Beziehungen zwischen Entitäten). Wir erweitern das Konzept der Ähnlichkeit von Abfragen und Dokumenten, indem wir grundlegende Entitätseigenschaften (Attribute) erkennen, die im Text erscheinen. Wir verbessern auch die Ähnlichkeit von Abfragen und Dokumenten mithilfe des linguistischen Konzepts thematischer Rollen. Thematische Rollen ermöglichen es uns, Beziehungseigenschaften zu erkennen, die im Text erscheinen. Zur Veranschaulichung unseres Ansatzes haben wir einige Beispiele angeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-7555-2_20 51a7e8c1f1a76db65dc4f5de4efd79b7;de;;;7.1.;;;Erst schlank, dann automatisieren: Ein integriertes Modell zur Prozessverbesserung in reinen Dienstleistungsunternehmen Geboren in der Fertigungsumgebung, wurde Lean Management erst vor kurzem im Servicekontext implementiert. In der Literatur fanden wir jedoch keine starke empirische Evidenz, um zu klären, wie Lean Management in einem reinen Dienstleistungskontext angewendet werden kann, wie z. Ziel dieser Arbeit ist es, eine Methodik zu definieren, um Prozesse zu rationalisieren und zu automatisieren und Verschwendung in reinen Dienstleistungsunternehmen zu reduzieren. Um die Studienziele zu erreichen, führten wir drei Fallstudien durch. Basierend auf der empirischen Untersuchung wurde ein Framework entwickelt. Wir haben herausgefunden, dass die Automatisierung eines nicht optimierten Prozesses zu Problemen führen kann, die den Fluss verlangsamen und Fehler erhöhen können. Ein Prozess muss abgebildet werden, um Verschwendung hervorzuheben. Nur wenn der neue Prozess gestrafft ist, kann er automatisiert werden. Dabei automatisiert der neue Prozess nur von den Kunden anerkannte Mehrwertaktivitäten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16358-6_72 6a32c7e9cf936b66045ef24bf8c847c2;de;;;7.1.;;;Earned Business Value Management Es ist Zeit, in die Bauzeit überzugehen. Dies ist der Zeitpunkt, an dem Epics an Veröffentlichungen verteilt und für weitere Details geplant werden. Wir verwenden Nutzenschätzungen und Kostenschätzungen, um diese Planung zu überwachen und anzupassen. Wir nehmen eine bestehende Praxis für Kostenmanagement und nutzen sie für Nutzenmanagement und Nutzen-/Kostenmanagement: Wir adaptieren das sogenannte what;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-74218-8_5 2bf0904355fe8e9e08ad829e3b072df6;de;;;7.1.;;;Empirische Studie II: Untersuchung von Online-Innovationsvermittlern im Gesundheitswesen Kapitel 4 befasst sich mit der zweiten empirischen Studie, die auf den Erkenntnissen aus dem vorherigen Kapitel aufbaut. Es zeigt die Notwendigkeit auf, die Wirkungsweise von OIIs genauer zu verstehen und wie sie zur Mitgestaltung der Verbraucher beitragen. Auch fehlt der bestehenden Forschung eine umfassende fallübergreifende Analyse in diesem Bereich. Daher zielt diese Studie darauf ab, ein Verständnis über die OII-Aktivitäten, OII-Typen, das OII-Wertpotenzial für HCOs und kritische Herausforderungen im OII-Ökosystem zu entwickeln. Basierend auf einer explorativen, multiplen Fallstudie mit fallübergreifender Analyse werden Interviews mit OII‐Organisationen aus acht Ländern durchgeführt. Die Mehrheit der Befragten bestätigt das große Potenzial von Consumer Co-Creation im Gesundheitswesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-51124-5_4 efee31019888cfe2ae4ababefe6453ff;de;;;7.1.;;;Vernetzte Multimedia-Informationssysteme Die IT bringt eine Reihe radikaler Veränderungen im organisatorischen und technischen Umfeld von Organisationen mit sich. Die erste dieser Kräfte ist die rapide zunehmende Globalisierung, wodurch die Reichweite von Organisationen über ihre traditionellen geografischen Grenzen hinaus erweitert wird. Dies hat zu weltweitem Wettbewerb, höheren Produktivitätsanforderungen und einem turbulenten geschäftlichen und gesellschaftlichen Umfeld geführt. Diese radikalen Veränderungen haben eine erhöhte Konnektivität in Bezug auf interorganisationale Beziehungen, die Notwendigkeit anpassungsfähiger Organisationsstrukturen und nicht zuletzt eine Zunahme der für mehr Effizienz und Effektivität erforderlichen intraorganisationalen Koordination mit sich gebracht (siehe z. B. Yates und Benjamin, 1991, Hald und Konsynski, 1993, Jonscher, 1994). Diese Veränderungen in der Geschäftsdomäne sind ein Spiegel der Veränderungen in den IT- und Informationssystemen (IS). Die Veränderungen in der IT sind in der Geschwindigkeit und Qualität von Hard- und Software, dem Aufkommen leistungsfähiger und transparenter Netzwerke, dem einfachen Zugang zu verteilten Datenbanken und dem Aufkommen von Multimedia-Informationssystemen und Multimedia-Diensten zu finden. Die IT-Branche scheint sich mitten in einem evolutionären „Sprung nach vorne“ zu befinden. Personalcomputer werden von rechenintensiven zu kommunikationsintensiven Geräten, die die Medientypen Audio und Video verwenden (Jonscher, 1994, Fetterman und Gupta, 1993).;-;-;-;https://link.springer.com/chapter/10.1007/978-0-585-31308-5_3 1e83dd43c00012711f07752ddbe0a434;de;;;7.1.;;;Reproduktion des Managementprozesses im pädagogischen Kontext Neue Lernmethoden spielen in der Managementausbildung eine große Rolle. Herkömmliche Lernmethoden können effektiv in Fächern wie Finanzen, Wirtschaft und einigen Aspekten des Personalmanagements eingesetzt werden, die auf einem Wissensbestand basieren. Aber das Thema Betriebs- und Produktionsmanagement, das von Führungskräften die Bewältigung der Situation verlangt, erfordert neue Bildungsansätze. Dieser Artikel definiert die Anforderungen für die Reproduktion der Managementherausforderungen, wie sie wirklich sind, und schlägt ein Schema vor, das ein Labor für Managementlernen bietet. Das Schema wurde ausführlich getestet und der Artikel berichtet über die Ergebnisse dieser Lernexperimente in Bezug auf eine umfassende Reihe von Managementthemen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35506-1_5 bb326246deede8bd6ec12fb798deda44;de;;;7.1.;;;Die neue Business Suite S/4HANA Betrachten wir nach unserem theoretischen Diskurs nun die konkreten Erfolge bei der Entwicklung der neuen SAP Business Suite 4 SAP HANA (S/4HANA) und wie bestehende SAP-Kunden den Übergang meistern können. Anschließend erläutern wir die alternative Möglichkeit, zu einem vollständigen Software as a Service (SaaS)-Modell zu wechseln, das auf demselben Code basiert, jedoch für einen reinen SaaS-Verbraucher konfiguriert ist. Die Betreuung des bestehenden Kundenstamms bei gleichzeitiger Anwendung einiger der revolutionärsten Technologien und radikalsten Anwendungsarchitekturen in S/4HANA war von größter Bedeutung für die Entscheidungsfindung von SAP. Um die komplexen Arbeitsprozesse effektiv zu beleuchten, werden wir im gesamten Text bestimmte Konzepte betonen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16673-5_4 abd0f6ee9e321d8f93ff1c0f3ea3ceed;de;;;7.1.;;;Können wir das Informationssicherheitsmanagement auf die Anforderungen der Corporate Governance abstimmen? (Eingeladenes Papier) Dieser Beitrag soll Diskussionen, Forschungen und neue Handlungsansätze für das IS/IT-Sicherheitsmanagement vor dem Hintergrund der Corporate Governance, zeitgenössischen Debatten zur Darstellung beobachtbarer Konsequenzen von IT und IT-Sicherheit sowie didaktischen Fragestellungen anregen. Es wird der Schluss gezogen, dass empirische Forschung im Bereich des IT-Sicherheitsmanagements im Vergleich zu theoretischen Ansätzen selten ist, aber notwendig ist, um das IS/IT-Sicherheitsmanagement mit dem allgemeinen Management auf Augenhöhe zu haben.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-31167-X_15 b84c49b63db42840d6a61042af435350;de;;;7.1.;;;Entdecken Sie die Kategorien für verschiedene emotionale Markenerlebnisse zur Optimierung des Markendesignprozesses Designwissenschaftler erkannten die Bedeutung von Designeindrücken und stellten fest, dass es einige Trends im Bewusstsein der Marken hinsichtlich der Verbrauchereinstellungen zu ihren Designergebnissen gibt, darunter Produkte und Dienstleistungen. Immer mehr Kundenservices wurden entwickelt, um die Beziehungen zu den Verbrauchern durch soziale Netzwerke, integrierte mobile und standortbasierte Technologien zu verbessern. Einige Wissenschaftler untersuchen die Theorien der Psychologie und Soziologie, um die Nachrichtenverfahren der Verbraucher zu verstehen und zu verstehen, wie sie das mit der Marke verbundene Gefühl beeinflussen. Wie würde dies also die Erwartungen des Verbrauchers an das Markenerlebnis beeinflussen? Wie würde diese Veränderung den emotionalen Markenaufbau beeinflussen und wie würde sie die Markenbildungsprozesse beeinflussen?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-58637-3_2 28016bf078b4865368a8206c6b4b1efb;de;;;7.1.;;;Expertensysteme statt Expertensysteme Durch die Untersuchung mehrerer Anwendungsfälle von Expertensystemen wurden verschiedene Schwierigkeiten identifiziert, die direkt von den spezifischen Eigenschaften der Experten und ihrer Aufgaben abhängen. Dies betrifft mehr als die Fragen: „Dürfen Experten durch Maschinen ersetzt werden?“ oder „Ist Expertenwissen erklärbar?“. Eine weitere Relevanz haben die Organisationsstruktur ihrer Arbeit sowie die zyklische, nicht planbare Art ihrer Aufgabenerfüllung. Das Papier stellt das Konzept von Expertensystemen vor, um mit der Vielfalt ihres Fachwissens und der Komplexität ihrer Arbeit umzugehen. Es unterscheidet zwischen nicht-monotoner Problemlösung, Exploration, Medium und Modifizierung und argumentiert, dass diese Modi nicht auf eine weitere verbesserte Eingabe/Ausgabe-Strategie oder einen Dialogstil reduziert werden können, sondern laut Experten zusätzliche Funktionen zur Unterstützung der Mensch-Computer-Interaktion einführen braucht. In den ersten Abschnitten behandelt der Beitrag die theoretischen und empirischen Ergebnisse unserer Forschung, während Abschnitt 4 unsere Gestaltungsvorschläge für Expertensysteme vorstellt.;-;-;-;https://link.springer.com/article/10.1007/BF01210586 fc934adb0054fadd07273fecf4561c21;de;;;7.1.;;;Aufbau von Abhängigkeiten mit kollaborativer Informationstechnologie Interdependenzkonstruktion ist die allmähliche Bildung von gegenseitigen Beziehungen zwischen Menschen. In dieser Studie wird der Bereich auf Interdependenzen bei der Arbeit, in langfristigen Projekten oder Gruppen eingeengt. Wenn man Interdependenzbeziehungen dynamisch als soziale Praktiken betrachtet, ist es möglich, die komplexe und situierte Natur dieser Formation zu würdigen. Das Hauptziel der Studie ist die Entwicklung einer theoretischen Darstellung der Dynamik der miteinander verflochtenen Prozesse der Interdependenzkonstruktion und kollaborativer Technologieaneignung und -nutzung. Die Hauptdimensionen dieses Berichts sind: (1) wie Interdependenz als sozialer Prozess konstruiert und etabliert wird, (2) wie Information und Kommunikation in diese Prozesse eingebunden sind und (3) in welcher Weise kollaborative Informationstechnologie dazu beitragen oder sie behindern kann diese Prozesse. Drei frühere Fallstudien werden mit ihr erneut aufgegriffen. Der theoretische Ansatz eröffnet ein umfangreiches Forschungsprogramm zur Interdependenzkonstruktion in Bezug auf die kollaborative Aneignung und Nutzung von Informationstechnologie.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35505-4_25 01577f7168d936a73c7960c00ba04ee6;de;;;7.1.;;;Datenquellen für Umwelt-Lebenszykluskosten in Netzwerkorganisationen Environmental Life Cycle Costing (ELCC) ist eine Zusammenfassung aller Kosten im Zusammenhang mit dem Produktlebenszyklus, die direkt von einer oder mehreren an diesem Lebenszyklus beteiligten Einheiten (z in der Phase „End of Life“), erhöht um die Kosten der Umweltbelastung. Ihre korrekte Implementierung hängt von der Qualität der Daten ab. Bei der Beurteilung der Datenqualität werden Merkmale wie Eindeutigkeit, Objektivität, Aktualität, Zeitstempelung, Granularität, Vorkommen doppelter Daten, Vollständigkeit, Verfügbarkeit, Präzision, Interpretierbarkeit, Integrität und Kohärenz berücksichtigt. Somit hängt die Qualität der Daten weitgehend von den Quellen ihrer Erfassung ab. Aufgrund des umfangreichen Informationsumfangs des ELCC können Datenquellen in Netzwerkorganisationen relevant sein. Wesentliche Probleme sind: Identifizieren von Geschäftsprozessen, die in Netzwerkorganisationen durchgeführt werden, und Erkennen der Merkmale von Netzwerkorganisationen, um die ELCC-Berechnungen zu verbessern. Das Ziel dieses Papiers ist es, die Datenquellen für ELCC in Netzwerkorganisationen zu identifizieren. Die gewonnenen Ergebnisse können beispielsweise verwendet werden, um ELCC mithilfe von Tools der künstlichen Intelligenz automatisch zu berechnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-28374-2_34 a57d1ed08da355f240ca958d7810370d;de;;;7.1.;;;Referenzmodelle für ein objektorientiertes Design von Produktionskontrollsystemen Die Referenzmodelle von High-Level-Analyse- und Designmethoden für Fertigungssysteme, wie CIM-OSA oder GRAI, bieten eine gute Unterstützung auf konzeptioneller und organisatorischer Ebene, helfen jedoch nicht bei der Integration bestehender Software oder der Entwicklung und Wiederverwendung von Code. Objektorientierte Methoden sind gute Kandidaten für die Verbesserung oder Integration der Analyse-, Spezifikations- und Entwicklungsphasen von Fertigungssystemen: Sie gelten als effiziente Unterstützung, um die Codeentwicklungsphasen zu verkürzen und modulare und wiederverwendbare Software zu entwickeln. Nichtsdestotrotz konzentrieren sich die meisten der in den letzten Jahren entwickelten Anwendungen auf das Design von Kontrollstrukturen auf sehr niedriger Ebene, und es fehlt an unterstützenden Werkzeugen für komplexe Steuerungsarchitekturen für Produktionsaktivitäten. Wir schlagen in diesem Papier vor, modulare Referenzmodelle von PAC-Modulen zu definieren, um einen Rahmen für ein anpassungsfähiges PAC-Systemdesign bereitzustellen. Der derzeit in Entwicklung befindliche Prototyp des Unterstützungssystems soll eine echte „Workstation“ für die PAC-Systemdesigner sein, um wichtige Faktoren wie die Wiederverwendung von Modellen und Code sowie die Integration vorhandener Software besser zu berücksichtigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34910-7_29 994f15f619ffcac75702eff9dcbe9010;de;;;7.1.;;;Gestaltung überzeugender Interventionen zur Änderung des Gesundheitsverhaltens In den letzten zehn Jahren war der Einsatz verschiedener Technologien zur Änderung des Gesundheitsverhaltens von Einzelpersonen ein schnell wachsendes Interessengebiet. Beispiele für überzeugende Technologien sind relativ leicht zu finden, da es eine Vielzahl von internet-, web- und mobilbasierten Systemen und Anwendungen gibt, die einen gesünderen Lebensstil fördern. Dennoch steckt der Einsatz überzeugender Technologien im E-Health-Bereich noch in den Kinderschuhen. Während sich das Feld ausweitet, ist offensichtlich, dass mehr Forschung erforderlich ist, um besser zu bestimmen, wie sich die Systeme auf das beabsichtigte Verhalten der Benutzer auswirken. Dieses Buchkapitel skizziert mehrere wichtige Perspektiven bei der Gestaltung und Entwicklung überzeugender Interventionen zur Änderung des Gesundheitsverhaltens. Darüber hinaus bietet dieses Kapitel neue theoretische und praktische Standpunkte bei der Gestaltung und Entwicklung von Interventionen zur Änderung des Gesundheitsverhaltens. Darüber hinaus werden nützliche zugrundeliegende Theorien und Entwurfsmodelle identifiziert und diskutiert. Diese Art von Wissen kann dabei helfen, Systeme zur Unterstützung von Verhaltensänderungen aufzubauen, einzusetzen und zu evaluieren, die in der Lage sind, eine große Anzahl von Personen einzubeziehen und zu binden, wodurch möglicherweise die Gesundheit und das Wohlbefinden der Bevölkerung verbessert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-1536-7_11 2bbded297b944427ad79f2fb668b591e;de;;;7.1.;;;Sicherheitsbewertung experimenteller Flugverkehrsmanagementverfahren In diesem Papier wird die Anwendung von Sicherheitsbewertungsmethoden auf ein präoperatives Projekt im Bereich der Flugsicherung vorgestellt und diskutiert. In dem hier analysierten Fall war ein besonderer Aspekt die Notwendigkeit, neue betriebliche Verfahren und Instrumente effektiv zu bewerten. Insbesondere haben wir eine integrierte Methodik genutzt, um computerbasierte Anwendungen und ihre Interaktionen mit der Betriebsumgebung zu bewerten. Aktuelle Sicherheitspraktiken, -methoden, -richtlinien und -standards der ATC wurden kritisch überarbeitet, um zu ermitteln, wie sie auf das betrachtete Projekt angewendet werden können. So werden konkrete Problemfelder für die Sicherheitsbewertung in einem präoperativen Versuchsprojekt aufgezeigt und auf Basis theoretischer Grundlagen einige Lösungsmöglichkeiten in Betracht gezogen. Letztere werden beschrieben, wobei die Gründe für die wichtigsten Entscheidungen hervorgehoben werden, um eine Orientierungshilfe für die Verallgemeinerung oder Wiederverwendung zu geben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39878-3_28 057d068f0c4ed200cf959a4268a3ffdb;de;;;7.1.;;;Zu theoretischen Grundlagen der empirischen Geschäftsprozessmanagementforschung Business Process Management (BPM) hat in den letzten Jahren in Forschung und Praxis erheblich an Bedeutung gewonnen und ist zu einem der derzeit meist diskutierten Forschungsfelder in der Disziplin Wirtschaftsinformatik (IS) geworden. Ziel der BPM-Forschung ist es, in erster Linie innovative Methoden und Techniken für das Management von Geschäftsprozessen zu entwickeln und darüber hinaus Theorie aufzubauen und weiterzuentwickeln, was ein wichtiges Ziel jeder wissenschaftlichen Disziplin ist. Der Stand der Theorie gilt gemeinhin als wesentlicher Indikator für die Reife und Fundierung eines Forschungsfeldes. Dieser Artikel untersucht die theoretischen Grundlagen der empirischen BPM-Forschung basierend auf konzeptionellen Überlegungen und einem Überblick über die empirische BPM-Literatur. Unsere Analyse zeigt, dass sich die empirische BPM-Forschung nur bedingt an der bestehenden Theorie orientiert. Darüber hinaus beziehen sich die untersuchten Beiträge häufig auf Theorien, die aus anderen Forschungsgebieten, wie der Wirtschaftswissenschaften oder der Soziologie, stammen. Implikationen und das Potenzial einer dedizierten BPM-Theorieentwicklung mittels empirischer Forschung werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28108-2_32 50df7a599464ca1072cc126b87f21c87;de;;;7.1.;;;Ein Vorschlag für eine Auftragsplanungsmethode unter Berücksichtigung mehrerer Organisationen im Fertigungssystem Das Fertigungssystem umfasst mehrere Geschäftsorganisationen mit unterschiedlichen Entscheidungskriterien wie Fabriken, Verkäufer und Kunden. Es ist wichtig, den Gesamtgewinn unter Berücksichtigung der Ziele jeder Organisation durch entsprechende Anpassung zu maximieren. In dieser Studie schlagen wir die Auftragsplanungsmethode vor, die die Glaubwürdigkeit von Verkäufern nutzt. Dieses vorgeschlagene Verfahren passt das Fälligkeitsdatum zwischen dem Verkäufer und dem Kunden unter Berücksichtigung der Margenzeit an und leitet dann einen effektiven Produktionsplan ab, indem das Optimierungsproblem gelöst wird, das die gewichtete Summe der Verspätung aus Fälligkeitsdatum und Herstellungsdauer minimiert. Mehrere Computerexperimente werden durchgeführt, um die Wirksamkeit der vorgeschlagenen Methode zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29996-5_21 6efe8d6f90e3beeb897642a22d382e20;de;;;7.1.;;;ECOGRAI – Eine Methode zum Entwerfen und Implementieren von Leistungsmesssystemen für Industrieunternehmen – Konzepte und Anwendung auf die Instandhaltungsfunktion ECOGRAI ist eine Methode zum Entwerfen und Implementieren von Leistungsindikatorsystemen (PIS) für Industrieunternehmen. Basierend auf dem GRAI-Modell kann es auf alle Produktionsfunktionen (Engineering, Manufacturing, Quality, Maintenance, Delivery...) mit einem globalen Ansatz oder genauer auf nur eine Funktion angewendet werden. Die Ergebnisse des PIS-Designs sind ein kohärenter Satz von Spezifikationsblättern, die jeden Leistungsindikator beschreiben. Die Implementierung und der Betrieb dieses Systems wird durch ein EIS-Tool (Executive Information System) unterstützt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34847-6_39 3abb3b483ac6bb6fff2119a751921e74;de;;;7.1.;;;Identifizierung und Bewältigung der Herausforderungen bei der Einführung eines Projektmanagementbüros Angesichts der anhaltenden Herausforderung, IT-Projekte erfolgreich zu verwalten, erkennen Unternehmen die Notwendigkeit einer größeren Projektmanagementdisziplin. Für viele Unternehmen bedeutete dies, die Fähigkeiten, Prozesse und Governance-Strukturen im Projektmanagement durch die Implementierung eines Project Management Office (PMO) zu verbessern. Während anekdotische Evidenz darauf hindeutet, dass die Implementierung eines PMO ziemlich schwierig sein kann, diskutieren nur wenige Studien die damit verbundenen spezifischen Herausforderungen und wie Unternehmen diese bewältigen können. Um diese Wissenslücke zu schließen, führten wir eine Delphi-Studie durch, um (1) die Herausforderungen bei der Implementierung eines PMO für das Management von IT-Projekten zu identifizieren, (2) diese Herausforderungen nach Wichtigkeit zu ordnen, (3) Wege aufzudecken, wie einige Unternehmen organizations die wichtigsten Herausforderungen bewältigen und (4) die Rolle der PMO-Struktur, -Metriken und -Tools bei der Implementierung eines PMO verstehen;-;-;-;https://link.springer.com/article/10.1057/ejis.2009.29 47f50d1c96ce41002e82e31bb722c3ee;de;;;7.1.;;;Allgemeine Prinzipien der Konstruktion von Wissenscomputersystemen Dabei werden die Wissensarchitektur von Computersystemen und einige Probleme der Künstlichen Intelligenz (KI) betrachtet wie Wissenserwerb, Wissensverarbeitung, Wissensbildung etc.;-;-;-;https://link.springer.com/article/10.1007/s10559-006-0091-6 3a5640958db1be5340501f180e3b5d75;de;;;7.1.;;;Brückenschlag zwischen Analyse und Design: Verbesserung bestehender Fahrerschnittstellen mit Werkzeugen aus dem Rahmen der kognitiven Arbeitsanalyse Es werden zwei Studien zum Zugfahren vorgestellt, beide im Rahmen der kognitiven Arbeitsanalyse. In der ersten Studie wird das Modellierungswerkzeug Abstraktions-Zerlegungsraum an Routinebedingungen angepasst, wodurch die Analyse für normale Verfahren repräsentativer wird. Ein wesentlicher Beitrag zu diesen Analysen war der Einsatz der Methode zur „kollegialen Verbalisierung“. Ein besonderer Vorteil dieser Methode gegenüber anderen Verbalisierungsmethoden besteht darin, dass sie den Analysten Daten liefert, die viel mehr Informationen enthalten, jedoch nicht auf Kosten einer subjektiveren. Im Gegenteil, diese Methode erzeugt aus Videoaufzeichnungen Denkprotokolle, die vom Forscher nicht interpretiert werden müssen. Aus diesen Analysen konnten Informationen, die intrinsischer Bestandteil der Triebfahrzeugführeraufgabe sind, von Informationen unterschieden werden, die von der Konfiguration und Auslegung des aktuellen Unterstützungssystems abhängig sind. Die Analysen zeigen, dass der Fahrer in drei eher getrennten Zeitintervallen mit weitreichender, kurzfristiger und unmittelbarer Perspektive arbeitet. Zwischen diesen wechselt der Fahrer während der Fahrt zwischen zwei Stationen. Ausgehend von diesen verhaltensgestaltenden Randbedingungen wurde ein Prototyp eines Planungsbereichs einer Fahrerschnittstelle entwickelt, der eine Vorwärtsplanung für den Fahrer ermöglicht. Vier Designiterationen wurden mit einem benutzerzentrierten Systemdesign (UCSD)-Ansatz durchgeführt. Erste Tests zeigen, dass der Planungsbereich der Schnittstelle die Feed-Forward-Entscheidungsstrategie von Fahrern unterstützt, die eine aktive Fahrweise bevorzugen. Die Treibergruppe nahm jedoch auch wesentliche Änderungen am Design vor, was darauf hindeutet, dass UCSD ein effizientes Werkzeug ist, um Benutzerkompetenzen zu erfassen und die Lücke zwischen Analyse und Design zu schließen.;-;-;-;https://link.springer.com/article/10.1007/s10111-005-0018-4 9e9e67c4bcdd94828aee019c0a1bb416;de;;;7.1.;;;Reformen der philippinischen Grundbildung aus Sicht der Schlüsselelemente erfolgreicher School-Based-Management-Schulen (SBM) Es stimmt zwar, dass SBM die Richtung des Schulbetriebs prägt und vorgibt, es ist jedoch interessant zu diskutieren, wie ein Entwicklungsland wie die Philippinen von dieser Reformstrategie als strukturellen und prozessualen Rahmen bei der Steuerung seines Bildungssystems, insbesondere seiner grundlegenden Bildungssektor, der im Laufe der Jahre für seinen alarmierenden Zustand kritisiert wurde, wie seine Leistungsindikatoren zeigen. Dieser Beitrag soll einen Überblick darüber geben, wie schulbasiertes Management als Umstrukturierungsrahmen vom Grundbildungssektor, der den größten Teil des Bildungssystems des Landes ausmacht, gesehen und interpretiert wird. Konkret die acht Schlüsselelemente erfolgreicher SBM-Schulen, nämlich: (1) eine aktive Vision, (2) sinnvolle Entscheidungsbefugnisse, (3) Machtverteilung, (4) Entwicklung und Nutzung von Wissen und Fähigkeiten, (5) das Sammeln und Kommunizieren von Informationen, (6) Belohnungen für Fortschritte, (7) gemeinsame Führung und (8) die Pflege von Ressourcen, dienten diesem Diskurs.;-;-;-;https://link.springer.com/article/10.1007/s10671-006-6985-2 7b28baf4eab30e503b5d057d8aadcd9b;de;;;7.1.;;;IT in der Logistik Für die Realisierung unternehmensübergreifender Supply Chains ist die informationelle Verknüpfung von Unternehmensbereichen und kooperierenden Unternehmen ein wichtiges Mittel. Darüber hinaus müssen die internen Logistikprozesse durch geeignete Informations- und Kommunikationssysteme unterstützt werden. Zwischen diesen Systemen und den Logistikfunktionen bestehen enge Beziehungen. Ziel dieses Kapitels ist es, die vielfältigen Anwendungsgebiete von Identifikations-, Informations- und Kommunikationssystemen und deren Einsatzmöglichkeiten in Logistiksystemen vorzustellen. Darüber hinaus werden die jeweiligen Auswirkungen auf Logistikleistung, Qualität und Kosten erläutert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-01769-3_9 f73c2d5a551a26c65b8acded4be7c8ee;de;;;7.1.;;;Ein Rahmen für die Bewertung von Multi-Agenten-Systemansätzen für das Logistiknetzwerkmanagement Wir untersuchen die Anwendbarkeit von Multi-Agent-Systemen (MAS) auf das Produktions- und Logistiknetzwerkmanagement. Ziel ist es, Sets intelligenter Agenten zu erstellen und zu evaluieren, die Entscheidungen in Produktions- und Logistiknetzwerken kooperativ unterstützen und deren Leistung mit anderen traditionelleren Methoden vergleichen können. Es erfolgt eine kurze Beschreibung der Lieferketten sowie eine formale Charakterisierung des untersuchten Problemraums. Wir skizzieren einen allgemeinen Simulator, der eine systematische Bewertung verschiedener Multiagenten-Ansätze in den verschiedenen Teilen dieses Problemraums ermöglicht. Dies wird anhand einer Fallstudie zu Fernwärmesystemen veranschaulicht. Ein wichtiges Anliegen in diesem Bereich ist der Umgang mit der Unsicherheit, die durch die Diskrepanzen zwischen der geschätzten und der tatsächlichen Kundennachfrage entsteht. Ein weiteres Problem sind die zeitlichen Beschränkungen, die durch die relativ langen Produktions- und/oder Vertriebszeiten auferlegt werden. In der Fallstudie zeigen wir, wie die Auswirkungen dieser Probleme durch den Einsatz von Agentenclustern und Umverteilung von Ressourcen verringert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-7868-4_3 0441053ccbeb23b297d055e6e78def16;de;;;7.1.;;;Verarbeitung von Informationen und Daten Die Verfolgung und Verarbeitung von Informationen in jeder Form ist in jeder Phase eines Fernerkundungsprojekts unerlässlich. Immer anspruchsvollere Verarbeitungsmöglichkeiten wurden sowohl durch die Anforderungen der Fernerkundung vorangetrieben als auch eine treibende Kraft hinter der Entwicklung der Fernerkundung. Tatsächlich wurden aufgrund der großen Menge an Informationen und der großen Anzahl und Komplexität der Schritte, die zu ihrer Transformation erforderlich sind, ausgeklügelte Datenverarbeitungsfunktionen für die Fernerkundung seit langem eine absolute Notwendigkeit. Daher haben Informatik und Ingenieurwissenschaften eine wichtige Rolle in der Fernerkundung gespielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-6830-2_6 d5310c225ad6d7c17ffa6d29bd6cffd1;de;;;7.1.;;;Nutzen von Wertmodellen zur Verbesserung der Kosten-Nutzen-Analyse von organisationsübergreifenden Systemimplementierungen Die gemeinsame Entwicklung eines Business Case für interorganisationale Informationssysteme (IOS) ist schwierig, da: (1) in einem Unternehmensnetzwerk Vorteile bestehen, die möglicherweise nicht an dem Ort auftreten, an dem die Kosten anfallen, und (2) die beteiligten Akteure oft unterschiedliche sogar widersprüchliche Organisationsziele. In diesem Papier wird der Einsatz von Wertmodellen analysiert, um diese beiden Herausforderungen anzugehen und die Entwicklung von Geschäftsfällen in einem Netzwerk zu unterstützen. Wir führten eine Fallstudie durch, um die Nützlichkeit der Wertmodellierungslogik während eines IOS-Implementierungsprojekts zu untersuchen und kamen zu dem Schluss, dass die Integration der Wertmodellierung in die Geschäftsfallentwicklung dazu beitragen kann, die Qualität des Geschäftsfalls zu verbessern. Das Wertmodell ermöglicht es Geschäftspartnern, Einblicke in den Wertaustausch im Netzwerk zu erhalten und die Verteilung von Kosten und Nutzen zu überprüfen, ohne dabei vertrauliche Details zu internen Geschäftsprozessen preiszugeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32775-9_53 f2bb18c0b8516cd64bc7bcd0d3cda227;de;;;7.1.;;;Einführung der Teamschätzung in einer spezialisierten Organisationsumgebung Spezielle Organisationsumgebungen und das Fehlen von redundantem Wissen reduzieren die Flexibilität und behindern daher den Übergang zu einer agilen Entwicklung. Diese Aktionsforschung berichtet von der Einführung der Teamschätzung als Mittel zur Erhöhung des redundanten Wissens innerhalb einer Gruppe von Spezialisten. Die Gruppe litt unter einem geringen Gruppenlernen, der durch einen hohen Arbeitsdruck und ein spezialisiertes organisatorisches Umfeld legitimiert war. Dies führte zu einer schlechten Planung und optimistischen Aufgabenschätzungen, die dazu beitrugen, den Arbeitsdruck noch weiter zu erhöhen. Ich habe die Forschung als Double-Loop-Learning formuliert, ich zeige, wie verschiedene Barrieren für die Teamschätzung aus Konflikten mit bestehenden Effizienznormen entstanden sind und wie die Vorteile der Teamschätzung dann genügend Schwung für eine Veränderung der Praxis geschaffen haben. Die Ergebnisse stammen aus einer qualitativen Analyse empirischer Daten, die während einer einjährigen Zusammenarbeit mit der Gruppe gesammelt wurden. Der Artikel trägt zum Verständnis der Hindernisse für das Gruppenlernen und die agile Einführung in Softwareorganisationen bei.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13054-0_3 bb3fe003e41fa1e4a6ffca17e2c45839;de;;;7.1.;;;Ein Kommunikationsportal zwischen Testsystemen für die körperliche Fitness und Krankenhausinformationssystemen Ein nahtloser Austausch von Informationen und Kommunikation zwischen unterschiedlichen und physisch verteilten Systemen oder Geschäftsanwendungen wird heute von den meisten Unternehmen benötigt und gewünscht. Das Gesundheitswesen ist einer der wichtigsten Anwendungsbereiche, in denen solche Technologielösungen benötigt werden. Physical Fitness Testing Systems (HIMS) werden an verschiedenen Standorten verteilt. HIMS misst die physiologischen Signale des Individuums während Ruhe und Bewegung, bewertet die körperliche Fitness und verschreibt personalisiertes Training in Bezug auf Trainingsintensität, -dauer und -frequenz mithilfe eines automatischen Trainingsverschreibungsalgorithmus. Viele HIMS, die an verschiedenen Standorten eines Krankenhauses eingesetzt werden, müssen mit den Krankenhausinformationssystemen (KIS) kommunizieren, um Testreservierungen für Patienten vorzunehmen und auch um Testergebnisse und Übungsverordnungen zu erhalten. Dieses Papier schlägt ein Kommunikations-Gateway zwischen HIMS- und KIS-Systemen vor, das einen leicht zugänglichen, plattformunabhängigen, zuverlässigen und zeitnahen Informationsaustausch zwischen ihnen gewährleisten kann. Das Gateway wird über einen zentralen Webdienst bereitgestellt, der auf einer Website gehostet wird. Wenn ein HIS-Client auf die Site zugreift, wird er zunächst über den dort gehosteten zentralen Webservice authentifiziert. Es kann dann auf der Website für seine Patienten Reservierungen vornehmen. Die Liste wird in der zentralen Datenbank gespeichert und nach der Zusammenstellung als XML-String durch den auf der Site arbeitenden Dienst an einen Remote-Dienst gesendet, der auf dem einzelnen HIMS-System läuft. Der Systemdienst analysiert dann die Reservierungslisten und speichert sie in seiner Datenbank. Wenn ein Kunde später die Testergebnisse und das Trainingsrezept eines Patienten abrufen möchte, kann er über die Website darauf zugreifen. Der auf der Site arbeitende Dienst kommuniziert mit dem Remote-Systemdienst, ruft die erforderlichen Informationen als XML-String ab, analysiert und speichert die Informationen in einer zentralen Datenbank und zeigt sie dann gemäß den Präferenzen des Benutzers an, um den Kunden einen einfachen Zugriff auf ihre erforderlichen Informationen zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36841-0_1012 905ba8f7c2dc9c3e955c04fc7cb6d581;de;;;7.1.;;;Die Auswirkungen der elektronischen Rechnungsstellung auf die Ökosysteme von Unternehmen: Beweise aus italienischen Lieferketten und Vorschläge für eine Forschungsagenda 2007 legte die Europäische Kommission das Aktionsprogramm zur Verringerung der Verwaltungslasten in der Europäischen Union vor, mit dem Ziel, mit den Mitgliedstaaten zusammenzuarbeiten, um bis 2012 25 % der Verwaltungslasten für Unternehmen zu verringern. In diesem Rahmen können eine Reihe interessanter Maßnahmen zusammengefasst werden in der sogenannten Dematerialisierung, die als Ersatz der physischen Geschäftsdokumentation durch digitale Akten und Archive gedacht ist, die in Bezug auf die Effizienz bessere Leistungen erbringen können, sowie die gleichen rechtlichen Anforderungen der Dokumente in Papierform. Ziel dieses Kapitels ist es, die Ansätze einiger italienischer Lieferketten vorzustellen und einige Hinweise für weitere Forschungsentwicklungen zu geben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35761-9_20 1b6cbc41b2d3128ffec6261e8b09241f;de;;;7.1.;;;Ein Framework für entscheidungszentrierte Visualisierung im zivilen Krisenmanagement Dieses Papier beschreibt einen Rahmen für eine intelligente Visualisierung, die in Notfallsituationen zur Unterstützung des Krisenmanagementpersonals und zur Information und Instruktion der Bevölkerung eingesetzt werden kann. Die Forschungs- und Entwicklungsarbeit zu diesem Thema erfolgt im Rahmen von OASIS – einem integrierten Projekt mit Schwerpunkt auf dem Krisenmanagement-Teil des Programms „Improving Risk Management“ des IST (IST-2003-004677, siehe http://www.oasis-fp6 .org/). OASIS wurde über einen Zeitraum von 48 Monaten (beginnend im September 2004) durchgeführt und zielt darauf ab, ein generisches Krisenmanagementsystem zu definieren, das die Reaktions- und Rettungsmaßnahmen im Falle von Großkatastrophen unterstützt. Das Projekt wird von EADS (Frankreich) koordiniert. Die Arbeiten zur intelligenten Visualisierung sind Teil des Teilprojekts, das sich der angewandten Forschung und Entwicklung innovativer Werkzeuge zur erweiterten Entscheidungsunterstützung in Notfallsituationen widmet [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36728-4_33 1600e660e64f0a5e7ab8854052279528;de;;;7.1.;;;Eine modulare und flexible Netzwerkarchitektur für Smart Grids Das heutzutage in jedem Land der Welt eingesetzte und genutzte Stromnetz hat relativ gute Dienste geleistet, um eine nahtlose unidirektionale Stromversorgung von Elektrizität zu gewährleisten. Dennoch stellen sich heute neue Herausforderungen wie die Erschöpfung der Primärenergieressourcen, die Diversifizierung der Energieerzeugung und der Klimawandel. Dieses Papier schlägt jüngste Fortschritte in diesem Bereich vor, indem es SMART-NRG vorstellt, ein Marie-Curie-Projekt, an dem akademische und industrielle Partner aus drei EU-Ländern beteiligt sind. Das Projekt zielt darauf ab, neue Technologien vorzuschlagen, um die spezifischen Anforderungen von Smart-Grids-Anwendungen zu erfüllen. Insbesondere wird in diesem Beitrag eine modulare und flexible Systemarchitektur vorgestellt, um den Herausforderungen der unterschiedlichen Anwendungsszenarien zu begegnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19662-6_19 2f7a9755a40ca6c66d4f81ba834d0603;de;;;7.1.;;;Virtuelle Penetrationstests: Eine gemeinsame Bildungsübung über geografische Grenzen hinweg Dieses Papier beschreibt eine Übung, die den Business Case für Penetrationstests mit der Anwendung des Tests und dem anschließenden Management-Reporting kombiniert. Die Übung wurde für Studenten der Wirtschaftsinformatik und Informatik konzipiert, um ein ganzheitlicheres Verständnis der Netzwerk- und Systemsicherheit in einer Organisation zu vermitteln. In diesem Beitrag werden die Ziele und der Aufbau der Übung und ihre geplante Durchführung durch zwei Studentengruppen erläutert, wobei die erste Gruppe Informatikstudenten in Australien und die zweite Gruppe Studenten sind, die in einem Computersicherheitskurs in den Vereinigten Staaten eingeschrieben sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39377-8_2 1b422c84ec277090b88b945c1af8a407;de;;;7.1.;;;Telekommunikation und die Tyrannei des Weltraums Räumliche Muster ökonomischen Handelns waren nie statisch, sondern immer im Wandel. Sowohl externe Triebkräfte als auch interne Verhaltensreaktionen der Wirtschaftsakteure haben sowohl auf Seiten der Haushalte (H) als auch der Unternehmen (F) zu einem sich permanent ändernden Landnutzungs- und Standortmuster geführt. Ihre Standortmuster variierten in verschiedenen Epochen der Geschichte zwischen Streuung (D) und Konzentration (C). Die resultierenden Kombinationen von räumlichen Mustern von H und F können mit Hilfe der folgenden 2 x 2 Kreuztabellen-Darstellung veranschaulicht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-48638-8_9 163d33e30ed276013ae052c9bf2b608c;de;;;7.1.;;;Das Risikomanagementmodell des PDM-Informationssystems der Designabteilung Department Im vorliegenden Beitrag werden bestehende Methoden des Risikomanagements analysiert. Es wird nachgewiesen, dass der rationalste Mechanismus zur Kontrolle der Risiken des Informationssystems der Konstruktionsabteilung das Risikomanagementmodell ist. Dieser Mechanismus berücksichtigt die Spezifikationen des Informationssystems der Konstruktionsabteilung und ermöglicht die Reduzierung von anormalen Ereignissen, die Risiken verursachen können. Die moderne Forschung widmet sich den Problemen des Risikomanagements von Industrieunternehmen und Handelsunternehmen. Das Problem der Verwaltung des Informationssystems der Konstruktionsabteilung und die Risiken, denen solche Systeme ausgesetzt sein können, wurden jedoch nicht untersucht. Die Autoren schlugen ein neues Risikomanagementmodell des Informationssystems der Konstruktionsabteilung vor. Der Entwurf eines solchen Modells basiert auf dem Prozess der Darstellung des Risikomanagements des Informationssystems der Konstruktionsabteilung als Modell der „Black Box“ und des Strukturschemas. Die Architektur des Risikomanagementsystems des Informationssystems der Konstruktionsabteilung wird vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-65551-2_36 621b4b0f61cb50706c84832829108e95;de;;;7.1.;;;Auf dem Weg zu einer integrierten Methode für das Engineering von Digital Innovation und Design Science Research In diesem Beitrag werden Schritte zum Aufbau einer Methode für das Engineering von Innovation vorgestellt, die sowohl wissenschaftliche Genauigkeit als auch Praxisrelevanz gewährleistet. Das resultierende neue Methodenartefakt soll die Designaktivitäten, Designergebnisse und die notwendigen Rollen für Organisationen beschreiben, die Innovationen liefern. Ein wichtiges Konstrukt im Rahmen der Methode ist das Vorgehensmodell zur Beschreibung der Abfolge der Designaktivitäten. Dieser Beitrag konzentriert sich auf die Gestaltung dieses integrierten Vorgehensmodells, um sowohl praxisorientierte Innovation als auch designwissenschaftliche Forschung sicherzustellen. Seine wissenschaftliche Konstruktion wird durch einen Reverse-Engineering-Action-Design-Research-Ansatz eingeführt, der auf einer erfolgreichen Implementierung in einem Labor für gemeinsame Innovation zwischen Universität und Industrie basiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00063-9_31 eb6e778da59e1fe627a19d5a4c9f0595;de;;;7.1.;;;Modellierung der Habitateignung für Laubwald-Fokalarten – eine Sensitivitätsanalyse mit verschiedenen Satellitendaten zur Landbedeckung Wir untersuchten die Nützlichkeit von drei Satelliten-Landbedeckungsdatensätzen, die Landbewirtschaftern in Süd-Zentralschweden für die Naturschutzplanung zur Verfügung standen, unter Verwendung von vier im Laubwald ansässigen einheimischen Vogelarten mit unterschiedlichen Lebensraumanforderungen. Habitateignungsmodelle, die empirische artenspezifische Habitatparameter und ein Geographisches Informationssystem verwenden, wurden verwendet, um den Grad der Konsistenz zwischen drei verschiedenen Landbedeckungsdatensätzen zu bewerten und zu vergleichen. Das Untersuchungsgebiet umfasste 10.000 km²;-;-;-;https://link.springer.com/article/10.1007/s10980-005-3703-z a39f12541afed88c79c7c6dfcb44ba0e;de;;;7.1.;;;Startseite Informationssysteme Die meisten Dienstleister konzentrieren sich auf die Zustellung und dies beinhaltet Kommunikations- und Mehrwertdienste. Diese werden zunehmend von den Nutzern aufgegriffen und neue digitale Dienste werden allgegenwärtig. Die Nutzung von Informationen im Haushalt ist jedoch traditionell vielfältig und es ist vorgesehen, dass diese Nutzungsart fortgeführt und ausgebaut wird, zumal auch die neuen Dienste (zumindest kurzfristig) einen eigenen Speicherbedarf haben. Die Speicherung von Informationen zu Hause erfolgte bisher über eine Vielzahl von Geräten und Formaten und physikalische und logische Speichersysteme sind weit verbreitet. (z.B. Bücher und Bücherregale, Videokassetten, Audio-CDs etc.). Nun soll die Speicherung vollständig digitalisiert werden und Übergangsregelungen zeigen, dass dies nicht immer einfach ist. Die Art und Weise, wie Benutzer ihre gespeicherten Informationen organisieren, hängt weitgehend vom Format ab, in dem sie gespeichert wurden. Dies erlegt sowohl der Speicherung als auch dem Abruf von Informationen im Haushalt physische Beschränkungen auf. Einer der Hauptaspekte ist die Benutzerfreundlichkeit und der einfache Standort. Digitaler Speicher, der zwar einen einfachen, robusten, physisch kleinen und gut durchsuchbaren Speicher bietet, hat das Problem, dass spezielle Programme erforderlich sind, um das neu zu erstellen, was Benutzer von den Systemen erwarten könnten, und gleichzeitig sind sich die Benutzer möglicherweise nicht der Leistungsfähigkeit der verfügbaren Systeme bewusst für den Heimgebrauch. Wir gehen davon aus, dass sowohl die Benutzerfreundlichkeit, die Organisation der Speicherung als auch das Zugriffsprogramm des Benutzers weitreichende Auswirkungen auf die Nutzung und Anwendbarkeit zukünftiger Heiminformationssysteme haben werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35511-5_11 f1232b50f73feda249d53fd62b40dae8;de;;;7.1.;;;Erfolg mit Informationssystemen: Erweiterung des theoretischen Modells aus der Perspektive des IT-Geschäftswerts Die Informationstechnologie wird weltweit energischer denn je. Dennoch gibt es immer noch Lücken zwischen den Informationssystemen und den Geschäftsanforderungen der Organisationen, der Beitrag der Informationstechnologie zur Schaffung von Geschäftswert in den Organisationen ist noch bedeckt. Diese Studie schlägt ein erweitertes theoretisches Modell für den Erfolg von Informationssystemen aus der Perspektive des Geschäftswerts der Informationstechnologie vor, basierend auf der ressourcenbasierten Sichtweise der Organisation. Forschungsergebnisse externalisieren, dass diese Konstrukte namens Informationstechnologieressourcen, Leistungserwartung, Informationsqualität, Systemqualität und Systemnutzung strukturell mit der Unternehmensleistung zusammenhängen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-16657-1_12 8f9f9581a63e3dfa4c27a6ad2759b673;de;;;7.1.;;;Wie und warum unterstützen Top-Manager strategische IS-Projekte oder nicht? Vieles spricht dafür, dass die Unterstützung durch das Top-Management der wichtigste Faktor für den Erfolg von IS-Projekten ist. Dies ist insbesondere bei komplexen und groß angelegten IS-Projekten der Fall. Überraschenderweise gibt es jedoch trotz der entscheidenden Bedeutung nur begrenzte Kenntnisse über die Verhaltensweisen, die mit der Unterstützung durch das Top-Management verbunden sind, und über die Gründe für eine geringe Unterstützung. Diese Forschung zielt darauf ab, diese Lücke zu schließen, indem sie sich auf zwei Fragen konzentriert: (1) Welche Verhaltensweisen bilden die Unterstützung des Top-Managements für strategische IS-Projekte? und (2) Warum bieten Manager manchmal diese Unterstützung nicht an? Um diese Fragen zu beantworten, haben wir die Unterstützung des Top-Managements während der Implementierung von Unternehmenssystemen in fünf verschiedenen Organisationen analysiert. Wir haben fallübergreifende Analysen durchgeführt, um die Bandbreite der mit diesem Konzept verbundenen Verhaltensansätze zu bestimmen. Basierend auf unseren Forschungsfragen schlagen wir eine Taxonomie vor, die sechs Kategorien von unterstützendem Verhalten des Top-Managements umfasst, aus denen potenzielle Gründe abgeleitet werden können, strategische IS-Projekte entweder zu unterstützen oder nicht zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24355-4_37 0a479ec13337e72984178a87fbaef89f;de;;;7.1.;;;CAPPLES – Eine Methode zur Kapazitätsplanung und Leistungsanalyse für die Migration von Altsystemen Viele Unternehmen verfügen über eine Reihe von geschäftskritischen Systemen, die veraltet sind, aber für ihre Aktivitäten unerlässlich sind und nicht eingestellt werden können. Dieses Problem ist bekannt als;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48054-4_17 fcdf3296b5b82647226a339a8325166b;de;;;7.1.;;;Automatisierung der Arbeit im Rektorat der KSU: Eine Fallstudie zur Verwendung eines bildgebenden Datenbanksystems zur Verwaltung und Nachverfolgung eingehender / ausgehender Dokumente Heutzutage stehen viele Institutionen und Organisationen aufgrund der enorm ansteigenden Größe der fließenden Dokumente vor ernsthaften Problemen, und dieses Problem löst die Speicher- und Abrufprobleme aufgrund des ständig wachsenden Platz- und Effizienzbedarfs weiter aus. Dieses Problem wird mit der Zeit und der Zunahme der Größe und Anzahl von Dokumenten in einer Organisation komplexer, daher besteht ein wachsender Bedarf, dieses Problem anzugehen. Diesem Bedarf und dieser Herausforderung kann begegnet werden, indem die enorme Menge an Papierdokumenten mit einem definierten Mechanismus in Bilder umgewandelt wird, um es spezialisierten Dokumenten-Imaging-Mitarbeitern zu ermöglichen, den am besten geeigneten Bildtyp und die am besten geeignete Scanauflösung auszuwählen, wenn Dokumente gespeichert werden müssen. Dieser Dokumentenverwaltungsmechanismus versucht, falls angewendet, das Problem des Bildspeichertyps und der Bildgröße bis zu einem gewissen Grad zu lösen. In diesem Beitrag präsentieren wir eine Fallstudie, die einem angewandten Prozess ähnelt, um die Dokumente im Rektorat der King Saud University zu verwalten und in einem Bilddatenbanksystem zu speichern, um das Abrufen von Informationen und verschiedenen gescannten Bildern einfacher und schneller zu machen Arbeitsprozess und maximieren die Effizienz der Büroaufgaben des KSU-Rektors.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-3660-5_36 3727bcf2ba51ee4fd5d49f7e18c1bc41;de;;;7.1.;;;Aspekte zur richtigen Zeit In verschiedenen Phasen des Lebenszyklus der Aspektentwicklung müssen unterschiedliche Eigenschaften von Aspekten berücksichtigt werden. Derzeit gibt es keinen integrierten Ansatz, um die geeigneten Merkmale von Aspekten in der entsprechenden Phase zu definieren oder Entscheidungen zu Evolutionszwecken zurückzuverfolgen. Unser Fokus liegt auf den frühen Aspektphasen der Entwicklung – Anforderungsanalyse, Architekturdesign und Detaildesign – wo es bereits viele verschiedene Ansätze gibt, die nützliche Konstrukte und Mechanismen bieten, um die verschiedenen Eigenschaften von Aspekten zu erfassen, die in der jeweiligen Phase im Spiel sind. Es ist jedoch schwierig, mit unterschiedlichen Ansätzen zwischen den Phasen zu wechseln. In diesem Papier beschreiben wir eine Aspektzuordnung von Anforderungen über Architektur bis hin zu Design: insbesondere Theme/Doc (Anforderungen), CAM (Architektur) und Theme/UML (Design). Das Mapping umfasst Heuristiken, um den richtigen Zeitpunkt zum Spezifizieren der richtigen Aspekteigenschaften zu bestimmen. Darüber hinaus können in jeder Phase erfasste Aspektentscheidungen gegebenenfalls in späteren Phasen verfeinert werden. Dies bietet zwar einen integrierten Ansatz für die Aspektspezifikation, reicht jedoch nicht aus, um die Nachvollziehbarkeit von Aspektentscheidungen zu erleichtern. Zu diesem Zweck beschreiben wir auch ein Mittel zur Erfassung von Entscheidungen, die die betrachteten Alternativen und die Entscheidungsbegründung erfassen. Diese Informationen sind entscheidend für die Verwaltung der Aspektentwicklung zum richtigen Zeitpunkt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77042-8_3 27d38489c5989d03014b227ae03bbafb;de;;;7.1.;;;Ein strukturierter Vergleich von Sicherheitsstandards Es gibt eine Reihe unterschiedlicher Sicherheitsstandards und es ist schwierig, den richtigen für ein bestimmtes Projekt auszuwählen oder zu beurteilen, ob der richtige Standard für eine Zertifizierung ausgewählt wurde. Diese Standards sind oft lange und komplexe Texte, deren Lesen und Verstehen viel Zeit in Anspruch nimmt. Wir stellen ein konzeptionelles Modell für Sicherheitsstandards bereit, das sich auf bestehende Forschungsergebnisse stützt und Konzepte und Phasen von Sicherheitsstandards enthält. Darüber hinaus haben wir basierend auf diesem Modell eine Vorlage entwickelt, die für einen gegebenen Sicherheitsstandard instanziiert werden kann. Diese instanziierten Vorlagen können verglichen werden und helfen Software- und Sicherheitsingenieuren, die Unterschiede der Sicherheitsstandards zu verstehen. Insbesondere erklären die instanziierten Templates, welche Informationen und welchen Detaillierungsgrad ein Systemdokument nach einem bestimmten Sicherheitsstandard enthält. Wir haben unsere Methode auf die bekannten internationalen Sicherheitsstandards ISO 27001 und Common Criteria sowie den deutschen IT-Grundschutz angewendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07452-8_1 9e4b58306611dfbac27b8a12837ea955;de;;;7.1.;;;Ertragssicherungsmodell für Projektmanagement-Organisationen, die Outlier Mining verwenden Using Die Steigerung der Wettbewerbsfähigkeit auf den globalen Märkten hat zur Notwendigkeit von Verbesserungen bei Projektmanagement-Organisationen geführt, die darauf abzielen, die finanzielle Gesundheit und die Einnahmen zu steigern. Revenue Assurance kombiniert statistische Techniken, Umfang, Zeit und Risikomanagement mit dem Ziel, die Kosten zu senken und den Umsatz in Organisationen, die sie anwenden, zu maximieren. Ziel dieser Arbeit ist es, ein Erlössicherungsmodell für Projektmanagement-Organisationen vorzustellen, das die Erkennung von Planungsfehlern und die Erlösmaximierung während der Projektentwicklung ermöglicht. Als Teil der Forschungsneuheit kombiniert das vorgeschlagene Modell Risikomanagement, Ausreißer-Mining und Soft-Computing-Techniken. Das Risikomanagement wird mit einem proaktiven Ansatz entwickelt, der auf der Anwendung von Computern mit Worten zur qualitativen Risikobewertung basiert. In der Forschung werden Kreuzvalidierungstests durchgeführt, die verschiedene Techniken zur Erkennung von Anomalien vergleichen. Im Vergleich werden Projektmanagement-Datenbanken für die Entwicklung von Computerlösungen verwendet. Das Modell wird in eine Plattform für integriertes Projektmanagement eingeführt und die Ergebnisse seiner Anwendung vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00940-3_10 500c5839e4863f40e986949ccb0ff8e9;de;;;7.1.;;;Auftragsmengenverteilungen in der Kundeneinzelfertigung: Auf welcher Aggregationsebene werden Standardannahmen respektiert? Dieser Beitrag stellt sowohl eine analytische als auch eine numerische Untersuchung der Bestellmengen vor, die ein Unternehmen in Form von Kundenaufträgen erhält. Es wird eine Diskussion von Annahmen über das Nachfrageverhalten in Form von Kundenaufträgen aus verschiedenen Perspektiven innerhalb der Fertigungsplanung und -steuerung mit besonderem Fokus auf das Auftragsfertigungsumfeld vorgestellt. Es wird ein methodischer Rahmen gegeben, um das Verhalten von Aufträgen zu analysieren und die Gültigkeit der Annahmen zu untersuchen. Darüber hinaus wird ein analytischer Ansatz zur Ermittlung des für die Aggregation von Aufträgen erforderlichen Zeithorizonts zur Erzielung einer stabilen Nachfrage entwickelt und anhand von Daten aus einem realen Fall getestet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33980-6_10 9ae49758baa111d231fbfc27cbb5a65f;de;;;7.1.;;;Clinical Governance Initiative: ein Fall einer Geburtsklinik Ziel dieser empirischen Untersuchung ist es, die Ebenen zu entschlüsseln, auf die die Clinical-Governance-Initiative emotionale Intelligenz, Versorgungsethik und Wissenstransfer hebt. Seit Mai 2011 wurde über einen Zeitraum von 8 Monaten eine Fallforschung im Längsschnitt durchgeführt. Die Sammlung von Krankenhausdokumenten, Feldbeobachtungen und eingehende Interviews trugen zur Datensammlung bei. Durch Inhaltsanalyse wurden Forschungsdaten in Beziehungsmuster zwischen Konstrukten kodiert. Die Ergebnisse zeigten, dass eine klinische Governance-Initiative, wenn sie effektiv umgesetzt wird, als Hebel für Transformationen in emotionaler Intelligenz, Pflegeethik und Wissenstransfer dienen kann. Diese Forschung zeichnet eine Landschaftsgestaltung der Wirksamkeit klinischer Governance und ihrer organisatorischen Ergebnisse wie emotionale Intelligenz, Versorgungsethik und Wissenstransfer in einem Geburtsklinikum.;-;-;-;https://link.springer.com/article/10.1057/hs.2014.7 48a9533c61157ce580f46e24b7d99bbb;de;;;7.1.;;;Mehrstufiger Serviceansatz zur flexiblen Unterstützung von Designprozessen Die Notwendigkeit, schnell auf neue Marktchancen zu reagieren, und die hohe Variabilität der Verbraucheranforderungen führen dazu, dass Industrieunternehmen ihre gewählte Organisation überprüfen, um ihre Reaktionsfähigkeit zu verbessern und die Kopplung mit der Geschäftsabwicklung zu erleichtern. Daher benötigen diese Unternehmen Agilität in ihren Informationssystemen, um die Skalierbarkeit der Geschäftsanforderungen und die Flexibilität der Designprozesse zu ermöglichen. Wir schlagen in diesem Papier die Geschäftsaktivitäten als Service basierend auf dem Service-Paradigma vor und während ein Designprozess aus agilen Services-Orchestrierungen besteht. Wir diskutieren das Interesse an einem serviceorientierten Ansatz und schlagen eine mehrschichtige Architektur für die Umsetzung von Designprozessen vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41263-9_20 4b1381607c69c7ab41c218267df715fa;de;;;7.1.;;;Agiles technisches Management von Industrieverträgen: Scrum-Entwicklung von Bodensegment-Software bei der Europäischen Weltraumorganisation ESOC (das Operationszentrum der Europäischen Weltraumorganisation) experimentiert mit Agile- und Scrum-Methoden, um die Produktivität zu verbessern, die Transparenz und Kontrolle von Projekten zu verbessern, die Markteinführungszeit zu verkürzen, die Softwarequalität zu verbessern und die Benutzerzufriedenheit zu erhöhen. In diesem Artikel präsentieren wir Erkenntnisse aus der Anwendung von Agile im Allgemeinen und Scrum im Besonderen auf eine Reihe von Projekten, von der Anwendung einiger Agile Best Practices bis hin zu vollständigem Scrum. ESOC hat seine Software traditionell mit einem Wasserfall-Lebenszyklus entwickelt, meist unter Festpreisverträgen. In diesem Zusammenhang bringt die Verwendung von Agile Herausforderungen aus der Perspektive des Projektmanagements, der Verträge und der Qualitätskontrolle mit sich. Mit einem Coaching-Ansatz, der von SixSq, einem auf agiles und Scrum-Coaching und -Entwicklung spezialisierten Unternehmen mit Sitz in der Schweiz, bereitgestellt wird, ist es der Organisation gelungen, die Integration von Scrum zu beschleunigen, einschließlich Industrieteams, die die Software entwickeln, und erzielt bereits positive Ergebnisse, die für die Zukunft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20677-1_21 a3feb2b67ced0d29f07cfd6ac56a9237;de;;;7.1.;;;Unterstützung bei der Integration von strukturierten Methoden und Qualitätsmanagementsystemen Es wird eine Einschätzung des Standes der Softwareindustrie hinsichtlich Methoden und Qualität präsentiert, die die Tatsache hervorhebt, dass Methoden häufig modifiziert werden, um bestimmten Situationen gerecht zu werden. Die möglichen Gefahren einer informellen Herangehensweise werden detailliert beschrieben, und es werden Problembereiche vorgeschlagen, die die Branche angehen muss. Die Maßnahmen zur Sicherstellung der Qualität werden detailliert beschrieben und eine Methode, MEWSIC (Method Engineering With Stakeholder Input and Collaboration), skizziert, die darauf abzielt, die Entwicklung situativer Methoden zu formalisieren, damit Verbindungen zu Qualitätssicherungsprozessen hergestellt werden können behalten. Es wird ein Überblick über MEWSIC auf hoher Ebene gegeben und dann werden die beiden Phasen der Methode detailliert beschrieben, wodurch der kollaborative Charakter des Ansatzes hervorgehoben wird. Abschließend wird eine Einschätzung der MEWSIC-Methode und ihres Anwendungsbereichs vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-1303-4_10 f62f491a3e7ae4462719054cc57360c5;de;;;7.1.;;;Eine integrierte Anwendung von Sicherheitstestmethoden auf E-Voting-Systeme Verschiedene technische Gremien haben Methoden entwickelt, um Tester bei der Auswahl, dem Entwurf und der Implementierung der am besten geeigneten Sicherheitstestverfahren für verschiedene Kontexte anzuleiten. Ihre allgemeine Anwendbarkeit wird selbstverständlich als notwendiges und positives Merkmal angesehen, hat aber eine komplexe Anpassungsphase an die zu testenden Systeme zur Folge. In dieser Arbeit zielen wir darauf ab, eine vereinfachte, aber effektive Methodik zu entwickeln, die auf die besonderen Anforderungen im Zusammenhang mit der Sicherheitsprüfung von E-Voting-Systemen zugeschnitten ist. Wir verfolgen unser Ziel, indem wir für jeden besonderen Aspekt dieser Systeme die am besten geeigneten Verfahren auswählen, die in den am weitesten verbreiteten Sicherheitstestmethoden zu finden sind, und gleichzeitig die spezifischen Einschränkungen berücksichtigen, die sich aus dem E-Voting-Kontext ergeben, um die ein Übermaß an Allgemeinheit, das mit ihnen einhergeht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15158-3_19 77c7c16e14f7b98bb70d618707276e44;de;;;7.1.;;;Ein kollaboratives Entscheidungsunterstützungsmodell für den maritimen Sicherheits- und Sicherheitsbetrieb Zusammenarbeit und Selbstorganisation sind Kennzeichen vieler biologischer Systeme. Wir präsentieren das Design für ein intelligentes Entscheidungsunterstützungssystem, das diese Eigenschaften nutzt: Es funktioniert durch ein kollaboratives, selbstorganisierendes Netzwerk intelligenter Agenten. Das System wurde für den Bereich Marine Safety and Security entwickelt und soll bei der Verwaltung einer komplexen Reihe von Ressourcen sowohl im Routine- als auch im Notfalleinsatz helfen. Insbesondere muss dieses System in der Lage sein, mit einem dynamischen Umfeld und der Existenz von Unsicherheit umzugehen. Die dezentrale Steuerungsstruktur eines kollaborativen selbstorganisierenden Systems verstärkt seine Anpassungsfähigkeit, Robustheit und Skalierbarkeit in kritischen Situationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15234-4_26 a9bdc7508781be40e582fead27ec517d;de;;;7.1.;;;Entwurfsmuster für den Bankbau von verteilten Steuerungssystemen In diesem Papier beschreiben wir das Design und die Entwicklung einer Simulation-Agent-Schnittstelle für das Benchmarking von verteilten Steuerungssystemen in Echtzeit. Diese Arbeit wird durch die Notwendigkeit motiviert, die Machbarkeit der Erweiterung eines agentenbasierten Systems auf die physische Geräteebene in Fertigungs- und anderen industriellen Automatisierungssystemen zu testen. Unsere Arbeit konzentriert sich auf die Entwicklung einer hybriden physikalischen/Simulationsumgebung, mit der Tests sowohl auf der physischen Geräteebene als auch auf der Planungs- und Terminierungsebene der Steuerung durchgeführt werden können. Als Teil dieser Arbeit haben wir das Proxy-Design-Pattern für diese Anwendung erweitert. Dieses Papier konzentriert sich auf das resultierende Software-Designmuster für das Benchmarking von verteilten Steuerungssystemen und bietet Beispiele für seine Verwendung in unserer hybriden physikalischen/Simulationsumgebung.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-36594-7_11 e558437dfbf62d00061e4d914fff0d54;de;;;7.1.;;;Entscheidungshilfe für Gemeindeinformationssystem auf Basis statistischer Methoden Method Der vorgestellte Beitrag ist eine Beschreibung der ersten Ergebnisse eines Projekts und beschreibt eine Softwarelösungsarchitektur eines Leistungsmanagementtools für die öffentliche Wirtschaft. Der Beitrag definiert die Funktions- und Systemanforderungen und deren technologische Umsetzung, Datenintegrationsverfahren sowie Konzeption und Aufbau einer Datenbank bestehend aus verfügbaren öffentlichen Datenbanken. Das Projektteam verfolgt einen multidisziplinären Ansatz – einen Methodenmix aus Wirtschaftswissenschaften, operativer Forschung und Informationstechnologie. Gegenstand der Ziele dieses Forschungsvorhabens ist eine Darstellung des aktuellen Forschungsstandes im Bereich der Anwendung nichtparametrischer statistischer Methoden (DEA, FDH) zur Analyse, Entwicklung eines Softwaretools und Vergleich der kommunalen Effizienz damit. Die Forschungsergebnisse des Projekts können mit der Erstellung des Informationssystems identifiziert werden, das aus einer Softwareanwendung zusammen mit einer Effizienzanalysemethodik besteht. Das nächste Ziel besteht darin, eine Webanwendung zur Unterstützung der durch die Analysemethodik definierten Prozesse zu erstellen, die als Unterstützungswerkzeug für die einfache Verwendung durch potenzielle Benutzer dienen kann. Die statistischen Algorithmen DEA und FDH sind das Ergebnis eines Teams von Ökonomen und Statistikern und werden auf das Backend der Webanwendung portiert, indem sie einem für die Entwicklung einer Softwareanwendung zuständigen Team in Form von in R geschriebenen Funktionen zusammen mit application ein Validierungsdatensatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-40176-4_4 6981ca86531b644c8a7906c60f13882b;de;;;7.1.;;;Gestaltung agiler Lieferketten einschließlich des Kompromisses zwischen Anzahl der Partner und Zuverlässigkeit Die Zuverlässigkeit der Lieferpartner ist in agilen Lieferketten besonders wichtig, da sie anfällig für die Unfähigkeit eines Lieferpartners ist, seine hohen Reaktions- und Flexibilitätsanforderungen zu erfüllen, was zu einer Störung des gesamten Netzwerks führt. Disruption kann teure und weitreichende Folgen für die gesamte agile Lieferkette haben. Um das Risiko von Störungen zu mindern und die Zuverlässigkeit der gesamten agilen Lieferkette zu verbessern, müssen Entscheidungsträger dem Design und der Konstruktion der Lieferkette mehr Aufmerksamkeit schenken und gleichzeitig die Entscheidungen zur Beschaffungsstrategie berücksichtigen. Dieses Papier schlägt eine Reihe von Modellen für die Gestaltung agiler Lieferketten unter Verwendung von dynamischer Programmiermodellierung vor. Diese bieten Entscheidungsträgern eine systematische Möglichkeit, eine der wichtigsten Entscheidungen der Beschaffungsstrategie zu analysieren, nämlich den Kompromiss zwischen der Anzahl der Lieferpartner und der Zuverlässigkeit. Die Wirksamkeit der Modelle wird durch ihre Anwendung bei einem chinesischen Omnibushersteller anhand einer empirischen Veranschaulichung demonstriert. Die Ergebnisse zeigen, dass dieser Ansatz für diese Anwendung effektiv ist und in anderen verwandten Entscheidungsszenarien angewendet werden kann. Die in diesem Papier angebotenen Methoden bieten Managern ein praktisches Werkzeug, um ihre agilen Lieferketten unter Berücksichtigung der Kompromisse zwischen der Anzahl der Partner und der Zuverlässigkeit der gesamten agilen Lieferkette zu gestalten.;-;-;-;https://link.springer.com/article/10.1007/s00170-018-2205-5 dd506fd105c895ec4aedb8f337a0ae64;de;;;7.1.;;;Zur Evolution von Methoden zur konzeptionellen Informationssystemmodellierung Die Wirtschaftsinformatik hat mehr als ein halbes Jahrhundert Tradition in Forschung und Praxis. Der Untersuchungsgegenstand ist in all den Jahren derselbe geblieben: Informationssysteme. Aber dieses Objekt hat sich im Laufe der Zeit stark verändert. Mit der Weiterentwicklung von Plattformen und Technologien für das Design und die Implementierung großer Softwaresysteme stieg die überschaubare Größe von Informationssystemen und deren Automatisierung und Integration. Automatisierung bezieht sich auf den Anteil der von Maschinen ausgeführten Aufgaben. Integration ist die Ermöglichung ganzheitlicher Aufgaben durch entsprechende Kopplung von Anwendungssystemen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-06234-7_13 144d1afccfda9007f71cc9b7c1bb098e;de;;;7.1.;;;Geschäft, Verträge, Informationen In der vorherrschenden mechanisch-rationalen Sichtweise auf Organisationen, Geschäftsprozesse und Informationssysteme ist der Engineering-Ansatz der Lösungsweg. Eine gegensätzliche Sichtweise findet sich in Ansätzen, die vom sozialen Charakter von Organisationen und/oder der Rolle der natürlichen Sprache in der Information und Kommunikation ausgehen. In diesem Beitrag möchte ich diese Diskussion aus einem anderen und vielleicht ungewöhnlichen Blickwinkel untersuchen: einer Analyse des Rechtsvertrags als Repräsentation einer Geschäftsvereinbarung. Das klassische Vertragsrecht betrachtet einen Vertrag als einen diskreten und vollständig spezifizierten Geschäftsaustausch, während Macneil feststellt, dass ein solcher diskreter Vertrag nicht existieren kann und dass jeder Vertrag relationale Aspekte hat, die auf Erwartungen und Vertrauen basieren. Für Macneil geht es bei einem Vertrag nicht um einen fiktiven diskreten Austausch, sondern um eine gegenseitige Vereinbarung, Dinge in einer teilweise unbestimmten und ungewissen Zukunft zu erledigen. Diese Rechtsdebatte hat sowohl für die Geschäftsmodellierung als auch für das Softwaredesign Bedeutung: Geschäftsmodellierung sollte darauf basieren, wie echte Geschäfte gemacht werden und nicht auf einer rationalistisch idealisierten Sicht auf das Geschäft, und Softwaredesign sollte nicht auf das fiktive monolithische integrierte System abzielen, im Gegenteil, eine offene Struktur bereitzustellen, die menschliche Eingriffe zulässt und die Integration mit anderen und heterogenen Informationsflüssen ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94214-8_1 8b6fb76fe049a79533a682e298dafa61;de;;;7.1.;;;Ein Softwareprozess für Managementsoftwaresysteme Die Geschäftswelt von heute ist geprägt von sich sehr schnell ändernden Geschäftsbedingungen, die schnelle Reaktionen erfordern. Die Antworten sollen Ergebnisse der Entscheidungsfindung sein, unterstützt durch sorgfältig konzipierte Management-Softwaresysteme. Dieses Papier ist eine Stellungnahme, die verschiedene Faktoren diskutiert, die bei der Definition eines Softwareprozesses zur Entwicklung solcher Systeme zu berücksichtigen sind. Da sich der rasche Wandel auf die Verwaltungssoftware ausweiten wird, soll der Softwareprozess eine schnelle Konfiguration neuer Systeme aus bestehenden Komponenten und eine schnelle Neukonfiguration bestehender Systeme ermöglichen. Da die Grenze zwischen Entscheidungsunterstützungssystemen und anderen Klassen geschäftsorientierter Software zunehmend verschwimmt, verwenden wir den Begriff Managementsoftwaresysteme anstelle von Entscheidungsunterstützungssystemen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34967-1_2 85c4467a51815ba33ee337d92d166cc4;de;;;7.1.;;;Methoden zur Entwicklung von Informationssystemen Dieses Papier enthält vorläufige Ergebnisse von INDEHELA-M, einem gemeinsamen finnisch-nigerianischen Projekt, das von einem bekannten nigerianischen Softwareentwicklungsunternehmen durchgeführt wurde. Die Hauptziele des Projekts sind die Gewinnung empirischer Informationen und das Verständnis der Praxis und Probleme der Entwicklung von Informationssystemen (ISD) in Nigeria und die Förderung nigerianischer ISD-Praktiker durch verbesserte Methoden, Techniken, Praktiken und Bildung entsprechend ihren Bedürfnissen. Die Geschlechterbeteiligung bei ISD wurde auch eingeführt, um die in ISD-Projekten verwendeten Methoden und die Auswirkungen (falls vorhanden) auf die Geschlechterbeteiligung und/oder den Zugang zu Informationstechnologie zu untersuchen und ein Bewusstsein für ein ausgewogenes Geschlechterverhältnis in Softwareentwicklungsunternehmen in Nigeria zu schaffen. Dies sollte eine Bestandsaufnahme machen und die Faktoren verstehen, die zur Geschlechtertrennung innerhalb der Informationstechnologie (IT) führen. Trotz des bemerkenswerten Anstiegs des prozentualen Anteils des Zugangs von Mädchen zu Bildung stellten wir fest, dass Frauen in ISD-Projekten nicht anwesend sind oder ihnen eine marginale Rolle zugewiesen wurde. Dieses Papier beleuchtet geschlechtsspezifische Trends in der IT-Ausbildung in Nigeria und identifiziert geschlechtsspezifische Unterschiede bei den angewandten Methoden zur Entwicklung von Informationssystemen. Auch den weiblichen Zugang zur IT haben wir dokumentiert. Das Papier schließt mit dem Vorschlag, dass der Weg für Frauen eine aktive Beteiligung an der IT in Nigeria als Stellvertreter für andere Länder unter dem gleichen sozioökonomischen Umfeld ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35509-2_18 fe2b1251e6e7e5a6e45cdfd0a61c85dc;de;;;7.1.;;;Vertrauensmanagement durch Hardware-Mittel: Design-Anliegen und Optimierungen Vertrauen in sicherheitskritische Softwareplattformen ist ein sehr wichtiges Merkmal. Aus diesem Grund hat die Trusted Computing Group ein TPM-Hardwaremodul spezifiziert, das allen beteiligten Einheiten der Plattform ein hohes Vertrauensniveau durchsetzen und garantieren kann. Allerdings können die Funktionen des TPM in Systemen unter extremen physikalischen Bedingungen nicht voll ausgeschöpft werden. Um dieses Problem zu lösen, wurde in der Literatur die Verwendung eines Hardwaremoduls für spezielle Zwecke vorgeschlagen, das physisch mit einem Gerät eines Host-Sicherheitssystems verbunden ist, das als ein lokaler vertrauenswürdiger Dritter fungiert. In diesem Kapitel beschreiben wir die Hardwarestruktur eines solchen Hardwaremoduls, Autonomous Attestation Token (AAT) genannt, und diskutieren Hardware-Ressourcenbeschränkungen, Sicherheitsengpässe, die aus einem unsachgemäßen Design der verschiedenen in die AAT-Struktur integrierten Komponenten resultieren können. Wir schließen daraus, dass die Effizienz des AAT-Systems eng mit der Effizienz seiner Verschlüsselungs-Entschlüsselungseinheit mit öffentlichem Schlüssel (RSA-Verschlüsselungs-Entschlüsselungsmodul) verbunden ist. In diesem Buchkapitel gehen wir diese Probleme an, indem wir eine Entwurfsmethodik für eine geringe Hardware-Ressourcen (kleine Chipabdeckung) und eine gegen Seitenkanalangriffe resistente RSA-Hardwarearchitektur beschreiben. Die Implementierungen der beschriebenen Hardwarearchitekturen liefern sehr optimistische Ergebnisse einer sehr geringen Chipabdeckung und einer hohen Rechengeschwindigkeit, wodurch die Effizienz der vorgeschlagenen Algorithmen und des Architekturentwurfsansatzes verifiziert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-1488-5_3 8041ce22d22de1dc845f0e1f328d700f;de;;;7.1.;;;Die Herausforderung: Bereitstellung eines Informationssystems für ein klinisches Labor Dieser Artikel beschreibt Projekte zur Neugestaltung von Datenbanken in zwei separaten Laborabteilungen, die menschliche Proben mit vielen ähnlichen Methoden und Aufgaben testen. Beide Abteilungen hatten zuvor dasselbe Softwarepaket erworben, um die täglichen Labortests und den Verwaltungsbetrieb zu unterstützen. Unser Ziel war es, den Flatfile-Datenhaufen durch eine moderne Datenbank zu ersetzen und dabei die Stärken der Originalsoftware zu erhalten. Dieses Papier beschreibt kurz die Laborroutine, unser Redesign-Konzept der Structured Query Language (SQL), die Ergebnisse des Redesign-Projekts und einige gewonnene Erkenntnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4261-2_25 f5ab4828915f398008591ce887eebd8d;de;;;7.1.;;;Integration elektronischer Patientenaktendaten in das nationale Gesundheitsberichterstattungssystem, um die Berichterstattung und Nutzung von Gesundheitsdaten auf Einrichtungsebene zu verbessern Ein gut organisiertes und koordiniertes Gesundheitsberichterstattungssystem ist entscheidend für eine verbesserte Erbringung von Gesundheitssystemen und Gesundheitsdiensten. Die tansanische Regierung setzt sich seit langem dafür ein, die weltweiten Bemühungen zur Verbesserung der Qualität von Gesundheitsdaten für mehr Rechenschaftspflicht und evidenzbasierte Entscheidungsfindung durch die Einführung elektronischer Patientenakten (EMR) auf Einrichtungsebene und die Computerisierung eines nationalen Meldesystems zu unterstützen (Gesundheitsinformationssystem des Kreises (DHIS2)). Sie setzt sich auch dafür ein, dass Entscheidungsträger Zugang zu hochwertigen Routinedaten von Leistungserbringern in Gesundheitseinrichtungen bis zu den Verantwortlichen für die Durchführung von Gesundheitsprogrammen im Gesundheitsministerium haben (MOHCDGEC, 2017). Die Datenerfassung und Berichterstattung auf Einrichtungsebene ist jedoch aufgrund der manuellen Prozesse der Erfassung, Aggregation und Weitergabe von Daten fehleranfällig und aufgabenintensiv. Daher werden Daten selten verwendet, um Programme zu überwachen und Entscheidungen über die individuelle Patientenversorgung hinaus zu treffen. Ziel des Papiers ist es, mit der Einführung des elektronischen Patientenaktensystems den Entscheidungsträgern Zugang zu qualitativ hochwertigen Gesundheitsdaten, die in den Einrichtungen generiert werden, zu ermöglichen, sie wertzuschätzen und routinemäßig für die Entscheidungsfindung zu verwenden. Dabei sieht das Papier verbesserte Praktiken rund um die Datenerhebung, Berichterstattung und Nutzung sowie die Institutionalisierung von Daten durch Integrationen von EMR und DHIS2 vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-18400-1_44 9960696943801d3ea102a170bc1e75e9;de;;;7.1.;;;Regional Headquarters als multinationale globale Strategien Das Konzept des Regional Headquarters (RHQ) wurde als Teil der Organisation multinationaler Unternehmen entwickelt. Die Idee des RHQ forderte auch die amerikanischen multinationalen Konzerne, die sich bisher hauptsächlich mit den Heimatmärkten befassten, dazu, regionale Strategien in den Rahmen ihrer Managementorganisation zu integrieren, was zur Schaffung eines neuen Modells (Matrix-Organisation) durch die Kombination von Produkten führte und regionale Organisationen. Ich beschäftige mich seit 1987 mit regionalen Strategien und Strukturen multinationaler Unternehmen, insbesondere vergleichenden Studien japanischer und amerikanischer multinationaler Unternehmen und RHQs. Da der japanische Yen zu dieser Zeit stark war, nahmen die Auslandsinvestitionen japanischer Unternehmen in den Industrieländern rapide zu. In der zweiten Hälfte der 1980er Jahre, als die sogenannte Bubble Economy zu Ende ging, erreichte der jährliche Gesamtbetrag ausländischer Investitionen mit 67,5 Milliarden US-Dollar seinen Höhepunkt, und große japanische multinationale Konzerne gründeten eine Reihe von Geschäftseinheiten innerhalb derselben Region.;-;-;-;https://link.springer.com/chapter/10.1057/9781137307606_1 de9ca94917c8aa34bebf48f5d6360723;de;;;7.1.;;;Ein umfassender Ansatz für das Management virtueller Unternehmen, einschließlich Leistungsanalyse, Bereitstellung von Anreizen und Einkommensverteilung Dieses Konzeptpapier konzentriert sich auf ein umfassendes Geschäftsmodell für serviceorientierte kollaborative Netzwerke und virtuelle Unternehmen. In diesem Zusammenhang wird ein innovatives Konzept für das operative Controlling von Unternehmen vorgestellt, die in auftragsspezifisch konfigurierten kollaborativen Systemen arbeiten. Dieser Ansatz umfasst eine Vielzahl von Methoden. Der Hauptteil dieses Ansatzes berücksichtigt die Ertragsallokation basierend auf der realisierten Leistung. Daher wurde ein Konzept zur auftragsspezifischen Leistungsanalyse entwickelt. Zusätzlich werden Anreizmechanismen berücksichtigt. Mit Hilfe dieses Ansatzes stehen neue Impulse für die operative Unternehmenssteuerung und -steuerung zur Verfügung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40543-3_16 1c32e2a252da575b4c7b402d962ae65c;de;;;7.1.;;;Reiseinformationskioske im Netz – Prestige oder Profit? Eine vorläufige Studie eines norwegischen Systems in Betrieb In mehreren Bereichen der Tourismusbranche gibt es einen umfangreichen Einsatz von Informationstechnologie. Die Artikel von Poon (1988) und Stipanuk (1993) sind nur zwei Beispiele für Literatur, die sich mit unterschiedlichen Aspekten dieses Themas beschäftigt. Obwohl die meisten Technologien und Innovationen relativ neu sind, beschreibt eine Studie von Archdale et al (1992) einen bereits 1968 in Großbritannien gemachten Vorschlag für ein Destination Management System (DMS). Mehrere Autoren Kamfjord (1993), Aanonsen et.al. (1995), (Sheldon, 93) legen nahe, dass sich die Tourismusbranche in den kommenden Jahren durch neue Informationstechnologien (weiter) stark verändern wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-7598-9_15 775b2e6226a1ce5d7a2283ce69a540a8;de;;;7.1.;;;Szenarien für die Zusammenarbeit mit Schwellenländern: Erster Fokus Indien Aufgrund des Wettbewerbsdrucks in der globalen Geschäftswelt haben multinationale Unternehmen begonnen, zu kostengünstigen Quellen für Arbeitskräfte und Materialien zu migrieren, die sich typischerweise in Ländern befinden, die auch Chancen für aufstrebende Märkte bieten. In den letzten Jahren sind KMU auch daran interessiert, Geschäfte in Schwellenländern zu tätigen, was für sie einen größeren Aufwand und ein größeres Risiko darstellt, da sie weniger Ressourcen und Zeit haben, um mögliche Wege für eine neue erfolgreiche Zusammenarbeit mit diesen Ländern zu erkennen und die Hindernisse zu überwinden beim Erstellen neuer kollaborativer Umgebungen auftreten können. Diese Kooperationen implizieren nicht nur Geschäftsmöglichkeiten zur Senkung der Betriebskosten oder zur Einführung von Produkten in diese Märkte, sondern auch Innovationschancen mit Universitäten und Forschungszentren. Daher besteht das Ziel dieses Papiers darin, verschiedene Szenarien vorzustellen, um Unternehmen bei der Definition von Kooperationsstrategien zur Entwicklung neuer Geschäfts- und Innovationschancen in Schwellenländern zu unterstützen und potenzielle Risiken zu identifizieren, die sie bei der Entwicklung neuer erfolgreicher Partnerschaften in ihrer aktuellen Wertschöpfungskette unterstützen. Für jedes Szenario wurden die wichtigsten potenziellen Vorteile, Risiken und kritischen Erfolgsfaktoren identifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-84837-2_61 0c1beee9a662b79105268d829a4ae30b;de;;;7.1.;;;Vermittlungs- und Lernbeziehungen gegen Energieeffizienzbarrieren Trotz der Notwendigkeit einer gesteigerten industriellen Energieeffizienz weisen Studien darauf hin, dass kosteneffiziente Energiesparmaßnahmen nicht immer umgesetzt werden, was durch die Existenz von Energieeffizienzbarrieren erklärt wird. Das Hauptziel dieses Kapitels besteht darin, zu verstehen, wie Energieeffizienzbarrieren aus der Perspektive eines lernenden Systems überwunden werden können, nachdem ein umfassender Einblick in die zwischen den Akteuren in dieser Energieeffizienzbranche entwickelten Agenturbeziehungen gewonnen wurde.;-;-;-;https://link.springer.com/chapter/10.1007/698_2014_305 2697198fd9c1ddfe75a8870f99a3b116;de;;;7.1.;;;Ein räumliches Programmiermodell für echte globale Smart Space-Anwendungen Global Smart Spaces sollen ihren Bewohnern einen kontextbewussten Zugang zu allgegenwärtigen Diensten und Informationen ermöglichen, die für große geografische Gebiete relevant sind. Der Verkehr ist eine offensichtliche Domäne für solche globalen intelligenten Räume, da Anwendungen entwickelt werden können, um die Vielfalt sensorreicher Systeme zu nutzen, die zur Unterstützung der städtischen Verkehrssteuerung und des Autobahnmanagements sowie innerhalb einzelner Fahrzeuge eingesetzt wurden. Dieses Papier stellt ein räumliches Programmiermodell vor, das eine standardisierte Möglichkeit bietet, kontextbewusste globale Smart-Space-Anwendungen unter Verwendung von Informationen zu erstellen, die über verteilt sind;-;-;-;https://link.springer.com/chapter/10.1007/11773887_2 1f5f2f5c11f6dfd9d189cec45ef3fa37;de;;;7.1.;;;Agentenbasierte Fertigung: aus Sicht der Datenbank In diesem Artikel werden drei fortschrittliche Dienste untersucht, die von der Datenbanktechnologie bereitgestellt werden, die agentenbasierte Fertigungssysteme unterstützen können: zeitliche Modellierung, Aktivitätsdarstellung und Metamodellierung. Wir werden erklären, wie die Kombination dieser drei Dienste auf der Grundlage wohldefinierter Modelle die Beschreibung von dynamischem Verhalten ermöglicht, das für die Zusammenarbeit mit der Umwelt, die Verwaltung von Verträgen und die Nutzung von Effizienzdaten, die andere Produktionsstandorte beschreiben, nützlich ist. Wir werden dieses Papier mit der Beschreibung eines Informationsagenten illustrieren, der sich der Zusammenarbeit mit Produktionsstandorten widmet.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35390-6_10 ad1ea14079d34bd4c38d8486dd915e13;de;;;7.1.;;;Datenanalyse und Data Warehouses In diesem Kapitel werden der Prozess der technischen Datenabfrage und Berichtsoptionen besprochen, insbesondere um Organisationen zu ermöglichen, den Vorgang effektiv zu melden und zu analysieren. Das Kapitel zeigt alternative Datenspeichermethoden zur Verbesserung der Berichtsleistung und behandelt die Aufzeichnung, Speicherung und Analyse von Transaktionen, die in Unternehmenssystemen auftreten. Ein besonderer Schwerpunkt liegt auf der Entwicklung von Entscheidungsunterstützungssystemen, der Verwendung von „Big Data“, der Entwicklung von Endbenutzerabfragen, Predictive Analytics und dem Abgleich der Berichterstattung durch Data Warehousing. Das Kapitel behandelt auch die Konvergenz interner und externer Datenquellen, einschließlich Daten, die nicht formatiert sind und eine spezielle Verarbeitung erfordern, um sie in nützliche Informationsdatenbanken zusammenzuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-6799-0_13 515bfeeaf39bb0a1b0eba083bf78667f;de;;;7.1.;;;Was ist mit der Ethik von Informationssystemen passiert? Dieser Beitrag untersucht die Entwicklung von Informationssystemen und Computerethik entlang unterschiedlicher Trajektorien in den 20 Jahren seit der ersten Manchester-Konferenz und erwägt, wie die Dinge anders gewesen sein könnten und wie sie sein könnten. Entlang jeder Flugbahn hat die Herausforderung, Theorie und Praxis in Einklang zu bringen, viel Forschung angeregt. Wir bewerten einen Teil dieser Forschung in Bezug auf diese Ausrichtung, diskutieren ethische Theorien und Verhaltensweisen und untersuchen die Rolle der Bildung bei der Entwicklung von Praktikern, die sich ethisch verhalten können und tun. Wir empfehlen die Einbeziehung der Pflegeethik und mehr Forschung zum Lehren und Lernen von Ethik als Teil der persönlichen Reise von Studierenden, Lehrenden und Praktikern.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-8095-6_10 47110d47575ac390f74cc54ed702f594;de;;;7.1.;;;Gemischt-Initiative Verwaltung von Online-Kalendern Das Kalendermanagement ist als komplexe, sehr persönliche Tätigkeit erkannt worden, die bei der Formulierung zufriedenstellender Zeitpläne individuelle Vorlieben und Zwänge berücksichtigen muss. Aktuelle Kalenderverwaltungsdienste sind von zwei Einschränkungen betroffen: Die meisten von ihnen haben keine Argumentationsfähigkeiten und können dem Benutzer daher nicht bei der Verwaltung von engen Zeitplänen helfen, was die Zuweisung neuer Aufgaben besonders schwierig macht. Andere sind zu imposant, weil sie Ereignisse proaktiv planen, ohne den Benutzer in den Entscheidungsprozess einzubeziehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36608-6_11 293273219fb6d3a26e695ebaa5c46002;de;;;7.1.;;;Geschäftsführer für diversifizierte Unternehmen Dieses Kapitel basiert auf einem Papier, das Igor Ansoff 1967 mit Dick Brandenburg verfasste. Darin sagten sie voraus, welche Qualifikationen Geschäftsführer im letzten Viertel des 20. Ihre prinzipiellen Vorhersagen über Komplexität und Vielfalt der Anforderungen an die Geschäftsführer sind derzeit in der Praxis beobachtbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99599-1_15 c30ebda41047889c710668b73d06887b;de;;;7.1.;;;vPMM: Ein wertbasiertes Prozessreifemodell Ein Geschäftsprozess-Reifegradmodell bietet Organisationen Standards und Maßnahmen zur Bewertung, Definition und Verbesserung von Geschäftsprozessen und führt sie so zum Erreichen von Geschäftszielen und -werten. In diesem Papier stellen wir ein Geschäftsprozessreifegradmodell namens Value Based Process Maturity Model (vPMM) vor, das die Grenzen der bestehenden Modelle überwindet. Das vPMM ist ein Modell, das verwendet werden kann, um den Reifegrad der aktuellen Geschäftsprozesspraktiken eines Unternehmens zu bestimmen, indem auch die Fähigkeit eines Unternehmens zur Wertschöpfung berücksichtigt wird. Es hilft einer Organisation, Prioritäten für die Verbesserung ihrer Produktproduktion und/oder Bereitstellung von Dienstleistungen mithilfe einer bewährten Strategie zu setzen und die Fähigkeiten zu entwickeln, die zur Erreichung ihrer Geschäftswerte erforderlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01209-9_18 19e051d047696adca2c4c6cc188e7608;de;;;7.1.;;;Bewertung der Potenziale des Application Lifecycle Management (ALM) aus industrieller Sicht Der Begriff des Software Lifecycle Managements erfordert die Einbeziehung effektiver Software-Engineering-Prozesse, die nicht nur Entwicklung, sondern auch Bereitstellung und Wartung umfassen. Obwohl Software-Engineering-Methoden immer mehr auf den Markt kommen, weist die Softwareentwicklung nach wie vor eine beträchtliche Anzahl von Fehlern auf. Um die Komplexität der modernen Softwareentwicklung zu überwinden, stellen wir uns vor, dass Softwareentwickler sich mit neuen Tools vertraut machen sollten, um erforderliche Änderungen schrittweise vorzunehmen, indem sie die Bereitstellung rigoros verfolgen. Application Lifecycle Management (ALM) ist ein aufkommender Trend, der eine solch neuartige Haltung gegenüber der Softwareentwicklung widerspiegelt, die die Aufgaben der Softwareentwicklungs- und Systembetriebsteams eines Unternehmens vereint, Softwareartefakte von Anfang bis Ende überwacht und Verbesserungen dokumentiert. Das Ergebnis dieser Studie ist eine Anleitung für Praktiker bei der Anpassung von ALM-Praktiken von der Ideenphase bis zur Auswahl des zugrunde liegenden Toolsets. Schließlich wird eine Bewertung im industriellen Maßstab durchgeführt, um die ALM-Transformation in einer großen Unternehmensumgebung zu verwalten. Insgesamt zeigen diese Ergebnisse, dass partizipative Aktionsforschung ein robuster Ansatz ist, um komplexe Probleme des Software-Engineerings zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-56441-4_24 8c84d45b5e06d893611fd81b975a3dd1;de;;;7.1.;;;Die einst und künftige Informationsgesellschaft Im späten 20. Jahrhundert charakterisierten viele Sozialwissenschaftler und andere Sozialkommentatoren die Welt als sich zu einer „Informationsgesellschaft“ entwickelnd. Im Zentrum dieser Behauptungen stand die Vorstellung, dass neue gesellschaftliche Nutzungen von Informationen und insbesondere die Anwendung wissenschaftlicher Erkenntnisse das gesellschaftliche Leben grundlegend verändern. Zu den vermeintlichen Veränderungen zählen der Aufstieg der Intellektuellen in gesellschaftlicher Bedeutung, die wachsende Produktivität und der Wohlstand aufgrund einer zunehmend wissensbasierten Wirtschaftstätigkeit und die Ablösung politischer Konflikte durch autoritative, wissensbasierte Entscheidungen. Wir führen diese Ideen auf ihre Ursprünge in den aufklärerischen Lehren von Saint Simon und Comte zurück, zeigen, dass die empirische Unterstützung für sie nie stark war und betrachten die Dauerhaftigkeit ihrer sozialen Anziehungskraft.;-;-;-;https://link.springer.com/article/10.1007/s11186-007-9049-6 b3d72d30748a6c60c1734c0f73d2a0d1;de;;;7.1.;;;Entscheidungsunterstützung bei Großkatastrophen verstehen: Herausforderungen bei der Verteilung humanitärer Logistik Katastrophen sind durch widersprüchliche, unsichere oder fehlende Daten gekennzeichnet. Dennoch müssen humanitäre Helfer schnelle Entscheidungen treffen. Dies gilt insbesondere für die sofortige Reaktion auf eine plötzlich einsetzende Katastrophe. Da die meisten humanitären Entscheidungsunterstützungssysteme (DSS) wichtige Annahmen zur Datenverfügbarkeit und -qualität treffen, die in der Praxis oft nicht erfüllt sind, werden Entscheidungsträger weitgehend ihrer Erfahrung überlassen. In diesem Papier identifizieren wir drei Hauptherausforderungen für ein operatives DSS zur Unterstützung der Verteilungsplanung: (i) tiefe Unsicherheit, (ii) Berücksichtigung von Feldbedingungen und Einschränkungen und (iii) schnelle Modellierung der humanitären Logistik. Wir überprüfen die relevanten Theorien und geben einen Überblick über die Systemanforderungen, um ein System für Einsatzkräfte zu entwickeln, um ein zielgerichtetes Serviceniveau bei der Verteilung von Katastrophenhilfe durch angemessene Nutzung von Ressourcen, Zeit und Planung zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67633-3_9 4420d53cf565de03a2868a00d3f622a0;de;;;7.1.;;;Entwicklung und Implementierung des nationalen Computerkartensystems (das Informationssystem der japanischen Straßenverwaltung) Das japanische Straßenverwaltungs-Informationssystem (ROADIS) ist ein nationales Projekt zur Schaffung eines Computerkartensystems, das über Kommunikationsnetze sowohl Straßenverwaltern als auch öffentlichen Versorgungsunternehmen Informationen über Straßen und Versorgungseinrichtungen liefert.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0113279 da11cd7412ac2ba32296f58eed4b47c1;de;;;7.1.;;;IT-Beratung: Eine systematische Literaturübersicht Heute ist die Informationstechnologie ein fester Bestandteil jeder Art von Geschäft geworden. Unternehmen benötigen oft Experten, die über umfassende Kenntnisse bei der Lösung ihrer Geschäftsprobleme durch Informationstechnologie verfügen. Dies hat zur Entwicklung eines neuen Feldes geführt: Informationstechnologie-Beratung (oder IT-Beratung). Dieses Feld hat sich in den letzten 20 Jahren recht gut entwickelt. Diese Studie ist ein Versuch, Schwerpunkte der IT-Beratungspraxis und die damit verbundenen Herausforderungen zu identifizieren. Für diese systematische Literaturrecherche wurden 123 begutachtete wissenschaftliche Forschungsarbeiten im Bereich der IT-Beratung berücksichtigt. Nach dem Filtern dieser Papiere wurden schließlich 36 Papiere ausgewählt. Es wurden mehrere Schwerpunkte der IT-Beratung der letzten 20 Jahre und damit verbundene Herausforderungen identifiziert (Ausbildung/IT-Training, Wirtschaftsprüfung, Projektmanagement, Wissenstransfer, IT-Ökonomie, Sicherheit, Wettbewerbsfähigkeit, Anwendungen). Dieses Review Paper bietet wertvolle Informationen für Führungskräfte, die IT-Praktiken für ihre Geschäftsprobleme einsetzen möchten. Es gibt auch Richtungen für die zukünftige Forschung in der IT-Beratung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-68557-1_42 e482e52e12886b5724461a85b6cf499b;de;;;7.1.;;;E-Government und Datenschutz im öffentlichen Sektor Gesetzliche und behördliche Anforderungen und Kundenerwartungen in Bezug auf die Verwaltung und Aufbewahrung von persönlichen, finanziellen und anderen Geschäftsinformationen sind größer denn je. Da sensible Daten zunehmend innerhalb von Unternehmen und über Unternehmensgrenzen hinweg ausgetauscht werden, ist ein dauerhafter Schutz vor dem Abfangen und Einsehen durch Unbefugte erforderlich. Datenverschlüsselungstechnologien sind ein Mittel, um diesen Schutz zu erreichen. Darüber hinaus müssen Unternehmen sicherstellen, dass ihre Dokumentenmanagementsysteme und -praktiken personenbezogene Daten in Dokumenten während ihres gesamten Lebenszyklus schützen können. Das Internet und die Computernetzwerke machen neue Sicherheitsmaßnahmen und -richtlinien erforderlich, um die Bedrohungen und Herausforderungen zu verringern, die diesen neuen Technologien und Softwareanwendungen und Netzwerkgeräten innewohnen. Die Sicherheitsaspekte von Informationssystemen des öffentlichen Sektors sind wichtig, da die jeweiligen Systeme oft Teil kritischer Infrastrukturen sind oder mit personenbezogenen oder sensiblen Daten umgehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-3634-8_7 d06c6feb6ac17c1038b67ffa289fc62b;de;;;7.1.;;;Die Strategie zum Schutz personenbezogener Daten im Informationssystem der sozialen Sicherheit Das Informationssystem der sozialen Sicherheit trägt alle Angelegenheiten der sozialen Sicherheit und spielt eine immer wichtigere Rolle bei der Arbeit und der sozialen Sicherheit, aber es enthält auch viele persönliche Informationen der Bürger. Der Schutz privater Informationen wird zu einem der wichtigsten Anliegen der Öffentlichkeit. In der Analyse des Datenschutzes personenbezogener Daten im Informationssystem der Sozialversicherung werden in diesem Beitrag Strategien zum Schutz der Privatsphäre durch Umwandlung der Originaldaten vorgestellt, die einige Forschungsansätze für die Umsetzung des Datenschutzes liefern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31968-6_85 7cf87a851519f74a695bac57aeac5abd;de;;;7.1.;;;Arten von Mimetika für das Design intelligenter Technologien Mimetisches Design bedeutet, eine Quelle in der natürlichen oder künstlichen Welt als Inspiration für technologische Lösungen zu nutzen. Es basiert auf der Abstraktion der relevanten Funktionsprinzipien in einer Quelldomäne. Dies bedeutet, dass man in der Lage sein muss, die richtige Analyseebene zu identifizieren und die relevanten Muster zu extrahieren. Wie dies geschehen soll, hängt von der Art der Quelle ab. Wenn das Designziel aus mimetischer Sicht intelligente Technologie ist, ist eine offensichtliche Inspirationsquelle die menschliche Informationsverarbeitung, die wir kognitive Mimetik genannt haben. Dieser Artikel bietet eine konzeptionelle Klärung der Natur der kognitiven Mimetik, indem er sie der Bionik im Kontext intelligenter Technologie gegenüberstellt. Wir bieten eine zweiteilige Ontologie für kognitive Mimetik, schlagen einen Ansatz vor und diskutieren mögliche Implikationen für KI im Allgemeinen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-27928-8_7 00d3d81958caf22e77c33811d59f589a;de;;;7.1.;;;Objektorientierte verteilte künstliche Intelligenz Neue Typen von intelligenten Agentensystemen werden für eine potentielle Anwendung in sehr großen komplexen Systemen wie Flugsicherung, Büroinformationen, verteilte Erfassung und Interpretation und Fertigung entwickelt. In solch großen Systemen muss die Verarbeitung zunehmend auf mehrere Prozessoren und Computer verteilt werden. Es besteht auch ein Bedarf an erhöhter Modularität, Wiederverwendbarkeit und Wartbarkeit in der Software, was das Interesse am objektorientierten Programmierparadigma akzentuiert hat. Der Bereich der verteilten künstlichen Intelligenz (DAI) wird kurz vorgestellt, mit besonderem Schwerpunkt auf objektorientierten Multi-Agenten-Systemen und insbesondere Fertigungsanwendungen. Anschließend werden einige neuere Arbeiten zur objektorientierten DAI an der University of Calgary beschrieben und eine neue verteilte Inferenztechnik skizziert.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0038192 baa0c8fcbb531c7030cc4aa4e15aefee;de;;;7.1.;;;Fragen zur Governance von SCE Die in den vorangegangenen Kapiteln dargelegten Überlegungen reichen nicht aus, um ein vollständiges Bild der SCE und ihrer Disziplin zu vermitteln. Diese Regeln sind die Grundlage für nationale SCE und damit für eine als SCE organisierte landwirtschaftliche Genossenschaft. Daher ist es notwendig, einige relevante Fragen zu untersuchen, wie z. B. Governance, wobei immer zu berücksichtigen ist, dass die betrachteten Regeln gültig sind;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-44154-8_4 edb34206b9dd18989cfdd93af3fbb69a;de;;;7.1.;;;Unternehmenstransformation: Der Fall Serasa Experian In diesem Beitrag wird die Entwicklung eines Enterprise Architecture-Projekts bei Serasa Experian vorgestellt. Mit einem starken Transformationsplan benötigt Serasa Tools, um den Fortschritt der strategischen Roadmap zu überwachen. Mit diesem Projekt erreichte Serasa ein integriertes Management von Architekturansichten, Projektergebnissen und dem Fortschritt der Roadmap. Es bringt auch IT-Architekten, Projektmanager und IT-Governance zusammen, identifiziert Konzepte und eine gemeinsame Sprache und erleichtert so die Aggregation von Informationen aus diesen Gruppen zu einer konsolidierten Vision. Projektabschlüsse sind die Treiber für die Aktualisierung der Architekturansichten und den Fortschritt der Roadmap. Eine Wissensdatenbank hält die aus externen Informationsquellen gesammelten Informationen und unterstützt die automatische Generierung von Architekturansichten, die zeitlich vor- und zurückgeblättert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23388-3_7 4f97691a194184f0498a31f549eb270c;de;;;7.1.;;;Eine Studie zum Integrationsmodell von EIS basierend auf SOA In letzter Zeit war die Integration von Unternehmensanwendungen eine entscheidende Voraussetzung für den Fortschritt von EIS. Bei der Integration dieser heterogenen oder verteilten Informationssysteme treten jedoch häufig Probleme im Zusammenhang mit komplexer Verwaltung und Wartung sowie geringer Kompatibilität auf. Dennoch kann die vollständige Aufgabe des früheren Systems oder die Neuentwicklung eines neuen großartigen EIS zu kostspieligen Investitionen, einem langen Entwicklungszyklus und einem enormen Risiko führen, das mit den schnellen Serviceänderungen einhergeht. Während die serviceorientierte Architektur durch die Übernahme der Lose-Coupling-Anwendungsprogrammkomponententechnologie eine genau definierte und standardisierte Serviceschnittstelle und einen wiederverwendbaren Service bietet, die den EIS-Ingenieuren helfen können, das gesamte System schneller, zuverlässiger und wiederverwendbarer dynamisch zu konstruieren und mit die Nachfrage ändert sich leichter. Dieses Papier konzentriert sich auf das Integrationsmodell von EIS basierend auf SOA. Es schlägt die Umsetzungsvorschläge zum SOA-System und die rationale Risikoanalyse vor. Am Beispiel eines Telekommunikationsbetreibers wird dann ein Vorschlagsrahmen für die EIS-Integration auf Basis von SOA vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75902-9_69 67d24ca8a439aa145a4179e3aefe54b2;de;;;7.1.;;;Der Coras-Ansatz für modellbasiertes Risikomanagement im E-Commerce-Bereich Das CORAS-Projekt entwickelt einen praktischen Rahmen für das modellbasierte Risikomanagement sicherheitskritischer Systeme, indem es die Synthese von Risikoanalysemethoden mit semiformalen Spezifikationsmethoden nutzt, unterstützt durch eine anpassbare Tool-Integrationsplattform. Begleitet wird das Framework außerdem vom CORAS-Prozess, einem Systementwicklungsprozess auf Basis der Integration von RUP und einem standardisierten Security Risk Management Prozess, und wird von einer XML-basierten Tool-Integration-Plattform unterstützt. Das CORAS Framework und der Prozess werden in umfangreichen Anwenderversuchen in den Bereichen E-Commerce und Telemedizin validiert. Dieser Beitrag gibt einen Überblick über das CORAS-Framework, betont den Modellierungsansatz des ersten Benutzerversuchs (bezüglich des Authentifizierungsmechanismus einer E-Commerce-Plattform) und liefert einige Beispiele für die in diesem Zusammenhang verwendeten Risikoanalysen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35612-9_13 e00ee70c4358e920ad64e2ab80b555a5;de;;;7.1.;;;Prozessdesign der digitalen Plattform für Chinas Industrial Investment Fund Heutzutage boomt der Industrial Investment Fund in China. Obwohl er bis jetzt große Erfolge erzielt hat, gibt es noch einige Hauptprobleme, die die weitere Entwicklung des Industrial Investment Fund beunruhigen. Zwei große Herausforderungen sind die Erkennung geeigneter Branchen und auch verwandter Unternehmen. Um dieses Problem zu lösen, schlagen wir ein Design für die digitale Plattform des Industrial Investment Fund vor. Bei dieser Plattform werden Webtext-Extraktion und Data-Mining-Techniken eingesetzt, um Investoren zu helfen, Entscheidungen auf Big-Data-Analyse-Art zu treffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45526-5_20 837ead7ba233021c9b673aa6a4f30dec;de;;;7.1.;;;Verwendung von 3D Virtual VR-Technologie zum Aufbau einer ländlichen Landschaftsumgebung Mit der Entwicklung neuer Technologien löst die dreidimensionale virtuelle VR-Technologie das Problem, dass die Landbevölkerung den Designeffekt bei der Gestaltung ländlicher Landschaften nicht wirklich spüren kann, und trägt dazu bei, das Erscheinungsbild und den Bau des Dorfes im Rahmen der Revitalisierung zu verbessern der ländlichen Gebiete. Der Bau einer ländlichen Landschaftsumgebung verwendet VR-Technologie, um den Menschen verschiedene Sinneserfahrungen zu vermitteln. Das Aufkommen der VR-Technologie hat neue Veränderungen in der Landschaftsgestaltung mit sich gebracht. Um die Entwicklung der virtuellen 3D-VR-Technologie bei der Entwicklung einer ländlichen Landschaftsumgebung zu unterstützen, zielt dieser Artikel darauf ab, dreidimensionale virtuelle VR-Technologie zum Bau einer ländlichen Landschaftsumgebung zu verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-53980-1_47 ac93dd587fd5e1b5bee9397594160a4b;de;;;7.1.;;;Effiziente Planung in großen POMDPs durch politikgraphbasierte faktorisierte Approximationen Teilweise beobachtbare Markov-Entscheidungsprozesse (POMDPs) werden häufig für die Planung unter Unsicherheit verwendet. In vielen Anwendungen macht die enorme Größe des POMDP-Zustandsraums eine einfache Optimierung von Plänen (Richtlinien) rechnerisch schwer zu handhaben. Um dies zu lösen, führen wir einen effizienten POMDP-Planungsalgorithmus ein. Viele aktuelle Verfahren speichern die Richtlinie teilweise durch einen Satz von „Wertvektoren“, die bei jeder Iteration aktualisiert werden, indem ein Schritt weiter geplant wird. Die Größe solcher Vektoren folgt der Größe des Zustandsraums, was die Berechnung für große POMDPs unhandlich macht. Wir speichern die Richtlinie nur als Graph, was handhabbare Näherungen in jedem Richtlinienaktualisierungsschritt ermöglicht: Für einen Zustandsraum, der durch mehrere Variablen beschrieben wird, approximieren wir Annahmen über zukünftige Zustände mit faktorisierten Formen, wodurch die Kullback-Leibler-Divergenz zu den nicht faktorisierten Verteilungen minimiert wird. Unsere anderen Beschleunigungsannäherungen beinhalten die Begrenzung potenzieller Belohnungen. Wir demonstrieren den Vorteil unserer Methode bei mehreren Verstärkungslernproblemen im Vergleich zu vier vorherigen Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15939-8_1 2fb9f979bb10933ab6dda0177d22d0f9;de;;;7.1.;;;Erstellung von Feature Sets für die Entwicklung eines integrierten Prozessplanungssystems Unsere Forschung hat sich zum Ziel gesetzt, ein computergestütztes Prozessplanungssystem für den Bearbeitungsprozess in der dynamischen Fertigungsphase zu generieren. Für dieses Ziel entwickeln wir einen Feature Sets Creator, der zur Generierung mehrerer Prozesspläne führen kann. Die Generierung mehrerer Prozesspläne eines Teils soll alternative Pläne bei der Ermittlung optimaler Prozessplansätze für alle Teiletypen in der Werkstatt bereitstellen und Flexibilität in der Werkstattplanung bieten. Der Feature Set Creator ist in 2 Phasen unterteilt. Erstens erkennen wir durch die Verwendung der Modified Super Relation Graph Method (Modified Super Relation Graph Method) interagierende und überlappende Merkmale auf verschiedene Weise, entsprechend unterschiedlichen Bearbeitungsvorgängen. Die zweite Phase ist die Feature-Organisationsphase. Hier organisieren wir erkannte Features in mehrere Feature-Sets. In dem Papier werden wir eine Fallstudie präsentieren, um die Gültigkeit des Feature-Set-Erstellers zu bestätigen.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-23852-2_31 759e9c16dcd752f3750c59c5d0030afc;de;;;7.1.;;;Der Erfolg von Electronic Government und die Gesamtsicht der Informationstechnologie In diesem Kapitel werden einige der umfassenderen und integrativeren Theorietraditionen aus der Wirtschaftsinformatik (IS) und der E-Government-Forschung besprochen. Orlikowski und Iacono (2001) bezeichnen diese Ansätze als Ensemble-Ansicht von Informationstechnologien und Organisation. Diese Sichtweise argumentiert, dass es zum Verständnis von Informationstechnologien notwendig ist, nicht nur die technologischen Artefakte zu analysieren, sondern auch die sozialen und organisatorischen Aspekte um diese Artefakte herum.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-2015-6_2 229ffa46de88fe10d65f46ae52e6f01b;de;;;7.1.;;;Verständnis der wichtigsten technischen Änderungen für die Materialwirtschaft in der ETO-Umgebung Forscher haben erkannt, dass technische Änderungen, die sich auf den Betrieb auswirken, ein Haupthindernis für die Lieferung des Produkts in der ETO-Umgebung darstellen. Es gibt jedoch nur wenige wissenschaftliche Literatur, die sich mit Quellen für technische Änderungen befasst, die sich auf die Materialverwaltung während des gesamten Auftragserfüllungsprozesses in einer ETO-Umgebung auswirken. Die zentrale Forschungsfrage, die in diesem Papier behandelt wird, ist, wie die wesentlichen Quellen für technische Veränderungen, die Materialien in der ETO-Umgebung beeinflussen, identifiziert und kategorisiert werden können. Aufgrund der Natur unterschiedlicher Lieferkettenkonfigurationen gibt es innerhalb und zwischen diesen Unternehmen unterschiedliche Situationen bei technischen Änderungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22759-7_30 9f4b2490b40936e5f1200c8f3c3f1c98;de;;;7.1.;;;Engineering Design: Ein Systemansatz Der Zweck dieses Kapitels besteht nicht darin, alle Aspekte des Entwurfs eines technischen Systems zu behandeln, sondern den Entwurfsprozess unter Verwendung des Systemansatzes zu erörtern, den die Konstruktionsabteilung oder Abteilung einer Fertigung insbesondere in den Bereichen Elektronik, Luft- und Raumfahrt, Maschinenbau beschäftigt Werkzeugsektor und die Hersteller von Konsumgütern wie Automobile, Büro- und Haushaltsgeräte und in vielen anderen Bereichen nutzen können. Für einen Hersteller ist die;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84800-131-2_2 284c3a3f1db11d20668b607e502b6b31;de;;;7.1.;;;Nutzung aktiver Wissensmodelle in einer Infrastruktur für virtuelle Unternehmen In diesem Beitrag stellen wir einen neuartigen Ansatz zur Unterstützung der Entwicklung und des Betriebs virtueller Unternehmen vor. Der Ansatz basiert auf der Nutzung aktiver Wissensmodelle (AKM;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35585-6_38 729377efbba9a90edc48fd4337e5a62c;de;;;7.1.;;;Darstellung und Argumentation mit Rückverfolgbarkeit im Modelllebenszyklus-Management Die Entscheidungsfindung mithilfe von Modellen ist ein iterativer Prozess, der die Modifikation, Ausarbeitung und Verfeinerung von Modellen umfasst. Betriebsszenarien, Anforderungen und Annahmen, die den Modellen zugrunde liegen, entwickeln sich oft im Laufe der Zeit und erfordern eine Neuformulierung. Darüber hinaus werden viele Entscheidungen und Kompromisse getroffen, die sich auf die Modellkomponenten auswirken. Unter diesen Umständen ist es wichtig, die Rückverfolgbarkeit von Modellen auf die verschiedenen Komponenten zu gewährleisten, die sich auf ihre Erstellung und Wartung auswirken. Wir präsentieren einen Rahmen für die Entwicklung der Modellrückverfolgbarkeit. Wir beschreiben ein prototypisches Entscheidungsunterstützungssystem, das die Darstellung und Argumentation mit Rückverfolgbarkeitsinformationen unterstützt. Intelligente Entscheidungsunterstützung für verschiedene Stakeholder in der Modellentwicklung und -verwaltung wird in den Bereichen Wissenserwerb und -navigation, Wissenszugang, Modellentwicklung, Designreview und Wissensintegration dargestellt.;-;-;-;https://link.springer.com/article/10.1023/A%3A1018951227810 cf96a0010ebf0ec35ada84558166abad;de;;;7.1.;;;Design von Agrarproduktqualität und -sicherheit Big Data Fusionsmodell basierend auf Blockchain-Technologie Bei der Verarbeitung von Qualitäts- und Sicherheitsdaten für landwirtschaftliche Produkte hat das traditionelle Modell Probleme wie lange Verzögerungen und redundante Speicherung. Basierend auf der Blockchain-Technologie, kombiniert mit historischen Daten, Echtzeit-Datenfunktionen, externen gemeinsam genutzten Datenfunktionen und früheren Forschungsergebnissen, werden die Daten daher tief integriert und das Big-Data-Fusionsmodell für landwirtschaftliche Produktqualität und -sicherheit entwickelt. Erstellen Sie ein Big-Data-Fusion-Framework auf der Grundlage der Blockchain-Technologie, um Qualitäts- und Sicherheitsdaten für landwirtschaftliche Produkte vernünftig und effizient zu sammeln und zu verarbeiten und die Qualität und Sicherheit der Integration von Big Data für landwirtschaftliche Produkte zu realisieren. Die Datenarchitektur wird im Big-Data-Fusion-Modell vorgeschlagen, und die Erhebungs- und Datenspeicherungsmethoden des Qualitäts- und Sicherheitsüberwachungssystems sind darauf ausgelegt, eine effiziente Datensammlung und -speicherung zu erreichen. Das Experiment beweist, dass das Big-Data-Fusionsmodell für landwirtschaftliche Produktqualität und -sicherheit gewisse Vorteile gegenüber dem traditionellen Modell hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36402-1_23 872689d6912310ebc12c4bba5c50d19a;de;;;7.1.;;;Verbesserte Span-Time-Leistung bei NPD durch bessere Koordination Neue Produktentwicklungsprozesse (NPD) sind durch Unsicherheit und Iteration gekennzeichnet, was ihre Planung und Verwaltung erschwert. Ein neuartiges dynamisches Modell der NPD, das Kommunikationstechniken explizit modelliert, wird verwendet, um Möglichkeiten zu untersuchen, um die Spannenzeit und die Leistung durch verbesserte Koordination zu verbessern. Ergebnisse von Simulationen unter verschiedenen Szenarien epistemischer und aleatorischer Unsicherheit veranschaulichen, wie durch Koordination und Anpassung agiler NPD-Methoden an die Nicht-Software-Produktentwicklung eine signifikant bessere Leistung erzielt werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35758-9_27 489cdf36c0c4daf26b415678a82e7349;de;;;7.1.;;;Design von aktiven holonischen fehlertoleranten Kontrollsystemen Die adäquate Evaluierung neuer Technologien in Produktivsystemen, die mehrere und gleichzeitige Prozesse ausführen und die intensive gemeinsame Nutzung von Ressourcen erforschen, erfordert die Aktualisierung von Überwachungs- und Kontrollsystemen. Auf der anderen Seite sind völlig unfehlbare Systeme unrentabel, und damit ein flexibles Produktivsystem (FPS) keine Unterbrechungen durch Komponentenausfälle erleidet, ist das Konzept von AFTCS (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19170-1_40 4c8ac939548d97911a91f7920ae61353;de;;;7.1.;;;Zerlegung des Fertigungssystemdesigns für Nachhaltigkeit Das Papier bietet Einblicke in den Definitionsprozess der Betriebsstrategie. Während die Literatur nach dem Konzept der Fertigungsstrategieinhalte mit Wettbewerbsprioritäten, Entscheidungskategorien und Fertigungskapazitäten sucht, um die Ambitionen der Strategiedefinition zu erklären, zeigt die Praxis Schwierigkeiten bei der praktischen Anwendung dieses übergeordneten Konzepts. Nachhaltigkeit und die breite Palette von Gründungsmöglichkeiten und -richtlinien machen es Unternehmen schwer, den Sprung zu einem wirklich nachhaltigen Unternehmen zu schaffen. Basierend auf der Methodik des axiomatischen Designs entwickelt die Studie in einem präskriptiven Forschungssetting ein Meta-Framework zur Unterstützung der Strategiedefinition in produzierenden Unternehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44736-9_31 ef329ce021d08e2ca6a2a188ed9e4b70;de;;;7.1.;;;Trends, Herausforderungen und Chancen in der Spoken-Dialogue-Forschung Die Technologie des gesprochenen Dialogs hat sich in den letzten dreißig Jahren sowohl im Hinblick auf die Forschungstätigkeit als auch im Hinblick auf kommerziell genutzte Anwendungen erheblich weiterentwickelt. Dieses Kapitel gibt einen Überblick über Trends in der Dialogforschung auf der Grundlage einer Analyse von Beiträgen, die 1989, 1999 und 2009 auf den Konferenzen Eurospeech-Interspeech präsentiert wurden in kleinen Gruppen, die tragfähige End-to-End-Dialogsysteme aufbauen möchten, und die Schwierigkeiten, auf die man oft stößt, wenn man versucht, auf die vielen Ressourcen und Werkzeuge zuzugreifen, die für den Dialog akademischer Forscher bei der Forschung erforderlich sind. Das Kapitel schließt mit einer Diskussion einiger Möglichkeiten für zukünftige Forschungen, einschließlich der Integration von Dialogtechnologie in Sprachsuchanwendungen und der Anwendung gesprochener Dialogtechnologie in Umgebungen mit Umgebungsintelligenz.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-7934-6_6 96dd88c661727cd3b987da8804e8a585;de;;;7.1.;;;Die drei Ebenen der Weisheit Dieses Kapitel entwickelt den Weisheitsrahmen, der in den späteren empirischen Abschnitten des Buches angewendet wird. Das Framework enthält drei verschiedene, aber miteinander verbundene Weisheitsebenen, die als rational-analytische Information, intuitiv-erfahrungsbasiertes Wissen und philosophische Weisheit bezeichnet werden. Die erste, rational-analytische Information, erzeugt Wissen auf der Grundlage eines rationalen Entscheidungsfindungsmodells, das sich oft auf formale Techniken wie die Kosten-Nutzen-Analyse in den Wirtschaftswissenschaften stützt. Das zweite, intuitiv-erfahrungsbasierte Verständnis, geht von einer ganzheitlicheren Reflexion der Situation aus, die intuitive Einsichten verwendet, um die Ergebnisse der rationalen Analytik neu zu bewerten und zu bereichern. Intuition wird als eine Reihe von verkörperten, emotional aufgeladenen und unmittelbaren Einsichten und Verständnissen konzeptualisiert, die ohne bewusstes Denken oder bewusste Analyse entstehen. Unter Hinweis auf einige Unzulänglichkeiten in den Diskussionen zur Ontologie der Intuition geht das Kapitel dann dazu über, die umfassendste Ebene der Weisheit zu skizzieren, nämlich das platonisch-sokratische Verständnis von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-91719-1_2 5e23f441ffc40f8a3bbb0c1c3c0de5a8;de;;;7.1.;;;Finnische Cybersicherheitsstrategie und -implementierung Technische und automatisierte Lösungen und Informationsnetze, die eine schnelle und kosteneffiziente Planung, Anleitung und Umsetzung ermöglichen, sind in der finnischen Informationsgesellschaft weit verbreitet. Die Kehrseite dieser Entwicklung ist die zunehmende Abhängigkeit von umfangreichen und komplizierten technischen Systemen und Informationsnetzen. Ausfälle in diesen Systemen oder beispielsweise in deren Stromversorgung können sich schnell auf die umfassende Sicherheit der Gesellschaft auswirken. Bedrohungen der Sicherheit in der Gesellschaft sind vielfältiger und damit komplizierter geworden. Bedrohungen lassen sich nicht mehr eindeutig in militärische und nicht-militärische Bedrohungen oder interne und externe Bedrohungen unterteilen, sie sind oft miteinander verflochten, schwer vorhersehbar und kurzfristig eintretend. Innere Sicherheit und äußere Sicherheit sind immer mehr miteinander verflochten und oft nicht sinnvoll oder gar nicht voneinander zu trennen. Cyber-bezogene Spionage, Verbrechen und Operationen zwischen Staaten nehmen zu und der Trend scheint zuzunehmen (Turvallinen Suomi: Tietoja Suomen kokonaisturvallisuudesta;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-18302-2_9 e7704e1abf70ea06265d799056d6a022;de;;;7.1.;;;Automatisierungsplattformunabhängiges Multiagentensystem für robuste Netzwerke von Produktionsressourcen in der Industrie 4.0 Das Cyber-Physical Production System (CPPS) ist ein Konzept, das aus Software- (Cyber) und Hardware- (physischen) Anwendungen abgeleitet ist und auf dem globalen Informationsaustausch zwischen solchen Systemen basiert. Das CPPS gilt als Trend der Industrie 4.0 (I4.0) mit Fokus auf Flexibilität bei neuen Produkten und Anpassungsfähigkeit an neue Anforderungen. Dieses Papier konzentriert sich auf zwei von der Plattform Industrie 4.0 beschriebene I4.0-Szenarien, die Herausforderungen für die Industrie in Richtung ihrer digitalen Zukunft beschreiben. Zunächst wird das Szenario Order Controlled Production (OCP) betrachtet, das sich mit flexiblen und sich selbst konfigurierenden Produktionsnetzwerken befasst. Es beschreibt die dynamische Organisation von Produktionsressourcen, die zur Ausführung eines Produktionsauftrags erforderlich ist. Zweitens wird das Anwendungsszenario Adaptable Factory (AF) diskutiert, das sich auf die Konfiguration von Produktionsressourcen konzentriert und die Anpassungsfähigkeit einer einzelnen Anlage durch (physikalische) Modifikation beschreibt. Dieses Papier bietet zunächst eine detaillierte Analyse der Anforderungen aus diesen Szenarien. Darüber hinaus analysiert es die aktuellen Multi-Agent System (MAS) Architekturen und agentenbasierten Planungs- und Entscheidungsunterstützungssysteme. Mit MAS können anwendungsunabhängige I4.0-Systeme mit beliebigen Hardware-Automatisierungsplattformen erstellt werden. Um ein skalierbares Kommunikationsnetzwerk zu schaffen, das auch Anwendungsunabhängigkeit unterstützt und die semantisch maschinenlesbare Beschreibung der ausgetauschten Daten ermöglicht, wurde der OPC UA-Standard übernommen. Als Ergebnis der Studie zeigt das Konzept, wie sich unterschiedliche und unabhängige Automatisierungsplattformen nahtlos über OPC UA anbinden lassen. Das vorgeschlagene MAS-Konzept wurde in verschiedenen Anwendungsfällen evaluiert, nämlich OCP und AF.;-;-;-;https://link.springer.com/article/10.1007/s10845-021-01759-2 4e5c7ec2ea92783497d692df48c1bfcb;de;;;7.1.;;;IT-Services theoretisch untermauern Die Information Technology Infrastructure Library (ITIL) ist der vorherrschende Standard für die Verwaltung des Betriebs der Informationstechnologie (IT) in der Praxis. Das Revolutionäre an ITIL ist, dass es vorschlägt, die IT nicht (nur) als Technologie zu begreifen, sondern vielmehr als Mittel zur Bereitstellung von Dienstleistungen für Unternehmen. Diese Idee hat in der Wissenschaft große Beachtung gefunden und hat dazu geführt, dass das „IT Service Management (ITSM)“ als neues Managementparadigma und Forschungsfeld identifiziert wurde. Leider ist das Konzept eines IT-Dienstes innerhalb von ITIL schlecht ausgearbeitet und bleibt in der akademischen Debatte um ITSM schwer fassbar. Mit diesem Papier haben wir uns zum Ziel gesetzt, die Unklarheiten rund um den Begriff eines IT-Dienstes basierend auf einer umfassenden Literaturrecherche aufzulösen. Wir schließen eine Reihe von sechs definierenden Merkmalen ab, von denen wir glauben, dass sie zusammengenommen das Konzept eines IT-Service vollständig erfassen. Wir untermauern diese Merkmale auch mit zugrunde liegenden Theorien. Abschließend veranschaulichen wir das Potenzial unserer Definition mit einem beispielhaften IT-Service, den wir im Rahmen eines kürzlich durchgeführten ITSM-Forschungsprojekts für einen deutschen Verlag definiert haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-58521-5_35 cee0ab9605e60c926a7aa1a2553ae10d;de;;;7.1.;;;IRIS — Ein Mapping-Assistent zum Generieren von Designs aus Anforderungen Das Problem der Generierung von Informationssystemdesigns aus Anforderungsspezifikationen wird mit der Vorstellung eines Frameworks zur Darstellung von Anforderungen und eines Mapping-Assistenten, IRIS ., adressiert;-;-;-;https://link.springer.com/chapter/10.1007/BFb0000607 c245a3b1d77c166a778a15a91c52144a;de;;;7.1.;;;Wertbasiertes CRM Eine wesentliche Entwicklung in der Geschäftspraxis ist das in den letzten Jahren zunehmende Interesse am Customer Relationship Management (CRM). CRM fokussiert dabei auf den Aufbau und die Pflege gewinnbringender Kundenbeziehungen mit Hilfe moderner Informationstechnologie (IT) und hat sich zu einem wichtigen Forschungsfeld in der Wirtschaftsinformatik entwickelt. Doch trotz hoher Investitionen verfehlen viele CRM-Projekte ihre Ziele, da die Komplexität und Interdisziplinarität von CRM nicht ausreichend berücksichtigt wird. Tatsächlich erfordert eine kundenzentrierte Ausrichtung innerhalb eines wertebasierten Managements nicht nur eine funktionsübergreifende Integration verschiedener Fachbereiche, sondern auch eine gezielt angepasste Zusammenarbeit dieser Fachbereiche.;-;-;-;https://link.springer.com/article/10.1007/s12599-010-0095-7 fa13bf7cbdebb66ffeda1eab322a5fbd;de;;;7.1.;;;Cognitive Computing: Was bringt Business Process Management? Eine Untersuchung von Use Case-Ideen Cognitive Computing verspricht, die Informationsverarbeitung und Problemlösung in Unternehmen grundlegend zu verändern. Aufbauend auf den neuesten Fortschritten in der Kognitions-, Daten- und Informatik zielt Cognitive Computing darauf ab, autonomes Denken und kontinuierliches Lernen unter Berücksichtigung kontextbezogener Erkenntnisse und der natürlichen Interaktion von Mensch und Maschine zu ermöglichen. Es wird erwartet, dass Cognitive Computing erhebliche Anwendungsmöglichkeiten für das Geschäftsprozessmanagement (BPM) bietet. Während erste Studien den möglichen Einfluss von Cognitive Computing auf BPM untersucht haben, ist die Schnittstelle zwischen beiden Disziplinen noch weitgehend unerforscht. Insbesondere wurde wenig daran gearbeitet, Cognitive BPM Use Cases zu identifizieren. Um diese Lücke zu schließen, entwickeln wir einen Analyserahmen, der Forscher und Praktiker bei der Entwicklung von Ideen für Cognitive BPM-Anwendungsfälle unterstützen soll. Dieses Framework kombiniert die wichtigsten Problemklassen des Cognitive Computing mit zentralen Aktivitäten des BPM-Lebenszyklus. Wir nutzten das Framework auch als Grundlage für explorative Workshops und berichten über die interessantesten Ideen für kognitive BPM-Anwendungsfälle, die wir entdeckt haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-74030-0_32 0ada36ba7921c46c2d8bd5c0b6ba6480;de;;;7.1.;;;Warum sind Unternehmensanwendungen so vielfältig? Selbst kleine Unternehmen sind heute an unterschiedlichen geografischen Standorten tätig und bedienen unterschiedliche Branchen. Dies kann eine Reihe von Herausforderungen mit sich bringen, einschließlich solcher im Zusammenhang mit Sprache, Währungen, unterschiedlichen behördlichen Anforderungen und unterschiedlichen Branchenerwartungen. Für große Organisationen mit größerer Reichweite sind die Herausforderungen noch größer. Wenn Unternehmen wachsen, müssen sie auch riesige Informationsmengen in verschiedenen Geschäftsbereichen im Auge behalten. Moderne Unternehmensanwendungen müssen diesen Anforderungen zeitnah gerecht werden. In diesem Kapitel geben wir eine kurze Einführung in moderne Unternehmensanwendungen, beschreiben ausgewählte Aufgaben, die sie ausführen, und die Geschäftsbereiche, die sie abdecken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19363-7_3 e04c04e2b5ed11af83762174dc8f0573;de;;;7.1.;;;Erweiterung von OpenUP zur Konformität mit dem ISO Usability Maturity Model Die Integration von Praktiken und Methoden des Interaktionsdesigns und der Usability in Software Engineering-Prozesse hat einige Herausforderungen mit sich gebracht. In diesem Papier erweitern wir einen SE-Prozess, um seine Instanziierung als benutzerzentriert zu ermöglichen, um die vom endgültigen System erreichbare Benutzerfreundlichkeit zu verbessern. Außerdem schlagen wir eine Art Roadmap vor, die es Softwareorganisationen ermöglicht, kumulative Versionen dieses Prozesses zu instanziieren, um ihre Fähigkeiten hinsichtlich der Usability-Praktiken zu steigern. Das Papier ist in zwei Teile gegliedert. Zunächst beschreiben wir die Open-Source-Version des Unified Process (OpenUP) und des ISO Usability Maturity Model (UMM-ISO) und präsentieren die Ergebnisse einer Bewertung der ersten, um ihre Konformität mit letzterem festzustellen. Im zweiten Teil stellen wir eine Erweiterung zu OpenUP vor, um die entdeckten Lücken zu schließen und berichten über die Highlights einer Umsetzung dieser Beiträge in ein reales Projekt und die gewonnenen Erkenntnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44811-3_6 d0280e61090bc5bde5279456f7ab4187;de;;;7.1.;;;Organisatorisches Gedächtnis: Probleme beim Erwerb, der Integration und beim Abruf von Wissen Knowledge Die Nachfrage nach Wissensmanagement in den Management- und Wirtschaftswissenschaften hat zu einer wachsenden Gemeinschaft von IT-Mitarbeitern geführt, die die Idee des Aufbaus von Organisationsgedächtnissen oder Organisationsgedächtnisinformationssystemen (OMIS) übernommen haben. Allerdings ist die Bandbreite an Ideen, die mit diesen Begriffen verbunden sind, enorm, und die Community ist weit davon entfernt, homogen oder auf ein gemeinsames Ziel oder einen technologischen Ansatz ausgerichtet zu sein. In diesem Beitrag versuchen wir, zu einer kohärenten Sichtweise des organisatorischen Gedächtnisses beizutragen. Wir skizzieren einige wichtige technische Anforderungen, beschreiben einige Arbeiten, die zu diesen Zielen beitragen, und versuchen, uns einige nützliche zukünftige Arbeiten vorzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/10703016_7 e9965635a907f0507b28dfe90eacd2fe;de;;;7.1.;;;Fuzzy-kognitive strategische Karten In diesem Beitrag wird die Anwendung eines auf Fuzzy Cognitive Map (FCM) basierenden theoretischen Rahmens und des zugehörigen Modellierungs- und Simulationswerkzeugs auf Strategy Maps (SMs) vorgestellt. Bestehende Einschränkungen von SMs werden in einer Literaturübersicht dargestellt. Der Bedarf an szenariobasierten SMs mit der ererbten Fähigkeit, Szenarien dynamisch zu ändern, sowie das fehlende Zeitelement werden hervorgehoben und diskutiert. FCMs werden als Alternative vorgestellt, um diese Defizite mit der Einführung von Unschärfe in ihren Gewichten und dem robusten Berechnungsmechanismus zu überwinden. Es wird ein FCM-Tool vorgestellt, das die Simulation von SMs sowie die Verschaltung von Knoten (Performance Measures) in verschiedenen SMs ermöglicht, was die Erstellung von SM-Hierarchien ermöglicht. Ein erweiterter FCM-Berechnungsmechanismus, der diese Art der Verkettung ermöglicht, wird ebenfalls vorgestellt. Die resultierende Methodik und das Instrument werden auf zwei Banken angewendet und die Ergebnisse dieser Fallstudien werden präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39739-4_17 dd0537575ea57e350117b34e209f7397;de;;;7.1.;;;Akzeptanzfaktoren von ERP-Systemen Heutzutage sind ERP-Systeme (Enterprise Resource Planning) aufgrund ihrer Vorteile in den meisten Branchen stark vertreten, daher ist ihre Akzeptanz und Nutzung durch die Endbenutzer entscheidend. Das Hauptziel dieser Studie ist es, die Faktoren zu bestimmen, die die Absicht zum Einsatz von ERP-Systemen beeinflussen, wobei das Modell UTAUT (Unified Theory of Acceptance and Use of Technology) als theoretische Grundlage verwendet wird. Auch die Confirmatory Factor Analysis (CFA) mit einer Stichprobe von 121 Endnutzern wurde verwendet, um das vorgeschlagene erweiterte Modell zu validieren. Die Ergebnisse zeigen, dass der beabsichtigte Einsatz von ERP-Systemen in dieser Rangfolge durch Schulungen zur Problemlösung und Anpassung an lokale behördliche Vorschriften maßgeblich beeinflusst wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-31232-3_49 48db692d7b19d84ce936aea662f88444;de;;;7.1.;;;Ein konzeptionelles Modell des IT-Ökosystems für Asset Management im globalen Produktionskontext Diese Forschung schlägt ein neues konzeptionelles Modell des IT-Ökosystems vor, das im Rahmen des globalen Asset Managements erforderlich ist. Um dieses Ziel zu erreichen, werden die für das Instandhaltungsmanagement erforderlichen Funktionalitäten mit den für das Asset Management erforderlichen Funktionalitäten integriert, wodurch der derzeitige Arbeitsumfang bestehender IT-Systeme um eine Lifecycle-Management-Perspektive erweitert wird. Die Aufteilung der Funktionalitäten auf drei Asset-Control-Levels (operativ, taktisch, strategisch) ist propädeutisch, um die IT-Ökosystemstruktur basierend auf drei Hauptsoftwarefamilien abzuleiten. Das Modell wurde im Rahmen eines Kooperationsprojekts mit einem weltweit führenden Unternehmen im Lebensmittelsektor entwickelt. Es werden Erkenntnisse über das vorgeschlagene IT-Ökosystem für eine zentralisierte AM über geografisch verteilte Produktionsanlagen berichtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-57997-5_82 efe8c4c33215c63db811ba6e43714427;de;;;7.1.;;;Überblick über die agile Softwareentwicklung Agiles Denken ist der Versuch, Dinge zu vereinfachen, indem die Komplexität der Planung reduziert, der Kundennutzen in den Mittelpunkt gestellt und ein fruchtbares Klima der Beteiligung und Zusammenarbeit gestaltet wird. Es gibt eine Vielzahl von Methoden, Techniken, Best Practices, die behaupten, „agil“ zu sein. In diesem Kap. Wir wollen einen Überblick über die gängigsten geben. Die fünf Prinzipien eines fraktalen Teams, die wir in Kap. 1, trifft auf die meisten zu: Selbstähnlichkeit, Zielorientierung, Selbstorganisation, Selbstverbesserung und Vitalität sind Eckpfeiler bei der Umsetzung einer Organisation, die Softwareprojekte agil durchführen kann. Der Wunsch, flexible und effiziente Entwicklungsprozesse zu etablieren, die qualitativ hochwertige Ergebnisse liefern, ist nicht neu und hat sich nicht nur auf die Softwareentwicklung übertragen: Vor mehr als zwei Jahrzehnten hat sich die Fertigungsindustrie dramatisch verändert, als die traditionellen Produktionskonzepte von Taylor und Ford von äußerst erfolgreichen japanischen Unternehmen wie Toyota herausgefordert. Die westliche Hemisphäre war verblüfft darüber, wie die Konkurrenz aus Fernost in der Lage zu sein schien, bessere Qualität zu niedrigeren Kosten zu produzieren, und begann schnell, den Rest der Welt zu übertreffen. Was ist passiert? Was war das Geheimnis der erstaunlichen Effizienz und Innovation?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-70832-2_3 fd9507b672bc1c0b0911ff16341c3b31;de;;;7.1.;;;Das Gestern korrigieren versus das Morgen schaffen: Herausforderungen für die Führung bei der Ausbalancierung eines Portfolios von Prozessen Wir sind jetzt an einem kritischen Punkt. Wir sind mit der bewährten Strategie der vertikalen Integration und der entsprechenden funktionalen Organisation unzufrieden und experimentieren mit neueren Strategiemodellen und alternativen Organisationsformen. Wir bewegen uns weg von einer vorherrschenden Fokussierung auf Informationstechnologie und -systeme als Quelle von Wettbewerbsvorteilen hin zur Anerkennung informationstechnologiegestützter Prozesse als wichtige Bausteine ​​für die neue Organisationslogik. Dieses Papier konzentriert sich auf die Herausforderungen für Führung und Management bei der Nutzung von Informationstechnologiefunktionen, um eine prozessorientierte Organisation zu entwerfen, die die Schaffung und den Einsatz von Fähigkeiten vorantreibt, um im 21.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5485-1_10 1ff68a5e3e6fa03da1c33e91e0b0f4e4;de;;;7.1.;;;Modellierung der Struktur kollaborativer Netzwerke: Einige Beiträge Kollaborative Netzwerke (CN) und virtuelle Organisationen (VO) können teilweise mithilfe der Graphentheorie als natürlichem Rahmen zur Beschreibung von Beziehungen, Interaktionen und Zusammenarbeit modelliert werden. Unsere Arbeit zielt darauf ab, Ergebnisse aus dieser Theorie und anderen verschiedenen Bereichen und wissenschaftlichen Disziplinen zu erweitern und zu integrieren, um die Modellierung komplexer und nicht greifbarer Faktoren, Dynamiken, Kompromisse zwischen individuellen und gemeinsamen Zielen, die beim Aufbau und Management von VO entstehen, zu ermöglichen. Um diese Themen ganzheitlich zu behandeln, stellen wir Erweiterungen von Social Actors Networks vor, die verschiedene, sich ergänzende Perspektiven im Umgang mit VO und der Bewältigung der verschiedenen Phasen ihres Lebenszyklus umfassen können. Aktuelle Ergebnisse erscheinen vielversprechend in Richtung Schaffung eines soliden Rahmens für die Modellierung und Unterstützung eines ganzheitlichen Prozessmanagements in kollaborativen Netzwerken. Zur Veranschaulichung wird eine einfache Fallstudie kurz skizziert und einige Ergebnisse vorgestellt. Schließlich werden einige offene Fragen untersucht und Linien für zukünftige Forschungen identifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35704-1_3 4e18701d6869822daaf7d4b05439a844;de;;;7.1.;;;Aufbau optoelektronischer Kompetenz in Unternehmen Der Zweck dieses Kapitels besteht darin, die Faktoren zu untersuchen, die Geschwindigkeit und Richtung des Kompetenzbildungsprozesses in Unternehmen beeinflussen. In Kapitel 2 stellen wir ein Modell des Kompetenzaufbaus vor. Wenn eine radikal neue, allgegenwärtige Technologie auftaucht, können einige Unternehmen diese Gelegenheit zu ihrem Vorteil nutzen. Kompetenzaufbauzentren in Schlüsselbereichen zur Verbesserung der Kernkompetenzen von Unternehmen. Der Kompetenzaufbau wird durch Faktoren im Zusammenhang mit der Pfadabhängigkeit beeinflusst, die einen direkten Bezug zur Unternehmensgeschichte haben, wie zum Beispiel frühere Kerngeschäfte, langfristige Top-Management-Strategie, die Entwicklung der F&E-Organisation und Regierungspolitik. Es wird auch von Faktoren beeinflusst, die mit der Gegenwart zusammenhängen, wie das Management der Verknüpfungen zwischen Systemen, Schlüsselkomponenten und generischen Technologien sowie Verbundvorteile. In diesem Kapitel konzentrieren wir uns auf die pfadabhängigen Faktoren und organisatorischen Abläufe.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-23873-6_4 419006def357610223478a1210eb1b03;de;;;7.1.;;;Erweiterung des maschinellen Sprachniveaus Als die ersten Computer entwickelt und eingeführt wurden, glaubte man, dass wenige Computer oder schlimmstenfalls mehrere Dutzend ausreichen würden, um den Anforderungen der Naturwissenschaften und Technik gerecht zu werden. Tatsächlich war es zunächst genau so. Daher achteten die Entwickler früher Computer nicht besonders auf ihre Benutzerfreundlichkeit. Von Neumanns Computer (;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-9053-8_1 e4fd8e9728f7a2be739ba2cec10e460f;de;;;7.1.;;;Augmented Reality in Produktentwicklung und Fertigung Augmented Reality (AR) ist eine Technologie, die den Benutzern ein intuitives Interaktionserlebnis bietet, indem sie die reale Welt nahtlos mit computergenerierten Texten, Bildern, Animationen usw Interaktionserfahrung wird dem Benutzer vermittelt, was zu einer effizienten Wahrnehmung und Erstellung für ihn führt. Die AR-Technologie hat sich von einer Technologie, die nur in Science-Fiction-Filmen vorkommt, zu einer Technologie entwickelt, die in der Industrie weit verbreitet ist. In einem 2008 veröffentlichten Review Paper wurde die Anwendung von AR in der Industrie diskutiert [1]. In diesem Kapitel werden Forschungsarbeiten zur Entwicklung industrieller Anwendungen, die zwischen 2006 und 2010 veröffentlicht wurden, betrachtet. Diese Papiere sind nach dem in Abb. 30.1 gezeigten Produktentwicklungszyklus kategorisiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-0064-6_30 8ef983de532343d862018d39aa71534f;de;;;7.1.;;;Eine Entwicklung eines Lernmanagementsystems für die Praxis des E-Learning in der Hochschulbildung Von 2004 bis 2007 hat unsere Universität ein dreijähriges Projekt namens „GP Project“, das Teil eines nationalen Projekts namens „Selected Efforts of the Distinctive University Education Support Program“ (Good Practice Project, abgekürzt als GP Project) ist, mit der Unterstützung des Ministeriums für Bildung, Kultur, Sport, Wissenschaft und Technologie der japanischen Regierung. In diesem Projekt sind wir gefordert, mehr als 30 bestehende Kurse durch e-Learning zu ersetzen. Die Studiengänge müssen sich nahtlos in ein bereits seit Jahren im Bildungswesen eingesetztes Studiennoteninformationssystem einfügen. Für diese Integration haben wir ein neues Learning Management System eingeführt, das einfach anzupassen ist, sodass es Kursnoteninformationen und E-Learning-Informationen integrieren kann. Wir haben ein Learning Management System (LMS) entwickelt, indem wir ein kommerzielles LMS WebClass modifiziert haben, mit dem neue Funktionen einfach hinzugefügt werden können. Das System der ersten Phase hat seine Arbeit aufgenommen und wir bereiten jetzt die Integration der Kursnoteninformationen in das LMS vor. Dieser Beitrag beschreibt unser derzeit laufendes dreijähriges universitätsweites Projekt und erläutert anschließend die Funktionen des neu entwickelten Learning Management Systems.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-69312-5_19 be24703eeb0999e6def892cf31dca2d3;de;;;7.1.;;;Der Einsatz von Simulation beim Management von Logistikprozessen in der Konverterproduktion In diesem Beitrag wird eine Anwendung eines Simulationsmodells auf das Management von Logistikprozessen in der Konverterproduktion betrachtet. Das Simulationsmodell wurde entwickelt, um das optimale Zeitintervall für die Abgabe der Schmelzen an die Konverter zu bestimmen. Ziel der Optimierung ist es, ein solches Zeitintervall zu finden, in dem die Wartezeit des Service an einer Stranggießmaschine minimal ist und die Stillstandszeit der Stranggießmaschine minimal ist, da dies den Ressourcenaufwand und die Menge an schädlichen Emissionen in die Atmosphäre. Das Simulationsmodell wurde in einem Simulationsmodul des metallurgischen Betriebsinformationssystems entwickelt. Das Simulationsmodul unterstützt eine Multi-Agent-Simulation. Die Agenten im entwickelten Modell sollen den Algorithmus zum Schneiden von Brammen beschreiben, der von Technologen in der metallurgischen Produktion verwendet wird. Als Ergebnis einer Reihe von Experimenten mit dem Modell wurde das beste Zeitintervall zwischen den Lieferungen der Schmelzen an die Konverter gefunden und beträgt 20 Minuten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-47952-1_54 72b1b9656163da5abf0ae8c4cf4730a4;de;;;7.1.;;;Konzeption eines Data Supervisors im Hinblick auf Pilotierung Management Quality of Service und Marketing Ein Prototyp eines Datenüberwachers wurde entwickelt, um von einfachen Benutzern verwendet zu werden, die in den Bereichen Management, Servicequalität und Marketing tätig sind. Vom Supervisor wird erwartet, dass er mit allen Informationssystemen kompatibel ist. Die Hauptaufgabe eines Datenüberwachers besteht darin, an einem einzigartigen Arbeitsplatz Daten und computergestützte Dienste zu sammeln, die zur Überwachung und Steuerung von Aktionen erforderlich sind. STATlab ist die Statistiksoftware, auf der der Prototyp des Data Supervisors aufgebaut wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-51175-2_67 f1f2adee3baf4c6d24ed2779501e7535;de;;;7.1.;;;Minenrisikobewertung basierend auf Standort und Überwachung des Notfallkommunikationssystems Die Notrufkommunikation in Minen ist nach allgemeinen Industriestandards schlecht und birgt erhebliche Risiken aufgrund des Mangels an verfügbaren Informationen aus unterirdischen Bereichen. Kohleminen verwenden oft mehrere inkompatible Systeme für die Kommunikation. Das Papier kommt zu dem Schluss, dass ein verbessertes Kommunikationssystem die Durchführung einer Echtzeit-Risikobewertung im Kohlebergwerk ermöglichen würde, und die Anforderungen an Überwachung, Bewertung und Entscheidungsfindung wurden für einige allgemeine Gefahren untersucht. Dazu gehören Belüftungsprobleme, Schichtkontrolle und Notfallmaßnahmen. Dies würde die neuesten Technologien des Sicherheitsmanagements und der Echtzeit-Risikobewertung unter Verwendung von computergestützter Bewertung, unterstützter Entscheidungsfindung und virtueller Realität einbeziehen. Die Ergebnisse zeigen, dass der größte Bedarf an einem Notfallkommunikationssystem besteht, das einen gemeinsamen Standard hat, über Breitbandkapazität verfügt und eine einfache Konnektivität für Subnetze ermöglicht, die für bestimmte Anwendungen angepasst sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31965-5_79 1d51f17a57f1dfa2dee117e9450b8bc9;de;;;7.1.;;;Ein objektbasiertes Virtual-Reality-Simulationstool zur Designvalidierung einer neuen Paradigmen-Fertigungsanlage Im Rahmen des Leapjrog-Projekts besteht die allgemeine Aufgabe darin, eine effektive und effiziente Fertigungslösung zu entwickeln, die den Anforderungen des Wettbewerbsszenarios der Massenanpassung gerecht wird und die Einschränkungen, die die Automatisierung der Bekleidungsmontage bisher verhindert haben, durch eine umfassende und allgemeine („ganzheitliche“ ') Neugestaltung des Textilherstellungsverfahrens unter Nutzung flexibler Automatisierungs- und Robotertechnologien. Die Virtual-Reality-Simulation ist ein Kernbestandteil der interaktiven Validierung von Designentscheidungen. Der Simulator für Bekleidungsmontagelinien hat verschiedene Ziele: (a) Validierung des „ganzheitlichen Konzepts“ der Bekleidungsmontagelinie, (b) Layoutdefinition anhand realistischer Produktionsdaten, (c) Vorhersage realistischer Produktionsmetriken nach der Linienbereitstellung. Der Simulator wurde mit besonderem Augenmerk auf Wartungsfreundlichkeit entwickelt: Das Hinzufügen neuer Ressourcen oder Berichte oder das Ändern der Statistik der produktionsrepräsentativen Maßnahmen muss einen geringen Aufwand erfordern, die VR-Darstellung von Was-wäre-wenn-Szenarien erleichtert die umfassende Bewertung alternativer Layoutlösungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-36594-7_32 f4a3c64ab3515e945e252fd025b2b9e5;de;;;7.1.;;;M&S-Unterstützung für Krisen- und Katastrophenmanagementprozesse und Auswirkungen des Klimawandels Dieses Papier befasst sich mit den Bemühungen der NATO, der EU und anderer regionaler Initiativen zur Unterstützung von Bildung und Ausbildung zum besseren Verständnis der Krisen- und Katastrophenmanagementprozesse (CDMP) und der Auswirkungen des Klimawandels (CCI) auf militärische Aktivitäten. Der Artikel befasst sich mit der Frage der Anwendung von Modellierungs- und Simulationssystemen, -werkzeugen, -software und -praktiken als eine komplexe Kombination aus Live-, virtueller und konstruktiver Umgebung, nicht nur um Trends vorherzusagen, sondern die Quelle in einer bestimmten Situation zu identifizieren. Derzeit gibt es in der NATO (gemäß dem Aktionsplan zu M&S zur Unterstützung der militärischen Ausbildung) eine erhebliche Lücke bei den Fähigkeiten zur Schätzung, Vorhersage und Erstellung von Reaktionsplänen im Zusammenhang mit Krisen- und Katastrophenmanagement und Auswirkungen auf den Klimawandel. Die Entwicklung einer spezifischen technischen Plattform für CDMP und CCI wird der NATO und der EU eine einzigartige umfassende Schulungs- und Analysefähigkeit bieten. Diese Plattform soll die Unterstützung groß angelegter verteilter Übungen und Analysen zum Krisenmanagement und zur Katastrophenhilfe mit spezifischen Werkzeugen und Simulationen für verschiedene Arten von Krisen- und Katastrophensituationen ermöglichen. Dies würde die Qualität der Ausbildung des Militärs verbessern und den Verbündeten eine entscheidende neue Fähigkeit bieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-68486-4_19 ddd069d86b257dda6e9b0c817c65bd1b;de;;;7.1.;;;Geschichtenerzählen und Erzählen: Alternative Genres, die IS-Publikation und Praxis verbinden Kommunikationsgattungen beeinflussen die Entwicklung eines Forschungsfeldes maßgeblich. Im Bereich der Informationssysteme (IS) hat sich in letzter Zeit eine Debatte über die Möglichkeit entwickelt, alternative Genres in der Darstellung von IS-Publikation und -Praxis einzusetzen. Wir schlagen daher vor, Geschichtenerzählen und Erzählen als alternative Genres zu verwenden, um Publikationen über die IS-Forschung zu schreiben. Indem wir eine Erzählung präsentieren, die die Implementierung dieser Genres beispielhaft darstellt, argumentieren wir, dass die schrittweise Einführung ihrer Prinzipien für die IS-Forschung von Vorteil wäre und eine überarbeitete Darstellung von IS-Themen ermöglicht, die die Grenzen kanonischer Genres erweitert. Parallel dazu behaupten wir, dass Geschichtenerzählen und Erzählen dank der Besonderheit der erzählten Geschichte auch mächtige Instrumente sind, die die IS-Praxis unterstützen. Die vermittelnde Rolle der Aktionsforschung bei der Verbesserung der Verbindung zwischen Geschichtenerzählen und Erzählung, die als Schreibgenres und -praktiken verwendet werden, wird ebenfalls anerkannt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-62386-3_2 70bac95670a3c92cc012a19daec53476;de;;;7.1.;;;Störung und Bilder der Organisation Die kurze Antwort auf die Frage „Was ist nötig, um Unternehmen und Software weniger anfällig für Störereignisse zu machen?“ ist: den störenden Charakter von Ereignissen eliminieren. Disruption, definiert als gewaltsame Auflösung der Kontinuität (OED), ist keine Eigenschaft eines Ereignisses als solches, sondern es geht um die disruptive Wirkung, die einige Ereignisse auf Unternehmen oder Softwaresysteme haben können. Je besser Unternehmen und ihre Systeme mit Störungen in ihrer Umgebung umgehen können, desto weniger werden sie gestört. Dabei ist es wichtig, wie Unternehmen betrachtet und organisiert werden. Eine Sichtweise besteht darin, Unternehmen als Maschinen zu betrachten, vgl. das Konzept des Enterprise Engineering. Als Maschine betrachtet, wird ein Unternehmen so modelliert und strukturiert, dass es hauptsächlich von Ereignissen angetrieben wird, die Sequenzen vordefinierter Prozesse verursachen. Eine andere Sichtweise ist das Unternehmen als Organismus, der flexibel handelt, um seine Ziele zu erreichen, Instrumente einsetzt und sich an nie ganz vorhersehbare Umstände anpasst. In diesem Beitrag wird argumentiert, dass Unternehmen, die sich nach der Metapher des Organismus sehen und strukturieren, weniger angreifbar sind als Unternehmen, die sich nach der Metapher der Maschine sehen und strukturieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-79976-2_2 f9ae4072cb637fab6c64994ebb15279b;de;;;7.1.;;;Datenbanken im Gesundheitswesen In diesem Kapitel werden wir die Konzepte der Datenbanktechnologie so vorstellen, dass die Terminologie leicht auf Probleme im Gesundheitswesen bezogen werden kann. Nachdem die Ziele definiert wurden, werden die Hauptkomponenten von Datenbanken und ihre Funktion diskutiert. Im Rest dieses Kapitels werden die wissenschaftlichen und betrieblichen Fragen im Zusammenhang mit Datenbanken dargestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-93174-1_1 bad8c804a11dae588888c1a771f8fb33;de;;;7.1.;;;Autofahrer-Informationssysteme: Eine Einführung Autofahrerinformationssysteme verbessern das Wissen des Fahrers über die Situation in Straßennetzen und verbessern damit die Entscheidungsfindung des Fahrers (Ben-Akiva et al., 1991, Bonsall et al., 1991, van Berkum und van der Mede, 1993). Es ist jedoch weit weniger bekannt, ob und inwieweit die Interaktion zwischen den Fahrern selbst und den Informationen und den Fahrern potenzielle positive Auswirkungen dieser neuen Technologien verringern kann. Um das Potenzial von Autofahrer-Informationssystemen abzuschätzen, wurden einige Modelle entwickelt. Ob diese in der Lage sind, die Hauptmerkmale dieser Systeme zu erfassen, ist unklar (Watling, 1994). In Simulationsexperimenten fanden Mahmassani und Chen (1991) sowie Mahmassani und Jayakrishnan (1991) heraus, dass, wenn mehr als 20 Prozent der Fahrer mit dem Autofahrer-Informationssystem ausgestattet sind, die negativen Auswirkungen aufgrund von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-72143-4_2 fc5d55f9be0266ed957114a03a1ac742;de;;;7.1.;;;Auf dem Weg zu einem agentenbasierten verteilten hierarchischen Netzwerkmanagementsystem für rein optische Netzwerke Dieses Dokument beschreibt den Entwurf und die Implementierung von Optiprism, einem agentenbasierten Netzwerkverwaltungssystem (NMS), das Konfigurations- und Fehlerverwaltungsdienste für rein optische Netzwerke bereitstellt. Optiprisma wurde entwickelt, um (1) eine skalierbare Architektur zu unterstützen, die aus einer verteilten Hierarchie von Softwareagenten oder Managern besteht (2) die Fähigkeit, die Hierarchie im Zuge der Netzwerkentwicklung durch Hinzufügen, Entfernen oder Aktualisieren von Managern zu ändern (3) Reorganisation der physischen Bereitstellung bessere Reaktionsfähigkeit (4) ein innovativer Browser-Agent, der eine skalierbare Endbenutzerinteraktion mit dem verteilten NMS bereitstellt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44651-6_11 2b7d5893b5b8ab5ec91813a2a72ed3d8;de;;;7.1.;;;Bahnplanung für mobile Roboter mit selbstlernender Partikelschwarmoptimierung Als herausforderndes Optimierungsproblem bezieht sich die Pfadplanung für mobile Roboter auf das Suchen eines optimalen oder nahezu optimalen Pfads unter verschiedenen Arten von Einschränkungen in komplexen Umgebungen. In diesem Beitrag wird eine selbstadaptive lernende Partikelschwarmoptimierung (SLPSO) mit verschiedenen Lernstrategien vorgeschlagen, um dieses Problem anzugehen. Zuerst transformieren wir das Pfadplanungsproblem in ein Minimierungs-Multiziel-Optimierungsproblem und formulieren die Zielfunktion unter Berücksichtigung von drei Zielen: Pfadlänge, Kollisionsrisikograd und Glätte. Anschließend wird ein neuartiger selbstadaptiver Lernmechanismus entwickelt, um die am besten geeigneten Suchstrategien in verschiedenen Phasen des Optimierungsprozesses adaptiv auszuwählen, was die Suchfähigkeit der Partikelschwarmoptimierung (PSO) verbessern kann. Um die Durchführbarkeit der erzeugten Pfade zu verbessern, wenden wir außerdem die neuen Schemata zur Behandlung von Grenzverletzungen an, um die Geschwindigkeit und Position jedes Partikels zu beschränken. Schließlich werden Experimente mit einem simulierten Roboter bzw. einem realen Roboter durchgeführt und die Ergebnisse demonstrieren die Durchführbarkeit und Wirksamkeit von SLPSO bei der Lösung des Bahnplanungsproblems mobiler Roboter.;-;-;-;https://link.springer.com/article/10.1007/s11432-016-9115-2 53f3e7c9959aca1f8dd2ae1dfcfbc40c;de;;;7.1.;;;Verwendung digitaler Tabletops zur Unterstützung verteilter agiler Planungsmeetings Digital Tabletop ist eine neue Technologie, die zunehmend zur Unterstützung von Gruppenaktivitäten eingesetzt wird. Agile Planner for Digital Tabletops (APDT) ist ein Tool, das entwickelt wurde, um agile Planungsmeetings zu unterstützen. Es bietet Interaktionen, die denen ähnlich sind, die in traditionellen Pen-and-Paper-Meetings verwendet werden. Frühere Versionen von APDT waren nur in der Lage, gemeinsame Planungsmeetings abzuwickeln. In diesem Papier beschreiben wir kurz und bündig die neue Erweiterung von APDT, die verteilte Planungsmeetings unterstützt. Es wurde eine Reihe von Evaluierungen für die neue Version von APDT durchgeführt, und das Feedback ist tendenziell positiv.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01853-4_59 55ac8ab74621f2b849426a06cc5d0e74;de;;;7.1.;;;Aufbau kritischer IKT-Infrastrukturen für Handelsvorschriften: Auswirkungen einer nationalen Initiative in Mexiko Neue Informations- und Kommunikationstechnologien (IKT) versprechen eine Ära bemerkenswerter Veränderungen für die Gesellschaft. In diesem Beitrag schlage ich vor, über die Prozesse nachzudenken, die einer nationalen IKT-Initiative in Mexiko zur Verbesserung der Außenhandelsregulierung zugrunde liegen – dem Single Window for Foreign Trade. Der Fall bietet ein Beispiel für die Komplexität des Aufbaus kritischer IKT-Infrastrukturen in einem bestimmten Kontext. Mit einem narrativen Ansatz gehe ich auf die Herausforderungen und möglichen strategischen Lehren ein, die aus dem Fall gezogen werden können. Insgesamt bietet die Studie Implikationen, die als Anhaltspunkt für den Vergleich mit ähnlichen Projekten dienen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33332-3_3 10e68cb8e77d7e56700738a08b9bf14c;de;;;3.5.;;;Digitalisierung, codierte Zeichensätze und optische Zeichenerkennung für Informationsressourcen mit mehreren Schriften: Der Fall Mehrsprachige Informationsressourcen, die aus Texten in mehr Skripten bestehen, als durch ein einzelnes 8-Bit-Kodierungsschema dargestellt werden können, können derzeit am besten durch Verwendung des Unicode-Mehrbyte-Zeichenkodierungsschemas dargestellt werden. Die Verwendung von Unicode kann jedoch aufgrund der Ähnlichkeit der Glyphen zwischen bestimmten Skripten zu einer Verringerung der Genauigkeit von OCR-Software (Optical Character Recognition) führen. Diese Abnahme der OCR-Genauigkeit kann den Zeitaufwand für das Korrekturlesen der resultierenden elektronischen Texte drastisch erhöhen. Ein Projekt der Indiana University - Digital Library Program zur Digitalisierung eines 20-jährigen Teils der;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44796-2_36 8f661f99c5ce8fa2d799ea542a2eb8c7;de;;;3.5.;;;Gesellschaftliche und ethische Fragen der Digitalisierung In diesem Beitrag diskutieren wir die gesellschaftlichen und ethischen Probleme, die sich aus der Digitalisierung ergeben, basierend auf sechs dominanten Technologien: Internet der Dinge, Robotik, Biometrie, Persuasive Technology, Virtual & Augmented Reality und digitale Plattformen. Wir beleuchten die vielen Entwicklungen in der sich digitalisierenden Gesellschaft, die im Widerspruch zu sechs wiederkehrenden Themen zu stehen scheinen, die sich aus unserer Analyse der wissenschaftlichen Literatur zu den vorherrschenden Technologien ergeben: Privatsphäre, Autonomie, Sicherheit, Menschenwürde, Gerechtigkeit und Machtverhältnisse. Diese Studie zeigt, dass die neue Digitalisierungswelle diese öffentlichen Werte unter Druck setzt. Um die digitale Gesellschaft sozial und ethisch verantwortlich zu gestalten, müssen die Akteure ein klares Verständnis dafür haben, was solche Themen sein können. Am weitesten entwickelt ist die Aufsicht in den Bereichen Privatsphäre und Datenschutz. Bei anderen ethischen Fragen der Digitalisierung wie Diskriminierung, Autonomie, Menschenwürde und ungleiche Machtverhältnisse ist die Aufsicht weniger gut organisiert.;-;-;-;https://link.springer.com/article/10.1007/s10676-018-9452-x 2336a0dc02232b274ae43f0453645a05;de;;;3.5.;;;Rückblick auf 2010: Die Buchbranche in Deutschland sucht weiter den Weg in die Digitalisierung In ihrem Bericht über die deutsche Verlagsbranche 2010 zeigt Veronika Licher einige Trends und unterschiedliche Stadien der digitalen Entwicklung auf. Sie erwähnt, wie verschiedene Akteure wie der Deutsche Verlags- und Buchhandelsverband oder der Buchgroßhandel ihre Richtung geändert oder neue Dienste hinzugefügt haben, um sich an den sich wandelnden Markt anzupassen und wie der E-Book-Vertrieb über traditionelle und neue Kanäle funktioniert. Es folgt ein kurzer Rückblick auf die Bestseller des Jahres 2010 und die Entwicklung im Kinderbuch sowie eine Einführung, wie deutsche Verlage versuchen, die neuen Lesestifte einzusetzen.;-;-;-;https://link.springer.com/article/10.1007/s12109-011-9199-2 1e344101dce7de7b6b4d40349cea36e5;de;;;3.5.;;;Rekonstruktion einer 3D-Oberfläche und Wiederherstellung eines flachen Dokumentenbildes aus einer monokularen Bildsequenz Die Digitalisierung von Büchern ist stark nachgefragt. Um dieser Nachfrage gerecht zu werden, gelten kamerabasierte Scansysteme als effektiv, da sie mit den in mobilen Endgeräten eingebauten Kameras arbeiten könnten. Eine vielversprechende Technik, die vorgeschlagen wird, um die Digitalisierung von Büchern zu beschleunigen, besteht darin, ein Buch zu scannen, während der Benutzer die Seiten umblättert. Bei dieser Art der kamerabasierten Dokumentenbildanalyse ist es äußerst wichtig, verzerrte Bilder zu korrigieren. In diesem Artikel schlagen wir ein neues Verfahren zum Rekonstruieren der 3D-Verformung und Wiederherstellen eines flachen Dokumentenbildes vor, indem eine einzigartige planare Entwicklungseigenschaft eines Blatts Papier aus einer monokularen Bildsequenz verwendet wird, die während der Verformung des Papiers aufgenommen wurde. Unser Ansatz verwendet mehrere Eingabebilder und basiert auf der natürlichen Bedingung, dass ein Blatt Papier eine entwickelbare Oberfläche ist, die eine hochwertige Wiederherstellung ermöglicht, ohne sich auf die Dokumentenstruktur zu verlassen. In den Experimenten haben wir die vorgeschlagene Methode für die Zielanwendung anhand von Bildern verschiedener Dokumente und unterschiedlicher Verformungen getestet und ihre Wirksamkeit nachgewiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37447-0_27 bc05c933acf49db6442370fb381dd961;de;;;3.5.;;;3D-Rekonstruktion von papierbasierten Montagezeichnungen: Stand der Technik und Vorgehensweise Engineering-Lösungen werden im Allgemeinen in Montage- und Teilezeichnungen und Stücklisten dokumentiert. Ein großer Nutzen, qualitativ und kommerziell, kann erzielt werden, wenn diese papierbasierten Speicher in digitale Informationsarchive umgewandelt werden. Der Prozess dieser Transformation wird als Rekonstruktion bezeichnet. Der Rekonstruktionsprozess von papierbasierten Montagezeichnungen besteht aus vier Schritten: Digitalisierung, Vektorisierung/Interpretation, 3D-Rekonstruktion der Teile und 3D-Rekonstruktion der Baugruppe.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45868-9_1 a7f98b63c890e62eb39053a5808ba8ca;de;;;3.5.;;;Hierarchische Strukturierung von Kulturerbeobjekten innerhalb großer Aggregationen Riesige Mengen kultureller Inhalte wurden digitalisiert und sind über digitale Bibliotheken und Aggregatoren wie Europeana.eu verfügbar. Es ist jedoch für einen Benutzer nicht einfach, sich einen Gesamtüberblick über das Angebot zu verschaffen oder verwandte Objekte zu finden. Wir schlagen eine Methode zur hierarchischen Strukturierung kultureller Objekte auf unterschiedlichen Ähnlichkeitsebenen vor. Wir beschreiben einen schnellen, skalierbaren Clustering-Algorithmus mit einer automatisierten Feldauswahlmethode zum Auffinden semantischer Cluster. Wir berichten eine qualitative Auswertung zu den Clusterkategorien basierend auf Aufzeichnungen aus dem Vereinigten Königreich und eine quantitative zu den Ergebnissen aus dem vollständigen Europeana-Datensatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40501-3_25 9d1d5e1bed90259515b2f826d530581e;de;;;3.5.;;;Ein GIS-basierter Ansatz zur Clusterbildung für neue Anlagenbereiche in einer digitalisierten Karte Dieses Papier stellt die Technik vor, um geeignete Standorte für den Bau neuer Anlagenbereiche wie Schulen, Kühlhäuser usw. in der gegebenen Karte zu finden. Die Karten sind eine Kombination aus unregelmäßigen Polygonen. Informationen wie die Koordinatenpunkte werden während der Digitalisierung in traditionellen Dateisystemen gehalten. Als erster Schritt der Technik müssen Benutzer die Standorte bestehender Anlagenbereiche anzeigen, die in der Karte visualisiert werden. Über geeignete benutzerfreundliche Oberflächen gab der Benutzer die Anzahl der benötigten neuen Anlagenbereiche ein. Die Technik unterteilt die Gesamtkarte in eine Anzahl von Unterbereichen, die jeweils die gleiche Fläche haben. Diese Anzahl von Unterregionen entspricht der Anzahl der benötigten Gesamtanlagenfläche. Schließlich findet das Tool diejenigen Teilbereiche, die keine Anlagenbereiche enthalten und generiert den Schwerpunkt dieser Teilbereiche als geeigneten Standort für den weiteren Aufbau der Anlagenbereiche.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32112-2_46 0e4170d21e3bb63b66b7bd3d1bea9b75;de;;;3.5.;;;Forschung zur VR-Plattform Konstruktion des immateriellen Kulturerbes der Nationalität Li in Hainan In diesem Beitrag bauen wir eine Virtual-Reality-Plattform zur Darstellung des immateriellen Kulturerbes auf. Ausgehend von dem immateriellen Kulturerbe (ICH) der Li-Nationalität in Hainan als Forschungsobjekt untersuchte der Beitrag aus dem Blickwinkel der Virtual-Reality-Interaktionserfahrung die Möglichkeiten der Einrichtung einer Virtual-Reality-Plattform, um den Hainan Li ICH im ICH digital zu erben und zu entwickeln Umgebung. Darüber hinaus werden die entsprechenden Smart-Services- und Anwendungskonstruktionsstrategien diskutiert, von denen erwartet wird, dass sie eine Referenzrolle bei der Entwicklung des immateriellen Kulturerbes Li spielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5879-5_19 3abd7b6031800c31245a36fab4a0ad1e;de;;;3.5.;;;Verbesserung der OCR-Genauigkeit für klassische kritische Editionen Dieses Papier beschreibt einen Arbeitsablauf, der entwickelt wurde, um eine digitale Bibliothek mit antiken griechischen kritischen Ausgaben mit hochpräzisen OCR-gescannten Texten zu füllen. Während die neusten verfügbaren OCR-Engines nach entsprechender Schulung nun in der Lage sind, mit den polytonischen griechischen Schriften aus dem 19. In diesem Artikel wird insbesondere das progressive Mehrfachausrichtungsverfahren diskutiert, das auf verschiedene OCR-Ausgaben basierend auf denselben Bildern angewendet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04346-8_17 c35125dfa9c2b833e6b2c84d641103ea;de;;;3.5.;;;Vergleich diskreter Krümmungsschätzer und Anwendung auf die Eckenerkennung In neueren Arbeiten wurden mehrere Krümmungsschätzer entlang digitaler Konturen vorgeschlagen [1,2,3]. Diese Schätzer sind an nicht perfekte Digitalisierungsprozesse angepasst und können verrauschte Konturen verarbeiten. In diesem Artikel vergleichen und analysieren wir die Leistung dieser Schätzer bei verschiedenen Konturtypen und messen die Ausführungszeit sowohl bei perfekten als auch bei verrauschten Formen. In einem zweiten Teil werten wir diese Schätzer im Rahmen der Corner Detection aus. Um schließlich die Leistung eines nicht krümmungsbasierten Ansatzes zu bewerten, vergleichen wir die Ergebnisse mit einem morphologischen Eckendetektor [4].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89639-5_68 9f21928e2ab7889b19567279407be624;de;;;3.5.;;;Maximale Ebenen und Multiskalen-Tangentialabdeckung von digitalen 3D-Objekten Die Abfolge maximaler Segmente (d. h. die tangentiale Überdeckung) entlang einer digitalen Grenze ist ein wesentliches Werkzeug zur Analyse der Geometrie zweidimensionaler digitaler Formen. Der Zweck dieses Papiers besteht darin, ähnliche Primitive für dreidimensionale digitale Formen zu definieren, d. h. maximale Ebenen, die über ihre Grenze definiert sind. Wir bieten ihnen eine eindeutige geometrische Definition und vermeiden eine einfache gierige Charakterisierung wie bei früheren Ansätzen. Wir entwickeln eine Multiskalentheorie maximaler Ebenen weiter. Wir zeigen, dass diese Primitive für die Geometrie des digitalen Objekts in verschiedenen Maßstäben repräsentativ sind, selbst bei Vorhandensein von Rauschen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21073-0_14 f538d7e71dd93b0eead32bcceac3a779;de;;;3.5.;;;Kippen gegen Windmühlen: Abenteuer beim Versuch des Wiederaufbaus Trotz der derzeitigen Praxis, die meisten in digitalen Bibliotheken abgelegten Dokumente neu zu verschlüsseln, versuchen wir weiterhin, die Genauigkeit automatisierter Erkennungsverfahren zum Erhalten von Dokumentbildinhalten zu verbessern. Diese Aufgabe wird erschwert, wenn das betreffende Dokument im Buchdruck gerendert, einem hundertjährigen Alterungsprozess unterzogen und vor dem Scannen mikroverfilmt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-28640-0_6 d0348741ccba1ebb3e150644b360c3b6;de;;;3.5.;;;Integration von Textinformationen und Graphic Composite für die PDF-Dokumentanalyse Der Trend zur großflächigen Digitalisierung hat die Forschung zur Verarbeitung von PDF-Dokumenten mit wenigen Strukturinformationen stark motiviert. Für eine erfolgreiche praktische Anwendung der PDF-Layoutanalyse bleiben herausfordernde Probleme wie die grafische Segmentierung in Textintegration ungelöst. Um mit PDF-Dokumenten fertig zu werden, wird ein hybrides Verfahren vorgeschlagen, das Textinformationen und grafische Zusammensetzung enthält, um die Seiten zu segmentieren, die mit herkömmlichen Verfahren schwer zu handhaben sind. Insbesondere werden die Textinformationen genau aus geborenen digitalen Dokumenten abgeleitet, die mit Strukturelementen niedriger Ebene in expliziter Form eingebettet sind. Dann werden Seitentextelemente gruppiert, indem ein graphbasiertes Verfahren gemäß Nähe und Merkmalsähnlichkeit angewendet wird. Währenddessen werden die grafischen Komponenten mittels Textur- und morphologischer Analyse extrahiert. Durch die Integration der geclusterten Textelemente mit bildbasierten Grafikkomponenten werden die Grafiken zur Layoutanalyse segmentiert. Die experimentellen Ergebnisse auf Seiten von PDF-Büchern haben eine zufriedenstellende Leistung gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34456-5_2 80ffa14f01c5057bf093ab5dd8c24752;de;;;3.4.;;;Das Wissensmanagement in technologiebasierte Unternehmen (Modellvorschlag) In diesem Artikel wird untersucht, wie das Wissensmanagement einer bestimmten Art von Unternehmen (Technologieunternehmen) helfen kann, die Vorteile, die seine Implementierung mit sich bringt, zu steigern und zu nutzen. Es wurde eine Recherche über die technologiebasierten Unternehmen (TBFs) und ihre Hauptmerkmale durchgeführt, nachdem die Hauptbeiträge des repräsentativsten Wissensmanagementmodells beschrieben wurden, aus dem wichtige Säulen gewonnen wurden, um schließlich ein Vorschlags-WM-Modell für TBFs zu präsentieren und zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-42147-6_2 d3cd2e2cde2cd68bfb081f6076497acd;de;;;3.4.;;;Wissensmanagementsysteme, die den Wettbewerbsvorteil führender IT-Organisationen nutzen: Eine Fallstudie zu Benchmarking-Praktiken Zweck: Im heutigen Szenario wurden die wesentlichen Faktoren für eine erfolgreiche Gestaltung und Implementierung von Wissensmanagementsystemen auf Organisationsebene hinsichtlich ihrer Benchmarking-Praktiken nicht kritisch bewertet. Die Bedürfnisse einer groß angelegten Initiative des Wissensmanagements wurden nicht aus der Perspektive der Interessengruppen untersucht, und es wurde nur die Perspektive der Unternehmen untersucht. Darüber hinaus wurde nicht untersucht, wie Wissensmanagementsysteme die Marke von Top-IT-Organisationen kontinuierlich verändert haben und wie sie ihr Wachstum durch den strategischen Einsatz ihrer KM-Systeme aufrechterhalten haben. Dieses Papier zielt darauf ab, diesen Raum zu verkürzen. Design/Methodik/Ansatz: In diesem Beitrag wurde eine qualitative Multi-Fall-Analysetechnik zur Datensynchronisation verwendet, um fruchtbare Einblicke in dieses Thema zu gewinnen. Die Datensammlung erfolgte aus realen Fallstudien in der Literatur, und diese wurden kategorisiert und analysiert. Ergebnisse: Die Gesamtergebnisse, die aus diesen Echtzeit-Fallstudien analysiert wurden, waren konstruktiv, wodurch die Relevanz des Aufbaus und der Aufrechterhaltung eines synchronisierten WM-Systems in der sich ständig weiterentwickelnden Geschäftsumgebung projiziert wurde, und es wurden auch einige kritische Erfolgsfaktoren vorgeschlagen. Die Unterstützung des Bereichs Human Resource Development hat sich als sehr entscheidend für die erfolgreiche Implementierung und Aufrechterhaltung des Wissensmanagementsystems in einer Organisation erwiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-0586-3_6 6a8fd7e453a68668cab9801eab6ddfb5;de;;;3.4.;;;Data Warehouse basiertes Wissensmanagement Controlling In der Vergangenheit gab es viele Bemühungen, Daten, die in einem Data Warehouse gespeichert sind, und Wissen, auf das über ein Wissensmanagementsystem zugegriffen werden kann, zu kombinieren, um ein kennzahlenbasiertes Reporting zu verbessern. Es besteht aber auch die Notwendigkeit, Metadaten über die Wissensdatenbank in ein Data Warehouse zu laden. In diesem Beitrag weisen wir auf die Notwendigkeit hin, ein Wissensmanagementsystem und ein Data Warehouse zu integrieren, um Wissensmanagement-Controlling mit Business Intelligence zu ermöglichen. Wir geben Gründe an, warum ein Data Warehouse mit Metadaten aus einem Wissensmanagementsystem geladen werden sollte und legen Wert auf die Schnittstelle zum Extrahieren und Laden der Daten. Dabei werden insbesondere die Herausforderungen bei der Datenextraktion behandelt. Als praktischen Vorschlag möchten wir einen Weg für eine Implementierung mit SAP Portal KM und SAP BW aufzeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16419-4_12 f29b006450c9e890f80fa82b5850ff1c;de;;;3.4.;;;Eine Organisation stellt sich vor Die Medien berichteten 1987/1988 über die Entwicklungen in Amerika und England. Es gab einen klaren Trend zu großen Beratern. Im Herbst 1988. Initiatorin Dr. Liz. jur. R. Rehm und einige Kollegen haben sich zusammengeschlossen und den ERWUS (Europaverband der Rechtsanwälte und Steuerberater, Wirtschaftsprüfer und Unternehmensberater e.V.) gegründet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-19702-7_12 7f794e80504b4048f51cf06798fb2114;de;;;3.4.;;;Industrielle Marketingkommunikation: Eine (R)evolutionäre Reise vom Marktplatz zum Marktplatz Dieser Artikel blickt auf ein jahrzehntelanges Forschungsprojekt zurück, in dem der Einsatz industrieller Marketingkommunikationstools durch industrielle Verkäufer und Käufer in Schweden untersucht wurde. Es stellte sich heraus, dass das Internet während „Teil I“ einfach ein sich entwickelndes Werkzeug innerhalb der „Toolbox“ der industriellen Marketingkommunikation war. In „Part II“ wurde es zu einem revolutionären Mehrzweckwerkzeug.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11761-4_51 46bd45d7f6e9438d45ad5e72aa23add6;de;;;3.4.;;;Wissensmanagement-Tools für die Analyse terroristischer Netzwerke Ein terroristisches Netzwerk ist eine besondere Art von sozialem Netzwerk, bei dem sowohl Geheimhaltung als auch Effizienz im Vordergrund stehen. Solche Netzwerke (bestehend aus Knoten und Verbindungen) müssen analysiert und visualisiert werden, um ein tieferes Wissen und Verständnis zu gewinnen, das eine Netzwerkdestabilisierung ermöglicht. In diesem Beitrag werden zwei neuartige Wissensmanagement-Tools für die Analyse terroristischer Netzwerke vorgestellt. CrimeFighter Investigator bietet erweiterte Unterstützung für menschenzentrierte, zielorientierte Ermittlungen, die darauf abzielen, terroristische Netzwerke auf der Grundlage unterschiedlicher Terrorinformationen aufzubauen. CrimeFighter Assistant bietet erweiterte Unterstützung für Netzwerk-, Knoten- und Linkanalysen, sobald ein terroristisches Netzwerk aufgebaut wurde. Der Artikel konzentriert sich hauptsächlich auf das letztgenannte Instrument.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29764-9_22 bf9fb814d946666fbacaf7e3f4678c7e;de;;;3.4.;;;Anwendung von Group Storytelling im Wissensmanagement Wissensmanagement und insbesondere das Organisationsgedächtnis sind für das Leben von Organisationen unverzichtbar geworden. Die Dokumentation von implizitem Wissen, das zur Durchführung von täglichen Aktivitäten wie Diskussionen und Entscheidungen verwendet wird, ist eine komplexe Aufgabe. Eine weitere Herausforderung ist der Umgang mit kollektivem Wissen, denn ein wichtiger Teil der Organisationsarbeit wird kooperativ ausgeführt. In diesem Papier stellen wir Geschichten als wichtiges Instrument vor, um implizites Wissen zu externalisieren. Wir beschreiben TELLSTORY, ein System, das die kollaborative Konstruktion von Geschichten unterstützt. Basierend auf den Merkmalen der traditionellen literarischen und journalistischen Erzählstruktur hilft TELLSTORY Teams bei der Entwicklung von Geschichten, um explizite stillschweigende Wissenselemente zu machen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30112-7_4 ffe84702bb2e026e87a17fb0735854ce;de;;;3.4.;;;Wissen funktionieren lassen: Fünf Prinzipien für handlungsorientiertes Wissensmanagement Initiativen zum Wissensmanagement (WM) basieren oft auf der Annahme, dass die Beziehung zwischen Wissen und Handeln mit Wissen beginnt, d. h. wir wissen etwas und handeln danach. Eine solche Annahme kann dazu führen, dass WM-Initiativen Wissen entwickeln, das für die Maßnahmen, die eine Organisation zu ergreifen bereit ist, nicht unbedingt nützlich ist. Wenn die Organisation jedoch Wissen aus den Maßnahmen ableitet, die sie zu ergreifen bereit sind oder ergreifen, kann das Wissen viel nützlicher sein, da es die Maßnahmen direkt erleichtert. In diesem Artikel argumentieren wir, dass die Beziehung zwischen Wissen und Handeln wechselseitig ist und ein wechselseitiges Lernen ermöglicht. Daher sind WM-Initiativen am ehesten erfolgreich, wenn sie überlegen, wie Wissen aus Handlungen abgeleitet und Wissen vermittelt werden kann. Das Papier entwickelt fünf Prinzipien für handlungsorientiertes WM.;-;-;-;https://link.springer.com/article/10.1057/palgrave.kmrp.8500088 a8465ad1975bb5bbfec810169583cf7d;de;;;3.4.;;;Der Aufstieg des Storytelling als neues Marketing Immer mehr große und kleine Marken betreiben eine Marketingaktivität namens Content Marketing: Die Idee, dass Storytelling der Schlüssel zur Gewinnung und Bindung von Kunden ist. Content-Marketing-Experte Joe Pulizzi beschreibt die Geschichte des Content-Marketings, die Möglichkeiten und sechs Unterschiede, die gute bis großartige Content-Marketer für Publisher unterscheiden.;-;-;-;https://link.springer.com/article/10.1007/s12109-012-9264-5 f844f82bbe0ef043b60ace435965d647;de;;;3.4.;;;Auf dem Weg zum Design eines Cybersecurity-Kompetenznetzwerks: Erkenntnisse aus der Analyse bestehender Netzwerkorganisationen Die zunehmende Abhängigkeit von Wirtschaft, Gesellschaft und Staat vom Cyberspace und zunehmende Cyberrisiken erfordern nicht nur Technologien und qualifizierte Arbeitskräfte, sondern auch innovative organisatorische Lösungen. Die Europäische Union sieht eine solche Lösung in der Einrichtung eines Netzwerks von Kompetenzzentren für Cybersicherheit. In den letzten zwei Jahrzehnten hat sich die Schaffung kollaborativer, vernetzter Organisationen in anderen Bereichen als nützlich erwiesen, um Wissen, Ressourcen und Risiken auszutauschen, um schnell neue Marktchancen zu nutzen. Die größte Herausforderung bei der Schaffung vernetzter Organisationen besteht darin, durch angemessene Governance und Management eine langfristige und effektive Zusammenarbeit zu gewährleisten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-59000-0_4 1cabb9dcc0d25b93a3e4fff29dbab50a;de;;;3.4.;;;Direktmarketing basierend auf einem verteilten intelligenten System In einer stärker globalisierten und vernetzten Welt wird es notwendig, die Ressourcen zu optimieren, um Endprodukte in den Zielmarktsegmenten zu finden. Direktmarketing hat von Computermethoden profitiert, um Verbraucherpräferenzen zu modellieren, und viele Unternehmen beginnen, diese Strategie zu erkunden, um mit Kunden zu interagieren. Dennoch ist es immer noch ein offenes Problem, wie man Umfragen formuliert, verteilt und an Kunden wendet und dann ihre Antworten sammelt, um Tendenzen in den Präferenzen der Kunden zu bestimmen. In diesem Beitrag schlagen wir ein verteiltes intelligentes System als technologische Innovation in diesem Bereich vor. Unser Hauptziel ist es, Endverbraucher zu erreichen und Präferenzen zu korrelieren, indem wir einen Ansatz verwenden, der Fuzzy-C-Means und den analytischen Hierarchieprozess kombiniert. Ein Multi-Agenten-System wird verwendet, um die Definition der Umfrageparameter, die Umfrage selbst und die intelligente Verarbeitung von Kundenurteilen zu unterstützen. Cluster werden nach der Verarbeitung der Kundenpräferenzen synthetisiert und stellen ein nützliches Werkzeug dar, um ihre Präferenzen in Bezug auf die Produkteigenschaften zu analysieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15606-9_17 2a33be29478563636f5dc4731ddfde79;de;;;3.4.;;;Die Praxisforschung der „stereologischen Konstruktion“ von Kursunterlagen unter der Informationsumgebung – Die Praxisforschung der , die den ersten Preis der nationalen Kursunterlagen gewonnen haben Dieses Papier basiert auf dem National First Prize Courseware – , das von den Autoren des Papers entwickelt wurde und darauf abzielt, die „stereologische Konstruktion“ von Courseware zu untersuchen, um ihre Rolle im Unterrichten von Lehrern, den Schülern als Autodidakten, zu spielen, üblich Praxis und Erprobung unter der Leitung seiner fortschrittlichen Ideen – „studentisch – basiert“ und „Forschung – Lehre“. Die empirische Forschung wurde durch Anwendungen der spezifischen Lehre durchgeführt, die gute Lehrwirkungen erzielt und den Forschergeist, die kreative Qualität, das interaktive Konzept und den Teamgeist der Studierenden enorm mobilisiert und die drei Lehrziele Kognition, Fähigkeit und Emotion erreicht haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23357-9_95 bdadbe07373d75e5ceeab861a6529cb4;de;;;3.4.;;;Einige kritische Vertriebsprobleme im Dienstleistungsmarketing Eines der am weitesten verbreiteten Probleme im heutigen Dienstleistungsmarketing ist das Problem der Dienstleistungsverteilung. In diesem Papier werden einige der kritischen Probleme des Dienstleistungsvertriebs und der damit verbundenen Probleme diskutiert – Kontrolle von Menschen und Umwelt, mangelnde Übereinstimmung unter den Akademikern des Dienstleistungsmarketings usw. Schließlich schließt das Papier mit einigen Beobachtungen zum gegenwärtigen Stand der Dinge und Empfehlungen für Dienstleistungen Marketing-Manager.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-17317-7_21 98bc99cb6ce9adc6434335eb1ad7ab57;de;;;3.4.;;;Anwendung von IT-Governance-Konzepten und -Elementen auf Knowledge Governance: ein erster Ansatz Da die Ära der wissensbasierten Wirtschaft anbricht, nimmt die Bedeutung der Wissensverwaltung allmählich zu. Die Frage, wie sich die Governance-Mechanismen auf die Wissenstransaktionen auswirken, wird immer relevanter. Die theoretischen Ansätze müssen jedoch noch offene Fragen lösen, wie etwa wie die Governance-Mechanismen auf Mikroebene die Wissensprozesse beeinflussen oder welche Art von organisatorischem Risiko den Nutzen der Wissensprozesse verringern könnte. Darüber hinaus ist wohl der Einsatz empirischer Studien erforderlich, um die genannten Probleme anzugehen. Dieses Papier schlägt einen Wissens-Governance-Rahmen vor, um die Implementierung von Governance-Mechanismen für Wissensmanagementprozesse effektiv zu unterstützen. Darüber hinaus wird aufgezeigt, wie dies in einem wissensintensiven Unternehmen umgesetzt werden kann und schlägt spezifische Strukturen und Governance-Mechanismen vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04757-2_28 d266027d2b3b35f93056ca798d97422f;de;;;3.4.;;;Stärken und Schwächen von Support Vector Machines in der Marketingdatenanalyse Support Vector Machines sind nicht nur vielversprechend für die Lösung von Mustererkennungsaufgaben, sondern haben bis heute auch mehrere erfolgreiche Anwendungen in der medizinischen Diagnostik und Objekterkennung hervorgebracht. Da liegt es nahe, zu prüfen, ob diese Methodik auch ein hilfreiches Werkzeug für die Klassifizierung im Marketing und insbesondere im Außendienst sein könnte. Zur Beantwortung dieser Frage werden sowohl Stärken als auch Schwächen von Support Vector Machines in der Marketingdatenanalyse exemplarisch untersucht mit besonderem Augenmerk auf das Problem der Auswahl geeigneter Kernelfunktionen und der Bestimmung der zugehörigen Parameter. Dabei auftretende Schwierigkeiten werden anhand realer Daten aus dem Gesundheitswesen veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-26981-9_41 12193f9b2013ee40e7691518bf4a6c08;de;;;3.4.;;;Marketingkosten und unvollständiger Wettbewerb im allgemeinen Gleichgewicht Die allgemeine Gleichgewichtstheorie hat erhebliche Fortschritte bei der Entwirrung der Logik gemacht, wie ein Markt individuelle Aktionen koordinieren kann. Dieser Fortschritt basiert jedoch auf einem rein abstrakten Konzept eines „Marktes“. Dieses „ätherische Konstrukt“ [1, S. 3] war eine Art wundersame Leere (oder Blackbox), aus der Preise hervorgingen, zu denen alle Agenten gleichen Zugang hatten. Dieses Papier unternimmt einen vorläufigen Versuch, den Begriff eines Marktes in dieser Theorie zu erweitern. Es erweitert frühere Bemühungen (z. B. [6] und [8]), um Transaktionen und Merchandising-Kosten in allgemeinen Gleichgewichtsmodellen explizit zu machen. Grundsätzlich wird versucht, explizit zu berücksichtigen, dass auch Märkte durch Optimierungsagenten gesteuert werden. Dabei ist das Problem der Beschreibung unvollkommen wettbewerbsfähiger Lösungen unumgänglich. Daher können diese Agenten mehr als einen Markt unterhalten, auf dem sie mit einer bestimmten Ware handeln, und dasselbe „Gut“ kann auf verschiedenen Märkten im Gleichgewicht unterschiedliche Preise haben – sowohl aufgrund von Preisdiskriminierung als auch aufgrund unterschiedlicher Handelskosten für verschiedene Arten von Händlern. Zusammenfassend beginnt dieses Papier mit der Arbeit an einem Modell, das die gleichzeitige Bestimmung der Art von Handelsvereinbarungen und von Preisen erlaubt. Im nächsten Abschnitt dieses Papiers werden die Arten von Märkten beschrieben, die in diesem Modell berücksichtigt werden. Abschnitt 3 präsentiert die formale Definition des Marktmodells dieses Papiers. Abschnitt 4 macht eine Übersetzung dieses Modells in das Standard-Arrow-Debreu-Modell des Gleichgewichts. Dies ist technisch sinnvoll und macht deutlich, wie dieses Modell die Arrow-Debreu-Analyse erweitert. Schließlich diskutiert Abschnitt 5 ein neues Lösungskonzept, das von diesem Modell vorgeschlagen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-1155-6_14 b7a472dee63f5849cce8cddfaa852aa3;de;;;3.4.;;;Ein Ökosystemmodell kleiner und mittlerer Unternehmen „Tiers“ von Verlagen: Verlagsgröße, Nachhaltigkeit und Kulturpolitik Dieser Artikel erstellt ein quantitatives und qualitatives Modell des Verlags „Tiers“ kleiner und mittlerer Unternehmen (KMU), um Forschern und kulturpolitischen Entscheidungsträgern ein genaueres Verständnis der Auswirkungen der Verlagsgröße zu ermöglichen. Durch eine aggregierte Reihe von Fallstudien aus dem Vereinigten Königreich entwickelt der Artikel auch ein Verständnis dafür, wie ein kulturelles Unterstützungsmodell für das Publizieren basierend auf Verlagsgröße, Nachhaltigkeit und Unternehmenslebenszyklus aufgebaut werden kann. Was das Tiers-Modell in Bezug auf die kulturpolitische Finanzierung von Verlagen untermauert, ist ein strenger und entwicklungsorientierter Sinn für ein Verlagsökosystem, das einen Rahmen bietet, der die Industrie und breitere Kontexte berücksichtigt und es der kulturpolitischen Finanzierung ermöglicht, die Entwicklung von Verlagen, Herausforderungen und Wachstum.;-;-;-;https://link.springer.com/article/10.1007/s12109-021-09811-y 58de71141c751f28f78ab43a2dbaa6ae;de;;;3.4.;;;Die Verwendung von Branding durch Fachverlage: Eine Untersuchung zur Vermarktung des Buches als Markenprodukt Das Verlagswesen war traditionell eine introspektive Branche, und obwohl sich dies allmählich ändert, müssen Verlage einen stärker marktorientierten Ansatz verfolgen. Dies erfordert die Entwicklung von Markenstrategien, um den Bekanntheitsgrad und die Kundenloyalität beim Buchkaufpublikum zu erhöhen. Die Natur des Buches als Produkt bereitet Schwierigkeiten bei der Anwendung der Markentheorie auf die Branche. Diese Studie gibt einen Einblick in die Probleme, die mit der Markenbildung des Impressums und des Autors verbunden sind, und untersucht, wie einige Fachverlage diese Probleme angehen. Die Studie untersucht auch die öffentliche Wahrnehmung von Marken innerhalb des Handelssektors und untersucht, wie viel Einfluss die Marken von Verlagen auf den Verbraucher haben.;-;-;-;https://link.springer.com/article/10.1007/s12109-999-0031-1 f68f3f039440eb37e5fc1364ca162016;de;;;3.4.;;;Genetisch-algorithmischer Ansatz für die Personalzeitplanung In diesem Beitrag wird ein genetisch-algorithmischer Ansatz zur Lösung des Problems der Personalplanung vorgestellt, bei dem es darum geht, den Mitarbeitern Aufgaben zuzuweisen. Das Problem ist mehrfach eingeschränkt und hat einen großen Suchraum, was es NP schwer macht. Das betrachtete Problem ist das der Zeitplanung des Laborpersonals. Ein genetischer Algorithmus wird auf eine Probleminstanz mit 14 Mitarbeitern und 9 Aufgaben angewendet. Der kanonische genetische Algorithmus zeigt eine sehr langsame Konvergenz zur optimalen Lösung. Daher wird ein wissenserweiterter Operator in das genetische Algorithmus-Framework eingeführt. Dies hilft, schnell die nahezu optimale Lösung zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20209-4_10 39d5842a31ca50cf2d3c5e9f02ead7eb;de;;;3.4.;;;Der Alchemie-Austausch - Wie aus studentischen Beratungsangeboten eine gute Studentenerfahrung wird Dieses Papier beschreibt den Weg der Sheffield Business School bei der Implementierung einer studentischen Beratungseinheit als außerschulische Aktivität und die positiven und negativen Probleme, mit denen sie konfrontiert war. Es ist eine Fallstudie, die den Leser von der Konzeption bis hin zu einer funktionierenden Studienberatung führt. Die Alchemy Exchange hat sich neben der studienbegleitenden Beratung als Teil des gesamten Studienangebots etabliert und ist Teil des Business-Engagement-Angebots der Business School. Die Fallstudie bietet einen Einblick, wie eine außerschulische Aktivität als Möglichkeit genutzt werden kann, Unternehmen einen kosteneffektiven Beratungsdienst zu bieten und gleichzeitig den Studierenden eine reale Lernerfahrung zu bieten, für die sie bezahlt werden, die von einem Akademiker betreut wird und Wissen vermittelt .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34219-6_9 ea7bd0bbab5556a7c147fb04409b1bab;de;;;3.4.;;;Die Rolle der Identitätssalienz bei den Auswirkungen der sozialen Verantwortung von Unternehmen auf das Verbraucherverhalten Ausgehend von der Annahme, dass Verbraucher Unternehmen für ihre Unterstützung von Sozialprogrammen belohnen, haben viele Organisationen Praktiken der sozialen Unternehmensverantwortung (CSR) übernommen. Basierend auf der Theorie der sozialen Identität wird ein Modell des Einflusses von CSR auf die Loyalität entwickelt und anhand einer Stichprobe von echten Verbrauchern getestet. Die Ergebnisse zeigen, dass CSR-Initiativen mit einer stärkeren Loyalität verbunden sind, sowohl weil der Konsument eine positivere Unternehmensbewertung entwickelt, als auch weil man sich stärker mit dem Unternehmen identifiziert. Darüber hinaus spielt Identitätssalienz eine entscheidende Rolle für den Einfluss von CSR-Initiativen auf die Verbraucherloyalität, wenn dieser Einfluss durch die Identifizierung von Verbrauchern und Unternehmen erfolgt. Ein starker Identifikator befindet sich nicht unbedingt in einem konstanten Zustand, aber die Aktivierung der Identitätssalienz einer bestimmten sozialen Identität eines Verbrauchers (eines Unternehmens) beeinflusst die Reaktion des Verbrauchers auf Produktstimuli und erhöht die Verbraucherbindung.;-;-;-;https://link.springer.com/article/10.1007/s10551-008-9673-8 a94aeec4ae344b646b6be9ef1db0d417;de;;;3.4.;;;Eine kritische Analyse der Tourismusinformationstechnologieforschung Die hier vertretene Arbeit ist ein Versuch, die Forschungsliteratur der Tourismusinformatik zusammenzuführen und eine erste kritische Analyse zu liefern. Die Quellen beschränkten sich auf überprüfte Forschungsarbeiten in dem Bereich, aus denen bedeutende Themen, Trends und Probleme abgeleitet wurden. Innerhalb der identifizierten Kontextgrenzen, Definitionen und Ressourcenbeschränkungen werden einige vorläufige Analysen und Interpretationen angeboten. Die Ergebnisse verdeutlichen, dass in den letzten sechs Jahren eine anhaltend hohe Forschungsaktivität verzeichnet wurde, wobei die Hauptquellen Großbritannien, Deutschland, Österreich und die USA sind. Erhebliche Anstrengungen wurden auf Tourismusinformationssysteme, elektronischen Vertrieb und Handel sowie eine Vielzahl von webbasierten Initiativen konzentriert. Zu den Forschungslückenbereichen gehören jedoch offenbar die Qualitätssicherung, der mobile Zugang und der Ausbildungsbereich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-6291-0_4 9662941501bcd567adeace572cb2959d;de;;;3.4.;;;Lösen und Interpretieren von binären Klassifizierungsproblemen im Marketing mit SVMs Marketingprobleme beinhalten oft eine binäre Klassifizierung von Kunden in „Käufer“ gegenüber „Nichtkäufern“ oder „bevorzugt Marke A“ gegenüber „bevorzugt Marke B“. Diese Fälle erfordern binäre Klassifikationsmodelle wie logistische Regression, lineare und quadratische Diskriminanzanalyse. Eine vielversprechende neuere Technik für das binäre Klassifikationsproblem ist die Support Vector Machine (Vapnik (1995)), die hervorragende Ergebnisse in Bereichen von der Bioinformatik bis zum Finanzwesen erzielt hat. In diesem Papier vergleichen wir die Leistung der Support Vector Machine mit binären Standardklassifikationstechniken an einem Marketingdatensatz und gehen auf die Interpretation der erhaltenen Ergebnisse ein.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-31314-1_69 ebd24526fb7e44f96eac6c69a8e796d8;de;;;3.4.;;;Nutzerabsichten für die kontinuierliche Nutzung mobiler Nachrichten-Apps: die Rolle von Qualität, Wechselkosten und Personalisierung Mobile Nachrichten-Apps haben sich zu einem wichtigen Mittel entwickelt, um sich über die neuesten Nachrichten und Trends zu informieren. Angesichts zahlreicher Nachrichten-Apps und Informationsüberflutung ist es jedoch sowohl für die Industrie als auch für die Wissenschaft ein wichtiges Anliegen, Benutzer zu einer App zu motivieren. Unter Berücksichtigung der Attribute mobiler Nachrichten und der Debatte um Wechselkosten im Internet-Kontext, basierend auf dem Erwartungs-Bestätigungs-Modell (ECM), legt diese Studie daher nahe, dass Wechselkosten immer noch existieren und einen signifikanten dämpfenden Effekt auf die Benutzerzufriedenheit und die kontinuierliche Nutzung haben von mobilen Nachrichten-Apps. Darüber hinaus werden die unterschiedlichen Einflüsse von Informationsqualität, Systemqualität und Servicequalität auf die Fortführungsabsicht, die Nutzerzufriedenheit und die Wechselkosten diskutiert, wobei gezeigt wird, dass die Informationsqualität einen signifikanten Einfluss auf die kontinuierliche Nutzung mobiler Nachrichten-Apps durch die Nutzer hat, indem sie den wahrgenommenen Nutzen erhöht, während personalisierte Servicequalität hat stärkere Auswirkungen durch die Erhöhung der Benutzerzufriedenheit und der Wechselkosten.;-;-;-;https://link.springer.com/article/10.1007/s11518-019-5405-0 821410e7b3e56cfc0c2806e36c6fe999;de;;;3.4.;;;Anwendung ethischer Theorien: Interpretation und Reaktion auf Schülerplagiate Angesichts der enormen Verbreitung von Studentenplagiaten im Zusammenhang mit dem Internet besteht der Zweck dieser Studie darin, festzustellen, auf welche Theorien ethischen Denkens Studenten sich bei der Verteidigung ihrer Übertretungen berufen: Deontologie, Utilitarismus, rationales Eigeninteresse, Machiavellismus, kultureller Relativismus oder situationsbezogene Ethik. Es ist wichtig zu verstehen, welche Theorie der ethischen Argumentation Studenten anwenden, da die Fakultät vorbeugende Schritte unternehmen kann, um dieser Argumentation entgegenzuwirken und Plagiate zu verhindern.;-;-;-;https://link.springer.com/article/10.1007/s10551-006-9171-9 c7d535e8c2f086825abd5db26913329a;de;;;3.4.;;;Standortbasiertes GSM-Marketing Das schnelle technologische Wachstum der letzten Zeit im Telekommunikations- und IT-Bereich hat zu einer Ausweitung der Literatur in Bezug auf Industriedienstleistungen geführt. Standortbasiertes oder Proximity-Marketing wurde kürzlich in der Industrie eingeführt. Das Proximity-Marketing wurde mit Bluetooth- und Wi-Fi-Netzwerken eingeführt. Beide Netzwerke haben eine höhere Privatsphäre und eine begrenzte Reichweite. Dies sind Hürden für die Projektträger, die in diese Dienste investieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17878-8_57 8b7143b2a07d4147f9df51539e3e0c9b;de;;;3.4.;;;Wettbewerbsanalyse im Marketing anhand von nach Rang geordneten Daten Ein neuer Ansatz zur Bewertung des Wettbewerbs zwischen verschiedenen Produkten einer Kategorie anhand individueller Rankings wird eingeführt. Der Ansatz basiert auf dem Prinzip der ordinalen Regression und konzentriert sich auf die Ermittlung der Quellen vorhandener Marktanteile. Um dies zu erklären, wird der Erfolg eines bestimmten Produkts auf die Wahrnehmung relevanter Attribute durch den Verbraucher zurückgeführt. Die Funktionalität unseres Ansatzes wird durch die Anwendung auf einen empirischen Datensatz aus der Automobilindustrie demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-26981-9_36 d6b73bc57a994d501c6ea5f0858f25ff;de;;;3.4.;;;Abgeleitete Kausalitätstheorie: Zeit für einen Paradigmenwechsel in der Marketingwissenschaft? In den letzten zwei Jahrzehnten wurde der analytische Werkzeugkasten zur Untersuchung der Eigenschaften, die für die Behauptung von kausalen Zusammenhängen erforderlich sind, erheblich erweitert. Neue Ansätze der Kausalitätstheorie stützen sich auf das Konzept der „Intervention“ statt der „Assoziation“. Unter einem axiomatischen Rahmen erarbeiten sie die Bedingungen für sichere Kausalschlüsse aus nichtexperimentellen Daten.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-31314-1_5 7a22b942c9a108c285ac2a5cbaac4fd2;de;;;3.4.;;;Ein Trust-Management-Framework für sichere Cloud-Datenspeicherung mit kryptografischer rollenbasierter Zugriffskontrolle In letzter Zeit hat sich die sichere Speicherung von Daten in der Cloud zunehmend entwickelt. Das rollenbasierte Zugriffskontrollmodell (RBAC), ein weit verbreitetes Zugriffskontrollmodell, kann Dateneigentümern eine flexible Möglichkeit bieten, ihre Daten in der Cloud-Umgebung zu verwalten und freizugeben. Um die Zugriffskontrollrichtlinien in der Cloud durchzusetzen, wurden kürzlich mehrere kryptografische RBAC-Schemata vorgeschlagen, die kryptografische Techniken mit RBAC-Modellen integrieren, um die Datenspeicherung in einer ausgelagerten Umgebung wie einer Cloud zu sichern. Diese Schemata befassen sich jedoch nicht mit der Frage des Vertrauens in ein solches Datenspeichersystem. In diesem Papier stellen wir ein Vertrauensmanagement-Framework vor, das die Sicherheit von Daten in Cloud-Speichersystemen mithilfe von kryptografischen RBAC-Schemata verbessern kann. Das Vertrauensmanagement-Framework bietet für jede Partei in einem solchen Cloud-Speichersystem einen Ansatz, um die Vertrauenswürdigkeit anderer Parteien zu bestimmen. Das Framework besteht aus einer Reihe von Vertrauensmodellen, die (i) es den Benutzern und den Dateneigentümern ermöglichen zu entscheiden, ob sie mit einer bestimmten Rolle für den Zugriff auf und die gemeinsame Nutzung von Daten im System interagieren, und (ii) den Rollenmanagern ermöglichen, die Vertrauenswürdigkeit zu bewerten von Benutzern und Dateneigentümern. Diese Vertrauensmodelle berücksichtigen Rollenvererbung und Hierarchie bei der Bewertung der Vertrauenswürdigkeit der Rollen. Darüber hinaus präsentieren wir ein Design eines vertrauensbasierten Cloud-Speichersystems, das zeigt, wie die Vertrauensmodelle für Benutzer und Rollen in ein System integriert werden können, das kryptografische RBAC-Schemata verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44788-8_14 bc46c5f902f3df1ac77d2103e87b9296;de;;;3.4.;;;Erforschung und Anwendung von Präzisionsmarketingalgorithmen für ETC-Kreditkarten basierend auf Telekommunikations-Big Data Die elektronische Mauterfassung (ETC) ist ein elektronisches Non-Stop-Mautsystem für Schnellstraßen, das den Fahrern einen enormen Komfort bietet, wenn das Fahrzeug die Mautstellen ohne Halt passiert. In letzter Zeit hat China einen riesigen Markt und sein Kreditkartengeschäft hat stark zum Privatkundengeschäft der Banken beigetragen. Daher ist ein genaues Marketing für die potenziellen Nutzer für das Bankgeschäft sehr wichtig. Benutzer können vollständig porträtiert werden, um die Eigenschaften potenzieller ETC-Benutzer basierend auf Big Data der Telekommunikation zu erkunden. Für solche Situationen schlagen wir einen fortschrittlichen K-Means-Clustering-Algorithmus im Hinblick auf den Silhouetteskoeffizienten vor, der die Genauigkeit des Clusterings deutlich erhöhen und die Leistung des K-Means-Clustering verbessern kann. Durch die Anwendung dieses fortschrittlichen Algorithmus im Präzisionsmarketing-Szenario der ETC-Kreditkarte können die Schlüsselelemente erhalten werden, die sich auf die ETC-Verarbeitung der Kunden auswirken. Diese Methode bringt neue Ideen und neuen Schwung in die Entwicklung vertikaler Industrien.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4102-9_129 a34254b0ff3e9e2f1a6fd3ab78781864;de;;;3.4.;;;Wachsende Clustering-Algorithmen in der Marktsegmentierung: Definition von Zielgruppen und zugehörige Marketingkommunikation Dieses Papier skizziert innovative Techniken zur Segmentierung von Verbrauchermärkten. Es vergleicht ein neues selbstgesteuertes wachsendes neuronales Netzwerk mit einem kürzlich wachsenden;-;-;-;https://link.springer.com/chapter/10.1007/3-540-35978-8_3 39ad40d5ffdc7856cec796a097a9b9bd;de;;;3.4.;;;Kundensegmentierung basierend auf kompensatorischer Fuzzy-Logik in einem Nachhaltigkeits-CRM für intermodale Mobilität Heute ist Customer Relationship Management (CRM) ein wesentlicher Bestandteil der Strategien von Unternehmen, den Konsum von Kunden mit dem Ziel der Gewinnmaximierung zu steigern. Die Integration von Nachhaltigkeit in CRM ist auf verschiedenen Ebenen im Gange (z.B. Green Marketing), aber Nachhaltigkeit ist noch nicht in einen ganzheitlichen Ansatz in CRM-Strategien, -Prozesse und -Systeme integriert. Ein wesentlicher Beitrag eines solchen Sustainable CRM kann darin bestehen, das Verhalten der Kunden zu einem nachhaltigeren Konsum zu beeinflussen. Um die richtigen Kunden zu identifizieren und effektive Marketingaktivitäten anzuwenden, ist es notwendig, Kundensegmente aufzubauen. Die Daten der Kunden sind in diesem Zusammenhang vielfältig und oft unscharf. Bei diesem Ansatz wird kompensatorische Fuzzy-Logik zur Kundensegmentierung basierend auf Benutzerpräferenzen verwendet. Die Fallstudie zeigt die Anwendung dieser Kundensegmentierung innerhalb eines Dienstes für E-Mobilität für verschiedene Verkehrsmittel (Elektroauto, ÖPNV, Bahn etc.) mit dem Ziel, Kunden zu einem nachhaltigeren Mobilitätsverhalten zu führen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-53737-0_27 1fd99cb98a21c00a20cd912b86801d48;de;;;3.4.;;;Einen „dritten Raum“ besetzen: forschungsgeschultes Fachpersonal an australischen Universitäten Trotz des Ausbaus und der Professionalisierung der Hochschulverwaltung in den letzten 20 Jahren gibt es keine wissenschaftliche Studie darüber, inwieweit Universitäten, die den Wert generischer Kompetenzen aus Forschungsabschlüssen für angehende Forschungsstudenten und deren Arbeitgeber fördern, die Forschungs- und Transferleistungen Fähigkeiten von Doktoranden, die später im Hochschulbereich als Fachpersonal tätig waren. Die Ergebnisse dieser Studie über forschungsgeschultes Fachpersonal an einer forschungsintensiven australischen Universität legen nahe, dass diese Fachkräfte ihre Forschungs- und allgemeinen Fähigkeiten in Managementfunktionen zum Nutzen der Universität einsetzen. Im Kontext der wissensbasierten Wirtschaft legt diese Studie nahe, dass Universitäten davon profitieren könnten, die Produkte ihres eigenen Systems aktiv für professionelle Rollen zu nutzen.;-;-;-;https://link.springer.com/article/10.1007/s10734-009-9292-z 68ea3c146fabeb478d2c1b688396b5fd;de;;;7.3.;;;Auswahl von Videoaufnahmen und inhaltsbasierte Szenenerkennung zur automatischen Klassifizierung von TV-Sportnachrichten Visuelle Abrufsysteme müssen eine große Menge digitaler Videodaten speichern. Die neuen Möglichkeiten, die das Internet sowie lokale Netzwerke bieten, haben Videodaten öffentlich und relativ einfach zugänglich gemacht, z • Videodaten sollten indiziert werden, hauptsächlich mit inhaltsbasierten Indexierungsmethoden. Digitales Video ist hierarchisch aufgebaut. Video besteht aus Akten, Sequenzen, Szenen, Einstellungen und schließlich aus Einzelbildern. Bei den in dem Papier beschriebenen Tests wurde eine spezielle Software namens AVI – Automatic Video Indexer verwendet, um Aufnahmen in getesteten Videos zu erkennen. Anschließend wurden die einzelnen Standbilder aus unterschiedlichen Zeitpositionen in den in zehn TV-Sportnachrichten erkannten Einstellungen gründlich auf ihre Brauchbarkeit für eine automatische Klassifikation von TV-Sportnachrichten untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05019-0_9 8cd511779090f032680a66658f38c5f3;de;;;7.3.;;;Ein einheitliches probabilistisches Framework für das Clustering korrelierter heterogener Webobjekte Die meisten existierenden Algorithmen clustern hochkorrelierte Datenobjekte (z. B. Webseiten und Webabfragen) separat. Einige andere Algorithmen berücksichtigen jedoch die Beziehung zwischen Datenobjekten, aber sie integrieren entweder Inhalts- und Verknüpfungsmerkmale in einen einheitlichen Merkmalsraum oder wenden einen harten Clustering-Algorithmus an, was es schwierig macht, die korrelierten Informationen über die heterogenen Webobjekte vollständig zu nutzen . In diesem Papier schlagen wir einen neuen einheitlichen probabilistischen Rahmen für das iterative Clustering korrelierter heterogener Datenobjekte vor, bis es konvergiert. Unser Ansatz führt zwei latente Clustering-Schichten ein, die als zwei gemischte probabilistische Modelle der Merkmale dienen. In jeder Clustering-Iteration verwenden wir den EM-Algorithmus (Expectation-Maximization), um die Parameter des Mischungsmodells in einer latenten Schicht zu schätzen und sie auf die andere zu übertragen. Die experimentellen Ergebnisse zeigen, dass unser Ansatz die Inhalts- und Linkfunktionen effektiv kombiniert und die Leistung des Clusterings verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-31849-1_9 bede1995d48df7e60b7ab179f19a0b01;de;;;7.3.;;;"Meme-Medienarchitektur für den intuitiven Zugriff und die Organisation intellektueller Ressourcen Mit dem wachsenden Bedarf an interdisziplinärer und internationaler Verfügbarkeit, Verteilung und Austausch von intellektuellen Ressourcen einschließlich Informationen, Wissen, Ideen, Arbeiten und Werkzeugen in wiederbearbeitbaren und weiterverteilbaren organischen Formen, brauchen wir neue Medientechnologien, die wissenschaftliche, technologische kulturelle Wissensfragmente auf organische Weise und fördern ihre fortgeschrittene Nutzung, internationale Verbreitung, Wiederverwendung und Neubearbeitung. Diese Medien können als Meme-Medien bezeichnet werden, da sie das enthalten, was R. Dawkins ""Meme"" nannte. Eine Anhäufung von Memen in einer Gesellschaft bildet einen Memepool, der wie ein Genpool funktioniert. Meme-Pools werden eine schnelle Anhäufung von Memen bewirken und neue Technologien für die Verwaltung und den Abruf von Memen erfordern. Dieses Papier gibt zunächst einen Überblick über unsere Forschung und Entwicklung zu Meme-Medien und schlägt dann deren Anwendung im Web vor, um es als Meme-Pool für die gemeinsame Neubearbeitung intellektueller Ressourcen sowie für den intuitiven Zugriff und die Organisation der riesigen Ansammlung intellektueller Ressourcen in unseren Gesellschaften zu nutzen.";-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-32279-5_8 8da3c32795c356192b9a529baa624b1e;de;;;7.3.;;;Messaging-Systeme: Parallel Computing des Internets und des Netzes Wir stellen die Anforderungen und die Leistung von Messaging-Systemen in parallelen und verteilten Systemen gegenüber und betonen die Bedeutung des Unterschieds von fünf Größenordnungen bei den Latenzen der Netzwerkhardware in den beiden Fällen. Wir weisen auf die Bedeutung von Messaging in Grid- und Web-Service-Anwendungen beim Aufbau des integrierten Systems und die architektonischen Vorteile eines nachrichtenbasierten gegenüber einem verbindungsbasierten Ansatz hin. Wir veranschaulichen diese Punkte anhand des NaradaBrokering-Systems und seiner Anwendung auf Audio-Video-Konferenzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39924-7_1 baffdfeb504341345373de2c161ae2b0;de;;;7.3.;;;Texterra: Ein Framework für die Textanalyse Ein Framework zur schnellen Textanalyse, das im Rahmen des Texterra-Projekts entwickelt wird, wird beschrieben. Texterra bietet eine skalierbare Lösung für die schnelle Textverarbeitung auf Basis neuartiger Methoden, die aus Web- und Textdokumenten gewonnenes Wissen nutzen. Für die entwickelten Tools werden Details zum Projekt, Use Cases und Evaluationsergebnisse präsentiert.;-;-;-;https://link.springer.com/article/10.1134/S0361768814050090 a2717d67a6922cfa9fb6b85275356000;de;;;7.3.;;;Erstellen von Wrapper-Agenten für das Deep Web Das Web hat sich nicht nur als größtes menschliches Wissensrepositorium schnell erweitert, sondern auch als eine Möglichkeit, Online-Anwendungen zu entwickeln, die für viele verschiedene Aufgaben verwendet werden können. Wrapper-Agenten können diese Aufgaben für den Benutzer automatisieren. Die Entwicklung dieser Wrapper-Agenten zur Automatisierung von Aufgaben im Web ist jedoch recht teuer und erfordert in der Regel einen hohen Wartungsaufwand, da Webseiten nicht stark strukturiert sind.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45068-8_9 c33a4826cf5bfc5d1d3536ea61adf61d;de;;;7.3.;;;Das Demosystem zum Abrufen von Multimedia-Dokumenten der Cambridge University Das Multimedia Document Retrieval (CU-MDR) Demosystem der Cambridge University ist eine webbasierte Anwendung, die es dem Benutzer ermöglicht, eine Datenbank mit Radiosendungen abzufragen, die im Internet verfügbar sind. Das Audio von mehreren Radiosendern wird heruntergeladen und automatisch transkribiert. Dies ergibt eine Sammlung von Text- und Audiodokumenten, die von einem Benutzer durchsucht werden können. Der Beitrag beschreibt, wie Spracherkennungs- und Informationsabruftechniken im CU-MDR-Demosystem kombiniert werden und zeigt, wie der Benutzer damit interagieren kann.;-;-;-;https://link.springer.com/article/10.1023/A%3A1011360624662 2d1443c95e9ce5a0822da65d42dc231c;de;;;7.3.;;;Die Informationsgesellschaft im asiatisch-pazifischen Raum Indien und Australien In diesem Kapitel werden nur zwei Länder im asiatisch-pazifischen Raum betrachtet, Indien und Australien. Es werden Richtlinien skizziert, die zeigen, wie die Regierungen dieser Länder versuchen, die IT-Branche, eBusiness und eGovernment zu fördern, Probleme des Internetzugangs anzugehen und Internetinhalte zu regulieren.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-25588-5_5 909bbfe108de7dfab7e939a7b88636a5;de;;;7.3.;;;Datenschutz standardmäßig in identitätsbezogenen Anwendungen „Privacy by default“ wird als ein wichtiges Prinzip für die Gestaltung von IKT-Systemen diskutiert. Dieser Grundsatz wurde als „Datenschutz durch Voreinstellungen“ in den 2012 veröffentlichten Vorschlag für eine europäische Datenschutzverordnung aufgenommen. Es wird jedoch diskutiert, was dieser Grundsatz in der Praxis bedeuten soll. In diesem Text analysieren wir den Zusammenhang von „Security by Default“ und „Privacy by Design“ und diskutieren verschiedene Auslegungsmöglichkeiten des Prinzips „Datenschutz durch Voreinstellungen“. Nach allgemeinen Überlegungen zur Auswahl und Umsetzung geeigneter Voreinstellungen beschreiben wir exemplarisch Empfehlungen für typische identitätsbezogene Anwendungsszenarien wie Social Network Sites, User Tracking im Web und benutzergesteuerte Verwaltung der eigenen Identitäten. Sowohl die allgemeinen als auch die szenariobasierten Ausarbeitungen bieten sowohl Entwicklern als auch Evaluatoren Orientierungshilfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37282-7_2 49ca033c27bc1e6dec2674e31b3b0538;de;;;7.3.;;;Zeus: Internet-Abstimmung nach Griechenland bringen Zeus ist eine Internet-Abstimmungsplattform, auf der alle Schritte des Abstimmungsprozesses mit etablierten mathematischen Werkzeugen überprüft werden können. Es wurde mit dem Ziel entwickelt, dass die Wähler darauf vertrauen können, dass ihre Stimmen richtig gezählt werden und ihre Anonymität gewährleistet ist, ohne den Betreibern von Zeus vertrauen zu müssen, dass sie sich nicht unangemessen verhalten: Die Zusicherungen von Zeus sind mindestens genauso stark wie bei traditionellen Wahlen. Zeus wurde bei mehr als 120 Wahlen mit mehr als 22.000 Wählern verwendet und wird kontinuierlich verwendet. Es hat gezeigt, dass es eingesetzt werden kann, wenn traditionelle Wahlen aufgrund feindlicher Bedingungen nicht stattfinden können, und wird aktiv weiterentwickelt und weiterentwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11710-2_20 7afaaa0c5f6e72857fc4073abcc611b8;de;;;3.4.;;;Nutzen-Risiko-Bewertung nach der Markteinführung für Erythropoese-stimulierende Wirkstoffe unter Verwendung einer Gesundheitsdatenbank Während die Nutzen-Risiko-Bewertung (B-R) im realen Umfeld eine wichtige Herausforderung für die Pharmakovigilanz darstellt, haben nur wenige Studien diesen Ansatz untersucht. Um den Nutzen und die Grenzen der B-R-Bewertung mithilfe einer Gesundheitsdatenbank unter Anwendung des Benefit Risk Action Team (BRAT)-Frameworks zu untersuchen, haben wir eine Fallstudie mit Erythropoietin-Wirkstoffen durchgeführt.;-;-;-;https://link.springer.com/article/10.1177/2168479016656029 6e86ff55face3e8fc435717927f358fe;de;;;7.3.;;;Intelligentes Wissensempfehlungssystem basierend auf Webprotokoll- und Cache-Daten Personalisierter Empfehlungsdienst auf Basis des Webs ist der aktuelle Forschungsschwerpunkt der intelligenten Informationsbeschaffung und Fernbildung. In diesem Beitrag wird ein intelligentes Empfehlungssystem vorgeschlagen. Das System hängt von den Mining-Ergebnissen von Weblog- und Cache-Daten ab, wertet umfassend den Einfluss von Navigationszeiten, Browserdauer und Seitenvolumen aus. Durch eine effektive Klassifikation der interessierten Seiten aus Weblog- und Cache-Daten wird das Interessenmodell unterschiedlicher Nutzergruppen erstellt. Inzwischen wird eine Methode zur Empfehlung des wertvollen Wissens vorgestellt, die den Ansatz des inhaltsbasierten Filterns und des kollaborativen Filterns kombiniert. Experimente zeigen, dass die vorgeschlagene Empfehlungsmethode machbar und effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/11925293_5 cfff1b0f9f0cfad303df4c7256c9ba51;de;;;7.3.;;;Ein textbasiertes, fallbasiertes Argumentationssystem, das XML im World Wide Web verwendet Mit zunehmender Popularität des Intranets haben Wissensmanagementsysteme bei den Bemühungen von Unternehmen, die Erfahrungen von Einzelpersonen zu teilen, immer mehr an Bedeutung gewonnen. Fallbasiertes Schlussfolgern bietet vielversprechende Techniken zur Verwendung bei der Verbesserung solcher Systeme. Dieses Papier beschreibt ein fallbasiertes Argumentationssystem (CBR), das die Extensible Markup Language (XML) als Falldarstellungssprache im World Wide Web verwendet. Das Papier definiert die Probleme der textuellen fallbasierten Argumentation und schlägt dann CARET/XML vor, eine textuelle CBR-Systemarchitektur. Fälle werden von First-Level-Agenten selbst in Front-Offices wie Helpdesks in XML geschrieben. Die Architektur führt einen ähnlichkeitsbasierten Abruf unter Verwendung von XML-Tags und diesen Tags zugeordneten Werten durch. Wenn eine textuelle Fallbasis von vielen Agenten der ersten Ebene erstellt wird, ist es natürlich, dass Fälle inkrementell ihrer Definition hinzugefügt werden. CARET/XML stellt SELECT/OPTION- und ANNOTATION-Tags bereit, um gemischte Groß-/Kleinschreibung zu definieren. Ein passiver Fallanpassungsmechanismus wird in einem feinkörnigeren Fallauswahlprozess realisiert. Das vorgeschlagene System läuft auf einem kommerziellen relationalen Datenbankmanagementsystem (RDBMS) und dem World Wide Web.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0056340 ae4b8573c9c1901761f4a415c1c9ac07;de;;;7.3.;;;Wenn Googeln nicht funktioniert: Die Herausforderung, Sicherheitshinweise für Smart Home-Geräte zu finden Da Benutzer zunehmend mit dem Internet verbundene Geräte in ihre Häuser einführen, ist der Zugriff auf genaue und relevante Cybersicherheitsinformationen ein grundlegendes Mittel, um eine sichere Nutzung zu gewährleisten. Angesichts des Mangels an Informationen, die mit vielen Geräten zum Zeitpunkt des Kaufs bereitgestellt werden, befasst sich dieses Papier mit einer kritischen Untersuchung der Art von Ratschlägen, die Benutzern des Internet der Dinge (IoT) zu Hause oder intelligenten Geräten im Internet präsentiert werden könnten, um ihre Cyber ​​​​zu Sicherheitspraktiken. Wir stützen unsere Forschung auf eine Analyse von 427 Webseiten von 234 Organisationen, die Informationen zu Sicherheitsbedrohungen und relevante Ratschläge zur Cybersicherheit präsentieren. Die Ergebnisse zeigen, dass Nutzer, die online nach Informationen suchen, einem enormen Angebot an Ratschlägen und Nachrichten aus verschiedenen Quellen mit unterschiedlicher Glaubwürdigkeit und Relevanz ausgesetzt sind. Ohne klare Erklärung, wie ein Benutzer die für ihn relevanten Bedrohungen einschätzen kann, wird es schwierig zu verstehen, welche Ratschläge in seiner Situation am effektivsten wären. Es werden Empfehlungen gegeben, um die Klarheit, Konsistenz und Verfügbarkeit von Leitlinien aus anerkannten Quellen zu verbessern, um den Zugang und das Verständnis der Benutzer zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-81111-2_10 cf558ec8b4fe11260a9b7fc9b8bd28a6;de;;;7.3.;;;Was ist „postdigital“? Im Januar 2013 wurde ein Bild eines jungen Mannes, der auf einer Parkbank auf einer mechanischen Schreibmaschine tippt, auf der beliebten Website Reddit viral. Das Bild wurde im typischen Stil eines „Image Macro“ oder „Imageboard Meme“ (Klok 2010, 16–19) präsentiert, mit einer sarkastischen Bildunterschrift in fetter weißer Impact-Schrift, die lautete: „Du bist kein echter Hipster – bis du nimmst deine Schreibmaschine mit in den Park.';-;-;-;https://link.springer.com/chapter/10.1057/9781137437204_2 b2de4ec6b7bbf50214d4939b4b26fc9f;de;;;7.3.;;;RMAP: ein System zur Visualisierung von Daten im multidimensionalen Relevanzraum Relevanzmaße der Objekte sind nicht signifikant. Wir glätten die Multidimensionalität des Merkmalsraums in eine 2D-Relevanzkarte und erfassen die Wechselbeziehungen zwischen den Merkmalen. Der Prototyp extrahiert Informationen aus dem World Wide Web von Abfrage-Engines, kategorisiert und gruppiert die Informationen automatisch und ermöglicht dem Benutzer die Visualisierung.;-;-;-;https://link.springer.com/article/10.1007/s003710050174 ae7bababe8871818807633fa4b5b91a7;de;;;3.4.;;;CIALCO: Alternative Marketingkanäle Diese Forschung verwendet Data-Mining-Techniken, um Daten zu erstellen, die den Verbrauch von Produkten vorhersagen, die in Gebieten der Andenregion von Ecuador von Verwandten angebaut und in alternativen Kreisläufen vermarktet werden, die verhindern, dass Zwischenhändler namens Cialcos ihre Einkommensgruppen verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-39387-2_26 480d0c0a94eb0b5706868582a17e874b;de;;;7.3.;;;FORSCHUNG ZUM LANDWIRTSCHAFTLICHEN DOMAIN META-SEARCH ENGINE SYSTEM Das schnelle Wachstum von Web-Informationen zur Landwirtschaft bringt die Tatsache mit sich, dass Suchmaschinen kein zufriedenstellendes Ergebnis für die Suchanfragen der Benutzer zurückgeben können. In diesem Artikel schlagen wir ein Suchmaschinensystem für den Agrarbereich namens ADSE vor, das Ergebnisse über eine erweiterte Schnittstelle zu mehreren Suchen erhält und diese aggregiert. Wir diskutieren auch zwei Schlüsseltechnologien: die Bestimmung von landwirtschaftlichen Informationen und den Motor.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-0211-5_68 8722476a9adcd8f990c38ea9fb6e9ba3;de;;;7.3.;;;Agentenmodelle und verschiedene Benutzerontologien für einen elektronischen Marktplatz Market In diesem Beitrag wird die agentenbasierte elektronische Marktarchitektur GEMS beschrieben. Der Markt umfasst unterschiedliche Nutzerperspektiven: Verbraucher, Händler und Hersteller. Ontologien für die verschiedenen Benutzerperspektiven sind enthalten. Es wird Wissen aufgenommen, um Informationen aus den unterschiedlichen Perspektiven in Beziehung zu setzen, beispielsweise Bewertungswissen, das verwendet werden kann, um Produktbewertungen im Sinne der Benutzerontologie aus Produktinformationen basierend auf der Herstellerontologie abzuleiten. Agentenmodelle werden als übergeordnete Entwurfsstruktur für die Architektur verwendet. Es wird gezeigt, wie diese Kombination von Agentenmodellen, Ontologien und Wissen einen adäquaten Ansatz für den verteilten und wissensintensiven Charakter der Anwendung bietet.;-;-;-;https://link.springer.com/article/10.1007/s10115-002-0092-3 bf44cfcfb5c8ef47c93121b5fdbad35d;de;;;7.3.;;;Community-Softwareanwendungen Dies ist eine Fallstudie zur Entwicklung und Verwendung von Community-Wissensmanagement-Software. Der Kontext der Fallstudie ist eine Schule. Während eines Schulungsworkshops wurden Mitarbeiter einer Schule in ein Community-Wissensmanagementsystem eingeführt. Die Absicht war, es für die Unterrichtsplanung und Diskussionen zu verwenden. Stattdessen erstellten sie eine Reihe von Anwendungen, mit denen sie die Schulverwaltung effizienter machen konnten. Diese Anwendungen bestanden aus Zulassung, Bibliothek, Lager und Personalverwaltung. Diese Fallstudie zeigt, dass der IKT-Bedarf der nächsten Milliarde darin besteht, ihnen Systeme zur Verfügung zu stellen, die sie an ihre Bedürfnisse anpassen und verwalten können. Ein erwarteter Dominoeffekt wäre, dass sie dazu beitragen, Anwendungen an die Bedürfnisse ihrer Nachbarn anzupassen, wodurch eine digitale Kluft verringert wird, die durch die Mystifizierung der Anwendungsentwicklung verursacht wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-73697-6_8 96e6bf0c9dff304b9630278df2ff9fbc;de;;;7.3.;;;Text Mining verstehen: ein pragmatischer Ansatz Um den Stand der Technik der wichtigsten TM-Anwendungen abzugrenzen, wurde eine zweistufige Strategie verfolgt: Zunächst wurden einige der wichtigsten europäischen und italienischen Unternehmen, die TM-Lösungen anbieten, kontaktiert, um Informationen über die Eigenschaften von TM zu sammeln die Anwendungen, zum anderen wurde eine detaillierte Suche im Web durchgeführt, um weitere Informationen zu Benutzern oder Entwicklern und Anwendungen zu sammeln. Auf der Grundlage des gesammelten Materials wurde ein synthetisches Raster erstellt, um aus mehr als 300 analysierten Fällen die 100 zusammenzustellen, die wir für die Typologie der Funktion und des Tätigkeitsbereichs am relevantesten hielten. Die gemeinsame Analyse der verschiedenen Fallstudien hat ein angemessenes Bild der TM-Anwendungen nach den möglichen Arten von Ergebnissen, den wichtigsten Spezifikationen der Anwendungsbereiche und der Art der Funktionen ergeben. Schließlich ist es möglich, die Anwendungen zu klassifizieren, die dem Anpassungsgrad (gefolgt in der Werkzeugentwicklung) und dem Integrationsgrad (zwischen Benutzern und Entwicklern) entsprechen. Dieses Matching erzeugt vier verschiedene Situationen:;-;-;-;https://link.springer.com/chapter/10.1007/3-540-32394-5_4 c1f8b1903b912841d58b310c34b374cd;de;;;7.3.;;;Erfahrungen von SUDPLAN mit den OGC-basierten Modell-Webdiensten für das Nutzungsgebiet Klimawandel SUDPLAN entwickelt derzeit eine technische Lösung für Model Web/Observation Web im Anwendungsbereich Klimawandel. Die vorgeschlagene Lösung basiert auf den Standards des Open Geospatial Consortium und folgt den Ideen der SANY Sensor Service Architecture (SensorSA). SUDPLAN hat auch die Entwicklung der SANY-Software fortgesetzt, was zu einer nativen Unterstützung von SOS, SPS und 2D-Abdeckung im „Time Series Toolbox“-Framework für den Aufbau von Sensor-Webanwendungen führte. SUDPLAN verwendet viele der Funktionen von OGC SWE und SANY SensorSA wieder, um: (1) die Modelle zu konfigurieren und auszuführen, (2) die für die Modellausführung erforderlichen Daten (Beobachtungen) bereitzustellen, (3) den Benutzer über den Fortschritt der Modellausführung zu informieren und ( 4) Zugriff auf die Modellergebnisse. In diesem Papier werden wir die Erfahrungen von SUDPLAN mit der Implementierung des interoperablen Model Web unter Verwendung von OGC-Standards beschreiben und die Vorteile verschiedener Dienste aus der OGC SWE-Suite im Vergleich zu Nicht-SWE-Alternativen im Kontext des Klimawandels diskutieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22285-6_64 31acc8971effd302c595553e17e9b09c;de;;;7.3.;;;Soft-Computing-Technologie für die Kategorisierung dynamischer Webseiten Kataloge spielen in den meisten aktuellen Websuchmaschinen eine wichtige Rolle. Die Kataloge, die Dokumente in hierarchischen Sammlungen organisieren, werden manuell gepflegt, was aufgrund des unaufhörlichen Wachstums des WWW schwieriger und teurer wird. Dieses Problem hat viele Forschungen angeregt, an der automatischen Kategorisierung von Webdokumenten zu arbeiten. In Wirklichkeit funktionieren die meisten dieser Ansätze entweder bei speziellen Dokumententypen oder bei eingeschränkten Dokumentensätzen gut. Dieses Papier stellt einen evolutionären Ansatz vor, der nützlich ist, um den Katalog automatisch zu erstellen sowie die Klassifizierung eines Web-Dokuments durchzuführen. Diese Funktionalität basiert auf einer genetisch basierten Fuzzy-Clustering-Methodik, die das Clustering auf den Kontext des Dokuments anwendet, im Gegensatz zum inhaltsbasierten Clustering, das mit den vollständigen Dokumentinformationen arbeitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39988-9_8 13d4a1770cc8e3a86677867de157078b;de;;;7.3.;;;Politikformulierung durch nicht moderiertes Crowdsourcing in Social Media Das Aufkommen von Web 2.0 Social Media ermöglicht die allmähliche Entstehung einer zweiten Generation der E-Partizipation, die sich durch mehr Bürgerkontrolle auszeichnet, bei der staatliche Stellen Inhalte (z Interaktionen der Bürger damit (zB Ansichten, Vorlieben/Abneigungen, Kommentare usw.). In diesem Papier schlagen wir eine noch stärker von den Bürgern kontrollierte dritte Generation der E-Partizipation vor, die auch die sozialen Medien des Web 2.0 nutzt, jedoch auf andere Weise. Es basiert auf der Suche von Regierungsbehörden nach Inhalten zu einer in der Formulierung befindlichen öffentlichen Richtlinie, die in einer großen Anzahl von Web 2.0-Quellen (z. B. Blogs und Mikroblogs, Nachrichtenseiten, Online-Foren) von Bürgern frei und ohne jegliche Initiative erstellt wurden , Stimulierung oder Mäßigung durch staatliche Stellenausschreibungen. Dieser Inhalt wird einer fortgeschrittenen Verarbeitung unterzogen, um daraus Argumente, Meinungen, Probleme und Vorschläge zu der jeweiligen Politik zu extrahieren, ihre Meinungen (positiv oder negativ) zu identifizieren und schließlich zusammenzufassen und zu visualisieren. Dieser Ansatz ermöglicht die Nutzung der riesigen Menge an nutzergenerierten Inhalten, die in zahlreichen sozialen Web 2.0-Medien erstellt wurden, um Regierungen dabei zu unterstützen, die Bedürfnisse, Wünsche und Überzeugungen der Bürger besser zu verstehen und bessere und sozial verankerte Richtlinien zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33250-0_14 4b379ad9abf54ecb0e0277d93f7098d3;de;;;7.3.;;;Profilerstellung der Webarchiv-Abdeckung für Top-Level-Domain und Inhaltssprache Der Memento-Aggregator fragt derzeit jedes bekannte öffentliche Webarchiv ab, wenn eine Anfrage nach einer archivierten Webseite gestellt wird, obwohl sich einige Webarchive nur auf bestimmte Domänen konzentrieren und die anderen ignorieren. Ähnlich wie beim Abfrage-Routing bei der verteilten Suche untersuchen wir die Auswirkungen auf aggregierte Memento TimeMaps (Listen, wann und wo eine Webseite archiviert wurde), indem nur Abfragen an Archive gesendet werden, die wahrscheinlich die archivierte Seite enthalten. Wir profilieren zwölf öffentliche Webarchive unter Verwendung von Daten aus einer Vielzahl von Quellen (das Web, Archivzugriffsprotokolle und Volltextabfragen an Archive) und stellen fest, dass nur das Senden von Abfragen an die drei führenden Webarchive (d. h. 75 % weniger die Anzahl der Anfragen) für jede Anfrage erzeugt in 84% der Fälle die vollständigen TimeMaps.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40501-3_7 7fc92bdc8e5a824245dc0afe00aae297;de;;;7.3.;;;Modellieren des Benutzerverhaltens auf Seiteninhalt und -layout in Empfehlungssystemen Mit dem exponentiellen Wachstum von Informationen im Web spielen Empfehlungssysteme in vielen Serviceanwendungen wie E-Commerce und E-Learning eine wichtige Rolle. Empfehlungssysteme werden verwendet, um Benutzer beim Navigieren im Web zu unterstützen oder Elemente vorzuschlagen, an denen die Benutzer wahrscheinlich interessiert sind. Die meisten der derzeit vorherrschenden Ansätze verwenden kollaboratives Filtern basierend auf der Präferenz einer Gruppe ähnlicher Benutzer. In den letzten zehn Jahren gab es einige, aber eher begrenzte Forschungen zu personalisierten Empfehlungssystemen, die die expliziten und impliziten Rückmeldungen eines einzelnen Benutzers berücksichtigen. In unserer bisherigen Arbeit wurde ein personalisiertes Empfehlungssystem entworfen und implementiert, das die Präferenzen eines einzelnen Benutzers und das damit verbundene Surfverhalten wie Drucken und Lesezeichen extrahiert. In diesem Kapitel wird das Surfverhalten im Internet untersucht, das die Präferenzen eines Benutzers in Bezug auf Layout und Design widerspiegelt. Wir gehen davon aus, dass, wenn ein Benutzer eine Seite durchsucht, seine Aktionen bezüglich des Inhalts und der Links mit persönlichen Vorlieben bezüglich des Standorts eines Objekts, der Symbolform, des Farbschemas usw Empfehlungsprozess bzw. Folglich könnte eine systematische und automatische Analyse der Beziehung zwischen Informationspräferenz und Web-Browsing-Verhalten basierend auf Struktur- und Schemalernen genutzt werden, um Empfehlungen unter Verwendung von Inhaltsähnlichkeit zu ergänzen. Es werden Umfragen und verwandte Arbeiten zu persönlichen Empfehlungssystemen vorgestellt, die das Surfverhalten im Internet modellieren. Ein Proof-of-Concept-System wurde mit dem Ziel entwickelt, zu untersuchen, ob ein Zusammenhang zwischen dem Surfverhalten, sowohl in den inhaltlichen als auch in den visuellen Aspekten einer Webseite, und den Benutzerpräferenzen besteht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22913-8_14 60dd9dc5c4f7a5a0b788d56df3c04890;de;;;7.3.;;;Sichere Passworttasche für verteilte Webdienste Die Passwortauthentifizierung (PA) ist eine allgemeine und bekannte Technik, um einen Benutzer zu authentifizieren, der versucht, eine Verbindung in verteilten Webdiensten herzustellen. Die Hauptidee von PA besteht darin, komplexe Informationen von Benutzern zu entfernen, damit sie sich überall nur mit einem für den Menschen einprägsamen Passwort auf Servern anmelden können. Bisher wurden viele Papiere vorgeschlagen, um Sicherheitsanforderungen aufzustellen und die Effizienz von PA zu verbessern. Die meisten Artikel betrachten praktische Angriffe wie das Erraten von Passwörtern, Identitätsdiebstahl und Serverkompromittierung, die in der realen Welt häufig vorkommen. Sie haben jedoch ein wichtiges und kritisches Risiko übersehen. Ein von einem Server preisgegebenes Passwort eines Benutzers kann sich auf andere Server auswirken, da die meisten Benutzer dazu neigen, dasselbe Passwort auf verschiedenen Servern zu verwenden. Dadurch kann sich jeder, der ein Passwort erhält, problemlos auf anderen Servern anmelden. In diesem Artikel stellen wir zunächst einen neuen Begriff namens „Passworttasche“ vor, der das Passwort des Benutzers randomisiert, auch wenn er/sie dasselbe Passwort auf verschiedenen Servern eingibt. Wenn unsere Passworttasche verwendet wird, wirkt sich ein offengelegtes Passwort nicht mehr auf andere Server aus. Die Kosten für eine Passworttasche sind extrem gering, da nur eine Zufallszahl sicher gespeichert werden muss.;-;-;-;https://link.springer.com/chapter/10.1007/11577188_47 adc59dc3cd0db8e814dfa3ccb6a06eec;de;;;7.3.;;;Ein kontextueller Sprachansatz für Multirepräsentations-Ontologien Der Schritt von der syntaktischen zur semantischen Interoperabilität ist für Forscher in der Disziplin Computernetzwerke und Internettechnologie zu einer großen Herausforderung geworden. Ontologien haben sich als am effizientesten erwiesen, um ein gemeinsames Verständnis zwischen Maschinen und/oder Menschen zu ermöglichen. Es wurden mehrere Ontologiesprachen vorgeschlagen. Diese Sprachen sind jedoch nicht in der Lage, die Multirepräsentations-Ontologie zu definieren – das heißt: eine Ontologie, die ein Konzept durch eine variable Menge von Eigenschaften in mehreren Kontexten charakterisiert. Multirepräsentations-Ontologien werden für diversifizierte Benutzergemeinschaften, die Informationen und Anwendungen in einer Domäne teilen und austauschen müssen, immer wichtiger. Das Ziel dieses Artikels ist es, eine kontextbezogene Ontologiesprache zu definieren, um mehrere Darstellungen von Ontologien zu unterstützen. In unserer Forschung konzentrieren wir uns auf die logikbasierten Ontologiesprachen. Tatsächlich betrachten wir nur Sprachen, die auf Beschreibungslogiken (DLs) basieren. Zunächst schlagen wir eine Untersprache von DL als Ontologiesprache vor. Darüber hinaus erreichen wir Mehrfachrepräsentationen ontologischer Konzepte durch die Erweiterung einer solchen Untersprache durch die Verwendung von Stempelmechanismen, die im Kontext der Mehrfachrepräsentation von räumlichen Datenbanken vorgeschlagen werden. Die vorgeschlagene;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36562-4_50 6efacb13a2391813998f07627934c8c5;de;;;7.3.;;;Spezieller NKOS-Workshop zu vernetzten Wissensorganisationssystemen Dieser halbtägige Workshop soll einen Überblick über Forschung, Entwicklung und Projekte im Zusammenhang mit der Nutzung von Wissensorganisationssystemen in internetbasierten Diensten und digitalen Bibliotheken geben. Diese Systeme können Thesauri und andere kontrollierte Listen von Schlüsselwörtern, Ontologien, Klassifikationssystemen, Taxonomien, Clustering-Ansätzen, Wörterbüchern, lexikalischen Datenbanken, Konzeptkarten/-räumen, semantischen Straßenkarten usw. umfassen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45268-0_72 65d027f3b509c78cc11ea28bf6b165d0;de;;;7.3.;;;Konzeptionelle und räumliche Fußabdrücke für die Analyse komplexer Systeme: Anwendung auf das Semantic Web Dieses Papier befürwortet die Verwendung von Formal Concept Analysis und Galois-Gitter für die Analyse komplexer Systeme. Diese Methode bietet einen Überblick über ein System, indem es seine Hauptinteressensbereiche sowie seinen Grad an Spezifität/Allgemeinheit anzeigt. Darüber hinaus schlägt es mögliche Einstiegspunkte für die Navigation vor, indem es die wichtigsten Elemente des Systems identifiziert. Eine automatische Filterung von Ausreißern ist ebenfalls vorgesehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03573-9_9 108437709d842191f5dc0b9025c78631;de;;;3.4.;;;Religiöses Publizieren: Eine Analyse der Marketingmaßnahmen deutscher Religionsverlage Der deutsche Markt für religiöse Bücher ist ein kleines Marktsegment, das von kleinen Verlagen dominiert wird. Da die Zahl der Unternehmen und der Gesamtumsatz im Marktsegment einen negativen Trend aufweisen, kann der deutsche Markt für religiöse Bücher als ein reifer gesättigter Markt bezeichnet werden. Auch die klassischen und professionellen Kundengruppen nehmen ab oder verändern sich zumindest aufgrund der veränderten Rolle der Religion in der Gesellschaft. Das Interesse der Bevölkerung an religiösen Themen bleibt jedoch bestehen, weshalb es für religiöse Verlage wichtig ist, diese mit gezielten Marketingmaßnahmen gezielt anzusprechen. Die Inhaltsanalyse der halbjährlich erscheinenden Programmbroschüren zeigt, welchen Titeln religiöse Verlage das größte Absatzpotenzial zuschreiben und mit welchen Produkt-, Preis- und Kommunikationsmaßnahmen ihre Top-Titel unterstützt werden. Die Ergebnisse der Analyse zeigen, dass deutsche Religionsverlage Sachbücher, aber auch Praxisratgeber und Geschenkbücher als Top-Titel wählen, die aktuelle Themen und Trends aus Kirche und Gesellschaft aufgreifen. Bücher mit authentischem Inhalt von authentischen Autoren werden bevorzugt. Die Analyse zeigt auch (etwas überraschend), dass getroffene Marketingentscheidungen von den finanziellen Möglichkeiten religiöser Verleger abhängen. Preisbezogene Maßnahmen werden daher kaum angeboten und kostenintensive Kommunikationsmaßnahmen nur auf niedrigem Niveau ergriffen.;-;-;-;https://link.springer.com/article/10.1007/s12109-020-09723-3 269cbe85088b112659094ecf2fc1ae2d;de;;;7.3.;;;Extrahieren von Paraphrasen des japanischen Aktionsworts des Satzendeteils aus Web- und mobilen Nachrichtenartikeln In dieser Untersuchung extrahieren wir Paraphrasen aus japanischen Web-Nachrichtenartikeln, die lang sind und auf die Anzeige auf PC-Bildschirmen abzielen, und mobile Nachrichtenartikel, die kurz und kompakt sind und auf kleine Bildschirme mobiler Endgeräte ausgerichtet sind. Wir haben sie seit mehr als zwei Jahren gesammelt und auf Artikelebene und dann auf Satzebene ausgerichtet. Als Ergebnis haben wir mehr als 88.000 Paare ausgerichteter Sätze erhalten. Als nächstes extrahieren wir Paraphrasen des letzten Teils von Sätzen aus diesem ausgerichteten Korpus. Die Paraphrasen, die wir zu extrahieren versuchen, sind die satzendgültigen Substantive von mobilen Artikelsätzen und ihre Gegenausdrücke von Webartikelsätzen. Wir extrahieren Zeichenketten und Wortfolgen für Paraphrasen basierend auf Verzweigungsfaktor, Häufigkeit und Länge der Zeichenkette. Die Genauigkeit beträgt 90 % für den am höchsten eingestuften Kandidaten und 83 % bis 59 % für jeden der drei besten Kandidaten der 100 am häufigsten verwendeten Aktionswörter.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-31871-2_9 f327d0e0fd8e8cf606c098b42e104d3e;de;;;7.3.;;;Effektives Mining von Webinhalten mit Rauschunterdrückung von Webseiten Web Mining ist aufgrund des schnellen Wachstums von Websites ein aufstrebendes Forschungsgebiet. Web Mining wird in Web Content Mining (WCM), Web Usage Mining und Web Structure Mining unterteilt. Die Extraktion der erforderlichen Informationen aus Webseiteninhalten, die im World Wide Web (WWW) verfügbar sind, ist WCM. Das WCM wird weiter in zwei Kategorien eingeteilt, die erste Kategorie dient zum direkten Mining von Inhalten in Dokumenten und die zweite Kategorie ist das Mining des Inhalts mit Hilfe von Suchmaschinen. Die Mining-Methode konzentriert sich auf die Extraktion und Integration von Informationen. Der Inhalt des Webs kann Text, Bild, Audio, Video sein. Webseiten enthalten typischerweise eine große Menge an Informationen, die nicht zum Hauptinhalt der Seiten gehören, wie Bannerwerbung, Navigationsleisten, Copyright-Hinweise usw. Solche Geräusche auf Webseiten führen normalerweise zu schlechten Ergebnissen beim Web-Mining. Dieser Artikel konzentriert sich auf das Problem des rauschfreien Informationsabrufs auf Webseiten, was die automatische Vorverarbeitung von Webseiten bedeutet, um Geräusche zu erkennen und zu eliminieren. Dieses Papier schlägt einen Ansatz vor, um Rauschen von Webseiten zu eliminieren, um die Genauigkeit und Effizienz des Web-Content-Mining zu verbessern. Das Hauptziel des Entfernens von Rauschen von einer Webseite besteht darin, die Leistung der Suche zu verbessern. Es ist sehr wichtig, wichtige Informationen von verrauschten Inhalten zu unterscheiden, die das Interesse der Benutzer irreführen können. Dieser Ansatz konzentriert sich hauptsächlich auf die schrittweise Entfernung der folgenden Geräusche: (1) Primäre Geräusche – Navigationsleisten, Panels und Frames, Seitenkopf- und -fußzeilen, Copyright- und Datenschutzhinweise, Werbung und andere uninteressante Daten wie Audio, Video, mehrere Links. (2) Duplizieren von Inhalten und (3) Rauschinhalten gemäß der Blockwichtigkeit. Die Entfernung dieser Geräusche erfolgt durch Ausführen von drei Operationen. Erstens werden mit der Operation Block Splitting primäre Geräusche entfernt und nur die nützlichen Textinhalte in Blöcke unterteilt. Zweitens werden unter Verwendung des Simhash-Algorithmus die doppelten Blöcke entfernt, um die unterschiedlichen Blöcke zu erhalten. Für jeden Block werden drei Parameter, nämlich Schlüsselwortredundanz (KR), Linkwortprozentsatz (LP) und Titelwortrelevanz (TR) berechnet. Unter Verwendung dieser drei Parameter wird der Blockwichtigkeitswert (BI) berechnet, der Simhash-Algorithmus genannt wird. Die Bedeutung des Blocks wird dann mit dem Simhash-Algorithmus berechnet. Basierend auf einem Schwellenwert werden die wichtigen Blöcke unter Verwendung des Skizzieralgorithmus ausgewählt und die Schlüsselwörter werden aus diesen wichtigen Blöcken extrahiert.;-;-;-;https://link.springer.com/article/10.1007/s11277-015-2596-7 b6ffba12fe516909928bbf7dfaa881d4;de;;;7.3.;;;Sprachschnittstellen in der Kunst – Ein Experiment mit offenen Web-Standards als Modell zur Erhöhung der Web-Zugänglichkeit und der digitalen Inklusion Das Web war weitgehend stumm und taub, aber seit Beginn des 21. Jahrhunderts ändert sich dieses Szenario mit der Möglichkeit, intelligente Sprachschnittstellen auf Websystemen zu verwenden. In diesem Beitrag stellen wir die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74800-7_76 dc35d56bae9fa605b928d901c6aae01a;de;;;7.3.;;;Durchsuchen von halbstrukturierten Texten im Web mit formaler Konzeptanalyse Das Durchsuchen von unstrukturierten Webtexten mit Formal Concept Analysis (FCA) steht vor zwei Problemen. Erstens sind Online-Webdaten manchmal unstrukturiert und jedes FCA-System muss zusätzliche Mechanismen enthalten, um die Struktur von Eingabequellen zu erkennen. Zweitens sind viele Online-Sammlungen groß und dynamisch, sodass ein Web-Roboter verwendet werden muss, um Daten bei Bedarf automatisch zu extrahieren. Diese Probleme werden in diesem Kapitel behandelt, das eine Fallstudie über den Aufbau eines webbasierten FCA-Systems zum Durchsuchen von klassifizierten Anzeigen für Immobilien enthält;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-07952-2_11 40913402dc9d408bbbde9616e8f94d8b;de;;;7.3.;;;Fernsteuerung mehrerer Magnetventile für Bewässerungssysteme über GSM (SMS) und Webseiten-Controller Die in diesem Beitrag vorgestellte Arbeit ist eine Realisierung der Fernsteuerung der Magnetventile mit einem intelligenten System, es kann über eine GSM-Verbindung per SMS oder über eine grafische Oberfläche über eine Internetverbindung gesteuert werden. Dieses System kann mehrere Magnetventile steuern, die ein automatisiertes, ferngesteuertes Bewässerungsnetzwerk bilden. Der Vorteil dieser Leistung liegt in der erheblichen Reduzierung der Kosten des Magnetventils und des Verbrauchs an elektrischer Energie. Dieses System bietet uns den Vorteil, Energie zu sparen, da der Verbrauch im Moment des Öffnens oder Schließens der Magnetventile erfolgt. Es ist ein einfaches System, das jeder verwenden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37207-1_33 1a67dc7bcc2c627bfe828b85984a4795;de;;;7.3.;;;Erkennen homogener Service-Communitys durch Web-Service-Clustering Angesichts des enormen Erfolgs des Webs und der Zurückhaltung bei der Aufnahme der Webservice-Technologie erscheint die Idee einer Service-Engine-fähigen serviceorientierten Architektur immer plausibler als die traditionelle Registry-basierte. Das automatische Clustern von WSDL-Dateien im Web in funktional ähnliche homogene Servicegruppen kann als Bootstrapping-Schritt zum Erstellen einer Servicesuchmaschine angesehen werden und gleichzeitig den Suchraum für die Serviceerkennung reduzieren. In diesem Whitepaper werden Techniken zum automatischen Sammeln, Erkennen und Integrieren von Funktionen, die sich auf einen Satz von WSDL-Dateien beziehen, entwickelt und sie in natürlich vorkommende Gruppen zusammengefasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79968-9_6 72d359c6b8d5414b0a01a2658452262d;de;;;7.3.;;;"Das GLOBE-Visualisierungsprojekt: WWW im Klassenzimmer nutzen Obwohl das kommerzielle Interesse am World Wide Web wächst, sind die möglichen Verwendungen des Mediums als Lernwerkzeug zahlreich. Das GLOBE Visualization Project ist eine solche pädagogische Anwendung. Wir haben eine WWW-basierte, benutzerfreundliche, sprachunabhängige, grafische Benutzeroberfläche entworfen und implementiert, die den Zugriff auf Visualisierungen ermöglicht, die für GLOBE, ein multinationales Bildungs- und Wissenschaftsprogramm, erstellt wurden. Die Zielbenutzer des Systems sind K-12-Schüler und ihre Lehrer von über 1100 Schulen in 39 Ländern, weitere Kunden sind die wissenschaftlichen Forscher von GLOBE und die internationale Öffentlichkeit. Die Navigation ist intuitiv und verwendet die Metaphern eines ""Control Panels"", das das in einem ""Viewscreen"" angezeigte Bild ändert. Die Schnittstelle kann von Personen jeden Alters unabhängig von Fachkenntnissen oder Muttersprache empirisch erlernt werden, kontextsensitive Hilfestellungen für Benutzer, die Dokumentation bevorzugen. Der GLOBE-Visualisierungsserver befindet sich im World Wide Web unter der URL http://globe.gsfc.nasa.gov/globe/.";-;-;-;https://link.springer.com/article/10.1023/A%3A1022512800874 bcff426a510ebcee2ed300b84fca6ee4;de;;;7.3.;;;Aspekte der Cybersicherheit digitaler Dienste mit IoT-Appliances In der modernen digitalen Welt haben wir das Entstehen eines endlosen Potenzials für die elektronische Kommunikation mit verschiedenen Formen der Datenübertragung zwischen Teilnehmergeräten beobachtet. Daher war die Notwendigkeit einer geeigneten Netzwerkinfrastruktur zur Aufrechterhaltung dieser Kommunikation ein entscheidender Faktor für die weitere Entwicklung. Die erfolgreiche Weiterentwicklung von Netzwerken und Systemen hängt jetzt jedoch vom entsprechenden Stand der Cybersicherheit in Netzwerken und Diensten ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1685-3_19 5252743f859b154fcb1138dbd5be32fd;de;;;7.3.;;;Bewertung der IPv6-Einführung im Internet Da sich der IPv4-Adressraum der Erschöpfung nähert, stellen große Netzwerke IPv6 bereit oder bereiten sich auf die Bereitstellung vor. Über die Quantität und Qualität der IPv6-Konnektivität liegen jedoch nur wenige Daten vor. Wir beschreiben eine Methodik zur Messung der IPv6-Akzeptanz aus der Perspektive eines Website-Betreibers und zur Bewertung der Auswirkungen, die das Hinzufügen von IPv6 zu einer Website auf ihre Benutzer haben wird. Wir wenden unsere Methodik auf die Google-Website an und präsentieren die im letzten Jahr gesammelten Ergebnisse. Unsere Daten zeigen, dass die Einführung von IPv6 zwar erheblich zunimmt, aber immer noch gering ist, je nach Land erheblich variiert und stark von einer kleinen Anzahl großer Bereitstellungen beeinflusst wird. Wir stellen fest, dass die native IPv6-Latenz mit IPv4 vergleichbar ist und stellen Statistiken zu den verwendeten IPv6-Übergangsmechanismen bereit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12334-4_15 2ac9213be50d54ba758f5c73cc9a59da;de;;;7.3.;;;Identifizieren von Spam-Webseiten basierend auf Inhaltsähnlichkeit Das Web bietet seinen Nutzern eine Fülle von Informationen. Leider stehen sowohl Benutzer als auch Suchmaschinen bei einer Websuche vor einem lästigen Problem: dem Vorhandensein irreführender Webseiten, d.h.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69848-7_18 4991e1fbf6d47c69e4a3bf15bba088a0;de;;;7.3.;;;Entwicklung der ALIS IP Ontologie: Verschmelzung rechtlicher und technischer Perspektiven Das Papier basiert teilweise auf Forschungen, die für das EU-finanzierte (IST-2004-2.4.9) Projekt ALIS (Automated Legal Intelligent System) zum Recht des geistigen Eigentums durchgeführt wurden. Wir beschreiben den Entwicklungsprozess der ALIS Intellectual Property Ontologie sowohl aus rechtlicher als auch aus technischer Sicht. Wir besprechen den Umfang und die Funktionen dieser IP-Ontologie, die gewonnenen Erkenntnisse und die gelösten Probleme. Dies geschieht durch den Vergleich unserer Ontologie (der ALIS IP-Ontologie) mit der IPRonto-Ontologie, die ebenfalls IP gewidmet ist. Das Papier weist auch auf die Vorteile sowohl des ALIS-Systems im Allgemeinen als auch der ALIS-IP-Ontologie im Besonderen hin. Die zukünftige Entwicklung von ALIS wird die Erweiterung der Ontologie auf das Recht und das Markenrecht beinhalten. Sobald diese drei rechtlichen Ontologien eingerichtet sind, werden sie zu einer einzigen Ontologie konsolidiert, die den Rahmen für eine allgemeine IP-Ontologie bildet.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09697-1_14 dc7fb7427a97724c1868b03c1004bea4;de;;;3.4.;;;Absichten zum Wissensaustausch unter IT-Experten in Indien In der heutigen wissensbasierten Wirtschaft ist die Fähigkeit einer Organisation, Wissen strategisch zu nutzen, zu einem entscheidenden Faktor für die globale Wettbewerbsfähigkeit geworden. Wissen gilt als wichtige Quelle für den Aufbau und Erhalt von Wettbewerbsvorteilen. Insbesondere der Wissensaustausch und die daraus resultierende Wissensgenerierung sind für Unternehmen entscheidend, um ihre Wettbewerbsfähigkeit zu gewinnen und zu erhalten. Das Ziel dieser Studie ist es, ein Verständnis der Faktoren zu entwickeln, die die Absichten des Wissensaustauschs unterstützen oder hemmen. Die Theorie des begründeten Handelns wird verwendet und durch extrinsische Motivatoren, sozialpsychologische Kräfte und organisatorische Klimafaktoren ergänzt, von denen angenommen wird, dass sie die Absichten des Einzelnen zum Wissensaustausch beeinflussen. Die Studie bewies, dass sich das Organisationsklima und sozialpsychologische Faktoren positiv auf die Intention zum Wissensaustausch auswirken. Darüber hinaus wurde festgestellt, dass die Einstellung zum Wissensaustausch und zur subjektiven Norm die Absicht des Einzelnen, Wissen zu teilen, beeinflusst. Entgegen der landläufigen Meinung wurde festgestellt, dass erwartete extrinsische Belohnungen einen negativen Einfluss auf die Einstellung zum Wissensaustausch haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19423-8_3 5dfa4a8b007fbffa5a0bbbe10c69eb10;de;;;7.3.;;;Erleichterung der Interaktion zwischen Unternehmen und Behörden mithilfe eines bürgerorientierten Web 2.0-Modells Die Modellierung der Interaktion zwischen Unternehmen und Behörden (B2G) wird als komplexer angesehen als die Interaktion zwischen Bürgern und Behörden (C2G), da das Konzept der autorisierten Bürger, die das Unternehmen bei der Interaktion mit bestimmten Regierungsorganisationen repräsentieren, untersucht werden sollte. Es sollten neuartige Interaktionsmodelle eingeführt werden, die die Art und Weise verändern, wie Regierungsdienste an Unternehmen erbracht werden. Zu diesem Zweck schlagen wir ein bürgerzentriertes Web 2.0-Modell vor, das die Interaktion zwischen Unternehmen und Behörden durch die Einrichtung eines sozialen Netzwerks zwischen Bürgern und öffentlichen Einrichtungen erleichtert. Alle Arten von Interaktionen (B2G, G2G) werden als C2G-Interaktionen ausgedrückt, was den bürgerzentrierten Charakter des vorgeschlagenen Interaktionsmodells begründet. Die Architektur einer Web 2.0-Plattform namens MyCCP, die auf dem vorgeschlagenen Interaktionsmodell basiert, wird ebenfalls vorgestellt, zusammen mit einer Fallstudie, die die Interaktion zwischen Unternehmen und Behörden veranschaulicht, um das Potenzial des vorgeschlagenen Modells aufzuzeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04280-5_12 f74de29ab3e0ab90fac573d7a763f320;de;;;7.3.;;;Entdecken von Textdatenbanken mit neuronalen Netzen Da Dokumente im Web natürlich in viele Textdatenbanken unterteilt sind, erfordert der effiziente Dokumentenabrufprozess das Identifizieren der Textdatenbanken, die am wahrscheinlichsten relevante Dokumente für die Abfrage bereitstellen, und dann das Suchen nach den identifizierten Textdatenbanken. In diesem Artikel schlagen wir einen auf neuronalen Netzen basierenden Ansatz für einen solchen effizienten Dokumentenabruf vor. Zunächst stellen wir einen neuronalen Netzagenten vor, der aus dem Relevanz-Feedback des Benutzers die zugrundeliegenden Textdatenbanken lernt. Für eine gegebene Anfrage entdeckt der auf der Grundlage des BPN-Lernmechanismus ausreichend trainierte neuronale Netzagent die den relevanten Dokumenten zugeordneten Textdatenbanken und ruft diese Dokumente effektiv ab. Um unseren Ansatz mit der großen Anzahl von Textdatenbanken zu skalieren, schlagen wir auch die hierarchische Organisation von neuronalen Netzagenten vor, die die Gesamttrainingskosten auf ein akzeptables Niveau reduziert. Schließlich bewerten wir die Leistung unseres Ansatzes, indem wir ihn mit denen der herkömmlichen bekannten Ansätze vergleichen.;-;-;-;https://link.springer.com/article/10.1007/PL00011673 f0d3ef6b4d78a4385e1d8bafac43e858;de;;;7.3.;;;Verwenden des Smartcard-Webservers in Secure Branchless Banking In abgelegenen Gebieten von Entwicklungsländern kann das Mobilfunknetz die einzige Verbindung zu externen Organisationen wie Banken sein. SMS-Nachrichten werden in filiallosen Banksystemen wie M-PESA in Kenia verwendet, können jedoch für SMS-Spoofing-Exploits anfällig sein. Dieses Papier schlägt ein bankenloses Banksystem für Abhebungen, Einzahlungen und Überweisungen vor, das eine Anwendung auf dem manipulationssicheren Subscriber Identity Module (SIM) des Telefons verwendet, das mit einem Smart Card Web Server (SCWS) und Kryptografiefunktionen mit öffentlichen Schlüsseln ausgestattet ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38631-2_19 50a7e3b7f6d22527d9d113661470aaf4;de;;;7.3.;;;Design und Implementierung einer Webplattform zur Unterstützung von KMU bei der kollaborativen Produktentwicklung Der Forschung zum Produktentwicklungsprozess fehlt es an Untersuchungen zu den Aspekten im Zusammenhang mit seiner potenziellen Integration in eine webbasierte kollaborative Umgebung, insbesondere unter Berücksichtigung der praktischen Bedürfnisse kleiner mittlerer Unternehmen (KMU). und Entwicklung einer webbasierten Plattform zur Unterstützung von KMU im Produktentwicklungsprozess. Auf der Grundlage einer gründlichen Literaturrecherche und einer Bestandsaufnahme der im Designbereich verfügbaren Plattformen und Tools beschreibt dieses Papier ausführlich die Entwicklung einer IKT-Plattform namens iCommunity, die das Rückgrat und die Grundlage für den Aufbau einer Innovationsökosystem, das KMU hilft: (1) die verteilte kollektive Intelligenz bei der Entwicklung neuer Produkte zu verwalten, (2) modulare Produkte kollaborativ zu entwerfen und zu entwickeln. Die Methodik der Aktionsforschung wurde aufgrund ihrer Eignung für die Charakteristik dieser Studie ausgewählt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40361-3_15 8f817b8488665c1f7601eea356b64e73;de;;;7.3.;;;Neue Webtools zur Verbesserung der PubMed-Suchen für die biomedizinische Community Heutzutage sind zahlreiche Tools, Suchmaschinen und medizinische Aggregatoren im Internet verfügbar, aber die biomedizinische Gemeinschaft hat immer noch Schwierigkeiten, auf Informationen zuzugreifen und sie effektiv abzurufen. Ziel dieser Umfrage war es, PubMed-Drittanbieter-Tools zur Optimierung der biomedizinischen Informationsbeschaffung zu analysieren und zu bewerten. Unter den neuesten Tools wurde die respektvollste und PubMed-ähnliche Konfiguration und Struktur berücksichtigt. Eine natürlichsprachliche Standardabfrage, Thrombozytopenie UND Mensch UND Hepatitis, wurde für fünf ausgewählte und klassifizierte PubMed-Drittanbieter-Tools durchgeführt: SLIM, Anne O’Tate, Vivisimo oder ClusterMed, Hubmed und PubFocus. Die Ergebnisse wurden nach folgenden Kriterien bewertet: Zugänglichkeit, Benutzerfreundlichkeit und Aktualität der Antworten. Drei Tools zeigten gute Ergebnisse (Drei-Sterne-Score), zwei waren ausgezeichnet (Fünf-Sterne-Score) und eines war schlecht (Zwei-Sterne-Score). Die syntaktische und semantische Korrektheit der festgelegten Suchstrategien und die korrekte Verwendung der PubMed MeSH-Begriffe können bei biomedizinischen Recherchen mit MEDLINE/PubMed nicht ignoriert werden.;-;-;-;https://link.springer.com/article/10.1177/009286150904300202 6b8cd4ddccf457b1d3c40011599ed2b8;de;;;7.3.;;;Modifikation des Online-CCTV-Systems von einem DVR der früheren Generation über ein Smartphone durch einen Webbrowser ohne Hostnamen Diese Forschung präsentiert eine Fehlerbehebung zur Lösung der Probleme des Online-CCTV-Systems von DVRs der vergangenen Generation, die nicht über ein Smartphone überwacht werden können. Die Hauptprobleme werden durch den Hostnamen, die Übertragungsleitungssysteme und die Version des veralteten Webbrowsers verursacht. Diese Probleme können durch die Verwendung des TeamViewer-Programms, das erneute Zusammenbauen eines Kabelsteckers und die Verwendung des Webbrowsers des Internet Explorers behoben werden. Die Vorteile dieser Methode und eines Revisionsprozesses sind, dass der Benutzer das Online-Kamerasystem ohne Hostnamen-Erneuerung und den komplexen Einstellungsprozess eines Routers wiederbetreiben kann. Darüber hinaus kann dies auch von Windows 10-Betriebssystemen durchgeführt werden, für die kein Downgrade der Windows-Version erforderlich ist. Diese Forschung konzentriert sich auf die Problemlösung von einer Hardware der DVR CCTV-Hardware der letzten Generation. Es eignet sich für Benutzer, die weiterhin das Originalgerät oder den Hostnamen für die Überwachung per Smartphone verwenden möchten. Außerdem ist es für energiesparende Geräte wie Mini-PC und Mini-Notebook geeignet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20717-5_10 8ef8d63f2eab7e82ff63428d0c97c623;de;;;7.3.;;;Digital Literacy: Eine wichtige Kompetenz für 2010? Die Menschen leben heute in einer sich schnell verändernden Welt, sowohl beruflich als auch privat. Welche Kompetenzen sind erforderlich, um die Vorteile der heutigen Wissensgesellschaft voll auszuschöpfen, wenn sich die Geschwindigkeit des technologischen Wandels nach den Vorhersagen von Gordon Moore von 1965 fortsetzt [1]? Die EU hat den Bedarf an digitaler Kompetenz erkannt und dies in die Definition von eInclusion aufgenommen [2]. Dieses Papier definiert Digital Literacy als eine für alle Bürger lebenswichtige Kompetenz, untersucht die sich ändernden Definitionen von Digital Literacy, untersucht die Aussagen der Zertifizierungsstellen und schlägt die Kompetenzen vor, die heute erforderlich sind und Digital Literacy definieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15378-5_21 1bddc41724900e38bdb3dac4e4569f49;de;;;7.3.;;;Erreichbarkeit der Website von US-amerikanischen Websites für das Gastgewerbe Das Internet ist zu einem wesentlichen Bestandteil unserer Gesellschaft geworden, da wir diese Technologie kontinuierlich nutzen, um unser geschäftliches und soziales Leben besser zu erleichtern. Hotels und Restaurants haben Websites eingerichtet, die Funktionen wie Zimmerverfügbarkeit, Menübeschreibung sowie Online-Reservierungen anbieten. Viele Webdesigner im Gastgewerbe haben jedoch die Schwierigkeiten vernachlässigt, die Besucher mit Behinderungen wie Sehbehinderungen beim Besuch der Websites haben können. Diese Studie bewertete die aktuelle Zugänglichkeitssituation aktueller Gastgewerbe-Websites in den USA und untersuchte die potenziellen Probleme, die diese Websites bei der Präsentation von Informationen für Besucher mit Behinderungen haben können. Durch die Bewertung der Beispiel-Hospitality-Websites nach den Kriterien von Abschnitt 508, den Richtlinien für die Zugänglichkeit von Webinhalten, dem Farbenblindfilter und der Flexibilität der Textgröße hat die Studie festgestellt, dass die aktuelle Zugänglichkeit von Hospitality-Websites in den USA gering ist und dass es keinen alternativen Text für Nicht- -Textelemente ist das Hauptproblem. Implikationen möglicher Gründe und zukünftige Forschungsvorschläge werden entsprechend diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-211-93971-0_23 484d6e579d442aaf97e93ebf85c654e7;de;;;7.3.;;;Clustering von vorlagenbasierten Webdokumenten Immer mehr Dokumente im World Wide Web basieren auf Vorlagen. Auf technischer Ebene führt dies dazu, dass diese Dokumente einen recht ähnlichen Quellcode und eine ähnliche DOM-Baumstruktur aufweisen. Das Gruppieren von Dokumenten, die auf derselben Vorlage basieren, ist eine wichtige Aufgabe für Anwendungen, die die Vorlagenstruktur analysieren und saubere Trainingsdaten benötigen. Dieses Papier entwickelt und vergleicht mehrere Entfernungsmaße für das Clustern von Webdokumenten gemäß den zugrunde liegenden Vorlagen. Durch die Kombination dieser Distanzmaße mit unterschiedlichen Ansätzen für das Clustering zeigen wir, welche Methodenkombination zum gewünschten Ergebnis führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78646-7_7 bdbe6762a31d5a9759c79f97285313b1;de;;;7.3.;;;Nutzung des Internets durch Patienten in Fachkliniken in Sri Lanka: eine Querschnittsstudie Das Internet ist ein relativ neues Medium zur Verbreitung von Gesundheitsinformationen. Studien zur Internetnutzung für Gesundheitsinformationen werden hauptsächlich in Industrieländern durchgeführt, und nur sehr wenige Studien wurden in Entwicklungsländern durchgeführt.;-;-;-;https://link.springer.com/article/10.1186/1472-6947-9-12 8525f7b586963b81c6c600bbb75478ab;de;;;7.3.;;;Die Webpräsenz für kleine Unternehmen: Nutzung von Drittanbieterportalen in Australien Im Rahmen ihres „Webauftritts“, der über die Nutzung der eigenen Website hinausgeht, nutzen viele kleine Unternehmen die Dienste von Websites Dritter. Das Ausmaß dieser Verwendung der verlängerten Bahn ist jedoch nicht gut bekannt. Dieses Papier untersucht die Nutzung von Websites Dritter durch 50 australische Kleinunternehmen, die die Dienste von Websites Dritter, insbesondere Webportale und Verzeichnisse, in Anspruch genommen haben, und bestimmt den Umfang ihrer Nutzung und die auf den Websites verwendeten Funktionen. Etwa 82 % der untersuchten Kleinunternehmen waren auf mindestens einer Website Dritter präsent. Es gibt eine Reihe von Unterschieden, die auf verschiedene Unternehmensbereiche zurückzuführen sind. Die stärksten Nutzer von Websites Dritter waren die Unterkünfte, Cafés und Restaurants in Bezug auf die verwendeten Portaltypen und die auf diesen Portalen ausgewählten Dienstleistungen. Das;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16402-6_18 ae9c35714e0e3892e691fc452a0a71aa;de;;;7.3.;;;EasiSMP: Ein ressourcenorientiertes Programmier-Framework, das die Laufzeit-Propagation von RESTful-Ressourcen unterstützt Um die Programmierung für den Aufbau von Sensornetzwerken zu vereinfachen, wurden in früheren Arbeiten Makroprogrammierungsverfahren vorgeschlagen. Die meisten von ihnen sind für die dedizierten Netzwerke und spezielle Szenarien konzipiert, in denen die Geräte meist homogen sind. Dennoch berücksichtigen die Verfahren selten solche gemeinsam genutzten Netzwerke, die aus heterogenen Geräten bestehen, z. B. Sensoren, Aktoren, Mobilgeräten, und Ressourcen untereinander teilen. In diesem Papier stellen wir EasiSMP vor, ein ressourcenorientiertes Programmier-Framework für diese gemeinsamen Netzwerke und generischen Anwendungsszenarien. In diesem Framework werden die Geräte und ihre Funktionalitäten in RESTful Virtual Resources (VRs) abstrahiert, von denen jede durch einen Uniform Resource Identifier (URI) gekennzeichnet ist. Auf die VR nach der Bereitstellung kann global zugegriffen und sie wiederverwendet werden, um zur Laufzeit neue Ressourcen zu verbreiten. Um die Ressourcenausbreitung zu unterstützen, werden Programmierprimitive vorgeschlagen und eine virtuelle Ressourcenmaschine (VRE) untersucht. Zur Durchführung der Evaluierung wird EasiSMP in ein Reliktüberwachungsnetzwerk eingesetzt. Experimentelle Ergebnisse zeigen, dass die Programmierung mit Ea-siSMP prägnant ist und der durchschnittliche Bereitstellungsaufwand im Vergleich zur Programmierung auf Knotenebene um bis zu 27 % verringert wird.;-;-;-;https://link.springer.com/article/10.1007/s11390-014-1422-0 6402971aa3c286cb58925d694d80b5fa;de;;;7.3.;;;Der Informationsbedarf der digitalen Gesellschaft: Herausforderungen und Probleme Die Informationsbedürfnisse der Gesellschaft im Zeitalter der Digitalisierung werden berücksichtigt. Es wird gezeigt, dass elektronische Informationen eine der wichtigsten Quellen für ihre Zufriedenheit sind. Die aktuelle Marktlage für elektronische Bücher und elektronische Zeitschriften in der Russischen Föderation wird aufgezeigt und die Probleme ihrer weiteren Entwicklung aufgezeigt.;-;-;-;https://link.springer.com/article/10.3103/S0147688220020045 9eacdf539786fbfd092091d44f0f63ae;de;;;7.3.;;;Zusammenhangsbewusstsein Die Wahrnehmung des Nutzerkontextes und seine Nutzung als Hilfestellung für den Informationszugang sind eines der Hauptforschungsgebiete, die Mobile IR ermöglicht hat. Dieses Kapitel versucht zu erklären, was Kontext ist und was es für Mobile IR bedeutet, sich dessen bewusst zu sein. Es bietet auch eine Reihe von Beispielen für Anwendungen, die Kontext und einige seiner vielen Komponenten verwenden, die ein mobiles Gerät erfassen kann, z. B. Standort, Zeit, kontextbezogene Aspekte und Gesellschaft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-60777-1_7 e597052ac4700c2f24174de0d322176b;de;;;7.3.;;;SAM: Semantic Advanced Matchmaker Da die Zahl der verfügbaren Webdienste zunimmt, wird das Auffinden geeigneter Webdienste zur Erfüllung einer bestimmten Anforderung zu einer wichtigen Aufgabe. Die meisten aktuellen Lösungen und Ansätze zur Web-Service-Erkennung sind in dem Sinne eingeschränkt, dass sie streng definiert sind und nicht die volle Leistungsfähigkeit der semantischen und ontologischen Darstellung nutzen. Service-Matchmaking, das sich mit der Ähnlichkeit zwischen Service-Definitionen befasst, ist für eine effektive Erkennung sehr wichtig. Studien haben gezeigt, dass der Einsatz semantischer Web-Technologien die Effizienz und Genauigkeit des Matchmaking-Prozesses verbessert. In dieser Forschung konzentrieren wir uns auf eine der anspruchsvollsten Aufgaben in der Service-Erkennung und -Zusammenstellung: Service-Matchmaking. Wir nutzen aktuelle Semantic Web-Technologien wie OWL und OWL-S, um Dienste zu beschreiben und Ontologien zu definieren. Wir führen einen effizienten Matchmaking-Algorithmus ein, der auf bipartiten Graphen basiert. Wir haben gesehen, dass das bipartite Matchmaking Vorteile gegenüber anderen Ansätzen in der Literatur für das Parameterpaarungsproblem hat, das sich mit dem Finden der semantisch übereinstimmenden Parameter in einem Dienstpaar befasst. Unser vorgeschlagener Algorithmus ordnet die Dienste in einer Kandidatenmenge nach ihrer semantischen Ähnlichkeit mit einer bestimmten Anfrage. Unser Matchmaker führt die semantische Ähnlichkeitszuweisung durch, indem er die folgenden Ansätze implementiert: Subsumtion-basierte Ähnlichkeit, Ähnlichkeit auf Eigenschaftsebene, Ähnlichkeitsabstandsanmerkungen und WordNet-basierte Ähnlichkeit. Unsere Ergebnisse zeigen, dass der vorgeschlagene Matchmaker die erfasste semantische Ähnlichkeit verbessert und einen feingranularen Ansatz beim semantischen Matchmaking bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79140-9_7 90587e333727a6f35549d224619c11fe;de;;;7.3.;;;Integrieren Sie WSN in das Web of Things mithilfe von XMPP Wireless Sensor Network ist dank seiner zahlreichen nützlichen Anwendungen eine vielversprechende Technologie. Der jüngste Trend zum Web of Things nutzt umfangreiche Webtechnologien und Toolkits, die die Arbeit bei der Entwicklung von WSN-Anwendungen erheblich vereinfachen. Der komplexe Webserver und die umfangreiche HTTP-Kommunikation erschweren jedoch die Portabilität von WSN-Anwendungen und die Ressourcenverwaltung des Knotens. Um eine leichtgewichtige Webintegration und einheitliche Datendarstellung bereitzustellen, schlagen wir vor, XMPP, einen von der IETF formalisierten offenen Standard, zum Aufbau von Instant Messaging- und Präsenzdiensten für drahtlose Sensorknoten zu verwenden. In diesem Whitepaper entwickeln wir einen skalierbaren und flexiblen XMPP-Sensor-Bot, um WSN in eine generische XMPP-Architektur zu integrieren. Wir entwerfen auch zwei leichtgewichtige XMPP-Erweiterungen für die Darstellung von Sensorknoten und die Aufgabenkonfiguration. Der effiziente XML-Ausdruck in unserem Erweiterungsprotokoll kann die Nutzlast in ein einzelnes IEEE 802.15.4-Paket quetschen und verursacht keine XMPP-Nachrichtenfragmentierung. Unsere Lösung arbeitet direkt auf der MAC-Schicht, ohne dass ein TCP/IP-Stack erforderlich ist. Basierend auf unserem Sensor-Bot schlagen wir eine neuartige Anwendung zur Produktvalidierung und Kundenverhaltensanalyse mit RFID/NFC-Technologie auf Smartphones vor, um einen neuen kontextsensitiven Service zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32778-0_9 258405e3bed0aa46252b37dbdcbbf70f;de;;;7.3.;;;RIS/PACS-Integration in eine Webumgebung Aktuelle Marktforschungsstudien und Umfragen zur Entwicklung der medizinischen Bilddiagnostik und des Gesundheitswesens sind sich einig, dass der Einsatz digitaler Technologien sowie von Informations- und Kommunikationssystemen [1] in den nächsten fünf Jahren deutlich zunehmen wird. Ein technologischer Wandel wird mit einer operativen Änderung einhergehen, die zu einer Veränderung der Kunden-Lieferanten-Beziehung führt. Der Lieferant wird aufgefordert, nicht nur ein Produkt oder eine Lösung bereitzustellen, sondern eine Reihe professioneller Unterstützungs- und Beratungsleistungen, die für die Gestaltung, den Übergang und die anschließende optimierte Nutzung von technologisch unterschiedlichen und perfekt integrierten Plattformen verwendet werden können. Informationssysteminstallationen für medizinische Anwendungen haben aus verschiedenen Gründen oft nicht die Erwartungen der Gesundheitsfachleute erfüllt: komplexe und fragile Konstruktion, hohe Kosten, Redundanz und hauptsächlich lokales Informationsmanagement, Probleme bei der Gewährleistung der Interoperabilität zwischen Systemen verschiedener Hersteller und manchmal sogar zwischen Lösungen von solutions der gleiche Hersteller.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-56168-9_80 505ceb546a9e92440f97c4ef6f6fb753;de;;;3.4.;;;Einbeziehung von Stakeholdern in die Verbesserung von Softwareprozessen, um Änderungsresistenz zu reduzieren Die Verbesserung von Softwareprozessen in Unternehmen bietet eine wichtige Chance für Unternehmen, effizienter zu werden. In den meisten Fällen werden jedoch Initiativen zur Verbesserung von Softwareprozessen in Unternehmen zu einem Weg voller Hindernisse, vor allem weil die Stakeholder dies als Auferlegung von Prozessen und deren Umsetzung als Bedrohung ihrer Arbeitsplätze empfinden. Infolgedessen scheitern die Bemühungen bei der Implementierung von Softwareprozessverbesserungen meistens, Stakeholder sind frustriert und Unternehmen sind mehr denn je davon überzeugt, dass sie ihre Arbeit wie bisher weiterführen müssen, auch wenn sie nicht die erwarteten Ergebnisse in ihrer Arbeit haben Leistung. Dieses Papier bietet einen Überblick darüber, wie Stakeholder während der Implementierung von Softwareprozessverbesserungen einbezogen werden können, damit sie die Schlüsselelemente für eine erfolgreiche Initiative zur Softwareprozessverbesserung wahrnehmen. Daher werden die neuen Prozesse als eigene und ihre Einführung als eine Weiterentwicklung ihrer Arbeit wahrgenommen, die ihnen hilft, effizienter zu sein und eine bessere Arbeitsleistung zu erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39179-8_18 d6aab1be1d583797ee09f8303c36cfa3;de;;;7.3.;;;Strukturieren und Präsentieren der verteilten sensorischen Informationen im Sensing Web Im Sensing Web[1] sind verschiedene Sensoren dispersiv installiert, und von diesen Sensoren erhalten wir verschiedene Informationen über die Ereignisse der realen Welt. Obwohl wir von jedem der Sensoren eine bestimmte Art von Informationen separat erfassen können, sind diese Informationen fragmentarisch und die Integration oder Strukturierung der von mehreren Sensoren erfassten sensorischen Daten ist für uns sehr wichtig, um wirklich aussagekräftige Informationen der realen Welt zu erhalten. Unter diesem Gesichtspunkt haben wir im Projekt Sensing Web die Organisation und Präsentation verteilter sensorischer Daten untersucht. In diesem Beitrag stellen wir unsere Forschungsaktivitäten vor, insbesondere die weiträumige Objektverfolgung, und einige demonstrative Experimente.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14058-7_66 3e71c52e1ca6d87c04307600f2d5e1b3;de;;;7.3.;;;(Fast Melody Finder): Ein webbasiertes Musikabrufsystem Da die Verwendung von digitaler Musik immer beliebter wird, besteht eine steigende Nachfrage nach einem effizienten Abrufen von Musik. Um dies zu erreichen, sollten eine effektive Musikindexierung und eine natürliche Abfrage einer Musik integriert werden. Dieser Artikel beschreibt das FMF-System, das dazu dient, Melodien aus einer Datenbank auf der Grundlage einiger Noten abzurufen, die in ein Notenblatt-Applet eingezeichnet oder in ein Mikrofon gesungen werden. Das FMF-System akzeptiert sowohl akustische als auch visuelle Eingaben vom Benutzer, transkribiert alle akustischen und üblichen Musiknotationseingaben in spezifische Saiten wie UDR und LSR. Dann durchsucht es einen Index nach Melodien, die das gesungene Muster oder ähnliche Muster enthalten. Wir haben ein webbasiertes Retrievalsystem implementiert und berichten über seine Leistungsfähigkeit durch verschiedene Experimente.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39900-1_16 29d2b44d0bbf0c99a22e2a9ba15eafbf;de;;;3.4.;;;Wie sich das Intranet im Bankwesen entwickelt hat: Eine Längsschnittstudie Dieser Artikel zielt darauf ab, den Stand der Technik des Intranets im italienischen Bankensektor und seine Entwicklung seit 2004 zu präsentieren. Die Untersuchung umfasst eine Gruppe von Banken (die 80 % des italienischen Bankensektors in Bezug auf die Mitarbeiter abdeckt) und basiert auf beiden Längsschnittstudien und Umfrage. Es wurden zwei Evolutions-Ära identifiziert und Frameworks berichtet. Die Ergebnisse zeigen, dass die Banken trotz unterschiedlicher Wege und Ansätze und oft ohne gemeinsame Vision immer mehr zu einem vernetzten Management von Kernprozessen mit Integrationsgraden in einer „single virtual working environment“ – dem Workspace – übergehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87783-7_55 01a1f50e3ed93e83f6d0bd3647cf0117;de;;;7.3.;;;e-Class personalisiert: Design und Evaluation eines adaptiven Lern-Content-Management-Systems In diesem Beitrag wird e-Class Personalized (e-CP) vorgestellt, eine neue Erweiterung des weit verbreiteten Open-Source-Learning-Content-Management-Systems e-Class. e-CP überwacht die Interaktion der Nutzer von e-Class mit ihren Inhalten und Diensten und passt die Dienste besser an die Interessen und Aufgaben der Nutzer an. E-CP wurde über ein Jahr lang auf dem e-Class-Server der Universität von Patras mit über 20.000 Benutzern getestet. Es stieß auf positive Resonanz bei den Benutzern, die dieser Version des schlanken Content-Management-Systems ausgesetzt waren. In diesem Beitrag diskutieren wir Architekturentscheidungen und Bewertungsergebnisse von e-CP.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-34224-9_47 88b1aca3a4076e0cbe0965abc6af6151;de;;;7.3.;;;Eine Hadoop-Verarbeitungsmethode für massive Sensornetzwerkdaten basierend auf dem Internet der Dinge Basierend auf der Analyse der Architektur der Internet-of-Things-Dienstplattform und der Schlüsseltechnologien des Cloud-Computing wird ein Schema zur massiven Erfassung von Informationen basierend auf der Internet-of-Things-Dienstplattform vorgeschlagen. Das Schema schlägt zuerst ein Systemarchitekturmodell vor, das die massive Sensorinformationsverarbeitung in einer offenen Plattformumgebung erfüllen kann, und entwirft mehrere Funktionseinheitsmodule des Systems. Durch die Kombination dieser Funktionseinheiten kann eine Dienstkonfigurierbarkeit realisiert werden, die Tausenden von Diensten und Mandanten gegenübersteht. Dann wird das Hadoop Open-Source-Framework verwendet, um das verteilte Computing des Systems zu realisieren, das die Verarbeitungsvorteile des MapReduce-Computing-Modells, der verteilten HBase-Datenbank und des verteilten HDFS-Dateisystems im Hadoop-Framework voll nutzt und die Oracle-Datenbank als Ergänzung zu erkennen das System hoch. Schließlich wurden die Massensensorinformationen bereitgestellt und getestet. Die Wirksamkeit der Hadoop-Verarbeitungsmethode wurde durch die Analyse der Ergebnisse von MapReduce-Parallelcomputing-Versuchen überprüft. Die durchschnittliche Cache-Trefferrate beträgt 93,1%, was eine hohe Cache-Trefferrate aufweist, die I/O der MySQL-Datenbank stark reduziert und die Systemleistung verbessert.;-;-;-;https://link.springer.com/article/10.1007/s10776-019-00455-6 e9c2cbb1b9cf49e4ba9e219fe0734962;de;;;7.3.;;;Verteilte Kontextüberwachung für kontinuierliche mobile Dienste Kontextbewusstsein wurde als sehr wünschenswertes Merkmal für mobile Internetdienste erkannt. In diesem Beitrag wird die Erfassung von Kontextinformationen für kontinuierliche Dienste betrachtet, d. h. Dienste, die in der Zeit bestehen bleiben, wie beispielsweise Streaming-Dienste. Die Unterstützung des Kontextbewusstseins für diese Dienste erfordert die kontinuierliche Überwachung von Kontextinformationen. Das Papier stellt die Erweiterung einer Middleware-Architektur für den Abgleich verteilter Kontextinformationen vor, um kontextbewusste kontinuierliche Dienste zu unterstützen. Das Papier befasst sich auch mit Optimierungsproblemen und veranschaulicht einen adaptiven Videostreaming-Prototyp, der zum Testen der Middleware verwendet wird.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-31166-1_9 35cc672d6f34094862e2c6d3b6c97bfc;de;;;7.3.;;;Ontologie-basierter Abruf von raumbezogenen Objekten für standortbasierte Dienste Advanced Location Based Service (LBS)-Anwendungen müssen im GIS gespeicherte Informationen, Informationen über Benutzerpräferenzen (Profil) sowie kontextbezogene Informationen und Informationen über die Anwendung selbst integrieren. Ontology Engineering bietet Methoden zur semantischen Integration mehrerer Datenquellen. Wir schlagen ein ontologiegesteuertes LBS-Entwicklungsframework vor: Das Papier beschreibt die Architektur von Ontologien und deren Verwendung zum Abrufen von für den Benutzer relevanten räumlichen Objekten. Unser Hauptbeitrag besteht darin, personalisierte ontologiegesteuerte LBS zu ermöglichen, indem wir einen neuartigen Ansatz zur Definition personalisierter semantischer räumlicher Beziehungen mittels Ontologien bereitstellen. Der Ansatz wird durch eine industrielle Fallstudie veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05151-7_19 0f98ef23a8368e427563391ac18fdb0b;de;;;7.3.;;;Entwicklung der nordischen Internetinfrastruktur 1988–2007 Bei der Entwicklung, Einführung und Verbreitung des Internets haben nordische Forscher eine Vorreiterrolle und eine zentrale Rolle gespielt. Bereits in den 1970er Jahren hat Norwegen den ersten ARPAnet-Knoten außerhalb Nordamerikas gehostet und entwickelt. In den 1980er Jahren gründeten Pioniere in den nordischen Ländern nationale Computernetzwerke und schlossen sich zum nordischen akademischen Netzwerk NORDUnet zusammen, das vom KTH Network Operation Centre, KTHNOC, entwickelt und betrieben wurde. Sein DGIX-Knoten (Distributed Global Internet eXchange) wurde Mitte der 1990er Jahre mit etwa 40 angeschlossenen Internet-Betreibern zentral im globalen Internet. NORDUnet spielte eine starke Rolle in der europäischen Netzkooperation und der Ausbreitung des Netzes nach Osten ab 1990. Wir beschreiben, analysieren und reflektieren die nordische Entwicklung 1988–2007 mit Details zum Ausbau in immer höhere Kapazitäten und Dienste.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-17145-6_23 e4eb1f0c2aee6c62f455122bf59208d9;de;;;3.4.;;;Experimentelle Studie zur prädiktiven Modellierung in der Gamification-Marketing-Anwendung Heutzutage nutzen viele Unternehmen den Gamification-Ansatz, um ihre Produkte im digitalen Marketing zu bewerben. Ein Gamification-Marketing-Ansatz kann nur dann effektiver sein, wenn die Unternehmen das Verhalten ihrer Kunden anhand ihrer Navigationsmuster verstehen können. Sobald ihr Verhalten den Unternehmen bekannt ist, können die entsprechenden Verbesserungen vorgenommen werden, um die Marketingstrategie zu verbessern. Dieses Papier zielt darauf ab, die Navigationsmuster der Kunden auf der Grundlage von Kundenbindungsmetriken von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-79463-7_32 659b97c2791bb888ea57fd25c3884b30;de;;;7.3.;;;Selbstorganisation und Lernen in Multiagenten-basierten Maklerdiensten Electronic Commerce basiert auf dem Austausch von Informationen zwischen den beteiligten Akteuren unter Nutzung der zugrunde liegenden Telekommunikationsinfrastruktur. Business-to-Consumer-Anwendungen ermöglichen es Anbietern, ihre Angebote zu verbreiten und Kunden ein Angebot zu finden, das ihrer Nachfrage entspricht. Eine riesige Sammlung von häufig aktualisierten Angeboten und Kunden, der elektronische Marktplatz, zeigt die Aufgabe, die Nachfrage- und Angebotsprozesse in einer kommerziellen Vermittlungsumgebung abzustimmen. Das Ziel des von ACTS Domain V ins Leben gerufenen Abrose-Projekts (Agent based BROkerage SErvices for electronic Commerce) ist die Entwicklung eines Maklersystems auf Basis einer adaptiven Multiagenten-Architektur.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48888-X_6 da436ddba47996db81d7737c1e8ebda4;de;;;7.3.;;;Selbstorganisierendes semantisches Internet-Netzwerk Dieses Papier stellt ein Konzept eines globalen verteilten Informationsnetzes vor, das Millionen von persönlichen Agenten umfasst, die im Namen ihrer Eigentümer im Internet agieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0715-6_9 2ca7ce92584eca597151261c442869cf;de;;;7.3.;;;Fernbedienung von Smart Homes mit Korean Natural Language Processing In letzter Zeit ist mit dem schnellen Wachstum der Digital- und Internettechnologien die Nachfrage nach der Nutzung des Internets zu Hause gestiegen. Auch die Entwicklung verschiedener internetbasierter Fernbedienungen für Smart Homes wurde angeregt, von denen die meisten eine Webschnittstelle zwischen Mensch und Maschine verwenden. In diesem Papier haben wir eine neue Benutzeroberfläche (UI) für Smart Homes mit Natural Language Processing (NLP)-Agent vorgeschlagen. Ziel des vorgeschlagenen Verfahrens ist es, dem Hausbesitzer die Natürlichkeit der Kommunikation für den Endverbraucher zu bieten. Bei dem vorgeschlagenen Verfahren zeigt sich, dass der Heimserver in der Lage ist, Geräte nach der Analyse des Klartexts unter Verwendung der natürlichen Sprache fernzusteuern und zu überwachen. Daher können mit der vorgeschlagenen Methode fast alle Geräte von Smart Homes effektiv über die integrierte Benutzeroberfläche verwaltet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72830-6_94 59fa69a5f592dcc20cf76b6b5e520504;de;;;7.3.;;;Ein System zur Entscheidungsunterstützung für Gruppen, das auf linguistischen Multikriteriumsbewertungen basiert Ein System zur Unterstützung von Gruppenentscheidungen wird vorgestellt. Das Hauptanliegen ist eine wirksame Unterstützung des Konsensfindungsprozesses. Ausgangspunkt sind sprachliche Einschätzungen von Optionen hinsichtlich mehrerer Kriterien. Diese werden verarbeitet, um individuelle und Gruppenpräferenzstrukturen sowie eine Einschätzung des Konsens in der Gruppe zu erhalten. Eine Pilotimplementierung des Systems in der WWW-Umgebung wird vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-1797-3_11 05eca2bcfc8aefc26a534d410fb19233;de;;;7.3.;;;Ein Framework zur Initialisierung von Schülermodellen in webbasierten intelligenten Tutorsystemen Die Initialisierung eines Schülermodells für individualisierte Nachhilfe in Bildungsanwendungen ist eine schwierige Aufgabe, da sehr wenig über einen neuen Schüler bekannt ist. Andererseits ist eine schnelle und effiziente Initialisierung des Schülermodells erforderlich. Andernfalls kann das Nachhilfesystem bei den ersten Interaktionen mit dem Schüler seine Glaubwürdigkeit verlieren. In diesem Papier beschreiben wir ein Framework für die Initialisierung von Schülermodellen in webbasierten Bildungsanwendungen. Das Framework heißt ISM. Die Grundidee von ISM besteht darin, durch eine innovative Kombination von Stereotypen und der abstandsgewichteten Form Ausgangswerte für alle Aspekte von Schülermodellen zu setzen;-;-;-;https://link.springer.com/article/10.1023/B%3AUSER.0000043396.14788.cc 6aa9d48b0621ea371dc0c4f8120f30c6;de;;;7.3.;;;TSS: Eine hybride Websuche Durch das Aufkommen des Semantic Web ermöglicht es Maschinen, die Bedeutung von Ressourcen im Web zu verstehen. Die weit verbreitete Verfügbarkeit von maschinenverständlichen Informationen wird sich auf den Informationsabruf im Web auswirken. In diesem Artikel schlagen wir eine hybride Websucharchitektur, TSS, vor, die die traditionelle Suche mit der semantischen Suche kombiniert, um Präzision und Wiedererkennung zu verbessern. Die Komponenten in TSS werden beschrieben, um die hybride Websuche zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30483-8_50 391cc50a6880724d7c5a2dac0acfe27e;de;;;7.3.;;;Wie nützlich ist soziales Feedback, um zu lernen, wie man YouTube-Videos bewertet? Für Multimedia-Inhalte, die über Web 2.0-Plattformen geteilt werden, steht eine große Menge an sozialem Feedback, das über Bewertungen (d. h. Vorlieben und Abneigungen) und Kommentare ausgedrückt wird, zur Verfügung. Das Potenzial solcher sozialer Merkmale im Zusammenhang mit geteilten Inhalten bleibt jedoch im Zusammenhang mit der Informationsbeschaffung unerforscht. In diesem Artikel untersuchen wir zunächst die sozialen Funktionen, die mit den am besten bewerteten Videos verbunden sind, die von der YouTube-Video-Sharing-Site für die echten Benutzeranfragen abgerufen wurden. Unsere Analyse berücksichtigt sowohl rohe als auch abgeleitete soziale Merkmale. Als nächstes untersuchen wir die Effektivität jedes dieser Features für den Videoabruf und die Korrelation zwischen den Features. Schließlich untersuchen wir den Einfluss der sozialen Merkmale auf die Effektivität des Video-Retrievals mit Hilfe modernster Learning-to-Rank-Ansätze. Um die effektivsten Merkmale zu identifizieren, wenden wir eine neue Merkmalsauswahlstrategie an, die auf der Methode der maximalen Marginalrelevanz (MMR) basiert und eine bestehende Strategie verwendet. In unseren Experimenten behandeln wir beliebte und seltene Abfragen getrennt und kommentieren 4.969 bzw. 4.949 Abfrage-Video-Paare von jedem Abfragetyp. Unsere Ergebnisse zeigen, dass die Einbeziehung sozialer Funktionen ein vielversprechender Ansatz ist, um die Abrufleistung für beide Arten von Abfragen zu verbessern.;-;-;-;https://link.springer.com/article/10.1007/s11280-013-0258-9 ee16849fc62733c9ecd0479427d0472f;de;;;7.3.;;;CALA: Ein Webanalysealgorithmus kombiniert mit einer Methode zur Analyse der Inhaltskorrelation Der Algorithmus zur Analyse der Web-Hyperlink-Struktur spielt eine bedeutende Rolle bei der Verbesserung der Präzision des Abrufens von Web-Informationen. Aktuelle Linkalgorithmen verwenden eine Iterationsfunktion, um das Gewicht der Web-Ressource zu berechnen. Der Hauptnachteil dieses Ansatzes besteht darin, dass jedes Webdokument einen festen Rang hat, der unabhängig von Webabfragen ist. Dieses Papier schlägt einen verbesserten Algorithmus vor, der die Qualität und Relevanz einer Seite entsprechend der Benutzeranfrage dynamisch einordnet. Die Experimente zeigen, dass der aktuelle Linkanalysealgorithmus verbessert ist.;-;-;-;https://link.springer.com/article/10.1007/BF02946659 3af4e58b6d38122067491d17a7f4cc6f;de;;;7.3.;;;Management von Informationstechnologie-Sicherheitsrisiken Das Informationstechnologie-(IT-)Sicherheitsrisikomanagement ist eine kritische Aufgabe für das Unternehmen, um den Verlust von Vertraulichkeit, Integrität und Verfügbarkeit von IT-Ressourcen und Daten zu verhindern. Aufgrund der Systemkomplexität und der Raffinesse von Angriffen wird es immer schwieriger, IT-Sicherheitsrisiken zu managen. Dieses Papier beschreibt einen zweigleisigen Ansatz für das Management von IT-Sicherheitsrisiken: 1) einen institutionellen Ansatz, der sich mit der Automatisierung des Prozesses der Bereitstellung und Aufrechterhaltung der Sicherheit von IT-Systemen und der darin enthaltenen Daten befasst, und 2) einen Projektlebenszyklus-Ansatz, der die Bereitstellung von halbautomatische Mittel zur Integration von Sicherheit in den Projektlebenszyklus. Es beschreibt auch die Verwendung einer Sicherheitsvorlage mit einem Tool zur Risikominderung/-minderung, dem am Jet Propulsion Laboratory (JPL) entwickelten Tool zur Fehlererkennung und -prävention (DDP).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-37621-7_16 8cfdc10285adeebaf668b76996574c16;de;;;7.3.;;;Verwenden des Webs als Wiederverwendungs-Repository Die Wiederverwendung von Software wird allgemein als wirksames Mittel anerkannt, um die Qualität von Softwaresystemen zu steigern und gleichzeitig den Aufwand und die Zeit für deren Entwicklung zu verringern. Obwohl es die meisten grundlegenden Techniken für den Softwareabruf schon seit einiger Zeit gibt, ist die Wiederverwendung durch Dritte immer noch weitgehend eine „Hit-and-Miss“-Angelegenheit und das Versprechen großer Marktplätze für Gehäusekomponenten ist bisher ausgeblieben. Eines der Haupthindernisse für eine systematische Wiederverwendung war traditionell der Aufbau und die Pflege aktueller Software-Repositories. Der Aufstieg des World Wide Web als allgemeiner Informationsspeicher birgt jedoch das Potenzial, dieses Problem zu lösen und eine wirklich allgegenwärtige Bibliothek von (Open-Source-)Softwarekomponenten hervorzubringen. Dieser Artikel untersucht die Wiederverwendung von Repositories im Web und schätzt die Menge der derzeit darin verfügbaren Software. Wir diskutieren auch kurz, wie diese Software mit Allzweck-Websuchmaschinen geerntet werden kann, und demonstrieren die Wirksamkeit unserer Implementierung dieses Ansatzes, indem wir ihn auf die Wiederverwendung von Beispielen aus früherer Literatur anwenden.;-;-;-;https://link.springer.com/chapter/10.1007/11763864_22 078729fe0cf9507f07826e8e447547d6;de;;;7.3.;;;Leistung von Serverauswahlalgorithmen für Content Replication Networks In diesem Beitrag untersuchen wir das Problem der optimalen Serverauswahl in „Content Replication Networks“, wie Peer-to-Peer (P2P) und Content Delivery Networks (CDNs). Obwohl eine Reihe von Serverauswahlrichtlinien vorgeschlagen oder implementiert wurden, bleibt das Verständnis der theoretischen Leistungsgrenzen der Serverauswahl und der relativen Leistung bestehender Richtlinien begrenzt. In diesem Beitrag stellen wir einen mathematischen Rahmen vor, der auf dem;-;-;-;https://link.springer.com/chapter/10.1007/11422778_36 c75d0df3c4875b55794d5efeee7a702c;de;;;7.3.;;;Ein effizienter Ansatz zur Entdeckung wichtiger Blogger Die Popularität von Blogs und die Informationsmenge in der Blogosphäre nehmen so schnell zu, dass es für Internetnutzer schwierig ist, die Informationen zu suchen, die ihnen wichtig sind. Im Vergleich zu herkömmlichen Webs sind Links in der Blogosphäre häufiger und Gespräche zwischen Bloggern häufiger. Dieses Papier schlägt eine Methode zum Ranking von Bloggern basierend auf der Linkanalyse vor, die die Eigenschaften von Blogs veranschaulichen und den Einfluss von Link-Spamming reduzieren kann. Diese Methode kann Benutzern auch das Lesen von Blogs erleichtern und eine neue Methodik für die Informationsbeschaffung in der Blogosphäre bereitstellen. Um die Verlässlichkeit der Rankingergebnisse zu gewährleisten, werden einige Bewertungsindikatoren der wichtigen Blogger vorgeschlagen und die Bewertungsergebnisse der Blogger, die die vorgeschlagene Methode verwenden, mit denen anderer Indikatoren verglichen. Schließlich wird mittels Korrelationsanalyse die Kohärenz zwischen der vorgeschlagenen Methode und den Bewertungsindikatoren überprüft.;-;-;-;https://link.springer.com/article/10.1007/s11767-006-0135-0 498980a3963da64e2f55b8e2ff75eda8;de;;;7.3.;;;Benchmarking von RDF-Schemas für das Semantic Web Die Beschreibung von Webressourcen mit formalem Wissen (d. h. das Erstellen von Metadaten gemäß einer formalen Repräsentation einer Diskursdomäne) ist die Essenz des nächsten Evolutionsschrittes des Webs, das als Semantic Web bezeichnet wird. Das RDF/S (Resource Description Framework/Schema Language) des W3C ermöglicht die Erstellung und den Austausch von Ressourcen-Metadaten als normale Webdaten. In diesem Beitrag untersuchen wir die Verwendung von RDFS-Schemata als Mittel zur Wissensrepräsentation und zum Wissensaustausch in verschiedenen Anwendungsdomänen. Um die Qualität bestehender RDF-Schemata zu begründen, dient ein Benchmark als Grundlage einer statistischen Analyse mit Hilfe von VRP, dem Validating RDF Parser. Die extrahierten statistischen Daten führen zu Folgerungen über die Größe und Morphologie von RDF/S-Schemata. Darüber hinaus liefert die Untersuchung der gesammelten Schemata nützliche Schlussfolgerungen über die tatsächliche Verwendung von RDF-Modellierungskonstrukten und häufigen Missbrauch der RDF/S-Syntax und/oder -Semantik.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48005-6_12 f25c914bad6c2da447e565b2d1c23ec8;de;;;7.3.;;;Recht, soziale Intelligenz, nMAS und das Semantic Web: Ein Überblick Diese Einführung stellt die Prinzipien und Grundlagen der wissenschaftlichen Initiative AICOL und insbesondere die Hauptbeiträge des aktuellen Bandes vor und unterstreicht den interdisziplinären Ansatz und die Vielfalt der verwendeten Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45960-7_1 fbac047408704176eeaee113a90bc010;de;;;7.3.;;;Studie zum Aufbau von College MOOC im Zeitalter des mobilen Internets Der Aufstieg von MOOC an den Universitäten ist Chance und Herausforderung für die Entwicklung der Hochschulbildung zugleich. Die Optimierung der mobilen Internetumgebung ist wichtig, um die Entwicklung von MOOC-Hochschulen zu fördern. Daher diskutiert dieser Artikel hauptsächlich den Einfluss von MOOC auf die Hochschulbildung und die Entwicklung der Hochschullehre im Zeitalter des mobilen Internets und stellt einen Plan für den Aufbau des Hochschullehrsystems im Zeitalter des mobilen Internets vor. Untersuchungen haben ergeben, dass das gemischte Lehrmodell von MOOC den Lernenden Vielfalt bringen kann. Nachfrage, Im mobilen Internet-Umfeld liefert die umfassende Integration von MOOC und Universität modernes Informations-Cloud-Computing und die Richtung und Vorgehensweise des Big-Data-Zeitalters für die zukünftige Entwicklung der Universität.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3648-5_122 330aca13c63f6b665b7ef99aed0a8988;de;;;7.3.;;;Benutzerklassenbasierte Serviceakzeptanzrichtlinie mit Clusteranalyse Dieses Papier schlägt eine neue Politik zur Konsolidierung der Gewinne eines Unternehmens vor, indem die Clients, die den Inhaltsdienst nutzen, getrennt werden und die Ressourcen des Medienservers nach Clustern unter Verwendung der Clusteranalysemethode des CRM, die hauptsächlich im Marketing angewendet wird, zugewiesen werden. Zur Realisierung einer neuen Servicepolitik analysiert dieser Beitrag die Höhe des Beitrags zu Service und Gewinn der Kunden durch die Clusteranalyse von Kundendaten nach der K-Means-Methode. Die Kunden wurden nach der Beitragshöhe in Bezug auf den Gewinn in 4 Cluster gruppiert. Um die Effizienz von CRFS im Client/Server-Umfeld zu evaluieren, wurde zusätzlich die Akzeptanzrate pro Klasse ermittelt. Die Ergebnisse des Experiments zeigten, dass die Anwendung von CRFS zu einem Anstieg der Akzeptanzrate von Kunden des Clusters sowie zu einer signifikanten Steigerung der Gewinne des Unternehmens führte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30555-2_27 66f78a65c6c4d5d2c73b2ab8198e538f;de;;;7.3.;;;Identifizierung repräsentativer Rezensenten in sozialen Netzwerken im Internet In einer Gesellschaft haben wir viele Arten von Beziehungen zu anderen Menschen, zu Hause, am Arbeitsplatz oder in der Schule. Aus diesen Beziehungen entsteht ein soziales Netzwerk. Menschen in einem sozialen Netzwerk empfangen, liefern und geben viele Informationen weiter. Wir beobachten oft, dass es eine Gruppe von Menschen gibt, die einen hohen Einfluss auf andere Menschen haben. Wir nennen diese Menschen mit hohem Einfluss Meinungsführer. Daher ist es wichtig und sinnvoll, Meinungsführer in einem sozialen Netzwerk zu identifizieren. Im Web 2.0 gibt es viele Nutzerbeteiligungen und wir können aus den Nutzeraktivitäten ein soziales Netzwerk erstellen. Wir schlagen einen einfachen, aber zuverlässigen Algorithmus vor, der Meinungsführer in einem sozialen Cybernetzwerk findet. Wir betrachten ein soziales Netzwerk von Nutzern, die Musik bewerten und repräsentative Nutzer des sozialen Netzwerks identifizieren. Dann überprüfen wir die Korrektheit des vorgeschlagenen Algorithmus durch den T-Test.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16732-4_3 7544969986c0815278b9ce1ad1014ca6;de;;;7.3.;;;Evaluierung serverseitiger Open-Source-XSS-Schutzlösungen Der Web-Schutz vor XSS-Angriffen ist ein unverzichtbares Werkzeug, um zuverlässige Online-Systeme zu implementieren. XSS-Angriffe können für verschiedene böswillige Aktionen und den Diebstahl wichtiger Informationen verwendet werden. Der Schutz kann sowohl auf dem Computer des Benutzers als auch auf der Serverseite implementiert werden. In dieser Arbeit haben wir die serverseitigen Schutzlösungen analysiert. Diese Lösungen müssen ein angemessenes Sicherheitsniveau gewährleisten und dürfen gleichzeitig die Seitenantwortzeit nicht wesentlich erhöhen. Das Ziel dieses Artikels ist es, die effektivsten und sichersten kostenlosen Tools zum Schutz vor XSS-Angriffen für Webseiten zu ermitteln, die mit PHP-, ASP.NET- und Java-Technologien erstellt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41947-8_29 8d57c608c71dcd04b562a8231fd294b7;de;;;7.3.;;;Ein von der Gefahrentheorie inspirierter Ansatz für das Web Mining Innerhalb der Immunologie werden ständig neue Theorien vorgeschlagen, die aktuelle Denkweisen in Frage stellen. Dazu gehören neue Theorien, wie das Immunsystem auf pathogenes Material reagiert. Dieses konzeptionelle Papier verwendet eine relativ neue Theorie dieser Art: die Danger-Theorie und untersucht die Relevanz dieser Theorie für den Anwendungsbereich des Web-Mining. Im Mittelpunkt der Idee der Gefahrentheorie steht die kontextabhängige Reaktion auf eindringende Krankheitserreger. Dieses Papier argumentiert, dass diese Kontextabhängigkeit als mächtige Metapher für Anwendungen im Web-Mining verwendet werden könnte. Ein anschauliches Beispiel für einen adaptiven Mailbox-Filter wird vorgestellt, der Eigenschaften des Immunsystems ausnutzt, einschließlich der Gefahrentheorie. Dies ist im Wesentlichen eine dynamische Klassifikationsaufgabe: Eine Aufgabe, die in diesem Papier argumentiert wird, eignet sich gut für das Gebiet der künstlichen Immunsysteme, insbesondere wenn man sich von der Gefahrentheorie inspirieren lässt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45192-1_16 91fbb24427cfe9906cf44d5df27c289d;de;;;3.4.;;;US-Buchrückgaben, 1984–1989 Zwischen 1984 und 1989 ertrank die US-Buchindustrie in einer Rendite von 7,88 Milliarden US-Dollar: 23,87 Prozent aller in diesen Jahren veröffentlichten Bücher wurden von Großhändlern und Buchhändlern gegen volle Gutschrift an Verlage zurückgegeben. Diese massive Rückkehr von Büchern untergrub die Stabilität der Buchindustrie und veranlasste viele Verlage, die Wirksamkeit eines Systems in Frage zu stellen, das in einer Zeit außergewöhnlich stabiler Geschäftsbedingungen, frei von hohen Zinssätzen und Inflation, Rezession oder ähnlichen Krieg. In dieser Studie befasst sich der Autor mit dem Phänomen der Buchretouren, indem er: (1) Statistiken über die US-Buchindustrie und ihre zwölf wichtigsten Marktsegmente analysiert, (2) mögliche Ursachen für den Anstieg der Renditen bewertet und (3) Vorschläge zur Reduzierung kehrt zurück.;-;-;-;https://link.springer.com/article/10.1007/BF02678615 a6ac149317030790a1db375b2b0f998c;de;;;7.3.;;;Consumer Power: Ein Vergleich von Old Economy und Internet Economy Seit den Anfängen des Internets wurde von mehreren Autoren eine entscheidende Verschiebung von der Anbietermacht zur Verbrauchermacht vorhergesagt und wird auch in der neueren Literatur behauptet. Obwohl das Internet in den letzten Jahren schnell gewachsen ist und sich elektronische Märkte entwickelt haben, kann noch immer kein theoretischer Rahmen für die Verbrauchermacht im Internet identifiziert werden. Nur wenige Autoren haben sich bemüht, gängige Konzepte der Machttheorie auf die Eigenschaften des Internets anzuwenden. Basierend auf dem Konzept von French und Raven analysiert dieser Beitrag die Verbrauchermacht in traditionellen Märkten und vergleicht sie anschließend mit der Situation im Internet. Dieser Vergleich zeigt, dass das Internet es den Verbrauchern ermöglicht, (a) die meisten Informationsasymmetrien, die für traditionelle Verbrauchermärkte charakteristisch sind, zu überwinden und damit ein hohes Maß an Markttransparenz zu erreichen, (b) sich leicht gegen Unternehmen zusammenzuschließen und Sanktionen über Ausstieg und Stimme zu verhängen, und ) eine aktivere Rolle in der Wertschöpfungskette einzunehmen und Produkte und Preise nach individuellen Präferenzen zu beeinflussen. Eine breit angelegte Literaturrecherche zeigt, dass empirische Befunde diese Hypothesen weitgehend bestätigen. Abschließend fassen die Autoren die Ergebnisse zusammen und ziehen Implikationen aus zwei verschiedenen Blickwinkeln, nämlich aus marketing- und verbraucherpolitischer Perspektive.;-;-;-;https://link.springer.com/article/10.1007/s10603-005-3307-7 8fd84d3260e78ac9ff3270a99c0e0dea;de;;;7.3.;;;Trust Extension Protocol zur Authentifizierung in managementorientierten Netzwerken (TEPANOM) Das zukünftige Internet der Dinge wird massiv eingesetzt, da es sich bereits um Bereitstellungen mit Tausenden von Knoten handelt, die eine neue Dimension von Kapazitäten für Überwachungslösungen wie Smart Cities, Home Automation und Continuous Healthcare bieten. Diese neue Dimension bringt auch neue Herausforderungen in Bezug auf Skalierbarkeit, Sicherheit und Management mit sich, die angegangen werden müssen, um auf das Internet der Dinge basierende Lösungen realisierbar zu machen. Diese Arbeit stellt ein Trust Extension Protocol for Authentication in Networks Oriented to Management (TEPANOM) vor. Dieses Protokoll ermöglicht einerseits die Identitätsprüfung und Authentifizierung im System, andererseits das Bootstrapping, die Konfiguration und die Trust-Erweiterung der Deployment- und Management-Domänen auf das neue Gerät. Damit definiert TEPANOM eine skalierbare Netzwerkmanagementlösung für das Internet der Dinge, die den Sicherheitsanforderungen gerecht wird und eine einfache und transparente Unterstützung des Managements ermöglicht, die für den Erfolg der internetbasierten Lösungen sehr wünschenswert und notwendig sind von Sachen. Das vorgeschlagene Protokoll wurde für den Anwendungsfall eines Brandmeldemanagementsystems instanziiert und mit den Tools des Automated Validation of Internet Security Protocols and Applications (AVISPA) Framework erfolgreich evaluiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10975-6_11 ec23a08ebbd22e189ff04312c54e76fc;de;;;7.3.;;;QoS-gesteuerte, selbstheilende Webservice-Zusammensetzung basierend auf Leistungsvorhersage Dadurch laufen Webservices in einer hochdynamischen Umgebung, deren QoS sich relativ häufig ändert. Damit sich der zusammengesetzte Dienst an eine solche dynamische Eigenschaft von Webdiensten anpasst, schlagen wir einen selbstheilenden Ansatz für die Zusammensetzung von Webdiensten vor. Ein solcher Ansatz ist eine Integration der Sicherung bei der Auswahl und der Neuauswahl bei der Ausführung. Um die Selbstheilung des zusammengesetzten Dienstes so schnell wie möglich zu erreichen und die Anzahl der Neuauswahlen zu minimieren, wird in diesem Papier eine Methode zur Leistungsvorhersage vorgeschlagen. Auf dieser Basis wird der Selbstheilungsansatz inklusive Framework, dem Auslösealgorithmus der Neuauswahl und dem Zuverlässigkeitsmodell des Dienstes vorgestellt. Experimente zeigen, dass die vorgeschlagenen Lösungen eine bessere Leistung bei der Unterstützung der selbstheilenden Webdienstzusammensetzung aufweisen.;-;-;-;https://link.springer.com/article/10.1007/s11390-009-9221-8 de81f0453e55d4500621ed6d21672a41;de;;;7.3.;;;Mobile und verteilte Zusammenarbeit in virtuellen Gemeinschaften Unternehmen sind zunehmend gezwungen, ihre Produkt- und Dienstleistungsentwicklungsprozesse zu verwalten und zu koordinieren, ihre Produkte und Dienstleistungen so schnell wie möglich verfügbar zu machen und Mitarbeiter, Kunden, Lieferanten und Partner in verschiedene Phasen ihres Geschäfts einzubeziehen. Diese Prozesse müssen berücksichtigen, dass ihre Teilnehmer beruflich immer mehr unterwegs sind und ihr Know-how standort- und mobilgeräteübergreifend geteilt werden kann. Dieses Papier definiert einen Rahmen für mobile verteilte Zusammenarbeit, definiert eine Reihe von Anforderungen für virtuelle Gemeinschaften und diskutiert eine Softwarearchitektur zur Unterstützung mobiler Teamarbeit, die in einem laufenden EU-Projekt entwickelt wurde. Das Framework zusammen mit der Architektur sollte es ermöglichen, aktuelle Kooperationsansätze um die Dimension mobiler Teilnehmer und virtueller Gemeinschaften zu erweitern.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35585-6_46 3758de5925b4d28b190e520c1e0a9857;de;;;3.4.;;;Die Anwendung des Konfuzianismus im Personalmanagement – ​​am Beispiel von Anta Mit der Entwicklung der Gesellschaft ist den Menschen immer mehr bewusst geworden, dass Mitarbeiter die wichtigste Ressource für die Unternehmensentwicklung sind. Was ist das Wichtigste im 21. Jahrhundert? Talent. Diese Talentquelle ist zu einem wichtigen Faktor und einer wichtigen Ressource für die Unternehmensführung und -entwicklung geworden. Das Personalmanagement spielt eine sehr wichtige Rolle in der Entwicklung des Unternehmens. Wie man Personal richtig und richtig führt, ob es eigene Führungseigenschaften im Personalmanagement hat, ist eine wesentliche Aufgabe der Unternehmensführung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-15740-1_92 9d9fb39c0a73158a3450e9ca22a956ce;de;;;7.3.;;;Auf der Suche nach dem richtigen Partner Die Suche nach passenden Kunden und Anbietern ist ein wesentlicher Bestandteil jeder dynamischen E-Business- oder Virtual Enterprise-Lösung. Bestehende Standards wie der CORBA Trading Service oder neue Standards wie UDDI reichen nicht aus, wenn das Versprechen von dynamischem E-Business erfüllt werden soll erfüllt werden. Dieses Papier untersucht, was benötigt wird, und stellt eine Implementierung vor, die diese Anforderungen erfüllt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35585-6_7 f511977ecd60dd243305d0b67bd915a1;de;;;7.3.;;;Der Himmel ist das Limit Das Internet hat einen beispiellosen Zugang zu riesigen Informationsmengen ermöglicht. In letzter Zeit hat sich jedoch das Problem der Informationsüberflutung immer stärker herauskristallisiert, und wir kommen nun an einen Punkt, an dem es immer schwieriger wird, die richtigen Informationen zur richtigen Zeit zu finden. Ein Forschungsweg, der den Zugang zu Informationen verbessern und das Problem der Informationsüberflutung lindern soll, ist die Entwicklung von Technologien zur automatischen Personalisierung von Informationen sowohl hinsichtlich ihres Inhalts als auch ihrer Darstellungsweise. In diesem Beitrag beschreiben wir die Entwicklung des PTV (Personalized Television Listings —;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0465-0_1 22c5b31911d50794116414b17a9e7810;de;;;7.3.;;;Warum wird diese Webseite so langsam angezeigt? Den Verlust von SYN-Paketen untersuchen Vor der ersten gültigen Berechnung der Round-Trip-Time für eine Verbindung setzt TCP einen Initialwert für das Retransmission-Timeout auf 3 Sekunden, was beim Verlust der ersten Pakete zu einer großen Verzögerung führt. Bei kurzen Übertragungen, wie zum Beispiel Web-Traffic, kann dies einen erheblichen Einfluss auf die Leistung haben. Wir haben Messungen durchgeführt, um zu untersuchen, wie oft dies passiert. Wie unsere Messungen zeigen, gehen Kontrollpakete (SYN- und SYN/ACK-Pakete) verloren und es kommt zu Verzögerungen von 3 Sekunden oder mehr (weitere Timeouts). Anhand einer einfachen Beispielimplementierung zeigen wir, dass dieses Problem gelöst werden könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01399-7_70 6babef296141053de0b87b8bb904c6d3;de;;;3.4.;;;Prädiktiver Analyse- und Datenvisualisierungsansatz für Entscheidungsprozesse in Marketingstrategien: Ein Fallbeispiel In diesem Papier führen wir eine neue Strategie für Empfehlungssysteme in Online-Unterhaltungsplattformen durch. Als Fallstudie haben wir die Lesepräferenzen basierend auf den Benutzern von Goodreads, einem sozialen Netzwerk für Leser, analysiert, um die Bücher anhand ihrer zugeordneten Variablen als durchschnittliche Bewertung, Bewertungsanzahl und Anzahl der Textrezensionen zu klassifizieren. Multivariate Techniken Clusteranalyse und Benchmarking zum Vergleich von Vorhersagemodellen wurden verwendet. Es werden Grafiken und Daten dargestellt, die eine optimale Bewertung der Anzahl der Cluster und der Präzision der Modelle ermöglichen. Schließlich zeigen wir die Existenz von Gruppen von Elementen, die von traditionellen Empfehlungssystemen aufgrund ihrer geringen Visualisierung auf der Plattform vergessen werden können. Es wird vorgeschlagen, Werbestrategien zu verwenden, um diese qualitativ hochwertigen Artikel mit geringer Sichtbarkeit hervorzuheben. Alles in allem, wenn man die Klassifizierung von Büchern bedenkt, die Vorhersagemodelle bieten können, kann sie die Autoren, Leser und Investoren von Goodreads durch die Bindung und Anziehungskraft der Benutzer begünstigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-61834-6_6 f0340961211b73f3231ce817d1ad3d03;de;;;7.3.;;;Fallstudie: Visualisierungs- und Informationsabruftechniken für die Erkennung von Netzwerkangriffen Wir beschreiben unsere Bemühungen, Daten zur Erkennung von Netzwerkangriffen mit Hilfe von Informationsabruf- und Visualisierungstools zu analysieren. Indem Telnet-Sitzungen als Dokumente betrachtet werden, die Angriffe enthalten können oder nicht, kann eine Sitzung, die eine bestimmte Art von Angriff enthält, als Abfrage verwendet werden, sodass wir die Daten nach anderen Instanzen derselben Art von Angriff durchsuchen können. Der Einsatz von Informationsvisualisierungstechniken ermöglicht es uns, die Angriffe schnell und eindeutig zu finden und auch ähnliche, potenziell neue Angriffsarten zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-6215-6_30 e5253b6abe5d26d43352c64588509b1d;de;;;7.3.;;;Eine JRuby-Infrastruktur für konvergente Web- und SIP-Anwendungen In diesem Papier stellen wir eine Ruby-Infrastruktur vor, die für die schnelle Entwicklung von Webanwendungen mit SIP-Signalisierungsfunktionen verwendet werden kann. Wir bauen diese Infrastruktur auf, indem wir den Java-basierten Cipango SIP/HTTP Servlet Application Server mit dem Ruby on Rails Web Development Framework kombinieren. Wir erklären detailliert die Schritte, die zum Aufbau dieser Infrastruktur erforderlich sind und erstellen eine SIP-Registrar-Beispielanwendung mit einer einfachen Weboberfläche. Die beschriebene Infrastruktur ermöglicht es Ruby-Anwendungen, die gesamte Funktionalität der SIP-Servlet-API zu nutzen und kann als guter Ausgangspunkt für die Entwicklung von Ruby-basierten domänenspezifischen Sprachen für das SIP-Protokoll verwendet werden. Außerdem vergleichen wir die vorgeschlagene Infrastruktur mit den bestehenden Ruby-Frameworks für die SIP-Anwendungsentwicklung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22389-1_7 9d4d2c5dadfa7a1fac5fbd5cacc3c8ea;de;;;7.3.;;;Auf dem Weg zu Cloud-basierten Engineering-Systemen Cloud-basierte Engineering-Systeme bieten neue Möglichkeiten, den aufkommenden „Netzwerkeffekt“ zu nutzen, indem sie sich auf den Zugriff auf große Pools von Rechenressourcen verlassen, die in der „Cloud“ verfügbar sind, um die Einschränkungen von Umgebungen mit knappen Verarbeitungs- und Informationsspeicherkapazitäten zu überwinden. Die Auswirkungen dieses Ansatzes werden bereits in den meisten technischen Bereichen beobachtet. Die Motivation von Doktoranden der Ingenieurwissenschaften, sich mit dem Potenzial dieses neuartigen Forschungsgebiets zu befassen, ist für ihre Ausbildung von wesentlicher Bedeutung. Mit diesem Ziel konzentrierte sich die Doktorandenkonferenz DoCEIS’15 auf technologische Innovation für Cloud-basierte Engineering-Systeme und forderte die Beitragenden auf zu analysieren, inwiefern ihre technisch-wissenschaftliche Arbeit zu diesem Paradigma beitragen oder davon profitieren könnte. Die Ergebnisse dieser Initiative werden in diesem Kapitel kurz analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16766-4_1 717e9e1d77c4f1744c87aa188e39e417;de;;;7.3.;;;Routenplanung für agentenbasierte Informationsabfrage Dieser Artikel konzentriert sich auf Mobile Agents und ihre Verwendung zum Abrufen von Informationen. Betrachtet wird ein Multi-Agenten-System, bei dem eine Anzahl von Agenten an einem gemeinsamen Bemühen beteiligt ist, verteilte Daten von Netzknoten abzurufen. Eine Erhöhung der Anzahl von Agenten kann den Informationsabruf beschleunigen, ist jedoch für die Leistung belastend. Bei der Initiierung mit einer bestimmten Anzahl von Agenten besteht unser Ziel darin, die Routen der Agenten so zu bestimmen, dass die Zeit für die Aufgabenerledigung minimiert wird. Es werden zwei bekannte und ein neuer Polynomialzeitalgorithmus getestet, die nahezu optimale Lösungen liefern. Die Simulationsergebnisse zeigen die Fälle, für die jeder am effektivsten ist. Außerdem untersuchen wir den Einfluss verschiedener Parameter auf die Lösung. Durch parametrisches Variieren der Anzahl von Agenten kann unser Verfahren verwendet werden, um die Mindestanzahl zu bestimmen, die den gewünschten Kompromiss zwischen Zeit und Leistung erfüllt.;-;-;-;https://link.springer.com/article/10.1007/s10589-008-9204-7 e20ceab9a7cd92de338a6b5387a6476c;de;;;7.3.;;;Studie zur automatischen Konstruktion von Abfrageübersetzungswörterbüchern bei der sprachenübergreifenden Informationssuche Das zweisprachige maschinenlesbare Wörterbuch ist die allgemein verwendete Ressource für Abfragen und Übersetzungen auf der Grundlage des sprachübergreifenden Informationsabrufs, jedoch verschwendet das traditionelle Verfahren zum manuellen Erstellen des zweisprachigen Wörterbuchs Zeit und Energie. In diesem Artikel wird die Methode der Statistik verwendet, um das Übersetzungswörterbuch automatisch aus dem Englisch-Chinesisch-Parallelkorpus für Abfragen und Übersetzungen zu beziehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33932-5_54 b8054ce3faa5fb80522a5a54fac1745e;de;;;7.3.;;;Solarzellen und Nanotechnologie: Bibliometrische Analyse von Publikationen, die sich in RZh Fizika VINITI RAN und der Datenbank Web of Science widerspiegeln Solarzellen der dritten Generation (nach den Bulk- und Dünnschicht-Solarzellen, die hauptsächlich auf anorganischen Halbleitern, meist aus Silizium) basieren, nutzen die führenden Technologien des 21. anorganische Halbleiter, Graphen, Fullerene sowie Polymere und niedermolekulare organische Halbleiter. Dieser Beitrag vergleicht die Ergebnisse einer Analyse von Veröffentlichungen zu Solarzellen, hauptsächlich nanostrukturierten und nanoskaligen Zellen, die im RZh Fizika VINITI RAN widergespiegelt und in die Datenbank Web of Science aufgenommen wurden.;-;-;-;https://link.springer.com/article/10.3103/S0147688215040127 1662bfd937e8c4e488a1f80b421f9e59;de;;;7.3.;;;Überprüfung der aktuellen Webdienst-Abrufmethoden Dieses Papier bietet einen Überblick über aktuelle Methoden zum Abrufen von Webdiensten. Erstens enthält es eine Beschreibung dieses Forschungsgebiets und stellt seine Systematik im Vergleich zu vielen verschiedenen Forschungen zum allgemeinen Konzept der Service Discovery vor. Zweitens gibt es einen Überblick über die aktuelle Forschung zum Web Services Retrieval. Die Analyse von Web Service Retrieval-Methoden bezieht sich auf aktuelle Studien, die Information Retrieval-Techniken verwenden, die sich mit den Themen Web-Crawling und -Indexierung befassen. Darüber hinaus umfasst die analysierte Studie auch eine Reihe von spezifischen Fragestellungen, ohne die der Abruf von Web Services nicht möglich ist. Es umfasst: Indexierung von Begriffen Extraktion, Tokenisierung, Aufbau von Testsammlungen, Klassifizierung und Clustering von Diensten und Extraktion relevanter Informationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-31277-4_15 2d25ecf6789dfce5390cbd93ddbda155;de;;;7.3.;;;Die Rolle des Vertrauensmanagements bei der Sicherheit verteilter Systeme Bestehende Autorisierungsmechanismen bieten keine leistungsstarken und robusten Werkzeuge für den Umgang mit Sicherheit in dem für das heutige Internet erforderlichen Ausmaß. Diese Mechanismen werden durch die Entwicklung und den Einsatz von Systemen, die die Programmierbarkeit des Internets erhöhen, zunehmend belastet. Darüber hinaus scheint sich dieser Trend „erhöhte Flexibilität durch Programmierbarkeit“ mit dem Aufkommen von Vorschlägen wie Active Networking und Mobile Agents zu beschleunigen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48749-2_8 b58918932a54dd73aa2d504e83f14e79;de;;;7.3.;;;Aufgaben, Themen und Relevanzbewertung für den TREC Genomics Track: fünf Jahre Erfahrung in der Evaluation biomedizinischer Textinformationssysteme Mit Hilfe eines Expertenteams von Biologen-Juroren hat der TREC Genomics-Track vier große Sets von „Goldstandard“-Testsammlungen erstellt, die aus über hundert einzigartigen Themen, zwei Arten von Ad-hoc-Retrieval-Aufgaben und den entsprechenden Relevanzbewertungen bestehen. Im Laufe der Jahre des Tracks erforderten immer komplexere Aufgaben die Erstellung von Bewertungsinstrumenten und Schulungsrichtlinien, um Teams von Teilzeit-Kurzzeitarbeitern mit einer Vielzahl von spezialisierten biologischen wissenschaftlichen Hintergründen unterzubringen und um Konsistenz und Reproduzierbarkeit des Bewertungsprozesses zu gewährleisten. Es wurden wichtige Erkenntnisse über Faktoren gewonnen, die den Nutzen der Testsammlungen beeinflussten, darunter Themengestaltung, Anmerkungen von Richtern, Methoden zur Identifizierung und Ausbildung von Richtern und die Bereitstellung eines zentralen Moderators „Meta-Richter“.;-;-;-;https://link.springer.com/article/10.1007/s10791-008-9072-x bbc1aab3f1859a8226cd7918bd806d7d;de;;;7.3.;;;: Ranking des Social Web Die Websuche wird weitgehend für den Zugriff auf Informationen im Web verwendet, und die jüngste Entwicklung in den Bereichen personalisierte Suche, Social Bookmarking und Folksonomy-Systeme hat dem Benutzer den Weg zu den gewünschten Informationen enorm erleichtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-95995-3_12 0ee1e74b0e903beec5e7ad792325c62d;de;;;7.3.;;;Zusammenführung von Semantic Web und Web Services Es gibt zwei große laufende Bemühungen, das World Wide Web voranzutreiben. Auf der einen Seite steht die Semantic-Web-Recherche, auf der anderen Seite die Web-Service-Recherche. Beide Aktivitäten zielen darauf ab, Inhalte im Web nicht nur für Menschen, sondern auch für Maschinen zugänglich und nutzbar zu machen, um eine Grundlage für intelligente automatisierte Dienste und Geschäftsprozesse zu schaffen. Diese beiden Bemühungen ergänzen sich in hohem Maße, und es wird an einer Vereinheitlichung gearbeitet. Dieses Papier trägt zu diesem Vereinheitlichungsprozess bei, indem es eine Methode zum Verbinden von Webservice-Beschreibungen mit Semantic Web-Ontologien vorstellt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48005-6_22 1772c1b499a98b0b10edac6d0d12c4bb;de;;;7.3.;;;ZANGE: Ein paralleles Informationsabrufsystem mit MPI Die Verwendung von MPI bei der Implementierung von Algorithmen für Parallel Information Retrieval Systems wird beschrieben. Wir enthalten Beschreibungen zu Methoden zur Indexierung, Suche und Aktualisierung von invertierten Indizes sowie zu einer Methode zur Informationsfilterung. In Indexing beschreiben wir sowohl lokale Build- als auch verteilte Build-Methoden. Unsere Beschreibung der Dokumentensuche umfasst die Beschreibung für Termgewichtungs-, Boolean-, Näherungs- und Passagenabrufvorgänge. Probleme bei der Dokumentaktualisierung konzentrieren sich darauf, wie Partitionierungsmethoden unterstützt werden. Wir beschreiben die Implementierung von Termauswahlalgorithmen für die Informationsfilterung und schließlich wird die laufende Arbeit skizziert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48158-3_39 c4512e6acc264a169ead2be8efa00976;de;;;7.3.;;;Optimierung der Ranking-Methode durch soziale Annotationen basierend auf dem Sprachmodell Jüngste Untersuchungen haben gezeigt, dass immer mehr Webnutzer soziale Anmerkungen verwenden, um ihre interessierten Ressourcen zu verwalten und zu organisieren. Daher wird es mit der wachsenden Popularität von sozialen Anmerkungen immer wichtiger, solche sozialen Anmerkungen zu verwenden, um eine effektive Websuche zu erreichen. Mit einem statistischen Modell gibt es jedoch keine früheren Studien, die die Beziehungen zwischen Abfragen und sozialen Annotationen untersuchen. Motiviert durch diese Beobachtung verwenden wir soziale Anmerkungen, um Suchergebnisse neu zu ordnen. Wir beabsichtigen, die Abruf-Ranking-Methode zu optimieren, indem wir die Ranking-Strategie der Integration der Abfrage-Annotations-Ähnlichkeit in die Abfrage-Dokument-Ähnlichkeit verwenden. Konkret berechnen wir die Ähnlichkeit zwischen Abfrage und Annotation unter Verwendung eines statistischen Sprachmodells, das wir in kürzerer Form einfach als Sprachmodell bezeichnen. Dann werden die anfänglichen Suchergebnisse gemäß der rechnerisch gewichteten Bewertung der Ähnlichkeitsbewertung des Abfragedokuments und der Ähnlichkeitsbewertung der Abfrageanmerkung neu eingestuft. Experimentelle Ergebnisse zeigen, dass die vorgeschlagene Methode den NDCG-Score um 8,13 % verbessern kann. Darüber hinaus führen wir eine empirische Evaluierung der Methode durch, indem wir einen Abfragesatz verwenden, der etwa 300 populäre soziale Anmerkungen und konstruierte Phrasen enthält. Ganz allgemein können die optimierten Ergebnisse mit sozialen Annotationen basierend auf einem Sprachmodell für die Websuche von erheblichem Nutzen sein.;-;-;-;https://link.springer.com/article/10.1007/s10462-011-9299-6 3ef6e8157a3b3aba420ae441f56bd642;de;;;7.3.;;;Cross-Modal Multimedia Archives Information Retrieval basierend auf Semantic Matching Angesichts der geringen Rückrufrate von Archivabrufen in dieser Phase schlägt dieser Beitrag ein modales Modell zum Abruf von Multimedia-Archivinformationen vor. Entsprechend den Merkmalen von Archiven führt diese Methode die Merkmalsverarbeitung und die semantische Zuordnung von Archivinformationen durch, wendet die integrierte Lernmethode auf den medienübergreifenden Archivabruf an, schlägt die Bagging-SM-Methode für den semantischen Abgleich verschiedener Arten von Multimedia-Archivinformationen vor und schließlich beweist, dass das modale Informationsabrufmodell für Multimedia-Archive das Abrufen und Wiederauffinden von Archivinformationen effektiv verbessern kann. Die volle Rate ist hilfreich für die Entwicklung eines intelligenten Abrufs im Archivsystem.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-34387-3_50 db8768857872f77b3e02b085925e8991;de;;;7.3.;;;SEMO: ein Semantik-basiertes Framework für die Analyse sozialer Kundennetzwerke Die zunehmende Bedeutung des Internets in den meisten Bereichen hat zu einem Paradigmenwechsel in den Verbraucherbeziehungen geführt. Der Einfluss von Social Networks ist unter dem geprägten Begriff CRM 2.0 in die Domäne des Customer Relationship Managements eingedrungen. In diesem Zusammenhang hat sich die Notwendigkeit, die Interaktionen der Kunden durch neue Plattformen zu verstehen und zu klassifizieren, als Herausforderung für Forscher und Fachleute weltweit entwickelt. Dies ist das perfekte Szenario für den Einsatz von SEMO, einer Plattform für die Analyse sozialer Kundennetzwerke basierend auf Semantik und Emotion Mining. Die Plattform profitiert sowohl von semantischer Annotation als auch von Klassifikation und Textanalyse und stützt sich dabei auf Techniken aus dem Bereich der natürlichen Sprachverarbeitung. Die Ergebnisse der Evaluation der experimentellen Umsetzung von SEMO zeigen eine vielversprechende und tragfähige Plattform aus technischer Sicht.;-;-;-;https://link.springer.com/article/10.1057/jit.2010.1 2544c0c0321ce970ad2e7b8d0c29aff2;de;;;7.3.;;;Transparenter Zugriff auf Videos über das Web: Ein Überblick über aktuelle Ansätze Dieses Kapitel ist eine technische Übersicht über Computertools, die darauf abzielen, handhabbare computerbasierte Darstellungen von Videosequenzen bereitzustellen. Die Arbeit ist Teil einer Reihe von Publikationen (siehe Macer und Thomas 1996a,b, Macer;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-3646-0_4 3d1857029291757f5f0104cff59a3b87;de;;;7.3.;;;Testgetriebene Wiederverwendung: Schlüssel zur Verbesserung der Präzision von Suchmaschinen für die Wiederverwendung von Software Die Anwendbarkeit von Software-Wiederverwendungsansätzen in der Praxis litt lange unter einem Mangel an wiederverwendbarem Material, aber diese Situation hat sich praktisch über Nacht geändert: Mit dem Aufkommen der Open-Source-Bewegung wurden Millionen von Software-Artefakten im Internet verfügbar gemacht. Plötzlich litten die bestehenden (größtenteils textbasierten) Software-Suchlösungen nicht mehr an einem Mangel an wiederverwendbarem Material, sondern an einem Mangel an Präzision, da eine Abfrage jetzt Tausende potenzieller Ergebnisse liefern könnte. Im Wiederverwendungskontext sind jedoch passgenaue Ergebnisse der Schlüssel, um Wertstoffe mit möglichst geringem Aufwand in eine gegebene Umgebung zu integrieren. Daher ist eine bessere Möglichkeit zum Formulieren und Ausführen von Abfragen eine Kernanforderung für eine breite Anwendung der Softwaresuche und -wiederverwendung. Inspiriert durch den jüngsten Trend zu Test-First-Softwareentwicklungsansätzen haben wir festgestellt, dass Testfälle ein praktisches Vehikel für die Wiederverwendungsgesteuerte Software-Suche sind und haben ein Test-gesteuertes Codesuchsystem entwickelt, das einfache Unit-Tests als semantische Beschreibungen gewünschter Artefakte verwendet. In diesem Kapitel beschreiben wir unseren Ansatz und präsentieren eine Bewertung, die seine überlegene Präzision bei der Wiedergewinnung von wiederverwendbaren Artefakten unterstreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-6596-6_12 7cdef2eb2510651107d3d821725bcc1a;de;;;7.3.;;;Auf dem Weg zu einer Compliance-bewussten interorganisationalen Service-Integrationsplattform Unternehmen müssen zunehmend zusammenarbeiten, um ihre Geschäftsziele zu erreichen. Das serviceorientierte Paradigma ist derzeit der bevorzugte Ansatz für diese Zusammenarbeit, da es die Verbindung der Softwaresysteme verschiedener Organisationen erleichtert. Konkreter wird eine solche Integration durch Integrationsplattformen unterstützt, bei denen es sich um spezialisierte Middleware-basierte Infrastrukturen handelt, die die Bereitstellung, Erkennung und den Aufruf von interoperablen Softwarediensten ermöglichen. Andererseits müssen diese integrierten und kollaborativen Umgebungen (z. B. E-Government, E-Health, E-Science, E-Commerce und E-Business) u . Diese Forschung zielt darauf ab, Lösungen zur Überwachung und Durchsetzung von Compliance-Anforderungen in organisationsübergreifenden Serviceintegrationsplattformen vorzuschlagen. Diese Arbeit befasst sich insbesondere mit Compliance-Anforderungen an Dienstleistungen, ausgetauschten Informationen und den Interaktionsfluss zwischen Organisationen. Die Lösungen, die auf bekannten Enterprise-Integrationsmustern und anderen Fähigkeiten (z. B. Anpassungsfähigkeit und Kontextbewusstsein) basieren, werden dann zu spezifischen Middleware-Technologien verfeinert, insbesondere Enterprise Service Bus und Complex Event Processing Engines.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45550-0_2 cba470b14fd9aeb51932dcac7f4faecc;de;;;7.3.;;;Wissenserwerb in kleinen Unternehmen Dieses Papier berichtet über eine Reihe von Forschungsstudien, die zeigen, wie einige kleine Unternehmen die Aufgabe des Kapazitätsaufbaus übernommen haben, um die Nutzung von Informationssystemen in ihrem Unternehmen zu verbessern. In jeder dieser Situationen haben wir festgestellt, dass sich kleine Unternehmen auf die formellen und informellen Netzwerke verlassen, die sie zur Unterstützung ihres Kapazitätsaufbaus eingerichtet haben. Ein roter Faden in jeder dieser Situationen ist der unternehmerische Charakter der beteiligten Kleinunternehmen. In allen Fällen suchte das Unternehmen nach Möglichkeiten, die eigenen Märkte zu erweitern.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-25997-X_6 8ae82ee281b8abf45ed3d192f0fb146a;de;;;7.3.;;;Auf dem Weg zu einer Theorie der Webservice-Choreographien Ein grundlegendes Versprechen der serviceorientierten Architektur (SOA) liegt in der einfachen Integration gemeinsam nutzbarer Informationen, Prozesse und anderer Ressourcen durch Interaktionen zwischen den gemeinsam genutzten Komponenten, die als Webservices modelliert werden. Es wird erwartet, dass nicht nur die beteiligten Dienste komplex sind und beobachtbare Zustände aufweisen, sondern auch die Anzahl der interagierenden Dienste groß sein kann. Bisherige Arbeiten zu Choreographien (Gesprächsprotokollen) konzentrieren sich alle darauf, zu spezifizieren, wie sich die interagierenden Webdienste global verhalten sollen. Studien haben gezeigt, dass die Beziehungen zwischen globalen und lokalen Spezifikationen von Serviceinteraktionen ziemlich kompliziert sein können. In diesem Papier formulieren wir einen Rahmen, der aus logischen und Implementierungsebenen besteht. In diesem Rahmen erheben und diskutieren wir die technischen Probleme und bekannten Ergebnisse zu Service Design, Analyse und Verifikation.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79230-7_1 53f9238e53e601ad03fd85795067c2fd;de;;;7.3.;;;Eine Middleware für intelligente Umgebungen und das Internet der Dinge Interdisziplinäre Forschung aus den Bereichen Pervasive Computing oder Ubiquitous Computing, Computer-Mensch-Interaktion und Informatik hat zur Entwicklung vieler intelligenter Umgebungen im Labormaßstab oder live im Labor geführt. Während auf diesem Gebiet mehrere Middleware entwickelt wurden, hat sich bisher keine Standard-Middleware für intelligente Umgebungen oder Ubiquitous Computing entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16355-5_23 2f798b3e20eb5e05b76522b6b3135b99;de;;;7.3.;;;Integrierte Service Discovery-Netzwerkplattform Die ständig steigende Zahl nomadischer Nutzer wird einen Trend zu mobilitätsfördernden Vernetzungstechnologien schaffen. Obwohl drahtlose Netze bereits alltäglich geworden sind und ihr Anwendungsgebiet mit neuen Technologien wie Bluetooth kontinuierlich erweitern, werden drahtgebundene Netze als Backbone oder Breitband-Trägertechnologien weiterhin eine bedeutende Rolle spielen. Ein Szenario, in dem der Nutzer die Anforderung hat, alle verfügbaren Dienste unterwegs genauso zu nutzen wie zu Hause, also ohne Details über die Netzwerkinfrastruktur kennen zu müssen – sei es durch Anschließen des Laptops an das Hotelnetz oder Drehen auf Ihrem WLAN auf Ihrem PDA – wird immer häufiger. In Situationen wie diesen werden Agententechnologien sehr nützlich. Benutzeragenten auf dem Gerät des Benutzers können das Netzwerk erkennen und Dienste im Netzwerk für den Benutzer transparent lokalisieren und mit ihnen kommunizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35673-0_7 7e74aed44fd8eaa55bc89c7d2c5a32d1;de;;;7.3.;;;Middleware mit minimalem Footprint zur Nutzung qualifizierter elektronischer Signaturen Qualifizierte elektronische Signaturen werden als gleichwertig mit handschriftlichen Unterschriften anerkannt und durch die EU-Gesetzgebung unterstützt. Sie benötigen ein sicheres Signaturerstellungsgerät (SSCD) wie eine Smartcard. In diesem Beitrag wird ein neuartiger Ansatz für die Integration von Smartcards in Webanwendungen vorgestellt, ohne dass auf dem Computer des Benutzers dedizierte Software installiert werden muss. Der Signaturerstellungsprozess gliedert sich in zwei Teile: Ein Teil wird serverseitig durchgeführt und der andere Teil (der Zugriff auf Funktionen des sicheren Signaturerstellungsgeräts erfordert) wird bei Bedarf als leichte Komponente im Browser des Benutzers bereitgestellt und ausgeführt. Dies erleichtert den Einsatz von Chipkarten zur Erstellung qualifizierter elektronischer Signaturen erheblich und wirkt damit ihrer europaweit geringen Marktdurchdringung entgegen. Der Ansatz hat inzwischen in verschiedenen Mitgliedstaaten Aufmerksamkeit erregt und hat sich als ideal für die schnelle Integration und den Einsatz einer Vielzahl unterschiedlicher und sich schnell entwickelnder SSCDs erwiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22810-0_5 f2349439c435d4afccef7bbbe3aa4915;de;;;7.3.;;;E-Shopping-Verhalten und Benutzer-Web-Interaktion zur Entwicklung einer nützlichen grünen Website In den letzten Jahren hat der Respekt vor grünen Themen zugenommen. Es wurde auch in verschiedenen Produkten/Dienstleistungen angesprochen. Es gibt immer noch keine Website, die den Entscheidungsprozess grüner Kunden zum elektronischen Geschäftsverkehr (EC) unterstützt. Das Ziel dieser Studie ist es, die Bedürfnisse und Erwartungen der Benutzer an EC zu verstehen, um die Designanforderungen einer nützlichen Schnittstelle zu ermitteln. Ein Fragebogen und ein Experiment wurden durchgeführt, um das grüne Wissen der Benutzer zu erhalten und das externe Verhalten der Benutzer bei der Interaktion mit dem Computer beim E-Shopping zu erkennen. Die Studie konzentriert sich auf umweltfreundliche Produkte wie Computer, Kommunikationsgeräte und Unterhaltungselektronik. Die Ergebnisse werden verwendet, um das Flussdiagramm des Online-Shopping-Prozesses und mehrere Vorschläge zur Verbesserung des E-Shoppings zu erstellen. Die Vorschläge, einschließlich Informationssuche, Informationsanzeige und Website-Funktionen, wurden berücksichtigt. Ausgehend davon wird sich die weitere Forschung auf die Gestaltung von Websites konzentrieren, die Verbraucher mit umweltfreundlichen Produktinformationen versorgen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02574-7_50 7e347e23ff8797b9f0ed21976fdc6b1b;de;;;7.3.;;;Programmierbare Netzwerke Eine Reihe wichtiger Innovationen führt zu einem Paradigmenwechsel in der Vernetzung, der zu einer höheren Programmierbarkeit von Netzwerken führt. Zu diesen Innovationen zählen die Trennung zwischen Übertragungshardware und Steuerungssoftware, die Verfügbarkeit offener programmierbarer Netzwerkschnittstellen und die beschleunigte Virtualisierung der Netzwerkinfrastruktur. Die Fähigkeit, neue Netzwerkdienste als Reaktion auf Benutzeranforderungen schnell zu erstellen, bereitzustellen und zu verwalten, ist ein Schlüsselfaktor für die Forschungsgemeinschaft programmierbarer Netzwerke. Das Ziel programmierbarer Netzwerke besteht darin, die Bereitstellung von Netzwerkdiensten zu vereinfachen, was zu Netzwerken führt, die den Prozess der Diensterstellung und -bereitstellung explizit unterstützen. In diesem Kapitel wird der Stand der Technik bei programmierbaren Netzwerken untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44577-3_3 59ef221e040424deffffba5ba3dd3b84;de;;;7.3.;;;Verkehrslokalisierung für DHT-basierte BitTorrent-Netzwerke BitTorrent ist derzeit das dominierende Peer-to-Peer (P2P)-Protokoll für Filesharing-Anwendungen. BitTorrent ist aufgrund seiner netzwerkunabhängigen Natur, die für hohe Netzwerktransitkosten verantwortlich ist, auch ein Albtraum für ISPs. Die Forschungsgemeinschaft hat eine Reihe von Strategien zur Lokalisierung des BitTorrent-Verkehrs entwickelt, die hauptsächlich auf der Kommunikation zwischen den Peers und einem zentralen Server namens;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20798-3_4 9061711c27105d45c69566a19e93345a;de;;;3.4.;;;Modellierung strategischer Akteursbeziehungen zur Unterstützung des Intellectual Property Management In der zunehmend wissensintensiven Wirtschaft von heute werden Patente und andere Formen von Mechanismen des geistigen Eigentums häufig verwendet, um Erfindungen zu schützen, Einnahmen zu generieren und strategische Allianzen aufzubauen. Techniken aus der konzeptionellen Modellierung können verwendet werden, um die Wissensstruktur zu analysieren und wichtige Entitäten und Beziehungen hervorzuheben. Um jedoch die strategische Bedeutung bestimmter Wissensbestände innerhalb eines Unternehmens- und Geschäftskontextes zu analysieren, benötigen wir eine Ontologie, die die sozialen und intentionalen Dimensionen des Wissensmanagements erfasst. In diesem Beitrag skizzieren wir die Verwendung der;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45581-7_14 f261f58b08c8a2735aa50b29efdd3749;de;;;3.4.;;;Entwicklung eines BIM-Leistungsmesssystems für Architekturbüros Trotz der Bemühungen der koreanischen Regierung, die Einführung von BIM in der AEC-Branche zu beleben, steht die Einführung von BIM im Inland noch in den Anfängen. Insbesondere im Designbereich, in dem mittlere und kleine Unternehmen die Mehrheit bilden, zeigt sich eine geringere BIM-Akzeptanz. Als Hauptgrund hierfür kann das Fehlen von Notwendigkeiten aufgrund des ungewissen Nutzens von BIM angesehen werden. Daher ist es an der Zeit, die Ziele, ein quantifizierbares und qualitatives Messsystem der BIM-Leistungen zu entwickeln. Der Zweck dieser Studie ist es, das BIM Performance Measurement System für Architekturbüros vorzuschlagen. Um dies zu erreichen, haben die Autoren die Balanced Scorecard (BSC) entwickelt und ihre Angemessenheit durch eine Fragebogenerhebung bei Experten und eine statistische Analyse validiert. Diese Entwicklung kann zur freiwilligen Einführung von BIM beitragen, indem der detaillierte Nutzen von BIM visualisiert wird, und zur Verbesserung der Wettbewerbsfähigkeit von Unternehmen, indem das Management des Entwurfsprozesses erleichtert und die zukünftigen Ergebnisse abgeschätzt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-47386-3_19 9b9a204f4910449857ae948c667691e9;de;;;7.3.;;;Der neue Imperativ für die Schaffung und den Gewinn von Netzwerktechnologie im Rahmen von Open Innovation: Beweise aus Taiwan und den USA In der sich schnell wandelnden Web 2.0-Ära ist Innovation zu einem zentralen Schwerpunkt in Unternehmen auf der ganzen Welt geworden. Innovation kann als die Schaffung neuer Produkte beschrieben werden, die von sich verändernden Märkten und verbesserten Technologien profitieren, aber Innovation bedeutet auch die Fähigkeit, sich an neue Technologien anzupassen und neue Netzwerke zu schaffen. In diesem Papier konzentrieren wir uns auf Organisationen in verschiedenen Bereichen, die versuchen, sich an die Fortschritte in der Netzwerktechnologie anzupassen. Die von uns untersuchten Felder sind Online-Webshops. In Bezug auf Social Media untersuchen wir, wie sich die Gestaltung und Berücksichtigung von Nutzerfeedback auf den Erfolg von E-Stores auswirkt. Darüber hinaus vergleichen wir auch die Studien zu diesen Bereichen aus Taiwan und Amerika, um zu verstehen, wie regionale kulturelle Verzerrungen den Forschungsstil und die Forschungsrichtung beeinflussen. In diesem Beitrag werden die Auswirkungen von Innovation in den drei oben beschriebenen Bereichen sowie die unterschiedlichen Ansichten von Innovation in Amerika und Taiwan untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7262-5_19 cdcc8ce39e5f69ce91dc5f08664bd04c;de;;;7.3.;;;Strukturbasierte Abfragen über das World Wide Web Mit der zunehmenden Bedeutung des World Wide Web als Informationsspeicher wird das Auffinden von interessanten Dokumenten immer wichtiger. Die derzeitige Praxis besteht darin, Schlüsselwörter an Suchmaschinen zu senden. Diesen Suchmaschinen fehlt es jedoch an der Fähigkeit, die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-49524-6_9 78f432f7fbc7da871ba2d2ae1f48cff3;de;;;7.3.;;;Von der Bereitstellungserfahrung lernen Frühe Entwicklungen bei WSNs konzentrierten sich auf die Minimierung der physischen Größe und des Energieverbrauchs der Knoten und auf die Untersuchung der Möglichkeiten und Probleme, die durch sehr große Netzwerke kostengünstiger Knoten entstehen. In der Praxis war der Einsatz oder das Testen von Systemen dieser Größenordnung jedoch nicht praktikabel. In kleineren Maßstäben sind extreme Ressourcenbeschränkungen oft künstlich. Die Erkenntnisse aus der Untersuchung eingesetzter Anwendungen deuten darauf hin, dass Bedenken hinsichtlich Größe, Leistung und großer Netzwerkgröße im Allgemeinen von praktischen Erwägungen in Bezug auf die Bereitstellung wie Verpackung und Logistik sowie in Bezug auf das, was kommerziell zu einem vernünftigen Preis erhältlich ist, übertrumpft werden. In diesem Kapitel stellen wir die Eigenschaften von bereitgestellten WSN-Anwendungen vor und diskutieren, wie sie sich von laborbasierten Experimenten unterscheiden. Anschließend destillieren wir einige allgemeine Entwurfsstrategien aus früheren Bereitstellungserfahrungen mit besonderem Bezug auf die in Teil II des Buchs vorgestellten Anwendungen. Als nächstes präsentieren wir eine Übersicht über Plattformen, die derzeit kommerziell als Ausgangspunkte für WSN-Anwendungen verwendet werden können, und diskutieren abschließend den vergangenen und aktuellen Markt für WSN-Anwendungen und -Produkte.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-5834-1_2 e7c888e5a4ace957cbf23323a4674a6a;de;;;7.3.;;;Datenschutz in Gefahr: Googlen Sie Ihre Privatsphäre Google Der Schutz personenbezogener Daten ist sowohl aus ethischer als auch aus rechtlicher Sicht erforderlich. Im Internet erleichtern Suchmaschinen unser Leben, indem sie alle gesuchten Informationen mit nur einem Klick finden. Auf der anderen Seite bedrohen sie unsere Privatsphäre, indem sie unsere personenbezogenen Daten an andere weitergeben. In diesem Papier geben wir konkrete Beispiele für die Ausnutzung personenbezogener Daten von Google gegen die Privatsphäre der Nutzer, diskutieren die Gegenmaßnahmen zum Schutz unserer Privatsphäre und stellen ein Penetrationstest-Tool namens . vor;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-79026-8_4 16317c18f9d296bcf685cc313b9a206f;de;;;7.3.;;;Do-It-Yourself-Datenschutz – Ermächtigung oder Belastung? Datenschutz durch einzelne Bürger, hier Do-it-yourself-Datenschutz (DIY) genannt, wird oft als wichtiger Bestandteil eines umfassenden Datenschutzes angesehen. Insbesondere im Zuge der Diagnose des so genannten „Privacy Paradox“ wird die Förderung des Datenschutzes für Heimwerker und die Bereitstellung entsprechender Tools sowohl als wichtiges politisches Ziel als auch als sich entwickelnder Markt angesehen. Einzelpersonen sollen in einer Welt gestärkt werden, in der immer mehr Akteure an ihren Daten interessiert sind. Wir analysieren empirisch und normativ die Voraussetzungen dieser Sichtweise: So fragen wir (1) Können Einzelpersonen Daten effizient schützen und (2) sollten Einzelpersonen für den Datenschutz verantwortlich sein. Wir argumentieren, dass sowohl aus pragmatischen als auch aus normativen Gründen eine breitere soziale Perspektive des Datenschutzes erforderlich ist. Das Papier schließt mit einem kurzen Ausblick, wie diese Ergebnisse in die Datenschutzpraxis aufgenommen werden könnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-7376-8_11 4bfddd8d3702b7156eff7b1568013b78;de;;;7.3.;;;Willkommen bei HTML5 In diesem Kapitel werde ich in die Geschichte von HTML eintauchen und wie HTML5 entstanden ist. Ich werde über die Entwicklung von HTML von einem einfachen Vorschlag bis hin zu seiner aktuellen Version sprechen, einschließlich Bewertungen verwandter Technologien. Ich werde auch behandeln, was HTML5 ist, seinen Umfang, wie es sich von früheren Versionen unterscheidet und wie es mit anderen Technologien zusammenpasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-6368-5_1 2db041809494b5c0f36a4e6ced126ec7;de;;;7.3.;;;Architekturdesign für internetbasierte Steuerungssysteme Das Internet spielt eine wichtige Rolle bei der Informationsbeschaffung und darüber hinaus bei der Manipulation industrieller Prozesse. Dieses Papier beschreibt einen Ansatz zur Erstellung von Anforderungsspezifikationen für internetbasierte Steuerungssysteme, aus denen Architekturen abgeleitet werden können. Die entwickelten Anforderungsspezifikationen werden in Form eines Funktionsmodells beschrieben, das dann zu einer Informationsarchitektur erweitert wird. Abweichend vom Funktionsmodell gibt die Informationsarchitektur einen Hinweis auf die Architekturstruktur später entwickelter internetbasierter Steuerungssysteme. Aus der Analyse einer Informationsarchitektur werden drei allgemeine Kontrollstrukturen generiert. Als ideale Implementierung wird eine integriert-verteilte Architektur abgeleitet, bei der ein Leitsystem auf allen Ebenen einer Leitsystemhierarchie mit dem Internet verbunden ist.;-;-;-;https://link.springer.com/article/10.1007/s11633-004-0001-1 4324b1f6317aef4aad80f0dbea57fe2f;de;;;7.3.;;;Die dreistufigen Ansätze für differenzierte Dienste beim Clustering von Webservern Dieses Papier stellt dreistufige Ansätze für die differenzierten Web-Qos vor. Ein Ansatz auf Kernel-Ebene fügt dem Betriebssystem-Kernel einen Echtzeit-Scheduler hinzu, um die vom Scheduler im Webserver festgelegte Priorität der Benutzeranforderungen beizubehalten. Ein Ansatz auf Anwendungsebene, der Masquerading- und Tunneling-Technologien auf IP-Ebene verwendet, verbessert die Zuverlässigkeit und Reaktionsgeschwindigkeit der Webdienste. Ein dynamischer Load-Balancing-Ansatz verwendet die Parameter bezüglich der MIB-II von SNMP und die Parameter bezüglich der Last der Systemressourcen wie Speicher und CPU, um einen Load-Balancing dynamisch durchzuführen. Diese in diesem Artikel vorgeschlagenen Ansätze werden mit einem Linux-Kernel 2.4.7 implementiert und in drei verschiedenen Situationen getestet. Das Ergebnis von Tests zeigt, dass die Ansätze die differenzierten Dienste im Clustering-Webserver-Umfeld unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00972-3_23 5dae3e38c1bea865e104954a20b2cbce;de;;;7.3.;;;Die Reise zur e-Health: VA Healthcare Network Upstate New York (VISN 2) e-Health bietet das reiche Potenzial, die traditionelle Bereitstellung von Dienstleistungen und Kommunikationskanälen auf eine Weise zu ergänzen, die die Fähigkeit der Gesundheitsorganisation erweitert, die Bedürfnisse ihrer Patienten zu erfüllen. Zu den Vorteilen gehören ein verbesserter Zugang zu Informationen und Ressourcen, die Befähigung der Patienten, fundierte Entscheidungen im Gesundheitswesen zu treffen, rationalisierte organisatorische Prozesse und Transaktionen sowie verbesserte Qualität, Wert und Patientenzufriedenheit. Eine Vielzahl von Faktoren beeinflusst die Entwicklung und Umsetzung von E-Health-Initiativen und -Anwendungen. Die Ausarbeitung eines strategischen Ansatzes ist entscheidend für den Erfolg, insbesondere in dieser Zeit der sich schnell ändernden Technologien. Der Weg zur Implementierung von E-Health in diesem VA-Netzwerk wird diskutiert und ein Modell zur Bewertung der Umgebung, zur Identifizierung kritischer Erfolgsfaktoren und zur Auswahl von Schwerpunktbereichen beschrieben. Es werden Empfehlungen zur Definition eines strategischen Ansatzes für E-Health für Gesundheitsorganisationen gegeben.;-;-;-;https://link.springer.com/article/10.1023/A%3A1021005111996 b28ae676305a1dfa61ece26f9f501959;de;;;7.3.;;;Kanäle für die Suche nach Hotel- und Reiseinformationen Touristen verlassen sich zunehmend auf verschiedene Kanäle, um nach hotel- und reisebezogenen Informationen zu suchen. Der Schweregrad der Bedeutung und die Leistung dieser Kanäle sind jedoch nicht klar. Daher bewertet diese Studie die Bedeutung und Leistung dieser Kanäle und identifiziert die Faktoren, die die Nutzung dieser Kanäle beeinflussen. Die Ergebnisse zeigten, dass Touristen internationale Online-Reisebüros als den wichtigsten Kanal für die Suche nach Hotelinformationen ansehen. Im Gegensatz dazu betrachten sie Social-Media-Sites als den wichtigsten Kanal für die Suche nach reisebezogenen Informationen. Signifikante Unterschiede wurden bei den Websuchfähigkeiten und dem Informationssuchverhalten von Touristen gefunden. Die Ergebnisse können praktische Implikationen für Hotel- und Tourismusfachleute liefern, um Touristen gezielter anzusprechen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-51168-9_32 ed06d85ac0669eb854bf88e1f927aaf0;de;;;7.3.;;;BiGBERT: Klassifizierung von Web-Bildungsressourcen für Kindergarten-12 Kindergarten In diesem Papier stellen wir BiGBERT vor, ein Deep-Learning-Modell, das gleichzeitig URLs und Snippets aus Webressourcen untersucht, um ihre Übereinstimmung mit den Bildungsstandards von Kindern zu bestimmen. Vorläufige Ergebnisse aus Ablationsstudien und Vergleichen mit Baselines und hochmodernen Pendants zeigen, dass die Nutzung von Domänenwissen zum Erlernen domänenbezogener kontextueller Nuancen aus begrenzten Eingabedaten zu einer verbesserten Identifizierung von Bildungswebressourcen führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72240-1_13 96b20b6cb4dff7fae7b054111af39f4b;de;;;3.4.;;;Geschlechtergerechtigkeit auf dem akademischen Arbeitsmarkt: eine Analyse der wissenschaftlichen Disziplinen Diese Studie verwendet hierarchische lineare Modellierung (HLM), um die Auswirkungen von Humankapital, strukturellen Merkmalen der Disziplin und disziplinären Arbeitsmarktbedingungen auf die Gehälter der Fakultät zu analysieren. Fakultäten in Disziplinen, die sich durch relativ geringe Nachfrage, hohe Lehrbelastung und geringe Forschungsförderung auszeichnen, verdienen weniger als Fakultäten anderer Disziplinen. Darüber hinaus verdienen weibliche Fakultätsmitglieder auch nach der Kontrolle einer Reihe individueller und disziplinärer Merkmale weniger als ihre männlichen Kollegen.;-;-;-;https://link.springer.com/article/10.1007/s11162-006-9043-2 204a9170a3f0d51c6b7a8fccc5847c5b;de;;;7.3.;;;Themen- und Standpunktextraktion für Diversity- und Bias-Analyse von Nachrichteninhalten Nachrichteninhalte sind beliebte und wertvolle Informationen im Web. Da Nachrichtenagenturen unterschiedliche Ansichten haben und unterschiedliche Nachrichtenmaterialien sammeln, können ihre Perspektiven auf Nachrichteninhalte unterschiedlich (voreingenommen) sein. In solchen Fällen ist es wichtig, Nachrichtenlesern auf diese Voreingenommenheit und Vielfalt hinzuweisen. In diesem Papier schlagen wir ein System namens TVBanc (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00672-2_15 f57890ed1d0c6971c4dddd67fcb71eb6;de;;;7.3.;;;Rahmen des Lehrmodus der Hürdentechnologie basierend auf der „Internet+“-Plattform „Internet+“ ist zum aktuellen Trend der Lehrplankonstruktion und des Präsenzunterrichts geworden. Der Unterricht in der Hürdentechnik ist der Hauptinhalt von Leichtathletikkursen für Sportstudenten. Die traditionellen Lehrkonzepte und Lehrmethoden können den Anforderungen der Leichtathletik-Hürdentechnik-Lehre und der innovativen Talentförderung nicht mehr gerecht werden. Dieses Papier schlägt einen Rahmen für den Unterricht in Hürdentechnologie auf der Grundlage der Medienplattform „Internet+“ vor, der darauf abzielt, die Lehrmethode und das System der Hürdentechnologie weiter zu verbessern, die Lehrressourcen der Multikanal-Informationsplattform „Internet+“ zu nutzen Neugestaltung und Umsetzung des Präsenzunterrichts und Anleitung der Studierenden zu einer gezielten Vorbereitung, zum Lernen, Üben und Wiederholen, um die Lehreffektivität zu verbessern. Es ist gut auf die Bedürfnisse des Präsenzunterrichts abgestimmt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3250-4_143 2774b3f46e0de62c5dee109c768b48c2;de;;;7.3.;;;SEAL – Ein Framework für die Entwicklung von SEmantic Web-PortALs Die Kernidee des Semantic Web besteht darin, Informationen auf semantischer Basis für Menschen und Software-Agenten zugänglich zu machen. Daher können Websites direkt vom Semantic Web gespeist werden, wobei die zugrunde liegenden Strukturen für den menschlichen und maschinellen Zugriff ausgenutzt werden. Wir haben einen generischen Ansatz für die Entwicklung semantischer Portale entwickelt, nämlich. SEAL (SEmantic portAL), das Semantik für die Bereitstellung und den Zugriff auf Informationen auf einem Portal sowie den Aufbau und die Wartung des Portals nutzt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45754-2_1 896ebe205cac48293c3477f917d81d2d;de;;;7.3.;;;Die Entwicklung der digitalen Astronomiebibliothek Die Astronomy Digital Library bietet Zugang zu astronomischer Literatur und zu Online-Daten. Das Astrophysics Data System (ADS) ist das Literatursuchsystem und Archiv in dieser Bibliothek. Es ist ein von der NASA finanziertes Projekt und der Zugang zu allen ADS-Diensten ist für jeden weltweit kostenlos. Der ADS Abstract Service ermöglicht die Suche in vier Datenbanken mit Abstracts in Astronomie, Instrumentierung, Physik/Geophysik und den ArXiv Preprints mit insgesamt über 2,9 Millionen Referenzen. Das System bietet auch Zugang zu Referenz- und Zitationsinformationen, Links zu Online-Daten, elektronischen Zeitschriftenartikeln und anderen Online-Informationen. Der ADS Article Service enthält die vollständigen Artikel für den Großteil der astronomischen Literatur zurück bis zu Band 1. Er enthält die gescannten Seiten aller wichtigen Zeitschriften (Astrophysical Journal, Astronomical Journal, Astronomy & Astrophysics, Monthly Notices of the Royal Astronomical Society und Solar Physik) sowie die meisten kleineren Zeitschriften zurück zu Band 1. Es gibt jetzt 10 Spiegelseiten des ADS in verschiedenen Teilen der Welt, um die Konnektivität zu verbessern. Auf das ADS kann über jeden Webbrowser ohne Anmeldung oder Anmeldung unter http://ads.harvard.edu/ zugegriffen werden.;-;-;-;https://link.springer.com/chapter/10.1007/0-306-48080-8_10 efddb98818d9589cd2452dd8b548c1fb;de;;;7.3.;;;Erstellen Sie ein verteiltes Repository für die Webdiensterkennung basierend auf einem Peer-to-Peer-Netzwerk Während Web Services bereits eine verteilte Operationsausführung bereitstellen, basieren die Registrierung und Erkennung mit UDDI noch immer auf einem zentralen Repository. In diesem Papier schlagen wir ein verteiltes XML-Repository vor, das auf einer Peer-to-Peer-Infrastruktur namens pXRepository für die Web-Service-Erkennung basiert. In pXRepository werden die Servicebeschreibungen komplett dezentral verwaltet. Da der grundlegende Peer-to-Peer-Routing-Algorithmus nicht direkt im Service Discovery-Prozess angewendet werden kann, erweitern wir den grundlegenden Peer-to-Peer-Routing-Algorithmus um XML-Unterstützung, wodurch pXRepository XPath-basierte zusammengesetzte Abfragen unterstützen kann. Experimentelle Ergebnisse zeigen, dass pXRepository eine gute Robustheit und Skalierbarkeit aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30141-7_26 e897d91a0154d2ed250ede18cfbffb85;de;;;3.4.;;;Maximierung des High-Tech-Servicewerts durch ein MCDM-basiertes innovatives E-Business-Modell Das Aufkommen des Internets hat die High-Tech-Marketingkanäle in den letzten zehn Jahren grundlegend verändert, während E-Commerce bereits zu einem der effizientesten Kanäle geworden ist, bei denen High-Tech-Unternehmen die Zwischenhändler überspringen und Endkunden direkt erreichen können. Die Definition geeigneter E-Business-Modelle für die Kommerzialisierung neuer Hightech-Produkte oder -Dienste über das Internet ist jedoch nicht so einfach. Um die oben genannten Probleme zu überwinden, wird ein neuartiger analytischer Rahmen vorgeschlagen, der auf dem Konzept der Erweiterung des Kompetenzsatzes von High-Tech-Kunden durch Nutzung der Fähigkeiten und Ressourcen von High-Tech-Dienstleistungsunternehmen sowie neuartiger Multi-Kriterien-Entscheidungsfindungstechniken (MCDM) basiert ein geeignetes E-Business-Modell zu definieren. Eine empirische Beispielstudie eines auf MCDM-Techniken basierenden E-Business-Modells zur Kommerzialisierung von Silizium-Intellektuellem Eigentum (SIP) wird bereitgestellt, um die Wirksamkeit dieses neuartigen analytischen Rahmens zu verifizieren. Die Analyse half einem taiwanesischen IC-Design-Dienstleister erfolgreich bei der Definition eines E-Business-Modells zur Maximierung der SIP-Transaktionen seiner Kunden. Zukünftig kann das neuartige MCDM-Framework erfolgreich auf neuartige Geschäftsmodelldefinitionen in der Hochtechnologiebranche angewendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02298-2_116 73818c8159093fabe2e3e72e000f4cd5;de;;;7.3.;;;Effizienter PageRank mit gleichen Out-Link-Gruppen Der traditionelle PageRank-Algorithmus leidet aufgrund der großen Anzahl von Webseiten unter hohen Rechenkosten. In diesem Artikel schlagen wir einen effizienteren Algorithmus vor, um den Pagerank-Wert für jede Webseite direkt auf denselben Out-Link-Gruppen zu berechnen. Dieser neue Algorithmus gruppiert die Seiten mit demselben Out-Link-Verhalten (SOLB) zu einer Einheit. Es ist bewiesen, dass der abgeleitete PageRank derselbe ist wie der aus dem ursprünglichen PageRank-Algorithmus, der über eine einzelne Webseite berechnet, während unser vorgeschlagener Algorithmus die Effizienz erheblich verbessert. Der Einfachheit halber beschränken wir die Gruppe innerhalb eines Verzeichnisses und definieren Metriken, um die Ähnlichkeit der Seiten im gleichen Out-Link-Verhalten zu messen. Wir entwerfen die Experimente so, dass sie von 0,5 Likes bis hin zu genauen SOLB-Seiten gruppieren. Die Ergebnisse zeigen, dass eine solche Gruppe ähnliche Rangwerte wie der traditionelle PageRank-Algorithmus bietet und eine bemerkenswerte Effizienz von 50% erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-31871-2_13 d2a1c61f9d63a2291ce52811689732d5;de;;;7.3.;;;Ein Ansatz zur Erfassung kontextabhängiger Dokumentbeziehungen aus der Bayesschen Analyse der Interaktionen von Benutzern mit Informationen Es gibt eine Reihe von Technologien, die das unauffällige Erfassen von Computerschnittstelleninteraktionen im Hintergrund der Arbeitsumgebung eines Benutzers ermöglichen. Die daraus resultierenden Daten können vielfältig genutzt werden, um Aspekte der Recherchetätigkeit und der allgemeinen Nutzung elektronischer Dokumente im normalen Arbeitsalltag zu modellieren. In diesem Papier stellen wir einen Ansatz zur Verwendung erfasster Daten vor, um Beziehungen zwischen Dokumenten zu identifizieren, die von einer Einzelperson oder Gruppe verwendet werden und deren Wert in einem bestimmten Kontext darstellen – die sich auf einen bestimmten Informationsbedarf oder eine bestimmte Aktivität beziehen können. Der Ansatz verwendet einen naiven Bayes-Klassifikator, um mögliche Beziehungen zu bewerten, die implizit aus den Daten abgeleitet werden. Es ist beabsichtigt, dass die hergestellten Beziehungen in einem Informationsabruf-(IR)-System gespeichert werden, um beim Abrufen verwandter Dokumente zu helfen, wenn zukünftige Benutzer zu einem ähnlichen Kontext gelangen. Bei der Evaluierung des Ansatzes werden über 70 Stunden Daten von Computerbenutzern in industriellen und akademischen Umgebungen gesammelt, um die Gesamtdurchführbarkeit zu bewerten. Die Ergebnisse zeigen, dass der Ansatz eine nützliche Methode zur Herstellung identifizierbarer Beziehungen zwischen Dokumenten auf der Grundlage des Kontexts ihrer Verwendung und nicht ihres Inhalts bietet.;-;-;-;https://link.springer.com/article/10.1007/s10791-006-9016-2 f27322701a96592b8bb615a1bd11451e;de;;;7.3.;;;Ein praktischer Weg, um eine perfekte Vorwärtsgeheimhaltung für sichere E-Mail-Protokolle bereitzustellen Die Leute sind besorgt über Spam-Mails und Viren oder Würmer, die in E-Mails enthalten sind. Allerdings vernachlässigen die Leute oft die Sicherheitsaspekte in Bezug auf den Inhalt von E-Mails. In diesem Papier schlagen wir praktische und sichere E-Mail-Protokolle vor, die eine perfekte Vorwärtsgeheimhaltung bieten. Im Gegensatz zu früheren Vorschlägen können unsere Protokolle ohne Änderung der aktuellen Infrastruktur bereitgestellt werden. Darüber hinaus bieten wir dem Absender die Möglichkeit, eine identische E-Mail sicher an mehrere Empfänger zu senden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77115-9_35 c930f4f249ff363a71b87713028c6d54;de;;;7.3.;;;Design für die Funktionalität, die südafrikanische Internet-Banking-Websites bieten sollten, um den Bedürfnissen von Benutzern der Generation Y gerecht zu werden Trotz der weit verbreiteten Akzeptanz von Internet-Banking gibt es keine validierten Richtlinien für die Funktionalität, die das jüngere, technisch versierte Kundensegment der Generation Y (18-35 Jahre) von Internet-Banking-Websites erwartet. Diese Studie untersuchte die Funktionalität, die das Kundensegment der Generation Y von südafrikanischen Internet-Banking-Websites benötigt. Es wurde die Philosophie des User Centered Design (UCD) mit einem Mixed-Methods-Forschungsdesign verwendet. Aus der Literatur abstrahierte technologische Merkmale und Präferenzen der Generation Y wurden mit den Funktionalitätstrends zukünftiger Internet-Banking-Websites abgeglichen, um eine erste Liste von auf die Generation Y ausgerichteten Richtlinien für die Internet-Banking-Funktionalität zu formulieren. Diese wurden in Interviews mit repräsentativen Generation-Y-Kunden ausgewertet und auch bei der heuristischen Auswertung der Internet-Banking-Plattformen von fünf südafrikanischen Banken verwendet. Die Erkenntnisse wurden in die Synthese von Funktionalitätsrichtlinien integriert. Eine visuelle Darstellung dieser Funktionalitätsrichtlinien wurde als Wireframe-Prototyp zur Evaluierung durch Benutzer der Generation Y erstellt. Der Hauptbeitrag der Studie ist die validierte Liste von Richtlinien zur Funktionalität des Internet-Bankings für Bankkunden der Generation Y.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40498-6_29 4945cc2e07b7e51de11662df99c61bf6;de;;;7.3.;;;Eine vertikale Suchmaschine für Schulinformationen basierend auf Heritrix und Lucene Die Inhalte im Web nehmen exponentiell zu, da sich die rasante Entwicklung der Internetanwendungen und -dienste immer weiter ausdehnt. Ein Problem, nützliche Informationen aus umfangreichen Inhalten schnell und genau zu erhalten, steht uns gegenüber, während die Leute die Bequemlichkeit des Internets genießen. Die unmittelbare Antwort auf dieses Problem ist eine Websuchmaschine. Wir haben eine vertikale Suchmaschine für eine bestimmte Domain wie die Universität entwickelt. Die Suchmaschine besteht aus Crawler, Indexer und Searcher. Die Crawler-Komponente wird mit dem Heritrix-Crawler basierend auf dem Mechanismus der Rekursion und Archivierung implementiert. Ein wiederverwendbares, erweiterbares Subsystem zur Indexerstellung und -verwaltung wird durch das Open-Source-Paket Lucene in der Indexerkomponente entworfen und implementiert. Ein Experiment wurde für Websites der Chungbuk National University durchgeführt, und die Anzahl der Dokumente, die das System abruft, ist im Durchschnitt für typische Schlüsselwörter mehr als 400-mal höher als die von Google oder den Suchmaschinen der Universität.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24082-9_42 6945cd1be8b6c7e85c927d077b8f988e;de;;;7.3.;;;Analyse und Korrektur der Nichteinhaltung von Web-Standards durch Web-Dokumente Ausgehend von der Begründung für die gleichberechtigte Zugänglichkeit des World Wide Web (kurz Web) haben wir die Nichtkonformität gesammelter Webdokumente mit Webstandards durch einen statistisch-physikalischen Ansatz analysiert. Die Webdokumente wurden mit einem Validator untersucht, der die Nichtkonformität in Fehler und Warnungen unterschiedlicher Art einordnete. Wir fanden heraus, dass die Häufigkeitsverteilungen von Fehlern und Warnungen in einem Webdokument einer Potenzgesetzverteilung folgten und dass eine starke Korrelation zwischen der Anzahl von Fehlern und Warnungen bestand. Außerdem wurden einige Fehler oder Warnungen viel häufiger identifiziert als andere, die durch eine geometrische Verteilung modelliert werden konnten. Unter Verwendung dieser Eigenschaften haben wir ein Schema zur Korrektur von Nichteinhaltung vorgeschlagen, das sich auf die am häufigsten auftretenden Fehler und Warnungen konzentriert. Wir haben die vorgeschlagene Methode empirisch anhand der gesammelten Webdokumente getestet und gezeigt, dass die vorgeschlagene Methode etwa 47 % bzw. 85 % der Fehler bzw. Warnungen effektiv korrigiert. Wir haben auch die Netzwerktheorie verwendet, um Korrelationen innerhalb und zwischen verschiedenen Fehlern und Warnungen in Korrekturergebnissen zu analysieren und festgestellt, dass sich einige Arten von Fehlern und/oder Warnungen bei der Korrektur gegenseitig beeinflusst haben. In diesem Beitrag werden die Korrekturergebnisse der vorgeschlagenen Methode mit denen von Tidy verglichen und unterschiedliche Eigenschaften der beiden Korrekturmethoden diskutiert.;-;-;-;https://link.springer.com/article/10.3938/jkps.74.731 998c571279223f6235b57e0ab7c48446;de;;;7.3.;;;Hinzufügen lebensechter synthetischer Charaktere zum Web Mit dem Aufkommen von Webbrowsern, die in Webseiten eingebettete Programme ausführen können, ist die Verwendung von animierten Zeichen zur Darstellung von Informationen über das Web möglich geworden. Ein starkes Argument für die Verwendung solcher Zeichen in einem Webinterface ist die Tatsache, dass sie die Mensch-Computer-Interaktion angenehmer machen und die Emulation von Kommunikationsstilen ermöglichen, die im Mensch-Mensch-Dialog üblich sind. In diesem Beitrag diskutieren wir drei laufende DFKI-Projekte zu lebensechten synthetischen Charakteren im Internet. Während sich alle Agenten auf den gleichen Ansatz für die automatisierte Skriptgenerierung verlassen, verwenden wir unterschiedliche Player-Technologien, die im Lichte verschiedener Anwendungen diskutiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45012-2_1 885f9a809da3d05a68da0f8414b67832;de;;;7.3.;;;Effizienter Informationsabruf verschlüsselter Cloud-Daten mit Ranglistenabruf In den letzten zehn Jahren gab es massive technologische Entwicklungen wie selbstfahrende Autos, Kryptowährungen, Streaming-Dienste, Sprachassistenten usw. An jedem der aufgeführten Durchbrüche war Cloud Computing beteiligt. Cloud Computing hat einen enormen Durchbruch in der Unternehmens- und Geschäftstransformation gebracht und eine bisher unbekannte Agilität mit sich gebracht. In der Cloud gehostete Projekte und Datenbanken haben es den Benutzern ermöglicht, problemlos miteinander zu arbeiten. Benutzer, die Cloud Computing verwenden, können ihre Daten von überall in die Cloud hochladen und erhalten Zugriff auf die bestmögliche Servicearchitektur und Anwendungen aus einem verbundenen Netzwerk von Computerressourcen. Damit die Daten der Nutzer jedoch sicher in der Cloud gespeichert werden, müssen die Daten vor dem Outsourcing aus Datenschutzgründen verschlüsselt werden. Die Verschlüsselung der Benutzerdaten führt aufgrund der Möglichkeit einer großen Anzahl ausgelagerter Dateien zu einer schlechten Effizienz der Datennutzung. Dies kommt einem Mangel an Kontrolle und Zugriff auf die ausgelagerten Daten aus der Position des Benutzers gleich. Aufgrund des Mangels an effizientem und praktischem Cloud Computing wird die Kontrolllosigkeit des Benutzers noch verstärkt. Um diesen Aspekt zu adressieren, der dem Benutzer hilft, die Kontrolle über seine verschlüsselten Daten zu behalten, wenn er in eine Cloud ausgelagert wird, haben wir ein Schema entwickelt, um die verschlüsselten Daten effizient zu durchsuchen und Ranglistenergebnisse abzurufen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-32150-5_93 7d946105f19c0f5e333f522fb3da55d7;de;;;7.3.;;;Abruf mathematischer Informationen Wir präsentieren einen Überblick über die NTCIR Math Tasks, die während NTCIR-10, 11 und 12 organisiert wurden. Diese Tasks sind hauptsächlich Techniken zum Durchsuchen mathematischer Inhalte mit Formelausdrücken gewidmet. In diesem Kapitel fassen wir zunächst das Aufgabendesign zusammen und stellen in den Aufgaben generierte Testkollektionen vor. Wir beschreiben auch die Merkmale und Hauptherausforderungen von mathematischen Information-Retrieval-Systemen und diskutieren zukünftige Perspektiven in diesem Bereich.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5554-1_12 c4827ecd17e31351b60cd5638a13c56f;de;;;7.3.;;;Integrieren von Caching-Techniken in ein Content Distribution Network Web-Caching und Replikation stimmen die Kapazität mit der Leistung ab und sind zu wesentlichen Bestandteilen des Webs geworden. In der Praxis wurden Caching- und Replikationstechniken in Proxyservern bzw. Content Distribution Networks (CDNs) angewendet. In diesem Whitepaper untersuchen wir die Vorteile der Integration von Caching-Richtlinien in die Infrastruktur eines CDN. Mit einem Simulationstestbed zeigen unsere Ergebnisse, dass es viel Raum für Leistungsverbesserungen in Bezug auf wahrgenommene Latenz, Trefferquote und Bytetrefferquote gibt. Darüber hinaus zeigen wir, dass die Kombination von Caching mit Replikation CDNs gegen Flash-Crowd-Events stärkt.;-;-;-;https://link.springer.com/chapter/10.1007/11827252_17 bf50a8a76a6e9a935418c733f10989fd;de;;;7.3.;;;Neugestaltung des Zugangskontrollsystems des Webs Das Web spielt eine sehr wichtige Rolle in unserem Leben und wird zu einem wesentlichen Element der Computerinfrastruktur. Mit solch einem Ruhm kommen die Angriffe – das Web ist zu bevorzugten Zielen der Kriminellen geworden. Webbasierte Sicherheitslücken überwiegen heute die herkömmlichen Sicherheitsbedenken von Computern. Obwohl verschiedene Sicherheitslösungen vorgeschlagen wurden, um die Probleme im Web anzugehen, haben sich nur wenige mit den Ursachen befasst, warum Webanwendungen so anfällig für diese vielen Angriffe sind. Wir glauben, dass die aktuellen Zugriffskontrollmodelle des Webs grundsätzlich nicht ausreichen, um die Schutzbedürfnisse des heutigen Webs zu erfüllen, und sie müssen neu gestaltet werden. In diesem erweiterten Abstract erläutern wir unseren Standpunkt und fassen unsere Bemühungen bei der Neugestaltung der Zugangskontrollsysteme des Webs zusammen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22348-8_2 3049f537dcd748cbfaa1798cd14cd2d3;de;;;7.3.;;;Die Einstellung der mongolischen Internetkonsumenten zur Webwerbung Web-Werbung bietet Einzelpersonen und Unternehmen verschiedene Möglichkeiten. Web-Werbung hat folgende Vorteile wie beispielsweise verteilte Direktankündigungen oder Daten- und Marketing-Events ohne zeitliche und örtliche Barrieren an die Kunden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-5041-1_90 0cb494963132057d24ba29544f2746eb;de;;;3.4.;;;Innovation im Verlagswesen: Dies ist kein Oxymoron! Während viele Experten behaupten, Verlage seien nicht innovativ, zitiert dieses Papier Dutzende neuer Beispiele für Innovationen in der Verlagsbranche. Die wichtigsten untersuchten Modelle sind: innovative Projekte/Partnerschaften, Investitionen, Acceleratoren/Inkubatoren, öffentlich-private Partnerschaften und Basisprogramme. Es werden Fallstudien von HarperCollins, Houghton Mifflin Harcourt, Penguin Random House und vielen anderen vorgestellt, die auf Forschung und eigenen Erfahrungen des Autors basieren. Indem sie dem Beispiel dieser innovativen Errungenschaften folgen, können Verlage Innovationen in ihren eigenen Unternehmen fördern.;-;-;-;https://link.springer.com/article/10.1007/s12109-017-9521-8 2bd978469b22a7ccdce465192139ac58;de;;;7.3.;;;Ereignisgesteuerte Management-Automatisierung im ALBM-Cluster-System Eines der Hauptanliegen bei der Verwendung eines großen Clustersystems ist die Verwaltbarkeit. Das Cluster-System ALBM (Adaptive Load Balancing and Management) ist ein aktives Cluster-System, das skalierbar, zuverlässig und verwaltbar ist. Wir führen die ereignisgesteuerte Management-Automatisierung ein, indem wir das aktive Cluster-System ALBM verwenden. Diese Architektur basiert auf einer Event-Management-Lösung, die aus Event Notification Service, Event Channel Service und Event Rule Engine besteht. Kritische Systemzustandsänderungen werden als Ereignisse generiert und an die Ereignisregel-Engine übermittelt. Gemäß den vordefinierten Verwaltungsregeln werden einige Verwaltungsaktionen ausgeführt, wenn eine bestimmte Bedingung erfüllt ist. Dieser ereignisgesteuerte Mechanismus kann verwendet werden, um das System automatisch ohne menschliches Eingreifen zu verwalten. Diese Event-Management-Lösung kann auch für andere Zwecke des Vorausmanagements verwendet werden, wie beispielsweise Ereigniskorrelation, Ursachenanalyse, Trendanalyse oder Kapazitätsplanung. Um die Möglichkeit der Verwaltungsautomatisierung zu unterstützen, werden die experimentellen Ergebnisse durch einen Vergleich des adaptiven Lastausgleichs mit einem nicht adaptiven Lastausgleichsmechanismus präsentiert. Der adaptive Planungsalgorithmus, der die Ereignisverwaltungsautomatisierung verwendet, führt zu einer besseren Leistung im Vergleich zu den nicht adaptiven für eine realistische, schwere Arbeitslast.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30184-4_12 070f24fc362c909ae8a3ce294369ba50;de;;;7.3.;;;Aufbau einer Morphem-basierten amharischen Stoppwortliste für das Informationsabrufsystem Eine der wichtigsten Formen der Vorverarbeitung bei der Informationssuche und vielen anderen Textverarbeitungsanwendungen ist das Herausfiltern von Stoppwörtern. Sie werden von vielen Retrieval-Systemen während des Indexierens und Retrievals ignoriert, um die Retrieval-Effektivität und -Effizienz zu verbessern. Das Ziel dieses Beitrags ist es, die Konstruktion von morphembasierten amharischen Stoppwörtern vorzustellen und deren Einfluss auf Informationsbeschaffungsaufgaben zu untersuchen. Die Stoppwortliste basiert auf der Semantik amharischer Wörter und Korpusstatistiken: Häufigkeit, Mittelwert, Varianz und Entropieparameter. Die Stoppwortliste wird unter Verwendung von Lemur auf der amharischen Informationsabruf-Testsammlung ausgewertet. Die Entfernung von Stoppwörtern hat erhebliche Auswirkungen auf die Effektivität des Abrufs, die Größe des Index und die Begriffsgewichtung von Nicht-Stoppwörtern gezeigt. Auf der anderen Seite wirkt sich ihr Vorhandensein im Index und in der Abfrage negativ auf die Retrieval-Effektivität des amharischen Retrieval-Systems aus. Die durchschnittliche Genauigkeit des Abrufens mit und ohne Stoppwörter unter Verwendung der Sprachmodellierung nach dem wurzelbasierten Ansatz beträgt 0,24 bzw. 0,70.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-80621-7_35 2035f5626a9c9bb6baca765f20246e92;de;;;7.3.;;;Auf dem Weg zu einem „Universal Dictionary“ für mehrsprachige Informationsabrufanwendungen Mehrsprachige Informationsbeschaffungsaufgaben wie das Topic Tracking haben zu qualitativ hochwertigen Ergebnissen geführt, indem einfach nur wortweise Übersetzungsansätze verwendet werden. Der Aufbau von Übersetzungswörterbüchern für neue Sprachen ist jedoch teuer und zeitaufwendig. Wir zeigen, dass eine geeignete Metrik für die Begriffsauswahl in einem einsprachigen englischen Korpus es uns ermöglicht, eine ziemlich kleine Liste mit etwa zehntausend flektierten Formen oder etwa 7500 Lemmata zu definieren, die im Wesentlichen genauso gut (für eine bestimmte einsprachige Dokumentenklassifikationsbewertung) funktioniert wie eine unbegrenzten Wortschatz von mehr als 300.000 Wortformen schon. Wir schlagen vor, dass eine solche Liste als englische Achse einer Art „universelles Wörterbuch“ für Dokumentenklassifizierungsaufgaben verwendet werden kann, was einen viel effizienteren Weg zum Hinzufügen neuer Sprachen bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-0933-2_11 01c6a4b673a500f42847ca46add2fbf4;de;;;7.3.;;;Audience-Response-Systeme, die als Information Retrieval Practice verwendet werden Die formative Erfassung des Wissensstandes der Studierenden ist ein wichtiger Bestandteil des Lernens [1]. Die anonyme Verwendung von Audience Response Systemen (ARS) ermöglicht es den Schülern, ihre Abruffähigkeiten mit denen ihrer Kollegen zu vergleichen, ohne Stress oder öffentliche Verlegenheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-62916-8_8 a1e3cbdc2056661d86a637b17ace7dee;de;;;7.3.;;;Eine abstrakte Architektur für virtuelle Organisationen: Der THOMAS-Ansatz Der Bedarf an Architekturen und Rechenmodellen für große offene Multi-Agenten-Systeme gilt heute als Schlüsselfaktor für den Erfolg der Agententechnologie in realen Szenarien. Dieses Papier analysiert die wesentlichen ungelösten Probleme, die berücksichtigt werden müssen, um echte, offene Multiagentensysteme zu entwickeln. Es identifiziert Anforderungen und damit verbundene offene Fragen, diskutiert, wie einige dieser Anforderungen durch aktuelle Technologien angegangen wurden, und erläutert, wie die THOMAS-Architektur diese offenen Fragen unterstützen kann. Dieses Papier beschreibt auch die abstrakte Architektur und das Berechnungsmodell von THOMAS für große offene Multi-Agenten-Systeme basierend auf einem serviceorientierten Ansatz, der sich speziell mit dem Design virtueller Organisationen befasst. Außerdem wird ein Anwendungsbeispiel für das Management eines Reisebürosystems vorgestellt, das die Neuerungen des Vorschlags demonstriert.;-;-;-;https://link.springer.com/article/10.1007/s10115-010-0349-1 1374740224d5ebf02d2ba2ae5f8fc920;de;;;7.3.;;;Effektive Termgewichtung in der ALT-Textvorhersage für den Web-Bildabruf Die Zahl der Bilder im World Wide Web hat enorm zugenommen. Die Bereitstellung von Suchdiensten für Bilder im Web war ein aktives Forschungsgebiet. Webbilder sind oft von verschiedenen zugehörigen Texten wie ALT-Text, umgebendem Text, Bilddateiname, HTML-Seitentitel usw. umgeben. Viele gängige Internetsuchmaschinen verwenden diese zugehörigen Texte beim Indexieren von Bildern und geben den im ALT-Text enthaltenen Begriffen eine höhere Bedeutung. Eine aktuelle Studie hat jedoch gezeigt, dass etwa die Hälfte der Bilder im Web keinen ALT-Text enthalten. Die Vorhersage des ALT-Textes eines Bildes auf einer Webseite wäre also beim Abrufen von Webbildern von großem Nutzen. Wir behandeln die Vorhersage von ALT-Text als das Problem der automatischen Bildannotation basierend auf den zugehörigen Texten. Wir schlagen ein Termgewichtungsmodell vor, das Term-Co-Vorkommen in assoziierten Texten nutzt und den ALT-Text eines Bildes vorhersagt. Mit unserem Ansatz haben wir eine gute Leistungssteigerung gegenüber dem Ausgangswert erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20291-9_24 159fd1f93982acd3c63550a7f5dc24f5;de;;;7.3.;;;Wie geht es weiter beim Entwerfen einer personalisierten Visualisierung von Webinformationen? Der aktuelle Stand der Technik bei der personalisierten Visualisierung von Webinformationen ist darauf zugeschnitten, einen besseren Überblick darüber zu geben, wie die Informationen im Internet gespeichert und miteinander verbunden sind. Mit der jüngsten Verbesserung der Informations- und Kommunikationstechnologie wird den Benutzern eine sehr große Menge an Informationen bereitgestellt, wenn sie auf einer bestimmten Website nach einer bestimmten Information suchen. Studien zeigen, dass Benutzer die Informationen besser wahrnehmen können, wenn sie die Informationen mit einer visuellen Darstellung anstelle ihres textlichen Gegenstücks erhalten. Um jedoch für die Benutzer effektiv zu sein, sollte die visuelle Darstellung spezifisch für die Bedürfnisse eines bestimmten Benutzers sein. Die Forschung wird unter verschiedenen Gesichtspunkten durchgeführt, um die visuelle Darstellung (grafische Darstellung der Webinformationen) benutzerspezifischer zu gestalten. Um dies zu erreichen, wurden Filter- und Clustering-Techniken auf Web-Informationen angewendet, um große Web-Graphen zu kompakten zu machen. Außerdem wurde die Benutzermodellierung angewendet, um den Bedarf des Benutzers für eine bestimmte Zeit und einen bestimmten Kontext abzuleiten. Diese neigen dazu, dem Endbenutzer die Navigation durch Web-Informationen einfach und effektiv zu machen. In diesem Papier werden die aktuellen Fortschritte bei der grafikbasierten Web-Informationsvisualisierung diskutiert und auch die Bereiche von Verbesserungen skizziert, die dem Benutzer helfen könnten, die gewünschten Informationen aus dem Webspace effektiv und effizient zu erkunden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-46771-9_18 3312bb67eacdb2181ad41c06aaaa7709;de;;;7.3.;;;Eine Bewertung servicebasierter virtueller Netzwerke und Virtualisierungstools ebnet den Weg in Richtung Internet der Zukunft Der Netzwerkvirtualisierung wurde große Aufmerksamkeit geschenkt, um die Verknöcherung aufgrund der koexistierenden heterogenen Netzwerke, Netzwerkanwendungen und Protokollstapelfähigkeiten im zukünftigen Internet zu überwinden. Die Netzwerkvirtualisierung spielt eine entscheidende Rolle bei der Lösung solcher Probleme, und die serviceorientierte Architektur (SOA) stellt einen vielversprechenden Ansatz zur Unterstützung der Netzwerkvirtualisierung dar und erleichtert die Dienstbereitstellung für das zukünftige Internet. In diesem Papier untersuchen wir das Problem von Schlüsseltechnologien wie der Beschreibung und Erkennung von Netzwerkdiensten für die Anwendung von SOA und die Unterstützung der Netzwerkvirtualisierung im zukünftigen Internet. Diese Arbeit bewertet ihre Virtualisierungstools und -technologien sowie eine breite Palette vergangener und aktueller Projekte zur Netzwerkvirtualisierung, gefolgt von einer Diskussion über die wichtigsten Herausforderungen in virtuellen Netzwerkumgebungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-81-322-1665-0_67 7ef3eaa13533db9ecf3607e9d25e72cc;de;;;7.3.;;;Automatisierter Test von TCP-Überlastungskontrollalgorithmen Dieses Papier stellt eine neue einheitliche, insgesamt gut anwendbare Methode zum vollautomatischen Testen von TCP-Implementierungen vor. Unsere primäre Absicht war es, eine Abstract Test Suite (ATS) für die TCP-Überlastungskontrolle bereitzustellen, um die Testmethoden (MoT) bereitzustellen und sie an einigen der heutigen Implementierungen zu demonstrieren. Zuerst geben wir eine kurze Einführung in TCP und ein kurzer Abschnitt stellt die früheren Versuche zur Automatisierung von TCP-Tests vor. Anschließend erläutern wir drei Testfälle im Detail und präsentieren die Ergebnisse ihrer Ausführung auf vier verschiedenen Plattformen. Einige interessante Fehler werden ebenfalls vorgestellt. Abschließend weisen wir auf die Vorteile des vorgestellten Ansatzes hin.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35567-2_10 63dff927f9e511ef6e067499e3436901;de;;;7.3.;;;Latent-Wort-Kontextmodell für die Informationsbeschaffung Die Anwendung von Wortsinn-Disambiguierungstechniken (WSD) auf Information Retrieval (IR) muss noch überzeugende Retrieval-Ergebnisse liefern. Zu den Haupthindernissen für eine effektive WSD in IR zählen Abdeckungs- und Granularitätsprobleme von Wortsinninventaren, ein spärlicher Dokumentenkontext und begrenzte Informationen durch kurze Abfragen. Um diese Probleme zu entschärfen, schlagen wir in diesem Papier die Konstruktion latenter Kontextmodelle für Terme vor, die eine latente Dirichlet-Allokation verwenden. Wir schlagen vor, einen latenten Kontext pro Wort aufzubauen, indem wir eine prinzipientreue Darstellung des lokalen Kontexts basierend auf Wortmerkmalen verwenden. Insbesondere werden Kontextwörter mit einer abklingenden Funktion entsprechend ihrem Abstand zum Zielwort gewichtet, das unüberwacht aus Daten gelernt wird. Die resultierenden latenten Merkmale werden verwendet, um Wortkontexte zu unterscheiden, um den semantischen Geltungsbereich der Abfrage einzuschränken. Konsistente und wesentliche Verbesserungen, auch bei schwierigen Abfragen, werden bei TREC-Testsammlungen beobachtet, und die Techniken lassen sich gut mit blindem Relevanz-Feedback kombinieren. Im Vergleich zu herkömmlichen Themenmodellierungs-, WSD- und Positionsindexierungstechniken ist das vorgeschlagene Retrievalmodell effektiver und lässt sich gut auf umfangreiche Sammlungen skalieren.;-;-;-;https://link.springer.com/article/10.1007/s10791-013-9220-9 7e11c81e127d7db9f7fae1c221ee0874;de;;;7.3.;;;NowOnWeb: Nachrichtensuche und Zusammenfassung Der agile Zugriff auf die riesige Menge an Informationen, die von Tausenden von online verfügbaren Nachrichtenseiten veröffentlicht werden, führt zur Anwendung von Information Retrieval-Techniken auf dieses Problem. Das Ziel dieses Beitrags ist es,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75867-9_29 d1daca45e7e0871da75fbe63d5ee8dbb;de;;;7.3.;;;IoTutor: Wie Cognitive Computing auf die Bildung im Internet der Dinge angewendet werden kann Wir präsentieren IoTutor, eine Cognitive Computing-Lösung für die Ausbildung von Studenten im IoT-Bereich. Wir implementieren den IoTutor als plattformunabhängige webbasierte Anwendung, die in der Lage ist, mit Benutzern über Text oder Sprache in natürlicher Sprache zu interagieren. Wir schulen den IoTutor mit ausgewählten wissenschaftlichen Publikationen, die für die IoT-Ausbildung relevant sind. Um die Erfahrungen der Benutzer mit dem IoTutor zu untersuchen, bitten wir eine Gruppe von Studenten, die einen IoT-Master-Kurs an der Linnaeus University besuchen, den IoTutor für einen Zeitraum von zwei Wochen zu verwenden. Wir bitten die Schüler, ihre Meinung in Bezug auf die Attraktivität, Eindeutigkeit, Effizienz, Stimulation und Neuheit des IoTutors zu äußern. Die Evaluationsergebnisse zeigen einen Trend, dass die Studierenden insgesamt eine positive Einstellung zum IoTutor äußern, wobei die Mehrzahl der Aspekte höher als der neutrale Wert bewertet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-15651-0_18 796226e802f1017c1225bfdaf508b366;de;;;7.3.;;;CORONET-Train: Eine Methodik für webbasiertes kollaboratives Lernen in Software-Organisationen Fähigkeiten, Kenntnisse und Motivation der Software-Engineering-Mitarbeiter sind wesentliche Voraussetzungen für eine ausgereifte Softwareentwicklung. Der Mangel an Humanressourcen ist jedoch zu einem Hindernis für das Wachstum der Softwareindustrie geworden. Der CORONET-Ansatz zielt darauf ab, die schwierige Situation zu lindern, indem eine innovative Methodik und Werkzeugunterstützung für webbasiertes kollaboratives Lernen am Arbeitsplatz ermöglicht wird. Dieser Beitrag beschreibt die wichtigsten Merkmale der Lernmethodik CORONET-Train. Geplant ist eine empirische Evaluation der Lerneffektivität im industriellen Umfeld. Ergebnisse werden in Kürze verfügbar sein.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44814-4_6 7f37811671381d0cbcad801f3983341f;de;;;7.3.;;;Semantische Suche im WWW unterstützt durch ein kognitives Modell Die meisten Benutzer des WWW möchten, dass ihre Suche effektiv ist. Derzeit gibt es eine Vielzahl effizienter syntaktischer Werkzeuge, die für die Suche im WWW verwendet werden können. Mit der stetig steigenden Informationsmenge wird eine effektive Suche in Zukunft nicht nur mit syntaktischen Werkzeugen möglich sein. Andererseits verfügen Menschen im Moment des Abrufens und Erwerbens von Informationen über bemerkenswerte Fähigkeiten. Ein Bibliothekar ist beispielsweise in der Lage, mit großer Präzision zu wissen, was ein Kunde sucht, indem er eine kleine Menge von Fragen stellt. Motiviert durch die Effizienz dieses Prozesses haben wir einen auf Ontologien basierenden Websuchsystemprototyp entwickelt, der ein kognitives Modell des Prozesses der menschlichen Informationsbeschaffung verwendet. Wir haben einen Prototyp eines Suchsystems gebaut, dessen Ausgabe die Erwartungen der Benutzer besser erfüllt als Werkzeuge, die nur auf Syntax basieren. Anhand dieses Modells „versteht“ der Prototyp besser, was der Nutzer sucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27772-9_32 aa7eae2fbfed33b5b7c55eaa3eaa3618;de;;;7.3.;;;Suche im Web nach Beschreibung des Aussehens Dieses Papier präsentiert eine Methode zum Extrahieren von Erscheinungsbeschreibungen für eine gegebene Menge von Objekten. Die Konvertierung zwischen einem Objektnamen und seinen Darstellungsbeschreibungen ist für verschiedene Anwendungen nützlich, wie z. B. die Suche nach einem unbekannten Objekt, die Unterstützung des Speicherabrufs und die Auto-/Geh-Navigation. Die Methode basiert auf Text Mining, das auf Websuchergebnisse angewendet wird. Unter Verwendung eines manuell erstellten Wörterbuchs visueller Modifikatoren erhält unser System einen Satz von Paaren aus einem visuellen Modifikator und einer Komponente/Klasse für einen bestimmten Objektnamen, die sein Aussehen am besten beschreiben. Die experimentellen Ergebnisse haben die Wirksamkeit unserer Methode bei der Entdeckung von Erscheinungsbeschreibungen verschiedener Arten von Objekten gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74469-6_77 cf5d01fdcf8262063108ade6ed20ef65;de;;;7.3.;;;Intelligente Ressourcensuche in virtuellen Bibliotheken Das Konzept der digitalen Bibliothek und das Thema Ressourcensuche wurden vorgestellt. Die Verwendung des Semantic-Web-Konzepts wurde als Weg zur Verbesserung der klassischen Bibliotheksbeschreibung angesehen, um einen qualitativ hochwertigen Suchprozess zu erreichen. Die einfache Ontologie basierend auf Dublin Core Metadaten wurde beschrieben. Die Anwendung eines semantischen Links-Verarbeitungsalgorithmus in einem Suchprozess wurde diskutiert. In der Semantic Web Virtual Library verwendete Suchalgorithmen wurden beschrieben und mit klassischen verglichen. Richtungen für die Weiterentwicklung der semantischen Weblogikschicht im vorgestellten System wurden auf der Grundlage der Analyse der erfassten Qualitätsmetriken vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39985-8_49 6694b5c4b722ef97d588d3d43e04513f;de;;;7.3.;;;Anreichernde Ontologie für Deep Web Search In diesem Artikel werden die Probleme beim Extrahieren von Instanzen aus dem Deep Web, beim Anreichern einer domänenspezifischen Ontologie mit diesen Instanzen und bei der Verwendung dieser Ontologie zur Verbesserung der Websuche behandelt. Das Erweitern einer bestehenden Ontologie mit einer großen Anzahl von Instanzen, die aus dem Deep Web extrahiert wurden, ist ein wichtiger Prozess, um die Ontologie für die Indexierung von Deep Web Sites besser nutzbar zu machen. Wir zeigen, wie aus dem Deep Web extrahierte Instanzen verwendet werden, um eine Domänenontologie zu verbessern. Wir zeigen den Beitrag der angereicherten Ontologie zur Effektivität der Websuche. Dies geschieht durch den Vergleich der Anzahl relevanter Websites, die von einer Suchmaschine nur mit den Suchbegriffen eines Benutzers zurückgegeben werden, mit den Websites, die bei Verwendung zusätzlicher ontologiebasierter Suchbegriffe gefunden werden. Experimente legen nahe, dass die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85654-2_9 a5cfe884e29d870503e6e8a235fce87c;de;;;7.3.;;;Eine Pilotstudie zur chinesischen Internetumgebung Nach dem Vergleich des Wettbewerbsverhaltens der chinesischen Internetfirmen mit ihren ausländischen Pendants hat diese Studie die Merkmale der chinesischen Internetumgebung aufgezeigt. Diese Eigenschaften stellen die Einflussfaktoren dar, die das Wettbewerbsverhalten der chinesischen Internetfirmen auf Umweltebene prägen. Die Aspekte, zu denen diese Eigenschaften gehören, sind jeweils das Netzwerkvertrauen, die Aneignung des geistigen Eigentums, das Verbraucherverhalten und die kulturelle Tradition. Schließlich hat diese Studie eine zukünftige Forschungsperspektive gemacht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23065-3_89 1de38ba9834ff08cc6d678d28a7aed88;de;;;7.3.;;;Bereitstellung von Authentifizierung und Zugriffskontrolle in einer Fahrzeugnetzwerkumgebung In diesem Beitrag nutzen wir die jüngsten Fortschritte bei den 802.11-Technologien und die neuen Perspektiven für Ad-hoc-Netzwerke, um eine neuartige Architektur für die Kommunikation zwischen Fahrzeugen auf Autobahnen bereitzustellen. Diese Architektur bietet Authentifizierung und Zugangskontrolle für mobile Clients auf Autobahnen und sorgt für Netzwerktransparenz für mobile Clients in ihren Fahrzeugen. Wir schlagen eine integrierte Lösung vor, die den Service Provider als Kernelement für alle Authentifizierungs- und Zugangskontrolloperationen betrachtet. Wir entwickeln einen AAA-Mechanismus (Authentication, Authorization, and Accounting), um mobile Clients gegenüber Dienstanbietern zu authentifizieren, die ihnen den Zugriff auf Dienste autorisieren, und um eine vertrauliche Datenübertragung zwischen allen kommunizierenden Parteien sicherzustellen. Unser Mechanismus passt den 802.11i-Standard an die Fahrzeugumgebung an und richtet sichere Verbindungen in Schicht 2 ein, die eine vertrauliche Datenübertragung garantieren. Um eine zuverlässige Übertragung zu erreichen, schlagen wir einen Routing-Ansatz vor, der auf dem Optimized Link State Routing (OLSR)-Protokoll basiert, von dem erwartet wird, dass es eine zuverlässige Routing-Infrastruktur in einer solchen hybriden skalierbaren drahtlosen Umgebung bereitstellt. Außerdem präsentieren wir ein einfaches und geeignetes Schema für die Zuweisung von IP-Adressen an mobile Clients. Abschließend geben wir eine kurze Analyse und diskutieren die Vorteile und Grenzen der vorgeschlagenen Architektur.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-33406-8_6 be02513f4c6b20b70415afa2bf2bee27;de;;;7.3.;;;Broken Links: Die Kurzlebigkeit von pädagogischen WWW-Hyperlinks Die Verwendung verteilter (Internet-)Ressourcen zur Verbesserung sowohl des traditionellen als auch des Fernunterrichts hat in der wissenschaftlichen Bildungsgemeinschaft für viel Aufregung gesorgt. Eine der Schwierigkeiten, sich auf solche frei verfügbaren verteilten Ressourcen zu verlassen, war jedoch die mangelnde Gewissheit, dass die Ressourcen für die Studierenden nächsten Monat, nächstes Semester oder nächstes Jahr zur Verfügung stehen. Wir waren vor kurzem an der Entwicklung von drei Biochemiekursen für Hochschullehrer beteiligt. Die Entwicklung dieser Kurse stützte sich stark auf verteilte Ressourcen für den naturwissenschaftlichen Unterricht. Infolgedessen stellten sie eine Reihe authentischer Ressourcen für den naturwissenschaftlichen Unterricht dar, die im Laufe der Zeit überwacht werden konnten, um ihre Aussterberate zu bestimmen. Insgesamt enthielten die drei Kurse 515 nicht redundante URLs, die entweder wissenschaftliche Inhalte der naturwissenschaftlichen Pädagogik repräsentierten. Diese wurden in den 14 Monaten seit der Einrichtung der Kurse (August 2000) monatlich überwacht. In diesem Zeitraum haben 85 (16,5%) der URLs ihre Funktion eingestellt oder ihr Inhalt wurde geändert. Die größte Abwanderung wurde bei URLs mit den Domainnamen „edu“, „com“ und „org“ beobachtet, bei denen 17,5, 16,4 und 11 % bereits nicht mehr zugänglich sind.;-;-;-;https://link.springer.com/article/10.1023/A%3A1014627511641 0d99b103dc439280f9afd6538d91d6b9;de;;;7.3.;;;"Was würde es bedeuten, im Semantic Web zu bloggen? Das als Web-Logging (""Blogging"") bekannte Phänomen hat dazu beigetragen, ein anfängliches Ziel des Webs zu verwirklichen: Verbraucher von Webinhalten (d. Während sich das Semantic Web entfaltet, gibt es unserer Meinung nach zwei Fragen, die es wert sind, gestellt zu werden: (1) Haben Blogeinträge eine semantische Struktur, die nützlich erfasst und genutzt werden kann? (2) Ist Bloggen ein natürlicher Weg, um das Wachstum des Semantic Web zu fördern? Wir untersuchen empirische Beweise, um diese Fragen zu bejahen und schlagen Mittel vor, um Blogging in den Mainstream des Semantic Web zu bringen, einschließlich Ontologien, die die RSS 1.0-Spezifikation erweitern und eine XSL-Transformation für die Handhabung von RSS 0.9x/2.0-Dateien. Um die Gültigkeit unseres Ansatzes zu demonstrieren, haben wir eine semantische Blogging-Umgebung basierend auf Haystack aufgebaut. Wir argumentieren, dass semantisches Blogging mit Tools wie Haystack ein wichtiges Paradigma für die zukünftige Erstellung von Metadaten sein wird.";-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30475-3_16 3335afdafbdf198d485f2b5077207228;de;;;7.3.;;;Semantische Werkzeuge ihr Einsatz für das Wissensmanagement im öffentlichen Sektor In den letzten Jahren ist weltweit zu beobachten, dass die Bürger zunehmend mehr Transparenz bei ihren Operationen und Rechenschaftspflicht der Regierungen gegenüber der Öffentlichkeit fordern. Mittel zur Erfüllung dieser Anforderung sind die IT-Technologien durch die Entwicklung entsprechender Anwendungen. Die Reproduktion von Informationen hat massive Ausmaße angenommen, was zur Unzulänglichkeit der traditionellen Methoden und Instrumente des Wissensmanagements geführt hat. Zur Entwicklung intelligenter Anwendungen Internetsuche und Wissensmanagement stellen wir in dieser Arbeit verwandte Technologien mit dem Schwerpunkt Ontologien vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-49179-9_2 45a6276baafbbbfde6a7f2f6aaeb2efc;de;;;7.3.;;;Überprüfung lexikalischer Signaturen, um Webseiten (wieder) zu entdecken Eine lexikalische Signatur (LS) ist ein kleiner Satz von Begriffen, die aus einem Dokument abgeleitet werden und die „Übergangsheit“ dieses Dokuments erfassen. Ein aus einer Webseite generierter LS kann verwendet werden, um diese Seite unter einer anderen URL zu entdecken sowie um relevante Seiten im Internet zu finden. Aus einer Reihe zufällig ausgewählter URLs haben wir zwischen 1996 und 2007 alle ihre Kopien aus dem Internetarchiv genommen und ihre LSs generiert. Wir führten eine Überlappungsanalyse von Begriffen in allen LS durch und fanden in den ersten Jahren (1996 – 2000) nur geringe Überschneidungen, in der jüngeren Vergangenheit (ab 2003) jedoch zunehmende Zahlen. Wir haben die Leistung aller LSs in Abhängigkeit von der Anzahl der Terme gemessen, aus denen sie bestehen. Wir haben festgestellt, dass LSs, die in jüngerer Zeit erstellt wurden, besser abschneiden als frühe LSs, die zwischen 1996 und 2000 erstellt wurden. Alle LSs, die ab dem Jahr 2000 erstellt wurden, zeigen ein ähnliches Muster in ihrer Leistungskurve. Unsere Ergebnisse zeigen, dass 5-, 6- und 7-Term-LSs am besten abschneiden, wenn sie die URLs von Interesse in den Top Ten der Ergebnismenge zurückgeben. In etwa 50 % aller Fälle werden diese URLs als Ergebnis Nummer eins zurückgegeben und in 30 % aller Fälle betrachteten wir die URLs als nicht entdeckt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87599-4_38 dc970f88008e919a56e6af3f80bc8838;de;;;7.3.;;;Ein konzeptioneller Rahmen für effizientes Web-Crawling in virtuellen Integrationskontexten Virtuelle Integrationssysteme erfordern ein Crawling-Tool, das in der Lage ist, auf effiziente Weise zu navigieren und relevante Seiten im Web zu erreichen. Bestehende Vorschläge im Crawling-Bereich sind sich des Effizienzproblems bewusst, dennoch müssen die meisten von ihnen Seiten herunterladen, um sie als relevant einzustufen oder nicht. In diesem Whitepaper stellen wir einen konzeptionellen Rahmen für das Entwerfen von Crawlern vor, die von einem Webseiten-Klassifizierer unterstützt werden, der sich ausschließlich auf URLs stützt, um die Seitenrelevanz zu bestimmen. Ein solcher Crawler kann in jedem Schritt nur die URLs auswählen, die zu relevanten Seiten führen, und reduziert so die Anzahl unnötiger heruntergeladener Seiten, optimiert die Bandbreite und macht ihn effizient und für virtuelle Integrationssysteme geeignet. Unsere vorläufigen Experimente zeigen, dass ein solcher Klassifikator in der Lage ist, ohne vorheriges Eingreifen des Benutzers zwischen Links zu unterscheiden, die zu verschiedenen Arten von Seiten führen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23982-3_35 68cf26e3a644bb3f3a6700e4646f9c74;de;;;7.3.;;;Hinzufügen von Semantic Web Services Matching and Discovery Support zur MoviLog-Plattform Semantische Webdienste sind selbstbeschreibende Programme, die von anderen Programmen durchsucht, verstanden und verwendet werden können. Trotz der Vorteile, die Semantic-Web-Services bieten, insbesondere für den Aufbau agentenbasierter Systeme, besteht ein Bedarf an Mechanismen, die es Agenten ermöglichen, Semantic-Web-Services zu entdecken. Dieses Papier beschreibt eine Erweiterung der MoviLog-Agentenplattform zum Durchsuchen von Webdiensten unter Berücksichtigung ihrer semantischen Beschreibungen. Es wird auch über vorläufige Experimente berichtet, die ermutigende Ergebnisse zeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34747-9_6 976a4f17990e407b910a3b3d8d4ee9db;de;;;7.3.;;;Irrationalitätsmuster digitaler Nutzer im Moment der digitalen Transformation der Medien Wir liefern drei Erkenntnisse zur Unterstützung der Hypothese, dass die Intensität der Nutzung neuer interaktiver Technologien mit Irrationalitäten korreliert. Unsere Daten zur Weltanschauung und zum Verhalten der Internetnutzer stammen aus einem Forschungsprojekt, das zu einem historischen Zeitpunkt durchgeführt wurde, als der Prozentsatz der Internetnutzer in Polen 50 % erreichte und dieser Wert rapide überstieg. Wir führen eine Sekundäranalyse von vier Untergruppen von Personen durch, die zu dieser Zeit das Internet nutzen: (1) „Frühanfänger“, n = 1167, (2) „Anfänger“, n = 1123, (3) „mittlere Nutzer“, n = 668 , (4) „Heavy User“, n = 885. Unsere Sekundäranalyse von Daten aus den Durchbruchjahren der Internetverbreitung (kurz nach 2009) zeigt, dass das Vertrauen in digitale Medien der soziotechnologischen Durchbruchszeit irrational groß ist. Wenn wir verstehen, dass Menschen irrational mit der Technologie interagieren, die sich langsam in der semi-peripheren europäischen Gesellschaft verbreitet, können wir ihre Weltanschauungen in Bezug auf mythisches Denken konzeptualisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-74728-2_11 fd3a2d805b822011aa2039fd74734bc8;de;;;7.3.;;;Wissensdatenbankkonzepte im KEA-System in Kombination mit Social-Networking-Techniken Wir stellen ein Wissensmanagementsystem für Mathematik vor, das eine Kombination eines Information-Retrieval-Systems mit Social-Networking-Techniken vorschlägt, um die Informationsflut in mathematischen und naturwissenschaftlichen Texten zu überwinden und Probleme der Zusammenführung von Datenbanken innerhalb des Systems zur effizienten Strukturierung unserer Daten zu überwinden. Angesichts der steigenden Nachfrage nach Wissensmanagementsystemen in allen Bereichen bleiben insbesondere mathematische Wissensmanagementsysteme eine große Herausforderung. Insbesondere Systeme, die automatisch Informationen mit Methoden der Verarbeitung natürlicher Sprache extrahieren, erfordern eine ganz andere semantische Analyse von Texten als andere fachspezifische Sprachen. Dabei ist eine Vielzahl von Informationsfragmenten anhand der Besonderheiten der zugrunde liegenden Textstrukturen zu extrahieren. Um dieser Informationsflut Herr zu werden, bedarf es neuer Konzepte. Ein möglicher Ansatz ist der Einsatz von Social-Network-Techniken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16208-4_55 741f2b851c33e3d46eed36efb81c54a5;de;;;7.3.;;;Neue Richtungen bei der Beantwortung von Fragen Frageantwortsysteme der nächsten Generation werden an vielen Fronten herausgefordert, einschließlich, aber nicht beschränkt auf massive, heterogene und manchmal Streaming-Sammlungen, unterschiedliche und herausfordernde Benutzer und die Notwendigkeit, sensibel auf Kontext, Mehrdeutigkeit und sogar Täuschung zu reagieren. In diesem Kapitel werden neue Richtungen bei der Fragebeantwortung (QA) beschrieben, einschließlich verbesserter Fragenverarbeitung, Quellenauswahl, Dokumentenabruf, Antwortbestimmung und Erstellung von Antwortpräsentationen. Wir berücksichtigen wichtige Anweisungen wie die Beantwortung von Fragen im Kontext (z. B. vorherige Abfragen, Tag oder Uhrzeit, die Daten, die Aufgabe, Standort des interaktiven Geräts), szenariobasierte QS, ereignis- und zeitliche QS, räumliche QS, meinungsoide QS, multimodale QS , mehrsprachige QA, benutzerzentrierte und kollaborative QA, Erklärung, interaktive QA, QA-Wiederverwendung und neuartige Architekturen für die QA. Das Kapitel schließt mit der Darstellung eines Fahrplans für die Zukunft der Fragebeantwortung, der die notwendigen Ressourcen für, Hindernisse und geplante oder mögliche zukünftige Fähigkeiten artikuliert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-4746-6_18 7f867481f335436bec229e5eb51db512;de;;;7.3.;;;Kombination von Abfrage für Beispiel und Abfrageerweiterung zur Vereinfachung der Webservice-Erkennung Die Vision eines weltweiten Computing-Netzwerks von Diensten, die das Paradigma des Service Oriented Computing und seine populärste Umsetzung, nämlich Web-Service-Technologien, vorantreibt, ist ein Opfer seines eigenen Erfolgs. Da die Zahl der öffentlich verfügbaren Dienste wächst, ist die Suche nach geeigneten Diensten vergleichbar mit der Suche nach der Stecknadel im Heuhaufen. Verschiedene Ansätze zielen darauf ab, die Entdeckung genauer und sogar automatischer zu machen. Sie erzwingen jedoch umfangreiche Änderungen an aktuellen Webdienst-Infrastrukturen und erfordern, dass Entwickler viel Aufwand in die Veröffentlichung und Beschreibung ihrer Dienste und Anforderungen investieren. Bisher wird die Akzeptanz dieses Paradigmas hauptsächlich durch die hohen Kosten für die Verbindung von Diensteanbietern und Verbrauchern begrenzt. In diesem Whitepaper wird WSQBE+ vorgestellt, ein Ansatz zur Vereinfachung der Veröffentlichung und Erkennung von Webdiensten. WSQBE+ kombiniert offene Standards und beliebte Best Practices für die Verwendung externer Webdienste mit Text-Mining- und maschinellen Lerntechniken. Wir beschreiben unseren Ansatz und bewerten ihn empirisch in Bezug auf Abrufeffektivität und Bearbeitungszeit anhand eines Datensatzes von 391 öffentlichen Diensten.;-;-;-;https://link.springer.com/article/10.1007/s10796-009-9221-9 87097926657303b7f46075fc0a65bf11;de;;;7.3.;;;Wikipedia als Quelle ontologischen Wissens: Stand der Technik und Anwendung Dieses Kapitel motiviert, dass Wikipedia als Wissensquelle für die Erstellung semantisch aktivierter Anwendungen verwendet werden kann und besteht aus zwei Teilen. Zunächst geben wir einen Überblick über verschiedene Forschungsfelder, die versuchen, von Menschen kodiertes Wissen in Wikipedia zu extrahieren. Das extrahierte Wissen kann dann zum Erstellen einer neuen Generation intelligenter Anwendungen verwendet werden, die auf dem kollaborativen Charakter von Wikipedia basieren, anstatt auf Domänenontologien, die das Eingreifen von Wissensingenieuren und Domänenexperten erfordern. Zweitens beschreiben wir als Machbarkeitsnachweis eine Anwendung, deren intelligentes Verhalten durch die Verwendung von Wikipedia-Wissen für die automatische Annotation und Darstellung von Multimedia-Präsentationen erreicht wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16793-5_1 d23b0d1765496d4fb37ca160ece8c082;de;;;7.3.;;;Modellgetriebene Entwicklung von Benutzeroberflächen für IoT-Systeme über domänenspezifische Komponenten und Muster Technologien und Anwendungen des Internets der Dinge entwickeln sich weiter und gewinnen in allen Bereichen und Umgebungen, einschließlich Haushalten, Städten, Dienstleistungen, Industrie- und Handelsunternehmen, kontinuierlich an Bedeutung. Allerdings müssen noch viele Probleme angegangen werden. So konzentriert sich die IoT-Vision hauptsächlich auf den technologischen und infrastrukturellen Aspekt sowie auf das Management und die Analyse der riesigen Menge an generierten Daten, während die Entwicklung von Frontend- und Benutzeroberflächen für das IoT bisher keine relevante Rolle gespielt hat bei der Forschung. Im Gegenteil, Benutzeroberflächen können eine Schlüsselrolle bei der Akzeptanz von IoT-Lösungen durch Endanwender spielen. In diesem Papier diskutieren wir die Anforderungen und Nutzungsszenarien, die die Front-End-Aspekte von IoT-Systemen abdecken, und stellen einen modellgetriebenen Ansatz für das Design solcher Schnittstellen vor, indem wir: spezifische Komponenten und Designmuster mithilfe einer visuellen Modellierungssprache für IoT-Anwendungen definieren, beschreiben eine Implementierung der Lösung, die auch die automatische Codegenerierung aus Modellen umfasst, und indem die Lösung bei der Arbeit gezeigt wird.;-;-;-;https://link.springer.com/article/10.1186/s13174-017-0064-1 4da30e142eb871ba82569180f827d8cb;de;;;7.3.;;;Vergangenheit, Gegenwart und Zukunft des Telekommunikationsausbaus: eine historische Perspektive In diesem Kapitel werden die damals neuen Technologien, die jeden Schritt in der Entwicklung von Kommunikations- und späteren drahtlosen Netzwerken ermöglichten, detailliert untersucht, wie diese Netzwerke kommerziell implementiert und eingesetzt wurden und wie sie sich im Laufe der Zeit entwickelten Nun, die Dienste, die jeder Schritt in der Evolution ermöglicht hat. Einige der Schlüsselaspekte, die zur Vision von 6G geführt haben, wurden bereits in Kap.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-69273-5_2 c3817e92caa11bfd58d0d317cf68e80b;de;;;7.3.;;;Verwenden von C# in ASP.NET Zuerst gab es ASP (Active Server Page), dann gab es ASP.NET. Beide können Daten auf HTTP-Anfragen dynamisch bereitstellen, indem sie HTML und ausführbaren Code verwenden, der in die Seiten eingebettet ist. Der ASP.NET-Ansatz ist eine Weiterentwicklung des ursprünglichen ASP-Ansatzes, der das .NET-Framework und insbesondere C# direkt nutzen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0193-2_32 055874d5618f6d0b0b9b83c2b22b7b39;de;;;7.3.;;;Web-adaptives Trainingssystem basierend auf dem kognitiven Schülerstil Dieses Papier präsentiert die Ergebnisse des Projekts „Tapejara“ — Intelligentes Trainingssystem im Internet, ein vom brasilianischen Forschungsrat finanziertes Projekt mit einer Partnerschaft von zwei Universitäten und einem Telekommunikationsunternehmen. Dieses Forschungsprojekt nutzt die kognitiven Lernstile (CLS) der Studierenden, um die Kurspräsentation anzupassen. Der CLS wird von einer Stichprobe von Mitarbeitern von Telekommunikationsunternehmen erworben. Individuelle CLSs werden mit dem Lernverlauf der Schüler korreliert, was eine automatisierte Stilerkennung ermöglicht. Basierend auf der CLS-Identifikation generiert ein intelligenter Agent für jeden Schüler die am besten angepasste Inhaltspräsentation.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35615-0_38 d092ad61263478b8f2a5deb4358610bf;de;;;7.3.;;;Eine vergleichende Studie zu Anomalieerkennungstechniken bei der Erkennung von Website-Defacement Die Verunstaltung von Websites, also das Einführen nicht autorisierter Änderungen an einer Website, ist eine sehr häufige Angriffsform. Die automatische Erkennung solcher Ereignisse ist sehr schwierig, da Webseiten sehr dynamisch sind und ihr Dynamikgrad sowie ihr typischer Inhalt und ihr typisches Erscheinungsbild von Seiten zu Seite stark variieren können. Eine auf Anomalie basierende Erkennung kann eine praktikable und effektive Lösung für diese Aufgabe sein, da sie keine Vorkenntnisse über die zu überwachende Seite erfordert. Diese Studie ermöglicht weitere Einblicke in das Problem der automatischen Erkennung von Web-Defacements. Wir wollen herausfinden, ob bestehende Techniken zur Anomaly Intrusion Detection auf dieses Problem angewendet werden können und wir wollen die Vor- und Nachteile der Einbeziehung von Domänenwissen in den Erkennungsalgorithmus abschätzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09699-5_50 ac899f2189f26d08fd155379c8381bcc;de;;;7.3.;;;PyTHIA: Auf dem Weg zur Anonymität bei der Authentifizierung Es gibt eine Skala zwischen Authentifizierung und Anonymität, die derzeit beim E-Commerce in Richtung Authentifizierung tendiert. Dienstanbieter und Händler verfolgen normalerweise nutzerbezogene Informationen, um Verhaltensprofile ihrer Kunden zu erstellen. Auch Dienstleister und Händler korrelieren solche Profile aus unterschiedlichen Quellen, um ihren Gewinn zu steigern. Diese Korrelation wird normalerweise unter Verwendung von Unified Codes durchgeführt. Authentifizierung, Vertraulichkeit, Integrität, Authentifizierung und Nichtabstreitbarkeit sind notwendige Funktionalitäten, um E-Commerce zu ermöglichen. Die meisten der derzeit verwendeten Mechanismen, die diese Dienste unterstützen, bieten keine Anonymität. Dieses Papier stellt PyTHIA vor, einen Mechanismus, der auf der Verwendung von Message Digest-Algorithmen und der Vermittlung von vertrauenswürdigen Dritten basiert, um E-Commerce-Benutzern, die sich authentifizieren müssen, um auf Dienste zuzugreifen oder Waren von Diensten zu kaufen, Anonymität zu bieten Anbieter und Händler bzw. Mit PyTHIA können sich E-Commerce-Benutzer authentifizieren, ohne persönliche Daten preiszugeben und ohne Unified Codes zu verwenden. Darüber hinaus stellt PyTHIA sicher, dass Dienstleister und Händler einen Kunden effektiv aufspüren können, falls er sich böswillig verhält.;-;-;-;https://link.springer.com/chapter/10.1007/0-306-46998-7_1 d6d06823eadf240a969b3f9bfe8e67d5;de;;;7.3.;;;CS AKTiveSpace: Erstellen einer semantischen Webanwendung In diesem Papier reflektieren wir die Erkenntnisse aus der Bereitstellung der preisgekrönten [1] Semantic Web-Anwendung CS AKTiveSpace. Wir betrachten Fragen der Serviceorientierung und Modularisierung, des Harvesting und des Interaktionsdesigns zur Unterstützung dieser 10-Millionen-Triple-basierten Anwendung. Basierend auf diesen Erkenntnissen erwägen wir die nächsten Schritte für die Anwendung und schlagen eine Strategie zur Erweiterung und Verbesserung der von der Anwendung bereitgestellten Dienste vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-25956-5_29 f04004b1ead2f6d8f71467c66f59d537;de;;;7.3.;;;Fuzzy Web-Surfer-Modelle: Theorie und Experimente In diesem Artikel wird ein neuartiges Web-Surfer-Modell vorgeschlagen, bei dem die Übergangswahrscheinlichkeiten unscharfe Größen sind. Basierend auf der Theorie der Fuzzy-Markov-Ketten führen wir FuzzRank ein, welches das Gegenstück zu PageRank ist. Neben der Diskussion der theoretischen Aspekte von Fuzzy-Surfer-Modellen und FuzzRank haben wir auch dessen Ranking, Konvergenz- und Robustheitseigenschaften mit PageRank verglichen. Umfangreiche Versuchsergebnisse und ein detailliertes Beispiel verdeutlichen die Vorteile von FuzzRank gegenüber PageRank.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77028-2_19 16484acde4331c160521b3835e49538d;de;;;7.3.;;;UbAgent: Eine Middleware-Infrastruktur für mobile Agenten für Ubiquitous/Pervasive Computing Pervasive Computing kann als der Prozess zum automatischen Sammeln, Organisieren, Verarbeiten und Analysieren von Daten zusammengefasst werden, um anspruchsvolle Dienste bereitzustellen, die menschliche Aktivitäten, Erfahrungen, Lernen und Wissen jederzeit, überall und von jedem Gerät aus verbessern und verbessern. Die Middleware-Infrastruktur von UbAgent bietet eine effiziente Möglichkeit, die Back-End-Verarbeitung von Pervasive Computing abzuwickeln: Zugriff auf Informationen aus verteilten Datenbanken, Berechnungsverarbeitung und standortspezifische Dienste. UbAgent ist eine mobile agentenbasierte Middleware für Pervasive Computing. Es baut auf kommerziell erhältlichen mobilen Agentensystemen auf. Die Komponenten der zweiten Ebene sind der TRACKER, ein Standortverwaltungssystem, das Taskhandler-Framework und ein Unified Message System für mobile Agenten. Auf Ebene drei haben wir PaCMAn, einen webbasierten Metacomputer, das DBMS-Agentensystem für verteilte Informationsabfrage und das DVS-System für die Erstellung personalisierter Ansichten. Derzeit beschäftigt sich UbAgent mit dem Backend von Pervasive-Anwendungen, stellt die Dienste bereit und beschäftigt sich nicht mit der realen Benutzeroberfläche, d.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-44999-7_50 4a59e1b123f237a8417e5d3eb168388d;de;;;7.3.;;;Sagen Sie, was Sie wollen, wenn Sie meinen Namen richtig schreiben: die Auswirkungen von Internetrecherchen auf den Finanzmarkt In diesem Papier konzentrieren wir uns auf den Einfluss der Aufmerksamkeit von Investoren auf die Dynamik verschiedener Finanzanlagen. Die Aufmerksamkeit der Anleger wird an der Anzahl der Google-Suchanfragen nach drei Arten von Vermögenswerten gemessen: Aktien, Gold und Kryptowährungen. Wir analysieren den Tagespreis von: dem Standard & Poor’s 500 (S&P 500), dem Russell 2000 Index (RUT), Bitcoin und dem Gold Spotpreis in USD. Die Studie umfasst einen Zeitraum von 5 Jahren: 2013–2018. Den Ergebnissen zufolge reagieren die Preise verschiedener Vermögenswerte unterschiedlich auf Veränderungen der Aufmerksamkeit der Anleger (und umgekehrt), und dieses Verhältnis ändert sich im Laufe der Zeit. Bitcoin scheint am empfindlichsten auf Veränderungen in der Aufmerksamkeit der Anleger zu reagieren, und Veränderungen in seiner Dynamik scheinen die Aufmerksamkeit der Anleger am stärksten zu beeinflussen. Änderungen der Volatilität und des Handelsvolumens von Aktien treten gleichzeitig mit Änderungen des Anlegerinteresses auf. In Zeiten erhöhter Aktienvolatilität können wir jedoch ein erhöhtes Interesse der Anleger an Gold gegenüber jedem anderen Vermögenswert beobachten. Der Goldpreis selbst hat sich als am immunsten gegenüber Veränderungen der Anlegeraufmerksamkeit erwiesen.;-;-;-;https://link.springer.com/article/10.1007/s10100-019-00665-6 f6b7b590818d9cc269250c21713647e3;de;;;7.3.;;;AgOnt: Ontologie für das Internet der Dinge in der Landwirtschaft Jüngste Fortschritte in der Netzwerk- und Sensortechnologie ermöglichen es, verschiedene physische Weltobjekte zu verbinden, um das Internet der Dinge (IOT) zu bilden. Da heute mehr Sensornetzwerke in der Landwirtschaft eingesetzt werden, besteht die Vision, verschiedene landwirtschaftliche IT-Systeme in das landwirtschaftliche IOT zu integrieren. Die zentrale Herausforderung einer solchen Integration besteht darin, mit der semantischen Heterogenität mehrerer Informationsressourcen umzugehen. Das Papier schlägt einen ontologiebasierten Ansatz zur Beschreibung und Extraktion der Semantik landwirtschaftlicher Objekte vor und bietet einen Mechanismus zum Teilen und Wiederverwenden von landwirtschaftlichem Wissen zur Lösung des semantischen Interoperationsproblems. AgOnt, Ontologie für das landwirtschaftliche IOT, basiert auf landwirtschaftlichen Terminologien und den Lebenszyklen einschließlich Saatgut, Getreide, Transport, Lagerung und Verbrauch. Gemäß diesem einheitlichen Metamodell können heterogene landwirtschaftliche Datenquellen nahtlos integriert und abgerufen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18333-1_18 e9458bea14c150344d992f213a155000;de;;;7.3.;;;Die Organisation und das Geschäftsmodell einer virtuellen Software-Community in China Mit der zunehmenden Verbreitung der Kommunikation zwischen vernetzten Computern erkennen Wissenschaftler und Praktiker gleichermaßen den Mehrwert internetbasierter technischer Foren, um die Arbeit in verteilten Gemeinschaften (Hildreth und Kimble, 2000) und Praxisnetzwerken (Brown und Duguid, 2001) zu ermöglichen. Insbesondere China ist ein interessantes Umfeld, um die Bedeutung und Rolle spezialisierter Fachforen für die Softwareentwicklung über die Firmengrenzen hinaus zu erkunden. Internetdienstanbieter richten private technische Foren ein und Softwareingenieure schließen sich freiwillig solchen virtuellen Gemeinschaften an, um Informationen und Wissen auszutauschen. Die Organisation und das Geschäftsmodell solcher Foren haben jedoch bisher nur wenig Forschungsinteresse geweckt. Anhand eines Fallstudienansatzes stellen wir in diesem Papier die Organisation und das Geschäftsmodell von China Software Developer Net vor, einer der erfolgreichsten Internet-Engineering-Communitys in China mit mehr als achthunderttausend Mitgliedern im Jahr 2004. Wir diskutieren auch, wie das Systemdesign und die Geschäftsmodell des CSDN-Dienstanbieters hat dazu beigetragen, eine nachhaltige verteilte Gemeinschaft und ein Netzwerk von Praktiken aufzubauen und eine dynamische Kultur zu schaffen, um den Informations- und Wissensaustausch weit über die Unternehmensgrenzen hinaus auszudehnen.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-29360-4_43 2a741d5d5eb1a75504cee21b84a9bd43;de;;;7.3.;;;Eine Serviceplattform für Internet-Telekom-Dienste mit SIP Dieses Papier schlägt die Einführung einer Serviceplattform für die Erstellung, Ausführung und Verwaltung von Multimediadiensten in heterogenen Netzen vor. Anhand der Business-Rollen werden die Akteure in der Service-Plattform identifiziert. Darüber hinaus werden einige gängige Bausteine ​​zur Entwicklung von Diensten für das Internet beschrieben und ein kurzer Überblick über einige moderne Technologien für eine objektorientierte, komponentenbasierte, verteilte Plattform für Multimediadienste gegeben. Das Session Initiation Protocol (SIP) wurde als sehr nützlich identifiziert, um alle Funktionen gemäß dem Multimedia-Teil der Plattform zu implementieren. Die Nutzung der PARLAY API als offene Schnittstelle zwischen den Platform Services und SIP, dem PSTN oder dem Mobilfunknetz bietet viele weitere Vorteile. Das Interworking zwischen SIP und PARLAY wird in einem Call-Routing-Beispiel gezeigt. Außerdem wird der Anrufaufbau für eine Multimedia- (z.B. Video-)Konferenz erklärt. Dies sollte die Nützlichkeit und Fähigkeit dieses Protokolls zur Einführung eines Sitzungskonzepts demonstrieren. Abschließend wird ein Ausblick auf offene Forschungsthemen zu diesem Konzept gegeben sowie ein kurzer Überblick über verwandte Arbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35522-1_4 a5f53e7db12d32c755ead20d234e603b;de;;;7.3.;;;Erstellen von HyperView-Wrappern für Publisher-Websites Elektronische Zeitschriften werden zu einer wichtigen Quelle wissenschaftlicher Informationen. Forscher, die sich nur für bestimmte Themen interessieren, haben keine Zeit, alle möglicherweise relevanten Zeitschriften regelmäßig zu durchsuchen. Eine digitale Bibliothek kann sie unterstützen, indem sie eine einheitliche, durchsuchbare Schnittstelle für elektronische Zeitschriften bereitstellt. Zu diesem Zweck muss von der Digitalen Bibliothek ein Katalog von Metadaten zu den verfügbaren Zeitschriften wie Autoren und Titel von Artikeln erstellt werden. Wenn keine Kooperation mit Zeitschriftenverlagen besteht, müssen diese Metadaten aus den Websites der Verlage extrahiert werden, um die intrinsischen Heterogenitätsprobleme zu überwinden. Im Rahmen des laufenden Naturwissenschaftlichen Digitalen Bibliotheksprojekts DARWIN an der Freien Universität Berlin haben wir einen Wrapper-Mediator-Mechanismus entwickelt, der die Heterogenitätsproblematik der automatischen Metadatenerfassung bewältigt. Es basiert auf unserer generischen HyperView-Methodik zur Integration von Websites. Diese Methodik unterscheidet sich von Ad-hoc-Lösungen durch zwei elegante und effektive Eigenschaften. Zunächst wird die Struktur der Publisher-Site mit abstrakten Graph-Schemata spezifiziert, anstatt in Skripten zur Datenerfassung fest codiert zu sein. Zweitens wird ein leistungsfähiges Ansichtskonzept basierend auf deklarativen Graphtransformationsregeln zur Informationsextraktion verwendet. Dieses Ansichtskonzept betrachtet die aus einer Website extrahierten Informationen als einen virtuellen Graphen, der beim Durchlaufen materialisiert wird. Durch die Verwendung der HyperView-Methodik wird der Aufwand für das Wrapping einer Website erheblich reduziert. Dies ist aufgrund der Anzahl der an unserem Projekt beteiligten Herausgeber-Websites und der Notwendigkeit, Wrapper an die strukturelle Entwicklung dieser Sites anzupassen, wichtig.;-;-;-;https://link.springer.com/article/10.1007/PL00021472 e86d29ae558689b1118ea1616ab19869;de;;;7.3.;;;Erhöhung der Breitbandabonnements für Telekommunikationsanbieter durch mobile Werbung Mobile Geräte sind beliebt. Allerdings machen mobile Breitbandabonnements aufgrund des hohen Zahlungsbedarfs für Breitbandabonnements 20 Prozent der Mobilfunkabonnements aus. Andererseits werden die US-amerikanischen Ausgaben für mobile Werbung laut emarketer.com im Jahr 2011 1 Milliarde US-Dollar überschreiten. Daher ist es wichtig, Breitbandabonnenten durch Bereitstellung kostenloser oder ermäßigter Gebühren durch die Bereitstellung eines mobilen Werberahmens durch das Telekommunikationssystem zu erhöhen. Die Telekommunikation betreibt eine Werbeagentenplattform, um Investitionen von Werbetreibenden anzuziehen. Abonnenten lesen Werbeanzeigen, um eine ermäßigte Zahlung zu erhalten. Während die Werbetreibenden einen angemessenen Preis für die Werbung zahlen, bringen die möglichen kommerziellen Aktivitäten Einnahmen. Als Ergebnis ist dieses Framework ein dreifacher Gewinn für Telekommunikation, Werbetreibende und Abonnenten. Wir beschreiben einen Rahmen, um dem idealen Abonnenten geeignete Anzeigen zum idealen Zeitpunkt am idealen Ort zu liefern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25631-8_12 8e17ad8b8a092d33e8d6cbd5710f662e;de;;;7.3.;;;Studie zur Auswahl von Webtext-Features basierend auf einem groben Set Dieses Papier verwendet das Vektorraummodell als Beschreibung des Webtextes, analysiert die Eigenschaften der in HTML geschriebenen Webseiten und verbessert die traditionelle Formel von TF-IDF. Die Merkmalsgewichtung wird gemäß dem Begriff Position im Dokument berechnet. Darüber hinaus wird ein Textklassifikationssystem basierend auf dem Vektorraummodell untersucht. In dem Artikel werden Merkmalsauswahl und Textklassifizierung verbunden und Merkmalsbegriffe werden abhängig von der Bedeutung des Begriffs für die Klassifizierung ausgewählt. Experimente zeigen, dass dieses Verfahren die Klassifizierungsgenauigkeit effektiv verbessern kann. Es kann nicht nur die Dimension des Merkmalsraums reduzieren, sondern auch die Genauigkeit der Klassifizierung verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31588-6_6 2d89ebf23711be2f8051a7fdae87018e;de;;;7.3.;;;Software-Engineering-Probleme für Network Computing Das Internet wird zur Infrastruktur, auf der immer mehr neue Anwendungen entwickelt werden. Mit diesen Anwendungen können neue Dienste bereitgestellt und sogar neue Geschäftsfelder erschlossen werden. Das Wachstum internetbasierter Anwendungen war eine der bemerkenswertesten technologischen Errungenschaften der letzten Jahre. Dieses Wachstum birgt jedoch einige Risiken. Schnelle Entwicklung und verkürzte Time-to-Market waren wahrscheinlich die wichtigsten Anliegen der Anwendungsentwickler. Daher gehen diese Entwicklungen ohne einen disziplinierten Ansatz vonstatten. Wir argumentieren, dass die daraus resultierenden Anwendungen zu den Legacy-Systemen der nahen Zukunft werden werden, wenn die Qualität dieser Systeme verbessert werden muss, gleichzeitig aber Änderungen auf wirtschaftliche und zuverlässige Weise schwierig sein werden. In diesem Beitrag diskutieren wir die Notwendigkeit eines Software-Engineering-Ansatzes für die Entwicklung von Netzwerkanwendungen. Insbesondere diskutieren wir eine mögliche Forschungsagenda für die Software-Engineering-Forschung, indem wir zwei spezifische Bereiche betrachten: das World Wide Web und Anwendungen, die auf mobilem Code basieren.;-;-;-;https://link.springer.com/chapter/10.1007/10692867_7 2c586995ad3f1e5beecc54f7d15cc1c8;de;;;7.3.;;;Nur geschäftlich – sollten wir nicht ein bisschen Spaß haben? Die Informationstechnologie hat unser Leben und unsere Gesellschaft bereits so stark verändert, dass selbst unsere Visionen ohne Technologie und ihre Anwendungen nicht existieren können. Und dieser Wandel beschleunigt sich. Das Web und das damit verbundene E-Commerce-Phänomen – als webbasierter E-Commerce – ist nur das „neueste“ Beispiel für diese Entwicklung. Aber beim E-Commerce sollten wir zwei Dinge unterscheiden: die (heute enttäuschten) Erwartungen mit dem damit verbundenen „Hype“ und das, was wirklich passiert. Dies wirft jedoch einige ernsthafte Schwierigkeiten auf: das Problem, den aktuellen Entwicklungsstand zu identifizieren, die Definition der Phänomene, über die wir sprechen, und schließlich, was dies für die (nahe) Zukunft bedeutet. Somit wirft dieser Beitrag mehr Fragen auf, als Antworten zu geben. Als Beispiel nehme ich dabei die Reise- und Tourismusbranche. Und das unterstreicht einen wichtigen Aspekt, den wir nicht vergessen sollten: Spaß.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44700-8_1 1847e80fb2273a69876a4c7657d413f1;de;;;7.3.;;;Blogs und Microblogging In diesem Kapitel werden hauptsächlich das Konzept, die Charakteristika und die Fälle des Blogs und Weibo, das von Weibo hervorgebrachte Thema der Informationskokons, diskutiert und besonderes Augenmerk auf die Studien zu den Erzeugungs-, Expansions- und Evolutionsgesetzen öffentlicher Meinungen zu Weibo in China gelegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-0914-4_6 67f8d0fc4a4576ccac5393a1d3f45bb0;de;;;7.3.;;;Messung der Erlebnisqualität des Internetzugangs über HSDPA High-Speed ​​Downlink Packet Access (HSDPA) wird von Mobilfunkbetreibern als Lösung sowohl zur Erhöhung des Downlink-Durchsatzes als auch zur Erzielung einer effizienteren Nutzung der Funkressourcen eingeführt. Diese Arbeit analysiert die Erfahrungsqualität von HSDPA-Benutzern, basierend auf Experimenten und Messungen über ein kommerzielles Netzwerk. Der Effekt, dass sich mehrere Benutzer die Gesamtkapazität der Zelle teilen, wird explizit bewertet. Die Ergebnisse zeigen, dass die HSDPA-Benutzererfahrung für den Internetzugang zufriedenstellend und in einigen Fällen mit der über Festnetzzugangstechnologien wie ADSL vergleichbar ist. Darüber hinaus untersuchen wir den Einfluss der TCP-Konfiguration auf die HSDPA-Leistung und schlagen geeignete Parameterwerte vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-84839-6_18 0c1f1048972a91eb5465c82aa562bad1;de;;;7.3.;;;Die Rolle von Online-Sozialkapital in der Beziehung zwischen Internetnutzung und Selbstwert Diese Studie untersucht die Auswirkungen des Internets auf das Selbstwertgefühl aus der Perspektive des Sozialkapitals. Basierend auf einer Umfrage unter 800 Bachelor-Studenten aus China stellen wir fest, dass das Surfen auf Webseiten und die Nutzung von E-Mails keine positiven Auswirkungen auf die Bildung von Online-Sozialkapital haben, während die Nutzung sozialer Medien signifikante Auswirkungen hat. Alle vier in dieser Studie untersuchten Arten der Internetnutzung korrelieren nicht signifikant mit dem Selbstwertgefühl. Die Ergebnisse liefern stützende Belege für einen indirekten Effekt der Internetnutzung auf das Selbstwertgefühl der Menschen. Durch Online-Interaktionen generiertes Sozialkapital verbessert das Selbstwertgefühl. Die vorliegende Studie trägt zur Diskussion über die potenziellen Vorteile von Online-Sozialkapital für die psychische Gesundheit bei und hebt die Online-Interaktionen hervor, die ebenso wichtig sind wie die persönlichen Interaktionen, was für diejenigen nützlich ist, die webbasierte Interventionen entwerfen.;-;-;-;https://link.springer.com/article/10.1007/s12144-019-0149-z 1ead39ad572810b6c1bdbcbc82dd5bba;de;;;7.3.;;;Auf dem Weg zur Verbesserung der Websuche: Eine groß angelegte explorative Studie zu ausgewählten Aspekten des Nutzersuchverhaltens In letzter Zeit hat das Web dramatische Auswirkungen auf unser Leben gehabt und ist für viele Menschen zu einer Hauptinformationsquelle geworden. Wir glauben, dass die kontinuierliche Untersuchung der Benutzerbedürfnisse und ihres Suchverhaltens ein notwendiger Schlüsselfaktor ist, damit eine Technologie mit den gesellschaftlichen Veränderungen Schritt halten kann. In diesem Papier berichten wir über die Ergebnisse eines groß angelegten Online-Fragebogens, der durchgeführt wurde, um zu untersuchen, wie Nutzer das Web durchsuchen und welche Bedürfnisse sie haben. Wir haben die Ergebnisse anhand der Attribute der Befragten wie Alter und Geschlecht analysiert. Die Ergebnisse sollten als Hypothesen für weitere systematische Studien betrachtet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04409-0_38 59f9aada1baafbb29b93b85afe290c16;de;;;7.3.;;;"Forschungen zum digitalen Designsystem des Reisanbaus basierend auf Web- und Simulationsmodellen Um das Web mit der Pflanzenwachstumssimulation und dem Entscheidungsunterstützungssystem zu integrieren, wurde 2005 im Experimentierbereich der Jiangsu Academy of Agricultural Sciences ein Feldversuch mit verschiedenen Basalniveaus durchgeführt, bei dem 4 Sorten wie ""Wuyungeng 7"", ""Yangdao 6"" angenommen wurden “, „Yueyou 948“ und „Nangeng 41“, die hauptsächlich zum Sammeln von Sortenparametern und zum Aktualisieren der Datenbank verwendet wurden. Die Datenbank der Reissorten, Boden- und Wetterdaten wurde mit SQL Server 2000 entwickelt. Die Seiten des digitalen Entwurfssystems des Reisanbaus basierend auf dem Web- und Simulationsmodell (DDSRCBWSM) wurden mit Visual Studio.Net entworfen, das Register, die Hauptseite, enthielt , Sortenparameterverwaltung, Standortdatenverwaltung, Parameteranpassung, Entscheidungsfindung für den Reisanbau und so weiter. Das DDSRCBWSM entspricht den TCP/IP-Vereinbarungen, die auf dem Server (IIS5.0) installiert und ausgeführt werden und im Internet durchsucht werden können. , kombinierte Webtechniken mit der Erforschung von Reiswachstumsmodellen, richtete das Websystem von RCSODS ein, ließ Agrartechniker der Hauptreisproduktionsregion Chinas Optimierungsfälle vor der Aussaat und Reismanagementvorschläge des laufenden Jahres mit dynamischen, Ziel- und digitalen Merkmalen gewinnen Übereinstimmung mit Boden-, Sorten- und Wetterbedingungen online, und um technische Anweisungen durch viele Arten wie Papier, Internet, E-Mail, Fernsehen, Wandzeitung usw.";-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-77253-0_41 fc806a645e5c1a90e5568b5f3456d613;de;;;7.3.;;;Heterogene Matchmaking-Ansätze zur Semantic Web Service Discovery mit OWL-S Serviceorientiertes Computing hat im letzten Jahrzehnt eine entscheidende Rolle bei der Entwicklung von serviceorientierten verteilten Computersystemen gespielt. Webdienste sind wiederverwendbare Softwarekomponenten im Web, die erkannt, abgerufen und aufgerufen werden können. Mit zunehmender Bedeutung von semantischen Webdiensten liegt eine herausfordernde Aufgabe bei dieser Domäne darin, heterogene Schnittstellen zu entdecken, zu erstellen und dann aufzurufen. Matching-Algorithmen gelten als grundlegender Ansatz, um lose gekoppelte Internet-Registry-basierte Webdienste zu entdecken, aber Algorithmen, die basierend auf der Semantik der Abfrage übereinstimmen, sind begrenzt. Graphbasierte, logikbasierte und viele andere Techniken wurden eingeführt, um die Aufgabe zu erfüllen. Dieses Paper betitelt einen Überblick über verschiedene Matchmaking-Ansätze zur semantischen Webservice-Erkennung mit OWL-S.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27443-5_70 8f97e1c2f943a37584bb32253e3d8ee4;de;;;7.3.;;;Eine selbstanpassende Strategie für Web-Crawler in der In-Site-Suche Dieses Papier analysiert einige Merkmale der In-Site-Suche und schlägt eine selbstanpassende Strategie für Webcrawler vor. Diese Strategie ist höflich und die Anzahl der gleichzeitigen Threads wird automatisch entsprechend den Analysen der durchschnittlichen Downloadzeit der Seiten in verschiedenen Zeiteinheiten angepasst. Einige Faktoren wie Webserverlast und Netzwerkbandbreite werden synthetisch berücksichtigt. Die experimentellen Ergebnisse zeigen, dass unsere Strategie eine höhere Leistung erzielen kann als einige andere Strategien. Es spiegelt objektiv den praktischen Crawling-Kurs von Webcrawlern wider und nutzt lokale und Netzwerkressourcen vollständig aus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33469-6_74 7b8ce98b090259a5d6eea54ec7fa0dc4;de;;;7.3.;;;Vertrauenswürdiger opportunistischer Zugang zum Internet der Dienste Heutzutage durchdringen Webdienste das Netzwerkerlebnis der Benutzer. Tatsächlich bestehen die meisten unserer Aktivitäten über das Internet darin, auf Remote-Dienste zuzugreifen und mit ihnen zu interagieren. Dies kann natürlich nur passieren, wenn zwei Elemente verfügbar sind: (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36818-9_52 a5cbb978411ec8b16c2aa31eac93d29e;de;;;3.4.;;;Einführungspraktiken und die kontinuierliche Wiederherstellung des organisatorischen Gedächtnisses Der Forschung zum Organisationsgedächtnis (OM) fehlt eine dynamische Perspektive, die zeigt, wie OM im Laufe der Zeit ständig neu erstellt und umgesetzt wird. In diesem Papier beabsichtigen wir, diese Forschungslücke zu schließen und OM mit Wissen über Personaleinführung und organisatorische Erholung zu integrieren. Wir bieten eine theoretische Analyse der kontinuierlichen Neuerstellung des OM eines Unternehmens, indem wir uns auf die Mitarbeitereinführung aus einer OM-Perspektive konzentrieren. Die Mitarbeitereinführung dient dazu, Neuankömmlingen zu ermöglichen, Teile der Wissensbasis des Unternehmens zu erlernen, mit dem Ziel, nach den Standards des Unternehmens zu handeln. Wir tragen zur bestehenden Forschung bei, indem wir den kontinuierlichen Erholungsmodus von OM (Anpassungsdruck, demonstratives Lernen und Wissensvermittlung) erklären. Darüber hinaus beschreiben wir die Integration in organisatorische Routinen, indem wir das Erlernen der Wissensarchitektur des Unternehmens durch den Praktikanten betonen, um technisches, soziales und kulturelles Wissen sinnvoll zu integrieren. Schließlich untersuchen wir die Rolle einer kontrollbasierten und einer Commitment-basierten HRM-Strategie zur Steuerung der Personaleinarbeitung, wobei der Hintergrund des Hintergrundwissens des Neuankömmlings und der Versuch, von den Neuzugängen zu lernen, entscheiden, ob ein kontrollbasierter Ansatz (Wissenstransfer von der Firma bis zum Eingestellten) oder ein verpflichtungsbasierter Ansatz (auch neue Ideen von Neuankömmlingen aufgreifen).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-8856-0_2 54c791fa9b880f25361570839d121a4a;de;;;7.3.;;;Tourismus Branding, Identität, Reputation Co-Creation und Mundpropaganda im Zeitalter der sozialen Medien Entwicklungen in den Informations- und Kommunikationstechnologien (IKT) haben die operativen und strategischen Praktiken von Organisationen auf globaler Ebene verändert und die Wettbewerbsfähigkeit von Unternehmen und Regionen auf der ganzen Welt verändert (Buhalis and Law, 2008). E-Tourismus, definiert als die Anwendung von IKT auf die Tourismusbranche, hat das strategische und operative Management von Tourismusorganisationen und -destinationen dramatisch beeinflusst (Buhalis, 2003). Das Internet hat es Unternehmen ermöglicht, ihren Kundenstamm zu erweitern, um die Weltbevölkerung kostengünstig abzudecken. Tourismusbezogene Branchen wie Fluggesellschaften und Hotelketten können auf internationale Kunden zugreifen und die Tools entwickeln, um auf Knopfdruck Immobilien auf der ganzen Welt zu verwalten (Egger und Buhalis, 2008). Auch kleine Unternehmen können erstmals ihre „virtuelle Größe“ entwickeln und ihre Dienstleistungen globalen Märkten anbieten (O’Connor, 1999, Spencer, Buhalis und Moital, 2012). Tourismusunternehmen erkennen die Bedeutung von Technologien in ihrem Bereich und erkennen an, dass das Management ihrer ganzheitlichen Online-Präsenz eine Voraussetzung für den Erfolg ist (Inversini, Brülhart und Cantoni, 2011). Darüber hinaus stellen Social Media und Web 2.0 seit 2005 eine Gruppe von internetbasierten Anwendungen zur Verfügung, die die Erstellung und den Austausch von nutzergenerierten Inhalten ermöglichen (UGC – Kaplan und Haenlein, 2010).;-;-;-;https://link.springer.com/chapter/10.1057/9781137354358_2 3f4b9d3a689f35eae1d4f81e81c6d407;de;;;7.3.;;;AUSWIRKUNGEN DER GEMEINSCHAFTSSTRUKTUR AUF SUCHE UND RANKING IN KOMPLEXEN NETZWERKEN Die Community-Struktur in komplexen Netzwerken ist ein beliebtes Thema in der neueren Literatur. Es ist in allen Arten komplexer Netzwerke vorhanden, von biomolekularen Netzwerken, in denen es funktionelle Assoziationen zwischen Proteinen widerspiegelt, bis hin zu Informationsnetzwerken wie dem World Wide Web (WWW). Das World Wide Web – ein typisch großes komplexes Netzwerk – stellt eine enorme Herausforderung für die effiziente Informationsbeschaffung und das Ranking dar. Seine aktuelle Position als weltweit beliebteste Suchmaschine hat Google durch die effiziente und ausgeklügelte Nutzung topologischer Eigenschaften dieses WWW-Netzwerks für das Ranking einzelner Webseiten erreicht. Die topologische Struktur des WWW-Netzwerks zeichnet sich durch eine starke Community-Struktur aus, in der Gruppen von Webseiten (z. Wir untersuchen, wie sich eine solche Netzwerkarchitektur auf das durchschnittliche Google-Ranking einzelner Webseiten in der Community auswirkt. Wir zeigen, dass der Google-Rang von Community-Webseiten mit der Dichte der Inter-Community-Links je nach dem genauen Verhältnis zwischen durchschnittlichen Ein- und Ausstiegsgraden in der Community entweder steigen oder sinken kann.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-5030-5_2 e1bb0225cd20d0ea0ec9a5ee8f87a0cb;de;;;7.3.;;;Definition der Sprachen XML und RDF des Semantic Web in der Metasprache normaler Wissensformen Dieser Artikel präsentiert formale Textbeschreibungen der problemorientierten Sprachen XML und RDF, die die Basissprachen des Semantic Web sind. Die Verfügbarkeit solcher Beschreibungen garantiert die Implementierbarkeit der Sprachen XML und RDF unter Verwendung eines Interpreters der Metasprache normaler Wissensformen (NFK). Es wird gezeigt, dass die Ausdruckskraft der NFK-Metasprache bei der Beschreibung der Syntaxen dieses Sprachenpaares durchaus mit der Ausdruckskraft von EBNF vergleichbar ist.;-;-;-;https://link.springer.com/article/10.1007/s10559-017-9970-2 79b88c2af166b84e3d1c84c8ff2fb02a;de;;;7.3.;;;Soziale Netzwerke: Vom Web zum Wissensmanagement Das Studium des Webs als Netzwerk hat zu einem besseren Verständnis der Soziologie der Erstellung von Webinhalten geführt. Dies hat sich in hochpräzisen Suchmaschinen und effektiveren Algorithmen für das Data-Mining im Web ausgezahlt. Der Großteil dieses Kapitels ist der Überprüfung der Forschung in diesem Bereich im breiteren Kontext sozialer Netzwerke gewidmet. Wir weisen darauf hin, dass das breitere Umfeld viel versprechend ist, um eine Vielzahl von Problemen im Wissensmanagement anzugehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-05320-1_17 24634ecc48b3f762c882cd8d96542c19;de;;;7.3.;;;Das Web als globale Computerplattform Das aktuelle Modell des World-Wide Web, oder kurz Web, bietet eine begrenzte Unterstützung für Computerressourcen. Im aktuellen Modell können Rechenressourcen in zwei Ströme eingeteilt werden: serverseitiges und clientseitiges Computing. Die Common Gateway Interface (CGI)-Skripte sind Beispiele für serverseitiges Computing und Applets sind Beispiele für clientseitiges Computing. In diesem Papier weisen wir auf die Grenzen des Webs für global verteiltes Rechnen hin und diskutieren unser System, das darauf abzielt, dem Web Computerressourcen hinzuzufügen. In unserem vorgeschlagenen System können Clients Code auf entfernte und möglicherweise leistungsstärkere Maschinen hochladen, auf denen webbasierte Rechenserver den Code ausführen und die Ergebnisse an die Clients zurückgeben. Um Clients bei der Suche nach Rechenservern zu unterstützen, besprechen wir unser Design eines Brokersystems, das für die automatische Zuweisung von Rechenservern an Clients verantwortlich ist.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0100589 fb184cd9b4d50e8a046190c473483885;de;;;7.3.;;;Kartenbasierte Bereichsabfrageverarbeitung für geografische Websuchsysteme Um geografische Webinformationen für digitale Stadtanwendungen zu nutzen, haben wir ein geografisches Websuchsystem, KyotoSEARCH, entwickelt. Wenn Benutzer geografische Informationen im Web abrufen, ist die Angabe des geografischen Standorts eine wesentliche Funktion. Die meisten aktuellen Websuchsysteme nutzen Standortinformationen jedoch nicht ausreichend gut, um die Absichten des Benutzers zu identifizieren, verfügbare Verfahren verwenden nur Schlüsselwörter (für Standortnamen) und eingeschränkte Kartenfunktionen. Darüber hinaus werden die meisten Kartenschnittstellen verwendet, um eine bestimmte geografische Hierarchieebene auszuwählen oder auf einen bestimmten Standort zu verweisen (manchmal mit Angabe eines Radius). In diesem Artikel stellen wir die zweidimensionale Bereichsabfrageverarbeitung für die geografische Websuche vor, bei der Benutzer ein geografisches Gebiet frei auf einer Kartenoberfläche angeben können. Um solche Bereichsabfragen schneller und effizienter zu bearbeiten, verwenden wir geometrische Operationen, um die richtigen Webseiten abzurufen. Ohne Optimierungstechniken werden die Wiedererkennung und die Genauigkeit der Suchergebnisse jedoch sehr gering. Hauptprobleme entstehen durch eine fehlerhafte Erweiterung des berechneten geographischen Gebiets aufgrund von i) gleichen Namen für verschiedene geographische Objekte/Standorte (Geowörter), ii) redundanten geographischen Hierarchieinformationen und iii) der Existenz unwichtiger Geowörter. Durch die Behebung dieser Probleme können wir die Verarbeitung von Bereichsabfragen für geografische Daten verbessern. Zu diesem Zweck schlagen wir eine effektive Methode zur Optimierung des geografischen Umfangs vor, die geometrische Operationen bei der geografischen Websuche unterstützt, und es werden Experimente beschrieben, die an einem implementierten System durchgeführt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/11407546_15 657add704ed9c9189ada20c80899ac23;de;;;7.3.;;;Semantische Webarchitektur Das Semantic Web erweitert das bestehende Web um eine Vielzahl von Sprachstandards und Softwarekomponenten, um Menschen und Maschinen direkten Zugriff auf Daten zu ermöglichen. Das Kapitel beginnt mit der Ableitung der Architektur des Semantic Web als Ganzes aus den ersten Prinzipien, gefolgt von einer Präsentation von Webstandards, die dem Semantic Web zugrunde liegen, die für die Veröffentlichung, Abfrage und Argumentation von Daten verwendet werden. Darüber hinaus identifiziert das Kapitel funktionale Softwarekomponenten, die erforderlich sind, um Fähigkeiten und Verhalten in Anwendungen zu implementieren, die semantische Webinhalte veröffentlichen und konsumieren.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-540-92913-0_2 48a2279312c21497d7de739c0a26dc77;de;;;3.4.;;;Label versus Position in Bewertungsskalen Die aktuelle Studie ist aus zwei Gründen wichtig: Erstens zeigt sie ein Verfahren auf, um sowohl die Label- als auch die Positionseffekte in Ratingskalen zu isolieren. Darüber hinaus deutet dies darauf hin, dass die Probanden eher auf die tatsächlich verwendeten Adjektive als auf ihre Positionen relativ zu den Endpunkten zu reagieren scheinen. Weitere Untersuchungen sollten durchgeführt werden, um die relative Bedeutung von Label- und Positionseffekten in Bewertungsskalen zu bestimmen, wobei andere Fächer als Schüler verwendet werden. Da ein Großteil der Forschung die Verwendung von Bewertungsskalen beinhaltet, ist dies sicherlich ein wichtiger Bereich, der erheblich mehr Untersuchungen erfordert.;-;-;-;https://link.springer.com/article/10.1007/BF02723568 15f9ea89efcc03d6febd74ca359ff826;de;;;7.3.;;;Bewertung der rechtlichen Risiken bei netzwerkforensischen Sondierungen Dieses Papier stellt einen Rahmen zur Identifizierung der rechtlichen Risiken vor, die mit der Durchführung von Netzwerkforensik in öffentlichen Netzwerken verbunden sind. Der Rahmen wird im Zusammenhang mit dem Gnutella P2P-Netzwerkprotokoll diskutiert, für das die rechtlichen Fragen im Zusammenhang mit dem autorisierten Zugriff noch nicht behandelt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04155-6_19 cd7336d7c226f0065365a2cd551f8900;de;;;7.3.;;;Entwicklung und Vorhersageanalyse der Plattform des Drug Delivery Systems basierend auf Web Die rasante Entwicklung der Netzinformationstechnologie hat das interne und externe Informationsumfeld der Bibliothek stark verändert. Die Bibliothek und der Informationsraum des Shanghai Institute of Pharmaceutical, Chinese Academy of Sciences, entwarfen und implementierten eine webbasierte Plattform für die Arzneimittelverabreichung, indem sie die neue Architektur von „einem Hintergrund mit mehreren Rezeptionen“, B/s-Mehrschichtsystem, Struts . übernahmen + Spring + Hibernate Open Framework und andere moderne Informationstechnologien. Gleichzeitig bietet es mehr als 100 pharmazeutischen Unternehmen und Institutionen im Zhangjiang Pharmaceutical Valley in Pudong umfassende, mehrstufige und hochwertige Literaturinformationen und professionelle Arzneimittelabgabedienste.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-70042-3_30 b39cf53d7aa03da7884d8252b71f16b7;de;;;7.3.;;;Ein neuronaler Netzwerkansatz für die Verarbeitung von Webgraphen In diesem Artikel geben wir einen Überblick über einige der neueren Entwicklungen in der Webgraph-Verarbeitung unter Verwendung der klassischen Google-Seitenranggleichung, wie sie von Brins und Page [1] populär gemacht wurde, und ihrer Modifikationen, um den Seitenrang und personalisierte Seitenrangbestimmungen zu handhaben . Es wird gezeigt, dass man die stochastische Gleichung mit linearer Matrix, die den Google Page-Rank-Bestimmungen [1] zugrunde liegt, progressiv zu einer modifizieren kann, die Formulierungen neuronaler Netzwerke enthalten kann. Darüber hinaus wird die Fähigkeit dieser Modifikationen zur Ermittlung personalisierter Page Ranks anhand einer Reihe von Beispielen anhand des Web-Repository WT10G demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-31849-1_4 d44c9c643d1da50191a0c85eee2f1b27;de;;;7.3.;;;Ein dynamisches Kontrollsystem zur Anpassung von Preisen und Servicequalität in DS-fähigen Netzwerken In den für differenzierte Dienste (DS) aktivierten Netzen schließen Internetdienstanbieter (ISPs) mit ihren Kunden Service Level Agreements (SLAs) ab. Die Preise der SLAs und die Qualität der Datenübertragungsdienste sollten den Anforderungen der Kunden und den Betriebszielen der ISPs entsprechen. Aus diesem Grund sollten IP-Domains der ISPs ein Kontrollsystem zur Festlegung der Verkaufspreise der SLAs und DS-Dienste enthalten, die für die Datenflüsse der SLAs verwendet werden. Das Steuerungssystem sollte sowohl die Anforderungen der Kunden als auch die Qualität der End-to-End-Datenübertragungsdienste dynamisch berücksichtigen. Diese Aufgabe ist komplex, da die Kunden und Betreiber anderer Netze den ISPs möglicherweise keine nützlichen Informationen für die Kontrollaufgabe geben. Aus diesem Grund wird ein neues Fuzzy-Controller-basiertes Regelsystem entwickelt. Das System arbeitet mit lokalen Messungen von Ingress-Router von IP-Domänen über das Verhalten der Kunden. Es erfragt nicht die Zufriedenheit der Kunden mit angebotenen Datenübertragungsdiensten oder Kapazitäten von Netzen anderer Betreiber. Der Betrieb des Leitsystems wird mit dem Network Simulator 2 getestet.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35620-4_20 283b55104b46636f3a64fc8dbe566b8f;de;;;7.3.;;;XML wecken die Revolution der WEB-Architektur In diesem Beitrag wird ein brandneues Webarchitekturmodell basierend auf XML vorgestellt. Zunächst wird ein offenes Browser-Framework bereitgestellt, das durch Anschließen einer Browser-Erweiterung einfach eine neue XML-basierte Auszeichnungssprachenunterstützung hinzufügen kann. In diesem Framework verwenden wir die Browsererweiterung, um über die DOM-Schnittstelle auf das XML-Dokument zuzugreifen und die visualisierte Seite über die VPOM-Schnittstelle (Visualized Page Object Module) zu manipulieren. Andererseits sollte zur Unterstützung der Client-Anforderung ein XML-Repository erstellt werden. Es kann die Speicherung/Zugriff auf XML-Objekte verwalten sowie XML-Abfragen mit hoher Leistung unterstützen. Dieses Repository sollte in der Lage sein, mit anderen Repositorys zusammenzuarbeiten, die unserem Standard für Repository-Zugriffsschnittstellen entsprechen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-46652-9_52 6efb428cc6784546bbe67b5aba312c57;de;;;7.3.;;;Neue Medien und Perspektiven der Demokratisierung Neue Medien beeinflussen die Demokratisierung im Nahen Osten, insbesondere in ihrer transnationalen Wirkung. Dieser „Al-Jazeera-Effekt“ ist ein relativ neues Phänomen, kann jedoch mit der Zunahme der Zahl der regionalen Satellitenfernsehsender und der Verbreitung anderer neuer Kommunikationstechnologien wie Internet und Mobiltelefone an Bedeutung gewinnen. Kommunikations- und Informationstechnologien können wirksame Instrumente zur Förderung der politischen Transformation sein, obwohl sie in unterschiedlichem Maße von politischen Institutionen und anderen nicht-medialen Faktoren abhängig sind.;-;-;-;https://link.springer.com/chapter/10.1057/9780230605602_1 ecdbaf5410c6a9e7c5102b06844ea78b;de;;;7.3.;;;BDN-GWMNN: Internet of Things (IoT)-fähige sichere Smart City-Anwendungen Heutzutage spielen Netze der nächsten Generation wie das Internet der Dinge (IoT) und 6G eine entscheidende Rolle bei der Bereitstellung einer intelligenten Umgebung. Die Entwicklung von Technologien hilft bei der Erstellung von Smart-City-Anwendungen wie dem Gesundheitswesen, der intelligenten Industrie und dem intelligenten Wasserplan usw. Jeder Benutzer greift auf die entwickelten Anwendungen zu, wobei Sicherheit, Datenschutz und Vertraulichkeit schwierig zu verwalten sind. Daher stellt dieses Papier die Blockchain-definierten Netzwerke mit einem Gray-Wolf-optimierten modularen neuronalen Netzwerkansatz für die Verwaltung der Sicherheit der intelligenten Umgebung vor. Während dieses Prozesses werden Konstruktions-, Übersetzungs- und Anwendungsschichten erstellt, in denen benutzerauthentifizierte Blöcke entworfen werden, um die Sicherheits- und Datenschutzeigenschaften zu handhaben. Dann wird das optimierte neuronale Netzwerk angewendet, um die Latenz und die Auslastung der Rechenressourcen in IoT-fähigen intelligenten Anwendungen aufrechtzuerhalten. Anschließend wird die Effizienz des Systems anhand von Simulationsergebnissen bewertet, wobei das System eine geringe Latenz, eine hohe Sicherheit (99,12 %) im Vergleich zum mehrschichtigen Perzeptron und Deep-Learning-Netzwerke gewährleistet.;-;-;-;https://link.springer.com/article/10.1007/s11277-021-08339-w bb17c8a6b33b109fae9caedb33959b5e;de;;;7.3.;;;Das Internet der Dinge als Smart City Enabler: Die Fälle Palo Alto, Nizza und Stockholm Aufgrund der rasanten Urbanisierung nimmt die Stadtbevölkerung weltweit schnell zu und schafft neue Probleme und Herausforderungen. Um einige dieser Probleme zu lösen, sind innovative Ansätze erforderlich. Ein immer beliebter werdender Ansatz ist die Umwandlung von Städten in Smart Cities. Smart Cities setzen innovative Ansätze auf Basis von IoT-Technologien um und wandeln viele Dienste in digitale Dienste um. Diese Dienste werden in den verschiedenen Komponenten einer Smart City implementiert und helfen den Stadtverwaltungen, das Leben der Bürger zu verbessern und verschiedene Service-, Sicherheits- und Verwaltungsherausforderungen zu bewältigen. Das Ziel dieses Papiers ist es zu untersuchen und zu bestimmen, wie drei bekannte Städte – Nizza, Palo Alto und Stockholm – das Smart City-Konzept umgesetzt haben. Die Studie zeigt, dass eine erfolgreiche Umsetzung eines Smart City-Modells die Bewältigung einer Reihe kritischer Herausforderungen erfordert: Bürgerbeteiligung, Zusammenarbeit mit Unternehmen und starke Führung erweisen sich als Schlüsselfaktoren für den Erfolg im Smart City-Entwicklungsprozess.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29374-1_24 f51e01fc9550f2d265e687b437a626f7;de;;;7.3.;;;Einführung des elektronischen Geschäftsverkehrs durch europäische Unternehmen: eine länderübergreifende Bewertung der Vermittler und Hemmnisse In dieser Studie entwickelten wir ein konzeptionelles Modell zur Untersuchung der Einführung des elektronischen Geschäftsverkehrs (E-Business oder EB) auf Unternehmensebene, das sechs Einführungsvermittler und -hemmer umfasst, basierend auf dem theoretischen Rahmen von Technologie, Organisation und Umwelt. Um das vorgeschlagene Einführungsmodell zu testen, wurden Umfragedaten von 3100 Unternehmen und 7500 Verbrauchern in acht europäischen Ländern verwendet. Wir führten eine konfirmatorische Faktorenanalyse durch, um die Reliabilität und Validität der Konstrukte zu beurteilen. Um zu untersuchen, ob sich die Akzeptanzmuster in verschiedenen E-Business-Umgebungen unterscheiden, haben wir die gesamte Stichprobe in Länder mit hoher EB-Intensität und Länder mit niedriger EB-Intensität unterteilt. Nach Berücksichtigung von Variationen von Branchen- und Ländereffekten zeigten die angepassten Logit-Modelle vier Ergebnisse: (1);-;-;-;https://link.springer.com/article/10.1057/palgrave.ejis.3000475 300f262184667dee5e0535f4b4c35c29;de;;;7.3.;;;Ein innovativer Ansatz für das Ranking von Webseiten mit Hadoop- und Map Reduce-based Cloud Framework Im Zeitalter von Big Data ist das effiziente Suchen und Ranking von Webseiten im WWW, um die Suchbedürfnisse moderner Benutzer zu befriedigen, zweifellos eine große Herausforderung für Suchmaschinen. In diesem Beitrag schlagen wir einen innovativen Algorithmus vor, der auf dem Hadoop-Map Reduce-unterstützten Cloud-Computing-Framework basiert, das in Form von Meta Search und Page Ranking Tool implementiert werden kann, um im WWW verfügbare Big Data effizient zu suchen und zu ordnen, die in der Größenordnung zunehmen von Megabyte in Terabyte pro Tag. Eine umfangreiche experimentelle Auswertung zeigt, dass die durchschnittliche Ranking-Präzision des vorgeschlagenen Algorithmus und Meta-Tools besser ist als bei anderen gängigen Suchmaschinen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-6620-7_40 51050f28d85dd39c46330259926e6a0a;de;;;7.3.;;;Ein Ansatz zur Identifizierung von Benutzerabsichten während der Navigation in semantischen Websites Der wachsende Bedarf an Inhaltsanpassungen in Websites hat die Entwicklung von Systemen gefördert, die versuchen, die Navigationsmuster des Benutzers zu erkennen. Diese können in der Regel mittels Logfile-Analyse identifiziert werden. Diese Lösung identifiziert jedoch nicht die semantische Absicht hinter der Navigation des Benutzers. Dieses Papier bietet einen Ansatz, um semantisches Wissen in den Prozess der Identifizierung der Absichten des Benutzers bei der Navigation einer Website mit semantischer Unterstützung einzubeziehen. Die Erfassung der Nutzerintentionen wird durch die semantische Anreicherung der Logfiles und den Einsatz und Ansatz erreicht, der die sprachlichen und kognitiven Aspekte bei der Entwicklung des Nutzermodells berücksichtigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72667-8_27 a41f507dd8f3e62da28df0ec33ffc9ea;de;;;7.3.;;;SVM-basierte automatische Erstellung von Benutzerprofilen für personalisierte Suche Die Zahl der zugänglichen Webseiten im Internet wächst schnell. Für Nutzer wird es immer schwieriger, im Internet Informationen zu finden, die ihren individuellen Bedürfnissen entsprechen. Dieses Papier schlägt einen neuartigen Ansatz vor und präsentiert ein prototypisches System für den personalisierten Informationsabruf basierend auf Benutzerprofilen. In unserem System geben wir je nach Benutzerprofil unterschiedliche Suchergebnisse zu derselben Abfrage zurück. Im Vergleich zu anderen personalisierten Suchsystemen lernen wir das Nutzerprofil automatisch ohne Zutun des Nutzers. Wir verwenden die Methode der Support-Vektor-Maschine, um Benutzerprofile zu erstellen. Eine Profilontologie wird eingeführt, um das Benutzerprofil und die vom Suchmaschinen-Wrapper zurückgegebenen Rohergebnisse zu standardisieren. Experimente zeigen, dass die Genauigkeit der zurückgegebenen Webseiten effektiv verbessert wird.;-;-;-;https://link.springer.com/chapter/10.1007/11538059_50 fdc5cdf66bdde5b22650c8c6f3aa6e52;de;;;7.3.;;;Agenten in der Welt der aktiven Web-Services Agenten sowie viele andere Technologien rund um das Semantic Web haben durch Standards und Open Source eine zunehmende Reife gezeigt. Diese Verbesserungen waren sehr egozentrisch und führten zur Bildung von Silos. Es ist an der Zeit, diese Verbesserungen in ein Ökosystem zu integrieren, das ein größeres Bild in Richtung aktiver Webdienste bringt, das in der Lage ist, jeden einzelnen Benutzer persönlich zu bedienen. Dieser Artikel stellt diese Entwicklungen vor, positioniert Agenten und stellt das offene Testbed dieses Ökosystems vor, das sich derzeit unter der Schirmherrschaft von Agentcities im Aufbau befindet.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45636-8_27 af2f04f1827758e40672ca85bc36a6bb;de;;;7.3.;;;Integration von Produktklassifizierungsstandards in Schema.org: eCl@ss und UNSPSC im Web of Data Produktklassifizierungsstandards wie eCl@ss und UNSPSC definieren Zehntausende von Produktkategorien, und einige Standards bieten zusätzlich spezifische Produkteigenschaftendefinitionen und Aufzählungswerte. Viele Unternehmen halten entsprechende Metadaten für ihre Produkte in Back-End-Datenbanken bereit. Während viele Ansätze für die Verwendung solcher Standards für detailliertere Produktinformationen im Web of Data vorgestellt wurden, hat sich bisher keiner durch den Mainstream durchgesetzt. Dies kann zum Teil durch rechtliche, technische und administrative Hindernisse für die Adoption erklärt werden. In diesem Whitepaper beschreiben wir einen neuartigen Ansatz für die Verwendung von Produktklassifizierungsstandards im Webdaten-Markup in Microdata und JSON-LD-Syntax, der nicht die Verfügbarkeit geeigneter Webontologievarianten der zugrunde liegenden Standards erfordert. Wir können zeigen, dass der Ansatz den gleichen Effekt für den Konsum und die Interpretation des resultierenden Markups in einem Linked Data und Semantic Web Kontext liefern kann. Unser Vorschlag wurde bereits in die offizielle Version von schema.org integriert und kann problemlos für Forschungs- und Geschäftsanwendungen verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-73805-5_11 f14b408f73713f51a7c835c22b2c7c08;de;;;7.3.;;;Die Erforschung von RESTful-Webdiensten, die im Informationssystem der chinesischen Medizin basierend auf dem Restlet-Framework angewendet werden Der RESTful-Webservice ist ein leichtgewichtiges Framework, das einige wichtige Ideen wie Adressierbarkeit von Ressourcen, Zustandslosigkeit, Verbundenheit und einheitliche Schnittstelle enthält und durch seine lose Kopplung und andere verteilte Komponenten eine gute Interaktion und Elastizität aufweist. Da das komplexe SOAP nicht eingeführt werden muss, ist es einfacher zu verwenden, einfacher zu kombinieren als Dienste im RPC-Stil und hat sich im Web als einfachere Alternative zu SOAP- und WSDL-basierten Webdiensten durchgesetzt. In diesem Artikel wird untersucht, wie man das Restlet-Framework verwendet, um RESTful-Webdienste in einem Informationssystem für chinesische Medizin zu erstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34240-0_29 d3fdad93d238dd60cf63ef42adfb25e8;de;;;7.3.;;;Das Überwachungssystem für die landwirtschaftliche Umwelt basierend auf Point Surface Fusion mit dem Internet der Dinge und WebGIS Heutzutage ist die Technologie des Internets der Dinge im Bereich der landwirtschaftlichen Umweltüberwachung weit verbreitet, aber die auf dem Knoten basierende Netzwerküberwachungstechnologie ist immer noch mit dem Verteilungsdesign der Überwachungspunkte, dem Datenraum, dem kontinuierlichen Ausdruck und vielen anderen Problemen konfrontiert. Entsprechend den Eigenschaften landwirtschaftlicher Umweltüberwachungsobjekte präsentiert dieses Papier die Übertragung von Zonensimulations- und Bewertungsmethoden, den Entwurf einer Reihe von Dingen basierend auf dem „Punkt“ der Überwachungsdaten und eine WebGIS-Lösung basierend auf dem „Gesicht“ der Weltraumdatenfusion und Analyse. In etablierten Netzwerk-Monitoring-Center-Systemplattform und Optimierung von WebGIS integrierte grafische räumliche Analysetechnologie, in Helong und Kaian Stadt Nong'an County der Provinz Jilin im nationalen Spark-Plan experimentelle Basis Fusionsnetzwerk-Überwachungsdaten und WebGIS-Raumdatenpunkte der landwirtschaftlichen Umgebung Überwachungssystem eingerichtet. System, um die Anzeige von Datenstandortkarte und Übertragung der regionalen Simulation und Auswertung zu erreichen, regionale Überwachung thematischer Kartenverwaltung drei Funktionen. Die Ergebnisse der experimentellen Basis in der Maisfeld-Wachstumsüberwachung für den Fall der Anwendung des Systems zeigen, dass das System die Übertragung der dynamischen Überwachung der landwirtschaftlichen Umgebung der Region effektiv realisieren kann, die umfassende Überwachungsfähigkeit der Maiserntekatastrophe verbessert werden kann eine bequemere Anwendungsdienste für das landwirtschaftliche Produktionsmanagement.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-06155-5_41 3c460fcb355165f8e131bd5eafa16e1f;de;;;7.3.;;;Morphologische Abfrageerweiterung und sprachfilternde Wörter zur Verbesserung des baskischen Webabrufs Die Erfahrung eines Benutzers großer Suchmaschinen oder anderer Dienste zum Abrufen von Webinformationen, der nach Informationen in der baskischen Sprache sucht, ist alles andere als zufriedenstellend: Sie geben nur Seiten mit genauen Übereinstimmungen, aber ohne Flexionen (notwendig für eine agglutinierende Sprache wie Baskisch) andere Sprachen (keine Suchmaschine bietet die Möglichkeit, ihre Ergebnisse auf Baskisch zu beschränken) usw. Dieses Papier schlägt vor, morphologische Abfrageerweiterungen und sprachfilternde Wörter in Kombination mit den APIs von Suchmaschinen als sehr kostengünstige Lösung zum Aufbau geeigneter Web- Suchdienste für Baskisch. Die Implementierungsdetails der Methodik (Auswahl der am besten geeigneten sprachfilternden Wörter, deren Anzahl, die häufigsten Flexionen für die morphologische Abfrageerweiterung usw.) wurden durch korporabasierte Studien spezifiziert. Die erzielten Verbesserungen wurden in Bezug auf Präzision und Wiedererkennungswert sowohl gegenüber Korpora als auch bei echten Websuchen gemessen. Die morphologische Abfrageerweiterung kann das Wiedererinnern um bis zu 47 % verbessern und sprachfilternde Wörter können die Genauigkeit von 15 % auf etwa 90 % erhöhen, allerdings mit einem Erinnerungsverlust von etwa 30–35 %. Die vorgeschlagene Methodik wurde bereits erfolgreich im baskischen Suchdienst Elebila (;-;-;-;https://link.springer.com/article/10.1007/s10579-012-9208-x 288053801b6353cc59c0695cea277d62;de;;;7.3.;;;Webkorpora Dieses Kapitel untersucht die immer wichtiger werdende Rolle des Webs in der korpuslinguistischen Forschung. Es beschreibt die beiden Hauptansätze in diesem Bereich, die als „Web als Korpus“ und „Web für Korpus“ bezeichnet werden. Der erste Ansatz versucht, mithilfe von Standardsuchmaschinen wie Google oder anderen spezialisierteren Tools linguistische Beispiele direkt aus dem Web zu extrahieren, während der zweite das Web als Textquelle für den Aufbau von Offline-Korpora verwendet. In diesem Kapitel werden die Fallstricke des Einstiegsansatzes „Web als Korpus“ untersucht, bevor die Schritte zur Verwendung des „Web für Korpus“-Ansatzes zur Erstellung maßgeschneiderter Korpora durch Herunterladen von Daten aus dem Web detailliert beschrieben werden. Anhand einer Reihe von Beispielen aus der führenden Forschung auf diesem Gebiet untersucht das Kapitel die bedeutenden neuen methodischen Herausforderungen, die das Web für die Sprachwissenschaft darstellt. Das übergeordnete Ziel besteht darin, Wege aufzuzeigen, wie diese Herausforderungen durch eine sorgfältige Auswahl der Daten und den Einsatz geeigneter Softwaretools bewältigt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-46216-1_15 6d636c3224998591fc5f851f022497c9;de;;;3.4.;;;Satire und die Medien Die Kleidung von Medienpraktiken, -formen und -genres ist in den letzten zwei Jahrzehnten durch Filme wie die in diesem Kapitel behandelten und Fernsehsendungen wie;-;-;-;https://link.springer.com/chapter/10.1057/9781137300997_4 12aafbf314c3604ad335cf4ae097a614;de;;;7.3.;;;Einsatz von webbasierten Zählern zur Verbesserung der Energieeffizienz und Stromqualität in Gebäuden Im Zuge der durchgeführten Arbeiten wurden mehrere Gebäude hinsichtlich Energieeffizienz und Stromqualität analysiert. Hier werden zwei Fallstudien vorgestellt: ein Bildungsgebäude und ein Museum. Die meisten Studien wurden mit herkömmlicher Messausrüstung durchgeführt, was die Person zwang, zum Standort zu reisen, um die Ausrüstung zu installieren, und jedes Mal, wenn sie Daten sammeln wollte. Aber eine der Fallstudien, das Museum, umfasste die Entwicklung eines Analysators (Hardware und Software), der elektrische Energie, Temperatur und Feuchtigkeit messen kann. Dieser Analysator hat die Fähigkeit, Werte in einer im Internet verfügbaren Datenbank zu registrieren und Warnungen an den Gebäudeverwalter auszugeben. Dies ermöglicht Echtzeitinformationen, die einige Energieeffizienzmaßnahmen unterstützen. Ziel ist es, dieses Modell zu verbessern und seine Nutzung auf mehrere Gebäude auszuweiten, um Zeit und andere Ressourcen zu sparen und Cloud-basierte Systeme zu nutzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16766-4_36 2ed4bf57b23134df10059c952481ac23;de;;;7.3.;;;Konzeptionelle Suche nach arabischen Webinhalten Der Hauptgrund für die Einführung der Semantic Web-Technologie beim Informationsabruf ist die Verbesserung der Abrufleistung. Ein semantisches suchbasiertes System zeichnet sich dadurch aus, dass es Webinhalte findet, die semantisch mit den Konzepten der Abfrage verwandt sind, anstatt sich auf die genaue Übereinstimmung mit Schlüsselwörtern in Abfragen zu verlassen. Aufgrund ihrer Bedeutung für Kultur, politische Aspekte, strategische Lage und Wirtschaft besteht weltweit ein wachsendes Interesse an arabischen Webinhalten. Arabisch ist auf allen Ebenen sprachlich reich, was die effektive Suche nach arabischen Texten zu einer Herausforderung macht. In der Literatur sind Untersuchungen, die sich mit der Suche nach arabischen Webinhalten mit semantischer Webtechnologie befassen, im Vergleich zur tatsächlichen Bedeutung des Arabischen als Sprache noch unzureichend. In dieser Studie schlagen wir einen arabischen semantischen Suchansatz vor, der auf arabische Webinhalte angewendet wird. Dieser Ansatz basiert auf dem Vektorraummodell (VSM), das sich als erfolgreich erwiesen hat und viele Forschungen haben sich auf die Verbesserung seiner traditionellen Version konzentriert. Unser Ansatz verwendet das Universal WordNet, um einen umfangreichen Konzeptraumindex anstelle des herkömmlichen Begriffsraumindex zu erstellen. Dieser Index wird verwendet, um semantische VSM-Funktionen zu aktivieren. Darüber hinaus haben wir eine neue Inzidenzmessung eingeführt, um den semantischen Signifikanzgrad des Konzepts in einem Dokument zu berechnen, das zu unserem Modell und nicht zum traditionellen Begriff Häufigkeit passt. Um die semantische Ähnlichkeit zweier Vektoren zu bestimmen, haben wir außerdem eine neue Formel zur Berechnung des semantischen Gewichts des Konzepts eingeführt. Da Dokumente nach Themen indiziert und semantisch klassifiziert werden, konnten wir arabische Dokumente effektiv durchsuchen. Die experimentellen Ergebnisse in Bezug auf Präzision, Recall und F-Maß haben eine Leistungssteigerung von 77 %, 56 % bzw. 63 % auf 71 %, 96 % bzw. 81 % gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-18117-2_30 cc2cf8a04ba58c5ca8145ee71c48cab2;de;;;7.3.;;;Entdecken von Semantic Web Services mit Prozessspezifikationen Service Discovery ist eines der entscheidenden Themen für ein serviceorientiertes Architekturmodell. In letzter Zeit geht der Trend zur semantischen Entdeckung, bei der semantische Beschreibungen anstelle einer einfachen Suche auf Basis von Dienstattributen die Grundlage für das Matchmaking von Diensten sind. OWL-S ist eine weit verbreitete semantische Spezifikation für Web Services, die drei Profile umfasst. Unter diesen ist das Prozessmodell das Profil, das das dynamische Verhalten von Web Services in Bezug auf funktionale Aspekte und Prozessabläufe beschreibt und im Allgemeinen auf die Durchführung, Zusammensetzung und Überwachung von Diensten ausgerichtet ist. Dieses Papier stellt einen neuen Ansatz zur Verwendung des OWL-S-Prozessmodells für Service-Discovery-Zwecke vor. Ein Web Service kann seinen internen Prozess als OWL-S Prozessmodellspezifikation beschreiben lassen, und ein Service Consumer kann einen Web Service mit einem bestimmten Prozessdetail abfragen. Matchmaking basiert auf einem flexiblen ontologischen Matching und der Bewertung von Einschränkungen des funktionalen Verhaltens und des Prozessflusses des Webservice. Die Architektur für die prozessbasierte Erkennung wird ebenfalls vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/11773887_9 241c57830fc18b3bce7dd22d26551880;de;;;7.3.;;;Metasuchmaschine: Eine Technologie zur Informationsextraktion im Knowledge Computing Durch die zunehmende Zahl der Webdaten durch die zunehmende Menge digitalisierter Standards, elektronischer Mails, Bilder, Multimedia und Webdienste, steigt das World Wide Web als kostengünstige Ressource zur Freigabe der Daten und zum Auffinden des Wissens. Daher haben die offenen Herausforderungen für die Bemühungen zur Informationsbeschaffung viel Aufmerksamkeit bei den Forschern gefunden, um das Browsen als geeignetes Suchverfahren zu betrachten. Um die relevantesten Informationen bereitzustellen, ist es notwendig, einen einzigartigen und umfassenden strukturellen Rahmen zu entwickeln, der den Clients und Servern eine Platte und einen Navigations-Proxy bietet. Folglich spielen die Suchmaschinen eine entscheidende Rolle, indem sie den Benutzern bei der Bereitstellung der entsprechenden Webseiten aus dem Web helfen. Eine Metasuchmaschine ist im Wesentlichen ein Suchmechanismus, der die Benutzeranfrage autonom an eine Reihe moderner Suchmaschinen sendet und das kombinierte Ergebnis durch ihre eigene einzigartige Page-Ranking-Technik liefert. In diesem Kapitel soll die Notwendigkeit von Metasuchmaschinen diskutiert werden, beginnend mit einer Reihe von Definitionen von Suchmaschinen und ihrer Klassifizierung. Weiterhin wird eine Zusammenfassung der Metasuchmaschine mit der Architektur und den Methoden zum Zusammenführen von Ergebnissen bereitgestellt. Es nennt auch mehrere Kriterien, die die Stabilität von Metasuchmaschinen validieren, und schließt schließlich das Kapitel ab, in dem die zukünftige Arbeit erläutert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8258-0_10 1396642998f64d126e01c2649d4caf3c;de;;;7.3.;;;Etablierung bilateraler anonymer Kommunikation in offenen Netzwerken Vertrauliche und authentifizierte Kommunikation ist in offenen Netzen wie dem Internet eine elementare Notwendigkeit und bereits realisiert. In den letzten Jahren ist den Nutzern des Internets ein weiteres Sicherheitskriterium bewusst geworden: die Privatsphäre.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35586-3_26 4d9f79e0f086c0d410aeb28070cb3701;de;;;7.3.;;;Was empfehlen Sie? Implementierung und Analysen der kollaborativen Informationsfilterung von Webressourcen für den Bildungsbereich Dieser Artikel untersucht die Ergebnisse einer Pilotstudie und zwei empirischen Studien über ein kollaboratives Filtersystem (CF) in Bildungssettings. CF ist eine beliebte Technologie im elektronischen Handel, die die Interessen ganzer Gemeinschaften nutzt, um Einzelpersonen gezielte, personalisierte Empfehlungen für interessante Produkte oder Ressourcen zu geben. Im elektronischen Handel, in der Unterhaltung und in verwandten Bereichen hat sich CF als genaues und zuverlässiges Werkzeug erwiesen, dennoch bleiben Bildungsanwendungen begrenzt. Aus Analysen der Daten aus diesen drei Studien glauben wir, dass CF im Bildungsbereich vielversprechend ist, nicht nur, um Lernenden und Pädagogen zu helfen nützliche Ressourcen zum Lernen, sondern als Mittel, um Menschen mit ähnlichen Interessen und Überzeugungen zusammenzubringen, und möglicherweise als Hilfe für den Lernprozess selbst.;-;-;-;https://link.springer.com/article/10.1023/A%3A1024686010318 c4411ad11696671a425de8908baab71e;de;;;7.3.;;;Web 2.0-Tools zur Unterstützung der Entscheidungsfindung im Unternehmenskontext Heutzutage bietet Web 2.0 den Benutzern einen einzigartigen Rahmen, um nicht nur Informationen zu finden, sondern auch ihre Meinung zu äußern und in Echtzeit zusammenzuarbeiten und zu interagieren. Web 2.0 umfasst Anwendungen wie Blogs, Wikis, RSS, Podcasting, Mashups und soziale Netzwerke. Diese Anwendungen bündeln die kollektive Intelligenz von Millionen von Benutzern und daher müssen neue Werkzeuge entwickelt werden, um Entscheidungsprozesse zu entwickeln, die an die neuen virtuellen Umgebungen angepasst sind. In diesem Beitrag analysieren wir, wie Web 2.0-Tools zur Verbesserung der Zusammenarbeit und der sozialen Entscheidungsfindung im Unternehmenskontext eingesetzt werden und welche Herausforderungen gemeistert werden müssen, um diese optimal zu nutzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41550-0_8 11fa93330c136a2e906d364330dcdf93;de;;;7.3.;;;Semantische Annotation von Webseiten mit Webmustern In diesem Beitrag wird eine neuartige Methode zur semantischen Annotation von Webseiten vorgestellt. Wir führen semantische Annotation im Hinblick auf ungeschriebene und empirisch nachgewiesene Übereinstimmung zwischen Benutzern und Webdesignern anhand von Webmustern durch. Dieses Verfahren basiert auf der Extraktion von Mustern, die für eine bestimmte Domäne charakteristisch sind. Ein Muster dient der Formalisierung der Vereinbarung und ermöglicht die Zuweisung von Semantik zu Teilen von Webseiten. Wir stellen Experimente mit dieser Methode vor und zeigen ihre Vorteile für die Abfrage des Webs.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01350-8_26 efa0cf6b6ffaec233b6c7db7ed6485a4;de;;;7.3.;;;Ontologiegesteuerte Entdeckung von Geodaten auf Webseiten Wenn Benutzer im Web etwas finden müssen, das sich auf einen Ort bezieht, werden Ortsnamen wahrscheinlich zusammen mit einigen anderen Schlüsselwörtern an eine Suchmaschine übermittelt. Die automatische Erkennung von in Webdokumenten eingebetteten geografischen Merkmalen, die eine bessere Verbindung zwischen Dokumenten und Orten ermöglichen würden, bleibt jedoch eine schwierige Aufgabe. Wir schlagen einen ontologiegetriebenen Ansatz vor, um den Prozess des Erkennens, Extrahierens und Geokodierens von teilweisen oder vollständigen Verweisen auf in Text eingebettete Orte zu erleichtern. Unser Ansatz kombiniert eine Extraktions-Ontologie mit städtischen Gazetten und Geokodierungstechniken. Diese OnLocus genannte Ontologie wird verwendet, um die Entdeckung von Geodaten aus dem Inhalt von Webseiten zu leiten. Wir zeigen, dass Adressen und Positionierungsausdrücke zusammen mit Fragmenten wie Postleitzahlen oder Telefonvorwahlen lokale Suchanwendungen zufriedenstellend unterstützen, da sie Annäherungen an den physischen Standort von auf Webseiten genannten Diensten und Aktivitäten bestimmen können. Unsere Experimente zeigen die Machbarkeit einer automatisierten Adressextraktion und Geokodierung, um mit Webseiten verknüpfte Standorte zu identifizieren. Die Kombination von Ortskennungen mit Basisadressen verbesserte die Genauigkeit der Extraktionen und reduzierte die Anzahl falsch positiver Ergebnisse.;-;-;-;https://link.springer.com/article/10.1007/s10707-010-0118-z 27978b609fa5fe010b1512259e2e540c;de;;;7.3.;;;Korrelationsbasierte Inhaltsanpassung für mobiles Web-Browsing Die ressourcenarme Umgebung auf mobilen Geräten führt zu einer schlechten Erfahrung für Benutzer beim Surfen im World Wide Web. Eine vielversprechende Lösung für dieses Problem bietet eine Proxy-basierte Middleware, die Inhalte im laufenden Betrieb transformiert, um sie besser an die Ressourcenbedingungen auf dem Gerät eines Benutzers anzupassen. Eine zentrale Herausforderung bei solchen Systemen ist die Entscheidung, wie Inhalte angepasst werden sollen, insbesondere wenn derselbe Inhalt mehrere Verwendungszwecke mit unterschiedlichen Anpassungsanforderungen hat. In diesem Artikel zeigen wir, dass es möglich ist, eine feinkörnige Anpassung von Mehrzweckinhalten bereitzustellen, indem Korrelationen in den Anpassungsanforderungen früherer Benutzer über mehrere Objekte auf einer Website hinweg erkannt und anhand dieses Verlaufs Anpassungsvorhersagen für später angetroffene Benutzer erstellt werden . Um unsere Technik zu evaluieren, haben wir Prototyp-Seitenlayout- und Bildtreue-Anpassungssysteme gebaut und diese verwendet, um Spuren von Benutzern zu sammeln, die in einer Laborumgebung Mehrzweck-Webinhalte durchsuchen. Unsere experimentellen Ergebnisse zeigen, dass die Verwendung von Korrelationen zur Erstellung von Anpassungsvorhersagen den Bandbreitenverbrauch, die Browsing-Zeit, den Energieverbrauch und den Benutzeraufwand für die Anpassung von Inhalten erheblich reduzieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76778-7_6 46400146508c10563014618f7e6fed91;de;;;7.3.;;;Ein neuartiger aktiver Lernansatz für den SVM-basierten Web Image Retrieval Es gibt viele Forschungen zu hyperplanebasierten Abfragen wie Support Vector Machine (SVM) in Content-based Image Retrieval (CBIR). Allerdings leidet das SVM-basierte CBIR immer unter dem Problem des Ungleichgewichts der Bilddaten. Konkret ist die Zahl der negativen Proben (irrelevante Bilder) weitaus höher als die der positiven. Um dieses Problem zu lösen, schlagen wir einen neuen aktiven Lernansatz vor, um den positiven Stichprobensatz beim SVM-basierten Web-Bildabruf zu verbessern. In unserer Methode werden anstelle komplexer Parsing-Methoden zur Analyse von Webseiten zwei Arten von „leichten“ Bildmerkmalen verwendet: Die URL des Webbilds und seine leicht zu ermittelnden visuellen Merkmale werden verwendet, um die Wahrscheinlichkeit des Bildes zu schätzen eine potenziell positive Probe sein. Die Experimente an einem Testdatensatz mit mehr als 10.000 Bildern von etwa 50 verschiedenen Websites zeigen, dass unser Ansatz im Vergleich zu herkömmlichen Methoden die Abrufleistung deutlich verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77255-2_5 d12f3cad135910a16f4516b4b4cad9af;de;;;7.3.;;;Erkennung bösartiger Webseiten mithilfe von Systemaufrufsequenzen Websites werden häufig zur Verbreitung von Malware verwendet, immer mehr Angriffe werden durch das Einschleusen von Schadcode in Webseiten durchgeführt: Drive-by-Download, Malvertisement, Rogueware, Phishing sind nur die häufigsten Beispiele. In diesem Szenario spielt JavaScript eine wichtige Rolle, da es das Einfügen von Code in die Webseite ermöglicht, der auf dem Client-Rechner ausgeführt wird, sodass der Angreifer eine Vielzahl von Aktionen ausführen kann, die für einen erfolgreichen Angriff erforderlich sind. Bestehende Techniken zur Erkennung von bösartigem JavaScript weisen einige Einschränkungen auf, wie z. B. die Fähigkeit, nur bekannte Angriffe zu erkennen, nur auf bestimmte Angriffe zugeschnitten zu sein oder unwirksam zu sein, wenn Angreifer geeignete Umgehungstechniken anwenden. In diesem Artikel schlagen wir vor, Systemaufrufe zu verwenden, um bösartiges JavaScript zu erkennen. Der Hauptvorteil besteht darin, dass die Erfassung der Systemaufrufe eine Beschreibung des Angriffs auf einem sehr hohen Abstraktionsniveau ermöglicht. Dies schränkt einerseits die möglichen Umgehungstechniken ein und führt andererseits zu einer sehr hohen Detektionsgenauigkeit (96%), wie Versuche gezeigt haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10975-6_17 4203f4cd63263758cfa0c5cae7304a48;de;;;7.3.;;;Text-Mining in Multimedia Eine große Menge an Multimediadaten (z. B. Bild und Video) ist jetzt im Web verfügbar. Eine Multimedia-Entität erscheint nicht isoliert, sondern wird von verschiedenen Formen von Metadaten begleitet, wie zum Beispiel umgebendem Text, Benutzer-Tags, Bewertungen und Kommentaren usw. Es hat sich herausgestellt, dass das Mining dieser Text-Metadaten wirksam ist, um die Multimedia-Informationsverarbeitung und -verwaltung zu erleichtern. Eine Fülle von Forschungsanstrengungen wurde dem Text-Mining in Multimedia gewidmet. Dieses Kapitel bietet einen umfassenden Überblick über die jüngsten Forschungsbemühungen. Im Einzelnen konzentriert sich die Umfrage auf vier Aspekte: (a) umliegendes Text-Mining, (b) Tag-Mining, (c) gemeinsames Mining von Text und visuellen Inhalten und (d) Cross-Text- und Visual-Content-Mining. Darüber hinaus werden offene Forschungsfragen basierend auf den aktuellen Forschungsbemühungen identifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-3223-4_11 a83f15d6b6a0da56d8f0dc74996acdff;de;;;7.3.;;;Eigenvektoren von gerichteten Graphen und Wichtigkeitswerten: Dominanz, T-Rang und Senkenmittel Wir untersuchen die Eigenschaften des Haupteigenvektors für die Adjazenzmatrix (und verwandte Matrizen) für einen allgemeinen gerichteten Graphen. Insbesondere – motiviert durch die Verwendung des Eigenvektors zur Abschätzung der „Bedeutung“ der Knoten im Graphen – konzentrieren wir uns auf die Verteilung des positiven Gewichts in diesem Eigenvektor und geben ein zusammenhängendes Bild, das auf früheren Ergebnissen aufbaut und diese vereint. Wir schlagen auch eine einfache Methode – „T-Rank“ – zur Generierung von Wichtigkeitswerten vor. T-Rank generiert Autoritätsbewertungen über eine einstufige, nicht normalisierte Matrix und unterscheidet sich somit von bekannten Verfahren wie PageRank (normalisiert), HITS (zweistufig) und SALSA (zweistufig und normalisiert). Wir zeigen mit unserem Verständnis des Haupteigenvektors, dass T-Rank ein viel weniger schwerwiegendes „Sink-Problem“ hat als PageRank. Außerdem bieten wir numerische Ergebnisse an, die den „Tightly-knit-Community“- oder TKC-Effekt quantifizieren. Wir stellen fest, dass T-Rank einen stärkeren TKC-Effekt hat als PageRank, und wir bieten ein neuartiges Interpolationsverfahren an, das eine kontinuierliche Einstellung der Stärke dieses TKC-Effekts ermöglicht. Schließlich schlagen wir zwei neue „Senkenmittel“ vor, d. h. Methoden, um sicherzustellen, dass der Haupteigenvektor überall positiv ist. Eines unserer Senkenmittel (Source Pumping) ist einzigartig unter den Senkenmitteln, da es einen positiven Eigenvektor ergibt, ohne dass der Graph stark verbunden wird. Wir bieten eine vorläufige Bewertung der Wirkungen und Anwendungsmöglichkeiten dieser neuen Senkenmittel.;-;-;-;https://link.springer.com/article/10.1007/s10618-009-0154-1 da2ff8e2783cd70681e37452f39feafe;de;;;7.3.;;;Eine Agenten-Infrastruktur für datenschutzfreundliche agentenbasierte E-Commerce-Anwendungen Datenschutz ist von entscheidender Bedeutung, damit agentenbasierte E-Commerce-Anwendungen eine breite Anwendung finden. Der Datenschutz kann verbessert werden, indem die Identifizierbarkeit von Daten minimiert wird, d. h. das Ausmaß, in dem personenbezogene Daten direkt einer bestimmten Person zugeordnet werden können. Die Minimierung der Identifizierbarkeit von Daten kann sich jedoch direkt auf andere entscheidende Aspekte im agentenbasierten E-Commerce auswirken, wie z. In diesem Whitepaper stellen wir eine Agenteninfrastruktur für agentenbasierte E-Commerce-Anwendungen vor. Diese Agenteninfrastruktur verbessert den Datenschutz, ohne die Verantwortlichkeit, das Vertrauen und den Ruf zu beeinträchtigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27216-5_31 b717d02a5d7e373e7608c6906b76e0de;de;;;7.3.;;;Internet-Grundlagen Auf der grundlegendsten Ebene ist das Internet die Bezeichnung für eine Gruppe von weltweiten computerbasierten Informationsressourcen, die miteinander verbunden sind. Es wird oft als Netzwerk von Computernetzwerken definiert. Nach Angaben der Internet Society sind heute weltweit mehr als 93 Millionen Hosts (Computer) verbunden. Diese Hosts unterstützen über 1 Milliarde indexierbare Webseiten. Es wird geschätzt, dass jede Woche mehr als 1 Million Websites dem Internet beitreten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0027-4_1 1428d0194474ac73e3eea0a7e826d23a;de;;;3.4.;;;Veröffentlichung in Schottland: Review the Fragile Revival Ein Vergleich von Analysen der schottischen Verlagsbranche aus den Jahren 1992, 2002 und 2007 unterstreicht die Fragilität des Sektors innerhalb eines kleinen Landes innerhalb der englischsprachigen Gemeinschaft. Eine Reihe von Indizes zeigt entweder Stabilität oder Stagnation, und es entsteht ein Bild von der bemerkenswerten Hartnäckigkeit des Verlagswesens in Schottland. Obwohl es in Schottland bereits ein bedeutendes und unverzichtbares Element staatlicher Unterstützung für das Verlagswesen gibt, werden weitere Maßnahmen erforderlich sein, um die Ausschöpfung seines Potenzials sicherzustellen.;-;-;-;https://link.springer.com/article/10.1007/s12109-008-9069-8 33ee279f5a09a212d9ee32768e7d7cf5;de;;;7.3.;;;Global optimale Auswahl von Web Composite Services basierend auf UMDA Das QoS-Modell von zusammengesetzten Diensten und die Auswahl von Webdiensten auf der Grundlage von QoS sind derzeit die heißen Themen im Bereich der Zusammensetzung von Webdiensten. Die Diensteauswahl basierend auf QoS, die ein globales Problem der optimalen Auswahl ist, hat sich als NP-HARD-Problem erwiesen. Unter Berücksichtigung der Engine erstellt dieses Papier das QoS-Modell der Dienstauswahl in den Web-Composite-Diensten, verwendet die Schätzung des Verteilungsalgorithmus, um das NP-HARD-Problem der Dienstauswahl zu lösen, und präsentiert eine Webdienstauswahlmethode basierend auf UMDA. Es werden Beispielanalysen und experimentelle Analysen basierend auf der UMDA-Methode durchgeführt, es ist bewiesen, dass die Methode bei der Lösung des NP-HARD-Problems der Auswahl von Webdiensten effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34500-5_29 ce8cfa6dbdffcf86d70904860541cd56;de;;;7.3.;;;Intelligenter regelbasierter Deep Web Crawler In diesem Kapitel wird die Architekturspezifikation eines Deep Web Crawlers besprochen. Der Crawler verfügt über einen Indexer mit der Fähigkeit, riesige Dokumente sowohl aus dem Oberflächen- als auch aus dem Deep Web abzurufen. Bei den Dokumenten aus dem Deep Web handelt es sich um holbasierte Regeln, bei denen Kern- und verwandte Felder der Formulare eine wichtige Rolle spielen. Basierend auf der Domäne und Natur von FORM in HTML-Seiten werden funktionale Abhängigkeiten zwischen den Feldern, Kern- und verwandten Feldern identifiziert. Der SVM-Klassifizierer wird verwendet, um die Regel als am meisten bevorzugt, am wenigsten bevorzugt und sich gegenseitig ausschließend zu klassifizieren. Die Dokumente werden unter Verwendung der am besten geeigneten Felder in FORM abgerufen. Das abgerufene Dokument wird indiziert und dieselbe Architektur wird skaliert, um verteilte Funktionalität mit Hilfe von Webdiensten zu unterstützen. Diese Architekturspezifikation verarbeitet eine große Anzahl von Dokumenten, was eine ermutigende Abdeckungsrate und eine geringere Abrufzeit aufweist. Die Abrufleistung des Crawlers wird mit dem Google-Abrufsystem verglichen und festgestellt, dass die vorgeschlagene Architektur einen ähnlichen Abrufprozess archiviert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2559-5_1 f168b536ddf3854b650651577d5e6e5c;de;;;7.3.;;;Solidarität.com? Klassen- und Kollektivaktionen Indem ich die Entwicklung der Wirtschaftslandschaft von der Fabrikstadt zum elektronischen Dorf detailliert darlege und diskutiere, wie Klassen- und Kollektivaktionen im Kontext des elektronischen Dorfes analysiert werden können, war es mein Ziel, einen Rahmen zu schaffen, mit dem Forscher sinnvolle entwickeln können Studien zu Klassen- und Kollektivaktionen im elektronischen Dorf.;-;-;-;https://link.springer.com/article/10.1007/s12122-000-1016-1 dec47280c90a24cb20186c194bddef2f;de;;;7.3.;;;Erstellung eines semantischen Benutzerprofils für die personalisierte Websuche Das Benutzerprofil ist eine wesentliche Komponente für den Zugriff auf die personalisierten Informationen aus dem Web. Die Effizienz von personalisierten Informationen, auf die zugegriffen wird, hängt stark davon ab, wie die Benutzerdetails modelliert werden, um ein Benutzerprofil zu erstellen. Früher wurde ein Benutzerprofil erstellt, indem eine Liste von Schlüsselwörtern gesammelt wurde, um auf Benutzerinteressen zu schließen. Solche Ansätze reichen für viele Anwendungen nicht aus. In diesem Papier haben wir eine neue Methode zur Konstruktion eines semantischen Benutzerprofils für den personalisierten Informationszugriff vorgeschlagen. Die Abfrage des Benutzers wird durch ein ontologisches Profil zur Generierung eines personalisierten Suchkontexts erweitert. Experimentelle Ergebnisse zeigen, dass unsere Methode zur Erstellung eines semantischen Profils für die Suche nach Informationen mit individuellen Bedürfnissen effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34707-8_11 d13fc2f8673f9780ca4507afb67f3a91;de;;;7.3.;;;N-Gram-Sammlung aus einem großen Korpus des polnischen Internets Der Artikel widmet sich der Verarbeitung von Multi-Terabyte-Webarchiven. Ziel dieser Arbeit ist es, eine N-Gram-Sammlung zu erstellen, die auf einem umfangreichen Korpus aller polnischen Websites im Internet basiert, das vom Projekt der Common Crawl Foundation bereitgestellt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30315-4_3 db0cca48a17025b94da303f56e24a75e;de;;;7.3.;;;Zur Integration von Webinformationen im virtuellen 3D-Raum Wir berichten über eine Implementierung von GeneSys, einem System zur Integration von Webinformationen im virtuellen 3D-Raum. Wir haben den Kwansei Gakuin Kobe Sanda Campus als virtuellen Raum namens VKSC gebaut, in dem Charakteragenten einen Benutzer navigieren. VKSC spiegelt die Web-Informationen zu Wetter, Schulkalender und Laboren auf dem Campus wider und das Verhalten der Agenten ändert sich je nach Informationen. Herkömmliche Websysteme zielen hauptsächlich darauf ab, Benutzern Informationen und Wissen bereitzustellen, aber GeneSys kann Benutzern zusätzlich virtuelle Erfahrungen bieten.;-;-;-;https://link.springer.com/chapter/10.1007/11558651_43 6c8ddf753f6c6791d327fdf0bc861a09;de;;;7.3.;;;Ältere Erwachsene, Informationstechnologie und Verhaltensmedizin Die aufkommenden Informationstechnologien werden wahrscheinlich erhebliche Auswirkungen auf die verhaltensbezogene Gesundheitsversorgung älterer Erwachsener haben. Diese Technologien werden einen verbesserten Zugang zu Informationen über psychische Gesundheitsprobleme und deren Behandlung bieten. Diese verbesserten Informationsflüsse werden einen verbesserten Zugang zu Behandlungsdiensten ermöglichen und können sogar neue Formen der Leistungserbringung für ältere Patienten schaffen. Aktuelle Forschungen zeigen, dass viele ältere Erwachsene an Informationstechnologien interessiert und gewillt sind, Informationstechnologien zu nutzen, und zeigen damit die möglichen Auswirkungen von Informationstechnologien auf die Verhaltensmedizin. Es können jedoch Schwierigkeiten auftreten, da Probleme mit dem Schnittstellendesign und der Informationsarchitektur Hindernisse für die Nutzung dieser Technologien durch ältere Patienten darstellen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-21586-0_7 5f03e9ee0014763b6de869adcf274c18;de;;;7.3.;;;Eine schlaue Bergung von semantischen Webinhalten mit dem Beharren auf geringer Präzision und geringem Wiederaufruf Das Extrahieren von semantischen Webinhalten ist die Erweiterung des gegenwärtigen Webs, bei der den Daten eine höhere Bedeutung beigemessen wird und Benutzern ermöglicht wird, durch die Nutzung der Ressourcen des Webs nahe beieinander zu arbeiten. Aufgrund der schnelleren Erweiterung von Webinhalten ist es schwierig, sich an neue Trennverfahren anzupassen, um die genauen Daten im Hinblick auf die Benutzeranfrage zu erstellen. Später haben eine Reihe von Wissenschaftlern versucht, die Nachwirkungen des Web-Content-Mining durch den Missbrauch der Web-Semantischen Struktur zu verbessern und können im Web durch maschinell verarbeitbare Daten ausgeführt werden, um die Besorgungen der Benutzer zu unterstützen. Aber diese Methoden führen zu geringer Präzision [unziemliche Daten aus unterschiedlichen Abfrageergebnissen (zweideutig)] und zu einem Abheben von Basisdaten (d. h. geringer Rückruf) mit hoher Surfzeit. Daher schlägt das Papier das semantische Web-Content-Mining vor, das zwei Möglichkeiten zum Umgang mit Dodge Low Precision und Low Recall nutzt: zum einen Kalman-Bucy-Filter, um vergleichbare Informationen zu kanalisieren, zum anderen eine adaptive Helmholtz-Maschine, um die genauen Daten zu erhalten Licht der Benutzerabfrage. Der vorgeschlagene Kalman-Bucy-Filterungsansatz mit adaptiver Helmholtz-Maschinenausführung wird bewertet und mit bestehenden Methoden in Bezug auf Abrufgenauigkeit und Surfzeit durch dual vorhergesagte Ausgabe und den optimierten Informationsabruf statt Wahrscheinlichkeit verglichen.;-;-;-;https://link.springer.com/article/10.1007/s11277-020-07046-2 258549ca8d7a7518495fdb2e7373e11d;de;;;7.3.;;;Zeitliche Schindelung zur Versionsidentifikation in Webarchiven Der Aufbau und die Erhaltung von Archiven des sich entwickelnden Webs ist ein wichtiges Problem in der Forschung. Angesichts der großen Menge an Inhalten, die täglich hinzugefügt oder aktualisiert werden, ist die Identifizierung der richtigen Versionen von Seiten für die Speicherung im Archiv ein wichtiger Baustein jedes großen Archivsystems. In diesem Artikel wird die zeitliche Schindelbildung vorgestellt, eine Erweiterung der etablierten Schindeltechnik, um zu messen, wie ähnlich zwei Schnappschüsse einer Seite sind. Diese neuartige Methode berücksichtigt die Lebensdauer von Schindeln, um zwischen wichtigen Aktualisierungen, die archiviert werden sollten, und vorübergehenden Änderungen, die ignoriert werden können, zu unterscheiden. Umfangreiche Experimente demonstrieren den Kompromiss zwischen Archivgröße und Versionsabdeckung und zeigen, dass die neue Methode eine bessere Archivabdeckung bei kleineren Größen als bestehende Techniken liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12275-0_44 e80cc4aed80910b9c3d9678b5c651949;de;;;7.3.;;;Modellierung und Unterstützung der Web-Navigation Die Navigation innerhalb einer Website ist ein wichtiger Faktor für den Erfolg einer Website. Eine schnellere und einfache Web-Navigation führt zu einer besseren Benutzerfreundlichkeit und reduziert die kognitive Belastung des Benutzers. Es gibt mehrere kognitive Modelle, die den Web-Navigationsprozess simulieren. In diesem Beitrag schlagen wir ein neues kognitives Modell vor – CoLiDeS++Pic (basierend auf dem Comprehension-based Linked Model of Deliberate Search oder CoLiDeS), das Pfadadäquanz- und Backtracking-Strategien beinhaltet. Dieses Modell berücksichtigt auch die Semantik von Bildern. Zunächst präsentieren wir hier die Ergebnisse eines Experiments, in dem wir die Wirksamkeit von Unterstützung auf Basis des neuen Modells CoLiDeS++Pic und Multitasking unter kognitiv anspruchsvollen Situationen testen. Die Ergebnisse belegen, dass die modellgenerierte Unterstützung wirksam ist. Zweitens schlagen wir auch vor, dass auf diese Weise das Navigationsverhalten im Vergleich zu früheren Modellen besser modelliert werden kann. Wir überprüfen diese Hypothese, indem wir das Modell auf einer Mock-up-Website simulieren und die Ergebnisse mit einem Vorgängermodell CoLiDeS+ vergleichen. In Erweiterung unserer bisherigen Arbeit zeigen wir, dass die Leistung des neuen Modells CoLiDeS++Pic im Vergleich zum Vorgängermodell CoLiDeS+ verbessert ist. Wir diskutieren weiter die Herausforderungen und Vorteile der Automatisierung der Navigationsunterstützung mit dem vorgeschlagenen Modell.;-;-;-;https://link.springer.com/article/10.1186/s40166-015-0008-9 095a7b901216c35e777027f26f1c780e;de;;;7.3.;;;Ein Filtersystem des Webprotokolls unter Verwendung der Browsing-Eigenschaft Die meisten Webbrowser verfügen über eine Webprotokollfunktion, um zu den Seiten zurückzukehren, die der Benutzer zum Ansehen verwendet. Allerdings verwenden es nur wenige Leute, um Webseiten erneut zu besuchen. In dieser Studie schlagen wir ein Filtersystem für den Webverlauf vor, das nur die Webseiten enthält, die mit höherer Wahrscheinlichkeit erneut aufgerufen werden. Ob besuchte Webseiten mit größerer Wahrscheinlichkeit erneut besucht werden oder nicht, wird durch die Merkmale des Surfverhaltens des Benutzers bestimmt. Unsere Ergebnisse verdeutlichen die Browsing-Eigenschaften der Benutzer, damit ein Filtersystem des Webverlaufs gut funktioniert. Diese Studie zeigt eine Lösung für den erneuten Besuch von Webseiten unter Verwendung der Webverlaufsfunktion.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-20612-7_26 8e699144af6f24c9f76c1aac1fb36bcc;de;;;7.3.;;;Sitzungsbasiertes Zufallsauswahl-Padding-Schema mit elliptischer Kurvenkryptografie für die Entwicklung von Webservice-Sicherheit Security Die Entwicklung der Informationstechnologie verlagert die Benutzer dazu, auf verschiedene Dienste zuzugreifen und verschiedene Aktivitäten über Webdienste auszuführen. Die Webdienste bieten den Benutzern eine einfache Anpassung und Zugänglichkeit. Da die Webdienste lose gekoppelt sind, besteht eine größere Chance, von Zwischenhändlern erwischt und verschiedenen Bedrohungen ausgesetzt zu sein. Um die Sicherheit von Webdiensten zu verbessern, werden viele Ansätze diskutiert, jedoch hinkt die Sicherheitsleistung hinterher. Zur Verbesserung des sicherheitssitzungsbasierten Zufallsauswahl-Padding-Schemas wird in diesem Papier diskutiert. Das Verfahren initialisiert die elliptische Kurve und teilt sie in mehrere Abschnitte auf. Bei jeder Sitzung wird ein bestimmter Abschnitt zufällig ausgewählt und ein einzelner Schlüssel wird als privater Schlüssel für die Sitzung verwendet. Die Auswahl des Schlüssels erfolgt zufällig. In ähnlicher Weise wird basierend auf dem numerischen Wert der ausgewählten Region ein Padding-Schema verwendet. Das vorgeschlagene Verfahren reduziert die Zeitkomplexität der Schlüsselgenerierung und -verifizierung. Außerdem verbessert das vorgeschlagene Verfahren die Leistung der Webdienste.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8221-9_39 a56be62ae315574b116da55421f9296d;de;;;7.3.;;;Eine Anwendbarkeit von Übergangsmechanismen für IPv6/IPv4 im Rahmen von GPRS mit einer Internetkommunikation In den letzten Jahren wurde eine neue Version des Internetprotokolls erlebt, und beim Übergang vom traditionellen IPv4-basierten Internet zu einem IPv6-basierten Internet wird stark auf Konzepte neuer Protokolle zurückgegriffen. Als Ergebnis wird erwartet, dass der mobile Knoten General Packet Radio Service (GPRS) mit IPv6-Unterstützung ist und wahrscheinlich IPv4-Dienste verwendet. Daher ist es für Planer von Übergangsstrategien ein großes Anliegen, die Konnektivität zwischen IPv6-fähigen Endbenutzern und IPv4 bereitzustellen. Als Ergebnis werden von Forschern viele Interworking-Techniken in Bezug auf Übergangsmechanismen vorgeschlagen. Ihre Anwendbarkeit zwischen GPRS und Internet beeinflusst jedoch viele Faktoren wie die End-to-End-Integrität der Daten und die Sicherheit der Kommunikation. Daher konzentriert sich das Papier hauptsächlich auf die Anwendbarkeit des Übergangsmechanismus, wenn diese Faktoren aus Sicht des GPRS-Benutzers das Hauptproblem darstellen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-40019-2_7 a8c81b9ffa7369438b1fef3275f7fa09;de;;;7.3.;;;Lesebegleiter: Ein interaktiver webbasierter Tutor zur Verbesserung der Lese- und Schreibfähigkeiten In diesem Artikel werden die Erkenntnisse aus der Entwicklung von Reading Companion diskutiert, einem webbasierten System, das mithilfe von Spracherkennungstechnologie Kindern und Erwachsenen hilft, ihre Lese- und Schreibfähigkeiten zu verbessern. Ein animierter Tutor-Charakter „spricht“ und „hört“ dem Leser zu und führt ihn beim Lesen von E-Books, die von seinem Lehrer aus einer virtuellen Bibliothek ausgewählt wurden. Das System erstellt detaillierte Leistungsberichte für jeden Schüler und da es im Internet verfügbar ist, können die Lernenden, wenn sie zu Hause sind, dort weiterlesen, wo sie aufgehört haben, um ihre Fortschritte mit ihrer Familie zu teilen. Wir diskutieren überwundene Implementierungsherausforderungen sowie Feedback von Benutzern und Lehrern. Unseres Wissens ist dies die erste erfolgreiche Implementierung einer interaktiven Echtzeit-Spracherkennung mit Flash im Internet. Wir glauben, dass dies ein wertvolles Modell dafür darstellt, wie Sprache im Web als Teil interaktiver Anwendungen verwendet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74800-7_28 f017386324781b846046fa6375083ca0;de;;;7.3.;;;Automatische Integration von Web-Suchoberflächen mit WISE-Integrator Eine wachsende Zahl von Datenbanken wird über formularbasierte Suchschnittstellen über das Internet zugänglich, und viele dieser Quellen sind datenbankgestützte E-Commerce-Sites. Es ist eine gewaltige Aufgabe für Benutzer, auf zahlreiche Websites einzeln zuzugreifen, um die gewünschten Informationen zu erhalten. Daher ist die Bereitstellung eines einheitlichen Zugangs zu mehreren E-Commerce-Suchmaschinen, die ähnliche Produkte verkaufen, von großer Bedeutung, damit Benutzer problemlos Produkte von mehreren Websites suchen und vergleichen können. Eine Schlüsselaufgabe zur Bereitstellung einer solchen Fähigkeit besteht darin, die Web-Suchschnittstellen dieser E-Commerce-Suchmaschinen zu integrieren, damit Benutzeranfragen an die integrierte Schnittstelle gesendet werden können. Derzeit erfolgt die Integration solcher Suchschnittstellen entweder manuell oder halbautomatisch, was ineffizient und schwer zu warten ist. In diesem Beitrag stellen wir WISE-Integrator vor - ein Tool, das die automatische Integration von;-;-;-;https://link.springer.com/article/10.1007/s00778-004-0126-4 a943c9e87df2904fb8243c15492bc53a;de;;;3.4.;;;Ein Framework eines Dashboard-Systems für die Hochschulbildung mit graphenbasierter Visualisierungstechnik Wir schlagen einen neuartigen Ansatz der Wissensvisualisierungsmethode vor, indem wir eine graphenbasierte Visualisierungstechnik anwenden und das Dashboard-Konzept für Hochschuleinrichtungen integrieren. Zwei Aspekte werden hervorgehoben, Wissensvisualisierung und Mensch-Maschine-Interaktion. Die Wissensvisualisierung hilft den Nutzern, die umfassenden Eigenschaften der Studierenden, Dozenten und Fächer zu analysieren, nachdem der Clustering-Prozess und die Interaktion Domänenwissenstransfer und die Nutzung der Wahrnehmungsfähigkeiten des Menschen ermöglicht und somit die Intelligenz des Systems erhöht. Die Wissensvisualisierung wird durch das Dashboard-Konzept verbessert, wo es signifikante Wissensmuster zur realen und theoretischen Modellierung bereitstellt, die als Weisheit bezeichnet werden könnten. Das Framework besteht aus dem Dashboard-Modell, der Systemarchitektur und dem Systemprototyp für die Hochschulumgebung und wird in diesem Papier vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14292-5_7 d577ece4eebf032240c7f7bfaba54bc6;de;;;7.3.;;;Der Zweck von PKI Die Kryptografie mit öffentlichen Schlüsseln trägt dazu bei, Systeme der Informations- und Kommunikationstechnologie (IKT) sicherer zu machen. Public-Key-Infrastrukturen (PKIs) ermöglichen den Einsatz von Public-Key-Kryptographie in offenen Computernetzen, insbesondere im Internet. In diesem Kapitel veranschaulichen wir anhand charakteristischer Beispiele für Internetanwendungen potenzielle Bedrohungen für die IKT und beschreiben wichtige Sicherheitsziele, die mit Public-Key-Kryptographie und PKI erreicht werden können. Wir besprechen die Grundlagen der Kryptografie mit öffentlichen Schlüsseln und erklären, wie diese Technologie die in diesem Kapitel erläuterten Sicherheitsziele unterstützt. Abschließend stellen wir die Herausforderungen vor, die zur Notwendigkeit von PKI führen. Weitere Einzelheiten zur Kryptographie mit öffentlichen Schlüsseln finden Sie in [4].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40657-7_1 854306e99e2b93fe7343c26275fc5b16;de;;;7.3.;;;Semantic Web-Standards und Ontologien zur Unterstützung von Gesetzesentwürfen Maschinenlesbare offene öffentliche Daten und das Thema mehrsprachiges Web sind offene Herausforderungen, die versprechen, die Beziehung zwischen Bürgern und europäischen Institutionen zu verändern. In diesem Zusammenhang zielt das DALOS-Projekt darauf ab, Kohärenz und Angleichung in der Gesetzgebungssprache sicherzustellen und dem Gesetzgeber Wissensmanagement-Instrumente zur Verfügung zu stellen, um die Kontrolle über die mehrsprachige Komplexität der europäischen Gesetzgebung und über die sprachlichen und konzeptionellen Probleme bei ihrer Umsetzung in nationales Recht zu verbessern . Dieses Papier beschreibt die Entwurfs- und Umsetzungsaktivitäten, die auf der Grundlage einer Reihe von parallelen Texten in verschiedenen Sprachen zu einem bestimmten Rechtsthema durchgeführt wurden. Natürliche Sprachverarbeitungstechniken wurden angewendet, um automatisch Lexika für jede Sprache zu erstellen. Die lexikalische und konzeptionelle mehrsprachige Ausrichtung wurde unter Ausnutzung der Position von Begriffen in parallelen Dokumenten erreicht. Es wurde eine Ontologie entwickelt, die Entitäten beschreibt, die an der gewählten Domäne beteiligt sind, um eine semantische Beschreibung von Begriffen in Lexika bereitzustellen. Eine modulare Integration solcher Ressourcen, die im RDF/OWL-Standardformat dargestellt werden, ermöglichte ihren effektiven und flexiblen Zugriff von einem Prototyp einer Gesetzesentwurfsanwendung, der in der Lage ist, Rechtsdokumente mit Begriffsmarkierungen und semantischen Anmerkungen anzureichern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15158-3_16 6e79ef9ede2d41600fe030bed704cbed;de;;;7.3.;;;Verbraucherprofilerstellung mit Fuzzy-Query und Techniken für soziale Netzwerke Web-Communitys besitzen die beispiellose Fähigkeit, die Kommunikationsnetzwerke, die ihre Benutzer verbinden, mit Leichtigkeit abzubilden. Diese Informationen zur sozialen Konnektivität in Kombination mit der sofortigen Rückmeldung der Web-Interaktivität schaffen das Potenzial für fortschrittliche, automatisierte Verbraucherprofilierungssysteme, die für gezielte Werbung und andere kommerzielle Zwecke verwendet werden können. Diese Studie schlägt eine Methode für die Erstellung von Verbraucherprofilen vor, die von der Theorie sozialer Netzwerke inspiriert ist und auf dem BISC Decision Support System basiert. Reale Anwendungen und mögliche ethische Bedenken werden ausführlich untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-32365-1_9 80747200a94a9775db05949d6a9e835c;de;;;7.3.;;;Verwendung von Fuzzy Rough Set Attribute Reduction in High Scent Webseiten-Empfehlungen Informationen im Web wachsen in rasantem Tempo und das Informationsbedürfnis der Nutzer im Web zu befriedigen ist eine große Herausforderung. Suchmaschinen sind der große Durchbruch im Bereich der Informationssuche im Web. Es wurde in der Literatur recherchiert, um das Information Scent in Query Session Mining zu verwenden, um die Webseitenempfehlungen zu generieren. Niedrige Recheneffizienz und Klassifikationsgenauigkeit sind die Hauptprobleme, denen aufgrund der hohen Dimensionalität des Schlüsselwortvektors von Abfragesitzungen, die für die Webseitenempfehlung verwendet werden, gegenübersteht. In diesem Artikel wird die Verwendung von Fuzzy Rough Set Attribute Reduction zur Reduzierung der hohen Dimensionalität von Schlüsselwortvektoren zur Verbesserung der Klassifikationsgenauigkeit und der Recheneffizienz im Zusammenhang mit der Verarbeitung von Eingabeabfragen vorgestellt. Experimentelle Ergebnisse bestätigen die Verbesserung der Genauigkeit der Suchergebnisse, die mit den Daten durchgeführt wurden, die aus dem Webprotokoll der Suchmaschine „Google“ extrahiert wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10646-0_23 5e62d769814a88cc61914b5e97d69328;de;;;7.3.;;;Kostengünstiges System für das Supply Chain Management In diesem Beitrag wird ein Gesamtkonzept für Internet Electronic Data Interchange (EDI) - ein bekanntes Schlagwort im Bereich Logistik und Supply Chain Management zur Automatisierung der Interaktionen zwischen Unternehmen und ihren Partnern - mittels XML (eXtensible Markup Language) vorgestellt. vorgeschlagen werden. Dieser Ansatz basiert auf Internet und XML, da die Implementierung von traditionellem EDI (z.B. EDIFACT, ANSI X.12) für kleine und mittelständische Unternehmen, die ihre Lieferanten und Kunden in eine Supply Chain einbinden wollen, meist zu aufwendig ist. Der Beitrag präsentiert auch die Ergebnisse der Implementierung eines Prototyps für ein solches System, das für einen Industriepartner entwickelt wurde, um die aktuelle Situation der Teilelieferung zu verbessern. Die Hauptfunktionen dieses Systems sind ein Frühwarnsystem, um Probleme während des Teilelieferprozesses so früh wie möglich zu erkennen, und ein Transportverfolgungssystem zur Verfolgung des Transports.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35412-5_18 739acc29056b358c90f4b2a7aedaaacf;de;;;7.3.;;;Clustering von DTDs: Ein interaktiver zweistufiger Ansatz XML (eXtensible Markup Language) ist ein Standard, der in der Datendarstellung und im Datenaustausch weit verbreitet ist. Als wichtiges Konzept von XML wird DTD (Document Type Definition) jedoch in aktuellen Anwendungen nicht vollständig genutzt. In diesem Artikel wird eine neue Methode zum Clustering von DTDs vorgestellt, die beim Clustering von XML-Dokumenten verwendet werden kann. Das zweistufige Verfahren gruppiert die Elemente in DTDs und gruppiert DTDs separat. Element-Clustering bildet die erste Ebene und stellt Element-Cluster bereit, die die Verallgemeinerung relevanter Elemente darstellen. DTD-Clustering verwendet die verallgemeinerten Informationen und bildet die zweite Ebene im gesamten Clustering-Prozess. Das zweistufige Verfahren hat folgende Vorteile: 1) Es berücksichtigt sowohl den Inhalt als auch die Struktur innerhalb von DTDs, 2) Die verallgemeinerten Informationen über Elemente sind nützlicher als die getrennten Wörter im Vektormodell, 3) Das zweistufige Methode erleichtert die Suche nach Ausreißern. Die Experimente zeigen, dass diese Methode in der Lage ist, die relevanten DTDs effektiv zu kategorisieren.;-;-;-;https://link.springer.com/article/10.1007/BF02960771 9e798306a6be9bfb4839ae5dfb4f0954;de;;;7.3.;;;Eine analytische Studie zur Tourismusinformatisierung auf der internationalen Tourismusinsel Hainan Die Tourismusinformatisierung spielt eine sehr wichtige Rolle bei der Entwicklung Hainans zu einer internationalen Tourismusinsel. Dieses Kapitel analysiert die Bedeutung der Tourismusinformatisierung von Hainan. Anschließend geht es auf die aktuelle Situation und Probleme der Tourismusinformatisierung des Landes ein und unterbreitet relevante Vorschläge zur Verbesserung der Tourismusinformatisierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03449-2_13 4c0385e4d5f2f0f0902610fc0ef6e614;de;;;7.3.;;;Analyse und Algorithmus der Load-Balancing-Strategie des Webserver-Cluster-Systems In diesem Whitepaper wurden die Hauptfaktoren analysiert, die die Leistung des Webserver-Clusters und die Lastausgleichsstrategie beeinflussen. Darüber hinaus schlug ein verbesserter gewichteter Round-Robin-Scheduling-Strategiealgorithmus vor, der dabei hilft, die Anforderungen der Web-Clients vernünftig zuzuordnen, um einen dynamischen Lastausgleich für Webserver-Cluster zu erreichen. Experimentelle Ergebnisse zeigten, dass der Algorithmus für die gewichtete Round-Robin-Policy machbar ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31968-6_83 fbd34759d00b2e69f62530938e29fac5;de;;;7.3.;;;Robotik: Wissenschaftliche Informationsquellen in Russland und im Ausland Derzeit werden wichtige russische und ausländische Quellen wissenschaftlicher und technischer Informationen zur Robotik diskutiert. Es wird versucht, wissenschaftliche und technische Zeitschriften des jeweiligen Themas zu analysieren, ausgewählt aus der globalen Wissensdatenbank von Zeitschriften, dh Ulrichs Zeitschriftenverzeichnis. Es werden führende wissenschaftliche Zeitschriften identifiziert, die der Robotik zugeschrieben werden und die die besten bibliometrischen Indikatoren gemäß den globalen Informations- und Analysesystemen Scopus und Web of Science aufweisen. Dabei werden die Besonderheiten der Einordnung der Sachgebiete in verschiedene Klassifikationssysteme und Rubriken für wissenschaftliche und technische Informationen berücksichtigt. Besondere Aufmerksamkeit gilt russischen wissenschaftlichen Zeitschriften über Robotik, die in der russischen wissenschaftlichen elektronischen Bibliothek (eLibrary.ru) enthalten sind, und Informationsquellen des Allrussischen Instituts für wissenschaftliche und technische Informationen der Russischen Akademie der Wissenschaften (VINITI RAS). Ein besonderes Augenmerk liegt auf der Problematik des Zugangs zu diesen und anderen Informationsquellen zur Robotik, die für Forscher und Spezialisten auf diesem Gebiet von großer Bedeutung ist.;-;-;-;https://link.springer.com/article/10.3103/S0147688218020090 c45891047dc02b29d4e4a22b6299f142;de;;;7.3.;;;Der WISE-Ansatz zur Architektur von drahtlosen Diensten Das Internet entwickelt sich schnell in Richtung des drahtlosen Internets, das auf drahtgebundenen Leitungen und Geräten des traditionellen Internets basiert und einige seiner Techniken und Protokolle wiederverwenden wird. Das drahtlose Internet wird jedoch keine einfache Ergänzung zum drahtgebundenen Internet sein. Aus technischer Sicht ergeben sich neue herausfordernde Probleme durch den Umgang mit Mobilität, Handys mit reduzierten Bildschirmen und variierender Bandbreite. Infolgedessen wird die Entwicklung und der Betrieb neuer mobiler Dienste zu einem anspruchsvollen Software-Engineering-Problem. Das WISE-Projekt (Wireless Internet Service Engineering) zielt darauf ab, integrierte Methoden und Werkzeuge zur Entwicklung von Diensten im drahtlosen Internet zu entwickeln. Dieses Papier stellt insbesondere den WISE-Ansatz für das Service Engineering vor, beschreibt seine Anwendung auf einen realen Pilotdienst und berichtet über erste Rückmeldungen von Projektpartnern bei der Anwendung des Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36209-6_31 db1c94997bd078f26f1fc091cf4ebced;de;;;3.4.;;;Entwicklungen und Spannungen auf dem britischen und US-amerikanischen Hörbuchmarkt Dieser Artikel beschreibt neue Rechtsvorschriften zur Förderung der Bereitstellung von Hörbüchern in öffentlichen Bibliotheken im Vereinigten Königreich. Basierend auf Kontakten mit britischen Bibliothekaren, Audioverlagen und einem Vertriebsmitarbeiter von Overdrive werden dann einige kritische Kommentare zu Spekulationen in der Fachliteratur abgegeben, ob Hörbücher als eigenständige Einheit überleben oder in erweiterte Versionen von E-Books aufgenommen werden. Es gibt auch einige Kommentare zum jüngsten Streit zwischen sehbehinderten Interessengruppen und der Industrie über die Text-to-Speech-Funktion des Kindle.;-;-;-;https://link.springer.com/article/10.1007/s12109-010-9165-4 d40c39bc828f98261a08a49fa8ac0b49;de;;;7.3.;;;NavEditOW – Ein System zum Navigieren, Bearbeiten und Abfragen von Ontologien über das Web Trotz des Erfolgs bei der Anwendung von Ontologien als Werkzeuge, die semantikbasierte Ansätze in verschiedenen Anwendungsbereichen unterstützen, behindert der Mangel an einfachen Instrumenten für ihre Visualisierung und Bearbeitung ihre Verbreitung und breite Akzeptanz. Dieses Whitepaper stellt NavEditOW vor, ein System zur Visualisierung, Navigation, Aktualisierung und Pflege von Ontologien über das Web. Das Papier beschreibt die Funktionalitäten, die das System bietet, sowie seine interne Architektur. Eine Beschreibung ihrer Anwendung auf die Darstellung und das Management archäologischen Wissens zur Beschreibung von Publikationen in einer E-Library schließt den Beitrag ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74829-8_84 e2ac730515308481d8a41b15ae68ebc2;de;;;7.3.;;;Analyse des Einflusses der Netzwerktopologie auf das Design von ISP-betriebenem CDN Die Übertragungsbandbreite, die durch die Bereitstellung von umfangreichen Inhalten, wie z. B. Filmdateien, verbraucht wird, ist enorm, daher ist es für ISPs dringend erforderlich, ein effizientes Bereitstellungssystem zu entwickeln, das die Menge der verbrauchten Netzwerkressourcen minimiert. Um den Nutzern reichhaltige Inhalte wirtschaftlich und effizient bereitzustellen, sollte ein ISP selbst Server mit riesigen Speicherkapazitäten an einer begrenzten Anzahl von Standorten innerhalb seines Netzwerks bereitstellen. Daher haben wir die Content-Deployment-Methode und den Content Delivery-Prozess untersucht, die für dieses vom ISP betriebene Content Delivery Network (CDN) wünschenswert sind. Wir haben auch ein optimales Cache-Server-Zuweisungsverfahren für ein vom ISP betriebenes CDN vorgeschlagen. In diesem Papier untersuchen wir die Eigenschaften der topologischen Standorte von Knoten, an denen die Cache-Platzierung effektiv ist, unter Verwendung von 31 Netzwerktopologien von tatsächlichen ISPs. Außerdem klassifizieren wir die 31 Netzwerke in zwei Typen und bewerten die optimale Cache-Anzahl in jedem Netzwerktyp.;-;-;-;https://link.springer.com/article/10.1007/s11235-011-9605-2 9c508794e81bcb3b8cf62d610addcb1a;de;;;7.3.;;;Algorithmen zur Speicherkapazitätszuweisung für die hierarchische Inhaltsverteilung Das Hinzufügen von Speicherkapazität in Netzwerkknoten für das Caching oder die Replikation populärer Datenobjekte führt zu geringeren Verzögerungen beim Endbenutzer, reduziertem Netzwerkverkehr und verbesserter Skalierbarkeit. Das Problem der Zuweisung eines verfügbaren Speicherbudgets an die Knoten eines hierarchischen Inhaltsverteilungssystems wird formuliert, optimale Algorithmen sowie schnelle/effiziente Heuristiken werden zu seiner Lösung entwickelt. Ein innovativer Aspekt des vorgestellten Ansatzes besteht darin, dass er alle relevanten Teilprobleme bezüglich Knotenlagen, Knotengrößen und Objektplatzierung vereint und gemeinsam in einem einzigen Optimierungsschritt löst. Die entwickelten Algorithmen können in Inhaltsverteilungsnetzwerken verwendet werden, die entweder Replikation oder Zwischenspeichern/Ersetzen verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-23198-6_14 4a36aa9e80e144c2c515f82bdb2659c8;de;;;7.3.;;;Ein konzeptionelles Graphenmodell für das W3C Resource Description Framework Mit dem Ziel, ein „Semantic Web“ aufzubauen, müssen die Inhalte der Dokumente explizit durch Metadaten repräsentiert werden, um eine inhaltsgeführte Suche zu ermöglichen. Unser Ansatz besteht darin, eine Standardsprache (RDF, empfohlen vom W3C) zum Ausdrücken solcher Metadaten zu nutzen und diese Metadaten in konzeptionellen Graphen (CG) zu interpretieren, um die durch den CG-Formalismus ermöglichten Abfrage- und Inferenzfähigkeiten auszunutzen. Der Beitrag präsentiert unsere Abbildung von RDF in CG und ihr Interesse im Kontext des semantischen Webs.;-;-;-;https://link.springer.com/chapter/10.1007/10722280_32 6e2327e759a60397ac7d3a584d5b2e08;de;;;7.3.;;;Ein Webservice-Ansatz zur geografischen Datenverteilung in öffentlichen Verwaltungen In diesem Beitrag wird eine serviceorientierte Architektur (SOA) vorgeschlagen, um die Interaktion mit älteren geografischen Informationssystemen (GIS) und die Implementierung von Mehrwertdiensten für den Datenaustausch zu unterstützen. Insbesondere stützen wir unsere vorgeschlagene Architektur sowohl auf die Standardisierungsbemühungen des Open Geospatial Consortium (OGC) als auch auf die aktuelle State-of-the-Art Web Service Middleware-Infrastruktur. Wir haben die vorgeschlagene Architektur im Kontext der GIS-Anwendungsintegration in einem Backoffice-Szenario einer Abteilung evaluiert. Die Vorteile einer serviceorientierten Architektur liegen in zweierlei Hinsicht: Einerseits ist es möglich, mehrere GIS-Anwendungen und Datenquellen einfach zu integrieren, indem man ihre (Legacy-)Services mit entsprechender Schnittstelle umhüllt und in Web-Service-Verzeichnissen registriert, Dieses neue Service-Paradigma kann verwendet werden, um die Schaffung völlig neuer Dienste zum Teilen von kartografischen Daten zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-29773-1_22 19b65681d3e3ab133cefb21c593ba768;de;;;7.3.;;;Analyse des Browserverhaltens von Webbenutzern basierend auf a Die Analyse der Verhaltensmerkmale des Web-Benutzer-Browsers ist eine Schlüsseltechnologie in den Domänen, wie z. B. Initiative Web Information Retrieval and Information Recommendation. Unter Berücksichtigung des Layouts von Webseiten haben wir in diesem Papier einen charakteristischen (BC)-Baum des Benutzer-Browsing-Verhaltens basierend auf dem Browserverlauf von Web-Benutzern konstruiert und dann einen neuen Ansatz zur Analyse von Web-Benutzer-BC-Bäumen entwickelt. Diese Methode liefert uns die interessanten Themen eines Benutzers, den Umfang und die Tiefe dieser Themen, sowie die Erklärung der Häufigkeit des Zugriffs auf hierarchische Blockpfade auf Webseiten. Wir haben die Effizienz mit Experimenten veranschaulicht und gezeigt, dass der vorgeschlagene Ansatz in der Initiative Web Information Retrieval and Information Recommendation vielversprechend ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15470-6_52 6c08b0e5b735974c0ba6b5dfb34ab093;de;;;7.3.;;;Unterrichtsnutzungen des WWW: Ein Bewertungsinstrument Die Entwicklung des World Wide Web (WWW) und die anschließende Einführung verschiedener Browser mit ihren Erweiterungen hat das Internet von einem reinen Textkommunikationswerkzeug zu einer leistungsfähigen Multimediaplattform mit täglich wachsenden Einsatzmöglichkeiten gewandelt. Die Forschungsanstrengungen im Bereich der computergestützten Bildung werden durch ein breites Anwendungsspektrum repräsentiert, vom virtuellen Klassenzimmer bis hin zu Fernkursen. In diesen Umgebungen ist die Visualisierung des Fortschritts der Schüler in einem bestimmten Kurs ein wichtiger Bestandteil des Lernprozesses. An der Universidad Politecnica de Valencia experimentieren wir mit WWW-basierten Softwaretools und Netzwerken für computergestütztes Lernen. Dieser Forschungsprozess hat zur Entwicklung eines Autorentools für Lehrer und einer Evaluierungsanwendung geführt, die beide mit Java entwickelt wurden und auf Internetbrowsern basieren. Mit diesem Auswertungstool können Lehrer ganz einfach Fragen unterschiedlicher Art erstellen – die in einer Datenbank gespeichert werden. Aus diesen Fragen lassen sich später je nach Lehrveranstaltung und Prüfungsziel unterschiedliche Prüfungen oder Übungen für unterschiedliche Studierende zusammenstellen. Zu den Vorteilen zählen eine Verbesserung der Erfüllung der Lehrerpflichten, eine Erhöhung der Reaktionsfähigkeit der Prüfungsergebnisse auf den Kenntnisstand der Studierenden und die Einsatzmöglichkeiten der Anwendung im Fernunterricht und in der Ausbildung.;-;-;-;https://link.springer.com/article/10.1023/A%3A1019265126113 5d562b9cf3af212d41adc53197ea113a;de;;;7.3.;;;Mining von Webverknüpfungen Im letzten Kapitel haben wir einige Forschungsfragen zum Thema Web Content Mining angesprochen. Neben der in Webdaten eingebetteten Textdarstellung ist die Verknüpfungsfunktion ein weiterer wichtiger Aspekt, an dem wir oft interessiert sind. Die Webverknüpfung vermittelt die Information, wie verschiedene Seiten miteinander verbunden sind und das riesige Web bilden. Web Linkage Mining besteht also darin, die in den Hyperlinks verborgenen zugrunde liegenden Strukturen aufzudecken und für weitere Webanwendungen wie die Suche zu nutzen. In diesem Kapitel werden wir über einige bekannte Algorithmen und ihre Anwendungen sprechen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-7735-9_5 2093d9abda3f0df364f5a8a2d7754446;de;;;7.3.;;;Automatische Übergabeentscheidung im Content Centric Networking Die aktuelle Internetarchitektur wurde vor mehr als 30 Jahren für ganz andere Dienste konzipiert als heute. Für ein zukünftiges Internet wurden mehrere neue Architekturen vorgeschlagen, um die heutigen und zukünftigen Anforderungen besser zu erfüllen. Content Centric Networking (CCN) ist eine dieser neuen Architekturen, die von Forschern weltweit beachtet wird und im Mittelpunkt dieses Artikels steht. CCN basiert auf der Benennung von Inhalten anstelle von Hosts, die es Routern ermöglichen, beliebte Inhalte zwischenzuspeichern. Es hat sich gezeigt, dass CCN auch Punkt-zu-Punkt-Echtzeitgespräche unterstützen kann, beispielsweise Sprach- oder Videoanrufe. Es wurde jedoch nicht definiert, wie die Knotenmobilität in einem solchen Echtzeitszenario mit starken Zeitbeschränkungen erreicht werden kann. In diesem Papier wurde eine eingehende Untersuchung der Übergabealgorithmen durchgeführt. Ein Handover-Entscheidungsträger, der auf dem Neuro-Fuzzy-System (NFS) basiert, wird vorgeschlagen und evaluiert. Die Ergebnisse zeigen, dass der vorgeschlagene Entscheidungsträger die Designziele erfüllt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32808-4_26 520ab61e1de72fcd77915b6f91939b08;de;;;7.3.;;;Internetsucht und Aggression: Die vermittelnden Rollen von Selbstkontrolle und positivem Affekt Internetsucht wurde mit einem erhöhten Engagement für aggressives Verhalten in Verbindung gebracht, obwohl die individuellen Merkmale, die das Risiko für diese problematischen Verhaltensweisen erhöhen können, unbekannt sind. Die aktuelle Studie untersuchte, ob Selbstkontrolle und subjektives Wohlbefinden (indiziert nach positivem und negativem Affekt) den Zusammenhang zwischen Internetsucht und Aggression bei einer Stichprobe von 284 israelisch-palästinensischen Schülern der Klassen 9 bis 12 an zehn staatlichen Schulen in Israel vermittelten. Internetsucht wurde positiv mit aggressivem Verhalten assoziiert (;-;-;-;https://link.springer.com/article/10.1007/s11469-019-00220-z 407e3676a9c72398287f527a5879de63;de;;;7.3.;;;E-Mail und Neuigkeiten E-Mail ist zu einem Teil unseres Lebens geworden, aber haben Sie sich jemals gefragt, wie E-Mails von Ihrem PC zu jemandem um die halbe Welt gelangen? Ihr E-Mail-Client-Programm fordert Sie auf, entweder einen POP- oder einen IMAP-Server sowie einen SMTP-Server anzugeben. Was sind Sie? Wie arbeiten sie zusammen, um Ihre E-Mail-Nachrichten zuzustellen, zu speichern und zu lesen? Sie denken vielleicht, dass das Internet-E-Mail-System komplex für Sie ist, aber wie sich herausstellt, ist es im Kern ein unglaublich einfaches System. Die gute Nachricht ist, dass es mit PHP überraschend einfach ist, Anwendungen zu erstellen, die E-Mail-Nachrichten und Nachrichten senden oder empfangen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-1120-4_12 2acefd49c320144ca7b9cd10db72218b;de;;;7.3.;;;Neurokognitiver Ansatz zum Clustering von PubMed-Abfrageergebnissen Internet-Literaturabfragen liefern eine lange Liste von Zitaten, geordnet nach Relevanz oder Datum. Abfrageergebnisse können auch unter Verwendung von Visual Language dargestellt werden, die als Eingabe eine kleine Menge von semantisch verwandten Konzepten verwendet, die in den Zitaten vorhanden sind. Erste Experimente mit einer solchen Visualisierung wurden mit PubMed neuronalen Plastizitätszitationen mit manuell erstellten semantischen Graphen durchgeführt. Hier werden neurokognitive Inspirationen verwendet, um automatisiert ähnliche semantische Graphen zu erstellen. Auf diese Weise wird eine lange Liste von Zitaten in kleine semantische Graphen umgewandelt, die eine halbautomatische Abfrageverfeinerung und literaturbasierte Entdeckung ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03040-6_9 49ac3553049c65c4a0b37812b816854a;de;;;7.3.;;;Darstellungstechniken, die am besten für das Semantic Web befolgt werden - Web Mining Web Mining ist eine Data-Mining-Technik, die häufig verwendet wird, um Milliarden von Informationen aus dem World Wide Web (WWW) so schnell wie möglich mit der exakten Übereinstimmung der Daten zu gewinnen. Die riesigen Informationen, die im WWW in verschiedenen Formaten verfügbar sind, wie: Textformatdateien, Bilder, Dokumente und andere Datenformen wie strukturierte, halbstrukturierte und unstrukturierte Formulare Die Menge dieser Informationen wächst von Tag zu Tag. Data Mining ist die Technik, die verwendet wird, um die im Internet verfügbaren Daten zu extrahieren. Die Web-Mining-Technik wird verwendet, um Informationen aus Datenquellen im Zusammenhang mit dem Web zu ermitteln und zu ermitteln, bei denen es sich um Dokumente im Web, Inhalte im Web, Serverprotokolle und Hyperlinks handelt. Das Semantic Web wird verwendet, um Informationen in einer definierten Bedeutung bereitzustellen, die die Interoperabilität zwischen Mensch und Maschine verbessert, wodurch der Raum geschaffen wurde, in dem die Maschinen die meisten Entscheidungen und Aufgaben erledigen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-24318-0_79 7fd9ff7ee747bf5987b3cec0d9565bb5;de;;;7.3.;;;Anwenden von Semantic Web Services und drahtlosen Sensornetzwerken für die Systemintegration In Umgebungen wie Fabriken, Gebäuden und Häusern ändern sich Automatisierungsdienste häufig während ihrer Lebensdauer. Änderungen betreffen Geschäftsregeln, Prozessoptimierung, Kostensenkung usw. Es ist wichtig, einen reibungslosen und unkomplizierten Weg zu bieten, um mit diesen Änderungen umzugehen, damit sie schneller und kostengünstiger abgewickelt werden können. Einige prominente Lösungen nutzen die Flexibilität drahtloser Sensornetzwerke und die aussagekräftige Beschreibung von Semantic Web Services, um die Serviceintegration bereitzustellen. In dieser Arbeit geben wir einen Überblick über aktuelle Lösungen für die Maschinenintegration, die beide Technologien kombinieren, sowie eine Diskussion über einige Perspektiven und offene Fragen beim Einsatz von Wireless Sensor Networks und Semantic Web Services für die Integration von Automatisierungsdiensten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03978-2_15 b6900ad075b1d7e63b6e41a1d52532e0;de;;;7.3.;;;Extrahieren von Bedenken und Berichten über Verbrechen in Blogs Unter anderen Domänen und Themen, über die einige Themen in der Blogosphäre häufig diskutiert werden, ist die Kriminalität einer der am ernsthaftesten diskutierten Bereiche verschiedener Blogger. Solche Informationen über Straftaten in Blogs sind besonders wertvoll für diejenigen, die mit Tipps zur Verhinderung von Opfern nicht vertraut sind. Dieses Papier schlägt einen Rahmen vor, um die Sorgen der Menschen und Berichte über Verbrechen in ihren eigenen Blogs herauszuarbeiten. In diesem Rahmen lösen wir zwei Aufgaben. In der ersten Aufgabe konzentrieren wir uns auf Experten im Bereich der Kriminalität und befassen uns mit dem Thema, Bedenken zu Straftaten zu extrahieren, z. In der Auswertung dieser ersten Aufgabe zeigen wir, dass wir Experten-Blogger erfolgreich in den Ergebnissen des Blog-Feed-Abrufs einstufen. In der zweiten Aufgabe konzentrieren wir uns hingegen auf Opfer von Straftaten und adressieren das Problem der Erhebung von Berichten über Viktimisierung. Bei der Auswertung dieser zweiten Aufgabe zeigen wir, dass wir das Ranking von Blogposts basierend auf der Suchmaschinen-API übertreffen, indem wir Abhängigkeitsbeziehungen zur Identifizierung von Blogposts von Opfern einbeziehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15470-6_50 c8d5e9dc33affad7b8f7833a03962480;de;;;7.3.;;;Ein evolutionärer Ansatz zur automatischen Kategorisierung und Aktualisierung von Webseiten Kataloge spielen in den meisten aktuellen Websuchmaschinen eine wichtige Rolle. Die Kataloge, die Dokumente in hierarchische Sammlungen gliedern, werden manuell gepflegt, was aufgrund des unaufhörlichen Wachstums des WWW schwieriger und teurer wird. Dieses Problem hat viele Forschungen angeregt, an der automatischen Kategorisierung von Webdokumenten zu arbeiten. In Wirklichkeit funktionieren die meisten dieser Ansätze entweder bei speziellen Dokumententypen oder bei eingeschränkten Dokumentenmengen gut. Dieses Papier stellt einen evolutionären Ansatz vor, der nützlich ist, um den Katalog automatisch zu erstellen sowie die Klassifizierung eines Web-Dokuments durchzuführen. Diese Funktionalität beruht auf einer genetisch basierten Fuzzy-Clustering-Methodik, die das Clustering auf den Kontext des Dokuments anwendet, im Gegensatz zum inhaltsbasierten Clustering, das mit den vollständigen Dokumentinformationen arbeitet.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45490-X_35 e71f67eabbc926673cb36a0183d50016;de;;;7.3.;;;Verbraucherethnozentrik offline und online: Die vermittelnde Rolle von Marketingbemühungen und Persönlichkeitsmerkmalen in den USA, Südkorea und Indien Konsumethnozentrismus ist ein wichtiges Konzept, das verwendet wird, um internationale Marketingphänomene zu verstehen. In diesem Artikel führen die Autoren zwei empirische Studien durch. Anhand von Verbraucherdaten aus den USA, Südkorea und Indien (drei verschiedene kulturelle und wirtschaftliche Umgebungen) untersuchen sie sechs Hypothesen. In Stufe 1 deuten die Ergebnisse darauf hin, dass der Ethnozentrismus der Verbraucher in allen drei Ländern negative Einstellungen sowohl gegenüber ausländischer Werbung als auch gegenüber ausländischen Produkten hervorruft. Die Autoren identifizieren eine Reihe von Verbrauchervariablen (d. h. die globale Denkweise der Verbraucher), die die ungünstige Einstellung der Verbraucher gegenüber ausländischer Werbung und Produkten, die durch Verbraucherethnozentrik entstanden sind, vermitteln können. In Stufe 2 stellen die Autoren fest, dass Verbraucherethnozentrik die Online-Konsumaktivitäten der Verbraucher auf einer ausländischen Website dämpft. Schließlich stellen die Autoren fest, dass die E-Mail-Kommunikation von Vermarktern an ausländische Verbraucher die Verbraucherethnozentrik in Online-Umgebungen vermittelt.;-;-;-;https://link.springer.com/article/10.1177/0092070304270140 d9964bc956f36aa26c06ccc189d644a8;de;;;7.3.;;;Das LEMO-Annotations-Framework: Multimedia-Annotationen mit dem Web verweben Kulturinstitutionen und Museen haben erkannt, dass Annotationen wertvolle Metadaten für die Suche und das Auffinden beitragen, die wiederum die Sichtbarkeit der digitalen Objekte erhöhen können, die sie über ihre digitalen Bibliothekssysteme bereitstellen. Durch die Nutzung von Anmerkungen, die von anderen erstellt wurden, können Besucher Inhalte entdecken, die sie sonst nicht gefunden hätten, was bedeutet, dass Anmerkungen für Mensch und Maschine zugänglich und verarbeitbar sein müssen. Derzeit existiert jedoch kein weit verbreiteter Annotationsstandard, der über bestimmte Medientypen hinausgeht. Die meisten Institutionen bauen ihre eigene interne Annotationslösung und verwenden proprietäre Annotationsmodelle, die nicht mit denen anderer Systeme interoperabel sind. Dadurch werden Annotationsdaten meist in geschlossenen Datensilos gespeichert und sind nur im Rahmen eines bestimmten Annotationssystems sichtbar und verarbeitbar. Als Hauptbeitrag dieses Papiers stellen wir das LEMO Annotation Framework vor. Es stellt (1) ein einheitliches Annotationsmodell für multimediale Inhalte und verschiedene Arten von Annotationen bereit, (2) kann Fragmente verschiedener Inhaltstypen einheitlich und interoperabel adressieren und (3) zieht Annotationen aus geschlossenen Datensilos und stellt sie bereit als interoperable, dereferenzierbare Webressourcen. Mit dem LEMO Annotation Framework werden Annotationen Teil des Webs und können von anderen Diensten verarbeitet, verlinkt und referenziert werden. Dies wiederum führt zu einer noch höheren Sichtbarkeit und erhöht den potentiellen Wert von Annotationen.;-;-;-;https://link.springer.com/article/10.1007/s00799-009-0050-8 5aa40afee2ae18e20ba3a697e3c35fc3;de;;;7.3.;;;AURIC: Ein skalierbares und hochgradig wiederverwendbares SLA-Compliance-Audit-Framework Service Level Agreements (SLA) sind erforderlich, damit sich Geschäftsinteraktionen auf Internetdienste verlassen können. Service Level Objectives (SLO) geben das zugesagte Leistungsniveau eines Dienstes an. Daher zielt das SLA-Compliance-Audit darauf ab, diese Verpflichtungen zu überprüfen. Da SLOs für verschiedene Anwendungsdienste und End-to-End-Leistungsdefinitionen stark variieren,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75694-1_21 7daa459cadd07c3625d1a1d45022bfd9;de;;;7.3.;;;Erstellen von umweltsemantischen Webanwendungen mit Drupal Der Aufwand für die Veröffentlichung von Informationen als Linked Data erscheint im Vergleich zum offensichtlichen und unmittelbaren Nutzen oft zu hoch. Folglich kann heute nur ein winziger Bruchteil des Webs ohne weiteres als semantische „Datenbank“ verwendet werden. Drupal 7 ändert die Spielregeln, indem es die für die Strukturierung und semantische Annotation beliebiger Inhaltstypen erforderliche Funktionalität in den Drupal-„Kern“ integriert und die Modulautoren ermutigt, diese Funktionalität in ihren Drupal-Erweiterungen zu verwenden. Dieses Papier präsentiert die jüngsten Erfahrungen der Autoren mit den Stärken und Schwächen der Semantic Web-Erweiterungen Drupal 6 und Drupal 7 und diskutiert die Machbarkeit der zukünftigen semantischen Web-Umgebungsanwendungen basierend auf einer Drupal-Plattform. Die Absicht des Papiers ist (1) den Stand der Technik in der Semantic Web-Unterstützung sowie die Potenziale für die Weiterentwicklung von Drupal heute zu analysieren, (2) die Machbarkeit von Drupal-basierten semantischen Webanwendungen für den Umweltbereich zu beweisen und (3) die Idee von Drupal als Rapid-Prototyping-Entwicklungsumgebung einzuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22285-6_42 6ab6433e4e12de77d32fb7154c1ae083;de;;;7.3.;;;Der Link-Offset-Scale-Mechanismus zur Verbesserung der Benutzerfreundlichkeit von Touchscreen-Displays im Web Berührungsbildschirmschnittstellen sind zu einer weit verbreiteten Eingabevorrichtung für Computersysteme geworden. In diesem Zusammenhang untersuchen viele Studien, wie die allgemeine Benutzerfreundlichkeit von Touchscreen-Geräten verbessert werden kann. Diese Studien betrachten verschiedene Interaktionsdesign-Merkmale, die die Benutzerfreundlichkeit für berührungsempfindliche Oberflächen verbessern Andere. Diese Arbeit zielt darauf ab, den Link-Offset-Scale-Touch-Interaktionsmechanismus zur Verbesserung der Benutzerfreundlichkeit von Touchscreen-Geräten vorzustellen. Der Link-Offset-Scale-Mechanismus verwendet Metadaten der Webanwendungsstruktur (identifizierende Links), um Feedback-Informationen über die Auswahl von Links in Touch-Interfaces bereitzustellen, während die Oberfläche vom Benutzer berührt wird. Das Hauptziel des Link-Offset-Scale-Mechanismus besteht darin, die Anzahl der Fehler zu reduzieren, die Benutzer bei der Interaktion mit Touchscreen-Geräten im Web begehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23765-2_25 6ea9868dfbdafdcd4c46355d6db4d5c5;de;;;7.3.;;;Agententechnologie trifft auf Semantic Web: Interoperabilitäts- und Kommunikationsprobleme Dieses Übersichtspapier ist ein Überblick über die neuere Forschung zu Agententechnologien und wie diese Technologie den Umfang des Semantic Web-Projekts dienen kann. In kurzer Zeit hat sich das Web zur dominierenden Datenbank für den Informationsabruf entwickelt. Aufgrund des exponentiellen Wachstums des Webs und der von ihm bereitgestellten Informationen wird es immer schwieriger, genaue Informationen zu finden. In naher Zukunft wird der Zugang zum Web durch intelligente Anwendungen und Softwareagenten vermittelt, die den Benutzern helfen, genaue Informationen zu finden und Transaktionen erfolgreich abzuschließen. Kurz gesagt bedeutet das Semantic Web Ontologien und Semantik, Softwareagenten sind Multi-Agenten-Systeme (MASs), die in FIPA gebaut sind;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84996-077-9_5 4241b8d014debe04f68654a98df0a9e6;de;;;7.3.;;;Kontextsensitive TV-Internet-Mashups mit Logoerkennung und Zeichenerkennung Das Fernsehen kann ein erstklassiger Kandidat sein, um das Internet auf erschwingliche Weise an die Massen zu bringen, insbesondere in Entwicklungsländern. Ein solches verfügbares System heißt Home Infotainment Platform (HIP), das eine Over-the-Top-Box verwendet, um eine kostengünstige und erschwingliche Lösung bereitzustellen. Eine Benutzerstudie von HIP legt jedoch nahe, dass die Benutzererfahrung beim Surfen im Internet im Fernsehen auf traditionelle Weise nicht zufriedenstellend ist. In diesem Beitrag stellen wir das neuartige Konzept des kontextbewussten Fernsehens vor, das auf HIP implementiert wird, bei dem wir Fernsehprogrammkontexte wie Identität und Inhalt mithilfe von Bildverarbeitungstechniken der Logoerkennung und Zeichenerkennung extrahieren. Es kann innovative Internet-TV-Mashup-Anwendungen geben, die solche Kontexte verwenden. Die Techniken sind besonders nützlich, um Kontexte aus analogen Fernsehinhalten abzuleiten, die in Ländern wie Indien vorherrschen. Die Algorithmen sind so konzipiert, dass sie auf einer kostengünstigen, ressourcenbeschränkten Plattform wie HIP effizient ausgeführt werden können. Experimentelle Ergebnisse mit Live-Daten von indischen Fernsehsendern zeigen eine akzeptable Genauigkeit für die vorgeschlagenen Systeme mit geringer Rechenkomplexität.;-;-;-;https://link.springer.com/article/10.1007/s10044-014-0422-6 3df55a3f6898ee2aa577aaaa8572a55b;de;;;7.3.;;;Eine Rolle für Semantic Web-Technologien bei der Erfassung von Patientendatensätzen Geschäftsprozessmanagementsysteme (BPMS) sind eine Komponente des Stapels von Webstandards, die die serviceorientierte Architektur (SOA) umfassen. Solche Systeme sind repräsentativ für den architektonischen Rahmen moderner Informationssysteme, die in einem Unternehmens-Intranet aufgebaut sind, und stehen im Gegensatz zu Systemen, die für den Einsatz im größeren World Wide Web entwickelt wurden. Der REST-Architekturstil ist ein aufkommender Stil zum Aufbau lose gekoppelter Systeme, die ausschließlich auf dem nativen HTTP-Protokoll basieren. Es handelt sich um einen koordinierten Satz von Architekturbeschränkungen mit dem Ziel, die Latenz zu minimieren, die Unabhängigkeit und Skalierbarkeit verteilter Komponenten zu maximieren und die Verwendung von Zwischenprozessoren zu erleichtern die Vorzüge beider Ansätze. In einigen Fällen gibt es berechtigte Bedenken hinsichtlich der Unterschiede in beiden Architekturstilen. In anderen Fällen scheint die Behauptung auf Bedenken zu beruhen, die bestenfalls marginal sind. In diesem Kapitel werden wir versuchen, zu dieser Debatte beizutragen, indem wir uns auf einen spezifischen Anwendungsfall konzentrieren, der die Rolle des Semantic Web, eine einfache Webanwendungsarchitektur, die die Verwendung deklarativer XML-Verarbeitung nutzt, und die Anforderungen eines Workflows hervorhebt emphasize System. Der Anwendungsfall beinhaltet die Orchestrierung eines Arbeitsprozesses, der mit der Dateneingabe von strukturierten Patientenakteninhalten in ein Forschungsregister in der Clinical Investigation-Abteilung der Cleveland Clinic im Heart and Vascular Institute verbunden ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-7665-9_12 c3d8785378a225a6938be34fac266a49;de;;;7.3.;;;Ein dynamischer, rekonfigurierbarer Ansatz für Konnektivitätskonflikte von Webdiensten Web-Services sind die wichtigsten Bausteine ​​für den Aufbau und die Entwicklung von Geschäftsabläufen der internen Organisation. Wenn die Konnektivität dieser Webdienste nicht gut definiert ist, können Unternehmen, die auf sie angewiesen sind, vor vielen Problemen stehen, insbesondere wenn Integration und Zusammenstellung erforderlich sind. Unternehmen benötigen eine wohldefinierte harmonische Struktur der Webservice-Konnektivität innerhalb ihres Workflows. Die größte Herausforderung dieser Unternehmen besteht darin, ihre Workflow-Struktur durch den Umgang mit unerwarteten Änderungen oder neuen Richtlinien harmonisch zu halten. In diesem Papier begegnen wir diesem Problem, indem wir ein Framework vorschlagen, das einige dedizierte dynamisch rekonfigurierbare Algorithmen unterstützt, um einen automatisch effizienten Adapter zu generieren und zu entwickeln. Dieser Adapter ist für den Fall von Verhaltens- und Diagrammkonflikten innerhalb der Webservice-Konnektivität für den Geschäftsworkflow konzipiert. Das vorgeschlagene Framework besteht aus zwei Hauptmaschinen, nämlich Pre-Mismatch- und Post-Mismatch-Detektoren, um die bestehenden Nichtübereinstimmungen sowohl in den generierten als auch in den rekonfigurierbaren Arbeitsabläufen unter Berücksichtigung der Möglichkeit bestehender Nichtübereinstimmungen innerhalb einiger zusammengesetzter Webdienste zu erkennen. Eine echte Fallstudie aus dem PayPal-System wird verwendet, um die vorgeschlagenen Framework-Funktionalitäten zu veranschaulichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22410-2_6 4f28fe21e35d542755f7bcffcbdc9380;de;;;7.3.;;;Vorhersage von Benutzerbesuchen für Online-Display-Werbung Online-Display-Werbung ist eine Multi-Milliarden-Dollar-Industrie, in der Werbetreibende ihre Produkte bei den Nutzern bewerben, indem sie Publisher ihre Werbung auf beliebten Webseiten anzeigen lassen. Ein wichtiges Problem bei der Online-Werbung besteht darin, die Anzahl der Benutzerbesuche einer Webseite während eines bestimmten Zeitraums zu prognostizieren. Frühere Forschungen befassten sich mit dem Problem, indem traditionelle Zeitreihen-Prognosetechniken für historische Daten von Benutzerbesuchen verwendet wurden (z von Webseiten und verschiedenen Zeitstempeln weisen unterschiedliche Muster von Benutzerbesuchen auf. In diesem Papier schlagen wir eine Reihe von wahrscheinlichkeitstheoretischen latenten Klassenmodellen vor, um automatisch die zugrunde liegenden Benutzerbesuchsmuster zwischen mehreren Webseiten und mehreren Zeitstempeln zu lernen. Das letzte (und effektivste) vorgeschlagene Modell identifiziert latente Gruppen/Klassen von (i) Webseiten und (ii) Zeitstempeln mit ähnlichen Benutzerbesuchsmustern und lernt ein spezialisiertes Vorhersagemodell für jede latente Webseite und Zeitstempelklasse. Verglichen mit einem einzelnen Regressionsmodell sowie mehreren anderen Baselines hat der vorgeschlagene Ansatz des latenten Klassenmodells die Fähigkeit, die Bedeutung verschiedener Arten von Informationen über verschiedene Klassen von Webseiten und Zeitstempeln hinweg zu differenzieren, und bietet daher eine viel bessere Modellierungsflexibilität. Eine umfangreiche Reihe von Experimenten zusammen mit detaillierten Analysen, die an realen Daten von Yahoo! demonstriert den Vorteil der vorgeschlagenen Latent-Class-Modelle bei der Vorhersage von Online-Benutzerbesuchen in Online-Display-Werbung.;-;-;-;https://link.springer.com/article/10.1007/s10791-012-9201-4 8562a0bdfd14cd93dab4d9206e2449f6;de;;;7.3.;;;Unterstützung für kollaborative und verteilte Entscheidungsfindung Unsere Forschung befasst sich mit Fragen des Designs und der Implementierung eines Frameworks und einer Architektur für die verteilte Entscheidungsfindung. Während Technologien zur Entscheidungsunterstützung seit einigen Jahren untersucht werden, bietet uns das Aufkommen neuer Standards und Internettechnologien die Möglichkeit, aktuelle Probleme bei der verteilten und kollaborativen Entscheidungsfindung anzugehen. Diese Klasse von Problemen hat mit kollaborativen Geschäftsmodellen wie Liefer- und Nachfrageketten und E-Business zunehmend an Relevanz gewonnen. Insbesondere die zunehmend globale Natur der Organisationsarbeit erfordert die Zusammenarbeit über nationale Grenzen hinweg. Dies hat sich zu einem gängigen Geschäftsmodell entwickelt und die technologische Unterstützung dieser Aktivitäten steht im Mittelpunkt unserer Arbeit. In diesem Papier diskutieren wir das Design eines Generators, der eine verteilte Entscheidungsfindung unterstützt. Dazu nutzen wir neue Standards und Technologien wie Web Services, SOAP und WSDL. Funktionen wie Ad-hoc-Integration, Standortunabhängigkeit und Plattformunabhängigkeit werden in einer Weise unterstützt, die Unabhängigkeit, Flexibilität, Interoperabilität und Workflow-Management berücksichtigt. Wir präsentieren eine Diskussion über einen Design-Prototyp und zugehörige Beispiele, die die Börse als Anwendungsdomäne verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-48137-1_4 9cd4dcaa546b7d6c9e28609bdffa99ee;de;;;7.3.;;;VSEC: Eine vertikale Suchmaschine für E-Commerce Mit der Explosion von E-Commerce-Sites wird das Abfragen von Informationen, die sich auf diesen Sites befinden, mit hoher Genauigkeit zu einem praktischen Problem bei der Entwicklung von Suchmaschinen der nächsten Generation. Die inhärente Natur allgemeiner Suchmaschinen schränkt ihre Anwendungen in Szenarien ein, in denen die Ergebnisqualität von entscheidender Bedeutung ist. Um diese Schwierigkeit zu überwinden, bauen wir eine vertikale Suchmaschine für E-Commerce (VSEC) auf, die Informationen von E-Commerce-Sites zu bestimmten Themen crawlt, tief verarbeitet, indiziert und einen Abfrageservice von hoher Qualität bietet. VSEC zeichnet sich durch zwei entscheidende Merkmale aus: (1) ein Multi-Thread-Modell wird verwendet, um das Crawling-Verfahren zu beschleunigen, (2) die Indexerstellung und die Beantwortung von Abfragen werden auf Lucene.Net implementiert. Experimentelle Ergebnisse zeigen, dass unser System eine hohe Abrufeffizienz und eine höhere Abfragegenauigkeit und Wiedererinnerungsrate aufweist als eine allgemeine Suchmaschine.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28798-5_9 fe1b98e9cdb82a69a2a33b32e7c34082;de;;;7.3.;;;Recherche und Realisierung eines Sicherheitsmodells basierend auf Web Services Mit der breiten Nutzung der Web-Service-Technologie in verteilten Systemen wird das Sicherheitsproblem immer wichtiger. Basierend auf einer eingehenden Studie zu WS-Security und WS-Policy entwarf das Papier ein Webdienst-Sicherheitsmodell und implementierte es unter Verwendung der WSE-Dienstkomponente in der C# .NET-Umgebung. Dieses Modell realisiert die End-to-End-Sicherheit von SOAP-Nachrichten, verbessert die Interoperabilität des WEB-Dienstes und erfüllt in hohem Maße die Sicherheitsanforderungen der Anwendungsumgebung des WEB-Dienstes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24273-1_27 522db8ccf1fda80d977cdbc2343d333d;de;;;7.3.;;;Die Forschung und das Design des Android-basierten Multifunktions-Fernüberwachungssystems für die Umgebung von Einrichtungen Für den tatsächlichen Bedarf der Umgebung nationaler Einrichtungen ist ein Fernüberwachungssystem in Kombination mit mobiler Internettechnologie billiger, einfacher zu bedienen und bietet eine bessere Leistung des Mobilitätsmanagements. Dieser Artikel beschreibt die Forschung des Multifunktions-Fernüberwachungssystems auf Android-Basis, das auf dem Android-Smartphone als Terminal basiert und mit einer drahtlosen Kamera, einer Relaisgruppe, einem drahtlosen AP + Temperatur- und Feuchtigkeitssensor (Lichtintensität) usw. Das System implementiert die Überwachung der Umgebungsfaktoren der entfernten Einrichtungen, die Videoüberwachung in Echtzeit, die Wartung und das Management für entfernte Server. Der Test und die Anwendung zeigt, dass es stabil, günstig, gut beweglich und einfach zu bedienen ist, es ist eine starke Praxistauglichkeit und Anwendungsaussichten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36124-1_41 03f091cf3700e5c701db1ac1d92bc892;de;;;7.3.;;;Hopfilter: Ein Agent zum Filtern von Webseiten basierend auf dem Hopfield Artificial Neural Network Model Mit der Verbreitung des Internets erreicht das Informationsangebot kontinuierlich höhere Wachstumsraten. Diese Tatsache führt dazu, dass neue fortschrittliche Tools entwickelt werden müssen, um Informationen zu sammeln und zu filtern, die den Präferenzen der Benutzer entsprechen. Dieses Papier stellt einen Agenten vor, der automatische Indexierung, Konzeptraumgenerierung und ein künstliches neuronales Hopfield-Netzwerk verwendet, um Webseiten nach den Interessen der Benutzer zu filtern. Die Experimente, die zur Bewertung des Mittels durchgeführt wurden, zeigen, dass es eine sehr zufriedenstellende Präzision und Abdeckungsraten aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73390-4_16 387b1e4154c2f3be5e9ea862ec700fe8;de;;;7.3.;;;Burstiness in Multi-Tier-Anwendungen: Symptome, Ursachen und neue Modelle Workload-Flows in Unternehmenssystemen, die das Multi-Tier-Paradigma verwenden, werden oft als Bursty bezeichnet, d. h. weisen eine Form von zeitlicher Abhängigkeit auf. Burstiness führt oft zu einer dramatischen Verschlechterung der wahrgenommenen Benutzerleistung, die mit bestehenden Kapazitätsplanungsmodellen äußerst schwer zu erfassen ist. Der Hauptgrund für diesen Mangel traditioneller Kapazitätsplanungsmodelle ist, dass die vom Benutzer wahrgenommene Leistung das Ergebnis des komplexen Zusammenspiels einer sehr komplexen Arbeitslast mit einem sehr komplexen System ist. In diesem Papier schlagen wir eine einfache und effektive Methode zur Erkennung von Burstiness-Symptomen in mehrstufigen Systemen vor, anstatt die Low-Level-Symptome zu identifizieren;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89856-6_14 f63decea5a11de373fdc2a7de2f3e244;de;;;7.3.;;;Ein richtlinienbasierter Ansatz für die Verwaltung von Webbrowser-Ressourcen zur Verhinderung von Anonymitätsangriffen in Tor Webbrowser werden zur universellen Schnittstelle, um auf Anwendungen und Dienste zuzugreifen, die mit diesen Systemen verbunden sind. Um sie zu erreichen, können verschiedene Browserkontexte erforderlich sein, z. B. die Verwendung von VPN-Tunneln, Unternehmens-Proxys, Anonymisierern usw. Durch Browsen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01244-0_15 32cba34fdd0dd6528f783aa86487e78d;de;;;7.3.;;;Fernunterricht basierend auf einem Multimedia-Mix einer virtuellen Organisation Die Bereitstellung multimedialer Kurse über das Internet ist eine anspruchsvolle Aufgabe. Die technologischen Anforderungen sind weitaus anspruchsvoller als bei einfachen HTML-basierten Lehrveranstaltungen wie in der traditionellen webbasierten Lehre. Gerade sind kostengünstige Multimedia-Technologien, insbesondere Technologien für die Videoproduktion und -bereitstellung über das Internet, verfügbar geworden. Etablierte Regeln und Empfehlungen für den effektiven Einsatz dieser Technologien fehlen noch. In diesem Beitrag werden verschiedene Ansätze zur Produktion und Durchführung multimedialer Lehrveranstaltungen skizziert und an Beispielen illustriert. Ein besonderer Fokus liegt auf Videos als zentralem Lehrmedium. Die Beispiele stammen aus realen Lehrveranstaltungen, die für einen internetbasierten Studiengang zum Master Wirtschaftsinformatik erstellt wurden. Dieses Programm wird von einer virtuellen Organisation bereitgestellt. Alle Facetten der Produktion von Vortragsvideos erfordern eine deutlich lange Lern- und Einarbeitungsphase. Eine Lernkurve war deutlich zu beobachten.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36228-2_120 7d43c218e1fc71500129486b6f7ebb4f;de;;;7.3.;;;Forschung und Anwendung im Web Usage Mining der Incremental Mining-Technik für Assoziationsregel Das Papier analysiert einige vorhandene inkrementelle Mining-Algorithmen für Assoziationsregeln und präsentiert einen inkrementellen Mining-Algorithmus für Assoziationsregel-Fit für Web Usage Mining. Da es einige Merkmale von Webprotokollen gibt, die dynamisch, attributiert, kleiner und häufig aktualisiert werden, verwendet der Algorithmus den BORDERS-Algorithmus beim Mining einer einzelnen Protokolldatei und nutzt den Partitionsalgorithmus beim gleichzeitigen Mining vieler Protokolldateien.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-23152-8_38 cb88c6a3cee93f50965469d7f73db0f9;de;;;7.3.;;;Untersuchung der Vorläufer der Einstellung und Absicht gegenüber Internetpiraterie bei College-Studenten in Südkorea Diese Studie zielt darauf ab, die Prädiktoren für die Einstellung und Absichten gegenüber Internetpiraterie in Südkorea zu untersuchen. Außerdem beabsichtigt sie, ein Modell der Internet-Piraterie vorzuschlagen, das die zufälligen Auswirkungen von Faktoren individueller Einstellung und Absichten gegenüber Internet-Piraterie demonstriert. Die Ergebnisse zeigten, dass moralische Verpflichtungen und subjektive Normen signifikante Prädiktoren für die Einstellung einer Person zur Internetpiraterie sind. Darüber hinaus sind drei Faktoren – moralische Verpflichtung, wahrgenommene Verhaltenskontrolle und Einstellung – wesentliche Voraussetzungen für die Absicht einer Person, sich an Internetpiraterie zu beteiligen. Die Ergebnisse dieser Studie umfassen mehrere Implikationen für Faktoren, die die Piraterie beeinflussen, und fördern zukünftige Forschungen zu diesem Thema.;-;-;-;https://link.springer.com/article/10.1007/s13520-012-0017-5 32d17075408d63ab89791ad4305111d6;de;;;7.3.;;;Aufbau einer digitalen Bibliothek mit Webnachrichten Wir führen ein neues Informationssystem zur Organisation einer digitalen Bibliothek von im Web gefundenen Nachrichtenartikeln mit automatischer Themenklassifizierung ein. Wir präsentieren unsere Strategien zum Umgang mit unterschiedlichen Aktualisierungsfrequenzen von Nachrichten-Websites, die Klassifizierungsmethodik, das Datenmodell zur Speicherung von Nachrichtenartikeln, Messungen der abgerufenen Daten und schließlich Ergebnisse der Klassifizierung dieser Art von Informationen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45268-0_36 149a2419b53f7ecd2a16d4e3b1bd3aa2;de;;;7.3.;;;Semantische Architektur für die Mensch-Roboter-Interaktion Robotersoftware ist aufgrund der Verwaltung von Sensoren und Aktoren in Echtzeit angesichts von Unsicherheit und Rauschen und den komplexeren Aufgaben, die in verschiedenen Situationen wie der multimodalen Interaktionsaufgabe zwischen Mensch und Roboter zu realisieren sind, in der Regel komplex. Dies impliziert eine große Anzahl von Ereignissen, die ausgetauscht und verarbeitet werden müssen. Robotics Intelligent Architecture muss gut durchdacht sein, um diese Komplexität zu reduzieren. Informationen müssen gut organisiert sein und die Bedeutung der Situation muss schnell extrahiert werden, um eine Entscheidung zu treffen. Situationsbedeutung und Situationsverfeinerung erfordern die Entwicklung einer Beschreibung der aktuellen Beziehungen zwischen Entitäten und Ereignissen im Umweltkontext. Die Extraktion von Bedeutung und die ontologische Speicherung von Ereignissen sind für die Interpretation sehr wichtig. Die Mensch-Roboter-Interaktion umfasst drei Hauptteile: Bewusstseins- und Erwerbskontext, Interpretationskontext und Ausführungskontext. Sie definieren Szenarien der multimodalen Interaktion, um den Vorbedingungsteil namens . zu realisieren;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18308-9_8 80b0472d16795a9deb41695ffb1d0b07;de;;;7.3.;;;Verbesserung des Web-Browsings auf kleinen Geräten basierend auf Tabellenklassifizierung Das Durchsuchen großer Webseiten auf kleinen Bildschirmen ist aufgrund ihrer begrenzten Anzeigegrößen immer noch sehr unpraktisch. Eine einfache Lösung besteht darin, das lästige horizontale Scrollen zu eliminieren, d. h. alle Inhalte in einer einzigen schmalen Spalte darzustellen, die normalerweise als Einspaltenansicht bezeichnet wird. Es wird implementiert, indem das Layout gelöscht wird, das ein horizontales Scrollen verursacht. Nach dem Löschen der Layoutstruktur werden jedoch einige Strukturinformationen wie Datentabellen unlesbar. In diesem Artikel schlagen wir einen Ansatz vor, um das Surfen im Internet auf kleinen Geräten zu verbessern, indem HTML-Tabellen in Datentabellen und Layouttabellen unterteilt werden. Bei Datentabellen versuchen wir, die ursprünglichen Strukturinformationen in der endgültigen Präsentation zu erhalten. Daher kann das Surferlebnis für die Einspaltenansicht verbessert werden. Experimentelle Ergebnisse zeigen, dass unser Ansatz eine zufriedenstellende Leistung erzielen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30542-2_12 255f9bcd959d4b3ddf3b6a5849b7bef9;de;;;7.3.;;;Ein inkrementelles Dokumenten-Clustering für die große Dokumentendatenbank Mit der Entwicklung des Internets und des Computers nimmt die Informationsmenge über das Internet rapide zu und wird in Dokumentform verwaltet. Aus diesem Grund ist die Erforschung der Methode zur effektiven Verwaltung einer großen Dokumentenmenge erforderlich. Das Dokumentenclustering besteht darin, Dokumente zu einem Gegenstand zu integrieren, indem ein Satz von Dokumenten anhand ihrer Ähnlichkeit unter ihnen klassifiziert wird. Dementsprechend kann die Dokumentenclusterbildung beim Erkunden und Durchsuchen eines Dokuments verwendet werden und kann die Suchgenauigkeit erhöhen. Dieses Papier schlägt einen effizienten inkrementellen Clustering-Algorithmus für eine schrittweise Zunahme von Dokumenten vor. Der inkrementelle Dokumentenclustering-Algorithmus weist den im Voraus identifizierten Legacy-Clustern einen Satz neuer Dokumente zu. Um die Korrektheit der Clusterbildung zu verbessern, kann außerdem das Entfernen der Stoppwörter vorgeschlagen werden und das Gewicht des Wortes kann durch die vorgeschlagene TF × NIDF-Funktion berechnet werden. In dieser Arbeit wird die Leistung der vorgeschlagenen Methode anhand einer Reihe von Experimenten analysiert, um ihre verschiedenen Eigenschaften zu identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/11562382_29 7cee3559f32eefbe9bb90436da0e47c9;de;;;7.3.;;;Single-Agent- und Multi-Agent-Ansätze für die WWW-Informationsintegration Das WWW ist einer der beliebtesten Dienste im Internet und es stehen eine Vielzahl von WWW-Informationsquellen zur Verfügung. Herkömmlicherweise greifen wir mit einem Browser nacheinander auf WWW-Informationsquellen zu, aber;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48826-X_10 167ae3abc65142b3df6c8ea13433f99a;de;;;7.3.;;;Sicherung eines lose gekoppelten webbasierten eLearning-Ökosystems, das offene Standards kombiniert Eines der Ergebnisse des EU-finanzierten iTEC-Projekts ist der Entwurf und die Entwicklung eines vollständigen eLearning-Ökosystems, von der Gestaltung pädagogischer Szenarien bis hin zu ihrer konkreten Umsetzung in einem Learning Management System, durch Instanziierung der erforderlichen technischen Artefakte. Die vorgeschlagene Architektur ist lose gekoppelt und basiert auf W3C-Widgets, Mashup-Plattformen und anderen autonomen Komponenten, die mehrere Sicherheitsprobleme aufwerfen. Dieses Papier berichtet über die Lösung, die implementiert wurde, um die Benutzerauthentifizierung und -autorisierung in einer so stark verteilten Umgebung durch die Kombination verschiedener offener Standards zu verwalten. Der vorgeschlagene Ansatz basiert auf einer Umfrage unter europäischen Lehrkräften über ihre Praktiken in Bezug auf die Nutzung und Weitergabe von Benutzerausweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27030-2_4 4a68b67e361bd0a5e21ff488c0206073;de;;;7.3.;;;Meinungszusammenfassung von Webkommentaren Alle Arten von Websites laden Besucher ein, Feedback in Kommentarforen abzugeben. Üblicherweise werden abgegebene Kommentare sofort auf derselben Seite veröffentlicht, damit sich neue Besucher ein Bild von den Meinungen früherer Besucher machen können. Beliebte Multimedia-Elemente wie Videos und Bilder erhalten häufig bis zu Tausenden von Kommentaren, was zu viel ist, um in angemessener Zeit gelesen zu werden. D.h. Besucher lesen, wenn überhaupt, nur die neuesten Kommentare und erhalten dadurch ein unvollständiges und möglicherweise irreführendes Bild der Gesamtmeinung. Um dieses Problem anzugehen, führen wir OPINIONCLOUD ein, eine Technologie zum Zusammenfassen und Visualisieren von Meinungen, die in Form von Webkommentaren ausgedrückt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12275-0_73 05ca00ba926e6572c719ccb1cd0834ad;de;;;7.3.;;;Ein Ontologie-basiertes intelligentes Agentensystem für die semantische Suche in der Medizin Das Literaturvolumen im medizinischen Bereich wird exponentiell erweitert und die Erstellung einer geeigneten Abfrage zum Auffinden verwandter Informationen stellt eine kognitive Belastung für die Benutzer dar, da eine Fülle von professionellen Schlüsselwörtern in dem Bereich vorhanden ist. Wir beschreiben ein ontologiebasiertes Information-Retrieval-Agenten-System in der Medizin insbesondere durch die biobezogene Literaturdatenbank MEDLINE. Die Aufgabe des Schnittstellenagentensystems besteht hier darin, dem Benutzer proaktiv zu helfen, Abfragen umzuformulieren, um nützliche und relevante Informationen zu erhalten, indem sowohl vorhandene medizinische Ontologien als auch seine eigene Agentenontologie verwendet werden. Die Agentenontologie liegt in Form der Semantic Web-Sprachen vor. Das Ziel der Forschung ist es, die Qualität der Informationsbeschaffung zu verbessern und die kognitive Belastung des Benutzers während der Informationssuche durch den Einsatz von Agentensystemen für die semantische Suche zu reduzieren. Empirische Ergebnisse werden ausgewertet und für die Agentenleistung diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39896-7_16 ad07989cfa5b927a5671ccdeb845c85d;de;;;7.3.;;;Filtern von Webdokumenten für eine thematische Warehouse-Fallstudie: eDot a Food Risk Data Warehouse (erweitert) Gewöhnliche Quellen wie Datenbanken und allgemeine Dokumentensammlungen scheinen unzureichend und unangemessen zu sein, um die Bedürfnisse und Anforderungen der neuen Generation von Lagerhäusern zu skalieren: thematische Data Warehouses. Da immer mehr thematische Online-Daten verfügbar sind, kann das Web als nützliche Datenquelle für die Befüllung thematischer Data Warehouses angesehen werden. Dazu muss der Warehouse Data Supplier in der Lage sein, die heterogenen Webinhalte so zu filtern, dass nur die zum Warehouse-Thema passenden Dokumente aufbewahrt werden. Daher ist der Aufbau effizienter automatischer Tools zur Charakterisierung von Webdokumenten zu einem bestimmten Thema unerlässlich, um das Problem der Lagerdatenerfassung zu lösen. In diesem Beitrag stellen wir unseren Filteransatz vor, der in einem automatischen Tool namens „;-;-;-;https://link.springer.com/chapter/10.1007/3-540-32392-9_28 445af9d078c3e2018e9606c6de55ebb9;de;;;7.3.;;;Unsicherheit bei globalen Anwendungsdiensten mit Lastverteilungsrichtlinie Da viele Unternehmen mittlerweile mehrere Rechenzentren auf der ganzen Welt einsetzen, um die globale Verkehrslast zu verteilen, ist es wichtig, die Auswirkungen der geografischen Verteilung auf die Servicequalität zu verstehen. Der Domain Name Service ist eine wichtige Komponente für den globalen Lastausgleich. Mit steuerbaren Simulationen zeigen wir, dass Wide Area Sharing eine wichtige Rolle bei der Optimierung der Reaktionszeiten spielen kann, wenn das Verkehrsaufkommen das von einer lokalen Infrastruktur gelieferte übersteigt. Wir berechnen die Wahrscheinlichkeit, die Service Level Objectives zu erreichen, als Funktion der DNS-Caching-Richtlinie (Time To Live), damit Service Provider DNS-Fehlermargen in Service Level Agreements berücksichtigen können.;-;-;-;https://link.springer.com/chapter/10.1007/11907466_4 65d8cbc8c73c61471d8fdacebc461d6a;de;;;7.3.;;;Umweltingenieurausbildung in der Neuzeit Die Umweltingenieurausbildung wird durch das Internet mit Webseiten voller Informationen, Anleitungen, Fotos und Videos von Installationen und Geräten sowie mit Kommunikationsmitteln, die es ermöglichen, auf neue Entwicklungen aufmerksam zu machen, erweitert. Studenten, die mit jahrelanger Internetnutzung aufgewachsen sind, haben andere Erwartungen und Computerkenntnisse, die an unseren Hochschulen und Universitäten noch nicht voll ausgeschöpft werden müssen. Einige vernünftige Änderungen des Bachelor-Curriculums können die Dinge verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-54626-7_9 eee967fce389a5ec36c52ff7cf92d4df;de;;;7.3.;;;Rolle industrieller Internetplattformen im Management von Produktlebenszyklus-bezogenen Informationen und Wissen Dieses Papier befasst sich mit den Herausforderungen des Daten-, Informations- und Wissensmanagements im Product Lifecycle Management (PLM) unter Verwendung neuartiger industrieller Internet-/Industrie 4.0-/Cyber-Physical-Systemplattformen. PLM hat einen grundlegenden Bezug zu Daten, Informationen und Wissen und dazu, diese richtig einzusetzen, um der Geschäfts- und Produktentwicklung eines Unternehmens zu dienen und einen Mehrwert für den Kunden zu schaffen. Wir analysieren Branchenplattformen, die durch industrielle internetbasierte Technologien ermöglicht werden, sowie bestimmte Kollaborations- und Social-Media-Plattformen, die bei der Lösung bestimmter PLM-Herausforderungen helfen. Diese Analyse wird es Unternehmen ermöglichen, fundierte Entscheidungen zu treffen, während sie Plattformen auswählen, um ihre PLM-Herausforderungen zu lösen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-54660-5_49 854d578aafa062c648091c9076ac13a2;de;;;7.3.;;;Vergleich von Weblogs: Sensitivitätsanalyse und zwei Arten von Cross-Analyse Verschiedene Weblog-Studien berechnen dieselben Metriken mit verschiedenen Suchmaschinen-Logs, die während verschiedener Beobachtungszeiträume abgetastet und unter verschiedenen Werten von zwei kontrollierbaren Variablen verarbeitet wurden, die der Weblog-Analyse eigen sind: ein Client-Diskriminator, der verwendet wird, um Clients auszuschließen, die Agenten sind, und eine zeitliche Grenze Wird verwendet, um protokollierte Clienttransaktionen in zeitliche Sitzungen zu segmentieren. Wie stark sind die Ergebnisse von diesen Variablen abhängig? Wir analysieren die Sensitivität der Ergebnisse gegenüber zwei kontrollierbaren Variablen. Die Sensitivitätsanalyse zeigt eine signifikante Abweichung der Metrikwerte in Abhängigkeit von diesen Variablen. Insbesondere variieren die Metriken bis zu 30-50% von den allgemein zugewiesenen Werten. Die durch kontrollierbare Variablen verursachten Unterschiede liegen also in der gleichen Größenordnung wie die Unterschiede zwischen den in verschiedenen Studien berichteten Metriken. Daher ist der direkte Vergleich der berichteten Ergebnisse ein unzuverlässiger Ansatz, der zu artefaktischen Schlussfolgerungen führt. Um die Methodenabhängigkeit des direkten Vergleichs der berichteten Ergebnisse zu überwinden, führen wir eine Cross-Analyse-Technik des direkten Vergleichs von Logs ein und verwenden diese. Außerdem schlagen wir einen alternativen, leicht zugänglichen Vergleich der berichteten Metriken vor, der die berichteten Werte entsprechend den in den Studien verwendeten kontrollierbaren Variablen korrigiert.;-;-;-;https://link.springer.com/chapter/10.1007/11880592_39 6b111999c40cb81d79a6384c03cb965f;de;;;7.3.;;;Ein multimodales System für den Zugriff auf Wegbeschreibungen Der Schwerpunkt dieses Papiers liegt auf der Beschreibung eines Systems, das ein Webdokument durch eine gesprochene Sprachschnittstelle umfunktioniert, um sowohl visuelle als auch akustische Wegbeschreibungen bereitzustellen. Die gesprochene Dialogschnittstelle wird verwendet, um die Quell- und Zieladressen von einem Benutzer zu erhalten. Das durch Abfragen des Benutzers nach den Adressen abgerufene Webdokument wird geparst, um die Karten und den zugehörigen Text zu extrahieren. Außerdem generiert das System automatisch zwei Sätze von Webdokumenten. Einer dieser Sätze wird verwendet, um die Karten auf einem Handgerät zu rendern, und der andere Satz wird für die gesprochene Dialogschnittstelle über ein herkömmliches Telefon verwendet. Die Benutzeroberfläche des Systems ermöglicht die Navigation sowohl durch Sprache als auch durch Eingabe mit dem Stift. Das System basiert auf einer PhoneBrowser-Architektur, die es dem Benutzer ermöglicht, durch Sprachsteuerung über ein normales Telefon im Internet zu surfen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45869-7_58 68f4044d52975546aacdbc9de3a5df60;de;;;7.3.;;;Hin zu kontextsensitiven Webanwendungen Um bestimmte QoS-Stufen zu garantieren, muss sich eine Webanwendung an unterschiedliche Ausführungskontexte anpassen. Aufgrund des Mangels an Koordinationsunterstützung in Webplattformen reagieren Dienstanbieter jedoch auf die Herausforderung, indem sie einfach mehrere Versionen einer Webanwendung bereitstellen, eine für jeden Kontext. Wir argumentieren, dass dieser Top-Down-Ansatz weder effizient noch skalierbar ist: Die Entwicklung einer kontextspezifischen Anwendung erfordert erheblichen Aufwand und Know-how, während das sich ständig verändernde Internet immer wieder interessante Kontexte generiert, die für einen besseren Einsatz genutzt werden können. Als Alternative schlagen wir einen dreischichtigen Bottom-up-Ansatz zum Erstellen kontextsensitiver Webanwendungen vor. Auf der untersten Ebene charakterisieren wir eine kontextspezifische Webanwendung mit einem bestimmten;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72883-2_18 c9392fa10e3f2de641f0e275d3902561;de;;;7.3.;;;Eine Längsschnittstudie des Small-Time-Scaling-Verhaltens des Internetverkehrs In den letzten zehn Jahren sind viele neue Webanwendungen entstanden und äußerst beliebt geworden. Zusammen haben diese neuen „Web 2“-Anwendungen die Art und Weise verändert, wie Menschen das Web und das Internet nutzen. Angesichts dieser Veränderungen führen wir eine Längsschnittstudie des kleinzeitigen Skalierungsverhaltens des Internetverkehrs mithilfe von Netzwerkverkehrs-Traces durch, die aus dem MAWI-Repository verfügbar sind und einen Zeitraum von acht Jahren umfassen. Die MAWI-Traces sind von Anomalien betroffen, diese Anomalien erschweren die korrekte Identifizierung des Skalierungsverhaltens. Um den Einfluss von Anomalien abzuschwächen, wenden wir ein skizzenbasiertes Verfahren zur robusten Schätzung des Skalierungsexponenten an. Unsere Längsschnittstudie findet winzige bis mäßige Korrelationen auf kleinen Zeitskalen mit Skalierungsparametern im Bereich [0,5, 0,75] über die untersuchten Spuren. Wir stellen auch fest, dass neuere Spuren auf kleinen Zeitskalen größere Korrelationen aufweisen als ältere Spuren. Unsere Analyse zeigt, dass diese erhöhte Korrelation auf den Anstieg des Anteils des aggregierten Verkehrsvolumens zurückzuführen ist, der von dichten Strömen getragen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12963-6_7 23f654fa1adcdfdf734db5ab3d02a68e;de;;;7.3.;;;Lernmetabeschreibungen des FOAF-Netzwerks Wir argumentieren, dass Ontologie-Ingenieure und Datenersteller in einem verteilten Kontext wie dem Semantic Web die möglichen Verwendungszwecke ihrer Daten oder Ontologien oft nicht kontrollieren (oder sich auch nur vorstellen können). Daher ist es unwahrscheinlich, dass Ontologien jede nützliche oder interessante Klassifizierung identifizieren, die in einer Problemdomäne möglich ist. Diese können beispielsweise personalisiert und nur für einen bestimmten Benutzer in einem bestimmten Kontext geeignet sein oder eine andere Granularität als der ursprüngliche Umfang haben der Ontologie. Wir argumentieren, dass Techniken des maschinellen Lernens im Kontext des Semantic Web unerlässlich sein werden, um diese unspezifizierten Klassifikationen identifizieren zu können. In diesem Papier untersuchen wir die Anwendung von Methoden des maschinellen Lernens auf FOAF und heben die Herausforderungen hervor, die sich aus den Eigenschaften solcher Daten ergeben. Insbesondere verwenden wir Clustering, um Klassen von Personen zu identifizieren, und induktive Logikprogrammierung (ILP), um Beschreibungen dieser Gruppen zu lernen. Wir argumentieren, dass diese Beschreibungen wiederverwendbares, erstklassiges Wissen darstellen, das weder explizit angegeben noch aus den Eingabedaten abgeleitet werden kann. Diese neuen Beschreibungen können als einfache OWL-Klassenbeschränkungen oder komplexere Beschreibungen unter Verwendung von SWRL dargestellt werden. Diese eignen sich dann entweder für die Einbindung in zukünftige Versionen von Ontologien oder für den On-the-Fly-Einsatz für Personalisierungsaufgaben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30475-3_12 93c57dcf3c19e4ada85ffa3f8b3b740d;de;;;7.3.;;;Ein webbasierter benutzerfreundlicher Simulator von Glasfaser-Kommunikationssystemen Ein Simulationswerkzeug für den Entwurf und die Bewertung optischer Netze wird vorgeschlagen. Diese benutzerfreundliche Software mit dem Namen „SystemBuild“ ist ein leistungsstarkes Werkzeug zur Simulation von Glasfaser-Kommunikationssystemen und kann sowohl für Bildungs- als auch für Forschungszwecke einfach verwendet werden. Personen, die optische Netze modellieren, können damit die Nützlichkeit und Genauigkeit ihres Modells sowie die Leistung des zu implementierenden Systems untersuchen. Diese webbasierte Software benötigt weder eine Lizenz noch eine Installation. Lediglich ein herkömmlicher Internetbrowser, der das Java-Plug-in unterstützt, ist erforderlich. Darüber hinaus ist die Software auf allen Plattformen lauffähig, die die Java Virtual Machine (;-;-;-;https://link.springer.com/article/10.1007/BF03253281 7faaf9f3ff9e05df7039c7000abc6666;de;;;7.3.;;;Ambient Assisted Living Tools für eine nachhaltige alternde Gesellschaft In den letzten zehn Jahren haben Ambient Assisted Living (AAL)-Technologien stark zugenommen, die versuchen, der stetig wachsenden Bevölkerungsalterung gerecht zu werden. Dieser demografische Wandel hat zu neuen Herausforderungen für die Gesellschaft geführt, die alte Menschen unterstützen und gleichzeitig andere Aspekte wie ihre Autonomie und Selbständigkeit zu Hause fördern muss sowie ihre gemeinsamen Aktivitäten im täglichen Leben unterstützen muss. Die F&E-Community ist sich dieser Veränderungen bewusst und hat in den letzten Jahren neue AAL-Ansätze entwickelt. In diesem Kapitel werden die Veränderungen erörtert, die das neue demografische Szenario mit sich bringt, und die wichtigsten Kräfte, die es geprägt haben. Wir analysieren die Bedürfnisse und Einschränkungen, denen ältere Menschen in ihrem Alltag ausgesetzt sind und warum neue AAL-Technologien eine praktikable Lösung sind. Die wichtigsten wissenschaftlichen Ergebnisse werden zusammen mit den daraus abgeleiteten kommerziellen Produkten beschrieben. Ebenso wird eine vollständige Analyse der Bemühungen, Fortschritte und Produkte der Unternehmen in diesem Bereich präsentiert. Abschließend werden die zukünftigen Forschungspfade diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06704-9_9 8df72ec5fb227fae741e9747503b7880;de;;;7.3.;;;Die Herausforderungen des deliberativen Entscheidungsprozesses: Ein italienischer Fall Der potenzielle Einfluss neuer IKT auf die Bemühungen um eine stärkere Einbeziehung der Bürger in den politischen Prozess ist mittlerweile allgemein anerkannt, aber die akademische Forschung zu Design, Einsatz und Bewertung von E-Engagement-Instrumenten steckt noch in den Kinderschuhen. Ziel dieses Beitrags ist es, anhand einer explorativen Fallstudie zu untersuchen, wie neue IKT-Tools zur Stärkung der E-Demokratie eingesetzt werden können und wie die Gestaltung von Technologie die Bürgerbeteiligung erleichtern kann. Zu diesem Zweck wenden wir einen neuen Rahmen an, um die Wirksamkeit einiger elektronischer Instrumente zu bewerten, die von einem bestimmten E-Demokratie-Projekt verwendet werden, an dem mit unterschiedlichen Ergebnissen acht italienische Verwaltungen beteiligt sind. Wir haben den Entwicklungsstand der E-Demokratie anhand von vier verschiedenen Dimensionen bewertet: Transparenz, Interaktivität, Benutzerfreundlichkeit und Website-Reife.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28227-0_7 60ff98197fceb96812adc9a4972fdd3e;de;;;3.4.;;;Verbraucherdienste für ein System zur Unterstützung der Qualität von Rechtsdienstleistungen Diese empirische I-Studie untersucht Verbraucher-Utilities für ausgewählte Komponenten von Alternativen zu Rechtsdienstleistungs-Unterstützungssystemen. Die Conjoint-Messtechnik wurde verwendet, um Verbraucherversorgungseinrichtungen für eine Reihe von Alternativen mit mehreren Attributen zu ermitteln. Die Ergebnisse der Conjoint-Analyse unter Verwendung der OL S-Regression mit Effektcodierung werden vorgestellt und diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-17052-7_85 0792c3f1f7629de5192250da6e2dcc11;de;;;7.3.;;;Messung der Unterstützung des Internets und mobiler Plattformen für personalisierte Werbung Da die Einnahmen aus Internet-Werbung ständig steigen, wachsen auch die Einnahmen aus mobiler Werbung schnell. Eines der Hauptmerkmale des Internets und der mobilen Werbung besteht darin, dass sie jedem Benutzer personalisierte Werbung liefern können. Der Begriff der personalisierten Werbemethode ist jedoch kein einheitliches Konzept, und die erforderlichen Informationen für die Personalisierung hängen von der Art der Serviceplattform ab. Daher passt einige personalisierte Anzeigenmethode besser zu einer bestimmten Serviceplattform als die anderen. Um die Zuordnung zwischen personalisierten Werbemethoden und Serviceplattformen zu charakterisieren, misst diese Studie die Unterstützung typischer Internet- und mobiler Plattformen für die sieben Arten von personalisierten Werbemethoden. Für die Messung wird ein Constraint Satisfaction Problem (CSP)-Ansatz verwendet, um den Grad der Übereinstimmung zwischen den personalisierten Werbemethoden und den Plattformen anhand der erforderlichen Informationen zu bewerten, die zum Erstellen der personalisierten Anzeigen erforderlich sind. Die Ergebnisse dieser Untersuchung helfen Web-Publishern, ihr Potenzial zur Bereitstellung spezifischer personalisierter Werbemethoden zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39808-7_3 b51d65109c2969fdc3c0b35307fdb40e;de;;;7.3.;;;Aufbau einer Ontologie der Domänen-Webklassifikation basierend auf der vorgeschlagenen oberen zusammengeführten Ontologie Mit Blick auf das Problem der Zusammenführung heterogener semantischer Taxonomien, die bei der Web-Informationsintegration entstanden sind, wurde eine Methode zum Aufbau einer Web-Klassifikations-Ontologie (WCO) vorgeschlagen. Ein WCO, das logisch konsistent mit der vorgeschlagenen Upper Merged Ontology (SUMO) ist, wird zusammen mit Axiomen definiert, die zum Klassifizieren von Webseiten erforderlich sind. WCO kann als Grundlage für die Zusammenführung einer heterogenen semantischen Taxonomie verwendet werden und könnte zur Unterstützung der Integration von Webinformationen und des klassifikationsbasierten Abrufs von Webinformationen verwendet werden.;-;-;-;https://link.springer.com/article/10.1007/s11859-008-0411-y d92a9bf4c0b99da25b182a1aae3fdb74;de;;;7.3.;;;Mining von Internet-Datensätzen für Computational Grids Data-Mining-Methodik und -Tools werden in verschiedenen Anwendungsbereichen eingesetzt. Dieses Papier schlägt ein neues Anwendungsfeld für die Data-Mining-Forschung vor, nämlich die Analyse und Langzeitprognose der Internet-Performance, insbesondere für die Bedürfnisse von Computational Grids. Mithilfe von Data Mining können die für das Internet untersuchten Performance-Probleme aus neuen Blickwinkeln betrachtet werden, und manchmal mit einem besseren Verständnis als durch die Anwendung herkömmlicher Datenanalysemethoden. Dieses Wissen wurde mit Hilfe eines professionellen Data-Mining-Pakets abgebaut, um das Entscheidungsmodell für die Beratung bei der weiteren Nutzung und Nutzungsplanung von Grid-Links für einen bestimmten Zeitpunkt und ein bestimmtes Datum zu erstellen. Die Ergebnisse zeigen, dass das Data Mining in diesem Forschungsgebiet effizient eingesetzt werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/11553939_39 05456cb2a8ebca36e23480a60912be5c;de;;;7.3.;;;Architekturen und Lösungen für das Knowledge Web In dieser Präsentation werde ich einige der Arbeiten diskutieren, die derzeit am Knowledge Media Institute (KMi) der Open University durchgeführt werden, um die Entwicklung von „semantischen“ Webressourcen zu unterstützen und den Wissensaustausch und die Zusammenarbeit im Web zu ermöglichen. Ich werde die Begriffe „Semantic Web“ und „Knowledge Web“ verwenden, um mich auf die grundlegende semantische Infrastruktur zu beziehen, die zur Unterstützung der Interoperabilität und der semantischen Webdienste (das Semantische Web) erforderlich ist, sowie auf die wissensintensiven Dienste und Funktionen, die wir darüber hinaus entwickeln des Semantic Web, um den Wissensaustausch und die kollaborative Arbeit zu unterstützen (das Knowledge Web). Die Arbeit auf semantischer Web-Ebene umfasst Bibliotheken wiederverwendbarer Komponenten für wissensintensive Systeme, Ontologie-Editoren und Server, ontologiebasierte Annotationswerkzeuge der nächsten Generation sowie Site- und Schnittstellen-Ontologien zur Unterstützung der wissensbasierten Generierung und Filterung von Webseiten. Während es beim Semantic Web um semantische Infrastruktur, Werkzeuge und Ressourcen geht, geht es beim Knowledge Web im Großen und Ganzen um Menschen, Prozesse und Organisationen und um die Integration „smarter“ Technologie in Arbeitsprozesse. Viele der Beispiele, die ich vorstellen werde, betreffen Technologien im täglichen Einsatz in unserem Labor. Wir haben beispielsweise einen elektronischen Newsletter, Planet, der es KMi-Mitgliedern ermöglicht, andere KMi-Mitglieder und die Außenwelt schnell über wichtige Ereignisse im Zusammenhang mit KMi zu informieren. Planet adressiert ein grundlegendes Organisationsbedürfnis: Wie kann Wissen innerhalb einer Organisation schnell verfügbar gemacht werden? Dieser Prozess der Wissensveröffentlichung wird durch eine Reihe intelligenter Technologien unterstützt, die eine semantische Suche im Archiv, personalisierte Ansichten des Newsletters und die Erstellung intelligenter Zeitungslayouts basierend auf einer automatischen Analyse der Bedeutung der eingereichten Artikel unterstützen. Die Veröffentlichung von Nachrichten ist nur eine Möglichkeit, Wissen zu teilen, was für einmalige Veröffentlichungen verantwortlich ist. In anderen Fällen möchten wir vielleicht intensive Diskussionen über ein Artefakt unterstützen, beispielsweise eine wissenschaftliche Arbeit. Unser D3E-Toolkit bietet die grundlegende Technologie, um Diskussionsräume mit Webressourcen zu verknüpfen. Darüber hinaus können wir D3E-basierte Diskussionsräume mit semantischer Web-Technologie erweitern, um Gruppendiskussionen zusätzlich zu unterstützen, z. B. um den Teilnehmern den Zugriff auf relevante Ressourcen als Reaktion auf semantische Anfragen zu ermöglichen. Abschließend möchte ich noch kurz auf unsere Arbeit an der nächsten Generation digitaler Bibliotheken eingehen. Dies soll es Autoren und Lesern ermöglichen, digitale Bibliotheksressourcen (z. B. eine wissenschaftliche Arbeit) mit formalen Aussagen über den wissenschaftlichen Beitrag jeder Ressource und die konzeptionelle Beziehung zwischen den Ressourcen in der Bibliothek zu ergänzen (z. B. schlägt diese Arbeit eine Theorie vor, die auf die Arbeit von Autor X oder widerlegt die von Autor Z vorgeschlagene Theorie Y usw.).;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35602-0_4 8b81df68dd34f8ebdcd9f520da337056;de;;;7.3.;;;Digitale forensische Untersuchung von Internet-of-Thing-Geräten: Ein vorgeschlagenes Modell und Fallstudien Die Forensik des Internets der Dinge (IoT) ist eine Herausforderung, teilweise aufgrund der ständigen und schnellen Entwicklungen der Hardware und der unterstützenden Software sowie der zugrunde liegenden Infrastruktur. Dies erfordert die Entwicklung eines Modells, das als Leitfaden für digitale forensische Untersuchungen von IoT-Geräten verwendet werden kann und gleichzeitig die Flexibilität bietet, potenzielle Unterschiede in (rechtlichen) Anforderungen zwischen den Rechtsordnungen zu berücksichtigen. In diesem Artikel stellen wir ein solches forensisches Modell vor und beschreiben, wie ein IoT-Testbed/Labor eingerichtet wird, um neue oder unerfahrene forensische Ermittler darin zu schulen, Geräte und potenzielle Beweisquellen zu untersuchen. Abschließend evaluieren wir den Nutzen unseres Modells anhand von zwei Fallstudien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-47131-6_3 5f956fa7521748c67785df5d297c647e;de;;;7.3.;;;Ermöglichung von Communities durch konstruierte Medien: Der Fall einer webbasierten Studienumgebung für ein Talmud-Traktat Der babylonische Talmud ist für viele orthodoxe Juden noch immer eine maßgebliche Quelle, eine dialogische Enzyklopädie des Wissens und eines der beeindruckendsten Werke der Weltliteratur. Die Verbreitung dieses Wissens wird jedoch durch die mühsame Aufgabe des Studiums dieser komplexen Arbeit eingeschränkt. Der Beitrag stellt eine umfassende Studienumgebung für ein talmudisches Traktat dar, das eine gedruckte Originalausgabe in eine strukturierte elektronische Version umsetzt und damit viel einfachere Möglichkeiten des Textstudiums mit hypertextuellen Annotationen und dynamischen wissensstandsabhängigen Merkmalen ermöglicht. Dies verändert die adressierbaren Wissensgemeinschaften radikal.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45689-9_23 7442efba5743196fe5e3e9f61a544360;de;;;7.3.;;;IKT-Diffusion in einer alternden Gesellschaft: Eine Szenarioanalyse Die Bedeutung von Informations- und Kommunikationstechnologien (IKT) nimmt in allen Aspekten des modernen Lebens zunehmend zu. Gleichzeitig kann der Alterungstrend, den die meisten europäischen Länder erleben, sich erheblich auf ihre Innovationsabsorptionsfähigkeit auswirken, die eine entscheidende Determinante der sozioökonomischen Entwicklung ist, mit weitreichenden politischen Auswirkungen sowohl auf den privaten als auch auf den öffentlichen Sektor. Ziel dieser Arbeit ist es daher, den Zusammenhang zwischen Alter und technologischer Verbreitung zu untersuchen. Die Analyse erfolgt mit Hilfe des Internets als Fallstudie, wobei agentenbasierte Simulation mit klassischer statistischer Analyse kombiniert wird. Es werden drei unterschiedliche demografische Szenarien betrachtet, die unterschiedliche geografische Gebiete sowie mögliche alternative Zukünfte darstellen. Die erhaltenen Ergebnisse zeigen, dass der Altersfaktor und die demografische Entwicklung einen signifikanten Einfluss auf die Dynamik und Dauer des Diffusionsprozesses haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14799-9_23 1c315d8fd07158b720a6811d88471046;de;;;7.3.;;;Kognitive Netzwerke: Gehirne, Internet und Zivilisationen In diesem kurzen Aufsatz diskutieren wir einige grundlegende Merkmale kognitiver Aktivität auf verschiedenen Raum-Zeit-Skalen: von neuronalen Netzwerken im Gehirn bis hin zu Zivilisationen. Eine Motivation für eine solche vergleichende Studie ist ihr heuristischer Wert. Versuche, die Funktionsweise von „Wetware“, die an kognitiven Aktivitäten des zentralen Nervensystems beteiligt ist, durch den Vergleich mit einem Computergerät besser zu verstehen, haben eine lange Tradition. Wir schlagen vor, dass ein Vergleich mit dem Internet angemessener sein könnte. Wir berühren kurz Themen wie Kodierung, Kompression und Saussuresche Trichotomie;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-61231-7_9 73b987d6211d5d37becb006127714436;de;;;7.3.;;;Ein Sprachmodellierungsansatz für die Disambiguierung der Akronymerweiterung Nichtstandardisierte Wörter wie Eigennamen, Abkürzungen und Akronyme sind ein Haupthindernis bei der Textverarbeitung in natürlicher Sprache und beim Abrufen von Informationen. Insbesondere Akronyme sind schwer zu lesen und zu verarbeiten, da sie oft domänenspezifisch mit hohem Polysemiegrad sind. In diesem Beitrag schlagen wir einen Sprachmodellierungsansatz für die automatische Begriffsklärung von Akronym-Sinnes unter Verwendung von Kontextinformationen vor. Zunächst wird automatisch ein Wörterbuch aller möglichen Erweiterungen von Akronymen erstellt. Das Wörterbuch wird verwendet, um nach allen möglichen Erweiterungen oder Sinnen zu suchen, um ein gegebenes Akronym zu erweitern. Das extrahierte Wörterbuch besteht aus etwa 17 Tausend Akronym-Erweiterungspaaren, die 1.829 Erweiterungen aus verschiedenen Bereichen definieren, wobei die durchschnittliche Anzahl von Erweiterungen pro Akronym 9,47 betrug. Trainingsdaten werden automatisch aus heruntergeladenen Dokumenten gesammelt, die aus den Ergebnissen von Suchmaschinenabfragen identifiziert wurden. Die gesammelten Daten werden verwendet, um ein Unigramm-Sprachmodell zu erstellen, das den Kontext jeder Kandidatenerweiterung modelliert. In der kontextbezogenen Expansionsvorhersagephase wird die Relevanz von Akronymerweiterungskandidaten basierend auf der Ähnlichkeit zwischen dem Kontext jedes spezifischen Akronymvorkommens und dem Sprachmodell jeder Kandidatenerweiterung berechnet. Im Gegensatz zu anderen Arbeiten in der Literatur hat unser Ansatz die Möglichkeit, die Erweiterung eines Akronyms abzulehnen, wenn er der Begriffsklärung nicht sicher ist. Wir haben die Leistung unseres Sprachmodellierungsansatzes evaluiert und mit dem diskriminativen tf-idf-Ansatz verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-18111-0_21 a47c6f058abf53fe7629aa50825ffeae;de;;;7.3.;;;Ein erweiterbares und aktives semantisches Modell der Informationsorganisation für das Internet der Dinge Datenmanagement und Informationsverarbeitung spielen die Schlüsselrollen bei der Entwicklung des Internet of Things (IoT). Die Anforderungen an ein gut definiertes Datenmodell für das IoT umfassen sechs Aspekte: semantische Unterstützung, aktive Datenextraktion und -erklärung, Flexibilität und Erweiterbarkeit, die die Verwaltung massiver und heterogener Daten ermöglichen, die formale Organisation unterstützen und eine solide mathematisch basierte Theorie. Dieses Papier zielt darauf ab, ein erweiterbares und aktives semantisches Informationsorganisationsmodell für das IoT zu untersuchen, um die oben genannten Anforderungen zu erfüllen. Das vorgeschlagene Modell umfasst zwei Schichten: die Objektschicht und die Ereignisschicht, und beide werden ausführlich diskutiert, einschließlich Konzeptionen, Schemadefinitionen und der regelbasierten Wissensrepräsentation. Semantisches Denken kann durch die Wissensbasis unterstützt werden, die eine Reihe von Regeln für das Denken über semantische Beziehungen zwischen Objekten oder entsprechenden Ereignissen beinhaltet.;-;-;-;https://link.springer.com/article/10.1007/s00779-014-0786-z 5e51c1475b79544b2ba23f89b77965f5;de;;;7.3.;;;Exploratives Suchframework für Webdatenquellen Die explorative Suche ist ein Informationssuchverhalten, bei dem Benutzer nach und nach ein oder mehrere interessante Themen kennenlernen. Sie weicht ziemlich radikal von traditionellen schlüsselwortbasierten Abfrageparadigmen ab, da sie Abfragen und Durchsuchen von Ressourcen kombiniert und Aktivitäten wie Untersuchen, Bewerten, Vergleichen abdeckt und Synthetisieren der abgerufenen Informationen. In den meisten Fällen werden solche Aktivitäten durch eine konzeptionelle Beschreibung von Informationen in Form von Entitäten und ihren semantischen Beziehungen ermöglicht. Angepasste Webanwendungen, bei denen wenige applikative Entitäten und ihre Beziehungen in die Anwendungslogik eingebettet sind, bieten normalerweise eine gewisse Unterstützung für die explorative Suche, die jedoch für eine bestimmte Domäne spezifisch ist. In diesem Papier beschreiben wir ein universelles exploratives Such-Framework, d. h. ein Framework, das gegenüber der Anwendungslogik neutral ist. Unser Beitrag besteht in der Formalisierung des explorativen Suchparadigmas über Web-Datenquellen, auf die über Dienste zugegriffen wird, extrahierte Informationen werden durch ein Entity-Relationship-Schema beschrieben, das die Dienstimplementierungen maskiert. Die explorative Interaktion wird durch eine universelle Benutzeroberfläche unterstützt, die eine Reihe von Widgets für die Datenexploration umfasst, von großen Tabellen bis hin zu atomaren Tabellen, visuellen Diagrammen und geografischen Karten. Die Benutzerinteraktion wird in Abfragen übersetzt, die in . definiert sind;-;-;-;https://link.springer.com/article/10.1007/s00778-013-0326-x 6a47cf2f34f0dd65b8d1d25e2f8bec0f;de;;;7.3.;;;Automatisiertes Analysemodell für die inhaltsbasierte Auswahl von Webdiensten Es gibt verschiedene Inbound-Webdienste, die Kunden Dienste vorschreiben. Spezialisten sind stärker daran interessiert, einen Rahmen für den Vorschlag von Webdiensten (WS) zu erstellen, der die Komplexität des Auswahlprozesses begrenzt und die Dienstqualität (QOS) verbessert. Unsere Arbeit implementiert ein Framework, das Webdienste unter Verwendung eines analytischen Modells basierend auf den kontextbezogenen Informationen der Dienstanbieter empfiehlt. Dieses System hilft Benutzern, automatisch qualitativ hochwertige Dienste zu erhalten. Adaptive Arbeit führt eine Merkmalsreduktion, Ähnlichkeit und Rangfolge von WS durch. Der wichtige Merkmalsreduktionsprozess hilft, Attributwerte mit maximaler Genauigkeit zu identifizieren, was zu einer korrekten Auswertung der Daten führt. Eine effiziente Auswahl von WS für die Dienstzusammensetzung erfordert bessere Methoden, die die ähnlichen Werte richtig berechnen. Eine Ähnlichkeit hilft, die nächstgelegenen Dienste gemäß der Anforderung im Prozess der Dienstzusammenstellung zu identifizieren. Letztendlich wählt das System automatisch den Satz von Webdiensten mit den höchsten Ähnlichkeitsbewertungen aus dem optimierten Satz von Webdienstbeschreibungen aus.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-5758-9_26 9da93c10fde6d4798c3b9e274779362d;de;;;3.4.;;;Ein Rahmen für die Bewertung der organisatorischen IT-Governance, des Risikos und der Compliance Unternehmen haben erkannt, dass Informationstechnologie (IT) mehr ist als nur ein technisches Thema. Zur Steuerung wurden Domänen wie IT-Governance, Risikomanagement und Compliance (GRC) eingerichtet. Obwohl es einige Verbesserungen gegeben hat, werden diese Domänen normalerweise getrennt betrachtet, sodass aufgrund der Komplexität der Prozessabläufe weniger Geschäftswert geschaffen wird. Es gab wenig Versuche, alle drei Aspekte zu integrieren, dies geschah jedoch mit domänenspezifischen Standards und ohne den bestehenden Stand der Technik zu berücksichtigen. In diesem Beitrag führen wir eine systematische Literaturrecherche durch, um die Prozesse, Rollen, Strategien und Technologien von IT GRC sowie deren Integration zu verstehen. Basierend auf den Ergebnissen der Überprüfung schlagen wir einen Bewertungsrahmen vor, der die Bewertung der IT-GRC-Bedenken des Unternehmens leiten könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67383-7_25 1a89772671ed97eb1e13ae76a8478874;de;;;3.4.;;;Votum von konventionellen Lehrbüchern zu offenen Lehrbüchern: Ein Ausweg für Hong In diesem Beitrag wird zunächst versucht, kurz die Schwierigkeiten in Bezug auf Lehrbücher in Hongkong zu beleuchten. Er fasst die Probleme in fünf Probleme zusammen – hohe und steigende Preise, Inflexibilität bei der Überarbeitung, Gewicht, Bündelung mit Lehrermaterialien und kostspielige Marketingmittel Probleme. Mit der Erklärung, dass Hongkong nicht der einzige Ort ist, der mit diesem weltweiten Schreckgespenst konfrontiert ist, wird hervorgehoben, dass wir, um von den Zwängen konventioneller Lehrbücher frei zu sein, die Informations- und Kommunikationstechnologie nutzen können, um uns zu einem neuen Paradigma zu führen, und dass offene Lehrbücher eine vielversprechende Lösung für die oben genannten Belastungen und Einschränkungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31398-1_19 29c3927fec4c12b8a612076325e8b19b;de;;;7.3.;;;Erweiterung des Klassenzimmers Dieses Papier berichtet über den Fall einer interaktiven Echtzeitplattform, die Web-Technologie bei der Bereitstellung von Lehren und Lernen verwendet, als der Unterricht während des Ausbruchs des schweren akuten respiratorischen Syndroms (SARS) im April 2003 in Hongkong ausgesetzt wurde. Als Reaktion auf die Schließung von Schulen in dieser noch nie dagewesenen schwierigen Zeit bot die Hong Kong Baptist University den Schulen die kostenlose Nutzung ihrer internetbasierten Virtual Integrated Teaching and Learning Environment (VITLE)-Plattform an. Lehrer und ihre Schüler wurden ermutigt, e-Learning zu übernehmen, indem sie ihren Unterricht auf der VITLE-Plattform fortsetzten, und 75 Schulen registrierten sich, um die neue Technologie zu nutzen. Dies ist ein konkretes Beispiel für die Nutzung von Streaming-Technologien, um eine umfassende Multimedia-Kommunikationslösung zum Nutzen von Schülern, Lehrern und Schulen zu schaffen.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-24045-4_5 2a807a544a49e719330c146020cf26c8;de;;;7.3.;;;Mobiltelefone und psychosoziale Therapien mit schutzbedürftigen Menschen: ein erster Stand der Technik Mobiltelefone werden zu einem häufig von Menschen auf der ganzen Welt verwendeten Kommunikationsmittel und werden in psychosozialen Therapien mit schutzbedürftigen Menschen eingesetzt. Wir präsentieren hier die Ergebnisse einer wissenschaftlichen Literaturrecherche. Wir identifizierten wissenschaftliche Arbeiten, die zwischen 2006 und 2015 veröffentlicht wurden, indem wir auf im Internet verfügbare wissenschaftliche Datenbanken zurückgreifen und eine systematische Auswahlmethode basierend auf Qualitätskriterien anwenden. Zweitens haben wir die Inhalte analysiert und die Knappheit von Forschung mit gefährdeten Personen hervorgehoben. Die verfügbare Fachliteratur zu psychosozialen Therapien bietet Untersuchungsergebnisse zu Mobiltelefonen und Patienten im Allgemeinen, insbesondere im Bereich der Klinischen Psychologie und in geringerem Maße im Bereich der Sozialen Arbeit. Von besonderer Bedeutung sind die in den USA entwickelten Untersuchungsarbeiten. In der vorliegenden Arbeit stellen wir einen ersten „Stand der Technik“ vor, indem wir die Möglichkeiten und auch die Grenzen der Nutzung von Mobiltelefonen in psychosozialen Therapien für Schwache aufzeigen. Fragen der Privatsphäre und der Vertraulichkeit von Daten sowie der Zugang schutzbedürftiger Personen zu Mobiltelefonen und deren Nutzung stellen große Herausforderungen dar, bieten jedoch die Möglichkeit, isolierte oder verarmte Bevölkerungsgruppen zu erreichen oder sogar den Zugang zu Sozial- und Gesundheitsdiensten zu erleichtern. Wir schließen dieses Papier, indem wir mögliche Orientierungen, Hypothesen und Ziele formulieren, um neue Untersuchungsarbeiten mit gefährdeten Bevölkerungsgruppen zu entwerfen.;-;-;-;https://link.springer.com/article/10.1007/s10916-016-0500-y fd95d3b6e2c94d8bdffad5e334cf88a5;de;;;7.3.;;;Es ist nie dasselbe: die Rolle der Homogenität bei Online-Diensten Diese Untersuchung zielt darauf ab, die Unterschiede zwischen den im Internet verkauften Diensten basierend auf ihrem Homogenitätsgrad zu untersuchen. Während Reisedienstleistungen meist online verkauft werden, haben andere anpassbare Dienstleistungen nicht den gleichen Erfolg. Wir führen eine empirische Studie durch, die auf erklärten Absichten, Risikowahrnehmungen und dem tatsächlichen Kaufverhalten basiert. Die wichtigsten Ergebnisse zeigen, dass: der Grad der Homogenität eine angemessene Segmentierungsvariable für Online-Dienste ist, homogene Dienste für den E-Commerce besser geeignet erscheinen als nicht homogene Dienste, ein Zusammenhang zwischen dem wahrgenommenen Risiko und der Absicht, Dienste online zu kaufen, und dem Umfang besteht einiger traditioneller Klassifikationsvariablen muss eingegrenzt werden.;-;-;-;https://link.springer.com/article/10.1007/s11628-014-0249-7 25e44660c103f0e4bd00431dbe4a751f;de;;;7.3.;;;Ein ungenaues Timing-Filter für die Reaktionszeitmessung durch JAVA-Applets, die internetbasierte Experimente implementieren JAVA-Applets sind nicht genau genug, um die Reaktionszeit zu messen, wenn keine Vorsichtsmaßnahmen getroffen werden. Es wird eine Antwortfilterungstechnik eingeführt, die ungenaue Messungen identifiziert, indem geprüft wird, ob die clientseitige JAVA-Implementierung falsche Messungen eines Zeitintervalls bekannter Länge während der gemessenen Reaktionszeit erzeugt. Reaktionszeiten, die eine solche Ungenauigkeit anzeigen, werden verworfen, um die Zuverlässigkeit der verbleibenden Daten zu erhöhen. Drei Studien liefern anschauliche Daten über die Wirksamkeit der neuen Technik unter Verwendung von 11 verschiedenen Computersystemen. Studie 1 zeigte Unterschiede in der Genauigkeit verschiedener Clients und eine höhere Variabilität der erhaltenen Mittelwerte bei Applets als bei nativen Programmen. Studie 2 zeigte eine stark erhöhte Variabilität, wenn den Kunden während der Reaktionszeitmessung zusätzliche Belastungen auferlegt wurden. Die Antwortfilterungstechnik verringert diese Variabilität. Studie 3 zeigte eine genauere Messung, wobei die neue Technik noch kleinere Unterschiede unter schwierigen technischen Bedingungen aufdecken konnte.;-;-;-;https://link.springer.com/article/10.3758/BF03195364 b82c94ae5c32c3e868561c05e6e4e02c;de;;;7.3.;;;Integration von Prozessunterstützung und Wissensmanagement für virtuelle Softwareentwicklungsteams In diesem Papier beschreiben wir, wie Wissensmanagement und Softwareprozessunterstützung integriert werden können, um die Effizienz virtueller Softwareteams zu verbessern. Der hier vorgestellte Ansatz integriert eine Prozessumsetzungsumgebung mit einer On-Demand-Wissensbereitstellungsstrategie, die auf parametrisierten Informationsbedarfsmodellen basiert. Die Parameter in den Informationsbedarfsmodellen werden zum Zeitpunkt der Projektausführung an Werte gebunden, die aus der Process Enactment Engine extrahiert wurden. Somit unterstützt der Ansatz virtuelle Teams durch die Etablierung einer Plattform für den systematischen und aufgabenspezifischen Wissensaustausch. Der vorgeschlagene Ansatz wird prototypisch im MILOS-System implementiert, einem Open-Source-Projekt der University of Calgary (Kanada) und der TU Kaiserslautern (Deutschland).;-;-;-;https://link.springer.com/article/10.1023/A%3A1020505708326 bc805c8c59546be0f77cc95445b44e8e;de;;;7.3.;;;Chemische Zeitschriften Deutschlands: Eine vergleichende Analyse internationaler und russischer Datenbanken Eine umfassende Analyse der chemischen Zeitschriften Deutschlands, die in den Datenbanken der beiden führenden internationalen informationsanalytischen Systeme Scopus und Web of Science, einer bibliographischen Datenbank Ulrichs Periodicals Directory sowie in der Datenbank des Allrussischen Instituts für wissenschaftliche und technische Informationen der Russische Akademie der Wissenschaften (VINITI RAS) durchgeführt. Ein entwickeltes Analyseverfahren ermöglichte die effektive Analyse verschiedener Publikationsbereiche, die sowohl den drei Datenbanken gemeinsam sind, als auch verschiedene Kombinationen von Interesse, unter anderem ein Array, das in keiner von ihnen enthalten war. Die Daten zu den Bewertungen von Zeitschriften wurden auf der Grundlage allgemein anerkannter internationaler szientometrischer Indikatoren und des Verarbeitungsgradwerts für die VINITI-Datenbank präsentiert. Die Verteilung der Fachgebiete, Verlage, Ausgabesprache, Internet-Verfügbarkeit wurden ermittelt. Die Forschungsergebnisse ermöglichten es, Vorschläge zur Optimierung des VINITI-Datenbankworkflows im untersuchten Bereich zusammenzufassen.;-;-;-;https://link.springer.com/article/10.3103/S0147688217010117 0c48c0ebb414bfcd9e438bf8c882b1ec;de;;;7.3.;;;Zeitstempelung von Teildokumenten: Eine Studie zur Dynamik der Inhaltserstellung von Webdokumenten Der Erstellungszeitpunkt von Dokumenten ist eine wichtige Art von Information bei der zeitlichen Informationsbeschaffung, insbesondere für das Dokumentenclustering, die Erstellung von Zeitleisten und Suchmaschinenverbesserungen. In Anbetracht der Art und Weise, wie Inhalte im Web erstellt, aktualisiert und gelöscht werden, ist die allgemeine Annahme, dass jedes Dokument nur eine Erstellungszeit hat, für Webdokumente nicht geeignet. In diesem Beitrag untersuchen wir, inwieweit diese Annahme falsch ist. Wir stellen zwei Methoden vor, um einzelne Teile (Unterdokumente) von Webdokumenten mit Zeitstempeln zu versehen und analysieren die Erstellungs- und Aktualisierungsdynamik von drei Klassen von Webdokumenten im Detail.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-43997-6_16 b23739967f66acdcd2c8b383767171e7;de;;;7.3.;;;XML-Sicherheit im Kontext optischer Datenträger der nächsten Generation Die Extensible Markup Language (XML) gilt als De-facto-Standard für die Informationsverarbeitung und den Informationsaustausch im Internet und im Bereich Enterprise Services. Es wird allgemein angenommen, dass XML das Potenzial hat, ein interoperabler Standard für interaktive Anwendungen in den vernetzten Unterhaltungselektronikgeräten der nächsten Generation zu sein. Ein Hauptanliegen der Industrie bei der Verwendung von XML in CE-Geräten besteht darin, wie grundlegende Sicherheitsanforderungen in Bezug auf die oben genannte Domäne erfüllt werden können. Insbesondere die Standardisierungsgremien der Internetdomäne wie W3C und OASIS haben Spezifikationen für kryptografiebasierte Sicherheitslösungen mit XML-Technologie definiert, die hauptsächlich für Webanwendungen gedacht ist. Dieses Papier untersucht und präsentiert verschiedene Szenarien, in denen XML-Sicherheit auf Markup-basierte interaktive Anwendungen im Kontext eines Consumer Electronic Optical Disc Players der nächsten Generation angewendet werden kann. Wir schließen den Beitrag mit der Vorstellung eines Prototyps ab, der zeigt, wie diese Szenarien in der Praxis umgesetzt werden könnten.;-;-;-;https://link.springer.com/chapter/10.1007/11552338_15 b878f66d9451a9e776fd4d4514f83071;de;;;7.3.;;;Zum Paradigmenwechsel der Suche auf mobilen Geräten: Einige Anmerkungen zu den Benutzergewohnheiten Dieses Papier befasst sich mit einem Paradigmenwechsel in der Art und Weise, wie das Internet durchsucht wird. Diese Verschiebung erfolgt aufgrund des steigenden Prozentsatzes von Suchanfragen, die von Mobilgeräten stammen, und verändert die Art und Weise, wie Benutzer im Web suchen. Diese Änderung erfolgt aus zwei Gründen: Erstens durchsuchen die Nutzer von Smartphones das Web nicht mehr mit generischen, horizontalen Suchmaschinen wie auf dem Desktop, und zweitens kennen Smartphones den Kontext des Nutzers viel besser als Desktop-Computer . Smartphones enthalten in der Regel mehrere Sensoren, die den aktuellen Kontext des Benutzers sehr genau beschreiben können, was ein Standard-Desktop-Computer normalerweise nicht kann. Diese Verschiebung wird Veränderungen für die Information Retrieval-Community, die Entwickler von Anwendungen, die Entwickler von Online-Diensten, die Usability-Ingenieure und die Entwickler von Suchmaschinen selbst bedeuten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16607-5_35 e1a1a8ea33793a17a441c69f618209a5;de;;;7.3.;;;Anwendung des agentenbasierten persönlichen Vertrauensnetzes auf das Ranking lokaler Dokumente Das Web ist die grenzenlose Informationsquelle und niemand ist in der Lage, die riesige Menge neuer Dokumente, die täglich im Web veröffentlicht werden, zu verarbeiten, auch wenn die Dokumente herausgefiltert werden, die den Benutzer nicht interessieren. Die meisten der neueren Webdokumente sind jedoch Blog Beiträge, Nachrichten und andere Dokumente mit den angegebenen Autoreninformationen. Jeder Autor, der auch Empfänger von Webdokumenten ist, besitzt seinen eigenen persönlichen Agenten, der Vertrauensinformationen zu anderen Autoren sowie Rangdaten für jedes neue Dokument liefert. Für Agenten verfügbare Trusts und Ränge werden zwischen ihnen ausgetauscht und auf diese Weise können neue Autoren und neue Webdokumente einfach bewertet werden. Basierend auf dem allgemeinen Konzept des Web of Trust wird in der Arbeit die neue Idee des Personal Web of Trust und seine Anwendung auf lokale Ranking-Methoden für Webdokumente vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72830-6_30 b487c023e5830d3036e61a6f602e5bc7;de;;;7.3.;;;Ein Überblick über strukturierte P2P-Systeme für die Speicherung und den Abruf von RDF-Daten Das Semantic Web bietet die Möglichkeit, im Web gefundene Ressourcen zu modellieren, zu erstellen und abzufragen. Um das volle Potenzial seiner Technologien auf Internetebene zu nutzen, sind Infrastrukturen erforderlich, die den Herausforderungen der Skalierbarkeit gewachsen sind und gleichzeitig ausdrucksstarke Abfragen unterstützen. Die attraktiven Merkmale des Peer-to-Peer (P2P)-Kommunikationsmodells und insbesondere;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23074-5_2 bbf13b4018601f2a42db9d31801cd213;de;;;7.3.;;;Webressourcen für die Genlistenanalyse in der Biomedizin Dieses Kapitel konzentriert sich hauptsächlich auf die technologischen und Informationsressourcen, die derzeit über das Internet verfügbar sind, um Genlisten funktionell auszuwerten. Es präsentiert zunächst das aktuelle Biotechnologie-, Nanotechnologie- und Molekularbiologie-Szenario der massiven Produktion vielversprechender heterogener experimenteller Daten, die ausgewertet werden müssen, um neue Einblicke in die zellulären biomolekularen Prozesse zu gewinnen und zu Fortschritten im Gesundheitswesen und in der Biomedizin beizutragen. Anschließend werden die Technologien beschrieben, um die wertvollen Informationen und das Wissen, die im biomedizinischen und biomolekularen Bereich verfügbar sind, zu verwalten, auszutauschen und rechnerisch zu nutzen, und stellt die wichtigsten Bioterminologien und Bioontologien vor, die verwendet werden, um Gene und Genprodukte zu kommentieren, um ihre bekannten strukturelle, funktionelle und phänotypische Merkmale. Anschließend werden die wichtigsten computergestützten Analysetechniken veranschaulicht, die verwendet werden können, um relevante Informationen aus Gen- und Protein-Annotationsprofilen zu extrahieren, wobei der Schwerpunkt auf der Annotationsanreicherungsanalyse und funktionellen Ähnlichkeitsmetriken liegt. Schließlich stellt das Kapitel die online verfügbaren Ressourcen vor, um auf vorhandene biomolekular kontrollierte Annotationen zuzugreifen und durch deren Analyse neues biomedizinisches Wissen zu gewinnen, wobei der Schwerpunkt auf zwei repräsentativen und bekannten Web-Tools liegt. Die prägnante Perspektive des Fachgebiets und die ausgewählten Ressourcen helfen interessierten Lesern, die wichtigsten Prinzipien der Wissensrepräsentation und -analyse in der Biomedizin und ihre hohe Relevanz für die moderne biomedizinische Forschung und E-Health schnell zu verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-1274-9_8 bad201b394592457a7b63451e87e07ae;de;;;7.3.;;;Vision-basierter Seitensegmentierungsalgorithmus: Erweiterter und wahrgenommener Erfolg Webseiten bestehen aus verschiedenen visuellen Segmenten, die unterschiedlichen Zwecken dienen. Typische Struktursegmente sind Kopfzeile, rechte oder linke Spalte und Hauptinhalt. Segmente können auch eine verschachtelte Struktur haben, was bedeutet, dass einige Segmente andere Segmente enthalten können. Das Verständnis dieser Segmente ist wichtig, um Webseiten für Geräte mit kleinem Bildschirm und in alternativen Formen, wie z. Es gibt verschiedene Techniken, um visuelle Segmente in einer Webseite zu identifizieren. Ein erfolgreicher Ansatz ist der Vision Based Segmentation Algorithm (VIPS Algorithm), der sowohl den zugrunde liegenden Quellcode als auch die visuelle Darstellung einer Webseite verwendet. Dieser Ansatz weist jedoch einige Einschränkungen auf. In diesem Dokument wird erläutert, wie wir VIPS erweitert und verbessert und in Java erstellt haben. Wir haben auch einige Online-Nutzerbewertungen durchgeführt, um zu untersuchen, wie Menschen den Erfolg des Segmentierungsansatzes wahrnehmen und in welcher Granularität sie eine segmentierte Webseite bevorzugen. Dieses Papier präsentiert die vorläufigen Ergebnisse, die zeigen, dass Menschen eine Segmentierung mit höherer Granularität unabhängig von der Komplexität der Webseite als bessere Segmentierung wahrnehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-04244-2_22 df432b6afe5925f5784a4b0624808090;de;;;7.3.;;;NGN: Definition einer Referenzarchitektur Die in den vorherigen Kapiteln vorgestellten Hauptlinien von NGN mögen weitgehend übereinstimmen, ihre Umsetzung impliziert jedoch eine Reihe von Veränderungen in den Traditionen der Telefonie-Daten-Audiovisuelle-Welt sowie der Festnetz-Mobilfunk-Technologie, die alle erwartet werden konvergieren. Kein Wunder also, dass noch keine Detaillösungen von der Spezifikation bis zum Produkt feststehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55498-8_26 86047334a6758e8ede02e0c2d1428263;de;;;7.3.;;;Nutzung neuer Medien für die Kundeninteraktion: Eine Herausforderung für das Beziehungsmarketing Direkte Interaktionsprozesse, die auf Kontaktpflege und wiederholte Transaktionen ausgerichtet sind, sind integraler Bestandteil des Relationship-Marketing-Konzepts. Neue Kommunikationsformen, die jetzt über das Internet verfügbar sind, bieten eine Reihe neuer und vielversprechender Möglichkeiten für den beabsichtigten Dialog. Dies gilt insbesondere für die unternehmensgesteuerte Kommunikation. Dies gibt Unternehmen die Möglichkeit, Informationen an die individuellen Bedürfnisse eines bestimmten Kunden anzupassen und die Feedbackmöglichkeiten des Kunden zu optimieren. Um dies zu erreichen, müssen Unternehmen jedoch anspruchsvolle Voraussetzungen hinsichtlich Technik, Personal, Organisation und Koordination erfüllen. Auch Unternehmen stehen vor einer ganz anderen Herausforderung, die sich aus der kundengesteuerten Internetkommunikation ergibt. Wenn Kunden ihre Kritik an Produkten und Unternehmen online veröffentlichen und ihre individuelle Kritik zum Gegenstand globaler Mundpropaganda machen, wird die Kommunikation zwischen Kunde und Kunde zu einer echten Bedrohung. Um ernsthafte Schäden an Kundenbeziehungen zu vermeiden, müssen Führungskräfte diese Kommunikation sorgfältig beobachten, analysieren und entsprechend reagieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-09745-8_13 e5b796d6bd4c003718b00d67a7248b17;de;;;7.3.;;;Ein Modell und Implementierungsrichtlinien für Informationssicherheitsstrategien in Webumgebungen Der dezentrale Charakter webbasierter Informationssysteme erfordert eine sorgfältige Bewertung des Pantheons der Sicherheitsprobleme, um das potenzielle Auftreten von Geschäftsrisiken zu vermeiden, die nicht ohne weiteres gemindert werden könnten. Da Informationssicherheit nicht nur eine technische Lösung ist, die an jedem der Endpunkte der organisationsübergreifenden Anwendung implementiert wird, präsentiert dieses Papier einen integrierten Ansatz, der auf einem rigorosen mehrstufigen und mehrdimensionalen Modell basiert. Durch Synthese und das Ziel, zur Umsetzung einer möglichst effektiven Sicherheitsstrategie beizutragen, hat der Ansatz als Ausgangspunkt die allgemeinen Geschäftsziele und -ziele. Darauf aufbauend unterstützt es die Entwicklung einer Strategie von den unteren Ebenen der Datensicherung in der Speicherung und dem Übergang zu den höheren Ebenen der Geschäftsprozesse. Seine Verwendung und Anwendbarkeit wird über „Billing Mall“ demonstriert – ein System für die elektronische Rechnungspräsentation und Zahlung.;-;-;-;https://link.springer.com/chapter/10.1007/0-306-47007-1_2 fbba41803cf2072f5773dc67fb9e1721;de;;;7.3.;;;TraSt: Ein verkehrsstatistisches Framework zur Bewertung von 3G-Ladesystemen und Smartphone-Anwendungen Wir haben ein Traffic-Analyse-Framework TraSt (Traffic Statistics) basierend auf tcpdump für Android entworfen und implementiert. Dieses Framework kann eine detailliertere Verkehrsnutzung erzielen als alle anderen bestehenden Verkehrsüberwachungs-Frameworks oder -Anwendungen auf Smartphones und hilft uns dabei, vier Aspekte des Abrechnungssystems der drei großen chinesischen Betreiber sowie vier Arten beliebter Smartphone-Anwendungen zu untersuchen. Unsere Arbeit hilft 3G-Benutzern und Softwareentwicklern, die Ähnlichkeiten und Unterschiede zwischen den Ladediensten der Betreiber besser zu verstehen, um die Verbesserung der Softwareentwicklung und der Dienste der Betreiber zu fördern Systemdesign und Unterstützung der Netzwerkinfrastruktur.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-53959-6_19 4defed41bdb971e75c00f9faf59f2e7c;de;;;7.3.;;;Eine nutzerzentrierte Methodik zur Entwicklung computergestützter unterstützender Technologien für Menschen mit Autismus Das Design und die Entwicklung computerunterstützter Technologien müssen sich an den Bedürfnissen und Zielen der Endnutzer orientieren und ihre Fähigkeiten und Vorlieben berücksichtigen. In diesem Papier stellen wir MeDeC@ vor, eine Methodik zur Entwicklung computerassistierender Technologien für Menschen mit Autismus-Spektrum-Störungen (ASS), die stark auf unserer Erfahrung in der Arbeit mit Endbenutzern mit ASD beruht. Ziel dieser Methodik ist es nicht, für eine breite Benutzergruppe zu designen, sondern hochgradig anpassbare Tools zu entwerfen, die sich leicht an spezifische Situationen und kleine Benutzergruppen anpassen lassen. Wir stellen auch zwei Anwendungen vor, die mit MeDeC@ entwickelt wurden, um ihre Eignung zu testen: EmoTraductor, eine Webanwendung zur Emotionserkennung für Menschen mit Asperger-Syndrom, und ReadIt, ein Webbrowser-Plug-in, das Menschen mit ASS mit Schwierigkeiten beim Verstehen von Schriftsprache hilft, im Internet navigieren. Die Ergebnisse unserer Evaluation mit Endanwendern zeigen, dass der Einsatz von MeDeC@ Entwicklern hilft, computerassistierende Technologien unter Berücksichtigung der speziellen Anforderungen und Szenarien, die sich bei der Entwicklung solcher assistiver Anwendungen ergeben, erfolgreich zu gestalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29381-9_6 b4e12bf45237b4b3a500f1414a0181ac;de;;;7.3.;;;DIAL: Ein webbasiertes interoperables wissenschaftliches Datenverteilungssystem In den letzten Jahren ist eine der aufregendsten Entwicklungen in der Informationstechnologie die Verbreitung der Internet-Konnektivität und die Popularität von World Wide Web-Diensten. Internet- und Web-Technologien bieten der breiten Öffentlichkeit einen bequemen Zugang zu riesigen Informationsmengen. Fast alle Computerbenutzer mit einer Internetverbindung können Webbrowser verwenden, um auf Informationen zuzugreifen. Diese Technologien und verbesserten Hardware- und Softwareprodukte ermöglichen es Benutzern mit moderaten Computerkenntnissen, Informationsverteilungsstandorte einzurichten und aktiv an der sich entwickelnden nationalen Informationsinfrastruktur teilzunehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5189-8_24 8fbd45f797edafcb8edc29d9b56cb6fd;de;;;7.3.;;;Modellieren des Betriebs von Webdiensten In diesem Papier werden Studien zur Modellierung des Betriebs von Webdiensten vorgestellt, die Web- und Datenbankserver enthalten. Der erste Teil des Papiers beschreibt die Methode, um Parameter von realen Servern zu erhalten. Darüber hinaus werden detaillierte Versuchsbeschreibungen und die Ergebnisse präsentiert. Im zweiten Teil der Arbeit werden die Web- und Datenbankservermodelle vorgestellt. Bei beiden vorgestellten Modellen wird berücksichtigt, dass es sich bei den Serverprozessoren um Multicore-Prozessoren handelt. Die vorgestellten Modelle können verwendet werden, um vorgeschlagene Websysteme durch Simulationsexperimente zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38865-1_39 773de5ea5fea7a97cd58d0fcd96765a1;de;;;7.3.;;;Wissenschaftliche epistemische Überzeugungen der Schüler, Online-Bewertungsstandards und Online-Suchstrategien für wissenschaftliche Informationen: Die moderierende Rolle der kognitiven Belastungserfahrung Der Zweck dieser Studie ist es, die moderierende Rolle der kognitiven Belastungserfahrung zwischen den wissenschaftlichen epistemischen Überzeugungen der Schüler und den Informationsverpflichtungen zu untersuchen, die sich auf Online-Evaluationsstandards und Online-Suchstrategien beziehen. An dieser Studie nahmen insgesamt 344 wissenschaftsnahe Hauptstudierende teil. Drei Fragebögen wurden verwendet, um die wissenschaftlichen epistemischen Überzeugungen, Informationsverpflichtungen und kognitiven Belastungserfahrungen der Schüler zu ermitteln. Anschließend wurde die Modellierung von Strukturgleichungen verwendet, um den mäßigenden Effekt der kognitiven Belastung zu analysieren, wobei die Ergebnisse seinen signifikanten mäßigenden Effekt aufzeigen. Die Beziehungen zwischen anspruchsvollen wissenschaftlichen epistemischen Überzeugungen und den von den Schülern verwendeten fortgeschrittenen Bewertungsstandards waren bei Schülern mit niedriger kognitiver Belastung signifikant stärker als bei Schülern mit hoher kognitiver Belastung. In Anbetracht der von den Studierenden verwendeten Suchstrategien waren die Beziehungen zwischen anspruchsvollen wissenschaftlichen epistemischen Überzeugungen und fortgeschrittenen Suchstrategien bei Studierenden mit niedriger kognitiver Belastung stärker als bei Studierenden mit hoher kognitiver Belastung. Bei den Schülern mit hoher kognitiver Belastung konnte jedoch nur eine der anspruchsvollen wissenschaftlichen epistemischen Glaubensdimensionen positiv mit fortgeschrittenen evaluativen Standarddimensionen assoziiert werden.;-;-;-;https://link.springer.com/article/10.1007/s10956-013-9464-6 6f8ca100f534fdc85b79c9ddb3b4bc3e;de;;;7.3.;;;Methoden zum Verhindern suchmaschinenbasierter Webserver-Angriffe Viele Internetnutzer verwenden Suchmaschinen, um eine Webseite oder gewünschte Informationen zu finden. Diese Suchmaschinen sind zu einem grundlegenden Werkzeug im World Wide Web geworden. Da die Fähigkeit von Suchmaschinen, jeden Teil des Webs zu erreichen, zugenommen hat, besteht die Gefahr, dass Sicherheitslücken von Websites weltweit aufgedeckt werden. Dies stellt ernsthafte Sicherheitsbedrohungen im Web dar. In diesem Artikel diskutieren wir verschiedene Methoden, um Angriffe auf Webserver durch Suchmaschinen zu verhindern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24043-0_2 265362bc9365c92944d1b6a894a47688;de;;;7.3.;;;Moderne Informationsinfrastruktur zur Unterstützung der verteilten Kollektivpraxis im Verkehr Verkehr ist eine der ältesten und wichtigsten Formen verteilter kollektiver Praxis. Dieses Papier zeichnet die Rolle von Informations- und Kommunikationstechnologien bei der Transformation der verkehrsbasierten verteilten kollektiven Praxis nach und konzentriert sich auf die Entwicklung von Technologien, die die Kontrolle der Verkehrsinfrastruktur in die Hände der Endnutzer legen. Es werden Beispiele für diese Verschiebung gegeben, darunter eine Analyse der Ereignisse des 11. September 2001 als Formen verteilten kollektiven Handelns.;-;-;-;https://link.springer.com/article/10.1007/s10606-006-9015-2 0659fe6d14f3daa2418516437315f0bf;de;;;7.3.;;;Design adaptiver Webinterfaces in Bezug auf kognitive Stile von Schülern Eines der Hindernisse für die Integration kognitiver Stile von Schülern in webbasierte Lernsysteme ist die adaptive Darstellung von Lernmaterial in webbasierten Umgebungen. Diese Studie entwarf adaptive Webschnittstellen in Bezug auf die kognitiven Stile der Schüler, indem die Beziehungen zwischen den kognitiven Stilen der Schüler und den Browsing-Mustern von Inhalten und interaktiven Komponenten untersucht wurden. Das System empfahl dann adaptiv Lerninhalte, die mit einer Vielzahl von von den Schülern bevorzugten Inhalten und interaktiven Komponenten basierend auf den kognitiven Stilen der Schüler präsentiert wurden. Das in dieser Studie verwendete kognitive Stilinstrument war der Myers-Briggs-Typenindikator, der auf Jungs Theorie der kognitiven Stile basiert. Es basiert auf zwei grundlegenden kognitiven Funktionen, der Wahrnehmung und dem Urteilsvermögen, deren Kombinationen vier kognitive Stile bilden: Zwischenmenschlich, Beherrschung, Verstehen und Selbstausdruck. Es wurde ein Experiment durchgeführt, um die Auswirkungen des vorgeschlagenen adaptiven webbasierten Systems auf das Lernengagement der Schüler zu untersuchen. An dem Experiment nahmen zwei Klassen von College-Neulingen teil. Eine Klasse wurde als Kontrollgruppe mit dem konventionellen Web-Bases-System ohne adaptive Web-Interfaces zugewiesen. Die andere Klasse wurde als experimentelle Gruppe unter Verwendung der entworfenen adaptiven Webschnittstellen zugewiesen. Die experimentellen Ergebnisse zeigten, dass Interpersonal- und Mastery-Studenten in der Kontrollgruppe schneller die Geduld verloren als Studenten der anderen Stile. Darüber hinaus zeigten die Ergebnisse, dass das vorgeschlagene adaptive Lernsystem insbesondere das Engagement der Schüler beim Lernen für Interpersonal- und Mastery-Studenten effektiv verbessern könnte. Die Ergebnisse lieferten Belege für die Wirksamkeit des adaptiven webbasierten Lernsystems, das sich auf die kognitiven Stile der Schüler konzentriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24775-0_52 c49f0cd6cd9343823580ed43114c1164;de;;;7.3.;;;Globale Internet-Routing-Forensik Dem Border Gateway Protocol (BGP), dem globalen Routingprotokoll des Internets, fehlen grundlegende Authentifizierungs- und Überwachungsfunktionen. Somit können falsche Routing-Informationen in das Internet eingeführt werden, was den vollständigen Zusammenbruch der Paketweiterleitung verursachen und zu Denial-of-Service oder fehlgeleitetem Verkehr führen kann. Obwohl es unmöglich ist, einen solchen Angriff zu verhindern, versuchen wir, der Routing-Infrastruktur einen Mechanismus zur Verfügung zu stellen, um falsche Pfade durch effiziente Validierung, ordnungsgemäße Aufzeichnung und forensische Analyse von Routing-Daten zu identifizieren. Zu diesem Zweck schlagen wir eine neuartige BGP-Pfadverifizierungstechnik vor, die ICMP-Traceback-Nachrichten verwendet, die um AS-PATH- und Link-Konnektivitätsinformationen erweitert wurde. Der Ansatz lässt sich leicht implementieren, da keine Änderungen am BGP erforderlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-31163-7_14 8fa4d3738b738e5c1d0300fc13114246;de;;;7.3.;;;Kosten-Nutzen-Analyse von Web-Prefetching-Algorithmen aus Nutzersicht Da Web-Prefetching-Techniken in der zweiten Hälfte der 90er Jahre als Mechanismen zur Reduzierung der wahrgenommenen Latenz der Endnutzer vorgeschlagen wurden, wurden in der Forschungsliteratur nur wenige Versuche unternommen, ihre Leistung zu bewerten. Darüber hinaus ist dies nach Kenntnis der Autoren die erste Studie, die verschiedene Vorschläge aus Nutzersicht bewertet, d. h. die vom Nutzer wahrgenommene Latenz als zentrale Kennzahl betrachtet. Diese Lücke zwischen den Vorschlägen und ihrem korrekten Leistungsvergleich ist auf die Schwierigkeit zurückzuführen, einen homogenen Rahmen und eine homogene Arbeitsbelastung zu verwenden. Dieses Papier zielt darauf ab, diese Lücke zu schließen, indem eine Methode zur Kosten-Nutzen-Analyse vorgeschlagen wird, um Prefetching-Algorithmen aus der Sicht des Benutzers fair zu vergleichen. Die vorgeschlagene Methodik wurde verwendet, um drei der am häufigsten verwendeten Algorithmen in der Bibliographie unter Berücksichtigung der aktuellen Arbeitsbelastung zu vergleichen.;-;-;-;https://link.springer.com/chapter/10.1007/11753810_95 86466d383e0844a92946d6a812a99826;de;;;7.3.;;;Geo-Standortschätzung von Flickr-Bildern: Social Web Based Enrichment Die Schätzung der geografischen Lage von Bildern ist eine Aufgabe, der in den letzten Jahren viel Aufmerksamkeit gewidmet wurde. Eine große Anzahl von Elementen, die auf Flickr hochgeladen werden, enthalten keine GPS-basierten Breiten-/Längen-Koordinaten, obwohl es von Vorteil wäre, solche geografischen Informationen für eine Vielzahl potenzieller Anwendungen wie Reiseberichte und visuelle Ortsbeschreibungen zu erhalten. Während die meisten Arbeiten in diesem Bereich die textuellen Metadaten eines Bildes berücksichtigen, um seine Geo-Location einzuschätzen, betrachten wir eine zusätzliche textuelle Dimension: die Spuren des Bildbesitzers im sozialen Web, insbesondere auf der Mikroblogging-Plattform Twitter. Wir untersuchen die folgende Frage: Verbessert die Anreicherung der verfügbaren textlichen Metadaten eines Bildes mit den Tweets eines Benutzers die Genauigkeit des Prozesses zur Schätzung des geografischen Standorts? Die Ergebnisse zeigen, dass dies tatsächlich der Fall ist, in einer Orakeleinstellung verringert sich der mittlere Fehler in Kilometern um 87%, im besten automatischen Ansatz verringert sich der mittlere Fehler um 56%.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28997-2_8 f7b518716c12c5e4d64b08cb76b1233e;de;;;7.3.;;;Einflussfaktoren auf die Einführung von E-Business im griechischen Hotelsektor Das Ziel dieser Untersuchung ist es, die Auswirkungen von Geschäftsprozessverbesserungen im Bereich E-Marketing in der Hotellerie zu identifizieren. Die Forschung identifiziert die Hindernisse, die organisatorische Veränderungsbemühungen blockieren. Es wurde eine Stichprobe von dreißig Hotels in der Stadt Athen verwendet. Dieses Papier präsentiert eine SWOT-Analyse des Hotelsektors und identifiziert die Stärken, Schwächen, Chancen und Risiken, denen Unternehmen im Veränderungsprozess gegenüberstanden. Die Ergebnisse zeigen, dass die Mehrheit der Unternehmen in geringem Umfang das E-Marketing-Konzept nutzt, um ihre Kommunikationsstrategie zu verbessern und Marktsegmente zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04757-2_51 f498bed3037bf8f5e8732dbe123a6d63;de;;;7.3.;;;Webbasierte Lernanwendung für LMS Obwohl eine Vielzahl von Standardisierungs- und Lernmanagementsystemen (LMS) entwickelt wurden, um Webinhalte als Reaktion auf die aktive Verbreitung von Internetanwendungen zu entwickeln und effektiv zu verwalten, sind noch keine praktischen Änderungen zur Unterstützung von Online-Lernenden gefunden worden. Der Hauptzweck des in diesem Papier vorgeschlagenen LMS-Systems besteht darin, den Lernenden zu helfen, eine proaktive und selbstorientierte Bildung zu verfolgen, indem es den Lernenden ermöglicht wird, ihre eigenen Inhalte proaktiv zu konfigurieren, d. In diesem Beitrag möchte ich ein LMS vorstellen, das eine selbstleitende Ausbildung unterstützen kann, indem es verschiedenen Arten von Lernenden an der Virtuellen Universität fein organisierte Bildungsinhalte für maximale Effizienz bietet. Das System ermöglicht es einem Lernenden, eine Vorlesung oder ein Kapitel auszuwählen, das vorsortiert wurde, um seinen Bildungsbedürfnissen und intellektuellen Fähigkeiten zu entsprechen.;-;-;-;https://link.springer.com/chapter/10.1007/11816157_145 5bde2d7116f5871db80b218615faa9aa;de;;;7.3.;;;Ein Web 2.0-Ansatz zur Organisation von Suchergebnissen mit Wikipedia Die meisten aktuellen Suchmaschinen geben eine Rangliste der Ergebnisse als Antwort auf die Anfrage des Benutzers zurück. Dieser einfache Ansatz erfordert möglicherweise, dass der Benutzer eine lange Liste von Ergebnissen durchgeht, um die Dokumente zu finden, die sich auf seinen Informationsbedarf beziehen. Eine gängige Alternative besteht darin, die Suchergebnisse zu gruppieren und dem Benutzer das Durchsuchen der Cluster zu ermöglichen, aber dies stellt auch zwei Herausforderungen: „Wie man die Cluster definiert“ und „wie man die Cluster auf informative Weise beschriftet“. In dieser Studie schlagen wir einen Ansatz vor, der Wikipedia als Informationsquelle nutzt, um die Suchergebnisse zu organisieren und diese beiden Herausforderungen zu adressieren. Als Reaktion auf eine Abfrage extrahiert unsere Methode eine Hierarchie von Kategorien aus Wikipedia-Seiten und trainiert Klassifikatoren mithilfe von Webseiten, die sich auf diese Kategorien beziehen. Die Suchergebnisse werden in der extrahierten Hierarchie unter Verwendung der gelernten Klassifikatoren organisiert. Die Versuchsergebnisse bestätigen die Wirksamkeit des vorgeschlagenen Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25631-8_20 a0f68899b40af1b6b961660b9620e650;de;;;7.3.;;;Zur Wahrscheinlichkeit der Vorhersage und Zuordnung traditioneller Kriegsführungsmessungen zum Bereich der Cyber-Kriegsführung Cyber-Kriegsführung ist ein umstrittenes Thema, ohne dass Einigkeit darüber besteht, ob dies eine reale Möglichkeit oder eine unrealistische Erweiterung des physischen Schlachtfelds ist. Dieser Artikel wird nicht die Gültigkeit und Rechtmäßigkeit des Konzepts der Cyber-Kriegsführung diskutieren, sondern seine Existenz auf der Grundlage früherer Forschungen annehmen. Zu diesem Zweck wird der Artikel die verfügbare Forschung zu den Ursachen, Elementen und Messtechniken der traditionellen Kriegsführung untersuchen. Dies geschieht, um die Möglichkeit zu untersuchen, traditionelle Kriegsführungsmessungen auf die Cyberkriegsführung abzubilden. Dieser Artikel zielt darauf ab, Beweise für die Wahrscheinlichkeit der Vorhersage und Zuordnung traditioneller Kriegsführungsmessungen im Bereich der Cyber-Kriegsführung zu liefern. Derzeit ist die einzige Möglichkeit zur Messung der Cyber-Kriegsführung in traditionellen Informationssicherheitstechniken zu finden, aber diese Messungen beschreiben häufig die Ausdehnung der Cyber-Domäne nicht angemessen. Daher zielt dieses Papier darauf ab, eine Reihe von Kriterien zu identifizieren, die bei der Vorhersage der Wahrscheinlichkeit von Cyberkriegsführung helfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44208-1_20 104d354bf6937df39033c26e04289ae3;de;;;7.3.;;;Bewertung der Leistung einer Website mithilfe der Warteschlangentheorie In den letzten Jahren haben sich viele Menschen dem Thema Website-Qualität gewidmet. Web-Performance-Tests können in viele Kategorien unterteilt werden, sie werden normalerweise in verschiedenen Aspekten wie Benutzeroberfläche, Funktionalität, Schnittstellenkompatibilität, Last/Stress, Sicherheit usw. durchgeführt. Nach sorgfältiger Durchsicht der aktuellen Literatur zur Website-Evaluierung bis zu diesem Stadium stellen fest, dass Performance-Probleme von Websites heute viel mehr Aufmerksamkeit auf sich ziehen als früher. Diese Studie untersucht die Leistungsbewertung der Website in der World Wide Web-Umgebung. Im World Wide Web-Umfeld messen wir reale Daten und erhalten über den Auswertealgorithmus Antwortzeiten.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-47984-8_10 e3274b5eff8366d01cf5767317403585;de;;;7.3.;;;Zeit und Gedächtnis in sozialen Medien Wie ich im Abschnitt „Thomson: Mediation und Raumzeit“ in Kapitel 3 kurz skizziert habe, haben die Möglichkeiten, wie vermittelte Botschaften durch die Zeit bestehen können, und die Folgen davon weniger Aufmerksamkeit erhalten als die Art und Weise, wie Mediation solche Botschaften durch den Raum reisen lässt . Dies ist besonders besorgniserregend, da es, wie Mayer-Schönberger (2009) vorschlägt, in mancher Hinsicht schwieriger sein kann, Botschaften angemessen zu adressieren;-;-;-;https://link.springer.com/chapter/10.1057/9781137312716_5 4b2f9ba33dadc7b70fdbe094c180e39c;de;;;7.3.;;;Einführung: Die Geburt des Cyberspace und die Entwicklung des Hacktivismus Dieses Kapitel zielt darauf ab, den Kontext darzustellen, in dem Hacktivismus geboren und entwickelt wurde, und die organische Natur dieser Art des politischen Ausdrucks für informationsbasierte vernetzte Gesellschaften aufzuzeigen. In diesem einführenden Kapitel wird zunächst erläutert, wie das Internet entstanden ist und wie es soziale Beziehungen, Politik und Machtkonflikte revolutioniert. Er hebt die wachsende Bedeutung von Netzwerken und Informationen für zeitgenössische Gesellschaften hervor und spricht über die Geburt des Hacktivismus und seine Rolle als unvermeidliche Hybridisierung von politischem Aktivismus und Hacking sowohl in Bezug auf die Gründe als auch die Taktik. Dieses Kapitel ist ein entscheidender Schritt, um den Leser mit der Landschaft vertraut zu machen, in der Hacktivismus geboren wurde, und es entwickelt und schafft den notwendigen Rahmen für die weitere Diskussion.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-71758-6_1 8228760f16fe8496ae7dac512304f986;de;;;7.3.;;;Ist es möglich, das Ergebnis der manuellen Web-Barrierefreiheit mithilfe des automatischen Ergebnisses vorherzusagen? Der am besten geeignete Ansatz für das Benchmarking der Barrierefreiheit im Web ist die manuelle Expertenbewertung, die durch automatische Analysetools ergänzt wird. Die manuelle Bewertung ist jedoch mit hohen Kosten verbunden und für große Websites unpraktisch. In Wirklichkeit gibt es keine andere Wahl, als sich bei der Überprüfung großer Websites auf Barrierefreiheit auf automatisierte Tools zu verlassen. Die Frage ist: Inwieweit können die Ergebnisse aus der automatischen Auswertung einer Website und einzelner Webseiten als Näherung für manuelle Ergebnisse verwendet werden? In diesem Beitrag werden die ersten Ergebnisse einer Untersuchung vorgestellt, die diese Frage beantworten soll. Er hat sowohl manuelle als auch automatische Bewertungen der Barrierefreiheit von Webseiten zweier Sites durchgeführt und wir haben die Ergebnisse verglichen. In unserem Datensatz können automatisch abgerufene Ergebnisse durchaus als Näherung für manuelle Auswertungsergebnisse verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02713-0_68 0921afeed13bd0afe082223a3b9b240f;de;;;7.3.;;;AmbientBrowser: Webbrowser im Alltag In letzter Zeit wird die allgegenwärtige Computerumgebung aufgrund des bemerkenswerten Fortschritts der Technologie Realität. Menschen können Informationen jederzeit direkt von einem allgegenwärtigen Computer abrufen. Der herkömmliche Computerstil mit Tastatur und Maus ist jedoch nicht alltagstauglich. Wir haben einen Webbrowser namens vorgeschlagen und entwickelt;-;-;-;https://link.springer.com/chapter/10.1007/11825890_8 e0b0f45cf187f2918c3057949ba6d136;de;;;7.3.;;;Richtlinienbewusste Wiederverwendung von Inhalten im Web Das Web ermöglicht es Benutzern, ihre Arbeit sehr effektiv zu teilen, was zu einer schnellen Wiederverwendung und Neumischung von Inhalten im Web, einschließlich Text, Bildern und Videos, führt. Wissenschaftliche Forschungsdaten, soziale Netzwerke, Blogs, Foto-Sharing-Sites und andere Anwendungen, die zusammen als Social Web bekannt sind, enthalten viele immer komplexere Informationen. Solche Informationen von mehreren Webseiten können sehr leicht aggregiert, zusammengeführt und in anderen Webseiten präsentiert werden. Die Generierung von Inhalten dieser Art führt unweigerlich zu vielen Urheberrechts- und Lizenzverletzungen und motiviert zur Erforschung wirksamer Methoden zur Erkennung und Verhinderung solcher Verletzungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04930-9_35 305e919abbb5c8eba35410aa4a1ec4c4;de;;;7.3.;;;Einsatz von High-Level-Modellen zur Erstellung von inszenierten partizipativen Multimedia-Events im Fernsehen Ausgestrahlte Fernsehsendungen werden interaktiver. Einige ausgestrahlte TV-Sendungen ermöglichen es sogar Heimzuschauern ohne professionelle Ausrüstung, an ihnen teilzunehmen. In diesem Beitrag stellen wir einen Ansatz vor, der dieses Konzept noch weiterführt. Bei der vorgeschlagenen Art der Beteiligung werden die Fernsehzuschauer nicht nur durch Interaktion oder Videostreams an der Show teilnehmen, sondern auch ihre eigene Show erstellen und moderieren können. Der Kern des vorgestellten Ansatzes besteht in der Verwendung von High-Level-Modellen zur Beschreibung der verschiedenen Aspekte der Fernsehsendung und einer generischen Laufzeitumgebung. In diesem Artikel werden diese Art von Beteiligungsfernsehen, inszenierte partizipative Multimedia-Ereignisse und die unterstützende Laufzeitumgebung ausführlicher erörtert. Es stellt auch das Werkzeug und die Modelle vor, die verwendet werden, um die grafische Erstellung der Struktur und des Erscheinungsbilds von Staged Participatory Multimedia Events zu unterstützen.;-;-;-;https://link.springer.com/article/10.1007/s00530-008-0116-2 9aa45e9b960526db1adf56f543bb322c;de;;;7.3.;;;Entwicklung von Ubi-autonomen Einheiten Allgegenwärtige Macht umfasst einen wichtigen Faktor, nämlich die Koordination zwischen kleinen Instanzen individualisierter intelligenter Programme. Mit der Koordination können intelligente Strategien etabliert werden, um Rechentopologien zu realisieren und unterschiedlichen Zwecken von Rechenzielen zu dienen. Mit der Entwicklung von Mobiltelefonen und Internet existieren diese individualisierten Programme in der digitalen Welt, in der ein neues Ökosystem gebildet werden kann. Diese intelligenten Einheiten bilden Gruppen und verbrauchen natürliche Ressourcen in der digitalen Welt. Wettbewerb und Zusammenarbeit bestehen somit zwischen verschiedenen Gruppen autonomer Einheiten. Wir schlagen ein Modell vor, das auf einem Konzept namens Nahrungsnetz im Ökosystem basiert. Nahrungsnetz existiert in natürlichen Worten für Diener von Jahren und dient als Ausgleichsalgorithmus zwischen verschiedenen Arten. Wir definieren das Nahrungsnetzmodell für autonome Einheiten und schlagen Algorithmen zur Bildung und Kommunikation vor. Folglich kann das vorgeschlagene Modell verwendet werden, um die Entwicklung intelligenter Strategien und der zugrunde liegenden Kommunikationstopologie zu berücksichtigen, so dass ubiquitäre Intelligenzen im digitalen Nahrungsnetz entwickelt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/11833529_112 441f1259d8e39d2aa8ee164b76b05c1c;de;;;7.3.;;;Ein vollständig verteilter Web-Crawler basierend auf einem strukturierten Netzwerk Verteilte Webcrawler erhalten in letzter Zeit immer mehr Aufmerksamkeit von Forschern. Ein vollständig dezentraler Crawler ohne einen zentralisierten Verwaltungsserver scheint aufgrund seiner Skalierbarkeit, Ausfallsicherheit und erhöhter Autonomie der Knoten ein interessantes Architekturparadigma für die Realisierung großer Informationssammelsysteme zu sein. Dieses Papier stellt ein neuartiges vollständig verteiltes Web-Crawler-System bereit, das auf einem strukturierten Netzwerk basiert, und ein verteiltes Crawling-Modell wird entwickelt und darin angewendet, das die Leistung des Systems verbessert. Einige wichtige Themen wie Aufgabenverteilung, Lösung der Skalierbarkeit wurden diskutiert. Schließlich wird eine experimentelle Studie verwendet, um die Vorteile des Systems zu überprüfen, und die Ergebnisse sind vergleichsweise zufriedenstellend.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68636-1_51 a8f6ab41ea0b96f001856eadbd0a06a1;de;;;7.3.;;;EUROMED – Eine WWW-basierte telemedizinische Informationsgesellschaft des 21. Jahrhunderts Das World Wide Web (WWW) wird zu einem der wichtigsten Wege, um auf Informationen zuzugreifen. Auch das Konzept der Telemedizin erfasst viel von dem, was sich in Bezug auf die Technologieimplementierung entwickelt, insbesondere wenn es mit dem Wachstum des Internets und des WWW kombiniert wird. Das von der EU unterstützte Euromed-Projekt entwickelt daher ein standardisiertes telemedizinisches Informationssystem für 21;-;-;-;https://link.springer.com/chapter/10.1007/BFb0037132 20f80b64b5ba9db6ae7e20b83fe10353;de;;;7.3.;;;Überlegungen zu einem halben Jahrhundert des Denkens in der naturwissenschaftlichen Bildung und Forschung: Implikationen einer zwölfjährigen Längsschnittstudie zum Lernen von Kindern In den letzten drei Jahrzehnten hat unser Verständnis der Natur des Wissens und der Prozesse, mit denen Menschen neues Wissen aufbauen, enorme Fortschritte gemacht. Inzwischen herrscht allgemein Einigkeit darüber;-;-;-;https://link.springer.com/article/10.1080/14926150409556595 0ca554dfc6e23351e05a76b7457a5990;de;;;7.3.;;;Soft Computing im E-Commerce Elektronischer Handel (oder kurz E-Commerce) ist eine neue Art der Führung, Verwaltung und Ausführung von Geschäften unter Verwendung von Computer- und Telekommunikationsnetzen. Es gibt zwei Hauptparadigmen im E-Commerce, nämlich Business-to-Business (B2B) E-Commerce und Business-to-Consumer (B2C) E-Commerce. In diesem Papier skizzieren wir die verschiedenen Probleme, die mit diesen beiden Arten von E-Commerce verbunden sind, und schlagen einige Möglichkeiten vor, wie Soft-Computing-Konzepte eine Rolle spielen können.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45631-7_61 dd31f2c147e0e4519ebf2750159ece05;de;;;7.3.;;;Semantic Web Services Discovery in einer Multi-Ontologie-Umgebung Webservices werden zur Grundlage für den elektronischen Handel aller Art. Die Zahl der angebotenen Dienste nimmt zu, aber verschiedene Dienstanbieter verwenden unterschiedliche Ontologien für die Beschreibung der Dienste. Dies hat es Service-Discovery-Agenten erschwert, die gewünschten Dienste zu vergleichen und zu lokalisieren. Ein- und Ausgaben sind wichtige Informationen, die bei der Suche nach den benötigten Diensten verwendet werden können. Um Benutzern oder Softwareagenten das Auffinden von Webdiensten in Umgebungen mit mehreren Ontologien zu erleichtern, schlagen wir daher in diesem Papier einen Ansatz vor, um die semantische Ähnlichkeit der Ein-/Ausgaben von Diensten zu bestimmen, die durch verschiedene Ontologien beschrieben werden.;-;-;-;https://link.springer.com/chapter/10.1007/11575863_21 87dac3a8c21ffa411b3873b5d9b88ce2;de;;;7.3.;;;GoWeb: eine semantische Suchmaschine für das Life Science Web Aktuelle Suchmaschinen sind schlüsselwortbasiert. Semantische Technologien versprechen eine nächste Generation semantischer Suchmaschinen, die Fragen beantworten können. Aktuelle Ansätze wenden entweder die Verarbeitung natürlicher Sprache auf unstrukturierten Text an oder gehen von der Existenz strukturierter Aussagen aus, über die sie argumentieren können.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-10-S10-S7 491c5d4fb6dabc075f0e77d54b7e4a08;de;;;7.3.;;;Auffinden und Neukonfigurieren von Datensätzen in unstrukturierten Webdokumenten mit mehreren Datensätzen Die Datensatzextraktion aus datenreichen, unstrukturierten Webdokumenten mit mehreren Datensätzen funktioniert gut [9], aber nur, wenn der Text für jeden Datensatz lokalisiert und isoliert werden kann. Obwohl einige Webdokumente mit mehreren Datensätzen Datensätze als zusammenhängende, abgegrenzte Textblöcke darstellen (die somit lokalisiert und isoliert werden können [10]), tun dies viele nicht. Wenn einige Werte von Textdatensätzen ausgeklammert werden, unnatürlich über Grenzen hinweg aufgeteilt werden, unnatürlich innerhalb von Grenzen verbunden werden oder durch Off-Page-Konnektoren verbunden sind oder wenn gewünschte Datensätze mit Datensätzen durchsetzt werden, die nicht von Interesse sind, ist es schwierig, dies automatisch zu tun Sammeln Sie Datensätze und setzen Sie Werte zusammen, um saubere, abgegrenzte Textblöcke zu bilden, die jeweils einen einzelnen Datensatz von Interesse darstellen. In diesem Artikel gehen wir dieses Problem an und schlagen einen Algorithmus vor, um Datensätze in einem HTML-Dokument zu finden und (falls erforderlich) neu anzuordnen. Die wesentliche Idee besteht darin, zu versuchen, eine Datensatzerkennungsheuristik in Bezug auf eine gegebene Anwendungsontologie zu maximieren. Tests, die wir für zwei sehr unterschiedliche Anwendungen durchgeführt haben, zeigen, dass diese Technik Datensätze richtig lokalisiert und rekonfiguriert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45271-0_17 31bd91430885821ba593c0566c81de95;de;;;7.3.;;;Sicheres Lernen In diesem Beitrag werden die spezifischen Sicherheitsanforderungen des internetbasierten Lernens erörtert. Es werden zwei konkrete Lösungsansätze zur Verbesserung des erreichbaren Sicherheitsgrades aufgezeigt. Zunächst wird ein Framework für sicheres Testen eingeführt. Dieser Rahmen verhindert Manipulationen seitens der Schüler während des Lernens. Somit ist eine zuverlässige Kontrolle des Lernerfolgs möglich. Die zweite vorgestellte Lösung befasst sich mit dem Problem der Vertraulichkeit und des Schutzes des Urheberrechts. Durch die Einrichtung einer lebenslangen Kontrolle des Urheberrechtsinhabers über seine Dokumente verhindert es den unrechtmäßigen Zugriff und die Weiterverteilung.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35413-2_23 91b1541d9dd2bba99ec3c2e673046dd2;de;;;7.3.;;;Ontologie-basiertes fokussiertes Crawlen von Deep Web-Quellen Deep Web Source Discovery ist einer der entscheidenden Schritte zur umfassenden Informationsintegration. In diesem Artikel stellen wir das Crawlen von Deep Web-Quellen basierend auf der Ontologie vor, einer erweiterten Crawling-Methodik. Diese fokussierte Crawling-Methode basierend auf der Ontologie von Deep Web-Quellen vermeidet das Herunterladen einer großen Anzahl irrelevanter Seiten. Die Evaluierung hat gezeigt, dass dieser neue Ansatz vielversprechende Ergebnisse liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76719-0_51 430b03d331b1354fd4d2cac9775f249e;de;;;3.4.;;;Innovationsprozessdesign: Eine Perspektive des Change Managements und der Innovationsdimension Die Autoren schlagen einen innovativen Ansatz für das Innovationsmanagement vor, der Geschäfts-, Prozess- und Reifedimensionen integriert. Kernelement des Konzepts ist die Anpassung der ISO/IEC 15504 an den Innovationsprozess mit 14 Innovationstreibern. Zur Konzeption und Visualisierung der jeweiligen Innovationsstrategien werden zwei Managementmodelle angewendet, die Balanced Scorecard und ein Barriers in Change Processes Model. Eine anschauliche Fallstudie zeigt einen praktischen Umsetzungsprozess.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04133-4_10 7604babc5afdfd4ba0d235792bcdeb57;de;;;7.3.;;;MuZeeker: Anpassung einer Musiksuchmaschine für Mobiltelefone Wir beschreiben MuZeeker, eine Suchmaschine mit Domänenwissen basierend auf Wikipedia. MuZeeker ermöglicht dem Benutzer, eine Suche in mehreren Schritten durch Kategorieauswahl zu verfeinern. In der vorliegenden Version konzentrieren wir uns auf die multimediale Suche im Zusammenhang mit Musik und stellen zwei prototypische Suchanwendungen (webbasiert und mobil) vor und diskutieren die Probleme bei der Anpassung der Suchmaschine für Mobiltelefone. Ein kategoriebasierter Filteransatz ermöglicht es dem Benutzer, eine Suche durch Relevanz-Feedback durch Kategorieauswahl zu verfeinern, anstatt zusätzlichen Text einzugeben, was in der mobilen MuZeeker-Anwendung als Vorteil vermutet wird. Wir berichten von zwei Usability-Experimenten mit dem Think-Aloud-Protokoll, bei denen N=20 Teilnehmer Aufgaben mit MuZeeker und einer angepassten Google-Suchmaschine erledigten. In beiden Experimenten wurden webbasierte und mobile Benutzeroberflächen verwendet. Das Experiment zeigt, dass die Teilnehmer Aufgaben mit MuZeeker etwas besser lösen können, während die unerfahrenen MuZeeker-Benutzer etwas langsamer sind als erfahrene Google-Benutzer. Dies wurde sowohl in den webbasierten als auch in den mobilen Anwendungen gefunden. Es wurde festgestellt, dass die Aufgabenleistung in den mobilen Suchanwendungen (MuZeeker und Google) 2–2,5 Mal niedriger war als die der entsprechenden webbasierten Suchanwendungen (MuZeeker und Google).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12349-8_9 94b056851461c93105b1646130389178;de;;;3.4.;;;Bewertung der Fähigkeit des Softwareproduktmanagements: Eine Fallstudie zur Branchenvalidierung Vom Softwareproduktmanagement wird erwartet, dass es geschäfts- und produktbezogene Ziele mit den Kernaktivitäten der Softwareentwicklung und des Softwarelebenszyklus verbindet und integriert. Dennoch fehlt es traditionellen Ansätzen zur Verbesserung von Softwareprozessen wie ISO/IEC 12207 an expliziten und detaillierten Softwareproduktmanagementaktivitäten. – In diesem Papier teilen wir die Ergebnisse einer realen industriellen Pilotvalidierung eines aufkommenden Prozessreferenzmodells für Softwareproduktmanagement, das in die ISO/IEC 12207 integrierbar ist. Die Ergebnisse werden in Bezug auf eine qualitative Bewertung des Referenzmodells diskutiert und im Hinblick auf Verbesserungen des Modells analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38833-0_9 8c24223b8c8fefea57d2b4c496c756e0;de;;;7.3.;;;Sicherheit im Internet der Dinge: Probleme, Herausforderungen, Taxonomie und Architektur Die Internet-Technologie ist heute sehr verbreitet. Die Zahl der mit dem Internet verbundenen Geräte, die über eine digitale Identität verfügen, nimmt von Tag zu Tag zu. Mit den Entwicklungen in der Technologie wird das Internet der Dinge (IoT) zu einem wichtigen Bestandteil des menschlichen Lebens. Es ist jedoch nicht gut definiert und sicher. Heute werden verschiedene Sicherheitsprobleme als Hauptproblem für eine vollwertige IoT-Umgebung angesehen. Bei den vorgeschlagenen Architekturen und Technologien, die das Rückgrat des Internets der Dinge bilden, bestehen viele Sicherheitsherausforderungen. Es wurden einige effiziente und vielversprechende Sicherheitsmechanismen entwickelt, um die IoT-Umgebung abzusichern, aber es gibt noch viel zu tun. Die Herausforderungen werden immer größer und die Lösungen müssen immer besser werden. Ziel dieses Beitrags ist es daher, die Geschichte, den Hintergrund, die Statistiken des IoT und die sicherheitsbasierte Analyse der IoT-Architektur zu diskutieren. Darüber hinaus werden wir eine Taxonomie von Sicherheitsherausforderungen in der IoT-Umgebung und eine Taxonomie verschiedener Abwehrmechanismen bereitstellen. Wir schließen unseren Beitrag mit einer Diskussion verschiedener Forschungsherausforderungen, die noch in der Literatur bestehen, ab, was ein besseres Verständnis des Problems, des aktuellen Lösungsraums und der zukünftigen Forschungsrichtungen zur Abwehr verschiedener Angriffe ermöglicht.;-;-;-;https://link.springer.com/article/10.1007/s11235-017-0345-9 dda806ef75b2fcc152dbad4b81d7625f;de;;;7.3.;;;Clustering-basiertes Relevanz-Feedback für Webseiten Die meisten traditionellen Relevanz-Feedback-Systeme wählen einfach die am besten bewerteten Webseiten als Quelle für die Bereitstellung der Gewichte von Kandidaten-Suchbegriffen. Die Inhalte solcher Top-Ranking-Webseiten setzen sich jedoch oft aus heterogenen Unterthemen zusammen, die erkannt und unterschieden werden können und sollen. Aktuelle Ansätze behandeln jedoch abgerufene Webseiten als eine Einheit und scheitern oft beim Extrahieren von Kandidaten-Sucherweiterungstermen guter Qualität.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36668-3_50 d859f4265c6bc5267f5136d6f70f4620;de;;;7.3.;;;Selektiver Abruf zur Kategorisierung von halbstrukturierten Webressourcen Ein typisches Online-Inhaltsverzeichnis enthält sachliche Informationen über Entitäten (z. B. die Adresse eines Unternehmens) zusammen mit Entitätskategorien (z. B. Branchen des Unternehmens). Die Kategorien sind ein herausragendes Element des Systems, da sie es Benutzern ermöglichen, nach Entitäten eines ausgewählten Typs zu suchen. Die manuelle Zuweisung von Kategorien kann eine schwierige Aufgabe sein, wenn man bedenkt, dass eine Entität zu wenigen von Hunderten von Kategorien gehören kann (z. B. allen möglichen Branchentypen). Stattdessen schlagen wir vor, diesen Prozess durch ein automatisches Kategorisierungssystem zu erweitern, das Kategorien basierend auf der Homepage der Entität vorschlägt. Um die Genauigkeit der Ergebnisse zu verbessern, folgt das System Links, die von der Homepage extrahiert wurden, und verwendet abgerufenen Inhalt, um das Begriffsprofil einer Entität zu erweitern. Das Profil wird später von einem Klassifizierungssystem mit mehreren Labels verwendet, um der Entität Kategorien zuzuordnen. Das Schlüsselelement des Systems ist ein Link-Ranking-Modul, das Homepage-Features (z. B. Position und Ankertext von Links) verwendet, um Links auszuwählen, die die Kategorisierungsergebnisse am wahrscheinlichsten verbessern. Die Auswertung eines Datensatzes von fast zehntausend Firmenhomepages bestätigte, dass der Link-Ranking-Ansatz es dem System ermöglicht, die Abruf- und Verarbeitungskosten zu begrenzen, um Antworten in Echtzeit zu ermöglichen und dennoch die Kategorisierungsergebnisse von Basissystemen zu übertreffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38457-8_11 1404699515f791ce1b1004cede5cddfc;de;;;3.4.;;;Öffentliche Politik und literarische Kultur: Verlagsbeihilfen in Schottland Die öffentliche Förderung des Verlagswesens hat eine Reihe von Zielen, darunter die Ausweitung sowohl internationaler kultureller Aktivitäten als auch nationaler Kulturunternehmen. Die schottische Verlagsbranche wird beschrieben und ihre jüngste Geschichte wird überprüft. Die Aktivitäten des Förderprogramms für Verlage des Scottish Arts Council werden aufgezählt. Schließlich werden die Auswirkungen der Subventionen auf schottische Autoren und Verlage bewertet.;-;-;-;https://link.springer.com/article/10.1007/BF02680399 1db8052b90622ec5f0e22c4a35055c0b;de;;;7.3.;;;Preisvergleichssysteme auf Basis von Semantic Web – eine Fallstudie zum Kauf von Kameras Eine kritische Fähigkeit, die für den Betrieb in der heutigen Informationsflut erforderlich ist, ist die Fähigkeit, Informationen aus unterschiedlichen Quellen in einer einheitlichen kohärenten Form zu aggregieren. Bis heute werden fast die meisten Inhalte von Einkaufszentren durch Technologien gebaut, die nicht als Integration und Erweiterung angesehen werden. Wir müssen zusätzlich Metadaten und Produktlisten erstellen, wenn wir Vergleichs-Shopping verwenden möchten. Diese Metadaten enthalten jedoch keine Semantik, sie können nur der Textsuche dienen. Aus diesem Grund verschwendet ein Käufer Zeit und Kosten, um alle Informationen zu erhalten, die ihn wirklich interessieren. Darüber hinaus sind Vergleichs-Shopping-Malls durch ihre eigene Technologie angepasst, daher ist es auch unmöglich, ihre Produktinformationen zu teilen. In diesem Beitrag verwenden wir die Semantic-Web-Technologie DAML+OIL. Auf diese Weise erstellen wir eine Ontologie für jedes Einkaufszentrum, definieren Konzept und Struktur und haben DAML-Markup-Instanzdaten erstellt und dann semantische Faktoren mit DAMLJessKB extrahiert. Wir haben diese extrahierten semantischen Faktoren auch als Fakt für die JESS-Inferenz-Engine verwendet, um Inferenz und Argumentation in Web-Datenstrukturen zu ermöglichen. Unser Ansatz ermöglicht Rückschlüsse, wenn eine Anfrage verarbeitet und durchgeführt wird. Dabei haben wir zur Validierung unseres Ansatzes einen funktionierenden Prototyp auf Basis des oben genannten Semantic Web Inferenz-Systems implementiert und anschließend verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24679-4_27 ffa282bda2122e9cb2f04118be8897f8;de;;;7.3.;;;Ein energiesparender Ansatz für die Datenformatierung und den vertrauenswürdigen Dokumentenaustausch in ressourcenbeschränkten Netzwerken Leichte Datenformatierungs- und Dokumentenaustauschschemata sind von Interesse, um Energie beim Austauschen von Dokumenten zu sparen, insbesondere in den ressourcenbeschränkten Netzwerken (RCNs). Dieses Papier stellt eine energiesparende, leichtgewichtige Methode zur Datenrepräsentation und zum vertrauenswürdigen Dokumentenaustausch vor. Es basiert auf einem Format, das von der YAML Ain’t Markup Language (YAML) abgeleitet ist, einer leichtgewichtigen Datenserialisierungssprache, und umfasst einen Schemaextraktionsprozess, um Daten von ihrer Struktur zu trennen. Das resultierende Schema ist nützlich, um das Datenformat auszudünnen und auch um Rewriting-Angriffe zu überprüfen. Der Rewriting-Angriff wird mit einem zweistufigen Ansatz überprüft. Es wird beobachtet, dass das vorgeschlagene Dokumentformat weniger ausführlich und energiesparender ist als XML und andere gängige nicht-binäre Formate. Das Format kann auch verwendet werden, um Nichtdokumentdaten darzustellen.;-;-;-;https://link.springer.com/article/10.1007/s10115-011-0450-0 f2563aeb70f0e31ce0d7850a02deedb6;de;;;7.3.;;;Ein webbasiertes wissensgestütztes Tutoring-System für die Gemüselieferkette Mit dem rasanten Fortschritt der Computertechnologie in letzter Zeit haben Forscher versucht, künstliche Intelligenz und Computernetzwerke einzusetzen, um computergestützte Nachhilfesysteme zu entwickeln. In der Zwischenzeit haben einige auch versucht, effektivere Programme zu entwickeln, um die Lernleistung von Schülern zu testen und zu verbessern. Diese Studie untersuchte die aktuellen theoretischen Grundlagen und Designprinzipien und schlug ein webbasiertes wissensgestütztes Tutorsystem für die Gemüselieferkette vor. Die Hauptidee dieser Arbeit konzentrierte sich auf das interaktive Design und die Feedback-Steuerung. Das vorgeschlagene Konzept wurde durch die Funktionen Chatsystem, Diskussionsteil, Fragebögen und Online-Lernprotokoll etc. veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-77253-0_35 cbcf82493c4c463857bd93f69783e82f;de;;;7.3.;;;Eine Web-Übung in evidenzbasierter Medizin mit kognitiver Theorie Unser Ziel war es, die Fähigkeiten des klinischen Denkens zu verbessern, indem wir eine etablierte Theorie des Gedächtnisses, der Kognition und der Entscheidungsfindung (Fuzzy-Trace-Theorie) auf den Unterricht in evidenzbasierter Medizin anwenden. Für Medizinstudenten und Assistenzärzte der Inneren Medizin wurden Entscheidungsaufgaben zur Beurteilung von Brustschmerzen bei Frauen entwickelt. Die Fuzzy-Trace-Theorie leitete die Auswahl von Online-Quellen (z. B. Zielartikel) und Entscheidungsaufgaben. Zwölf Studenten und 22 Assistenzärzte für Innere Medizin nahmen an didaktischen Konferenzen teil, bei denen der Schwerpunkt auf der Suche, Bewertung und klinischen Anwendung relevanter Evidenz lag. Ein 17-Item-Fragebogen der Likert-Skala bewertete die Bewertung der Anweisung durch die Teilnehmer. Die Bewertungen für jedes der 17 Items wichen zugunsten dieses alternativen Unterrichtsansatzes signifikant vom Zufall ab. Wir schließen daraus, dass die Fuzzy-Trace-Theorie ein nützlicher Leitfaden für die Entwicklung von Lernübungen in der evidenzbasierten Medizin sein kann.;-;-;-;https://link.springer.com/article/10.1111/j.1525-1497.2001.00214.x f82487e3d9abe0a2dbccefac61a57ad2;de;;;7.3.;;;Banken und Informationstechnologie: Marktfähigkeit vs. Beziehungen In diesem Papier werden die Auswirkungen der Informationstechnologie (IT) auf den Betrieb von Banken und die Struktur des Bankensektors bewertet, einschließlich der Auswirkungen auf die Stabilität. Auf der einen Seite können sich Banken auf das Relationship Banking konzentrieren und IT-Entwicklungen nutzen, um Dienstleistungen auf die individuellen Bedürfnisse zuzuschneiden und verbesserte, wenn auch veränderte Kundenbeziehungen aufzubauen. Auf der anderen Seite ermöglicht es die IT den Banken, Skalen- und Verbundvorteile zu nutzen, die im Transaktionsbanking am deutlichsten sind. Eine weitere Manifestation der IT sind Finanzinnovationen, die die Marktfähigkeit verbessert haben. Stabilität kommt ins Spiel, weil eine erhöhte Marktfähigkeit opportunistisches Verhalten ermöglicht. Zusammen mit einem verbesserten Herdenverhalten und Veränderungen in der Branchenstruktur könnte dies die Stabilität untergraben und das systemische Risiko erhöhen, was eine Überarbeitung der Regulierung erfordert.;-;-;-;https://link.springer.com/article/10.1007/s10660-013-9107-2 f594d10a96b66064bcf2d32d62115739;de;;;7.3.;;;Quality of Health Websites: Dimensionen für eine breite Evaluation Die Verwendung einer Methodik für die Bewertung, den Vergleich und die Qualitätsverbesserung von Gesundheitswebsites ist durch ihre weit verbreitete Akzeptanz und Sichtbarkeit für Internetnutzer gerechtfertigt. Aufgrund der Sensibilität ihres Inhalts und ihrer Auswirkungen auf die Benutzer sollten gesundheitsbezogene Websites bewertet werden. In diesem Kapitel werden drei verschiedene Dimensionen für die Entwicklung von Methoden zur Qualitätsbewertung von Gesundheitswebsites vorgeschlagen: Inhalt, Dienste und Technik. Wir sind der Ansicht, dass diese Dimensionen transversal angegangen werden sollten, um eine integrierte und bessere Gesamtbewertung zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24511-4_20 40239d077e62b1367ea00c77adf8696e;de;;;7.3.;;;IP-basierte Konvergenz von Fest- und Mobilfunknetzen und Diensten im Lichte der Liberalisierung Die Entwicklung eines „offenen“ Kommunikationsuniversums weitet sich jetzt aus, um neue Kommunikationsdienste bereitzustellen, die sich durch fortschrittliche und allgegenwärtige Multimediafähigkeiten auszeichnen treiben Dienstanbieter und Telekommunikationsbetreiber dazu, IP in ihren Kernnetzen einzuführen, um die Verkehrsarten zu vereinheitlichen. Der in diesem Papier behandelte Sonderfall betrachtet ein komplexes, aber realistisches Szenario: die Konvergenz von Festnetz-/Mobilfunkanbietern und Internetdienstanbietern durch den Übergang zur IP-Technologie.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-40019-2_5 abfc5f1d765ea9c8b67767fea1588930;de;;;7.3.;;;Rolle der Offenheit in der Strategie von Anbietern von industriellen Internetplattformen Industrielles Internet, Industrie 4.0 und Cyber-Physical Systems (CPS) können zusammenfassend als industrielle Systeme definiert werden, die rechnerische und physikalische Fähigkeiten von Maschinen integrieren, um fortschrittliche Analysen bereitzustellen und mit Menschen zu interagieren. Industrielle Internetplattformen ermöglichen es den Industrieunternehmen, Daten, Informationen und Wissen innerhalb und zwischen Produktlebenszyklusphasen effektiv zu verwalten. Die Offenheit der industriellen Internetplattform spielt eine sehr wichtige Rolle bei der Entscheidungsfindung im Zusammenhang mit der Plattformauswahl für Industrieunternehmen. Dieses Papier konzentriert sich auf verschiedene Dimensionen von Offenheit und wie sie sich auf die Strategie von Plattformbesitzern oder -anbietern auswirkt und wie sich diese Strategie kurz- und langfristig auf ihre Endnutzer auswirkt. Um die oben genannten Punkte zu analysieren, wurden Kaa IoT und PTC ThingWorx analysiert, um die Auswirkungen von Offenheitsdimensionen auf ihre Strategie und ihr Geschäft zu verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-72905-3_9 66e1c0aa3e82663fb4777d4ab90827b9;de;;;7.3.;;;Auffinden von Phasen in der Webnavigation zur problemorientierten Navigationsunterstützung Benutzer von Websites wissen oft nicht genau, nach welchen Informationen sie suchen und was die Site zu bieten hat. Der Zweck ihrer Interaktion besteht nicht nur darin, ihre Informationsbedürfnisse zu befriedigen, sondern auch zu artikulieren. In diesen Fällen müssen Benutzer eine Reihe von Seiten durchlaufen, bevor sie die Informationen verwenden können, die schließlich ihre Fragen beantworten. Aktuelle navigationsunterstützende Systeme sagen aufgrund von Gemeinsamkeiten in den Inhalten oder der Nutzung der Seiten voraus, welche Seiten für die Nutzer interessant sind. Sie berücksichtigen nicht die Reihenfolge, in der die Seiten besucht werden müssen. In diesem Artikel schlagen wir eine Methode vor, um die Seiten einer Website auf der Grundlage von Benutzerlogs automatisch in Seitengruppen zu unterteilen, die den Navigationsstufen entsprechen. Die Methode sucht nach einer optimalen Anzahl von Stufen und ordnet jede Seite einer Stufe zu. Die Stufen können in Kombination mit den Themen der Seiten verwendet werden, um bessere Empfehlungen zu geben oder die Site zu strukturieren oder anzupassen. Die daraus resultierenden Navigationsstrukturen führen den Nutzer Schritt für Schritt durch die Seite und bieten Seiten, die nicht nur zum Thema der Nutzersuche, sondern auch zum aktuellen Stand des Navigationsprozesses passen.;-;-;-;https://link.springer.com/article/10.1007/s11257-006-9017-2 907b423d07450d9c2f756903f4421e2c;de;;;7.3.;;;Überprüfen von IP-Messgeräten anhand von Stichprobenmessungen Die Verkehrsmessung und -analyse ist heutzutage eine sehr kritische Aufgabe und erfordert eine komplexe und kostenintensive Ausrüstung und Infrastruktur für die Verkehrsanalyse. Die Schwierigkeit steigt, wenn Verbindungen mit hoher Bandbreite überwacht werden sollen. Die Netzwerktopologie, die verwendete Netzwerktechnologie, Anwendungen und das Benutzerverhalten beeinflussen den Gesamtverkehr im Netzwerk. Für die Netzwerkplanung und -bereitstellung ist es entscheidend, die Trends des Verkehrsverhaltens zu kennen, deshalb ist die Analyse der Protokollanwendung sehr nützlich. Die neuesten kostengünstigen Überwachungsplattformen für Hochgeschwindigkeitsverbindungen basieren auf Stichproben des gesamten Datenverkehrs. Die Zwecke der Messungen reichen von der Überwachung und Verkehrscharakterisierung bis hin zu Gebühren und Abrechnungen. Es ist ein Muss, die statistische Validität der Stichprobendaten und die daraus resultierenden detaillierten Ergebnisse zu kennen, die durch die Klassifizierung des Verkehrs in verschiedene Kategorien erhalten werden. Diese Tatsache ist umso wichtiger, wenn es zum Laden oder zur Kostenteilung verwendet werden soll. In diesem Papier schlagen wir einen Ansatz vor, um die statistische Erfassung unseres Systems zu validieren. Wir vergleichen vollständige Verkehrsmessungen, die den gesamten Verkehr enthalten, mit abgetasteten Verkehrsmessungen, um zu wissen, was die Schwelle eines abgetasteten Verkehrs ist, um den tatsächlichen Verkehr mit einem gewissen Grad an Sicherheit zu schätzen. Die Ergebnisse werden unter Verwendung des Datenverkehrs aus einer realen Netzwerkumgebung und des Vergleichs der Ergebnisse unserer Erfassungsplattform mit Ergebnissen aus dem echten Datenverkehr präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35497-2_3 3a010d947cc6cd5e1d7b8cbbe240ab58;de;;;7.3.;;;Unternehmens-Interoperabilität: Eine Standardisierungssicht Standards, die wesentlich dazu beitragen, die Interoperabilität von Unternehmen sowohl in Bezug auf intra- als auch organisationsübergreifende Umgebungen zu erreichen, werden identifiziert und überprüft. Der Begriff der Interoperabilität wird zunächst geklärt und im Vergleich zu einigen angrenzenden Begriffen wie Portabilität, Kompatibilität und Integration definiert. Anschließend wird ein kurzer Überblick über Standards in der Unternehmensmodellierung und -entwicklung gegeben, um deren Voraussetzung für die im Folgenden erörterten Standards mit direkterem Bezug zur Unternehmensinteroperabilität besser darzustellen. Im Rahmen der Schlussfolgerung wird der künftige Bedarf zur Verbesserung der Interoperabilität erörtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35621-1_28 6787ba47c032c5cc3067c5bbcb721f1d;de;;;7.3.;;;Verbesserung der Spracherkennung von Webseiten mit dem optimalen Profil Sprache ist ein unverzichtbares Werkzeug für die menschliche Kommunikation, und derzeit ist die Sprache, die das Internet dominiert, Englisch. Spracherkennung ist der Prozess der automatischen Bestimmung einer vorbestimmten Sprache aus einem gegebenen Inhalt (z. B. Englisch, Malaiisch, Dänisch, Estnisch, Tschechisch, Slowakisch usw.). Die Fähigkeit, andere Sprachen im Vergleich zum Englischen zu erkennen, ist sehr wünschenswert. Ziel dieser Forschung ist es, die Methode zu verbessern, mit der dieses Ziel erreicht wird. In dieser Forschung wurden drei Methoden untersucht, die Distanzmessung, die Boolesche Methode und die vorgeschlagene Methode, nämlich das optimale Profil. Aus den anfänglichen Experimenten haben wir herausgefunden, dass die Entfernungsmessung und das Boolesche Verfahren bei der Identifizierung europäischer Webseiten nicht zuverlässig sind. Daher schlagen wir das optimale Profil vor, das verwendet wird;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22191-0_14 4c9b4f680c502cbc7172bb3368525dc8;de;;;7.3.;;;Verwendung von SensLAB als erstklassiges wissenschaftliches Werkzeug für groß angelegte Experimente zu drahtlosen Sensornetzwerken Dieses Papier präsentiert eine Beschreibung von SensLAB (Very Large Scale Open Wireless Sensor Network Testbed), das entwickelt und eingesetzt wurde, um die Evaluierung durch Experimente von skalierbaren drahtlosen Sensornetzwerkprotokollen und -anwendungen zu ermöglichen. Das wichtigste und wichtigste Ziel von SensLAB ist es, ein genaues wissenschaftliches Open-Access-Tool für mehrere Benutzer anzubieten, um das Design, die Entwicklungsabstimmung und das Experimentieren von echten groß angelegten Sensornetzwerkanwendungen zu unterstützen. Das SensLAB-Testbed besteht aus 1024 Knoten an 4 Standorten. Jeder Standort beherbergt 256 Sensorknoten mit spezifischen Eigenschaften, um ein breites Spektrum an Möglichkeiten und Heterogenität zu bieten. Innerhalb eines Standorts kann jeder der 256 Knoten sowohl über seine Funkschnittstelle mit seinen Nachbarn kommunizieren als auch als Senkenknoten konfiguriert werden, um Daten mit anderen auszutauschen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20757-0_12 f0e47000bae9025f9f36d6005233703a;de;;;7.3.;;;Dynamische Navigation von Abfrageergebnissen basierend auf Hash-basierter Indizierung mit verbessertem Distance PageRank-Algorithmus World Wide Web, wie wir wissen, unbegrenzte Datenquelle, die eine Liste von Internet-Seiten und unendliche Links enthält. In den letzten zehn Jahren ist die Größe des Webs gewachsen, da jeden Tag Millionen von Webseiten zum Web hinzugefügt werden. Es ist also die wichtigste Informationsquelle und beliebteste Art der Kommunikation. Der Hauptzweck des Web Data Mining besteht darin, die Hyperlink-Struktur für die Internetseiten bereitzustellen. Von Benutzern eingegebene Abfragen auf den meisten Websites, z. B. Cloud Bigtable (;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7868-2_21 d3159b62fc5d1f9749fa9006231de229;de;;;3.4.;;;Qualitätswahrnehmung und die Verwendung von Qualitätsindikatoren: eine Umfrage zu Gesundheitsbibliotheken in der Trent Regional Health Authority, England Die Faktoren der Dienstleistungsnutzung zur Bewertung der Dienstleistungsqualität werden berücksichtigt. Es wird über die Ergebnisse einer Erhebung über die Erhebung und Verwendung von Daten zur Qualität in den Gesundheitsbibliotheken im geografischen Gebiet der Regionalen Gesundheitsbehörde Trent berichtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-0093-9_22 3eb7b191129d26bdb6b80c113acc50b7;de;;;3.4.;;;URL-basierte Klassifizierung von Webseiten: Mit n-Gram-Sprachmodellen Es gibt heutzutage Situationen, in denen es wichtig ist, eine Webseite nur anhand der Informationen des Uniform Resource Locator (URL) effizient und zuverlässig zu klassifizieren, ohne die Seite selbst besuchen zu müssen. Beispielsweise muss eine Social-Media-Website möglicherweise schnell Statusaktualisierungen identifizieren, die auf bösartige Websites verweisen, um sie zu blockieren. Die URL ist sehr prägnant und kann aus verketteten Wörtern bestehen, sodass die Klassifizierung nur mit diesen Informationen eine sehr schwierige Aufgabe ist. Für diese Aufgabe vorgeschlagene Methoden, beispielsweise der All-Grams-Ansatz, der alle möglichen Teilstrings als Merkmale extrahiert, bieten eine angemessene Genauigkeit, skalieren jedoch nicht gut für große Datensätze.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25840-9_2 b7956ced4a65984352b00ec10dba6ee4;de;;;7.3.;;;TOMA: Eine praktikable Lösung für den Support von Multicast-Diensten im großen Maßstab In diesem Papier schlagen wir eine zweischichtige Overlay-Multicast-Architektur (TOMA) vor, um skalierbare und effiziente Multicast-Unterstützung für verschiedene Gruppenkommunikationsanwendungen bereitzustellen. In TOMA wird Multicast Service Overlay Network (MSON) als Backbone-Dienstdomäne befürwortet, während Endbenutzer in den Zugangsdomänen eine Reihe kleiner Cluster bilden, in denen ein Multicast-Protokoll auf Anwendungsebene für die Kommunikation zwischen den geclusterten Endbenutzern verwendet wird . TOMA ist in der Lage, eine effiziente Ressourcennutzung mit weniger Kontrollaufwand zu bieten, insbesondere für groß angelegte Anwendungen. Es mildert auch das Zustandsskalierbarkeitsproblem und vereinfacht den Aufbau und die Wartung von Multicast-Baum, wenn eine große Anzahl von Gruppen in den Netzwerken vorhanden ist. Simulationsstudien werden durchgeführt und die Ergebnisse zeigen die vielversprechende Leistung von TOMA.;-;-;-;https://link.springer.com/chapter/10.1007/11422778_73 07d764f2c10c4a2753d0c095a6e5ea5c;de;;;7.3.;;;Eine neue Schnittstelle für einen Softwarekomplex zur Bereitstellung von Online-Diensten für VINITI DB-Benutzer Berücksichtigt werden Probleme, die mit der Erhöhung der Qualität einer Benutzeroberfläche verbunden sind. Die Autoren präsentieren die Ergebnisse der Entwicklung eines Software-Komplexes, der den VINITI DB-Benutzern bei der Arbeit mit großen Datenmengen und der Transformation des Systems in eine dreistufige Architektur zur Verfügung gestellt wird;-;-;-;https://link.springer.com/article/10.3103/S0147688212040090 ab318c53f99e3bc6bd8cf9830d244e28;de;;;7.3.;;;Dokumentversionierung unter Verwendung von Feature-Space-Abständen Die automatisierte Analyse von Dokumenten ist angesichts der rasant steigenden Verfügbarkeit digitaler Texte eine wichtige Aufgabe. In einer früheren Veröffentlichung hatten wir ein Framework vorgestellt, bei dem die Bearbeitungsabstände zwischen Dokumenten verwendet wurden, um den Versionsverlauf einer Reihe von Dokumenten zu rekonstruieren. Ein Problem, auf das wir stießen, war jedoch der hohe Rechenaufwand für die Berechnung dieser Bearbeitungsabstände. Außerdem skaliert die Anzahl der durchzuführenden Dokumentenvergleiche quadratisch mit der Anzahl der Dokumente. In diesem Papier schlagen wir eine einfache Näherung vor, die viele der Vorteile der Methode beibehält, aber die Zeit, die zum Berechnen dieser Bearbeitungsabstände erforderlich ist, stark reduziert. Um die Nützlichkeit dieser Methode zu testen, wird die Genauigkeit der mit dieser Näherung erhaltenen Ergebnisse mit den Originalergebnissen verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12640-1_59 ce26481b52c329f193f22158e6ab2e35;de;;;3.4.;;;Unterstützung beim kollaborativen Aufbau einer bahntechnischen Lösung während der Ausschreibung Da Systeme immer komplexer werden, sind komplexere Prozesse, Organisation und Arbeitsteilung erforderlich, um ihre Konzeption und Realisierung zu erreichen. Die wachsende Schwierigkeit besteht in der Anzahl und Verteilung der Mitarbeiter in unterschiedlichen Regionen auf der Erde, den vielfältigen Gemeinschaften, die koordiniert werden müssen, um die Integration und Kohärenz ihrer Arbeit zu gewährleisten. Dies gilt auch für die Entwicklung bahntechnischer Lösungen. Die Heterogenität des Kundenmarktes fügt eine zusätzliche Herausforderung hinzu: die Lösung an den Kundenhintergrund, den Kontext und die tatsächlichen Bedürfnisse anzupassen. In diesem Zusammenhang schlagen wir einen Arbeitsbereich vor, der die Zusammenarbeit beim Aufbau technischer Kundenlösungen unterstützt. Wir glauben, dass für jede Gemeinschaft eine angemessene Unterstützung der Zusammenarbeit bereitgestellt werden muss und dass ein gemeinsames Rückgrat zwischen diesen Gemeinschaften erforderlich ist, um die Integration und Kohärenz ihrer Arbeit zu gewährleisten. Dieses Papier enthält ein Modell und eine Implementierung eines dedizierten Arbeitsbereichs, der die Zusammenarbeit bei komplexen Prozessen wie dem Bau einer bahntechnischen Lösung handhaben kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35879-1_35 4c52b2f25d7f34f181ed38fc51d51ece;de;;;7.3.;;;Lokale Bibliothekare – Ansätze für die kontextbasierte Websuche In diesem Kapitel werden verschiedene Ansätze, Methoden und Werkzeuge vorgestellt, die der Autor entwickelt hat, um die Nutzung aktueller Websuchmaschinen und die Suche nach Textdokumenten auf mobilen Endgeräten zu verbessern. Diese Tools gelten als „lokale Bibliothekare“, da sie entweder ausschließlich auf dem lokalen Computer/Mobilgerät des Benutzers arbeiten oder lokal angezeigte Webinhalte verwenden, Zugriff auf bestimmte Benutzerdokumente haben (auf die der Benutzer den Tools Zugriff gewährt hat), die Benutzer bei der Interaktion mit ihnen und generieren Sie Abfrage- und Ergebnisvorschläge und -verfeinerungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-23136-1_5 4820e3f7c5f6f324ca9de01538b770d1;de;;;7.3.;;;Semantische Web-Technologien Das übergreifende Ziel des Semantic Web ist es, Computern zu ermöglichen, wertvollere Recherchen durchzuführen und Strukturen aufzubauen, die zuverlässige Verbindungen rund um das Netzwerk ermöglichen. Semantic Web-Anwendungen helfen Menschen dabei, Datenspeicher im Internet einzurichten, Vokabeln aufzubauen und Richtlinien zur Datenhandhabung zu verfassen. Unter Verwendung der Details von Metadaten stellt das semantische Web effizient wieder her, nach dem der Benutzer der Webseite sucht. Die Autoren haben Semantic Web, seine Entwicklung und Technologien in Kürze in dieser Arbeit vorgestellt. Provenienz ist das wichtigste Merkmal für die Vertrauenswürdigkeit des Semantic Web. Diese Funktion wird mit Hilfe des Provenance-Datenmodells fokussiert. Die Autoren diskutierten semantische Web-Implementierungen wie Semantic Web Desktop, Geospatial Semantic Web usw. und ihre Anwendungen in verschiedenen Bereichen wie Landwirtschaft, Gesundheitswesen und IoT.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-64619-6_2 4094869f2ebe06832bf866bd243bd14f;de;;;3.4.;;;Entwicklung digitaler Lernressourcen für den Hochschulmarkt in China Dieser Beitrag gibt eine kurze Einführung in die chinesische Hochschulbildung und die aktuelle Situation der Entwicklung digitaler Lernressourcen in China. Der Autor analysiert aus Sicht eines Bildungsverlages die bestehenden Probleme im Markt digitaler Lernressourcen. Basierend auf der Praxis von Higher Education Press stellt das Papier aktuelle Forschungsarbeiten zu Standards, Entwicklungsmodus, digitaler Lernumgebung, Mechanismen zur gemeinsamen Nutzung von Ressourcen und anderen verwandten Faktoren vor.;-;-;-;https://link.springer.com/article/10.1007/s12109-011-9234-3 b9a8be99e9737daad3a72c43b32b91b1;de;;;7.3.;;;Websuche: Herausforderungen und Wegbeschreibungen Es sind spannende Zeiten für den Bereich Websuche. Suchmaschinen werden täglich von Millionen von Menschen genutzt, und ihre Zahl wächst rasant. Dieses Wachstum stellt Suchmaschinen vor einzigartige Herausforderungen: Sie müssen in beispiellosem Umfang agieren und gleichzeitig eine unglaubliche Vielfalt an Informationsbedürfnissen befriedigen. Darüber hinaus haben sich die Erwartungen der Benutzer erheblich erweitert und sich von „Gib mir, was ich gesagt habe“ zu „Gib mir, was ich will“ bewegt. Schließlich sind wir mit der Verlockung von Milliarden von Dollar, die von Suchmaschinen gesteuert werden, in eine neue Welt des „Adversarial Information Retrieval“ eingetreten. Dieser Vortrag zeigt, dass die Welt des Algorithmus- und Systemdesigns für kommerzielle Suchmaschinen durch zwei von Murphys Gesetzen beschrieben werden kann: a) Wenn etwas schief gehen kann, wird es und b) Selbst wenn nichts schief gehen kann, wird es trotzdem.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78646-7_2 fd86cb0e43a1eb7fe9402ee9f0f9f56a;de;;;7.3.;;;Zu den verfügbaren Informationsquellen zu den Bibliotheken von A.P. Volynskii und seinen Anhängern: Informationen zu den Bibliotheken und deren Eintritt in die Bibliothek der Akademie der Wissenschaften Dieser Artikel beschreibt Informationen über die Bibliotheken von A.P. Volynskii und seinen Anhängern, die aus interaktiven Quellen und einigen gedruckten Publikationen gewonnen wurden. Es zeigt die Diskrepanz zwischen den Daten aus der Chronik des LAS und anderen Informationsquellen sowie zwischen verschiedenen gedruckten und elektronischen Quellen. Websites, elektronische Kopien von Büchern von S.A. Belokurov, D.A. Korsakov und V. S. Ikonnikov, der vierte Band von;-;-;-;https://link.springer.com/article/10.3103/S0147688212030100 16c49151198fe7b53f9aeff8b81a7d70;de;;;3.4.;;;Eine mit einem multivariaten Logit-Modell durchgeführte Warenkorbanalyse Die folgende Untersuchung geht von der Hypothese aus, dass Produkte, die bei einem Einkaufsbummel in einem Supermarkt ausgewählt wurden, auf Präferenzwechselwirkungen zwischen verschiedenen Produkten oder Marken hinweisen können. Das auf der Reise gewählte Bündel kann als Ergebnis einer globalen Nutzenfunktion angesehen werden. Genauer gesagt: Die Existenz einer solchen Funktion impliziert eine kategorieübergreifende Abhängigkeit des Markenwahlverhaltens. Es wird die Hypothese aufgestellt, dass sich die globale Nutzenfunktion bezogen auf ein Produktbündel aus dem Marketing-Mix der zugrunde liegenden Marken ergibt. Es gibt mehrere Ansätze, um die Auswahl bestimmter Kategorien aus einer Reihe von vielen Alternativen zu beschreiben. Die Modelle werden kurz besprochen, der multivariate Logit-Ansatz wird verwendet, um ein Modell mit einem deutschen Datensatz zu schätzen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-31314-1_68 f86af5230740a5b2ab627d455637110d;de;;;7.3.;;;Interdomain-Traffic-Engineering-Techniken zur Überwindung unerwünschter Konnektivitätsvorfälle Die Bedeutung der Internetverfügbarkeit wird durch die überwältigende Abhängigkeit von Regierungsdiensten und Finanzinstituten von dieser Verfügbarkeit unterstützt. Leider ist das Internet mit unterschiedlichen Ausmaßen von unerwünschten Konnektivitätsvorfällen konfrontiert. Daher ist es zwingend erforderlich, ernsthafte Maßnahmen zu ergreifen, um die Widerstandsfähigkeit der Internetverbindung zu erhöhen. Wir betrachten ein Szenario, in dem eine betroffene Region mit einem unerwünschten Konnektivitätsvorfall durch ihren primären Internetdienstanbieter (ISP) konfrontiert ist, der immer noch die Erreichbarkeit der betroffenen Region ankündigt. Unter der Annahme, dass Konnektivität zu einem sekundären ISP verfügbar ist, ist die Software so konzipiert, dass sie verschiedene Techniken zur Verkehrstechnik implementiert, um die Widerstandsfähigkeit der Internetkonnektivität zu verbessern und den Verkehr über den sekundären ISP zu senden. Die Arbeit zeichnet sich durch die Umsetzung dieser verkehrstechnischen Techniken im Labor durch eine detaillierte Versuchsreihe aus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44917-2_66 e8d220478224a13a64b349d68ae2fc1e;de;;;7.3.;;;Modell der Suche und Analyse heterogener Benutzerdaten zur Verbesserung der Funktionsweise von Webprojekten Diese Studie beschäftigt sich mit dem eigentlichen Problem der modernen Wissenschaft, das mit dem Management von Webservices verbunden ist, nämlich der Betriebsführung von Webprojekten. Die Autoren entwickelten ein Modell zur Suche und Analyse heterogener Nutzerdaten, um die Funktionsweise von Webprojekten zu verbessern. In der Arbeit werden Methoden zur Erkennung und Analyse heterogener Daten in Webprojektumgebungen modelliert. In diesem Artikel wurde der Inhalt einer Reihe von Webprojektplattformen analysiert. Die Autoren haben einen allgemeinen Algorithmus zur Datensuche in einer Webprojektumgebung und einen Algorithmus zur Suche nach heterogenen Daten entwickelt. Die gesammelten Daten aus verschiedenen Quellen wurden gefiltert und zu einer einzigen Informationsressource konsolidiert, auf die die entwickelten Datensuchsysteme Zugriff haben. Die vorgeschlagenen Methoden haben die Prozesse zur Überwachung der Mitarbeiter von Unternehmen verbessert und vereinfacht. Die praktische Umsetzung erfolgte bei beliebten Webprojekten auf Facebook, Instagram, Youtube, TikTok, Pinterest und LinkedIn.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-80472-5_6 bea4fb8dbe6ab49793acb1226683e996;de;;;7.3.;;;Educational Multimedia in a Network Centric Society: Anforderungen, Enabler und negative Aspekte Der Zweck des Papiers besteht darin, die Grundvoraussetzungen für ein netzwerkzentriertes Lernen und Lernen zu identifizieren und die technologischen Entwicklungen zu diskutieren, die die Anwendung von Bildungs-Multimedia über das Netzwerk ermöglichen. Einige dieser Anwendungen werden ebenso betrachtet wie die Probleme („Balkanisierung“ , Ungleichheit und wirtschaftliche Kosten) im Zusammenhang mit den positiven und negativen Auswirkungen der netzzentrierten Gesellschaft.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35393-7_10 c4f1b7debe088477dacf9b5bc3adb2ee;de;;;7.3.;;;Ein sicherer Online-Bestellservice Der elektronische Bestellservice (e-Ordering) als e-Business-Prozess ermöglicht die echte sichere Zusammenarbeit zwischen Unternehmen, indem er Verkäufern und Einkäufern die Möglichkeit gibt, vertrauensvolle Prozesse des elektronischen Handels durchzuführen, die neue Märkte eröffnen. Der W3C-Arbeitsentwurf „Web Service Architecture (WSA) Requirements“ und eine Reihe von EU-Richtlinien stellen mehrere Sicherheits- und Datenschutzanforderungen, die die e-Ordering-Implementierungen erfüllen müssen, um eine sichere Transaktion zu erzielen. Dieses Dokument stellt eine Reihe dieser Anforderungen vor und beschreibt ein E-Ordering-System (TOES), das sie basierend auf Extensible Markup Language (XML), XML Cryptography, Public Key Infrastructure (PKI), Web Services Policy Language (WSPL) und Web Services adressiert . Der vorgeschlagene E-Ordering-Service TOES ist offen, sicher, interoperabel und unter Einhaltung der EU-Gesetzgebung erschwinglich.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-39229-5_29 0b313244269a6f49ba89e9450814055c;de;;;7.3.;;;Netzwerk-DDoS Layer 3/4/7 Mitigation über dynamische Web-Umleitung Layer 3, 4 und 7 DDoS-Angriffe sind weit verbreitet und sehr schwer abzuwehren. Die akademische Gemeinschaft hat Hunderte von gut durchdachten Algorithmen veröffentlicht, die Änderungen in der Computernetzwerkausrüstung erfordern, um diese Angriffe besser erkennen und abwehren zu können. Das Problem bei diesen Lösungen besteht darin, dass sie von den Herstellern von Computernetzwerken verlangen, Änderungen an ihrer Hardware und/oder Software vorzunehmen. Andererseits sind bei unserer Lösung absolut keine Hardware- oder Softwareänderungen erforderlich. Wir benötigen lediglich den Einsatz von BGP4 Flow-Spec, das bereits vor vielen Jahren weit verbreitet ist. Darüber hinaus benötigt der kundeneigene ISP keine Flow-Spec. Unser Algorithmus schützt Gruppen von über 65.000 verschiedenen Kunden durch die Aggregation zu einer sehr kleinen Flow-Spec-Regel. In diesem Whitepaper schlagen wir unsere neuartige, kostengünstige und effiziente Lösung vor, um alle Arten von L347-DDoS-Webangriffen zu erkennen und stark abzuschwächen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48021-3_8 701195e6956ead1e8d81788f099830ec;de;;;7.3.;;;Duplikaterkennung von Webdokumenten mit Fuzzy-Hashing Das Web ist das größte verfügbare Repository für Dokumente und zum Abrufen für verschiedene Zwecke müssen wir Crawler verwenden, um autonom zu navigieren, Dokumente auszuwählen und sie entsprechend den verfolgten Zielen zu verarbeiten. Wir können jedoch sogar intuitiv erkennen, dass mehr oder weniger häufige Replikationen einer erheblichen Anzahl von Dokumenten erhalten werden. Die Erkennung dieser Duplikate ist wichtig, da sie es ermöglicht, Datenbanken zu vereinfachen und die Effizienz von Information Retrieval Engines zu verbessern, aber auch die Präzision von cybermetrischen Analysen, Web-Mining-Studien usw. zu verbessern. Hash-Standardtechniken, die zum Erkennen dieser Duplikate verwendet werden, erkennen nur exakte Duplikate. auf Bitebene. Viele der in der realen Welt gefundenen Duplikate sind jedoch nicht genau gleich. Zum Beispiel können wir Webseiten mit dem gleichen Inhalt, aber mit unterschiedlichen Headern oder Meta-Tags finden oder mit unterschiedlichen Stylesheets angezeigt werden. Ein häufiger Fall ist der gleiche Dokument, aber in verschiedenen Formaten, in diesen Fällen haben wir völlig unterschiedliche Dokumente auf binärer Ebene. Die naheliegende Lösung besteht darin, die reinen Textkonvertierungen all dieser Formate zu vergleichen, aber diese Konvertierungen sind aufgrund der unterschiedlichen Behandlung der Konverter bei verschiedenen Formatierungselementen (Behandlung von Textzeichen, diakritischen Zeichen, Leerzeichen, Absätzen ...) nie identisch. In dieser Arbeit stellen wir die Möglichkeit vor, sogenanntes Fuzzy-Hashing zu verwenden. Die Idee ist, Fingerabdrücke von Dateien (oder Dokumenten usw.) zu erstellen. Auf diese Weise könnte uns ein Vergleich zwischen zwei Fingerabdrücken eine Einschätzung der Nähe oder Entfernung zwischen zwei Dateien, Dokumenten usw. geben. Basierend auf dem Konzept des „Rolling Hash“ wurde das Fuzzy-Hashing erfolgreich bei Computersicherheitsaufgaben eingesetzt, wie z Identifizierung von Malware, Spam, Virenscan usw. Wir haben einen kleinen Crawler mit Fuzzy-Hashing-Funktionen ausgestattet und mehrere Tests in einer heterogenen Netzwerkdomäne durchgeführt, die aus mehreren Servern mit unterschiedlicher Software, statischen und dynamischen Seiten usw. besteht. Diese Tests ermöglichte es uns, Ähnlichkeitsschwellen zu messen und nützliche Daten über die Menge und Verteilung von doppelten Dokumenten auf Webservern zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19931-8_15 2fdd92a69911607cb1d4cbcd6a1b9b5f;de;;;7.3.;;;Verwendung von Personalisierungstechnologien für politische Zwecke: Auswirkungen auf die Privatsphäre In letzter Zeit hat sich eine wachsende Literaturmenge auf die Einführung von Personalisierungsmethoden und -werkzeugen konzentriert, die traditionell im E-Commerce, im Bereich des politischen Marketings und der Kommunikation verwendet werden. Die Auswirkungen der Einführung von Personalisierungsanwendungen für politische Zwecke wurden jedoch noch nicht untersucht. Dieses Papier trägt dazu bei, diese Lücke zu schließen, indem es Bedrohungen für die Privatsphäre analysiert, die sich aus der Verwendung von Personalisierungstools für politische Zwecke ergeben, und deren Auswirkungen auf den Einzelnen und die Gesellschaft identifiziert. Dieses Papier identifiziert auch Themen, die weiterer Forschung bedürfen, da Big Data, individuelles Targeting, die Entwicklung von Verhaltenswissenschaften und ausgeklügelte Personalisierungstechniken die politische Kommunikation neu gestalten und neue Datenschutzrisiken darstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-71117-1_3 c80fcef305777fb40939be986270494d;de;;;7.3.;;;Suchen und Extrahieren von Datensätzen aus Webseiten Viele HTML-Seiten werden von Softwareprogrammen generiert, indem einige zugrunde liegende Datenbanken abgefragt und dann eine Vorlage mit den Daten ausgefüllt wird. In diesen Situationen gehen die Metainformationen über die Datenstruktur verloren, sodass automatisierte Softwareprogramme diese Daten nicht so leistungsfähig verarbeiten können wie Informationen aus Datenbanken. Wir schlagen eine Reihe neuartiger Techniken vor, um strukturierte Datensätze in einer Webseite zu erkennen und die Datenwerte zu extrahieren, aus denen sie bestehen. Unsere Methode benötigt nur eine Eingabeseite. Es beginnt mit der Identifizierung des interessierenden Datenbereichs auf der Seite. Dann wird es in Datensätze partitioniert, indem eine Clustering-Methode verwendet wird, die ähnliche Unterbäume im DOM-Baum der Seite gruppiert. Schließlich werden die Attribute der Datensätze extrahiert, indem ein Verfahren verwendet wird, das auf einem multiplen String-Alignment basiert. Wir haben unsere Techniken mit einer großen Anzahl von echten Webquellen getestet und dabei hohe Präzisions- und Erinnerungswerte erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77092-3_41 94c32ede4fbd3ee3e5b8939a313b06d1;de;;;7.3.;;;Eine videobasierte biometrische Authentifizierung für E-Learning-Webanwendungen In den letzten Jahren gab es ein exponentielles Wachstum beim Angebot von webfähigen Fernkursen und bei der Zahl der Einschreibungen in Unternehmen und Hochschulen mit dieser Modalität. Als schwerwiegender Mangel wurde jedoch das Fehlen effizienter Mechanismen zur Sicherstellung der Benutzerauthentifizierung in einer solchen Umgebung, sowohl bei der Systemanmeldung als auch während der gesamten Sitzung, herausgestellt. Einige Studien wurden über mögliche biometrische Anwendungen für die Web-Authentifizierung durchgeführt. Die kennwortbasierte Authentifizierung herrscht jedoch weiterhin vor. Mit der Popularisierung von biometriefähigen Geräten und dem daraus resultierenden Preisverfall für die Erfassung biometrischer Merkmale wird Biometrie als sicheres Remote-Authentifizierungsformular für Webanwendungen neu betrachtet. In dieser Arbeit wird die Genauigkeit der Gesichtserkennung untersucht, die online von einer Webcam in einer Internetumgebung erfasst wird, wobei die natürliche Interaktion einer Person im Kontext einer Fernkursumgebung simuliert wird. Teilergebnisse zeigen, dass diese Technik erfolgreich angewendet werden kann, um die Anwesenheit von Benutzern während des gesamten Kursbesuchs in einem Fernlehrgang zu bestätigen. Eine effiziente Client/Server-Architektur wird ebenfalls vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01347-8_64 fbb8ff24bc107f0dd89528c3c6998cc2;de;;;3.4.;;;Ein Beispiel für die gemeinsame Nutzung von Online-Ressourcen in Buchhaltungskursen Für die Blended-Learning-Kurse wurden heutzutage viele E-Learning-Materialien entwickelt, bei denen die Merkmale der Zugänglichkeit und Wiederverwendbarkeit berücksichtigt werden sollten. In diesem Papier untersuchen wir die Verwendung von Online-Lernressourcen aus unserem Teilzeit-Buchhaltungskurs in einem Vollzeit-Buchhaltungskurs. Es wurde eine Umfrage durchgeführt, um die Wahrnehmung der Schüler zu den gemeinsam genutzten Online-Lernressourcen zu untersuchen. Darüber hinaus vergleicht dieser Beitrag unsere früheren Umfrageergebnisse, die von den berufsbegleitenden Studierenden der Buchhaltung gesammelt wurden, mit den aktuellen Umfrageergebnissen und diskutiert die Unterschiede in der Wahrnehmung der Studierenden gegenüber den gemeinsam genutzten Online-Ressourcen. Schließlich diskutieren wir die Grenzen und Vorschläge des Teilens von Online-Lernressourcen basierend auf den Vergleichsergebnissen. Das Papier unterstreicht die Bedeutung und das Bewusstsein des Teilens von Online-Ressourcen für Blended-Learning-Kurse in angemessener Weise, indem das Konzept des Wissensmanagements und der Unterrichtsgestaltung übernommen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45272-7_18 9172f7bdc4d942a67fff8ea8bac054e8;de;;;7.3.;;;Richtlinienbasierte Zugriffskontrolle für Körpersensornetzwerke Sensorknoten und Aktoren werden allgegenwärtig und die Forschungsbemühungen konzentrieren sich darauf, die verschiedenen Probleme anzugehen, die sich aus Ressourcenbeschränkungen und anderen intrinsischen Eigenschaften ergeben, die typischerweise mit solchen Geräten und ihren Anwendungen verbunden sind. Bei Wearable Nodes und insbesondere im Kontext von E-Health-Anwendungen werden die Sicherheitsprobleme durch die direkte Interaktion mit dem menschlichen Körper und die damit verbundenen Sicherheits- und Datenschutzbedenken verschärft. Diese Arbeit präsentiert ein richtlinienbasiertes, einheitliches, plattformübergreifendes und flexibles Rahmenwerk für die Zugriffskontrolle. Es verwendet einen Webservice-kompatiblen Ansatz, um eine sichere und autorisierte feingranulare Zugriffskontrolle auf Körpersensornetzwerkressourcen und -dienste zu ermöglichen. Das vorgeschlagene Schema berücksichtigt insbesondere die sehr begrenzten Ressourcen sogenannter Nanoknoten, die voraussichtlich in einer solchen Umgebung verwendet werden. Eine Proof-of-Concept-Implementierung wird entwickelt und eine vorläufige Leistungsbewertung wird präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-43826-8_11 1958b33861f468156d83f4e4cff59bd9;de;;;7.3.;;;Mobile Banking und Verbraucherverhalten: Neue Erkenntnisse zum Verbreitungsmuster Der technologische Fortschritt hat die Anbieter von Finanzdienstleistungen herausgefordert, die Art des Verkaufs und Kaufs von Finanzdienstleistungen hat sich verändert. Mobile Geräte gehören zu den neuesten Kanälen, um Bankgeschäfte elektronisch abzuwickeln. Dieses Papier konzentriert sich auf die Untersuchung der Verbreitung und der Nutzer von Mobile Banking-Diensten. Frühere Forschungen haben die typischen Merkmale eines potenziellen Nutzers im Zeitalter elektronischer Dienste identifiziert, dieser Artikel untersucht einige widersprüchliche empirische Ergebnisse aus einer Mobile-Banking-Umfrage. Die Ergebnisse geben Aufschluss über die Eigenschaften potenzieller späterer Nutzer von Mobile Banking und auf Unterschiede zwischen den Nutzersegmenten. Folglich können die Autoren den Einfluss bestimmter demografischer Merkmale und des bevorzugten Kommunikationsmodus der Kunden auf die Akzeptanz und zukünftige Nutzung von Mobile Banking-Diensten kommentieren. Die quantitative Erhebung, die mehr Licht auf dieses untersuchte Thema wirft, verwendet eine traditionelle Methode der postalischen Befragung. Die Daten wurden von Mai bis Juli 2002 in Finnland erhoben und umfassen 1.253 Umfrageantworten.;-;-;-;https://link.springer.com/article/10.1057/palgrave.fsm.4770132 b14d33689c27bd232ad72b558666045e;de;;;7.3.;;;Webservices-basiertes kollaboratives System für verteiltes Engineering Das Design komplexer elektronischer Systeme erfordert oft die Zusammenarbeit von Ingenieuren, die an entfernten Standorten arbeiten. Diese durch das Netzwerk ermöglichte Zusammenarbeit muss durch eine nahtlose und sichere Integration verteilter Designtools unterstützt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-84837-2_48 13a9e27080632fa235a875eb0b40a8ad;de;;;3.4.;;;Custom Publishing in Großbritannien: Aufstieg eines stillen Riesen Dieser Beitrag untersucht und porträtiert die Produktionsseite des Bereichs Custom Publishing mit einem Schwerpunkt auf Großbritannien, insbesondere Greater London. Trotz seiner Verbreitung hat Custom Publishing nicht die gleiche Aufmerksamkeit von Medienwissenschaftlern erhalten, was sich in den manchmal unangemessenen und sogar verwirrenden Terminologien widerspiegelt. Daher zielt dieses Papier darauf ab, Definitionen anzubieten, die den Custom-Publishing-Branche charakterisieren, während gleichzeitig die Schwächen und Mehrdeutigkeiten in den aktuellen Definitionen in der Marketing- und Kommunikationsliteratur bewertet werden. Während sich aus der Studie eine Reihe von Themen ergeben, liegt der Schwerpunkt auf der Verortung der Branche im breiteren Feld der Kulturproduktion. Basierend auf der Feldtheorie des Soziologen Pierre Bourdieu untersucht die Studie die;-;-;-;https://link.springer.com/article/10.1007/s12109-013-9310-y 7192345f2135763eb273b388bd87c45b;de;;;7.3.;;;Semantische Webdienste für verteilte Intelligenz Dieses Kapitel stellt eine semantische Webservice-Plattform vor, die bereit ist, intelligente Verarbeitungsfunktionen gemäß einer offenen Systemarchitektur für die zustandsbasierte Instandhaltungsarchitektur (OSA-CBM) zu integrieren. Diese Plattform ist Teil einer flexiblen Kommunikationsinfrastruktur mit dem Spitznamen DynaWeb, in der auch ein generisches drahtloses Gerät zwischen neuartigen Sensoren, intelligenten PDAs und bestehenden Wartungssystemen von Unternehmen entwickelt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84996-205-6_11 e6db06aa0062413720cc98afeecc19ad;de;;;7.3.;;;Internetbasierte Kanalausrichtung für domestizierte Dienstleistungsunternehmen: Einige Treiber und Konsequenzen Es ist unbestreitbar, dass mehrere Studien sowohl über die Vorgeschichte als auch über die Folgen der Einführung einer internetbasierten Kanalorientierung in die Geschäftstätigkeit kleiner oder mikrodomestizierter Unternehmen berichtet haben. Im Entwicklungs- und genauer im afrikanischen Kontext sind solche Studien jedoch eher spärlich. Um diese jahrelange theoretische und praktische Lücke zu schließen, lässt sich diese Studie von den theoretischen Grundlagen sowohl der mikroinstitutionellen Sichtweise des Unternehmens als auch des ressourcenstrategischen Handelns inspirieren. Fortan ergänzt diese Studie die vorhandene Literatur zur Internetorientierung und trägt zur anhaltenden Debatte bei, warum die Internetkanalorientierung als Brennpunkt und Überlebensmotor kleiner und mittlerer Unternehmen gilt. Vor diesem Hintergrund schlägt diese Studie vor, dass die unternehmerische Fähigkeit des Unternehmens und der Branchenwettbewerb die internetbasierte Kanalorientierung (IORIENT) des Unternehmens vorhersagen. Darüber hinaus testet die Studie die Annahme, dass der Einsatz von IORIENT nicht nur potenziell zu einer höheren Marktwahrnehmung beiträgt, sondern indirekt auch zur Wettbewerbsfähigkeit von Unternehmen führen kann. Befragungsdaten von 198 Firmen bieten erste Unterstützung für die Forschungsaussagen. Insgesamt ermutigt die Forschungsstudie Unternehmen, nicht nur in Internet-Marketing-Tools zu investieren, sondern diese auch effektiv einzusetzen, da dies für ihre langfristige Wettbewerbsfähigkeit entscheidend ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20671-0_7 7f3a01d28919da70057826c412e5932f;de;;;7.3.;;;Daten zur Aufbewahrung Vorgeschlagene EU-Vorschriften zur Vorratsdatenspeicherung könnten von jedem Anbieter verlangen, Buchführungsprotokolle über die Internetnutzung seiner Kunden zu führen. Obwohl die technischen Konsequenzen dieser Anforderungen von Beratungsunternehmen untersucht wurden, untersucht dieser Beitrag, was diese Buchhaltungsdaten sein könnten, wie sie gewonnen werden können und wie viel Datenspeicher benötigt werden. Diese Untersuchung zeigt, dass jedes Gigabyte Netzwerkverkehr bei Anwendung unserer Verfeinerungen bestehender Methoden zur Speicherung von Abrechnungsdaten zu etwa 400 Kilobyte an Abrechnungsdaten führt – um den Faktor zwanzig weniger als bisher angenommen.;-;-;-;https://link.springer.com/chapter/10.1007/11568285_6 9e68136f56a3dd8a916eaa953ff8fbde;de;;;7.3.;;;Ein Erkennungs- und Filtersystem für den Einsatz gegen groß angelegte DDoS-Angriffe im Internet-Backbone Distributed Denial of Service (DDoS) Angriffe im Internet stellen die heutige Kommunikationsinfrastruktur vor große Probleme. Angriffe zerstören entweder Informationen oder behindern den Zugang zu einem Dienst. Da die Bedeutung des Internets für Wirtschaft und Wirtschaft rasant wächst, sind effiziente Schutzmechanismen dringend erforderlich, um Hosts vor Infektionen und vor allem Sites vor Angriffen zu schützen. Die Erkennung von DDoS-Angriffen erfordert eine eingehende Paketprüfung bei Verbindungsgeschwindigkeit und eine kontextabhängige Paketbehandlung für Gegenmaßnahmen. Diese Funktionalität ist mit heutigen kommerziellen Hochleistungsroutern nicht erreichbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71500-9_13 c50ecbac2574eaf61d15558e924b6944;de;;;7.3.;;;Multimodales Web-Content-Mining zum Filtern von nicht-lernenden Sites mit NLP Das Internet ist heute ein schnell wachsendes Feld und hat sich zu einer der großen Datenquellen entwickelt. Das Internet spielt im Bildungsbereich eine wichtige Rolle. Jeder Schüler nutzt E-Learning-Technologie über das Internet, um sein Wissen zu erweitern. Web-Mining ist eine der Data-Mining-Branchen, die Benutzern hilft, relevante Daten aus dem Web zu filtern und zu extrahieren und das Auftreffen auf irritierende Websites zu vermeiden. In diesem Artikel haben wir einen Algorithmus für ein Filterwerkzeug vorgeschlagen, der alle nicht lernenden Websites erkennen und blockieren kann, indem er die mehreren Muster wie Text, Video und Bilder der Webseiten durch Web-Content-Mining abgleicht. Das HTML-Dokument der Webseite wird mit Natural Language Processing (NLP) und Word Sense Disambiguation (WSD) verarbeitet, um den Webinhalt von Lernseiten zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-24643-3_3 7ad6517611cf9d1690dabfc8720e1f4c;de;;;7.3.;;;Ontologiebibliotheken für den produktiven Einsatz: Der finnische Ontologiebibliotheksdienst ONKI In diesem Papier werden Probleme bei der Erstellung und Verwendung von Ontologiebibliotheksdiensten im Produktionseinsatz erörtert. Ein Lösungsansatz wird mit einer Online-Implementierung – dem finnischen Ontologiebibliotheksdienst ONKI – vorgestellt, der in Finnland auf nationaler Ebene im Piloteinsatz ist. ONKI trägt in vielerlei Hinsicht zur bisherigen Forschung zu Ontologiebibliotheken bei: Zum einen wird Mashup- und Webservice-Unterstützung mit verschiedenen Werkzeugen zur kosteneffizienten Nutzung von Ontologien in Indizierungs- und Suchanwendungen bereitgestellt. Zweitens werden Dienste bereitgestellt, die die verschiedenen Phasen des Ontologielebenszyklus abdecken. Drittens werden die Dienste in realen Anwendungen auf nationaler Ebene bereitgestellt und verwendet. Viertens wird das Ontologie-Framework durch eine gemeinsame Anstrengung von Organisationen entwickelt, die verschiedene Anwendungsdomänen wie Gesundheit, Kultur und Wirtschaft repräsentieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02121-3_57 018fcdf67fd7b13da77602655974da49;de;;;7.3.;;;Framework zur Realisierung von Green Smart Cities durch das Internet der Dinge (IoT) Die Idee hinter Smart City, die Herausforderungen, mit denen jede Stadt konfrontiert ist, zu verknappen, wie z eine bessere wirtschaftliche Chance und bieten auch Sozialleistungen auf Anfrage. Die Informations- und Kommunikationstechnologie ist ein neuer Fortschritt, der die kosteneffiziente Technologie klassifiziert und sich auf eine erkennbare und nachhaltige Umgebung und die Anwendung „intelligenter“ Lösungen konzentriert helfen, die klaren Aspekte von Smart Living in einem urbanen Raum herauszufinden, die tatsächlich mehrere Konzepte wie virtuelle Stadt, kabelgebundene oder drahtlose Stadt, intelligente Stadt (IC), digitale und informationelle Stadt usw. miteinander verbinden. Dieses Kapitel stellt einen Rahmen für die Realisierung grüner intelligenter Städte durch das Internet der Dinge vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-40037-8_6 0a3b3a621fff8c0fac84774391558d2f;de;;;7.3.;;;Bewertung der Wahrhaftigkeit von Modifikatoren, die an Web-Entitätsnamen angehängt sind Um Online-Werbung oder nutzergenerierte Inhalte attraktiver zu gestalten, werden häufig Modifikatoren wie „authentisch“, „eindrucksvoll“, „besonders“ usw. verwendet. Einige davon sind Übertreibungen. Das heißt, manchmal stellen Modifikatoren, die an Webentitäten angehängt sind, den Inhalt nicht richtig dar. In diesem Papier haben wir eine Methode vorgeschlagen, um den Wahrheitsgehalt von Modifikatoren zu bewerten, die an Namen von Web-Entitäten angehängt sind, indem relevante und widersprüchliche Begriffe aus den Inhaltstexten extrahiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14246-8_42 c1e1e6f896b58a87c96e95c10f45788b;de;;;3.4.;;;Der Königlich Niederländische Verlegerverband Die Struktur des Königlich Niederländischen Verlegerverbandes wird beschrieben und seine Aktivitäten werden detailliert beschrieben. Dazu gehören die Förderung des Lesens, des Buchkaufs und die Interessen der Verlagsbranche. Der Schutz des Urheberrechts ist ein wesentlicher Bestandteil dieser Aktivitäten.;-;-;-;https://link.springer.com/article/10.1007/BF02677988 c7d96750329454420fa154f4aab9e768;de;;;7.3.;;;Ein Algorithmus zur Verwendung von Feedback zu angezeigten Dokumenten zur Verbesserung der Webabfrage Dieses Papier stellt einen Algorithmus vor, um eine Websuchabfrage basierend auf dem Feedback zu den angezeigten Dokumenten zu verbessern. Ein Benutzer, der im Web nach Informationen sucht, markiert die abgerufenen (gesehenen) Dokumente als relevant oder irrelevant, um die in der ursprünglichen Abfrage ausgedrückten Informationsbedürfnisse weiter aufzudecken. Aus diesen Textdokumenten wird eine neue Websuchabfrage synthetisiert, die diesem verbesserten Verständnis der Informationsbedürfnisse des Benutzers entspricht. Die Methodik bietet eine Möglichkeit zum Erstellen von Websuchabfragen, die dem Informationsbedarf des Benutzers entsprechen, selbst wenn der Benutzer aufgrund mangelnder Erfahrung im Abfragedesign oder mangelnder Vertrautheit mit der Suchdomäne Schwierigkeiten haben könnte, dies direkt zu tun. Eine Nutzerbefragung hat gezeigt, dass die algorithmisch gebildete Abfrage bessere Wiedererkennungs- und Präzisionsmerkmale aufweist als die erfahrenen menschlichen Websucher.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74063-6_14 67aae114e2880061901627897ade37a7;de;;;7.3.;;;Eine allgemeine Architektur zum Verbinden von NLP-Frameworks und Desktop-Clients mithilfe von Webdiensten Trotz beeindruckender Fortschritte bei der Entwicklung von generischen NLP-Frameworks, inhaltsspezifischen Text-Mining-Algorithmen und NLP-Diensten wurden nur wenige Fortschritte bei der Verbesserung bestehender Endbenutzer-Clients mit Textanalysefunktionen erzielt. Um diese Lücke im Software-Engineering zwischen Desktop-Umgebungen und Textanalyse-Frameworks zu schließen, haben wir eine offene serviceorientierte Architektur basierend auf Semantic Web Ontologien und W3C Web Services entwickelt, die es ermöglicht, beliebige NLP-Dienste einfach in Client-Anwendungen zu integrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69858-6_31 17e105bc7fee7fd1d5bdfd2949f4ff81;de;;;7.3.;;;Eine Leistungsdiskussion von Web-Crawlern mit einigen erweiterten Faktoren Factor Die Forschung betrachtet die Fehlerrate, um die Genauigkeit zu verbessern und den Platz und die Zeit beim Web-Crawling zu reduzieren, wobei erweiterte Parameter wie TTL, Häufigkeit des Webseitenbesuchs und von Benutzern gemeldeter Spam berücksichtigt werden. Die vorgeschlagene Arbeit soll die Fehler minimieren, indem die URLs anhand von Vorabparametern gefiltert werden. Dies würde die Genauigkeit beim Crawlen erhöhen. Darüber hinaus würde der Zeit- und Speicherplatzverbrauch durch den Wegfall der Verwendung weniger Verbindungen reduziert. Die Genauigkeit bei vorgeschlagenen Arbeiten wäre höher als bei früheren Untersuchungen, da frühere Untersuchungen den erweiterten Parameter zum Filtern der URL-Liste nicht berücksichtigt haben. Die Simulation, die den Vergleich von Genauigkeit, Fehlerrate, Zeit und Speicher darstellt, wurde mit Matlab durchgeführt. Die Forschung berücksichtigt die Häufigkeit des Besuchs der Seite. Ein weiterer Parameter für das Crawling ist das Gewicht des Alters der Seite, d. h. wie lange die Seite von den Endbenutzern besucht wird. Die Seite, die am meisten besucht wird, bekommt ein hohes Gewicht. Darüber hinaus würde die Forschungsarbeit den TTL-Wert der Seite berücksichtigen. Der TTL-Wert zeigt die Ablaufzeit der Seite an. Es berücksichtigt die Seiten, die die kürzere Ablaufzeit haben. Das Webcrawling ist in der Lage, die Webseitenliste während der Suche unter Berücksichtigung der Besuchshäufigkeit, des Gewichtsalters und des TTL-Werts zu filtern. Der Filter hat auch URLs entfernt, die als Spam gemeldet wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-3653-0_10 2940b6858fbda0ee3082c711c1534d33;de;;;7.3.;;;Nutzung der Schätzung der Pufferverzögerung für die Geolokalisierung von Internet-Hosts Geolokalisierungstechniken zielen darauf ab, den geografischen Standort eines Internethosts anhand seiner IP-Adresse zu bestimmen. Derzeit ignorieren messbasierte Geolokalisierungstechniken die Pufferungsverzögerungen, die bei jedem Sprung entlang des von Sondenpaketen genommenen Pfads eingeführt werden können. Um diese Lücke zu schließen, schlagen wir die;-;-;-;https://link.springer.com/chapter/10.1007/11753810_27 d97ae609c54e4ad780ae03633448c52f;de;;;7.3.;;;Vereinheitlichung und Ausrichtung kultureller Aktivitäten durch Ereignismodellierung und Profilerstellung Den Menschen steht heute nur noch begrenzte, wertvolle Freizeit zur Verfügung, die sie ihren Interessen möglichst gut ausfüllen wollen. Gleichzeitig versuchen Kulturinstitutionen, interessierte Gemeinschaften für ihre sorgfältig geplanten Kulturprogramme zu gewinnen. Um diese Kulturveranstaltungen an die richtigen Personen zu verteilen, haben wir einen Rahmen entwickelt, der diese Veranstaltungen möglichst zielgerichtet aggregiert, bereichert, empfiehlt und verbreitet. Die aggregierten Ereignisse werden als Linked Open Data unter Verwendung einer RDF/OWL-Darstellung des EventsML-G2-Standards veröffentlicht. Diese Ereigniselemente werden durch intelligente Indexierung und verknüpfte offene Datensätze, die im Daten-Web verfügbar sind, kategorisiert und angereichert. Um dem Endbenutzer die Ereignisse zu empfehlen, wird automatisch ein globales Profil des Endbenutzers erstellt, indem seine Profilinformationen aus allen Benutzergemeinschaften aggregiert werden, denen der Benutzer vertraut und bei denen er registriert ist. Auf diese Weise berücksichtigen die Empfehlungen Profilinformationen aus verschiedenen Communities, was sich nachteilig auf die Empfehlungen auswirkt. Als solches besteht das ultimative Ziel darin, eine offene, benutzerfreundliche Empfehlungsplattform bereitzustellen, die dem Endbenutzer ein Werkzeug bietet, um auf nützliche Ereignisinformationen zuzugreifen, die über den einfachen Abruf von Informationen hinausgehen. Gleichzeitig stellen wir der (inter)nationalen Kulturgemeinschaft standardisierte Mechanismen zur Beschreibung/Verbreitung von Veranstaltungs- und Profilinformationen zur Verfügung.;-;-;-;https://link.springer.com/article/10.1007/s11042-011-0757-6 62f96c497d0e5e5b187356a78d9901cb;de;;;3.4.;;;Bringen Sie ihnen das Fischen bei: Autoren befähigen, sich online zu vermarkten In der Verlagsbranche haben Paradigmenwechsel stattgefunden, die zu unveränderlichen Veränderungen in der Art und Weise führten, wie Autoren sich selbst und ihre Bücher online vermarkten. Der Autor erklärt die Verschiebungen und gibt Autoren und Verlagen Einblicke.;-;-;-;https://link.springer.com/article/10.1007/s12109-010-9160-9 c5dab889d5f42d54f003be8c6870adf5;de;;;7.3.;;;Dynamisches Thread-Management im Kernel-Pipeline-Webserver Mit der Entwicklung von Hochgeschwindigkeits-Backbone-Netzwerken wird immer mehr Verkehrslast auf das Internet-Endsystem übertragen. Die zufriedenstellende Ausführung gängiger Geschäftsanwendungen hängt von der effizienten Leistung des Webservers ab. In diesem Papier schlagen wir einen Pipeline-Multi-Thread-Kernel-Webserver Open KETA vor, der die Verarbeitung einer Anfrage in mehrere unabhängige Phasen aufteilt. Diese Architektur reduziert die Granularität der Parallelität und erreicht eine Parallelität der inneren Anforderungen, um ihre Verarbeitungsfähigkeit zu verbessern. Darüber hinaus wird ein Thread-Zuweisungsmodell verwendet, um Threads in dieser speziellen Architektur effektiv zu verwalten. Dieses Modell kann die Thread-Zuweisung basierend auf der Serverlast und dem Arbeitscharakter jeder Phase anpassen, so dass die Thread-Ressource des Webservers richtig genutzt werden kann. Das experimentelle Ergebnis zeigt die Leistungsfähigkeit dieses Webservers und die Effektivität des Thread-Zuordnungsmodells.;-;-;-;https://link.springer.com/chapter/10.1007/11577188_16 f469c96d4aa0390a3f9b16c4ad3eb9bc;de;;;7.3.;;;(Web-Suche) Die kollaborative Websuche (CWS) ist ein gemeinschaftsbasierter Ansatz für die Websuche, der die gemeinsame Nutzung vergangener Ergebnisauswahlen durch eine Gruppe verwandter Suchender unterstützt, um Ergebnislisten zu personalisieren, um die Präferenzen der Gemeinschaft als Ganzes widerzuspiegeln. In diesem Beitrag präsentieren wir die Ergebnisse eines aktuellen Live-User-Tests, der zeigt, wie CWS eine hohe Beteiligung hervorruft und wie die Suchaktivitäten einer Community verwandter Benutzer eine Art soziales Suchnetzwerk bilden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-70987-9_13 45a84536155f5d4a087daa2c2fbe0470;de;;;7.3.;;;Inhaltsverteilung für Veröffentlichungs-/Abonnementdienste Caching und Content Delivery sind wichtig für inhaltsintensive Publish/Subscribe-Anwendungen. In diesem Whitepaper werden verschiedene Ansätze zur Inhaltsverteilung vorgeschlagen, die matchbasiertes Pushen und zugriffsbasiertes Caching kombinieren, basierend auf den Abonnementinformationen und Zugriffsmustern der Benutzer. Um die Leistung der vorgeschlagenen Ansätze zu untersuchen, haben wir einen Simulator gebaut und eine Arbeitslast entwickelt, um den Inhalt und die Zugriffsdynamik einer geschäftigen Nachrichtenseite nachzuahmen. Unter Verwendung eines rein zugriffsbasierten Caching-Ansatzes als Basis liefern unsere besten Ansätze über 50 % bzw. 130 % relative Gewinne für zwei Request-Traces in Bezug auf die Trefferquote in lokalen Caches, während der Traffic-Overhead vergleichbar bleibt. Selbst wenn davon ausgegangen wird, dass die Abonnementinformationen die Zugriffe der Benutzer nicht perfekt widerspiegeln, weisen unsere besten Ansätze immer noch eine relative Verbesserung von etwa 40 % und 90 % für die beiden Traces auf. Unseres Wissens ist diese Arbeit der erste Versuch, die Inhaltsverteilung unter dem Publish/Subscribe-Paradigma zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44892-6_5 9d80e0ccce1ec8c292690bf749f0a41f;de;;;7.3.;;;Inhaltsbasierte Fuzzy-Suche in einer Multimedia-Webdatenbank In diesem Beitrag werden die Mechanismen vorgestellt, die verwendet werden, um inhaltsbasierte Fuzzy-Suchen in einer Multimedia-Anwendungsdatenbank durchzuführen. Diese Recherchen können über das World Wide Web durchgeführt werden und ermöglichen die Suche nach Medien, deren Inhalt eine gewisse Ähnlichkeit mit dem im Abfrageprädikat definierten aufweist. Die Ungenauigkeit der semantischen Informationen, die den Inhalt der Medien definieren, wird durch Proximity-Relations behandelt, um in der Abfrage festgelegte Begriffe mit denen in der Datenbank zu vergleichen. Es wird eine Beschreibung der Formeln gegeben, die verwendet werden, um den Ähnlichkeitsgrad zwischen diesen Begriffen zu berechnen, um eine Klassifizierung der Medien im Antwortsatz zu ermöglichen, sowie der Algorithmen, die verwendet werden, um die Datenbank zu durchsuchen, um die Medien abzurufen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-1772-0_7 81983d294979d8837c751a989741795c;de;;;7.3.;;;Weiterentwicklung von Benutzerprofilen zur Reduzierung der Internet-Informationsüberlastung In diesem Papier wird die Verwendung von sich entwickelnden Personal Agent Environments als potenzielle Lösung für das Problem der Informationsüberflutung diskutiert, wie es beim gewöhnlichen Surfen im Internet auftritt. Einige erste experimentelle Ergebnisse zur Entwicklung von Benutzerprofilen unter Verwendung von spezierenden Hybrid-GAs, die Gründe dafür und die Unterstützung für ihre potenzielle Anwendung in mobilen, drahtlosen und standortbezogenen Informationsgeräten werden ebenfalls vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-1829-1_12 cb8b914e62d49bd97be87c4ab4921a38;de;;;7.3.;;;Erlernen eines semantischen Raums der Websuche über Sitzungsdaten Bei der Websuche stellt ein Benutzer zunächst ein Informationsbedürfnis und stellt eine erste Anfrage. Dann werden einige abgerufene URLs angeklickt und andere Abfragen ausgegeben, wenn er/sie nicht zufrieden ist. Wir plädieren dafür, dass die Websuche von einem verborgenen semantischen Raum beherrscht wird und jedes beteiligte Element wie Abfrage und URL seine Projektion, d. h. als Vektor, in diesem Raum hat. Jede der oben genannten Aktionen im Suchvorgang, d. h. das Ausgeben von Abfragen oder das Klicken auf URLs, ist ein Interaktionsergebnis dieser Elemente im Bereich. In diesem Papier wollen wir einen solchen semantischen Raum der Websuche aufdecken, der die verborgene Semantik von Suchanfragen, URLs und anderen Elementen einheitlich erfasst. Wir schlagen session2vec- und session2vec+-Modelle vor, um Vektoren im Raum mit Suchsitzungsdaten zu lernen, wobei eine Suchsitzung als Instanziierung eines Informationsbedarfs betrachtet wird und die Interaktionsinformationen von Abfragen und URLs enthält. Das Vektorlernen wird anhand eines großen Abfrageprotokolls von einer Suchmaschine durchgeführt, und die Wirksamkeit der gelernten Vektoren wird in einigen wenigen Aufgaben untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48051-0_7 203e158572f1e89ee2e2333a62f5c8df;de;;;7.3.;;;Mehrschichtige semantische Modellierung sozialer Netzwerke durch Ontologie-basiertes Benutzerprofil-Clustering: Anwendung auf kollaboratives Filtern Wir schlagen ein vielschichtiges semantisches soziales Netzwerkmodell vor, das unterschiedliche Ansichten über gemeinsame Interessen bietet, die einer Gemeinschaft von Menschen zugrunde liegen. Die Anwendbarkeit des vorgeschlagenen Modells auf ein kollaboratives Filtersystem wird empirisch untersucht. Ausgehend von einer Reihe von ontologiebasierten Benutzerprofilen und unter Berücksichtigung ihrer gemeinsamen Präferenzen clustern wir automatisch den Domänenkonzeptraum. Mit den erhaltenen semantischen Clustern werden Ähnlichkeiten zwischen Individuen auf mehreren semantischen Präferenzebenen identifiziert und entstehende, geschichtete soziale Netzwerke definiert, die für den Einsatz in kollaborativen Umgebungen und Inhaltsempfehlungen geeignet sind.;-;-;-;https://link.springer.com/chapter/10.1007/11891451_30 e0e7f8867523f3f3b39b7b925db4ad9c;de;;;7.3.;;;Verbessern der Festplatten-E/A-Leistung durch die Verwendung von Raw Disk für Web-Proxy-Server Der häufigste Engpass bei Web-Proxy-Servern ist die Festplatten-E/A. Die meisten universellen Dateisysteme sind bei der Verarbeitung der Web-Cache-Arbeitslast sehr ineffizient und weisen hohe Überlastungen auf. In diesem Whitepaper möchten wir einen Weg untersuchen, um den Datenträger-I/O-Overhead zu reduzieren, indem Raw-Datenträger anstelle des Dateisystems verwendet werden. Um das überlegene Leistungspotenzial des Raw-Disk-Ansatzes zu demonstrieren, entwerfen wir ein einfaches blockstrukturiertes Storage Management System (BSMS) und implementieren Web Proxy Server over RAW Disk (WPS-RAW), das BSMS in Squid integriert. Umfassende experimentelle Auswertungen unter Verwendung des Web-Polygraph-Proxy-Performance-Benchmarks legen nahe, dass Raw Disk eine gute Lösung sein kann, um die Disk-I/O-Leistung des Web-Proxy-Servers deutlich zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45036-X_64 18a30dc33ff944623412011d85769914;de;;;7.3.;;;Verbesserung von Websites mit Web Usage Mining, Web Content Mining und semantischer Analyse Mit dem Aufkommen des World Wide Web sind Websites zu einem wichtigen Kommunikationskanal für Unternehmen geworden. In diesem Zusammenhang ist die Analyse und Verbesserung der Webkommunikation unerlässlich, um die Ziele der Zielgruppe besser zu erreichen. Die Analyse der Webkommunikation wird traditionell von einer Webanalysesoftware durchgeführt, die lange Listen von Zielgruppenmetriken erstellt. Diese Metriken enthalten wenig Semantik und sind zu detailliert, um von Organisationsmanagern und Chefredakteuren genutzt zu werden, die zusammengefasste und konzeptionelle Informationen benötigen, um Entscheidungen zu treffen. Unsere Lösung, um solche konzeptionellen Metriken zu erhalten, besteht darin, den Inhalt der vom Webserver ausgegebenen Webseiten zu analysieren. In diesem Papier präsentieren wir zunächst eine Liste von Methoden, die wir entwickelt haben, um die Ausgabe-Webseiten zu minen. Anschließend erklären wir, wie Termgewichtungen auf diesen Seiten als Zielgruppenmetriken verwendet werden können und wie sie mit OLAP-Tools aggregiert werden können, um konzeptbasierte Metriken zu erhalten. Schließlich präsentieren wir die konzeptbasierten Metriken, die wir mit unseren Prototyp-WASA- und SQL Server-OLAP-Tools erhalten haben.;-;-;-;https://link.springer.com/chapter/10.1007/11611257_41 58c8b0d485c963f935f569ddde4be44e;de;;;7.3.;;;Komponentenbasierte Entwicklung von webfähigen eHome-Diensten Der Umfang der webfähigen eHome-Dienste umfasst sowohl automatisierte Haushalte als auch automatisierte Industrieanlagen. Webfähige eHome-Dienste bieten eine vollintegrierte Sicht auf verteilte Systeme bestehend aus automatisierten Häusern, Back-End-Systemen von Anbietern, Kommunikationsprotokollen und Diensten, die Verteilungsaspekte transparent machen. Zukünftige Plattformen sollten die Entwicklung und Bereitstellung so einfach wie möglich machen. Der Zugriff soll über alle Kommunikationsgeräte (z. B. Desktop-Computer, PDAs, Mobiltelefone) und alle Kommunikationsnetze möglich sein. Außerdem müssen alle Appliances, allgegenwärtigen Geräte und deren Netzwerkprotokolle unterstützt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30188-2_14 98497bf95fc092cde891eb5b6e771af8;de;;;7.3.;;;Modellieren des menschlichen Verhaltens im Web Bei der Suche nach Informationen geht es dem Nutzer in erster Linie um das Browsen und Suchen (allerdings auch um das Erkunden in gewissem Umfang, das außerhalb unserer Möglichkeiten liegt). Es ist offensichtlich, dass die Verwendung von Hyperlinks dem Benutzer neue Freiheit beim Durchsuchen von Dokumenten gibt, aber der Benutzer muss diesem Durchsuchen eine Struktur auferlegen. Die Struktur, die ein Benutzer auferlegt, ist oft eine neurologische, eine kognitive Karte oder ein Modell. Viele Forscher (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77469-3_6 d05861a02cec66e2e89a93a4b5b07392;de;;;7.3.;;;Überprüfung der B2B-Integration In diesem Papier wird ein Überblick über die B2B-Integration basierend auf nicht-proprietären Standards präsentiert. Der Fokus liegt auf Technologien zur Hack-Office-Integration mit Lieferanten und Kunden und eine Empfehlung an Unternehmen, die eine B2B-Integration in Betracht ziehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35698-3_19 c319c698d850414d90d58550249e6865;de;;;3.4.;;;Präriehundvergiftung in den nördlichen Great Plains: Eine Analyse von Programmen und Richtlinien Dieses Papier beschreibt die Programme und Richtlinien zur Kontrolle von Präriehunden in den nördlichen Great Plains-Staaten Montana, South Dakota und Wyoming. Beschrieben werden die Vergiftungsprogramme von Bundes- und Landesbehörden sowie die Satzungen und gesetzlichen Aufträge, die das Behördenmanagement von Präriehunden prägen. Gegenwärtige Richtlinien zu National Grasslands und anderen Bundesländern beschränken Präriehunde in der Regel auf einen kleinen Prozentsatz des verfügbaren potenziellen Lebensraums, zum Nachteil von Präriehunden und verwandten Arten. Staatliche Programme zur Unterstützung von Landbesitzern bei der Kontrolle von Präriehunden unterscheiden sich stark und setzen Anreize zur Kostenbeteiligung (Wyoming) und behördliche Geldbußen (South Dakota) ein, um die Vergiftung von Präriehunden zu fördern. Die Kontrolle von Präriehunden wird in Montana von staatlichen oder regionalen Behörden nicht aktiv finanziert oder praktiziert. Wir dokumentieren die Beteiligung von Bund und Ländern an mehr als 1 Million Hektar Präriehundvergiftung im Untersuchungsgebiet zwischen 1978 und 1992. In Kombination mit undokumentierten Vergiftungen durch private Landbesitzer, Pest und Schießereien kann es bei Präriehunden zu regionalen Rückgängen kommen, die zum Zerfall des Präriehunde-Ökosystems beitragen. Wir empfehlen, dass die Maßnahmen zur Bekämpfung von Tierschäden in Bezug auf Präriehunde eingestellt werden, da sie staatliche Programme duplizieren und mit bundesstaatlichen Wildtiermanagementprogrammen kollidieren, die darauf abzielen, Wildtierarten, die vom Ökosystem der Präriehunde abhängig sind, zu erhalten und/oder zu erholen. Wir empfehlen weiterhin, dass Bundesfonds zur Verbesserung der Weidehaltung als Subventionen für die Integration von Präriehunden in das Weidemanagement angeboten werden, anstatt Programme zur Ausrottung von Präriehunden zu finanzieren.;-;-;-;https://link.springer.com/article/10.1007/BF01203843 0170c7945acc7817b9b01432a90e0277;de;;;7.3.;;;Hierarchisches Klassifizieren chinesischer Webdokumente ohne Wörterbuchunterstützung und Segmentierungsverfahren Dieses Papier berichtet über ein System, das chinesische Webdokumente hierarchisch ohne Wörterbuchunterstützung und Segmentierungsverfahren klassifiziert. In unserem Klassifikator werden Webdokumente durch einfach zu extrahierende N-Gramme (N≤4) dargestellt. Ein Ansatz zur Steigerung des maschinellen Lernens wird angewendet, um chinesische Webdokumente zu klassifizieren, die eine Themenhierarchie teilen. Die offene und modularisierte Systemarchitektur macht unseren Klassifikator erweiterbar. Experimentelle Ergebnisse zeigen, dass unser System chinesische Webdokumente effektiv und effizient klassifizieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45151-X_20 7a1cc9036979bf595c37da2dd56113ae;de;;;7.3.;;;IA und Software Keine Diskussion der Informationssicherung ist vollständig ohne zumindest einen Überblick über IA in Bezug auf Betriebssysteme und Anwendungssoftware. In diesem Kapitel werden Informationssicherungsprobleme und mögliche Lösungen in Bezug auf Betriebssysteme und Anwendungssoftware erörtert. Die Diskussion umfasst Ansichten zu bösartigen Codes wie Viren, Logikbomben und Trojanischen Pferden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-3706-1_12 04b59de9edd05f58d9cc309b8e7e7cbf;de;;;7.3.;;;Die Transaktionsverarbeitung von heterogenen Datenbanken Anwendung im Web Service In diesem Papier analysieren wir den Mechanismus der traditionellen Datenbanktransaktion und die Eigenschaften von Webdiensten. Die Transaktion ist eine der Importtechniken, die die Datenkonsistenz sicherstellen. Der Webdienst kann jedoch keine Transaktionen unterstützen. Um Transaktionen im Webservice bereitzustellen, schlagen wir einen AOP-Modus vor. AOP simuliert den Mechanismus traditioneller Transaktionen. Wir können Geschäftsanwendungen und Transaktionsmanagementsysteme auf Basis von AOP entwickeln. Die Codes der Anwendungen und der Systeme können problemlos wiederverwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31968-6_17 7cc808df71e5b61b6382b4ebad642e83;de;;;7.3.;;;Datenabruf aus Gebäudeinformationsmodellen basierend auf visueller Programmierung Mit der zunehmenden Akzeptanz von Building Information Modeling (BIM) im AEC-Sektor verdrängen Computermodelle traditionelle Wege der Informationsbereitstellung auf der Grundlage von Textdokumenten und zweidimensionalen Zeichnungen. Der Einsatz von Modellen ermöglicht die Verschlankung von Arbeitsabläufen, und das inklusive virtuelle Bauen erhöht die Qualität des Endprodukts Gebäude. Um eine umfassende Beschreibung eines geplanten Gebäudes zu erstellen, müssen Informationen aus verschiedenen Quellen kombiniert, spezifiziert und regelmäßig von den Projektbeteiligten aktualisiert werden. Die entstehenden Modelle sind stark strukturiert und Instanzdateien beinhalten große Datenmengen. Im unbearbeiteten Zustand sind diese Modelle jedoch für die Durchführung von Engineering-Aufgaben nur bedingt geeignet, da Menge und Struktur nicht den domänenspezifischen und zweckorientierten Sichtweisen entsprechen.;-;-;-;https://link.springer.com/article/10.1186/s40327-017-0055-0 913f1545c3911a3a9f8cb59be17cca61;de;;;7.3.;;;Anwendung mobiler Agenten in einem webbasierten Echtzeit-Monitoring-System Im Bereich der Überwachung realer Maschinen unter Verwendung eines virtuellen Bearbeitungssystems über das Internet/Intranet wurde viel Forschung berichtet. Um die Beschränkungen der Netzbandbreite bei Echtzeitüberwachungsaufgaben zu überwinden, kann die Technologie des mobilen Agenten verwendet werden. Dieses Papier schlägt eine webbasierte verteilte Architektur zur Entwicklung eines plattformunabhängigen Echtzeit-Überwachungssystems vor. Mit diesem System können Benutzer die Bearbeitungsbedingungen festlegen und die Anforderungen an die zentrale Steuerung senden. Programme, die die Bearbeitungsleistung überwachen, können von der zentralen Steuerung als mobile Agenten an die entfernten Hosts gesendet werden, wo Bearbeitungssignale von realen Maschinen abgetastet werden. Abschließend wird ein Überblick über die Sicherheitsprobleme im Zusammenhang mit mobilen Agenten gegeben.;-;-;-;https://link.springer.com/article/10.1007/s00170-002-1440-x 98ef53e91403febf2d1b1c2d0b45f385;de;;;7.3.;;;Visual Based Information Retrieval mit dem Voronoi-Baum Das Abrufen von Inhalten aus großen Datenbanken erfordert aufgrund des zunehmenden Wachstums der digitalen Bilder einen effizienten Ansatz. Insbesondere die inhaltsbasierte Bildsuche ist ein umfangreiches Forschungsgebiet. Dies beinhaltet hauptsächlich das Abrufen ähnlicher Bilder aus dem großen Datensatz basierend auf den extrahierten Merkmalen. Der extrahierte Merkmalsinhalt kann Textur, Farbe, Form usw. sein. In dieser Arbeit wird ein effizientes Verfahren zur Bildwiederherstellung basierend auf Formmerkmalen vorgeschlagen. Formfunktionen wie die Berechnung der Grenze, der Modus mit morphologischen Operationen und der Harris-Eckendetektor und das Voronoi-Diagramm werden vorgeschlagen. Diese Übereinstimmungsentscheidungen können durch verschiedene Klassifikationsmodelle getroffen werden. Der SVM-Klassifikator wird in dieser Forschungsarbeit verwendet, um beim Bildabruf die am besten passenden Bilder zu erhalten. Der vorgeschlagene Algorithmus wird an JPEG-Bildern ausgewertet, um eine Genauigkeit von etwa 90 % zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-3156-4_64 c1775b47deeaff19d2b9226c851e09ed;de;;;7.3.;;;Soziales Vertrauen virtueller Identitäten In den meisten anderen Kapiteln dieses Buches werden rechnerische Vertrauensmodelle im weiteren Sinne behandelt, indem sie Definitionen von Vertrauen geben, erklären, wie sich Vertrauen im Laufe der Zeit entwickeln sollte, und die verschiedenen Facetten von Vertrauen untersuchen. Auf der anderen Seite konzentriert sich dieses Kapitel klar auf das wichtige Element der Identität in computergestützten Vertrauensmechanismen. Vertrauen und Reputation sind in persönlichen Situationen leichter aufzubauen als in Situationen, in denen Computer und Netzwerke verwendet werden, da die Identität des Treuhänders schwieriger zu überprüfen ist. In diesem Kapitel werden die verschiedenen Möglichkeiten zur Erkennung virtueller Identitäten untersucht. Als nächstes wird ihre Integration in Computational Trust Engines diskutiert, insbesondere nach vier Hauptanforderungen: Adaptability, Security, Usability and Privacy (ASUP).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84800-356-9_4 3877e6840df40e5ff49896ba2601223a;de;;;7.3.;;;Evaluierung eines sprachbasierten Internetbrowsers mit ungeschulten und geschulten Benutzern In unserem Beitrag stellen wir Evaluationsergebnisse für VoiceBrowse vor, ein interaktives System, mit dem Nutzer per Sprachsteuerung auf Inhalte und Dienste aus dem Internet zugreifen können. Wir vergleichen zwei Benutzergruppen, unerfahrene und erfahrene Computerbenutzer, hinsichtlich ihrer Leistung und Beurteilung zweier Versionen des Systems, die sich in der Dialoginitiative unterscheiden. Weiterhin untersuchen wir die Gebrauchstauglichkeit der Systeme nach längerer Nutzung (simuliert durch 15 Minuten Übung). Wir stellen fest, dass selbst unerfahrene Computerbenutzer von Anfang an wissen, wie man mit dem System spricht, was Annahmen in der einschlägigen Literatur widerspricht. Ungeübte Anwender schneiden mit beiden Systemen vor und nach dem Training genauso gut ab wie erfahrene Anwender. Wir vergleichen auch Beurteilungen der Systeme vor und nach dem Training.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02713-0_51 e918977313299fd7e6351058c8931fd3;de;;;7.3.;;;Verwenden von inkrementellem Weblog-Mining zum Erstellen adaptiver Webserver Die Personalisierung von Inhalten, die von einer Website zurückgegeben werden, ist im Allgemeinen ein wichtiges Problem und betrifft insbesondere den elektronischen Handel und die elektronischen Dienste. Die gezielte Ausrichtung geeigneter Informationen oder Produkte auf den Endbenutzer kann die Benutzererfahrung auf einer Website erheblich (zum Besseren) verändern. Ein möglicher Ansatz zur Web-Personalisierung besteht darin, typische Benutzerprofile aus der riesigen Menge historischer Daten zu ermitteln, die in Zugriffsprotokollen gespeichert sind. Wir präsentieren ein System, das die Protokolle durchsucht, um Profile zu erhalten und sie verwendet, um automatisch eine Webseite mit URLs zu generieren, an denen der Benutzer interessiert sein könnte Bereitstellung von deklarativen Informationen oder verlangen, dass sich der Benutzer einloggt. Profile sind dynamisch. Mit der Zeit ändert sich das Durchquerungsmuster eines Benutzers. Um Änderungen an der für den Benutzer generierten personalisierten Seite widerzuspiegeln, müssen die Profile unter Berücksichtigung des bestehenden Profils neu generiert werden. Anstatt ein neues Profil zu erstellen, fügen wir inkrementell Informationen zu einem Benutzerprofil hinzu und/oder entfernen sie, um Zeit und physischen Speicherbedarf zu sparen.;-;-;-;https://link.springer.com/article/10.1007/s00799-003-0057-5 1f88b896f6e24c7ce8813d567daa6baa;de;;;7.3.;;;Webstruktur im Jahr 2005 Die geschätzte Anzahl der statischen Webseiten im Oktober 2005 betrug über 20,3 Milliarden, was durch Multiplikation der durchschnittlichen Anzahl von Seiten pro Webserver basierend auf den Ergebnissen von drei früheren Studien, 200 Seiten, mit der geschätzten Anzahl von Webservern im Internet ermittelt wurde , 101,4 Mio. Basierend auf der Analyse von 8,5 Milliarden Webseiten, die wir bis Oktober 2005 gecrawlt haben, schätzen wir jedoch die Gesamtzahl der Webseiten auf 53,7 Milliarden. Dies liegt daran, dass die Anzahl dynamischer Webseiten in den letzten Jahren rasant zugenommen hat. Außerdem haben wir die Webstruktur anhand von 3 Milliarden der 8,5 Milliarden von uns gecrawlten Webseiten analysiert. Unsere Ergebnisse zeigen, dass die Größe des „CORE“, der zentralen Komponente der Bowtie-Struktur, in den letzten Jahren insbesondere im chinesischen und japanischen Web zugenommen hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78808-9_4 ce652e9df936a34c188cc9c8fbfdb4d1;de;;;7.3.;;;Mentale Modelle: Haben sich die mentalen Modelle der Benutzer von Websuchmaschinen in den letzten zehn Jahren verbessert? Diese Studie untersuchte die Genauigkeit und Vollständigkeit der mentalen Modelle, die Benutzer von Websuchmaschinen haben, im Kontext eines Vergleichs von übereinstimmenden Daten, die aus Stichproben aus den Jahren 2000 und 2010 gewonnen wurden Suchmaschinen, die in der Studie aus dem Jahr 2000 identifiziert wurden. Die Ergebnisse zeigten, dass sich die Stichprobe von 2010 bei allen Leistungskennzahlen signifikant verbessert hatte. Die beiden Stichproben identifizierten jedoch eine gleiche Anzahl von hervorstechenden Merkmalen (N = 7). Aus den detaillierten Analysen der herausragenden Merkmale wurde jedoch deutlich, dass sich die Genauigkeit und Vollständigkeit der mentalen Modelle der Nutzer von Suchmaschinen ab dem Jahr 2000 nachweislich verbessert hat. Während also die mentalen Modelle der Nutzer von Web-Suchmaschinen immer noch weitgehend ungenau und unvollständig sind , ihre Übereinstimmung mit den Konzeptualisierungen der Designer hat sich verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21741-8_27 f2ba106d26483a977af3d88edf478f97;de;;;7.3.;;;Rechtswissen als Voraussetzung für partizipatives E-Government: Die Rolle semantischer Technologien Eine aktive Beteiligung der EU-Bürger an ihrem nationalen und lokalen Entscheidungsprozess kann nur erfolgen, wenn sie den transnationalen und nationalen regulatorischen und institutionellen Kontext vollständig kennen. Trotz ihres tatsächlichen Rechts auf Zugang zu Rechtsdokumenten hindern mehrere Barrieren die Bürger daran, sich ein wirkliches Verständnis der Auswirkungen von normativen Änderungen und regulatorischen Neuerungen zu verschaffen. Die sprachliche und konzeptionelle Komplexität des Rechtsbereichs wird mit technischen Hindernissen verbunden, und die Verfügbarkeit zufriedenstellender, vollständiger und zuverlässiger Informationsdienste für Rechtsexperten und Nicht-Experten steht noch aus. Dieses Kapitel konzentriert sich auf die Rolle der IKT und insbesondere der semantischen Technologien bei der Bereitstellung leistungsfähiger Werkzeuge zur Überbrückung der Kluft zwischen den beiden Schichten, d des Gesetzes, sondern auch fundierte Kenntnisse seines Inhalts.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27219-6_7 20029ac64bf3ab35400dafbf280a98c5;de;;;7.3.;;;Eine theoretische Analyse des PageRank von Google Google Unsere Arbeit beginnt mit der Definition einer intuitiven Formel, die verwendet werden kann, um die Webseiten nach ihrer Bedeutung zu ordnen und die Notwendigkeit einer Modifikation dieser Formel auf mathematischer Basis aufzuzeigen. Im Anschluss an diese Argumentation gelangen wir zu einer fundierten allgemeinen Formel, die viele interessante unterschiedliche Fälle abdeckt, darunter den von PageRank, dem Algorithmus der Google-Suchmaschine, wie er derzeit in neueren Arbeiten vorgeschlagen wird;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45735-6_13 98838ca354973dd42ee6184818ddabcd;de;;;7.3.;;;Web-Nutzung in der Geo- und Umweltbildung: Eine internationale Umfrage auf der Primar- und Sekundarstufe Dieser Artikel zielt darauf ab, die Webnutzung und die webbasierte Kooperation und Zusammenarbeit in der geografischen und umweltbezogenen Bildung in der Primar- und Sekundarstufe weltweit zu untersuchen. Dabei werden aktuelle Trends sowie zukünftige Chancen und Herausforderungen berücksichtigt. Der theoretische Teil der Studie befasst sich mit der Web-Nutzung und verschiedenen Formen der webbasierten Zusammenarbeit. Web-Nutzung und Kooperation im Bildungsbereich werden als kooperatives Lernen, kollaboratives Lernen oder gemeinschaftliches Lernen klassifiziert. Es wird festgestellt, dass die Nutzung des Internets in der geografischen und umweltbezogenen Bildung an Bedeutung gewinnt. Webbasierte Zusammenarbeit jeder Intensitätsstufe ist mit vielen Chancen und Herausforderungen verbunden. Der empirische Teil dieser Studie umfasst eine Umfrage unter Forschern der geografischen und umweltbezogenen Bildung in verschiedenen Ländern zu ihren Ansichten über die Nutzung des Internets im Bildungsbereich. Die Ergebnisse dieser Umfrage zeigen, dass das Web im Allgemeinen in der geografischen und umweltbezogenen Bildung nur minimale Verwendung findet. Da der Zugang zum Web begrenzt ist und nur einige Schüler es nutzen können, ist Kooperation, insbesondere kollaboratives Lernen im Web, in der geografischen und umweltbezogenen Bildung noch selten. Die am häufigsten verwendete Anwendung ist E-Mail. Forscher erkennen das Potenzial des Internets, die lokale, nationale und internationale Zusammenarbeit zu verbessern und ein besseres Verständnis geografischer und umweltbezogener Probleme auf der Basisebene zu ermöglichen. Webbasiertes Lernen kann auch dazu beitragen, das kulturelle Verständnis der Schüler zu erhöhen und zu vertiefen. Zuvor müssen jedoch Probleme bei Zugang, Kosten und Lehrerausbildung gelöst werden.;-;-;-;https://link.springer.com/article/10.1023/B%3AGEJO.0000033595.99329.33 8877c1d6ffcd12a1ca659d7b9fe245ca;de;;;7.3.;;;Eine integrierte Überprüfung der Wirksamkeit von Internetwerbung: Konkrete Ansätze zum Banner-Werbeformat und dem Kontext sozialer Netzwerke Die Werbeinvestitionen im Internet wachsen derzeit schneller als in allen anderen Kommunikationsmitteln. Insbesondere die integrierte Marketingkommunikation (IMC) von Unternehmen nutzt das Internet als Hauptwerbemittel und zunehmend soziale Netzwerke als Teil ihrer Kommunikationsstrategien. Angesichts ihrer wachsenden Bedeutung führt dieses Kapitel eine umfassende theoretische Analyse der Wirksamkeit von Online-Werbung durch. Zunächst führen wir eine detaillierte Bestandsaufnahme der wichtigsten Werbeformen im Web und in sozialen Netzwerken durch. Anschließend analysieren wir die Variablen, die in der Literatur den größten Einfluss auf die Online-Werbewirksamkeit haben, wobei wir besonderes Augenmerk auf das Banner-Werbeformat legen. Als nächstes wird das Thema Werbewirksamkeit im spezifischen Kontext von Social Network Sites diskutiert. Abschließend werden einige relevante Implikationen für Praktiker und Forschungsmöglichkeiten vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39747-9_22 20ca25efc1730d749ea1eca43381414e;de;;;7.3.;;;Entwicklung und Überblick über verbundene USDL Seit mehr als 10 Jahren beschäftigt sich die Forschung zu Servicebeschreibungen hauptsächlich mit softwarebasierten Services und stellt Sprachen wie WSDL, OWL-S, WSMO für SOAP und hREST für REST bereit. Dennoch haben die jüngsten Entwicklungen aus dem Service-Management (z Art der Dienstleistungen. Business-Orientierung, Co-Creation, Pricing, rechtliche Aspekte und Sicherheitsaspekte sind alles Elemente, die auch Teil der Leistungsbeschreibungen sein müssen. Während Ontologien wie e;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-14980-6_5 f00549595b3a5755dd6f3beb1bcfcc3e;de;;;7.3.;;;SRMT-S: Ein hybrides sender- und empfängerbasiertes Anpassungsschema für TCP-freundliche Multicast-Übertragung mit Simulcast-Ansatz In diesem Papier beschreiben wir ein hybrides sender- und empfängerbasiertes Anpassungsschema für die Multicast-Übertragung von Multimediadaten unter Verwendung des Simulcast-Ansatzes, das wir SRMT-S (Sender-Receiver-based Adaptation scheme for Multicast Transmission using Simulcast) nennen. Die herausragendsten Merkmale von SRMT-S sind sein verteilter (an Sender und Empfänger) Übertragungsraten-Schätzalgorithmus und sein innovativer WIT-Schätzalgorithmus (Round Trip Time) basierend auf Einwegverzögerungsmessungen. SRMT-S verwendet sowohl einen AIMD-Algorithmus als auch ein TCP-Modell, um einen TCP-freundlichen Bandbreitenanteil zu schätzen. Wir evaluieren SRMT-S durch eine Reihe von Simulationen, um sein Verhalten gegenüber einer heterogenen Gruppe von Empfängern und sein Verhalten gegenüber TCP-Verbindungen zu untersuchen. Die Hauptschlussfolgerung der Simulation war, dass SRMT-S ein freundliches Verhalten gegenüber den dominierenden Verkehrstypen des heutigen Internets aufweist und eine heterogene Gruppe von Empfängern fair behandelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35616-7_9 0cd3e333d801a4fd0e81b6eeb41fec60;de;;;7.3.;;;Automatische Erstellung von täglichen Nachrichtenauszügen von Internet-Nachrichtenseiten Mit dem Aufkommen von 24-Stunden-Nachrichtenkanälen und Internet-Nachrichtenseiten ist das Auffinden von Nachrichtenquellen einfacher denn je. Mit der zunehmenden Anzahl von Quellen, die eine größere Vielfalt an Themen abdecken, wird es für die Benutzer jedoch immer schwieriger, die wichtigen und weniger wichtigen Nachrichten des Tages zu durchsuchen. Dieses Papier stellt ein System vor, das automatisch eine tägliche Zusammenfassung der wichtigen Nachrichtenthemen des Tages erstellt. Nachrichtenartikel werden von Internet-Nachrichtenseiten ausgelesen und die Artikel werden für eine spätere Analyse gespeichert. Am Ende des Tages bzw. in einem bestimmten Zeitraum werden die Artikel analysiert, um die wichtigen Nachrichtenthemen zu ermitteln und eine Auflistung der Top-Stories des Tages zu erstellen. Der Digest zeigt die Top-Storys mit Titel, Schlüsselwörtern, Link und zusammenfassenden Informationen. Durch eine vom Menschen beurteilte Bewertung wird gezeigt, dass die erstellten Digests die Benutzer zufrieden stellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-9151-2_110 d3f7087607c9f389b4011d65fb9961dd;de;;;7.3.;;;Schätzung der Subnetzeigenschaften der Netzwerkschicht durch statistische Stichproben Die Internettopologie der Netzwerkschicht besteht aus einer Reihe von Routern, die über Subnetze miteinander verbunden sind. In letzter Zeit besteht ein erhebliches Interesse an der Untersuchung topologischer Eigenschaften von Subnetzen zusätzlich zu Routern im Internet. Angesichts der Größe des Internets ist die Erstellung vollständiger Topologiekarten auf Subnetzebene jedoch weder praktikabel noch wirtschaftlich. Eine praktikable Lösung besteht also darin, Subnetze in der Zieldomäne zu beproben und ihre globalen Eigenschaften zu schätzen. In dieser Studie schlagen wir ein Sampling-Framework für Subnetze vor, leiten geeignete Schätzer für verschiedene Subnetzmerkmale ab, einschließlich Gesamtzahl der Subnetze, Subnetzpräfixlängenverteilung, mittlerer Subnetzgrad und IP-Adressnutzung, und analysieren die theoretischen und empirischen Aspekte dieser Schätzer.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30045-5_21 722d04cfd6ca34558460aafff3b4d2e9;de;;;7.3.;;;Ableiten von Folksonomien zur Verbesserung der Web-API-Suche Web-APIs, also Softwarekomponenten, die von Dritten über Webschnittstellen zur Verfügung gestellt werden, können zu Webanwendungen, auch Mashups genannt, aggregiert werden. Auch in dieser Anwendungsdomäne kann das Tagging, das von anderen Mashup-Designern durchgeführt wird, die verfügbare Web-APIs und daraus zusammengestellte Mashups verwendet haben, als Wissen genutzt werden, das nach und nach aus der Community der Designer hervorgeht. Das Web-API-Tagging weist einige besondere Aspekte auf, die in diesem Whitepaper analysiert werden. Auf der anderen Seite sind Folksonomien Web 2.0-Werkzeuge zur Konzeptualisierung von Wissen, das von unten her entsteht. In diesem Whitepaper diskutieren wir die Übernahme von Folksonomy-Konzepten bei der Modellierung der Web-API-Nutzung für die Mashup-Entwicklung. Wir motivieren in diesem Zusammenhang die Übernahme von Folksonomien und stellen die Unterschiede zu anderen Modellen dar, die sehr nahe Informationen darstellen. Unser Folksonomy-Modell soll vollständig mit bestehenden und häufig verwendeten öffentlichen Web-API-Repositorys kompatibel sein. Es soll sie nicht ersetzen, sondern ihren Inhalt ergänzen, um erweiterte Web-API-Suchfunktionen in einer solchen kollaborativen Umgebung zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45563-0_31 fe8e8d0a9420c09dadb4d90d1ecbc49c;de;;;7.3.;;;Eine generische Web-Cache-Infrastruktur zur Bereitstellung vielfältiger Umweltdaten Als Basis für die effiziente Datenversorgung für Webportale, webbasierte und mobile Anwendungen mehrerer deutscher Umweltbehörden wird eine Microservice-basierte Infrastruktur eingesetzt. Es besteht aus einem generischen Datenmodell und einer Reihe von entsprechenden generischen Diensten, z.B. für die Bereitstellung von Stammdaten, Metriken, Geodaten, digitalen Assets, Metadaten und deren Verknüpfungen. Die Hauptziele sind die effiziente Bereitstellung von Daten sowie die Nutzung derselben Daten durch verschiedenste Anwendungen. Zudem sollen die eingesetzten Technologien und Dienste eine Datenbereitstellung als offene (Staats-)Daten oder als verknüpfte Daten im Sinne des Semantic Web ermöglichen. In einer ersten Version werden diese Dienste ausschließlich für den lesenden Zugriff auf die Daten verwendet. Dazu werden die Daten in der Regel aus ihren Ursprungssystemen extrahiert, ggf. aufbereitet und anschließend redundant in leistungsfähigen Backend-Systemen („Web Cache“) gespeichert. Generische Microservices stellen einheitliche REST-Schnittstellen für den Zugriff auf die Daten bereit. Jeder Dienst kann verschiedene Backend-Systeme verwenden, die über Adapter verbunden sind. Auf diese Weise können verbrauchende Komponenten wie Frontend-Module in einem Webportal über stabile Schnittstellen transparent auf verschiedene Backend-Systeme zugreifen, die somit für jede Anwendung optimal ausgewählt werden können. Eine Reihe von Tools und Workflows sorgen für die Aktualisierung und Konsistenz der Daten im Web Cache. Microservices und Backend-Systeme werden auf Basis der Container-Virtualisierung mit flexiblen Cloud-Infrastrukturen betrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-89935-0_30 76c0005a52e6c17d538c3a94c320ef30;de;;;7.3.;;;Verwenden Sie Animationen auf Ihren Webseiten? Die Teilnahme an der Internet-Revolution wird heutzutage für viele Unternehmen zu strategischen Plänen und Maßnahmen. Wie Sudweeks und Romm weiter oben in diesem Buch hervorgehoben haben, sind die Planung und Gestaltung von Unternehmensstrategien, die Entwicklung von Marketingstrategien für das Internet, die Rationalisierung des Informationsflusses in Unternehmen, die auf dem Internet (Intranet) basieren, und die Entwicklung internetbasierter Netzwerkstrategien mit Lieferanten und Kunden, sind wichtige Themen, denen sich Unternehmen stellen müssen. Die Front, die all diese Strategien und Aktionen umsetzt, ist jedoch die Web-Benutzeroberfläche oder die Webseiten, die die Unternehmen den Zuschauern und Kunden zur Interaktion bereitstellen. Web-Interface-Designs sind für Unternehmen ebenso entscheidend, um in der Internet-Revolution erfolgreich zu sein. Es gibt viele Aspekte des Web-Interface-Designs, die erforscht werden müssen (siehe beispielsweise Nielsen, 1999, Zhang et al., 1999). Eine der Überlegungen zum Web-Interface-Design ist die Verwendung von Animationen auf Webseiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0561-9_4 68dd7a5acf498de8100db71db28ff7c8;de;;;7.3.;;;RED+ Gateways zur Identifizierung und Diskriminierung unfreundlicher Best-Effort-Flows im Internet Dieses Papier schlägt ein Add-on zum bekannten RED (Random Early Detection) Algorithmus namens RED+ vor. RED+ fügt den RED-Gateways die Funktionalität zum Identifizieren und Unterscheiden von unfreundlichen Best-Effort-Flows mit hoher Bandbreite hinzu. Sie basiert auf der Beobachtung, dass unfreundliche Ströme in Stauzeiten höhere Ankunftsraten aufweisen als freundliche Ströme. Daher können unfreundliche Flüsse unterschieden werden, wenn Pakete, die an einem Router-Ausgangsport ankommen, als Funktion der durchschnittlichen Warteschlangengröße von RED und der Ankunftsrate des Paketflusses verworfen werden. RED+ ist hinsichtlich der in Routern gespeicherten Daten pro Fluss skalierbar, da es nur den n Flüssen mit der höchsten Bandbreite den Status pro Fluss zuweist, wobei n ein konfigurierbarer Parameter ist. Wie durch Simulationen gezeigt, ist RED+ in der Lage, nicht reagierende Ströme zu erkennen und zu unterscheiden, um Probleme der Ungerechtigkeit und des Zusammenbruchs von Staus zu vermeiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35579-5_3 baa0e21e6234762ea5ad51c9cedc846c;de;;;7.3.;;;Die Geschichte des Internets: Zwischen utopischem Widerstand und neoliberaler Regierung Mit dem Internet ist ein digital erweiterter Teil der Realität entstanden. Diese Erweiterung der Realität hat soziale Implikationen. Im Zuge der Entwicklung des Internets seit Ende der 1950er Jahre und des zunehmenden Wachstums des Internets seit Ende der 1960er Jahre wird die gesellschaftliche Bedeutung des Internets diskutiert. Die gesellschaftliche Bedeutung des Internets verschiebt sich dabei ständig zwischen den Polen von utopischem Widerstand und neoliberaler Regierung. Mit einem genealogischen und sozio-semiotischen Ansatz rekonstruiert das Kapitel die Diskussion um die diskursive Bedeutung des Internets und der digitalen Technologie im Verlauf der Internetgeschichte.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-319-56988-8_13 4cc9da20ca830afc5403cebe1af36f06;de;;;7.3.;;;E-Government-Nutzung durch polnische Staatsbürger Ziel dieses Artikels ist es, Ergebnisse der Forschung zum Stand der Nutzung grundlegender E-Government-Manifestationen durch einzelne Nutzer in Polen im Jahr 2017 vorzustellen. Der Artikel präsentiert die Ergebnisse der Forschung zu Popularität, Nutzung und Einfluss von E-Government-Funktionen, die ihre Anwendung in der Realität unterstützen. Siebzehn zentrale E-Government-Funktionen, die bei den Befragten am beliebtesten sind, wurden auf der Grundlage einer vorherigen Konsultation als Grundlage für die folgende Analyse ausgewählt. Die Autoren führten die CAWI-Analyse durch, um die herausragenden E-Government-Funktionen an einer ausgewählten Stichprobe von Universitätsstudenten zu bewerten. Untersucht wurde eine Gruppe von über 250 zufällig ausgewählten Personen aus dem universitären Umfeld. Dieser Ansatz wurde durch den Aufbau des Artikels geleitet, der aus der Darstellung der Forschungshypothese, der Beschreibung der Methodik und der Forschungsstichprobe sowie der Analyse der erhaltenen Ergebnisse und deren Diskussion zusammen mit den Schlussfolgerungen bestand. Die wichtigsten Ergebnisse dieser Forschung stehen im Einklang mit anderen in Polen durchgeführten Forschungen im Bereich E-Government. Die Ergebnisse von 35 % der Nutzung von E-Government-Systemen sind ähnlich wie bei 31–33 % in anderen Studien. Die Untersuchung belegt, dass das Niveau der elektronischen Dienstleistungen im E-Government-Bereich in Polen deutlich niedriger ist als in den meisten europäischen Ländern. Die beliebteste Nutzung digitaler Dienste wird zu Steuerzwecken verwendet. Im sozialen Bereich (Kultur, öffentliche Meinung, öffentliche Gesundheitsdienste usw.) ist jedoch eine gewisse Wiederbelebung zu verzeichnen, das Grundproblem bei der Nutzung von E-Government-Diensten ist die fehlende Möglichkeit, die gesamte Angelegenheit von Anfang bis Ende über das Internet abzuwickeln . Die Ergebnisse können von Personen genutzt werden, die an der Erstellung und Entwicklung von E-Government-Systemen beteiligt sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-77721-4_6 ce777bdc6a44802a6d1fd191fb817c3c;de;;;7.3.;;;3D-Modell und Motion Retrieval: Die erweiterten Dimensionen für webbasiertes Lernen Traditionell konzentrieren sich webbasierte Lerntechniken auf die umfassende Nutzung multimedialer Daten wie Bilder, Videos und Audios. In diesem Papier validieren wir 3D-Modell und Motion Retrieval als Teil der E-Learning-Architektur. Als erste Lösungen für diese Probleme werden neue Ansätze vorgeschlagen, einschließlich eines neuartigen Formdeskriptors für beliebige 3D-Polygonmodelle. Vorversuche zeigen, wie vielversprechend unsere Methoden sind, mit möglichen Anwendungen in der digitalen Bibliothek, interaktivem Lernen usw.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45200-3_22 0adfeaf43760a7885aa361a177de6454;de;;;7.3.;;;"Vertrauen, Ethik und Sozialkapital im Internet: Eine empirische Studie zwischen Japan, USA und Singapur Sozialkapital wird in der Wissensgesellschaft immer wichtiger. Die meisten Studien zu den Phänomenen, die als Sozialkapital gelten, haben sich in der Tradition der Schriften von Robert Putnam hauptsächlich auf das konzentriert, was als Sozialkapital der Zivilgesellschaft in der realen Welt bezeichnet werden kann – außerhalb der virtuellen Welt, also der Internet-Community. Dieser Beitrag versucht, die Bedeutung von Vertrauen als Element des Sozialkapitals zu verdeutlichen, das die Ethik der Internet-Community mit theoretischen und empirischen Ansätzen in Beziehung setzt. Die Ergebnisse deuten darauf hin, dass Studien zum Vertrauen in Bezug auf das Internet in zwei Dimensionen positioniert werden können – „Studien zum Systemvertrauen (insbesondere Vertrauen in die Systeminfrastruktur) – Studien zum Persönlichkeitsvertrauen“ und „Studien mit Risikomanagementansatz – Studien mit Vertrauen“ Management-Ansatz."" Generalisiertes Vertrauen hat bedeutende Beziehungen mit Gegenseitigkeit, menschlicher Interaktion und Kooperation im Internet. Ethik korreliert jedoch nicht einfach mit Vertrauen.";-;-;-;https://link.springer.com/chapter/10.1007/11893011_9 1e7c98e947a8f9312d765fc636eda85a;de;;;7.3.;;;Ältere Erwachsene sehen die Peripherie bei einer Website-Aufgabe nicht Augenbewegungsmängel sind altersbedingt und neigen dazu, in ablenkenden Gesichtsfeldern, im nützlichen Sichtfeld (UFoV) und wenn sich Informationen in der Peripherie befinden, zuzunehmen. Trotz bekannter altersbedingter Unterschiede in der Augenbewegung gibt es nur begrenzte empirische Studien darüber, wie ältere Erwachsene Websites ansehen. Das Studium der Augenbewegung während der Interaktion mit Websites ist für das Studium der UFoV-Theorie von Vorteil, da Websites typischerweise komplex sind und sich wichtige Navigationselemente in der Peripherie befinden. Mit nicht-invasivem Eye-Tracking wurden Augenbewegungsmuster bei jungen, mittleren und älteren Erwachsenen untersucht, während sie anfänglich mit einer typischen Website interagierten (d. h. Standardnavigation oben und links). Ältere Erwachsene schauten im Vergleich zu jungen Erwachsenen seltener auf periphere Teile des Bildschirms, wobei die linke und obere Navigation die größten altersbedingten Unterschiede aufwies. Altersbedingte Unterschiede in der Augenbewegung traten während der ersten 10 s auf und waren unabhängig von Interneterfahrungen, was darauf hindeutet, dass Unterschiede in der Augenbewegung bei der Interaktion mit Websites mit dem Altern inhärent sind. Die Ergebnisse zeigen altersbedingte Unterschiede in der Augenbewegung während einer Website-Aufgabe. Diese angewandten, experimentellen Ergebnisse unterstützen direkt die kognitive UFoV-Theorie in einer realen Umgebung.;-;-;-;https://link.springer.com/article/10.1007/s10209-014-0382-z 204fcda0dfffec24049854d61c6a8282;de;;;7.3.;;;Zum Datenschutz der Websuche basierend auf Abfrageverschleierung: Eine Fallstudie zu TrackMeNot Die Websuche ist heute eine der am schnellsten wachsenden Anwendungen im Internet. Die derzeitige Praxis der meisten Suchmaschinen – das Protokollieren und Analysieren von Benutzeranfragen – wirft jedoch ernsthafte Datenschutzbedenken auf. Eine praktikable Lösung für die Suche nach Privatsphäre ist;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14527-8_2 c1544682412132ef3f202b6bf4fdbb5b;de;;;7.3.;;;Verständnis der webbasierten beruflichen Entwicklung in der Bildung: Die Rolle von Einstellungen und Selbstwirksamkeit bei der Vorhersage der Technologie-Lehr-Integration von Lehrern Es gibt eine große Anzahl von Studien zur Technologieintegration von Grundschullehrern und ihrer webbasierten beruflichen Entwicklung, Selbstwirksamkeit und Einstellungen. Es gibt jedoch nur wenige Untersuchungen, die die Auswirkungen von Selbstwirksamkeit und Einstellungen zur beruflichen Entwicklung auf die Absicht von Lehrern untersuchen, Technologien in ihre Unterrichtsaktivitäten zu integrieren. Anhand einer Stichprobe von 368 Grundschullehrern untersuchen wir empirisch, wie sich die Technologieintegration von Lehrern auf ihre Selbstwirksamkeit und Einstellung zur webbasierten Weiterbildung auswirkt. Faktorenanalyse, Korrelationsanalyse und schrittweise Regression wurden in dieser Studie verwendet. Die Ergebnisse zeigen, dass die Selbstwirksamkeit von Grundschullehrern und ihre Einstellung zur webbasierten beruflichen Weiterbildung wichtige Prädiktoren für ihre Wahrnehmung der Integration von Technologie in ihren Unterricht sind. Die Ergebnisse deuten darauf hin, dass die Verbesserung des Lernverhaltens von Grundschullehrern und die Förderung ihrer Selbstwirksamkeit der Absicht förderlich sind, Technologie in ihre Unterrichtsaktivitäten zu integrieren, was die Unterrichtseffektivität mit Hilfe webbasierter Technologien stärken kann. Darüber hinaus können Interneterfahrungen Lehrern helfen, sich ihrer eigenen Fähigkeit zur Teilnahme an webbasierten Fortbildungsprogrammen von Lehrern sicher zu sein, und sie werden zu positiveren Lehrkonzepten der Technologieintegration führen.;-;-;-;https://link.springer.com/article/10.1007/s40299-019-00493-x a62aef27de7bd36b74524dba1cb8e34d;de;;;7.3.;;;Überlastungskontrollmechanismen für Webserver Aufgrund des extremen Burst-Charakters des Internetverkehrs, beliebter Online-Ereignisse oder böswilliger Angriffe sind Webserver häufig überlastet. Solche Überlastungssituationen beeinträchtigen die Leistung erheblich und können zu Einnahmeverlusten führen, wie von den jüngsten Denial-of-Service-Angriffen berichtet. Überlastungssteuerungsschemata sind in Telekommunikationssystemen gut erforscht und verstanden. Allerdings ist deren Einsatz in Webservern derzeit sehr eingeschränkt. Unser Fokus in diesem Papier liegt darauf, effektive Mechanismen zur Überlastkontrolle für Webserver vorzuschlagen. Ein wichtiger Aspekt bei der Überlastkontrolle ist die Minimierung der Arbeit, die für eine Anforderung aufgewendet wird, die schließlich aufgrund von Überlast nicht bedient wird. Dieses Papier untersucht drei einfache Schemata zur effektiven Kontrolle der Last. Das erste Schema verwirft selektiv eingehende Anforderungen, wenn sie am Server ankommen, unter Verwendung einer intelligenten Netzwerkschnittstellenkarte (NIC). Das zweite Schema liefert Feedback an einen vorherigen Knoten (Proxyserver oder ultimativer Client), um eine Lückensteuerung zu ermöglichen, die die angebotene Last bei Überlast reduziert. Das dritte Schema ist einfach eine Kombination aus beiden. Die experimentellen Ergebnisse zeigen, dass selbst diese einfachen Schemata den Durchsatz des Webservers um 40 % und die Antwortzeit um 70 % bei starker Überlastung verbessern, verglichen mit dem Fall ohne Überlastkontrolle.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0705-7_13 691cff8585c469d183871242983f5998;de;;;7.3.;;;Qualitätsanforderungen der IT-Infrastruktur in modernen Labors für Erdbebeningenieurwesen Das Papier präsentiert einige Ideen zu den Qualitätsanforderungen an die Infrastruktur der Informationstechnologie (IT) als Teil der Ausrüstung, die in modernen Labors für Erdbebeningenieurwesen erforderlich ist. Angesichts der Größe und der Dienstleistungen, die heute von fortschrittlichen Prüflabors für Erdbebentechnik und seismisches Risikomanagement angeboten werden, stehen viele Arten von IT-Lösungen zur Verfügung. Darüber hinaus gibt es eine Vielzahl von Prüfungen hinsichtlich Probengewicht und/oder Geometrie, die den Einsatz einer speziellen IT-Infrastruktur und entsprechender Geräte erfordern. Aus Sicht der Qualitätsanforderungen an die spezifische Ausstattung der IT-Infrastruktur sind drei unterschiedliche Anwendungsbereiche zu betrachten: die Steuerung von Versuchsplattformen, die Datenerfassungsnetze zur Erfassung von Versuchsdaten und die für die Simulation der Versuche notwendige Rechenleistung power und die Nachbearbeitung experimenteller Daten. Nach der Präsentation der vergleichenden Analysen des IT-Infrastrukturbedarfs in Earthquake Engineering-Labors weltweit werden einige verteilte Muster im Zusammenhang mit der aufkommenden IT-Infrastruktur analysiert. Einige Qualitätsanforderungen für bestimmte spezifische IT-Komponenten werden ebenfalls identifiziert. Auch die Fragen, die sich aus den unterschiedlichen Bedingungen und Bedürfnissen zwischen den verschiedenen Ländern, in denen zukünftige Labore angesiedelt sein könnten, ergeben, werden angesprochen, dazu werden die verschiedenen Qualitätsanforderungen von Standards aus den USA und Europa hervorgehoben, die die üblichen Qualitätsanforderungen fortgeschrittener Laboratorien für Erdbebeningenieurwesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-1977-4_10 c6cf47adc155104673a983fbfc6bc28c;de;;;3.4.;;;Fütterung der Dinosaurier: Wirtschaftliche Konzentration im Buchhandel Während Buchhandlungen die entscheidende Rolle im Buchvertrieb spielen, wurde der Konzentration und dem Konglomeratbesitz im Buchhandel wenig Aufmerksamkeit geschenkt. 1958 entfielen fast 80 Prozent der Buchverkäufe auf die Buchhandlungen in einem einzigen Geschäft, 1982 waren es 26 Prozent, obwohl die Einzelhändler nach wie vor die Mehrheit aller Buchhandlungen ausmachen. Heute kontrollieren die Ketten mindestens 54 Prozent des Buchhandelsumsatzes. Beflügelt durch diskriminierende Rabatte und verlegersubventionierte Werbekampagnen dürfte sich das dramatische Wachstum der Ketten fortsetzen, obwohl sie weniger profitabel sind als unabhängige Buchhändler. Die Marketingausrichtung der Ketten passt gut zu den Veränderungen in der breiteren Verlagsbranche, da Verlage versuchen, ihre Abläufe zu rationalisieren, um das Endergebnis zu verbessern. Da Bücher nur noch eine weitere Ware werden, die über zunehmend zentralisierte und monopolisierte Kanäle verkauft wird, wird der Zugang für alternative Stimmen und Minderheiten versperrt.;-;-;-;https://link.springer.com/article/10.1007/s12109-997-0006-z 99234701fc4fc9c518158f42714a6e3a;de;;;7.3.;;;Einflussfaktoren auf die Einführung von E-Payment-Systemen: eine empirische Studie zu iranischen Kunden Die Internettechnologie hat die Bankensysteme aufgrund ihrer Fähigkeit beeinflusst, die Leistung von Finanzoperationen zu verbessern. Ein wichtiges Anliegen von Internet-Banking-Systemen ist die Wahrnehmung von Sicherheit und Vertrauen der Kunden. Diese Studie präsentiert eine experimentelle Untersuchung zu wichtigen Einflussfaktoren auf das Vertrauen in E-Payment-Systeme im Iran. Eine Reihe potenziell bestimmender Vertrauensfaktoren wird entwickelt und in drei Hauptgruppen unterteilt: technische und Transaktionsverfahren, Zugang zu Sicherheitsrichtlinien und Benutzerfreundlichkeit. Die direkte Wirkung der Faktoren auf das wahrgenommene Vertrauen sowie ihre indirekte Wirkung durch die wahrgenommene Sicherheit wird in einer empirischen Studie evaluiert. Die Daten werden von Kunden mehrerer iranischer Banken erhoben. Es zeigt sich, dass sich sowohl die wahrgenommene Sicherheit als auch das Vertrauen positiv auf die Nutzung von E-Payment-Systemen auswirken. Die Ergebnisse bestehen darauf, dass technische und Transaktionsverfahren sowie der Zugang zu Sicherheitsrichtlinien die einflussreichsten Faktoren auf das wahrgenommene Vertrauen der Kunden sind. Die Ergebnisse werden weiter mit Ergebnissen ähnlicher neuerer Studien verglichen. Die Ergebnisse bieten Entscheidungsträgern einen Leitfaden, um geeignete Lösungen zu entwickeln, die die Einführung von E-Payment-Systemen fördern können.;-;-;-;https://link.springer.com/article/10.1007/s10257-016-0311-1 1d2ae2e03502d1a0c2eb108cf38258ca;de;;;7.3.;;;Verbesserung der Suchmaschinenschnittstellen für blinde Benutzer: eine Fallstudie Dieser Artikel beschreibt ein Forschungsprojekt, das darauf abzielt, die Benutzerfreundlichkeit von Suchmaschinen für blinde Personen zu verbessern, die assistierende Technologien verwenden, um im Web zu navigieren. Zu Beginn dieser Forschung wurde eine Vorstudie zur Zugänglichkeit und Benutzerfreundlichkeit von Suchwerkzeugen durchgeführt und acht Leitlinien zur Gestaltung von Suchmaschinen-Benutzeroberflächen formuliert. Anschließend wurden die abgeleiteten Richtlinien bei der Modifikation des Quellcodes der Google-Benutzeroberfläche unter Beibehaltung des gleichen Look-and-Feel angewendet, um zu zeigen, dass es mit sehr geringem Aufwand möglich ist, die Interaktion für blinde Personen einfacher, effizienter und weniger frustrierend zu gestalten . Nach einem allgemeinen Überblick über das Projekt konzentriert sich der Beitrag auf Schnittstellendesign und -implementierung.;-;-;-;https://link.springer.com/article/10.1007/s10209-006-0022-3 be2c6038469713e133a80974945f9df2;de;;;7.3.;;;Ein Denial-of-Service-Angriff auf GSM-Netze über das Attach-Verfahren Mobilfunknetzbetreiber (MNOs) behalten mit dem Subscriber Identity Module (SIM) eine strenge Kontrolle über die Benutzer, die auf die Netze zugreifen. Dieses Modul gewährt dem Benutzer Zugriff auf das Netzwerk, indem es die Registrierung und Authentifizierung des Benutzergeräts durchführt. Ohne ein gültiges Subscribe IdentityModule (SIM)-Modul und eine erfolgreiche Authentifizierung wird mobilen Geräten kein Zugriff gewährt und sie dürfen daher keinen Datenverkehr in die mobile Infrastruktur einspeisen. Dennoch beschreiben wir in diesem Papier einen Angriff auf die Sicherheit eines Mobilfunknetzes, der es einem nicht authentifizierten bösartigen Mobilgerät ermöglicht, Datenverkehr in die Infrastruktur des Mobilfunkbetreibers einzuschleusen. Wir zeigen, dass es auch mit Geräten ohne SIM-Modul möglich ist, ein hohes Signalisierungsaufkommen in die Mobilfunkinfrastruktur einzuschleusen, was zu einer erheblichen Servicedegradation bis hin zu einem vollwertigen Denial of Service (DoS) Angriff führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40588-4_25 7a95213386e8d7f40258e0d84ff9765b;de;;;7.3.;;;Umweltberichterstattung für globale Hochschulen über das World Wide Web Die freiwillige Umweltberichterstattung über die im Hinblick auf die politischen Ziele erzielten Fortschritte ist ein sich abzeichnender Trend in Industrie und Wirtschaft und wird als wertvolle Hilfe bei der Umsetzung politischer Maßnahmen und der Verbesserung von Umweltmanagementsystemen anerkannt. Die Umweltberichterstattung in Großbritannien umfasst eine ganze Reihe von Formaten, darunter PERI, GEMI, WICE und EMAS, wobei letzteres insbesondere darauf abzielt, das Niveau der Umweltverantwortung zu verbessern und den Fluss von Umweltinformationen an das Publikum sowohl intern als auch extern zu erhöhen . Hochschulen weltweit haben in dieser Hinsicht nur langsam reagiert, und sie können viel aus der Umweltberichterstattung der Unternehmen lernen. Eine Umweltpolitik ist kein ausreichender Beweis für ihr Engagement für diejenigen Institutionen, die die globale Talloires-Erklärung oder die europäische COPERNICUS-Charta unterzeichnet haben: Nachweisbare Fortschritte bei der Umsetzung der Politik sind unerlässlich. Die von den Hochschulen eingeführten oder geschaffenen Umweltmanagementsysteme und die Art und Weise, wie ihre Umweltinformationen zusammengetragen werden, sind von großer Bedeutung, aber die Wahl des Mediums für den Bericht ist vielleicht einer der wichtigsten Aspekte, die es zu berücksichtigen gilt. Einrichtungen wie die University of Sunderland, UK, die das World Wide Web nutzen, konnten auf Anfrage einen flexiblen, hypertextgebundenen Dienst mit eingebauten Feedback-Mechanismen erstellen, der vielfältige, aktuelle, umfassende und gut strukturierte Umwelt Informationen, die an externe proaktive Institutionen und Agenturen ausgeschildert sind. Diese Berichte haben einen einzigartigen pädagogischen Blickwinkel und zeigen Verbindungen und Netzwerke auf, die in ihrem Umfang und ihrer Wirkung von Natur aus weitreichender und weitreichender sind und einen entscheidenden Weg für eine praktische und nachhaltige Umweltberichterstattung bis ins Jahrtausend ebnen könnten.;-;-;-;https://link.springer.com/article/10.1023/A%3A1018524722033 6d41a985d588e6e1ab0c39b619a20b1c;de;;;7.3.;;;Die Auswirkungen von Eigenschaften von sozialen Netzwerken auf die Beschleunigung von Modeinformationen im Web Diese Studie zielt darauf ab, die Akzeptanz von Mundpropaganda-Informationen zu untersuchen, die derzeit zwischen Verbrauchern in der Internet-Mode-Community verbreitet werden. Insbesondere schlagen wir die in der Internet-Modeinformationsgemeinschaft gebildeten Netzwerkmerkmale als Einflussgrößen auf die Akzeptanz von Mundpropaganda vor und analysieren empirisch die tatsächlichen Effekte. Dazu haben wir zunächst eine soziale Netzwerkanalyse durchgeführt und die Merkmale der Netzwerkverbreitungsmuster untersucht, bei denen Modeinformationen zwischen den Community-Mitgliedern ausgetauscht werden. Anschließend haben wir die Netzwerkvariablen als Einflussfaktor für die Akzeptanz von Modeinformationen im Internet aufgestellt und unter Einbeziehung dieser Variablen einen Signifikanztest zum Einfluss der Informationseigenschaften und einzelner Merkmalsvariablen durchgeführt. Im Hinblick auf die Eigenschaften des Fashion-Community-Netzwerks werden Modeinformationen daher intensiv von wenigen Informationsaktivisten produziert, die sich auf Fashion-Informationen innerhalb der Community konzentrieren und viele Informationsakzeptoren beeinflussen. Darüber hinaus haben wir als Ergebnis der Hypothesenprüfung zu den Einflussfaktoren auf die Akzeptanz der Modeinformation festgestellt, dass die Informationseigenschaften, einzelne Kenngrößen sowie Netzwerkkenngrößen einen signifikanten Einfluss auf die verbale Akzeptanz haben, was die Bedeutung der Netzwerkkenngrößen bei der Untersuchung von Mundpropaganda im Internet.;-;-;-;https://link.springer.com/article/10.1007/s11042-012-1068-2 9886ef2cb0cfc5d3d056104bf4dc2970;de;;;7.3.;;;Ein Framework für die Wissenssuche für kollaborative Netzwerke Partner in einem kollaborativen Netzwerk (CN) müssen interagieren und ihr Wissen teilen. Dieses Papier konzentriert sich darauf, wie das in diesen Interaktionen ausgetauschte Wissen von CN-Partnern durch ein Wissenssuch-Framework einfach und präzise erreicht werden kann. Um die Suchpräzision zu verbessern, werden Ontologien verwendet, um Metadaten (semantische Annotationen) zu Dokumenten hinzuzufügen sowie semantische Abfragen zu unterstützen. Dieses Dokument befasst sich auch mit den CN-bezogenen Anforderungen, die von aktuellen Lösungen zum Abrufen von Informationen nicht abgedeckt werden, wie zum Beispiel die Aufrechterhaltung der Konsistenz von Anmerkungen, die Verwaltung mehrerer Ontologien, die Verwaltung der Ontologie-Zuordnungen und Sicherheitsprobleme. Der vorgeschlagene Rahmen wird im Rahmen des ECOLEAD-Projekts als Teil einer breiteren IKT-Infrastruktur zur Unterstützung von KN entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-73798-0_62 ce0fbedc104458a676d155dc68a73951;de;;;7.3.;;;Eine Studie über das Indexsystem zur Bewertung des Finanzzinsrisikos im Internet im Kontext von Cloud Computing Cloud Computing ist ein Produkt von Computertechnologien in Kombination mit Netzwerktechnologien und wird in China weit verbreitet eingesetzt. Experten und Wissenschaftler in allen Bereichen beginnen mit der Erstellung vieler Studien zum Aufbau von Cloud-Computing-Infrastrukturen und zur effektiven Ressourcennutzung. Mit der Verbesserung der Cloud-Computing-Technologie (insbesondere der Sicherheitstechnologie) wird die Internetfinanzierung weit verbreitet sein und sich schnell entwickeln. ITFIN (Internet Finance) ist das Ergebnis einer umfassenden Kombination von Finanzen mit Netzwerktechnologie und auch einer neuen ökologischen Finanzierung, die in dieser Internet-Ära gärt. In ITFIN integriert es Online-Transaktionsdatengenerierung in verschiedenen sozialen Netzwerken, untersucht und beurteilt die Kreditwürdigkeit von Kunden und vervollständigt Kreditkonsum, Kredit- und anderes Kreditaufnahmeverhalten durch E-Payment, damit Menschen Finanzdienstleistungen bei der Bewältigung verschiedener Probleme genießen können. Eine Person kann jedoch unterschiedliche Identitäten im Netzwerk spielen, was eine ernsthafte Herausforderung für die ITFIN-Netzwerksicherheit darstellt und das Risiko einschließlich des Betriebsrisikos, des Marktauswahlrisikos und anderer Geschäftsrisiken sowie des Netzwerk- und Informationssicherheitsrisikos stark erhöht hat. Daher ist es ein wirksamer technologischer Ansatz und eine praktikable Maßnahme, um ITFIN-Risiken zu verhindern oder zu beseitigen, indem ein zuverlässiges, vernünftiges und wirksames ITFIN-Risikobewertungsmodell erstellt wird. Dieses Papier führte theoretische und empirische Analysen durch, konstruierte dann ein Bewertungsmodell für Chinas ITFIN-Risiko, das Grobsatz und PSO-SVM (Particle Swarm Optimization Support Vector Machine) integriert, und verwendete dieses Modell schließlich in Chinas ITFIN-Risikobewertung. Die empirischen Forschungsergebnisse zeigen, dass , durch die Einführung der Grobmengentheorie, könnte sie redundante Dateninformationen effektiv reduzieren, ein zuverlässiges, vernünftiges und wissenschaftliches Modell garantieren und die Klassifizierungswirkung des Modells verbessern Verbesserung der Wirkung des Klassifikationsmodells, dieses Modell hat eine gute Generalisierungsfähigkeit und Lernfähigkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49109-7_77 5fdd8aac2651f3e7af814a19f57478b2;de;;;7.3.;;;Sprachübergreifende Informationsextraktion Wissensanpassung Wir schlagen ein Framework vor, um einen zuvor gelernten Wrapper von einer Quellwebsite an unsichtbare Sites anzupassen, die in verschiedenen Sprachen geschrieben sind. Die Idee unseres Frameworks besteht darin, das zuvor erlernte Wissen zur Informationsextraktion und die zuvor extrahierten oder gesammelten Elemente in der Quellwebsite zu nutzen. Dieses Wissen und diese Daten werden über Online-Webressourcen wie Online-Webwörterbücher oder Karten automatisch in dieselbe Sprache wie die unsichtbaren Sites übersetzt. Mehrere Text-Mining-Methoden werden verwendet, um automatisch einige maschinenbeschriftete Trainingsbeispiele in der unsichtbaren Site zu entdecken. Sowohl inhaltsorientierte Funktionen als auch Site-abhängige Funktionen der maschinenbeschrifteten Schulungsbeispiele werden zum Erlernen des neuen Wrappers für die neue unsichtbare Site unter Verwendung unserer sprachunabhängigen Wrapper-Induktionskomponente verwendet. Wir haben Experimente auf einigen realen Websites in verschiedenen Sprachen durchgeführt, um die Wirksamkeit unseres Frameworks zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02962-2_66 a977dedbc961439293f9a4bc4fafebf2;de;;;3.4.;;;Alternative Interoperabilität zwischen BPMn und Projektmanagement-Tools Dieser Artikel präsentiert den Machbarkeitsnachweis einer vorgeschlagenen Architektur, die den Aufbau einer Umgebung ermöglicht, um die Aktivitäten der Planung, Überwachung und Steuerung eines Projekts zu automatisieren, ausgehend von der Integration von Workflow-Tools und der Projektplanung. Um die Architektur zu validieren, wurde sie auf dem Intalio-Tool als Workflow und Open Project als Planungstool implementiert, wobei die erste als Geschäftsprozessmanagement-Plattform die kohärente Integration der Prozessaufgaben bis hin zur Aktualisierung des Planungstools in der Realität ermöglicht Zeit. Die vorgeschlagene Integration ermöglicht es, eine Wissensdatenbank zu speisen, aus der das System automatisch einen neuen Zeitplan für die anstehenden Aktivitäten vorschlägt, entsprechend dem tatsächlichen Fortschritt des Projekts. Dies erleichtert dem Projektleiter die Visualisierung des realen Arbeitsfortschritts, das optimale Management der Zeitressourcen und die rechtzeitige Entscheidungsfindung, die zur Erreichung der Ziele führt, was mit einer Wissensmanagement-Basis eine Unterstützung für die Verwaltung zukünftiger verwandter und/oder ähnlicher Projekte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-95204-8_39 09e4ff982e9a0eb02d58d59f68c1c371;de;;;7.3.;;;Eine optimierte Crawling-Technik zur Pflege frischer Repositorys Mit der rasant steigenden Nachfrage nach digitalen Informationen über das Internet wird es für Suchmaschinen unabdingbar, aktuelle Informationen als Reaktion auf Benutzeranfragen bereitzustellen. Ein Webcrawler spielt eine wichtige Rolle bei der Pflege des lokalen Caches der Suchmaschine. Heutzutage besteht die größte Herausforderung für Webcrawler darin, neue Informationen in ihrem lokalen Cache von . zu nutzen;-;-;-;https://link.springer.com/article/10.1007/s11042-020-10250-8 d945337a4bfb6045c86594c61e94f6b0;de;;;7.3.;;;Verwenden von NLP-spezifischen Tools für Nicht-NLP-spezifische Aufgaben. Eine Web-Sicherheitsanwendung In diesem Whitepaper betrachten wir die Aufgabe, URLs zu erkennen, die infizierten Webseiten entsprechen, indem wir spezifische Funktionen für Machine Learning und Natural Language Processing verwenden. Wir zeigen, dass diese Funktionen eine bessere Leistung erbringen als die zuvor verwendeten handgefertigten;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-26561-2_74 3d8da995b013eab7bdcee5f5dd159526;de;;;7.3.;;;Der Demografische Atlas von Kroatien – Ein webbasiertes Atlas-Informationssystem Demografische Daten sind für die Entwicklung jedes Landes von entscheidender Bedeutung. In Kroatien, einem postsozialistischen Reformstaat, der kurz vor dem Beitritt zur Europäischen Union steht, sind grundlegende und aktuelle Informationen zu Bevölkerung, Wirtschaft oder Umwelt sowohl der wissenschaftlichen Gemeinschaft als auch der breiten Öffentlichkeit oft nicht ohne weiteres zugänglich. Um diese Informationslücke zu schließen, entwickelt eine Gruppe kroatischer und deutscher Geowissenschaftler gemeinsam den Demographischen Atlas Kroatiens (DACIS). DACIS ist als webbasiertes demografisches Atlas-Informationssystem implementiert, das grundlegende Informationen zu Strukturen, Zusammensetzung, Verteilung, natürlichen und räumlichen Entwicklungen und Trends der kroatischen Bevölkerung seit der Unabhängigkeit von Jugoslawien im Jahr 1991 liefert als Entscheidungsträger in Politik und Wirtschaft wird der elektronische Webatlas durch einen klassischen Buchband ergänzt. Durch die Darstellung in leicht verständlichen Karten möchte DACIS das Interesse eines kroatischen sowie internationalen Publikums für die demografischen Grundlagen und regionalen Entwicklungen des Landes wecken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03294-3_22 9f3b20e237a6e54eaa96d884487ba8f3;de;;;7.3.;;;Maximale Rooted Spanning Trees für das Web Dieser Artikel konzentriert sich auf das Finden von Maximum Rooted Spanning Trees (MRSTs) für die strukturierte Websuche einschließlich Hop-Constraints. Wir beschreiben die Bedeutung der strukturierten Websuche und entwickeln zwei binäre ganzzahlige lineare Programmiermodelle, um den besten MRST zu finden. Neue Methoden zur Messung der Relevanz zwischen Webobjekten werden entwickelt und für die strukturierte Websuche verwendet. Einige Fallstudien werden mit echten Websites durchgeführt und über die Ergebnisse berichtet.;-;-;-;https://link.springer.com/chapter/10.1007/11915072_94 352453b54bb234cbe8d7ab9092a83320;de;;;7.3.;;;Eine biometriebasierte Lösung zur Bekämpfung von SIM-Swap-Betrug Cyberkriminelle durchstreifen ständig die Tiefen des Cyberspace auf der Suche nach Angriffsopfern. Die Motive für ihre Angriffe sind unterschiedlich: Einige Cyberkriminelle verunstalten Regierungswebsites, um politische Erklärungen abzugeben, andere verbreiten bösartige Software, um großen Schaden anzurichten, und andere sind immer noch monetär motiviert. In diesem Papier konzentrieren wir uns auf „Cyberbetrüger“. Zum Zeitpunkt der Veröffentlichung dieses Artikels ist das Online-Banking ein Hauptjagdgebiet für Betrüger. Millionen von Menschen weltweit nutzen Online-Banking, um ihre regulären bankbezogenen Transaktionen schnell und bequem zu erledigen. Leider hat dieser Komfort seinen Preis. Wenn sie ihre Bankgeschäfte online erledigen, sind sie anfällig dafür, Betrugsbetrug wie SIM-Swap-Betrug zum Opfer zu fallen. In diesem Artikel wird erklärt, was SIM-Swap-Betrug ist und wie er funktioniert. Wir werden den Online-Banking-Zahlungsvorgang analysieren, um herauszufinden, welche Schwachstellen Betrüger beim SIM-Swap-Betrug ausnutzen, und dann ein computerbasiertes Sicherheitssystem einführen, das zur Bekämpfung entwickelt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19228-9_7 dc059516e0fd95619ec124c2eaf7f593;de;;;7.3.;;;Multikriterielle Analyse in der Planung und Gestaltung von Telekommunikationsnetzen: Eine Umfrage Die Wechselwirkung zwischen einem komplexen sozioökonomischen Umfeld und der extrem schnellen Entwicklung neuer Telekommunikationstechnologien und -dienste rechtfertigt das Interesse einer multikriteriellen Bewertung in Entscheidungsfindungsprozessen, die mit mehreren Phasen der Netzplanung und -gestaltung verbunden sind. Basierend auf einem Überblick über aktuelle und vorhergesehene Entwicklungen in Telekommunikationsnetztechnologien und -diensten beginnen wir mit der Identifizierung und Diskussion von Herausforderungen und Problemen im Zusammenhang mit der Verwendung der Multikriteriumsanalyse bei der Planung und Gestaltung von Telekommunikationsnetzen. Als nächstes präsentieren wir einen Überblick über Beiträge zu diesen Bereichen, mit besonderem Schwerpunkt auf Routing- und Netzwerkdesignmodellen. Wir werden auch eine Agenda mit aktuellen und zukünftigen Forschungstrends und -themen in diesem Anwendungsbereich der multikriteriellen Modellierung skizzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4939-3094-4_26 7305a5af9a892980635dcf4b9daa27c1;de;;;7.3.;;;Der e-Business-on-Demand-Lebenszyklus In diesem Beitrag geht es um die Frage, wie die Etablierung von Geschäftspartnerschaften dynamischer gestaltet werden kann. Es untersucht, was notwendig ist, um die Aufschiebung und Automatisierung der Entscheidungsfindung, der Ressourcenallokation sowie bestimmter Prozesse innerhalb des Geschäftslebenszyklus zu unterstützen: die Vertragsgestaltung, die Client-Service-Konfiguration und die Instanziierung der Komponenten und deren Verknüpfung.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35704-1_14 eac599406c697e2406dcd2775665368b;de;;;7.3.;;;Auf dem Weg zu einer intelligenten lokalen Websuche in der Telematik Ein neuer Ansatz für eine intelligente lokale Websuche in der Telematik wird vorgeschlagen. Es basiert auf der Sprach-Websuche, dem physischen Standort des Fahrers, der Suchentfernung, dem Suchverzeichnis und den Suchabsichten des Fahrers. Um Fuzzy-Anfragen zu handhaben, wird auch ein Wahrnehmungsindex (PI) vorgeschlagen. Diese Probleme abzuknicken ist technologisch anspruchsvoll und in der Telematik potenziell nützlich.;-;-;-;https://link.springer.com/chapter/10.1007/11892960_118 73fea117b0ddab560a026e9f96415ee5;de;;;7.3.;;;Effiziente Indizierung und Darstellung von Webzugriffsprotokollen Wir präsentieren eine platzsparende Datenstruktur basierend auf der Burrows-Wheeler-Transformation, die speziell für die Verarbeitung von Web-Sequenzprotokollen entwickelt wurde, die von Web-Nutzungs-Mining-Prozessen benötigt werden. Unser Index ist in der Lage, eine Reihe von Operationen effizient zu verarbeiten und gleichzeitig die Originalinformationen in komprimierter Form zu erhalten. Die Ergebnisse zeigen, dass Webzugriffsprotokolle mit dem 0,85- bis 1,03-fachen ihrer ursprünglichen (einfachen) Größe dargestellt werden können, während die meisten Operationen innerhalb weniger zehn Mikrosekunden ausgeführt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11918-2_7 1be5d38fc2846f8502632238c778bf35;de;;;7.3.;;;Standortabhängiger Webdienst durch Nutzung von Webinhalten einschließlich Standortinformationen Herkömmliche Suchmaschinen basieren in der Regel auf schlüsselwortbasierten Abfragen, bei denen Standortinformationen einfach als Textdaten behandelt werden, was zu falschen Suchergebnissen und einer geringen Benutzerzufriedenheit führt. In diesem Papier schlagen wir ein ortsbezogenes Web-Service-System vor, das Web-Inhalten, die normalerweise aus Text- und Multimedia-Informationen bestehen, Standortinformationen hinzufügt. Zu diesem Zweck beschreiben wir die Systemarchitektur, um solche Dienste zu ermöglichen, erklären, wie man Webbrowser erweitert, und schlagen den Webcontainer und die Websuchmaschine vor. Die vorgeschlagenen Methoden können auf den traditionellen Web-Service-Schichten implementiert werden. Die Webinhalte, die Ortsinformationen enthalten, können ihre Ortsinformationen als Parameter während des Suchprozesses verwenden und daher den Grad der Suchkorrektheit erhöhen, indem sie tatsächliche Ortsinformationen anstelle von einfachen Schlüsselwörtern verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10265-3_26 23830583c6c9baa722020c743c8a91b4;de;;;7.3.;;;Schilling-Angriffe gegen Empfehlungssysteme: eine umfassende Untersuchung Online-Anbieter verwenden kollaborative Filteralgorithmen, um ihren Kunden Empfehlungen zu geben, damit sie ihren Umsatz und Gewinn steigern können. Obwohl Empfehlungsschemata in E-Commerce-Sites erfolgreich sind, sind sie anfällig für Schilling- oder Profile-Injection-Angriffe. Einerseits verwenden Online-Shopping-Sites kollaborative Filtersysteme, um ihren Wettbewerbsvorteil gegenüber anderen Unternehmen zu verbessern. Andererseits könnten böswillige Benutzer und/oder konkurrierende Anbieter beschließen, gefälschte Profile so in die Benutzer-Item-Matrizen einzufügen, dass sie die vorhergesagten Bewertungen zugunsten ihrer Vorteile beeinflussen können. In den letzten zehn Jahren wurden verschiedene Studien durchgeführt, um verschiedene Schilling-Angriffsstrategien, Profilinjektionsangriffstypen, Schilling-Angriffserkennungsschemata und robuste Algorithmen zur Überwindung solcher Angriffe zu untersuchen und sie in Bezug auf Genauigkeit, Kosten / Nutzen und Gesamtleistung zu bewerten . Aufgrund ihrer Popularität und Bedeutung untersuchen wir Schilling-Angriffe in kollaborativen Filteralgorithmen. Ein Gesamtbild über verschiedene Schilling-Angriffsarten durch die Einführung neuer Klassifikationsattribute zu geben, ist für die weitere Forschung unabdingbar. Die detaillierte Erklärung der Schilling-Angriffserkennungsschemata und der bisher vorgeschlagenen robusten Algorithmen könnte einen Ansatzpunkt für die Entwicklung neuer Erkennungsschemata eröffnen und solche robusten Algorithmen weiter verbessern oder sogar neue vorschlagen. Daher beschreiben wir verschiedene Angriffstypen und führen neue Dimensionen der Angriffsklassifizierung ein. Eine detaillierte Beschreibung der vorgeschlagenen Erkennungs- und robusten Empfehlungsalgorithmen wird gegeben. Darüber hinaus erläutern wir kurz die Bewertung der vorgeschlagenen Systeme. Wir schließen den Beitrag mit einer Diskussion verschiedener offener Fragen ab.;-;-;-;https://link.springer.com/article/10.1007/s10462-012-9364-9 618c0fa0b5cd1980260ef236efe6729b;de;;;7.3.;;;Eine Webservice- und ForCES-basierte programmierbare Router-Architektur Programmierbare Netzwerke haben die Notwendigkeit einer klaren Trennung von Steuerungs- und Weiterleitungsebene verstärkt. Das IETF ForCES-Protokoll ermöglicht die Verbindung von Kontrollelementen mit logisch getrennten Weiterleitungselementen. Das Projekt FlexiNET IST beruht auf der dynamischen Dienstbereitstellung, die eine Router-Programmierbarkeit in der Steuerungs- und/oder Weiterleitungsebene erfordert. Um die Implementierungs- und Bereitstellungszeit von Steuerelementen zu verkürzen, sind darüber hinaus einfache APIs auf höherer Ebene erforderlich, die solche Elemente von ForCES-Protokoll- und Modelldetails abschirmen. Dieses Papier schlägt eine ForCES CE Gateway (ForCEG) Architektur vor, die diese Anforderungen erfüllt und Webservice-Schnittstellen auf ForCES-Nachrichten abbildet, während die Gültigkeit von Befehlen überprüft wird, um die Konsistenz des Routerzustands sicherzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00972-3_9 0c5d1c2a20f6975999d0e3d50dac4101;de;;;3.4.;;;Eine Studie zur Inanspruchnahme von Exporthilfeprogrammen für KMU und deren Exportleistung in Korea Diese Studie zielt darauf ab, zu untersuchen, wie Exportförderungsprogramme die Exportleistung exportorientierter KMU in Korea beeinflussen. In letzter Zeit konzentrieren sich KMU auf das Auslandsmarketing, um ihren Export auszuweiten. Viele andere Industrieländer präsentieren ebenfalls verschiedene Exportförderungspolitiken, um ihre exportorientierten KMU zu entwickeln. Diese Studie wird den kausalen Zusammenhang zwischen der Inanspruchnahme von Exporthilfeprogrammen und der Exportleistung anhand vergleichender Analysen von Exporthilfeprogrammen Koreas und anderer Länder überprüfen. Darüber hinaus werden in dieser Studie die Hindernisse für die Exportvermarktung und die operativen Merkmale von Exporthilfeprogrammen identifiziert, um die Wirksamkeit und Gültigkeit der aktuellen verschiedenen Exporthilfeprogramme zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20975-8_32 c92bede77f9a8bf2219250645d812042;de;;;7.3.;;;Überbrückung der Lücke zwischen Legacy-Diensten und Webdiensten Webdienste sind eine zunehmend verwendete Instanziierung von serviceorientierten Architekturen (SOA), die auf Standard-Internetprotokollen beruht, um Dienste zu produzieren, die hochgradig interoperabel sind. Andere Arten von Diensten, die auf Legacy-Protokollen der Anwendungsschicht beruhen, können jedoch nicht direkt zusammengestellt werden. Eine vielversprechende Lösung besteht darin, Wrapper zu implementieren, um zwischen den Protokollen der Anwendungsschicht und dem WS-Protokoll zu übersetzen. Dies manuell zu tun, erfordert jedoch ein hohes Maß an Know-how in den relevanten Protokollen der Anwendungsschicht, in der Low-Level-Netzwerk- und Systemprogrammierung und im Web-Service-Paradigma selbst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16955-7_14 bcf12cdedfc6c1fcb45b1e3f6e04c7be;de;;;7.3.;;;Ein neuer Ansatz zur Verbesserung der Verwaltung und Abfrage von Webdienst-Communitys: Fallstudie zum Gesundheitswesen Kollaborative Umgebungen wie die Bioinformatik und das Gesundheitswesen haben in den letzten Jahren ein zunehmendes Interesse an Webdienst-Communitys festgestellt. Das neue Konzept wurde als verteiltes Paradigma über das Internet vorgeschlagen und weithin akzeptiert und wurde sogar bei der kollaborativen Konstruktion und Herstellung von Vorrichtungen weit verbreitet verwendet. Tatsächlich trägt die Community-Infrastruktur dazu bei, die Verfügbarkeit von Web-Diensten zu verbessern, indem sie einen zentralisierten Zugriff auf verteilte Web-Dienste bereitstellt. Die Organisation in Gemeinschaften wirft jedoch viele Herausforderungen im Zusammenhang mit der Verwaltung und Abfrage von Gemeinschaften auf. Um die genannten Aspekte abzudecken, schlagen wir in dieser Arbeit einen Ansatz vor, der eine nutzerinteraktionsbasierte Lösung für das Managementproblem von Dienstleistungsgemeinschaften bietet. Die vorgeschlagene Methode befasst sich damit, wie die Web-Services-Community basierend auf den Benutzerinteraktionsmustern neu gestaltet werden kann. Es soll die Kluft zwischen den Erwartungen des Benutzers beim Besuch und der Nutzung einer Webservice-Community sowie der Sicht der Designer, die zur Modellierung der Community verwendet wird, minimieren. Anschließend verbessern wir den Abfrageprozess der Webservice-Communitys. Die vorgeschlagene Lösung basiert auf der Ausstattung der Community mit einem semantischen Cache. Wir zeigen, wie die Mitglieder der Healthcare-Webservices-Community den semantischen Cache bei der Verarbeitung einer Anfrage erheblich nutzen können.;-;-;-;https://link.springer.com/article/10.1007/s13721-015-0079-0 f1ed26f4459a8e9568860466eea0b0ba;de;;;7.3.;;;Auf dem Weg zu einer logischen Hypertextstruktur Angesichts des Abrufproblems gemäß der überwältigenden Menge von Online-Dokumenten wurde kürzlich die Anpassung der Textkategorisierung an Webeinheiten vorangetrieben. Ziel ist es, Kategorien von Websites und Seiten als zusätzliches Abrufkriterium zu nutzen. In diesem Zusammenhang wurde das Bag-of-Words-Modell ebenso verwendet wie;-;-;-;https://link.springer.com/chapter/10.1007/11553762_14 1d847f665b76b62fd576112e19317800;de;;;7.3.;;;Eine schnelle und kompakte Webgraph-Darstellung Die Darstellung komprimierter Graphen ist aufgrund ihrer Anwendungen bei der Manipulation riesiger Webgraphen im Hauptspeicher zu einem attraktiven Forschungsthema geworden. Das mit Abstand beste aktuelle Ergebnis ist die Technik von Boldi und Vigna, die sich mehrere besondere Eigenschaften von Webgraphen zu Nutze macht. In diesem Artikel zeigen wir, dass die gleichen Eigenschaften mit einer anderen und eleganten Technik genutzt werden können, die auf der Re-Pair-Kompression aufbaut, die ungefähr den gleichen Raum, aber eine viel schnellere Navigation des Graphen erreicht. Darüber hinaus hat die Technik das Potenzial, sich gut an das Sekundärgedächtnis anzupassen. Außerdem stellen wir eine ungefähre Re-Pair-Version vor, die effizient mit begrenztem Hauptspeicher arbeitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75530-2_11 b515dbcffcd453d82ee99ed20867803c;de;;;7.3.;;;Eine empirische Studie zur lernbasierten Websuche Obwohl es verschiedene Ansätze gibt, die Informationssuche im Web zu erleichtern, geben die meisten aktuellen Web-Such- und Abfragesysteme nur URLs relevanter Seiten zurück. Die lernbasierte Websuche wurde erfunden, die darauf abzielt, die URLs zu verarbeiten, um die gewünschten Informationen unter Verwendung von Benutzerfeedback zu finden. Die Einbeziehung des Benutzerverhaltens macht die Untersuchung der Systemleistung jedoch ziemlich komplex. In diesem Beitrag stellen wir die empirische Untersuchung eines lernbasierten Web-Anfrageverarbeitungssystems namens FACT vor. Vier Hauptaspekte des Nutzerverhaltens, nämlich;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45703-8_11 b43e9e246f0aa6deb9d3ff27fbd478d5;de;;;3.4.;;;Ein Enterprise SPICE-Fähigkeitsprofil für eine ISO 9001:2015-konforme Organisation Dieses Dokument bietet ein Enterprise SPICE-Funktionsprofil für eine ISO 9001:2015-konforme Organisation. Unter der Annahme, dass eine ISO 9001:2015-konforme Organisation alle Anforderungen von ISO 9001 umsetzen würde, bewertete das Autorenteam den angenommenen implementierten Prozess in Bezug auf Enterprise SPICE-Prozesse und -Praktiken. Die Bewertungsergebnisse werden in der Arbeit präsentiert. Die Ergebnisse sollen zeigen, wie sich Enterprise SPICE und ISO 9001 bei der Leistungssteigerung in einem Unternehmen ergänzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00623-5_23 36daa3952ed85ee2dc6d7002af60623f;de;;;3.4.;;;Formalisierung und Spezifikation geometrischer Wissensobjekte Object In diesem Beitrag werden unsere Arbeiten zur Identifizierung, Formalisierung, Strukturierung und Spezifikation von geometrischen Wissensobjekten zum Zweck der semantischen Repräsentation und des Wissensmanagements vorgestellt. Wir klassifizieren geometrisches Wissen danach, wie es in der geometrischen Literatur gesammelt und repräsentiert wurde, formalisieren geometrische Wissensaussagen durch die Anpassung der Sprache der Logik erster Ordnung, spezifizieren Wissensobjekte mit eingebettetem Wissen in einer abrufbaren und erweiterbaren Datenstruktur und organisieren sie nach Modellieren der hierarchischen Struktur der Beziehungen zwischen ihnen. Zur Veranschaulichung unseres Ansatzes werden einige Beispiele formaler Spezifikation für geometrische Wissensobjekte gegeben. Die zugrundeliegende Idee des Ansatzes wurde erfolgreich für das automatisierte geometrische Denken, die Erstellung von Wissensdatenbanken und die Erzeugung elektronischer Dokumente verwendet.;-;-;-;https://link.springer.com/article/10.1007/s11786-013-0167-4 15833884638816bc728e92dc7e615120;de;;;7.3.;;;Eine webbasierte Lernumgebung: Anwendung konstruktivistischer Lehrkonzepte in virtuellen Lernumgebungen Internetbasiertes Lehren und Lernen ist Thema vieler neuerer Projekte und Forschungsarbeiten. Während es relativ einfach ist, das Internet für den Transport herkömmlicher Vorlesungen und Kursnotizen zu nutzen, ist es schwieriger, die volle Leistungsfähigkeit internetbasierter Techniken zu nutzen, um das Lehren und Lernen konzeptionell voranzubringen. In diesem Beitrag diskutieren wir die in unserer Gruppe aufgebaute virtuelle Lernumgebung KBS, ihren theoretischen Hintergrund in Form konstruktivistischer Lern- und Lehrmodelle, ihre Nutzung für unsere Kurse und ihre Implementierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35352-4_7 db73f35f4b73c865636bfc1a9bce45de;de;;;7.3.;;;Ein webbasiertes Transformationssystem für massive wissenschaftliche Daten Im Bereich der wissenschaftlichen Forschung liegt eine Vielzahl von Daten, die von Instrumenten gewonnen und generiert werden, in Form von Text vor. Die optimale Nutzung dieser Daten ist zu einem der Themen sowohl für Naturwissenschaftler als auch für Computerberufe geworden. Viele dieser Daten enthalten ihre logische Struktur im Inneren, unterscheiden sich jedoch von den selbstbeschreibenden halbstrukturierten Daten, da diese Daten vom Schema getrennt sind. Aufgrund der starken Zunahme der Datenmenge kann die herkömmliche Art des Studiums dieser Daten den Anforderungen nach hoher Leistung und flexiblem Zugriff nicht gerecht werden. Relationales DBMS ist eine gute Technik zum Organisieren und Verwalten von Daten. In diesem Beitrag wird ein Mapping-Modell – STRIPE – zwischen wissenschaftlichem Text und relationaler Datenbank vorgeschlagen. Mit STRIPE entwerfen und implementieren wir ein webbasiertes massives wissenschaftliches Datentransformationssystem, das eine gute Lösung für das Problem der massiven wissenschaftlichen Datenverwaltung, Abfrage und Austausch bietet. Die Evaluierung des Systems zeigt, dass es die Effizienz der wissenschaftlichen Datentransformation erheblich verbessern kann und Wissenschaftlern eine neuartige Plattform für die Untersuchung der Daten bietet.;-;-;-;https://link.springer.com/chapter/10.1007/11906070_10 ebf1129f608b799ae0545b9f1c338dfe;de;;;7.3.;;;Sicherheits- und Datenschutzherausforderungen in der globalisierten drahtlosen Kommunikation Drahtlose Kommunikation fügte der Kommunikation einen störenden Wert hinzu, indem sie Standort- und Bewegungsunabhängigkeit in der Kommunikation ermöglichte. Diese Unabhängigkeit hat die drahtlose und mobile Kommunikation heute zu einem der beliebtesten Kommunikationsmittel gemacht. Wir haben oft erlebt, dass Handynutzer sich entschieden haben, keinen Festnetzanschluss für ihr Zuhause zu bekommen, sondern sich ausschließlich auf die Mobiltelefone verlassen. Die meisten Hotels verkabeln nicht mehr alle ihre Zimmer mit Internet, sondern installieren Wireless Local Area Network (WLAN) Access Points, damit ihre Kunden überall auf dem Hotelgelände eine Internetverbindung herstellen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-0107-6_7 86c4cd96ca9332a9009915aa69089a85;de;;;7.3.;;;Rückblick: Wo hat alles angefangen? Eine Geschichte des Internets sollte am Anfang beginnen. Aber zu bestimmen, wann und wie das Internet begann, ist schwierig, ähnlich wie der Moment, in dem das Leben beginnt, oder die Bestimmung, wer für die Atombombe verantwortlich war.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-0870-9_1 efed31234db7abe143c8d3df23ab712b;de;;;7.3.;;;Die Rolle des Sozialkapitals bei der Verwaltung von Beziehungen zu IT-Lieferanten Zeitgemäße E-Commerce-Lösungen werden oft in unternehmensübergreifenden Setups mit verschiedenen beteiligten Geschäftspartnern entwickelt und bereitgestellt. Darüber hinaus zeichnen sich E-Commerce-Projekte häufig durch innovative, schlecht strukturierte Aufgaben aus, die auf neue Technologien zur Entwicklung neuer Geschäftskonzepte angewiesen sind. Das Management von E-Commerce-Projekten und den daraus resultierenden Beziehungen zu Geschäftspartnern ist daher anspruchsvoll und anspruchsvoll. Überraschenderweise sind Projekt- und Partnermanagement-Themen im E-Commerce bisher weitgehend unberücksichtigt geblieben. Basierend auf Fallstudienforschung nimmt dieses Papier eine unternehmensübergreifende Perspektive des E-Commerce ein und befasst sich mit charakteristischen Merkmalen von E-Commerce-Projekten mit mehreren Partnern. Wir argumentieren, dass das Management in komplexen zwischenbetrieblichen Beziehungen aufgrund der nicht kontraktierbaren Natur schlecht strukturierter Aufgaben in erheblichem Maße auf informelle und soziale Koordinationsmechanismen angewiesen sein muss. Als Leitlinie für diese Forschung dient die Sozialkapitaltheorie, die sich auf den Wert sozialer Beziehungen und Netzwerke bezieht. Basierend auf unserer Fallstudienanalyse sind wir in der Lage, verschiedene Arten und Lebenszyklusphasen von E-Commerce-Beziehungen zu unterscheiden und anschließend verschiedene Rollen von Sozialkapital zu identifizieren. Durch die Anwendung der Sozialkapitaltheorie können wir nicht nur Managementimplikationen aufzeigen, sondern auch die allgemeine Diskussion über soziale Aspekte in zwischenbetrieblichen Beziehungen bereichern, die bisher weitgehend von Begriffen wie Vertrauen und Kultur dominiert wird.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-32884-X_6 9afa8f34653e5430f70b0f1e29678346;de;;;7.3.;;;Layerübergreifende Peer-to-Peer-Verkehrsidentifizierung und -optimierung basierend auf aktivem Networking P2P-Anwendungen scheinen sich aufgrund ihrer Fähigkeit, hochdynamische Overlay-Topologien mit schnell variierender und unvorhersehbarer Verkehrsdynamik aufzubauen, als ultimative Killer-Anwendungen zu entwickeln, was selbst für stark überprovisionierte IP-Netzwerke eine ernsthafte Herausforderung darstellen kann. Als Ergebnis sehen sich ISPs neuen, schwerwiegenden Netzwerkverwaltungsproblemen gegenüber, die nicht garantiert durch statisch bereitgestellte Netzwerk-Engineering-Mechanismen gelöst werden können. Als ersten Schritt zu einer umfassenderen Lösung dieser Probleme schlägt dieses Papier eine P2P-Mess-, Identifikations- und Optimierungsarchitektur vor, die entwickelt wurde, um die Dynamik und Unvorhersehbarkeit bestehender, bekannter und zukünftiger, unbekannter P2P-Systeme zu bewältigen. Der Zweck dieser Architektur besteht darin, den ISPs einen effektiven und skalierbaren Ansatz zur Verfügung zu stellen, um den von P2P-Anwendungen in ihren Netzwerken erzeugten Verkehr zu kontrollieren und zu optimieren. Dies kann durch eine Kombination verschiedener programmierbarer Techniken auf Anwendungs- und Netzwerkebene erreicht werden, was zu einem schichtübergreifenden Identifizierungs- und Optimierungsprozess führt. Diese Techniken können mithilfe von Active Networking-Plattformen angewendet werden, die in der Lage sind, Architekturkomponenten bei Bedarf schnell und einfach bereitzustellen. Diese Flexibilität der Optimierungsarchitektur ist wesentlich, um die schnelle Entwicklung neuer P2P-Protokolle und die Variation bekannter Protokolle zu bewältigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00972-3_2 e46408a66184081f10d39aef69c6a73e;de;;;7.3.;;;Wie zuverlässig ist die Stimmungsanalyse? Eine empirische Untersuchung mit mehreren Domänen Die Stimmungsanalyse (auch als Opinion Mining bekannt) wird häufig bei der Beobachtung öffentlicher Meinungen im Internet eingesetzt. So kann es beispielsweise Marketingfachleuten helfen, den Erfolg einer Werbekampagne zu bewerten. Es kann auch verwendet werden, um die öffentliche Meinung während einer politischen Kampagne zu bewerten. Infolgedessen untersuchen viele Unternehmen und Organisationen den potenziellen Wert des Einsatzes von Stimmungsanalysen als Teil ihrer Geschäfts- und Social-Intelligence-Strategien. Allerdings ist die Technik noch nicht ganz ausgereift. Daher können die Ergebnisse der Sentimentanalyse bei nicht sorgfältiger Verwendung irreführend sein. In diesem Beitrag präsentieren wir eine empirische Untersuchung der Effektivität des Einsatzes aktueller Sentiment-Analysetools, um die Meinungen von Menschen in fünf verschiedenen Bereichen zu bewerten. Die Ergebnisse waren sehr unterschiedlich, von anständig (z. B. Hotelbewertungen) bis hin zu schlecht (z. B. Kommentare zu öffentlichen Richtlinien). Wir haben auch mehrere vorgeschlagen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-66468-2_3 500b482af26e29faf372e53c924fd6ad;de;;;7.3.;;;Die Rolle des Produktinformationsmanagements in der kollaborativen Geschäftsentwicklung Dieses Kapitel macht uns mit bestimmten Managementismen vertraut, die für die industrielle Fertigung von zentraler Bedeutung sind, und untersucht ihre Bedeutung aus Sicht des Produktinformations- und Produktlebenszyklusmanagements. Gleichzeitig dienen diese „Ismen“ als Einführung in die Auseinandersetzung mit der elektronischen Kooperation (d.h. Produktkollaboration) zwischen Unternehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78172-1_10 78c613a7256fba0faa0575785a18fa34;de;;;3.4.;;;Faktoren bei der Preisfestsetzung wissenschaftlicher Zeitschriften Die Bedenken von Bibliothekaren und anderen Abonnenten über die steigenden Preise für wissenschaftliche Zeitschriftenabonnements werden in diese Diskussion des Marketing-Mixes: Produkt, Preis, Anbieter und Promotion eingeordnet. Die Zeitschriftenpreise werden von so unterschiedlichen Elementen beeinflusst, wie Forderungen an Wissenschaftler, zu veröffentlichen oder zu sterben, Rabatte für Agenten und Währungsschwankungen. Auch der Einfluss der Technik – vom verbreiteten Einsatz von Fotokopiergeräten bis hin zur zu erwartenden Veralterung von Printmedien – beeinflusst die Preise.;-;-;-;https://link.springer.com/article/10.1007/BF02910824 74d414d85d5b224b17ec5c8c4f792131;de;;;7.3.;;;Auf einheitliche Weise Webdienste und JXTA-Peer-to-Peer-Dienste entdecken Webdienste sind die vorherrschende Instanz des serviceorientierten Computerparadigmas. In letzter Zeit haben jedoch auch Vertreter anderer Computertechnologien wie Peer-to-Peer (p2p) den serviceorientierten Ansatz übernommen und stellen Funktionalität als Dienste zur Verfügung. Somit könnte die serviceorientierte Community stark unterstützt werden, wenn diese heterogenen Dienste integriert und zusammengestellt würden. Ein Schlüssel zum Erreichen dieser Integration ist die Etablierung eines einheitlichen Ansatzes bei der Service-Erkennung. In diesem Whitepaper beschreiben wir einige Funktionen einer einheitlichen Service-Abfragesprache und konzentrieren uns auf die zugehörige Engine, die verwendet wird, um Web- und P2P-Services auf einheitliche Weise zu erkennen. Wir zeigen beispielhaft, wie unser einheitlicher Ansatz im Fall der Web- und P2P-Service-Discovery in UDDI bzw. JXTA angewendet wird. Darüber hinaus demonstrieren wir, wie unsere Servicesuchmaschine in der Lage ist, heterogene Serviceanzeigen zu verarbeiten und so die beworbenen syntaktischen, semantischen und Servicequalitätseigenschaften beim Matchmaking auszunutzen.;-;-;-;https://link.springer.com/chapter/10.1007/11948148_9 4003ff4a3ce2049015492917991c159a;de;;;7.3.;;;Latente Dirichlet-Zuordnung mit Labels und ihr Online-Lernalgorithmus Im Internet gibt es eine Fülle von nutzermarkierten Textdaten wie Webseiten mit Kategorien, Papers mit entsprechenden Schlagworten und Tweets mit Hashtags. In den letzten Jahren wurden überwachte Themenmodelle wie die Labeled Latent Dirichlet Allocation häufig verwendet, um die abstrakten Themen in Labeled Text Corpora zu entdecken. Allerdings hat keines dieser Themenmodelle die Wortreihenfolge im Rahmen der;-;-;-;https://link.springer.com/article/10.1007/s10618-018-0555-0 d04a0c5d4a094f8795ae0bdfdb7d7bf7;de;;;7.3.;;;Können Zusammenfassungen von Suchergebnissen die Effizienz und das Erlebnis der Websuche von sehbehinderten Benutzern verbessern? Es gibt nur begrenzte Studien, die sich mit den Herausforderungen von sehbehinderten (VI) Benutzern bei der Anzeige von Suchergebnissen auf einer Suchmaschinenoberfläche mit einem Screenreader befassen. In dieser Studie wird untersucht, wie sich die Bereitstellung einer Übersicht über die Suchergebnisse für VI-Benutzer auswirkt. Wir präsentieren eine neuartige interaktive Suchmaschinenschnittstelle namens InteractSE, um VI-Benutzer während der Ergebnisexplorationsphase zu unterstützen, um ihre interaktive Erfahrung und die Effizienz der Websuche zu verbessern. Mit einem unüberwachten Machine-Learning-Ansatz wird eine Übersicht der Suchergebnisse generiert, um die entdeckten Konzepte über eine formale Konzeptanalyse, die domänenunabhängig ist, darzustellen. Diese Konzepte sind in einem mehrstufigen Baum in einer hierarchischen Reihenfolge angeordnet und decken alle abgerufenen Dokumente mit maximalen Merkmalen ab. Die Schnittstelle von InteractSE wurde von 16 rechtsblinden Nutzern bewertet und mit der Google-Suchmaschinenoberfläche für komplexe Suchaufgaben verglichen. Die Evaluationsergebnisse wurden sowohl auf Basis quantitativer (als Aufgabenerledigungszeit) als auch qualitativer (als Feedback der Teilnehmer) gemessen. Diese Ergebnisse sind vielversprechend und weisen darauf hin, dass InteractSE die Sucheffizienz und damit die Benutzererfahrung verbessert. Unsere Beobachtungen und Analysen der Benutzerinteraktionen und des Feedbacks ergaben Designvorschläge zur Unterstützung von VI-Benutzern beim Durchsuchen und Interagieren mit Suchergebnissen.;-;-;-;https://link.springer.com/article/10.1007/s10209-020-00777-w 1a255c4d4d63350277ebabefd2c13581;de;;;7.3.;;;Ein sperrbasierter Transaktionsplanungsalgorithmus zur Unterstützung webbasierter Klassen Mit dem Fortschritt der Computer- und Kommunikationstechnologien bieten viele virtuelle Schulen webbasierte Klassen an, die Lernumgebungen ohne zeitliche und räumliche Beschränkungen bieten. Um die virtuellen Schulen effizient aufzubauen, sind verschiedene Techniken erforderlich. Eines davon ist das Schema für die Datenbankverwaltung in webbasierten Klassen und unter den Funktionen, die von einem Datenbankverwaltungssystem bereitgestellt werden, wird ein Transaktionsplanungsalgorithmus benötigt, um mehrere Benutzertransaktionen gleichzeitig zu verarbeiten. Kürzlich wurden mehrere Forschungsarbeiten zu Transaktionsplanungsalgorithmen vorgeschlagen, die für webbasierte Klassen geeignet sind. Die bestehenden Transaktionsverwaltungsschemata weisen jedoch ungeeignete Merkmale zur Unterstützung von webbasierten Klassen auf. In diesem Beitrag stellen wir zunächst die Anforderungen an das Transaktionsmanagement für webbasierte Klassen vor und schlagen dann einen neuen Parallelitätskontrollalgorithmus mit einem neuen Schema namens mark zur Unterstützung webbasierter Klassen vor. Wir präsentieren auch Beispiele, um das Verhalten unseres Algorithmus zu veranschaulichen, zusammen mit Leistungsvergleichen mit anderen Algorithmen. Die Simulationsergebnisse zeigen, dass der vorgeschlagene Algorithmus eine signifikante Leistungsverbesserung erreichen kann.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45689-9_27 71c6c08de5ce1ec8e4d14ee2579b2c69;de;;;7.3.;;;Ein Fuzzy-VSM-basierter Ansatz für den Semantic Service Retrieval Eine große Anzahl von Geschäftsdiensten wurde im Web veröffentlicht, um Kostensenkungen zu erzielen und die Benutzernachfrage zu befriedigen. Folglich spielt das Abrufen von Diensten eine wichtige Rolle, aber leider konzentriert sich die bisherige Forschung auf klare Techniken zum Abrufen von Diensten, die für vage Informationen aus der realen Welt ungeeignet sind. In diesem Beitrag schlagen wir einen neuen Fuzzy-Service-Retrieval-Ansatz vor, der aus zwei Modulen besteht: Service-Annotation und Service-Retrieval. Zugehörige Dienstkonzepte für eine bestimmte Abfrage werden semantisch abgerufen, woraufhin Dienste abgerufen werden, die zu diesen Konzepten mit Anmerkungen versehen sind. Der Grad des Abrufens des Abrufmoduls und die Ähnlichkeit zwischen einem Dienst, einem Konzept und einer Abfrage sind unscharf. Unser Experiment zeigt, dass der vorgeschlagene Ansatz beim Recall-Maß besser abschneidet als ein nicht-fuzzy-Ansatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12643-2_82 f392aec79971c8a89bfdf2e1305646c4;de;;;7.3.;;;Auswirkungen auf die Patientenergebnisse Die epidemiologische Belastung durch Diabetes mellitus verändert das klassische Modell des Diabetesmanagements, bei dem ein spezialisiertes Zentrum auf Registrierung, Rückruf und regelmäßiger Überprüfung versorgt. Der Primärversorgung kommt zunehmend eine entscheidende Rolle bei der Früherkennung, Prävention und Behandlung der Krankheit zu. Daher ist es entscheidend, die Leistungsfähigkeit der primären Leistungserbringer durch geeignete organisatorische Maßnahmen zu verbessern. Die aktuellen Fortschritte in der Informations- (IT) und Kommunikationstechnologie bieten neue Wege zur Bewältigung organisatorischer Probleme und bieten die Möglichkeit, komplexe, vielschichtige Interventionen kosteneffektiv umzusetzen. Darüber hinaus ermöglicht die IT den Patienten, neue Zugangsmodalitäten zu Gesundheitsdiensten zu nutzen.;-;-;-;https://link.springer.com/article/10.2165/00115677-200311030-00003 d99dbfabdcb40c6f1003a30b8c349ce0;de;;;7.3.;;;Konvergenz von Internet und TV: Die kommerzielle Tragfähigkeit der P2P-Inhaltsbereitstellung Die Popularität des (illegalen) P2P (Peer-to-Peer) Filesharings hat einen störenden Einfluss auf den Internetverkehr und die Geschäftsmodelle von Inhaltsanbietern. Darüber hinaus haben mehrere Studien eine steigende Nachfrage nach bandbreitenverbrauchenden Inhalten wie Videos im Internet festgestellt. Obwohl P2P-Systeme als skalierbares und kostengünstiges Modell zur Bereitstellung solcher Inhalte vorgeschlagen wurden, wurden die Potenziale und Hindernisse von P2P-Systemen als legales und kommerzielles Inhaltsverteilungsmodell relativ wenig wirtschaftlich analysiert. Viele Inhaltsanbieter stoßen auf Unsicherheiten hinsichtlich der Annahme oder Ablehnung von P2P-Netzwerken, um Inhalte über das Internet zu verbreiten. Die kürzliche Einführung mehrerer kommerzieller, legaler P2P-Content-Distributionsplattformen erhöht die Bedeutung einer integrierten Analyse der Stärken, Schwächen, Chancen und Bedrohungen (SWOT).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01344-7_23 6b4cd24350a141515ff6f8c445d5a7a2;de;;;7.3.;;;Ein Kalkül für Dienstleistungsinnovation Innovationen im Dienstleistungsbereich – insbesondere im Bereich der elektronischen Dienste (E-Services) – können systematisch entwickelt werden, indem zunächst die strategischen Treiber und Schwerpunkte, dann die taktischen Prinzipien und Befähiger und schließlich die operativen Entscheidungsattribute betrachtet werden, die alle eine Prozess oder Kalkül der Dienstleistungsinnovation. Genauer gesagt gibt es vier Kundentreiber (z auf das Gesamtbild, nicht auf Zahlen, über die bestehende Nachfrage hinausgehen, die strategische Reihenfolge richtig gestalten, organisatorische Hürden überwinden und die Umsetzung in die Strategie integrieren), acht technische Enabler (dh Software-Algorithmen, Automatisierung, Telekommunikation, Zusammenarbeit, Standardisierung, Anpassung, Organisation und Globalisierung) ) und sechs Attribute der Entscheidungsinformatik (dh entscheidungsgesteuert, informationsbasiert, in Echtzeit, kontinuierlich adaptiv, kundenorientiert und rechenintensiv). Es sollte beachtet werden, dass die vier Kundentreiber alle darauf ausgerichtet sind, den Einzelnen zu stärken – d adaptive Echtzeit- oder Just-in-Time-Eingabe. Der entwickelte Prozess oder Kalkül dient dazu, potenzielle weiße Räume oder blaue Ozeane für Innovationen zu identifizieren. Neben der Erweiterung aktueller Innovationen bei Dienstleistungen und damit verbundenen Erfahrungen werden White Spaces für mögliche zukünftige Innovationen identifiziert, darunter solche, die die unvorhergesehenen Folgen oder den Missbrauch früherer Innovationen mildern können, unsere Rechte auf Privatsphäre schützen und uns vor dem Always-on schützen können , vernetzte Welt, liefern uns eine maßgebliche Suchmaschine und generieren eine BIP-Kennzahl, die die wachsende Wissenswirtschaft, die von immateriellen Ideen und Dienstleistungsinnovationen angetrieben wird, angemessen messen kann.;-;-;-;https://link.springer.com/article/10.1007/s11518-007-5041-y 60e8f260d2b98cc44945b889b0e280d7;de;;;7.3.;;;Auswirkungsstudie des Internets der Dinge auf die Smart City-Entwicklung Das Internet der Dinge (IOT) ist die beste Technologie, um eine Smart City zu entwickeln. Dieses Papier gibt einen kurzen Überblick über die Entwicklung einer Smart City mit Hilfe von IOT. Es senkt die Kosten und bietet effiziente Dienstleistungen, reduziert die Zeitverschwendung. Die häufigsten Probleme der IoT Smart City sind das Parksystem, Wasser, intelligente Umgebung und das Entwässerungssystem. Dieses Papier bietet Lösungen für die oben genannten Probleme. IOT kann die Daten senden und empfangen und die Daten auch speichern. Smart City-Entwicklung mit elektronischen Geräten, fortschrittlichen Sensoren und Tausenden von Geräten wird verwendet. Das Internet der Dinge besteht aus Sensoren, Netzwerken usw. All diese sind mit dem Internet und der Cloud verbunden, um die Stadt als Smart City zu entwickeln. Heutzutage ist die Technologie gut entwickelt und die Menschen sind mehr an intelligenter Arbeit interessiert und wollen harte Arbeit leisten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7961-5_93 81ac984737ff9afef6d94ba1702f4af7;de;;;7.3.;;;Personalisiertes Mining von mehrsprachigen Webinhalten Personalisiertes mehrsprachiges Web-Content-Mining ist besonders wichtig für Benutzer, die über das mehrsprachige WWW den Überblick über globales Wissen behalten möchten, das für ihren persönlichen Interessenbereich relevant ist. Dieses Papier stellt einen neuartigen konzeptbasierten Ansatz für das Mining von persönlichen mehrsprachigen Webinhalten vor, indem ein persönlicher mehrsprachiger Webspace unter Verwendung selbstorganisierender Karten erstellt wird. Mehrsprachiges Sprachwissen, das zur Definition des mehrsprachigen Webspace erforderlich ist, wird verfügbar gemacht, indem alle mehrsprachigen Konzept-Term-Beziehungen unter Verwendung einer mehrsprachigen Concept Map kodiert werden. Mit dieser Karte als linguistische Wissensbasis wird ein konzeptbasierter mehrsprachiger Text-Miner entwickelt, um den konzeptionellen Inhalt mehrsprachiger Webdokumente aufzudecken und Konzeptkategorien mehrsprachiger Webdokumente auf einer konzeptbasierten Browsing-Oberfläche zu bilden. Um den persönlichen mehrsprachigen Webspace zu konstruieren, wird ein konzeptbasiertes Benutzerprofil aus einer Lesezeichendatei eines Benutzers erzeugt, um die Informationsinteressen des Benutzers auf der Browsing-Schnittstelle hervorzuheben. Dadurch werden persönliche mehrsprachige Web-Mining-Aktivitäten, die von explorativem Browsen bis hin zu benutzerorientiertem, konzeptorientiertem Informationsfiltern reichen, erleichtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30132-5_26 f22525b2d96999e9a59398fa67276007;de;;;7.3.;;;Forensische Analyse von flüchtigem Instant Messaging Ältere Instant Messaging-Programme erfordern normalerweise eine Installation auf dem Client-Rechner, sodass forensische Ermittler eine Fülle von Beweisartefakten finden können. Dieses Paradigma ändert sich jedoch, da webbasiertes Instant Messaging immer beliebter wird. Auf viele herkömmliche Messaging-Clients (z. B. AOL Messenger, Yahoo! und MSN) kann jetzt nur über einen Webbrowser zugegriffen werden. Dies stellt Forensiker vor neue Herausforderungen aufgrund der volatilen Natur der Daten und Artefakte, die von webbasierten Instant-Messaging-Programmen erzeugt werden. Diese webbasierten Programme schreiben nicht in Registrierungsschlüssel und hinterlassen keine Konfigurationsdateien auf dem Clientcomputer. Ermittler müssen daher nach Überresten ganzer oder teilweiser Konversationen suchen, die in Auslagerungsdateien und nicht zugewiesenen Speicherplatz auf der Festplatte abgelegt werden können. In diesem Artikel werden die Artefakte untersucht, die von webbasierten Instant-Messaging-Programmen wiederhergestellt werden können, und die Herausforderungen, denen sich forensische Prüfer bei der Beweissicherung gegenübersehen. Ein Untersuchungsrahmen für den Umgang mit volatilem Instant Messaging wird ebenfalls vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-84927-0_11 62d3eabdcef326e88889c24a58c2f598;de;;;7.3.;;;Datenintegration in der Proteomik Das vorliegende Kapitel versucht, die jüngsten Initiativen zur Darstellung, Darstellung und Verarbeitung proteinbezogener Daten zu behandeln, die für die Interpretation von Proteomikdaten geeignet sind. Beispiele für integrierte Proteomics-Daten werden beschrieben und kommentiert. Herausfordernde Fragen der Integration werden kurz besprochen sowie Richtungen für die laufende und zukünftige Arbeit aufgezeigt. Dabei betrachten wir insbesondere die Überschneidungen zwischen Datenintegration, integrativer Biologie und Systembiologie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72910-5_7 7ea8e141ab274ad66621ac0bcd98c6e5;de;;;7.3.;;;Ein Link-basiertes Ranking-Modell für Dienste Die Zahl der Dienste im Web wächst täglich und die Suche nach nützlichen und effizienten Ranking-Methoden für Dienste ist in modernen Webanwendungen zu einem wichtigen Thema geworden. In diesem Beitrag stellen wir ein linkbasiertes Wichtigkeitsmodell und effiziente Algorithmen für verteilte Dienste vor, die über Dienstaufrufe zusammenarbeiten. Wir passen den PageRank-Algorithmus an und definieren eine Dienstbedeutung, die seine Aktivität und seinen Beitrag zur Qualität anderer Dienste widerspiegelt.;-;-;-;https://link.springer.com/chapter/10.1007/11914853_20 11588ff39c539d5fb703a86984d03e92;de;;;3.4.;;;Ein Rückblick auf Nachhaltigkeitsmodelle Die Befürchtungen im Zusammenhang mit dem Klimawandel und der Energiekrise haben dazu geführt, dass eine Nachhaltigkeitsanalyse erforderlich ist. Das Thema Nachhaltigkeit ist heute umfassender, da es auf fast alle Studienrichtungen angewendet werden kann. Es gibt verschiedene Ansätze, Nachhaltigkeit zu modellieren, jedoch steht der systemische Ansatz im Mittelpunkt dieser Arbeit. Das vorgeschlagene Nachhaltigkeitsmodell beinhaltet die Verwendung neuronaler Netze, um ein komplexes adaptives System zu entwickeln. Die Komplexität des Systems wird durch Einflussdiagramme oder Wissensmanagementtechniken vereinfacht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15717-2_23 b8f28cc883c9f90a16ce590cb1da538f;de;;;7.3.;;;OntoGame: Weben des Semantic Web durch Online-Spiele Die meisten Herausforderungen beim Aufbau des Semantic Web erfordern einen erheblichen Arbeits- und Intelligenzaufwand. Trotz erheblicher Fortschritte beim Ontologielernen und der Humansprachtechnologie bleiben die Aufgaben der Ontologiekonstruktion, der semantischen Annotation und der Einrichtung von Alignments zwischen mehreren Ontologien stark von der menschlichen Intelligenz abhängig. Dies bedeutet, dass Einzelpersonen Zeit und manchmal andere Ressourcen beisteuern müssen. Leider stellen wir einen gravierenden Mangel an Benutzerbeteiligung an den oben genannten Aufgaben fest, was möglicherweise auf die fehlende Motivation der Mitwirkenden zurückzuführen ist. Als neuartige Lösung schlagen wir (1) vor, die Kernaufgaben des Webens des Semantic Web hinter Online-Multiplayer-Spielszenarien zu maskieren, um angemessene Anreize für menschliche Benutzer zu schaffen, sich daran zu beteiligen. Dabei übernehmen wir die Erkenntnisse aus den bereits berühmten „Spielen mit Sinn“ von Ahn, der gezeigt hat, dass die Präsentation einer nützlichen Aufgabe, die menschliche Intelligenz erfordert, in Form eines Online-Spiels viele Menschen motivieren kann arbeiten intensiv an dieser Aufgabe, und das kostenlos. Dann beschreiben wir (2) unsere generische OntoGame-Plattform und (3) mehrere Spielszenarien für verschiedene Aufgaben sowie unsere jeweiligen Prototypen. Basierend auf der Analyse von Benutzerdaten und Interviews mit Spielern liefern wir erste Hinweise darauf, dass Benutzer (4) Spaß an den Spielen haben und bereit sind, sich diesen Spielen zu widmen, (5) in der Lage sind, qualitativ hochwertige konzeptionelle Entscheidungen zu treffen. Schließlich zeigen wir, wie Benutzer, die sich mit Online-Spielen unterhalten, unwissentlich beim Weben und Erhalten des Semantic Web helfen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68234-9_54 8d1c09352fe6639d80a005abfb290661;de;;;7.3.;;;Zeitlicher Web-Bildabruf Der zeitliche Abruf von Webbildern kann als der Prozess definiert werden, der Sätze von Webbildern mit ihrer zeitlichen Dimension aus expliziten oder impliziten zeitlichen Textabfragen abruft. Angenommen, dass (a) die zeitliche Dimension in die Bildindexierung einbezogen wird und (b) die Abfrage explizit mit einem Zeit-Tag ausgedrückt wird (z Erfolg. Textabfragen sind jedoch in der Regel zeitlich implizit (z. B. „Zweiter Weltkrieg“) und die automatische Erfassung der in Webbildern enthaltenen Zeitdimension ist eine Herausforderung, die unseres Wissens bisher nicht untersucht wurde. In diesem Artikel werden wir verschiedene Forschungsfragen zum Temporalen Web Image Retrieval und die aktuellen Fortschritte unserer Forschung im Bereich temporale ephemere Clustering und temporale Bildfilterung diskutieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34109-0_21 6e270f727cc445e60a9e31ecb1938b8b;de;;;7.3.;;;Qualitätsbasierte Wissensentdeckung aus medizinischen Texten im Web Die Datenbank MEDLINE (Medical Literature Analysis and Retrieval System Online) enthält ein enorm wachsendes Volumen an biomedizinischen Artikeln. Folglich besteht Bedarf an Techniken, die die qualitätsbasierte Entdeckung, Extraktion, Integration und Nutzung von verstecktem Wissen in diesen Artikeln ermöglichen. Text Mining hilft bei der Interpretation dieser großen Datenmengen. Die Co-Occurrence-Analyse ist eine Technik, die beim Text-Mining angewendet wird. Statistische Modelle werden verwendet, um die Bedeutung der Beziehung zwischen Entitäten wie Krankheitsnamen, Medikamentennamen und Schlüsselwörtern in Titeln, Abstracts oder sogar ganzen Publikationen zu bewerten. In diesem Beitrag stellen wir eine Auswahl qualitätsorientierter webbasierter Tools zur Analyse biomedizinischer Literatur vor und diskutieren insbesondere PolySearch, FACTA und Kleio. Schließlich diskutieren wir Pointwise Mutual Information (PMI), die ein Maß ist, um die Stärke einer Beziehung zu entdecken. PMI gibt an, wie häufiger die Abfrage und das Konzept gemeinsam auftreten, als von der Änderung erwartet. Die Ergebnisse legen verborgenes Wissen in den von MEDLINE indizierten Artikeln zu rheumatischen Erkrankungen offen und legen damit Zusammenhänge offen, die für medizinische Experten und Forscher wichtige Zusatzinformationen zur medizinischen Entscheidungsfindung und Qualitätssteigerung liefern können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37688-7_7 764ac5842ae9ce7ffce599a21792d1b0;de;;;3.4.;;;Vertrauensverwaltungstools für Internetanwendungen Vertrauensmanagement hat in letzter Zeit viel Aufmerksamkeit erhalten, da es ein wichtiger Bestandteil der Entscheidungsfindung für elektronischen Handel, Internet-Interaktionen und elektronische Vertragsverhandlungen ist. Es werden jedoch geeignete Werkzeuge benötigt, um Vertrauensbeziehungen effektiv zu spezifizieren und zu verwalten. Sie sollen die Analyse von Vertrauensspezifikationen auf Konflikte erleichtern und die Nutzung von Risiko- und Erfahrungsinformationen als Entscheidungshilfe ermöglichen. Vertrauensspezifikationen auf hoher Ebene können auch zu Implementierungsrichtlinien auf niedrigerer Ebene bezüglich Zugriffskontrolle, Authentifizierung und Verschlüsselung verfeinert werden. In diesem Beitrag stellen wir das SULTAN Trust Management Toolkit zur Spezifikation, Analyse und Überwachung von Vertrauensspezifikationen vor. In diesem Beitrag werden die folgenden Komponenten des Toolkits vorgestellt: der Spezifikationseditor, das Analysetool, der Risikodienst und der Überwachungsdienst.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44875-6_7 a57f138a96b47cc5c6a495918ddfe306;de;;;7.3.;;;Kleine Begriffswelten und andere Prinzipien der semantischen Suche Eine Kombination der Stärken des klassischen Information Retrieval mit dem verteilten Ansatz von P2P-Netzwerken kann deren Schwächen vermeiden: Die Organisation von Dokumentensammlungen mit Relevanz für spezielle Communities ermöglicht sowohl eine hohe Reichweite als auch einen schnellen Zugriff. Wir präsentieren einen theoretischen Rahmen, in dem die semantische Struktur zwischen Wörtern aus einer Dokumentensammlung abgeleitet werden kann. Dieses strukturelle Wissen kann dann verwendet werden, um Dokumentensammlungen anhand ihres Inhalts mit Communities zu verbinden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39884-4_2 361a2eb10a43255c624e9405e070fafe;de;;;7.3.;;;Datenextraktion aus dem Web basierend auf vordefiniertem Schema Mit der Entwicklung des Internets ist das World Wide Web für die meisten Unternehmen zu einer unschätzbaren Informationsquelle geworden. Die meisten im Web verfügbaren Dokumente liegen jedoch in HTML-Form vor, die ursprünglich für die Dokumentformatierung mit geringer Berücksichtigung ihres Inhalts entwickelt wurde. Das effektive Extrahieren von Daten aus solchen Dokumenten bleibt eine nicht triviale Aufgabe. In diesem Papier stellen wir einen schemagesteuerten Ansatz zum Extrahieren von Daten aus HTML-Seiten vor. Bei diesem Ansatz definiert der Benutzer ein Schema, das angibt, was extrahiert werden soll, und stellt Musterzuordnungen zwischen dem Schema und der HTML-Seite bereit. Das System leitet die Mapping-Regeln ein und generiert einen Wrapper, der die HTML-Seite als Eingabe verwendet und die erforderlichen Daten in Form von XML gemäß dem benutzerdefinierten Schema erzeugt. Ein Prototypsystem, das den Ansatz implementiert, wurde entwickelt. Die vorläufigen Experimente zeigen, dass der vorgeschlagene halbautomatische Ansatz nicht nur einfach zu verwenden ist, sondern auch in der Lage ist, einen Wrapper zu erstellen, der die erforderlichen Daten mit hoher Genauigkeit aus eingegebenen Seiten extrahiert.;-;-;-;https://link.springer.com/article/10.1007/BF02943278 53dfbc0f875135d2073c27d8ceaa1df4;de;;;7.3.;;;Andere Bemühungen zur Sicherung von Daten in Computernetzwerken Die rasanten Fortschritte in der Computertechnologie, die sinkenden Preise für Informationsverarbeitungs- und Indexierungsgeräte und die Entwicklung ausgedehnter globaler Netzwerke haben die Erzeugung, Sammlung, Verarbeitung, Indexierung und Speicherung von Informationen vereinfacht. Täglich werden umfangreiche Informationen erstellt, verarbeitet und bewegt. Der Wert von Informationen ist in die Höhe geschossen und Informationen sind plötzlich zu einem wertvollen Gut für Einzelpersonen, Unternehmen und Nationen geworden. Die Sicherheit der Nationen hängt mittlerweile von Computernetzwerken ab, die nur sehr wenige effektiv verteidigen können. Unsere eigene Privatsphäre und Sicherheit hängen mittlerweile von den Launen des Nachbarskindes ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-6654-2_20 151edcc145b35d9ce953ff11fe7399ba;de;;;7.3.;;;Internet-Premiumdienste für verteilte Geräte mit flexiblem Format In diesem Papier wird die Bereitstellung eines Internet-Premiumdienstes auf Ausgabegeräten mit verschiedenen Formaten, bei denen es sich um eingebettete Geräte handelt, vorgestellt. Insbesondere entwickelten wir ein Tool zur automatischen Generierung unterschiedlicher profilabhängiger Zielformate, mit denen die Serviceinformationen auf verteilten mobilen eingebetteten Geräten wie Mobiltelefonen, Personal Digital Assistants (PDAs) oder Smartphones präsentiert werden. Bei diesem Ansatz werden XML-[Extensible Markup Language]-basierte Benutzeroberflächenbeschreibungen in andere Zielformate transkodiert. Verwendete Beispiele sind cHTML [compact Hypertext Markup Language] für webfähige mobile Geräte und WML [Wireless Markup Language] für WAP [Wireless Application Protocol]-fähige mobile Geräte.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-8149-9_27 c6ee150c24f6532ed79a57ef1a12daf7;de;;;7.3.;;;String-Kernel-basierte SVM für die Implementierung von Internetsicherheit Bei der Erkennung von Netzwerkeinbrüchen und Viren erkennen gewöhnliche Methoden bösartigen Netzwerkverkehr und Viren, indem sie Pakete, Flussprotokolle oder den Inhalt des Speichers auf Signaturen des Angriffs untersuchen. Dies bedeutet, dass die Angriffserkennung problematisch ist, wenn keine Signatur im Voraus bekannt/erstellt ist. Um die Erkennung unbekannter Angriffe zu adressieren, entwickeln wir in diesem Artikel einen Netzwerkverkehr- und Spam-Analysator, der ein String-Kernel-basiertes SVM (Support Vector Machine) überwachtes maschinelles Lernen verwendet. Das vorgeschlagene Verfahren ist in der Lage, Netzwerkangriffe ohne bekannte/früher bestimmte Angriffssignaturen zu erkennen, da SVM automatisch Angriffssignaturen aus Verkehrsdaten lernt. Für die Anwendung auf die Internetsicherheit haben wir die vorgeschlagene Methode zur Spam-E-Mail-Erkennung über die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10684-2_59 4b4037b300c34961bfe0e4aeac6b8571;de;;;7.3.;;;Sentimentale Augen! Ein genauerer Blick darauf, wie Benutzer eine Suche durchführen, ist erforderlich, um eine effizientere Sentiment-Suchmaschine der nächsten Generation zu entwickeln und grundlegende Verhaltensweisen bei Online-Rezensions-/Meinungssuchprozessen zu verstehen. Das Papier schlägt vor, personalisierte Suche, Eye-Tracking und Sentiment-Analyse zu verwenden, um die Verhaltensmerkmale von Endbenutzern besser zu verstehen, während eine Beurteilung in einer Sentiment-Suchmaschine vorgenommen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39342-6_34 6a97fe09d2215803346836031f9da818;de;;;7.3.;;;Persönliche Assistenten für das Web: Eine MIT-Perspektive Die wachsende Komplexität der Informationsquellen und der Informationsbedarf der Benutzer übertrifft die manuellen Browsing- und Suchoberflächen der Vergangenheit schnell. Ein langfristiger Ansatz für das Komplexitätsproblem besteht darin, intelligente Informationsagenten zu entwickeln, die aktiv beim Auffinden und Organisieren von Informationen helfen. Diese Agenten unterscheiden sich von der herkömmlichen Informationsabfrage darin, wie sie mit dem Benutzer interagieren und die dynamische Natur der Informationen, mit denen sie umgehen. Dieser Artikel gibt einen Überblick über einige Arbeiten des MIT Media Lab bei der Entwicklung intelligenter Informationsagenten, insbesondere als Assistenten für Benutzer, die im Web surfen. Diese Agenten ersetzen keine herkömmlichen Browsing- oder direkten Manipulationsschnittstellen, sondern arbeiten mit solchen Schnittstellen, um aus der Interaktion mit dem Benutzer zu lernen, die Bedürfnisse des Benutzers zu antizipieren und den Benutzer mit anderen Personen zu verbinden, die seine oder ihre Interessen teilen könnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-60018-0_15 3068209d8eff5f308418f36c0205e3b1;de;;;7.3.;;;Feedback Control-basiertes Datenbankverbindungsmanagement für Proportional Delay Differentiation-fähige Webanwendungsserver Als ein wichtiges differenziertes Dienstmodell zielt die proportionale Verzögerungsdifferenzierung (PDD) darauf ab, das Warteschlangenverzögerungsverhältnis zwischen verschiedenen Klassen von Anforderungen oder Paketen gemäß vorab spezifizierten Parametern aufrechtzuerhalten. In diesem Whitepaper wird die Bereitstellung von PDD-Diensten in Webanwendungsservern durch eine rückkopplungsgesteuerte Datenbankverbindungsverwaltung betrachtet. Um dieses Ziel zu erreichen, wird experimentell ein annähernd lineares zeitinvariantes Modell des Datenbankverbindungspools (DBCP) identifiziert und verwendet, um einen Proportional-Integral-(PI)-Regler zu entwerfen. Der Controller wird periodisch aufgerufen, um die Wahrscheinlichkeiten für verschiedene Klassen dynamischer Anforderungen zur Verwendung von Datenbankverbindungen entsprechend dem Fehler zwischen dem gemessenen Verzögerungsverhältnis und dem Referenzwert zu berechnen und anzupassen. Drei Arten von Workloads, die einer deterministischen, gleichförmigen bzw. schweren Verteilung folgen, wurden entwickelt, um die Leistung des Systems mit geschlossenem Regelkreis zu bewerten. Die Versuchsergebnisse zeigen, dass der Controller unterschiedliche Workloads effektiv handhabt und PDD im DBCP selbst dann erreicht werden kann, wenn sich die Anzahl gleichzeitiger dynamischer Anforderungen unter verschiedenen Workloads abrupt ändert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88140-7_7 393f61001f56fcdb33a16975aba8d1b3;de;;;7.3.;;;Inhaltslokalisierung in Peer-to-Peer-Systemen: Ausnutzung der Lokalität Eine effiziente Inhaltslokalisierung ist ein grundlegendes Problem für dezentrale Peer-to-Peer-Systeme. Gnutella, eine beliebte File-Sharing-Anwendung, ist darauf angewiesen, Anfragen an alle Peers zu überfluten. Obwohl Fluten einfach und robust ist, ist es nicht skalierbar. In diesem Kapitel untersuchen wir, wie man die Einfachheit von Gnutella beibehält und gleichzeitig seine inhärente Schwäche angeht: Skalierbarkeit. Wir schlagen zwei sich ergänzende Content-Location-Lösungen vor, die die Lokalität nutzen, um die Skalierbarkeit zu verbessern. Zuerst schauen wir uns an;-;-;-;https://link.springer.com/chapter/10.1007/0-387-27727-7_4 7c29e911a717092075dbb219fdade3b4;de;;;7.3.;;;ReSDaP: Eine Echtzeit-Datenbereitstellungssystemarchitektur für Sensornetze Aufgrund der rasanten Entwicklung von Sensornetzwerken werden weltweit immer mehr Sensoren zur Umgebungsüberwachung eingesetzt. Da an vielen Orten über Monate oder sogar Jahre hinweg kontinuierlich Sensordaten produziert werden, werden weltweit riesige Datenmengen gespeichert. Diese Studie schlägt ReSDaP vor, eine Architektur zur Überbrückung von Sensornetzwerken und räumlich-zeitlichen Datenbanken durch kontinuierliches Erstellen und Ausführen von Provision Items (PIs). Ein PI ist für die kontinuierliche Linkage-Processing-Storage (LPS) des von einem Sensor erzeugten Datenstroms verantwortlich und fungiert als Pipeline für die ununterbrochene Übertragung von Daten in räumlich-zeitliche Datenbanken in festen Zeitintervallen. Als Fallstudie zu ReSDaP werden aktuelle Datenbereitstellungen von meteorologischen Sensoren aus Wuhan verwendet. Diese Implementierung zeigt, dass ReSDaP gut skalierbar ist und die Verfügbarkeit von Sensor-Webdaten erhöht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55334-9_6 b6066a3c3d38f2c55865d690ea1296a2;de;;;7.3.;;;Die Rolle des Internets der Dinge für die Widerstandsfähigkeit von Netzwerken Katastrophen führen zu verheerenden Bauschäden nicht nur an Gebäuden und Verkehrsinfrastrukturen, sondern auch an anderen kritischen Infrastrukturen wie dem Stromnetz und den Kommunikations-Backbones. Nach einem solchen Ereignis ist die Verfügbarkeit von minimalen Kommunikationsdiensten jedoch entscheidend, um eine effiziente und koordinierte Katastrophenhilfe zu ermöglichen, rechtzeitige öffentliche Informationen zu ermöglichen oder bedürftigen Personen einen Standardmechanismus zum Posten von Notfallnachrichten bereitzustellen. Das Internet der Dinge besteht aus dem massiven Einsatz heterogener Geräte, von denen die meisten batteriebetrieben sind und über drahtlose Netzwerkschnittstellen miteinander verbunden sind. In diesem Papier argumentieren wir, dass der umfangreiche Einsatz von IoT-fähigen Geräten Vorteile in Bezug auf die Ausfallsicherheit von Datennetzwerken im Katastrophenfall bringen könnte. Durch die Nutzung ihrer spontanen drahtlosen Netzwerkfähigkeiten könnten IoT-Geräte minimale Kommunikationsdienste (z. Wir identifizieren die wesentlichen Herausforderungen, die angegangen werden müssen, um dieses Potenzial in der Praxis zu realisieren. Diese Herausforderungen betreffen verschiedene technische Aspekte, einschließlich physischer Konnektivitätsanforderungen, Verbesserungen des Netzwerkprotokollstapels, Priorisierungsschemata für den Datenverkehr sowie soziale und politische Aspekte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19743-2_39 faefd723057df428267067d149285336;de;;;7.3.;;;Aktivieren der Sprachinteraktion in einer Webportalumgebung Die wachsende Nachfrage nach innovativen, multimodalen Schnittstellen für mobile Nutzer und der Bedarf an unterschiedlichen Navigationsparadigmen für beeinträchtigte Internetnutzer fördern und treiben heutzutage die Forschung zu multimodalen Interaktionen. In diesem Paper präsentieren wir unsere Erfahrungen bei der Integration von Vocal-Komponenten in eine Portal-Engine, nämlich Apache Jetspeed. Zunächst diskutieren wir die Gründe, warum die Integration eines vollwertigen Portals wesentliche Vorteile für die Entwicklung einer Vocal-Plattform bringt. Anschließend beschreiben wir zwei komplementäre Ansätze zur Erweiterung von Portalen mit stimmlichen Fähigkeiten und vergleichen sie unter verschiedenen Gesichtspunkten. Der erste Ansatz, den wir untersuchen, basiert auf einem serverseitigen Sprachsynthesizer, während der zweite auf clientseitigen Technologien, X+V und den SALT-Auszeichnungssprachen beruht. Für jeden dieser Ansätze stellen wir einige Beispiele vor und diskutieren Vor- und Nachteile.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74063-6_16 05d68c1e9a311a7bd09d843e7294bc29;de;;;7.3.;;;Das Mashup-Ökosystem Das Web wächst schnell, Unterstrukturen entstehen: ein {social, semantic, etc.} Web oder das {Business, Services, etc.} Ökosystem, das alle Ressourcen eines bestimmten Web-Lebensraums umfasst. Im Mashup-Ökosystem befinden sich Entwickler in intensiver wissenschaftlicher Aktivität, was sich leicht an der Anzahl ihrer jüngsten Veröffentlichungen messen lässt. Da Mashups eine opportunistische (partizipative) Haltung vererben, besteht ein Forschungsschwerpunkt darin, Benutzern zu ermöglichen, mit geringem Aufwand situationsspezifische Mashups zu erstellen. Nach einem Überblick beleuchtet das Kapitel nacheinander Bereiche mit intensiver Diskussion: Mashup-Beschreibung und -Modellierung, semantische Mashups, Medien-Mashups, ubiquitäre Mashups und endbenutzerbezogene Entwicklung. Die Informationen sind in zwei Ebenen organisiert: Direkt unter den Überschriften kann ein Block mit themenbezogenen Verweisen auftauchen. Es richtet sich an Leser mit tieferem Interesse. Danach erklärt und illustriert der Text für jedermann innovative Ansätze. Das Kapitel endet mit einem fast ausfallsicheren Ausblick: Angesichts des Wachstums des Webs wird sich das Ökosystem der Mashups weiter verzweigen. Kern-Mashup-Features wie Wiederverwendung von Ressourcen, Benutzerorientierung und vielseitige Koordination (lose Kopplung) von Komponenten werden sich ausbreiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36403-7_1 58b6c247986114b585371a2c4258e456;de;;;7.3.;;;Auf dem Weg zu einem ISP-konformen, Peer-Friendly Design für Peer-to-Peer-Netzwerke Peer-to-Peer (P2P)-Anwendungen verbrauchen einen erheblichen Teil der gesamten Bandbreite von Internetdienstanbietern (ISPs). Dies ist zu einer finanziellen Belastung für ISPs geworden und kann, wenn sie nicht gut behandelt wird, dazu führen, dass ISPs den P2P-Verkehr blockieren oder strikte Ratenbegrenzungen festlegen. In diesem Beitrag schlagen wir einen neuen Rahmen vor,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79549-0_33 d6a45df9d55d36cddf40cf4d13733d35;de;;;3.4.;;;Eine Studie zum themenorientierten Ansatz zur Automatisierung und Prozessmodellierung eines Dienstleistungsunternehmens Geschäftsanforderungen können heute durch einen themenorientierten Ansatz zur Modellierung und Prozessautomatisierung von Enterprise Services erfüllt werden. Als Folge der weitreichenden Implementierung der IT-Infrastruktur nimmt die Zeit, die ein Mitarbeiter benötigt, um sich an eine neue Umgebung anzupassen, ständig zu. Der themenorientierte Ansatz kann diese Zeit erheblich verkürzen und dadurch die Unternehmensbeziehungskultur deutlich verbessern sowie die Verfügbarkeit des Serviceansatzes für die Aktivitäten der Organisation erhöhen, zum Beispiel Einführung des ITIL v3-Standards für IT-Abteilungen oder Unternehmen, die IT anbieten Dienstleistungen. In dieser Studie werden folgende Probleme gelöst:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23135-3_11 389eee3542270db80c5d8b57f2444c46;de;;;7.3.;;;Analyse und Mining von Webprotokolldaten Protokolldateien enthalten Informationen über Benutzername, IP-Adresse, Zeitstempel, Zugriffsanforderung, Anzahl der übertragenen Bytes, Ergebnisstatus, URL, die verwiesen wurde und Benutzeragent. Die Logfiles werden von den Webservern gepflegt. Durch die Analyse dieser Protokolldateien erhält man eine klare Vorstellung über den Benutzer. In diesem Beitrag werden diese Protokolldateien, ihre Formate, ihre Erstellung, Zugriffsverfahren, ihre Verwendung, verschiedene verwendete Algorithmen und die zusätzlichen Parameter, die in den Protokolldateien verwendet werden können, ausführlich diskutiert, was wiederum einem effektiven Mining Platz macht. Es bietet auch die Idee, eine erweiterte Protokolldatei zu erstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17881-8_44 6513657c0074910058e78d55d25de549;de;;;7.3.;;;Emanzipatorisches Lernen über das Internet: Ein Modell zur Verringerung der sozioökonomischen Ausgrenzung der Maori in Aotearoa/Neuseeland Jüngste Debatten haben gezeigt, dass die unzureichenden Leistungen der Maori (und tatsächlich anderer indigener oder Minderheitengruppen) das Ergebnis sozialer Ausgrenzung aufgrund ihrer sozioökonomischen Umstände sind. Dieses Argument wird durch die Überrepräsentation der Maori in den meisten negativen sozioökonomischen Statistiken in Aotearoa/Neuseeland gestützt. Emanzipatorisches Lernen ist eine Bildungsphilosophie, die darauf abzielt, Ausgrenzung durch von der Gemeinschaft für die Gemeinschaft geschaffene Lernmodelle zu beenden, bei denen das Lernen so entwickelt wird, dass es dem Lernenden ermöglicht, seine eigene Position zu verstehen und somit das Potenzial für Veränderungen zu schaffen. Das Internet bietet ein Werkzeug, das nicht nur relativ allgegenwärtig, sondern auch wirtschaftlich in der Medienentwicklung ist. Das Internet stellt daher eine potenziell geeignete Plattform dar, um emanzipatorische Lernlösungen und ähnliche Gemeinschaften zu entwickeln, die lokalisiert werden können und das Potenzial für die Interaktion mit ähnlichen Gruppen anderswo bieten.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-47749-7_8 292ad8b0f5e6d4015f95ed0045fbe4ee;de;;;7.3.;;;Web 5.0: die Zukunft emotionaler Kompetenzen in der Hochschulbildung Ein Gleichgewicht zwischen der Entwicklung der Informations- und Kommunikationstechnologien (IKT) und der Vermittlung von Kompetenzen zu finden, ist unabdingbar geworden. Die rasante Entwicklung des Webs stellt Universitäten vor die Herausforderung, das akademische Personal von heute auf die IKT der Zukunft vorzubereiten. Der Europäische Hochschulraum hat sich an die IKT angepasst und schlägt eine konzeptionelle und methodische Änderung der Lehr-Lern-Prozesse an spanischen Universitäten vor. In diesem neuen Szenario ist die Ausbildung von Studierenden über das Web zu einem Schlüsselfaktor geworden, der von Hochschullehrern neue emotionale Kompetenzen erfordert. Obwohl Zuneigungen, Gefühle und Emotionen seit mehr als einem Jahrzehnt im gesellschaftlichen und wissenschaftlichen Denken an Bedeutung gewinnen, werden wir es in Zukunft mit einem sensorisch-emotionalen Web (Web 5.0) zu tun haben und es wird mehr denn je ein ein tiefes Bedürfnis der Lehrer, intra- und interpersonale emotionale Kompetenzen zu nutzen und zu fördern. In dieser Hinsicht weist dieser Beitrag darauf hin, dass die alleinige Anwendung rationalistischer Methodik in dieser Ära des sensorischen und emotionalen Wissens (Gegenwart und Zukunft) ein Fehler ist. Lehrende müssen emotionale Kompetenzen entwickeln und an ihre Studierenden weitergeben, um Absolventen hervorzubringen, die sich besser an neue sozio-professionelle Kontexte anpassen können.;-;-;-;https://link.springer.com/article/10.1007/s40196-013-0016-5 a1ee3d87cd4ce9dd961298e1c5c3e081;de;;;7.3.;;;Auf dem Weg zu einem TTCN-3-Testsystem für Laufzeittests von anpassungsfähigen und verteilten Systemen Anpassbare und verteilte komponentenbasierte Systeme müssen heute überprüft und validiert werden, um ihre Korrektheit und Vertrauenswürdigkeit bei dynamischen Veränderungen sicherzustellen. Herkömmliche Testtechniken können nicht verwendet werden, da sie während der Entwicklungsphase angewendet werden. Daher entwickelt sich Runtime Testing als neuartige Lösung für die Validierung hochdynamischer Systeme zur Laufzeit. In diesem Beitrag veranschaulichen wir, wie ein plattformunabhängiges Testsystem auf Basis des TTCN-3-Standards zur Durchführung von Laufzeittests verwendet werden kann. Das vorgeschlagene Testsystem heißt TT4RT: TTCN-3 Testsystem für Runtime Testing. Anhand einer Fallstudie aus dem Bereich Telemedizin soll die Relevanz des vorgeschlagenen Testsystems verdeutlicht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34691-0_7 8f5d54efc2d1b30fa8d754fe6a33ade6;de;;;7.3.;;;Vergleichende Untersuchung von Laptops und Touchscreen-PCs für die Suche im Web Diese Studie vergleicht die Verwendung eines Laptops mit einem Touchscreen-PC, um webbasierte Informationssuchaufgaben durchzuführen. 36 Teilnehmer nahmen an einem Laborexperiment teil. Sie wurden gebeten, entweder einen Laptop oder einen PC mit Touchscreen zu verwenden, um Informationen im Internet zu suchen und relevante Informationen abzurufen, während ihre Sitzungen aufgezeichnet wurden. Die kognitive Belastung wurde durch augenbezogene Daten und kortikale Aktivität (EEG) zusammen mit einer selbstberichteten Skala gemessen. Die Hauptergebnisse zeigten, dass Teilnehmer, die den Laptop benutzten, diejenigen übertrafen, die den Touchscreen-PC verwendeten, wobei relevantere Webseiten mit Lesezeichen versehen (F = 9,678, p = 0,004) und relevantere Elemente abgerufen wurden (F = 6,302, p = 0,018). Teilnehmer mit Touchscreen-PC verbrachten auch mehr Zeit auf jeder Webseite als ihre Kollegen (F = 9,2141, p = 0,005). Diese Ergebnisse deuten darauf hin, dass die Verwendung des Touchscreen-PCs mehr geistige Anstrengung erforderte, was durch Messungen der kognitiven Belastung unterstützt wird. Lineare Mixed-Model-Analysen zeigten signifikante Unterschiede zwischen den Geräten sowohl bei der Variation der Pupillengröße (F = 3,692, p = 0,05) als auch beim EEG-basierten kognitiven Belastungsindex (F = 5,181, p = 0,028). Diese Studie wirft die Frage auf, ob Touchscreen-Computer für alle Computeranforderungen geeignet sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-91122-9_33 c6fc8ba0a8115507bbd287a260e4e52e;de;;;3.4.;;;Herausforderungen für das wissenschaftliche Publizieren Es gibt viele Bedrohungen für professionelle und wissenschaftliche Verlage, da sich das Publizieren an einem strategischen Wendepunkt befindet. Die Unfähigkeit der Benutzer, qualitativ hochwertige Informationen zu identifizieren, das Aufkommen neuer Technologien und Dienste und die Tatsache, dass Benutzer eine Vielzahl von Erfahrungen wünschen, alle bedrohen Ihr Wohlbefinden. Durch die Konzentration auf Marketing, Redaktion, Reputation und effektive Partnerschaften können Verlage jedoch die Marketingmöglichkeiten nutzen, die ironischerweise durch die Bedrohungen selbst geboten werden.;-;-;-;https://link.springer.com/article/10.1007/s12109-001-0029-9 f6d5f4a18364115ed8cb2f22a70f3041;de;;;7.3.;;;Rekonstruieren von Browsersitzungen mit Registerkarten mithilfe von Metadatenzuordnungen Internetbrowser unterstützen mehrere Browser-Tabs, wobei jeder Browser-Tab in der Lage ist, eine separate Websitzung zu starten und aufrechtzuerhalten und gleichzeitig auf mehrere Uniform Resource Identifiers (URIs) zuzugreifen. Infolgedessen wird der als Teil einer Webanfrage generierte Netzwerkverkehr zwischen Sitzungen mit Registerkarten nicht unterscheidbar. Es ist jedoch möglich, die Spezifität der Attribution in den sitzungsbezogenen Kontextinformationen zu finden, die als Metadaten in Protokolldateien (in Servern und Clients) und als netzwerkverkehrsbezogene Protokolle in Routern und Firewalls zusammen mit ihren Metadaten aufgezeichnet werden. Die forensischen Fragen „Wer“, „Was“ und „Wie“ lassen sich mit dem in diesem Kapitel vorgestellten metadatenbasierten Ansatz leicht beantworten. Dieselben Fragen können Systemadministratoren bei der Entscheidung über Überwachungs- und Präventionsstrategien helfen. Metadaten zeichnen per Definition Kontextinformationen bezüglich einer Sitzung auf, wobei solche Metadatenaufzeichnungen Quellen überschreiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-46279-0_9 5312685feb51932302ae37e782a960ec;de;;;7.3.;;;Unterschiede in der Benutzerfreundlichkeit und Wahrnehmung zielgerichteter Websuchmaschinen zwischen Kindern und Erwachsenen Frühere Untersuchungen zeigen Unterschiede zwischen Kindern und Erwachsenen in ihrem Suchverhalten. Diese Ergebnisse basierten jedoch hauptsächlich auf Beobachtungsstudien, [z. 17] oder Logfile-Analyse, [z.B. pub:15, 52] und machen keine Angaben zur Wahrnehmung der Benutzeroberflächenelemente der Suchmaschinen während der Informationssuche. Zur Ergänzung vorhandener Erkenntnisse können Eye-Tracking-Geräte eingesetzt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-12069-6_6 06bbe40af0a176a5c523beec9e12d30d;de;;;7.3.;;;Umgang mit rechtlichen Informationen Im digitalen Zeitalter ist es schwierig, genau zu definieren, was wir unter „Rechtsinformationen“ verstehen. Normalerweise beziehen wir uns auf die allgemeine Form der Medien – Gesetzgebung, Fallbericht, Rechtsdokument oder Lehrbuch. Tatsächlich gibt es jedoch für den Arbeitsanwalt – wie wir später sehen werden – eine Reihe von Informationsquellen, die für die Führung einer erfolgreichen Praxis oder einen erfolgreichen Prozess unerlässlich sind. Dies ist in hohem Maße eine Ansicht von Informationen auf „hoher Ebene“. Ebenso wichtig ist eine untergeordnete Sichtweise – eine, die sich auf die Art und Weise bezieht, wie computergestützte Informationen manipuliert werden können. In diesem Kapitel werden wir uns einige dieser verschiedenen computerbasierten Techniken ansehen, die dem Anwalt Vorteile bieten, und in späteren Kapiteln werden wir diese Techniken in einen umfassenderen rechtlichen Kontext stellen. Zunächst betrachten wir den digitalen Text, da dieser das Hauptformat für die meisten rechtlichen Informationen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0593-0_2 835509d47b0f6a22f1d96391c843478c;de;;;7.3.;;;Dynamische Konfiguration zwischen Proxy-Caches innerhalb eines Intranets Ein Proxy-Cache wird verwendet, um von einem Client häufig benötigte Daten zu speichern, wodurch die Antwortzeit des Servers verringert wird. Eine andere Möglichkeit, Proxy-Caches zu verwenden, besteht darin, eine kooperative Proxy-Cache-Gruppe zu bilden. Es gibt Zeiten, in denen Proxy-Caches, die sich im selben Internet-Service-Provider-Netzwerk befinden, miteinander kooperieren könnten, aber sie wissen nicht, dass andere Caches existieren. In diesem Artikel schlagen wir ein Protokoll zur automatischen Konfiguration von Proxy-Caches vor, das es einem Proxy-Cache ermöglicht, andere aktive Caches zu erkennen. Wenn es das Intranet betritt, erkennt es sie und es werden Parameter gesendet, um eine Autokonfiguration durchzuführen. Eine weitere Funktion, die das Protokoll übernimmt, ist die Cache-Überwachung von Nachrichten, die untereinander fließen, mit dem Zweck, fehlerhafte Caches vorübergehend oder dauerhaft zu deaktivieren. Aus diesem Grund hilft uns dieses Protokoll, eine mögliche Unterauslastung der kooperativen Proxy-Caches zu vermeiden und Zeitverluste zu vermeiden, wenn mangelhafte Proxy-Caches vorhanden sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24768-5_15 69ae7a64b59a05ba2673ff2ce15dc4a4;de;;;7.3.;;;Ein verteiltes CBR-Framework durch Semantic Web Services jCOLIBRI ist ein objektorientiertes Framework in Java, das die Wiederverwendung von Software zum Erstellen von CBR-Systemen fördert. Es integriert die Anwendung bewährter Software-Engineering-Techniken mit einer Beschreibung des Wissensstands, die die Argumentationsmethoden vom Domänenmodell trennt. In diesem Beitrag stellen wir die Entwicklung des Frameworks hin zu einer Semantic Web Services (SWS) Architektur vor, in der Problemlösungsmethoden als Web Services dargestellt werden. Um diese Dienste zusammenzustellen, verwendet unser Vorschlag eine Ontologie mit gemeinsamer CBR-Terminologie und einen Description Logic Reasoner zur Auswahl der am besten geeigneten Problemlösungsmethode.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84628-226-3_8 7b8075f7b10cfb98332b33a674213e4b;de;;;7.3.;;;Auf dem Weg zum strukturellen Webservice-Matching basierend auf Kernel-Methoden Dieses Dokument beschreibt einen auf Kernel-Methoden basierenden Abgleichmechanismus für Webdienste für die Erkennung und Integration von Webdiensten. Der Matching-Mechanismus versucht, die latente Semantik der Struktur von Web Services auszunutzen. In diesem Artikel werden Web Services von WSDL (Web Services Description Language) als baumstrukturierte XML-Dokumente entworfen, und ihr Übereinstimmungsgrad wird durch unseren neuartigen Algorithmus berechnet, der für den lockeren Baumvergleich mit den traditionellen Methoden entwickelt wurde. Um die Aufgabe zu lösen, bringen wir das Konzept der Pfaduntersequenz zur Modellierung von WSDL-Dokumenten im Vektorraum voran. Dann ein fortgeschrittenes;-;-;-;https://link.springer.com/article/10.1007/s11704-007-0043-y 18e5d84c41d2e4d6801dffa5e316cfbf;de;;;7.3.;;;Alters- und altersbedingte Unterschiede bei der Internetnutzung von Krebspatienten Diese Studie untersucht alters- und altersbedingte Unterschiede in der Internetnutzung von 952 Krebspatienten, die mit Chemotherapie behandelt wurden. Ältere Patienten (> 65 Jahre) gaben signifikant weniger Internetnutzung an, um behandlungsbezogene Informationen zu finden als jüngere (< 65 Jahre). Dennoch nutzten 40,1 % der älteren Patienten das Internet regelmäßig oder häufig, verglichen mit 52,3 % der jüngeren Patienten. Etwa ein Viertel (26,4 %) der älteren Patienten und 14,6 % der jüngeren Patienten nutzten das Internet während ihrer Chemotherapie überhaupt nicht. In der jüngeren Altersgruppe berichteten Männer, Patienten mit einem palliativen Behandlungsziel, einem stärker überwachenden Bewältigungsstil, mehr Informationspräferenzen und einem höher erfüllten Informations- und Kommunikationsbedürfnis über mehr Internetnutzung als ihre Kollegen. In der älteren Altersgruppe prognostiziert nur ein überwachender Bewältigungsstil, männlich zu sein und ein höheres Bildungsniveau die Internetnutzung. Die Ergebnisse dieser Studie geben Hinweise zur Verbesserung der Internetnutzung älterer Patienten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07446-7_40 4103a88ef70304ff5eb06a82fb6d4b35;de;;;3.4.;;;Datenunterstützung für das elektronische Arzneimittelmanagement Aus den Betriebsanforderungen von EP-Systemen geht klar hervor, dass diese Systeme qualitativ hochwertige Dateneingaben aus einer Reihe von Quellen erfordern. Die unterstützenden Daten für EP-Systeme und andere Medikationsmanagementsysteme lassen sich in vier Hauptkategorien einteilen:;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-4045-0_5 64547d0fb1c233ab2c45513285fe6612;de;;;7.3.;;;Modellierung der Auswirkungen des Klimawandels auf die Weinqualität basierend auf Expertenmeinungen im Freitextformat: Der WEBSOM-Ansatz Die Motivation zur Modellierung der Auswirkungen des Klimawandels auf Weinbau und Weinqualität anhand quantitativer und qualitativer Daten in einem integrierten analytischen Rahmen wird beschrieben. Die Einschränkungen und Lösungen, die sich bei einem solchen Ansatz ergeben, werden skizziert. WEBSOM ist eine neuartige selbstorganisierende Kartenmethode (SOM) zur Extraktion relevanter domänenabhängiger Merkmale aus webbasierten Texten und in diesem Fall zur Modellierung der Weinqualität aufgrund von Klimaschwankungen untersucht, durch Web Text Mining veröffentlichte Beschreibungen von Sommeliers zu diesem Phänomen . In diesem Beitrag werden Experimente mit der WEBSOM-Methode mit ihren Ergebnissen beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02490-0_112 8938b47607197c85a9162dc78e89701e;de;;;7.3.;;;Differenziertes Web-Service-System durch Echtzeit-Scheduling und Load-Balancing auf Kernel-Ebene Mit der rapiden Zunahme der Anzahl von Web-Benutzern und der daraus resultierenden Entwicklung verschiedener Arten von Web-Anwendungen ist die Web Quality of Service (QoS) zu einem kritischen Thema für Web-Services wie E-Commerce, Web-Hosting usw. geworden Webserver verarbeiten Webbenutzeranforderungen immer noch auf einer First In First Out (FIFO)-Basis, die keine differenzierte QoS bereitstellen kann. In diesem Beitrag werden zwei Ansätze für die differenzierte Web-QoS vorgestellt: ein Ansatz auf Kernel-Ebene, der dem Betriebssystemkern einen Echtzeit-Scheduler hinzufügt, um die vom Scheduler bestimmte Priorität der Benutzeranforderungen im Webserver aufrechtzuerhalten, und ein Ansatz zum Lastausgleich, die Masquerading- und Tunneling-Technologie auf IP-Ebene verwendet, um die Zuverlässigkeit und Reaktionsgeschwindigkeit der Webdienste zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24768-5_47 3a701812c2e907bda8f9cfd2e5f24807;de;;;7.3.;;;Verhaltensmuster in Hypermedia-Systemen: Eine kurze Studie über E-Commerce vs. E-Learning-Praktiken Webbasierte Systeme sind aufgrund ihrer Benutzerfreundlichkeit und Kosteneffizienz sowohl bei Endbenutzern als auch bei Entwicklern äußerst beliebt. Zwei der beliebtesten Anwendungen webbasierter Systeme sind heutzutage E-Learning und E-Commerce. Trotz ihrer Unterschiede stehen beide Anwendungstypen vor ähnlichen Herausforderungen: Sie basieren auf einem „Pull“-Modell des Informationsflusses, sind hypermedia-basiert, verwenden ähnliche Anpassungstechniken und profitieren von semantischen Technologien [3]. Auch die zugrunde liegenden Geschäftsmodelle teilen das gleiche Grundprinzip: Nutzer greifen aus der Ferne auf digitale Ressourcen zu, ohne die physische Anwesenheit eines Lehrers oder Verkäufers. Die oben erwähnten Ähnlichkeiten legen nahe, dass zumindest einige Verhaltensmuster der Benutzer beiden Anwendungen ähnlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-33279-0_4 c2f54d12fbcfe4dfea45ec3ca9aa6725;de;;;7.3.;;;Auf dem Weg zu einem Wissensökosystem Menschen, die einer Organisation angehören, besitzen gemeinsames Wissen, das mit der Zeit wächst, sich weiterentwickelt und von einer Person auf eine andere übertragen wird. Wie in einem Ökosystem hat jeder Einzelne sein eigenes Arbeitsumfeld und persönliche Ziele, interagiert aber auch mit anderen, nutzt gemeinsames Wissen und trägt zu dessen Verbesserung bei.;-;-;-;https://link.springer.com/chapter/10.1007/11891451_33 1fd7ba057a99215cc231b4cdf0a400e0;de;;;7.3.;;;Vorschlag eines Fuzzy-Anpassungsmechanismus basierend auf kognitiven Faktoren von Benutzern für die Web-Personalisierung Die gestiegene Nachfrage nach Webdiensten und die unterschiedlichen Eigenschaften der Benutzer haben zu einer Vielzahl von Anwendungen geführt, die darauf abzielen, personalisierte Dienste basierend auf den heterogenen Bedürfnissen und Präferenzen der Benutzer bereitzustellen. Mit dem Ziel, den Personalisierungsprozess von Webanwendungen zu verbessern und zu unterstützen, wird ein innovativer Anpassungsmechanismus vorgeschlagen. Der Mechanismus basiert auf einer Reihe psychometrischer Messungen, die den kognitiven Stil der Benutzer erfassen, und einer Computational Intelligence-Technik, die künstliche neuronale Netze und Fuzzy-Logik umfasst. Der vorgeschlagene Mechanismus entscheidet über die Anpassungseffekte von Webanwendungen und bietet eine personalisierte Benutzererfahrung. Die vorgeschlagene Methode wurde mit einer Benutzerstudie evaluiert und liefert interessante Einblicke in Bezug auf den Effekt der Anpassung in Bezug auf Aufgabengenauigkeit, Leistung und Zufriedenheit der Benutzer bei der Interaktion mit einer angepassten und einer nicht angepassten Version derselben Webumgebung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33412-2_14 cc447797ac1726edb9d25f7bc226e634;de;;;7.3.;;;Erstellen eines räumlich-zeitlichen Beziehungsdiagramms von Konzeptpaaren mit Web-Repository Das Mining semantischer Beziehungen zwischen Konzepten unterliegt vielen grundlegenden Aufgaben, einschließlich der Verarbeitung natürlicher Sprache, Web-Mining, Informationsabruf und Websuche. Um die semantische Beziehung zwischen Konzepten zu beschreiben, wird in diesem Beitrag das Problem der automatischen Generierung eines räumlich-zeitlichen Beziehungsgraphen (STRG) der semantischen Beziehung zwischen Konzepten untersucht. Der räumlich-zeitliche Beziehungsgraph der semantischen Beziehung zwischen Konzepten umfasst Beziehungswörter, Beziehungssätze, Beziehungsfaktor, Beziehungsgraph, Facettenmerkmal, Zeitmerkmal und räumliches Merkmal. Das vorgeschlagene Verfahren kann automatisch den räumlich-zeitlichen Beziehungsgraphen (STRG) der semantischen Beziehung zwischen Konzepten erzeugen, der sich von dem manuell generierten Annotations-Repository wie WordNet und Wikipedia unterscheidet. Darüber hinaus benötigt das vorgeschlagene Verfahren keine Vorkenntnisse wie Ontologie oder die hierarchische Wissensbasis wie WordNet. Empirische Experimente an realen Datensätzen zeigen, dass der vorgeschlagene Algorithmus effektiv und genau ist.;-;-;-;https://link.springer.com/article/10.1007/s10796-016-9676-4 5acaf7c5bc02cb9406fbb43f99fb02cc;de;;;7.3.;;;VisiNav: Visuelle Webdatensuche und Navigation Semantic-Web-Technologien ermöglichen die Datenintegration über eine Vielzahl von Quellen mit dezentraler und lockerer Koordination, was idealerweise zu miteinander verknüpften Datensätzen führt, die Objekte, ihre Attribute und Verknüpfungen zu anderen Objekten beschreiben. Solche Informationsräume sind für Abfragen zugänglich, die über die traditionelle Stichwortsuche in Dokumenten hinausgehen. Zu diesem Zweck präsentieren wir ein formales Abfragemodell mit sechs atomaren Operationen über objektstrukturierte Datensätze: Stichwortsuche, Objektnavigation, Facettenauswahl, Pfaddurchquerung, Projektion und Sortierung. Unter Verwendung dieser atomaren Operationen können Benutzer inkrementell komplexe Abfragen zusammenstellen, die als Ergebnis eine Menge von Objekten oder Objektbäumen ergeben. Die Ergebnisse können dann entweder direkt angezeigt oder in Anwendungsprogramme oder Online-Dienste exportiert werden. Wir berichten über Benutzerexperimente, die während der Designphase des Systems durchgeführt wurden, und präsentieren Leistungsergebnisse für eine Reihe von Abfragen über 18,5 Millionen Aussagen, die aus 70.000 Quellen aggregiert wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03573-9_17 969fa2cef55148485633f563218720cc;de;;;7.3.;;;Technoökonomische Leistung von drahtlosen Netzwerken, die intelligente mobile Geräte und Dienste unterstützen: Bewertung von technologieorientierten Leistungsindikatoren für das Marketing Ziel dieser Studie ist es, eine rationale Strategie zu entwickeln, um ein Leistungsmaß für die vorherrschenden mobilen Dienste und Plattformen vorzuschreiben, die aufkommende intelligente Geräte gleichzeitig mit den traditionellen etablierten Mobiltelefonen mit Funktionsmerkmalen unterstützen. Es ist ein motiviertes Bemühen, die wirtschaftswissenschaftlichen Parameter in Verbindung mit technologiespezifischen Details mit Bedacht einzubeziehen, um eine zusammenhängende Leistungsmetrik abzuleiten, um den Stand der Technik mobiler Dienste und zugehöriger Operationen zu vergleichen. In einschlägigen bestehenden Strategien erfolgt ein solcher Leistungsvergleich von Mobilfunkdiensten ausschließlich auf der Grundlage von technologiebedingten Parametern zur Geschwindigkeit des drahtlosen Verkehrs (in bps). Die sogenannten PCMag.com-Assessments schreiben dazu einen Mobile Speed ​​Index (MSI) vor, um die Leistungsfähigkeit von Mobilfunknetzen zu ermitteln und das „schnellste Netz“ zu ermitteln, das in einem Versorgungsgebiet vorherrscht. Bei der Ableitung solcher MSI-Werte berücksichtigt der verfolgte Ansatz jedoch keine zugrunde liegenden wirtschaftswissenschaftlichen Fakten, die für Leistungsbereiche und/oder Bewertungszeiträume relevant sind. Daher wird die vorliegende Studie durchgeführt, um eine kohärent praktikable, technologie- und wirtschaftsbasierte Leistungsmetrik für mobile Dienste in Mode zu erhellen. Daraus wird ein technoökonomischer Parameter identifiziert, der als relativer technoökonomischer Leistungsindex (RTPI) bezeichnet wird, daher wird ein umfassender Vergleich zu den MSI-Werten (von PCMag.com) bereitgestellt.;-;-;-;https://link.springer.com/article/10.1007/s11066-015-9093-8 c95f08326114bdc1998355e0bb3bb1e6;de;;;7.3.;;;Ein neuartiges Dual-Key-Verwaltungsprotokoll basierend auf einer hierarchischen Multicast-Infrastruktur im mobilen Internet Dieses Papier beschreibt eine sichere Multicast-Infrastruktur für die Kommunikation großer Gruppen im mobilen Internet und schlägt ein auf dieser Infrastruktur basierendes Schlüsselverwaltungsprotokoll vor. Die Multicast-Kommunikationsdomäne ist logisch in mehrere Verwaltungsbereiche unterteilt, wobei jedem Bereich ein Schlüsselserver zugeordnet ist. Alle Schlüsselserver nehmen an einer Public Key Infrastructure (PKI) als vertrauenswürdige Einheiten teil, die den Untergruppenmitgliedern bekannt sind. Daher ist es effizient, den in der mobilen Hostschicht implementierten Re-Key-Overhead zu minimieren. Die Simulationsergebnisse zeigen, dass das vorgeschlagene Protokoll im Vergleich zu den zentralisierten Protokollen ohne PKI-Unterstützung eine bessere Leistung aufweist. Die Anzahl der echten Re-Key-Nachrichten und der Re-Key-Ereignisse wird auf ca. 30 % bzw. 65 % reduziert.;-;-;-;https://link.springer.com/chapter/10.1007/11534310_60 e4605debc66ef870bbbc9ede5fc01bb0;de;;;7.3.;;;SOA-Einführung in Unternehmensnetzwerken: Bringen serviceorientierte Architekturen die organisationsübergreifende Integration wirklich voran? Das Aufkommen des Internets als globale Kommunikationsinfrastruktur hat die Interaktionskosten innerhalb und zwischen Organisationen drastisch reduziert, mit erheblichen Auswirkungen auf die Beziehungen zwischen den Organisationen, vertikale Branchenstrukturen und Märkte. In jüngerer Zeit haben serviceorientierte Architekturen (SOA) und Webservices den nächsten Paradigmenwechsel eingeleitet und die Idee dynamischer Geschäftsnetzwerke mit schnellen Verbindungs- und Trennungsbeziehungen gefördert. Es gibt jedoch nur wenige Untersuchungen, die systematisch analysiert haben, wie Unternehmen SOA nutzen, um ihre interorganisationalen Beziehungen zu verbessern und ihre Geschäftsnetzwerke umzugestalten. Darüber hinaus hat der ausgereifte Forschungsstrom zu interorganisationalen Informationssystemen (IOS) SOA noch nicht ausreichend berücksichtigt. Um diese Lücke zu schließen, zielt unsere Forschung darauf ab, das grundlegende Verständnis dafür zu verbessern, wie SOA in Unternehmensnetzwerken angewendet wird und wie sie sich von früheren Formen von IOS unterscheidet. Mit einem explorativen Forschungsansatz untersuchen wir 33 SOA-Fälle, um Schwerpunkte und Muster der SOA-Einführung in Unternehmensnetzwerken zu identifizieren. Unsere Fallanalyse baut auf einem mehrdimensionalen Klassifikationsschema auf, das wir aus der bisherigen Literatur abgeleitet haben. Unsere empirischen Ergebnisse bestätigen zwar nicht alle vielversprechenden Aussagen zu SOA, unterstreichen aber den spezifischen Beitrag von SOA im Vergleich zu früheren Formen von IOS. Abschließend schlagen wir fünf Cluster der SOA-Einführung im interorganisationalen Bereich vor, von denen jeder neue Aspekte bei der Koordination verteilter Unternehmensnetzwerke einführt.;-;-;-;https://link.springer.com/article/10.1007/s12525-010-0046-7 edbfe1bd96d4a1e2c94e9a7d4e812779;de;;;7.3.;;;Collaborative Postgraduate Studies in Higher Education: Eine Fallstudie aus Südafrika South Diese Forschung zielte darauf ab, die Bereitstellung von postgradualen Studien durch die Integration von Google-Anwendungen und Skype-Technologien als kollaborative Tools zu untersuchen. Die Teilnehmer waren eine Kohorte von Vollzeitbeschäftigten einer südafrikanischen Kohorte kooperierender Universitäten, die in den Provinzen Limpopo und Westkap für den Postgraduierten-Diplom in Hochschulbildung eingeschrieben waren. Die Daten wurden durch Interviews mit Teilnehmern über Skype und Google-Technologien gesammelt, darunter Google Drive, Gmail, Google Docs, Google Spreadsheet und Google Chat. Die Daten wurden durch ethnografische Inhaltsanalyse und Konversationsanalyse analysiert. Basierend auf den Ergebnissen war offensichtlich, dass Google-Anwendungen und Skype-Technologien kollaboratives Lernen unterstützen. Die Studienergebnisse zeigen, dass diese Technologien eine wichtige Rolle bei der zukünftigen Bereitstellung von akademischen Postgraduiertenprogrammen an Hochschulen für Berufstätige spielen. Diese Studie empfiehlt den Einsatz dieser Technologien in Szenarien, an denen mehrere Institutionen auf der ganzen Welt beteiligt sind. Cloud Computing spielt eine zentrale Rolle bei der Ermöglichung von kollaborativen Online-Lernaktivitäten und verbessert die effektive Entwicklung von Fähigkeiten in Fällen, in denen es sich Studenten aufgrund von beruflichen Verpflichtungen oder geografischen Standorten nicht leisten können, Vollzeitkurse zu besuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-74310-3_16 34d3037ba1af80384a48ecac59481321;de;;;7.3.;;;PPF-Modell mit CTNT zum Schutz des Webservers vor DDoS-Angriffen Wir präsentieren ein probabilistisches Paketfilterungsmodell (PPF), um den Webserver gegen Distributed Denial-of-Service (DDoS)-Angriffe zu schützen. Um abnormalen Verkehr von normalen zu unterscheiden, haben wir die Konzentrationstendenz des Netzwerkverkehrs (CTNT) verwendet. Der CTNT-Mechanismus berechnet das Verhältnis eines bestimmten Pakettyps zur Gesamtmenge von Netzwerkpaketen und erkennt abnormalen Verkehr genau dann, wenn das berechnete Verhältnis das Verhältnis in einer normalen Situation überschreitet. Wenn der CTNT-Mechanismus DDoS-Angriffe erkennt, filtert das vorgeschlagene Modell wahrscheinlich die damit verbundenen Pakete. Die Simulationsergebnisse zeigen, dass es sinnvoll ist, DDoS-Angriffe frühzeitig zu erkennen. Darüber hinaus ist es effektiv, die Webserver vor DDoS-Angriffen zu schützen.;-;-;-;https://link.springer.com/chapter/10.1007/11596042_101 8de57162e62662df558ec7e05935f250;de;;;7.3.;;;Analyse und Bewertung ausgewählter Geschäfte mit Bio-Lebensmitteln in Polen Das Hauptziel dieses Artikels ist es, das Phänomen des Verkaufs von Bio-Lebensmitteln über das Internet zu analysieren und zu bewerten. Zu Beginn dieses Artikels hat der Autor einen spezifischen Charakter des untersuchten Sektors beschrieben. Anschließend stellte er die Grundannahmen der Studie vor. Anschließend führte der Autor Recherchen durch und führte eine Ergebnisanalyse mittels eines Scoring-Verfahrens und eines Scoring-Verfahrens mit Präferenzskala durch.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24511-4_21 b89f1ebe21e9ccb2302da0f327fd1022;de;;;7.3.;;;Webbasierte 3D- und haptische interaktive Umgebungen für E-Learning, Simulation und Training Wissensgenerierung findet im Prozess sozialer Interaktion statt. Da sich unsere dienstleistungsbasierte Gesellschaft zu einer wissensbasierten Gesellschaft entwickelt, besteht ein akuter Bedarf an effektiveren Systemen für Zusammenarbeit und Wissensaustausch, die von geografisch verstreuten Menschen genutzt werden können. Wir stellen den Einsatz von 3D-Komponenten und -Standards wie Web3D in Kombination mit dem haptischen Paradigma für e-Learning und Simulation vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01344-7_26 53cb8078579cf2e2c669f74f8d32699a;de;;;7.3.;;;Befehlszeilen-Tricks und -Anwendungen Die Befehlszeile von Ubuntu ist leistungsstark und effizient. Praktische Einführung in die Kommandozeile. Verwalten laufender Programme und Multitasking über die Befehlszeile. Diagnose von Netzwerkproblemen. Abrufen von Informationen über Ihren Computer. Verwalten von Benutzerkonten. E-Mail lesen. Surfen im Internet. Chatten im IRC. Textbasierte Spiele spielen;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-3000-8_5 65080ed2247273b05ebecdb8a08e98de;de;;;7.3.;;;Zur Schaffung eines nationalen Systems zur Ermittlung von Forschungs- und Entwicklungsprioritäten Dieser Artikel befasst sich mit der Aufgabe, ein nationales System zur Ermittlung von Forschungs- und Entwicklungsprioritäten zu schaffen, und schlägt als Lösung dieses Problems ein einheitliches Informationsanalysesystem vor. Als Grundlage für die Analyse und Auswahl der Prioritäten werden verschiedene Kriterien empfohlen, die sich aus der Zielfunktion und den langfristigen Planungszielen ergeben. Ein Prototyp eines solchen Systems wird kurz beschrieben und eine allgemeine Methodik zur Ermittlung nationaler Prioritäten wird vorgestellt. Der Beitrag zeigt am Beispiel eines Themenbereichs thermoplastische Werkstoffe, um zu verdeutlichen, wie sich die allgemeine Situation in einer Prioritätsrichtung von konkreten Fällen unterscheiden kann.;-;-;-;https://link.springer.com/article/10.3103/S0147688219010039 50e97765b8a51d92b61821930ba66720;de;;;7.3.;;;WebVAT: Visualisierungs- und Analysetool für Webseiten WebVAT ist ein plattformunabhängiges Open-Source-Visualisierungstool, das entwickelt wurde, um die Analyse von Webseiten zu erleichtern. Das Tool, das auf dem Mozilla-Webbrowser basiert, stellt Mozillas interne Darstellung von Webseiten zur Verfügung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73597-7_47 bac11104b3bf40c5bab29978a4a0806a;de;;;7.3.;;;Annotation für das Semantic Web Das Web hat seit seinen bescheidenen Anfängen als Netzwerk, das darauf abzielte, Textnachrichten von einem Ort zum anderen zu übertragen, einen langen Weg zurückgelegt. Die heutigen Dokumente sind äußerst reichhaltig und enthalten alle Arten von Medien, Texten, Bildern, Videos, Musik usw., die alle über Hyperlinks miteinander verknüpft sind. Die Kehrseite dieser Verbreitung des Webs besteht leider darin, dass die Benutzer mit den unzähligen verfügbaren Informationen einfach nicht zurechtkommen [122] [16] [27]. Dies wird normalerweise als das Problem der Informationsüberflutung bezeichnet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20323-7_2 dce49d3daa73bff6478afef6b76f4b5f;de;;;3.4.;;;Chinas digitales Verlagswesen bewegt sich in Richtung einer tiefgreifenden integrierten Entwicklung Vor dem Hintergrund der Beschleunigung der „nationalen Cyber-Entwicklungsstrategie“ war 2018 eine positive Entwicklungsdynamik in der digitalen Verlagsbranche in China zu verzeichnen, die einen Gesamtumsatz von 833,08 Mrd. gegenüber dem Vorjahr. Um der Aufgabe der Medienintegration für die Weiterentwicklung gerecht zu werden, wurden höhere Anforderungen an das digitale Publizieren gestellt, das nicht den neuen Entwicklungsmöglichkeiten und Herausforderungen gegenübersteht. In diesem Papier analysieren wir das Umfeld und die Entwicklung der Digital Publishing-Branche im Jahr 2018, schlagen Gegenmaßnahmen zur weiteren Förderung der Entwicklung des Digital Publishing vor und prognostizieren den Entwicklungstrend des Digital Publishing im kommenden Jahr.;-;-;-;https://link.springer.com/article/10.1007/s12109-019-09697-x 4e2f8b4706713f8d4d2a8a73ea6dcdd6;de;;;7.3.;;;Web-GIS in der Praxis VI: eine Demo-Playlist von Geo-Mashups für Neogeographen im Gesundheitswesen „Mashup“ wurde ursprünglich verwendet, um das Zusammenmischen von Musikstücken zu einem neuen Musikstück zu beschreiben. Der Begriff bezieht sich jetzt auf Websites oder Dienste, die Daten aus verschiedenen Quellen in eine neue Datenquelle oder einen neuen Dienst verweben. Unter Verwendung einer musikalischen Metapher, die auf dem Ursprung des Wortes „Mashup“ aufbaut, präsentiert dieser Beitrag eine Demonstrations-Playlist mit vier Geo-Mashup-Vignetten, die eine Reihe von Web 2.0-, Semantic Web- und 3D-Internet-Methoden verwenden, mit Ergebnissen /Endbenutzeroberflächen, die das flache Web (zweidimensional – 2D-Karten), eine dreidimensionale – 3D-Spiegelwelt (Google Earth) und eine virtuelle 3D-Welt (Second Life;-;-;-;https://link.springer.com/article/10.1186/1476-072X-7-38 531046b63b9b2c069321d9e2e4cd798a;de;;;7.3.;;;Sicherheitsanforderungen der Zertifikatsvalidierung in Web Security Da das Internet weit verbreitet ist, ist das Unternehmen am Webdienstgeschäft wie Internetwerbung, Homeshopping, Homebanking usw. beteiligt. Web-Sicherheitsbedrohungen wie die unmoralische Cyberkriminalität, die den elektronischen Handel bedrohen, werden auf der Kehrseite der Bequemlichkeit des WWW verstärkt. Daher ist es notwendig, die Gegenmaßnahme im Bereich des elektronischen Geschäftsverkehrs festzulegen und anzuwenden. Es ist sehr wichtig, den Schlüssel sicher zu verwalten, um die Sicherheits-Webdienste bereitzustellen, die Vertraulichkeit, Authentifizierung, Zurückweisung usw. umfassen. Es benötigt das bequeme Schlüsselverwaltungssystem, um den elektronischen Geschäftsverkehr den richtigen Sicherheitsdienst zu bieten. Für HTTPS wird häufig ein PKI-basiertes Schlüsselverwaltungssystem verwendet, in dem ein Zertifikat angewendet wird. Wir können die Schwachstellen der Zertifikatsanwendung in vielen Websicherheitsprodukten finden. Dieses Papier untersucht die Schwachstellenfälle der Zertifikatsanwendung, die wir häufig in der realen Umgebung oder bei Web-Sicherheitsprodukten gefunden haben. Und dieses Papier schlägt die Sicherheitsanforderungen des Zertifikats vor, wenn es in der praktischen Anwendung verwendet wird. Diese in diesem Papier vorgeschlagenen Sicherheitsanforderungen können im Bereich der Validierung eines Zertifikats beim Aufbau des PKI-basierten Schlüsselmanagementsystems nützlich sein. Diese Sicherheitsanforderungen können als Entwicklungsrichtlinie eines Web-Security-Produktentwicklers im Bereich der Validierung eines Zertifikats verwendet werden. Sie können auch als Bewertungskriterium eines Websicherheitsproduktes im Bereich der Validierung eines Zertifikats verwendet werden, wenn ein Gutachter die Websicherheitsprodukte bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27180-9_49 40757c472ae306f0fee9e7d4fdd8da67;de;;;7.3.;;;Ein Client/Intercept-basiertes System zur Optimierung des drahtlosen Zugriffs auf Webdienste In diesem Papier diskutieren wir Fragen im Zusammenhang mit der Einführung der Webdienste im drahtlosen/mobilen Bereich. Die Nutzung von Web Services breitet sich nach und nach auf den Bereich des mobilen Internets aus, wo die Nutzerzahl rapide zunimmt. Web Services bieten standardisierte Möglichkeiten zum Erstellen, Veröffentlichen, Suchen und Aufrufen von Diensten und bieten eine sehr wichtige Plattform für die Entwicklung des mobilen E-Commerce. Wir identifizieren Probleme im Zusammenhang mit der Verwendung der ausführlichen Protokolle von Web Services (d. h. SOAP/HTTP) über das „teure“ drahtlose Medium. Unsere Architektur geht davon aus, dass im drahtlosen Gerät WS-fähige Software (entweder Client oder Provider) vorhanden ist. Wir versuchen, den über das drahtlose Medium ausgetauschten HTTP/SOAP-Stream zu optimieren. Unsere Bemühungen basieren weitgehend auf dem Design der IBM WebExpress-Plattform. Unsere Messungen zeigen erhebliche Vorteile für die Anwender.;-;-;-;https://link.springer.com/chapter/10.1007/11498094_21 e808bf7e368abb6e9fab5e0705a6ff1a;de;;;7.3.;;;Indizierung von Multimedia für das Internet Wir haben ein System entwickelt, das es uns ermöglicht, Audio und Video über das Internet zu indizieren und bereitzustellen. Das System ist seit März 1998 im Unternehmen im Dauerbetrieb. Das Design unseres Systems unterscheidet sich von früheren Systemen, weil 1) die Indizierung auf einem Annotations-Stream basieren kann, der durch eine robuste Transkript-Ausrichtung sowie Untertiteln generiert wird, und 2) es sich um ein verteiltes System handelt, das auf skalierbare, hohe Leistung ausgelegt ist, universellen Zugang über das World Wide Web. Umfangreiche Tests des Systems zeigen, dass es ein Leistungsniveau erreicht, das für eine internetweite Bereitstellung erforderlich ist. In diesem Papier werden unsere Herangehensweise an das Problem, die Designanforderungen, die Systemarchitektur und die Leistungsdaten erörtert. Abschließend wird gezeigt, wie die nächste Generation von Annotationen aus Spracherkennung und Computer Vision in das System integriert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48762-X_25 3eb6bccfe110573f1685a7cceb02e7cb;de;;;7.3.;;;Erlernen einer hierarchischen Bildmannigfaltigkeit für die Klassifizierung von Webbildern Die Bildklassifizierung ist eine wesentliche Aufgabe bei der inhaltsbasierten Bildsuche. Aufgrund der semantischen Kluft zwischen visuellen Merkmalen auf niedriger Ebene und semantischen Konzepten auf hoher Ebene und der Diversifizierung von Webbildern liegt die Leistung traditioneller Klassifizierungsansätze jedoch weit von den Erwartungen der Benutzer entfernt. Um die semantische Lücke zu reduzieren und die dringenden Anforderungen an eine Dimensionsreduktion, qualitativ hochwertige Retrievalergebnisse und eine chargenbasierte Verarbeitung zu erfüllen, schlagen wir eine hierarchische Bildmannigfaltigkeit mit neuartigen Distanzmaßen zur Berechnung vor. Unter der Annahme, dass die Bilder in einem Bildsatz dasselbe oder ein ähnliches Objekt beschreiben, aber unterschiedliche Szenen haben, formulieren wir zwei Arten von Mannigfaltigkeiten, Objektmannigfaltigkeit und Szenenmannigfaltigkeit, auf unterschiedlichen Ebenen semantischer Granularität. Die Objektmannigfaltigkeit wurde für die Klassifizierung auf Objektebene unter Verwendung eines Algorithmus namens Extended Local Linear Embedding (ELLE) entwickelt, der auf Intra- und Inter-Object-Differenzmessungen basiert. Die Szenen-Mannigfaltigkeit ist für die Klassifizierung auf Szenen-Ebene unter Verwendung eines Algorithmus namens Local Linear Submanifold Extraction (LLSE) erstellt, indem lineare Störung und Regionswachstum kombiniert werden. Experimentelle Ergebnisse zeigen, dass unsere Methode die Leistung der Klassifizierung von Webbildern effektiv verbessert.;-;-;-;https://link.springer.com/article/10.1631/jzus.C1200032 c23cce28292342ae45a902e98e714eb8;de;;;7.3.;;;ROSA – Multi-Agenten-System für die Personalisierung von Webservices Automatische und nicht-invasive Webpersonalisierung scheint eine Herausforderung für heutige Websites zu sein. Viele Web-Mining-Techniken werden verwendet, um dieses Ziel zu erreichen. Da sich aktuelle Websites ständig weiterentwickeln, sollten Web-Mining-Vorgänge regelmäßig wiederholt werden. Eine Multi-Agenten-Architektur erleichtert die Integration unterschiedlicher Mining-Methoden und ermöglicht die automatische Verifizierung und Aktualisierung des entdeckten Wissens. Wir schlagen ROSA (Remote Open Site Agents) vor – ein System, das sich leicht in eine bestehende Website integrieren lässt. Es besteht aus mehreren heterogenen Agenten wie: User Session Monitor, Crawler, Content Miner, Usage Miner, Hyperlink Recommender, Banner Recommender usw., die für bestimmte Web-Mining- und Personalisierungsaufgaben verantwortlich sind. Sie integrieren verschiedene Mining-Techniken unter Verwendung einer gemeinsamen Darstellung von Dokumenten im Vektorraummodell, um Hyperlinks und Banner zu empfehlen. Der Verifizierungsprozess wird durch ein Aufgabendiagramm dargestellt. ROSA-Agenten erkennen nicht nur, wann ihre Informationen verifiziert werden sollten, sondern sind auch in der Lage, Wissensaktualisierungsvorgänge zu koordinieren (mit der in diesem Papier vorgestellten Methode). Der praktische Teil beschreibt die Verwendung der FIPA-RDF0- und ACL-Sprachen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44831-4_31 c9307690fc2abe87b4e93c1cf1bc310e;de;;;7.3.;;;Konzeptuelle und lexikalische Prototypikalitäts-Gradienten für die Ontologie-Personalisierung Domain-Ontologien sind seit langem auf wissenschaftliche und technische Bereiche beschränkt. Diese Situation hat die nachhaltige Entwicklung von „unvoreingenommenem und universellem Wissen“ begünstigt. Mit dem aktuellen Aufkommen der Kognitionswissenschaften und der Anwendung von Ontology Engineering auf die Sozial- und Humanwissenschaften wird die Notwendigkeit, mit subjektivem Wissen umzugehen, immer wichtiger. Ziel unserer Arbeit ist es, den Begriff der Personalisierten Vernacular Domain Ontology (PVDO) zu entwickeln. Das einer PVDO zugrunde liegende Prinzip besteht darin, zu berücksichtigen, dass eine Ontologie O nicht nur spezifisch für eine abgegrenzte Domäne D ist, sondern auch einer Endogruppe E eigen ist, die eine gemeinsame Pragmatik von D teilt während eines Prozesses der Ontologie-Personalisierung definiert. Dieser Prozess ist abhängig von einem Nutzungskontext, der mehrere Parameter umfasst, insbesondere: Kultur, Bildungshintergrund und emotionale Verfassung. Somit entwickeln sich Ontologien mit ihren Nutzungsgemeinschaften und der menschlichen Interpretation des Kontexts in der Nutzung. Inspiriert von Arbeiten in der kognitiven Psychologie basiert unser Beitrag zur Personalisierung der Ontologie auf der formalen Definition von zwei Maßen, die darauf abzielen, subjektives Wissen zu erfassen (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88873-4_34 5cc1c5f35b1ae071511a9b6aa59b2776;de;;;3.4.;;;Die Gefahren des Profitmachens in der Nonprofit-Welt Nach den neuesten Informationen des IRS verdienen oder sammeln etwa 300.000 der mehr als einer Million gemeinnützigen Organisationen, die als 501(c)(3)-Organisationen klassifiziert sind, über 25.000 USD pro Jahr. Ungefähr 100.000 Wohltätigkeitsorganisationen besitzen ein Vermögen von mehr als 1 Million US-Dollar, etwa 6.000 von ihnen haben ein Vermögen von mehr als 50 Millionen US-Dollar.;-;-;-;https://link.springer.com/chapter/10.1057/9780230114005_5 15da4c1a3a702dd4602d01744cd4d6a8;de;;;7.3.;;;Web Intelligence trifft Hirninformatik an der Sprachbarriere: Ein prokrustes Bett? Für uns ist es selbstverständlich, dass Computer Antworten auf unsere Fragen, unseren Informationsbedarf, unsere Bedürfnisse enthalten. In den letzten 25 Jahren haben wir viel über Sprache, Datenbanken und die Interaktion von Menschen mit Computern gelernt Konstruktion von Mensch-Computer-Schnittstellen, die (relativ) nahtlos Modalitäten integrieren, beispielsweise Sprache und Schriftsprache, natürliche Sprache und Menüsysteme usw. Die nächste Generation von Schnittstellen und Browsern muss, um als erfolgreich zu gelten, mehr: Sie müssen Bedeutungsrahmen individualisieren, um relevante zeitnahe Antworten auf Informationsanfragen zu geben. Ich möchte einige Punkte ansprechen, vielleicht umständlich, aber darauf gerichtet, einige grundlegende Grundsätze unseres Glaubens an Maschinen zu untersuchen. Ich lenke Ihre Aufmerksamkeit auf mehrere Probleme, die mit Repräsentationen verbunden sind, die erforderlich sind, um Informationen in Maschinen für einen einfachen (individualisierten) Zugriff zu platzieren, gefolgt von einigen größeren Fragen zu den inhärenten Fähigkeiten von Maschinen (im Gegensatz zu Menschen).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77028-2_4 a27aa1558a94eaf1473bbdeb3adbabef;de;;;7.3.;;;Informationsinnovation für das Agrarproduktmarketing unter dem Hintergrund von „Internet +“ Mit der Einführung der nationalen Strategie „Internet +“ ist die Landwirtschaft im Kontext von „Internet +“ zum Schlüssel und Kern für die Förderung und Verbesserung der Qualität und Sicherheit der Landwirtschaft geworden. Derzeit fehlt es jedoch in China an einem standardisierten Management für die Netzwerkvermarktung landwirtschaftlicher Produkte, das Logistiksystem ist nicht perfekt und die gesamte ländliche Netzabdeckung ist gering. Die Forschung zum Agrarmarketing vor dem Hintergrund von Internet+ ist unzureichend. Der Zweck dieses Papiers besteht darin, die Vermarktungsmethode für landwirtschaftliche Produkte für die Bequemlichkeit des Netzwerks zu erneuern und eine Reihe gut verwalteter Vermarktungsmodelle zu innovieren. Dieses Papier analysiert hauptsächlich die vier Aspekte ländlicher Netzwerkressourcen, Online-Handel mit landwirtschaftlichen Produkten, Vertriebsmethoden für landwirtschaftliche Produkte und Netzwerkaufbau und schlägt innovative Methoden für die Mängel vor. Durch die Diskussion der Entwicklungsperspektiven des Netzwerks und Empfehlungen für den Aufbau landwirtschaftlicher Produktmarken zeigt die Forschung, dass eine vollständige Nutzung der Network-Marketing-Methoden und eine Erhöhung der Reichweite des Netzwerks den Absatz landwirtschaftlicher Produkte effektiver fördern können.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5959-4_124 b70eb07e0cc946573e55a8828d7a02e0;de;;;7.3.;;;Die Anwendung der Visualisierung des Internet of Things in der Online-Lehre zur Optimierung mobiler interaktiver Schnittstellen Die bestehende interaktive Schnittstelle des mobilen Online-Lehrterminals wird im Prozess der Benutzererfahrung nicht gut genutzt. Um es zu optimieren, schlägt dieses Papier die Anwendung der Visualisierung des Internets der Dinge bei der Optimierung der interaktiven Schnittstelle von mobilen Online-Lehrterminals vor. Durch die Nutzung der Vorteile der Visualisierungstechnologie des Internets der Dinge können wir das Nutzungsgefühl des Benutzers verbessern, indem wir die Vision der mobilen interaktiven Benutzeroberfläche und das menschliche Interaktionsdesign mit dem Nutzungsmodul optimieren. Das Designsimulationsexperiment vergleicht die Anzahl der Benutzerauswahlen vor und nach der Optimierung, um die Gültigkeit des Designs zu überprüfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-67874-6_24 fb8b8a7b157a8bf89b8c50128720ff1c;de;;;7.3.;;;Mining Grobe Assoziation aus Textdokumenten für das Sammeln von Web-Informationen Es ist eine große Herausforderung, die Qualität von Assoziationsregeln in einigen Anwendungsbereichen (z. B. in der Web-Informationssammlung) zu gewährleisten, da Duplikationen und Mehrdeutigkeiten von Datenwerten (z. B. Begriffen) auftreten. Grobe mengenbasierte Entscheidungstabellen könnten effiziente Werkzeuge zur Lösung dieser Herausforderung sein. Dieses Papier veranschaulicht zunächst die Beziehung zwischen Entscheidungstabellen und Assoziations-Mining. Es beweist, dass eine Entscheidungsregel eine Art geschlossenes Muster ist. Es stellt auch ein alternatives Konzept grober Assoziationsregeln vor, um die Qualität des entdeckten Wissens in diesem Bereich zu verbessern. Die Prämisse einer groben Assoziationsregel besteht aus einer Menge von Begriffen (Items) und einer Gewichtungsverteilung von Begriffen (Items). Der entscheidende Vorteil von groben Assoziationsregeln besteht darin, dass sie spezifischere Informationen enthalten als normale Assoziationsregeln. Dieses Papier führt auch einige Experimente durch, um die vorgeschlagene Methode mit Assoziationsregel-Mining und Entscheidungstabellen zu vergleichen, und die experimentellen Ergebnisse bestätigen, dass der vorgeschlagene Ansatz vielversprechend ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71663-1_7 3a1e4f58c22e96c54a4e86d7f02b8c26;de;;;7.3.;;;Mobile Lernplattformen zur Unterstützung des individuellen Wissensmanagements Mobile Technologien wie die drahtlose Datenkommunikation in Form von Short Message Service (SMS) und Wireless Access Protocols (WAP) Browsern haben weltweit an Popularität für E-Learning und Wissensmanagementzwecke gewonnen. Trotz des möglichen Einsatzes mobiler Technologien ist deren Gestaltung nicht trivial. Die Wirksamkeit solcher Anwendungen hängt von der Gestaltung ihrer Schnittstelle ab. Dieser Artikel untersucht die Bedeutung der Verwendung von Farbe für mobiles Design zur Unterstützung des Wissensmanagements. Es wurde ein Anwendungsprototyp entwickelt, um vier Studiengangswebsites zu verknüpfen. Die Wissensmanagement-Anwendungen wurden ein Semester lang mit insgesamt 160 Studierenden aus Graduiertenstudiengängen einer französischen Business School pilotiert. Als explorative Studie nutzten die Studierenden die aus 3 Plattformen bestehende Wissensmanagementumgebung mit einer Vielzahl von mobilen Endgeräten (Smartphones und Tablets) und berichteten über ihre Erfahrungen durch das Verfassen einer Synthese, den Aufbau eines Content Management Systems (CMS) und die and Ausarbeitung eines Kurationssystems am Ende des Semesters. Die Ergebnisse dieser explorativen Studie zeigen, dass der Einsatz von Farbe eine entscheidende Rolle für die Benutzerfreundlichkeit der Benutzeroberfläche spielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08618-7_26 50fc2f584e84c25368bbe2a8e99fc780;de;;;3.4.;;;Spanische Buchhändler stehen vor disruptiven technologischen Herausforderungen Die vorliegende Studie konzentriert sich auf die Auswirkungen des technologischen Wandels auf die Geschäftsmodelle der spanischen Buchhändler. Zu diesem Zweck wird eine Umfrage unter 103 spanischen Buchhandlungen durchgeführt, die dem spanischen Verband der Buchhändlerverbände angehören. Die Ergebnisse der statistischen Analyse haben gezeigt, dass die befragten spanischen Buchhändler: (1) sich von E-Books nicht wirklich bedroht fühlen, (2) sowohl finanzielle Ressourcen als auch fachliche Qualifikation für notwendig halten, um den Online-Vertriebskanal für den Buchhandel zu entwickeln, unabhängig davon und (3) betonen die Hindernisse für die Einführung von E-Books in ihre Produkte, die sich auf das Fehlen einer konsolidierten Nachfrage in ihrer Umgebung, den Bedarf an technischen Ressourcen und den Abschluss von Vereinbarungen mit digitalen Anbietern und Verlagen konzentrieren.;-;-;-;https://link.springer.com/article/10.1007/s12109-019-09674-4 fd790d8eaff182a68c8d6046f733eff0;de;;;3.4.;;;Ein datenschutzwahrendes, gradübereinstimmendes Auktionsschema mit mehreren Attributen im Auktionsmarkt für intelligente Stromnetze In letzter Zeit kann das traditionelle Stromnetz dem heutigen schnellen Entwicklungstrend des Marktes nicht gerecht werden, und ein intelligenteres Stromsystem namens Smart Grid wird entwickelt, das eine bedeutende Strominfrastruktur darstellt. Die effiziente Interaktion zwischen Energieverkäufern und -käufern ist eine Herausforderung für Smart Grids. Die Auktion erfordert, dass Energiekäufer ihre privaten Gebotsinformationen an die Energieauktionsserver übermitteln. Energiekäufer erwarten jedoch normalerweise nicht, dass die tatsächlichen Informationen des Angebots durchgesickert werden, insbesondere nicht, die von anderen Wettbewerbern bekannt sind. Das bedeutet, dass die Energieverkäufer geeignete Angebote unter Wahrung der Privatsphäre der Energiekäufer einholen müssen. In diesem Papier schlagen wir ein neuartiges PPDM-Mehrattribut-Auktionsschema (Privacy-Preserving Degree Matching) vor, bei dem der Gewinner durch den sortierten Vergleich aller Matching-Grade zwischen Verkaufslösungen von Energieverkäufern und Geboten von Energiekäufern generiert wird. Auch die quantitativen und qualitativen Attribute werden als quantitative Bewertung schließlich in Energieverkäufern und Energiekäufern klassifiziert. Die Sicherheitsanalyse zeigt, dass unser Schema, das auf der Annahme der Schwierigkeit der ganzzahligen Faktorisierung basiert, den Datenschutz bei Auktionen, den Multi-Attribut-Matching, die personalisierte Suche und die Rangfolgesuche sichern kann. Darüber hinaus zeigt die Leistungsbewertung, dass das PPDM den Rechenaufwand erheblich reduzieren kann und auch einen moderaten Kommunikationsaufwand hat.;-;-;-;https://link.springer.com/article/10.1007/s00779-017-1055-8 484a2696dee3bd02f654b19de2fa0c67;de;;;7.3.;;;Umsetzung einer Cyber-Sicherheitspolitik in Südafrika: Reflexion über Fortschritte und den Weg nach vorn Cybersicherheit ist ein wichtiger Aspekt der nationalen Sicherheit und der Verwahrung der Wähler und Ressourcen einer Nation. In Südafrika ist der Fokus auf Cybersicherheit besonders ausgeprägt, da viele geografische Regionen in das Global Village eingebunden sind, um die digitale Kluft zu überbrücken. Dieser Artikel reflektiert die aktuelle Forschung in Südafrika in Bezug auf eine Cybersicherheitspolitik und schlägt die Entwicklung von Methoden und Rahmenbedingungen vor, die die Umsetzung einer solchen Politik ermöglichen. Der Schwerpunkt dieses Artikels liegt auf der Verwendung einer ontologiebasierten Methodik, um eine formale, verschlüsselte Beschreibung der strategischen Umgebung der Cybersicherheit zu identifizieren und vorzuschlagen. Ziel der Ontologie ist es, die vielschichtige Organisation der Akteure und die damit verbundenen Rollen und Verantwortlichkeiten im Umfeld der Cybersicherheit zu identifizieren und abzubilden. Dies wird maßgeblich zur Entwicklung, Umsetzung und Einführung einer nationalen Cyber-Sicherheitspolitik in Südafrika beitragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33332-3_20 0de91971d5511938669b291b0727721e;de;;;7.3.;;;Mediation, ODR und das Web 2.0: Ein Argument für relationale Gerechtigkeit Dialog, Verhandlung und Mediation sind neue Quellen des zeitgenössischen Rechts, und Technologie spielt in diesem Prozess eine aktive Rolle. Benutzerzentrierte Strategien der nächsten Web-Generation eignen sich am besten für ein relationales Gerechtigkeitsmodell, das auf kooperativem Verhalten, Übereinstimmung, Verhandlung und Dialog zwischen natürlichen und künstlichen Akteuren basiert. In diesem Beitrag stellen wir Ontomedia vor, ein Projekt, das das Modell der relationalen Gerechtigkeit durch die Entwicklung einer Webplattform für Online-Mediation implementiert. Ontomedia ist als semantisch gesteuerter Webservice konzipiert, der es Endbenutzern ermöglicht, ihre Konflikte in verschiedenen Domänen (z. B. Familie und Handel) zu verhandeln und zu vermitteln. Wir verorten dieses Projekt innerhalb der nächsten Generation von Semantic Web Services und den sogenannten Web 2.0 (und Web 3.0) Entwicklungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16524-5_13 b03a7e5d8077514b639f1cdb8a979d91;de;;;7.3.;;;Entdecken und Verwenden von Webdiensten im M-Commerce Web Services entwickeln sich langsam zu einer vielversprechenden Technologie für die Entwicklung von Anwendungen in offenen, lose gekoppelten und verteilten Computerumgebungen und im mobilen Handel. Das Web ist kein Informationsspeicher mehr und hat sich zu einem Medium entwickelt, um Kunden allgemeine und benutzerspezifische Dienste bereitzustellen. Eine der wichtigsten Anforderungen an die Webservices, um die Nutzererwartungen zu erfüllen, ist die universelle Zugänglichkeit ohne zeitliche und räumliche Beschränkungen. Eine solche Zugänglichkeit ist über das kabelgebundene Internet nicht einfach zu erreichen, und es scheint, dass ein mobiler Ansatz der einzige Ausweg ist. Um von überall und jederzeit auf die Webdienste zugreifen zu können, ist daher eine geeignete drahtlose Webdienstarchitektur erforderlich, die die Einschränkungen der mobilen Umgebung (Diensterkennung, geringe Bandbreite, begrenzte Stromquelle und Skalierbarkeitsengpass) überwinden muss. Dieses Papier nutzt die Fortschritte in der Disziplin des drahtlosen Rundfunks und schlägt eine neue Architektur vor, die eine Reihe von Problemen beim Auffinden und Verwenden von Webdiensten überwindet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-31811-8_11 96f7052ec1614bcc63681e2a1dc5a0be;de;;;3.4.;;;Der Autor als Star Der Aufstieg des „Star“-Autors und der Promikult überwältigen das Verlagswesen ebenso wie Filme und Profisport. Das Fernsehen schafft das Starsystem, Agenten pflegen es. Verlage müssen Wege finden, sie zu überleben. Das Internet bietet Starautoren die Möglichkeit, ihr Publikum ohne Vermittlung ihres Verlags zu erreichen, aber es ist noch kein Medium, in dem Stars geboren werden.;-;-;-;https://link.springer.com/article/10.1007/s12109-999-0008-0 93d4a29c269355b46300b9bc0f240228;de;;;7.3.;;;Honto? Suche: Schätzung der Vertrauenswürdigkeit von Webinformationen durch Aggregation von Suchergebnissen und zeitliche Analyse Wenn der Benutzer die Vertrauenswürdigkeit eines Vorschlags wissen möchte, etwa ob der japanische Premierminister Junichiro Koizumih wahr oder falsch ist, sind herkömmliche Suchmaschinen nicht geeignet. Wir schlagen daher ein System vor, das dem Benutzer hilft, die Vertrauenswürdigkeit einer Aussage zu bestimmen, der er oder sie nicht sicher ist. In unserer Forschung schätzen wir die Vertrauenswürdigkeit eines Angebots ein, indem wir Wissen aus dem Web aggregieren und die Erstellungszeit von Webseiten analysieren. Wir schlagen eine Methode zur Schätzung der Popularität aus zeitlicher Sicht vor, indem wir analysieren, auf wie vielen Seiten das Angebot in einem bestimmten Zeitraum diskutiert wurde und wie kontinuierlich es im Web erschienen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72524-4_28 c10cf9f15eb85297e4bde4a49e5ce56a;de;;;7.3.;;;Aktionen in Web-Standbildern: Visualisierung, Erkennung und Abruf Wir beschreiben einen Rahmen für das Abrufen menschlicher Handlungen in stillstehenden Webbildern durch Verbabfragen, zum Beispiel „Telefonieren“. Zunächst erstellen wir für jede Aktionsklasse eine Gruppe von visuell diskriminierenden Instanzen, die als „Exemplarlets“ bezeichnet werden. Danach verwenden wir Multiple Kernel Learning (MKL), um eine optimale Kombination von Histogramm-Schnittkernen zu lernen, von denen jeder einen Feature-Kanal nach dem Stand der Technik erfasst. Zu unseren Funktionen gehören die Verteilung von Kanten, dichte visuelle Wörter und Merkmalsdeskriptoren auf verschiedenen Ebenen der räumlichen Pyramide. Für ein neues Bild können wir die heiße Region mit einem über MKL gelernten Sliding-Window-Detektor erkennen. Der heiße Bereich kann latente Aktionen im Bild implizieren. Nachdem die Hot-Region erkannt wurde, erstellen wir einen invertierten Index im visuellen Suchpfad, den wir Visual Inverted Index (VII) nennen. Schließlich können wir durch die Verschmelzung des visuellen Suchpfads und des Textsuchpfads genaue Ergebnisse erhalten, die entweder für Text oder für visuelle Informationen relevant sind. Wir zeigen sowohl die Erkennungs- und Abrufergebnisse in unserem neu gesammelten Datensatz von sechs Aktionen als auch eine verbesserte Leistung gegenüber bestehenden Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23535-1_27 1fe7268157aea6c4436646fc23c20792;de;;;7.3.;;;Erkennen von Gesundheitsereignissen im Social Web, um epidemische Intelligenz zu ermöglichen Inhaltsanalyse und Clustering von Dokumenten in natürlicher Sprache werden in verschiedenen Bereichen, sogar im öffentlichen Gesundheitswesen, von entscheidender Bedeutung. Die jüngsten Pandemien wie die Schweinegrippe haben Beamte des öffentlichen Gesundheitswesens beunruhigt. Angesichts der ständig zunehmenden Geschwindigkeit, mit der sich Infektionskrankheiten weltweit ausbreiten können, müssen Beamte darauf vorbereitet sein, früher und mit größeren Fähigkeiten zur Sammlung von epidemischen Informationen zu reagieren. Informationen sollten aus einer breiteren Palette von Quellen gesammelt werden, einschließlich des Webs, das wiederum robustere Verarbeitungsmöglichkeiten erfordert. Um dieser Einschränkung zu begegnen, schlagen wir in diesem Papier einen neuen Ansatz vor, um Ereignisse im Bereich der öffentlichen Gesundheit unbeaufsichtigt zu erkennen. Wir adressieren die Probleme, die mit der Anpassung eines unbeaufsichtigten Lernenden an den medizinischen Bereich verbunden sind und schlagen dabei einen Ansatz vor, der Aspekte aus verschiedenen merkmalsbasierten Ereigniserkennungsverfahren kombiniert. Wir evaluieren unseren Ansatz mit einem realen Datensatz hinsichtlich der Qualität von Artikelclustern. Unsere Ergebnisse zeigen, dass wir eine Genauigkeit von 62 % und einen Rückruf von 75 % erreichen können, bewertet mit manuell annotierten, realen Daten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24583-1_10 838db9e63d5f342940fb8960e8ef1388;de;;;7.3.;;;Eine Studie zur Analyse der Web-Objekt-Referenzmerkmale auf dem Web-System Eine Web-Caching-Technologie ist einer der Hauptfaktoren, der die Leistung eines Websystems beeinflusst. Die bestehenden Studien zur Web-Caching-Technologie konzentrierten sich auf eine Erhöhung der Objekttrefferquote und eine Senkung der Caching-Kosten. Jedoch ist eine Web-Caching-Technologie erforderlich, die die Referenzeigenschaften des Webobjekts analysiert und widerspiegelt, um ein Websystem effektiv zu betreiben, da die Referenzeigenschaften des Webobjekts ein Hauptfaktor bei der Verringerung der Leistung eines Websystems werden. In diesem Papier analysieren wir die Referenzmerkmale von Webobjekten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69429-8_74 3c7a4fbfef6fd31a18c2e5afd765fc8e;de;;;7.3.;;;Geschichte der Informatik im Bildungswesen Dieser Beitrag gibt einen Überblick über die Geschichte der Informatik und ihre Auswirkungen auf die Informatik in der Bildung. Es beschreibt die Entwicklung der Geschichte der Informatik durch Aktivitäten wie Konferenzen, Sammlungs- und Archivierungsaktivitäten, individuelle Sammlungen, Bücher und Zeitschriften und Websites. Es veranschaulicht auch die Verwendung von Computern in der Geschichte des Bildungswesens in Bereichen wie Computerausbildung, Ingenieurwesen, Heim und Büro sowie im Klassenzimmer. Der Beitrag beleuchtet die Bedeutung der Geschichte bei der Erfüllung des Erbes verschiedener Bereiche des Lernens.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-8136-7_1 d182596ae95752a64b43fe87136b8e38;de;;;3.4.;;;Semantisch angereicherte Werkzeuge für die Wissensgesellschaft: Projektmanagement und Präsentation Die Arbeit mit semantisch reichhaltigen Daten ist eines der Sprungbretter in die Wissensgesellschaft. Die Erhebung, Verarbeitung und Nutzung semantischer Daten hat in den letzten Jahren insbesondere im akademischen Umfeld große Fortschritte gemacht. Die Vorteile der semantischen Beschreibung bleiben jedoch häufig von einem „gemeinsamen Benutzer“, einschließlich Personen aus Wissenschaft und IT-Branche, die ansonsten von den Fähigkeiten zeitgemäßer semantischer Systeme in den Bereichen Projektmanagement und/oder technologiegestütztes Lernen profitieren könnten, unentdeckt. Meist liegt die Ursache in der Komplexität und Intransparenz der gängigen semantischen Anwendungen. Das semantische Werkzeug für Projektmanagement und Präsentation besteht im Wesentlichen aus einem Modul zur semantischen Annotation von Wiki-Seiten integriert in das Projektmanagementsystem;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16318-0_36 9a5f58adae8dc662b99d80ef2f9fb262;de;;;7.3.;;;Die Erfolgsstrategien für hybride Geschäftsmodelle Das Aufkommen von Internet-Technologien hat unsere Geschäftstätigkeit beeinflusst. Früher glaubte man, dass das Internet eine geschäftliche Revolution mit sich bringen würde und alle Geschäfte E-Business sein würden. Die Revolution des Internets ist jedoch noch nicht das, was wir früher dachten. Es gibt Hinweise darauf, dass sich nicht alle Unternehmen auf Online-Geschäfte umgestellt haben und nicht alle Verbraucher es vorziehen, sich an Online-Aktivitäten zu beteiligen. Tatsächlich ziehen es einige Verbraucher immer noch vor, sich an traditionellen Geschäftsprozessen zu beteiligen. Die Realität ist ein hybrides Modell, das eine Konvergenz von traditionellen und Online-Methoden darstellt. Ziel dieses Papiers ist es, das hybride Verbraucherverhalten zu analysieren und ein theoretisches Modell zu entwickeln, das als Leitfaden zum besseren Verständnis des hybriden Verbraucherverhaltens und seiner Bedürfnisse dient.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-7907-9_5 cfe8eac3ca7cb8a1dc10a2d99e36ac2d;de;;;7.3.;;;Ein neues Evolutionsdiagramm: Anwendung auf BTGP und Informationsabruf Zur Anwendung eines evolutionären Algorithmus, BTGP, auf die Probleminformationsgewinnung werden eine Reihe von Messungen zu Faktoren in evolutionären Prozessen durchgeführt. Es wird ein neues evolutionäres Diagramm vorgeschlagen, das es uns ermöglicht, die Leistung von prinzipiell jedem evolutionären Algorithmus bei einer Aufgabe zu untersuchen. Inspiriert vom HR-Diagramm in der Astrophysik werden Algorithmen nach ihrem Variationsgrad und dem logarithmischen Verhältnis von Exploitation zu Exploration klassifiziert. Letztere wird als Kehrwert der mittleren Populationsfitness gegenüber der Fitnessvarianz gemessen.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0100546 bd80dd38877e7c7bb942afaede4600d7;de;;;3.4.;;;Oh, das war es also, was Sie meinten! Das Zusammenspiel von Datenqualität und Datensemantik Fragen der Datenqualität haben in den letzten Jahren zunehmend an Bedeutung gewonnen. In unserer Forschung haben wir festgestellt, dass viele Probleme der „Datenqualität“ tatsächlich Probleme der „Datenfehlinterpretation“ sind – also Probleme mit der Datensemantik. In diesem Beitrag veranschaulichen wir zunächst einige Beispiele für diese Probleme und stellen dann ein besonderes semantisches Problem vor, das wir „Unternehmenshaushalt“ nennen. Wir betonen die Bedeutung des „Kontexts“, um die passende Antwort für jede Aufgabe zu erhalten. Dann schlagen wir einen Ansatz vor, um diese Aufgaben zu bewältigen, indem wir Erweiterungen der CONtext INterchange (COIN)-Technologie zur Wissensspeicherung und Wissensverarbeitung verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39648-2_2 0b0e3f8ab48e017f7ed55db8375d3bb1;de;;;7.3.;;;Weborientiertes GIS-System zur Überwachung, Erhaltung und Strafverfolgung des brasilianischen Amazonas Ein Web-GIS (WGIS)-System für den brasilianischen Amazonas namens ImazonGeo, das auf Open-Source- und Public-Domain-Daten basiert, wird vorgestellt. ImazonGeo wurde nach drei Prinzipien aufgebaut. Erstens basiert das System auf einer Spatial Data Infrastructure-Architektur und einer Webschnittstelle, die mit freier Software und gemeinfreien Daten erstellt wurde. Zweitens gingen wir über die Visualisierung von Karten und räumlichen Abfragen hinaus, indem wir Informationen aus räumlichen Analysemodellen zur Verfügung stellten. Zu diesem Zweck haben wir eine Datenbank entworfen, die die Ergebnisse zuvor definierter räumlicher Analysen speichert, und maßgeschneiderte Berichte und Abfragetools entwickelt, um den Endbenutzern einen schnellen Zugriff auf Informationen zu ermöglichen. Schließlich ist das System anwendungsorientiert in den Bereichen Waldmonitoring, Naturschutz und Forstgesetzgebung, soll also dazu beitragen, den Schutz der brasilianischen Amazonaswälder zu unterstützen. Wir veranschaulichen diese Prinzipien, indem wir die Technologie, Architektur, Inhalte und Tools von ImazonGeo vorstellen. Darüber hinaus präsentieren wir zwei erfolgreiche Fälle, um die Anwendung des Systems zu demonstrieren. Wir schließen den Beitrag ab und diskutieren die Herausforderungen und möglichen Lösungen, um unser WGIS-SDI-System in einen Internet-Hub für Geoinformationen über den brasilianischen Amazonas zu verwandeln.;-;-;-;https://link.springer.com/article/10.1007/s12145-009-0035-6 70df86cf3f0a33e08e8c41f41f388a52;de;;;7.3.;;;Zeitbasiertes Ranking in heterogenen Netzwerken Ranking ist eine grundlegende Aufgabe für die Netzwerkanalyse, um wertvolle Informationen zu filtern und zu finden. Zeitinformationen beeinflussen Ergebnisse in Inhalten, die auf Trends und Ereignisrankings reagieren. Das aktuelle Ranking geht entweder davon aus, dass das Interesse und die Bedenken der Benutzer statisch bleiben und sich im Laufe der Zeit nicht ändern, oder konzentriert sich auf die Erkennung von Aktualitätsinformationen. Inzwischen sind die meisten verbreiteten Netzwerke wie soziale Netzwerke heterogen, dh sie bestehen aus mehreren Arten von Knoten und komplexen Abhängigkeitsstrukturen. In diesem Beitrag schlagen wir eine allgemeine Temporal-basierte heterogene Ranking-Methode (TemporalHeteRank) vor. Wir zeigen, dass TemporalHeteRank für heterogene Netzwerke geeignet ist, in der Annahme, dass es eine gegenseitige Informationsbilanzbeziehung zwischen verschiedenen Knotentypen gibt, die sich in den Ranking-Ergebnissen widerspiegeln könnte. Wir untersuchen auch den Einfluss des zeitlichen Merkmals von Knoten auf das Ranking, dann verwenden wir die Lebensdauer der Knoten, indem wir die Fragen der Durchführbarkeit und Allgemeingültigkeit sorgfältig untersuchen. Die experimentellen Ergebnisse zum sina weibo-Ranking belegen die Wirksamkeit unseres vorgeschlagenen Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44917-2_3 7e84636ec6cbfc3607067b1d80e72888;de;;;7.3.;;;Online- und mobiles Lieferdatenmanagement zur Verbesserung des Kundenservice Mit dem wachsenden Trend zur Nutzung von Supply Chain und E-Commerce legen Logistikdienstleister für Produktlagerung, Transport und Lieferung großen Wert auf Informationstechnologie (IT), um weltweit wettbewerbsfähig zu sein. Die Realisierung des aktuellen Service-Tracking-Systems unterstützt lediglich die Verfolgung des Bestellstatus innerhalb eines Service-Providers, wendet mobile Agententechnologie für den Kundenzufriedenheitsindex durch Online-Lieferverfolgung über die Logistikallianzen hinweg an. Daher schlagen wir in diesem Papier ein System vor, das eine dreistufige Architektur für mobile Agententechnologie verwendet und ein Prototypsystem für die Verfolgung von logistischen Lieferdiensten entwickelt, um Kunden zufrieden zu stellen, die den Standort ihrer Sachen im Detail wissen möchten. Außerdem demonstrieren wir das Konzept und die Technologie, die mit Handy und Internet vorgeschlagen werden. Die Online-Service-Tracking-Services ermöglichen es den Kunden, den Echtzeitstatus ihrer Serviceanfragen über das Internet zu überwachen und werden daher zu einem Schlüsselwerkzeug für moderne Unternehmen, um erfolgreich auf einem globalen Markt zu bestehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20998-7_11 9058a9460bddad7b2a6219ceeea5ba9d;de;;;7.3.;;;Änderungen und Entwicklungen im Urheberrecht im Zeitalter digitaler Netzwerke In diesem Kapitel werden die Wechselbeziehungen zwischen den Änderungen des Urheberrechtsgesetzes und der technologischen Entwicklung beleuchtet und die kontinuierliche Ausweitung des Urheberrechtsschutzes im digitalen Netzzeitalter veranschaulicht. Da der Fortschritt der digitalen Technologien die Vervielfältigung und Verbreitung von Informationen vereinfacht und beschleunigt, fordern Autoren daher mehr Schutz durch das Urheberrecht, um ihre Schöpfungen vor Piraterie und ihre kommerziellen Interessen vor Verletzung zu schützen. Dieses Kapitel stellt die Entwicklung und Anpassung internationaler Urheberrechtskonventionen im Rahmen der digitalen Netzwerkumgebung vor, indem es sich auf die Internetverträge der Weltorganisation für geistiges Eigentum (WIPO) konzentriert und den Digital Millennium Copyright Act (DMCA) der Vereinigten Staaten und die Richtlinie über die Informationsgesellschaft der Vereinigten Staaten berücksichtigt Europäische Union als Beispiele, um die Änderungen und Ergänzungen in den Urheberrechtsschutzsystemen der entwickelten Regionen zu diskutieren. Die Ausweitung des Urheberrechtsschutzes hat sich zu sehr auf die Interessen der Rechteinhaber konzentriert und den kulturellen Gesamtaufbau und den gesellschaftlichen Fortschritt auf der Grundlage des freien Informationsflusses vernachlässigt. Durch die Einführung von Aktualisierungen des Urheberrechtsschutzsystems in China basierend auf legislativen, administrativen, gerichtlichen und alternativen Perspektiven wird in diesem Kapitel weiter auf die potenzielle Führungsrolle der Entwicklungsländer, insbesondere Chinas, in der neuen Runde von Urheberrechtsreformen hingewiesen, um ein Interessengleichgewicht wiederherzustellen zwischen Urheberrechtsinhabern und öffentlichen Nutzern und um öffentliche Interessen und soziale Gerechtigkeit anzusprechen, die wichtige Zwecke und Funktionen eines Urheberrechtssystems sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-43517-5_1 43608600effeeaba59d3e34f56c80265;de;;;7.3.;;;Ein adaptiver fokussierter Web-Crawling-Algorithmus basierend auf lernenden Automaten Die letzten Jahre haben die Geburt und das explosive Wachstum des Webs erlebt. Das exponentielle Wachstum des Webs hat es zu einer riesigen Informationsquelle gemacht, in der das Auffinden eines Dokuments ohne eine effiziente Suchmaschine unvorstellbar ist. Web-Crawling ist zu einem wichtigen Aspekt der Websuche geworden, von dem die Leistung der Suchmaschinen stark abhängig ist. Fokussierte Web-Crawler versuchen, den Crawling-Prozess auf die themenrelevanten Web-Dokumente zu fokussieren. Themenorientierte Crawler werden häufig in domänenspezifischen Websuchportalen und personalisierten Suchwerkzeugen verwendet. Dieses Papier entwirft einen auf dezentralen Lernautomaten basierenden fokussierten Webcrawler. Mithilfe von Lernautomaten lernt der vorgeschlagene Crawler die relevantesten URLs und die vielversprechenden Pfade, die zu den themenbezogenen Zieldokumenten führen. Es kann seine Konfiguration effektiv an die Webdynamik anpassen. Es wird erwartet, dass dieser Crawler eine höhere Genauigkeitsrate hat, da er ein kleines Webdiagramm erstellt, das nur themenbezogene Dokumente enthält. Basierend auf dem Martingale-Theorem wird die Konvergenz des vorgeschlagenen Algorithmus bewiesen. Um die Leistungsfähigkeit des vorgeschlagenen Crawlers zu zeigen, werden umfangreiche Simulationsexperimente durchgeführt. Die erhaltenen Ergebnisse zeigen die Überlegenheit des vorgeschlagenen Crawlers gegenüber mehreren bestehenden Methoden in Bezug auf Präzision, Rückruf und Laufzeit. Der t-Test wird verwendet, um die statistische Signifikanz der Präzisionsergebnisse des vorgeschlagenen Crawlers zu überprüfen.;-;-;-;https://link.springer.com/article/10.1007/s10489-012-0351-2 3dbe47bf12dd5a2a6dbe35d0bf742c64;de;;;7.3.;;;Verwenden von Adjektivmerkmalen aus Benutzerrezensionen, um eine höhere Qualität und erklärbare Empfehlungen zu generieren Empfehlungssysteme haben eine bedeutende Rolle bei der Linderung des Problems der „Informationsüberflutung“ gespielt. Bestehende Ansätze der kollaborativen Filterung stehen dem Problem der Datenknappheit und der Transparenz gegenüber, und die inhaltsbasierten Ansätze leiden unter dem Problem unzureichender Attribute. In diesem Beitrag zeigen wir, dass zahlreiche in Nutzerbewertungen eingebettete Adjektivmerkmale verwendet werden können, um Filme sowie den Geschmack der Nutzer zu charakterisieren. Wir erweitern das standardmäßige TF-IDF-Begriffsgewichtungsschema durch die Einführung von Clusterfrequenz (CLF), um automatisch hochwertige Adjektivmerkmale aus Benutzerbewertungen zur Empfehlung zu extrahieren. Wir entwickeln auch ein Filmempfehlungs-Framework, das Adjektivmerkmale enthält, um eine hochpräzise Bewertungsvorhersage und eine qualitativ hochwertige Empfehlungserklärung zu generieren. Die Ergebnisse von Experimenten, die an einem realen Datensatz durchgeführt wurden, zeigen, dass unsere vorgeschlagene Methode die modernsten Techniken übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35142-6_2 d718b5cc8ff4eafb9c7e7f8b911a8a88;de;;;7.3.;;;Webbasiertes Proxyserver-Filtersystem Die Site mit nachteiligen Informations- und Sicherheitsrisiken, die Verwendung von Informationsfilterungstechnologie zum Filtern von Informationen auf der Site, das Entwerfen von webbasierten Proxyserver-Filtersystemen, die Analyse der Filterfunktion des Systems, die im Detail das Arbeitsprinzip und die Informationsverarbeitung beschrieben, und gibt konkrete Realisierung des Web-Filterprogramms. Das System erreicht durch einen Proxy-Server, Web-Filterung und Schlüsselwort-Filterung, Site-Informationen können dynamische Filterung sein, so dass Benutzer nützliche Informationssicherheit erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35398-7_4 adcc5b3c0e88cbc0befbc54f38542d2e;de;;;7.3.;;;Soziale und ethische Aspekte von IPv6 Das Internet Protocol Version 6 (bzw. IPv6) soll die aktuelle Version (IPv4) ablösen, die mittlerweile über 25 Jahre alt ist. Im Zusammenhang mit IPv6 treten drei Hauptkategorien sozialer und ethischer Fragen auf: Fragen des Rechts auf eine IP-Adresse, Fragen der Anwendung der Technologie und Fragen der Governance. Es gibt viele gesellschaftliche Vorteile von IPv6, da es wieder eine Ende-zu-Ende-Sicherheit der Übertragung ermöglicht. Dennoch muss die Governance dieser Bereitstellung jetzt und in den kommenden Jahren neutral und kontrolliert sein, und die Governance des IPv6-Internets, das nach der Bereitstellung entsteht, muss transparent und rechenschaftspflichtig sein. Alle Fehler, die wir jetzt machen, werden sehr kostspielig in Bezug auf den Verlust bestehender persönlicher Freiheiten sein. Dieses Papier wird diese Fragen untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-31168-8_19 821fdd6650541e2a0520ba00b9906ef5;de;;;7.3.;;;Computergestützte Forschung und wissenschaftliches Fehlverhalten Internet und CD-ROMs sind heute wichtige Quellen der wissenschaftlichen Forschung. Offensichtlich ergänzen und ergänzen diese computergestützten Tools Bibliotheken. Für manche scheinen sie Bibliotheken zu ersetzen, und Web-Präsentationen veröffentlichter Werke werden als scheinbar unendliche Quelle von Texten für Hausarbeiten, Prüfungsarbeiten und sogar Forschungsarbeiten verwendet. Es gibt Belege dafür, dass die Nutzung moderner Informationstechnologien, insbesondere des Internets und von CD-ROMs, fragwürdige oder sogar illegale Formen der wissenschaftlichen Veröffentlichung fördert. Das Spektrum wissenschaftlichen Fehlverhaltens wird durch ihr leicht zugängliches Repertoire an Forschungsmaterial bis hin zur Verbreitung gefälschter Abschlüsse erweitert. Diesem Prozess könnte und sollte durch (Selbst-)Regulierung, technische Mittel und vor allem Bildung entgegengewirkt werden, um die Wissenschaft als öffentlichen Prozess am Leben zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35609-9_11 ebc10da732d3e2b210704dc20ebedf74;de;;;7.3.;;;Gestaltungsoptionen für datenschutzkonforme Reputationssysteme in zentralisierten Internet-Communitys Reputationssysteme spielen in Internet-Communitys wie eBay eine wichtige Rolle. Sie ermöglichen es Mitgliedern der Community, das Verhalten anderer Mitglieder vor einer Interaktion einzuschätzen. Leider ermöglicht das Design aktueller Reputationssysteme die Erstellung von Benutzerprofilen einschließlich aller Kontexte, an denen der Benutzer beteiligt war. Wir werden Gestaltungsmöglichkeiten für ein solches System vorstellen und die damit verbundene Privatsphäre mit gängigen informationstheoretischen Modellen analysieren. Die Analyse unseres Reputationssystems ermöglicht es auch, ähnliche Aspekte des Datenschutzes in anderen Systemen zu analysieren, insbesondere das datenschutzfördernde Identitätsmanagement.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-33406-8_11 1bc4d21f0e5e0860122bfdecc3646ace;de;;;7.3.;;;Ein webbasiertes Empfehlungssystem für ausgediente IKT-Produkte Erstausrüster im Bereich der Informations- und Kommunikationstechnologie haben aus mehreren Gründen in letzter Zeit damit begonnen, dem Management ihrer Rücksendungen Priorität einzuräumen. Ein effektives Retourenmanagement ist aufgrund der Unsicherheit in Bezug auf Menge, Qualität, Zeitpunkt und Herkunftsort der Retouren ein kompliziertes Problem. In diesem Papier wird der Fall von End-of-Use-PCs untersucht und ein webbasiertes System, nämlich Reverse Logistics Marketplace, beschrieben, bei dem die interessierten Parteien Aufgaben im Zusammenhang mit der Verwaltung von Rücksendungen an Softwareagenten delegieren, anstatt physische Vorgänge durchzuführen. PC-Benutzer, die ihre PCs oder deren Teile zurückgeben möchten, können mit dem PC auf Anfrage auf den E-Marktplatz zugreifen und einen „Trusted Third Party“-Agenten anfordern, der die Konfigurationserkennung und das Benchmarking ihres PCs durchführt. Potenzielle Käufer können auch auf den E-Marktplatz zugreifen, um ihre Abholanträge zu registrieren, entweder für komplette PCs oder für Module davon. Zu den erweiterten Funktionen des Systems gehören die dauerhafte Existenz von Agenten auf dem E-Marktplatz, um aus durchgeführten Transaktionen zu lernen, ihre Fähigkeit, proaktiv zu handeln, um eine Transaktion zu initiieren, und die Integration eines multikriteriellen Entscheidungsunterstützungstools, das eine vergleichende Bewertung der Sammlungsanfragen und empfiehlt den PC-Benutzern die optimale Wiederherstellungsoption.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35617-4_39 11b23b7fdafe5f075a9ea00c24f7b98d;de;;;7.3.;;;Verarbeitung von konjunktiven und Phrasenabfragen mit dem mengenbasierten Modell Das Ziel dieses Papiers ist es, eine Erweiterung des mengenbasierten Modells (SBM) vorzustellen, das eine effektive Technik zur Berechnung von Termgewichten basierend auf Kookkurrenzmustern für die Verarbeitung von Konjunktiven und Phrasenabfragen ist. Dabei wird der Intuition Rechnung getragen, dass semantisch verwandte Begriffsvorkommen oft näher beieinander vorkommen. Die Neuheit besteht darin, dass alle bekannten Ansätze, die Kookkurrenzmuster berücksichtigen, ursprünglich für die Verarbeitung von disjunktiven (OR) Abfragen entwickelt wurden und unsere Erweiterung eine einfache, effektive und effiziente Möglichkeit bietet, konjunktive (UND) und Phrasenabfragen zu verarbeiten. Diese Technik ist zeitsparend und führt dennoch zu schönen Verbesserungen der Abrufeffektivität. Experimentelle Ergebnisse zeigen, dass unsere Erweiterung die durchschnittliche Genauigkeit des Antwortsatzes für alle ausgewerteten Sammlungen verbessert und den Rechenaufwand gering hält. Für die TReC-8-Sammlung führte unsere Erweiterung zu einem Gewinn von 23,32 % bzw. 18,98 % der durchschnittlichen Genauigkeitskurven für konjunktive bzw. Phrasenabfragen im Vergleich zum Standard-Vektorraummodell.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30213-1_25 c012561346dcdf28007d9582a73ab803;de;;;7.3.;;;Erweiterung von RDFS basierend auf den CGs Formalismen RDF(S) ist der aufkommende Standard für die Wissensrepräsentation im Web. Im europäischen IST-Projekt CoMMA, das der ontologiegesteuerten Informationssuche in einem Unternehmensgedächtnis gewidmet ist, werden die semantischen Annotationen, die die Intranet-Dokumente beschreiben, in RDF(S) dargestellt. In diesem Zusammenhang scheint die Expressivität von RDF(S) für eine effiziente IR zu stark eingeschränkt zu sein. In diesem Papier stellen wir DRDF(S) vor, eine Erweiterung von RDF(S), um Klassen- und Eigenschaftsdefinitionen und Axiome als ontologisches Wissen und allgemeiner kontextuelles Wissen im Semantic Web auszudrücken. Unser Ansatz wird durch die bestehende Zuordnung zwischen RDF(S) und CGs untermauert: DRDFS – die von uns vorgeschlagene Erweiterung von RDF(S) – basiert auf Merkmalen des Conceptual Graphs-Modells. Wir argumentieren, dass CGs die Bedürfnisse des Semantic Web erfüllen und hoffen, dass DRDF(S) zur laufenden Arbeit des W3C-Komitees zur Verbesserung von RDF(S) beitragen wird.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44583-8_20 1c506c03f0c2ae13edc9ae4bf79eaa1e;de;;;7.3.;;;Boom und Pleite der Telekommunikation 1996-2003 und die Rolle der Finanzmärkte Finanzkrisen sind nach wie vor ebenso Teil der modernen, auf Informations- und Kommunikationstechnologien basierenden (IKT) Wirtschaft wie in früheren Volkswirtschaften. Warum sind wir anscheinend nicht in der Lage, Lehren aus der Vergangenheit zu ziehen und das zu vermeiden, was Charles Kindleberger (2000) als „Manien, Panik und Abstürze“ bezeichnet hat? Warum haben es uns unser ausgeklügelter Informationsbestand, der uns durch unsere Investitionen in IKT leicht und relativ günstig zur Verfügung gestellt wird, und unsere zahlreichen Theorien und Modelle nicht erlaubt, diese finanziellen Exzesse zu umgehen? Das Ziel dieses Papiers ist es, einige der Prozesse und Mechanismen hervorzuheben, die eine bedeutende Rolle bei der Entstehung des Telekommunikations-Booms und -Busts 1996-2003 gespielt haben. Die Frage, ob an diesen Prozessen und Mechanismen etwas getan werden kann, um solche finanziellen Exzesse in Zukunft zu modifizieren, wird abschließend aufgegriffen.;-;-;-;https://link.springer.com/article/10.1007/s00191-004-0196-x 9f76c58b81c52d60cbed0aa54240dd10;de;;;7.3.;;;Erstellen von Rechennetzen mit allgegenwärtigen Webtechnologien Grid Computing ist eine spannende Entwicklung, die für viele Benutzer mit periodischem Bedarf an massiver Rechenleistung die Basistechnologie zu sein verspricht. Es gibt eine Reihe von Grid-Computing-Infrastrukturen, die voll ausgestattet, leistungsstark, effizient und sicher sind. Für unerfahrene Benutzer sind diese Systeme jedoch nicht einfach einzurichten und zu verwenden, was ein erhebliches Hindernis für ihre Einführung darstellt. M grid bietet einen alternativen Ansatz, der die Erstellung eines Rechengitters ermöglicht, das Aufgaben von jedem Benutzer mit Zugriff auf das Web annehmen und ohne Sicherheitseinwirkungen an Maschinen verteilen kann, auf denen ein Standard-Webbrowser ausgeführt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32775-9_26 b1ef4fa56edecf3f0180a17afa1c0461;de;;;7.3.;;;Webtools und Webanwendungen Dieses Papier ist eine Zusammenfassung der während der Arbeitskonferenz aufgeworfenen Fragen zu webbasierten Lernsystemen und -werkzeugen. Sein Inhalt entspricht dem gesamten Spektrum der schriftlichen und mündlichen Beiträge auf der Konferenz.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35352-4_19 ff5dbf43ee72b06c9a94193c3d425c8b;de;;;7.3.;;;Diversifizierung von Fragenempfehlungen in der Community-basierten Fragenbeantwortung Die Abfrage von Fragen ist ein wichtiges Forschungsthema in der Community-basierten Fragebeantwortung (QA). Herkömmlicherweise werden Fragen, die der Abfragefrage semantisch äquivalent sind, als Top-Ränge betrachtet. Die traditionelle Frage-Retrieval-Technik hat jedoch die Schwierigkeit, die Informationsbedürfnisse der Benutzer zu verarbeiten, die implizit in die Frage eingebettet sind. Dieses Papier schlägt eine neuartige Methode der Frageempfehlung vor, indem die unterschiedlichen Informationsbedürfnisse der Benutzer berücksichtigt werden. Durch die Schätzung des Informationsbedarfs an Kompaktheit in den Abfrageergebnissen identifizieren wir weiter, dass die Abfrageergebnisse diversifiziert werden müssen. Für diese Ergebnisse werden die Scores des Information-Retrieval-Modells, die Bedeutung und Neuheit beider Fragetypen und die informativen Aspekte des Frageninhalts kombiniert, um vielfältige Fragenempfehlungen zu erhalten. Vergleichsexperimente an einem groß angelegten realen gemeinschaftsbasierten QS-Datensatz zeigen, dass die vorgeschlagene Methode die Abdeckung des Informationsbedarfs und die Vielfalt durch relevante Fragenempfehlungen effektiv verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24965-5_20 12116d2f95ac8f30f4ea5364f4099670;de;;;7.3.;;;RBAC im Web durch sichere Cookies Aktuelle Ansätze zur Zugriffskontrolle auf Webservern skalieren nicht auf unternehmensweite Systeme, da sie meist auf einzelnen Benutzern basieren. Daher waren wir von der Notwendigkeit motiviert, die starke Zugriffskontrolltechnologie von RBAC in großen Webumgebungen zu verwalten und durchzusetzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35508-5_4 5e7895c3ed09a3cfc5b1919bab8bbad3;de;;;7.3.;;;Verbesserung der Webabrufpräzision basierend auf semantischen Beziehungen und der Nähe von Abfrageschlüsselwörtern Basierend auf neueren Studien beinhalten die häufigsten Suchanfragen bei Websuchen ein oder zwei Schlüsselwörter. Während die meisten Websuchmaschinen bei einer Abfrage mit einem einzigen Schlüsselwort sehr gut abschneiden, ist ihre Genauigkeit bei Abfragen mit zwei oder mehr Schlüsselwörtern nicht so gut. Suchergebnisse enthalten oft eine große Anzahl von Seiten, die für eines der Keywords nur schwach relevant sind. Eine Lösung besteht darin, sich auf die Nähe von Keywords in den Suchergebnissen zu konzentrieren. Das Filtern von Schlüsselwörtern nach semantischen Beziehungen könnte ebenfalls verwendet werden. Wir haben eine Methode entwickelt, um die Genauigkeit des Web-Retrievals basierend auf den semantischen Beziehungen zwischen und der Nähe von Schlüsselwörtern für Abfragen mit zwei Schlüsselwörtern zu verbessern. Wir haben ein System implementiert, das Websuchergebnisse basierend auf drei Maßnahmen neu einordnet:;-;-;-;https://link.springer.com/chapter/10.1007/11827405_6 ff3025e55f44ee0b72073c3e4e62474b;de;;;7.3.;;;Ein erweiterbares Framework für die Integration von Websites Ein möglicher Weg, schnell eine Website für eine Organisation oder eine ihrer Geschäftseinheiten zu erstellen, besteht darin, vorhandene Websites zu sammeln, die Teile der Organisation beschreiben, und sie in eine globale einheitliche Website zu integrieren. Es ermöglicht dem Designer, vergangene Entwicklungsbemühungen wiederzuverwenden, um eine Website zu erstellen, die zumindest die Vereinigung der bestehenden Websites enthält. Das Hauptproblem besteht darin, eine gut strukturierte integrierte Website zu definieren. In Analogie zu in der Vergangenheit entwickelten Ansichtsintegrationstechniken beschreibt dieses Papier ein Verfahren zur Durchführung eines solchen Integrationsprozesses. Im Anschluss an die Entwicklung unseres Ansatzes analysieren wir eine reale Website-Integration und geben Einblicke in nützliche Aspekte der Website-Integration.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35614-3_18 29c65bb961016fa56294552b66b8ee21;de;;;7.3.;;;Trennende Partitionierung in Hauptrichtung Wir schlagen einen neuen Algorithmus vor, der in der Lage ist, einen Satz von Dokumenten oder anderen Proben basierend auf einer Einbettung in einen hochdimensionalen euklidischen Raum (d. h. in dem jedes Dokument ein Vektor reeller Zahlen ist) zu partitionieren. Die Methode ist insofern ungewöhnlich, als sie im Gegensatz zu agglomerativ spaltend ist und indem Cluster wiederholt in kleinere Cluster aufgeteilt werden. Die Dokumente sind zu einer sehr spärlichen Matrix zusammengestellt. Es ist diese Sparsity, die es dem Algorithmus ermöglicht, sehr effizient zu sein. Die Leistungsfähigkeit des Verfahrens wird mit einem Satz von Textdokumenten veranschaulicht, die aus dem World Wide Web stammen. Einige mögliche Erweiterungen werden zur weiteren Untersuchung vorgeschlagen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1009740529316 e166039866e562c50051aa5c6543bf49;de;;;7.3.;;;PageRank: Aufspaltung homogener singulärer linearer Systeme mit Index Eins Der PageRank-Algorithmus wird heute beim Abrufen von Webinformationen verwendet, um eine inhaltsneutrale Ranking-Metrik über Webseiten bereitzustellen. Es verwendet Power-Methode-Iterationen, um nach dem stationären Vektor eines DTMC aufzulösen. Die definierende einstufige Wahrscheinlichkeitsübergangsmatrix dieses DTMC wird aus der Hyperlinkstruktur des Webs und einem Modell des Websurfverhaltens abgeleitet, das Benutzer-Lesezeichen und gespeicherte URLs berücksichtigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04417-5_3 d626c04d94b6e2db560177a7149a60a3;de;;;3.4.;;;Direct-Response-Buchhandel: Wie es starb, warum es wieder lebt und warum es in Zukunft noch wichtiger werden wird Direktwerbung, einst der Motor erfolgreicher Buchhandelsunternehmen wie Book-of-the-Month Club, Reader’s Digest Condensed Books und Time Life Books, war noch vor 20 Jahren ein wichtiger Kanal für die Vermarktung von Büchern. Als Opfer des Wachstums großer Buchhandelsketten und später des Internets gilt der Direktverkauf als nicht mehr rentabel. Aber viele der Fähigkeiten, die Direktvermarkter vor Jahrzehnten entwickelt haben, sind für das moderne Buchmarketing von hoher Relevanz – insbesondere wenn man bedenkt, dass das Internet selbst der beste Direktmarketing-Kanal ist, der je erfunden wurde. Und da eBooks die Verlagsstruktur weiter verändern, werden Verlage zunehmend unter Druck geraten, Direktmarketingmethoden zu nutzen und direkt mit ihren Lesern in Kontakt zu treten, anstatt sie wie traditionell über Buchhändler und andere Vermittler zu erreichen.;-;-;-;https://link.springer.com/article/10.1007/s12109-011-9219-2 b7462f4f15c83f67a0ab7d4a825738db;de;;;7.3.;;;Bewertung und Vorhersage der vertikalen Absicht für Webabfragen Die Zusammenfassung von Suchergebnissen aus einer Vielzahl heterogener Quellen, d. h. aus sogenannten Verticals [1], wie Nachrichten, Bilder, Videos und Blogs, in einer einzigen Oberfläche ist zu einem beliebten Paradigma in der Websuche geworden. In diesem Papier präsentieren wir die Ergebnisse einer Nutzerstudie, die mehr als 1.500 Bewertungen der vertikalen Absicht zu 320 Webthemen gesammelt hat. Erstens zeigen wir, dass Benutzer für viele Abfragen unterschiedliche vertikale Inhalte bevorzugen und dass der Grad der Zustimmung zwischen den Gutachtern für die Aufgabe ist;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28997-2_50 fae91eb8e0574d54216f335291131c6d;de;;;7.3.;;;Mehrsprachige Themengenerierung im Rahmen der CLEF 2001 Experimente Die Themengenerierung wird als eines der entscheidenden Elemente im Bewertungsprozess des Information Retrieval angesehen. Im Kontext von CLEF liegt der Schwerpunkt auf der Evaluierung mehrsprachiger Funktionen. Für die Themengenerierung bedeutet dies, dass Themen in verschiedenen Sprachen erstellt werden müssen. Beginnend mit TREC werden die wichtigen Parameter der Themengenerierung beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45691-0_36 0b6817b1b8c0dc54afa6023d4702e565;de;;;7.3.;;;Semantic Web Modeling for Virtual Organization: Eine Fallstudie in der Logistik Die organisationsübergreifende Interoperabilität und Koordination sind große Herausforderungen für Anwendungen der virtuellen Organisation (VO). In diesem Beitrag wird eine semantische Web-fähige Multi-Agenten-Plattform zur logistischen VO-Unterstützung vorgeschlagen. Das Problem der Erweiterung von OWL mit Multi-Attribut-Constraints für die VO-Modellierung wird angesprochen. Eine Einschränkungsregelsprache;-;-;-;https://link.springer.com/chapter/10.1007/11836025_58 1df3396491d641add1f09f4f3aba17e6;de;;;7.3.;;;Quantitative Bewertung der Einhaltung der Richtlinien für das mobile Web web Konformitätskennzahlen für das mobile Web können bei der Entwicklung mobiler Websites eine entscheidende Rolle spielen, insbesondere wenn sie automatisch abgerufen werden. So können sich Entwickler zahlenmäßig ein Bild davon machen, wie gut ihre Entwicklungen für mobile Endgeräte geeignet sind. Es gibt jedoch eine Vielzahl von Geräten mit eigenen Besonderheiten (Bildschirmgröße, Formatunterstützung usw.), die einen einheitlichen automatischen Bewertungsprozess einschränken. Dieses Papier schlägt eine toolgestützte Methode zur gerätespezifischen Bewertung in Bezug auf die Konformität mit Mobile Web Best Practices 1.0 vor, einschließlich der Definition von fünf quantitativen Metriken zur automatischen Messung der Konformität des mobilen Webs: Navigability, Seitenlayout, Seitendefinition, Benutzereingabe und Gesamt Punktzahl. Das Verhalten dieser Metriken wurde für verschiedene Geräte und verschiedene Webparadigmen analysiert, sowohl für mobile Webseiten als auch für ihre entsprechenden Desktop-Seiten. Wie erwartet zeigen die Ergebnisse, dass mobile Webseiten auf leistungsfähigeren Geräten höher abschneiden. Darüber hinaus nahmen 20 Benutzer an einem Experiment teil, das herausfinden sollte, wie sich konformitätsbasierte Scores auf Usability-Dimensionen beziehen. Die Ergebnisse zeigen, dass automatische Scoring-Ansätze stark mit Usability-Scores korrelieren, die durch direkte Beobachtung erhalten wurden, wie zum Beispiel Aufgabenerledigungszeit und Benutzerzufriedenheit. Dieser Zusammenhang ist bei der gerätespezifischen Bewertung noch stärker als bei der Annahme eines allgemeinen Profils für alle Geräte. Zum Beispiel zeigen die Ergebnisse eine starke negative Korrelation zwischen der Gesamtpunktzahl und der Aufgabenerledigungszeit: ρ (9) = −0,81, (;-;-;-;https://link.springer.com/article/10.1007/s10209-010-0186-8 b703f4ce049ed4529141daad29deb0fc;de;;;7.3.;;;Richtliniengesteuerte und auf mehreren Agenten basierende Fehlertoleranz für Webdienste In diesem Whitepaper wird ein richtliniengesteuertes und auf mehreren Agenten basierendes Modell vorgeschlagen, um die Fehlertoleranz und Wiederherstellungsfähigkeiten von Webdiensten in verteilten Umgebungen zu verbessern. Sowohl die Bewertungsfunktion von Fehlerspezifikationen als auch die entsprechenden Handhabungsmechanismen der Dienste sind in Policies definiert, die in XML ausgedrückt werden. Während der Durchführung der Dienste wird das Auftreten von Fehlern durch den Service-Monitor-Agenten durch die lokale Kenntnis der Fehler überwacht. Ein solches lokales Wissen wird dynamisch vom Dienstrichtlinienagenten durch Abfragen und Analysieren der Dienstrichtlinien aus dem Dienstrichtlinien-Repository erzeugt. Wenn der Fehler auftritt, konzentriert sich der Serviceprozessagent auf den Prozess der Fehlerbehandlung und Servicewiederherstellung, der mit den in den Richtlinien definierten Aktionen unter den spezifischen Bedingungen geleitet wird. Ein solcher richtliniengesteuerter und auf mehreren Agenten basierender Fehlerbehandlungsansatz kann die Probleme der Flexibilität, Automatisierung und Verfügbarkeit angehen.;-;-;-;https://link.springer.com/article/10.1631/jzus.2005.A0676 4465f1689f6b542df53c20c47d03ea88;de;;;7.3.;;;Algorithmus zum Entfernen von Duplikaten basierend auf dem Ergebnis der Metasuche Entsprechend den Eigenschaften von doppelten Webseiten in der Metasuchmaschine wird ein Erkennungsalgorithmus für doppelte Webseiten basierend auf einer Webseiten-URL, einem Titel und einer Zusammenfassung vorgeschlagen, und entsprechend ihren unterschiedlichen Eigenschaften wird eine unterschiedliche Ähnlichkeitsberechnungsmethode vorgeschlagen, erstens die Seiten-URL wird im Algorithmus standardisiert verarbeitet, und dann verbessert der Algorithmus für die Titelerkennung den Fuzzy-Matching-Algorithmus für die Titelzeichenfolge und berechnet die Ähnlichkeit basierend auf der Worthäufigkeit der einzelnen Elemente in der Abfrage. Für die abstrakte Beurteilung ist die Ähnlichkeitsberechnung in in Übereinstimmung mit den Sätzen der Zusammenfassung gibt der Algorithmus für jeden Satz drei Gewichte und berechnet die Ähnlichkeitsgewichte auf der Grundlage jeder zusammenfassenden Aussage, die Wirkung des Algorithmus ist offensichtlich, es wurde experimentell bestätigt, dass der Algorithmus besser ist als der traditionelle Algorithmus in der Präzision und Rückrufrate.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00009-7_4 5a7f7163e4365ef5b2f30bbcbfba9654;de;;;3.4.;;;Weltbuchnacht Die World Book Night US wurde nach der erfolgreichen World Book Night in Großbritannien im März 2011 ins Leben gerufen. Beide Länder werden nun die jährliche Veranstaltung am 23. April 2012 veranstalten und hoffen, dass sie auch von anderen Ländern aufgegriffen wird . Sein Hauptziel besteht darin, die Alphabetisierung durch die Anwerbung von Freiwilligen zu fördern, die auf der Suche nach Nicht- oder leichten Lesern in die Gemeinschaft gehen, mit kostenlosen, nicht für den Wiederverkauf bestimmten Taschenbuchausgaben von 25 bis 30 verschiedenen Titeln. Insgesamt eine Million Bücher. Im Rahmen dieser Bemühungen soll die gesamte Öffentlichkeitsarbeit den Wert des Lesens allgemein beleuchten. In beiden Ländern haben sich alle Buchgruppen zusammengeschlossen, um die Kampagne zu unterstützen: Verleger, Autoren, Buchhändler, Bibliothekare und andere. Sowohl die britischen als auch die US-amerikanischen Organisationen sind gemeinnützige Wohltätigkeitsorganisationen, die von Verlagen, Buchhändlern und Stiftungen finanziert werden, sehr Firmen- und Einzelspenden werden erbeten. Jede Organisation hat einen Geschäftsführer, einen Vorstand oder Treuhänder und dann ausschließlich ehrenamtliche Beratungs-, Marketing-, Website- und Werbegruppen. Die Millionenbuchproduktion wird vom Direktor und einem Produktionskomitee koordiniert, und ein Verteiler bringt die Bücher zu Buchhandlungs- oder Bibliotheksabgabestellen, wodurch das dritte Ziel erreicht wird, das an den Wert von Buchhandlungen und Bibliotheken in der Gemeinschaft und Kultur erinnert.;-;-;-;https://link.springer.com/article/10.1007/s12109-011-9250-3 c53c3aa1eb7d3500d7d09a759a07bdf1;de;;;7.3.;;;Speicherung von Website-Anmeldeinformationen und Zwei-Faktor-Webauthentifizierung mit einer Java-SIM In diesem Beitrag werden zwei Authentifizierungsschemata für mobile Websites vorgeschlagen. Die erste ermöglicht das sichere Speichern und Abrufen von Authentifizierungsdaten (Benutzername und Passwort) von einem Mobiltelefon und erfordert keine Änderungen an bestehenden Websites. Das zweite Schema, das optional mit dem ersten verwendet werden kann, verwendet ein Einmalpasswort und ist für Anwendungen gedacht, die ein verbessertes Authentifizierungsniveau erfordern, z. Finanzdienstleistungen. Beide Authentifizierungsschemata verwenden eine Java-SIM und ein allgegenwärtiges Mobiltelefon mit seinem vertrauten und komfortablen Formfaktor und einer hohen Benutzerakzeptanz. Beide Schemata bieten auch Schutz vor Online-Phishing-Angriffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12368-9_17 f26c012ba2200d057c9858fc746fa936;de;;;7.3.;;;Web Usability Probe: Ein Tool zur Unterstützung der Remote Usability Evaluation von Websites Die Bewertung der Benutzerfreundlichkeit von Websites ist immer noch eine schwierige und zeitaufwändige Aufgabe, die oft manuell durchgeführt wird. In diesem Whitepaper wird ein Tool vorgestellt, das die Remote-Usability-Evaluierung von Websites unterstützt. Das Tool berücksichtigt clientseitige Daten zu Benutzerinteraktionen und JavaScript-Ereignissen. Darüber hinaus ermöglicht es die Definition benutzerdefinierter Ereignisse, wodurch Evaluatoren die Flexibilität haben, bestimmte Ereignisse hinzuzufügen, die erkannt und bei der Bewertung berücksichtigt werden sollen. Das Tool unterstützt die Bewertung jeder Website durch die Nutzung einer Proxy-basierten Architektur und ermöglicht es dem Evaluator, einen Vergleich zwischen dem tatsächlichen Benutzerverhalten und einer optimalen Abfolge von Aktionen durchzuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23768-3_29 00ead3b3fc2b950415ac7e4ffff2fe02;de;;;7.3.;;;Design und Implementierung von Terminplanungssystemen: Fortgeschrittenere Konzepte Dieses Kapitel konzentriert sich auf eine Reihe von Problemen, die in den letzten Jahren bei der Konzeption, Entwicklung und Implementierung von Planungssystemen aufgetreten sind. Im ersten Abschnitt werden Fragen zu Unsicherheit, Robustheit und reaktiver Entscheidungsfindung erörtert. In der Praxis müssen Fahrpläne oft aufgrund zufälliger Ereignisse geändert werden. Je robuster der ursprüngliche Zeitplan ist, desto einfacher ist die Umplanung. Dieser Abschnitt konzentriert sich auf die Erstellung robuster Fahrpläne sowie auf die Messung ihrer Robustheit. Der zweite Abschnitt befasst sich mit Mechanismen des maschinellen Lernens. Kein System kann durchweg gute Lösungen generieren, die dem Nutzer gefallen. Oftmals muss der Entscheider den vom System generierten Zeitplan anpassen, um ihn nutzbar zu machen. Ein gut konzipiertes System kann aus früheren Anpassungen des Benutzers lernen. Der Mechanismus, der es dem System ermöglicht, dies zu tun, wird als Lernmechanismus bezeichnet. Der dritte Abschnitt konzentriert sich auf das Design von Scheduling-Engines. Eine Engine enthält oft eine ganze Bibliothek von Algorithmen;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-2361-4_18 cb12540c5c1e552b9f3a6eea3d57a930;de;;;3.4.;;;Die Auswirkungen von obligatorischen wettbewerblichen Ausschreibungen Von allen Änderungen, die von den konservativen Regierungen von 1979 bis 1997 eingeführt wurden, waren die vielleicht grundlegendsten und weitreichendsten diejenigen, die mit der obligatorischen wettbewerblichen Ausschreibung (CCT) verbunden waren. Aufeinanderfolgende Gesetzeserlasse zwangen die lokalen Behörden, bestimmte Dienstleistungen zu den vom Zentrum festgelegten Bedingungen und Zeitplänen im Wettbewerb auszuschreiben. In vielen Fällen wurden die Ausschreibungen, wie wir noch sehen werden, nicht von privaten Unternehmen, sondern durch firmeninterne Angebote der eigenen Belegschaft gewonnen. Aber schon die Zusammenstellung eines Ausschreibungsdokuments sowie die Erstellung und Überwachung von Verträgen führen zu tiefgreifenden Veränderungen in der internen Verwaltung und Arbeitsweise einer Behörde – ausreichend tiefgreifend, um CCT ein eigenes Kapitel zu rechtfertigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-26082-9_19 89c9ebde178f21475ad8f61c2cafa78b;de;;;7.3.;;;NEWS: Einführung von Semantic Web-Technologien in Nachrichtenagenturen In der heutigen Informationsgesellschaft ist es eine Grundvoraussetzung, informiert zu sein. Als einer der wichtigsten Akteure des Nachrichtengeschäfts müssen Nachrichtenagenturen ihren Kunden frische, relevante und qualitativ hochwertige Informationen zur Verfügung stellen. Der Umgang mit dieser Anforderung ist keine leichte Aufgabe, aber als Partner des NEWS-Projekts (News Engine Web Services) glauben wir, dass der Einsatz von Semantic Web-Technologien Nachrichtenagenturen dabei helfen könnte, dieses Ziel zu erreichen. In diesem Beitrag beschreiben wir die Ziele und wichtigsten Errungenschaften des gerade abgeschlossenen NEWS-Projekts.;-;-;-;https://link.springer.com/chapter/10.1007/11926078_56 40e017f46e040990822eea2a6ac82d26;de;;;7.3.;;;Glänzendes Chrome: Verwenden von Webbrowser-Personas zur Verbesserung der SSL-Zertifikatsvisualisierung Durchschnittlichen Benutzern fehlt das technische Fachwissen, um SSL-Zertifikate zu verstehen, und Sicherheit ist nicht ihr Hauptziel. Daher ist es sehr schwierig, mithilfe von SSL-Statusindikatoren einen nennenswerten Einfluss auf das Benutzerverhalten zu erzielen. Mit der Einführung von Webbrowser-Personas (einfache Skins) als Möglichkeit, das Chrom des Browsers zu ändern, wird es jedoch möglich, eine große Statusanzeige bereitzustellen, ohne Bildschirmfläche zu verschwenden. In dieser Arbeit präsentieren wir eine Evaluation von Personas zur Darstellung des aktuellen SSL-Status kombiniert mit neu gestalteten SSL-Warnmeldungen, sowohl im Labor als auch im Feld. Die Ergebnisse legen nahe, dass die Konzepte das Sicherheitsbewusstsein positiv beeinflusst haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23768-3_4 80617b8581af60a2d262792df48dbb20;de;;;7.3.;;;QoE-Evaluierungsmodell für das Geschäft mit drahtlosen Videonetzwerken Wir schlagen ein Multi-Index-Bewertungsmodell der Erlebnisqualität (QoE) für drahtloses Video vor, das die Netzqualität des Dienstes, die Qualität des Inhalts, die Qualität der Interaktion und die Qualität des Endgeräts kombiniert. Zur Analyse dieser Einflussfaktoren und zur Etablierung des Bewertungssystems verwenden wir insbesondere das Fuzzy Analytic Hierarchy Process (FAHP). Darüber hinaus überprüfen wir den Einfluss jedes Indikators auf die QoE für drahtloses Video in der Netzwerkübertragung durch Simulationen und subjektive Bewertungswerte. Die experimentellen Ergebnisse zeigen, dass unser vorgeschlagenes Verfahren stark mit der subjektiven Bewertung korreliert und somit QoE für das drahtlose Video in der Netzwerkübertragung effizienter aufdecken kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7521-6_7 a5005092f3679fd57e662dd533df5195;de;;;7.3.;;;Abrufen von Musikinformationen Musik ist ein sehr interessantes Thema in unserer Gesellschaft, da fast jeder gerne Musik hört und viele etwas schaffen wollen. Im Großen und Ganzen ist die Forschung im Bereich Music Information Retrieval (MIR) eines der zukünftigen Forschungsinteressen mit der Extraktion und Inferenz von aussagekräftigen Merkmalen aus Musik (aus dem Audiosignal), der Indexierung von Musik unter Verwendung dieser Merkmale und der Entwicklung von deferent search and Abrufschemata (zum Beispiel inhaltsbasierte Suche, Musikempfehlungssysteme oder Benutzerschnittstellen zum Durchsuchen großer Musiksammlungen), wie von Downie (2003) definiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-3959-1_2 17e6ebc9d1226a53385ecf896af8b749;de;;;7.3.;;;Validierung eines hyperspektralen inhaltsbasierten Informationsabrufsystems (RS-CBIR) bei knappen Daten Die Validierung von inhaltsbasierten Informationsabrufsystemen (RS-CBIR) der Fernerkundung erfordert aufgrund der Knappheit gekennzeichneter Daten innovative Strategien. Die Validierung von CBIR-Systemen durch Präzisions-/Rückrufmaßnahmen basierend auf Benutzerfeedback oder a-priori bekannten Kategorien ist auf RS-CBIR-Systeme schwer anwendbar. Wir schlagen vor, eine datengetriebene (unüberwachte) Qualitätsbewertungsstrategie analog der DAMA-Strategie für die Validierung von Klassifizierungsmethoden für die thematische Kartierung anzuwenden. Die Strategie ist für die Qualitätsbewertung gedacht, wenn wenig oder keine Ground Truth verfügbar ist. Die vorgeschlagene Strategie befasst sich mit dem RS-CBIR-Validierungsproblem, indem sie einen quantitativen und qualitativen Nachweis der relativen (subjektiven) Qualität von RS-CBIR-Systemen liefert, ohne dass;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19644-7_6 4a3a98cf3c79099ef3b84f66f86592d1;de;;;3.4.;;;Entwicklung der Abfallwirtschaft in Malaysia: Auswirkungen und Auswirkungen des Gesetzes über feste Abfälle, 2007 Die Entstehung fester Abfälle und ihre Auswirkungen auf Mensch und Umwelt sind globale Themen. Die Komplexität der Abfallzusammensetzung und das stetig steigende Pro-Kopf-Abfallaufkommen stellt insbesondere in Entwicklungsländern eine Herausforderung für Abfallwirtschaftler dar. Daher ist es notwendig, eine klare Politik zur Abfallbewirtschaftung und Gesetzgebung zu haben, um zu erkennen, dass diese Politik zwingend erforderlich ist. Malaysia entwickelt sich rasant und Probleme wie die mit der Entwicklung und Industrialisierung verbundene Abfallerzeugung sind offensichtlich. Der Gesetzentwurf zur Entsorgung fester Abfälle und öffentlicher Reinigung, der im August 2007 mit einer Verzögerung von 10 Jahren verabschiedet wurde, wird voraussichtlich schwerwiegende Folgen für die Abfallwirtschaft und die Umsetzung in Malaysia haben. Dieser Artikel untersucht die Hauptmerkmale dieses allumfassenden Gesetzesentwurfs und seine Auswirkungen auf das Abfallmanagement-Szenario in Malaysia. Darüber hinaus wird auch eine vergleichende Bewertung diskutiert, um die Politik/Gesetzgebung ausgewählter Länder gegenüber dem malaysischen Gesetzentwurf zu untersuchen.;-;-;-;https://link.springer.com/article/10.1007/s10163-008-0231-3 be611f17e58776585a43d08f1f682186;de;;;7.3.;;;Alternative Edge-Server-Architekturen für Enterprise-JavaBeans-Anwendungen Edge-Server-Architekturen werden häufig verwendet, um die Leistung von Webanwendungen für nicht transaktionsbezogene Daten zu verbessern. Ihre Verwendung mit Transaktionsdaten wird jedoch durch die Notwendigkeit erschwert, eine gemeinsame Datenbank zu unterhalten, die von verschiedenen Edge-Servern gemeinsam genutzt wird. In diesem Papier untersuchen wir die Leistungsmerkmale alternativer Edge-Server-Architekturen für transaktionale Enterprise JavaBeans (EJBs)-Anwendungen. In einer Architektur wird eine entfernte Datenbank von mehreren Edge-Servern gemeinsam genutzt, in einer anderen behalten Edge-Server zwischengespeicherte Kopien von transaktionskonsistenten EJBs. Wichtig ist, dass die Caching-Funktion für Anwendungen, die sie verwenden, transparent ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30229-2_11 118c05ee24929694a917ba6c9e4814d7;de;;;7.3.;;;Medien: Die Sanierung von Bild und Ton Die Einwohner Londons konnten nun … schlürfend ihren Morgentee im Bett, die verschiedenen Produkte der ganzen Welt bestellen und vernünftigerweise ihre Lieferung vor seiner Haustür erwarten, er konnte im gleichen Moment und auf die gleichen Weise seinen Reichtum in der natürliche Ressourcen und neue Unternehmen aus jedem Viertel der Welt und teilen Sie ohne Anstrengung oder sogar Mühe die zukünftigen Früchte und Vorteile. (John Maynard Keynes, zitiert in Morley, 2007: 236);-;-;-;https://link.springer.com/chapter/10.1057/9780230584167_4 ea08ef2df92a43983d93435cfb7711a8;de;;;7.3.;;;Wissenschaftliche Buchliteratur in einer digitalen Gesellschaft Bling in einer digitalen Gesellschaft werden analysiert. Das Konzept des E-Books wird beschrieben. Die Rolle und Funktionen von Verlagen, die sich auf die Veröffentlichung wissenschaftlicher Literatur konzentrieren, werden besprochen. Die Unterschiede zwischen der Nutzung von Urheberrechten für wissenschaftliche Literatur und alle anderen Arten von Veröffentlichungen werden angegeben. In den Fällen, in denen der Staat über Forschungsstiftungen zur Finanzierung wissenschaftlicher Literatur beiträgt, wird vorgeschlagen, die Rolle der Verlage auf technische Funktionen im Zusammenhang mit der Layoutgestaltung zu beschränken und so die spätere Aufnahme wissenschaftlicher Publikationen in den freien freien Zugang sicherzustellen. Die Möglichkeit, die Liste der öffentlich förderbaren wissenschaftlichen Literaturstellen zu erweitern, ist gerechtfertigt. Diskutiert wird die Notwendigkeit, die Digitalisierung der in der Sowjetunion veröffentlichten wissenschaftlichen Literatur und deren anschließende Aufnahme in den Open Access rechtlich zu unterstützen.;-;-;-;https://link.springer.com/article/10.3103/S0147688213040084 05fbce0f92bab4f1e30f47ceeede3199;de;;;7.3.;;;Das Potenzial von Web 2.0-Tools zur Förderung des Leseengagements in einem allgemeinbildenden Kurs Allgemeinbildende Klassen beinhalten umfangreiche Kurslektüre. College-Lehrer haben eine begrenzte Zeit, um jedes Detail der Materialien zu behandeln, die die Schüler im Unterricht lernen sollen, daher erwarten sie, dass die Schüler durch das Lesen von Kursen lernen. Viele College-Studenten zeigen jedoch ein geringes Engagement bei den Leseaufgaben im Kurs. Vorhandene Untersuchungen haben ergeben, dass die meisten College-Studenten ihre zugewiesenen Lektüre nicht abschließen oder nur oberflächlich lesen, wie z. B. Überfliegen und wörtliches Verständnis. Trotz dieses negativen Phänomens an Hochschulen fehlt es an Forschung, um das Leseengagement in College-Klassenzimmern zu fördern. Der Zweck dieses Papiers besteht darin, Hochschullehrern praktische Anleitungen zur Verwendung von Web 2.0-Tools zur Verfügung zu stellen, um das Engagement der Studenten bei dieser Aufgabe zu verbessern. Nach der Selbstbestimmungstheorie (SDT) teilen Web 2.0-Tools mehrere das Engagement steigernde Faktoren. Der Artikel diskutiert das Potenzial der Web 2.0-Technologie, um Studenten durch die Ausrichtung auf SDT zu motivieren. Basierend auf dem Potenzial von Web 2.0 schlägt das Papier praktische Möglichkeiten vor, verschiedene Web 2.0-Tools (d.;-;-;-;https://link.springer.com/article/10.1007/s11528-013-0645-1 d0c9c79d5fa82fc32e459ca8d8a4d444;de;;;7.3.;;;Web 2.0 in KMU-Netzwerken – ein designwissenschaftlicher Ansatz unter Berücksichtigung multiperspektivischer Anforderungen Da kleine und mittlere Unternehmen (KMU) in einem komplexen und dynamischen Wettbewerbsumfeld vor neuen Herausforderungen stehen, müssen sie aufgrund ihrer begrenzten Ressourcen und begrenzten Kapazitäten kooperieren. Dabei wird Enterprise 2.0 als unterstützender Ansatz gesehen. Bislang fehlen wissenschaftliche Publikationen zu Empfehlungen für den Einsatz von Web 2.0-Artefakten in KMU-Netzwerken. Dieses Papier zielt darauf ab, diese Lücke zu schließen, indem es eine konzeptionelle Grundlage vorschlägt, die dem Ansatz der Designwissenschaft folgt. Ausgehend von technischen und organisatorischen Anforderungen aus explorativen Interviews mit Vertretern von KMU, die an einem regionalen KMU-Netzwerk teilnehmen, übertragen wir die Anforderungen in ein prototypisches Konzept. Dieses entwickelte Artefakt bildet die Grundlage für einen Feldtest zur Evaluierung des Konzepts und für weitere Forschungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03132-8_22 9491a29734185f635257f8bfddc93c0b;de;;;7.3.;;;Was können Webanalysten für die Mensch-Computer-Interaktion tun? Gefördert durch das Aufkommen von Web-Technologien und neuen Streams wie Ubiquitous Computing, Social Media oder mobile Technologien, wurde dem Bereich Web Analytics viel Aufmerksamkeit geschenkt, um das Technologienutzungsverhalten von Endbenutzern, wie z oder Mitarbeiter von Unternehmen. Über den Rahmen von Online-Marketing und Business Intelligence hinaus können Web-Analysten für typische Human-Computer-Interaction (HCI)-Aktivitäten von Bedeutung sein, d. h. die Gestaltung von Benutzeroberflächen für neue Unternehmenssoftware oder die Bewertung der Usability einer bestehenden Lösung. Daher zielt dieses Papier darauf ab, die Nützlichkeit von Web Analytics für die HCI-Domäne herauszuarbeiten. Daher haben wir eine empirische Studie durchgeführt, um die Arbeitsaufgaben und beruflichen Kompetenzen von Web-Analysten durch die Analyse internationaler Stellenausschreibungen zu erfassen. Daraus ziehen wir Schlussfolgerungen, wie Web-Analysten HCI-Aktivitäten im Hinblick auf dieses Aufgaben- und Kompetenzprofil unterstützen können. Sie zeigt, dass Web-Analysten in der HCI-Praxis, d. für typische Design-Science-Ansätze und immer dann, wenn Benutzer mit webbasierten Softwareanwendungen interagieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07293-7_46 49c8062c8f77686bd044ba23339a1892;de;;;7.3.;;;Digitale Identität in der Praxis: Der Fall UniCam Identitätsmanagement ist eine Reihe von Technologien und Prozessen, die Identitätsinformationen unterstützen. Seine Einführung in die öffentliche Verwaltung, insbesondere im Hochschulbereich, bewahrt die Organisationsautonomie und bietet gleichzeitig Studenten und Mitarbeitern Unterstützung beim Zugang zu den angebotenen Dienstleistungen. In diesem Beitrag stellen wir ein von der Universität Camerino geleitetes Projekt mit der italienischen Bankengruppe UBI und der Namirial Certification Authority vor. Das Projekt besteht in der Ausgabe der Enjoy my UniCam-Karte, die es den Benutzern ermöglicht, auf einer einzigen physischen Karte mehrere Funktionen über erleichterte Bankkonten, Universitätsdienste und digitale Signaturzertifikate zu nutzen. Erste Ergebnisse zur Testphase werden ebenso präsentiert wie die nächsten Schritte des Projekts.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40160-2_3 a2d3bc513de34fba34975b989527501a;de;;;7.3.;;;Visuelle Analyse des öffentlichen Diskurses zu Umweltthemen Der öffentliche Diskurs über Umweltthemen nutzt die Nachrichtenmedien und die neuen konsumentengenerierten Medien als primäre Kommunikationskanäle. Die Analyse der Nutzung dieser Kanäle durch die verschiedenen Diskursteilnehmer liefert wertvolle Erkenntnisse über den Stand der Meinungsbildung zu Umweltproblemen. Dieses Kapitel skizziert gängige Methoden zur Beobachtung und Visualisierung des öffentlichen Diskurses in den Nachrichtenmedien und schlägt Anforderungen für die Anwendung solcher Methoden auf den Umweltdiskurs vor. Die Integration raumbezogener Visualisierungen mit semantischen Dimensionen und numerischen Daten wird als die zentrale Herausforderung bei der Visualisierung des öffentlichen Diskurses zu Umweltthemen identifiziert. Eine Vorzeigeanwendung, die sich dieser Herausforderung stellt, wird kurz vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-2899-0_24 0d289b957bc71734893ed5a5bef2ced6;de;;;3.4.;;;Kreativität in der Lieferkette unterstützen: Die Rolle von Kreativteams im Autorenprozess Die Verlagsbranche hat sich im letzten Viertel des 20. Jahrhunderts bis zur Unkenntlichkeit verändert, aber das Buch ist nicht so verschwunden, wie viele es vorhergesagt hatten. Die Technologie hat eine Umgebung geschaffen, in der Self-Publishing einfach aussieht. Die Rolle des Verlags bei der Markteinführung von Autoren ist unvermindert. Verlage sollten ihre Rolle eher im Dirigenten des Orchesters als im Zirkusleiter sehen, da der kreative Prozess zunehmend kollaborativ wird.;-;-;-;https://link.springer.com/article/10.1007/s12109-999-0009-z 0b0aa8a594defae6942f2adc03ba9b22;de;;;7.3.;;;Analyse von Websuchprotokollen zur Bestimmung von Sitzungsgrenzen für benutzerorientiertes Lernen Inkrementelle Lernansätze basierend auf Benutzersuchaktivitäten bieten ein Mittel zum Aufbau adaptiver Informationsabrufsysteme. Um effektivere benutzerorientierte Lerntechniken für das Web zu entwickeln, müssen wir in der Lage sein, eine sinnvolle Sitzungseinheit zu identifizieren, aus der wir lernen können. Ohne dies besteht ein hohes Risiko, Aktivitäten zu gruppieren, die nicht in Zusammenhang stehen oder möglicherweise nicht von demselben Benutzer stammen. Wir sind daran interessiert, Grenzen von Sequenzen zwischen verwandten Aktivitäten (Sitzungen) zu erkennen, die die Aktivitäten zu Lernzwecken gruppieren würden. Sitzungsgrenzen wurden in Reuters-Transaktionsprotokollen automatisch erkannt. Die generierten Grenzen wurden mit menschlichen Urteilen verglichen. Der Vergleich bestätigte, dass ein sinnvoller Sitzungsschwellenwert zum Festlegen dieser Sitzungsgrenzen auf einen Bereich von 11 bis 15 Minuten beschränkt war.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44595-1_38 1d8f5e122991654fa5b10e68ca783dbb;de;;;7.3.;;;Skalierung von Microblogging-Diensten mit unterschiedlichen Verkehrsanforderungen Traffic Heutige Microblogging-Dienste wie Twitter sind ihren ursprünglichen Designs als SMS-basierte soziale Netzwerke längst entwachsen. Stattdessen nutzt eine massive und stetig wachsende Nutzerschaft von mehr als 100 Millionen Twitter für alles, von der Erfassung der Stimmung des Landes bis hin zur Erkennung von Erdbeben und Internetdienstausfällen. Es überrascht nicht, dass die traditionelle zentralisierte Client-Server-Architektur nicht mit den Benutzeranforderungen skaliert wurde, was zu einer Serverüberlastung und einer erheblichen Beeinträchtigung der Verfügbarkeit führte. In diesem Papier argumentieren wir, dass die Divergenz in den Nutzungsmodellen von Microblogging-Diensten am besten durch komplementäre Mechanismen angegangen werden kann, von denen einer zuverlässige Nachrichten zwischen Freunden liefert und ein anderer, der Ereignisse von bekannten Prominenten und Medien an Tausende oder sogar Millionen von Followern liefert . Wir präsentieren;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25821-3_2 3cbbcf05b3e1781785f11cf3d667e172;de;;;7.3.;;;Implementieren eines Caching-Dienstes für verteilte CORBA-Objekte Dieses Whitepaper beschreibt die Implementierung von CASCADE, einem verteilten Caching-Dienst für CORBA-Objekte. Unser Caching-Service ist vollständig CORBA-kompatibel und unterstützt das Caching von aktiven Objekten, die sowohl Daten als auch Code enthalten. Es wurde speziell für den Betrieb über das Internet entwickelt, indem eine dynamisch aufgebaute Cache-Hierarchie verwendet wird. Die Servicearchitektur ist hinsichtlich eines breiten Spektrums an Anwendungsparametern hochgradig konfigurierbar. Die Hauptvorteile von CASCADE sind verbesserte Verfügbarkeit und Servicevorhersagbarkeit sowie einfache dynamische Codebereitstellung und Konsistenzpflege.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45559-0_1 3fb6ec6681e3db22a2e59c9f0ab5bfd5;de;;;7.3.;;;BLUETOOTH PAN und externe IP-Netzwerke In diesem Whitepaper wird erläutert, wie ein auf Bluetooth-Technologie basierendes Ad-hoc-Personal Area Network (PAN) mit externen Netzwerken verbunden werden kann. Wir gehen davon aus, dass das Bluetooth-Netzwerk (Piconet) durch das automatische SAPIFO-Verfahren [4] gebildet wird, dass ein oder mehrere Piconet-Geräte Zugriff auf externe Netzwerke haben und IPv4 für die externe Kommunikation verwendet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35618-1_8 3b4da7396d8de94fef623876521e0201;de;;;7.3.;;;Auswirkungen menschlicher Kommunikation auf die Förderung der Nutzung eines webvermittelten Dienstes: In dieser Studie untersuchten die Autoren die Auswirkungen menschlicher Kommunikation auf die Förderung der Nutzung eines Web-vermittelten Dienstes am Beispiel eines Lastabgleichsystems für vermittelnde Transportunternehmen. In Japan wird die Mehrheit der Lastanpassungssysteme kaum verwendet und war bis auf wenige Ausnahmen inaktiv. Das Japan Local Network System ist einer der wenigen erfolgreichen Lastabgleichsdienste. Der Verband, der das System betreibt, ermutigt seine Mitglieder aktiv, miteinander zu kommunizieren und Informationen auszutauschen. Wir führten eine Fragebogenerhebung bei den Mitgliedsunternehmen durch und erstellten Strukturgleichungsmodelle auf Basis einer Kovarianz-Strukturanalyse der Befragungsergebnisse. Die Modelle zeigten, dass die von den Mitgliedern über die menschliche Kommunikation geteilten Metadaten die Nutzung des Dienstes gefördert haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-48319-0_12 ccc78d916a46e0391b2e90dc46371db4;de;;;7.3.;;;Ein Semantic-Web-fähiger Ansatz zur Wiederverwendung von funktionalen Anforderungsmodellen im Web-Engineering Web Engineering hat sich als eine neue Softwaredisziplin entwickelt, die sich speziell den Herausforderungen und Komplexitäten der Entwicklung hochwertiger Webanwendungen widmet. Ein Hauptthema in verschiedenen Web-Engineering-Methoden ist der Einsatz modellgetriebener Entwicklungsansätze. Dies erhöht den Abstraktionsgrad und Formalismus in dem Maße, dass Maschinen besser in den Entwicklungsprozess eingebunden werden und für mehr Automatisierung sorgen können, z.B. automatische Codegenerierung aus den Modellen. Trotz ihrer Vorteile besteht ein Hauptproblem dieser modellgetriebenen Methoden darin, dass die Entwicklung jeder neuen Webanwendung die Erstellung einer wahrscheinlich großen Anzahl von Modellen von Grund auf erfordert. Daher kann die Wiederverwendung von Modellen als die Hauptlösung für dieses Problem angesehen werden. In diesem Beitrag wird ein semantischer Web-fähiger Ansatz für die Wiederverwendung von Modellen, insbesondere funktionalen Anforderungsmodellen, vorgeschlagen. Es nimmt die Kurzbeschreibung der funktionalen Anforderungen einer neuen Webanwendung in Form eines UML-Use-Case-Diagramms und generiert halbautomatisch den Entwurf der entsprechenden Detailbeschreibung in Form eines Satzes von UML-Aktivitätsdiagrammen. Dies erfolgt unter Verwendung eines Repositorys, das eine semantische Darstellung der Modelle der vorherigen Webanwendungen enthält. Der vorgeschlagene Ansatz basiert auf neuartigen Algorithmen zur Annotation von Aktivitätsdiagrammen, zur Messung der Ähnlichkeit von Anwendungsfällen und zur Anpassung von Aktivitätsdiagrammen. Die experimentellen Auswertungen zeigen, dass der vorgeschlagene Ansatz vielversprechend ist und eine gute Präzision und Wirksamkeit aufweist.;-;-;-;https://link.springer.com/article/10.1007/s10515-014-0144-4 32ed8a2c962b73305f16d24580da7719;de;;;7.3.;;;Web Content Mining mit Fokus auf benannte Objekte In unserem Kapitel arbeiten wir im Bereich des Web Content Mining. In Bezug auf die Beschreibung einer Webseite durch den Benutzer definieren wir einen neuen Begriff: Benanntes Objekt. Benannte Objekte werden für eine neue Klassifizierung ausgewählter Methoden verwendet, die sich mit dem Abbau von Informationen aus Webseiten beschäftigen. Diese Klassifizierung wurde auf der Grundlage einer Übersicht veröffentlichter Methoden vorgenommen. Unser Ansatz basiert auf der Wahrnehmung einer Webseite durch eine Absicht. Diese Absicht ist sowohl für die Benutzer als auch für die Autoren einer Webseite wichtig. Das benannte Objekt ist nahe an Webdesign-Mustern, die eine Grundlage für unsere eigene Mining-Methode Pattrio wurden. Die Pattrio-Methode wird in dieser Arbeit zusammen mit einigen Experimenten vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-81-8489-203-1_3 7206adba40e369112a2ce0e539e8714e;de;;;7.3.;;;Neuronaler Agent für die Erkennung von Textdatenbanken Da die Zahl und Vielfalt von Textdatenbanken im Internet rasant zunimmt, stehen die Nutzer vor der Aufgabe, die für die Nutzeranfrage relevanten Textdatenbanken zu finden. Das Identifizieren der relevanten Textdatenbanken aus vielen Kandidaten für eine bestimmte Abfrage wird als . bezeichnet;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-1772-0_15 11bb5ad43e85f42ca7ff7ba813f32bd5;de;;;7.3.;;;Verwendung von Webdemografien zur Modellierung der Bevölkerungsentwicklung von Vietnamesen-Amerikanern in Texas zwischen 2000 und 2009 Angesichts der großen Fülle an online verfügbaren Informationen kann das Internet als gigantische Datenbank mit vielfältigen Ressourcen betrachtet werden. Eine der dringendsten Aufgaben besteht darin, die Wirksamkeit und Nützlichkeit der über das Internet verfügbaren Informationen zu untersuchen. Diese Studie modellierte die Bevölkerungsentwicklung der Vietnamesen-Amerikaner (VA) in Texas von 2000 bis 2009, indem sie demografische Daten aus dem Internet aus dem Internet erhielt. Das Projektziel ist die Pilotstudie eines neuartigen Ansatzes zur Durchführung von Online-“Zählungen” unter Verwendung von Web 2.0-Technologien und die Untersuchung der Wirksamkeit von Webdaten für GIS-basierte demografische Anwendungen. Die angeforderten demografischen Daten von VA wurden sowohl auf Bezirksebene als auch auf Ebene der Volkszählungsgebiete geokodiert und mit den demografischen Daten der Volkszählung 2000 in den geografischen Informationssystemen verglichen. Räumliche und statistische Analysen wurden verwendet, um die räumliche Verteilung der VA zu untersuchen und ihre Bevölkerungsveränderung zwischen 2000 und 2009 zu modellieren. Die Ergebnisse dieser Studie umfassen: (1) Im Allgemeinen gibt es signifikante Unterschiede in der räumlichen Verteilung der VA-Population zwischen die Web-Demografie und die Volkszählung 2000 sowohl auf Kreis- als auch auf Volkszählungsbezirksebene, (2) die Hoover-Indizes der VA-Bevölkerung in Texas in den Jahren 2000 und 2009 zeigten einen Trend der Dekonzentration, der der allgemeinen Land-Stadt-Vorstadt-Migration zwischen den großen Ballungsräumen in Texas. Diese Studie liefert neue Erkenntnisse über die Verwendung von demografischen Webdaten für Bevölkerungsvorhersagen und Anwendungen zur Planung von Diensten für ethnische Gruppen.;-;-;-;https://link.springer.com/article/10.1007/s10708-010-9390-6 72a10c72ec6c8e39ed4658f5d4176595;de;;;7.3.;;;Entwerfen von 3D-Virtual-World-Plattformen für E-Learning-Dienste. Neue Grenzen des Organisationstrainings Das World Wide Web ist unter den verschiedenen verfügbaren Medien das globalste, interaktivste und dynamischste Medium zum Austausch von Informationen. World Wide Web-Dienste wurden im letzten Jahrzehnt für E-Learning-Anwendungen sowohl im akademischen als auch im geschäftlichen Umfeld verwendet. E-Learning-Dienste, die über E-Learning-Plattformen bereitgestellt werden, ermöglichen es Einzelpersonen, Kompetenzen zu entwickeln, die sich in organisatorische Kompetenzen verwandeln und schließlich zu Wettbewerbsvorteilen führen können. Die Entwicklung und Nutzung von 3D-Plattformen der virtuellen Welt für E-Learning-Dienste ist ein aufkommendes Phänomen, das die Idee von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28227-0_21 f481f754aa178fe8be619a6296e75f7e;de;;;7.3.;;;Extrahieren der latenten hierarchischen Struktur von Webdokumenten Die hierarchische Struktur eines Dokuments spielt eine wichtige Rolle beim Verständnis der Beziehungen zwischen seinen Inhalten. Eine solche Struktur wird jedoch in Webdokumenten nicht immer explizit durch verfügbare hierarchische HTML-Tags dargestellt. Überschriften unterscheiden sich jedoch in der Regel in der Darstellung von „normalem“ Text in einem Dokument und bieten so eine implizite Struktur, die für den menschlichen Leser erkennbar ist. Daher ist ein wichtiger Vorverarbeitungsschritt für Anwendungen, die auf hierarchischer Ebene arbeiten müssen, das Extrahieren der implizit dargestellten hierarchischen Struktur. In diesem Beitrag wird ein Algorithmus zur Kurserkennung und Kurshöhenerkennung vorgestellt, der verschiedene visuelle Darstellungen nutzt. Ergebnisse der Bewertung dieses Algorithmus werden ebenfalls berichtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01350-8_28 c11fac3d113b724b688c48a15514a4f6;de;;;7.3.;;;Folksonomy-basierte Ad-hoc-Community-Erkennung in sozialen Online-Netzwerken Fortschritte bei Web 2.0-Technologien haben zu einer unstrukturierten Informationsflut in den komplexen und mehrdimensionalen Datensätzen geführt, die aus sozialen Netzwerken stammen. Diese Überlastung kann die Qualität von webbezogenen Diensten wie Empfehlungssystemen im Social Web mindern und Nutzer mit irrelevanten Informationen überhäufen. Eine solche Überlastung weist auf die Notwendigkeit hin, effiziente und genaue Informationsmanagement- und -abrufsysteme in sozialen Netzwerken zu entwerfen und zu entwickeln und Empfehlungen im semantischen Kontext des Benutzerinteresses zu antizipieren. Die Community-Erkennung in sozialen Netzwerken kann dabei helfen, Strukturen höherer Ordnung zu identifizieren, die Einblicke in Netzwerke und ihre funktionale Organisation geben und irrelevante Informationen reduzieren, die der Benutzer erhält. In dieser Studie wird die Anwendung der Community-Erkennung in sozialen Online-Netzwerken im Rahmen der Topic Discovery-basierten User-Link-Identifikation untersucht und somit zur Aufdeckung impliziter User-Communities (Ad-hoc-Communities) genutzt. In dem vorgeschlagenen Ansatz verwenden wir eine graphenbasierte Informationsextraktionstechnik, die ein personalisiertes Informationsabrufsystem (Empfehlersystem) ermöglicht. Wir gehen davon aus, dass die Ad-hoc-Gemeinschaften von Benutzern mit ähnlichen Interessen, eingebettet in ein auf Folksonomie basierendes soziales Netzwerk, durch überlappende Tag-Cluster in der Tag-Konzepthierarchie identifiziert werden können. Unsere Methodik umfasst die neuartigen Informationsextraktionstechniken der Themenmodellierung zur Themenextraktion (Merkmalsextraktion), Benutzerprofilmodellierung zur Benutzerprofilextraktion und Community-Extraktion aus dem Social Graph, modelliert in einem Framework, um relevante Ad-hoc-Benutzergemeinschaften von sozialem Interesse abzuleiten Folksonomie-Daten. Unsere experimentellen Ergebnisse zeigen eine Genauigkeit von 70–98 % bei der Community-Erkennung unter Verwendung von Daten aus CiteULike;-;-;-;https://link.springer.com/article/10.1007/s13278-012-0081-9 5b7e2cb9ddfa096c00bd619951c64b21;de;;;7.3.;;;Die Semantik von Netzwerkkontakten Die Informationsprobleme des Managements in einer Informations- und elektronischen Gesellschaft werden betrachtet und die Technologien zur Durchführung statistischer Analysen unter Verwendung verschiedener Arten von Informationen werden evaluiert.;-;-;-;https://link.springer.com/article/10.3103/S0147688209010092 c83a73413c3a377f0ae01fa7a924bd09;de;;;7.3.;;;Ausstellung zur Wissensreise: Auf dem Weg zu altersgerechten Benutzeroberflächen für die Suche Wir beschreiben ein Informationsterminal, das die interaktive Suche mit einer altersgerechten Suchoberfläche unterstützt, deren Hauptfokus junge Nutzer sind. Das Terminal ermöglicht eine flexible Anpassung der Suchbenutzeroberfläche an sich ändernde Anforderungen von Benutzern unterschiedlicher Altersgruppen. Die Bedienung erfolgt über Touch-Interaktionen, da diese für Kinder als natürlicher gelten als die Verwendung einer Maus. Benutzer suchen in einer sicheren Umgebung. Zu diesem Zweck wurde mit einem fokussierten Crawler ein Suchindex erstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16354-3_84 8a0e0f76053b974b8c24a54a127ddb49;de;;;7.3.;;;Die kommende Evolution Fast jeder, der sich ernsthaft mit der Entwicklung der Technik in den nächsten hundert Jahren beschäftigt hat, ist zu dem gleichen Schluss gekommen: Wir leben an einem entscheidenden Punkt der Geschichte – einem unglaublich aufregenden und erschreckenden Punkt, einem Punkt, der bis zum Übermaß anregend ist , intellektuell, philosophisch, physisch und emotional. Eine Reihe von wirklich großen Technologien braut sich zusammen. Virtuelle Realität, die uns synthetische Welten schaffen lässt, die der physischen Welt an Reichtum gleichkommen, und so die buddhistische Maxime „Realität ist Illusion“ zu einer greifbaren technischen Tatsache macht. Biotechnologie, die es uns ermöglicht, unseren Körper auf verschiedene Weise zu verändern, unsere Gene anzupassen und unser Gehirn, unsere Organe und Sinnesorgane in Computer und andere Geräte zu stecken. Nanotechnologie, die es uns ermöglicht, Moleküle direkt zu manipulieren und biologische, computergestützte, mikromechanische und andere Arten von Systemen zu schaffen, die heute kaum noch vorstellbar sind. Künstliche Intelligenz, die es ermöglicht, Geist, Intelligenz und Vernunft aus Computersystemen hervorzubringen – von Menschen gebaute Denkmaschinen. Und Fortschritte in der einheitlichen Feldtheorie in der Physik werden aller Wahrscheinlichkeit nach mitmachen, die physikalischen Grundlagen des Lebens und des Geistes klären und den Nanotechnologen neue Tricks an die Hand geben, über die noch niemand spekuliert hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-0561-7_1 3aec237bc406be87d84266e4cffd313f;de;;;7.3.;;;Generierung und Verwaltung einer medizinischen Ontologie in einem Semantic Web Retrieval System Die Medizin ist eines der besten Beispiele für Anwendungsdomänen, in denen Ontologien bereits in großem Maßstab eingesetzt und ihren Nutzen demonstriert wurden. Die meisten verfügbaren medizinischen Ontologien, obwohl sie riesige Mengen an wertvollen Informationen enthalten, unterliegen jedoch anderen Designprinzipien als die von Semantic Web-Anwendungen geforderten und können daher nicht direkt integriert und wiederverwendet werden. In diesem Beitrag beschreiben wir die Generierung, Pflege und Evolution einer Semantic Web-basierten Ontologie im Kontext eines Informationssystems für die Pathologie. Das System kombiniert Semantic Web- und NLP-Techniken, um eine inhaltsbasierte Speicherung und Abfrage von medizinischen Berichten und digitalen Bildern zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30468-5_41 fbfecda62747a4877138ccd4df5740fc;de;;;7.3.;;;Entmystifizierung der Websuche: die Mathematik des PageRank Dieses Kapitel bietet einen Überblick über die Google-Websuche, eines der allgegenwärtigsten und einflussreichsten Informationssysteme, die heute verfügbar sind: Es speichert und verarbeitet riesige Mengen unterschiedlicher Informationen, skaliert, um eine große Anzahl von Benutzern zu bewältigen, und liefert dennoch qualitativ hochwertige Ergebnisse für jede Suchanfrage, die sie bearbeiten Typ.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-04042-4_5 6d7d9f3f32cfad02cffff8a9d5309b3c;de;;;7.3.;;;Verbesserung der OLAP-Analyse mit Web-Cubes Herkömmliche OLAP-Tools haben sich bei der Analyse großer Unternehmensdatenmengen als erfolgreich erwiesen. Für die heutige Geschäftsdynamik reichen diese hochkuratierten Daten manchmal nicht aus. Externe Daten (insbesondere Webdaten) können nützlich sein, um die lokale Analyse zu verbessern. In diesem Papier diskutieren wir die Extraktion mehrdimensionaler Daten aus Webquellen und deren Darstellung in RDFS. Wir stellen Open Cubes vor, ein RDFS-Vokabular zur Spezifikation und Veröffentlichung von multidimensionalen Cubes im Semantic Web und zeigen, wie klassische OLAP-Operationen über Open Cubes mit SPARQL 1.1 implementiert werden können, ohne dass die multidimensionalen Informationen auf die lokale Datenbank abgebildet werden müssen der übliche Ansatz zur mehrdimensionalen Analyse von Semantic Web-Daten). Wir zeigen, dass unser Ansatz für die Datengrößen plausibel ist, die normalerweise abgerufen werden können, um lokale Datenbestände zu erweitern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30284-8_38 6c6b5ff2c599ca5605f76925d6db1930;de;;;7.3.;;;Ein intelligenter Internet-Suchassistent basierend auf dem zufälligen neuronalen Netz Selbst kostenlose Webdienste bieten in der Regel Zugang zu Online-Informationen auf der Grundlage einer Form des wirtschaftlichen Interesses des Webdienstes selbst. Daher zahlen Werbetreibende, die die Informationen ins Web stellen, basierend auf den Klicks, die ihre Anzeigen erhalten, eine Zahlung an die Suchdienste. Somit können Endbenutzer nicht wissen, dass die Ergebnisse, die sie von Websuchmaschinen erhalten, vollständig sind oder dass sie tatsächlich auf ihre Bedürfnisse eingehen. Um die Lücke zwischen den Benutzerbedürfnissen und den Informationen, die ihnen im Web präsentiert werden, zu schließen, wurden intelligente Suchassistenten vorgeschlagen, die an der Schnittstelle zwischen Benutzern und Suchmaschinen agieren, um Benutzern Daten auf eine Weise zu präsentieren, die ihren tatsächlichen Bedürfnissen oder ihren Bedürfnissen entspricht beobachtete oder angegebene Präferenzen. Dieses Papier stellt einen intelligenten Internet-Suchassistenten basierend auf dem zufälligen neuronalen Netz vor, der die Präferenzen des Benutzers verfolgt und anhand der erlernten Präferenzen eine Auswahl auf der Ausgabe einer oder mehrerer Suchmaschinen trifft. Wir führen auch eine „Relevanzmetrik“ ein, um die Leistung unseres intelligenten Internetsuchassistenten mit einigen Suchmaschinen zu vergleichen und zu zeigen, dass er eine bessere Leistung bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-44944-9_13 36f13bfb9b0524c9d3283292877ede13;de;;;7.3.;;;Realisieren von kontextsensitivem Mobile Messaging Mobile Technologien zielen darauf ab, Menschen bei ihrem Umzug von Ort zu Ort bei ihrer täglichen Arbeit und sozialen Routinen zu unterstützen. Zu den etablierten und sehr beliebten mobilen Technologien gehören Kurztextnachrichten und Multimedianachrichten mit neueren wachsenden Technologien, einschließlich mobiler Bluetooth-Datenübertragungsprotokolle und mobiler Webzugriff. Hier präsentieren wir neue Arbeiten, die alle oben genannten Technologien kombinieren, um einige der Vorhersagen für den zukünftigen Kontext zu erfüllen bewusste Nachrichten. Wir präsentieren ein kontextsensitives mobiles Messaging-System, das Kontext in Form von physischen Standorten durch Standorterkennung und die Co-Location von Personen durch Bluetooth-Vertrautheit ableitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76888-3_63 9ae4d46602a6aef2838f1e0fcdc327f6;de;;;7.3.;;;Ein optimierter Tag-Recommender-Algorithmus in Folksonomy Im bestehenden Folksonomy-System kann es Benutzern erlaubt werden, beliebige soziale Tags zu den Ressourcen hinzuzufügen, aber Tags sind unscharf und redundant in der Semantik, was es schwierig macht, die erforderlichen Informationen für die Benutzer zu erhalten. In diesem Beitrag wird ein optimierter Tag-Recommender-Algorithmus vorgeschlagen, um das Problem zu lösen. Zunächst verwendet das Empfehlungssystem basierend auf der Motivationstheorie das gegebene Modell, um die Motivation zum Abrufen des Benutzers zu berechnen, bevor Informationen gesucht werden. Zweitens verwenden wir die Ergebnisse im ersten Schritt, um den Typ des Benutzers zu unterscheiden, und gruppieren dann die Ressourcen nach Benutzern, die eine ähnliche Abrufmotivation mit dem k-means++-Algorithmus haben, und empfehlen den Benutzern die relevantesten Ressourcen. Die experimentellen Ergebnisse zeigen, dass unser vorgeschlagener Algorithmus mit Benutzerabrufmotivation eine höhere Genauigkeit und Stabilität aufweisen kann als herkömmliche Abrufalgorithmen im Folksonomiesystem.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44980-6_6 1582dd005dff1e9a3a8948391db1ee21;de;;;7.3.;;;Anwendung von Text Mining zur Unterstützung von Menschen, die Informationen zu HIV/AIDS aus dem Internet abrufen Das Abfragen von Gesundheitsinformationen aus dem Internet oder einer virtuellen Gemeinschaft ist eine der beliebtesten Aktivitäten im Internet. Aber niemand kann den Gesundheitsfragenden die Behandlungen oder Heilmittelwirkung garantieren oder nicht. Die vorliegende Studie schlägt einen Internet-Gesundheitsinformations-Governance-Mechanismus (IHIGM) vor, um die Krankheitskontrolle und Gesundheitsbehörden bei ihren Bemühungen um Internet-Gesundheitsinformationen zu unterstützen. Im Experiment nimmt die Forschung am Beispiel „People Inquire HIV/AIDS Information from Internet“ die Vorgehensweise von IHIGM. Im Versuchsergebnis kann das Genauigkeitsverhältnis von IHIGM mindestens 85% positive HIV/AIDS-Internet-Gesundheitsinformationsanfragen für Interventionen einstufen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69304-8_46 08bdf439c5f6ba790cf7bfb7995320f3;de;;;7.3.;;;Kommunikation, Mobilität und Logistik Die globalen Probleme der Menschheit (z. B. Energie, Mobilität, Urbanisierung, Ernährung, Finanzmärkte, Kommunikation) sind auf spezialisierte Wissenschaftsdisziplinen übergreifend und erfordern interdisziplinäre Studien in der Systemwissenschaft (1). In soziotechnischen Systemen wächst die Informations- und Kommunikationstechnologie (IKT) mit gesellschaftlichen Infrastrukturen (z. B. Smart Grids, Smart Cities) zusammen, um die Komplexität der menschlichen Zivilisation zu bewältigen (2). Im Zeitalter von Big Data versprechen Informations- und Kommunikationstechnologien (IKT) die Unterstützung des Wissensaustauschs durch globale Online-Beteiligung. Aber Big-Data-Technologien liefern nur technische Unterstützung, keine Kompetenz zur interdisziplinären Problemlösung. Die zunehmende Komplexität unserer Zivilisation erfordert eine Reflexion über die Grundlagen und Gesetze der Systemdynamik, um Global Governance zu unterstützen (3).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24358-0_6 3df8b751782cf7ce5257b2bc0b13d409;de;;;7.3.;;;Klassifizierung von Internet-Verkehrsdaten mit der Ensemble-Methode Eine genaue Verkehrsklassifizierung ist für die Netzwerksicherheit und Verkehrstechnik von entscheidender Bedeutung. Herkömmliche Methoden, die auf Portnummern und Nutzlast basieren, haben sich hinsichtlich dynamischer Portzuweisung und Paketkapselung als unwirksam erwiesen. Diese Methoden schlagen auch fehl, wenn die Daten verschlüsselt sind. In dieser Arbeit schlagen wir eine Ensemble-Methode vor, die (a) Extra-Tree-basierte Merkmalsauswahl, (b) Support-Vektor-Maschinen (SVMs) zur Klassifizierung von Internetverkehr mit verschiedenen Kerneln und schließlich (c) Ensemble von SVM-Klassifikatoren mit Major Abstimmungstechnik bzw. Das Verfahren klassifiziert den Internetverkehr in breite Anwendungskategorien gemäß den Netzwerkflussparametern, die aus den Paketheadern erhalten werden. Wir vergleichen zunächst drei Typen von SVM-Kerneln, d. h. lineare, polynomiale und radiale Basisfunktions-(RBF)-Kernel. Später kombinieren wir alle drei Kernel durch die Mehrheitsentscheidungsmethode (Ensemble). In den meisten Fällen liefert die Ensemble-Methode im Vergleich zu allen anderen Kernel-Methoden bessere Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2414-1_39 9b1fe279494c384f63f64f510311a07a;de;;;7.3.;;;Das NIF DISCO Framework: Erleichterung der automatisierten Integration neurowissenschaftlicher Inhalte im Web Dieses Papier beschreibt die Fähigkeiten von DISCO, einem erweiterbaren Ansatz, der die integrative webbasierte Informationsverbreitung unterstützt. DISCO ist eine Komponente des Neuroscience Information Framework (NIF), einer Initiative des NIH Neuroscience Blueprint, die den integrierten Zugang zu verschiedenen neurowissenschaftlichen Ressourcen über das Internet ermöglicht. DISCO ermöglicht die automatisierte Wartung mehrerer unterschiedlicher Funktionen mithilfe einer Sammlung von Dateien, 1) die lokal von den Entwicklern der beteiligten neurowissenschaftlichen Ressourcen verwaltet werden und 2) die regelmäßig von einem zentralen DISCO-Server „geerntet“ werden. Dieser Ansatz ermöglicht die Aktualisierung der zentralen NIF-Funktionen, wenn sich der Inhalt jeder Ressource im Laufe der Zeit ändert. DISCO unterstützt derzeit die folgenden Funktionen: 1) Ressourcenbeschreibungen, 2) „LinkOut“ zu den Datenelementen einer Ressource aus NCBI-Entrez-Ressourcen wie PubMed, 3) webbasierte Interoperation mit einer Ressource, 4) gemeinsame Nutzung des Lexikons und der Ontologie einer Ressource, 5 ) gemeinsame Nutzung des Datenbankschemas einer Ressource und 6) Teilnahme der Ressource an der Verbreitung von RSS-Nachrichten mit Bezug zu den Neurowissenschaften. Die Entwickler einer Ressource können frei wählen, an welchen DISCO-Fähigkeiten ihre Ressource teilnimmt. Obwohl DISCO von NIF verwendet wird, um die neurowissenschaftliche Datenintegration zu erleichtern, sind seine Fähigkeiten allgemein auf andere Forschungsbereiche anwendbar.;-;-;-;https://link.springer.com/article/10.1007/s12021-010-9068-8 6aabfe350d24191653f621b2126d6da5;de;;;7.3.;;;Erweitern von PubMed Related Articles (PMRA) für mehrere Zitate PubMed ist die umfassendste Zitationsdatenbank im Bereich der Biomedizin. Es enthält über 23 Millionen Zitate aus MEDLINE, Life-Science-Zeitschriften und Büchern. Das Abrufen relevanter Informationen aus PubMed ist jedoch aufgrund seiner Größe und seines schnellen Wachstums eine Herausforderung. Der schlüsselwortbasierte Informationsabruf ist in PubMed nicht ausreichend. Viele Tools wurden entwickelt, um die Qualität des Informationsabrufs von PubMed zu verbessern. Die PubMed Related Article (PMRA)-Funktion ist ein Ansatz, der entwickelt wurde, um den Benutzern zu helfen, Informationen effizient abzurufen. Es findet Zitate mit hohem Bezug zu einem bestimmten Zitat. Diese Studie konzentriert sich auf die Erweiterung des PMRA-Features auf mehrere Zitate im Kontext des personalisierten Informationsabrufs. Unsere experimentellen Ergebnisse zeigen, dass die erweiterte PMRA-Funktion, die Wörter verwendet, die in zwei oder mehr Zitaten vorkommen, relevantere Artikel finden kann als die Verwendung der PMRA-Funktion für einzelne PubMed-Zitate.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08976-8_5 5f1d1a9e97fdcebb89d78fdafcb4a55e;de;;;7.3.;;;Semantische Annotation, Indizierung und Abruf Die Realisierung des Semantic Web hängt von der Verfügbarkeit einer kritischen Masse von Metadaten für den Webinhalt ab, die mit formalem Wissen über die Welt verknüpft sind. Dieses Papier präsentiert unsere Vision eines ganzheitlichen Systems, das die Annotation, Indexierung und den Abruf von Dokumenten in Bezug auf reale Entitäten ermöglicht. Ein System (genannt KIM), das dieses Konzept teilweise implementiert, wird in Kürze vorgestellt und zur Evaluierung und Demonstration verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39718-2_31 fafefb9ceede973fe6710e9a3458dabd;de;;;7.3.;;;Auf dem Weg zu Anforderungen an ein Referenzmodell für die Prozessorchestrierung im E-Government Eine große Herausforderung für Regierungen auf der ganzen Welt besteht darin, die Dienstleistungen für ihre Kunden, Bürger und Unternehmen zu verbessern. Eine Möglichkeit zur Verbesserung der Leistungserbringung besteht in einem One-Stop-Shop, der Dienste integriert, die von verschiedenen halbautonomen Agenturen erbracht werden. Dies erfordert die Koordination von Leistungserbringungsprozessen, die über verschiedene Agenturen laufen. Dies wird auch als Prozessorchestrierung bezeichnet. Da über Prozess-Orchestratoren wenig bekannt ist, benötigen staatliche Entscheidungsträger Unterstützung bei deren Gestaltung. Dieses Papier untersucht die Anwendbarkeit bestehender Referenzmodelle aus Domänen, die eng mit der Prozessorchestrierung, dem Workflow-Referenzmodell und dem erweiterten SOA-Referenzmodell verwandt sind, auf staatliche Entscheidungsträger zur Implementierung von Prozessorchestrierung im E-Government und identifiziert mehrere Hauptanforderungen für ein Referenzmodus für die Prozessorchestrierung, basierend auf einer Fallstudie, die an einer Geschäftstheke durchgeführt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-32257-3_16 dbd89123f5e5b41e9ba316d275d145aa;de;;;7.3.;;;Automatisierter Informationsmediator für HTML- und XML-basierter Web Information Delivery Service Das World Wide Web (Web) wurde nicht entwickelt, um Informationen an Clients zu „pushen“, sondern für Clients, um Informationen von Servern (Providern) zu „ziehen“. Diese Art von Technologie ist bei der schnellen Bereitstellung von Informationen aus wechselnden Quellen nicht effizient. In letzter Zeit ist XML-basiertes „RSS“ oder „Weblog“ populär geworden, da es die Bereitstellung von Informationen in Echtzeit mithilfe einer automatisierten Client-Pull-Technologie simuliert. Dies ist jedoch immer noch ineffizient, da die Benutzer große Mengen an Webinformationen manuell verwalten müssen, was zu einem Informationsüberfluss führt. Zweitens verwenden die meisten aktuellen Webinformationen immer noch HTML anstelle von XML. Unser automatisierter Informationsvermittler (AIMS) sammelt neue Informationen sowohl von traditionellen HTML-Sites als auch von XML-Sites und lindert das Problem der Informationsüberflutung durch Narrowcasting von der Serverseite und Informationsfilterung von der Clientseite unter Verwendung von Multiple Classification Ripple-Down Rules (MCRDR) Wissen Erfassung zur Dokumentenklassifizierung. Der Ansatz überwindet das traditionelle Problem des Wissenserwerbs mit einer ausnahmebasierten Wissensrepräsentation und einer fallbasierten Validierung und Verifizierung. Durch diesen Ansatz ermöglicht das System Domänenexperten oder sogar naiven Endbenutzern, ihr Wissen zu verwalten und ihr Agentensystem ohne die Hilfe eines Wissensingenieurs zu personalisieren.;-;-;-;https://link.springer.com/chapter/10.1007/11589990_42 97de5b4fd91885e72aaa36b84cb564b4;de;;;7.3.;;;Jugendengagement, politische Bildung und neue Formen der politischen Teilhabe Es mangelt nicht an Experten, die anprangern, was heute mit der Jugend nicht stimmt, insbesondere wenn es um das Thema politische Teilhabe und bürgerschaftliches Engagement geht. Sie beschreiben eine Generation, die nicht wählt, die Nachrichten nicht verfolgt, über aktuelle politische Themen nicht informiert ist und sich nicht mit dem öffentlichen Leben beschäftigt – kurz gesagt, eine unzufriedene, desinteressierte und politisch zynische Kohorte. Die Jugend wird als Symptom eines in der neueren akademischen Forschung viel beklagten Niedergangs der Demokratie (z. Viele begrüßen das, was Osler und Starkey (2003) als „Defizitmodell“ bezeichnet haben, das junge Menschen als weniger gute Bürger definiert (S. 245). Die von diesen Kritikern identifizierten problematischen Phänomene sind genau die, die in den früheren Abschnitten dieses Buches beschrieben wurden, nämlich die sinkende Beteiligung an Wahlen und politischen Parteien.;-;-;-;https://link.springer.com/chapter/10.1057/9780230240902_13 a6b0c7b1660b8bcf855575f7438b7327;de;;;7.3.;;;Reflexionen Die Geschichte der Mensch-Computer-Schnittstelle zeigt, wie der Bildschirm bzw. das Display für die Interaktion immer wichtiger wird. Bereits 1995 schreibt Deborah Lupton: „Ich bin meinem Computer viel länger von Angesicht zu Angesicht gegenüber, als ich in irgendein menschliches Gesicht schaue“ (Lupton 1995, S. 97). Das ist eine ziemlich extreme Aussage. Je nach Arbeits- oder Freizeitbereich kann dies heute aber auch für eine größere Zahl von Menschen gelten. Menschen beobachten den Computerbildschirm, um Feedback zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-18660-9_3 55d10e9f114cc92f19f3c4d5ffd2ea48;de;;;7.3.;;;Ontologie-basierte Deep Web-Datenquellenauswahl Viele Webanwendungen benötigen derzeit alle qualitativ hochwertige Informationen aus den Deep Web-Datenquellen. Zum Beispiel die Deep Web-Datenquellenerkennung, der Extrakt aus Abfrageergebnissen und die Informationsintegration von Abfrageergebnissen. Sie sind die Schlüsseltechnologie im Prozess der Deep Web Information Integration. Dieses Papier schlägt eine Methode zur Auswahl von Datenquellen vor, die auf der Domänenontologie basiert. Es wird verwendet, um die relevantesten Sätze von Abfrageschnittstellen im Zusammenhang mit der Domänenontologie zu finden, die eine Voraussetzung für die Deep Web-Informationsintegration ist. Dieser Ansatz basiert auf der Schnittstelle für eigene Funktionen und der Backend-Datenbanksemantik. Daher bietet es eine bessere Leistung als bestehende Ansätze.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87656-4_60 cbfa84ce849ec557b61ae416dcb83ad5;de;;;7.3.;;;Anspruchsvolle industrielle Netzwerke, Cluster und Kompetenzen – eine alternative Sichtweise mit Web-Mining-Techniken Dieser kurze Auszug ist Teil einer umfassenderen Studie über die Nutzung des Internets zur Erforschung des Vorhandenseins und der Struktur von Industrieclustern und befasst sich hier mit der Unterscheidung von Unternehmensnetzwerken und dem Vorhandensein von Kompetenzgemeinschaften zwischen Unternehmen innerhalb der identifizierten Netzwerke.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15961-9_33 347a0447ecd320ead33ea15dd60976db;de;;;7.3.;;;Schnelle T-Überlappungs-Abfragealgorithmen unter Verwendung von Grafikprozessoreinheiten und deren Anwendungen in der Webdatenabfrage Bei einer gegebenen Sammlung von Sätzen und einem Abfragesatz identifiziert eine T-Überlappungsabfrage alle Sätze mit mindestens T gemeinsamen Elementen mit der Abfrage. Die T-Overlap-Abfrage ist die Grundlage von Set-Ähnlichkeitsabfragen und -verknüpfungen und spielt eine wichtige Rolle bei der Abfrage und Verarbeitung von Webdaten, wie z. Um T-Overlap-Abfragen effizient zu adressieren, im Gegensatz zu herkömmlichen Algorithmen, die auf CPU basieren, zielen wir darauf ab, effiziente GPU-basierte Algorithmen zu entwickeln. Wir entwerfen zuerst einen invertierten Index in der GPU und wählen dann ScanCount, einen einfachen, aber effizienten T-Overlap-Algorithmus, als zugrunde liegenden Algorithmus, um unsere GPU-basierten T-Overlap-Algorithmen zu entwickeln. Abhängig von seriell oder parallel verarbeiteten Abfragen werden drei neue effiziente Algorithmen basierend auf unserem GPU-basierten invertierten Index vorgeschlagen. Unter all diesen drei Algorithmen verarbeitet die GS-Parallel-Group eine Gruppe von Anfragen parallel und unterstützt ein hohes Maß an Parallelität. Umfangreiche Experimente werden durchgeführt, um unsere GPU-basierten Algorithmen mit anderen modernen CPU-basierten Algorithmen zu vergleichen. Die Ergebnisse zeigen, dass die GS-Parallel-Group CPU-basierte Algorithmen deutlich übertrifft.;-;-;-;https://link.springer.com/article/10.1007/s11280-013-0232-6 015f3c28050e7d8209dda80ac8093fbd;de;;;7.3.;;;Clustering von Web-Sitzungen mit Levenshtein-Metrik Verschiedene kommerzielle und wissenschaftliche Anwendungen erfordern eine Analyse des Nutzerverhaltens im Internet. Beispielsweise können Webmarketing oder technische Netzwerkunterstützung von der Klassifizierung von Webbenutzern profitieren. Dies ist möglich, indem die Seiten verfolgt werden, die der Benutzer während einer Sitzung (einem Besuch der jeweiligen Website) besucht. Für die automatische Klassifizierung von Benutzersitzungen schlagen wir eine Distanz vor, die Sitzungen nach der Reihenfolge der Seiten darin und nach Kategorien dieser Seiten vergleicht. Die vorgeschlagene Entfernung basiert auf der Levenshtein-Metrik. Für das Clustering wurde der Fuzzy C Medoids-Algorithmus verwendet, da er eine fast lineare Komplexität aufweist. Davies-Bouldin-, Entropie- und Bezdek-Gültigkeitsindizes wurden verwendet, um die Qualitäten der vorgeschlagenen Methode zu bewerten. Wie Tests zeigen, übertrifft unsere Distanz in diesem Bereich sowohl die euklidischen als auch die Edit-Distanzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30185-1_14 14b78b14cf012bb037a3d1804ea86d99;de;;;7.3.;;;Das Web, das Zuhause und die Suchmaschine Die Websuchmaschine hat in unserem Informationssuchverhalten als Bürger eine zentrale Stellung eingenommen. Dieses Kapitel untersucht die Entstehung der Idee einer Suchmaschine und wie sich dieser Mechanismus im Web-Kontext entwickelt hat. Suchmaschinen haben sich an die Welt des Webs angepasst (insbesondere an Benutzer und deren Verwendungszweck), und Benutzer, Werbetreibende und Websitebesitzer haben sich an Websuchmaschinen angepasst. Das Web und seine zentrale Rolle in unserem Leben sind heute ohne sie kaum noch vorstellbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-85729-476-0_5 63bc5755018c55d618f64090acb2878a;de;;;7.3.;;;XMLibrary Search: Eine auf digitale Bibliotheken ausgerichtete XML-Suchmaschine Die Zunahme der in digitalen Bibliotheken verfügbaren Datenmenge erfordert die Entwicklung von Suchmaschinen, die es den Benutzern ermöglichen, schnell und effektiv zu finden, wonach sie suchen. Das XML-Tagging ermöglicht das Hinzufügen von Strukturinformationen in digitalisierten Inhalten. Diese Metadaten bieten neue Möglichkeiten für eine Vielzahl neuer Dienste. Dieses Papier beschreibt die Anforderungen, die eine Suchmaschine innerhalb einer digitalen Bibliothek erfüllen sollte, und stellt eine spezifische XML-Suchmaschinenarchitektur vor. Diese Architektur ist darauf ausgelegt, eine große Textmenge mit strukturellem Tagging zu indizieren und im Internet verfügbar zu sein. Die Architektur wurde in der Miguel de Cervantes Digital Library entwickelt und erfolgreich getestet.;-;-;-;https://link.springer.com/chapter/10.1007/11551362_8 09b3190196df7d069e5e558b7f7b6208;de;;;7.3.;;;Integration von Web-Nutzung und Content Mining für eine effektivere Personalisierung Jüngste Vorschläge haben Web-Nutzungs-Mining als einen ermöglichenden Mechanismus vorgeschlagen, um die Probleme zu überwinden, die mit traditionelleren Web-Personalisierungstechniken, wie z. B. kollaborativer oder inhaltsbasierter Filterung, verbunden sind. Zu diesen Problemen gehören mangelnde Skalierbarkeit, Abhängigkeit von subjektiven Benutzerbewertungen oder statischen Profilen und die Unfähigkeit, einen reichhaltigeren Satz semantischer Beziehungen zwischen Objekten (in inhaltsbasierten Systemen) zu erfassen. Allerdings kann die nutzungsbasierte Personalisierung problematisch sein, wenn zu einigen Objekten nur wenige Nutzungsdaten vorliegen oder sich der Inhalt der Site regelmäßig ändert. Für eine effektivere Personalisierung müssen sowohl Nutzungs- als auch Inhaltsattribute einer Site in ein Web-Mining-Framework integriert und von der Empfehlungsmaschine einheitlich verwendet werden. In diesem Papier stellen wir ein solches Framework vor, das zwischen den Offline-Aufgaben der Datenaufbereitung und dem Mining und dem Online-Prozess der Anpassung von Webseiten basierend auf der aktiven Sitzung eines Benutzers unterscheidet. Wir beschreiben effektive Techniken, die auf Clustering basieren, um eine einheitliche Darstellung sowohl der Site-Nutzung als auch der Site-Content-Profile zu erhalten, und wir zeigen, wie diese Profile verwendet werden können, um eine Echtzeit-Personalisierung durchzuführen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44463-7_15 2a08c7a9216bdfb5b3f57adcbd1c618b;de;;;7.3.;;;Ein neuer Ansatz für E-Learning in kollaborativen Netzwerken Das Papier schlägt ein neues ganzheitliches Modell – den E-Learning Cube – mit dem Ziel vor, ein besseres Verständnis und eine Charakterisierung der Grundprinzipien und Mechanismen des E-Learning zu ermöglichen, um die zugrunde liegende Infrastruktur effizient zu nutzen und eine erfolgreiche Implementierungsstrategie in kollaborativen Netzwerken zu ermöglichen. Eine kurze Fallstudie wird vorgestellt, um zu zeigen, wie das neue Modell für die Implementierung eines e-Learning-Systems in einer kollaborativen Umgebung verwendet wurde. Schließlich schließen die Autoren mit Leitlinien für einen ontologiebasierten Ansatz für e-Learning.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-29360-4_57 7887e8a806d607547f08991f4354aed9;de;;;7.3.;;;Korrelation von Begriffsanzahl und Dokumentenhäufigkeit für Google N-Grams Für Bounded Datasets wie dem TREC Web Track (WT10g) ist die Berechnung von Term Frequency (TF) und Inverse Document Frequency (IDF) nicht schwierig. Wenn der Korpus jedoch das gesamte Web ist, ist eine direkte IDF-Berechnung nicht möglich und die Werte müssen stattdessen geschätzt werden. Die meisten verfügbaren Datensätze liefern Werte für;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00958-7_58 64b7cf75b21b0d87a4539e9be47e4034;de;;;7.3.;;;PDist-RIA Crawler: Ein verteilter Peer-to-Peer-Crawler für Rich-Internet-Anwendungen Das Crawlen von Rich Internet Applications (RIAs) ist wichtig, um ihre Sicherheit und Zugänglichkeit zu gewährleisten und sie für die Suche zu indizieren. Um eine RIA zu crawlen, muss der Crawler jeden Anwendungsstatus erreichen und jedes Anwendungsereignis ausführen. Bei einer großen RIA dauert dieser Vorgang lange. Zuvor veröffentlicht;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11746-1_26 91f0078f8e1a1fea04251775855a3098;de;;;7.3.;;;Konzeptionelles Clustering von Dokumenten für die automatische Ontologiegenerierung Bei der Informationssuche ist die schlüsselwortbasierte Suche für die Benutzeranforderungen unbefriedigend, da sie nicht immer relevante Wörter gemäß dem Konzept abrufen kann. Da verschiedene Wörter dasselbe Konzept darstellen können (Polysemie) und ein Wort verschiedene Konzepte darstellen kann (Homonymie), führt das Zuordnungsproblem zu einer Begriffsklärung des Wortsinns. Durch die Implementierung einer domänenabhängigen Ontologie kann ein konzeptbasiertes Information Retrieval (IR) erreicht werden. Da die semantische Konzeptextraktion aus Schlüsselwörtern die Anfangsphase für die automatische Konstruktion des Ontologieprozesses ist, schlägt dieser Artikel eine effektive Methode dafür vor. Als Input für diesen Prozess wird Reuters21578 verwendet, gefolgt von Indexierung, Training und Clustering mithilfe der selbstorganisierenden Karte. Basierend auf dem Merkmalsvektor werden die Cluster von Dokumenten mit Hilfe automatischer Konzeptauswahlen gebildet, um die Hierarchie zu bilden. Cluster werden hierarchisch basierend auf den zugewiesenen Themen dargestellt. Ontologie wird automatisch für jeden Cluster basierend auf dem zugewiesenen Thema generiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38786-9_27 1d5069b6becd208360cad2f4348ccebe;de;;;7.3.;;;Online Einkaufen Dieses Kapitel bietet einen Überblick über die neuere Forschung zum Online-Shopping und die konzeptionellen Rahmenbedingungen, die diese Forschung geleitet haben. Das Kapitel befasst sich insbesondere mit Forschungsergebnissen zu wer Online-Shopping betreibt und wer nicht, was Verbraucher zum Online-Shopping anzieht, wie und was Verbraucher beim Online-Shopping tun und auf Faktoren, die das Wachstum der Online-Aktivitäten der Verbraucher bremsen könnten. Das Kapitel berichtet über Forschung im Zusammenhang mit dem Online-Shopping-Prozess, einschließlich der Verbraucherwahrnehmung von Datenschutz und Sicherheit sowie der Online-Informationssuche. Richtungen für zukünftige Forschungen werden vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75734-6_9 992b4a25cdeaa60e4707901e4198abdf;de;;;7.3.;;;Skalierbarkeitsherausforderungen in Websuchmaschinen Das kontinuierliche Wachstum des Webs und der Benutzerbasis zwingt Websuchmaschinenunternehmen, kostspielige Investitionen in sehr große Computerinfrastrukturen zu tätigen. Die Skalierbarkeit dieser Infrastrukturen erfordert sorgfältige Leistungsoptimierungen in allen wichtigen Komponenten der Suchmaschine. Hier versuchen wir, eine ziemlich umfassende Abdeckung der Literatur zu Skalierbarkeitsherausforderungen in großen Websuchmaschinen bereitzustellen. Wir präsentieren die identifizierten Herausforderungen durch eine architektonische Klassifikation, beginnend mit einem einfachen Single-Node-Suchsystem bis hin zu einer hypothetischen Multi-Site-Websucharchitektur. Wir diskutieren auch eine Reihe offener Forschungsprobleme und geben Empfehlungen für Forscher auf diesem Gebiet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20946-8_2 900848fb805bdcf7bcd234fa0f68c938;de;;;7.3.;;;Algorithmische Berechnung und Approximation semantischer Ähnlichkeit Die automatische Extraktion semantischer Informationen aus Text und Links in Webseiten ist der Schlüssel zur Verbesserung der Qualität der Suchergebnisse. Die Bewertung automatischer semantischer Maßnahmen wird jedoch durch die Erfassung von Benutzerstudien begrenzt, die nicht mit der Größe, Heterogenität und dem Wachstum des Webs skalieren. Hier schlagen wir vor, von Menschen erstellte Metadaten – nämlich thematische Verzeichnisse – zu nutzen, um semantische Beziehungen zwischen einer großen Anzahl von Paaren von Webseiten oder Themen zu messen. Das Open Directory Project klassifiziert Millionen von URLs in einer topischen Ontologie und bietet damit eine reichhaltige Quelle, aus der semantische Beziehungen zwischen Webseiten abgeleitet werden können. Während semantische Ähnlichkeitsmaße auf der Grundlage von Taxonomien (Bäumen) gut untersucht sind, ist das Design fundierter Ähnlichkeitsmaße für Objekte, die in den Knoten beliebiger Ontologien (Graphen) gespeichert sind, ein offenes Problem. Dieser Beitrag definiert ein informationstheoretisches Maß für semantische Ähnlichkeit, das sowohl die hierarchische als auch die nicht-hierarchische Struktur einer Ontologie ausnutzt. Eine experimentelle Studie zeigt, dass dieses Maß den traditionellen taxonomiebasierten Ansatz deutlich verbessert. Mit diesem neuartigen Maß können wir der allgemeinen Frage nachgehen, wie Text- und Linkanalysen kombiniert werden können, um Relevanzmaße abzuleiten, die mit semantischer Ähnlichkeit gut übereinstimmen. Überraschenderweise erweist sich die traditionelle Verwendung von Textähnlichkeiten für das Relevanzranking als unwirksam.;-;-;-;https://link.springer.com/article/10.1007/s11280-006-8562-2 218bdf34978d1e29f8e0649f6c66085d;de;;;7.3.;;;Ein webbasiertes virtuelles Kollaborationssystem in mehreren Konferenzen Wir schlagen das webbasierte virtuelle Kollaborationssystem vor, bei dem mehrere Benutzer lokal und zeitnah über das Internet zusammenarbeiten. Das vorgeschlagene System kategorisiert Benutzer nach der interessierten Konferenz, und jeder Benutzer ist durch die Zugangskontrolle auf den Zugriff auf die Systemressourcen beschränkt. Jeder Benutzer kann neue Themen erstellen oder bestehenden Themen beitreten, indem er das Zugriffsrecht des Benutzers in einer Konferenz, der er gehört, frei validiert. Benutzer können gleichzeitig an mehr als einem Thema teilnehmen, so können sie sich online zu einem Thema erkundigen und wertvolles Wissen sammeln und sich informierter und intelligenter am anderen Thema beteiligen. Sie können auch Zeit sparen, indem sie mehrere Themen gleichzeitig besuchen. Konferenzen werden unter Verwendung von Powerpoint-Folien und zugehörigen räumlichen Datenelementen der Teilnehmer durchgeführt. Zugehörige räumliche Datenelemente können neben Text auch Symbole wie Pfeile oder Polygone sein. Die Inhalte jeder Konferenz – räumliche Datenelemente der Teilnehmer zu einem bestimmten Thema – können in einer XML-Datei aufgezeichnet und zur späteren Verwendung archiviert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32692-9_48 e93a9a77414ce2bef5ecd9cdcf2d3135;de;;;7.3.;;;Das soziale Web Das Aufkommen des Social Web hat die Online-Welt grundlegend verändert. Laut Bundesverband Digitale Wirtschaft (BVDW) befindet sich die Welt derzeit in der größten Medienrevolution „[…] seit der Erfindung des modernen Buchdrucks durch Gutenberg im Jahr 1452“. Die Suche nach dem Stichwort Social Web bei Google liefert mehr als 1,87 Milliarden Ergebnisse – aber was genau ist mit diesem Begriff gemeint? Web 2.0, Social Web, Social Media: All diese Schlagworte beschreiben die veränderte Internetnutzung der letzten Jahre, unterscheiden sich jedoch in ihrer Definition.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-04544-9_2 5519bf7c4704245497f1061db9245303;de;;;7.3.;;;Spam-Kontrolle: Immunitätsbasierter Ansatz Mittels elektronischer Post (E-Mail) können wir frei und fast kostenlos kommunizieren. Es schafft neue Möglichkeiten für Unternehmen, die per E-Mail Werbung an ihre Kunden senden können (sogenanntes Direct-Mailing). Der Begriff Spam bezieht sich hauptsächlich auf diese Art von Werbung. Massiv versendete unerwünschte E-Mails greifen viele Internetnutzer an. Leider kann diese Art von Nachricht nicht durch einfache regelbasierte Filter herausgefiltert werden. In diesem Artikel werden wir das in [6] vorgeschlagene künstliche Immunsystem (AIS) erweitern, das auf dem Immunsystem von Säugetieren basiert und Benutzer vor Spam schützen soll. Generell werden AIS auch verwendet, um Computerviren oder Anomalien in Computernetzwerken zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-33521-8_4 5a1fafb8744a46fb1bde3a76ee6a6c12;de;;;7.3.;;;Inferenzsysteme für die Kontrolle des Netzwerkverkehrs Dieses Kapitel befasst sich mit der Kontrolle des Netzwerkverkehrs in Routern sowie von End-to-End-Flows. Zuerst wird ein Schema zum Implementieren von Ende-zu-Ende-Verkehrssteuermechanismen durch Fuzzy-Inferenzsysteme vorgeschlagen. Eine vergleichende Bewertung der Simulations- und Implementierungsergebnisse des Fuzzy-Ratenreglers im Vergleich zu denen herkömmlicher TCP-Fluss- und Ratensteuerungsmechanismen wird für einen breiten Satz realistischer Szenarien durchgeführt. Dann werden Fuzzy-Inferenzsysteme zur Verkehrssteuerung in Routern entworfen. Ein bestimmter Vorschlag wurde in realistischen Szenarien evaluiert und hat sich als robust erwiesen. Der Vorschlag wird mit dem Zufallsfrüherkennungssystem (RED) verglichen. Es wird experimentell gezeigt, dass Fuzzy-Systeme mit Mechanismen, die sich durch linguistisches Wissen leicht modifizieren lassen, eine bessere Leistung und eine bessere Anpassung an unterschiedliche Anforderungen bieten können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18084-2_5 16f5039f5a14b5fbc2ed232ff321cd6c;de;;;7.3.;;;Interaktive statistische Analyse komplexer Mantelströmungen mit dem Web Bisher wurden alle Abbildungen in der Mantelkonvektionsliteratur statisch dargestellt, wobei die Felder in einem Maßstab auf einer gedruckten Seite dargestellt sind. Dies ist nicht mehr möglich, da die räumliche Auflösung immer weiter ansteigt und das Problem von mehrskaligen Strukturen auftaucht. Aufgrund des Ansturms der Datenflut und der wachsenden Komplexität stark zeitvariabler physikalischer Felder aus kompressibler Mantelkonvektion, wie der Adiabatie und anderen thermodynamischen Heizfunktionen, können wir es uns nicht mehr leisten, die Ergebnisse in der gleiche statische Weise wie in einem Buch. Wir haben einen neuen Ansatz entwickelt, um Daten aus numerischen Simulationen abzufragen. Dies basiert auf einer interaktiven zweidimensionalen Karte, die über das WEB mit einem Client-Server-Paradigma verwendet wird. Wir haben dies angewendet, um Mantelkonvektionsströmungen sowohl in zwei- als auch in dreidimensionalen Situationen zu untersuchen. Die Verteilungen der gefundenen thermischen Anomalien sind nicht mehr gaußförmig, sondern weisen manchmal lange Schwänze auf, insbesondere in der Nähe der Ränder der Plume-Köpfe. Das gleiche gilt auch für die Verteilung der mechanischen Erwärmung, die recht schief sein kann. Unsere Erfahrungen mit diesem neuen interaktiven Modus der Datenabfrage haben sowohl die pädagogische als auch die wissenschaftliche Bedeutung der Nutzung der World Wide Web-Medien gezeigt, um die Daten aus groß angelegten numerischen Simulationen handlich zu testen.;-;-;-;https://link.springer.com/article/10.1007/s10069-002-1027-6 2de2e407b576aebcb661a2a7618b5582;de;;;7.3.;;;Agentengestützte Zusammenarbeit und Interoperabilität für vernetzte Unternehmen Das Papier präsentiert ein agentengestütztes Framework zur Verbesserung von Lösungen für die Unternehmensinteroperabilität und Unternehmenszusammenarbeit. Wir stellen den Kontext von COIN im europäischen Forschungsraum vor und erläutern den grundlegenden Ansatz und die Systemarchitektur, die COIN anstrebt. Besonderes Augenmerk wird darauf gelegt, wie Agenten Enterprise Interoperabilität sowie Enterprise Collaboration Services unterstützen können. Das Framework verfolgt einen Modellierungsansatz für die Beschreibung und Ausführung von Geschäftsprozessen. Damit kann ein Systemingenieur die zu verwendenden Interaktionsprotokolle auf intuitiver Ebene beschreiben und das Modell in ausführbaren Code überführen. Private Partnerprozesse können mit einem Mapping-Ansatz integriert werden, um technische Interoperabilitätslücken zu schließen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19680-5_17 d52e5493725f79d0b4c91a66c58b52ef;de;;;7.3.;;;Q-Peer: Eine dezentrale QoS-Registrierungsarchitektur für Webdienste QoS (Quality of Service) ist der Schlüsselfaktor, um Webdienste mit gleicher Funktionalität zu differenzieren. Benutzer können Dienste anhand ihrer Qualitätsinformationen bewerten und auswählen. Traditionell wird die Laufzeit-QoS von Webdiensten gesammelt und in einer zentralisierten QoS-Registrierung gespeichert, die Skalierbarkeits- und Leistungsprobleme haben kann. Noch wichtiger ist, dass eine zentralisierte Registrierung nicht über Unternehmensgrenzen hinweg betrieben werden kann, um die Anwendung von Webdiensten im globalen Maßstab zu unterstützen. In diesem Papier schlagen wir eine P2P (Peer-to-Peer) QoS-Registrierungsarchitektur für Webdienste vor, genannt Q-Peer. Die Architektur ist ein Napster-ähnliches P2P-System, bei dem die Abfrage von QoS natürlich durch Abrufen der QoS-Speicheradresse aus der Dienstregistrierung erreicht wird. Q-Peer verwendet einen Objektreplikationsmechanismus, um den Lastausgleich des gesamten Systems aufrechtzuerhalten. Wir stellen zwei Arten von Replikationsschemata vor und führen eine Vergleichsstudie durch. Ein Prototyp von Q-Peer wurde auf Planet-lab implementiert und getestet. Experimentelle Ergebnisse zeigen, dass Q-Peer unter verschiedenen Umständen automatisch Lasten zwischen Peers verteilen kann, sodass das System eine gute Leistung und Skalierbarkeit aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74974-5_12 adbecaaf804bb9f3d7763db6e8806107;de;;;7.3.;;;Software-Bug-Ontologie zur Unterstützung der semantischen Fehlersuche in Peer-to-Peer-Netzwerken Dieser Artikel stellt ein semantisches Fehlersuchsystem vor, das Benutzern dabei hilft, Lösungen für ähnliche Fehlerberichte in Peer-to-Peer-Netzwerken freizugeben und zu suchen. Dieses System bietet die Fähigkeit, Fehlerwissensressourcen an verschiedenen Standorten in einer verteilten Umgebung zu untersuchen und die Klassifizierungs- und Beziehungsinformationen von Fehlerberichten auszunutzen. Das System verwendet ein einheitliches Fehlerschema, das nicht nur Fehlerberichte aus verschiedenen Fehlerwissensressourcen in eine einzige Datenbank integriert, sondern auch mehrere selektive Eigenschaften wie Paketabhängigkeiten, Fehlerbeziehungen, Fehlersymptome und Kategorien enthält, um einen semantischen Suchmechanismus zu fördern. Wir haben mehrere Komponenten des Systems implementiert, darunter ein Bug-Updater zur Pflege der Bug-Datenbank, ein Abfrage-Handler zum Teilen und Durchsuchen von Bug-Berichten und ein Peer-Controller zum Verwalten der Kommunikation in einem geeigneten Peer-to-Peer-Netzwerk. Wir haben das System auf einem verteilten Computing-Testbed getestet und seine Machbarkeit, Skalierbarkeit und Effizienz gemessen.;-;-;-;https://link.springer.com/article/10.1007/s00354-014-0203-1 2dfcc05512b11038c12cabc814e9a088;de;;;7.3.;;;Klassifikation der öffentlichen Meinung und Textausrichtung basierend auf chinesischem und tibetischem Korpus Um der Notwendigkeit der Erforschung der Sicherheit chinesischer und tibetischer Netzwerke Rechnung zu tragen, wird eine Klassifizierung der öffentlichen Meinung zu chinesischen und tibetischen Texten vorgeschlagen. Zunächst werden Webseiten gesammelt. Zweitens wird eine Vorverarbeitung durchgeführt, um die nützlichen Informationen aus Webseiten zu extrahieren. Drittens wird eine Tabelle mit den Schlüsselwörtern der chinesischen und tibetischen öffentlichen Meinung erstellt. Schließlich wird eine Textähnlichkeitsberechnung vorgeschlagen, um den Text gemäß der Tabelle der Wörter der öffentlichen Meinung zu klassifizieren. Ein chinesisch-tibetischer Ausrichtungsansatz auf Textebene, der auf einem chinesischen und tibetischen Übersetzungswörterbuch basiert, wird vorgeschlagen, um Worthäufigkeit und -position abzugleichen. Darüber hinaus wird der Alignmentalgorithmus auf Satzebene untersucht. Die Ausrichtungsleistung bezieht sich auf das chinesische und tibetische Übersetzungswörterbuch. Es wird eine Textklassifikation der öffentlichen Meinung und ein chinesisch-tibetisches Textausrichtungssystem entwickelt. Nach der öffentlichen Meinungsklassifizierung des chinesischen Textes kann die Alignment-Software den ähnlichsten tibetischen Text entdecken und dem Benutzer präsentieren. Diese Forschung kann effektiv zur Identifizierung von chinesischen und tibetischen öffentlichen Meinungstexten beitragen und ist für den Informationsabruf, das Clustering von Texten und die maschinelle Übersetzung ins Chinesische und Tibetische von Bedeutung.;-;-;-;https://link.springer.com/article/10.1007/s10586-017-1267-8 6f5ae81544ebecd214a87d01b87d8aa2;de;;;7.3.;;;Ontologiebasierte Zusammenstellung von Webdiensten für Ubiquitous Computing Die aktuelle Webdienstumgebung stellt eine Verbindung zu einzelnen Diensten bereit, weist jedoch immer noch einen Mangel an semantischer Verarbeitungstechnologie für die Interoperabilität von Webdiensten auf. Die semantische Verarbeitung von Webservices ist eine Schlüsseltechnologie für die dynamische Entdeckung und Zusammensetzung von Webservices. Daher hat die vorliegende Studie eine Webdienst-Ontologie zur Unterstützung einer ubiquitären Umgebung etabliert und eine Methode zur Beschreibung von Webdiensten unter Berücksichtigung ihrer funktionalen und semantischen Aspekte vorgeschlagen. Darüber hinaus wurde ein Service-Verriegelungs- und Kompositionssystem implementiert, indem eine Mediatorfunktion in das System integriert wurde, die die Komposition heterogener Webservices ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/11942634_57 7e10ceeb7e0ea4104ba3a789aa56337d;de;;;7.3.;;;Eine Einführung in das Internet der Dinge In diesem Kapitel geben wir einen groben Überblick und eine grundlegende Einführung in das Internet der Dinge. Wir beschreiben die Evolution vom World Wide Web zu einem Maschinennetzwerk, dem „Internet der Dinge“ und geben eine kurze Einführung in verwandte Technologien und Standards der M2M-Kommunikation. Darüber hinaus stellen wir die Gesamtarchitektur von IoT-Systemen vor. Zu guter Letzt geben wir einen Überblick über die Anwendungsfälle, in denen IoT Vorteile bringt – und die Herausforderungen, denen wir bei der Entwicklung und Bereitstellung von IoT-Systemen begegnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-45316-9_1 a58286dcf010b66520735bd4ed81c4f5;de;;;7.3.;;;Entwicklung eines Web-Scheduling-Systems basierend auf XML-Modellierung In produzierenden Unternehmen ist es heute als Wettbewerbsstrategie wichtig, Softwareanwendungen, die jetzt über das Internet und Intranets verfügbar werden, zur Lösung von Planungsproblemen zu erforschen und zu verwenden. Diese Arbeit liefert einen Beitrag zur besseren Lösung von Scheduling-Problemen durch webbasierte Berechnungen. Ein XML-basierter Spezifikationsrahmen für die Planung wird vorgeschlagen. Diese Spezifikation liefert ein allgemeines Modell von Planungsproblemen und verwandten Aufgaben und folglich ein Verfahren zum Beschreiben jedes einzelnen Problems und Algorithmus durch Einführung von Benutzerinformationen. Das Hauptziel dieser Art von Spezifikation besteht darin, eine flexible Kommunikation zwischen verschiedenen Planungsanwendungen in einem webbasierten Planungsentscheidungsunterstützungssystem zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35613-6_7 f40beae1c225adca6442b25b115dad5d;de;;;7.3.;;;Modus der gemeindeintelligenten Altersversorgung aus Sicht des „Internet+“ Der Bericht über Chinas Bevölkerungsalterung und die Altenhilfeeinrichtungen wies darauf hin, dass die Wachstumsrate der Welt. Es ist ersichtlich, dass China zu einem der am schnellsten alternden Länder der Welt geworden ist. Die ältere Bevölkerung in China betrug 3,3%, und es wird geschätzt, dass die Gesamtzahl der älteren Menschen über 65 in China bis 2020 1,67 Millionen erreichen wird. Das sind rund 24 % der älteren Bevölkerung in Deutschland. Gleichzeitig entwickelt sich die Altersdienstleistungsbranche zu einer der potenziellen Branchen. In dieser Arbeit wurde der Realisierungsweg des Aufbaus des „Community Intelligent Senior Service Mode of Internet+“ analysiert, um eine nachhaltige und gesunde Entwicklung der Altersversorgung in China zu fördern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3250-4_112 b495760694e37683fd37e551096e3abf;de;;;7.3.;;;Datenintegrität, Kontrolle und Tokenisierung Daten sind das Lebenselixier innerhalb des digitalen Ökosystems und im weiteren Sinne der Volkswirtschaften der Zukunft. Während der Datenschutz zunehmend in den Fokus rückt (z. B. die EU-Datenschutz-Grundverordnung „DSGVO“), wurde die breitere Rolle von Daten bei der Entwicklung und dem Wachstum eines konvergenten Ökosystems erst vor kurzem stark in den Fokus gerückt. Künstliche Intelligenz, virtuelle Realität, erweiterte Realität sowie viele Anwendungen im digitalen Umfeld erfordern riesige Mengen an Dateneingaben (manchmal unterschiedliche Datensätze, die geografisch verteilt sein können) und riesige Rechenressourcen, um diese zu verarbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-54494-2_5 8337d18c9bcd6c14e1eb5a99efeb481a;de;;;7.3.;;;Entwicklung und Nutzung der Ontologie des Golfs basierend auf den Golfbotschaften der Open Travel Alliance Alliance Die Vision des Semantic Web ist zwar äußerst reizvoll, ihr Erfolg hängt jedoch nicht nur von der Entwicklung neuer Ontologien ab, die verschiedene Aspekte der Welt repräsentieren. Die pragmatische Sichtweise legt nahe, dass solche Aktivitäten mit der Erleichterung der Unterstützung bestehender domänenspezifischer Standards der realen Welt einhergehen müssen. Einer dieser interessanten Standards, der in der Reisebranche systematisch an Popularität gewinnt, ist der;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01344-7_11 efd8a077be7aee25e1b4fa0177a873cd;de;;;7.3.;;;Interlinguas: Ein klassischer Ansatz für das Semantic Web. Ein praktischer Fall Eine effiziente Nutzung des Webs impliziert die Möglichkeit, nicht nur Dokumente, sondern auch spezifische Informationen gemäß der Anfrage des Benutzers zu finden. Derzeit wird diese letzte Möglichkeit von den derzeitigen Informationsextraktions- oder Frageantwortsystemen nicht angegangen, da sie sowohl ein tieferes semantisches Verständnis von Anfragen und Inhalten als auch deduktive Fähigkeiten erfordert. In diesem Papier schlagen die Autoren die Verwendung von Interlinguas als plausiblen Ansatz vor, um spezifische Informationen aus einem Dokument zu suchen und zu extrahieren, angesichts der semantischen Natur von Interlinguas und ihrer Unterstützung für Deduktion. Konkret beschreiben die Autoren die UNL Interlinguas unter dem Gesichtspunkt der Repräsentation und veranschaulichen ihre deduktiven Fähigkeiten anhand eines Beispiels.;-;-;-;https://link.springer.com/chapter/10.1007/11925231_89 c118efc9ff69fb719a060c97b51e0323;de;;;7.3.;;;Grammatikbasierte Schnittstellenverarbeitung in der Web-Service-Komposition Webdienste haben sich als ein neues Computerparadigma für die Informationsintegration und den Informationsaustausch herausgebildet. Die Schnittstellen von Webservices können sich weiterentwickeln, um sich an die dynamische und autonome Natur von Geschäftsabläufen anzupassen. Daher ist es schwierig, Schnittstellenregeln zwischen mehreren kollaborativen Diensten zu definieren. Wie der Informationsaustausch zwischen solchen Diensten zu bewältigen ist, ist ein wichtiges und herausforderndes Problem bei der Realisierung der Dienstzusammensetzung. Dieses Papier untersucht das Problem und stellt eine grammatikbasierte Methode vor, indem die XML-Dokumente genutzt werden, die zwischen den Diensten ausgetauscht werden. Vorversuche zeigten, dass die grammatikbasierte Methode in Bezug auf Effizienz und Robustheit unter der dynamischen Webumgebung vielversprechend ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30466-1_30 52436f2974fe6a6f025f5fcaf1f3ec6c;de;;;7.3.;;;Granular Computing: Modellierung menschlicher Gedanken im Web von Polyhedron In diesem Kapitel wird Granular Computing verwendet, um die Webinformationen zu verarbeiten. Das Hauptergebnis ist, dass das menschliche Denken innerhalb eines Dokumentensatzes durch ein Polyeder dargestellt werden kann, allgemeinere Fälle werden diskutiert. Ein Polyeder ist eine Teilmenge des euklidischen Raums, die eine kombinatorische Struktur unterstützt, die als Simplizialkomplex bezeichnet wird. Ein simplizialer Komplex ist aus Sicht des granularen Rechnens eine Sonderform des granularen Modells, bei dem die granulare Struktur die geschlossene Bedingung (geometrisches Konzept) erfüllt. Es ist wichtig zu beachten, dass es dem Apriori-Prinzip (Data Mining-Konzept) entspricht. Ein Punkt in einem solchen Polyeder repräsentiert einen menschlichen Gedanken. Jeder Simplex repräsentiert ein Konzept. Ein maximaler Simplex ist ein primitives Konzept. Eine verbundene Komponente stellt ein vollständiges Konzept dar. Die Gesamtheit dieser Konzepte wird als Basiswissen bezeichnet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77028-2_8 743f40ebbbe712593197dd553a8713dc;de;;;7.3.;;;Abruf von Produktreputationen aus dem WWW Wir präsentieren ein System zum Abrufen von Webseiten, die Produktreputationen enthalten. Wir gehen davon aus, dass die Produktreputation in persönlichen Seiten und Message Board-Seiten enthalten ist, und schlagen das System vor, um diese Webseiten abzurufen. Wir veranschaulichen, dass das System diese Webseiten automatisch von anderen Seiten unterscheiden kann, indem es sechs Arten von Funktionen verwendet, die aus einer Webseite extrahiert wurden. Wir haben die Leistung des vorgeschlagenen Systems durch Berechnung von Präzisions- und Rückrufmaßnahmen bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30134-9_26 d0d69ea42b483e392fc2b613e5a9b70a;de;;;7.3.;;;Einsatz von Semantic-Web-Technologien für die wissensgesteuerte Abfrage biomedizinischer Daten Softwareanwendungen, die mit biomedizinischen Daten arbeiten, haben erhebliche Anforderungen an das Wissensmanagement. Formale Wissensmodelle und wissensbasierte Methoden können bei der Erfüllung dieser Anforderungen sehr hilfreich sein. Die meisten biomedizinischen Daten werden jedoch in relationalen Datenbanken gespeichert, eine Praxis, die auf absehbare Zeit fortgeführt werden wird. Die Nutzung dieser Daten in wissensgetriebenen Anwendungen erfordert Ansätze, die eine Brücke zwischen relationalen Modellen und Wissensmodellen schlagen können. Diese Aufgabe effizient zu lösen, ist eine Herausforderung der Forschung. Um dieses Problem anzugehen, haben wir ein durchgängiges wissensbasiertes System auf Basis von Semantic-Web-Technologien entwickelt. Es ermöglicht die formale Spezifikation der Datenanforderungen eines Systems zur Entwurfszeit und verwendet diese Anforderungen, um wissensgesteuerte Abfragen zu operationellen relationalen Daten in einem bereitgestellten System zu steuern. Wir haben eine dynamische OWL-zu-relationale Mapping-Methode implementiert und SWRL, die Semantic Web Rule Language, als High-Level-Abfragesprache verwendet, die diese Mappings verwendet. Wir haben diese Methoden verwendet, um die Entwicklung einer Teilnehmer-Tracking-Anwendung für klinische Studien und bei der Entwicklung eines Prüfstands zur Evaluierung von Bioüberwachungsmethoden zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73599-1_36 e20b4b350d371729aea302eddec0b886;de;;;7.3.;;;Auf dem Weg zu einem wissensbasierten Ansatz für die semantische Servicezusammensetzung Die erfolgreiche Anwendung von Grid- und Web-Service-Technologien auf reale Probleme wie e-Science [1] erfordert nicht nur die Entwicklung eines gemeinsamen Vokabulars und Metadaten-Frameworks als Grundlage für die Kommunikation zwischen den Agenten und die Dienstintegration, sondern auch der Zugriff und die Nutzung eines reichhaltigen Repositoriums an domänenspezifischem Wissen zur Problemlösung. Beide Anforderungen werden durch die jeweiligen Ergebnisse von ontologischen und Knowledge-Engineering-Initiativen erfüllt. In diesem Beitrag diskutieren wir einen neuartigen, wissensbasierten Ansatz zur Ressourcensynthese (Service Composition), der auf die Funktionalität semantischer Webservices zurückgreift, um verfügbare Ressourcen darzustellen und bereitzustellen. Der von uns verwendete Ansatz nutzt Domänenwissen, um den Service-Kompositionsprozess zu leiten und Ratschläge zur Service-Auswahl und -Instanz zu geben. Der Ansatz wurde in einer prototypischen Workflow-Konstruktionsumgebung implementiert, die die Laufzeitempfehlung einer Servicelösung, die Serviceerkennung über semantische Servicebeschreibungen und die wissensbasierte Konfiguration ausgewählter Services unterstützt. Die Nutzung von Wissen bietet die Grundlage für eine vollständige Automatisierung der Servicezusammenstellung über konventionelle Planungsalgorithmen. Die von diesem System erzeugten Arbeitsabläufe können über einen domänenspezifischen Direktzuordnungsmechanismus oder über einen flüssigeren Ansatz wie WSDL-basiertes Service Grounding ausgeführt werden. Der Ansatz und der Prototyp wurden im Rahmen der Geodise-Initiative [2] verwendet, um den praktischen Nutzen aufzuzeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39718-2_21 b59d938c579ffd4c517abb4088996162;de;;;7.3.;;;Wenn Biometrie auf IoT trifft: Eine Umfrage Das Internet der Dinge, bekannt als die dritte Welle der weltweiten Informationsindustrie, ist in unserer Gesellschaft weit verbreitet. Viele Länder betrachten das IoT als Technologie auf nationaler strategischer Ebene. Im Zeitalter des IoT ist die Entwicklung der biometrischen Technologie ein Grund zur Besorgnis. In diesem Artikel präsentieren wir einen Überblick über Technologien, Anwendungen und Herausforderungen für die Biometrie-Technologie im IoT-Umfeld. Die von uns diskutierten Themen umfassen Sicherheitsprobleme, Algorithmenbewertung, Big Data, Mobile Cloud Computing, neue Biometrie und Sensorinteroperabilität.;-;-;-;https://link.springer.com/chapter/10.2991/978-94-6239-148-2_62 dfd146f500a9d9a7c7ff79068678440f;de;;;7.3.;;;Einfluss von Web-Content-Management-Systemen auf die Zugänglichkeit von Web-Inhalten Web-Content-Management-Systeme (CMS) werden traditionell in Institutionen verwendet, um Web-Content-Management durch Personen ohne technische Kenntnisse zu ermöglichen. In dieser Studie soll der Einfluss des CMS auf die Zugänglichkeit der von ihm bearbeiteten Inhalte überprüft werden. Zunächst wird eine Zugänglichkeitsanalyse von sechs weit verbreiteten CMS basierend auf den Authoring Tool Accessibility Guidelines (ATAG) durchgeführt. Zweitens eine Zugänglichkeitsanalyse einer Reihe von Webseiten des Stadtrats, die von dem oben genannten CMS unter Verwendung der Richtlinien für barrierefreie Webinhalte (WCAG) verwaltet werden. Die Ergebnisse der Studie zeigen, dass vom CMS verwaltete Webseiten mit einem besseren ATAG-Erfüllungsgrad zwar eine bessere Zugänglichkeit bieten, jedoch kein direkter Zusammenhang zwischen den Ergebnissen beider Auswertungen besteht. Es werden auch Informationen darüber bereitgestellt, welche Aspekte Barrierefreiheitsfehler im CMS verursachen und welche Auswirkungen diese Aspekte auf das barrierefreie Web-Content-Management haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23768-3_79 ddd66696d5465de38c2e5d7b9956e289;de;;;7.3.;;;Förderung des webbasierten Lehrens und Lernens an einer Universität Die Informationsrevolution der letzten 20 Jahre hat Gesellschaft, Wirtschaft und Kultur verändert, wobei der Zugang zu und die Nutzung von Informationen im Vordergrund stehen. Ein solcher Trend setzt sich mit unglaublicher Beschleunigung fort, was es für Pädagogen zu einer großen Herausforderung macht, mitzuhalten. Wie viele Universitäten in Hongkong und anderswo weitet die Hong Kong Baptist University (HKBU) ihren Einsatz von Informationstechnologie zum Lehren und Lernen rasch aus. Eine Taskforce wurde eingerichtet, um webbasierte Lehr- und Lernaktivitäten innerhalb der Hochschulgemeinschaft zu fördern. In diesem Papier werden einige vorläufige Ergebnisse zu Art, Ansatz und Fortschritt der Taskforce während ihrer ersten Umsetzungsphase des WebCT – der aktuellen Plattform für die Initiative – berichtet. Eine von der Taskforce durchgeführte Umfrage ergab, dass Akademiker einen starken Wunsch nach Schulungen und Workshops sowie den Bedarf an Ressourcenpersonal zeigten, um den Einsatz von Technologie im Unterricht zu unterstützen. Akademiker betonten auch, dass es wichtig sei, genügend Zeit zu haben, um den Umgang mit dem WebCT zu erlernen und Inhalte vorzubereiten, und sie schätzen Gelegenheiten zum Austausch mit Kollegen zum Erfahrungsaustausch. Trotz begrenzter Ressourcen fiel das Feedback zur Förderung von WebCT für die Lehr- und Lernprozesse an der HKBU in der Anfangsphase recht positiv aus. Die Aktivitäten der Taskforce gehen nun in die zweite Umsetzungsphase. Neben der Unterstützung von Schulungen und Workshops wird die Taskforce auch die pädagogische Wirkung dieser Initiative auf Mitarbeiter und Studenten untersuchen. Dies sollte Informationen darüber liefern, wie Akademiker und Studenten sich an ein sich änderndes Bildungsklima anpassen und gedeihen können, und schließlich zur Entwicklung einer Kultur beitragen, die den Einsatz von IT im Bildungswesen anerkennt und schätzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35689-1_10 c6fc8750ed767000ed730fc0f6f42d1e;de;;;7.3.;;;Latenzreduktion in der klinischen und translationalen Forschung Eine bessere Informationstechnologie im Gesundheitswesen kann eine bessere Gesundheitsversorgung ermöglichen. Es scheint jedoch, dass die Informationstechnologie im Gesundheitswesen weniger durchdringt als in jeder anderen großen Branche.;-;-;-;https://link.springer.com/chapter/10.1007/978-88-470-0571-6_40 6978fa23d447d048db1ca900d0b5d262;de;;;7.3.;;;Remote-Informationsressourcen als wichtiger Bestandteil der Informationsunterstützung der Grundlagenwissenschaften In diesem Beitrag werden die Hauptbereiche der wissenschaftlichen Informationsdienste der führenden Wissenschaftler des Landes diskutiert, die von der VINITI RAS durchgeführt werden. Die Liste der bibliografischen und Volltext-DBs, die im iterativen Modus verfügbar sind, wird angegeben. Auf die Schwierigkeiten beim Laden von Artikeln aus entfernten Informationsquellen über das Internet wird hingewiesen, und es werden Angaben zu den durchschnittlichen Volumen von Artikeln im PDF-Format für eine Reihe ausländischer wissenschaftlicher Zeitschriften gemacht. Die Liste der am häufigsten nachgefragten wissenschaftlichen Zeitschriften zur Biochemie und Biomedizin, die der VINITI nicht zugänglich sind, wird vorgestellt. Die Priorität der Entwicklung kritischer Technologien muss bei der Beschaffung von Literaturabonnements der VINITI für 2010 berücksichtigt werden.;-;-;-;https://link.springer.com/article/10.3103/S0147688209040030 7a62d61461dafd3609aef3d0e41aeae2;de;;;7.3.;;;Komplexe Systemparadigmen zur Integration intelligenter Systeme: Ein spieltheoretischer Ansatz Komplexe Systeme haben nicht nur eine analytische Sichtweise geliefert, dass Computerintelligenz an einem kritischen Punkt (am Rand des Chaos) erreicht werden könnte, an dem ein Phasenübergang stattfindet, sondern auch eine synthetische Sichtweise, dass Computerintelligenz in das Feld eingebettet werden könnte, in dem ein offenes und evolutionäres Umfeld für Sel.sh-Agenten wird zu kollektiven Phänomenen führen. Aus synthetischer Sicht ist die Verwendung komplexer Systeme selbst für intelligente Systeme wie DNA-Computing (wir konzentrieren uns auf Immunitäts-basiertes Computing in einem anderen Kapitel dieses Bandes), Grid-Computing und parasitäres Computing ein weiteres wichtiges Paradigma.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78293-3_4 a4aa8cfe3e4ac4780d74a531d131dead;de;;;7.3.;;;Extraktion von Webvorlagen auf Site-Ebene basierend auf DOM-Analyse Eine der wichtigsten Entwicklungsressourcen für Website-Ingenieure sind Webvorlagen. Vorlagen ermöglichen ihnen, die Produktivität zu steigern, indem sie Inhalte in bereits formatierte und vorbereitete Pagelets einfügen. Für den Endbenutzer sind Vorlagen ebenfalls nützlich, da sie für alle Webseiten Einheitlichkeit und ein einheitliches Erscheinungsbild bieten. Aus Sicht von Crawlern und Indexern stellen Vorlagen jedoch ein wichtiges Problem dar, da Vorlagen in der Regel irrelevante Informationen wie Anzeigen, Menüs und Banner enthalten. Die Verarbeitung und Speicherung dieser Informationen führt zu einer Verschwendung von Ressourcen (Speicherplatz, Bandbreite usw.). Es wurde gemessen, dass Vorlagen zwischen 40 % und 50 % der Daten im Web ausmachen. Daher ist das Identifizieren von Vorlagen für Indizierungsaufgaben unerlässlich. In dieser Arbeit schlagen wir eine neuartige Methode zur automatischen Extraktion von Web-Templates vor, die auf einer Ähnlichkeitsanalyse zwischen den DOM-Bäumen einer Sammlung von Webseiten basiert, die mittels einer Hyperlink-Analyse erkannt werden. Unsere Implementierung und Experimente zeigen die Nützlichkeit der Technik.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-41579-6_4 ba860ae41ee0feeeccb7605bc9012bb7;de;;;7.3.;;;SPiDeR: P2P-basierte Webservice-Erkennung In diesem Whitepaper beschreiben wir SPiDeR, ein Peer-to-Peer (P2P)-basiertes Framework, das eine Vielzahl von Webdienst-Erkennungsvorgängen unterstützt. SPiDeR organisiert die Diensteanbieter in einem strukturierten P2P-Overlay und ermöglicht ihnen, Dienste vollständig dezentral und dynamisch zu bewerben und nachzuschlagen. Es unterstützt drei verschiedene Arten von Suchvorgängen: Für Werbung und Lokalisierung von Diensten können Dienstanbieter Schlüsselwörter verwenden, die aus Dienstbeschreibungen extrahiert wurden (;-;-;-;https://link.springer.com/chapter/10.1007/11596141_13 0128e426943db88fc8aa7cdb46ddc028;de;;;7.3.;;;Drahtloses Netzwerkmanagementsystem für WiMAX-/Wi-Fi-Mesh-Netzwerke Die Entwicklung der Integration mehrerer drahtloser Netzwerktechnologien macht drahtlose Netzwerkgeräte überall gebaut. 1999 schlägt IEEE die drahtlose Breitbandtechnologie WiMAX vor, die eine hohe Übertragungsbandbreite und eine breite Abdeckung aufweist. Es gibt immer mehr Forschungen wie die oben erwähnte drahtlose Technologie, um die Mesh-Netzwerktechnologie zu erhöhen, die die Netzwerkabdeckung leicht erhöhen kann. Intel[1] weist darauf hin, dass ein integriertes WiMAX-/Wi-Fi-Mesh-Netzwerk derzeit die beste Lösung ist. Die SS von WiMAX wird der Engpass des Netzwerkverkehrs in der WiMAX/Wi-Fi-Mesh-Hierarchiearchitektur sein, daher müssen wir die Bandbreite zwischen WiMAX und Wi-Fi verwalten und die Entwicklung der Mesh-Netzwerktopologie unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77090-9_20 9f4ed7040a2c4e91c59fb359a60b01e3;de;;;7.3.;;;Food Service Management Webplattform basierend auf XML-Spezifikation und Webservices Die Bedeutung und Wettbewerbsfähigkeit des Unternehmens besteht nicht mehr nur darin, automatisierte Prozesse zu ermöglichen, sondern auch die Bedürfnisse der Menschen zu erfüllen, da wir heute auch genuss- und genussorientiert leben, um das Leben der Menschen zu ergänzen. Die Fragus Company ist aus der Entscheidung entstanden, dem Kunden ein vollständig maßgeschneidertes Produkt auf den Markt zu bringen. Dieses Unternehmen bietet Dienstleistungen von Personal Chef und Barkeeper mit dem Ziel, eine der größten Freuden des Lebens bequem zu machen: das Essen. Diese Veröffentlichung zielt darauf ab, eine Webplattform dieses Unternehmens und ihre Nützlichkeit, die teilweise durch die Verwendung strukturierter Daten auf der Grundlage von XML und verwandten Technologien bereitgestellt wird, kurz zu beschreiben, um die Dienstleistungen des Unternehmens besser zu unterstützen und eine einfache Möglichkeit zur Informationsspeicherung zu ermöglichen und Verarbeitung über das Web, nämlich über Webdienste.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-4722-7_26 d2ec04509a08a869fbd941e82d93dda7;de;;;7.3.;;;Auf der Suche nach einer semantischen Buchsuchmaschine im Web: Sind wir schon da? Bücher, die eine wertvolle Wissens- und Lernquelle darstellen, wurden schon immer im Web gesucht. Zu diesem Zweck werden traditionelle Web Information Retrieval (IR)-Techniken zum Suchen und Ranking verwendet. Diese Techniken sind jedoch grundsätzlich für den Umgang mit Hyperlink-Sammlungen von Rich-Text in Form von Webseiten konzipiert. Bücher unterscheiden sich von Natur aus von Webseiten und die traditionellen Web-IR-Techniken berücksichtigen nicht ihre gut organisierte Struktur und den logisch verbundenen Inhalt. Gegenwärtig im Web und in anderen digitalen Umgebungen verfügbare Buchsuchlösungen nutzen diese implizite Semantik jedoch nicht aus, was dazu führt, dass nicht die Anforderungen aller Interessengruppen, einschließlich Leser, Autoren, Verleger und Bibliothekare, erfüllt werden. Diese in der durchdachten Struktur verborgene Semantik und die logischen Zusammenhänge der Buchinhalte sind nur für den Menschen sichtbar. Die hier vertretene Position ist, dass die meisten verfügbaren Suchlösungen Bücher als Klartextsammlungen behandeln, was zu ungenauen und ungenauen Buchsuchergebnissen führt. Es müssen daher Mittel und Wege gefunden werden, Bücher anders als andere Webdokumente zu behandeln und ihre strukturelle Semantik und logischen Zusammenhänge im Inhalt für Suche, Ranking und Empfehlungen zu nutzen. Die Entwicklung einer umfassenden Buchstruktur-Ontologie wird dabei helfen, diese implizite Semantik zu ernten. Um dem Informationsbedürfnis der Leser gerecht zu werden, sind unterschiedliche Ontologien auf Domänenebene erforderlich, um Buchinhalte konzeptionell zu verbinden und maschinell „verständlich“ zu machen. Darüber hinaus bestehen Tabellen in einem Buch aus strukturierten Daten und sind eine reichhaltige Quelle für Semantik. In ähnlicher Weise kann der Kontext von Bildern und Figuren genutzt werden, um Inhalte innerhalb und zwischen Büchern in Beziehung zu setzen. Die Entdeckung und die anschließende Nutzung dieser Semantik im Buch-IR-Prozess führt zu präziseren und genaueren Systemen und zur Zufriedenheit aller Beteiligten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-33625-1_31 5033614b8ac9e2871678e57e25e45807;de;;;7.3.;;;Griechische Museen im Web Informationen, die über die Websites von Museen angeboten werden, können dazu dienen, ihre Reichweite zu vergrößern und die Wahrscheinlichkeit eines Besuchs zu erhöhen. Das Papier zielt darauf ab, Menge und Art der Informationen zu investieren, die von griechischen Museumswebsites bereitgestellt werden. Die erfassten Informationsmerkmale wurden entsprechend ihrer thematischen Ähnlichkeit in sechs Dimensionen eingeteilt: Kontakt-Kommunikation, Museumsbesuch, Das Museum, Bildung, Website-Features und Nutzung sozialer Medien. Die „Themen“ der Museen werden berücksichtigt. Griechische Museen nutzen das Internet nur eingeschränkt und nutzen die angebotenen Möglichkeiten nicht. Die meisten griechischen Museen nutzen ihre Websites wie Broschüren, da „Kontakt-Kommunikation“ und „Museumsbesuch“ die informationsreichsten Dimensionen sind. Die „Themen“ des Museums wirken sich nur auf die Informationen zu den Dimensionen „Content-Communication“ und „The Museum“ aus. Der Einfluss anderer Managementmerkmale der Museen auf die Bereitstellung von Informationsmerkmalen sollte weiter untersucht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-15859-4_8 494268e3980db657bfd99fa645c5fa6a;de;;;7.3.;;;Intention aus Webabfragen extrahieren – Anwendung in der eHealth-Personalisierung Die Personalisierung von Anwendungen im Gesundheitswesen erfordert die Erfassung patientenspezifischer Informationen, einschließlich der Krankengeschichte, des Gesundheitszustands und psychischer Aspekte wie Verhalten, Absichten und Einstellungen. Dieses Papier präsentiert ein datenschutzfreundliches System zur Ableitung von Patientenabsichten, das für personalisierte eHealth-Anwendungen verwendet werden kann. Bei dem vorgeschlagenen Ansatz wird die Patientenintention aus Web-Abfrageprotokollen über Abfragekategorisierungstechniken abgeleitet. Die Architektur geht von einer Benutzeranwendung aus, die die Anfragen des Benutzers vor dem zentralen System verbirgt, während nur relevante Absichten offengelegt werden. Das Papier präsentiert eine prototypische Implementierung der vorgeschlagenen Architektur, um Absichten zur Personalisierung von Empowerment-Diensten für den kardiorenalen Patienten zu extrahieren. Der Schwerpunkt liegt auf der Identifizierung von Absichten in Bezug auf Reisen, Ernährung und körperliche Bewegung, da diese eine wichtige Rolle für das tägliche Management von kardiorenalen Erkrankungen spielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19387-8_350 f2049530a6640f26841c97206cecb3f8;de;;;7.3.;;;Eine Methode des Customer Intention Management für ein My-Page-System Dieses Papier schlägt eine Methode zum Erstellen von My Page vor, die eine effektive Eins-zu-Eins-Marketingmethode für Internetdienstanbieter (ISPs) ist. Eine der Herausforderungen beim Aufbau von My Page ist die hohe Hardwarebelastung beim Extrahieren von Kundenpräferenzinformationen aufgrund der enormen Anzahl von Kunden und der extrem breiten Bereiche, die die Kunden interessieren könnten. Um dies zu erreichen, haben wir ein Wissenswörterbuch erstellt die dynamisch aktualisiert und zum Extrahieren von Kundenpräferenzinformationen an den Access Point Servern verwendet werden können. Eine weitere Herausforderung besteht darin, nicht nur die Kundenpräferenzen, sondern auch die Trends der Präferenzen und der Märkte schnell und genau zu erfassen. In dieser vorgeschlagenen Methode fügen wir Zeitachsen hinzu, um daraus dreidimensionale Vektoren zu machen, um die Präferenzübergänge und die Markttrends zu verwalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30132-5_74 8416b2be5be4d43999687e4d6a169530;de;;;7.3.;;;Interaktive Tools für e-Democracy: Beispiele aus der Schweiz Demokratie basiert auf Wahlfreiheit, aber auch auf sinnvollen Diskussionen über Themen, die zur Abstimmung gestellt werden oder über Personen, die gewählt werden wollen. E-Demokratie lässt sich daher nicht auf E-Voting reduzieren. Es sollte auch internetbasierte Dienste umfassen, die die Online-Interaktion zwischen Wählern, Kandidaten und Unterstützern verschiedener Meinungen erleichtern. Dieses Papier stellt eine Reihe interaktiver Werkzeuge vor, die verwendet werden können, um einen solchen virtuellen Dialog zu unterstützen. Zur Kategorisierung dieser Werkzeuge wird eine Matrix vorgeschlagen. Es werden Beispiele für solche in der Schweiz verwendeten Werkzeuge gegeben. Die modernsten Tools und Websites, die kürzlich für Schweizer Wahlen oder Volksabstimmungen entwickelt wurden, werden ausführlich beschrieben. Mögliche zukünftige Forschungen zu den Auswirkungen dieser Instrumente werden skizziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-32257-3_4 e837ffd270e2fc5a22c054103b6f572b;de;;;7.3.;;;Proteus: Eine Architektur zur Anpassung von Webseiten auf Kleinbildgeräten Das Lesen des Inhalts einer Webseite mit einem kleinen Bildschirmgerät wie einem PDA oder Mobiltelefon ist noch lange kein angenehmes Erlebnis. Aufgrund der Gerätebeschränkungen können aktuelle mobile Browser nicht alle HTML-Tags, wie beispielsweise Tabellen, verarbeiten. Daher bieten die meisten mobilen Browser eine linearisierte Version der Quell-HTML-Seite, was zu viel Scrollen führt, ganz zu schweigen von der Schwierigkeit, den gewünschten Inhalt zu finden. Der Hauptbeitrag dieser Arbeit besteht darin, eine Architektur für die Anpassung von Webseiten auf Geräte mit kleinem Bildschirm vorzuschlagen. Zu den Funktionen, die unsere Architektur bietet, zählen die spontane Anpassung und Anpassung von Webseiten an die Benutzer- und Geräteeigenschaften, die Textzusammenfassung, die Identifizierung von Seitenblöcken und die Inhaltszuordnung, um die Suche nach Benutzerinteressen zu erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74784-0_17 c9c8bd7cb26292668f37012c2bff863d;de;;;7.3.;;;Auf dem Weg zu einer Methode zur Entwicklung von Social Web Services Dieses Papier motiviert die Vermischung von Social Computing mit serviceorientiertem Computing, wodurch soziale Webdienste „geboren“ werden. Einerseits baut Social Computing Benutzeranwendungen auf den Prinzipien des kollektiven Handelns und des Teilens von Inhalten auf. Auf der anderen Seite baut serviceorientiertes Computing Unternehmensanwendungen auf den Prinzipien von Serviceangebot und -nachfrage und loser Kopplung auf. Dank dieser Mischung können Social Web Services so arbeiten, dass sie berücksichtigen, mit wem sie in der Vergangenheit zusammengearbeitet haben und mit wem sie in Zukunft zusammenarbeiten möchten. Um soziale Webdienste zu entwickeln, stellt dieses Papier eine vierstufige Methode vor, die sich mit;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19997-4_15 0b831069c18f12adb74b5171b273aeca;de;;;7.3.;;;Entwicklung und Verwaltung von Softwarekomponenten in einem Ontologie-basierten Anwendungsserver Anwendungsserver bieten viele Funktionen, die üblicherweise bei der Entwicklung einer komplexen verteilten Anwendung benötigt werden. Bisher wurden die Funktionalitäten meist mit Hilfe von Administrationswerkzeugen und entsprechenden Konfigurationsdateien, neuerdings auch in XML, entwickelt und verwaltet. Dies stellt zwar eine sehr flexible Möglichkeit dar, eine verteilte Anwendung zu entwickeln und zu administrieren, z.B. ein Anwendungsserver mit seinen Komponenten, der Nachteil ist, dass das den verschiedenen Konfigurationen zugrunde liegende Konzeptmodell;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30229-2_24 947cd761661eacd36ddbfb89801221d9;de;;;7.3.;;;Eine Studie über internetbasierte e-Learning-Umgebungen in Hongkong: Tierklassifikation in einer Grundschule Die Tierklassifikation ist eines der zentralen Konzepte der biologischen Wissenschaftsausbildung. Traditionell lernen die Schüler dieses Thema durch den Unterricht des Lehrers, der sich hauptsächlich auf das Lehrbuch stützt. Heutzutage werden Internet und Bildung immer untrennbarer, diese quasi-experimentelle Studie untersucht das Erlernen der Tierklassifikation mit Internetressourcen durch zwei verschiedene Leistungsklassen von Sechstklässlern in ressourcenbasierten E-Learning-Umgebungen (RBeLEs). Die Ergebnisse aus der Analyse der von Studierenden gezogenen Pretest- und Posttest-Wortnetze und Interviews nach dem Unterricht mit Fokusgruppen-Schülern zeigen, dass die Studierenden nicht nur Spaß am Lernen mit Internetressourcen hatten, sondern auch ein besseres Verständnis der Tierklassifikation im Hinblick taxonomische Gruppen sowie die Merkmale und Beispiele von Tieren in jeder Gruppe. Diese Studie liefert nützliche Erkenntnisse darüber, wie Internetressourcen das Erlernen der Tierklassifizierung unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16390-1_12 ae3a8ade3ba232b2bc74eecbdbb94f2e;de;;;7.3.;;;Die Nutzung einer Website bei der Umsetzung einer Kommunikationspolitik in einem Unternehmen Die Möglichkeit der Nutzung der Website eines Unternehmens zur Umsetzung seiner Kommunikationspolitik wird in Betracht gezogen. Es wird die Klassifikation von Websites vorgestellt und der Zusammenhang von Zielen zum Aufbau einer elektronischen Darstellung und deren Informationsgehalt beschrieben. Die Rolle der Mitarbeiter des Informationsdienstes eines Unternehmens bei der Erstellung, Unterstützung und Förderung der Website des Unternehmens wird definiert.;-;-;-;https://link.springer.com/article/10.3103/S0147688207020074 1de0215017cfa427fb3696fe4c1dcc61;de;;;7.3.;;;Webservice-Empfehlung über die Ausnutzung zeitlicher QoS-Informationen Mit der rasanten Entwicklung von Technologien, die auf Webservices basieren, ist eine große Menge von Webservices im Internet verfügbar. Die Webservice-Empfehlung zielt darauf ab, Benutzer bei der Konzeption und Entwicklung serviceorientierter Softwaresysteme zu unterstützen. Wie man Webdienste mit besserem QoS-Wert empfiehlt, erhält viel Aufmerksamkeit. Frühere Arbeiten basieren normalerweise auf der Annahme, dass die QoS-Informationen verfügbar sind. Allerdings stoßen wir normalerweise auf Datensparsity-Probleme, die die Vorhersage des QoS-Werts erfordern. Außerdem kann sich der QoS-Wert von Webdiensten aufgrund der dynamischen Umgebung im Laufe der Zeit ändern. Die Handhabung der dynamischen Datenströme des eingehenden Dienst-QoS-Wertes ist eine große Herausforderung. Um die obigen Probleme anzugehen, schlagen wir ein Web-Service-Empfehlungs-Framework vor, indem wir die zeitlichen Informationen berücksichtigen. Wir versuchen, sich solche QoS-Wertdaten als Tensor vorzustellen und sie in ein Tensorfaktorisierungsproblem zu transformieren. Ein Tucker-Zerlegungsverfahren (TD) wird vorgeschlagen, um mit dem Modell fertig zu werden, das mehrdimensionale Informationen enthält: Benutzer, Dienst und Zeit. Um mit den dynamischen Datenströmen des Dienst-QoS-Werts umzugehen, führen wir eine inkrementelle Tensorfaktorisierungsmethode (ITF) ein, die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11197-1_2 6f75d05442c5716957b8985cc4e74f21;de;;;7.3.;;;Modellierung und Verwaltung von Communities von Web-Service-Registrys Heute beobachten wir eine kontinuierliche Ausweitung der Nutzung von Internet-Technologien, hauptsächlich Web-Services, für elektronische B2B-Transaktionen. Dies hat zu einem Anstieg der Zahl der Webservice-Register der Unternehmen geführt. In diesem Zusammenhang kann die Web-Service-Erkennung eine mühsame Aufgabe für einen Dienstanforderer und eine kostspielige Aufgabe für ein Erkennungssystem sein. Um dieses Problem zu lösen, besteht eine naheliegende Lösung darin, Webdienst-Registrys in Communities zu gruppieren. Aufgrund der dynamischen Natur dienstleistungsorientierter Umgebungen sollte eine solche Organisation so geführt werden, dass ihre organisatorische Konsistenz erhalten bleibt. In diesem Papier spezifizieren wir die erforderlichen Verwaltungsvorgänge, um die Konsistenz der Gemeinschaften während eines Registrierungs-/Gemeinschaftslebenszyklus sicherzustellen. Um die Machbarkeit unseres Managementansatzes zu testen, simulieren wir ein Netzwerk von Registry Communities und entwickeln einen Community Manager.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28082-5_7 d52a2989e1841c535706d8ac3eeda861;de;;;7.3.;;;Sprachübergreifende eigentümliche Bildsuche mit Übersetzung zwischen Japanisch und Englisch Als nächste Schritte des Bildabrufs ist es sehr wichtig, in den akzeptablen Bildern zwischen „typischen Bildern“ und „besonderen Bildern“ zu unterscheiden und darüber hinaus viele verschiedene Arten von eigentümlichen Bildern erschöpfend zu sammeln. Als Lösung für den 1. besondere Bildmerkmale (z. B. Farbmerkmale), die daraus umgewandelt werden. Dieses Papier schlägt eine verfeinerte Methode vor, die mit sprachübergreifenden Funktionen (Übersetzung zwischen Japanisch und Englisch) ausgestattet ist, und validiert ihre Abrufpräzision.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28798-5_8 eaac2edbd42bee6dac968b2439ad6010;de;;;7.3.;;;Datenschutzschonende Widerrufsprüfung Von vertrauenswürdigen Zertifizierungsstellen (CAs) signierte digitale Zertifikate werden für mehrere Zwecke verwendet, am häufigsten für die sichere Bindung öffentlicher Schlüssel an Namen und andere Attribute ihrer Besitzer. Obwohl ein Zertifikat normalerweise eine Ablaufzeit enthält, ist es nicht ungewöhnlich, dass ein Zertifikat vorzeitig widerrufen werden muss. Aus diesem Grund führt ein Client (Benutzer oder Programm) immer dann, wenn er die Gültigkeit des Zertifikats einer anderen Partei bestätigen muss, eine Zertifikatsperrprüfung durch. Es gibt mehrere Widerrufstechniken, die sich sowohl im Betriebsmodell als auch in den zugrunde liegenden Datenstrukturen unterscheiden. Ein gemeinsames Merkmal besteht darin, dass ein Client in der Regel einen Dritten (ob vertrauenswürdig, nicht vertrauenswürdig oder halb vertrauenswürdig) kontaktiert und einen Beweis für die Sperrung oder Gültigkeit (Nicht-Sperrung) des betreffenden Zertifikats erhält. Die Sperrprüfung ist zwar nützlich, kann aber sensible Informationen preisgeben. Insbesondere können Dritte von zweifelhafter Vertrauenswürdigkeit die Identität der die Sperrprüfung durchführenden Person sowie das Ziel der Prüfung erfahren. Ersteres kann leicht mit Techniken wie Onion Routing oder anonymem Webbrowsing behoben werden. Das Ausblenden des Ziels der Abfrage ist dagegen nicht offensichtlich. Dieses Papier konzentriert sich auf die Privatsphäre bei der Sperrprüfung, untersucht den Verlust der Privatsphäre bei aktuellen Sperrprüfungsverfahren und schlägt einfache und effiziente Techniken zum Schutz der Privatsphäre für zwei bekannte Sperrverfahren vor.;-;-;-;https://link.springer.com/article/10.1007/s10207-008-0064-z 1aa853a2b1571f89404cae80861193ac;de;;;7.3.;;;Cross-Language Information Retrieval: Ein System für vergleichbare Korpusabfragen Wir beschreiben ein System, das für die Verarbeitung und Abfrage vergleichbarer Textkorpora, d. Die erste Version des Systems wurde entwickelt, um lexikalische Äquivalente in natürlicher Sprache aus Sätzen von subsprachlichen Texten in Englisch und Italienisch abzurufen. Angesichts der notwendigen lexikalischen und morphologischen Komponenten könnte es auf andere Sprachen ausgeweitet werden. Die anfängliche Implementierung wurde unter Berücksichtigung der Bedürfnisse von Sprachwissenschaftlern vorgenommen, das System könnte jedoch Anwendungen in den Bereichen Terminologie und sprachenübergreifende Dokumentenabfrage haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5661-9_7 e06f5e02c940a3e064ef61fcfb0aaa98;de;;;7.3.;;;Kombinieren von Textvektordarstellungen für den Informationsabruf Dieses Papier schlägt eine neuartige Darstellung für Dokumente vor, die die Präzision verbessern soll. Diese Darstellung wird durch die Kombination zweier zentraler Techniken erzeugt: Random Indexing und Holographic Reduced Representations (HRRs). Die zufällige Indizierung verwendet Informationen über das gemeinsame Auftreten zwischen Wörtern, um semantische Kontextvektoren zu erzeugen, die die Summe von zufällig erzeugten Begriffsidentitätsvektoren sind. HRRs werden verwendet, um eine Textstruktur zu codieren, die direkt Beziehungen zwischen Wörtern erfassen kann (z. B. zusammengesetzte Begriffe, Subjekt-Verb und Verb-Objekt). Durch Verwendung der Zufallsvektoren zum Erfassen semantischer Informationen und anschließendes Verwenden von HRRs zum Erfassen von aus dem Text extrahierten strukturellen Beziehungen werden Dokumentvektoren durch Summieren all dieser Darstellungen in einem Dokument erzeugt. In diesem Beitrag zeigen wir, dass diese Darstellungen erfolgreich bei der Informationsbeschaffung verwendet werden können, Beziehungen effektiv einbeziehen und die Dimensionalität des traditionellen Vektorraummodells (VSM) reduzieren können. Die Ergebnisse unserer Experimente zeigen, dass, wenn eine Darstellung, die zufällige Indexvektoren verwendet, mit verschiedenen Kontexten kombiniert wird, wie z Aufgaben zur Informationsbeschaffung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04208-9_7 4b7b4775e223919e8f36deb3a0b1ba13;de;;;7.3.;;;Eine FDM-basierte Einschränkungssprache für semantische Webanwendungen Das Semantic Web ist ein Netzwerk von maschinenverarbeitbaren Ressourcen, das parallel zum traditionellen Web existiert. Softwaresysteme können die im Semantic Web verfügbaren Ressourcen nutzen, um Aufgaben für Benutzer zu automatisieren. Durch Constraint-Austausch und -Verarbeitung können verschiedene Semantic-Web-Anwendungen realisiert werden, einschließlich E-Commerce und computergestützter Gruppenarbeit. Bei solchen Anwendungen müssen Benutzeranforderungen in Form von Beschränkungen mit Daten, die Teile möglicher Lösungen darstellen, zusammengeführt und Verfahren zur Lösung von Beschränkungen angewendet werden, um machbare Lösungen abzuleiten. Beispiele sind die Konfiguration eines kundenspezifischen Produkts, um die Anforderungen einiger Kunden zu erfüllen, oder die Planung eines Projekts, um den Zeitplan und die Aufgabenbeschränkungen der Mitarbeiter zu erfüllen. Um diese Anwendungen zu realisieren, müssen existierende Semantic Web-Informationsdarstellungen mit einem Formalismus zum Ausdrücken von Beschränkungen erweitert werden, und ein Problemlösungsrahmen muss implementiert werden, um Probleme der Beschränkungserfüllung auf dynamische Weise zu sammeln und zu lösen. Dieses Kapitel stellt ein Constraint Interchange Format (CIF) vor, das auf einem funktionalen Datenmodell (P/FDM) basiert, zeigt, wie dieses CIF verwendet werden kann, um das Resource Description Framework (RDF) – das untergeordnete Semantic Web Datenmodell – zu erweitern, und skizziert die Komponenten eines implementierten Beschränkungsaustausch- und Verarbeitungssystems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-05372-0_17 a93303ac5573d15d42f4a943ad1e0c0a;de;;;7.3.;;;Effiziente Berechnung der Riemannschen SVD in Total Least Squares Problems in Information Retrieval Kürzlich wurde eine nichtlineare Verallgemeinerung der Singulärwertzerlegung (SVD), genannt Riemannian-SVD (R-SVD), zur Lösung von Problemen der kleinsten Quadrate mit vollem Rang im Rahmen der latenten semantischen Indizierung (LSI) auf niedrigrangige Matrizen erweitert Informationsrückgewinnung. Dieser neue Ansatz mit dem Namen RSVD-LSI basiert auf der vollständigen SVD eines;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-3552-0_31 1c5e2f50b3664802264e38edccd4e0d0;de;;;7.3.;;;Statistische Methoden zur sprachübergreifenden Informationsbeschaffung Mehrsprachiges Information Retrieval (IR) ist weitgehend auf die Entwicklung mehrerer Systeme zur Verwendung mit einer bestimmten Fremdsprache beschränkt. Die explosionsartige Verfügbarkeit elektronischer Medien in anderen Sprachen als Englisch macht die Entwicklung von IR-Systemen, die Sprachgrenzen überschreiten können, immer wichtiger. Wir entwickeln derzeit Tools und Techniken für den Cross Language Information Retrieval. In diesem Kapitel stellen wir Experimente vor, die die Faktoren analysieren, die wörterbuchbasierte Methoden für den sprachübergreifenden Abruf beeinflussen, und Methoden vorstellen, die die Fehler, die ein solcher Ansatz normalerweise macht, drastisch reduzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5661-9_3 72eef6b8c842a194cb9436c0dad7342f;de;;;7.3.;;;Fuzzy-Ansatz zur formalen Konzeptanalyse für die Informationsbeschaffung In jüngster Zeit ist die Formal Concept Analysis (FCA), ein mathematischer Rahmen, der auf partiellen Ordnungsbeziehungen basiert, für die Wissensrepräsentation und das Argumentieren populär geworden. Weiterhin wird dieses Framework als Fuzzy FCA, Rough FCA usw. erweitert, um praktische Anwendungen zu behandeln. Es gibt Untersuchungen in der Literatur, die FCA für Information Retrieval (IR)-Anwendungen anwenden. Das Ziel dieses Papiers ist die Anwendung des Fuzzy-FCA-Ansatzes für IR. Bei der Einführung von Fuzzy FCA folgen wir einem schnellen Algorithmus zur Generierung der Fuzzy-Konzepte anstelle von klassischen Algorithmen, die auf Residualmethoden basieren. Darüber hinaus verfolgen wir einen Ansatz, der auch bei fehlender exakter Übereinstimmung der Schlüsselwörter die relevanten Dokumente abruft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27212-2_20 9408d0ef709011b5442798ada5cdb9db;de;;;7.3.;;;Anwendungen von Service Monitoring Agents In Kapitel 2 wurde gezeigt, dass die erfolgreiche Markteinführung neuer IP-Dienste mit der Einführung einer kundenbasierten Service-Monitoring-Infrastruktur gekoppelt sein wird. Dieses Kapitel enthält Beispiele für neue IP-Dienste und CSM-Agenten, die diese überwachen können. Weder die hier besprochene Liste der Dienste noch die Sammlung der Agenten sind vollständig, sondern CSM ist generisch und kann daher leicht erweitert werden. Für jeden neuen Dienst kann ein neuer Überwachungsagent implementiert werden (oder ein alter angepasst werden). Dies kann von Kunden, Anbietern oder einem Drittanbieter durchgeführt werden. Dieses Kapitel konzentriert sich auf die IP-Dienste, die in der Einleitung zu diesem Buch diskutiert wurden: ein virtueller privater Netzwerkdienst und differenzierte Dienste für das Internet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-8185-2_4 5aaeea7ce66377000913016b8976c8f7;de;;;7.3.;;;Auf hyperlokalen Webseiten In diesem Papier diskutieren wir einen Ansatz für die Entwicklung und Bereitstellung von Websites (Webseiten), die der Beschreibung von Objekten (Ereignissen) mit einem genau abgegrenzten geografischen Geltungsbereich dienen. Dieser Artikel beschreibt die Verwendung kontextsensitiver Programmiermodelle für die Webentwicklung. In unserem Papier schlagen wir Mechanismen vor, um mobile Webanwendungen zu erstellen, deren Inhalt auf einen vordefinierten geografischen Bereich verweist. Die Genauigkeit einer solchen Bindung ermöglicht es uns, einzelne Bereiche innerhalb desselben Innenraums zu unterscheiden. Zielgebiete für eine solche Entwicklung sind Anwendungen für Smart Cities und den Einzelhandel.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30843-2_2 f054ca689fe085f534731b21245194bc;de;;;7.3.;;;Die Delegation der Zensur an den Privatsektor Es besteht kein Zweifel: Der Besitz von Informationen bietet einen strategischen Vorteil. Noch strategischer ist jedoch die Möglichkeit, diese Informationen an eine große Zahl von Menschen zu verteilen. Informationen sind ein Unterscheidungsmerkmal, das es einer Einheit – einem Staat, einer Armee und ihrem Militärpersonal, einem Unternehmen oder einer Gruppe von Einzelpersonen – ermöglicht, sich gegenüber ihren Konkurrenten einen Vorsprung zu sichern oder einen Vorteil zurückzugewinnen. Seine Fähigkeit, diese Informationen zu verwalten, indem sie je nach Fall geheim gehalten oder gesendet werden, macht den Unterschied.;-;-;-;https://link.springer.com/chapter/10.1057/9781137483591_8 9f1053325173980f603306810b1f2f1e;de;;;7.3.;;;Ein Multi-Agenten-Framework für die Suche nach Informationen im Internet: Anwendung bei MedlinePlus Für ein intelligentes System, das in der Lage ist, auf effiziente und schnelle Weise Informationen aus dem Web zu suchen, wird eine Multi-Agenten-Architektur vorgeschlagen. Wir unterscheiden drei wichtige Phasen. Der erste ist ein Lernprozess zum Lokalisieren der relevantesten Seiten, die den Benutzer interessieren könnten. Die zweite besteht in einem inkrementellen Lernen unter Berücksichtigung der Veränderungen, die das Web erfährt. Schließlich simuliert der letzte Schritt den Prozess der Informationsbeschaffung, sobald die Behörden erlernt sind. Experimente wurden auf MedlinePlus durchgeführt, einer öffentlichen Website für Forschung im Bereich Gesundheit. Die Ergebnisse sind sowohl für die Web-Regelmäßigkeiten als auch für die Surfzeit vielversprechend.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16486-1_25 e2a3ae55383745388f853faa281123c7;de;;;7.3.;;;Wissenschaftliches Schreiben und Informationsbeschaffung Wissenschaftliches Schreiben ist eine Form des „Schreibens am Arbeitsplatz“. Es ist eine soziale und gemeinschaftliche Tätigkeit, die von den Bedürfnissen und Zielen der Wissenschaft als sozialer Bereich und institutioneller Organisation geprägt ist. Dazu gehören die Arbeitsweise und die Organisationsstruktur der akademischen Gemeinschaft im Allgemeinen sowie die Fächer, Interessen und Methoden der einzelnen Disziplinen (vgl. Bazerman, 1988, Bazerman & Paradis, 1991, Swales, 1990, Vipond, 1993 ). Kurz gesagt kann das wissenschaftliche Schreiben als typisierte Tätigkeit in einer typisierten Situation charakterisiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-1482-6_7 7f53cd7a2925505ddff226ddff179730;de;;;7.3.;;;Funktioniert Ihre Online-Werbung für jeden Verbraucher? Messung der altersbezogenen Werbewirksamkeit in einem Internetunternehmen Mit dem Aufkommen des Internets und seiner wachsenden Bedeutung als Werbemedium wurde die Effektivität der Online-Werbung zu einem Thema in der wissenschaftlichen Forschung (Ha 2008, Jianan et al. 2005). Eine weltweite McKinsey-Umfrage zur digitalen Werbung vom Juni 2008 zeigt, dass 91 Prozent von 340 Unternehmen online werben. 80 Prozent der Unternehmen vergeben Mediabudgets jedoch durch bloße subjektive Beurteilungen und verfügen über keine oder nur ungeeignete Methoden, um die Werbewirksamkeit zu verfolgen (Bughin et al. 2009). Dementsprechend ist der Bedarf an Rechenschaftspflicht in der Praxis deutlich gestiegen. Die derzeitige Methode zur Verfolgung von Online-Werbeeffekten auf dem Markt besteht in der Verwendung von Direktverfolgungstechniken über Cookies (Lavin 2006). Allerdings ist es über das direkte Tracking nicht möglich, alle Werbewirkungen zu messen, da 30 Prozent der Internetnutzer für das Tracking benötigte Cookies ablehnen oder löschen (Lipsman 2007).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11797-3_84 7baf50bfb2b662c61f36699ac3f6238a;de;;;7.3.;;;Abruf menschlicher Informationen durch Gesichtsextraktion und -erkennung auf Fernsehnachrichtenbildern mit der Subraummethode Dieses Papier schlägt ein menschliches Informationsabrufsystem mit Gesichtsextraktions- und -erkennungsfunktion vor. Ein Benutzer schaut fern, und wenn er auf interessante, aber unbekannte Personen trifft, kann er diese per Mausgerät auf dem Fernsehbildschirm angeben. Das vorgeschlagene System kann die spezifizierten Personen extrahieren und erkennen und ihre Informationen aus einer menschlichen Informationsdatenbank über das Internet abrufen und auf einer Anzeigeeinheit sowie über einen Sprachsynthesizer ausgeben. Wir haben Unterraummethoden für eine Gesichtsextraktion und -erkennung verwendet. Bei der Gesichtsextraktion wird das Unterbild innerhalb eines Scanfensters auf den Gesichtsunterraum projiziert und es wird als Gesichtsbereich betrachtet, wenn der Projektionsbetrag eine lokale Spitze hat. Bei der Gesichtserkennung wird zunächst der Gesichtsteilraum einer einzelnen Person in einem Beobachtungsraum unter Verwendung entsprechender Trainingsdaten konstruiert. Dann wird ein eingegebener Gesichtsbereich auf den individuellen Unterraum projiziert und in die Person mit dem maximalen Projektionsbetrag klassifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-63931-4_279 70d023185a6a6a0d7085b6947e3bceba;de;;;7.3.;;;Digitale Konvergenz? Die bevorstehende Verschmelzung der Computer- und Telekommunikationswelt wurde lange vorhergesagt und lange verschoben. Eine neue Zutat in den späten 1990er Jahren ist die explosionsartige Verbreitung des Internets. Sind Sprachtelefonie, Computernetzwerke und (in einer neuen Variante eines jahrzehntealten Themas) Rundfunkunterhaltung und Informationen endlich zu einem einzigen, nahtlosen Ganzen verschmelzen, wobei das Internet sie zusammenfügt?;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4407-0_12 7895367783c0e207083c8d2af86d9ae1;de;;;7.3.;;;Beschleunigung des Web-Entrepreneurship in lokalen Inkubationsumgebungen Dieses Papier untersucht neuartige Formen technologischer und digitaler gesellschaftlicher Innovation, die das volle Potenzial der Zukunft des Internets in webbasierte Innovation, Web-Unternehmertum und Internationalisierung (IEI) von Unternehmen einbringen. Es stellt einen Ansatz zur Erweiterung und Ergänzung bestehender Inkubationsumgebungen vor, die nicht mehr ausreichen, um mit der Dynamik des Web-Entrepreneurs umzugehen. Basierend auf persönlichen und beruflichen Beziehungen und neuen Geschäftsmodellen, die durch soziale Medien und das Web 2.0 unterstützt werden, zusammen mit einer Reihe interoperabler IKT-Dienste, die virtuelle oder agile Unternehmen unterstützen, schlagen die Autoren eine Föderation von Open-Source-Plattformen für die Neugeborenen vor und bestehendes Enterprise-Life-Cycle-Management, wodurch das Unified Digital Enterprise-Konzept instanziiert wird. Der neuartige Ansatz gewährleistet die vollständige Wiederverwendung bestehender Lösungen und entwickelt gezielte Forschung zur Unterstützung des Web-Unternehmertums durch die Zusammenarbeit zwischen Menschen, Unternehmen und Vermögenswerten, insbesondere mit Fokus auf innovative Methoden und Architekturen für Wettbewerbsintelligenz, Crowd-based Market Sensing, Ideeninkubation und Simulation, wissensintensive Teambildung sowie Interoperabilität, um eine interne Föderation und externe Plattformintegration zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19243-7_19 f10bb5edaa72900c7c0b6a65be4c3249;de;;;7.3.;;;Das visuelle Internet der Dinge-System basierend auf Tiefenkamera Das Visual Internet of Things ist ein wichtiger Bestandteil der Informationstechnologie. Es wird vorgeschlagen, das System mit atomarer visueller Markierung zu verstärken, indem eine visuelle Kamera als Sensor verwendet wird. Leider wird die traditionelle Farbkamera stark von den Beleuchtungsbedingungen beeinflusst und leidet unter der geringen Erkennungsgenauigkeit. Um dieses Problem zu lösen, bauen wir ein neues Visual Internet of Things mit Tiefenkamera. Das neue System nutzt die Beleuchtungsinvariante der Tiefeninformationen und die reichhaltige Textur der Farbinformationen, um die Objekte in der Szene zu beschriften. Wir verwenden Kinect als Sensor, um die Farb- und Tiefeninformationen der Szene zu erhalten, die traditionelle Computer-Vision-Technologie für die kombinatorischen Informationen zu modifizieren, um das Zielobjekt zu beschriften, und das Ergebnis an die Benutzeroberfläche zurückzugeben. Wir richten die Hardwareplattform ein und die reale Anwendung validiert die Robustheit und hohe Präzision des Systems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38460-8_50 add8c98a230b9e796f585d8684e55a3d;de;;;7.3.;;;Zuverlässige Datenreplikations-Middleware für Webdienste der nächsten Generation Die Web Services sind in einer verteilten Umgebung untereinander abhängig. Das Anbieten einer solchen gegenseitigen Abhängigkeit ist aufgrund der geografischen Entfernung von Knoten in einer verteilten Umgebung eine schwierige Aufgabe, was zu einer hohen Verzögerung beim Datenzugriff führt. Dieses Whitepaper stellt eine Publish/Subscribe-Replikations-Middleware für verteilte Webdienste bereit. Diese Technik erreicht eine dynamische Replikation von Daten bei der eingehenden Transaktionsanforderung vom Client. Dieses Middleware-Framework bietet: Replikationsdienste, um Interdependenz, Heterogenität und Sicherheitsprobleme zwischen Webdiensten zu erreichen. Dieses Verfahren erreicht eine gegenseitige Abhängigkeit, indem es die Verzögerung des Datenzugriffs verbessert und das Lesen veralteter Replikate vermeidet. Im Vergleich zu Systemen ohne Replikation/mit herkömmlichen Techniken zur Erzielung von Interdependenz erweist sich das vorgeschlagene Modell durch die Implementierung als effizient.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14493-6_50 27743c92f212c003a77b88c587ce54e4;de;;;7.3.;;;Personalisierung und Optimierung der Informationsbeschaffung: Adaptive Semantic Layer Approach Diese Arbeit beschreibt die Idee einer adaptiven semantischen Schicht für große Datenbanken, die es ermöglicht, eine große Menge an Informationen effektiv zu verarbeiten. Dieser Effekt wird erreicht, indem die Möglichkeit geboten wird, Informationen auf der Grundlage verallgemeinerter Konzepte, also linguistischer Beschreibungen, zu suchen. Diese Konzepte werden vom Benutzer in natürlicher Sprache formuliert und durch Fuzzy-Sets modelliert, die auf dem Universum der Bedeutungen der Attribute der Datenbank definiert sind. Nach der Anpassung der Benutzerkonzepte basierend auf den Suchergebnissen haben wir eine „personalisierte Semantik“ für alle Begriffe, die eine bestimmte Person für die Kommunikation mit der Datenbank verwendet (z für Personen mit unterschiedlichem Einkommen, Alter usw. unterschiedlich sein).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-75408-6_2 b17c806dfe3dc089f4720566655aa341;de;;;7.3.;;;Automatische Integration und Clustering von Marathi-Dokumenten in verschiedenen Formaten für einen effektiven Informationsabruf Mit dem Aufkommen des Internetzeitalters hat die Datengenerierung aufgrund der leichten Zugänglichkeit der Rechenressourcen exponentiell zugenommen. Obwohl alle Schichten der Gesellschaft von den Vorteilen des Informationszeitalters profitiert haben, hinken einige immer noch hinterher. Einer der Teile der Gesellschaft, der nicht das Hauptziel der Softwareindustrie war, ist die Landwirtschaft. Wir beabsichtigen, ein umfassendes Produkt für die landwirtschaftliche Gemeinschaft zu entwickeln, in dem der Landwirt alle Informationen erhält, die er für den Anbau von Pflanzen benötigt. Die bereitgestellten Daten wären in Marathi-Sprache, der Sprache der gewöhnlichen Bauern im Bundesstaat Maharashtra. Dies wird die Benutzerfreundlichkeit und Zugänglichkeit für die Landwirte erleichtern. In diesem Beitrag wird ein System vorgestellt, das die Daten in verschiedenen Multimediaformaten akzeptiert und in eine gemeinsame Zwischenform umwandelt. Die Zwischenform wäre eine Textdatei. Das aufgebaute System wäre in der Lage, Daten automatisch zu kategorisieren. Der für das Clustering verwendete Algorithmus ist LINGO.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8198-9_36 067bb8c075d48f36f0f85656f04390e4;de;;;7.3.;;;Native Apps versus Web-Apps: Welches ist das Beste für Anwendungen im Gesundheitswesen? Smartphone-Anwendungen (Apps) bieten eine neue Möglichkeit der Gesundheitsversorgung, was durch die Tatsache veranschaulicht wird, dass Gesundheits-Apps schätzungsweise über 30 % der derzeit entwickelten neuen Apps ausmachen, wobei diese Zahl anscheinend noch steigen wird, wenn die Vorteile offensichtlicher werden. In diesem Beitrag werden anhand der Entwicklung einer In-vitro-Fertilisation (IVF)-Behandlungs-Stressstudie-App als Beispiel die Alternativen des Designs und der Implementierung nativer Apps und Web-Apps in Bezug auf mehrere Faktoren betrachtet, darunter: Benutzeroberfläche, einfache Entwicklung, Fähigkeiten , Leistung, Kosten und potenzielle Probleme. Die Entwicklung für iOS- und Android-Plattformen sowie eine Web-App mit JavaScript und HTML5 werden besprochen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39262-7_22 6b2c04b402752e8f3ae0125eaaaa583d;de;;;7.3.;;;Extraktion von Beziehungen aus dem Web mit Fernüberwachung Das Extrahieren von Informationen aus Webseiten erfordert die Fähigkeit, in Bezug auf die Anzahl der Dokumente, die Anzahl der Domänen und die Domänenkomplexität im Web-Maßstab zu arbeiten. Neuere Ansätze haben vorhandene Wissensbasen genutzt, um zu lernen, Informationen mit vielversprechenden Ergebnissen zu extrahieren. In diesem Papier schlagen wir die Verwendung von Fernüberwachung für die Extraktion von Beziehungen aus dem Web vor. Distant Supervision ist eine Methode, die Hintergrundinformationen aus der Linking Open Data Cloud nutzt, um Sätze automatisch mit Relationen zu versehen, um Trainingsdaten für Relationsklassifikatoren zu erstellen. Obwohl die Methode vielversprechend ist, sind bestehende Ansätze immer noch nicht für die Web-Extraktion geeignet, da sie unter drei Hauptproblemen leiden: Datensparsität, Rauschen und lexikalische Mehrdeutigkeit. Unser Ansatz reduziert die Auswirkungen der Datenknappheit, indem er Tools zur Entitätserkennung über Domänen hinweg robuster macht und Beziehungen über Satzgrenzen hinweg extrahiert. Wir reduzieren das durch lexikalische Mehrdeutigkeit verursachte Rauschen, indem wir statistische Methoden einsetzen, um Trainingsdaten strategisch auszuwählen. Unsere Experimente zeigen, dass die Verwendung eines robusteren Entitätserkennungsansatzes und die Erweiterung des Umfangs der Relationsextraktion zu einer etwa 8-fachen Anzahl von Extraktionen führt und dass eine strategische Auswahl von Trainingsdaten zu einer Fehlerreduktion von etwa 30% führen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13704-9_3 c914c80f6c351a9264b65f039cf17d62;de;;;7.3.;;;Erstes landesweites webbasiertes Surveillance-System für grippeähnliche Erkrankungen bei Schwangeren: Teilnahme und Repräsentativität der französischen G-GrippeNet-Kohorte Schwangerschaft ist ein Risikofaktor für schwere Influenza, was bei Müttern und ihren Neugeborenen zu einem erhöhten Risiko für Krankenhausaufenthalte und Todesfälle führt. Unser Ziel war es, die Repräsentativität und Teilnahme französischer Frauen an einem neuen webbasierten kollaborativen Tool zur Datenerhebung und Überwachung von grippeähnlichen Erkrankungen (ILI) während der Schwangerschaft zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s12889-016-2899-y d52c4027ae4de0436a540132894eadb9;de;;;7.3.;;;Eine webbasierte Architektur zur Bereitstellung von Anwendungsdiensten zur Ermöglichung einer leistungsstarken Bildverarbeitung Die in diesem Papier beschriebene Arbeit stellt eine verteilte Softwarearchitektur für den Zugriff auf Hochleistungs- und parallele Rechenressourcen aus Webanwendungen vor. Die Architektur ist für den Fall der medizinischen Bildverarbeitung ausgelegt, das Konzept lässt sich jedoch auf viele weitere Anwendungsbereiche ausweiten. Parallele Rechenalgorithmen für die Segmentierung und Projektion von medizinischen Bildern werden aus der Ferne über Webdienste als lokal ausgeführt. Allgegenwärtigkeit und Sicherheit beim Zugriff und leistungsstarke Tools waren die wichtigsten Designziele. Die Implementierung verwendet das Application Service Provision-Modell, das bei der Nutzung von Softwareanwendungen immer wichtiger wird. Das System befindet sich in klinischer Validierung und berücksichtigt alle Industrie- und De-facto-Standards der medizinischen Bildgebung (DICOM, ACR-NEMA, JPEG2000) und verteilter Verarbeitung (CORBA, Web Services, SOAP).;-;-;-;https://link.springer.com/chapter/10.1007/11403937_21 3f4c623f2ca5a95e456f0079c05d234b;de;;;7.3.;;;Ein System zum Erkennen und Verfolgen von Internet-Nachrichtenereignissen Die Nachrichtenereigniserkennung ist die Aufgabe, relevante, bisher nicht gemeldete Ereignisse aus dem wirklichen Leben zu entdecken und sie den Benutzern in lesbarer Form zu melden, während die Ereignisverfolgung darauf abzielt, Nachrichtenmeldungen beim Eintreffen automatisch Ereignisbezeichnungen zuzuweisen. Ein neues Verfahren und System zum Durchführen der Ereigniserkennungs- und -verfolgungsaufgabe wird in diesem Papier vorgeschlagen. Die Methode zur Ereigniserkennung und -verfolgung basiert auf der Subjektextraktion und einer verbesserten Support Vector Machine (SVM), in der Subjektkonzepte die Bedeutung eines längeren Textes prägnant und präzise ausdrücken können. Die verbesserte SVM beschneidet zuerst die negativen Beispiele, reserviert und löscht eine negative Probe gemäß Entfernung und Klassenbezeichnung, trainiert dann den neuen Satz mit SVM, um einen Klassifizierer zu erhalten, und bildet die SVM-Ausgaben in Wahrscheinlichkeiten ab. Die experimentellen Ergebnisse mit den realen Datensätzen zeigen, dass die vorgeschlagene Methode machbar und fortgeschritten ist.;-;-;-;https://link.springer.com/chapter/10.1007/11581772_66 bb4f4a2c5dc88bf61428881ddd0e35c4;de;;;7.3.;;;MultiBeeBrowse – Barrierefreies Browsen in unstrukturierten Metadaten Die wachsende Informationsfülle im Internet, insbesondere im Next Generation Internet, stellt noch größere Herausforderungen an ein effizienteres Informationsmanagement und hat die Forscher daher auf die facettenreiche Navigation aufmerksam gemacht. Bestehende Lösungen sprechen jedoch nicht die Mehrheit der Benutzer an, die noch unerfahren im Umgang mit den facettenreichen Navigationslösungen sind oder die zugrunde liegenden Konzepte der Semantic Web-Technologien oder beides nicht verstehen. Der Abfrageverfeinerungsprozess ist bei Verwendung der facettierten Navigationsschnittstelle komplexer als beispielsweise die Verfeinerung einer einfachen schlüsselwortbasierten Abfrage.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76848-7_70 e89a5806220bcc448fbde01b2677f542;de;;;7.3.;;;Unterstützung von UMTS QoS in Wireless LANs Dieses Papier konzentriert sich darauf, wie die UMTS Quality of Service (QoS) Architektur in Wireless LANs (WLANs) unterstützt werden kann, die als alternative Zugangsnetze zum UMTS-Kern eingesetzt werden. Insbesondere befasst sich das Papier mit der Bereitstellung von UMTS QoS über WLANs und schlägt eine Lösung vor, die auf der Einführung des Wireless Adaptation Layer (WAL) basiert. Die WAL bietet Mittel zum Erweitern der UMTS-QoS in WLAN-Umgebungen, unabhängig von der zugrunde liegenden WLAN-Technologie. Darüber hinaus wird die WAL-Konfiguration zur Unterstützung der Bereitstellung von UMTS-QoS diskutiert. In diesem Zusammenhang wird eine Abbildung zwischen UMTS-QoS-Attributen und WAL-Modulen vorgeschlagen und begründet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39867-7_54 225b91e0bc933c69490524c250d8abc5;de;;;7.3.;;;Erkennung von Spam-Webseiten mit inhalts- und linkbasierten Techniken Web-Spam ist eine Technik, bei der irrelevante Seiten in den Ergebnissen der Suchmaschine einen höheren Rang als relevante Seiten erhalten. Spam-Seiten sind im Allgemeinen unzureichend und unangemessene Ergebnisse für den Benutzer. Viele Forscher arbeiten in diesem Bereich daran, die Spam-Seiten zu erkennen. Es gibt jedoch bisher keine universelle effiziente Technik, die alle Spam-Seiten erkennen kann. Dieses Papier ist ein Versuch in diese Richtung, in dem wir einen kombinierten Ansatz aus inhalts- und linkbasierten Techniken zur Identifizierung von Spam-Seiten vorschlagen. Der inhaltsbasierte Ansatz verwendet Begriffsdichte- und Part-of-Speech (POS)-Verhältnis-Tests und beim Link-basierten Ansatz untersuchen wir die kollaborative Erkennung mit personalisiertem Seitenranking, um die Webseite als Spam oder Nicht-Spam zu klassifizieren. Für experimentelle Zwecke wurde der WEBSPAM-UK2006-Datensatz verwendet. Die Ergebnisse wurden mit einigen der bestehenden Ansätze verglichen. Ein gutes und vielversprechendes F-Maß von 75,2% zeigt die Anwendbarkeit und Effizienz unseres Ansatzes.;-;-;-;https://link.springer.com/article/10.1007/s12046-015-0460-9 c55fe067c0e1f67ef0b9cb9a9526c8e3;de;;;7.3.;;;Hohe Serviceverfügbarkeit in MaTRICS für das OCS Internetdienste werden zu einem festen Bestandteil unserer täglichen Umgebung. Niemand sieht den Hintergrund der Konfiguration der Dienste und deren Backend-Systeme, aber es wird erwartet, dass kritische Dienste wie Flugbuchungssysteme, Online-Banking usw. widerstandsfähig gegen Server- und Dienstfehler sind. Daher laufen diese Dienste oft in einem Cluster auf mehreren Maschinen in einer Active/Standby-Konfiguration im Clustermodus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88479-8_41 ee394af6e906bbb689723a2f04e7ff91;de;;;7.3.;;;Im WWW nach Bildern suchen Suchmaschinen sind nützlich, weil sie es dem Benutzer ermöglichen, interessante Informationen aus dem World Wide Web zu finden. Diese Engines verwenden einen Crawler, um Informationen von Websites zu sammeln. Mit dem explosionsartigen Wachstum des World Wide Web ist es jedoch für keinen Crawler möglich, alle verfügbaren Informationen zu sammeln. Daher versucht ein effizienter Crawler, nur wichtige und beliebte Informationen zu sammeln. In diesem Artikel diskutieren wir einen Crawler, der verschiedene Heuristiken verwendet, um Abschnitte des WWW zu finden, die reichhaltige Quellen für Bilder sind. Dieser Crawler wurde für AMORE entwickelt, eine Websuchmaschine, mit der der Benutzer Bilder aus dem Web abrufen kann, indem er relevante Schlüsselwörter oder ein ähnliches Bild angibt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48762-X_26 24a3d262c434da33ef711bcf9e21c874;de;;;7.3.;;;HTML 5 Unterstützung für eine barrierefreie User-Video-Interaktion im Web Multimediale Inhalte decken das Web ab, und wir sollten allen Menschen Zugang bieten. Aus diesem Grund ist es sehr wichtig, Barrierefreiheitsanforderungen im Player zu berücksichtigen, um Barrieren zu vermeiden und den Zugriff auf diese Multimediainhalte sowie deren Ressourcen sicherzustellen. Eine der häufigsten Barrieren ist das technologische Hindernis: die Notwendigkeit für den Benutzer, die erforderlichen Plug-Ins zu installieren, um auf Video zuzugreifen. Eine Lösung für dieses Problem bietet der neue Standard HTML5. Es unterstützt jedoch nicht vollständig die Barrierefreiheitsanforderungen der W3C-Standards, einschließlich WCAG und Interaktionsanforderungen von UAAG. Dieses Papier stellt eine Gesamtstudie dieses neuen Standards in Bezug auf die Barrierefreiheitsanforderungen für die Player sowie einen barrierefreien HTML5 Media Player vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23768-3_76 2b8a6d3b8f646e5aafcf8117aa800a79;de;;;7.3.;;;Differenzierte Dienste auf Anwendungsebene für Webserver Das aktuelle World Wide Web-Dienstmodell behandelt alle Anfragen gleich, sowohl während der Verarbeitung durch Server als auch während der Übertragung über das Netzwerk. Für einige Anwendungen, wie beispielsweise Web-Vorabruf oder Schemata mit mehreren Prioritäten, sind verschiedene Dienstniveaus wünschenswert. Dieses Papier stellt drei einfache serverseitige Mechanismen auf Anwendungsebene vor (Begrenzung der Prozesspoolgröße, Verringerung der Prozessprioritäten, Begrenzung der Übertragungsrate), um zwei verschiedene Ebenen von Webdiensten (normale und niedrige Priorität) bereitzustellen. Wir haben die Leistung dieser Mechanismen unter Kombinationen von zwei Vordergrund-Workloads (leicht und schwer) und zwei Ebenen der verfügbaren Netzwerkbandbreite (10 Mbit/s und 100 Mbit/s) bewertet. Unsere Experimente zeigen, dass selbst bei ausreichendem Hintergrundverkehr, um das Netzwerk zu sättigen, die Vordergrundleistung um höchstens 4–17% reduziert wird. Somit können unsere Mechanismen auf Benutzerebene effektiv verschiedene Serviceklassen bereitstellen, selbst wenn keine Betriebssystem- und Netzwerkunterstützung vorhanden ist.;-;-;-;https://link.springer.com/article/10.1023/A%3A1019200806549 e800183daec0595275eb2925e56d9d70;de;;;7.3.;;;Zustand und Perspektiven des russischen Informationsmarktes Wir haben den aktuellen Zustand des russischen Massenmedienmarktes hinsichtlich seines Einflusses auf den Informationsmarkt im Allgemeinen analysiert. Wir haben die Dynamik der Entwicklung des russischen Verlagsgeschäfts gezeigt und den Bereich der wissenschaftlichen und technischen Informationen erläutert. Wir zitieren Daten über die Informationsversorgung der elektronischen Produkte von VINITI RAS an die Basiseinheiten der russischen Innovationswirtschaft.;-;-;-;https://link.springer.com/article/10.3103/S0147688211020134 edfee8a92a6b29cf16b328f2ef4bd496;de;;;7.3.;;;CWePS: Chinesische Web-Personensuche Namensmehrdeutigkeit ist ein großes Problem beim Abruf persönlicher Informationen, insbesondere angesichts des explosionsartigen Anstiegs von Webdaten. In dieser Demonstration präsentieren wir einen Prototyp eines chinesischen Web People Search-Systems namens CWePS. Mit einem persönlichen Namen als Abfrage sammelt CWePS die Top-Ergebnisse der vorhandenen Suchmaschinen und gruppiert diese zurückgegebenen Seiten in mehrere Cluster. Idealerweise beziehen sich die Webseiten im selben Cluster auf denselben Namensgeber. Insbesondere schlagen wir eine mehrstufige Strategie vor, um mit der Begriffsklärung chinesischer Personennamen im Web umzugehen und einige prominente Schlüsselsätze zu extrahieren, um jeden Namensvetter zu beschreiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38562-9_81 fb7b284adc54ed535fa4e4f9ce078ae8;de;;;7.3.;;;Das Costa Rica GLOBE (Global Learning and Observations to Benefit the Environment) Projekt als Learning Science Environment GLOBE ist ein globales Bildungsprogramm für Grund- und Oberschulstufen, dessen Hauptzweck in Costa Rica darin besteht, wissenschaftliches Denken und Interesse für Naturwissenschaften bei Gymnasiasten durch hydrologische Forschungsprojekte zu entwickeln, die es ihnen ermöglichen, Wissenschaft mit Umweltfragen in ihren Gemeinden in Verbindung zu bringen. Jugendliche zwischen 12 und 17 Jahren aus öffentlichen Schulen nehmen außerhalb ihres regulären Schulplans an Wissenschaftsclubs teil. Es wurde eine Vergleichsstudie zwischen verschiedenen Gruppen durchgeführt, um die Anwendbarkeit von GLOBE als wissenschaftliche Lernatmosphäre und die Motivation und das Interesse, die es bei den Schülern für die Wissenschaft erzeugt, zu bewerten. Als Instrumente zur Messung solcher Indikatoren wurden international angewandte Skalen verwendet, die an den costaricanischen Kontext angepasst wurden. Die Ergebnisse belegen statistisch signifikant, dass die Schüler die GLOBE-Atmosphäre im Vergleich zum traditionellen naturwissenschaftlichen Unterricht als eine bereicherte Umgebung für das naturwissenschaftliche Lernen wahrnehmen. Darüber hinaus fühlen sich die Studierenden selbstbewusster, motivierter und interessierter an Naturwissenschaften als ihre Kommilitonen, die nicht am Projekt teilnehmen. In letzterer Hinsicht waren die Ergebnisse jedoch nicht statistisch signifikant.;-;-;-;https://link.springer.com/article/10.1007/s10956-015-9547-7 1b4f28fc1aadb21ea95c87475c3d9c14;de;;;7.3.;;;Erlernen digitaler bargeldloser Anwendungen mit der Konsolidierung von Authentizität, Vertraulichkeit und Integrität anhand von Sequenzdiagrammen Die jüngsten Anstiege bei bargeldlosen Transaktionen, Angriffen und Eindringlingen spiegeln Schwachstellen in Computernetzwerken wider. Innovative Methoden und Tools können dazu beitragen, die Abwehrkräfte zu stärken, die Ausbreitung von Angriffen zu verhindern, solche Angriffe zu erkennen und darauf zu reagieren. Wir haben mit Methoden experimentiert, um wichtige Konzepte im Zusammenhang mit elektronischen bargeldlosen Transaktionen einzuführen und die Studienpläne und Forschungserfahrungen für Studenten der Informatik und der Wirtschaftsinformatik zu verbessern. Um dieses Ziel zu erreichen, werden unseren Studierenden Sequenzdiagramme vorgestellt, die den zeitlichen Verlauf von Ereignissen darstellen. Dieses Papier beschreibt ein Lernmodul, das entwickelt wurde, um den Schülern zu helfen, die Integration von Vertraulichkeit, Integrität und Authentifizierung in die Modellierung von Webanwendungen zu verstehen, um skrupellose Angriffe mit dem sicheren elektronischen Transaktionsprotokoll zu verhindern [1].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21153-9_23 adcb72c892751a6ad383d31751319cc0;de;;;7.3.;;;Taxonomie wissenschaftlich orientierter Bildungswebsites Web-based Learning (WBL), die Nutzung des World Wide Web als Lernarena, hat die Fantasie und das Interesse von Wissenschaftspädagogen weltweit geweckt. Obwohl viele Pädagogen an die beispiellosen Möglichkeiten und das Potenzial des Internets zur Verbesserung der Bildung glauben, sind andere von seiner etwas chaotischen und unstrukturierten Natur eingeschüchtert. Um unser Verständnis von WBL zu verbessern, ist es wichtig, die Hauptmerkmale des Webs als Bildungsmedium zu kategorisieren: seine Lehr- und pädagogischen Mittel zu identifizieren, die Kommunikationstechnologien und ihre Auswirkungen zu erläutern und Kriterien zur Bewertung des Inhaltsniveaus zu definieren. In Anlehnung an Nachmias, Mioduser, Oren und Lahav (1999) bietet diese Arbeit ein Klassifikationsschema, mit dem wissenschaftlich orientierte Bildungswebsites bewertet und verglichen werden können. Die Kriterien sind in fünf Dimensionen geordnet. Diese Dimensionen sind die (1) beschreibende Dimension (z. B. Zielgruppe, Website-Entwickler, Sprache), (2) pädagogische Dimension (z. B. Unterrichtsmodell, Unterrichtsmittel, kognitive Anforderungen), (3) repräsentative Dimension (z Mittel, Navigationswerkzeuge), (4) Kommunikationsdimension (z. B. Linkkonfiguration, Fernlernmodi) und (5) wissenschaftliche Inhaltsdimension (z. B. Inhaltsebene, Visualisierungsmittel, historischer Hintergrund). Basierend auf diesen Kriterien präsentieren wir ein Beispiel für die Standortbewertung im Bereich der Atomstruktur. Schließlich diskutieren wir das in dieser Taxonomie eingebettete Potenzial, den Website-Entwickler zu unterstützen, dem Naturwissenschaftslehrer ein Werkzeug zur achtsamen Auswahl und Bewertung von wissenschaftlichen Lehrseiten zur Verfügung zu stellen und dem Forscher einen konzeptionellen Rahmen für die Formulierung und Untersuchung relevanter Forschungsfragen zu bieten.;-;-;-;https://link.springer.com/article/10.1023/A%3A1016624811912 d0a9d0440d7ee4d1873aef47cedf93e5;de;;;7.3.;;;SNPS: Eine OSGi-basierte Middleware für drahtlose Sensornetzwerke Wir erleben einen weit verbreiteten Einsatz von Sensoren und Sensornetzwerken in allen Anwendungsbereichen. Diese Sensoren produzieren riesige Mengen an Rohdaten, die auf zuverlässige und skalierbare Weise strukturiert, gespeichert, analysiert, korreliert und ausgewertet werden müssen. Einige Anwendungsumgebungen fügen auch Echtzeitanforderungen hinzu, die die Verwaltung noch schwieriger machen. Die Größe der produzierten Daten und die hohe Geschwindigkeit, mit der Daten produziert werden, legen nahe, dass wir neue Lösungen brauchen, die Werkzeuge für das Datenmanagement und Dienste kombinieren, die in der Lage sind, Daten bereits während der Produktion zeitnah zu strukturieren, zu aggregieren und zu minen. In diesem Beitrag schlagen wir eine Middleware vor, die auf physischen Sensoren und Sensornetzwerken eingesetzt werden soll, Sensoren von ihren proprietären Schnittstellen abstrahieren und sie als Service für Drittanbieteranwendungen zur sofortigen und universellen Verwendung anbieten kann. Die Middleware bietet auch ein Werkzeug zur Ausarbeitung von Echtzeitmessungen, die von Sensoren erzeugt werden. Ein Prototyp der Middleware wurde implementiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45364-9_1 cd746ab8db67f3e8b4f7e60e6af8453f;de;;;7.3.;;;Kontextbewusstsein in mobilen Computerumgebungen In diesem Artikel berichten wir über Softwarearchitekturen für Kontextbewusstsein in mobilen Computerumgebungen, sensorzentrierten Systemen und diskutieren Fragen der Kontextmodellierung. Das Definieren einer Architektur zum Unterstützen kontextbewusster Anwendungen für mobile Geräte impliziert explizit eine skalierbare Beschreibung, wie Kontextinformationen dargestellt werden und welche Abstraktionsmodelle solche Informationen verarbeiten können. Die Verwendung von Sensoren zum Abrufen von Kontextinformationen (z. B. Benutzerstandort) führt zu einem Sensornetzwerkschema, das Dienste auf Anwendungsebene bereitstellt. Operationen zum Erfassen, Zusammenstellen, Speichern und Verbreiten von Kontextinformationen auf der untersten Ebene und deren Aggregation in immer abstraktere Modelle qualifizieren die kontextsensitiven Systeme. In diesem Artikel stellen wir kontextbewusste Systeme in mobilen Computerumgebungen vor, überprüfen die grundlegenden Mechanismen, die dem Betrieb solcher Systeme zugrunde liegen, und diskutieren bemerkenswerte Arbeiten und wichtige Architekturen in diesem Bereich.;-;-;-;https://link.springer.com/article/10.1007/s11277-006-9187-6 eba90fdbffdee054ab93164284f11fcb;de;;;7.3.;;;Entwerfen von IT-Systemen für NGOs: Probleme und Richtungen Die IT-Unterstützung in Freiwilligenorganisationen ist ein interessantes aufstrebendes Forschungsgebiet. Neuere Literatur hat gezeigt, dass sich viele NGOs in ihrem organisatorischen Umfeld noch in einem frühen Stadium der IT-Einführung befinden. In diesem Papier analysieren wir Typen und Organisationsstrukturen von Freiwilligenorganisationen, um die Faktoren herauszufinden, die die IT-Unterstützung in diesen Organisationen von anderen Organisationen unterscheiden. Das Papier gibt einen Überblick über den Stand der Technik und diskutiert wichtige Fragen, die es wert sind, untersucht zu werden, um die IT-Unterstützung in Freiwilligenorganisationen zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87783-7_71 d8fac2761a84f40a64f3fa40e2a77526;de;;;7.3.;;;Effizientes Web-Browsing mit perfekter Anonymität mit Seiten-Prefetching Anonymes Surfen im Internet ist aus Datenschutzgründen ein heißes Thema mit vielen potenziellen Anwendungen. Die derzeit vorherrschende Strategie, um Anonymität zu erreichen, ist das Auffüllen von Paketen mit Dummy-Paketen als Deckverkehr. Dieses Verfahren führt jedoch zusätzliche Bandbreitenkosten und zusätzliche Verzögerungen ein. Daher ist es für anonyme Webbrowser-Anwendungen nicht praktikabel. Um dieses Problem zu lösen, schlagen wir vor, die vorhergesagten Webseiten, auf die Benutzer zugreifen werden, als Deckverkehr zu verwenden und nicht als Dummy-Pakete. Darüber hinaus haben wir den Anonymitätslevel als Metrik zur Messung des Anonymitätsgrades definiert, ein mathematisches Modell für Anonymitätssysteme etabliert und das anonyme Kommunikationsproblem in ein Optimierungsproblem transformiert. Als Ergebnis können Benutzer Kompromisse zwischen Anonymität und Kosten finden. Mit dem vorgeschlagenen Modell können wir unseren Vorschlag und die bisherigen Schemata theoretisch beschreiben und vergleichen. Die Vorversuche am Realdatensatz zeigten das enorme Potenzial der vorgeschlagenen Strategie hinsichtlich der Ressourceneinsparung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13119-6_1 0eeee0febc0aac42140d48799a9968ab;de;;;7.3.;;;Glaubwürdigkeit der Website: Warum glauben die Leute, was sie glauben? Diese Studie untersucht die Feststellungen von Universitätsstudenten hinsichtlich der Glaubwürdigkeit von Informationen auf Websites, das Vertrauen in ihre Feststellungen und die Wahrnehmung der Interessen der Website-Autoren. In Studie 1 wählten Studenten der Informatik und des Bildungswesens auf Universitätsebene Websites aus, die als glaubwürdig eingestuft wurden, und Websites, die falsche Darstellungen veranschaulichten. Die Kategorisierung der Glaubwürdigkeitsbestimmungen von Websites zeigte, dass die am häufigsten angegebenen Gründe für eine hohe Glaubwürdigkeit Informationsfokus oder -relevanz, Bildungsfokus und Namenserkennung umfassten. Gründe dafür, dass der Inhalt einer Website falsch ist, sind unter anderem fehlende Bestätigung mit anderen Informationen, Informationsfokus und Voreingenommenheit. Interessenbindungen im Zusammenhang mit kommerziellen Websites wurden mit Misstrauen betrachtet, Interessenbindungen von Bildungswebsites jedoch nicht. In Studie 2 wurden die Glaubwürdigkeitsfeststellungen von Hochschulstudenten in Informatik-Studiengängen für 3 angebotene Websites untersucht, die sich mit demselben Informatik-Thema befassen. Zu den Gründen für die Feststellung der Ungenauigkeit der Website gehörten eigenes Fachwissen, die Bestätigung von Informationen, das Informationsdesign und Voreingenommenheit. Wie in Studie 1 wurden kommerzielle Interessen im Gegensatz zu Bildungsinteressen negativ bewertet. Instruktionale Implikationen und Vorschläge für weitere Forschung werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s11251-008-9080-7 d247b5082ef460cb1318703debe6af5e;de;;;7.3.;;;Verwenden von SIP-Nebenstellen für die Signalisierung im Stream-Service-System Dieses Papier beschreibt einige Aspekte der Signalisierung in einem zugangsnetzunabhängigen Dienststeuerungssystem, das beispielsweise verwendet werden kann, um strombasierte personalisierte Dienste für eine Anzahl von Endgeräten, drahtgebunden oder drahtlos, mit unterschiedlichen Fähigkeiten zu bestellen. Zu den Funktionen des Steuersystems gehören die Abwicklung von Fähigkeitsverhandlungen und die Dienstinitiierung zwischen dem Client und dem Medienserversystem. Es wird ein Überblick über das System gegeben und besonderes Augenmerk wird auf die Verwendung von SIP und SIP-Nebenstellen mit XML-Inhalten zur Verwaltung der Parameterverhandlungen gelegt. Dem Dienststeuersystem wird auch eine Ressourcenreservierung ermöglicht, indem der Bandbreitenmakler des Netzwerkdienstanbieters verwendet wird.;-;-;-;https://link.springer.com/chapter/10.1007/0-306-47001-2_15 27a1b636cc2eb2f5ee6fd7da115d090f;de;;;7.3.;;;Ein Text-Mining-basierter Ansatz für die Klassifizierung von Webdiensten Webdienste haben sich zu einer vielseitigen und kostengünstigen Lösung für den Austausch unterschiedlicher Daten zwischen verteilten Anwendungen entwickelt. Sie sind zu einem grundlegenden Bestandteil der serviceorientierten Architektur geworden. Eine der größten Herausforderungen in der serviceorientierten Architektur besteht jedoch darin, herauszufinden, was ein Service tut und wie seine Fähigkeiten genutzt werden können, ohne direkt mit dem Serviceanbieter zu verhandeln. Das Erkennen und Durchsuchen von Webdiensten, die in der Universal Description, Discovery and Integration Registry oder Web Services-Inspection-Dokumenten registriert sind, erfordert genaue Suchkriterien wie Dienstkategorie, Dienstname und Dienst-URL. Das Web Service Description Language (WSDL)-Dokument ermöglicht es Webservice-Clients, Operationen, Kommunikationsprotokolle und das korrekte Nachrichtenformat des Dienstes zu erlernen. Die manuelle Analyse von WSDL-Dokumenten ist der beste, aber auch teuerste Ansatz. Dieses Papier schlägt einen Text-Mining-Ansatz vor, um (1) Dienste automatisch bestimmten Domänen zuzuordnen und (2) Schlüsselkonzepte in der Textdokumentation von Diensten zu identifizieren. Dieser Ansatz wird an einem Datensatz von 600 Webdiensten validiert, die in 8 Felder kategorisiert sind, was eine Genauigkeit von bis zu 90 % ergibt. Unser Klassifizierungsansatz kann verwendet werden, um Benutzeranfragen auf einen verfeinerten Satz von Webdienstkategorien zu konzentrieren.;-;-;-;https://link.springer.com/article/10.1007/s10257-014-0252-5 852fe0a811f6d79a042879ac5ff7a6fb;de;;;7.3.;;;Algorithmische Aspekte von Web Intelligent Systems Wir diskutieren die algorithmischen Aspekte eines intelligenten Web-Systems, die verschiedene Herausforderungen demonstrieren, denen man bei der Entwicklung solcher Systeme im Web begegnet. Das spezielle System ist ein Online-Spaßportal, das mehrere Schlüsselideen aufgreift, die vom Website-Design über die Benutzerführung bis hin zur erweiterten Benutzereingabeanalyse reichen, um;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-05320-1_15 a755563d11ef60e5031b68139ab73bb3;de;;;7.3.;;;Lernen in mehreren Instanzen mit genetischer Programmierung für Web-Mining Das Ziel dieses Beitrags ist es, ein neues Werkzeug des multiplen Instanzenlernens vorzustellen, das unter Verwendung eines grammatikbasierten genetischen Programmieralgorithmus (GGP) entwickelt wurde. Wir untersuchen seine Anwendung im Web-Mining-Framework, um für die Benutzer interessante Webseiten zu identifizieren. Dieses neue Tool namens GGP-MI-Algorithmus wird evaluiert und mit anderen verfügbaren Algorithmen verglichen, die einen bekannten nachbarschaftsbasierten Algorithmus (k-nächster Nachbar-Algorithmus) auf das Lernen mehrerer Instanzen erweitern. Computerexperimente zeigen, dass der GGP-MI-Algorithmus wettbewerbsfähige Ergebnisse erzielt, Probleme anderer Algorithmen wie Sparsity und Skalierbarkeit löst und Verständlichkeit und Klarheit in den Wissensfindungsprozess bringt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73007-1_111 cf11b471351ea5aaa2fac8c1eab741c2;de;;;7.3.;;;Anwendungen des Internets der Dinge in der Anlagenlandwirtschaft Es ist ein Trend, Informationstechnologie zu nutzen, um die Entwicklung der modernen Landwirtschaft voranzutreiben. Das IntelliSense Internet of Things wird eine wichtige Unterstützung für eine intensive, ertragreiche, qualitativ hochwertige, effiziente und ökologisch sichere Landwirtschaft sein. In diesem Beitrag geben wir Lösungen und Schlüsseltechnologien der Anlagenlandwirtschaft auf Basis der Internet-of-Things-Technologie. Auf dieser Basis werden Gewächshäuser für den Pflanzenanbau konzipiert und realisiert. Die Praxis hat bewiesen, dass das Internet der Dinge die Entwicklung der Produktivität der modernen Landwirtschaft ist. Sie hat eine wichtige Bedeutung für die Anhebung des landwirtschaftlichen Entwicklungsniveaus, die Verbesserung der Gesamteffizienz der Landwirtschaft und die Förderung der Modernisierung der modernen landwirtschaftlichen Transformation.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36124-1_36 4753b514fa3bba9cc608c7e3944607b6;de;;;7.3.;;;Einfach lehren und lernen Wir präsentieren eine Architektur eines Teleteaching-Systems, das direkte Interaktionen zwischen allen Beteiligten, d. h. Dozenten und Studierenden sowie unter Studierenden, unterstützt. Um eine Art „Virtual Classroom“-Atmosphäre zu schaffen, werden hochwertige Audio- und Videostreams sowie Lehrmaterial an die Teilnehmer verteilt. Für die Implementierung hochwertiger Audio- und Videokanäle basiert das System auf aufkommenden Hochgeschwindigkeitsnetzen wie Kabelfernsehnetzen und jeder Art von digitalem Teilnehmeranschluss. Eine neuartige adaptive Middleware kümmert sich um System- und Netzwerkressourcen, sodass jeder teilnehmende Benutzer eine Teleteaching-Sitzung in bestmöglicher Qualität erhält. Ein erster Prototyp wird diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45492-6_54 8b8172fd80914edd7ad24b72a4fec955;de;;;7.3.;;;Clustering kleinerer Sammlungen von Kurztexten Die Notwendigkeit, kleine Textkorpora, die aus einigen hundert kurzen Texten bestehen, zu clustern, steigt in verschiedenen Anwendungen, z. B. beim Clustern von am häufigsten abgerufenen Dokumenten basierend auf ihren Snippets. Diese Clustering-Aufgabe ist aufgrund der Vokabular-Mismatch zwischen kurzen Texten und der unzureichenden korpusbasierten Statistik (z. Wir begegnen dieser Clustering-Herausforderung mit einem Framework, das eine Reihe externer Wissensressourcen nutzt, die Informationen über Begriffsbeziehungen bereitstellen. Insbesondere verwenden wir Informationen, die von den Ressourcen induziert werden, um die Ähnlichkeit zwischen Begriffen zu schätzen und Begriffscluster zu erstellen. Wir nutzen die Ressourcen auch, um das im Korpus verwendete Vokabular zu erweitern und so die Term-Clustering zu verbessern. Anschließend projizieren wir die Texte im Korpus auf die Termcluster, um die Texte zu clustern. Wir evaluieren verschiedene Instanzen des vorgeschlagenen Frameworks, indem wir die verwendete Begriffs-Clustering-Methode, den Ansatz der Textprojektion auf die Begriffs-Cluster und die Art und Weise der Anwendung externer Wissensressourcen variieren. Umfangreiche empirische Evaluationen zeigen die Vorzüge unseres Ansatzes in Bezug auf die Anwendung von Clustering-Algorithmen direkt auf das Textkorpus und den Einsatz modernster Co-Clustering- und Themenmodellierungsmethoden.;-;-;-;https://link.springer.com/article/10.1007/s10791-017-9324-8 9e5ab4bf188fa1e87eb8a4ee0212457a;de;;;7.3.;;;ASP: Die Fourth-Party-Gegenstücke in der sich entwickelnden Logistikbranche Der zunehmende Einsatz von IT im Logistikbetrieb ist einer der Faktoren für die wachsende Nachfrage nach Logistikdienstleistungen von Drittanbietern (3PL). In diesem Zusammenhang sind neue organisatorische Schemata wie die Netzstruktur entstanden, die zu größerer Flexibilität und Anpassungsfähigkeit an externe Nachfrageschwankungen führen. Insbesondere viele 3PL-Anbieter teilen Technologie und Dienste mit Kunden in einer ASP-Umgebung. Das Papier untersucht die Entwicklung und Trends von 3PLs in Brasilien und im Ausland. Abgesehen von großen internationalen Organisationen fehlen den brasilianischen 3PL-Anbietern die finanziellen Mittel, um fortschrittliche angewandte Software und IT zu kaufen. Als Konsequenz hat ASP in diesem Zusammenhang eine gute Vermarktungsmöglichkeit. Wir diskutieren weiter das Aufkommen von kombinierten ASPs und Viertanbieter-Logistikanbietern (4PL).;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35585-6_45 544f0522790070148b6d91214f565b21;de;;;7.3.;;;Peer-to-Peer-Anwendungen über die gemeinsame Nutzung von Dateien hinaus: Overlay-Netzwerkanforderungen und -lösungen In diesem Papier analysieren wir die funktionalen und nicht-funktionalen Anforderungen von Peer-to-Peer (P2P)-Systemen, die über die Bedürfnisse der gut erforschten P2P-Dateifreigabesysteme hinausgehen. Vier grundlegende Unterkategorien werden vorgeschlagen, um die nicht-funktionalen Anforderungen zu klassifizieren: Anpassungsfähigkeit, Effizienz, Validität und Vertrauen. Ebenso werden die funktionalen Anforderungen in benutzergetriggerte und systemgetriggerte Funktionen unterteilt. Anschließend präsentieren und diskutieren wir mehrere bestehende Lösungen mit unterschiedlichen Designansätzen, um ihre Eignung für verschiedene Arten von P2P-Anwendungen aufzuzeigen. Insbesondere erfassen wir die Eigenschaften von strukturierten und unstrukturierten Overlay-Netzwerken. Für die strukturierten Lösungen untersuchen wir verteilte Hash-Tabellen und lexikographische graphbasierte Lösungen. Für die unstrukturierten Ansätze diskutieren wir sowohl hierarchische als auch nicht-hierarchische Overlay-Netzwerke und konzentrieren uns auf Small-World- und Power-Law-Netzwerke. Schließlich bieten wir eine Reihe anspruchsvoller Anwendungsklassen wie Voice over IP und Massive Multiplayer Online Games, die von der P2P-Technologie profitieren können.;-;-;-;https://link.springer.com/article/10.1007/s00502-006-0345-z 694d63a603fed5138145355ef5ba4336;de;;;7.3.;;;Kapazitätsplanung für vertikale Suchmaschinen: Ein Ansatz basierend auf farbigen Petrinetzen Dieses Papier schlägt ein Colored Petri Net-Modell vor, das das Verhalten von vertikalen Suchmaschinen erfasst. In solchen Systemen durchläuft eine von einem Benutzer übermittelte Anfrage verschiedene Stufen und kann von drei verschiedenen Arten von Knoten bearbeitet werden. Das vorgeschlagene Modell ist modular aufgebaut, das die Aufnahme alternativer/zusätzlicher Suchmaschinenkomponenten ermöglicht. Eine Leistungsbewertungsstudie wird vorgestellt, um die Verwendung des Modells zu veranschaulichen und zeigt, dass das vorgeschlagene Modell für die schnelle Untersuchung verschiedener Szenarien und die Bestimmung machbarer Suchmaschinenkonfigurationen geeignet ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31131-4_16 a287d2e2f06e0d450dcefe61459b4fec;de;;;7.3.;;;Rahmen eines kollaborationsbasierten Engineering-Service-Systems für die Formenindustrie Derzeit entwickelt sich das Umfeld der Fertigungsindustrie zu einer Distribution, Spezialisierung und Zusammenarbeit. Insbesondere der Formenbau, die Basis der koreanischen Fertigungsindustrie, erfährt diese Veränderungen und die Anforderungen der Kunden an den Formenbau werden immer vielfältiger. Um dies zu bewältigen, bemüht sich das Formenunternehmen um die Erfüllung der Anforderungen in der Auftragsabwicklung, Formen- und Teilekonstruktion, Formenbearbeitung und Voreinspritzung, die einzigartige Aufgaben von Formenunternehmen sind. Aber eine Menge Minderwertigkeit tritt durch eine schlechte Produktionsumgebung auf. Um diese Minderwertigkeit zu beheben, sind die Ingenieurleistungen wie CAE-Analyse und Inspektion unbedingt erforderlich. Die Funktion des Ingenieurdienstes bietet großen Unternehmen innerhalb des Formenbaus neue Anforderungen und Regeln. In diesem Papier wird der Rahmen des E-Engineering-Dienstleistungssystems mit dem E-Business und dem E-Commerce-Formular implementiert. Außerdem werden Funktionen im Rahmen des E-Engineering-Dienstsystems unter Verwendung von Agentenmodulen implementiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74484-9_4 388bf40bcc041ed88c74b2e59fb6743a;de;;;7.3.;;;Online-Web-Video-Themenerkennung und -verfolgung mit teilüberwachtem Lernen Mit dem rasanten Wachstum der Webdaten ist eine große Menge an Webvideos online verfügbar. Wie sie jedoch organisiert werden können, um die Benutzererfahrung und die staatliche Aufsicht zu erleichtern, bleibt ein Problem, das noch ernsthaft untersucht werden muss. Themenerkennung und -verfolgung, die seit Jahrzehnten ein heißes Forschungsthema sind, könnten Webvideos entsprechend ihrem semantischen Inhalt in verschiedene Themen einteilen. Wie man online Themen entdeckt und sie aus Webvideos und Bildern verfolgt, wurde jedoch noch nicht vollständig diskutiert. In diesem Papier formulieren wir Themenerkennung und -verfolgung als ein Online-Tracking-, -Erkennungs- und -Lernproblem. Erstens erhalten wir durch das Lernen aus historischen Daten, einschließlich gekennzeichneter Daten und vieler nicht gekennzeichneter Daten, unter Verwendung einer halbüberwachten Multi-Class-Multi-Feature-Methode einen Topic-Tracker, der auch neue Themen aus den neuen Stream-Daten entdecken könnte. Zweitens, wenn neue Daten eintreffen, wird ein Online-Aktualisierungsverfahren entwickelt, um den Thementracker an die Entwicklung der Stream-Daten anzupassen. Wir führen Experimente mit öffentlichen Datensätzen durch, um die Leistung der vorgeschlagenen Methode zu bewerten, und die Ergebnisse zeigen ihre Wirksamkeit bei der Themenerkennung und -verfolgung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03731-8_70 62cc241e2923c591e18b198c7b56df50;de;;;7.3.;;;Unterstützung der End-to-End-Sicherheit über Proxys hinweg mit Mehrkanal-SSL Secure Socket Layer (SSL) weist funktionale Einschränkungen auf, die End-to-End-Sicherheit in Gegenwart nicht vertrauenswürdiger zwischengeschalteter Anwendungsproxys verhindern, die von Clients zur Kommunikation mit Servern verwendet werden. Dieses Dokument stellt Multiple-Channel SSL (MC-SSL), eine Erweiterung von SSL, vor und beschreibt und analysiert das Design des MC-SSL-Proxy-Kanalprotokolls, das die Unterstützung der End-to-End-Sicherheit der Client-Server-Kommunikation in der Präsenz ermöglicht von Anwendungs-Proxys. MC-SSL ist in der Lage, mehrere virtuelle Kanäle mit unterschiedlichen Sicherheitsmerkmalen, einschließlich Anwendungsproxy und Verschlüsselungssammlung, sicher auszuhandeln.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-8143-X_21 897896e35a885476506c22db10124b26;de;;;7.3.;;;Verwenden von Sesam zum Sichern von webbasierten Anwendungen in einem Intranet Der Einsatz von Web-Technologie in organisatorischen Intranets nimmt zu. Die Kombination aus einer standardisierten Schnittstelle und den Sicherheitsfunktionen von TLS hat die Webtechnologie sehr attraktiv gemacht. Die TLS-Technologie weist jedoch einige Einschränkungen auf, insbesondere in Bezug auf das Fehlen von Zugriffskontrollfunktionen. Dieses Papier konzentriert sich auf Alternativen zur Bereitstellung verbesserter Sicherheitsdienste für webbasierte Anwendungen. Es wird gezeigt, dass die SESAME-Sicherheitsarchitektur alle TLS-Sicherheitsdienste bereitstellt, zusätzlich zu anderen Diensten wie dem Zugriffskontrolldienst. Auch weil SESAME die verbindungsbasierte GSS-API verwendet, die das gleiche Paradigma wie TLS ist, erweist es sich als geeigneter Ersatz. Da Webserver und Webbrowser leider keine Hooks zum Ersetzen der TLS-Sicherheitstechnologie bereitstellen, ist SESAME nicht einfach zu verwenden. Daher werden zwei Alternativen in Betracht gezogen, die diese Einschränkung überwinden: ein neuer Vorschlag der IETF, TLS auf die Übertragung von Attributzertifikaten auszuweiten, und eine von den Autoren entwickelte Hybridlösung.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35568-9_21 c7c4bd604ae13fd571fa0209dc6e0746;de;;;7.3.;;;Untersuchung der Abstimmung zwischen Web- und Social-Media-Aufwänden und -Effektivität: Der Fall von Science Centern Die Einführung von Internet-Technologien hat zu wichtigen Veränderungen in der Art und Weise geführt, wie Unternehmen ihre Zielgruppen erreichen und mit ihnen interagieren. Der Kontext von Museen und Ausstellungen erlebt auch eine Konsolidierung der Nutzung des Web 2.0 zur Verbreitung von Informationen und zur Unterstützung der Interaktionen zur Ergänzung, Verbesserung und Ergänzung der Besuchererfahrungen. Trotz der Verbreitung von Online-Beweis über die Bemühungen dieser Organisationen, eine starke Webpräsenz und eine lebendige Existenz in den sozialen Medien aufzubauen, gibt es weit weniger Wissen über die Wirksamkeit solcher Investitionen aus der Perspektive der Benutzer. Der Zweck dieser Studie ist es, einen Rahmen vorzuschlagen, der die Bewertung und Diskussion über die Ausrichtung zwischen der Online-Präsenz einer Organisation und ihrer Wirksamkeit gegenüber ihrer Zielgruppe und ihrem Leistungsversprechen ermöglicht. Die Studie baut auf der Analyse der Web- und Social Media-Präsenz von Wissenschaftszentren auf und befasst sich mit dem gesamten Netzwerk von Zentren in Portugal. Es bietet einen Überblick über verschiedene Arten von Online-Bemühungen und Ressourcenzuweisungen und diskutiert gleichzeitig in Bezug auf aktuelle Ergebnisse über seine Bedeutung für das Bewusstsein der Nutzer für die Zentren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00713-3_22 9aeaf7f0dd9b9b56eb40e90a31269b8b;de;;;7.3.;;;Ein dynamisches Anforderungsplanungsmodell basierend auf der Vorhersage in einem Multi-Core-Webserver Herkömmliche Algorithmen zur Anforderungsplanung in Multi-Core-Webservern konnten die Leistung von Multi-Core-CPUs nicht vollständig ausschöpfen. Um dieses Problem zu lösen, haben wir im vorherigen Artikel den Request-Scheduling-Algorithmus vorgeschlagen. Aber der Algorithmus konnte den Lastausgleich zwischen den Kernen über einen langen Zeitraum nicht aufrechterhalten. In dieser Arbeit haben wir ein neues Modell vorgeschlagen, um dieses Problem zu lösen. Simulationsexperimente wurden durchgeführt, um das neue Modell zu bewerten. Die Versuchsergebnisse zeigen, dass das vorgeschlagene Modell die Lastverteilung zwischen den Prozessorkernen über einen langen Zeitraum besser aufrechterhalten kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11167-4_30 8270da8cea23d63e258f99dc07375551;de;;;7.3.;;;Orientl: Eine Strategie der Web-Informationsintegration Wir schlagen den OrientI-Ansatz für den effektiven Aufbau flexibler Anwendungen zur Informationsintegration vor. Das System bietet eine vollständig visuelle Entwicklungsumgebung zum Erstellen von Anwendungen. Mit dem OrientI-System muss sich ein Benutzer nur auf die Zusammensetzung der Komponenten für den Aufbau des InterPlan konzentrieren, und die detaillierten zugrunde liegenden Operationen und Datenströme sind für den Benutzer unsichtbar. Ein prototypisches System wurde implementiert und hat die Bequemlichkeit des OrientI-Ansatzes teilweise bewiesen.;-;-;-;https://link.springer.com/article/10.1007/BF02831659 804a350371f98e5d209c3a5ab42acdcc;de;;;7.3.;;;Den Kontext von WWW-Seiten entdecken, um die Effektivität lokaler Suchmaschinen zu verbessern Diese Arbeit schlägt ein Verfahren zum Suchen nach Informationen in Hypertextsystemen vor, die WWW-Sites repräsentieren. Die Methode basiert auf der Erstellung eines 2-stufigen Index. Die erste Ebene des Index bezieht sich auf Informationen, die sich nur innerhalb der Knoten befinden. Die zweite Ebene des Index bezieht sich auf Informationen, die nicht auf einen Knoten beschränkt sind, sondern eine Menge zusammengehöriger Knoten umfassen. Die zweite Ebene basiert auf der Kontexthierarchie, die eine hierarchische Organisation der Hauptthemen darstellt, die von den auf der Site enthaltenen Informationen behandelt werden, und den Seiten einen Kontextbegriff gibt. Dieser Begriff erlaubt einen neuen Operator namens;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-1834-5_48 769b75cc8778053242cf54dc9a3fc192;de;;;7.3.;;;Agentenbasierte Wissenslogistik Eine im Rahmen der Wissenslogistik durchgeführte Recherche bildet die Basis des Kapitels. Als Ergebnis der Forschung wurde ein Ansatz entwickelt, der das Problem der Wissenslogistik adressiert. Der Ansatz betrachtet das Problem als Problem der Konfiguration eines Wissensquellennetzwerks, von dem angenommen wird, dass es aus verteilten heterogenen Wissensquellen besteht. Eine Umsetzung des Ansatzes wurde durch die Umsetzung im System „KSNet“ umgesetzt. Verteilung und Heterogenität der Wissensquellen bestimmen einen verteilten und skalierbaren Charakter des Problems der Netzwerkkonfiguration. Diese Art des Problems führt dazu, dass das System eine Architektur mit mehreren Agenten aufweist. Dieses Kapitel präsentiert einen Prototyp der entwickelten Agenten-Community-Implementierung im System „KSNet“ und ein Constraint-basiertes Protokoll, das für die Aushandlung der Agenten entwickelt wurde. Eine Anwendung der entwickelten Agentengemeinschaft auf die koalitionsbasierte Betriebsunterstützung und das Protokoll werden anhand von Fallstudien einer mobilen Krankenhauskonfiguration als Aufgabe der Versorgungslogistik und der automobilen Versorgungsnetzkonfiguration veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-44516-6_3 b67348194ad84b6bb33be916bb9623c2;de;;;7.3.;;;Informationen zu Privatbibliotheken im Bestand der Staatlichen Historischen Museumsbibliothek vor 1917 (Rezension) Dieser Beitrag präsentiert Daten, die auf russischsprachigen Websites zu Privatbibliotheken gefunden wurden, die in der Zeit vor 1917 in den Bestand der Historischen Museumsbibliothek aufgenommen wurden. Diese verallgemeinerten Informationen über Bibliotheken und ihre Gründer sind das Ergebnis der Verarbeitung der auf den Websites gefundenen Daten. Diese werden auf ihre Qualität hin bewertet, Mängel und Fehler werden erkannt. Auf der Grundlage des Papiers von G. Galutva wird die Ursache für den Fehler von U.G. Ivask über den Gründer von A.N. Die Bibliothek von Golitsyn wird erklärt. Das Papier enthält Websites, die Bibliotheken von A. D. Chertkov und seinem Schwiegersohn A. N. gewidmet sind. Golitsyn, A. I. Baryatinskii, I. M. Viyelgorskii, I. A. Gul’yanov, A. P. Bakhrushin, A. S. Uvarov, P. I. Shchukin, A. S. Suworin, I. A. Wachramejew, E. V. Barsov, P. V. Zubov, O. M. Bodyanskii und A. F. Smirdin. Abschließend werden die bibliographischen Beschreibungen einiger vorrevolutionärer, sowjetischer und moderner Veröffentlichungen zu diesem Thema gegeben, die auf den Websites entdeckt wurden.;-;-;-;https://link.springer.com/article/10.3103/S0147688209050086 30072bc783b068baf9e611629063ba96;de;;;7.3.;;;The Baby Networks: Nordische Positionen vor dem Internet In diesem Beitrag wird die Situation von Computernetzwerken unmittelbar vor der Einführung des Internets erörtert. In verschiedenen Ländern gab es eine Reihe von isolierten Netzwerk-„Inseln“, die unterschiedlichen Standards für technische Eigenschaften, dem sogenannten Videotex, folgten. Das Papier diskutiert die unterschiedlichen regionalen Standards, die verwendet wurden und welche Arten von Diensten zur Verfügung gestellt wurden, und fragt, welche Rolle die nordischen Länder bei dieser Entwicklung und beim Übergang zum Internet gespielt haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23315-9_31 53a4162bdcd50a896bfaa9cec976bbf0;de;;;7.3.;;;Innovatives und revolutionäres Potenzial von MOOCs Die phänomenale Entwicklung von MOOCs in den letzten Jahren hat weltweit zu einem Erdbeben im Hochschulbereich geführt. Im Wesentlichen handelt es sich weniger um eine lokalisierte Revolution, die einfach Internet-Technologien in der Bildung anwendet, oder „eine Diskussion über die Lehrreform und neue Lehrmodelle“, die in den oberflächlichen Strukturen der Universitäten stattfindet“, als eine systematische Revolution in der Bildung, die von den dominanten Genen angetrieben wird des freien, offenen Internets und eine Innovation des Organisations-/Dienstleistungsmodus der Hochschulbildung durch Nutzung der rezessiven Gene wie Big Data und Organisationsprozess-Reengineering (Guo et al.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-6586-6_3 4cded57556eb53f2873584552bddd543;de;;;7.3.;;;Anwendung von Informations- und Kommunikationstechnologien für die Ökobilanzierung Die Funktion der Ökobilanzierung besteht darin, die ökologischen Auswirkungen eines Produkts, oder Ökopunkt genannt, während des gesamten Produktlebenszyklus zu messen. In der Ökobilanzierung sind große Mengen dynamischer Daten für die Ökopunktberechnung zu erfassen. Um die Daten zu erhalten, muss die Informations- und Kommunikationstechnologie (IKT) dynamische Daten für die Berechnung von Ökopunkten sammeln und diese dann für alle Beteiligten entlang der Wertschöpfungskette von einem Betriebsmodell zum anderen zugänglich machen, z B. von der Materialgewinnung bis zur Produktherstellung und vom Lieferanten bis zum Kunden, um den Ökopunkt des Produkts zu messen. Auf Basis des Ökopunktes werden die Öko-Lastschrift und die Öko-Gutschrift erhalten, die in den verschiedenen Bereichen mit großen Nachhaltigkeitsaspekten, wie z.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-39149-2_6 6c0a93d9b23b6d66ead5c27193854368;de;;;7.3.;;;Ein Semantic Web-basiertes intelligentes IoT-Modell Anders als das Sensornetzwerk sollen sich die Geräte im intelligenten Internet der Dinge (IoT) spontan organisieren und koordinieren können, um bestimmte Aufgaben zu erledigen. Durch die Nutzung verschiedener intelligenter Technologien haben wir ein intelligentes IoT-Modell basierend auf dem Semantic Web vorgeschlagen. Das Framework besteht aus Top-Ontologie, Entity-Link-Layer, Semantic-Label-Layer, Service-Register-Center, Transaktionskonstruktions-Layer und Transaktionsausführungs-Kontrollschicht. Um die Transaktionen im intelligenten IoT automatisch aufzubauen und auszuführen, werden Entitätsfunktionen durch Semantic Web Services repräsentiert. Darüber hinaus fungiert das Framework auch als Manager während der Ausführung einer Transaktion und ermöglicht den Unternehmen eine effektive Verwaltung und Kontrolle. Die Wirksamkeit und Überlegenheit des vorgeschlagenen Modells haben wir anhand einer Fallstudie des umfassenden Rettungsdienstes bei Transportunfällen nachgewiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-05057-3_14 24df3af305b684df67aa9ccd5f8c87c6;de;;;7.3.;;;Integrierte Umgebung für das allgegenwärtige Gesundheitswesen und mobile IPv6-Netzwerke Die Entwicklung von Internet-Technologien auf Basis des IPv6-Protokolls wird die Überwachung von Menschen mit gesundheitlichen Mängeln in Echtzeit ermöglichen und die Selbstständigkeit älterer Menschen verbessern. Dieses Papier schlug ein ubiquitäres Gesundheitssystem für personalisierte Gesundheitsdienste mit Unterstützung von mobilen IPv6-Netzen vor. In diesem Papier werden insbesondere die Integration von ubiquitären Gesundheits- und drahtlosen Netzwerken und ihre funktionalen Anforderungen erörtert. Dies ermöglicht eine integrierte Umgebung, in der heterogene Geräte wie mobile Geräte und Körpersensoren kontinuierlich den Patientenstatus überwachen und aus der Ferne mit Gesundheitsservern, Ärzten und Familienmitgliedern kommunizieren können, um Gesundheitsdienstleistungen effektiv zu erbringen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17641-8_24 bc5496e177f1a2a9df1c671ebbfa4e46;de;;;7.3.;;;Die Rolle des Vertrauens bei der Priorisierung der Kanalwahl Die Rolle des Vertrauens ist ein wesentliches Element im digitalen Kanal. Während die meisten Studien untersucht haben, wie sich der Vertrauensbegriff auf das Nutzerverhalten ausgewirkt hat, und integrative Modelle des E-Government entwickelt wurden, wurde seiner kritischen Rolle als Faktor, der die Präferenz der Bürger für bestimmte Dienstleistungskanäle beeinflusst, wenig Aufmerksamkeit geschenkt. Es gibt keine systematische Untersuchung, um verschiedene Arten von Kanalwahlen zu vergleichen, indem zwischen primären öffentlichen Diensten wie Regierungsinformationen, Anwendung und Transaktion sowie E-Beteiligung unterschieden wird. Der Zweck dieser Studie besteht daher darin, zu untersuchen, wie die Rolle des Vertrauens als eine mögliche Determinante der Dienstleistungswahl in Bezug auf verschiedene Arten von staatlichen Dienstleistungen wahrgenommen werden kann. Unter Verwendung von Umfragedaten, die 2011 in Taiwan gesammelt wurden, verwendete diese Studie eine multinominale logistische Analyse, um die vorgeschlagenen Modelle zu untersuchen. Die Ergebnisse legen nahe, dass die verschiedenen Arten von Kanalwahlen durch bestimmte kritische Elemente wie politisches Vertrauen, Vertrauen in das Internet und Risikobedenken beeinflusst werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44426-9_8 6f68e8d5061ee5ba44e5486b5a94e6be;de;;;7.3.;;;Überwachung mehrerer gleichzeitiger Service-Level-Parameter mit mehrdimensionalen Bäumen Die Einführung neuer Rechenparadigmen im Internet sowie die zunehmende Größe und Komplexität von Diensten und Ressourcen erfordern die Entwicklung neuer Ansätze zur Definition und Überwachung von Service Levels. Es ist oft notwendig, mehrere gleichzeitige Service Level-Anforderungen zu verfolgen. In diesem Whitepaper stellen wir eine Service-Level-Monitoring-Strategie vor, mit der die Leistung mehrerer gleichzeitiger Ressourcen sowohl online als auch offline verfolgt werden kann. Die Daten werden mit SNMP (Simple Network Management Protocol) gesammelt. Die Strategie basiert auf dem Aufbau multidimensionaler Suchbäume.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04989-7_3 5374af518e24fd997a550a5fb3ae41f2;de;;;7.3.;;;Diskussion über den Einsatz von Computer-Informationstechnologie im Bauingenieurwesen im BIM-Zeitalter In der heutigen Zeit immer häufigerer wirtschaftlicher Aktivitäten stehen Bauprojekte vor komplexeren Herausforderungen. Bei verwandten Bauaktivitäten ist es zur Verbesserung der Bauqualität und Verbesserung des Managementniveaus notwendig, auf die Einführung moderner Wissenschaft und Technologie zu achten, den Managementrahmen zu optimieren und die Managementziele neu auszurichten. Dieser Artikel geht aus von der aktuellen Konstruktionsarbeit des Bauingenieurwesens und diskutiert die Anwendung der Computer-Informationstechnologie im Bauingenieurwesen im BIM-Zeitalter.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-74814-2_46 2ec4aa9bcc477709b856d993523c2c60;de;;;7.3.;;;Föderierte Produktsuche mit Informationsanreicherung unter Verwendung heterogener Quellen Seit das Internet Einzug in den Alltag gehalten hat, ist die Bereitstellung von Produktinformationen für den Nutzer zu einer seiner wichtigsten Aufgaben geworden. Da Informationsquellen sowohl hinsichtlich der Anbieter als auch der Struktur sehr heterogen sind, ist das Auffinden und Zusammenführen der Informationen zur Generierung einer ganzheitlichen Sicht auf ein Produkt zu einer wichtigen Herausforderung geworden. Ein vielversprechender Ansatz zur Lösung der entstandenen Probleme sind föderierte Suchtechniken, angereichert mit Konzepten der Informationsextraktion und des semantischen Webs. Wir untersuchen Möglichkeiten der föderierten Produktsuche, die heterogene Quellentypen, d. h. strukturierte und halbstrukturierte Quellen von Anbietern, Herstellern und Drittanbietern von Informationen, kombinieren. Der entwickelte Ansatz wird mit einer Ruby on Rails-Implementierung evaluiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01190-0_7 7270339f9f8eae1120f4deb99cf4f762;de;;;7.3.;;;Wort-Konzept-Cluster in einer Rechtsdokumentensammlung Bei sehr großen Dokumentensammlungen oder großen Dokumentenströmen wie Informationsressourcen im Internet ist das Auffinden relevanter Dokumente ein großes Problem bei der Informationsfilterung. Herkömmliche Volltext-Retrieval-Methoden können keine Dokumente finden, die spezialisierte Synonyme oder verwandte Konzepte für die formale Abfrage verwenden. Dies ist insbesondere bei juristischen Dokumentensammlungen ein Problem, da Anwälte normale Wörter mit speziellen Bedeutungen verwenden, die sich zwischen den juristischen Unterbereichen geringfügig unterscheiden. Wir verwenden einen neuronalen Netzwerkansatz, um Synonyme und verwandte Wortgruppen zu lernen, die ähnliche Konzepte aus einem Beispieldokumentensatz definieren. Wir zeigen, dass unsere Wortgruppen insbesondere im juristischen Bereich qualitativ nützlich sind und somit für die Informationsfilterung mit hohem Durchsatz verwendet werden können, um Dokumente zu finden, die wahrscheinlich Konzepte enthalten, die für den Informationsbedarf eines Benutzers relevant sind.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-62868-1_126 3eed5d0842731c7c00e1c98615444413;de;;;7.3.;;;Eine neuartige Webseiten-Analysemethode zur effizienten Begründung von Benutzerpräferenzen Die Informationsmenge im Web nimmt rasant zu. Empfehlungssysteme können Benutzern helfen, diese Informationen basierend auf ihren Präferenzen selektiv zu filtern. Eine Möglichkeit, Benutzerpräferenzen zu erhalten, besteht darin, Eigenschaften von Inhalten zu analysieren, auf die der Benutzer zugreift. Leider können Webseiten Elemente enthalten, die für die Benutzerinteressen irrelevant sind (z. B. Navigationsleiste, Werbung und Links). Daher sind bestehende Analyseansätze, die die TF-IDF-Methode verwenden, möglicherweise nicht geeignet. Dieses Papier schlägt ein neuartiges System zur Analyse von Benutzerpräferenzen vor, das Elemente eliminiert, die wiederholt auf Webseiten erscheinen. Es extrahiert Benutzer-Interessen-Keywords aus dem identifizierten primären Inhalt. Außerdem verfügt das System über Funktionen, die das Anker-Tag sammeln und die Suchroute des Benutzers verfolgen, um Schlüsselwörter zu identifizieren, die für den Benutzer von zentralem Interesse sind. Dieses Papier vergleicht das vorgeschlagene System mit einer reinen TF-IDF-Analysemethode. Die Analyse bestätigt ihre Wirksamkeit im Hinblick auf die Richtigkeit der analysierten Nutzungsprofile.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-70585-7_10 0506e83753e0acce14c0da475f9e5d11;de;;;7.3.;;;Eine strategische Roadmap für Text Mining Eine Roadmap ist in der Regel ein zeitbasierter Plan, der den gegenwärtigen Zustand, den Zustand, den wir erreichen möchten und den Weg, um ihn zu erreichen, definiert. Dazu gehört die Identifizierung konkreter Ziele und die Entwicklung verschiedener Wege zu deren Erreichung. Darüber hinaus bietet es eine Orientierungshilfe, um sich auf die kritischen Fragen zu konzentrieren, die erforderlich sind, um diese Ziele zu erreichen. Die Roadmap von NEMIS zielt darauf ab, den Boden für zukünftige Text-Mining-RTD-Aktivitäten zu bereiten, indem zukünftige Forschungsherausforderungen untersucht und spezifische Ziele definiert werden. Für die Entwicklung der Roadmap von NEMIS wurde ein „szenariogetriebener Ansatz“ verwendet, d. h. mehrere Szenarien für potenzielle zukünftige Anwendungen von Text Mining wurden entwickelt. Diese Szenarien wurden verwendet, um aufkommende Nutzerbedürfnisse abzubilden, sie mit Schlüsseltechnologien zu kombinieren und eine Momentaufnahme der Zukunft zu bieten. Die erstellte Roadmap hat auch mögliche Wege zur Umsetzung dieser Szenarien aufgezeigt und die Richtungen für die zukünftige Technologieentwicklung aufgezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-32394-5_8 8204a415df9a291f6723d09910947e8a;de;;;7.3.;;;Eine strukturierte P2P-basierte Webservices-Registrierung mit Zugriff und Kontrolle Im Cloud Computing gibt es massive Funktionen und Ressourcen, die in Webservices gekapselt sind. Die herkömmlichen Webservice-Registrierungssysteme, die normalerweise die zentrale Architektur verwenden, können die Anforderungen des Cloud Computing nicht erfüllen. Ein Webservice-Registrierungssystem basierend auf einem strukturierten P2P-System mit sicherem Zugang und Kontrolle wird implementiert. Mehrere Universal Description, Discovery and Integration (UDDI)-Knoten werden durch den P2P-basierten Zeitplan- und Kommunikationsmechanismus organisiert. Die Registrierung und Erkennung von Webdiensten wurde auf das neue System umgestaltet, das Dienste wie einen einzigen UDDI-Server bereitstellt. Die Versuchsergebnisse zeigen, dass die Kapazität dynamisch erweitert werden kann und einen großen skalierbaren Zugriff unterstützt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10975-6_23 d2b32bccaf7cd415652b0dfd6b81658e;de;;;7.3.;;;Zusammenfassung für mobile IoT-Geräte mit P2P-Websuchmaschine und inhärenten Merkmalen der Inhalte Es ist zu schwierig, den Sinn von Webseiten auf kleinen Bildschirmen mobiler Geräte zu erfassen, daher bevorzugen mobile Benutzer zusammengefasste Berichte. Eine beliebte Technik zum Generieren automatischer zusammengefasster Berichte basiert auf dem Vektormodell. Die Methoden zur Vektormodellzusammenfassung sind einfach und kostengünstig auf mobilen Geräten zu implementieren. Die Qualität der zusammengefassten Berichte des Modells kann jedoch nicht gut sein, da es einen semantischen Unterschied zwischen manuellen zusammengefassten Berichten und den maschinell zusammengefassten Berichten gibt. Darüber hinaus können die zensierten Dokumente der zentralisierten Suchmaschine die Abfrage des Benutzers in den zusammenfassenden Ergebnissen nicht genau widerspiegeln. Um diese Einschränkungen zu überwinden, wird eine automatische Zusammenfassung für mobile Geräte vorgeschlagen, die ein semantisches Merkmal von Pseudo-Relevanz-Feedback und eine P2P-Websuchmaschine verwendet. Das vorgeschlagene Verfahren erhöht die Qualität von zusammengefassten Berichten, indem es die latenten Merkmale von Dokumenten und die Clustering-Technik nutzt. Die Methode verwendet nicht zensierte Dokumente der P2P-Websuchmaschine, um die Benutzeranforderungen in zusammengefassten Berichten genauer widerzuspiegeln. Der automatische Zusammenfasser besteht aus einem serverseitigen containerisierten Autozusammenfassungsmodul zur flexiblen Verwaltung der Zusammenfassungsfunktionen und einem benutzerseitigen Mobilgerätemodul, um die Überlastung des Mobilgeräts zu reduzieren.;-;-;-;https://link.springer.com/article/10.1007/s12083-019-00780-w 7d039d04942e0ad9fa5888247f7e62cd;de;;;7.3.;;;ReCQ: Kontextsensitive Abfragen in der Praxis Dieses Papier schlägt eine Methode der kontextbewussten Abfrage bei mobilen/ubiquitären Websuchen vor, die mobilen Benutzern vier Möglichkeiten bietet: 2) kontextbewusste Generierung von Unterthemenbäumen, um ihnen zu helfen, ihren Informationsbedarf zu einem Unterthema zu spezifizieren, (3) Auffinden vergleichbarer Schlüsselphrasen zu ihrer ursprünglichen Abfrage, um ihnen zu helfen, bessere Entscheidungen zu treffen, und (4) vertikale Metasuche, die sich auf ein Unterthema konzentrierttop der Abruf erfolgt genauer.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74255-5_19 3a5458f7b235f13597ccca25101ae342;de;;;7.3.;;;"Dokumentenclustering wissenschaftlicher Texte anhand von Zitationskontexten Document Clustering hat viele wichtige Anwendungen im Bereich Data Mining und Information Retrieval. Viele existierende Dokumentenclustering-Techniken verwenden das ""Beutel-von-Wörter""-Modell, um den Inhalt eines Dokuments darzustellen. Diese Darstellung ist jedoch nur dann effektiv, um verwandte Dokumente zu gruppieren, wenn diese Dokumente einen großen Anteil lexikalisch äquivalenter Begriffe aufweisen. Mit anderen Worten, Synonyme zwischen verwandten Dokumenten werden ignoriert, was die Effektivität von Anwendungen, die eine Standard-Volltextdokumentdarstellung verwenden, verringern kann. Um dieses Problem anzugehen, präsentieren wir einen neuen Ansatz zur Clusterung wissenschaftlicher Dokumente, basierend auf der Nutzung von Zitationskontexten. Ein Zitationskontext ist im Wesentlichen der Text, der die Referenzmarkierungen umgibt, die verwendet werden, um auf andere wissenschaftliche Arbeiten zu verweisen. Wir gehen davon aus, dass Zitationskontexte relevantes synonymes und verwandtes Vokabular bereitstellen, das dazu beiträgt, die Effektivität der Repräsentation von Wörtern zu erhöhen. In diesem Artikel untersuchen wir die Leistungsfähigkeit dieser zitationsspezifischen Wortmerkmale und vergleichen sie mit der Textdarstellung des Originaldokuments in einer Dokument-Clustering-Aufgabe für zwei Sammlungen von gekennzeichneten wissenschaftlichen Zeitschriftenartikeln aus zwei unterschiedlichen Bereichen: Hochenergiephysik und Genomik. Wir vergleichen diese textbasierten Clustering-Techniken auch mit einem Link-basierten Clustering-Algorithmus, der die Ähnlichkeit zwischen Dokumenten basierend auf der Anzahl der Co-Zitate bestimmt, d. Unsere experimentellen Ergebnisse zeigen, dass die Verwendung von Zitationskontexten in Kombination mit dem Vokabular im Volltext des Dokuments ein vielversprechendes alternatives Mittel ist, um kritische Themen in Zeitschriftenartikeln zu erfassen. Genauer gesagt übertrifft diese Strategie der Dokumentendarstellung, wenn sie vom in diesem Artikel untersuchten Clustering-Algorithmus verwendet wird, sowohl den Volltext-Clustering-Ansatz als auch die Link-basierte Clustering-Technik in beiden wissenschaftlichen Journal-Datensätzen.";-;-;-;https://link.springer.com/article/10.1007/s10791-009-9108-x 583f2abe1c92a9b7eca46d3fb1741db3;de;;;7.3.;;;Wissenschaftskommunikation: Neue Grenzen In diesem Kapitel werden die jüngsten Trends in der Landschaft der Wissenschaftskommunikation detaillierter untersucht. Journalismus reagiert auf Interessenvertretungsstimmen und ist routinemäßig auf Informationssubventionen für das Wissen über Themen und Ereignisse angewiesen. Dies unterstreicht die Bedeutung anderer Wissensbroker. Trotz der Bewegung des „öffentlichen Engagements“ innerhalb der Wissenschaft zeigen die verfügbaren Daten keine großen Veränderungen in den Aktivitätsmustern der Wissenschaftler. Es wurden verschiedene neuartige Formate für die Bürgerdeliberation ausprobiert, aber dies sind oft einmalige Experimente mit begrenztem Einfluss auf die Politik. Umweltgruppen könnten feststellen, dass ihre traditionellen Wähler einige potenzielle Klimalösungen ablehnen. Unterdessen hat die Verbreitung internetbasierter Informationsquellen, die ohne Journalisten als Gatekeeper arbeiten, tiefgreifende Auswirkungen. Studien zu Informationssuchenden und deren Verarbeitung des Gefundenen liefern zusätzliche Erkenntnisse.;-;-;-;https://link.springer.com/chapter/10.1057/978-1-137-58579-0_5 717f4e6522402a9f1bbe7687e9ec2605;de;;;7.3.;;;Social Networking als neuer Trend im E-Marketing In der Welt des E-Marketings werden häufig neue Geschäftsmodelle eingeführt und neue Trends zeichnen sich ab. Einer dieser neuesten Trends sind Social-Networking-Websites, von denen viele nicht nur eine große Anzahl von Benutzern und Besuchern, sondern auch Online-Werbeunternehmen angezogen haben, um ihre Anzeigen auf den Websites zu platzieren. In diesem Beitrag untersuchen wir soziale Online-Netzwerke als neuen Trend des E-Marketings. Wir untersuchen zunächst das soziale Online-Netzwerk als eine neue Form webbasierter Dienste und vergleichen soziale Netzwerke mit anderen repräsentativen webbasierten Diensten unter Verwendung des 7C-Frameworks. Anschließend analysieren wir soziale Netzwerke aus Sicht der Geschäftsstrategie, indem wir ein Geschäftsmodell für Online-Social-Networking-Sites unter Verwendung des Fünf-Kräfte-Modells von Porter erstellen. Wir besprechen auch die primären Einnahmemodelle, die von Organisationen und Unternehmen verwendet werden können, die Online-Social-Networking-Dienste anbieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-76312-5_7 131f6036839c11a7b056e7ebb9759bdf;de;;;7.3.;;;Gleich, aber anders: eine Kontextanalyse duplizierter Videos auf YouTube Videos sind zu einem vorherrschenden Bestandteil des täglichen Lebens der Benutzer im Web geworden, insbesondere mit dem Aufkommen von Online-Video-Sharing-Systemen wie YouTube. Da Benutzer Videos in diesen Systemen unabhängig teilen können, können einige Videos Duplikate sein (d. h. identische oder sehr ähnliche Videos). Trotz des gleichen Inhalts gibt es bei Duplikaten einige potenzielle Kontextunterschiede, z. B. in den zugehörigen Metadaten (d. Die Quantifizierung dieser Unterschiede ist wichtig, um zu verstehen, wie Benutzer Metadaten mit Videos verknüpfen, und um mögliche Gründe zu verstehen, die die Popularität von Videos beeinflussen, was für die Mechanismen zum Abrufen von Videoinformationen, die Zuordnung von Werbung zu Videos und Leistungsprobleme im Zusammenhang mit der Verwendung von Caches und . von entscheidender Bedeutung ist Content Distribution Networks (CDN). Diese Arbeit präsentiert eine breite quantitative Charakterisierung der Kontextunterschiede zwischen identischen Inhalten. Anhand einer großen Videostichprobe von YouTube erstellen wir einen Datensatz mit Duplikaten. Unsere Messanalyse liefert mehrere interessante Ergebnisse, die sich darauf auswirken können, wie Videos auf Video-Sharing-Websites abgerufen werden sollten, sowie auf Werbesysteme, die die Rolle verstehen müssen, die Benutzer beim Erstellen von Inhalten in Diensten wie YouTube spielen.;-;-;-;https://link.springer.com/article/10.1007/s13173-010-0019-x 0d274ad85d67ae5e5ad0cb643ab8d3e3;de;;;7.3.;;;DOM Semantic Expansion-Based Extraction of Topical Information from Web Pages Webseiten enthalten normalerweise viele irrelevante Informationen, die Kunden nicht benötigen. Um relevante Informationen aus dem komplizierten Informationshaufen zu extrahieren, sind daher effektive Verfahren zum Extrahieren von Informationen erforderlich. Mit dem Ziel der semi-strukturierten Charakteristik von HTML könnten themenrelevante Informationen in Webseiten durch semantisches Pruning extrahiert werden, in der Übernahme der DOM-Präsentation, kombiniert mit der Eigenschaft der Webstruktur und der Fuzzy-Klassifizierung von Schlüsselwörtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23982-3_42 3845fafac4c7f7b4af1dc35afe882840;de;;;7.3.;;;IT-Konvergenz-bezogene Sicherheitsherausforderungen für das Internet der Dinge und Big Data Das Smart Device ist mit dem Internet der Dinge verbunden und zeigt die Überwachung mehrerer Sensoren mit Übertragungsparametern an, um das effiziente System zu produzieren. Das Internet der Dinge hat die Daten generiert, obwohl die Übertragungsreichweite trotz reduzierter Kosten und Zeit außerhalb der Reichweite liegt. Dieses Kapitel demonstriert das Internet der Dinge und Big Data-bezogene Anwendungen und analysiert die verschiedenen Sicherheitsprobleme, wenn die Umgebung diagnostiziert wird. Die neuesten Sicherheitsprobleme können in jedem Element im Internet der Dinge auftreten, da ein Element der Sicherheitslücke mitgeteilt wird. Immer wenn die Daten durch die Big Data und das Internet der Dinge Umgebung generiert werden, werden solche Probleme anhand des sicherheitsbezogenen Zusammenhangs identifiziert. Die Notwendigkeit der Sicherheitsparameter der ICT-basierten Umgebung wird detailliert analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7965-3_3 6d36380a64eeb09f49a54023cb61441d;de;;;7.3.;;;Elektronischer Handel kommt ins „Netz“ Was ist elektronischer Geschäftsverkehr (EC)? Je nachdem, wen Sie fragen, kann dies bedeuten, dass Sie eine Kreditkarte verwenden, um etwas von einer World Wide Web (Web)-Site zu kaufen. Eine andere Person kann sagen, dass EC ein elektronischer Datenaustausch (EDI) ist. Eine dritte Person kann sagen, dass EC alle Aspekte des Geschäftsverkehrs unterstützt, einschließlich des Sendens und Empfangens von elektronisch signierten Dokumenten.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4918-1_2 ba545077abeb5d7bdeda8cc40b3c9579;de;;;7.3.;;;Betriebsstrategie des Stromsystems basierend auf dem Energie-Internet Die Sicherheit und Zuverlässigkeit des Stromnetzes haben einen direkten Einfluss auf die Stromqualität von People’s Daily. Mit der kontinuierlichen Entwicklung der Informationstechnologie stellt die Gesellschaft neue Anforderungen an die Betriebsweise des Stromnetzes. Darauf aufbauend basiert dieser Artikel auf der Energie des Internets vor dem Hintergrund der Betriebsweise des neuen Energiesystems und der Schlüsseltechnologie, zunächst analysiert die Energie-Internet-Anwendungen auf die Notwendigkeit der neuen Energiesystem-Betriebsart [;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5959-4_6 04add05c0df263ab14bedfedc996966d;de;;;7.3.;;;Wettbewerb in der lokalen Telekommunikation Das Telekommunikationsgesetz von 1996 schuf einen Rahmen für den Wettbewerb in der lokalen Telekommunikation. Nach seinen Regeln und unter der Zuständigkeit der staatlichen Regulierungsbehörden sollten wettbewerbsfähige lokale Telefongesellschaften über bekannte Großkundentarife Zugang zu einigen oder allen Teilen des Netzes des etablierten Anbieters erhalten und lokale Telefondienste für Endkunden anbieten. Da Kunden andere Kommunikationstechnologien einsetzen – Mobilfunkdienste, Breitband für E-Mail, Messaging und Informationsabruf – wird ein zusätzlicher Wettbewerbsdruck auf den Kernmarkt für Sprachtelefone ausgeübt. Die Substitution der Nutzung und des Zugangs von der Ortstelefonie zu anderen Kommunikationsformen wird als intermodaler Wettbewerb angesehen und ist Gegenstand dieses Beitrags. Diese Studie befasst sich mit dem lokalen Telekommunikationswettbewerb zwischen etablierten und konkurrierenden Dienstanbietern in den Vereinigten Staaten. Neben der Messung des Wettbewerbs innerhalb des Festnetzmarktes finden wir erhebliche intermodale Wettbewerbsauswirkungen, die sich aus der Entwicklung von Mobilfunk und Hochgeschwindigkeit ergeben. Wir berichten über empirische Ergebnisse eines ökonometrischen Modells, das die Auswirkungen von Leitungsverlusten zwischen Betreibern und die Auswirkungen von Mobilfunk- und Hochgeschwindigkeitsdiensten auf den Festnetzmarkt misst. Das Papier bietet eine Interpretation der strategischen und politischen Implikationen dieser Ergebnisse.;-;-;-;https://link.springer.com/article/10.2145/20050202 428baa5e202d8ba6fca366baf5add771;de;;;7.3.;;;„Keep it simple!“: eine Eye-Tracking-Studie zur Untersuchung der Komplexität und Unterscheidbarkeit von Webseiten für Menschen mit Autismus Eine wesentliche Einschränkung der international bekannten Standard-Web-Accessibility-Richtlinien für Menschen mit kognitiven Behinderungen besteht darin, dass sie nicht anhand relevanter Nutzergruppen empirisch evaluiert wurden. Stattdessen zielen sie darauf ab, Probleme zu antizipieren, die nach den diagnostischen Kriterien auftreten können. In diesem Artikel gehen wir dieses Problem an, indem wir zwei der beliebtesten Richtlinien in Bezug auf die visuelle Komplexität von Webseiten und die Unterscheidbarkeit von Webseitenelementen empirisch evaluieren. Wir führten eine vergleichende Eye-Tracking-Studie mit 19 verbalen und höchst unabhängigen Menschen mit Autismus und 19 neurotypischen Menschen auf acht Webseiten mit unterschiedlicher visueller Komplexität und Unterscheidbarkeit mit Synthese- und Browsing-Aufgaben durch. Unsere Ergebnisse zeigen, dass Menschen mit Autismus eine höhere Anzahl von Fixationen haben und mehr Übergänge mit Syntheseaufgaben machen. Wenn wir die Anzahl der Elemente betrachten, die nicht mit bestimmten Aufgaben in Zusammenhang stehen, zeigt unsere Analyse, dass sie bei der Durchführung der Syntheseaufgabe auf visuell komplexen Seiten oder auf Seiten, deren Elemente nicht leicht zu unterscheiden sind, irrelevantere Elemente betrachten. Nach unserem besten Wissen ist dies die erste empirische Verhaltensstudie, die diese Leitlinien bewertet, indem sie zeigt, dass die hohe visuelle Komplexität von Seiten oder die geringe Unterscheidbarkeit von Seitenelementen bei Menschen mit Autismus zu nicht gleichwertigen Erfahrungen führt.;-;-;-;https://link.springer.com/article/10.1007/s10209-020-00708-9 c880975817c6bc19efc07e53aef1382f;de;;;7.3.;;;Implementieren der adaptiven Benutzeroberfläche für Webanwendungen Adaptive Websites verbessern automatisch ihre Organisation und Präsentation, um den Bedürfnissen einzelner Webbenutzer gerecht zu werden. Der Artikel beschreibt unsere Erfahrungen, die wir bei der Entwicklung und Implementierung einer adaptiven Erweiterung für einen Webserver – AdAgent – ​​gesammelt haben. AdAgent basiert auf dem Anpassungsmodell, bei dem Listen mit empfohlenen Links dynamisch für jeden durchsuchenden Benutzer generiert und in Webseiten eingebettet werden. AdAgent besteht aus zwei Komponenten: dem Offline-Modul, das Webzugriffsprotokolle verwendet, um Wissen über das Benutzerverhalten zu ermitteln, und dem Online-Modul, das die Webserver-Funktionalität erweitert und für die dynamische Personalisierung von Webseiten verantwortlich ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36562-4_10 f5d55a1b9324ec324c0045a1f48cc607;de;;;7.3.;;;Internetbasierte IKT-Plattform zur Unterstützung virtueller Unternehmen von KMU Dieses Dokument zielt darauf ab, die IKT-Plattform und SW-Tools vorzustellen, die im Rahmen des IST-Projekts PROVE-SME (Förderung virtueller Unternehmen aus KMU) entwickelt wurden: IST-1999-20276 PROVE-SME. Das Projekt zielt darauf ab, Best Practices zu definieren und zu testen, um sehr kleine Unternehmen mit hohem Kooperationspotenzial in die Lage zu versetzen, effiziente virtuelle Unternehmen (VEs) zu bilden. Dies wird erreicht, indem KMU eine Methodik zur Verfügung gestellt und eine SW-Plattform (basierend auf KMU-Anforderungen) entwickelt wird, um die Kommunikation und Koordination innerhalb der VE zu unterstützen. Insbesondere stellt das Papier die spezifische IKT-Infrastruktur vor, die basierend auf den Anforderungen von KMU entwickelt wurde und die während des Projekts durch die drei realen Testfälle getestet und validiert wird: COXA-VE, CORMA-VE und ETA-VE.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35585-6_36 09497d011f8e13623bcc2d405d3bb690;de;;;7.3.;;;Internet der Dinge in der Stromleitungskommunikation: Eine experimentelle Leistungsanalyse Der riesige Informationsaustausch, der durch das Paradigma des Internet der Dinge (IoT) ermöglicht wird, d. Power Line Communications (PLC) hat im letzten Jahrzehnt eine große Aufmerksamkeit erfahren, da elektrische Leitungen nicht als einfache Energieträger, sondern als Informationsträger verwendet werden. Unter den verschiedenen Aspekten von SPS-basierten Architekturen muss eine interessante und wichtige Analyse den Sicherheitsaspekten vorbehalten sein, die in ähnlichen Infrastrukturen übernommen werden sollten, da sie entscheidend sind, um vertrauenswürdige und zuverlässige Systeme bereitzustellen und damit Benutzer zu unterstützen, die sich auf sie verlassen verfügbare Dienste, insbesondere in Fällen, in denen sie auf physischer Ebene inhärent sicher sein sollten (zB gegen unbefugtes Entfernen/Unterbrechen des Signals und Abhören, da sie schwierig und gefährlich sind). Motiviert durch die relevanten Auswirkungen von SPS auf das IoT untersuchen wir in diesem Kapitel experimentell die Leistung von IoT-Systemen auf SPS in Innenräumen unter Berücksichtigung eines vom Hersteller bereitgestellten Anwendungstools und einer selbst entwickelten Java-Bibliothek. Die experimentellen Tests werden sowohl an kalten als auch an heißen elektrischen Leitungen durchgeführt, wobei sowohl Stromleitungen fester Größe als auch variabler Länge bewertet werden. Unsere Ergebnisse zeigen, dass IoT-orientierte SPS einen Durchsatz von 8 kbit/s auf einer 300 m langen Kaltleitung und von 6 kbit/s auf einer 300 m langen Hotline erreichen können. Weitere experimentelle Bemühungen werden auf Leistungsanalysen in Gegenwart von Sicherheitsmaßnahmen ausgerichtet sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1768-2_13 71ebec7b09c349c9dee1ac04c79d3417;de;;;7.3.;;;Interneterweiterung nach Südkaukasus und Zentralasien In diesem Papier skizzieren wir das SILK-Projekt, das den NRENs der acht Länder des Südkaukasus und Zentralasiens auf regionaler Basis Internetverbindungen bereitstellen wird. Das Projekt wird hauptsächlich vom NATO-Wissenschaftsprogramm im Rahmen seines Computer Networking Panels finanziert, hat jedoch zusätzliche Beiträge von Cisco Systems, DESY und DFN. Das SILK-Netzwerk ist satellitengestützt, Details der zu verwendenden Ausrüstung werden bereitgestellt. Es ist auf dem neuesten Stand der Technik, mit separat verwaltbarem Kernnetz, klaren Schnittstellen zu den NREN und einer erweiterbaren Architektur. Wir besprechen das SILK-Netzwerk, die durchzuführenden technischen Aktivitäten und die Managementstruktur. Es wird deutlich gemacht, dass wir hoffen, dass dies in naher Zukunft die Grundlage für ein wesentlich größeres Netzwerk sein wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35673-0_15 959379dd68db19c491f6827f597bcc6d;de;;;7.3.;;;Berechnung von Zielstandorten für Webressourcen Eine standortbasierte Suchmaschine muss in der Lage sein, Webressourcen geeignete Standorte zu finden und diesen zuzuweisen. Standortinformationen zu Host, Inhalt und Metadaten reichen nicht aus, um den Standort von Ressourcen zu beschreiben, da sie für viele Dokumente mehrdeutig oder nicht verfügbar sind. Wir führen als Zielort den Standort von Benutzern von Webressourcen ein. Der Zielspeicherort ist inhaltsunabhängig und kann auf alle Arten von Webressourcen angewendet werden. Es wird eine neuartige Methode eingeführt, die Protokolldateien und IPs verwendet, um die Besucher von Websites zu verfolgen. Die Experimente zeigen, dass der Zielort für fast alle Dokumente im Web auf Länderebene und für die meisten auf Landes- und Stadtebene berechnet werden kann. Sie kann als neue Definition und Dimension des Standorts Web-Ressourcen zugewiesen werden. Es kann separat oder mit anderen relevanten Standorten verwendet werden, um die Geographie von Webressourcen zu definieren. Dies gleicht unzureichende geografische Informationen zu Webressourcen aus und würde den Entwurf und die Entwicklung von standortbasierten Suchmaschinen erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/11912873_29 be988161a3162d458787ebf3ba9b81ae;de;;;7.3.;;;Ein dynamisches Überwachungssystem für die Wasserqualität basierend auf Webserver-Embedded-Technologie für die Aquakultur Der Technologie zur Überwachung der Wasserqualität wurde in der Aquakultur aufgrund der zunehmenden Wasserprodukte und der Auswirkungen bösartiger Vorfälle in der Lebensmittelsicherheit große Aufmerksamkeit geschenkt. Um den technologischen Anforderungen des Wasserqualitätsmonitorings im multiparametrischen, dynamischen und vernetzten Monitoring gerecht zu werden, wurde ein dynamisches Wasserqualitätsmonitoringsystem entwickelt, um multiparametrische Wasserqualitätsvariablen wie Wassertemperatur, pH, gelöster Sauerstoff , elektrische Leitfähigkeit, Oxidationsreduktionspotential dynamisch und kommunizieren mit entfernten Informationsservern in hoher Sicherheit. Als Ergebnis eines zweijährigen Testexperiments in einem Meerwasseraquikulturunternehmen betrugen die relativen Fehler jedes vom Instrument gemessenen Wasserqualitätsparameters weniger als 5 %, der Prozentsatz der Datenverluste der Fernkommunikation betrug weniger als 3 % und der Energieverbrauch war weniger als 13W. Daher kann das dynamische Überwachungssystem der Wasserqualität als Knoteninfrastruktur von drahtlosen Sensornetzwerken verwendet werden, um ein verteiltes Netzwerküberwachungssystem für die Wasserqualität in einer großen Aquakulturfarm zu erreichen oder ein verteiltes Netzwerküberwachungssystem für die Wasserqualität in Multipoint verschiedener Städte für Aquakulturfarm und Verwaltungsbereich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18354-6_85 d0597517d66f94685d86d8f16e28af97;de;;;7.3.;;;Rollenbasierte Zugriffskontrolle im Web mit LDAP Dieses Dokument bietet einen Rahmen für die Nutzung des Lightweight Directory Access Protocol (LDAP) zur Implementierung der rollenbasierten Zugriffssteuerung (RBAC) im Web im;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35587-0_2 2d04e1cf22f9332d7c5cee45e7bc87f3;de;;;7.3.;;;Prozessor-Sharing: Ein Überblick über die mathematische Theorie In den letzten Jahrzehnten hat das Egalitäre Processor Sharing (EPS) eine herausragende Rolle in der angewandten Wahrscheinlichkeit, insbesondere in der Warteschlangentheorie und ihren Computeranwendungen, gewonnen. Während das EPS-Paradigma 1967 als Idealisierung des Round-Robin (RR)-Scheduling-Algorithmus in Time-Sharing-Computersystemen entstand, hat es in letzter Zeit als leistungsstarkes Konzept zur Modellierung von WEB-Servern erneut Interesse geweckt. Dieses Papier fasst die wichtigsten Ergebnisse zu den exakten Lösungen für die M/GI/1-Warteschlange mit egalitärer Prozessorteilung zusammen. Das Material stammt hauptsächlich aus Arbeiten neuerer Autoren, die in geringem Maße durch andere verwandte Ergebnisse ergänzt werden. Viele der weiteren Ergebnisse sind unter dem direkten Einfluss unserer früheren Arbeiten entstanden. Unser Hauptziel ist es, einen Überblick über den Stand der Technik in Bezug auf die wichtigsten Errungenschaften der zeitgenössischen Theorie des M/GI/1-Warteschlangensystems mit Prozessorteilung zu geben. Der Fokus liegt auf den Methoden und Techniken der exakten und asymptotischen Analyse dieses Warteschlangensystems. Im Gegensatz zu den Standardübersichten sind die gekürzten Beweise (oder deren Ideen) einiger Schlüsselsätze und Folgerungen in der Arbeit enthalten. Wir skizzieren jüngste Entwicklungen in der exakten Analyse der M/GI/1-EPS-Warteschlange mit weiterem Schwerpunkt auf zeitabhängigen (transienten) Wahrscheinlichkeitsverteilungen der Hauptmerkmale. Das vorliegende Papier enthält insbesondere die Ergebnisse zur gemeinsamen zeitabhängigen Verteilung der Verweilzeit eines zeitgerechten Arbeitsplatzes;-;-;-;https://link.springer.com/article/10.1134/S0005117907090202 7c9807cb38f161282553c19bbce5b6d7;de;;;7.3.;;;Automatische Extraktion von Webinformationen basierend auf Regeln Die Extraktion von Webinformationen ist der erste Schritt für ein effektives Web-Mining. In diesem Artikel werden einige heuristische Regeln zusammengefasst, die die Eigenschaften des Hauptinhalts von Webseiten beschreiben. Die Regeln bestehen aus einigen vordefinierten Begriffen und Metriken, die für verschiedene Arten von HTML-Seiten als wiederverwendbar und erweiterbar angesehen werden können. Anschließend wird ein Wahrscheinlichkeitsmodell, das die Regeln und Metriken verwendet, vorgeschlagen und der entsprechende Algorithmus implementiert. Der Algorithmus wird auf 1000 zufällig ausgewählten Webseiten getestet. Das Experiment zeigt, dass der Algorithmus präziser und auf die vielfältige Struktur verschiedener Websites anwendbarer ist als andere Algorithmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24434-6_21 56ac2599f5ae2119794aab928066738f;de;;;7.3.;;;Eine Ontologie für ein Modell von Fertigungsplanungsproblemen, die im Web gelöst werden sollen In diesem Artikel beschreiben wir eine Ontologie für ein Modell von Fertigungsplanungsproblemen, die im Web durch verschiedene Planungsmethoden gelöst werden sollen, die von einem Web-Planungs-Entscheidungsunterstützungssystem zur Verfügung gestellt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09492-2_21 504a09688259aa810a8641a63ec6a90a;de;;;7.3.;;;Ein quantitativer Vergleich von Ansätzen zur Segmentierung semantischer Webseiten Wir vergleichen drei bekannte semantische Webseitensegmentierungsalgorithmen, die jeweils als Beispiel für einen bestimmten Lösungsansatz dienen, und einen selbst entwickelten Algorithmus, WebTerrain, der zwei der Ansätze kombiniert. Wir vergleichen die Leistung der vier Algorithmen für einen großen Benchmark moderner Websites, die wir erstellt haben, und untersuchen jeden Algorithmus für insgesamt acht Konfigurationen. Wir haben festgestellt, dass alle Algorithmen auf zufälligen Seiten im Durchschnitt besser abschneiden als auf beliebten Seiten, und die Ergebnisse sind besser, wenn die Algorithmen auf dem aus dem DOM erhaltenen HTML ausgeführt werden, anstatt auf dem einfachen HTML. Insgesamt gibt es viel Raum für Verbesserungen, da der beste durchschnittliche F-Score bei 0,49 liegt, was darauf hinweist, dass die derzeit verfügbaren Algorithmen für moderne Websites noch nicht von praktischem Nutzen sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19890-3_24 ac63d72313ff7d638b46f750f3fe3bfd;de;;;7.3.;;;Geschäftsmodelle des E-Government: Forschung zu dynamischem E-Government auf Basis von Webservices Der Staat geht über alle Sektoren einer Gesellschaft hinaus. Sie stellt nicht nur die rechtliche, politische und wirtschaftliche Infrastruktur zur Unterstützung anderer Sektoren bereit, sondern beeinflusst auch die gesellschaftlichen Faktoren, die zu ihrer Entwicklung beitragen. Mit seiner Reife von Technologien und Management wird E-Government irgendwann in die Zeit der „One-Stop“-Dienste eintreten. Zu diesem Erfolg trägt unter anderem die Technologie der Webservices maßgeblich bei. Webservices bieten eine neue Möglichkeit der standardbasierten Softwaretechnologie, die es Programmierern ermöglicht, bestehende Computersysteme über das Internet innerhalb eines Unternehmens oder mehrerer Unternehmen auf neue Weise zu kombinieren, und würde dadurch tiefgreifende und weitreichende Auswirkungen auf das E-Government haben. In diesem Papier wurden die Geschäftsmodelle des E-Government, die Architektur des dynamischen E-Government und seine Schlüsseltechnologien vorgestellt. Abschließend wurde noch kurz die Zukunftsperspektive des dynamischen E-Government diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75494-9_51 72933e82b02dbcde47c5fe044217a32b;de;;;7.3.;;;Verwenden von Dokumentenqualitätsmessungen zur Vorhersage der Effektivität der Websuche Die Aufgabe zur Vorhersage der Abfrageleistung schätzt die Effektivität des Abrufs ohne Relevanzbeurteilungen. Die Aufgabe wird über das Web unter anderem aufgrund der Auswirkung von Dokumenten geringer Qualität (z. B. Spam) auf die Abrufleistung sehr anspruchsvoll. Um dieser Herausforderung zu begegnen, präsentieren wir einen neuartigen Vorhersageansatz, der abfrageunabhängige Dokumentqualitätsmaße verwendet. Obwohl gezeigt wurde, dass diese Maßnahmen die Effektivität des Web-Retrievals verbessern, ist dies die erste Studie, die die klaren Vorteile ihrer Verwendung für die Vorhersage der Abfrageleistung zeigt. Die mit umfangreichen Websammlungen durchgeführte Auswertung zeigt, dass unsere Methoden eine Vorhersagequalität aufweisen, die oft die von modernen Prädiktoren übertrifft, einschließlich solcher, die speziell für den Web-Retrieval entwickelt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36973-5_12 523a4827f430f71b1ef92939de5686b9;de;;;7.3.;;;Ein flexibles Konzept zur Etablierung von Informationen zur Barrierefreiheit in Tourismus-Webseiten Barrierefreier Tourismus, der den Markt der Menschen mit Behinderungen und älteren Reisenden umfasst, ist weit davon entfernt, ein Nischenmarkt zu sein. Dennoch zeichnet sie sich durch fehlende, unzureichende oder ungenaue Zugänglichkeitsinformationen zu touristischen Objekten aus. Der vorgestellte Ansatz zeigt, wie diese Defizite überwunden und dieser wachsende, aber vernachlässigte Markt unterstützt werden kann. Die Grundidee besteht darin, aktuelle, vertrauenswürdige und vergleichbare Informationen zur Barrierefreiheit in einer zentralen Barrierefreiheitsdatenbank zusammenzufassen. Eine serviceorientierte Architektur ermöglicht es Informationsanbietern, unter Verwendung von Webdiensten flexibel auf in der Datenbank gespeicherte Informationen zur Barrierefreiheit zuzugreifen und diese abzufragen. Folglich können die gelieferten Informationen zur Barrierefreiheit in Informationsportale und Homepages integriert werden, wodurch eine breite Verbreitung von Informationen zur Barrierefreiheit ermöglicht wird, die im Mittelpunkt dieses Papiers steht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-70540-6_147 61a42875eac5a36712e31b81ce9920b3;de;;;7.3.;;;Kontextbewusste Systeme: Technologien und Herausforderungen in Internet of Everything-Umgebungen Die Paradigmen Internet of Things (IoT) und Internet of Everything (IoE) haben sich in den letzten Jahren herausgebildet und stellen damit neue Herausforderungen im Bereich des Pervasive Computing. IoT ist ein Computerparadigma, das dafür bekannt ist, die Verbindung der physischen und virtuellen Welt zu ermöglichen, indem es den täglichen „Dingen“ Rechenleistung verleiht. IoE geht über das IoT hinaus, indem es die Barriere der „Dinge“ durchbricht. Auch im IoE sind Menschen, Daten und Prozesse Teil der vernetzten Welt. Kontextbewusstsein ist zu einem wichtigen Merkmal in IoT- und IoE-Szenarien geworden. Automatische Entscheidungsfindung, Kontextsensitivität, automatische Benachrichtigung des Benutzers, um nur einige zu nennen, sind einige Beispiele für Situationen, in denen ein kontextsensitives System in diesen Umgebungen benötigt wird, in denen sich die Eigenschaften der Datenquellen ständig ändern. In diesem Kapitel stellen wir die kontextsensitiven Definitionen und Architekturen im IoE und die Weiterentwicklung des IoT vor. Darüber hinaus stellen wir die kontextbewussten Lebenszyklusphasen vor, die den Prozess durchlaufen, um Kontextinformationen zu erhalten. Darüber hinaus analysieren wir auch die aktuellen kontextsensitiven Ansätze von IoT/IoE-Systemen und stellen einige Herausforderungen in Bezug auf kontextsensitive IoE-Systeme vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-50758-3_1 d741f9dab4ddd201074fad5c88a928fc;de;;;7.3.;;;Trenderkennung in Folksonomies Da die Anzahl der Ressourcen im Web die Anzahl der nachverfolgbaren Dokumente bei weitem übersteigt, wird es immer schwieriger, über die eigenen Interessengebiete auf dem Laufenden zu bleiben. Das Problem wird mit dem zunehmenden Anteil von Multimediadaten schwerwiegender, aus denen es schwierig ist, eine konzeptionelle Beschreibung ihres Inhalts zu extrahieren.;-;-;-;https://link.springer.com/chapter/10.1007/11930334_5 caf5714bfd0eece557e3e7005ca13c79;de;;;7.3.;;;Personen und Technologieschnittstellen Die Rolle des Individuums in virtuellen Organisationen ist entscheidend, da die Basiseinheit der Analyse einer Organisation das Individuum und der Beitrag des Individuums zum kollektiven Organisationswissen ist. Um Mensch und Technologie zu integrieren und den intellektuellen Möglichkeiten von Cyberspace- und Cyber ​​Valley-Unternehmen Rechnung zu tragen, ist eine breite Perspektive erforderlich. Das Konzept der Schnittstellen eröffnet eine solche Perspektive. Nach unserem Verständnis haben Schnittstellen eine Reihe unterschiedlicher Merkmale.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-3211-6_1 b54b0ed20e1b96067ee5d63c065925d7;de;;;7.3.;;;Erhöhung der Zuverlässigkeit durch Profilerstellung im kollaborativen Internet der Dinge Die Zukunft des Internets der Dinge (IoT) ist das kollaborative Internet der Dinge (C-IoT), in dem verschiedene IoT-Implementierungen zusammenarbeiten, um bessere Dienste bereitzustellen. In Smart-City-Szenarien wird C-IoT beispielsweise das Potenzial haben, immersive Multimedia-Benutzererlebnisse basierend auf Inhalts- und Kontextfusion, immersiven multisensorischen Umgebungen, standortbasierten und medialen Internettechnologien und Augmented Reality bereitzustellen. Dieses Zukunftsparadigma wird jedoch nur möglich sein, wenn auf Basis der Analyse riesiger Datenmengen die richtigen Entscheidungen getroffen werden können, also die Verlässlichkeit von C-IoT gewährleistet ist. Um dieser Herausforderung zu begegnen, haben wir eine vereinfachte Ansicht einer C-IoT-Architektur untersucht, die aus Geräten besteht, die drei verschiedene Technologien verwenden, die die Existenz von IoT ermöglicht haben (RFID, NFC und Beacons). Unser Vorschlag könnte jedoch auf beliebige andere Geräte im Kontext von C-IoT ausgeweitet werden. Um die Zuverlässigkeit von C-IoT zu erhöhen, setzen wir statistische Datenanalysetechniken ein, um die Qualität der von Identifikations- und Sensorgeräten erhaltenen Daten zu verbessern und die zuverlässigsten Geräte auszuwählen, die vertrauenswürdige (dh fehlerfreie) Daten liefern, um genaue Entscheidungen fällen.;-;-;-;https://link.springer.com/article/10.1007/s11042-017-5431-1 dc1ca2b16205cfac6706de4ee4e19667;de;;;7.3.;;;SCAMPI: Eine skalierbare und programmierbare Architektur zur Überwachung von Gigabit-Netzwerken Eine effektive Netzwerküberwachung ist für die wachsende Zahl von Steuerungs- und Verwaltungsanwendungen, die typischerweise in heutigen Netzwerken zu finden sind, von entscheidender Bedeutung. Steigende Verbindungsgeschwindigkeiten und die Vielfalt der Anforderungen von Überwachungsanwendungen haben gravierende Einschränkungen bestehender Überwachungstechniken aufgedeckt. Als Reaktion darauf entwirft und implementiert das EU-Projekt IST SCAMPI eine skalierbare und programmierbare Architektur zur Überwachung von Multi-Gigabit-Netzwerken. Die SCAMPI-Architektur verfügt über eine ausdrucksstarke Programmierschnittstelle, verwendet intelligente Hardware, bietet Benutzerrichtlinienverwaltung und Ressourcenkontrolle und erreicht Skalierbarkeit durch Parallelität. Dieses Papier befasst sich mit den Problemen der aktuellen Hochgeschwindigkeits-Netzwerküberwachung und stellt die Systemarchitektur und die Komponenten der SCAMPI-Plattform vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39404-4_36 698d93da28c2e10804c130f14ae61f55;de;;;7.3.;;;Kontextorientierte Name-Gesicht-Assoziation in Webvideos Das automatische Verknüpfen von Gesichtern in Webvideos mit ihren im umgebenden Text verstreuten Namen (z. B. der vom Benutzer generierte Titel und Tags) ist für viele Anwendungen eine wichtige Aufgabe. Traditionell wird diese Aufgabe entweder durch gemeinsames Erforschen der visuell-textuellen Konsistenz unter Einschränkungen oder durch die Nutzung externer Ressourcen, z. B. öffentliche Gesichtsbilder, gelöst. Dieses Papier folgt dem zweiten Paradigma und implementiert die Name-Gesicht-Assoziation, indem Gesichter, die in Webvideos erscheinen, mit sorgfältig gesammelten Web-Gesichtsbildern abgeglichen werden. Insbesondere bei einem Webvideo identifizieren wir zunächst die relevanten und diskriminierenden Tags aus dem umgebenden Text. Die Tags sind definiert als;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48896-7_62 482c0cad9c01d9358c44fd9b7d0b4c53;de;;;7.3.;;;Eine Untersuchung der dynamischen Eigenschaften von Empfehlungssystemen Die umfassende Nutzung des Internets verändert die Art und Weise, wie wir leben und kommunizieren, grundlegend. Folglich ändern sich die Anforderungen der Benutzer beim Surfen im Internet drastisch. Empfehlungssysteme (RSs) bieten eine Technologie, die Benutzern hilft, relevante Inhalte im Internet zu finden. Revolutionäre Innovationen im Bereich Internet und deren Auswirkungen auf die Nutzer haben die Forschung im Bereich Empfehlungssysteme aktiviert. In diesem Papier werden Fragen im Zusammenhang mit den sich ändernden Anforderungen der Benutzeranforderungen sowie Änderungen in den Inhalten der Systeme vorgestellt. Die RSs, die diese Probleme betreffen, werden als dynamische Empfehlungssysteme (DRSs) bezeichnet. Das Papier definiert zunächst das Konzept des DRS und untersucht die verschiedenen Parameter, die zur Entwicklung eines DRS beitragen. Das Papier diskutiert auch den Umfang von Beiträgen in diesem Bereich und schließt mit möglichen Erweiterungen, die die dynamischen Qualitäten von Empfehlungssystemen in Zukunft verbessern können.;-;-;-;https://link.springer.com/article/10.1007/s10462-012-9359-6 aa3ec39f9551cf88b2dfbe18b37254b0;de;;;7.3.;;;GCAPM: Ein generisches kontextsensitives Modell in einer Peer-to-Peer-Umgebung Viele verschiedene Anwendungen konzentrieren sich darauf, Informationen über Benutzer zu sammeln. Der Hauptzweck dieser Informationssammlung besteht darin, den Anwendungen das Verständnis der Benutzer, ihrer Vorlieben und ihrer Interessen zu ermöglichen, um ihnen personalisierte Dienste bereitzustellen. Aus diesen Gründen organisieren verschiedene Anwendungen in mehreren Bereichen Benutzereigenschaften, Präferenzen und Interessen basierend auf einem Benutzermodell, einer Struktur, die alle relevanten benutzerbezogenen Informationen enthält. Daher wird das Problem der Benutzermodellierung von Forschern angegangen, die versuchen, eine wertvolle Struktur vorzuschlagen und anpassungsfähige Anwendungen bereitzustellen, um sie erfolgreich zu verwenden. Die meisten veröffentlichten Studien konzentrieren sich jedoch auf ein zentralisiertes Benutzermodell. In diesem Sinne schlagen wir ein Generic Context-Aware Model (GCAPM) in einer Peer-to-Peer (P2P) Umgebung vor. Wir veranschaulichen die Verwendung des Modells im Rahmen einer Fallstudie mit Fokus auf die Abfrageerweiterung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40173-2_29 859719d34d4e5a2f3e0aaab3dd6097d6;de;;;7.3.;;;Relationship Web: Spinning the Web von bahnbrechend zu semantischer Analyse Subjekt und Objekt vermitteln wenig ohne ein Verb und ein paar Präpositionen. Auf die Subjekt-Prädikat-Objekt-Repräsentation reduziert, vermitteln Subjekt und Objekt ohne Prädikat wenig. Entitäten sind lahm ohne die Beziehungen, die ihnen Bedeutung zuordnen. Konzepte können ohne Kontext oder Diskursbereich ziemlich mehrdeutig sein. Bezeichnungen und Begriffe werden sinnvoll, wenn wir sie mit einem konzeptionellen Modell oder einer Ontologie verbinden. Bei der Semantik geht es um Bedeutung und Verständnis, und Beziehungen sind das Herzstück der Semantik. Und mit Semantik können wir eine leistungsfähigere Suche erstellen, Interoperabilität zwischen heterogenen und multimodalen Inhalten erreichen und leistungsfähigere Analyse- und Erkennungsfunktionen entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87877-3_2 b1cc86a0408ee02e563f256bdd801567;de;;;7.3.;;;Persönliche Identifizierung im Web mit elektronischen Personalausweisen und einem persönlichen Identitätsanbieter Dieses Papier stellt ein neues Paradigma für die Implementierung der Authentifizierung von Personen in Websitzungen vor. Heutzutage haben viele Länder elektronische Personalausweise (eID-Token) zur persönlichen Identifizierung ihrer Bürger eingesetzt, diese sind jedoch noch nicht gut in die Authentifizierung von Personen in Websitzungen integriert. Wir haben das Konzept des Personal Identity Provider (PIdP) verwendet, um die Rolle zu ersetzen (oder zu ergänzen), die normalerweise institutionellen Identity Providern (IdPs) zukommt, bei denen es sich um vertrauenswürdige Dritte handelt, an die Dienstleister die Identifizierung und Authentifizierung ihrer Kunden delegieren. Durch die lokale Ausführung auf dem Computer eines Bürgers ist das PIdP-Paradigma gut geeignet, um seine eID-basierte Authentifizierung zu unterstützen. In diesem Papier beschreiben wir ein eID-basiertes Authentifizierungsprotokoll, das von einem PIdP verarbeitet wird, seine Implementierung und seine Integration in ein Produktionsszenario (eine campusweite, Shibboleth IdP-basierte Authentifizierungsinfrastruktur, die in der University of Aveiro verwendet wird).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-43826-8_12 e99d76fa988466b1d26b23e0ce61b12d;de;;;7.3.;;;IS-Reifemodelle des öffentlichen Sektors: Rechtspluralismus dringt in öffentliche Schulen ein Online-Anträge und die Bearbeitung von Steuerformularen, Führerscheinen und Baugenehmigungen sind Beispiele dafür, wo politische Aufmerksamkeit und Forschung bei den Bemühungen vereint wurden, den Reifegrad elektronischer Dienste zu kategorisieren. Weniger Aufmerksamkeit wurde Politikbereichen mit kontinuierlicher Online-Interaktion zwischen Bürgern und Öffentlichkeit zugemessen, wie beispielsweise im öffentlichen Bildungswesen. In diesem Papier verwenden wir eine überarbeitete Version des Reifegradmodells des Public Sector Process Rebuilding (PPR), um 200 Websites öffentlicher Grundschulen in Dänemark zu kartieren. Die Ergebnisse zeigen ein deutlich ungünstigeres Bild der Digitalisierung des öffentlichen dänischen Sektors im Vergleich zu dem hohen Stellenwert, den sie in den internationalen Benchmark-Studien erhalten hat. Dieses Papier zielt darauf ab, die Lücke zwischen dem vorherrschenden Umfang von Reifegradmodellen und der Häufigkeit der Interaktion zwischen Bürgern und dem öffentlichen Sektor zu schließen, und fordert eine stärkere Aufmerksamkeit für die Aktivitäten der Regierung, bei denen das Ausmaß und die Häufigkeit der Interaktion zwischen Bürgern und Regierung unsere Konzepte in Frage stellen der Reife.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22878-0_9 671201027fb19984405cc5193be0534e;de;;;7.3.;;;Beitrag zum Internet der Dinge Die schnelle Entwicklung vernetzter intelligenter Geräte, die mit Sensoren und Radiofrequenz-Identifikation ausgestattet sind und mit dem Internet verbunden sind, ermöglicht die Entstehung vieler neuer Anwendungen und die Neugestaltung traditioneller Systeme hin zu einem effektiveren Betrieb. Die Sensibilisierung von Doktoranden der Ingenieurwissenschaften für das Potenzial dieser neuen Welle in ihrer Forschungsarbeit ist ein entscheidendes Element ihrer Ausbildung. Mit diesem Ziel konzentrierte sich die Doktorandenkonferenz DoCEIS’13 auf technologische Innovationen für das Internet der Dinge und forderte die Beitragenden auf zu analysieren, auf welche Weise ihre technische und wissenschaftliche Arbeit zu diesem Paradigma beitragen oder davon profitieren könnte. Die Ergebnisse dieser einigermaßen erfolgreichen Initiative werden kurz analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37291-9_1 59bc027a4d4a3250a522fe936fd49fde;de;;;7.3.;;;IoT6 – Übergang in ein IPv6-basiertes IoT der Zukunft IoT6 ist ein Forschungsprojekt zum zukünftigen Internet der Dinge. Es zielt darauf ab, das Potenzial von IPv6 und verwandten Standards auszuschöpfen, um die aktuellen Mängel und die Fragmentierung des Internets der Dinge zu überwinden. Die wichtigsten Herausforderungen und Ziele von IoT6 sind die Erforschung, Gestaltung und Entwicklung einer hochskalierbaren IPv6-basierten serviceorientierten Architektur, um Interoperabilität, Mobilität, Cloud-Computing-Integration und Intelligenzverteilung zwischen heterogenen Smart-Things-Komponenten, -Anwendungen und -Diensten zu erreichen. Der vorliegende Artikel beginnt mit einer kurzen Einführung in die IPv6-Fähigkeiten für das Internet der Dinge und Informationen zum aktuellen Einsatz von IPv6 in der Welt. Weiter geht es mit einer Präsentation des IoT6-Architekturmodells und seines Konzepts der Service Discovery. Schließlich veranschaulicht es das Potenzial einer solchen IPv6-basierten Architektur, indem es die Integration von Gebäudeautomationskomponenten unter Verwendung von Legacy-Protokollen darstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38082-2_14 218cd3525a3d2e362cdb9580e24f801e;de;;;7.3.;;;Informationsdienstmodell mit Unterstützung für mobile Agenten Mobile Agent ist eine Art neuartige Agententechnologie, die sich durch mobiles, intelligentes, paralleles und asynchrones Computing auszeichnet. In diesem Papier wird zuerst ein neues Informationsdienstmodell vorgestellt, das die Technologie mobiler Agenten anwendet, und dann wird ein experimentelles System DOLTRIA System beschrieben, das basierend auf dem Modell implementiert wird. Das vom WWW-Framework und Java implementierte DOLTRIA-System kann auf einer Reihe von Webservern nach relevanten HTML-Dokumenten suchen. Das Ergebnis von Experimenten zeigt, dass durch dieses Modell eine Leistungsverbesserung erreicht werden kann und sowohl die verstrichene Zeit als auch der Netzwerkverkehr deutlich reduziert werden.;-;-;-;https://link.springer.com/article/10.1007/BF02948799 26a41e0f873198f2d4355e40e7beca46;de;;;7.3.;;;CLUENET: Aktivieren der automatischen Videoaggregation in Social Media-Netzwerken Ähnliche Inhalte, Duplikate und Segmente von Videos gibt es in sozialen Netzwerken im Überfluss. Die Abfrage und Aggregation all dieser Daten mit hoher Qualität und personalisiertem Bedarf stellt jedoch immer größere Herausforderungen dar. In der Arbeit schlagen wir einen neuartigen Rahmen für die automatische Aggregation semantisch ähnlicher und kontextbezogener Videos in einem sozialen Netzwerk vor, das CLUENET genannt wird. Wir verwenden eine proaktive Methode, um rundum wertvolle Hinweise zu sammeln und zu integrieren, die ein Video zentriert sind, um die Aggregationsqualität zu verbessern. Unter Verwendung dieser Hinweise baut das CLUENET ein Hinweisnetzwerk für die Videoaggregation auf, das Sequenzen und ähnliche Inhalte von Videos extrahiert und verwendet dynamische Petri-Netz (DPN) zur Steuerung der Videoaggregation und des Datenvorabrufs zur Anpassung an die personalisierten Anforderungen verschiedener Benutzer. Außerdem werden die Hauptmerkmale dieses Frameworks und seine Implementierung unter Verwendung modernster Technologien vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17829-0_26 8b47aa4dd93fcb1b7c1a7c0bd083ed3e;de;;;7.3.;;;Methoden zum Abrufen von Informationen für die automatisierte Wiederherstellung der Rückverfolgbarkeit Die potenziellen Vorteile der Rückverfolgbarkeit sind bekannt und dokumentiert, ebenso wie die Undurchführbarkeit der manuellen Wiederherstellung und Pflege von Rückverfolgbarkeitslinks. Tatsächlich ist die manuelle Verwaltung von Rückverfolgbarkeitsinformationen eine fehleranfällige und zeitaufwendige Aufgabe. Folglich wird trotz der erzielbaren Vorteile eine explizite Rückverfolgbarkeit selten hergestellt, es sei denn, es gibt einen behördlichen Grund dafür. Es wurden umfangreiche Anstrengungen unternommen, um die explizite Verbindung von Software-Artefakten in der Software-Engineering-Community (sowohl in der Forschung als auch im kommerziellen Bereich) zu verbessern. Vielversprechende Ergebnisse wurden mit Information Retrieval (IR)-Techniken zur Rückverfolgbarkeitswiederherstellung erzielt. IR-basierte Rückverfolgbarkeits-Wiederherstellungsverfahren schlagen eine Liste von Kandidaten-Rückverfolgbarkeits-Links basierend auf der Ähnlichkeit zwischen dem in den Software-Artefakten enthaltenen Text vor. Softwareartefakte haben unterschiedliche Strukturen und das gemeinsame Element vieler von ihnen sind die Textdaten, die meistens die informelle Semantik von Artefakten erfassen. Quellcode enthält beispielsweise große Mengen an Textdaten in Form von Kommentaren und Bezeichnern. Folglich sind IR-basierte Ansätze sehr gut geeignet, um das Problem der Rückverfolgbarkeitswiederherstellung anzugehen. Die Vermutung ist, dass Artefakte mit hoher Textähnlichkeit gute Kandidaten sind, um aufeinander zurückgeführt zu werden, da sie mehrere Konzepte teilen. In diesem Kapitel geben wir einen Überblick über einen allgemeinen Prozess der Verwendung von IR-basierten Methoden zur Wiederherstellung von Traceability-Links und einige davon detaillierter: Wahrscheinlichkeits-, Vektorraum- und Latent Semantic Indexing-Modelle. Schließlich diskutieren wir gängige Ansätze zur Messung der Leistung von IR-basierten Methoden zur Rückverfolgbarkeitswiederherstellung und die neuesten Fortschritte bei Techniken zur Analyse von Kandidatenlinks.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-2239-5_4 838525d1756e8c1f2d215272a17c3e44;de;;;7.3.;;;Eine verbesserte Bandbreitennutzungsmethode für den IEEE 802.11e-Standard über Wireless LAN Derzeit können Menschen über WLAN Informationen sammeln und Ressourcen im Internet teilen. Das von drahtloser Technologie unterstützte Voice over Internet Protocol (VoIP) hat den Internetzugang vielseitiger und flexibler als je zuvor gemacht. Je mehr Sitzungen jedoch für die Kommunikation eingerichtet werden, desto länger ist die Übertragungsverzögerung und desto höher ist die Paketverlustrate. In diesem Papier wird ein verbesserter Ansatz zur Bandbreitennutzung vorgeschlagen, der auf dem IEEE 802.11e-Standard entwickelt wurde. Experimentelle Ergebnisse zeigen, dass dieser Ansatz den Durchsatz eines Systems im Vergleich zu 802.11b und anderen Schemata deutlich verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74784-0_19 68bd39ad6e50895b2dff99af493cee7c;de;;;7.3.;;;WebCom: Ein webbasierter Freiwilligencomputer Das World Wide Web hat sich zur größten Einzelquelle für Rechenleistung entwickelt. Durch die Kopplung von CPU-Zeit, die von Freiwilligen gespendet wurde, haben Forscher und die Industrie die Möglichkeit, Anwendungen auszuführen, die traditionell in der Domäne der Supercomputer-Benutzer waren. In diesem Beitrag wird ein solcher Versuch vorgestellt, ein System zu schaffen, das diese Fülle an Rechenleistung nutzen kann. Es basiert auf einem inhärent parallelen Rechenmodell. Die Konzepte hinter dem Rechenmodell werden erklärt und die Implementierungsdetails werden veranschaulicht. Das Papier präsentiert Ergebnisse aus verschiedenen Tests dieser Implementierung.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008163024500 3bf5f68bb06c80ee6f78403a52b81a24;de;;;7.3.;;;Interoperabilität und Integration unabhängiger heterogener verteilter Datenbanken über das Internet Eine Hauptherausforderung für unabhängige Datenbanken, die über das Internet verteilt werden, besteht darin, Mechanismen für die Interoperabilität bereitzustellen, um das Auffinden von Ressourcen, den Zugriff, die verteilte Verarbeitung und die Integration zu erleichtern. Zusätzliche Herausforderungen entstehen, wenn eine semantische Heterogenität der zugrunde liegenden Ontologien in Verbindung mit den Datenbanken besteht. Dieses Papier entwickelt einen Mechanismus, der die Interoperabilität unabhängiger verteilter Datenbankanwendungen erleichtert, der in Situationen nützlich ist, in denen Datenbanken separat weiterentwickelt wurden, aber in denen semantische Post-hoc-Zuordnungen zwischen Schemas möglich sind. Eine solche Funktionalität kann durch Speichern von Metadaten in einem gemeinsamen Format wie RDF erreicht werden, wodurch die Datenbanken entdeckt und durch das Durchsuchen von Registern, die Details der Datenbankobjekte enthalten, aufgerufen werden können. Sobald Interoperabilität erreicht ist, beschreiben wir eine flexible benutzerzentrierte Methode zur Integration und Wissensentdeckung aus semantisch heterogenen Daten, basierend auf der Spezifikation von Ontologie-Mappings aus verteilten lokalen Datenquellen zu einer abgeleiteten Ontologie des Diskurses.;-;-;-;https://link.springer.com/chapter/10.1007/11788911_23 ac834d598d6423a794297ea65a265f6a;de;;;7.3.;;;Social Media Fragen stellen: Eine Entwicklungsland-Perspektive In den letzten zehn Jahren sind Social Networking Sites (SNS) entstanden, und Forscher untersuchen die nützlichen Anwendungen dieser Technologie in verschiedenen Bereichen neben ihrem Freizeitwert. Die allgegenwärtige Präsenz von SNS hat es uns ermöglicht, maßgeschneiderte Informationen nahtlos von unseren Bekannten zu erhalten. Es gab viele Arbeiten, die die Arten und Themen von Fragen analysierten, die Menschen in diesen Netzwerken stellen und warum. Auch Themen wie die Motivation zur Beantwortung solcher Anfragen, die Integration der traditionellen Suchmaschinen und SNS sind gut untersucht. In dieser Forschung konzentrieren wir uns auf den Einsatz dieser Technologie in unterentwickelten Teilen der Welt und die neuen Türen, die sie ihren Bewohnern in Bezug auf die Informationsbeschaffung geöffnet hat. Bei der Analyse von 880 Statusmeldungen, die von einem weit verbreiteten SNS gesammelt wurden, haben wir festgestellt, dass die Nichtverfügbarkeit und Unzulänglichkeit von Informationen im Internet in Entwicklungsländern eine wichtige Rolle spielen, um Benutzer zu motivieren, SNS zum Abrufen von Informationen zu verwenden. Anhand einer strukturierten Befragung von 328 Personen haben wir versucht, die Unterschiede zwischen Social Search und traditioneller Websuche herauszustellen. Unsere statistische Analyse findet die Korrelationen zwischen verschiedenen relevanten Parametern und liefert Erkenntnisse, die bei der Entwicklung einer Anwendung für die SNS-basierte Suche berücksichtigt werden müssen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-14379-8_10 88513815ad0690afc5972ca084e55c72;de;;;7.3.;;;Eine empirische Studie zu Faktoren im Zusammenhang mit dem Beschwerdeverhalten von Verbrauchern Dieses Papier konzentriert sich auf Faktoren, die mit der Tendenz zum Beschwerdeverhalten von Verbrauchern im Internet zusammenhängen. Die aktuelle Literatur aus dem In- und Ausland konzentriert sich auf die Verbesserung der Zufriedenheit und Loyalität von Verbrauchern, während es noch relativ wenige Untersuchungen zu Verbraucherunzufriedenheit und Beschwerdeverhalten gibt. Basierend auf der Analyse der Tendenz des Verbraucherbeschwerdenverhaltens im Internet diskutiert dieser Artikel die Faktoren, die mit dem Beschwerdeverhalten von Verbrauchern zusammenhängen. Hypothesentest der Faktoren mit Hilfe des Strukturgleichungsmodells, und das Modell wurde von der LISREL-Software modifiziert und kam zu dem Schluss, dass einige Faktoren mit dem Beschwerdeverhalten von Verbrauchern im Internet zusammenhängen. Die Forschung zeigt, dass die Faktoren, die aus Online-Verbrauchereigenschaften, Produkteigenschaften, Verbrauchereinstellung zu Beschwerden, Kundenzufriedenheit und Einkaufserlebnis bestehen, einen positiven Einfluss auf die Tendenz zum Beschwerdeverhalten von Internetnutzern haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75466-6_43 2dd1e1e6036d0795f3e973ca206f09ba;de;;;7.3.;;;Analyse digitaler Dokumente Während sich die klassische Dokumentenanalyse auf Printmedien konzentriert hat, wird heute ein immer größerer Teil der Dokumente von vornherein in digitaler Form generiert. Solche „digital geborenen Dokumente“ reichen von reinen Textdokumenten wie E-Mails bis hin zu komplexeren Formularen wie PDF-Dokumenten und Webdokumenten. Einerseits macht die Existenz der digitalen Kodierung von Dokumenten in den meisten Situationen das Scannen, die Bildverarbeitung und die Zeichenerkennung überflüssig (eine bemerkenswerte Ausnahme ist die vorherrschende Verwendung von in Bilder eingebettetem Text für Webdokumente, wie in Abschnitt „Analyse von Text in Webbildern“). Andererseits bleiben viele übergeordnete Verarbeitungsaufgaben aufgrund der Tatsache, dass der Designzweck fast vorhandener digitaler Dokumentencodierungssysteme (dh HTML, PDF) die Anzeige oder das Drucken für den menschlichen Gebrauch ist, nicht der Informationsaustausch auf Maschinenebene und Extraktion. Daher ist immer noch ein erheblicher Verarbeitungsaufwand für die automatische Informationsextraktion, Indizierung und Inhaltsneuverwendung aus solchen Dokumenten erforderlich, und bei diesem Prozess bestehen viele Herausforderungen. In diesem Kapitel werden die Schlüsseltechnologien für die Verarbeitung digitaler Dokumente detailliert beschrieben, wobei der Schwerpunkt auf der PDF- und Web-Dokumentenverarbeitung liegt.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-0-85729-859-1_26 02f2ada27720f6765b50794e63b4d3f3;de;;;7.3.;;;Automatische Erkennung von Nachrichten-Webseiten Die Informationen im World Wide Web sind mit großen Mengen an Nachrichteninhalten überfüllt. Das Filtern, Zusammenfassen und Klassifizieren von Nachrichten-Webseiten ist zu einem heißen Forschungsthema geworden, das auf nützliche Nachrichteninhalte abzielt. Die genaue Identifizierung von Nachrichten-Webseiten ist ein entscheidendes Problem bei diesen Forschungsthemen. Um dieses Problem zu lösen, schlägt dieser Artikel ein automatisches Erkennungsverfahren für Nachrichten-Webseiten vor, das auf einer Kombination von URL-Attributen, Strukturattributen und Inhaltsattributen basiert. Unsere experimentellen Ergebnisse zeigen, dass diese Methode eine hohe Genauigkeit von über 96% bei der Erkennung von Nachrichten-Webseiten bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69304-8_52 f0217d0967b95d9a82f0fac9132f7422;de;;;7.3.;;;WebSight: Die Verwendung der rasterbasierten Schnittstelle zur Vermittlung des Layouts von Webseiten in einer nicht-visuellen Umgebung Der Zugriff auf Webinhalte, einschließlich des Layouts von Webseiten, ist derzeit für sehbehinderte Menschen eingeschränkt. Im Allgemeinen sind Internetinhalte für sehende Benutzer konzipiert und erfordern Benutzer ohne diese Anpassungsfähigkeit (Edwards, 1994). Die nicht-visuellen Interaktionsmethoden von Screenreadern sind oft seriell und mühsam. In diesem Beitrag stellen wir das Design und die Evaluierung von WebSight vor, einem sprechenden Browser, der das Layout von Webseiten für Blinde vermittelt. WebSight ist ein Plug-in für Internet Explorer und verwendet eine universelle 3X3-Grid-basierte Schnittstelle (Kamel, 2002), um blinden Menschen bei der Visualisierung von Webinhalten in Bezug auf ihre absoluten und relativen Positionen zu helfen. Jede Zelle des Gitters enthält ein virtuelles 3X3-Untergitter mit neun eindeutigen Positionen. Wir führten ein Experiment durch, bei dem sechs blinde und sechs sehende Personen durch das Layout einer bestimmten Webseite navigierten. Die Studie zeigt, dass die Verwendung der absoluten und relativen Position in Verbindung mit einer rasterbasierten Schnittstelle es blinden Benutzern ermöglicht, ein mentales Modell des Seitenlayouts zu erstellen, das mindestens so gut wie sehende Benutzer ist. Darüber hinaus legen die Ergebnisse der Studie nahe, dass die gitterbasierte Schnittstelle ein universeller Mechanismus ist, der den Prozess der Erstellung mentaler Modelle von Layout-Designs verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39191-0_72 4b6748f0a68ad523c4823bd69bff1f98;de;;;7.3.;;;Fuzzy-Logic-Steuerung in Kommunikationsnetzwerken Das Problem der Netzüberlastungskontrolle bleibt ein kritisches Thema und hat eine hohe Priorität, insbesondere angesichts der erhöhten Nachfrage, das Internet für zeit-/verzögerungsempfindliche Anwendungen mit unterschiedlichen Anforderungen an die Dienstgüte (QoS) zu nutzen (z. B. Voice over IP, Videostreaming, Peer -to-Peer, interaktive Spiele). Trotz der langjährigen Forschungsbemühungen und der großen Anzahl unterschiedlicher vorgeschlagener Regelungsverfahren gibt es noch keine allgemein akzeptablen Lösungen zur Überlastungsregelung. Somit leisten diese selbst mit den von verschiedenen Forschern verwendeten klassischen Steuerungstechniken immer noch nicht genügend Leistung, um die Dynamik und die Nichtlinearitäten der TCP/IP-Netzwerke zu steuern und somit den vielfältigen Anforderungen des heutigen Internets gerecht zu werden. Angesichts der Notwendigkeit, solch wichtige Attribute des gesteuerten Systems zu erfassen, ist die Entwicklung robuster, intelligenter Steuerungsmethoden erforderlich. Folglich suchen eine Reihe von Forschern nach alternativen nicht-analytischen Steuerungs- und Modellierungsschemata, die in der Lage sind, diese Schwierigkeiten zu bewältigen, um effektive, robuste Techniken zur Überlastungssteuerung als Alternative (oder Ergänzung) zu herkömmlichen Steuerungsansätzen zu entwickeln. Diese Schemata verwenden eine Fuzzy-Logik-Steuerung (eine wohlbekannte Computational Intelligence-Technik). In diesem Kapitel diskutieren wir zunächst die Schwierigkeit des Problems der Überlastungssteuerung und überprüfen die derzeit verwendeten Steuerungsansätze, bevor wir die Nützlichkeit der auf Computerintelligenz basierenden Steuerung begründen. Anschließend veranschaulichen wir durch eine Reihe von Beispielen Stausteuerungsverfahren basierend auf Fuzzy-Logik-Steuerung. Abschließend werden noch einige abschließende Bemerkungen und Anregungen für die weitere Arbeit gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01533-5_8 1bb9ca719160e010b1728f4483e3caa6;de;;;7.3.;;;Wissensmanagementsystem basierend auf Web 2.0 Technologien Die meisten Forschungsarbeiten zu Wissensmanagementsystemen haben sich mit Wissensrepräsentation, -speicherung und -abruf befasst. Die Benutzerinteraktion hat jedoch unter den gleichen Einschränkungen gelitten, denen die meisten aktuellen webbasierten Systeme ausgesetzt sind. Web 2.0-Technologien bringen völlig neue Elemente mit sich, die das Entwerfen von Benutzeroberflächen ähnlich denen ermöglichen, die in Windowing-Umgebungen aktueller Desktop-Plattformen gebaut werden könnten. Diese Technologien eröffnen neue Möglichkeiten zur Verbesserung der Benutzererfahrung bei der Arbeit mit webbasierten Anwendungen. Dieses Kapitel zeigt, wie Web 2.0-Technologien verwendet werden könnten, um die Benutzerinteraktion in einem Wissensmanagementsystem zu gestalten. Die vorgestellten Details könnten nützlich sein, um die Online-Interaktion mit webbasierten Unterstützungssystemen (WSS) in anderen Anwendungsdomänen zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84882-628-1_13 98c1de3394c6333a2b273cab42766533;de;;;7.3.;;;Charakterisierung von Web-Syndication-Verhalten und -Inhalten Wir erleben eine weit verbreitete Web-Syndication-Technologie wie RSS oder Atom für eine zeitnahe Bereitstellung von häufig aktualisierten Webinhalten. Fast jedes persönliche Weblog, Nachrichtenportal oder Diskussionsforum verwendet heutzutage RSS/Atom-Feeds zur Verbesserung;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24434-6_3 9c35d144b89966053ecfc31910213cbb;de;;;7.3.;;;Ein PDDL-basiertes Tool für die automatische Zusammenstellung von Webdiensten Eine der Motivationen für die Forschung zu semantischen Webdiensten besteht darin, Webdienstoperationen automatisch zusammenzustellen, um bestimmte Probleme zu lösen. Die Idee, zu diesem Zweck KI-Planungssoftware zu verwenden, wurde in mehreren Veröffentlichungen vorgeschlagen. Der vorliegende Beitrag folgt diesem Ansatz, argumentiert jedoch, dass die Vielfalt der Webservice-Domänen am besten durch eine flexible Kombination komplementärer Argumentationstechniken und Planungssysteme adressiert wird. Wir stellen ein Tool vor, das Webservice-Kompositionsprobleme in KI-Planungsprobleme transformiert und an die für die jeweilige Planungsaufgabe am besten geeigneten Planer delegiert. Als Übertragungsformat nutzt das Tool PDDL, eine Sprache, die von zahlreichen Planungs-Engines unterstützt wird. Der vorliegende Beitrag beschreibt das Tool und seine Strategien zur Bewältigung der Probleme unvollständiger Informationen, verschiedener Arten von Webservice-Indeterminismus, Stateful Services und strukturell reichen Zielspezifikationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30122-6_11 18fb8614f42344a6ad4114bb149e6ef0;de;;;7.3.;;;Dynamische Web-Informationssuche mit eigennützigen Agenten In diesem Beitrag wird ein dynamischer Ansatz zur Informationssuche vorgeschlagen. Zur Darstellung des angesprochenen Problems wird Spieltheorie und genauer Normalform verwendet. Wir modellieren das Thema der Suche nach Informationen im Internet als ein Spiel, das von einer Reihe eigennütziger Agenten gespielt wird, die darauf abzielen, in kurzer Zeit relevante Webseiten zu erreichen. Wir betrachten eine reine Strategie, eine gemischte Strategie bzw. eine vollständig gemischte Strategie für drei Arten von Spielern. Schließlich präsentieren wir die experimentellen Ergebnisse, die wir durch die Anwendung unseres Ansatzes auf die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-56535-4_41 9b715350064df90ab9cb8acb846c0e7b;de;;;7.3.;;;Die Geschichte der Informatik organisieren Dieser Aufsatz versucht, einige der „Lessons Learned“ aus den Vierteljahrhunderterfahrungen des Charles Babbage Institutes (1980-heute) bei der Organisation der Geschichte der Informatik herauszufiltern. Es stützt sich auf die (jüngere) Erfahrung des Autors als CBI-Direktor, Gespräche mit Arthur Norberg, dem langjährigen Gründungsdirektor des CBI, und Vorträge auf einem speziellen Symposium zur Bewertung der Rolle des CBI in der Computergeschichte, das in der;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03757-3_1 c8443e53b3421109feac0ff1e29ce346;de;;;7.3.;;;Roadmapping der zukünftigen E-Government-Forschung Globale elektronische Märkte, virtuelle Organisationen, virtuelle Identitäten, virtuelle Produkte und Dienstleistungen sowie internetbezogene Kriminalität gewinnen an Bedeutung und Bedeutung. Was sind die Rollen, Verantwortlichkeiten und Grenzen der Regierung in einer zunehmend körperlosen und grenzenlosen Welt? Das Internet spielt eine zentrale Rolle im Transformationsprozess von traditionellen Regierungen hin zu modernen und innovativen Regierungen, die den Anforderungen einer Informationsgesellschaft entsprechen. Basierend auf den Ergebnissen des eGovRTD2020-Projekts, das darauf abzielt, zentrale Forschungsherausforderungen zu identifizieren und ein Modell für eine ganzheitliche Regierung mit Horizont 2020 zu implementieren, erläutert dieses Papier die Notwendigkeit, das Internet und insbesondere die Rolle und Verantwortung der Regierung darin zu untersuchen und zu verstehen. Darüber hinaus bietet das Papier eine Forschungs-Roadmap, die detailliert beschreibt, wie bestimmte themenbezogene Forschungsfragen angegangen werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75494-9_57 4250a5443b2c073713329540ddff8048;de;;;7.3.;;;Verbesserung der Benutzererfahrung im Web durch auf Mikroformaten basierende Empfehlungen Die vielfältige Art und Weise, wie wir auf die im Web verfügbaren Informationen zurückgreifen, um immer mehr Aufgaben des täglichen Lebens zu lösen, hat zu der Frage geführt, ob uns Maschinen helfen können, die Datenmengen zu analysieren und uns das Interessante näher zu bringen. Diese Art von Aktivität erfordert am häufigsten, dass Maschinen vom Menschen definierte Semantik verstehen, was glücklicherweise im gegenwärtigen Web durch semantisches Markup leicht durchgeführt werden kann. Unser Ziel ist es, einen flexiblen User Agent zu entwickeln, der das Verhalten eines Benutzers im Web versteht und – auf Basis von Mikroformaten – die irrelevanten Daten herausfiltert und dem Benutzer nur die Informationen präsentiert, die ihn am meisten interessieren, und dies dabei so diskret wie möglich: der Benutzer benötigt keine Voreinstellungen, kein explizites Feedback.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00670-8_24 e5eadfb55726289311cc966de983b4f2;de;;;7.3.;;;Ein Modell für ein webbasiertes Lernsystem Die Wissensvermittlung wird derzeit durch E-Learning verbessert, das aus einer Kombination von Lehrmethoden und computergestützten Werkzeugen besteht. In letzter Zeit haben E-Learning-Umgebungen damit begonnen, Web-Technologie zu nutzen, um eine einfache, flexible, verteilte und offene Plattform bereitzustellen. In diesem Beitrag schlagen wir ein Modell für ein E-Learning-System vor, das darauf abzielt, sowohl Kursinhalte als auch Lehrmaterialien zu teilen, um den Studierenden ein einziges und einheitliches Set von zu erlernenden Konzepten bereitzustellen und aktives Lernen zu fördern, indem die Konstruktion Lehrveranstaltungen, die sowohl inhaltlich als auch didaktisch auf die Bedürfnisse und Fähigkeiten der einzelnen Studierenden zugeschnitten sind. Ein erster Open-Source-Prototyp basierend auf dem vorgeschlagenen Modell wurde implementiert, um das Modell zu validieren.;-;-;-;https://link.springer.com/article/10.1007/s10796-006-9014-3 2856a9089ae0fcbd7c0b9cfb4a3cbfb9;de;;;7.3.;;;Ein netzwerkbasiertes Replay-Portal Auf Kabelmodems basierende Technologien nutzen derzeit die Kapazität eines einzelnen Fernsehkanals, um 25–30 Mbit/s Downstream für den Internetzugang anzubieten. Mit dem Aufkommen des digitalen Fernsehens und den erheblichen Bandbreiteneinsparungen, die es durch die Videokomprimierung erzielt, wird erwartet, dass die Anbieter die für den IP-Verkehr verfügbare Zugangskapazität erhöhen und gleichzeitig den Großteil der Bandbreite für den primären Dienst des Rundfunkfernsehens beibehalten. Motiviert durch die zunehmende Popularität von On-Demand-Streaming-Medien hinterfragt unsere Arbeit diese Unterscheidung zwischen IP und Broadcast und schlägt ein Hybridmodell vor, das das bekannte Broadcast-Modell mit den Annehmlichkeiten des On-Demand-Fernsehens über IP kombiniert. In diesem Papier diskutieren wir die potenziellen Vorteile dieses Ansatzes und einige der damit verbundenen schwierigen technischen Herausforderungen. Wir schlagen eine Architektur netzwerkbasierter Portale vor und skizzieren die Arten von Diensten, die wir uns vorstellen, die sie ermöglichen wird. Darüber hinaus beschreiben wir das Design und die Implementierung eines Wiedergabedienstes, der innerhalb dieser Architektur arbeitet, um ein neues On-Demand-TV-Erlebnis zu bieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35522-1_31 d8232a77cead46dd5ca67c9e055f9396;de;;;7.3.;;;Umweltinformationen für die Öffentlichkeit Nach der Einrichtung des Österreichischen Ozonmessnetzes im April 1994 war schnell klar, dass die landesweit gesammelten Informationen allen Interessierten zur Verfügung gestellt werden sollten. Für diese Aufgabe wurde mit dem World Wide Web eine akzeptable Technologie gefunden. Um zu demonstrieren, wie diese neue Technologie genutzt werden kann, um über Metainformationen auf aktuelle Umweltinformationen zuzugreifen, entwickelte das Österreichische Forschungszentrum Seibersdorf einen WWW-Prototyp.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34951-0_17 55aafc3aa128f0b596a16d964ce7fbaa;de;;;7.3.;;;Eine Vergleichsstudie zu Clustering-Algorithmen für Microblog-Posts Clustering ist ein beliebter unüberwachter Lernansatz für die Themenanalyse im Text Mining. In diesem Artikel führen wir eine Vergleichsstudie von Clustering-Algorithmen für Microblog-Posts durch, einschließlich Gewichtung und Programmiermodell. Unsere experimentellen Daten werden von Sina Weibo in China gecrawlt. Sie sind die 74.662 Microblogs mit 14 Themen rund um Internet-Technologie. Zunächst führen wir die Vorverarbeitung dieser Microblog-Posts durch. Dann schlagen wir einen auf manuellen Stichproben basierenden dynamischen inkrementellen Clustering-Algorithmus (MS-DICA) vor, um die Thementhreads aus den von uns gecrawlten Microblogs zu extrahieren. Wir bewerten den vorgeschlagenen Algorithmus unter vier Aspekten. Darüber hinaus werden experimentelle Vergleiche hinsichtlich Genauigkeit und Effizienz mit dem traditionellen k-Means-Algorithmus durchgeführt. Unsere experimentellen Ergebnisse zeigen, dass die vorgeschlagene MS-DICA beim Thema Fadenextraktion wirksam ist. Seine Genauigkeit kommt dem traditionellen k-Means-Algorithmus nahe, und die Laufgeschwindigkeit verbessert sich um mehr als das Fünffache. Darüber hinaus kann das MapReduce-Programmiermodell in der verteilten Rechenplattform Hadoop, das parallel zum k-Means-Algorithmus ausgeführt werden kann, zur Beschleunigung des Clusters.;-;-;-;https://link.springer.com/article/10.1007/s10586-016-0589-2 0857314a78befd8ff90e19be6d72ce9c;de;;;7.3.;;;Ein personalisiertes intelligentes Nachhilfesystem für Grundschulmathematik basierend auf Perl Mit der Popularität der Internet-Technologie wird es für Benutzer schwieriger, ihre benötigten Informationen aus einem so enormen Informationsraum abzurufen. So entstand das Thema Informationsüberflutung. Um das Problem zu lösen, entstand ein Empfehlungssystem. Dieser Beitrag stellt das personalisierte intelligente Tutoring-System vor, das auf dem inhaltsbasierten Filteralgorithmus basiert. Das System wird auf Basis von Perl implementiert, mit den Vorteilen, dass Entwickler die Programmlogik beachten, ohne sich um Datenspeicherung, Betriebsregeln und andere Details zu kümmern. Und die Verwendung des Open-Source-Frameworks Mojolicious kann den Entwicklungszyklus erheblich beschleunigen. Die Funktion der personalisierten Informationsempfehlung eines intelligenten Tutorsystems wird erreicht und den Nutzern personalisierte Informationen zur Verbesserung ihrer Lerneffizienz empfohlen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-41009-8_66 7ab5fde3b58dc5e8d5f24764700757c2;de;;;7.3.;;;Agenten für die Ermittlung von Hypermedia-Informationen In diesem Beitrag wird ein Multi-Agent-System für verteilte Informationsermittlung und -abfrage vorgestellt. Data Mining ermöglicht die Extraktion von Hypermedia-Informationen aus heterogenen Informationsquellen, die im World Wide Web existieren. Das Ziel besteht darin, ein verteiltes deduktives Datenbanksystem von Metainformationen über diese Quellen unter Verwendung einer offenen Architektur und einer erweiterbaren Ontologie deskriptiver Attribute aufzubauen. Jede Komponentendatenbank wird von einem Informationsquellenagenten verwaltet. Abfragen im Prolog-Stil, die über einen Benutzeragenten eingegeben werden, drücken Benutzeranfragen nach interessanten Informationselementen aus. Die Abfragebewertung wird unter Verwendung zwischengeschalteter Architekturschichten von Vermittler-, Matchmaker- und Deskriptor-Agenten durchgeführt, die ein intelligentes Abfrage-Routing ermöglichen, das ein kooperatives Antwortverhalten zeigt.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0053672 756ecec349684bc179a5f25396550e1f;de;;;7.3.;;;Sicherheit und Datenschutz in den Clouds: Aus der Vogelperspektive In den letzten Jahren hat sich das sogenannte „Cloud Computing“ zu einem großen Thema in der Informatik und Informationssicherheit entwickelt. Im Wesentlichen geht es um die Bereitstellung von Informationstechnologie als Dienstleistung, indem die Vermietung von Software, Rechenleistung und Speicher ermöglicht wird. In diesem Beitrag geben wir einen allgemeinen Überblick über die Probleme, die das Aufkommen des Cloud Computing als Paradigma sowohl aus Informatik- als auch aus philosophischer Sicht aufwirft. Wir diskutieren (1) das Ideal und die Grenzen der verschlüsselten Datenverarbeitung, (2) die Notwendigkeit, physische Einschränkungen in virtualisierten Infrastrukturen zu simulieren, (3) das persönliche Äquivalent von Cloud Computing in Form einer ausgelagerten Identität und (4) die Möglichkeiten der Anbindung von Richtlinien und Fragen auf technischer Ebene durch einen neuen ethischen Ansatz, der als Informationsvorsorge bezeichnet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-0641-5_21 4819f4627ee103cfdb0e2425a4d0abd7;de;;;7.3.;;;Instanzerkennung und Schemaabgleich mit Anwendungen zur biologischen Deep Web Data Integration In diesem Whitepaper werden Data-Mining-basierte Techniken vorgestellt, die die Datenintegration über Deep-Web-Datenquellen hinweg ermöglichen. Wir zielen auf die Verarbeitung von Abfragen über voneinander abhängige Datenquellen ab. Daher müssen wir neben dem Input-Input- und Output-Output-Matching von Attributen auch den Input-Output-Matching berücksichtigen. Wir entwickeln Data-Mining-Techniken, um die Instanzen für die Abfrage von Deep-Web-Datenquellen aus den von der;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15120-0_12 4a5ba5f7673bafc28aebe015bcf8bde4;de;;;7.3.;;;Paradigmenwechsel: Lehren und Lernen in einer animierten, mit dem Internet verbundenen Welt Ein Haftungsausschluss als Teil einer Einführung in ein Thema ist vielleicht etwas amüsant. Aber genau das ist diese Einführung: ein Haftungsausschluss. Denken Sie einen Moment über das Dilemma des Schreibens über nach;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-1298-0_10 9a252314533801a9e4ee1f995f7c1e26;de;;;7.3.;;;Bioinformatische Werkzeuge zur Verbesserung der Kulturpflanzen Bioinformatische Ressourcen und Webdatenbanken sind für die effektivste Nutzung von genetischen, proteomischen, metabolomischen und phänomenalen Informationen, die für die Steigerung der landwirtschaftlichen Nutzpflanzenproduktivität wichtig sind, unerlässlich. Innovationen bei webbasierten Plattformen für Omics-basierte Forschung und die Anwendung solcher Informationen haben die notwendige Plattform geschaffen, um die molekularbasierte Forschung an Modellpflanzen sowie wichtigen Nutzpflanzen zu fördern. Die Kombination mehrerer webbasierter Omics-Sites und die Integration von Ergebnissen ist heute eine wichtige Strategie, um molekulare Systeme zu identifizieren, die vergleichende Genomik und die biologischen Eigenschaften vieler Arten fördern und die Genforschung und Funktionsanalysen beschleunigen. Die Übersicht beschreibt die jüngsten Fortschritte bei der Erfassung von Pflanzen-Omics-Daten zusammen mit relevanten Datenbanken und fortschrittlicher molekularer Technologie unter klaren biologischen Kategorien. Die Informationen sind in den Bereichen Molekularbiologie, DNA-basierte Ressourcen und Sequenzierung, RNA- und Variationsanalyse, Proteomik, Strukturproteine ​​und posttranslationale Modifikationen, Metabolomik, Phenom- und Pflanzenvergleichsanalysen aufgeführt. Tabellen relevanter Websites werden der Einfachheit halber unter ähnlichen Überschriften präsentiert, und die Anwendung von Bioinformationsdaten wird im Hinblick auf die mögliche Nutzung dieser Ressourcen zur Verbesserung der Kulturpflanzen überprüft. Schließlich wird eine lange Liste von Zukunftsperspektiven und noch zu versuchender Forschung aufgeführt, die es im Laufe der Zeit ermöglichen sollten, das volle Potenzial der Bioinformatik und deren Einsatz in Programmen zur Verbesserung der Kulturpflanzen auszuschöpfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-7028-1_2 01dbb7a3be8bc679ea59dbde22f21b13;de;;;7.3.;;;Aufbau eines chinesischen Meinungs-Element-Kollokations-Datensatzes mit Suchmaschine und Ontologie In diesem Beitrag präsentieren wir einen neuartigen Ansatz zur Erstellung eines Meinungselement-Kollokationsdatensatzes für die chinesische Sprache. Die Meinungselement-Kollokation ist eine Kollokation, deren Zusammensetzungswörter Meinungs-/Sentiment-Elemente enthalten. Der Datensatz ist in vielerlei Hinsicht nützlich für Opinion-Mining-Aufgaben. Eine Suchmaschine wird hauptsächlich deshalb als grundlegendes Werkzeug verwendet, weil sie uns helfen könnte, sowohl domänenspezifische als auch domänenunabhängige Kollokationspaare zu suchen, und gleichzeitig wird eine Ontologie als Ressource verwendet, da sie reichhaltige semantische Informationen zur Verfügung stellen kann uns, Kollokationen in domänenspezifische oder domänenunabhängige Typen zu klassifizieren. Das Tool und die Ressource werden kombiniert, um ein intelligentes System aufzubauen, das automatisch Daten aus dem Internet crawlen und extrahierte Kollokationen analysieren kann. Um die Qualität der extrahierten Kollokationen sicherzustellen, werten wir diese manuell aus. Die experimentellen Ergebnisse des öffentlichen Korpus des COAE2008 haben den Erfolg dieses Ansatzes in den vier Bereichen bewiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36337-5_34 5b88258979eb69d311b2994cc9a66f89;de;;;7.3.;;;IPv6-Bereitstellung, nicht nur ein Netzwerkproblem Das neue IPv6 und das aktuelle IPv4 werden noch viele Jahre nebeneinander existieren. Eine breite Palette von Techniken wurde entwickelt, um die Koexistenz zu ermöglichen und einen einfachen Netzübergang bereitzustellen. Eine an der IPv6-Umstellung beteiligte Organisation sollte sich nicht nur mit Netzwerkproblemen, sondern auch mit Endbenutzeranwendungen befassen. Auch die Verwaltung der verschiedenen Dienste muss überarbeitet werden. Dies ist insbesondere in akademischen Einrichtungen relevant, in denen Bildungs-, Produktions- und Forschungsnetzwerke im gleichen Umfeld zusammenleben. Dieses Dokument soll dem Leser ein umfassenderes und genaueres Bild über die IPv6-Übergangsverfahren vermitteln, die von den verschiedenen Universitätsmitgliedern durchgeführt werden können, um IPv6 reibungslos und erfolgreich einzuführen.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-31170-X_8 709bd62ff93963e52d9ca79176a08c52;de;;;7.3.;;;Online-Aktualisierungsstrategien für die inhaltsbasierte Feed-Aggregation Mit dem schnellen Wachstum von Datenquellen, Diensten und Geräten, die mit dem Internet verbunden sind, werden online verfügbare Webinhalte immer vielfältiger und dynamischer. Um die effiziente Verbreitung von sich entwickelnden und temporären Informationen zu erleichtern, veröffentlichen viele Webanwendungen ihre neuen Informationen als RSS- und Atom-Dokumente, die dann von RSS-Aggregatoren wie Feedly oder Yahoo! Nachrichten. Dieser Artikel befasst sich mit dem besonderen Problem der groß angelegten Aggregation hochdynamischer Informationsquellen, indem er sich auf den Entwurf optimaler Aktualisierungsstrategien für große Sammlungen von RSS-Feed-Dokumenten konzentriert. Zunächst führen wir zwei spezifische Qualitätsmaße für die RSS-Aggregation ein, die die Vollständigkeit der Informationen und die durchschnittliche Aktualität der Ergebnis-Feeds widerspiegeln. Anschließend schlagen wir eine Best-Effort-Strategie zur Feedaktualisierung vor, die im Vergleich zu allen anderen bestehenden Richtlinien mit der gleichen durchschnittlichen Anzahl von Aktualisierungen eine maximale Aggregationsqualität erreicht. Diese Strategie basiert auf spezifischen Online-Änderungsschätzungsmodellen, die nach einer eingehenden Analyse der zeitlichen Veröffentlichungsmerkmale einer repräsentativen Sammlung von realen RSS-Feeds entwickelt wurden. Die vorgestellten Methoden wurden implementiert und mit synthetischen und realen RSS-Feed-Datensätzen getestet.;-;-;-;https://link.springer.com/article/10.1007/s11280-014-0288-y d1fda89e0c093119138004be39353824;de;;;7.3.;;;Ermöglichung einer skalierbaren serviceorientierten Architektur mit semantischen Webservices Serviceorientierte Architekturen (SOAs) zielen darauf ab, die Fähigkeit von Organisationen zu verbessern, IT-Systeme schnell zu erstellen und neu zu konfigurieren, um neue und sich schnell ändernde Kundenservices zu unterstützen. Die Schlüsselidee besteht darin, sich von monolithischen Systemen zu Systemen zu bewegen, die als eine Reihe von interoperablen Komponenten konzipiert sind, um die Flexibilität und Wiederverwendung zu erhöhen. In diesem Whitepaper wird beschrieben, wie semantische Beschreibungen solcher Dienste die Prozesse zur Erkennung und Zusammenstellung von Diensten verbessern und zu einer dynamischeren und skalierbareren SOA führen können. Es wird ein Bericht über eine Fallstudie mit dem B2B-Gateway von BT Wholesale gegeben.;-;-;-;https://link.springer.com/article/10.1007/s10550-005-0041-2 d5134eb32f4bab0dfc00840080356cf1;de;;;7.3.;;;Ontologiegesteuerte Plattform für die Komposition von Webservices Das Entdecken und Zusammensetzen einzelner Webdienste in komplexere, aber neue und nützlichere Webprozesse ist eine wichtige Herausforderung. In diesem Papier stellen wir drei Techniken vor, um Web-Services (semi) automatisch in Web-Prozesse zu komponieren, indem wir ihre ontologischen Beschreibungen und Beziehungen zu anderen Services verwenden. Bei der automatischen Kompositionstechnik mit Interface-Matching werden die möglichen Kompositionen durch Überprüfung semantischer Ähnlichkeiten zwischen Schnittstellen einzelner Dienste erhalten. Dann werden diese Zusammensetzungen unter Berücksichtigung ihrer Dienstgüte (QoS) eingestuft und eine optimale Zusammensetzung ausgewählt. Bei der menschgestützten Komposition wählt der Benutzer in bestimmten Phasen einen Dienst aus einer Rangliste aus. Wir adressieren auch automatische Kompositionen in einem Peer-to-Peer-Netzwerk.;-;-;-;https://link.springer.com/article/10.1007/s10257-005-0055-9 994148585041fc347fdd3fb863ed0df8;de;;;7.3.;;;Ontologiespezifikation und Integration für Multimediaanwendungen Eine für multimediale Anwendungen konzipierte Ontologie soll die Integration von konzeptionellem und medialem Raum ermöglichen. Wir präsentieren M-OWL, eine neue Ontologiesprache, die diese Fähigkeit unterstützt. M-OWL unterstützt die explizite Definition von Medieneigenschaften für die Konzepte. Die Sprache wurde als Erweiterung von OWL, der Standard-Ontologiesprache für das Web, definiert. Wir haben ein neues Bayesian Network-basiertes Probabilistic Reasoning Framework mit M-OWL für die semantische Interpretation von Multimediadaten vorgeschlagen. Wir haben auch ein neues Modell für die Ontologieintegration vorgeschlagen, das auf der Ähnlichkeit der Konzepte im Medienbereich basiert. Es kann verwendet werden, um mehrere multimediale und traditionelle Ontologien zu integrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-37022-4_9 264bae2b6628056c30b8b0dc8da753a4;de;;;7.3.;;;Aufbau und Abfrage von semantischen Layern für Webarchive (erweiterte Version) Webarchivierung ist der Prozess des Sammelns von Teilen des Webs, um sicherzustellen, dass die Informationen für die zukünftige Nutzung aufbewahrt werden. Doch trotz der weltweit steigenden Zahl von Webarchiven bleibt das Fehlen effizienter und sinnvoller Explorationsmethoden eine große Hürde, um sie zu einer nutzbaren und nützlichen Informationsquelle zu machen. In diesem Papier konzentrieren wir uns auf dieses Problem und schlagen ein RDF/S-Modell und ein verteiltes Framework zum Erstellen von semantischen Profilen („Schichten“) vor, die semantische Informationen über den Inhalt von Webarchiven beschreiben. Eine semantische Schicht ermöglicht es, Metadateninformationen zu den archivierten Dokumenten zu beschreiben, sie mit nützlichen semantischen Informationen (wie Entitäten, Konzepten und Ereignissen) zu versehen und all diese Daten als Linked Data im Web zu veröffentlichen. Solche strukturierten Repositorys bieten erweiterte Abfrage- und Integrationsmöglichkeiten und machen Webarchive direkt von anderen Systemen und Tools nutzbar. Um ihre Abfragefähigkeiten zu demonstrieren, erstellen und fragen wir semantische Schichten für drei verschiedene Arten von Webarchiven ab. Eine experimentelle Auswertung hat gezeigt, dass eine semantische Schicht Informationsbedürfnisse erfüllen kann, die bestehende schlüsselwortbasierte Systeme nicht ausreichend befriedigen können.;-;-;-;https://link.springer.com/article/10.1007/s00799-018-0251-0 31bfc5df0ecb68d6dfc70c3ec6fdf6f7;de;;;7.3.;;;Beantwortung von Fragen über CLEF-Dokumentensammlungen hinaus Esfinge ist ein allgemeines portugiesisches Frageantwortsystem, das die im Web verfügbaren Informationen als zusätzliche Ressource bei der Suche nach Antworten verwendet. Die in diesem Papier beschriebenen Experimente zeigen, dass das Web bei den diesjährigen Fragen mehr geholfen hat als in den Vorjahren und dass die Nutzung des Webs zur Unterstützung von Antworten es dem System auch ermöglicht, richtig zu antworten oder zumindest relevante Dokumente für mehr Fragen zu finden. Bei dieser dritten Teilnahme am CLEF bestanden die Hauptziele darin, (i) zu prüfen, ob eine Datenbank mit Wort-Koop-Auftritten den Algorithmus zur Bewertung der Antworten verbessern könnte, und (ii) einen höheren Nutzen aus der Verwendung eines zuletzt verwendeten benannten Entitätserkenners zu ziehen Jahr unter suboptimalen Bedingungen. Die Ergebnisse im Jahr 2006 waren etwas besser als im Vorjahr, obwohl der Fragenkatalog mehr Definitionen von Typen enthielt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74999-8_48 5649e52dd1972511c97ed8a49ba3cc56;de;;;7.3.;;;Ein flexibles Middleware-System für drahtlose Sensornetzwerke Es wird davon ausgegangen, dass die aktuellen drahtlosen Sensornetzwerke (WSN) für spezifische Anwendungen ausgelegt sind, wobei Datenkommunikationsprotokolle stark an Anwendungen gekoppelt sind. Die zukünftigen WSNs sollen heterogene Geräte umfassen, die einen großen Anwendungsbereich unterstützen. Um dieses Ziel zu erreichen, ist eine flexible Middleware-Schicht erforderlich, die anwendungsspezifische Funktionen vom Datenkommunikationsprotokoll trennt und gleichzeitig den Anwendungen ermöglicht, das WSN-Verhalten für Energieeffizienz zu beeinflussen. Wir schlagen ein servicebasiertes Middleware-System für WSNs vor. In unserem Vorschlag sind Sensorknoten Dienstanbieter und Anwendungen sind Kunden solcher Dienste. Unser Hauptziel ist es, eine Interoperabilitätsschicht zwischen Anwendungen und Sensornetzwerken, zwischen verschiedenen Sensoren in einem WSN und schließlich zwischen verschiedenen auf der ganzen Welt verteilten WSNs zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44892-6_24 39619fb7f20ceb02b4e1d3653828b473;de;;;7.3.;;;Visuelles Web-Engineering Die Entwicklung von Websites mit komplexen Verknüpfungen einer großen Anzahl von Webseiten war bisher weitgehend ein Ad-hoc-Prozess. Es gibt keine allgemein akzeptierte Methodik, die das einfache Design, die Navigation und die Wartung anspruchsvoller Websites unterstützt. Da die Anzahl der Websites exponentiell ansteigt und der riesige Informationsraum, den das Web bietet, die Benutzer beim Navigieren auf einer wachsenden Anzahl von Websites immer verwirrter werden, dauert es auch länger, die richtigen Informationen zu finden. Die Probleme sind teilweise auf die unstrukturierte Natur der derzeitigen Organisation von Websites zurückzuführen. Bei den meisten vorhandenen Webbrowsern kann beispielsweise das Springen von einem Ort zum anderen den Benutzer leicht verwirren. Der Hauptgrund dafür ist, dass der Benutzer den aktuellen Kontext des Raums in Bezug auf den gesamten Informationsraum nicht kennt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-68257-0_7 cfda8cff2c8f4249da984479513c9239;de;;;7.3.;;;B.Hive: Ein konfigurationsfreier Honeypot für produktive Webanwendungen Honeypots werden in der IT-Sicherheit verwendet, um laufende Einbrüche zu erkennen und zu sammeln, indem ein interaktives System einem Angreifer als attraktives Ziel präsentiert wird. Sie protokollieren alle Aktionen eines Angreifers zur weiteren Analyse. Je länger ein Angreifer mit einem Honeypot interagiert, desto mehr wertvolle Informationen über den Angriff können gesammelt werden. Daher sollte es eines der Hauptziele eines Honeypots sein, möglichst lange unbemerkt zu bleiben. Außerdem sollte ein Honeypot als wertvolles Zielsystem erscheinen, um Angreifer zu motivieren, den Honeypot anzugreifen. In diesem Beitrag wird ein neuartiges Honeypot-Konzept (B.Hive) vorgestellt, das beide Anforderungen erfüllt: Es schützt bestehende Webanwendungen im produktiven Einsatz und bietet damit ein attraktives Angriffsziel, und es nutzt eine neuartige Technik, um die Honeypot-Komponenten schwer zu verstecken den Honeypot auch bei manueller Inspektion erkennen. B.Hive erfordert keine Konfiguration oder Änderungen vorhandener Webanwendungen, ist Web-Framework-unabhängig und hat nur einen geringen Einfluss auf die Leistung der geschützten Webanwendung. Die Auswertung zeigt, dass mit B.Hive die Mehrheit der 10.000 beliebtesten Websites (basierend auf der Alexia Global Top 10.000-Liste) geschützt werden kann und dass der Honeypot von Menschen nicht identifiziert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-18467-8_18 216749d7811a6d978c90d22c789a92d3;de;;;7.3.;;;Auf Makrofunktionen basierende Textkategorisierung Die Textkategorisierung (TC) ist eine der Schlüsseltechniken in der Web-Informationsverarbeitung. Es wurden viele Ansätze für TC vorgeschlagen, die meisten basieren auf der Textdarstellung unter Verwendung der Verteilungen und Beziehungen von Begriffen, wenige berücksichtigen die Beziehungen auf Dokumentebene. In diesem Papier werden die Verteilungen und Beziehungen auf Dokumentebene als neuartige Typenmerkmale für TC verwendet. Wir haben sie Makrofunktionen genannt, um sie von begriffsbasierten Funktionen zu unterscheiden. Für die Extraktion von Makromerkmalen werden zwei Verfahren vorgeschlagen. Das erste ist ein halbüberwachtes Verfahren, das auf der Dokumenten-Clustering-Technik basiert. Die zweite konstruiert den Makromerkmalsvektor eines Textes unter Verwendung des Schwerpunkts jeder Textkategorie. Experimente, die mit den Standardkorpora Reuters-21578 und 20-Newsgroup durchgeführt wurden, zeigen, dass die vorgeschlagenen Methoden eine große Leistungsverbesserung bringen können, indem sie einfach Makrofunktionen mit klassischen begriffsbasierten Funktionen kombinieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24958-7_25 ae3c12822b0c9827109cffce532a19ce;de;;;7.3.;;;Erfahrung in der Integration von Web 2.0-Technologien Webnutzer im 21. Jahrhundert sind nicht mehr nur passive Konsumenten. Im Gegenteil, sie sind aktive Mitwirkende, die bereit sind, Informationen zu beschaffen, zu teilen und weiterzuentwickeln. In diesem Papier berichten wir über unsere Erfahrungen mit der Implementierung des Web 2.0-Konzepts in mehreren Computerethik-bezogenen Kursen, die gemeinsam an zwei Universitäten durchgeführt werden. Diese Kurse wurden für Studenten und Doktoranden angeboten. Der Beitrag adressiert die in früheren Jahren festgestellten Hauptdefizite des traditionellen E-Learning und bietet einen alternativen Ansatz, der auf Social Media und kollaborativer Erstellung gemeinsamer Inhalte basiert. Jede direkt in unseren Kursen implementierte Web 2.0-Funktion wird detailliert vorgestellt. Besonderes Augenmerk wird auf Arbeitsbelastung, studentisches Feedback und beobachtete Vor- und Nachteile gelegt.;-;-;-;https://link.springer.com/article/10.1007/s11423-011-9228-z 02d7f7b71bb87b3ec3608465d95f4a77;de;;;7.3.;;;Ein kontinuierliches Spielschema auf dem RESTful-Webservice Derzeit verlagert sich der Paradigmenwechsel in unserem Computing dramatisch vom PC auf mobile Geräte und viele neue Dienste entstehen auf der Grundlage der Entwicklung von Breitbandnetzwerken und Hardwaretechnologien wie Cloud Computing und Web of Things. Insbesondere die Popularität von intelligenten Geräten hat die Nachfrage nach dem Teilen von Multimediainhalten überall und auf jedem der Benutzergeräte mit nahtloser Anzeige erhöht. In diesem Whitepaper stellen wir eine Prototypimplementierung eines Content-Sharing-Dienstes vor, der auf verschiedenen Geräten mit nahtloser Konnektivität funktioniert. Der Zweck besteht darin, dass das vorgeschlagene System Benutzern ermöglicht, ihre Medieninhalte zu teilen und sie kontinuierlich abzuspielen, unabhängig von der Situation, in der sie von einem Gerät zum anderen wechseln. Zum Beispiel ermöglichen N-Screen-Dienste Benutzern, ihre aktiven Sitzungen zwischen mehreren Geräten mit unterschiedlichen Fähigkeiten und Architekturen zu verwalten. Das implementierte System verfügt über die grundlegende Sharing-Konfiguration von drei Geräten: PC, Smartphone und Tablets und verwendet eine Open Service Platform basierend auf RESTful Web Services. Der Prototyp wurde erfolgreich implementiert und seine Leistung mit Beispiel-3D-Videos mit unterschiedlichen Dateigrößen simuliert, um die Ladelatenzen beim Wechsel von einem Gerät zum anderen abzuschätzen. Das Ergebnis zeigt die Machbarkeit eines Content-Sharing-Systems auf Basis von RESTful Web Services mit geringer Latenz auf dem Smartphone.;-;-;-;https://link.springer.com/article/10.1007/s10586-015-0520-2 35d4ee3d2c13ed785b0ddfc9626c5853;de;;;7.3.;;;Circle Quorum-systembasiertes Non-Stop-Netzwerkdienstmodell Schnelle Entwicklungen bei Netzwerksystemen für Geschäftsdienste haben zu einer stärkeren Abhängigkeit von verteilter Datenverarbeitung geführt, die durch „Subscriber/Push“-Architekturen typisch ist. Leider waren häufige und unerwartete Netzwerkausfälle Routine, und Ausfallzeiten betrugen nicht Stunden, sondern Tage. Hohe Verfügbarkeit ist zum wichtigsten Faktor geworden, um das Geschäftsrisiko zu verringern und die Servicequalität zu verbessern. Die Cluster-Technologie hat das Nonstop-Problem im Local Area Network gelöst. Die meisten Technologien, einschließlich Cluster, können jedoch heute den auf Routern basierenden unterbrechungsfreien Internetdienst nicht gewährleisten. Mit guter Leistung bei hoher Verfügbarkeit und Fehlertoleranz eignen sich Quorum-Systeme sehr gut für den Einsatz in verteilten Business-Service-Netzwerken. In dieser Arbeit haben wir für Boston Mutual Fund Broker, USA, ein Non-Stop-Internet-Service-System basierend auf einem neuen Quorum-System, dem Kreis-Quorum-System, modelliert und entwickelt. Mit fünf Protokollen stellte es hochverfügbare Datendienste für Clients im Internet bereit.;-;-;-;https://link.springer.com/article/10.1631/jzus.2004.0550 ea8f2a50ccecff36c084c86fa965fe72;de;;;7.3.;;;Einfluss der Internetfinanzierung auf Finanzdienstleistungen von Geschäftsbanken Vor dem Hintergrund des aktuellen Konzepts „Internet+“ hat die Entwicklung von Internet-Finanzprodukten wie Yu’E Bao das Verhalten der Menschen tiefgreifend beeinflusst und auch das traditionelle Finanzmanagementgeschäft der Geschäftsbanken beeinflusst. Einerseits haben Internet-Finanzprodukte die Kunden der Geschäftsbanken mit ihren Vorteilen wie niedrige Kaufschwellen, hohe Renditen und hohe Liquidität abgelenkt. Andererseits haben sie Geschäftsbanken ermutigt, ihre Betriebskonzepte zu ändern und ihre Produkte zu erneuern. Dieses Papier kombiniert empirische Analysen, um festzustellen, dass sich Internet-Finanzen und traditionelle Finanzdienstleistungen langfristig ausgewogen entwickelt haben und der positive Einfluss eine dominierende Rolle spielt. Basierend auf dieser empirischen Schlussfolgerung empfehlen wir schließlich Geschäftsbanken, ein kundenzentriertes Geschäftsmodell aufzubauen, ihre Finanzprodukte und Servicefunktionen zu diversifizieren, auf Big Data zu achten und mit Internet-Finanzunternehmen zusammenzuarbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-51431-0_11 6499417b7727f62ae3abb43f2d192d34;de;;;7.3.;;;"Soziale Normen, Selbstkontrolle und Privatsphäre in der Online-Welt In diesem Kapitel wird untersucht, wie sich menschliche Beschränkungen der Rationalität und Anfälligkeit für Versuchungen auf den Fluss persönlicher Informationen in der Online-Umgebung auswirken können. Es stützt sich auf das Konzept der ""Willenskraftnormen"", um zu verstehen, wie die Online-Umgebung die Wirksamkeit sozialer Normen untergraben könnte, die sich möglicherweise entwickelt haben, um den Fluss persönlicher Informationen in der Offline-Welt zu regulieren. Schließlich diskutiert das Kapitel, ob eine gesetzliche Regulierung des Datenschutzes eine angemessene Antwort auf dieses Problem ist und wie eine solche Regulierung angesichts des Spannungsverhältnisses zwischen Selbstkontrolle und Bevormundung formuliert werden sollte.";-;-;-;https://link.springer.com/chapter/10.1007/0-387-28222-X_3 2915f7e8280c7056fb500936e8ae4428;de;;;7.3.;;;Vergleich neuronaler lexikalischer Modelle eines klassischen Nationalkorpus und eines Webkorpus: Argumente für Russisch In diesem Beitrag vergleichen wir das russische Nationalkorpus mit einem größeren russischen Webkorpus aus dem Jahr 2014. Die Annahme unserer Arbeit ist, dass das Nationalkorpus, begrenzt durch die darin enthaltenen Texte und deren Proportionen, lexikalische Kontexte (und damit Bedeutungen) präsentiert, die unterscheiden sich von denen, die man in freier Wildbahn oder in einer gebräuchlichen Sprache findet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-18111-0_4 447afb1bc6439087e7412353e4d53b46;de;;;7.3.;;;Verbesserung der Web-Service-Komposition mit der Transformation von Benutzeranforderungen und dem Fähigkeitsmodell Um relevante Webservices zu entdecken und zu komponieren, erfordern die meisten Ansätze zur Webservicekomposition, dass Benutzer Kompositionsanforderungen und -beschränkungen in formalen Ausdrücken beschreiben. Die Anforderungen konzentrieren sich jedoch weiterhin auf die technische Ebene, da sie domänenspezifisches Wissen über funktionale und nichtfunktionale Eigenschaften erfordern. Tatsächlich ist die Kluft zwischen den Benutzern;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41030-7_21 53199e78eea12f2811968a159dd20212;de;;;7.3.;;;Auf dem Weg zu einer mobilen Arbeitsumgebung Das Wachstum des Internets und die Deregulierung der Telekommunikationsindustrie haben die Zahl der Aufgaben und Dienste, die wir von unseren Endgeräten (PCs, Laptops, PDAs und Telefone) erledigen oder beziehen können, explodiert. So wurde der Desktop unserer Terminals zur Schalttafel für fast alle unsere Arbeiten. Dieses Papier befasst sich mit dem Problem, wie diese Arbeitsumgebung für Roaming-Benutzer mit dem gleichen „Look and Feel“ über verschiedene Netzwerke und von verschiedenen Endgeräten hinweg verfügbar gemacht werden kann. In diesem Papier schlagen wir eine Lösung vor, die auf dem Konzept der virtuellen Heimumgebung und der Agententechnologie basiert. Wir beschreiben die Architektur zur Implementierung dieser mobilen Arbeitsumgebung und geben einige Argumente an, die den Einsatz von mobilen intelligenten Agenten zur Implementierung dieses Frameworks rechtfertigen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45391-1_3 c98e714ccad357e0229436b9e5395fef;de;;;7.3.;;;Eine Architektur für die domänenübergreifende Fehlerbehebung In diesem Papier untersuchen wir die Einschränkungen eines neuen Problems: die Koordination der Netzwerkfehlersuche zwischen Peer-Verwaltungsdomänen und nicht vertrauenswürdigen Beobachtern. Unser Ansatz ermöglicht es jeder Einheit, Probleme zu melden, egal ob es sich um ein Network Operations Center (NOC), einen Endbenutzer oder eine Anwendung handelt. Unser Ziel ist es, das Koordinationsproblem zwischen den Domänen klar zu definieren und eine Architektur zu entwickeln, die es Beobachtern ermöglicht, Probleme zu melden und zeitnah Feedback zu erhalten, unabhängig von ihrem eigenen Standort und ihrer Identität. Durch die Automatisierung dieses Prozesses entlasten wir, wann immer möglich, auch personelle Engpässe bei Helpdesks und NOCs. Wir präsentieren einen Ansatz zur Fehlerbehebung zur Koordination der Problemdiagnose und beschreiben Global Distributed Troubleshooting (GDT), ein verteiltes Protokoll, das diesen Ansatz realisiert. Wir zeigen durch Simulation, dass GDT gut skaliert, wenn die Zahl der Beobachter und Probleme wächst.;-;-;-;https://link.springer.com/article/10.1023/B%3AJONS.0000034212.53702.30 dcf16cdd3f3e5f1474bd9dd769e7b842;de;;;7.3.;;;Von Qwerty zu Atomreaktoren: Historische Schlachten um den Standard Die wichtigsten Erfolgsfaktoren in elf historischen Standardisierungsschlachten werden diskutiert, darunter das berühmte VHS vs. Betamax, IBM vs. Apple oder QWERTY vs. Dvoraks Tastaturdesign.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-57476-4_2 b964123e0bcc73cdf7fc88e73ada0392;de;;;7.3.;;;Politische Meinungen im vergangenen Web Politische Kommentare durch sogenannte Experten haben bei den redaktionellen Entscheidungen der Nachrichtenmedien eine immer wichtigere Rolle gespielt. Ihre Meinungen werden von einer privilegierten Position aus verbreitet und sind in der Lage, zu bestimmen, wie der politische Raum in die öffentliche Diskussion eingebracht werden soll. Ihre ständige Präsenz prägt die öffentliche Meinung und kann, wenn sie nicht repräsentativ und vielfältig ist, die öffentliche Debatte bedrohen. Diese Arbeit konzentriert sich auf die Meinungsartikel, die von den führenden portugiesischen nationalen Online-Zeitungen veröffentlicht werden. Wir haben ein Online-Archiv aufgebaut, das Meinungsartikel sammelt, die zwischen 2008 und 2016 von den führenden portugiesischen Nachrichten-Websites veröffentlicht wurden. Mehr als 80.000 Artikel wurden gesammelt, ungefähr 3500 Autoren wurden indiziert und mehrere Suchtools für Volltext, Informationen zur Autorschaft und Schlüsselbegriffe verfügbar gemacht. Die Sammlung Arquivo de Opinião (Meinungsarchiv) ist ein innovatives Online-Tool, verfügbar unter;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63291-5_19 1d2abbde028d98a77309b16d1bcbf3b5;de;;;7.3.;;;Entitätsbasierte Klassifizierung von Webseiten in Suchmaschinen Es gibt mehrere Schwierigkeiten bei der Integration traditioneller Klassifizierungsansätze in eine Suchmaschine. Dieses Papier stellt einen Entity-Based Web Page Classification Algorithm vor, der leicht in Suchmaschinen eingebettet werden kann. Im Algorithmus bauen wir ein Entity-System auf, um Webseiten unmittelbar vor der Indizierung von Jobs zu klassifizieren. Es ist ein Assistenzsystem, das bei der Auswahl von Textmerkmalen verwendet wird und inkrementell aktualisiert werden kann. Experimentelle Ergebnisse zeigen seine Effizienz im Vergleich zu den herkömmlichen und eine gute Leistung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89533-6_59 d691ccff2c846a0bd594c79f12fb9cd5;de;;;7.3.;;;Auf dem Weg zur Interoperabilität der E-Society-Politik Der Übergang zum richtlinienorientierten Web soll den Ausdruck und die Verwaltung von Richtlinien in den zentralen Webschichten unterstützen. Einer der vielversprechendsten Bereiche, der die Einführung neuer Technologien vorantreiben kann, sind e-Society-Gemeinschaften. Bei so vielen nutzergenerierten Inhalten, die von diesen sozialen Netzwerken geteilt werden, besteht die reale Gefahr, dass die impliziten Sharing-Regeln, die Gemeinschaften im Laufe der Zeit entwickelt haben, in den neuen digitalen Gemeinschaften in der Übersetzung verloren gehen. Dies wird zu einem entsprechenden Vertrauensverlust in e-Society-Sites führen. Das Policy-Oriented Web versucht, das Implizite in das Explizite zu verwandeln, mit einem gemeinsamen Rahmen für die Interoperabilität und das Bewusstsein der Policy-Sprache. Dieses Papier berichtet über die grundsatztreibenden Faktoren aus den Erfahrungen mit sozialen Netzwerken unter Verwendung realer Anwendungsfälle und Szenarien. Insbesondere die Schlüsselfunktionen des politischen Bewusstseins – für Privatsphäre, Rechte und Identität – werden die treibende Kraft sein, die es der e-Society ermöglicht, neue interoperable politische Regime zu schätzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04280-5_29 1343f8a3476ad76ad4475a1bb6a98086;de;;;7.3.;;;Erweiterung von Web-Bildungsanwendungen durch SGML-Strukturierung und inhaltsbasierte Funktionen In diesem Beitrag stellen wir einen Ansatz zur Entwicklung von World Wide Web-Bildungsanwendungen vor, der auf einem tieferen Verständnis der Rolle von Auszeichnungssprachen im Web basiert und wie sie Web-Bildungsanwendungen verbessern könnten. Das Papier beginnt mit einer Diskussion der wichtigsten Merkmale des Webs, die es so erfolgreich gemacht haben. Anschließend präsentieren und analysieren wir verschiedene Ansätze zur pädagogischen Nutzung des Webs. Wir stellen SGML/HTML als Werkzeug zum Organisieren und Strukturieren von Informationen vor und schlagen einen neuen Ansatz für die Entwicklung von Web-Bildungsanwendungen basierend auf SGML-Erweiterungen der HTML-Sprache vor. Schließlich nutzen wir unsere eigenen Erfahrungen bei der Entwicklung von Bildungsanwendungen als Beispiel für die neuen Möglichkeiten, die dieser Ansatz bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35352-4_23 23c12aaa340408a59af1470a78232e60;de;;;7.3.;;;Die Integration webbasierter Informationen und der strukturierten Daten in Data Warehousing Der Artikel stellt das Konzept der Lösung zur Beschickung des Data Warehouse aus Website-Foren mit Meinungen zu ausgewählten Produkten vor. Der Schlüssel der Lösung besteht darin, eine neue Data Warehouse-Dimension namens Variable hinzuzufügen, die es ermöglicht, sowohl strukturierte als auch unstrukturierte Daten zu identifizieren. Bei der vorgeschlagenen Lösung werden die Ergebnisse der Website-Analyse im selben Repository wie die Daten aus traditionellen Unternehmenssystemen wie CRM oder ERP gespeichert. Das Konzept wurde anhand von Internetshops vorgestellt, die ausgewählte Produkte anbieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40855-7_6 c88bf9f342e0badc745f989b59e8f230;de;;;7.3.;;;Matchmaking-Framework für mathematische Webdienste Service Discovery und Matchmaking in einer verteilten Umgebung sind seit einiger Zeit ein aktives Forschungsthema. Frühere Arbeiten zum Matchmaking haben die Problem- und Servicebeschreibungen typischerweise als freien oder strukturierten (markierten) Text präsentiert, sodass Stichwortsuchen, Tree-Matching oder einfache Constraint-Lösung ausreichen, um Übereinstimmungen zu identifizieren. In diesem Papier diskutieren wir das Problem des Matchmaking für mathematische Dienste, bei denen die Semantik eine entscheidende Rolle bei der Bestimmung der Anwendbarkeit oder Nicht-Anwendbarkeit eines Dienstes spielt und für die wir OpenMath-Beschreibungen von Vor- und Nachbedingungen verwenden. Wir beschreiben eine Matchmaking-Architektur, die die Verwendung von Match-Plug-ins unterstützt, und beschreiben fünf Arten von Plug-ins, die wir bisher entwickelt haben: (i) eine grundlegende strukturelle Übereinstimmung, (ii) eine Syntax- und Ontologie-Übereinstimmung, (iii) einen Wert Substitutionsübereinstimmung, (iv) eine algebraische Äquivalenzübereinstimmung und (v) eine Zerlegungsübereinstimmung. Der Matchmaker verwendet die einzelnen Match-Scores aus den Plug-Ins, um ein Ranking nach Anwendbarkeit der Dienste zu berechnen. Wir betrachten die Auswirkung von Vor- und Nachbedingungen mathematischer Servicebeschreibungen auf das Matching und wie und warum Abfragen vor dem Matching in die disjunktive Normalform (DNF) reduziert werden können. Eine Fallstudie demonstriert im Detail, wie der Matching-Prozess für alle vier Algorithmen funktioniert.;-;-;-;https://link.springer.com/article/10.1007/s10723-005-9019-z 7c92e440eed95aff9802b38ab77351f1;de;;;7.3.;;;PNS: Ein personalisierter Nachrichten-Aggregator im Web Dieses Papier stellt ein System vor, das Nachrichten von verschiedenen Herausgebern und Verteilern elektronischer Nachrichten zusammenfasst. Das System sammelt Nachrichten aus HTML- und RSS-Webdokumenten mithilfe von quellenspezifischen Informationsextraktionsprogrammen (Wrappern) und Parsern, ordnet sie nach vordefinierten Nachrichtenkategorien und erstellt personalisierte Ansichten über eine webbasierte Oberfläche. Die adaptive Personalisierung wird basierend auf der individuellen Benutzerinteraktion, Benutzerähnlichkeiten und statistischer Analyse aggregierter Nutzungsdaten durch maschinelle Lernalgorithmen durchgeführt. Neben der Vorstellung des Basissystems präsentieren wir hier die Ergebnisse einer Anwenderstudie, die die Vorzüge des Systems sowie Möglichkeiten zur weiteren Verbesserung aufzeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77471-6_10 f3ed09306da1d319140b1edb45bba966;de;;;7.3.;;;Terminologieerkennung mit mehreren Wörtern mithilfe der Websuche Das Terminologieerkennungssystem, das eine grundlegende Forschung für Technology Opportunity Discovery (TOD) darstellt, wurde in einem begrenzten Bereich von Domänen, insbesondere im biomedizinischen Bereich, intensiv untersucht. Wir schlagen ein domänenunabhängiges Terminologieerkennungssystem basierend auf maschinellem Lernen vor, das Wörterbuch, syntaktische Funktionen und Websuchergebnisse verwendet, da die vorherigen Arbeiten Einschränkungen bei der Anwendung ihrer Ansätze auf allgemeine Domänen aufgedeckt haben, da ihre Ressourcen domänenspezifisch waren. Wir erreichten eine Verbesserung des F-Scores von 80,4 und 6,4%, nachdem wir den vorgeschlagenen Ansatz mit dem verwandten Ansatz, dem C-Wert, verglichen hatten, der weit verbreitet ist und auf lokalen Domänenfrequenzen basiert. Im zweiten Experiment mit verschiedenen Kombinationen von Unithood-Features zeigte die Methode in Kombination mit NGD (Normalized Google Distance) die beste Leistung von 81,5 beim F-Score. Wir haben zwei maschinelle Lernmethoden wie logistische Regression und SVMs angewendet und die beste Punktzahl bei der SVMs-Methode erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27210-3_29 361c213827bddd81f279e46af5b195de;de;;;7.3.;;;Eine Studie zur Skalierbarkeit von Diensten und Datenschutzproblemen im Cloud-Computing Cloud Computing entwickelt sich schnell und ist die neue Entwicklung in der Informationstechnologie. Es gibt viele Muster oder Kategorien in der Welt des Cloud Computing, die für die Unternehmensarchitektur benötigt werden. Einige der Kategorien von Diensten sind Speicher, Datenbank, Informationen, Prozesse, Anwendungen, Plattformen, Integration, Sicherheit, Datenschutz, Management/Governance, Tests und Infrastruktur. Skalierbarkeit ist eine der wichtigsten Funktionen, die auf alle Dienste angewendet werden. Die vorliegende Analyse konzentriert sich speziell auf Architektur- und Richtlinienimplikationen, ohne die Datenschutzfragen zu untersuchen. In diesem Whitepaper werden die Anwendungsskalierbarkeits- und Datenschutzinitiativen für verschiedene Dienste in Cloud-Umgebungen mit einem Überblick über die Trends vorgestellt, denen sie folgen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28073-3_19 72b08f80831450ab7af54411ba5f6b63;de;;;7.3.;;;Herausforderungen bei der Untersuchung des Einsatzes und der Auswirkungen von metakognitiven Werkzeugen in (reichen) webbasierten Lernumgebungen Dieses Kapitel fasst die Begründung und die Ergebnisse mehrerer Studien zusammen, die umfangreiche offene webbasierte Lernumgebungen (Web-LEs) als Lerntechnologie in der Hochschulbildung verwenden. Der Zweck der Studien war es, selbstregulierte Lernaktivitäten zu untersuchen, indem die Lernaktivitäten von Universitätsstudenten in einem reichhaltigen offenen Web-LE anhand von Protokolldateidaten verfolgt werden. Daher stellten die in diesen Studien verwendeten Web-LEs sowohl nicht eingebettete als auch eingebettete Werkzeuge bereit, die sowohl kognitive als auch metakognitive Lernaktivitäten unterstützten. Studierende aller Studiengänge konnten frei entscheiden, wann und wie sie diese Tools nutzen. Um sie nutzen zu können, mussten sie das ausgewählte Tool explizit aktivieren, indem sie auf die entsprechende Schaltfläche auf der Oberfläche der Web-LEs klicken. Die Begründung für das Design der Web-LEs und die Analyse und Interpretation der Logfile-Daten wurde aus psychologischen Aufgabenanalysen abgeleitet, die auf einer multidimensionalen Sichtweise des selbstregulierten Lernens innerhalb von Web-LEs beruhten (z. B. Narciss et al., 2007 , Winter, 2008). Dieses Kapitel skizziert diese Begründung, beschreibt die Ressourcen und Werkzeuge des umfangreichen Web-LE namens;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-5546-3_17 e9c696181031bb1f11b80f07812e9857;de;;;7.3.;;;Ein webbasiertes Entscheidungsunterstützungssystem für die Gefahrenwarnung in Hanglagen Hierin wird ein WebGIS-Entscheidungsunterstützungssystem für Hanglagen-Gefahrenwarnungen basierend auf überwachten Regenfällen in Echtzeit vorgestellt. In diesem Beitrag werden der Rahmen, die Datenbank, die Verfahren zum Einrichten der Schwellenlinie für die Murgangauslösung und der im System implementierte Berechnungsalgorithmus vorgestellt. Das webbasierte GIS über den Microsoft Internet Explorer ist für die Analyse von Gebieten konzipiert, die bei sintflutartigen Regenfällen anfällig für Murgangausbrüche und Erdrutsche sind. Seine Funktion besteht darin, dem Kommandanten Vorschläge zur sofortigen Reaktion auf mögliche Gefahren in Hanglagen zu unterbreiten und festzustellen, ob eine vorherige Evakuierung erforderlich ist. Kennzeichnend für das internetbasierte Entscheidungsunterstützungssystem ist es nicht, die Gefahrenbereiche automatisch anzuzeigen, sondern dient als Teil des Entscheidungsprozesses über die Informationssammlung, um Experten bei der Beurteilung der anfälligen Murstrombäche und der Neigung zur Auslösung von Erdrutschen zu helfen. Zur weiteren Verbesserung wird die Kombination mit der Echtzeit-Niederschlagsschätzung durch das QPESUMS-Radarsystem vorgeschlagen.;-;-;-;https://link.springer.com/article/10.1007/s10661-006-9291-9 8d4abc53eb569a7ab217a02ec4bad75c;de;;;7.3.;;;Verwenden von Webquellen zur Verbesserung der Videokategorisierung In diesem Beitrag werden mehrere Experimente zur Videokategorisierung mit einem überwachten Lernansatz vorgestellt. Zu diesem Zweck wurde das Bewertungsforum VideoCLEF 2008 als experimenteller Rahmen gewählt. Nach einer Analyse des VideoCLEF-Korpus wurde festgestellt, dass Videotranskriptionen nicht die beste Informationsquelle sind, um die Thematik von Videostreams zu identifizieren. Daher wurden zwei webbasierte Korpora mit dem Ziel erstellt, durch die Integration von Dokumenten aus Wikipedia-Artikeln und Google-Suchen weitere Informationsquellen hinzuzufügen. Eine Reihe von überwachten Kategorisierungsexperimenten unter Verwendung der Testdaten von VideoCLEF wurden durchgeführt. Es wurde nachgewiesen, dass mehrere maschinelle Lernalgorithmen die Wirkung des Korpus auf die Endergebnisse validieren: Naive Bayes, K-nearest-neighbors (KNN), Support Vectors Machine (SVM) und der j48-Entscheidungsbaum. Die erhaltenen Ergebnisse zeigen, dass das Web eine nützliche Informationsquelle zur Generierung von Klassifizierungsmodellen für Videodaten sein kann.;-;-;-;https://link.springer.com/article/10.1007/s10844-010-0123-6 c6536c185ad530021846b16ff04d9249;de;;;7.3.;;;Bootstrapping von Domänenontologie für semantische Webdienste von Quellwebsites Die Vision von Semantic Web Services verspricht ein Netzwerk von interoperablen Webservices über verschiedene Quellen. Eine große Herausforderung bei der Verwirklichung dieser Vision ist das Fehlen automatisierter Mittel zum Erwerb von Domänenontologien, die für die Kennzeichnung der Webdienste erforderlich sind. In diesem Beitrag schlagen wir die;-;-;-;https://link.springer.com/chapter/10.1007/11607380_2 e62d73ebcbb03d2d2b0cb5a2e713c587;de;;;7.3.;;;Bereinigen von Webseiten für ein effektives Mining von Webinhalten Das Klassifizieren und Mining von rauschfreien Webseiten verbessert die Genauigkeit der Suchergebnisse sowie die Suchgeschwindigkeit und kann Webseiten-Organisationsanwendungen zugute kommen (z. B. schlüsselwortbasierte Suchmaschinen und taxonomische Webseiten-Kategorisierungsanwendungen). Rauschen auf Webseiten ist für den Hauptinhalt der Webseiten, die abgebaut werden, irrelevant und umfasst Anzeigen, Navigationsleisten und Urheberrechtshinweise. Die wenigen existierenden Arbeiten zum Bereinigen von Webseiten erkennen Rauschblöcke mit exakt übereinstimmenden Inhalten, sind jedoch schwach bei der Erkennung von nahezu doppelten Blöcken, die durch Elemente wie Navigationsleisten gekennzeichnet sind.;-;-;-;https://link.springer.com/chapter/10.1007/11827405_55 7564232a5b4fd76e82c01d279c029f47;de;;;7.3.;;;Ein Anti-Phishing-Framework für Unternehmen Das Ziel dieses Papiers ist es, über einen organisatorischen Rahmen zu berichten, der aus den Dimensionen Mensch, Organisation und Technologie (HOT) bestand, um Aspekte im Zusammenhang mit Phishing ganzheitlich zu adressieren. Die meisten untersuchten Anti-Phishing-Literaturen konzentrierten sich entweder auf technische Kontrollen oder isoliert auf Bildung, jedoch ist Bildung für alle Aspekte im oben genannten Rahmen von zentraler Bedeutung. Aus der Literatur geht hervor, dass zu Anti-Phishing-Präventionsmaßnahmen wenig im Kontext von Organisationen gearbeitet wurde, sondern eher auf der Ebene der persönlichen Benutzer. Im Rahmen wird der Schwerpunkt auf die menschlichen Faktoren bei der Bekämpfung von Phishing-Angriffen gelegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39377-8_22 05dedf0de289cad44cc090c78e988068;de;;;7.3.;;;Web 2.0 und Netzwerkintelligenz Dieses Kapitel bietet einen Kommentar zu den Chancen und Herausforderungen, mit denen Unternehmen auf dem Weg zur Nutzung von Web 2.0-Funktionen für Enterprise Intelligence konfrontiert sind. Intelligenz bedeutet in diesem Zusammenhang, Informationen über den Zustand der Welt zu haben, ihre Bedeutung wahrzunehmen und angemessen zu handeln. Die Einführung von Web 2.0-Fähigkeiten zusammen mit Entwicklungen in Cloud-Computing- und Social-Computing-Technologien ermöglicht es Unternehmen, erweiterte Unternehmensarchitekturen zu entwickeln (und hat somit Auswirkungen auf das Design und die Entwicklung von Geschäftsprozessen). Die damit verbundenen Herausforderungen für das Wissensmanagement betreffen die Integration und Nutzung interner;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19510-5_2 4494c54fa16db2913ede6e57118b9b85;de;;;7.3.;;;Evaluierung einer Thesaurus-basierten Abfrageerweiterungstechnik Dieses Papier befasst sich mit der Verwendung und Bewertung einer Thesaurus-basierten Abfrageerweiterungsmethode bei der Informationsbeschaffung. Der Abfrageerweiterungsprozess weist verschiedenen Arten von Beziehungen, die aus Vokabularstrukturen erhalten werden, Gewichte zu, was eine effiziente Möglichkeit bietet, das Distanzmaß zwischen verschiedenen Begriffen zu messen. Diese für Portugiesisch getestete Methode verbesserte die Gesamtleistung beim Abrufen von Informationen in kleinen Korpora und über das Internet.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45011-4_39 25e8e1fd9b7cd80b125864c1deb6e508;de;;;7.3.;;;Von den Anforderungen des Endbenutzers bis zum Abruf von Webdiensten: Ein semantischer und absichtsorientierter Ansatz In diesem Papier stellen wir SATIS vor, ein Framework zur Ableitung von Webservice-Spezifikationen aus den Anforderungen der Endbenutzer, um Geschäftsprozesse im Kontext einer bestimmten Anwendungsdomäne zu operationalisieren. Das Ziel von SATIS ist es, Neurowissenschaftlern, die mit Informatik nicht vertraut sind, eine Komplettlösung zur Verfügung zu stellen, um auf einfache Weise eine Reihe von Webdiensten zu finden, um eine Bildverarbeitungspipeline zu implementieren. Genauer gesagt bietet unser Framework die Möglichkeit, die Anforderungen von High-Level-Endbenutzern iterativ und inkrementell zu erfassen und sie in Abfragen zum Abrufen der Webservice-Beschreibung umzuwandeln. Das gesamte Framework basiert auf wiederverwendbaren und kombinierbaren Elementen, die von einer Gemeinschaft von Benutzern geteilt werden können, die einige Interessen oder Probleme für ein bestimmtes Thema teilen. In unserem Ansatz verwenden wir semantische Websprachen und -modelle als einheitliches Framework, um mit den Anforderungen der Endbenutzer und den Webservice-Beschreibungen umzugehen, um ihre Argumentations- und Rückverfolgbarkeitsfähigkeiten zu nutzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14319-9_3 885ca909199a80f3a4852340f7b79ff8;de;;;7.3.;;;Hohe Qualität von verteilten J2EE-Anwendungen erreichen und aufrechterhalten — BeesyCluster-Fallstudie Das Papier präsentiert Designempfehlungen, ausgewählte und repräsentative Implementierungs- und Konfigurationsfehler, die während der Entwicklung von BeesyCluster aufgetreten sind – einem auf J2EE-Komponenten basierenden System für Remote-WWW-/Webservice-Dateiverwaltung, Aufgabenwarteschlangen, Online-Veröffentlichung von Diensten für andere Benutzer mit Anmeldedatenverwaltung und Teamarbeitsunterstützung . Basierend auf einer zuvor entwickelten QESA-Methodik erstellen wir einen Qualitätsbaum, indem wir die oben genannten, aber verallgemeinerten Empfehlungen, Fehler und Lösungen für mehrschichtige verteilte J2EE-Anwendungen einbeziehen. Dies ermöglicht es, andere ähnliche Anwendungen in Zukunft gegen von uns identifizierte Fehler und von uns empfohlene Lösungen zu validieren und so eine Qualitätscheckliste für andere J2EE-Entwickler zu erstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-39388-9_18 8bee35e748811c4c5fe93cf2ce7e56df;de;;;7.3.;;;Aufbau eines Ontologie-basierten Benutzermodells für die Web-Personalisierung Personalisiertes Surfen und Suchen im Internet hofft, Webinformationen bereitzustellen, die den persönlichen Interessen eines Benutzers entsprechen. Ein Schlüsselmerkmal bei der Entwicklung erfolgreicher personalisierter Webanwendungen ist der Aufbau eines Benutzermodells, das die Interessen eines Benutzers genau repräsentiert. Dieser Beitrag beschäftigt sich mit dem Problem der Modellierung von Webbenutzern mittels Personalontologie. Zuerst wird ein System zur Vorbereitung von Webprotokollen vorgestellt, das die semantischen Navigationssitzungen des Benutzers erkennt. Solche semantischen Sitzungen könnten als Eingabe zum Konstruieren eines ontologiebasierten Benutzermodells verwendet werden. Unsere Konstruktion des Benutzermodells basiert auf einer semantischen Darstellung der Benutzeraktivität. Wir erstellen das Benutzermodell ohne Benutzerinteraktion, überwachen automatisch die Surfgewohnheiten des Benutzers und erstellen die Benutzerontologie aus semantischen Sitzungen. Jede semantische Sitzung aktualisiert das Benutzermodell so, dass die konzeptionelle Verhaltenshistorie des Benutzers in der Benutzerontologie aufgezeichnet wird. Nach dem Aufbau des Ausgangsmodells aus besuchten Webseiten werden Techniken untersucht, um die Modellkonvergenz abzuschätzen. Insbesondere wird auch die Gesamtleistung unseres ontologiebasierten Benutzermodells dargestellt und mit einer flachen, unstrukturierten Themenliste in den experimentellen Systemen vorteilhaft mit anderen Modellen verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73078-1_10 f49f120cde459031149186abdd9b9af3;de;;;7.3.;;;Vertrauen und Vertrauen in europäisches E-Government überdenken In diesem Beitrag diskutieren wir die Bedeutung und Relevanz von Vertrauen für E-Government. Zunächst werden Vertrauenskonzepte aus der Philosophie identifiziert, die für das Trust Engineering im E-Government wichtig sein könnten. Anschließend betrachten wir Vertrauensmodelle für den E-Commerce und diskutieren, wie diese auf E-Government übertragen werden können. Anschließend präsentieren wir die Ergebnisse zweier empirischer Studien unter Jugendlichen. Aus den theoretischen und empirischen Ergebnissen werden Empfehlungen für das Trust Engineering in der Praxis abgeleitet. Schließlich werfen wir einen zweiten Blick auf die Philosophie, diskutieren die Implikationen der postmodernen Realität für die Designanforderungen von E-Government-Lösungen und leiten eine Forschungsagenda ab, die auf aktuellen Ergebnissen der angewandten Kryptographie basiert.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-8155-3_6 be34693d7c7e135000c27726516dad69;de;;;7.3.;;;Design und Entwicklung einer konstruktivistischen webbasierten Lernumgebung mit Augmented Reality zur Verbesserung des kritischen Lesens für Informatikstudenten im ersten Jahr des zweijährigen College in Kambodscha Der Zweck dieser Forschung besteht darin, eine konstruktivistische webbasierte Lernumgebung mit Augmented Reality zu entwerfen und zu entwickeln, um das kritische Lesen für Informatikstudenten im ersten Jahr eines zweijährigen College in Kambodscha zu verbessern. In dieser Studie wird das Forschungsmodell Design und Entwicklung verwendet [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-35343-8_56 31a9d84e52579bfafb2fb46b93c99502;de;;;7.3.;;;Zeitliche Regeln für die Vorhersage der Benutzernavigation im mobilen Web Zahlreiche Systeme versuchen, die Benutzernavigation im Internet durch die Verwendung von vergangenem Verhalten, Präferenzen und Umweltfaktoren vorherzusagen. Viele dieser Modelle weisen jedoch Mängel auf, da sie nicht berücksichtigen, dass Browser mehrere unterschiedliche Einstellungen haben können. Hier untersuchen wir Zeit als Umweltfaktor bei der Vorhersage der Benutzerführung im Internet. Wir präsentieren Methoden zum Erstellen von Zeitregeln, die Benutzernavigationsmuster beschreiben. Wir zeigen auch den Vorteil der Verwendung dieser Regeln zur Vorhersage der Benutzernavigation und zeigen auch die Vorteile dieser Modelle gegenüber herkömmlichen Methoden. Anhand einer Stichprobe von Nutzungsprotokollen für das Surfen im Wireless Application Protocol (WAP) wird eine Analyse durchgeführt, und die Ergebnisse dieser Analyse bestätigen unsere Theorie.;-;-;-;https://link.springer.com/chapter/10.1007/11768012_13 7eceee9d9b1f26bbc40bdfeac83c10f6;de;;;7.3.;;;Plattformübergreifende Entwicklung mit HTML5, jQuery Mobile und PhoneGap: Realisierung einer Smart Meter-Anwendung Mit der Verbreitung mobiler Computergeräte gewannen Anwendungen für sie stark an Bedeutung. Diese Apps machen Geräte vielseitiger. Leider bedeutet ihre Entwicklung derzeit, dass jede Plattform separat angesprochen werden muss. Alternativ können webbasierte Lösungen verwendet werden, die kein „natives“ Look and Feel bieten. Um neuartige Methoden der plattformübergreifenden App-Entwicklung zu untersuchen und HTML5 zu überprüfen, haben wir eine App mit mehreren aktuellen Entwicklungs-Frameworks erstellt. Unser Szenario ist ein Smart-Meter-Tool, das selbst ein aktives Forschungsgebiet ist. Wir stellen Ansätze im Bereich der plattformübergreifenden App-Entwicklung vor und veranschaulichen den technologischen Hintergrund. Anschließend geben wir einen Überblick über unseren Entwicklungsprozess. Schließlich evaluieren wir unsere App und diskutieren unsere Erkenntnisse mit dem Ziel, verallgemeinerbare Ergebnisse zu liefern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36608-6_2 9f457a5faa3574b26895ebbc3f267760;de;;;7.3.;;;Multimedia-basiertes IoT-zentriertes intelligentes Framework für das eLearning-Paradigma Multimediale Inhalte beflügeln die Lerntrends. In diesem Beitrag soll ein elektronisches Lernsystem basierend auf dem Internet der Dinge (IoT) für die synchrone und asynchrone Kommunikation vorgestellt werden. Die Infrastruktur des IoT bietet den anpassungsfähigen, skalierbaren und offenen Zugang für das eLearning-Paradigma. Die multimediale IoT-zentrierte Umgebung ist geeignet, die Effektivität der Bereitstellung von Lerninhalten zu erhöhen. Die Studierenden können die Vorteile von 7As of IoT voll ausschöpfen, was den Studierenden die Möglichkeit bietet, jederzeit und überall auf alles im Internet zuzugreifen. Es schafft ein flexibles eLearning-Paradigma für Lehrer und Schüler. Das vorgeschlagene eLearning-Modell verwendet Sensoren, um den Standort der Schüler, die Temperatur und die mobile Kamera zu erkennen, um die Aktivität der Schüler in der Lernumgebung zu identifizieren. Virtuelle Campusse werden von einem zentralen Standort aus gesteuert, der als Hauptsitz bezeichnet werden kann. Das MAQAS-Framework liefert die Problemlösungen und analysiert die Ergebnisse für das effiziente und vernetzte eLearning-Paradigma. Das MAQAS-System wird verwendet, um Studentenanfragen zu beantworten, die automatisch von einem agentenbasierten Frageantwortsystem beantwortet werden. Die Ergebnisse zeigen, dass die Beteiligung der Schüler am Lernen und die Pädagogik des Lehrers im synchronen und asynchronen Modus effizienter sind. Leistung bewertet durch Vergleich mit der bestehenden Frage zur Beantwortung von Live QA Trak, Quora Yoda QA Live und AskMSR-QA mit MAQAS.;-;-;-;https://link.springer.com/article/10.1007/s11042-018-5636-y c5fdb8ec826a2462b16fe45f54aca661;de;;;7.3.;;;InfoFilter: Unterstützung der Servicequalität für die Bereitstellung neuer Informationen Mit dem explosionsartigen Wachstum des Internets und des World Wide Web geht eine dramatische Zunahme der Zahl der Benutzer einher, die um die gemeinsam genutzten Ressourcen verteilter Systemumgebungen konkurrieren. Die meisten Implementierungen von Anwendungsservern und verteilter Suchsoftware unterscheiden nicht zwischen Anforderungen an verschiedene Webseiten. Dies hat zur Folge, dass das Verhalten von Anwendungsservern ziemlich unvorhersehbar ist. Anwendungen, die eine rechtzeitige Bereitstellung neuer Informationen erfordern, leiden folglich am meisten unter solchen Wettbewerbsumgebungen. Dieses Papier stellt ein Modell der Dienstgüte (QoS) und den Entwurf eines QoS-fähigen Informationsbereitstellungssystems vor, das ein solches QoS-Modell implementiert. Das Ziel dieser Entwicklung ist zweifach. Einerseits möchten wir es Benutzern oder Anwendungen ermöglichen, die gewünschten Dienstgüteanforderungen für ihre Anfragen zu spezifizieren, sodass eine anwendungsbezogene QoS-Anpassung während der gesamten Web-Abfrage- und Suchverarbeitung unterstützt wird. Auf der anderen Seite möchten wir es einem Anwendungsserver ermöglichen, anzupassen, wie er auf externe Anforderungen reagieren soll, indem er Prioritäten zwischen den Abfrageanforderungen setzt und Serverressourcen mithilfe adaptiver QoS-Steuerungsmechanismen zuweist. Wir führen den Infopipe-Ansatz ein, da die Systeme die Architektur und die zugrunde liegende Technologie zum Aufbau eines QoS-fähigen verteilten Systems für die Bereitstellung neuer Informationen unterstützen.;-;-;-;https://link.springer.com/article/10.1007/BF03037550 24e106f7ac2026d086a8f9d83b2c0cd9;de;;;7.3.;;;P2P-Netzwerke und die In diesem Papier untersuchen wir einige ethische Implikationen einer umstrittenen Gerichtsentscheidung in den USA, an der Verizon (ein Internet Service Provider oder ISP) und die Recording Industry Association of America (RIAA) beteiligt waren. Insbesondere analysieren wir die Auswirkungen dieser Entscheidung auf die Privatsphäre und das geistige Eigentum. Wir beginnen mit einer kurzen Beschreibung der Kontroversen und Urteile in diesem Fall. Es folgt ein Blick auf einige der Herausforderungen, die Peer-to-Peer (P2P)-Systeme zum Austausch digitaler Informationen für unsere Rechts- und Moralsysteme darstellen. Anschließend untersuchen wir das Konzept der Privatsphäre, um besser zu verstehen, wie die Privatsphäre von Internetnutzern, die an P2P-Filesharing-Praktiken teilnehmen, unter bestimmten Auslegungen des Digital Millennium Copyright Act (DMCA) in den Vereinigten Staaten bedroht ist. Insbesondere untersuchen wir die Implikationen dieses Gesetzes für eine neue Form der „panoptischen Überwachung“, die von Organisationen wie der RIAA durchgeführt werden kann. Als nächstes betrachten wir die Spannung zwischen Privatsphäre und Eigentumsrechten, die im Fall Verizon auftaucht, und untersuchen ein von Jessica Litman vorgeschlagenes Modell für die Verbreitung von Informationen über das Internet in einer Weise, die sowohl die Privatsphäre als auch die Eigentumsrechte respektiert. Abschließend argumentieren wir, dass wir im Fall Verizon den Datenschutz als Standardposition annehmen sollten, und wir vertreten die Ansicht, dass eine Vermutung zugunsten des Teilens (anstatt des Hortens) digitaler Informationen gelten sollte. Wir kommen auch zu dem Schluss, dass im Fall Verizon eine Eigentumsvermutung unerwünschte Auswirkungen hätte und die Kommodifizierung digitaler Informationen weiter legitimieren würde – ein neuer Trend, der durch bestimmte Auslegungen des DMCA seitens des Gesetzgebers und durch aggressive Taktiken verstärkt wird von der RIAA verwendet.;-;-;-;https://link.springer.com/article/10.1007/s10676-006-0012-4 ea95fc2965f5f44c26332fd17c191385;de;;;7.3.;;;Wirtschaftliche Analyse von Musik Copyright:Musiknutzer Die US-Medienindustrie umfasst viele Segmente, nicht nur Radio, Kabel, Fernsehen und Internet, sondern auch Zeitungen und Filme. Die Branche als Ganzes ist auf das Wachstum der Werbeeinnahmen angewiesen, um die Rentabilität aufrechtzuerhalten. Dieses Kapitel untersucht die vielen Musiknutzer und wie ihre Einnahmen zur Quelle von Lizenzgebühren werden, die von PROs erhoben werden, um die Urheberrechtsinhaber in Form von Aufführungsgebühren für die Nutzung ihrer Musik zu entschädigen. Wir werden auch die verschiedenen Arten von Musikdarbietungen, ihre Erhebungsmethoden und die Berechnung von Lizenzgebühren untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-6318-5_2 504156d47ad423dc1775c910bf0f6ee8;de;;;7.3.;;;Vergleich von Distanzmaßen für historische Schreibvarianten In diesem Beitrag wird der Vergleich ausgewählter Distanzmaße in ihrer Anwendbarkeit zur unterstützenden Recherche historischer Schreibvarianten (hsv) beschrieben. Das interdisziplinäre Projekt Regelbasierte Suche in Textdatenbanken mit nicht standardisierter Rechtschreibung entwickelt eine Fuzzy-Volltextsuchmaschine für historische Textdokumente. Diese Engine soll Experten sowie interessierten Laien einen einfacheren Textzugriff ermöglichen. Das FlexMetric-Framework verbessert den Entfernungsmessalgorithmus, der sich gemäß den Ergebnissen der Bewertung als am effizientesten erwiesen hat. Dieses Maß kann für mehrere Anwendungen verwendet werden, einschließlich Suche, Post-Ranking, Transformation und sogar Reflexion über die eigene Sprache.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34747-9_31 0dea29fa95aef3fa4ef010e3b87c3ae6;de;;;7.3.;;;Unified Hosting-Techniken für das Internet der handelbaren und ausführbaren Dienste In einem kollaborativen Internet der Dienste reichen traditionelle Hosting-Konzepte aus serviceorientierten Architekturen nicht mehr aus. Anstatt lediglich Servicebeschreibungen bei zentralen Brokern zu registrieren, werden Services zunehmend als greifbare, verteilbare und handelbare dynamische Einheiten für alle Aspekte rund um die Serviceausführung selbst betrachtet. Der Satz handhabbarer Service-Artefakte umfasst heterogene Beschreibungsdateien, Nutzungsvertragsvorlagen und Preismodelle. Elektronische Dienste enthalten auch Implementierungsartefakte in einer Vielzahl von Formaten. Für Servicebroker und Marktplatzbetreiber ist es essentiell, diese Serviceartefakte verarbeiten zu können. Jede Service-Technologie erfordert in der Regel eine eigene Ausführungsplattform, was letztendlich zu einer hohen Komplexität für die Administration und das Management von Services führt. Ähnlich wie bei der Vereinheitlichung des Aufrufs von Webdiensten durch Protokolladapter ist es eindeutig erforderlich, Verwaltungsaspekte wie Bereitstellung, Überwachung und Anpassung von Dienstimplementierungen über Technologien hinweg zu vereinheitlichen. Wir schlagen daher das Konzept der einheitlichen Hosting-Umgebungen für handelbare und ausführbare Dienste vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20116-5_3 15976301a86ee0872562ada3f1143ba8;de;;;7.3.;;;Erkennung von Web-Communitys aus Community-Kernen Eine Web-Community als bedeutendes Muster des Webs, die aus einer Gruppe von Seiten besteht, die sich auf ein gemeinsames Thema konzentrieren. Web-Communitys können sich an vollständigen bipartiten Graphen (kurz CBG, auch Community-Kerne genannt) orientieren. Kürzlich wurden Untersuchungen durchgeführt, um die Community-Strukturen des Webs durch Extrahieren von CBGs zu reparieren. Von echten Gemeinschaften sind sie jedoch weit entfernt. Mit dem Fokus auf die automatische Ermittlung der idealen Größe von Web-Communities heben wir zunächst die Community-Kerne in den Ausgangszustand, um komplette Community-Strukturen abzurufen. Mit allen verfügbaren CBGs wird ein zweistufiger heuristischer Algorithmus vorgeschlagen, um Web-Communitys zu spezifizieren. Zuerst werden die Skizzen von Gemeinschaften gezeichnet, indem nach und nach überlappende Gemeinschaftenkerne zusammengeführt werden. Dann werden Gemeinschaften durch die Erweiterung und Einbeziehung von hoch empfohlenen Mitgliedern vervollständigt. Experimente mit realen und großen Datensammlungen zeigen, dass der vorgeschlagene Algorithmus in der Lage ist, solche Gemeinschaften effektiv zu identifizieren, die Folgendes erfüllen: (1) die Beziehungen zwischen den Mitgliedern von Intragemeinschaften sind eng, (2) die Grenzen zwischen den Intergemeinschaften sind spärlich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24396-7_28 7b11b937b1fd13bd337dbcefbfcf6177;de;;;7.3.;;;Web 2.0, Sprachressourcen und Standards zum automatischen Erstellen eines mehrsprachigen Named Entity Lexicon Dieses Papier schlägt vor, den aktuellen Stand der Technik beim Aufbau automatischer Sprachressourcen (LR) voranzutreiben, indem drei Elemente berücksichtigt werden: (1) das Wissen, das in bestehenden LRs verfügbar ist, (2) die riesige Menge an Informationen, die von das aus dem Web 2.0 hervorgegangene kollaborative Paradigma und (3) die Verwendung von Standards zur Verbesserung der Interoperabilität. Wir präsentieren eine Fallstudie, in der eine Reihe von LRs für verschiedene Sprachen (WordNet für Englisch und Spanisch und Parole-Simple-Clips für Italienisch) um Named Entities (NE) erweitert werden, indem Wikipedia und die oben genannten LRs genutzt werden. Das praktische Ergebnis ist ein mehrsprachiges NE-Lexikon, das mit diesen LRs und zwei Ontologien verbunden ist: SUMO und SIMPLE. Darüber hinaus spricht das Papier ein wichtiges Problem an, das den Bereich Computerlinguistik in der Gegenwart betrifft, die Interoperabilität, indem der ISO-LMF-Standard verwendet wird, um dieses Lexikon zu codieren. Die verschiedenen Verfahrensschritte (Mapping, Disambiguation, Extraction, NE-Identifikation und Postprocessing) werden umfassend erläutert und bewertet. Die resultierende Ressource enthält 974.567, 137.583 und 125.806 NEs für Englisch, Spanisch bzw. Italienisch. Um schließlich die Nützlichkeit der konstruierten Ressource zu überprüfen, wenden wir sie in ein hochmodernes Frage-Antwort-System an und bewerten ihre Auswirkungen. Das NE-Lexikon verbessert die Genauigkeit des Systems um 28,1%. Im Vergleich zu früheren Ansätzen zur Erstellung von NE-Repositories stellt der aktuelle Vorschlag einen Fortschritt in Bezug auf Automatisierung, Sprachunabhängigkeit, Anzahl der erworbenen NEs und Fülle der dargestellten Informationen dar.;-;-;-;https://link.springer.com/article/10.1007/s10579-011-9148-x e8746d94a2715cfd6d2a3a7529103ee5;de;;;7.3.;;;Kombination von sozialen Netzwerken und Semantic-Web-Technologien zur Personalisierung des Webzugriffs Der ursprüngliche Zweck von Web-Metadaten bestand darin, Endbenutzer vor möglichen schädlichen Inhalten zu schützen und die Suche und den Abruf zu vereinfachen. Sie können jedoch auch in erweiterten Anwendungen genutzt werden, wie z. Um dies zu erreichen, ist es jedoch notwendig, mehrere Probleme anzugehen. Einer der wichtigsten Aspekte ist die Beurteilung der Vertrauenswürdigkeit von Web-Metadaten. In diesem Papier diskutieren wir, wie dieses Problem durch den Einsatz von kollaborativen und semantischen Web-Technologien angegangen werden kann. Das von uns vorgeschlagene System basiert auf einem webbasierten sozialen Netzwerk, in dem Mitglieder nicht nur Labels angeben, sondern auch bestehende Labels bewerten können. Sowohl Labels als auch Bewertungen werden dann verwendet, um die Vertrauenswürdigkeit der Ressourcenbeschreibungen zu bewerten und die Personalisierung des Webzugriffs durchzusetzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03354-4_11 834bb2a978b5d61b82618614cbf1cafa;de;;;7.3.;;;Eine komponentenorientierte Architektur zum Entwerfen von Multimediadiensten auf einer verteilten Plattform Heutzutage steigt die Nachfrage nach anspruchsvollen Multimedia-Telekommunikationsdiensten. Es besteht ein Bedarf, verteilte Programme mit Multimedia-Datenaustausch zu erstellen, die auf einer verteilten Plattform laufen. Daher ist es notwendig, eine Kommunikationsdienstinfrastruktur aufzubauen, um Designer von Telekommunikationsdiensten bei der Entwicklung neuer Anwendungen zu unterstützen. In diesem Papier stellen wir eine Multimedia-Telekommunikationsdienstarchitektur als Rahmen für die Diensterstellung vor. Die Architektur wurde nach dem komponentenorientierten Paradigma entworfen. Der Basismodellansatz definiert eine Sammlung von Komponenten, die von Konnektoren gesteuert werden, die Interaktionsmuster abstrahieren. Außerdem zeigen wir in diesem Papier die Implementierung des komponentenbasierten Modells, das auf die Koordination von Anwendungen im Web angewendet wird.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-63343-X_40 f1441f8239a2a453e21d937bdacc0380;de;;;7.3.;;;Semantic Web Services für Smart Devices in einer „Global Understanding Environment“ Es wird normalerweise davon ausgegangen, dass verschiedene Webressourcen und -dienste von menschlichen Benutzern (aktuelles Web) oder von Softwareagenten im Auftrag menschlicher Benutzer (emergendes semantisches Web) verwendet und darauf zugegriffen werden. Allerdings entsteht in der Industrie auch eine neue Gruppe von „Benutzern“, das sind intelligente Industriegeräte, Roboter oder andere Objekte, die an die (Semantic) Web-Umgebung angepasst werden können. Sie bräuchten spezielle Dienstleistungen für z.B. Online-Zustandsüberwachung, Informationsbereitstellung, Ferndiagnose, Wartungsunterstützung usw. Das Ziel dieses Dokuments besteht darin, die wichtigsten Anforderungen an Webdienste zu spezifizieren, die die Leistungs- und Wartungsanforderungen von Feldgeräten automatisch verfolgen und vorhersagen. Semantic Web-fähige Services bilden ein Servicenetzwerk basierend auf internen und externen Serviceplattformen und OntoShell-Software. Konzepte einer „Global Understanding Environment“ und einer „Mobile Service Component“ gehen davon aus, dass jede Komponente an eine Semantic Web-Umgebung angepasst und auf jeder Plattform vom Service-Netzwerk, einschließlich der Seite des Service-Anforderers, ausgeführt werden kann. Dies ermöglicht nicht nur die Bereitstellung von Dienstergebnissen, sondern auch eines Dienstes selbst. Die mobile Servicekomponente innerhalb einer OntoShell (Agent) kann in die lokale Umgebung eines Feldgeräts (Embedded Agent Platform) wechseln und ihre Aktivitäten lokal ausführen. Servicekomponenten verbessern ihre Leistung durch Online-Lernen und Kommunikation mit anderen Komponenten. Die Erkennung heterogener Servicekomponenten basiert auf der semantischen P2P-Suche.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39962-9_37 a0e6acd4efcb04cf094f4fe23ba601c0;de;;;7.3.;;;Modelle zur Online-Änderungsschätzung für dynamische Webressourcen Moderne Web 2.0-Anwendungen haben das Internet in einen interaktiven, dynamischen und lebendigen Informationsraum verwandelt. Persönliche Weblogs, kommerzielle Websites, Nachrichtenportale und Social-Media-Anwendungen erzeugen hochdynamische Informationsströme, die an Millionen von Nutzern weitergegeben werden müssen. Dieser Artikel konzentriert sich auf das Problem der Schätzung der Veröffentlichungshäufigkeit von hochdynamischen Webressourcen. Wir veranschaulichen die Bedeutung der Entwicklung effizienter;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31753-8_33 104a9857d4e462cb49578971a799ff04;de;;;7.3.;;;Agentenvermittelte proaktive Websites In diesem Papier untersuchen wir das Konzept eines semantischen Desktops, in dem Softwareanwendungen für die Automatisierung ansonsten mühsamer Aufgaben und die Aktualisierung von Benutzerinformationen verantwortlich sind. Wir schlagen eine ontologiegesteuerte Software-Agentenlösung vor, bei der zwei Hauptaspekte im Vordergrund stehen: Architektur und Prozess. Das Thema Architektur befasst sich mit der gegenwärtigen statischen Natur von Informationen auf einer Webseite. Um das gewünschte Maß an Proaktivität zu erreichen, müssen wir in der Lage sein, wichtige semantische Informationen so zu identifizieren, zu klassifizieren und zu codieren, dass sie von Maschinen automatisch manipuliert werden können. Das zweite Problem betrifft die Strategie/Strategien, die verwendet werden, um Informationen dynamisch zu aktualisieren. Aufgrund der Vielzahl von Maßnahmen, die zur Aktualisierung von Websites erforderlich sind, z. B. Überwachung von Änderungen personenbezogener Daten (Telefonnummern, Adressen, Hobbys usw.), Pflege des Wissens über institutionelle Informationen, Reaktion auf externe Ereignisse, Reaktion auf politische und Umweltänderungen usw ., gehen wir davon aus, dass keine einzelne Strategie zur Aufrechterhaltung eines dynamischen Informationsbewusstseins ausreicht, sondern dass eine Vielzahl von Strategien in die Praxis umgesetzt werden müssen. Wir schlagen die Schaffung einer Gemeinschaft von Softwareagenten vor, von denen jeder für die Erfüllung unterschiedlicher Aufgaben verantwortlich ist. Der semantische Desktop wird durch die Zusammensetzung der Site-Semantik mit der von den instanziierten Softwareagenten bereitgestellten Funktionalität erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/11964995_1 c6b8ee5f6f04df18ed105963d1e993eb;de;;;7.3.;;;Bewertung der semantischen Qualität der Webverzeichnisstruktur Die Verwaltung des Inhalts eines Webverzeichnisses und der zugehörigen Struktur ist eine arbeitsintensive Aufgabe, die von Experten für menschliche Domänen ausgeführt wird. Aus diesem Grund besteht immer ein realistisches Risiko, dass die Struktur unausgewogen, ungleichmäßig und für alle schwer zu verwenden ist, außer für einige wenige Benutzer, die ein bestimmtes Webverzeichnis beherrschen. Diese Probleme unterstreichen die Bedeutung allgemeiner und objektiver Messungen der Strukturqualität von Webverzeichnissen. In diesem Whitepaper zeigen wir, wie man Webverzeichnisse formell in die Semantic Web-Vision einfügt. Wir stellen eine Reihe objektiver Kriterien zur Bewertung der Strukturqualität eines Webverzeichnisses vor. Einige Kriterienfunktionen basieren auf Heuristiken, während andere die Anwendung von Ontologien erfordern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04441-0_33 214b84219d766aacb948804db684f3c4;de;;;7.3.;;;Dinosys: Ein Anmerkungstool für webbasiertes Lernen Die Hauptfunktion von Freiform-Annotationssystemen besteht darin, den Austausch, die Kommunikation und die Interoperabilität im Web zu verbessern. Der Zweck dieses Papiers besteht einerseits darin, eine Synthese der Eigenschaften der Annotationen und Architekturen von Annotationssystemen zu erstellen und andererseits eine neue Architektur für ein Annotationssystem vorzuschlagen, die einfach zu verwenden, leichtgewichtig und effizient ist , unaufdringlich, skalierbar, gemeinsam genutzt und plattformunabhängig. Der Einsatz dieses Tools im Rahmen des E-Learning wird ebenfalls untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27859-7_8 ba619d585c24ea175722df3cfded6896;de;;;7.3.;;;Diva: Ein webbasierter hochauflösender digitaler Dokumentenbetrachter Dieses Whitepaper stellt das Diva-Projekt (Document Image Viewer with Ajax) vor. Diva ist ein mehrseitiger Bildbetrachter, der für webbasierte digitale Bibliotheken entwickelt wurde, um Dokumente in einem Webbrowser zu präsentieren. Zu den wichtigsten Funktionen von Diva gehören: „Lazily Loading“ nur die Teile des Dokuments, die der Benutzer gerade betrachtet, die Möglichkeit zum „Ein- und Auszoomen“ zum Anzeigen von hochauflösenden Seitenbildern, Unterstützung für Pyramid TIFF oder JPEG 2000-Bilder mit mehreren Auflösungen, eine mehrseitige „Raster“-Ansicht für Seitenbilder und HTML5-Canvas-Unterstützung für die Drehung des Dokumentbilds und die Helligkeits-/Kontraststeuerung. Wir diskutieren kurz die Geschichte und Motivation hinter seiner Entwicklung, geben einen Überblick darüber, wie es im Vergleich zu anderen Dokumentbildbetrachtern abschneidet, veranschaulichen die verschiedenen Komponenten von Diva und seine Funktionsweise und geben Beispiele dafür, wie dies in einem digitalen Bibliothekskontext verwendet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33290-6_51 f4aa3d790d70277f30bfeec8dcbe622f;de;;;7.3.;;;Computerbasierte Internet-Hosted Assessment of L2 Literacy: Computerisierung und Verwaltung des Oxford Quick Placement Tests in ExamView und Moodle Die Sortierung von koreanischen Universitätsstudenten in Englisch als Fremdsprache (EFL) nach Eignung für die Zweitsprache (L2) ordnet die Studenten in Klassen mit kompatiblem Leistungsniveau ein und wurde hier verwendet, um Kandidaten für ein Vorstellungsgespräch zu filtern. Papier-und-Stift-Versionen des Oxford Quick Placement Tests wurden an computerbasierte Tests über Online-Hosting mit FSCreations ExamView angepasst. Probleme mit ihrer Online-Hosting-Site führten zur Umstellung auf das beliebte computerbasierte Lernmanagementsystem Moodle, das auf www.ninehub.com gehostet wird. 317 Studenten im zweiten Jahr wurden online getestet, um die digitale Kompetenz in L2 zu fördern. Zu den Strategien für eine effektive hybride Implementierung von Lernmanagementsystemen in der L2-Hochschulbildung gehören computerbasierte internetgestützte L2-Eignungstests. Diese bieten möglicherweise ein bequemes Maß für den Fortschritt der Schüler bei der Entwicklung der L2-Flüssigkeit und bieten ein objektiveres und relevanteres Mittel zur Beurteilung durch Lehrer und Kurse als Schülerbewertungen, die dazu neigen, Unterhaltungswert und Beliebtheit der Lehrer mit akademischer Glaubwürdigkeit und pädagogischer Wirksamkeit zu verwechseln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10512-8_10 73127d943a90c48816bd10e4a37f85a3;de;;;7.3.;;;Semantische Webdienste mit SOUL Semantic Web Services sollen es Benutzern erleichtern, die benötigten Informationen im Web zu finden, indem sie Abfragen in natürlicher Sprache verwenden, anstatt einfache Schlüsselwörter wie in Suchmaschinen. Es ist allgemein anerkannt, dass das Hauptproblem bei der Umsetzung dieser Idee das Problem der semantischen Repräsentation ist, das gleiche Problem, das KI-Forscher lange Zeit zu lösen versuchten. Im Semantic Web werden verschiedene Ontologie- und Schemasprachen verwendet, um die Semantik von Webseiten darzustellen, aber sie erfordern einen umfangreichen Aufwand, um die bestehenden Webseiten zu übersetzen. Wir schlagen eine neue Wissensrepräsentationstechnik, die sogenannte Hierarchical Semantic Form, zusammen mit einem unterstützenden SOUL-Algorithmus vor, der ein rudimentäres Verständnis vorhandener, nicht kommentierter Webseiten ermöglichen soll, wodurch deren aufwändige Übersetzung entfällt. Als Beispiel haben wir einen Prototyp eines Semantic Web Service implementiert, der Informationen über Flüge bereitstellt, die auf einer gewöhnlichen Webseite gespeichert sind.;-;-;-;https://link.springer.com/chapter/10.1007/11565123_33 c0452ddcd043e8911265c3f883f30c81;de;;;7.3.;;;Zur Charakterisierung einzelner Benutzer durch Webanalyse Wir führen eine Analyse der Art und Weise durch, wie einzelne Benutzer im Web navigieren. Wir konzentrieren uns hauptsächlich auf die zeitlichen Muster ihrer Rückkehr zu einer bestimmten Seite. Die Wiederkehrwahrscheinlichkeit als Funktion der Zeit sowie die Verteilung der Zeitintervalle zwischen aufeinanderfolgenden Besuchen werden gemessen und als unabhängig vom Aktivitätsgrad einzelner Nutzer eingestuft. Die Ergebnisse weisen auf eine große Vielfalt individueller Verhaltensweisen hin und scheinen die Möglichkeit auszuschließen, für jeden Nutzer eine charakteristische Häufigkeit bei seinen Besuchen einer einzelnen Site zu definieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02469-6_102 b179b4b3b0a730ef188de5a84405e3cd;de;;;7.3.;;;Webbasierte Informationssysteme zu IKT für die ökologische Nachhaltigkeitsforschung in Europa Zur Förderung eines einheitlichen europäischen Forschungsraums im Bereich IKT für ökologische Nachhaltigkeit wurde das RP7-Projekt ICT-ENSURE (ICT Environmental Sustainability Research) durchgeführt. Im Rahmen von ICT-ENSURE wurden zwei webbasierte Informationssysteme mit kostenlosem Online-Zugang entwickelt: ein Forschungsprogramm-Informationssystem und ein Literatur-Informationssystem. Das Forschungsprogramm-Informationssystem dient als Informationsquelle zu nationalen Forschungsprogrammen und -projekten in der Europäischen Union im Bereich IKT für ökologische Nachhaltigkeit. Das Literaturinformationssystem stellt der wissenschaftlichen Gemeinschaft und anderen Interessierten wissenschaftliche Literatur zu diesem Gebiet zur Verfügung. Beide Systeme bieten den Endbenutzern verschiedene Such- und Navigationsmöglichkeiten. Die Informationssysteme sind vollständig integriert und basieren vollständig auf Open Source / freier Software. Im Kapitel werden Ziel, Aufbau, Inhalt und Funktionsweise der Informationssysteme beschrieben und die Pflege und Qualitätssicherung der Inhalte angesprochen. Neben der Vorstellung der Informationssysteme zielt das Kapitel auch darauf ab, die Beteiligung der ITEE-Gemeinschaft an den Inhalten dieser Systeme zu fördern, um einen einheitlichen europäischen Forschungsraum im Bereich der IKT für ökologische Nachhaltigkeit zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19536-5_18 b018c91c96d79512a86b6e4bca6b1d8a;de;;;7.3.;;;Das Setting für semantische webbasierte Bildung Semantic Web Based Education nimmt derzeit Fahrt auf und das Interesse der E-Learning-Community an SWBE steigt. Für SWBE bestehen gute Chancen, im gleichen Tempo wie das Semantic Web selbst voranzukommen, da ein Großteil der benötigten Technologie bereits vorhanden ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35417-0_3 b5ea003f70dba5602dc7fb1bf5b08ffc;de;;;7.3.;;;Anpassen von Desktop-Webseiten für das vokale Surfen In diesem Whitepaper beschreiben wir eine Lösung, um Webseiten durch die Analyse und Modifizierung ihrer logischen Struktur besser für das Vokal-Browsing geeignet zu machen. Die Lösung nutzt logische Zwischenbeschreibungen, die automatisch durch Reverse-Engineering-Techniken erstellt werden. Die Anpassungsmaschine zielt darauf ab, die logische Hauptstruktur der Webseitenkomponenten zu identifizieren und die für die grafische Modalität spezifischen Aspekte zu entfernen. Dann wird eine Sprachimplementierung generiert, um das Browsen zu unterstützen, was damit beginnt, dass der Benutzer aus den Hauptkomponenten auswählt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23765-2_42 1b3589383b52c28d9cc2e80ffa79e8c8;de;;;7.3.;;;RAId_DbS: Massenspektrometrie-basierter Peptididentifikations-Webserver mit Wissensintegration Die vorhandene wissenschaftliche Literatur ist eine reichhaltige Quelle für biologische Informationen wie Krankheitsmarker. Die Integration dieser Informationen in die Datenanalyse kann Forschern helfen, mögliche Kontroversen zu identifizieren und nützliche Hypothesen für weitere Validierungen zu bilden. Im Rahmen von Proteomics-Studien kann die individualisierte Proteomics-Ära durch Berücksichtigung von Aminosäuresubstitutionen/-modifikationen sowie Informationen aus Krankheitsstudien angegangen werden. Die Integration solcher Informationen mit Peptidsuchen ermöglicht eine schnelle, dynamische Informationssuche, die klinischen Laborstudien erheblich zugute kommen kann.;-;-;-;https://link.springer.com/article/10.1186/1471-2164-9-505 4787e55bdcb693686762d695ead6ae00;de;;;7.3.;;;Ein verteiltes Website-Manipulationsschutzsystem basierend auf Filtertreiber und Proxy Das Problem, dass Websites angegriffen werden, hat die Sicherheit des Internets ernsthaft beeinträchtigt. In diesem Papier wird ein Filtertreiber- und Proxy-basiertes Website-Anti-Manipulationssystem (FPWAS) vorgeschlagen. FPWAS besteht aus fünf Subsystemen, darunter Web File Monitor, Content Publish, Web Proxy, Backup and Recovery und Monitor Center. Der Dateifiltertreiber wird verwendet, um Web-Programmdateien zu schützen, die illegal manipuliert werden, und die geschützten Websites werden hinter einem Web-Proxy ausgeführt, der über eine Intrusion Detection-Funktion verfügt. Experimente zeigen, dass FPWAS gut funktionieren kann und eine akzeptable gleichzeitige Leistung aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25989-0_67 4abc8f573b5ed4767a5cf4c21933d144;de;;;7.3.;;;Visuelle Wahrnehmung virtueller Vorlesungen durch Studierende, gemessen durch Eye Tracking In diesem Artikel haben wir Eye-Tracking-Methoden verwendet, um die visuelle Wahrnehmung von Vorlesungen durch Studenten mit 3D-Echtzeit-Virtual-Studio-Technologie zu untersuchen. Zur Messung der Lernleistung haben wir den Studierenden am Ende der Vorlesungen auch Multiple-Choice-Papierquizzes gegeben. Es wurden drei virtuelle Vorlesungen mit unterschiedlichen Arten von Vorlesungsmaterialien (textzentriert, bildzentriert und dozentenzentriert) und virtuellen 3D-Sets (Klassenzimmer, Cyberspace und Vorlesungsthemenraum) erstellt. Durch die Analyse der Augenbewegungen der Studenten beim Betrachten von Stand- und Bewegungsszenen der virtuellen Vorlesungen haben wir festgestellt, dass Layouts und Bewegungen von Designelementen auf Vorlesungsbildschirmen die Scanpfade und Interessenbereiche (AOIs) der Studenten signifikant beeinflussten. Die Arten des Vorlesungsmaterials beeinflussten die Lernleistung, während virtuelle 3D-Sets aufgrund der Unaufmerksamkeit der Schüler gegenüber den virtuellen Hintergrundbereichen keine Wirkung hatten. Wir diskutieren effektive Möglichkeiten, virtuelle Vorlesungen zu entwickeln und Vorlesungsbildschirme für eine bessere Präsentation von Vorlesungsinhalten und eine höhere Lernleistung zu gestalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02574-7_10 71dd801b7807a1769d4b60ac686bd994;de;;;7.3.;;;Verteilte Systeme für Gruppenadaption im Web Dieses Papier beschreibt das Projekt eines adaptiven Systems zur Gruppennavigation im Web. Das Ziel des Projekts besteht darin, Benutzergruppen, die ein „gemeinsames Interesse“ im Web teilen, kollaborative und adaptive Navigation bereitzustellen. Ziel der kollaborativen Navigation ist es, den Wissens- und Informationsaustausch zwischen Nutzern mit gemeinsamen Zielen zu fördern.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44595-1_55 98ba4fcdec3893fcee7aad747b545280;de;;;7.3.;;;Effiziente Verarbeitung von komprimiertem Web-Traffic mit mehreren Verbindungen Die Komprimierung des Webdatenverkehrs mit Standard-GZIP wird aufgrund der enormen Zunahme von drahtlosen Webgeräten, bei denen die Bandbreite begrenzt ist, sowohl beliebt als auch eine Herausforderung. Sicherheits- und andere inhaltsbasierte Netzwerkgeräte sind erforderlich, um den Verkehr von Zehntausenden gleichzeitiger Verbindungen zu dekomprimieren, um den Inhalt auf verschiedene Signaturen zu untersuchen. Der größte limitierende Faktor bei diesem Prozess ist der hohe Speicherbedarf von 32 KB pro Verbindung, der zu Hunderten von Megabyte bis Gigabyte Hauptspeicherverbrauch führt. Diese Anforderung hindert die meisten Geräte daran, komprimierten Datenverkehr zu verarbeiten, was wiederum entweder die Datenverkehrskomprimierung einschränkt oder Sicherheitslücken und andere Dysfunktionen einführt. In diesem Beitrag stellen wir neue Algorithmen und Techniken vor, die diesen Platzbedarf drastisch um über 80 % reduzieren, bei nur geringem Zeitaufwand, wodurch die Echtzeit-Überprüfung des komprimierten Datenverkehrs eine praktikable Option für Netzwerkgeräte wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20757-0_5 b6f3808b13845aa986a110fa9dc75200;de;;;7.3.;;;Herausforderungen, Chancen und ein Framework für die Webumgebungsforensik Das Web hat sich zu einer robusten und allgegenwärtigen Plattform entwickelt, die fast jeden Aspekt des Lebens der Menschen verändert. Die einzigartigen Eigenschaften des Internets stellen die Ermittler der digitalen Forensik vor neue Herausforderungen. Beispielsweise ist es viel schwieriger, auf online gespeicherte Daten zuzugreifen, als auf Daten auf der Festplatte eines Laptops zuzugreifen. Trotz der Tatsache, dass die Erfassung und Analyse von Daten aus dem Internet für forensische Ermittler eine größere Herausforderung darstellt, speichern Webumgebungen weiterhin mehr Daten als je zuvor für Benutzer.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99277-8_2 4011dcabc0fe8aefcf9549f227021498;de;;;7.3.;;;Zeremonienanalyse: Stärken und Schwächen Wir untersuchen bekannte Sicherheitslücken im Rahmen von Sicherheitszeremonien, um den Prozess der Zeremonienanalyse zu verstehen. Der Begriff Sicherheit;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21424-0_9 b72cf48893ff0ad38703d77ad1cc2c72;de;;;7.3.;;;Zum automatisierten Testen von Beschreibungslogik-Begründern OWL und RDF/RDFS sind vom World Wide Web Consortium (W3) entwickelte ontologische Sprachen, die sich zu einem De-facto-Standard für die ontologischen Beschreibungen in verschiedenen Domänen entwickelt haben. Die Entwicklung dieser Standards wurde durch die zahlreichen Fortschritte in der Erforschung der Wissensrepräsentation und des Denkens beeinflusst. Obwohl die Unterstützung von Argumentation und standardisierter Darstellung der Hauptvorteil dieser Technologien ist, fehlt es an bestehenden Testframeworks, die in der Lage wären, viele entscheidende Aspekte der Semantic Web-Anwendungen zu adressieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89737-8_2 c78114433ce1960ec2630ab88444dfe4;de;;;7.3.;;;Flussbasierte Identifizierung von Fehlern, die durch IPv6-Übergangsmechanismen verursacht werden Die IETF hat mehrere Lösungen entwickelt, die die Koexistenz von IPv4 und IPv6 fördern, aber sie müssen im großen Maßstab gründlich getestet werden, bevor sie tatsächlich als praktikable Lösungen angesehen werden können. In der folgenden Studie präsentieren wir eine experimentelle Bewertung der beiden beliebten Übergangstechnologien: NAT64 und Dual-Stack Lite. Unser erstes Ziel ist es, herauszufinden, wie gut aktuelle Anwendungen, Protokolle und Online-Dienste mit diesen Technologien zusammenarbeiten und mögliche Ausfälle zu erkennen. Unser zweites Ziel besteht darin, eine stromorientierte Flussabfragesprache NFQL zu verwenden, um Abfragen zu formulieren, die diese Fehler finden können, indem sie die Spuren von NetFlow-Datensätzen durchsuchen. Wir haben mehrere Anwendungen identifiziert, die unter NAT64 fehlschlagen, und wir analysieren, wie diese Fehler automatisiert erkannt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30633-4_19 487513143c452c3dca8ea9212981a6db;de;;;7.3.;;;Auf dem Weg zum flexiblen Mashup von Webanwendungen basierend auf Informationsextraktion und -transfer Mashup kombiniert Informationen oder Funktionen aus zwei oder mehr vorhandenen Webquellen, um eine neue Webseite oder Anwendung zu erstellen. Zu den Webquellen, die zum Erstellen von Mashup-Anwendungen verwendet werden, gehören hauptsächlich Webanwendungen und Webdienste. Die herkömmliche Methode zum Erstellen von Mashup-Anwendungen besteht darin, Webdienste zu verwenden, indem ein Skript oder ein Programm zum Aufrufen dieser Webdienste geschrieben wird. Um Benutzern ohne Programmiererfahrung zu helfen, flexible Mashup-Anwendungen zu erstellen, schlagen wir in diesem Papier einen Mashup-Ansatz von Webanwendungen vor. Unser Ansatz ermöglicht es Benutzern, Mashup-Anwendungen mit vorhandenen Webanwendungen ohne Programmierung zu erstellen. Darüber hinaus können Benutzer mit unserem Ansatz Informationen zwischen Webanwendungen übertragen, um aufeinander folgende Abfrage-Mashup-Anwendungen zu implementieren. Dieser Ansatz basiert auf den Methoden der Informationsextraktion, Informationsübertragung und Funktionalitätsemulation. Unsere Implementierung zeigt, dass auch allgemeine Webanwendungen verwendet werden können, um Mashup-Anwendungen einfach und ohne Programmierung zu erstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17616-6_52 2a7f5b55a6ffbe01f2dc5144e0aad82b;de;;;7.3.;;;Erstellen von Klassifizierungsmodellen aus textuellen Beschreibungen von Unternehmen mit Crunchbase Dieses Papier vergleicht verschiedene Modelle für die Multilabel-Textklassifizierung unter Verwendung von Informationen aus Crunchbase, einer großen Datenbank, die Informationen über mehr als 600000 Unternehmen enthält. Jedes Unternehmen wird mit einer oder mehreren Kategorien aus einer Untermenge von 46 möglichen Kategorien gekennzeichnet, und die vorgeschlagenen Modelle sagen die Kategorien ausschließlich auf der Grundlage der textlichen Beschreibung des Unternehmens voraus. Eine Reihe von Strategien zur Verarbeitung natürlicher Sprache wurden für die Merkmalsextraktion getestet, einschließlich Stammbildung, Lemmatisierung und Wortart-Tags. Dies ist ein sehr unausgewogener Datensatz, bei dem die Häufigkeit jeder Kategorie zwischen 0,7 % und 28 % liegt. Unsere Ergebnisse zeigen, dass der Beschreibungstext jedes Unternehmens Merkmale enthält, die es ermöglichen, seinen Tätigkeitsbereich, ausgedrückt durch die entsprechenden Kategorien, mit einer Genauigkeit von etwa 70 % und einer Erinnerung von 42 % vorherzusagen. In einer zweiten Reihe von Experimenten, einem Mehrklassenproblem, das versucht, die wahrscheinlichste Kategorie zu finden, erreichten wir mit SVM und Fuzzy Fingerprints eine Genauigkeit von etwa 67 %. Die resultierenden Modelle können ein wichtiges Asset für die automatische Klassifizierung von Texten darstellen, die nicht nur aus Unternehmensbeschreibungen, sondern auch anderen Texten wie Webseiten, Textblogs, Nachrichtenseiten usw. bestehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-50146-4_51 5cf50fd80f823ad47a0cee232fb8275b;de;;;7.3.;;;Phenotrope und stigmergische Netze: die neue Reichweite von Netzwerken Dieser Artikel schlägt eine konzeptionelle Erweiterung von Sensor-Aktor-Netzwerken vor, die alle „Dinge“ umfasst, die von Sensoren erfasst oder auf die Aktoren in verschiedenen physikalischen Modalitäten einwirken können. Diese Dinge werden zu Knoten eines Webs, Graphen oder virtuellen Netzwerks, die über die vorhandenen Sensor-Aktor-Netzwerke gelegt werden, die das „Internet der Dinge“ bilden. Der Artikel erklärt, wie die breiteren Konzepte von Phenotropie und Stigmergie die besondere Art von Verbindungen erklären können, die diese Netzwerke mit sich bringen. Phenotropika beziehen sich auf ein Modell der Kommunikation zwischen Knoten durch Mustererkennung. Stigmergie bezieht sich auf ein Modell der Selbstorganisation, das die Kommunikation zwischen Entitäten durch Modifikationen einer gemeinsamen physischen Umgebung nutzt. Phenotrop-stimerge Netze „schleifen“ Sensor-Aktor-Netzwerke über die physikalische Welt zurück. Graphenbasierte Komplexitätsmodelle bieten eine Möglichkeit, die hybriden Systeme dieser Netze und der damit verbundenen zusätzlichen Knoten zu analysieren. Die Entwicklung hin zu solchen Paradigmen im Bereich der Netzwerk-zu-Umgebung-Schnittstellen stützt sich auf eine ähnliche, langjährige Entwicklung im Bereich der Mensch-zu-Information-Schnittstellen. Der Beitrag untersucht die Konsequenzen dieser neuen Netzwerkparadigmen auf die Architektur, das Management und die Organisation von Netzwerken. Es zeigt auch, wie diese Ideen die heutigen Anwendungen des Pervasive Networking erweitern und bereichern können, indem sie die physische Natur der neuen Endpunkte digitaler Netzwerke voll ausnutzen, und wie sie menschliche Schnittstellen zu vernetzten Diensten beeinflussen und möglicherweise neue Territorien für den universellen Zugang.;-;-;-;https://link.springer.com/article/10.1007/s10209-011-0240-1 425869960825eb3bbc376375056c3dcf;de;;;7.3.;;;Der Einfluss digitaler Konvergenz/Divergenz auf Geschäftsmodelle digitaler Medien Das Hauptziel dieses Artikels besteht darin, den Einfluss digitaler Konvergenz/Divergenz auf digitale Mediengeschäftsmodelle zu analysieren und zu diskutieren. Die Identifizierung nachhaltiger und wettbewerbsintensiver Geschäftsmodelle für digitale Medien ist eine dringende Priorität, da der anhaltende Rückgang des Publikums, der Zusammenbruch traditioneller/alter Medienorganisationen und der Rückgang des wirtschaftlichen und sozialen Einflusses der traditionellen Medien eine große Bedrohung für Medien, Demokratie, IKT- und Telekommunikationsindustrie, wobei sich die Wissenschaftler darin einig sind, dass eine weitere Erosion der Medienindustrie auch große Auswirkungen auf die Werbebranche und eine Vielzahl von Inhaltsproduzenten hat. Die erfolgreichen digitalen Medien- und ICT-Konzerne werden mehr als Unternehmensplaner sowie als „Cloud“, „On-Demand“ und „ubiquitäre“ Inhalte und Disaggregatoren agieren müssen als traditionelle Content- und Werbeanbieter.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99426-0_13 e789933472e13b36e94cf2095bfa97b5;de;;;7.3.;;;Eine empirische Studie zur Erweiterung von Gensynonymabfragen in der biomedizinischen Informationsabfrage Aufgrund der starken Verwendung von Gensynonymen in biomedizinischen Texten haben die Leute viele Abfrageerweiterungstechniken unter Verwendung von Synonymen ausprobiert, um die Leistung beim Abruf biomedizinischer Informationen zu verbessern. Es wurden jedoch gemischte Ergebnisse berichtet. Die größte Herausforderung besteht darin, dass es nicht trivial ist, den hinzugefügten Gensynonymen in der erweiterten Abfrage angemessene Gewichtungen zuzuweisen, eine Untergewichtung von Synonymen würde nicht viel Nutzen bringen, während eine Übergewichtung einiger unzuverlässiger Synonyme die Leistung erheblich beeinträchtigen kann. Bisher gab es keine systematische Bewertung verschiedener Strategien zur Erweiterung von Synonymabfragen für biomedizinische Texte. In dieser Arbeit schlagen wir zwei verschiedene Strategien vor, um einen Standard-Sprachmodellierungsansatz für die Erweiterung von Gensynonymabfragen zu erweitern und eine systematische Evaluierung dieser Methoden auf alle verfügbaren biomedizinischen TREC-Textsammlungen für den Ad-hoc-Dokumentabruf durchzuführen. Unsere Testergebnisse zeigen, dass die Synonymerweiterung die Abrufgenauigkeit erheblich verbessern kann. Unterschiedliche Abfragetypen erfordern jedoch unterschiedliche Methoden zur Synonymerweiterung, und eine angemessene Gewichtung von Gennamen und Synonymbegriffen ist für die Verbesserung der Leistung entscheidend.;-;-;-;https://link.springer.com/article/10.1007/s10791-008-9075-7 67bfea567ab2488527d1f9d9ef1a0077;de;;;7.3.;;;Untersuchung von Lärmschutzstrategien für die UMLS-basierte Abfrageerweiterung bei der Abfrage von Gesundheits- und biomedizinischen Informationen In den letzten Jahrzehnten wurde die ontologiebasierte Abfrageerweiterung von vielen Forschern untersucht, um den Abruf von Gesundheits- und biomedizinischen Informationen zu verbessern, aber die Ergebnisse früherer Arbeiten sind inkonsistent. Die Abfrageerweiterung mit Domänenontologien kann Rauschen verursachen, das die Abrufleistung beeinträchtigt, daher ist die Rauschkontrolle der Schlüssel zum Erfolg. In diesem Papier untersuchen wir drei Strategien zur Rauschunterdrückung für die UMLS-basierte Abfrageerweiterung. Die erste Strategie ist die Annahme eines hybriden Wort-Phrase-Retrieval-Modells, und die anderen beiden untersuchten Strategien sind die Gewichtung der Expansionsterme und die Termfilterung. Alle drei Strategien werden auf Basis der Suchmaschine Indri implementiert und auf zwei Standarddatensätzen, OHSUMED und TREC Genomic Track 2006, ausgewertet. Die experimentellen Ergebnisse zeigen, dass das Wort-Phrase-Hybrid-Retrieval-Modell dem wortbasierten Modell und der reinen Phrase überlegen ist -basiertes Modell und von Vorteil nicht nur für das Abrufen von Basislinien, sondern auch für die Erweiterung der Abfrage. Die Gewichtung der Expansionsterme ist eine wirksame Strategie, um Termrauschen zu unterdrücken und die Abrufleistung zu verbessern. Und die Filterung der Erweiterungsterme kann in den meisten Fällen auch einige positive Auswirkungen haben, ist aber nicht so effektiv wie die anderen beiden Strategien. Durch die Kombination der drei Strategien können die besten Abrufleistungen für beide Datensätze erzielt werden.;-;-;-;https://link.springer.com/article/10.1007/s12652-018-0836-x 9ee0fc104ab34cf9a577c9bab1165720;de;;;7.3.;;;Eine Analyse der Zeitinstabilität in Websuchergebnissen Aufgrund der Dynamik des Webs und der komplexen Architekturen moderner kommerzieller Suchmaschinen können sich Top-Ergebnisse in großen Suchmaschinen im Laufe der Zeit dramatisch ändern. Unsere experimentellen Daten zeigen, dass die Top-10-Ergebnisse aller drei großen Suchmaschinen (Google, Bing und Yahoo!) bei etwa 90 % der Suchanfragen innerhalb von zehn Tagen geändert werden. Obwohl diese Instabilität in einigen Situationen, wie z gefundenes Dokument).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20161-5_46 effc75c10e7f4feec22cfeb0a77d0a5d;de;;;7.3.;;;Durchsuchen des Webs nach Hyponymie-Beziehungen basierend auf Eigentumsvererbung Konzepthierarchien, wie Hyponymie- und Meronymiebeziehungen, sind für verschiedene Systeme zur Verarbeitung natürlicher Sprache sehr wichtig. Viele Forscher haben sich damit beschäftigt, sehr große Dokumentenkorpora wie das Web für sie nicht manuell, sondern automatisch zu gewinnen. Ihre Methoden basieren jedoch meist auf lexiko-syntaktischen Mustern als nicht notwendige, aber hinreichende Bedingungen von Konzepthierarchien, so dass sie bei Verwendung strengerer Muster eine hohe Genauigkeit bei niedrigem Recall oder bei Verwendung lockererer Patterns eine hohe Recall- aber niedrige Präzision erreichen können. In diesem Artikel wird angenommen, dass die Eigenschaftsvererbung von einem Konzept auf seine Hyponyme notwendige und ausreichende Bedingungen von Hyponymiebeziehungen ist, um eine hohe Erinnerungsfähigkeit und nicht eine geringe Präzision zu erreichen, und wir schlagen eine Methode vor, um Hyponymiebeziehungen aus dem Web basierend auf der Eigenschaftsvererbung zu erwerben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78849-2_12 ad146d6d694449155052a58156f3f1b8;de;;;7.3.;;;Eine empirische Studie zu Tokenisierungsstrategien für den biomedizinischen Informationsabruf Aufgrund der großen Vielfalt biologischer Namen in biomedizinischen Texten ist die geeignete Tokenisierung ein wichtiger Vorverarbeitungsschritt für die biomedizinische Informationsgewinnung. Trotz seiner Bedeutung gibt es nur wenige Studien zur Bewertung verschiedener Tokenisierungsstrategien für biomedizinische Texte. In dieser Arbeit führten wir eine sorgfältige, systematische Bewertung einer Reihe von Tokenisierungsheuristiken für alle verfügbaren biomedizinischen TREC-Textsammlungen für den Ad-hoc-Dokumentabruf durch, wobei wir zwei repräsentative Retrievalmethoden und eine Pseudorelevanz-Feedback-Methode verwendeten. Wir untersuchten auch die Wirkung von Wortstamm- und Stoppwortentfernung auf die Abrufleistung. Wie erwartet zeigen unsere Versuchsergebnisse, dass die Tokenisierung die Abrufgenauigkeit signifikant beeinflussen kann, eine entsprechende Tokenisierung kann die Leistung um bis zu 96% verbessern, gemessen an der mittleren durchschnittlichen Präzision (MAP). Insbesondere wird gezeigt, dass unterschiedliche Abfragetypen unterschiedliche Tokenisierungsheuristiken erfordern, die Wortstammbildung nur für bestimmte Abfragen effektiv ist und die Entfernung von Stoppwörtern im Allgemeinen die Abrufleistung für biomedizinischen Text nicht verbessert.;-;-;-;https://link.springer.com/article/10.1007/s10791-007-9027-7 58a0bab216393a0b6f4b24fa24ebbf60;de;;;7.3.;;;Informationsassistent: Eine Initiativ-Themensuchmaschine Die Probleme der Informationsüberflutung bei der Nutzung von Suchmaschinen und der zeitliche Effizienzverlust der indizierten Daten waren wesentliche Hemmnisse bei der Weiterentwicklung des Internets. In diesem Artikel wird eine neue Themensuchmaschine für wissensbasierte Initiativen namens;-;-;-;https://link.springer.com/chapter/10.1007/11739685_33 8155762d8d7e58d2972ffba6a4954369;de;;;7.3.;;;Emotionaler Mangel in einer webbasierten Lernumgebung und Lösungsvorschläge Emotionen sind eines der Schlüsselelemente, die das Sprachenlernen beeinflussen, aber das Phänomen des emotionalen Mangels ist mit der weit verbreiteten Anwendung webbasierter autonomer Lernplattformen aufgetreten. Dieses Papier, das auf den eigenen Lehrerfahrungen des Autors und einigen anderen Studien basiert, diskutiert die Bedeutung emotionaler Faktoren für das Sprachenlernen, untersucht die Hauptursachen für emotionale Defizite beim autonomen Lernen in einer webbasierten Umgebung und bietet einige Lösungsvorschläge zur subjektiver Status der Schüler beim autonomen Lernen und wie sie ihre Leistung verbessern können.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_268 165bdea1d996a2f35572fddba875aeaa;de;;;7.3.;;;Verbesserung mobiler Agenten mit E-Commerce-Funktionen Das Paradigma der mobilen Agenten bietet eine leistungsstarke und flexible Möglichkeit, verteilte Anwendungen auf einem hohen Abstraktionsniveau zu entwickeln. Eine der interessantesten Aufgaben für mobile Agenten ist die aktive Suche nach relevanten Informationen in nicht lokalen Domänen im Auftrag ihrer Benutzer. Ein mobiler Agent wird im Auftrag eines Benutzers an verschiedene Host-Server im Internet gesendet, um Informationen zu finden. In Zukunft sind diese Informationen möglicherweise nicht frei zugänglich, sodass der Agent möglicherweise dafür bezahlen muss. Daher muss der mobile Agent mit E-Commerce-Fähigkeiten ausgestattet sein. Dies impliziert eine fehlertolerante und sichere Infrastruktur für den mobilen Agenten. In diesem Beitrag stellen wir ein System vor, das E-Commerce-Funktionen für mobile Agenten bietet. Diese Fähigkeiten sind Teil einer Architektur, die unterschiedliche Sicherheitsprobleme und Fehlertoleranz für mobile Agenten garantiert. Die Sicherheit für die beteiligten Partner erfolgt durch Verschlüsselungsverfahren, die auf einem Public-Key-Authentication-Mechanismus basieren und durch Secret-Key-Verschlüsselung der Kommunikation. Um eine Fehlertoleranz des Agentensystems, insbesondere beim Agententransfer zu einem neuen Host, zu erreichen, verwenden wir Distributed Transaction Processing (DTP). Diese Architektur kann zusätzlich zu bestehenden mobilen Agentensystemen verwendet werden, z.B. als Weiterentwicklung des „GO-Statements“ und bietet eine hohe Zuverlässigkeit, da die Umsetzung auf standardisierten Komponenten basiert.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0053681 eab8fd514a002b4fb3d4fc720e8d9c59;de;;;7.3.;;;Suche nach themenbezogenen Tweets mithilfe von Konversations-Thread Microblog hat immer mehr Benutzer auf der ganzen Welt gewonnen, dessen Popularität die Verbreitung von Informationen in Microblogs zu den wichtigsten und einflussreichsten Aktivitäten im Internet macht. Daher ist die Suche in Microblogs für die akademische und industrielle Welt von größter Bedeutung. Die Suche in Webseiten wird seit mehreren Jahrzehnten untersucht, aber was Microblogs betrifft, ist sie immer noch eine offene und brandneue Frage für jeden. Die Suche in Microblogs ist aufgrund der spärlichen Nachrichten schwieriger als in herkömmlichen Webseiten. Suchfunktionen in aktuellen Microblogging-Diensten ordnen Microblog-Nachrichten lediglich Abfragewörtern zu, was die Korrelation zwischen den abrufenden Nachrichten und der Intention der Nutzer nicht garantieren kann. Wir führen das Konzept des Konversationsthreads ein, um mehr Informationen zu erhalten und das Suchergebnis im Microblog zu verbessern. Wir verwenden SVMRank auch, um ein Modell zu trainieren, um den Relevanzrang der Abfragen und Nachrichten zu bestimmen. Durch eine Reihe von Experimenten haben wir bewiesen, dass unsere Methode einfach zu implementieren ist und die Genauigkeit im Durchschnitt um bis zu 29% verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32891-6_33 bc0884f06d0e08bcc4162149004ebd36;de;;;7.3.;;;Personalisierung des Suchprofils mit Ant Foraging Approach Dieses Papier schlägt eine dreistufige Analyse der Webnavigation vor, die zu Suchergebnissen führt, die für die Interessen und Vorlieben des Benutzers relevant sind. Der Ansatz ist inspiriert durch das Nahrungssucheverhalten von Ameisen. Die erste Stufe konzentriert sich auf das Profil eines Benutzers basierend auf den besuchten Webseiten, um proportional zur Menge des von den Ameisen abgelagerten Pheromons zu sein. Der Pheromongehalt gibt die Interessen des Benutzers an. Die zweite Stufe klassifiziert die Profildaten des Benutzers. In der letzten Phase werden die Suchergebnisse basierend auf dem Profil des Benutzers personalisiert. Suchergebnisse, die sich über eine Vielzahl von Dokumentenarchiven erstrecken und über das Internet verstreut sein können, werden dann für einen einfachen Zugriff und eine sinnvolle Verwendung logisch nach Kategorien gruppiert. Die Experimente betrachten hauptsächlich die Suchergebnisse in Bezug auf das Profil des Benutzers, um dem Benutzer die relevantesten Informationen zu präsentieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12189-0_19 20a32b51d3c18f1266446096a920dfbe;de;;;7.3.;;;MobilePeerDroid: Eine Plattform zum Teilen, Steuern und Koordinieren in mobilen Android-Teams Die schnelle Entwicklung mobiler Technologien und die kontinuierliche Verbesserung intelligenter mobiler Geräte, die durch die breite Akzeptanz von Mobile Cloud Computing angetrieben werden, haben zur Entwicklung einer neuen Generation mobiler Anwendungen zur Unterstützung der Teamarbeit geführt. Solche Anwendungen bieten Mitarbeitern große Flexibilität, insbesondere Personengruppen, die sowohl geografisch verteilt als auch unterwegs Teamarbeit entwickeln. Die Fähigkeit, nach dem A3-Paradigma arbeiten zu können, nämlich Anytime, Anywhere, Awareness, verbessert die Teamarbeitsleistung erheblich. Relevante Beispiele für solche Anwendungen finden sich in Unternehmen – insbesondere kleinen und mittleren Unternehmen –, kollaborativem Online-Lernen in virtuellen Campussen, sozialen Netzwerken, Katastrophenmanagementszenarien usw. Die Gestaltung und Entwicklung solcher mobilen kollaborativen Anwendungen erfordert jedoch die Überwindung vieler Probleme und Herausforderungen. Darunter gibt es drei Hauptsäulen solcher Anwendungen, nämlich Teilen, Kontrolle und Koordination. In diesem Papier stellen wir MobilePeerDroid vor, eine Plattform, die das Teilen, Steuern und Koordinieren im mobilen Android-Team unterstützt. Die Plattform basiert auf einer P2P-Architektur, um Flexibilität, Effizienz und Skalierbarkeit zu erreichen. Die Plattform wurde für Teams von Mitgliedern instanziiert, die mobile Geräte unter Android verwenden. Darüber hinaus ermöglicht es Erweiterungen (durch Trennung von Belangen und Modularität) mit neuen Funktionen zur Unterstützung der Entwicklung neuer Anwendungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49109-7_93 7619c0310e32a8118b1af4782a6fadfb;de;;;7.3.;;;Verwenden des selbstanpassenden Online-Clusterings zum Gruppieren von Webdokumenten In diesem Kapitel wird ein Ansatz vorgeschlagen, der selbstadaptives, inkrementelles (Online-)Clustering verwendet, um relevante webbasierte Dokumente automatisch zu gruppieren. Der vorgeschlagene selbstanpassende Online-Klassifizierer ist lernfähig – er verbessert das Ergebnis online mit jedem neuen Dokument, auf das zugegriffen wurde. Daher zeichnet sich der vorgeschlagene Ansatz durch eine geringe Komplexität aus. Dieses Kapitel berichtet über die Forschungsergebnisse zur Entwicklung einer neuartigen Clustering-Methode, die für Echtzeit-Implementierungen geeignet ist. Es basiert auf Evolutionsprinzipien und versucht, die Einschränkungen bestehender Clustering-Algorithmen zu adressieren, die im Online-Modus mit hochdimensionalen Datensätzen nicht zurechtkommen. Dieser evolutions- und naturinspirierte Ansatz führt das neue Konzept potenzieller Werte ein, das die Eignung einer neuen Probe (Webdokument) als Prototyp eines neuen Clusters beschreibt, ohne dass jedes zuvor angetroffene Dokument gespeichert werden muss, aber unter Berücksichtigung der kontextuelle Ähnlichkeitsdichte zwischen allen bisherigen Dokumenten rekursiv und damit recheneffizient. Dieses Kapitel untersucht auch das Clustern von Dokumenten nach kontextueller Ähnlichkeit unter Verwendung von extrahierten Schlüsselwörtern, die in einem Vektorraummodell dargestellt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-1839-5_173 6710ada722d518855c43c6438bc56a90;de;;;7.3.;;;Einführung von Abstraktionsschichten in die Semantic-Web-Programmierung Entwickler von Ontologien und Semantic-Web-Anwendungen müssen sich für Sprachen und Umgebungen entscheiden, um das Ontologie-Schema zu entwickeln, Anweisungen zu bestätigen, Abfragen zu spezifizieren und auszuführen, Regeln zu spezifizieren und zu folgern. Solche Sprachen und Umgebungen sind nicht gut integriert und es fehlen gemeinsame Abstraktionsmechanismen. Dieses Papier stellt einen Konzeptrahmen vor, um diese Probleme zu lindern. Dies zeigt eine komplexe Beispielanwendung: Argumentation über Geschäftsprozessmodelle.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25126-9_53 e7f1b71294b283767af9d99b1f9d74d8;de;;;7.3.;;;Management und Verbreitung von Gesundheitswissen In diesem Kapitel werden die verschiedenen Arten von Dokumenten beschrieben, die über das Internet zur Verbreitung von Gesundheitswissen verfügbar sind. Es beschreibt den Prozess der Veröffentlichung von wissenschaftlichen Artikeln, in denen über Forschungsergebnisse berichtet wird. Die Konzepte Journal Impact Factor, Citation Base und H-Index werden erläutert. Die Cochrane-Kollaboration für Literaturübersichten und Metaanalysen wird beschrieben. Die Ziele nationaler und internationaler klinischer Leitlinien werden erläutert und Beispiele für Websites, die Zugang zu solchen Leitlinien bieten, werden bereitgestellt. Die verschiedenen Arten von Schulungsmaterialien, die auf E-Learning-Plattformen für Medizinstudierende verfügbar sind, werden beschrieben. Dieses Kapitel berücksichtigt auch Arzneimittelmonographien, die besonders nützlich für Verschreibungs- und Krankheitswissensdatenbanken sind. Beispiele für Ressourcen, die für die Öffentlichkeit nützlich sind, werden ebenfalls bereitgestellt und wir beschreiben die Methoden für den Zugang zu Gesundheitswissen, einschließlich Details des Ressourcenindexierungsprozesses und des MeSH-Thesaurus, der häufig zur Indexierung verwendet wird. Auch die Qualität der Gesundheitsinformationen im Internet wird berücksichtigt und die wichtigsten Qualitätskriterien aufgeführt. Die HON-Stiftung und die Zertifizierung werden beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-2-8178-0478-1_3 deed12a958c761a5f6fed91e1ae73f99;de;;;7.3.;;;Überwachung der Servicequalität von Webdiensten: eine Literaturübersicht Die Überwachung der Einhaltung der Dienstgüte (QoS) ist ein wichtiges Verfahren in der Webdienstumgebung. Es bestimmt, ob die Erwartungen der Benutzer erfüllt werden, und wird zum entscheidenden Faktor für die Entscheidung, ob sie weiterhin für den Dienst bezahlen oder nicht. Die Überwachung wird durchgeführt, indem die tatsächliche Dienstleistung mit der im Service Level Agreement (SLA) angegebenen QoS verglichen wird. In diesem Zusammenhang ist heute die Notwendigkeit der Überwachung vager QoS-Spezifikationen in SLA deutlicher geworden. Dieses Papier gibt einen Überblick über die veröffentlichte Literatur zur QoS-Überwachung von Webdiensten. Insgesamt wurden 60 ausgewählte Artikel systematisch analysiert. 23 der Artikel wurden nach restriktiven Suchkriterien ausgewählt, während die anderen 37 nach uneingeschränkten Suchkriterien ausgewählt wurden. Die Überprüfung zeigt, dass es wenig Beweise für die Überwachung vager QoS-Spezifikationen von Webdiensten gibt. Die Möglichkeit zur Überwachung von QoS, die in SLA vage spezifiziert ist, könnte neue Erkenntnisse und Auswirkungen auf den Bereich der Webdienste liefern. Dieses Papier schließt mit einigen empfohlenen zukünftigen Arbeiten, um die Theorie zu konstruieren und die empirische Forschung durchzuführen.;-;-;-;https://link.springer.com/article/10.1007/s10462-012-9358-7 cc403ec8385fe907b999d2633af0bae2;de;;;7.3.;;;Klassifikationsalgorithmus mit DOM-Algorithmus für die Extraktion von Web-Informationen kombinieren – ein hybrider Ansatz Unser Ansatz besteht darin, den Informationsextraktionsalgorithmus für Webquellen mit einem Klassifikationsalgorithmus zu verschmelzen. Dadurch überwindet der Algorithmus die Schwäche der DOM-basierten Informationsextraktion, die nicht ausreicht, um sich an den strukturellen Wandel von Informationen in Webseiten anzupassen. Darüber hinaus wird eine Erkennungsstrategie verwendet, um Webseiten mit mehreren Datensätzen zu extrahieren. Entsprechend der Änderung der Ähnlichkeitsmatrizen kann es den Teilungspunkt von Datensätzen entdecken und dann alle Datensätze extrahieren. Experimente zeigen, dass der Algorithmus, wenn er durch eine einzelne Beispiel-Webseite trainiert wird, immer noch ein gutes Ergebnis in Bezug auf Präzision und Erinnerung erzielen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27443-5_68 984d037953a40aca2d00c6c283d7da44;de;;;7.3.;;;Die Auswirkungen der Modellierung in der Informatikausbildung auf das kollaborative Lernen mit Schulintranets In diesem Beitrag wird der potenzielle Wert der Modellierung in der Informatikausbildung untersucht. Die Lernenden verstehen, dass sie bei der Nutzung dieser künstlich geschaffenen Modellwelten, die nun zu realen Systemen in ihrer Umgebung geworden sind, mit den prinzipiellen Einschränkungen kollidieren müssen. Computergestützte Lernprozesse scheitern oft daran, dass die Lernenden die Informatikmodelle, mit denen sie direkt oder indirekt interagieren, nicht verstehen. Die Chancen an deutschen Sekundarschulen ermöglichten es den Lernenden, beim Lernen zusammenzuarbeiten, auch wenn sie räumlich oder zeitlich weit voneinander entfernt waren. Ein Forschungsprojekt, das im Studienjahr 1998/99 an der Universität Dortmund begann, untersuchte die Erkennung der Schwierigkeiten dieser Lernenden. Es wurden nützliche Beobachtungen über die Erfahrungen und die zur Unterstützung von Gruppen verwendete Technologie gemacht. Die Studie zeigte, dass kollaboratives Lernen Modellierungsfertigkeiten und -kompetenzen der Informatik erfordert. Daher werden Beispiele für typische Modellierungsaufgaben aus Sicht der Bedürfnisse der Lernenden vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35403-3_20 f9d5a05639cc152dcf679f414e890e7c;de;;;7.3.;;;Eine Untersuchung des Einflusses des Involvement Levels von Website-Nutzern auf die wahrgenommene Glaubwürdigkeit von Websites In dieser Studie wurde untersucht, wie sich die Beteiligung von Website-Benutzern auf die wahrgenommene Glaubwürdigkeit von Websites auswirkt. Die Studie ermittelte die Beziehung zwischen zwei Variablen: dauerhafte Beteiligung und situative Beteiligung, und die Studie maß die Wirkung dieser beiden unabhängigen Variablen und die Interaktionseffekte auf die wahrgenommene Glaubwürdigkeit von Websites. In einer ergänzenden Analyse wurde untersucht, ob sich die vier durch das faktorielle Design erzeugten Gruppen hinsichtlich der bei der Glaubwürdigkeitsbewertung festgestellten Website-Elementkategorien unterscheiden. Die Forschung ergab, dass der Interaktionseffekt zwischen dauerhafter Beteiligung und situativer Beteiligung die wahrgenommene Glaubwürdigkeit signifikant beeinflusst. Darüber hinaus verlagerte sich der Fokus des Benutzers auf einen zentraleren Fokus, als die situative Beteiligung eingeführt wurde und verschiedene Website-Elemente bemerkt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77006-0_23 9547fa5d24408d636271e5b694b62df4;de;;;7.3.;;;Gerechtigkeit: Flexible und durchsetzbare Bandbreitenzuweisung pro Quelle Das Hauptziel dieser Arbeit besteht darin, eine Bandbreitenzuweisung bereitzustellen, die gegen das Verhalten gieriger oder böswilliger Benutzer robust ist. Die traditionelle Lösung, Fair Queueing, weist Kapazität pro Quell-Ziel-Paar gemäß dem Max-Min-Fairness-Kriterium zu. Obwohl Fair Queueing, wie oben definiert, erfolgreich und weit verbreitet war, verhindert es nicht, dass gierige oder böswillige Benutzer unfaire Kapazitätsanteile erhalten. Insbesondere ist es anfällig für Endpunkte einfach;-;-;-;https://link.springer.com/chapter/10.1007/11422778_97 3d2587fd6d70e883cb8848f772be4685;de;;;7.3.;;;Bayessche Webdokumentklassifizierung durch Optimierung von Assoziationsworten Die frühere Bayessche Dokumentenklassifizierung weist ein Problem auf, da sie die semantische Beziehung beim Ausdrücken von Dokumenteigenschaften nicht genau widerspiegelt. Um dieses Problem zu lösen, schlägt dieses Papier eine Bayessche Dokumentenklassifikationsmethode durch Mining und Verfeinerung von Assoziationswörtern vor. Der Apriori-Algorithmus extrahiert die Charakteristik des Testdokuments in Form von Assoziationswörtern, die eine semantische Beziehung widerspiegeln, und extrahiert Assoziationswörter aus Lerndokumenten. Wenn das Assoziationswort aus Lerndokumenten nur mit dem Apriori-Algorithmus abgebaut wird, ist darin ein unangemessenes Assoziationswort enthalten. Dementsprechend weist es den Nachteil einer mangelnden Genauigkeit bei der Dokumentenklassifizierung auf. Um den Nachteil auszugleichen, verwenden wir eine Methode zur Verfeinerung von Assoziationswörtern durch die Verwendung eines genetischen Algorithmus. Der Naive Bayes-Klassifikator klassifiziert Testdokumente basierend auf verfeinerten Assoziationswörtern.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45034-3_57 c559c7182f0351bac8b1df985898b09a;de;;;7.3.;;;P2P-Nutzer: Wichtige Dimensionen für den Wechsel zu legalen Online-Musikshops P2P-Dienste machten das Teilen von Musik populär. Benutzer haben sich daran gewöhnt, die gewünschten Songs kostenlos zu bekommen und sie ohne Einschränkungen frei zu verwenden. Mit einigen Jahren Verzögerung begannen Online-Musikhändler, legale digitale Songdateien zu verkaufen, hauptsächlich mit DRM-Schutz. Jüngste Studien zeigen, dass P2P-Netzwerke weiter wachsen und immer mehr Nutzer anziehen. In diesem Szenario widmet sich diese Arbeit der Suche nach Beweisen dafür, was getan werden kann, um Benutzer davon zu überzeugen, von den P2P-Diensten zu legalen Online-Musikshops zu migrieren. Die wichtigste Frage, die sich stellt, ist: Wie kann man Benutzer davon überzeugen, für das zu bezahlen, was sie bereits kostenlos finden? Die empirische Untersuchung wurde in zwei Phasen durchgeführt: Zunächst wurden Interviews mit 7 Spezialisten aus dem Musik- und Internetgeschäft (Plattenfirmen, Musikseiten, legale Online-Musikshops) durchgeführt. Mit den identifizierten Praktiken und Erkenntnissen über das Problem wurde eine Online-Umfrage erstellt, die von einer Stichprobe von 10.123 brasilianischen Online-Musiknutzern beantwortet wurde. Mittels einer faktoriellen Analyse wurden 3 Dimensionen (Website-Attribute, Wettbewerbsdifferenzierung und Anti-Piraterie) identifiziert. Die Ergebnisse zeigen, dass die Musikindustrie mehrere integrierte Taktiken implementieren muss, um Nutzer von P2P-Diensten für den Kauf von Musik zu überzeugen. Im Allgemeinen werden Website-Attribute und Wettbewerbsdifferenzierung als wichtiger wahrgenommen als Anti-Piraterie-Maßnahmen. Für Gelegenheitsnutzer scheint dieser Vorgang einfacher zu sein und könnte mit weniger Taktik durchgeführt werden. Je häufiger die P2P-Nutzung ist, desto schwächer wurde die Anti-Piraterie-Dimension als wichtig wahrgenommen. Diese Ergebnisse können darauf hindeuten, dass verschiedene Management- und Marketingansätze erforderlich sind, um die Migration von Nutzern zu legalen Online-Musikshops zu bewältigen. Belohnungsprogramme und exklusive Inhalte scheinen gute Optionen in diese Richtung zu sein. Abschließend werden Einschränkungen und Vorschläge für weitere Studien vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-39229-5_19 afb3023c6f43c81430cebceca32845cf;de;;;7.3.;;;Projekte im vernetzten Lernen: Europäische Erfahrungen In den letzten fünf Jahren hat sich „vernetzte Bildung“ nicht nur auf Computernetzwerke im Bildungswesen bezogen, sondern auf kooperative Netzwerke von Pädagogen, die zusammenarbeiten, um zu forschen, Probleme anzugehen und bewährte Verfahren beim Einsatz von IKT im Bildungswesen zu definieren. Auf der ComNEd99-Konferenz präsentierten europäische Kolleginnen und Kollegen aus einer Reihe dieser Kooperationsprojekte Podiumsdiskussionen, in denen sie ihre Arbeit, die aus ihrer Arbeit hervorgegangenen Probleme und Ergebnisse austauschten. An jeder dieser Podiumssitzungen nahmen Berichterstatter teil, die die folgenden Berichte über die Sitzungen und Projekte verfasst haben. Wo möglich, wurden World Wide Web-Adressen bereitgestellt, um dem Leser zu ermöglichen, mehr Informationen über jedes der Projekte zu erhalten. Das Papier endet mit einer Reihe von Berichten über finnische Projekte. Diese Projekte heben bewährte Verfahren in der vernetzten Bildung hervor, die in Finnland, dem Gastgeberland von ComNEd99, stattfinden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35499-6_10 3fef511700a3f1ecc07ff3b3cc03b126;de;;;7.3.;;;WT-LDA: User Tagging Augmented LDA für Web Service Clustering Das Clustern von Webdiensten, die Dienste mit ähnlichen Funktionen gruppieren, trägt dazu bei, die Genauigkeit und Effizienz der Webdienstsuchmaschinen zu verbessern. Eine wichtige Einschränkung bestehender Webservice-Clustering-Ansätze besteht darin, dass sie sich ausschließlich auf die Verwendung von WSDL-Dokumenten (Web Service Description Language) konzentrieren. In letzter Zeit gibt es einen Trend, von Benutzern beigesteuerte Tagging-Daten zu verwenden, um die Leistung des Dienstclustering zu verbessern. Nichtsdestotrotz können diese Ansätze die von den Tagging-Daten getragenen Informationen nicht vollständig nutzen und daher die Clustering-Leistung nur trivial verbessern. In diesem Beitrag schlagen wir einen neuartigen Ansatz vor, der Tagging-Daten und WSDL-Dokumente durch erweiterte Latent Dirichlet Allocation (LDA) nahtlos integriert. Außerdem entwickeln wir drei Strategien zur Vorverarbeitung von Tagging-Daten, bevor sie in das LDA-Framework für das Clustering integriert werden. Umfangreiche Experimente auf Basis realer Daten und die Implementierung einer Webservice-Suchmaschine demonstrieren die Effektivität des vorgeschlagenen LDA-basierten Service-Clustering-Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45005-1_12 96bcf2f1185cbc15e87fd2a6a9ec93f8;de;;;7.3.;;;Zum Einsatz von Hybrid Reinforcement Learning zur autonomen Ressourcenallokation Reinforcement Learning (RL) bietet einen vielversprechenden neuen Ansatz für das Systemleistungsmanagement, der sich radikal von herkömmlichen Warteschlangentheorieansätzen unterscheidet, die explizite Systemleistungsmodelle verwenden. Im Prinzip kann RL ohne ein explizites Leistungsmodell oder Verkehrsmodell und mit geringen oder keinen integrierten systemspezifischen Kenntnissen automatisch hochwertige Verwaltungsrichtlinien erlernen. In unserer Originalarbeit (Das, R., Tesauro, G., Walsh, W.E.: IBM Research, Tech. Rep. RC23802 (;-;-;-;https://link.springer.com/article/10.1007/s10586-007-0035-6 4486f96b51a192cfe75903c06f0378b1;de;;;7.3.;;;Zwischen Banken und Nutzern geteilte Inhalte im sozialen Ökosystem: eine induktive Erkundung Social Media sind ein aktuelles und relevantes Phänomen für den Bankensektor: Ihre Nutzung verändert das Angebot von Finanzprodukten und -dienstleistungen sowie die Beziehung von Banken zu Kunden und Stakeholdern. Daher ist es auch für Kreditinstitute wichtig, die Merkmale und Auswirkungen des digitalen Verkehrs, der sich auf Netzwerkplattformen entwickelt, zu kennen. Dies gilt insbesondere in einer Zeit, in der die meisten Finanzinstitute aufgrund der jüngsten Ereignisse, an denen Banken beteiligt waren, das Bedürfnis verspüren, Glaubwürdigkeit und Vertrauen durch eine stärkere soziale Nähe zur Öffentlichkeit zurückzugewinnen. Ziel dieser Arbeit ist es, einerseits die Inhalte zu klassifizieren und zu interpretieren, die Banken und Nutzer auf zwei der beliebtesten Social Media Plattformen teilen, und andererseits die Rolle der digitalen Kanäle in den Geschäftsmodellen von Kreditinstituten zu verstehen. Um diese Ziele zu erreichen, wurden die Aktivitäten auf Facebook und Twitter von 4 führenden Bankinstituten überwacht und insgesamt über 20.000 Elemente analysiert. Die durch Inhaltsanalysen aufbereiteten Daten zeigen Gemeinsamkeiten und Unterschiede in der Nutzung von Social Media auf und zeigen, wie digitale Kanäle den Aufbau von Kundenbeziehungen unterstützen und zu wertschöpfenden Prozessen beitragen.;-;-;-;https://link.springer.com/article/10.1007/s10660-019-09340-z c007399bfd37cb7b82642e3816c1224a;de;;;7.3.;;;On-Topic-Web-Browsing Für viele ist der Zugriff auf Dateien (in unserem Kontext Dokumente) aus dem Web eine tägliche Aktivität. Das Web ist de facto der „erste Ort“, um Informationen zu finden. Beispielsweise wird Wikipedia für viele Online-Gemeinden de facto zur ersten Informationsquelle, nämlich zur bevorzugten Enzyklopädie. Diese Abhängigkeit von Webinhalten hat jedoch für Arbeitgeber neue Probleme mit sich gebracht, nämlich, dass ihre Mitarbeiter einfach ihre Zeit vertreiben. Um dieser wahrgenommenen Zeitverschwendung entgegenzuwirken, sperren einige Arbeitgeber einfach den Zugang zum Internet für ihre Mitarbeiter. Durch die Sperrung des Webzugriffs der Mitarbeiter eliminieren die Arbeitgeber jedoch eine wertvolle Informationsquelle, die den Mitarbeitern möglicherweise bei der Erfüllung ihrer zugewiesenen Aktivitäten helfen kann.;-;-;-;https://link.springer.com/chapter/10.1007/11760146_73 105abc05b6035e3f637d6aefd73e6036;de;;;7.3.;;;Snippet-basierte Relevanzvorhersagen für die föderierte Websuche Wie gut lässt sich die Relevanz einer Seite rein anhand von Snippets vorhersagen? Dies wäre in einer föderierten Websuche-Einstellung sehr nützlich, in der das Zwischenspeichern großer Mengen von Ergebnis-Snippets praktikabler ist als das Zwischenspeichern ganzer Seiten. Die in diesem Artikel beschriebenen Experimente verwenden Ergebnis-Snippets und Seiten aus einer Vielzahl von tatsächlichen Websuchmaschinen. Ein linearer Klassifikator wird trainiert, um die schnipselbasierte Benutzerschätzung der Seitenrelevanz vorherzusagen, aber auch um die tatsächliche Seitenrelevanz vorherzusagen, wiederum allein auf der Grundlage von Schnipseln. Die präsentierten Ergebnisse bestätigen die Gültigkeit des vorgeschlagenen Ansatzes und bieten vielversprechende Einblicke in zukünftige Strategien zur Zusammenführung von Ergebnissen für eine föderierte Websuche.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36973-5_63 af915cee2883860d1f937f83cec4d441;de;;;7.3.;;;Zu einer Methode zur Verbesserung der periodischen fachbezogenen Websuche Diese Arbeit beschreibt eine Methode zur periodischen fachbezogenen Suche basierend auf der Zusammensetzung der Methode der Stichwortsuche und der fachbezogenen Filterung unter Verwendung von Textklassifikatoren. Wir betrachten verschiedene Klassifizierungsalgorithmen unter dem Gesichtspunkt ihrer Effizienz bei der Lösung des untersuchten Problems.;-;-;-;https://link.springer.com/article/10.3103/S0278641907020069 3c349a7f0c0c853725513358b7fb75c4;de;;;7.3.;;;Ein ausgelagertes Domainnamensystem für den Datenschutz bei Abfragen Der Mangel an Datenschutz bei DNS und DNSSEC ist ein Problem, das erst seit kurzem eine breite Aufmerksamkeit durch das Internet und die Forschungsgemeinschaften erfährt, und die bisher vorgeschlagenen Lösungen betrachten nur einen kleinen Teil des Designraums. In diesem Papier untersuchen wir einen neuen Ansatz für einen datenschutzwahrenden DNS-Mechanismus, der Abfrageinformationen vor Root-Nameservern und TLD-Registrys verbirgt. Unsere Architektur ermöglicht es TLD-Registrys, die DNS-Einträge in ihren Zonen zu gruppieren;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-02641-7_12 32a4d7423c33c2f0a56a15dbb577523d;de;;;7.3.;;;Automatische vergleichbare Webkorporasammlung und zweisprachige Terminologieextraktion für spezialisierte Wörterbucherstellung In diesem Artikel beschreiben wir zwei von uns erstellte Tools, eines zum Zusammenstellen vergleichbarer Korpora aus dem Internet und das andere zur zweisprachigen Terminologieextraktion aus vergleichbaren Korpora, und eine Bewertung, der wir sie unterzogen haben: Zweisprachige Terminologie wurde aus automatisch gesammelten extrahiert domänenvergleichbare Webkorpora in Baskisch und Englisch und die resultierenden Terminologielisten wurden automatisch mit einem Fachwörterbuch validiert, um die Qualität der extrahierten Terminologielisten zu bewerten. Somit misst diese Bewertung die Nützlichkeit des Zusammenwirkens dieser beiden automatischen Werkzeuge bei einer realen Aufgabe, d. h. der Erstellung eines spezialisierten Wörterbuchs.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20128-8_3 bd8a6e4768720bceea0a4d3514479192;de;;;7.3.;;;Eine Architektur zum Erstellen von geräteübergreifenden Thin-Client-Webbenutzeroberflächen Wir beschreiben einen neuen Ansatz zur Bereitstellung anpassungsfähiger Thin-Client-Schnittstellen für webbasierte Informationssysteme. Entwickler spezifizieren webbasierte Schnittstellen unter Verwendung einer höheren Auszeichnungssprache basierend auf der logischen Struktur der Benutzerschnittstelle. Zur Laufzeit wird diese einzelne Schnittstellenbeschreibung verwendet, um automatisch eine Schnittstelle für mehrere Webgeräte bereitzustellen, z. Desktop-HTML- und mobile WML-basierte Systeme sowie Hervorheben, Ausblenden oder Deaktivieren von Oberflächenelementen je nach aktuellem Benutzer und Benutzeraufgabe. Unser Ansatz ermöglicht es Entwicklern, anpassungsfähige webbasierte Benutzeroberflächen viel einfacher zu erstellen und zu warten als andere aktuelle Ansätze.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-47961-9_55 b58eadd2fcecfef96a147c500e497495;de;;;7.3.;;;E-Commerce-Bereitschaft in Äthiopien: Eine Bewertung auf Makroebene Diese Studie ist eine in Arbeit befindliche Studie, die die Bereitschaft für E-Commerce einer sich aggressiv entwickelnden Wirtschaft in Ostafrika – Äthiopien – einer Nation, die einen bedeutenden historischen und geopolitischen Status am Horn hat und im globalen Informationskonkurrenz konkurriert, messen soll Wirtschaft. Der Beitrag geht zunächst darauf ein, die Unterscheidung zwischen den Grundbegriffen E-Commerce, E-Readiness und E-Commerce-Readiness zu erläutern. Anschließend werden einige der wichtigsten durchgeführten E-Commerce-Readiness-Studien und auf regionaler und internationaler Ebene entwickelte Modelle überprüft. Aus diesen Modellen wird das Selbstbewertungsinstrument der Asiatisch-Pazifischen Wirtschaftskooperation (APEC) als geeignetes Instrument für die Annahme und Entwicklung einer Maßnahme zur E-Commerce-Bereitschaft in Äthiopien ausgewählt. Abgesehen von der Identifizierung des Standes des Landes in Bezug auf seine E-Commerce-Bereitschaft wird davon ausgegangen, dass die Anpassung bestehender Instrumente und die Entwicklung einer neuen Version dem aktuellen Wissenskapital in der jeweiligen Domäne einen Mehrwert verleiht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15141-5_7 cc6f00d42f68b23d70948328f9fafed1;de;;;7.3.;;;Die Websuche der nächsten Generation und das Ende des klassischen IR-Modells Das klassische IR-Modell geht von einem Menschen aus, der eine Aktivität ausübt, die ein „Informationsbedürfnis“ erzeugt. Dieses Bedürfnis wird verbalisiert und dann als Anfrage an die Suchmaschine über einen definierten Korpus ausgedrückt. In den letzten zehn Jahren haben sich Websuchmaschinen von einer ersten Generation, die auf klassischen IR-Algorithmen basiert, die auf Webgröße skaliert werden und somit nur Informationsanfragen unterstützen, zu einer zweiten Generation, die Navigationsanfragen mit webspezifischen Informationen unterstützt (hauptsächlich Linkanalyse), zu einer dritten entwickelt Generation, die transaktionale und andere „semantische“ Abfragen ermöglicht, die auf einer Vielzahl von Technologien basieren, die darauf abzielen, die unausgesprochene „Benutzerabsicht“ direkt zu befriedigen und sich damit immer weiter vom klassischen Modell zu entfernen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71496-5_1 7de5ac81adbe1f1f23608a6e5894e382;de;;;7.3.;;;Logische Programmiersprachen für Datenbanken und das Web Dieses Kapitel enthält eine Referenzauswahl italienischer Beiträge im Schnittpunkt von Logic Programming (LP) mit Datenbanken und dem (Semantic) Web. Genauer gesagt werden wir die wichtigsten Beiträge zu deduktiven Datenbanken wie die Kopplung von Prolog-Systemen und Datenbanksystemen, Auswertungs- und Optimierungstechniken, Datalog-Erweiterungen zum Ausdruck nichtdeterministischer und aggregierter Abfragen sowie aktive Regeln und deren Beziehung zu deduktiven Regeln erfassen. Außerdem werden wir Lösungen veranschaulichen, die LP verwenden, um das Web abzufragen, Webseiten zu manipulieren, Wissen im Semantic Web darzustellen und Semantic Web Ontologien und Regeln zu erlernen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14309-0_9 0b32a5b349c3806d38ce5280fcba43e5;de;;;7.3.;;;Ein adaptives System zur Bereitstellung von Webinhalten Das Desktop-zentrierte Design der meisten aktuellen Webinhalte wirft viele Schwierigkeiten für das allgegenwärtige Surfen auf. In diesem Beitrag präsentieren wir unsere Studie zum Problem der Unterstützung von Pervasive Browsing in der heterogenen Umgebung des heutigen Internets. Eine Systemlösung – Adaptive Web Content Delivery (AWCD) – wird vorgestellt, um die in der gegenwärtigen Web-Infrastruktur bestehenden Probleme zu überwinden. Das entworfene System ist für die Weiterentwicklung des Internets erweiterbar. Die beiden Hauptsubsysteme von AWCD, das Lernen von Kundenprofilen und die Anpassung, werden ausführlich beschrieben. Versuchsergebnisse unseres Systems werden ebenfalls gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44595-1_30 51c1b239b88ea47a0849eb048158d840;de;;;7.3.;;;Expressive Profilspezifikation und ihre Semantik für ein Web-Monitoring-System Das World Wide Web hat in Bezug auf das Abrufen von Informationen und die Bereitstellung von Daten an Bedeutung gewonnen. Bei einem derart produktiven Wachstum muss ein an einer bestimmten Änderung interessierter Benutzer kontinuierlich Informationen aus dem Web abrufen/ziehen und analysieren. Dies führt zu einer Verschwendung von Ressourcen und, was noch wichtiger ist, zu Lasten des Benutzers. Der Pull-basierte Abruf muss durch ein Push-basiertes Paradigma ersetzt werden, um Effizienz und rechtzeitige Benachrichtigung relevanter Informationen zu gewährleisten. WebVigiL ist ein effizientes profilbasiertes System zum Überwachen, Abrufen, Erkennen und Benachrichtigen spezifischer Änderungen an HTML- und XML-Seiten im Web. In diesem Papier beschreiben wir die expressive Profilspezifikationssprache zusammen mit ihrer Semantik. Wir stellen auch eine effiziente Umsetzung dieser Profile vor. Abschließend stellen wir die Gesamtarchitektur des WebVigiL-Systems und seinen Implementierungsstatus vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30464-7_33 a8f94692b07b78c481a6e925b6be2e4f;de;;;7.3.;;;3-Raum anbinden: Dreidimensionale Modelle als vollwertige Hypermedia-Dokumente Dieser Beitrag untersucht die Einbindung dreidimensionaler Modelle in hypermediale Systeme als vollwertige Dokumente. Ihr Einsatz bietet Hypermedia-Autoren ein zusätzliches, leistungsfähiges Präsentationsmittel. Anzeige-, Verknüpfungs-, Navigations- und Erstellungsaspekte von 3D-Hypermedia-Dokumenten werden ebenso erörtert wie VRML, der aufkommende Standard zur Beschreibung von 3D-Szenen im Internet. Die Konzepte werden mit Beispielen aus VRweb, dem VRML-Viewer für mehrere Websysteme (WWW, Gopher, Hyper-G) und mehrere Plattformen (Unix, Windows, Macintosh), der aus dem Harmony 3D-Viewer für Hyper-G hervorgegangen ist, illustriert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-61282-3_4 33296d593c2da1a194a6b82530ffe2ae;de;;;7.3.;;;Bacterium Lingualis – Die webbasierte Commonsensical Knowledge Discovery Method Das Bacterium Lingualis ist eine Methode zur Entdeckung von Wissen für vernünftiges Denken basierend auf textuellen WWW-Ressourcen. Bei der Entwicklung eines sprechenden Agenten ohne Domänenbeschränkung haben wir verstanden, dass unser System einen unüberwachten Verstärkungslernalgorithmus benötigt, der die Entdeckung von Sprache und Wissen beschleunigen könnte. In diesem Beitrag stellen wir unsere Idee und die Ergebnisse von Vorversuchen vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39644-4_46 d0e147aab15b0b1ddcfc560f223a8b21;de;;;7.3.;;;Erkennen von Nachrichtenereignissen von einer Website für Bürgerjournalismus mithilfe von Tags Der beschleunigte Nachrichtenzyklus und die ständig aufkommenden nachrichtenwürdigen Ereignisse haben zu einem „Bürgerjournalismus“ geführt, bei dem Nicht-Journalisten Nachrichten sammeln, analysieren und verbreiten. Dieses Papier versucht, Tags aus iReport, einer Website für aktiven Bürgerjournalismus, zu nutzen, um wichtige Nachrichtenereignisse zu erkennen. Ziel ist es, die Reichweite und Wirksamkeit der in iReport entdeckten Nachrichten im Vergleich zu denen der Mainstream-Medien zu untersuchen. Das Verfahren zur Datenerhebung umfasste die manuelle Auswahl wichtiger Nachrichtenereignisse, die zwischen dem 8. April 2008 und dem 6. Juni 2008 in Fox News gemeldet wurden. Darüber hinaus wurden im gleichen Untersuchungszeitraum 81.815 Tags aus 15.216 Dokumenten aus iReport gezogen. Die relativen Häufigkeiten aller eindeutigen Tags wurden verwendet, um den Datensatz auf Spitzen und Bursts zu überprüfen. Die Ergebnisse zeigen, dass von den 10 großen Nachrichtenereignissen, die in Fox News berichtet wurden, fünf in iReport erkannt werden konnten. Dieser Beitrag schließt mit der Darstellung der wichtigsten Ergebnisse, Einschränkungen und Vorschläge für zukünftige Forschung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04875-3_49 eb8671a209a41e93415ea8af354b12aa;de;;;7.3.;;;Usability-Evaluierungstechniken für große Websites Die Kombination von Hardware- und Softwarebeschränkungen bei der Entwicklung von World Wide Web-Sites hat eine Reihe einzigartiger Beschränkungen bei der Auswahl der verfügbaren Schnittstellenelemente und der Interaktion des Benutzers mit ihnen geschaffen. Informationen über diese Benutzer und die von ihnen ausgeführten Aufgaben unterscheiden sich auch von der Entwicklung grafischer Benutzeroberflächen aufgrund der vielfältigen und sich ständig ändernden Bevölkerung im Web und der kontinuierlichen, fließenden Natur von Aufgaben wie Surfen oder Unterhaltung, die in der Internetumgebung am häufigsten vorkommen ( Grafik-, Visualisierungs- und Usability-Center (GVU), 1996). Es ist auch schwierig, ein detailliertes Verständnis der Umgebung des Benutzers zu gewinnen, in der er auf die Site zugreifen kann, zu der Arbeit, Zuhause, Schule/Universität und zunehmend Internetcafés gehören können.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35175-9_87 4710a9a945097f2609caa924a0f7b6c2;de;;;7.3.;;;Mercure bei CLEF-1 In diesem Beitrag werden die Experimente des IRIT-Teams in den mehrsprachigen, zweisprachigen und einsprachigen Aufgaben der CLEF-Evaluierungskampagne vorgestellt. Unser Ansatz basiert auf der Übersetzung von Abfragen. Die Abfragen wurden mit freien Wörterbüchern übersetzt und dann mit einem ausgerichteten Korpus eindeutig gemacht. Die Experimente wurden mit unserem konnexionistischen System Mercure durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44645-1_19 757bc6439ad6dff7c13f23d3f621f0e3;de;;;7.3.;;;Semantikbasiertes Zusammenführen von RSS-Elementen Das Zusammenführen von XML-Dokumenten kann in mehreren Anwendungen von entscheidender Bedeutung sein. Beispielsweise kann das Zusammenführen von RSS-Nachrichten von gleichen oder unterschiedlichen Quellen und Anbietern für Endbenutzer in verschiedenen Szenarien von Vorteil sein. In diesem Whitepaper gehen wir auf dieses Problem ein und untersuchen das Beziehungsmaß zwischen RSS-Elementen. Wir zeigen hier, wie exklusive Beziehungen zwischen zwei beliebigen Elementen definiert und berechnet werden und stellen mehrere vordefinierte Zusammenführungsoperatoren bereit, die erweitert und an menschliche Bedürfnisse angepasst werden können. Wir bieten auch eine Reihe von Experimenten an, die durchgeführt wurden, um unseren Ansatz zu validieren.;-;-;-;https://link.springer.com/article/10.1007/s11280-009-0074-4 da5502b28ab0faec37f78523d6feb1b8;de;;;7.3.;;;Wissensrepräsentation, das World Wide Web und die Evolution der Logik Es ist fast allgemein anerkannt, dass die Logik erster Ordnung (FOL) mit ihrer sauberen, gut verstandenen Syntax und Semantik den klaren Ausdruck philosophischer Argumente und Ideen ermöglicht. Tatsächlich ist ein Argument oder eine philosophische Theorie, die in FOL wiedergegeben wird, vielleicht das sauberste Beispiel für die „Repräsentation der Philosophie“. Eine Reihe herausragender syntaktischer und semantischer Eigenschaften von FOL spiegeln metaphysische Voraussetzungen wider, die aus seinen fregeischen Ursprüngen stammen, insbesondere die Idee einer unantastbaren Trennung zwischen Konzept und Objekt. Diese Voraussetzungen spiegeln für bare Münze einen bedeutenden metaphysischen Standpunkt wider, der die Darstellung philosophischer Ideen und Argumente tatsächlich behindern oder beeinträchtigen kann. Philosophen haben dies natürlich bemerkt und dementsprechend versucht, das traditionelle FOL auf neuartige Weise zu verändern oder zu erweitern, um einen flexibleren und egalitäreren metaphysischen Standpunkt zu reflektieren. Der Zweck dieses Papiers besteht jedoch darin, zu dokumentieren und zu diskutieren, wie ähnliche „Anpassungen“ an FOL – die in einem standardisierten Rahmen, bekannt als;-;-;-;https://link.springer.com/article/10.1007/s11229-009-9661-2 deb3ea2b9ee97303771cad4fdd1689c0;de;;;7.3.;;;Berechnen wissensbasierter semantischer Ähnlichkeit aus dem Web: Eine Anwendung auf den biomedizinischen Bereich Die Berechnung der semantischen Ähnlichkeit zwischen Konzepten ist ein sehr häufiges Problem in vielen sprachbezogenen Aufgaben und Wissensdomänen. Im biomedizinischen Bereich wurden mehrere Ansätze entwickelt, um dieses Problem zu lösen, indem das in Domänenontologien (SNOMED-CT) und spezifische, geschlossene und zuverlässige Korpusse (klinische Daten) verfügbare Wissen genutzt wird. In den letzten Jahren hat das enorme Wachstum des Webs jedoch Forscher dazu motiviert, es als Basiskorpus für die semantische Analyse von Sprache zu verwenden. Dieser Beitrag schlägt vor und bewertet die Nutzung des Webs als Hintergrundkorpus zur Messung der Ähnlichkeit biomedizinischer Konzepte. Mehrere klassische Ähnlichkeitsmaße wurden berücksichtigt und getestet, wobei ein aus biomedizinischen Begriffen zusammengesetzter Benchmark verwendet und die Ergebnisse mit Ansätzen verglichen wurden, bei denen spezifische klinische Daten verwendet wurden. Die Ergebnisse zeigen, dass die aus dem Web erhaltenen Ähnlichkeitswerte noch zuverlässiger sind als die aus spezifischen klinischen Daten, was die Eignung des Webs als Informationskorpus für den biomedizinischen Bereich zeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10488-6_6 ce2057be99518a56357a65ddd6dd45c3;de;;;7.3.;;;Methode zur Pornografiefilterung im WEB basierend auf automatischer Klassifizierung und Verarbeitung natürlicher Sprache Der Beitrag stellt eine Methode zur Erkennung von Pornografie in Webseiten vor, die auf der Verarbeitung natürlicher Sprache basiert. Das beschriebene Klassifizierungsverfahren verwendet einen Merkmalssatz von einzelnen Wörtern und Wortgruppen. Eine Syntaxanalyse wird durchgeführt, um Kollokationen zu extrahieren. Eine Modifikation von TF-IDF wird verwendet, um Terme zu gewichten. Eine Bewertung und ein Vergleich von Qualität und Leistung der Klassifikation werden gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-01931-4_31 cebb7957b2cc88e6a3bfd89b393abbb3;de;;;7.3.;;;IKT in katalanischen Schulen Die Autoren dieses Artikels waren und sind seit 1986 für das katalanische Projekt zur Integration von IKT im Bildungsbereich verantwortlich, als das Bildungsministerium der Generalitat sein Bildungsinformatikprogramm (Programa d'Informàtica Educativa - PIE) einrichtete mit dem Ziel, die Informatik an katalanischen Schulen im Rahmen der politischen Dezentralisierung und der Bildungsreform zu fördern. Dieser Artikel zielt darauf ab, die Anfangsphase seiner Bemühungen zu betrachten - das Jahrzehnt von 1986 bis 1995, vom Beginn des PIE bis zum Aufkommen des Internets - mit dem Ziel, die Absichten und Ergebnisse der getroffenen Entscheidungen und gleichzeitig ihr Einfluss auf die Entstehung und Entwicklung eines Organisationsmodells der Bildungsintegration von IKT in Katalonien.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-8136-7_8 70db7a99873e20b230ea315421f08364;de;;;7.3.;;;Dynamische Multi-Referenz-Vorhersage bei der Videocodierung für verbesserte Fehlerresistenz über das Internet Wenn standardmäßig codiertes Video über das Internet übertragen wird, bei dem Pakete verloren gehen können, besteht das lästige Problem der Fehlerausbreitung. In diesem Artikel schlagen wir ein neues Videocodierungsschema vor, das dynamisch mehrere Referenzen aus mehreren Kandidaten-Frames in der Vorhersage auswählt, d. h. dynamische Multi-Referenz-Vorhersage (DMRP). Basierend auf dem Systemmodell des Videocodecs mit DMRP leiten wir ab, dass je mehr Kandidatenframes, aus denen die Referenzen ausgewählt werden, eine größere Fehlerresistenz erreicht. Insbesondere untersuchen wir die Leistung der Videocodierung mit zwei Referenzen, die aus vier Kandidatenrahmen (2R4CF) ausgewählt wurden. Die Simulationsergebnisse unter den typischen Paketverlustraten des Internets zeigen, dass die Videocodierung mit 2R4CF eine bessere Fehlerbeständigkeit bietet als die Videocodierung mit fester Zwei-Referenz [;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45453-5_14 7e958376d992dbe2c35a5458f9e0ae7f;de;;;7.3.;;;Häufiger untergraphenbasierter Ansatz zur Klassifizierung vietnamesischer Textdokumente In diesem Beitrag präsentieren wir einen einfachen Ansatz für die vietnamesische Textklassifikation ohne Wortsegmentierung, basierend auf häufigen Subgraph-Mining-Techniken. Für die Dokumentdarstellung wird ein graphenbasiertes anstelle eines traditionellen vektorbasierten Modells verwendet. Das Klassifizierungsmodell verwendet strukturelle Muster (Untergraphen) und ein Würfel-Ähnlichkeitsmaß, um eine Klasse von Dokumenten zu identifizieren. Diese Methode wird anhand eines vietnamesischen Datensatzes zur Messung der Klassifizierungsgenauigkeit ausgewertet. Die Ergebnisse zeigen, dass er den k-NN-Algorithmus (basierend auf Vektor, hybride Dokumentendarstellung) in Bezug auf Genauigkeit und Klassifizierungszeit übertreffen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01347-8_25 78ed95867f0d79b283770fdbf88cdc04;de;;;7.3.;;;Adaptive Ressourcenfreigabe in einer Web-Services-Umgebung Ein Effekt des Vorstoßes in Richtung Automatisierung von Geschäftsprozessen und IT-Konsolidierung besteht darin, dass Low-Level-Ressourcen aus mehreren Verwaltungsdomänen von mehreren Workloads geteilt werden und die Middleware aufgefordert wird, die Integration herbeizuführen, während die Details der gemeinsamen Nutzung solcher Ressourcen verschleiert werden. Webdienste und Grid-basierte Technologien sind vielversprechend für die Entwicklung solcher Middleware. Vorhandene Lösungen lassen sich jedoch nicht gut erweitern, wenn gemeinsam zu verwendende Ressourcen zu mehreren Verwaltungsdomänen gehören und wenn die gemeinsame Nutzung von Ressourcen durch lokale Richtlinien geregelt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30229-2_17 5115bd272b58e32de95cfb3e13defee8;de;;;7.3.;;;Die einzigartigen Stärken und Speicherzugriffsmerkmale der verwerfungsbasierten Suche ist ein neuer Ansatz zum Durchsuchen des Inhalts komplexer, nicht gekennzeichneter, nicht indizierter Daten wie digitale Fotos, medizinische Bilder und Echtzeit-Überwachungsdaten. Die Essenz dieses Ansatzes ist;-;-;-;https://link.springer.com/article/10.1007/s13174-010-0001-z 1af2b3b6e2687e84f414291b0125a430;de;;;7.3.;;;Nutzung von Social Tagging in der Web-API-Suche Angesichts der großen Anzahl verfügbarer Web-APIs kann ein Webdesigner die „Weisheit“ oder das kollektive Wissen der anderen Entwickler nutzen, die die Web-APIs für ihre eigenen Mashups verwendet haben. Dieses Wissen kann implizit aus der Verwendung der Web-APIs in ähnlichen Mashups stammen oder durch explizites Social Tagging und Bewertung von Web-APIs erlangt werden. In diesem Beitrag schlagen wir vor, dieses Wissen zu nutzen, um erweiterte Web-API-Suchmuster zu implementieren, abhängig vom Entwicklungsszenario, in dem der Webdesigner agiert, nämlich der Erstellung eines neuen Mashups, der Vervollständigung eines bestehenden oder der Ersetzung eines oder mehr Web-APIs darin.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41030-7_56 451340c5be0c39beb055b8c0ca37a377;de;;;7.3.;;;Eine Methode zur Analyse des Gesamtflusses von Spam-basierten Angriffen In den letzten zehn Jahren haben unerbetene Massen-E-Mails, d. h. Spams, dramatisch zugenommen und sie wurden definitiv als ernsthafte Internetbedrohung erkannt. Insbesondere neuere Spams, die hauptsächlich durch verschiedene Malware (z. B. Bots, Würmer) verursacht werden, enthalten häufig URLs, die Spam-Empfänger zum Zweck der Malware-Infektion zu bösartigen Webservern leiten. Darüber hinaus arbeiten Malware wie Bots in Kooperation miteinander, und es bestehen enge Verbindungen zwischen Malware und bösartigen Webservern. Angesichts der Notwendigkeit weiterer Studien zur Abwehr neuer Spam-basierter Angriffe schlagen wir in diesem Papier eine Methode zur Analyse ihres Gesamtflusses vor, um die aktive Beziehung zwischen Spam, Malware und bösartigen Webservern zu untersuchen. Darüber hinaus haben wir unser Verfahren anhand von Double-Bounce-E-Mails von unserem eigenen SMTP-Server evaluiert. Die experimentellen Ergebnisse zeigen, dass die vorgeschlagene Methode sehr effektiv ist, um die Korrelation zwischen Spam-Quellen und ihren möglichen Zielen zu analysieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10684-2_62 17cde908c40826a732dae153ca7289d3;de;;;7.3.;;;DoS Amplification Attacks – Protokollunabhängige Erkennung von Dienstmissbrauch in Verstärkernetzwerken Distributed Denial-of-Service-Angriffe sind seit vielen Jahren als Bedrohung für Internetdienste bekannt. Kürzlich führte ein Konfigurationsfehler in NTP-Daemons zu Angriffen mit Traffic-Raten von mehreren hundert Gbit/s. Für diese Angriffe wird ein Dritter, der;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-17172-2_14 cf9e93b065cf266a41f265f43cbd01ad;de;;;7.3.;;;Ein datenschutzbewusstes Serviceprotokoll für allgegenwärtige Computerumgebungen In einer allgegenwärtigen Computerumgebung sollte jeder Dienst die Eigenschaft von Kontextbewusstsein aufweisen, und Standortinformationen sind ein wichtiger Faktor, um den Kontext eines Benutzers zu erfassen. Somit ist die Standortgeheimhaltung ein wichtiges Sicherheitsproblem einer allgegenwärtigen Computerumgebung. Die meisten Untersuchungen zum Standortdatenschutz konzentrieren sich auf den Schutz der Standortinformationen selbst. Es ist jedoch wichtig, nicht nur den illegalen Erwerb der sensiblen Informationen zu verbieten, sondern auch den Missbrauch der legal erlangten Informationen zu verbieten, um die Privatsphäre der Benutzer zu schützen. Um diesen Anspruch zu erfüllen, schlagen wir ein neues datenschutzbewusstes Dienstprotokoll für eine allgegenwärtige Computerumgebung vor. Das vorgeschlagene Protokoll entkoppelt die Beziehung zwischen der Identität eines Benutzers und dem Standort. Darüber hinaus verwendet es einen anonymen Kommunikationskanal, um das Nutzungsmuster des Benutzers zu verbergen.;-;-;-;https://link.springer.com/chapter/10.1007/11807964_63 78ff0b6818da17a321c3a5c34f7a9425;de;;;7.3.;;;Ein Query-Routing-Ansatz basierend auf der Benutzerzufriedenheit für die Ressourcenerkennung in serviceorientierten Netzwerken Serviceorientierte Netzwerke sind verteilte Computerinfrastrukturen, die weit verteilte Ressourcen bereitstellen. Diese Netzwerke sind dynamisch und ihre Größe und Komplexität nehmen weiter zu und ermöglichen den Benutzern einen allgegenwärtigen Zugang zu verfügbaren Ressourcen und Diensten. Daher sind effiziente Abfrage-Routing-Ansätze in großen und stark verteilten dienstorientierten Netzen erforderlich und müssen anpassungsfähig sein, um mit einer sich dynamisch ändernden Umgebung fertig zu werden. In diesem Beitrag wird ein Query Routing-Ansatz basierend auf mobilen Agenten und Random Walks mit einer Reinforcement-Learning-Technik vorgestellt. Durch die Verbesserung von Random Walks mit einem Reinforcement-Learning-Mechanismus, der auf die Zufriedenheit der Benutzer ausgerichtet ist, ermöglicht dieser Ansatz eine dynamische und selbstanpassende Lokalisierung erforderlicher Ressourcen. Peers integrieren Wissen aus vergangenen und aktuellen Abfragen, die bei den nächsten Suchen von mobilen Agenten verwendet werden, um ihre nächsten Hops auszuwählen. Dieser Ansatz wird durch zwei Abfrage-Routing-Techniken unter Verwendung des Netzwerksimulators ns2 analysiert.;-;-;-;https://link.springer.com/article/10.1007/s11280-009-0079-z 074115a659b75a2adf79182ad9f2aa55;de;;;7.3.;;;Verbesserung der Farbkonstanz mit Internet-Fotosammlungen Farbkonstanz ist die Fähigkeit, Farben von Objekten unabhängig von der Farbe der Lichtquelle zu messen. Ein bekanntes Farbkonstanzverfahren nutzt die Spiegelkante zur Abschätzung des Leuchtmittels. Das Trennen der spiegelnden Kante vom Eingabebild ist jedoch zu wenig eingeschränkt und existierende Verfahren erfordern Benutzerunterstützung oder handhaben nur einfache Szenen. Dieses Papier präsentiert ein iterativ gewichtetes Specular-Edge-Farbkonstanzschema, das eine große Datenbank mit Bildern aus dem Internet nutzt. Bei einem Eingabebild führen wir eine effiziente visuelle Suche durch, um den nächsten visuellen Kontext aus der Datenbank zu finden, und verwenden den visuellen Kontext als bildspezifischen Prior. Dieser Prior wird dann verwendet, um die Chromatizität des Eingangsbildes vor der Beleuchtungsschätzung zu korrigieren. Somit kann die Einführung des Priors eine gute anfängliche Schätzung für die sukzessive Iteration liefern. Als nächstes wird ein spiegelbildgesteuerter Filter verwendet, um die Präzision der Spiegelkantengewichtung zu verbessern. Folglich kann die Genauigkeit der Schätzung des Leuchtmittels erhöht werden. Zum Schluss evaluieren wir unser Schema anhand von Standarddatenbanken und die Ergebnisse zeigen, dass das vorgeschlagene Schema modernste Farbkonstanzmethoden übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13168-9_4 47d9bef944196b60990bf1089a53f90d;de;;;7.3.;;;Verbinden mobiler Workstations mit dem Internet über ein digitales Mobilfunknetz Moderne tragbare Computer und drahtlose Verbindungen über ein zellulares Telefonnetz haben eine neue Plattform für die verteilte Informationsverarbeitung geschaffen. Wir präsentieren ein Kommunikationsarchitektur-Framework, das die Nutzung der bestehenden TCP/IP-Kommunikationsarchitektur ermöglicht, aber auch die Besonderheiten von drahtlosen Verbindungen berücksichtigt. Unsere Kommunikationsarchitektur basiert auf dem Prinzip der indirekten Interaktion. Der vermittelnde Abfangjäger,;-;-;-;https://link.springer.com/chapter/10.1007/978-0-585-29603-6_9 c3930409f08e551f98c1f8bb32f1c8b9;de;;;7.3.;;;Quo Vadis? - Internet Ich fühle mich zutiefst geehrt, heute als Hauptredner der ITEM ‘86 Konferenz eingeladen zu sein. Es ist auch eine Freude, hier mit so vielen Leistungsträgern und Persönlichkeiten auf dem Gebiet der Informationsverarbeitung und Technologie zusammen zu sein. Ich habe das besondere Privileg, die gleiche Plattform wie Herr Joseph Wong, Sekretär für Bildung und Personal, und Dr. Daniel Tse, Präsident und Vizekanzler der Hong Kong Baptist University, und Dr. Alex Fung, Vorsitzender des Organisationskomitees, zu teilen Konferenz.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35090-5_1 27311f06c77ed3b4b627a3a19296a896;de;;;7.3.;;;Design des Ferndiagnosesystems für die Druckmaschinen basierend auf dem Internet der Dinge und Fuzzy-Inferenz Angesichts der Wartungsschwierigkeiten von Druckmaschinen aufgrund ihrer weiten Verbreitung und ihres hohen Automatisierungsgrades wird ein Ferndiagnosesystem basierend auf Internet of Things und Fuzzy Inference entwickelt. Durch den Einsatz einer Vielzahl von Sensoren in den Hauptteilen von Druckmaschinen kann das Ferndiagnosesystem die realen Betriebsdaten von Druckmaschinen erfassen, analysieren und verarbeiten und eine intelligente Diagnose von Druckmaschinenfehlern erzielen. Außerdem kann es in Kombination mit der Webanwendung mit einem Fernfehlerdiagnosezentrum verbunden werden, um gemeinsam einen Fernfehlerdiagnoseservice bereitzustellen. Das System überwindet den Mangel an traditioneller Fehlerdiagnosetechnologie und erreicht den Zweck, die Fehler der Druckmaschine aus der Ferne zu diagnostizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-3530-2_103 a29923f5604cdb2216bac5415718e958;de;;;7.3.;;;Ontologie-gesteuerte Pervasive Service Komposition für den Alltag Die Integration von Service Composition und Pervasive Computing in die Verwaltung der täglichen Aktivitäten der Benutzer führt zum Paradigma der Pervasive Service Composition für den Alltag. In diesem Beitrag wird ein neuartiges generisches Modell für Dienste vorgestellt, die alltägliche Aktivitäten unterstützen. Die resultierende Dienstzusammensetzung besteht aus lokalen Diensten innerhalb von Dienst-Peers, und Dienste werden wie in der Peer-Koordination und Dienst-Zusammenarbeit spezifiziert ausgeführt. Wir schlagen einen aufgabenbasierten, durchdringenden, semantischen und P2P-basierten Ansatz für die Servicekomposition im Alltag vor. Wir gehen zunächst auf diese grundlegenden Eigenschaften ein. Wir geben Terminologien in Bezug auf Service Composition, Pervasive Computing, Ontologie und Pervasive Service Composition. Zweitens analysieren wir Anforderungen an die Beschreibung von Alltagsaktivitäten. Um die Anforderungen zu erfüllen, entwerfen wir ein erstes Ontologiemodell zur Erfassung der täglichen Aktivitäten des Benutzers und zur Berücksichtigung der Peer-Koordination und der Service-Zusammenarbeit in der Pervasive Service Composition. Schließlich klassifizieren wir bestehende Ansätze zur Web-Service-Komposition.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16558-0_32 7184a3a407e0c2a04763eb8c1c5a5009;de;;;7.3.;;;Die Auswirkungen des Internets auf die Kommunikation der Studenten am Zhengzhou Institute of Aeronautical Industry Management In diesem Forschungsprojekt wurde die Wahrnehmung der Auswirkungen des Internets auf ihre Kommunikationserfahrungen an der Hochschule untersucht. Das Internet ist auf Hochschulcampus allgegenwärtig und hat das Potenzial, die Campuskommunikation sowohl zu stören als auch zu verbessern. Die Daten für diese Studie wurden von achthundert Vollzeitstudenten erhoben. Qualitative Analysen legen nahe, dass das Internet sowohl positive als auch negative Auswirkungen auf die Kommunikationserfahrungen der Studenten auf dem Campus hat. Die Schüler gaben an, dass sie Schwierigkeiten hatten, die Zeit, die sie online verbrachten, zu kontrollieren. Das Internet wurde für die verminderte persönliche Kommunikation und die Fehlinterpretation von Nachrichten verantwortlich gemacht. Das Internet wurde als positive Möglichkeit beschrieben, Menschen zu treffen, Beziehungen aufzubauen und Freundschaften zu pflegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23357-9_74 166f07fc5d8dbd1e138d7fdd5f605fa3;de;;;7.3.;;;Web-Apps und ungenaue Wahrscheinlichkeiten Wir schlagen ein Modell für das Verhalten von Web-Apps im unzuverlässigen WWW vor. Web-Apps werden durch Orchestrierungen beschrieben. Eine Orchestrierung ahmt die persönliche Nutzung des Webs nach, indem sie die Art und Weise definiert, wie Webdienste aufgerufen werden. Das WWW ist unzuverlässig, da schlecht gewartete Websites fehleranfällig sind. Wir modellieren diese Quelle der Unzuverlässigkeit durch einen probabilistischen Ansatz. Wir gehen davon aus, dass jede Site eine Ausfallwahrscheinlichkeit hat. Eine weitere Unsicherheitsquelle sind die Verkehrsstaus. Dies kann als nicht deterministisches Verhalten beobachtet werden, das durch die Variabilität der Reaktionszeiten induziert wird. Wir modellieren Nichtdeterminismus durch ungenaue Wahrscheinlichkeiten. Wir entwickeln hier ein Ex-ante-Normal zur Charakterisierung des Verhaltens endlicher Orchestrierungen im unzuverlässigen Web. Wir zeigen die Existenz einer Normalform unter einer solchen Semantik für Orchestrierungen mit asymmetrischer Parallelität.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-91476-3_19 19549fe3dc57e0ede3cf6289c19d6f0a;de;;;7.3.;;;Kollaborative Suche: Bereitstellungserfahrungen Die kollaborative Suche ist ein Ansatz für die Websuche, der entwickelt wurde, um mit vagen Abfragen umzugehen, die im Web alltäglich sind. Es nutzt das Suchverhalten von Communities gleichgesinnter Benutzer, um die Ergebnisse so neu zu ordnen, dass sie die Community-Präferenzen widerspiegeln. Dieses Papier baut auf unserer früheren Arbeit auf, in der die Kerntechnologie beschrieben und vorläufige Bewertungsergebnisse bereitgestellt wurden. In diesem Papier beschreiben wir den Einsatz der kollaborativen Suchtechnologie als I-SPY-Suchmaschine und gehen auf diese Einsatzerfahrungen ein, wobei wir uns insbesondere auf umfassendere Evaluierungsergebnisse konzentrieren, die den Wert der kollaborativen Suche in Live-Benutzerversuchen zeigen.;-;-;-;https://link.springer.com/chapter/10.1007/1-84628-103-2_9 2081cf46aadb7ad79c0ac955b30111f1;de;;;7.3.;;;Ein Vergleich von Tools zur Wissensextraktion für das Semantic Web In den letzten Jahren wurden grundlegende NLP-Aufgaben: NER, WSD, Relationsextraktion usw. für semantische Web-Aufgaben konfiguriert, einschließlich Ontologie-Lernen, Linked-Data-Population, Entitätsauflösung, NL-Abfragen zu verknüpften Daten usw Die Kunst bestehender Tools zur Wissensextraktion (KE) ist dann wünschenswert, wenn sie auf das Semantic Web angewendet wird. In diesem Papier beschreiben wir eine Landschaftsanalyse mehrerer Tools, die entweder speziell für KE im Semantic Web konzipiert wurden oder sich daran anpassen lassen oder sogar als Aggregatoren extrahierter Daten aus anderen Tools fungieren. Unser Ziel ist es, die derzeit verfügbaren Fähigkeiten anhand einer reichen Palette von Ontologie-Designkonstrukten zu bewerten, wobei wir uns speziell auf die tatsächliche semantische Wiederverwendbarkeit von KE-Ausgaben konzentrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38288-8_24 ebd1a77b8bd53cf29e4c9db970756325;de;;;7.3.;;;Extraktion von Webnachrichten über Tag-Pfad-Funktionsfusion mit DS-Theorie Inhalte, Layoutstile und Analysestrukturen von Web-News-Seiten unterscheiden sich stark von einer Seite zur anderen. Außerdem können sich der Layoutstil und die Parse-Struktur einer Web-News-Seite von Zeit zu Zeit ändern. Aus diesen Gründen ist es eine Herausforderung, Funktionen mit hervorragenden Extraktionsleistungen für massive und heterogene Web-Nachrichtenseiten zu entwerfen. Unsere umfangreichen Fallstudien zeigen, dass zwischen den Layouts von Webinhalten und ihren Tag-Pfade eine potenzielle Relevanz besteht. Inspiriert von dieser Beobachtung entwickeln wir eine Reihe von Funktionen zum Extrahieren von Tag-Pfad-Extraktionen, um Webnachrichten zu extrahieren. Da jedes Merkmal seine eigene Stärke hat, verschmelzen wir all diese Merkmale mit der DS (Dempster-Shafer)-Evidenztheorie und entwerfen dann eine Inhaltsextraktionsmethode CEDS. Experimentelle Ergebnisse sowohl zu CleanEval-Datensätzen als auch zu Web-Nachrichtenseiten, die zufällig von bekannten Websites ausgewählt wurden, zeigen, dass die;-;-;-;https://link.springer.com/article/10.1007/s11390-016-1655-1 ecc4ea7b8758b6e6e63741df4d0adfad;de;;;7.3.;;;Eine Lernbewertung von Online-Interpretationspraktiken: von Museumslieferketten zu Erlebnisökologien Trotz der Verbreitung von Museumswebsites und der zentralen Rolle der Interpretation für die Erfahrungen der Besucher gibt es nur begrenzte Forschungen zum Einfluss des Internets auf die Interpretation. Diese Studie schlägt einen Bewertungsrahmen für Webinterpretationspraktiken vor, der auf einer konstruktivistischen Bildungsperspektive basiert. Der Wert dieser Philosophie für die Verbesserung der Online-Interpretation und die Transformation der Lieferketten und Netzwerke von Museen in erlebbare Ökologien wird untersucht. Zunächst werden die die Interpretation verbessernden Merkmale des Internets analysiert und dann durch die Entwicklung eines Lernrahmens bewertet. Das Framework wird getestet, indem seine Anwendbarkeit auf den Websites britischer Museen untersucht wird. Es werden praktische und theoretische Implikationen der Ergebnisse und des Rahmens gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/3-211-27283-6_7 09344fe15fcae5254bc03e48025a3715;de;;;7.3.;;;Flexible sichere Internettransaktionen basierend auf kollaborativen Domänen Das Fehlen überschaubarer globaler Schlüsselverteilungssysteme behindert ernsthaft die Bereitstellung grundlegender Sicherheitsdienste im Internet. Das Aufkommen von Kryptosystemen, die auf der Public-Key-Technologie basieren, hat eine bedeutende Verbesserung in dieser Richtung dargestellt, indem die Notwendigkeit einer gegenseitigen Vereinbarung über den Verschlüsselungsschlüssel beseitigt wurde. Die Zertifikatsstrukturen, die einen Benutzer an seinen öffentlichen Schlüssel binden, sind jedoch insbesondere in domänenübergreifenden Umgebungen schwierig bereitzustellen. Obwohl der Bedarf an Sicherheitsdiensten wie Verschlüsselung oder Authentifizierung immer wichtiger wird, finden die meisten Internettransaktionen derzeit jedoch ohne die Verwendung dieser Dienste statt. Dieses Papier schlägt einen neuartigen Ansatz zur Vereinfachung der Schlüsselverwaltung vor, der auf dem Konzept der Sicherheitsdomänen beruht. Die Grundidee beruht auf der Tatsache, dass Schlüsselverwaltung und damit Sicherheitsdienste innerhalb einer eng begrenzten Domäne einfacher zu erreichen sind. Folglich kann die Sicherheit im großen Maßstab als eine Kombination aus Intradomänensicherheit und einem sicheren Rahmen für Transaktionen zwischen Domänen angesehen werden. Mit anderen Worten, Benutzerschlüssel werden intern verwaltet und nur Domänenschlüssel müssen global gehandhabt werden. Wir stellen die kryptografischen Schemata vor, die erforderlich sind, um Vertraulichkeit und Authentifizierung basierend auf der Zusammenarbeit von Sicherheitsdomänen zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0028158 c29aa2d3b3d9a1f9b05e2bc96144bc5a;de;;;7.3.;;;Eine Studie zur Unterstützung durch russische wissenschaftliche Stiftungen für inländische Veröffentlichungen in führenden internationalen Zeitschriften (basierend auf Daten von Dieser Artikel präsentiert eine szientometrische Analyse von Finanzierungsinformationen, die in Publikationen mit russischer Zugehörigkeit in führenden wissenschaftlichen Zeitschriften bereitgestellt werden, die in den beiden wichtigsten Zitationsdatenbanken Scopus und Web of Science indiziert sind. Metadaten der Reihe von Publikationen mit russischem Bezug, die 2014–2017 in Nature Index-Zeitschriften veröffentlicht wurden, dienten als Grundlage für den Vergleich der Vollständigkeit der Daten zu Stipendienstiftungen in den beiden Datenbanken und die Identifizierung russischer Stiftungen und Organisationen, die mit der größten solche Veröffentlichungen. Der Artikel analysiert die Förderung von Publikationen führender russischer Universitäten und untersucht die Aktivitätsdynamik russischer und ausländischer Stiftungen sowie internationale Koautorenschaften. Es werden Rückschlüsse auf die deutliche Überlegenheit des Web of Science hinsichtlich der Vollständigkeit der Informationserschließung und der Verbreitung von Verweisen auf die Russian Foundation for Basic Research (RFBR) und die Russian Science Foundation (RSF) gezogen. Die Zahl der Publikationen, die den RFBR als Stipendiengeber anerkennen, überstieg zuvor die Zahl der Publikationen, die die RSF anerkennen, jedoch hat sich der Trend in letzter Zeit geändert, da die RSF begonnen hat, in einer größeren Anzahl von Publikationen die Rolle der ausländischen Stipendiengeber bleibt bedeutend. Darüber hinaus werden Richtungen einer vergleichenden Zitationswirkungsanalyse in Abhängigkeit vom Zuwendungsgeber skizziert.;-;-;-;https://link.springer.com/article/10.3103/S0147688220010074 d4e91bb107883c7a4b0020a3b0fcb188;de;;;7.3.;;;Dynamische Konfiguration und Verwaltung von elektronischen Lieferketten basierend auf öffentlichen Internet-Registern, die von Clustern von Software-Agenten besucht werden Es gibt drei Hauptbeiträge der in diesem Papier vorgestellten Arbeit. Zunächst wird ein besonderer Ansatz zur Entwicklung und Verwaltung von Multi-Agent-Umgebungen vorgestellt. Es basiert auf sogenannten Agentenclustern, die Agenten gruppieren, die wechselseitig zusammenarbeiten, um eine bestimmte Mission auszuführen, z. um Lieferketten aufzubauen und zu verwalten, um Einzelheiten der Bestellung zu verhandeln. Der zweite Beitrag ist die Präsentation des öffentlichen Registermodells. Die Autoren haben den RosettaNet-Ansatz auf öffentliche Register erweitert. Drittens wird die Integration des Agentenclustermodells und des öffentlichen Registrierungsmodells vorgestellt. Ein neuer Ansatz zeigt, wie die Agententechnologie den Informationsaustauschprozess innerhalb einer öffentlichen Registrierung automatisieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74481-8_27 157f853e21b32812d419718004c6ac45;de;;;7.3.;;;Motivationsforschung zur Beteiligung von Benutzern von Multimedia-Webseiten am „Share“-Verhalten: eine Fallstudie von Alipay Mit der rasanten Entwicklung der mobilen Internettechnologie haben in den letzten zwei Jahren eine Reihe von Aktivitäten wie „Share Billing Bills“, „Share Songs List“ und „Share Footprints“ großen Erfolg und eine breite Beteiligung der Nutzer gefunden. Für Unternehmen ist es von großer praktischer Bedeutung, Multimedia zu nutzen, um ein „Teilen“-Verhalten durchzuführen, um Benutzer zu gewinnen und Wettbewerbsvorteile zu erlangen. Daher stellt dieser Beitrag das Design solcher Multimedia-Seiten und die verwendete Multimedia-Technologie vor und bewertet die Interaktivität des Multimedia-Seiten-Designs aus der Perspektive der Benutzererfahrung. Genauer gesagt konstruieren wir ein Motivationsmodell für die Teilnahme von Benutzern am „Teilen“-Verhalten und verwenden empirische Forschungsmethoden, um den Einfluss der Motivation (Informationsmotivation, soziale Motivation, Unterhaltungsmotivation) auf die Beteiligung der Benutzer am „Teilen“-Verhalten zu analysieren. Die Ergebnisse zeigen, dass Informationsmotivation, soziale Motivation und Unterhaltungsmotivation einen signifikanten Einfluss auf die Beteiligung der Nutzer am „Teilen“-Verhalten haben. Diese Einflüsse sind in absteigender Reihenfolge ihrer Bedeutung Unterhaltungsmotivation, Informationsmotivation und soziale Motivation. Datenschutzbedenken spielen keine vermittelnde Rolle in der Beziehung zwischen Motivation und Beteiligung der Nutzer am „Teilen“-Verhalten. Zusammengefasst zeigen und erklären die Ergebnisse der vorliegenden Studie nicht nur den Motivationsmechanismus von Verbrauchern, die sich am „Teilen“-Verhalten auf Multimediaseiten beteiligen, sondern helfen auch, die wahrgenommene Qualität neuer Multimediadienste aus der Perspektive der Verbraucherbeteiligung zu bewerten, sowie Anregungen für die interaktive Gestaltung und Verbesserung von Multimedia-Seiten.;-;-;-;https://link.springer.com/article/10.1007/s11042-020-08819-4 e8c131aee06825b0c95bbaf10ac13500;de;;;7.3.;;;Internet of Music Things: ein Edge-Computing-Paradigma für opportunistisches Crowdsensing Gerätezentrierte Musikberechnung im Zeitalter des Internets ist eine teilnehmerzentrierte Datenerkennung und -berechnung, die Geräte wie Smartphones, echte Schallsensoren und Computersysteme umfasst. Diese partizipativen Geräte fördern die Weiterentwicklung des Internets der Dinge, die für die Erfassung von Sensordaten an den Geräten gemäß den Anforderungen der Endbenutzer verantwortlich sind. Dieser Beitrag analysiert eine Klasse qualitativer Musikkompositionsanwendungen im Kontext des Internet of Things, die wir als Internet of Music Things bezeichnen. An dieser Arbeit beteiligten Personen mit Sensorgeräten, die Musik wahrnehmen und berechnen können, teilen Daten innerhalb einer Gruppe und rufen Informationen zum Analysieren und Kartieren miteinander verbundener Prozesse von gemeinsamem Interesse ab. In diesem Beitrag stellen wir die Crowdsensing-Architektur für die Musikkomposition vor. Musikalische Komponenten wie Gesangs- und Instrumentaldarbietungen werden von einer engagierten Edge-Schicht in der Musik-Crowdsensing-Architektur bereitgestellt, um die Recheneffizienz zu verbessern und den Datenverkehr in Cloud-Diensten zur Informationsverarbeitung und -speicherung zu verringern. Die vorgeschlagene opportunistische Musik-Crowdsensing-Orchestrierung organisiert einen kategorischen Schritt in Richtung aggregierter Musikkomposition und -austausch innerhalb des Netzwerks. Wir diskutieren auch eine analytische Fallstudie zu Herausforderungen beim Musik-Crowdsensing, klären die einzigartigen Merkmale und demonstrieren das Edge-Cloud-Computing-Paradigma zusammen mit bewussten Ergebnissen. Die Forderung nach einem vierschichtigen vereinheitlichten Crowdsensing-Archetyp wird diskutiert. Die Datenübertragungszeit, Leistung und relevanter Energieverbrauch des vorgeschlagenen Systems werden analysiert.;-;-;-;https://link.springer.com/article/10.1007/s11227-018-2511-6 f6234f9add443fac103d084070f66335;de;;;7.3.;;;Systemzuverlässigkeit der zugesicherten Genauigkeitsrate für Computernetzwerke mit mehreren Status aus der Sicht von Service Level Agreements Aus Sicht von Service Level Agreements ist die Übertragungsgenauigkeitsrate einer der kritischen Leistungsindikatoren zur Beurteilung der Internetqualität für Systemmanager und Kunden. Unter der Annahme, dass die Kapazität jedes Bogens deterministisch ist, besteht das schnellste Pfadproblem darin, einen Pfad zu finden, der bestimmte Daten sendet, so dass die Übertragungszeit minimiert wird. In vielen realen Netzwerken, wie beispielsweise Computernetzwerken, hat jedoch jeder Bogen eine stochastische Kapazität, Vorlaufzeit und Genauigkeitsrate. Ein solches Netzwerk wird als Multi-State-Computernetzwerk bezeichnet. Unter sowohl der Genauigkeitsrate als auch der Zeitbeschränkungen erweitern wir das Problem des schnellsten Pfads, um die Wahrscheinlichkeit zu berechnen, dass d Dateneinheiten gleichzeitig durch mehrere minimale Pfade gesendet werden können. Eine solche Wahrscheinlichkeit, die als Systemzuverlässigkeit bezeichnet wird, ist ein Leistungsindikator, der Managern zum Verständnis der Fähigkeit des Systems und der Verbesserung zur Verfügung gestellt wird. Ein effizienter Algorithmus wird vorgeschlagen, um die Systemzuverlässigkeit hinsichtlich der Annäherung an minimale Pfade zu bewerten.;-;-;-;https://link.springer.com/article/10.1007/s11518-014-5240-2 0f0258e552fe3014235234f61cd17e23;de;;;7.3.;;;Nato-Astec-Matrix – Forschungsumgebung, Informationsaustausch und Mc&A Die Bedrohungen durch Massenvernichtungswaffen (MVW) entwickeln sich ständig weiter und sind seit dem Ende des Kalten Krieges komplexer geworden. Nach dem Zerfall der Sowjetunion im Jahr 1991 erbten die ehemaligen Sowjetrepubliken das weltweit größte Arsenal an chemischen, biologischen, radiologischen und nuklearen (CBRN) Materialien. Die Republiken haben auch die Technologien geerbt, die zur Herstellung von Massenvernichtungswaffen erforderlich sind. Das Fehlen von Sicherheitssystemen, Buchhaltungssystemen und Kontrollen für den Export von Technologie, Materialien und Raketenprogrammen stellt eine der ernsthaftesten Bedrohungen für die internationale Sicherheit dar, da die Möglichkeit der Umleitung von CBRN-Material und -Technologien an Schurkenstaaten und terroristische Organisationen zugenommen hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-3504-2_16 1335f4cacd8b0b7c30f5def0a169ab9e;de;;;7.3.;;;Implizite Rückmeldungen aus Suchmaschinen-Protokolldateien erkennen Es wurden eine Reihe von expliziten und impliziten Feedback-Mechanismen vorgeschlagen, um die Qualität der Suchmaschinenergebnisse zu verbessern. Die aktuellen Ansätze zur Informationsbeschaffung hängen stark von der Web-Linkage-Struktur ab, die eine Form der Relevanzbeurteilung durch die Seitenautoren ist. Um jedoch Spam-Versuche und die riesigen Datenmengen zu überwinden, ist es wichtig, auch das Feedback der Nutzer zur Seitenrelevanz eines Dokuments einzubeziehen. Da Benutzer kaum explizites/direktes Feedback zur Suchqualität geben, ist es notwendig, implizites Feedback zu berücksichtigen, das aus Suchmaschinenprotokollen gesammelt werden kann. In diesem Artikel bewerten wir zwei implizite Feedback-Maßnahmen, nämlich die Klickfolge und die Zeit, die zum Lesen eines Dokuments aufgewendet wird. Wir entwickeln ein mathematisches Programmiermodell, um das aus verschiedenen Sitzungen gesammelte Feedback zu einer partiellen Rangordnung von Dokumenten zusammenzufassen. Mit Kendalls;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75488-6_22 90f3415f4a4adfdcba01e2d1b336f122;de;;;7.3.;;;Semantische Assoziationsberechnung: ein umfassender Überblick Semantische Assoziationsberechnung ist der Prozess der Quantifizierung der Stärke einer semantischen Verbindung zwischen zwei Texteinheiten, basierend auf verschiedenen Typen semantischer Beziehungen. Semantic Association Computing ist eine Schlüsselkomponente verschiedener Anwendungen aus einer Vielzahl von Bereichen, wie Computerlinguistik, kognitive Psychologie, Information Retrieval und künstliche Intelligenz. Das Gebiet der semantischen Assoziationsberechnung wird seit Jahrzehnten untersucht. Ziel dieses Beitrags ist es, einen umfassenden Überblick über verschiedene Ansätze zur Berechnung semantischer Assoziationen zu geben, kategorisiert nach den zugrunde liegenden Quellen des Hintergrundwissens. Bestehende Untersuchungen zur semantischen Berechnung haben sich auf einen bestimmten Aspekt semantischer Assoziationen konzentriert, wie die Verwendung von Verteilungssemantik in der Assoziationsberechnung oder Arten von räumlichen Modellen semantischer Assoziationen. Dieses Papier hat jedoch eine Vielzahl von rechnerischen Aspekten und Faktoren in einem Bild zusammengefasst. Dies macht den Artikel lesenswert für diejenigen Forscher, die in das Gebiet der semantischen Assoziationsberechnung einsteigen wollen. Dieses Papier stellt die grundlegenden Elemente des Assoziationsberechnungsprozesses, Bewertungsmethoden und die Verbreitung semantischer Maße in einer Vielzahl von Bereichen vor und stützt sich dabei auf die Semantik natürlicher Sprache. Nebenbei werden die Hauptkategorien von Hintergrundwissensquellen, die in formale und informelle Wissensquellen klassifiziert werden, und die zugrunde liegenden Entwurfsmodelle, wie räumliche, kombinatorische und Netzwerkmodelle, die im Assoziationsberechnungsprozess verwendet werden, ausführlich diskutiert. Der Beitrag teilt existierende Ansätze der semantischen Assoziationsberechnung in zwei große Kategorien ein, basierend auf ihrer Nutzung von Hintergrundwissensquellen:;-;-;-;https://link.springer.com/article/10.1007/s10462-019-09781-w def30b39672a26eff99b107ea387e932;de;;;7.3.;;;Ein sicheres Multifaktor-Authentifizierungssystem für drahtloses Bezahlen Unternehmen setzen drahtlos basierte Online-Zahlungsanwendungen ein, um ihr Geschäft weltweit auszubauen. Dies erhöht den wachsenden Bedarf an regulatorischen Anforderungen zum Schutz vertraulicher Daten, insbesondere in internetbasierten Finanzbereichen. Existierende internetbasierte Authentifizierungssysteme verwenden oft entweder den Web- oder den mobilen Kanal einzeln, um die behauptete Identität des entfernten Benutzers zu bestätigen. Die Schwachstelle besteht darin, dass der Zugriff nur auf einer Einfaktor-Authentifizierung basiert, die zum Schutz der Benutzerdaten nicht sicher ist. Es besteht die Notwendigkeit einer Mehrfaktor-Authentifizierung. Dieses Papier schlägt ein neues Protokoll vor, das auf einem Multifaktor-Authentifizierungssystem basiert, das sowohl sicher als auch sehr benutzerfreundlich ist. Es verwendet einen neuartigen Ansatz, der auf Transaktionsidentifikationscode und SMS basiert, um eine weitere Sicherheitsstufe mit dem traditionellen Login/Passwort-System durchzusetzen. Das System bietet eine hochsichere Umgebung, die einfach zu verwenden und mit begrenzten Ressourcen bereitzustellen ist, die keine Änderung der Infrastruktur oder des Protokolls des drahtlosen Netzwerks erfordert. Dieses Protokoll für drahtlose Zahlungen wird als Zwei-Wege-Authentifizierungssystem erweitert, um den aufstrebenden Marktbedarf der gegenseitigen Authentifizierung zu befriedigen und unterstützt auch eine sichere B2B-Kommunikation, die das Vertrauen der Benutzer und Geschäftsorganisationen in drahtlose Finanztransaktionen mit mobilen Geräten stärkt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84996-074-8_13 1b3388cd37bcf4f3e700b0bcea259998;de;;;7.3.;;;Wissensmanagement im IPv6-Migrationsprozess Es gibt viele Gründe für die Bereitstellung des IPv6-Protokolls, wobei die Erschöpfung des IPv4-Adressraums der offensichtlichste ist. Leider scheint die Migration zum IPv6-Protokoll langsamer zu sein als erwartet. Um das Tempo der IPv6-Bereitstellung zu verbessern, haben die Autoren des Artikels eine Anwendung entwickelt, die den Migrationsprozess unterstützt. Sein Hauptzweck besteht darin, weniger erfahrenen Netzwerkadministratoren zu helfen, den Migrationsprozess zu erleichtern, wobei eine bestimmte Zielverwendung SOHO-Netzwerke sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21771-5_13 972d249716d3a8e020696f0c1d167418;de;;;7.3.;;;Phrasenbasiertes Clustering von Webdokumenten: Ein Indexierungsansatz Das Clustern von Dokumenten innerhalb eines Clusters basiert meistens auf einer Einzeltermanalyse über den vorhandenen Dokumentensatz und die Benennung eines davon kann ein Vektorraummodell sein. Um bessere Ergebnisse zu erzielen, müssen mehr erklärende Funktionen aufgenommen werden. Diese informativen Merkmale können Phrasen und deren Gewichtung für ein bestimmtes Dokument sein. Die Bedeutung der Dokumenten-Clusterbildung kann mit der Notwendigkeit der Kategorisierung von Dokumenten, der Erstellung von Suchmaschinenergebnissen, der Erstellung einer Taxonomie von Dokumenten und vielem mehr erklärt werden. In diesem Beitrag werden einige so wichtige Beispiele für das Clustering von Dokumenten vorgestellt. Es werden zwei bekannte Algorithmen auf diesem Gebiet diskutiert und eine analytische Untersuchung der Ergebnisse einer bekannten Suchmaschine und das darauf basierende Tool diskutiert. Das Modell zeigt effiziente und weniger relevante Ergebnisse einer Suchmaschine und eine verbesserte Dokumentähnlichkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-3226-4_49 4ca6b78539769aaa3664183eff79d856;de;;;7.3.;;;So visualisieren Sie den K-Root Name Server (Demo) Wir präsentieren ein System, das die Entwicklung des Dienstes visualisiert, der von einem der beliebtesten Root-Nameserver namens K-root bereitgestellt wird, der vom RIPE Network Coordination Center (RIPE NCC) betrieben und an mehreren Standorten (Instanzen) weltweit verteilt wird. Das System kann entweder verwendet werden, um zu überwachen, was während eines vorgeschriebenen Zeitintervalls passiert ist, oder um den Status des Dienstes nahezu in Echtzeit zu beobachten. Das System visualisiert, wie und wann die Clients von K-root von einer Instanz zu einer anderen migrieren, wie sich die Anzahl der mit jeder Instanz verbundenen Clients im Laufe der Zeit ändert und welche Instanzen dazu beitragen, einem ausgewählten Internetdienstanbieter den Dienst anzubieten. Darüber hinaus zielt die Visualisierung darauf ab, übliche von ungewöhnlichen Betriebsmustern zu unterscheiden. Dies hilft nicht nur, die Servicequalität zu verbessern, sondern auch sicherheitsrelevante Probleme zu erkennen und unerwartete Routing-Änderungen zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25878-7_19 1430127e44d3579b4e760bfc69071eb4;de;;;7.3.;;;Auf dem Weg zu semantisch vernetzten Online-Communitys Online-Community-Sites haben die traditionellen Mittel ersetzt, eine Community über Bibliotheken und Veröffentlichungen auf dem Laufenden zu halten. Derzeit sind Online-Communitys Inseln, die nicht miteinander verbunden sind. Wir beschreiben verschiedene Arten von Online-Communitys und Tools, die derzeit zum Aufbau und zur Unterstützung solcher Communities verwendet werden. Ontologien und Semantic Web-Technologien bieten einen Upgrade-Pfad zur Bereitstellung komplexerer Dienste. Die Verschmelzung von Informationen und das Ableiten von Verknüpfungen zwischen den verschiedenen Anwendungen und Informationsarten liefert relevante Erkenntnisse, die die verfügbaren Informationen im Internet wertvoller machen. Wir präsentieren die SIOC-Ontologie, die Begriffe aus bereits existierenden Vokabulare mit neuen Begriffen kombiniert, die benötigt werden, um die Beziehungen zwischen Konzepten im Bereich von Online-Community-Sites zu beschreiben.;-;-;-;https://link.springer.com/chapter/10.1007/11431053_34 10093960ad942c5258d021e2df500d0a;de;;;7.3.;;;Semantische Websuche und induktives Denken Umfangreiche Forschungsaktivitäten richten sich in jüngster Zeit auf das Semantic Web als eine zukünftige Form des Webs. Folglich entwickelt sich die Websuche als Schlüsseltechnologie des Webs zu einer neuartigen Form der semantischen Websuche. Ein sehr vielversprechender neuer Ansatz basiert auf der Kombination von Standardwebseiten und Suchanfragen mit ontologischem Hintergrundwissen und der Verwendung von Standardwebsuchmaschinen als Hauptinferenzmotor der Semantic Web Search. In diesem Beitrag verbessern wir diesen Ansatz für die Suche im Semantic Web durch den Einsatz von induktiven Argumentationstechniken. Dies fügt insbesondere die wichtige Fähigkeit hinzu, mit Inkonsistenzen, Rauschen und Unvollständigkeit umzugehen, die alle sehr wahrscheinlich in verteilten und heterogenen Umgebungen wie dem Web auftreten. Wir berichten über eine prototypische Umsetzung des neuen Ansatzes und experimentelle Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35975-0_13 72dd3486f306e89ebf9cf36a5a3ed787;de;;;7.3.;;;Forensische Analyse der Sony Playstation Portable Die Sony PlayStation Portable (PSP) ist ein beliebtes tragbares Spielgerät mit Funktionen wie drahtlosem Internetzugang und Bild-, Musik- und Filmwiedergabe. Wie bei den meisten Systemen, die auf einem Prozessor und einem Speicher basieren, kann die PSP für andere als die ursprünglich vorgesehenen Zwecke verwendet werden – legale sowie illegale. In diesem Artikel werden die Funktionen des PSP-Browsers erörtert und Best Practices zum Extrahieren digitaler Beweise vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04155-6_9 c3a6fe5c556a120272659ccf3dcba46c;de;;;7.3.;;;Utility Driven Elastic Services Um den Anforderungen der Skalierbarkeit gerecht zu werden, ist es gängige Praxis geworden, umfangreiche Dienste über Infrastrukturen von nicht dedizierten Servern bereitzustellen, wobei Instanzen mehrerer Dienste auf feinkörniger Ebene gemultiplext werden. Diese Tendenz wurde in letzter Zeit dank der Verwendung von Virtualisierungstechnologien populär. Da diese Infrastrukturen komplexer werden, große, heterogene Anzeigen verteilt werden, wird eine manuelle Zuweisung von Ressourcen unmöglich und eine Form der Selbstverwaltung ist erforderlich. Herkömmliche Regelmechanismen mit geschlossenem Regelkreis scheinen jedoch für diese Plattformen ungeeignet zu sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21387-8_10 246eb6955ff9a06dd1d548ff96f5d684;de;;;7.3.;;;Durchsuchen des Webs mit Abfragen In diesem Artikel untersuchen wir das Problem der Suche im Web mit Online-Lernalgorithmen. Wir nehmen an, dass Webdokumente durch Vektoren von n booleschen Attributen dargestellt werden können. Eine Suchmaschine wird als Lernender und ein Benutzer als Lehrer angesehen. Wir untersuchen, wie viele Anfragen eine Suchmaschine vom Benutzer benötigt, um nach einer Sammlung von Webdokumenten zu suchen. Wir entwerfen mehrere effiziente Lernalgorithmen, um mit Hilfe von Mitgliedschaftsabfragen oder Äquivalenzabfragen nach einer beliebigen Sammlung von Dokumenten zu suchen, die durch eine Disjunktion (oder eine Konjunktion) relevanter Attribute repräsentiert werden.;-;-;-;https://link.springer.com/article/10.1007/BF03325104 7f99ba5e71d73b6c7a6030457d371aee;de;;;7.3.;;;Clustering von Webvideo-Suchergebnissen basierend auf der Integration mehrerer Funktionen Die Nutzung von Webvideosuchmaschinen hat explosionsartig zugenommen. Aufgrund der Mehrdeutigkeit von Abfragebegriffen und doppelten Ergebnissen ist eine gute Clusterung der Videosuchergebnisse unerlässlich, um die Benutzererfahrung zu verbessern und die Abrufleistung zu verbessern. Vorhandene Systeme, die Videos gruppieren, berücksichtigen nur den Videoinhalt selbst. In diesem Artikel wird das erste System vorgestellt, das die Ergebnisse der Webvideosuche bündelt, indem neben dem Videoinhalt wie Titel, Tags und Beschreibung die Beweise aus einer Vielzahl von Informationsquellen zusammengeführt werden. Wir schlagen ein neuartiges Framework vor, das mehrere Funktionen integrieren kann und es uns ermöglicht, bestehende Clustering-Algorithmen zu übernehmen. Wir besprechen unser sorgfältiges Design verschiedener Komponenten des Systems und eine Reihe von Implementierungsentscheidungen, um eine hohe Effektivität und Effizienz zu erreichen. Eine gründliche Benutzerstudie zeigt, dass unser System mit einer innovativen Oberfläche, die die Clustering-Ausgabe zeigt, eine deutlich bessere Darstellung der Suchergebnisse liefert und damit die Benutzerfreundlichkeit von Videosuchmaschinen deutlich erhöht.;-;-;-;https://link.springer.com/article/10.1007/s11280-010-0097-x 13075d02921cb1161bcb199a444b3f0e;de;;;7.3.;;;Abfragen des Semantic Web mit Präferenzen Das Ranking ist ein wichtiges Konzept, um leere oder überfüllte und ungeordnete Resultsets zu vermeiden. Ein solches Scoring kann jedoch nur Gesamtaufträge ausdrücken, was seinen Nutzen einschränkt, wenn mehrere Faktoren die Ergebnisrelevanz beeinflussen. Eine flexiblere Möglichkeit, Relevanz auszudrücken, ist der Begriff der Präferenzen. Benutzer geben an, welche Art von Antworten sie „bevorzugen“, indem sie ihren Abfragen weiche Einschränkungen hinzufügen.;-;-;-;https://link.springer.com/chapter/10.1007/11926078_44 a7ba1258982d9a7cc235003d6707553c;de;;;7.3.;;;Size-Adjusted Sliding Window LFU - Ein neues Web-Caching-Schema Web-Caching ist eine skalierbare und effektive Möglichkeit, den Netzwerkverkehr und die Reaktionszeit zu reduzieren. In dieser Studie schlagen wir eine neue Cache-Ersetzungsrichtlinie für Proxy- und Webserver vor, die Size-Adjusted Sliding Window LFU (SSW-LFU). In dieser Richtlinie verwenden wir die Raten der letzten Zugriffe innerhalb eines gleitenden Fensters, um die Wahrscheinlichkeit zukünftiger Dokumentenzugriffe zu schätzen. Darüber hinaus berücksichtigen wir die variablen Dokumentengrößen. Zur Leistungsbewertung werden Simulationen mit realen Webzugriffsdaten durchgeführt. SSW-LFU übertraf andere Algorithmen in der Trefferquote und hatte eine vergleichbare Byte-Trefferquote im Vergleich zu anderen Algorithmen wie LFU, LRU, Größe, LRU-Min usw.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44759-8_56 3f698c63e3c8f2972372475159063d82;de;;;7.3.;;;Eine hybride Architektur für benutzerangepasste Informationsfilterung im World Wide Web In diesem Papier stellen wir ein Informationsfiltersystem von HTML/Text-Dokumenten vor, die aus dem World Wide Web (WWW) gesammelt wurden, basierend auf einer Darstellung von Benutzerinteressen, wie sie vom System durch einen Dialog abgeleitet werden. Eines der Unterscheidungsmerkmale des Systems ist die Verwendung eines hybriden Ansatzes zur Benutzermodellierung, bei dem fallbasierte Komponenten und ein künstliches neuronales Netz in ein kohärentes System integriert werden. Darüber hinaus nutzt das System semantische Netzwerke und eine gut strukturierte Datenbank, um eine genaue Filterung durchzuführen. Die Ergebnisse der ersten Experimente mit dem System sind sehr ermutigend.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-2670-7_8 7659dc0c5a126b142403a895207bdb49;de;;;7.3.;;;Vielseitiges Internet der Dinge für die Landwirtschaft: Ein erklärbarer KI-Ansatz Die zunehmende Akzeptanz von IoT-Geräten und das aktuelle Problem der Lebensmittelproduktion haben zu zahlreichen Anwendungen des IoT in der Landwirtschaft geführt. Diese Anwendungen umfassen typischerweise eine Reihe von Sensoren, die auf offenen Feldern installiert sind und Metriken wie Temperatur oder Feuchtigkeit messen, die für Bewässerungssteuerungssysteme verwendet werden. Obwohl sie nützlich sind, haben die meisten modernen Systeme hohe Installations- und Wartungskosten, und sie bieten keine automatische Steuerung oder, wenn sie dies tun, sind sie normalerweise nicht interpretierbar und können daher für solch kritische Anwendungen nicht vertrauenswürdig sein. In dieser Arbeit entwerfen wir Vital, ein System, das eine Reihe kostengünstiger Sensoren, einen robusten Datenspeicher und vor allem ein erklärbares KI-Entscheidungsunterstützungssystem umfasst. Unser System gibt eine Fuzzy-Regelbasis aus, die interpretierbar ist und eine vollautomatische Bewässerung der Felder ermöglicht. Nach der Bewertung von Vital in zwei Pilotfällen kommen wir zu dem Schluss, dass es für die Überwachung von Freilandanlagen effektiv sein kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-49186-4_16 a98af7ee067b0923304607896534c153;de;;;7.3.;;;Machtdynamik in der E-Commerce-Adoption in den am wenigsten entwickelten Ländern: Der Fall der KMU in Dar-es-Salaam, Tansania Dieses Papier untersucht Machtstrukturen, die die Einführung des E-Commerce bei kleinen und mittleren Unternehmen in den am wenigsten entwickelten Ländern zu einer entmutigenden Aufgabe machen. Die Studie nimmt die Strukturtheorie als Linse auf und konzentriert sich speziell auf Herrschaftsstrukturen. Die Ergebnisse zeigen, dass auf Organisationsebene mangelnde Unterstützung durch das Management der Grund war. Dies wurde jedoch durch die Zurückhaltung der Regierung bei der Einführung von E-Commerce verursacht. Durch den Verzicht auf E-Commerce schafft die Regierung Herrschaftsstrukturen, indem sie sowohl auf ihre allokativen als auch auf ihre autoritativen Ressourcen zurückgreift. Weitere Ergebnisse zeigen, dass Bildungseinrichtungen eine maßgebliche Macht besitzen – sie gestalten den Lehrplan, indem sie bestimmen, was und wie sie unterrichtet werden sollen, und dabei die Branchen und insbesondere die Bedürfnisse der KMU nicht berücksichtigen. Mit der schnellen Einführung mobiler Technologien wird E-Commerce jedoch durch die Entwicklung von mobilfähigen Handelswebsites Realität, die KMU zahlreiche Möglichkeiten bieten, sich in der Weltwirtschaft zu verbreiten und zu verjüngen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29093-0_21 2d43193c731f7cbcc3304fffe3b9f54b;de;;;7.3.;;;Validierung von Informationskomplexitätsfragebögen mithilfe von Reisewebsites Mit der weit verbreiteten Verwendung von visuellen Schnittstellen und der steigenden Nachfrage, mehr Informationen anzuzeigen, wird die Informationskomplexität zu einem Hauptproblem für Designer. Komplexe Schnittstellen wirken sich auf die Systemeffektivität, Effizienz und sogar Sicherheit aus. Forscher der Federal Aviation Administration haben zwei Sätze psychometrischer Fragebögen entwickelt, um die Informationskomplexität von Flugsicherungsanzeigen zu bewerten. Diese Studie adaptierte die Fragebögen für kommerzielle visuelle Interfaces und validierte sie mit gerichteten und explorativen Aufgaben auf drei Reisewebsites. Die Ergebnisse bestätigten, dass beide Komplexitätsfragebögen eine zufriedenstellende Reliabilität, Validität und Sensitivität aufweisen. Fragebogen B zeigte jedoch eine höhere Sensitivität als Fragebogen A.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73105-4_99 4504789f29c1fd902d94834a7a5d8473;de;;;7.3.;;;Web Service Discovery in einer semantisch erweiterten UDDI-Registrierung: Der Fall von Fusion Serviceorientiertes Computing wird in einem noch nie dagewesenen Tempo eingeführt, was die Effektivität der automatisierten Serviceerkennung zu einer immer wichtigeren Herausforderung macht. UDDI hat sich als De-facto-Industriestandard und grundlegender Baustein innerhalb von SOA-Infrastrukturen entwickelt. Dennoch fehlt es herkömmlichen UDDI-Registrys an Mitteln, um eindeutige, semantisch reichhaltige Darstellungen von Web-Service-Fähigkeiten und die erforderliche logische Inferenzkraft bereitzustellen, um die automatisierte Service-Erkennung zu erleichtern. Um diese wichtige Einschränkung zu überwinden, wurden eine Reihe von Ansätzen vorgeschlagen, um die Webdiensterkennung mit Semantik zu erweitern. Dieses Papier diskutiert die Vorteile semantisch erweiterter Web-Service-Beschreibungen und UDDI-Registrys und präsentiert einen völlig neuen Ansatz des im Projekt FUSION vorgestellten Ansatzes zur semantisch verbesserten Veröffentlichung und Entdeckung von Services basierend auf SAWSDL.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-73798-0_59 c860fed2fca18cb7772aa8f5fd003471;de;;;7.3.;;;Leistungsanalyse eines sicheren Webservers basierend auf SSL In den letzten Jahren wurden Protokolle entwickelt, um eine sichere Kommunikation über das Internet zu gewährleisten, beispielsweise die Secure Sockets Layer (SSL) und Secure Electronic Transaction (SET). Die Bereitstellung dieser Protokolle verursacht zusätzliche Ressourcenanforderungen beim Client und Server. Dies kann sich negativ auf die Systemleistung auswirken. In diesem Papier betrachten wir ein Szenario, in dem Benutzer Informationsseiten anfordern, die auf einem Webserver gespeichert sind, und einige der Anforderungen eine sichere Kommunikation erfordern. Ein analytisches Modell wird entwickelt, um die Leistung eines Webservers basierend auf SSL zu untersuchen. In unserem Modell werden die Details der Client-Server-Interaktionen in einer typischen SSL-Sitzung explizit dargestellt. Eingabeparameter für dieses Modell werden durch Messen einer bestehenden SSL-Implementierung erhalten. Numerische Beispiele zu den Leistungsmerkmalen von SSL werden vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44456-4_19 c49ed92fd15e826caca2a3c9bd62e21a;de;;;7.3.;;;Personalisierte Websuche mit Information Scent Web-Suchmaschinen erforschen die vorhandene Struktur des Webs und versuchen, Dokumente zu finden, die den Suchkriterien des Benutzers entsprechen. Die größte Herausforderung für Suchmaschinen besteht heutzutage darin, den Informationsbedarf des Benutzers, der das Web durchsucht, effizient und effektiv zu ermitteln und zu befriedigen. Der in diesem Dokument vorgestellte Ansatz besteht darin, die Websuche entsprechend dem Informationsbedarf des Benutzers mithilfe von Information Scent in Query Log Mining zu personalisieren. Das Abfrageprotokoll wird vorverarbeitet, um die Abfragesitzungen zu finden. Der mit Abfragesitzungen verbundene Informationsbedarf wird unter Verwendung des Informationsdufts und des Inhalts von angeklickten Dokumenten modelliert. Die in diesem Dokument durchgeführte Arbeit verwendet Clustering-Techniken, um Abfragesitzungen mit ähnlichem Informationsbedarf zu clustern, der mithilfe von Information Scent und Inhalt angeklickter URLs modelliert wurde. Der Informationsbedarf der aktuellen Benutzersitzung wird verwendet, um den Cluster zu identifizieren, der den Informationsbedarf ähnlich dem Informationsbedarf der aktuellen Sitzung des Benutzers hat. Der ausgewählte Cluster wird verwendet, um einen nützlichen Link oben auf der nächsten angeforderten Ergebnisseite zu empfehlen. Empfohlene URLs helfen dem Benutzer, die relevanten Dokumente zu finden, die auf seine Bedürfnisse geschlossen sind und die Suche in eine fruchtbare Richtung lenken. Dieser Ansatz personalisiert den Suchprozess an die Bedürfnisse des Benutzers. Die Leistung des vorgeschlagenen Ansatzes wird mit einer experimentellen Studie über das Mining von Abfragesitzungen der Webverlaufsdaten der Suchmaschine „Google“ bewertet, und die experimentellen Ergebnisse zeigen die Verbesserung der Präzision des Informationsabrufs.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-8735-6_90 1cd0930fff607020b4bba8b2c3781c9f;de;;;7.3.;;;Eine schrittweise Kombination von Funktionen zum Aufbau automatischer Zusammenfassungssysteme Dieser Beitrag stellt einen Textzusammenfassungsansatz vor, der drei verschiedene Merkmale (Worthäufigkeit, Textuelle Entailment und das Codequantitätsprinzip) kombiniert, um Auszüge aus Nachrichtendokumenten in englischer Sprache zu erstellen. Experimente zeigten, dass die vorgeschlagene Kombination zur Erstellung von Zusammenfassungen geeignet ist und die Systemleistung um 10 % gegenüber dem besten DUC 2002-Teilnehmer verbessert. Darüber hinaus wurde eine vorläufige Analyse der Eignung dieser Funktionen für domänenunabhängige Dokumente durchgeführt, die ebenfalls ermutigende Ergebnisse lieferte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04208-9_6 4b7859bf04dce79389227dfc4598b0fd;de;;;7.3.;;;Integration des Unternehmensmodells Aufgrund sich schnell ändernder Geschäftsanforderungen nimmt die Komplexität bei der Entwicklung unternehmensübergreifender Anwendungen ständig zu. Ein wichtiges Feld zur Bereitstellung technischer Konzepte und Technologien zur Integration heterogener Anwendungen und Komponenten zur Unterstützung organisationsübergreifender Geschäftsprozesse ist der Bereich Enterprise Application Integration (EAI). Ein gemeinsames Merkmal aller EAI-Ansätze ist der Fokus auf technische und Laufzeitaspekte der Integration. Aus unseren Projekterfahrungen in der Entwicklung großer B2B-Anwendungen ist es notwendig, Anwendungen auch auf fachlicher und konzeptioneller Ebene zu integrieren. Aufgrund der Vielfalt an Modellen und Modellierungssprachen für die Entwicklung von Unternehmensanwendungen schlagen wir die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45229-4_37 cc686489105a84664eb3867bc24b4131;de;;;7.3.;;;Themendestillation in der Desktop-Suche Desktop-Suche, die Suche über einen lokalen Speicher wie einen PC, ist eine gängige Praxis bei Computerbenutzern. Es gab viele Aktivitäten im Bereich der webbezogenen Informationssuche, aber die Desktopsuche hat erst in letzter Zeit an Popularität gewonnen. Da sich die Struktur und Zugänglichkeit von Daten in einer lokalen Umgebung vom Web unterscheidet, ergeben sich neue algorithmische Möglichkeiten für Desktop Search.;-;-;-;https://link.springer.com/chapter/10.1007/11827405_47 e019c81b539396c9f4910498dcde4787;de;;;7.3.;;;Ein Framework für das Vertrauen in Webdienste Heute setzen Unternehmen, die einen Wettbewerbsvorteil suchen, virtuelle Infrastrukturen ein, die Computerressourcen gemeinsam nutzen und verwalten. Der Trend geht zur Implementierung kollaborierender Anwendungen, die von Webservices-Technologie unterstützt werden. Um eine sichere Zusammenarbeit zwischen den Teilnehmern dieser Umgebungen zu ermöglichen, ist Vertrauen eine wichtige Voraussetzung. Derzeitige Lösungen für Vertrauen zwischen Webkomponenten sind begrenzt, da sie in der Regel über kryptografische Mechanismen in Gegenwart vertrauenswürdiger Dritter hergestellt werden. Um der dynamischen und fließenden Natur von Web-Service-Umgebungen gerecht zu werden, wird ein Rahmen für die Vertrauensbewertung und -berechnung vorgestellt. Der Vertrauensrahmen ist durch Information und Argumentation gekennzeichnet. Es verfügt über Mechanismen, die es Web-Service-Entitäten ermöglichen, Vertrauen autonom zu verwalten, indem eine Vertrauensebene und Vertrauenstypen mithilfe einer regelbasierten Fuzzy-Kognitiven Karte aktiviert werden.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-33406-8_7 22d370523100ca86cebe724264b23434;de;;;7.3.;;;Visualisierung des sicheren Hash-Algorithmus (SHA-1) im Web Kryptografische Hashfunktionen spielen in der modernen Kryptografie eine wichtige Rolle. In diesem Beitrag präsentieren wir webbasierte interaktive Visualisierungs-Applets zum Lehren des sicheren Hash-Algorithmus (SHA-1). Die Visualisierungs-Applets führen zu effizienteren Lernergebnissen. Die Visualisierungs-Applets von SHA-1 enthalten eine Beschreibung von SHA-1, Animationen und Steuerelemente für die Aktivierung mit SHA-1. Das Hauptziel dieser Visualisierung ist es, die Essenz von SHA-1 zu verstehen und die Stärken und Schwächen von SHA-1 herauszufinden. Die Applets wurden in unserem Fachbereich für die Lehrveranstaltung „Kryptographie“ für Masterstudierende eingesetzt. Die meisten Studenten waren sich einig, dass die Applets hilfreich sind, um SHA-1 und einige seiner Schwachstellen zu verstehen. Die Applets können auf SHA-2 und andere Hash-Funktionen verallgemeinert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23620-4_14 fc1ff452c681f889eb773d939de38057;de;;;7.3.;;;Eindringungstoleranz von Stealth-DoS-Angriffen auf Webdienste Dieser Artikel konzentriert sich auf eine der schädlichsten Kategorien von Denial-of-Service-Angriffen, die in der Literatur allgemein als „Stealth“-Angriffe bekannt sind. Sie werden durchgeführt, um das Senden großer Datenmengen zu vermeiden, indem ein Paketfluss mit niedriger Rate in das Netzwerk eingespeist wird, um ratenkontrollierende Erkennungsmechanismen zu umgehen. Diese Arbeit stellt eine Intrusion Tolerance-Lösung vor, die darauf abzielt, ein minimales Serviceniveau bereitzustellen, selbst wenn das System durch solche Angriffe teilweise kompromittiert wurde. Es beschreibt alle Schutzphasen, von der Überwachung über die Diagnose bis zur Wiederherstellung. Vorläufige experimentelle Ergebnisse zeigen, dass der vorgeschlagene Ansatz zu einer besseren Leistung von Intrusion-Prevention-Systemen in Bezug auf die Reduzierung der Dienstunverfügbarkeit bei Stealth-Angriffen führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30436-1_52 2c12f05a96d7ae701263dbfd8967d256;de;;;7.3.;;;Beim Internet der Dinge geht es kaum um Technologie Die meisten Definitionen des Internets der Dinge (IoT) nehmen eine technologische Perspektive ein und beziehen sich auf verbundene Geräte, die Daten untereinander und mit höheren Ebenen austauschen und autonom arbeitende Systeme aufbauen. Aus geschäftlicher Sicht kann das IoT als Geschäftstransformation betrachtet werden, die die Kommodifizierung vorantreibt oder sogar konventionelle Unternehmen bedroht, Möglichkeiten für Produkt- und Prozessverbesserungen bietet und Perspektiven für das Dienstleistungsgeschäft oder völlig neue Geschäfte auf der Grundlage von durch das IoT gewonnenen Daten eröffnet. Während die Entwicklung des Internets der Dinge in vielen Aspekten den Eigenschaften von beispielsweise Halbleiter- und IT-Plattformen ähnelt, gibt es einige wesentliche Unterschiede, hauptsächlich in Umfang und Umfang, die den Kickstart eines erfolgreichen IoT komplexer machen. Dieses Whitepaper befasst sich mit Schlüsselelementen einer erfolgreichen IoT-Implementierung und auch mit Schlüsselrollen für IT-Experten im IoT.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-15651-0_5 0d89d05a18a2b91d6b665f52e3a52240;de;;;7.3.;;;Automatisiertes Mining relevanter N-Grams in Bezug auf vorherrschende Themen von Textdokumenten Der Artikel beschreibt eine Methode, die sich auf die automatische Analyse großer Sammlungen kurzer Internet-Textdokumente konzentriert, die frei in verschiedenen natürlichen Sprachen geschrieben und als spärliche Vektoren dargestellt werden, um aufzudecken, welche Mehrwortphrasen in Bezug auf eine gegebene grundlegende Kategorisierung relevant sind. Darüber hinaus dienen die enthüllten Phrasen dazu, weitere unterschiedliche vorherrschende Themen zu entdecken, die durch die Grundkategorien nicht explizit ausgedrückt werden. Die Hauptidee besteht darin, nach N-Grammen zu suchen, wobei ein N-Gramm eine Kollokation von n aufeinanderfolgenden Wörtern ist. Dies führt zu dem Problem der relevanten Merkmalsauswahl, wobei ein Merkmal ein N-Gramm ist, das mehr Informationen liefert als ein einzelnes Wort. Die Merkmalsauswahl erfolgt durch Entropieminimierung, die einen Satz kombinierter relevanter n-Gramme zurückgibt und zum Erstellen von Regeln, Entscheidungsbäumen oder Informationsabruf verwendet werden kann. Die Ergebnisse werden für englische, deutsche, spanische und russische Kundenbewertungen von Hoteldienstleistungen gezeigt, die im Internet öffentlich zugänglich sind. Die informativste Ausgabe wurde von 3-Gramm gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24033-6_52 933e39d18447a50bde55aa1f13e94cb5;de;;;7.3.;;;Sensornetzwerktopologien und Designüberlegungen Die Geräte unseres Lebens, vom Toaster bis zum Fitnessgerät, untereinander und mit dem Internet zu verbinden, ist das Grundprinzip des Internet of Things (IoT). Um diese Konnektivität zu ermöglichen, ist zumindest eine direkte Verbindung zum Internet erforderlich, aber oft werden Daten auf einer lokalen Netzwerkstufe weitergeleitet und verarbeitet, bevor sie an das Internet weitergeleitet werden. Einige Sensornetzwerke sind überhaupt nicht mit dem Internet verbunden und ihre Daten werden einfach aggregiert und an einem lokalen Aggregationspunkt wie einem Smartphone oder PC angezeigt. Die Topologie des Sensornetzwerks hängt weitgehend von der Gesamtsystemanwendung ab: Ein Personal Area Network kann einfach Daten von allen Sensoren zu einem einzigen zentralen Aggregator (Sterntopologie) streamen, während ein Heimüberwachungsnetzwerk eine selbstheilende Mesh-Topologie verwenden kann. In diesem Kapitel werden die verschiedenen Sensortopologien und die Anwendungen, für die sie sich am besten eignen, behandelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-6014-1_4 33f85d929b4a8d60bbd99e12e8adc38a;de;;;7.3.;;;Privaterhaltende Analyse des Netzwerkverkehrs Die Netzwerkverkehrsanalyse hat wichtige Anwendungen in vielen Bereichen, wie etwa der Qualität der Dienstbereitstellung, der Netzwerküberwachung, der Netzwerkoptimierung und so weiter. Wir können die regionale Netzwerksituation ermitteln, indem wir die Daten aller Parteien analysieren. Die Zusammenarbeit zwischen mehreren Parteien wird jedoch durch Datenschutz- und Regulierungsfragen zusätzlich beeinträchtigt. In dieser Arbeit wenden wir sichere Mehrparteien-Berechnungsmethoden an, um die Verkehrsdaten von mehr als drei Parteien zu analysieren, ohne die Geheimnisse selbst preiszugeben. Wir präsentieren eine Clustering-Methode basierend auf dem IP-Netzwerkpräfix und wenden sie auf den Verkehr an. Durch die Ergebnisse des Clusterings können wir Subnetze mit dem größten Datenverkehr im Netzwerk erhalten und relevante Netzwerkeinstellungen für diese Subnetze vornehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-7123-3_5 7847099ee4bd56053aa06f1ba3143e21;de;;;7.3.;;;M2HAV: Ein standardisiertes ICN-Namensschema für drahtlose Geräte im Internet der Dinge Das Konzept des Internets der Dinge hat in den letzten Jahren die Konnektivität fast jedes elektronischen Geräts über ein drahtloses Medium mit dem Internet ermöglicht. Dies hat zu einem massiven Anstieg der Anzahl heterogener drahtloser Geräte mit vielen neuen Herausforderungen in Bezug auf die Benennung von Inhalten und Diensten geführt. Die traditionellen IP-basierten Architekturen bewegen sich nun in Richtung informations-/inhaltszentrierter Netzwerke. In diesem Papier schlagen wir ein mehrschichtiges, hierarchisches Attribut-Wert-Namensschema mit mehreren Komponenten für drahtlose Geräte vor. Es kombiniert selbstzertifizierende Namen, um ein standardisiertes Namensschema zu erreichen, das skalierbar, effizient, routingfähig und durch Design sicher ist. Wir verwenden die Codierungsmethode mit variabler Länge, um hierarchische Ortsnamen mit Präfixbeschriftung darzustellen. Es ist sehr ausdrucksstark und anpassbar, indem eine Baumdarstellung verwendet wird, wobei jede Ebene eine semantische Funktionalität darstellt. Die qualitative und quantitative Analyse zeigt, dass das vorgeschlagene Schema von Natur aus besser ist als viele der verfügbaren informationszentrierten Netzwerkarchitekturen und in der Lage ist, den Speicher- und Zeitverbrauch für Namenssuche und Routingzwecke zu reduzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-60033-8_26 2dd75ac7ad30900bbc1e6e891ba31564;de;;;7.3.;;;Nutzenbasierte O2O-Commerce-Segmentierung: ein Mittel-Ende-Kettenansatz Wir haben die Marktsegmente der Online-to-Offline (O2O)-Commerce-Konsumenten und die konsumrelevanten kognitiven Strukturen untersucht. Die Laddering-Interview-Technik wurde verwendet, um Daten von 51 O2O-Konsumenten in Bezug auf die Vorteile zu sammeln, die sie von O2O-Plattformen erwarteten. Basierend auf den gesuchten Vorteilen wurden drei Gruppen von O2O-Verbrauchersegmenten identifiziert, nämlich retourensensitive Käufer, risikobewusste Käufer und rationale Käufer, und ein entsprechendes hierarchisches kognitives Strukturmodell für jede Untergruppe von Verbrauchern wurde entwickelt, das die erforderlichen Attribute verknüpft um die Vorteile und Werte zu erfüllen, um die Vorteile zu verstärken. Es wurde festgestellt, dass sich die drei O2O-Verbraucher der Untergruppe in Bezug auf die angestrebten Hauptvorteile und die erforderlichen Attribute, um den gleichen angestrebten Nutzen zu erzielen, signifikant unterscheiden. Darüber hinaus hat die nutzenbasierte Segmentierung Vorteile gegenüber der in der bisherigen Forschung verwendeten itembasierten Segmentierungsmethode gezeigt. Diese Studie leistet einen wesentlichen Beitrag zum O2O-Geschäft in Bezug auf das Kaufverhalten der Verbraucher und die Segmentierungsmethodik.;-;-;-;https://link.springer.com/article/10.1007/s10660-017-9286-3 416dc411f3ad9819a34fb9f6ba61590f;de;;;7.3.;;;Visualisierung der Internet-Evolution auf der Ebene autonomer Systeme Wir schlagen einen Visualisierungsansatz für große dynamische Graphenstrukturen mit hoher Variation und geringem Durchmesser vor. Insbesondere reduzieren wir die visuelle Komplexität durch mehrere Darstellungsmodi in einer einstufigen Visualisierung anstelle von Abstraktionen niedrigerer Detailebenen. Dies ist nützlich für die nicht interaktive Anzeige und erleichtert das dynamische Layout, das wir im Online-Szenario behandeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77537-9_36 745f160b79d375f4cc2c47f88ade059b;de;;;7.3.;;;Globalisierung, Nationalstaaten und Global Governance In diesem Kapitel fassen wir die allgemeine Ausrichtung des Buches zusammen und präsentieren die Prämissen, auf denen unsere in den folgenden Kapiteln entwickelten Argumente basieren. Dabei versuchen wir, unsere politischen Vorlieben zu übersehen, die unsere Analyse oder unsere Zitate beeinflussen können, damit wir eine unparteiische und ausgewogene Perspektive des aktuellen Zustands der Welt präsentieren können.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-1551-0_2 7f53b9fdc5c8a03f95c8e4b3c25348e4;de;;;7.3.;;;Verbesserung der Relevanz der Schlüsselwortextraktion aus dem Web unter Verwendung von visuellen Stilinformationen Das Informationswachstum ist schneller als je zuvor. Wir müssen erweiterte Dienste bereitstellen, die den „Verbrauch“ von Informationen erleichtern (z. B. Empfehlung, personalisierte Navigation). Für solche Dienste ist zumindest eine leichtgewichtige Semantik erforderlich. Heutzutage ist das Keyword-Paradigma weit verbreitet und scheint in Bereichen wie Social Bookmarking oder Ontology Learning zufriedenstellende Ergebnisse zu erzielen. In diesem Artikel untersuchen wir den Einfluss des visuellen Stils von Websites auf die Extraktion relevanter Schlüsselwörter. Wir schlagen eine Methode zur Extraktion relevanter Schlüsselwörter aus Webseiten vor, die traditionelle automatische Begriffserkennungsalgorithmen mit der visuellen Stilverarbeitung der Website kombiniert. Wir konzentrieren uns insbesondere auf Kaskaden-Stylesheets. Die Auswertung von 200 „wilden“ Webdokumenten von 12 verschiedenen Websites hat gezeigt, dass unsere Methode die Relevanz der extrahierten Keywords erhöht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35843-2_38 e4984ede6e8cbba63d7da68aa4149afa;de;;;7.3.;;;Ontologien in Web Intelligence Ontologien und Agententechnologie können eine entscheidende Rolle dabei spielen, webbasierte Wissensverarbeitung, gemeinsame Nutzung und Wiederverwendung zwischen Anwendungen zu ermöglichen. In diesem Kapitel werden die Rollen von Ontologien in Web Intelligence untersucht. Es werden drei Ontologie-Kategorien vorgeschlagen, ein Teil der Forschung und Entwicklung in Bezug auf die drei Kategorien vorgestellt, die wichtigsten Ontologiesprachen untersucht und ein mehrphasiger Prozess der automatischen Konstruktion;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-1786-7_4 811e66b8a8d4eaaeca61aa6dcbdf606b;de;;;7.3.;;;Web-Betriebsanalyse durch leistungsbezogene Ontologien in OWL für intelligente Anwendungen Web-Performance-Engineering-Techniken basieren klassischerweise auf der erweiterten Beschreibung des Modells bezüglich Performance-Annotationen. Diese Anmerkungen beziehen sich jedoch nur auf die syntaktische Sicht des Systems. Die nächste Generation von Leistungsbewertungstools für intelligente Systeme wäre in der Lage, Wissen und sogar Argumente über die Leistung zu erwerben, während die Systeme funktionieren. Die Verwendung von Ontologien mit leistungsbezogenen Informationen kann verwendet werden, um Online-Leistungsbroker aufzubauen, die die Leistung des Systems während seiner Ausführung bewerten. Wir präsentieren die Web-Operational-Analyse als Beispiel für ihre zukünftige Nutzung durch ein Framework zum Aufbau intelligenter Anwendungen auf Basis des Semantic Web.;-;-;-;https://link.springer.com/chapter/10.1007/11531371_83 e3ea4ec1192ab88d3bead30882710fd2;de;;;7.3.;;;Webbasierter Diagnose-Bildgebungsdienst mit XML-Formularen Traditionell wurde die Radiologie als eine unterstützende Abteilung konzipiert, die den anderen klinischen Abteilungen in einem Krankenhaus Patientenscandienste zur Verfügung stellt. Jüngste Fortschritte in der Netzwerktechnologie und verwandten Informationssystemen wie Bildarchivierungs- und Kommunikationssystemen (PACS) und Radiologie-Informationssystemen (RIS) bieten jedoch neue Möglichkeiten für die Erfindung verschiedener Arten von diagnostischen Bildgebungsgeschäften wie Teleradiologie. In diesem Artikel haben wir die Geschäftsprozesse der derzeit betriebenen Bildgebungszentren untersucht und einen Prototyp eines Informationssystems vorgeschlagen, das deren Arbeitsabläufe effizienter gestalten kann. Die Hauptkomponente unseres vorgeschlagenen Systems ist ein Berichtsverwaltungsmodul, das auf Extensible Markup Language (XML)-Technologien basiert und sowohl bildgebenden Technikern als auch Radiologen viel Flexibilität und Komfort bietet.;-;-;-;https://link.springer.com/article/10.1007/s10278-006-0928-6 444003775457404a2bcb6bf2986bd975;de;;;7.3.;;;ROsWeL Workflow Language: Ein deklarativer, ressourcenorientierter Ansatz Gut definierte Geschäftsprozesse sind ein entscheidender Erfolgsfaktor für den Einsatz von SOA/SOKU-Architekturen. In diesem Papier wird die deklarative Geschäftsprozessbeschreibungssprache ROsWeL diskutiert, die ROA-kompatible Anwendungen unterstützt. ROsWeL bietet eine deklarative, zuverlässige und halbautomatische Zusammenstellung von RESTful Webservices, angereichert um die Wissensrepräsentation. Das Papier diskutiert die Vorteile von ROsWeL und präsentiert ein Beispiel für einen einfachen Workow, der wesentliche ROsWeL-Funktionen erfasst.;-;-;-;https://link.springer.com/article/10.1007/s00354-012-0203-y 141974136c1b1deaee16a562a8173fd6;de;;;7.3.;;;Eine Umfrage: Algorithmen, die die Intelligenz von Bienenschwärmen simulieren Schwarmintelligenz ist ein aufstrebendes Gebiet im Bereich der Optimierung und Forscher haben verschiedene Algorithmen entwickelt, indem sie das Verhalten verschiedener Tier- und Insektenschwärme wie Ameisen, Termiten, Bienen, Vögel und Fische modelliert haben. In den 1990er Jahren wurden Ameisenkolonie-Optimierung basierend auf Ameisenschwärmen und Partikelschwarm-Optimierung basierend auf Vogelschwärmen und Fischschwärmen eingeführt und innerhalb von zwei Jahrzehnten zur Lösung von Optimierungsproblemen in verschiedenen Bereichen angewendet. Das intelligente Verhalten des Bienenschwarms hat die Forscher jedoch insbesondere im letzten Jahrzehnt zu neuen Algorithmen inspiriert. Diese Arbeit gibt einen Überblick über die beschriebenen Algorithmen basierend auf der Intelligenz in Bienenschwärmen und deren Anwendungen.;-;-;-;https://link.springer.com/article/10.1007/s10462-009-9127-4 08914fd7ca7d297ffd594c09ab9941a9;de;;;7.3.;;;Eine Proxy-basierte Infrastruktur für die gemeinsame Nutzung von Webanwendungen und die Remote-Zusammenarbeit auf Webseiten Wenn Menschen remote zusammenarbeiten, ist das WWW Teil der gemeinsam genutzten Ressourcen, die sie gemeinsam nutzen. Webseiten bieten jedoch keine Unterstützung für kollaborative Interaktionen wie das Anzeigen oder Beeinflussen der Browsersitzung eines anderen Benutzers – für diese Funktionen muss zusätzliche Software installiert werden. In diesem Whitepaper stellen wir UsaProxy 2 vor, einen HTTP-Proxy, mit dem dieselbe Webseite oder Anwendung gleichzeitig in zwei Browsern angezeigt und verwendet werden kann, ohne dass eine clientseitige Softwareinstallation erforderlich ist. Dies umfasst eine Visualisierung des Mauszeigers des Remote-Benutzers, Scrollen, Tastatureingaben, Verfolgen von Links zu anderen Seiten und mehr. Unser Open-Source-Proxy modifiziert HTML-Seiten, bevor er sie an die Browser ausliefert. Der hinzugefügte JavaScript-Code bietet Sitzungsüberwachung und gemeinsame Browsing-Funktionen. Wir haben eine experimentelle Evaluierung durchgeführt, die zeigt, dass unser Ansatz für verschiedene Szenarien funktioniert, wie zum Beispiel beim Online-Shopping und beim Austausch von Kaufideen. Die Nutzerstudie hat gezeigt, dass unser Ansatz von den Nutzern akzeptiert und gemocht wird. In Kombination mit Audio- oder Text-Chat-Kommunikation bietet es ein sehr nützliches Werkzeug für die informelle Ad-hoc-Zusammenarbeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74796-3_9 144b0df35884f614d4af8f4f64b142ab;de;;;7.3.;;;Eine forensische Methode zur Analyse von Nintendo 3DS-Geräten Handheld-Videospielkonsolen haben sich im Laufe der Jahre ähnlich wie ihre Desktop-Pendants weiterentwickelt. Die neueste achte Generation von Spielekonsolen definiert sich heute nicht mehr durch ihre Fähigkeit, online über einen Webbrowser zu interagieren, sondern durch die Social-Media-Möglichkeiten, die sie jetzt bieten. Dieses Kapitel beschreibt eine forensische Methode zur Analyse von Nintendo 3DS-Handheld-Videospielkonsolen, demonstriert ihr Missbrauchspotenzial und zeigt Bereiche auf, in denen sich Beweise befinden könnten. Empirische Forschung hat zur Formulierung einer detaillierten Methodik geführt, die forensische Prüfer dabei unterstützen kann, die Beweisaufnahme zu maximieren und gleichzeitig die Zerstörung von Informationen zu minimieren, wenn nicht sogar zu verhindern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-46279-0_7 610c8aec573c7d5fa89253e7d6e8cf4d;de;;;7.3.;;;Die Online-Tracking-Horde: Ein Blick aus passiven Messungen Während des Besuchs einer Website kann der durchschnittliche Internetnutzer mit Skripten konfrontiert werden, die persönliche Informationen auf sogenannte Online-Tracker hochladen, unsichtbare Dienste Dritter, die Informationen über Benutzer sammeln und sie profilieren. Dies ist keine Neuigkeit, und viele Arbeiten in der Vergangenheit versuchten, die Ausdehnung dieses Phänomens zu messen. Alle führten aktive Messkampagnen über Crawler durch. In diesem Beitrag betrachten wir das Phänomen aus einem passiven Blickwinkel, um die Vielfalt des Internets und seiner Nutzer selbstverständlich zu berücksichtigen. Wir analysieren einen großen Datensatz passiv gesammelter Verkehrszusammenfassungen, um zu beobachten, wie weit verbreitet Online-Tracking ist. Wir sehen mehr als 400 Tracking-Dienste, die von unwissenden Benutzern kontaktiert werden, von denen die Top 100 regelmäßig von mehr als 50 % der Internauten erreicht werden, wobei die Top 3 praktisch unmöglich zu umgehen sind. Schlimmer noch, mehr als 80 % der Benutzer kontaktieren den ersten Tracker innerhalb von 1 Sekunde nach dem Start der Navigation. Und wir sehen viele Websites, die Hunderte von Tracking-Diensten hosten. Umgekehrt werden diese beliebten Weberweiterungen, die den persönlichen Schutz verbessern können, z. B. DoNotTrackMe, tatsächlich von einer Handvoll Benutzern (3,5 %) installiert. Das resultierende Bild zeigt, wie weit verbreitet das Phänomen ist und fordert eine Sensibilisierung von Menschen, Forschern und Regulierungsbehörden für die Privatsphäre im Internet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-17172-2_8 b504685c9f04af94cdf756d087744128;de;;;7.3.;;;Die Anwendung der .NET-Technologie in Remote-Testsystemen im Internet Remote-Online-Testsysteme werden zu einem der Hauptbereiche beim Design von Lernsoftware. Dieses Papier schlägt die B / S-Struktur des Fernprüfungssystems Forschung, Design und Entwicklung vor, zunächst die Systementwicklungsplattform und die Werkzeuge für eine sorgfältige Auswahl und dann zur Erreichung der Systemziele und -funktionen des Systems Entwicklungsstand, Trends und Anforderungen für eine genauere Analyse. Anschließend erfolgt die Analyse auf Basis der Systemdatenbank und jedes Modul, das in Verbindung mit dem System entwickelt wurde, durch die Implementierung spezifischer Module.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29387-0_10 0ba35ae767d18d08074132ca29548c41;de;;;7.3.;;;ALEF: Ein Framework für adaptives webbasiertes Lernen 2.0 Moderne Lernmanagementsysteme bieten ihren Stakeholdern viele Funktionen, die aus dem Web 2.0-Paradigma stammen, ignorieren jedoch oft die Notwendigkeit der Personalisierung und Anpassung während des Lernens. Darüber hinaus sind Lernaktivitäten oft fragmentiert – ein Schüler muss sich entscheiden, ob er Fragen beantworten oder erklärende Materialien lesen möchte. Darüber hinaus bieten die meisten aktuellen Lösungen keine wirklich interaktive Umgebung, in der Schüler an der Erstellung und Pflege von Inhalten teilnehmen dürfen. In diesem Papier gehen wir diese Probleme an, indem wir einen Rahmen für adaptives webbasiertes Lernen 2.0 vorschlagen und entwickeln. Wir beschreiben grundlegende Anforderungen an ein solches Framework und geben einen Überblick über alle wichtigen zugrundeliegenden Modelle und Funktionen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15378-5_36 71c1ce9dcff1a846e513d25189152524;de;;;7.3.;;;Einsatz der linguistischen Analyse der Suchanfrage zur Verbesserung der Qualität der Informationssuche Der Beitrag beschreibt den Prozess der Forschung und Entwicklung von Methoden zur linguistischen Analyse von Suchanfragen. Die sprachliche Analyse von Suchanfragen wird verwendet, um die Qualität der Informationsbeschaffung zu verbessern. Nach syntaktischer Analyse der ursprünglichen Suchanfrage wurde diese in eine Suchanfrage in einem neuen Format übersetzt. Unter Berücksichtigung der Merkmale der Abfragesprache für die Informationssuche ermöglichen eine Verbesserung der Qualität der Informationssuche. Außerdem beschreibt das Papier die Ergebnisse von Experimenten, die die Korrektheit der Methode bestätigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-12072-6_19 32d61fa3d858cfd472c52409985c2d92;de;;;7.3.;;;Datenschutz bei standortbasierten Diensten: Eine Umfrage Standortbewusstsein hat effiziente und genaue geolokalisierte Internetdienste ermöglicht. Mobile Apps, die diese Dienste nutzen, haben unsere Art der Navigation und der Suche nach Ressourcen im geografischen Raum verändert. Dieses Kapitel enthält eine Klassifizierung von standortbasierten Diensten (LBS) und veranschaulicht die Datenschutzaspekte, die bei der Freigabe unserer Standortinformationen als Teil einer Dienstanfrage erforderlich sind. Es enthält eine Erörterung der rechtlichen Verpflichtungen des LBS-Anbieters und Möglichkeiten zur Angabe persönlicher Datenschutzeinstellungen für den Standort. Das Kapitel bietet auch einen systematischen Überblick über die wichtigsten Ansätze, die zum Schutz der Privatsphäre der Nutzer bei der Nutzung dieser Dienste vorgeschlagen wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98161-1_4 fc920ee4d12aedbab6f9c7f7d09df5f2;de;;;7.3.;;;ASAP: Ein automatisiertes System für die wissenschaftliche Literatursuche in PubMed mit Web-Agenten In diesem Beitrag stellen wir ASAP - Automated Search with Agents in PubMed vor, einen webbasierten Dienst zur Verwaltung und Automatisierung der wissenschaftlichen Literatursuche in der PubMed-Datenbank. Das System ermöglicht die Erstellung und Verwaltung von Webagenten, die thematisch und funktional spezifisch parametrisiert sind und die PubMed-Datenbank automatisch und periodisch durchsuchen, um relevante Ergebnisse gemäß den Anforderungen des Benutzers zu suchen und abzurufen. Die Ergebnisse, die die abgerufene Veröffentlichungsliste enthalten, werden dem Agentenbesitzer wöchentlich während des für den Webagenten programmierten Aktivitätszeitraums per E-Mail zugesandt. Der ASAP-Service soll Forschern, insbesondere aus dem Bereich der Biomedizin und Bioinformatik, helfen, ihre Produktivität zu steigern, und ist abrufbar unter: http://esa.ipb.pt/~agentes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28839-5_8 fdb6eea03e788ad5abba626e32583911;de;;;7.3.;;;Timeline-Lokalisierung Die Forschungsergebnisse belegen, dass zeitorientierte Datenvisualisierungen zu einer schnelleren Informationsverarbeitung, einem besseren Verständnis und einer besseren Erinnerung beitragen können. Daher werden sie in vielen Anwendungsbereichen eingesetzt – Medizin, Strafverfolgung, Verkehrs- und Navigationskontrolle, um nur einige zu nennen. Gleichzeitig variiert die Zeitwahrnehmung des Menschen je nach;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07233-3_56 81c2ef9e7021f2d54384f688479dc598;de;;;7.3.;;;Virtuelles Informationszentrum für menschliche Interaktion Der Beitrag beschreibt Hintergrund, Ziel und Realisierung eines virtuellen Informationszentrums im Bereich Computerlinguistik. Das Internet bietet eine riesige Menge heterogener Datenquellen. Der Mensch kann per Mausklick auf alle Informationen im Internet zugreifen. Unser virtuelles Informationszentrum wurde eingerichtet, um eine integrierte Sicht auf die Computerlinguistik zu ermöglichen. Es besteht aus drei Arten von Daten: Wissen und Informationen, Produkte und Ressourcen, Forschungsgruppen und Experten. Die Hauptfunktionen für die menschliche Interaktion sind virtuelles Informationsmanagement, verteilter Zugriff, entitätsbasierte Informationsabfrage und automatische Hyperlinks.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-4043-1_9 e4fc54e4686374a4b3fdab847bf6c8ba;de;;;7.3.;;;Anpassung von Modellen für den Fall der Risikofrüherkennung im Internet Internetnutzer, die an verschiedenen Arten von psychischen Störungen leiden, finden auf Social-Media-Plattformen und anderen Online-Communities eine einfachere Möglichkeit, ihre Meinung zu offenbaren. Die von diesen Benutzern erstellten Textinhalte erwiesen sich als mangelhaft bei der Bewertung der psychischen Gesundheit und der Erkennung verwandter Krankheiten bereits in frühen Stadien. Dieser Artikel gibt einen Überblick über meine jüngste Doktorarbeit zu eRisk 2019 Shared Task zur Früherkennung von Anorexie und Früherkennung von Selbstverletzung. Diese Unteraufgaben müssen viele Aspekte berücksichtigen, einschließlich Textinhalt, Timing und Ähnlichkeiten mit anderen Aufgaben zur Vorhersage der psychischen Gesundheit. Basierend auf diesen unterschiedlichen Dimensionen schlagen wir daher Lösungen vor, die auf neuronalen Netzwerken, Multitask-Lernen, Domänenanpassung und Markov-Modellen basieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-15719-7_48 ef405b50da6e21a76a5c577a1286af9a;de;;;7.3.;;;Personalisierte Empfehlungen für das Web 3D Wir stellen das Second Life Location Recommender System (SLLoRS) vor. Mit diesem System können Benutzer Standorte innerhalb der 3D-Umgebung Second Life bewerten und markieren, um auf kollaborativer Basis personalisierte Empfehlungen zu geben. Wir demonstrieren das System als In-World-Anwendung und untersuchen einige der allgemeinen Herausforderungen bei der Anwendung von Empfehlungssystemen auf 3D-Online-Umgebungen, wie die Implementierung datenintensiver Anwendungen mit begrenzten Rechenressourcen und die Segmentierung von Empfehlungen in einem kontinuierlichen Eingaberaum.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-70987-9_57 bdba788f1a34255f7e43c612bd21b810;de;;;7.3.;;;Analyse des Freigabeverhaltens von Publikationen in BibSonomy BibSonomy ist ein webbasiertes System zum Teilen sozialer Ressourcen, das es Benutzern ermöglicht, Lesezeichen und Veröffentlichungen kollaborativ zu organisieren und zu teilen. In diesem Beitrag stellen wir das System vor, gefolgt von einer Beschreibung der Einblicke in die Struktur seiner bibliographischen Daten, die wir durch die Anwendung von Techniken gewonnen haben, die wir im Bereich der formalen Konzeptanalyse entwickelt haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73681-3_21 50198a1298d416a66990c8a16cf647d4;de;;;7.3.;;;DVQ: Hin zu einer visuellen Abfrageverarbeitung von XML-Datenbanksystemen XML wurde als vielversprechende Sprache für den Datenaustausch über das Internet erkannt. Für die Abfrage von XML-Daten wurden eine Reihe von Abfragesprachen vorgeschlagen. Die meisten dieser Sprachen basieren auf Pfadausdrücken. Eine Schwierigkeit bei der Bildung von auf Pfadausdrücken basierenden Abfragen besteht darin, dass Benutzer die Struktur der XML-Daten kennen müssen, für die die Abfragen ausgegeben wurden. In diesem Papier beschreiben wir eine DTD-gesteuerte visuelle Abfrageschnittstelle für XML-Datenbanksysteme. Mit einer solchen Schnittstelle kann ein Benutzer leicht auf Pfadausdrücken basierende Abfragen bilden, indem er Elemente in der auf dem Bildschirm angezeigten DTD-Struktur anklickt und erforderlichenfalls Bedingungen liefert. Die Schnittstelle und der Prozess der Abfragegenerierung werden detailliert beschrieben.;-;-;-;https://link.springer.com/article/10.1023/A%3A1023626806508 4585cb7ce0e69f5b860a9145054bd26c;de;;;7.3.;;;Datenschutz in Kenia In diesem Kapitel wird das Datenschutzsystem Kenias erörtert. Da Kenia jedoch noch kein spezifisches Datenschutzgesetz verabschiedet hat, wird in diesem Kapitel ein besonderer Fokus auf den Datenschutzreformprozess gelegt. Eine Bewertung des Datenschutzgesetzes 2013 steht im Mittelpunkt dieses Kapitels. Eine Diskussion in diesem Kapitel wird sich auch auf die aktuelle Rechtsprechung konzentrieren, die von kenianischen Gerichten auf der Grundlage des in den kenianischen Verfassungen (alten und neuen) gewährten Datenschutzes entschieden wurde. Inwieweit ist diese Rechtsprechung angemessen und relevant für den Datenschutz in Kenia? Dies ist eine der Hauptfragen, die dieses Kapitel zu diskutieren versucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-47317-8_15 eeeaf8d413a82b16b90aed050669c058;de;;;7.3.;;;Verwenden eines Smartphones für den Zugriff auf personalisierte Webdienste auf einer Workstation In diesem Whitepaper wird eine datenschutzfreundliche mobile Authentifizierungslösung vorgestellt. Es adressiert mehrere Unzulänglichkeiten herkömmlicher Methoden, wie beispielsweise Passwörter und Smartcard-Lösungen. Es erfüllt auch die Bedürfnisse eines zunehmend mobilen Benutzers. Das Vertrauen in den Client-Computer ist minimal und die Authentifizierung wird vollständig an das Smartphone delegiert, wodurch es auf verschiedene Workstations portierbar ist. Unser Ansatz beinhaltet die Authentifizierung über sicher gespeicherte Zugangsdaten auf dem Smartphone. Die Client-Workstation muss nicht geändert werden, während nur geringfügige Änderungen am Webserver erforderlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31668-5_11 74b074bd0b4602c009e276497219d507;de;;;7.3.;;;PDR Laos: Langsam beschleunigen? Ungeachtet dessen zeigen mehr als ein Jahrzehnt konzertierter Bemühungen zur Liberalisierung der Wirtschaft und zur Anziehung von Investitionen in die produktiven Sektoren der Wirtschaft und die daraus resultierende jährliche Wachstumsrate von über 5 Prozent der DVR Laos selbst heute Symptome einer unterentwickelten Wirtschaft. Über 80 Prozent der Bevölkerung leben in ländlichen Gebieten, abhängig von der Landwirtschaft und verwandten Tätigkeiten. Sie tragen jedoch nur etwa 50 Prozent des BIP bei, was auf ein niedriges Produktivitätsniveau im Primärsektor hindeutet. Der Industriesektor, der rund 23 Prozent zum BIP beiträgt, umfasst im Wesentlichen die Primärverarbeitung und ist durch eine hohe regionale Konzentration gekennzeichnet. 2001 machten die Gemeinde Vientiane und die Provinz Vientiane zusammen 55 Prozent der großen, 41 Prozent der mittleren und 19 Prozent der kleinen Industriebetriebe aus;-;-;-;https://link.springer.com/chapter/10.1057/9780230626331_5 2038c8cac3d31cf06ac3ecba20181531;de;;;7.3.;;;Über verschiedene Kategorien von Cyberkriminalität in China Cyberkriminalität ist nicht nur in China, sondern auch in anderen Ländern der Welt zu einem auffälligen sozialen Problem geworden. Cyberkriminalität kann in zwei Kategorien unterteilt werden und verschiedene Arten von Cyberkriminalität werden unterschiedlich behandelt. In diesem Artikel werden einige typische Cyberkriminalität detailliert vorgestellt, um die Merkmale dieser Cyberkriminalität darzustellen. Um Cyberkriminalität zu bekämpfen, sollen jedoch gemeinsame Anstrengungen von Ländern auf der ganzen Welt unternommen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23602-0_26 cd6545752bbc80db68a26a8a2f460768;de;;;7.3.;;;Argumentqualität oder periphere Hinweise: Was macht einen Auktionsdeal bei eBay erfolgreich? In letzter Zeit gibt es in diesem Online-Geschäftsumfeld einen großartigen Fortschritt und Wachstum der Online-Auktion, stellvertretend für eBay. Der Grund für diesen Fortschritt ist eine Art Verbrauchererfahrung, dass die Aufregung, ein Produkt zu gewinnen, glücklicher ist, als es einfach zu kaufen. In Bezug auf diese Situationen gibt es viele Geschäftsmodelle für Online-Auktionsverfahren. Diese Studien basierten nicht auf tatsächlichen Daten und konzentrierten sich meist auf Einzelfälle und spezifische Faktoren wie den Startpreis einer Transaktion, die Bieternummer, das Bieter- und Verkäuferverhalten im Auktionsmarkt und die Online-Auktionsstrategie. Dieser fragmentierte Ansatz machte es schwierig, das Gesamtbild von Online-Auktionen zu verstehen. Auch gibt es keine Studie, die sich mit Online-Auktionen aus der Sicht der Kommunikation zwischen Bietern und Bietern befasst, bei der informationelle Einflussnahme eine wichtige Rolle spielt. Um diese Lücke zu schließen, verfolgt diese Studie eine ganzheitliche Betrachtung, indem sie den Online-Auktionsprozess als integrierten Überzeugungsprozess definiert. Wir werden die Argumentqualität und periphere Hinweise untersuchen, die ein Auktionsgeschäft in eBay erfolgreich machen, und wir haben die verkauften Daten aus dem Web-Crawling in eBay erhalten, um zu analysieren, welche Faktoren ein Auktionsgeschäft in eBay erfolgreich machen. Infolgedessen ist der Auktionserfolg stark von den Auswirkungen der zentralen Route als der peripheren Route betroffen. Unsere Ergebnisse liefern zusätzliche Einblicke in das Design von Internet-Auktionssystemen und bieten Erkenntnisse, die auf tatsächlichen Auktionsdaten basieren, die mit denen des Modellierungsansatzes verglichen werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19857-6_32 fac312b2404937bd6fc311f3a5cadb96;de;;;7.3.;;;Leistungsanalyse interaktiver Internetsysteme für eine Systemklasse mit dynamisch wechselnden Angeboten Dieser Beitrag stellt die Leistungsanalyse interaktiver Internetsysteme vor, bei denen die Zeitrate der Systemangebotsänderung mit der Interaktionszeit des Benutzers mit dem System vergleichbar ist. In diesem Papier wird eine solche Systemklasse als Interactive Internet Systems with Dynamically Changing Offers (IISDCO) bezeichnet. In IISDCO-Systemen kann eine Angebotsänderung zur Stornierung der begonnenen, aber unvollständigen Transaktionen führen. Die Notwendigkeit einer Stornierung kann sich aus dem Verkauf einer Menge von Ressourcen (verkaufte Ware) ergeben, die erschöpft ist oder deren Preis sich geändert hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28038-2_9 7cd924779174bc7d1a6df1ae502d5628;de;;;7.3.;;;Link Augmentation: Ein kontextbasierter Ansatz zur Unterstützung adaptiver Hypermedien In heutigen adaptiven Hypermedia-Systemen wird Adaptivität basierend auf kumulativen Daten bereitgestellt, die aus der Beobachtung des Benutzers gewonnen werden. Benutzermodellierung, das Erfassen von Informationen über den Benutzer wie sein Wissen, Aufgaben, Einstellungen, Interessen usw., ist nur ein kleiner Teil des globalen Kontexts, in dem der Benutzer arbeitet. An der Southampton University haben wir ein Modell für einen bestimmten Aspekt des Kontexts entwickelt, das auf unterschiedliche Weise auf das Problem der Verknüpfung im Kontext angewendet werden kann. In diesem Artikel wird beschrieben, wie dieses Kontextmodell verwendet wurde, um eine Linkerweiterung bereitzustellen. Link Augmentation ist eine bestehende offene Hypermedia-Technik, die eine direkte Anwendung in adaptiven Hypermedia-Systemen hat. Dieses Papier stellt eine Technik zur domänenübergreifenden adaptiven Navigationsunterstützung vor, indem die Link-Erweiterung mit einem Modell des räumlichen Kontexts des Benutzers kombiniert wird.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45844-1_23 80e6d60a2765f302ef007cabf25935df;de;;;7.3.;;;Middleware und Webdienste für das kollaborative Informationsportal der NASA-Mission Mars Exploration Rovers Wir beschreiben das Design und die Bereitstellung der Middleware für das Collaborative Information Portal (CIP), eine missionskritische J2EE-Anwendung, die für die NASA-Mission Mars Exploration Rover 2003 entwickelt wurde. CIP ermöglichte es dem Missionspersonal, auf Daten und Bilder zuzugreifen, die vom Mars zurückgesandt wurden, Mitarbeiter- und Ereignispläne, Sendenachrichten und Uhren, die verschiedene Zeitzonen der Erde und des Mars anzeigen. Wir haben die CIP-Middleware in weniger als zwei Jahren mit modernsten Technologien wie EJBs, Servlets, JDBC, JNDI und JMS entwickelt. Die Middleware wurde als Sammlung unabhängiger, im laufenden Betrieb einsetzbarer Webdienste konzipiert und implementiert, die einen sicheren Zugriff auf Back-End-Dateisysteme und Datenbanken bieten. Dieser serviceorientierte Ansatz zur Entwicklung eines integrierten Systems ist ein Beispiel für modernstes Middleware-Design. In der gesamten Middleware haben wir übergreifende Funktionen wie Laufzeitdienstkonfiguration, Sicherheit, Protokollierung und Fernüberwachung aktiviert. Dieses Papier stellt unseren Ansatz zur Minderung der Herausforderungen vor, mit denen wir konfrontiert waren, und schließt mit einem kurzen Rückblick auf die Lehren, die wir aus diesem Projekt gezogen haben, und stellt einige der Dinge fest, die wir anders machen würden und warum.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30229-2_1 1affdfbb3915b8905c50cc52b48570d3;de;;;7.3.;;;Peer-to-Peer-Dienste der nächsten Generation ermöglichen Peer-to-Peer (P2P)-Anwendungen haben das Potenzial, die Skalierbarkeit von Netzwerken zu verbessern und eine Gemeinschaft zu schaffen, in der Ressourcen in der gemeinsamen Verantwortung ihrer Mitglieder liegen. Derzeitige beliebte Lösungen zielen auf spezifische Anwendungen wie File-Sharing und VoIP (Voice-over-IP) ab, aber wichtige Herausforderungen verhindern eine breitere Akzeptanz der P2P-Technologie in anderen Diensten. Überwältigt von Interdomänenverkehr, der von P2P-Anwendungen erzeugt wird, die Overlays asymmetrisch zur Netzwerktopologie aufbauen, bieten ISPs auf Heimbenutzerebene nur Verbindungen mit asymmetrischer Bandbreite an. Diese Maßnahme verhindert effizient P2P-Anwendungen. Dieses Papier stellt ein neues Anreizmodell für Overlay-Anwendungen und ISPs vor, zusammenzuarbeiten und gleichzeitig eine Win-Win-Situation zu schaffen. Der Ansatz kombiniert zwei Prinzipien: (1) ISPs und P2P-Anwendungen kommunizieren, um die Überlagerungsasymmetrie zu korrigieren und (2) ISPs verringern die Bandbreitenasymmetrie, indem sie Benutzern zusätzliche Bandbreite bereitstellen, die für den Intradomänenverkehr reserviert ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-70587-1_21 75898bcbc54baeeefb4c176e429f9d42;de;;;7.3.;;;CarPal: Vernetzung von Overlay-Netzwerken für eine Community-getriebene Shared Mobility Carsharing und Fahrgemeinschaften haben sich als wirksame Lösung erwiesen, um die Anzahl der fahrenden Fahrzeuge zu reduzieren, indem die Anzahl der Fahrgäste pro Auto in mittleren/großen Gemeinden wie Schulen oder Unternehmen erhöht wird. Der Erfolg einer solchen Praxis hängt jedoch von der Fähigkeit der Gemeinschaft ab, Informationen über Reisende und Reiserouten effektiv auszutauschen und abzurufen. Strukturierte Overlay-Netzwerke wie Chord haben sich in letzter Zeit als flexible Lösung entwickelt, um große Datenmengen ohne den Einsatz von High-End-Servern dezentral zu handhaben. In diesem Papier stellen wir CarPal vor, einen Machbarkeitsnachweis für eine Mobility-Sharing-Anwendung, die eine verteilte Hash-Tabelle nutzt, um einer Gemeinschaft von Personen den spontanen Austausch von Reiseinformationen ohne die Kosten einer zentralisierten Struktur zu ermöglichen. Außerdem ermöglicht die Peer-to-Peer-Architektur den Einsatz auf tragbaren Geräten und eröffnet neue Szenarien, in denen Fahrten und Sharing-Anfragen in Echtzeit aktualisiert werden können. Durch die Verwendung eines bereits entwickelten Originalprotokolls, das es ermöglicht, verschiedene Overlays/Communities miteinander zu verbinden, kann die Erfolgsrate (Anzahl der geteilten Fahrten) erhöht und somit die Effektivität unserer Lösung erhöht werden. Simulationsergebnisse werden gezeigt, um eine mögliche Schätzung dieser Wirksamkeit zu geben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15640-3_20 06b69f1beafec71362797c51c5b7640a;de;;;7.3.;;;Betrug in Internet-Auktionssystemen erkennen Betrug gefährdet den florierenden Internet-Auktionsmarkt. Studien haben gezeigt, dass Betrüger ihren Ruf oft durch ausgeklügelte Absprachen mit Komplizen manipulieren und es ihnen ermöglichen, die zur Betrugsbekämpfung eingesetzten reputationsbasierten Feedbacksysteme zu umgehen. Dieses Papier stellt einen Algorithmus vor, der kollabierende Betrüger in Echtzeit identifizieren kann. Experimente mit eBay-Transaktionsdaten zeigen, dass der Algorithmus niedrige Falsch-Negativ- und Falsch-Positiv-Raten aufweist. Darüber hinaus kann der Algorithmus Betrüger identifizieren, die zum Zeitpunkt der Datenerhebung unschuldig sind, aber kurz nachdem sie gute Feedback-Bewertungen gesammelt haben, betrügerische Transaktionen durchführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04155-6_14 58e3916c2d178e99d71688d7a531ca60;de;;;7.3.;;;Generieren von Testfällen für Webdienste mit Extended Finite State Machine Webdienste verwenden eine Standardkommunikationsinfrastruktur wie XML und SOAP, um über das Internet zu kommunizieren. Obwohl Webdienste als neue Technologie immer mehr Verbreitung finden, ist es schwierig, Webdienste zu testen, da es sich um verteilte Anwendungen mit zahlreichen Aspekten des Laufzeitverhaltens handelt, die sich von typischen Anwendungen unterscheiden. In diesem Whitepaper wird ein neuer Ansatz zum Testen von Webservices basierend auf EFSM (Extended Finite State Machine) vorgestellt. Die WSDL-Datei (Web Services Description Language) allein stellt keine dynamischen Verhaltensinformationen bereit. Dieses Problem kann überwunden werden, indem es um eine Verhaltensspezifikation des Dienstes erweitert wird. Anstelle von Domänenpartitionierungs- oder Störungstechniken wählen wir EFSM, da Webdienste über Kontrollfluss sowie Datenfluss wie Kommunikationsprotokolle verfügen. Durch Anhängen dieses formalen EFSM-Modells an die Standard-WSDL können wir eine Reihe von Testfällen generieren, die eine bessere Testabdeckung als andere Methoden aufweisen. Darüber hinaus wird ein Verfahren zum Ableiten eines EFSM-Modells aus der WSDL-Spezifikation bereitgestellt, um einem Dienstanbieter zu helfen, das EFSM-Modell zu erweitern, das das dynamische Verhalten des Webdienstes beschreibt. Um die Wirksamkeit unseres Ansatzes zu zeigen, haben wir unseren Ansatz auf Parlay-X-Webdienste angewendet. Auf diese Weise können wir Webdienste mit größerem Vertrauen in die potenzielle Fehlererkennung testen.;-;-;-;https://link.springer.com/chapter/10.1007/11754008_7 5ab60321dc8032d96487e2434f273078;de;;;7.3.;;;Sichere Modellverwaltungsvorgänge für das Web Die Interoperabilität zwischen verschiedenen Datenformaten über das Internet hat in letzter Zeit zunehmendes Interesse geweckt, da immer mehr heterogene Datenmodelle in verschiedenen Webdiensten verwendet werden. Um die Manipulation von Datenmodellen für heterogene Daten zu erleichtern, wird das generische Modellmanagement seit seiner ersten Einführung intensiv erforscht und auch prototypisch implementiert. Zugriffskontrollspezifikationen, die jedem einzelnen Datenmodell zugeordnet sind, erfordern einen erheblichen Aufwand für die manuelle Spezifikation. Basierend auf einem allgemeinen Sicherheitsmodell für Zugriffskontrollspezifikationen zu heterogenen Datenmodellen und seiner visuellen Darstellung präsentieren wir sichere Modellverwaltungsoperatoren für die Verwaltung von Zugriffskontrollspezifikationen. Zu den in dem Papier diskutierten sicheren Modellverwaltungsoperatoren gehören ein Secure Match Operator und ein Secure Merge Operator . Wir führen einen neuartigen grafischen Schema-Matching-Algorithmus ein und erweitern den Algorithmus zu einem sicheren Match-Operator. Das Papier diskutiert auch sichere Merge-Prinzipien für die Integration von Datenmodellen.;-;-;-;https://link.springer.com/chapter/10.1007/11535706_18 6bd2cf997723478aede506be4be95aef;de;;;7.3.;;;Das Internet der Erfahrungen – Auf dem Weg zu einem erlebnisorientierten Innovationsansatz Der Beitrag zeigt einen erfahrungszentrierten Ansatz für Innovation, der durch das Internet der Erfahrungen ermöglicht wird. Basierend auf Erkenntnissen aus der Innovationsforschung sowie den internetbasierten Ansätzen des Web 2.0 und des Internet of Things wird argumentiert, dass künstliche Systeme, z.B. intelligente Produkte, sind in der Lage, aus Interaktionen selbst Erfahrungen zu machen, ähnlich der heutigen Nutzererfahrung. Nach einer Einführung in das Feld „Erfahrung“ aus der Perspektive des Wissensmanagements wird eine breite Definition von Erfahrung vorgeschlagen. Nach dieser Definition wird die Erfahrungsmöglichkeit künstlicher Bewusstseinssysteme begründet. Basierend auf diesen Erkenntnissen wird ein erfahrungszentrierter Innovationsansatz argumentiert, der Erfahrungen aus intelligenten Objekten und menschlichen Benutzern nutzt. Das Hauptergebnis dieses Abschnitts ist eine Darstellung des Internets der Erfahrungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40352-1_84 b5e4fd486a72bac8f1e1a3d59a12e784;de;;;7.3.;;;Ein SVM-basiertes Fusionsmodell für medienübergreifende Metasuchmaschinen Vor kurzem haben wir ein neues experimentelles System MSearch entwickelt, ein medienübergreifendes Metasuchsystem, das auf der Datenbank der WikipediaMM-Aufgabe von ImageCLEF 2008 basiert Mitgliedersuchmaschinen und bieten eine effektivere Rangliste. Dieser Artikel befasst sich mit einem neuartigen Fusionsmodell, das überwachtes Lernen verwendet. Unser Fusionsmodell verwendet Ranking-SVM beim Training der Fusionsgewichtung für jede Mitgliedssuchmaschine. Wir nehmen das Fusionsgewicht jeder Mitgliedssuchmaschine als Merkmal eines von der Metasuchmaschine zurückgegebenen Ergebnisdokuments an. Für ein zurückgegebenes Ergebnisdokument erstellen wir zuerst einen Merkmalsvektor, um das Dokument darzustellen, und legen den Wert jedes Merkmals als die von der entsprechenden Mitgliedssuchmaschine zurückgegebene Dokumentbewertung fest. Dann konstruieren wir einen Trainingssatz aus den von der Metasuchmaschine zurückgegebenen Dokumenten, um den Fusionsparameter zu lernen. Schließlich verwenden wir das lineare Fusionsmodell basierend auf dem Überlappungssatz, um den Ergebnissatz zusammenzuführen. Experimentelle Ergebnisse zeigen, dass unser Ansatz die Performance der medienübergreifenden Metasuche (MSearch) deutlich verbessert und viele der bestehenden Fusionsmethoden übertrifft.;-;-;-;https://link.springer.com/article/10.1631/jzus.C1001009 957604354c75edeb7f2d24370e6fa066;de;;;7.3.;;;Kritische Erfolgsfaktoren offener Märkte im Internet in Bezug auf Käufer Buy Online-Shopping in offenen Märkten wird mit der Entwicklung des Internets immer beliebter. Ziel dieser Studie ist es, kritische Erfolgsfaktoren im freien Markt aus Käufersicht zu formulieren und zu bewerten. Basierend auf einem erweiterten Technologieakzeptanzmodell geht diese Studie davon aus, dass der Erfolg offener Märkte von mehreren Faktoren beeinflusst wird, darunter wahrgenommene Website-Qualität, wahrgenommener Nutzen, Anerkennung durch Dritte, Zufriedenheit und Vertrauen. Es wird eine empirische Befragung durchgeführt und Fragebögen von Befragten gesammelt, die Erfahrung mit der Nutzung der offenen Märkte hatten. Die Hypothesen werden unter Verwendung der Strukturgleichungsmodellierung verifiziert. Die Testergebnisse werden zusammengefasst und die Auswirkungen auf das Management diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16283-1_31 dd562a0d58aeb4617c8c23e1814585cf;de;;;7.3.;;;Abfragerelaxation basierend auf dem Misstrauen der Benutzer in Bezug auf Abfragebegriffe und die Extraktion von Webwissen Dieses Papier schlägt eine Methode vor, die es Benutzern ermöglicht, nach Webseiten entsprechend ihrer Suchabsichten zu suchen. Wir führen für jeden Begriff in einer Web-Suchanfrage ein gewisses Maß an „Misstrauen“ ein. Wir untersuchen zunächst die Beziehungen zwischen den Abfragebegriffen, indem wir auf eine Websuchmaschine zugreifen. Als Nächstes findet unser System anhand des Misstrauensgrads der Benutzer für jeden Suchbegriff und der Beziehungen zwischen den Suchbegriffen alternative Begriffe durch Zugriff auf eine Websuchmaschine. Dann generiert unser System eine Sammlung neuer Abfragen, die sich von der ursprünglichen Abfrage unterscheiden, und führt die für jede neue Abfrage erhaltenen Websuchergebnisse zusammen. Wir haben unser System implementiert und die Nützlichkeit unseres Systems anhand von Benutzerbewertungen gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89533-6_8 6ee723b5c61ac1d4cbd766c53d1de6f6;de;;;7.3.;;;Robuste Webservice-Bereitstellung durch On-Demand-Replikation Es gibt einen signifikanten Unterschied zwischen Dingen, die funktionieren, und Dingen, die gut funktionieren. Verfügbarkeit zusammen mit Zuverlässigkeit würden Webdienste zur Standardtechnologie der Wahl bei der Entwicklung vieler geschäftskritischer elektronischer Geschäftsanwendungen machen. Leider ist die Gewährleistung der Verfügbarkeit eines Webdienstes immer noch eine Herausforderung aufgrund der unvorhersehbaren Anzahl von Aufrufanfragen, die ein Webdienst (z. B. Google Maps) gleichzeitig verarbeiten muss, sowie der dynamischen Natur des Internets (z. . Darüber hinaus macht die Heterogenität, Mobilität und verteilte Natur von Webdiensten herkömmliche Zuverlässigkeits- und Verfügbarkeitsansätze für Webdienste ungeeignet. In diesem Whitepaper beschreiben wir das Design eines On-Demand-Replikationsansatzes für eine robuste Bereitstellung von Webdiensten. Bei diesem Ansatz werden Webdienste dynamisch auf geeigneten inaktiven Hosts bereitgestellt, wodurch die Nichtverfügbarkeit von Webdiensten bei Spitzenbedarf an begrenzten Computerressourcen verringert wird. Darüber hinaus fördert dieser Ansatz die Entkopplung von Webdienstanbietern und Webdiensthostanbietern, was ein flexibleres Replikationsmodell unterstützt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01112-2_3 b2bff49d091e47daa195bf9bdf6536ee;de;;;7.3.;;;Aspect Discovery: Charakterisierung von Webinhalten durch ihre referenziellen Kontexte Auf eine Webseite wird von anderen Seiten durch Links in verschiedenen Kontexten verwiesen, und diese Kontexte geben den „Kundenstandpunkt“ für die Seite an. Die Verweise werden im Unterschied zum Inhalt der Seite als „Aspekte“ einer Webseite bezeichnet. In diesem Papier schlagen wir einen Ansatz vor, um Aspekte zur Charakterisierung von Webseiten basierend auf ihrem referenziellen Kontext zu entdecken. Basierend auf der logischen Struktur des Webs (d. h. der Webdokumentstruktur und der Linkstruktur) entdeckt unser Ansatz den passenden Umfang an umgebenden Inhalten und ordnet sie als Kontext der Webseite zu. Die Aspekte der Webseite werden entdeckt, indem mehrere Kontexte geclustert werden, sodass jeder Aspekt eine „typische Referenz“ auf die Seite darstellt. Der Aspekt kann verwendet werden, um die Benutzerfreundlichkeit und Glaubwürdigkeit einer Webseite zu stärken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24655-8_80 99326033edd49305a272f85f3acb1351;de;;;7.3.;;;Entwicklung und Erfolg von Online-Zeitungen In der sich weiterentwickelnden IS-Literatur zu Geschäftsmodellen für digitale Produkte scheint die Meinung verbreitet zu sein, dass der positive Rückkopplungseffekt zu Preiswettbewerb und einseitiger Marktkonzentration führen wird. Es gibt jedoch nicht viele ernsthafte empirische Analysen, die diese Annahme sorgfältig untersuchen. In diesem Beitrag schlagen wir eine Untersuchung der Ziele und des Erfolgs von Online-Zeitungen in einem homogenen und gut entwickelten Markt vor. Wir evaluieren die generischen Ziele und deren Erreichung, Wachstums- und Konzentrationsmuster sowie die angewandten Geschäftsmodelle, um unsere Hypothesen zu den Auswirkungen der Erlöslogik und der Konzentration der Geschäftsfähigkeiten bei den Online-Zeitungen zu testen. Unsere empirischen Tests mit Daten aus 42 Online-Versionen zeigten, dass Online-Versionen unterschiedliche Entwicklungstrends in nationalen und regionalen Märkten aufweisen. Entgegen unserer Hypothese hatte das Geschäftsmodell im Vergleich zu Erfahrung und Orientierung nur einen marginalen Einfluss auf die Erfolgsscores. Unsere Analysen zeigten, dass sowohl der Umsatz als auch die Schlüsselfähigkeitsfaktoren nichtlinear wuchsen, dass Unternehmen jedoch ihren Umsatz durch die Bereitstellung von Ressourcen für Personal und Marketing steigern konnten. Daher haben wir unsere Hypothese eines dominierenden positiven Rückkopplungseffekts verworfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35617-4_42 135fe7c75246bc2f8dc3f123ab5c9bd7;de;;;7.3.;;;Identifizierung von Deep-Web-Einträgen mithilfe von neuronalen Netzen Deep Web ist die am schnellsten wachsende neue Ressource im Internet. Der Aufbau seines Datenintegrationssystems ist zu einem Forschungsschwerpunkt geworden. Die Deep-Web-Einträge mit ihrer automatischen Identifizierung als Grundlage der Deep-Web-Datenintegration erscheinen meist in HTML-Formularen. Aufgrund der Subjektivität im Formulardesign macht es das Fehlen einheitlicher Konstruktionsstandards schwierig, anhand von Heuristiken und manuell festgelegten Regeln zu beurteilen, ob ein HTML-Formular ein Deep Web-Eintrag ist. Basierend auf dem globalen Schema und dem Konzept des maschinellen Lernens schlägt dieses Papier einen Ansatz vor, um Deep Web-Einträge mithilfe eines neuronalen Netzwerks zu identifizieren. Durch die Statistik der zahlreichen Formulardaten bietet dieses Dokument 14 Funktionen zur Unterscheidung von Abfrageschnittstellen von Nichtabfrageschnittstellen. Experimente mit 12 Datensätzen zeigen eine höhere Genauigkeit unseres vorgeschlagenen Ansatzes und seine Verwendung bei der automatischen Identifizierung von Deep-Web-Einträgen wird daher empfohlen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-2386-6_72 0a9bb32f704aaeffe1796b1f268c664b;de;;;7.3.;;;Zu einem Vertrauensgewinnmaß für die Erkennung und Bewertung von Assoziationsregeln Dieser Artikel stellt ein neues Maß für die Interessantheit von Assoziationsregeln vor, das als Vertrauensgewinn (CG) bezeichnet wird. Der Schwerpunkt liegt eher auf der Extraktion menschlicher Assoziationen als auf Verbindungen zwischen Marktprodukten. Es gibt zwei Hauptunterschiede zwischen den beiden (Menschen- und Marktverbände). Der erste Unterschied ist die starke Asymmetrie menschlicher Assoziationen (z. B. ist die Assoziation „Shampoo“ → „Haar“ viel stärker als „Haar“ → „Shampoo“), wobei die Asymmetrie bei Marktprodukten weniger intuitiv und weniger offensichtlich ist. Die zweite ist das Hintergrundwissen, das Menschen anwenden, wenn ihnen ein Reiz (Eingabesatz) präsentiert wird.;-;-;-;https://link.springer.com/article/10.1007/s00778-004-0148-y 5d21268161cca6acc8dce38e1e899b69;de;;;7.3.;;;Das CAI-NPD-Systems Reifegradmodell als Prognosemethode: Von der geschlossenen CAI 1.0 zu ganzheitlichen CAI 2.0 Lösungen Dieser Artikel untersucht aktuelle und zukünftige Entwicklungen im Bereich CAI anhand eines Modells namens „CAI-NPD-Systems Maturity Model“. Dieses Modell basiert auf zwei Aspekten der CAI-Systementwicklung: Der Entwicklung in der Innovationstheorie und Modellen wie Stage Gate oder Open Innovation und der Entwicklung der technologieunterstützenden Softwareansätze wie Web2.0 zur Entwicklung neuer Generationen von CAI. Als Ergebnis wird ein Evolutionspfad von generischer IT-Unterstützung und einfachen Ad-hoc-NPD-Prozessen über geschlossene CAI-Systeme zu ganzheitlicher CAI2.0 vorgeschlagen. Beispiele und Auswirkungen dieser Trends werden angegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22182-8_4 ed0e8d3bbd8c92460299622fceb0db51;de;;;7.3.;;;Einführung in die Cloud-Konnektivität In diesem Kapitel stellen wir die Welt der vernetzten Rechenknoten vor, die jeweils in eine bestimmte Umgebung eingebettet sind und zusammen eine Sinneswelt bilden. Wir werden grob eine Reihe von Prinzipien und Konzepten durchgehen, um die Grundlage für die Diskussion über die Cloud-zentrierte Verarbeitung zu schaffen, die in den kommenden Kapiteln weiter detailliert und veranschaulicht wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-7545-4_1 4d3c0ec003d75424e1e133f2e498cd08;de;;;7.3.;;;Erfassung der Ortssemantik im GeoSocial Web Im Web ist ein massives Interesse an der Georeferenzierung von persönlichen Ressourcen zu erkennen. Menschen digitalisieren gemeinsam Karten und bauen Ortswissensressourcen auf, die die persönliche Nutzung und Erfahrungen an geografischen Orten dokumentieren. Das Verstehen und Entdecken dieser Ortssemantik kann möglicherweise zur Entwicklung einer anderen Art von Ortsverzeichnis führen, das nicht nur Standardinformationen zu Ortsnamen und geografischen Standorten enthält, sondern auch von Menschen an einem Ort ausgeübte Aktivitäten und lokale Ansichten von Ortsmerkmalen. In diesem Beitrag wird ein neuartiger Rahmen für die Analyse von Geo-Folksonomien und die automatische Entdeckung ortsbezogener Semantik vorgeschlagen. Das Framework basiert auf einem Modell des geografischen Ortes, das die Definition von Ort, wie sie in traditionellen Gazetteern und geospatialen Ontologien definiert ist, um den Begriff des Ortsangebots erweitert. Die abgeleiteten ortsbezogenen Konzepte werden mit einer formalen Expertenontologie von Ortstypen und -aktivitäten verglichen und sowohl mit einem nutzerbasierten Evaluationsexperiment als auch durch Messung des Grads der semantischen Verwandtschaft der abgeleiteten Konzepte bewertet. Um den Nutzen des vorgeschlagenen Frameworks zu demonstrieren, wird eine Anwendung entwickelt, um die mögliche Bereicherung der Sucherfahrung zu veranschaulichen, indem die abgeleitete Semantik Benutzern von Web-Mapping-Anwendungen zur Verfügung gestellt wird.;-;-;-;https://link.springer.com/article/10.1007/s13740-014-0034-8 5dbe7e0d6e5b1ac1f20a58ae615662df;de;;;7.3.;;;Webbasiertes Autorentool für das e-Salesman-System Das Suchen und Finden von Artikeln im WWW wird für Unternehmen und Verbraucher immer schwieriger. Viele Navigations- und Stichwortsuchen sind für den modernen Verbraucher unzureichend. Was den E-Commerce stört, ist der Mangel an intelligenter Unterstützung. Das e-Salesman System (eSS) [11] basiert auf einem wissensbasierten intelligenten Modell und zielt darauf ab, die menschliche Komponente des traditionellen Einkaufs für den Online-Verkauf zu simulieren. In diesem Whitepaper wird ein Werkzeug zum Erstellen und Verwalten eines intelligenten Systems vorgestellt, das den aktuellen Ansatz für das Surfen, Suchen und Einkaufen im Internet verändern wird. Der Beitrag dieser Lösung besteht darin, Händlern zu ermöglichen, ihre E-Retail-Shops so anzupassen und zu ändern, dass sie mit Online-Benutzern auf der Grundlage ihrer dynamisch geänderten Modelle interagieren, um ihre Geschäftsregeln und Marketinganforderungen zu erfüllen.;-;-;-;https://link.springer.com/chapter/10.1007/11596356_54 28bd09598123ec7ccbe74d52bb884440;de;;;7.3.;;;Berücksichtigen Sie das Geschlecht Ihres Webpublikums Durch die Nutzung des World Wide Web als Commerce-Tool besteht das Potenzial, mehr Kunden zu erreichen, als es der traditionelle Shop kann. Mit einem größeren und breiteren Publikum, das Zugang zu einem einzelnen Unternehmen hat, muss der Gestaltung von E-Commerce-Systemen und Websites besondere Aufmerksamkeit geschenkt werden. Designer müssen sich der Probleme im Zusammenhang mit Benutzerpräferenzen bewusst sein. Wenn Benutzer eine bestimmte Site nicht mögen oder eine Transaktion nicht abschließen können, werden sie wahrscheinlich nie zu dieser Site zurückkehren. Die Präferenzen unterschiedlicher Gruppen und Nutzertypen müssen berücksichtigt werden, wenn die maximale Publikumspenetration erreicht und erhalten werden soll. Eine in Australien durchgeführte Pilotstudie legt nahe, dass Frauen andere Erwartungen an Websites haben als Männer, aber in der Literatur wurde wenig empirische Arbeit zur Identifizierung dieser Unterschiede oder ihrer Auswirkungen auf die Webnutzung berichtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35509-2_20 73a969082671a843ef481fb2b2104fec;de;;;7.3.;;;Auf dem Weg zu einem vollständig rechnergestützten Modell der Web-Navigation In diesem Beitrag machen wir die ersten Schritte zur Entwicklung eines vollautomatischen Tools zur Unterstützung der Nutzer bei der Navigation im Web. Wir haben einen Prototyp entwickelt, der ein Benutzerziel und eine Website-URL als Eingabe verwendet und den richtigen Hyperlink vorhersagt, um auf jeder Webseite von der Startseite aus anzuklicken, und dies als Unterstützung für Benutzer verwendet. Wir haben die Nützlichkeit unseres Systems mit tatsächlichen Daten von echten Benutzern bewertet. Es zeigte sich, dass die Nutzer deutlich weniger Zeit und Klicks brauchten, deutlich weniger desorientiert und genauer mit systemgeneriertem Support waren und den Support positiv wahrnahmen. Geplante Erweiterungen dieses Systems werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21822-4_33 769facbc78f1ba61d011a334bb6069d3;de;;;7.3.;;;Wöchentliche Vorhersage der Veränderung des ILI-Patientenverhältnisses anhand von Nachrichtenartikeln mit Support Vector Machine Die Grippe stellt weltweit nach wie vor eine ernsthafte Bedrohung für die menschliche Gesundheit dar. Aus diesem Grund ist die Erkennung von Influenza-Infektionsmustern von entscheidender Bedeutung. Da die epidemische Ausbreitung der Influenza jedoch sporadisch und schnell erfolgt, ist es nicht einfach, die zukünftige Varianz der Influenzavirusinfektion abzuschätzen. Darüber hinaus ist es nicht einfach, Daten zu Influenza zu sammeln, da die Art von Daten, die mit Influenza in Verbindung gebracht werden, sehr begrenzt ist. Aus diesen Gründen sind die Identifizierung nützlicher Daten und die Erstellung eines Vorhersagemodells mit diesen Daten notwendige Schritte, um vorherzusagen, ob die Zahl der Patienten zu- oder abnimmt. Im Internet werden täglich zahlreiche Pressemitteilungen veröffentlicht, die aktuell anstehende Themen widerspiegeln.;-;-;-;https://link.springer.com/article/10.1186/s12859-019-2894-2 f1c3836ec62b094290f73c23c963610a;de;;;7.3.;;;Adaptive Aufgabenplanung in serviceorientierter Crowd mit SLURM Crowdsourcing ist ein verteiltes Problemlösungsparadigma. Das serviceorientierte Crowdsourcing-Paradigma umfasst sowohl Verbraucher als auch Dienstleister. Ein Verbraucher fordert einen Dienst (Aufgabe) an, ein Anbieter stellt diesen Dienst bereit (erfüllt diese Aufgabe) und die Anbieter werden von den Verbrauchern für den Dienst nach ihrer Zufriedenheit bezahlt. Die Herausforderung besteht darin, einen Dienstanbieter aus einer Liste von Anbietern auszuwählen, der dem Verbraucher für diesen Dienst maximale Zufriedenheit bieten kann. Diese Arbeit skizziert ein Architekturmodell, das das SLURM-Tool zum effizienten Management von Crowd verwendet. Im Zentrum dieser Arbeit haben wir eine neuartige Idee der adaptiven Aufgabenplanung vorgeschlagen, die auf Rückmeldungen zur Kundenzufriedenheit basiert. Unser Ansatz verbessert die Effizienz und senkt die Servicekosten für die Verbraucher. Experimentelle Ergebnisse belegen die Tragfähigkeit unseres Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36071-8_29 7eee274211cbb2cff6a2e98f5f784321;de;;;7.3.;;;Der eilige Verbraucher: Zeitsparende Wahrnehmungen von Internet- und Katalogeinkäufen Diese Studie untersuchte die Beziehung zwischen Verbraucheraktivität und Zeitstress sowie Wahrnehmungen und Praktiken bezüglich Katalog- und Online-Käufen. Es gab einen scharfen Kontrast zwischen Wahrnehmungen und Praktiken. Internet- und Katalogeinkäufe wurden als Zeitersparnis empfunden, doch die Befragten kauften nur selten bei ihnen, um Zeit zu sparen. Außer Haus gearbeitete Stunden und im Internet verbrachte Zeit standen in signifikantem Zusammenhang mit den Wahrnehmungen und Praktiken der Internet- und Katalogzeiteinsparung. Selbst berichtete Aktivitätsniveaus hatten wenig Einfluss. Die Diskrepanz zwischen den Wahrnehmungen und Praktiken zur Zeitersparnis im Internet wurde auf die Schwierigkeit des Online-Shoppings zurückgeführt, was darauf hindeutet, dass Beziehungsmanagement-Strategien, die auf erweiterten Datenbanken basieren, vielversprechend sein könnten.;-;-;-;https://link.springer.com/article/10.1057/palgrave.jdm.3240091 c005f835d87663628b137f88008b2a2b;de;;;7.3.;;;Neuartige Websuchstrategie basierend auf dem Algorithmus zur Granularitätsanalyse von Webseitenblöcken und Korrelationsberechnungsmodell In diesem Whitepaper werden die Laufparameter von Crawlerknoten dynamisch angepasst, um sie leichter handhabbar und konfigurierbar zu machen. Die Laufparameter umfassen die Crawling-Geschwindigkeit, die Crawling-Tiefe und die Anzahl der Crawler-Threads. Nach der Verarbeitung und Organisation der Informationen stellt die Suchmaschine einen Web-Informationsabfragedienst für Benutzer bereit, durchsucht das Internet kontinuierlich und sammelt Webinformationen. Dann werden die Informationen vom Indexierer verstanden, extrahiert, organisiert und verarbeitet, und die Indexdatenbank wird erstellt. Der Artikel präsentiert eine neuartige Websuchstrategie, die auf einem Algorithmus zur Granularitätsanalyse von Webseitenblöcken und einem Korrelationsberechnungsmodell basiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-15235-2_75 5aea4c642c75fa4575546c7948714657;de;;;7.3.;;;Eine Internet-of-Things-Anwendung mit einer zugänglichen Schnittstelle zur Fernüberwachung von Patienten Der E-Health-Bereich ist ein Forschungsgebiet, dessen Erforschung zahlreiche Vorteile für die Gesellschaft bringen kann. In diesem Beitrag präsentieren wir Ergebnisse einer Fallstudie, die in einer Gesundheitsumgebung durchgeführt wurde, die von einer Internet-of-Things-Lösung (IoT) unterstützt wird, um Techniken zu automatisieren, die häufig in Behandlungs- und Datenerfassungsprozessen von Patienten verwendet werden. Diese Lösung umfasst Hardware-Prototypen, einschließlich Sensoren, Mikrocontroller und Softwareagenten, die zusammenarbeiten, um Krankenhausumgebungen proaktiver zu machen. Darüber hinaus bietet die vorgeschlagene Lösung die Fernspeicherung von Patientendaten auf Cloud-basierten Plattformen, sodass jede autorisierte Person, einschließlich externer Fachkräfte, mit dem lokalen Team zusammenarbeiten kann. Ein Websystem ermöglicht die Echtzeit-Visualisierung der Patientenakte als grafische Diagramme über eine intuitive Benutzeroberfläche. Softwareagenten überwachen ständig die gesammelten Daten, um Anomalien im Gesundheitszustand der Patienten zu erkennen und bei Auftreten Warnmeldungen an medizinisches Personal zu senden. Diese Arbeit zielt auch darauf ab, die Patientenfernüberwachung zu ermöglichen, um die Proaktivität zu erhöhen und Ressourcen zu sparen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-20889-3_60 afbed52df41dc65f437e0862784a35de;de;;;7.3.;;;Datenschutz bei (mobilen) Telekommunikationsdiensten Telekommunikationsdienste unterliegen seit langem Datenschutzbestimmungen. Auf dem Spiel stehen traditionell: Vertraulichkeit der Kommunikation und der Schutz von Verkehrsdaten. Der Datenschutz der Kommunikation ist rechtlich begründet. Verkehrsdaten fallen unter den Begriff Datenschutz und stehen im Mittelpunkt der Diskussion. Das Telekommunikationsumfeld verändert sich grundlegend. Die traditionell geschlossenen Märkte mit geschlossenen Netzen wandeln sich in einen offenen Markt mit offenen Netzen. Innerhalb dieser offenen Netzwerke werden immer mehr datenschutzrelevante Daten generiert und müssen zwischen einer wachsenden Zahl von Parteien ausgetauscht werden. Auch Telekommunikations- und Computernetze werden schnell integriert und damit verschwindet die Unterscheidung zwischen Telefonie und Computer. Traditionelle Datenschutzbestimmungen für die Telekommunikation werden überarbeitet, um Internetanwendungen abzudecken. In diesem Papier werden Telekommunikationsthemen in Erinnerung gerufen, um die laufende Debatte zu unterstützen. Vor kurzem wurden Mobiltelefone eingeführt. Zellulare Netzwerke verarbeiten eine bestimmte Kategorie von Verkehrsdaten, nämlich Standortdaten, wodurch die Frage der territorialen Privatsphäre in den Telekommunikationsbereich eingeführt wird. Standortdaten werden zwangsläufig für umfassende zukünftige Dienste verwendet. Designs für zukünftige Dienste werden diskutiert und hinsichtlich ihrer Auswirkungen auf den Datenschutz bewertet.;-;-;-;https://link.springer.com/article/10.1007/s10676-005-5605-9 789c1c9b5afa89e723850be87246e616;de;;;7.3.;;;Auswirkungen der COVID-19-Aufmerksamkeit auf pharmazeutische Aktienkurse basierend auf Internetsuchdaten Basierend auf dem Baidu-Index wurden 223 Pharmatitel, die vom 1. November 2019 bis 8. Juni 2020 aus dem CSI 300-Index ausgewählt wurden, als Forschungsstichproben ausgewählt. Das französische Drei-Faktoren-Modell und die Panel-Regressionsanalyse von Fama wurden übernommen, um die Auswirkungen der Aufmerksamkeit der Anleger auf COVID-19 auf den Pharma-Aktienmarkt zu untersuchen. Basierend auf dem Drei-Faktoren-Modell erklärte diese Studie die Auswirkungen der zunehmenden Besorgnis der Anleger über die Epidemie auf den Medizinaktienmarkt anhand der drei abhängigen Variablen Rendite, Handelsvolumen und Amplitude. Die Ergebnisse zeigen, dass die Aufmerksamkeit der Anleger auf COVID-19 einen signifikanten positiven Einfluss auf die Rendite, das Volumen und die Amplitude des Pharma-Aktienmarktes im gleichen Zeitraum hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4572-0_174 0958408ebcc186c7e56ef110c32d6912;de;;;7.3.;;;Kooperatives internetbasiertes Experimentieren an halbindustriellen Pilotanlagen In dieser Arbeit wird ein Rahmen für kooperatives Experimentieren mit halbindustriellen Pilotanlagen vorgestellt. Es wird eine Softwarelösung beschrieben, die das kooperative Experimentieren mehrerer Benutzer unterstützt, zusammen mit der unterstützenden Hardware, die speziell für die Aufgabe entwickelt wurde. Es wird eine duale Netzwerkstruktur vorgeschlagen, mit einem horizontalen Echtzeitprotokoll für die Hardwareintegration und vertikalen Mehrbenutzerzugangspunkten für die menschliche Interaktion. Um potenzielle Konflikte zwischen Benutzern zu vermeiden, wird eine Priorisierung durchgeführt, da die verfügbaren Ressourcen (Zeit, Hardware und Daten) begrenzt sind. Ein wichtiges Teilproblem wird detailliert beschrieben, d.h. große Gruppen von Schülern teilen sich in kleinere Untergruppen auf, die kollaborativ Teilversuche durchführen, um eine Lösung des von einem Lehrer gestellten Problems zu erreichen. Arbeits- und Datenflüsse müssen sorgfältig entworfen werden, um die Kontrolle über die Zusammenarbeit zu behalten. Ein Beispiel für einen solchen Zeitplan wird bereitgestellt und beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88011-0_38 2ec85d3d90b207ed554d66fe7c147762;de;;;7.3.;;;DJ-Boids: Scharen von DJs um Internet-Mehrkanal-Radiosender zu programmieren In diesem Papier schlagen wir vor, aufkommende kollektive Verhaltensideen anzuwenden, um automatisch Internet-Mehrkanal-Radiosender zu programmieren. Das vorgeschlagene Modell simuliert;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44831-4_7 3cec09f3fa3cca4dbdfce49778b571d5;de;;;7.3.;;;Forschung zur Analyse und Überwachung der öffentlichen Meinung im Internet Der Zweck der Forschung besteht darin, die öffentliche Meinung im Internet zu sammeln und zu analysieren, die öffentliche Stimme zu verstehen und rechtzeitig Feedback zu geben. Basierend auf dem Verständnis der öffentlichen Meinung und der damit verbundenen Konzepte erläuterte der Beitrag den Entwicklungsprozess der öffentlichen Meinung und der öffentlichen Meinung im Internet in ihrem Lebenszyklus. Als nächstes wurde das Überwachungsmodell der öffentlichen Meinung im Internet gemäß der Änderungsregel der öffentlichen Meinung erstellt. Die ursprünglichen Informationen sind Webseite im Internet. Ein heißes Thema wäre mit passiver Überwachung und aktivem Tracking zu erhalten. Außerdem wird die Situation der Internetmeinung aufgedeckt. Führen und blockieren, diese beiden Wege können verwendet werden, um die öffentliche Meinung im Internet positiv zu lenken. Die Forschung dieses Papiers wäre nützlich, um die öffentliche Meinung im Internet schnell zu erfassen und zu verstehen und eine wirksame Kontrolle und Anleitung zu ermöglichen. Es hat eine wichtige praktische Bedeutung, die sozialistische harmonische Gesellschaft aufzubauen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33030-8_72 4f4bf0611f171d7b6353cefe1b150cfb;de;;;7.3.;;;Anforderungserfassung in der Open-Source-Entwicklung: Firefox 2.0 Open Source Software Development scheint sich radikal von herkömmlichen Vorstellungen des Software Engineering zu entfernen. Insbesondere Anforderungen an Open Source-Projekte scheinen eher behauptet als erhoben zu werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09684-1_6 fd1de9bab85a1d833efb0b0a77390b5b;de;;;7.3.;;;Web-Support-System für Business Intelligence in kleinen und mittleren Unternehmen Das letzte Jahrzehnt gehört zu Business Intelligence (BI), weil es eines der wenigen Konzepte ist, die die Erwartungen tatsächlich erfüllt haben. Nicht nur die Unternehmen haben es angenommen, sondern auch die Früchte daraus geerntet. Die Kosten für BI-Lösungen sind jedoch sehr hoch und haben kleine und mittlere Unternehmen bei der Verwendung von BI-Lösungen eingeschränkt. Auch die personellen Ressourcen sind in diesem Bereich begrenzt und dementsprechend teuer. Diese Studie schlägt ein Web-Unterstützungssystem für Business Intelligence vor, das eine automatisierte Datenzuordnung und -ladung von der Benutzeranwendung in das BI-Framework bietet und auch validiert. Das System unterstützt die Benutzer auch dabei, die Ergebnisse in Form von Berichten und Dashboards zu erhalten. Die Umsetzung des vorgeschlagenen Rahmens zeigt Benutzerfreundlichkeit und effektive Kosteneinsparungen, da keine technischen Kenntnisse erforderlich sind. Das Schöne an diesem Web-Support-System ist, dass alle Schritte menügesteuert sind und jeder nicht technisch versierte Benutzer es leicht erreichen kann.;-;-;-;https://link.springer.com/article/10.1007/s11277-014-1723-1 646bb8332008e3bbe2e42bdd581f31d3;de;;;7.3.;;;Diskussion zum Aufbau eines neuen Systems der Pharmazie-Experimentierlehre im „Internet +“-Unterricht Die Theorie des pharmazeutischen Experimentalunterrichts war eher langweilig, den Studenten fehlt die Begeisterung für das Studium des Pharmazieexperiments, und es war schwierig, die Qualität und Wirkung des Pharmazieunterrichts zu verbessern. An einigen modernen medizinischen Hochschulen und Universitäten wurden noch große Lehrtafeln im pharmazeutischen Experimentalunterricht verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5959-4_42 d386da78b85aee03a67283dc9cf89ed5;de;;;7.3.;;;Personalisierte Empfehlung basierend auf dem Desktop-Kontext Mit dem Ziel der inhärenten Erkennungen des gegenwärtigen Informationsabrufdienstes schlug dieses Papier einen Ansatz vor, um den Desktop-Kontext auszunutzen, um einen personalisierten Empfehlungsdienst bereitzustellen. Die auf der lokalen Festplatte wiederhergestellten Dateien und die in einem Arbeitsszenario geöffneten Dokumente wurden als zwei separate Teile betrachtet, die der Personalisierung dienen. Der Algorithmus zum Extrahieren von Desktop-Ressourcen zum Erstellen des langfristigen Dokumentenmodells wurde im Detail vorgestellt, der weitere Informationen zum Erstellen eines Interessenmodells eines Benutzers bereitstellt. Auch die Methode zur Etablierung des Kurzzeitmodells in einem Arbeitsszenario zur Vorhersage des aktuellen Informationsbedarfs des Nutzers wurde vorgestellt. Die Experimente wurden durchgeführt, um empfohlene Elemente in einem Nachrichtenfenster anzubieten und die impliziten Informationen über das entsprechende Verhalten jedes Benutzers zu analysieren. Die Ergebnisse zeigten, dass die Benutzer an empfohlenen Artikeln interessiert waren und die Leistung stabil war.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25781-0_58 579dfde154b6dba9e3cd934cfd8142ed;de;;;7.3.;;;Eine Röntgenaufnahme der brasilianischen e-Gov-Websites Die digitale Inklusion fördert den Abbau sozialer Ungleichheiten. Nach diesem Prinzip richtet die brasilianische Regierung immer mehr Web-Zugangsstellen ein, um ihre Bürger virtuell zu unterstützen. Es gibt jedoch keine Richtlinien für den Aufbau und die Bewertung dieser elektronischen Regierungsseiten (e-Gov). In diesem Artikel messen wir die Website-Qualität in der e-Gov-Domäne mit den folgenden Eigenschaften: Benutzerfreundlichkeit, Zugänglichkeit, Interoperabilität, Sicherheit, Datenschutz, Informationszuverlässigkeit und Dienstagilität. Wir haben unsere Methode mithilfe eines Checklisten-Tools bei der Evaluierung von 127 brasilianischen Regierungsstandorten (Bundes-, Landes- und Kommunalbehörden) implementiert. Unsere Methode hat sich bei der Diagnose und Identifizierung spezifischer Probleme im Bereich der e-Gov-Site als effizient erwiesen.;-;-;-;https://link.springer.com/chapter/10.1007/11555261_123 c8d387d187b37cb6138d142c2111fddd;de;;;7.3.;;;Internetbasierte Commons of Intellectual Resources: Eine Erkundung ihrer Vielfalt In den letzten beiden Jahrzehnten wurden, beschleunigt durch die Entwicklung des Internets, verschiedene Arten von Commons für intellektuelle Ressourcen erschlossen. In diesem Artikel wird ihre Vielfalt in Bezug auf die Art der Ressourcen und die Art der damit verbundenen Regulierung untersucht. Die Open-Source-Software-Bewegung leitete das Phänomen ein, indem sie ein urheberrechtlich geschütztes Commons of Source Code schuf, das als „dynamisch“ bezeichnet werden kann: sowohl die Nutzung als auch die Modifikation von Ressourcen. Darüber hinaus können solche Commons entweder vor Aneignung geschützt (durch eine „Copyleft“-Lizenz) oder ungeschützt sein. Um das Jahr 2000 herum wurde dieser Ansatz durch die Initiative Creative Commons verallgemeinert. Dabei fügten sie ein „statisches“ Commons hinzu, in dem nur die Nutzung von Ressourcen erlaubt ist. Diese Form wurde insbesondere auf die Natur- und Geisteswissenschaften übertragen und verschiedene Open-Access-Initiativen entfaltet. Ein letzter Aspekt von urheberrechtlich geschützten Commons ist die Unterscheidung zwischen aktiven und passiven Commons: Während letztere nur ein Ort der Ressourcenbeschaffung sind, ist erstere auch ein Ort für die Produktion neuer Ressourcen durch Gemeinschaften von Freiwilligen („Peer Production“). Schließlich werden mehrere Patent Commons diskutiert, die hauptsächlich darauf abzielen zu verhindern, dass Patente die Weiterentwicklung der Wissenschaft blockieren. Durchgängig wird auf die Wechselbeziehungen zwischen den verschiedenen Gemeingütern hingewiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-37876-3_14 b29126919ca3bd3bd3dd12d29fda0faa;de;;;7.3.;;;Automatische Web-Bildanmerkung über Web-Scale Image Semantic Space Learning Die Korrelation zwischen Schlüsselwörtern wurde ausgenutzt, um Automatic Image Annotation (AIA) zu verbessern. Abweichend von der traditionellen Lexikon- oder Trainingsdaten-basierten Keyword-Korrelationsschätzung schlagen wir vor, Web-Scale-Bildsemantikraum-Lernen zu verwenden, um die Keyword-Korrelation für die automatische Web-Bildannotation zu untersuchen. Insbesondere verwenden wir die Social-Media-Website: Flickr als semantischen Bildraum im Webmaßstab, um den Annotations-Schlüsselwort-Korrelationsgraphen zu bestimmen, um die Schätzung der Annotationswahrscheinlichkeit zu glätten. Um die Annotationsleistung von Web-Bildern weiter zu verbessern, präsentieren wir ein neues stückweises Penalty-gewichtetes Regressionsmodell mit Einschränkungen, um die Semantik des Web-Bilds aus dem entsprechenden assoziierten Text zu schätzen. Wir integrieren die vorgeschlagenen Ansätze in unser Webbild-Annotations-Framework und führen Experimente an einem realen Webbilddatensatz durch. Die experimentellen Ergebnisse zeigen, dass unsere beiden Ansätze die Annotationsleistung deutlich verbessern können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00672-2_20 dd3979ec2a8e84c52002eafbdcee27c2;de;;;7.3.;;;Ein Clustering-Framework zum Erstellen fokussierter Web-Crawler für die automatische Extraktion von Kulturinformationen Wir präsentieren eine neuartige fokussierte Crawling-Methode zur vollautomatischen Extraktion und Verarbeitung kultureller Daten aus dem Web. Nach dem Herunterladen der Seiten extrahieren wir aus jedem Dokument eine Reihe von Wörtern für jeden thematischen Kulturbereich. Anschließend erstellen wir mehrdimensionale Dokumentvektoren, die die häufigsten Wortvorkommen umfassen. Die Unähnlichkeit zwischen diesen Vektoren wird durch die Hamming-Distanz gemessen. Im letzten Schritt verwenden wir die Clusteranalyse, um die Dokumentvektoren in mehrere Cluster zu unterteilen. Schließlich wird unser Ansatz anhand einer Proof-of-Concept-Anwendung veranschaulicht, die Hunderte von Webseiten aus verschiedenen kulturellen Themenbereichen untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87881-0_43 a66b42b8a1ce9e3fbd12652eb2f2fc5c;de;;;7.3.;;;Inkrementelles Clickstream-Baummodell: Lernen von neuen Nutzern für die Webseitenvorhersage Die Vorhersage der nächsten Anfrage eines Benutzers hat mit zunehmender Web-basierter Aktivität an Bedeutung gewonnen, um Web-Benutzer bei ihren Besuchen von Websites zu führen. Zuvor vorgeschlagene Methoden zur Empfehlung verwenden im Laufe der Zeit gesammelte Daten, um Nutzungsmuster zu extrahieren. Diese Muster können sich jedoch im Laufe der Zeit ändern, da jeden Tag neue Protokolleinträge zur Datenbank hinzugefügt und alte Einträge gelöscht werden. Daher ist es im Laufe der Zeit sehr wünschenswert, die Aktualisierung des Empfehlungsmodells inkrementell durchzuführen. In diesem Papier schlagen wir ein neues Modell zur Modellierung und Vorhersage von Web-Benutzersitzungen vor, das versucht, die Online-Empfehlungszeit zu reduzieren, während die Vorhersagegenauigkeit beibehalten wird. Da das Modell sehr einfach zu modifizieren ist, wird es während des Empfehlungsprozesses aktualisiert. Der inkrementelle Algorithmus liefert eine bessere Vorhersagegenauigkeit sowie eine kürzere Online-Empfehlungszeit. Eine Leistungsbewertung des inkrementellen Click-Stream-Baummodells über zwei verschiedene Webserver-Zugriffsprotokolle zeigt, dass das vorgeschlagene inkrementelle Modell die Empfehlungszeit erheblich verkürzen und die Vorhersagegenauigkeit verbessern kann.;-;-;-;https://link.springer.com/article/10.1007/s10619-006-6284-1 f1ee7cfe75fa574f861174a466947dd4;de;;;7.3.;;;FeedRank: Ein semantikbasiertes Managementsystem für Webfeeds Heute durchläuft das World Wide Web einen subtilen, aber tiefgreifenden Wandel hin zu Web 2.0 und Semantic Web-Technologien. Aufgrund des zunehmenden Interesses am Semantic Web werden immer mehr Semantic Web Anwendungen entwickelt. Eines der aktuellen Hauptprobleme bei der Entwicklung von Semantic Web-Anwendungen ist die Einfachheit und Benutzerfreundlichkeit für die Endbenutzer, insbesondere für Personen ohne IT-Hintergrund. In diesem Artikel wird das FeedRank-System für die Extraktion, Aggregation, semantische Verwaltung und Abfrage von Web-Feeds vorgestellt. Das vorgeschlagene System überwindet viele der Einschränkungen herkömmlicher und passiver Web-Feed-Reader, wie z geringes Interesse für sie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04394-9_16 fe90736c0c96f6b21e794bf474ab7f4e;de;;;7.3.;;;Hashtag-verzerrtes Ranking für die Keyword-Extraktion aus Microblog-Posts Heutzutage wird eine riesige Menge an Text für soziale Netzwerke im Web generiert. Die Schlüsselwortextraktion aus solchem ​​Text kommt vielen Anwendungen wie Werbung, Suche und Inhaltsfilterung zugute. Jüngste Studien zeigen, dass diagrammbasiertes Ranking effektiver ist als herkömmliche Ansätze, die auf Begriffen oder Dokumentenhäufigkeit basieren. Die meisten Arbeiten in der Literatur erstellen jedoch Wort-zu-Wort-Graphen innerhalb eines Dokuments oder einer Sammlung von Dokumenten, bevor sie eine Art Random Walk anwenden. Ein solcher Graph berücksichtigt nicht den Einfluss der Dokumentbedeutung auf die Schlüsselwortextraktion. Darüber hinaus hat Social-Media-Text wie ein Microblog-Post in der Regel spezielle soziale Funktionen wie Hashtag und so weiter, die uns helfen können, das Thema zu verstehen. In diesem Artikel schlagen wir ein Hashtag-verzerrtes Ranking für die Keyword-Extraktion aus einer Sammlung von Microblog-Posts vor. Wir erstellen zunächst einen gewichteten Wort-Post-Graphen, indem wir die Posts selbst berücksichtigen. Dann wird auf dieses Diagramm ein Hashtag-biased Random Walk angewendet, der unseren Ansatz zum Extrahieren von Keywords gemäß dem Hashtag-Thema leitet. Schließlich wird die endgültige Rangfolge eines Wortes durch die stationäre Wahrscheinlichkeit nach einer Anzahl von Interaktionen bestimmt. Wir evaluieren unsere vorgeschlagene Methode anhand eines echten chinesischen Microblog-Posts. Experimente zeigen, dass unsere Methode in Bezug auf die Genauigkeit effektiver ist als das traditionelle Wort-zu-Wort-Graphen-Ranking.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25159-2_32 e878b0c51f62995c857e1432b43c706e;de;;;7.3.;;;Identifizierung bösartiger Webseiten durch induktives Lernen Schädliche Webseiten sind in den letzten Jahren eine zunehmende Bedrohung für aktuelle Computersysteme. Herkömmliche Antivirentechniken konzentrieren sich normalerweise auf die Erkennung der statischen Signaturen von Malware und sind gegen diese neuen Bedrohungen unwirksam, da sie mit Zero-Day-Angriffen nicht umgehen können. In diesem Beitrag wird eine neuartige Klassifizierungsmethode zur Erkennung schädlicher Webseiten vorgestellt. Diese Methode ist die Generalisierung und Spezialisierung von Angriffsmustern basierend auf induktivem Lernen, die zur Aktualisierung und Erweiterung der Wissensdatenbank verwendet werden kann. Das Angriffsmuster wird anhand eines Beispiels erstellt und durch induktives Lernen verallgemeinert, mit dem unbekannte Angriffe erkannt werden können, deren Verhalten dem Beispiel ähnelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05250-7_47 4ec181897183ccf10b78b0b20164757d;de;;;7.3.;;;Eine vom Client wahrgenommene Leistungsbewertung von Webservern In diesem Papier bewerten wir die Leistung von Webservern, wie sie von einem Client wahrgenommen wird. Wir bewerten die Leistung von Webservern, wenn (i) keine Daten zwischen einem Webserver und einem Client fließen und (ii) Daten vom Webserver zum Client fließen. Die Leistungsparameter, auf die wir uns konzentriert haben, sind: Roundtrip-Latenzen, Zugriffsrate und Verbindungsdurchsatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22714-1_32 20158d367e0b87df4324121c353ad141;de;;;7.3.;;;Internet of Everything (IoE): Eine neue Ära des IoT Nach der Einführung des Internet of Things (IoT) ist ein ganz neuer Begriff entstanden, nämlich Internet of Everything (IoE). Bevor man über Internet of Everything diskutiert, muss man wissen, was es bedeutet. Im Internet of Everything-Prozess werden Menschen, Daten und Dinge intelligent miteinander verbunden. Internet of Everything ist eine Plattform, die die Verbindung zwischen Prozessen, Personen, Daten und Dingen wertvoller und relevanter macht. IoE generiert neue Möglichkeiten für Unternehmen, Einzelpersonen und Länder, indem es Informationen in Aktionen umwandelt. Internet of Everything basiert auf dem Internet der Dinge mit der Einbindung von Intelligenz in das Netzwerk. Mit Intelligenz im Netzwerk meinen wir, dass ein Netzwerk aus verschiedenen Dingen zusammen mit den Orchestrierungs- und Konvergenzeigenschaften Transparenz über frühere verschiedene Systeme hinweg aufweisen muss. Die heutigen IP-fähigen modernen Geräte und die einfache Verfügbarkeit von Breitband- und Internetdiensten zusammen mit den Vorteilen von IPV6 haben es möglich gemacht, neue Verbindungen zum Internet of Everything zu schaffen. IoE hat gegenüber IoT Bedeutung in Bezug auf Sicherheit, Netzwerküberlastung, Datenschutz und Energieverbrauch. IoE umfasst ein Netzwerk kontextbewusster Geräte, das eine wichtige Rolle spielt. Diese sichere IoE-Infrastruktur kann ohne Kompromisse bei Intelligenz und Sicherheit skaliert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-8715-9_1 3373140417d08d5e4d3bc063f417bde7;de;;;7.3.;;;Eine Strategie zur Pflege eines mandantenbasierten Web Warehouse Derzeit besteht ein häufiges Problem der Inkonsistenz von Echtzeitdaten zwischen Quelltransaktionssystemen und Data Warehouse. ECA, ein bekannter Algorithmus, ist sehr effektiv bei der Behebung der Ansichtspflegeanomalie, indem er Kompensationsabfragen verwendet. ECA verwaltet jedoch keine Informationen über das Data Warehouse und muss kompensierende Anfragen an das Quellsystem senden, was zu Leistungseinbußen führt. Dieses Papier schlägt eine neue Strategie für die Pflege von Data Warehouse in einer Web-Umgebung vor, ohne Aktualisierungsabfragen an das Quellsystem zu senden. Um die Konsistenz in Echtzeit zu gewährleisten, erstellen automatisch installierte Web-Client-Programme Änderungsabfragen für jede Aktualisierungsabfrage an das Quellsystem. Änderungsabfragen, die jeder Aktualisierungsabfrage zugeordnet sind, werden auf Web-Warehouse-Ebene ohne Verbindung zum Quellensystem verarbeitet. Somit verschwindet das Problem, dass eine einzelne Änderungsabfrage auf mehrere Quellsysteme zugreifen muss, und die Systemleistung verbessert sich. Durch Simulation wird die Leistung der vorgeschlagenen Strategie mit früheren Lösungen verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/11527725_16 8d020409d0446879001e426462f9f4d7;de;;;7.3.;;;Die Auswirkungen von Konjunktionen, Facettenstruktur und Wörterbuchkombinationen bei der konzeptbasierten sprachübergreifenden Suche Die Arbeit beschäftigt sich mit konzeptbasiertem sprachübergreifendem Information Retrieval (CLIR). Die Dokumentensammlung war eine Teilmenge der TREC-Sammlung. Die Testanfragen wurden aus den gesundheitsbezogenen Themen von TREC gebildet. Als Übersetzungswörterbücher verwendet die Studie ein allgemeines Wörterbuch und ein domänenspezifisches (=medizinisches) Wörterbuch. Die Auswirkungen von Übersetzungsmethode, Konjunktion und Facettenreihenfolge auf die Effektivität konzeptbasierter sprachübergreifender Abfragen wurden untersucht und die konzeptbasierte Strukturierung sprachübergreifender Abfragen mit der mechanischen Strukturierung basierend auf Wörterbüchern verglichen. Die Leistung übersetzter finnischer Abfragen gegen englische Dokumente wurde mit der Leistung englischer Originalabfragen gegen englische Dokumente verglichen und die Leistung verschiedener CLIR-Abfragetypen wurde miteinander verglichen. Zwischen konzeptbasierter und mechanischer Strukturierung wurde kein wesentlicher Unterschied festgestellt. Die beste Übersetzungsmethode war ein simultanes Nachschlagen im medizinischen Wörterbuch und im allgemeinen Wörterbuch, wobei sprachübergreifende Abfragen ebenso durchgeführt wurden wie die ursprünglichen englischen Abfragen. Die Ergebnisse zeigten, dass sprachübergreifende Abfragen insbesondere bei hohen Erschöpfungsstufen (der Anzahl sich gegenseitig einschränkender Konzepte in einer Anforderung) im Vergleich zu einsprachigen Abfragen gut abschneiden. Dies legt nahe, dass die Konjunktion sprachübergreifende Abfragen eindeutig macht. Es wurde eine umfangreiche Studie zur relativen Bedeutung der Konzepte der Anfragen durchgeführt. Anhand der Klassifikationsdaten von Anfragekonzepten wurde gezeigt, wie sich die Reihenfolge der Facetten in einer Anfrage auf sprachübergreifende sowie einsprachige Anfragen auswirkt.;-;-;-;https://link.springer.com/article/10.1023/A%3A1009939707058 91169e71830e470cca63822167164acb;de;;;7.3.;;;Ein umfangreiches System zum Suchen und Durchsuchen von Bildern aus dem World Wide Web Dieses Papier skizziert die technischen Details eines prototypischen Systems zum Suchen und Durchsuchen von über einer Million Bildern aus dem World Wide Web mit ihren visuellen Inhalten. Das System basiert auf zwei Modalitäten für den Zugriff auf Bilder – automatisierte Bildanmerkung und NN;-;-;-;https://link.springer.com/chapter/10.1007/11788034_63 fb85c0a1a457cff82f7b34d71793170b;de;;;7.3.;;;Verbreitung des Webs Dieses Papier demonstriert die Verwendung eines Physical/Spatial Computing Model (SPREAD) zum Aufbau kontextbezogener Web- (oder Wap-) Informationssysteme. Der vorgestellte Ansatz besteht darin, Informationselemente in der Umgebung zu verbreiten (durch drahtlose Kurzstreckentechnologien), dann ermöglicht das Erfassen dieser Daten die Integration einer Kontextbeschreibung, die verwendet werden kann, um Benutzern zu helfen, nahtlos im Web zu navigieren, während sie sich bewegen. Der Beitrag trägt zu einer einheitlichen Definition des Kontextbegriffs bei, die sowohl auf reale (physische) als auch auf virtuelle (Informationssystem) Umgebungen anwendbar ist. Das zugrundeliegende SPREAD-System wird ebenfalls vorgestellt, sowie sein Potenzial für dynamische Webinhalte, die von physischen Einheiten gesteuert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39867-7_36 fdb2de492c152cba9ff03950cc628ded;de;;;7.3.;;;Jenseits der sozialen Suche: Personalisierung der semantischen Suche in sozialen Netzwerken Heutzutage sind Suchmechanismen entscheidend, damit Menschen erfolgreich auf relevante und wertvolle Informationen zugreifen können. In der aktuellen Webumgebung stellen Menschen, die über Social Network Services (SNSs) miteinander verbunden sind, neue Herausforderungen an Suchansätze. Die neuere Literatur auf dem Gebiet der SNS zeigt eine ausdrucksstarke Entwicklung, aber die Suchansätze verwenden immer noch Mechanismen, die nur die syntaktische Verarbeitung der Informationen berücksichtigen. Basierend auf soziokulturellen Aspekten eines SNS schlagen wir einen neuartigen Ansatz vor, der eine personalisierte semantische Suche ermöglicht. Dieser Ansatz verwendet Ontologien, um die gemeinsamen Bedeutungen darzustellen und folglich besser organisierte, sortierte und angepasste Suchergebnisse für jeden SNS-Benutzer zu präsentieren. Das Papier stellt die Umsetzung des vorgeschlagenen Mechanismus vor und zeigt Beispiele auf, die die durch den Ansatz eröffneten Möglichkeiten veranschaulichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21796-8_37 e6df0dca815c0d83b70b2feec67e288e;de;;;7.3.;;;Linkbasierte Anzeige mehrerer Web-API-Repositorys Die gemeinsame Nutzung von Web-APIs, angetrieben durch große online verfügbare Repositorys, wird für die agile Entwicklung von Webanwendungen von größter Bedeutung. Ansätze zur gemeinsamen Nutzung von Web-APIs beruhen normalerweise auf einzelnen Web-API-Repositorys, die ergänzende Web-API-Beschreibungen bereitstellen, auf denen verschiedene Suchfunktionen implementiert werden können. In diesem Papier schlagen wir ein Framework vor, um eine verknüpfte Ansicht über mehrere Repositorys zu definieren und deren Inhalt zu durchsuchen. Insbesondere wenden wir die Linked Data-Prinzipien an, um Repository-Inhalte zu veröffentlichen und semantische Links über sie hinweg zu identifizieren, um komplementäre Web-API-Beschreibungen zu nutzen. Wir diskutieren, wie die gemeinsame Nutzung von Web-APIs über mehrere Repositorys, basierend auf einer solchen Link-basierten Ansicht, von Auswahlkriterien profitieren kann, die mehrere Aspekte der Web-API-Charakterisierung kombinieren. Eine vorläufige Evaluierung basierend auf zwei beliebten öffentlichen Web-API-Repositorys wird ebenfalls vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10073-9_30 ec1400cfae097c433c9929f0338a6650;de;;;7.3.;;;Softwareagentenorientierte Frameworks für die Interoperabilität von georeferenzierten digitalen Bibliotheken im World Wide Web: Das Sigal-Projekt Innerhalb einer Organisation, die raumbezogene Daten verwaltet, werden verschiedene Arten von Dokumenten verwendet, um das Land und seine Ressourcen zu beschreiben (z. Die Verwaltung solcher Dokumente ist eine komplexe Aufgabe, wobei jedes Dokument durch seinen eigenen Inhalt, räumliches Bezugssystem, Qualität, Quellen, Verbreitungsart und Format gekennzeichnet ist. Daher können georeferenzierte digitale Bibliotheken (GDLs) sehr nützlich und hilfreich sein, um die verfügbaren Geodokumentressourcen in einer Organisation zu beschreiben. GDLs liefern beispielsweise Informationen über den physischen Standort der Dokumente und identifizieren, wer was, wann und wie tut. GDLs werden heutzutage im World Wide Web (WWW) implementiert, hauptsächlich um die Verbreitung von Geodaten zu erleichtern. Dies sind die GDLs von Interesse für dieses Kapitel, obwohl die Forschung nicht auf das WWW beschränkt ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5189-8_27 4dc26147627e7a348f6164ed0b001ab4;de;;;7.3.;;;Robin: Extrahieren von visuellen und textuellen Funktionen aus Webseiten Webseiten enthalten Informationen in verschiedenen Formen. Dazu gehören Textinformationen wie Wörter und visuelle Informationen wie Bilder, Farbverwendung und Layout. Wir schlagen eine Methode zum Extrahieren der charakteristischen Merkmale sowohl aus den Text- als auch aus den visuellen Informationen in Webseiten vor. Unsere Methode ermöglicht die nahtlose Integration der beiden Informationsarten und die automatische Extraktion ihrer charakteristischen Merkmale. Basierend auf dieser Methode entwickelten wir ein Proof-of-Concept-System namens;-;-;-;https://link.springer.com/chapter/10.1007/11610113_71 274138ce9e4692d7fbcadcdbd47b0ad0;de;;;7.3.;;;Proxy-unterstützte regelmäßige Übertragung für Videostreaming mit mehreren Servern Großes Videostreaming über das Internet erfordert eine große Menge an Ressourcen, wie z. Eine Reihe von Videoübertragungstechniken kann verwendet werden, um diese Anforderungen zu verringern. Periodisches Broadcasten durch einen zentralen Server in Kombination mit Proxy-Caching bietet eine erhebliche Reduzierung der gesamten Netzwerk- und Server-E/A-Bandbreitennutzung. Die Ressourcen, die einem einzelnen Server zur Verfügung stehen, sind jedoch immer noch begrenzt. In diesem Beitrag schlagen wir ein System mit;-;-;-;https://link.springer.com/article/10.1007/s11042-007-0135-6 19751f43b8ec618b4804dfea298e4f0c;de;;;7.3.;;;Ein webbasiertes Learning Resource Service System basierend auf Mobile Agent Die Qualität des Lernressourcendienstes ist ein wesentlicher Punkt in einem E-Learning-Anwendungssystem. In diesem Beitrag wird ein neuartiges Lernressourcen-Dienstmodell vorgeschlagen, das auf der Anwendung von Mobile Agent und Web Services-Technologie basiert. Im Gegensatz zu den herkömmlichen Ansätzen berücksichtigt unser System das Digital Rights Management der Lernressource und implementiert die Digital Rights Validation Funktion mit Hilfe der Agentenkommunikationssprache und der Digital Rights Expression Language. Darüber hinaus werden in unserem Modell auch die Lernressourcenübertragungsstrategie basierend auf Web Services und die Ressourcensuchstrategie basierend auf dem mobilen Agenten eingeführt. In diesem Papier stellen wir zunächst die Schichtstruktur unseres Lernressourcen-Dienstmodells vor. Dann analysieren wir den Kontrollprozess für digitale Rechte der Ressource und den Suchfluss des Ressourcenagenten, die alle die wichtigsten Geschäftslogiken im System darstellen. Schließlich implementieren wir gemäß der genannten Technologie und Modell ein angewandtes Lernressourcen-Service-System für ein nationales E-Learning-Portal für Hochschulen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76993-4_26 69c974c8eca0ee7373d235dce5f87795;de;;;7.3.;;;Erkennung von semantischen Webdiensten mit logikbasierter Methode Im Zeitalter von SOA gewinnen Webservices in verschiedenen Bereichen an Bedeutung und E-Commerce ist eine der zukunftsträchtigen Domänen. Es stehen viele Methoden zur Verfügung, um Webdienste basierend auf der Syntax zu entdecken, aber auch viele irrelevante Dienste werden mit dieser Methode erhalten. Um das Problem der Syntax-basierten Verfahren zu überwinden, gibt es verschiedene semantik-basierte Entdeckungsmethoden wie in der Literaturübersicht. In diesem Artikel schlagen wir eine skalierbare Methode zur Erkennung von semantischen Webdiensten vor, ohne die Ausdruckskraft durch Argumentation mit Prolog und Graphdatenbank wie Allegro Graph zu beeinträchtigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11933-5_70 143c3ca0c881ca0011656bb40d89f094;de;;;7.3.;;;Objekterkennung für das Internet der Dinge Wir präsentieren ein System, das es ermöglicht, Informationen zu physischen Objekten abzurufen, indem ein Foto von ihnen gemacht wird. So können Nutzer über ein Mobiltelefon mit integrierter Kamera auf sehr einfache Weise mit Objekten oder „Dingen“ interagieren. Ein weiterer Vorteil ist, dass die Objekte selbst nicht mit irgendwelchen Markern versehen werden müssen. Den Kern unseres Systems bildet ein Objekterkennungsverfahren, das ein Objekt aus einem Abfragebild durch mehrere Erkennungsstufen identifiziert, einschließlich lokaler visueller Merkmale, globaler Geometrie und optional auch Metadaten wie GPS-Standort. Wir präsentieren zwei Anwendungen für unser System, nämlich eine Slide-Tagging-Anwendung für Präsentationsbildschirme in smarten Besprechungsräumen und einen Cityguide auf dem Handy. Beide Systeme sind voll funktionsfähig, einschließlich einer Anwendung auf dem Mobiltelefon, die einfachste Point-and-Shoot-Interaktion mit Objekten ermöglicht. Experimente evaluieren die Leistungsfähigkeit unseres Ansatzes in beiden Anwendungsszenarien und zeigen gute Erkennungsergebnisse unter anspruchsvollen Bedingungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78731-0_15 191b4b0ed801990bfb6f516d3674f676;de;;;7.3.;;;Möglichkeiten zur Verbesserung der Qualität der Textdatensuche im Internet Es wird argumentiert, dass die Qualität einer textuellen Datensuche im Internet aufgrund jahrhundertelanger Missverständnisse über die inhaltliche Struktur von Texten gering ist. Es werden Methoden zur Verbesserung der Qualität von Internetrecherchen vorgeschlagen.;-;-;-;https://link.springer.com/article/10.3103/S000510551304002X 65598d59ce91e8ae92de65e1e630c161;de;;;7.3.;;;Auf dem Weg zur automatisierten sicheren Ausführung von Webdiensten Bestehende Lösungen zur Authentifizierung und Autorisierung in Webservices nutzen Technologien wie SAML oder WS-Security. Diese bieten eine statische Lösung, indem sie eine Reihe vordefinierter Protokolle verwenden. Wir schlagen ein semantisches Sicherheitsprotokollmodell vor, aus dem Sicherheitsprotokollspezifikationen generiert und von den Teilnehmern automatisch ausgeführt werden. Das vorgeschlagene Modell besteht aus einer sequentiellen Komponente, die als WSDL-S-Spezifikation implementiert ist, und einer Ontologiekomponente, die als OWL-Spezifikation implementiert ist. Die Korrektheit des vorgeschlagenen Modells wird durch die Verwendung eines Satzes von Regeln und Algorithmen zu seiner Generierung auf der Grundlage eines vom Benutzer vorgegebenen Protokollmodells sichergestellt. Wir validieren unseren Ansatz, indem wir mehrere Spezifikationen für bestehende Protokolle wie ISO9798 oder Kerberos-Protokolle generieren und implementieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01399-7_74 28028a6f04f5acb66c96f4345c4948be;de;;;7.3.;;;Automatisierte Migration datenintensiver Webseiten in Ontologie-basiertes Semantisches Web: Ein Reverse Engineering-Ansatz Der Fortschritt des Webs hat die Art und Weise der Informationsorganisation, -teilung und -verteilung stark und schnell verändert. Die nächste Generation des Webs, das Semantic Web, versucht Informationen für Maschinen besser nutzbar zu machen, indem eine strengere Struktur auf der Grundlage von Ontologien eingeführt wird. In diesem Zusammenhang versuchen wir einen neuartigen und integrierten Ansatz für eine automatisierte Migration datenintensiver Webseiten in das ontologiebasierte Semantic Web vorzuschlagen und damit die Webinhalte maschinenverständlich zu machen. Unser Ansatz basiert auf der Idee, dass Semantik aus den Strukturen und den Instanzen von Datenbankformularen extrahiert werden kann, die die bequemste Schnittstelle zur Kommunikation mit relationalen Datenbanken im aktuellen Web sind. Diese Semantik wird ausgenutzt, um die Ontologie aufzubauen.;-;-;-;https://link.springer.com/chapter/10.1007/11575801_46 a55e38b7c49a132738e13ff3ee2c8dec;de;;;7.3.;;;Einfache Websuche für Menschen mit Lernbehinderungen als Teil eines integrierten Konzepts der kognitiven Barrierefreiheit Barrierefreies Web für Menschen mit kognitiven oder Lernbehinderungen bedeutet nicht nur eine einfache Lesbarkeit und Schriftgröße. Jede Interaktion muss entsprechend den Bedürfnissen dieser Zielgruppe reflektiert werden. Dieses Papier beschreibt den ersten Schritt zu einer einfach zu bedienenden Benutzeroberfläche für die Websuche, die Menschen mit Lernschwierigkeiten hilft, eine Abfrage mit einem korrekt geschriebenen und aussagekräftigen Suchwort zu starten. Es ist auch ein Vorschlag, wie die Leitlinie 3.3 „Eingabehilfen“ der WCAG 2.0 im Bereich der Suchfunktion und kognitiven Zugänglichkeit erfüllt werden könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14097-6_104 afc7e82a31e0b56fc655b9db3bd8a437;de;;;7.3.;;;Personalisierte TV-Dienste und T-Learning basierend auf TV-Anytime-Metadaten Um personalisierte Rundfunkdienste und T-Learning zu unterstützen, schlagen wir vor, den TV-Anytime-Standard zu verwenden. Das TV-Anytime-Forum ist eine Vereinigung von Organisationen, die Spezifikationen entwickeln möchte, um audiovisuelle und andere Dienste auf der Grundlage von Massenmarkt-Digitalspeichern mit hohem Volumen in Verbraucherplattformen wie einer Set-Top-Box (STB) zu ermöglichen. Der TV-Anytime-Standard wird entsprechend seiner Funktionalität in Phase 1 und 2 eingeteilt. Ersteres unterstützt PVR-basierte Anwendungen in einer unidirektionalen Übertragung und letzteres befasst sich mit der gemeinsamen Nutzung und Verteilung von Rich Content zwischen lokalen Speichergeräten und/oder digitalen Netzwerkrekordern in Heimnetzwerkumgebungen. In diesem Beitrag geben wir zunächst einen Überblick über die TV-Anytime-Spezifikationen und stellen zweitens ein End-to-End-Prototypsystem für personalisierte Rundfunkdienste auf Basis des TV-Anytime-Phase-1-Standards vor, das aus einem Metadaten-Autorentool, einem Übertragungsserver und einer Set-Top-Box besteht . Als letztes schlagen wir die Methode vor, das Inhaltspaket in TV-Anytime Phase 2 zu verwenden, um eine T-Lernumgebung zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/11581772_19 22b5abb53e4e1a5aaef2048a60a9421f;de;;;7.3.;;;Gemeinsam surfen Birds of a Feather: Mit Clustering-Methoden die Navigationsvorhersage aus Internet-Protokolldateien verbessern Viele Systeme versuchen, die Benutzernavigation im Internet durch die Verwendung von vergangenem Verhalten, Präferenzen und Umweltfaktoren vorherzusagen. Die meisten dieser Modelle übersehen die Möglichkeit, dass Benutzer viele unterschiedliche Präferenzen haben. Beispielsweise kann dieselbe Person nachts (wenn sie ihren Hobbies und Interessen nachgeht) auf unterschiedliche Weise nach Informationen suchen als tagsüber (wenn sie bei der Arbeit ist). Somit können die meisten Benutzer zu unterschiedlichen Tageszeiten durchaus unterschiedliche Sätze von Präferenzen haben und sich entsprechend diesen Präferenzen unterschiedlich verhalten. In diesem Artikel stellen wir Clustering-Methoden zur Erstellung zeitabhängiger Modelle zur Vorhersage von Benutzernavigationsmustern vor. Diese Methoden ermöglichen es uns, Protokolldateien in geeignete Gruppen von Navigationsverhalten zu segmentieren. Die Vorteile dieser Methoden gegenüber etablierteren Methoden werden hervorgehoben. Eine empirische Analyse wird an einer Probe von Nutzungsprotokollen für das Durchsuchen des Wireless Application Protocol (WAP) als empirische Unterstützung für die Technik durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/11510888_18 ad4bcd186c1da6ad45f7338033056fa1;de;;;7.3.;;;Neue Ansätze zur Integration von GIS-Layern und Fernerkundungsbildern für Online-Kartendienste In diesem Artikel wird ein Web-Mapping-System, UrMap, vorgestellt, das neue Ansätze zur Integration von GIS-Layern und Fernerkundungsbildern enthält. UrMap ist eine Website für standortbasierte Online-Dienste (LBS), die von OleMap Inc. in Zusammenarbeit mit dem FORMOSAT-2 Image Application Distribution Center der National Taiwan Normal University und der National Space Organization (NSPO) in Taiwan entwickelt wurde. Das Ziel von UrMap ist es, der breiten Öffentlichkeit in Taiwan elektronische Straßenkartendienste und standortbezogene Informationen bereitzustellen. In diesem Kapitel werden auch die verschiedenen Arten von Kartenentwurfsstrategien zwischen Web-GIS-Anwendungen im westlichen Stil (Google Map) und Web-GIS-Anwendungen im östlichen Stil (UrMap) erörtert. Web-GIS-Anwendungen in verschiedenen Regionen und Landkreisen verwenden unterschiedliche Kartenentwurfsprinzipien und haben unterschiedliche Strategien für das Kartenlayout, obwohl sie möglicherweise dieselben grundlegenden Web-GIS-Technologien verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72029-4_6 aa56827a7f623467167b6085a3963d30;de;;;7.3.;;;Konzeptionelles Web-Wissen in Web-Dokumenten entdecken Das Web bietet praktisch unbegrenzte, aber schlecht organisierte Informationsressourcen, die das Problem der Informationsflut verursachen. Es resultiert normalerweise aus einer Abfrage, die nicht den beabsichtigten Sinn der Abfragewörter angibt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30202-5_47 44b25457b224b3880a7b6f00aca2e7bc;de;;;7.3.;;;Verwenden von Dialogen für den Zugriff auf semantisches Wissen in einem Web-IR-System Wir stellen ein Dialogsystem vor, das den Zugriff in natürlicher Sprache auf ein webrechtliches Informationsabrufsystem ermöglicht. Wir verwenden eine semantische Websprache, um das Dokumentenwissen zu modellieren und eine Ontologie zu definieren, die die Hauptklassen von Domänenobjekten, ihre Eigenschaften und ihre Beziehungen repräsentiert. Unser System umfasst eine Ontologie in DAML+OIL-Sprache, die die Dokumentenstruktur beschreibt, eine Dokumentendatenbank, die mit einer Teilmenge der Dokumente der portugiesischen Staatsanwaltschaft erstellt wurde, wobei jedes Dokument ein Feld mit seinem semantischen Inhalt enthält, der in DAML+OIL beschrieben ist. Das Dialogsystem interpretiert die Sätze in natürlicher Sprache des Benutzers unter Verwendung der Ontologie, des semantischen Inhalts der Dokumente und der abgeleiteten Benutzereinstellungen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45011-4_32 b45f3862b22d65218ce7021d830f6902;de;;;7.3.;;;Zur substanziellen Experimentstudie zur Proxing Assurance zwischen OpenID und SAML: Technical Perspective for Private Information Box Project of Japanese E-Government Die fundierte experimentelle Studie des privaten Informationsbox-Projekts des japanischen e-Government bewies die Wirksamkeit der neuen Authentifizierungserweiterungstechnologie, um verschiedene soziale Infrastrukturen zu kombinieren, um neue sichere Dienste zwischen dem öffentlichen Sektor und dem privaten Sektor (Bürger) zu schaffen. Obwohl es immer noch Probleme außerhalb des Bereichs der Technologie gibt, einschließlich der Verantwortlichkeit jedes Teilnehmers und der Ebene des Dienstes, sind OpenID und SAML wichtige föderierte Identitätsprotokolle. Sowohl SAML als auch OpenID definieren Mechanismen zur Unterstützung des Ausdrückens von Sicherheitsinformationen in Protokollnachrichten bzw. Authentication Context und der Provider Authentication Policy Extension (PAPE). In Bereitstellungsszenarien, die ein Proxying von einem der Protokolle zum anderen erfordern, wird es notwendig, die entsprechenden Sicherungsmechanismen abzubilden. Dieses Papier bietet theoretische und experimentelle Untersuchungen zu dieser Kartierung und verwandten Fragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16419-4_39 854cba260459445cbfb87dcc4b80f28c;de;;;7.3.;;;Auf dem Weg zur zertifikatsbasierten Authentifizierung für die mobile Kommunikation der Zukunft Die zertifikatsbasierte Authentifizierung von Parteien stellt ein leistungsfähiges Mittel zur Überprüfung von behaupteten Identitäten dar, da Kommunikationspartner für die Authentifizierung keine Geheimnisse im Voraus austauschen müssen. Dies ist besonders wertvoll für Roaming-Szenarien in zukünftigen Mobilkommunikationen, bei denen sich Benutzer authentifizieren, um einen Netzzugang zu erhalten – der Dienstzugang kann möglicherweise in integrierten Ansätzen darauf basieren – und bei denen erwartet wird, dass die Anzahl von Zugangsnetzanbietern und Internetdienstanbietern beträchtlich zunehmen wird. Beim Umgang mit Zertifikaten muss man sich aus Sicherheitsgründen mit der Verifizierung kompletter Zertifikatspfade befassen. In der Mobilkommunikation existieren zusätzliche Beschränkungen, unter denen diese Verifizierungsarbeit durchgeführt wird. Diese Einschränkungen erschweren die Verifizierung im Vergleich zu nicht-mobilen Kontexten. Mobile Geräte können eine begrenzte Kapazität für die Berechnung haben und mobile Kommunikationsverbindungen können eine begrenzte Bandbreite haben. In diesem Papier schlagen wir vor, PKI-Server einzusetzen, wie sie beispielsweise bei FhG-SIT implementiert sind und die die Delegation der Zertifikatspfadvalidierung ermöglichen, um die Verifizierung zu beschleunigen. Darüber hinaus schlagen wir eine spezielle Struktur für PKI-Komponenten und spezifische Kooperationsmodelle vor, die kurze Zertifikatspfade erzwingen, d. h. die Länge der Zertifikatspfade wird abhängig von den Bedingungen des Einzelfalls auf bestimmte kleine Werte begrenzt. Außerdem beschäftigen wir uns mit dem Problem von Benutzern, die während der Authentifizierungsphase keinen Internetzugang haben. Wir erklären, wie wir dieses Problem gelöst haben und zeigen eine Lücke in bestehenden Standards auf.;-;-;-;https://link.springer.com/article/10.1023/B%3AWIRE.0000047067.12167.67 972674cac72b4144768350dfb04daa90;de;;;7.3.;;;Architektur für einen parallel fokussierten Crawler für die Clickstream-Analyse Das enorme Wachstum des Webs stellt Allzweck-Einzelprozess-Crawler vor viele Herausforderungen, einschließlich des Vorhandenseins einiger irrelevanter Antworten in den Suchergebnissen und der Abdeckungs- und Skalierungsprobleme in Bezug auf die enorme Dimension des World Wide Web. Inzwischen sind verbesserte und überzeugendere Algorithmen gefragt, um in angemessener Zeit präzisere und relevantere Suchergebnisse zu liefern. Aufgrund der Tatsache, dass die Verwendung der Link-basierten Webseiten-Bedeutungsmetriken in Suchmaschinen keine absolute Lösung ist, um die beste Antwortmenge des gesamten Suchsystems zu identifizieren, und weil die Verwendung solcher Metriken innerhalb eines Multi-Prozess-Crawlers einen erheblichen Kommunikationsaufwand für die Gesamtsystem ist die Verwendung einer linkunabhängigen Web-Seiten-Wichtigkeitsmetrik erforderlich, um die Prioritätsregel innerhalb der Warteschlange der abgerufenen URLs zu regeln. Das Ziel dieses Papiers ist es, eine bescheidene gewichtete Architektur für einen fokussierten strukturierten parallelen Crawler vorzuschlagen, bei der die Kreditzuweisung zu den gefundenen URLs anhand einer kombinierten Metrik basierend auf Clickstream-Analyse und Ähnlichkeitsanalyse von Webseitentexten zu den angegebenen zugeordneten Themen durchgeführt wird ).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20039-7_3 fdb50693794d5657dda981d4d96d3dbe;de;;;7.3.;;;Untersuchung von Service Discovery, Management und Netzwerkunterstützung für objektorientierte Dienste der nächsten Generation Die Netzwerk-Computing-Industrie hat sich eifrig Technologien angenommen und eine ständig wachsende Vielfalt neuer Diensterkennungsprotokolle und Objektarchitekturen begrüßt. Mit dieser Fülle, die jetzt in einer Vielzahl von Umgebungen angeboten wird, werden Technologien, die standardisierte Schnittstellen für den Erkennungsprozess bieten und gleichzeitig die Kommunikation für verschiedene Arten von Dienstzugangstechnologien unterstützen, langfristig die größtmögliche Interoperabilität und Ausfallsicherheit bieten. In diesem Whitepaper stellen wir eine verteilte Architektur vor, die auf der Verwendung von Verzeichnisdiensten basiert, um die Komplexität der Verwaltung der Informationen und Dienste, die zur Unterstützung vernetzter Anwendungen der nächsten Generation erforderlich sind, erheblich zu reduzieren, indem eine automatische Diensterkennung und ein einziges kohärentes Modell zur Darstellung der von verwalteten Daten bereitgestellt werden Unterstützende Dienste. Es werden auf Standards basierende Lösungen verwendet und eine prototypische Implementierung des CORBA Naming Service vorgestellt, die entworfen wurde, um zu veranschaulichen, wie die Architektur verteilte Objektmodelle, Verzeichnisdienste und Multicast-basierte dynamische Diensterkennung umfasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35584-9_5 6e4e5ccce951e4a4db197a5629d40ade;de;;;7.3.;;;Web Accessibility: Design und Test einer webbasierten Anwendung für Menschen mit Behinderungen Die neueste technologische Entwicklung in der Web- und Mobilkommunikationstechnologie hat den Zugang zum Internet über das internetfähige Mobiltelefon erheblich vereinfacht. Aber dieses rasante technologische Wachstum hat nicht alle Schichten der Gesellschaft berührt, insbesondere die unterprivilegierten wie die wirtschaftlich schwächeren Schichten der Gesellschaft und die Menschen mit Behinderungen. Daher bemühen wir uns in diesem Papier, die webbasierte Anwendung für körperbehinderte Personen auf Mobiltelefonen zu entwerfen und zu entwickeln. Unser Hauptaugenmerk liegt darauf, die Bedürfnisse und Anforderungen von körperlich behinderten Personen zu verstehen und dann die Anwendung zu entwickeln, die sie auf den Mobiltelefonen effizient nutzen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-6154-8_71 2d77aeaa50db9669a056793b0696251c;de;;;7.3.;;;Analyse sozialer Netzwerke und Untersuchung der organisierten Kriminalität: Angemessenheit von Netzwerken, organisierte Cyberkriminalität, portugiesischer Rahmen Die Social Network Analysis (SNA) ist mittlerweile in der akademischen Gemeinschaft bei der Untersuchung organisierter krimineller Netzwerke weit verbreitet. Es ermöglicht die Analyse des Netzwerks als komplexe Struktur, die aus Akteuren oder Einheiten besteht, die durch Verbindungen oder Beziehungen verbunden sind und in der eine Vielzahl von Ressourcen verändert wird. Obwohl diese Methode auf verschiedenen Ebenen über Fähigkeiten und Innovationen verfügt, weist sie auch einige Einschränkungen auf, die weitere Aufmerksamkeit erfordern. Dennoch unternimmt die SNA noch ihre ersten Schritte im Kampf gegen die organisierte Cyberkriminalität sowie in Portugal. Vor diesem Hintergrund beschreibt und analysiert dieser Artikel kritisch die Nützlichkeit von SNA für die kriminalpolizeiliche und nachrichtendienstliche, prozessuale und politische Ebene, indem er sich auf Folgendes konzentriert: Forschung zur Cyberkriminalität und (3) die SNA in Portugal.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-44501-4_8 6a4bca18ddf64f3b3698d9183d671763;de;;;7.3.;;;Anwendung von IoT im Green Computing Das Internet der Dinge (IoT) ermöglicht eine globale Konnektivität über die weltweiten physischen Objekte. Die Welt wird durch die Entwicklung von Wissenschaft und Technologie intelligent gemacht, indem Menschen automatisch mit heterogenen Geräten zusammenarbeiten. Durch den massiven Informationsaustausch zwischen den Geräten entsteht ein enormer Energiebedarf. Das IoT ist mit Big Data Analytics und Cloud Computing verbunden, um das Verhalten intelligenter Geräte vorherzusagen, nützliche Geschäftseinblicke zu liefern und als Feedback-Steuerung zu fungieren. Darüber hinaus würden sich die meisten Organisationen dem wachsenden Interesse an der intelligenten Welt anpassen, die wiederum den Energiebedarf schneller erhöht. Darüber hinaus wächst die Zahl der Anbieter und Nutzer verschiedener Technologien ständig. Green IoT konzentriert sich vorrangig auf die Reduzierung der Umweltprobleme und die Schaffung einer nachhaltigen Umgebung im Zusammenhang mit IoT. Es wurde betont, dass der Einsatz energieeffizienter Technologien im IoT entweder die Auswirkungen von Treibhausgasen reduziert oder den Treibhauseffekt in verschiedenen IoT-Anwendungen hemmt. Green IoT hilft bei der Aufrechterhaltung des Klimas, indem es Geräte oder Elektrogeräte mit niedrigem Energieverbrauch einführt, Treibhausgasemissionen minimiert, kohlenstofffreie Materialien verwendet und die Wiederverwendbarkeit fördert. Um eine nachhaltige Umwelt zu erreichen, wird ein Überblick über Green IoT und seine Anwendungen im Hinblick auf die Minimierung des Energieverbrauchs im IoT beschrieben. Die Gestaltung von grünen Rechenzentren, Sensornetzwerken und Cloud-Computing wird mit bestimmten Richtlinien diskutiert, um Energie zu sparen. Darüber hinaus werden die unterschiedlichen Green IoT-Strategien analysiert und die Prinzipien diskutiert, die zur Erreichung von Green IoT angepasst werden können. Schließlich werden verschiedene Anwendungen des IoT beschrieben, wie z. B. Smart Home, das es dem Benutzer ermöglicht, die intelligenten Geräte wie automatisierte Türen, intelligente Schlösser, Sicherheitskameras, elektrische Geräte mit der Anwendung auf einem Smartphone oder anderen verbundenen Geräten zu steuern. Smart e-Health ist nützlich bei der Überwachung und Verfolgung von Patienten, und Smart City unterstützt Menschen durch die Vernetzung von Systemen und bietet dadurch die erforderlichen Dienste, um eine intelligentere Sicht auf das aktuelle Szenario zu bieten und das IoT wiederum grüner zu machen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4246-6_19 8b0e312e2c41cffd383b6ebc4726bae3;de;;;7.3.;;;Digitale Geschäftsstrategie und IT-Ausrichtung In den letzten Jahrzehnten hat sich die Rolle der Informationstechnologie (IT) von einem reinen Verwaltungsinstrument zu einem Werkzeug gewandelt, das organisatorische Aktivitäten strategisch unterstützt und so die Umsetzung der Geschäftsstrategie unterstützt. Technologische Innovationen sind auf dem Vormarsch, da die IT stärker in Waren, Prozesse und Dienstleistungen integriert wird. Folglich suchen die meisten Unternehmen nach Möglichkeiten, von diesen Technologien zu profitieren und sich auch daran anzupassen. Angesichts der aktuellen globalen Informationswirtschaft wird es für Unternehmen immer wichtiger, über digitale Geschäftsstrategien zu verfügen. Tatsächlich werden Big Data aus Millionen von Sensoren, Autos, intelligenten Energiezählern und auch Maschinen generiert, die in der Lage sind, Daten zu erzeugen, zu erfassen und zu kommunizieren. Big Data enthalten potenziell Informationen, die die Entscheidungsfindungsstrategie ändern und auch die Leistung einer Organisation verbessern können. Aus der Ausrichtung von IT-Strategie und Geschäftsstrategie ist in diesem Zusammenhang der Begriff „Digital Business Strategy“ (DBS) entstanden. Es gibt verschiedene Denkschulen zum Wert von DBS und sind berechtigt. Es ist jedoch bemerkenswert, dass die Unfähigkeit einer Organisation, einen Wert aus einer IT-Investition zu erzielen, möglicherweise auf die schlechte Verschmelzung ihrer IT-Strategie und ihrer Geschäftsstrategie zurückzuführen ist. Dieses Kapitel untersucht das Konzept der digitalen Geschäftsstrategie und wirft gleichzeitig Fragen auf, die das Überleben der Organisation angesichts des unaufhörlichen technologischen Fortschritts ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-26874-3_8 b5e4b9b8f7c0ee05307819174764bea1;de;;;7.3.;;;Liegt die Zukunft der Gewerkschaften im Cyberspace? V. Schlussfolgerungen Cyber-Technologie wurde als Allheilmittel für den in Schwierigkeiten geratenen Alten Gewerkschaftsbund, die Ausweitung des Neuen Gewerkschaftsbundes und zur Förderung der politischen Macht der Arbeiterbewegung vorgeschlagen. Zur Förderung dieser Ziele hat der AFL-CIO am 1. Dezember 2000 eine Website namens workingfamilies.com erstellt. Die Seite soll 17 Millionen Gewerkschaftsmitgliedern und Rentnern den Zugang zum Internet ermöglichen, der Bund bietet ihnen zudem kostengünstig Computer an. Das Web des AFL-CIO soll die Gewerkschaftsmitglieder miteinander vernetzen, Diskussionsforen, Chatrooms und E-Mail-Netzwerke anbieten, die es den Arbeitnehmern ermöglichen, regelmäßig miteinander zu sprechen und ihre Arbeitsplätze und Gemeinschaften für vom Verband unterstützte Anliegen zu mobilisieren (World Future Society, Februar 2000). Der neue Dienst ist eine Erweiterung der von der Föderation in den 1980er Jahren eingerichteten Union Privilege Benefit Programmes, um die schwankende Mitgliedschaft der Gewerkschaften umzukehren. Diese Programme umfassen reduzierte Anwaltsgebühren, eine günstigere Lebens- und Unfallversicherung, die Teilnahme an einem Motorclub, Autoreparatur- und Reiseclub-Services, einen Walt Disney World Hotel-Rabatt, einen College-Berater für Eltern, reduzierte Kosten für Lehrbücher und Software, Hypotheken- und Immobilienberatung und ein zahnmedizinisches Programm. Das Originalpaket wurde Nichtmitgliedern gegen eine geringe Gebühr angeboten, die assoziierte Mitglieder werden. Es wurde gehofft, dass die assoziierten Teilnehmer Vollmitglieder werden. Eine Reihe von Mitgliedsgewerkschaften verabschiedeten ähnliche Programme. Im Jahr 1995 fügte die Föderation eine von Household International herausgegebene Kreditkarte hinzu, für die sie fünf Jahre lang jedes Jahr 75 Millionen US-Dollar erhielt, die im Jahr 2000 endete. Die Karte hat keine Jahresgebühr und niedrige monatliche Zinsgebühren. Wie die Föderation diese Summen ausgegeben hat, ist unbekannt.;-;-;-;https://link.springer.com/article/10.1007/BF02701792 96180605d02bf9959b0f2ff04784b8e8;de;;;7.3.;;;Überprüfung der W3C WAI-Richtlinien für Benutzeragenten mit Browsern, die dem UI4ALL-Prinzip folgen Die Web Accessibility Initiative (WAI) des World Wide Web Consortium (W3C) hat eine Reihe von Richtlinien erstellt, um das Internet für alle zugänglich zu machen. Das Prinzip der „Benutzerschnittstellen für alle“ wurde vorgeschlagen, um Systeme zu entwickeln, die einer größeren Benutzergruppe zugänglich sind, einschließlich Personen mit besonderen Bedürfnissen wie Behinderten und älteren Menschen. In diesem Whitepaper wird untersucht, wie Browser, die dem UI4ALL-Prinzip folgen, mit den „User Agent Accessibility Guidelines 1.0“ konform sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0279-3_5 9aa4b06840c17efe5346468542263503;de;;;7.3.;;;Kann Social Tagging die Web-Bildersuche verbessern? Herkömmliche Web-Bildsuchmaschinen können bei Suchanfragen mit konkreten Begriffen einigermaßen genaue Ergebnisse zurückgeben, bei Suchanfragen mit nur abstrakten Begriffen wie „Frühling“ oder „Frieden“ sind die Ergebnisse jedoch weniger genau. Um die Recall-Ratio zu verbessern, ohne die Precision Ratio drastisch zu verschlechtern, haben wir eine Methode entwickelt, die einen von einem Benutzer angegebenen abstrakten Abfragebegriff durch eine Reihe konkreter Begriffe ersetzt und diese Begriffe in Abfragen in Web-Bildsuchmaschinen verwendet. Konkrete Begriffe werden für einen bestimmten abstrakten Begriff gefunden, indem Social-Tagging-Informationen verwendet werden, die aus einem Social-Photo-Sharing-System wie Flickr extrahiert wurden. Diese Informationen sind reich an Benutzereindrücken über die Objekte in den Bildern. Die Extraktion und Ersetzung erfolgt durch (1) Sammeln von Social Tags, die den abstrakten Begriff enthalten, (2) Clustern der Tags gemäß dem Begriff Co-Auftreten von Bildern, (3) Auswahl konkreter Begriffe aus den Clustern unter Verwendung von WordNet (4) Identifizieren von Sätzen konkreter Ausdrücke, die mit dem abstrakten Zielausdruck verbunden sind, unter Verwendung einer Technik zum Mining von Assoziationsregeln. Experimentelle Ergebnisse zeigen, dass unsere Methode die Rückrufquote von Web-Bildsuchen verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85481-4_19 d86b84fe2d7f6bb4ad4a9783d0ff717f;de;;;7.3.;;;Evidenzbasierte Medizin bei Bewohnern der Inneren Medizin in einem Gemeinschaftskrankenhausprogramm mit Smartphones Diese Studie implementierte und evaluierte einen Point-of-Care, drahtlosen Internetzugang mit Smartphones zum Abrufen von Informationen während der täglichen klinischen Visiten und akademischen Aktivitäten von Bewohnern der Inneren Medizin in einem Gemeindekrankenhaus. Wir haben das Projekt durchgeführt, um die Machbarkeit der Verwendung von Smartphones als Alternative zum Zugriff auf medizinische Online-Ressourcen zu prüfen, da wir keine früheren Studien dieser Art finden konnten. Darüber hinaus wollten wir erfahren, welche webbasierten Informationsressourcen die Bewohner der Inneren Medizin nutzen und ob ein Echtzeit-Zugriff auf medizinische Informationen am Krankenbett für die Patientenversorgung und akademische Aktivitäten als nützlich empfunden wird.;-;-;-;https://link.springer.com/article/10.1186/1472-6947-7-5 9eb3ab605a8148a087cd3945db78e6f5;de;;;7.3.;;;Entwerfen von Szenarien für Social Agents Eine der wichtigsten Eigenschaften autonomer Agenten für Webanwendungen ist die Fähigkeit, fließend mit menschlichen Benutzern zu interagieren. Leider werden Interaktionsmerkmale selten von Computerfachleuten erstellt, sondern meistens von Anwendungsdesignern wie Verkaufsleitern, Reisebüros und Schullehrern. Unsere Herausforderung besteht darin, Agententechnologien zu erweitern, um die gesellschaftliche Akzeptanz von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-05320-1_4 9f678d6b99727f22e4ce95964a85baeb;de;;;7.3.;;;XML-basierte Prozessdarstellung für E-Government-Serviceflows Angesichts neuer öffentlicher Herausforderungen wie One-Stop-Government und verbesserter Servicequalität führen wir Serviceflow Management als generisches Konzept zur Koordination organisationsübergreifender E-Government-Prozesse ein. Mit dem Ziel einer Serviceflow-Management-Infrastruktur für vernetzte Service Provider präsentieren wir eine XML-basierte Prozessdarstellung von Serviceflows sowie eine vierschichtige IT-Architektur zur Realisierung serviceflowbezogener Anwendungen.;-;-;-;https://link.springer.com/chapter/10.1007/0-306-47009-8_58 ae437b0a87cc5774c049a48e8236646b;de;;;7.3.;;;LWE-basiertes Single-Server Block Private Information Retrieval Protocol Das Erscheinen des vollständig homomorphen Verschlüsselungs-(FHE)-Schemas führt zu neuen Wegen, das Protokoll zum privaten Informationsabruf mit einem einzelnen Server zu konstruieren. Auf der PKC 2015 haben Hiromasa et al. schlugen das erste FHE-Schema vor, das Matrizen verschlüsselt und homomorphe Matrixaddition und -multiplikation unterstützt. (im Folgenden als HAO15-Schema bezeichnet). Motiviert durch ihre Arbeit konstruieren wir ein LWE-basiertes Single-Server Block Private Information Retrieval Protocol. Um nahezu optimale Kommunikationskosten zu erzielen, verwenden wir die von Naehrig et al. Und als Zwischenprodukt geben wir einen homomorphen Algorithmus an, der keinen geheimen Schlüssel benötigt, um die Gleichheit zwischen diagonalen Matrizen zu überprüfen, die nach dem HAO15-Schema verschlüsselt sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-16946-6_37 98dea1f190f5ff04609b1366d530e32e;de;;;7.3.;;;Ein Framework für die zeitliche Informationssuche und -exploration Das Volumen digitalisierter Informationen im Internet, in digitalen Bibliotheken und anderen Archiven nimmt drastisch zu. Auch die Nachfrage nach relevanten Dokumenten oder Daten eines bestimmten Zeitraums über große Datenmengen ist gestiegen. Daher hat die Zeitdimension in jeder Informationsdomäne ihre eigene Bedeutung. Trotz der Bedeutung zeitlicher Daten, die in dem Dokument verfügbar sind, bieten aktuelle Suchmaschinen und Suchtechniken eingeschränkte Suchmöglichkeiten unter Verwendung des Datums des Zeitstempels oder des Veröffentlichungsdatums des Dokuments. Bestehende Retrieval-Modelle nutzen diese Vorteile nicht;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0135-2_38 189415a1eee9bdbb9300456ceeb64d94;de;;;7.3.;;;Die Rolle von Web und E-Commerce bei der Armutsbekämpfung: Ein Framework basierend auf der Theorie ökologischer Systeme Web und E-Commerce, die durch einen einfachen Zugang zum Internet auf mobilen Geräten ermöglicht werden, haben ein großes Potenzial, die Armut zu verringern, indem sie den Zugang zu Bildung, Gesundheit, Regierung, Finanz- und anderen Dienstleistungen verbessern und Zugang zu potenziellen globalen Märkten für die von ihnen angebotenen Produkte und Dienstleistungen bieten . Die Rolle von Web/eCommerce bei der Armutsbekämpfung wurde jedoch in der IS-Forschung nicht gut untersucht, insbesondere existiert kein theoretischer Rahmen für solche Studien. Der Zweck dieser Studie besteht darin, einen theoretischen Rahmen zu entwickeln, der helfen kann, Armutsursachen zu identifizieren und zu untersuchen, wie Web/eCommerce zur Armutsbekämpfung eingreifen kann. Unser Framework basiert auf der Ökologischen Systemtheorie von Bronfenbrenner. Den resultierenden Rahmen wenden wir auf ländliche Bauernfamilien an.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-45408-5_12 1a869d31189950a9796df984d7be457c;de;;;7.3.;;;Eine Methode zur Bewertung von Webseiten für lokale Websuchmaschinen Die Webseitenbewertung ist eine Methode zur Verbesserung von Websuchmaschinen, indem jeder Seite eine Bewertung entsprechend ihrer Bedeutung zugewiesen wird. Der für Google implementierte PageRank-Algorithmus ist eine bekannte effiziente Bewertungsmethode für WWW-Suchmaschinen, während er für die Suche im lokalen Web nicht effizient ist. Im letzteren Fall wird normalerweise Textabgleich zum Berechnen von Scores verwendet und die Hyperlinkstruktur von Webseiten wird verschwendet. Obwohl ein Verfahren zum Bewerten lokaler Webseiten vorgeschlagen wurde, das HotLink-Verfahren genannt wird, ist es nicht gut etabliert, da die Bewertungen davon abhängen, wie eine unbekannte Baumstruktur aus dem Web-Graphen extrahiert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24571-1_55 bf5ee09c1df227018f2afc31a42128d1;de;;;7.3.;;;Analyse und Simulation der Cyberspace-Community mit komplexen dynamischen sozialen Netzwerken Die soziale Netzwerkanalyse (SNA) ist die Untersuchung der sozialen Beziehungen zwischen einer Reihe von Akteuren. Es ist eine aufstrebende Disziplin, die die Beziehungen zwischen Menschen, Gruppen, Organisationen, Computern oder anderen Informationsverarbeitungseinheiten abbildet und misst. SNA ist in vielen Bereichen weit verbreitet [1-3].;-;-;-;https://link.springer.com/chapter/10.1007/11734628_30 f41d5d9ca7bd020e4a5a8d8108fdb6d1;de;;;7.3.;;;Virtual Reality und VRML für NT Virtual Reality (VR) und die Zukunft des Webs sind eng mit der Steigerung der Systemleistung verbunden, die Software wie Windows NT bieten kann. Der Traum besteht darin, mit anderen in einem anderen Modus zu interagieren als der E-Mail-Schnittstelle, die heute von Computerbenutzern am häufigsten verwendet wird. VR wird die Idee der 3D-Darstellung in das Web einführen. Dazu gehören Websites mit 3D-Modellen von Verkaufsobjekten (z. B. ein Auto, das Sie aus mehreren Blickwinkeln betrachten können), interaktive Rundgänge durch virtuelle Einkaufszentren und Vergnügungsparks und sogar interaktive Treffpunkte, die Ihnen eine 3D-Darstellung von selbst, die Sie von Ihrem Computer aus bewohnen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-8572-9_7 18a74ad445ece3742c590bb04e6e0504;de;;;7.3.;;;Öffentliches Engagement für globale Gesundheitsherausforderungen Die Erfahrungen mit öffentlichen Engagement-Aktivitäten zu den Risiken und Nutzen von Wissenschaft und Technologie (W&T) wachsen, insbesondere in der industrialisierten Welt. Das öffentliche Engagement in den Entwicklungsländern bezüglich W&T-Risiken und -Vorteilen zur Untersuchung von Gesundheitsproblemen wurde jedoch nicht umfassend untersucht.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-8-168 c05efd252764da0af8ce50f1f68964a9;de;;;7.3.;;;Wie bekomme ich den Recommender aus dem Labor? Ein personalisiertes System ist ein komplexes System, das aus vielen interagierenden Teilen besteht, von der Datenaufnahme bis zur Präsentation der Ergebnisse für die Benutzer. Für jeden Teil eines solchen Systems gibt es eine Fülle von Methoden, Werkzeugen, Algorithmen und Ansätzen: viele Daten- und Metadatenverarbeitungsmethoden, viele Benutzermodelle, viele Filtertechniken, viele Genauigkeitsmetriken, viele Personalisierungsstufen. Darüber hinaus ist ein Real-World-Recommender ein Teil einer noch größeren und komplexeren Umgebung, auf die wenig Kontrolle besteht: Oft ist der Recommender Teil einer größeren Anwendung, die Einschränkungen für das Design des Recommenders einführt, z. die Daten haben möglicherweise kein geeignetes Format, oder die Umgebung kann einige architektonische oder datenschutzrechtliche Einschränkungen auferlegen. Dies kann die Aufgabe des Aufbaus eines solchen Empfehlungssystems entmutigend machen, und es ist leicht, Fehler zu machen. Basierend auf den Erfahrungen der Autoren und dem Studium anderer Arbeiten soll dieses Kapitel ein Leitfaden für den Entwurf, die Implementierung und die Bewertung personalisierter Systeme sein. Es stellt die verschiedenen Aspekte vor, die vor Beginn des Entwurfs untersucht werden müssen, und wie Sie Fallstricke vermeiden können, und zwar praxisnah. Das Kapitel stellt die wichtigsten Faktoren vor, die beim Entwurf eines Empfehlungssystems zu berücksichtigen sind, und veranschaulicht sie anhand von Fallstudien bestehender Systeme, um die Navigation bei den vielen und komplexen Entscheidungen zu erleichtern, die zu treffen sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-85820-3_10 b8715d6216812a6e751ca245e3629d49;de;;;7.3.;;;Strukturieren von Broadcast-Audio für den Informationszugriff Ein schnell wachsender Anwendungsbereich modernster Spracherkennungstechnologie ist die automatische Verarbeitung von ausgestrahlten audiovisuellen Daten für den Informationszugriff. Da ein Großteil der linguistischen Informationen im Audiokanal gefunden wird, ist die Spracherkennung eine Schlüsseltechnologie, die in Kombination mit Informationsabruftechniken zum Durchsuchen großer audiovisueller Dokumentensammlungen verwendet werden kann. Die Audioindexierung muss die Besonderheiten von Audiodaten berücksichtigen, wie z. B. die Notwendigkeit, mit dem kontinuierlichen Datenstrom und einer unvollständigen Worttranskription umzugehen. Weitere wichtige Überlegungen sind der Umgang mit sprachlichen Besonderheiten und die Erleichterung der Sprachübertragbarkeit. Im Laboratoire d′Informatique pour la Mécanique et les Sciences de l′Ingénieur (LIMSI) wurden Transkriptionssysteme für Rundfunknachrichten für sieben Sprachen entwickelt: Englisch, Französisch, Deutsch, Mandarin, Portugiesisch, Spanisch und Arabisch. Die Transkriptionssysteme wurden in prototypische Demonstratoren für verschiedene Anwendungsbereiche wie Audio Data Mining, Strukturierung audiovisueller Archive, selektive Informationsverbreitung und Themenverfolgung für die Medienbeobachtung integriert. Als Beispiele werden in diesem Papier die Aufgaben zum Abrufen gesprochener Dokumente und zur Themenverfolgung behandelt.;-;-;-;https://link.springer.com/article/10.1155/S1110865703211033 29fbbe50ccf1c0b61c0182cf7497b68f;de;;;7.3.;;;Sprachübergreifende Information-Retrieval-Modelle basierend auf latenten Themenmodellen, trainiert mit dokumentenorientierten Vergleichskorpora In diesem Beitrag untersuchen wir verschiedene Anwendungen von sprachübergreifenden latenten Themenmodellen, die an vergleichbaren Korpora trainiert wurden. Der erste Schwerpunkt liegt auf der Aufgabe des Cross Language Information Retrieval (CLIR). Das Bilingual Latent Dirichlet Allocation Model (BiLDA) ermöglicht es uns, eine interlinguale, sprachunabhängige Darstellung von Anfragen und Dokumenten zu erstellen. Wir erstellen mehrere BiLDA-basierte Dokumentenmodelle für CLIR, bei denen keine zusätzlichen Übersetzungsressourcen verwendet werden. Der zweite Schwerpunkt liegt auf den Methoden zur Extraktion von Übersetzungskandidaten und semantisch verwandten Wörtern, die ausschließlich pro-topische Wortverteilungen des sprachübergreifenden latenten Themenmodells verwenden. Als Hauptbeitrag kombinieren wir die beiden ersten Schritte, indem wir die Beweise aus den Themenverteilungen pro Dokument und den Wortverteilungen pro Thema des Themenmodells mit dem Wissen aus dem extrahierten Lexikon vermischen. Wir entwerfen und evaluieren das neuartige evidenzreiche statistische Modell für CLIR und beweisen, dass ein solches Modell, das verschiedene (nur interne) Evidenzen kombiniert, die besten Ergebnisse für Experimente erzielt, die mit den Standardtestsammlungen der CLEF-Kampagnen 2001–2003 durchgeführt wurden. Wir bestätigen diese Ergebnisse in einer alternativen Auswertung, bei der wir automatisch Abfragen generieren und die Known-Item-Suche an einer Testteilmenge von Wikipedia-Artikeln durchführen. Die Hauptbedeutung dieser Arbeit liegt in der Tatsache, dass wir Übersetzungsressourcen aus vergleichbaren dokumentenorientierten Korpora trainieren und neuartige CLIR-Statistikmodelle bereitstellen, die auf der Suche nach besseren CLIR-Ergebnissen so viele sprachenübergreifende Hinweise wie möglich erschöpfend ausschöpfen, ohne irgendwelche zu verwenden zusätzliche externe Ressourcen wie parallele Korpora oder maschinenlesbare Wörterbücher.;-;-;-;https://link.springer.com/article/10.1007/s10791-012-9200-5 d5110e8643cf32afb9b70cda1930e85b;de;;;7.3.;;;Flexible und adaptive QoS-Steuerung für verteilte Echtzeit- und eingebettete Middleware Computersysteme sind zunehmend verteilt, in Echtzeit und eingebettet (DRE) und müssen unter höchst unvorhersehbaren und veränderlichen Bedingungen arbeiten. Um eine vorhersehbare geschäftskritische Dienstgüte (QoS) durchgängig bereitzustellen, haben sich QoS-fähige Middleware-Dienste und -Mechanismen herausgebildet. Der aktuellen Generation kommerzieller Standard-Middleware fehlt jedoch eine angemessene Unterstützung für Anwendungen mit strengen QoS-Anforderungen in sich ändernden, dynamischen Umgebungen. Dieses Whitepaper liefert zwei Beiträge zur Untersuchung adaptiver Middleware zur Steuerung von DRE-Anwendungen. Zunächst wird beschrieben, wie prioritäts- und reservierungsbasierte OS- und Netzwerk-QoS-Verwaltungsmechanismen mit standardbasierter, handelsüblicher DOC-Middleware (Distributed Object Computing) gekoppelt werden können, um dynamische DRE-Anwendungen mit stringenten End-to-End-Realität zeitliche Anforderungen. Anschließend werden die Ergebnisse der von uns durchgeführten Experimentier- und Validierungsaktivitäten präsentiert, um diese kombinierten Betriebssystem-, Netzwerk- und Middleware-Funktionen zu bewerten. Unsere Arbeit integriert derzeit fehlende Low-Level-Ressourcenkontrollfunktionen für End-to-End-Flows mit bestehenden Fähigkeiten in der adaptiven DRE-Middleware und schafft die Voraussetzungen für weitere Fortschritte bei der feingranularen Präzisionsverwaltung von aggregierten Flüssen mit dynamischen Anpassungstechniken.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44892-6_19 9449672f96754c13926bc797337aee4b;de;;;7.3.;;;XML-basiertes Schnittstellenmodell für sozial adaptive Benutzeroberflächen webbasierter Systeme Die Unterschiede in der Population der Benutzer webbasierter Systeme haben sehr bedeutende Auswirkungen auf ihre Interaktionspräferenzen. Viele webbasierte Systeme bieten unterschiedliche Personalisierungsmechanismen, die es den Benutzern ermöglichen, die Oberflächen der Systeme an ihre persönlichen Bedürfnisse anzupassen, jedoch möchten sich viele Benutzer nicht selbst darum kümmern oder können keine vernünftigen Einstellungen vornehmen. Im Beitrag wird das XML-basierte Schnittstellenmodell für sozial adaptive Benutzerschnittstellen vorgestellt. Dieses Modell ermöglicht die Personalisierungsdarstellung und den konsensbasierten Schnittstellenabgleich zwischen der Population personalisierter Schnittstellen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44862-4_119 c84c7c222c8557fdf8d74488b3b615f5;de;;;7.3.;;;Ein People-to-People-Matching-System mit Graph-Mining-Techniken Ein Personen-zu-Personen-Matching-System (oder ein Match-Making-System) bezieht sich auf ein System, in dem sich Benutzer mit dem Ziel zusammenschließen, andere Benutzer mit dem gemeinsamen Bedarf zu erfüllen. Einige Beispiele aus der Praxis für diese Systeme sind Arbeitgeber-Mitarbeiter (in Jobsuchnetzwerken), Mentor-Studenten (in sozialen Netzwerken von Universitäten), Consumer-to-Consumer (in Marktplätzen) und männlich-weiblich (in einem Online-Dating-Netzwerk). Das diesen Systemen zugrunde liegende Netzwerk besteht aus zwei Benutzergruppen und die Beziehungen zwischen den Benutzern müssen erfasst werden, um ein effizientes Match-Making-System zu entwickeln. Die meisten der existierenden Studien verwenden Informationen entweder über jeden der Benutzer isoliert oder ihre Interaktion separat und entwickeln Empfehlungssysteme, die nur eine Form von Informationen verwenden. Es ist zwingend erforderlich, die Verbindungen zwischen den Benutzern im Netzwerk zu verstehen und sie bei der Entwicklung eines Match-Making-Systems zu nutzen. Diese Studie verwendet verschiedene Methoden der sozialen Netzwerkanalyse wie Graphentheorie, Small-World-Phänomen, Zentralitätsanalyse, Dichteanalyse, um Einblicke in die Entitäten und ihre Beziehungen in diesem Netzwerk zu gewinnen. Dieses Papier schlägt auch einen neuen Typ von Graphen vor, der als „attributed bipartite graph“ bezeichnet wird. Unter Verwendung dieser Analysen und des vorgeschlagenen Graphentyps wird ein effizientes hybrides Empfehlungssystem entwickelt, das Empfehlungen für neue Benutzer generiert und eine Verbesserung der Genauigkeit gegenüber den Basismethoden zeigt.;-;-;-;https://link.springer.com/article/10.1007/s11280-013-0202-z 1ef0fd6f47fcae6aa16fd23e669a6d35;de;;;7.3.;;;Messung der Benutzerzufriedenheit bei der Websuche Suchmaschinen gehören zu den beliebtesten und nützlichsten Diensten im Web. Das Problem, mit dem wir konfrontiert sind, liegt jedoch an der großen Anzahl öffentlich zugänglicher Suchmaschinen. Welches davon soll unsere erste Wahl bleiben? Um diese entscheidende Frage zu beantworten, müssen wir wissen, wie diese Suchmaschinen im Vergleich abschneiden. In dieser Arbeit ist es unser Ziel, die Qualität von Suchergebnissen zu bewerten, die durch verschiedene populäre Suchmaschinen erzielt werden. Wir schlagen vor, das Feedback des Benutzers zu einem Dokument in Bezug auf die Reihenfolge, in der er die Ergebnisse abholt, die Zeit, die er mit diesen Dokumenten verbringt und ob er druckt, speichert, mit Lesezeichen versehen, E-Mails an jemanden sendet oder kopiert -und-fügt einen Teil dieses Dokuments ein. Die Dokumentwichtigkeitsgewichtung wird dann aus dem Benutzerfeedback durch einen vorgeschlagenen Ausdruck berechnet. Alternativ wird jede Komponente des Benutzerrückkopplungsvektors in eine Präferenzbeziehung umgewandelt. Diese individuellen Präferenzrelationen werden dann mit dem using;-;-;-;https://link.springer.com/chapter/10.1007/10966518_23 2efe33c19adeb2fbce802a56ac46abd2;de;;;7.3.;;;Einführung in das Modell des Aktiven Assistenzsystems für ältere und behinderte Menschen In diesem Artikel präsentieren wir Annahmen für die Entwicklung eines neuartigen Modells des aktiven Systems, das älteren und behinderten Menschen helfen kann. In den folgenden Abschnitten diskutieren wir Literatur und schlagen eine Struktur der Entscheidungsunterstützung und Datenverarbeitung auf den Ebenen vor: Sprach- und Sprachverarbeitung, Bildverarbeitung basierend auf vorgeschlagenen Deskriptoren, Routing und Positionierung. Für diese Aspekte werden Vor- und Nachteile beschrieben, die im Entwicklungsprozess mit möglichen präventiven Maßnahmen bewältigt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-46254-7_31 4383cd17e4c408135d11862f4e162752;de;;;7.3.;;;Ein 3D-Visualisierungssystem für große WWW-basierte Dokumentensammlungen Dieses Dokument beschreibt das Design des FreeBase-Dokumentensammlungs-Visualisierungssystems. FreeBase ist ein hybrider regelbasierter neuronaler Netzwerkansatz zum Clustern von Dokumenten anhand ihrer inhärenten Ähnlichkeiten. Die Ausgabe des Systems ist eine Virtual-Reality-Szene, in der die Symbole, die einzelne Dokumente darstellen, Hyperlinks zu den Originalen enthalten. Die Anwendung des objektorientierten Paradigmas zum Aufbau von Systemen durch die ad-hoc-Wiederverwendung vorhandener Software wird ausführlich beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0973-0_31 409f494781673dfd0e615ffbb4b420d1;de;;;7.3.;;;Metadaten in der Architekturausbildung - Erste Evaluationsergebnisse des MACE-Systems Der Beitrag konzentriert sich auf das MACE-System (Metadata for Architectural Contents in Europe) und seine Verwendung in der Architekturausbildung auf Hochschulebene. Wir berichten über die verschiedenen Erweiterungen des Systems, beschreiben einige der neuen Funktionalitäten und geben erste Ergebnisse zur Evaluierung des MACE Systems. Mehrere Universitäten waren mit bedeutenden Studierendengruppen in die Evaluation eingebunden, sodass die hier beschriebenen Indikationen bereits sehr vertrauenswürdig sind. Erste Ergebnisse zeigen, dass die Verwendung von MACE die Leistung der Schüler signifikant steigert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04636-0_13 9c5974fdef6f216d6fa9e376dfd2a2bc;de;;;7.3.;;;Eine verteilte Architektur für eine effiziente Webservice-Erkennung Obwohl die Definition einer serviceorientierten Architektur (SOA) von Anfang an das Vorhandensein einer Service-Registry beinhaltete, waren die ersten Implementierungen (z.B. UDDI) hauptsächlich aus Sicherheits- und Governance-Problemen nicht wirklich erfolgreich. Dieser Artikel geht das Problem an, indem er einführt;-;-;-;https://link.springer.com/article/10.1007/s11761-015-0184-z 9a89948765bfa902e0ac30ed74d5b888;de;;;7.3.;;;Usability-Prinzipien mit Mustern und Richtlinien vermitteln Wir präsentieren eine vergleichende Studie zur Wirksamkeit von Mustern und Richtlinien als Hilfsmittel für die Vermittlung von Webinteraktionsdesign. Wir haben zwei Gruppen von Anfängern rekrutiert und ihnen Webdesign von Grund auf mit einem beliebten Autorentool beigebracht. Wir haben zwei ausgewogene Richtlinien und Muster verwendet, die im Wesentlichen die gleichen Ratschläge in zwei verschiedenen Formaten präsentieren. Nach der Erstschulung lernten die Probanden mit Hilfe eines dieser Sets Usability und Usability-Prinzipien. Die Gruppen führten dann zwei gemeinsame Aktivitäten durch, die professionelle Designer durchführen müssen, nämlich das Entwerfen und Bewerten von Websites. Das endgültige Design-Artefakt, das in allen Tests geliefert wurde, war eine funktionierende Website. Hier präsentieren wir die quantitativen Ergebnisse für die Designphase dieses Experiments. Die Bewertung der Designs wurde von drei unabhängigen Gutachtern anhand definierter Metriken durchgeführt. Wir kommen zu dem Schluss, dass sowohl Muster als auch Richtlinien bei der Gestaltung brauchbarer Websites helfen, jedoch hatten die Ratschläge, die in unserem Musterformat präsentiert wurden, einen größeren Einfluss auf die Leistung der unerfahrenen Designer als die gleichen Ratschläge in unserem Leitlinienformat.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-89022-7_11 e11d8857cf03cd6ff1004cd5ef374b4f;de;;;7.3.;;;Benutzerrelevanz-Improvisationsprotokoll Bei der aktuellen Websuche ist das Mining des Web-Repositorys und das Erzielen der relevantesten Ergebnismenge mit minimaler Größe die gefragteste Anforderung. In diesem Papier haben wir ein neues Protokoll vorgeschlagen, nämlich das User Relevancy Improvisation Protocol (URIP), das einen „Push“-Mechanismus verwendet, um die aktuellste und präziseste Zusammenfassung der Websites zu erhalten. Wir sind der festen Überzeugung, dass Kontextidentifikation und Relevanzcharakterisierung am besten durch die Zusammenarbeit zwischen Webservern und Suchmaschinen erreicht werden. Da die Relevanz benutzerspezifisch ist, haben wir zwei Parameter eingeführt, den Wissensquotienten (Kq) und den Wissensfaktor (Kf), um die Webseiten einzustufen. URIP-Clients auf den jeweiligen Webservern berechnen diese Parameter für jede Webseite. Search Engine Server verkörpert den URIP-Server, der die Aktualisierungsbenachrichtigungen von allen Webservern erhält, sobald die Websites erstellt oder geändert werden. Benutzereingaben enthalten Abfragebegriffe, sein/ihr Wissensniveau (Kq() und Domänenexpertise (Kf()). Relevante Dokumentenmenge wird mit genau passenden < Kq, Kq(> und < Kf, Kf(>) abgerufen sind, (1) keine Konstellation von Tausenden von Systemen erforderlich, um die Webdaten zu indizieren, (2) Suchmaschinen-Sites müssen keine Momentaufnahme des Webs pflegen, um auf die Benutzer zu reagieren, (3) Eliminiert Spider-Aktivität und vor allem (4 ) Ergibt minimale und relevanteste Ergebnismenge. Wir vergleichen unsere Ergebnisse mit der beliebten Suchmaschine Google. Eine Finite State Machine (FSM) basierte Spezifikation für das Protokoll wird gegeben und das Protokoll wird mit dem M/G/1-Modell analysiert;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24604-6_9 469bfbc07f86e498399d6a506aa6d707;de;;;7.3.;;;Der pädagogische Rahmen für Online-Lernen Die Entwicklung neuer Breitbandkommunikationsdienste, die Konvergenz der Telekommunikation mit Computern und die jüngsten Entwicklungen auf dem Gebiet der Kommunikationsprotokolle haben zahlreiche Vorschläge für den Einsatz dieser Werkzeuge zur Unterstützung der Lehr- und Lernumgebung hervorgebracht. Die Integration von Computern und Kommunikationsmitteln bietet den Bildungssystemen beispiellose Möglichkeiten, da sie sich über große geografische Distanzen auf sinnvolle Weise integrieren und miteinander interagieren können, um Unterrichtsziele zu erreichen. Das Wachstum dieser Kommunikations- und Computersysteme, ihre Benutzerfreundlichkeit und die Leistungsfähigkeit und Vielfalt der Informationsübertragung ermöglichen Lehrern und Schülern den Zugang zu einer Welt jenseits des Klassenzimmers.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-5281-1_125 1c10c076375f04caf0f6f51a432a036a;de;;;7.3.;;;Kostenvergleich bei Verzweigungspfadausdrücken in XML Dieses Papier stellt die Verarbeitungskosten für Knotenpfade der XML-Dokumente dar und stellt die Abfrageverarbeitungsalgorithmen für lineare Pfadausdrücke und verzweigte Pfadausdrücke vor. Anschließend vergleicht dieses Papier die Kosten von XIR mit denen von XRel und XParent durch Analyse. Die Vergleichsergebnisse zeigen, dass XIR für Verzweigungspfadausdrücke effizienter ist als XRel und XParent. Sie zeigen auch, dass XIR deutlich skalierbarer ist als die anderen beiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-5076-0_84 c71b81006cc570705955e7103877b2fa;de;;;7.3.;;;Anwendung eines künstlichen neuronalen Netzoptimierungsmodells in einer E-Commerce-Plattform basierend auf Tourismusmanagement Die Vorteile von E-Commerce und Informationstechnologie spielen eine äußerst wichtige Rolle bei der Steigerung der Wettbewerbsfähigkeit der Tourismusbranche und bei der Anpassung an die Bedürfnisse der globalen wirtschaftlichen Integration. Die Entwicklung des E-Commerce hat in allen Lebensbereichen eine große Rolle gespielt. Für die Tourismusbranche ist die Rolle des E-Commerce noch wichtiger. Dieser Artikel analysiert den Einfluss des E-Commerce auf touristische Produktionsfaktoren, wie die Optimierung der touristischen Produktionsfaktoren, die Optimierung der Industriestruktur, die Verbesserung der Wettbewerbsfähigkeit von Tourismusunternehmen und die Führungsrolle der Regierung. Dieser Artikel versucht herauszufinden, warum E-Commerce die Wettbewerbsfähigkeit der chinesischen Tourismusindustrie verbessern kann, um einen besseren Weg für den E-Commerce zu finden, die Entwicklung der chinesischen Tourismusindustrie zu fördern. Um das Ausmaß und die Menge des Inlandstourismus genau vorherzusagen, wird ein optimiertes neuronales Netzmodell vorgeschlagen, um Tourismusdaten zu analysieren und vorherzusagen und die Daten dann zu analysieren und zu untersuchen. Tourismusentwicklungsfaktoren wie Tourismusentwicklungsfaktoren, Veränderungen der Tourismusnachfrage und die Optimierung der Industriestruktur haben die Entwicklung der chinesischen Tourismusindustrie effektiv gefördert.;-;-;-;https://link.springer.com/article/10.1186/s13638-021-01947-x f13b3b3ef4c2a3a2b34feeb09fa34aed;de;;;7.3.;;;Allgegenwärtige interaktive Visualisierung der 3D-Mantelkonvektion durch Webanwendungen mit Java Wir haben ein neues System zur interaktiven Echtzeitvisualisierung von Ergebnissen entwickelt, die direkt aus groß angelegten Simulationen der 3-D-Mantelkonvektion und anderen groß angelegten Simulationen stammen. Dieser Ansatz ermöglicht intensive Visualisierungssitzungen über mehrere Stunden, anstatt riesige Datenmengen in einem Speichersystem zu speichern. Unsere Datensätze bestehen aus 3D-Daten für das Volumen-Rendering mit Sätzen von bis zu über 10 Millionen Unbekannten in jedem Zeitschritt. Die großformatige Visualisierung auf einer Displaywand mit rund 13 Millionen Pixeln wurde bereits mit der Erweiterung auf Handheld-Geräte wie das OQO und das Nokia N800 erreicht. Wir entwickeln eine webbasierte Software in Java, um die Nutzung dieses Systems über große Entfernungen zu erweitern. Die Software zielt darauf ab, eine interaktive und funktionale Anwendung zu erstellen, die auf mehreren Browsern ausgeführt werden kann, indem sie zwei AJAX-fähige Web-Frameworks nutzt: Echo2 und Google Web Toolkit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89646-3_101 657eb0edde9fc69c20c3c89064e684f2;de;;;7.3.;;;Hybrider kollaborativer Managementring auf mobilen Multiagenten für Cloud-P2P Um alle potentiell verfügbaren Netzwerkressourcen voll auszuschöpfen und die Interoperabilität von Systemen zu ermöglichen, schlagen wir vor, Cloud Computing und Peer-to-Peer (P2P) Computing-Umgebungen miteinander zu integrieren. Wir verwenden die mobile Multi-Agent-Technologie, um ein effektives hierarchisches Integrationsmodell namens Cloud-P2P zu erstellen. Da die ursprünglichen Verwaltungsmechanismen für traditionelle Cloud-Computing- und P2P-Computing-Systeme auf Cloud-P2P nicht mehr anwendbar sind, schlagen wir einen neuartigen hybriden kollaborativen Managementring basierend auf mobilen Multiagenten vor, um die Effizienz und Erfolgsrate der Aufgabenimplementierung in Cloud-P2P-Umgebung. Dieser Mechanismus muss das System in Kernring, Cloud-Innenringe und mehrere Peer-Ringe aufteilen. In jedem Ring arbeitet jeder Knoten mit seinen Nachbarknoten mit mehreren Agenten zusammen oder verwendet mobile Agenten, die sich mit String- oder Parallelmethoden von Knoten zu Knoten bewegen, um den Status und die Leistung aller Knoten zu überwachen, um Leistungsengpässe zu vermeiden und Single-Point-Failure. Dieses Papier analysiert die Knotenbedingungen von Cloud-Computing- und P2P-Computing-Umgebungen eingehend und geht dann auf Cloud-P2P und den hybriden kollaborativen Managementring basierend auf Mobile Multi-Agent (HCMRMMA) ein. Danach wird die Konstruktionsmethode der Netzwerkringtopologie für Cloud-P2P vorgestellt. Schließlich werden experimentelle Ergebnisse und Leistungsanalysen von HCMRMMA präsentiert.;-;-;-;https://link.springer.com/article/10.1007/s11633-016-1002-6 769da1cb19bb7afc61eb3019df8a02dc;de;;;7.3.;;;Beschreibung Logikprogramme unter probabilistischer Unsicherheit und unscharfer Unschärfe Dieses Papier richtet sich auf eine Infrastruktur zum Umgang mit Unsicherheit und Vagheit in den Regeln-, Logik- und Beweisschichten des Semantic Web nichtmonotone Negation) und probabilistische Unsicherheit in einem einheitlichen Rahmen für das Semantic Web. Wir definieren wichtige Konzepte, die sich sowohl mit probabilistischer Unsicherheit als auch mit unscharfer Vagheit befassen, wie z. Darüber hinaus beschreiben wir ein Shopping-Agent-Beispiel, das die Nützlichkeit von probabilistischen Fuzzy-Description-Logik-Programmen in realistischen Webanwendungen belegt. Im erweiterten Bericht stellen wir auch Algorithmen für die Abfrageverarbeitung in probabilistischen Fuzzy-Beschreibungslogikprogrammen zur Verfügung und beschreiben einen Sonderfall, bei dem die Abfrageverarbeitung in polynomieller Zeit in der Datenkomplexität erfolgen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75256-1_19 e8c7753c80ebadafd8c4a1fd12ed4a10;de;;;7.3.;;;Gewichtung von Social Bookmarks für Suche und Empfehlung Social Bookmarking ermöglicht den Wissensaustausch und die effiziente Suche im Web, wo Benutzer zusammenarbeiten können, indem sie interessante Dokumente markieren. In letzter Zeit wurde der Verwendung von Social-Bookmarking-Daten viel Aufmerksamkeit gewidmet, um traditionelle IR-Aufgaben zu verbessern. Dem Problem, die Effektivität eines einzelnen Lesezeichens für die spezifischen Aufgaben abzuschätzen, wurde jedoch viel weniger Aufmerksamkeit gewidmet. In dieser Arbeit schlagen wir einen neuartigen Rahmen für die Gewichtung von Social Bookmarks vor, der es uns ermöglicht, die Effektivität jedes der Bookmarks individuell für mehrere IR-Aufgaben zu schätzen. Wir zeigen, dass wir durch die Gewichtung von Lesezeichen nach ihrer geschätzten Qualität die Effektivität der sozialen Suche erheblich verbessern können. Wir zeigen außerdem, dass wir mit demselben Framework Lösungen für mehrere Empfehlungsaufgaben ableiten können, wie z. B. Tag-Empfehlung, Benutzerempfehlung und Dokumentempfehlung. Die empirische Auswertung von realen Daten, die von zwei großen Bookmarking-Systemen gesammelt wurden, zeigt die Wirksamkeit des neuen Gewichtungsrahmens für Social Bookmarks.;-;-;-;https://link.springer.com/article/10.1007/s00778-010-0211-9 4159ab05800bcfa00256ca4db23d623d;de;;;7.3.;;;Bedarfsgesteuerte Tag-Empfehlung Durch kollaboratives Tagging können Benutzer beliebige Schlüsselwörter (oder Tags) zuweisen, die den Inhalt von Objekten beschreiben, was die Navigation erleichtert und die Suche ohne Abhängigkeit von vorkonfigurierten Kategorien verbessert. In großen Tag-basierten Systemen können Tag-Empfehlungsdienste einen Benutzer bei der Zuweisung von Tags zu Objekten unterstützen und helfen, das Vokabular von Tags benutzerübergreifend zu konsolidieren. Ein vielversprechender Ansatz für die Tag-Empfehlung besteht darin, das gemeinsame Auftreten von Tags auszunutzen. Diese Methoden werden jedoch durch die enorme Größe des Tag-Vokabulars herausgefordert, entweder weil (1) die Rechenkomplexität mit der Anzahl der Tags exponentiell zunehmen kann oder (2) die jedem Tag zugeordnete Punktzahl verzerrt werden kann, da unterschiedliche Tags in verschiedene Skalen und die Punktzahlen sind nicht direkt vergleichbar. In diesem Beitrag schlagen wir eine neuartige Methode vor, die Tags auf bedarfsgesteuerter Basis gemäß einem anfänglichen Satz von Tags empfiehlt, die auf ein Objekt angewendet werden. Es reduziert den Raum möglicher Lösungen, so dass seine Komplexität polynomiell mit der Größe des Tag-Vokabulars zunimmt. Außerdem wird die Bewertung jedes Tags unter Verwendung eines Entropie-Minimierungsansatzes kalibriert, der mögliche Verzerrungen korrigiert und genauere Empfehlungen liefert. Wir führten eine systematische Evaluierung der vorgeschlagenen Methode mit drei Medientypen durch: Audio, Lesezeichen und Video. Die experimentellen Ergebnisse zeigen, dass die vorgeschlagene Methode schnell ist und die Empfehlungsqualität in verschiedenen experimentellen Szenarien verbessert. Im Fall einer beliebten Audio-Site bietet sie beispielsweise Verbesserungen der Präzision (p@5) von 6,4% bis 46,7% (je nach Anzahl der als Eingabe angegebenen Tags) und übertrifft damit eine kürzlich vorgeschlagene Tag-Empfehlung auf der Grundlage des gemeinsamen Auftretens Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15883-4_26 98f728ca99f0dc74f690d329aabb3db7;de;;;7.3.;;;Agent-Technologien für die Entwicklung adaptiver Webshops Mit der zunehmenden Popularität des Web-Shoppings ist die Personalisierung des Front-Ends von Online-Shops zu einem kritischen Thema geworden: Auf diese Systeme greifen Kunden mit unterschiedlichem Hintergrund, Fachwissen und Vorlieben zu, daher kann ihre Benutzerfreundlichkeit nur durch Personalisierung verbessert werden ihre Schnittstellen an die Bedürfnisse jedes einzelnen Benutzers anpassen. In diesem Beitrag beschreiben wir die Architektur von SETA, einem prototypischen Toolkit für die Erstellung adaptiver Webshops, bei dem Benutzermodellierung und flexible Hypermedia-Techniken genutzt werden, um die Interaktion mit dem Benutzer zu personalisieren und die Katalogseiten dynamisch auf der Grundlage der Benutzerdaten zu generieren Merkmale. Die SETA-Architektur besteht aus verschiedenen spezialisierten Agenten, die bei der Verwaltung der Interaktion mit dem Benutzer zusammenarbeiten. Wir werden erörtern, wie wichtig die Anwendung agentenbasierter Techniken für den Entwurf und die Entwicklung dieses Systems war.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44682-6_11 3ceedce01124d46bd0ad4504637653b0;de;;;7.3.;;;Laufzeitverifizierung von verhaltensbewussten Mashups im Internet der Dinge Mit der neuen Vision des Internets der Dinge werden Einheiten der physischen Welt in Dinge der virtuellen Welt integriert. Dann könnte das Internet der Dinge wie das heutige Web von der Web-Service-Architektur profitieren, sodass zukünftige serviceorientierte Internet-Dinge ihre Funktionalität über servicefähige Schnittstellen anbieten. Wie in früheren Arbeiten gezeigt wurde, ist es notwendig, das Verhalten von Dingen zu berücksichtigen, um Anwendungen rigoroser zu entwickeln. Wir haben ein leichtgewichtiges Modell für die Darstellung eines solchen Verhaltens basierend auf dem serviceorientierten Paradigma vorgeschlagen und das Standard-DPWS-Profil erweitert, um die Reihenfolge anzugeben, in der Dinge Nachrichten empfangen können. Um zu überprüfen, ob ein Mashup von Dingen das zur Entwurfszeit festgelegte Verhalten respektiert, haben wir eine statische Überprüfung vorgeschlagen. Zur Laufzeit kann ein Ding jedoch sein Verhalten ändern oder Anfragen von Instanzen verschiedener Mashups empfangen. Dann ist es erforderlich, dynamisch mögliche ungültige Aufrufe, die durch Verhaltensänderungen hervorgerufen werden, zu prüfen und zu erkennen. Hier erweitern wir unsere statische Verifizierung um einen Ansatz, der auf Vermittlungstechniken und komplexer Ereignisverarbeitung basiert, um ungültige Aufrufe zu erkennen und zu verhindern. Die Lösung generiert automatisch die erforderlichen Elemente, um die Laufzeitvalidierung von Aufrufen durchzuführen. Es kann erweitert werden, um andere Probleme zu validieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45364-9_26 b69426cfe5493daadf01bdcfbe8d7b65;de;;;7.3.;;;3D-Webleistungsprognose mit der Turning-Bands-Methode Es wurde versucht, die Webleistung zu bewerten, indem zum ersten Mal eine 3D-Prognose der Websiteleistung während des Ressourcen-Downloads unter Verwendung einer geostatistischen Simulationsmethode Turning Bands erstellt wurde. Daten für die Forschung wurden in einem aktiven Experiment erhalten, das von einem Multi-Agenten-Messsystem MWING durchgeführt wurde, das eine Überwachung einer gemeinsamen Gruppe von Websites von verschiedenen Agentenstandorten aus durchführt. In dieser Studie verwenden wir eine Messdatenbank, die von einem Agenten aus Wrocław gesammelt wurde. Eine vorläufige Analyse der Messdaten wurde durchgeführt. Als nächstes wurde eine strukturelle Analyse der Daten durchgeführt und eine räumliche Vorhersage der Gesamtzeit des Herunterladens von Daten von Webservern mit einem Zeitvorlauf von einer Woche berechnet. Die Prognoseergebnisse wurden detailliert analysiert und dann wurden Richtungen für weitere Forschungen vorgeschlagen. Der Artikel stellt die erste innovative Anwendung der Turning-Bands-Methode bei der Vorhersage der Internetleistung vor. Erste Ergebnisse lassen erkennen, dass die erwähnte prädiktive Methode effektiv sein kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21771-5_12 7c85e2cc833047310d5b7a406250dc99;de;;;7.3.;;;Eine neuartige Visualisierungsmethode zur Unterscheidung von Web-News-Sentiment In letzter Zeit gibt es eine zunehmende Anzahl von Nachrichten-Websites, die verschiedene vorgestellte Dienste anbieten. Eine effektive Analyse und Präsentation zur Unterscheidung von Standpunkten zwischen verschiedenen Nachrichtenquellen sind jedoch begrenzt. Wir konzentrieren uns auf den Sentiment-Aspekt der Ansichten von Nachrichtenreportern und schlagen ein System namens called vor;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04409-0_22 a8c2b717dbfb6ff7c6d0532871c311a5;de;;;7.3.;;;Eine UML-Variante für die Durchsuchbarkeit von Modellierungssystemen Internetsuchmaschinen haben heute Probleme, mit dem Tempo des Webwachstums Schritt zu halten. Dafür sind zwei Tatsachen verantwortlich: Bandbreitenengpässe durch zentrale Indizierung,;-;-;-;https://link.springer.com/chapter/10.1007/3-540-46102-7_25 7d44a5c8f1f1253922a75837275ddafe;de;;;7.3.;;;Eine externe Broker-Schnittstelle basierend auf bestehenden Handelsprotokollen Dieser Beitrag stellt einen Ansatz zur Spezifikation externer Schnittstellen eines elektronischen Maklers vor, der in der Architektur für elektronische Maklersysteme (AEBS) verwendet wird. Die von der AEBS-Architektur spezifizierte externe Schnittstelle bietet sowohl umfangreiche Funktionalität als auch Rückwärtskompatibilität mit Handelsmethoden, die derzeit auf dem elektronischen Markt verwendet werden. Dies wird erreicht, indem die Schnittstelle auf zwei Ebenen definiert wird: der externen Protokollschnittstelle und der externen Objektschnittstelle. Die externe Protokollschnittstelle wurde im Sinne traditioneller Protokolle definiert, um Kunden und Lieferanten, die bereits im elektronischen Markt tätig sind, Zugang zu grundlegenden Vermittlungsdiensten zu verschaffen. Dies erleichtert die einfache Markteinführung eines Maklers, da für die Nutzung der neuen Maklerleistungen keine Anpassungen auf Kunden- oder Lieferantenseite erforderlich sind. Die erweiterte externe Objektschnittstelle wurde unter Verwendung des CORBA-Modells entworfen und definiert. Dadurch erhalten andere Akteure, die fortschrittliche Maklerdienste benötigen, Zugriff auf die volle Funktionalität eines Maklers. Dieser Beitrag konzentriert sich auf das Design der externen Protokollschnittstelle eines Maklersystems.;-;-;-;https://link.springer.com/article/10.1023/A%3A1020563414340 1cf27041eac78d638a40ea38369ea367;de;;;7.3.;;;Die Rolle des Internet of Services (IoS) für Industrie 4.0 durch die serviceorientierte Architektur (SOA) Für eine Industrie 4.0-Errungenschaft wurden viele verschiedene Konzepte und Ansätze gesehen. Bei dem Versuch, die Theorie mit der Praxis zusammenzuführen, gibt es Lücken, welches Konzept oder welche Technologie am besten in die Produktionskette passt und was wirklich eine Voraussetzung ist, um es als Industrie 4.0 einzustufen. In der wissenschaftlichen und empirischen Literatur zu diesem Thema wird das Internet der Dienste, IoS, als wichtige Säule für Industrie 4.0 genannt, gekoppelt mit dem Internet der Dinge (IoT) und Cyber-Physical Systems (CPS). Während IoT und CPS sowie deren Verbindung mit Industrie 4.0 in vielen Untersuchungen detailliert beschrieben werden, fehlt noch ein tieferes Verständnis zum Internet der Dienste und dessen Beitrag für dieses Szenario. Dieses Papier zielt darauf ab, diese Lücke zu schließen, indem es Konzepte über das Internet der Dienste sammelt, wie es aufgebaut ist und welche Rolle es in der Fertigungsumgebung spielen würde. Durch ein tieferes Verständnis über den Ursprung des Begriffs Internet of Services gibt es ein wichtiges Konzept, das erklären kann, wie die Industrie 4.0 in einer geschäftlichen und technologischen Perspektive funktioniert: das Konzept der SOA – Service Oriented Architecture.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99707-0_3 19b699b08404066250180ebc9a6a8508;de;;;7.3.;;;Ein hybrider Empfehlungsalgorithmus, der in E-Learning-Umgebungen angepasst ist Mit der rasanten Entwicklung der Online-Lerntechnologie ist eine große Menge an E-Learning-Materialien entstanden, die sehr heterogen und in verschiedenen Medienformaten vorliegen. Außerdem sind E-Learning-Umgebungen mit der ständig steigenden Anzahl von Lernressourcen, die auf natürliche Weise über das Netzwerk verteilt sind, sehr dynamisch. Andererseits ist es im Online-Lernszenario für Benutzer ohne ausreichendes Hintergrundwissen sehr schwierig, geeignete Ressourcen für ihr Lernen auszuwählen. In diesem Papier wird ein hybrides Empfehlungssystem vorgeschlagen, um Lernelemente in Lernprozessen von Benutzern zu empfehlen. Die vorgeschlagene Methode besteht aus zwei Schritten: (1) Entdeckung inhaltsbezogener Itemsets unter Verwendung von Item-based Collaborative Filtering (CF) und (2) Anwendung der Itemsets auf den Algorithmus des Sequential Pattern Mining (SPM), um Items nach gemeinsamem Lernen zu filtern Sequenzen. Die beiden Ansätze werden kombiniert, um potenziell nützliche Lernelemente zu empfehlen, die Benutzer in ihren aktuellen Lernprozessen anleiten. Wir wenden den vorgeschlagenen Ansatz auch auf eine Peer-to-Peer-Lernumgebung für den Ressourcenvorabruf an, wenn kein zentrales Verzeichnis von Lernelementen verfügbar ist. Zur Evaluierung der vorgeschlagenen Methode werden Experimente in einem zentralen und einem P2P-Online-Lernsystem durchgeführt und die Ergebnisse zeigen eine gute Leistung.;-;-;-;https://link.springer.com/article/10.1007/s11280-012-0187-z 381a1174db0da3db291cd14b8730bc39;de;;;7.3.;;;Entwicklung einer MAS-Plattform für die semantische Serviceintegration basierend auf dem SWSA In diesem Beitrag wird eine Multi-Agent-System (MAS)-Plattform für die semantische Serviceintegration basierend auf der Semantic Web Services Initiative Architecture (SWSA) diskutiert. Zur konkreten Umsetzung des SWSA definieren wir eine Softwarearchitektur. Die Architektur erfüllt grundlegende Anforderungen der Teilprozesse der SWSA. Softwareagenten werden bei der automatischen Erkennung und Ausführung der Semantic Web Services innerhalb dieser Architektur verwendet. Wir erarbeiten auch die Implementierung der Teilprozesse der SWSA (Service Advertisement, Discovery, Engagement und Enactment) unter Berücksichtigung der Hauptkomponenten der definierten Architektur und deren Wechselwirkungen. Daher können die Entwickler mit dieser flexiblen und erweiterbaren Plattform einfach semantische Webservice-Technologien nutzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76888-3_28 5d90d8202642bbfdfff0cbd8e36d595a;de;;;7.3.;;;C&C: Ein effektiver Algorithmus zum Extrahieren von Web-Community-Kernen Communities sind ein wichtiges Muster des Webs. Eine Community ist eine Gruppe von Seiten zu einem gemeinsamen Thema. Web-Communities können durch dichte bipartite Teilgraphen charakterisiert werden. Jede Community enthält mit ziemlicher Sicherheit mindestens einen Kern. Ein Kern ist ein vollständiger zweiteiliger Graph (CBG). Wir konzentrieren uns auf die Probleme beim Extrahieren solcher Community-Kerne aus dem Web und schlagen in diesem Papier eine effektive;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14589-6_32 554b6764e06e9ed14b2760e0fa5e99bb;de;;;7.3.;;;Taxonomie von IoT-Schwachstellen Obwohl derzeit eine Vielzahl von Sicherheitsmechanismen zur Verbesserung der IoT-Sicherheit existiert, bleiben viele Forschungs- und Betriebsprobleme ungelöst, was verschiedene Bedenken aufwirft und damit das Vertrauen in das IoT-Paradigma untergräbt. Um eine neue Perspektive in Bezug auf die IoT-Sicherheit zu präsentieren, wird in diesem Kapitel die Taxonomie von IoT-Schwachstellen im Kontext verschiedener Dimensionen gegeben und mögliche zukünftige Richtungen diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-45858-4_2 d5ea95a4424f90f82354b258905d60e3;de;;;7.3.;;;Dynamische vorlagenbasierte Online-Ereigniserkennung In diesem Papier schlagen wir einen neuen dynamischen vorlagenbasierten Ereigniserkennungsalgorithmus (DTED) vor. Die Kandidatenvorlage eines Ereignisses wird zunächst aus einer Reihe von Texten oder deren Surrogate konstruiert. Jede Kandidatenvorlage enthält mehrere Terme, die automatisch durch den in diesem Artikel vorgeschlagenen Termgewichtungsalgorithmus extrahiert werden. Dann klassifizieren wir jeden Text durch eine neue Ähnlichkeitsfunktion in ein Kandidatenereignis. Einige unbedeutende Kandidatenvorlagen werden gelöscht. Ob eine Ereignisvorlage ein neu aufgetretenes Ereignis darstellt oder nicht, wird durch Vergleich mit den Ereignisvorlagen bestimmt, die im vorherigen Zeitfenster erstellt wurden. Einige Events werden mit bestehenden Events zusammengeführt und ihre Vorlagen werden erneut aktualisiert. Um den vorgeschlagenen DTED-Algorithmus zu bewerten, konstruieren wir zwei Datensätze für das Experiment und das F-Maß wird als Leistungsmetrik verwendet. Das Experimentergebnis zeigt, dass DTED den Single-Pass-Algorithmus und die Clustering-Algorithmen, die im Cluto-Toolkit implementiert sind, übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24965-5_18 c3c6c5be20583d6c3a073cdb26e9f821;de;;;7.3.;;;Implementierung eines internetbasierten Abstimmungssystems für öffentliche Wahlen Weltweite Forschungsgruppen haben elektronische Fernabstimmungssysteme mit verschiedenen Ansätzen ohne Rechtsgrundlage entwickelt. 2001 verabschiedete das österreichische Parlament ein Gesetz, das die elektronische Stimmabgabe mit digitalen Signaturen für öffentliche Wahlen erlaubt. Neben diesen gesetzlichen Vorgaben muss ein Algorithmus das grundsätzliche technische Problem lösen, den Nutzer eindeutig zu identifizieren, dabei aber die Anonymität der Stimme zu gewährleisten und zudem Betrug durch die Wahlverwaltung zu verhindern. In diesem Beitrag geben die Autoren einen Erfahrungsbericht über die Implementierung der ersten Phase eines Algorithmus, der diese Anforderungen erfüllt, indem die Registrierungsphase von der Abstimmungsphase strikt getrennt wird.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-2673-0_34 080aeded52c2d3860c902e6d5c8930c2;de;;;7.3.;;;E-Demokratie und Netzwerkexternalitäten – Der Fall der Websites finnischer Parlamentsabgeordneter Effektive Kommunikation zwischen Wählern und Abgeordneten ist ein wesentlicher Erfolgsfaktor Demokratie. Glücklicherweise bietet die moderne Informationstechnologie viele neue Kanäle, um sich um diese Kommunikation zu kümmern. Traditionell haben die Abgeordneten statische WWW-Sites unterhalten, aber heutzutage sind dynamischere und interaktivere Kommunikationsformen wie Blogs, Facebook und Twitter für die Abgeordneten gerade bei weniger populären Politikern fast ein Muss. Wie bei jeder Technologieanwendung treten auch bei der WWW-Präsenz von Abgeordneten Netzwerkexternalitäten auf: unerwartete Folgen der Webpräsenz. In diesem Artikel werden einige vorläufige Konzepte und Ideen zu diesen Netzwerkexternalitäten dargelegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16283-1_15 aec8c3cc15e571dfbe96567ca7c198c6;de;;;7.3.;;;Eingeladener Vortrag: Die vielen Wunder des Webgraphen Der Webgraph, also der durch Webseiten als Knoten und ihre Hyperlinks als gerichtete Kanten induzierte Graph, ist für viele Menschen zu einem faszinierenden Studienobjekt geworden: Physiker, Soziologen, Mathematiker, Informatiker und Information Retrieval-Spezialisten.;-;-;-;https://link.springer.com/chapter/10.1007/11527954_14 75a0a04f7bf9af23f230466d98cec2d6;de;;;7.3.;;;Verbessern Sie das Ranking durch die Verwendung von Bildinformationen In diesem Artikel wird untersucht, wie es möglich ist, in Webseiten eingebettete Bildinformationen in die Relevanzberechnung einzubeziehen, um die Suchleistung zu verbessern. Bei der Bestimmung des Rankings von Webseiten in Bezug auf eine bestimmte Suchanfrage berücksichtigen die meisten (wenn nicht alle) modernen Websuchmaschinen zwei Arten von Faktoren: Textinformationen (einschließlich Titel, URL, Fließtext, Ankertext usw.) und statisches Ranking (z. B. PageRank .). [1]). Obwohl Bilder weit verbreitet verwendet wurden, um Webseiten darzustellen und wertvolle Informationen zu tragen, wurde wenig daran gearbeitet, sie bei der Berechnung der Relevanzbewertung einer Webseite bei einer Abfrage zu nutzen. In diesem Papier schlagen wir ein Framework vor, um Bildinformationen in Ranking-Funktionen aufzunehmen. Vorläufige experimentelle Ergebnisse zeigen, dass bei richtiger Verwendung von Bildinformationen die Rankingergebnisse verbessert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71496-5_62 dffb89cd2698ee0b7676941d578272a2;de;;;7.3.;;;Nutzung von Interneteinrichtungen im Bildungsbereich Hypertext-Dokumente bieten völlig neue Möglichkeiten in allen Aspekten der Kommunikation sowohl zwischen Menschen als auch zwischen Mensch und Computer. Das Poster zeigt typische Bildschirme eines Webdokuments, das als Kommunikationsmittel zwischen einem Dozenten und einer ziemlich großen Gruppe von Studenten verwendet wird, die an verschiedenen Kursen der Universität Malta teilnehmen. Das Spektrum der Studierenden reicht vom Junior College (6. Klasse) über verschiedene grundständige Studiengänge bis hin zur Vorbereitung auf den B.Sc. Thesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35175-9_86 0d1db5c3ccbefb6320b7e8281dfead64;de;;;7.3.;;;Messung der Normalität des Verhaltens von Web-Proxies basierend auf Lokalitätsprinzipien Web-Proxy und Cache spielen im modernen Internet eine wichtige Rolle. Obwohl viel daran gearbeitet wurde, konzentrierten sich nur wenige Studien darauf, dass diese vertrauenswürdigen Vermittler verwendet werden können, um webbasierte Angriffe zu starten und das bösartige Verhalten der Angreifer abzuschirmen. Dieses Papier füllt eine Lücke in diesem Bereich, indem es ein neues serverseitiges Erkennungsschema vorschlägt, das auf den Verhaltensmerkmalen von Proxy-zu-Server-Webverkehr basiert. Das Zugriffsverhalten des Proxys wird aus der zeitlichen Lokalität und den Bytes der angeforderten Objekte extrahiert. Um die dynamische Variabilität der beobachteten Variablen zu beschreiben, wird ein stochastischer Prozess basierend auf Gauß'schen Mischungen Hidden Semi-Markov Modell angewendet. Als Kriterium für die Angriffserkennung werden die Entropien der anstehenden Web-Traffic verwendet, die von modellgerechten Proxies gestartet werden. Experimente basierend auf dem realen Webverkehr und einem emulierten Angriff werden durchgeführt, um den Vorschlag zu validieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88140-7_6 fd92aec5e90aba1c2046908dda5b6bc6;de;;;7.3.;;;Wandel des Zeitungsunternehmens in den 1990er Jahren (und darüber hinaus) Wie erfolgreich ist die Zukunft der Zeitungsbranche? Glaubt man der Investment-Community, sieht die Zukunft vielversprechend aus. So prognostiziert Veronis, Suhler & Associates, eine angesehene Investmentbank in der Kommunikationsbranche, für 1995 bis 2000 ein durchschnittliches jährliches Wachstum der gesamten Zeitungsausgaben in den USA von 5,4 % (gegenüber 2,2 % für den Zeitraum 1990–1995) Veronis, Suhler & Associates, 1996a: 225). Verglichen mit einem durchschnittlichen jährlichen Wachstum von 8,5% für Abonnement-Videodienste, einer Wachstumsbranche, kann die Zukunftsbewertung der Zeitungsbranche als ziemlich gut bezeichnet werden. Ein weiterer Hinweis darauf, dass die (vermuteten) Zukunftsaussichten der Branche (aus Sicht der Anleger) recht gut sind, könnten die Kurs-Gewinn-Verhältnisse der börsennotierten Zeitungsunternehmen sein. Bei einem relativ hohen KGV wird in Zukunft ein starkes Gewinnwachstum erwartet oder die Aktie als stabil wahrgenommen. Das durchschnittliche KGV von zwölf großen öffentlichen Zeitungsunternehmen in den USA für 1996;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4587-9_6 c15525a97e5927c0f087d514b050aed9;de;;;7.3.;;;Destillation Die GALE-Destillationsaufgabe wurde entwickelt, um aus mehreren Quellentypen und Sprachen extrahierte Informationen zu synthetisieren und sie in kohärente und vollständige englische Darstellungen zu destillieren, die von Analysten direkt verwendet werden können. Dazu gehörte die Erkennung und Darstellung von Redundanz und Widerspruch, um große Informationsmengen leichter verdaulich zu machen. In diesem Kapitel wird die Arbeit für die Destillationsaufgabe von GALE erörtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-7713-7_4 ecd2a0164d01888e60c6e35f0497f38f;de;;;7.3.;;;Struktur und Dynamik komplexer Produktgestaltung Die Nützlichkeit des Verständnisses der organisationalen Netzwerkstruktur als Instrument zur Bewertung der Auswirkungen von Entscheidungen auf die Unternehmensleistung wurde in der sozialwissenschaftlichen und Managementliteratur [39-42] veranschaulicht. Dort hat sich gezeigt, dass informelle Beziehungsnetzwerke (z. B. Kommunikations-, Informations- und Problemlösungsnetzwerke) – und nicht formale Organigramme – die in der Organisation eingebetteten Koordinationsmuster und Arbeitsprozesse maßgeblich bestimmen. Netzwerke sind in den letzten Jahren auch die Grundlage für das Verständnis zahlreicher unterschiedlicher komplexer Systeme außerhalb der Sozialwissenschaften (z. B. Biologie, Ökologie, Ingenieurwissenschaften und Internettechnologie, vgl. [9, 10, 49]) geworden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-32834-3_3 37914d5e04229dd6578d8eec1e3fa0aa;de;;;7.3.;;;Re-Ranking der Relevanz durch auf Nähe basierendes Begriffshäufigkeitsmodell In dieser Internet-Ära verlassen sich die Menschen auf das wichtigste Werkzeug namens Suchmaschine, um attraktive Informationen aus dem Web zu finden. Außerdem erhöht die schnelle Zunahme der Nutzung des Internets das Datenvolumen im Internet, wodurch die meisten von der Suchmaschine abgerufenen Dokumente mit unangemessenen und redundanten Informationen, sogenannten Ausreißern, überhäuft werden. Dies vergrößert nicht nur den Ergebnisraum, sondern führt auch dazu, dass der Benutzer Zeit und Mühe verschwendet, die ihn dazu bringt, uninteressante Daten zu durchsuchen. Folglich ist eine Methode für die Webbenutzergemeinschaft unerlässlich, um uninteressante Informationen zu entfernen und die interessanten Daten auf Grundlage ihrer Anfrage organisiert darzustellen. Das Mining von Web-Content-Ausreißern ist ein vielversprechendes Forschungsgebiet, das diese Funktionen den Webbenutzern bietet. In dieser Forschungsarbeit wurde ein auf Nähe basierendes Begriffshäufigkeitsmodell entwickelt, um die entsprechenden Informationen abzurufen und die Qualität der von der Suchmaschine angebotenen Ergebnisse zu verbessern. Experimentelle Ergebnisse zeigen, dass das auf Nähe basierende Begriffshäufigkeitsmodell die Leistung im Hinblick auf die Neuordnung der Relevanz der abgerufenen Dokumente verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-68855-8_22 507388ca25d72452b2a9c974d903a590;de;;;7.3.;;;Bewertung des Nutzens webbasierter Verbraucher-Support-Tools mit groben Sets Im Web bieten viele beliebte E-Commerce-Sites den Verbrauchern Entscheidungshilfen, die sie bei ihrer handelsbezogenen Entscheidungsfindung unterstützen. Viele Verbraucher werden den Nutzen dieser Tools recht hoch einstufen. Daten aus Webnutzungs-Mining-Analysen, die Erkenntnisse über die Online-Erfahrungen eines Benutzers liefern können, könnten helfen, den Nutzen dieser Tools aufzuzeigen. Diese Art der Analyse könnte Aufschluss darüber geben, ob die bereitgestellten Tools die Verbraucher bei ihren Online-Shopping-Aktivitäten angemessen unterstützen oder ob neue oder zusätzliche Verbesserungen in Betracht gezogen werden müssen. Obwohl in der bisherigen Literatur einige Untersuchungen zu diesem Thema beschrieben wurden, gibt es noch viel zu tun. Die Autoren dieses Papiers stellen die Hypothese auf, dass eine Messung der Verbraucher;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84628-992-7_13 ddee3f4035bd7a988f995ebd6aea2319;de;;;7.3.;;;Der persönliche Publikationsleser: Veranschaulichen von Web-Datenextraktion, Personalisierung und Argumentation für das Semantic Web Dieser Beitrag zeigt, wie Semantic Web-Technologien den Entwurf und die Implementierung fortschrittlicher, personalisierter Informationssysteme ermöglichen. Wir demonstrieren anhand einer Beispielanwendung, wie personalisierte Content Syndication im Semantic Web realisiert werden kann. Unser Ansatz besteht aus zwei Hauptteilen: Dem Webdatenextraktionsteil, das dem Informationssystem dynamische Echtzeitdaten zur Verfügung stellt, und dem Personalisierungsteil, der – mit Hilfe von ontologischem Domänenwissen – personalisierte Ansichten auf die Daten ableitet. Der Prototyp des Systems wurde unter Verwendung der;-;-;-;https://link.springer.com/chapter/10.1007/11431053_35 16e2d21afb71a37c70a6cb835814389b;de;;;7.3.;;;Herausforderungen in der komplexen Systemwissenschaft FuturICT-Grundlagen sind Sozialwissenschaften, komplexe Systemwissenschaften und IKT. Die wichtigsten Anliegen und Herausforderungen der Wissenschaft komplexer Systeme im Kontext von FuturICT werden in diesem Beitrag mit besonderem Schwerpunkt;-;-;-;https://link.springer.com/article/10.1140/epjst/e2012-01694-y bd55c09660f882fa33d2f97aa770af4c;de;;;7.3.;;;Automatische Extraktion von Gesprächsprotokollen aus einer Choreographie-Spezifikation allgegenwärtiger Webdienste Während die Webservice-Technologie zu einem De-facto-Standard für die Integration von Geschäftsanwendungen wird, entwickelt sie sich auch schnell als wirksames Mittel, um die Interoperabilität zwischen den Geräten in netzwerkzentrierten allgegenwärtigen Systemen zu erreichen. Wenn ein solches Webdienst-fähiges Gerät eine Konversation mit einem Dienstanbieter führt, wird es notwendig, eine zwischen ihnen erforderliche Interaktionslogik zu definieren. Zu diesem Zweck kann man eine Choreografiesprache verwenden, um die Interaktionsregeln zwischen dem Gerät und dem Webdienstanbieter festzulegen. Dieses Papier präsentiert einen Rahmen für die automatische Synthese von Gesprächsprotokollen aus einer in WS-CDL definierten Choreografiebeschreibung. Das vorgeschlagene Framework übernimmt WSCL als Konversationsprotokollsprache und definiert eine Reihe von Regeln, die verwendet werden können, um eine WS-CDL-Spezifikation effektiv in WSCL-Dokumente für zusammenarbeitende Peers umzuwandeln. Es wird erwartet, dass die in diesem Papier vorgestellte Arbeit die Interoperabilität zwischen Webservice-basierten Prozessen in allgegenwärtigen Systemen durch die Automatisierung des Prozesses der Extraktion von Konversationsprotokollen aus einer Choreografiedefinition verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/11807964_13 9b6235bcb2efa8a90f80cef8b7a35ded;de;;;7.3.;;;Charakterisierung sozialer Maschinen Dieses einleitende Kapitel stellt die Idee der sozialen Maschinen vor. Die Metapher einer Maschine wird eingeführt und erklärt, wie sie auf soziale Gruppen zutrifft, die durch digital vernetzte Technologien, allgegenwärtige Geräte und große Datenmengen verbunden sind. Soziale Maschinen ermöglichen mechanistische Erklärungen sozialer Phänomene, ohne die reduktionistische Behauptung, dass diese sozialen Gruppen durch die Technologie bestimmt werden. Bausteine ​​des Konzepts der sozialen Maschinen werden aufgezählt und beschrieben, darunter heterogene Mensch-Computer-Netzwerke, Social Computing, Kommunikation, Plattformen und Gemeinschaften, Ökosysteme sozialer Maschinen, Dynamik von Netzwerken und verschiedene ethische Konzepte. Beispiele für soziale Maschinen werden vorgestellt, darunter Wikipedia, soziale Maschinen der Bürgerwissenschaft wie Zooniverse und Eyewire, soziale Maschinen im Gesundheitswesen und Pokémon Go! Nach Überlegungen zur Klassifizierung sozialer Maschinen und der Gegenüberstellung sozialer Maschinen mit ähnlichen Konzepten wie Crowdsourcing und Social Computing wird argumentiert, dass die Erstellung einer Definition sozialer Maschinen kontraproduktiv wäre, so die Fluidität des Konzepts und seiner sozialen und technischen Kontexte. Stattdessen wird das Buch untersuchen, wie technologisch aktivierte soziale Gruppen durch eine soziale Maschinenlinse untersucht werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-10889-2_1 60c1aa304adea0dbdb4fa088773da7ac;de;;;7.3.;;;Mobile Cloud e-Gov Design und Implementierung mit WebSockets API Als regierungsübergreifendes Rechenressourcen-integriertes Bauprojekt von Korea im Jahr 2010 ist ein Plan für integrierte Rechenressourcen-Bau- und Nutzungspläne für 139 Systeme von 34 Regierungsabteilungen mit Cloud-Computing in Arbeit. Daher entwerfen wir in diesem Papier Mobile Cloud Computing e-Gov mit einem Cloud-Cluster der Zentralregierung unter Verwendung der neu zu HTML5 hinzugefügten WebSockets-API. Wir bauen UCS, das den Mobile Cloud Computing-Service direkt ausführt, und kommunizieren Full Duplex mit jedem WAS der Organisation im Mobile Web von UCS direkt. Als Ergebnis ermöglicht das in diesem Papier vorgestellte Modell einen Daten-Push vom Server mit wahrer Bedeutung, der bisher in HTTP nicht vollständig realisiert wurde, und materialisiert interaktive Kommunikation, bei der sich die Echtzeitleistung der Webanwendung stark verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22333-4_25 93fc009ff5a1325aa8c51d325da0389c;de;;;7.3.;;;Erkennung chinesischer benannter Entitäten mit einem hybrid-statistischen Modell Mit dem rasanten Wachstum der verfügbaren Informationen im Internet wird es für uns immer schwieriger, die relevanten Informationen schnell im Web zu finden. Named Entity Recognition (NER), eine der Schlüsseltechniken in einigen Web-Informationsverarbeitungstools, wie dem Informationsabruf und der Informationsextraktion, wird immer mehr Aufmerksamkeit geschenkt. In diesem Papier behandeln wir das Problem der chinesischen NER mit Hilfe eines hybrid-statistischen Modells. Diese Studie konzentriert sich auf Entitätsnamen (Personennamen, Ortsnamen und Organisationsnamen), zeitliche Ausdrücke (Datum und Uhrzeit) und Zahlenausdrücke. Das Verfahren zeichnet sich wie folgt aus: Erstens wurden NER und Part-of-Speech-Tagging in ein einheitliches Framework integriert, zweitens kombiniert es Hidden Markov Model (HMM) mit Maximum Entropy Model (MEM), indem es MEM als Untermodell nimmt im Viterbi-Algorithmus aufgerufen, drittens wurden die Part-of-Speech-Informationen des Kontexts in MEM verwendet. Das Experiment zeigt, dass das hybrid-statistische Modell bevorzugte Ergebnisse der chinesischen NER erzielen könnte, bei der der F1-Wert für alle Arten von benannten Entitäten bei offenen Testdaten zwischen 74 % und 92 % liegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-31849-1_86 49f891b59337ecbdf73cb017fce19809;de;;;7.3.;;;Semantische Autovervollständigung Dieser Beitrag verallgemeinert die Idee der traditionellen syntaktischen Text-Autovervollständigung auf die semantische Ebene. Die Idee ist, getippten Text automatisch in ontologische Kategorien statt in Wörter in einem Vokabular zu vervollständigen. Die Idee wurde umgesetzt und ihre Anwendung für die semantische Indexierung und die inhaltsbasierte Informationssuche in der Multifacettensuche vorgeschlagen. Als Anwendungsfälle werden vier operationelle semantische Portale im Web vorgestellt, die die Implementierung verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/11836025_72 b9e4e952a7b2f490ac4d13a0b7de8c47;de;;;7.3.;;;Grid Resource Discovery mit semantischen Communities Grid-Technologien ermöglichen die gemeinsame Nutzung und Zusammenarbeit einer Vielzahl von Ressourcen. Um diese Ressourcen vollständig zu nutzen, sind effektive Mechanismen zur Ressourcenerkennung erforderlich. Die komplizierten und dynamischen Eigenschaften der Grid-Ressourcen machen jedoch deren gemeinsame Nutzung und Entdeckung zu einer Herausforderung. In diesem Papier schlagen wir einen semantischen Community-Ansatz vor, um die effiziente Ressourcenerkennung und Abfrage in Grids zu unterstützen. Semantische Gemeinschaft ist eine natürliche Anordnung verteilter Systeme. Es beschneidet den Suchraum und reduziert die Suchkosten. Darüber hinaus weist es viele wünschenswerte Eigenschaften auf, einschließlich der vollständigen Dezentralität und der Unterstützung komplexer Abfragen. Unsere Simulationsergebnisse zeigen, wie das Durchsuchen der Gitter semantische Gemeinschaften nutzen kann, um die Suchkosten zu reduzieren und die Qualität der Suchergebnisse zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/11590354_83 3748752472145a5154e83fbd69c26dd1;de;;;7.3.;;;Datenschutzrichtlinien und nationale Kultur im Internet Das Web ermöglicht es Verbrauchern und Anbietern heute, Geschäfte fast ohne Rücksicht auf den physischen Standort abzuwickeln. Dies bedeutet jedoch nicht, dass alle Barrieren beseitigt sind, kulturell begründete Annahmen über das Verhalten der anderen Partei können zu großen Missverständnissen führen. Als ein besonderes Beispiel für diese unterschiedlichen Annahmen untersuchen wir die Unterschiede in datenschutzrelevanten Entscheidungen von Website-Betreibern (von denen erwartet werden kann, dass sie zwischen den Kulturen variieren). Insbesondere versuchen wir zu verstehen, ob möglicherweise neue Verhaltensnormen entstehen, da Online-Anbieter den Schaden erkennen, den Verletzungen der Privatsphäre dem Vertrauen der Verbraucher zufügen. Wir präsentieren eine groß angelegte empirische Studie zu datenschutzsensiblen Handlungen im Internet kulturübergreifend. Unsere Studie basiert auf einer automatisierten Analyse von P3P-Dokumenten, die auf den 100.000 beliebtesten Websites veröffentlicht wurden. Wir stellen fest, dass die Einführung von P3P sowie spezifische Unternehmensrichtlinien je nach kultureller Dimension variieren. Die Analyse legt auch nahe, dass Diskrepanzen zwischen Bedenken hinsichtlich des Datenschutzes und der Einführung von Technologien zur Verbesserung der Privatsphäre innerhalb einer Kultur bestehen.;-;-;-;https://link.springer.com/article/10.1007/s10796-011-9336-7 339f7da0bc37ff34b947832525a097f4;de;;;7.3.;;;Kombination der semantischen Websuche mit der Kraft des induktiven Denkens Mit der Einführung des Semantic Web als zukünftigem Ersatz für das Web entwickelt sich die zentrale Aufgabe des Webs, nämlich die Websuche, hin zu einer neuartigen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15951-0_17 6a91040071f17c879c23bb57aa70e5fc;de;;;7.3.;;;Kollektive Intelligenz verstehen In dieser Post-Dot-Com-Ära verändert sich das Web. Neuere Webanwendungen vertrauen ihren Nutzern, laden sie zur Interaktion ein, vernetzen sie mit anderen, holen frühzeitig Feedback von ihnen ein und nutzen die gesammelten Informationen dann zur ständigen Verbesserung der Anwendung. Webanwendungen, die diesen Ansatz verfolgen, bauen tiefere Beziehungen zu ihren Benutzern auf, bieten den Benutzern mehr Wert, wenn sie häufiger zurückkehren, und bieten letztendlich für jeden Benutzer gezieltere Erfahrungen entsprechend seinen persönlichen Bedürfnissen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25321-8_2 8f96e7b0ac99227ae35e21c51bd5c2f8;de;;;7.3.;;;Warum schlagen Upgrades fehl und was können wir dagegen tun? Upgrades von Unternehmenssystemen sind unzuverlässig und führen oft zu Ausfallzeiten oder Datenverlust. Fehler beim Upgrade-Vorgang, wie beispielsweise unterbrochene Abhängigkeiten, sind die Hauptursache für Upgrade-Fehler. Wir schlagen ein neuartiges Upgrade-zentriertes Fehlermodell vor, das auf Daten aus drei unabhängigen Quellen basiert und sich auf die Auswirkungen von Verfahrensfehlern und nicht auf Softwarefehler konzentriert. Wir zeigen, dass aktuelle Ansätze zum Upgrade von Unternehmenssystemen, wie z. B. Rolling Upgrades, anfällig für diese Fehler sind, da das Upgrade kein atomarer Vorgang ist und das Risiko besteht, versteckte Abhängigkeiten zwischen den verteilten Systemkomponenten aufzubrechen. Außerdem stellen wir einen Mechanismus vor, um komplexe Verfahrensfehler während eines Upgrades zu tolerieren. Unser System namens Imago verbessert die Verfügbarkeit im fehlerfreien Fall, indem es ein Online-Upgrade durchführt und im fehlerhaften Fall das Risiko eines Ausfalls durch Aufbrechen versteckter Abhängigkeiten reduziert. Imago führt ein End-to-End-Upgrade atomar und zuverlässig durch, indem der neuen Version separate Ressourcen zugewiesen und die alte Version vom Upgrade-Verfahren isoliert wird. Durch Fehlerinjektion zeigen wir, dass Imago zuverlässiger ist als Online-Upgrade-Ansätze, die auf Abhängigkeitsverfolgung basieren und Systemzustände mit gemischten Versionen erzeugen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10445-9_18 9e40707026ad15e1190da6c64cbfaf17;de;;;7.3.;;;Sozialunternehmen in elektronischen Märkten: Weblokalisierung oder Standardisierung Die Frage, wie Sozialunternehmen (SEs) – Organisationen, die durch innovative Ideen und Strategien an der Lösung sozialer Probleme arbeiten – das Internet zur Internationalisierung nutzen, hat in der elektronischen Geschäftsliteratur wenig Beachtung gefunden. Wir gehen dieses Problem an, indem wir untersuchen, ob SEs eine Web-Globalisierungsstrategie verfolgen, die über die nationalen Märkte hinweg standardisiert oder lokalisiert und kulturell an einzelne Orte angepasst ist. Anerkanntes Wissen über E-Commerce-Unternehmen sagt voraus, dass diese Firmen mit Weblokalisierung besser dran wären. Eine Untersuchung mit Inhaltsanalyse und zwei Fallstudien, ergänzt durch persönliche und digitale Interviews, zeigt jedoch, dass sich SEs von Natur aus von gewinnorientierten Unternehmen in der Web-Globalisierung unterscheiden. Insbesondere zeigt dieses Papier, dass SEs eine Webstrategie mit hohem Standardisierungsgrad verfolgen, um potenzielle Spender, Influencer und Freiwillige zu mobilisieren, aufzuklären, zu befürworten und zu rekrutieren. Eine solche Strategie ermöglicht es SEs, Legitimität aufzubauen und ihre globale Marke zu stärken. Unsere empirischen Ergebnisse zeigen die Einzigartigkeit des digitalen Kontexts von SEs aus gewinnorientierten E-Commerce-Unternehmen und die Notwendigkeit eines geeigneten theoretischen Rahmens.;-;-;-;https://link.springer.com/article/10.1007/s12525-020-00430-7 eb26552256143323d0d1541ddbefb30d;de;;;7.3.;;;Die Ecolead Collaborative Business Infrastructure für vernetzte Organisationen Dieses Papier weist auf die Notwendigkeit fortschrittlicher kollaborativer ICT-Infrastrukturen (CBI) für CNOs, die Anforderungen für die Entwicklung von CBIs und die Technologien und Trends hin, die CNO-Themen berücksichtigen. Das im ECOLEAD-Projekt entwickelte CBI wird ebenfalls vorgestellt und zeigt, wie die meisten dieser Anforderungen und neu entstehende IKT darin integriert wurden. Dieses CBI – genannt;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-84837-2_47 899e5c36550716388b1c4fdd744e785e;de;;;7.3.;;;Mining-Webdaten Das Web ist in vielerlei Hinsicht ein einzigartiges Phänomen, in Bezug auf seinen Umfang, die verteilte und unkoordinierte Natur seiner Erstellung, die Offenheit der zugrunde liegenden Plattform und die daraus resultierende Vielfalt von Anwendungen, die es ermöglicht hat. Beispiele für solche Anwendungen umfassen E-Commerce, Benutzerkollaboration und Analyse sozialer Netzwerke. Aufgrund der verteilten und unkoordinierten Natur, in der das Web sowohl erstellt als auch verwendet wird, ist es eine reiche Fundgrube unterschiedlicher Datentypen. Diese Daten können entweder eine Wissensquelle zu verschiedenen Themen oder personenbezogene Informationen über Benutzer sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-14142-8_18 b59cca7758e28fa2aa828c29c742962b;de;;;7.3.;;;Effizientes innovatives Lehrkonzept des Internets der Dinge basierend auf Praxis Als eine der neuen strategischen Industrien ist das Internet der Dinge ein neues umfassendes Thema mit starker Anwendbarkeit (IOT). Nur die praktischen Fähigkeiten der Studierenden weiter verbessern, die Barriere zwischen Lehrplänen und Fächern leichter durchbrechen und die Technik des Internet der Dinge besser handhaben können. Dieser Beitrag stellt einen praxisorientierten Plan auf der Grundlage von Experimenten und Projektentwicklungen vor, der die moderne Informationsverarbeitungstechnologie und das Wissen aus interdisziplinären Studiengängen kombiniert und zusammenführt. Die Analyse zeigte, dass die Kernkompetenzen der Studierenden stark verbessert und ihre berufliche Qualität durch das Ausbildungsprogramm deutlich verbessert wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-3872-4_63 0a88f646f3a81ac1baa36ff31c5b06d0;de;;;7.3.;;;Nutzung von Domänenwissen durch automatisierte Taxonomie-Generierung in Empfehlungssystemen Die Effektivität der Integration von Domänenwissen in Empfehlungssysteme, um ihr Sparseness-Problem anzugehen und ihre Vorhersagegenauigkeit zu verbessern, wurde in vielen Forschungsarbeiten diskutiert. Diese Technik ist jedoch aufgrund ihres hohen Rechenaufwands in der Praxis meist eingeschränkt. Obwohl die Clusteranalyse die rechnerische Komplexität des Empfehlungsverfahrens verringern kann, ist sie nicht zufriedenstellend, wenn es darum geht, paarweise Item-Ähnlichkeiten zu bewahren, was die Empfehlungsqualität stark beeinträchtigen würde. In diesem Beitrag schlagen wir einen effizienten Ansatz vor, der auf der Technik der automatisierten Taxonomie-Generierung basiert, um relationales Domänenwissen in Empfehlungssystemen zu nutzen, um eine hohe Systemskalierbarkeit und Vorhersagegenauigkeit zu erreichen. Basierend auf dem Domänenwissen wird in einer Offline-Phase ein hierarchisches Datenmodell synthetisiert, um die ursprünglichen paarweisen Elementähnlichkeiten zu bewahren. Das Modell wird dann von Online-Recommender-Systemen verwendet, um die Ähnlichkeitsberechnung zu erleichtern und ihre Empfehlungsqualität mit diesen Systemen durch Echtzeitausnutzung von Domänenwissen vergleichbar zu halten. Es wurden Experimente mit realen Datensätzen durchgeführt, um unseren Ansatz zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03964-5_12 5b359e029aeefd5c0c98747be9c008cf;de;;;7.3.;;;Ein System zur Erkennung von Textkopien basierend auf einer komplexen Ereignisverarbeitungsarchitektur Die Textkopieerkennung spielt eine wichtige Rolle beim Schutz des geistigen Eigentums. Es ist ein typisches ressourcenverbrauchendes System. Die traditionelle Softwarearchitektur, bei der ein einzelner Erkennungsprozess den gesamten Erkennungsablauf abdeckt, setzt die Leistungsfähigkeit von Cloud Computing nicht frei. Der Beitrag stellt ein auf Complex Event Processing basierendes System zur Erkennung von Textkopien vor, das zu einem offenen Webservice weiterentwickelt wird. Die neue Architektur eignet sich für Cloud Computing und die weiteren Vorteile werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22760-8_23 12ec1c7276980c13870bf33503075761;de;;;7.3.;;;Analyse sozialer Netzwerke basierend auf der Identifizierung der Autorenschaft für die Untersuchung von Cyberkriminalität Mit der rasanten Entwicklung des Internets wird die Cyberkriminalität über das Internet ernst. Das Mining ihrer Kommunikation kann verwendet werden, um einige latente kriminelle Aktivitäten aufzudecken. Die Analyse sozialer Netzwerke wird verwendet, um ihren sozialen Kommunikationsstatus zu verstehen. Die Verbreitung von Informationen im Internet ist jedoch kostenlos. Kriminelle können sich in jeder Ecke verstecken, indem sie ihre persönlichen Daten fälschen oder anonymisieren. Methoden zur Identifizierung der Autorenschaft, die auf Stilometrie basieren, sind notwendig, um die wahre Autorenschaft von Kriminellen zu identifizieren. In diesem Beitrag wurden daher Methoden zur Analyse sozialer Netzwerke basierend auf E-Mail und Blog vorgestellt. Es wurde eine Identifizierung der Autorenschaft vorgeschlagen, um die Authentizität der Autorschaft zu beurteilen. Es wurden Experimente zur Analyse sozialer Netzwerke von E-Mail- und Blog-Datensätzen demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22039-5_3 4734e31aa6af820ec11124c61d62313c;de;;;7.3.;;;Intelligente MCDSSs in der Financial Engineering-Praxis Die gesamte Darstellung in den vorherigen Kapiteln dieses Buches hat eine eher theoretische Sichtweise der Systemformen übernommen, die die Grundlage der intelligenten MCDSS-Entwicklung bilden, einschließlich DSSs, ESs und KBDSSs. Dies war notwendig, um die zugrunde liegenden Konzepte, die im intelligenten MCDSS-Framework implementiert sind, schrittweise einzuführen und deren Hauptfunktionalitäten und Hauptvorteile darzustellen. Man könnte jedoch leicht die Frage stellen, ob und wie dieser neue Rahmen in die Financial Engineering-Praxis von Finanzinstituten, Organisationen und Unternehmen übernommen wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4663-4_6 9bbabb06f9eebc4642e61765e81429a6;de;;;7.3.;;;Verwenden von Semantik für die richtlinienbasierte Zusammensetzung von Webdiensten Die Verbreitung von Webtechnologien und des allgegenwärtigen Internets hat zu einem enormen Anstieg der Notwendigkeit geführt, Webdienste aus einer Hand bereitzustellen, die oft aus mehreren Komponentendiensten bestehen, die Unternehmensgrenzen überschreiten. Es ist wichtig, dass diese Webdienste, die in diesem Dokument als;-;-;-;https://link.springer.com/article/10.1007/s10619-005-1073-9 6b2f7c69ac1e4b1a9b87c399a7222a47;de;;;7.3.;;;Computer- und Internet-bezogene Überzeugungen unter estnischen Computerbenutzern und Nichtbenutzern Dieses Papier zielt darauf ab, die Computer- und Internet-bezogenen Ansichten unter estnischen Computerbenutzern und Nichtbenutzern zu untersuchen. Es verwendet Daten aus zwei national repräsentativen Umfragen, um sieben internet- und computerbezogene Überzeugungen zu analysieren. Das Papier erörtert auch, wie das Verständnis der Meinungen von Computerbenutzern und Nichtbenutzern die Politik der Informationsgesellschaft beeinflussen sollte. Abschließend werden politische Vorschläge zur Sichtbarkeit der Technologien, zur digitalen Kompetenz und zum Bedarf an Datenüberwachung gemacht.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-37876-3_36 376b3db1e331e5da7d2e2deac55e69fd;de;;;7.3.;;;UWE4JSF: Ein modellgetriebener Generationsansatz für Webanwendungen Model-Driven Engineering ist ein vielversprechender Ansatz, doch es sind noch viele Hürden zu nehmen. Das Tool UWE4JSF löst die Hürden für die modellgetriebene Entwicklung von mit UWE entworfenen Webanwendungen. Es baut auf einer Reihe von Modellen und domänenspezifischen Anmerkungen auf – insbesondere einem abstrakten und einem konkreten Präsentationsmodell. Es ist vollständig in Eclipse integriert und als Plugin-Set implementiert, das Modelltransformationen und vollautomatische Codegenerierung unterstützt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02818-2_46 9ff3cd73c3212b22fec89c7e93d485c5;de;;;7.3.;;;E-Commerce und Sicherheitsgovernance in Entwicklungsländern Sicherheit wird sehr oft als eine der Voraussetzungen für das schnellere Wachstum des E-Commerce genannt. Ohne ein sicheres und zuverlässiges Internet werden Kunden weiterhin zögern, vertrauliche Informationen wie Kreditkartennummern online anzugeben. Darüber hinaus verlassen sich Organisationen aller Art und Größe weltweit in hohem Maße auf Technologien des elektronischen Handels (E-Commerce), um ihre täglichen Geschäftstransaktionen durchzuführen. Die Bereitstellung einer sicheren E-Commerce-Umgebung für Unternehmen ist insbesondere in Ländern des Nahen Ostens ein wichtiges und herausforderndes Thema. Ohne sicheren E-Commerce ist es fast unmöglich, die Chancen der E-Commerce-Technologien zu nutzen. E-Commerce kann kleinen Unternehmern in Ländern des Nahen Ostens Chancen eröffnen. Dies erfordert die Beseitigung von Infrastrukturblockaden in Telekommunikation und Logistik sowie die Steuerung des E-Commerce mit Richtlinien zum Verbraucherschutz, zur Sicherheit von Transaktionen, zum Datenschutz und zum geistigen Eigentum. In diesem Papier werden wir die rechtlichen Auswirkungen der Governance der E-Commerce-Sicherheit untersuchen, indem wir festlegen, wer für die Einhaltung dieser Disziplin verantwortlich ist, den Wert demonstrieren, der aus der Governance der Informationssicherheit abgeleitet werden kann, die Methodik der Anwendung der Governance der Informationssicherheit und die Haftung für Nichteinhaltung dieser Disziplin. Unser Hauptaugenmerk wird auf der Analyse der Bedeutung und der Auswirkungen von E-Commerce-Sicherheitsgovernance in Entwicklungsländern liegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69403-8_33 c2da48208208ba330b8d6f03c3bed030;de;;;7.3.;;;Eine Websuchmethode basierend auf der zeitlichen Beziehung von Suchschlüsselwörtern Da die Nutzung des Webs immer beliebter geworden ist, wurde die Suche nach bestimmten Inhalten verfeinert, indem es Benutzern ermöglicht wurde, mehrere Schlüsselwörter als Abfragen einzugeben. Einfache Kombinationen mehrerer Suchschlüsselwörter führen jedoch möglicherweise nicht zu zufriedenstellenden Suchergebnissen. Wir schlagen daher eine Suchmethode vor, die Abfrageschlüsselwörter automatisch kombiniert, um Abfragen zu generieren, indem die Beziehungen zwischen Abfrageschlüsselwörtern extrahiert werden. Diese Methode besteht aus zwei Websuchprozessen: einem zum Bestimmen der zeitlichen Beziehungen zwischen Abfrageschlüsselwörtern und einem zum Generieren von Abfragen basierend auf den erhaltenen zeitlichen Beziehungen. Wir diskutieren diese beiden Prozesse zusammen mit experimentellen Ergebnissen und Implementierungsproblemen in Bezug auf ein prototypisches System.;-;-;-;https://link.springer.com/chapter/10.1007/11912873_4 052f4d8b8efb9611fb5970a2e084ef5b;de;;;7.3.;;;Crowd-based Methodik der Softwareentwicklung im Internetzeitalter Im heutigen Internetzeitalter hat Software alle Aspekte des Lebens der Menschen infiltriert, der Trend zum softwaredefinierten Alles ist im Wesentlichen nicht aufzuhalten. Von den klassischen Methoden des Software-Engineerings wird erwartet, dass sie Software zu niedrigen Kosten und mit starker Funktionalität produzieren, indem sie den Entwicklungsprozess unter Verwendung von Industrialisierungsmethoden und -prinzipien leiten. Mit zunehmender Komplexität von Software-Anwendungsszenarien und Betriebsumgebungen, insbesondere im Internet-Zeitalter, bleiben jedoch erhebliche Engpässe bei der Verbesserung der Effizienz und Qualität der Softwareentwicklung bestehen. Im Vergleich zu den Engineering-Methoden kann Open Source Zehntausende von Mitwirkenden anziehen, um am Software-Erstellungsprozess teilzunehmen. Diese Methodik ist gegenüber der Individualität jedes Entwicklers ehrerbietiger und zielt darauf ab, ein liberales, vielfältiges und demokratisches Umfeld zu schaffen, um so den Enthusiasmus und die kreative Inspiration der Mitwirkenden in großem Umfang zu stimulieren und letztendlich mehr kollektive Weisheit zu erzeugen. Aber die Herausforderungen bei der Diversifizierung individueller Interessen, die Ungleichmäßigkeit der Beitragsmöglichkeiten und die unvorhersehbaren Ergebnisse der Gruppenzusammenarbeit machen es nicht möglich, die Aufgaben einer klaren und organisierten Softwareherstellung vollständig zu erfüllen. In diesem Kapitel schlagen wir eine Crowd-basierte Methodik vor, die den Software-Erstellungsprozess in den Software-Herstellungsprozess integriert, ein kleines, aber gut organisiertes Kernteam mit selbstorganisierten, aber großen Crowd-Mitwirkenden verbindet und ein Software-Opus transformiert Produkte zeitnah zu erhalten. Basierend auf der Crowd-basierten Methodik entwerfen und implementieren wir die TRUSTIE-Umgebung, um den Aufbau des Software-Ökosystems zu unterstützen. Wir veranschaulichen Rahmen und Schlüsseltechnologien und stellen typische Anwendungspraktiken sowohl in eigenen Unternehmen als auch in Online-Communities vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-7099-1_9 50ab7e46c1f3e278dda8082af83b87fe;de;;;7.3.;;;Ein hybrides Empfehlungsmodell für mobile HTML5-Webanwendungen In den letzten Jahren wurden die HTML5-Webtechnologien immer beliebter. HTML5 bietet eine Vielzahl neuer Funktionen und APIs, die von den Anwendungen verwendet werden können, die in den Browsern der Terminals ausgeführt werden, insbesondere auf mobilen Geräten. Diese neue Art von Anwendung wird als HTML5 Mobile Web Applications (im Folgenden Web Apps) bezeichnet. Web Apps werden in einfachen Websprachen wie HTML, CSS und JavaScript geschrieben, die für den Web App Store oder die Webplattform transparent sind. Dadurch können die Funktionen einer Web App einfach analysiert werden. Basierend auf dieser Besonderheit schlagen wir ein dreistufiges hybrides Empfehlungsmodell vor, das die impliziten Merkmale (dh Funktionen) der Web-Apps sowie traditionelle explizite Merkmale (z Benutzerschicht und Anwendungsschicht. Folglich kann dieses Modell verwendet werden, um zu empfehlen, welche Anwendungen für einen Benutzer am besten geeignet sind und welche Benutzer die potenziellen Verbraucher einer Anwendung sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34447-3_58 ea81ebffd69cf2a20ae883935733644f;de;;;7.3.;;;Web OpinionPoll: Umfangreiche Sammlung und auf Eindrücke basierende Visualisierung von Meinungen von Menschen Das World Wide Web entwickelt sich bemerkenswert als einfaches und kostengünstiges Mittel zum Versenden von Informationen, und verschiedene Leute haben ihre Meinungen von unterschiedlichen Standpunkten im Web zum Ausdruck gebracht. Folglich wird das Web schnell zu einer Schatzkammer der öffentlichen Meinung zu allen Themen. In den letzten Jahren wurden Studien zum Extrahieren der Meinungen anderer Personen aus dem Web begonnen [3–5]. Sie haben ein System vorgeschlagen, das die Meinungen anderer zu einem benutzerspezifizierten Ereignis oder Ding aus dem Web sammelt, die Meinungen auf mehreren Bewertungsachsen auswertet und die Ergebnisse mit einem Radardiagramm anzeigt. Ihr System kann jedoch keine allgemeine Ansicht der Gesamtmeinung darstellen, da das System die Meinungen mittelt und eine Schlussfolgerung bildet. Wir schlagen daher ein neuartiges webbasiertes Frage-Antwort-System namens Web OpinionPoll vor, das die Meinungen anderer Personen zu einem vom Benutzer angegebenen Anliegen aus dem Web sammelt und eine allgemeine Ansicht der Meinungen visuell darstellt. Dieses System hilft Benutzern, Antworten auf Fragen intuitiv zu verstehen, die die Meinung anderer einfordern.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-74938-9_17 d4667b87e53f04cb0c313743aca5fc62;de;;;7.3.;;;Von der Vision zur Realität Basierend auf einer Vision der Informationsgesellschaft aus dem Jahr 1996 baut die isländische Regierung die Komponenten einer integrierten Infrastruktur, um E-Government und E-Commerce zu ermöglichen. Eine solide Wirtschaft, fortschrittliche Kommunikationseinrichtungen, eine hohe Verbreitung von Computern in Unternehmen, Haushalten und Schulen sowie die Offenheit für Innovationen in der breiten Öffentlichkeit bilden eine ideale Grundlage für eine schnelle Anpassung der staatlichen Dienste an Selbstbedienung, Bürgerbeteiligung und Informationsaustausch. Dieses Papier erzählt einige Erfolgsgeschichten und versucht, die Schlüsselfaktoren zu analysieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35604-4_18 431ff95b2c016c26916ee75e4aa0539c;de;;;7.3.;;;Studie zur Anwendung der Big-Data-Analyse bei der Überwachung von Internet-Gerüchten Das Netzwerk ist nicht nur eine virtuelle Gesellschaft, sondern auch ein Ort der öffentlichen Meinung. Basierend auf der aktuellen Verbreitung von Internetgerüchten untersucht das Papier die Merkmale ihrer Verbreitung und andere Merkmale wie starke Abruptheit und breite Verbreitung. Kombiniert mit den Vorteilen von Big Data bei der Analyse und Verarbeitung massiver sozialer Netzwerkinformationen wird in diesem Beitrag die Überwachung von Internet-Gerüchten auf Basis der Big-Data-Technologie und deren Präventionsdesign vorgeschlagen. Am Beispiel der Analyse von Sina Weibo-Daten wird eine verteilte vertikale Big-Data-Suchmaschine basierend auf der Nutch/Hadoop-Cloud-Plattform entwickelt, um die öffentliche Meinung aus dem Internet erstmals mithilfe von gerichteter Sammlung und der gesamten Netzwerksuchmethode zu ermitteln. Und die Netzwerkgerüchte werden vertikal durchsucht. Um die Bekämpfung von Internet-Gerüchten zu verstärken, bietet es einen neuen Weg, die öffentliche Meinung zum Internet zu fördern und die soziale Stabilität und Harmonie zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3648-5_199 5dbf88b3e96517536a26e111f9e1c8c2;de;;;7.3.;;;Klassifizierungsfunktionen zum Erkennen serverseitiger und clientseitiger Webangriffe In den letzten Jahren haben die Zahl und die Cleverness von Angriffen auf webbezogene Anwendungen stetig zugenommen, da Webdienste immer beliebter werden. In diesem Papier schlagen wir relevante Klassifizierungsfunktionen vor, um Webangriffe zu erkennen, die entweder auf serverseitige oder clientseitige Anwendungen abzielen. Es werden vier Arten von Funktionen bereitgestellt: Allgemeine Funktionen anfordern, Inhaltsfunktionen anfordern, Antwortfunktionen und Verlaufsfunktionen anfordern. Experimentelle Studien durchgeführt auf real1 und simuliert;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09699-5_53 50efa8237cf2108e6c73c081a759da6f;de;;;7.3.;;;MC4WEPS: ein mehrsprachiges Korpus für die Begriffsklärung bei der Suche von Webnutzern Dieser Artikel stellt das MC4WEPS-Korpus vor, eine neue Ressource zur Bewertung von Begriffsklärungsaufgaben für Web-Personensuche, und beschreibt seinen Entwurf, Erfassungs- und Annotationsprozess, die Vereinbarung zwischen den verschiedenen Annotatoren und führt schließlich eine Basisbewertung ein. Dieser Korpus wird durch die Zusammenstellung mehrsprachiger Suchmaschinenergebnisse erstellt, bei denen die Abfragen Personennamen sind. Die korrekte Begriffsklärung von Substantiven ist ein offenes Problem bei der Auflösung von Mehrdeutigkeiten in natürlicher Sprache, und insbesondere die Auflösung der Mehrdeutigkeit von Personennamen in Web-Suchergebnissen ist immer noch ein schwieriges Problem. Bisherige Ansätze wurden jedoch nur mit einsprachigen Webseitensammlungen evaluiert. Das MC4WEPS-Korpus zielt darauf ab, der Forschungsgemeinschaft ein Referenzkorpus für die Aufgabe der Disambiguierung von Suchmaschinenergebnissen zur Verfügung zu stellen, wenn es sich bei der Abfrage um einen Personennamen handelt, der von gleichnamigen Personen geteilt wird. Die Merkmale dieses neuen Korpus heben sich von bestehenden Korpora für die gleiche Aufgabe ab, nämlich Mehrsprachigkeit und Einbeziehung von Social-Networking-Websites. Diese Eigenschaften machen es repräsentativer für ein reales Suchszenario, insbesondere zur Bewertung der Begriffsklärung von Personennamen in einem mehrsprachigen Kontext. Der Artikel enthält auch detaillierte Informationen zum Format und zur Verfügbarkeit des Korpus.;-;-;-;https://link.springer.com/article/10.1007/s10579-016-9365-4 02783429ccb0826f5111d721c5d8ae44;de;;;7.3.;;;Ein Fuzzy-basiertes System zur Auswahl von IoT-Geräten in opportunistischen Netzwerken unter Berücksichtigung von Kontaktdauer, Speicherung und Restenergie von IoT-Geräten Die OppNets sind eine Unterklasse von verzögerungstoleranten Netzwerken, bei denen Kommunikationsmöglichkeiten (Kontakte) intermittierend sind und es nicht erforderlich ist, eine End-to-End-Verbindung zwischen den Kommunikationsknoten aufzubauen. Das Internet der Dinge (IoT) ist das Netzwerk von Geräten, Fahrzeugen, Gebäuden und anderen Gegenständen, die in Software, Elektronik, Sensoren und Netzwerkkonnektivität eingebettet sind und es diesen Objekten ermöglichen, Daten zu sammeln und auszutauschen. Für diese Netzwerke gibt es unterschiedliche Probleme. Eine davon ist die Auswahl von IoT-Geräten, um eine Aufgabe in opportunistischen Netzwerken zu erfüllen. In dieser Arbeit implementieren wir ein Fuzzy-basiertes System zur IoT-Geräteauswahl in opportunistischen Netzwerken. Für unser System verwenden wir drei Eingabeparameter: IoT Contact Duration (IDCD), IoT Device Storage (IDST) und IoT Device Remaining Energy (IDRE). Der Ausgabeparameter ist IoT Device Selection Decision (IDSD). Die Simulationsergebnisse zeigen, dass das vorgeschlagene System eine geeignete Auswahlentscheidung für IoT-Geräte in opportunistischen Netzwerken trifft. Die Auswahl an IoT-Geräten wird durch die Erhöhung von IDCD bzw. IDRE um bis zu 19 % bzw. 53 % erhöht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-93554-6_6 3b2f7d62c5751489a9571cc787bf1e84;de;;;7.3.;;;Verbesserung der Rücklaufquote und Qualität bei webbasierten Umfragen durch Personalisierung und Häufigkeit von Erinnerungsmailings Das Internet teilt einige Merkmale der Umfrageerstellung mit traditionellen Medien, insbesondere der Post. Allerdings gibt es erhebliche Unterschiede, die einen anderen Fokus auf die Verwaltung rechtfertigen und das vorhandene Wissen über die klassischen Medien nicht direkt auf das Internet übertragbar machen. Es ist daher notwendig zu erforschen, wie webbasierte Umfragen unter verschiedenen Konditionierungsfaktoren funktionieren, damit allgemeine Verhaltensmuster etabliert werden können, um die Verwaltung und Ergebnisse solcher Umfragen zu verbessern. Diese Studie konzentriert sich daher auf zwei der Parameter, die die Antworten auf webbasierte Umfragen beeinflussen können, nämlich die Personalisierung und die Häufigkeit von Erinnerungsmailings, die in der Stichprobenpopulation verteilt werden. Die erhaltenen Ergebnisse zeigen einen positiven Einfluss personalisierter E-Mail-Nachrichten auf die Rücklaufquote und die Notwendigkeit, für Studien mit dem Ziel, die Rücklaufquote in kürzester Zeit zu erhöhen, eine niedrigere Frequenz und eine längere (und personalisierte) Frequenz zu verwenden, wenn das Ziel Lassen Sie die Befragten den vollständigen Fragebogen ausfüllen.;-;-;-;https://link.springer.com/article/10.1007/s11135-009-9256-5 510ab145fb1d475d93c26a51f1e544e2;de;;;7.3.;;;Aus der Sharing Economy verbannt: ein agentenbasiertes Modell eines Peer-to-Peer-Marktplatzes für Konsumgüter und Dienstleistungen Das Aufkommen gewinnorientierter Online-Plattformen im Zusammenhang mit der Sharing Economy, wie BlaBlaCar und Airbnb, bietet Endnutzern neue Möglichkeiten, mit ihrem Besitz ein Einkommen zu erzielen. Bei dieser Möglichkeit müssen die Teilnehmer trotz begrenzter formaler Kenntnisse und Informationen strategische wirtschaftliche Entscheidungen treffen. Dezentralisierung (unter Verwendung digitaler Technologien) und Reputation (unter Verwendung von Nutzerbewertungen) sind die Kernmechanismen, die von diesen Plattformen gewählt werden, um diese Einschränkungen zu mildern und als Online-Vermittler effizient zu arbeiten. Wir testen die Leistungsfähigkeit dieser beiden Mechanismen, indem wir die Allokationseffizienz (in Bezug auf Wert und Transaktionsvolumen) simulierter Marktplätze unter unterschiedlichen Motivationen der Teilnehmer und Kontrolle durch die Plattformen untersuchen. Als Ergebnis finden wir ein umgekehrtes U-Verhältnis zwischen dem den Teilnehmern zur Verfügung stehenden Entscheidungsspielraum und der Allokationseffizienz der Plattform. Aus Sicht der Teilnehmer führen zu viele Freiheiten oder zu viele Barrieren zu Marktversagen, die bestimmte Teilnehmer betreffen: Billigkonsumenten werden vom Markt ausgeschlossen, während High-End-Anbieter weniger Aktivität verzeichnen. Als Governance-Beratung für diese Plattformen zeigen wir die Grenzen der Förderung dieser Plattformen aus dem alleinigen Motiv der Geldprämie auf.;-;-;-;https://link.springer.com/article/10.1007/s00191-017-0548-y 9f20b0c55661a5495b906042a129ddee;de;;;7.3.;;;Methode zum Abrufen von verteilten Webdiensten Diese Forschung befasst sich mit dem Problem des Web Service Retrieval, indem eine Methode für das verteilte Crawlen und Indexieren von Web Services im Webmaßstab vorgestellt wird. Dieses Papier umfasst den Abruf von SOAP- und RESTful-Webdiensten und besteht aus der Gesamtarchitektur des Abrufsystems, der Architektur des Crawlers und einem verteilten Indexierungsansatz, der den MapReduce-Algorithmus von Google anpasst. Darüber hinaus berücksichtigt die Forschung neue und noch ungelöste Probleme der RESTful Web Service-Identifikation und Datenextraktion aus HTML-API-Dokumentationsseiten. Die Forschung umfasst die Umsetzung des Ansatzes, der es ermöglichte, Vorversuche durchzuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-15702-3_12 549e78d10b3be4c6ac5a04193736d13e;de;;;7.3.;;;Ein persönlicher Agent für die Lesezeichenklassifizierung Das World Wide Web ist zu einer Quelle enormer Informationsmengen geworden. Die meisten Webbrowser verfügen über Lesezeichenfunktionen, um den riesigen Webspace zu nutzen. Benutzer zeichnen die URLs der Sites für zukünftige Besuche mit Lesezeichen auf, aber die Organisation und Pflege der Lesezeichendatei kostet Benutzer Zeit und kognitive Arbeit. Ein persönlicher Agent ist ein automatisiertes Programm, an das Benutzer oft mühsame oder anspruchsvolle Aufgaben delegieren können. Wir haben einen Lernagenten namens BClassifier implementiert, der die naive Bayessche Lernmethode verwendet, und stellen die Ergebnisse in diesem Papier vor.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44637-0_15 491ec7c2eeea6909ba69bbd155b40cdc;de;;;7.3.;;;Verhaltensanalyse von langfristigen Cyberangriffen im Darknet Die Darknet-Überwachung bietet uns eine effektive Möglichkeit, Cyberangriffen entgegenzuwirken, die eine erhebliche Bedrohung für die Netzwerksicherheit und -verwaltung darstellen. Dieses Papier zielt darauf ab, das Verhalten von langfristigen Cyberangriffen zu charakterisieren, indem die vom Nicter-Projekt gesammelten Darknet-Verkehrsdaten analysiert werden. Techniken des maschinellen Lernens wie Clustering, Klassifikation und Funktionsregression werden auf die Studie angewendet und vielversprechende Ergebnisse berichtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34500-5_73 102f0d34d1677f6155ff044f9a23d971;de;;;7.3.;;;Bandbreitenbewusste Skalierung für Internet-Video-Streaming In dieser Studie schlagen wir einen bandbreitenbewussten Skalierungsmechanismus für ratenadaptives Videostreaming vor. Dieser Mechanismus beinhaltet die dynamische Schätzung der Kapazität des Netzwerks durch Messung von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30182-0_17 ccf4b86eee585f4fe35436db1c0ae375;de;;;7.3.;;;Ein Empfehlungssystem zum Durchsuchen multimedialer Sammlungen im Internet der Dinge Die Erforschung neuer Anwendungen und Dienste für mobile Umgebungen hat sowohl in der Industrie als auch in der Wissenschaft große Begeisterung ausgelöst. In diesem Beitrag schlagen wir ein kontextbezogenes Empfehlungssystem vor, das den Bedürfnissen des Benutzers mit ortsabhängigen Multimediainformationen entspricht, die in einer mobilen Umgebung in Bezug auf ein Indoor-Szenario verfügbar sind. Konkret schlagen wir ein Empfehlungssystem für die Planung von Browsing-Aktivitäten vor, das auf Objekteigenschaften, Benutzerverhalten und dem aktuellen Kontext basiert, dessen Zustand durch geeignete Sensornetzwerke erfasst wird. Wir stellen die Eigenschaften eines solchen Systems vor und diskutieren den vorgeschlagenen Ansatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34952-2_16 a0fc4f9175fb6bc05acf6447b8d04b8c;de;;;7.3.;;;Weltsammlungen parasitärer Würmer Dieser Artikel enthält Informationen über die Lagerstätten parasitärer Würmer in den wissenschaftlichen Instituten und Museen in den USA, Japan und Europa (die Gesamtzahl der Proben und die Verfügbarkeit von Helminthenarten verschiedener Klassen) sowie Informationen zur Verfügbarkeit von elektronischen Katalogen der Sammlungen in den kontinentalen, nationalen und regionalen Zentren zur gemeinsamen Nutzung. Der Umfang dieses Materials hat die Notwendigkeit bestimmt, digitale Sammlungen und Bibliotheken aufzubauen, die eine neue Form der Speicherung, Darstellung und des Austauschs von Informationen für die wissenschaftliche Forschung darstellen. Es wurde eine Analyse des aktuellen Stands der Ansätze und Methoden zur Entwicklung des spezialisierten Information Retrieval Systems (IRS) und der Datenbanken (DBs) zu den parasitären Würmern in Russland auf Basis eines gemeinsamen konzeptionellen Datenmodells unter Berücksichtigung der lokalen Nutzung durchgeführt (als Desktop-Systeme der Datenbankverwaltung) und Zugriff von Wissenschaftlern weltweit über das Internet.;-;-;-;https://link.springer.com/article/10.1134/S106235901506014X 778922f7daf7165d243c5ef3a7e7324b;de;;;7.3.;;;"Geschäftsmodellinnovation der neuen Energie-Automobilindustrie unter Internetdenken Mit der rasanten Entwicklung der Internet-Technologie und der raschen Popularisierung von persönlichen Endgeräten hat die Innovation von Geschäftsmodellen in der Branche höchste Priorität. Dieses Papier untersucht hauptsächlich die Geschäftsmodellinnovation der New-Energy-Fahrzeugindustrie unter dem Internet-Denken. Dieses Papier verwendet die Gesamtzahl der abgerufenen Patente, um das Niveau der technologischen F&E- und Technologie-Outputleistung von Unternehmen zu messen, analysiert die Technologiethemenverteilung von Unternehmenspatenten, um die Feldlayout-Eigenschaften von Unternehmens-F& Situation der kooperativen Innovation von Unternehmen auf der Grundlage der Daten kooperativer Patente Bei p < 0,001 ist die Korrelation zwischen den beiden Variablen signifikant. Wir nehmen jeden Index in der Indexschicht der ersten Ebene als Kriterium, um die relative Bedeutung des Index der zweiten Ebene unter jedem Indexsystem der ersten Ebene zu vergleichen, und verwenden die analytische Hierarchieprozesssoftware Yaahp, um die entsprechenden Ergebnisse zu erhalten. Die durchschnittliche Gesamteffizienz der fünf ausgewählten Unternehmen beträgt 0,836 und die Gesamteffizienz der Umsetzung technologischer Innovationen ist relativ hoch. Die Ergebnisse zeigen, dass die Charakteristika der Geschäftsmodellinnovation im Internet-Denken Referenz für die traditionelle Automobilindustrie sein können.";-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-74811-1_27 1c12e23eb07866925d59804d39391173;de;;;7.3.;;;Forschung zur Entwicklung vertikaler Suchmaschinen Mit der rasanten Zunahme von Informationen im Internet werden vertikale Suchmaschinen immer beliebter. In diesem Beitrag wird zunächst der Entwicklungsstand vertikaler Suchmaschinen analysiert, dann Vergleiche zwischen vertikalen Suchmaschinen und horizontalen Suchmaschinen durchgeführt und die Eigenschaften vertikaler Suchmaschinen aufgelistet. Auf dieser Basis wird die Entwicklungsnotwendigkeit vertikaler Suchmaschinen diskutiert. Endlich macht es Perspektive für die Entwicklung von vertikalen Suchmaschinen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29387-0_89 ba07afe74039ecb338201db261a92093;de;;;7.3.;;;Ein agentenbasierter Ansatz für die Website-Wartung Websites sind öffentliche Darstellungen von Unternehmen, Unternehmen und Regierungsbehörden. Als solche erfordern sie eine angemessene Wartung, um sicherzustellen, dass genaue und aktualisierte Informationen angemessen dargestellt werden. Dynamisch erstellte Websites sind manchmal keine Option: Sie verursachen einen Rechenaufwand auf dem Server und erschweren die automatische Indexierung von Seiten. Statische Websites können so stark anwachsen, dass die manuelle Durchführung von Wartungsarbeiten nicht möglich ist: Es sollten automatische oder halbautomatische Maßnahmen ergriffen werden. In diesem Whitepaper erläutern wir einen solchen Ansatz, bei dem Softwareagenten zur Pflege großer datenintensiver Websites verwendet werden. Unsere Wartungsarbeiten werden von einem Team autonomer Agenten durchgeführt, die sowohl untereinander als auch mit Webmastern oder anderen menschlichen Agenten kommunizieren. Unser Ansatz lässt sich selbstverständlich in bestehende Websites integrieren und seine Nutzung kann nach und nach auf größere Teile der Site ausgeweitet werden. Da unsere Agenten unabhängig sind, sollten ihre individuellen Fehlfunktionen den gesamten Wartungsaufwand nicht stoppen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27834-4_35 c1eaa509c6c19aa41caacd0854351187;de;;;7.3.;;;Ein dynamisches senderinitiiertes Reservierungsprotokoll für das Internet In diesem Papier diskutieren wir die Notwendigkeit der Ressourcenreservierung im Internet und untersuchen einige der Stärken und Schwächen von RSVP, dem derzeit beliebtesten der entwickelten Internet-Reservierungsprotokolle. Die Mängel von RSVP motivieren unser Design eines neuen Ressourcenreservierungsprotokolls, das dynamische senderinitiierte Reservierungen verwendet, um einen sehr bandbreiteneffizienten Reservierungsmechanismus mit hervorragender Skalierbarkeit in Bezug auf Roundtrip-Zeit, Datenrate und Anzahl der Hosts zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35388-3_19 348bb68f7fd7dcf0d73690909241f201;de;;;7.3.;;;Multimodale Präsentation in virtuellen telemedizinischen Umgebungen Mit Telemedizin lassen sich virtuelle Umgebungen für die Zusammenarbeit von Patienten, Ärzten und medizinischem Personal schaffen. Multimodale Präsentationen werden zunehmend verwendet, um die Mensch-Computer-Schnittstelle zu verbessern. In diesem Beitrag präsentieren wir eine multimodale interaktive Umgebung für die EEG/MEG-Datenpräsentation basierend auf Internet-Technologien und einer Virtual-Reality-Benutzeroberfläche (VRUI). Neben der Visualisierung nutzt VRUI auch andere Eingabe-/Ausgabemodalitäten wie Audio. Animationen an den 3D-Modellen werden verwendet, um Einblick in raum-zeitliche Aktivitätsmuster zu geben. Darüber hinaus wird die Sonifikation angewendet, um die zeitliche Dimension der ausgewählten visualisierten Scores hervorzuheben. Unser vorgeschlagener Ansatz erfordert nur einen Standard-Webbrowser, um den multimodalen Viewer auszuführen, der topographische 3D-EEG-Karten unter Verwendung eines VRML-Kopfmodells präsentiert, das mit Java-Applets animiert wird.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0100657 f665f1829512708e8c34623db0bed64d;de;;;7.3.;;;Der Einfluss des Internets auf die Innovationswirkung der Herstellung von Medizin- und Pharmaprodukten Durch die Konstruktion eines Paneldatenmodells unter Verwendung der relevanten Daten der chinesischen Medizin- und Pharmaproduktherstellung und der Entwicklung des Internets von 2004 bis 2016 führt der Beitrag eine empirische Studie zum Einfluss des Internets auf den Innovationseffekt der chinesischen pharmazeutischen Industrie durch. Es kommt zu dem Schluss, dass die Innovation der chinesischen Medizin- und Pharmaproduktherstellung maßgeblich von der Entwicklung des Internets, der Förderung innovativer Talente sowie der Ausgabensteigerung beeinflusst wird und weniger von den Investitionen in Sachanlagen. Aus der Perspektive regionaler Unterschiede in China genießen wirtschaftlich entwickelte Gebiete, talentintensive Gebiete und Gebiete mit medizinischen Materialressourcen höhere Innovationseffekte. In der Zeitdimension wird der Innovationseffekt der chinesischen Medizin- und Pharmaproduktherstellung mit der Internet Plus-Strategie verstärkt. Daher müssen die Infrastruktur und das Management-Informationssystem in dieser Branche gestärkt werden, gleichzeitig müssen mehr Anstrengungen unternommen werden, um innovative Talente zu fördern und die Ausgaben für Forschung und Entwicklung zu erhöhen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-15740-1_75 78e7ca3941cc67c220ce44f5bf4d407c;de;;;7.3.;;;Lerngemeinschaften im Web: Konzepte und Strategien Das Lernen in den Web Learning Communities basiert auf der vernetzten Interaktion und Kommunikation und auf den kollaborativen Prozessen beim Erfahrungs- und Wissensaufbau. Die organisatorische Bindung von Lerngemeinschaften entwickelt sich im Verhältnis zum Wissen durch die kollektive und stark interaktive Kommunikation zwischen den Individuen und zwischen diesen und den verteilten Repräsentationssystemen. Die kollaborativen Aspekte zeichnen sich durch die gegenseitige Beteiligung an den Gemeinschaftsaktivitäten, am Wissensaustausch unter ihren Mitgliedern und an der gemeinsamen Teilnahme am Lernaufbau aus.;-;-;-;https://link.springer.com/chapter/10.1007/0-306-47533-2_3 56718ff5d67d08ed11c0d6083fbf13f1;de;;;7.3.;;;Digitale Humboldt-Bibliothek und Vernetzung Die Humboldt Digital Library (HDL) stellt ein innovatives System dar, um auf die Werke und den Nachlass Alexander von Humboldts in digitaler Form im Internet zuzugreifen;-;-;-;https://link.springer.com/article/10.1007/s10669-011-9369-y 9033ba38eb552e14cb2569f644c45cf1;de;;;7.3.;;;Verkehrsidentifikation in Big Internet Data Das Zeitalter von Big Data stellt neue Herausforderungen an die Netzwerkverkehrstechnik, die ein wesentliches Werkzeug für Netzwerkmanagement und -sicherheit ist. Um die Probleme dynamischer Ports und verschlüsselter Nutzdaten bei herkömmlichen portbasierten und nutzlastbasierten Verfahren zu lösen, verwendet das hochmoderne Verfahren flussstatistische Funktionen und maschinelle Lerntechniken, um den Netzwerkverkehr zu identifizieren. Dieses Kapitel gibt einen Überblick über die auf statistischen Merkmalen basierenden Verkehrsklassifizierungsmethoden, die im letzten Jahrzehnt vorgeschlagen wurden. Außerdem untersuchen wir ein neues Problem: Unsauberer Traffic in der Trainingsphase des maschinellen Lernens durch den Kennzeichnungsfehler und die komplexe Zusammensetzung von Big Internet Data. In diesem Kapitel wird die Leistung typischer Algorithmen für maschinelles Lernen mit unsauberen Trainingsdaten weiter bewertet. Die Überprüfung und die empirische Studie können Wissenschaftlern und Praktikern eine Orientierungshilfe bei der Auswahl geeigneter Verkehrsklassifizierungsmethoden in realen Szenarien bieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27763-9_3 d03a4381091e8add394351cd9ec7efe6;de;;;7.3.;;;Eine Studie zum Sicherheitsniveau im Cloud Computing Cloud Computing ist eines der neuesten Technologien, das viele Computerbenutzer angezogen hat. Darunter sind große, kleine Unternehmen und Einzelanwender. Cloud Computing brachte viele Vorteile mit sich, wenn Benutzer über das Internet auf Computerdienste zugreifen können. Beim Cloud Computing werden keine physischen Komponenten als Hardware benötigt, die das Computersystem des Unternehmens unterstützen. Daher ermöglicht Cloud Computing einer Reihe von Unternehmern, ihr Geschäft ohne Investitionen in die IT-Infrastruktur zu starten. Die Daten werden auf einem Remote-Server über das Internet gespeichert und darauf zugegriffen. Neben den guten Vorteilen des Cloud-Computings gibt es jedoch einige Sicherheitsbedenken, die den Benutzern Sorgen um die Sicherheit, Zuverlässigkeit und Effizienz der Migration zum Cloud-Computing machen. Daher müssen Unternehmen vor der Implementierung von Cloud Computing einige Sicherheitskennzahlen kennen. Wir werden Sicherheitsbedenken besprechen und deren Niveau basierend auf einigen der vorgeschlagenen Lösungen analysieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0281-6_65 98d5c84c50532555d5bd849fc1bd62ff;de;;;7.3.;;;CAPTCHA für Smartphones geeignet Wir schlagen ein CAPTCHA vor, das Daten, die von einem Computerprogramm erstellt wurden, aus One-Stroke-Skizzendaten teilt, die von einem Menschen unter Verwendung von verkörpertem Wissen gegeben wurden. Mit Touchscreens von Smartphones realisieren wir diesen Ansatz und lösen eine denkbare Unannehmlichkeit, die durch die bestehenden CAPTCHAs bei der Nutzung von Smartphones aufgrund der begrenzten Displaygröße von Smartphones entsteht. Wir implementieren die vorgeschlagene Technik und analysieren ihre Gültigkeit, Nützlichkeit und Sicherheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36818-9_14 fc95103c3c97a33eb956b8770a52c1fa;de;;;7.3.;;;Automatisieren der Bereitstellung von Metadaten-Webdiensten für Problemlösungsumgebungen XML-basierte Metadaten-Informationsdienste sind ein wichtiger Kerndienst, der von Problemlösungsumgebungen benötigt wird, die auf neu entstehenden servicebasierten, global skalierten verteilten Systemen aufbauen, wie sie von der Open Grid Services Architecture und dem Semantic Web vorgesehen sind. Die Entwicklung von Benutzerschnittstellen und Dienstbindungen zur Manipulation von Instanzen bestimmter Schemata ist daher äußerst wichtig und muss so einfach wie möglich gestaltet werden. In diesem Whitepaper beschreiben wir Verfahren zur Automatisierung der Erstellung von Webdienstumgebungen, die verwendet werden können, um die Erstellung und Bereitstellung schemabasierter Metadatendienste zu vereinfachen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44864-0_41 4926015bbab75bd2883fef54fe342a2e;de;;;7.3.;;;„Oh Web-Image, wo bist du?“ Die Web-Bildsuche ist heute meist schlüsselwortbasiert und untersucht den Inhalt rund um das Bild. Die Suche nach Bildern, die sich auf einen bestimmten Ort beziehen, zeigt schnell, dass Webbilder normalerweise nicht ihre explizite Beziehung zu einer tatsächlichen geografischen Position offenbaren. Die geografische Semantik von Webbildern ist entweder überhaupt nicht verfügbar oder irgendwo im Inhalt der Webseiten versteckt. Unsere räumliche Suchmaschine crawlt und identifiziert Webseiten mit einer räumlichen Beziehung. Bei der Analyse ortsbezogener Webseiten identifizieren wir Fotos anhand einer inhaltsbasierten Bildanalyse sowie des Bildkontextes. Im Anschluss an die Fotoklassifizierung bewertet ein Standortrelevanzklassifizierungsprozess den Bildkontext und -inhalt anhand der zuvor identifizierten Adresse. Die Ergebnisse unserer Experimente zeigen, dass unser Ansatz eine praktikable Methode zur Standortbestimmung von Webbildern ist. Somit wird eine große Anzahl von potenziell geografisch bezogenen Webbildern für die kommerziell relevante räumliche Webbildsuche freigeschaltet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77409-9_10 4cc2b78102780bc8af81222b04bc11d2;de;;;7.3.;;;NetDoM: Ein Informationssystem für die Verwaltung der Netzwerkdokumentation Diversifizierung, weit verbreitete Verwendung und Heterogenität von Computernetzwerken haben von Forschern und Anbietern von Netzwerkausrüstungen beträchtliche Anstrengungen verlangt. Trotz dieser Bemühungen wurde die Dokumentation der Netzwerkressourcen offenbar vernachlässigt. Dieses Papier analysiert verfügbare Techniken zur Netzwerkdokumentation und beleuchtet ihre Schwachstellen und mögliche problematische Ansätze. Außerdem werden Umfrageergebnisse zu Techniken der Netzwerkdokumentation präsentiert und analysiert, die von akademischen und kommerziellen Gemeinschaften verwendet werden. Schließlich wird ein Informationssystem vorgeschlagen, das die tatsächlichen Anforderungen der Dokumentationstechniken für Netzwerkressourcen erfüllt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35532-0_20 4856371072c9a838384fdbccc80bc7b9;de;;;7.3.;;;Ein integriertes System zur Erstellung von Unternehmenstaxonomien Obwohl auf dem Gebiet der hierarchischen Textkategorisierung beträchtliche Forschung betrieben wurde, wurde wenig unternommen, um automatisch beschriftete Korpusse zum Aufbau hierarchischer Taxonomien zu sammeln. In diesem Artikel schlagen wir eine automatische Methode zum Sammeln von Trainingsbeispielen vor, um hierarchische Taxonomien zu erstellen. In unserer Methode wird der Kategorieknoten zunächst durch einige Schlüsselwörter definiert, die Websuchmaschine wird dann verwendet, um eine kleine Menge von gekennzeichneten Dokumenten zu erstellen, und ein Topic-Tracking-Algorithmus mit schlüsselwortbasierter Inhaltsnormalisierung wird angewendet, um das Trainingskorpus auf die Grundlage der Saatdokumente. Wir entwickeln auch eine Methode, um die Konsistenz des gesammelten Korpus zu überprüfen. Die obigen Schritte erzeugen eine flache Kategoriestruktur, die alle Kategorien zum Aufbau der hierarchischen Taxonomie enthält. Als nächstes wird ein linearer Diskriminanzprojektionsansatz verwendet, um aussagekräftigere Zwischenebenen von Hierarchien in dem erzeugten flachen Satz von Kategorien zu konstruieren. Experimentelle Ergebnisse zeigen, dass der Trainingskorpus für statistische Klassifikationsverfahren gut genug ist.;-;-;-;https://link.springer.com/article/10.1007/s10791-007-9028-6 20df39e73f0065282a7d94067b140603;de;;;7.3.;;;Web Analytics: Der neue Zweck für prädiktive mobile Spiele Web Analytics beschränkt sich auf einen iterativen Prozess der Erhebung von Online-Traffic-Daten zum Zweck der Schlussfolgerung. Diese Forschung stellt ein Konzept vor, bei dem der Internetnutzungsverkehr mithilfe eines mobilen Spiels vorhergesagt werden kann. Durch die Untersuchung der Nutzung und Wahrnehmung von Verspieltheit in bestimmten Branchen werden bestimmte Aspekte für das Design und die Entwicklung des Spiels identifiziert. Unter Verwendung einer auf Usability basierenden Methodik für evaluatives Testen werden diese Funktionen in zwei verschiedenen Versionen hinterfragt. Daran wird die Machbarkeit eines Mobile-Games und seine Verspieltheit für die Nutzer gemessen. Die Forschung verlässt das Konzept und berücksichtigt, in welchen anderen Kontexten Webanalysen verwendet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03161-3_1 c97076f82eb70d2a234a6784c1004d42;de;;;7.3.;;;Testen des Datenschutzbewusstseins Bei webbasierten Geschäftsprozessen ist die Angabe personenbezogener Daten durch den Nutzer ein wesentlicher Bestandteil und für die Prozesse zwingend erforderlich. Datenschutzhinweise helfen, den Nutzer über seine Rechte zu informieren und die Privatsphäre des Nutzers zu schützen. In diesem Papier stellen wir einen Test vor, um empirisch zu messen, wie sich das Datenschutzbewusstsein des Benutzers ändert, indem wir bestimmte Elemente der Datenschutzrichtlinie in unmittelbarer Nähe der erforderlichen Datenelemente präsentieren. Wir vergleichen eine Versuchsgruppe, die eine erweiterte Schnittstelle verwendet, mit einer Kontrollgruppe, die eine konventionelle Schnittstelle verwendet, hinsichtlich ihrer Fähigkeit, sich an die vereinbarten datenschutzbezogenen Fakten zu erinnern. Eine konkrete Online-Umfrage wurde durchgeführt. Die wichtigsten Ergebnisse werden präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03315-5_18 02736092eb4bde6faa62fdddd0e973ef;de;;;7.3.;;;Ein webbasierter, themenbezogener Algorithmus zur Wortsatzkonstruktion Die Konstruktion themenbezogener Wortmengen ist eine grundlegende Arbeit zum Aufbau themenorientierter Information-Retrieval-Systeme. Heutzutage konzentrieren sich die meisten früheren Studien darauf, repräsentative Wörter eines bestimmten Dokuments zu identifizieren, und nur wenige Studien achten darauf, einen Wortsatz zu einem Thema zu konstruieren. Durch die Analyse bestehender Methoden zur Schlüsselwortextraktion schlägt dieses Papier eine Methode vor, um automatisch einen themenbezogenen Wortsatz basierend auf dem primären themenbezogenen Wortsatz zu erstellen, der von Domänenexperten und den bekannten Websites zum Thema bereitgestellt wird. Im ersten Schritt verwendet die Methode vorhandene Techniken zur Informationsextraktion, um die Dokumente von den Websites und den Schlüsselwortsatz jedes Dokuments zu erhalten. Dann berechnet es den Korrelationsgrad zwischen dem bekannten themenbezogenen Wortsatz und dem Dokument-Schlüsselwortsatz, ruft ferner einen Wortsatz des Dokuments in Bezug auf das Thema basierend auf der Dokumenten-Themenrelevanz ab und führt den Wortsatz mit dem themenbezogenen zusammen Wort eingestellt. Durch die Verwendung des Verfahrens wird der themenbezogene Wortsatz durch Iteration basierend auf den Dokumenten von den themenbezogenen Websites ergänzt. Da es nur wenige Forschungsarbeiten zu diesem Problem und keinen relevanten experimentellen Datensatz gibt, verwendet dieser Artikel die vorgeschlagene Methode, um themenbezogene Wortsätze zu den beiden Themen „Elektrizität“ und „Hochschulaufnahmeprüfung“ zu konstruieren, und wir laden Domänenexperten zur Bewertung ein das Wort setzt. Die Ergebnisse zeigen, dass mit dieser Methode ein relativ vollständiger themenbezogener Wortsatz gewonnen werden kann, was die Machbarkeit unserer Methoden zeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-01298-4_17 b4e66ddeaf83eebd6c7c13b33779dc63;de;;;7.3.;;;Semantic Web Service Search: Eine kurze Übersicht Skalierbare Mittel zur Suche nach relevanten Webdiensten sind für die Entwicklung intelligenter servicebasierter Anwendungen im zukünftigen Internet unerlässlich. Die Kernidee semantischer Webdienste besteht darin, solchen Anwendungen eine hochpräzise Suche und eine automatisierte Zusammenstellung von Diensten auf der Grundlage formaler ontologiebasierter Darstellungen der Dienstsemantik zu ermöglichen. In diesem Beitrag geben wir einen kurzen Überblick über den Stand der Technik der semantischen Webservice-Suche.;-;-;-;https://link.springer.com/article/10.1007/s13218-015-0415-7 64cc51be21a2539a080e2104a5356a5c;de;;;7.3.;;;SEAWISE: Ein Framework für die webbasierte intelligente Integration von Seetransport- und persönlichen mobilen Reiseführerdiensten Der Seeverkehrsmarkt stützt sich auf eine Vielzahl von Akteuren und wird stark von ihrer kulturellen und sektoralen Vielfalt beeinflusst. Die Vielzahl der bestehenden telematischen Informationsdienste leidet unter Inflexibilität im Sinne einer Einschränkung der Geschäftsmodelle, die sie ermöglichen. Somit sind die Anbieter solcher Dienste gezwungen, vordefinierte Geschäftsmodelle und Prozesse anzunehmen, die fest und damit unflexibel sind. Das Papier diskutiert einen Rahmen, der die intelligente Integration von Seeverkehrsdiensten ermöglicht, indem die Freigabe von Webdiensten und der dynamische Datenaustausch von Peer-to-Peer-Kommunikationsmodellen genutzt werden. Das Framework bietet Flexibilität und eine bessere Prozessintegration, da es die offene Kommunikation verschiedener Dienstleister im maritimen Bereich ermöglicht. Eine spezifische Anwendung basierend auf dem vorgeschlagenen Framework, nämlich der Personal Traveler Mobile Assistant (PTMA), wird ebenfalls vorgestellt. Die PTMA-Anwendung baut auf dem vorgeschlagenen Rahmen auf, indem Inhalte von Tourismusinformationsseiten, Meteo-, Inhalts- und computergestützten Reservierungssystemen aggregiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/3-211-27283-6_4 d952ef6ea8a33d7878b2cb9da3a51d4a;de;;;7.3.;;;Block-Clustering für die Kategorisierung von Webseiten Mit dem Wachstum webbasierter Anwendungen und der zunehmenden Popularität des World Wide Web (WWW) wurde das WWW zur weltweit größten Informationsquelle, was die Extraktion relevanter Informationen erschwerte. Darüber hinaus ändert sich der Inhalt von Websites ständig, was zu ständigen Änderungen im Verhalten der Webbenutzer führt. Daher besteht ein erhebliches Interesse an der Analyse von Webinhaltsdaten, um den Benutzern einen besseren Service zu bieten. Unser vorgeschlagener Ansatz, der auf der automatischen Textanalyse einer Website unabhängig von der Nutzung basiert, versucht, Gruppen von Dokumenten zu definieren, die das gleiche Thema behandeln. Sowohl das Dokumentenclustering als auch das Wortclustering sind gut untersuchte Probleme. Die meisten existierenden Algorithmen gruppieren jedoch Dokumente und Wörter getrennt, aber nicht gleichzeitig. In diesem Papier schlagen wir vor, einen Block-Clustering-Algorithmus anzuwenden, um die Seiten einer Website nach ihrem Inhalt zu kategorisieren. Wir berichten über die Ergebnisse unserer jüngsten Tests des CROKI2-Algorithmus auf einer touristischen Website.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04394-9_32 11eb7a0335394ad810501eb11f03d065;de;;;7.3.;;;Maßgeschneiderte Interaktion mit Benutzern in Webshops Wir beschreiben die Benutzermodellierungs- und Personalisierungstechniken, die in SETA verwendet werden, einem Prototyp-Toolkit für den Aufbau adaptiver Webshops, die die Interaktion mit Benutzern anpassen. Die mit SETA erstellten Webshops schlagen die Artikel vor, die den Bedürfnissen der Kunden am besten entsprechen, und passen das Layout und die Beschreibung des Ladenkatalogs an ihre Vorlieben und Kenntnisse an. SETA verwendet stereotype Informationen, um die Benutzermodelle zu handhaben und wendet Personalisierungsregeln an, um die Hypertextseiten, die Produkte präsentieren, dynamisch zu generieren. Das System passt den grafischen Aspekt, die Länge und die Terminologie der Beschreibungen an Parameter wie Empfänglichkeit, Fachwissen und Interessen des Benutzers an. Darüber hinaus unterhält es ein Modell, das jeder Person zugeordnet ist, für die die Waren ausgewählt werden. Auf diese Weise können mehrere Kriterien angewendet werden, um die Auswahl der Artikel an die Vorlieben ihrer Begünstigten anzupassen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008372122567 872973c1078129fc7b87ecaeac0afd4f;de;;;7.3.;;;Ungefähre Ähnlichkeitsmessung von Websites In diesem Beitrag werden wir eine Möglichkeit vorstellen, die Ähnlichkeit zweier Websites näherungsweise zu messen. Die betrachteten Websites enthalten nur HTML-Webseiten. Wir präsentieren einen Algorithmus, der für jede Site eine Reihe von signifikanten Seiten auswählt und die Ähnlichkeit anhand der Informationen der ausgewählten Webseiten bestimmt. Wir verwenden einen genetischen Algorithmus, um signifikante Webseiten auszuwählen. Um den Algorithmus zu implementieren und die Ergebnisse anzuzeigen, haben wir Java verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-26561-2_73 9ad804218aaf45bb3100d7e14c790e20;de;;;7.3.;;;Ontologie-unterstützter automatischer präziser Informationsextraktor für sehbehinderte Bewohner Da das Internet schnell wächst, werden täglich Millionen von Webseiten hinzugefügt. Die Gewinnung präziser Informationen wird mit zunehmender Datenmenge im Internet immer schwieriger. Im Internet sind mehrere Suchmaschinen und Tools zum Abrufen von Informationen verfügbar, von denen alle behaupten, dass sie die besten Crawling-Funktionen bieten. Meistens sind diese Suchmaschinen schlüsselwortbasiert. Dies stellt ein Problem für sehbehinderte Menschen dar, die die Online-Ressourcen, die anderen Benutzern zur Verfügung stehen, voll nutzen möchten. Sehbehinderte Benutzer benötigen spezielle Hilfsmittel, um mit einem bestimmten Computersystem zurechtzukommen. Schnittstellen- und Inhaltsmanagement sind keine Ausnahme, und spezielle Tools sind erforderlich, um die Extraktion relevanter Informationen aus dem Internet für sehbehinderte Benutzer zu erleichtern. Die HOIEV-Architektur (Heavyweight Ontology Based Information Extraction for Visually invalid User) bietet einen Mechanismus zur hochpräzisen Informationsextraktion unter Verwendung einer schweren Ontologie und eines integrierten Sprachbefehlssystems für sehbehinderte Internetbenutzer. Unser Prototyp eines intelligenten Systems integriert und kommuniziert nicht nur zwischen verschiedenen Tools wie Sprachbefehls-Parsern, Domänen-Ontologie-Extraktoren und Kurznachrichten-Engines, sondern führt auch einen autonomen Mechanismus der Informationsextraktion (IE) mit Schwergewichts-Ontologie ein. In dieser Forschung haben wir eine domänenspezifische Schwergewichts-Ontologie unter Verwendung von OWL 2 (Web Ontology Language 2) entwickelt und zum Schreiben von Axiomen haben wir PAL (Protégé Axiom Language) verwendet. Wir haben einen neuartigen autonomen Mechanismus für IE eingeführt, indem wir Prototyp-Software entwickelt haben. Eine Reihe von Experimenten wurde zum Testen und Analysieren der Leistung der Schwergewichts-Ontologie im Allgemeinen und unseres Prototyps zur Informationsextraktion im Besonderen entwickelt.;-;-;-;https://link.springer.com/article/10.1007/s10462-011-9238-6 1ee0b6699604b4acb70bcd4da80e0af6;de;;;7.3.;;;Vertrauensbasierter Secure Gateway Discovery-Mechanismus für integriertes Internet und MANET Die Integration von MANETs und Infrastrukturnetzen wie Internet erweitert die Netzabdeckung und vergrößert den Anwendungsbereich von MANET. Für die Integration zweier Netzwerke existieren mehrere Strategien. Die meisten gehen davon aus, dass im Netzwerk eine nicht-gegnerische Umgebung vorherrscht. Ein solches Idealszenario ist jedoch nicht immer garantiert. Viele Knoten verhalten sich aufgrund von Ressourcenknappheit, Überlastung oder böswilligen Absichten böswillig. In diesem Papier wird eine vertrauensbasierte, lastbewusste und sichere Gateway-Erkennung für IIM vorgeschlagen. Es verwendet das Konzept des gegenseitigen Vertrauens und der Authentifizierung zwischen den Knoten, um böswillige Aktivitäten zu verhindern. Eine bemerkenswerte Ausnahme ist jedoch, dass ein Knoten aufgrund einer Überlastung der Route oder eines Überlaufs in der Schnittstellenwarteschlange eines Zwischenknotens Paketverluste erfahren kann. Um solche falschen böswilligen Verhaltensweisen zu vermeiden, verwenden wir ein effektives und adaptives Lastenausgleichsschema, um überlastete Routen zu vermeiden. Somit wäre es eine neuartige Strategie, die sicherstellt, dass das Routing im Integrierten Internet und MANET vertrauenswürdig, sicher, effizient und robust ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36071-8_7 4206209e7656a250dce270b2ab58c738;de;;;7.3.;;;Extraktionsbasiertes automatisches Textzusammenfassungssystem mit HMM-Tagger Eine grobe Schätzung der weltbekannten Suchmaschine Google im Jahr 2010 ergab, dass die Gesamtgröße des Internets mittlerweile 2 Petabyte beträgt. Die Steigerung der Leistung und des schnellen Zugriffs auf Webressourcen hat das Surfen in riesigen Datenmengen im Internet zu einer neuen Herausforderung gemacht. Daher ist das Surfen im Web ein grundlegendes Thema für Forscher. Die Forschung im Web hat ihre Schritte in Richtung Browsing Among Information (BAI) statt Browsing for Information (BFI) gelenkt. Der Bereich der Informationsextraktion (IE) bietet einen großen Spielraum, um die Informationen zu präzisieren und zu komprimieren, sodass der Benutzer allein entscheiden kann Überprüfen Sie die Ausschnitte jedes Links. Die automatische Textzusammenfassung ist der Prozess, den Quelltext in eine kürzere Version zu verdichten, wobei der Informationsgehalt und die Gesamtbedeutung erhalten bleiben. In diesem Artikel schlagen wir eine häufige begriffsbasierte Textzusammenfassungstechnik vor, die auf der Analyse von Wortarten basiert, um eine effektive und effiziente Zusammenfassung zu generieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27443-5_48 ed304d6ed9da731bf793ddff7d0132cc;de;;;7.3.;;;Verbesserte visuelle Erfahrung und Wiederverwendbarkeit von Archiven bei der personalisierten Suche basierend auf modifiziertem Spider-Graph Wissenschaftler und Anhänger der Suchmaschinenindustrie betrachten die Personalisierung als die Zukunft der Suchmaschinen, und diese Tatsache wird durch die enorme Menge an Forschung auf diesem Gebiet gut unterstützt. Die Auswirkungen des technologischen Fortschritts scheinen sich jedoch darauf zu konzentrieren, den Benutzern relevantere Ergebnisse zu liefern – nicht auf die Art und Weise, wie sie den Benutzern normalerweise präsentiert werden. Benutzerarchive sind nützliche Ressourcen, die effizienter genutzt werden können, wenn die Wiederverwendbarkeit entsprechend gefördert wird. In diesem Beitrag stellen wir einen theoretischen Rahmen vor, der auf bestehenden Suchtechnologien aufbauen kann und eine visuell verbesserte Benutzererfahrung und Wiederverwendbarkeit von Archiven bietet. Der Beitrag dieses Papiers ist zweifach, erstens – visuelle Schnittstelle für die Einrichtung persönlicher Suchmaschinen, sich selbst aktualisierende Benutzerinteressen und Sitzungszuordnung basierend auf einem modifizierten Spinnendiagramm, und zweitens – Ermöglichung einer besseren Wiederverwendbarkeit von Archiven durch Benutzerarchivkarten, Sitzungskarten, interessenspezifische Karten und visuelle Lesezeichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76856-2_71 4003d2a61740326ce18cdab08d58997b;de;;;7.3.;;;Hybride Quanten-Behaved Particle Swarm Optimierung für Mobile-Edge Computing Offloading im Internet der Dinge Mobile Edge Computing (MEC) ist eine Technologie, die Ressourcen an den Rand des Netzwerks überträgt, wodurch mehr Aufmerksamkeit darauf gelegt wird, Benutzern einen einfacheren Zugang zu Netzwerk- und Rechenressourcen zu ermöglichen. Aufgrund der großen Datenmenge, die für Geräte im Internet der Dinge erforderlich ist, wird die MEC-Technologie zur Verbesserung der Recheneffizienz eingesetzt. Obwohl MEC auf das Internet der Dinge angewendet werden kann, bedarf es weiterer Überlegungen, wie Rechenressourcen effizient und vernünftig zugewiesen und die Rechenzeit aller Benutzer minimiert werden kann. Dieses Papier schlägt ein Zuweisungsschema für Rechenressourcen vor, das auf der Optimierung von hybriden quantenverhaltenen Teilchenschwärmen basiert. Es werden Simulationsexperimente mit der Netzwerkumgebung basierend auf dem Internet der Dinge durchgeführt. Die Ergebnisse zeigen, dass dieser Algorithmus den gesamten Rechenprozess beschleunigen und die Anzahl der Iterationen reduzieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8890-2_26 391e3c6c170c73bcc6accc267d456955;de;;;7.3.;;;Informationsklassifizierung und -organisation unter Verwendung des Neuro-Fuzzy-Modells für den Abruf von Ereignismustern Die Klassifizierung der Sätze, die Ereignisse beschreiben, ist für viele Anwendungen eine wichtige Aufgabe. In diesem Kapitel werden Ereignismuster anhand von Begriffsmerkmalen auf Satzebene identifiziert und extrahiert. Die Begriffe, die Ereignisse zusammen mit den Sätzen auslösen, werden aus Webdokumenten extrahiert. Die Satzstrukturen werden anhand von POS-Tags analysiert. Ein hierarchisches Satzklassifikationsmodell wird unter Berücksichtigung spezifischer Begriffsmerkmale des Satzes präsentiert und die Regeln werden abgeleitet. Die Regeln definieren keine klare Grenze zwischen den Mustern und schaffen Mehrdeutigkeit und Ungenauigkeit. Um dies zu überwinden, werden geeignete Fuzzy-Regeln abgeleitet, die allen Termmerkmalen des Satzes Bedeutung beimessen. Die Fuzzy-Regeln werden mit mehr Variablen konstruiert und erzeugen sechzehn Muster. Das Modell des künstlichen Neuro-Fuzzy-Inferenzsystems (ANFIS) wird zum Trainieren und Klassifizieren der Satzmuster zum Erfassen des in Sätzen vorhandenen Wissens vorgestellt. Den erhaltenen Mustern werden anhand von Klassifikationsvorkenntnissen sprachliche Noten zugeordnet. Diese Noten repräsentieren die Art und Qualität der Informationen in den Mustern. Die Zugehörigkeitsfunktion wird verwendet, um die Fuzzy-Regeln auszuwerten. Die Muster teilen sich die Zugehörigkeitswerte zwischen [0-1], was die Gewichtungen für jedes Muster bestimmt. Später werden höher gewichtete Muster in Betracht gezogen, um den Ereigniskorpus aufzubauen, der beim Abrufen nützlicher und interessanter Informationen von Ereignisinstanzen hilft. Die Leistung der vorgestellten Ansatzklassifizierung wird für das Ereignis „Crime“ durch das Crawlen von Dokumenten aus dem WWW und auch für den Benchmark-Datensatz für das Ereignis „Die“ bewertet. Es zeigt sich, dass die Leistung des vorgestellten Ansatzes im Vergleich zu kürzlich vorgeschlagenen ähnlichen Ansätzen ermutigend ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2559-5_2 59ba53c638d79cbf2be147b07f455df2;de;;;7.3.;;;Verträge zur Definition von QoS-Levels Level Mehrkanal-Informationssysteme bieten eine Möglichkeit, denselben Dienst über mehrere Kanäle aufzurufen. Auf diese Weise variiert die Qualität, selbst wenn die durch den Dienst bereitgestellte Funktionalität unabhängig vom tatsächlichen Kanal ist, je nach den vom Dienstnutzer verwendeten speziellen Geräten. In diesem Zusammenhang präsentiert dieses Papier einen Rahmen für die Erstellung und Verwaltung von Verträgen, die die Vereinbarung in Bezug auf die Dienstleistungsqualität zwischen;-;-;-;https://link.springer.com/chapter/10.1007/0-387-22874-8_1 7642f1ae740d09ad1986fb9a1449bd0d;de;;;7.3.;;;Smart Focused Web Crawler für Hidden Web Eine riesige Menge nützlicher Daten ist unter den Schichten des versteckten Webs verborgen, auf das zugegriffen werden kann, wenn die Benutzer Formulare ausfüllen. Webcrawler können nur durch Interaktion mit webbasierten Suchformularen auf diese Daten zugreifen. Herkömmliche Suchmaschinen können diese tiefen oder versteckten Webseiten nicht effizient durchsuchen und indizieren. Das Abrufen von Daten mit hoher Genauigkeit und Abdeckung im versteckten Web ist eine anspruchsvolle Aufgabe. Focused Crawling garantiert, dass das gefundene Dokument einen Platz zum jeweiligen Thema hat. In der vorgeschlagenen Architektur basiert der Smart Focused Web Crawler für verstecktes Web auf dem XML-Parsing von Webseiten, indem zuerst die versteckten Webseiten gefunden und ihre Funktionen gelernt werden. Begriffshäufigkeit – inverse Dokumenthäufigkeit wird verwendet, um Klassifikatoren zu erstellen, um relevante Seiten zu finden, unter Verwendung einer vollständig automatischen adaptiven Lerntechnik. Dieses System wird dazu beitragen, die Abdeckung und Genauigkeit der abgerufenen Webseiten zu erhöhen. Für die verteilte Verarbeitung wird das MapReduce-Framework von Hadoop verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-0586-3_42 d80f222d2df5bb3233796fb0a41b09ed;de;;;7.3.;;;Automatische Generierung des Initial Query Sets für CBIR im Mobile Web Trotz des schnellen Wachstums des Dienstes zum Herunterladen von Hintergrundbildern auf dem Markt für mobile Inhalte erleben Benutzer aufgrund des Fehlens intelligenter Suchhilfen ein hohes Maß an Frustration bei der Suche nach gewünschten Bildern. Obwohl der inhaltsbasierte Bildabruf die am weitesten verbreitete Technik für den Bildabruf in PC-basierten Systemen ist, wirft seine Anwendung in der mobilen Webumgebung ein Hauptproblem auf, da er aufgrund der Beschränkungen der Benutzeroberflächen von die mobile Anwendungssoftware. Wir schlagen einen neuen Ansatz vor, so genannte a;-;-;-;https://link.springer.com/chapter/10.1007/11581772_84 7016b723ed568fd4ab00d2d37ddfbe40;de;;;7.3.;;;Modellierung von individuellem und aggregiertem Web-Traffic Dieses Papier beschreibt das Verhalten einzelner Webbenutzer sowie den aggregierten HTTP-Verkehr basierend auf tatsächlichen Spuren einer transozeanischen Verbindung zwischen Japan und den USA. Das vorgeschlagene Modell charakterisiert den Verkehr auf verschiedenen Ebenen, von Paketen bis hin zu Webseiten. Daher untersucht die Studie die Auswirkungen der Aggregation auf die stark taillierte Natur und die Fernbereichsabhängigkeit der Variablen, die den Internetverkehr steuern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-25969-5_8 07acf837fb5bbb8432e59297a02c1b32;de;;;7.3.;;;Ein Ein-Klassen-Klassifikationsansatz für den Abruf von Feedback-Dokumenten ohne Relevanz Dieses Papier berichtet über eine neue Methode zum Wiederauffinden von Dokumenten, die nicht relevante Dokumente verwendet. Aus einem großen Datensatz von Dokumenten müssen wir in so wenigen Iterationen von menschlichen Tests oder Überprüfungen wie möglich Dokumente finden, die sich auf den Menschen beziehen. In jeder Iteration wird ein vergleichsweise kleiner Stapel von Dokumenten auf Bezug auf das menschliche Interesse bewertet. Das Relevanz-Feedback benötigt eine Reihe relevanter und nicht relevanter Dokumente, um sinnvoll zu funktionieren. Die anfänglich abgerufenen Dokumente, die einem Benutzer angezeigt werden, enthalten jedoch manchmal keine relevanten Dokumente. Um dieses Problem zu lösen, schlagen wir eine neue Feedback-Methode vor, die nur Informationen von nicht relevanten Dokumenten verwendet. Wir haben diese Methode genannt;-;-;-;https://link.springer.com/chapter/10.1007/11540007_161 e2061eceaf056df51e76941ae6d0344f;de;;;7.3.;;;Eine effektive Term-Ranking-Funktion für die Abfrageerweiterung basierend auf der Bewertung der Informationssuche Mit dem exponentiellen Wachstum der Informationen im Internet und der deutlichen Zunahme der täglich veröffentlichten Seiten haben neue Wörter im Internet auftauchen. Angesichts der Schwierigkeit, die Bedeutung dieser neuen Begriffe zu erfassen, wird es wichtig, den Themen und Orten, an denen diese neuen Wörter vorkommen, mehr Gewicht zu verleihen, oder besser den Wörtern, die häufig mit ihnen vorkommen, einen Wert zu geben. Aus diesem Grund schlagen wir in dieser Arbeit eine effektive Term-Ranking-Funktion für die Abfrageerweiterung basierend auf dem gemeinsamen Auftreten und der Nähe von Wörtern zur Verbesserung der Retrieval-Effektivität vor. Um die Qualität der erzielten Ergebnisse zu bewerten, wird auch ein neuartiges Effizienz-/Wirksamkeitsmaß vorgeschlagen, das auf dem Prinzip des optimalen Informationssammlers basiert. Unsere Experimente wurden mit der OHSUMED-Testsammlung durchgeführt und zeigen eine signifikante Leistungsverbesserung gegenüber dem Stand der Technik.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13817-6_1 cf50d5e8e67fe51c38741e1bd571cb51;de;;;7.3.;;;Ein Rückblick auf die SESAME-Entwicklung Die Entwicklung des Sicherheitskonzepts SESAME (Secure European System for Applications in a Multi-Vendor Environment) begann vor etwa einem Jahrzehnt. Die Flexibilität und Skalierbarkeit, der Fokus auf einfache Administration und der modulare Aufbau sind einige der Gründe, warum diese Architektur die Basis für mehrere Sicherheitsprodukte bildete. Dieser Beitrag versucht, eine kurze Zusammenfassung der SESAME-Entwicklung von den Anfängen bis hin zu TrustedWeb zu geben, der neuesten Lösung, die speziell für die Verwaltung und den Schutz von Web-Ressourcen in großen Intra- und Extranet-Umgebungen geeignet ist.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0053716 9dd98f7b2a8ebbba12cf7ede54187601;de;;;7.3.;;;Einführung in den Zugang zu sozialen Informationen Dieses Kapitel bietet eine Einführung in das neue Feld des Zugangs zu sozialen Informationen. Der Zugang zu sozialen Informationen konzentriert sich auf Technologien, die die vergangene Interaktion von Benutzern mit Informationen organisieren, um zukünftigen Benutzern einen besseren Zugang zu Informationen zu ermöglichen. Diese Technologien werden in allen Bereichen des Informationszugriffs, einschließlich Suche, Browsing und Empfehlung, immer beliebter. Ausgehend von einer Definition des neuen Felds und einer kurzen Geschichte des Zugangs zu sozialen Informationen führt dieses Kapitel eine mehrstufige Klassifizierung von Technologien für den Zugang zu sozialen Informationen ein. Die beiden wichtigen Faktoren für unsere Klassifizierung sind die Arten des Informationszugriffs und die Quelle der sozialen Informationen, die genutzt wurden, um den Informationszugriff zu unterstützen. Diese beiden Faktoren sind die Blickwinkel, die wir in diesem Kapitel verwenden, um eine Karte des Gebiets zu erstellen sowie die Buchstruktur und die Rolle der verbleibenden Buchkapitel bei der Abdeckung von Themen und Technologien des Zugangs zu sozialen Informationen vorzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-90092-6_1 ef84835a76b238418baa75eb43e2b153;de;;;7.3.;;;Verbessern der Schlüsselwortextraktion aus Filmuntertiteln durch Verwendung von Zeiteigenschaften In unserer Arbeit zielen wir auf die Schlüsselwortextraktion aus Filmuntertiteln ab. Schlüsselwörter und Schlüsselphrasen, auch wenn der Kontext fehlt, können beim Finden, Verstehen, Organisieren und Empfehlen der Medieninhalte sehr hilfreich sein. Im Allgemeinen werden sie von Suchmaschinen verwendet, um die relevanten Informationen zu finden. Filme und Videoinhalte werden massiv verfügbar und weit verbreitet. Die Möglichkeit, Videos automatisch zu beschreiben und zu klassifizieren, hat ein weites Anwendungsgebiet. In unserer Arbeit wählen wir Filmuntertitel als Informationsquelle für die Verarbeitung aus. Wir haben eine Methode zur Schlüsselwortextraktion aus Filmuntertiteln vorgeschlagen, indem wir ihre zeitlichen Eigenschaften analysieren und Gespräche erkennen. Wir haben unsere Methode evaluiert, indem wir zwei Experimente (a-priori-synthetisches Experiment und a-posteriori-Benutzerexperiment) mit 200 Filmen durchgeführt haben und zeigen, dass die Konversationsanalyse traditionelle Ansätze basierend auf automatischen Termextraktionsalgorithmen verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-49192-8_44 d5bca686acba1bbf830fb1256b4e5ec6;de;;;7.3.;;;Zum Extrahieren ereignisorientierter Sammlungen aus Webarchiven Webarchive sind eine immer wichtigere Informationsquelle für Informatiker, Geisteswissenschaftler und Journalisten, die sich für vergangene Ereignisse interessieren. Derzeit gibt es jedoch keine Zugriffsmethoden, die Webarchivbenutzern helfen, effizient auf ereignisorientierte Informationen in großen Archiven zuzugreifen, die über das Abrufen einzelner getrennter Dokumente hinausgehen. In diesem Artikel gehen wir das neuartige Problem an, verkettete ereigniszentrierte Dokumentensammlungen aus großen Webarchiven zu extrahieren, um einen effizienten und intuitiven Zugriff auf Informationen zu vergangenen Ereignissen zu ermöglichen. Wir gehen dieses Problem an, indem wir: (1) Benutzern die intuitive Definition ereignisorientierter Dokumentensammlungen durch eine Sammlungsspezifikation erleichtern, (2) eine spezielle Extraktionsmethode entwickeln, die fokussierte Crawling-Techniken an die Webarchiveinstellungen anpasst, und ) Definition einer Funktion zur Beurteilung der Relevanz der archivierten Dokumente in Bezug auf die Collection Specification unter Berücksichtigung der thematischen und zeitlichen Relevanz der Dokumente. Unsere ausgedehnten Experimente zum deutschen Webarchiv (über einen Zeitraum von 19 Jahren) zeigen, dass unsere Methode eine effiziente Extraktion ereigniszentrierter Sammlungen für verschiedene Ereignistypen ermöglicht.;-;-;-;https://link.springer.com/article/10.1007/s00799-018-0258-6 a3d7034b9b673b9905dee2a7a024611e;de;;;7.3.;;;Selbstanpassender Service Level in Java Enterprise Edition Anwendungsserver unterliegen unterschiedlichen Workloads, was eine autonome Verwaltung nahelegt, um eine optimale Leistung zu gewährleisten. Wir schlagen vor, in das komponentenbasierte Programmiermodell, das häufig in aktuellen Anwendungsservern verwendet wird, das Konzept von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10445-9_8 04856b8d75fb01d01a244ade78b3ad4a;de;;;7.3.;;;Erfahrungen in der Entwicklung mobiler Anwendungen mit der Apricot Agent Platform Der Trend zur Zunahme mobiler Dienste stellt Dienstanbieter vor eine neue Herausforderung: Wie können fortschrittlichere und benutzerfreundlichere, kontextbezogene und personalisierte mobile Dienste für die Benutzer entwickelt werden. Apricot Agent Platform ist eine agentenbasierte Softwareplattform, die für die Entwicklung kontextsensitiver und personalisierter mobiler Dienste entwickelt wurde. Apricot Agent Platform unterstützt die Entwicklung benutzerfreundlicher mobiler Dienste, indem sie Tools zur Kombination verschiedener mobiler und internetbasierter Dienste bereitstellt. Die Apricot-Agentenarchitektur besteht aus einer Agentenplattform, Agenten und Agentencontainern. Für die Entwickler mobiler Dienste bietet es integrierte Funktionen und Kommunikationsmechanismen. Darüber hinaus beschreibt dieses Papier vier Demonstratoren, die auf der Apricot Agent Platform aufgebaut sind, um die Benutzerfreundlichkeit und Effizienz der Plattform beim Aufbau mobiler Dienste zu bewerten. Das Ergebnis der Evaluation zeigt relativ vielversprechende Ergebnisse und das weitere Entwicklungsziel wird aufgezeigt.;-;-;-;https://link.springer.com/article/10.1007/s00779-005-0058-z 36950fdc0619ebc0473c880eb0a59291;de;;;7.3.;;;Erstellen von Webanwendungs-Firewalls in hochverfügbaren Umgebungen Jeden Tag steigt die Anzahl der Webanwendungen und Webdienste aufgrund der Migration in dieser Art von Umgebungen. In diesen Szenarien finden sich häufig alle Arten von Schwachstellen, die Webanwendungen und herkömmliche Schutzmethoden auf Netzwerk- und Transportebene betreffen, die nicht ausreichen, um sie zu mindern. Darüber hinaus gibt es auch Situationen, in denen die Verfügbarkeit von Informationssystemen für das ordnungsgemäße Funktionieren von entscheidender Bedeutung ist. Um unsere Systeme vor diesen Bedrohungen zu schützen, benötigen wir eine Komponente, die auf der Schicht 7 des OSI-Modells agiert, die das HTTP-Protokoll umfasst, das es uns ermöglicht, den Verkehr zu analysieren, und HTTPS, das leicht skalierbar ist. Um diese Probleme zu lösen, stellt das Papier das Design und die Implementierung einer Open-Source-Anwendungsfirewall, ModSecurity, vor, wobei die Verwendung des positiven Sicherheitsmodells und die Bereitstellung von Hochverfügbarkeitsumgebungen betont werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16120-9_18 e41ad502bcbbc040232c2abc6442abc6;de;;;7.3.;;;Geschlossenes sequenzielles Pattern-Mining für die Sitemap-Generierung Eine Sitemap stellt eine explizite Spezifikation des Gestaltungskonzepts und der Wissensorganisation einer Website dar und gilt daher als grundlegende Ontologie der Website. Es stellt nicht nur die Hauptnutzungsflüsse für Benutzer dar, sondern organisiert auch hierarchisch Konzepte der Website. Typischerweise werden Sitemaps von Webmastern in den sehr frühen Phasen des Website-Designs definiert. Websites verändern jedoch im Laufe ihres Lebens ihre Struktur, ihren Inhalt und ihre möglichen Navigationswege erheblich. Auch wenn dies nicht der Fall ist, können Webmaster weder Sitemaps definieren, die den tatsächlichen Website-Inhalt widerspiegeln, noch umgekehrt die tatsächliche Organisation von Seiten und Links definieren, die nicht die beabsichtigte Organisation der in den Sitemaps codierten Inhalte widerspiegeln. In diesem Beitrag schlagen wir einen Ansatz vor, der automatisch Sitemaps generiert. Im Gegensatz zu anderen in der Literatur vorgeschlagenen Ansätzen, die hauptsächlich Sitemaps aus den Textinhalten der Seiten generieren, werden Sitemaps in dieser Arbeit durch die Analyse des Webgraphen einer Website generiert. Dies ermöglicht uns:;-;-;-;https://link.springer.com/article/10.1007/s11280-020-00839-2 84efe9571dd44ab146ae89811742eb8f;de;;;7.3.;;;Innovative eHealth-Dienste – PISCES-Lösung Der Gesundheitssektor, insbesondere in mittel- und osteuropäischen Ländern, muss sich mehreren Herausforderungen stellen, wie „Brain Drain“, Finanzierungsproblemen und einer schnell alternden Bevölkerung. Es besteht eine wachsende Nachfrage nach wirtschaftlicheren Wegen zur Prävention und Überwachung. Gleichzeitig bieten Future Internet-Lösungen personalisierte Gesundheitsdienstleistungen von hoher Qualität, die weit über die klassische Versorgung hinausgehen können. Es werden neue, innovative Lösungen bereitgestellt, wie die Fernüberwachung des Gesundheitszustands, die kostengünstige Dienste in einer relativ kostengünstigen Infrastruktur bereitstellen. In diesem Beitrag wird PISCES vorgestellt, ein reaktionsschnelles mobiles Informationssystem zur Gesundheitsüberwachung, das eine Fernüberwachung des Gesundheitszustands und der körperlichen Leistungsfähigkeit der Patienten ermöglicht. Ziel der PISCES-Lösung ist es, nicht nur den Gesundheitszustand der Teilnehmer zu überwachen, sondern auf jeden Mangelfall zu reagieren, sowie die Möglichkeit zu geben, das Niveau der körperlichen Aktivitäten zu erhöhen. Das Papier diskutiert das PISCES-Pilotprojekt, das 2014 in Ungarn durchgeführt wurde, sowie die sozialen, wirtschaftlichen, Sicherheits-, Datenschutz- und rechtlichen Perspektiven von mHealth-Lösungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22389-6_15 a2835c073e6e0814c98fe6d93b5556ec;de;;;7.3.;;;Bewertung der Unterrichtstechnik In relativ kurzer Zeit ist die Bildungstechnologie an fast jeder Hochschule oder Universität weltweit zu einem grundlegenden Bestandteil des Unterrichtslebens geworden. Die Auswirkungen auf das Lehren und Lernen sind jedoch noch nicht zufriedenstellend bewertet. Während des akademischen Jahres 1998-1999 untersuchte das Wellesley Technology Assessment Committee (oder WTAC) den Einsatz von Technologie im Unterricht am Wellesley College. Die Arbeit des Ausschusses hat uns gezeigt, dass wir mehr und anders wissen wollten, wie sich die Technologie auf das Lehren und Lernen in unseren Klassenzimmern auswirkt. Wir wollten untersuchen, was in menschlichen Domänen passiert, die von der Maschine beeinflusst werden: im menschlichen Geist, der mit Lehren und Lernen beschäftigt ist, in der menschlichen sozialen Interaktion und im disziplinären Wissen, wo und wie auch immer dieses Wissen kodiert sein mag. Dieses Papier beschreibt Phase I eines mehrjährigen Projekts. Wir glauben, dass sowohl der von uns entwickelte Prozess als auch die Ergebnisse dieser Vorphase die Verantwortlichen für die Umsetzung von Technologieplänen an ihren Standorten interessieren werden, und fordern andere Bildungseinrichtungen auf, unseren Prozess als Modell zu sehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35502-3_16 49915a869b161bc0c44f21eebacf443f;de;;;7.3.;;;Sie können nicht sehen, was Sie nicht sehen: Experimentelle Beweise dafür, wie viele relevante Informationen aufgrund der Personalisierung der Websuche von Google möglicherweise verpasst werden Der Einfluss der Personalisierung der Websuche auf die professionelle Wissensarbeit ist ein wenig erforschtes Gebiet. Hier untersuchen wir, wie Beamte des öffentlichen Sektors ihre Abhängigkeit von der Google-Websuchmaschine selbst einschätzen, ob sie sich der möglichen Auswirkungen algorithmischer Verzerrungen auf ihre Fähigkeit bewusst sind, alle relevanten Informationen abzurufen, und wie viele relevante Informationen tatsächlich aufgrund von Personalisierung der Websuche. Wir stellen fest, dass sich die Mehrheit der Teilnehmer unserer experimentellen Studie weder bewusst ist, dass ein potenzielles Problem vorliegt, noch über eine Strategie verfügt, um das Risiko des Fehlens relevanter Informationen bei der Durchführung von Online-Suchen zu mindern. Am wichtigsten ist, dass wir empirische Belege dafür liefern, dass bis zu;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-34971-4_17 4f33777b114ca187d5348245dc83544a;de;;;7.3.;;;SMERA: Semantic Mixed Approach für die Erweiterung und Neuformulierung von Webabfragen Die Abstimmung des Informationsbedarfs der Nutzer auf die relevanten Dokumente ist das grundlegende Ziel von Information Retrieval-Systemen. Allerdings enthalten relevante Dokumente nicht unbedingt dieselben Begriffe wie die in Benutzeranfragen. In diesem Whitepaper verwenden wir Semantik, um Benutzeranfragen besser auszudrücken. Darüber hinaus unterscheiden wir zwischen zwei Arten von Konzepten: solchen, die aus einer Reihe von Dokumenten mit Pseudorelevanz extrahiert wurden, und solchen, die aus einer semantischen Ressource wie einer Ontologie extrahiert wurden. Mit dieser Unterscheidung im Hinterkopf schlagen wir einen Semantic Mixed Query Expansion and Reformulation Approach (SMERA) vor, der diese beiden Arten von Konzepten verwendet, um Webanfragen zu verbessern. Dieser Ansatz berücksichtigt mehrere Herausforderungen wie die selektive Wahl von Erweiterungsbegriffen, die Behandlung benannter Entitäten und die benutzerfreundliche Neuformulierung der Abfrage. Wir evaluieren SMERA auf vier Standard-Websammlungen aus INEX- und TREC-Evaluierungskampagnen. Unsere Experimente zeigen, dass SMERA die Leistung eines Information-Retrieval-Systems im Vergleich zu nicht modifizierten Originalabfragen verbessert. Darüber hinaus bietet unser Ansatz eine statistisch signifikante Verbesserung der Genauigkeit gegenüber einer konkurrierenden Abfrageerweiterungsmethode und generiert gleichzeitig konzeptbasierte Abfragen, die umfassender und einfacher zu interpretieren sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-45763-5_9 37a16283e9311fcbd25a392e23e5f469;de;;;7.3.;;;Skalierbare Modelle für redundante Datenflussanalysen in sozialen Online-Netzwerken Das Teilen und Empfangen identischer Videoinhalte unter den Benutzern verschiedener Online-Social-Media-Anwendungen führt zu einem enormen redundanten Datenverkehrsfluss über die Internetschicht, verschiedene Ebenen des Netzwerks des Diensteanbieters und erhöht auch den Datenverbrauch der Endbenutzer. Das primäre Ziel dieser Forschungsarbeit ist es, das Routing redundanter Daten über soziale Medien durch ein neuartiges Verfahren zu reduzieren, das auf der Validierung der Vorexistenz von Inhalten auf der Empfängerseite vor der eigentlichen Übertragung von Videoinhalten basiert. Eine proaktive Middleware wird vorgeschlagen, um das enorme Wachstum des Social-Media-Traffics transparent zu bewältigen, und daher wurde ein verteiltes webbasiertes Framework für die Echtzeit-Datenverkehrsflussanalyse implementiert. Als Teil des serviceorientierten Architekturmodells werden verschiedene Dienste definiert, um einen Frame von jedem initiierten Videoinhalt abzurufen, um die Vorexistenz auf der Empfängerseite zu validieren und eine angemessene Entscheidung zur Annahme oder Verschiebung der tatsächlichen Videoübertragung zu treffen. Die für die redundante Datenflussanalyse entwickelte Middleware wird weiter auf Cloud-Dienste ausgeweitet, um die Skalierbarkeitsprobleme zu lösen. Die statistische Analyse, die von den vorgeschlagenen Modellen durchgeführt wurde, zeigte eine Reduzierung des gesamten initiierten Verkehrs um 27 % bei ausreichender Dateneinsparung für die Endbenutzer. Der Overhead, der mit der Übertragung des ersten Frames des tatsächlichen Videos verbunden ist, wird ebenfalls analysiert, und es wird beobachtet, dass der Overhead von der beträchtlichen Menge an Gewinnen angeführt wird, die durch das vorgeschlagene Modell erreicht wird.;-;-;-;https://link.springer.com/article/10.1007/s11277-019-06375-1 89e48f90f91d33e04e4ca821abef1d2b;de;;;7.3.;;;Verbesserungen der Zuverlässigkeit der Prozesssteuerung durch Internet-Sicherheitstechnologie Die zunehmende Nutzung des Internets als globales Kommunikationsmedium treibt die Entwicklung neuer Methoden an, um die mit dem Internet in seiner heutigen Form inhärenten Mängel an Zuverlässigkeit und Sicherheit zu überwinden. Daher werden Datenintegrität und Vertraulichkeit sowie Peer-to-Peer-Authentifizierung und Nicht-Ablehnung von Transaktionen als grundlegend für einen breiten Erfolg des elektronischen Handels angesehen. Als Antwort auf diese Anforderungen gewinnt der Einsatz von Public Key Infrastructures (PKI) an Bedeutung. Dieser Beitrag zeigt, wie diese Internet-Sicherheitstechnologie erfolgreich in die Prozessindustrie übertragen werden kann, um viele der aktuellen Fragen einer zuverlässigen Prozesssteuerung zu unterstützen. Die angesprochenen Anwendungen reichen von Verbesserungen der sicheren Prozesssteuerung über die Zuverlässigkeit der Kommunikation bis hin zur kommerziellen Effizienz des Betriebs und zeigen, dass eine PKI ein wertvolles Instrument ist, um das Vertrauen der Mitarbeiter in Verfahren und Kommunikation zu erhalten, die von Papier auf Computerbildschirme migrieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-40891-6_28 e358b016977f1af5dc098361cad73c6d;de;;;7.3.;;;Transzendierende Turing-Berechenbarkeit Es wurde argumentiert, dass neuronale Netze und andere Formen der analogen Berechnung die Grenzen der Turing-Maschinen-Berechnung überschreiten können, Beweise wurden auf beiden Seiten unter unterschiedlichen Annahmen angeboten. In diesem Artikel argumentiere ich, dass die wichtigen Vergleiche zwischen den beiden Rechenmodellen weniger mathematisch als vielmehr erkenntnistheoretisch sind. Das Turing-Maschinen-Modell macht Annahmen über die Informationsdarstellung und -verarbeitung, die schlecht mit den Realitäten der natürlichen Berechnung (Informationsdarstellung und -verarbeitung in oder inspiriert von natürlichen Systemen) übereinstimmen. Dies weist auf die Notwendigkeit neuer Berechnungsmodelle hin, die sich mit Fragen befassen, die orthogonal zu denen sind, die die traditionelle Berechnungstheorie beschäftigt haben.;-;-;-;https://link.springer.com/article/10.1023/A%3A1021397712328 6a7a3848df4e4912eb35bad11f6ed7c1;de;;;7.3.;;;Automatische Genreerkennung von Webdokumenten Ein Genre oder ein Stil ist eine andere Ansicht von Dokumenten, die sich von einem Thema oder einem Thema unterscheidet. Auch das Genre ist ein Kriterium zur Einordnung der Dokumente. Es gibt mehrere Studien zur Erkennung eines Genres von Textdokumenten. Allerdings beschäftigten sich nur wenige von ihnen mit Webdokumenten. In diesem Whitepaper schlagen wir Funktionen vor, um Genres von Webdokumenten zu erkennen. Webdokumente unterscheiden sich von Textdokumenten dadurch, dass sie URL- und HTML-Tags innerhalb der Seiten enthalten. Wir stellen die spezifischen Funktionen von Webdokumenten vor, die aus URL- und HTML-Tags extrahiert werden. Experimentelle Ergebnisse ermöglichen es uns, ihre Eigenschaften und Leistungen zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30211-7_33 0201db8182d137051df829a8386160c0;de;;;7.3.;;;Die Auswirkungen von negativem Interaktionsfeedback in einem Webnavigationsassistenten Empfehlungssysteme sind eine gängige Lösung, um Benutzer bei der Suche und dem Abrufen von Informationen im Web zu unterstützen, da die Vorteile aus der Auswertung und Filterung der riesigen Menge an verfügbaren Informationen gezogen werden können. Dieser Artikel präsentiert eine Benutzerstudie zur Machbarkeit der Verwendung negativer Interaktion, d. h. des Fehlens einer Interaktion mit einigen Elementen in einer Vorschlagsliste, als implizites Feedback, das zur Verbesserung der Leistung eines Webnavigationsassistenten verwendet wird. Die Ergebnisse zeigten eine Zunahme von 16,65 % bei der Akzeptanz der Vorschläge des Assistenten und eine Zunahme von 43,05 % bei der durchschnittlichen Nutzung des Vorschlagsfensters bei Verwendung negativer Interaktion im Hinblick auf die Nichtnutzung dieses Feedback-Mechanismus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39265-8_12 fcd53de83e2e8f3ebca9fa73adf5f525;de;;;7.3.;;;Knoten- und Verknüpfungsobjekte Wir schließen dieses Kapitel ab, indem wir die hervorstechenden Eigenschaften der oben beschriebenen Knoten- und Linkobjekte zusammenfassen. In diesem Kapitel haben wir gezeigt, dass Webdokumente und Hyperlinks in WHOM als Knoten- und Linkobjekte dargestellt werden. Diese Objekte sind erstklassige Objekte in WHOM. Wichtigstes Thema ist hier eindeutig die logische Trennung der Hyperlinks von den Webdokumenten und die Darstellung von Metadaten, Struktur und Inhalt von HTML- und XML-Daten als baumartige Struktur. Insbesondere werden die Metadaten von Webdokumenten und Hyperlinks als ein Satz von Knoten- bzw. Linkmetadatenbäumen dargestellt. Inhalt und Struktur von Webdokumenten und Hyperlinks werden durch einen Knoten- und Linkdatenbaum dargestellt. Die Korrelation zwischen Knoten und ihren Links wird durch die Metadatenquellen- und Ziel-URL und die Referenzkennung des Linkobjekts aufrechterhalten.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-21781-9_3 f21790b08187fe268c6710adf6b6b633;de;;;7.3.;;;Anwendung von Bildungsmodellen in der technologischen Bildung Dieser Beitrag stellt eine Gruppe von Elementen zur Verbesserung des Lehrens und Lernens in der technologischen Bildung vor. Diese Elemente basieren auf einigen Beiträgen zeitgenössischer Bildungsmodelle, nämlich den namely;-;-;-;https://link.springer.com/article/10.1007/s10639-007-9038-4 0f5c639a8f1c9ebdfe37840c6ec34b1b;de;;;7.3.;;;Aktivieren des sicheren E-Commerce auf Mobiltelefonen Mobile E-Commerce ermöglicht es dem mobilen Nutzer, von unterwegs, überall und zu jeder Zeit Dinge zu kaufen und zu bezahlen, seine Rechnung zu bezahlen oder eine Wette über sein Handy abzuschließen. Es bringt Komfort und trägt zur Verbesserung der Lebensqualität der Benutzer bei. Um erfolgreich zu sein, müssen jedoch Sicherheitsmaßnahmen stark genug sein, um den Benutzer vor illegalem Missbrauch zu schützen und Vertrauen von ihm zu gewinnen. Leider reichen die aktuellen Sicherheitsmaßnahmen für Mobiltelefone noch nicht aus. Dieses Papier beschreibt die mobilen E-Commerce-Aktivitäten von Ericsson, die darauf abzielen, mobile E-Commerce-Anwendungen sicher zu machen und eine umfassende Entwicklung und Bereitstellung derselben zu ermöglichen. Das Papier beginnt mit einer Definition des mobilen E-Commerce. Als nächstes folgt eine Zusammenfassung des Wireless Application Protocol (WAP) und seiner Errungenschaften. Der Web-E-Commerce wird kurz erläutert. Anschließend werden die Sicherheitsprobleme im mobilen E-Commerce beschrieben. Danach wird die Lösung der Probleme präsentiert. Der Beitrag schließt mit einem Blick in die Zukunft und Diskussionen darüber, was getan werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35522-1_25 07902e92d66671ed4e66b5fcc90ad0f6;de;;;7.3.;;;Web-Clustering und Erkennung von Zuordnungsregeln für Web Broadcast Wenn wir Webseitenpakete über ein Breitband-Rundfunknetz ausstrahlen, sind das, was wir ausstrahlen und wie wir ausstrahlen, zwei Probleme. Zunächst formalisieren wir diese Probleme als Cluster-Problem. Zweitens verwenden wir die Assoziationsregel, um ein besseres Ergebnis zu erzielen. In diesem Artikel stellen wir eine neue Web-Mining-Methode WebClustering vor, um diese Probleme zu lösen. Diese Methode kombiniert die Clustering-Idee und die Assoziationsregel-Erkennungsidee. Das Mining-Objekt sind die Webseiten von Cache und Log in WWW Proxy Server. Mit dieser Methode können wir ein wertvolles Web-Broadcast-Set finden und einige Index-HTML-Seiten erstellen, um die Benutzer zur Navigation zu leiten.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45151-X_21 975986bbfea5a1eebe5dea8c05c9067a;de;;;7.3.;;;Prozessdefinition in Web-Time In kleinen unternehmerischen Unternehmen sind Schnelligkeit und Flexibilität am wichtigsten. Wir müssen in der Lage sein, schnell zu agieren, auf Chancen und Gefahren zu reagieren und unseren Kunden regelmäßig neue Produkte zur Verfügung zu stellen. Können wir es uns in einer solchen Umgebung leisten, die Zeit zu investieren, um uns auf die Entwicklung und Verbesserung unserer Softwareentwicklungsprozesse zu konzentrieren? Und können wir uns den Overhead leisten, der mit klar definierten Prozessen verbunden ist?;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35404-0_18 869a2e14b214c03982ea5447e40a6114;de;;;7.3.;;;Schutz von Webservices vor DoS-Angriffen durch SOAP Message Validation Obwohl Web Services immer beliebter werden, nicht nur in geschlossenen Intranets, sondern auch für die Kommunikation zwischen Unternehmen, wurden bisher nur wenige Anstrengungen unternommen, um die Verfügbarkeit eines Web Services sicherzustellen. Bestehende Sicherheitsstandards wie z.B. WS-Security befasst sich nur mit Nachrichtenintegrität und -vertraulichkeit sowie Benutzerauthentifizierung und -autorisierung. In diesem Artikel stellen wir ein System zum Schutz von Web Services vor Denial-of-Service (DoS)-Angriffen vor. DoS-Angriffe beruhen häufig auf falsch formatierten und/oder überlangen Nachrichten, die einen Server mit ressourcenintensiven Berechnungen in Anspruch nehmen. Ein geeignetes Mittel, um solche Angriffe zu verhindern, ist daher die vollständige grammatikalische Validierung von Nachrichten durch ein Gateway auf Anwendungsebene, bevor sie an den Server weitergeleitet werden. Wir diskutieren spezifische Arten von DoS-Angriffen gegen Webservices, zeigen, wie Nachrichtengrammatiken automatisch aus formalen Webservice-Beschreibungen (in der Web Service Description Language geschrieben) abgeleitet werden können, und stellen eine Gateway-Lösung auf Anwendungsebene namens „Checkway“ vor, die diese Grammatiken verwendet, um Webservice-Nachrichten filtern. Der Beitrag schließt mit einigen Leistungszahlen zur vollständigen grammatikalischen Validierung.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-33406-8_15 2e03d7072a8ccdebbc4e134a97cdecd7;de;;;7.3.;;;Co-Branding ins Web verlagern: Auswirkungen auf Service Level Agreements Virtuelles Co-Branding verlagert sich ins Web als beliebte Praxis in der physischen Welt, bei der ein Kundenpartner die Dienste (z.B. Produkteinzelhandel) eines Anbieterpartners in seinem eigenen Portal syndiziert. Die virtuelle Markenintegration ist jedoch mehr als das Anbieten von Produkten jeder Marke im gleichen virtuellen Raum. Andere Aspekte wie Zuverlässigkeit, Benutzerfreundlichkeit oder Qualität einzelner unterstützender Dienste sollten vereinbart werden, um eine bestimmte Dienstgüte (QoS) bei der endgültigen Co-Branding-Vereinbarung zu gewährleisten. Andernfalls kann das Image beider Marken erodiert werden. In diesem Papier wird argumentiert, dass aktuelle Service-Level-Agreement-Ansätze, die sich hauptsächlich auf Zuverlässigkeitsprobleme konzentrieren, erweitert werden können, um andere Schlüsselthemen im Co-Branding zu berücksichtigen. Das Papier konzentriert sich auf CRM-Anliegen und bietet einige Einblicke, wie ein QoS-Framework, IBMs WSLA, um CRM-QoS-Anliegen erweitert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35704-1_58 9ae4ac5e84c637f699f91cdeae1acee8;de;;;7.3.;;;Security Agent-Modell mit interaktiver Authentifizierungsdatenbank Der Authentifizierungsagent ermöglicht einem autorisierten Benutzer, Autorität im Internet oder in verteilten Computersystemen zu erlangen. Es ist eines der wichtigsten Probleme, dass Anwendungsserversysteme viele Clients identifizieren können, die autorisiert sind oder nicht. Um viele Ressourcen von Webserversystemen oder anderen unserer Computersysteme zu schützen, sollten wir einen Client-Authentifizierungsprozess im Internet oder verteilten Client-Server-Systemen durchführen. Im Allgemeinen kann ein Benutzer mit der ID und dem Kennwort des Benutzers eine Autorisierung erlangen. Die Verwendung des Client-Passworts ist jedoch aufgrund verschiedener Sicherheitsangriffe vieler Gegner nicht immer sicher. In diesem Papier schlagen wir ein Systemmodell für Authentifizierungsagenten vor, das eine interaktive Authentifizierungsdatenbank verwendet. Unser vorgeschlagenes Agentensystem bietet eine sichere Client-Authentifizierung, die aktuellen Systemen einen interaktiven Authentifizierungsprozess basierend auf der Benutzer-ID und dem Passwort hinzufügt. Bevor ein Benutzer eine Transaktion zur Informationsverarbeitung an verteilte Anwendungsserver anfordert, sollte der Benutzer einen Authentifizierungsschlüssel senden, der von der Authentifizierungsdatenbank abgerufen wurde. Das Agentensystem fordert einen Authentifizierungsschlüssel vom Benutzer an, um den autorisierten Benutzer zu identifizieren. Das vorgeschlagene Authentifizierungsagentensystem kann unter Verwendung der beiden Passwörter, des eigenen Passworts des Benutzers und des Authentifizierungsschlüssels oder Passworts, eine hohe Computersicherheit bieten. Das zweite Authentifizierungspasswort kann von der Authentifizierungsdatenbank in jeder Anforderungstransaktion ohne Benutzereingabe abgerufen werden, da es in der Client-Datenbank gespeichert wird, wenn der Benutzer zuerst die Autorität erhält. Für eine sicherere Authentifizierung kann das Agentensystem die Authentifizierungsdatenbank ändern. Unter Verwendung der interaktiven Datenbank kann das vorgeschlagene Agentensystem das Eindringen während der Transaktion eines nicht autorisierten Clients unter Verwendung des Authentifizierungsschlüssels erkennen, da wir durch das gespeicherte Authentifizierungspasswort sofort wissen, wenn ein Hacker Netzwerk- oder Computersysteme angreift.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30583-5_66 9498e9087047eece4f8465f7901513e8;de;;;7.3.;;;ConceptMap: Mining von verrauschten Webdaten für das Konzeptlernen Wir gehen das Problem an, Konzepte automatisch aus verrauschten Web-Bildersuchergebnissen zu lernen. Die Idee basiert auf der Entdeckung gemeinsamer Merkmale, die zwischen Teilmengen von Bildern geteilt werden, indem eine Methode entwickelt wird, die in der Lage ist, die Daten zu organisieren und gleichzeitig irrelevante Instanzen zu eliminieren. Wir schlagen eine neuartige Clustering- und Ausreißererkennungsmethode vor, nämlich Concept Map (CMAP). Bei einer für eine Konzeptabfrage zurückgegebenen Bildsammlung stellt CMAP Cluster bereit, die von Ausreißern bereinigt wurden. Jeder Cluster wird verwendet, um ein Modell zu trainieren, das unterschiedliche Merkmale des Konzepts repräsentiert. Die vorgeschlagene Methode übertrifft die aktuellen Studien zur Aufgabe des Lernens aus verrauschten Webdaten für Low-Level-Attribute sowie High-Level-Objektkategorien. Es ist auch konkurrenzfähig mit den betreuten Methoden in Lernszenenkonzepten. Darüber hinaus unterstützen Ergebnisse zu Benennungsgesichtern die Verallgemeinerungsfähigkeit des CMAP-Frameworks auf verschiedene Domänen. CMAP ist in der Lage, in großem Maßstab ohne Aufsicht zu arbeiten, indem es die verfügbaren Quellen ausnutzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10584-0_29 213ece771194e3015d7b8e4b7ab2de5b;de;;;7.3.;;;Skalierbare und flexible standortbasierte Dienste für einen allgegenwärtigen Informationszugriff In mobilen verteilten Umgebungen müssen Anwendungen häufig dynamisch Informationen abrufen, die für ihren aktuellen Standort relevant sind. Das aktuelle Design des Internets bietet keine konzeptionellen Modelle, um dieses Problem anzugehen. Daher wird die Entwicklung eines Systems, das diese Funktionalität benötigt, zu einer anspruchsvollen und kostenintensiven Aufgabe, die zu individuellen Lösungen führt, die nur die Anforderungen bestimmter Anwendungsszenarien adressieren. In diesem Papier schlagen wir einen allgemeineren Ansatz vor, der auf einem skalierbaren und flexiblen Konzept von standortbezogenen Diensten und einem architektonischen Rahmen zur Unterstützung seiner Anwendung in der Internetumgebung basiert. Wir beschreiben eine Fallstudie, in der dieser architektonische Rahmen für die Entwicklung eines ortsbezogenen Reiseführers verwendet wird. Die Umsetzung dieser Fallstudie zeigt die Anwendbarkeit des Rahmens sowie des Gesamtkonzepts der standortbezogenen Dienste und beleuchtet einige der damit verbundenen Probleme.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48157-5_7 334341f6c63b5d9da1c05681c9c5bb9d;de;;;7.3.;;;Automatische Verfeinerung von Stichwortanmerkungen für die Web-Bildsuche Die automatische Bildanmerkung ist grundlegend für ein effektives Durchsuchen und Suchen von Bildern. Mit der zunehmenden Größe von Bildsammlungen wie Webbildern ist es nicht möglich, eine große Anzahl von Bildern manuell zu kennzeichnen. Inzwischen können die Textinformationen der Hosting-Webseiten als ungefähre Bildbeschreibung verwendet werden. Allerdings sind solche Informationen nicht genau genug. In diesem Papier schlagen wir einen Rahmen vor, um den visuellen Inhalt, den Textkontext und die semantischen Beziehungen zwischen Schlüsselwörtern zu nutzen, um die Bildannotation zu verfeinern. Der Hypergraph wird verwendet, um die Textinformationen zu modellieren und die semantische Beziehung wird von WordNet abgeleitet. Experimente mit großen Datensätzen zeigen die Wirksamkeit der vorgeschlagenen Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69423-6_26 730cb1da32d2561680363cc117e25c4e;de;;;7.3.;;;ACO zur Lösung der verteilten Zuordnung eines Corporate Semantic Web Dieses Dokument beschreibt eine allgemeine Methode zum Zuweisen einer Dokumentensammlung über ein verteiltes Speichersystem. Dokumente werden so organisiert, dass sie ein semantisches Web des Unternehmens bilden, das durch ein Diagramm dargestellt wird;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05258-3_3 9f55542262bee8712a06b96381a3dd6b;de;;;7.3.;;;Halbautomatisches Entwerfen der Ontologie von XML-Dokumenten Da XML in letzter Zeit zum Standard für den Austausch von Webdokumenten und öffentlichen Dokumentationen wird, nehmen XML-Daten in vielen Bereichen zu. Und für die exakte Informationsbeschaffung erscheint das auf der Ontologie basierende Semantic Web. Die Ontologie nicht nur für die Textdaten, sondern auch für XML-Daten wird benötigt. Die vorhandene Ontologie wurde jedoch manuell erstellt und ist zeit- und kostenaufwendig. Daher schlagen wir in diesem Papier die halbautomatische Methode zur Ontologie-Erzeugung vor, die die Data-Mining-Technik, die Assoziationsregeln, verwendet. Durch Anwenden der Assoziationsregeln auf die XML-Dokumente wollen wir die konzeptionellen Beziehungen herausfinden, um die Ontologie zu konstruieren. Unter Verwendung der aus den XML-Dokumenten extrahierten konzeptionellen Ontologie-Domänenebene konstruieren wir die Ontologie automatisch unter Verwendung von XML Topic Maps (XTM).;-;-;-;https://link.springer.com/chapter/10.1007/11538059_85 b26f3f70972bbb47b3e2a3782a148437;de;;;7.3.;;;Ein Codemigrations-Framework für AJAX-Anwendungen AJAX (Asynchronous JavaScript and XML) definiert ein neues Paradigma für das Schreiben hochgradig interaktiver Webanwendungen. Bekannte Websites wie Google Maps haben AJAX populär gemacht. Das Schreiben von AJAX-Anwendungen erfordert genaue Kenntnisse von JavaScript, da es schwierig ist, browserübergreifende portable JavaScript-Anwendungen zu schreiben. In diesem Whitepaper diskutieren wir zunächst die Vorteile von AJAX im Vergleich zu anderen Technologien wie Java-Applets. Dann schlagen wir ein Codemigrations-Framework vor, das es dem Programmierer ermöglicht, AJAX-Anwendungen in Java zu schreiben. Die Java-Anwendung wird automatisch in JavaScript übersetzt und zur Ausführung in den Browser migriert. Unser Ansatz erfordert keine JavaScript-Kenntnisse. Da Webanwendungen in Java geschrieben sind, profitiert der Entwickler von leistungsstarken Debugging-Tools, die für JavaScript nicht verfügbar sind. Wir haben einen Prototypen umgesetzt, der die Machbarkeit unserer Ideen demonstriert. Der Prototyp steht unter einer Open-Source-Lizenz.;-;-;-;https://link.springer.com/chapter/10.1007/11773887_11 e76f5bcea5518af60b86204e9f02d95c;de;;;7.3.;;;Rechnerarchitektur Computerarchitektur ist die Wissenschaft vom Entwerfen von Computern aus untergeordneten Komponenten. Ein Computer ist eine informationsverarbeitende Maschine mit einer von der Anwendung unabhängigen Struktur. Ein Computer kann beliebige Informationen auf beliebige Weise verarbeiten, vorausgesetzt, er ist entsprechend programmiert und sein Speicher groß genug. Da moderne Computer jedoch nur binäre Informationen verarbeiten können, müssen sowohl Daten als auch Programme in dieser Form codiert werden. Alle Computer – von der Steuerung eines Automaten bis zum größten Supercomputer der Welt – basieren auf dem gleichen Prinzip.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88546-7_26 db326cfea219a6326d4e2e364e5911a2;de;;;7.3.;;;Eine Analyse der Green Dam Youth Escort Software Laut offiziellen chinesischen Medienquellen soll die Software Green Dam Youth Escort (GDYE) junge Bürger vor ungesunden Informationen im Internet schützen. Kritiker behaupten jedoch, dass GDYE schwerwiegende Sicherheitslücken aufweist, die es Hackern ermöglichen, die Kontrolle über mit GDYE installierte Computer zu übernehmen. Kritiker behaupten auch, dass die Software darauf ausgelegt ist, Benutzerdaten und Tastenanschläge zu sammeln, um sie für unbekannte Zwecke an entfernte Server zu übertragen. GDYE sollte ursprünglich auf jedem in der Volksrepublik China verkauften Computer vorinstalliert sein. Der Plan wurde jedoch angesichts der intensiven internationalen Medienaufmerksamkeit plötzlich auf Eis gelegt. Dieses Papier bewertet die beworbenen Funktionen der GDYE-Software und zusätzliche nicht beworbene Fähigkeiten. Da die Software möglicherweise über Spyware- und Malware-Funktionen verfügt, wurde bei der Evaluierung das Softwareverhalten in einer speziellen kontrollierten Umgebung überwacht. Die Analyse wurde aus forensischer Sicht durchgeführt, um digitale Beweise und Spuren zu sammeln, um zu beweisen oder zu widerlegen, dass GDYE private Informationen erfasst und verbreitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15506-2_4 351621968f9d68a80a319914158640a8;de;;;7.3.;;;Intelligente automatisierte Navigation durch das Deep Web Das Deep Web, das als die Menge der auf Abruf erstellten (nicht vorgefertigten) Webseiten betrachtet wird, ist nicht nur wegen seiner enormen Größe (man könnte meinen, dass es wesentlich größer ist als die Oberflächliches vorgefertigtes Web [12]), aber weil diese Webseiten normalerweise angepasste Informationen enthalten, die aus Datenbanken gemäß den Anforderungen des jeweiligen Benutzers extrahiert werden. Diese Seiten sind in der Regel für Roboter nicht erreichbar und erfordern normalerweise einen Anmeldeprozess oder das Ausfüllen einiger Formulare. Da Seiten im Deep Web innerhalb eines Navigationsprozesses abgerufen werden müssen, ist es üblich, dass eine einzelne URL möglicherweise nicht ausreicht, um sie zu erreichen, also voll;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24681-7_15 9a687befaeba82a26263851249d81c8d;de;;;7.3.;;;Verbesserung konventioneller Webinhalte durch intelligente Wissensverarbeitung Das Internet hat den Zugang und die Präsentation von Wissen revolutioniert. Die nachfolgende explosionsartige Zunahme von Webinhalten stellt jedoch nun große Schwierigkeiten für die effektive Auswahl und das Auffinden von für die jeweilige Aufgabe relevanten Informationen. Bei der Verbreitung klinischer Leitlinien und anderer Wissensquellen im Gesundheitswesen kann es beispielsweise wünschenswert sein, aktuelles Wissen über bewährte Verfahren zu präsentieren, das sich auf Material beschränkt, das dem aktuellen Patientenkontext angemessen ist. Eine erfolgversprechende Lösung für dieses Problem ist die Ergänzung konventioneller Leitliniendokumente um bedarfsgerechte Entscheidungs- und andere „intelligente“ Dienste am Point-of-Care. In diesem Papier beschreiben wir, wie BMJs;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39907-0_20 b7046bafd7f60bb507e18a903a36cdfd;de;;;7.3.;;;Ein webbasiertes Expertensystem für das Diagnosesystem für Milchkuhkrankheiten in China In diesem Beitrag wird ein webbasiertes Multimodell-Expertensystem namens DCDDS vorgestellt, das für die Diagnose von Milchkuhkrankheiten durch die von Benutzern im Internet übermittelten Symptome entwickelt wurde. Da anerkannt wird, dass die Inferenzmaschine und die relevante Wissensrepräsentation der entscheidende Teil des Diagnoseexpertensystems sind, schränkt dies seine Anwendung und Popularisierung in der Tierkrankheitsdiagnose ein. Um die Grenze zu überschreiten und die Genauigkeit zu erhöhen, vergleicht und bewertet dieses Papier die bestehenden Systeme und stellt eine Lösung vor, die drei Modelle enthält: Fallbasiertes Denken (CBR), subjektive Bayessche Theorie und D-S-Evidenztheorie. Dementsprechend wird auch eine Methode zur Wissensrepräsentation entworfen, die die drei verschiedenen Modelle unterstützen kann. Bis auf die Kompliziertheit der erworbenen Symptomgruppe können die Benutzer wählen, welches der drei Modelle zur besten Lösung gewählt werden soll. Die Leistungsfähigkeit des vorgeschlagenen Systems wurde durch eine Anwendung auf dem Gebiet der Diagnose von Milchkuhkrankheiten anhand eines realen Beispiels von Milchkuhkrankheiten bewertet. Das Ergebnis zeigt, dass die neuen Verfahren die Inferenzprozeduren der Expertensysteme verbessert haben und gezeigt haben, dass die neue Architektur sowohl hinsichtlich der Effizienz als auch der Genauigkeit einige Vorteile gegenüber den herkömmlichen Architekturen von Expertensystemen hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-77253-0_95 24e0523565f2627493dc77f1e10ed6a3;de;;;7.3.;;;Komponentenbasierter elektronischer Handel In diesem Kapitel konzentrieren wir uns auf Systemarchitekturen für E-Commerce-Anwendungen. Das Kapitel untersucht die Auswirkungen neuer Software-Engineering-Konzepte wie Objekt-Frameworks, verteiltes Objekt-Computing und komponentenbasierte Programmierung auf die Entwicklung von E-Commerce-Anwendungen. Wir skizzieren die Grenzen aktueller Systeme und zeigen, wie diese neuen Techniken dazu beitragen, eine erhöhte Interoperabilität und Wiederverwendbarkeit von elektronischen Handelssystemen zu erreichen. Da eine hohe Interoperabilität zwischen den Systemen verschiedener Teilnehmer ein entscheidender Faktor für viele neue Anwendungen im elektronischen Geschäftsverkehr ist, gibt der Anhang einen Überblick über zukünftige Ansätze für dokumentenzentrierte Standards für den elektronischen Geschäftsverkehr.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-58327-8_15 9d0a28c64ba58024e874b11d533312d5;de;;;7.3.;;;Menschliche Intelligenz im Prozess der semantischen Inhaltserstellung Trotz erheblicher Fortschritte in den letzten Jahren steht die großflächige Einführung semantischer Technologien noch aus. Als einer der Gründe für diesen Zustand wird der Mangel an brauchbaren semantischen Inhalten vermutet, eine Voraussetzung für fast jedes IT-System oder jede Anwendung, die Semantik verwendet. Dieser Inhalt kann naturgemäß nicht vollautomatisch erstellt werden, sondern erfordert bis zu einem gewissen Grad menschlichen Beitrag. Das Interesse der Internetnutzer an Semantik und insbesondere an der Erstellung semantischer Inhalte ist jedoch gering. Dies ist verständlich, wenn wir an mehrere Eigenschaften denken, die von vielen der bekanntesten semantischen Technologien und deren Anwendungen offengelegt werden. Eines dieser Merkmale ist die hohe Eintrittsbarriere. Die Interaktion mit semantischen Technologien erfordert heute spezifische Fähigkeiten und Kenntnisse zu Themen, die nicht zum Mainstream-IT-Wissensportfolio gehören. Ein zweites Merkmal sind die Anreize, die bei der Gestaltung der meisten semantischen Anwendungen weitgehend fehlen. Die Vorteile der Verwendung von maschinenverständlichen Inhalten sind in den meisten Anwendungen vollständig vom Aufwand für die Erstellung und Pflege dieser Inhalte entkoppelt. Mit anderen Worten, Benutzer haben keine Motivation, zu dem Prozess beizutragen. Initiativen in den Bereichen des Social Semantic Web haben dieses Problem erkannt und Mechanismen identifiziert, um Benutzer zu motivieren, mehr Zeit und Ressourcen für die Teilnahme am Erstellungsprozess semantischer Inhalte aufzuwenden. Auch wenn theoretisch Anreize gegeben sind, ist die verfügbare menschliche Arbeitskraft jedoch begrenzt und darf nur für Aufgaben eingesetzt werden, die stark von menschlichen Eingriffen abhängig sind und nicht zuverlässig automatisiert werden können. In diesem Artikel konzentrieren wir uns auf diesen Zwischenschritt. Als ersten Beitrag analysieren wir den Prozess der semantischen Inhaltserstellung, um diejenigen Aufgaben zu identifizieren, die von Natur aus menschlich getrieben sind. Wenn semantische Anwendungen mit diesen spezifischen Aufgaben erstellt werden, müssen Anreizsysteme installiert werden, die die Benutzer wahrscheinlich dazu ermutigen, genau diese Aufgaben auszuführen, die entscheidend auf manuelle Eingaben angewiesen sind. Als zweiten Beitrag des Artikels schlagen wir Anreize oder anreizgesteuerte Werkzeuge vor, mit denen das Interesse der Nutzer an semantischen Inhaltserstellungsaufgaben gesteigert werden kann. Wir hoffen, dass unsere Ergebnisse als Empfehlungen für die Etablierung einer grundlegend neuen Form des Designs semantischer Anwendungen von der semantischen Technologie-Community übernommen werden.;-;-;-;https://link.springer.com/article/10.1007/s11280-009-0078-0 116e2695519fd9637ec8aec742772782;de;;;7.3.;;;Vorhersage des nächsten Wortes basierend auf dem N-Gramm-Modell für kurdisches Sorani und Kurmanji Die Vorhersage des nächsten Wortes ist eine Eingabetechnologie, die den Eingabeprozess vereinfacht, indem sie einem Benutzer das nächste Wort zur Auswahl vorschlägt, da die Eingabe in einer Konversation Zeit kostet. Einige frühere Studien haben sich auf die kurdische Sprache konzentriert, einschließlich der Verwendung der Vorhersage des nächsten Wortes. Das Fehlen eines kurdischen Textkorpus stellt jedoch eine Herausforderung dar. Darüber hinaus ist das Fehlen einer ausreichenden Anzahl von N-Grammen für die kurdische Sprache, beispielsweise fünf Gramm, der Grund für die seltene Verwendung der nächsten kurdischen Wortvorhersage. Darüber hinaus ist die unsachgemäße Anzeige mehrerer kurdischer Buchstaben in der RStudio-Software ein weiteres Problem. Dieses Papier bietet ein kurdisches Korpus, erstellt fünf und präsentiert eine einzigartige Forschungsarbeit zur Vorhersage des nächsten Wortes für das kurdische Sorani und Kurmanji. Das N-Gramm-Modell wurde für die Vorhersage des nächsten Wortes verwendet, um die Zeit beim Tippen in der kurdischen Sprache zu reduzieren. Darüber hinaus wurde wenig an der Vorhersage des nächsten kurdischen Wortes gearbeitet, daher wird das N-Gramm-Modell verwendet, um Text genau vorzuschlagen. Dazu werden R-Programmierung und RStudio verwendet, um die Anwendung zu erstellen. Das Modell ist zu 96,3% genau.;-;-;-;https://link.springer.com/article/10.1007/s00521-020-05245-3 c3d41793e53f401f854a93a0d0fdb326;de;;;7.3.;;;Verbesserung der Verkäufer-Kunden-Kommunikation durch Worteinbettungen Mit dem Fortschritt bei technologischen Innovationen haben Unternehmen den Online-Handel anstelle der traditionellen Handelsmethoden bevorzugt. Online-Shops ermöglichen es Geschäftsleuten, eine größere Produktvielfalt anzubieten, ohne große Lager zu haben. Gleichzeitig spart Online-Shopping den Kunden Zeit und ermöglicht ihnen ein Einkaufserlebnis von zu Hause aus. Sie haben die Möglichkeit, verschiedene Qualitäten und Preise der gleichen Produkte von verschiedenen Anbietern zu betrachten und das am besten geeignete zu kaufen. Das Online-Shopping-Geschäft hat nach dem Aufkommen von Online-Social Media besonders viel Aufmerksamkeit erhalten. Es gibt viele Selfmade-Unternehmer sowie Geschäftsgiganten mit ihren Facebook-Seiten, die für Online-Shopping verfügbar sind. Da diese Art des Online-Shoppings bei Massen sehr beliebt wird, sind mit dieser Art des Online-Shoppings einige inhärente Probleme verbunden. Eines der häufigsten Probleme bei Online-Shopping-Facebook-Seiten ist die Beantwortung von Fragen zu jedem Beitrag. Für jeden auf der Facebook-Seite veröffentlichten Produktbeitrag stellen Kunden viele Fragen in Form von Kommentaren und dann muss der Facebook-Seitenadministrator jede Frage einzeln beantworten. Dies kann eine sehr umständliche Aufgabe sein, falls diese Seite eine beträchtliche Anzahl von Kunden hat. Falls jemand nicht antwortet, ist der Goodwill des Unternehmens betroffen, was sich wiederum auf den Umsatz auswirken kann. In diesem Beitrag schlagen wir mehrere semantische Ansätze vor, um dieses sehr wichtige Problem des Online-Shoppings anzugehen und vergleichen deren Ergebnisse. Wir schlagen einen einfachen, aber effektiven Ansatz zur Extraktion von Fragen aus Kommentaren zu einem Beitrag vor und stellen eine riesige Datensammlung für diese formulierte Aufgabe bereit. Die Ergebnisse zeigen, dass der auf Worteinbettungen basierende Ansatz die vorgeschlagenen Baseline- und andere semantische Ansätze übertrifft.;-;-;-;https://link.springer.com/article/10.1007/s12652-020-02323-1 77c8e23e3d9162340d0fa0d62af3d8d7;de;;;7.3.;;;Integration von Fahrzeugtechnologien in die IoT-Umgebung: Ein Fall von Ägypten Die Entwicklung des Internets der Dinge in den letzten Jahren hat eine neue Ära vernetzter Fahrzeuge geprägt. Telekommunikation, Smartphones und die Weiterentwicklung neuer Technologien haben es Fahrzeugen ermöglicht, problemlos auf das Internet zuzugreifen und Kommunikationsfähigkeiten in einem Internet-of-Fahrzeug-Szenario (IoV) zu haben. An der Entwicklung, Realisierung und Anwendung des IoV sind viele Faktoren beteiligt und gleichzeitig die Etablierung intelligenter industrieller Umgebungen. Derzeit gilt der Einsatz verschiedener Infrastrukturen in Smart Cities als vielversprechend, um die Verkehrssicherheit zu verbessern, die Umweltverschmutzung zu reduzieren, den Verkehr zu regulieren und die Zusammenarbeit mit anderen technologischen Plattformen zu verwalten. Diese Plattformen sind jedoch nützlich, um IoV-Dienste weiter zu unterstützen, einschließlich Fahrzeug-Cloud-Plattformen, Datenverarbeitungsarchitekturen und Netzwerksicherheit, die für Entwicklungsländer wesentliche Ambitionen sind. Hinzu kommen zahlreiche inhärente Herausforderungen. Smart Cities, bei denen es sich um komplexe integrierte Netzwerksysteme handelt, können die von IoV-Objekten erfassten Daten verwenden und mit künstlicher Intelligenz verarbeiten, um ein intelligentes Verkehrssystem mit intelligenten Komponenten (z zusammen und auch mit Menschen, die diese Fahrzeuge benutzen. Für ein Entwicklungsland wie Ägypten wird eine effiziente Architektur, die mit den realisierbaren Technologien, Benutzeranforderungen und Marktanforderungen kompatibel ist, derzeit als obligatorisch angesehen, um das Internet der Dinge mit Fahrzeugstandards und -technologien zu integrieren. In diesem Kapitel werden diese Bedenken sowie die sich abzeichnenden Anwendungen und Herausforderungen für die Zukunft behandelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36167-9_4 549336ae7d0716095d3552fca6470aa8;de;;;7.3.;;;Ein neuer Algorithmus für die messbasierte Zugangskontrolle in integrierten Dienstpaketnetzwerken Der Zweck der Anrufzulassungssteuerung in dienstintegrierten Netzen besteht darin, eine Garantie zu bieten, dass Dienstgütegrenzen (QoS) nicht aufgrund der Zulassung neuer Anrufe in das Netz verletzt werden. Dies wird typischerweise erreicht, indem die deklarierten Verkehrsdeskriptoren für den schlimmsten Fall für eingehende Anrufe verwendet werden, eine Lösung, die zu einer schlechten Bandbreitennutzung führt. Ein messbasiertes Zulassungsverfahren ist eine attraktive Alternative: Es bietet nicht nur Anpassungsfähigkeit an sich ändernde Verkehrsbedingungen, sondern ermöglicht auch die Nutzung statistischer Multiplexing-Gewinne. In diesem Papier untersuchen wir das Problem der Bestimmung, welche Verkehrscharakterisierung ein messbasierter Zugangskontrollalgorithmus von Quellen verlangen sollte, die Zugang anfordern. Aufbauend auf der Arbeit von Jamin et al. (1995) schlagen wir auch einen adaptiven messbasierten Zugangskontrollalgorithmus vor, der den Schätzungsprozess vereinfacht und zeigt, dass er ein hohes Nutzungsniveau erreichen kann, ohne seine verzögerungsbasierten QoS-Garantien zu verletzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34986-2_2 ed6f2a51e9fda6b26d09758011eb8302;de;;;7.3.;;;Ein früher Entscheidungsalgorithmus zur Beschleunigung der Filterung von Webinhalten Die Inhaltsanalyse in Echtzeit kann ein Flaschenhals bei der Webfilterung sein. Diese Arbeit präsentiert einen einfachen, aber effektiven Algorithmus für frühe Entscheidungen, um den Filterprozess zu beschleunigen, indem nur ein Teil des Webinhalts untersucht wird. Der Algorithmus kann die Filterentscheidung treffen, den Webinhalt entweder zu blockieren oder weiterzugeben, sobald er mit hoher Wahrscheinlichkeit überzeugt ist, dass der Inhalt zu einer verbotenen oder einer zulässigen Kategorie gehören sollte. Die Experimente zeigen, dass die Algorithmen im Durchschnitt nur etwa ein Viertel der Webinhalte untersuchen können, während die Genauigkeit recht gut bleibt: 89 % bei den verbotenen Inhalten und 93 % bei den erlaubten Inhalten. Dieser Algorithmus kann andere Webfilteransätze ergänzen, um den Webinhalt mit hoher Effizienz zu filtern.;-;-;-;https://link.springer.com/chapter/10.1007/11919568_83 38c17529371606b9cf0ea9d5a1453063;de;;;7.3.;;;Ein kreativer Ansatz für Bildungsinformatik Diese autoethnografische Erzählung zeichnet die Geschichte eines Bildungsinformatikers nach. Christina Preston beschreibt ihre Erfahrungen mit Computern, die in den 1950er Jahren begannen, als ihr Vater Computerfachmann war. Nach ihrem Abschluss entwickelte sie ihre Fähigkeiten als Journalistin und Kurzgeschichtenautorin für Frauenzeitschriften und unterrichtete gleichzeitig Englisch, Theater- und Medienwissenschaften an der Londoner Sekundarschule. Ihre späte Einführung in Computer durch ihre eigenen Kinder war typisch für britische Lehrer in den frühen achtziger Jahren, die plötzlich feststellten, dass von ihnen erwartet wurde, eine Ausbildung in Informationstechnologie zu machen und das Fach als Teil des Lehrplans zu unterrichten, obwohl dies nicht in ihrem Lehrer enthalten war Ausbildung. Christina Preston ist jetzt Vorsitzende des internationalen, von Industrie und Regierung finanzierten MirandaNet Fellowship, einer Praxisgemeinschaft für Lehrer, Berater, Lehrerausbilder, Softwaredesigner und IKT-Politiker. In dieser ethnografischen Studie nutzt sie ihre Schreibfähigkeiten für Frauenzeitschriften, um ihre eigenen Erfahrungen so nachzuvollziehen, dass Berater und Lehrerausbilder verstehen können, wie die Geschichte vieler Lehrer mittleren Alters im Jahr 2006 ihre Einstellung zu Computern und ihre Bereitschaft zum verwenden sie in den Klassenzimmern. Kritische Vorfälle sind ihre Einführung in Mainframes als Kind, die Erfahrungen ihrer eigenen Kinder, ihre erste IKT-Ausbildung, die erste Unterrichtsstunde und ihre Autorschaft für Lernsoftware. Der unerwartete Tod ihrer Tochter öffnet ihr den Sinn für das Potenzial von Computern für demokratische Teilhabe und aktive Bürgerschaft zwischen lokaler, regionaler und nationaler Gemeinschaft.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34741-7_5 875b8d5d220339d8d618cb85d547ac4f;de;;;7.3.;;;Genre-Anmerkung von Webkorpora: Schema und Probleme Im Gegensatz zu traditionellen Korpora, die in den letzten Jahrzehnten aus gedruckten Medien erstellt wurden, werden die Quellen von Web-Korpora nicht gut kategorisiert und beschrieben, was eine inhaltliche Kontrolle des Korpus erschwert. Dieser Beitrag stellt einen Versuch vor, Genres in einem großen englischen Webkorpus durch überwachtes Lernen zu klassifizieren. Eine Reihe von Genres, die für Benutzer von Webkorpora geeignet sind, wird basierend auf einer Recherche verwandter Arbeiten definiert. Ein Genre-Annotationsschema mit aktiven Lernrunden wird eingeführt. Eine Sammlung von Webseiten, die verschiedene Genres repräsentieren, die für diese Aufgabe erstellt wurde, und ein Schema der konsequenten menschlichen Annotation des Datensatzes wird beschrieben. Die Messung der Übereinstimmung zwischen den Annotatoren ergab, dass entweder das Problem nicht genau definiert ist oder dass unsere Erwartungen hinsichtlich der Genauigkeit und Wiedererkennung des Klassifikators nicht erfüllt werden können. Schließlich wurde das Projekt zu diesem Zeitpunkt verschoben. Mögliche Lösungen des Problems werden am Ende des Beitrags diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63128-4_55 a7f03a1ac8fc455160d7946830449531;de;;;7.3.;;;Web Intelligence, World Knowledge und Fuzzy Logic Bestehende Suchmaschinen – mit Google an der Spitze – verfügen über viele bemerkenswerte Fähigkeiten, aber was nicht zu ihnen gehört, ist die Fähigkeit zur Deduktion – die Fähigkeit, eine Antwort auf eine Anfrage aus Informationseinheiten zu synthetisieren, die sich in verschiedenen Teilen der Wissensdatenbank befinden. In den letzten Jahren wurden beeindruckende Fortschritte bei der Leistungssteigerung von Suchmaschinen durch den Einsatz von Methoden auf Basis bivalenter Logik und bivalent-logikbasierter Wahrscheinlichkeitstheorie erzielt. Aber können solche Methoden verwendet werden, um Suchmaschinen eine nichttriviale Deduktionsfähigkeit hinzuzufügen, dh Suchmaschinen zu Frage-Antwort-Systemen aufzurüsten? Eine Ansicht, die in dieser Notiz zum Ausdruck kommt, lautet, dass die Antwort „Nein“ lautet. Das Problem liegt in der Natur des Weltwissens begründet, der Art von Wissen, das sich Menschen durch Erfahrung und Bildung aneignen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-32365-1_1 9e5711c898e4b0ddf16e2060a6a7881e;de;;;7.3.;;;Film Video Hypermedia Authoring System Die breitere Anwendung des Internets und des digitalen Rundfunks hat in den letzten Jahren zu einem dramatischen Anstieg der Multimediadatenmenge geführt. Für eine flexiblere Weiterverwendung der Daten sind die entsprechenden Referenzinformationen aus diesen Multimediaquellen sehr hilfreich. Um alle gewonnenen Beschreibungsinformationen, die beispielsweise automatisch oder manuell gewonnen werden, besser zu integrieren und zu verwalten, haben wir begonnen und arbeiten noch immer an der Entwicklung eines XML-basierten Frameworks. Es heißt Film;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45453-5_86 baa358c89a76630241e2cb4e076ebfba;de;;;7.3.;;;BPRules und das BPR-Framework: Umfassende Unterstützung für das Management von QoS in Web Service Kompositionen Für eine erfolgreiche Zusammenarbeit zwischen Unternehmen müssen Web-Services und Service-Kompositionen bestimmte QoS-Anforderungen (Quality of Service) erfüllen, damit ihre Kunden ihnen vertrauen können. Daher müssen die besten Dienste für die Komposition ausgewählt, die Leistung der Komposition überwacht und bei QoS-Abweichungen entsprechende Managementmaßnahmen erforderlich sein. Wir schlagen die BPRules-Sprache und das BPR-Framework vor, die neue Fähigkeiten und verbesserte Flexibilität für das Management von BPEL-Prozessen in Bezug auf QoS-Anliegen bieten. Die BPRules-Sprache ermöglicht die Spezifikation der QoS-Überwachung von BPEL-Prozessen und bietet eine Vielzahl von Management-Aktionen zur Steuerung des Prozesses und zur Verbesserung seines QoS-Verhaltens. Dabei stellt das BPR-Framework die notwendigen Komponenten zur Verfügung, um die QoS-Überwachung durchzuführen und die Management-Aktionen auszuführen. Für die Auswahl hochwertiger Dienstleistungen verfügt das BPR-Framework über effiziente Auswahlalgorithmen, wie unsere;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30823-9_20 0b471e847c11a4b8fd908cc820745e46;de;;;7.3.;;;Zikimi: Eine Fallstudie zum Mikrokernel-Design für Multimedia-Anwendungen Aufgrund der jüngsten schnellen Bereitstellung von Internet-Appliances und PostPC-Produkten wird die Bedeutung der Entwicklung leichtgewichtiger eingebetteter Betriebssysteme immer mehr betont. In diesem Artikel möchten wir die Details der Design- und Implementierungserfahrung des Low-Cost-Embedded-Systems Zikimi für die Multimedia-Datenverarbeitung präsentieren. Wir nutzen das Skelett des bestehenden Linux-Betriebssystems und entwickeln einen Mikro-Kernel, um eine Reihe von spezifischen Aufgaben effizient und effektiv auszuführen. Internet-Appliances und PostPC-Produkte verfügen normalerweise über eine sehr begrenzte Menge an Hardware-Ressourcen, um sehr spezifische Aufgaben auszuführen. Wir analysieren sorgfältig die Systemanforderungen des Multimedia-Verarbeitungsgeräts. Entfernen Sie die unnötigen Funktionen, z.B. virtueller Speicher, Multitasking, eine Reihe verschiedener Dateisysteme usw. Die hervorstechenden Merkmale des Zikimi-Mikrokernels sind (i) das lineare Speichersystem und (ii) die Steuerung der E/A-Einheit auf Benutzerebene. Das Ergebnis des Leistungsexperiments zeigt, dass das LMS (Linear Memory System) des Zikimi-Mikrokernels eine signifikante Leistungsverbesserung bei der Speicherzuweisung gegenüber dem älteren virtuellen Speicherverwaltungssystem von Linux erzielt. Durch die Nutzung der Rechenleistung des Grafikprozessors und seines lokalen Speichers erreichen wir eine 2,5-fache Steigerung der Videoverarbeitungsgeschwindigkeit.;-;-;-;https://link.springer.com/article/10.1007/s11042-005-3813-2 72589a0b005ab7ec71d344bce19dcb9e;de;;;7.3.;;;Peer-to-Peer-basierte QoS-Registrierungsarchitektur für Webdienste Webservice QoS (Quality of Service) ist ein Schlüsselfaktor für Benutzer, um Dienste zu bewerten und auszuwählen. Traditionell wird die Laufzeit-QoS von Webdiensten in einer zentralisierten QoS-Registrierung gespeichert, die Leistungs- und Verfügbarkeitsprobleme haben kann. In diesem Papier schlagen wir eine P2P (Peer-to-Peer) QoS-Registrierungsarchitektur für Webdienste vor, genannt Q-Peer. Q-Peer ist ein unstrukturiertes P2P-System. Die Abfrage von QoS wird natürlich erreicht, indem die QoS-Adresse aus der entsprechenden Dienstbeschreibung erhalten wird. Q-Peer verfügt über einen replikationsbasierten Mechanismus, um den Lastausgleich der gesamten Architektur sicherzustellen. Die Architektur nutzt P2P-Systeme, um ihre Verfügbarkeit, Leistung und Autonomie sicherzustellen. Wir implementieren derzeit Q-Peer und planen, es auf Planet-Lab zu testen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72883-2_10 39539d9cabbe658bbb8b933ab5673eb9;de;;;7.3.;;;Ein allgegenwärtiges Gesundheitssystem für Patienten mit gutartiger Prostatahyperplasie In diesem Artikel wird ein Managementsystem für benigne Prostatahyperplasie vorgestellt, das es Patienten ermöglicht, die Anzahl der Krankenhausbesuche zu reduzieren, indem sie mobile Geräte wie PDA-Telefone oder Webanwendungen und einige Informationsmanagementtechniken zur Patientenversorgung verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-37275-2_147 05c365f3266cb898f05c57356bf55588;de;;;7.3.;;;Ein ästhetisch-basierter Ansatz zur Neuordnung von Webbildern Wir schlagen einen Ansatz zur Neuordnung von Bildern vor, die von bestehenden Bildsuchmaschinen abgerufen wurden, basierend auf der Bildqualität in der ästhetischen Ansicht. Frühere Arbeiten ordneten Bilder hauptsächlich nach ihrer Relevanz für Abfragen. Es kommt jedoch vor, dass die am besten bewerteten Bilder die Benutzer aufgrund ihrer geringen visuellen Qualität oft nicht zufriedenstellen können. Um den Nutzern qualitativ hochwertige Bilder zu präsentieren, lernt unser Ansatz ein Regressionsmodell, das sowohl konventionelle als auch neuartige Bildmerkmale gemäß einer gegebenen Qualitätsbildsammlung kombiniert. Wir haben mehrere Experimente mit den Datensätzen durchgeführt, die aus INRIA Holiday-Datensätzen, Photo.net, DPChallenge, Google Image und Flickr entnommen wurden. Die experimentellen Ergebnisse zeigen die Machbarkeit des vorgeschlagenen Ansatzes bei der Suche nach ästhetisch ansprechenden Web-Bildsuchergebnissen für Benutzer.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17187-1_57 aaeada70d052d8ae75fbf1d80b05cb13;de;;;7.3.;;;Erweiterung des Vertrauensmanagements durch Kooperationsanreize: Erzielung einer kollaborativen WLAN-Freigabe durch Vertrauensübertragung zur Stimulierung kooperativer Verhaltensweisen Es gibt noch viele Probleme, um kollaboratives Wi-Fi-Sharing zu erreichen: gesetzliche Haftung des Sharers, hohe Datenzugriffskosten in einigen Situationen (Mobilität bei Überschreitung einer monatlichen Abonnementquote, Roaming…), keine angemessenen Anreize zum Teilen. Das derzeitige Vertrauensmanagement könnte die böswilligen Benutzer ausschließen, aber immer noch nicht die WLAN-Freigabe fördern. Wir haben eine angemessene Vertrauensmetrik um Kooperationsanreize erweitert, um alle oben genannten Probleme zu mildern. Wir haben unseren Vorschlag mit einer Vertrauensmetrik und Anreizeffektivität durch Simulationen bewertet und wir haben die Bootstrapping-Zeit für ein solches System und die durchschnittliche Erschöpfungszeit für seine Benutzer gefunden, indem wir sie mit der Größe der Benutzerbasis des Systems verknüpft haben, was die Machbarkeit für ein solches System belegt Kombination.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-43813-8_11 6281eccbc07ea95e189208c857972ea9;de;;;7.3.;;;Ein neuartiges Framework für das Thread-Ranking von Social Web-Foren basierend auf Semantik und Post-Qualitätsmerkmalen Online-Diskussionsforen sind eine wertvolle Wissensquelle. Benutzer können Ideen teilen oder austauschen, indem sie Inhalte in Form von Fragen und Antworten veröffentlichen. Mit der zunehmenden Menge an Online-Inhalten in Form von Foren kann das Auffinden relevanter Informationen in Foren eine anspruchsvolle Aufgabe sein und das Wissensmanagement und die Qualitätssicherung dieser Inhalte sind von entscheidender Bedeutung. Obwohl Online-Diskussionsforen Suchdienste anbieten, wird in den meisten Fällen nur eine Stichwortsuche angeboten. Bei Schlüsselwortsuchtechniken, wie der Kosinusähnlichkeit, wird eine lexikalische Überlappung zwischen Abfrage- und Dokumentbegriffen berücksichtigt, jedoch berücksichtigen diese Techniken nicht den Kontext oder die Bedeutung der Begriffe und konnten daher die relevanten Dokumente nicht abrufen. Frühere inhaltsbasierte Forschungsbemühungen zur Verbesserung der Leistung des Thread-Retrievals basierten hauptsächlich auf der Kosinus-Ähnlichkeitstechnik. Die Kosinus-Ähnlichkeitstechnik weist Begriffsgewichtungen basierend auf der Begriffshäufigkeit und der inversen Dokumenthäufigkeit zu, jedoch berücksichtigt diese Technik keine Diskussionssemantik, die zu einem weniger effektiven Dokumentenabruf führen kann. Um diese Probleme anzugehen, haben wir zwei Thread-Ranking-Techniken für Online-Diskussionsforen vorgeschlagen: (1) Threads werden auf der Grundlage einer semantischen Ähnlichkeitsbewertung zwischen Beiträgen bewertet und (2) Threads werden basierend auf dem Ruf ihrer Teilnehmer und der Qualität ihrer Beiträge bewertet . Die vorgeschlagene Arbeit bietet einen Leistungsvergleich zwischen semantischen Ähnlichkeitstechniken und Kosinus-Ähnlichkeitstechniken zusammen mit Reputations- und Postqualitätsmerkmalen im Thread-Ranking-Prozess. Experimentelle Ergebnisse, die mit einem echten Online-Forum-Datensatz erzielt wurden, zeigen, dass die vorgeschlagenen Techniken die Thread-Ranking-Leistung erheblich verbessert haben.;-;-;-;https://link.springer.com/article/10.1007/s11227-016-1839-z 24ba45b433ea95145c216d8dca5d1d37;de;;;7.3.;;;Web-Voice-Browser basierend auf einem ISLPC-Text-to-Speech-Algorithmus Es wurde eine Art Web-Sprachbrowser basierend auf einem verbesserten Synchron-Linear-Predictive-Coding-(ISLPC)- und Text-to-Speech-(TTS)-Algorithmus und einer Internet-Anwendung vorgeschlagen. Das Papier analysiert die Eigenschaften des TTS-Systems mit ISLPC-Sprachsynthese und diskutiert das Design und die Implementierung des ISLPC TTS-basierten Web-Sprachbrowsers. Der Browser integriert Web-Technologie, chinesische Informationsverarbeitung, künstliche Intelligenz und die Schlüsseltechnologie der chinesischen ISLPC-Sprachsynthese. Es ist ein visueller und hörbarer Webbrowser, der die Informationspräzision für Netzwerkbenutzer verbessern kann. Die Bewertungsergebnisse zeigen, dass das ISLPC-basierte TTS-Modell eine bessere Leistung als andere Browser in Bezug auf die Sprachqualität und die Fähigkeit zur Erkennung chinesischer Schriftzeichen aufweist.;-;-;-;https://link.springer.com/article/10.1007/BF02829228 a44ee8bef0f554c11e28a53dea96913a;de;;;7.3.;;;Das drahtlose Videoüberwachungssystem basierend auf ARM / Linux Die Implementierung der drei Arten von digitalen Überwachungssystemoptionen und der Vergleich dieser drei Programme, Entworfen von ARM / Linux-Hardwareplattform als Kern des Remote-Videoüberwachungssystems und über ein drahtloses Netzwerk zur Übertragung von Videobildern an die Hostseite um Analyse-, Speicher- und Anzeigefunktionen zu erreichen, mit den traditionellen analogen Überwachungssystemen: Es reduziert die Netzwerkkosten erheblich, das System reduziert das Gewicht erheblich, den Betrieb und die Wartung erleichtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27869-3_44 6324a3e883fbf321067473d2be55620c;de;;;7.3.;;;Internetkompetenz und Einstellungen zur Internetwerbung: Eine kulturübergreifende Studie Es ist leicht zu beobachten, dass nicht nur die Nutzung des Internets durch Verbraucher, sondern auch die Nutzung von Internetwerbung durch Vermarkter und Werbetreibende rapide zunimmt, insbesondere mit den Fortschritten und Veränderungen der Technologie, insbesondere der Kommunikationstechnologien, in der heutigen Gesellschaft. Einerseits kann diese weit verbreitete Nutzung des Internets durch die Verbraucher als ein wichtiger Indikator für ihre wachsende Internetkompetenz angesehen werden, die sich auf die wesentlichen Fähigkeiten, Kenntnisse und Kompetenzen bezieht, die Verbraucher haben sollten, um das Internet nutzen zu können Internet effizient und effektiv (Hoffman und Novak 1996). Da andererseits die Zeit, die Verbraucher im Internet verbringen und die Menge an Ressourcen, die Vermarkter und Werbetreibende für Internetwerbung ausgeben, rapide ansteigt, sind Verbraucher in ihrem täglichen Leben zunehmend Internetwerbung ausgesetzt und bilden so ihre Einstellungen gegenüber Internetwerbung entsprechend. Daher ist es für Wissenschaftler von entscheidender Bedeutung, diese Einstellungen der Verbraucher gegenüber Internetwerbung zu untersuchen. Darüber hinaus ist es von entscheidender Bedeutung, die Internetwerbung getrennt von der Werbung im Allgemeinen zu untersuchen, da das Internet im Vergleich zu traditionellen Werbeträgern wie Fernsehen, Radio und Print charakteristische Merkmale aufweist (An und Kim 2007).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10912-1_101 ac5c6a01804a77c7f360838f516242e8;de;;;7.3.;;;Ein Modell zur Konzeptextraktion und Kontextidentifikation in wissensbasierten Systemen Information Retrieval Systeme beschäftigen sich normalerweise mit schlüsselwortbasierten Technologien. Obwohl diese Systeme zufriedenstellende Ergebnisse erzielen, können sie komplexere Anfragen von Benutzern nicht beantworten, insbesondere nicht direkt in natürlicher Sprache. Dazu gibt es die wissensbasierten Systeme, die Ontologien verwenden, um das in Texte eingebettete Wissen darzustellen. Derzeit basiert die Konstruktion von Ontologien auf der Beteiligung von drei Komponenten: dem Wissensingenieur, dem Domänenspezialisten und dem Systemanalytiker. Diese Arbeit erfordert Zeit, da verschiedene Studien durchgeführt werden sollten, um zu bestimmen, welche Elemente an der Wissensbasis beteiligt sein müssen und wie diese Elemente miteinander verbunden sind. Auf diese Weise ist der Einsatz von Rechensystemen, die diese Arbeit zumindest beschleunigen, von grundlegender Bedeutung, um Systeme für den Markt zu schaffen. Ein Modell, das es einem Computer ermöglicht, das Wissen direkt darzustellen, wobei nur ein minimaler menschlicher Eingriff oder sogar niemand erforderlich ist, erweitert den Bereich der Domänen, die ein System verwalten kann, und wird effizienter und benutzerfreundlicher.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34749-3_19 b355f2802f1c101e3b451b13c0bba28e;de;;;7.3.;;;Evaluation und Analyse von Term-Scoring-Methoden zur Term-Extraktion Wir evaluieren fünf Termbewertungsmethoden zur automatischen Termextraktion für vier verschiedene Arten von Textsammlungen: persönliche Dokumentensammlungen, Nachrichtenartikel, wissenschaftliche Artikel und medizinische Entlassungszusammenfassungen. Jede Sammlung hat ihren eigenen Anwendungsfall: Autorenprofilerstellung, Vorschlag für boolesche Abfragebegriffe, personalisierte Abfragevorschläge und Erweiterung von Patientenabfragen. Die in der Literatur vorgeschlagenen Methoden zur Termbewertung wurden mit einem bestimmten Ziel vor Augen entwickelt. Es ist jedoch noch unklar, wie diese Methoden bei Sammlungen funktionieren, deren Eigenschaften sich von denen unterscheiden, für die sie konzipiert wurden, und welche Methode für eine bestimmte (neue) Sammlung am besten geeignet ist. In einer Reihe von Experimenten evaluieren, vergleichen und analysieren wir die Ergebnisse von sechs Term-Scoring-Methoden für die vorliegenden Sammlungen. Wir haben festgestellt, dass die wichtigsten Faktoren für den Erfolg einer Begriffsbewertungsmethode die Größe der Sammlung und die Bedeutung von Mehrwortbegriffen in der Domäne sind. Größere Sammlungen führen zu besseren Begriffen, alle Methoden werden durch kleine Sammlungsgrößen (unter 1000 Wörter) behindert. Die flexibelste Methode zur Extraktion von Einzelwort- und Mehrwortbegriffen ist die punktweise Kullback-Leibler-Divergenz für Aussagekraft und Ausdruckskraft. Insgesamt haben wir gezeigt, dass die Extraktion relevanter Terme mit unüberwachten Term-Scoring-Methoden in verschiedenen Anwendungsfällen möglich ist und dass die Methoden in mehr Kontexten als ihrem ursprünglichen Designzweck anwendbar sind.;-;-;-;https://link.springer.com/article/10.1007/s10791-016-9286-2 3e8564ee0accffc02ef78cb803e27e68;de;;;7.3.;;;Netzwerkheterogenität und kaskadierende Fehler – eine Bewertung für den Fall einer BGP-Schwachstelle Große Ausfälle von Computernetzwerken, insbesondere des Internets, können erhebliche Auswirkungen auf ihre Benutzer und die Gesellschaft im Allgemeinen haben. Es gab eine Reihe theoretischer Studien zu komplexen Netzwerkstrukturen, die darauf hindeuten, dass heterogene Netzwerke in Bezug auf Knotenkonnektivität und -last anfälliger für kaskadierende Ausfälle sind als homogenere. In diesem Beitrag beschreiben wir frühe Forschungsarbeiten zur Untersuchung, ob diese These für Schwachstellen im Inter-Domain-Routing-Protokoll des Internets – BGP – angesichts unterschiedlicher Netzwerkstrukturen zutrifft. Konkret untersuchen wir die Auswirkungen von Blackholes durch BGP-Router – beobachtete Phänomene im Internet in den letzten Jahren. Wir beschreiben unseren Evaluierungsaufbau, der einen maßgeschneiderten Topologiegenerator umfasst, der jede Topologiekonfiguration vom aktuellen maßstabsfreien AS-Level bis hin zu den untersuchten homogenen Graphen fließend erstellen kann. Wir stellen fest, dass die theoretische Netzhomogenität das Gesamtnetz in der Praxis nicht vor Ausfällen schützt, sondern sogar schädlich für den Netzbetrieb sein kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10865-5_19 d293a89687022da7a21c69c46b0d58ec;de;;;7.3.;;;Webbasierte Umgebung für digitale Elektroniktestwerkzeuge Dieses Papier beschreibt ein Konzept und eine Implementierung der webbasierten Umgebung zum Bereitstellen des Zugriffs über das Internet auf vorhandene eigenständige digitale Elektroniktestwerkzeuge. Auf der Benutzerseite ist nur ein gewöhnlicher Webbrowser ausreichend. Die Umgebung ist nach dem Client-Server-Dreischicht-Konzept mit HTML, Java-Applets/Servlets und MySQL als Datenbank-Backend für Benutzerverfolgungs- und Verwaltungsaufgaben aufgebaut. In diesem Papier diskutieren wir die Integration von zwei Softwaresystemen in eine webbasierte Umgebung. Der Beitrag stellt die über das Internet ausführbaren Workflows vor und liefert die experimentellen Ergebnisse zur Abschätzung der Effizienz des hierarchischen ATPG.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-8139-1_46 9fb9740999d49bc86ae25ee45a38b9c1;de;;;7.3.;;;Generationenwechselschemata für einen WWW-Caching-Proxy-Server In diesem Papier werden Generationsersatzschemata vorgeschlagen und bewertet, die den Zugriffsmustern auf den Proxyserver-Cache des World Wide Web (WWW) entsprechen. Die Schemata unterteilen einen Cache in Generationen und legen Daten, auf die häufig zugegriffen wird, in ältere Generationen, in denen Einträge mit geringerer Wahrscheinlichkeit ersetzt werden. Mit unseren Schemata wird die Trefferquote pro Seite um ca. 5,2 Prozentpunkte gegenüber dem Least Latest Used (LRU)-Algorithmus auf Basis von Logs von mehr als 8 Millionen Zugriffen verbessert. Diese Verbesserung reduziert die Anzahl der Cache-Fehltreffer um etwa 10,8 Prozent in Bezug auf die LRU. Unsere Verbesserung ist ungefähr doppelt so gut wie die Verbesserung der LRU gegenüber dem First-In First-Out (FIFO) Algorithmus.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0031665 a57878426a8cedd2cd83788593abd821;de;;;7.3.;;;Eine tragbare Schnittstelle in natürlicher Sprache für verschiedene Datenbanken mit Ontologien Der wachsende Bedarf der Benutzer für den Zugriff auf Informationsressourcen, der technologische Fortschritt in diesem Bereich und die Beschränkungen grafischer und formularbasierter Schnittstellen motivieren zum Vorschlagen neuer Lösungen und zur Überarbeitung mehrerer anderer, um eines der Hauptprobleme in Computeranwendungen zu lösen : Mensch-Maschine-Schnittstelle. Die Verarbeitung natürlicher Sprache hat in den letzten Jahren einen neuen Impuls erfahren und wird als beste Lösung für das oben genannte Problem vorgeschlagen. Die ersten Ergebnisse eines Projekts zur Entwicklung einer natürlichsprachlichen Schnittstelle zu Datenbanken werden vorgestellt, das eine Erweiterung eines größeren Projekts zur Entwicklung von Benutzerschnittstellen zur Erleichterung des Zugriffs auf Datenbanken über das Internet darstellt. In diesem Projekt wird die Verwendung von Ontologien vorgeschlagen, um die Schnittstelle auf verschiedene Datenbanken portierbar zu machen, was auf diese Weise dazu beiträgt, die Konfigurationsaufgabe für diese Art von Schnittstellen zu erleichtern, was einer der Hauptfaktoren ist, die ihre Anwendung eingeschränkt haben. In diesem Beitrag wird die konzeptionelle Architektur einer natürlichsprachlichen Schnittstelle zu Datenbanken im Internet sowie die erreichte Entwicklung beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36456-0_52 a08fbb94d84d1f19bf059bccb76856f6;de;;;7.3.;;;Web of Things als Framework für Ubiquitous Intelligence and Computing Das Web hat sich in den letzten Jahren von einer reinen Informationsquelle zu einer Plattform für Geschäftsanwendungen entwickelt. Parallel dazu haben sich drahtlose Sensornetzwerktechnologien so entwickelt, dass sie sich mit dem Internet verbinden können. Diese als „Web of Things“ bezeichnete Verschmelzung von Technologien hat neue Möglichkeiten für die intelligente Anwendungsentwicklung geschaffen. Das Web of Things hat jedoch interessante Herausforderungen mit sich gebracht, wie die effiziente Nutzung von Online-Sensoren, die Sensorzusammensetzung für die Just-in-Time-Anwendungsentwicklung und andere, die dringend Aufmerksamkeit erfordern. In diesem Papier schlagen wir einen konzeptionellen Rahmen und eine Referenzarchitektur vor, um die Konzepte von Ubiquitous Intelligence und Computing in das „Web of Things“ einzubetten und ihren Einsatz in einem breiteren Kontext zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02830-4_2 5ef70313a41ddfba4cfb08e787b5caaf;de;;;7.3.;;;Das ökologische Fernmodell zur Unterstützung des Selbst-/kollaborativen Lernens im Internet Mit der rasanten Entwicklung der Informationstechnologie ist die Computer- und Informationskommunikationskompetenz extrem wichtig geworden. Aus diesem Grund benötigen die Lehrer neue Fähigkeiten. Ein neuer Rahmen für die Lehrerausbildung ist notwendig, um die Multimedia-Lehrfähigkeiten und die Informationskompetenz über die Internetumgebung zu verbessern. Der Zweck dieser Studie ist es, ein Fernstudienmodell vorzuschlagen und zu entwickeln, das ein schulbasiertes Lehrplanentwicklungs- und Trainingssystem (SCOUTS) ist. In dieser Umgebung kann ein Lehrer über ein internetbasiertes Selbstlernsystem Fachinhalte, Lehrwissen und Bewertungsmethoden der Lernaktivitäten der Schüler in Bezug auf das neue Fach „Information“ erlernen. In diesem Beitrag beschreiben wir Struktur, Funktion und Mechanismus des Fernunterrichtsmodells und beschreiben anschließend die pädagogische Bedeutung dieses Modells unter Berücksichtigung der neuen Lernökologie, die auf Multimodalität und neuen Lernsituationen und -formen basiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-306-47006-6_3 88ba4b9be71d7a35a1d51b4301051198;de;;;7.3.;;;Ein sich selbst optimierender Fuzzy-Control-Ansatz für durchgehende QoS-Garantien in Webservern Es ist wichtig, eine durchgängige Dienstgüte (QoS) unter Schwerlastbedingungen zu gewährleisten. Bestehende Arbeiten konzentrieren sich auf die Verarbeitungszeit von serverseitigen Anfragen oder Verzögerungen in der Warteschlange im Netzwerkkern. In diesem Beitrag schlagen wir ein neues Framework vor;-;-;-;https://link.springer.com/chapter/10.1007/11499169_11 16058455db462ca9606812bd0f84d917;de;;;7.3.;;;Offline Web Client: Ansatz, Design und Implementierung basierend auf einem Websystem Offline-Webclient ist eine neue Art von Rich Internet Applications, die die Weboperationen eines Benutzers unterstützt, unabhängig davon, ob eine Netzwerkverbindung vorhanden ist oder nicht. Es ist in vielen Situationen sehr nützlich, da viele Offline-Szenarien die Benutzer beinhalten, die mit expliziter Trennung vom Netzwerk arbeiten. In diesem Whitepaper werden die Ansätze zum Entwerfen von Offline-Webclients als Leitfaden für die Entwicklung von Offline-Webclientanwendungen vorgeschlagen und die Details zu deren Gestaltung und Implementierung beschrieben. Schließlich wird ein prototypisches System vorgestellt, um den vorgeschlagenen Ansatz zu verifizieren. Die Experimente zeigen, dass ein Offline-Webclient die Benutzerproduktivität und -zufriedenheit steigern und die Nutzung webbasierter Systeme verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/11912873_32 4c31f290da2420c3886bb14878c0d5d3;de;;;7.3.;;;CASM: Kohärenter automatisierter Schema-Matcher Schemaabgleich ist eine der grundlegenden Aufgaben in fast allen datenintensiven verteilten Anwendungen, wie z. B. Unternehmensinformationsintegration, kollaborierende Webdienste, Webkatalogintegration und schemabasierte Punkt-zu-Punkt-Datenbanksysteme usw. Typische Schema-Matcher arbeiten manuell und verwenden einen Satz von Matching-Algorithmen mit einer Kompositionsfunktion, indem sie sie auf beliebige Weise verwenden, was zu verschwenderischen Berechnungen führt und eine manuelle Spezifikation für verschiedene Domänen erfordert. In letzter Zeit wurde eine Schemaabgleichsstrategie mit teilweiser oder vollständiger Automatisierung vorgeschlagen. Eine solche Schema-Matching-Strategie ist OntoMatch. In diesem Artikel schlagen wir eine automatisierte linguistische Schema-Matching-Strategie auf Elementebene vor, die durch das Konzept von OntoMatch motiviert ist, mit leistungsfähigeren Matching-Algorithmen und einer bestimmten Eigenschaftskonstruktion für die Matcher-Auswahl, die eine bessere Ausgabe erzeugt. Experimentelle Ergebnisse werden ebenfalls bereitgestellt, um den Anspruch der Verbesserung zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28807-4_31 73dec72e6d14714382c3311c26e3a680;de;;;7.3.;;;Ein Verbreitungsmodell zur Integration von Web of Things und sozialen Netzwerken Das Modellieren des Interesses eines Benutzers an der Empfehlung von Diensten und der Freundschaft zwischen den Benutzern ist die Hauptaktivität sozialer Netzwerke. Die von sozialen Netzwerken verwendeten Informationen wie Benutzerprofile können von den Benutzern leider leicht gefälscht und in die Irre geführt werden, was oft zu schlechten Serviceempfehlungen und Freundschaftsprognosen führt. In diesem Beitrag schlagen wir ein Verbreitungsmodell vor, das das aufkommende Web of Things (Ressourcen-/Dienstleistungsnetzwerke) und soziale Netzwerke miteinander verbindet, sodass eine bessere Dienstempfehlung und Freundschaftsvorhersage durch Berücksichtigung der Interaktionen zwischen Menschen und Dingen erreicht werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31875-7_28 cf63fa12d649b80d85f50674c1eaa640;de;;;7.3.;;;Prozessvermittlung von OWL-S Webservices Die Fähigkeit, mit Inkompatibilitäten von Dienstanforderern und -anbietern umzugehen, ist ein kritischer Faktor, um eine reibungslose Interoperabilität in dynamischen Umgebungen zu erreichen. Das Erreichen der Interoperabilität bestehender Webservices ist ein kostspieliger Prozess mit viel Entwicklungs- und Integrationsaufwand, der bei weitem nicht automatisiert ist. Semantic Web Services-Frameworks sind bestrebt, die flexible Erkennung, den Aufruf und die Komposition dynamischer Webservices zu erleichtern und die Automatisierung dieser Prozesse zu unterstützen. In diesem Papier konzentrieren wir uns auf Vermittlungs- und Vermittlungsmechanismen von OWL-S Web Services, die wir als das wichtigste Mittel zur Überwindung verschiedener Arten von Problemen und Inkompatibilitäten sehen. Wir beschreiben die Prozessvermittlungskomponente und die Hybrid-Broker-Komponente, die zwei verschiedene Ansätze präsentieren, um Inkompatibilitäten zwischen den Interaktionsprotokollen des Anforderers und des Anbieters zu überbrücken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89784-2_13 8b9d31e273cb5c0b1705d07dc7c121b9;de;;;7.3.;;;Interoperabilität und eServices eServices sind die Bausteine ​​für lose gekoppelte, verteilte Anwendungen basierend auf den Prinzipien der serviceorientierten Architektur (SOA). Einer der Hauptvorteile, die sie bieten, ist die Interoperabilität sowohl zwischen Komponenten von serviceorientierten Systemen als auch zwischen verschiedenen Systemen. Dennoch erschweren die Vielfalt und Vielfalt der Implementierungen und Interpretationen von SOA und die große Menge neuer Standards die Interoperabilität. In diesem Papier werden Interoperabilitätsanforderungen und damit verbundene Probleme in den drei Hauptkategorien von eServices untersucht: Web-, Grid- und P2P-Dienste. Unser Ziel ist es, die Grundlage für eine Roadmap zur Verbesserung der Interoperabilität von eServices zu schaffen.;-;-;-;https://link.springer.com/chapter/10.1007/11498094_5 afa170dd08a11991d6631629e40ec9a7;de;;;7.3.;;;Forschung zu Webpage Similarity Computing-Technologie basierend auf visuellen Blöcken Das Messen der Ähnlichkeit von Webseiten ist eines der Kernprobleme bei der Erkennung und Klassifizierung von Webinhalten. In diesem Artikel geben wir zunächst die Definition von visuellen Blöcken von Webseiten. Und dann schlagen wir eine Methode vor, die visuelle Blöcke verwendet, um die Ähnlichkeit von Webseiten zu messen. Die Experimente zeigen, dass unsere Methode den Ähnlichkeitsgrad zwischen verschiedenen Arten von Webseiten effektiv messen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45558-6_17 6b3dfcaa879ba3e112dc5c63d4b95e17;de;;;7.3.;;;Schulpraktiken und Bedingungen für Pädagogik und IKT In diesem Kapitel werden (1) die schulischen Bedingungen beschrieben, die sich potenziell auf die Lehr- und Lernpraktiken von Lehrkräften und deren Einsatz von IKT auswirken, und (2) die von der Schule wahrgenommenen Veränderungen beim Einsatz lebenslanger pädagogischer Praktiken in Schulen zwischen 1998 und 2006 Prinzipale. Die Schulbedingungen werden anhand von sechs konzeptionellen Bereichen beschrieben, die im konzeptionellen Rahmen von SITES 2006 enthalten sind (siehe Kapitel 2): ​​Vision, IKT-Infrastruktur, Personalentwicklung, Unterstützung und Organisation von Bildungsreforminitiativen. Indikatoren für jede dieser Domänen werden in den folgenden Abschnitten beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-8928-2_4 e3ee256981c84644f90669aa68a34def;de;;;7.3.;;;ETM – Ein optimiertes Routing-Protokoll für mobile SSM-Quellen Mobilität gilt als Schlüsseltechnologie des Internets der nächsten Generation und wurde innerhalb der IETF standardisiert. Schnell aufkommende Multimedia-Gruppenanwendungen wie IPTV, MMORPGs und Videokonferenzen erhöhen die Nachfrage nach mobiler Gruppenkommunikation, aber ein Standarddesign für mobiles Multicast wird noch erwartet. Der traditionelle Internet-Ansatz des Any Source Multicast (ASM) Routing bleibt zögerlich, sich über Walled Gardens hinaus auszubreiten, während der einfachere und selektivere Source Specific Multicast (SSM) voraussichtlich weltweit an viele Benutzer und Dienste verbreitet wird. Jedoch ist die Mobilitätsunterstützung für Source Specific Multicast immer noch bekannt als ein großes offenes Problem. In diesem Papier stellen wir das Enhanced Tree Morphing (ETM) vor, ein optimiertes Multicast-Routing-Protokoll zum Transformieren (Morphieren) von quellenspezifischen Verteilungsbäumen in optimale Bäume, die an einer verlagerten Quelle verwurzelt sind. Anknüpfend an frühere Ergebnisse für das anfängliche Tree-Morphing präsentieren wir Verbesserungen, die zu einem einfacheren Protokoll mit deutlich optimierten Leistungswerten sowohl in der Weiterleitungsleistung als auch in der Protokollrobustheit führen. Umfangreiche Auswertungen basierend auf realen Topologiedaten sind Bestandteil dieser Arbeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-84839-6_3 1a5311a24541e3312c78880257117a82;de;;;7.3.;;;Digitale Konzeptkarten für das Management von Wissen und Informationen Aufgrund der zunehmenden Menge und Komplexität von Wissen und Informationen in vielen Bereichen leiden Studierende, die ihr Studium in E-Learning-Szenarien selbst regulieren, häufig unter kognitiver Überlastung sowie konzeptioneller und navigatorischer Desorientierung. Insbesondere beim Lernen in ressourcenbasierten Lernszenarien mit komplexen und schlecht strukturierten Lehrinhalten sind sowohl effektive Lernstrategien als auch das Management von Wissen und Informationen erforderlich. Fortgeschrittene computerbasierte Concept Maps haben das Potenzial, räumliche Lernstrategien zu fördern, indem sie die Wissens- und Unterstützungsprozesse des individuellen Wissensmanagements wie Erwerb, Organisation, Repräsentation, (Selbst-)Evaluation, Kommunikation, Lokalisierung und Nutzung von Wissen visualisieren. Darüber hinaus haben sie das Potenzial, das konzeptionelle und inhaltliche Wissen einer Domäne sowie damit verbundene Informationen darzustellen und zugänglich zu machen. Ziel dieses Beitrags ist die Analyse des Potenzials digitaler Concept Maps zur Unterstützung von Prozessen des individuellen Wissensmanagements. Perspektiven für die Forschung zum Einsatz von Concept Maps für individuelles Wissensmanagement werden skizziert.;-;-;-;https://link.springer.com/chapter/10.1007/11510154_10 45d396c67949573ee84e953d07d22413;de;;;7.3.;;;Eine WWW-basierte Zertifizierungsinfrastruktur für sichere offene Netzwerktransaktionen Dieses Papier beschreibt die Entwicklung einer WWW-basierten Schnittstelle zu einer Public-Key-Infrastruktur. Die WWW-Schnittstelle kann verwendet werden, um einen einfachen Benutzerzugriff auf Zertifizierungsfunktionen sowie eine automatische Online-Funktionalität für verschiedene sicherheitserweiterte Anwendungen bereitzustellen. Das Papier beschreibt das Zertifizierungssystem und seine Nutzung auf Basis der WWW-Schnittstelle.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35083-7_14 50dc940875b7e4c86c42d6beecca5553;de;;;7.3.;;;Eine Semantic Web Service-orientierte Architektur für Unternehmen Die Entwicklung eines interoperablen Systems ist eine der heutigen Herausforderungen in allgegenwärtigen Unternehmenssystemen. Erste Webservice-orientierte Lösungen haben die Nutzung und Kombination von verteilten Funktionskomponenten innerhalb und über Unternehmensgrenzen hinweg ermöglicht, bieten jedoch nur eine syntaktische Beschreibung, die das Versprechen eines automatisch interagierenden, dynamisch komponierten Webservice nicht hält. Semantische Webdienste (SWSs) sind eine Erweiterung von Webdiensten mit einer expliziten Darstellung von Bedeutungen, um ihre Nutzung zu verbessern und die Skalierbarkeit zu erleichtern. In diesem Papier stellen wir eine Semantic Web Service-Oriented Architecture für Unternehmen vor, in der Datenquellen und Dienste über SWSs verfügbar gemacht, durch Ontologien beschrieben werden, Interoperabilität sowie Argumentation ermöglichen, um eine umfassende Antwort zu erstellen, die an die Benutzerziele angepasst ist, und präsentieren a Anwendungsszenario im Kontext eines Gerätemarktes kann auch E-Government berücksichtigt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75902-9_59 34a47ddc8535a2fab34fb5ebdf4a28d6;de;;;7.3.;;;Durchsuchbare Wörter im Web Beim Entwerfen von Datenstrukturen für Textdatenbanken ist es wertvoll zu wissen, wie viele verschiedene Wörter wahrscheinlich in einer bestimmten Sammlung vorkommen. Zum Beispiel ist die Akkumulation von Vokabular für die Indexkonstruktion für Textdatenbanksysteme von zentraler Bedeutung. Es ist nützlich, den Platzbedarf und die Leistungsmerkmale der für diese Aufgabe verwendeten Hauptspeicherdatenstrukturen abschätzen zu können. Es ist jedoch nicht klar, wie viele verschiedene Wörter in einer Textsammlung gefunden werden oder ob nach der Überprüfung großer Datenmengen weiterhin neue Wörter erscheinen. Wir schlagen praktische Wortdefinitionen vor und untersuchen neue Wortvorkommen unter diesen Modellen in einer großen Textsammlung. Wir haben in 45 GB WWW-Dokumenten rund zwei Milliarden Wortvorkommen untersucht und in 5,5 Millionen Dokumenten etwas mehr als 9,74 Millionen verschiedene Wörter gefunden. Wir beobachten, dass auch in sehr großen Datensätzen weiterhin neue Wörter vorkommen und dass die Wahl strengerer Definitionen dessen, was ein Wort ausmacht, nur begrenzten Einfluss auf die Anzahl der neuen Wörter hat.;-;-;-;https://link.springer.com/article/10.1007/s00799-003-0050-z 25340d022cd2aa6bd5755e0bcfe3e6bf;de;;;7.3.;;;Die Erforschung und Anwendung von Sensornetzwerk-Datenmanagement basierend auf SQLITE Dieses Papier zielt auf den Entwicklungsbedarf von eingebetteten Gateway-Systemen für Sensornetzwerke ab und führt vorläufige Forschungen und Untersuchungen zur Struktur von Sensornetzwerken, eingebetteter Webarchitektur, eingebettetem Datenbankmodell, eingebettetem Betriebssystemmodell, eingebettetem Gatewaymodell-Designmodell und Verwendung vorhandener Entwicklungsplattformen durch und das Entwicklungstool, um Kontakt mit der Praxis zum Linux-basierten Entwicklungsmodell für eingebettete Systeme und zur eingebetteten Internet-Technologie aufzunehmen. Abschluss des Systemdesigns der Hardware- und Softwareplattform in einem auf dem Web basierenden eingebetteten Gateway des Sensornetzwerks. Die Systeme können Sensornetzwerkdaten effektiv verwalten und speichern.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-3872-4_4 45c9050846cc687fc3ba5731f8c0913c;de;;;7.3.;;;Die zunehmende Nutzung des Weltraums in Kommunikation, Navigation, Fernerkundung und Wettersatelliten Die Idee eines neuen Goldrausches mag manchen weit hergeholt erscheinen, aber es gibt harte Daten, die eine wachsende – sogar explodierende – Weltraumwirtschaft unterstützen, die heute stattfindet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-39273-8_3 90918de20d93732dc9899a4547ebbe42;de;;;7.3.;;;W-Ray: Eine Strategie zur Veröffentlichung von geografischen Deep Web-Daten Dieses Papier stellt einen Ansatz vor, um das Problem des Zugriffs auf konventionelle und geografische Daten aus dem Deep Web anzugehen. Der Ansatz beruht darauf, die relevanten Daten durch gut strukturierte Sätze zu beschreiben und die Sätze als Webseiten gemäß den Empfehlungen von W3C und Google zu veröffentlichen. Bei herkömmlichen Daten werden die Sätze mit Hilfe von Datenbankansichten generiert. Für Vektordaten werden zuerst die topologischen Beziehungen zwischen den dargestellten Objekten erzeugt und dann werden Sätze synthetisiert, um die Objekte und ihre topologischen Beziehungen zu beschreiben. Schließlich werden für Rasterdaten die geographischen Objekte, die die Begrenzungsbox der Daten überlappen, zuerst mit Hilfe eines Gazetteer identifiziert und dann werden Sätze synthetisiert, die solche Objekte beschreiben. Die so generierten Webseiten lassen sich leicht von herkömmlichen Suchmaschinen indizieren, erleichterten aber auch die Aufgabe komplexerer Suchmaschinen, die semantische Suche basierend auf natürlichen Sprachmerkmalen unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16385-2_2 c1426db5077933ba90933df74332c61a;de;;;7.3.;;;Entwicklung nachhaltiger E-Business-Modelle für intelligente Verkehrssysteme (ITS) Intelligent Transportation Systems (ITS) sind Technologien für ein effizientes Verkehrsmanagement, z.B. Unfall- und Stauverhütung, reduzierte Emissionen, Reiseinformationen usw. Trotz der potenziellen Vorteile, die in früheren Untersuchungen festgestellt wurden, besteht ein bemerkenswerter Mangel an soliden e-Business-Plänen für ITS. Obwohl die notwendige Technologie vorhanden ist und das Internet Möglichkeiten zur kostengünstigeren Integration von Systemen und Diensten bietet, sind viele ITS nicht nachhaltig und großartige Ideen entwickeln sich nicht weiter. Viele Anwendungen sind immer noch zu teuer in Anschaffung und Installation, sie erfordern erhebliche Vorabinvestitionen und die Rendite wird viele Jahre dauern. Dieses Papier betont die Notwendigkeit für ITS, die Entwicklungen in den Informations- und Kommunikationstechnologien (IKT) und im Internet zu nutzen, und schlägt einen Rahmen für ein E-Business-Modell für ITS vor. Wir adressieren auch Nachhaltigkeitsthemen und Aspekte der Netzwerkökonomie für ITS-Unternehmen. Schließlich präsentieren wir eine Stakeholder-Analyse und eine zukünftige Forschungsagenda.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27260-8_16 6ce87c8306d9b3986ca1b8a9c7ae3e8c;de;;;7.3.;;;Eine fachkundige Systembereitstellungsumgebung für das World Wide Web AdviceWeb ist eine Bereitstellungsumgebung, die es ermöglicht, eine breite Palette hochwertiger regelbasierter Beratungsexpertensysteme zu erstellen und den Benutzern über das World Wide Web kostenlos zur Verfügung zu stellen. Anwendungen haben ein einheitliches „Look and Feel“, benötigen keine spezielle Software und sind vollständig in andere Informationsquellen im Web integriert. Es wird eine schnelle Anwendungsentwicklungseinrichtung bereitgestellt, die in einer einfachen Skriptsprache geschriebene Module automatisch in Regeln und Fragen für einen auf dem AdviceWeb-Server laufenden Produktionsregelinterpreter umwandelt.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-34224-9_15 52a8f4fbff3ebbbd870809dfe062c7f9;de;;;7.3.;;;Verwalten der Unsicherheit der Verkehrsnachfrage bei der Platzierung von Replikatservern mit robuster Optimierung Das Problem der Platzierung von Replikatservern bestimmt den optimalen Standort, an dem replizierte Server in Inhaltsverteilungsnetzwerken platziert werden sollten, um die Netzwerkleistung zu optimieren. Die geschätzte Verkehrsnachfrage ist ein grundlegender Input für dieses Problem, und ihre Genauigkeit ist für das Erreichen der Zielleistung wesentlich. Die Ableitung genauer Verkehrsanforderungen ist jedoch alles andere als trivial und Unsicherheit macht die Zielleistung schwer vorherzusagen. Wir argumentieren, dass es oft unangemessen ist, die Leistung nur für einen bestimmten Satz von Verkehrsanforderungen zu optimieren, der als richtig angenommen wird. In diesem Papier schlagen wir einen szenariobasierten robusten Optimierungsansatz vor, um das Problem der Platzierung von Replikatservern unter Unsicherheit der Verkehrsnachfrage anzugehen. Das Ziel besteht darin, die Gesamtverteilungskosten für eine Vielzahl von Verkehrsnachfrageszenarien zu minimieren und gleichzeitig die Leistungsabweichung von der optimalen Lösung zu minimieren. Empirische Ergebnisse zeigen, dass eine robuste Optimierung für die Platzierung von Replikatservern unter allen Verkehrsbedarfsszenarien eine gute Leistung erzielen kann, während nicht robuste Ansätze deutlich schlechter abschneiden. Dieser Ansatz ermöglicht es Anbietern von Inhaltsverteilung, ihren Kunden eine bessere und vorhersehbare Servicequalität bereitzustellen, indem die Auswirkungen von Ungenauigkeiten bei der Schätzung der Verkehrsnachfrage auf die Optimierung der Platzierung des Replikatservers reduziert werden.;-;-;-;https://link.springer.com/chapter/10.1007/11753810_61 f405cb40ab95945dd877cca498708584;de;;;7.3.;;;Personal Digital Assistants in der psychiatrischen Ausbildung Dieser Artikel beschreibt die verschiedenen administrativen und klinischen Anwendungen für den Einsatz von PDA in der psychiatrischen Versorgung und gibt einen Überblick über den Prozess der Implementierung in einem akademischen medizinischen Zentrum.;-;-;-;https://link.springer.com/article/10.1176/appi.ap.30.6.516 35f86aa8448e30ef7341f273e48aeb75;de;;;7.3.;;;Der seltsame Fall von Reproduzierbarkeit versus Repräsentativität in kontextuellen Suggestionstestsammlungen Der gebräuchlichste Ansatz zur Messung der Effektivität von Information Retrieval-Systemen ist die Verwendung von Testsammlungen. Der TREC-Track Contextual Suggestion (CS) bietet einen Bewertungsrahmen für Systeme, die Benutzern aufgrund ihres geografischen Kontexts Elemente empfehlen. Die Besonderheit dieses Tracks ermöglicht es den teilnehmenden Teams, Kandidatendokumente entweder aus dem Open Web oder aus der ClueWeb12-Sammlung, einer statischen Version des Webs, zu identifizieren. Im Bewertungspool werden die Dokumente aus der Open Web- und ClueWeb12-Sammlung ausgezeichnet. Daher sollte jede Systemeinreichung nur auf einer Ressource basieren, entweder Open Web (durch URLs identifiziert) oder ClueWeb12 (durch IDs identifiziert). Um Reproduzierbarkeit zu erreichen, sollte das Ranking von Webseiten aus ClueWeb12 die bevorzugte Methode zur wissenschaftlichen Bewertung von CS-Systemen sein, aber es hat sich gezeigt, dass die Systeme, die ihre Vorschlagsalgorithmen auf Eingaben aus dem Open Web aufbauen, durchweg eine höhere Effektivität erzielen. Da die meisten Systeme bei der Erstellung von CSs einen ziemlich ähnlichen Ansatz verfolgen, stellt sich die Frage, ob Systeme, die von Forschern auf ClueWeb12 aufbauen, immer noch repräsentativ für diejenigen sind, die direkt mit branchenführenden Websuchmaschinen funktionieren würden. Müssen wir der Repräsentativität halber auf Reproduzierbarkeit verzichten? Wir untersuchen den Effektivitätsunterschied zwischen Open Web-Systemen und ClueWeb12-Systemen, indem wir die Relevanzbewertungen von Dokumenten analysieren, die sowohl aus dem Open Web als auch aus ClueWeb12 identifiziert wurden. Dann identifizieren wir Dokumente, die sich zwischen den Relevanzbewertungen des Open Web und ClueWeb12 überschneiden, und beobachten eine Abhängigkeit zwischen den Relevanzbewertungen und der Quelle des Dokuments, das aus dem Open Web oder ClueWeb12 stammt. Danach identifizieren wir Dokumente aus den Relevanzbewertungen des Open Web, die in der ClueWeb12-Sammlung vorhanden sind, aber nicht in den ClueWeb12-Relevanzbewertungen. Wir verwenden diese Dokumente, um die Relevanzbewertungen von ClueWeb12 zu erweitern. Unsere wichtigsten Erkenntnisse sind zweierlei. Erstens zeigt unsere empirische Analyse der Relevanzbewertungen von 2 Jahren CS-Track, dass Open Web-Dokumente bessere Bewertungen erhalten als ClueWeb12-Dokumente, insbesondere wenn wir die Dokumente in der Überlappung betrachten. Zweitens ist unser Ansatz zur Auswahl von Kandidatendokumenten aus der ClueWeb12-Sammlung auf der Grundlage von Informationen aus dem Open Web einen Verbesserungsschritt, um die Effektivitätslücke zwischen Open Web- und ClueWeb12-Systemen teilweise zu überbrücken, während wir gleichzeitig reproduzierbare Ergebnisse auf bekannten repräsentatives Muster des Webs.;-;-;-;https://link.springer.com/article/10.1007/s10791-015-9276-9 e744c66c169e095927f5888910b666bf;de;;;7.3.;;;Wissensrepräsentation und Argumentation auf hohem Niveau in einem kognitiven IoT/WoT-Kontext Dieses Kapitel bietet einen Überblick über das Paradigma der Generalized World Entities (GWE), das verwendet wird, um den gewöhnlichen IoT/WoT-Verfahren eine semantische/konzeptuelle Dimension hinzuzufügen. Sein Zweck besteht darin, das Spektrum der zu berücksichtigenden Entitäten bei der Beschreibung einer sensorüberwachten Umgebung zu erweitern, indem insbesondere physische Entitäten wie Objekte, Menschen, Roboter, usw. und höhere Ebenen von Abstraktionsstrukturen, die allgemeinen Situationen/Aktionen/Ereignissen/Verhalten entsprechen. Den verbindenden Faktor liefert die konzeptionelle Darstellung der Welt, die für die Modellierung der GWEs beider Typen verwendet wird. Dies ist ontologiebasiert und allgemein genug, um sowohl das „Statische“ (Hintergrundinformationen über z Person, die sich in Echtzeit auf ein bestimmtes Objekt zubewegt) Eigenschaften der verschiedenen zu behandelnden Entitäten. Nachdem wir einen kurzen Stand der Technik im kognitiven/semantischen IoT/WoT-Bereich vorgestellt haben, werden wir den Begriff GWE spezifizieren, indem wir seine Implementierung im NKRL-Format (Narrative Knowledge Representation Language) beschreiben. NKRL ist eine High-Level-Modellierungssprache, deren Hauptmerkmal die Verwendung von zwei Ontologien ist, einer Ontologie von Standardkonzepten und einer Ontologie von Ereignissen, wobei letztere sich mit der Darstellung dynamischer und raum-zeitlicher charakterisierter Informationen befasst, die Verhaltensweisen und komplexe Ereignisse bezeichnen , Situationen, Umstände usw. Wir werden anhand mehrerer Beispiele zeigen, dass diese Dichotomie es uns ermöglicht, alle unterschiedlichen Einheiten, die mit den üblichen IoT/WoT-Verfahren verwaltet werden, nahtlos und effektiv zu modellieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-70688-7_10 a56569f11bdffb220d9608d34f3d57dc;de;;;7.3.;;;Fuzzy Web Knowledge Aggregation, Darstellung und Argumentation für Online-Datenschutz und Reputationsmanagement Ein Social Semantic Web ermöglicht seinen Nutzern auf einfache Weise Zugang zu kollektivem Web-Wissen. Aus diesem Grund wird die Kontrolle der Online-Privatsphäre und -Reputation immer wichtiger und muss ernst genommen werden. In diesem Kapitel werden Fuzzy Cognitive Maps (FCM) als Vehikel für die Aggregation, Repräsentation und Argumentation von Webwissen vorgestellt. Vor diesem Hintergrund wird ein konzeptioneller Rahmen für die Aggregation, Darstellung und Argumentation von Webwissen zusammen mit einem Anwendungsfall vorgestellt, in dem die Bedeutung der investigativen Suche nach Online-Datenschutz und -Reputation hervorgehoben wird. Dabei wird demonstriert, wie ein Nutzer eine positive Online-Präsenz aufbauen kann;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39739-4_5 b949d83d6f7b0ac996d6cae753d441d0;de;;;7.3.;;;Reflexivität, der soziale Akteur und Domestikation von M-Diensten: Verknüpfung des Menschlichen, Technologischen und Kontextuellen Es wird betont, wie wichtig es ist, die Faktoren zu verstehen, die sich auf die Technologieakzeptanz auswirken. Die Forschung zur Technologieakzeptanz orientiert sich jedoch in erster Linie an der individuellen Ebene, auf der Benutzer oder Verbraucher als Akteure behandelt werden, die typischerweise einseitige Annahme- oder Ablehnungsentscheidungen in Bezug auf die Akzeptanz neuer Technologien treffen. In diesem Artikel argumentieren wir, dass solche Forschungen nicht den Einfluss der sozialen Überwachung des eigenen und des anderen Verhaltens durch Agenten anerkennen. In Anlehnung an den Stratifkationsprozess und das Konstrukt der Reflexivität, wie es von Giddens (1984) angewendet wurde, und die Verbindung mit der Sichtweise, dass Menschen soziale Akteure sind, die reflexartig an der Domestikation neuer Technologien beteiligt sind, präsentieren wir erste Fortschritte in Richtung eines Prozessmodells Dies kann unser Verständnis davon leiten, wie potenzielle und bestehende Nutzer neuer mobiler Datendienste lernen, auf frühere und neue Erfahrungen zurückgreifen und dadurch neue M-Dienste in die Leistung alltäglicher Praktiken einbringen oder nicht einbringen. Basierend auf den Ergebnissen unserer Feldstudie legt dieses Papier nahe, dass die Neuprojektion früherer Erfahrungen und Reflexivität die Kognition und das Handeln während der Dauer der Domestikation von m-Diensten erheblich beeinflusst und dadurch ein ergänzendes Verständnis für die aktuelle Technologieakzeptanzforschung bringt.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-28918-6_7 6cb225110653f7fb2da3691a5b3a24ca;de;;;7.3.;;;Kundenbindung aufbauen mit Kooperationsnetzen: Vier Modelle für individualisierungsbasiertes CCRM Das vorherige Kapitel hat einen allgemeinen Rahmen für ein individualisierungsbasiertes kollaboratives CRM geschaffen. Wir haben gezeigt, dass „Collaboration Nets“: kollaborative Formen der gemeinsamen Wertschöpfung zwischen Herstellern, Handelspartnern, Intermediären und Kunden;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24710-4_9 a7a32dcfb157fb9a4b9609d30b1317f6;de;;;7.3.;;;Extrahieren von Schlüsselphrasen aus Webseiten Social-Tagging-Systeme ermöglichen es Benutzern, Webressourcen zu klassifizieren, indem sie eine Reihe von frei gewählten Begriffen verwenden, die allgemein als Tags bezeichnet werden. Durch die Verlagerung der Klassifizierungsaufgabe von einer Gruppe von Experten auf eine größere und ungeschulte Gruppe von Personen sind die Ergebnisse der Klassifizierung jedoch nicht genau. Das Fehlen von Kontrolle und Richtlinien erzeugt verrauschte Tags (d. h. Tags ohne klare Semantik), die die Präzision der benutzergenerierten Klassifizierungen verringern. Um dieser Einschränkung zu begegnen, wurden in der Literatur mehrere Werkzeuge vorgeschlagen, um den Benutzern Tags vorzuschlagen, die eine gegebene Ressource richtig beschreiben. Auf der anderen Seite schlagen wir vor, n-Gramme (sogenannte Schlüsselphrasen) vorzuschlagen, indem wir der Idee folgen, dass Folgen von zwei/drei Termen potentiellen Mehrdeutigkeiten besser begegnen können. Genauer gesagt identifizieren wir in dieser Arbeit eine Reihe von Merkmalen, die N-Gramme charakterisieren, die geeignet sind, sinnvolle Aspekte zu beschreiben, die auf den Webseiten berichtet werden. Mit diesen Funktionen haben wir einen Mechanismus entwickelt, der Menschen bei der Klassifizierung von Webseiten unterstützen kann, indem er automatisch sinnvolle Schlüsselwörter vorschlägt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35834-0_11 d9537618bf76254f829674d342da69d1;de;;;7.3.;;;Hybride Methode zur automatisierten Extraktion von Nachrichteninhalten aus dem Web Die Extraktion von Web-Nachrichteninhalten ist von entscheidender Bedeutung, um die Nachrichtenindexierung und -suche in heutigen Suchmaschinen zu verbessern, insbesondere für den Nachrichtensuchdienst. In diesem Artikel untersuchen wir das Problem der Extraktion von Web-Nachrichteninhalten und schlagen einen automatisierten Extraktionsalgorithmus dafür vor. Unser Verfahren ist ein Hybridverfahren, das die Vorteile sowohl von Sequenz-Matching- als auch von Tree-Matching-Techniken nutzt. Wir schlagen vor;-;-;-;https://link.springer.com/chapter/10.1007/11912873_34 3e3ff2a0f479e8da83177ca266882eba;de;;;7.3.;;;Die Auswirkungen von Sicherheitsbedenken auf die Cyberfreiheiten Anhand von Fallbeispielen aus Australien, Kanada, Großbritannien und den USA werden die Auswirkungen des „Kriegs gegen den Terrorismus“ auf Cyberbürger veranschaulicht. Die Autoren verwenden einschlägige Artikel der;-;-;-;https://link.springer.com/chapter/10.1007/0-387-31168-8_10 0e1696dca1988663ec8e7014a26e6e61;de;;;7.3.;;;Webgetriebenes Management Thinking: Ein Blick auf die Neugestaltung von Geschäftsprozessen im Zeitalter des Webs Traditionell geht das Denken des Managements der Einführung und Nutzung von Informationstechnologien (IT) in Unternehmen voraus und hat sie möglicherweise vorangetrieben. Das heißt, Managementschulen, die bestimmte Arten von Arbeitsstrukturen betonen, erscheinen normalerweise früher als IT, die auf die Unterstützung dieser Arbeitsstrukturen ausgerichtet ist. Diese Situation hat sich zweifellos in letzter Zeit, wohl Mitte der 1990er Jahre, mit der explosionsartigen kommerziellen Nutzung des Internets und insbesondere des Webs geändert. Ein erster Schritt hin zu einem neuen Management-Framework, das Organisationen dabei hilft, von moderner webbasierter IT zu profitieren, wird in diesem Papier vorgeschlagen und diskutiert. Unser Ziel ist es, einige grundlegende Elemente bereitzustellen, die von Managern und Forschern als Ausgangspunkt für ein breiteres Managementmodell verwendet werden können. Daher konzentrieren wir uns auf eine bestimmte Reihe von Aktivitäten im Zusammenhang mit der Teamkoordination und -kommunikation in Produktions- und Dienstleistungsgeschäftsprozessen. Unser Framework basiert auf unseren Erfahrungen in 30 Projekten zur Neugestaltung von Geschäftsprozessen, die in Partnerschaft mit 15 US-amerikanischen Organisationen von 1997 bis 2000 durchgeführt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/0-306-47009-8_41 dbde2c27fcf97bfd1b387fa4e1f63897;de;;;7.3.;;;Themenkaskaden: Eine interaktive Schnittstelle zur Exploration von geclusterten Websuchergebnissen basierend auf dem SVG-Standard Der WebRat ist ein leichtes, webbasiertes Retrieval-, Clustering- und Visualisierungsframework, mit dem Suchlösungen für ein breites Anwendungsgebiet schnell konzipiert und implementiert werden können. Wir haben dieses Framework verwendet, um eine Web-Meta-Suchmaschine kombiniert mit einem interaktiven Visualisierungs- und Navigations-Toolkit zu erstellen. Basierend auf dem SVG-Grafikstandard ermöglicht diese Anwendung Benutzern, Suchergebnisse schnell und effizient zu durchsuchen, indem sie aus thematisch organisierten Ergebnisgruppen auswählen. Die Visualisierung und die Clusterdarstellung können gespeichert und wiederverwendet werden. Wir haben die hierarchische Navigation von Suchergebnisseiten mit einer thematischen Ähnlichkeitsbasierten Anordnung dieser Ergebnisse in einem einheitlichen, standardbasierten System kombiniert, das das Potenzial von SVG für webbasierte Visualisierungslösungen demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45224-9_129 ce5bfb4754ec40605df060c9e9ea8c32;de;;;7.3.;;;Theoretische Grundlage für die Entwicklung eines UGB-Referenzrahmens In diesem Kapitel werden theoretische Konzepte vorgestellt, die eine Grundlage für die Definition und Anwendung von User Generated Branding (UGB) bilden. Da UGB als Management von markenbezogenen nutzergenerierten Inhalten (UGC) verstanden wird, wird zunächst der Begriff UGC als Gegenstand von UGB diskutiert. Zweitens wird der identitätsbasierte Markenführungsansatz eingeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-8857-7_2 93430466c305b48aab4090be2d242cc1;de;;;7.3.;;;Quantifizierung der Auswirkungen von Umwegen auf die Latenz des innerafrikanischen Internetverkehrs: Eine Studie zu Forschungs- und Bildungsnetzwerken Trotz einer Zunahme der Anzahl von Internet eXchange Points (IXP) in Afrika sowie der Verbreitung von unterseeischen und terrestrischen Glasfaserkabelsystemen bleibt das Peering-Niveau unter Afrikas Internetdienstanbietern gering. Anhand aktiver Netzwerkmessungen charakterisiert diese Arbeit den Grad der Interkonnektivität und des Peering zwischen den afrikanischen Nationalen Forschungs- und Bildungsnetzwerken (NRENs) und untersucht die Leistung des Verkehrsaustauschs in Bezug auf Latenzen. Dieses Papier zeigt, dass über 75 % des interuniversitären Verkehrs in Afrika auf Umwegen zwischen den Kontinenten verläuft und durch Latenzen gekennzeichnet ist, die mehr als doppelt so hoch sind wie die des innerhalb des Kontinents ausgetauschten Verkehrs.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16886-9_7 b215c16a19ac46cea0074ced917de0bf;de;;;7.3.;;;Effizientes themenfokussiertes Crawlen durch die Nachbarschaftsfunktion Ein fokussierter Webcrawler ist ein wesentliches Werkzeug zum Sammeln domänenspezifischer Daten, die von nationalen Webkorpora, vertikalen Suchmaschinen usw. verwendet werden, da er effizienter ist als allgemeine Breadth-First- oder Depth-First-Crawler. Das Problem bei der fokussierten Crawling-Forschung ist die Priorisierung nicht besuchter Webseiten in der Crawling-Grenze, gefolgt vom Crawlen dieser Webseiten in der Reihenfolge ihrer Priorität. Das häufigste Merkmal, das in vielen gezielten Crawling-Recherchen verwendet wird, um eine nicht besuchte Webseite zu priorisieren, ist die Relevanz der Menge ihrer Quellwebseiten, d. h. ihrer verlinkten Webseiten. Diese Funktion ist jedoch eingeschränkt, da wir die Relevanz der nicht besuchten Webseite nicht richtig einschätzen können, wenn wir nur wenige Quellseiten haben. Um dieses Problem zu lösen und die Effizienz fokussierter Webcrawler zu verbessern, schlagen wir eine neue Funktion vor, die als „Nachbarschaftsfunktion“ bezeichnet wird. Dies ermöglicht die Übernahme zusätzlicher bereits heruntergeladener Webseiten, um die Priorität einer Zielwebseite abzuschätzen. Die zusätzlich übernommenen Webseiten bestehen sowohl aus Webseiten, die sich im gleichen Verzeichnis befinden wie das der Zielwebseite, und Webseiten, deren Verzeichnispfade denen der Zielwebseite ähnlich sind. Unsere experimentellen Ergebnisse zeigen, dass unsere verbesserten fokussierten Crawler die Crawler übertreffen, die die Nachbarschaftsfunktion nicht verwenden, sowie die hochmodernen fokussierten Crawler, einschließlich HMM-Crawler.;-;-;-;https://link.springer.com/article/10.1007/s00354-017-0029-8 23e42e09e66f19e861e07fd96c4fa36c;de;;;7.3.;;;Fragen zu schulischen E-Labors im naturwissenschaftlichen Unterricht Geschlechterfragen und schwerwiegende damit verbundene Probleme werden im Zusammenhang mit der Nutzung moderner Technologien über einen langen Zeitraum diskutiert. Ähnliche Diskussionen betrafen den naturwissenschaftlichen Unterricht, insbesondere die Probleme des Physikunterrichts und der Studentinnen. Finnland war eines der fortschrittlichsten Länder bei der Einführung moderner Technologien, aber auch hier gibt es einige offene Probleme. Wir haben Daten zum Einsatz unterschiedlicher pädagogischer Ansätze in modernen Lernumgebungen im Kontext des naturwissenschaftlichen Unterrichts gesammelt. Wir haben nationale Erhebungsdaten aus Finnland (3.626 Schüler der Sekundarstufe I und 184 Lehrer und 2.661 Schüler der Sekundarstufe II und 81 Lehrer). Diese Daten zeigen, dass sowohl Lehrer als auch Schüler ziemlich ähnliche Vorstellungen von der Notwendigkeit haben, vielseitige pädagogische Ansätze zu entwickeln, einschließlich der aktiveren Nutzung von E-Learning-Tools und Tools, die für moderne naturwissenschaftliche Klassenzimmer wie das Mikrocomputer-basierte Labor verfügbar sind. Dies bedeutet auch, dass eine Balance zwischen den Rollen virtueller und realer Komponenten von Lernumgebungen erforderlich ist. Männliche Studierende waren mit der aktuellen Situation des E-Learning in den Naturwissenschaften unzufrieden. Beide Geschlechter wünschten sich häufigeres E-Learning mit mehr Abwechslung. Wir führten sogar eine Fallstudie durch, die sich aktiv an der Entwicklung des naturwissenschaftlichen Unterrichts in einer modernen Lernumgebung beteiligte und im Rahmen eines virtuellen Schulprojekts detailliertere und qualitativere Daten lieferte. Wir diskutieren den Nutzen eines solchen Forschungs- und Entwicklungsprojekts auch für die Lehrerfortbildung.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-24047-0_4 02783287fde00f1a753d613daa558a8d;de;;;7.3.;;;Forschung zur Topic-Crawler-Strategie basierend auf Webseitenerweiterung und Suchalgorithmus mit bester Priorität Der Themencrawler filtert die themenunabhängigen Links nach einem bestimmten Webseiten-Analysealgorithmus, behält die themenbezogenen Links und stellt sie in die URL-Warteschlange zum Abrufen. Dann wird gemäß einer bestimmten Suchstrategie die nächste Seiten-URL aus der Warteschlange ausgewählt und wiederholt, bis ein bestimmter Zustand des Systems erreicht ist. Die Suchstrategie mit der besten Priorität sagt die Ähnlichkeit zwischen Kandidaten-URL und Zielseiten gemäß einem bestimmten Webseiten-Analysealgorithmus voraus und wählt eine oder mehrere URLs aus, die die beste Bewertung ist. Der Crawler-Algorithmus auf Basis der Webseitenerweiterung soll die Webseite oder Website mit indirektem Bezug über bekannte Webseiten oder Daten auswerten. Der Artikel präsentiert Forschungen zur Topic-Crawler-Strategie basierend auf Webseitenerweiterungen und Suchalgorithmen mit der besten Priorität.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98776-7_138 91514e546dcfc055f9e49d79ba955fe3;de;;;7.3.;;;Workshop zu Algorithmen und Modellen für den Webgraph Seit knapp einem Jahrzehnt steht der Webgraph (das Netzwerk aus Webseiten und ihren Hyperlinks) im Mittelpunkt wissenschaftlicher Untersuchungen. In dieser kurzen Zeit hat diese Studie die Forschung in Physik, Informatik und Mathematik maßgeblich beeinflusst. Es hat die Aufmerksamkeit der wissenschaftlichen Gemeinschaft auf all die verschiedenen Arten von Netzwerken gelenkt, die durch Technologie und menschliche Aktivitäten entstanden sind, manche sprechen von einer „neuen Wissenschaft der Netzwerke“. Es hat die Rechen- und Deduktionskraft der Informatik in das Studium der komplexen sozialen Netzwerke eingebracht, die durch zwischenmenschliche Beziehungen gebildet werden. Und es hat neue Forschungszweige in verschiedenen Bereichen der Mathematik hervorgebracht, insbesondere Graphentheorie und Wahrscheinlichkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78808-9_2 1338fa071d9651482ee90f26762148c5;de;;;7.3.;;;Wie kann man Laien bei der Auswertung medizinischer Informationen im Web unterstützen? In diesem Beitrag präsentieren wir eine Studie zur Glaubwürdigkeit der Bewertungen von gesundheitsbezogenen Webinhalten durch Laien. Wir untersuchen die Unterschiede zwischen ihrem Ansatz und dem Ansatz medizinischer Experten, analysieren, ob wir ihre Genauigkeit mit einem einfachen Unterstützungssystem erhöhen können und untersuchen die Wirksamkeit des Ansatzes der Weisheit der Massen. Wir finden, dass ein auf Expertenbewertungen basierendes Unterstützungssystem effektiv ist, während es riskant sein kann, sich auf die Weisheit der Menge zu verlassen. Es gibt einen deutlichen positiven Bias bei Laienbewertungen, der sehr schwer zu korrigieren ist. Darüber hinaus nehmen Laiennutzer gesundheitsbezogene Webinhalte anders wahr als medizinische Experten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-40349-6_1 eb44d3b325cb9ccc45788d1f9e2b3dd4;de;;;7.3.;;;Zielgerichtete Webdienste In diesem Beitrag wird ein System zur zielgerichteten Integration von Webservices basierend auf automatisierter Planung vorgestellt. Die zunehmende Zahl von Webdiensten, die im Netz verfügbar sind, wirft das Problem auf, über effiziente Werkzeuge zu verfügen, um bestehende Dienste zu integrieren, um komplexe Dienste zu erhalten, die die Ziele und Bedürfnisse der Benutzer widerspiegeln. In diesem Szenario stellen automatisierte Planungstechniken vielversprechende Komponenten solcher dynamischer und evolutionärer Systeme dar. Im vorgeschlagenen Architekturmodell werden Webservices und Benutzerziele als Planungsoperatoren und -ziele modelliert, während die generierten Lösungspläne zur direkten Generierung von Webservice-Skripten verwendet werden. Ein erweitertes Planungsmodell basierend auf dem Konzept der Ausgabevariablen wurde eingeführt, um die Ergebnisse von Dienstaufrufen zu berücksichtigen. Für die Modellierung von Diensten als Operatoren wurde eine Technik namens Semantic Wrapper entwickelt. Webservice-Pläne optimieren neben einfachen Automatisierungsaufgaben auch den Ressourceneinsatz und liefern nützliche Informationen über Variablenbindungen und den parallelen Aufbau von Webservice-Aufrufen. Die Implementierung von P4WS, einem Planer mit Ausgabevariablen, der das Modell demonstriert, wird beschrieben und experimentelle Ergebnisse werden präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/11495772_48 1211f1f97ef9911648c1962269d3e854;de;;;7.3.;;;Instrumentelle Überwachung der Konformität von Websites mit den gesetzlichen Anforderungen im Bereich personenbezogener Daten Die Relevanz der Entwicklung eines Tools zur Überwachung von Websites auf die Einhaltung gesetzlicher Anforderungen im Bereich personenbezogener Daten wird aufgezeigt. Das Ergebnis der Softwareimplementierung eines solchen Tools wird beschrieben. Die Vorteile des entwickelten Produkts im Vergleich zur manuellen Überwachung werden hervorgehoben.;-;-;-;https://link.springer.com/article/10.3103/S0147688219040075 aef9e2910a713705204dcf2968fe8d0a;de;;;7.3.;;;Online-Schätzung der thematischen Wichtigkeit: ein effektiver fokussierter Crawling-Algorithmus, der Link- und Inhaltsanalyse kombiniert Focused Crawling ist eine wichtige Technik für die Suche nach aktuellen Ressourcen im Web. Das Hauptproblem beim fokussierten Crawling besteht darin, ungecrawlte Uniform Resource Locators (URLs) im Frontier zu priorisieren, um das Crawling auf relevante Seiten zu konzentrieren. Traditionelle fokussierte Crawler verlassen sich hauptsächlich auf die Inhaltsanalyse. Linkbasierte Techniken werden trotz ihrer Nützlichkeit nicht effektiv genutzt. In diesem Papier schlagen wir einen neuen Grenzpriorisierungsalgorithmus vor, nämlich den Online-Algorithmus zur Schätzung der aktuellen Wichtigkeit (OTIE). OTIE kombiniert link- und inhaltsbasierte Analysen, um die Priorität einer ungecrawlten URL im Grenzbereich zu bewerten. Wir haben echte Crawling-Experimente zu 30 Themen durchgeführt, die aus dem Open Directory Project (ODP) ausgewählt wurden, und haben die Ernterate und die Zielerinnerung der vier Crawling-Algorithmen verglichen: Breite zuerst, Link-Kontext-Vorhersage, Online-Seitenwichtigkeitsberechnung (OPIC) unser OTIE. Experimentelle Ergebnisse zeigten, dass OTIE die anderen drei Algorithmen beim durchschnittlichen Zielrückruf deutlich übertrifft und gleichzeitig eine akzeptable Ernterate beibehält. Darüber hinaus ist OTIE viel schneller als der traditionelle fokussierte Crawling-Algorithmus.;-;-;-;https://link.springer.com/article/10.1631/jzus.A0820481 278a6a820c715f8bb8f5bc90fa586706;de;;;7.3.;;;Wie Stopp- und Warteprotokolle über das Internet fehlschlagen können Der korrekte Betrieb von Computerprotokollen ist für den reibungslosen Betrieb der verteilten Systeme, die unsere globale Wirtschaft erleichtern, unerlässlich. Formale Techniken bieten unsere beste Chance, sicherzustellen, dass Protokolldesigns fehlerfrei sind. Dieses eingeladene Papier befasst sich erneut mit der Klasse der Stop-and-Wait-Protokolle, die Übertragungswiederholungsstrategien enthalten, um Übertragungsfehler zu beheben. Dies liegt daran, dass ihre grundlegenden Mechanismen für praktische Protokolle wie das Transmission Control Protocol (TCP) des Internets wichtig sind. Es wurde gezeigt, dass Stop-and-Wait-Protokolle über Medien, die Pakete verlieren können, korrekt funktionieren, jedoch wurde der Betrieb dieser Protokolle über Medien, die Pakete neu anordnen können, wenig diskutiert. Der Artikel stellt eine Untersuchung dieser Protokolle vor, die über ein Medium arbeiten, wie es das Internetprotokoll bietet, das eine Neuordnung von Daten ermöglicht. Farbige Petrinetze werden verwendet, um ein Modell eines Stop-and-Wait-Protokolls aufzubauen, das durch seine maximale Sequenznummer und den maximalen Wert des Neuübertragungszählers parametrisiert ist. Das Modell wird mit einer Kombination aus Handbeweisen und automatischen Techniken analysiert. Wir identifizieren vier Probleme. Wir beweisen zunächst die kontraintuitive Eigenschaft eines Stop-and-Wait-Protokolls, dass die Anzahl der im Netzwerk gespeicherten Pakete unbegrenzt wachsen kann. Dies gilt für alle positiven Werte der maximalen Sequenznummer und der maximalen Anzahl von Neuübertragungen. Wir zeigen weiterhin, dass Paketverluste möglich sind und Duplikate vom Empfänger als neue Pakete akzeptiert werden können. Diese ersten drei Eigenschaften gelten, obwohl Sender und Empfänger wahrnehmen, dass das Protokoll korrekt funktioniert. Das letzte Problem besteht darin, dass das Protokoll den Stop-and-Wait-Dienst nicht erfüllt, bei dem abwechselnd gesendet und empfangen wird. Abschließend diskutieren wir die Relevanz dieser Ergebnisse für das Transmission Control Protocol.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39979-7_14 b118e654f3e3783c032f7ae96dd16fad;de;;;7.3.;;;Informationsextraktion aus heterogenen Websites mit zusätzlicher Suche nach verwandten Inhalten basierend auf einem instanziierten Beispiel eines Benutzers Seit dem Wachstum des Internets hat sich das WorldWide Web in letzter Zeit zu einer bedeutenden Infrastruktur in verschiedenen Bereichen wie Wirtschaft, Handel, Bildung usw. Dementsprechend hat ein Benutzer Informationen unter Verwendung des Internets gesammelt. Aufgrund der Flut von Webseiten wird es jedoch für einen Benutzer schwierig, wünschenswerte Informationen zu sammeln. Fortgeschrittene Websuchmaschinen können bis zu einem gewissen Grad eine Lösung bieten, es ist jedoch immer noch Sache eines Benutzers, aussagekräftige Informationen aus solchen Abrufergebnissen zusammenzufassen oder zu extrahieren. Basierend auf diesen Gesichtspunkten haben wir eine Methode zur Generierung von Daten im Tabellenstil von heterogenen Webseiten angesprochen, die die Absicht eines Benutzers widerspiegelt. Wenn die Originalseiten jedoch weniger Informationen enthalten, extrahiert unser System möglicherweise nicht genügend Informationen. Um dieses Problem zu beheben, wenden wir eine Methode an, die automatisch verwandte Seiteninhalte durchsucht. Wir wenden diese Methode auf Shopping-Sites an und das experimentelle Ergebnis zeigt, dass sie die Erinnerungsrate verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14883-5_75 68806165ccf6ab2954dd4f2c2740cc6d;de;;;7.3.;;;Die Anwendung des verbesserten selbstorganisierenden neuronalen Quantennetzwerkmodells beim Mining im Zugriffsmodus von Webbenutzern In diesem Artikel stellte ein Modell des Zugriffsmodus-Minings für Webbenutzer vor, das auf einem verbesserten selbstorganisierenden neuronalen Quantennetz basiert, eine Reihe von Interessenproblemen des Minings von Webbenutzern löste, verwandte Überlagerungsmerkmale von Quantenzuständen verwendete, die Operationen automatische Klassifizierung und statistische Analyse, Ausgabe einiger Neuronen, deren Zugehörigkeitsgrad höher als der Schwellenwert ist Testergebnisse zeigen, dass das verbesserte Modell machbar ist, eine stärkere Modellgeneralisierungsfähigkeit und Generalisierungsfähigkeit im Fall von ausreichenden Trainingsbeispielen aufweist, Clustering-Operationen für Webbenutzer besser durchführen kann, dynamisch personalisierte Webseiten für verschiedene Klassen von Webbenutzern generiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31968-6_46 68db81116216b36d14605a57cdc77169;de;;;7.3.;;;Modellierung von Benutzerpräferenzen aus positiven Inhalten für personalisierte Empfehlungen Mit der Verbreitung des Webs können Benutzer eine Vielzahl von Informationen erhalten und in Echtzeit auf neue Inhalte zugreifen. In dieser Umgebung wird das Auffinden nützlicher Informationen aus einer riesigen Menge verfügbarer Inhalte zu einem zeitaufwendigen Prozess. In diesem Papier konzentrieren wir uns auf die Benutzermodellierung zur Personalisierung, um Inhalte zu empfehlen, die für die Benutzerinteressen relevant sind. Techniken, die für Assoziationsregeln beim Ableiten von Benutzerprofilen verwendet werden, werden ausgenutzt, um nützliche und sinnvolle Benutzermuster zu entdecken. Jeder Benutzerpräferenz werden die häufigen Begriffsmuster, zusammenfassend PTP (personalisiertes Begriffsmuster) genannt, und die Präferenzbegriffe, genannt PT (personalisierter Begriff), präsentiert. Außerdem wird ein inhaltsbasierter Filteransatz verwendet, um Inhalte entsprechend den Benutzerpräferenzen zu empfehlen. Um die Leistung der vorgeschlagenen Methode zu bewerten, vergleichen wir experimentelle Ergebnisse mit denen eines probabilistischen Lernmodells und eines Vektorraummodells. Die experimentelle Auswertung auf;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75488-6_12 b06cf1d761832cc8b1ba699320283642;de;;;7.3.;;;Priority Forcing Scheme: Eine neue Strategie, um einen besseren Service als Best Effort in einem IP-basierten Netzwerk zu erhalten Das Papier beschreibt eine neue Strategie zur Generierung von Quelldatenverkehr mit dem Namen Priority Forcing Scheme (PFS), die für Internetnutzer attraktiv sein kann, um ihren Datenverkehr mit einer besseren Qualität zu übertragen, als dies in aktuellen IP-basierten Netzwerken verfügbar ist, in denen der beste Dienst der beste ist einziger. Das PFS-Schema geht davon aus, dass eine Anwendung, die als PFS-Anwendung bezeichnet wird, ein zusätzliches Verkehrsvolumen an das Netzwerk sendet, um die Reservierungen für den Datenverkehr in den überlasteten Router-Warteschlangen entlang des Paketpfads im Netzwerk vorzunehmen. Die emittierten redundanten Pakete, genannt R-Pakete, sollten im Vergleich zu den Datenpaketen, genannt D-Pakete, eher klein sein. Das PFS-Schema nimmt an, dass die in einer Warteschlange wartenden R-Pakete durch die ankommenden D-Pakete ersetzt werden können, die zu demselben Fluss gehören. Auf diese Weise können die D-Pakete im Vergleich zu den Paketen, die von einer Nicht-PFS-Anwendung erzeugt werden, einen priorisierten Dienst erfahren. Beachten Sie, dass die vorgeschlagene Lösung keine im Netzwerk implementierten QoS-Mechanismen (Quality of Service) erfordert, wie z. B. Scheduler, Dropping, Marking usw., mit Ausnahme der Identifizierung und des Ersetzens von R- und D-Paketen. Das Papier diskutiert verschiedene Strategien zum Senden zusätzlicher R-Pakete. Eingeschlossene Simulationsergebnisse zeigen, dass der von einer PFS-Anwendung ausgegebene Verkehr besser sein kann als der Best-Effort-Dienst, der im Grenzfall wie der Verkehr mit der höchsten Priorität behandelt wird. Abhängig vom Volumen des redundanten Datenverkehrs kann ein unterschiedlicher Grad an priorisiertem Dienst erreicht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35616-7_11 7e7d0904169c31dc3c9a36a63deb3af9;de;;;7.3.;;;Ergebniszusammenführungsalgorithmus unter Verwendung mehrerer Regressionsmodelle Dieses Papier beschreibt einen neuen Algorithmus zum Zusammenführen der Ergebnisse von entfernten Sammlungen in einer verteilten Informationsabrufumgebung. Der Algorithmus verwendet nur die Ränge der zurückgegebenen Dokumente, was ihn in Umgebungen sehr effizient macht, in denen die entfernten Sammlungen ein Minimum an Zusammenarbeit bieten. Unter der Annahme, dass die Korrelation zwischen den Rängen und den Relevanzbewertungen durch eine logistische Funktion ausgedrückt werden kann und unter Verwendung von abgetasteten Dokumenten aus den entfernten Sammlungen weist der Algorithmus den zurückgegebenen bewerteten Dokumenten lokale Bewertungen zu. Anschließend vergibt es anhand einer zentralen Stichprobensammlung und durch lineare Regression globale Scores und erstellt so eine endgültige zusammengeführte Dokumentenliste für den Benutzer. Die Effektivität des Algorithmus wird an zwei hochmodernen Algorithmen zur Zusammenführung von Ergebnissen gemessen und seine Leistung ist diesen in Umgebungen überlegen, in denen die Remote-Sammlungen keine Relevanzbewertungen liefern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71496-5_18 75d37cbe2edd7038f65afff3bd0c91d5;de;;;7.3.;;;Personalisierte Erkennung von neuen Inhalten und zeitliche Anmerkungen für eine verbesserte Seitenaufrufung Das erneute Aufrufen von Seiten ist eine beliebte Surfaktivität im Web. In diesem Dokument beschreiben wir eine Methode zur Verbesserung des erneuten Besuchs von Seiten, indem die Informationen auf durchsuchten Webseiten, die für einen Benutzer frisch sind, erkannt und hervorgehoben werden. Die Aktualität des Inhalts wird anhand des Vergleichs mit den zuvor angezeigten Versionen der Seiten bestimmt. Jeder neue Inhalt für den Benutzer wird markiert, sodass der Benutzer ihn schnell erkennen kann. Wir beschreiben auch einen Mechanismus, um Benutzer visuell über den Aktualitätsgrad verlinkter Seiten zu informieren. Durch die Anzeige der Aktualität des Inhalts auf verlinkten Seiten ermöglicht das System den Benutzern, effektiver im Web zu navigieren. Schließlich schlagen und demonstrieren wir das Konzept der benutzerabhängigen, subjektiven Altersbestimmung von Seiteninhalten. Bei dieser Methode werden Elemente von Webseiten mit Datumsangaben versehen, die angeben, wann der Benutzer zum ersten Mal auf die Elemente zugegriffen hat.;-;-;-;https://link.springer.com/chapter/10.1007/11827405_81 3e9a9786039c1e700d4d88e3050b2d10;de;;;7.3.;;;Verloren, aber nicht vergessen: Seiten im nicht archivierten Web finden Webarchive versuchen, das sich schnell verändernde Web zu bewahren, aber sie werden immer unvollständig sein. Aufgrund von Einschränkungen bei der Crawling-Tiefe, Crawling-Häufigkeit und restriktiven Auswahlrichtlinien werden große Teile des Webs nicht archiviert und gehen daher für die Nachwelt verloren. In diesem Papier schlagen wir einen Ansatz vor, um nicht archivierte Webseiten und Websites aufzudecken und verschiedene Arten von Beschreibungen für diese Seiten und Websites basierend auf Links und Ankertext in den gecrawlten Seiten zu rekonstruieren. Wir experimentieren mit diesem Ansatz im niederländischen Webarchiv und bewerten die Nützlichkeit von Darstellungen nicht archivierter Inhalte auf Seiten- und Hostebene. Unsere wichtigsten Ergebnisse sind die folgenden: Erstens enthält das gecrawlte Web Beweise für eine bemerkenswerte Anzahl nicht archivierter Seiten und Websites, wodurch die Abdeckung eines Webarchivs möglicherweise dramatisch erhöht wird. Zweitens weisen Link- und Ankertext eine stark verzerrte Verteilung auf: Beliebte Seiten wie Homepages haben mehr darauf verweisende Links und mehr Begriffe im Ankertext, aber die Fülle lässt schnell nach. Das Aggregieren von Webseiten-Beweisen auf Host-Ebene führt zu deutlich reichhaltigeren Darstellungen, aber die Verteilung bleibt verzerrt. Drittens ist die prägnante Darstellung im Allgemeinen reichhaltig genug, um Seiten im nicht archivierten Web eindeutig zu identifizieren: In einer Sucheinstellung nach bekannten Elementen können wir nicht archivierte Webseiten im Durchschnitt auf den ersten Rängen finden, wobei Darstellungen auf Host-Ebene zu einer weiteren Verbesserung des Abrufs führen Wirksamkeit für Websites.;-;-;-;https://link.springer.com/article/10.1007/s00799-015-0153-3 4c98015997b19f9893f0066bc631e0fd;de;;;7.3.;;;Lernen, Web-Spam durch genetische Programmierung zu erkennen Web-Spam-Techniken ermöglichen es einigen Webseiten oder Sites, eine unverdiente Relevanz und Bedeutung zu erlangen. Sie können die Ergebnisse des Suchmaschinen-Rankings ernsthaft verschlechtern. Die Bekämpfung von Web-Spam ist zu einer der größten Herausforderungen für die Websuche geworden. Dieses Papier schlägt vor, eine Unterscheidungsfunktion zu erlernen, um Web-Spam durch genetische Programmierung zu erkennen. Die Evolutionsberechnung verwendet Multipopulationen, die aus einigen kleinen Individuen bestehen, und kombiniert die ausgewählten besten Individuen in jeder Population, um eine mögliche beste Unterscheidungsfunktion zu erhalten. Die Experimente mit WEBSPAM-UK2006 zeigen, dass der Ansatz die Erinnerungsleistung der Spam-Klassifizierung um 26 %, die Leistung der F-Messung um 11 % und die Genauigkeitsleistung um 4 % im Vergleich zu SVM verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14246-8_5 4109002116ecf1f1d3b52eeb76bb8915;de;;;7.3.;;;MIRACLE auf der WebCLEF 2005: Kombination von webspezifischen und sprachlichen Informationen Dieses Papier beschreibt den MIRACLE-Ansatz für WebCLEF. Für jede Top-Level-Domain der EuroGOV-Sammlung wurde ein Satz unabhängiger Indizes erstellt. Jeder Index enthält aus dem Dokument extrahierte Informationen wie URL, Titel, Schlüsselwörter, erkannte benannte Entitäten oder HTML-Header. Diese Indizes werden abgefragt, um partielle Dokumentenrankings zu erhalten, die mit verschiedenen relativen Gewichtungen kombiniert werden, um den Wert jedes Index zu testen. Das letzte Ziel besteht darin, zu ermitteln, welcher Index (oder eine Kombination davon) für eine Suchaufgabe relevanter ist, um die Erstellung eines Volltextindex zu vermeiden.;-;-;-;https://link.springer.com/chapter/10.1007/11878773_95 c80955dd98035ea9510fe9d1a6f31e65;de;;;7.3.;;;Bewältigung der globalen Herausforderungen bei der Reaktion auf Sicherheitsvorfälle Die Reaktion auf Computersicherheitsvorfälle ist zu einer kritischen Funktion innerhalb eines IT-Programms jedes Unternehmens geworden. Diese Vorfälle bedrohen nicht nur die Computerausrüstung, sondern auch die Stabilität von Einrichtungen wie kleinen bis großen Regierungen oder Versorgungsunternehmen, die eine große Bevölkerung versorgen. Immer wieder treten neue Arten von sicherheitsbezogenen Vorfällen auf, und weltweit finden massive Aktivitäten statt, um Verstöße gegen Sicherheitsrichtlinien oder empfohlene Sicherheitspraktiken zu mindern. Trotz der konzertierten Bemühungen vieler Organisationen hinken Komplettlösungen immer noch hinterher. In vielen Industrienationen nehmen proaktive oder vorausschauende Forschungs- und Planungsaktivitäten zu. Sie scheinen jedoch nicht in der Lage zu sein, einen unerwarteten globalen Vorfall zu bewältigen, bevor sie einen erheblichen Schaden anrichten. Was können die globalen sicherheitsbewussten Organisationen und Gemeinschaften tun? Dieses Papier soll dazu beitragen, eine Podiumsdiskussion unter Leitung des Erstautors mit den Mitgliedern der IFIP WG9.6/11.7 „IT Misuse and the Law“ vorzubereiten.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-8143-X_7 ff4762b93e44f224788e6f33dd9b22a7;de;;;7.3.;;;Entwicklungsstand und bestehende Probleme der Energie-Internet-Industrie Energie Internet-Industrie bezieht sich auf ein neues Industriemodell, einschließlich traditioneller Energie und neuer Energie, das auf Internet-Technologie und Kommunikationstechnologie beruht, um eine effiziente Verteilung von Energie und Wertschöpfung zu erreichen. Gegenwärtig befindet sich die Energie-Internet-Branche in der ersten Entwicklungsphase. China hat die Keimung der Energie-Internet-Industrie hervorgebracht, und der Entwicklungstrend ist gut, aber es gibt immer noch einige Probleme. Dieses Papier konzentriert sich auf fünf Arten von Energie-Internet-Branchen im Zusammenhang mit der Elektrizitätswirtschaft, nämlich Fahrzeug-Netzwerkindustrie, verteilte Energieindustrie, Smart Home-Industrie, Smart Grid-Industrie und Energiespeicherindustrie. Es untersucht und analysiert den Entwicklungsstand und die Probleme dieser Energie-Internet-Industrien unter drei Aspekten: Industriekette, Industriemaßstab und bestehende Probleme und unterbreitet Vorschläge für die Entwicklung der Energie-Internet-Industrie.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3250-4_137 cddd0a238eb170db56b7d43cb1e17ba7;de;;;7.3.;;;Community-Discovery-Algorithmus und seine technische Verbesserung basierend auf der Linkstruktur – am Beispiel des Web-Community-Algorithmus Die Linkanalyse ist ein wichtiger Weg, um potenzielle Web-Communitys zu entdecken. Dieses Papier analysiert die Eigenschaften der Web-Link-Struktur und untersucht den traditionellen Maximum-Flow-Algorithmus und den Maximum-Flow-Algorithmus basierend auf dem HITS-Algorithmus für die Edge-Kapazitätszuweisung. Das traditionelle Problem des maximalen Durchflusses, aber es gibt immer noch Mängel. Basierend auf der Analyse bestehender Link-Ähnlichkeitsdefinitionen schlägt dieses Papier eine neue Definition von Link-Ähnlichkeit und Themen-Unähnlichkeit vor, um die Beziehung zwischen verlinkten Seiten besser zu beschreiben und basierend auf Link-Ähnlichkeit und Themen-Unähnlichkeit zu messen. Die Ähnlichkeit der Seiten ergibt ein angemesseneres und effizienteres Zuweisungsschema für maximale flussseitige Kapazität. Die Community-Entdeckung von 6 Themen zeigt, dass der in diesem Papier vorgeschlagene Maximum-Flow-Algorithmus, der das Link-Ähnlichkeits- und Themen-Unähnlichkeitsmodell verwendet, um die Edge-Kapazität zuzuweisen, die Probleme bestehender Algorithmen besser lösen und die Qualität der Web-Community signifikant verbessern kann. Dieses Papier schlägt neue Methoden und Ideen für die Seitenähnlichkeitsmessung vor und bietet neue Strategien zur Verbesserung des Web-Community-Erkennungsalgorithmus basierend auf der Linkanalyse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-53980-1_23 b52d237a00cf1fa1c70994467631f906;de;;;7.3.;;;Metadata Squared: Verbesserung der Nutzbarkeit für freiwillige geografische Informationen und das GeoWeb Das Internet hat viele Veränderungen in der Art und Weise mit sich gebracht, wie geographische Informationen erstellt und geteilt werden. Ein Aspekt, der sich nicht geändert hat, sind Metadaten. Statische Geodatenqualitätsbeschreibungen wurden Mitte der 1990er Jahre standardisiert und können dem aktuellen Klima der Datenerstellung nicht gerecht werden, in dem Nichtexperten Mobiltelefone und andere ortsbezogene Geräte ständig verwenden, um Daten zu Internet-Kartierungsplattformen beizutragen. Die Verwendbarkeit von Standard-Georaum-Metadaten wird von Akademikern und Neogeographen gleichermaßen in Frage gestellt. In diesem Kapitel werden aktuelle Diskussionen über Metadaten analysiert, um zu zeigen, wie sich die stattfindende Medienverschiebung auf die Anforderungen an Metadaten ausgewirkt hat. Zwei Fallstudien zur Verwendung von Metadaten werden vorgestellt – der Online-Austausch von Umweltinformationen durch eine regionale Geodateninfrastruktur in den frühen 2000er Jahren und neue Arten von Metadaten, die heute in OpenStreetMap verwendet werden, einer vollständig von Freiwilligen erstellten Weltkarte. Geänderte Metadatenanforderungen werden hinsichtlich der Benutzerfreundlichkeit untersucht, wie leicht Metadaten die Koproduktion von Daten durch Benutzergemeinschaften unterstützen, wie Metadaten die Auffindbarkeit verbessern und wie sich die Beziehung zwischen Metadaten und Daten verändert hat. Wir argumentieren, dass traditionelle Metadaten in Verbindung mit Geodateninfrastrukturen unzureichend sind und schlagen mehrere Forschungswege vor, um diese Art von Metadaten im GeoWeb interaktiver und effektiver zu machen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-4587-2_4 9bfe98420532ae69d6672a431ac2fe36;de;;;7.3.;;;GroupScape: Integration von synchroner Groupware und dem World Wide Web Synchrone Groupware-Anwendungen unterstützen die Zusammenarbeit in Echtzeit über Distanz. Das World Wide Web unterstützt die asynchrone Zusammenarbeit, indem es Menschen ermöglicht, verteilte Informationsspeicher gemeinsam zu nutzen. Dieses Papier stellt eine neue Technik zum Erstellen von Anwendungen vor, die synchrone Groupware eng mit dem World Wide Web integrieren. Die Kernpunkte der Technik sind: Zwei neue HTML-Tags ermöglichen die Einbettung von synchronen Ansichten in WWW-Seiten;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35175-9_82 f2772b74ef74ab45df11b623d2c2a73b;de;;;7.3.;;;Web-Spam-Erkennung durch Wahrscheinlichkeitszuordnung von GraphSOMs und Graph Neural Networks In diesem Papier werden wir auf die Aufgabe der Erkennung von Web-Spam eine Kombination der besten Algorithmen ihrer Art zur Verarbeitung von Graph-Domain-Eingabedaten anwenden, nämlich selbstorganisierende Karten von Wahrscheinlichkeits-Mapping-Graphen und neuronale Graphennetze. Die beiden konnektionistischen Modelle sind in einer mehrschichtigen Architektur organisiert, die aus einer Mischung aus unüberwachten und überwachten Lernmethoden besteht. Es zeigt sich, dass die Ergebnisse dieses geschichteten Architekturansatzes mit den besten Ergebnissen vergleichbar sind, die bisher von anderen mit sehr unterschiedlichen Ansätzen erzielt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15822-3_45 c8c77940601680e050944d3455cee14f;de;;;7.3.;;;Instanzennavigation zum Abfragen integrierter Daten von Websites Die Forschung zur Datenintegration hat eine Reihe umfassender und gut verstandener Schemavermittlungssprachen und -systeme bereitgestellt, die eine Metadatendarstellung der modellierten realen Welt bereitstellen, während sie im Allgemeinen keine Dateninstanzen behandeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74063-6_10 98ec75ce8596f8b912db63ec064bc8f2;de;;;7.3.;;;Conversation Map: Ein inhaltsbasierter Usenet-Newsgroup-Browser Das Conversation Map-System ist ein Usenet-Newsgroup-Browser, der den Text eines Archivs von Newsgroup-Nachrichten analysiert und eine grafische Oberfläche ausgibt, mit der die Nachrichten des Archivs gesucht und gelesen werden können. Das System enthält eine Reihe neuartiger Textanalyseverfahren, die automatisch (;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0057-7_5 3ad2626ef9615c34f6b6d0235f0ff082;de;;;7.3.;;;Datengesteuerte XPath-Generierung Die Abfragesprache XPath bietet einen Standard für die Informationsextraktion aus HTML-Dokumenten. Daher wird typischerweise die DOM-Baumdarstellung verwendet, die die hierarchische Struktur des Dokuments modelliert. Einer der Schlüsselaspekte von HTML ist die Trennung von Daten und der Struktur, die zu ihrer Darstellung verwendet wird. Eine Folge davon ist, dass Datenextraktionsalgorithmen normalerweise keine Daten identifizieren, wenn die Struktur eines Dokuments geändert wird. In diesem Beitrag wird untersucht, wie ein Satz tabellarischer XPath-Abfragen so angepasst werden kann, dass er mit Änderungen im DOM-Baum eines HTML-Dokuments umgeht. Die Grundidee dabei ist, dass, wenn in der Vergangenheit bereits Daten extrahiert wurden, XPath-Abfragen rekonstruiert werden können, die die Daten aus einem anderen DOM-Baum abrufen. Experimentelle Ergebnisse zeigen die Genauigkeit unserer Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11313-5_50 54ac41228e05bfacfaa60dc1ea4e3520;de;;;7.3.;;;Studie der Schlüsseltechnologie der Geo-Hazard-Plattform zum Austausch von Geodaten in der Meizoseismal-Region der Erdbebenzone von Wenchuan Mit großen Veränderungen des Weltklimas und ungewöhnlichen und extremen Wetterbedingungen in den letzten Jahren ereignet sich die geologische Katastrophe häufiger als je zuvor, so dass die Menschen der Verteidigung und Verringerung der Geokatastrophe für die gesellschaftliche wirtschaftliche Entwicklung insbesondere nach dem großen Erdbeben immer mehr Bedeutung beimessen in Wenchuan, Provinz Sichuan. Als große Strategieinformationsquelle unseres Landes sind Geogefahreninformationen die Schlüsseltechnologie im Bereich der Regierungsentscheidungen, die in einem Projekt eine wichtige Rolle spielen. Wie man es benutzt, ist zum Hauptproblem geworden. Die Erschließung neuer Industrien und die Förderung der Lebensbedingungen macht den auf Geoinformationen basierenden Dienst sehr gefragt. Die Serviceplattform für den Geo-Hazard-Dienst zum Austausch von Geodaten soll eine grundlegende Umgebung für den Austausch von Geodaten aufbauen. In dieser Umgebung werden die Informationen in Form von Webdiensten für Behörden, Unternehmen und die Öffentlichkeit weitergegeben, sofern die geologischen Gefahrenspezifikationen und -standards eingehalten werden. Tatsächlich wurden mit der Entwicklung der Internettechnologie und des Cloud Computing erste Ergebnisse zum Problem des geografischen Informationsaustauschs erzielt und entsprechende Evaluierungsarbeiten durchgeführt. Basierend auf der Idee der Disaster-Ontologie wird das geografische Shared-Service-Framework entworfen und erläutert, das mithilfe von Datenkatalogregeln an die Wenchuan-Zone angepasst wird. Das Geo-Shared-Service-Modell wird vom Geo-hazard Spatial Information Sharing Service Model abgeleitet. Das Design der Serviceschnittstelle wird erläutert. Die Bewertung und Anwendung sowie der effektive Systemtest werden basierend auf dem Wenchuan-Geokatastrophenbewertungs- und Anwendungssystem abgeschlossen.;-;-;-;https://link.springer.com/article/10.1007/s12652-020-02117-5 a7707cc908643ecd4ef7c43e25d3c64d;de;;;7.3.;;;Ein verbessertes kooperatives Modell von P2P und ISP P4P (Provider Portal for Applications) ist ein Modell, das darauf abzielt, P2P mit ISP zu integrieren und die Leistung sowohl des ISP als auch der P2P-Anwendungen zu verbessern. In dieser Studie analysieren wir die Beziehung zwischen dem Link-Traffic und der P-Distanz, die die Kernschnittstelle von P4P darstellt, und veranschaulichen den Nachteil von P4P im Umgang mit Netzwerktopologien mit Engpass-Links. Weiter mit;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-53959-6_9 84540b72a022dd7c0a33f0cebe06eca3;de;;;7.3.;;;Ein System zum Konstruieren eines Interessenmodells von Benutzern basierend auf Informationen in einer durchsuchten Webseite durch Benutzer Heutzutage erwarten sie, dass Computer die Eigenschaften des Benutzers verstehen, beispielsweise Interesse und Vorliebe, mit Computern zu interagieren. In dieser Studie konstruierten wir ein System zum Konstruieren eines Interessenmodells des Benutzers basierend auf Informationen in durch den Benutzer durchsuchten Webseiten durch Extrahieren von Wörtern und Zwischenwortbeziehungen. In diesem Modell werden Metadaten an Wörter und Beziehungen zwischen Wörtern angehängt. Arten von Metadaten von Wörtern sind sechs, persönlicher Name, Firmenname, Site-Name, Name der Ware, Produktname und Standortname. Und Metadaten von Beziehungen zwischen Wörtern werden vorbereitet, um die Beziehungen dieser Wörter zu klären. Dieses System erstellt eine Karte, indem es dieses Modell visualisiert. Und dieses System verfügt über Funktionen zum Zoomen und Ändern dieser Karte. Wir haben die Wirksamkeit dieses Systems durch die Verwendung von Bewertungsexperimenten gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02580-8_33 08e9ec0b9a16a267eaa1892b1322567c;de;;;7.3.;;;Augenbeobachtungsstudien zu Fernsehnachrichten und dem Web konvergieren: Eine Geschichte von zwei Bildschirmen Die Verschmelzung der „Lay-Back-Kultur des Wohnzimmers mit dem geschäftigen Treiben des Lean-Forward-Net“ [367] ist im Gange. Das amerikanische Fernsehen sieht dem Web sehr ähnlich, und das Web sieht immer mehr wie das Fernsehen aus. Diese visuelle Konvergenz wird sich wahrscheinlich mit der bevorstehenden Durchdringung des interaktiven Fernsehens (iTV) auf dem US-Markt und dem Wachstum von „Web 2.0“-Sites beschleunigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75412-1_18 d7bc78a4b2cce1522481b5e4738f15eb;de;;;7.3.;;;So halten Sie Ihren Kopf über Wasser, während Sie Fehler erkennen Heutige verteilte Systeme benötigen eine Laufzeitfehlererkennung, um Fehler aufgrund von Softwarefehlern, Hardwarefehlern oder unerwarteten Betriebsbedingungen zu erkennen. Eine bekannte Klasse von Fehlererkennungstechniken arbeitet zustandsbehaftet, d. h. sie verfolgt den Zustand der überwachten Anwendung und stimmt dann zustandsbasierte Regeln ab. Groß angelegte verteilte Anwendungen erzeugen eine große Menge an Nachrichten, die die Kapazität eines zustandsbehafteten Erkennungssystems überfordern können. Ein existierender Ansatz, dies zu handhaben, besteht darin, die Nachrichten zufällig abzutasten und eine Teilmenge zu verarbeiten. Dieser Ansatz führt jedoch zu einem Nichtdeterminismus in Bezug auf die Sicht des Erkennungssystems auf den Zustand der Anwendung. Dies führt wiederum zu einer Verschlechterung der Erkennungsqualität. Wir präsentieren eine;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10445-9_11 3736502a0e507ca1a76886c0e37ded34;de;;;7.3.;;;Ein Ansatz zur Sentimentanalyse von unstrukturierten Daten in Big-Data-Umgebungen Ein enormes Wachstum des WWW hat maßgeblich zur Verbreitung sozialer Netzwerke beigetragen. Durch die vielfache Zunahme der Internetnutzer, die Online-Rezensionen und Meinungen annehmen, haben die Kommunikation, der Austausch und die Zusammenarbeit über soziale Netzwerke an Bedeutung gewonnen. Das schnelle Wachstum webbasierter Aktivitäten hat zur Erzeugung riesiger Mengen unstrukturierter Daten geführt, die über 80 % der Informationen ausmachen. Die Nutzung von Big Data-Alternativen bei der Speicherung, Verarbeitung, Archivierung und Analyse dieser Daten wird zunehmend notwendig.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-3433-6_21 435e91f319ea7103ee1a7770b475674a;de;;;7.3.;;;Vertrauenswürdige Stichwortsuche für Compliance-Speicher Der intensive regulatorische Fokus auf die sichere Aufbewahrung elektronischer Aufzeichnungen hat dazu geführt, dass die Aufzeichnungen vertrauenswürdig sind, d. h. in der Lage sind, unwiderlegbare Beweise und genaue Details vergangener Ereignisse zu liefern. In diesem Papier analysieren wir die Anforderungen an einen vertrauenswürdigen Index zur Unterstützung schlüsselwortbasierter Suchanfragen. Wir argumentieren, dass vertrauenswürdige Indexeinträge dauerhaft sein müssen – der Index muss aktualisiert werden, wenn neue Dokumente eingehen, und darf nicht regelmäßig gelöscht und neu erstellt werden. Zu diesem Zweck schlagen wir ein Schema zur effizienten Aktualisierung eines invertierten Indexes vor, das auf einer sinnvollen Zusammenführung der Posting-Listen von Begriffen basiert. Durch umfangreiche Simulationen und Experimente mit zwei realen Datensätzen und Workloads zeigen wir, dass das Schema eine Online-Aktualisierungsgeschwindigkeit erreicht und gleichzeitig eine gute Abfrageleistung beibehält. Wir präsentieren und bewerten auch;-;-;-;https://link.springer.com/article/10.1007/s00778-007-0069-7 779f4d3c30fefbeb4d05fbfbdcf85e64;de;;;7.3.;;;Selbstorganisierende Ansätze für großflächige Spray-Multiagent-Systeme Große Multiagentensysteme werden die Schlüsselsoftwaretechnologie sein, die mehrere zukünftige Anwendungsszenarien antreibt. Wir stellen uns eine Zukunft vor, in der Wolken von Mikrocomputern in eine Umgebung gesprüht werden können, um durch spontane Vernetzung eine endlose Palette futuristischer Anwendungen bereitzustellen. Neben dieser Vision werden ähnliche groß angelegte „Spray“-Multiagentensysteme in mehreren anderen Szenarien eingesetzt, die von Ad-hoc-Netzwerken eingebetteter und mobiler Geräte bis hin zu weltweit verteilten Computern reichen. Alle diese Szenarien weisen aus Sicht der Anwendungsentwicklung starke Gemeinsamkeiten auf, und neue Ansätze und Methoden werden wahrscheinlich bis zu einem gewissen Grad auf alle angewendet werden. Insbesondere argumentieren wir, dass die Probleme im Zusammenhang mit dem Design und der Entwicklung solcher Spray-Multiagent-Systeme neue Ansätze erfordern, die die Selbstorganisation als erstklassige Werkzeuge nutzen. In diesem Zusammenhang untersuchen wir weltweit eine Reihe von Forschungsprojekten, die versuchen, Selbstorganisation auf große Multiagentensysteme anzuwenden. Schließlich versuchen wir, eine grobe Forschungsagenda zu definieren, die – langfristig – diese Ideen integrieren sollte, um eine allgemeine und besser bewertete Methodik für groß angelegte Spray-Multiagent-Systeme zu entwickeln, die mehrere Anwendungsdomänen übergreifend sind.;-;-;-;https://link.springer.com/chapter/10.1007/11738817_4 7644786c8d203848d3824680b4052384;de;;;7.3.;;;Verbesserung der arabischen Informationssuche durch Ähnlichkeiten bei der Worteinbettung Term-Mismatch ist eine häufige Einschränkung traditioneller Information-Retrieval-(IR)-Modelle, bei denen Relevanzbewertungen basierend auf exakter Übereinstimmung von Dokumenten und Abfragen geschätzt werden. Typischerweise sollte ein gutes IR-Modell unterschiedliche, aber semantisch ähnliche Wörter im Matching-Prozess berücksichtigen. In diesem Artikel schlagen wir eine Methode vor, um semantische Ähnlichkeiten der Worteinbettung (WE) in bestehende probabilistische IR-Modelle für Arabisch zu integrieren, um mit Begriffsfehlanpassungen umzugehen. Experimente werden mit der arabischen Standard-TREC-Sammlung unter Verwendung von drei neuronalen Worteinbettungsmodellen durchgeführt. Die Ergebnisse zeigen, dass die Erweiterung der bestehenden IR-Modelle die Basismodelle der Bag-of-Words-Modelle signifikant verbessert. Obwohl die vorgeschlagenen Erweiterungen ihre Grundlinien-Wörtersammlung deutlich übertreffen, ist der Unterschied zwischen den bewerteten neuronalen Worteinbettungsmodellen statistisch nicht signifikant. Darüber hinaus zeigen die Gesamtvergleichsergebnisse, dass unsere Erweiterungen den arabischen WordNet-basierten semantischen Indexierungsansatz und drei neuere WE-basierte IR-Sprachmodelle erheblich verbessern.;-;-;-;https://link.springer.com/article/10.1007/s10772-018-9492-y e943eb40e821ada5f98b14c1337f9290;de;;;7.3.;;;Ein Framework für kooperatives Inter-Domain-QoS-Routing Derzeit besteht ein einfacher Weg zum Entwerfen von BGP-basierten Traffic Engineering (TE)-Tools für autonome Stub-Systeme (AS) darin, sich auf egoistische Routing-Mechanismen zu verlassen. Obwohl TE-Tools eine optimale Lösung finden können, stellt dieses Optimum nur ein lokales Optimum für ausgehenden Verkehr dar. Dies ist in der Tat eine der Haupteinschränkungen des egoistischen Routing-Ansatzes. Bei diesem Ansatz sind sich die TE-Tools aufgrund unkoordinierter Routing-Entscheidungen der Auswirkungen ihrer Routenwahl auf Transit-AS über die gewählten Pfade nicht bewusst, und es kann zu Staus auf entfernten Intra- oder Inter-Domain-Links kommen. Somit ist die Zusammenarbeit zwischen den AS der Schlüssel zur Vermeidung der Leistungsverschlechterung und der Routing-Instabilität, die durch den egoistischen Routing-Ansatz verursacht werden, und wäre für das zukünftige QoS-bewusste Internet grundlegend. Mit diesen Zielen im Hinterkopf präsentiert und diskutiert dieses Papier einen Rahmen für koordinierte QoS-Routing (QoSR)-Entscheidungen zwischen Stub- und Downstream-AS unter Berücksichtigung mehrerer QoS-Einschränkungen und Routing-Präferenzen. Das Papier enthält eine Beschreibung der wichtigsten Mechanismen und Algorithmen, die das Framework integrieren, und schließlich eine Diskussion der Implementierungsprobleme.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-31170-X_7 752302db1f3d124e2703cddc0644ebbc;de;;;7.3.;;;Automatische Klassifizierung von Isolatoren durch Kombination des k-nearest-neighbor-Algorithmus mit Multi-Type-Funktion für das Internet der Dinge Neue Algorithmen und Architekturen im Kontext von 5G sollen erforscht werden, um die Effizienz, Robustheit und Konsistenz in variablen Anwendungsumgebungen zu gewährleisten, die unterschiedliche Themen wie Smart Grid, Wasserversorgung, Gasüberwachung usw. betreffen kann durch eine Vielzahl von Sensoren viele Bilder erhalten und durch die Analyse von Bildern den sicheren Betrieb des Smart Grid gewährleisten. Die Merkmalsextraktion ist entscheidend, um Isolatoren im Luftbild zu identifizieren. Bestehende Ansätze haben dieses Problem in erster Linie durch die Verwendung eines einzigen Merkmalstyps, wie zum Beispiel Farbmerkmal, Texturmerkmal oder Formmerkmal, angegangen. Ein einzelner Merkmalstyp führt jedoch in der Regel zu schlechten Klassifizierungsraten und einer verfehlten Erkennung bei der Identifizierung von Isolatoren. Mit dem Ziel, die Eigenschaften von Isolatoren vollständig zu beschreiben und die Robustheit des Isolators vor dem komplexen Hintergrund in Luftbildern zu verbessern, kombinieren wir drei Merkmalstypen, einschließlich Farbmerkmal, Texturmerkmal und Formmerkmal, zu einem Multitypmerkmal. Dann wird die Multi-Type-Funktion integriert mit;-;-;-;https://link.springer.com/article/10.1186/s13638-018-1195-1 b1dbaf4daac7f3c7f3e621059ca77c33;de;;;7.3.;;;Ein semantisches E-Wallet, um Privatsphäre und Kontextbewusstsein in Einklang zu bringen Anwendungsentwickler suchen zunehmend nach Möglichkeiten, Benutzern ein höheres Maß an Personalisierung zu bieten, die verschiedene Elemente des Betriebskontexts eines Benutzers erfassen, wie beispielsweise seinen Standort, die Aufgabe, mit der er gerade beschäftigt ist, wer seine Kollegen sind usw viele Quellen kontextbezogener Informationen, sie neigen dazu, von einem Benutzer zum anderen und auch im Laufe der Zeit zu variieren. Unterschiedliche Benutzer können sich auf unterschiedliche Standortverfolgungsfunktionen verlassen, die von verschiedenen Mobilfunkbetreibern bereitgestellt werden, sie können unterschiedliche Kalendersysteme verwenden usw. In diesem Papier beschreiben wir die Arbeit an einer semantischen e-Wallet, die darauf abzielt, die automatische Erkennung und den Zugriff auf persönliche Ressourcen zu unterstützen als Semantic Web Service dargestellt. Ein wesentliches Ziel besteht darin, eine Semantic-Web-Umgebung für den offenen Zugriff auf die kontextbezogenen Ressourcen eines Benutzers bereitzustellen, wodurch die mit der Entwicklung und Wartung von kontextsensitiven Anwendungen verbundenen Kosten gesenkt werden. Ein zweites Ziel besteht darin, Benutzern durch Semantic Web-Technologien die Möglichkeit zu geben, selektiv zu steuern, wer unter welchen Bedingungen Zugriff auf ihre Kontextinformationen hat. Diese Arbeit wurde im Kontext von myCampus durchgeführt, einer kontextbewussten Umgebung, die darauf abzielt, den Campus-Alltag zu verbessern. Empirische Ergebnisse auf dem Campus von Carnegie Mellon sind ermutigend.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39718-2_25 e750ad7e488a6cc9e0707066e698bf0c;de;;;7.3.;;;Der P2P-Krieg: Jemand überwacht Ihre Aktivitäten! In dem Bemühen, P2P-Benutzer strafrechtlich zu verfolgen, haben RIAA und MPAA Berichten zufolge damit begonnen, Lockvogel-Benutzer zu schaffen: Sie beteiligen sich an P2P-Netzwerken, um illegale Inhalte zu erkennen. Dies hat Berichten zufolge einige Benutzer erschreckt, die Angst haben, erwischt zu werden. Die Frage, die wir zu beantworten versuchen, lautet, wie verbreitet dieses Phänomen ist: Wie wahrscheinlich ist es, dass ein Nutzer einem solchen „Fake-User“ begegnet und damit das Risiko einer Klage eingeht? Die erste Herausforderung besteht darin, diese „Fake User“ zu identifizieren. Wir sammeln diese Informationen aus einer Reihe von kostenlosen Open-Source-Softwareprojekten, die versuchen, solche IP-Adressbereiche durch Bildung sogenannter Blocklisten zu identifizieren. Die zweite Herausforderung besteht darin, ein groß angelegtes Experiment durchzuführen, um zuverlässige und vielfältige Statistiken zu erhalten. Mit Planetlab führen wir aktive Messungen über einen Zeitraum von 90 Tagen von Januar bis März 2006 auf 3 Kontinenten durch. Durch die Analyse von über 100 GB TCP-Headerdaten quantifizieren wir die Wahrscheinlichkeit, dass ein P2P-Benutzer von solchen Entitäten kontaktiert wird. Wir beobachten, dass 100 % unserer Knoten auf Entitäten in diesen Listen stoßen. Tatsächlich wurden 12 bis 17% aller verschiedenen IPs, die von einem Knoten kontaktiert wurden, auf Sperrlisten aufgeführt. Interessanterweise kann ein wenig Vorsicht erhebliche Auswirkungen haben: Die fünf am häufigsten gesperrten IP-Bereiche tragen zu fast 94 % aller gesperrten IPs bei. Darüber hinaus untersuchen wir andere Faktoren, die die Wahrscheinlichkeit des Auftreffens von gesperrten IPs beeinflussen, wie beispielsweise der geografische Standort der Benutzer. Schließlich finden wir ein weiteres überraschendes Ergebnis: Weniger als 0,5% aller kontaktierten eindeutigen gesperrten IPs befinden sich explizit im Besitz von Medienunternehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72606-7_94 add7d21ebe8cc2027ab26be791ef2e98;de;;;7.3.;;;Effizienter XML-Abruf mit Doppelbewertungsschema Dies ist das erste Jahr der Teilnahme der Kasetsart University an INEX. Wir haben an drei Tracks teilgenommen: dem Ad-hoc-, dem Data Centric- und dem Web Service Discovery-Track. In den Ad-hoc- und Data Centric-Tracks hat sich die BM25F-Funktion in den vergangenen Evaluierungen gut bewährt. Es gibt jedoch ein Problem, das mehr Aufmerksamkeit erfordert: Welches Gewicht hat jedes Feld? Zuvor wurden die Gewichte den Feldern manuell zugewiesen. Im Allgemeinen meinen viele Experten, dass ausgewählte Felder unkontrolliert sind. Wir haben eine unbeaufsichtigte Implementierung der BM25F-Scoring-Funktion vorgeschlagen, die wir Double Scoring-Funktion nennen. Diese Bewertungsfunktion weist die Gewichtung für jedes Feld durch ein erweitertes Indexierungsschema zu, das den abgestimmten Gewichtungsparameter für jedes ausgewählte Feld verarbeitet. Im Web Service Discovery-Track können die Standardtoken nicht direkt von IR-Modellen verwendet werden und müssen vor der Indizierung in natürliche Sprache konvertiert werden. Wir haben die Großschreibungsfunktion angewendet, um das Tokenisierungsproblem zu lösen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23577-1_34 f6bd0dc19d7e37b8bc82b08d74400e8a;de;;;7.3.;;;Formale Verifizierung der mERA-basierten eServices mit Trusted Third Party Protocol Internetdienste wie Online-Banking, soziale Netzwerke und andere Webdienste erfordern Identifizierungs- und Authentifizierungsmittel. Die Europäische Bürgerkarte kann verwendet werden, um eine datenschutzwahrende Authentifizierung für Internetdienste bereitzustellen, die z.B. eine anonyme Altersüberprüfung oder andere Formen der anonymen Attributüberprüfung. Die auf Modular Enhanced Symmetric Role Authentication (mERA) basierenden eServices mit vertrauenswürdigem Drittanbieterprotokoll sind ein Protokoll zum Schutz der Privatsphäre, das auf einer eID-Karte basiert, die kürzlich bei CEN TC224 WG16 standardisiert wurde. In diesem Papier bieten wir eine formale Analyse seiner Sicherheit an, indem wir mehrere Eigenschaften formal überprüfen, wie z. Im Zuge dieser Überprüfung erhalten wir positive Ergebnisse zu diesem Protokoll. Diese Überprüfung setzen wir mit dem ProVerif-Tool um.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30436-1_25 76221dd0fb80c38e55318c1486b8abaa;de;;;7.3.;;;Eine Peer-to-Peer-Informationsaustauschmethode für RDF-Triples basierend auf dem RDF-Schema Die Verwaltung und gemeinsame Nutzung von RDF-Tripeln in einer verteilten Umgebung ist einer der wichtigen Aspekte bei der Realisierung des semantischen Informationsabrufs im Internet. Insbesondere der Begriff der RDF-Klassen spielt eine wichtige Rolle beim semantischen Informationsabruf. In diesem Papier schlagen wir eine Peer-to-Peer-Informationsaustauschmethode für RDF-Triples basierend auf der RDF-Klassenhierarchie vor. Bei dem vorgeschlagenen Verfahren wird jeder RDF-Klasse eine Klassen-ID zugewiesen, damit sie Inklusionsbeziehungen der Klassenhierarchie darstellen kann. Dann erhält jedes RDF-Tripel einen zweidimensionalen Schlüssel, der die Klassen des Subjekts und des Objekts repräsentiert. Durch die Verwendung der Z-Reihenfolge dieser zweidimensionalen Schlüssel treten Peers einem Overlay-Netzwerk basierend auf den Multi-Key Skip Graphs bei. Ein klassenbasierter Abruf von RDF-Tripeln wird dann durch eine Bereichssuche im Overlay-Netzwerk realisiert. Wir zeigen, dass die vorgeschlagene Methode klassenbasierte RDF-Anfragen effizient verarbeiten kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02481-8_95 b6fea5a5aa29f0387179bd235e793fbd;de;;;7.3.;;;Zukünftige Forschungsrichtungen zu webbasierten Bildungssystemen In den letzten zehn Jahren hat sich die webbasierte Bildung nach dem schnellen Fortschritt der Informations- und Kommunikationstechnologie (IKT) und in direkter Verbindung mit den Anforderungen der Informationsgesellschaft zu einem wesentlichen Zweig der Bildungstechnologie entwickelt. Obwohl sich die traditionellen Bildungssysteme weiter verbessern, eröffnet der derzeit stattfindende schrittweise Übergang zum Semantic Web neue Möglichkeiten zur Verbesserung der Qualität von Bildungsprozessen. Der verteilte Unterricht, die explosionsartige Expansion sozialer Netzwerke und die deutliche Zunahme der Zahl mobiler Nutzer stellen Phänomene dar, die zu neuen Trends in der Entwicklung der Bildungstechnologie geführt haben. Derzeit wird der Schwerpunkt auf Inhalt und Zusammenarbeit erhöht, mit dem Ziel, den Lernenden die Möglichkeit zu geben, Inhalte zu generieren und miteinander zu teilen. Ziel des vorliegenden Papiers ist es, einen Überblick über die Richtungen der Entwicklung von Bildungssystemen zu geben, die sich an den Potenzialen, Standards und Einrichtungen des Semantic Web orientieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-01878-8_2 86ea5836bf9d99552f0e1244280d68f7;de;;;7.3.;;;Konzeptioneller Rahmen für ein Empfehlungssystem basierend auf verteilten Benutzerbewertungen Ein Empfehlungssystem ist ein automatisiertes kollaboratives Filtersystem, das Benutzern hilft, zu entscheiden, woran sie interessiert sind, indem sie ihre eigenen Präferenzen extrahieren. Die meisten Studien im Zusammenhang mit Empfehlungssystemen haben sich auf eine zentralisierte Umgebung konzentriert, die mehrere ernsthafte Probleme verursacht, wie z. In diesem Papier schlagen wir jedoch das verteilte Empfehlungssystem mit FOAF in einer P2P-Umgebung vor. Dieses System kann Benutzer ohne den zentralen Server empfehlen, der ihre Profile ständig aktualisiert. Um die geeignetsten zu empfehlenden Benutzer zu ermitteln, ist die Benutzergruppierung (Objektauswahl) einer der wichtigsten Prozesse in der gesamten Empfehlung. Dabei haben wir die kosinusbasierte Ähnlichkeitsmethode genutzt, um die Benutzer auf derselben Ebene zu gruppieren. Noch wichtiger ist, dass der RFR-Algorithmus (Recommend-Feedback-Re-Recommend) vorgeschlagen wird, um die Vertrauenswürdigkeit der Empfehlung zu verbessern. Für das Experiment haben wir die MovieLens-Datensätze verwendet und die Leistung mit „F1-Measure“ und Mean Absolute Error (MAE) getestet. Als Fazit haben wir die Robustheit des Systems verbessert. Außerdem haben wir die Möglichkeit eines verteilten Empfehlungssystems im Semantic Web gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24679-4_24 61ee5a22cd5f14ed4e48eb5611031e74;de;;;7.3.;;;Interaktion Seit dem Aufkommen von Digitalkameras und Breitbandanschlüssen im Haushalt wächst die Herausforderung, der Überflutung mit Multimediadaten Herr zu werden. Um diese Herausforderung zu meistern, sind nicht nur die Techniken zum Speichern, Annotieren und Suchen essenziell, auch ein durchdachtes User Interaction Design und eine intuitive Benutzeroberfläche sind wichtig, um interessante Inhalte zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72895-5_11 24062217896e0c28734541f5a1fa2d9f;de;;;7.3.;;;Implementierung von Interessenkonflikten in die WS-Policy mit Aufgabentrennung für den Matchmaking-Prozess für Web Services Ein Webdienst ist als eine autonome Einheit der Anwendungslogik definiert, die anderen Anwendungen über eine Internetverbindung entweder einige Geschäftsfunktionen oder Informationen bereitstellt. Webdienste basieren auf einer Reihe von XML-Standards wie Simple Object Access Protocol (SOAP), Universal Description, Discovery and Integration (UDDI) und Web Services Description Language (WSDL). Zu den Vorteilen der Einführung von Webservices gegenüber herkömmlichen Business-to-Business-Anwendungen gehören eine schnellere Produktionszeit, die Konvergenz unterschiedlicher Geschäftsfunktionen, eine erhebliche Reduzierung der Gesamtentwicklungskosten und eine einfache Bereitstellung von Geschäftsanwendungen für Handelspartner. Web-Service-Architekturen basieren jedoch auf einer unsicheren, nicht überwachten und gemeinsam genutzten Umgebung, die offen für Ereignisse wie Sicherheitsbedrohungen ist. Sicherheitsbedenken sind das größte Hindernis, das viele Unternehmen daran hindert, Webdienste zu implementieren oder einzusetzen. In diesem Papier wird eine der klassischen Sicherheitsrichtlinien diskutiert, die sich mit Interessenkonflikten (CIR) befassen - die chinesische Mauer-Sicherheitsrichtlinie. Das Papier erweitert dieses Konzept dann um die Spezifizierung und Implementierung von Interessenkonfliktbehauptungen in der neu entwickelten WS-Policy. WS-Policy ist eine XML-Darstellung, die eine Grammatik zum Ausdrücken von Webservice-Richtlinien bereitstellt, um Service-Locators eine gemeinsame Interpretation der Sicherheitsanforderungen im Matchmaking-Prozess zu ermöglichen. Darüber hinaus werden in diesem Papier auch das Konzept der Aufgabentrennung (SoD) und seine Beziehungen zu CIR im Kontext des Matchmaking-Prozesses erörtert. Das Papier schließt mit einem Prototyp-Framework mit den Diensten „CIRService“ und „SoDService“ für den Matchmaking-Prozess.;-;-;-;https://link.springer.com/article/10.1007/s10257-003-0030-2 b6a824c44b0bf75bc42a19f49f1d119a;de;;;7.3.;;;Dynamische Semantik des Webs: Nützliches Werkzeug für die neue Generation agentenbasierter Software Basierend auf den Konzepten des Ontology Engineering wird eine komplexe Beziehung zwischen dem semantischen und dem dynamischen Web abgeleitet. Die resultierende komplexe Beziehung kann dann verwendet werden, um intelligente agentenbasierte Software der neuen Generation zu konstruieren. Obwohl das World Wide Web (WWW) ursprünglich als ein verteilter Informationsraum entworfen wurde, der die menschliche Navigation durch verwandte verknüpfte Dokumente unterstützte, wurde die maschinen- oder softwareagentenbasierte Unterstützung durch die Art des in den Dokumenten verwendeten Markups behindert. Unsere abgeleitete Beziehung kann zeigen, dass die dynamische Semantik des Webs Softwareagenten ermöglicht, die zugrunde liegende Semantik auf der Grundlage gemeinsamer Ontologien und gemeinsamer vereinbarter Semantik abzuleiten, um die Semantik dynamisch zu generieren und zu verarbeiten. Darüber hinaus wird auch ein ontologischer Zusammenhang zwischen der statischen und der dynamischen Semantik des Webs dargestellt. Die ontologische Sichtweise dieses Konzepts unterstreicht die Notwendigkeit einer dynamischen Websemantik. Außerdem zeigen wir, wie die dynamische Semantik durch die neue Generation der intelligenten Agentensoftware, die in den kommenden Jahren zunehmend im Web Einzug halten wird, ermöglicht und nützlich für diese wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-8739-4_96 176d51c96ffe29e615547ca61395b0df;de;;;7.3.;;;IoTV: Zusammenführung von DTV- und MDE-Technologien im Internet der Dinge Heutzutage leben wir in einer digitalen Welt des kontinuierlichen Wandels, in der digitale Plattformen immer beliebter werden und neue Dienste wie Netflix für Videos oder Amazon für den Einzelhandelskauf entstanden sind. Auch traditionelle Unternehmen wie die Telefonie haben sich mit Produkten aus den Bereichen Hausautomation, Sicherheit und e-Health unter anderem in das IoT (Internet der Dinge) gewagt. Andere Plattformen wie DTV (Digital Television) werden jedoch nicht häufig verwendet, selbst wenn eine Infrastruktur bereitgestellt wird. Diese Infrastruktur kann in Anwendungen verwendet werden, die ihre große Schnittstelle und Präsenz in den meisten Haushalten nutzen, um Informationen über das Fernsehsignal zu übertragen und Informationen über das Internet zu empfangen. Aus diesem Grund präsentieren wir in diesem Beitrag einen auf MDE (Model-Driven Engineering) basierenden Vorschlag, der Entwicklern die Entwicklung von Anwendungen für DTV in IoT-Umgebungen unter Verwendung einer DSL (Domain Specific Language) und einer Codegenerierungs-Engine erleichtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-11890-7_25 50a5996823b536ecaf5b509d4e1c1afd;de;;;7.3.;;;Dynamische Mediation im öffentlichen Dienst In diesem Beitrag wird ein Ansatz zur dynamischen Mediation im öffentlichen Dienst vorgestellt. Es basiert auf einem konzeptionellen Modell und dem Einsatz von Such- und Rankingalgorithmen. Das konzeptionelle Modell basiert auf der abstrakten State-Machine-Theorie. Anforderungen an die dynamische Leistungsvermittlung wurden aus einem Praxisfall abgeleitet. Das konzeptionelle Modell und die Algorithmen werden für diesen Fall durch einen Proof of Concept entwickelt und implementiert. Dieses Modell baut auf bestehenden Mitteln zur gemeinsamen Nutzung öffentlicher Dienste auf, die eine Migration bestehender Anwendungen auf unseren vorgeschlagenen Ansatz ermöglichen würden. Das konzeptionelle Modell wird mit anderen Modellen der Dienstleistungsvermittlung verglichen, um Unterschiede zu veranschaulichen und Gemeinsamkeiten zu identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14799-9_28 e6f994daa8ab974005630279567368d4;de;;;7.3.;;;Vorschlagsbasierte Innovation: Ein neuer Ansatz zur Öffnung des Innovationsprozesses Ein Grundprinzip der Innovation ist die Synthese, eine Neukombination bisher unverbundener Konzepte. Ein bekanntes Framework in diesem Zusammenhang ist Open Innovation (OI), die in nicht-produzierenden Branchen wie Software weit verbreitet ist. In der Fertigung wird OI jedoch hauptsächlich aufgrund hoher Anforderungen an den Schutz des geistigen Eigentums (IP) weitgehend abgelehnt. In diesem Kapitel wird ein Ansatz beschrieben, der diese Herstellerabneigung durchbrechen kann. Der erste Schritt besteht darin, die Innovationsaktivitäten der Hersteller in den unterschiedlichsten Branchen und strukturiert auf Basis von im Internet frei verfügbaren Fakten transparent zu machen. Es geht nur darum, WAS Unternehmen tun, erreicht haben oder zu tun beabsichtigen, und nicht ihr geistiges Eigentum, d. h. WIE sie es tun. Abgelegene Standorte (weltweit) und externe Industrien sind besonders wichtig, weil in diesen Achsen das Informationsdefizit am größten ist, nicht zuletzt weil Suchmaschinen hier nur begrenzte und ineffiziente Hilfestellungen bei der Recherche bieten. Der zweite Schritt besteht darin, die extrahierten strukturierten Fakten mittels Künstlicher Intelligenz (KI) in konkrete kreative Vorschläge für Innovation und Kooperation zwischen verschiedenen Herstellern (unabhängig von Standort und Branche) zu verwandeln, um den Innovationsprozess auf neue Weise anzuregen. Dieses Prinzip nennt Karl H. Ohlberg Proposal Based Innovation (PBI). Der Vorteil liegt darin, dass sich anmelden, Mitglied werden, Ideen teilen, die Idee des Web 2.0 und Open Innovation vom Ende des letzten Jahrtausends, durch die Nutzung der immensen Datenmenge, die sich über die Jahre angesammelt hat, abgelöst wird die letzten 20 Jahre. Gespräche mit Herstellern zeigen ein großes Interesse an diesem Prinzip, so dass ein länderübergreifender Prototyp entwickelt werden soll.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-41309-5_14 6e325e03dd64fac1a43f185bcf09c4c1;de;;;7.3.;;;Sichern von XML-Dokumenten Webbasierte Anwendungen erhöhen die Informationsverfügbarkeit und den einfachen Zugriff erheblich, was für öffentliche Informationen optimal ist. Die Verteilung und Weitergabe von Informationen, auf die selektiv zugegriffen werden muss, über das Web erfordert die Definition und Durchsetzung von Sicherheitskontrollen, um sicherzustellen, dass Informationen nur autorisierten Stellen zugänglich sind. Zu dieser Endebene vorgeschlagene Ansätze sind unabhängig von der Semantik der zu schützenden Daten und daher eingeschränkt. Eine wichtige Möglichkeit zur Lösung dieses Problems bietet die eXtensible Markup Language (XML), eine vom World Wide Web Consortium (W3C) geförderte Auszeichnungssprache. Wir präsentieren ein Zugriffskontrollmodell zum Schutz von im Web verbreiteten Informationen, das durch Nutzung der XML-eigenen Fähigkeiten die Definition und Durchsetzung von Zugriffsbeschränkungen direkt auf die Struktur und den Inhalt von XML-Dokumenten ermöglicht. Außerdem stellen wir eine Sprache zur Spezifikation von Zugangsbeschränkungen vor, die Standardnotationen und -konzepte verwendet, und beschreiben kurz eine Systemarchitektur zur Durchsetzung von Zugangskontrollen basierend auf bestehender Technologie.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-46439-5_8 29128059d3a27d21c01fa2311ea9710c;de;;;7.3.;;;Analyse zum urbanen Krisenmanagement vor dem Hintergrund von Big Data Die städtische Krise umfasst hauptsächlich vier Kategorien. Sie sind Naturkatastrophen, Unfälle, öffentliche Gesundheitskrisen und Fragen der sozialen Sicherheit. Dieser Beitrag zeigt den Leitmechanismus von Stadtkrisen vor dem Hintergrund von Big Data und durch empirische Studien auf und kommt zu dem Schluss, dass die Informationsweiterleitung die Panik unter den Bürgern verstärken und damit die Stadtkrise beeinflussen wird. Die aktuellen Forschungen zur Stadtkrise konzentrieren sich auf die Krisenbewältigung in einer Stadt statt in Städten. Aufgrund der schnellen Informationsübertragung im Zeitalter von Big Data wird sich jedoch die krisenbedingte Panik bald auf verwandte Städte übertragen und auch in diesen Städten eine städtische Krise auslösen. Daher hat die in diesem Papier untersuchte städtische Krisenleitung praktische Bedeutung für die Frühwarnung bei städtischen Krisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45969-0_28 1cf507b021bd9377e263517ed41516d3;de;;;7.3.;;;Ein Modell für den E-Business-IT-Manager Auf unserer bisherigen Reise haben wir die Ursprünge und die Entwicklung dessen erforscht, was wir heute als „e-Business“ bezeichnen. In Anerkennung der offensichtlichen Rolle, die die Informationstechnologie (IT) bei der Bereitstellung des e-Business spielen muss, haben wir auch einen Überblick über die Auswirkungen solcher Initiativen sowohl allgemein als auch speziell in Bezug auf den IT-Manager gegeben . Bevor wir weitermachen, lohnt es sich, innezuhalten und sich wieder auf unsere Definition von e-Business zu konzentrieren, ist es doch in revolutionären Zeiten nicht so einfach, mit Begeisterung einen Kurs einzuschlagen, der von einem bestimmten Ziel geprägt ist, nur um dann ins Schwanken zu geraten vom gewählten Weg?;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0081-2_4 2ee64aca0609b0eed1f62739073f8fcb;de;;;7.3.;;;Messy Futures und Global Brains Die jüngere Geschichte nach dem Zweiten Weltkrieg war durch eine relativ einfache Aufteilung der Welt in im Wesentlichen zwei Bereiche von Supermachtinteressen gekennzeichnet. Sicherheitsfragen könnten in einem globalen Rahmen von zwei strategischen Akteuren diskutiert und analysiert werden. Es gab klare Ziele und Rollen für die Spieler. Heute, da die Rolle strategischer Atomwaffen stark reduziert ist, haben wir regionale Krisen, die einige Ähnlichkeiten mit Situationen vor dem Ersten Weltkrieg aufweisen, mit einem großen Unterschied: Die heutige Welt ist viel stärker vernetzt, insbesondere in Bezug auf Informationen: können sich direkt aus Krisengebieten Informationen aus erster Hand holen und – zum Beispiel über Computernetzwerke – direkt an der Diskussion teilnehmen. Das macht die Zukunft aus traditioneller Kontrollsicht;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-80254-6_12 2d20f41e17a5b119b2026e1666e2fb5e;de;;;7.3.;;;Klassifizierungstechnik zur Verbesserung des Benutzerzugriffs auf Webprotokolldaten In der heutigen Zeit spielt das Internet eine bedeutende Rolle in unserem Alltag, daher ist es sehr schwierig, ohne es zu überleben. Eine Web-Logdatei, die den Zugriff der Benutzer auf das Internet verfolgt, kann uns wertvolle Informationen über die Surfer liefern, wenn sie abgebaut wird. In ähnlicher Weise hat das schnelle Wachstum von Data-Mining-Anwendungen die Notwendigkeit gezeigt, dass maschinelle Lernalgorithmen auf große Daten angewendet werden müssen. In diesem Papier verwenden wir die naive Bayesian (NB)-Klassifikationstechnik mit Weka zur Identifizierung des Frequent Access Patterns. Das Hauptziel dieses Papiers ist es, das Surfverhalten des Benutzers basierend auf seiner Position zu kategorisieren. Dieses Papier führt ein Experiment durch und klassifiziert das Benutzerzugriffsverhalten aus den großen Datenbanken, was zu einer Erhöhung der Effizienz und Effektivität des Systems führen könnte, indem die Browsing-Zeit des Benutzers reduziert wird oder zu einem schnellen Abrufen von Informationen aus dem System führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-81-322-1665-0_111 3e3579b838fc2351d9b4a326de9d37ac;de;;;7.3.;;;Intelligenter Technologiefortschritt beim Übergang zur digitalen Wirtschaft Das Papier betrachtet die Hauptmerkmale der Nutzung digitaler Technologien zur Förderung von Waren und Dienstleistungen und identifiziert Trends im Verbraucherverhalten in einer digitalen Umgebung. Es wird darauf hingewiesen, dass die neue Ära der digitalen Werbung viel breiter ist als das Internet-Marketing und umfasst nicht nur Werbung über das World Wide Web, sondern verwendet auch alle Arten von Offline-Tools, unterscheidet sich im Interaktionsformat mit der Zielgruppe, der Methode von Datenübertragung, Kanälen und Werbemitteln. Das Konzept der „Digital Promotion“ basiert auf einem kundenorientierten, personalisierten Ansatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-59126-7_50 70bee2d0211162f7570db003560d1dbf;de;;;7.3.;;;Eine effiziente hybride benutzerprofilbasierte Websuche-Personalisierung durch semantischen Crawler Das World Wide Web hat eine Sammlung von Billionen von Webseiten und diese Webseiten werden von Tag zu Tag größer. Im Web verfügbare Webseiten ändern sich häufig, und diese Änderungen sind manchmal für den Endbenutzer nicht wahrnehmbar. Das exponentielle Wachstum von Webdokumenten im Internet macht es schwierig herauszufinden, welche Webdokumente für einen bestimmten Endbenutzer bei einer bestimmten Suchanfrage am relevantesten sind und der Benutzer verbringt viel Zeit damit, relevante Informationen zu erhalten. Das vorgeschlagene Personalisierungssystem für die Websuche identifiziert erfolgreich Präferenzen des Endbenutzers und erstellt ein effizientes Benutzerprofil für jeden Endbenutzer. Es verwendet das erstellte Webseiten-Repository, indem es Websuchergebnisse abruft und sie entsprechend den Benutzereinstellungen personalisiert. Es ist auch in der Lage, mehrdeutige Abfragen zu bearbeiten. Das vorgeschlagene System erhöht die Suchgenauigkeit um 37,6% gegenüber dem bestehenden agentenbasierten Personalisierungssystem.;-;-;-;https://link.springer.com/article/10.1007/s40009-018-0686-2 11363eab5c131182e73d769200b95c62;de;;;7.3.;;;Lexikalische Qualität als Maß für textuelle Web-Zugänglichkeit Wir zeigen, dass ein kürzlich eingeführtes lexikalisches Qualitätsmaß auch gültig ist, um textuelle Web-Zugänglichkeit zu messen. Unser Maß schätzt die lexikalische Qualität einer Site anhand des Auftretens einer Menge von mehr als 1.345 Wörtern mit Fehlern auf englischen Webseiten. Anschließend berechnen wir die Korrelation unseres Maßes mit den Maßen der Web-Popularität, um zu zeigen, dass dies unabhängige Informationen liefert. Dies zusammen mit unseren früheren Ergebnissen impliziert, dass diese Maßnahme einigen der WCAG-Prinzipien der Zugänglichkeit entspricht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31522-0_61 552c077182f8a15d601c77e0ef36d20b;de;;;7.3.;;;IoT-basiertes personalisiertes NIE-Content-Empfehlungssystem In letzter Zeit ist das Internet der Dinge (IoT) zu einem beliebten Thema und einem dominierenden Trend in verschiedenen Bereichen wie Gesundheitswesen, Landwirtschaft, Fertigung und Verkehr geworden. Insbesondere im Bildungsbereich ist es zu einem beliebten Instrument geworden, um die Interessen und Leistungen der Lernenden zu verbessern, indem sie mit verschiedenen Geräten innerhalb und außerhalb des Klassenzimmers interagieren. Lessons in Zeitung in Education (NIE), die Zeitungen als Bildungsressource verwendet, hat damit begonnen, sie zu nutzen. Durch die Analyse der Daten, die von einem Lernergerät wie dem Raspberry Pi generiert werden, können den Lernern beispielsweise geeignete Nachrichten und zugehörige Multimediadaten als Lernmaterial zur Unterstützung des Unterrichts bereitgestellt werden. Da Nachrichten und Multimediadaten jedoch in einer Vielzahl von Formen verstreut sind, ist es sehr schwierig, für den Lernenden geeignete auszuwählen. In diesem Papier schlagen wir ein auf IoT basierendes Nachrichten- und zugehöriges Multimedia-Empfehlungsschema zur Unterstützung des NIE-Unterrichts vor. Insbesondere werden Nachrichten und zugehörige Multimediadaten aus dem Web gesammelt und auf dem Server integriert und gespeichert. Danach kann der Lernende solche Inhalte einfach mit einem mobilen Gerät durch personalisierte Visualisierung durchsuchen, was die Effizienz des NIE-Unterrichts erhöht. Um die Wirksamkeit unseres Schemas zu zeigen, haben wir ein Prototypsystem implementiert und verschiedene Experimente durchgeführt. Einige Ergebnisse stellen wir vor.;-;-;-;https://link.springer.com/article/10.1007/s11042-018-5610-8 80088af9ea1bef87a311c0faeb90bb6f;de;;;7.3.;;;Crowdsourcing-Wissen: Gefahr und Versprechen für die konzeptionelle Strukturforschung Jüngste Bemühungen, Fragen-Antwort-Systeme in natürlicher Sprache für das World Wide Web zu schaffen, nutzen die enorme Verfügbarkeit von Informationen in Webressourcen als Wissensbasis. Forscher, die diese Systeme entwickeln, gehen explizit davon aus, dass das, was in dieser Wissensbasis am häufigsten wiederholt wird, die Wahrheit ist. Ihre Annahme beruht implizit auf einem Trugschluss der klassischen Logik: „Beweis durch Behauptung“ (oder Beweis durch wiederholte Behauptung). Dieses Papier betrachtet die gefährlichen und hoffnungsvollen Implikationen der am häufigsten wiederholten (MOR) Annahme und schlägt Peirces „Economy of Research“ (EOR) in seiner evolutionären Sicht der Logik als vielversprechende Alternative zu MOR für die Wahrheitsfindung vor in der zunehmenden Komplexität von Crowdsourcing-Wissen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22688-5_10 06c78d25f41456d61fffc03f7fd4f700;de;;;7.3.;;;ARIMA Model-Based Web Services Trustworthiness Evaluation and Prediction Da die meisten Webdienste von Dritten über ein unzuverlässiges Internet bereitgestellt werden und zur Laufzeit spät gebunden werden, ist es sinnvoll und nützlich, die Vertrauenswürdigkeit von Webdiensten zu bewerten und vorherzusagen. In diesem Papier schlagen wir einen ARIMA-modellbasierten Ansatz vor, um die Vertrauenswürdigkeit von Webdiensten zu bewerten und vorherzusagen. Zunächst evaluieren wir die Vertrauenswürdigkeit von Webdiensten mit umfassenden vertrauenswürdigen Beweisen, die regelmäßig aus dem Internet gesammelt werden. Anschließend werden die kumulativen Vertrauenswürdigkeitsbewertungsdatensätze als Zeitreihen modelliert. Schließlich schlagen wir einen ARIMA-Modell-basierten mehrstufigen Vertrauenswürdigkeitsvorhersageprozess für Webdienste vor, der das Modell automatisch und iterativ identifizieren und optimieren kann, um es an die Vertrauenswürdigkeitsreihendaten anzupassen. Experimente, die an einem großen realen Datensatz durchgeführt wurden, zeigen, dass unsere Methode die Vertrauenswürdigkeit von Webdiensten effektiv bewerten und vorhersagen kann, was Benutzern hilft, Webdienste wiederzuverwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34321-6_51 10a216c4aa5710305b57beb30ed1d849;de;;;7.3.;;;Bewertung internetbasierter Informationen, die Patienten bei der Entscheidungsfindung über die Operation der perianalen Crohn-Fistel helfen Die Entscheidungsfindung bei der perianalen Crohn-Fistel (pCD) ist präferenzsensitiv. Patienten nutzen das Internet, um auf Gesundheitsinformationen zuzugreifen. Ziel dieser Studie war es, die Online-Informationen und Entscheidungshilfen für Patienten im Zusammenhang mit der Operation bei pCD zu bewerten.;-;-;-;https://link.springer.com/article/10.1007/s10151-017-1648-2 d6ebbeaf3418d03a893134daac51c30f;de;;;7.3.;;;Webdatenextraktion basierend auf Strukturfunktion Die meisten existierenden Methoden der Web-Datenextraktion realisieren Ziele basierend auf DOM-Baumanalyse oder Wrapper-Erstellung. Anwendbarkeit und Effizienz dieser Verfahren müssen jedoch weiter verbessert werden. Je nach Informationsmenge werden Webseiten in zwei Strukturtypen unterteilt, die vom Typ 1:1 und 1:N sind. Da derselbe Typ von Webseiten ähnliche Strukturmerkmale aufweist, schlägt das Papier einen Ansatz der zweiphasigen Webdatenextraktion basierend auf Strukturmerkmalen vor. In der Phase des Musterlernens werden Strukturmerkmal und Ablageregeln von Webseiten entsprechend dem Textmerkmal von Musterseiten gewonnen. In der Phase der Informationsextraktion wird die Webdatenextraktion durch Abgleichen der zu extrahierenden Seite mit Hinterlegungsregeln in der Wissensdatenbank implementiert. Experimentelle Ergebnisse zeigen, dass der in der Veröffentlichung vorgeschlagene Ansatz eine gute Anwendbarkeit und hohe Effizienz aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23235-0_75 2dd4fddbd43db6e7439385ed82eedb67;de;;;7.3.;;;Eingebettete Steuerelemente In diesem Kapitel wird beschrieben, wie die durchdringende Informationstechnologie in eingebetteten Heim- und Automobilumgebungen verwendet wird. Obwohl die meisten der beschriebenen Beispiele und Szenarien auf die Nutzung durch den Verbraucher ausgerichtet sind, können viele auf den Einsatz in einem kommerziellen Umfeld übertragen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-04318-9_4 35bdfd654b6003628973be3911795ef0;de;;;7.3.;;;Die Folgen der Suche für den Datenschutz In Kapitel 1 habe ich vorgeschlagen, dass der Begriff „algorithmisch mediatisiertes Leben“ heute ein nützliches, wenn auch etwas mysteriöses Mittel ist, um den Wechsel zu neuen, durch die Computerisierung gestützten Wissensformen zu erklären. Um den Begriff noch einmal aufzugreifen, erinnern Sie sich daran, dass er sich auf die Idee bezieht, dass das Design von Computeralgorithmen beispielsweise in der Computersuche aktiv Wissen produziert und materielle Entscheidungen im sozialen Leben erleichtert. Das Wort Algorithmus ruft ein Maß an Geekdom hervor, das viele verschreckt. Aber wie so viele Beispiele für Techspeak repräsentiert es eigentlich eine ziemlich einfache Idee. Es bezieht sich auf jede methodische Art, eine Reihe von priorisierten Aufgaben zu erledigen. Im Fall von Suchmaschinen verweist es also auf einer elementaren Ebene auf einen undurchsichtigen „Blackbox“-Prozess, bei dem die „Engine“ die gesammelten Daten automatisch in eine Ergebnisliste des relevantesten gefundenen Materials umwandelt. Dieser Wechsel zu einem algorithmisch mediatisierten Leben ist ein wesentliches Element in Pasquinellis Darstellung des „kognitiven Kapitalismus“, seiner Ansicht nach stellt sie „eine neue planetare Rechenskala dar (die) dennoch eine neue planetare Skala der Politik erfordert“.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-137-30687-6_3 862af084cdba2f126bb451c6a415a117;de;;;7.3.;;;Ein wissensbasiertes Framework für die multimediale Adaption Die personalisierte Bereitstellung von Multimediainhalten über das Internet eröffnet neue Geschäftsperspektiven für zukünftige Multimediaanwendungen und spielt somit eine wichtige Rolle bei den laufenden Bemühungen um MPEG-7- und MPEG-21-Multimediastandardisierung. Basierend auf diesen Standards werden Multimediadienste der nächsten Generation in der Lage sein, den digitalen Inhalt vor der Auslieferung entsprechend den Gerätefähigkeiten des Kunden, den Netzwerkbedingungen oder sogar den Inhaltspräferenzen des Benutzers automatisch vorzubereiten. Diese Dienste müssen jedoch mit einer Vielzahl unterschiedlicher Endgeräte, Medienformate sowie zusätzlichen Metadaten bei der Anpassung der ursprünglichen Medienressourcen umgehen. Parallel dazu wird eine zunehmende Zahl kommerzieller oder Open-Source-Tools zur Medientransformation verfügbar sein, die solche beschreibenden Metadaten nutzen oder mit neuen Medienformaten umgehen können. Daher ist es nicht realistisch, dass ein einzelnes Tool alle möglichen Transformationen unterstützt.;-;-;-;https://link.springer.com/article/10.1007/s10489-006-6933-0 b32d21ca27d9b4d2018bbd0636d21fe0;de;;;7.3.;;;Online-Internet-Überwachungssystem für Meeresregionen Das Papier beschreibt Entwurfs- und Implementierungsprobleme von Online-Webüberwachungs- und Visualisierungssystemen. Die dreischichtige Architektur wird vorgeschlagen und ein Beispiel für einen Server für ozeanographische Kartendokumente (XML) vorgestellt. Eine grafische Benutzeroberfläche, die die Benutzerfunktionalität darstellt, ist ebenfalls vorhanden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24685-5_89 85b4f61601e4ca86d0e7b7286fb21561;de;;;7.3.;;;SemanticHPST: Anwendung von Semantic-Web-Prinzipien und -Technologien auf die Geschichte und Philosophie von Wissenschaft und Technik SemanticHPST ist ein Projekt, in dem IKT (insbesondere Semantic Web) mit Geschichte und Philosophie der Wissenschaft und Technik (HPST) interagiert. Hauptschwierigkeiten bei HPST sind die große Vielfalt an Quellen und Standpunkten sowie eine große Datenmenge. Daher müssen HPST-Wissenschaftler neue Tools für die digitalen Geisteswissenschaften basierend auf dem Semantic Web verwenden. Um eine gewisse Generizität zu gewährleisten, basiert dieses Projekt zunächst auf drei Teilprojekten: das erste dem Hafenarsenal von Brest, das zweite der Korrespondenz von Henri Poincaré und das dritte dem Energiekonzept . Ziel dieser Arbeit ist es, das Projekt, seine Fragestellungen und Ziele sowie die ersten Ergebnisse und Ziele im Bereich der Ernte verteilter Korpora in der erweiterten Suche in HPST-Korpora vorzustellen. Abschließend möchten wir auf einige Fragen zu epistemologischen Aspekten dieses Projekts hinweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25639-9_53 0295c2c4bd558c9b52c13f83ee718bbc;de;;;7.3.;;;Klassifizierung von Online-Diskussionen nach Inhalt und Beteiligung Webforen und Online-Communitys werden immer wichtigere Informationsquellen. Während es bedeutende Forschungsarbeiten zur Klassifizierung von Webseiten gibt, ist relativ wenig über die Klassifizierung von Online-Diskussionen bekannt. Unter Berücksichtigung der Besonderheit der Nutzerbeteiligung in Web-Communities schlagen wir Klassifikationsverfahren vor, die auf Nutzerbeteiligung und Textinhalten von Online-Diskussionen basieren. In dieser Studie wurden Support Vector Machines eingesetzt, um Diskussionen nach Inhalt und Beteiligung zu klassifizieren und zu analysieren. Es wurde festgestellt, dass die Genauigkeit der Verwendung von Beteiligung als Klassifizierungsmerkmal in bestimmten Gemeinschaften sehr hoch sein kann. Die Verwendung eines hochdimensionalen Klassifikators kann bei der Verbesserung des Abrufs und der Klassifizierung von Online-Diskussionsthemen wirksam sein.;-;-;-;https://link.springer.com/chapter/10.1007/11881223_105 4b7e92d9a99ed2b57cc2b107ce0a0de9;de;;;7.3.;;;Relevanzbasierte Inhaltsextraktion von HTML-Dokumenten Die Inhaltsextraktion von HTML-Seiten ist die Grundlage des Webseiten-Clustering und des Informationsabrufs, daher ist es notwendig, überladene Informationen zu beseitigen und sehr wichtig, den Inhalt von Seiten genau zu extrahieren. Es wurde eine neuartige und genaue Lösung zum Extrahieren von Inhalten von HTML-Seiten vorgeschlagen. Zunächst wird die HTML-Seite in ein DOM-Objekt geparst und die IDs aller Blattknoten generiert. Zweitens wird die Bewertung jedes Blattknotens berechnet und die Bewertung wird entsprechend der Beziehung zu Nachbarn angepasst. Schließlich werden die Informationsblöcke gemäß der Definition gefunden und ein universeller Klassifizierungsalgorithmus verwendet, um die Inhaltsblöcke zu identifizieren. Die experimentellen Ergebnisse zeigen, dass der Algorithmus Inhalte effektiv und genau extrahieren kann und die Rückrufrate und die Präzision 96,5 % bzw. 93,8 % betragen.;-;-;-;https://link.springer.com/article/10.1007/s11771-012-1226-8 901d63c9b55f8a285c4ba5b1fa77b047;de;;;7.3.;;;Nachhaltige Kooperations-Informationsportale: Digitale Wissensgemeinschaften für KMU Das Projekt ECORADAR mit Beteiligung von über 80 deutschen Unternehmen und Institutionen war Teil des fona-Förderschwerpunkts „Integrierter nachhaltiger Schutz – Instrumente für nachhaltige Unternehmensführung“ des Bundesministeriums für Bildung und Forschung. Die Hauptaufgabe beim Aufbau des Portals besteht in der Schaffung einer Sustainable Management Community. Der Zweck der Zusammenfassung besteht darin, die Struktur und Elemente der ecoradar-Community aufzuzeigen. Sowohl die Schaffung einer „Kultur des Vertrauens“ zwischen den beteiligten Unternehmen als auch die Strategie einer erfolgreichen Integration der gemeinsamen Projektpartner sind von besonderem Interesse. Ecoradar (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-54603-2_12 7ff426f6ae3a24fbb966961d2f77150f;de;;;7.3.;;;Semantische Suche Die semantische Suche versucht, Benutzeranfragen auf der Grundlage von Bedeutungen und nicht auf der Grundlage von Schlüsselwörtern zu beantworten. Wenn Sie beispielsweise nach „Museen in Mailand“ suchen, würde eine herkömmliche Suchmaschine mit einer Liste von Links zu Webseiten antworten, die die Schlüsselwörter „Museen“ und „Mailand“ enthalten. Eine semantische Suchmaschine versteht jedoch die Absicht des Benutzers, eine Liste von Museen zu erhalten, und gibt Webdarstellungen der erforderlichen realen Entitäten einschließlich ihrer semantischen Eigenschaften zurück. Dieses Kapitel veranschaulicht den Prozess semantischer Suchmaschinen und vergleicht damit am Markt angebotene alternative semantische Suchlösungen sowie akademische Prototypen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39314-3_12 bf3f2cea18f08fc3c94a47f154ada9df;de;;;7.3.;;;Eine kooperative intelligente unterstützende Agentenarchitektur für die Websuche und das Desktop-Management Das rasante technologische Wachstum hat den Computer zu einem unverzichtbaren Werkzeug für eine Vielzahl von Anwendungen gemacht. Software, die den normalen Benutzer bei der Ausführung von Routine-Rechenaufgaben unterstützt, ist mittlerweile alltäglich geworden. Mit dem rasanten Wachstum des Internets entstehen täglich zahlreiche neue Websites. Dies bedeutet zwangsläufig, dass ein Benutzer mehr Zeit und Energie aufwenden muss, um nach einer bestimmten Information zu suchen. Die Notwendigkeit des Tages besteht darin, Software zu entwickeln, die eher wie ein menschlicher Assistent fungieren kann, das Verhalten eines Benutzers versteht und lernt, um ihn nachzuahmen und ihm dabei zu helfen, seine Aufgabe immer einfacher zu erfüllen. In diesem Papier wird eine solche Architektur vorgestellt, bei der Agenten den Desktop bewohnen, das Benutzerverhalten überwachen und im Laufe der Zeit lernen, sich anzupassen und Routineaufgaben zu übernehmen. Eingebettet in den Microsoft Windows 2000-Desktop arbeiten die Agenten dieser Architektur kooperativ zusammen, um Desktop-Management und intelligente Web-Surfen-Unterstützung bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03339-1_3 658327691481897f910ce39499e29623;de;;;7.3.;;;NASC: Ein neuartiger Ansatz zur Spam-Klassifizierung Die Technologie von Spamfiltern hat in letzter Zeit als leistungsstarker Ansatz für das Internet-Sicherheitsmanagement erhebliche Aufmerksamkeit erfahren. Die traditionellen Spamfilter haben fast statische Maßnahmen übernommen, und Filter müssen häufig aktualisiert und gewartet werden, sodass sie sich nicht an dynamischen Spam anpassen können. Um die Beschränkung der traditionellen Mittel zu überwinden, wurde in diesem Beitrag eine immunitätsbasierte Spam-Klassifizierung vorgeschlagen. Zunächst wird ein kurzer Überblick über die traditionelle Technologie des Spamfilters gegeben, insbesondere das Bayes-Wahrscheinlichkeitsmodell. Dann wird die NASC ausführlich beschrieben, indem ein Selbst-, Nicht-Selbst-, Detektor- und Erkennungsalgorithmus eingeführt wird. Abschließend wurde ein Simulationsexperiment durchgeführt und die wichtigen Parameter des Modells analysiert. Das experimentelle Ergebnis zeigt, dass das neue Modell den Filterrückruf unter der Bedingung, dass die Präzision ebenfalls zunimmt, stark erhöht, und zeigt, dass das Modell die Eigenschaften des Selbstlernens und der Selbstanpassung aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/11816102_71 4e319f22d8538430df5a6e616887d466;de;;;7.3.;;;Merkmale des WAP-Verkehrs In diesem Dokument werden die Eigenschaften des Wireless Application Protocol (WAP)-Datenverkehrs betrachtet. Wir beginnen mit der Erstellung eines WAP-Verkehrsmodells, indem wir das Verhalten der Benutzer analysieren, die über ein Überwachungssystem auf öffentliche WAP-Sites zugreifen. Es wurde eine Vielzahl unterschiedlicher Verkehrsszenarien betrachtet, aber die meisten dieser Szenarien lösen sich auf einen von zwei Grundtypen auf. Das Papier verwendet dann dieses Verkehrsmodell, um die Auswirkungen großer Mengen von WAP-Verkehr auf das Kernnetz zu betrachten. Ein Verkehrsmerkmal, das bei der Netzdimensionierung von besonderem Interesse ist, ist der Grad der Selbstähnlichkeit, daher betrachtet der Artikel die Merkmale von aggregiertem Verkehr mit WAP-, Web- und Paketsprachkomponenten, um seine Selbstähnlichkeit zu schätzen. Die Ergebnisse zeigen, dass, während WAP-Verkehr allein keinen signifikanten Grad an Selbstähnlichkeit aufweist, eine kombinierte Last aus verschiedenen Verkehrsquellen fast denselben Grad an Selbstähnlichkeit beibehält wie die am stärksten selbstähnlichste einzelne Quelle.;-;-;-;https://link.springer.com/article/10.1023/A%3A1026244914743 6e42d1e7450637186ecf2490f12aaa95;de;;;7.3.;;;Entwicklung einer Web-Browser-basierten Schnittstelle für 3D-Daten – eine Fallstudie eines Plug-in-freien Ansatzes zur Visualisierung von Energiemodellierungsergebnissen Diese Forschung untersucht die Nutzung frei verfügbarer Open-Source-Ressourcen für die Bereitstellung einer Plug-in-freien Webanwendungsschnittstelle für 3D-Georaumdaten zur Visualisierung energiebezogener Modellierungs- und Simulationsergebnisse. Solche Plug-In-freien Web-Mapping-Anwendungen werden für zukünftige kartografische Webanwendungen unerlässlich sein, da zukünftige Webbrowser die Verwendung und Installation der in der Vergangenheit verwendeten Plug-Ins nicht mehr unterstützen werden. Als Proof of Concept wird als Fallstudie ein 3D-Stadtmodell der Stadt Karlsruhe in Deutschland mit über 87.000 Gebäuden verwendet. Dieser Datensatz wurde mit OpenStreetMap-Daten und Ausgaben von Energiesimulationsmodellen zusammengestellt. Für die Datenspeicherung dieses Multi-Domain-Datensatzes wird das CityGML-Format verwendet. Um die Unabhängigkeit von Browser-Plugins zu gewährleisten, werden für die Erstellung dieser Anwendung HTML5 und frei verfügbare JavaScript-Bibliotheken verwendet. In dieser Schnittstelle sind mehrere analytische kartografische und georäumliche Funktionen wie kartografische Klassifikation, Attributauswahl, deskriptive Statistik, räumliche Pufferanalyse und der Abruf von Modellierungsergebnissen aus einer PostgreSQL- und PostGIS-Dateninfrastruktur implementiert. In diesem Papier werden außerdem einige Fallstudien, zukünftige Verbesserungsmöglichkeiten der vorgeschlagenen Schnittstelle und Erfahrungen, die während des Schnittstellenentwicklungsprozesses gesammelt wurden, diskutiert, die anderen Kartographen und GIS-Wissenschaftlern bei der Entwicklung zukünftiger nativer 3D-Webkartierungsanwendungen helfen würden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19602-2_12 27264d557889e755944665e50c2738e1;de;;;7.3.;;;Vietnam: Ein weiterer Tiger im Entstehen? Seit dem Beginn der Renovierungspolitik (Doi Moi) im Jahr 1986, die darauf abzielte, eine Wirtschaft zu transformieren, die als „dreißig Jahre hinter Taiwan, fünfundzwanzig Jahren hinter Malaysia, zwanzig Jahren hinter Thailand, zwölf Jahren hinter China und acht Jahren“ beschrieben wurde in Bezug auf die Gesamtentwicklung hinter Indonesien zurück“ (Chu Huu Quy 1996: S. 18) durch die Schaffung eines marktorientierten Wirtschaftsumfelds erlebte die Wirtschaft Vietnams große Veränderungen in Bezug auf Wachstum und Strukturwandel.;-;-;-;https://link.springer.com/chapter/10.1057/9780230626331_7 36d734b854030ef9bb62af4e4e49b901;de;;;7.3.;;;Zukunft der Websuche: Persönlich, kollaborativ, sozial In diesem Vortrag werden wir diskutieren, wohin die Websuche gehen könnte, und uns dabei auf eine Reihe von großen Forschungsprojekten konzentrieren, die versuchen, das „nächste große Ding“ in der Websuche zu entwickeln. Wir werden einige wichtige aktuelle Initiativen zur Verbesserung der Qualität der Websuche berücksichtigen, indem wir Suchmaschinen helfen, auf unsere individuellen Bedürfnisse und Präferenzen einzugehen. Im Gegenzug werden wir uns auf einige innovative Arbeiten zur Nutzung des inhärent kollaborativen Charakters der Websuche konzentrieren, während wir die jüngsten Versuche zur Entwicklung sogenannter „sozialer Suchmaschinen“ diskutieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12275-0_2 63825b106514108c3d4c4183e89d5848;de;;;7.3.;;;Quo Vadis, CS? – Zum (Nicht-)Einfluss konzeptueller Strukturen auf das Semantic Web ist ein Forschungsgebiet, das abstrakte Konzepte und Interessen mit neueren Arbeiten zur Wissensrepräsentation für das Semantic Web teilt. Während letzteres jedoch ein Bereich der Forschung und Entwicklung ist, der sich in den letzten Jahren stark ausbreitet, partizipiert ersterer nicht in großem Umfang an diesen Entwicklungen. In diesem Papier versuchen wir, die Community von Conceptual Structures dazu zu bewegen, den Zug des Semantic Web zu nehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73681-3_35 28488296f2b51242be519357dc427673;de;;;7.3.;;;Überzeugungen über Fähigkeiten und epistemische Überzeugungen: Aspekte kognitiver Flexibilität in informationsreichen Umgebungen Wenn Menschen beispielsweise im Internet auf widersprüchliche oder widersprüchliche wissenschaftliche Informationen stoßen, müssen sie eine angemessene Erklärung für die Widersprüchlichkeit oder den Konflikt finden. Wir konzentrieren uns auf zwei Arten von Erklärungen, die die Menschen in Betracht ziehen könnten: das Fehlen der eigenen Fähigkeit, die Informationen zu verstehen oder die Inkonsistenz wegzuerklären, und die tatsächlich gegebene Inkonsistenz, die dem Thema innewohnt, da sich das Wissen an sich entwickelt oder unsicher ist. Wir behaupten, dass sich im oben beschriebenen Szenario kognitive Flexibilität darin manifestiert, eine geeignete und angepasste Erklärung für die erlebten Inkonsistenzen zu finden und dass diese Flexibilität von den Überzeugungen der Menschen über Fähigkeiten und von ihren epistemischen Überzeugungen abhängt: Zwischen diesen beiden möglichen Erklärungen unterscheiden zu können , Menschen müssen eine realistische Sicht auf ihre eigenen Kompetenzen haben, d ). In diesem Kapitel werden mehrere Studien zusammengefasst, die sowohl die Rolle von Überzeugungen über die eigenen Fähigkeiten als auch epistemischen Überzeugungen bei der Verarbeitung wissenschaftlicher Informationen unterstreichen. Einige von uns durchgeführte empirische Studien werden vorgestellt, die beide Arten von Überzeugungen in Bezug auf die Verarbeitung widersprüchlicher versus konsistenter Informationen untersucht haben. Diese exemplarischen Studien zeigen, dass die Suche nach wissenschaftlichen Informationen im Internet ein geeignetes Testfeld ist, um empirisch zu untersuchen, ob und wie Menschen auf Fähigkeiten und epistemische Erklärungen für (widersprüchliche) Wissensansprüche verweisen (Aussage 3). Als Ergebnis der Studien schlagen wir vor, dass eine empirische Untersuchung des Zusammenspiels zwischen Überzeugungen über Fähigkeiten und epistemischen Überzeugungen zur laufenden Debatte über die Konzeptualisierung epistemischer Überzeugungen beitragen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-1793-0_6 94df4b34614b73302033a90043ceb8e7;de;;;7.3.;;;Verbessertes Nutzungsmodell für Zuverlässigkeitstests von Webanwendungen Das Testen der Zuverlässigkeit einer Anwendung erfordert normalerweise ein gutes Nutzungsmodell, das die wahrscheinlichen Eingabefolgen, die die Anwendung von der Umgebung erhält, genau erfasst. Die in der Literatur verwendeten Modelle basieren meist auf Markov-Ketten. Sie werden verwendet, um Testfälle zu generieren, die statistisch nahe an dem sind, was die Anwendung in der Produktion erwartet. In diesem Papier untersuchen wir den speziellen Fall von Webanwendungen. Wir präsentieren ein Modell, das direkt aus der Protokolldatei der Anwendung erstellt wird. Dieses Modell basiert ebenfalls auf Markov-Ketten und hat zwei Komponenten: Eine Komponente, die auf einem modifizierten Baum basiert, erfasst das häufigste Verhalten, während die andere Komponente eine weitere Markov-Kette ist, die seltenes Verhalten erfasst. Das Ergebnis ist ein statistisch korrektes Modell, das klar zeigt, was die meisten Benutzer auf der Website tun. Wir präsentieren eine experimentelle Studie zum Log einer realen Website und diskutieren Stärken und Schwächen des Modells für die Zuverlässigkeitsprüfung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24580-0_3 dd0f48ebe74d7a62b95fd4327b7c4870;de;;;7.3.;;;Verteilte Fehlerbehebung von Websitzungen mit Clustering Das Surfen im Internet ist eine sehr verbreitete Art, das Internet zu nutzen, um unter anderem Nachrichten zu lesen, Online-Shopping zu machen oder nach benutzergenerierten Inhalten wie YouTube oder Dailymotion zu suchen. Herkömmliche Bewertungen des Web-Surfens konzentrieren sich auf objektiv gemessene Quality of Service (QoS)-Metriken wie Verlustrate oder Round-Trip-Zeiten von verschiedenen Kunden. Eine solche Technik ermöglicht es, Leistungsunterschiede zwischen Benutzern zu entdecken und zu erklären und die Grundursachen für schlechte Leistungen zu identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28534-9_14 7d47de973e7b4181fb6afb1aad640ab9;de;;;7.3.;;;Veröffentlichung von 30 Jahre Gesetzgebung des brasilianischen Bundesstaates São Paulo auf CD-ROM und Internet Etwa 60.000 Rechtsakte aus den letzten 30 Jahren der Gesetzgebung des Staates São Paulo werden auf CD-ROM und im Internet veröffentlicht. Die implementierte effektive Suchmaschine ergibt ein schnelles und intuitives System mit Hypertext-Funktion zur einfachen Navigation durch verwandte Rechtsakte. Es spiegelt bereits eine deutliche Verbesserung der Verwaltungs- und Rechtsverfahren in Regierungsbehörden, Legislativ- und Justizabteilungen, Gemeindeverwaltungen sowie privaten Anwaltskanzleien, Unternehmen, Universitäten und Mitgliedern der Gemeinschaft wider.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45268-0_60 82b92673dd059ee162600f9b5cfce436;de;;;7.3.;;;Ungefähre Inhaltszusammenfassung für die Datenbankauswahl in der Deep Web Data Integration Bei der Deep Web-Datenintegration bietet der Metaquerier für jede Domain eine einheitliche Schnittstelle, die die Benutzeranfrage an die relevantesten Webdatenbanken weiterleiten kann. Herkömmliche Datenbankauswahlalgorithmen basieren oft auf Inhaltszusammenfassungen. Viele über das Internet zugängliche Datenbanken sind jedoch nicht kooperativ. Der Zugriff auf die Inhalte dieser Datenbanken ist nur über Abfragen möglich. In diesem Papier schlagen wir einen ungefähren Inhaltszusammenfassungsansatz für die Datenbankauswahl vor. Darüber hinaus sind die realen Datenbanken nicht immer statisch und dementsprechend muss die statistische Inhaltszusammenfassung regelmäßig aktualisiert werden, um Änderungen des Datenbankinhalts widerzuspiegeln. Daher schlagen wir auch einen Überlebensfunktionsansatz vor, um einen geeigneten Zeitplan für die Regenerierung einer ungefähren Inhaltszusammenfassung zu erstellen. Wir führen umfangreiche Experimente durch, um die Genauigkeit und Effizienz unserer Techniken zu veranschaulichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16720-1_22 078161820743668c72b5f12a626d1814;de;;;7.3.;;;Eine Werkzeugunterstützung für die Anpassung von Webanwendungen mithilfe des Navigationsverlaufs Derzeit ist das Web eine Plattform zur Durchführung komplexer Aufgaben, bei denen es um den Umgang mit verschiedenen Webanwendungen geht. Diesen Aufgaben müssen sich die Nutzer jedoch noch in Handarbeit stellen. In diesem Papier stellen wir einen neuartigen Ansatz vor, der bedenkenssensitive Anpassung und Navigationsverlauf kombiniert, um die Benutzererfahrung während der Ausführung einer Aufgabe zu verbessern. Wir haben einige einfache, aber leistungsstarke Tools entwickelt, um diesen Ansatz auf einige typische Aufgaben wie Reiseplanung und Hausvermietung anzuwenden. Wir illustrieren das Papier mit einer einfachen, aber realistischen Fallstudie und vergleichen unsere Arbeit mit anderen auf demselben Gebiet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23768-3_28 6e13c2123cf26247542894fb57c63a1b;de;;;7.3.;;;Abfrageindizierung mit einschlusskodierten Intervallen für eine effiziente Stream-Verarbeitung Viele kontinuierliche Bereichsabfragen können für Datenströme ausgegeben werden. Um kontinuierliche Abfragen gegen einen Stream effizient auszuwerten, wird ein hauptspeicherbasierter Abfrageindex mit geringen Speicherkosten und einer schnellen Suchzeit benötigt, insbesondere wenn der Stream schnell ist. In diesem Papier untersuchen wir einen CEI-basierten Abfrageindex, der beide Kriterien für eine effiziente Verarbeitung von Abfragen mit kontinuierlichem Intervall erfüllt. Dieser neue Abfrageindex ist ein indirekter Indexierungsansatz. Es dreht sich um eine Reihe vordefinierter virtueller;-;-;-;https://link.springer.com/article/10.1007/s10115-005-0202-0 3d2c422eba7971db66912b40c4a9f604;de;;;7.3.;;;Anwendung von Closed Gap-Constrained Sequential Pattern Mining in Weblog-Daten Das Auffinden von Informationen in Weblog-Daten ist ein sehr beliebtes Forschungsgebiet im Bereich Data Mining. Zwei der Ziele von bevorzugten Anwendungen sind, nützliche Informationen über das Verhalten von Webbenutzern zu erhalten und die Struktur von Websites zu analysieren. In diesem Artikel schlagen wir einen neuartigen Ansatz vor, um sequenzielle Webmuster mithilfe der lückenbeschränkten Methode in Weblogdaten zu generieren. Der Prozess der Mining-Aufgabe im vorgeschlagenen Ansatz wird wie folgt beschrieben. Zuerst wird eine Vorverarbeitung der rohen Weblog-Daten eingeführt, indem irrelevante oder redundante Elemente entfernt, dieselben Benutzer gesammelt und die Weblog-Daten in einen Satz von Tupeln (Sequenzkennung, Sequenz) umgewandelt werden, die durch die Besuchszeit eingeschränkt sind. Zweitens werden Webzugriffsmuster, bei denen es sich um geschlossene sequentielle Muster mit Lückenbeschränkungen handelt, unter Verwendung des Gap-BIDE-Algorithmus in Webprotokolldaten mit zwei Parametern, minimaler Unterstützungsschwelle und Lückenbeschränkung, erzeugt. Im Experiment wird ein Datensatz aus http://www.vtsns.edu.rs/maja/ abgeleitet, der in [1] vorgeschlagen wird. Das Ergebnis zeigt, dass wir mit der Anwendung von Sequential Pattern Mining in den in diesem Beitrag vorgestellten Weblog-Daten Informationen über das Navigationsverhalten von Webnutzern finden und die Struktur der Webseite durch die Reihenfolge der erhaltenen Muster legitimer gestaltet werden kann .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-26007-0_80 92d772da17d9e39920cd5551b5c20aae;de;;;7.3.;;;Richtliniengesteuerte Middleware zur Selbstanpassung von Webservice-Kompositionen Wir präsentieren unsere richtlinienbasierte Middleware namens Manageable and Adaptive Service Compositions (MASC) für die dynamische Selbstanpassung von Webservice-Kompositionen an verschiedene Änderungen. MASC integriert und erweitert unsere frühere Middleware namens Web Services Message Bus (wsBus). Insbesondere besprechen wir die MASC-Unterstützung für die Anpassung von Webservice-Kompositionen, um Geschäftsausnahmen zu beheben, und die wsBus-Unterstützung für die Korrektur (Fehlerverwaltung) von Webservice-Kompositionen, um die Zuverlässigkeit zu verbessern. Wir haben die erstere Unterstützung in einer Fallstudie zum Aktienhandel und die zweite Unterstützung in einer Fallstudie zum Lieferkettenmanagement bewertet. Unsere Lösungen ergänzen die bestehenden Ansätze und bieten: Koordination des Fehlermanagements zwischen SOAP-Messaging und Geschäftsprozess-Orchestrierung, größere Vielfalt an Überwachungs- und Steuerungskonstrukten, Spezifikation sowohl technischer als auch betriebswirtschaftlicher Aspekte für Anpassungsentscheidungen, höhere Abstraktion und einfachere Handhabung durch nicht-technische Personen und Externalisierung von Überwachungs- und Anpassungsmaßnahmen aus Definitionen von Geschäftsprozessen.;-;-;-;https://link.springer.com/chapter/10.1007/11925071_4 c904ddc1e4d1d384b19a7032f236fe5d;de;;;7.3.;;;Eine Taxonomie von Techniken zum Ausblenden von Hyperlinks Versteckte Links sind ausschließlich für Suchmaschinen und nicht für Besucher gedacht. Um hohe Suchmaschinen-Rankings zu erhalten, werden Link-Hiding-Techniken normalerweise für die Rentabilität von Untergrundwirtschaften verwendet, wie z. Dieser Artikel untersucht Techniken zum Verbergen von Hyperlinks im Web und gibt eine detaillierte Taxonomie. Wir glauben, dass die Taxonomie dazu beitragen kann, geeignete Gegenmaßnahmen zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11116-2_15 4f5e26c91f86931f6f96dd01d2d22519;de;;;7.3.;;;Schaffung eines Rechtsrahmens im Bereich der Bekämpfung der Cyberkriminalität und strategische Richtungen ihrer Entwicklung Dieser Artikel analysiert den internationalen Rechtsrahmen gegen Cyberkriminalität. Der internationale Rechtsrahmen bietet eine Lösung des Problems in drei Bereichen: Verringerung der Diskrepanzen zwischen nationalen Gesetzen, Einführung neuer Behördenbefugnisse und Förderung der internationalen Zusammenarbeit. Die Studie argumentiert, dass die Wirksamkeit der Kerndokumente im Bereich der Abwehr von Cyberkriminalität nicht von der rechtlichen Anwendbarkeit der internationalen Maßnahmen abhängig zu sein scheint. Faktoren wie nationale Sicherheit, Politik, Wirtschaft und öffentliche Meinung stimulieren offenbar die spontane Umsetzung des internationalen Rechtsrahmens. Im Fokus der Studie steht die Notwendigkeit, ein System von Basisansätzen im Bereich der strafrechtlichen Cybercrime-Qualifizierung zu entwickeln und deren Einordnung auf supranationaler Ebene zu verdichten. Es wird ein qualitativ neuer Ansatz für die Zusammenarbeit zwischen Themen der internationalen Beziehungen bei der Bekämpfung der Cyberkriminalität vorgeschlagen. Letzteres basiert auf der Koordinierung aller staatlichen Maßnahmen zur Verbesserung der rechtlichen Regulierung des Zusammenwirkens und der Umsetzung grundlegender Regeln in die nationale Gesetzgebung, wobei die Grundlagen des Informationsaustauschs neu organisiert werden.;-;-;-;https://link.springer.com/article/10.1057/s41284-021-00304-3 3cb58f9b17e37675a949d633f56a4930;de;;;7.3.;;;Eine explorative Studie zur inhaltsbasierten Filterung von Call for Papers Aufgrund der steigenden Zahl von Konferenzen müssen Forscher immer mehr Zeit damit verbringen, die jeweiligen Calls for Papers (CFPs) zu durchsuchen, um die Konferenzen zu identifizieren, die für sie von Interesse sein könnten. In diesem Papier untersuchen wir verschiedene inhaltsbasierte Techniken zum Filtern von CFPs, die aus dem Internet abgerufen werden. Zu diesem Zweck untersuchen wir, wie die in einer typischen GFP verfügbaren Informationen genutzt werden können: ein kurzer Einführungstext, Themen im Rahmen der Konferenz und die Namen der Personen im Programmkomitee. Während der einleitende Text und die Themen direkt zur Modellierung des Dokuments verwendet werden können (z. B. zur Ableitung eines tf-idf-gewichteten Vektors), können die Namen der Mitglieder des Programmkomitees auf verschiedene Weise indirekt verwendet werden. Eine Strategie, die wir insbesondere verfolgen, besteht darin, die Arbeiten zu berücksichtigen, die diese Personen kürzlich verfasst haben. Um die Forschungsinteressen der Nutzer herauszufinden und damit zu entscheiden, welche CFPs ausgewählt werden sollen, schauen wir uns in ähnlicher Weise die Abstracts ihrer kürzlich verfassten Artikel an. Wir vergleichen und kontrastieren eine Reihe von Ansätzen basierend auf dem Vektorraummodell und auf generativen Sprachmodellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41057-4_7 fada75cbad00eee04ad64575ae4c4cff;de;;;7.3.;;;Verknüpfte datengesteuerte Smart Spaces In diesem Papier stellen wir einen Ansatz zur Nutzung von Linked Data in Smart Spaces vor, der mehr tut, als nur RDF zur Darstellung von Informationen zu verwenden. Insbesondere verlassen wir uns auf Wissen, das in DBpedia, einem Datensatz im Web of Data, gespeichert ist. Wir bieten auch eine Plattform zur Umsetzung eines solchen Ansatzes und einen Anwendungsfall für den eTourismus, die beide in Zusammenarbeit mit einem Mobilfunkanbieter entwickelt wurden. Schließlich bieten wir auch eine Leistungsbewertung der Hauptkomponente der Plattform an.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10353-2_1 dad3b0ae02a88d6fcb4f94d5694b19ea;de;;;7.3.;;;Ein neuartiges Cloud-basiertes NIDPS für Smartphones Die Internetnutzung über Smartphones nimmt zu, was die Aufmerksamkeit böswilliger Cyber-Angreifer auf sich zieht, um ihre Cyber-Bedrohungen über Smartphones zu bekämpfen. Daten, die als Pakete vom Telefon übertragen werden, enthalten viele private und vertrauliche Informationen über den Benutzer. Dieses Papier schlägt und bewertet ein verbessertes Sicherheitsmodell und eine verbesserte Architektur, um Internetsicherheit als Service für Smartphone-Benutzer bereitzustellen. Es verwendet eine Cloud-Umgebung, beinhaltet VPN-Server für die sichere Kommunikation sowie netzwerkbasiertes IDS und IPS, das mit verschiedenen Machine-Learning-Detektoren zur Analyse des Echtzeit-Netzwerkverkehrs ausgestattet ist und als benutzerfreundliche Firewall dient. Wir schlagen auch eine D-S-Evidence-Theorie der Informationsfusion vor, um die Genauigkeit der Erkennung bösartiger Aktivitäten zu verbessern. Empirische Ergebnisse deuten darauf hin, dass das vorgeschlagene Framework die anomale Netzwerkaktivität durch böswillige Smartphones und Eindringlinge effektiv erkennt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54525-2_42 75895d589f59edca74a17d61cbfbf604;de;;;7.3.;;;Intelligentes System zur Überwachung von Umgebungslärm Es wird das Telemonitoring-System diskutiert, das an der Fakultät für Multimediasysteme der Technischen Universität Danzig entwickelt wurde und auf die Überwachung des Umgebungslärmpegels ausgerichtet ist. Es wurde eine Systempräsentation bereitgestellt, die aus Beschreibungen der folgenden Elemente bestand: Lärmmesseinheiten, Computer-Lärmmesssoftware, Internet-Multimedia-Lärmüberwachungsdienst und Soft-Computing-Algorithmen, die auf die Analyse des Systemdatenbankinhalts angewendet werden. Die Ergebnisse der Lärmmessungen wurden mit den gewonnenen subjektiven Meinungen zur Lärmbelästigung verglichen. Auf Grundlage dieser Studie wurde ein neuer GIS-Layer erstellt, der Daten verwendet, die mit Soft-Computing-Algorithmen erstellt wurden. Die entwickelte intelligente Anwendung kann dazu beitragen, Hörprobleme und andere durch Umgebungs- und Industrielärm verursachte Krankheiten zu verringern.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-32370-8_31 d52f89feed24b8de4fe452edb9cea5fa;de;;;7.3.;;;Ontologiebasierte Abfrageerweiterung mit einem probabilistischen Abrufmodell In diesem Artikel wird die Verwendung von Ontologien zum Definieren des Abfragekontexts untersucht. Das verwendete Information-Retrieval-System basiert auf dem probabilistischen Retrieval-Modell. Wir erweitern den Einsatz von Relevanz-Feedback- (RFB) und Pseudo-Relevanz-Feedback-(PF)-Abfrageerweiterungstechniken mit Informationen aus einer Nachrichtendomänen-Ontologie. Ziel ist es, den Einfluss der Ontologie auf die Ergebnisse der Abfrageerweiterung in Bezug auf Erinnerung und Genauigkeit zu bewerten. Wir haben die Ergebnisse auch auf die Variation der Relevanz-Feedback-Parameter (Anzahl der Begriffe oder Anzahl der Dokumente) getestet. Die Faktoren, die den Erfolg der ontologiebasierten Abfrageerweiterung beeinflussen, werden skizziert. Unsere Ergebnisse zeigen, dass die ontologiebasierte Abfrageerweiterung gemischten Erfolg hatte. Die Verwendung der Ontologie hat die Anzahl der abgerufenen relevanten Dokumente stark erhöht. Wir kommen jedoch zu dem Schluss, dass die PF-Ergebnisse für beide Arten der Abfrageerweiterung besser sind als die RFB-Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41057-4_2 d359af763e886af42959bddcb5d82ad9;de;;;7.3.;;;Verkörperter Konversationsagent basierend auf Semantic Web Embodied Conversational Agents (ECA) sind zeichentrickartige Charaktere, die mit Benutzern durch Gespräche und Gesten auf einem Computerbildschirm interagieren. ECA macht die Interaktion zwischen Mensch und Computer freundlicher, da wir die meisten menschenähnlichen Kommunikationsfähigkeiten wie natürliche Konversation nutzen können. ECAs sind als Web-Guides nützlich, da sie in Webbrowser integriert werden. Sie führen uns durch Webseiten, die mit uns chatten. Um einen solchen Agenten zu erstellen, müssen wir ein Szenario beschreiben, um Webseiten zu erklären. Herkömmlicherweise werden solche Szenarien manuell von Entwicklern oder Programmierern unter Verwendung einer Dialogbeschreibungssprache wie AIML (Artificial Intelligence Markup Language) geschrieben, so dass es schwierig ist, sie zu aktualisieren, wenn Webseiten aktualisiert werden. In diesem Papier schlagen wir ein Schema vor, um automatisch Äußerungen von Web-Guide-Agenten in Abhängigkeit von Webseiten zu generieren. Zu diesem Zweck müssen wir Agenten den Inhalt von Webseiten verständlich machen und sie entsprechend dem Inhalt sprechen lassen, daher verwenden wir RDF (Resource Description Framework), um den semantischen Inhalt von Webseiten darzustellen. Damit Agenten entsprechend dem Inhalt sprechen, verwenden wir eine RDF-Abfragesprache SPARQL (Simple Protocol And RDF Query Language) und erweitern die AIML-Sprache, um SPARQL-Abfragen darin zu integrieren. Als Prototyp haben wir ein Web-Guide-System mit ECA entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/11802372_87 297d8f96ff46fb7590187cfbe7736472;de;;;7.3.;;;Bewertung der Qualität von Web-Session-Clustern basierend auf Zugriffszeit-Unähnlichkeit und evolutionären Algorithmen Die Verfeinerung von Websession-Clustern ist in den letzten Tagen eines der wichtigsten Forschungsthemen zur Verbesserung der Clusterqualität. Das Motiv der Verfeinerung unter Verwendung evolutionärer Algorithmen ist ziemlich offensichtlich, da in jedem Clustering-Algorithmus die erhaltenen Cluster einige Datenelemente enthalten müssen, die unangemessen geclustert sind, sodass wir niemals gut getrennte und zusammenhängende Cluster erhalten. Daher wird die Qualität von Clustern unter Verwendung von Verfeinerungstechniken verbessert. Anfängliche Cluster werden unter Verwendung des K-Means-Clustering-Algorithmus gebildet, der unter einem lokalen Minimaproblem leidet. Die Verfeinerung von Clustern erfolgt auf Basis von Zugangs- und Zeitmerkmalen (Modified Knockout Refinement Algorithm), also einer entfernungsbasierten Unähnlichkeit, Genetic Algorithm (GA), Particle Swarm Optimization (PSO) und einer Kombination von MKRA mit GA und MKRA mit PSO . Die Ergebnisse werden an fünf synthetischen Datensätzen und drei realen Datensätzen ausgewertet. Darüber hinaus wird experimentell gezeigt, dass die Effektivität der Kombination von MKRA mit evolutionären Techniken zu Clustern besserer Qualität führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09156-3_22 7bd9a416d352008795291c214aa67c14;de;;;7.3.;;;Forschung zur Konstruktion offener Bildungsressourcen basierend auf Semantic Wiki Seit dem OpenCourseWare-Projekt des MIT im Jahr 2001 hat die Bewegung für offene Bildungsressourcen mehr als zehn Jahre durchlaufen. Abgesehen von den fruchtbaren Ergebnissen werden auch einige Probleme der Ressourcenkonstruktion aufgedeckt. Ein Teil der Open Education Resources Projekte kann nicht durchgeführt werden oder musste aus Personal- oder Geldmangel sogar abgebrochen werden. Das Fehlen einheitlicher Normen oder Standards führt zu doppeltem Ressourcenaufbau und geringer Ressourcennutzung. Semantic Media Wiki kombiniert die Offenheit, Selbstorganisation und Kollaboration von Wiki mit dem strukturierten Wissen im Semantic Web, das den Bedürfnissen der Ressourcen-Kokonstruktion und des Teilens in der Bewegung von offenen Bildungsressourcen entspricht. In dieser Studie, basierend auf dem Online-Kurs Education Information Processing, untersuchen wir die Anwendung des Semantic MediaWiki in der Open Educational Resource Construction.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32018-7_27 54055996cfafc6975914465247c06131;de;;;7.3.;;;Eine probabilistische Terminologielogik zur Modellierung des Informationsabrufs Einige Forscher haben kürzlich argumentiert, dass die Aufgabe des Information Retrieval (IR) erfolgreich durch mathematische Logik beschrieben werden kann, dementsprechend sollte die Relevanz eines bestimmten Dokuments für einen bestimmten Informationsbedarf durch Überprüfung der Gültigkeit der logischen Formel beurteilt werden;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-2099-5_13 a80df205c320942c7b26a55d05db05f4;de;;;7.3.;;;Bienenschwarmoptimierung für die Suche nach Informationen im Internet Die vorliegende Arbeit bezieht sich auf Web Intelligence und genauer gesagt auf Wisdom Web Foraging. Die Idee ist, die Lokalisierung des relevantesten Websurfing-Pfades zu lernen, der den Benutzer interessieren könnte. Wir schlagen einen neuartigen Ansatz vor, der auf dem Verhalten von Bienen für die Informationssuche basiert. Wir implementierten das System mit einer Kolonie kooperativer reaktiver Agenten. Um unseren Vorschlag zu validieren, wurden Experimente mit MedlinePlus durchgeführt, einem Benchmark für Forschung im Bereich Gesundheit. Die Ergebnisse sind sowohl in Bezug auf einige Web-Regelmäßigkeiten als auch in Bezug auf die Reaktionszeit vielversprechend, die sehr kurz ist und somit der Echtzeitbeschränkung entspricht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13817-6_20 a1e9eae6c2f555dd87bb97f46959a018;de;;;7.3.;;;Ein Brokerage-System für den elektronischen Handel basierend auf HCVM Elektronischer Handel (EC) kann allgemein als Anwendung von Informationstechnologie und Telekommunikation zur Schaffung von Handelsnetzen angesehen werden, in denen Waren und Dienstleistungen verkauft und gekauft werden, wodurch die Effizienz und Effektivität des traditionellen Handels gesteigert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-3196-5_10 9f4c8f46ffba1a963c25c58318c1dfdc;de;;;7.3.;;;Webbenutzerinteraktion Das World Wide Web entwickelt sich von einer Plattform für den Informationszugang zu einer Plattform für interaktive Dienste. Mehrere Anwendungen werden bereits über Internet- und Webbrowser verwendet. Die Benutzeroberfläche einer solchen Anwendung wird durch HTML definiert. HTML hat jedoch seine Mängel, wenn es als allgemeine UI-Beschreibungssprache verwendet wird. Mehrere Parteien haben dieses Problem angegangen, indem sie spezifische UI-Beschreibungssprachen definiert haben. So könnte beispielsweise ein Webbrowser als Benutzeroberfläche für beliebige Anwendungen verwendet werden. Wir haben die Anforderungen an eine UI-Beschreibungssprache aus der Literatur überarbeitet und zwei XML-basierte UI-Beschreibungsformate anhand der Anforderungen durch Use Cases bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74063-6_15 aad524d116333da01586a0075ff2b0cf;de;;;7.3.;;;Missionsbasierte Navigationsverhaltensmodellierung für Web-Recommender-Systeme Web-Recommender-Systeme antizipieren die Informationsbedürfnisse von Online-Benutzern und geben ihnen Empfehlungen, um ihre Navigation zu erleichtern und zu personalisieren. Es gibt viele Ansätze, solche Systeme zu bauen. Unter diesen ist die Verwendung von Webzugriffsprotokollen zur Generierung von Navigationsmodellen der Benutzer, die ein Web-Recommender-System aufbauen können, ein beliebter Ansatz, da er nicht aufdringlich ist. Die Verwendung nur eines Informationskanals, nämlich der Webzugriffshistorie, reicht jedoch für eine genaue Empfehlungsvorhersage oft nicht aus. Wir befürworten daher die Nutzung zusätzlicher verfügbarer Informationskanäle, wie zum Beispiel den Inhalt besuchter Seiten und die Konnektivität zwischen Webressourcen, um das Navigationsverhalten der Benutzer besser zu modellieren. Dies hilft dabei, die gleichzeitigen Informationsbedürfnisse der Benutzer besser zu modellieren. In diesem Kapitel untersuchen wir ein neuartiges hybrides Web-Recommender-System, das den Zugriffsverlauf und den Inhalt besuchter Seiten sowie die Konnektivität zwischen Webressourcen einer Website kombiniert, um die gleichzeitigen Informationsbedürfnisse der Benutzer zu modellieren und Navigationsmuster zu generieren. Unsere Experimente zeigen, dass die Kombination der drei in unserem System verwendeten Kanäle die Qualität der Website-Empfehlung deutlich verbessert und darüber hinaus jeder zusätzlich genutzte Kanal zu dieser Verbesserung beiträgt. Darüber hinaus besprechen wir Fälle, wie man einen Kompromiss findet, wenn nicht alle Kanäle verfügbar sind.;-;-;-;https://link.springer.com/chapter/10.1007/11899402_3 1e5ac9dd013d54b4e3618d25428b7147;de;;;7.3.;;;Visualisierung von Web-Angriffsszenarien in Raum- und Zeit-Koordinatensystemen Intrusion Detection Systeme können Angriffe erkennen und die verantwortlichen Personen automatisch über diese Ereignisse informieren. Allerdings reicht es oft nicht aus, einzelne Angriffe zu sehen, obwohl sie nützlich sind, um den gesamten Angriffsprozess sowie die Fähigkeiten und Motivationen der Angreifer zu verstehen. Der Angriffsschritt ist normalerweise nur eine Phase im gesamten Eindringprozess, in der Angreifer Informationen sammeln und erforderliche Bedingungen vorbereiten, bevor sie ausgeführt werden, und Protokolldatensätze löschen, um ihre Spuren nach der Ausführung zu verbergen. Aktuelle Ansätze zur Erstellung von Angriffsszenarien erfordern die Vordefinierung von Ursache-Wirkungs-Beziehungen zwischen Ereignissen, was eine schwierige und zeitaufwendige Aufgabe ist. In dieser Arbeit nutzen wir die Verknüpfungsnatur zwischen Seiten in Webanwendungen, um eine Konstruktionstechnik für Angriffsszenarien vorzuschlagen, ohne dass eine Vordefinition von Ursache-Wirkungs-Beziehungen erforderlich ist. Die erstellten Szenarien werden dann in Raum- und Zeitkoordinatensystemen visualisiert, um die Anzeige und Analyse zu unterstützen. Auf Basis des Vorschlags entwickeln wir auch eine prototypische Implementierung und experimentieren damit mit verschiedenen simulierten Angriffsszenarien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45947-8_1 328ddcdd98d018ae0dd05d656e1ddbd3;de;;;7.3.;;;Neuer schneller Algorithmus zur Konstruktion von Konzeptgittern Konzeptgitter sind eine wichtige Methode und Technologie zur Datenanalyse und Wissensentdeckung, jedoch konzentrieren sich viele Forscher in diesem Forschungsgebiet auf den zweiwertigen formalen Kontext. In diesem Beitrag transformieren wir zuerst den stetigwertigen formalen Kontext in den mehrwertigen formalen Kontext, dann wird auf der Grundlage des mehrwertigen formalen Kontexts die Definition der Äquivalenzklasse des Einzelattributs und der formalen Paare von Einzelattributen gegeben. Wir diskutieren die Konstruktion formaler Konzeptgitter basierend auf Einzelattributkonzepten, das Vereinigen von Konzepten, das Aktualisieren von Konzepten und das Hinzufügen von Konzepten, alle diese Konzepte werden durch Vereinigung, Schnittmenge und Gleichheit von Objekten formaler Paare erzeugt. Schließlich präsentieren wir einen schnellen Algorithmus zur Konstruktion von Konzeptgittern und analysieren seine Komplexität. Es hat gezeigt, dass der Algorithmus durch unsere Experimente effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74477-1_41 f4fe506815480f6a52ab6209e99c2901;de;;;7.3.;;;DeShaTo: Beschreibung der Form kumulativer Themenverteilungen für Rangabrufsysteme ohne Relevanzbeurteilungen Dieses Papier untersucht einen Ansatz zur Abschätzung der Wirksamkeit eines IR-Systems. Der Ansatz basiert auf der Idee, dass eine Menge von Dokumenten, die für eine bestimmte Abfrage abgerufen werden, von hoher Relevanz ist, wenn nur wenige vorherrschende Themen in den abgerufenen Dokumenten vorhanden sind. Der vorgeschlagene Ansatz besteht darin, die Topic-Wahrscheinlichkeitsverteilung jedes Dokuments offline mithilfe der Latent Dirichlet Allocation zu bestimmen. Dann wird für einen abgerufenen Dokumentensatz ein Satz von Wahrscheinlichkeitsverteilungsformdeskriptoren, nämlich die Schiefe und die Kurtosis, verwendet, um eine Bewertung basierend auf der Form der kumulativen Themenverteilung des jeweiligen Dokumentensatzes zu berechnen. Das vorgeschlagene Modell heißt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23826-5_8 5270ba2574ad93aa26e337f14fe2289c;de;;;7.3.;;;Webservices-Sicherheit mit semantischer Technologie Für die gegenwärtig wachsende Kommunikation über verteilte Webdienste (WS) ist Sicherheit im Kontext sich dynamisch ändernder Einheiten von erheblicher Bedeutung. Es ist eine Herausforderung, die Sicherheitsziele wie Authentifizierung, Autorisierung und richtliniengebundener Austausch zwischen dynamischen webbasierten Anwendungen sicherzustellen. Da die WS zu Semantic Web Services (SWS) der nächsten Stufe erweitert werden, soll der syntaktische Sicherheitsansatz unter Verwendung von zusätzlichem Domänenwissen, der Semantik zwischen den Entitäten (Webservices), improvisiert werden. Daher wird die Integration von Semantik die Qualität des Sicherheitsmanagements verbessern und Lösungen für die Sicherheitsherausforderungen bieten. Die als Zusatzwissen extrahierte Service-Semantik beschreibt die Web-Services, mit denen man die Sicherheit der Entitätsauthentifizierung überprüfen kann. Die angemessene Verwendung der Semantik bei der Richtliniendarstellung und -bewertung gegenüber einer Anforderung ist besser geeignet für ein angreifbares Sicherheitsmanagement des gegenwärtigen Web-Informationssystems. Insgesamt diskutiert das Kapitel die Einbeziehung von Semantik in alle Versuche, Sicherheitslösungen zu suchen, die zu einer Verbesserung der Interoperabilität zwischen Webdiensten in einem dynamischen Moment führen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-47411-9_22 bbdc38a783a834d7a581087440ea8689;de;;;7.3.;;;Auf dem Weg zu einem IPv6-basierten Sicherheitsframework für verteilte Speicherressourcen Manche Sicherheitsprobleme lassen sich oft durch Autorisierung statt Authentifizierung lösen. Darüber hinaus kann der zertifikatbasierte Autorisierungsansatz die üblichen Nachteile zentralisierter Systeme wie Engpässe oder Single Point of Failure beseitigen. In diesem Papier schlagen wir eine Lösung vor, die eine geeignete Sicherheitsarchitektur für das Internet Backplane Protocol (IBP), ein verteiltes gemeinsam genutztes Speicherprotokoll, bieten könnte. Die drei Grundbausteine ​​sind IPsec, Simple Public Key Infrastructure (SPKI)-Zertifikate und Crypto-Based Identifiers (CBID). CBID ermöglicht es Entitäten, das Eigentum an ihren Identifikatoren nachzuweisen, SPKI ermöglicht es Entitäten, nachzuweisen, dass sie zur Durchführung bestimmter Aktionen autorisiert wurden, während IPsec die Authentifizierung und Vertraulichkeit der Datenherkunft bietet. Wir schlagen vor, sie zu verwenden, um ein gewisses Maß an „opportunistischer“ Sicherheit zu schaffen, wenn keine vertrauenswürdige zentrale Instanz vorhanden ist. Dies ist insbesondere auf Ad-hoc-Umgebungen zugeschnitten, in denen die Zusammenarbeit sehr kurzfristig sein kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45184-6_5 35698bfa62478a01e7d9da0c1db10cb9;de;;;7.3.;;;Visualisierung von Einbrüchen: Beobachten des Webservers Trotz mehrjähriger intensiver Forschung leiden Intrusion-Detection-Systeme immer noch an einem wesentlichen Mangel: einer hohen Fehlalarmrate. Um dem entgegenzuwirken, schlägt dieser Beitrag vor, den Zustand des Computersystems so zu visualisieren, dass der Bediener feststellen kann, ob ein Verstoß vorliegt. Zu diesem Zweck wird ein sehr einfaches Schema zur Protokollreduktion durch Anomalieerkennung mit grafischer Visualisierung kombiniert und auf das Protokoll eines Webservers angewendet, um Muster von gutartigen und bösartigen (oder verdächtigen) Zugriffen zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-8143-X_17 49283cb5e05a9f70c83c884c0568aa77;de;;;7.3.;;;Ein hocheffizientes XML-Komprimierungsschema für das Web Zeitgenössische XML-Dokumente können mehrere zehn Megabyte lang sein, und die Reduzierung ihrer Größe, wodurch sie schneller übertragen werden können, ist für ihre Benutzer ein wesentlicher Vorteil. In diesem Artikel beschreiben wir ein neues XML-Komprimierungsschema, das den bisherigen hochmodernen Algorithmus SCMPPM um durchschnittlich über 9 % im Komprimierungsverhältnis übertrifft, das praktische Merkmal einer optimierten Dekompression hat und fast doppelt so schnell im Dekompression. Die Anwendung des Schemas kann die Nutzung von Übertragungszeit/Bandbreite für im Web veröffentlichte XML-Dokumente erheblich reduzieren. Das vorgeschlagene Schema basiert auf einem halbdynamischen Wörterbuch der häufigsten Wörter im Dokument (sowohl in der Anmerkung als auch im Inhalt), einer automatischen Erkennung und kompakten Codierung von Zahlen und bestimmten Mustern (wie Datumsangaben oder IP-Adressen) und einer end-PPM-Codierungsvariante, die darauf zugeschnitten ist, lange übereinstimmende Sequenzen effizient zu handhaben. Darüber hinaus zeigen wir, dass das Kompressionsverhältnis zum Preis einer deutlichen Verlangsamung um weitere 9% verbessert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77566-9_66 53fae1bf4e15bebcabe4b2ca78157868;de;;;7.3.;;;Verwenden von verknüpften Daten zur Reduzierung der Lernlatenz für E-Book-Reader Web 2.0-Technologien bieten die Möglichkeit, Lernen in ein soziales Erlebnis zu verwandeln: Soziales Lernen kann direkt von der benutzergenerierten Inhaltsanalyse profitieren. Das E-Book-Gerät ist ein zentrales Objekt für den Lernprozess, es wird ein ideales Medium, um innovative Lernwerkzeuge zu fördern. In diesem Papier beschreiben wir, wie wir Benutzeranmerkungen in E-Books mithilfe von Linked Data analysieren, um die Latenz zwischen Professorenwissen, Buchinhalt und studentischer Assimilation zu reduzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25953-1_3 3c21ec9dd687a1bda30c02f584ae2565;de;;;7.3.;;;Inhaltsbasierte Steuerung von HTTPs-Mail zur Implementierung einer IT-Konvergenz-Sicherheitsumgebung Die Konvergenz zwischen den Industrien hat die Bedeutung von Network Data Loss Prevention (DLP) dadurch erhöht, dass in der IT-Konvergenzumgebung Webmail als Mittel zur Informationsübermittlung verwendet wird. Die in verschiedenen Branchen verwendete Webmail hat zwei Facetten: Bequemlichkeit für die Informationsübertragung und Anfälligkeit für den Verlust vertraulicher Informationen. Die Überwachung des Blockierens und Protokollierens von Webmails sind einige der wichtigsten Sicherheitsmethoden, die verwendet wurden, um solche Lecks zu verhindern. Die Anwendung von HTTP über SSL (HTTPs) auf Web-Mail-Systeme wie Gmail hat jedoch die Grenzen bestehender Web-Mail-Sicherheitsmethoden bei der Kontrolle von Web-Mail aufgedeckt. Am wichtigsten ist, dass die bestehende Methode verschlüsselte Inhalte von Webmails nicht kontrollieren kann. In diesem Papier schlagen wir eine Methode vor, die HTTPs-Webmail-Inhalte durch Verwendung eines Proxyservers und Verteilung des SSL-Zertifikats (Secure Socket Layer) an den PC des Benutzers steuert. Der Proxy-Server spielt die Rolle der Zertifizierungsstelle zwischen den PCs der Benutzer und dem Webmail-Server und verteilt seine eigenen SSL-Zertifikate an die PCs der Benutzer. Das SSL-Zertifikat ist der Schlüssel zur Verschlüsselung und Entschlüsselung von HTTPs-Webmail-Inhalten. Unter Verwendung des in der vorliegenden Studie abgeleiteten Protokolls können HTTPs-Webmail-Inhalte als Effekt von Content-Awareness gesteuert werden. Netzwerk-DLP wird durch Überwachung, Blockierung und Protokollierung verdächtiger E-Mail-Inhalte über HTTPs bewirkt.;-;-;-;https://link.springer.com/article/10.1007/s10845-012-0666-1 384a651b799b365c3125a5eb00bb6d66;de;;;7.3.;;;Radiologie, mobile Geräte und Internet der Dinge (IoT) Die Radiologie ist naturgemäß eng mit dem Internet verbunden und steht an der Spitze der Medizintechnik. In den letzten Jahren hat die internetbasierte Technologie im Gesundheitswesen mit Bildgebung als Kernanwendung einen dramatischen Anstieg verzeichnet. Zahlreiche internetbasierte Anwendungen und Technologien haben Einzug in die Medizin gehalten, und für die Radiologie ist sie nahtloser als in anderen klinischen Fachgebieten. Viele Anwendungen in der Praxis der Radiologie sind internetbasiert und täglich kommen weitere Anwendungen hinzu. Die Einführung mobiler Geräte und deren Integration in den Bildgebungsworkflow hat die Rolle des Internets in der Radiologie verstärkt. Aufgrund der schnellen Verbreitung von tragbaren Geräten und Smartphones entwickelt die IoT-fähige Technologie das Gesundheitswesen von herkömmlichen Hub-basierten Systemen zu stärker personalisierten Gesundheitssystemen. In diesem Artikel wird kurz erläutert, wie das IoT eine nützliche Rolle im täglichen Bildgebungsworkflow und in aktuellen und potenziellen zukünftigen Anwendungen spielt, wie mobile Geräte in Radiologie-Workflows integriert werden können und die Auswirkungen des IoT auf die Ausbildung, Forschung und Patientenbeteiligung von Studierenden und Medizinstudenten. in der Radiologie.;-;-;-;https://link.springer.com/article/10.1007/s10278-019-00311-2 bb6105e5acd15b6737ba6e8aae13bb7e;de;;;7.3.;;;Strategie und Umsatzgenerierung in dynamischen Paradigmen: Ein Modell zur Unterstützung der Umsatzanalyse für etablierte Mobilfunkanbieter Das Wachstum des Mobilfunkgeschäfts in Italien hat den Umsatzrückgang aus der Festnetztelefonie weitgehend ausgeglichen. Genauer gesagt erleben wir ein deutliches Wachstum bei Datendiensten, das hauptsächlich durch Konnektivität angetrieben wird. Dank der zunehmenden Konvergenz zwischen den Märkten Telekommunikation, Medien und Unterhaltungselektronik entwickelt sich auch die Wettbewerbslandschaft weiter. Unter Berücksichtigung des obigen Szenarios zielt diese Studie darauf ab, ein strategisches Modell zur Analyse der von Telekommunikationsunternehmen generierten Einnahmequellen im Segment der italienischen Mobilfunkdienste zu entwickeln. Dieses Modell beschreibt die Variation der Haupteinflussfaktoren des Einkommens und erstellt drei mögliche Zukunftsszenarien (optimistisch, pessimistisch und erwartet), die diese Variablen in den nächsten 5 Jahren beeinflussen. Ziel des Modells ist es, Telco-Führungskräfte bei der Identifizierung kritischer Bereiche, die in den kommenden Jahren zu großen Umsatzlücken führen könnten, und bei der Formulierung der richtigen Strategien zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44791-8_7 5ee9415e1d6b6db8a1ea21e5d52f9ae0;de;;;7.3.;;;Ein topologiegesteuerter Ansatz für das Design von Clustering-Engines für die Web-Metasuche Um die Grenzen klassischer Web-Suchmaschinen zu überwinden, wird in letzter Zeit viel Aufmerksamkeit auf das Design von Web-Metasuch-Clustering-Engines gelegt. Diese Systeme unterstützen den Benutzer beim Durchsuchen der von einer Suchmaschine zurückgegebenen URLs, indem sie in verschiedene semantische Kategorien gruppiert werden, die in einer Hierarchie organisiert sind. In diesem Artikel beschreiben wir einen neuartigen topologiegesteuerten Ansatz für das Design einer Web-Metasuch-Clustering-Engine. Bei diesem Ansatz wird die Menge der URLs als geeigneter Graph modelliert und die Kategorienhierarchie durch Varianten klassischer Graph-Clustering-Algorithmen erhalten. Darüber hinaus verwenden wir Visualisierungstechniken, um den Benutzer beim Durchsuchen der Kategorienhierarchie zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30577-4_14 7ce85de58206e156b8e54f6fad64b2ed;de;;;7.3.;;;Nutzung der öffentlichen und privaten WLAN-Abdeckung für neue Geschäftsmodelle Der zu erwartende Boom der drahtlosen Vernetzung und die rasant steigende Zahl privater und öffentlicher Access Points bereiten den Boden für zusätzliche – zunächst ungewollte – Nutzungsmöglichkeiten dieser schnell wachsenden Infrastruktur.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-8155-3_8 fc32db5b9ae597078fb9e7296a355821;de;;;7.3.;;;Effiziente Generierung mehrerer Darstellungen für Web-Mapping Die Linienvereinfachung ist die am häufigsten verwendete Operation bei der Kartengeneralisierung. In vielen kommerziellen geographischen Informationssystemen (GIS) wird die Linienvereinfachung durch Anwendung des klassischen Ramer-Douglas-Peucker (RDP)-Algorithmus durchgeführt. Ein solcher Algorithmus hat jedoch den Nachteil, dass er die Erhaltung der topologischen Konsistenz nicht garantiert. Dies erfordert nachträgliche Prüfungen, um sicherzustellen, dass durch die Anwendung des Algorithmus eingeführte unerwünschte Schnittpunkte korrigiert werden. Um dieses Problem zu lösen, schlug Saalfeld eine Modifikation des klassischen RDP-Algorithmus vor, basierend auf der Tatsache, dass bei der Generalisierung einer Polylinie Konflikte nur mit Knoten anderer Polylinien auftreten können, die innerhalb ihrer konvexen Hülle liegen. In diesem Artikel schlagen wir eine Verbesserung des Saalfeld-Algorithmus vor, um mögliche Selbstschnittpunkte einer vereinfachten Polylinie effizienter zu erkennen. Dies verbessert die Performance insbesondere bei der Generalisierung sehr großer Datensätze. Trotzdem ist die Verarbeitungszeit für Echtzeit-Webmapping noch nicht akzeptabel. Deshalb haben wir unseren Algorithmus in ein Web-Mapping-System integriert, das eine Abfolge topologisch konsistenter Kartendarstellungen vorberechnet, auf dem Server speichert und auf Anfrage sukzessive übermittelt. Wir präsentieren experimentelle Ergebnisse zur Leistung des Algorithmus sowie Ergebnisse des Übertragungssystems.;-;-;-;https://link.springer.com/chapter/10.1007/11599289_6 4a87cd9e95c7beda744fd091de7da51a;de;;;7.3.;;;Unterstützendes Webdesign für Benutzer unterschiedlicher kultureller Herkunft im E-Commerce In diesem Artikel werden unterstützende Designfunktionen für Benutzer unterschiedlicher kultureller Herkunft auf globalen E-Commerce-Sites untersucht, die die Prinzipien der Mensch-Computer-Interaktion auf das Web-Interface-Design anwenden. Diese Untersuchung war notwendig, um ein Verständnis der Hindernisse bei der Implementierung von E-Business auf globaler Ebene zu erlangen. Der Beitrag beginnt mit einem Überblick über die aktuelle Business-to-User (B2C) E-Commerce-Implementierung im Web und beschreibt dann kulturelle Probleme im globalen E-Commerce.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02767-3_52 c53e68b420a5af10aac3bc052f0791a7;de;;;7.3.;;;Generieren bidirektionaler Links für Web-Annotations-Stickies Wir schlagen ein Web-Annotation-System vor, das automatisch bidirektionale Links zwischen Annotations-Stickies generiert, die auf ähnliche Informationen verweisen, und diese anschließend kategorisiert. Unser System verfügt über die Funktionalität von Stickies auf Webseiten. Mit den Stickies können wichtige Teile einer Webseite, die große Datenmengen enthält, hervorgehoben werden. Solche Stickies und Links können als Benutzerpräferenzen verwendet werden und haben das Potenzial, eine viel bessere Alternative zu Lesezeichen und Tags zu werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02568-6_69 f90d448a9dea5caa5c73b0644c49b044;de;;;7.3.;;;Reise-Mashups Web 2.0 hat die Art und Weise, wie Benutzer mit Informationen interagieren, revolutioniert, indem es eine Vielzahl von Diensten hinzugefügt hat, bei denen Endbenutzer explizit und implizit und als Nebeneffekt ihrer Nutzung Inhalte generieren, die zur Optimierung dieser Dienste beitragen. Die resultierenden (integrierten) Plattformen unterstützen Benutzer in und über verschiedene Facetten des Lebens hinweg, einschließlich Entdeckung und Erkundung, Reisen und Tourismus. In diesem Kapitel werden die Erstellung und Verwendung von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36403-7_11 540041bc0f7507b1c096572c3d13a0bf;de;;;7.3.;;;Servicekontext für Webservice-Suchmaschine ausnutzen Die serviceorientierte Architektur (SOA) entwickelt sich schnell zu einem bedeutenden Computing-Paradigma. Mit der Zunahme von Diensten wird die Dienstdefinition jedoch durch die zufällige Dienstdefinition mühsam und weniger effizient für die Diensterkennung. In diesem Papier schlagen wir ein neuartiges Kontextmodell „SPOT“ vor, um Informationen zur Nutzung von Diensten auszudrücken. Basierend auf der SPOT-Definition erstellen wir einen Kollaborationsgraph für Dienste und schlagen vor, die Kollaborationsstruktur zu analysieren, um Dienste nach ihrer Nutzungsgüte zu ordnen. Die Besonderheit unserer Methode liegt in der Einführung des Services-Kontextmodells, einem neuen Modell zum Umgang mit Service-Kontextinformationen, und deren Integration zur Unterstützung der Service-Suche. Unsere experimentellen Ergebnisse zeigen Folgendes: Unser kontextbasiertes Ranking ist nützlich für gute Serviceempfehlungen, der Kontext der Services gleicht die Heterogenität der Servicebeschreibung aus und kann helfen, inhalts-„ähnliche“ Services zu unterscheiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14246-8_36 c8cfe718ebea7de7be5372511e5ebfc7;de;;;7.3.;;;Lehrreform des Studiengangs „Stanzformprozess und Werkzeugkonstruktion“ auf Basis von „Internet +“ Der Studiengang „Stanzumformprozess und Werkzeugkonstruktion“ ist der Hauptkurs der Werkzeugspezialität. Es zeichnet sich durch umfassende Aspekte, breite Anwendung und starke Praktikabilität aus, die der Schlüssel zum Spezialgebiet des Lehrens ist. Die traditionelle Lehrmethode betont eher die Theorie als die Praxis, zudem sind die Lehrinhalte eintönig und veraltet, die Lehrform einfach und langweilig, was die Begeisterung für das professionelle Studium und die Teilnahme am Unterricht nicht wecken kann. Es ist zwingend erforderlich, die Lehrmodusreform dieses Kurses zu vertiefen. Vor dem Hintergrund des „Internet +“ recherchierte dieser Beitrag die Lehrreformstrategie dieses Studiengangs und untersuchte den Kultivierungsmodus des modernen Lehrlingswesens, um das Curriculumsystem auf der Grundlage der Integration und Optimierung der Lehrinhalte zu rekonstruieren, die „autonomer und offener“ Unterricht, Integration von „Online- und Offline“-Unterricht und Verbesserung der Lehreffektivität.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5959-4_212 b3bfa599a1a8d4898c74b59ec36b6902;de;;;7.3.;;;Das RACE Asynchronous Collaboration Environment-Projekt Das RACE Asynchronous Collaboration Environment Project (das „RACE“-Projekt) wird am Research into Artifacts, Center for Engineering (RACE), der Universität Tokio durchgeführt. Ziel dieses Projekts ist es, Wissensrepräsentationen zu finden, die für den Prozess der Reorganisation bestehender Informationen in Designwissen nützlich sind. Als Testbed für eine solche Wissensrepräsentation wird eine asynchrone und verteilte Designumgebung auf Basis des World-Wide Web aufgebaut.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35192-6_11 f55f59a9156afe9675503e618d190e5d;de;;;7.3.;;;Autonome Webprozesse Unser Ziel ist es, autonomes Computing von der Infrastruktur- auf die Prozessebene zu heben. Verschiedene Aspekte des Autonomic Computing – selbstkonfigurierend, selbstheilend, selbstoptimierend und selbstbewusst – werden für Autonomic Web Processes (AWPs) mit Hilfe eines Supply-Chain-Prozessszenarios untersucht. Bestehende Technologien und Schritte, die erforderlich sind, um die Lücke von aktuellen Prozessmanagementsystemen zu AWPs zu schließen, werden in diesem Papier untersucht. Das Verhalten von AWPs wird durch von Benutzern definierte Richtlinien gesteuert. Sympathische und parasympathische Richtlinien werden eingeführt, um kurz- und langfristige Richtlinien zu modellieren. Ein entscheidender Vorteil bei der Erhebung von autonomem Computing auf eine Prozessebene besteht darin, dass die Kompromisse offensichtlicher werden, da die Prozesskomponenten leichter auf Geschäftsfunktionen abgebildet werden.;-;-;-;https://link.springer.com/chapter/10.1007/11596141_1 c3e5fc9e2edc42abf18c5d64fdb3c9db;de;;;7.3.;;;Ein vorgeschlagenes Reifegradmodell für die elektronischen Dienste der Regierung von Himachal Pradesh Mit täglich neuen technologischen Fortschritten wird es sehr wichtig, dass grundlegende und notwendige staatliche Dienste als elektronische Dienste über das Internet bereitgestellt werden. Dies sind kleine Schritte, um sich den Traum vom „digitalisierten Indien“ zu erfüllen. Dieses Papier ist ein Ziel, ein Reifegradmodell für die bestehenden E-Dienste der Regierung von Himachal Pradesh (HP) bereitzustellen. Im Zentrum steht, wie man die Dienste für die breite Masse leicht zugänglich macht und ihre Funktionalität durch ein detailliertes und ausgereiftes Reifegradmodell verbessert. Das Papier listet auch die wichtigsten Anliegen der Informationssicherheit im E-Service-Portal der Regierung von Himachal Pradesh (HP) auf und es wurde versucht, eine Lösung dafür bereitzustellen. Die hiermit vorgeschlagene Lösung wird der Regierung helfen, das Niveau ihrer elektronischen Dienste und die Sicherheit des Portals zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7245-1_63 205bf382f84f9c35cbdc30fe0fd23324;de;;;7.3.;;;Schutz der Benutzerdaten in einem informationszentrierten Netzwerk mit mehreren Pfaden mithilfe mehrerer Zufalls-Caches Das Caching im Netzwerk ist ein grundlegender Mechanismus, der von informationszentrierten Netzwerken (ICNs) für eine effiziente Inhaltsbereitstellung befürwortet wird. Dieser neue Mechanismus birgt jedoch auch ernsthafte Datenschutzrisiken aufgrund von Cache-Snooping-Angriffen. Eine effektive Lösung für dieses Problem ist Random-Cache, bei dem der Cache in einem Router zufällig einen Cache-Treffer oder einen Cache-Miss für jede Inhaltsanforderung/-probe nachahmt. In diesem Artikel untersuchen wir die Wirksamkeit der Verwendung mehrerer Zufallscaches zum Schutz der Cache-Privatsphäre in einem Mehrpfad-ICN. Wir schlagen Modelle zur Charakterisierung der Privatsphäre von Multipath-ICNs mit Random-Caches vor und analysieren zwei verschiedene Angriffsszenarien: 1) präfixbasierte Angriffe und 2) suffixbasierte Angriffe. Dabei werden sowohl homogene als auch heterogene Caches berücksichtigt. Unsere Analyse zeigt, dass ein Angreifer in einem Multipath-ICN potenziell mehr Datenschutzinformationen erhalten kann, indem er präfixbasierte Angriffe übernimmt. Darüber hinaus bieten heterogene Caches bei beiden Angriffen einen viel besseren Datenschutz als homogene. Der Einfluss verschiedener Parameter auf die Privatsphäre von Mehrpfad-Random-Caches wird weiter untersucht und der Vergleich mit seinem Einpfad-Pendant auf Basis numerischer Auswertungen durchgeführt. Die Analyse und die Ergebnisse in diesem Papier bieten Einblicke in die Gestaltung und Bewertung von Mehrwege-ICNs unter Berücksichtigung des Datenschutzes.;-;-;-;https://link.springer.com/article/10.1007/s11390-017-1730-2 ed31304b5a1717ac0a5d2dd936a03df3;de;;;7.3.;;;Clientseitige adaptive Suchoptimierung für die Erkennung von Online-Spielservern Dieses Whitepaper beschreibt eine clientseitige, adaptive Suchtechnik, um sowohl die Zeit, die zum Auffinden spielbarer Online-Ego-Shooter-Spielserver (FPS) benötigt wird, als auch die Anzahl der während der Spielserver-Erkennung erstellten Netzwerkflüsse zu reduzieren. Online-FPS-Spiele verwenden normalerweise ein Client-Server-Modell mit Tausenden von Spielservern, die jederzeit aktiv sind. Die herkömmliche FPS-Servererkennung prüft alle verfügbaren Server über mehrere Minuten hinweg in keiner bestimmten Reihenfolge und erstellt Tausende von kurzlebigen UDP-Flows. Das Sondieren löst einen schnellen Verbrauch von langlebigem Per-Flow-Zustandsspeicher in NAT-Geräten zwischen einem Client und dem Internet aus. Unter Verwendung von Server-Discovery-Daten aus Counterstrike:Source von Valve und Wolfenstein Enemy Territory von idSoftware zeigt dieses Papier, dass die Vorabprüfung einer Teilmenge von Spielservern verwendet werden kann, um die gesamte Prüfsequenz neu anzuordnen und zu optimieren. Spielserver werden jetzt in ungefähr aufsteigender Latenzzeit untersucht, wodurch die Position spielbarer Server beschleunigt wird. Die Erkennung von spielbaren Servern kann jetzt weniger als 20 % der Zeit und des Netzwerkverkehrs der herkömmlichen Erkennung von Spielservern in Anspruch nehmen. Der schlimmste Fall konvergiert (ohne zu überschreiten) dem Verhalten der herkömmlichen Spieleservererkennung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79549-0_43 ce1e1fe6fda89c9d40396ec23291751d;de;;;7.3.;;;Verwenden von Hypertext-Kompositen in strukturierten Abfragen und Suchen Dieses Papier schlägt ein strukturiertes Abfrage- und Suchmodell für die Anwendung von Link-basierten Hypertext-Kompositen vor, die mit neuen Webstandards in der Websuche dargestellt werden können, und beschreibt ein primitives Prototypsystem, das das Modell implementiert. Wir argumentieren, dass die Genauigkeit der Suchergebnisse verbessert werden kann, indem es Benutzern ermöglicht wird, verschiedene Ebenen der zusammengesetzten Strukturen mit gleichen oder unterschiedlichen Schlüsselwörtern abzufragen und Suchtreffer zu erhalten, die keine separaten Knoten, sondern Gruppen miteinander verbundener Knoten sind. In der Zwischenzeit erhalten Benutzer möglicherweise mehr Kontextinformationen zu den Suchergebnissen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44700-8_31 c7e8ab2db5963624e0b3896269bed3bd;de;;;7.3.;;;Die unsichere Natur des Cyberspace In diesem Kapitel wird zunächst die Entwicklung des Internets und das erhebliche Wachstum der Nutzer im Cyberspace beschrieben. Zusammen mit der Bequemlichkeit, die das Internet der breiten Öffentlichkeit gebracht und das tägliche Verhalten der Nutzer geprägt hat, ist der Cyberspace zu einem attraktiven virtuellen Ort für Kriminalität geworden. Während die Art der Cyberkriminalität vielfältig ist, ist das intuitive Bild von Cyberkriminellen in der Regel Hacker. „Echte“ Hacker sind mit Programmierfähigkeiten ausgestattet, aber sie beginnen ihre Cyberangriffe oft mit „Social Engineering“.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-70706-4_1 36015a2e0f04269c8cd76385d6b91114;de;;;7.3.;;;Erkennung mobiler Spam-Botnetze mit künstlichen Immunsystemen Schädliche Software infiziert eine große Anzahl von Computern auf der ganzen Welt. Einmal kompromittiert, werden die Computer Teil eines Botnets und nehmen an vielen Formen krimineller Aktivitäten teil, einschließlich des Versands unerwünschter kommerzieller E-Mails oder Spam. Da mobile Geräte immer stärker in das Internet integriert werden, haben damit verbundene Bedrohungen wie Botnets begonnen, auf die Geräte überzugehen. Dieser Artikel beschreibt eine Technik, die auf künstlichen Immunsystemen basiert, um Botnet-Spamming-Programme auf Android-Telefonen zu erkennen. Experimentelle Ergebnisse zeigen, dass die Botnet-Erkennungstechnik Spam genau identifiziert. Die Implementierung dieser Technik könnte die Attraktivität von Mobiltelefonen als Plattform für Spammer verringern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24212-0_14 546e60a5a473f8f168cffde1f0fed420;de;;;7.3.;;;MAS und SOA: Komplementäre Automatisierungsparadigmen Dieses Dokument gibt einen Überblick über die bestehende Forschung zu neuen Konzepten und Technologien, die die Etablierung zukünftiger Automatisierungssysteme unterstützen. Multiagentensysteme (MAS) und serviceorientierte Architekturen (SOA) sind dabei derzeit die vielversprechendsten Konzepte. Die Erfahrung des Autors bei der Implementierung und Untersuchung von SOA und MAS für verteilte Automatisierungssysteme legt nahe, dass die Konvergenz von Paradigmen und Technologien erhebliche Vorteile bietet. In diesem Zusammenhang besteht das Ziel der vorliegenden Arbeit darin, ihre Stärken und Schwächen aufzudecken und die Vereinheitlichung von ergänzende Funktionen als ein Mittel, um das Studium, die Modellierung, das Design und die Implementierung komplexer verteilter Systeme zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09492-2_28 ace9ce29a021e5800aa381665bb81033;de;;;7.3.;;;3D Human Motion Information Extraction basierend auf Vicon Motion Capture im Internet der Dinge Um die Probleme der unklaren Kontur und der schlechten geometrischen Präzision beim Extrahieren von Bewegungsinformationen des menschlichen Körpers durch traditionelle Schlüsselpunkterkennungsverfahren zu lösen, wurde ein 3D-Extraktionsverfahren für menschliche Bewegungsinformationen basierend auf Vicon-Bewegungserfassung vorgeschlagen. Die Bewegungsmerkmale des menschlichen Körpers wurden mit der Motion-Capture-Technologie von Vicon erfasst. Entsprechend den Erfassungsergebnissen wurden die Änderungscharakteristiken von Gelenkkraft und -winkel im Verlauf der menschlichen Bewegung gesammelt und berechnet, so dass die Frequenz der menschlichen Bewegungswelle, die Verteilung der Frequenzänderung und das Änderungsgesetz genau erfasst werden können. Gemäß dem Änderungsgesetz wurden die Konturmerkmale im Prozess der menschlichen Bewegung wahrgenommen und beurteilt, und die geometrische Genauigkeit der sich bewegenden Kontur wurde mithilfe eines Fuzzy-Algorithmus optimiert, wodurch die genaue Extraktion dreidimensionaler menschlicher Bewegungsinformationen realisiert wurde. Die Simulationsergebnisse zeigen, dass diese Methode 3D-Informationen über menschliche Bewegungen effektiv extrahieren, das Problem unklarer Konturen bei herkömmlichen Methoden lösen und die geometrische Genauigkeit der Extraktion von 3D-Informationen über menschliche Bewegungen verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36402-1_40 9a3829a28a7af50a57e20f7544ff2b4f;de;;;7.3.;;;Bildung über homogenes Netzwerk Ziel dieses Projektes ist es, alle Menschen zu jeder Zeit und an jedem Ort unter Anwendung von HCI-Prinzipien (Human Computer Interaction) und pädagogischen Konzepten der Physiologie zu unterrichten. Im Projekt werden alle Standards und Prinzipien des HCI und der Pädagogischen Physiologie verwendet. Das Lernziel des Papiers besteht darin, den Benutzern Erfahrungen über ihre Kurse und Lehren zu vermitteln. Project ermöglicht eine sichere Systemnutzung und ergonomische Feldstudien in fortgeschrittenen und Anfängertypen von Schnittstellen. Es kann auf alle Kurse angewendet werden, z.B. Programmiersprache C, Englische Sprache für Kinder e.t.c. Die Idee stammt aus internationalen Feldstudien, die Präsenzschulungen in computergestützte Lehrangebote umwandeln. Von zentraler Bedeutung für den Forschungswert ist das „Wie“ Erwachsenenbildung, Unterricht, Organisationswissenschaft und Systemtheorien zum Nutzen von Organisationen, Studenten und Professoren integriert werden, um eine effiziente und effektive E-Teaching-Technologie zu unterstützen, die von der Erwachsenenlernzieltheorie geprägt ist. Zeitgenössische theoretische Ansichten über die Gestaltung und Durchführung von Kursen können in Rahmen aus der pädagogischen Psychologie und anderen sozialwissenschaftlichen Bereichen artikuliert werden. E-Learning ist ein Begriff, der eine Vielzahl von Anwendungen und Prozessen abdeckt, wie z. B. webbasiertes Lernen, computergestütztes Lernen, virtuelle Klassenzimmer und digitale Zusammenarbeit. Bei diesem Studienziel geht es darum, „wie man erwachsene Lernende unter Verwendung der Prinzipien der technologischen Umgebung und des E-Learning-Objekts unterrichtet“. Das Projekt umfasst ein System zum Verwalten und Unterrichten des Studenten mit Computer-Based Application (CBA). In diesem Dokument wird beschrieben, wie das E-Learning-System erstellt wird. Das Papier besteht aus Lernprinzipien (z. B. Motivation, Kognition und Wirksamkeit) sowohl für die Gestaltung als auch für den Unterricht. Die Anwendung von Systemmethoden zur Strukturierung von Inhalten und der Vermittlung (z. B. programmierter Unterricht, Testbanken und Prüfungen), die Anwendung von Unterrichtstechniken (entspricht kognitiven Lern-zu-Lern-Ansätzen) und die Nutzung von Computersystemen (relationales Datenbankdesign, Unterricht mit Objekten) orientierte Technologie) für effektives und effizientes Design und Bereitstellung von Kursen für Erwachsene in Desktop-Anwendungen;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-8739-4_23 86564db29c317d1c67f33ec48bbc856f;de;;;7.3.;;;Kollaborative Inhaltserstellung mit webbasierter verteilter Benutzeroberfläche (DUI) Dieses Papier beschreibt kollaborative Social-Authoring-Technologie unter Verwendung einer webbasierten verteilten Benutzeroberfläche (DUI). Im Hinblick auf die Zusammenarbeit ist das Web eine der am häufigsten verwendeten Benutzerumgebungen auf verschiedenen Systemen von Desktop- und mobilen Geräten. In diesem Dokument werden die DUI-Probleme für die Unterstützung mehrerer Arten von Geräten wie PC, Smartphone, Tablet usw. behandelt. Unser System definiert CAM (Collaborative Authoring Metadata) für kollaboratives Authoring in einer verteilten Umgebung. Das CAM wird für den Austausch der Autorenabsicht jedes Benutzers während des kollaborativen Authoring verwendet. Es sind mehrere Elemente von CAM definiert, die für den Informationsaustausch zwischen verteilten Benutzern nützlich sind. Unser System bietet auch die Empfehlungsmaschine zum Verweisen und Hinzufügen der zugehörigen Inhaltsmedien aus dem Social-Media-Dienstkonto der Teilnehmer während des Erstellungsprozesses.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-5499-0_4 835814e13aebf7277a654f444b22981f;de;;;7.3.;;;Verbraucher, die das Internet für Informationen zu Schlaflosigkeit nutzen: Das Wer, Was und Warum Informationen aus dem Internet beeinflussen oft die Behandlungsentscheidungen von Patienten mit Schlaflosigkeit. Diese Studie untersuchte Muster der Online-Informationssuche und -Nutzung bei Patienten mit Schlaflosigkeit. Zwischen Juli 2012 und März 2013 nahmen insgesamt 1013 Teilnehmer an einer Online-Umfrage zu Informationen zur Schlafgesundheit teil. Die Teilnehmer füllten auch den Insomnia Severity Index und die Dysfunctional Beliefs and Attitudes about Sleep Scale aus. Die Ergebnisse zeigten, dass diejenigen, die nach Informationen über Schlaflosigkeit suchten, häufig online recherchierten und die gefundenen Informationen schienen wichtige Gesundheitsverhaltensweisen zu beeinflussen, wie Behandlungsentscheidungen, Einnahme von Medikamenten und die Frage, ob sie professionelle Hilfe in Anspruch nehmen sollten. Interessante Informationen drehten sich um die Behandlungsmöglichkeiten von Schlaflosigkeit und die Symptomatik. Obwohl keine Prädiktoren für die Internetnutzung identifiziert wurden, stellt das Internet ein wichtiges Gesundheitsportal für Patienten mit Schlaflosigkeit dar und erfordert weitere Untersuchungen, da gezielte E-Health-Interventionen in der routinemäßigen Behandlung von Schlaflosigkeit an Bedeutung gewinnen.;-;-;-;https://link.springer.com/article/10.1111/sbr.12074 acf730e10921918960717e10b6a3b52a;de;;;7.3.;;;Nutzung von Web und sozialen Medien zur Influenza-Überwachung Die Analyse von Google-Suchanfragen zu grippeähnlichen Erkrankungen (ILI) hat ein stark korreliertes Muster mit den saisonalen ILI-Berichtsdaten der Centers for Disease Control (CDC) und der Prävention gezeigt. Web und soziale Medien bieten eine weitere Ressource, um einen Anstieg des ILI zu erkennen. In diesem Artikel werden Trends in Blogbeiträgen bewertet, die sich mit Influenza befassen. Unser wichtigstes Ergebnis ist, dass zwischen dem 5. Oktober 2008 und dem 31. Januar 2009 eine hohe Korrelation zwischen der Häufigkeit von Posts mit Influenza-Schlüsselwörtern pro Woche und den CDC-Überwachungsdaten zu grippeähnlichen Erkrankungen besteht.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-5913-3_61 e1a761b51efe9cfea3f089e0b6e113a0;de;;;7.3.;;;Choreographie in IRS-III – Umgang mit heterogenen Interaktionsmustern in Webdiensten In diesem Artikel beschreiben wir, wie wir mit Heterogenität in der Webservice-Interaktion durch einen Choreographie-Mechanismus umgehen, den wir für IRS-III entwickelt haben. IRS-III ist ein Framework und eine Plattform zur Entwicklung semantischer Webdienste, die die WSMO-Ontologie verwenden. Das Gesamtdesign unseres Choreografie-Frameworks basiert auf: der Verwendung von Ontologien und Zustand, IRS-III als Vermittler, Unterscheidung zwischen Kommunikationsrichtung und Akteur, der die Initiative hat, ausführbaren Repräsentationen, einer formalen Semantik, und die Fähigkeit, die Kommunikation zu unterbrechen. Unser Framework verfügt über eine vollständige Implementierung, die wir anhand einer Beispielanwendung veranschaulichen.;-;-;-;https://link.springer.com/chapter/10.1007/11574620_15 10e83d1cd41a2e18a9e50ea34b637cc1;de;;;7.3.;;;ANTON Framework basierend auf semantisch fokussiertem Crawler zur Unterstützung von Web Crime Mining mit SVM Die Kriminalitätsanalyse ist eine der wichtigsten Tätigkeiten in Informationssicherheitsbehörden. Sie sammeln die Verbrechensdaten mit geeigneten Verfahren und Tools aus dem Web. Die größte Herausforderung, mit der viele dieser Behörden konfrontiert sind, besteht in einer effizienten und genauen Analyse der steigenden Zahl von Informationen über Kriminalität. Die auf Webseiten präsentierten Informationen über Cyberkriminalität liegen in Textform vor und müssen analysiert und untersucht werden. Obwohl einige Ansätze vorgestellt wurden, um das Mining von Internetkriminalität zu unterstützen, bestehen die Probleme der Effizienz und Effektivität immer noch. Da die meisten Kriminalitätsinformationen auf der Webontologie basieren, können semantische Technologien verwendet werden, um die Muster und den Prozess von Webkriminalität zu untersuchen. Um die Internetkriminalität zu extrahieren und aufzudecken, ist daher eine verbesserte Webontologie nützlich, um die Eigenschaften und Beziehungen zwischen Webseiten für die Wiederherstellung und Extraktion von Kriminalitätsszenarien zu extrahieren. Das Hauptziel dieser Studie ist es, einen optimierten ontologiebasierten Ansatz für das Mining von Web Crime zu entwickeln. Der vorgeschlagene Rahmen wurde basierend auf einer verbesserten Kriminalitätsontologie mit einem auf Ameisengräber fokussierten Crawler entworfen, der sich von biologischen Forschungen zum Nahrungssuchverhalten von Ameisen inspirieren ließ. Ameisenkolonie-Optimierung wurde verwendet, um das vorgeschlagene Framework zu optimieren. Die vorgeschlagene Arbeit wurde anhand von Genauigkeitskriterien bewertet. Die Auswertungsergebnisse zeigen, dass diese Forschung durch Kriminalitätsontologien und einen verbesserten ameisenbasierten Crawler eine effektive Lösung bietet.;-;-;-;https://link.springer.com/article/10.1007/s40745-019-00208-5 38d1ff92f379b9a91d8a120a8fc2a174;de;;;7.3.;;;3DMolNavi: Ein webbasiertes Abruf- und Navigationstool für den flexiblen Vergleich der Molekülform Viele interessierende Moleküle sind flexibel und unterliegen als Teil ihrer Funktion einer signifikanten Formverformung, aber die meisten existierenden Verfahren zum Vergleich von Molekülformen behandeln sie als starre Formen, was zu einer falschen Messung der Formähnlichkeit flexibler Moleküle führen kann. Derzeit gibt es noch einen begrenzten Aufwand bei der Suche und Navigation für einen flexiblen Molekülformvergleich, der die Datensuche verbessern würde, indem sie Benutzern hilft, das gewünschte Molekül auf bequeme Weise zu finden.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-13-95 2e46e531e105f43901070058e6d3795b;de;;;7.3.;;;Extrahieren von Begriffskollokationen zum Weiterleiten von Benutzern auf informative Webseiten Durch die rasche Zunahme der Anzahl bestehender Webseiten ist der Zugriff auf die von uns gesuchten relevanten Informationen schwieriger geworden, insbesondere wenn die richtigen Schlüsselwörter für die Suchmaschine nicht gefunden werden können. Wenn wir auf eine solche Situation stoßen, versuchen wir oft, der vorherigen Abfrage weitere Keywords hinzuzufügen. Es ist jedoch ziemlich schwierig, die entsprechenden Wörter hinzuzufügen, um nur nützliche Dokumente zu extrahieren. Um dieses Problem zu lösen, haben wir eine Methode zum Extrahieren von Begriffskollokationen entwickelt, die helfen könnte, die extrahierten Seiten auf informativere Seiten zu beschränken. Um die Nützlichkeit unseres Ansatzes zu überprüfen, haben wir beispielsweise Kollokationen aus Webdokumenten innerhalb des medizinischen Bereichs extrahiert und diese Kollokationen in eine Suchmaschine eingegeben und Informationen aus dem Internet abgerufen. Die Ergebnisse bestätigten, dass die mit dieser Methode extrahierten Kollokationen die Benutzer zu informativeren Webseiten führten.;-;-;-;https://link.springer.com/chapter/10.1007/11816508_32 d8481c7f2bb1d9efddb9509bd2fd7d3b;de;;;7.3.;;;Ein auf Benutzerverhalten basierender Agent zur Verbesserung der Webnutzung Die Entwicklung von Anwendungen zur Unterstützung der Nutzeraktivität beim Zugriff auf Web-Informationsquellen ist eine der reizvollsten Herausforderungen für Forscher im Bereich der Künstlichen Intelligenz. Das Agenten-Paradigma stellt einen natürlichen Weg dar, diesem Problem zu begegnen, hauptsächlich wegen der Autonomie- und Reaktivitätseigenschaften, die diese Anwendungen haben sollten. In diesem Beitrag entwerfen wir einen Agenten, der in der Lage ist, eine persönliche Ontologie zu erstellen und zu verwalten sowie diese zum Auffinden potenziell interessanter Navigationspfade für den Benutzer zu nutzen. Der Agent gibt dem Benutzer während der Navigation auf einer Site eine Reihe von Empfehlungen und gleichzeitig;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36124-3_74 201f89088d4d82e4742a51d9167d2ef1;de;;;7.3.;;;Die Ethik des Vergessens und Erinnerns in der digitalen Welt durch das Auge der Medien Das Gedächtnis ist eine „dualistische Einheit“, die sich aus Erinnern und Vergessen zusammensetzt, und es ist eines der konstitutionellen Elemente der eigenen Identität und des eigenen Selbst (siehe beispielsweise James, 1890/1950, Conway, 2005). Vergessen ist ebenso wie das Erinnern konstitutiv für die Bildung neuer Identitäten (Connerton, 2009). Ein wegweisender Text auf dem Gebiet der Gedächtnisforschung ist der von Yates (1966): Gedächtnispraktiken werden als;-;-;-;https://link.springer.com/chapter/10.1057/9781137428455_2 28eef8be11a0f0f3249b3367cea1d054;de;;;7.3.;;;Link-Kontexte für Ranking Ankertext hat sich beim Ranking [6] und bei einer Vielzahl von Informationsabrufaufgaben auf Webseiten als effektiv erwiesen. Einige Autoren haben den Ankertext erweitert, indem sie die Wörter um das Anker-Tag herum verwendet haben,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88192-6_66 788571472a9045cd7c9ccde98e97c70a;de;;;7.3.;;;Neue digitale Geographien: Information, Kommunikation und Ort Dieses Kapitel bietet einen Überblick über aktuelle Trends, die für die Entwicklung von Regionen auf der Grundlage neuer digitaler Technologien wie Internet und Mobiltelefone relevant sind. Visionen von utopischen und allgegenwärtigen Datenautobahnen und ortslosem Handel sind eindeutig passé, aber privilegierte Individuen und Orte werden immer mehr in diese neuen digitalen Geographien eingebettet, während private und staatliche Einheiten diese digitalen Geographien zunehmend in uns alle einbetten. Zunächst wird die zentrale Bedeutung geographischer Metaphern für die Art und Weise diskutiert, wie wir uns die neuen digitalen Geographien vorstellen und visualisieren. Dann wird am Beispiel des kommerziellen Internets (E-Commerce) die nach wie vor zentrale Rolle des Ortes in der neuen digitalen Geographie sowohl im Hinblick auf die Cluster von Aktivitäten als auch auf ihre räumlichen Unterschiede aufgezeigt. Die Transformation digitaler Verbindungen von festen (d. h. kabelgebundenen) zu ungebundenen (d. h. drahtlosen) Verbindungen wird auf ihre Bedeutung für die Art und Weise untersucht, wie wir mit Informationen und der gebauten Umwelt interagieren. Schließlich wird das beunruhigende Problem der langen Datenschatten untersucht, die alle Individuen werfen, wenn sie ihre eigenen digitalen Geographien gegenüber größeren staatlichen und privaten Einheiten aushandeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-2353-8_7 3919a3987a74a5cb633fd07f153034be;de;;;7.3.;;;Unscharfe Segmentierung von Zeichen in Webbildern basierend auf der menschlichen Farbwahrnehmung Dieses Papier beschreibt einen neuen Ansatz für die Segmentierung von Zeichen in Bildern auf Webseiten. Wie die bisherigen Arbeiten der Autoren zu diesem Thema versucht dieser Ansatz, die Fähigkeit des Menschen zur Farbunterscheidung nachzuahmen. In diesem Fall werden Pixel ähnlicher Farbe zunächst unter Verwendung eines Farbabstands gruppiert, der in einem wahrnehmungsmäßig einheitlichen Farbraum definiert ist (im Gegensatz zum üblicherweise verwendeten RGB). Die resultierenden farbverbundenen Komponenten werden dann mit Hilfe eines Fuzzy-Propinquity-Maßes zu größeren (zeichenartigen) Bereichen gruppiert. Dieses Maß drückt die Wahrscheinlichkeit für das Zusammenführen zweier Komponenten basierend auf zwei Merkmalen aus. Das erste Merkmal ist der Farbabstand im;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45869-7_35 14035013af24db1ad30f494b7e4c5a76;de;;;7.3.;;;Musiksuche und Empfehlung In den letzten zehn Jahren hat sich unsere Art, Musik zu hören, drastisch verändert: Früher gingen wir in Plattenläden oder mussten Audiocodierung mit niedriger Bitrate verwenden, um Musik zu bekommen und auf PCs zu speichern. Heutzutage sind Millionen von Songs über Online-Distributoren erreichbar. Einige Musikliebhaber haben bereits Terabyte an Musik auf ihrer Festplatte. Benutzer sind jetzt nicht mehr verzweifelt, Musik zu bekommen, sondern auszuwählen, um die Musik zu finden, die sie lieben. Um diesen neuen Anforderungen gerecht zu werden, wurde eine Reihe von Technologien entwickelt. Es gibt Techniken zum Identifizieren von Musik und Möglichkeiten, nach Musik zu suchen. Empfehlung ist heute ein heißes Thema, genauso wie das Organisieren von Musik in Playlists.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-89024-1_16 36d33160022e204a650715d54d813c9d;de;;;7.3.;;;HTML5-Agenten: Mobile Agenten für das Web Wir argumentieren, dass die moderne Webinfrastruktur mit HTML5 als solche eine Agentenplattform sein kann und mobile Agenten ähnlich wie Webanwendungen entwickelt werden könnten. Für uns können die Agenten auch Endbenutzeranwendungen sein, die der Benutzer an einen Server senden kann, damit der Zustand erhalten bleibt und die Ausführung fortgesetzt werden kann. Der Benutzer kann den Agenten später auf dasselbe Clientgerät oder auf ein anderes Gerät holen. Neben den Anwendungsfällen für mobile Agenten ermöglicht das Konzept den Benutzern auch, ihre Arbeit später auf einem anderen Gerät fortzusetzen oder sogar anderen Benutzern die Ausführung auf ihren eigenen Geräten zu ermöglichen. Der Beitrag stellt das Gesamtkonzept und die Architektur von HTML5-Agenten, eine Reihe von Anwendungsfällen, die Machbarkeitsstudie und eine Liste von Beispielanwendungen vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44300-2_4 cc20513c24de0dd78bbc29587ce992c2;de;;;7.3.;;;Hindernisse beim Web-Multimedia-Publishing: Konferenzprotokolle online stellen Dieses Papier beleuchtet die Probleme, die mit der Online-Stellung von technischen Multimediamaterialien im World Wide Web verbunden sind. Es diskutiert Hindernisse bei (a) der Automatisierung der Sammlung und Verarbeitung der Multimediakomponenten und (b) Beschränkungen im Schnittstellendesign, die durch Beschränkungen im Zusammenhang mit kontinuierlichen Medien und insbesondere Audio auferlegt werden. Als Paradigma der Veröffentlichung multimedialer technischer Tagungsbände („DAGS'95 Conference on Electronic Publishing and the Information Superhighway“) schlägt der Beitrag einen handhabbaren Rahmen für die Produktion solcher Tagungsbeiträge vor, der eine parallele Entwicklung der eingereichten Beiträge im Hypertext erlaubt Format und der zeitbasierten Medien (Vorträge) im Multimedia-Format.;-;-;-;https://link.springer.com/article/10.1023/A%3A1009617001852 c4d67a6bced949833401cb89213368a2;de;;;7.3.;;;Entdecken informativer Inhalte von Webseiten Das World Wide Web ist zu einem riesigen Informationsspeicher geworden. Neben informativen Inhalten enthalten die Webseiten jedoch auch redundante Inhalte, die als schädlich für Web-Mining- und Suchsysteme gelten. In diesem Papier schlagen wir einen neuen Ansatz vor, um informative Inhalte aus einer Reihe von Webseiten innerhalb einer einzelnen Website zu entdecken. Unsere Methode funktioniert wie folgt: Zunächst schlagen wir einen neu gestalteten Site Style Tree vor, um die gängigen Präsentationsstile und den tatsächlichen Inhalt der Seiten der jeweiligen Website zu erfassen. Die Baumstruktur, die sich von der zuvor vorgeschlagenen unterscheidet, wird durch das Ausrichten der Seiten der Site erstellt. Für jeden SST-Knoten werden informative Inhalte basierend auf der Entropie- und Schwellenwertmethode ermittelt. Der vorgeschlagene Ansatz wird mit zwei Mining-Aufgaben evaluiert, dem Webseiten-Clustering und der Klassifizierung. Die experimentelle Leistung zeigt eine signifikante Verbesserung im Vergleich zu früheren Ansätzen zur Detektion von Templaten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08010-9_20 12cdf9fa004539201ae5fb1c0b9e1859;de;;;7.3.;;;Verwendung von Semantic Web-Technologien auf den BBC-Websites Die BBC veröffentlicht große Mengen von Inhalten online, als Text, Audio und Video. Da die Menge an Inhalten wächst, müssen wir es den Benutzern leicht machen, interessante Elemente zu finden und zusammenhängende Reisen durch sie zu ziehen. In diesem Kapitel beschreiben wir unseren Einsatz von Semantic Web-Technologien, um dieses Ziel zu erreichen. Wir konzentrieren uns insbesondere auf drei BBC-Websites: BBC Programmes, BBC Music und BBC Wildlife Finder und wie diese Websites das breitere Web effektiv als ihr Content-Management-System nutzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-7665-9_13 c5aef3507a3a4829e1fac87dc74cc2e3;de;;;7.3.;;;Überbrückung von strukturierten und unstrukturierten Daten durch hybride semantische Suche und interaktive ontologiegestützte Abfrageformulierung In diesem Beitrag identifizieren wir die Probleme aktueller semantischer und hybrider Suchsysteme, die eine Brücke zwischen Struktur und unstrukturierten Daten schlagen, und schlagen Lösungen vor. Wir stellen einen neuartigen Eingabemechanismus für die hybride semantische Suche vor, der die sauberen und präzisen Eingabemechanismen schlüsselwortbasierter Suchmaschinen mit der Aussagekraft der Eingabemechanismen semantischer Suchmaschinen kombiniert. Mit diesem interaktiven Eingabemechanismus können ontologiebewusste Suchanfragen ohne Vorkenntnisse der Ontologie formuliert werden. Darüber hinaus schlagen wir eine Systemarchitektur zum automatischen Abrufen relevanter unstrukturierter Daten vor, die in einer Wissensdatenbank gespeicherte strukturierte Daten ergänzt, um einen kombinierten Index zu erstellen. Dieser kombinierte Index kann verwendet werden, um hybride semantische Suchen durchzuführen, die Informationen aus strukturierten und unstrukturierten Quellen nutzen. Wir präsentieren die Referenzimplementierung Hybrid Semantic Search System (;-;-;-;https://link.springer.com/article/10.1007/s10115-013-0678-y bf6e78a83d9a6121643fd65a84f5cf1f;de;;;7.3.;;;Bearbeiten von Web-Präsentationen im Dialog Die Zahl der Webseiten wächst schnell [1] und die Fähigkeit, eine eigene Webpräsentation zu erstellen und zu pflegen, wurde nicht nur für IT-Profis, sondern auch für normale Benutzer zu einer wichtigen Fähigkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14097-6_57 a6a9e64a8df57ea1dc574ee98d351f9f;de;;;7.3.;;;Extrahieren von Webdaten mit instanzbasiertem Lernen In diesem Artikel wird die strukturierte Datenextraktion aus Webseiten untersucht. Bestehende Ansätze zur Datenextraktion umfassen Wrapper-Induktion und automatisierte Methoden. In diesem Papier schlagen wir eine instanzbasierte Lernmethode vor, die eine Extraktion durchführt, indem jede neu zu extrahierende Instanz mit gekennzeichneten Instanzen verglichen wird. Der Hauptvorteil unserer Methode besteht darin, dass sie keinen anfänglichen Satz von gekennzeichneten Seiten erfordert, um Extraktionsregeln wie bei der Wrapper-Induktion zu lernen. Stattdessen kann der Algorithmus die Extraktion von einer einzelnen gekennzeichneten Instanz aus starten. Nur wenn eine neue Instanz nicht extrahiert werden kann, muss sie gekennzeichnet werden. Dies vermeidet unnötige Seitenkennzeichnung, was ein Hauptproblem beim induktiven Lernen (oder Wrapper-Induktion) löst, d. h. die Menge der gekennzeichneten Instanzen kann nicht alle anderen Instanzen repräsentieren. Der instanzbasierte Ansatz ist sehr natürlich, da strukturierte Daten im Web normalerweise einigen festen Vorlagen folgen. Seiten derselben Vorlage können normalerweise basierend auf einer einzelnen Seiteninstanz der Vorlage extrahiert werden. Es wird eine neuartige Technik vorgeschlagen, um eine neue Instanz mit einer manuell gekennzeichneten Instanz abzugleichen und dabei die erforderlichen Datenelemente aus der neuen Instanz zu extrahieren. Die Technik ist auch sehr effizient. Experimentelle Ergebnisse auf Basis von 1.200 Seiten von 24 verschiedenen Websites belegen die Wirksamkeit der Methode. Außerdem übertrifft es die modernen bestehenden Systeme deutlich.;-;-;-;https://link.springer.com/article/10.1007/s11280-007-0022-0 2ef7646f89a66c5efab55fd1256051e3;de;;;7.3.;;;Entwicklung des Webs für Multimedia Dieses Papier untersucht die Probleme im Zusammenhang mit der Entwicklung von Webanwendungen, die digitale Medien verwenden, mit besonderem Schwerpunkt auf digitalem Video. Die Natur des digitalen Videos macht technische Lösungen im Web aufgrund der großen Datenmengen im Vergleich zu Text, der zeitlichen Natur von Videos, proprietären Datenformaten und Problemen im Zusammenhang mit der Trennung der Funktionalität zwischen Inhaltserstellung, Inhaltsindexierung mit zugehörigen Metadaten und Inhaltsbereitstellung. Das Ziel dieses Papiers ist es, zum Verständnis der verschiedenen Komponententechnologien beizutragen, die bei der Bereitstellung videobasierter Webanwendungen beteiligt sind, und der mit jeder Option verbundenen Kompromisse. Als anschauliches Beispiel beschreiben wir die Anforderungen an die Architektur einer videobasierten Webanwendung, CueVideo: ein System zum Suchen und Durchsuchen von Videos und verwandtem Material.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45144-7_9 0af1c31eae58d09a0510fc5bb1580583;de;;;7.3.;;;Alternative Strategien zum Ausführen von räumlichen Verknüpfungen in Webquellen Angesichts der aktuellen Informationsexplosion im Web erfordern zahlreiche Anwendungen Zugriff auf eine Sammlung verschiedener, aber verwandter verteilter Geodaten. In diesem Papier konzentrieren wir uns auf eine Gruppe solcher Anwendungen, die eine effiziente Unterstützung von räumlichen Operationen (insbesondere räumlicher Verknüpfung) auf verteilten Nicht-Datenbankquellen erfordern. Die größte Herausforderung bei dieser Umgebung besteht darin, dass Remotequellen normalerweise schreibgeschützt sind und/oder keine räumlichen Abfragen unterstützen. Darüber hinaus tolerieren einige dieser webbasierten Anwendungen entweder ein gewisses Maß an Ungenauigkeit oder nach und nach gefilterte (oder polierte) Ergebnisse. Daher sind herkömmliche verteilte räumliche Join-Strategien in dieser Umgebung nicht anwendbar oder effizient. Um diesen Herausforderungen zu begegnen, unterteilen wir zunächst den Prozess der verteilten räumlichen Verknüpfungsoperation in drei Schritte: (1) lokaler zu entfernter Transfer, (2) entfernte räumliche Auswahl und (3) lokale Verfeinerung. Dann schlagen wir für jeden Schritt alternative Techniken vor, untersuchen diese und generieren durch Variation ihrer Kombinationen mehrere Abfragepläne. Jeder Plan strebt danach, einen Kompromiss zwischen Effizienz und Genauigkeit zu finden. Da die für den ersten Schritt vorgeschlagenen Techniken erhebliche Auswirkungen auf die Gesamtleistung der Abfrage haben, richten wir unser Augenmerk speziell auf diesen Schritt. Für den ersten Schritt schlagen wir zwei Heuristiken vor, um entweder die Anzahl der Selektionsabfragen oder den von jeder Selektionsabfrage abgedeckten Bereich zu reduzieren. In einem realistischen Versuchsaufbau zeigen wir, dass die eine Heuristik bei schnellen Netzwerken und einem leistungsfähigen lokalen Server besser geeignet ist, während die andere im umgekehrten Fall überlegen ist. Unsere Experimente zeigen auch, dass beide Heuristiken Ansätze übertreffen, die auf der Übertragung entweder der tatsächlichen räumlichen Objekte oder ihrer Bounding Boxes basieren. Beachten Sie, dass die Absicht dieses Dokuments nicht darin besteht, einen Abfrageoptimierer vorzuschlagen, um einen Plan den anderen vorzuziehen. Stattdessen dient es als erster Schritt zum Design eines solchen Optimierers, indem es sich auf den Entwurf und die Bewertung mehrerer alternativer Pläne in einem realistischen Versuchsaufbau konzentriert.;-;-;-;https://link.springer.com/article/10.1007/s10115-003-0104-y 5dc0c28e376975adc700ab3d5ce91c7b;de;;;7.3.;;;Ein neuartiger Ansatz zum Ranking von Webdokumenten basierend auf einem abfrageoptimierten personalisierten Pagerank Beim Suchprozess von Webdokumenten auf einem riesigen Korpus spielt das Ranking eine wichtige Rolle. Dies reduziert nicht nur die Suchzeit, sondern stellt den Benutzern auch nützliche Dokumente zur Verfügung. In diesem Papier erweitern wir unseren früheren abfrageoptimierten PageRank-Ansatz, indem wir den TF-IDF und den personalisierten PageRank-Algorithmus kombinieren, um einen robusten Ranking-Mechanismus zu generieren. In unserem früheren Ansatz haben wir ein Ranking-Schema modelliert, indem wir die Linkstrukturen der Dokumente zusammen mit ihrem Inhalt betrachtet haben. Eine neuartige Merkmalsauswahltechnik namens „Term-Term-Korrelations-basierte Merkmalsauswahl“ (;-;-;-;https://link.springer.com/article/10.1007/s41060-020-00232-2 2a084a8516c2abf1a62a55c8dc39e101;de;;;7.3.;;;Sicherheit für kontextsensitive Anwendungen Mit dem Fortschritt der drahtlosen Technologie werden die Kontexte durch eine schnelle und effiziente Kommunikationsmethode übertragen. Alle Rechenaktivitäten treten aufdringlich um die Benutzer herum auf. Um kontextsensitive Anwendungen zu befriedigen, ist es schwierig, die Funktionalität zu maximieren, aber gleichzeitig eine starke Sicherheit zu bieten. Dieses Kapitel stellt das grundlegende Sicherheitskonzept vor, das für kontextsensitive Anwendungen erforderlich ist. Die Sicherheit wird im Allgemeinen zuerst eingeführt. Einige Sicherheitsangriffe und Gegenmaßnahmen werden gemeldet. In diesem Kapitel werden auch einige Sicherheitsempfehlungen für kontextsensitive Anwendungen und die vorhandenen Sicherheitsprotokolle erörtert. Das ultimative Ziel dieses Kapitels ist es, den Lesern, die sowohl Entwickler als auch Benutzer sein können, ein Sicherheitsbewusstsein zu vermitteln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-59035-6_5 96f2012c1f3f741232c69c9b0a3ad065;de;;;7.3.;;;Erweiterung der Webdienst-Interoperabilität in natürlicher Sprache Dieses Whitepaper stellt den Web Service (WS)-Talk Interface Layer vor, eine strukturierte Schnittstelle in natürlicher Sprache für die Kommunikation zwischen Diensten, die die Dienstvirtualisierung erweitert, um den Self-Service für Verbraucher zu stärken. Während sich Anbieter stärker auf die technischen Ebenen der Aktivierung und Kommunikation innerhalb eines Servicenetzes konzentrieren werden, bilden die Nutzer, also die Servicekonsumenten, Ad-hoc-Kollaborationen zwischen Services auf semantischer Ebene, die ihren spezifischen Bedürfnissen entsprechen. Wir präsentieren den Web Service (WS)-Talk Layer als strukturierte Sprachschnittstelle für Webservices. Dieser „offene Baustein“ kann sowohl von den Service Designern implementiert werden, die sich als Anbieter mehr mit der Architektur des zugrunde liegenden Servicemodells befassen, als auch von den Servicekonsumenten, die als Benutzer versuchen, Webservices als Lösungen für spezifische Probleme zu spezifizieren. Durch eine semantische Schicht erstellt WS-Talk eine Abstraktionsschicht, die Ansichten von Diensten in natürlicher Sprache ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30545-3_42 bd77f1bbfc7414cc4041e8c021c8762a;de;;;7.3.;;;Ein neuartiger semantikbewusster Ansatz zur Erkennung von bösartigem Webverkehr In Bezug auf Web-Kompromittierung bezieht sich bösartiger Webverkehr auf Anfragen von Benutzern, die Websites nach bösartigen Zielen besuchen, wie z. Es ist sinnvoll, bösartige Webbesuche direkt und umfassend zu verstehen, um eine Gefährdung des Webs zu verhindern. Es ist jedoch schwierig, unterschiedlichen bösartigen Webverkehr mit einem generischen Modell zu identifizieren. In diesem Artikel wird ein neuartiger Ansatz mit semantischer Erkennung vorgeschlagen, um bösartigen Webverkehr durch individuelles Profiling von Webbesuchen zu erkennen. Außerdem wird eine semantische Darstellung bösartiger Aktivitäten eingeführt, um die Erkennungsergebnisse verständlicher zu machen. Die Auswertung zeigt, dass unser Algorithmus bei der Erkennung von Bosheit mit einer durchschnittlichen Genauigkeit von 90,8 % bzw. 92,9 % effektiv ist. Darüber hinaus wenden wir unseren Ansatz bei mehr als 136 Millionen Web-Traffic-Protokollen an, die von einem Webhosting-Dienstleister gesammelt wurden, bei denen 3.995 eindeutige bösartige IPs mit Hunderten von Websites erkannt werden. Die abgeleiteten Ergebnisse zeigen, dass unsere Methode geeignet ist, die Absichten der Gegner herauszufinden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-89500-0_54 c60df6b2772e734840115b10af0d80c0;de;;;7.3.;;;Nutzung von Cyber-Physical-System-Honeypots zur Verbesserung der Bedrohungsintelligenz Honeypots und verwandte Täuschungstechnologien werden seit langem verwendet, um bösartige Aktivitäten in Netzwerken zu erfassen und zu untersuchen. Klare Anforderungen an die Entwicklung effektiver Honeypots zur aktiven Abwehr von Cyber-Physical Systems wurden in der Literatur jedoch nicht diskutiert. In diesem Kapitel wird ein Honeynet für ein industrielles Kontrollsystem der nächsten Generation vorgeschlagen. Aufgezählte Anforderungen und ein Referenzrahmen werden vorgestellt, die die besten verfügbaren Honeypot-Technologien und neue Anpassungen bestehender Tools zusammenführen, um ein Honeynet zu erstellen, das geeignet ist, gezielte Angriffe auf cyber-physische Systeme zu erkennen. Das Framework unterstützt High-Fidelity-Simulationen und hohe Interaktionen mit Angreifern und verzögert gleichzeitig die Entdeckung der Täuschung. Datenkontrolle, Erfassung, Sammlung und Analyse werden durch ein neuartiges und effektives Honeywall-System unterstützt. Es wird ein hybrides Honeynet vorgestellt, das virtualisierte und reale speicherprogrammierbare Steuerungen verwendet, die mit einem physikalischen Prozessmodell interagieren. Die Vorteile des Frameworks sowie die Herausforderungen, die bei der Bereitstellung und dem Betrieb von Honeynets zu berücksichtigen sind, werden ebenfalls erörtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-34647-8_11 3b6d55b5544cb81892a6364e94a97613;de;;;7.3.;;;Vorhersage von Benutzer-Tags in Social-Media-Repositorys mithilfe von semantischer Expansion und visueller Analyse Das manuelle Kommentieren umfangreicher Inhalte wie Internetvideos ist ein teurer und aufwendiger Prozess. Darüber hinaus fehlt es den von der Community bereitgestellten Tags an Konsistenz und weisen zahlreiche Unregelmäßigkeiten auf. Dieses Kapitel soll ein Forum für den neuesten Stand der Forschung in diesem aufstrebenden Gebiet bieten, mit besonderem Fokus auf Mechanismen, die in der Lage sind, die gesamte Bandbreite der online verfügbaren Informationen zur automatischen Vorhersage von Benutzer-Tags zu nutzen. Die genutzten Informationen umfassen sowohl semantische Metadaten einschließlich ergänzender Informationen in externen Ressourcen als auch eingebettete Low-Level-Features innerhalb des Multimedia-Inhalts. Darüber hinaus präsentiert dieses Kapitel einen Rahmen für die Vorhersage allgemeiner Tags aus den zugehörigen textuellen Metadaten und visuellen Merkmalen. Das Ziel dieses Frameworks ist es, den Prozess des Taggens von Onlinevideos zu vereinfachen und zu verbessern, die nicht an eine bestimmte Domain gebunden sind. In diesem Rahmen besteht der erste Schritt darin, benannte Entitäten zu extrahieren, die komplementäre Textressourcen wie Wikipedia und WordNet nutzen. Um die Extraktion semantisch bedeutungsvoller Tags aus einem weitgehend unstrukturierten Textkorpus zu erleichtern, verwendet dieses Framework GATE Natural Language Processing Tools. Das Framework erweitert die Funktionalitäten der eingebauten benannten GATE-Entitäten und integriert auch einen Bag-of-Articles-Algorithmus zum effektiven Extrahieren relevanter Artikel aus Wikipedia-Artikeln. Es wurden Experimente zur Validierung des Frameworks gegen den MediaEval 2010 Wild Wild Web-Datensatz für die Tagging-Aufgabe durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-4555-4_7 67cb24c20fa65642ee1e577d890de289;de;;;7.3.;;;Empfehlen von Webdiensten mit Crowdsourcing-Testdaten Mit dem schnellen Wachstum von Webdiensten in den letzten zehn Jahren wird die Frage der QoS-fähigen Webdienstempfehlungen immer wichtiger. Die Webdienst-QoS ist für den entsprechenden Aufrufkontext wie Aufrufzeit und Ort von hoher Relevanz. Daher ist es von größter Bedeutung, die QoS-Daten mit unterschiedlichen Aufrufkontexten zu sammeln. Wir haben über 30.000 über das Internet verteilte Webdienste gecrawlt. In dieser Arbeit schlagen wir vor, Crowdsourcing zu nutzen, um die erforderlichen QoS-Daten zu sammeln. Dies wird durch zwei Ansätze erreicht. Einerseits stellen wir einen generischen Webservice-Aufrufclient auf 343 Planet-Lab-Knoten bereit, und diese Knoten dienen als simulierte Benutzer, die weltweit verteilen. Es ist geplant, dass der Webdienst-Aufrufclient von Zeit zu Zeit Zielwebdienste aufruft. Andererseits konzipieren und entwickeln wir ein mobiles Crowdsourcing-Webservice-Testing-Framework auf einer Android-Plattform, mit dem ein Benutzer ausgewählte Webservices einfach aufrufen kann. Mit den obigen beiden Ansätzen werden die beobachteten Dienstaufrufdaten, z.B. Reaktionszeit, werden auf diese Weise erfasst. Dann entwerfen wir ein Temporal QoS-Aware Web Service Recommendation Framework, um fehlende QoS-Werte in verschiedenen zeitlichen Kontexten vorherzusagen. Darüber hinaus formalisieren wir dieses Problem als verallgemeinertes Tensorfaktorisierungsmodell und schlagen einen nicht-negativen Tensorfaktorisierungsalgorithmus (NTF) vor, der in der Lage ist, die triadischen Beziehungen des Benutzer-Service-Zeit-Modells zu behandeln. Umfangreiche Experimente werden basierend auf gesammelten Crowdsourcing-Testdaten durchgeführt. Die umfassende experimentelle Analyse zeigt, dass unser Ansatz eine bessere Vorhersagegenauigkeit erreicht als andere Ansätze.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-47011-4_12 a1610107fbd01afcf369fac5ab031e36;de;;;7.3.;;;Ein Gaußsches Prozessmodell mit Gewichtungsteilung, das webbasierte Informationen zur Vorhersage der Zielgruppenbewertung verwendet Using In diesem Papier beschreiben wir ein neues Gaußsches Prozessmodell für die Vorhersage von Fernsehzuschauerzahlen. Eine für dieses Problem gut geeignete Kovarianzfunktion mit Gewichtungsteilung wird eingeführt. Wir extrahieren verschiedene Arten von Funktionen aus Google Trends und Facebook und zeigen, dass sie bei der Vorhersage der Zuschauerzahlen im Fernsehen nützlich sein können. Experimente mit einem Datensatz, der aus täglichen Dramen besteht, zeigen, dass das vorgeschlagene Modell die anderen herkömmlichen Modelle bei gleichem Funktionsumfang übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13987-6_19 2d39c681cc963c255c16b9f610a807d4;de;;;7.3.;;;Konversationsabruf von Twitter Der Prozess des Abrufens von Gesprächen von Social-Network-Sites unterscheidet sich vom traditionellen Web-Informationsabruf, da er menschliche Kommunikationsaspekte beinhaltet, wie den Grad des Interesses an dem Gespräch, das explizit oder implizit von den interagierenden Personen ausgedrückt wird, und deren Einfluss/Popularität. Unsere Demo ermöglicht es Benutzern, diese Aspekte in den Suchprozess einzubeziehen. Das System ermöglicht den Abruf von Millionen von Konversationen, die auf der beliebten Twitter-Site des sozialen Netzwerks generiert wurden, insbesondere von Konversationen zu Trendthemen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20161-5_93 6216b184824abfa29a1de8478d7eca10;de;;;7.3.;;;Bild und Video überall! In den letzten zehn Jahren gab es erhebliche technologische Fortschritte in der Art und Weise, wie wir Bilder und Videos aufnehmen, produzieren, bearbeiten, teilen, remixen und verteilen. Parallel zu ausgefeilteren Gadgets und Apps haben sich auch unsere Gewohnheiten geändert, von der Art, wie wir fernsehen, bis hin zu der Anzahl der Bilder, die wir täglich produzieren, konsumieren und teilen. Dieses Kapitel konzentriert sich auf Apps, Gadgets, Websites und soziale Netzwerke, deren Hauptaugenmerk auf;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-45699-7_5 2866677144d8d8ea3281c086567123cd;de;;;7.3.;;;Adaptive Konzepte für eine mobile Kartografie GISs entwickeln sich weg von einem System für Experten hin zu einem verbreiteteren Werkzeug zur Beantwortung raumbezogener Fragen. Der Aufbruch neuer Technologien am Horizont, wie Telekommunikation, mobiles Internet und Handheld-Computer, bietet neue Chancen für die alltägliche Nutzung von Geoinformationen. Die bestehenden Ansätze zur mobilen Visualisierung von Geoinformationen haben jedoch meist einen kommerziellen Hintergrund und sind eher technologiezentriert. Diese recht enge Sichtweise ignoriert viele relevante Probleme und profitiert nicht vollständig von den neuen Möglichkeiten, die eine mobile Kartografie bieten könnte. Unter Berücksichtigung der bestehenden Probleme skizziert der Beitrag einen allgemeinen konzeptionellen Rahmen für die Nutzung von Geoinformationen in einer mobilen Umgebung. Spezifische Benutzeraufgaben und Anforderungen in einer mobilen Umgebung werden identifiziert, gefolgt von einem Überblick über mögliche Methoden zur Personalisierung eines GIS für eine bessere mobile Unterstützung. Unter Betonung der Bedeutung analytischer Funktionen für die mobile Kartographie wird der Prozess der adaptiven und dynamischen Generierung von Visualisierungen für mobile Nutzer auf Basis von Vektordaten (z.;-;-;-;https://link.springer.com/article/10.1007/BF02837443 b4f92552d0df339677e401c16038eb37;de;;;7.3.;;;Paralleles Entdecken dichter Untergraphen zum Komprimieren von Web- und sozialen Netzwerken Das Mining und Analysieren von Graphen sind herausfordernde Aufgaben, insbesondere bei den schnell wachsenden Graphen von heute wie dem Web und sozialen Netzwerken. Im Fall von Web und sozialen Netzwerken war ein effektiver Ansatz die Verwendung komprimierter Darstellungen, die eine grundlegende Navigation über die komprimierte Struktur ermöglichen. In diesem Papier stellen wir zunächst einen parallelen Algorithmus zur Reduzierung der Kantenanzahl von Webgraphen vor, indem virtuelle Knoten über einem Cluster mithilfe des BSP-Modells (Bulk Synchronous Processing) hinzugefügt werden. Durch die Anwendung einer anderen Komprimierungstechnik auf kantenreduzierte Web-Graphen erreichen wir den besten modernen Raum/Zeit-Kompromiss für den Zugriff auf Out/In-Neighbors. Zweitens präsentieren wir einen skalierbaren parallelen Algorithmus über BSP zum Extrahieren dichter Teilgraphen und repräsentieren diese mit kompakten Datenstrukturen. Unser Algorithmus verwendet zusammengefasste Informationen zur Implementierung eines dynamischen Lastausgleichs, um Leerlaufzeiten auf den Prozessoren zu vermeiden. Wir zeigen, dass unsere Algorithmen skalierbar sind und die Komprimierungseffizienz beibehalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-02432-5_20 5c60eec6f6cac2f96cbccb6cdfbbc65c;de;;;7.3.;;;Entwicklung eines kollaborativen E-Learning-Systems basierend auf der Wahrnehmung der Benutzer Die vorliegende Studie soll die Wahrnehmung der Lernenden gegenüber einem kollaborativen E-Learning-System untersuchen. Erstens liefert diese Studie Überlegungen zur Gestaltung einer kollaborativen E-Learning-Umgebung. Anschließend wird die Implementierung eines kollaborativen E-Learning-Systems diskutiert. Darüber hinaus untersucht diese Studie die Wahrnehmung von 68 Studierenden gegenüber dem kollaborativen E-Learning-System. Die Ergebnisse der Faktorenanalyse zeigen, dass die fünf Wahrnehmungsfaktoren der Nutzer sind: Umweltmerkmale, Umweltzufriedenheit, Kooperationsaktivitäten, Lernermerkmale und Umweltakzeptanz. Die Ergebnisse zeigen auch, dass diese fünf Faktoren bei der Entwicklung eines kollaborativen E-Learning-Systems gleichzeitig berücksichtigt werden sollten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72863-4_76 0c93842874fb75255814bb7b241e70b7;de;;;7.3.;;;Digitale Kultur, Medienpädagogik und der Ort der Schule Es ist nun mehr als ein Vierteljahrhundert her, dass die ersten Mikrocomputer in britischen Schulen Einzug hielten. Ich kann mich persönlich an das Erscheinen einer solchen großen schwarzen Metallbox erinnern – eine Research Machines 380Z – in der Nord-London-Gesamtschule, an der ich Ende der 1970er Jahre arbeitete, und ich kann mich auch an das Computerprogramm erinnern, das dem Englischen Institut vorgeführt wurde – ein einfaches, aber wirklich zum Nachdenken anregendes Paket namens;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-90519-8_10 828f66a12b60de20546ae8c7b74a5ee1;de;;;7.3.;;;Extrahieren von Produktangeboten von e-Shop-Websites Online-Händler sowie E-Shopper sind sehr daran interessiert, Produktdatensätze aus dem Web zu sammeln, um Produkte und Preise zu vergleichen. Die Verbraucher vergleichen Produkte und Preise, um den besten Preis für ein bestimmtes Produkt zu finden oder wollen Alternativen für ein Produkt identifizieren, während Online-Händler ihre Angebote mit denen ihrer Konkurrenten vergleichen müssen, um wettbewerbsfähig zu bleiben. Da es im Web eine Vielzahl und Vielfalt an Produktangeboten gibt, müssen die Produktdaten automatisiert erfasst werden. Der Beitrag dieses Papiers ist ein neuartiger Ansatz zur automatischen Identifizierung und Extraktion von Produktdatensätzen aus beliebigen E-Shop-Websites. Der Ansatz erweitert eine bestehende Technik, die als Tag-Pfad-Clustering bezeichnet wird, zum Clustern ähnlicher HTML-Tag-Pfade. Der Clustering-Mechanismus wird mit einem neuartigen Filtermechanismus kombiniert, um die innerhalb der Websites zu extrahierenden Produktdatensätze zu identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30996-5_12 bddc9f4767afdb563c515dd18c436fbd;de;;;7.3.;;;Generische UIs zur Anforderung komplexer Produkte in verteilten Markträumen im Internet of Everything Distributed Market Spaces (DMS), beziehen sich auf eine Austauschumgebung im entstehenden Internet of Everything, die Benutzer bei Transaktionen mit komplexen Produkten unterstützt, eine neuartige Art von Produkten, die aus verschiedenen Produkten und/oder Dienstleistungen bestehen, die an die Bedürfnisse angepasst werden können individuellen Kontext des Benutzers. Um ihre Nachfrage nach einem bestimmten komplexen Produkt für das DMS interpretierbar auszudrücken, benötigen Nutzer flexible User Interfaces (UIs), die eine kontextbezogene Datenerfassung in Bezug auf die Komplexität der Nutzernachfrage ermöglichen. Dieses Papier schlägt ein Konzept für generische UIs vor, das es Benutzern ermöglicht, ihre eigenen UIs zum Anfordern komplexer Produkte zusammenzustellen, indem sie vorhandene UI-Beschreibungen für verschiedene Teile des jeweiligen komplexen Produkts kombinieren sowie UI-Beschreibungen mit anderen Benutzern auf den Märkten teilen und verbessern .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-45507-5_3 92307658b1d4b831c9395a09ee02517c;de;;;7.3.;;;Web-Hosting Der Standort Ihres Projekts ist ein wichtiges Element für jeden erfolgreichen Betrieb. Ein Projekt ist ein System und alle Teile dieses Systems zählen. Hosting ist ein notwendiger Knoten, der bei der Abbildung der Anatomie eines nachhaltigen Web-Ökosystems berücksichtigt werden muss.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-7714-3_14 a7f3c753609cfc9cc7e01e7a8191859c;de;;;7.3.;;;Informations- und Wissenstechnologien für virtuelle Bildung In den vorangegangenen Kapiteln haben wir einige Einblicke in die Prozesse des Lernens und des Wissenstransfers gegeben. Abbildung 2-7, im Folgenden als Abbildung 4-1 wieder eingeführt, zeigt eine schematische und damit etwas reduzierte Sicht auf die Prozesse des Lernens und Wissensmanagements.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-0300-2_4 eb5e9e681fb18ac794fa49e8052bd4c0;de;;;7.3.;;;Augenbewegungen und Leseverhalten jüngerer und älterer Benutzer: Eine explorative Eye-Tacking-Studie Babyboomer und Millennials bilden zwei große Nutzergruppen, die beim Betrachten von Online-Informationen tendenziell unterschiedliche Verhaltensweisen zeigen. Da wichtige Online-Informationen häufig über Text übermittelt werden, können Designer durch das Verständnis der Unterschiede in der Art und Weise, wie Textinformationen von diesen beiden Benutzergruppen gescannt werden, besser auf die Bedürfnisse jeder Gruppe eingehen. Unsere Ergebnisse zeigten, dass Sakkadenamplituden ein starker Prädiktor für die Altersgruppen der Benutzer waren, wenn sie eine relativ lange und schwierige Textpassage lesen. Diese Ergebnisse tragen dazu bei, das Online-Leseerlebnis zu verbessern, indem Metriken untersucht werden, die das gesamte Leseerlebnis jüngerer und älterer Benutzer unauffällig erfassen und vergleichen können. Die Ergebnisse sind auch für die Forschung bei der Entwicklung fortschrittlicher Entscheidungstools relevant, die Eye-Tracking verwenden, um kognitive Anstrengungen zu erkennen, um auf Benutzerbedürfnisse zu reagieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-92034-4_29 39724bcb04d62718b4fd7b8e4df1b992;de;;;7.3.;;;Vergleich von Ensemble-Klassifikatoren beim Extrahieren synonymer chinesischer Transliterationspaare aus dem Web Es gibt keinen Transliterationsstandard in allen chinesischen Sprachregionen, einschließlich China, Hongkong und Taiwan, und daher sind bei der Transliteration von Fremdsprachen (beispielsweise Englisch) in die chinesische Sprache Variationen der chinesischen Transliteration entstanden. In diesem Artikel vergleichen wir mehrere Ensemble-Klassifikatoren bei der Bestätigung eines Paares, d. Wir konstruieren einen neuen Bestätigungsrahmen, um zu bestätigen, ob ein Paar aus einer chinesischen Transliteration und einem anderen chinesischen Begriff synonym ist. Das vorgestellte Framework wird angewendet, um synonyme Transliterationspaare aus einem realen Webkorpus zu extrahieren. Dies ist wertvoll, um eine neue Datenbank mit synonymen Transliterationen aufzubauen oder Suchmaschinen zu unterstützen, damit sie viel vollständigere Dokumente als Websuchergebnisse zurückgeben können, um die Nutzung zu erhöhen in der Praxis.Experimente zeigen, dass unser integriertes Bestätigungs-Framework effektiv und robust beim Bestätigen und Extrahieren von Paaren chinesischer Transliteration nach der Sammlung synonymer Transliterationen aus dem Web-Korpus ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21524-7_28 5389706943975ec3d4d7780c089e0b75;de;;;7.3.;;;Wrapper-Wartung für Web-Datenextraktion basierend auf Seitenfunktionen Das Extrahieren von Daten aus Webseiten unter Verwendung von Wrappern ist ein grundlegendes Problem, das in einer Vielzahl von Anwendungen von großem praktischen Interesse auftritt. Es gibt zwei Hauptprobleme, die für die Web-Datenextraktion relevant sind, nämlich die Wrapper-Erzeugung und die Wrapper-Wartung. In diesem Beitrag schlagen wir einen neuartigen Ansatz zur automatischen Wrapper-Wartung vor. Es basiert auf der Beobachtung, dass trotz verschiedener Seitenänderungen viele wichtige Merkmale der Seiten erhalten bleiben, wie beispielsweise Textmustermerkmale, Anmerkungen und Hyperlinks. Unser Ansatz verwendet diese beibehaltenen Funktionen, um die Positionen der gewünschten Werte auf den geänderten Seiten zu identifizieren und die Wrapper entsprechend zu reparieren. Experimente auf mehreren realen Websites zeigen, dass der vorgeschlagene automatische Ansatz Wrapper effektiv verwalten kann, um gewünschte Daten mit hoher Genauigkeit zu extrahieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-33521-8_31 9f2ee74e3665d3ebd230234b1aa16001;de;;;7.3.;;;Forschung zur automatischen Schätzungsmethode der Beschäftigungsquote von College-Studenten basierend auf Internet-Big-Data-Analyse Um das Problem großer Fehler und Ungenauigkeiten bei der Schätzung der Beschäftigungsquote zu lösen, wird ein automatisches Verfahren zur Schätzung der Beschäftigungsquote basierend auf einer Internet-Big-Data-Analyse vorgeschlagen. Diese Methode lässt sich in vier Schritte gliedern: Zunächst wird das auf XML-Middleware basierende Datenintegrationsmodell verwendet, um die Stichprobendaten der Beschäftigungsquotenschätzung auszuwählen. Zweitens wird der Entscheidungsbaum-Algorithmus C4.5 verwendet, um die Attribute der Stichprobendaten zu klassifizieren. Drittens wird der verbesserte KPCA-Algorithmus verwendet, um die Merkmalsvektoren der Beschäftigungsinformationen zu extrahieren und den Abstand zwischen den vorhergesagten Stichproben und allen Stichproben zu berechnen. Viertens wird ein nichtlineares Abbildungsverfahren verwendet, um Beschäftigungsstrukturdaten in Eckdaten umzuwandeln, und die Grautheorie wird verwendet, um ein Modell zur Schätzung der Beschäftigungsquote zu erstellen. Die Ergebnisse zeigen, dass der durchschnittliche Schätzfehler der Erwerbstätigenquote dieser Methode um 4,81 % geringer ist als der der statistischen Methode, die auf Support Vector Machine basiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36402-1_35 31eeb505dc6240af9ecf45fecbbf9b54;de;;;7.3.;;;Ein neuartiger Datensatz zur Informationsbeschaffung auf Basis von Subgraph Matching Wir stehen vor der Herausforderung schnell wachsender Datenmengen. Darüber hinaus stellen wir fest, dass in vielen Anwendungen die zugrunde liegenden Daten stark verwandte Entitäten enthalten, was Graphen zur geeignetsten Struktur für die Datenmodellierung macht. Wenn Daten durch einen Graphen dargestellt werden, entspricht das Abfragen einem Graph-Matching-Problem. Der vorliegende Beitrag stellt einen neuartigen Graphen vor, der Informationen aus dem medizinischen Bereich mit etwa 110.000 Knoten und 220.000 Kanten modelliert. Darüber hinaus präsentieren wir einige grundlegende Benchmark-Abfragen, d. h. spezifische Untergraphen, aus verschiedenen Kategorien, die im medizinischen Graphen mehrfach zu finden sind. Sowohl der Graph als auch der Benchmark können verwendet werden, um neuartige Graph-Matching-Algorithmen in einem realen Szenario zu implementieren, zu testen und zu vergleichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-73973-7_20 bd27b01dcb19ca086dfce2e8bde15d2d;de;;;7.3.;;;Web-Empfehlungen mit Web Usage Mining und Web-Semantik mit Zeitattribut personalisieren Webpersonalisierung ist der Prozess der Anpassung von Webseiten unter Verwendung der Navigationsmuster und Interessen eines Benutzers. Mit der Zunahme der Anzahl von Websites und Web-Seiten, die im Internet verfügbar sind, ist es zu einem schwierigen Problem geworden, Benutzer auf die Webseiten in ihren Interessengebieten zu leiten. Im Laufe der Jahre wurden verschiedene Ansätze vorgeschlagen und jeder von ihnen hat die Lösung der Erstellung personalisierter Webempfehlungen einen Schritt weiter gebracht. Aufgrund der Möglichkeiten weiterer Verbesserungen geht das in diesem Papier vorgeschlagene System jedoch einen Schritt weiter, um Web-Empfehlungen zu generieren. Das vorgeschlagene System verwendet Informationen aus dem Mining der Webnutzung, der Websemantik und der auf Webseiten verbrachten Zeit, um die Benutzerempfehlungen zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12035-0_24 0fcdddc769213dc20c5746fd0a3ddf9c;de;;;7.3.;;;Eine auf dem Internet der Dinge basierende Plattform für das Echtzeit-Management des Energieverbrauchs in Wasserressourcen-Rückgewinnungsanlagen Der Artikel beschreibt das Design einer Internet-of-Things-basierten Plattform mit dem Hauptziel der Echtzeitverwaltung des Energieverbrauchs in Wasserressourcen-Rückgewinnungsanlagen und deren Integration in eine zukünftige Demand-Side-Management-Umgebung. Die Überwachung mehrerer elektrischer Parameter, einschließlich des Energieverbrauchs, erfolgt über einen dedizierten Energiezähler, dessen Aufbau im Artikel beschrieben wird. Die High-Level-Datenkommunikation von den Energiezählern zu einer zentralen Plattform des Abwasserunternehmens erfolgt über das MQTT-Protokoll. Innerhalb der Wasserressourcen-Rückgewinnungsanlage basiert das Zugangsnetzwerk entweder auf Wi-Fi oder LoRa, zwei Technologien für das Internet der Dinge. Die Zähler werden in Pilotdemonstratoren in zwei Wasserressourcen-Rückgewinnungsanlagen in Lissabon, Portugal, eingesetzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-15651-0_11 a9b491f7a5aaaacd3f3c6e6a9dac3320;de;;;7.3.;;;Lernen, diversifizierte Ergebnisse für den biomedizinischen Informationsabruf aus mehreren Funktionen zu ordnen Anders als beim traditionellen Information Retrieval (IR) berücksichtigt die Förderung der Vielfalt bei der IR die Beziehung zwischen Dokumenten, um die Neuheit zu fördern und Redundanzen zu reduzieren, um so diversifizierte Ergebnisse bereitzustellen, um verschiedene Benutzerabsichten zu erfüllen. Diversity IR im biomedizinischen Bereich ist besonders wichtig, da Biologen manchmal diversifizierte Ergebnisse wünschen, die für ihre Anfrage relevant sind.;-;-;-;https://link.springer.com/article/10.1186/1475-925X-13-S2-S3 bf51e471f520ad6a7536c8b34fc5649c;de;;;7.3.;;;Ein logistisches Regressionsmodell für das Matchmaking von Semantic Web-Diensten Das Matchmaking von Semantic-Web-Diensten, als eines der schwierigsten Probleme in Semantic-Web-Diensten (SWS), zielt darauf ab, eine Reihe von Diensten in Bezug auf eine Dienstabfrage unter Verwendung einer bestimmten Abgleichsstrategie zu filtern und einzustufen. In diesem Papier schlagen wir eine auf logistische Regression basierende Methode vor, um mehrere Matching-Strategien anstelle einer festen Integration (z. B. der gewichteten Summe) für das SWS-Matchmaking zu aggregieren. Das logistische Regressionsmodell wird auf Trainingsdaten trainiert, die aus binären Relevanzbewertungen bestehender Testsammlungen abgeleitet wurden, und dann verwendet, um die Relevanzwahrscheinlichkeit zwischen einem neuen Paar von Abfrage und Dienst gemäß ihren Übereinstimmungswerten, die aus verschiedenen Übereinstimmungsstrategien erhalten wurden, vorherzusagen. Die Dienste werden dann gemäß den Relevanzwahrscheinlichkeiten in Bezug auf jede Anfrage geordnet. Unsere Methode wird anhand von zwei Haupttestsammlungen evaluiert, SAWSDL-TC2 und Jena Geography Dataset (JGD). Experimentelle Ergebnisse zeigen, dass das logistische Regressionsmodell die Relevanz zwischen einer Abfrage und einem Dienst effektiv vorhersagen und somit die Effektivität der Dienstzuordnung verbessern kann.;-;-;-;https://link.springer.com/article/10.1007/s11432-012-4591-x 0c5b5e9cf85e6e3efe520e94cc4ec408;de;;;7.3.;;;Innovation des „Internet +“-Lehrmodells basierend auf der organischen Philosophie von Whitehead Big Data, Cloud Computing und Internet + haben einen disruptiven und enormen Einfluss auf das menschliche Lernen. „Flipping Classroom“ und „MOOCs“ sind „wichtige technologische Veränderungen, die sich auf den Unterricht auswirken“, die in den Fokus der globalen Bildungsgemeinschaft geraten sind. Im Gegensatz dazu sind die traditionellen Unterrichtsmodelle, die den Funktionen der Lehrer stärker Rechnung tragen, langweiliger. Das bestehende inländische Internet + Unterrichtsmodell soll lediglich ausländische Unterrichtsmodelle nachahmen, und die Stimme der Menschen über die Reform des Unterrichtsmodells im Klassenzimmer ist kontinuierlich. „Internet +“ Bildung, die sich nicht auf Technik beschränkt, sondern auch von Konzept, Denk- und Lehrmodell, in dem die Förderung der Erstellung von Lehrmodellen der wichtige Inhalt ist. „Internet +“ führt die tiefe Integration von Bildung und Informationstechnologie an, die zu Whiteheads wichtigen Denkmethoden der organischen Philosophie passt, nämlich „Integration“ und „Generation“. Dieser Beitrag sucht den Forschungspfad für das „innovative Lehrmodell von Internet +“ in Whiteheads organischer Philosophieperspektive.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3648-5_104 1c1fb830c6f0b12865c93838ff0c035e;de;;;7.3.;;;Generierung von Metadaten Im vorherigen Kapitel haben wir eine allgemeine Architektur zur Beschreibung von Informationssemantik in Form von Ontologien definiert, die aus gemeinsamen Terminologien einer Domäne abgeleitet und mit terminologischen Sprachen kodiert sind, um ihnen eine saubere, modelltheoretische Semantik zu geben. Wir haben auch eine Strategie zum Aufbau dieser Ontologien vorgestellt. Was derzeit noch fehlt, ist eine Strategie, wie man Informationen tatsächlich mit ihrer in Quellontologien kodierten Semantik in Beziehung setzt. In diesem Kapitel diskutieren wir, wie schwach strukturierte Informationen über Metadaten mit der in den vorherigen Kapiteln beschriebenen Ontologie-Infrastruktur verknüpft werden können.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-26907-X_5 703a5f9d69e4cc8ea2469101b83e8160;de;;;7.3.;;;Eine musterorientierte, leichtgewichtige Middleware für Smartcards Smartcards sind ein sehr interessantes Mittel, um unsere eigenen Daten und Codes in ein verteiltes System einzubinden, während wir damit interagieren. Um dies zu erreichen, muss die Smartcard-Integration gewährleistet sein. Für eine breitere Nutzung ist eine transparente Nutzung der Kartendienste notwendig. Diese Nutzung sollte remote in einer verteilten Umgebung verfügbar sein. Darüber hinaus sind weitere Funktionen wie mögliche Code-Upgrades oder das Hinzufügen neuer Dienste, Benachrichtigungen über Verbindungen und Verbindungsabbrüche, Strukturierung zahlreicher Smartcards wichtige Anforderungen.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-8147-2_14 db9474d9ee7a7dc80cff48b3ef3817f2;de;;;7.3.;;;Integritätsbewusster Bandwidth Guarding-Ansatz in P2P-Netzwerken Die meisten internetbasierten kollaborativen Computersysteme stehen vor dem Hauptproblem: Freeriden. Die Fülle an Freeridern und das dadurch verursachte Lastungleichgewicht bestrafen diejenigen Peers, die aktiv zum Netzwerk beitragen, indem sie sie zwingen, ihre Ressourcen zu überbeanspruchen. Daher verschlechtert sich die Gesamtsystemleistung schnell. Das Ziel dieser Arbeit ist es, einen effizienten Ansatz zu bieten, um die unehrlichen Peers von den ehrlichen Peers zu unterscheiden. Die Kernidee unseres Ansatzes besteht darin, die Beziehung zwischen dem wahrgenommenen Durchsatz und der verfügbaren Bandbreite zu nutzen. Zunächst führen wir eine umfassende Untersuchung der verfügbaren Tools zur Bandbreitenschätzung durch. Als nächstes schlagen wir einen integritätsbewussten Bandbreitenüberwachungsalgorithmus vor, der gemäß dem wahrgenommenen Durchsatz und der verfügbaren Bandbreitenschätzung entwickelt wird. Schließlich veranschaulichen die Simulationsergebnisse, dass unser Ansatz unehrliche Peers korrekt identifizieren kann und eine große Hilfe beim Aufbau einer besseren Overlay-Struktur für viele Peer-to-Peer- und Multicast-Anwendungen sein kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72606-7_91 3bca43963bf541cb43c9aecb8007029d;de;;;7.3.;;;Ein Tutorial zum Abrufen von Informationen mithilfe der Abfrageerweiterung Die erfolgreichsten Techniken zum Abrufen von Informationen, mit denen die ursprüngliche Abfrage um zusätzliche Begriffe erweitert werden kann, die den tatsächlichen Benutzerbedarf am besten widerspiegeln. Dieses Tutorial gibt einen Überblick über Information-Retrieval-Modelle, die auf Query-Expansion basieren, sowie praktische Details und Beschreibungen zu Implementierungsmethoden. Spielzeugbeispiele mit Daten werden bereitgestellt, um dem Leser zu helfen, die Hauptidee hinter den Techniken der Abfrageerweiterung (QE) wie der Kullback-Leibler-Divergenz (KLD) und den auf WordNet basierenden Kandidatenerweiterungsbegriffen zu verstehen. Das Tutorial verwendet die Spektralanalyse, eine der neuesten Techniken zum Abrufen von Informationen, die den Begriff Nähe berücksichtigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67056-0_35 11ad6ec803f73a3f6b34976f30b48ce7;de;;;7.3.;;;Das Ethnic Lyrics Fetcher-Tool Die Aufgabe des automatischen Abrufens und Extrahierens von Liedtexten aus dem Web ist für verschiedene Anwendungen zum Abrufen von Musikinformationen von großer Bedeutung. Trotz ihrer Bedeutung wurde diese Aufgabe jedoch nur sehr wenig erforscht. Aus diesem Grund stellen wir in diesem Beitrag den Ethnic Lyrics Fetcher (ELF) vor, ein Tool für Musikinformationsforscher, das einen neuartigen Mechanismus zur Erkennung und Extraktion von Liedtexten besitzt. Wir haben zwei Experimente durchgeführt, um den Songtext-Extraktionsmechanismus von ELF und seine Leistung als Songtext-Abruftool zu bewerten. Unsere experimentellen Ergebnisse zeigen, dass ELF besser abschneidet als der aktuelle Stand der Technik, indem website-spezifische Songtext-Abrufprogramme verwendet oder die Texte manuell aus dem Web abgerufen werden.;-;-;-;https://link.springer.com/article/10.1186/s13636-014-0027-4 85b500aaef9f862cc77ebcb6b3e6ddd7;de;;;7.3.;;;Mobile internetbasierte komprimierungsfähige skalierbare Videocodierung - Ratensteuerung für Enhancement Layer Die skalierbare Video-Codec-Erweiterung zum H.264-Standard (H.264 SVC) bietet die im vorhergehenden Idealszenario beschriebenen Vorteile. Das heißt, es kann decodiertes Video mit unterschiedlichen Bildraten, Auflösungen oder Qualitätsstufen liefern. Im Hinblick auf das adaptive Referenzbild des FGS-Algorithmus (Adaptive Reference FGS, Mt-FOS) von H.264-SVC stellen wir in diesem Artikel einen neuen Algorithmus namens adaptive Leckprädiktoren FGS (ALF.FGS) vor. ALF.FGS kann nicht nur gut an Schwankungen der Netzwerkbandbreite angepasst werden, sondern bietet auch größere Flexibilität für den Makroblock-codierten Videorahmen basierend auf Bewegungseigenschaften und Textureigenschaften der adaptiven Auswahl eines anderen Referenzmakroblocks. Experimentelle Ergebnisse zeigen, dass der ALF.FGS-Algorithmus Fehler bei niedriger Bitrate effektiv beseitigen und die FGS-Codierungseffizienz verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31968-6_88 7cc97224f46fb86b17f864a102d56491;de;;;7.3.;;;Formalisierung von Designrichtlinien zur Lesbarkeit auf Webseiten Das Screendesign von Webseiten ist eine Herausforderung, da Webseiten viele Icons enthalten, die nicht nur aus Texten mit verschiedenen Schriftarten, sondern auch aus Grafiken mit unterschiedlichen Größen und Inhalten bestehen. Die Ziele des Bildschirmdesigns einer Webseite können entweder darin bestehen, ästhetische Schönheit bereitzustellen, komplexe Informationen zu vermitteln, die Lesbarkeit zu verbessern oder eine Kombination der oben genannten. Diese Studie hat sich dafür entschieden, Designrichtlinien für die Lesbarkeit zu formalisieren, da Informationen auf Webseiten immer komplizierter werden und die Effizienz der Informationssuche behindert. Diese Studie schlägt sechs Messungen der Bildschirmlesbarkeit vor: Bildschirmverhältnis von Navigator zu Inhalt, Schriftgrößenvielfalt, verschiedene Symboltypen, Farbkontrast zwischen Hintergrund und Vordergrund, Inhaltsdichte und Anzahl der Ausrichtungspunkte. Diese sechs Faktoren wurden dann verwendet, um die Lesbarkeit der Startseite auf vier verschiedenen yahoo.com-Sites zu messen. In Kombination mit den Ergebnissen einer Umfrage kamen wir zu dem Schluss, dass alle sechs Faktoren als Attribute mit signifikantem und messbarem Einfluss auf die Lesbarkeit der Website validiert wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02559-4_3 0a26f435b6ff480b5dc26e3641c8413e;de;;;7.3.;;;Konzeptbasiertes Fragebogensystem In diesem Whitepaper gehen wir über die traditionellen Websuchmaschinen hinaus, die auf der Schlüsselwortsuche basieren, und das Semantic Web, das einen gemeinsamen Rahmen bietet, der es ermöglicht, Daten anwendungsübergreifend auszutauschen und wiederzuverwenden. Aus diesem Grund ist unsere Ansicht, dass „bevor man die Macht der Websuche nutzen kann, die relevanten Informationen durch den konzeptbasierten Suchmechanismus und logische Argumentation mit der Fähigkeit zur Q&A-Darstellung anstelle einer einfachen Stichwortsuche gewonnen werden müssen“. In diesem Papier konzentrieren wir uns auf die Entwicklung eines Frameworks für das Argumentieren und Deduktion im Web. Ein neues Websuchmodell wird vorgestellt. Eine der wichtigsten Kernideen, die wir verwenden werden, um unsere Technik zu erweitern, besteht darin, die Term-Documents-Concept (TDC)-Matrix in eine regelbasierte und graphenbasierte Darstellung zu ändern. Dies wird uns ermöglichen, die traditionelle Suchmaschine (keyword-based search) in eine konzeptbasierte Suche und dann in ein Q&A-Modell zu entwickeln. Bei gegebenem TDC werden wir jedes Dokument in ein regelbasiertes Modell einschließlich seines äquivalenten Graphenmodells umwandeln. Sobald die TDC-Matrix in ein maximal kompaktes Konzept basierend auf Graphdarstellung und Regeln basierend auf possibilistisch-relationalem universellem Fuzzy-Typ II (in Bezug auf Zusammensetzung) umgewandelt wurde, kann man den Z(n)-kompakten Algorithmus verwenden und den TDC in Baum und hierarchischer Graph, der ein Q&A-Modell darstellt. Schließlich wird das Konzept der semantischen Äquivalenz und der semantischen Folgerung basierend auf dem possibilistischen relationalen universellen Fuzzy als Grundlage für die Beantwortung von Fragen (Q&A) und die Inferenz aus Fuzzy-Prämissen verwendet. Dies wird eine Grundlage für ungefähres Denken, eine Sprache für die Darstellung von ungenauem Wissen, eine Bedeutungsrepräsentationssprache für natürliche Sprachen, eine Präzisierung von Fuzzy-Propositionen, die in einer natürlichen Sprache ausgedrückt werden, und als Werkzeug für Precisiated Natural Language (PNL) und Präzisierung von Bedeutung liefern. Die maximal kompakten Dokumente basierend auf dem Z(n)-kompakten Algorithmus und dem possibilistischen relationalen universellen Fuzzy–Typ II werden verwendet, um die Dokumente basierend auf konzeptbasierten abfragebasierten Suchkriterien zu clustern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72434-6_17 cc44aa9045a70be6d92b2587fb7b7942;de;;;7.3.;;;RDFa-Parser für Hybridressourcen In diesem Papier schlagen wir mehrere Mash-up-Designmethoden vor, die darauf abzielen, die lesbaren Aspekte von semantisch annotierten Datenressourcen wie LOD zu verbessern. Vorschläge basieren auf den Funktionen des RDFa-Formats, das eine Erweiterung des RDF-Formats ist. Es wurden sogenannte „semantische Parser“ entwickelt, bei denen es sich um eine Anwendungssoftware zum Bereitstellen von Datenkonvertierungs-/Transformationsdiensten über eine Web-API handelt. Der Parser bietet mehrere Hybridfunktionen sowohl für menschenlesbare (HR) als auch für maschinenlesbare (MR) Ressourcen unter Verwendung des RDFa-Formats.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-15615-6_20 baa1712fd547d4cd7d48a4f4d8da26b7;de;;;7.3.;;;Probleme bei der automatischen Klassifizierung von Musikklängen Ein bequemes Durchsuchen von Multimedia-Datenbanken erfordert gut kommentierte Daten. Die Kennzeichnung von Klangdaten mit Informationen wie Tonhöhe oder Klangfarbe muss durch Klanganalyse erfolgen. In dieser Arbeit beschäftigen wir uns mit dem Problem der automatischen Klassifizierung von Musikinstrumenten anhand ihres Klangs. Obwohl es Algorithmen zur Extraktion grundlegender Klangdeskriptoren gibt, stellt die korrekte Identifizierung des Instruments immer noch ein Problem dar. Wir beschreiben Schwierigkeiten bei der Klassifizierung von Holz-, Blech- und Streichern zeitgenössischen Orchesters. Wir besprechen die schwierigsten Fälle und erklären, warum diese Geräusche Probleme verursachen. Die Schlussfolgerungen werden gezogen und in einer kurzen Zusammenfassung zum Abschluss des Papiers präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36562-4_44 7e721b675d916e0a92a39049172c1730;de;;;7.3.;;;Entwicklung eines webfähigen Gaming-Ansatzes zur Vermittlung von Leistungsfähigkeiten in interorganisationalem Lernen und Zusammenarbeit an Ingenieure Als Folge dynamischer Märkte – unterstützt durch Entwicklungen wie die Globalisierung und die aktuelle „Wissensexplosion“ – wird die organisationale Lernfähigkeit als eine der wichtigsten Überlebensfähigkeiten von Organisationen identifiziert. Da Produkte immer komplexer werden, ist es oft erforderlich, dass verschiedene Unternehmen mit bestimmten Schlüsselkompetenzen ein Produkt gemeinsam produzieren. Damit gewinnt insbesondere das interorganisationale Lernen an Bedeutung. Aufgrund der hohen Wissensintensität innerhalb der eigentlichen Produktentwicklung und Produktion sind insbesondere Ingenieure gezwungen, sich ständig Wissen anzueignen, zu teilen und in neue Produkte umzusetzen. Nach der Untersuchung eines bestehenden Planspiels für Concurrent Engineering — COSIGA, das als Grundlage für weitere Entwicklungen dient, haben wir Schlüsselelemente identifiziert, mit denen organisationales / interorganisationales Lernen simuliert wird. Durch die Integration dieser Elemente in COSIGA haben wir ein zweistufiges webbasiertes Gruppensimulationsspiel entwickelt, das darauf abzielt, Ingenieuren Leistungsfähigkeiten im Bereich des organisatorischen und interorganisationalen Lernens zu vermitteln.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-23078-5_25 8b2d4fb2f6c06ff30e657e3b2eacfdba;de;;;7.3.;;;Empfehlen von Webseiten mit objektbasierten kollaborativen Filteransätzen Die Vorhersage der nächsten Seite, die ein Benutzer auf einer großen Website sehen möchte, hat im letzten Jahrzehnt an Bedeutung gewonnen, da das Web zum wichtigsten Kommunikationsmedium zwischen einer Vielzahl von Entitäten und Benutzern geworden ist. Dies gilt insbesondere für Websites von institutionellen Regierungen und öffentlichen Organisationen, auf denen aus Transparenzgründen viele Informationen bereitgestellt werden müssen. Das „Long Tail“-Phänomen betrifft auch diese Art von Websites und Benutzer benötigen Unterstützung, um die Effektivität ihrer Navigation zu verbessern. Aus diesem Grund wurden komplexe Modelle und Ansätze für die Empfehlung von Webseiten vorgeschlagen, die normalerweise die Verarbeitung persönlicher Benutzerpräferenzen erfordern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27932-9_2 4f57dae5f7278aec555ba25a42587f27;de;;;7.3.;;;Auf der Suche nach Antworten auf das Paradox der fortschrittlichen mobilen Dienste In einer Zeit, in der die Akzeptanzraten für mobile Dienste viel niedriger bleiben als erwartet, ist ein besseres Verständnis des Verhaltens und der Einstellung der Benutzer zu neuen Technologien von entscheidender Bedeutung. Dieses Papier bringt Erkenntnisse aus der Verhaltensökonomie in den Bereich der Technologieakzeptanzforschung, um die Einführung fortschrittlicher mobiler Dienste zu untersuchen. Durch eine Feldstudie zur Akzeptanz und Nutzung mobiler Dienste untersuchen wir das Nutzerverhalten in der Anfangsphase der Technologieeinführung. Wir argumentieren, dass zum besseren Verständnis der kognitiven Prozesse, die den Entscheidungen über die Akzeptanz oder Ablehnung von Technologien für fortschrittliche mobile Dienste zugrunde liegen, die wirtschaftlichen Aspekte dieser Prozesse berücksichtigt werden müssen. Dies gilt insbesondere angesichts der Ähnlichkeit neuer Mobilfunkdienste mit denen, die den Verbrauchern derzeit auf anderem Wege zur Verfügung stehen, und der darin enthaltenen Substitutionselemente.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-31166-1_23 35520724a1c4fd8782dd8e6027ed682b;de;;;7.3.;;;Konversationsabruf für Microblogging-Sites In diesem Artikel stellen wir ein neuartiges Suchparadigma für Microblogging-Sites vor, das aus der Kreuzung von Information Retrieval und Social Network Analysis (SNA) resultiert. Dieser Ansatz basiert auf einem formalen Modell von Online-Gesprächen und einer Reihe von Ranking-Maßnahmen, einschließlich SNA-Zentralitätsmetriken, zeitbezogenen Unterhaltungsmetriken und anderen spezifischen Merkmalen aktueller Microblogging-Sites. Der Ranking-Ansatz wurde mit anderen Methoden verglichen und auf zwei bekannten sozialen Netzwerkseiten (Twitter und Friendfeed) getestet, die zeigen, dass die Einbeziehung von SNA-Metriken in die Ranking-Funktion und die Verwendung eines Gesprächsmodells die Ergebnisse von Suchaufgaben verbessern können.;-;-;-;https://link.springer.com/article/10.1007/s10791-012-9189-9 8550b85cd69f6bea7b586fb678a40967;de;;;7.3.;;;Innovation in der spanischen Twittersphäre: Eine Ontologie und Salienzanalyse der Stakeholder In den letzten Jahren sind die sozialen Medien im Internet explodiert, wobei Menschen überall enorme Mengen an Informationen und Medieninhalten erstellen und teilen. Werkzeuge und Technologien zur Verwaltung und Analyse der riesigen Datenmengen, die über das Web ausgetauscht werden, haben die Mittel zur Analyse dieser Inhalte bereitgestellt. Big-Data-Analysen können verwendet werden, um die Verwaltungsmacht von Social Media-Sites zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1057/978-1-137-57475-6_5 bf0ac602ae76ec3673b0e91ad71b03a0;de;;;7.3.;;;Analyse von Webinterfaces von Datenbanken zum Abrufen von Webinformationen Viele der Informationen im Web sind tatsächlich dynamische Inhalte, die durch Verknüpfungen mit Datenbanken bereitgestellt werden. Aufgrund der Heterogenität der Datenbanken ist es jedoch schwierig, eine integrierte Informationsbeschaffung bereitzustellen. In der Zwischenzeit können Benutzern Informationen zu Webdatenbanken einfach über Webschnittstellen bereitgestellt werden. Bei der Analyse von Webschnittstellen kann ein Informationsintegrationssystem daher Webdatenbanken integrieren, ohne die Datenbankstrukturen zu berücksichtigen. Dieses Papier präsentiert eine Lösung für semantische Heterogenität durch die Analyse von Webschnittstellen und den Aufbau semantischer Netzwerke.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30483-8_40 5389f5f755a818f74d6ffe6d8d35e2c2;de;;;7.3.;;;Die Auswirkungen des mobilen Internets auf die internationale Wirtschaft und den internationalen Handel und Gegenmaßnahmen Heutzutage ist die Entwicklung der globalen wirtschaftlichen Integration in eine neue Phase eingetreten. Alle Länder messen der internationalen Wirtschaft und dem internationalen Handel große Bedeutung bei. Die Entwicklung des mobilen Internets bietet eine neue Chance für die Entwicklung der internationalen Wirtschaft und des Handels. In diesem Beitrag werden die Auswirkungen des mobilen Internets auf die internationale Wirtschaft und den Handel sowie Gegenmaßnahmen untersucht. In der Studie analysieren wir zunächst den Entwicklungstrend des mobilen Internets in den letzten fünf Jahren, nehmen Chinas globalen Import-Pull-Effekt, Exportförderungseffekt und umfassenden Einfluss als Forschungsindex und untersuchen den Entwicklungstrend von Chinas internationaler Wirtschafts- und Handelspolitik die letzten fünf Jahre. Dieses Papier analysiert die Auswirkungen des mobilen Internets auf die internationale Wirtschaft und den internationalen Handel und schlägt entsprechende Gegenmaßnahmen vor. Mit der Entwicklung des mobilen Internets nimmt auch Chinas Einfluss auf die Weltwirtschaft und den Handel allmählich zu. Bis 2019 beträgt Chinas Import-Pull-Effekt auf die Weltwirtschaft und den Handel 1,97, der Wert der Exportförderungswirkung beträgt 3,02 und der Wert der umfassenden Einflusskraft beträgt 2,52. Die Auswirkungen des mobilen Internets auf die internationale Wirtschaft und den internationalen Handel haben jedoch sowohl positive als auch negative Aspekte. Daher schlägt dieses Papier einige Gegenmaßnahmen für die negativen Auswirkungen des mobilen Internets auf die internationale Wirtschaft und den internationalen Handel vor. Dieses Papier ist der Meinung, dass die entsprechenden Gesetze und Branchennormen formuliert und das entsprechende Talentteam aufgebaut werden sollte internationale Wirtschaft und Handel im Zeitalter des mobilen Internets.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-74811-1_44 6f4f460ffb939645e4af5174abd5f402;de;;;7.3.;;;Die Architektur des Subsystems zur Eliminierung einer Unsicherheit bei der Bewertung des semantischen Inhalts von Informationsobjekten basierend auf den Methoden der unvollständigen, inkonsistenten und unscharfen Wissensverarbeitung Die Studie betrachtet verschiedene Ebenen der Architektur von Subsystemen zur Beseitigung von Unsicherheiten bei der Bewertung des semantischen Inhalts von Informationsobjekten basierend auf den Methoden zur Verarbeitung von unvollständigem, inkonsistentem und unscharfem Wissen. Es analysiert die Möglichkeit ihrer gemeinsamen Tätigkeit auf der Grundlage einer mehrstufigen funktionalen, informationellen und logischen Interaktion. Es wird die Architekturvariante vorgeschlagen, die auf einer einzigen Integrationsplattform basiert. Die Ergebnisse der Analyse der Beziehungen zwischen den verschiedenen Architekturebenen zur Gewinnung neuer Erkenntnisse in Bezug auf die Erkennung unerwünschter, zweifelhafter und schädlicher Informationsmerkmale unter Unsicherheit werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-32258-8_35 ef16a7a80cd4e4e8e16d308af5ac714c;de;;;7.3.;;;Ein Rahmen zur Durchführung und Berichterstattung über empirische Nutzerstudien in semantischen Webkontexten Semantic Web-Technologien werden in immer vielfältigeren Bereichen eingesetzt, in denen die Einbeziehung der Benutzer entscheidend ist. Während in den letzten Jahren eine Reihe von Benutzeroberflächen für Semantic-Web-Systeme verfügbar geworden sind, weisen deren Auswertung und Berichterstattung oft noch Schwächen auf. Empirische Auswertungen sind unerlässlich, um verschiedene Ansätze zu vergleichen, ihre Vor- und Nachteile aufzuzeigen und so die weitere Einführung von Semantic-Web-Technologien zu erleichtern. In diesem Artikel überprüfen wir empirische Benutzerstudien zu Benutzeroberflächen, Visualisierungen und Interaktionstechniken, die kürzlich an relevanten Orten des Semantic Web veröffentlicht wurden, und bewerten sowohl die Benutzerstudien selbst als auch ihre Berichterstattung. Anschließend zeichnen wir den Gestaltungsraum verfügbarer Methoden für Benutzerstudien in Semantic-Web-Kontexten auf. Schließlich schlagen wir einen Rahmen für ihre umfassende Berichterstattung vor, der Benutzerexpertise, Versuchsaufbau, Aufgabengestaltung, experimentelle Verfahren und Ergebnisanalyse berücksichtigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-03667-6_36 2c03da7a057e196af7744d5da321ad0e;de;;;7.3.;;;Schätzung der verfügbaren End-to-End-Bandbreite mit Single-End-Host Das Messen der verfügbaren Bandbreite eines End-to-End-Netzwerkpfads ist zu einem entscheidenden Vorgang in der Verkehrstechnik, der Überlastungskontrolle, der Dienstgüte und bei Streaming-Anwendungen geworden. Wir präsentieren SOProbe, eine aktive Sondierungsmethode zur Messung der verfügbaren Bandbreite mit nur dem Quell-Host anstelle von Zwischenroutern oder Ziel-Host auf dem Zielpfad. Ausgestattet mit SOProbe kann man die verfügbare Bandbreite eines beliebigen Pfades ausgehend von seinen Netzwerkknoten unbegrenzt messen. Die Grundidee von SOProbe besteht darin, nach einem schmalen Ratenbereich zu suchen, in dem sich die verfügbare Bandbreite befindet. Dazu sendet SOProbe Prüfpakete mit unterschiedlichen Raten und überwacht die Verteilung dieser Pakete auf allen Verbindungen entlang des Pfads, um festzustellen, ob die verfügbare Bandbreite höher ist als die Prüfraten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25905-0_56 5aabaf966531607b1050f3c42d7222b3;de;;;7.3.;;;Eine WAP-basierte Sitzungsschicht, die verteilte Anwendungen in nomadischen Umgebungen unterstützt Nomadic Computing stellt eine Reihe schwerwiegender Probleme und neue Anforderungen an Middleware-Plattformen, die verteilte Anwendungen unterstützen. Dazu gehören die Eigenschaften drahtloser Verbindungen wie plötzliche und häufige Verbindungsabbrüche, lange Roundtrip-Zeiten, hohe Bitfehlerraten und geringe Bandbreite. Es gibt aber auch neue Anforderungen wie Handover-Unterstützung und die Notwendigkeit, unterschiedliche Netze (Bearer) zu nutzen. All diese Probleme und Anforderungen führen zu der Forderung nach einer von einer Transportverbindung unabhängigen Verbindung zwischen Client und Server. In diesem Beitrag stellen wir eine Session-Schicht vor, die eine solche Assoziation für die Middleware-Plattform CORBA basierend auf dem Wireless Application Protocol (WAP) bietet, die speziell für mobile und drahtlose Geräte entwickelt wurde. Es stellte sich heraus, dass das Sitzungsprotokoll in WAP namens WSP unsere Anforderungen nicht erfüllen kann, daher war es notwendig, eine eigene Sitzungsschicht zu definieren. Die Sitzungsschicht bietet explizite und implizite Mechanismen zum Unterbrechen und Wiederaufnehmen einer Sitzung, eine Wiederverbindung mit der Sitzung, nachdem der Träger verloren gegangen oder geändert wurde, und eine Lösung für das Problem der verlorenen Antwort. Darüber hinaus enthält es eine Schnittstelle, die von sitzungsbewussten Anwendungen verwendet werden kann, um die vorgestellten Mechanismen selbst auf einer feinkörnigen Ebene zu steuern. Dieses Papier präsentiert eine detaillierte Beschreibung der Sitzungsschicht, ihrer Integration in CORBA, eine Abbildung von GIOP-Nachrichten auf WTP und ausgewählte Implementierungsdetails;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45518-3_4 b10e63b8f2e76e625d3da096251fd2b2;de;;;7.3.;;;Biologische Wissensextraktion Text Mining ist das Extrahieren [neuartiger] interessanter und nicht trivialer Informationen und Wissen aus unstrukturiertem Text (Google™-Suchergebnis für „Define: Text Mining“). Informationsabruf, Verarbeitung natürlicher Sprache, Informationsextraktion und Text-Mining stellen Methoden bereit, um die Last des Aufspürens und der Verknüpfung von im Text enthaltenen Daten vom menschlichen Benutzer auf den Computer zu verlagern. Das Aufkommen von Hochdurchsatztechniken hat es den Biowissenschaften ermöglicht, ihren Forschungsschwerpunkt auf die Systembiologie zu verlagern, was die Anforderungen an das Textmining und die Extraktion von Informationen aus heterogenen Quellen erhöht. In diesem Kapitel werden die grundlegendsten Anwendungen von Sprachverarbeitungsmethoden in der Biologie vorgestellt und die grundlegenden Ressourcen vorgestellt, die auf diesem Gebiet offen verfügbar sind. Die Suche nach Informationen zu einer Volkskrankheit, der chronischen myeloischen Leukämie, wird exemplarisch für die Leistungsfähigkeit verwendet. Tools wie PubMed, eTBLAST, METIS, EBIMed, MEDIE, MarkerInfoFinder, HCAD, iHOP, Chilibot und G2D – ausgewählt aus einer umfassenden Liste aktuell verfügbarer Systeme – bieten Benutzern eine grundlegende Plattform für die Durchführung komplexer Operationen mit im Text gesammelten Informationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-59745-440-7_22 7f417da030fb68d5dbccc74c8efb3c92;de;;;7.3.;;;IoT-basiertes Smart Farming mit Thingspeak und MATLAB Der Klimawandel hat dazu beigetragen, dass die Überwachung des Klimas immer wichtiger wird. Eine kontinuierliche Überwachung der Umweltparameter ist wichtig, um den Wert der Atmosphäre zu beurteilen. Die IoT-Technologie hat jeden Bereich des menschlichen Lebens revolutioniert und ihn digital und aufschlussreich gemacht. IoT ist eine Sammlung von Dingen, die ein Netzwerk zur Selbstkonfiguration bilden. Da das IoT die fortschrittlichste Technologie ist, spielt die Erfassung von Daten aus der Sensorik eine Schlüsselrolle. Dieses Papier stellt ein Arduino UNO Wi-Fi-Modul (ESP8266) vor, das die Verarbeitung unterstützt und erfasste Informationen an die Ding-Speak-Cloud überträgt, die normalerweise aus verschiedenen Sensoren wie Temperatur, Feuchtigkeit und Feuchtigkeit usw. besteht. Dann werden die erhaltenen Parameter auf dem Cloud-Server. Ein Cloud-Computing-System verfolgt als Repository Umgebungsänderungen. Things talk wird eine Funktion für einen öffentlichen Kanal bereitstellen, die von der Öffentlichkeit gemessen und berechnet wird. Ein kostenloser Zugriff auf Messparameter wird mit einem Android-Framework bereitgestellt. Dieses Papier zielt darauf ab, eine neue intelligente IoT-basierte Landwirtschaft vorzuschlagen, die Landwirte dabei unterstützt, Live-Daten (Temperatur, Bodenfeuchtigkeit) für eine erfolgreiche Umweltüberwachung zu erhalten, damit sie intelligente Landwirtschaft betreiben und die Gesamtproduktion und den Wert ihrer Produkte steigern können. Das Novel Intelligent IoT Farming ist in die Arduino-Technologie eingebettet und das Steckbrett kann von Thingspeak.com mit verschiedenen Sensormodulen und Live-Daten-Feeds bezogen werden. Eine unterstützende, offene API-Plattform für die Internetdienste von IoT Thingspeak ist ein Host für eine Reihe von Sensorsystemen, die sensible Informationen auf Cloud-Ebene verwalten und eine spezielle Funktion zur Übertragung erfasster Daten an MATLAB R2019a enthalten. Eine über die Dienste zugewiesene Kanal-ID und ein API-Schlüssel können verwendet werden, um die Datenqualität in bestimmten Intervallen zu überwachen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7961-5_117 253487faf5afad9169da1226941ac623;de;;;7.3.;;;Fuzzy Document Clustering-Ansatz mit WordNet lexikalischen Kategorien Text Mining bezieht sich im Allgemeinen auf den Prozess, interessante Informationen und Wissen aus unstrukturiertem Text zu extrahieren. Dieser Bereich wächst schnell, hauptsächlich aufgrund des starken Bedarfs an der Analyse der riesigen und großen Menge an Textdaten, die sich auf internen Dateisystemen und im Web befinden. Das Clustering von Textdokumenten bietet einen effektiven Navigationsmechanismus, um diese große Datenmenge zu organisieren, indem ihre Dokumente in eine kleine Anzahl aussagekräftiger Klassen gruppiert werden. In diesem Artikel haben wir einen Ansatz zur Clusterbildung von Fuzzy-Textdokumenten vorgeschlagen, der lexikalische Kategorien von WordNet und Fuzzy . verwendet;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-3660-5_31 e28aaf318d9b51b33368f5fb541c77ab;de;;;7.3.;;;Was kann man aus bereits beantworteten Fragen lernen? Ein korpusbasierter Ansatz zur Beantwortung von Fragen Wir präsentieren einen korpusbasierten Ansatz zur Beantwortung von Fragen, der es unserem System ermöglicht, eine Fragekategorie zu klassifizieren, eine Abfrage zu generieren und Antwortkandidaten zu überprüfen. Das System verwendet das Internet, um Informationen zu finden, die für die Beantwortung erforderlich sind. Die Rolle der korpusbasierten Module besteht darin, das System mit Wissen zu unterstützen, das die Möglichkeit bietet, zuvor beantwortete Fragen effektiv als Systemerfahrungsbasis zu nutzen. Wir stellen die Methode Query Pattern Generation vor, die demonstriert, dass das System automatisch Wissen erwerben kann, wie eine Abfrage für eine bestimmte Fragekategorie und Fragesyntax optimal generiert wird. Die korpusbasierte Verifizierung von Antwortkandidaten ist ein wirksames Werkzeug, um Antwortkandidaten auszuschließen, die nicht zu einer Fragekategorie gehören, und kann eine angemessene Länge für die Antwort bereitstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39985-8_39 f05ae6fe19815e930c947ebfebe1262f;de;;;7.3.;;;Die Informationseffizienz neuer Wissensproduktion im Zeitalter der Netzwerkkommunikation Die Besonderheiten der Kommunikation im Prozess der Wissensproduktion werden analysiert. Es wird auf die Bedeutung der Koordination von Strategien zur Entwicklung innovativer Lösungen und der kognitiven Integration hingewiesen, um die Wirksamkeit dieses Prozesses sicherzustellen. Für die vergleichende Bewertung von Koordinationstechnologien wird der Begriff der Kommunikationseffizienz vorgeschlagen, der als Funktion der Minimierung der Transaktionskosten definiert wird. Anhand dieses Konzepts wird die vergleichende Effizienz moderner Netzwerkformen der Interaktionskoordination analysiert und eine Aussage über deren signifikanten positiven Einfluss auf die Leistungsfähigkeit von Innovationsorganisationen formuliert.;-;-;-;https://link.springer.com/article/10.3103/S0147688218010057 d9cb6c7a615bf622421f34622bf8b5bf;de;;;7.3.;;;Identifizieren lokaler Fragen bei der Beantwortung von Community-Fragen Community Question Answering (CQA)-Dienste wie Yahoo! Answers, WikiAnswers und Quora haben sich in letzter Zeit im Internet verbreitet. Bei vielen Fragen in CQA werden Informationen zu einem bestimmten Ort (z. B. einer Stadt) angefordert. Die Beantwortung solcher lokaler Fragen erfordert einige lokale Kenntnisse, daher ist es wahrscheinlich von Vorteil, sie beim Abrufen von Antworten und Antworten auf Antworten usw. anders zu behandeln als globale Fragen. In diesem Papier behandeln wir das Problem der automatischen Identifizierung lokaler Fragen in CQA durch maschinelles Lernen. Die Herausforderung besteht darin, dass die manuelle Kennzeichnung von Fragen zu Schulungszwecken als lokal oder global kostspielig wäre. In der Erkenntnis, dass wir viele lokale Fragen aus einigen ortsbezogenen Kategorien (z. B. „Reisen“) zuverlässig finden könnten, schlagen wir vor, im Rahmen des PU-Lernens lokale/globale Fragenklassifizierer zu erstellen (dh Lernen aus positiven und nicht gekennzeichneten Beispielen). und machen somit das manuelle Beschriften von Fragen überflüssig. Neben Standardtextfunktionen von Fragen nutzen wir auch Lokalitätsfunktionen, die mit dem Geo-Parsing-Tool Yahoo! Platzmacher. Unsere Experimente mit realen Datensätzen (von Yahoo! Answers und WikiAnswers gesammelt) zeigen, dass der Wahrscheinlichkeitsschätzungsansatz für das PU-Lernen S-EM (Spion-EM) und Biased-SVM bei dieser Aufgabe übertrifft. Darüber hinaus zeigen wir, dass der räumliche Umfang einer Ortsfrage auch ohne Nennung eines Ortsnamens genau abgeleitet werden kann. Dies ist besonders in einer mobilen Umgebung hilfreich, da Benutzer lokale Fragen über ihr GPS-fähiges Mobiltelefon stellen könnten, ohne ihren aktuellen Standort und den beabsichtigten Suchradius explizit anzugeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35341-3_26 0092398ebaa5083b05536cf84165ed76;de;;;7.3.;;;Wissensverarbeitungs- und Servicesystem für digitale Bildung basierend auf Semantic Web Die jüngsten Bemühungen im Bereich der Lerntechnologie haben zu einer erheblichen Verbesserung der Interoperabilität digitaler Bildungsressourcen geführt. Auf der Grundlage der gemeinsamen Nutzung und Integration digitaler Bildungsressourcen betrachtet die Wissensverarbeitung und -dienstleistung die semantische Wissensextraktion von Metadaten von Bildungsressourcen, die Konstruktions-Ontologie für Bildungsressourcen und die Kombination der Persönlichkeitsmerkmale der Benutzer, um semantikbasierte personalisierte Abruf- und Bereitstellungsdienste bereitzustellen. In diesem Papier erarbeiten wir die Architektur von Wissensverarbeitungs- und Servicesystemen für die digitale Bildung, diskutieren dann die semantische Repräsentation digitaler Bildungsressourcen, semantisches Mining und Entdecken digitaler Bildungsressourcen und personalisierte Wissensbereitstellungsdienste.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75466-6_57 1df96d0e7f4770be4a3a7a35b6363b39;de;;;7.3.;;;Ansatz zur Feststellung des Konsenses und des Interesses der Gemeinschaft Heutzutage, da das Internet es ermöglicht, Informationen zu finden, zu veröffentlichen und dann mit unbekannten Personen zu teilen und dann das Entstehen einer virtuellen Gemeinschaft zu ermöglichen, ist es natürlich, den Konsens oder die Interessen aus diesen Online-Meinungen oder Umfragen zu erkennen, insbesondere für Geschäftsleute, um Feedback zu erhalten und Sinne, die für das Design neuer Prototypen und Produktverbesserungen von Vorteil sind. In diesem Papier werden verschiedene Möglichkeiten angesprochen, sich dem Konsens und den Interessen der Gemeinschaft zu nähern. Diese Wege bezeichnen hauptsächlich drei Arten von Technologien, Augmented Information Support (AIS), CorMap und iView, die hauptsächlich verschiedene Arten von Arbeiten während eines unstrukturierten Problemlösungsprozesses unterstützen, bei dem kreative Ideen kaum erforderlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89376-9_2 d54c212e333966578a64cb619712fada;de;;;7.3.;;;Ist Barrierefreiheit ein Thema in der Wissensgesellschaft? Moderne Webanwendungen im Lichte der Barrierefreiheit Die jüngste Entwicklung im Web zeigt einen signifikanten Trend zu mehr Benutzerbeteiligung, massiver Nutzung neuer Geräte, einschließlich tragbarer Geräte, und hoher Interaktivität. Die Nutzerbeteiligung geht einher mit der Einbeziehung aller potentiellen Nutzergruppen – auch mit besonderen Bedürfnissen. Wir behaupten jedoch, dass trotz aller Bemühungen um Barrierefreiheit noch kein angemessenes Spiegelbild bei den Stakeholdern der „Top Web Applications“ und ihren Nutzern gefunden wurde. Dies führt zu unerwünschten Ursachen – dem geschäftsgetriebenen Web ohne;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16324-1_40 a6c88c142b8478c050b59fb4d354664c;de;;;7.3.;;;Lehrsupervision basierend auf einem Webportal und einem System von Laboraufgaben Diese Arbeit wurde auf der Grundlage von Erfahrungen mit Unterrichtsfächern zu Steuerungssystemen und industrieller Automatisierung an technischen Universitäten verfasst. Der Beitrag stellt bewährte Methoden zur Organisation und Moderation eines Bildungsprozesses unter aktiver Beteiligung der Studierenden während der theoretischen und praktischen Arbeit über das Internet vor. Ein solcher Ansatz beschränkt weder die Zahl noch den Standort der Teilnehmer – Schüler, Lehrer oder beratende Mitarbeiter. Die internationale und multikulturelle Dimension ist auch die schwierigste, da die Zusammenarbeit weltweit erfolgen kann. Die Arbeit mit Studenten erfordert eine kontinuierliche Weiterentwicklung der Lehrpläne, da auch die Entwicklung und Anpassung an die sich verändernde Welt kontinuierlich ist. Das System steht allen Teilnehmern offen und alle am System beteiligten Parteien können unternehmerischer, wissenschaftlicher, sozialer oder pädagogischer Natur sein. Im Beitrag werden die eingesetzten Softwaretools für den Bereich Aufsichtskontrolle vorgestellt sowie Möglichkeiten zur Förderung dieser Arbeit für die Nutzung durch neue Mitglieder vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34731-8_43 24b4dd04422642138309eafb139e52ca;de;;;7.3.;;;TSC – Triple Space Computing Triple Space Computing (TSC) wurde als Kommunikations- und Koordinationsparadigma vorgeschlagen, das auf der Konvergenz von Space-based Computing und dem Semantic Web basiert. Es fungiert als globaler virtueller Shared Space wie Middleware, um die Kommunikation und Koordination semantischer Daten nach dem Prinzip des Publish and Read zu ermöglichen. Dieses Papier gibt einen Überblick über die laufenden Arbeiten im Rahmen des österreichischen FIT-IT-finanzierten TSC-Projekts (;-;-;-;https://link.springer.com/article/10.1007/s00502-006-0408-1 556e2a55a3e0ad2f3ac929acb90c6e07;de;;;7.3.;;;Zur aktuellen Entwicklung des E-Business im Tourismus in China Durch die Analyse des wirtschaftlichen und technologischen Hintergrunds des touristischen E-Business beschreibt der Beitrag das Konzept des touristischen E-Business und seine Funktionsweise, um diese moderne Alternative tief und umfassend zu meistern. Der Autor betont die Diskussion der Inter-Promotion- und Inter-Entwicklungs-Beziehung zwischen E-Business und Tourismuswirtschaft und prognostiziert unterdessen die Zukunft des chinesischen Tourismus-E-Business auf der Grundlage der Analyse der schwierigen Situation, in der wir uns derzeit im Tourismus-E-Business befinden . In Kombination mit erfolgreichen Fällen werden Vorschläge zur Entwicklung des touristischen E-Business unterbreitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75466-6_67 120123eb255cf70993a0e2a8ffe795c4;de;;;7.3.;;;Verwendung von Ontologie zur Wiederverwendung von Web-Repositories für eLearning Das eLearning-Szenario hat einen Wandel vom Lehr- zum adaptiven Lernen erlebt. Der Fokus verschiebt sich nun vom geschlossenen zum offenen Szenario. Das Lernen in einer solchen Situation wird jedoch zur Aufgabe des Abrufens, da die Informationen weitgehend über das Internet verstreut sind. Die Suche nach solch umfangreichen Informationen ist praktisch unmöglich und führt zu unvollständigen oder irrelevanten Ergebnissen. Daher besteht die Notwendigkeit, den riesigen Informationspool, der in unterschiedlichen Formen im Web vorhanden ist, automatisch zu integrieren. Dieses Papier schlägt ein Framework vor, das semantisch nach Informationen in allen vorhandenen Web-Repositorys für eine bestimmte Abfrage sucht. Der Ansatz verwendet den WSD-Algorithmus (Word Sense Disambiguation) zur semantischen Analyse und Erweiterung der Abfrage. Anschließend wird eine personalisierte Wissensdatenbank für Lernzwecke erstellt, indem Agenten bereitgestellt werden, um Informationen aus verschiedenen Lernressourcen zusammenzustellen. Die integrierte Wissensorganisation bietet eine zentrale Referenz für die gestellte Anfrage. Es erhöht somit die Wahrscheinlichkeit, dass der Lernende vollständige und relevante Informationen aus einer einzigen Referenz erhält. Dieser Rahmen ermöglicht es daher einem Lernenden, sich auf das Lernen statt auf den Suchprozess zu konzentrieren, wodurch die Lernerfahrung verbessert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-9151-2_17 842033937ee7c5378644c90d20cb4001;de;;;7.3.;;;Ausnutzung der Linkstruktur zur Identifizierung des Webseiten-Genres Da sich das World Wide Web in einem beispiellosen Tempo entwickelt, hat die Identifizierung des Webseiten-Genres in letzter Zeit aufgrund seiner Bedeutung für die Websuche zunehmende Aufmerksamkeit auf sich gezogen. Ein üblicher Ansatz zum Identifizieren von Genres besteht darin, Textmerkmale zu verwenden, die direkt aus einer Webseite extrahiert werden können, d. h. On-Page-Merkmale. Die extrahierten Merkmale werden anschließend in einen maschinellen Lernalgorithmus eingegeben, der eine Klassifizierung durchführt. Diese Ansätze können jedoch unwirksam sein, wenn die Webseite begrenzte Textinformationen enthält (z. B. die Seite voller Bilder ist). In dieser Studie befassen wir uns mit der Genreidentifikation von Webseiten unter der oben genannten Situation. Wir schlagen ein Framework vor, das On-Page-Funktionen verwendet und gleichzeitig Informationen auf benachbarten Seiten berücksichtigt, dh den Seiten, die durch Rückwärts- und Vorwärtslinks mit der Originalseite verbunden sind. Wir führen zunächst ein graphenbasiertes Modell namens GenreSim ein, das einen geeigneten Satz benachbarter Seiten auswählt. Anschließend konstruieren wir ein Kombinationsmodul für mehrere Klassifikatoren, das Informationen von den ausgewählten Nachbarseiten und On-Page-Funktionen verwendet, um die Leistung bei der Genreidentifizierung zu verbessern. Experimente werden mit bekannten Korpora durchgeführt, und günstige Ergebnisse zeigen, dass unser vorgeschlagenes Framework effektiv ist, insbesondere bei der Identifizierung von Webseiten mit begrenzten Textinformationen.;-;-;-;https://link.springer.com/article/10.1007/s10618-015-0428-8 287babe4d1afe9ecf084ac16450eb53e;de;;;7.3.;;;Textpresso for Neuroscience: Durchsuchen des vollständigen Textes von Tausenden von neurowissenschaftlichen Forschungsarbeiten Textpresso ist ein Text-Mining-System für wissenschaftliche Literatur. Seine beiden Hauptmerkmale sind der Zugang zum Volltext von Forschungsarbeiten und die Entwicklung und Verwendung von Kategorien biologischer Konzepte sowie Kategorien, die Objekte beschreiben oder in Beziehung setzen. Eine Suchmaschine ermöglicht es dem Benutzer, innerhalb einer gesamten Literatur nach einer oder einer Kombination dieser Kategorien und/oder Schlagworte zu suchen. Hier beschreiben wir Textpresso for Neuroscience, Teil des zentralen Neuroscience Information Framework (NIF). Die Website von Textpresso besteht derzeit aus 67.500 Volltextpapieren und 131.300 Abstracts. Wir zeigen, dass die Verwendung von Kategorien in der Literatur eine reine Keyword-Abfrage verfeinert und aussagekräftiger machen kann. Wir zeigen auch, wie semantische Abfragen nur mit Kategorien formuliert werden können. Wir erklären Aufbau und Inhalt der Datenbank und beschreiben die wichtigsten Funktionen der Webseiten und die erweiterten Suchoptionen. Wir geben auch detaillierte Illustrationen des Webdienstes, der entwickelt wurde, um den programmatischen Zugriff auf Textpresso bereitzustellen. Dieser Webservice wird von der NIF-Schnittstelle verwendet, um auf Textpresso zuzugreifen. Die eigenständige Website von Textpresso for Neuroscience ist abrufbar unter;-;-;-;https://link.springer.com/article/10.1007/s12021-008-9031-0 b45485ec52508a4d557f1727567c61d9;de;;;7.3.;;;Architektur des Mehrkanal-Mehrdatenbank-Abstimmungssystems Die Abstimmungstechnologie hat im Laufe der Zeit verschiedene Veränderungen erfahren, angefangen vom traditionellen Stimmabgabesystem bis hin zum neuesten elektronischen Abstimmungssystem. Aber die Technologie konnte die Popularität des Wahlsystems nicht beeinflussen, obwohl sie keine wünschenswerte Mischung aus Zugänglichkeit und Effizienz bietet. Wir glauben, dass eine Architektur, die die Effizienz der aktuellen Technologie und die Einfachheit des Stimmabgabesystems kombiniert, die Stimmabgabe revolutionieren wird. Wir schlagen eine neuartige Architektur für Wahlsysteme vor, die mehrere Kanäle (Geldautomat, Internet, Mobiltelefon, Telefon und Stimmzettel) und mehrere Datenbanken verwendet, um zu zeigen, dass sie ideal ist, um Zugänglichkeit, Effizienz, Durchführbarkeit und Flexibilität zu erreichen. Wir zeigen durch Simulationen, dass das vorgeschlagene Mehrkanal-Abstimmungssystem für mehrere Länder geeignet ist. Wir vergleichen die Kosten dieses Abstimmungssystems mit dem traditionellen in verschiedenen Szenarien mit Hilfe einer neuen Metrik.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-29773-1_19 c88a21476542733698032ebc5ad8de2a;de;;;7.3.;;;Ein Multi-Ranker-Modell für die adaptive XML-Suche Die Entwicklung der Computertechnologie deutet darauf hin, dass es einfacher geworden ist, über verschiedene Arten von Interaktionsgeräten wie PCs, Laptops, Palmtops usw. auf allgegenwärtige Weise Zugang zu Webinformationen anzubieten. Da XML zu einem De-facto-Standard für den Austausch von Webdaten geworden ist, ist ein interessantes und praktisches Forschungsproblem die Entwicklung von Modellen und Techniken, um verschiedene Bedürfnisse und Präferenzen beim Durchsuchen von XML-Daten zu erfüllen. In diesem Papier verwenden wir eine Liste einfacher XML-getaggter Schlüsselwörter als Mittel zum Durchsuchen von XML-Fragmenten in einer Sammlung von XML-Dokumenten. Um der Vielfältigkeit von XML-Dokumenten sowie Benutzerpräferenzen gerecht zu werden, schlagen wir ein neuartiges Multi-Ranker-Modell (MRM) vor, das in der Lage ist, ein Spektrum wichtiger XML-Eigenschaften zu abstrahieren und die Funktionen an unterschiedliche XML-Suchbedürfnisse anzupassen. Das MRM besteht aus drei Rangstufen. Die unterste Ebene besteht aus zwei Kategorien von Ähnlichkeits- und Granularitätsmerkmalen. Auf der mittleren Ebene definieren wir vier maßgeschneiderte XML-Ranger (XRs), die aus verschiedenen Funktionen der unteren Ebene bestehen und unterschiedliche Stärken bei der Suche nach XML-Fragmenten haben. Die XRs werden über einen Lernmechanismus namens Ranking Support Vector Machine in einem Voting Spy Naive Bayes Framework (RSSF) trainiert. Die RSSF nimmt als Eingabe einen Satz gekennzeichneter Fragmente und Merkmalsvektoren und erzeugt als Ausgabe Adaptive Rangers (ARs) im Lernprozess. Die ARs werden über die XRs definiert und auf der obersten Ebene des MRM generiert. Wir zeigen empirisch, dass die RSSF in der Lage ist, das MRM im Lernprozess, der nur einen kleinen Satz von XML-Trainingsfragmenten benötigt, signifikant zu verbessern. Wir zeigen, dass das trainierte MRM in der Lage ist, die Stärken der XRs zu nutzen, um unterschiedliche Präferenzen und Fragestellungen anzupassen.;-;-;-;https://link.springer.com/article/10.1007/s00778-007-0068-8 8d08816e81458564a3248e2634e2b4e7;de;;;7.3.;;;Programmierbare Netzwerkkontextanpassung für Content Delivery Services Dieses Papier schlägt ein aktives/programmierbares netzwerkbasiertes Service Adaptation Manager (SAM)-Design vor, um effektiv zuverlässige und umfangreiche Dienste für Multimedia Content Delivery Networks (CDN) bereitzustellen. Es zeigt, dass die Dienstdomäne des CDN aus zwei Ebenen besteht: der Anwendungsdienstebene und der Netzwerkdienstebene. Das Ziel des SAM ist es, die Dynamik der Grenzen zwischen diesen beiden Ebenen für Multimedia-CDN (mCDN) zu verwalten. Der SAM umfasst drei Hauptteile: Service Context Adaptor, Service Adaptation Broker und Network Context Adaptor. Ein neuer Algorithmus wurde vorgeschlagen, um den Service Context Adaptor zu entwerfen. Dadurch können verschiedene Teilmengen von Dienstkontext adaptiv integriert werden, um die am besten geeigneten Anpassungsmodule (wie VPN, QoS oder den Optimal Route Service) für den gelieferten Inhalt auszuwählen. Der vorgeschlagene Algorithmus des Netzwerkkontextadapters bietet eine effektive Lösung zum Erfassen der Netzwerktopologiestruktur. Außerdem schlägt dieses Papier das Design eines adaptiven Optimal Route Service für CDNs vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-49690-0_20 bc3f730e0def20e35958c29b4a37fed2;de;;;7.3.;;;Ein System zur ontologiebasierten Annotation biomedizinischer Daten Wir präsentieren ein System zur ontologiebasierten Annotation und Indexierung biomedizinischer Daten. Die Schlüsselfunktion dieses Systems besteht darin, einen Dienst bereitzustellen, der es Benutzern ermöglicht, biomedizinische Datenressourcen im Zusammenhang mit bestimmten Ontologiekonzepten zu finden. Der Indexierungsworkflow des Systems verarbeitet die Textmetadaten verschiedener Ressourcenelemente wie Genexpressionsdatensätze, Beschreibungen von Radiologiebildern, klinischen Studienberichten und PubMed-Artikelabstracts, um sie mit Konzepten aus geeigneten Ontologien zu kommentieren und zu indizieren. Das System ermöglicht Forschern die Suche nach biomedizinischen Datenquellen mit Ontologiekonzepten. Was diese Arbeit von anderen biomedizinischen Suchwerkzeugen unterscheidet, ist: (i) die Verwendung von Ontologie-Semantik zur Erweiterung des anfänglichen Satzes von Annotationen, die automatisch von einem Konzepterkennungswerkzeug generiert werden, (ii) die einzigartige Fähigkeit, fast alle öffentlich verfügbaren biomedizinischen Ontologien in der Indexierungsworkflow, (iii) die Fähigkeit, dem Benutzer integrierte Ergebnisse aus verschiedenen biomedizinischen Ressourcen an einem Ort bereitzustellen. Wir diskutieren die Systemarchitektur sowie unsere Erfahrungen bei der prototypischen Umsetzung (http://www.bioontology.org/tools.html).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69828-9_14 f7891d2be2753f0cbf7f93e12de28d1c;de;;;7.3.;;;Mobile Partizipation: Entdecken Sie mobile Tools in der E-Partizipation In diesem Beitrag untersuchen wir den Einsatz mobiler Technologien in Kontexten der E-Partizipation und definieren Gründe für die mobile Partizipation. Mobile Partizipation (mPart) erfordert die Unterstützung durch Tools, die mobile digitale Client-Geräte, mobilen Zugang zum Internet und Serviceunterstützung der zugehörigen Kommunikation umfassen. Dies ermöglicht neue Formen der Bürgerbeteiligung an der politischen Entscheidungsfindung zu jeder Zeit, wo immer sich die Bürger physisch aufhalten. Unterschiedliche Beteiligungsszenarien erfordern unterschiedliche Arten von mPart-Werkzeugen. Informationsbeschaffung, Meinungsumfragen, Beiträge zu politischen Diskussionen in sozialen Medien und in gängigen E-Partizipationsplattformen, schnelle Feedback-Formulare sowie Gruppen- und Veranstaltungskooperationen sind einige Beispiele für Beteiligungsszenarien, die wir als mPart-Anwendungen betrachten. In diesem Papier untersuchen wir verschiedene Projekte zur Nutzung mobiler Technologien für die Bürgerbeteiligung – mit einem Fokus auf E-Partizipation – und beschreiben mPart-Anwendungen und verwandte Werkzeuge, die von den Autoren in einem Projekt entwickelt und evaluiert werden. Die mPart-Tools sind in eine mehrschichtige mPart-Architektur eingebettet, die eine flexible Integration von Tools über eine zugrunde liegende sichere Kommunikationsinfrastruktur ermöglicht. Die Architektur dient als Referenzarchitektur für die Integration von mPart-Tools.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40346-0_1 c6d331841a88ba4e5ec2d1d400ca6ad6;de;;;7.3.;;;Ein kurzer Rückblick: Was wurde auf internationalen DEXA-Konferenzen präsentiert? Die Dinge haben sich seit den ersten DEXA-Veranstaltungen aufgrund der neuen Herausforderungen durch neue Probleme, die heutzutage allgegenwärtig in modernen Anwendungsdomänen auftreten, zunehmend verändert. In diesem Beitrag wird ein kurzer Überblick über die Beiträge zu den internationalen DEXA-Konferenzen gegeben. Die verschiedenen Forschungstrends und Herausforderungen, die aufgeworfen wurden, werden kurz und bündig analysiert. Es werden auch einige Vorhersagen über den zukünftigen Trend der DEXA-Events präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45227-0_91 3f9791bf4d185b47a5aff17bafcf4dd3;de;;;7.3.;;;Unterthema Segmentierung wissenschaftlicher Texte: Parameteroptimierung Die Informationsrecherche innerhalb eines wissenschaftlichen Textes muss das Problem der automatischen Dokumentenaufteilung in Unterthemen unter Berücksichtigung von Textspezifika und Nutzungszwecken bewältigen. Diese Aufgabe ist wichtig für die Auswahl von Primärquellen, für die Arbeit mit fremdsprachigen Texten oder zum Kennenlernen von Forschungsproblemen. Dieser Artikel konzentriert sich auf die Anwendung von Unterthemensegmentierungsalgorithmen auf reale wissenschaftliche Texte. Um dies zu studieren, verwenden wir Monographien zum gleichen Thema, die in drei Sprachen verfasst sind. Das Korpus enthält mehrere originale und professionell übersetzte Fragmente. Die Forschung basiert auf dem TextTiling-Algorithmus, der analysiert, wie eng benachbarte Teile des Textes zusammenhängen. Wir untersuchen, wie einige Parameter (die Cutoff-Rate, die Größe des sich bewegenden Fensters und die Verschiebung von einem Block zum nächsten) die Segmentierungsqualität beeinflussen und definieren die optimale Kombination dieser Parameter für mehrere Sprachen. Die Studien zum Russischen legen nahe, dass externe lexikalische Ressourcen die Segmentierungsqualität deutlich verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24543-0_1 af380736c6d079de203359233f93a703;de;;;7.3.;;;Extraktion von Webdaten aus der Website wissenschaftlicher Verlage mit dem Hidden-Markov-Modell In letzter Zeit sind große Mengen an Informationen auf Webseiten in einem endlosen Strom aufgetaucht. Und es werden zahlreiche Artikel in mehr als dreitausend Zeitschriften veröffentlicht, insbesondere im Bereich der Technik. Es ist für den Benutzer fast unmöglich, die Informationen einzeln zu durchsuchen. Der Nutzer muss viele Links anklicken, wenn er unter den Tausenden von Zeitschriften Informationen wie die Einführung der Zeitschriften, Impact Factor, ISSN usw. Um dieses Problem zu lösen, ist es notwendig, eine automatische Methode zu entwickeln, die die Informationen automatisch aus dem Deep Web herausfiltert. Die Methode in diesem Papier kann Menschen helfen, die benötigten Informationen schnell zu klassifizieren und zu extrahieren. Dieser Beitrag enthält folgende Arbeiten: Zuerst wird die Methode des maschinellen Lernens, HMM, verwendet, um die Zeitschrifteninformationen aus der Website des Verlags zu extrahieren, was die Generalisierungsfähigkeit der heuristischen Methode verbessert, dann während des Datenverarbeitungsschritts die Inhaltsextraktion Technik wird verwendet, um die Leistung des Hidden-Markov-Modells zu verbessern, schließlich speichern wir die extrahierten Informationen strukturiert und zeigen sie an. Im experimentellen Schritt werden drei Algorithmen getestet und in Genauigkeit, Recall und F-Measure verglichen, die Ergebnisse zeigen, dass HMM mit Content Extraction (C-HMM) die beste Performance hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99365-2_42 887ab33701842ee6ea00d6b81d5bab52;de;;;7.3.;;;SMACA-Nutzung bei der Indexierung des Speichers einer Suchmaschine Das World Wide Web (WWW) hat Millionen von Menschen revolutioniert, die auf die riesigen im WWW gespeicherten Informationen unabhängig von ihrem Land zugreifen möchten. Es ist möglicherweise nicht immer möglich, den genauen Uniform Resource Locator (URL) zum Abrufen von Informationen zu kennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3053-7_4 5a5d5de20e696bd0b56b5d67c3ce90c0;de;;;7.3.;;;Sicheres Hybrid-Betriebssystem „Linux über Fenix“ Der Artikel diskutiert einen Ansatz zum Aufbau sicherer Datenverarbeitungssysteme auf Basis der hybriden Betriebssystemtechnologie, die es ermöglichen, mehrere unterschiedliche Betriebssysteme gleichzeitig auf demselben Rechner zu nutzen und für eine Interaktion zwischen diesen zu sorgen. Das sichere Betriebssystem Fenix, das am Software Security Laboratory (SSL) der Staatlichen Polytechnischen Universität St. Petersburg (SPSPU) entwickelt wurde, soll als Host-Betriebssystem verwendet werden, während das beliebte Linux-Betriebssystem – als Gastbetriebssystem Kompatibilität mit gängigen Anwendungen.;-;-;-;https://link.springer.com/chapter/10.1007/11560326_21 87f95bfece7922d30e81c6ffff737f5e;de;;;7.3.;;;Bedeutet „größer“ „besser“? Fallstricke und Abkürzungen im Zusammenhang mit Big Data für die Sozialforschung „Big Data ist hier, um zu bleiben.“ Diese Kernaussage hat einen doppelten Wert: ist eine Annahme und gleichzeitig der Grund, warum eine theoretische Reflexion erforderlich ist. Darüber hinaus gewinnt Big Data auch in den Sozialwissenschaften an Sichtbarkeit und Erfolg und überwindet die Trennung zwischen Geisteswissenschaften und Informatik. In diesem Beitrag werden einige Überlegungen zum Vorhandensein und zur gewissen Persistenz von Big Data als soziotechnisches Gefüge skizziert. Daher werden die faszinierenden Möglichkeiten für die Sozialforschung entwickelt, die mit einer solchen Interaktion zwischen Praktiken und technologischer Entwicklung verbunden sind. Trotz einer verheißungsvollen Rhetorik, die seit der Geburt von Big Data als gekennzeichnetes Konzept von mehreren Wissenschaftlern gefördert wird, stehen jedoch einige Risiken unmittelbar bevor. Der Anspruch auf die methodische Kraft immer größerer Datensätze sowie die immer schneller werdende Analyse und Datenerhebung sorgen für einen regelrechten Hype in der Sozialforschung. Besondere Aufmerksamkeit ist erforderlich, um einige Fallstricke zu vermeiden. Diese Risiken werden hinsichtlich der Validität der durch Big Data gewonnenen Forschungsergebnisse analysiert. Nach einer pars distruens wird dieser Beitrag mit einer pars construens abschließen, wobei unter Annahme der bisherigen Kritik ein Mixed-Methods-Forschungsdesignansatz als genereller Vorschlag beschrieben wird, mit dem Ziel, eine Debatte über die Integration von Big Data in komplexe Forschungsprojektionen anzuregen.;-;-;-;https://link.springer.com/article/10.1007/s11135-015-0162-8 5f266d278b06df4f5c440b67bb3cf743;de;;;7.3.;;;Differenziertes serviceorientiertes Auktionsmechanismusdesign für NVM-basiertes Edge-Caching Im Zeitalter von Big Data werden Inhalte des Internets häufig von verschiedenen Nutzern aus der Cloud abgerufen, was die Netzwerkserver der Service Provider (SP) stark belastet. Dutzende von Untersuchungen zeigen, dass dieses Problem durch das Caching von Inhalten am Netzwerkrand effektiv gelöst werden kann. Edge-Caching steht jedoch noch vor einigen Herausforderungen. Erstens die Anforderungen an die Cache-Kapazität und das Dilemma. Die meisten existierenden Edge-Geräte haben eine kleine Speicherkapazität, die durch nichtflüchtige Speicher (NVMs) skaliert werden kann, die in großer Zahl bereitgestellt werden, aber NVMs haben die Nachteile einer Lese-Schreib-Asymmetrie und begrenzter Schreibvorgänge. Zweitens wirken sich unterschiedliche und unterschiedliche Benutzerpräferenzen für Inhalte auch auf die Effektivität des Edge-Caching aus. Das explosionsartige Wachstum der Internetdaten ändert die Benutzerpräferenz von der einfachen Zipf-Verteilung zur gestreckten Exponentialverteilung (SED) mit abgeschwächtem Long-Tail-Effekt Die Änderung der Benutzerpräferenz wirkt sich auf die Inhaltsplatzierung des Edge-Cache-Geräts aus und verschlimmert den NVM-Verschleiß. Drittens haben im tatsächlichen Szenario von Internetdiensten verschiedene Internetbenutzer unterschiedliche Dienstniveauanforderungen (d. h. differenzierte Dienste). Die Qualität der Dienste hängt von ihren Anforderungen an den Inhalt ab, und SP benötigt differenzierte Dienste für die Benutzer. Um die oben genannten Herausforderungen zu lösen und die SP-Einnahmen zu verbessern, schlagen wir einen Auktionsmechanismus vor, der differenzierte Dienste anbieten kann. Verglichen mit der Baseline, die hauptsächlich SP-Umsätze ohne Berücksichtigung von NVM, differenzierten Diensten und unterschiedlichen Benutzerpräferenzen optimiert, haben umfangreiche Simulationen bestätigt, dass unser Vorschlag nicht nur die Benutzererfahrung und den SP-Umsatz um bis zu 103,90 % bzw. 99,33 % verbesserte, sondern auch die NVM unterdrückte Tragezeiten ähnlich der Baseline, selbst wenn sich die Verteilung der Benutzerpräferenzen ändert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-57884-8_9 77a57e6cb2e49b0e267a7ffaf93fa3e6;de;;;7.3.;;;Die Online-Welt ausstellen: Eine Fallstudie Die Online-Welt und ihre Ursprünge sind einer der für die breite Öffentlichkeit am offensichtlichsten relevanten Bereiche der Computergeschichte. Es ist auch eines der am schwierigsten effektiv zu interpretieren und anzuzeigen. Dieser Beitrag diskutiert die Herausforderungen, die komplexe und meist immaterielle Online-Welt – manchmal auch „Cyberspace“ genannt – im musealen Kontext auszustellen. Dazu gehören nicht nur die Herausforderungen der Darstellung, sondern auch die Schwierigkeiten, diese komplexe, weitreichende und weitgehend unbekannte Geschichte zugänglich zu gestalten. Es stellt einige der Techniken vor, die wir im Computer History Museum als Lösungen entwickelt haben, in der Hoffnung, dass sie zum Gedankenaustausch beitragen können. Diese Techniken sind noch in der Entwicklung. Die drei relevanten Galerien unserer Dauerausstellung bilden die erste umfassende Ausstellung zur Geschichte der Online-Welt. Eine aktuelle temporäre Ausstellung und fünf kleine permanente in Entwicklung fokussieren sich auf spezifische Bereiche des Cyberspace.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41650-7_1 0a797f1f7b660caceb980f6a0905f437;de;;;7.3.;;;Ontologiebasierte Informationsvisualisierung: Auf dem Weg zu semantischen Webanwendungen Dieses Kapitel hat eine elegante Möglichkeit gezeigt, ontologische Daten visuell darzustellen. Wir haben beschrieben, wie die Cluster-Map-Visualisierung mit Ontologien ausdrucksstarke Informationsvisualisierungen erstellen kann, mit der attraktiven Eigenschaft, dass semantisch verwandte Klassen und Objekte in der Visualisierung auch räumlich nahe beieinander liegen.;-;-;-;https://link.springer.com/chapter/10.1007/1-84628-290-X_3 097c56ad6cb536e97720989cf57d664b;de;;;7.3.;;;Analyse von Nutzungsmustern in großen Multimedia-Websites Das Nutzerverhalten einer Website ist ein kritischer Indikator für die Benutzerfreundlichkeit und den Erfolg der Website. Daher ist ein Verständnis der Nutzungsmuster für die Optimierung des Website-Designs unerlässlich. In diesem Zusammenhang stellen große Multimedia-Websites eine große Herausforderung für das Verständnis des komplexen und vielfältigen Nutzerverhaltens dar, das sie ertragen. Dies liegt an der Komplexität der Analyse und des Verständnisses von Benutzerdaten-Interaktionen in medienreichen Kontexten. In diesem Kapitel stellen wir einen neuartigen multiperspektivischen Ansatz für die Usability-Analyse großer medienreicher Websites vor. Unsere Forschung kombiniert multimediale Web-Content-Analyse mit Elementen der Web-Log-Analyse und Visualisierung/Visual Mining von Web-Nutzungs-Metadaten. Die Multimediainhaltsanalyse ermöglicht eine direkte Schätzung der Informationshinweise, die einem Benutzer durch den Webinhalt präsentiert werden. Die Analyse von Webprotokollen und Nutzungsmetadaten, wie Standort, Art und Häufigkeit der Interaktionen, bietet eine zusätzliche Perspektive auf die Nutzung der Website. Der gesamte Informationsbestand wird durch leistungsstarke Visualisierungs- und interaktive Abfragetechniken genutzt, um Nutzungsmuster zu analysieren, die Designqualität zu messen und Probleme im Website-Design schnell zu identifizieren. Experimente auf medienreichen Websites, einschließlich des SkyServers – einem großen multimedialen webbasierten Astronomie-Informationsarchiv, demonstrieren die Wirksamkeit und das Versprechen des vorgeschlagenen Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84996-074-8_11 b7802d58c4aed3c6ce3139f1810ff99e;de;;;7.3.;;;Ein global-lokaler Ansatz zur Extraktion verformbarer Modeartikel aus Webbildern In dieser Arbeit schlagen wir einen neuen Rahmen vor, um verformbare Kleidungsstücke aus Bildern zu extrahieren, indem wir ein dreistufiges global-lokales Anpassungsverfahren verwenden. Zuerst wird ein Satz von anfänglichen Segmentierungsvorlagen aus einer handgefertigten Datenbank generiert. Dann initiiert jede Vorlage einen Objektextraktionsprozess durch eine globale Ausrichtung des Modells, gefolgt von einer lokalen Suche, die ein Maß der Fehlanpassung in Bezug auf die potentiellen Grenzen in der Nachbarschaft minimiert. Schließlich werden die Ergebnisse jeder Vorlage mit einem globalen Anpassungskriterium aggregiert, um die endgültige Segmentierung zu erhalten. Die Methode wird in der Fashionista-Datenbank und in einer neuen Datenbank mit manuell segmentierten Bildern validiert. Unsere Methode schneidet im Vergleich zum Paper Doll-Kleidungsparsing und mit der jüngsten GrabCut-on-One-Cut-Vordergrundextraktionsmethode gut ab. Wir analysieren jede Komponente quantitativ und zeigen Beispiele für erfolgreiche Segmentierung und schwierige Fälle.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48896-7_1 5cd2967176de82fe1a51d9f51b63583b;de;;;7.3.;;;Verwenden von Wide Table zur Verwaltung von Webdaten: eine Umfrage Mit der Entwicklung des World Wide Web (www) wurde die Speicherung und Nutzung von Webdaten zu einer großen Herausforderung für die Forschungsgemeinschaft des Datenmanagements. Webdaten sind im Wesentlichen heterogene Daten und können das Schema häufig ändern. Das traditionelle relationale Datenmodell ist für das Webdatenmanagement ungeeignet. Ein neues Datenmodell namens;-;-;-;https://link.springer.com/article/10.1007/s11704-008-0050-7 0a319f518a0fe38a1be5268be68b112d;de;;;7.3.;;;Probabilistisches Paketfilterungsmodell zum Schutz des Webservers vor DDoS-Angriffen Wir präsentieren einen probabilistischen Paketfilterungsmechanismus (PPF), um den Webserver gegen Distributed Denial-of-Service (DDoS)-Angriffe zu schützen. Um abnormalen Verkehr von normalen zu unterscheiden, verwenden wir die Verkehrsratenanalyse (TRA). Wenn der TRA-Mechanismus DDoS-Angriffe erkennt, filtert das vorgeschlagene Modell probabilistisch die Pakete im Zusammenhang mit den Angriffen. Die Simulationsergebnisse zeigen, dass es sinnvoll ist, DDoS-Angriffe frühzeitig zu erkennen und die Webserver effektiv vor DDoS-Angriffen zu schützen.;-;-;-;https://link.springer.com/chapter/10.1007/11577188_50 b4ca8059080a99420a0cfe38bc70b38f;de;;;7.3.;;;Kompromisse für die schnelle Analyse der Webkommunikation In diesem Artikel untersuchen wir einen neuartigen Ansatz, um eine probabilistische schnelle Analyse der Webkommunikation durchzuführen. Anstatt sich auf Mustervergleichsalgorithmen zu verlassen, betrachten wir einfache Parameter auf Netzwerk- und Transportebene und versuchen daraus abzuleiten, was auf Anwendungsebene passiert. Unser Ansatz bietet die Möglichkeit, einen Kompromiss zwischen Analysegeschwindigkeit und Präzision durchzuführen, der sich für einige Verkehrsanalyseanwendungen als nützlich erweisen könnte.;-;-;-;https://link.springer.com/chapter/10.1007/11422778_132 8811240c1dc6336628e1731cb6ba1e2f;de;;;7.3.;;;Navigieren, Entdecken und Erkunden des Webs: Strategien, die von Menschen mit Leseschwäche auf interaktiven Websites verwendet werden Der Großteil der Forschung zur Barrierefreiheit im Web hat sich darauf konzentriert, die Probleme zu identifizieren und zu beseitigen, denen Menschen mit Behinderungen bei der Interaktion mit dem Web begegnen. In diesem Papier argumentieren wir, dass wir uns von der Untersuchung von Benutzerproblemen wegbewegen müssen, um zu untersuchen, wie Menschen mit Behinderungen Interaktionsstrategien beim Surfen im Web anwenden. In diesem Beitrag präsentieren wir eine Studie von 19 lesebehinderten Benutzern, darunter Blinde, Sehbehinderte und Legastheniker, die mit einer Vielzahl interaktiver Web 2.0-Webanwendungen interagieren. Die Teilnehmer führten Aufgaben mit gleichzeitigen und retrospektiven Protokollen durch, um Informationen über ihre Interaktion mit Webinhalten zu erhalten. Das Ergebnis dieser Studie war eine Sammlung von 586 strategischen Handlungssequenzen, die in sieben verschiedene Strategietypen eingeteilt wurden. Es werden Unterschiede in der Anwendung von Strategien zwischen den Benutzergruppen sowie die von jeder Benutzergruppe am häufigsten verwendeten Strategien dargestellt. Wir schließen den Beitrag mit einer Diskussion einiger Implikationen für die Gestaltung von Websites und assistierenden Technologien sowie der zukünftigen Richtungen für die empirische Forschung zur Barrierefreiheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40483-2_47 a7fad84f76e3a6cc7830299b63ccef53;de;;;7.3.;;;Personalisiertes Filmempfehlungssystem durch hybride 2-Wege-Filterung mit extrahierten Informationen Personalisierte Empfehlungssysteme verbessern den Zugriff auf relevante Elemente und Informationen, indem sie personalisierte Vorschläge basierend auf früheren Elementen der Vorlieben und Abneigungen eines einzelnen Benutzers machen. Die meisten Empfehlungssysteme verwenden kollaboratives Filtern oder inhaltsbasiertes Filtern, um neue interessante Elemente für einen Benutzer vorherzusagen. Dieser Ansatz hat den Vorteil, Benutzern mit einzigartigen Interessen bisher nicht bewertete Artikel empfehlen und personalisierte Empfehlungen erklären zu können. Wir beschreiben ein personalisiertes Filmempfehlungssystem, das WebBot, hybride 2-Wege-Filterung und einen maschinellen Lernalgorithmus zur Extraktion von Webseiten und Filmplakaten verwendet. Und wir validieren unser personalisiertes Filmempfehlungssystem durch hybride 2-Wege-Filterung mit extrahierten Informationen in Online-Experimenten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-25957-2_37 11c67e15f242d8df71bac2d4c01d405e;de;;;7.3.;;;Aufbau eines personalisierten Netzwerk-Lernressourcen-Service-Systems basierend auf Semantic Web Services In diesem Artikel wird der derzeit beliebte Aufbau von E-Learning-Ressourcendienstsystemen erläutert, wobei die Mängel analysiert werden, wie z. Der Lernprozess unterstützt nicht den personalisierten Service. Wir verwenden Webservices, um das heterogene Problem zwischen Systemen zu lösen, passen die Lösung basierend auf semantischen Webservices an, um einen personalisierten Service zu bieten, ermöglichen den Lesern eine klare endgültige Lösung für den Aufbau des gesamten Systems aus drei Aspekten von Bedürfnissen, Prinzipien und Buildmethoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-3872-4_310 cdbaa5142ec4205522ae07c8aa624b62;de;;;7.3.;;;Messung des Verhaltens eines World-Wide-Web-Servers Die Serverleistung ist zu einem entscheidenden Thema für die Verbesserung der Gesamtleistung des World Wide Web geworden. Dieses Whitepaper beschreibt Webmonitor, ein Tool zum Bewerten und Verstehen der Serverleistung, und präsentiert neue Ergebnisse für eine realistische Arbeitsbelastung.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35279-4_4 cb70b5568304a14cc263e989675189c8;de;;;7.3.;;;Ein Web-3D-Dienst für Navigationsanwendungen Der Artikel konzentriert sich auf die aktuellen und kommenden Entwicklungen von Webdiensten, die 3D-Raumdaten für mehrere Client-Geräte bereitstellen. Das Fraunhofer-Institut für Graphische Datenverarbeitung ist aktiv an der Entwicklung eines Web3D-Dienstes beteiligt und hat Erweiterungen zu diesem Dienstangebot umgesetzt. Anhand dieser Erweiterungen beschreiben wir die Motivation, die Implementierung und den Einsatz in verschiedenen Bereichen, insbesondere bei Navigationssystemen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36998-1_2 53c80d3cd3e5a4ba1c957292d0e93afb;de;;;7.3.;;;Automatische Erweiterung chinesischer Abkürzungen durch Web Mining Abkürzungen sind im alltäglichen Chinesisch üblich. Bei Anwendungen wie der Informationsbeschaffung wollen wir die Abkürzungen nicht nur erkennen, sondern auch wissen, wofür sie stehen. Um die Entstehung aller Arten neuer Abkürzungen zu bekämpfen, schlägt dieser Beitrag eine neuartige Methode vor, die eine Abkürzung auf ihren vollen Namen erweitert, wobei das Web als Hauptinformationsquelle verwendet wird. Schnipsel, die vollständige Namen einer Abkürzung enthalten, werden über eine Suchmaschine durch gelernte „Hilfewörter“ abgerufen. Anschließend werden die Snippets mit linguistischen Heuristiken untersucht, um eine Kandidatenliste zu erstellen. Wir wählen den optimalen Kandidaten nach einem kNN-basierten Ranking-Mechanismus aus. Experimente zeigen, dass dieses Verfahren zufriedenstellende Ergebnisse erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05253-8_45 7380cf87f884c20415cbab62da3826dc;de;;;7.3.;;;Eine neuartige Methode zum Aufrufen von Webdiensten und RESTful-Webdiensten mit aspektorientierter Programmierung Der Bedarf an Anpassungsfähigkeit von Software wächst, teilweise getrieben durch das Aufkommen des autonomen Computings. In vielen Fällen ist es wünschenswert, bestehende Programme mit adaptivem Verhalten zu verbessern, damit sie in dynamischen Umgebungen effektiv ausgeführt werden können. Bestehende Webservice-Aufruf- und Anpassungsmechanismen sind hinsichtlich der Webservice-Auswahl nur auf den Umfang der Webservice-Choreographie beschränkt. Ein solcher Spielraum lässt kaum Raum für einen teilnehmenden Dienst in einem choreografierten Fluss, sich im Hinblick auf veränderte nicht-funktionale Erwartungen neu einzustellen. In diesem Papier haben wir die Aspektorientierte Programmierung (AOP) verwendet, um Web Services (WS) und Representational State Transfer (REST) ​​Web Services aufzurufen und um eine dynamische Anpassung in bestehenden Programmen zu ermöglichen. Wir schlagen einen Ansatz vor, um dynamische Anpassungsfähigkeit insbesondere beim Aspect Weaving zum Zeitpunkt des Aufrufs von Webservices und REST-Webservices zu implementieren. Wir haben AspectJ verwendet, eine Java-basierte Sprache, um Aspekte in einem von Eclipse unterstützten Framework zu erstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22543-7_68 103e38fe673d92ffb6358e133624a8f5;de;;;7.3.;;;Social CRM: Evolution und Bausteine Social CRM bedeutet den Einsatz von Social Media Technologien im Bereich Customer Relationship Management (CRM). Dieses einleitende Kapitel zeigt, wie sich das Social Web als dritte große technologische Innovation im Internet entwickelt hat. Es bietet einen Überblick über die wichtigsten Terminologien rund um Social Media und CRM sowie einen Rahmen zur Strukturierung des Bereichs Social CRM. Das Framework umfasst fünf Hauptelemente, anhand derer die Fallbeispiele in den Kap.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-23343-3_1 1c21da3eba6662eb01d9056635f1c014;de;;;7.3.;;;Eine Webdienst-Erkennungsmethode basierend auf Datensegmentierung und WordNet Die Web-Service-Infrastruktur ist eine wichtige Softwarekomponente im Internet. Ein kritischer Schritt in Webdienstanwendungen ist die Diensterkennungsmethode. Die strukturierten Informationen in der Webservices Description Language (WSDL) eines Webservices sind für die traditionelle Information Retrieval (IR) Methode ungeeignet. Wir schlagen eine Webservice-Erkennungsmethode vor, die auf dem Extrahieren von Informationen aus WSDL-Dokumenten basiert. Das Verfahren verwendet Datensegmentierung, um die Informationen zu einer sinnvollen Struktur zu analysieren, bei der die traditionellen IR-Techniken angewendet werden können. Darüber hinaus wurde WordNet bei dieser Methode ausgenutzt, um eine Synonymsuche durchzuführen. Die Experimente zeigen, dass unsere Methode eine signifikante Verbesserung der Leistung der Web Service Discovery darstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11104-9_92 2c250b12163d962255a8c37064e9098c;de;;;7.3.;;;Voraussetzungen, Auswirkungen und Chancen der internetverteilten Softwareentwicklung Das rasante Wachstum der Nutzerzahlen macht das Internet zu einer vielversprechenden Chance für die Business-to-Customer-Beziehungen. Die kommerzielle Nutzung des Internets wurde von Unternehmen im Zusammenhang mit der Informationstechnologie begonnen, die für ihre Produkte Werbung machten. Heutzutage werden sowohl Produkte als auch Dienstleistungen beworben. Bis heute sind eine Vielzahl von Unternehmen im Internet präsent. Entsprechende Beispiele für die Dienstleistungsbranche sind Reisebüros, Beratungsunternehmen, Versicherungen und Anwaltskanzleien. Über die Nutzung des Internets für den Verkauf von Produkten und Dienstleistungen hinaus gibt es eine Möglichkeit ganz anderer Art. Als Produktionsmittel betrachtet, könnte das Internet als verteilte Entwicklungsplattform für Softwareprodukte genutzt werden. Dieses Papier skizziert eine neue Form der Softwareentwicklung und konzentriert sich auf ihre wirtschaftlichen Auswirkungen. Darüber hinaus werden die Ergebnisse eines Internet-Fragebogens präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34979-4_26 1b33abda9e90abe684a558f754d5bb0b;de;;;7.3.;;;Täuschung: Werkzeug und Fluch für das Sicherheitsmanagement Mit der Verbreitung elektronischer Informationssysteme in den letzten zwei Jahrzehnten sind die Integrität der gespeicherten Daten und ihre Verwendung zu einem wesentlichen Bestandteil effektiver Organisationsfunktionen geworden. Dieses digitalisierte Format, das bei Eingabe, Ausgabe, Verarbeitung, Speicherung und Kommunikation verwendet wird, hat denjenigen, die täuschen wollen, neue Möglichkeiten eröffnet. Dieser Beitrag untersucht die Natur der Täuschung und ihr Potenzial als neues Sicherheitsrisiko im Informationszeitalter.;-;-;-;https://link.springer.com/chapter/10.1007/0-306-46998-7_23 4cb41de60b6ece5a0f4183710b01dc3e;de;;;7.3.;;;Implementierung von Adaptive Framework und WS Ontology zur Verbesserung der QoS bei der Empfehlung von WS Mit dem Aufkommen von immer mehr Benutzern, die zum Abrufen von Informationen auf das Internet zugreifen, konzentrieren sich die Forscher stärker auf die Erstellung eines Empfehlungssystems für Webdienste (WS), das die Komplexität des Auswahlprozesses minimiert und die Empfehlungsqualität optimiert. Dieses Papier implementiert einen Rahmen für die Empfehlung von personalisiertem WS in Verbindung mit der Qualitätsoptimierung unter Verwendung der in WS Ontology verfügbaren Qualitätsmerkmale. Es hilft Benutzern, die beste Empfehlung zu erhalten, indem es die Kontextinformationen und die Qualität von WS nutzt. Das adaptive Framework führt i) das Abrufen von Kontextinformationen durch, ii) die Berechnung der Ähnlichkeit zwischen Benutzerpräferenzen und WS-Merkmale, Ähnlichkeit zwischen bevorzugten WS mit anderen WS-Spezifikationen iii) Zusammenarbeit von Webdienstbewertungen, die vom aktuellen Benutzer und anderen Benutzern bereitgestellt werden. Schließlich werden WS-Qualitätsmerkmale für die Berechnung der Dienstgüte berücksichtigt. Die Empfehlungsquote zeigt die Auswahl sehr zuverlässiger Webdienste, da Glaubwürdigkeit für die QoS-Vorhersage verwendet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-47952-1_30 493ac2c30f402cda35466ec623cb4cad;de;;;7.3.;;;Selbstüberwachte automatisierte Wrapper-Generierung für die Extraktion von Weblog-Daten Die Datenextraktion aus dem Web ist bekanntermaßen schwierig. Von den Arten von Ressourcen, die im Web verfügbar sind, gewinnen Weblogs aufgrund des anhaltenden Wachstums der Blogosphäre immer mehr an Bedeutung, werden jedoch noch wenig erforscht. Frühere Ansätze zur Datenextraktion aus Weblogs beinhalteten oft manuelle Eingriffe und leiden unter geringer Skalierbarkeit. Dieses Papier schlägt eine vollautomatische Methode zur Informationsextraktion vor, die auf der Verwendung von Webfeeds und der Verarbeitung von HTML basiert. Der Ansatz umfasst ein Modell zum Generieren eines Wrappers, der Web-Feeds nutzt, um automatisch einen Satz von Extraktionsregeln abzuleiten. Anstatt einen paarweisen Vergleich zwischen Posts durchzuführen, gleicht das Modell die Werte der Web-Feeds mit ihren entsprechenden HTML-Elementen ab, die aus mehreren Weblog-Posts abgerufen wurden. Es verfolgt einen probabilistischen Ansatz, um einen Satz von Regeln abzuleiten und den Prozess der Wrapper-Erzeugung zu automatisieren. Eine Bewertung des Modells wird an einem Datensatz von 2.393 Posts durchgeführt und die Ergebnisse (92% Genauigkeit) zeigen, dass die vorgeschlagene Technik eine robuste Extraktion von Weblog-Eigenschaften ermöglicht und in der gesamten Blogosphäre für Anwendungen wie verbesserte Informationsabfrage und robusteres Web angewendet werden kann Initiativen zur Erhaltung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39467-6_26 026a1df07ab543733d0d2e1e99820707;de;;;7.3.;;;Ein Tool für das Mining der Web-Nutzung In diesem Whitepaper wird ein Tool für das Mining der Webnutzung vorgestellt. Das Ziel besteht darin, ein Werkzeug bereitzustellen, das den Mining-Prozess erleichtert, anstatt ausgefeilte Algorithmen und Techniken zu implementieren. Das Tool deckt verschiedene Phasen der CRISP-DM-Methodik wie Datenaufbereitung, Datenauswahl, Modellierung und Auswertung ab. Die in der Modellierungsphase verwendeten Algorithmen sind die im Weka-Projekt implementierten. Das Tool wurde auf einer Website getestet, um Zugriffs- und Navigationsmuster zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77226-2_70 00b8f8901289dc761ee57e94aae67ab2;de;;;7.3.;;;Site-Wide Wrapper Induction für Life Science Deep Web Databases Wir präsentieren einen neuartigen Ansatz zur automatischen Informationsextraktion aus Deep Web Life Science-Datenbanken mittels Wrapper-Induktion. Traditionelle Wrapper-Einführungstechniken konzentrieren sich auf das Erlernen von Wrappern basierend auf Beispielen aus einer Klasse von Webseiten, d. h. von Webseiten, die alle in Struktur und Inhalt ähnlich sind. Dabei zielt die traditionelle Wrapper-Induktion auf das Verständnis von Webseiten ab, die aus einer Datenbank unter Verwendung derselben Generierungsschablone wie im Beispielsatz erzeugt wurden. Allerdings enthalten Life Science-Websites in der Regel strukturell unterschiedliche Webseiten aus mehreren Klassen, was das Problem noch schwieriger macht. Darüber hinaus haben wir beobachtet, dass solche Life-Science-Websites nicht nur reine Daten, sondern auch Schemainformationen in Form von Datenlabels liefern – was weitere Hinweise für die Lösung der Website-Wrap-Aufgabe gibt. Unsere Lösung für diese neuartige Herausforderung der Site-Wide Wrapper-Induktion besteht aus einer Reihe von Schritten: 1. Klassifizierung ähnlicher Webseiten in Klassen, 2. Entdeckung dieser Klassen und 3. Wrapper-Induktion für jede Klasse. Unser Ansatz ermöglicht es uns daher, einen unbeaufsichtigten Informationsabruf über eine gesamte Website hinweg durchzuführen. Wir testen unseren Algorithmus mit drei realen biochemischen Deep-Web-Quellen und berichten über unsere vorläufigen Ergebnisse, die sehr vielversprechend sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02879-3_9 695202e5e87e79a89cfa8c3f4a576380;de;;;7.3.;;;Die Überzeugungswirkung von Web 2.0-Marketing: Eine Fallstudie zur Untersuchung der Überzeugungswirkung eines Online-Designwettbewerbs Diese Fallstudie untersucht die Wirkung einer Web 2.0-Kampagne, einem Online-Designwettbewerb, der von einem Unternehmen durchgeführt wurde, das Damenpflegeprodukte (Damentücher) herstellt und vermarktet. Das Zielsegment der Kampagne waren Mädchen in vier nordischen Ländern im Alter zwischen 14 und 25 Jahren. Das Hauptmerkmal des Zielsegments ist, dass sie sich nicht besonders für die Produktkategorie interessieren. Unsere Interpretation ist, dass der Online-Design-Wettbewerb im Zielsegment überzeugt hat. Durch die interaktive und soziale Nutzung des Internets können Unternehmen in Segmenten mit geringer Beteiligung eine Markenbekanntheit erreichen und eine positive Einstellung zu einer Marke schaffen. Es werden Anregungen für weitere Recherchen gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02559-4_2 43e2a53b67abe3b47367849145b2bd56;de;;;7.3.;;;Erweitertes Fernsehen und interaktive Dienste Interaktives Fernsehen (ITV) ist eine neue und wichtige Entwicklung in der neuen Medienlandschaft mit neuen Diensten, die in vielen Ländern eingeführt werden. Um diese Technologie zu verstehen, ist es daher nützlich, ihre jüngste Entwicklung zu überprüfen. Diese Arbeit basiert auf dem Stand der Technik im interaktiven Fernsehen. Der Stand der Technik dient als Diskussionsgrundlage für die zukünftige Entwicklung des Enhanced Television. Wir beginnen mit der Erweiterung aktueller Anwendungen und stellen dann Fragen vor, die für die Gestaltung von interaktivem Fernsehen von grundlegender Bedeutung sein könnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35511-5_2 be6619b3641c39332648b5931c38b180;de;;;7.3.;;;Facettierte visuelle Exploration semantischer Daten Werkzeuge zum Suchen und interaktiven Erkunden der schnell wachsenden Menge an semantisch annotierten Daten im Web sind noch rar und unterstützen die vielfältigen Ziele und Aktivitäten der Nutzer nur begrenzt. In diesem Papier beschreiben wir eine Methode und ein Werkzeug, das es Menschen ermöglicht, effektiver auf Semantic Web-Daten zuzugreifen und sie zu erkunden, indem die spezifischen Eigenschaften semantischer Daten genutzt werden. Der Ansatz nutzt das Konzept der Facettensuche und kombiniert es mit einer Visualisierung, die die graphenbasierte Struktur verknüpfter semantischer Daten nutzt. Die Facetten werden als Knoten in einer Graphenvisualisierung dargestellt und können von den Benutzern interaktiv hinzugefügt und entfernt werden, um individuelle Suchoberflächen zu erzeugen. Dies bietet die Möglichkeit, Schnittstellen mit unterschiedlichen Komplexitätsgraden zu generieren, die beliebige Domänen durchsuchen können, die über die SPARQL-Abfragesprache zugänglich sind. Sogar mehrere und weit entfernt zusammenhängende Facetten können in den Graphen integriert werden, was den Zugriff auf Informationen aus verschiedenen benutzerdefinierten Perspektiven erleichtert. Dieser Ansatz ermöglicht es, riesige Datenmengen mit komplexen semantischen Beziehungen zu durchsuchen, hochkomplexe Suchanfragen zu erstellen und Benutzer zu unterstützen, die mit dem Semantic Web nicht vertraut sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19641-6_5 e75f15b2267c69ef5771731b6c7a0646;de;;;7.3.;;;Ein spieltheoretischer Belohnungs- und Bestrafungsmechanismus für unerwünschten Verkehrskontrollmechanismus Mit der Entwicklung des Internets der Dinge und der allgegenwärtigen Nutzung von Internet Service Providern (ISPs) haben Internetnutzer und Daten ein noch nie dagewesenes Volumen erreicht. Die Existenz böswilliger Benutzer untergräbt jedoch ernsthaft die Privatsphäre der Benutzer und die Netzwerksicherheit, indem sie eine große Menge unerwünschten Datenverkehrs wie Spam, Pop-up und Malware verteilen. Dies kann zum Teil mit der Mitwirkung einzelner Benutzer durch die Installation von Antiviren-Toolkits festgestellt werden. Benutzer müssen diese Software jedoch gegen Aufpreis erwerben. Wenn keine integrierten Anreizmechanismen vorhanden sind, werden sich rationale Benutzer daher dafür entscheiden, keine Virensoftware zu installieren. Wenn sich genügend Netzwerkeinheiten auf diese Weise verhalten, wird das Netzwerk mit unerwünschtem Verkehr überflutet. In diesem Beitrag schlagen wir einen evolutionären spieltheoretischen Anreizmechanismus vor, um die Kooperation einzelner Nutzer zu fördern, um die Ausbreitung von unerwünschtem Datenverkehr einzudämmen. Wir schlagen einen kombinierten Belohnungs- und Bestrafungsmechanismus vor, um kooperatives Verhalten weiter zu fördern. In der Zwischenzeit wird die Akzeptanzbedingung unseres Frameworks analysiert und wir führen eine Reihe von Simulationen durch, um die Akzeptanzbedingungen unseres Frameworks zu bewerten. Die experimentellen Ergebnisse zeigen, dass unser Belohnungs- und Bestrafungsmechanismus Benutzer effizient dazu anregen kann, kooperatives Verhalten anzunehmen und unerwünschten Verkehr zu reduzieren.;-;-;-;https://link.springer.com/article/10.1007/s11036-018-1166-0 f86977227b078bbe2d8d2dddfe6369fd;de;;;7.3.;;;Ein webbasierter Service zur Verbesserung der Konformität bei der medikamentösen Behandlung und der Arzt-Patienten-Beziehung Bei dem vorgeschlagenen Service handelt es sich um ein gesundheitsbezogenes Webportal, das einem zweifachen Zweck dient: Erinnern des Patienten an wichtige Aufgaben im Zusammenhang mit einer Langzeitbehandlung, wie Medikamenteneinnahme, klinische Begegnungen, Nachsorgemaßnahmen etc. sowie Straffung des Patienten -Arztbeziehung durch bidirektionale Kommunikation. Der Arzt ist in der Lage, patientenbezogene Informationen über eine benutzerfreundliche webbasierte Oberfläche zu registrieren und zu überprüfen, Medikationsbehandlungspläne, Untersuchungspläne usw. zuzuweisen. Der Patient erhält Benachrichtigungen über den Behandlungsplan auf verschiedene Weise, einschließlich Short Message Service (SMS) und E-Mail. Der gemeinsame webbasierte Raum zwischen Patient und Arzt ermöglicht den bidirektionalen Austausch von Beobachtungen oder Kommentaren zur Behandlung, die Veröffentlichung zusätzlicher Leitlinien zur Verbesserung des Behandlungsergebnisses, die Meldung von Nebenwirkungen usw. Die Implementierung des Dienstes basiert auf MS SQL Server Wir glauben, dass die Notification Services-Technologie das Potenzial hat, die Einhaltung der Medikationspläne zu verbessern, insbesondere im Falle einer Langzeittherapie.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-74161-1_17 7c163ada870770b52dcbdb8bc0e0e4c0;de;;;7.3.;;;Eine formale Ontologie-Erkennung aus Webdokumenten Dieses Papier definiert einen Rahmen formaler Ontologie, der mit der Domänenspezifität von Webdokumenten und natürlichen Sprachstrukturen kompatibel ist. Darüber hinaus untersucht dieser Artikel, wie Informationen über die formale Ontologie der in Webdokumenten geschriebenen Domäne auf der Grundlage von Logik, Webtechnologie wie XML und Verarbeitung natürlicher Sprache extrahiert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45490-X_66 24735d90f0f27bd1562a308d22ad8fac;de;;;7.3.;;;Gewöhnliche Innovation mobiler Dienste Das anabole Wachstum von dot.com – mit Auktionen von Netzwerklizenzen der dritten Generation als krönenden Abschluss – implizierte eine Reihe großer Investitionen in Mobilfunktechnologie. Ohne neue Produkte und Dienstleistungen, die diese Infrastruktur nutzen (M-Services), werden sich diese Investitionen jedoch möglicherweise nie amortisieren, und heute gibt es keine sichere Nachfrage nach diesen neuen nomadischen Anwendungen im Markt. Dieses Papier zeigt, wie Akteure im Wertschöpfungsnetzwerk m-services ihre Bemühungen koordinieren, solche Anwendungen auf den Markt zu bringen. Es zeigt ihre risikoaversen und lokal optimierenden Strategien, die sich theoretisch stark von der aktuellen Faszination für Informationssysteme mit disruptiven Innovationen unterscheiden. Dieses Papier veranschaulicht die Notwendigkeit einer Theorie der gewöhnlichen Innovation im nomadischen und ubiquitären Computer.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-28918-6_23 32a7d7775e8f90256a72594e0843fea0;de;;;7.3.;;;Elektronische B2B-Märkte als E-Business-Modell. Empirische Studie im spanischen Bausektor In dieser Arbeit analysieren wir die Entwicklung von elektronischen Märkten oder virtuellen vertikalen Märkten im Internet (VVMs) und ob diese Märkte zu Katalysatoren für vernetzte interorganisationale Beziehungen werden. Diese VVMs ermöglichen die Zusammenarbeit in E-Commerce-Plattformen, den virtuellen B2B-Plattformen. Wir untersuchen die durch B2B-VVMs hervorgerufenen interorganisationalen Beziehungen und wenden diese Studie auf einen bestimmten Tätigkeitsbereich in Spanien an: den Bausektor. Wir beabsichtigen, die VVM-Plattformen zu definieren, zu analysieren, zu beschreiben und zu erklären, wobei wir die strategische und organisatorische Rolle jedes der wichtigsten teilnehmenden Akteure betonen, mit dem Ziel, mehr über die Quellen von Wettbewerbsvorteilen im Online-Bereich zu erfahren Märkte im Vergleich zu Offline-Märkten. Wir analysieren die Besonderheiten der Bauwirtschaft, indem wir die Ergebnisse der empirischen Studie betrachten. Abschließend diskutieren wir die Ergebnisse und schließen mit ihren Implikationen für die Theorie und für diese Forschungsrichtung.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35617-4_43 a64741244e94009d35acc0ebb359b30e;de;;;7.3.;;;"Identifizierung der wichtigsten Daten für implizite zeitkritische Abfragen Trotz einer deutlichen Verbesserung der zeitlichen Anwendungen von Search und Retrieval sind sich heutige Suchmaschinen der zeitlichen Dimension meist nicht bewusst. Tatsächlich beschränken sich Systeme in den meisten Fällen darauf, dem Benutzer die Möglichkeit zu bieten, die Suche auf einen bestimmten Zeitraum zu beschränken oder sich einfach auf einen explizit angegebenen Zeitraum zu verlassen. Wenn der Nutzer in seinen Suchabsichten nicht explizit ist (z. B. """;-;-;-;https://link.springer.com/article/10.1007/s10791-017-9302-1 b9ef3eb9b3fa034eb00162574e2fbf91;de;;;7.3.;;;Modellierung dynamischer Webinhalte Websites werden immer komplexer und bieten eine Vielzahl von Diensten und Inhalten. Die Verbreitung dynamischer Webinhalte eröffnet neue Herausforderungen hinsichtlich Leistung und Skalierbarkeit. Dieses Papier befasst sich mit der Charakterisierung dynamischer Webinhalte durch Untersuchung ihres Aktualisierungsprozesses. Wir identifizieren Parameter und Metriken, die die Eigenschaften von Webseiten beschreiben und leiten ein analytisches Modell ab, das ihr Verhalten erfasst. Das Modell wird dann gegen Simulationsexperimente validiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30182-0_65 65234f1a5415e7b5906ca8e250ad43c7;de;;;7.3.;;;Ein Toolkit zur Entwicklung von Programmen für Kartenspiele, die im Internet gespielt werden Wir schlagen einige Allzweckprotokolle vor, die zum Spielen von Kartenspielen im Internet notwendig sind. Die Protokolle regeln den Ausdruck von Karten, die Kommunikation zwischen Spielern, Servern und anderen Komponenten innerhalb eines im Internet gespielten Kartenspiels. Basierend auf den Protokollen haben wir ein Toolkit für die Programmierung von Kartenspielen im Internet entworfen und implementiert. Mit unserem Toolkit können Menschen ohne große Programmierkenntnisse oder Expertenwissen in der Informatik verschiedene Kartenspielprogramme einfach implementieren. Wir zeigen einige Beispiele für die Entwicklung von Kartenspielprogrammen mit unserem Toolkit.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35660-0_7 ed2382320138df38afe52a9f6e7d0134;de;;;7.3.;;;Eine neuartige WebGIS-basierte Situational Awareness-Plattform für vertrauenswürdige Big-Data-Integration und -Analyse im Mobilitätskontext Die Verfügbarkeit großer Mengen dynamischer Daten aus mehreren Quellen im Mobilitätskontext und deren Echtzeitintegration kann ein Bild für das Notfallmanagement in städtischen und außerstädtischen Gebieten liefern. Ein WebGIS-Portal kann die Wahrnehmung aller Elemente in der aktuellen Situation unterstützen. Im Allgemeinen reicht die Aufmerksamkeitskapazität des Entscheidungsträgers während der Beobachtung jedoch nicht aus, um Bedenken aufgrund einer Informationsüberflutung zu lösen. Ein Lagebild ist notwendig, um über die einfache Wahrnehmung der Elemente in der Umgebung hinauszugehen, das Gesamtverständnis der aktuellen Situation zu unterstützen und Vorhersagen und Entscheidungshilfen zu geben. In diesem Beitrag präsentieren wir;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-69459-7_6 254a36b0a4695fe8222cee12f96bf5fd;de;;;7.3.;;;Sprungbrett für eine Informationsgesellschaft Die Informationsrevolution verändert radikal viele Muster, nach denen Gesellschaft und Unternehmen traditionell gearbeitet haben. Diese Veränderungen bringen nicht nur geringfügige technologische Verbesserungen, sondern eine grundlegende Transformation der Industriegesellschaft in eine Informationsgesellschaft. Die Veränderungen sind in der Geschäftswelt am sichtbarsten und dokumentiert, aber die Synergie zwischen technologischen und sozialen Veränderungen hört hier nicht auf. In diesem Papier versuchen wir, die wichtigsten Trends und Herausforderungen zu identifizieren und zusammenzufassen, die uns diese Entwicklung stellt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-63774-5_115 a397864e80ea1279f20cadf3c7526472;de;;;7.3.;;;B2B-Anwendungen, BPEL4WS, Web Services und .NET im Kontext von MDA Kürzlich wurde eine modellgetriebene Architektur (MDA) vorgeschlagen, um die Entwicklung großer Softwaresysteme wie B2B-Anwendungen im Internet zu berücksichtigen. Bevor dies jedoch Realität wird, müssen einige Probleme gelöst werden, wie beispielsweise die Definition verschiedener domänenspezifischer Sprachen (DSL) und auch die automatische Transformation zwischen diesen Domänensprachen, die geschäftliche Anliegen darstellen, und solchen, die eine Plattformlauffähigkeit bieten. In diesem Whitepaper geben wir einige Einblicke in die Transformation zwischen einigen spezifischen DSLs, die besonders relevant für Business-to-Business (B2B)-Anwendungen sind.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-29766-9_19 7260587679a29b6f6d9ca34172c66252;de;;;7.3.;;;Fernstudienansätze in der Lehrerbildung 42 Lehramtsstudenten nahmen an einem 60-stündigen, einjährigen Lehramtslehrgang teil, der zwei verschiedene Fernunterrichtsansätze nutzte. Die Studierenden arbeiteten im ersten Semester mit synchronen Picture-Tel®-Videokonferenzen und im zweiten Semester mit einem asynchronen internetbasierten Kurs. Ihre vergleichende Zufriedenheit mit jedem Bereitstellungssystem und ihr vergleichbares Maß an Kontrolle des Lernprozesses wurden untersucht. Die Ergebnisse zeigen, dass der interaktive und asynchrone Internet-Fernlernansatz zu einer signifikant höheren Zufriedenheit und einer höheren Kontrolle des Lernprozesses beiträgt als das interaktive synchrone System. Es wird empfohlen, bei der Einführung des Fernunterrichts auf Hochschulebene für Lehramtsstudierende eine interaktive Internetmethode anstelle eines Picture-Tel®-Systems zu installieren, um die Schülerzufriedenheit bestmöglich zu fördern, da sowie die Kontrolle der Lernsituation durch die Schüler.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-23572-8_31 bc9a9b21239b9b40b9ce9a580a75f622;de;;;7.3.;;;GRISINO – Eine integrierte Infrastruktur für semantische Webdienste, Grid Computing und intelligente Objekte Object Bestehende Informations-, Wissens- und Inhaltsinfrastrukturen stehen derzeit vor anspruchsvollen Problemen hinsichtlich Skalierbarkeit, Verwaltung und Integration verschiedener Inhalte und Dienste. Die neuesten Technologietrends, einschließlich SemanticWeb Services, Grid Computing und Intelligent Content Objects, bieten die technologischen Mittel, um Teile der zuvor genannten Probleme anzugehen. Eine Kombination der drei Technologien könnte eine solide technologische Grundlage für den Aufbau skalierbarer Infrastrukturen bieten, die eine hochautomatisierte Unterstützung bei der Erfüllung der Benutzerziele bieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02184-8_8 24e389d9bca1a12e546c757feb313615;de;;;7.3.;;;Verbesserung der multimodalen Barrierefreiheit im Web für Gehörlose: Modul Gebärdensprachdolmetscher Das World Wide Web wird für alle Menschen unabhängig von Alter, Geschlecht, Kultur, Gesundheit und individuellen Behinderungen immer wichtiger. Leider gibt es offenbar immer noch Probleme für einige gehörlose und schwerhörige Menschen, die versuchen, bestimmte Webseiten zu nutzen. Diese Menschen benötigen die Übersetzung vorhandener schriftlicher Informationen in ihre Muttersprache, die eine von vielen Gebärdensprachen sein kann. Bei früheren technologischen Lösungen dominiert das Videofenster den Bildschirm, stört die Präsentation und lenkt dadurch die breite Öffentlichkeit ab, die keine zweisprachige Website benötigt. Eine Lösung für dieses Problem ist die Entwicklung von transparenten Gebärdensprachvideos, die auf Wunsch auf dem Bildschirm erscheinen. Daher haben wir ein System konzipiert und entwickelt, das die Einbettung selektiver interaktiver Elemente in den Originaltext an geeigneten Stellen ermöglicht, die als Auslöser für die Videoübersetzung in die Gebärdensprache dienen. Wenn der kurze Videoclip endet, wird das Videofenster automatisch geschlossen und die ursprüngliche Webseite wird angezeigt. Auf diese Weise vereinfacht das System die Erweiterung und Verfügbarkeit zusätzlicher Barrierefreiheitsfunktionen für Webentwickler erheblich, da es die ursprüngliche Webseite mit einer zusätzlichen Webschicht von Gebärdensprachvideos beibehält. Quantitative und qualitative Auswertungen haben gezeigt, dass Informationen, die durch ein transparentes Gebärdensprachvideo präsentiert werden, das Interesse der Benutzer am Inhalt des Materials durch die Interpretation von Begriffen, Phrasen oder Sätzen steigern und somit das Verständnis des Materials erleichtern und seinen Nutzen für Gehörlose erhöhen.;-;-;-;https://link.springer.com/article/10.1007/s11042-010-0529-8 b2c0f5804212887a6bdeb197da52fa9b;de;;;7.3.;;;Forschung zu 3G-Technologie-basierter Integration und Service von landwirtschaftlichen Informationsressourcen Mit der dringenden Nachfrage nach landwirtschaftlichen Informationen für Landwirte und der schnellen Entwicklung der Telekommunikationsindustrie in China werden die Bequemlichkeit, Schnelligkeit und Gültigkeit von landwirtschaftlichen Informationsdiensten immer wichtiger. Das Problem der digitalen Kluft zwischen ländlichen und städtischen Gebieten ergibt sich nun aus dem Mangel an effektiven Mitteln zur Informationsübertragung. Aber die landwirtschaftlichen Informationsdienste, die durch Netzwerkbandbreite und Geographie begrenzt sind, werden mit der Mobilfunknetzabdeckung auf ländliche Gebiete, insbesondere das TD-SCDMA-Netz, auf ländliche Gebiete in China vollständig umgestellt. Der Beitrag wird die Entwicklung des auf 3G-Technologien basierenden Effekts auf die landwirtschaftliche Informationisierung einführen und die Probleme der Integration von landwirtschaftlichen Informationsressourcen und des Dienstes, der an 3G-Technologien angepasst ist, im Detail diskutieren, auf deren Grundlage eine auf 3G-Technologien basierende landwirtschaftliche Informationsressourcen-Anwendung mobiler Dienst Hierarchie (3GAIMSH) bereitgestellt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12220-0_18 97c212f2a614ec3f17e5dcbfed3729e7;de;;;7.3.;;;Über den Einsatz kollaborativer Filtertechniken zur Vorhersage des Rangs von Websuchergebnissen In diesem Artikel beschreiben wir ein Experiment, das kollaborative Filtertechniken auf eine Websuchaufgabe anwendet, nämlich die Vorhersage des Rangs relevanter Ergebnisse für eine bestimmte Abfrage. Wir vergleichen die Leistung von zwei verschiedenen kollaborativen Filteralgorithmen und argumentieren, dass diese Ansätze das Potenzial haben, genaue Vorhersagen zu generieren, die wiederum dazu beitragen können, bestehende Websuchtechniken zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27780-4_55 e0555fccb04f344a796118d57b089cb4;de;;;7.3.;;;Effiziente Semantic Service Discovery in Pervasive Computing-Umgebungen Serviceorientierte Architekturen und insbesondere Webservices werden zu einem unumstößlichen Paradigma für die Entwicklung von Anwendungen in Pervasive Computing-Umgebungen, da sie die Veröffentlichung und Nutzung heterogener vernetzter Software- und Hardwareressourcen ermöglichen. In Kombination mit Semantic-Web-Technologien, insbesondere Ontologien, können die Beschreibungen von Web-Services in offenen Pervasive-Computing-Umgebungen eindeutig und automatisch interpretiert werden, in denen eine Einigung auf einen einzigen gemeinsamen syntaktischen Standard zur Identifizierung von Service-Semantik nicht angenommen werden kann. Dennoch bleibt die effiziente Abstimmung semantischer Webdienste zur effektiven Automatisierung der Erkennung und des weiteren Verbrauchs vernetzter Ressourcen ein offenes Thema, das hauptsächlich auf die kostspielige zugrunde liegende semantische Argumentation zurückzuführen ist. Nach der Analyse der Kosten des ontologiebasierten semantischen Denkens, das das Herzstück des Matching-Prozesses ist, schlagen wir eine Lösung für ein effizientes Matching von semantischen Webdiensten vor. Wir haben unsere Lösung außerdem in ein Service Discovery-Protokoll integriert, das auf offene Pervasive Computing-Umgebungen abzielt, die heterogene drahtlose Netzwerktechnologien (d. h. Ad-hoc- und infrastrukturbasierte Netzwerke) integrieren. Experimentelle Ergebnisse zeigen, dass unsere Lösung bessere Antwortzeiten ermöglicht als klassische syntaktisch-basierte Service-Discovery-Protokolle.;-;-;-;https://link.springer.com/chapter/10.1007/11925071_13 3c04e694e46a7c3d3ba44c9107a4436e;de;;;7.3.;;;Internet of Things-getriebenes vernetztes Gesundheitswesen Das Internet der Dinge (IoT) ist ein physisches Gerät zusammen mit anderen Gegenständen, die mit Software, Elektronik, Netzwerkkonnektivität und Sensoren ausgestattet sind, um Objekte zu sammeln, um Daten auszutauschen. Die Auswirkungen des IoT im Gesundheitswesen befinden sich noch in den Anfangsphasen. Das IoT-System hat mehrere Ebenen, die zu Implementierungsproblemen führen, bei denen viele beteiligte Geräte über Sensoren zum Sammeln von Daten verfügen. Jeder hat seine eigenen exklusiven Protokolle des Herstellers. Diese Protokolle, die eine Softwareumgebung verwenden, die mit Datenschutz und Sicherheit verbunden ist, stellen die IoT-Technologie vor neue Herausforderungen. Dieses aktuelle Kapitel versucht, das IoT-Konzept und die Gesundheitsanwendungen zu verstehen und zu überprüfen, um eine überlegene Gesundheitsversorgung zu erschwinglichen Kosten zu realisieren. Das Kapitel umfasste kurz die IoT-Funktionalität und ihre Verbindung mit den Sensor- und Drahtlostechniken zur Implementierung der erforderlichen Gesundheitsanwendungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49736-5_1 8529bf38e344fd9b5bb6751e088fa2b0;de;;;7.3.;;;Anwendung evolutionärer Strategien für die Kategorisierung und das Abrufen von 3D-Grafikmodellen Während in der Multimedia-Informationsverarbeitung der bisherige Fokus auf der Bild-/Videosuche lag, gewinnt die inhaltsbasierte Kategorisierung und das Abrufen von 3D-Computergrafikmodellen zunehmend an Bedeutung. Dies liegt an der zunehmenden Akzeptanz von 3D-Grafikdarstellungen in Multimediaanwendungen und dem daraus resultierenden Bedarf an einer schnellen virtuellen Szenenzusammenstellung aus einem Repository von 3D-Modellen. Motiviert durch diese Anforderungen liegt der Schwerpunkt dieser Arbeit auf der inhaltsbasierten Klassifikation und dem Retrieval von 3D-Computergrafikmodellen basierend auf einer Histogramm-Feature-Repräsentation und der Suche nach einer adaptiven Transformation dieser Repräsentation, sodass die resultierenden Klassifikations- und Retrievalgenauigkeiten optimiert sind. Unter der Beobachtung, dass ein Histogramm im Wesentlichen eine Annäherung an die Wahrscheinlichkeitsdichtefunktion einer zugrunde liegenden Zufallsvariablen ist und dass eine geeignete Transformation, wenn sie auf die Zufallsvariable angewendet wird, es dem Klassifikator ermöglicht, basierend auf dieser neuen Darstellung eine bessere Genauigkeit zu erreichen, schlagen wir ein evolutionäres Optimierungsansatz für die Suche nach diesem Satz optimaler Transformationen aufgrund der großen Größe des Suchraums. Insbesondere betrachten wir die spezielle Klasse von Transformationen, die die Form einer stückweise stetigen Abbildung annehmen. In diesem Fall ist die transformierte Variable eine gemischte Zufallsvariable mit diskreten und kontinuierlichen Komponenten, was zusätzliche Flexibilität für die Modellierung einer Reihe unterschiedlicherer Zufallsvariablentypen bietet. Mit einer geeignet definierten Fitnessfunktion für evolutionäre Strategien (ES), die die Fähigkeit der transformierten Histogrammdarstellung misst, die korrekte Klassenstruktur zu induzieren, ist unser vorgeschlagener Ansatz in der Lage, die Klassifikationsleistung des Kopfmodells zu verbessern, was wiederum im Fall von inhaltsbasierter Abruf, die richtige Vorabzuordnung eines Abfrageobjekts zu seiner richtigen Klasse für eine effizientere Suche, auch in Fällen, in denen die Abfrage mehrdeutig und schwer zu charakterisieren ist.;-;-;-;https://link.springer.com/article/10.1007/s00530-005-0171-x 28bbe5487a474932856d3ace8a95b622;de;;;7.3.;;;Gemeinsames Themengruppen-Mining für die Webdienst-Erkennung In den letzten Jahren wurden immer mehr Dienste im Internet veröffentlicht. Das Auffinden geeigneter Dienste anhand von Benutzeranfragen bleibt ein herausforderndes Thema im Bereich des Dienstes. Viele frühere Studien wurden in diese Richtung berichtet. In diesem Papier schlagen wir einen neuartigen Service-Discovery-Ansatz vor, indem wir allgemeine Themengruppen durchsuchen und abgleichen. In unserem Ansatz analysieren wir die gemeinsamen Themengruppen basierend auf der Service-Themen-Verteilungsmatrix, die durch die Themenmodellierung generiert wurde, und die extrahierten gemeinsamen Themengruppen können dann genutzt werden, um Benutzeranfragen mit relevanten Services abzugleichen, um einen besseren Kompromiss zu erzielen zwischen der Anzahl der verfügbaren Dienste und der Genauigkeit der Diensterkennung. Die Ergebnisse von Experimenten, die mit einem öffentlich zugänglichen Datensatz durchgeführt wurden, zeigen, dass unser Ansatz im Vergleich zu anderen weit verbreiteten Methoden die Leistung der Diensterkennung verbessern kann, indem die Anzahl der Dienstkandidaten verringert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-26979-5_7 a5758a852619bb4b51692b63c2cbe3d2;de;;;7.3.;;;Die Studie zur Transformation und Innovation des Bibliotheksdienstes basierend auf dem Web 2.0 Das Aufkommen der Web2.0-Ära zeigt uns deutlich die Ankunft eines revolutionären Wandelzeitalters. Sie hat nicht nur große Auswirkungen auf den gegenwärtigen Bibliotheksdienst, sondern bringt der Bibliothek auch neue Möglichkeiten und beispiellose Herausforderungen. Aber eines ist sicher, dass das ultimative Ziel des umfassenden Einsatzes moderner Technologie in Bibliotheken darin besteht, den Benutzern einen besseren und hervorragenden Service zu bieten. Der Service-Grundsatz „Menschen orientiert, Kunde zuerst, um dem Benutzer von ganzem Herzen zu dienen und den Benutzern zufriedenen Service zu bieten“ ändert sich nie. Das Streben nach Servicequalität ist immer das ewige Thema der Bibliothek.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03718-4_100 6c3945d0c5fe0e5bb537dfdf36a1e182;de;;;7.3.;;;Corporate Semantic Web: Auf dem Weg zum Einsatz semantischer Technologien in Unternehmen Die Menge an Informationen, die Unternehmen produzieren, erwerben, pflegen, verbreiten und nutzen müssen, hat in den letzten Jahrzehnten dramatisch zugenommen. Unternehmen suchen heute nach leistungsfähigeren Ansätzen zur Gewinnung, Verwaltung und Nutzung von Wissen, und das Semantic Web bietet vielversprechende Lösungen. Während das globale Semantic Web derzeit noch eine unerfüllte Vision ist, zielt die Idee des Corporate Semantic Web darauf ab, semantische Technologien in Unternehmen zu bringen. Die erwarteten Ergebnisse sind ein Wettbewerbsvorteil für Unternehmen, die semantische Technologien verwenden, und ein Schub für die Entwicklung des globalen Semantic Web.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-7335-1_5 c97af8591365f920644dfefade82fb61;de;;;7.3.;;;Kontextsensitives System mit .NET-Ansatz In kontextsensitiven Systemen werden Komponenten als Reaktion auf alle möglichen Änderungen in der Ausführungsumgebung dynamisch angepasst, ohne dass das System neu gestartet werden muss. Bestehende Ansätze, ein solches System leistungsfähiger und sicherer zu machen, sind sowohl spröde als auch zeitintensiv. Für die dynamische Anpassung wurde ein Ansatz entwickelt, um den Komponentenintegrationsprozess zur Laufzeit zu automatisieren, indem auf die äquivalente Komponente aus einem Satz diversifizierter Komponenten zugegriffen wird. Die .NET-Technologie ermöglicht es Entwicklern, Laufzeitkomponenten anzupassen, indem sie Assertionen für die Dienste der Komponente angeben, und ermöglicht auch den Vergleich dieser Assertionen. Diese Assertionen helfen uns, Metadaten für jede Komponente im Repository zu berechnen. Diese metadatengesteuerte Komponentenauswahl ist ein effizienter und vielversprechender Mechanismus. In diesem Papier beschreiben wir den Mechanismus für die Komponentenanpassung unter Verwendung des .NET-Ansatzes, indem wir ein System im dynamischen Kontext mit Proxy-Switcher- und Netzwerk-Switcher-Komponenten betrachten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12214-9_89 786f170eb2315f6b88946ecda66c2f0a;de;;;7.3.;;;Die Bühne vorbereiten Das World Wide Web ist ein Kommunikationsnetzwerk, das Verbindungen zwischen Einzelpersonen, Unternehmen und Regierungsbehörden herstellt. Um schriftliche Informationen auszutauschen, müssen sich die kommunizierenden Parteien über die Darstellung von Dokumenten einigen. Dies wird durch ein gemeinsames Verständnis von Markup erreicht. XML, die erweiterbare Auszeichnungssprache, bietet Mechanismen zur Beschreibung von Dokumentstrukturen und wird immer häufiger verwendet, nicht nur für die Darstellung herkömmlicher Dokumente, sondern auch für Webseiten, Grafiken und andere Notationen, Metadaten, die Dokumentmerkmale darstellen, traditionelle Geschäftsdaten und Dienste im Web verfügbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-0992-2_1 d16fa6fefa7fc2ebf0305675d84dc200;de;;;7.3.;;;Integration von Vertrauenswürdigkeitsindikatoren in reputationsbasierte Vertrauensmodelle Reputationsbasierte Vertrauensmodelle sind im Wesentlichen Mechanismen des verstärkenden Lernens, die auf Feedback beruhen. Als solche haben sie ein Kaltstartproblem, wenn sie versuchen, einen unbekannten Servicepartner zu bewerten. State-of-the-art-Modelle adressieren dies durch die Einbindung von dispositionellem Wissen, dessen Ableitung nicht regelmäßig beschrieben wird. Wir schlagen drei Mechanismen zur Integration von leicht verfügbarem Wissen in Cyber-Physical Services (z. B. Online-Bestellung) vor, um die Vertrauenseinstellung von Verbrauchern gegenüber unbekannten Diensten (und deren Anbietern) zu bestimmen. Diese Vertrauenswürdigkeitsindikatoren zum Aufbau von Reputation können als Hinweise für eine vertrauensbasierte Entscheidungsfindung in E-Commerce-Szenarien dienen und die Entwicklung von Reputations-basierten Vertrauensmodellen hin zu Vertrauensmanagementsystemen vorantreiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29852-3_11 0235ed7780065a1086335948414fe29c;de;;;7.3.;;;Ein verteiltes Informationssystem für Gesundheits-Webdienste Dieses Dokument führt den Leser in die Designüberlegungen und die Implementierung bei der Entwicklung eines Client-Server-Systems für GE Healthcare Technologies (GEHT) ein. Es bewertet die Realisierbarkeit des Einsatzes neuer Technologien zur Implementierung eines sicheren, zuverlässigen verteilten Systems. Außerdem werden die Vorteile der neuen Microsoft.Net-Plattform gegenüber etablierten Technologien diskutiert. Schließlich kommt es zu dem Schluss, dass das neue System Datenerfassungs- und -abruffunktionen unter Verwendung eines mobilen Computergeräts bereitstellen kann, um Daten an ein Informationssystem für GEHT-Mitarbeiter auf der ganzen Welt zu übergeben. Im gesamten Bericht wird die Designdokumentation in Form von UML-Dokumenten dargestellt, damit der Leser den Arbeitsablauf und die Kommunikationswege des vorgeschlagenen Systems nachvollziehen kann.;-;-;-;https://link.springer.com/chapter/10.1007/11610496_107 04df81d8f87d920693c5cd7500033e47;de;;;7.3.;;;Zuordnung der wichtigsten Computer-Hacking-Ereignisse zu einem temporären Computerangriffsmodell In diesem Whitepaper werden acht der wichtigsten Computer-Hacking-Ereignisse (auch als Computerangriffe bezeichnet) vorgestellt. Diese Ereignisse wurden aufgrund ihrer einzigartigen Auswirkungen, Methodik oder anderer Eigenschaften ausgewählt. Es wird ein temporäres Computerangriffsmodell vorgestellt, das verwendet werden kann, um computerbasierte Angriffe zu modellieren. Dieses Modell besteht aus den folgenden Phasen: Zielerkennung, Aufklärung, Angriff und Aufklärung nach dem Angriff. Die Angriffsphase ist unterteilt in: Hochlauf, Schaden und Rückstand. Dieses Papier zeigt, wie unsere acht bedeutenden Hacking-Ereignisse dem zeitlichen Computerangriffsmodell zugeordnet werden. Das temporäre Computerangriffsmodell wird zu einem wertvollen Vorteil beim Schutz kritischer Infrastrukturen, indem es ähnliche Angriffe früher erkennen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33332-3_21 5863e6511b1169e5c0f847cff74e0685;de;;;7.3.;;;Deep Web Crawling: eine Umfrage Deep Web-Crawling bezieht sich auf das Problem des Durchsuchens der Sammlung von Seiten in einer Deep-Website, die dynamisch als Reaktion auf eine bestimmte Abfrage generiert werden, die über ein Suchformular gesendet wird. Um dies zu erreichen, müssen Crawler mit einigen Funktionen ausgestattet sein, die über das bloße Verfolgen von Links hinausgehen, z Webseiten mit relevanten Informationen. Aktuelle Umfragen, die den Stand der Technik beim Deep Web Crawling analysieren, bieten keinen Rahmen, der es erlaubt, die aktuellsten Vorschläge zu all den verschiedenen Aspekten des Deep Web Crawling Prozesses zu vergleichen. In diesem Artikel schlagen wir ein Framework vor, das die Hauptmerkmale bestehender Techniken im Zusammenhang mit Deep Web-Crawling analysiert, einschließlich der neuesten Vorschläge, und ein Gesamtbild über Deep Web-Crawling liefert, einschließlich neuer Funktionen, die bis heute nicht analysiert wurden durch vorherige Umfragen. Unsere Hauptschlussfolgerung ist, dass die Crawler-Bewertung ein unausgereifter Forschungsbereich ist, da kein Standardsatz von Leistungskennzahlen oder ein Benchmark oder öffentlich verfügbarer Datensatz zur Bewertung der Crawler vorhanden ist. Darüber hinaus kommen wir zu dem Schluss, dass sich die zukünftige Arbeit in diesem Bereich auf die Entwicklung von Crawlern für den Umgang mit sich ständig weiterentwickelnden Webtechnologien und die Verbesserung der Crawling-Effizienz und Skalierbarkeit konzentrieren sollte, um effektive Crawler zu schaffen, die in realen Kontexten arbeiten können.;-;-;-;https://link.springer.com/article/10.1007/s11280-018-0602-1 03bc14fccf01693eae34d134fb69fbd4;de;;;7.3.;;;Tabellen in HTML-Dokumenten erkennen Tabelle ist ein häufig verwendetes Darstellungsschema zum Beschreiben relationaler Informationen. Das Tabellenverständnis im Web hat viele potenzielle Anwendungen, darunter Webmining, Wissensmanagement und die Zusammenfassung und Bereitstellung von Webinhalten für Geräte mit schmaler Bandbreite. Obwohl Tabellen in HTML-Dokumenten im Allgemeinen als -Elemente gekennzeichnet sind, weist ein
-Element nicht unbedingt auf das Vorhandensein von a . hin;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45869-7_29 9df9ab9c5a5a09fadba27b131a205eec;de;;;7.3.;;;Hawkeye: Eine praktische groß angelegte Demonstration der Semantic Web Integration Wir diskutieren unser DLDB-Wissensdatenbanksystem und bewerten seine Fähigkeit zur Verarbeitung eines sehr großen Satzes von realen Semantic Web-Daten. Mit DLDB haben wir die Hawkeye-Wissensdatenbank aufgebaut, in die wir mehr als 166 Millionen Fakten aus verschiedenen realen Datenquellen geladen haben. Anhand dieser Wissensbasis demonstrieren wir realistische Integrationsfragen in E-Government- und akademischen Szenarien. Um Hawkeye zu unterstützen, haben wir DLDB um zusätzliche Argumentationsfähigkeiten erweitert. Derzeit besteht das Semantic Web aus zahlreichen unabhängigen Ontologien. Wir demonstrieren, dass OWL verwendet werden kann, um diese Ontologien zu integrieren und dadurch die Datenquellen zu integrieren, die sich ihnen verpflichten. In Bezug auf die Leistung zeigen wir, dass die Ladezeit unseres Systems linear zur Anzahl der geladenen Tripel ist. Außerdem zeigen wir, dass viele komplexe Anfragen Antwortzeiten unter einer Minute haben und einfache Anfragen in Sekunden beantwortet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76890-6_39 31eda95bbcd4bced6981a2ebaa6aac5c;de;;;7.3.;;;Abhängigkeitserkennung mit einer Fuzzy-Engine Die Ermittlung von Abhängigkeiten zwischen Komponenten eines Netzwerks kann Beziehungen zwischen Komponenten von mehrschichtigen Anwendungen und der zugrunde liegenden IT-Infrastruktur wie Servern und Datenbanken aufdecken. Die Kenntnis dieser Abhängigkeiten ist daher für das Management großer verteilter, heterogener und virtualisierter Systeme wichtig, bei denen es schwierig ist, einen genauen Überblick über die funktionale Verbindung von Netzwerkressourcen zu behalten. In diesem Papier stellen wir eine passive Methode vor, die Attribute von Verkehrsflussaufzeichnungen verwendet und Verkehrsabhängigkeiten zwischen Netzwerkkomponenten mithilfe eines flexiblen Fuzzy-Inferenzmechanismus ableitet. Simulationen und Auswertungen mit realen Verkehrsspuren zeigen die Anwendbarkeit des Ansatzes zur flussbasierten Abhängigkeitserkennung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75694-1_10 080574b0abd3efeeab32dca45edf3a68;de;;;7.3.;;;Lebensmittelsicherheit und technologische Auswirkungen von Systemen zur Rückverfolgbarkeit von Lebensmitteln Lebensmittelsicherheit ist zu einem wichtigen Qualitätsmerkmal von Lebensmitteln geworden. Sowohl die Lebensmittelindustrie als auch die Behörden müssen in der Lage sein, Lebensmittelprodukte und Rohstoffe, die für die Lebensmittelproduktion verwendet werden, zurückzuverfolgen und zu authentifizieren, um den gesetzlichen Bestimmungen und den Anforderungen an Lebensmittelsicherheit und Lebensmittelqualität zu entsprechen. Die Rückverfolgbarkeit wird in der Lebensmittelindustrie zunehmend zu einer notwendigen Aufgabe, die vor allem durch die jüngsten Lebensmittelkrisen und die daraus resultierenden Forderungen nach Transparenz in der Lebensmittelkette getrieben wird. Dies führt zur Entwicklung von Rückverfolgbarkeitskonzepten und -technologien, die an die unterschiedlichen Bedürfnisse der Lebensmittelindustrie angepasst sind. Der Inhalt dieses Papiers umfasst mehrere Aspekte wie die gegenwärtigen Bedingungen und die Entwicklung des Systems zur Rückverfolgbarkeit von Lebensmitteln in Übersee, die aktuellen Bedingungen des Systems zur Rückverfolgbarkeit von Lebensmitteln, Probleme und Aussichten in China, die wichtigsten Maßnahmen zur Förderung des Systems zur Rückverfolgbarkeit von Lebensmitteln in China.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18336-2_1 1f1778c0b1fc7e7f457d35b17cea74e9;de;;;7.3.;;;Wie Ameisen Werbung im Web platzieren Werbung ist ein wichtiger Aspekt des Webs, da viele Dienste für die dauerhafte Lebensfähigkeit darauf angewiesen sind. Dieses Papier bietet einen Einblick in die Wirksamkeit der Verwendung von Ameisen-inspirierten Algorithmen zur Lösung des Problems der Internetwerbung. Das Papier ist motiviert durch den Erfolg kollaborativer Filtersysteme und den Erfolg von Ameisen-inspirierten Systemen bei der Lösung von Data Mining und komplexen Klassifikationsproblemen. Unter Verwendung des Vektorraumformalismus wird ein Modell vorgeschlagen, das lernt, Anzeigen mit Seiten ohne vorherige Kenntnis der Interessen der Nutzer zu verknüpfen. Das Modell verwendet historische Daten aus den Klickmustern der Benutzer, um die Assoziationen zu verbessern. Ein Prüfstand und eine experimentelle Methodik werden beschrieben und das vorgeschlagene Modell mittels Simulation evaluiert. Die gemeldeten Ergebnisse zeigen deutlich, dass signifikante Verbesserungen der Ad-Association-Leistung erreichbar sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13025-0_51 5d91c042f1691324b468c0573299bb45;de;;;7.3.;;;Eine interaktive Visualisierung für die Verhaltensanalyse beim Surfen mit Registerkarten Webbrowser sind das Herzstück der Online-Benutzererfahrung und ermöglichen eine Vielzahl von Webanwendungen wie Kommunikation, Spiele, Unterhaltung, Entwicklung usw. Darüber hinaus haben Benutzer angesichts der Vielfalt und Komplexität der online unterstützten Aufgaben damit begonnen, ihre Online-Browsersitzungen durch die Verwendung mehrerer Browserfenster und -registerkarten. Es gibt jedoch nur wenige Lösungen, die Analysten und Gelegenheitsbenutzer dabei unterstützen, Muster aus diesen parallelen Browserverläufen zu erkennen und zu extrahieren. In diesem Papier stellen wir vor;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44911-0_5 26993881facaf2a8cbb89f287107673b;de;;;7.3.;;;KMU-Servicenetzwerke für den kooperativen Betrieb von Roboterinstallationen Ein wesentliches Hindernis für die Einführung von Industrierobotern in kleinen und mittleren Unternehmen (KMU) bilden die Komplexität der Robotersysteme sowie das erforderliche Fachwissen und qualifiziertes Personal. Diese hohen Anforderungen an die Unternehmen und ihr Personal könnten reduziert werden, wenn KMU, die über die erforderlichen Fähigkeiten verfügen, diese als Internet-Dienste anderen KMU zur Verfügung stellen. Dieses Papier beschreibt Arbeitsverfahren, Methoden und Werkzeuge zum Aufbau solcher internetbasierter KMU-Dienstleistungsnetze.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-22829-2_36 2850d87822b740cdadb628882d813e2a;de;;;7.3.;;;Ein Webservice-Signalisierungsansatz über optische Netzwerke für SAN-Anwendungen Storage Area Network (SAN) versprechen sowohl eine einzige Datenquelle als auch verbesserte Leistung und Verfügbarkeit. SAN werden zu einer WAN-Infrastruktur erweitert, um eine einfachere gemeinsame Nutzung über mehrere Standorte hinweg zu ermöglichen. Dies führte zu einem Bedarf an Bandbreite, die durch das zugrundeliegende optische Transportnetz bereitgestellt werden kann. In diesem Papier schlagen wir einen richtlinienbasierten Lichtpfad-Signalisierungsansatz vor, der auf der OpenGrid-Architektur basiert und es SAN-Anwendungen ermöglicht, Lichtpfade über ein optisches Netzwerk dynamisch einzurichten und bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39671-0_18 62755f1e392cf5f740ee2efac6ff8c3e;de;;;7.3.;;;Suchmuster: Verfeinerung von Webabfragen analysieren und modellieren Wir diskutieren die Konstruktion probabilistischer Modelle, die sich auf zeitliche Muster der Abfrageverfeinerung konzentrieren. Unsere Analysen basieren auf einem großen Korpus von Websuchanfragen, die aus Serverprotokollen extrahiert wurden, die von einem beliebten Internetsuchdienst aufgezeichnet wurden. Wir rahmen die Modellierungsaufgabe in Bezug auf das Verfolgen eines Verständnisses probabilistischer Beziehungen zwischen zeitlichen Aktivitätsmustern, Informationszielen und Klassen der Abfrageverfeinerung. Wir konstruieren Bayes-Netzwerke, die das Suchverhalten vorhersagen, mit einem Fokus auf den zeitlichen Verlauf von Anfragen. Wir überprüfen eine Methodik zum Abstrahieren und Taggen von Benutzeranfragen. Nach der Präsentation wichtiger Statistiken zu Abfragelänge, Abfragehäufigkeit und Informationszielen beschreiben wir Benutzermodelle, die die Dynamik der Abfrageverfeinerung erfassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-2490-1_12 c0265253bcfb96b6656c94ef2ea990bd;de;;;7.3.;;;Analyse des Benutzerverhaltens basierend auf der auf Webseiten verbrachten Zeit Heutzutage versuchen Internet- und netzwerkbezogene Dienste- und Inhaltsanbieter, wertvolle Dienstnutzungsdaten zu sammeln und sie mit verschiedenen Methoden zu verarbeiten, um das Verhalten ihrer Benutzer zu kennen. Bisher wird die Qualität von Online-Inhalten anhand der Anzahl der Seitenaufrufe (eine Aufforderung zum Laden einer einzelnen Seite einer Internetseite) oder der Anzahl der Zugriffe (bezieht sich auf eine Anforderung einer Datei von einem Webserver) gemessen. Beide Indikatoren beziehen sich jedoch eher auf die Qualität eingehender Links als auf die Qualität der Inhalte. Auf Webseiten verbrachte Zeit (TSP) gibt eine brauchbarere Beschreibung der Qualität von Seiten, wobei TSP nützliche Zeit ist, solange sich der Benutzer auf einer bestimmten Seite befindet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88081-3_7 604f148630e58b4a73d46642f526e4c3;de;;;7.3.;;;X-Compass: Ein XML-Agent zur Unterstützung der Benutzernavigation im Web In diesem Papier stellen wir X-Compass vor, einen XML-Agenten zur Unterstützung eines Benutzers bei seiner Navigation im Web. Dieses Mittel ist das Ergebnis unseres Versuchs, in einem einzigartigen Kontext wichtige Leitlinien zusammenzufassen, die derzeit die Forschung in verschiedenen Bereichen der Informatik charakterisieren. X-Compass erstellt und verarbeitet ein ziemlich reichhaltiges, wenn auch leichtes Benutzerprofil. Letzteres wird dann ausgenutzt, um den Benutzer bei der effizienten Suche nach Informationen von seinem/seinem Interesse zu unterstützen, auf diese Weise verhält sich der vorgeschlagene Agent wie ein inhaltsbasiertes Empfehlungssystem. Darüber hinaus eignet sich X-Compass besonders zum Aufbau von Multi-Agenten-Systemen und damit zur Implementierung von kollaborativen Filterempfehlungstechniken. Darüber hinaus ist X-Compass auf Basis von XML besonders leicht und auf verschiedenen Hard- und Softwareplattformen lauffähig. Schließlich macht die Nutzung von XML den Informationsaustausch zwischen X-Compass-Agenten und damit die Verwaltung und Nutzung von X-Compass-Multi-Agent-Systemen einfach.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36109-X_16 cb62f1fec97a4dfe4fdb453560369fcc;de;;;7.3.;;;Forschung zur Datenvorbereitstellung im Informationsdienstfluss des digitalen Ozean-Cloud-Computing Die Datenbereitstellung im HDFS (Hadoop Distributed File Systems) ist komplizierter als in herkömmlichen Dateisystemen. Es müssen viele Schlüsselfragen angegangen werden, wie zum Beispiel die Bestimmung des Zielorts des Datenvorabrufs, die Menge der vorab abzurufenden Daten, das Gleichgewicht zwischen Datenvorabrufdiensten und normalen Datenzugriffen. Um diese Probleme zu lösen, nutzen wir die Eigenschaften digitaler Ozeaninformationsdienste und schlagen ein Bereitstellungsschema vor, das das Vorabholen von Eingangsdaten mit ausgangsdatenorientierten Speicherstrategien kombiniert. Das Verfahren erreicht die Parallelität von Datenaufbereitung und Datenverarbeitung, wodurch die I/O-Zeitkosten von digitalen Ozean-Cloud-Computing-Plattformen bei der Verarbeitung von synergistischen Aufgaben mit Informationen aus mehreren Quellen massiv reduziert werden. Die experimentellen Ergebnisse zeigen, dass das Schema einen höheren Grad an Parallelität als herkömmliche Hadoop-Mechanismen aufweist, die Wartezeit eines laufenden Dienstknotens verkürzt und Datenzugriffskonflikte erheblich reduziert.;-;-;-;https://link.springer.com/article/10.1007/s13131-014-0520-8 648088bea30b8c250d413119136a9384;de;;;7.3.;;;Informationsflussstruktur in großen Organisationsnetzwerken der Produktentwicklung Dieses Papier analysiert die statistischen Eigenschaften von realen Netzwerken von Personen, die an Produktentwicklungsaktivitäten (PD) beteiligt sind. Wir zeigen, dass komplexe PD-Netzwerke ähnliche statistische Muster aufweisen wie andere komplexe soziale, informationsbezogene, biologische und technologische Netzwerke in der realen Welt. Das Papier legt die Grundlagen für das Verständnis der Eigenschaften anderer intra- und interorganisationaler Netzwerke dar, die durch spezifische Netzwerkarchitekturen realisiert werden. Das Papier bietet auch einen allgemeinen Rahmen zur Charakterisierung der Funktionalität, Dynamik, Robustheit und Fragilität von Smart-Business-Netzwerken.;-;-;-;https://link.springer.com/article/10.1057/palgrave.jit.2000030 354d1c92a210ef3b3821a44bf9852329;de;;;7.3.;;;Webseitenfilterung für Kinder Das Internet ist zu einem festen Bestandteil des täglichen Lebens von Kindern, Erwachsenen, Schulen, Hochschulen, Institutionen und Unternehmen usw. geworden. Einrichtungen wie E-Mail, soziale Netzwerke, Tweeten, Online-Kauf, Suche sind die beliebtesten Aktivitäten jeder Generation. Das Fehlen einer gemeinsamen Eigentumsvereinbarung über den genauen Ansatz zur Erziehung und zum Schutz von Kindern hat jedoch zu weiteren Herausforderungen geführt. Die Fülle an unethischen Informationen, die einem Kind zur Verfügung stehen, und ihre negativen Auswirkungen auf die Kinderpsychologie geben Anlass zu großer Besorgnis. In diesem Papier wird ein System vorgeschlagen, das die unethischen, schädlichen Inhaltsblöcke von der Webseite filtert. Das System konzentriert sich auf die Beseitigung des schlechten Inhalts (unethisch) und die Umstrukturierung der Webseite, um dem Benutzer eine saubere Webseite bereitzustellen. Das Cosinus-Ähnlichkeitsmaß wird verwendet, um den Inhalt des Webseitenblocks, den alternativen Bildtext und die Bild-Tooltips mit dem Wörterbuch anstößiger Wörter zu vergleichen. Empirische Auswertungen zeigen, dass dieser Ansatz bei der Anwendung auf allgemeine Nachrichten-Webseiten von populären Medien-Websites unglaublich funktionierte.;-;-;-;https://link.springer.com/article/10.1007/s41870-020-00474-0 06fbc7fcbce3784330b9e531006168e6;de;;;7.3.;;;Einführung in E-Librarian-Dienste Bibliotheken sind seit jeher Wissensträger und Instrumente, um aus den Erfahrungen und Bemühungen früherer Generationen zu lernen. In jüngerer Zeit haben digitale Bibliotheken die physischen Mauern klassischer Bibliotheken beseitigt, indem sie enorme Wissensmengen in multimedialer Form über eine Vielzahl elektronischer Werkzeuge zugänglich machen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17743-9_1 b6c76ce087a5f8e827e71ac6c025cb01;de;;;7.3.;;;Kombinieren von Beweisen für Relevanzkriterien: Ein Framework und Experimente beim Web Retrieval Wir präsentieren einen Rahmen, der die Relevanz in Bezug auf mehrere Relevanzkriterien bewertet, indem wir die abfrageabhängigen und abfrageunabhängigen Beweise, die diese Kriterien angeben, kombinieren. Diese Kombination von Beweismitteln wird einheitlich modelliert, unabhängig davon, ob die Beweismittel einem einzigen Dokument oder verwandten Dokumenten zugeordnet sind. Der Rahmen wird formal in der Dempster-Shafer-Theorie ausgedrückt. Es wird für den Web-Retrieval im Kontext der TREC-Aufgabe Topic Distillation evaluiert. Unsere Ergebnisse zeigen, dass die Aggregation inhaltsbasierter Beweise aus den verlinkten Seiten einer Seite von Vorteil ist und dass die zusätzliche Einbeziehung ihrer Homepage-Beweise die Effektivität weiter verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71496-5_43 9088f38553eb4cbd8f8a06feb6c94705;de;;;7.3.;;;Theoretische Perspektiven der Adhärenz webbasierter Interventionen: ein Scoping Review Der Zweck dieses Papiers ist es, die Literatur zu überprüfen, die sich auf theoretische Perspektiven der Einhaltung webbasierter Interventionen bezieht, und stützt sich dabei auf empirische Erkenntnisse aus den Bereichen Psychologie, Wirtschaft, Informationstechnologie und Gesundheitswesen.;-;-;-;https://link.springer.com/article/10.1007/s12529-017-9678-8 8f9ca4d41fb79804f128a38c90e513d7;de;;;7.3.;;;Effiziente Verarbeitung von kategoriebeschränkten Abfragen für Webverzeichnisse Wir zeigen, dass ein Cluster-Skipping Inverted Index (CS-IIS) eine praktische und effiziente Dateistruktur ist, um kategoriebeschränkte Abfragen zum Durchsuchen von Webverzeichnissen zu unterstützen. Die Abfrageverarbeitungsstrategie mit CS-IIS verbessert die CPU-Zeiteffizienz, ohne dass die Verzeichnisgröße eingeschränkt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78646-7_81 d4110142b91a84a3283beea7d767c461;de;;;7.3.;;;Verfassungsrechtliche und technische Voraussetzungen für die Demokratie über das Internet: e-Democracy In diesem Beitrag diskutieren die Autoren die rechtlichen und technischen Implikationen, die eine Ermöglichung der Demokratie über das Internet (kurz e-Democracy) hätte. Welche Anforderungen stellt das Gesetz bzw. das Verfassungsrecht an internetbasierte politische Kommunikation, insbesondere an computergestützte Wahlverfahren? Welche technischen Verfahren und Algorithmen erfüllen diese Anforderungen?;-;-;-;https://link.springer.com/chapter/10.1007/10929179_75 728ec2c3ce5183c46b3187279262c160;de;;;7.3.;;;Semantische Erdung der Hybridisierung für die Tag-Empfehlung Die Tag-Empfehlung für neue Ressourcen ist eines der wichtigsten Themen, die in letzter Zeit diskutiert wurden. Viele bestehende Ansätze ignorieren die Textsemantik und können keine neuen Tags empfehlen, die nicht im Trainingsdatensatz enthalten sind (z. B. FolkRank). Einige außergewöhnliche semantische Ansätze verwenden eine probabilistische latente semantische Methode, um Tags in Bezug auf Themenwissen zu empfehlen (z. B. ACT-Modell). Sie weisen jedoch keine gute Leistung auf, da viele Entitäten in diesen Modellen zu viel Rauschen führen. In diesem Beitrag schlagen wir hybride Ansätze in der Folksonomie vor, um diese Probleme zu lösen. Hybride Ansätze sind eine Kombination aus Sprachmodell (LM) für schlüsselwortbasierte Ansätze und Latent Dirichlet Allocation (LDA), Tag-Topic (TT) Modell und User-Tag-Topic (UTT) Modell für themenbasierte Ansätze. Unsere Ansätze können aussagekräftige Tags empfehlen und können verwendet werden, um implizite Korrelationen von Ressourcen zu entdecken. Experimentelle Ergebnisse des Bibsonomy-Datensatzes zeigen, dass LM besser abschneidet als alle anderen hybriden und nicht-hybriden Ansätze. Auch die hybriden Ansätze mit einer geringeren Anzahl von Entitäten (z. B. LDA mit nur einer Entität) schneiden bei der Tag-Empfehlungsaufgabe besser ab als die Ansätze mit mehr Entitäten (z. B. UTT mit drei Entitäten).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14246-8_16 5de708127a969ff90a698f9f870d4942;de;;;7.3.;;;Deep Web Selection basierend auf Entity Association Zu jedem Thema gibt es heutzutage eine riesige Menge an Deep-Web-Ressourcen. Es wird enorm schwierig, die erforderlichen integrierten Informationen aus allen verwandten Deep-Web-Ressourcen für ein Thema abzurufen, was die Technologie zur Auswahl der geeigneten Webressourcen verdrängt. Im medizinischen Bereich sind die Assoziationen zwischen Entitäten sehr umfangreich, da es unseren allgemeinen Gesundheitszustand verbessern kann, wenn alle zugehörigen Assoziationsinformationen integriert und verwendet werden können. Um die Integrationseffizienz der Entitäten und ihrer Assoziationen zu verbessern, stellen wir eine Datenressourcenauswahlmethode basierend auf den Entitäten und ihren Assoziationen bereit. Die in dem Verfahren verwendete abstrakte Entitäts- und Assoziationsmatrix baut auf den gewichteten Entitätsbewertungen und ihren Assoziationsinformationen im Entitäts- und Assoziationsdiagramm auf. Basierend auf der Absicht der Entitäts- und Assoziationsabfrage bietet es außerdem eine neue Methode zum Berechnen der Datenressourcenassoziation. Nach einer großen Anzahl von Tests und Experimenten mit den Datensätzen im medizinischen Bereich hat sich gezeigt, dass die neue Methode eine bessere Präzision und Erinnerung bietet und die Untersuchung der Informationsintegration im medizinischen Bereich erheblich unterstützen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3753-0_79 245c60d6795e3871299417dc431ee09a;de;;;7.3.;;;Ausnutzung von Benutzerinteressen zur Charakterisierung von Navigationsmustern in der Web-Browsing-Unterstützung Um den Kontext für eine proaktive Informationsempfehlung nutzen zu können, müssen Agenten Benutzeraktivitäten basierend auf ihrem Wissen über die Benutzerinteressen extrahieren und verstehen. In diesem Beitrag schlagen wir einen neuartigen Ansatz für kontextbezogene Empfehlungen in Browserassistenten vor, der auf der Integration von Benutzerprofilen, Navigationsmustern und kontextbezogenen Elementen basiert. Bei diesem Ansatz werden Benutzerprofile verwendet, die unter Verwendung eines Clustering-Algorithmus für unbeaufsichtigte Webseiten erstellt wurden, um die laufenden Aktivitäten und Verhaltensmuster des Benutzers zu charakterisieren. Experimentelle Beweise zeigen, dass die Nutzung längerfristiger Interessen zur Erklärung der Ziele des aktiven Surfens durch die Benutzerunterstützung effektiv verbessert wird.;-;-;-;https://link.springer.com/article/10.1007/s00354-008-0044-x 475c09b1851033a5394e9008605bff1a;de;;;7.3.;;;Verbesserung der Qualität der Online-Bildung in China Dieses Kapitel konzentriert sich auf die Untersuchung, wie die Qualität der Online-Bildung in China verbessert werden kann. Online Education, auch bekannt als Network Education oder E-Learning, ist die Bildungsform des Fernunterrichts mit einer langen Geschichte, als sich die Informations- und Kommunikationstechnologie in das Netzwerkzeitalter entwickelt hat. Man kann sagen, dass Online-Bildung ein Bildungsmodus ist, der entwickelt wurde, nachdem der Fernunterricht in die Netzwerktechnologie integriert wurde. In dem vom Bildungsministerium im Jahr 2019 herausgegebenen Grundsatzpapier zum Abschluss von 11 Ressorts „zur Förderung der gesunden Entwicklung der Online-Bildungsberatung“ (11) [2019] des Landes erstmals und erläutert die Konnotation von „Online-Bildung“: „Online-Bildung ist die Nutzung des Internets, der künstlichen Intelligenz und anderer moderner Informationstechnologien für interaktive Lehr- und Lernformen der neuen Art der Bildung, ist ein wichtiger Bestandteil des Bildungsdienstes.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-3276-1_14 156aa4f379512db7bfb3578e62f9df51;de;;;7.3.;;;Extraktionsmethode für Web-News-Seiten basierend auf DOM und Entscheidungsbaum Die Inhaltsextraktion für Web-News-Seiten ist eine grundlegende Arbeit für viele Webanwendungen und muss gut gelöst werden. Dieses Papier stellt eine neue Methode vor, um den Inhalt von Web-Nachrichtenseiten zu extrahieren. Diese Methode parst zunächst den HTML-Code auf einfache und bequeme Weise, die nicht auf ein Toolkit von Drittanbietern angewiesen ist, und verwandelt die HTML-Struktur in einen einfacher zu bedienenden DOM-Baum (Document Object Model). Wählen Sie auf dieser Grundlage die Unterbaumkandidaten aus, die vielleicht den Hauptinhalt der Seite enthalten. Da es sich um die Elementknoten des DOM-Baums handelt, werden vier spezifische Attribute davon, die wir in diesem Papier definieren, erhalten. Und ein Entscheidungsbaum kann gemäß diesen Attributen trainiert werden. Da Lernen und Vorhersagen einen gut trainierten Entscheidungsbaum erfordern, kann die Identifizierung des Nachrichtenkörper-Unterbaums unter einer Anzahl von Unterbäumen auf einer Seite als ein Klassifizierungsproblem angesehen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25781-0_23 81a6f81e8a926f0dc314af9da157fc1b;de;;;7.3.;;;Analyse des Verhaltens der Cyberarmee im Webforum für die Wahlkampagne Das Ziel der Cyber-Armee für die Wahlkampagne ist es, einen bestimmten Kandidaten zu fördern und seine Rivalen für die Stimmzettel zu denunzieren. Dieses Papier untersucht das Verhalten der Cyber-Armee anhand einer realen Fallstudie, dem Bürgermeisterrennen von Taipeh 2014. Wir analysieren die gecrawlten Daten des Gossip Forums im Professional Technology Temple (PTT), Taiwans größtem Online-Bulletin Board. Die Operationen der Cyber-Armee werden gezeigt und diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-28940-3_32 a3deab24c24bea1e0d804d96f053ae8c;de;;;7.3.;;;Effiziente parallele Berechnung von PageRank PageRank ist aufgrund der strikten hostbasierten Linklokalität des Webs von Natur aus massiv parallelisierbar und verteilbar. Wir zeigen, dass die iterative Methode von Gauß-Seidel in einem solchen Parallelranking-Szenario tatsächlich zur Verbesserung der Konvergenz angewendet werden kann. Durch die Einführung eines zweidimensionalen Webmodells und die Anpassung des PageRank an diese Umgebung präsentieren wir effiziente Methoden, um den exakten Rangvektor auch für große Webgraphen in wenigen Minuten und Iterationsschritten zu berechnen, mit intrinsischer Unterstützung für inkrementelles Webcrawling , und ohne die Notwendigkeit einer Seitensortierung/-neuordnung oder der gemeinsamen Nutzung globaler Ranginformationen.;-;-;-;https://link.springer.com/chapter/10.1007/11735106_22 a082dc94fc7a537b8d8c8b1985eb6af4;de;;;7.3.;;;RPKI-Bereitstellung: Risiken und alternative Lösungen Um die Sicherheitsmängel von BGP (Border Gateway Protocol) zu bewältigen, wurde in der IETF (Internet Engineering Task Force) RPKI (Resource Public Key Infrastructure) vorgeschlagen, um die Beziehung zwischen IP-Präfix und seiner Herkunft zu authentifizieren. Seit 2012 wurde eine Reihe von RPKI-bezogenen Protokollen in der IETF standardisiert und die Community hat ihre tatsächliche Bereitstellung gestartet. Mit dem weltweiten Einsatz von RPKI wurden jedoch viele Bedenken aus technischen, wirtschaftlichen und politischen Aspekten geäußert. In diesem Papier versuchen wir, die kritischsten Risiken, die während der RPKI-Bereitstellung aufgetreten sind, zu sammeln und zu analysieren und die alternativen Lösungen zusammenzufassen, die präsentiert wurden, um diese Risiken anzugehen oder zu mindern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23204-1_30 38d212db36add0dd83c71b3c2352932e;de;;;7.3.;;;Eine Überprüfung des Audio-Fingerabdrucks Ein Audio-Fingerabdruck ist eine kompakte inhaltsbasierte Signatur, die eine Audioaufnahme zusammenfasst. Audio Fingerprinting-Technologien haben Aufmerksamkeit erregt, da sie die Identifizierung von Audio unabhängig von seinem Format und ohne die Notwendigkeit der Einbettung von Metadaten oder Wasserzeichen ermöglichen. Andere Anwendungen des Fingerabdrucks umfassen: Integritätsprüfung, Unterstützung von Wasserzeichen und inhaltsbasierter Audioabruf. Die verschiedenen Ansätze zum Fingerabdruck wurden mit unterschiedlichen Begründungen und Terminologien beschrieben: Mustervergleich, Multimedia (Musik) Informationsabruf oder Kryptographie (Robustes Hashing). In diesem Papier besprechen wir verschiedene Techniken, die ihre Funktionsblöcke als Teile eines gemeinsamen, vereinheitlichten Rahmens beschreiben.;-;-;-;https://link.springer.com/article/10.1007/s11265-005-4151-3 d9c4f2e226e3b01946a1662be3d7a569;de;;;7.3.;;;Anwenden von Co-Training auf Klickdaten für die Suchmaschinenanpassung Die Informationen im World Wide Web wachsen grenzenlos. Benutzer können sehr unterschiedliche Präferenzen in den Seiten haben, die sie über eine Suchmaschine ansprechen. Es ist daher eine anspruchsvolle Aufgabe, eine Suchmaschine an die Bedürfnisse einer bestimmten Community von Nutzern mit ähnlichen Interessen anzupassen. In diesem Papier schlagen wir einen neuen Algorithmus vor, Ranking SVM in a Co-Training Framework (RSCF). Im Wesentlichen nimmt der RSCF-Algorithmus die Durchklickdaten, die die Elemente im Suchergebnis enthalten, auf die von einem Benutzer geklickt wurde, als Eingabe und generiert adaptive Ranglisten als Ausgabe. Durch die Analyse der Durchklickdaten kategorisiert RSCF die Daten zunächst in den gekennzeichneten Datensatz, der die bereits gescannten Elemente enthält, und den nicht gekennzeichneten Datensatz, der die noch nicht gescannten Elemente enthält. Die gekennzeichneten Daten werden dann mit nicht gekennzeichneten Daten angereichert, um einen größeren Datensatz zum Trainieren der Ranglisten zu erhalten. Wir zeigen, dass der RSCF-Algorithmus bessere Ranking-Ergebnisse liefert als der Standard-Ranking-SVM-Algorithmus. Basierend auf RSCF entwickeln wir eine Metasuchmaschine, die MSNSearch, Wisenut und Overture umfasst, und führen ein Online-Experiment durch, um zu zeigen, dass unsere Metasuchmaschine Google übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24571-1_48 60c9cd7ea48179e665d11317a41d9a8a;de;;;7.3.;;;Domain-Frage/Antwort im WEB öffnen In diesem Beitrag wird ein Frage-Antwort-System für die Suche im Internet vorgestellt. Das System akzeptiert natürlichsprachliche Fragen in Italienisch und gibt als Antwort eine Rangliste der Dokumentpassagen zusammen mit der URL des gesamten Dokuments zurück. Drei entscheidende Aspekte im Zusammenhang mit dem Web-Szenario wurden untersucht: die sprachliche Erweiterung der Abfrage, die Optimierung des booleschen Suchausdrucks, die Auswertung der Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45411-X_28 7ecadb501726c3da4769f1f64696d4ce;de;;;7.3.;;;Ein skalierbares Framework für verteilte Ontologien In großen Peer-to-Peer (P2P)-Systemen werden Informationen in der Regel dezentral generiert. Eine Architektur, die Anwendungen eine einheitliche Sicht auf verschiedene Informationsquellen ermöglicht, erregt derzeit enorme Aufmerksamkeit. Beim Aufbau dieser Architektur konzentrieren sich viele P2P-orientierte Anwendungen darauf, zwei Herausforderungen zu lösen. Die erste Möglichkeit besteht darin, Informationsquellen mit einem einheitlichen Format bereitzustellen, und die zweite besteht darin, diese Informationen abzufragen, ohne die Heterogenität der zugrunde liegenden Systeme zu berücksichtigen. In diesem Papier schlagen wir einen Rahmen für die Integration von Informationen aus heterogenen Quellen vor, indem wir zwei neue Technologien nutzen: das Semantic Web und das Grid Computing. In unserem Szenario stellen wir den Semantic Web Service auf den Grid Services auf. Jeder Datenprovider wird zu einem autonomen Knoten in der virtuellen Organisation des Grid-Systems. Die Umsetzung und das experimentelle Ergebnis belegen die Machbarkeit unseres Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78582-8_25 c307db5c488bde25c3a7c7e570222ed8;de;;;7.3.;;;Modellgetriebene Sicherheit für organisationsübergreifende Arbeitsabläufe im E-Government Model Driven Architecture ist ein Ansatz zur Steigerung der Qualität komplexer Softwaresysteme durch die Erstellung von High-Level-Systemmodellen und die automatische Generierung von Systemarchitekturen und Komponenten aus diesen Modellen. Wir zeigen, wie dieses Paradigma auf die sogenannte Model Driven Security für interorganisationale Arbeitsabläufe im E-Government angewendet werden kann. Unser Fokus liegt auf der Realisierung sicherheitskritischer interorganisationaler Workflows im Kontext von Webservices und Webservice-Orchestrierung. Sicherheitsanforderungen werden auf abstrakter Ebene mithilfe von UML-Diagrammen spezifiziert. Aus dieser Spezifikation werden sicherheitsrelevante Artefakte für die Zielreferenzarchitektur basierend auf kommenden Webservice-Sicherheitsstandards erstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-32257-3_12 e801e424e48747196441efa66968687c;de;;;7.3.;;;Optimale Methoden zur Objektplatzierung im En-Route Web Caching für Baumnetzwerke und autonome Systeme Dieses Papier befasst sich mit dem Problem der Berechnung der Orte von Kopien eines Objekts, die zwischen den Zwischenspeichern auf der Route platziert werden sollen, so dass der Gesamtkostengewinn für Baumnetzwerke maximiert wird. Dieses Problem wird als Optimierungsproblem formuliert und es werden sowohl unbeschränkte als auch eingeschränkte Fälle betrachtet. Der eingeschränkte Fall umfasst Einschränkungen hinsichtlich des Kostengewinns pro Knoten und der Anzahl der zu platzierenden Kopien. Es werden kostengünstige, auf dynamischer Programmierung basierende Algorithmen abgeleitet, die optimale Lösungen für diese Fälle bieten. Darüber hinaus wird basierend auf unserem mathematischen Modell auch eine Lösung für koordiniertes en-route Web Caching (CERWC) für autonome Systeme (ASes) vorgestellt. Die Implementierungsergebnisse zeigen, dass unsere Methoden bestehende Algorithmen sowohl für CERWC für die lineare Topologie als auch für die Objektplatzierung an einzelnen Knoten übertreffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24680-0_48 c67df2876b19df42817c8956d7f9f029;de;;;7.3.;;;Medienerziehung in Japan: Konzepte, Richtlinien und Praktiken Im Zeitalter der Informationsgesellschaft sind Medien in Haushalten und Schulen weit verbreitet und Kinder sind schon sehr früh verschiedenen Medienarten ausgesetzt. Die Time-Budget-Umfrage (NHK Broadcasting Culture Research Institute, 2005) ergab, dass der Durchschnitt der japanischen Grundschüler pro Wochentag, der bestimmten Arten von Massenmedien ausgesetzt ist (TV, Radio, Zeitungen, Zeitschriften, Comics, Bücher, CDs, MDs oder Musik Bänder und Videos) betrug 2 Stunden und 50 Minuten, für Mittelschüler 3 Stunden und 1 Minute und für Gymnasiasten 4 Stunden 51 Minuten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-9529-0_10 5e21c4a1e8be891e1eae0e5a798504fc;de;;;7.3.;;;Erstellen, Optimieren und Ausführen von Plänen für Bioinformatik-Webdienste Das Aufkommen einer großen Zahl von Bioinformatik-Datensätzen im Internet hat zu einem Bedarf an flexiblen und effizienten Ansätzen geführt, um Informationen aus mehreren bioinformatischen Datenquellen und -diensten zu integrieren. In diesem Whitepaper stellen wir unseren Ansatz vor, Kompositionspläne für Webdienste automatisch zu generieren, die Kompositionspläne zu optimieren und diese Pläne effizient auszuführen. Während Datenintegrationstechniken auf den Bereich der Bioinformatik angewendet wurden, lag der Fokus auf der Beantwortung spezifischer Benutzeranfragen. Im Gegensatz dazu konzentrieren wir uns auf die automatische Generierung;-;-;-;https://link.springer.com/article/10.1007/s00778-005-0158-4 a25c888cb55aacd4f5ed145facd7aa1a;de;;;7.3.;;;Eine Längsschnittstudie zur Vielfalt des E-Commerce in Europa Aufgrund des verbesserten Zugangs zum Internet und der Entwicklung des elektronischen Handels hat sich der E-Commerce in allen Ländern zu einer gängigen Einkaufsmethode entwickelt. Ziel dieser Studie ist es, die E-Commerce-Vielfalt in Europa auf regionaler Ebene genauer zu erforschen und das Konzept des „E-Commerce Supply Chain Management“ zu entwickeln. Zur Analyse der räumlichen Vielfalt des elektronischen Einzelhandels wurden statistische Daten des Europäischen Statistischen Amtes verwendet. Bewertungen der regionalen Diversität des E-Retailings angewandter Geoinformationssysteme und explorativer Geodatenanalysemethoden wie zB globale und lokale räumliche Autokorrelationsstatistiken. Es wurden Cluster von Regionen mit ähnlichen Haushaltspräferenzen in Bezug auf Online-Shopping identifiziert. Eine räumliche Visualisierung des Diversitätsphänomens des elektronischen Einzelhandels kann für die Neukonfiguration von Lieferketten und deren Anpassung an die tatsächlichen Haushaltspräferenzen in Bezug auf Einkaufsmethoden verwendet werden.;-;-;-;https://link.springer.com/article/10.1007/s10660-021-09466-z 68a0b42503562b00483374502c621651;de;;;7.3.;;;Design und Entwicklung von Webanwendungen mit WebML und WebRatio 5.0 In diesem Whitepaper wird WebRatio 5.0 vorgestellt, ein Designtool, das WebML (Web Modeling Language) unterstützt. WebML ist eine domänenspezifische Sprache (DSL) zum Entwerfen komplexer, verteilter und adaptiver Anwendungen mit mehreren Akteuren, die im Web und in serviceorientierten Architekturen mit Webdiensten bereitgestellt werden. WebRatio 5.0 bietet visuelle Designfunktionen basierend auf der WebML-Notation und Codegenerierungs-Engines für J2EE-Webanwendungen. Das Tool wird als eine Reihe von Eclipse-Plug-Ins entwickelt und nutzt alle Funktionen dieses IDE-Frameworks. Es unterstützt auch kundenspezifische Erweiterungen der Modelle, Projektdokumentation und Lastenheft. Der Gesamtansatz bewegt sich in Richtung einer vollständigen Abdeckung der Spezifikation, des Designs, der Verifizierung und der Implementierung von Webanwendungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69824-1_22 19fab91c646c9ded769eba0d3e5d0b18;de;;;7.3.;;;Konfliktprävention durch modellgesteuerte Richtlinienverfeinerung Dieses Papier beschreibt einen Ansatz zur anwendungsspezifischen Konfliktprävention basierend auf einer modellgetriebenen Verfeinerung von Richtlinien vor der Bereitstellung. Im Zentrum des Ansatzes steht ein Algorithmus zur Gewinnung anwendungsspezifischer Daten aus einem Informationsmodell zu Themen und Zielen einer gegebenen Politik. Dieser Algorithmus erleichtert die Verknüpfung von Richtlinien, die lose auf einem hohen Abstraktionsniveau definiert sind, mit detaillierten Verhaltensbeschränkungen, die im Informationsmodell spezifiziert sind. Auf der Grundlage dieser Beschränkungen werden dann Richtlinien modifiziert, so dass Konflikte mit anderen bereitgestellten Richtlinien unter Verwendung von Standardverfahren zur Erkennung von Richtlinienkonflikten leicht identifiziert werden können. Dieser Ansatz ermöglicht, dass die Richtliniendurchsetzung anwendungsspezifische Beschränkungen kennt, was zu einem vertrauenswürdigeren und zuverlässigeren richtlinienbasierten Verwaltungssystem führt.;-;-;-;https://link.springer.com/chapter/10.1007/11907466_18 0838f71d987f2ac63a0f6caf78536fad;de;;;7.3.;;;Über die Verwendung von WS-Richtlinien, Ontologie und Regelbegründung zum Erkennen von Webdiensten Dieses Papier schlägt einen Ansatz zur verhaltensbasierten Erkennung von Webdiensten vor, bei dem Geschäftsregeln, die das Dienstverhalten regeln, als Richtlinie beschrieben werden. Die Richtlinie wird in Form von ontologischen Informationen dargestellt und basiert auf Aktionen in Bezug auf den Dienst und Bedingungen für deren Ausführung. Die Standard-WS-Richtlinie wird verwendet, um eine solche Richtlinie dem Webdienst zuzuordnen. Mit einem Framework, das die Standarderkennung durch UDDI erweitert, können Dienstnutzer Webdienste abfragen, indem sie Geschäftseinschränkungen angeben. Die Richtlinie des Webdienstes wird anhand der Abfrage des Verbrauchers mithilfe der OWL-Ontologie-Abfrage-Engine und eines regelbasierten Argumentationsmoduls bewertet. Durch die Berücksichtigung von Geschäftsregeln zusätzlich zur herkömmlichen attributbasierten Suche durch UDDI ermöglicht der Ansatz zufriedenstellendere Erkennungsergebnisse, die den Anforderungen der Service-Kunden besser entsprechen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30179-0_22 2b1551698df5d3ae907563fcc6455b5f;de;;;7.3.;;;Anpassung der E-Mail-Funktionalität für mobile Endgeräte Mobile Benutzer müssen immer und überall auf E-Mail-Dienste zugreifen können. Die bisher vorgeschlagenen Lösungen wie Web/WAP [6] Mail und VPN [7] Tunneling sind für mobile Clients mit begrenzten Ressourcen nicht ideal. Diese Lösungen bieten keine neuen Konzepte für die Übertragung der E-Mails oder das E-Mail-Format selbst. In diesem Beitrag stellen wir eine XML-Webservice-Lösung [1] vor, die neue Wege eröffnet, E-Mail-Funktionalität sowohl auf mobilen als auch auf stationären Systemen bereitzustellen. Der Beitrag beginnt mit einer kurzen Zusammenfassung der Funktionsweise von E-Mail-Systemen von heute. Abschließend wird unsere Lösung basierend auf XML Web Services und dem vorgeschlagenen XMMAP (XML Mobile eMail Access Protocol) ausführlich erläutert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30179-0_18 214d5732fe31660d70a65bde3e17357e;de;;;7.3.;;;Drahtlose Netzwerktechnologien NCBO ist nicht auf Telekommunikationsnetze und Computernetzwerke beschränkt, jedoch spielen Netzwerktechnologien eine wesentliche Rolle bei der Unterstützung des IT-Geschäftsbetriebs eines Unternehmens. Die in den vorherigen Kapiteln diskutierten GIG- und eTOM-Modelle haben gezeigt, wie die Technologieinfrastruktur die Unternehmensvision eines netzwerkzentrierten Betriebs in einer serviceorientierten Umgebung unterstützen kann, die es den Unternehmen ermöglicht, Fähigkeiten mit einer minimalen Anforderung an lokale Funktionalität zu teilen, die ein einzelner Host besitzen muss .;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-6456-2_3 b91f1eae36f3e2830bc7bba0b6ffe18d;de;;;7.3.;;;Tool zur Berechnung der Sonnenleistung für Solarsysteme Dieser Beitrag beschäftigt sich mit der Visualisierung von Karten, räumlichen Berechnungen von Solar- und Photovoltaikanlagen. Insbesondere wird die Frage der Sonneneinstrahlung und der richtigen Ausrichtung und Neigung von Photovoltaikmodulen in Bezug auf Art und Neigung der Landschaft diskutiert. Der erste Teil der Arbeit konzentriert sich auf die interaktiven Karten der EU (Photovoltaic Geographical Information System) und beschreibt die Berechnungen und die Eingabedaten, die für die Entwicklung der Anwendung verwendet wurden, es ist die Berechnung der Intensität der Sonneneinstrahlungsdaten und SRTM-DEM- und ASTER-GDEM-Daten. Der zweite Teil ist der Entwicklung der benutzerdefinierten Anwendungen gewidmet. Anwendungen verwenden das Open Source Control aus dem Projekt GMaps.NET, Google Maps und Silverlight Bing Maps. Abschließend werden die Ergebnisse mit dem EU-Modell mit eigenen Lösungen verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22389-1_5 89ad0f1135eb4d239f32ac5ec6fe62b3;de;;;7.3.;;;Synthese von Websites aus High-Level-Beschreibungen Da die Nutzung von Websites explodiert ist, wurden große Anstrengungen in die Bereitstellung von Websites gesteckt, jedoch wurde wenig über Methoden für deren Design und Wartung nachgedacht. Dieser Artikel berichtet über einige ermutigende Ergebnisse zum Einsatz automatisierter Synthesen unter Verwendung domänenspezifischer formaler Darstellungen, um das Design methodischer und die Wartung weniger zeitaufwändig zu gestalten.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45144-7_19 1b93d103abb5b17a49bb4fe9fcc29027;de;;;7.3.;;;Qualitätskontrolle für Crowdsourcing mit räumlicher und zeitlicher Verteilung In den letzten zehn Jahren hat sich Crowdsourcing zu einem aussichtsreichen Paradigma für kommerzielle Zwecke entwickelt, da es viele Vorteile wie geringe Kosten und hohe Unmittelbarkeit insbesondere bei standortbasierten Diensten (LBS) mit sich bringt. Auf der anderen Seite gibt es auch beim Crowdsourcing viele Probleme zu lösen. Beispielsweise wurde die Qualitätskontrolle von Crowdsourcing-Systemen als eine bedeutende Herausforderung identifiziert, darunter der effizientere Umgang mit riesigen Datenmengen, die Unterscheidung von minderwertigen Inhalten in den Einreichungen von Mitarbeitern und so weiter. In diesem Beitrag stellen wir einen Ansatz vor, um die Crowdsourcing-Qualität aus der räumlichen und zeitlichen Verteilung zu steuern. Unsere Experimente haben die Effektivität und Effizienz des Ansatzes gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41428-2_14 e91dcdb0d8a796fc3dbb1831c27ac32a;de;;;7.3.;;;Ein IoT-gestütztes DSS für das MOL Marine Auxiliaries Management Die Hersteller von Schiffshilfsmitteln stehen vor der Herausforderung, ihre Mid-of-Life-Aktivitäten an die sonst definierten und oft nicht gut kommunizierten Fahrpläne der Schiffe, die ihre Produkte transportieren, anzupassen. Dieser Beitrag stellt sowohl den methodischen Lösungsansatz als auch deren prototypische Umsetzung in einem konkreten Anwendungsfall vor. Die vorgestellte Lösung nutzt das Internet der Dinge (IoT) und die Daten, die ständig von den Schiffen über das Automatische Identifikationssystem (AIS) erzeugt werden, um dieses Problem zu überwinden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-54660-5_55 90c4b7c47a15438db145a10b07fc31b4;de;;;7.3.;;;Sicherheit von World Wide Web-Suchmaschinen Wie alle aktuellen Marktumfragen belegen, wächst das World Wide Web (WWW) in phänomenaler Geschwindigkeit, sowohl in der Anzahl der Benutzer als auch in der Menge der verfügbaren Informationen. Dies hat das World Wide Web zu einem der Schlüsselbereiche für die Werbung von Unternehmen gemacht. Auf der anderen Seite hängt Werbung im Web entscheidend von seiner;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35097-4_13 848705f77af9660e998b69ff71b2446a;de;;;7.3.;;;Sprachressourcen zur sprachübergreifenden Textsuche: Eine CLEF-Perspektive Sprachressourcen wie maschinelle Wörterbücher und lexikalische Datenbanken, ausgerichtete parallele Korpora oder sogar komplette maschinelle Übersetzungssysteme sind beim Cross-Language Text Retrieval (CLTR) essenziell, wenn auch keine Standardwerkzeuge für die Informationssuche im Allgemeinen. Wir skizzieren die derzeitige Nutzung und Angemessenheit solcher Ressourcen für CLTR, wobei wir uns auf die Teilnehmer und Experimente konzentrieren, die in der CLEF-2000-Evaluierung durchgeführt wurden. Unsere Diskussion basiert auf einer Umfrage unter den CLEF-Teilnehmern sowie den Beschreibungen ihrer Systeme, die im vorliegenden Band zu finden sind. Wir diskutieren auch, wie der Nutzen der CLEF-Evaluierungskampagne durch die Aufnahme zusätzlicher Aufgaben erhöht werden könnte, die es ermöglichen, zwischen den Auswirkungen der von den beteiligten Systemen verwendeten Ressourcen einerseits und den verwendeten Retrieval-Strategien auf die Ergebnisse zu unterscheiden , auf dem anderen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44645-1_4 8fabc38bdc520caa0138c93edceafe38;de;;;7.3.;;;Neue Anwendungen von Breitbandnetzen: Eine Vision basierend auf dem Stand der Technik in der Vernetzung In diesem Beitrag diskutiere ich mögliche Forschungs- und Entwicklungsrichtungen, die sich in den nächsten zehn Jahren als relevant erweisen könnten. Ich beginne mit einer durch die Geschichte der Forschung und Produktentwicklung in der Informationstechnologie dokumentierten Beobachtung, die darauf hindeutet, dass es ungefähr zehn Jahre an Produkt- und Marktentwicklungsbemühungen braucht, um einen gut funktionierenden Laborprototyp in ein erfolgreiches Produkt zu verwandeln. So können wir abschätzen, was der Informationstechnologiemarkt in zehn Jahren bieten wird. Ebenso können wir anhand der heutigen Langzeitforschungsbereiche eine Vorhersage über die Themen treffen, die in der angewandten Forschung relevant sein werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35378-4_1 f6273c55e8cf09b945075b3f41f1bff7;de;;;7.3.;;;Clustering von Websuchergebnissen mit häufigem Termset-Mining Wir präsentieren eine neuartige Methode zum Clustering von Websuchergebnissen basierend auf häufigem Mining von Begriffen. Zuerst erwerben wir die Bedeutungen einer Abfrage mittels einer Wortsinn-Induktionsmethode, die Bedeutungen als Bäume geschlossener häufiger Termsets identifiziert. Dann gruppieren wir die Suchergebnisse basierend auf ihrer lexikalischen und semantischen Schnittmenge mit induzierten Sinnen. Wir zeigen, dass unser Ansatz sowohl hinsichtlich der Clusterqualität als auch des Diversifikationsgrades besser bzw. vergleichbar mit modernen klassischen Search Result Clustering Methoden ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19941-2_50 d9b7395a577feb9053fd71a55ae8a3e4;de;;;7.3.;;;Cloud-basiertes E-Learning: Ein vorgeschlagenes Modell und Vorteile durch den Einsatz von E-Learning basierend auf Cloud Computing für Bildungseinrichtungen Die zunehmende Forschung in den Bereichen der Informationstechnologie hat positive Auswirkungen auf die Welt der Bildung. Die Einführung von E-Learning ist ein Beitrag der Informationstechnologie zur Welt der Bildung. Die Implementierung von E-Learning wurde von mehreren Bildungseinrichtungen in Indonesien durchgeführt. E-Learning bietet viele Vorteile wie Flexibilität, Vielfalt, Messung usw. Die aktuellen E-Learning-Anwendungen erforderten große Investitionen in Infrastruktursysteme, unabhängig von kommerziellen oder Open Source E-Learning-Anwendungen. Wenn die Institution dazu tendiert, eine Open-Source-E-Learning-Anwendung zu verwenden, wäre es teurer, professionelles Personal für die Wartung und Aktualisierung der E-Learning-Anwendung einzustellen. Die Implementierung von E-Learning in Bildungseinrichtungen kann eine Herausforderung darstellen. Ein weiteres Problem, das bei der Nutzung des E-Learning-Trends heute auftreten kann, besteht eher darin, dass Institutionen ihr eigenes E-Learning-System selbst aufbauen. Wenn zwei oder mehr Institutionen bereit sind, ein E-Learning aufzubauen und zu nutzen, damit sie den Aufwand für die Entwicklung des Systems und den Austausch von Lernmaterialien minimieren können, ist die Wahrscheinlichkeit höher. Dieser Beitrag diskutiert den aktuellen Stand und die Herausforderungen im E-Learning und erläutert anschließend das Grundkonzept und frühere Architekturvorschläge des Cloud Computing. In diesem Beitrag schlugen die Autoren auch ein Modell für Cloud-basiertes E-Learning vor, das aus fünf Schichten besteht, nämlich: (1) Infrastrukturschicht, (2) Plattformschicht, (3) Anwendungsschicht, (4) Zugriffsschicht und (5 ) Benutzerebene. Zusätzlich zu diesem Papier haben wir auch den Paradigmenwechsel vom konventionellen E-Learning zum Cloud-basierten E-Learning dargestellt und die erwarteten Vorteile durch den Einsatz von Cloud-basiertem E-Learning beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36818-9_20 00f4935dbc7b5d8fb979db015282b2b5;de;;;7.3.;;;Kollaboratives Arbeiten mit Linear Classifier und Extreme Learning Machine zur schnellen Textkategorisierung Die Blüte des Internets hat eine schnelle Textkategorisierung sehr wichtig gemacht. Im Allgemeinen haben die gängigen Methoden eine gute Klassifikationsgenauigkeit, aber eine langsame Geschwindigkeit und umgekehrt. Dieser Beitrag schlägt einen neuartigen Ansatz zur schnellen Textkategorisierung vor, bei dem ein kollaborativer Arbeitsrahmen basierend auf einem linearen Klassifikator und einer Extreme Learning Machine (ELM) konstruiert wird. Der lineare Klassifikator, der durch einen modifizierten nicht-negativen Matrixfaktorisierungsalgorithmus erhalten wird, bildet alle Dokumente aus dem ursprünglichen Termraum direkt in den Klassenraum ab, so dass er die Klassifizierung sehr schnell durchführt. Das ELM klassifiziert mit guter Klassifikationsgenauigkeit über einige nichtlineare und lineare Transformationen einige Dokumente nach bestimmten Kriterien, um die Klassifikationsqualität des Gesamtsystems zu verbessern. Experimentelle Ergebnisse zeigen, dass das vorgeschlagene Verfahren nicht nur eine gute Genauigkeit erreicht, sondern auch eine sehr schnelle Klassifizierung durchführt, was die gemittelte Geschwindigkeit im Vergleich zu seinem entsprechenden Verfahren um 180 % verbessert.;-;-;-;https://link.springer.com/article/10.1007/s11280-013-0225-5 9d79119bd70b4742571bd0d651ed6da9;de;;;7.3.;;;Intelligente Dienste für ältere Menschen über den Fernseher Der Fernseher wird normalerweise nur als ein weiterer Kanal angesehen, um Informationen und Dienste zu empfangen. Für bestimmte Benutzer mit besonderen Bedürfnissen, wie Behinderte und ältere Menschen, könnten jedoch TV-basierte Schnittstellen der einzige geeignete Weg sein, um Schnittstellenbarrieren zu überwinden und in die Informationsgesellschaft einzutreten.;-;-;-;https://link.springer.com/article/10.1007/s10844-005-0187-x 7586dd5fb2987338394c7812d52feaaa;de;;;7.3.;;;: Deep Web Extraction zur Beantwortung von Fragen Trotz jahrzehntelanger Bemühungen bleibt die intelligente Objektsuche schwer fassbar. Weder Suchmaschinen- noch Semantic-Web-Technologien allein haben es geschafft, brauchbare Systeme für einfache Fragen wie „Such mir eine Wohnung mit Garten und mehr als zwei Schlafzimmern in der Nähe eines Supermarkts“ bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35173-0_9 17f99cbbe39a5545b286800dde33d0b6;de;;;7.3.;;;Automatische Beantwortung von Fragen aus Webdokumenten In unserem QS-System wird eine Passage-Retrieval-Strategie für webbasierte Frageantwortsysteme (QS) vorgeschlagen. Es analysiert zunächst die Frage anhand semantischer Muster, um ihre syntaktischen und semantischen Informationen zu erhalten und bildet dann erste Anfragen. Die Abfragen werden verwendet, um mit der Suchmaschine Google Dokumente aus dem World Wide Web (WWW) abzurufen. Die Abfragen werden dann umgeschrieben, um Abfragen zum Abrufen von Passagen zu bilden, um die Genauigkeit zu verbessern. Die Beziehungen zwischen den Schlüsselwörtern in der Frage werden in unserer Methode zum Umschreiben von Abfragen verwendet. Das experimentelle Ergebnis zum Fragensatz der TREC-2003-Passage-Aufgabe zeigt, dass unser System bei faktoiden Fragen gut funktioniert.;-;-;-;https://link.springer.com/article/10.1007/s11859-007-0046-4 a41024490b793a46dd6a8281942321e0;de;;;7.3.;;;Datenqualität im Semantic Web Das Semantic Web ist eine Initiative des World Wide Web Consortium (W3C) mit der Vision, das traditionelle Web, das im Wesentlichen ein Graph aus miteinander verknüpften Dokumenten ist, zu einem „Web of Data“ zu entwickeln (Berners-Lee et al., 2001, vgl. W3C, 2013). Eines der Hauptziele des Semantic Web ist die Bereitstellung von maschinell interpretierbaren Daten auf Webebene, um einen höheren Automatisierungsgrad zu erreichen und eine vollständigere Informationsverarbeitung zu ermöglichen (vgl. Berners-Lee et al., 2001). Würden beispielsweise die Preise aller Konsumgüter in maschinenlesbarer Form und Struktur im gesamten Web veröffentlicht, wären mit minimalem manuellen Aufwand umfassendere Preisvergleiche auf globaler Ebene möglich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-12225-6_5 15db36f31d75583136917d72265d196b;de;;;7.3.;;;Ein räumliches Weltmodell für das Semantic Web Das Semantic Web ist ein Bestreben, Webdaten um Metadaten und Datenverarbeitung sowie Verarbeitungsmethoden zu erweitern, die die „Bedeutung“ dieser Daten spezifizieren und es webbasierten Systemen ermöglichen, „intelligente“ Denkfähigkeiten zu nutzen. Die Darstellung der Bedeutung von Daten erfordert im Wesentlichen die Entwicklung eines Weltmodells. Ontologien zum Beispiel sind logische Beschreibungen von Weltmodellen. In diesem Beitrag untersuchen wir, was es bedeutet, ein Weltmodell für „geografische“ Daten zu entwickeln, das für Semantic-Web-Anwendungen verwendet werden kann. Verschiedene Aspekte werden analysiert und ein Vorschlag für eine konkrete Architektur entwickelt. Die Architektur berücksichtigt, dass Geodaten (Straßenkarten etc.) in der Regel im Besitz von Unternehmen sind und nur über deren Schnittstellen zugänglich sind. Der Artikel argumentiert auch, dass als Ergänzung zu Standard-Allzweck-Logik-basierten Datenmodellierungs- und Argumentationsmethoden, wie z.B. die von RDF und OWL und Reasonern für diese Sprachen angeboten werden, wird das Location Reasoning am besten mit Graphen zur Datenmodellierung und etablierten Algorithmen für das Reasoning angegangen. Daher illustriert der Artikel für den praktischen Fall des Standortschlusses zur Orientierung die These, dass im Semantic Web „Theory Reasoning“ eine wünschenswerte Ergänzung zum „Standard Reasoning“ ist.;-;-;-;https://link.springer.com/chapter/10.1007/11552222_14 c295f539765ee317e22d3af37264a684;de;;;7.3.;;;Automatische Aufgabenerkennung in den Weblogs und Analyse von Multitasking In diesem Papier beschreiben wir die konzeptionellen Grundlagen und Ergebnisse der Studie zur Erkennung von Websuchaufgaben mit Schwerpunkt auf Multitasking. Die Basis umfasst: logische Struktur eines Suchprozesses, einen Raum physikalischer Realisierungen, Abbildung einer logischen Struktur in den Realisierungsraum. Es werden Fragen zur Art und Weise der Suchrealisierung durch die Benutzer formuliert, wobei der Schwerpunkt auf der Ausführung mehrerer Aufgaben liegt. Eine automatische Analyse der Weblogs zeigt, dass Multitasking selten ist, meist umfasst es nur zwei Task-Sessions und formt sich zu einer zeitlichen Einbindung einer unterbrechenden Task-Session in die unterbrochene. Suchende folgen dem Prinzip des geringsten Aufwands und wählen die günstigste Taktik: sequentielle Aufgabenausführung in der Regel oder im seltenen Fall von Multitasking die günstigste Variante davon. Quantitative Merkmale des Suchverhaltens in 3 Klassen von zeitlichen Sitzungen (1-Aufgaben-Sitzung, mehrere Aufgaben nacheinander ausgeführt und Multitasking-Sitzung) wurden verglichen und signifikante Unterschiede aufgedeckt.;-;-;-;https://link.springer.com/chapter/10.1007/11931584_16 22c8f2883f7ed5c9846889639892fe05;de;;;7.3.;;;AQUA – Ontologie-basiertes Frage-Antwort-System Dieses Papier beschreibt AQUA, ein experimentelles Frage-Antwort-System. AQUA kombiniert Natural Language Processing (NLP), Ontologien, Logik und Information Retrieval-Technologien in einem einheitlichen Framework. AQUA verwendet in mehreren Teilen des Frage-Antwort-Systems intensiv eine Ontologie. Die Ontologie wird bei der Verfeinerung der anfänglichen Abfrage, dem Argumentationsprozess und im neuen Ähnlichkeitsalgorithmus verwendet. Der Ähnlichkeitsalgorithmus ist ein Schlüsselmerkmal von AQUA. Es wird verwendet, um Ähnlichkeiten zwischen in der übersetzten Abfrage verwendeten Beziehungen und Beziehungen in den ontologischen Strukturen zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24694-7_48 aeb2126a53a71974d229b40c471003c0;de;;;7.3.;;;Eine ökologische Momentanintervention für Gewichtsverlust und gesunde Ernährung über Smartphone und Internet: Studienprotokoll für eine randomisierte kontrollierte Studie Eine langfristige Gewichtsabnahme ist schwer zu erreichen. Die Wirksamkeit von Adipositas-Interventionen könnte durch eine erweiterte Behandlung und durch die Fokussierung auf die Mensch-Umwelt-Interaktion erhöht werden. Ecological Momentary Intervention (EMI) kann diesen beiden Faktoren Rechnung tragen, indem sie eine unbegrenzte Verlängerung eines Behandlungsprotokolls im Alltag ermöglicht. EMI stützt sich auf Beobachtungen im täglichen Leben, um durch eine angemessene Behandlung im Moment einzugreifen. Die Think Slim Intervention ist ein EMI, das auf den Prinzipien der kognitiven Verhaltenstherapie (CBT) basiert und dessen Wirksamkeit in der aktuellen Studie untersucht wird.;-;-;-;https://link.springer.com/article/10.1186/s13063-016-1280-x 63162aafc45c2eff2ee5a16f679ed93f;de;;;7.3.;;;Ein neuartiger Ansatz zur Visualisierung von Webanomalie-Angriffen in Pervasive Computing-Umgebungen Heutzutage ist eine Pervasive Computing-Umgebung ein sich schnell ändernder Trend hin zu immer mehr ständig aktiven verbundenen Computergeräten in der Konvergenzumgebung. In einer durchdringenden Computerumgebung gibt es verschiedene Multimedia-Webdienste und Kommunikationen für verschiedene Geräte, um Benutzern interessante und unschätzbare Informationen bereitzustellen. Unterdessen kann das Bereitstellen einer großen Vielfalt von webbasierten Multimediadiensten und -kommunikationen verschiedene Sicherheitsbedrohungen und abnormales Verhalten verursachen. In diesem Beitrag wird ein Multimedia-Visualisierungsansatz für Pervasive Computing-Umgebungen vorgeschlagen, der HTTP-Anforderungs- und Antwort-Header-Informationen analysiert, um Multimedia-Webangriffe basierend auf der Bayes-Methode zu erkennen und zu visualisieren. Wir haben ein Experiment mit einigen Fällen durchgeführt, um den vorgeschlagenen Ansatz in einer realen Umgebung zu verifizieren. Die experimentellen Ergebnisse wie die Visualisierung der Erkennung von Web-Angriffen, die Visualisierung von Scan- und Passwort-Angriffen sowie die Visualisierung der Positionsverfolgung des Angreifers bestätigen die Brauchbarkeit des vorgeschlagenen Ansatzes.;-;-;-;https://link.springer.com/article/10.1007/s11227-010-0520-1 9b9e2216c9a5ce84eee272b9fa190930;de;;;7.3.;;;Verbesserte Sicherheit für Wireless Lans und Wans im Unternehmen: Hands on Drahtlose LANs werden aufgrund der Bequemlichkeit und Flexibilität, die sie bieten, schnell angenommen. Allerdings schaffen WLANs neue Sicherheitsbedrohungen für Unternehmensnetzwerke wie Rogue APs, falsch konfigurierte APs, Soft APs, MAC Spoofing, Honeypot APs, DOS und Ad-hoc-Netzwerke.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-29845-0_4 213c4dac299aa2848f5396d788d0b0a6;de;;;7.3.;;;Die Erforschung und Anwendung von Webservices in der Enterprise Application Integration Derzeit verfügen die meisten Unternehmen über eine heterogene Umgebung mit Legacy-Anwendungen, die zu vielen „Informationsinseln“ führt. Unternehmen sind immer mehr daran interessiert, Daten in Geschäftsprozessen über verschiedene Systeme hinweg auszutauschen. Herkömmliche Methoden der Enterprise Application Integration (EAI) integrieren normalerweise Anwendungen von Peer zu Peer, was viele Mängel aufweist. In diesem Beitrag wurde eine Art EAI-Framework auf Basis von Web Services (WSEAI) vorgestellt, das mit keiner Plattform und Programmiersprache zusammenhängt, um die Unternehmensanwendungen lückenlos miteinander zu integrieren. Wir haben das EAI-Framework erfolgreich in das WebGPS-System eines Logistikunternehmens implementiert und die Integration auf Basis von Web Services realisiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75902-9_20 f8a13ca5ac347024bf12fe76d745c9ad;de;;;7.3.;;;Intelligenter Caching-Algorithmus für Software-Agenten basierend auf der Wahrscheinlichkeit einer erneuten Ausführung In diesem Papier schlagen wir eine neue, intelligente Strategie für effizientes Caching von benutzerdefinierten Softwareagenten vor. Die Strategie basiert auf der Einrichtung einer minimalen und maximalen Caching-Zeit für einzelne Agenten. Diese Timings werden auf der Grundlage einer Art des Anrufens eines Agenten (Typ des einen Anruf bedienenden Eingabe-/Ausgabe-Gateways, frühere Anrufe an denselben Agenten usw.) einerseits und der vergangenen/aktuellen/vorhergesagten Systemlast, einschließlich wartender Anrufe, die in naher Zukunft für denselben und andere Agenten bedient werden sollen. Wie die Tests in realen Anwendungen belegen, ist die Strategie effizient, insbesondere im Fall eines Massensystems mit Tausenden und sogar Millionen von Agenten, die von verschiedenen Benutzern besessen (und möglicherweise programmiert) werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74481-8_17 3a5ecfc274fbe8a9a5f0f4ac0cfe1c0b;de;;;7.3.;;;Hybrid Adaptive Web Service Selection mit SAWSDL-MX und WSDL-Analyzer In diesem Papier stellen wir einen adaptiven, hybriden semantischen Matchmaker für SAWSDL-Dienste vor, genannt SAWSDL-MX2. Es bestimmt drei Arten semantischer Dienstähnlichkeit mit einer gegebenen Dienstanforderung, nämlich logikbasierte, textbasierte und strukturelle Ähnlichkeit. Insbesondere wird der Grad der strukturellen Dienstähnlichkeit durch das WSDL-Analyzer-Tool [12] mittels XMLS Tree Edit Distance Measurement, string-basiertem und lexikalischem Vergleich der jeweiligen XML-basierten WSDL-Dienste berechnet. SAWSDL-MX2 lernt dann die optimale Aggregation dieser verschiedenen Übereinstimmungsgrade über eine Teilmenge einer Testsammlung SAWSDL-TC1 basierend auf einem maschinenbasierten Klassifikator mit binärem Support-Vektor. Schließlich vergleichen wir die Abrufleistung von SAWSDL-MX2 mit einer nicht-adaptiven Matchmaker-Variante SAWSDL-MX1 [1] und der unkomplizierten Kombination ihrer logikbasierten einzigen Variante SAWSDL-M0 mit WSDL-Analyzer.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02121-3_41 ea3a7a6f4a7ced5e10728e505c462458;de;;;7.3.;;;Auftragserfassung und -abwicklung in der virtuellen Fabrik Die Einrichtung virtueller Organisationen wie der virtuellen Fabrik ist eine neue Art der Geschäftstätigkeit, bei der Unternehmen erfolgreich zusammenarbeiten können, um neue Märkte zu erschließen, die sie alleine nie erreichen können. Dieses Papier stellt die Auftragserfassung und -verarbeitung durch eine webbasierte Intranet-Plattform vor. Über die Intranet-Kommunikation können alle Partnerunternehmen Projekte einstellen und mögliche Kooperationspartner suchen. Über das Internee-Portal kann ein Kunde eine Anfrage an die virtuelle Fabrik stellen, die dann über ein internes Auftragsmanagement an alle Partner übermittelt wird. In einem nächsten Schritt können alle Partner die Nachfrage sehen oder versuchen, den Auftrag zu erfüllen. Das Papier zeigt, dass Rollen und Regeln in einer virtuellen Organisation neben IKT sehr wichtige Themen sind. Der Beitrag stellt auch vor, wie die net2net-Kommunikation zwischen drei weiteren virtuellen Fabriken in der Schweiz und in Deutschland nach dem gleichen Konzept aufgebaut ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35704-1_10 41d895faff5649c6ac00449d898dbd43;de;;;7.3.;;;Semantische Annotationen und Abruf: Manuelle, halbautomatische und automatische Generierung Die semantische Annotation von textuellen Webinhalten ist der Schlüssel zum Erfolg des Semantic Web. Dieser Beitrag gibt einen Überblick über wichtige Ansätze und State-of-the-Art-Systeme und zieht Schlussfolgerungen zu noch offenen Herausforderungen und zukünftigen Arbeiten.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-540-92913-0_3 18778fb6c22f4f6d423a004b433f01ea;de;;;7.3.;;;Eine multimodale Suchmaschine für medizinische Bildgebungsstudien Der Einsatz digitaler medizinischer Bildgebungssysteme in Gesundheitseinrichtungen hat stark zugenommen, und die großen Datenmengen in diesen Systemen haben zur Konzeption leistungsfähiger Unterstützungsinstrumente geführt: aktuelle Studien zum inhaltsbasierten Bildabruf (CBIR) und zum multimodalen Informationsabruf in den in birgt großes Potenzial in der Entscheidungsunterstützung sowie bei der Bewältigung zahlreicher Herausforderungen in Gesundheitssystemen, wie z. B. der computergestützten Diagnose (CAD). Das Thema wird jedoch noch intensiv erforscht und nur sehr wenige Lösungen sind Teil von Bildarchivierungs- und Kommunikationssystemen (PACS) in Krankenhäusern und Kliniken geworden. Dieses Papier schlägt eine erweiterbare Plattform für den multimodalen medizinischen Bildabruf vor, die in eine Open-Source-PACS-Software mit profilbasierten CBIR-Funktionen integriert ist. In diesem Artikel beschreiben wir einen technischen Ansatz für das Problem, indem wir seine Hauptarchitektur und jede Unterkomponente sowie die verfügbaren Webschnittstellen und die angewendeten multimodalen Abfragetechniken beschreiben. Schließlich bewerten wir unsere Implementierung der Engine mit Benchmarks zur Rechenleistung.;-;-;-;https://link.springer.com/article/10.1007/s10278-016-9903-z 1e2938420cd6b077f963d1439142f0e4;de;;;7.3.;;;Anwendung von elektronischer Währung im Online-Zahlungssystem wie PayPal Das Kreditkartenzahlungssystem ist die beliebteste Art, einen Einkauf im elektronischen Geschäftsverkehr zu tätigen. Das Hauptproblem bei der Verwendung besteht darin, dass der Kunde dem Händler oder Zahlungsdienstleister beim Kauf im Internet seine persönlichen Daten und Kreditkartennummer mitteilt. Das Ergebnis dieser Aktion ist der Verlust der Anonymität und Privatsphäre des Kunden sowohl in der realen Welt als auch im Internet. Wir schlagen ein neues elektronisches Währungssystem vor, das Anonymität und Privatsphäre der Kunden garantiert. Außerdem integrieren wir unser Schema in das PayPal-System.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-39229-5_5 e1ebffe14d2380a1e9f6fff02406e6a2;de;;;7.3.;;;Implementieren von Forensic Readiness mit Leistungsüberwachungstools Dieses Papier schlägt den Einsatz von Überwachungstools zur Datenaufzeichnung zur Unterstützung digitaler forensischer Untersuchungen vor. Die Sammlung von Live-Systemdaten erfordert Integritätsprüfungen und Datenvalidierung, während die Daten gesammelt und gespeichert werden. Die Kombination von Systemüberwachung und digitaler forensischer Funktionalität in einem einzigen System reduziert die Kosten und die Komplexität von Verwaltung und Wartung und verbessert gleichzeitig die forensische Bereitschaft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33962-2_18 8d92464b297ffa5ca2ee4fbf3ff46f81;de;;;7.3.;;;Messung der Entwicklung von Internet-Peering-Vereinbarungen Es besteht großes Interesse daran, die Struktur und Entwicklung des Internets auf der Ebene der autonomen Systeme (AS) zu untersuchen. Aufgrund der Beschränkungen öffentlicher Datenquellen bei der Erkennung siedlungsfreier Peering-Verbindungen konzentrierten sich die früheren Arbeiten jedoch fast ausschließlich auf Transitverbindungen. In dieser Arbeit untersuchen wir die Möglichkeit, die vollständige Konnektivität einer kleinen Menge von ASen zu untersuchen, die wir als bezeichnen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30054-7_11 b4277a9e10b47e0b742f6251815242c7;de;;;7.3.;;;Leistungsstarke Online-Präsentation komplexer 3D-Szenen Die Online-Präsentation virtueller 3D-Objekte im Web, basierend auf Internet-Standards, ist aufgrund mehrerer Performance-Engpässe, Qualitätseinschränkungen und fehlender Funktionalität eingeschränkt. Insbesondere im wissenschaftlichen Kontext, wo leistungsfähige Client-, Server- und Netzwerkgeräte vorhanden sind und Anforderungen an eine hohe Komplexität der dargestellten 3D-Geometrie gegeben sind — z. g. im Fall der wissenschaftlichen Visualisierung großer Datensätze – wird die potenzielle Leistung eines solchen Szenarios nicht genutzt. Dieser Beitrag beschreibt das Konzept, die Implementierung und die Evaluierung eines optimierten Viewers, basierend auf einem neuen 3D-Stream-Format. Das Design dieser 3D-Darstellung und die im Viewer realisierten Strategien wurden auf Effizienz getrimmt, insbesondere um hohe Bitraten zu nutzen, um kurze Latenzzeiten zu erzielen. Dies führte zur Möglichkeit, Sequenzen von 3D-Objekten zu streamen, indem das „Real Time Streaming Protocol“ (RTSP) verwendet wird, um eine on-the-fly-Präsentation als 3D-Film, frei navigierbar auf Client-Seite, mit Virtual-Reality-Methoden, wie z stereoskopische Darstellung in Verbindung mit Trackingsystemen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35388-3_27 bdac42ee002cd8902ec328132679600a;de;;;7.3.;;;Verwendung von Wikipedia zur Verbesserung der Präzision von kontextbezogener Werbung Kontextuelle Werbung ist heute ein wichtiger Bestandteil der Webökonomie. Der Gewinn ist an das Interesse geknüpft, das Nutzer an den ihnen präsentierten Anzeigen finden. Das Problem für kontextbezogene Werbeplattformen besteht darin, die relevantesten Anzeigen auszuwählen. Einfache Keyword-Matching-Techniken zum Abgleichen von Anzeigen mit Seiteninhalten liefern eine geringe Genauigkeit. Probleme wie Homonymie, Polysemie, begrenzte Schnittmenge zwischen Inhalts- und Auswahl-Keywords sowie Kontext-Nichtübereinstimmung können die Präzision der Anzeigenauswahl erheblich beeinträchtigen. In diesem Papier schlagen wir eine Methode vor, um die Relevanz von kontextbezogenen Anzeigen basierend auf dem „Wikipedia-Matching“ zu verbessern. Es ist eine Technik, die Wikipedia-Artikel als „Referenzpunkte“ für die Anzeigenauswahl verwendet. In unserer Forschung haben wir an der englischen Sprache gearbeitet, aber es ist möglich, den Algorithmus auf andere Sprachen zu portieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20095-3_49 00c731510db476588e28d5feb98cdedc;de;;;7.3.;;;Lehrer in der mobilen Welt In diesem Beitrag diskutieren wir drahtlose Technologien und ihre Rolle in pädagogischen Anwendungen und im Lehreralltag. Heute haben wir bereits leistungsstarke Handheld-Geräte mit drahtloser Internetverbindung. Die Geschichte hat gezeigt, dass neue Technologien oft nur verwendet werden, um die gleichen Aufgaben wie frühere Technologien zu erfüllen. Handheld-Geräte könnten Lehrern neue Möglichkeiten eröffnen, aber nicht durch einfaches Umwandeln aktueller WWW-Inhalte in Handheld-Geräte. Wie lassen sich diese Technologien am besten anwenden? In diesem Beitrag präsentieren wir die Ergebnisse der Studie über finnische Jugendliche als Nutzer von Mobiltelefonen. Basierend auf dieser Studie können wir sagen, dass die finnische Jugend bereit ist, neue mobile Technologien für den täglichen Gebrauch zu übernehmen. Darüber hinaus diskutieren wir drei aktuelle Mainstream-Technologien, nämlich Wireless Application Protocol (WAP), Java MIDIet und PocketPC als Beispiele für neue mobile Technologien und Implementierungsplattformen. Insbesondere versuchen wir, uns darauf zu konzentrieren, wie Lehrer diese Technologien in ihrem Unterricht anwenden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35701-0_29 ef9c0892b7961a7f188935c85a743bb4;de;;;7.3.;;;Abfragen von UML/XMI-Designinformationen In diesem Papier beschäftigen wir uns mit dem Problem des Abfragens, Navigierens und Austauschens von UML-Designartefakten, einschließlich Komponentenschnittstellen, konzeptioneller Schemata und dergleichen. Unser Ansatz basiert auf einer Hierarchie von XML-basierten Deskriptoren für UML-Komponenten, die sowohl funktionale als auch nicht-funktionale Merkmale von Artefakten darstellen. Nachdem eine „abfragefreundliche“ DTD für solche Deskriptoren vorgestellt wurde, erläutert der Artikel Probleme im Zusammenhang mit der Abfrage und dem Durchsuchen von Design-Repositorys. Wir zeigen, wie unser Ansatz auch verbindungsorientierte Dienste wie beispielsweise HTTP-basierte Websites adressieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-1834-5_50 2156fdf9ddc2b7791013a7ef345115bf;de;;;7.3.;;;Unterstützung von Clear: Eine Strategie für die Einführung von E-Business-Praktiken in kleinen und mittleren Unternehmen in Atlantik-Kanada Die erfolgreiche Einführung von E-Business-Praktiken für kleine und mittlere Unternehmen erfordert die Schaffung eines Geschäftsumfelds für eine innovationsbasierte Wirtschaft. In investitionsbasierten Volkswirtschaften wie Kanada, die vom Reichtum an natürlichen Ressourcen abhängen, gibt es noch nicht das notwendige Umfeld. In Kanada werden hervorragende Leistungen bei der Schaffung eines Geschäftsumfelds für die wissensbasierte Wirtschaft in Silos inmitten einer Mischung aus formellen und informellen Bemühungen auf verschiedenen Regierungsebenen geschaffen. Dieses Papier beschreibt die universitäre Unterstützung für CLEAR, ein Akronym für Coordinated Learning for E-Business Adoption, Research, and Resources, eine Strategie zur Beschleunigung der Einführung des E-Business in KMU (kleine und mittlere Unternehmen) in Atlantik-Kanada. Zur Bewältigung von Problemen wie isolierten Exzellenzsilos, schlechter Kommunikation und nicht vorhandenem Wissensaustausch, Mentoring, Bereitstellung und Messmechanismen für den elektronischen Geschäftsverkehr ist CLEAR in einem Netzwerk starker Forschungskooperationen mit Universitäten, privaten und öffentlichen Verbänden verankert. Unternehmen des privaten Sektors, private und öffentliche Institutionen und Agenturen für Innovation und Wertschöpfung. Neu an CLEAR ist, dass das Management der CLEAR-Netzwerkaktivitäten in universitären Business Schools im Vergleich zu Regierungsbehörden stattfinden soll, wodurch die Forschungskapazitäten und die betriebswirtschaftliche Expertise in der Region genutzt werden. Der erwartete Wert liegt in der Aggregation und Ausrichtung von Ressourcen, Kapazitäten und Fähigkeiten im E-Business mit den Bedürfnissen der KMU-Unternehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35692-1_10 6cea2fd5cca5ec00a69a4b8b0c838095;de;;;7.3.;;;Aufbau eines gemischten Lerngemeinschaftsmodells für ESP-Lehrer vor dem Hintergrund von „Internet+“ Mit dem Fortschritt und der Entwicklung moderner Technologien ist die Internettechnologie bereits in verschiedene Branchen vorgedrungen und somit ein Teil des Lebens der Menschen geworden. Unter dem Hintergrund von „Internet+“ hat sich auch der englische Hochschulunterricht verändert. Die Vielfalt der Lernansätze und -methoden der Schüler hat auch die Lehrer dazu veranlasst, die traditionellen Unterrichtsmethoden und -methoden zu ändern. Basierend auf der Analyse der Lehrfähigkeit von ESP-Lehrern analysiert dieser Beitrag das Modell der gemischten Lerngemeinschaft von Lehrern im Kontext des Internets, konstruiert eine gemischte professionelle Lerngemeinschaft von Lehrern mit gemischten Attributen in vier Aspekten: Mitglieder, Ziele, Vermittler und Mechanismen und führt Fallstudien durch. Die Praxis hat bewiesen, dass die gemischte professionelle Lerngemeinschaft von Lehrkräften die Fähigkeiten von ESP-Lehrern in Bezug auf fachliche Wissensreserven, Englischkenntnisse, Unterrichtsgestaltung und Unterrichtsforschung verbessern und zu einem neuen Entwicklungspfad für ESP-Lehrer werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-74814-2_77 2388cc0167b54dd9d56151cdc95e5d52;de;;;7.3.;;;Entitätsempfehlungen in der Websuche Während einige Benutzer der Websuche genau wissen, wonach sie suchen, sind andere bereit, sich mit Themen zu beschäftigen, die mit einem anfänglichen Interesse zusammenhängen. Häufig kann das anfängliche Interesse des Benutzers eindeutig mit einer Entität in einer Wissensdatenbank verknüpft werden. In diesem Fall ist es selbstverständlich, die explizit verlinkten Entitäten zur weiteren Erkundung zu empfehlen. In realen Wissensdatenbanken kann die Anzahl der verknüpften Entitäten jedoch sehr groß sein und nicht alle verbundenen Entitäten können gleichermaßen relevant sein. Daher besteht ein Bedarf an einer Rangordnung verwandter Entitäten. In diesem Artikel beschreiben wir Spark, eine Empfehlungsmaschine, die die anfängliche Abfrage eines Benutzers mit einer Entität innerhalb einer Wissensdatenbank verknüpft und ein Ranking der zugehörigen Entitäten bereitstellt. Spark extrahiert mehrere Signale aus einer Vielzahl von Datenquellen, darunter Yahoo! Websuche, Twitter und Flickr mit einem großen Cluster von Computern, auf denen Hadoop ausgeführt wird. Diese Signale werden mit einem maschinell erlernten Ranking-Modell kombiniert, um eine endgültige Empfehlung von Entitäten für Benutzeranfragen zu erstellen. Dieses System versorgt derzeit Yahoo! Ergebnisseiten der Websuche.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41338-4_3 7c3385e6f0005f2e1fbc92706976c48a;de;;;7.3.;;;Eine umfassende Synthese der Forschung Der Weltgipfel zur Informationsgesellschaft (WSIS) arbeitet daran, Bildungs- und Gemeinschaftseinrichtungen mit Menschen mit geringen Ressourcen zu verbinden, die unter Herausforderungen leiden, die für andere schwer zu fassen sind. Ziel ist es, durch den Einsatz von Informations- und Kommunikationstechnologie (IKT) Kapazitäten aufzubauen. In diesem Beitrag wird eine umfassende Synthese der Forschung zu IKT im Bildungswesen mit dem Ziel gegeben, die Planung und Maßnahmen des WSIS durch die Zusammenführung von Politik- und Forschungsberichten mit Schwerpunkt auf formaler Bildung in Schulen und Universitäten zu unterstützen. Die Synthese liefert ein Bild einer komplexen Situation, indem sie vier Gründe für Investitionen in IKT im Bildungsbereich berücksichtigt: wirtschaftliche Wettbewerbsfähigkeit, IKT zur Steigerung des Bildungsniveaus, IKT zur Verbesserung des Zugangs zur Bildung und IKT als Katalysator für die Erneuerung der Bildung. Es verdeutlicht die komplexen Herausforderungen für ein solches Reengineering, das eine nachhaltige interdisziplinäre und interkulturelle Zusammenarbeit erfordert, um die Vielfalt unserer entstehenden Wissensgesellschaften zu unterstützen. Diese Synthese ist in Arbeit. Die Autoren bitten um Feedback und zusätzliche Verweise auf Forschungsberichte, insbesondere auf Forschungsergebnisse für die vielen unterrepräsentierten Bevölkerungen der Welt.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-23120-X_1 7e9faf017c215f1d97617d0c62a0850e;de;;;7.3.;;;Lehrerentwicklung in der IKT: Vision und Umsetzung Der Beitrag stellt die Philosophie und Praxis der Fakultät für Informationstechnologien und des Lehrerbildungszentrums der Fakultät für Mathematik und Informatik der Universität Sofia im Zusammenhang mit der Lehrerentwicklung in Informations- und Kommunikationstechnologien vor. Der konzeptionelle Rahmen für die Lehrerfortbildung verlangt einen integrierten Lösungsansatz: Die verschiedenen Formen der Lehrerfortbildung und -fortbildung werden mit Aktivitäten kombiniert, die auf eine Beeinflussung des Systems der Lehrerinnen und Lehrer abzielen. Der Ansatz bettet das Paradigma „Lehrer als Agenten des Wandels“ ein und zielt darauf ab, sowohl vertikale (zwischen den Forschungs- und Ausbildungseinheiten und Lehrkräften) als auch horizontale (unter den Lehrkräften selbst) nachhaltige Verbindungen zu schaffen, um schließlich eine informelle Berufsgesellschaft von Forschern, Ausbildern und Lehrkräften aufzubauen, die kommunizieren, zusammenarbeiten und teilen. Die Lehrkräfteentwicklungsprozesse werden in einem universitären Umfeld initiiert, in dem Forschung, Entwicklung und Lehre eng verzahnt sind. Dies schafft Mehrwertmöglichkeiten und Erfahrungen für die teilnehmenden Lehrkräfte. Der Umfang der Aktivitäten umfasst Workshops und Seminare für Lehrer, Strategie- und Lehrplanentwicklung in IKT, Entwicklung von Lernsoftware und Lernmaterialien, Durchführung von Bildungs- und Forschungsprojekten, Aufbau von W W W-Unterstützungsumgebungen für Lehrer.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35403-3_6 2e22e00ddbab2ddf40de9ea98731342f;de;;;7.3.;;;Die KI-Härte von CAPTCHAs impliziert keine robuste Netzwerksicherheit Ein CAPTCHA ist ein spezieller KI-Hardtest, um zu verhindern, dass sich Bots in Computersysteme einloggen. Wir definieren einen harten KI-Test als ein Problem, das für einen Computer im allgemeinen Konsens der KI-Community schwer zu lösen ist. Im Internet werden CAPTCHAs typischerweise verwendet, um zu verhindern, dass sich Bots für unrechtmäßige E-Mail-Konten anmelden oder um Ticket-Scalping auf E-Commerce-Websites zu verhindern. Wir haben festgestellt, dass eine populäre und verteilte Architektur zum Implementieren von CAPTCHAs, die im Internet verwendet werden, ein fehlerhaftes Protokoll aufweist. Folglich funktioniert die Sicherheit, die das CAPTCHA bieten sollte, nicht und ist unwirksam, um Bots fernzuhalten. In diesem Artikel wird der Fehler im Protokoll der verteilten Architektur erörtert. Wir schlagen ein verbessertes Protokoll vor, während die aktuelle Architektur intakt bleibt. Wir haben einen Bot implementiert, der 100 % effektiv beim Brechen von CAPTCHAs ist, die dieses fehlerhafte Protokoll verwenden. Darüber hinaus beweist unsere Implementierung des verbesserten Protokolls, dass es nicht angreifbar ist. Wir verwenden zwei beliebte Websites, tickets.com und youtube.com, um unseren Standpunkt zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-73655-6_24 b639112403742bc7ce0d5d9a1a92c7fd;de;;;7.3.;;;Automatische Schlüsselwortextraktion mit Worteinbettungen Unüberwachte Zufallsweg-Schlüsselphrasenextraktionsmodelle beruhen hauptsächlich auf globalen Strukturinformationen des Wortgraphen, wobei Knoten Kandidatenwörter darstellen und Kanten die Informationen über das gemeinsame Auftreten zwischen Kandidatenwörtern erfassen. Die Verwendung der Worteinbettungsmethode zum Integrieren mehrerer Arten nützlicher Informationen in das Random-Walk-Modell, um die Schlüsselphrasen besser zu extrahieren, ist jedoch relativ unerforscht. In diesem Beitrag schlagen wir eine Random-Walk-basierte Ranking-Methode vor, um Schlüsselphrasen mithilfe von Worteinbettungen aus Textdokumenten zu extrahieren. Insbesondere entwerfen wir zuerst ein Einbettungsmodell für einen heterogenen Textgraphen, um lokale Kontextinformationen des Wortgraphen (d. h. die lokalen Wortkollokationsmuster) mit einigen entscheidenden Merkmalen von Kandidatenwörtern und Kanten des Wortgraphen zu integrieren. Dann wird ein neuartiges Rangordnungsmodell auf Random-Walk-Basis entworfen, um Kandidatenwörter zu bewerten, indem solche gelernten Worteinbettungen genutzt werden. Schließlich wird ein neues und generisches auf Ähnlichkeit basierendes Phrasenbewertungsmodell unter Verwendung von Worteinbettungen vorgeschlagen, um Phrasen zu bewerten, um Phrasen mit der höchsten Punktzahl als Schlüsselphrasen auszuwählen. Experimentelle Ergebnisse zeigen, dass die vorgeschlagene Methode acht hochmoderne unbeaufsichtigte Methoden an drei realen Datensätzen für die Schlüsselphrasenextraktion durchweg übertrifft.;-;-;-;https://link.springer.com/article/10.1007/s00500-019-03963-y a8b48d51bf65134ac0b63b7174086742;de;;;7.3.;;;Ländliches E-Health-Care-Modell Ein ländliches E-Healthcare-Modell ist erforderlich, um die Rolle der Informations- und Kommunikationstechnologien (IKT) für die ländliche Entwicklung durch die indische Regierung zu demonstrieren. Den Bürgern in den Dörfern wird die grundlegende Gesundheitsversorgung vorenthalten. Die Sterblichkeitsrate ist bei Frauen und Kindern höher. Die staatlichen Krankenhäuser sind in einem sehr schlechten Zustand. Viele Bürger haben keine Krankenhäuser im Umkreis von 20 km. In diesem Papier werden die Herausforderungen bei Design und Infrastruktur für den Aufbau eines ländlichen Gesundheitssystems erläutert. Viele Staaten verfügen über bestehende Infrastrukturen und Einrichtungen, die als State Wide Area Networks (SWAN) bezeichnet werden. Dieses ländliche Gesundheitsmodell hat das Ziel, die SWAN-Einrichtung zu nutzen, um die Kosten und die Geschwindigkeit der Realisierung zu reduzieren. Es ist ein erheblicher Aufwand erforderlich, um die ICT-Lösungen durch einen gut verwalteten Software-Engineering-Prozess zu entwerfen und zu entwickeln. Das Projektmanagementteam muss exzellente Managementtechniken anwenden, um die Nachhaltigkeit zu gewährleisten. Ziel und Idee dieses Papiers ist es, verfügbare Technologien, neue Hardware, Softwarepläne, Herausforderungen und Probleme im Zusammenhang mit dem IKT-Gesundheitsmodell für den ländlichen Raum vorzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0129-1_49 d406471b4bfaa994b4bbedc75a1de9fa;de;;;7.3.;;;Ein für die Sensing Nodes des Internet of Things geeignetes Verhaltensmessmodell Das Internet der Dinge verbindet eine große Anzahl realer Objekte mit dem Internet durch eine Vielzahl von Sensortechnologien und ist ein Netzwerk, das das Konzept der verbundenen Objekte umsetzt. Da jedoch ein neues Netzwerkkonzept aufgrund seiner großen Anzahl und Vielfalt von Endgeräten, breitem Verbreitungsgebiet, die traditionellen Sicherheitsmechanismen nicht an die Architektur des Internets der Dinge (IoT) angepasst sind und die bestehenden Forschungen die statischen Informationen von Sensing Nodes, um das Vertrauen von Sensing Nodes zu messen und zu beurteilen. Dies führt dazu, dass das Echtzeit-Vertrauen des Internets der Dinge schwer zu beurteilen ist. Daher beabsichtigt dieses Papier ein Verhaltensmessmodell, das für die Messknoten des Internets der Dinge geeignet ist, um den unzureichenden Messmechanismus von Messknoten des Internets der Dinge auszugleichen. Dieses Modell ist für das Internet der Dinge konzipiert und basiert auf der Identitätsauthentifizierung und der statischen Messung, um das Verhalten von Sensorknoten zu messen. Es entwickelt verschiedene Verhaltensmessfunktionen, um das Verhalten von Sensorknoten synthetisch zu bewerten und zu berechnen. Entsprechend der vertrauenswürdigen Ebene von Sensing Nodes kann dieses Modell Angriffe wie den Node-Hijacking-Angriff, die Physical Capture-Angriffe und Denial-of-Service-Angriffe abwehren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-5913-2_10 40c3e1729ac17184d735370b6b85fc96;de;;;7.3.;;;Internet-Werbestrategie basierend auf Informationswachstum in der Zettabyte-Ära Diese Forschung stellt eine neue Methode zur Bewertung und praktischen Nutzung des Informationswachstums im Internet vor. Die Methode basiert auf den Statistiken „Internet in Real Time“, die von WebFX- und Worldometer-Tools bereitgestellt werden, und entwickelt eine Kombination dieser beiden Optionen. Eine methodenbasierte Anwendung wird mit den folgenden fünf Live-Zählern bereitgestellt:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63119-2_36 620503dee7e16ac9463b942f003b0ba6;de;;;7.3.;;;Indizierung und Abruf von Webdokumenten Die Indexierung von Webdokumenten ist ein wichtiger Bestandteil jeder Suchmaschine (SE). Die Qualität der Indizierung hat einen überwältigenden Einfluss auf die Effektivität des Abrufs. Ein Dokumentenindex ist ein Satz von Begriffen, der den Inhalt (Thema) des Dokuments anzeigt und hilft, ein bestimmtes Dokument von anderen Dokumenten in der Dokumentensammlung zu unterscheiden. Eine geringe Indexgröße kann zu schlechten Ergebnissen führen und einige relevante Elemente übersehen. Eine große Indexgröße ermöglicht das Abrufen vieler nützlicher Dokumente zusammen mit einer beträchtlichen Anzahl irrelevanter Dokumente und verringert die Suchgeschwindigkeit und Effektivität des gesuchten Elements. Obwohl das Problem seit vielen Jahren untersucht wurde, gibt es immer noch keinen Algorithmus, um die optimale Indexgröße und die optimalen Indexbegriffe zu finden. Dieses Papier zeigt, wie verschiedene Attribute des Webdokuments (nämlich;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36456-0_62 72b4a2156be48a4767dc034400b7391c;de;;;7.3.;;;Stärkung des Webbenutzers mit einem Browserver Obwohl wir unsere Dienstleistungen bereits im Web anbieten, werden wir nicht als Dienstleister gesehen. Elektronische und menschliche Dienste passen immer noch nicht zusammen, und das liegt zum Teil an der fehlenden Interoperabilität und einer generischen und universell verwendeten Benutzeroberfläche für Dienste. Webbenutzer sind immer noch nur Verbraucher von Diensten und Ressourcen, die andere Entitäten bereitstellen, und können ihre eigenen Fähigkeiten nicht im Web veröffentlichen. In diesem Papier befassen wir uns mit der Ermächtigung des Web-Benutzers mit einem Web-Service-Server, der es ihm ermöglicht, Dienste bereitzustellen und mit anderen Benutzern und elektronischen Diensten in einem vollständigen Dienstparadigma zu interagieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16402-6_8 4781431ed817007f8b14e39bb3dab8cf;de;;;7.3.;;;Reduzierung redundanter Informationen in Suchergebnissen mithilfe von Approximationsalgorithmen Es ist allgemein anerkannt, dass es viele Webdokumente gibt, die identische oder nahezu identische Informationen enthalten. Moderne Suchmaschinen haben Dublettenerkennungsalgorithmen entwickelt, um dieses Problem in den Suchergebnissen zu beseitigen, aber es bleiben weiterhin Schwierigkeiten, hauptsächlich weil die Struktur und der Inhalt der Ergebnisse nicht geändert werden konnten. In dieser Arbeit schlagen wir eine effektive Methode vor, um redundante Informationen aus Suchergebnissen zu entfernen. Unter Verwendung früherer Methoden extrahieren wir aus den Suchergebnissen eine Reihe von zusammengesetzten Dokumenten namens;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10085-2_22 f6513d5f38c30fd7edfa63299acaa872;de;;;7.3.;;;Ein ontologisches Konzept der Informatisierung wissenschaftlicher Untersuchungen Prinzipien der Konkretisierung und Entwicklung des Noosphärenparadigmas werden formuliert, wie sie auf Probleme der modernen wissenschaftlichen Forschung angewendet werden. Es zeigt sich, dass gerade die transdisziplinäre Herangehensweise an solche Untersuchungen und auch eine effiziente Zusammenarbeit von Expertenteams aus unterschiedlichen Fachgebieten die Möglichkeit zur Konstruktion eines wissenschaftlichen Weltbildes und eines globalen Wissensnetzwerks bieten, die die Grundlage der Noosphärengenese bilden . Gleichzeitig ermöglicht der ontologische Ansatz zur Darstellung und Integration wissenschaftlicher Erkenntnisse die Schaffung effizienter Werkzeuge für die Konstruktion von Systemen und eine technologische Basis für die Systemologie transdisziplinärer Interaktion und ontologisches Engineering.;-;-;-;https://link.springer.com/article/10.1007/s10559-016-9793-6 cafeadf250422ed8e9e35cf29608f772;de;;;7.3.;;;ScholOnto: ein ontologiebasierter digitaler Bibliotheksserver für Forschungsdokumente und Diskurse Das Internet wird schnell zum ersten Ort für Forscher, um Dokumente zu veröffentlichen, aber derzeit erhalten sie wenig Unterstützung bei der Suche, Verfolgung, Analyse oder Diskussion von Konzepten in einer Literatur aus wissenschaftlicher Perspektive. Dieses Papier beschreibt das Designprinzip und die Implementierung von;-;-;-;https://link.springer.com/article/10.1007/s007990000034 6044e9637efd74954f31c7d8413d4a94;de;;;7.3.;;;Informations- und Kommunikationskompetenzen für Studierende Das allgemeine Ziel dieses Kapitels ist es, einen Überblick über die wichtigsten Ergebnisse der Bildungsforschung zu geben, die sich mit 1) dem Konzept der IKT-Kompetenz, 2) der Bewertung von IKT-Kompetenzen und 3) mit den Unterschieden in den IKT-Kompetenzen zusammenhängenden Merkmalen befasst. Konkret wird der Zusammenhang zwischen Schüler-, Lehrer- und Schulstufenmerkmalen und den IKT-Kompetenzen von Grundschülern im Kontext einer direkten, leistungsbasierten Beurteilung beschrieben. Am Ende des Kapitels werden drei grundlegende Themen diskutiert, die für die zukünftige Forschung wichtig sind, nämlich 1) der Unterschied zwischen der theoretischen und empirischen Dimensionalität von IKT-Kompetenzen, 2) die Entwicklung benutzerfreundlicher Assessmentinstrumente und 3) der Bedarf an Forschung mit Schwerpunkt auf alternativen IKT-Kompetenzen.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-319-71054-9_22 7fd17013c43005ea7936f8411cea249f;de;;;7.3.;;;Neuartiges Konzept von Abfrage-Prototyp und Abfrage-Ähnlichkeit für die semantische Suche Dieses Papier ist die Erweiterung der Arbeit, die die Gesamtfunktion des vorgeschlagenen intelligenten semantischen Informationsabrufsystems (IR) untersucht. Das Ziel des vorgeschlagenen Designs ist es, die Leistung des populären Schlüsselwort-basierten Suchsystems unter Verwendung eines semantischen Ansatzes zu verbessern. Es sucht nach dem neuartigen Konzept des Abfrageprototyps und der Abfrageähnlichkeit, das ein vielversprechendes Paradigma des vorgeschlagenen Designs ist, um die vom Benutzer eingegebene Abfrage mit dem im System definierten genauen Prototyp abzugleichen und dadurch den Dienst zu identifizieren und dementsprechend die direkten und relevanten angeforderten Informationen an die Nutzer. Das Web wird gecrawlt und die Informationen werden in verschiedene Klassen eingeteilt, die als Dienste bezeichnet werden. Die abgerufenen Ergebnisse enthalten die direkten und relevanten URLs dieses Dienstes und verbessern dadurch die Leistung gegenüber den aktuellen Informationsabrufsystemen in Bezug auf Erinnerung und Genauigkeit drastisch.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1423-0_35 adfb799edfea68a1af04fb17f5edd2cd;de;;;7.3.;;;Produktionsinternet - Funktionale Perspektive Produktion Internet als ökosystemische webbasierte Infrastruktur geht über die traditionellen Strukturen industrieller Kooperationen sowie über bestehende Peer-to-Peer-Dienste für den wirtschaftlichen Austausch wie E-Tailing, E-Sharing oder Crowdfunding hinaus. Dieser Beitrag untersucht die praktikablen funktionalen Anordnungen von Production Internet. In einer Reflexion des Standes der Technik, ergänzt durch eine Foresight-Recherche, werden die Bedürfnisse, Anforderungen und Vorteile identifiziert und zu einem funktionalen Setting zusammengefügt, das anhand einer prototypischen Implementierung validiert wurde. Die diskutierte Konzeptualisierung soll die operative Effektivität und Ressourceneffizienz verbessern und die Transaktionskosten senken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-66923-6_6 7c7943f84ca062fb713975623149c369;de;;;7.3.;;;Kommunikation in der Wissenschaft Wissenschaft muss eine gemeinsame Sprache haben. Jahrhundertelang hat die lateinische Sprache diese Aufgabe erfüllt, aber der Fortschritt in der Computertechnologie und der Internetwelt in den letzten 20 Jahren begann mit dem neuen Jahrhundert eine neue Sprache hervorzubringen, die Computersprache.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-6743-4_4 70b0d39acea101c7200370414a49d746;de;;;7.3.;;;Semantik-Entdeckung in Social-Tagging-Systemen: Ein Rückblick Web 2.0 hat viele kollaborative und neuartige Anwendungen hervorgebracht, die das Web als Medium verändert und zu seinem exponentiellen Wachstum geführt haben. Tagging-Systeme sind eine dieser Killeranwendungen. Tags sind in freier Form, stellen jedoch die Verbindung zwischen objektiven Informationen und kognitiven Informationen der Benutzer dar. Tags haben jedoch ein Mehrdeutigkeitsproblem, das die Genauigkeit verringert. Daher stellen Suchen und Abrufen eine Herausforderung für Folksonomiesysteme dar, die eine flache, unstrukturierte, nicht hierarchische Organisation mit unüberwachtem Vokabular aufweisen. Wir präsentieren einen kurzen Überblick über verschiedene Ansätze zum Hinzufügen von Semantik in Folksonomien, um Struktur und Präzision in Suche und Navigation zu bringen. Wir führten eine vergleichende Analyse durch, um die Bedeutung jeder semantischen Quelle abzuschätzen. Anschließend haben wir die Ansätze systematisch kategorisiert und die Feature-Set-Unterstützung zusammengefasst. Basierend auf der Umfrage erhalten wir Empfehlungen. Unsere Umfrage und Schlussfolgerung werden sich als relevant und nützlich für Ingenieure und Designer erweisen, die darauf abzielen, eine gut strukturierte Folksonomie mit präzisen Such- und Navigationsergebnissen zu entwerfen und zu pflegen.;-;-;-;https://link.springer.com/article/10.1007/s11042-014-2309-3 8b7475848393811199038e0312638c25;de;;;7.3.;;;Erstellen von Webdiensten mit Profilähnlichkeit Webservice-Komposition bezieht sich auf den Erstellungsprozess eines zusammengesetzten Services, der eine neue Funktionalität aus bestehenden Webservices bietet, um ein bestimmtes Ziel in einer Benutzeranfrage zu erreichen. In vielen realen Web-Service-Kompositionsszenarien besteht andererseits das Ziel darin, eine Lösung zu generieren, die nicht nur einige Ziele und alle damit verbundenen Einschränkungen erreicht, sondern auch hinsichtlich einiger Benutzerpräferenzen und ihrer kontextuellen Eigenschaften wünschenswert ist. Daher muss eine Lösungszusammensetzung diese Präferenzen so weit wie möglich erfüllen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30567-2_43 9a4313690be6a041ae682fee2b97ac44;de;;;7.3.;;;Design und Performance-Analyse des Web-Caching-Algorithmus zur Performance-Verbesserung der Reaktionsgeschwindigkeit Bisher wurden verschiedene diesbezügliche Webcaching-Ersatzalgorithmen erforscht. Eine Verschlimmerung der Heterogenität von Webobjekten erzeugt häufiger einen Ersatz eines Webobjekts, kann jedoch nicht alle Arten von Eigenschaften von Webobjekten in diesen traditionellen Ersatztechniken ausreichend widerspiegeln. Insbesondere die Größenheterogenität eines Objekts hat einen starken Einfluss auf die Performance eines Webcachings. Daher ist eine Untersuchung des Web-Caching-Algorithmus mit Größenheterogenität eines Objekts erforderlich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69429-8_75 5d6717c92e50d022111c9b98f92615b3;de;;;7.3.;;;Netzwerk- und Steuerungsplattformen Das Internet als größtes weltweit anerkanntes Kommunikationssystem befindet sich in ständigem Wandel und entwickelt sich seit seinen Anfängen in den späten 1960er Jahren in den Dimensionen Technologie, Kapazität, Verfügbarkeit und Größe kontinuierlich weiter. Die Offenheit und sein ständiger Wandel wurden heute zum Kennzeichen des Internets, waren aber in seinen Ursprüngen nicht vorhanden. Dieses Kapitel gibt einen Überblick über die Entwicklung von Telekommunikationsnetzen und Steuerungsplattformen vom klassischen Festnetz-Switched (CS) über aktuelle feste und mobile Next-Generation-Networks (NGN) hin zu zukünftigen Netztrends. Weiterhin wird die Fixed-Mobile-Covergence (FMC) vorgestellt und technologiespezifische Details exemplarisch vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41569-2_1 315052a193bdc9a0009037c3a34e661f;de;;;7.3.;;;Nordunet: Die Wurzeln der nordischen Vernetzung NORDUNET begann 1980 als informelle Kooperation zwischen nordischen „Netzwerkern“. Mit Unterstützung des Nordischen Ministerrats begann 1985 ein NORDUNET-Projekt für ein gemeinsames nordisches akademisches Netzwerk. Mats Brunell (Schweden) und Einar Løvdal (Norwegen) leiteten die Arbeit . Ursprünglich auf bestehenden Interim-Diensten von EARN-, DECnet- und ISO-OSI-Unterstützung basierend, führte der Mangel an Diensten 1987 zu einer vollständigen Neuausrichtung Knotenpunkt an der KTH, Stockholm. Die wichtigsten Dienste der damaligen Zeit, X.25, EARN und RSCS, DECnet und TCP/IP, wurden über Switches, Bridges und Router, den „NORDUNET-Stecker“, angebunden. Das operative Netz NORDUnet, ein erstes internationales Multiprotokoll-Netz, nahm 1988 seinen Dienst auf und wurde 1989 offiziell eröffnet. Das Projekt hatte einen starken Einfluss auf die nordische Netzwerkkompetenz, die den europäischen Übergang zu TCP/IP-Diensten im Gegensatz zur vorherrschenden (politisch unterstützten) Einhaltung von ISO OSI beeinflusste. Im Laufe der Zeit hat TCP/IP den „Protokollkrieg“ gewonnen. Die frühe Einführung von TCP/IP verschaffte dem nordischen Raum einen Vorsprung bei der Internetdurchdringung, was sich immer noch darin widerspiegelt, dass die Länder bei der öffentlichen Nutzung des Internets an der Spitze stehen. Eine wichtige Lehre war der Erfolg der nordischen Zusammenarbeit auf allen Ebenen durch die Aufteilung von Verantwortung, die gemeinsame Entwicklung von Kompetenzen und die Schaffung von Begeisterung. NORDUnet befindet sich heute im Besitz der nationalen Ministerien, wird von den nationalen Netzwerken kooperiert und kann das nordische akademische Internet mit außergewöhnlich kostengünstiger Bandbreite an alle wichtigen internationalen Netzwerke wie Startap und Geant liefern.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-24168-X_35 b8ad1bdfc2fcd005335d6aca83209e63;de;;;7.3.;;;Das Design eines Webbrowsers für sprechende Musik zum Unterrichten von Kindern mit Lernbehinderung: Eine Strategie für die Hörfähigkeiten Das Ziel dieser Studie ist es, eine effiziente Lösung im World Wide Web zu finden, die die Hörfähigkeiten von lernbehinderten Kindern durch eine Gerüststrategie fördert. Für die abstrakte mentale Modellbildung von Tonhöhenerkennung und Rhythmus gibt es ein Signifikanzniveau für den Lerneffekt aus dem traditionellen Klassenlernen mit Talking Music Web Browser. Das Design von Talking Music Web Browser mit Vygotskys Konzept der Zone der proximalen Entwicklung wurde nach den Gerüsten des Chevé-Systems, der Musiknotation, der Solmisierung und der Melodie entwickelt, um lernbehinderte Kinder zu inspirieren, Hörfähigkeiten zu erwerben. Der Talking Music Webbrowser kann lernbehinderte Kinder aus einer schwierigen Position wiederherstellen, in der keine Instrumente zum Spielen oder verstimmt beim Musiklernen sind. Sie können viele Lernhilfen erwerben, was sehr praktisch ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-70540-6_111 229faa83d1727d201a1721acc5954a0d;de;;;7.3.;;;Das World Wide Web der Weisheit (W4) In diesem Vortrag werde ich den Forschungs- und Entwicklungsbedarf zur Schaffung des neuen Paradigmenwechsels im Internet-Computing ansprechen. Insbesondere werde ich eine der vielversprechendsten Antworten auf solche Bedürfnisse präsentieren, genannt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39845-5_1 24be7bc4a9ca9524e9a54c83e8e4cdfc;de;;;7.3.;;;Ranking der Webseite mit Path Trust Knowledge Graph Das Auffinden und Auffinden nützlicher Informationen aus dem Internet ist eine echte Herausforderung im Information Retrieval (IR) und in Suchmaschinen (SE). In diesem Papier schlagen wir den Path Trust Knowledge Graph vor und konstruieren ihn;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23862-3_7 1bc391af06f64228ee63754f5193502b;de;;;7.3.;;;VORTEILE: Eine personalisierte Ranking-Plattform für die Websuche Aktuelle Suchmaschinen verlassen sich auf zentralisierte Page-Ranking-Algorithmen, die Page-Rank-Werte als einzelne (globale) Werte für jede Webseite berechnen. Neuere Arbeiten zu themensensitivem PageRank [6] und personalisiertem PageRank [8] haben untersucht, wie PageRank-Werte um Personalisierungsaspekte erweitert werden können. Um eine Personalisierung zu erreichen, benötigen diese Algorithmen spezifische Eingaben: [8] benötigt beispielsweise einen Satz personalisierter Hub-Seiten mit hohem PageRank, um die Berechnung voranzutreiben. In diesem Artikel zeigen wir, wie dieser Hub-Auswahlprozess automatisiert werden kann und bauen auf dem letzteren Algorithmus auf, um eine Plattform für personalisiertes Ranking zu implementieren. Wir beginnen mit dem Satz von Lesezeichen, der von einem Benutzer gesammelt wurde, und erweitern ihn um einen Satz von Hubs mit hohem PageRank;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27780-4_7 c78fdba89da801ec1335575e43aaa0ef;de;;;7.3.;;;Modellierung des Dozenten in einem webbasierten Autorentool für algebrabezogene ITS Dieses Papier beschreibt die Entwicklung eines webbasierten Autorentools für Intelligente Tutoring-Systeme und konzentriert sich auf die Möglichkeiten der Lehrermodellierung. Das Tool heißt WEAR und soll Lehrern und Schülern von Domänen nützlich sein, die algebraische Gleichungen verwenden. Insbesondere unterstützt das Tool menschliche Lehrer beim Erstellen von Übungen und überwacht die Schüler beim Lösen der Übungen und gibt entsprechendes Feedback. Der Instruktor-Modellierungsmechanismus macht das System an die spezifischen Bedürfnisse und Interessen jedes einzelnen Benutzers (Instruktors) anpassbar, was das Erstellen neuer Übungen und das Abrufen bestehender betrifft.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45108-0_67 86fb7e4e20c52240b6ae40a336ba701c;de;;;7.3.;;;Vokabeln im Global Semantic Web zusammenfassen Im Semantic Web werden Vokabulare definiert und zwischen Wissensarbeitern geteilt, um verknüpfte Daten für die wissenschaftliche, industrielle oder alltägliche Nutzung zu beschreiben. Mit dem schnellen Wachstum von Online-Vokabularen besteht ein dringender Bedarf an Ansätzen, die Benutzern helfen, Vokabeln schnell zu verstehen. In diesem Artikel untersuchen wir die Zusammenfassung von Vokabularen, um Benutzern zu helfen, Vokabulare zu verstehen. Die Vokabularzusammenfassung basiert auf der Strukturanalyse und pragmatischen Statistiken im globalen Semantic Web. Lokales bipartites Modell und erweitertes bipartites Modell eines Vokabulars werden vorgeschlagen, um die Struktur in einem Vokabular und Verbindungen zwischen Vokabularen zu charakterisieren. Eine strukturelle Bedeutung für jeden RDF-Satz im Vokabular wird mittels Linkanalyse ermittelt. In der Zwischenzeit wird die pragmatische Bedeutung jedes RDF-Satzes unter Verwendung der Statistik der Instanziierung seiner Begriffe im Semantic Web bewertet. Zusammenfassungen werden durch Extrahieren wichtiger RDF-Sätze in Vokabularen unter einer Re-Ranking-Strategie erstellt. Vorläufige Experimente zeigen, dass es möglich ist, Benutzern durch eine Zusammenfassung zu helfen, ein Vokabular zu verstehen.;-;-;-;https://link.springer.com/article/10.1007/s11390-009-9212-9 5ab0798c937d56ba7779a24e73589729;de;;;7.3.;;;Inhaltsbasiertes Filtern für Musikempfehlungen basierend auf Ubiquitous Computing Bei derzeit verwendeten Musiksuch- und Empfehlungsverfahren wird ein allgemeines Filterverfahren verwendet, das ein Ergebnis durch Abfragen von Musikinformationen erhält und eine Musikliste unter Verwendung von Benutzerprofilen empfiehlt. Diese Filtermethode stellt jedoch eine gewisse Schwierigkeit dar, Benutzerinformationen entsprechend ihrer Umstände zu erhalten, da sie nur statische Informationen der Benutzer, wie z. B. persönliche Informationen, berücksichtigt. Um dieses Problem zu lösen, definiert dieser Beitrag eine Art von Kontextinformationen, die in Musikempfehlungen verwendet werden, und entwickelt eine neue Filtermethode basierend auf Statistiken, indem sie auf eine inhaltsbasierte Filtermethode angewendet wird. Darüber hinaus wurde ein Empfehlungssystem verwendet, das ein inhaltsbasiertes Filterverfahren verwendet, das durch eine ubiquitäre Computertechnologie implementiert wurde, um Dienstemobilitäts- und Verteilungsprozesse zu unterstützen. Basierend auf den Ergebnissen der Leistungsbewertung des in dieser Studie verwendeten Systems steigert es nicht nur die Zufriedenheit mit der Musikauswahl, sondern auch die Qualität der Dienstleistungen signifikant.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-44641-7_48 29e81594d730d5e7e8f3b54aeedaad3b;de;;;7.3.;;;Aggregieren von Webdiensten mit aktivem Aufruf und Ensembles von String-Distanzmetriken Die Einführung von Standards für den Informationsaustausch über das Web könnte eine neue Welt von Möglichkeiten für Datenintegrations- und Aggregationssysteme eröffnen. Obwohl Webdienste das Auffinden und den Zugriff auf Informationsquellen vereinfachen, bleibt das Problem der semantischen Heterogenität bestehen: wie man semantische Korrespondenzen innerhalb Daten integriert werden. In diesem Artikel schlagen wir OATS vor, einen neuartigen Algorithmus für den Schema-Matching, der speziell für die Datenaggregation von Web-Services geeignet ist. Wir zeigen, wie das Untersuchen von Web Services mit einer kleinen Menge verwandter Abfragen zu semantisch korrelierten Dateninstanzen führt, was den Abgleichprozess erheblich vereinfacht, und zeigen, dass die Verwendung eines Ensembles von String-Distanzmetriken in übereinstimmenden Dateninstanzen besser abschneidet als einzelne Metriken. Wir schlagen auch eine Methode zum adaptiven Kombinieren von Distanzmetriken vor und bewerten OATS bei einer großen Anzahl von realen Webservice-Operationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30202-5_26 68c9497c45c7bde668b5a499647accdc;de;;;7.3.;;;KB-Grid: Auf dem Weg zum Aufbau eines groß angelegten Wissenssystems im Semantic Web Das entstehende Semantic Web wird zu einer enormen Menge an Web Knowledge Base (webKB)-Ressourcen führen. Wie können diese webKBs jedoch richtig organisiert und verwaltet werden? Wie erfolgt die Inferenz im Semantic Web, wo so heterogene und dezentralisierte KBs beteiligt sind? Dieses Papier stellt eine Grid-Architektur im Sinne des Knowledge Base Grid (KB-Grid) für Semantic Web vor, um die oben genannten Herausforderungen anzugehen. Wir überprüfen zunächst die „Wissen“ und „semantischen“ Anforderungen des zukünftigen Webs. Dann artikulieren wir die Kernkomponenten von KB-Grid: einen Wissensserver als Web-Container für Wissen, einen semantischen Browser als Benutzeroberfläche für die semantische Beantwortung von Abfragen und das KB-MDS als Meta-Verzeichnis für die Suche und Registrierung von webKB-Ressourcen Ein Petrinetz basiertes Inferenzmodell für das Semantic Web wurde ebenfalls eingeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45226-3_187 20d8af1e98ae5b7a89eb6a1e234285f8;de;;;7.3.;;;Vergleich lokaler E-Government-Websites in Kanada und Großbritannien Dieses Papier bietet eine Bewertung von acht lokalen E-Government-Websites in Kanada und im Vereinigten Königreich, die Webdiagnosetools verwenden. Die Ergebnisse der diagnostischen Evaluation werden für eine vergleichende Fallanalyse zwischen den verschiedenen lokalen E-Government-Websites synthetisiert und geben Empfehlungen für Verbesserungsbereiche in Bezug auf die Barrierefreiheit. Darüber hinaus bietet die Studie einen Einblick in die unterschiedlichen Ansätze zur Konzeption und Gestaltung von E-Government-Websites bei lokalen Beamten. Während acht lokale Websites ausgewertet werden, werden nur die Städte Calgary und Hillingdon durch Interviews mit lokalen Beamten eingehend untersucht. Die Untersuchung des Einsatzes von Web-Diagnose-Tools als Bewertungsmethode für lokale E-Government-Websites wird lokalen Amtsträgern und Webmastern eine wertvolle und praktikable Möglichkeit zur internen Bewertung bieten. Die Studie ist insofern einzigartig, als sie mehrere E-Government-Websites auf lokaler Ebene und nicht auf Bundesebene zwischen zwei Ländern bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22479-4_22 6bb50e8bd2bc7e23e54ffec7d9667892;de;;;7.3.;;;Motivationsperspektiven auf die Reaktionen der Schüler auf das Lernen in virtuellen Lernumgebungen Virtuelle Lernumgebungen sind für Pädagogen von besonderem Interesse, da es Aufgabe der Pädagogen ist, Umgebungen zu schaffen, auszuwählen und bereitzustellen, die das Lernen fördern. Dies gilt sowohl für sehr junge Kinder mit sehr begrenzten Kenntnissen und Fähigkeiten als auch für reife Lernende, deren Erfahrung sie mit umfangreichem Wissen und gut entwickelten Lernstrategien ausgestattet hat. Es ist die Art und Weise, wie Umgebungen den Rahmen oder Kontext für Erfahrungen setzen, die sie zu Schlüsselwerkzeugen machen, mit denen Pädagogen die Richtung des Lernens beeinflussen. Lernen findet mit oder ohne Erzieher statt. Der Maßstab für die Bewertung jedes Bildungsvorhabens ist jedoch der Grad, in dem das Lernen den von Lernenden, Pädagogen, Bildungseinrichtungen und Bildungssystemen geschätzten Zielen und Ergebnissen entspricht. Die Kapitel in diesem Band erkennen an, dass Menschen im Laufe der Geschichte eine breite Palette von Technologien verwendet haben, um Umgebungen zu entwerfen und zu bauen, um die Entwicklung von Wissen und Fähigkeiten in ihren jungen Jahren zu fördern. Die lernförderliche Wirkung von Umgebungen wurde jedoch durch elektronische Informationstechnologien verstärkt, da sie eine ständig wachsende Palette digitaler und virtueller Formen bieten. Diese virtuellen Lernumgebungen haben das Potenzial, Möglichkeiten für aktive, flexible und zunehmend individualisierte Lernerfahrungen zu bieten. Unsere Untersuchung motivationaler Perspektiven erstreckt sich über die elektronischen Informationstechnologien, die bei der Erstellung virtueller Lernumgebungen verwendet werden, von den einfachsten Formen des computergestützten Unterrichts bis hin zu komplexen virtuellen Umgebungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-3803-7_15 449314514f6b344ff5b860f59b123262;de;;;7.3.;;;GreenBrowsing: Auf dem Weg zu Energieeffizienz beim Surferlebnis Web 2.0 ermöglichte die Verbesserung und Überarbeitung der Ästhetik und Interaktionsmechanik von Webseiten. Darüber hinaus funktionieren aktuelle Webbrowser fast wie ein;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-43352-2_10 45eb5b72732b16e89905753a98d1a45c;de;;;7.3.;;;Modellierung und Navigation von sozialen Informationsnetzwerken in metrischen Räumen Wir leben in einer Welt verschiedener Arten von sozialen Informationsnetzwerken mit kleinen Welten und skalenfreien Eigenschaften. Es ist immer noch ein faszinierendes Problem für Forscher zu erklären, wie und warum so viele offensichtlich unterschiedliche Netzwerke entstehen und gemeinsame intrinsische Merkmale wie einen kurzen Durchmesser, einen höheren Cluster und eine Potenzgesetz-Gradverteilung aufweisen. Die meisten früheren Arbeiten untersuchten die Topologiebildung und Informationsnavigation komplexer Netzwerke in getrennten Modellen. In diesem Beitrag schlagen wir ein metrikbasiertes Reichweitenschnittmodell vor, um die Topologieentwicklung und die Informationsnavigation auf synthetische Weise zu untersuchen. Wir modellieren das Netzwerk als eine Menge von Knoten in einem metrischen Distanzraum, wobei jeder Knoten eine ID und eine Reihe von Nachbarinformationen um seine ID im metrischen Raum herum hat. Die Reichweite eines Knotens kann als das lokale Wissen oder die Information angesehen werden, die der Knoten um seine Position im metrischen Raum herum hat. Die Topologie wird gebildet, indem eine Verbindung zwischen zwei Knoten hergestellt wird, die sich überschneidende Bereiche haben. Die Informationsnavigation über das Netzwerk wird als gieriger Routingprozess unter Verwendung von Nachbarverbindungen und der Distanzmetrik modelliert. Anders als bei früheren Modellen gehen wir nicht davon aus, dass Knoten nacheinander dem Netzwerk beitreten und Verbindungen entsprechend der Gradverteilung bestehender Knoten oder Entfernungen zwischen Knoten aufbauen. Der Knotenbereich ist der Schlüsselfaktor, der die Topologie und die Navigationseigenschaften eines Netzwerks bestimmt. Darüber hinaus entwickelt sich das Netzwerk mit zunehmender Reichweite von Knoten von einem Satz vollständig isolierter Knoten zu einem verbundenen Netzwerk. Somit können wir die Netzwerkentwicklungen in Bezug auf die Netzwerkgröße und den Informationsbereich der einzelnen Knoten mit dem Bereichsschnittpunktmodell leicht modellieren. Eine Reihe von Experimenten zeigt, dass Netzwerke, die unter Verwendung des Bereichsschnittpunktmodells konstruiert wurden, die Eigenschaften der skalenfreien Gradverteilung, des hohen Clusters, des kurzen Durchmessers und der hohen Navigationsfähigkeit aufweisen, die den realen Netzwerken gehören.;-;-;-;https://link.springer.com/article/10.1007/s11280-012-0199-8 bbd2d259607c537a576a4c4062f443c5;de;;;7.3.;;;Kryptographie angepasst an den neuen europäischen Hochschulraum Es wird eine neue Erfahrung im Unterrichten von Kryptographie für Ingenieurstudenten gezeigt. Ziel ist es, ihnen in einem Aufbaukurs ein besseres Verständnis für sichere und kryptografische Algorithmen durch den Einsatz von Maple-Software zu vermitteln. In diesem Papier diskutieren wir, wie ein webbasierter Kurs als Teil des traditionellen Unterrichts entsprechend der Konvergenz des Europäischen Hochschulprojekts strukturiert, definiert und implementiert wird. Der vorgeschlagene Kurs erleichtert den Einsatz neuer Informations- und Kommunikationstechnologien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69387-1_82 cdae9be4a3d39799f3c8cd4495218af5;de;;;7.3.;;;Ein fallbasierter Ansatz zur Benutzermodellierung In diesem Beitrag stellen wir einen fallbasierten Ansatz vor, den wir für die Realisierung von HUMOS verwendet haben, einem hybriden Benutzermodellierungs-Schalensystem, das für den Aufbau und die Pflege von Langzeitmodellen einzelner Internetnutzer entwickelt wurde. Ein herausragendes Merkmal von HUMOS ist der hybride Ansatz zur Benutzermodellierung, bei dem ein subsymbolisches Modul in einen fallbasierten Reasoner integriert ist. Eine Fallstudie zu Informationsfiltersystemen im World Wide Web wird ebenfalls vorgestellt. Das beschriebene System mit dem Namen WIFS basiert auf HUMOS und ist in der Lage, aus dem Web gesammelte HTML/Text-Dokumente entsprechend den Interessen und Eigenschaften des Benutzers auszuwählen. Derzeit fungiert das System als intelligente Schnittstelle für die Websuchmaschinen. Die experimentellen Ergebnisse, die wir erhalten haben, sind ermutigend und unterstützen die Wahl des fallbasierten Ansatzes zur Benutzermodellierung für adaptive Systeme.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0056343 40dd4738f5a66a406a76e73da7c61328;de;;;7.3.;;;Themenbildung und -entwicklung: ein Entwicklungsprozess der Kerngruppe In den letzten Jahren ist das Interesse an Topic Detection and Tracking (TDT) gestiegen. Die bestehende Arbeit konzentriert sich jedoch hauptsächlich auf die allgemeine Trendanalyse und wurde nicht entwickelt, um den sich entwickelnden Prozess von Themen zu verstehen. Zu diesem Zweck soll dieses Papier den zugrunde liegenden Prozess und die Gründe für die Themenbildung und -entwicklung (TFD) aufzeigen. Entlang dieser Linie wird basierend auf der Community-Partitionierung in sozialen Netzwerken ein Kerngruppenmodell vorgeschlagen, um die Dynamik zu erklären und die Themenentwicklung zu segmentieren. Dieses Modell ist vom Zellteilungsmechanismus in der Biologie inspiriert. Darüber hinaus wird ein Thema je nach Teilungsphase und Interphase im Lebenszyklus einer Kerngruppe in vier Zustände unterteilt, darunter Geburtszustand, Erweiterungszustand, Sättigungszustand und Schrumpfungszustand. In dieser Arbeit konzentrieren wir unsere Studien hauptsächlich auf die wissenschaftliche Themenbildung und -entwicklung unter Verwendung der Zitationsnetzwerkstruktur zwischen wissenschaftlichen Arbeiten. Experimentelle Ergebnisse an zwei realen Datensätzen zeigen, dass die Aufteilung einer Kerngruppe die Entstehung eines neuen wissenschaftlichen Themas mit sich bringt. Die Ergebnisse zeigen auch, dass der Fortschritt eines ganzen wissenschaftlichen Themas eng mit dem Wachstum einer Kerngruppe während ihrer Interphase korreliert. Schließlich demonstrieren wir die Wirksamkeit der vorgeschlagenen Methode in mehreren realen Szenarien.;-;-;-;https://link.springer.com/article/10.1007/s11280-013-0245-1 768265fefe9b00c2b280acdbd275fd76;de;;;7.3.;;;Klassifizierung von Webseiten: eine Übersicht über Perspektiven, Lücken und zukünftige Richtungen Die explosionsartige Zunahme der Informationsmenge im Internet hat die Klassifizierung von Webseiten für die Verwaltung, den Abruf und die Integration von Webinformationen, die Indexierung von Webseiten, das themenspezifische Web-Crawling, themenspezifische Informationsextraktionsmodelle, das Entfernen von Werbung, das Herausfiltern unerwünschter, nutzlose oder schädliche Inhalte und elterliche Kontrollsysteme. Aufgrund des in letzter Zeit erstaunlichen Anstiegs der Leistung und des Speicherplatzes in Computermaschinen, zusammen mit der Spezialisierung von Modellen für maschinelles Lernen für die Text- und Bildklassifizierung, haben viele Forscher begonnen, das Problem der Klassifizierung von Webseiten ins Visier zu nehmen. Die automatische Klassifizierung von Webseiten befindet sich jedoch aufgrund ihrer Komplexität, der Vielfalt der Inhalte von Webseiten (Bilder unterschiedlicher Größe, Text, Hyperlinks usw.) Dieser Beitrag gibt nicht nur einen Überblick über die vorgeschlagenen Methoden in der Literatur, sondern zeichnet auch ihre Entwicklung nach und zeigt verschiedene Perspektiven auf dieses Problem. Unsere Studie untersucht Folgendes: (a) Metadaten und Kontextinformationen zu den Begriffen werden bei der Klassifizierung von Textinhalten meist ignoriert, (b) Struktur und Verteilung von Text in HTML-Tags und Hyperlinks werden bei der Klassifizierung von Textinhalten zu wenig untersucht, (c) Messung Die Effektivität von Merkmalen bei der Unterscheidung zwischen Webseitenklassen oder der Messung des Beitrags jedes Merkmals zur Klassifikationsgenauigkeit ist eine bedeutende Forschungslücke, (d) Bildklassifizierungsverfahren beruhen stark auf rechenintensiven und problemspezifischen Analysen zur Merkmalsextraktion, (e) halb -überwachtes Lernen wird trotz seiner Bedeutung bei der Klassifizierung von Webseiten aufgrund der enormen Menge an nicht gekennzeichneten Webseiten und der hohen Kosten für die Kennzeichnung zu wenig erforscht, (f) Deep Learning, konvolutionelle und wiederkehrende Netzwerke und verstärkendes Lernen bleiben zu wenig erforscht, aber für Webseiten interessant Klassifikation und nicht zuletzt (g) Entwicklung eines detaillierten Testbeds nebst Evaluation n Metriken und die Etablierung von Standard-Benchmarks bleiben eine Lücke bei der Bewertung von Webseiten-Klassifikatoren.;-;-;-;https://link.springer.com/article/10.1007/s11042-019-08373-8 d84554d7295fbb010ba395ab2e4856df;de;;;7.3.;;;JADE Content Management System (CMS) – Ein intelligentes, auf mehreren Agenten basierendes Content Management System mit chaotischem Urheberrechtsschutzsystem In diesem Beitrag wird ein intelligentes Content-Management-System mit chaotischem Urheberrechtsschutz namens iJADE CMS vorgestellt. iJADE CMS konzentriert sich darauf, wie Web-Mining-Techniken effektiv auf chinesische Inhalte angewendet werden können, mit der Integration verschiedener KI-Techniken, darunter intelligente Agenten, Agenten-Ontologie und Fuzzy-Logik-basiertes Data-Mining-Schema. Durch die Einführung eines chaotischen Verschlüsselungsschemas zeigt iJADE CMS, wie agentenbasierter Urheberrechtsschutz erfolgreich auf die Verlagsbranche für digitale Medien angewendet werden kann. Aus Anwendungssicht ist iJADE;-;-;-;https://link.springer.com/chapter/10.1007/11893004_84 9b4f88ad497346a73689d0f93355dd07;de;;;7.3.;;;Ein Filmempfehlungssystem – Eine Anwendung der Abstimmungstheorie in der Nutzermodellierung Unsere Forschungsagenda konzentriert sich auf die Entwicklung von Softwareagenten, die Benutzermodellierungstechniken anwenden können, um den Informationszugriff und Verwaltungsaufgaben zu erleichtern. Personal Assistant Agents verkörpern eine eindeutig vorteilhafte Anwendung der intelligenten Agententechnologie. Eine besondere Art von Assistentenagenten, Empfehlungssysteme, kann verwendet werden, um Benutzern interessante Artikel zu empfehlen. Um erfolgreich zu sein, sollten solche Systeme in der Lage sein, Benutzerpräferenzen für Elemente in der Anwendungsdomäne zu modellieren und zu argumentieren. Unser Hauptanliegen ist es, ein Argumentationsverfahren zu entwickeln, das sinnvoll und systematisch zwischen Benutzerpräferenzen abwägen kann. Wir haben Mechanismen aus der Abstimmungstheorie adaptiert, die wünschenswerte Garantien bezüglich der aus gespeicherten Präferenzen generierten Empfehlungen haben. Um die Anwendbarkeit unserer Technik zu demonstrieren, haben wir ein Filmempfehlungssystem entwickelt, das den Interessen der Benutzer entspricht. Wir präsentieren Fragestellungen und erste Ergebnisse basierend auf experimentellen Daten unserer Forschung, die die Abstimmungstheorie zur Nutzermodellierung einsetzt, wobei wir uns auf Fragestellungen konzentrieren, die im Kontext der Nutzermodellierung besonders wichtig sind. Wir bieten mehrere Abfragemodalitäten, mit denen der Benutzer uneingeschränkte, eingeschränkte oder instanzbasierte Abfragen stellen kann. Unser interaktiver Agent lernt ein Benutzermodell, indem er vom Benutzer Feedback zu seinen empfohlenen Filmen erhält. Wir bieten auch proaktives Sammeln von Informationen, um die Benutzerinteraktion lohnender zu gestalten. In dem Papier skizzieren wir den aktuellen Stand unserer Umsetzung mit besonderem Schwerpunkt auf den Mechanismen, die verwendet werden, um belastbare und wirksame Empfehlungen zu geben.;-;-;-;https://link.springer.com/article/10.1023/A%3A1024022819690 cbb1a55455e85e4bddea17f1722f0654;de;;;7.3.;;;Ein Single-Sign-On-Mechanismus mit RBAC in einer Cloud-Umgebung Mit der schnellen Entwicklung des Internets wurden die Hardwareleistung und die Softwaretechnologie ständig verbessert. Benutzer haben immer höhere Anforderungen an die Internetdienste. Das Konzept der Cloud-Dienste wird langsam abgeleitet. Benutzer können über die Internet-Cloud eine Vielzahl verschiedener Arten von Anwendungsdiensten nutzen und auf Informationen zugreifen, unabhängig davon, wann und wo sie sind. Bei Verwendung eines anderen Cloud-Dienstes müssen Benutzer möglicherweise eine neue Registrierung vornehmen oder die Anmeldeaktion erneut ausführen. Das ist ziemlich zeitaufwendig und eine sich wiederholende Aktion. Benutzer verwenden möglicherweise einen anderen Benutzernamen und ein anderes Passwort, um sich bei verschiedenen Cloud-Diensten zu registrieren. Auf diese Weise erhöht dies die Belastung des Benutzerspeichers und die Verwaltung ihrer Benutzernamen und Passwörter. Um eine wiederholte Registrierung und Anmeldung zu vermeiden, schlägt diese Studie einen Mechanismus für die Cloud-Umgebung vor, der einen Autorisierungsmechanismus für die rollenbasierte Zugriffskontrolle (RBAC) und Single Sign-On kombiniert. In dieser Architektur brauchen Benutzer weder ein zweites Login noch eine neue Registrierung. Nach der ersten Anmeldung kann der Benutzer Cloud-Dienste in der neuen Domäne nutzen. Komplexe Arbeiten wie das Bestätigen und Austauschen von Informationen mit dem Benutzerrechenzentrum werden an den Cloud-Dienstleister übergeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54900-7_46 f46f9bca17b55823f625e1395133db06;de;;;7.3.;;;Ein Framework für die Aufgabenwiederherstellung in einem aufgabenorientierten Service-Navigationssystem Der mobile Zugang zum Internet nimmt drastisch zu und die Bedeutung der Informationsabfrage über mobile Geräte steigt. Wir haben ein aufgabenorientiertes Service-Navigationssystem [6] entwickelt, das es einem Benutzer ermöglicht, die gewünschten mobilen Inhalte aus der Sicht der von ihm gewünschten Aufgabe zu finden. Der Benutzer steht jedoch immer noch vor dem Problem, aus der Vielzahl von Aufgabenkandidaten die am besten geeignete Aufgabe auswählen zu müssen, was aufgrund der Tatsache, dass mobile Geräte einige Einschränkungen wie kleine Displays und schlechte Eingabemethoden aufweisen, schwierig ist. Dieses Papier geht dieses Problem an, indem es einen Rahmen vorschlägt, um nur die Aufgaben abzurufen, die der Abstraktionsebene der Benutzerabsicht entsprechen. Hat sich der Benutzer für ein bestimmtes Objekt entschieden, ist die Abstraktionsebene konkret, und es werden Aufgaben zur Handhabung des bestimmten Objekts ausgewählt, andernfalls werden Aufgaben zu allgemeinen Objekten ausgewählt. Schließlich stellen wir zwei Anwendungen zum Abrufen von Aufgaben vor, die das vorgeschlagene Framework realisieren. Durch die Verwendung dieses Frameworks können wir die Anzahl der abgerufenen Aufgaben reduzieren, die für den Benutzer irrelevant sind. Simulationen zeigen, dass dem Benutzer etwa 30% weniger Aufgaben als Abrufergebnisse angezeigt werden.;-;-;-;https://link.springer.com/chapter/10.1007/11575863_109 e175a3dd7e196fcdeb671c006bbfeb85;de;;;7.3.;;;Mikrozahlungen mit Datenschutz – ein neuer Vorschlag für den E-Commerce Dieses Papier präsentiert ein originelles Konzept von Mikrozahlungssystemen, die sowohl die Einfachheit einer elektronischen Prepaid-Karte ohne vertrauenswürdige Dritte als auch die Privatsphäre des Benutzers kombinieren. Es werden zwei Protokolle vorgeschlagen – das erste basiert auf einer sicheren Einweg-Hash-Funktion, das zweite auf einem kryptographisch sicheren Pseudozufallsbitgenerator. Der Hauptvorteil der vorgeschlagenen Schemata ist die Möglichkeit, eine kryptografische Schlüsselverteilung innerhalb des Mikrozahlungsprozesses durchzuführen.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-26325-X_18 df402c5afbbd56a0d6d7a5e9d3e1feeb;de;;;7.3.;;;Integrieren Sie Geo-Spatial Web Processing Services durch Workflow-Technologie Ein einzelner Geo-Spatial Web Processing Service kann komplizierte geografische Verarbeitungsaufgaben nicht erledigen. Die Kombination von Diensten ist ein üblicher Weg, um das Problem zu lösen. In diesem Whitepaper wird eine Möglichkeit zur Integration von Geoverarbeitungs-Webservices durch Workflow-Technologie vorgeschlagen. Aus dem Geschäftsprozessmodell wird ein geografisches Flussmodell gegeben und ein neuer Knoten-Human-Ressourcen-Weg zur Integration von Diensten vorgeschlagen. Das Papier zeigt auch das Zugriffs- und Bindungsmuster der geografischen Prozessdienste. Schließlich wurde ein Prototyp-System einer geografischen Webservice-Workflow-Engine aufgebaut, um die Hypothese zu bestätigen. Als erster Testfall wird ein LIDAR-Datenvorverarbeitungsprozess getestet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27323-0_41 83db97d1a741ad3b66aa0fb58f707d90;de;;;7.3.;;;Eine unbeaufsichtigte Technik zum Extrahieren von Informationen aus halbstrukturierten Webseiten Wir schlagen eine Technik vor, die zwei oder mehr Webseiten, die von derselben serverseitigen Vorlage generiert wurden, verwendet und versucht, einen regulären Ausdruck zu lernen, der sie repräsentiert und hilft, relevante Informationen aus ähnlichen Seiten zu extrahieren. Unsere experimentellen Ergebnisse auf realen Websites zeigen, dass unsere Technik andere in Bezug auf Effektivität und Effizienz übertrifft und nicht durch HTML-Fehler beeinträchtigt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35063-4_46 1a9597403e921cc07c72eb84d5c96c9c;de;;;7.3.;;;Visuelle Wissensdarstellung konzeptioneller semantischer Netze In diesem Artikel werden Methoden zur Verwendung visueller Analyse zur visuellen Darstellung großer Mengen massiver, dynamischer und mehrdeutiger Daten vorgestellt, die in einem Repository von Lernobjekten zugeordnet sind. Diese Methoden basieren auf der semantischen Repräsentation dieser Ressourcen. Wir verwenden ein grafisches Modell, das als semantischer Graph dargestellt wird. Die Formalisierung des semantischen Graphen wurde intuitiv entwickelt, um ein echtes Problem zu lösen, das darin besteht, in einem riesigen Repository von Colleges/Kursen an der Western Kentucky University nach Vorlesungen zu suchen (;-;-;-;https://link.springer.com/article/10.1007/s13278-010-0008-2 5dd9cabcd0d4d71c04b1989782ee0c9a;de;;;7.3.;;;Semantic Board: Ein Bulletin-Board-System zur Unterstützung dynamischer semantischer Informationen Obwohl ein Bulletin Board-System seit langem ein wichtiger virtueller Ort zum Austausch von Informationen innerhalb derselben Interessengruppe ist, müssen seine Benutzer jeden Artikel durchsuchen, um Zielinformationen zu erhalten, da das aktuelle Board-System keinen konzeptionellen Datenzugriff bieten konnte. Um dieses Problem zu lösen, schlagen wir ein semantikbasiertes Bulletin Board-System namens Semantic Board vor, das das Markieren und Durchsuchen von Artikeln mithilfe semantischer Informationen unterstützt. Ohne Modifikation kann es mit einer vorgeschlagenen Ontologie namens SBoard in verschiedenen Anwendungsbereichen mit unterschiedlicher Semantik übernommen werden. Die SBoard-Ontologie wurde entwickelt, um RDF-Prädikate zu beschreiben, die semantische Informationen im Semantic Board darstellen. Die Ontologie gibt die Formulargenerierung im Frontend und den RDF-Datenzugriff im Backend der Zielprädikate an. Damit ist das Semantic Board in der Lage, dynamisch HTML-Formulare zu generieren, um Schwierigkeiten beim manuellen Schreiben semantischer Tags zu erleichtern und die Eingaben der Benutzer als entsprechendes RDF-Dokument zu speichern. Das SBoard wird auch verwendet, um RDQL-Anweisungen zum Suchen von Artikeln basierend auf semantischen Informationen zu generieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27772-9_33 797ebac2fc5503dd9262e0a059a65d00;de;;;7.3.;;;Optimierung der Zusammensetzung der datenintensiven Mediator-basierten Webdienste Die effektive Nutzung heterogener, verteilter Informationen hat in den letzten Jahren viel Forschung angezogen. Aktuelle Webservice-Technologien wurden erfolgreich in einigen nicht datenintensiven verteilten Prototypsystemen verwendet. Die meisten von ihnen können jedoch in datenintensiven Umgebungen nicht gut funktionieren. Dieses Papier bietet eine Infrastrukturschicht in einer datenintensiven Umgebung für die effektive Bereitstellung von Geoinformationsdiensten durch die Nutzung der Webdienste über das Internet. Wir untersuchen und analysieren umfassend den Overhead von Webservices in datenintensiven Umgebungen und schlagen einige neue Optimierungstechniken vor, die die Effizienz des Systems erheblich steigern können. Unsere Experimente zeigen, dass diese Techniken für datenintensive Umgebungen geeignet sind. Schließlich stellen wir die Anforderungen dieser Techniken für die Information von Webdiensten über das Internet dar.;-;-;-;https://link.springer.com/chapter/10.1007/11610113_62 e57eca474f6b0f4474664f237b5e7163;de;;;7.3.;;;Ein skalierbares Tag-basiertes Empfehlungssystem für neue Nutzer des Social Web Folksonomies ist zu einem leistungsstarken Werkzeug geworden, um Online-Ressourcen (z. B. Bilder, Videos, Blogs) im Social Web zu beschreiben, zu entdecken, zu durchsuchen und zu navigieren. Im Gegensatz zu Taxonomien und Ontologien, die eine hierarchische Kategorisierung von Inhalten überlagern, befähigen Folksonomien Endbenutzer, die Kategorien (in diesem Fall Tags) frei zu erstellen und auszuwählen, die eine Information am besten beschreiben. Die den Benutzern gewährte Freiheit hat jedoch ihren Preis: Da Tags informell definiert und nicht kontrolliert werden, wird das Abrufen von Informationen schwieriger. In diesem Papier schlagen wir vor;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23088-2_40 b5ef78cf9c7658f0c5fc210c168f553f;de;;;7.3.;;;Erleichtern von Cryptojacking durch Internet-Middle-Boxen Die Verwendung anonymer Proxys und virtueller privater Netzwerke hat aufgrund von Datenschutz- und Internetzensurproblemen zugenommen. Der Datenverkehr, der durch Proxys (mittlere Boxen) geleitet wird, kann vom Controller leicht abgefangen und modifiziert werden, um Man-in-the-Middle-Angriffe wie Dateneinschleusung, Datenmanipulation und Datenlöschung durchzuführen. Ein heimlicher Angriff namens Cryptojacking begann, die beliebten Websites zu infizieren, um ohne die Zustimmung des Website-Besuchers Kryptowährungen abzubauen. Dieses Papier schlägt einen effektiven und heimlichen Ansatz vor, um Cryptojacking-Angriffe durchzuführen, indem ein Cryptomining-Skript in den Website-Verkehr des anonymen Proxys injiziert wird. Um die Effizienz des Angriffs in größerem Maßstab zu erhöhen, wird eine Testumgebung für das private The Onion Router (Tor)-Netzwerk bereitgestellt, um denselben Angriff auf den Tor-Ausgangsknoten zu implementieren. Unsere Studie zeigt, dass die Vertuschung des Angriffs improvisiert werden kann, indem die Nutzung der Zentraleinheit des Opfers während des Minings variiert wird, um eine Entdeckung zu vermeiden. Der bestehende Abwehrmechanismus zur Verhinderung dieses Angriffs wird ebenfalls überprüft.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9019-1_4 282e087c53bdf993f01c34be6523ad43;de;;;7.3.;;;Green Software und Green IT: Eine Endbenutzerperspektive Ausgelöst durch die Bewegung zu einer nachhaltigen Entwicklung ist Green IT nach wie vor ein großer Trend und mehr als nur ein Schlagwort. Vor allem Rechenzentren arbeiten an ihrer eigenen Energieeffizienz. Darüber hinaus muss Green IT die Endnutzer als diejenigen einbeziehen, die eine entscheidende Rolle in der Nutzungsphase von IKT-Geräten (IKT: Informations- und Kommunikationstechnologie) sowie Softwareprodukten spielen, gemäß dem Gedanken des Life Cycle Thinking. In unserem Kapitel beschreiben wir einige typische Anwendungsszenarien von Endbenutzer-Software und führen Messungen durch, um den dadurch induzierten Energieverbrauch zu ermitteln. Wir vergleichen den Energieverbrauch von Textverarbeitungsprogrammen sowie den Energieverbrauch von Webbrowsern. Im Hinblick auf eine nachhaltige Entwicklung muss der Nutzer in die Bewegungen der Green IT eingebunden werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19536-5_16 c3746a8d3fd389df0b8943212dc5a70e;de;;;7.3.;;;Informationskopplung in Webdatenbanken Web Information Coupling bezieht sich auf eine Assoziation von thematisch verwandten Webdokumenten. Diese Kopplung wird explizit von einem Benutzer in einem speziell für Web-Informationen konzipierten Web-Warehouse initiiert. Web Information Coupling bietet die Möglichkeit, zusätzliche nützliche Informationen aus dem WWW abzuleiten. In diesem Beitrag diskutieren und zeigen wir, wie zwei Webbetreiber, d.h.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-49524-6_8 671fb43ebc80db68b9238236b95a73fe;de;;;7.3.;;;Agile netzzentrierte Systeme mit DEVS Unified Process Industrie und Regierung investieren viel in die Umstellung ihrer Geschäftsprozesse und Governance auf Implementierungen einer serviceorientierten Architektur (SOA), um eine effiziente Wiederverwendung von Informationen, Integration, Zusammenarbeit und Kostenteilung zu ermöglichen. SOA ermöglicht die Orchestrierung von Webservices, um solche Prozesse mithilfe der Business Process Execution Language (BPEL) auszuführen. Die Business Process Modeling Notation (BPMN) ist eine weitere Methode, die BPEL für die Bereitstellung ausgibt. Die große Vision des Verteidigungsministeriums (DoD) ist beispielsweise das Global Information Grid, das auf einer SOA-Infrastruktur basiert. Die SOA-Infrastruktur soll auf einer kleinen Gruppe von Fähigkeiten basieren, die als Core Enterprise Services (CES) bekannt sind und deren Verwendung vorgeschrieben ist, um Interoperabilität und verstärkten Informationsaustausch innerhalb und zwischen Missionsbereichen zu ermöglichen, wie z. usw. Net-Centric Enterprise Services (NCES) ist die Umsetzung seiner Datenstrategie über das GIG des DoD. Das Verfassen/Orchestrieren von Webservices in einem Prozess-Workflow (auch bekannt als Missions-Thread in der DoD-Domäne) ist derzeit jedoch durch die BPMN/BPEL-Technologien begrenzt. Da so viel auf SOA beruht, müssen deren Zuverlässigkeit und Analyse rigoros berücksichtigt werden. Die BPMN/BPEL-Kombination hat weder systemtheoretische Grundlagen, noch ist sie im aktuellen Zustand für den Entwurf netzzentrierter Systeme auf Basis von SOA einsetzbar. In dieser Arbeit präsentieren wir ein systemtheoretisches Framework unter Verwendung des DEVS Unified Process (DUNIP), das einen gegabelten modellkontinuitätsbasierten Lebenszyklusprozess für die gleichzeitige Entwicklung des ausführbaren Systems unter Verwendung von Web-Services (einschließlich des Modells) und die automatisierte Generierung von Test- Suite für Verifizierung und Validierung. Das gesamte netzzentrierte System, das Artefakte wie das Modell, die Simulation und das reale System umfasst, wird auf SOA bereitgestellt. Das Simulationssystem wird auf einem kürzlich entwickelten DEVS-basierten Service-Framework namens DEVS/SOA ermöglicht. Wir zeigen das Design von DEVS-Agenten basierend auf WSDLs und wie sie in Richtung der Systemspezifikation zusammengesetzt sind. Wir werden zeigen, dass Agilität ein inhärentes Merkmal eines solchen Systems ist, das auf DUNIP basiert. Wir werden auch den Fall des Department of Defense Architecture Framework (DoDAF) vorstellen und zeigen, wie Agilität auf den Design- und Evaluierungsprozess angewendet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17931-0_7 0a265026c001296891b0930fc2492137;de;;;7.3.;;;Korrelationseigenschaften und Selbstähnlichkeit von Renormalisierungs-E-Mail-Netzwerken Kürzlich wurde ein Grad-Schwellenwert-Renormierungsverfahren eingeführt, um topologische Eigenschaften einiger komplexer Netzwerke zu finden. Tatsächlich hängt die Anwendbarkeit dieser Eigenschaften von der Ebene oder der Art der komplexen Netzwerke ab. Hier wird eine modifizierte Version dieses ursprünglichen Algorithmus vorgestellt, um allgegenwärtige Eigenschaften beobachteter E-Mail-Netzwerke zu entwirren und ein korrektes Verständnis des zugrunde liegenden evolutionären Mechanismus zu erhalten. Einige Topologie-Metriken der E-Mail-Netzwerke unter Renormalisierung wurden analysiert. Die Ergebnisse zeigen, dass Renormalisierungs-E-Mail-Netzwerke die Potenzgesetzverteilung mit Doppelexponenten aufweisen, disassortativ sind und nach der Hälfte der gesamten Renormalisierungsschritte assortativ werden, hohe Clusterkoeffizienten und Rich-Club-Phänomene aufweisen. Diese Merkmale sind sowohl vor als auch nach der Renormierung bis zur Hälfte der gesamten Renormierungsschritte selbstähnlich, ansonsten sind sie selbstunähnlich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02469-6_61 2adb0f5e909ac170165f5da1cf0211be;de;;;7.3.;;;Implementierungsschema des landwirtschaftlichen Content-Management-Systems In diesem Aufsatz geht es um landwirtschaftliche Content-Management-Systeme (ACMS) basierend auf Projektimplementierung und Internet, die den Inhalt, die Systemstruktur und die etablierte Grundlage des Red Hat Content Management Systems (CMS) Open Source Council definieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-77251-6_44 4eb664bca0a72b478c58b5cebfb9978f;de;;;7.3.;;;Erweiterung der internetbasierten Kartentransaktionen mit Trusted Computing (erweiterte Zusammenfassung) Wir zeigen, wie die Trusted Computing-Technologie verwendet werden kann, um die Sicherheit von internetbasierten Card-Not-Present-(CNP)-Transaktionen zu erhöhen. Wir konzentrieren uns auf die Nutzung der Funktionen von Trusted Computing, wie es heute eingesetzt wird, und verlassen uns nur auf das Vorhandensein von clientseitigen Trusted Platform Modules. Wir diskutieren die Bedrohungen für CNP-Transaktionen, die trotz unserer Verbesserungen bestehen bleiben, wobei wir uns insbesondere auf die Bedrohung durch Malware konzentrieren und wie sie gemildert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85230-8_13 1c960b6c2d951eb143f8e31cd5b6cac9;de;;;7.3.;;;Ein Framework für die vertragsbasierte kollaborative Verifizierung und Validierung von Webservices Ein Schlüsselproblem bei Web Services (WS) ist die Verifizierung und Validierung (V&V) von Diensten, um Vertrauen zwischen Dienstanbietern und Dienstnutzern aufzubauen. Dieses Papier schlug eine Test-Broker-Architektur vor, damit alle Beteiligten innerhalb von WS dazu beitragen können, das Testen der Dienste zu verbessern. Der Testbroker unterstützt das Einreichen, Indizieren und Abfragen von Testartefakten wie Testfällen, Fehlerberichten und Auswertungen. Es kann auch die Dienste für die Testgenerierung, Testkoordination und verteilte Testdienste bereitstellen. Das DCV&V-Framework (Decentralized, Collaborative, Verification and Validation) wird mit einer Reihe von verteilten und kollaborierten Testbrokern für verschiedene V&V-Aufgaben vorgeschlagen, um skalierbare und flexible Testkollaborationen zu ermöglichen. Das Papier untersucht das Konzept des Design-by-Contract und wendet das Prinzip auf DCV&V an. Es identifiziert zwei Kategorien von Testverträgen, darunter TSC (Testing Service Contracts) und TCC (Test Collaboration Contracts). Es veranschaulicht die Anwendung von TSC mit vertragsbasierter Testgenerierung basierend auf der WS OWL-S Spezifikation. Es erarbeitet TCC mit der Analyse der Testartefaktdefinitionen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73551-9_18 027f71bd1e05f4107f7b917a86a0d771;de;;;7.3.;;;Geschäftsmodell und Internet-Broker-Konzept für eine effiziente elektronische Ausschreibung und Beschaffung in der Fliesenindustrie Dieses Kapitel skizziert verschiedene generische E-Broker-Modelle und beschreibt die Anforderungen und notwendigen Konzepte zum Aufbau eines Maklerdienstes für Fliesen und verwandte Produkte in der Lieferkette der Fliesenindustrie. Ziel des Dienstes ist es, Innovationen in die Angebots- und Beschaffungsprozesse zwischen Fliesenherstellern, Großhändlern und Bauunternehmen einzuführen. Die Akteure, Beziehungen und Güter der Lieferkette werden vorgestellt und die für den elektronischen Marktplatz gewählte Architektur sowie die unterstützenden Werkzeuge beschrieben. Die Kernfunktionalität des Maklerdienstes, z.B. Datenaustausch, Repository-Zugriff und -Verhandlung, wird anhand von UML-Use-Cases skizziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55792-7_13 a8547dc846dac43171c3ddaf3413d74b;de;;;7.3.;;;Webseitensegmentierung mit Ontologie und Wortvergleich Die Segmentierung von Webseiten ist eine nicht triviale Aufgabe und ein vielversprechendes Forschungsgebiet im Bereich der Informatik. Webseitensegmente unterscheiden informative und nicht informative Inhalte auf einer Webseite durch die Extraktion von Text und Bild. Darüber hinaus können Segmente auch verschiedene Arten von Informationen zwischen Segmenten unterscheiden. Die Segmentierung von Webseiten ist sicherlich beim Web-Ranking, der Klassifizierung und anderen Web-Mining-Anwendungen nützlich. Die Segmentidentifikation ist auch bei der Seitenanzeige für Bildschirmgeräte mit eingeschränkter Beschränkung wie Smartphones, PDAs usw. nützlich. Neuere Forschungen konzentrierten sich auf die Verwendung eines Ontologie-Tools zum Segmentieren einer Webseite. Dieses Tool unterstützt jedoch nur die englische Sprache. In diesem Papier schlagen wir ein mehrsprachiges Ontologie-Tool zum Segmentieren von Webseiten vor. Unser Tool hat eine höhere Genauigkeit als bestehende Methoden zur Webseitensegmentierung gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12640-1_55 c5e2a93012b655ce37fc0936ba9f2f0d;de;;;7.3.;;;Eine situationsbezogene Personalisierung in allgegenwärtigen mobilen Computerumgebungen Die mobile Internetumgebung, die als wichtige Plattform der allgegenwärtigen Umgebung im Rampenlicht steht, wird durch die enge Beziehung zum Benutzer verwirklicht. Um die Interaktion zwischen Gerät und Benutzer zu realisieren, wird in Betracht gezogen, dass eine Ressource von äußeren/inneren Benutzerinformationen, die durch das mobile Gerät gesammelt werden kann, und die situationsbewusste (SA) Personalisierung vorgeschlagen wird, indem der Kontextsatz der gesammelten aktuellen Situation auf das Konzept der Situationswahrnehmung. Eine solche SA-Personalisierung ist so konzipiert, dass sie eine erweiterte Personalisierung mit dem Link Retrieving-Algorithmus bietet, der bei der Prospektion hervorgehoben wird. Und das Markov Chain Model, ein Prospektionsmatrixsystem, wird verwendet, um die SA-Personalisierung zu unterstützen. Mit dem SA-Personalisierungssystem wird der maßgeschneiderte Service angeboten, der auf die allgegenwärtige Ära abgestimmt ist und auf der aktuellen Situation des Benutzers basiert.;-;-;-;https://link.springer.com/chapter/10.1007/11807964_22 bc190f212ea02c16ee04bfa4f876e815;de;;;7.3.;;;Finden relevanter Seitenpaare aus den Ergebnissen der Websuche Herkömmliche Websuchmaschinen werten jede einzelne Seite als Rankingeinheit aus. Wenn die Informationen, die ein Benutzer haben möchte, auf mehreren Webseiten verteilt sind, ist es mit diesen herkömmlichen Suchmaschinen schwierig, passende Suchergebnisse zu finden. Außerdem sind Suchergebnislisten schwer zu überprüfen und sagen nichts über die Beziehungen zwischen den durchsuchten Webseiten aus. Wir müssen oft Webseiten sammeln, die unterschiedliche Standpunkte widerspiegeln. Hier kann eine Sammlung von Seiten als Suchergebniselement relevanter sein als eine einzelne Webseite. In diesem Papier schlagen wir die Idee vor, das Konzept des „Multiple Viewpoint Retrieval“ in Websuchen zu verwirklichen. Das Abrufen mehrerer Blickwinkel bedeutet das Durchsuchen von Webseiten, die aus verschiedenen Blickwinkeln für ein bestimmtes Thema beschrieben wurden, das Sammeln mehrerer Sammlungen von Webseiten, das Einstufen jeder Sammlung als Suchergebnis und das Zurückgeben als Ergebnis. In dieser Arbeit betrachten wir den Fall von Seitenpaaren. Wir beschreiben einen auf Merkmalsvektoren basierenden Ansatz, um relevante Seitenpaare zu finden. Wir analysieren auch die Eigenschaften von Seitenpaaren.;-;-;-;https://link.springer.com/chapter/10.1007/11599517_34 f0395981d9322bd9db47b89d0d972196;de;;;7.3.;;;Seitensets als Websuche-Antworten Herkömmliche Websuchmaschinen ordnen ihre Suchergebnisse Seite für Seite. Das heißt, herkömmlicherweise ist die Informationseinheit sowohl zum Suchen als auch zum Rangieren eine einzelne Webseite. Es gibt jedoch Fälle, in denen ein Satz durchsuchter Seiten eine bessere Ähnlichkeit (Relevanz) zu einer bestimmten (Schlüsselwort-)Abfrage aufweist als jede einzeln durchsuchte Seite. Dies liegt daran, dass die Informationen, die ein Benutzer haben möchte, manchmal auf mehreren Webseiten verteilt sind. In solchen Fällen sollte die für das Ranking verwendete Informationseinheit eher ein Satz von Seiten als eine einzelne Seite sein. In diesem Papier schlagen wir das Konzept eines „Seitensatz-Rankings“ vor, bei dem jeder relevante Satz von durchsuchten Webseiten bewertet wird. Wir beschreiben unseren neuen Algorithmus des Seitenset-Rankings, um Seitensets effizient zu erstellen und einzustufen. Wir präsentieren einige experimentelle Ergebnisse und die Wirksamkeit unseres Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/11931584_27 ed87521d960f5aa61409a3261b13ba8b;de;;;7.3.;;;Effektivitätsmessung im TREC Legal Track In diesem Kapitel berichten wir über unsere Erfahrungen mit dem Versuch, die Effektivität großer elektronischer Ermittlungsergebnisse (e-Discovery) in den Legal Track-Kampagnen der Text Retrieval Conference (TREC) von 2006 bis 2011 zu messen. Bei Effektivitätsmessungen haben wir uns auf Recall, Precision und;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-53817-3_6 bd5b058f4154b7e1a70f861e562280ec;de;;;7.3.;;;Integrieren von Spring in andere Web-Frameworks In diesem Kapitel erfahren Sie, wie Sie das Spring-Framework in verschiedene gängige Webanwendungs-Frameworks integrieren, darunter Struts, JSF und DWR. Die leistungsstarken IoC-Container- und Enterprise-Supportfunktionen von Spring machen es sehr geeignet für die Implementierung der Service- und Persistenzschichten Ihrer Java EE-Anwendungen. Für die Präsentationsschicht haben Sie jedoch die Wahl zwischen vielen verschiedenen Web-Frameworks. Daher müssen Sie Spring oft in das von Ihnen verwendete Webanwendungs-Framework integrieren. Die Integration konzentriert sich hauptsächlich auf den Zugriff auf im Spring IoC-Container deklarierte Beans innerhalb dieser Frameworks.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-0623-1_11 d1223d013423bfba7152b415be4abb33;de;;;7.3.;;;TabEL: Entitätsverknüpfung in Webtabellen Webtabellen bilden eine wertvolle Quelle für relationale Daten. Das Web enthält schätzungsweise 154 Millionen HTML-Tabellen mit relationalen Daten, wobei allein Wikipedia 1,6 Millionen hochwertige Tabellen enthält. Das Extrahieren der Semantik von Webtabellen zur Erzeugung von maschinenverständlichem Wissen ist zu einem aktiven Forschungsgebiet geworden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25007-6_25 d11aafb8801313ec350761836cd733a0;de;;;7.3.;;;Ein automatischer Ansatz zur Klassifizierung von Webdokumenten mithilfe einer Domänenontologie In diesem Beitrag wird eine automatisierte Methode zur Dokumentenklassifizierung unter Verwendung einer Ontologie vorgeschlagen, die in Webdokumenten enthaltene Terminologieinformationen und Wortschatz durch eine hierarchische Struktur ausdrückt. Die ontologiebasierte Dokumentenklassifizierung umfasst die Bestimmung von Dokumentmerkmalen, die die Webdokumente am genauesten darstellen, und deren Klassifizierung in die am besten geeigneten Kategorien nach der Analyse ihres Inhalts unter Verwendung von mindestens zwei vordefinierten Kategorien pro gegebener Dokumentmerkmale. In diesem Beitrag werden Webdokumente in Echtzeit nicht mit experimentellen Daten oder einem Lernprozess klassifiziert, sondern durch ähnliche Berechnungen zwischen den aus Webtexten extrahierten Terminologieinformationen und Ontologiekategorien. Dies führt zu einer genaueren Dokumentenklassifizierung, da die Bedeutungen und Beziehungen, die für jedes Dokument eindeutig sind, bestimmt werden.;-;-;-;https://link.springer.com/chapter/10.1007/11590316_107 74ec65a734989b9884387f6d9134f3e7;de;;;7.3.;;;Steuerung von Agentenbewegungen in strukturierten Umgebungen Der Entwurf und die Entwicklung von kooperativen Internetanwendungen, die auf mobilen Agenten basieren, erfordern eine geeignete Modellierung sowohl des physischen Raums, in dem Agenten wandern, als auch des konzeptionellen Raums der Interaktion mit mobilen Agenten. Das Papier diskutiert, wie ein offenes, internetbasiertes Organisationsnetzwerk als eine hierarchische Sammlung von Lokalitätsdomänen modelliert werden kann, in der Agenten entsprechend ihren Berechtigungen dynamisch Informationen über den Standort und die Verfügbarkeit von Ressourcen erfassen können. Es analysiert auch die Frage, wie Agentenbewegungen innerhalb einer strukturierten Umgebung durch eine geeignete Koordinationsinfrastruktur gesteuert und eingeschränkt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45492-6_19 7f9c0cb291684af562d4cc7cda6e5c42;de;;;7.3.;;;Ranking und Auswahl von Webdiensten basierend auf QoS Bei der schnellen Bewertung von Webservices im Web stellen wir fest, dass die Qualität der Webservices eine wesentliche Rolle bei der Auswahl von Webservices spielt. Wenn ein Benutzer eine Liste von Diensten mit funktioneller Übereinstimmung hat, werden Dienstauswahlentscheidungen häufig basierend auf dem Wert der nicht-funktionalen Attribute wie Zuverlässigkeit, Verfügbarkeit, Preis und Bewertung getroffen. und die Werte dieser nicht-funktionalen Attribute der Webdienste werden vom Benutzer angegeben. Unterschiedliche Entscheidungsstrategien können von unterschiedlichen Benutzern für die Auswahl des Webdienstes verfolgt werden. In diesem Papier diskutieren wir die verschiedenen Ansätze, die von vielen Autoren zur Auswahl von Webdiensten basierend auf QoS eingeführt wurden, und die Probleme in der bestehenden Arbeit, danach schlugen wir ein Auswahl- und Rankingsystem basierend auf mehreren Entscheidungsstrategien vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-5802-9_28 170282a2dd4f057a678fb5c2e133973d;de;;;7.3.;;;Kodifizierung von kollaborativem Wissen: Wikipedia als Grundlage für automatisiertes Ontologie-Lernen nutzen Im Kontext des Wissensmanagements kann die Ontologiekonstruktion als Teil der Erfassung des Wissensbestandes einer bestimmten Problemdomäne betrachtet werden. Traditionell geht die Ontologiekonstruktion von einer mühsamen Kodifizierung des Wissens der Domänenexperten aus. In diesem Beitrag beschreiben wir einen neuen Ansatz für das Ontologie-Engineering, der das Potenzial hat, die Dichotomie zwischen Kodifizierung und Kollaboration mit Blick auf die Web 2.0-Technologie zu überwinden. Wir schlagen vor, die primäre Quelle des ontologischen Wissens vom Experten zu sozial aufstrebenden Wissensbeständen wie Wikipedia zu verlagern. Am Beispiel Wikipedia demonstrieren wir, wie aus dieser sozial konstruierten Quelle Kernbegriffe und Beziehungen einer Domänenontologie destilliert werden können. Zur Veranschaulichung beschreiben wir, wie unser Ansatz eine konzeptionelle Abdeckung von über 90 % im Vergleich zu handgefertigten Ontologien nach Goldstandard wie Cyc erreichte. Es entsteht keine Folksonomie, sondern eine formale Ontologie, die dennoch ihre Wurzeln im gesellschaftlichen Wissen gefunden hat.;-;-;-;https://link.springer.com/chapter/10.1057/9781137552105_13 3bacfe2520f28d88523a4fd9e6ed29ec;de;;;7.3.;;;Verbesserung der Computer Vision mithilfe der kollektiven Intelligenz von Social Media Das Lehren der Maschine ist seit den ersten Schritten der künstlichen Intelligenz eine große Herausforderung für die Computer Vision-Wissenschaftler. Im Laufe der Jahrzehnte gab es bemerkenswerte Errungenschaften, die die Fähigkeiten der Maschinen sowohl aus Sicht der Infrastruktur (d. h. Computernetzwerke, Rechenleistung, Speicherkapazitäten) als auch aus Sicht der Verarbeitung und des Verständnisses der Daten drastisch verbessert haben. Dennoch stehen Computer Vision-Wissenschaftler immer noch vor dem Problem, Techniken und Frameworks zu entwerfen, die ein müheloses Lernen ermöglichen und eine einfache Skalierung von Analysemethoden in vielen verschiedenen Domänen und Disziplinen ermöglichen. Es stimmt, dass moderne Ansätze keine hocheffektiven Modelle hervorbringen können, es sei denn, es gibt eine dedizierte und damit kostspielige menschliche Aufsicht im Lernprozess, die die Beziehung zwischen Inhalt und Bedeutung (d. h. Annotation) diktiert. In letzter Zeit haben wir das rasante Wachstum von Social Media erlebt, das aus der Bereitschaft der Benutzer hervorgegangen ist, zu kommunizieren, Kontakte zu knüpfen, zusammenzuarbeiten und Inhalte zu teilen. Das Ergebnis dieser massiven Aktivität war die Generierung einer enormen Menge von von Benutzern beigesteuerten Daten, die im Web verfügbar gemacht wurden, normalerweise zusammen mit einer Angabe ihrer Bedeutung (d. Dies hat das Forschungsziel motiviert zu untersuchen, ob die kollektive Intelligenz, die aus den Beiträgen der Benutzer innerhalb einer Web 2.0-Anwendung hervorgeht, verwendet werden kann, um die Notwendigkeit einer dedizierten menschlichen Aufsicht während des Lernprozesses zu beseitigen. In diesem Kapitel beschäftigen wir uns mit einem sehr anspruchsvollen Lernproblem in Computer Vision, das darin besteht, ein Objekt innerhalb des Bildinhalts zu erkennen und zu lokalisieren. Wir präsentieren eine Methode, die die kollektive Intelligenz nutzt, die in einem Social Tagging-System für Bilder gefördert wird, um die automatische Generierung von Trainingsdaten und damit Objekterkennungsmodellen zu erleichtern. Die experimentellen Ergebnisse zeigen, dass die Computer-Vision-Technologie, obwohl noch viele Probleme zu lösen sind, durchaus von Social Media profitieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17551-0_9 b20f364fefac85fe23327d702ca05e46;de;;;7.3.;;;Was gibt's Neues? Analyse sprachspezifischer Wikipedia-Entitätskontexte zur Unterstützung des entitätszentrierten Nachrichtenabrufs Die Darstellung einflussreicher Unternehmen wie Prominente und multinationale Unternehmen im Internet kann je nach Sprache variieren, was sprachspezifische Aspekte von Unternehmen sowie unterschiedliche Ansichten zu diesen Unternehmen in verschiedenen Gemeinschaften widerspiegelt. Eine wichtige Quelle für mehrsprachiges Hintergrundwissen über einflussreiche Einheiten ist Wikipedia – eine von der Online-Community erstellte Enzyklopädie – mit mehr als 280 Sprachausgaben. Solche sprachspezifischen Informationen könnten in entitätszentrierten Informationsabrufanwendungen verwendet werden, in denen Benutzer sehr einfache Abfragen, meist nur die Entitätsnamen, für die relevanten Dokumente verwenden. In diesem Artikel konzentrieren wir uns auf das Problem der Erstellung sprachspezifischer Entitätskontexte, um entitätszentrierte, sprachspezifische Informationsabrufanwendungen zu unterstützen. Zuerst diskutieren wir alternative Wege, wie solche Kontexte aufgebaut werden können, einschließlich;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-59268-8_10 5219bda114ddef0ede43a93f872af3c4;de;;;7.3.;;;Co-Clustering-Analyse von Weblogs unter Verwendung des zweiteiligen Spektralprojektionsansatzes Webclustering ist ein Ansatz zum Aggregieren von Webobjekten in verschiedene Gruppen gemäß den zugrunde liegenden Beziehungen zwischen ihnen. Das Auffinden von Co-Clustern von Web-Objekten ist ein interessantes Thema im Kontext des Web-Nutzungs-Mining, das in der Lage ist, das zugrunde liegende Navigationsinteresse und die Inhaltspräferenz gleichzeitig zu erfassen. In diesem Papier werden wir einen Algorithmus vorstellen, der bipartite Spectral Clustering verwendet, um Web-Benutzer und -Seiten gemeinsam zu clustern. Die Nutzungsdaten von Benutzern, die Websites besuchen, werden als zweiteiliger Graph modelliert und die spektrale Clusterbildung wird dann auf die graphische Darstellung der Nutzungsdaten angewendet. Der vorgeschlagene Ansatz wird durch Experimente an realen Datensätzen evaluiert und die Auswirkungen der Verwendung verschiedener Clustering-Algorithmen werden ebenfalls untersucht. Experimentelle Ergebnisse haben gezeigt, dass das verwendete Verfahren die Teilmengenaggregate von Webbenutzern und Seiten, die eng miteinander verbunden sind, effektiv aufdecken kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15393-8_45 6a0f06cf05471ee742cf52782e183ca7;de;;;7.3.;;;SynFinder: Ein System zur domänenbasierten Erkennung von Synonymen mit WordNet und dem Web of Data Die Erkennung von Synonymen ist eine Herausforderung, die viele Beiträge für die möglichen Anwendungen in vielen Bereichen, einschließlich Semantic Web und Information Retrieval, angezogen hat. Eine offene Herausforderung besteht darin, Synonyme eines Begriffs zu identifizieren, die für eine bestimmte Domäne geeignet sind, nicht nur alle Synonyme. Darüber hinaus ist die Ausführungszeit beim Umgang mit Big Data entscheidend. Daher wird ein Algorithmus benötigt, der beim Erkennen domänengerechter Synonyme im laufenden Betrieb genau und schnell arbeiten kann. Dieser Beitrag stellt SynFinder vor, das WordNet und das Datennetz nutzt. Bei einem gegebenen Begriff und einer Domäne in der Eingabe wird WordNet zum Abrufen aller Synonyme des Begriffs verwendet. Dann werden Synonyme, die nicht auf Webseiten mit Bezug zur Domain vorkommen, eliminiert. Unsere Experimente zeigen eine sehr gute Genauigkeit und Rechenleistung von SynFinder mit einer mittleren Genauigkeit von 0,94 und einer durchschnittlichen Ausführungszeit von weniger als 1 s.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27060-9_2 2a32677ece9ed3e60e988e5c4e305d2b;de;;;7.3.;;;Der Einfluss von Advergames auf die Kaufentscheidungen und das Verhalten von Kindern Kinder als Markt sind erwachsen geworden. Jugendliche im Alter von 2 bis 17 Jahren geben in den Vereinigten Staaten ungefähr 250 Milliarden US-Dollar pro Jahr aus, und 2- bis 14-jährige US-Jugendliche beeinflussen weitere 500 Milliarden US-Dollar pro Jahr an Familienausgaben (siehe Calvert, 2008). In einer zunehmend digitalen Weltkultur verbringen Jugendliche heute einen beträchtlichen Teil ihrer Zeit online (Rideout, Foehr & Roberts, 2010). Unternehmen folgen ihnen in diese Online-Bereiche und entwickeln neue Wege, um Kinder durch Unterhaltungstechnologie zu erreichen (McGinnis, Gootman & Kraak, 2006). Ein solcher Weg ist das Advergame, ein Videospiel mit subtilen oder offenen Botschaften, das die Nutzer zum Kauf und Konsum bestimmter Produkte verleiten soll (Calvert, 2008, Staiano & Calvert, 2012).;-;-;-;https://link.springer.com/chapter/10.1057/9781137313256_12 92134433060b69235f4ffc9a263cbeee;de;;;7.3.;;;Verwendung von Trusted Computing zur Wahrung der Privatsphäre auf Tastendruck-basierter Authentifizierung in Smartphones Smartphones werden immer häufiger verwendet, um persönliche Informationen zu speichern sowie auf sensible Daten aus dem Internet und der Cloud zuzugreifen. Die Feststellung der Identität eines Benutzers, der Informationen von Smartphones anfordert, ist in solchen Szenarien eine Voraussetzung für sichere Systeme. In der Vergangenheit wurde die tastendruckbasierte Benutzeridentifizierung erfolgreich auf mobilen Geräten auf Produktionsebene eingesetzt, um die Risiken zu mindern, die mit naiver Benutzername/Passwort-basierter Authentifizierung verbunden sind. Diese Ansätze haben jedoch zwei Haupteinschränkungen: Sie sind nicht auf Dienste anwendbar, bei denen die Authentifizierung außerhalb der Domäne des Mobilgeräts erfolgt – wie z. In diesem Artikel schlagen wir ein Protokoll für die Analyse der Tastendruckdynamik vor, das es webbasierten Anwendungen ermöglicht, die Remote-Bescheinigung und die delegierte Tastendruckanalyse zu verwenden. Das Endergebnis ist ein effizienter tastendruckbasierter Benutzeridentifizierungsmechanismus, der traditionelle passwortgeschützte Dienste stärkt und gleichzeitig die Risiken der Benutzerprofilerstellung durch die Zusammenarbeit mit bösartigen Webdiensten mindert. Wir präsentieren eine prototypische Implementierung unseres Protokolls unter Verwendung des beliebten Android-Betriebssystems für Smartphones.;-;-;-;https://link.springer.com/article/10.1007/s11235-011-9538-9 79bb749a1f7c15bfa50448f3a7c0a3ee;de;;;7.3.;;;Hetero-GCD2RDF: Eine interoperable Lösung für raumbezogene Klimadaten durch den Einsatz von Semantic Web-Technologien Ozean- und landgestütztes Satellitenbeobachtungssystem umfasst verschiedene Sensoren und Konfigurationen. Die von Sensoren generierten Geo-Klimadaten (GCD) werden in heterogenen Dateiformaten mit heterogenem Vokabular übertragen, was zu einer semantischen Heterogenität der Daten führt. Regierung und öffentliche Organisationen begannen, diese Datensätze über Klima-Webportale für Benutzer zu veröffentlichen. Die kritische Aufgabe beim Umgang mit heterogenen Dateien ist die Dateninterpretation und Interoperabilität. Dies kann gehandhabt werden, indem es den Daten erleichtert wird, semantisch strukturierte oder verknüpfte Daten zu erreichen. Dieses Papier schlägt einen Hetero-GCD2RDF-Datenabrufansatz vor, der sich auf zwei Aspekte konzentriert: (1) Extraktion von Datensätzen aus Satellitendaten und deren Darstellung als verknüpfte Daten, nämlich Resource Description Framework (RDF) und (2) Implementierung der SPARQL-Abfrage-Engine für das resultierende RDF zum Datenabruf. Als typisches Beispiel für die Umsetzung des vorgeschlagenen Ansatzes werden Daten des indischen Meteorologischen Satelliten INSAT-3D herangezogen. Dabei wurden ca. 170 Dateien mit ca. 650 MB Arbeitsspeicher mit 1.278.000 Datensätzen konvertiert und abgefragt. Im Vergleich zu herkömmlichen Methoden spart die vorgeschlagene Methode fast 38,12 % Zeit, um die Daten in RDF darzustellen. Somit wird der vorgeschlagene Hetero-GCD2RDF-Ansatz als effizient, zuverlässig und für das semantische Web geeignet erkannt.;-;-;-;https://link.springer.com/article/10.1007/s11277-021-08365-8 b2c4a23fbae64a8a612dc3f7131ae472;de;;;7.3.;;;Segmentsuche vs. Knowledge Graphs: Erstellen einer Schlüsselwortsuchmaschine für Webdokumente Es wird immer beliebter, Daten in Form von Dokumenten im Web zu veröffentlichen. Die Segmentsuche ist eine semantische Suchmaschine für Webdokumente. Es präsentiert eine Abfragesprache. Es eignet sich für erfahrene und angelernte Fachexperten, die mit einer bestimmten Dokumentensammlung vertraut sind. Es gibt geeignete Dokumente zurück, die mithilfe von Dokumentfragmenten ausgewählt wurden, die die Abfrage des Benutzers erfüllen. Im Gegensatz zum Wissensgraphen-Ansatz basiert die Technik auf der Durchführung einer Webseitensegmentierung gemäß den vom Benutzer wahrgenommenen Objekten. Auf diese Weise können Benutzer Abfragen durchführen, ohne komplexe Abfragesprachen zu kennen oder die Datenorganisationsschemata kennenzulernen. Das vorgeschlagene System ist skalierbar und kann große Webdokumentquellen bedienen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37188-3_6 8e2b7e8dd5d337ebd8d27f57fe6be9b4;de;;;7.3.;;;Teilweises Fernstudium für Ausbilder im Bereich Informationstechnologie Lehrer müssen sich an ein sich schnell änderndes IT-Wissen und -Technologie anpassen können. Diese Anforderung wird noch verstärkt durch die Notwendigkeit, dieses Wissen und diese Technologie im gleichen Maße in den Lehrplan zu integrieren. Dieses Papier präsentiert einen strategischen Ansatz zur Aktualisierung des Lehrplans und des technischen Know-hows der Informationstechnologie durch die Ausbildung der IT-Trainer. Dieser Ansatz soll dazu beitragen, die IT-Ausbildung im Entwicklungsland zu modernisieren, indem er die Jugendlichen ausbildet, die diese Ausbildung erhalten. Um die Wirtschaftlichkeit dieses Ansatzes zu gewährleisten, basierten die Lehrmethoden auf einer Kombination aus traditionellen Methoden und modernen Fernunterrichtstechniken.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34731-8_28 24e7323a413106b046b1b2acca09cc8e;de;;;7.3.;;;Cloud als neues IMC-Tool: Wie unser Marketing allgegenwärtiger wird Die schnelle Durchdringung von Smartphones und Tablet-PCs hat eine neue Ära für Marketer und Werbetreibende eröffnet. Computergeräte werden zunehmend portabel und bieten sofortigen und nahtlosen Zugriff auf eine Vielzahl von Apps. Solche allgegenwärtigen Kommunikationsgeräte haben unser Marketing buchstäblich verändert. Kunden können jetzt Coupons und Rabattinformationen in einer Verkaufsstelle mithilfe von Near Field Communication (NFC) oder Quick Response (QR) Code überprüfen. NFC wurde in Google Wallet verwendet, einer Android-App, die unser Mobiltelefon zu einem Zahlungstool macht. Darüber hinaus kann sogar ein physisches Geschäft allgegenwärtig werden.;-;-;-;https://link.springer.com/chapter/10.1057/9781137322630_6 e62826ca4a609e2dd5955bfa7433bd96;de;;;7.3.;;;Ranking von Webdokumenten basierend auf Multi-Domain-Ontologie Die Bedeutung von Algorithmen für das Ranking von Webdokumenten für Suchmaschinen nimmt mit dem Wachstum des Webs zu. Herkömmliche Ranking-Algorithmen ordnen Webdokumente anhand der darin enthaltenen Hyperlinks. Diese Algorithmen sind anfällig für das Problem der Themenverschiebung, und es ist schwierig, die Genauigkeit des Sortierergebnisses sicherzustellen. In den letzten Jahren begannen Forscher, das semantische Verständnis von Webinhalten zu untersuchen. Methoden wie das ontologiebasierte Ranking wurden vorgeschlagen, um Webdokumente besser zu sortieren. In diesem Artikel werden die bestehenden Methoden der Ontologiekonstruktion und des Algorithmus für das Ranking von Webdokumenten umfassend überprüft. Dann wird eine Mehrdomänen-Ontologie-Konstruktionsmethode für massiven unstrukturierten Text, Singulärwertzerlegungs-Ontologiekonstrukt (SVDOC) vorgeschlagen. Basierend auf der Multi-Domain-Ontologie, einem Ranking-Algorithmus, der die semantische Bedeutung des Textes ausnutzen kann, wird auch der Multiply Domain Ontology PageRank (MDOPR) vorgestellt. Wir verwenden SVDOC in den Experimenten, um Multi-Domain-Ontologien im Bereich der Schifffahrtsindustrie (Schiff, Hafen, Route und andere verwandte Bereiche) zu erstellen. Die Ergebnisse zeigen, dass SVDOC effektiv Multi-Domain-Ontologien konstruieren kann und MDOPR eine höhere Genauigkeit und Machbarkeit als andere Ranking-Methoden hat.;-;-;-;https://link.springer.com/article/10.1007/s12652-017-0566-5 3e06f22f749b92267c9224b57a262966;de;;;7.3.;;;Mappings von OWL-s zu UML für Semantic Web Services Als Mitglied von Ressourcen im Semantic Web werden Webdienste immer wichtiger, um eine genaue Zusammensetzung für die Interaktion zwischen Menschen und Informationssystemen zu realisieren. Um den Bedarf an semantischer Annotation bestehender Web Services zu decken, kann ein spezielles UML-Profil auf dem UML-Metamodell und der MMFI4Ontology-Registrierung für Semantic Web Services, die mit OWL-s beschrieben werden, erstellt werden. Dann werden die Mappings von OWL-s zu UML detailliert definiert, um anzuzeigen, dass unser UML-Profil und unsere Transformationsregeln verwendet werden können, um Dienste mit UML-Aktivitätsmodellen darzustellen. Die Bemühungen um unser UML-Profil und weitere Mappings können die Semantik allgegenwärtiger Webdienste bereichern, die Modellierung von Diensten für Domänenexperten erleichtern und die Aktualisierung aktueller Tools zur Unterstützung wachsender Dienste im Semantic Web erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-34456-X_40 bd05ff622fe3594847a1fe688a6a505e;de;;;7.3.;;;Subjektive Usability, Mental Workload Assessments und ihr Einfluss auf die objektive menschliche Leistung In den Bereichen Interaktion und Webdesign werden vor allem Selbstauskunftsverfahren und Prüfmethoden zur Beurteilung der Benutzerfreundlichkeit von Schnittstellen eingesetzt. Es scheint jedoch eine Neigung zu bestehen, Merkmale in Bezug auf Endnutzer oder den Anwendungskontext während des Usability-Bewertungsverfahrens zu ignorieren. Diese Forschung schlägt die Einführung des Konstrukts der mentalen Arbeitsbelastung als zusätzliches Hilfsmittel für die Interaktion und das Webdesign vor. Im Kontext der Mensch-Web-Interaktion wurde eine Benutzerstudie durchgeführt. Das Hauptziel bestand darin, die Beziehung zwischen der Wahrnehmung der Benutzerfreundlichkeit der Schnittstellen von drei populären Websites und der mentalen Arbeitsbelastung zu untersuchen, die den Endbenutzern durch eine Reihe typischer Aufgaben auferlegt wird. Die mit der System Usability Scale berechneten Usability-Scores wurden verglichen und mit den mentalen Workload-Scores in Verbindung gebracht, die unter Verwendung des NASA Task Load Index und des Workload Profile Self-Reporting Assessment-Verfahren erhalten wurden. Die Ergebnisse weisen darauf hin, dass die Wahrnehmung der Benutzerfreundlichkeit und die subjektive Einschätzung der mentalen Arbeitsbelastung zwei unabhängige, sich nicht vollständig überlappende Konstrukte sind. Sie messen zwei verschiedene Aspekte der Mensch-System-Interaktion. Diese Auszeichnung ermöglichte die Demonstration, wie diese beiden Konstrukte gemeinsam genutzt werden können, um die objektive Leistung von Endbenutzern, eine Dimension der Benutzererfahrung und informative Interaktion und Webdesign besser zu erklären.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67684-5_13 6cf7d47e7b57657c856efb99b91a79bb;de;;;7.3.;;;Webverhaltensanalyse im Social Life Logging Die Erfassung des Webverhaltens basiert auf Selbstberichten und Webprotokollen im täglichen Leben. Der Selbstbericht wird aus dem Gedächtnis abgeleitet und kann für die Analyse des Webverhaltens mehrdeutig erscheinen. Es ist notwendig, dieses Webverhalten quantitativ zu messen, um die Veränderungen im Laufe der Zeit zu sehen. Individuen, die durch dieselbe Emotion verbunden sind, werden zu einer Gruppe, und ihre Mitglieder synchronisieren sich miteinander. Daher soll diese Studie ein Web-Verhaltensmodell und seine Erhebungs- und Analysemethoden vorschlagen. Darüber hinaus soll diese Studie eine Gruppe bilden, die die Synchronisation von Verhaltensmustern und soziale Netzwerke nutzt, um Einblicke in verbessertes Marketing zu geben.;-;-;-;https://link.springer.com/article/10.1007/s11227-020-03304-z f5d41e5b9d2ac5c67edf20336e20d6a6;de;;;7.3.;;;Auf Abruf reagieren: Ein Vorschlag zur Verwendung von Abrufinformationen für eine bessere Darstellung von Website-Inhalten Es wird davon ausgegangen, dass sich Abruf und Inhaltsverwaltung gegenseitig ausschließen. In diesem Papier schlagen wir vor, dass dies nicht der Fall sein muss. Im üblichen Informationsabrufszenario stehen dem Serveradministrator der betreffenden Website einige Informationen über Anfragen zur Verfügung, die zu einer Website führen (aufgrund von „Treffern“ oder „Besuchen“). Diese Informationen können verwendet werden, um den Inhalt der Website besser darzustellen. Darüber hinaus schlagen wir vor, dass das Abrufsystem einige weitere Informationen an den Inhaltsanbieter weitergibt. Dies ermöglicht dem Inhaltsanbieter (jeder Website) eine dynamischere Darstellung des Inhalts, die den Abfragetrends entspricht, ohne die Privatsphäre des abfragenden Benutzers zu verletzen. Das Ergebnis wird eine bessere Synchronisation zwischen Abrufsystemen und Inhaltsanbietern sein, mit dem Ziel, die Websucherfahrung des Benutzers zu verbessern. Dies gibt auch dem Inhaltsanbieter ein Mitspracherecht in diesem Prozess, da der Inhaltsanbieter derjenige ist, der viel mehr über den Inhalt weiß als das Abrufsystem. Dies bedeutet auch, dass sich die Inhaltsdarstellung als Reaktion auf eine Abfrage ändern kann. Am Ende findet der Nutzer die relevanten Inhalte einfacher und schneller. All dies kann unter der Bedingung erfolgen, dass die Zustimmung des Benutzers vorliegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24800-4_9 ca9ee03766112da167b47e7e3fba5156;de;;;7.3.;;;Integration von Ontologien und semantischen Annotationen mit Resource Description Framework in Eclipse-basierten Plattformen mit Bearbeitungsfunktionen für Semantic Web In den letzten drei Jahren ist die Zahl der entwickelten Semantic-Web-Tools schnell gestiegen. Diese enorme Ankunft neuer Tools zeigt die Akzeptanz und Glaubwürdigkeit der Semantic Web-Architektur. Dennoch sind die derzeit verfügbaren Semantic Web-Tools darauf beschränkt, nur mit wenigen Schichten der Semantic Web-Architektur zu arbeiten. Daher besteht ein Bedarf an einer neuen Generation von Semantic Web Tools, die die Funktionalität mehrerer Schichten integrieren, um von jedem Webprogrammierer/Benutzer einfach verwendet und getestet werden zu können. In diesem Papier schlagen wir die Architektur vor und beschreiben die Entwicklung eines neuen Semantic Web-Tools namens Integrated Editor of Semantic Annotations, Ontologies and Resource Description Framework for the Semantic Web (SWedt). Dieses Tool integriert die meisten standardisierten Semantic-Web-Technologien und ermöglicht die einfache Erstellung von Semantic-Web-Dokumenten durch Web-Programmierer/-Benutzer.;-;-;-;https://link.springer.com/chapter/10.1007/11919568_90 02cdb0ff8ed76098a56dca8f19979a02;de;;;7.3.;;;Lebende Daten als Wissensquelle Lebende Daten sind Daten, die für Mensch und Maschine genutzt oder (wieder-) verwendbar sind. Lebende Daten sind mit anderen Worten Informationen mit einer bestimmten Semantik in einem betrachteten Kontext, die innerhalb eines bestimmten Zeitraums gültig, verfügbar und zugänglich und damit für Mensch und Maschine (wieder-) verwendbar sind. In diesem Beitrag werden drei Beispiele erklärt, wie man Daten lebendig hält und wie man Daten als Wissensquelle nutzt. Zu diskutierende Beispiele sind die automatische Klassifizierung von Produkten, ein funktionsbasiertes Information Retrieval System und damit ein semantisches Framework zur Verwaltung komplexer Informationsmodelle.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-84821-5_4 bad6b805f35bf3cc34ea70dcaff7ffa4;de;;;7.3.;;;Grundlagen für verteilte Systeme Dieses Kapitel behandelt die Grundlagen verteilter Systeme. Es beginnt mit der Definition verteilter Systeme und einer Überprüfung der grundlegenden Themen der Distribution wie Computernetzwerke, verteilte Betriebssysteme und Dienste. Es führt eine allgemeine formale Notation ein, die im gesamten Buch bei aufwendigeren Behandlungen einiger Themen verwendet wird. Es werden verteilte Systemarchitekturen diskutiert, nämlich: Fernzugriff, Datei- und Speicherverteilung, Client-Server, Thin Clients und Netzwerkcomputer, tragbarer und mobiler Code, nachrichtenbasierte Architekturen, mobiles Computing.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-1663-7_1 64ef07ce3e4b420c334227eecb3b3f4c;de;;;7.3.;;;Kryptographie Es ist für jemanden leicht, Daten im Klartext zu lesen, aber vertrauliche und sensible Nachrichten im Klartext können leicht manipuliert werden. Spione verwenden Geheimcodes, um mit ihren Geheimagenten zu kommunizieren. Julius Caesar traute nie seinen Boten, die seinen Generälen Botschaften überbrachten. Er kodierte seine Nachricht, indem er jedes A durch ein D, jedes B durch E usw. ersetzte, sodass nur diejenigen, die wussten, wie man diese „Shift 3“-Regel entschlüsseln kann, die Nachricht entschlüsseln konnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-6383-8_8 ff76af37ab39ee0dde0dffa8568bf622;de;;;7.3.;;;Sicherstellung der kollektiven Verfügbarkeit in Pools mit volatilen Ressourcen durch Forecasting Dienste werden zunehmend über große Rechen- und Speicherinfrastrukturen bereitgestellt. Um den ständig steigenden Rechenanforderungen gerecht zu werden und sowohl die Hardware- als auch die Systemverwaltungskosten zu senken, haben diese Infrastrukturen begonnen, Internet-Ressourcen einzubeziehen, die über Breitbandnetzwerke von Unternehmen und Privathaushalten verteilt sind. Da diese Infrastrukturen auf Hunderttausende bis Millionen von Ressourcen anwachsen, tauchen unweigerlich Fragen der Ressourcenverfügbarkeit und der Servicezuverlässigkeit auf. Unser Ziel in dieser Studie ist es, prädiktive Methoden zu ermitteln und zu bewerten, die die Verfügbarkeit von a;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87353-2_12 28b46782d28b6642a3c03a4634cd8002;de;;;7.3.;;;Lehrplanübergreifende Suche für Intergeo Intergeo ist ein europäisches Projekt, das sich der gemeinsamen Nutzung interaktiver Geometriekonstruktionen widmet. Dieses Projekt richtet eine Annotation- und Such-Webplattform ein, die Tausende von interaktiven Geometriekonstruktionen und Ressourcen, die diese verwenden, bietet und zugänglich macht. Die Suchplattform sollte die Grenzen der Lehrplanstandards Europas überschreiten. Es wurde ein themen- und kompetenzbasierter Ansatz für die Suche nach interaktiver Geometrie mit Benennung der semantischen Entitäten gewählt: Er fordert den Beitragenden einer interaktiven Geometrieressource auf, die an einer Konstruktion beteiligten Kompetenzen und Themen einzugeben, und ermöglicht es dem Suchenden, sie anhand der Eingabe von Kompetenzen und ihnen nahestehenden Themen, beide setzen auf Klartexteingaben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85110-3_42 1c24bff67429ae2423c5862d2cb52688;de;;;7.3.;;;Beibehalten kohärenter Ansichten über dynamische verteilte Daten Daten, die heute über das Internet bereitgestellt werden, spiegeln schnelle und unvorhersehbare Veränderungen in der Welt um uns herum wider. Wir verlassen uns zunehmend auf Inhalte, die dynamische, interaktive und personalisierte Erlebnisse bieten. Um dies zu erreichen, wird der Inhalt der meisten Webseiten dynamisch erstellt, indem Abfragen dynamisch ausgeführt werden, wobei sich dynamisch ändernde Daten aus verteilten, dynamisch identifizierten Quellen verwenden. Eine typische Webseite präsentiert eine „Ansicht“ der Welt, die aus mehreren Quellen besteht. In diesem Papier untersuchen wir die Natur der Dynamik verteilter Daten und diskutieren neue Ansätze, um die Kohärenz der von den Benutzern gesehenen Ansichten zu erhalten. Das Erreichen einer solchen Kohärenz bei der Entwicklung skalierbarer Low-Overhead-Lösungen stellt Herausforderungen in Bezug auf die Bereitstellung von Daten mit der erforderlichen Genauigkeit trotz der Datendynamik. Wie diesen Herausforderungen durch das umsichtige Design von Algorithmen für Datenverbreitung, Caching und Kooperation begegnet werden kann, bildet den Kern unserer Arbeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11659-9_2 b5b543ba9a19f638293ee890110215c8;de;;;7.3.;;;Multimediales Medizininformatiksystem im Gesundheitswesen In unserem modernen 21. Jahrhundert wäre das tägliche Leben ohne Computer undenkbar. Multimedia und virtuelle Realität sind nützlich für Menschen mit Wirbelsäulenmedizin, Rehabilitation und unterstützender und präventiver Gesundheitsversorgung. Dieses Kapitel befasst sich mit Multimedia-Anwendungen, die für Ärzte, Pflegepersonal und andere interessierte Personen bestimmt sind. Es beschreibt Möglichkeiten, wie Multimedia ihre Arbeit unterstützen kann. Dazu gehören die Bereiche Diagnose und Anwendung in der Ausbildung. Auch Themen, die den Patienten wichtig sind, werden behandelt. Einige davon sind, wie Multimedia ihre Rehabilitation unterstützen kann.;-;-;-;https://link.springer.com/chapter/10.1007/11418337_2 488f7616d981687fe0d1b23210a32f7b;de;;;7.3.;;;Erstellen einer Data Warehouse-Bibliothek Benutzer des eDW-Systems hätten keine Zeit, alle von Agenten gelieferten Dokumente zu lesen. Daher werden Dokumente nicht direkt an die Benutzer gesendet, sondern im;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0137-6_8 b102cce51d83d949fe9c7f1e3c08e484;de;;;7.3.;;;Modellierungsanalyse des intelligenten Logistik-Vertriebspfads von Agrarprodukten in einer Umgebung des Internet der Dinge Things Mit Blick auf die Unzulänglichkeit des Logistikverteilungsmodells für traditionelle Agrarprodukte stellt dieser Beitrag die Optimierungsmodellierungsanalyse des intelligenten Logistikverteilungsweges von Agrarprodukten im Internet der Dinge vor. Gemäß dem Logistik-Vertriebsmodell landwirtschaftlicher Produkte im Umfeld des Internets der Dinge wird der intelligente logistische Vertriebsweg landwirtschaftlicher Produkte optimiert und modelliert und analysiert. Die Zielfunktion des kürzesten Wegs des Modells wird berechnet, und es werden Randbedingungen festgelegt, wodurch die intelligente logistische Verteilungspfadoptimierungsmodellierung von landwirtschaftlichen Produkten abgeschlossen wird. Experimentelle Parameter werden eingestellt und traditionelle Methoden mit Pfadoptimierungsmodellierung und Analysemethoden verglichen. Aus den Vergleichsergebnissen geht hervor, dass der Unterschied zwischen der Genauigkeit der traditionellen Methode und der Genauigkeit des Modells zur Optimierung der Vertriebsrouten der intelligenten Logistik mit einem Unterschied von 80 % am größten ist, wenn die Zeit 10:00 Uhr ist. Es ist ersichtlich, dass der Einsatz intelligenter Modellierung und Analyse der Logistikverteilungsrouten eine höhere Genauigkeit hat. Es ist ersichtlich, dass die Pfadoptimierungsmodellierungs- und Analysemethode eine höhere Genauigkeit bei der Analyse der intelligenten Logistikverteilungsroute von landwirtschaftlichen Produkten hat und eine effektive Lösung bietet, um die Frische von landwirtschaftlichen Produkten sicherzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-19086-6_36 ca705f6eb4dca1e0fd43c7c44afba6e2;de;;;7.3.;;;Effektives und flexibles NFP-basiertes Ranking von Webdiensten Die Diensterkennung ist eine Schlüsselaktivität, um die aufzurufenden und zu erstellenden Webdienste (WSs) tatsächlich zu identifizieren. Da es wahrscheinlich ist, dass mehr als ein Dienst eine Reihe von Benutzeranforderungen erfüllt, werden einige Rangordnungsmechanismen basierend auf nichtfunktionalen Eigenschaften (NFPs) benötigt, um eine automatische oder halbautomatische Auswahl zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10383-4_40 e9c184fb8916104c3048bf440fdcdc64;de;;;7.3.;;;Modellierung wertbasierter interorganisationaler Kontrollen in Gesundheitsvorschriften Produkte und Dienstleistungen werden zunehmend über Value Webs und nicht mehr von einem einzelnen Unternehmen angeboten. In der Regel benötigen Value Webs interorganisationale Kontrollen, um betrügerisches Verhalten von Akteuren zu verhindern. Zur Gestaltung und Analyse von Kontrollen haben wir die Economic Value-based Methodik entwickelt;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-39229-5_23 fdb4b83f75bc6ae229f7713a7f653a13;de;;;7.3.;;;WO – Physische Einträge ins Internet Dieser Beitrag zeigt, wie sich die erlebte Verortung von Daten oder Informationen und von Computern seit der ersten allgemeinen Nutzung der Informations- und Kommunikationstechnik verändert hat. Wir zeigen, wie viele aktuelle und zukünftige nicht-professionelle Benutzer eine Sicht auf die Lokalität für physisch markierte Einstiegspunkte zu Ressourcen entwickeln, die tatsächlich Knoten in einem oft globalen Netzwerk sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-92081-8_5 e8594e9f2d3f30e64eb826da64c135d1;de;;;7.3.;;;Web 2.0 schafft eine neue Regierung Innovating Government steht ganz oben auf der Agenda und hat sich durch den Einsatz von Web 2.0 als erfolgreich erwiesen. Dieses Label umfasst eine neue Welle von webbasierten Anwendungen, die auf dem Konzept des Benutzers als Hersteller beruhen. Web 2.0 bietet Mittel zur Schaffung einer besseren Regierung. Als erster Punkt werden Verbesserungen betrachtet, die auf einer Rückmeldung an die Agenturen basieren. Beispiele sind Servicebewertungen, Strafverfolgung und Budgetzuweisungen. Eine nächste Art von Verbesserungen betrifft die Bürgerbeteiligung, um die Bürger wieder mit der Politik und der Politikgestaltung zu verbinden, um die Reaktionsfähigkeit zu verbessern. Zu diesem Zweck eignen sich soziale Medien hervorragend, um alle Arten von Aktivitäten der Zivilgesellschaft zu unterstützen. Prominente Beispiele sind Kampagnen, Petitionen, Monitoring und Stadtplanung. Ein anderer Weg ist die Nutzung des Web 2.0 für die agenturübergreifende Zusammenarbeit. Die Zusammenarbeit im Großen und Ganzen führt zum Austausch bewährter Verfahren und zum Wissensmanagement.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15172-9_7 ecc03a9419a2bbeead8678977663adb8;de;;;7.3.;;;Bekämpfung von Link-Spam durch verrauschte Link-Analyse Link-Spam hat sich als eines der Haupthindernisse für linkbasierte Ranking-Algorithmen moderner Suchmaschinen erwiesen, da es gezielt eine Hyperlink-Struktur erstellt, um einigen Seiten mit schlechtem Inhalt zu helfen, einen unverdienten hohen Rang zu erreichen. Dieses Problem wird mit dem Aufkommen von Wikis, Blogs und Foren, die reich an Links sind, noch schlimmer. Bestehende Arbeiten zu Link-Spam konzentrieren sich hauptsächlich auf die Link-Spam-Erkennung durch Extraktion einiger spezieller Linkstrukturen (z. B. Clique, Tight Bipartite etc.). Link-Spam-Strukturen können jedoch viele Variationen aufweisen und die bestehenden Erkennungsmethoden leicht unwirksam machen. In diesem Whitepaper gehen wir das Problem von Link-Spam aus einem grundlegenderen Blickwinkel an – der Analyse von „verrauschten Links“. Zunächst wird untersucht, wie sich „non-voting“-Hyperlinks auf die Qualität des Rankings auswirken, und basierend auf dieser Untersuchung wird ein Ansatz vorgeschlagen, um „noisy link“ effektiv und automatisch zu erkennen und zu verarbeiten. Wir vergleichen unsere Arbeit auch mit zwei anderen verwandten Arbeiten (TrustRank und Rauschentfernung auf Site-Ebene) an zwei echten Web-Datensätzen. Die experimentellen Ergebnisse zeigen, dass die vorgeschlagene Analyse des „verrauschten Links“ sowohl bei der Filterung von Spam-Seiten als auch bei der endgültigen Verbesserung des Rankings sehr effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17316-5_43 b2beeb662b5cf24fdc0fa2878c5c14fb;de;;;7.3.;;;Ein vereinfachtes datenbankorientiertes Web-Framework Der Beitrag analysiert zunächst Nachteile in den traditionellen Web-Datenbanksystemen. Und dann stellt es ein vereinfachtes Framework namens datenbankorientiertes Web-Framework (DOWF) vor. In diesem Rahmen werden die Seiten und die Daten alle vom Datenbanksystem verwaltet. Um Schlüsselwörter zu erhalten oder eine spezielle Seite zu durchsuchen, auf die die Benutzer zuvor zugegriffen haben, greifen Benutzer auf die statischen Seiten durch Common-Script-Verfahren (CSP) und auf die dynamischen Seiten durch funktionale Skriptverfahren (FSP) und CSP zu. Der Artikel erläutert die Methode zur Implementierung von DOWF im Detail. Das Papier analysiert auch den Mechanismus einer DOWF-Site durch die Implementierung eines Prototypsystems. Schließlich beschreibt der Artikel die Funktionen von DOWS bei der Suche, bei der Sicherheit, bei der Wiederverwendung von Seiten und beim Offline-Warten usw.;-;-;-;https://link.springer.com/article/10.1007/BF02831667 b78855199c285132b6f4635c8132d56d;de;;;7.3.;;;Webservice-Anpassung: Mismatch-Muster und halbautomatischer Ansatz zur Mismatch-Identifikation und Adapterentwicklung Das schnelle Wachstum von Online-Webdiensten hat zur Verbreitung von funktional gleichwertigen Diensten mit Unterschieden in ihren Beschreibungen und Verhaltensweisen geführt und hat daher die Notwendigkeit einer Dienstanpassung verursacht. In diesem Kapitel besprechen wir die wichtigsten Herausforderungen für die Interoperabilität und Anpassung von Webdiensten. Wir präsentieren einen konsolidierten Rahmen, der eine Methodik, Methoden und Werkzeuge zur Identifizierung und Bewältigung von Serviceanpassungsherausforderungen umfasst, indem wir Serviceanpassungsprobleme, ihre halbautomatische Identifizierung und Lösung für die Adapterentwicklung charakterisieren. Die innovativen Beiträge unserer Arbeit bestehen in (i) einer Taxonomie von häufigen Fehlanpassungen an den Serviceschnittstellen und Geschäftsprotokollen, deren Definitionen und Auflösungen in;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-7518-7_10 3b3a506e72d1fe416b5bffab5faea60a;de;;;7.3.;;;E-Partizipationserfahrungen und Kommunalverwaltung in Katalonien: Eine erklärende Analyse Diese Forschung analysiert die wichtigsten Erklärungsfaktoren für den Impuls von Bürgerbeteiligungserfahrungen bei der öffentlichen Entscheidungsfindung, sowohl online als auch offline, und sucht nach Unterschieden und Gemeinsamkeiten in der Internetnutzung für die Beteiligung. Es konzentriert sich auf die Analyse in Katalonien, einem der geografischen Gebiete Spaniens und der Europäischen Union, die den Impuls für partizipative Erfahrungen gegeben haben. Es konzentriert sich auf die lokale Regierungsebene, einen fruchtbaren Raum für diese Aktivitäten. Wie auch immer, ihr Impuls zwischen den verschiedenen Gemeinden war sehr heterogen und die Daten wurden nicht systematisch erhoben. Generell zeigen die Analysen, dass politische Variablen wie die politische Partei des Bürgermeisters oder die Wahlenthaltungsrate eine Erklärung für die Förderung von e-Partizipationserfahrungen wären, sowie Variablen, die sich auf den Beteiligungskontext der Gemeinde oder die Bevölkerungsgröße beziehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15158-3_7 f6ed36a525ae08ab7c665344adb294f1;de;;;7.3.;;;BIRD: Biomedizinische Informationsintegration und -erkennung mit Semantic Web Services Die biomedizinische Forschung ist heute informationsintensiv, die Menge und Vielfalt neuer Datenquellen stellt aktuelle Datenbanktechnologien vor Herausforderungen. Die Entwicklung und Abstimmung von Datenbanktechnologien für Biologie und Medizin wird das derzeitige Innovations- und Entdeckungstempo aufrechterhalten und beschleunigen. Neue vielversprechende Anwendungsfelder wie das Semantic Web und die Semantic Web Services können das Potenzial der Integration und Entdeckung biomedizinischer Informationen nutzen und das Problem der semantischen Heterogenität biomedizinischer Informationsquellen in einer Vielzahl von Speicher- und Datenformaten, die sowohl über das Internet als auch innerhalb von einzelne Organisationen. In diesem Beitrag stellen wir BIRD vor, eine vollwertige Lösung zur Integration biomedizinischer Informationen, die die Analyse natürlicher Sprache und semantisch unterstützte Techniken kombiniert, um festzustellen, wie die Benutzerbedürfnisse am besten erfüllt werden können. Unser Ansatz wird durch eine Machbarkeitsstudie unterstützt, bei der der Durchbruch und die Effizienz der Integration der biomedizinischen Publikationsdatenbank PubMed, der Database of Interacting Proteins (DIP) und des Münchner Informationszentrums für Proteinsequenzen (MIPS) getestet wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73055-2_58 3b38583fc3485b136a9a032aaf970297;de;;;7.3.;;;Ghostrail: Ad-hoc-Kontrollflussintegrität für Webanwendungen Moderne Webanwendungen implementieren häufig komplexe Kontrollflüsse, bei denen die Benutzer Aktionen in einer bestimmten Reihenfolge ausführen müssen. Benutzer interagieren mit einer Webanwendung, indem sie HTTP-Anforderungen mit Parametern senden, und erhalten als Antwort Webseiten mit Hyperlinks, die die erwarteten nächsten Aktionen anzeigen. Wenn eine Webanwendung davon ausgeht, dass der Benutzer nur die erwarteten Anforderungen und Parameter sendet, können böswillige Benutzer diese Annahme ausnutzen, indem sie schädliche Anforderungen erstellen. Wir analysieren aktuelle Angriffe auf Webanwendungen in Bezug auf benutzerdefinierte Anfragen und identifizieren deren Ursache in der fehlenden Durchsetzung zulässiger nächster Benutzeranfragen. Basierend auf diesem Ergebnis stellen wir unseren Ansatz mit dem Namen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55415-5_22 44a621cd8ed5b115bbeec71450cb2f08;de;;;7.3.;;;Adaptives Caching-Management für Multimedia-Unterstützung Das Active HYpermedia Delivery System (AHYDS) innerhalb der NACSIS R&D-Abteilung ist eine experimentelle fortschrittliche Plattform, die für die Bereitstellung von Hypermedia-Dokumenten über verteilte und heterogene Systeme entwickelt wurde. Die Entwicklung der Netzwerktechnologie und die Anforderungen an Multimediaanwendungen legen nahe, dass Hypermedia- und Multimedia-Bereitstellungssysteme in Bezug auf Medien-Caching verbessert werden müssen, um die Datenbereitstellung an eine große Anzahl von Benutzern zu gewährleisten und auch den Informationsverkehr innerhalb großer Multimedia-Informationssysteme zu reduzieren reduce . Fernzugriffe auf den Hauptspeicher erfordern das Kombinieren des Hauptspeicherzugriffs in einem gleichen LAN.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48309-8_86 4a3b4d06106e5b1b798850931d741eb9;de;;;7.3.;;;Automatische Extraktion von thailändisch-englischen Begriffsübersetzungen und Synonymen aus dem Medical Web unter Verwendung der iterativen Kandidatengenerierung mit Assoziationsmaßnahmen Im Internet verfügbare elektronische technische Dokumente sind eine leistungsstarke Quelle für die automatische Extraktion von Begriffsübersetzungen und Synonymen. Dieser Beitrag stellt einen assoziationsbasierten Ansatz vor, um mögliche Übersetzungen und Synonyme durch iterative Kandidatengenerierung mithilfe einer Suchmaschine zu extrahieren. Die plausiblen Kandidatenpaare können durch Berechnen ihrer gleichzeitig auftretenden Statistiken ausgewählt werden. In unserem Experiment zur Extraktion thailändisch-englischer medizinischer Begriffspaare werden vier mögliche alternative Assoziationen, nämlich Vertrauen, Unterstützung, Auftrieb und Überzeugung, untersucht und ihre Leistungen durch zehnfache Kreuzvalidierung verglichen. Die experimentellen Ergebnisse zeigen, dass Lift mit 73,1% f-Maß mit 67% Präzision und 84,2% Recall bei der Translationspaar-Extraktion, 68,7% f-Measure mit 71,5% Präzision und 67,7% Recall bei der Extraktion von thailändischen Synonymen und 72,8% die beste Leistung erzielt. f-Maß mit 72,0 % Präzision und 75,1 % Wiedererkennungswert bei der Extraktion von englischen Synonymen. Die Präzision unseres Ansatzes bei der Thai-Englisch-Übersetzung, der thailändischen Synonym- und der englischen Synonymextraktion ist 4-mal, 3,5-mal bzw. 5,5-mal höher als die Ausgangspräzision.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14640-4_11 66ee26521354b65738b961673cd64098;de;;;7.3.;;;m.Site: Effiziente Inhaltsanpassung für mobile Geräte Mobile Das Erstellen einer mobilen Benutzeroberfläche kann für Website-Administratoren ein zeitaufwändiger Prozess sein. Wir präsentieren einen neuartigen Ansatz zur Anpassung bestehender Websites an das mobile Paradigma. Im Gegensatz zu bestehenden Technologien zielt unser Ansatz darauf ab, ein Trio an Funktionalität, Benutzerfreundlichkeit und Skalierbarkeit für große Web-Communitys bereitzustellen. Ein Site-Administrator wählt visuell Objekte innerhalb einer Webseite aus und weist Seitenobjekten ein oder mehrere Attribute aus einer umfangreichen Sammlung vordefinierter Seitenänderungen zu. Unser vorgeschlagenes System generiert dann Code für einen php-basierten Proxy-Server mit mehreren Sitzungen, um dynamische Anpassungen mobiler Inhalte basierend auf den ausgewählten Attributen bereitzustellen. Die Modifikationen kapseln komplexe Seiteninteraktionen und bieten eine vereinfachte Schnittstelle für mobile Benutzer. Der Proxy-Server wird durch einen hocheffizienten und standardkonformen Browser ergänzt, der sich auf dem Server befindet, um für einen mobilen Client mit eingeschränkten Ressourcen zu intervenieren. Anpassungen wie das Vor-Rendering von Inhalten können zwischengespeichert und von Benutzern gemeinsam genutzt werden, um die Last zu amortisieren. Wir bauen einen Prototyp und bewerten seine Wirksamkeit auf einer komplexen Webanwendung, die eine geschäftige Online-Community mit fast 66.000 Mitgliedern antreibt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35170-9_3 b8a48f8992459dcef7b05fb2c770dc19;de;;;7.3.;;;Automatisches Einspeisen einer Innovations-Wissensdatenbank mithilfe einer semantischen Darstellung von Feldwissen In diesem Beitrag schlagen wir unter Berücksichtigung eines bestimmten Anwendungsbereichs, der Innovation, ein automatisches System vor, um eine Innovations-Wissensdatenbank (IKB) ausgehend von Texten im Web zu speisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76848-7_68 dadb866e18fc506dfe6e54c0e228971f;de;;;7.3.;;;Vergleichende Analyse von DoS- und DDoS-Angriffen in einer Internet-of-Things-Umgebung Mit der hohen Akzeptanzrate für das Internet der Dinge (IoT) von heute. Die IoT-Geräte umfassen Fernseher (TV), Sprachsteuerung, Smart Lock, Smart Light, Lautsprecher, Nest-Rauchmelder, Klimaanlage, Klingelklingel und Smart Plug usw. Somit bietet der Einfluss des IoT vielen Branchen neue Möglichkeiten der Geschäftsabwicklung Betriebsabläufe wie Beschaffung, Fertigung, Verteilung von Waren und Dienstleistungen etc. Mit Hilfe von intelligenten Sensoren, Aktoren etc. haben sich die Industrien in eine Ära namens Industrie 4.0 (IR4.0) revolutioniert, in der der Geschäftsbetrieb möglich ist und potenziell optimiert, indem sie miteinander verbundene „Dinge“ über Datenkommunikationskanäle steuern. Ähnlich wie bei anderen elektronischen Kommunikationsplattformen im IoT ist die Gewährleistung der Sicherheit von größter Bedeutung, insbesondere bei der Erkennung der Bedrohung durch Sicherheitsherausforderungen in der IoT-Umgebung. Dieses Papier zielt darauf ab, eine vergleichende Analyse zwischen Denial of Service (DoS) und Distributed Denial of Service (DDoS) Angriffen in der IoT-Umgebung durchzuführen. Im Wesentlichen zeigt die vergleichende Analyse, dass der DDoS-Angriff mit etwa 68 % Gbit/s-Anfragen im Vergleich zum DoS-Angriff mit 58 % Gbit/s-Anfrage der bedeutendste Angriff in der IoT-Umgebung ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-51971-1_15 50e5f21605d5fdf9671f862ae46e6ce9;de;;;7.3.;;;Mediapedia: Web-Wissen nutzen, um Multimedia-Enzyklopädien zu erstellen In den letzten Jahren haben wir das Aufblühen von Web 2.0-Inhalten wie Wikipedia, Flickr und YouTube usw. erlebt. Wie können wir von solchen Rich Media-Ressourcen im Internet profitieren? Dieses Papier präsentiert ein neuartiges Konzept namens;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11301-7_55 009b547ac97ecee29bfa57aa728c6e00;de;;;7.3.;;;Virtuelle Gemeinschaften für KMU: Eine warnende Geschichte eines elektronischen Marktplatzes In diesem Papier werden die Konzepte virtueller Gemeinschaften und elektronischer Marktplätze und insbesondere deren Relevanz für KMU untersucht. In diesem Zusammenhang wird ein konkretes Beispiel für einen regionalen elektronischen Marktplatz (REM) untersucht, der ein Community-Web-Modell verwendet. Der Autor überprüft die dem Projekt zugrunde liegende Philosophie und die Planung, die der Umsetzung vorausging. Eine Überprüfung des Falls beleuchtet die Probleme, die für eine erfolgreiche Umsetzung entscheidend sind, und bietet einen Rahmen für zukünftige REM-Entwicklungen. Der Fall wird im Kontext einer E-Community analysiert und Empfehlungen für zukünftige Portalentwicklungen ausgesprochen. Schließlich hinterfragt der Autor die Bereitschaft von KMU, ein virtuelles Organisationsmodell zu übernehmen.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-8155-3_19 fc9585be5f44060f809f862a82a4f1f4;de;;;7.3.;;;Analysieren der Gesundheitsverbraucherterminologie für Aufgaben zur Neuformulierung von Abfragen Trotz der Verfügbarkeit medizinischer Informationen im Internet haben Gesundheitskonsumenten immer noch Probleme, diese Informationen zu finden und zu interpretieren. Die Komplexität des medizinischen Wissens und die Verwendung von Fachbegriffen erschweren die Vermittlung solcher Informationen. In dieser Arbeit haben wir die Terminologie der Gesundheitskonsumenten im Bereich Brustkrebs analysiert und charakterisiert, um Gesundheitsdienstleistungen besser an ihre Sprache und ihr Wissen über medizinische Konzepte anzupassen. Die Arbeit wurde auf der Grundlage einer konzeptbasierten Terminologie durchgeführt, die aus zwei Arten von Textkorpus aufgebaut ist: Gesundheitskonsumentenkorpus und Gesundheitsmediatorenkorpus. Die resultierende konzeptbasierte Terminologie wurde mit unterschiedlichen quantitativen und qualitativen Methoden auf mehreren Ebenen analysiert: Begriffs-, Begriffs- und Beziehungsebene.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25838-1_11 c6ee23fd97560849a2e5339a6c8b853b;de;;;7.3.;;;Offene Umweltplattformen: Top-Level-Komponenten und relevante Standards Wir präsentieren unsere Ideen einer offenen Informations- und Kommunikationstechnologie (IKT)-Plattform zur Überwachung, Kartierung und Verwaltung unserer Umgebung. Die geplante Lösung schließt die Lücke zwischen dem Internet der Dinge, Inhalte und Dienste und hochspezifischen Anwendungen wie der Erkennung von Ölverschmutzungen oder der Meeresüberwachung. Diese Umweltplattform soll einerseits offen für neue Technologien sein, andererseits muss sie offene Standardschnittstellen zu verschiedenen Anwendungsdomänen bereitstellen. Wir identifizieren Kernkomponenten, Standards und Anforderungen für die Entwicklung neuer Standards in der IKT für die Umwelt. Wir skizzieren kurz, wie unsere bisherigen und aktuellen Aktivitäten zur Entwicklung der gewünschten offenen Umweltplattform beitragen. Zukünftige Umsetzungen sollen zu nachhaltigen Entwicklungen im Umweltbereich beitragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22285-6_24 0d9378b4579fdc715eddada8732f2b67;de;;;7.3.;;;Eine Studie zum Split-Algorithmus von URL LIST, gesammelt von Web-Crawler Die Entwicklung der Cloud-Technologie und der webbasierten Technologie und Serching-Technologie gewinnt an Bedeutung. Bei der Web-Crawler-Technologie, die URLs für die Suche sammelt, ist eines der Probleme des verteilten Crawler-Systems die effektive URL-Aufteilung. Daher wurde in dieser Studie ein Algorithmus entwickelt, um die vom Webcrawler effektiv gesammelte URL-LISTE aufzuteilen, und die geteilte Algorithmusumgebung der vom Webcrawler gesammelten URL-LIST wurde durch die Implementierung einer Verwahrstelle in der Hadoop-Umgebung erstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22333-4_64 fb64926e05930bf5c63292787ec99097;de;;;7.3.;;;Evaluierung eines englischen Word-Look-Up-Tools zum Surfen im Internet mit Gebärdensprachvideo für gehörlose Leser Untersuchungen haben gezeigt, dass einige Menschen, die in den USA gehörlos oder schwerhörig sind (DHH), niedrigere Englischkenntnisse haben als ihre hörenden Altersgenossen, was für diese Benutzer eine Barriere beim Zugriff auf Webinhalte darstellt. Wir haben eine Benutzeroberfläche entwickelt, die diesen Benutzern beim Lesen von englischem Text auf Webseiten hilft. Benutzer können auf bestimmte markierte Wörter klicken, um ein ASL-Zeichenvideo in einem Popup anzuzeigen. Eine Benutzerstudie wurde durchgeführt, um dieses Tool zu bewerten und es mit Webseiten zu vergleichen, die nur Text enthalten, sowie mit Seiten, auf denen Benutzer auf Wörter klicken und Textdefinitionen mit dem Google Dictionary-Plug-in für Browser anzeigen können. Die Studie bewertete die subjektive Präferenz der Teilnehmer für diese Bedingungen und verglich ihre Leistung beim Erledigen von Leseverständnisaufgaben mit jedem dieser Tools. Wir stellten fest, dass die Teilnehmer es vorzogen, Unterstützungstools in ihrer Benutzeroberfläche zu verwenden, anstatt keine, aber wir haben keinen signifikanten Unterschied in ihren Präferenzen zwischen den beiden bereitgestellten Unterstützungstools gemessen. In diesem Papier werden die Details des Entwurfs und der Entwicklung dieses vorgeschlagenen Werkzeugs, die auf den Prototyp angewendeten Entwurfsrichtlinien, die die Ergebnisse beeinflussenden Faktoren und die Richtungen für die zukünftige Arbeit vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-92049-8_15 517dd860465a5075d4b6597f71e14d4a;de;;;7.3.;;;IoT: Sicherheitsprobleme und Herausforderungen Internet of Things (IoT) wird als eine Gruppe von Geräten und Geräten bezeichnet, die Daten über das Internet ohne menschliches Eingreifen erfassen, sammeln und senden können, die mit Sensoren installiert sind. Hinter Smart Cities, selbstfahrenden Autos, Smart Metern und Smart Home ist IoT die Kerntechnologie. IoT-Geräte haben inhärente Schwachstellen und begrenzte Ressourcen, das Fehlen explizit entwickelter IoT-Standards mit diversifizierten Technologien, die einen wachsenden Boden für das Wachstum spezifischer Cyber-Bedrohungen darstellen. Da zunehmend IoT-Geräte zum Einsatz kommen, ist die Sicherheit die größte Herausforderung für die Hersteller. Dieses Papier konzentriert sich auf die Sicherheitsbedenken im IoT und die Herausforderungen beim Umgang mit verschiedenen Angriffsarten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7062-9_9 3f926a7d8ef9f54132ca28ee1a62e185;de;;;7.3.;;;DisPA: Ein intelligenter Agent für die private Websuche Durch Suchanfragen können Präferenzen und Interessen der Nutzer abgeleitet werden. Während Suchmaschinen diese Informationen unter anderem für gezielte Werbung und Personalisierung verwenden, können diese Aufgaben die Privatsphäre der Benutzer verletzen. Nachdem AOL im Jahr 2006 die Suchanfragen von 650.000 Benutzern offengelegt und einige von ihnen neu identifiziert wurden, haben viele Privacy Enhancement Technologies (PETs) versucht, dieses Problem zu lösen. Das;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09885-2_21 d8a029ca534fbdf8fa8ad3dac29560cc;de;;;7.3.;;;Überwachung von Cyberbedrohungen: Experimentelle Analyse des Verhaltens von Malware im Cyberspace Der Cyberspace ist ein grenzenloses neues Universum, in dem alle Akteure, einschließlich Staaten, Informations- und Kommunikationstechnologien teilen, die für den modernen Lebensstil heute unverzichtbar sind. Seit Beginn des 21. Jahrhunderts ist die Fähigkeit, den Cyberspace zu nutzen, zur wichtigsten Machtquelle geworden. Durch die Verbreitung von IKT-Systemen in allen Lebensbereichen hat die Bedeutung von Informationen für politische Angelegenheiten stark zugenommen. Staatliche und nichtstaatliche Akteure können diese Macht nutzen, um Ziele im Cyberspace und in der physischen Welt zu erreichen. Niedrige Kosten und hohe potenzielle Auswirkungen machen Cyber-Power für alle Akteure attraktiv. Tatsächlich sind Cyberbedrohungen mit der Verbreitung der Cyberspace-Infrastrukturen exponentiell gewachsen. Folglich ist der Cyberspace zu einer Domäne der Kriegsführung geworden, die das Potenzial hat, logische, physische, technische und virtuelle Infrastrukturen zu zerstören oder nutzlos zu machen, was in der Tat entscheidende nationale Fähigkeiten beeinträchtigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40588-4_17 80d4631eb12aedac864280e155339993;de;;;7.3.;;;Die Metapher der digitalen Kluft: Wege zur IT-Kompetenz verstehen Keinen oder benachteiligten Zugang zu Informationen in einer informationsbasierten Gesellschaft zu haben, kann als Handicap angesehen werden [5]. In den letzten zwei Jahrzehnten haben Wissenschaftler die Konzeptualisierung der digitalen Kluft schrittweise verfeinert und sich von einem dichotomen Modell, das hauptsächlich auf dem Zugang zu einem mehrdimensionalen Modell basiert, das unterschiedliche Nutzungsniveaus und Perspektiven berücksichtigt, bewegt. Während die Modelle komplexer wurden, konzentrierte sich die Forschung weiterhin hauptsächlich darauf, das Verständnis der demografischen und sozioökonomischen Unterschiede zwischen Adoptern und Nicht-Adoptern zu vertiefen. Dabei wurde der Prozess des Erwerbs grundlegender IT-Kenntnisse weitgehend übersehen. Dieses Papier präsentiert eine metaphorische Interpretation des Prozesses des Erwerbs von IT-Kompetenzen, die auf empirischen Erkenntnissen basiert. Die Analyse unterstreicht das Vorhandensein von drei verschiedenen Ansätzen zum Erwerb von IT-Kompetenzen sowie die Schlüsselrolle des Selbstlernens. Diese vorläufigen Ergebnisse stellen einen nützlichen Ausgangspunkt für die Gestaltung wirksamerer und ausgefeilterer Inklusionspolitiken dar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74444-3_23 30cb9106760ed13206f4c044aebe552d;de;;;7.3.;;;Nutzung von Verkehrslokalitäten für eine effiziente Flusszustandssuche Flusszustandstabellen sind eine wesentliche Komponente zur Verbesserung der Leistung der Paketklassifizierung in der Netzwerksicherheit und im Verkehrsmanagement. Im Allgemeinen wird eine Hash-Tabelle verwendet, um den Zustand jedes Flusses aufgrund ihrer schnellen Suchgeschwindigkeit zu speichern. Hash-Tabellenkollisionen können jedoch die Effektivität der Paketklassifizierung unter Verwendung einer Flusszustandstabelle stark reduzieren. In diesem Papier schlagen wir drei Schemata vor, um Hash-Kollisionen durch Ausnutzung der Lokalität im Verkehr zu reduzieren. Unsere Experimente zeigen, dass alle unsere vorgeschlagenen Schemata besser abschneiden als die Standardpraxis des Hashings mit Überlaufketten. Noch wichtiger ist unser;-;-;-;https://link.springer.com/chapter/10.1007/11422778_91 ec2435ff8c6d11cecaae4d7957e25e60;de;;;7.3.;;;FIR: Ein effektives Schema zum Extrahieren nützlicher Metadaten aus sozialen Medien In letzter Zeit nimmt die Nutzung sozialer Medien für den Austausch von Gesundheitsinformationen unter Patienten, Ärzten und anderen Angehörigen der Gesundheitsberufe zu. In medizinischen Bereichen ermöglichen soziale Medien es Nicht-Experten, auf medizinische Informationen für ihre eigene Versorgung und die Versorgung anderer zuzugreifen, diese zu interpretieren und zu generieren. Die Forscher widmeten den sozialen Medien in der medizinischen Ausbildung, der Kommunikation zwischen Patienten und Apothekern, der Erkennung von unerwünschten Arzneimittelwirkungen, den Auswirkungen der sozialen Medien auf die Medizin und das Gesundheitswesen usw. große Aufmerksamkeit. Allerdings diskutieren relativ wenige Artikel, wie man aus einer großen Menge an Textkommentaren in sozialen Medien effektiv nützliches Wissen extrahiert. Daher zielt diese Studie darauf ab, ein Fuzzy-Adaptive-Resonance-Resonance-Theory-Netzwerk-basiertes Information Retrieval (FIR)-Schema vorzuschlagen, indem das Fuzzy-Adaptive-Resonance-Resonance-Theorie (ART)-Netzwerk, Latent Semantic Indexing (LSI) und Assoziationsregeln (AR) kombiniert werden, um Wissen aus sozialen Medien. In unserem FIR-Schema wurde zunächst das Fuzzy-ART-Netzwerk verwendet, um Kommentare zu segmentieren. Als nächstes verwenden wir für jedes Kundensegment die LSI-Technik, um wichtige Schlüsselwörter abzurufen. Um die extrahierten Schlüsselwörter verständlich zu machen, wird dann das Mining von Zuordnungsregeln präsentiert, um diese extrahierten Schlüsselwörter zu organisieren, um Metadaten zu erstellen. Diese extrahierten nützlichen Stimmen der Kunden werden mithilfe von Quality Function Deployment (QFD) für die weitere Entscheidungsfindung in Designanforderungen umgewandelt. Im Gegensatz zu herkömmlichen Informationsabruftechniken, die zu viele Schlüsselwörter erfassen, um wichtige Punkte zu erhalten, kann unser FIR-Schema verständliche Metadaten aus sozialen Medien extrahieren.;-;-;-;https://link.springer.com/article/10.1007/s10916-015-0333-0 be10050a567c63ce8de474f2a67d18bb;de;;;7.3.;;;Aktuelle Trends in der Videosuche Wir haben gesehen, dass Videos im Web allgegenwärtig sind und dass sich Videosuchseiten auf einen bestimmten Aspekt konzentrieren können, wie z. B. das Teilen von Videos, Aggregation oder Originalinhalte. In Bezug auf die Suche können Websites über umfangreiche Tagging-Funktionen verfügen oder Abfragen ähnlich wie herkömmliche Datenbanken unterstützen, während andere die Volltextsuche von Dialogfeldern unterstützen. Unsere Untersuchung einer breiten Palette von Videoquellen für verschiedene Anwendungen hat die Bandbreite der verfügbaren Metadaten ans Licht gebracht, die für eine bestimmte Klasse von Videomaterial verfügbar sein können. Einige sind reich an standardisierten Metadaten, während andere Inhaltsquellen, wie beispielsweise von Nutzern beigesteuerte, nur begrenzte Metadaten aufweisen und sich möglicherweise mehr auf das Feedback von Zuschauern verlassen, um die Metadaten anzureichern und Bewertungen bereitzustellen, damit andere leichter durch den Inhalt navigieren können. Wir haben die grundlegende digitale Videotechnologie mit Schwerpunkt auf Fragen im Zusammenhang mit der Videosuche wie Komprimierung, Transport, Metadatendarstellung, Containerformaten und Mediaplayer-Systemen überprüft. Unsere Einführung in die Medienverarbeitung präsentierte den Stand der Technik bei der Metadatenextraktion aus Medien mit dem Ziel, verfügbare Metadaten für Retrievalanwendungen zu erweitern. Wir untersuchten die Verarbeitung einzelner Medientypen wie Text, Audio und Video sowie multimodale Techniken. Diese Methoden sind in den Forschungssystemen verankert, die sich über die Jahre stetig verbessert haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79337-3_11 261ee76dc6cc653e9f782477115bbf45;de;;;7.3.;;;Recherche zu Radio- und TV-Websites der Nantong University, die auf ASP und seiner Sicherheit basieren Der Beitrag stellte zunächst die aktuelle Forschung und Entwicklung der ASP-Technologie im In- und Ausland vor. Zweitens führte es insbesondere die ASP-Technologie basierend auf der Nantong University of Radio and TV Website, Datenbanktechnologie, Sicherheitstechnologie des Netzwerks und Sicherheit der Webstation ein. Basierend auf der obigen Recherche stellte der Autor die Funktionen Verwaltung, Anzeige, Abfrage usw. vor. Dann stellte ich insbesondere einige Technologien vor, die in den Sicherheitsaspekten der Webstation zu beherrschen waren, darunter Verschlüsselungs- und Attestierungstechnologie, Firewall-Technologie, Intrusion Detection-Technologie, Systemkopiertechnologie und so weiter. Schließlich machte das Papier eine Schlussfolgerung und Analyse. Es präsentierte die Nutzung als Referenz für die Nutzung und Sicherheitsforschung des Informationsabfragesystems auf der Grundlage von ASP und erhielt ein gutes Ergebnis.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23321-0_28 aef35ce5734393fdec341854843da9c4;de;;;7.3.;;;Content Based Packet Loss Recovery für klassische Musikübertragungen über das Internet Es wurden verschiedene Techniken vorgeschlagen, um mit den durch Paketverluste erzeugten Problemen umzugehen. Die Fehlerverbergung ist eine der möglichen Techniken. Die meisten Forscher konzentrierten sich auf Fehlerverbergungstechniken im Allgemeinen oder speziell für menschliche Sprache. Diese Techniken sind zur Verbergung von Musikaudiofehlern nicht effizient, da sich die Struktur des Musiksignals von der Audiosprache unterscheidet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15696-0_38 2fc28dbecdb2a12d54d63f05ff0598f0;de;;;7.3.;;;Ontologie-fähige Datenbankverwaltungssysteme Die Daten und Verarbeitung vieler großer Unternehmen sind auf mehrere unabhängige Datenbankanwendungen verteilt. Diese Datenquellen mit ihren eigenen Schemata müssen zusammenarbeiten, um neue Anforderungen innerhalb und zwischen Organisationen zu erfüllen. In diesem Papier schlagen wir eine Vision eines ontologiefähigen Datenbankmanagementsystems (genannt OeDBMS) vor, damit die Endbenutzer Ontologien, die mit einzelnen Quellen verbunden sind, korrelieren und integrieren und Daten aus verschiedenen Quellen extrahieren, korrelieren und integrieren können. Wir schlagen das Architektur- und Ontologiemodell für OeDBMS vor. Wir schlagen viele nützliche Erweiterungen der RDF/S-basierten Ontologiemodelle vor, die als Standards aufkommen, und bieten eine graphenbasierte Abstraktion für das Modell. Dies wird eine Grundlage für die Definition vieler nützlicher Ontologieoperatoren und einer Ontologie-Abfragesprache zum Durchsuchen, Suchen, Abgleichen und Verwalten von Ontologien. Wir adressieren auch die Notwendigkeit einer Ontologie-Evolution, indem wir die Ontologie zeitlich unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-37022-4_20 dc24594347a9544c9fa44b198b938385;de;;;7.3.;;;Überbrückung der Wissenskluft in GCC-Ländern: Die Rolle digitaler Technologien Technologie In den letzten Jahren hat sich der Schwerpunkt in Entwicklungsstudien auf die Schaffung von Wissen und Innovation verlagert, die das Wirtschaftswachstum fördern und die Entwicklung unterstützen. Die Globalisierung bietet insbesondere für Entwicklungsländer neue Möglichkeiten, Wissen, Informationen und Fähigkeiten zum Aufbau von Entwicklungskapazitäten zu erwerben. Moderne Informations- und Kommunikationstechnologien (IKT) befähigen die Länder, die Wirtschaftsstruktur zu diversifizieren und die sektorale Produktivität durch den Zugang zu globalen Märkten zu steigern. Im Zeitalter der Information sind Einzelpersonen, Organisationen und Institutionen in der Lage, die Kommunikation und Zusammenarbeit durch soziale Netzwerke zu verbessern, um Innovationen zu fördern und die globale Wettbewerbsfähigkeit zu verbessern. Digitale Technologien können zur Überbrückung der digitalen Kluft zwischen reichen und armen Ländern eingesetzt werden, um nicht nur die Konnektivität zu erhöhen und die Dienste zu verbessern, sondern auch Innovationen und den Aufbau von Kapazitäten für die Entwicklung zu erleichtern. Ziel dieses Papiers ist es, die Rolle zu untersuchen, die digitale Technologien bei der wirtschaftlichen Diversifizierung in den GCC-Ländern spielen. Digitale Technologien fördern Investitionen in die Fertigungsproduktion und die Wissensbildung, wodurch Verbindungen angeregt und die Diversifizierung unterstützt wird. Zu diesem Zweck könnte der Aufbau von Kapazitäten für die digitale Wirtschaft tiefgreifende Auswirkungen auf die Fähigkeit dieser Länder haben, den sozioökonomischen Transformationsprozess zu beschleunigen, der die Abhängigkeit von der Ölförderung verringert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-02131-3_16 1949606bf1aa1f84abec6ed0a78e5487;de;;;7.3.;;;Systemarchitektur eines Multimedia-Streaming-Servers für das Internet der nächsten Generation Aus dem 20. Jahrhundert übernommen, spielt das Internet im Informationszeitalter des 21. Jahrhunderts die Schlüsselrolle. Die Kernelemente der Nutzung von Informationen über das Internet sind Computer zur Informationsverarbeitung und Kommunikationsnetze zur Informationsübertragung. Außerdem haben die Informationen die Form von Multimedia-Streams, wie Ton und bewegte Bilder zusätzlich zu den traditionellen Zeichentypdaten. In diesem Papier schlagen wir einen effizienten Multimedia-Streaming-Server im Hinblick auf die Designkonzepte und die Systemarchitektur für das Internet der nächsten Generation vor. Wir präsentieren auch das Implementierungsergebnis für den Server.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30121-9_63 ea8bbeae04ea231fee685e44a291cffb;de;;;7.3.;;;Datenschutz in Geodatenanwendungen und standortbasierten sozialen Netzwerken Die Nutzung von Standortdaten hat stark von der Verfügbarkeit standortbezogener Dienste, der Popularität sozialer Netzwerke und der Zugänglichkeit öffentlicher Standortdatensätze profitiert. Der Standort ist jedoch nicht nur eine Möglichkeit, genaue Wegbeschreibungen zu erhalten oder Freunde und Bilder mit Geo-Tags zu versehen, sondern auch eine sehr sensible Art von Daten, wie mehr als ein Jahrzehnt Forschung zu verschiedenen Aspekten des Datenschutzes belegen. im Zusammenhang mit Standortdaten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98161-1_8 2648aed98bdcb475bcd53f0dcd4e2384;de;;;7.3.;;;Das Web als autobiografischer Agent Der belohnungsbasierte Ansatz des autobiografischen Gedächtnisses wurde auf den Websuchagenten angewendet. Der Ansatz basiert auf der Analogie zwischen dem Web und der Umgebungserkundung durch einen Roboter und ist von einer derzeit entwickelten Methode zum autonomen Agentenlernen neuartiger Umgebungen und zur Konsolidierung der gelernten Informationen zur effizienten Weiterverwendung abgezweigt. Der Artikel beschreibt ein Modell eines Agenten mit „autobiographischen Erinnerungen“, inspiriert von Studien zur Neurobiologie des menschlichen Gedächtnisses, den Experimenten zur Kategorisierung von Suchpfaden durch das Modell und seiner Anwendung auf das Design von Webagenten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30106-6_52 6648660491ce7add70bb7d0e387eb0f4;de;;;7.3.;;;e-Citizen: Warum auf die Regierungen warten? Der Stand der Technik im Bereich der elektronischen Verwaltung ist die Bereitstellung öffentlicher Dienste für den Bürger mittels integrierter Webportale, die die Behörden der verschiedenen Regierungsebenen umfassen, um die Komplexität der staatlichen Bürokratie vor dem Endnutzer zu verbergen. Idealerweise sollten diese Portale nach den mentalen Mustern der Individuen gestaltet sein, ihre Navigation orientiert sich an den Lebensereignissen und nicht an der Logik der Bürokratie. Außerdem müssen die zu erbringenden Dienstleistungen sowohl den Interessen des Bürgers als auch des Staates entsprechen. Angesichts der Tatsache, dass viele E-Government-Portale diesen Grundsätzen nicht folgen, schlägt dieser Artikel eine Umkehrung der Zugangspolitik zu öffentlichen Diensten vor. Indem es Paradigmen bricht, präsentiert es die organisierte Gesellschaft als Antriebsmotor für den Bau integrierter Portale, deren Inhalt und Form den Interessen der Bürger entsprechen, anstatt auf staatliche Maßnahmen zu warten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-32257-3_9 ac8b1db7237808aebf2d9e8d7935302d;de;;;7.3.;;;Ontologie-basierte Filtermechanismen für den Abruf von Web-Nutzungsmustern Web Usage Mining (WUM) zielt darauf ab, Navigationsnutzungsmuster aus Webserverprotokollen zu extrahieren. Mining-Algorithmen liefern Nutzungsmuster, aber diejenigen zu finden, die neues und interessantes Wissen in der Domäne darstellen, bleibt eine Herausforderung. Typischerweise müssen sich Analysten mit einer großen Menge an Mustern auseinandersetzen, aus denen sie das potenziell interessante Muster heraussuchen und interpretieren müssen, was sie über die Domäne enthüllen. In diesem Artikel diskutieren wir die Filtermechanismen von O3R, einer Umgebung, die das Abrufen und Interpretieren sequenzieller Navigationsmuster unterstützt. Die gesamte O3R-Funktionalität basiert auf der Verfügbarkeit der Domänenontologie, die URLs dynamisch Bedeutung verleiht. Der Analytiker verwendet Ontologiekonzepte, um Filter zu definieren, die nach zwei Filtermechanismen angewendet werden können: Äquivalenz und Ähnlichkeit.;-;-;-;https://link.springer.com/chapter/10.1007/11545163_27 a7847eef3bca9a6fd636f57557466619;de;;;7.3.;;;Fakultätsentwicklung online Online-Lernen hat eine zentrale Rolle in der Ausbildung von Gesundheitsberufen eingenommen. Zahlreiche Belege für alle Lernstufen zeigen, dass Online-Lernen bei richtiger Umsetzung genauso effektiv sein kann wie traditionelle Lehraktivitäten. Online-Lernen wurde jedoch bisher selten verwendet, um die Bildungs-, Forschungs- und Führungsfähigkeiten von Fakultätsmitgliedern zu entwickeln. In diesem Kapitel werden vergangene und potenzielle Rollen für das Online-Lernen in der Fakultätsentwicklung beschrieben. Nach einem kurzen Überblick über das Online-Lernen werden in diesem Kapitel Innovationen (veröffentlichte Beschreibungen kreativer Ansätze zur Online-Lehrkräfteentwicklung), Instruktionsdesign (eine Überprüfung evidenzbasierter Prinzipien), Implementierung (Antizipieren von Problemen und praktischen Lösungen) und Integration (Koordinieren) diskutiert Online-Elemente mit anderen Aktivitäten). Es schließt mit einem kurzen Kommentar zu Evaluation und Forschung.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7612-8_11 de436a5996252f0445189cf43b623fea;de;;;7.3.;;;So nutzen Sie mobile Technologie, um Fernunterricht auf effiziente Weise mit fortschrittlichen Multimedia-Tools in Entwicklungsländern anzubieten Obwohl die Entwicklungen der Multimedia-Technologie und der Internet-Netzwerke zu immensen Verbesserungen des Lernniveaus sowie des Fernunterrichts in den Industrieländern beigetragen haben, sind die Entwicklungsländer aufgrund der begrenzten Verbreitung dieser Technologien immer noch nicht in der Lage, von diesen Verbesserungen zu profitieren. Mangel an angemessener Verwaltung und Infrastrukturprobleme. Wenn es uns nicht gelingt, diese Probleme zu lösen, damit Menschen in Entwicklungsländern die Vorteile dieser Technologien für den Fernunterricht nutzen können, wird die große Mehrheit der Weltbevölkerung im Rückstand sein. In diesem Papier untersuchen wir, wie mobile Technologie eingesetzt werden kann, um Fernunterricht auf effiziente Weise mit fortschrittlichen Multimedia-Tools bereitzustellen. Wir empfehlen den Einsatz von Mobil- und Multimedia-Technologie, um diese große Bevölkerung unterentwickelter Länder zu erreichen und qualitativ hochwertiges Lernen auf effektive Weise zu vermitteln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27204-2_26 28572955e9dd6620cb16a307a3b06929;de;;;7.3.;;;Erfassung und Aufbereitung von Daten für OSINT-Untersuchungen Die Grundlage aller Open-Source-Intelligence-Untersuchungen sind Daten. Ohne Daten gibt es nichts, worauf man aufbauen, kombinieren, analysieren oder Schlussfolgerungen ziehen kann. In diesem Kapitel werden einige der Verfahren beschrieben, die ein Forscher unternehmen kann, um Daten aus offenen Quellen zu erhalten, sowie Methoden zur Aufbereitung dieser Daten in verwendbare Formate für die weitere Analyse. Zunächst werden die Gründe für die Notwendigkeit der Erhebung von Daten aus offenen Quellen erörtert. Zweitens werden verschiedene Arten von Daten vorgestellt, auf die man stoßen kann, einschließlich unstrukturierter und strukturierter Datenquellen, und wo diese Daten zu beziehen sind. Drittens werden Methoden zur Informationsextraktion überprüft – der erste Schritt bei der Vorbereitung von Daten für die weitere Analyse. Schließlich werden einige der Datenschutz-, rechtlichen und ethischen bewährten Verfahren behandelt, die beim Zugriff auf, Abfrage und Verwendung von Open-Source-Daten eingehalten werden sollten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-47671-1_6 d46ebaba33938e226dd559bcc0afb8d8;de;;;7.3.;;;Eine neuartige Web-Text-Mining-Methode unter Verwendung der diskreten Kosinustransformation Es hat sich gezeigt, dass Fourier-Domain-Scoring (FDS) eine 60%-ige Verbesserung der Genauigkeit gegenüber den existierenden Vektorraumverfahren ergibt, aber sein Index erfordert einen großen Speicherplatz. Wir schlagen eine neue Web-Text-Mining-Methode vor, die die diskrete Kosinustransformation (DCT) verwendet, um nützliche Informationen aus Textdokumenten zu extrahieren und ein verbessertes Dokumentenranking bereitzustellen, ohne dass übermäßig viele Daten gespeichert werden müssen. Während das neue Verfahren die Leistung des FDS-Verfahrens beibehält, bietet es eine 40%ige Verbesserung der Genauigkeit gegenüber den etablierten Text-Mining-Verfahren, wenn nur 20% des von FDS benötigten Speicherplatzes verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45681-3_32 4657282ea2afea7301a8ae5a25132c0f;de;;;7.3.;;;Stichproben von Suchmaschinenergebnissen Wir betrachten das Problem des effizienten Samplings von Abfrageergebnissen von Web-Suchmaschinen. Die Verwendung einer kleinen Zufallsstichprobe anstelle der vollständigen Ergebnismenge führt wiederum zu effizienten Näherungsalgorithmen für mehrere Anwendungen, wie zum Beispiel:;-;-;-;https://link.springer.com/article/10.1007/s11280-006-0222-z aa03f192c865a61341af4ad90ca752bc;de;;;7.3.;;;Cloud Computing: Eine Plattform von Diensten für Dienste Dieser Artikel beschreibt den Stand der Technik des Cloud Computing und konzentriert sich dabei auf seine Funktionen und die Vielfalt der Dienste und Anwendungen, die in einem Cloud-System platziert werden können, wie Datenbanken, Verarbeitung, Cloud-Gaming, Speicherung und Backup usw. Dies backup Artikel bewertet und beleuchtet auch die Vor- und Nachteile der Nutzung von Cloud Computing durch Unternehmen und gibt einen Überblick über die derzeit verfügbaren Cloud Computing Trends und Lösungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24355-4_10 3ac3aa609570b308ff233e5747a6dcac;de;;;7.3.;;;Ein neuartiger Ansatz zur Erkennung nahezu doppelter Webdokumente durch Berücksichtigung von Bildern, Text, Größe des Dokuments und Domäne Web Mining ist ein Teil des Data Mining, bei dem das Web aus enormen Datenmengen besteht. Die Suchmaschinen haben aufgrund des Vorhandenseins von fast doppelten Dokumenten im Web große Probleme, was zu irrelevanten Antworten führt. Die Leistung und Zuverlässigkeit von Suchmaschinen sind von entscheidender Bedeutung, da im Web nahezu doppelte Dokumente vorhanden sind. Zur Erkennung von nahezu doppelten Webdokumenten finden sich in der Literatur zwei Versuche. Ersteres betrachtete Domäne und Größe des Dokuments und später Text und Bild als Suchparameter. Dieser Artikel schlägt einen neuartigen Ansatz vor, der Parameter wie Text, Bild, Größe und Domäne des Dokuments kombiniert, um nahezu doppelte Dokumente zu erkennen. Der Ansatz extrahiert die Schlüsselwörter und Bilder des gecrawlten Dokuments und vergleicht sie mit den vorhandenen Dokumenten zum Ähnlichkeitsmaß. Wenn der Wert des Ähnlichkeitsbewertungsmaßes kleiner als 19,5 ist und der Bildvergleichswert größer als 70 % ist, wird es als nahezu dupliziertes Dokument erkannt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7961-5_123 d6455e6342c43db66a87a73944f01a19;de;;;7.3.;;;Identifizierung effizienter Algorithmen für die Websuche durch Implementierung von Learning-to-Rank-Algorithmen Heutzutage nimmt die Informationsmenge im Web wie die Anzahl öffentlich zugänglicher Webseiten, Hosts und Webdaten rapide zu und weist ein enormes Wachstum mit exponentieller Geschwindigkeit auf. Daher wird das Abrufen von Informationen im Web immer schwieriger. Herkömmliche Methoden des Information Retrieval sind beim Ranking nicht sehr effektiv, da sie die Ergebnisse ordnen, ohne das Modell automatisch zu lernen. Die Domäne des maschinellen Lernens namens Learning-to-Rank hilft dabei, die erzielten Ergebnisse einzustufen. Für das Learning-to-Rank wurden bisher verschiedene State-of-the-Art-Methoden entwickelt. Dieser Artikel konzentriert sich darauf, den besten Algorithmus für die Websuche durch die Implementierung verschiedener hochmoderner Algorithmen zum Erlernen des Rankings zu finden. Unsere Arbeit in diesem Papier markiert die Implementierung von Learning-to-Rank-Algorithmen und analysiert die Wirkung der leistungsstärksten Algorithmen auf die jeweiligen Datensätze. Es bietet einen Gesamtüberblick über die im Rahmen des Learning-to-Rank entwickelten Ansätze und deren Evaluierungsstrategien.;-;-;-;https://link.springer.com/article/10.1007/s12046-019-1073-5 6874cadc472f20237abece2f4db3fbb5;de;;;7.3.;;;Visuelle Konversationsschnittstellen zur Unterstützung von Benutzern mit geringer Lese- und Schreibfähigkeit Mobiltelefone haben einen langen Weg zurückgelegt, von einfachen Sprachanrufgeräten zu multifunktionalen, praktischen Werkzeugen, die durch immer neue Anwendungen, die unterwegs verfügbar sind, angetrieben werden. Für viele ist das Mobiltelefon von heute zu einem unverzichtbaren Gerät geworden, ohne das man das Haus nicht verlässt. Für einen großen Prozentsatz der menschlichen Bevölkerung sind Mobiltelefon-Apps jedoch nicht von großem Nutzen, da sie nicht über ausreichende Kenntnisse oder IT-Kenntnisse verfügen, um davon zu profitieren. Die jüngsten Fortschritte bei sprachbasierten Telekommunikations-Informationssystemen ermöglichen es benachteiligten Benutzern und Benutzern mit geringer Lese- und Schreibfähigkeit, auf Online-Dienste zuzugreifen und diese anzubieten, ohne teure Geräte oder spezielles technisches Wissen zu benötigen. Jedoch sind Sprachanwendungen aufgrund ihrer zeitaufwendigen Natur in ihrer Leistungsfähigkeit eingeschränkt. In diesem Beitrag demonstrieren wir eine Interaktionsmodalität, die die Leistungsfähigkeit der Sprachkommunikation mit grafischen Oberflächen in Smartphones kombiniert, um die Barriere des Analphabetismus zu überwinden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40498-6_67 288c7276d538b19b8af1275ef5d3e640;de;;;7.3.;;;Können E-Marketplaces die digitale Kluft überbrücken? In Australien werden kleine und mittlere Unternehmen (KMU), insbesondere ländliche KMU, als auf der falschen Seite der digitalen Kluft stehend wahrgenommen. Die Regierungen auf lokaler und bundesstaatlicher Ebene haben eine führende Rolle bei der Entwicklung elektronischer Marktplätze mit dem Ziel übernommen, das Los für KMU zu verbessern. Viele Regierungsabteilungen besitzen oder sponsern jetzt elektronische Marktplätze. Die Ziele der Regierungen bei der Schaffung elektronischer Marktplätze werden oft durch Fragen der regionalen Wirtschaftsentwicklung motiviert. Während Regierungsbehörden E-Marktplätze als wirksamen Kanal zur Umsetzung der Regierungspolitik betrachten mögen, kann dieses Modell eine Reihe von Komplikationen mit sich bringen, nicht zuletzt wird es als Hemmung des freien Handels angesehen. Trotz der Motivation für die Community-Entwicklung ist ein Hauptargument für die Entwicklung von E-Marktplätzen das wirtschaftliche, was zu einer engen Sicht auf das Konzept des E-Marktplatzes beigetragen hat und zumindest vorläufig seine Grenzen einschränken wird Einschlag. Von der Regierung geförderte elektronische Marktplätze sollten den Wert von Online-Unternehmensnetzwerken berücksichtigen, um Wissen auszutauschen und das Innovationsniveau zu steigern.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35695-2_21 b25465c7a80712073e43c6b54e1225c7;de;;;7.3.;;;Tele-Teaching der nächsten Generation: Neueste Aufzeichnungstechnologie, Benutzereinbindung und automatischer Metadatenabruf Mit der neuesten technologischen Entwicklung im letzten Jahrzehnt haben sich neue Möglichkeiten für Lernumgebungen und Bildungssysteme, wie Tele-Teaching, ergeben. Die Aufnahmetechnologie umfasst heutzutage einfache und schnelle Arbeitsabläufe, hochauflösende Videoaufnahmen, mehrere Quellen und verschiedene Ausgabeformate. Mit der Zunahme von Tele-Teaching-Inhalten treten Probleme mit ausreichenden Metadaten auf. Eine Lösung ist das User Engagement. User Engagement basiert auf der Theorie der Partizipationskultur und beinhaltet den Einsatz von Web 2.0-Technologien zur Aktivierung der Studierenden. Dies hat auch positive didaktische Nebeneffekte. Eine andere Lösung ist die automatische Erstellung von Metadaten. Daher haben wir ein automatisiertes Framework entwickelt, indem wir Video-OCR verwenden (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39062-3_25 0b3d72f09306d3952164811c43b7e820;de;;;7.3.;;;Protokollieren und Analysieren von Benutzerinteraktionen in Webportalen Content Management Systeme und Web Portal Frameworks werden in der Webentwicklung immer häufiger eingesetzt. Diese Art von Software erzeugt oft Webseiten, deren Layout in Abschnitte unterteilt ist, die im Fall von Webportalen „Portlets“ genannt werden. Portlets können von verschiedenen Quellen erstellt und dann vom Portal auf derselben Seite zusammengefasst werden. Bei Webportalen können herkömmliche Webmetriken, die auf Seitenbesuchen basieren, aufgrund der Heterogenität der Inhalte und der Vielfalt der Quellen unzureichend sein, um das Interesse der Benutzer vollständig zu verstehen. Dieses Papier schlägt ein System vor, um den Webverkehr auf einer tieferen Ebene als beim Seitenbesuch auszuwerten: auf der Ebene der Abschnitte oder der Portlets. Das Interesse des Benutzers an den Abschnitten der Seite wird durch implizite Interessenindikatoren gemessen, wie z. Unser System besteht aus zwei verschiedenen Produkten: einem Framework, das, passend in ein Webportal instanziiert, die Erstellung eines Logs ermöglicht, und einem Log-Analyzer. Die Einsatzmöglichkeiten und der Nutzen aus der Forschung in den Bereichen Web-Traffic-Analyse, Portaldesign und Usability werden vertieft untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68262-2_16 116b37e3ac9bf90d4e96261f7e686d24;de;;;7.3.;;;Eine Verbesserung des Weighted Least-Connection Scheduling-Algorithmus für den Lastausgleich in Web-Cluster-Systemen Web-Cluster-Systeme bestehen aus einem Load Balancer zur Verteilung von Web-Anfragen und -Lasten auf mehrere Server und realen Servern zur Verarbeitung von Web-Anfragen. Frühere Lastverteilungs-Planungsalgorithmen von Web-Cluster-Systemen zum Verteilen von Web-Anfragen an reale Server sind Round-Robin, Weighted Round-Robin, Least-Connection und Weighted Least-Connection(WLC)-Algorithmus. Für Web-Cluster-Systeme wird im Allgemeinen der WLC-Scheduling-Algorithmus verwendet, bei dem realen Servern ein Durchsatzgewicht zugewiesen wird und der am wenigsten verbundene reale Server für die Verarbeitung von Web-Requests ausgewählt wird. Wenn einem Web-Cluster-System mit vielen gleichzeitigen Benutzern ein neuer realer Server hinzugefügt wird, weist der vorherige WLC-Planungsalgorithmus Webanforderungen nur dem neuen realen Server zu und sorgt für ein Lastungleichgewicht zwischen realen Servern. In diesem Artikel schlagen wir einen verbesserten WLC-Scheduling-Algorithmus vor, der die Lastverteilung zwischen realen Servern aufrechterhält, indem verhindert wird, dass Web-Anfragen nur einem neuen realen Server zugewiesen werden. Wenn Webanforderungen kontinuierlich nur einem neuen realen Server mehr als die maximale fortlaufende Zuweisungsnummer (L) zugewiesen werden, nimmt der vorgeschlagene Algorithmus den neuen realen Server von der aktivierten realen Server-Planungsliste aus und deaktiviert den neuen realen Server. Und nach den L-1-Zuweisungsrundenzeiten wird der neue reale Server in die Planungsliste des realen Servers aufgenommen, indem er aktiviert wird. Wenn Web-Cluster-Systemen ein neuer realer Server hinzugefügt wird, hält der vorgeschlagene Algorithmus den Lastausgleich zwischen realen Servern aufrecht, indem Überlastungen des neuen realen Servers vermieden werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17625-8_13 6ff38e6d182b199e7d8e43cf7a9367f1;de;;;7.3.;;;Behavioral Advertising und das neue „EU-Cookie-Gesetz“ als Opfer geschäftlicher Widerstände und fehlender behördlicher Entschlossenheit Dieses Papier befasst sich mit Artikel 5 Absatz 3 der Datenschutzrichtlinie für elektronische Kommunikation über Cookies und insbesondere mit den praktischen Auswirkungen ihrer Änderung von 2009, die den rechtlichen Ansatz für die Verwendung von Cookies für die Opt-in-Option geändert hat. Die neue Regel hatte nur geringe praktische Auswirkungen, da die Cookie-Nutzung insgesamt verbessert wurde, verhaltensbasierte Werbung, die die Privatsphäre verletzende Geschäftspraxis ist, die mit der jüngsten Änderung der Regel hauptsächlich angegangen werden soll, immer noch ohne vorherige echte Zustimmung des Benutzers durchgeführt wird . Das Papier fragt nach den Gründen für das Scheitern der Regel und findet sie in dem logischen, aber unbegründeten Widerstand der Wirtschaft, der negativen Publizität der Regel sowie in der (fehlgeleiteten) Skepsis von EU-Beamten und fehlendem Enthusiasmus bzw Niveau. Letzteres wird in lockere nationale Umsetzungen und das Fehlen offizieller Leitlinien für die Einhaltung von „Momenten“ vor dem Inkrafttreten der Regel übersetzt. Der letzte Schlag gegen die Regel wurde durch eine Änderung des Ansatzes des britischen ICO, der das Gesetz im Wesentlichen an die von vielen Online-Unternehmen angewandte Praxis der impliziten Zustimmung anpasste, und durch die Reaktion der DPWP gegeben, die alles andere als stark dagegen war 'back off', näherte sich verwirrenderweise der aktualisierten Haltung des britischen ICO. Das Papier schlägt schließlich vor, dass Datenschutzbehörden, wenn sie es wirklich wollen, einen strikten Opt-in-Ansatz für verhaltensbasierte Werbung wiederherstellen und auf deren Einhaltung durch die Unternehmen bestehen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-7376-8_9 5faa16af76cb15446f4c41dc7fd310f4;de;;;7.3.;;;eLearning im Zeitalter des Web 2.0 – Lehren aus der Entwicklung der Sprachlernumgebung von Lingro.com Jüngste Fortschritte bei Web-Technologien haben die Entwicklung neuer Arten von eLearning-Anwendungen ermöglicht, die das Potenzial haben, bestehende Lösungen zu ergänzen. Im Gegensatz zu herkömmlicher Bildungssoftware, die oft von großen Unternehmen entwickelt wird, die ihren bestehenden Kundenstamm und ihre Vertriebskanäle nutzen, werden Web 2.0-Bildungsplattformen häufig von kleinen technischen Teams mit begrenzten Werbe- und Entwicklungsbudgets erstellt. In dieser Arbeit nutzen wir unsere Erfahrungen aus erster Hand bei der Entwicklung von Lingro, einer beliebten Online-Sprachlernumgebung, um die traditionellen und neuen Ansätze zur Erstellung von eLearning-Systemen zu vergleichen und gegenüberzustellen. Wir stellen Lingro als Beispiel für eine Sprachlernanwendung der nächsten Generation vor und illustrieren damit Web 2.0-Konzepte und Branchentrends sowie deren Bezug zu traditionellen Praktiken. Wir bieten einen allgemeinen Überblick über relevante Entwicklungs- und Geschäftsthemen, analysieren Veränderungen in Softwareentwicklungsmethoden, Möglichkeiten zur Beschaffung und Erstellung von Bildungsinhalten, Lernstilen sowie Finanz- und Marketinginformationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03424-4_24 0e9720d34f5d3059bdd42bf43bf3de75;de;;;7.3.;;;Wie man das Chemielernen durch den Einsatz von Ict . fördert In diesem Kapitel wird ein Blick auf die Nutzung und Einbeziehung von Informations- und Kommunikationstechnologien (IKT) in das Lehren und Lernen von Chemie präsentiert. Studien, die die IKT-Kompetenzen von Schülern in Chemie im Besonderen und in Naturwissenschaften im Allgemeinen untersuchen, zeigen, dass IKT-basierte Lernumgebungen eine bedeutende Rolle in der Bildung spielen. Während dies als Gesamteinschätzung zu stimmen scheint, ist die Zukunft von Innovationen geprägt, schnelllebig und in vielerlei Hinsicht unberechenbar. In diesem Kapitel werden Visualisierungen in Laboratorien wie Molekularmodellierung, Datensammlung und Präsentation erläutert und veranschaulicht. Wir konzentrieren uns auch auf die IKT-Nutzung über das World Wide Web (WWW) und die virtuelle Realität sowie auf die Rolle der IKT bei der Entwicklung von Denkfähigkeiten höherer Ordnung, wie z. Außerdem werden Beispiele unterschiedlicher Aufgaben für den Chemieunterricht mit IKT vorgestellt, einschließlich einiger Empfehlungen für die Gestaltung neuer.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-6209-140-5_8 17afb1752a48e50ec0c3ed40382abef5;de;;;7.3.;;;Multi-Agent-Webempfehlungsmethode basierend auf indirekten Assoziationsregeln Empfehlungssysteme verwenden häufig Assoziationsregeln als Haupttechnik, um nützliche Verbindungen zwischen den Transaktionen zu entdecken, insbesondere Webnutzungsdaten – historische Benutzersitzungen. Der in dem Papier vorgestellte neue Ansatz erweitert typische, direkte Assoziationsregeln mit indirekten, die Assoziationen „zwischen“ statt „innerhalb“ von Web-Benutzersitzungen widerspiegeln. Beide Regeltypen werden zu komplexen Regeln kombiniert, die verwendet werden, um Ranglisten zu erhalten, die für die Empfehlung von Seiten der Website benötigt werden. Alle Empfehlungsaufgaben sind auf viele Agenten verteilt, die ihr Wissen miteinander kommunizieren und weitergeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30133-2_154 27e24ee8c01bdd2a434eed31eb22eeda;de;;;7.3.;;;Nutzung mehrerer Funktionen mit MEMMs für fokussiertes Web-Crawling Fokussiertes Web-Crawling durchquert das Web, um Dokumente zu einem bestimmten Thema zu sammeln. Dies ist keine leichte Aufgabe, da fokussierte Crawler den nächsten vielversprechendsten Link basierend auf dem Thema und den Inhalten und Links der zuvor gecrawlten Seiten identifizieren müssen. In diesem Whitepaper präsentieren wir ein Framework basierend auf Maximum Entropy Markov Models (MEMMs) für einen verbesserten fokussierten Webcrawler, um umfassendere Darstellungen mehrerer aus Webseiten extrahierter Funktionen zu nutzen, wie z. sinnvollen Kontext darzustellen. Die Kernidee unseres Ansatzes besteht darin, das fokussierte Web-Crawling-Problem als sequenzielle Aufgabe zu behandeln und eine Kombination aus Inhaltsanalyse und Linkstruktur zu verwenden, um sequenzielle Muster zu erfassen, die zu Zielen führen. Die experimentellen Ergebnisse zeigten, dass fokussiertes Crawlen mit MEMMs im Allgemeinen ein sehr wettbewerbsfähiger Crawler gegenüber dem Best-First-Crawling auf Webdaten ist, was zwei Metriken betrifft: Präzision und maximale durchschnittliche Ähnlichkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69858-6_11 0877454535537ea56ce496b937218cc5;de;;;7.3.;;;Digitalisierung mathematischer Editionen in Serbien Wir beschreiben ein laufendes Projekt, das vom Mathematischen Institut der Serbischen Akademie der Wissenschaften und Künste und der Fakultät für Mathematik, Belgrad, durchgeführt wird. Das Projekt betrifft den Aufbau elektronischer Ressourcen und Präsentationen elektronischer Editionen mathematischer Werke in Serbien, einschließlich der Retrodigitalisierung alter Bücher, Artikel und anderer mathematischer Werke sowie die Entwicklung einer entsprechenden virtuellen Bibliothek. Die im Projekt erstellten Ressourcen sind über das Internet frei zugänglich.;-;-;-;https://link.springer.com/article/10.1007/s11786-010-0021-x 32bacdd28c1aea544100ca53e2f11338;de;;;7.3.;;;Usability-Test von Webanwendungen mit Aufgabenmodell-Skeletten Usability Testing ist eine Technik zur Analyse der Usability-Probleme von Anwendungen, erfordert jedoch einen erheblichen Aufwand zur Vorbereitung des Tests und insbesondere zur Analyse der während des Tests gesammelten Daten. Neue Techniken wie die Verwendung von Aufgabenmodellen wurden eingeführt, um die Testanalyse zu verbessern und zu beschleunigen. Leider bieten nur wenige Anwendungen das Aufgabenmodell. Daher schlagen wir eine Methode und Werkzeuge zur teilweisen Rekonstruktion der Aufgabenliste und des Aufgabenmodells namens Skelett vor. Diese Rekonstruktion erfolgt anhand der Anwendungs-Walkthroughs des Usability-Experten. Das Aufgabenmodell-Skelett wird automatisch generiert, sollte aber während der Usability-Datenanalyse ähnliche Informationen liefern wie ein manuell erstelltes, vollwertiges Aufgabenmodell. Um die Nutzung des Aufgabenmodellskeletts zu evaluieren, haben wir eine Usability-Studie mit dem Web-E-Mail-Client Roundcube durchgeführt. Die Ergebnisse zeigen, dass das Aufgabenmodell-Skelett als guter Ersatz für das manuell erstellte Aufgabenmodell in Usability-Tests verwendet werden kann, wenn kein vollwertiges Aufgabenmodell verfügbar ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16488-0_13 2c6f356ee12079247da3082b494c22bb;de;;;7.3.;;;Mining von NetFlow-Datensätzen für kritische Netzwerkaktivitäten Die derzeitige Überwachung von IP-Flussaufzeichnungen wird durch die erforderliche Analyse großer Mengen von Flussaufzeichnungen herausgefordert. Das Auffinden wesentlicher Informationen ist gleichbedeutend mit der Suche nach der Nadel im Heuhaufen. Diese Analyse kann vom einfachen Zählen grundlegender Datenflussstatistiken bis hin zu komplexen Data-Mining-Techniken reichen. Einige wichtige Zielziele sind beispielsweise die Identifizierung von schädlichem Datenverkehr sowie die Verfolgung der Ursache von beobachteten flussbezogenen Ereignissen. In diesem Artikel wird die Verwendung von Linkanalyse-basierten Methoden zum Ranking von IP-Flow-Datensätzen untersucht. Wir nutzen den bekannten HITS-Algorithmus im Kontext von Flow-Level-Abhängigkeitsgraphen. Wir gehen von einem einfachen Abhängigkeitsmodell aus, das im Kontext großer IP-Datenflussdatensätze erstellt werden kann. Wir wenden unseren Ansatz auf mehrere Datensätze an, die von vom ISP erfassten Flussaufzeichnungen bis hin zu forensischen Paketerfassungen aus einem realen Einbruch reichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13986-4_20 bb28c742af8c7a50a18d80bb46d380d1;de;;;7.3.;;;Publikationstätigkeit russischer Wissenschaftler gemäß SCI- und SCOPUS-Datenbanken Dieser Beitrag zitiert statistische Daten, die die Tendenzen der Veröffentlichungstätigkeit russischer Wissenschaftler im Zeitraum von 1993 bis 2006 nach Angaben des DB Web of Science (WOS) beschreiben. Ein wichtiges Ergebnis der Forschung ist die Tatsache, dass etwa 50% der Arbeiten russischer Autoren in ausländischen wissenschaftlichen Zeitschriften veröffentlicht wurden, die zur Vorbereitung des WOS verwendet wurden. Dies ist ein Beweis dafür, dass die russische Wissenschaft stark in die internationale Wissenschaft integriert ist. Um eine vergleichende Analyse der wissenschaftlichen Produktivität der russischen Wissenschaftler durchzuführen, haben wir Statistiken aus dem Informationssystem SCOPUS verwendet und im SJR-Portal präsentiert.;-;-;-;https://link.springer.com/article/10.3103/S0147688208030039 221612f848c9583c892a77efc550fe8d;de;;;7.3.;;;Auffinden von klaren und unvollständigen Kausalsätzen in Texten: Von einzelnen Kausalsätzen zu Mechanismen to Kausalität ist ein grundlegender Begriff in jedem Bereich der Wissenschaft. In empirischen Wissenschaften wie der Physik ist Kausalität ein typischer Weg, Wissen zu generieren und Erklärungen zu liefern. Normalerweise ist Kausalität eine Art Beziehung zwischen zwei Entitäten: Ursache und Wirkung. Die Ursache provoziert eine Wirkung, und die Wirkung leitet sich von der Ursache ab, daher besteht eine starke Abhängigkeit zwischen Ursache und Wirkung. Kausalität und Konditionalität hängen eng zusammen. Eines der Hauptthemen im Bereich der Kausalität ist es, den Zusammenhang zwischen Kausalität und Konditionalität zu analysieren und zu bestimmen, welche Kausalbeziehungen als bedingte Verknüpfungen formuliert werden können. In dieser Arbeit wurde eine Methode entwickelt, um kausale und bedingte Sätze aus Texten unterschiedlicher Genres oder Disziplinen zu extrahieren, diese als Datenbank zu verwenden, um imperfekte Kausalität zu untersuchen und die kausalen Zusammenhänge eines gegebenen Konzepts mittels eines Kausalgraphen zu untersuchen. Der Prozess gliedert sich in drei große Teile. Der erste Teil erstellt eine kausale Wissensbasis mittels Erkennungs- und Klassifikationsverfahren, die in der Lage sind, diejenigen Sätze zu extrahieren, die zu einem der für diese Aufgabe ausgewählten Kausalmuster passen. Der zweite Teil wählt die Sätze aus, die sich auf ein Eingabekonzept beziehen, und erstellt eine kurze Zusammenfassung davon, wobei die an der kausalen Beziehung beteiligten Konzepte wie die Ursache- und Wirkungsknoten, ihre Modifikatoren, linguistische Kanten und die Art der kausalen Beziehung abgerufen werden. Der dritte Teil präsentiert eine grafische Darstellung der Kausalbeziehungen durch einen Kausalgraphen, wobei Knoten und Beziehungen mit linguistischen Hedges gekennzeichnet sind, die die Intensität angeben, mit der die Ursachen oder Wirkungen auftreten. Dieses Verfahren soll helfen, die Rolle der Kausalität in verschiedenen Bereichen wie Medizin, Biologie, Sozial- und Ingenieurwissenschaften zu erforschen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24672-2_9 684ccf81d04384281b91e87b4b0774fd;de;;;7.3.;;;Ein gekennzeichnetes Bewertungs-Empfehlungssystem In den letzten Jahren wird aufgrund des schnellen Wachstums der Internetnutzung das Problem, wie ein unangemessener Zugriff auf Internetinhalte vermieden werden kann, immer wichtiger. Um das Problem zu lösen, a;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45357-1_7 b3954c8478b59b666d5ff06e24addd16;de;;;7.3.;;;Ein Framework zum Identifizieren von Relevanzkommentaren in Twitter Heute, mit der kontinuierlichen Entwicklung des Internets, ist die Analyse der öffentlichen Meinung ein unverzichtbares Mittel für Regierungen und Unternehmen geworden, um Trends der öffentlichen Meinung zu erfassen und auf Notfälle umgehend zu reagieren. Das Herausfinden der relevanten Kommentare zu einem Thema ist förderlicher, um eine Analysegrundlage bereitzustellen. Twitter, eine beliebte Social-Media-Website, ermöglicht es Benutzern, ihre Ansichten zu einem Ereignis zu veröffentlichen. Die relevanten Kommentare zu einer Veranstaltung konnten über die Twitter-Suche mit den Schlüsselbegriffen der Veranstaltung abgerufen werden. Die Twitter-Suche verwendet jedoch den Full-Match-Modus, bei dem die Suchergebnisse viele irrelevante Kommentare enthalten, da kein Korrelationsfilter verwendet wird. In diesem Papier haben wir einen Rahmen zur Identifizierung von Twitter-Relevanz-Kommentaren (ITRC) vorgeschlagen. Das Framework behandelt ITRC als Textabgleichsaufgabe und gleicht einen Kommentar mit allen Nachrichten einer Veranstaltung ab, um zu unterscheiden, ob es sich bei dem Kommentar um einen Relevanzkommentar in Twitter handelt. Vor dem Matching-Modul haben wir den Rake-Algorithmus übernommen, um Schlüsselphrasen aus den Nachrichten der Veranstaltung zu extrahieren, und dann wurden die Schlüsselphrasen für die Twitter-Suche verwendet, um einen Datensatz mit twitterrelevanten Kommentaren zu erstellen. Basierend auf diesem Datensatz wurde die Wirksamkeit verschiedener Textmatching-Methoden untersucht. Durch die In-Event- und Cross-Event-Experimente haben wir das MV-LSTM mit der besten Gesamtleistung als unser Matching-Modul verwendet. Darüber hinaus haben wir auch Daten von verschiedenen Ereignissen gemischt, um die Experimente durchzuführen. Die experimentellen Ergebnisse zeigten die Wirksamkeit der Mixed-Data-Strategie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-56725-5_4 5d5d0ff2982395470ab9dc1be3173f79;de;;;7.3.;;;"Ein spieltheoretischer Ansatz für Web-Caching In diesem Artikel wird das spieltheoretische Framework auf Web-Caching angewendet. Die Interaktion mehrerer Clients mit einem Caching-Subsystem wird als nicht kooperatives Spiel angesehen. Einige Clients können kontinuierlich Ressourcen anfordern, ein großes Segment des Cache-Plattenplatzes belegen und daher hohe Trefferraten genießen. Aufgrund dieser Situation können die verbleibenden Clients unter der Entfernung ihrer ""wichtigen"" Ressourcen aus dem Cache leiden und anschließend zahlreiche Cache-Fehltreffer erfahren. Eine Nutzenfunktion wird von den Kunden dezentral eingeführt und berechnet, um solche Monopolszenarien zu vermeiden und für alle Benutzer ähnliche Leistungsniveaus zu gewährleisten.";-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24693-0_115 ddc8bc3be9f7e143dc618ec1ea99025a;de;;;7.3.;;;Gegenüberstellung bösartiger Applets durch Modifikation der Java Virtual Machine Java ist die beliebteste Sprache für die Webprogrammierung. Es leidet jedoch unter einigen bekannten Denial-of-Service-Angriffen (z. In diesem Papier stellen wir einen neuen Ansatz vor, um diese Probleme durch Patchen der Java Virtual Machine zu beheben, um die erforderlichen Prüfungen der Ressourcennutzungsgrenzen direkt auf der Ebene des Quellcodes zu erzwingen.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-8143-X_4 11a5d5997cb25f6c89fb205e5b0f666f;de;;;7.3.;;;Eine Methode zum Zusammenführen von Thesaurus und Online-Enzyklopädie für die automatische Konstruktion von Domänen-Ontologien im großen Maßstab Beim Aufbau der groß angelegten Domänenontologie ist die traditionelle manuell-basierte Konstruktionsmethode wenig effizient und nicht durchführbar. Um die großmaßstäbliche Domänen-Ontologie automatisch zu konstruieren, wurde daher ein zweistufiges Verfahren für die automatische großmaßstäbliche chinesische Domänen-Ontologie-Konstruktion vorgeschlagen, indem der Thesaurus und die Online-Enzyklopädie zusammengeführt werden. In der ersten Phase Fuzzy-Mapping des Thesaurus auf OWL und Konstruieren der Grob-Ontologie der Domäne, in der zweiten Phase, einschließlich der folgenden Schritte: (i) Concept Mapping and Pruning, (ii) Entscheidungsattribut aus der chinesischen Enzyklopädie und (iii) Grob -Ontologie Selbstadaptiv und Erweiterung. Die Praxis hat bewiesen, dass das System die Machbarkeit und Robustheit besitzt, um die automatische und schnelle Konstruktion der Domänenontologie im großen Maßstab zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39787-5_11 5949a87c050875ce3ea1cba299a95155;de;;;7.3.;;;Ein funktionsfähiger E-Mail-basierter intelligenter persönlicher Assistent Die jüngsten Phänomene der Überlastung der E-Mail-Funktion und der E-Mail-Beziehung im täglichen Leben und in der Geschäftswelt haben den Benutzern neue Probleme bereitet. Es besteht ein praktischer Bedarf an der Entwicklung eines Softwareassistenten, um die Verwaltung von persönlichen und organisatorischen E-Mails zu erleichtern und Benutzern zu ermöglichen, ihre E-Mail-zentrierten Jobs oder Aufgaben reibungslos zu erledigen. In diesem Dokument werden der Status, die Ziele und die wichtigsten technischen Elemente eines E-Mail-zentrierten intelligenten persönlichen Assistenten namens ECIPA vorgestellt. ECIPA bietet verschiedene unterstützende Funktionen, darunter automatisierte und kostensensitive Spamfilterung auf Basis entsprechender Analysen, ontologievermittelte E-Mail-Klassifizierung, Abfrage und Archivierung. ECIPA kann aus dem dynamischen Benutzerverhalten lernen, um E-Mails effektiv zu sortieren und automatisch zu beantworten. In Web Intelligence (WI) entwickelte Techniken werden verwendet, um ECIPA zu implementieren. Um die Zusammenarbeit von ECIPAs verschiedener Nutzer zu erleichtern, wird das Konzept der;-;-;-;https://link.springer.com/article/10.1007/s11280-008-0049-x af361fe57cf9323b8a2cdfeceeaa5c92;de;;;7.3.;;;Unterstützung der produktiven Integration von Web 2.0-vermittelter Zusammenarbeit Dieses Papier beschreibt ein forschungsevidenzbasiertes Praxismodell, das TSOI Hybrid Learning Model, als praktikable Alternative zur Unterstützung der produktiven Integration von Web 2.0-vermittelter Zusammenarbeit beim Lernen. Das Modell wird aus dem naturwissenschaftlichen Lernzyklus und dem erlebnisorientierten Lernzyklus von Kolb weiterentwickelt. Ein authentisches Beispiel zum Verständnis multimedialer Lernpädagogik für Lehramtsstudierende im Chemieunterricht wird dargestellt. Das Modell leitet das Lerndesign mit Web 2.0-vermittelten kollaborativen Aktivitäten. Die Ergebnisse in Bezug auf den Reichtum des kollaborativen Lernens und der Reflexion waren positiv. Die Implikationen werden im Kontext von Blended Learning im naturwissenschaftlichen Unterricht diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15378-5_39 373f8bb54673f635e279ae814b22372d;de;;;7.3.;;;"Mining ""versteckter Satz""-Definitionen aus dem Web Die Stichwortsuche ist die gebräuchlichste Form der Dokumentensuche im Web. Viele Web-Publisher versehen die META-Tags und Titel ihrer Seiten manuell mit häufig abgefragten Phrasen, um ihre Platzierung und ihr Ranking zu verbessern. Eine „versteckte Phrase“ ist als eine Phrase definiert, die im META-Tag einer Webseite vorkommt, aber nicht in ihrem Hauptteil. In diesem Papier stellen wir einen Algorithmus vor, der die Definitionen versteckter Phrasen aus den Webdokumenten durchsucht. Phrasendefinitionen ermöglichen es (i) Verlagen, relevante Phrasen mit hoher Abfragehäufigkeit zu finden, und (ii) Suchmaschinen zu testen, ob der Inhalt eines Dokuments mit den Phrasen übereinstimmt. Wir verwenden Kookkurrenz-Clustering- und Assoziationsregel-Mining-Algorithmen, um Phrasendefinitionen aus hochdimensionalen Datensätzen zu lernen. Wir liefern auch experimentelle Ergebnisse.";-;-;-;https://link.springer.com/chapter/10.1007/3-540-36901-5_17 3c708ecbf421d772f66dd44d81770cad;de;;;7.3.;;;Extrahieren von Beziehungen in sozialen Netzwerken aus dem Web mithilfe von Ähnlichkeit zwischen kollektiven Kontexten Soziale Netzwerke haben in letzter Zeit großes Interesse geweckt. Mit der Absicht, soziale Netzwerke für das Semantic Web zu nutzen, haben mehrere Studien die automatische Extraktion sozialer Netzwerke untersucht. Die meisten Methoden haben sich jedoch mit der Extraktion der Stärke von Beziehungen befasst. Unser Ziel ist es, die zugrunde liegenden Beziehungen zwischen Entitäten zu extrahieren, die in soziale Netzwerke eingebettet sind. Zu diesem Zweck schlagen wir eine Methode vor, die automatisch Labels extrahiert, die Beziehungen zwischen Entitäten beschreiben. Grundsätzlich gruppiert die Methode ähnliche Entitätspaare nach ihren kollektiven Kontexten in Webdokumenten. Die beschreibenden Labels für Relationen werden aus den Ergebnissen der Clusterbildung gewonnen. Die vorgeschlagene Methode ist völlig unbeaufsichtigt und lässt sich leicht in bestehende Extraktionsmethoden für soziale Netzwerke integrieren. Unsere Methode trägt auch zur Ontologiepopulation bei, indem sie Beziehungen zwischen Instanzen in sozialen Netzwerken aufklärt. Unsere Experimente, die an Entitäten in politischen sozialen Netzwerken durchgeführt wurden, erzielten Clustering mit hoher Präzision und Erinnerung. Wir haben geeignete Beziehungslabels extrahiert, um die Entitäten darzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/11926078_35 433eada42d52794808288ee6168f6915;de;;;7.3.;;;Bewertung des Aufwands zur Reparatur der Zugänglichkeit von Websites Das Papier stellt eine neue Metrik und einen Rahmen vor, um den Aufwand zur Reparatur der Zugänglichkeit einer Website zu bewerten. Dabei werden alle HTML-Elemente aller Seiten einer Site berücksichtigt, mit Ausnahme der duplizierten. Der Grund dafür ist, dass diese Elemente in einem wiederverwendbaren Konstrukt wie einer Vorlage entstanden sind und daher nur einmal korrigiert werden müssen. Die Bewertung wendet dann die Zugänglichkeitsbewertungstechniken auf diese Elemente statt auf alle Instanzen an, die dem Benutzer präsentiert werden. Die gemeldeten Fehler und Warnungen werden dann in einer einfachen Summenmetrik berechnet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31522-0_60 a1cdcfaef0ca42bef9fcacabc9415bea;de;;;7.3.;;;Überwindung der Geschlechterungleichheit in der digitalen Welt Ich danke der International Federation for Information Processing (IFIP) für die Einladung zu dieser Konferenz und lobe sie dafür, dass sie sich der schwierigen Aufgabe stellt, sich mit Fragen der digitalen Ungleichheit zu befassen. Es gibt viele Formen digitaler Ungleichheit, auf die die Konferenz sicher eingehen wird. In diesem Vortrag möchte ich jedoch auf eine bestimmte Form eingehen, nämlich die Geschlechterungleichheit in der digitalen Welt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-64697-4_2 1f7fb5eab33e161068e849dfc0a1c263;de;;;7.3.;;;Wie konventionelle Drucker zu maßgeschneidertem Web-to-Print führen „Web-to-Print (W2P)“ hat sich zu einem neuen Trend der Druckindustrie entwickelt. Eine weit verbreitete Definition von W2P sind kommerzielle Aktivitäten für den Handel mit Druckdienstleistungen über das Internet. Die meisten asiatischen Druckereien verwenden immer noch traditionelle Prozesse, um Bestellungen zu drucken. Im Vergleich zu den Druckern in den USA oder europäischen Ländern scheinen asiatische Drucker nicht so aktiv in der Entwicklung zu sein. Unter dem Einfluss der Digitalisierung wird es sehr wichtig sein, darüber nachzudenken, wie W2P-Dienste bereitgestellt werden können. Die Entwicklung von W2P in Asien befindet sich auf der Stufe des Cloud-Druckens für papierbezogene Produkte. Inzwischen haben Druckereien in Nordamerika und Europa ihre Dienstleistungen aufgrund des großen Bedarfs an Personalisierung von W2P auf kundenspezifisches W2P erhöht. Die Studie führte ausführliche Interviews mit erfahrenen Druckern, Pädagogen und Inhaltsanalysen vieler W2P-Plattformen durch, um nicht nur herauszufinden, wie taiwanesische Drucker die Anforderungen und Hindernisse sehen, sondern auch um die Webstruktur einer maßgeschneiderten W2P-Plattform zu verstehen. In dieser Studie wurden die wesentlichen Funktionalitäten und Hindernisse einer erfolgreichen maßgeschneiderten W2P-Plattform aufgezeigt. Wir hoffen, dass diese Studie die Wettbewerbsfähigkeit konventioneller Druckunternehmen steigern wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3663-8_59 5336551f971a2e721af017141d5c32e1;de;;;7.3.;;;Ein robustes Vision-basiertes Framework für Screenreader Mit der immer reichhaltigeren Darstellung von Medien im Internet kann Screenreading-Technologie, die hauptsächlich den Quellcode von Websites berücksichtigt, ineffektiv werden. Unser Ziel ist es, eine Lösung zu präsentieren, die trotz dynamisch angezeigter Webinhalte robust bleibt, unabhängig vom zugrunde liegenden Web-Framework. Dazu betrachten wir Techniken der Computer Vision, um semantische Informationen über die Webseiten zu ermitteln. Wir betrachten bestehende Screenreading-Technologien, um zu sehen, wo solche Techniken helfen können, und diskutieren unser analytisches Modell, um zu zeigen, wie dieser Ansatz Benutzern mit Sehschwäche zugute kommen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16199-0_39 d567d263a2fa522e53fa7cc526eed8eb;de;;;7.3.;;;Anwendung von Ubiquitous Power Internet of Things im Stromnetzbau Um ein zentrales, Plattform- und Shared-Power-Unternehmen aufzubauen, schlägt die State Grid Corporation vor, ein allgegenwärtiges Internet der Dinge mit umfassender Zustandswahrnehmung, effizienter Informationsverarbeitung und bequemer und flexibler Anwendung auf der Grundlage eines starken Smart Grid aufzubauen. Basierend auf dem Konzept und der Architektur von Ubiquitous Power IOT konstruiert dieses Papier vier Schichten der Ubiquitous Power IOT-Architektur: Perception Layer, Network Layer, Platform Layer und Application Layer, analysiert die Schlüsseltechnologien des Ubiquitous Power IOT basierend auf der Architektur der vier Schichten und erläutert die Anwendung der allgegenwärtigen IOT-Intelligenz im Bereich der Stromversorgung und neuer Technologien beim Verteilungs- und Relaisschutz von Energieunternehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3588-8_79 12f98759711ece5d064f18fd484741cb;de;;;7.3.;;;Envirodaemon Ingenieure und Wissenschaftler haben sich den sofortigen, verteilten Netzwerkzugriff auf die gesamte und technische Literatur gewünscht. Durch die Verbesserung und Konvergenz der Computer- und Kommunikationsinfrastruktur und die Unentbehrlichkeit des Internets für die wissenschaftliche Forschung sind diese Sehnsüchte auf dem besten Weg, sich zu verwirklichen. Die Größe der Organisation, die eine Suche durchführen kann, hat sich verringert, da Gruppen von Laien und Wissenschaftlern jetzt „digitale Bibliotheken“ ohne die Hilfe von ausgebildeten Referenzbibliothekaren durchsuchen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-1639-2_9 be7bb1a46710ae32bfc284ff1abb1b27;de;;;7.3.;;;Bildabruf nach Webkontext: Füllen der Lücke zwischen Bild- und Nutzungs-Schlüsselwörtern Keyword Das Web enthält eine Vielzahl von Bildern, die von der Öffentlichkeit veröffentlicht werden. Da das Bild als Teil einer Webseite bereitgestellt wird, wird das Bild nicht nur durch den Bildinhalt, sondern auch durch den Webinhalt, der das Bild verwendet, spezifiziert. Dadurch entsteht eine Lücke zwischen den Inhaltsschlüsselwörtern und den Verwendungsschlüsselwörtern des Bildes. Um die Lücke zu schließen, schlagen wir ein Konzept des „Kontexts“ von Bildern im Web vor. Der Kontext eines Bildes ist der Satz von Webinhalten (z. B. Text und Bilder), die das Bild umgeben. Wir erweitern den Begriff der Umgebung um Webinhalte, die mit dem Bild durch Webdokumentstruktur und Hyperlinks verbunden sind. Wir definieren verschiedene Arten von Kontexten für ein Bild gemäß den Assoziationsarten zwischen dem Bild und dem umgebenden Inhalt. Durch Visualisieren des Kontexts jedes Bildes können Benutzer zuverlässigen Bildinhalt unter ähnlichen Bildern basierend auf der Verwendung und/oder dem Ruf des Bildes unterscheiden. In diesem Beitrag schlagen wir Methoden vor, um den Kontext von Bildern zu suchen und zu visualisieren. Wir schlagen auch eine Methode zum Abrufen von Bildern basierend auf ihrem Kontext vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45227-0_57 c32ca40ccdf825431c8689ab22405c18;de;;;7.3.;;;Ethik und Lernen In dieser Präsentation betrachten wir eine von E. Brousseau vorgeschlagene originelle institutionelle Lösung für eine hierarchische Gestaltung der Selbstregulierung des Internets, die auch versucht, der Unvollständigkeit rein technischer Mittel der Selbstregulierung (Standardisierung oder rechtliche Selbstbestimmung) zu begegnen als Ineffizienz der Koregulierung im klassischen Sinne. Wir bewerten diese Art von Lösung sowohl im Hinblick auf ihren Beitrag zu einem ethischen Lernprozess als auch aus der Sicht praktischer Erfahrungen von Institutionen für Technikfolgenabschätzung und Internetregulierungsbehörden wie ICANN.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35609-9_10 3f09202e32b888c8a6a7a980b1058095;de;;;7.3.;;;Social-Networking-Tools für wissensbasierte Aktionsgruppen Städtische Bürokraten sind oft mit begrenzter Zeit und wenig echtem Wissen über Entscheidungen, die sie im Rahmen ihrer Aufgabenstellungen treffen müssen, die sich auf die Gemeindemitglieder auswirken, überfordert. Folglich arbeiten Bürokraten oft an dem, was Herbert Simon als die Grenzen ihrer Rationalität bezeichnete. Gemeinschaftsgruppen, die sich mit bestimmten Themen befassen, können entstehen, die über themenbezogenes lokales Wissen verfügen und wahrscheinlich auch die Zeit und Mühe haben, dieses Wissen zu teilen und zu praktischen und informativen Gruppenvorschlägen zusammenzufassen. Dieses Kapitel betrachtet wissensbasierte Rollen und Dynamiken von Gemeinschaftsgruppen, betrachtet revolutionäre sozio-technische Fähigkeiten, die die Effektivität von Gruppenzielen unterstützen und erweitern können, und präsentiert eine Vorlage basierend auf Social-Computing-Technologien, um zu zeigen, wie die Technologie eingesetzt werden kann. Richtig eingesetzt, können die Werkzeuge Bürokraten mit Entscheidungs- und Handlungsbefugnis mit lokalem Wissen und Motivation verbinden, um rationale Entscheidungen über die Zuweisung von Ressourcen usw. zu treffen, um mit verschiedenen Arten von Situationen umzugehen. Die für dieses Projekt entwickelte Vorlage demonstriert die Fähigkeiten der Cloud-Computing-Tools.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-4048-1_9 66aa34954fbf54e3682d7191471aa88c;de;;;7.3.;;;Eine verzögerungsbasierte Analyse mehrerer Engpassverbindungen von Ende-zu-Ende-Pfade im Internet Die Messung und Analyse von Engpassverbindungen spielt eine wichtige Rolle bei der Verbesserung der Netzqualität des Dienstes (QoS) und der Verhinderung von Netzangriffen im Internet. Bestehende Verfahren behandeln normalerweise den Link mit der kleinsten verfügbaren Bandbreite oder der größten Verzögerung als Engpass-Link, ohne mehrere Engpass-Links in einem Ende-zu-Ende-Pfad zu berücksichtigen. In diesem Papier schlagen wir einen neuen Ansatz vor, um Engpassverbindungen basierend auf der Pfadverzögerung zu messen und zu analysieren. Wir entwerfen ein paralleles aktives Mess-Framework, um die Pfadverzögerungen vieler Ziele gleichzeitig zu messen. Dann wird ein Algorithmus zum Identifizieren mehrerer Engpassverbindungen unter Verwendung des Ward-Datenclusterverfahrens vorgeschlagen. Es werden Experimente durchgeführt, um den Algorithmus zu testen, indem 14 Tage lang 10 verschiedene Ziele im Internet gemessen werden. Unter Verwendung des vorgeschlagenen Ansatzes haben wir festgestellt, dass Engpassverbindungen hauptsächlich wenige konstante Verbindungen sind, die sich zwischen durchgehenden Pfaden oder in der Nähe der Ziele befinden. Darüber hinaus haben die Ergebnisse gezeigt, dass die Anzahl der Intra-Domain-Engpass-Links in den meisten Fällen einen großen Anteil ausmacht, was darauf hindeutet, dass die Leistung von Ende-zu-Ende-Pfade durch iBGP-Routing stark beeinflusst werden kann. Außerdem haben die Ergebnisse auch gezeigt, dass die interkontinentalen Verbindungen in einem anonymen System (AS) zu Engpassverbindungen in End-to-End-Pfade neigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38466-0_11 7616a7a28e648b10d52eefb5839d39eb;de;;;7.3.;;;Allgegenwärtige Wohnumgebungen Seit Jahrzehnten versprechen Technologen das „intelligente Haus“. Die Vision wird normalerweise als ein Haus voller Technologie dargestellt, das den Wünschen des Bewohners nachkommt und alle häusliche Plackerei aus seinem Leben nimmt. Das wirklich „intelligente Haus“ ist noch in weiter Ferne, aber das Aufkommen von Breitband, die Verfügbarkeit schnellerer, kleinerer und immer billigerer Computerausrüstungen und eine Vielzahl von kabelgebundenen und drahtlosen Netzwerktechnologien ermöglichen Technologien, die dieser Vision näher kommen. Diese Technologietrends führen zu dem Konzept, dass Computer und andere „intelligente“ Geräte allgegenwärtig, vollständig vernetzt und in der Infrastruktur des Hauses „verschwinden“ werden. Die Menschen werden ihre Aufgaben in Unkenntnis der Komplexität der Infrastruktur, die ihre Aktivitäten unterstützt, genauso ausführen, wie die Menschen heute den Netzstrom nutzen.;-;-;-;https://link.springer.com/article/10.1023/B%3ABTTJ.0000047121.29267.20 c4df6ff193893189a858fd5bb4f0d16e;de;;;7.3.;;;Verknüpfte Dienste zur Ermöglichung der Interoperabilität im Sensing Enterprise Künftig wird das sogenannte „Sensing Enterprise“ als Teil des Future Internet eine entscheidende Rolle für den Erfolg oder Misserfolg eines Unternehmens spielen. Wir präsentieren unsere Vision eines Unternehmens, das mit der physischen Welt interagiert, basierend auf einem Einzelhandelsszenario. Eine der größten Herausforderungen ist die Interoperabilität nicht nur zwischen den IT-Systemen des Unternehmens selbst, sondern auch zwischen diesen Systemen und den Sensorgeräten. Wir werden argumentieren, dass semantisch angereicherte Dienstbeschreibungen, die sogenannten verknüpften Dienste, die Interoperabilität zwischen zwei oder mehr Unternehmens-IT-Systemen sowie zwischen Unternehmenssystemen und der physischen Umgebung erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36796-0_12 12618b7109fe24ec0437a5394af3cd52;de;;;7.3.;;;Unsicherheit im Semantic Web Während des letzten Jahrzehnts wurden bedeutende Forschungsaktivitäten auf das Semantic Web als zukünftigen Ersatz des Webs gerichtet. Viele Experten sagen voraus, dass der nächste große Schritt vorwärts in der Web-Informationstechnologie durch das Hinzufügen von Semantik zu Webdaten erreicht wird. Eine wichtige Rolle in der Forschung zum Semantic Web spielen Formalismen und Technologien zum Umgang mit Unsicherheit und/oder Unbestimmtheit. In diesem Beitrag gebe ich einen Überblick über einige eigene neuere Formalismen zum Umgang mit Unsicherheit und/oder Vagheit im Semantic Web.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04388-8_2 72c28c2f58ca92cab45a3f91cc69b429;de;;;7.3.;;;Ein Ansatz zum Aufbau von Vertrauensbeziehungen in der Webservice-Technologie Service Es wurden einige Lösungen vorgeschlagen, um mit der Einrichtung von Web-Service-Beziehungen umzugehen. Ein Konsortium hat beispielsweise die Web Services Trust Language (WS-Trust) entwickelt, die ein Vertrauensmodell für Webdienste bietet. Vertrauen ist jedoch ein Aspekt in einer Reihe von Aspekten, die die Sicherheit von Webdiensten betreffen, zu denen beispielsweise die Wahrung der Privatsphäre gehört. Basierend auf dieser Tatsache ist das Ziel dieses Beitrags, einen Vertrauensansatz für Webdienste vorzuschlagen. Der Ansatz integriert WS-Trust mit Standards für Richtlinien und Ontologie, die zum Schutz der Privatsphäre verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-84837-2_53 3eca87423f98516554b4b414b8e8f3a0;de;;;7.3.;;;Ein automatischer intelligenter Sprachklassifizierer Der Beitrag stellt einen neuartigen satzbasierten Sprachklassifizierer vor, der einen Satz als Eingabe akzeptiert und einen Konfidenzwert für jede Zielsprache erzeugt. Der vorgeschlagene Klassifikator enthält auf Unicode basierende Funktionen und ein neuronales Netzwerk. Die drei Merkmale Unicode, exklusiver Unicode und Wortvergleichswert werden extrahiert und einem neuronalen Netz zugeführt, um einen endgültigen Vertrauenswert zu erhalten. Die Wortübereinstimmungsbewertung wird berechnet, indem Wörter in einem Eingabesatz mit einer gemeinsamen Wortliste für jede Zielsprache verglichen werden. In einer gemeinsamen Wortliste werden die am häufigsten verwendeten Wörter für jede Sprache statistisch erfasst und eine Datenbank erstellt. Die Vorversuche wurden mit Testproben aus Webdokumenten für Sprachen wie Englisch, Deutsch, Polnisch, Französisch, Spanisch, Chinesisch, Japanisch und Koreanisch durchgeführt. Die Klassifizierungsgenauigkeit von 98,88 % wurde auf einer kleinen Datenbank erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03040-6_78 4c8787012a86a7824542294f8fa9b5c4;de;;;7.3.;;;Verwenden von Suchmaschinen zum Erfassen von netzwerkforensischen Beweisen Suchmaschinen-APIs können sehr effektiv verwendet werden, um das heimliche Sammeln von Informationen über Netzwerkressourcen zu automatisieren. Dieser Artikel beschreibt GooSweep, ein Tool, das die Google API verwendet, um die Suche nach Verweisen auf einzelne IP-Adressen in einem Zielnetzwerk zu automatisieren. GooSweep ist ein vielversprechendes Ermittlungstool. Es kann netzwerkforensische Ermittler beim Sammeln von Informationen zu einzelnen Computern unterstützen, wie z. GooSweep liefert auch wertvolle Informationen über die Internetaktivitäten eines Verdächtigen, einschließlich Surfgewohnheiten und Kommunikation in webbasierten Foren.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-73742-3_17 e3999a856e7c94968e8b6b8ba8eb3589;de;;;7.3.;;;Vergleichende Analyse von Internet of Things (IoT)-Sicherheitsmodellen Heutzutage gehört das Internet der Dinge (IoT) zu den angesagtesten Technologien, um die Welt besser und intelligenter zu machen. Aber die IoT-Technologie ist noch nicht vollständig ausgereift und es gibt so viele Sicherheitsherausforderungen bei der Implementierung (IoT) im realen Leben, die überwunden werden müssen, wie z. In diesem Whitepaper untersuchen wir den Hintergrund der IoT-Cybersicherheits- und Datenschutzmaßnahmen und identifizieren viele Sicherheits- und Datenschutzprobleme. Verschiedene Methoden zum Schutz von Teilen von Systemen und Systemen basierend auf IoT. Derzeit vorhandene Sicherheitslösung, ausgezeichnete Datenschutzmodelle erforderlich, geeignet für verschiedene Schichten von IoT-betriebenen Anwendungen. In dieser Arbeit haben wir eine vergleichende Analyse verschiedener IoT-Sicherheitsmodelle wie Amazon Web Services (AWS), Vertrauensmodell in IoT-fähigen Fahrzeugnetzwerken und autonome IoT/IIoT-Sicherheitsmodelle vorgeschlagen. Zusammen mit den vorgeschlagenen Lösungen und dem zukünftigen Umfang und den Auswirkungen dieser Sicherheitsherausforderungen auf unser soziales, wirtschaftliches und wirtschaftliches Leben.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-3653-0_15 c90e55d5e5998e5be244572c9dae1a74;de;;;7.3.;;;Auf dem Weg zu mehrschichtiger Interoperabilität heterogener IoT-Plattformen: Der INTER-IoT-Ansatz Offene Interoperabilität erfüllt das Versprechen, Anbietern und Entwicklern die Interaktion und Interoperabilität zu ermöglichen, ohne die Wettbewerbsfähigkeit anderer zu beeinträchtigen, indem sie ein überlegenes Produkt und eine überlegene Erfahrung liefert. In Ermangelung globaler IoT-Standards wird der freiwillige INTER-IoT-Ansatz es jedem IoT-Stakeholder unterstützen und erleichtern, offene IoT-Geräte, intelligente Objekte, Dienste und komplexe Systeme zu entwerfen und sie schnell betriebsbereit und miteinander zu vernetzen neue interoperable IoT-Ökosysteme durch einen Bottom-up-Ansatz. Insbesondere basiert INTER-IoT auf Hardware-/Software-Tools (INTER-Layer), die eine mehrschichtige Interoperabilität zwischen IoT-Systemschichten (dh Gerät, Netzwerk, Middleware, Anwendungsdienst, Daten und Semantik) gewährleisten, auf Frameworks für offene IoT-Anwendungen und Systemprogrammierung und -bereitstellung (INTER-FW) und auf einer vollwertigen CASE-Tool-gestützten Engineering-Methodik für die IoT-Systemintegration (INTER-Meth). Der INTER-IoT-Ansatz wird insbesondere durch zwei Anwendungsfälle veranschaulicht: INTER-LogP, das die Interoperabilität von Hafenlogistik-Ökosystemen umfasst, und INTER-Health, das die Integration zwischen e-Health zu Hause und in Mobilitätsinfrastrukturen umfasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-61300-0_10 a38eccd73493e0c66abcfeab799cd41e;de;;;7.3.;;;Open-Access-Barrieren: Eine Aktionsforschung IKT hat die Infrastruktur bereitgestellt, um einen einfachen Zugang zu wissenschaftlichen Informationen zu ermöglichen. Trotzdem leiden Bibliotheken unter dem Anstieg der Zeitschriftenabonnements. Zudem schafft die Struktur wissenschaftlicher Publikationen eine Verschwendungssituation, in der öffentlich finanzierte Forschung mehrfach bezahlt wird. Universitätsbibliotheken haben Mühe, mit diesen neuen Realitäten umzugehen, während sie gleichzeitig ein Serviceniveau mit akzeptablem Zugang zu Publikationen bieten. Die Arbeit von Bibliothekarinnen und Bibliothekaren wird stark durch den Einfluss von Urheberrecht und Lizenzierung beeinflusst, die zusammen Barrieren für den freien Zugang schaffen. Die Arbeit in diesem Kapitel basiert auf einer laufenden Aktionsforschung der Universität Lund, um die Hindernisse für den offenen Zugang zu wissenschaftlichen Forschungsergebnissen in Schweden zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-84822-8_23 6197f6fe24db65b8075967aed4c37308;de;;;7.3.;;;Verschlüsselung mit symmetrischen Schlüsseln für drahtloses Internet SCADA Traditionell ist SCADA nur in einem begrenzten privaten Netzwerk verbunden. Mit neuen Technologien und Einrichtungen gibt es auch Anforderungen, SCADA über das Internet zu verbinden. Die Internet-SCADA-Funktion hat viele Vorteile in Bezug auf Kontrolle, Datenansicht und -generierung gebracht. Neben der Anbindung von SCADA an das Internet gibt es auch Betreiber, die ihr System drahtlos verbinden möchten. Dies kann Budget für Kommunikationsleitungen sparen. Neben den Vorteilen, die es mit sich bringt, sind Sicherheitsprobleme in Bezug auf drahtloses Internet SCADA. In diesem Papier diskutieren wir Internet-SCADA, seine Verbindung über drahtlose Kommunikation und die damit verbundenen Sicherheitsprobleme. Um die Sicherheitsfragen zu beantworten, wird eine symmetrische Schlüsselverschlüsselung für drahtloses Internet SCADA vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10847-1_36 6eb101c1041d7613fa42ff84f61ac80f;de;;;7.3.;;;Crawl und Crowd, um maschinelle Übersetzung in unterversorgte Sprachen zu bringen Wir präsentieren eine breit anwendbare Methodik, um die maschinelle Übersetzung (MT) kostengünstig und schnell in unterversorgte Sprachen zu bringen. Unser Vorschlag beruht auf Web-Crawling, um automatisch parallele Daten zu erfassen, um statistische MÜ-Systeme zu trainieren, wenn solche Daten für das Sprachpaar und die Domäne von Interesse gefunden werden können. Wenn dies nicht der Fall ist, greifen wir auf (1) Crowdsourcing zurück, um kleine Textmengen (Hunderte von Sätzen) zu übersetzen, die dann verwendet werden, um statistische MT-Modelle zu optimieren, und (2) Web-Crawling großer Mengen einsprachiger Daten (Millionen von Sätzen), die dann verwendet werden, um Sprachmodelle für MT zu erstellen. Wir wenden diese auf zwei jeweilige Anwendungsfälle für Kroatisch an, eine unterversorgte Sprache, die an Bedeutung gewonnen hat, seit sie kürzlich den offiziellen Status in der Europäischen Union erlangt hat. Der erste Anwendungsfall betrifft den Tourismus angesichts der Bedeutung dieses Sektors für die kroatische Wirtschaft, während der zweite aufgrund der wachsenden Bedeutung von Social Media Tweets betrifft. Für den Tourismus crawlen wir mit zwei hochmodernen Crawlern parallel Daten von 20 Webdomains und untersuchen, wie die gecrawlten Daten mit größeren Mengen an allgemeinen Domaindaten kombiniert werden können. Unser domänenangepasstes System wird auf einer Reihe von drei zusätzlichen Tourismus-Webdomänen evaluiert und übertrifft die Basislinie in Bezug auf automatische Metriken und/oder Vokabularabdeckung. Im Social-Media-Use-Case beschäftigen wir uns mit Tweets aus der Fußball-Weltmeisterschaft 2014. Wir bauen domänenangepasste Systeme, indem wir (1) kleine Mengen von Tweets übersetzen, die für die Abstimmung mittels Crowdsourcing verwendet werden, und (2) riesige Mengen einsprachiger Tweets crawlen. Diese Systeme übertreffen die Basislinie (Microsoft Bing) um 7,94 BLEU-Punkte (5,11 TER) für Kroatisch-Englisch und um 2,17 Punkte (1,94 TER) für Englisch-Kroatisch auf einem mittels Crowdsourcing übersetzten Testset. Eine ergänzende manuelle Analyse beleuchtet diese Ergebnisse weiter.;-;-;-;https://link.springer.com/article/10.1007/s10579-016-9363-6 20aaa3a3274b709f94599e95cef1b7a7;de;;;7.3.;;;Semantic Geographic Web Service Sharing Framework Der Webservice hat sich seit dem Start der Webservice-Aktivität im Jahr 2002 rasant entwickelt. Im Bereich der Forschung und Entwicklung von Geoinformationsdiensten hat das OGC eine Reihe von Standards für Geoinformationsdienste veröffentlicht, viele Geodateninfrastrukturen übernehmen das OGC Spezifikationen zur Erstellung von Geoinformationsdiensten. Die semantische Verwirrung besteht jedoch immer noch bei der Anwendung von geografischen Daten und Diensten. In diesem Beitrag wird versucht, basierend auf den bestehenden Forschungen und den Geodateninfrastrukturen, einen Vorschlag für das semantische geographische Webservice-Sharing-Framework zu geben. Das Framework umfasst zwei Teile: (1) das Prozess-Framework bestehend aus Service finden, Service bewerten, Service zugreifen und Service nutzen, (2) Layer Framework bestehend aus der Darstellungsschicht, der Datenschicht, der Schnittstellenschicht, der Codierungsschicht, die Einrichtungsschicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25769-8_78 72390e11e10a66a1f406863278b20c55;de;;;7.3.;;;Erweiterung von UML zur Unterstützung des Ontologie-Engineerings für das Semantic Web Es gibt eine schnell wachsende Bedeutung für webfähige Agenten, die das entsprechende Wissen und die entsprechenden Dienste zur Laufzeit überdenken und dynamisch integrieren. Das World Wide Web Consortium und das DARPA Agent Markup Language (DAML)-Programm haben diesen Trend aktiv vorangetrieben. Die dynamische Integration von Wissen und Diensten hängt von der Existenz expliziter deklarativer semantischer Modelle (Ontologien) ab. DAML ist eine aufstrebende Sprache zur Spezifikation maschinenlesbarer Ontologien im Web. DAML wurde entwickelt, um nachvollziehbares Denken zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45441-1_26 a8f9b1fd7313aa0e8b8d0816e103a88f;de;;;7.3.;;;Bodenqualitätsindikatoren im World Wide Web Neuseeland ist in hohem Maße von seinen Bodenressourcen abhängig, um die landwirtschaftliche Produktion, die Gesundheit des natürlichen Ökosystems und die Ökosystemleistungen zu verbessern. Um eine Erschöpfung dieser Ressource zu vermeiden, müssen wir in der Lage sein, die Böden zu identifizieren, die nicht nachhaltig bewirtschaftet werden. Wir berichten über ein wissenschaftliches Programm, das Indikatoren für die Überwachung der Bodenqualität entwickelt und diese Indikatoren in Entscheidungsunterstützungssoftware integriert, um Landmanager und -verwalter bei der Identifizierung gefährdeter Böden zu unterstützen und Informationen für die Berichterstattung über den Zustand der Umwelt bereitzustellen. Die Forschung umfasste (a) die Identifizierung der Bodenmessungen, die Veränderungen der Bodenqualität am besten unterscheiden, und deren Reduzierung durch Hauptkomponentenanalyse, (b) die statistische Analyse von Bodendatenbanken zu Vergleichszwecken und (c) die Entwicklung eines interaktiven Tools, das Bodenqualitätsexpertise mit a leicht interpretierbare Beurteilung der Qualität einer Bodenprobe.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35503-0_15 1ccec0540db2e19ab4b0ee5093e1cc0c;de;;;7.3.;;;Ein geschichteter Overlay-Multicast-Algorithmus mit PSO zum Routing von Webstreams Um die Anforderung des mehrfach eingeschränkten QoS-Routings (Quality of Service) großer Multi-Domain-Webstreams zu erfüllen, wird eine neue Architektur namens Layered Overlay Multicast Network (LOMN) eingeführt, um die Dienstfähigkeiten zu verbessern, die ein Layered Overlay Multicast verwendet Algorithmus mit PSO (Particle Swarm Optimization). Der vorgeschlagene Algorithmus kann die NP-Vollständigkeit des Problems der QoS der Routen und das Treffen mit der Unschärfe der Netzwerkstatusbeschreibung lösen und die QoS-erfüllten Routen mithilfe eines effektiven mathematischen Modells und des PSO finden. Simulierte Implementierungen und Leistungsbewertungen wurden über einige tatsächliche und virtuelle Netzwerktopologien durchgeführt, was zeigt, dass das Verfahren eine nahezu optimale Lösung für den Aufbau des Kern-Multicasting-Baums erhalten kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05250-7_22 a6198eb65232f3e51cca015e01cc39e9;de;;;7.3.;;;WebSuite – Eine Tool-Suite zur Nutzung von Webdaten Wir präsentieren ein System zum Suchen, Sammeln und Integrieren von webresidenten Daten. Das System besteht aus fünf Tools, wobei jedes Tool eine spezifische Funktionalität bietet, die darauf abzielt, einen Aspekt der komplexen Aufgabe der Nutzung und Verwaltung von Webdaten zu lösen. Jedes Tool kann im Standalone-Modus, in Kombination mit den anderen Tools oder sogar in Verbindung mit anderen Systemen verwendet werden. Zusammen bieten die Tools eine breite Palette von Funktionen, die viele der Einschränkungen in bestehenden Systemen zur Nutzung von Webdaten überwinden. Das Papier beschreibt jedes Werkzeug, mögliche Kombinationsmöglichkeiten der Werkzeuge und die Architektur des kombinierten Systems.;-;-;-;https://link.springer.com/chapter/10.1007/10704656_10 a26f9aa90a28b4b6bef85bd7caaa4c9c;de;;;7.3.;;;Über das Internet bereitgestellte Bewertung und Manipulation von angstbedingter Aufmerksamkeitsverzerrung: Validierung eines frei zugänglichen Softwarepakets zur Aufmerksamkeitsmessung Kürzlich wurde im Labor festgestellt, dass die Methode der Aufmerksamkeitssondierung nicht nur die mit Angstanfälligkeit verbundene Bedrohungs-Aufmerksamkeitsverzerrung sensibel beurteilen kann, sondern auch so konfiguriert werden kann, dass sie Trainingsaufgaben liefert, die in der Lage sind, emotionale Anfälligkeit durch Manipulation einer solchen Aufmerksamkeitsselektivität zu modifizieren. Um die potentiellen praktischen Anwendungen solcher Verfahren zu bewerten und zu nutzen, ist es wünschenswert, dass klinische Forscher ohne spezielle Ausrüstung in der Lage sind, solche Aufgaben im Feld zu erfüllen. Das vorliegende Forschungsprogramm umfasste die Entwicklung eines vollständig anpassbaren Softwarepakets für Aufmerksamkeitssonden, das Bewertungs- und Trainingsversionen der Sondierungsaufgabe über das Internet bereitstellt. Zwei experimentelle Studien dienten dazu, die Bewertung und Trainingswirksamkeit der resultierenden Sondierungsaufgabenvarianten zu validieren, die von GAD-Patienten und nicht-klinischen Bevölkerungsgruppen mit ihren eigenen Computern aus der Ferne durchgeführt wurden. Wir beraten Forscherkollegen, wie sie dieses Softwarepaket für ihre eigenen Untersuchungen kostenlos herunterladen können.;-;-;-;https://link.springer.com/article/10.3758/BF03193023 6ce48ecf55b3164cc15e9e687f86c0cd;de;;;7.3.;;;Neues Konzept der Abfrageähnlichkeit und Meta-Prozessor für die semantische Suche Dieses Papier ist die Erweiterung der Arbeit, die die Gesamtfunktion des vorgeschlagenen semantischen Informationsabrufsystems (IR) und die Abfrageprototyptechnik untersucht, die zum Abgleichen der vom Benutzer eingegebenen Abfrage mit den im System definierten Prototypen verwendet wird. Das Ziel des vorgeschlagenen Designs besteht darin, die Leistung der Ergebnisse zu verbessern, die von schlüsselwortbasierten Retrievalsystemen mit einem semantischen Ansatz bereitgestellt werden. Dieses Papier untersucht das Konzept der Abfrageähnlichkeit, des Metaprozessors und des Keyword-Managers, die das vielversprechende Paradigma des vorgeschlagenen Designs sind, um die Abfrage abzugleichen, den Dienst zu identifizieren und die Metainformationen mit Bezug auf die für den Benutzer abgerufenen Ergebnisse bereitzustellen. eingegebene Abfrage und liefert dadurch die direkten, genauen und relevanten Informationen zusammen mit Titel, Zeit und Kurzinformationen der resultierenden URLs.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-0344-9_9 3c684ce1ba1fd256988c02363b62ebe9;de;;;7.3.;;;Topologie des Web of Data In den letzten Jahren haben immer mehr Websites damit begonnen, strukturierte Daten in HTML-Dokumente einzubetten sowie strukturierte Daten zusätzlich zu HTML-Dokumenten direkt im Web zu veröffentlichen. Dieser Trend hat zur Erweiterung des Webs um einen globalen Datenraum geführt – das Web of Data. Als klassisches Dokumenten-Web deckt das Web of Data eine Vielzahl von Themen ab, die von Daten zur Beschreibung von Personen, Organisationen und Ereignissen über Produkte und Rezensionen bis hin zu statistischen Daten von Regierungen sowie Forschungsdaten aus verschiedenen wissenschaftlichen Disziplinen reichen. Dieses Kapitel gibt einen Überblick über die Topologie des Web of Data. Wir diskutieren die verschiedenen Techniken, die verwendet werden, um strukturierte Daten im Web zu veröffentlichen, und stellen Statistiken über die Menge und die Themen der Daten bereit, die derzeit mit jeder Technik veröffentlicht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25008-8_1 825a8e8cdf07dfeeee695920827f6e88;de;;;7.3.;;;FlowTrust: Vertrauensschluss mit Netzwerkflüssen Webbasierte soziale Netzwerke gewinnen aufgrund der schnellen Entwicklung von Computernetzwerktechnologien zunehmend an Popularität. Allerdings können Social-Networking-Anwendungen aufgrund einiger ungelöster Probleme wie Vertrauen, Sicherheit und Datenschutz von vielen Benutzern immer noch keine breitere Akzeptanz finden. Vertrauen wird in sozialen Netzwerken hauptsächlich untersucht, ob sich ein entfernter Benutzer über andere Benutzer, die jeweils als Treuhänder, Vertrauensgeber und Empfehlungsgeber bezeichnet werden, wie von einem interessierten Benutzer erwartet verhält. Ein Vertrauensgraph besteht aus einem Vertrauensgeber, einem Treuhänder, einigen Empfehlungsgebern und den Vertrauensbeziehungen zwischen ihnen. In diesem Papier schlagen wir einen neuartigen FlowTrust-Ansatz vor, um einen Vertrauensgraphen mit Netzwerkflüssen zu modellieren und die maximale Vertrauensmenge zu bewerten, die durch einen Vertrauensgraphen mithilfe der Netzwerkflusstheorie fließen kann. FlowTrust unterstützt mehrdimensionales Vertrauen. Wir verwenden Vertrauenswert und Vertrauensniveau als zwei Vertrauensfaktoren. Aus diesen beiden Vertrauensfaktoren leiten wir vier Vertrauensmetriken ab: maximaler Vertrauenswert, maximaler Vertrauensfluss, minimale Unsicherheitskosten bei maximalem Vertrauensfluss und minimale Kosten Misstrauen mit maximalem Vertrauensfluss. Wir schlagen außerdem drei FlowTrust-Algorithmen vor, um diese vier Vertrauensmetriken zu normalisieren. Wir vergleichen unseren vorgeschlagenen FlowTrust-Ansatz mit den bestehenden RelTrust- und CircuitTrust-Ansätzen. Wir zeigen, dass alle drei Ansätze hinsichtlich der abgeleiteten Vertrauenswerte vergleichbar sind. Daher ist FlowTrust das Beste der drei, da es auch mehrdimensionales Vertrauen unterstützt.;-;-;-;https://link.springer.com/article/10.1007/s11704-011-0323-4 4ca57c633df502172b2579a296d116ef;de;;;7.3.;;;Aufbau von Webressourcen für Naturwissenschaftler Naturwissenschaftler verlassen sich zunehmend auf webbasierte Informationsressourcen. Die Geschwindigkeit, mit der diese Daten in naher Zukunft auf den Desktop der Wissenschaftlerinnen und Wissenschaftler gelangen, macht jedoch nur allzu deutlich, dass die automatisierte Unterstützung für eine effiziente und effektive Nutzung noch in den Kinderschuhen steckt. Tatsächlich werden die meisten Daten immer noch durch eine Kombination aus manueller Arbeit und;-;-;-;https://link.springer.com/chapter/10.1007/3-540-40002-8_19 45a29dbbe6065e6b8707e01725c78061;de;;;7.3.;;;Eine internetbasierte wissenschaftliche Programmierumgebung Eine Veränderung, die sich derzeit vollzieht, ist der Wechsel vom Desktop-Computing, wie wir es kennen, bei dem Anwendungen auf dem Computer einer Person ausgeführt werden, zum Netzwerk-Computing. Die Idee besteht darin, eine Anwendung über ein Netzwerk von Computern, hauptsächlich das Internet, zu verteilen. Während die Leute im Jahr 2005 Microsoft Word für ihre Textverarbeitungsanforderungen verwendet haben, verwenden die Leute heute möglicherweise Google Docs.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21984-9_1 e1da4420426af308b8872746da0e1e92;de;;;7.3.;;;Unsicherer Flug: Gebrochene Bordkarten und ineffektive Terroristen-Beobachtungslisten In diesem Papier diskutieren wir eine Reihe bestehender Probleme mit dem Sicherheitssystem des Flughafentransports in den Vereinigten Staaten. Wir diskutieren zwei verschiedene, aber gleichermaßen wichtige Themen: Die Leichtigkeit, mit der ein Passagier ohne Ausweisdokumente fliegen kann, und die Leichtigkeit mit welche Bordkarten zum Ausdrucken zu Hause geändert, manipuliert und gefälscht werden können. Die Bedeutung dieser Sicherheitslücken wird deutlich, wenn man sich das Beharren der US-Regierung auf die Führung von Passagierüberwachungslisten vor Augen führt, deren Inhalt geheim ist und deren Wirksamkeit davon abhängt, dass die Regierung die Identität jedes fliegenden Passagiers überprüfen kann. Wir führen dann eine Methode ein, um festzustellen, ob ein bestimmter Name auf der Flugverbotsliste steht, ohne jemals einen Flughafen betreten zu müssen. Wir führen einen physischen Denial-of-Service-Angriff gegen die Kontrollpunkte der Transportation Security Administration (TSA) an Flughäfen ein, der über einen Internetvirus verbreitet wird. Schließlich schlagen wir technische Lösungen für das Problem der benutzeränderbaren Bordkarten vor, die auch den physischen Denial-of-Service-Angriff neutralisieren. Die Lösungen haben den zusätzlichen Vorteil, dass sie dem öffentlich erklärten Wunsch der TSA entsprechen, die Verantwortung für die Überprüfung der Namen der Passagiere anhand der Beobachtungslisten zu übernehmen und es ihnen zu ermöglichen, Echtzeitdaten über Passagiere beim Passieren von Kontrollpunkten zu sammeln und zu speichern, was derzeit nicht der Fall ist in der Lage zu tun.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-77996-6_2 652b624484871f8aded1d474e52edf46;de;;;7.3.;;;Entwicklung von Online-Foren-Communitys Ein Internetforum ist eine Webanwendung zur Veröffentlichung von benutzergenerierten Inhalten in Form einer Diskussion. Das wichtigste Merkmal von Internetforen ist ihr sozialer Aspekt. Viele Foren sind über einen langen Zeitraum aktiv und ziehen eine Gruppe engagierter Benutzer an, die um ein Forum eine enge soziale Gemeinschaft aufbauen. Mit einer großen Fülle von Foren zu allen möglichen Aspekten menschlichen Handelns wie Politik, Religion, Sport, Technologie, Unterhaltung, Wirtschaft, Mode und vielem mehr finden Benutzer ein Forum, das perfekt zu ihren Bedürfnissen und Interessen passt. Gemeinschaften von Benutzern, die sich um beliebte Internetforen herum bilden, unterliegen im Laufe der Zeit einer Entwicklung. Manche Internetforen werden dichter und mit Nutzern gesättigt, manche Internetforen lösen sich in breitere Diskussionsthemen auf. Foren können sich in der Art unterscheiden, wie sie neue Benutzer anziehen, bestehende Benutzer halten oder die Mitgliedschaft und die Posting-Intensität abnehmen. In diesem Beitrag stellen wir ein auf Mikrogemeinschaften basierendes Modell zur Messung der Entwicklung von Internetforen vor. Wir zeigen, wie mit dem einfachen Konzept einer Micro-Community die Offenheit und Dauerhaftigkeit eines Internetforums quantitativ bewertet werden kann. Wir zeigen auch, dass unser Modell in der Lage ist, eine Taxonomie von Internetforen unter Verwendung der unüberwachten Clustering-Methode zu erstellen. Wir präsentieren das Micro-Community-Modell, den Satz grundlegender Statistiken, und wenden das Modell auf mehrere reale Online-Foren-Communitys an, um experimentell die Korrektheit und Robustheit des Modells zu überprüfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-1346-2_27 dc56122b8477a21edee306853033f2c5;de;;;7.3.;;;Multi-Agent Q( Dieses Papier schlägt eine optimale Operation Management Methodik vor, die auf dem Multi-Agent Reinforcement Learning (MARL) im Energy Internet (EI) basiert. Ein integrierter Ansatz zur gleichzeitigen Minimierung der Gesamtbetriebskosten eines solchen Strom-, Erdgas- und Fernwärmenetzes wird untersucht. Ein neuartiger Multiagent Q(;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-70136-3_32 27dd08129a809ee35a7cadbd2cfbe585;de;;;7.3.;;;Ist Ihre Stadt wirtschaftlich, kulturell oder politisch? Erkennung von Stadtbildern basierend auf multidimensionaler Skalierung quantifizierter Webseiten Diese Forschung erweitert die Stadtbildforschung auf den Kommunikationsraum des World Wide Web durch die effiziente Nutzung webbasierter Informationen und die Analyse der thematischen Dimensionalität von Stadtbildern, die in den hier vermittelten Diskurs eingebettet sind. Aus den Web-Crawling-Ergebnissen für jede der 264 Städte, die weltweit als bedeutend anerkannt sind, wird eine umfangreiche Datenbank erstellt, und Textinhalte werden aus den gecrawlten Webseiten extrahiert. Die thematische Dimensionalität der Textinhalte beschreibt, wie sie im Web ausgedrückt, diskutiert und geteilt werden. Der webbasierte Diskurs über Städte erweist sich als stark strukturiert und reagiert auf die Geographie, Geschichte und den gesellschaftspolitischen Kontext jeder Stadt. Die Analyse zeigt den Wert des neuen interdisziplinären Ansatzes, der Web-Crawling, quantifizierte Inhaltsanalyse und multidimensionale Skalierung integriert, um das Bild von Städten aus Webinhalten zu extrahieren, zu bewerten und zu visualisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37896-6_4 c36532de1543c421f5744107d058d986;de;;;7.3.;;;Webbasierte Empfehlungsstrategie in einem Katasterinformationssystem In dem Beitrag wird eine webbasierte Empfehlungsstrategie vorgestellt, die in einem Katasterinformationssystem implementiert ist. Diese Methode bildet die Liste der Seitenprofile, die einem bestimmten Benutzer empfohlen werden. Die Idee der Seitenempfehlung verwendet das Konzept eines Seitenprofils für Systemseiten, die Formulare mit Suchkriterien enthalten. Die Berechnung von Rangwerten für Seitenprofile basiert auf der Nutzungshäufigkeit und den von Nutzern ermittelten Signifikanzgewichten von Profilelementen.;-;-;-;https://link.springer.com/chapter/10.1007/11768012_47 532d3601dd7fed3c8188850b4f5fbfcc;de;;;7.3.;;;Infrastruktur und Geschäftsmodell für den universellen Breitbandzugang in Entwicklungsregionen: The Ceara State Digital Belt In Bezug auf den Zugang zu digitalen Diensten sind viele ländliche und abgelegene städtische Gebiete in Entwicklungsländern, wenn überhaupt, unterversorgt. In einer monopolisierten Umgebung ist die Telekommunikation von geringer Qualität und teuer. Breitbandinternet und andere digitale Dienste sind auf einen kleinen Prozentsatz der Menschen beschränkt. In einigen Fällen zieht es der Betreiber vor, Bußgelder zu zahlen, anstatt Dienste in abgelegenen Gebieten anzubieten. In diesem Beitrag stellen wir eine Infrastruktur samt Geschäftsmodell vor, die im brasilianischen Bundesstaat Ceara installiert wird. Diese Infrastruktur wurde vollständig von der Landesregierung gebaut, aber die Betriebskosten (OPEX) werden von Investoren getragen, die bereit sind, den Datentransport zu teilen. Durch öffentliche Versteigerungen werden unter interessierten Investoren verschiedene Gruppen ausgewählt, um den Wettbewerb zu stärken. Darüber hinaus wird ein neues staatliches Unternehmen gegründet, das kostengünstige Datentransportdienste anbietet und sicherstellt, dass mehr als 80 % der Bevölkerung des Staates eine hohe Bandbreite zur Verfügung steht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15476-8_6 c4e96a1e221b8bbbf94c57cb666f0014;de;;;7.3.;;;Sichere Webformulare und XML-Verarbeitung mit Ada Wir stellen eine Methode zur Entwicklung komplexer Webservices vor. Die Methode wurde mit einem Servicefall mit Benutzerauthentifizierung, mehreren Formularen, aufgezeichneten Daten und automatisierter Seitenerstellung getestet. Die Methode betont die Sicherheit in zwei Phasen: Entwicklung und Ausführung. Es umfasst ausgewählte und erstellte „Open Source“-Softwarekomponenten, insbesondere die Ada-Pakete CGI von David Wheeler und XML_Parser vom Autor. Die Methode wird anhand von Beispielen aus dem realen Entwicklungsfall und mit Detaileingriffen ausgewählter Aspekte vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45136-6_28 4b258b38711473c9cb90f8b34b1c577f;de;;;7.3.;;;Sind BGP-Router angreifbar? Ein Experiment Das BGP-Protokoll ist das Herzstück der Routing-Infrastruktur des Internets. BGP hat sich über Jahre hinweg als sehr stabil für seinen Zweck erwiesen. In der Vergangenheit gab es jedoch einige katastrophale Vorfälle aufgrund relativ einfacher Router-Fehlkonfigurationen. Darüber hinaus werden ungenutzte Netzwerkadressen zu Spamming-Zwecken heimlich gestohlen. Ein einschlägiges Literaturkorpus untersuchte Bedrohungen, bei denen ein vertrauenswürdiger BGP-Router bösartige oder falsche Routen einschleust, und einige Sicherheitsverbesserungen des BGP-Protokolls wurden ebenfalls vorgeschlagen, um die Durchführung dieser Angriffe zu erschweren. In dieser Arbeit führen wir eine groß angelegte Studie durch, um die Gültigkeit der Hypothese zu untersuchen, dass Angriffe gegen die BGP-Infrastruktur möglich sind, ohne bereits die Kontrolle über einen „vertrauenswürdigen“ BGP-Router zu haben. Obwohl wir keine wirkliche unmittelbare Bedrohung festgestellt haben, haben wir eine große Anzahl von BGP-Routern beobachtet, die für die BGP-Kommunikation zur Verfügung stehen und sich potenziellen Denial-of-Service-Angriffen aussetzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19228-9_8 6dfb9fee5df0e9a6828947871be001d2;de;;;7.3.;;;Eine adaptive Information-Grid-Architektur für Empfehlungssysteme In diesem Beitrag wird eine adaptive Informationsgitterarchitektur für Empfehlungssysteme vorgestellt, die aus den Merkmalen der Empfehlungsregel und einem Co-Citation-Algorithmus besteht. Der Algorithmus adressiert einige Herausforderungen, die für weitere Such- und Empfehlungsalgorithmen unerlässlich sind. Es erfordert nicht, dass Benutzer viel interaktive Kommunikation bereitstellen. Darüber hinaus unterstützt es andere Abfragen, wie Keyword-, URL- und Dokumentenuntersuchungen. Vergleicht man die Struktur mit anderen Algorithmen, ist die Skalierbarkeit deutlich besser. Die hohe Online-Performance kann ebenso erreicht werden wie die Repository-Berechnung, die eine hohe Gruppenbildungsgenauigkeit mit nur einem Bruchteil der Webseiten aus einem Cluster erreichen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24679-4_103 c69ceb7512cffbe202b574b19d838270;de;;;7.3.;;;"Design, Implementierung und Evaluierung von programmierbarem Handoff in Mobilfunknetzen Wir beschreiben den Entwurf, die Implementierung und die Bewertung einer programmierbaren Architektur für die Profilerstellung, das Zusammensetzen und die Bereitstellung von Übergabediensten. Wir argumentieren, dass zukünftige drahtlose Zugangsnetze auf der Grundlage offener programmierbarer Netzwerke aufgebaut werden sollten, die den dynamischen Einsatz neuer mobiler und drahtloser Dienste ermöglichen. Das Anpassen der Übergabesteuerung und des Mobilitätsmanagements auf diese Weise erfordert Fortschritte bei Software und Netzwerktechnologien, um auf spezielle Funk-, Mobilitäts- und Dienstqualitätsanforderungen zukünftiger drahtloser Internetdienstanbieter zu reagieren. Zwei neue Übergabedienste werden unter Verwendung programmierbarer Mobilnetztechniken bereitgestellt. Zuerst beschreiben wir einen ""Multi-Handoff""-Zugangsnetzdienst, der gleichzeitig mehrere Arten der Handoff-Steuerung über dieselbe physikalische drahtlose Infrastruktur unterstützen kann. Zweitens diskutieren wir einen 'reflektiven Handoff'-Dienst, der es programmierbaren Mobilgeräten ermöglicht, frei zwischen heterogenen drahtlosen Zugangsnetzen zu wechseln, die verschiedene Signalisierungssysteme unterstützen. Evaluierungsergebnisse zeigen, dass programmierbare Handoff-Architekturen skalieren können, um eine große Anzahl von mobilen Geräten zu unterstützen, während sie eine ähnliche Leistung wie die nativer Signalisierungssysteme erreichen.";-;-;-;https://link.springer.com/article/10.1023/A%3A1011478616916 bfb3986deb73aec6c1ee88f76fa77a6f;de;;;7.3.;;;Medicare-Grid: Neue Trends bei der Entwicklung von E-Health-Systemen basierend auf Grid-Technologie Die Entwicklung der Informationstechnologie in den letzten zehn Jahren hat Möglichkeiten zur Verbesserung des Stands der Technik medizinischer Dienste gebracht. Ein Szenario ist, dass die digitale Gesundheitsakte eines Patienten einfach über das Internet zwischen Krankenhäusern und medizinischen Zentren ausgetauscht werden kann, sodass die Untersuchung an einem Ort durchgeführt werden kann, während die klinische Diagnose von Ärzten an einem anderen durchgeführt wird. In diesem Beitrag schlagen wir ein Medicare-Grid vor – ein neuartiges netzbasiertes E-Health-System, das vorgeschlagen wird, den Prozess des Abrufens und Austauschs von persönlichen Gesundheitsdaten zwischen Krankenhäusern und medizinischen Zentren zu vereinfachen. Grid- und Peer-to-Peer-Technologien wurden verwendet, um von Krankenhäusern bereitgestellte Computer- und Speicherressourcen zu integrieren und ein Zentrum für elektronische Gesundheitsakten (EHR) zu entwickeln, um EHRs zwischen diesen Standorten zu speichern und zu teilen. Wir haben auch einen Systemprototyp entwickelt, der ultimative Hardwareressourcen und Open-Source-Softwaresysteme verwendet, um ein reales Szenario wie oben beschrieben zu simulieren. Wir zeigen, dass die im Projekt vorgeschlagene Idee umsetzbar, umsetzbar und auf die reale Welt anwendbar ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15515-4_16 a1dd93c6404b2eff5b4e897c8e1f311d;de;;;7.3.;;;Servicequalität in Informationsnetzen Dieser Artikel stellt die Problematik der Bereitstellung von Ende-zu-Ende-Dienstqualität in IP-Netzen, die die Grundlage von Informationsnetzen sind, vor, beschreibt die bestehenden Lösungen für diese Bereitstellung und stellt einige aktuelle Forschungsthemen zu diesem Thema vor.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-8159-6_1 6b67ae60940da198391063393b7d3380;de;;;7.3.;;;Formalisierung der Sicherheit in allgegenwärtigen und Cloud-Szenarien Wir untersuchen einige kritische Fragen, die im Paradigma des Ubiquitous Computing auftreten, insbesondere das Zusammenspiel von Kontextbewusstsein und Sicherheit. Anschließend betrachten wir einen sprachbasierten Ansatz, der diese Probleme aus der Sicht formaler Methoden angeht. Genauer gesagt beschreiben wir kurz eine Kernfunktionssprache, die um Mechanismen erweitert wurde, um die Anpassung an Kontextänderungen auszudrücken, Ressourcen zu manipulieren und Sicherheitsrichtlinien durchzusetzen. Darüber hinaus werden wir eine statische Analyse skizzieren, um ein sicheres Verhalten von Programmen in der digitalen Umgebung zu gewährleisten, zu der sie gehören.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33260-9_1 eeac7076aeb78fe06e53306dcee5ab09;de;;;7.3.;;;NaviMoz: Mining von Navigationsmustern in Portalkatalogen Portalkataloge sind ein beliebtes Mittel zur Suche nach Informationen im Web. Sie bieten Abfrage- und Durchsuchungsfunktionen für Daten, die in einer Hierarchie nach Kategorien/Unterkategorien organisiert sind. In diesem Artikel werden Mining-Techniken für Benutzernavigationsmuster in den Hierarchien von Portalkatalogen vorgestellt. Insbesondere untersuchen und implementieren wir Navigation Retrieval-Methoden und Clustering-Aufgaben basierend auf Navigationsmustern. Die oben genannten Mining-Aufgaben sind für Portaladministratoren sehr nützlich, da sie verwendet werden können, um das Verhalten der Benutzer zu beobachten, persönliche Vorlieben zu extrahieren und die Struktur des Portals neu zu organisieren, um bessere Benutzerbedürfnisse und Navigationsgewohnheiten zu erfüllen. Diese Mining-Aufgaben wurden in NaviMoz implementiert, einem prototypischen System zum Mining von Navigationsmustern in Portalkatalogen.;-;-;-;https://link.springer.com/chapter/10.1007/11896548_60 cd0abd326f789aab2dd917cbccd02a4e;de;;;7.3.;;;Bewertung von Entscheidungsprozessen für die Einführung von E-Commerce-Einführungen und Geschlechterrollen Die Einführung des nicht geschäftlichen E-Commerce bezieht sich auf die Nutzung des E-Commerce durch gemeinnützige Organisationen wie religiöse Organisationen, Regierungsbehörden und akademische Einrichtungen, um ihre Ausgaben zu senken oder ihren Betrieb und ihren Kundenservice zu verbessern. Als neue Forschungsnische im Bereich des E-Commerce hat der nicht-gewerbliche E-Commerce nur sehr wenig oder keine Forschungsaufmerksamkeit erhalten. Dies hat zu einem sehr schlechten Verständnis dieser Nische geführt, insbesondere in Bezug auf ihre Adoptionsvermittler und -hemmer. Basierend auf diesem Impuls wurde eine Feldstudie an malaysischen Universitäten durchgeführt, um die Schlüsselfaktoren zu bestimmen, die die Übernahme von EG durch Nicht-Unternehmen sowie die Rolle des Geschlechtergefälles erleichtern. Aus vorhandenen Forschungsberichten wurde eine umfassende Liste potenzieller Vermittler für den strategischen Einsatz der Informationstechnologie abgeleitet und zur Datensammlung von fünf öffentlichen Universitäten in Malaysia verwendet. Die Daten wurden faktoranalysiert, um die zugrunde liegenden Schlüsseldimensionen der Moderatoren zu bestimmen. Auf der Grundlage der resultierenden fünf Dimensionen relative Vorteilsorientierung, Netzwerkorientierung, Informationseffizienzorientierung, Innovationsorientierung und Wettbewerbsorientierung wurde eine Regressionsanalyse durchgeführt, um den Einfluss der fünf Dimensionen auf die Akzeptanz zu bestimmen. Für das Geschlecht wurde eine Dummy-Variable erstellt und in der Regressionsanalyse verwendet, um den Moderationseffekt der Geschlechtstypisierung auf die Beziehung zwischen den resultierenden Dimensionen und der Akzeptanz abzuschätzen. Implikationen der Ergebnisse werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s00146-006-0059-0 71600de0f1519a13c040a733e48b8cc7;de;;;7.3.;;;Empfehlung von Internet-Domains mit Trails und neuronalen Netzen In diesem Artikel wird die Verwendung künstlicher neuronaler Netze, die mit Mustern trainiert werden, die aus Trail-Daten extrahiert wurden, als Empfehlungssysteme diskutiert. Feed-forward Multilayer-Perceptrons, die mit dem Backpropagation-Algorithmus trainiert wurden, wurden verwendet, um Domänenpaaren eine Bewertung zuzuweisen, basierend auf der Anzahl der Personen, die zwischen ihnen durchquert hatten. Das in diesem Projekt konstruierte künstliche neuronale Netz war in der Lage, das Trainingsset weitgehend zu erlernen und zeigte gute Generalisierungsfähigkeiten.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-47952-X_39 72ff18a1b29889ea436961f3d69fcab9;de;;;7.3.;;;Ein auf Unicast-Rate basierendes Protokoll für Video-Streaming-Anwendungen über das Internet In diesem Artikel wird ein ratenbasiertes Unicast-Transportprotokoll vorgestellt, das die Übertragungsrate für Videostreaming über Best-Effort-Netzwerke wie das Internet regelt. Das Protokoll läuft auf dem Echtzeit-Transportprotokoll und stützt sich auf die Rückmeldungsberichte seines Schwesterprotokolls Echtzeit-Transportsteuerungsprotokoll, um Überlastungen zu kontrollieren. Das vorgeschlagene Protokoll verwendet die Regeln zur quadratischen Zunahme multiplikativer Abnahme, um seine Übertragungsrate zu ändern und arbeitet auf TCP-freundliche Weise gegenüber TCP-Flüssen. Außerdem enthält das Protokoll zwei Kontrollkriterien: den kumulativen Jitter und den Verzögerungsfaktor, um eine beginnende Überlastungserkennung vor dem Verlust von Videopaketen zu ermöglichen. Durch Hinzufügen dieser Kriterien wird die Übertragungsrate so angepasst, dass der Verlust von Videopaketen vorweggenommen wird. Netzwerkparameter wie Packet Loss Ratio und Round-Trip Time sowie der TCP-freundliche gemeinsame Durchsatz werden beim Empfänger berechnet und die Ergebnisse über den Empfänger-Paketbericht an den Sender zurückgesendet. Nach Erhalt der Feedback-Informationen passt der Sender die Senderate an die verfügbare Kapazität des Netzwerks an. Die Ergebnisse der Leistungsbewertung, die sowohl netzwerkbezogene Metriken als auch Videoqualitätsmessungen verwenden, zeigen eine Leistungsverbesserung in Bezug auf die Frame-Loss-Rate und das Spitzensignal-Rausch-Verhältnis, wodurch dem Empfänger ein Bild mit besserer visueller Qualität als bei der klassischen TCP-Friendly Rate Control (TFRC .) bereitgestellt wird ) Protokoll.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-12839-5_50 cb6848e0c2bb52b22f8b42caee19a9d6;de;;;7.3.;;;METIOREW: Ein objektiv orientiertes inhaltsbasiertes und kollaboratives Empfehlungssystem Die Größe des Internets ist sehr schnell gewachsen und täglich erscheinen viele Dokumente im Netz. Benutzer haben viele Probleme, die Informationen zu erhalten, die sie wirklich benötigen. Um Benutzern bei dieser Aufgabe zu helfen, relevante Informationen zu finden, wurden Empfehlungssysteme vorgeschlagen. Sie beraten mit zwei Methoden: der inhaltsbasierten Methode, die Informationen aus den bereits bewerteten Dokumenten durch den Benutzer extrahiert, um neue verwandte Dokumente zu erhalten, die kollaborative Methode, die dem Benutzer Dokumente auf der Grundlage der Bewertung durch Benutzer mit ähnlichem Informationsbedarf empfiehlt . In diesem Papier analysieren wir einige existierende Webempfehlungssysteme und identifizieren einige Probleme, die wir in unserem System METIOREW zu lösen versuchen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45844-1_28 ed476e6c8e7f0ac892c1683e0c290ede;de;;;7.3.;;;Entwicklungen im Bereich Software Engineering Software Engineering muss als professionelle Disziplin betrachtet werden und dafür braucht es sowohl Bildungs- als auch professionelle Infrastrukturen, die ein echtes „Engineering“-Ethos widerspiegeln. Es folgt eine Zusammenfassung der jüngsten Entwicklungen in den Bereichen Software Engineering Ausbildung und Professionalität, gefolgt von einer eingehenderen Analyse von vier besonders bedeutenden Projekten/Aktivitäten: dem Projekt zum Software Engineering Code of Ethics and Professional Practice, dem Guide to das Projekt Software Engineering Body of Knowledge (SWEBOK), die Erstellung des Bandes Software Engineering im Rahmen des CC2001 und die Arbeit im Zusammenhang mit den Vorschlägen der International Federation for Information Processing zur Harmonisierung von Berufsstandards in der Informationstechnologie und deren Zusammenhang zum Software-Engineering. Abschließend werden die Schlussfolgerungen zusammen mit Details zu weiteren noch zu erledigenden Arbeiten präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-23120-X_10 455327c3e43b3a96664a331b0a7924ff;de;;;7.3.;;;Die Konstruktion eines Indexsystems zur Bewertung der Gegenwirkung der öffentlichen Meinung des Internets basierend auf EMR Die Stärkung des Managements der öffentlichen Meinung im Internet und die Schaffung eines perfekten Systems zur Überwachung der öffentlichen Meinung sind weltweit zu einer neuen wichtigen Aufgabe geworden. Der bestehende Überwachungs- und Gegenmechanismus der öffentlichen Internetmeinung umfasst hauptsächlich die Überwachung der öffentlichen Meinung, die Frühwarnung und die Reaktion, wobei das zentrale Glied der Bewertung vernachlässigt wird, insbesondere die Bewertung der Wirkung der öffentlichen Internetmeinung. Außerdem ist der vorhandene Index unvollständig, unklar oder schwer zu berechnen. In diesem Papier, basierend auf der Struktur des öffentlichen Meinungsökologiesystems des Internets, wird das Modell des ökologischen Überwachungs- und Reaktionssystems entworfen. Auf die Entscheidungsebene übertragen, erhalten wir die 3 Indikatoren der ersten Ebene und geben dann eine detaillierte Analyse. Wir neigen dazu, die Bewertung der Auswirkungen des Umgangs mit der öffentlichen Meinung des Internets zu leiten und das Niveau der öffentlichen Meinung des Gegennetzwerks zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-43871-8_81 c8fe8e2ce6c96fcfcadcd8eed186ce21;de;;;7.3.;;;Neue Konzepte im E-Business und erweiterte Produkte Um auf dem umkämpften globalen Markt bestehen zu können, müssen Hersteller und Zulieferer neue Wege finden, um Allianzen zum Verkauf ihrer Waren zu bilden. Das;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55792-7_2 5b02680e2638a6ac2bcdf5bce44e8abb;de;;;7.3.;;;Verwenden von selbstorganisierenden Feature Maps, um Wissen über das Besucherverhalten auf einer Website zu erlangen Wenn ein Nutzer eine Website besucht, werden implizit wichtige Informationen über seine Vorlieben und sein Verhalten in den zugehörigen Logfiles gespeichert. Diese Informationen können durch Data-Mining-Techniken offengelegt und dazu verwendet werden, den Inhalt und die Struktur der jeweiligen Website zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45224-9_127 65830398317f847d4f52308cb27f202b;de;;;7.3.;;;Barrierefreiheit im Web lehren mit „Contramano“ und Hera Sowohl an Hochschulen als auch in Organisationen besteht Ausbildungsbedarf in Design für alle, insbesondere im Bereich barrierefreies Webdesign. In diesem Beitrag stellen wir die Erfahrungen der Stiftung Sidar und der Technischen Universität Madrid in der Lehre der Zugänglichkeit im Internet vor und konzentrieren uns dabei auf die Verwendung von zwei Schlüsselmaterialien. Die erste ist Contramano, eine fiktive Website, die so konzipiert ist, dass sie alle Zugänglichkeitsprüfungen nicht besteht. Es kann verwendet werden, um Beispiele für schlechte Praktiken zu geben oder als Grundlage für kurze Übungen, die sich auf bestimmte Kontrollpunkte konzentrieren. Das zweite Material ist das HERA-Tool, ein Online-Bewertungstool, das entwickelt wurde, um die manuelle Bewertung der Barrierefreiheit im Internet zu unterstützen. Der Beitrag stellt die Erfahrungen mit der Verwendung dieser Materialien sowohl in der Hochschulbildung als auch in anderen Studiengängen vor.;-;-;-;https://link.springer.com/chapter/10.1007/11788713_51 03e1ca706f3f7a5b1d0c43a554ad230c;de;;;7.3.;;;Lernen hierarchischer Nutzerinteressenmodelle von Webseiten from Wir schlagen einen Algorithmus zum Erlernen hierarchischer Benutzerinteressenmodelle entsprechend den Webseiten vor, die Benutzer durchsucht haben. Bei diesem Algorithmus werden die Interessen eines Benutzers in einem Baum dargestellt, der als Benutzerinteressenbaum bezeichnet wird und dessen Inhalt und Struktur sich gleichzeitig ändern können, um sich an die Änderungen der Interessen eines Benutzers anzupassen. Dieser Ausdruck repräsentiert als Kontinuum die spezifischen und allgemeinen Interessen eines Benutzers. In gewisser Weise entsprechen spezifische Interessen kurzfristigen Interessen, während allgemeine Interessen langfristigen Interessen entsprechen. Diese Darstellung spiegelt also eher die Interessen der Nutzer wider. Der Algorithmus kann die mehreren Interessendomänen eines Benutzers automatisch modellieren, die Interessenmodelle dynamisch erzeugen und einen Benutzerinteressenbaum beschneiden, wenn die Anzahl der Knoten darin einen bestimmten Wert überschreitet. Schließlich zeigen wir die Versuchsergebnisse auf einer chinesischen Website.;-;-;-;https://link.springer.com/article/10.1007/BF02831694 23e980ffe4f21fd15d281b81a092e803;de;;;7.3.;;;Förderung der Entwicklung des E-Commerce im Einzelhandel mit regionalem E-Commerce Im Vergleich zum traditionellen verbraucherorientierten E-Commerce bietet der regionale E-Commerce viele Vorteile wie Kundenstamm, Warenarten, Logistik und Vertrieb, Transaktionssicherheit, Reputation usw. Die entwickelten Gebiete in China, insbesondere die zentralen Städte, sind alle mit den Voraussetzungen für die Entwicklung des regionalen E-Commerce ausgestattet. Diese Bedingungen sind die Anzahl der Internetnutzer, das Vertriebssystem, die Zahlungsmittel usw. Diese entwickelten Gebiete sollen Vorreiter für den regionalen E-Commerce sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23993-9_63 1f4f73ca01acd3c37545f58560969c54;de;;;7.3.;;;Zur Verwendung eingeschränkter Assoziationen für das Web-Log-Mining In den letzten Jahren hat das Web Usage Mining als zugrundeliegender Ansatz zur Erfassung und Modellierung des Verhaltens von Benutzern im Web für Business Intelligence- und Browserleistungsverbesserungen ein zunehmendes Interesse und eine wachsende Zahl von Arbeiten zu verzeichnen. Die Strategien für das Mining der Webnutzung reichen von Strategien wie Clustering und kollaboratives Filtern bis hin zur genauen Modellierung sequenzieller Musternavigation. Viele dieser Ansätze haben jedoch Probleme in Bezug auf Skalierbarkeit und Leistung (insbesondere Online-Leistung) aufgrund der Größe und der spärlichen Natur der beteiligten Daten und der Tatsache, dass viele der Methoden komplexe Modelle generieren, die für eine On- Umgebung für die Entscheidungsfindung in der Linie. In diesem Whitepaper stellen wir einen neuen Ansatz für das Mining von Weblogs vor. Unser Ansatz entdeckt Assoziationsregeln, die zeitlich beschränkt (und geordnet) sind. Der Ansatz beruht auf der einfachen Prämisse, dass kürzlich aufgerufene Seiten einen größeren Einfluss auf Seiten haben, auf die in naher Zukunft zugegriffen wird. Der Ansatz führt nicht nur zu besseren Vorhersagen, sondern reduziert auch den Regelraum erheblich und ermöglicht so eine schnellere Online-Vorhersage. Weitere auf sequentielle Dominanz basierende Verfeinerungen werden ebenfalls evaluiert und erweisen sich als recht effektiv. Eine detaillierte experimentelle Auswertung zeigt, wie effektiv der Ansatz bei der Erfassung der Zugriffsmuster eines Web-Benutzers ist. Folglich hat unser Vorhersagemodell nicht nur eine gute Vorhersagegenauigkeit, sondern ist auch hinsichtlich der räumlichen und zeitlichen Komplexität effizienter. Der Ansatz dürfte sich auch für E-Commerce-Empfehlungssysteme verallgemeinern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39663-5_7 1f161b8b2fa5d431df50bd92f89fbc4d;de;;;7.3.;;;Gegnerische Sicherheit: Das Problem an der Wurzel packen Dieses Papier greift den konventionellen Sicherheitsbegriff erneut auf und tritt für einen Paradigmenwechsel in der Sichtweise von Sicherheit ein: Wir argumentieren, dass der grundlegende Sicherheitsbegriff natürlich einer sein sollte, der aktiv auf die Wurzel des Sicherheitsproblems abzielt: die böswilligen (menschlichen -beendet) Gegner. Zu diesem Zweck schlagen wir das Konzept der feindlichen Sicherheit vor, bei der nicht-böswilligen Parteien und dem Sicherheitsmechanismus mehr Aktivität zugebilligt wird, diskutieren Rahmenideen basierend auf Faktoren, die den (menschlichen) Gegner beeinflussen, und motivieren Ansätze zur Gestaltung feindlicher Sicherheitssysteme. Während die Sicherheitsforschung in den letzten Jahren begonnen hat, sich auf menschliche Elemente des legitimen Benutzers als Teil des Designs des Sicherheitssystems zu konzentrieren, z. dem Begriff der Zeremonien nähert sich unser Begriff der gegnerischen Sicherheit dem allgemeinen Sicherheitsdesign, indem er die menschlichen Elemente des böswilligen Gegners berücksichtigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19228-9_5 3108a75d24b5c9009b0dfcfc67362b5f;de;;;7.3.;;;WiBro Net.-basierte Five Senses Multimedia-Technologie mit Mobile Mash-Up In diesem Papier schlagen wir eine verbesserte Wireless Broadband (WiBro) Net.-basierte Fünf-Sinne-Multimedia-Technologie vor und implementieren diese, die webkartenorientiertes mobiles Mash-up verwendet. Das WiBro-Netz. in dieser applikativen Technologie unterstützt und ermöglicht Web 2.0-orientiert verschiedene Themen wie nutzerzentrierte Multimedia, individueller multimedialer Nachrichtenaustausch zwischen Multi-Usern, und ein neuer medienbasierter Informations- und Wissensaustausch / Partizipation ohne raumzeitliche Abhängigkeit. Um die Anwendbarkeit und Nutzbarkeit der Technologie zu überprüfen, führen wir verschiedene Experimente durch, darunter 1) WiBro Net.-basierte Echtzeit-Feldtests und 2) ISO 9241/11 und /10-basierte Umfragen zur Benutzerzufriedenheit durch relative Erfahrung im Vergleich mit dem AP-basierten kommerzialisierten Mobilfunkdienst. Als Ergebnis bietet diese Anwendung eine höhere Datenübertragungsrate in UP-DOWN-Luftverbindung und einen breiteren Abdeckungsbereich. Auch seine durchschnittlichen Werte auf der System Usability Scale (SUS) werden auf 83,58 % geschätzt, und es hat einen relativen Wettbewerbsvorteil in den spezifischen Itemskalen wie Systemintegration, Individualisierung und Konformität mit Benutzererwartungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02457-3_25 4b731a54b9154e62783776be6ad30511;de;;;7.3.;;;Das Web als Korpus für die Selbstschulung der Textkategorisierung nutzen Die meisten aktuellen Verfahren zur automatischen Textkategorisierung basieren auf überwachten Lerntechniken und stehen daher vor dem Problem, eine große Anzahl von Trainingsinstanzen zu erfordern, um einen genauen Klassifizierer zu konstruieren. Um dieses Problem anzugehen, schlägt dieser Beitrag eine neue semi-überwachte Methode zur Textkategorisierung vor, die die automatische Extraktion von nicht gekennzeichneten Beispielen aus dem Web und die Anwendung eines angereicherten Selbsttrainingsansatzes zur Konstruktion des Klassifikators berücksichtigt. Diese Methode ist, obwohl sprachunabhängig, für Szenarien relevanter, in denen keine großen Mengen von gekennzeichneten Ressourcen vorhanden sind. Dies könnte beispielsweise bei mehreren Anwendungsdomänen in verschiedenen nicht-englischen Sprachen wie Spanisch der Fall sein. Die experimentelle Evaluation der Methode erfolgte in drei verschiedenen Aufgabenstellungen und in zwei verschiedenen Sprachen. Die erzielten Ergebnisse belegen die Anwendbarkeit und Nützlichkeit der vorgeschlagenen Methode.;-;-;-;https://link.springer.com/article/10.1007/s10791-008-9083-7 eae426c5ade701f5a04ed9e0e0cbdbec;de;;;7.3.;;;Kongruenz zwischen den beabsichtigten, implementierten und erreichten IKT-Lehrplänen in Subsahara-Afrika Das Forschungsprojekt PanAfrican Research Agenda on the Pedagogical Integration of Information and Communication Technology (ICT, PanAf) wurde 2006 ins Leben gerufen, um Initiativen in afrikanischen Ländern zur Integration von IKT in Lehre und Lernen durch die häufige Erhebung und Analyse von Daten zur IKT-Nutzung zu unterstützen. Der Artikel untersucht die Kongruenz zwischen beabsichtigten und implementierten IKT-Lehrplänen in sechs afrikanischen Ländern (Kamerun, Elfenbeinküste, Ghana, Kenia, Senegal und Südafrika), die an der Studie teilgenommen haben. Daten vom PanAf-Observatorium (at;-;-;-;https://link.springer.com/article/10.1080/14926156.2014.992555 b378f07558a619d05cba2f10d8dcbef9;de;;;7.3.;;;Ein effektiver hybrider statistischer und lernbasierter Ansatz für einen begrenzten Bereich eines Webdokuments von Corpus Textdokumente sind von Natur aus unstrukturiert. Um ein großes Archiv dieser Dokumente zu organisieren, ist es erforderlich, diese Dokumente anhand einiger Schlüsselinformationen zu identifizieren. Die Schlüsselwortextraktion ist eine solche wichtige Methode für die Textzusammenfassung. Eine geeignete Dokumentendomäne aus einem großen Dokumentenarchiv zu erhalten, ist heute eine der größten Herausforderungen. Kategorisierung von unstrukturierten Dokumenten zum schnelleren Abrufen, Präferenzen von Einzelpersonen basierend auf ihren Vorlieben, Informationen könnten von einem Informationshub abgerufen werden. In dieser Arbeit werden Webdokumente vor der Schlüsselwortextraktion unter Verwendung der Methode der Begriffshäufigkeit (tf) und der inversen Dokumenthäufigkeit (idf) einer Netzrauschbeseitigung unterzogen, um einen Dokumentkorpus zu erstellen. Dieser Korpus wird verwendet, um eine ontologische Darstellung der Domäne basierend auf dem in den Dokumenten enthaltenen Schlüsselwort zu generieren. Diese Methode erzeugt ein domänenrepräsentatives Dokument. Der Dokumentenkorpus wird unter Verwendung einer Mehrklassen-Klassifikationstechnik klassifiziert. Ein umfassender Test wird durchgeführt, um die Domäne des Dokuments vorherzusagen und eine Genauigkeit von 88–93 % zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7834-2_34 46d2106602aa07e1d699d626273986d4;de;;;7.3.;;;Internet der Dinge Forensik – Herausforderungen und eine Fallstudie Im Zeitalter des Internets der Dinge werden Millionen von Geräten wie Autos, Rauchmelder, Uhren, Brillen und Webcams mit dem Internet verbunden. Die Zahl der Geräte mit der Fähigkeit, Daten zu überwachen und zu sammeln, nimmt ständig zu. Das Internet der Dinge verbessert den menschlichen Komfort und die Bequemlichkeit, wirft jedoch ernsthafte Fragen in Bezug auf Sicherheit und Datenschutz auf. Es stellt auch digitale Ermittler vor erhebliche Herausforderungen, wenn sie in kriminellen Szenen auf Geräte des Internet der Dinge stoßen. Tatsächlich konzentriert sich die aktuelle Forschung auf Sicherheit und Datenschutz in Internet-of-Things-Umgebungen im Gegensatz zu forensischen Erfassungs- und Analysetechniken für Internet-of-Things-Geräte. Dieses Kapitel konzentriert sich auf die großen Herausforderungen im Hinblick auf die Internet-of-Things-Forensik. Ein forensischer Ansatz für Internet-of-Things-Geräte wird anhand einer Smartwatch als Fallstudie vorgestellt. Von der Smartwatch abgerufene forensische Artefakte werden analysiert und die gefundenen Beweise im Hinblick auf die Herausforderungen diskutiert, denen sich die Internet of Things-Forensik gegenübersieht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99277-8_3 d7349f68ff26f6520eefaff290317889;de;;;7.3.;;;Suche nach Anbietern von Visual Media-Diensten mit ASN.1-basierter Ontologie-Begründung Information Retrieval ist einer der anspruchsvollsten Bereiche, in denen die Ontologie-Technologie effektiv eingesetzt wird. Unter diesen ist der Bildabruf unter Verwendung der Bildmetadaten und der Ontologie derjenige, der den schlüsselwortbasierten Bildabruf ersetzen kann. Im Papier wird der Abruf von visuellen Medien wie dem Kunstbild und Fotobild gehandhabt. Es wird davon ausgegangen, dass es mehr als einen Dienstleister der visuellen Medien gibt, sowie einen zentralen Dienstleister, der die Anfrage des Nutzers vermittelt. Angesichts der Anfrage des Benutzers besteht der erste Schritt, der im Service Broker durchgeführt werden muss, darin, die Liste der in Frage kommenden Service Provider zu erhalten, die der Anfrage entsprechen. Dies geschieht durch die Definition verschiedener Ontologien wie die Dienstontologie und den Abgleich der Abfrage mit der Ontologie und den Anbietern. In der Arbeit wird ein neuartiges Matching-Verfahren basierend auf dem ASN.1 vorgeschlagen. Das Experiment zeigt, dass die Methode effektiver ist als die bestehenden baumbasierten oder intervallbasierten Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75664-4_38 e7cd3e514804ae384387a6e608a810a6;de;;;7.3.;;;Die Evolution der Internet-Sucht-Störung Dieses Kapitel präsentiert die Geschichte und Entwicklung der Internetsucht und beschreibt die identifizierten Risikofaktoren. Mit zunehmender Verbreitung des Problems untersuchen neue Studien die neurowissenschaftlichen Ursachen der Internetsucht und Möglichkeiten, die Störung hauptsächlich mit Verhaltenstherapie, kognitiven Verhaltenstechniken und stationärer Pflege zu behandeln. Das Kapitel bietet auch den theoretischen Rahmen zum Verständnis der ätiologischen Modelle oder kausalen Faktoren im Zusammenhang mit der Entwicklung der Internetsucht, einschließlich eines kurzen Überblicks über die kürzlich durchgeführten neurowissenschaftlichen Studien. Schließlich gibt dieses Kapitel einen Überblick über die aktuellen Behandlungsmodelle, die bei der Wiederherstellung von Internetsucht verwendet werden. Als Einführung in dieses Buch hoffen wir, dass dieses Kapitel einen historischen Kontext der Erkrankung liefert und zukünftige Forschungsgebiete fördert, da weiterhin neue Studien auf diesem Gebiet entstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07242-5_1 9a0b386cf503e920c6bfc6ea279654e3;de;;;7.3.;;;Schema zur Abwehr von DDoS-Angriffen in großen ISP-Netzwerken Ein Schema zur Abwehr von Distributed-Denial-of-Service (DDoS)-Angriffen, das den Mechanismus von verteilungsbasierten Secure Overlay Nodes (DSON) auf ein groß angelegtes ISP-Netzwerk (Internet Service Provider) anwendet, wird vorgestellt. Das Schema verwendet eine lokale BPG-Ankündigung, um Verkehr zum Overlay-Netzwerk umzuleiten, wenn eine hohe Last auftritt, dann wird ein Filteralgorithmus basierend auf der Technologie der Signalverarbeitung auf den umgeleiteten Verkehr angewendet. Dieser Algorithmus erkennt und filtert DDoS-Angriffe im Frequenzbereich heraus, um Zielen zu ermöglichen, dem legitimen Verkehr einen guten Service zu bieten, mit schneller Reaktion und einem hohen Energieverhältnis von legitimem Verkehr zu Angriffen. DSON wird auf den Überwachungspunkten eines großen ISP-Netzwerks implementiert und installiert, die den entsprechenden Routern, Edge-Router, Border-Router und Core-Router zugeordnet sind, ohne dass Änderungen an Netzwerkarchitektur, Infrastruktur und Protokoll erforderlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74784-0_31 94a172eb90f089b3fdbcea5ea70f18c3;de;;;7.3.;;;Bergbau-kontextspezifisches Web-Wissen: Ein experimenteller wörterbuchbasierter Ansatz Diese Arbeit präsentiert einen experimentellen semantischen Ansatz für das Mining von Wissen aus dem World Wide Web (WWW). Das Hauptziel besteht darin, eine kontextspezifische Wissensdatenbank aus Webdokumenten aufzubauen. Die Grundidee besteht darin, ein von einem Wörterbuch bereitgestelltes Referenzwissen als Indexierungsstruktur von domänenspezifischen berechneten Wissensinstanzen zu verwenden, die in Form von miteinander verbundenen Textwörtern organisiert sind. Die lexikalische Datenbank WordNet wurde als Referenzwissen für die englischen Webdokumente verwendet. Sowohl die Referenz als auch das berechnete Wissen sind eigentlich als Wortgraphen konzipiert. Graph wird hier als leistungsfähiges Mittel zur Darstellung von strukturiertem Wissen betrachtet. Diese Annahme hat viele Konsequenzen für die Art und Weise, wie Wissen erforscht und ähnliche Wissensmuster identifiziert werden können. Um kontextspezifische Elemente in Wissensgraphen zu identifizieren, wurde das neuartige semantische Konzept der „Minutia“ eingeführt. Eine vorläufige Bewertung der Wirksamkeit des vorgeschlagenen Ansatzes wurde durchgeführt. Eine faire Vergleichsstrategie mit anderen nicht-semantischen konkurrierenden Ansätzen wird derzeit untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85984-0_108 622f79cdd4915ccd465fa4726a441c86;de;;;7.3.;;;Das Multimedia Semantic Web Dieser Vortrag diskutiert unsere Ideen zum Import von Multimedia-Informationen in das semantische Web-Paradigma und wie die Natur von Multimedia-Daten dieses Paradigma zu interessanten Transformationen veranlassen sollte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-31970-2_9 d650775d4348b5726dd2d78a1ca966c5;de;;;7.3.;;;AquaLog: Ein Ontologie-portables Frageantwortsystem für das Semantic Web Da semantisches Markup allgegenwärtig wird, wird es wichtig, in der Lage zu sein, Anfragen zu stellen und Antworten zu erhalten, indem Ausdrücke in natürlicher Sprache (NL) verwendet werden, anstatt die von den aktuellen Suchmaschinen verwendeten schlüsselwortbasierten Abrufmechanismen. AquaLog ist ein tragbares Frage-Antwort-System, das in natürlicher Sprache ausgedrückte Anfragen und eine Ontologie als Eingabe verwendet und Antworten aus dem verfügbaren semantischen Markup zurückgibt. Wir sagen, dass AquaLog portabel ist, da der Konfigurationsaufwand für die Anpassung des Systems an eine bestimmte Ontologie vernachlässigbar ist. AquaLog kombiniert mehrere leistungsstarke Techniken auf neuartige Weise, um NL-Abfragen zu verstehen und sie semantischem Markup zuzuordnen. Darüber hinaus enthält es auch eine Lernkomponente, die dafür sorgt, dass sich die Leistung des Systems im Laufe der Zeit in Reaktion auf den speziellen Community-Jargon der Endbenutzer verbessert. In diesem Papier beschreiben wir die aktuelle Version des Systems und diskutieren insbesondere seine Portabilität, seine Argumentationsfähigkeiten und seinen Lernmechanismus.;-;-;-;https://link.springer.com/chapter/10.1007/11431053_37 057b980085ea5c0791472a8a07f790e6;de;;;7.3.;;;Visual Affinity Propagation verbessert die Vielfalt der Unterthemen ohne Genauigkeitsverlust beim Web-Fotoabruf Dieses Papier zeigt, dass die Affinity Propagation (AP) Kmeans beim Unterthemen-Clustering des Webbildabrufs übertrifft. Es wird ein SVM-Abrufsystem für visuelle Bilder erstellt, und dann wird ein Clustering für die Ergebnisse jedes Themas durchgeführt. Dann erhöhen wir die Vielfalt der 20 Top-Ergebnisse, indem wir das Bild mit dem niedrigsten Rang in jedem Cluster nach oben schieben. Unter Verwendung von 45-dimensionalen visuellen Profil-Entropie-Funktionen zeigen wir für die 39 Themen der imageCLEF08-Webbild-Retrieval-Clustering-Kampagne auf 20K IAPR-Bildern, dass der Cluster-Recall (CR) nach AP 13% besser ist als die Baseline ohne Clustering, während der Precision bleibt fast gleich. Darüber hinaus werden CR und Precision ohne Clustering von Kmeans geändert. Schließlich diskutieren wir, dass einige hochrangige Themen Textinformationen für eine gute CR erfordern und dass differenziertere visuelle Funktionen auch eine Präzisionsverbesserung nach AP ermöglichen würden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04447-2_78 c30f34a4f9c82b7b3908416ac4d49c6f;de;;;7.3.;;;Interaktive Visualisierung der Nachrichtenverteilung im Blog-Raum Dieses Papier schlägt eine Visualisierungsmethode der Nachrichtenverteilung im Blog-Raum vor. In letzter Zeit wird Blog zu einer der wichtigsten Informationsquellen im Web, aus der Trendinformationen abgerufen werden können. Auf der anderen Seite ist die Online-Nachrichtenseite eine weitere Informationsquelle, die über die neuesten Ereignisse in der Welt berichtet. Dieses Papier konzentriert sich auf die Kombination beider Ressourcen und schlägt eine Methode zur Visualisierung der Nachrichtenverteilung im Blogbereich vor, die verschiedene Zugriffsmuster auf Nachrichtenartikel im Blogbereich aufzeigt. Die zu visualisierenden Objekttypen sowie deren Beziehungen werden definiert, auf deren Grundlage ein interaktives Informationsvisualisierungssystem vorgeschlagen wird. Experimente mit Testpersonen werden durchgeführt, um die Standpunkte zu untersuchen, die sie zur Untersuchung der Nachrichtenverteilung im Blog-Raum verwenden. Die Ergebnisse zeigen, dass Testpersonen die Nachrichtenverteilung im Blog-Bereich aus verschiedenen Blickwinkeln untersuchen können, was ihre Einschätzung der Auswirkungen von Nachrichtenartikeln beeinflusst.;-;-;-;https://link.springer.com/article/10.1007/s00354-007-0032-6 14df393db768d45f0a2e5f10b6f13b00;de;;;7.3.;;;Computer- und Informationstechnologie in einer verteilten Umgebung. Ein Überblick Noch bevor der Computer erfunden wurde, wurde das Konzept der parallelen Berechnung angewendet, um viele superkomplexe Probleme manuell mit großen Bedienerteams zu lösen. In dieser Übersicht wird die Möglichkeit der parallelen Problemlösung analysiert und die Lebensdauer paralleler Systeme abgeschätzt. Außerdem werden Parallelisierungsmethoden, Supercomputer-Unfreundlichkeit, Informations- und Zugriffsmanagement in verteilten Umgebungen, verteilte Systeme zur Informationssimulation und -analyse und die Einrichtung spezialisierter Zentren diskutiert.;-;-;-;https://link.springer.com/article/10.3103/S0005105508020015 25c8eff27397a46ede01ed883f1b5806;de;;;7.3.;;;Optimierung der Leistung konkurrierender Suchmaschinen in heterogenen Webumgebungen Verteilte heterogene Suchumgebungen sind ein aufkommendes Phänomen in der Websuche, bei dem themenspezifische Suchmaschinen Suchdienste bereitstellen und Metasucher die Benutzeranfragen nur an die am besten geeigneten Suchmaschinen verteilen. Frühere Forschungen haben die Leistung solcher Umgebungen aus der Perspektive des Benutzers untersucht (z. B. verbesserte Qualität der Suchergebnisse). Stattdessen konzentrieren wir uns auf die Leistung aus Sicht des Suchdienstleisters (z. B. Einnahmen aus bearbeiteten Anfragen vs. Ressourcen, die für deren Beantwortung verwendet wurden). Wir analysieren ein Szenario, in dem einzelne Suchmaschinen um Anfragen konkurrieren, indem sie auswählen, welche Dokumente indiziert werden sollen. Wir schlagen den COUGAR-Algorithmus vor, den spezialisierte Suchmaschinen verwenden können, um zu entscheiden, welche Dokumente zu jedem bestimmten Thema indiziert werden sollen. COUGAR basiert auf einer spieltheoretischen Analyse heterogener Suchumgebungen und nutzt Techniken des Reinforcement Learning, um das suboptimale Verhalten seiner Konkurrenten auszunutzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39857-8_21 daa1fdc4a73427b1905e185d31778210;de;;;7.3.;;;Automatischer LSA-basierter Abruf von Synonymen (für Search Space Extension) Dieses Papier beschreibt eine Forschung, Experimente und theoretische Überlegungen, die zu einer automatischen computergestützten Thesauruskonstruktion basierend auf der Identifizierung von Synonymen in großen Textsätzen für die Bedürfnisse von Frage-Antwort-Systemen (QA) führen. Die Methode profitiert von der Latent Semantic Analysis (LSA)-Technik und basiert auf dieser. LSA dient als Hypothesengenerator, der Hypothesen über die Wörter erstellt, die Synonyme sein könnten. Anschließend werden die generierten Hypothesen durch Untersuchung der morphologischen Bindungen zwischen den beiden Wörtern und der gesamten syntaktischen Struktur des Kontextes, in dem sie auftreten, nämlich der Subjekt-Objekt-Beziehung, als richtig oder falsch bewiesen. Die abgerufenen Synonyme werden verwendet, um den Suchraum zu erweitern, in dem ein QA-System die Antworten durchsucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28807-4_12 ef594583a8bce4e120ed3a5198fb84b7;de;;;7.3.;;;EASYGO — Eine ÖPNV-Abfrage und Orientierung LBS Hongkong ist eine stark urbanisierte Stadt mit einem sehr komplizierten öffentlichen Verkehrssystem. Anwohner und Touristen sind im Alltag stark auf öffentliche Verkehrsmittel angewiesen. Um Menschen bei der besseren Nutzung des ÖPNV-Systems zu unterstützen, wird ein multimodales ÖPNV-Abfrage- und -Leitsystem für mobile Nutzer entwickelt. Dieses System kann die Position des mobilen Geräts mit der Mobilfunknetz-Positionierungstechnologie automatisch bestimmen und mit dem benutzerdefinierten Ziel werden optimale Reiserouten in Bezug auf die kürzeste Reisezeit und den niedrigsten Tarif vorgeschlagen. Ein Überblick über dieses System mit Schwerpunkt auf der Systembenutzeroberfläche, der Integration von GIS und mobiler Ortungstechnologie wird in diesem Beitrag diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36728-4_38 b56753462b963ce4fbdb4144a8a0549c;de;;;7.3.;;;Datenextraktion auf Website-Ebene Dieses Papier schlägt einen Datenextraktionsansatz auf Website-Ebene vor, um die objektrelevanten Informationen zu identifizieren, die über mehrere Webseiten verteilt sind. Die Datenextraktion auf Seitenebene wird umfassend untersucht, wobei angenommen wird, dass jede Eingabe-Webseite mehrere Datensätze interessierter Objekte enthält. In vielen Fällen sind jedoch beim Web Mining die mehreren Seiten, die ein Objekt beschreiben, auf einer Website spärlich verteilt. Dadurch sind Lösungen auf Seitenebene nicht mehr anwendbar. Wir nutzen das Hierarchiemodell von Websites für die Webseitenorganisation, um das Problem der Datenextraktion auf Website-Ebene zu lösen. Für die objektrelevante Webseitenfilterung wird eine neue Ressource, der Hierarchical Navigation Path (HNP), eingeführt, die aus der Website-Struktur erkannt werden kann. Die gefundenen Webseiten werden unter Verwendung der URL- und semantischen Hyperlinkanalyse geclustert, und dann werden die Eingangsseite und die detaillierten Profilseiten jedes Objekts identifiziert. Die empirischen Experimente zeigen die Wirksamkeit des vorgeschlagenen Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12436-5_18 114e2a5b0cc85f16e8fe254be7c02713;de;;;7.3.;;;Eine vergleichende Studie von drei Social-Networking-Websites In letzter Zeit nimmt die Zahl der Social-Networking-Sites schnell zu, und die Zahl der Benutzer, die diesen Sites beitreten, nimmt ebenfalls dramatisch zu. Dieses Papier zielt auf einen umfassenden Vergleich von drei Social-Networking-Sites und bietet eine eingehende Analyse. Wir vergleichen drei der beliebtesten Social-Networking-Sites, d. h. Facebook, Twitter und MySpace. Insbesondere bewerten wir diese Social-Networking-Sites anhand von vier Kriterien (d. h. Navigation, Interaktivität, Glaubwürdigkeit der Quelle und Intelligenz). Für jedes Kriterium schlagen wir eine Liste von Maßnahmen für den Vergleich vor. Der Vergleich untersucht im Wesentlichen die Unterschiede und Gemeinsamkeiten zwischen diesen Social-Networking-Sites. Basierend auf der Analyse des Vergleichs wird eine Nutzerstudie durchgeführt, um die drei Websites zu bewerten.;-;-;-;https://link.springer.com/article/10.1007/s11280-013-0222-8 009035fe93fed1c24f96def4dddbc1cc;de;;;7.3.;;;Das Internet und die Gesellschaft Schnelle, kontinuierliche Fortschritte in der Computertechnologie und die damit verbundene Konvergenz von Computer und Telekommunikation haben die Entwicklung einer Reihe von Informations- und Kommunikationstechnologien (IKT) ermöglicht, vom Mobiltelefon bis zum Internet. Die Bedeutung dieser Innovationen und ihre Anwendung in allen Bereichen der Gesellschaft machten IKT wie das Internet zu Schlüsseltechnologien des späten 20. Jahrhunderts. Die weit verbreitete Faszination für ihren technischen Einfallsreichtum und ihre wachsende Leistungsfähigkeit steht immer wieder im Fokus: vom Aufkommen des „Computerzeitalters“ in den 50er und 60er Jahren über die „Mikrochip-Revolution“ in den 70er Jahren bis hin zur internetbasierten „Superautobahn“ und „Informationsgesellschaft“ der 1980er und 90er Jahre bis hin zur internetfähigen „e-everything“ digitalisierten Globalisierung des 21. Jahrhunderts.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24761-6_20 f41b05de5c577d918b473d344ff8ffb1;de;;;7.3.;;;Bildungslabor für das Studium von Stromrichtern über einen Webbrowser Das entwickelte System basiert auf einem Prüfstand von Hewlett-Packard. Ausgehend davon wurde eine Softwareanwendung mit der grafischen Programmiersprache „LabVIEW“ entwickelt. Dieses Programmierwerkzeug in Kombination mit CGI (Common Gateway Interface) ermöglicht die Fernausführung über einen Webbrowser und erhöht die Vielseitigkeit und den Nutzen des Systems.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-30761-3_7 4cd2476c158760c159d3780280183cc7;de;;;7.3.;;;Quijote: Gruppenentscheidungen über das Web unterstützen Wir beschreiben eine webbasierte Architektur zur Unterstützung der Beteiligung an Gruppenentscheidungen. Der Schwerpunkt liegt auf Sicherheitsaspekten im Zusammenhang mit unserer Architektur, die das Vertrauen in das System stärken sollen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-32257-3_21 6294612f21b677019a82feee4b1df0bb;de;;;7.3.;;;Ein System zur Erfassung von Informationen über landwirtschaftliche Habitate und ein intelligentes Fernentscheidungssystem basierend auf dem Internet der Dinge Auf der Grundlage der Informationswahrnehmungstechnologie und der mobilen Verbindungstechnologie wird durch die Technologie des landwirtschaftlichen Internets der Dinge die Multisensorsystemintegration realisiert und die kollaborative Erfassung von Lebensrauminformationen im Pflanzenbau verwirklicht. In diesem Papier wird die Architektur von Hardware und Software für das System entworfen. Durch drahtlose Multi-Hop- und nahtlose Verbindungstechnologien der „Triple-Net-Integration“ werden gängige Schnittstellen und Abtasttechnologien der Multisensor-Standardsignaltransformation verwendet, um die Multiparameter-Informationserfassung von Pflanzen während ihres Wachstums zu erreichen. Drahtlose Überwachungsknoten des Landwirtschafts-Internets der Dinge sind an jedem Messpunkt des Ackerlandes verteilt und sind für die Informationssammlung, Vorbehandlung und drahtlose Übertragung von acht Parameterdaten verantwortlich, einschließlich Umgebungstemperatur, Umgebungstemperatur, Lichtintensität, Kohlendioxid Gehalt, Bodentemperatur, Bodenfeuchtigkeit, Boden-pH, Bodensalz. Das Datenverarbeitungs- und Servicesystem führt die Datenfernspeicherung und die Online-Informationsfreigabe durch. Das intelligente Entscheidungsunterstützungssystem ermöglicht eine Echtzeitwarnung vor anormalen Parametern. Experimente zeigen, dass die Architektur des Systems angemessen ist und dass das System eine gute Genauigkeit, Stabilität und Zuverlässigkeit aufweist, im Einklang mit der praktischen Anwendung auf dem landwirtschaftlichen Basisbereich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-06179-1_8 f3023400cbb9a09c90e756fcf5089bbe;de;;;7.3.;;;Benutzerlernerfahrung in webbasierten Systemen: Eine Fallstudie Die Lernerfahrung der Benutzer kann als einer der wichtigsten Faktoren angesehen werden, die die Einführung webbasierter Systeme prägen. Webbasierte Lernende, die mit einer großen Menge an Informationen interagieren, ist der Grund, den Effekt in der aktuellen webbasierten Aufgabenumgebung abzuleiten. Das Verständnis der webbasierten Wahrnehmung von Lernenden auf der Grundlage der vorherigen Erfahrung mit Informationen kann Einblicke in die Bedeutung dieser Wahrnehmungen und deren Auswirkungen im aktuellen und zukünftigen webbasierten Lernprozess geben. Der Beitrag zeigt den theoretischen Kontext der Lernerfahrung von Benutzern mit Informationen und versucht, Faktoren bei der Verwendung webbasierter Systeme zu unterscheiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45200-3_24 1ef9444623bcf38622f61706f8b847e3;de;;;7.3.;;;Der Rahmen für die Entwicklung eines konstruktivistischen webbasierten Lernumgebungsmodells zur Verbesserung des kritischen Denkens für Grundschüler Der Zweck dieser Forschung ist es, den Entwicklungsrahmen des konstruktivistischen webbasierten Lernumgebungsmodells zu synthetisieren, um das kritische Denken für Grundschüler zu verbessern. In dieser Studie (Richey & Klein, 2007) wurde Modellforschung eingesetzt, die sich auf Prozesse des Entwurfs und der Modellentwicklung konzentriert. Die Forschungsverfahren bestehen aus drei Hauptschritten: (1) Dokumentenanalyse und Untersuchung von Lern- und Lehrkontexten, (2) Analyse verwandter Prinzipien und Theorien wie Lerntheorie, konstruktivistische Theorien, Kritisches Denken, Medientheorie und -technologie und (3) Synthese des theoretischen Rahmens und Entwurf des Rahmens für ein konstruktivistisches webbasiertes Lernumgebungsmodell, um das kritische Denken basierend auf den überprüften Prinzipien und Theorien zu verbessern. Die Teilnehmer dieser Studie waren Experten aus verschiedenen Bereichen wie Theoretiker, Designer, Entwickler, Bewerter, Forscher und Lernende. Die Ergebnisse der Studie zeigen, dass es fünf grundlegende Elemente des theoretischen Rahmens gibt: (1) psychologische Basis, (2) pädagogische Basis, (3) kontextuelle Basis, (4) Basis des kritischen Denkens, (5) Medientheorie und Technologiebasis , und. Der Entwurfsrahmen besteht aus vier Hauptkomponenten: (1.) Die Aktivierung der kognitiven Struktur und Verbesserung des kritischen Denkens, (2.) Die Verbesserung des kognitiven Gleichgewichts, (3.) Die Unterstützung und Verbesserung der kognitiven Struktur und des kritischen Denkens und ( 4.) Die Verbesserung und Unterstützung des Wissensaufbaus und der Unterstützung des kritischen Denkens sowie die Gestaltung von Rahmenwerken haben folgende 8 Elemente: (1) Problembasis, (2) Ressourcenzentrum, (3) Zentrum für verbundene Gemeinschaften, (4) Kooperationszentrum , (5) kognitive Werkzeuge, (6) Zentrum für kritisches Denken, (7) Zentrum für Gerüstbau und (8) Coaching-Zentrum.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-35343-8_68 be3adf715fb6566ece179a54f3cce7b0;de;;;7.3.;;;Die Gestaltung einer konstruktivistischen webbasierten Lernumgebung zur Verbesserung des Problemlösungsprozesses und des Lerntransfers für Studenten der Computerausbildung Der Zweck dieser Forschung bestand darin, eine konstruktivistische webbasierte Lernumgebung zu entwerfen und zu entwickeln, um den Problemlösungsprozess und den Lerntransfer für Studenten der Computerausbildung zu verbessern. Die Entwicklungsforschung (Typ I): Design- und Entwicklungsprozess wurden in dieser Studie verwendet. Mehrere verwendete Methoden waren Dokumentenanalyse, Umfrage und Fallstudie. Die Ergebnisse zeigten: (1) Die Gestaltung einer konstruktivistischen webbasierten Lernumgebung bestand aus den folgenden Komponenten: (1) Problembasis (2) Ressourcen (3) Kognitives Werkzeug (4) Kollaboration (5) Zugehöriger Fall (6) Förderung F Problemlösungsprozesszentrum (7) Transfer des Lernzentrums (8) Soziale Unterstützung für Bildungssichten (9) Gerüstbau und (10) Coaching, (2) Die Effizienz dieser Lernumgebung wurde durch Expertenbegutachtung evaluiert. Es wurde festgestellt, dass die Lernumgebung in Bezug auf 3 Aspekte angemessen ist: Inhalt, Unterrichtsgestaltung und Medien. (3) Der Problemlösungsprozess wurde aus dem Testformular für den Problemlösungsprozess (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-35343-8_13 73471ec8fac67128ef81098cc206cd19;de;;;7.3.;;;Zugang zu InterACTion: Altern mit Technologien und dem Ort des Zugangs In diesem Papier reflektieren wir unsere Teilnahme an einem Pilotprojekt zur digitalen Kompetenz mit dem Titel InterACTion, das derzeit in einkommensschwachen Wohnungen für Senioren in der Stadt Montreal eingesetzt wird. Um die Komplexität des Zugangs in Bezug auf das Altern in diesem realen Umfeld zu beurteilen, greifen wir auf das „Access Rainbow Model“ von Clement und Shade zurück das Projekt, von denen jeder daran arbeitet, die Feinheiten des Zugangs im Kontext des prekären Alterns und des situierten Umgangs mit Technologien aufzuzeigen. Unser Interesse, aus dem Modell zu schöpfen, liegt in unserem Verständnis von Zugang, einem vielschichtigen Konzept, das sowohl auf der Festlegung technischer Voraussetzungen als auch auf einer Vielzahl von verschränkten Bedingungen beruht, die für die Fähigkeit des Einzelnen zur Nutzung digitaler Technologien entscheidend sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-20892-3_21 995c544af332162c6a2c2d78c0c5196e;de;;;7.3.;;;Klassifikation von Webdiensten mit Bi-LSTM Mit der rasanten Zunahme der Anzahl von Webservices im Internet wird die korrekte und effiziente Klassifizierung von Webservices bei der Entwicklung und Anwendung von Webservices immer wichtiger. Bestehende funktionsbasierte Dienstclustering-Techniken weisen einige Probleme auf, wie etwa die spärliche Dokumentsemantik, unberücksichtigte Wortreihenfolge und Kontextinformationen, so dass die Genauigkeit der Dienstklassifizierung weiter verbessert werden muss. Um dieses Problem anzugehen, nutzt dieses Papier den Aufmerksamkeitsmechanismus, um den lokalen impliziten Zustandsvektor von Bi-LSTM und den globalen LDA-Themenvektor zu kombinieren, und schlägt ein Verfahren zur Klassifizierung von Webdiensten mit auf topischer Aufmerksamkeit basierendem Bi-LSTM vor. Insbesondere verwendet es Bi-LSTM, um die Feature-Repräsentation des Web-Service automatisch zu lernen. Dann verwendet es das Offline-Training, um den Themenvektor des Webdienstdokuments zu erhalten, und führt die Verarbeitung der Aufmerksamkeitsstärkung des Themas für die Webdienstmerkmalsdarstellung durch und erhält die Wichtigkeit oder Gewichtung der verschiedenen Wörter im Webdienstdokument. Schließlich wird die erweiterte Webdienst-Merkmalsdarstellung als Eingabe der neuronalen Netzwerkschicht von Softmax verwendet, um die Klassifizierungsvorhersage des Webdienstes durchzuführen. Die experimentellen Ergebnisse bestätigen die Effizienz und Effektivität der vorgeschlagenen Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30146-0_27 e96818277118b99cf77a6748728edc9d;de;;;7.3.;;;Einstellungen zu Technologie, digitalen Aktivitäten und der Nutzung von Internet-Shopping-Funktionen bei chinesischen und US-amerikanischen College-Studenten Der Zweck dieser Studie bestand darin, zu untersuchen, wie sich die Einstellungen gegenüber Technologie (ATT), der gewohnheitsmäßigen Nutzung digitaler Aktivitäten und der Häufigkeit der Nutzung von Internet-Shopping-Funktionen bei männlichen und weiblichen chinesischen und US-amerikanischen College-Studenten unterscheiden. Die Teilnehmer waren 114 männliche und 92 weibliche Studenten einer Universität des Mittleren Westens der USA und 100 männliche und 93 weibliche Studenten der Lanzhou University in China. Die Ergebnisse zeigten, dass US-amerikanische und chinesische Studenten einige Einstellungen und Verhaltensweisen teilten (positiver ATT, Nutzung von Internet-Shopping-Funktionen), sich jedoch in anderen unterschieden (negativer und ängstlicher/abhängiger ATT, gewohnheitsmäßige Nutzung digitaler Aktivitäten). US-amerikanische (im Vergleich zu chinesischen) Studenten gaben an, alle digitalen Aktivitäten gewohnheitsmäßig zu nutzen. Männer und Frauen unterschieden sich nicht in positiver oder negativer ATT, aber Frauen zeigten eine größere Angst/Abhängigkeit von Technologie als Männer. Frauen gaben an, digitale Aktivitäten, soziale Medien und Smartphones insgesamt häufiger zu nutzen als Männer. Implikationen für chinesische Verbraucher und den Modemarkt werden bereitgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8429-4_4 c5bf538cc6c91a19d3833c7699e3f275;de;;;7.3.;;;Eine Ergänzung zum Erlernen der Kräutermedizin mit einem webbasierten Tool und einem sozialen Netzwerk Mit dem rasanten Wachstum der Pflanzenheilkunde benötigen Apotheker nun Grundkenntnisse dieser Themen für ihre berufliche Praxis. Um den Bedarf zu decken, wird für Pharmaziestudenten eine Reihe von Kursen über Kräutermedizin arrangiert. Aus Zeitgründen ist es für einen Studenten schwer, sich mit Heilkräutern vertraut zu machen. In diesem Whitepaper stellen wir KUIHerbRx vor, ein webbasiertes Ergänzungslerntool zur Kräutermedizin. Der KUIHerbRx ist eine modifizierte Version des Knowledge Unifying Initiator for Herbal Information (KUIHerb), der als Plattform zum Aufbau einer Web-Community zum Sammeln des interkulturellen Kräuterwissens mit dem Konzept einer kollektiven Intelligenz dient. Aufgrund der Vielfalt der Kräuter, der geografischen Verbreitung und ihrer Anwendungen ist die Zusammenarbeit in sozialen Netzwerken für ein verbessertes Lernen wichtig. Es werden drei Arten der Informationserzeugung, d. h. Anfangs-, Stimm- und Nichtstimminformationen, entworfen. KUIHerbRx bietet eine Ergänzung zum Lernen, um Wissen und Fähigkeiten in der Kräutermedizin mit einer wissenschaftlichen Methode zu verbessern. Informationen zu Heilkräutern in mehreren Regionen können unter Studierendengruppen verteilt und ausgetauscht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17407-0_16 29b5f5914e6c53182794a5408b027f18;de;;;7.3.;;;Bildanalyse mit mehreren Attributen zur Klassifizierung von Webdokumenten mit unbeaufsichtigter Technik Das Ziel dieser Forschung ist die Entwicklung eines Systems basierend auf Multi-Attribute-Bildanalyse und einer neuronalen Netzwerk-Selbstorganisations-Feature-Map (SOFM), die die automatisierte Klassifizierung von Bildern oder Icons in Webdokumenten ermöglicht. Vier verschiedene Bildattributsätze werden extrahiert. Das System integriert verschiedene Bildattribute, ohne zu verlangen, dass irgendein bestimmtes Grundelement dominant ist. Das System ist implementiert und die generierten Ergebnisse zeigen aussagekräftige Cluster. Die Leistung des Systems wird mit dem Hierarchical Agglomerative Clustering (HAC)-Algorithmus verglichen. Die Auswertung zeigt, dass bei unserem Ansatz ähnliche Bilder auf dieselbe Region fallen, so dass Bilder unter familiären Beziehungen abgerufen werden können.;-;-;-;https://link.springer.com/chapter/10.1007/11508069_11 7fced3132dda9b3dde0261e1b8521b27;de;;;7.3.;;;Auswirkungen interaktiver und bildstarker Websites Wir untersuchen den Einfluss von Website-Interaktivität in Verbindung mit ihrer aufmerksamkeitserregenden Wirkung auf die Bildverarbeitung und die Generierung von mentalen Bildern. Ergebnisse eines Experiments zeigen, dass der Einsatz von Interaktivität auf Marken-Websites die Aktivität der Bilder der Internetnutzer erhöhen und verschiedene Dimensionen der mentalen Bilder wie Lebendigkeit oder Komplexität unterstützen kann. Darüber hinaus können hochgradig interaktive und bildstarke Websites zu einer positiveren Einstellung zur Website und zur Marke sowie zu stärkeren Verhaltensabsichten führen. Implikationen für Theorie und Praxis der Internetwerbung werden am Ende dieses Artikels diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/3-8350-5702-2_19 656346821286ae4d730ecf26f5e4078f;de;;;7.3.;;;Service-Design-Strategie für das soziale Internet der Dinge in China Chinesen haben innerhalb von 30 Jahren eine schnelle Iteration ihres Lebensstils erlebt. Das soziale Netzwerk und das Internet der Dinge scheinen in ihr Leben einzudringen. Und die Kombination von ihnen wird evolutionärer sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-58697-7_3 136f3bc47adb7494664c3e1ffcba1773;de;;;7.3.;;;Relevanter Begriffsvorschlag basierend auf Pseudo-Relevanz-Feedback aus Web-Kontexten Die meisten Suchmaschinen verlassen sich auf Abfrageprotokolle, um Abfragevorschläge zu geben. Durch das Mining potenziell relevanter Begriffe rund um die Abfrage aus Webressourcen zielen wir darauf ab, die Abfrageformulierung und die Abrufeffektivität ohne Abfrageprotokolle zu verbessern. In diesem Beitrag schlagen wir einen relevanten Ansatz zur Termvorschlagung vor, der auf Pseudorelevanz-Feedback aus Web-Kontexten basiert. Erweiterungsbegriffskandidaten werden extrahiert und nach kontextueller Relevanz gefiltert, die durch gegenseitige Informationen und Web . berechnet wird;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34752-8_39 44bd768a986c162bac0b39f12b4c81dd;de;;;7.3.;;;Bedeutungsfindung durch e-Learning Es wurden verschiedene Ansätze vorgeschlagen, um dem E-Learning mehr pädagogischen Wert zu verleihen. Eine dieser Ansichten schlägt moderne pädagogische Modelle vor, die der Natur der einzigartigen Merkmale der Technologie besser entsprechen. Ein verwandter Ansatz ist die Einbettung moderner Lern- und Instruktionsdesigntheorie in neue Kommunikations- und Interaktionskanäle, die durch Informations- und Kommunikationstechnologien wie das Internet bereitgestellt werden. In dieser Studie wird ein Modell für e-Learning vorgestellt, das anhand einer konkreten Fallstudie zur Lehrerfortbildung zum Lernen mit digitalen Medien illustriert wird. Nach der Vorstellung des Modells beschreiben wir das Design, die Implementierung und die Evaluation eines E-Learning-Programms für Schullehrer, das unser Modell verwendet. Wir beleuchten die Art und Weise, wie Lehrkräfte Bedeutung konstruieren, indem sie Lehren und Lernen reflektieren. Intakte E-Communitys wurden durch Interaktion und Kommunikation unter Verwendung von Internetdiensten entwickelt, um Bedeutungen, Ansichten und Verständnis zu teilen. Auf diese Weise wurde von Lehrern Bedeutung konstruiert, die im schulpädagogischen Alltag verwendet werden sollte.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34731-8_20 5dfecdac45aa5fda5ca514ca3ab076f3;de;;;7.3.;;;Die selbstreferentielle Überzeugung eines Systems: Die Rolle überzeugender Benutzererfahrungen bei der Bindung von Social Web-Benutzern verstehen In diesem Artikel wird erörtert, wie Social Web-Plattformen versuchen, Benutzerinteraktionen zu beeinflussen. Wir erklären diesen Einfluss aus der Perspektive der Persuasion Kontextanalyse und der Bereitstellung überzeugender User Experiences. Darüber hinaus führt der Beitrag das Konzept der selbstreferentiellen Überzeugung ein und erläutert seine Anwendung durch Diskussion und Analyse vorläufiger Ergebnisse einer Umfrage (N=57) zur Nutzung des Social Web. Das Persuasive Systems Design (PSD)-Modell wird verwendet, um die Aspekte des sozialen Einflusses durch Analyse des Überzeugungskontextes und der anschließenden überzeugenden Benutzererfahrungen zu analysieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-20306-5_22 f22eb526915cf646ed694639b61246fb;de;;;7.3.;;;Evaluationsframework für User Preference Research als Webanwendung implementiert Dieser Artikel stellt einen Bewertungsrahmen für die Forschung zu Benutzerpräferenzen vor. Zur Verifizierung dieses Frameworks wurde eine Webanwendung implementiert. Der wechselseitige Einfluss von drei Hauptaspekten der Website - Benutzerfreundlichkeit, Ästhetik und Informationsteil - wird in einem durchgeführten Experiment nachgewiesen. Überraschenderweise wurde die Wahrnehmung von Ästhetik am stärksten von der Qualität zweier verbleibender Faktoren beeinflusst. Die ursprüngliche Hypothese war, dass die Qualität der Ästhetik die Wahrnehmung der Benutzerfreundlichkeit und des Informationsanteils beeinflusst. Der Artikel bietet auch einen parallelen Vergleichsansatz, der das Design innerhalb des Subjekts und die wechselseitige Manipulation von Variablen ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40495-5_54 4490328afdae12dba82d1fe823c46163;de;;;7.3.;;;Visualisierung der Aufmerksamkeit von Webbenutzern für Text mit Auswahl-Heatmaps Webanalysetools liefern nützliche Informationen über die Interaktion von Benutzern mit Websites und insbesondere darüber, was die Aufmerksamkeit der Webbesucher auf Websites auf sich zieht. Die Aufmerksamkeit des Benutzers auf Bereiche von Webseiten kann mit Hilfe von Heatmaps visualisiert werden. In Webanalyse-Heatmaps werden häufig zwei Arten von Aufmerksamkeitsindikatoren verwendet: Sichtbarkeitsdauer von Seitenabschnitten im Darstellungsbereich des Browsers und Mausaktivität auf Bereichen und Elementen von Webseiten. Diese Arbeit stellt eine neue Art von Benutzeraufmerksamkeits-Heatmap vor, die die Häufigkeit von Textauswahlvorgängen auf Websites visualisiert. Die Auswahl ist der erste Schritt beim Kopieren von Text in die Zwischenablage, wird aber auch verwendet, um beim Lesen wichtige Punkte hervorzuheben, ähnlich wie beim Markieren von Wörtern auf einem Notizbuch mit einem Marker. Wie in diesem Papier gezeigt und diskutiert, bieten Auswahl-Heatmaps interessante Perspektiven auf die Aufmerksamkeit der Benutzer auf Absätze, Sätze und Wörter auf Websites, was für die Webanalyse nützlich sein könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-74296-6_42 64a7309e89441855a63ffbabb3dcc526;de;;;7.3.;;;Phänomenologie des digitalen Seins Dieser Beitrag untersucht die Ontologie digitaler Informationen oder die Natur des digitalen Seins. Obwohl ein digitales Wesen kein physisches Ding ist, hat es viele wesentliche Merkmale physischer Dinge wie Substantialität, Erweiterungen und Ding-Ganzheit (via Heidegger). Trotz fehlender materieller Grundlagen können uns digitale Wesen Wahrnehmung oder universelle passive Vorgegebenheit (via Husserl) verschaffen. Dennoch ist ein digitales Wesen nicht gerade ein Ding, denn es gehört nicht zur objektiven Zeit und Raum. Aufgrund seiner perfekten Duplizierbarkeit kann ein digitales Wesen an mehreren Orten gleichzeitig existieren – das heißt, es entzieht sich den üblichen raumzeitlichen Beschränkungen. Mit digitalen Wesen im Internet können wir interkorporale Beziehungen aufbauen. Das World Wide Web eröffnet neue Möglichkeiten des „Mit-einander-sein-können“ und neue Modi des „Mit-anderen-Seins“ (;-;-;-;https://link.springer.com/article/10.1023/A%3A1010763028785 aa8383b761e43d9dce4baa2fab128e04;de;;;7.3.;;;Smartphone-Erschwinglichkeit: Durch Innovation bessere Geschäfte machen Dieses Papier beschreibt eine Reise der Wahrnehmung, Veränderung, Nutzung und zufälligen Entdeckung durch neue Technologien und Lernen. Neue Technologien wie mobile Technologien und „Smartphones“ haben das Potenzial, die Art und Weise zu verändern, wie Führungskräfte kommunizieren, interagieren, lernen und sich verhalten. Die Nutzung von Lernaktivitäten ist eine unverzichtbare Funktion für innovative Unternehmen. Technologie spielt seit Jahrtausenden eine Rolle in menschlichen Angelegenheiten, einschließlich der Wirtschaft – angefangen mit dem Anzünden des ersten Feuers, dem Einritzen von Ideogrammen an die Wände von Höhlen und der Erfindung des ersten runden Artefakts, das schließlich als Rad dienen sollte. In dieser Hinsicht sind mobile Technologien, insbesondere „Smartphones“, die neuesten Entwicklungen in einer langen Reihe von Vorgängern, von denen einige berühmt und einige berüchtigt sind, jedoch gibt es einen qualitativen und quantitativen Unterschied, wo, wie und warum „Smartphones“ “ einen Unterschied im Berufs- und Privatleben der Menschen machen. Wir haben in dieser Studie versucht, empirisch zu dokumentieren, wie sich mobile Technologien und „Smartphones“ auf die Produktivität und Effizienz einer Führungskraft bei der Arbeit auswirken, indem wir eine Reihe von offenen Interviews mit Chief Executive Officers von Unternehmen aus einem breiten Unternehmensbereich durchgeführt haben Sektoren. Unsere Ergebnisse untermauern das Vorhandensein, die Rolle und die Auswirkungen von sogenannten „glücklichen Unfällen“ (Carayannis, Industry & Higher Education 22(6): 1–11,;-;-;-;https://link.springer.com/article/10.1007/s13132-012-0091-x cde5c9658ff54042068892ab20faacb8;de;;;7.3.;;;Web-Versicherung Die meisten Unternehmen, die die Einführung des elektronischen Geschäftsverkehrs (EC) erwägen, müssen einen Paradigmenwechsel durchlaufen. Die Regeln, die normalerweise für geschäftliche Veränderungen gelten, wenn Sie Cyber-Handel betreiben In Bezug auf die Sicherheit muss ein ähnlicher Paradigmenwechsel stattfinden. In EC ist Sicherheit nicht mehr der Beschützer, sondern wurde zum Enabler. Dieser Artikel untersucht, was es braucht, um EC-fähig zu werden und was die wirklichen Sicherheitsherausforderungen sind. Basierend auf diesen Herausforderungen wird die Rolle der Sicherheit in EC analysiert, was zu einer breiteren Sicht namens Web Assurance führt. Web Assurance besteht aus drei Komponenten, nämlich Sicherheit, Privatsphäre und Verbraucherschutz. Sicherheitsmanager in EC-fähigen Organisationen müssen ihre vorhandenen Fähigkeiten und Kenntnisse erweitern, um den Ansturm von EC effektiv zu bekämpfen.;-;-;-;https://link.springer.com/chapter/10.1007/0-306-47007-1_1 e6104b1374803dc925fa85ecb9e9cb14;de;;;7.3.;;;Abfragen planen, um die Aktualität einer Website zu verbessern Das World Wide Web ist ein neues Werbemedium, das Unternehmen nutzen, um ihre Präsenz bei den Verbrauchern zu erhöhen. Sehr große Websites, deren Inhalt aus einer Quelldatenbank stammt, müssen eine Aktualität beibehalten, die Änderungen an den Basisdaten widerspiegelt. Dieses Problem ist besonders wichtig für Websites, die sich schnell ändernde Informationen wie Börseninformationen und Produktinformationen präsentieren. In diesem Artikel definieren und untersuchen wir formal die Aktualität einer Website, die durch einen geplanten Satz von Abfragen aktualisiert wird, die neue Daten aus den Datenbanken abrufen. Wir schlagen mehrere Online-Planungsalgorithmen vor und vergleichen die Leistung der Algorithmen auf der Frische-Metrik. Wir zeigen, dass die Maximierung der Frische einer Website ein NP-schweres Problem ist und dass der Scheduling-Algorithmus MiEF besser funktioniert als die anderen vorgeschlagenen Algorithmen. Unsere Schlussfolgerung wird durch empirische Ergebnisse bestätigt.;-;-;-;https://link.springer.com/article/10.1023/B%3AWWWJ.0000047378.69751.72 f86778c3bc8ac823589a901f8087d513;de;;;7.3.;;;Abstraktionsebenen in Webdokumentformaten Der Beitrag gibt einen Überblick über aktuelle und aufkommende Dokumentformate im Web und diskutiert die Abstraktionsebene der verschiedenen Formate. Als Messlatte für Webformate wird die „Leiter der Abstraktion“ vorgestellt und verschiedene Ebenen von der Präsentation (ganz unten) bis zur Semantik (ganz oben) beschrieben. Es wird betont, wie wichtig es ist, bestimmte Abstraktionsebenen zu erreichen, um geräteunabhängige Formate, universelle Zugänglichkeit und skalierbare Präsentationen zu unterstützen. Die in dem Papier diskutierten Dokumentformate sind: HTML, PDF, GIF, PNG, MathML und XSL-FO. Auch die Wirkung von Stil- und Transformationssprachen (nämlich CSS und XSLT) werden beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39916-2_10 9ff76b518f839bca2591357490b2f69b;de;;;7.3.;;;Darstellung nicht klassischer Konzepte in formalen Ontologien: Prototypen und Exemplare Konzeptrepräsentation ist immer noch ein offenes Problem im Bereich der Ontologietechnik und allgemeiner der Wissensrepräsentation. Ungelöst bleibt insbesondere das Problem der Darstellung nicht-klassischer Begriffe, d. In diesem Kapitel überprüfen wir empirische Beweise aus der kognitiven Psychologie, die nahelegen, dass die Konzeptrepräsentation kein einheitliches Phänomen ist. Insbesondere scheint es, dass Menschen sowohl prototypische als auch exemplarbasierte Darstellungen verwenden, um nicht-klassische Konzepte darzustellen. Wir schlagen vor, dass ein ähnlicher, hybrider prototyp-exemplarbasierter Ansatz auch im Bereich der formalen Ontologietechnologie nützlich sein könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31546-6_10 2f00a0ebb7317566db3de070c0877634;de;;;7.3.;;;Dateizuweisungssteuerung für ein Websystem zur Kategorisierung von Inhalten Dieses Papier zeigt den Einfluss der steuernden Dateizuordnung auf die Dateiübertragungszeit für ein webbasiertes Inhaltskategorisierungssystem. Unser vorgeschlagener Algorithmus schätzt Inhaltskategorien basierend auf den Begriffen und den bereits hinzugefügten Inhaltskategorien. Unser Algorithmus verwendet jedoch eine große Tabelle, die aus den Bewertungen besteht, die die Beziehung zwischen einem Begriff und einer Kategorie darstellen. Um der großen Tabellengröße und der längeren Rechenzeit Rechnung zu tragen, haben wir ein verteiltes Websystem vorgeschlagen, das mehrere Rechenmaschinen verwendet. Dieses Websystem führt Präprozessoren auf einem Webbrowser und Rechenmaschinen aus. In diesem Websystem wird die Dateiübertragungszeit zu einem Problem, wenn ein Benutzer größere Dateien sendet. In diesem Papier schlagen wir eine Möglichkeit vor, das Problem der längeren Dateiübertragungszeit durch Steuerung der Dateizuweisung zu lösen. Die großen Dateien weisen wir dem Webbrowser-Prozess zu, die kleineren Dateien den Rechenmaschinen über das Netzwerk.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-59540-4_5 9e1a5040fd6e51c5fbe04072e6f2b2e5;de;;;7.3.;;;Servicestrategien in Tandemkonfigurationen mit zwei Servern – Modellierung und Untersuchung In diesem Dokument werden zwei unterschiedliche Servicestrategien in einer Internet-Servicestation, die aus zwei getrennten Servern (Tandem) besteht, untersucht. Zu Beginn wird das untersuchte Internet-Tandem zunächst als offenes Drei-Stationen-Warteschlangennetz mit Blockierung unter der Annahme formuliert, dass vor jedem Server Puffer mit endlicher Kapazität vorhanden sind. Für jede Internet-Stationskonfiguration werden die zweidimensionalen Zustandsgraphen konstruiert und ein Satz von stationären Gleichungen erstellt. Diese Gleichungen ermöglichen die Berechnung der Zustandswahrscheinlichkeitsvektoren für jede Tandemkonfiguration unter Verwendung von Gleichungslösungstechniken. Viele nützliche Leistungsmaße bezüglich der untersuchten Tandemkonfigurationen können aus den stationären Wahrscheinlichkeitsvektoren extrahiert werden. Der numerische Teil dieses Papiers enthält Beispiele für die Untersuchung verschiedener Tandemkonfigurationen, in denen die Ergebnisse der Berechnung der Hauptmaße für Effektivität und Dienstgüteparameter (QoS) präsentiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-59105-6_36 14d0deff2b91694c90bc724531dd8f91;de;;;7.3.;;;Neue Methode: Abbildung von 802.11e in MPLS-Domänen, Konzeption und Experiment Das Mapping zwischen zwei heterogenen Netzwerken, Multi Protocol Label Switching (MPLS) und IEEE 802.11e ist die Wahl der zukünftigen Technologie, da es die Fähigkeit besitzt, Traffic Engineering durchzuführen und die Entsprechung zwischen LSP (Label Switch Path) und AC (Access Category) zu erstellen. In diesem Papier wird die Zuordnung zwischen der IEEE 802.11 MPLS-Integration zum Erreichen der Dienstgüte in MPLS-Netzwerken erörtert. MPLS und 802.11e ist ein sehr nützlicher Ansatz für das heutige Internet, um die Servicequalität durchgängig sicherzustellen. Es spricht über verschiedene Ansätze zur Abbildung von 802.11e Access Categories (AC) auf Label Switched Path (LSP) und deren Vorteile. Anschließend wird das Konzept von gekapselten LSPs eingeführt, um zukünftige QoS zu erreichen, was weitere Studien erfordert, um seine Praktikabilität zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22410-2_41 fc7e4cb9a96735dffd122fba01a30a81;de;;;7.3.;;;Auf Twitter detailliert werden: Tweets von einer Konferenz und ihr begrenzter Nutzen für Nicht-Teilnehmer Die Verwendung von Microblogging-Anwendungen (insbesondere Twitter) wird in den unterschiedlichsten Umgebungen immer häufiger verwendet. Heute können aktive Konferenzteilnehmer Nachrichten auf Microblogging-Plattformen posten, um Informationen schnell und in Echtzeit auszutauschen. Neuere Forschungsarbeiten basierten auf quantitativen Analysen hinsichtlich der Anzahl von Tweets bzw. aktiven Twitter-Nutzern innerhalb eines bestimmten Zeitraums. In diesem Beitrag untersuchen wir den Inhalt der Beiträge und wollen analysieren, wie nützlich Beiträge für das „hörende“ Internet-Auditorium sind. Es zeigt sich, dass nur wenige Microblogs für Nicht-Teilnehmer der konkreten Veranstaltung interessant sind und eine sinnvolle Nutzung einer Microblogging-Anwendung mehr Sorgfalt erfordert als bisher angenommen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15378-5_10 c33ce6edb3da45a8556abe880674c52d;de;;;7.3.;;;Identifizieren paralleler Webdokumente nach Dateinamenname Parallele Webdokumente sind die entscheidende lexikalische Grundlage für den Aufbau robuster mehrsprachiger webbasierter linguistischer Wissensressourcen. Um parallele Webdokumente effizient und effektiv zu identifizieren, entwickelt dieser Artikel einen neuen automatischen Ansatz basierend auf Dateinamen unter Verwendung der im Web häufig verwendeten parallelen Dokumentbenennungspraxis. Der Ansatz umfasst drei Verfahren zum Identifizieren eines gemeinsamen Dateideskriptors, eines Sprachkennzeichens bzw. eines Sprachkennzeichenpaares unter allen untersuchten Dateinamen. Um zu untersuchen, wie diese drei Verfahren verwendet werden können, um das beste Ergebnis zu erzielen, werden fünf Methoden entwickelt, indem diese Verfahren auf unterschiedliche Weise integriert werden. Eine experimentelle Studie auf einer Website der Regierung von Hongkong wird durchgeführt, um die Leistung dieser fünf Methoden in Bezug auf Erinnerung und Präzision zu bewerten. Das experimentelle Ergebnis zeigt, dass die Methode, die die Verfahren des File-Descriptor-Alignments und der Language Flag-Paar-Alignment kombiniert, andere Methoden mit einer Präzisionsrate von 95,3 % und einer Rückrufrate von 91,0 % übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24655-8_14 2121b87c2387e7b75d3a1d2f27bd957a;de;;;7.3.;;;Ein Ansatz zur Klassifizierung von Webdokumenten basierend auf dem Konzept der Fuzzy-Assoziation In diesem Beitrag wird ein Verfahren zum automatischen Identifizieren von Themen für Webdokumente über eine Klassifizierungstechnik vorgeschlagen. Webdokumente haben in der Regel unvorhersehbare Eigenschaften, d. h. Unterschiede in Länge, Qualität und Autorenschaft. Motiviert durch diese Fuzzy-Eigenschaften verwenden wir das Fuzzy-Assoziationskonzept, um die Dokumente in einige vordefinierte Kategorien oder Themen zu klassifizieren. Die experimentellen Ergebnisse zeigen, dass unser Ansatz im Vergleich zum Vektorraummodell eine höhere Klassifikationsgenauigkeit liefert.;-;-;-;https://link.springer.com/chapter/10.1007/11539506_50 7935ca35896bc12d9351540869b05782;de;;;7.3.;;;Semantische Zugriffskontrolle für mobile Unternehmensgeräte Viele der mobilen Geschäftsanwendungen werden in verschiedenen Domänen als Business-to-Consumer (B2C) und Business-to-Business (B2B) ausgeführt. Computerumgebungen mobiler drahtloser Geräte, die Einzelpersonen oder Organisationen gehören, sind vollständig zwischen Peers und Partnern verteilt. Das Entwerfen anwendbarer Zugangskontrollmechanismen in dieser Umgebung ist vom Standpunkt herkömmlicher Sicherheitsmaßnahmen aus schwierig. Semantische Webtechnologien bieten geeignete Zugriffsmöglichkeiten auf die Unternehmensressourcen, indem sie den zugehörigen Kontext in Benutzergeräten und Servern im Rahmen der Vertrauensphilosophie verwenden. Semantic Web Technologie kombiniert Nutzeranfragen und Servicebeschreibungen für ein effizientes Matchmaking. In diesem Beitrag werden verschiedene Zugangskontrollmechanismen untersucht und semantisch analysiert. Der Zweck dieses Papiers besteht darin, einen sichereren Zugriffskontrollmechanismus für mobile Unternehmensgeräte vorzustellen. Dieses Modell kann als zusätzliches Sicherheitsframework verwendet werden, das Zugriffskontrollmechanismen in den Organisationen durchsetzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13136-3_20 320ec3f8cf7e308390621cde3ff2261d;de;;;7.3.;;;Ein Sicherheitsframework für kartenbasierte Systeme Der rechtliche Rahmen des zum 1. Oktober 2000 in Kraft getretenen Signaturgesetzes hat das Interesse für den digital signaturbasierten Zahlungsverkehr über das Internet angeheizt. Der Großteil der bisherigen Formalisierung und Sicherheitsanalyse zu solchen sicheren Zahlungen konzentrierte sich auf die Schaffung neuer sicherer;-;-;-;https://link.springer.com/chapter/10.1007/3-540-46088-8_19 b6c8b7a2baca59e1f33d04e8904b8ee0;de;;;7.3.;;;Strukturierte Datenextraktion: Wrapper-Generierung Die Extraktion von Webinformationen ist das Problem des Extrahierens von Zielinformationselementen aus Webseiten. Es gibt zwei allgemeine Probleme: das Extrahieren von Informationen aus natürlichsprachlichem Text und das Extrahieren strukturierter Daten aus Webseiten. Dieses Kapitel konzentriert sich auf das Extrahieren strukturierter Daten. Ein Programm zum Extrahieren solcher Daten wird normalerweise als Wrapper bezeichnet. Das Extrahieren von Informationen aus Text wird hauptsächlich in der Gemeinschaft der Verarbeitung natürlicher Sprache untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19460-3_9 8ea3fff0eb96a542448ebe1ebf20ee3b;de;;;7.3.;;;Frauen umwerben @ E-Com Dieses Papier zeichnet die Entstehung und Förderung einer kommerziellen Internetumgebung für Frauen nach, die durch den Eintritt großer Unternehmensinteressen angetrieben wird. Obwohl es nicht überraschend ist, dass Frauen als Markt von kommerziellen Interessen angegriffen würden, bietet die Spannung zwischen E-Commerce-Anwendungen, die auf Frauen als Verbraucher ausgerichtet sind, und der Nutzung des Internets als Ort für bürgerorientierte Aktivitäten ein nützliches Beispiel für ein wichtiges Problem, das Internet-Gesichter, während der digitale Kapitalismus unbeachtet weitergeht.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35509-2_26 dab83fe9c6db3694aa18eb381efe780d;de;;;7.3.;;;MPEG-7-basierte Musik-Metadaten-Erweiterungen für den traditionellen griechischen Musikabruf Das Papier präsentiert Definitionserweiterungen für MPEG-7-Metadaten, hauptsächlich in Bezug auf Audiodeskriptoren, die eingeführt wurden, um traditionelle griechische Musikdatenmerkmale effizient zu beschreiben, um einen effizienten Musikabruf zu ermöglichen. Eine Reihe fortgeschrittener inhaltsbasierter Abrufszenarien wurde definiert, wie Abfrage nach Musikrhythmus, Abfrage nach Beispiel und Summen basierend auf neu eingeführten Musikmerkmalen, Abfrage nach traditionellem griechischem Musikgenre, chromabasierte Abfrage. MPEG-7 DDL-Erweiterungen und geeignete traditionelle griechische Musikgenre-Wörterbucheinträge werden als notwendig erachtet, um den Besonderheiten der fraglichen Musikdaten Rechnung zu tragen und um Effizienz beim Abrufen von Musikinformationen zu erreichen. Die berichteten Arbeiten wurden im Rahmen eines F&E-Projekts durchgeführt, das auf ein fortschrittliches Musikportal abzielte, das eine Reihe von inhaltsbasierten Musikabrufdiensten anbietet, nämlich POLYMNIA [12].;-;-;-;https://link.springer.com/chapter/10.1007/11848035_57 e85e49cb4083336a430a8ca475442cba;de;;;7.3.;;;Webbasiertes IP-Wiederverwendungs-CAD-System, Flowrian IP-Wiederverwendungsdesign in einer gebrauchsfertigen Plattform wird zu einer sehr beliebten Designmethode für die SoC-Entwicklung. IP-Sharing (Wissensaustausch) ist sehr wichtig, um die Designeffizienz zu maximieren. Daher wird seit langem eine IP-Sharing- und -Wiederverwendungsumgebung verlangt. Dieser Artikel demonstriert ein webbasiertes CAD-System namens Flowrian, das ursprünglich für IP-Sharing und Wiederverwendungsdesign entwickelt wurde. Die Hochgeschwindigkeits-Internet-Infrastruktur in Südkorea ist die beste der Welt, um internetbasierte Anwendungen selbst in spezialisierten High-Tech-Bereichen wie IP-basiertem SOC-Design einzuführen. Flowrian besteht aus einem Client-PC und einem Remote-Server-Computer, die über das Internet miteinander kommunizieren. Der Benutzer auf der Clientseite kann SOC entwerfen und überprüfen, indem er die auf der Seite des Remoteservers installierten IPs und Tools freigibt. Flowrian muss eine sehr praktikable Lösung sein, um die Korrektheit von gebrauchsfertigen IPs zu überprüfen, die im IP-DB-Center installiert sind, wie zum Beispiel Hoseo Engineering SaaS Center.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17641-8_7 208cac8a4b7ab8d2635cc87486c6df4a;de;;;7.3.;;;Offene Werke, offene Kulturen und offene Lernsysteme Die Idee der Offenheit als politische, soziale und psychologische Metapher ist seit der Zeit vor dem Aufblühen der modernen Demokratie, der wissenschaftlichen Kommunikation und dem Aufstieg der Wissensökonomie Teil einer Reihe von dauerhaften Erzählungen im Westen. Hauptsächlich handelte es sich bei diesen Erzählungen um das Wesen der Freiheit, den Vorrang des Rechts auf Selbstdarstellung, die Konstitution des öffentlichen Raums oder des Gemeinguts und die enge Verbindung zwischen Offenheit und Kreativität. Die philosophische Kernidee betrifft die Offenheit für Erfahrung und Interpretation, so dass ein Werk, eine Sprache und eine Kultur, die als semiotisches System betrachtet werden, vielfältige Bedeutungen und Interpretationen mit einem Akzent auf der Reaktion, Vorstellungskraft und Aktivität des Lesers, Lernenden oder Benutzers ermöglichen. Das klassische Werk, das diesen Leitgedanken philosophisch entwickelt, sind die Philosophischen Untersuchungen von Ludwig Wittgenstein (1953), der eine enge Beziehung zwischen Sprache als einer Reihe von offenen, sich überlagernden Sprachaktivitäten oder Diskursen herstellt, die er „Sprachspiele“ und „Lebensform“ nennt ( oder Kultur). Wittgenstein von den Investigations zeigte, dass es keine logische Syntax oder metalogische Sprache gab, die als geschlossenes Regelsystem betrachtet wurde, das als harte und schnelle Grammatik für jede natürliche Sprache fungiert. Die Konzeption der „Sprachspiele“ scheint die Möglichkeit eines logischen Kalküls für die Sprache zu leugnen, so dass es keine notwendigen und hinreichenden Bedingungen (oder logischen Regeln) für die Verwendung eines Wortes gibt. In Wittgensteins Darstellung der Regelfolge sehen wir eine Sicht der Sprach- und Textoffenheit, die multiple Deutungen und die aktive Konstruktion von Bedeutungen zulässt. Diese Betonung der Offenheit der Sprache, des Textes und ja der „Offenheit für das Andere“ als Aspekt der Subjektivität, die auf den Werten der Vielheit und des Pluralismus beruht, ist zum Teil eine Reaktion Wittgensteins gegen das logisch-empiristische Verständnis von logisch-linguistische Regeln, die angeblich nur reine und einzelne Bedeutungen zulassen, die eindeutig mit Wörtern korreliert sind, die die Welt abbilden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-6091-728-8_5 f91cd6c6ae491c49cc62697948fcc584;de;;;7.3.;;;Kontextbewusste, ontologiebasierte Service-Erkennung Die Diensterkennung ist ein Prozess zum Auffinden oder Auffinden eines oder mehrerer Dokumente, die einen bestimmten Dienst beschreiben. Die meisten der aktuellen Service-Discovery-Ansätze führen einen syntaktischen Abgleich durch, d. h. sie rufen Servicebeschreibungen ab, die bestimmte Schlüsselwörter aus der Abfrage des Benutzers enthalten. Dies führt häufig zu schlechten Erkennungsergebnissen, da die Schlüsselwörter in der Abfrage semantisch ähnlich, aber syntaktisch unterschiedlich oder syntaktisch ähnlich, aber semantisch unterschiedlich von den Begriffen in einer Dienstbeschreibung sein können. Ein weiterer Nachteil der bestehenden Service-Discovery-Mechanismen besteht darin, dass der Query-Service-Matching-Score nur unter Berücksichtigung der Schlüsselwörter aus der Benutzeranfrage und der Begriffe in den Servicebeschreibungen berechnet wird. Somit wird ungeachtet des Kontexts des Dienstbenutzers und des Kontexts der Dienstanbieter dieselbe Ergebnisliste als Antwort auf eine bestimmte Abfrage zurückgegeben. In diesem Beitrag wird ein neuartiger Ansatz zur Service-Erkennung vorgestellt, der Ontologien verwendet, um die Semantik der Benutzeranfrage, der Dienste und der Kontextinformationen zu erfassen, die im Matching-Prozess als relevant erachtet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30473-9_7 e8d36f72c1d3d7a2f7cd3a960bfe9e2e;de;;;7.3.;;;Industrial Connectivity und Industrial Analytics, Kernkomponenten der Fabrik der Zukunft Der folgende Aufsatz gibt einen Überblick über das Thema Industrie 4.0 und intelligente technische Systeme in der Produktion. Es beginnt mit der Motivation, Industrie 4.0 zu verwirklichen und einzusetzen – die Herausforderungen für produzierende Unternehmen. Darauf aufbauend werden die wesentlichen Aspekte von Industrie 4.0 und intelligenten technischen Systemen beschrieben. Der Aufsatz schließt mit konkreten Umsetzungsansätzen sowie einigen Praxisbeispielen von der Infrastruktur für die Digitalisierung bis hin zur konsequenten Nutzung der generierten Daten zur Optimierung der Produktion.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-54904-9_15 36218a9c98a64213707bc5eae3da2d76;de;;;7.3.;;;Barrierefreiheit im Internet in Afrika: Eine Studie über drei afrikanische Domänen Als die am häufigsten verwendete Methode zur Verbreitung von Informationen, insbesondere für öffentliche Dienste, ist es von größter Bedeutung, dass das Web zugänglich gemacht wird, damit alle seine Benutzer auf den Inhalt seiner Seiten zugreifen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40483-2_23 b4fbfc19c10ab7c954071bf835b38f17;de;;;7.3.;;;Modellgetriebene Methodik zum Erstellen von QoS-optimierten Webservice-Kompositionen Mit zunehmender Anzahl verfügbarer Webservices wächst die Nachfrage, komplexe Geschäftsprozesse durch Kombination und Wiederverwendung verfügbarer grundlegender Webservices zu realisieren. Für jeden der benötigten grundlegenden Webservices können viele Kandidatenservices von verschiedenen Anbietern und mit unterschiedlichen Quality of Service (QoS)-Werten verfügbar sein. Dieses Dokument schlägt eine modellgesteuerte Methodik zum Erstellen neuer Webservice-Kompositionen vor, die QoS-optimiert sind. Wir untersuchen, ob UML für die Modellierung der QoS-Aspekte geeignet ist und wir erklären, wie Transformationen verwendet werden können, um die meisten Teile der Methodik zu automatisieren. Einige dieser Transformationen sind bereits in früheren Arbeiten implementiert.;-;-;-;https://link.springer.com/chapter/10.1007/11498094_7 86336e17a3e628cba6d16db6745d1475;de;;;7.3.;;;Erkennen und Durchsuchen des Systems nach Ereignissen in Internet-Blog-Daten mit dem Cluster-Mining-Algorithmus Die Popularität des Internets wächst jeden Tag mit einem exponentiellen Wachstum der Informationen, die darüber veröffentlicht werden. Neben statischen Inhalten wachsen auch dynamische Inhalte im Web dank Blogs, News-Foren und dergleichen immer schneller. Die Benutzer solcher Blogs und Foren schreiben über ihr Privatleben, ihr Berufsleben und Ereignisse in der realen Welt wie ein Cricketspiel, Wahlen, eine Produktveröffentlichung oder Katastrophen. Die Anzahl der zu einer Veranstaltung veröffentlichten Blogeinträge ist proportional zu ihrer Popularität. Auf dieser Grundlage haben wir ein System namens EventDS (Event Detection and Searching) entwickelt, das wichtige Ereignisse durch die Analyse von Blogs mithilfe eines neuartigen Clustering-Algorithmus namens PDDPHAC erkennt. Wir schlagen auch eine neue Darstellung für Ereignisse vor: Jedes Ereignis wird als Themenbaum dargestellt, in dem Unterthemen als Kinder ihrer Superthemen behandelt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27443-5_10 2f3a506f525724122fdf54ee3303204d;de;;;7.3.;;;Anwendungen der dynamischen Bereitstellung von Diensten in der industriellen Automatisierung Die serviceorientierte Architektur (SOA) wird zu einem De-facto-Paradigma für die Geschäfts- und Unternehmensintegration. SOA dehnt sich in mehrere Anwendungsdomänen aus und sieht eine einheitliche Lösung vor, die für alle verschiedenen Schichten einer Unternehmensinfrastruktur geeignet ist. Die Anwendung von SOA basierend auf offenen Webstandards kann die Interoperabilität und Offenheit dieser Geräte erheblich verbessern. Durch die Einbettung eines dynamischen Bereitstellungsdienstes selbst in kleine Feldgeräte wäre es entweder möglich, Maschinenbauern die Möglichkeit zu geben, integrierte Dienste zu platzieren, und dennoch dem Integrator zu ermöglichen, die Dienste, die am besten zu seiner aktuellen Anwendung passen, on-the-run bereitzustellen. Dieser Ansatz ermöglicht es dem Entwickler, seine eigene bevorzugte Entwicklungssprache beizubehalten, aber dennoch eine SOA-kompatible Anwendung bereitzustellen. Ein dynamischer Bereitstellungsdienst ist als grundlegendes Framework zur Unterstützung komplexerer Anwendungen vorgesehen, wodurch Verzögerungen bei der Bereitstellung reduziert und gleichzeitig die allgemeine Systemagilität erhöht wird. Als Anwendungsszenario wurde ein dynamischer Bereitstellungsdienst über DPWS- und WS-Management-Spezifikationen implementiert, der das Entwerfen und Programmieren einer Automatisierungsanwendung unter Verwendung von IEC61131-Sprachen und die Bereitstellung dieser Komponenten als Webdienste in Geräten ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11628-5_16 ad5fd72eabc6247264905d63ab2c4231;de;;;7.3.;;;Kommunikation – die Emanzipation des Kleinunternehmens Viele neue Dienste wurden eingeführt, um den Menschen bei der Kommunikation zu helfen. Im geschäftlichen Bereich sind große Unternehmen mit neuen Dienstleistungen gut bedient. Kleine und mittlere Unternehmen (KMU) haben jedoch gelitten, da anpassbare Dienste zu kostengünstigen Preisen nicht verfügbar waren. Erst seit kurzem kann dieses Marktsegment durch neue Technologien unterstützt werden. In diesem Papier werden die spezifischen Anforderungen des KMU-Sektors untersucht und Vorschläge zur Bewältigung dieser Anforderungen diskutiert. Eine gemeinsame Plattformarchitektur zur Bereitstellung der Dienste für den KMU-Markt wird im Detail betrachtet.;-;-;-;https://link.springer.com/article/10.1007/s10550-006-0103-0 d16846ba3fde77dc6cee292ee766859e;de;;;7.3.;;;Die digitale Kluft „Ohr“ und „Auge“ In diesem Whitepaper geht es darum, mithilfe von Technologie Menschen zu helfen, die ihr Wissen mündlich teilen. Ziel ist es, die sozialen und technischen Bedürfnisse dieser Präferenz zu würdigen, um die Kluft zwischen diesen Menschen und denen zu verringern, die ihren Lebensunterhalt mit dem schriftlichen Wissensaustausch verdienen. Schreiben ist weder die bevorzugte Methode des Wissensaustauschs für die Mehrheit der Völker auf der Erde, noch ist es für die meisten Probleme geeignet. Eine Mischung aus Alphabetisierung und Mündlichkeit wird als ideal angesehen, so dass ein Versäumnis, eine billige und relevante synchrone und asynchrone mündliche Wissensaustauschtechnologie zu entwickeln, die Bedeutung der Mündlichkeit für die soziale und wirtschaftliche Entwicklung sowohl der Industrie- als auch der Entwicklungsländer herunterspielen kann. In diesem Beitrag wird argumentiert, dass IS-Designer, die an globaler Vielfalt, Gerechtigkeit, Innovation und wirtschaftlicher Entwicklung durch Kommunikationstechnologie interessiert sind, mehr Wert auf Mündlichkeit legen müssen. Der Unterschied zwischen mündlichem und schriftlichem Wissensaustausch wird diskutiert, um die Notwendigkeit sowohl synchroner als auch asynchroner Kommunikationstechnologien zu erklären. Eine kleine Studie zum Vergleich von asynchroner mündlicher und schriftlicher Kommunikation wird vorgestellt sowie ein Versuch, ein internetbasiertes mündliches Konferenzsystem zu entwickeln, um die Gemeinschaften der Aborigines zu verbinden. Es wurde festgestellt, dass ein Bedarf an der Entwicklung kostengünstiger gemeinschaftsbasierter Konferenzeinrichtungen und an der Verbesserung der asynchronen mündlichen Kommunikationstechnologien bestand.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35695-2_26 1fedd3637bd6f96d3aedea85aa7582ca;de;;;7.3.;;;CSCW in Design im Semantic Web Computer-Supported Cooperative Work (CSCW) in Design erforscht das Potenzial von Computertechnologien, um kooperatives Design zu unterstützen. Es erfordert effizientere Kommunikationstechnologien und die Wiederverwendung von Wissen im Designprozess. Dieser Artikel befasst sich mit CSCW in Design im Semantic Web und zeigt, wie die Semantic Web-Technologien den aktuellen Designprozess verbessern können. Es beschreibt den Einsatz von Semantic Web-Technologien, um Designwissen in einer einheitlichen und formalen Form darzustellen, die sowohl für Menschen als auch für Maschinen verständlich ist, und zeigt, wie dadurch alle Arten von Kommunikationsprozessen im kooperativen Design verbessert werden. Wir untersuchen den großen Vorteil des Teilens und Wiederverwendens von Designwissen im Semantic Web. Dies ist im Designprozess sehr hilfreich und kann die derzeitige Art des Designs vollständig verändern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24680-0_119 499f3b22afa86824e7807efe7ad86309;de;;;7.3.;;;: Eine integrierte und interaktive Datenexplorationsumgebung für das Ontologie-Design Viele Communities müssen Daten organisieren und strukturieren, um ihre Nutzung und gemeinsame Nutzung zu verbessern. Viel Forschung hat sich auf dieses Problem konzentriert. Viele Lösungen basieren auf einer terminologischen und ontologischen Ressource (TOR), die das Domänenwissen für eine bestimmte Anwendung darstellt. TORs werden jedoch oft ohne Berücksichtigung heterogener Daten aus bestimmten Ressourcen entworfen. Im biomedizinischen Bereich können diese Quellen beispielsweise medizinische Berichte, bibliographische Ressourcen oder biologische Daten sein, die aus GOA, Gene Ontology oder KEGG extrahiert wurden. Dieses Papier stellt eine integrierte visuelle Umgebung für das Wissens-Engineering vor. Es integriert heterogene Daten aus Domänendatenbanken. Relevante Konzepte und Relationen werden so aus Datenressourcen durch mehrere Analyse- und Aufbereitungsverfahren extrahiert. Der resultierende Ontologie-Embryo wird durch eine benutzerfreundliche adaptive Schnittstelle visualisiert, die eine Wissenslandkarte anzeigt. Die in dieser Arbeit behandelten Experimente und Auswertungen betreffen biologische Daten.;-;-;-;https://link.springer.com/chapter/10.1007/11891451_24 80f34fca16a360a79aeac641841f280c;de;;;7.3.;;;Verhandeln auf einem Internet-Agentenbasierten Markt: Verhaltens- vs. Optimierungsagenten In diesem Papier analysieren wir einen Internet-Agenten-basierten Markt, in dem nicht kooperative Agenten, die Verhaltensregeln anwenden, den Preis eines bestimmten Produkts auf bilaterale und sequentielle Weise verhandeln. In diesem Setting untersuchen wir den optimalen Entscheidungsprozess eines in den Markt eintretenden Einkäufers. Unser Ansatz basiert auf;-;-;-;https://link.springer.com/article/10.1023/A%3A1011561502913 9f67f6417f19d1c685036d81bddb9d40;de;;;7.3.;;;Ein Ansatz zur gegenseitigen Integration des Web of Things mit Geschäftsprozessen Die Vision einer Vielzahl heterogener, vernetzter Geräte, die mit Teilen ihrer physischen Umgebung interagieren, das sogenannte Internet der Dinge (IoT), hat in den letzten Jahren an Dynamik gewonnen. Für traditionelle Wirtschaftsinformationssysteme führt die Integration des IoT zur Entstehung neuer wertschöpfender Geschäftsprozesse, die seine repräsentativen Geräte wie RFID, Sensoren und Aktoren als völlig neue Ressourcen nutzen. Ein vielversprechender Ansatz im IoT-Bereich ist eine praxisnahe Serviceintegrationsmethode basierend auf den Prinzipien des Representational State Transfer (REST), die von der Initiative Web of Things (WoT) vorangetrieben wird. Die Verbindung klassischer Enterprise Resource Planning (ERP)-Systeme, die üblicherweise auf serviceorientierten Architekturen mit schweren Diensten basieren, und dem ressourcenorientierten WoT mit RESTful-Diensten für seine begrenzten Geräte ist immer noch ein komplexes Problem auf beiden Seiten. In diesem Papier schlagen wir einen bidirektionalen Integrationsansatz aktueller Business Process Management (BPM)-basierter ERP-Systeme und des WoT vor, um eine Grundlage für die Verbindung und Analyse von Legacy-Systemen sowie zukünftigen Internetanwendungen zu schaffen. Anhand eines dreistufigen BPM-Lebenszyklus untersuchen wir, wie das Prozessmetamodell des Industriestandards Business Process Model and Notation (BPMN) WoT-spezifische Komponenten abdecken kann. Umgekehrt untersuchen wir, wie vorhandene und nützliche Geschäftsprozessinformationen nahtlos in das WoT unter Berücksichtigung seiner wesentlichen Architektur und unter Anwendung eines komponentenbasierten Ansatzes integriert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41638-5_3 58126ce7c8e4d55f9d7e8dc74de6f194;de;;;7.3.;;;Adaptive Überwachung mit dynamischer Differenzverfolgungs-basierter Diagnose Die Gewährleistung einer hohen Verfügbarkeit, angemessenen Leistung und eines ordnungsgemäßen Betriebs von Unternehmenssoftwaresystemen erfordert eine kontinuierliche Überwachung. Heutzutage arbeiten die meisten Systeme mit minimaler Überwachung, die normalerweise auf Service Level Objectives (SLOs) basiert. Eine detaillierte metrikbasierte Überwachung ist in der Produktion oft zu kostspielig, während die Rückverfolgung zu teuer ist. Die Konfiguration der Überwachung beim Auftreten von Problemen ist ein manueller Prozess.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87353-2_13 879f187e9e8b2a2c0dd3cc937070a60d;de;;;7.3.;;;Mehrwert von Eye Tracking in Usability-Studien: Experten und Nicht-Experten Teilnehmer Dieser Artikel untersucht den Wert von Eye-Tracking bei der Bewertung der Benutzerfreundlichkeit eines Lernmanagementsystems an einer offenen Fernuniversität, an der die Computer- und Webkenntnisse der Benutzer erheblich variieren. Eye-Tracking nutzt die Augenbewegungen der Benutzer während der Ausführung einer Aufgabe, um Informationen über die Art, Reihenfolge und den Zeitpunkt der stattgefundenen kognitiven Operationen zu liefern. Diese Informationen ergänzen, ersetzen jedoch nicht die üblichen Usability-Tests mit Beobachtungen. Dies wirft die Frage auf, wann der Mehrwert des Eyetrackings die zusätzlichen Kosten und Ressourcen rechtfertigt. Vorhandene Untersuchungen haben deutliche Unterschiede in der Benutzerfreundlichkeit gezeigt, die Experten und Nicht-Experten auf demselben System erfahren. Das Ziel dieses Papiers ist es, noch einen Schritt weiter zu gehen und die Art und Schwere der Usability-Probleme von Laien zu beleuchten. Usability-Tests mit Eye-Tracking sind eine ressourcenintensive Methode, aber unsere Ergebnisse deuten darauf hin, dass Eye-Tracking prägnante, zusammengefasste Beweise für Usability-Probleme liefert, die die Kosten beim Testen spezieller Gruppen wie z. Der Beitrag dieses Papiers besteht darin, den Mehrwert von Eyetracking als Usability-Evaluierungsmethode in der Arbeit mit Web-Laiennutzern hervorzuheben. Darüber hinaus verbessern die Ergebnisse unser Verständnis der Wissensunterschiede zwischen erfahrenen und nicht erfahrenen Webbenutzern und der praktischen Herausforderungen bei der Arbeit mit nicht erfahrenen Benutzern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15231-3_12 05fa975de27907600152caf222844108;de;;;7.3.;;;Kombination von Authentifizierung, Reputation und Klassifizierung, um Phishing unrentabel zu machen Wir präsentieren und analysieren ein Design eines Filtersystems zum Blockieren von E-Mail-Phishing-Nachrichten, das Reputations-, Authentifizierungs- und Klassifizierungsmechanismen kombiniert. Wir präsentieren ein einfaches wirtschaftliches Modell und eine Analyse, die ausreichende Bedingungen für die Genauigkeit des Inhaltsklassifikators aufzeigen, um Phishing unrentabel zu machen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01244-0_2 c9a6396040fb4f649e82417b60dad908;de;;;7.3.;;;"""Fakt oder Fiktion?"" Legitimität für vertrauenswürdige Informationen im Web durchsetzen: Eine qualitative Untersuchung Die Frage, wie dem Design von Informationsartefakten, die als Teil der Gesamtstrategie des Interface-Designs und der zukünftigen IS-Konstruktion für sensible Umgebungen rationalisiert und kontrolliert werden können, das Gefühl der „Legitimität“ durchgesetzt werden kann, wird unser Hauptziel dieser Forschung. Der Forschungsschwerpunkt liegt in der Verfeinerung der Konzepte der Mensch-Computer-Schnittstelle im Kontext der Web Mediated Information Environment (W-MIE) durch die Entwicklung neuer Wege zur Unterstützung der Designbereitstellung und -bewertung aus nicht-technischen Perspektiven der Anforderungen, indem die frühesten (konzeptioneller) Stand der Entwicklungsarbeit zur Rolle von";-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00670-8_22 9861bb0c2272cc4c0824f063f0c1c8f3;de;;;7.3.;;;Ein SMS-basiertes mobiles Botnet mit Flooding-Algorithmus Da viele anspruchsvolle Aufgaben auf Mobiltelefone migriert werden, werden sie allmählich zu heißen Zielen von Hackern. Tatsächlich ist in den letzten Jahren viele Malware aufgetreten, die auf Mobiltelefone abzielt, und die Situation wird immer schlimmer. Unter diesen Umständen können wir eine ernsthafte Frage stellen: Können diese infizierten Telefone in einem Botnet organisiert werden? In diesem Papier stellen wir ein Design eines solchen Botnetzes vor, das Short Message Service (SMS) als sein Command and Control (C&C) Medium verwendet. Wir decken alle Aspekte des Botnet-Designs ab, einschließlich des Stealthiness-Schutzes, der Topologieauswahl und der Botnet-Wartung. Unsere Simulationen zeigen, dass in unserem vorgeschlagenen SMS-basierten Botnet eine neu ausgegebene C&C-Nachricht basierend auf einem einfachen Flooding-Algorithmus innerhalb von 20 Minuten heimlich an über 90% der insgesamt 20000 Bots verbreitet werden kann. Darüber hinaus sendet jeder Bot in diesem Prozess nicht mehr als vier SMS-Nachrichten und das Botnet ist robust gegenüber zufälligen und selektiven Knotenausfällen. Damit zeigen wir, dass das vorgeschlagene mobile Botnet tatsächlich eine ernsthafte Bedrohung für die Sicherheit der mobilen Computerumgebung darstellt. Aus diesem Grund untersuchen wir mehrere effektive Abwehrstrategien gegen ein solches Botnet. Auf diese Weise hoffen wir, den Hackern einen Schritt voraus zu sein, um diese bevorstehende Bedrohung zu entdecken und zu verhindern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21040-2_19 d7f90635225302fb3aba76a0b66a0e25;de;;;7.3.;;;Ein einstelliger Kalkül für halbautomatische Schätzungen Wir beschreiben einen Ein-Signifikanten-Kalkül zur Schätzung von Näherungslösungen für Schätzprobleme. Der Kalkül wird als eine Sammlung von Beweismethoden formalisiert, die zu Beweisplänen zusammengefasst werden. Diese Nachweismethoden wurden als Rewrite Rules implementiert und in einem interaktiven System erfolgreich evaluiert,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14203-1_31 e75649444beb98639eff54605103ccbd;de;;;7.3.;;;Web Service Discovery in der FUSION Semantic Registry Die UDDI-Spezifikation wurde als Versuch entwickelt, die zentrale Herausforderung einer effektiven Web-Service-Erkennung anzugehen und ist zu einem weit verbreiteten Standard geworden. Der textbasierte Indexierungs- und Suchmechanismus, den UDDI-Registrys bieten, reicht jedoch nicht aus, um eindeutige und semantisch reichhaltige Darstellungen von Dienstfähigkeiten auszudrücken, und kann die logikbasierte Inferenzkapazität nicht unterstützen, die zum Ermöglichen einer automatisierten Dienstzuordnung erforderlich ist. Dieses Papier gibt einen Überblick über den im FUSION-Projekt vorgeschlagenen Ansatz zur Überwindung dieser wichtigen Einschränkung. Unsere Lösung kombiniert SAWSDL-basierte Servicebeschreibungen mit Service Capability Profiling basierend auf OWL-DL und automatisiertem Matchmaking durch DL Reasoning in einer semantisch erweiterten UDDI Registry.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79396-0_25 3dbe4eb07be00aff81771601d9cdb643;de;;;7.3.;;;Die Auswirkungen von Peer-Viktimisierung auf die Internetsucht und psychische Belastung von Kindern: Die moderierende Rolle emotionaler und sozialer Intelligenz Diese Studie untersucht die moderierenden Effekte sowohl der emotionalen Intelligenz als auch der sozialen Intelligenz (soziales Bewusstsein und soziale Informationsverarbeitung) auf den Zusammenhang zwischen Peer-Viktimisierung und Internetsucht sowie auf den Zusammenhang zwischen Peer-Viktimisierung und psychischer Belastung. Wir sammelten Daten aus einer nationalen proportional geschichteten Zufallsstichprobe von 6233 Grundschulschülern der vierten Klasse in Taiwan und konstruierten hierarchische lineare Regressionsmodelle, um die Forschungshypothesen zu testen. Die Ergebnisse zeigen, dass Jugendliche, die häufiger Opfer von Peer-Viktimisierung waren, ein höheres Risiko für Internetsucht und psychische Belastung haben als Jugendliche, die weniger Peer-Viktimisierung erlebt haben. In dieser Studie wurde emotionale Intelligenz negativ mit Internetsucht in Verbindung gebracht, aber sie pufferte die Auswirkungen der Viktimisierung auf die Internetsucht nicht signifikant ab. Soziales Bewusstsein war negativ mit Internetsucht verbunden, aber es verschärfte die negativen Auswirkungen der Viktimisierung durch Gleichaltrige auf die Internetsucht. Auf der anderen Seite war emotionale Intelligenz negativ mit psychischer Belastung verbunden und dämpfte die negativen Auswirkungen der Viktimisierung auf die psychische Gesundheit. Die Verarbeitung sozialer Informationen war negativ mit psychischer Belastung verbunden, verstärkte jedoch die negativen Auswirkungen der Viktimisierung durch Gleichaltrige auf die psychische Gesundheit taiwanesischer Jugendlicher. Die Forschungsimplikationen dieser Ergebnisse werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s10826-018-1120-6 e755815d0fa1c15d1fd47bd708523fde;de;;;7.3.;;;DNS-Rebinding-Erkennung für lokale Internet-of-Things-Geräte Smart Home-Technologie macht das Wohnumfeld komfortabel und sicher. Bedrohungen im Smart-Home-Umfeld bringen jedoch neue Herausforderungen mit sich. Als typische Angriffsmethode gefährdet DNS Rebinding den Datenschutz und die Sicherheit von Smart Home-Geräten ernsthaft. Um diesen Angriff zu erkennen und seine Auswirkungen so gering wie möglich zu halten, verwenden wir Simulationsexperimente, um die Angriffsszenarien für DNS-Rebinding zu modellieren. Basierend auf der Analyse der Schlüsselfaktoren der Experimente wird ein Modell zur Erkennung von DNS-Rebinding-Angriffen vorgeschlagen. Wenn Geräte in einer Smart-Home-Umgebung das Erkennungsmodell erfüllen, sind sie möglicherweise anfällig für DNS-Rebinding-Angriffe. Unsere experimentellen Simulationsergebnisse zeigen, dass die Smart-Home-Geräte im Erkennungsmodell anfällig für DNS-Rebinding-Angriffe sind. Schließlich schlagen wir einige Abwehrmaßnahmen vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9739-8_2 5fbf60d52a5d39ffb47e7a72550405ce;de;;;7.3.;;;Das Netz braucht Sie! Schreiben Sie sich jetzt ein „Das nächste große Ding wird Grid Computing sein“ – John Patrick, IBMs Vizepräsident für Internetstrategien. Sind Sie an Grid-Anwendungen oder -Infrastruktur beteiligt? Wenn nicht, warum nicht? Sie sind sich nicht sicher, was Grid ist? Denken Sie, es ist für Sie nicht relevant oder Sie sind nicht relevant dafür? Denken Sie, es ist nur Hochleistungsrechnen für Hochenergiephysiker? Denken Sie, dass es sich um eine semantik- oder datenfreie Zone handelt? Denken Sie, es ist nicht wichtig? In diesem Vortrag gebe ich eine Einführung in den aktuellen Stand von Grid und den Anwendungen, die es verwenden. Ich werde eine Zusammenfassung seiner Entwicklung geben und dabei drei bedeutende Initiativen mit Auswirkungen auf die OTM-Community berücksichtigen: die Entstehung der Open Grid Service Architecture, die Bedeutung von Daten-/Informations-Grids und das Aufkommen von Semantic Grids. Ich werde einige Beispiele für frühe Semantic Grid-Projekte geben und zeigen, warum verteiltes Informations- und Wissensmanagement Schlüsselfaktoren für Grid Services und ihre Anwendungen sind. Das Grid ist ein großartiger Anwendungsfall für die in dieser Konferenz beschriebene Forschung. Darüber hinaus glaube ich nicht, dass die Grid-Vision nicht erreicht werden kann, ohne Ihre bisherigen Erfahrungen, aktuellen Technologien und zukünftige Forschung zu kennen und zu nutzen. Wenn diese Community und die Grid-Community nicht miteinander kommunizieren, werden wir alle ärmer sein. Doch obwohl interkommunaler Technologieaustausch und interdisziplinäre Forschung inspirierende Innovationen hervorbringen können, geschieht dies nicht einfach. Es braucht Arbeit und es braucht Leute, die bereit sind, sich zu melden und sich zu engagieren. In diesem Vortrag hoffe ich, Sie zu informieren, zu interessieren und vielleicht sogar für die Sache zu gewinnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39964-3_36 5683fe4bbf3bb5a53afcf97aad48f8d4;de;;;7.3.;;;Integration von Peer-to-Peer- und Multi-Agent-Technologien zur Realisierung von Content-Sharing-Anwendungen Die Kombination von Peer-to-Peer-Vernetzung und Multi-Agenten-Systemen scheint eine perfekte Lösung für die Realisierung von Anwendungen zu sein, die sich im Internet verbreiten. Während Peer-to-Peer-Netzwerkinfrastrukturen und -protokolle die geeigneten Erkennungs- und Kommunikationsdienste bereitstellen, die für die Entwicklung effektiver und zuverlässiger Anwendungen erforderlich sind, ermöglichen Multi-Agent-Systeme die Realisierung autonomer, sozialer, reaktiver und proaktiver Peers, die die Entwicklung intelligenter und flexibler Einsatz möglich. Dieses Papier stellt vor, wie JADE, eines der bekanntesten Software-Frameworks für die Entwicklung von Multi-Agent-Systemen, erweitert wurde, um die Vorteile der JXTA-Netzwerkinfrastruktur und -Protokolle zu nutzen, und beschreibt ein System namens RAIS, das dank thanks eine solche erweiterte Version des JADE-Software-Frameworks, die eine Reihe fortschrittlicher Dienste für die gemeinsame Nutzung und den Abruf von Inhalten bereitstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16089-9_6 76c0636cbdd56b4d5520e2f0b46a85dd;de;;;7.3.;;;Semantische Websuche basierend auf ontologischen konjunktiven Abfragen Viele Experten sagen voraus, dass der nächste große Schritt nach vorn in der Web-Informationstechnologie durch das Hinzufügen von Semantik zu Web-Daten erreicht werden wird und möglicherweise aus (in irgendeiner Form) dem Semantic Web bestehen wird. In diesem Beitrag stellen wir einen neuartigen Ansatz zur Semantic Web Search vor, der auf ontologischen konjunktiven Abfragen basiert und die Standard-Websuche mit ontologischem Hintergrundwissen kombiniert, wie es z.B. in Semantic Web Repositories vorhanden ist. Wir zeigen, wie Standard-Websuchmaschinen als Hauptinferenzmotor für die Verarbeitung von ontologiebasierten semantischen Suchanfragen im Web verwendet werden können. Wir entwickeln das formale Modell dieses Ansatzes und bieten auch eine Implementierung in der Desktop-Suche an. Darüber hinaus berichten wir über umfangreiche experimentelle Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11829-6_12 538fa5b97a0341a1a6756481e60a4670;de;;;7.3.;;;Cache-Design für die Transcodierung von Proxy-Caching Mit der Verbreitung von Audio- und Videoanwendungen im Internet findet das Transcoding-Proxy-Caching zunehmend Beachtung, insbesondere im Umfeld mobiler Geräte. Da Cache-Ersetzung und Konsistenzalgorithmen zwei Faktoren sind, die eine zentrale Rolle bei der Funktionalität des Transcoding-Proxy-Caching spielen, ist es von besonderer praktischer Notwendigkeit, sie in das Design des Transcoding-Cache einzubeziehen. In diesem Papier schlagen wir einen ursprünglichen Cache-Wartungsalgorithmus vor, der sowohl Cache-Ersetzungs- als auch Konsistenzalgorithmen integriert. Unser Algorithmus enthüllt auch explizit die neu entstehenden Faktoren im Transcodierungs-Proxy. Insbesondere formulieren wir eine verallgemeinerte Kosteneinsparungsfunktion, um den Gewinn des Cachings eines Multimedia-Objekts zu bewerten. Unser Algorithmus räumt die Objekte basierend auf der verallgemeinerten Kosteneinsparung aus, um jedes Objekt in den Cache zu holen. Folglich sind die Objekte mit weniger generalisierter Kosteneinsparung aus dem Cache zu entfernen. Andererseits berücksichtigt unser Algorithmus auch die Validierungs- und Schreibraten der Objekte, was für einen Cache-Wartungsalgorithmus von großer Bedeutung ist. Schließlich evaluieren wir unseren Algorithmus anhand verschiedener Leistungskennzahlen durch umfangreiche Simulationsexperimente. Die Implementierungsergebnisse zeigen, dass unser Algorithmus Vergleichsalgorithmen in Bezug auf die betrachteten Leistungsmetriken übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30141-7_28 9abc0264df68327f1709c5afb5901dc9;de;;;7.3.;;;Informationsextraktionssystem basierend auf dem Hidden-Markov-Modell In diesem Beitrag wird ein neuartiger Ansatz vorgeschlagen, der das Hidden-Markov-Modell (HMM) für die Aufgabe der Preisfindung von Produkten auf Internetseiten verwendet. Das vorgeschlagene Informationsextraktionssystem basierend auf HMM (IESHMM) nutzt HMM wegen seiner Fähigkeit, zeitliche Informationen zu verarbeiten. Das vorgeschlagene IESHMM verarbeitet zunächst Webseiten, die von Suchmaschinen zurückgegeben werden, und extrahiert dann spezifische Felder wie Preise, Beschreibungen, Standorte, Produktbilder und andere interessante Informationen. Das vorgeschlagene IESHMM wird mit realen Problemen evaluiert und mit einer konventionellen Methode verglichen. Die Ergebnisse zeigen, dass das vorgeschlagene IESHMM die andere Methode um 22,9 % bzw. 37,2 % in Bezug auf den durchschnittlichen Wiedererkennungswert bzw.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01507-6_7 f7819042c6378f60a4f0225b6ea21db5;de;;;7.3.;;;Cybersicherheitsrichtlinien in China Cybersicherheit ist ein weltweit heiß diskutiertes Konzept mit verschiedenen politischen Dimensionen. Dieses Kapitel skizziert Chinas Cybersicherheitspolitik in fünf Bereichen: Schutz personenbezogener Daten, Verbraucherschutz, Cyberkriminalität, Bedrohung der öffentlichen Ordnung und Cyberverteidigung. Sie argumentiert, dass China sowohl Cyber-ambitioniert als auch Cyber-anfällig ist. In einer zunehmend kämpferischen und konfliktanfälligen Welt, die von der Rivalität zwischen mächtigen Nationen angetrieben wird, sind alternative Rahmenbedingungen und Strategien auf der Grundlage von Frieden und Zusammenarbeit entscheidend für die Lösung unzähliger dringender Cybersicherheitsprobleme.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-56405-6_5 622084efa8530027790ccccb0ff92c6f;de;;;7.3.;;;Possibilistic Reasoning für intelligente Zahlungsagenten Mit dem schnellen Wachstum des elektronischen Handels im Internet wird es immer wichtiger, über wirksame, sichere und kostengünstige Verfahren zur Abwicklung des Geldaspekts der Online-Transaktionen zu verfügen. Kürzlich wurde eine Reihe von elektronischen Zahlungsdiensten im Web eingeführt. Ein agentenbasierter Ansatz für elektronische Zahlungsdienste ist attraktiv, da Zahlungsdienstleister payment;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45408-X_18 62b57c18e7aabac9621f5572a49c439e;de;;;7.3.;;;DNS: Eine statistische Analyse des Nameserver-Datenverkehrs bei lokalen Netzwerk-zu-Internet-Verbindungen Dieses Papier präsentiert eine rein statistische Analyse des Nameserver-Verkehrs, der an vier verschiedenen Orten erfasst wurde: zwei Verbindungen zu Wohnnetzwerken und zwei zum niederländischen akademischen und Forschungsinstitut. Die Analyse des Systems kann Einblicke in die Verwendung und Leistung des Protokolls geben, was für zukünftige Verbesserungen hilfreich ist. Mehrere Analysen können die Entwicklung der Leistung im Laufe der Zeit zeigen und helfen, Qualitätsmodelle zu erstellen. Die Analyse zeigt, dass etwas mehr als 12% aller Anfragen nicht beantwortet werden. Drei Viertel der Lookups sind erfolgreich: Sie geben dem Client die richtige IP-Adresszuordnung für den angeforderten Hostnamen. 90 % werden innerhalb von 275 ms beantwortet, mit einem Durchschnitt von 152 ms. In 9% aller Fälle fragen Clients nach einem Hostnamen, der nicht existiert. An einem der Standorte wird ein Client entdeckt, der mit bemerkenswerter Geschwindigkeit Anfragen an zwei DNS-Server schickt: einen jeweils 11 bis 22 ms.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-31170-X_19 45c501df920a31c096f74870ee0050c6;de;;;7.3.;;;Ein strategischer Ansatz zur Reorganisation der Internet-Topologie durch die Anwendung sozialer Verhaltensdynamiken Neuere Studien haben beschrieben, dass die Topologien verschiedener Netzwerke einschließlich des Internets als skalenfreie Netzwerke kategorisiert werden. Ein skalierbares Netzwerk ist extrem anfällig für Knotenangriffe. Die Eignung der Topologie des Internets für die Kommunikation wurde jedoch nicht untersucht. Wir untersuchen, ob das aktuelle Internet sowohl hinsichtlich Kommunikationseffizienz als auch Angriffstoleranz optimiert ist. Dazu definieren wir drei Metriken, um die Fähigkeiten des Netzwerks darzustellen:;-;-;-;https://link.springer.com/article/10.1007/s10922-009-9122-8 4d9213ec2ce9fbd14ad3ad867b480f42;de;;;7.3.;;;Ein kontextbewusstes Smart Home Safety Management mit vernetztem RFID und Sensor In letzter Zeit wird der intelligente Heimdienst durch die Verwendung allgegenwärtiger Technologie um kontext- und situationsbewusste Automatisierungsdienste erweitert. In diesem Papier haben wir uns auf das kontextbasierte intelligente Sicherheitsmanagement des Benutzers für Heimsicherheitsanwendungen mit RFID und WSN (Wireless Sensor Network) konzentriert. Wir schlagen ein kontextbewusstes Anwendungsmodell für die Haussicherheit vor. Der vorgeschlagene Kontextdienst unterstützt die Sicherheits- und Datenschutzkontrolle durch die Verwendung eines situationsbezogenen Sicherheitsmanagements des Benutzers. Es wird eine praktische Anwendung von RFID und Sensornetzwerken für eine allgegenwärtige Sicherheitsumgebung zu Hause sein. Das vorgeschlagene System hat viele Vorteile in Bezug auf Benutzersicherheit und Energieeffizienz.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-77216-5_16 3cee985c9845d7ff3a3affc7abd15264;de;;;7.3.;;;Gestaltung von Übungen und Testitems für Internetworking basierend auf einem Framework von Übungsklassen Lehramtsstudierende und Lehranfänger benötigen ein Hilfsmittel, um hochwertige Übungen und Testobjekte für die Internetarbeit zu entwerfen. In diesem Beitrag wird die Gestaltung von Übungen bzw. Testaufgaben anhand eines Rahmens von Übungsklassen für Internetworking beschrieben. Dieser Rahmen setzt sich aus Inhalts-, Prozess- und Repräsentationsdimension zusammen. Die inhaltliche Dimension basiert auf Übungsklassen für Internetworking und Wissenskategorien. Die Prozessdimension basiert auf dem kognitiven Prozess, der zur Lösung einer Aufgabe benötigt wird und beeinflusst daher direkt die Fragestellung. Die dritte Dimension basiert auf Darstellungsweisen und beeinflusst die Gestaltung des Kontextes. Der Rahmen wurde während einer Fallstudie im Sekundarbereich evaluiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09729-9_40 2d7fd1adb87edd92bc99a069dcc16fcd;de;;;7.3.;;;Ein Multi-Agenten-Framework für kontextbezogenes dynamisches Benutzerprofiling zur Web-Personalisierung Das wachsende Informationsvolumen im World Wide Web hat das Abrufen relevanter Informationen zu einer schwierigen Aufgabe gemacht. Die Anpassung der Informationen an das Benutzerinteresse ist zu einem Gebot der Stunde geworden. Die Personalisierung zielt darauf ab, viele damit verbundene Probleme im aktuellen Web zu lösen. Es ist jedoch eine schwierige Aufgabe, das Verhalten des Benutzers manuell im Auge zu behalten. Darüber hinaus ändern sich die Interessen der Nutzer im Laufe der Zeit. Daher ist es für bessere Personalisierungslösungen notwendig, ein Benutzerprofil genau und dynamisch zu erstellen. Ferner ist die Automatisierung verschiedener Aufgaben bei der Benutzerprofilerstellung angesichts der großen Größe und der hohen Intensität der beteiligten Benutzer höchst wünschenswert. Diese Arbeit präsentiert ein agentenbasiertes Framework für die dynamische Benutzerprofilerstellung für personalisiertes Web-Erlebnis. Unser Beitrag in dieser Arbeit ist die Entwicklung einer neuartigen agentenbasierten Technik zur Aufrechterhaltung von langfristigen und kurzfristigen Benutzerinteressen sowie der Kontextidentifikation. Ein neuer agentenbasierter Ansatz für die dynamische Benutzerprofilerstellung für die Webpersonalisierung wurde ebenfalls vorgeschlagen. Die vorgeschlagene Arbeit soll eine automatisierte Lösung für die dynamische Erstellung von Benutzerprofilen bieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8848-3_1 a2e03184072e8f5c2692d22404464e27;de;;;7.3.;;;Hin zu Benutzerprofilen für Webempfehlungen Die kollaborative Empfehlung ist eines der weit verbreiteten Empfehlungssysteme, die dem Besucher Artikel auf der Grundlage der Empfehlung anderer empfehlen, die dem aktuellen Benutzer ähnlich sind. Eine Benutzerprofilierungstechnik für Web-Transaktionsdaten ist in der Lage, solche informative Kenntnisse über Benutzeraufgaben oder -interessen zu erfassen. Mit den ermittelten Nutzungsmusterinformationen wird es Webbenutzern wahrscheinlich bevorzugtere Inhalte empfehlen oder die Webpräsentation durch gemeinsame Empfehlungen an die Besucher anpassen. Darüber hinaus ist es hilfreich, die zugrunde liegenden Beziehungen zwischen Webbenutzern, Elementen sowie latenten Aufgaben während des Web-Mining-Zeitraums zu identifizieren. In diesem Papier schlagen wir ein Webempfehlungs-Framework vor, das auf der Technik der Benutzerprofilerstellung basiert. Bei diesem Ansatz verwenden wir;-;-;-;https://link.springer.com/chapter/10.1007/11589990_44 d20d651ed241e87f0cf41b4ca3228eba;de;;;7.3.;;;Anwenden von DAC-Prinzipien auf das RDF-Graphdatenmodell In diesem Beitrag untersuchen wir, wie die Prinzipien der diskretionären Zugriffskontrolle, die erfolgreich auf relationale und XML-Daten angewendet wurden, auf das Graphdatenmodell des Resource Description Framework (RDF) angewendet werden können. Ziel ist es, eine Basis für die Spezifikation eines allgemeinen Berechtigungsrahmens für das RDF-Datenmodell bereitzustellen. Zu diesem Zweck geben wir eine Zusammenfassung der Zugriffskontrollanforderungen für Graphdatenstrukturen, basierend auf den unterschiedlichen Eigenschaften von Graphmodellen im Vergleich zu relationalen und Baumdatenmodellen. Anschließend konzentrieren wir uns auf das RDF-Datenmodell und identifizieren eine Liste von Zugriffsrechten basierend auf SPARQL-Abfrageoperationen, schlagen einen mehrschichtigen Ansatz zur Berechtigungsableitung basierend auf der Graphstruktur und dem RDFSchema vor und zeigen, wie SQL GRANT- und REVOKE-Befehle angepasst werden können, um dies zu gewährleisten Delegation von Privilegien in SPARQL.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39218-4_6 bdfe0545cdedfca62ffefd96fcf18872;de;;;7.3.;;;Kommunikation von FTE- und Einsatzergebnissen im Zusammenhang mit der Informationsgesellschaft zur Unterstützung der öffentlichen Politik der EU Ziel dieses Papiers ist es, Fragen im Zusammenhang mit der Kommunikation und Nutzung von Projektergebnissen im Zusammenhang mit der Informationsgesellschaft zu diskutieren, die aus FTE- und Einführungsprojekten stammen, die durch EU-Programme wie IST-Programm, eTen, eContent und eContent plus usw. finanziert werden. Insbesondere wird untersucht, wie diese Ergebnisse können sich auf andere wichtige EU-Politiken auswirken, z öffentliche Gesundheit, Umwelt, Bildung usw. Zunächst werden die verschiedenen EU-Programme und -Initiativen vorgestellt, die auf mehr Wirtschaftswachstum, nachhaltige Entwicklung und sozialen Zusammenhalt durch IKT und ihre allgegenwärtige Rolle in Wirtschaft und Gesellschaft abzielen. Anschließend wird die Rolle erörtert, die die Kommunikation von FTE-Ergebnissen für den Wissenstransfer, die Beeinflussung von Maßnahmen und vor allem die öffentliche Anerkennung der erzielten Vorteile haben kann. Um diese Dimension zu veranschaulichen, präsentiert sie im Detail die Initiative „Information Society Policy Link“ der Generaldirektion Informationsgesellschaft und Medien (GD INFSO) und ihre erste Sammlung erfolgreicher Projektergebnisse (Policy Cases), die sich positiv auf verschiedene EU-Politikbereiche ausgewirkt haben und insbesondere Umweltrichtlinien. Abschließend werden einige Schlussfolgerungen hinsichtlich der Einbeziehung solcher Ansätze zur effektiven Verbreitung von Forschungs- und Einsatzergebnissen in die von der EU geförderten Programme sowie in nationale Initiativen gezogen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-37876-3_16 3e23b46004dd26c0ef8ce1a2149dfaad;de;;;7.3.;;;Verwendung der Begriffsklärung von Abfragen mit Clustering-Techniken Aufgrund der grenzenlosen Expansion des Webs in den letzten zehn Jahren hat die Forschungsgemeinschaft dem Problem der effektiven Suche in den riesigen verfügbaren Informationen große Aufmerksamkeit gewidmet. In diesem Beitrag stellen wir einen neuartigen Rahmen zur Verbesserung der Ergebnisse der Informationsbeschaffung vor. Zunächst werden relevante Dokumente in Clustern organisiert, die mehrere Metriken in Kombination mit Sprachmodellierungswerkzeugen verwenden. Im Folgenden wird eine erstellte Rangliste der Dokumente für eine bestimmte Abfrage an den Benutzer zurückgegeben. Dies wird implementiert, indem die Scores zwischen den Clustern und den Abfragedarstellungen extrahiert werden. Als nächstes werden die internen Rankings der Dokumente pro Cluster unter Verwendung dieser Scores als Gewichtungsfaktor kombiniert. Unsere vorgeschlagene Methodik basiert auf der Nutzung der Ähnlichkeiten zwischen Dokumenten (lexikalisch und/oder semantisch) nach einem anspruchsvollen Vorverarbeitungsschritt. Unsere experimentelle Auswertung zeigt, dass der vorgeschlagene Algorithmus die Qualität der abgerufenen Ergebnisse effizient verbessern kann.;-;-;-;https://link.springer.com/article/10.1007/s12530-019-09292-7 93334ad323dfe26860ce074b2cb0205a;de;;;7.3.;;;Identifizierung des Navigationsverhaltens von Lernenden basierend auf Spurenanalyse Die Identifizierung des Verhaltens und der Lernpräferenzen oder -stile der Lernenden in einer webbasierten Lernumgebung ist entscheidend für die Organisation der Nachverfolgung und die Angabe, wie und wann Unterstützung benötigt wird. Darüber hinaus hilft es Online-Kursdesignern, das Lernmaterial so anzupassen, dass ein individualisiertes Lernen gewährleistet ist, und hilft den Lernenden, metakognitives Wissen zu erwerben. Das Ziel dieser Forschung ist es, das Verhalten und den Lernstil der Lernenden während der Trainingssitzungen basierend auf der Spurenanalyse automatisch zu identifizieren. In diesem Papier konzentrieren wir uns auf die Identifizierung des Verhaltens von Lernenden durch unser System: Indikatoren zur Deduktion von Lernstilen. Zunächst stellen wir unseren Ansatz zur Spurenanalyse vor. Anschließend schlagen wir einen Indikator für den Navigationstyp vor, um das Verhalten der Lernenden zu analysieren, und definieren eine Methode zu seiner Berechnung. Zu diesem Zweck werden wir einen Entscheidungsbaum aufbauen, der auf semantischen Annahmen und Tests basiert. Um unseren Ansatz zu validieren und die vorgeschlagene Berechnungsmethode zu verbessern, werden wir die Ergebnisse zweier von uns durchgeführter Experimente präsentieren und diskutieren.;-;-;-;https://link.springer.com/article/10.1007/s11257-010-9081-5 3ae300617adaa4c8a7d00d6aa6044ac9;de;;;7.3.;;;Vertrauenswürdigkeitsanalyse von Websuchergebnissen Die zunehmende Nutzung von Websuchmaschinen in unserem täglichen Leben bedeutet, dass die Vertrauenswürdigkeit der Suchergebnisse entscheidend geworden ist. In diesem Beitrag werden Nutzerstudien zur Nutzung von Suchmaschinen und die Analyse der Faktoren beschrieben, die das Vertrauen der Nutzer in Suchergebnisse bestimmen. Basierend auf der Analyse haben wir ein System entwickelt, das Benutzern hilft, die Vertrauenswürdigkeit von Websuchergebnissen zu bestimmen, indem die Themenmehrheit jeder zurückgegebenen Seite, die Themenabdeckung, die Lokalität der unterstützenden Seiten (d. h. Seiten, die mit jedem Suchergebnis verknüpft sind) und andere Informationen berechnet und angezeigt werden. Die im Beitrag vorgeschlagenen Maßnahmen können auf die Suche in webbasierten Bibliotheken angewendet werden oder können bei der Nutzung digitaler Bibliothekssuchsysteme nützlich sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74851-9_4 48e1b2572598a826272ee13fda76e225;de;;;7.3.;;;Eingestufte Relevanz NTCIR war die erste groß angelegte IR-Evaluierungskonferenzreihe, die Testkollektionen mit abgestuften Relevanzbewertungen erstellt hat: Die NTCIR-1-Testkollektionen aus dem Jahr 1998 wurden bereits vorgestellt;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5554-1_1 b89b120f1a68a3db5dce4362fa54c525;de;;;7.3.;;;Ein kritischer Überblick über Sicherheitsfragen im Cloud-Computing Cloud Computing hat bei Computing-Diensten stark zugenommen. Es ist definiert als eine Reihe von Computerressourcen, auf die über das Internet zugegriffen wird. Sicherheit im Cloud Computing, ein Umfeld voller Herausforderungen und von überragender Bedeutung, befindet sich derzeit in der Anfangsphase des Wachstums, und viele Analyseprobleme sind noch nicht bekannt. Cloud Computing ist zum Segen der IT-Branche geworden. Es ist wie der nächste Schritt der Internet-Evolution mit einer verwalteten und effizienten Plattform für die Datenspeicherung mit enormen Fähigkeiten und Anwendungen. Es unterstützt die Behörden beim Zugriff auf die eigenen Dateien oder Daten, ohne die Daten über Internetdienste auf dem Computer des Benutzers zu installieren. Cloud Computing ermöglicht On-Demand-Netzwerkzugriff oder gemeinsamen Zugriff auf konfigurierte Computing-Ressourcen. Die Verwendung mehrerer Betriebssysteme auf einer Maschine maximiert die Nutzung dieser bestimmten Ressource. In diesem Zusammenhang spezifiziert es die Erstellung einer virtuellen Version von Ressourcen wie Speichergeräten, virtuellem Betriebssystem, Bereitstellung einer Anwendung oder Software in der Cloud (SaaS). Ein System hat sowohl Vor- als auch Nachteile, Cloud Computing ist keine Ausnahme. Einige der Folgen sind Cloud-Sicherheit, Verwaltbarkeit, Integrität, Diebstahl, Datenverlust usw. In den vorgelegten Unterlagen werden verschiedene Herausforderungen und Probleme bei der Datensicherheit über die Cloud untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4936-6_70 b89b680ce63e79321a08eb3062888274;de;;;7.3.;;;Aufdringlichkeit von Online-Werbung und Vermeidungsverhalten von Verbrauchern Die Verbreitung von Werbung in allen Kommunikationsmedien führt dazu, dass Verbraucher eine erhebliche Konkurrenz zwischen beworbenen Produkten wahrnehmen und sich von der aufdringlichen Werbung überfordert fühlen. Zusammengenommen bilden diese Dimensionen den Begriff „Werbekram“. Eine Überprüfung der Literatur zeigt, dass die wahrgenommene Aufdringlichkeit die Hauptkomponente der Wahrnehmung von Unordnung ist. Werbeunordnung kann zu unerwünschten Verhaltensweisen (z. Es führt auch zu einer verminderten Werbewirksamkeit im Sinne des Verbrauchergedächtnisses, einer Abnahme der positiven Einstellung zur Botschaft und der Marke sowie zu einer geringeren Kaufabsicht und damit zu einem geringeren Umsatz. In diesem Artikel werden die wichtigsten Folgen von Werbemüll für Verbraucher in Online-Medien beleuchtet und diskutiert. Zu diesem Zweck wird eine theoretische Überprüfung dieses Konzepts und seiner Hauptdimensionen durchgeführt, wobei besonderes Augenmerk auf den Online-Kontext gelegt wird. Abschließend werden einige praktische Empfehlungen und Forschungsmöglichkeiten aufgezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39747-9_23 b46199d4b0186b8443d7bfccf8a3f2c8;de;;;7.3.;;;Semantische Beziehung zwischen Wörtern mit dem Web als Informationsquelle Semantische Relation ist ein wichtiges Konzept der Informationswissenschaft. Heutzutage ist es im Semantic Web weit verbreitet. Dieses Papier zielt darauf ab, eine Maßnahme zur automatischen Bestimmung der semantischen Beziehung zwischen Wörtern unter Verwendung des Webs als Wissensquelle vorzustellen. Es untersucht, ob zwei Wörter verwandt sind oder nicht, selbst wenn sie in ihrer Bedeutung unähnlich sind. Die vorgeschlagene Formel ist eine Funktion der Häufigkeit des Vorkommens der Wörter in jedem Dokument im Korpus. Dieses Beziehungsmaß ist nützlich, um semantische Informationen aus dem Web zu extrahieren. Die experimentelle Auswertung von zehn manuell ausgewählten Wortpaaren unter Verwendung der WebKb-Daten als Informationsquelle zeigt die Wirksamkeit der vorgeschlagenen semantischen Beziehung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11164-8_43 0104e2029f7414f39dadbc48ce074fb0;de;;;7.3.;;;Verbesserung der wahrgenommenen Webleistung durch größenbasierte Überlastungskontrolle Die auf der Flussgröße basierende Überlastungssteuerung hat das Potenzial, die vom Benutzer wahrgenommene Webleistung aufgrund der stark taillierten Charakteristik der Dateigrößenverteilungen im Web zu verbessern. Nach der Diskussion der Vor- und Nachteile von Transportprotokoll- und Router-basierten Lösungen zur größenbasierten Überlastungssteuerung werden Richtlinien für das Algorithmusdesign entwickelt. Unter Verwendung dieser Richtlinien stellen wir fest, dass die größenbasierte Überlastungssteuerung TCP-Modelle einbeziehen muss, um unerwünschte Benutzeranreize zu vermeiden. Basierend auf dieser Erkenntnis spezifizieren wir Erweiterungen für TCP mit größenbasierter Überlastkontrolle und liefern Argumente für Parametereinstellungen. Durch Simulationen wird gezeigt, dass unsere modifizierte Version von TCP NewReno aus Benutzersicht in Szenarien mit realistischen Modellen für Web-Traffic und Topologien mit mehreren überlasteten Links deutlich übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24693-0_57 9297e8cbcf60a2beb2e500ccd7241ce4;de;;;7.3.;;;Ein praktischer Ansatz für die Integration von SIP, QoS und AAA In diesem Papier präsentieren wir eine Gesamtarchitektur zur Integration von SIP-basiertem Sitzungsmanagement mit skalierbaren QoS-Funktionen und AAA-Funktionalität. Zu den QoS-Features gehört eine Bandbreitenreservierung im Zugangsnetz basierend auf der Next Steps in Signaling (NSIS) Architektur. Darüber hinaus verwenden wir das DiffServ-kompatible Priority Promotion Scheme (PPS), ein Paketprüfschema, um die End-to-End-Premium-Bandbreitenverfügbarkeit zu überprüfen. Um einen Missbrauch der QoS-Funktionen zu vermeiden, wird eine AAA-Funktionalität hinzugefügt, die die QoS-Nutzung mit den spezifischen SIP-Sitzungen verbindet. Die AAA-Funktionalität wird durch eine Kombination des weit verbreiteten RADIUS-Protokolls mit dem Common Open Policy Service (COPS) erreicht. Als Proof of Concept wurde unsere Architektur implementiert und auf Leistung getestet. Die Stärke unseres Ansatzes besteht darin, dass er Komplexität von den Netzbetreibern fernhält und gleichzeitig QoS mit Zugangskontrolle auf skalierbare Weise bietet.;-;-;-;https://link.springer.com/chapter/10.1007/11753810_55 05ff4967188b1d18aa8c6b7b2f047f60;de;;;7.3.;;;Fernstudium und lebenslanges Lernen In diesem Beitrag werden einige Überlegungen zur theoretischen Position zum Technologieeinsatz in der Weiterbildung und zwei Fallstudien vorgestellt. Der erste berichtet von einem Fernstudium nach dem Abschluss, um Lehrer, die in Grundschulen und Gymnasien arbeiten, zu qualifizieren, um sie auf den Einsatz von Informationstechnologien im Unterricht vorzubereiten. Die zweite berichtet über das Fernlehrprojekt, das auf Open-Source-Software basiert und für Menschen geschaffen wurde, die keinen Zugang zu regulären Klassen haben. Beides sind Aktivitäten der UFRGS – Bundesuniversität von Rio Grande do Sul, Brasilien.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-7843-9_7 e4a1a5fadd30fe148859a59953425884;de;;;7.3.;;;Verwenden von Webdiensten und Semantic Web zur Erstellung intelligenter kontextsensitiver Dienste Wir betrachten die jüngste Entwicklung bei XML-basierten Technologien zur Bereitstellung von Plattformen für die Herstellung von Online-Diensten. Wir werden beobachten, wie sich der Umfang der Informationsnutzbarkeit über die Anwendungsgrenzen hinaus ausdehnt. Die notwendigen Komponenten und Praktiken für die Zusammenstellung von Online-Diensten im Hinblick auf die unmittelbaren Benutzerbedürfnisse werden berücksichtigt. Es wird ein Spektrum an informativen Anwendungs-, Technologie- und IT-Entwicklungsplattform-basierten Beispielen gegeben, um die allgemeinen Architekturänderungen mit praktischeren Fragen der Softwareentwicklung und Programmiermethoden von Informationsdiensten im Allgemeinen zu verbinden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30133-2_137 fa4082f20b2e0153742b454b06d01060;de;;;7.3.;;;Videosuche und -abruf: Aktuelle Praxis und zukünftige Entwicklung Die Rundfunkbranche ist derzeit dabei, die digitale Technologie in der gesamten Wertschöpfungskette zu integrieren, von der Produktions- und Postproduktionsphase über die Speicherung und Katalogisierung bis hin zur Auslieferung an den Endverbraucher. Infolgedessen nimmt die Menge der online zur Verfügung gestellten Videoinformationen weltweit zu, und die Nutzung des Internets schafft neue Dienste, die von Rundfunkanstalten geschaffen oder an sie gerichtet sind. Diese Entwicklung erfordert standardisierte und effiziente Such- und Abruftools in Videodatenbanken, die es heute noch nicht gibt. Dieses Kapitel befasst sich mit diesem Problem und konzentriert sich auf drei Hauptthemen. Zuerst beschreiben wir das ATMAN ACTS-Projekt, bei dem die neue ORDBMS-Technologie (Object-Relational Database Management System) verwendet wurde, um einen Business-to-Business-Service [1] zu entwickeln, der AV-Objekte über das Internet und ATM handelt. Anschließend diskutieren wir die Vorteile der Verwendung des Standardprotokolls Z39.50 (Search and Retrieval) zusammen mit einem geeigneten Videoprofil beim Suchen und Abrufen von Videometadaten. Schließlich befassen wir uns mit dem Anwendungsbereich von MPEG-7 und wie seine Definition das zukünftige Szenario beeinflussen könnte. Zu diesem Zweck untersuchen wir mit Fokus auf das Ziel der Interoperabilität die Integration von MPEG-7-Inhaltsbeschreibungen in das Such- und Abrufprotokoll Z39.50 .;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0863-4_18 502ef2c9f6b753f2ce963a733362969d;de;;;7.3.;;;Zur Ermöglichung von Cyber-Physical Systems in Brownfield-Umgebungen Die digitale Transformation auf Basis von Internettechnologien birgt enorme Potenziale, aber auch Herausforderungen für die Fertigungsindustrie. Auch wenn einige Designmerkmale für die digitalisierte Integration von Maschinen, Anwendungen und umgebenden Komponenten allgemein akzeptiert sind, erschwert die inhärente Komplexität und Vielfalt von Interaktionsprotokollen, Datenformaten und Abhängigkeiten bestehender Einsätze in sogenannten Brownfield-Umgebungen die datengesteuerte Fertigung der Zukunft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00713-3_13 c83ce9680e107d8f4205a010c3e3939f;de;;;7.3.;;;Auf dem Weg zu nutzerzentrierter Datenverwaltung und -kontrolle in der Cloud Cloud-Computing, d.h. e. On-Demand-Zugriff auf virtualisierte Computerressourcen über das Internet bereitzustellen, ist einer der aktuellen Megatrends in der IT. Bereits heute bieten mehrere Anbieter Cloud Computing Infrastruktur (IaaS), Plattform (PaaS) und Software (SaaS) Services an. Obwohl das Cloud-Computing-Paradigma sowohl wirtschaftliche als auch technologische Vorteile verspricht, haben viele potenzielle Nutzer noch Vorbehalte gegenüber der Nutzung von Cloud-Diensten, da dies bedeuten würde, einem Cloud-Anbieter zu vertrauen, dass er seine Daten nach zuvor ausgehandelten Regeln korrekt behandelt. Darüber hinaus bewirkt die Virtualisierung eine Standortunabhängigkeit der angebotenen Dienste, die in domänenspezifische gesetzliche Regelungen eingreifen könnte. In diesem Whitepaper stellen wir einen Ansatz vor, um den Cloud-Anwender bei der Migration von Daten und Diensten in und innerhalb der Cloud wieder an die Macht zu bringen. Wir skizzieren unsere laufenden Arbeiten, die darauf abzielen, eine Plattform für die Entwicklung flexibler Servicearchitekturen für Cloud Computing unter besonderer Berücksichtigung von Sicherheit und nicht-funktionalen Eigenschaften bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27585-2_11 7a33c3d45ca68dcd2f34b1d96bdfc707;de;;;7.3.;;;Topologisches Baum-Clustering von Suchergebnissen in sozialen Netzwerken Im Informationszeitalter werden Online-Kollaboration und soziale Netzwerke immer wichtiger und werden schnell zu einem festen Bestandteil unseres Lebensstils. In der Wirtschaft kann Social Networking ein mächtiges Instrument sein, um ein Kundennetzwerk zu erweitern, an das ein Unternehmen Produkte und Dienstleistungen verkaufen oder vertrauenswürdiger und zielgerichteter neue Partner / Mitarbeiter finden kann. Das Identifizieren neuer Freunde oder Partner auf Social-Networking-Websites erfolgt normalerweise über eine Stichwortsuche, das Durchsuchen eines Verzeichnisses von Themen (z. B. Interessen, Geografie oder Arbeitgeber) oder einer Kette sozialer Bindungen (z. . Allerdings sind diesen drei Ansätzen Grenzen gesetzt. Bei der Stichwortsuche wird normalerweise eine Liste mit Ranglistenergebnissen erstellt, wobei das Durchsuchen von Seiten mit Ranglistenergebnissen mühsam und zeitaufwändig sein kann. Ein Verzeichnis von Gruppen / Netzwerken wird in der Regel manuell erstellt, erfordert einen hohen laufenden Pflegeaufwand und kann mit schnellen Änderungen nicht Schritt halten. Soziale Ketten erfordern, dass die ersten Benutzer Metadaten in ihren Profileinstellungen angeben und sind möglicherweise nicht aktuell. In diesem Papier schlagen wir vor, die topologische Baummethode zu verwenden, um ähnliche Gruppen basierend auf Metadaten und Inhalt dynamisch zu identifizieren. Die topologische Baummethode wird verwendet, um soziale Netzwerkgruppen automatisch zu organisieren. Die abgerufenen Ergebnisse, die mithilfe einer Online-Version der topologischen Baummethode organisiert wurden, werden mit den zurückgegebenen Ergebnissen einer Suche in einem sozialen Netzwerk verglichen. Es werden die Kriterien der Darstellung sozialer Beziehungen und die Vorteile der Darstellung zugrunde liegender Themen und der klaren Sicht auf die Zusammenhänge zwischen Themen diskutiert. Es hat sich herausgestellt, dass der topologische Baum eine überlegene Darstellung ist und sich gut zum Organisieren von Inhalten sozialer Netzwerke eignet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77226-2_76 9a8e596d295f235563a1f7da3b6d35e0;de;;;7.3.;;;Szenarien der gemeinsamen innovativen Entwicklung der Funkelektronikindustrie und des Dienstleistungssektors In dem Papier werden verschiedene Entwicklungsszenarien für den russischen Informations- und Kommunikationssektor betrachtet, wobei die Aussichten auf die Einführung modernster drahtloser Datenübertragungstechnologien berücksichtigt werden. Präsentiert werden die Ergebnisse von Szenariorechnungen, die es ermöglichten, die Auswirkungen der innovativen Entwicklung der Informations- und Kommunikationstechnologiebranche auf den Output der Funkelektronikindustrie zu bewerten.;-;-;-;https://link.springer.com/article/10.1134/S1075700713040035 9399bd77c9cdd9a40deeb167408f2111;de;;;7.3.;;;Navigationsunterstützung in sich entwickelnden Open-Source-Communitys durch ein webbasiertes Dashboard Die Co-Evolution von Communities und Systemen in Open-Source-Software (OSS)-Projekten ist ein etabliertes Forschungsthema. Es gibt viele verschiedene Studien zur OSS-Community und zur Systementwicklung. Die meisten der bestehenden OSS-Projektvisualisierungstools bieten jedoch quellcodeorientierte Metriken mit wenig Unterstützung für Communities. Gleichzeitig hilft die Selbstreflexion den Mitgliedern der OSS-Community zu verstehen, was in ihrer Community passiert. Angesichts fehlender Community-zentrierter OSS-Visualisierungen untersuchten wir die folgende Forschungsfrage: Sind die OSS-Communitys an einer Visualisierungsplattform interessiert, die die Community-Entwicklung widerspiegelt? Wenn ja, welche Aspekte sollte es widerspiegeln?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55128-4_2 ad43eccc72df314653b59bf72e68ff66;de;;;7.3.;;;Trends in der Entwicklung von Informationsdiensten Dieser Beitrag beschreibt die Servicetrends von Informationsdiensten, die Nutzer anlocken sollen: die Fernwartung der Nutzer durch moderne Informations- und Kommunikationstechnologien, die „Einbettung“ des Dienstes in das Kerngeschäft des Lesers und Komfortsteigerungen in Bibliotheken und Informationseinrichtungen. Es unterstreicht die Bedeutung der Zusammenarbeit von Bibliotheken mit Unternehmen, um organisatorische und technologische Unterstützung bei Serviceänderungen zu leisten.;-;-;-;https://link.springer.com/article/10.3103/S014768821201011X 90cc167b71c8ba8542c0c3291458d169;de;;;7.3.;;;Erweitern von GridNexus zur Unterstützung der visuellen Zusammenstellung von Webdiensten Dieses Papier beschreibt eine Reihe von Erweiterungen (Primitive, Bindungen und grafische Module) und deren Implementierung, um die visuelle Zusammenstellung von Webdiensten aus wissenschaftlichen Workflows innerhalb der GridNexus-Computerumgebung zu erleichtern. Der Implementierungsansatz für diese Arbeit beinhaltete die Verwendung einer Strategie zum Definieren von WSDL-Nachrichtentypen und -prozeduren, so dass jeder zur Auswertung an einen definierten Workflow gebunden wird. Aufgrund seiner Axis2-Basis können von GridNexus erstellte Webdienste unter jedem J2EE-Anwendungscontainer ausgeführt werden, indem der Dienst als einsetzbare Archivdatei bereitgestellt wird. Der Beitrag schließt mit einer Diskussion verschiedener Konstruktionsalternativen einschließlich der Vor- und Nachteile der einzelnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-8735-6_79 0340f34a6715c88093ab5be470c0dc4b;de;;;7.3.;;;Ein agentenbasierter Ansatz für das Servicemanagement – ​​hin zu einer serviceunabhängigen Netzwerkarchitektur Mit der Deregulierung der Telekommunikationsbranche treibt der intensive Wettbewerb um Kunden die Serviceprovider dazu, immer schneller neue und anspruchsvolle Dienste anzubieten. Gleichzeitig zieht das Internet die Kreativität der Anbieter an und übt einen fatalen Druck auf die traditionelle Telekom-Preisstruktur aus. Während die Telekommunikationsbranche in Bezug auf die Servicequalität immer noch führend ist, besteht ein wachsender Bedarf an einer kosteneffektiven Architektur für das Netzwerk- und Servicemanagement, die hinsichtlich Reaktionsfähigkeit und Flexibilität mit dem Internet vergleichbar ist und dennoch in der Lage ist, eine hohe Servicequalität für immer komplexer werdende Dienste aufrechtzuerhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35180-3_53 b75530ba6c891facd122366c2fc922c6;de;;;7.3.;;;Desktop-to-Mobile-Webanpassung durch anpassbares zweidimensionales semantisches Redesign In diesem Beitrag stellen wir eine neuartige Methode zur Desktop-to-Mobile-Adaption vor. Die Lösung unterstützt Endbenutzer auch bei der Anpassung von geräteübergreifenden, allgegenwärtigen Benutzeroberflächen. Insbesondere beschreiben wir einen Algorithmus und die entsprechende Werkzeugunterstützung, um eine Desktop-zu-Mobil-Anpassung durchzuführen, indem logische Benutzeroberflächenbeschreibungen genutzt werden, die in der Lage sind, semantische Informationen der Interaktion zu erfassen, die den Zweck der Oberflächenelemente angeben. Wir vergleichen unsere Lösung auch mit bestehenden Tools für ähnliche Ziele.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16488-0_7 0a6b600b937d4dc865a6bdf44f896b7b;de;;;7.3.;;;Die Entwicklung eines integrierten Korpus für die malaiische Sprache Im Allgemeinen dient ein Korpus als Datenquelle für verschiedene Arten von Forschung. Daher werden mehrere malaiische Korpora entwickelt, um die Bedürfnisse der Forscher zu unterstützen. Allerdings werden die verschiedenen Korpora malaiischer Texte verteilt und nicht integriert, wobei einige Wörter in einigen Korpora nicht enthalten sind oder fehlen. Der Schwerpunkt dieser Arbeit liegt auf der Entwicklung eines integrierten Korpus, der die vier umfassendsten malaiischen Korpora kombiniert. Die Absicht besteht darin, eine umfassende Abdeckung der malaiischen Korpora bereitzustellen, die für jede relevante Arbeit von Vorteil wäre.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0058-9_41 380405a58dbd56c83d068c2ccf53acc4;de;;;7.3.;;;Dynamischer PageRank mit sich entwickelnder Teleportation Die Bedeutung von Knoten in einem Netzwerk schwankt ständig aufgrund von Änderungen der Netzwerkstruktur sowie Änderungen des externen Interesses. Wir schlagen eine sich entwickelnde Teleportationsadaption der PageRank-Methode vor, um zu erfassen, wie Änderungen des externen Interesses die Bedeutung eines Knotens beeinflussen. Dieses Framework verallgemeinert den PageRank nahtlos, da die Bedeutung eines Knotens den PageRank-Werten konvergiert, wenn sich der externe Einfluss nicht mehr ändert. Wir demonstrieren die Wirksamkeit der sich entwickelnden Teleportation im Wikipedia-Graphen und im sozialen Netzwerk Twitter. Das externe Interesse ergibt sich aus der Anzahl der stündlichen Besucher jeder Seite und der Anzahl der monatlichen Tweets pro Benutzer.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30541-2_10 65c2118f7c7650d6abed246d4910b50b;de;;;7.3.;;;Argumentation basierend auf dem verteilten Informationen im Web können entweder global innerhalb des Webs in mehreren Schichten über die Infrastruktur von Webprotokollen verteilt werden oder sich lokal in portalzentrierten Webdiensten (dh dem Anbieter intelligenter Dienste) befinden, die in einen eigenen Cluster spezialisierter intelligenter Dienste integriert sind Anwendungen. Jeder Ansatz hat jedoch einen schwerwiegenden Fehler. Wir schlagen die verteilte vor;-;-;-;https://link.springer.com/chapter/10.1007/11563952_40 2be1f21f85d25f7c9dd1dc713fa2544e;de;;;7.3.;;;Website-Bewertung und -Verbesserung basierend auf der Hyperlink-Struktur Dieses Dokument beschreibt eine Methode zur Bewertung und Verbesserung von Websites, die automatisch vorschlägt, wie die Website basierend auf einer Hyperlink-Struktur verbessert werden kann. Zuerst zeigt uns eine Website-Visualisierung unter Verwendung des dreidimensionalen hyperbolischen Baums eine Karte der Website. Auf diese Weise können wir die Gesamtstruktur der Website verstehen und erkennen, wo Informationen konzentriert sind oder fehlen. Beim Visualisieren der Website erfolgt die Websitebewertung unter sechs Gesichtspunkten durch Analysieren aller Beschreibungen von Homepages, die in der Website enthalten sind. Das Bewertungsergebnis wird dann als Radardiagramm ausgedrückt. Darüber hinaus werden einige Merkmale von Branches, die einige Homepages in einer unteren Schicht enthalten, mithilfe einer maschinellen Lerntechnik extrahiert. Wenn kein Merkmal extrahiert wird, können wir verstehen, dass die Informationen in der unteren Schicht des Zweigs nicht gut organisiert sind. Im Gegensatz dazu werden Zweige mit gleichen Merkmalen durch einen zusätzlichen Hyperlink zusammengefasst. Das Extrahieren von Merkmalen jeder Verzweigung in einer Website ergibt automatisch Vorschläge zur Verbesserung der Hyperlinkstruktur.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45650-3_36 aa07e03f981885fa9f9fe9a32ccb6e92;de;;;7.3.;;;Ein Echtzeit-Erkennungssystem für benannte Entitäten für das arabische Text-Mining Arabisch ist die am weitesten verbreitete Sprache in der arabischen Welt. Die meisten Menschen der islamischen Welt verstehen die klassische arabische Sprache, weil es die Sprache des Korans ist. Obwohl in den letzten zehn Jahren die Zahl der arabischen Internetnutzer (Naher Osten und Nord- und Ostafrika) erheblich zugenommen hat, sind Systeme zur automatischen Analyse arabischer digitaler Ressourcen nicht so einfach verfügbar wie für Englisch. Daher wird in dieser Arbeit der Versuch unternommen, ein Echtzeit-Erkennungssystem für benannte Entitäten aufzubauen, das in Webanwendungen verwendet werden kann, um das Auftreten bestimmter benannter Entitäten und Ereignisse in Nachrichten auf Arabisch zu erkennen. Arabisch ist eine stark flektierende Sprache, daher werden wir versuchen, den Einfluss arabischer Affixe auf die Qualität des Mustererkennungsmodells zu minimieren, das zur Identifizierung benannter Entitäten verwendet wird. Diese Muster werden durch die Verarbeitung und Integration verschiedener Gazetteer von DBPedia (;-;-;-;https://link.springer.com/article/10.1007/s10579-011-9146-z 76b262117c819ce67a0c7a4b6ce7d957;de;;;7.3.;;;GTE-Cluster: Eine zeitliche Suchschnittstelle für implizite zeitliche Abfragen In diesem Beitrag stellen wir GTE-Cluster eine zeitliche Online-Suchschnittstelle vor, die eine konsistente Suche nach Themen in einer zeitlichen Perspektive ermöglicht, indem relevante zeitliche Websuchergebnisse geclustert werden. GTE-Cluster wurde entwickelt, um die Benutzererfahrung durch Erweiterung zu verbessern;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06028-6_94 eefa17f60c97b0281420c72a07388f50;de;;;7.3.;;;Ein chinesischer Webseiten-Clustering-Algorithmus basierend auf dem Suffix-Baum In diesem Beitrag wird ein verbesserter Algorithmus namens STC-I für das Clustering chinesischer Webseiten basierend auf chinesischen Sprachmerkmalen vorgeschlagen, der ein neues Prinzip der Einheitenauswahl und eine neuartige Suffix-Baum-Konstruktion anwendet. Die experimentellen Ergebnisse zeigen, dass der neue Algorithmus die Vorteile von STC beibehält und besser als STC in Präzision und Geschwindigkeit ist, wenn er zum Clustern chinesischer Webseiten verwendet wird.;-;-;-;https://link.springer.com/article/10.1007/BF02831687 7b3344da6ff37d013bfec5f5fd2969e9;de;;;7.3.;;;Erweitern der Servicebereitstellung mit Lightweight Composition Der tertiäre Sektor ist ein wichtiger Arbeitgeber und wächst weit über dem Durchschnitt. Ziel des Texo-Projekts ist es, diese Entwicklung zu unterstützen, indem Dienstleistungen handelbar gemacht werden. Die Zusammenstellung neuer oder Mehrwertdienste ist ein Eckpfeiler der vorgeschlagenen Architektur. Es soll jedoch der Bauzeit Rechnung getragen werden. Zur Laufzeit können jedoch unvorhergesehene Ausnahmen auftreten und die Anforderungen der Benutzer können sich ändern. Unterschiedliche Umstände erfordern ein sofortiges Erfassen des Kontexts der Situation und erfordern eine zeitnahe Erweiterung bestehender Dienste. Die vom RoofTop-Projekt bereitgestellte Lightweight-Composition-Technologie ermöglicht es Domänenexperten, ohne umfangreiche Methodenkenntnisse einfache Widget-ähnliche Anwendungen, auch Enterprise-Mashups genannt, zu erstellen. Auf diese Weise kann RoofTop die Idee der Servicebereitstellung über die Texo-Plattform unterstützen und erweitern und ist ein weiterer Schritt in Richtung eines Internet of Services der nächsten Generation.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85200-1_19 950a4532aa0d696434039d4b655d1598;de;;;7.3.;;;Ranking von Personen basierend auf der Metadatenanalyse von Suchergebnissen Die Personensuche ist eine der beliebtesten Sucharten im Web. Die meisten herkömmlichen Technologien zur Personensuche konzentrierten sich darauf, den Personennamen einer bestimmten Person (d. h. Referenten) zuzuordnen. Im Gegensatz dazu schlagen wir in diesem Artikel ein neuartiges Ranking-Maß namens Berühmtheit für die Personensuche vor. Wir verwenden den Begriff der Berühmtheit, um Personen nach ihrem Bekanntheitsgrad einzustufen. Intuitiv wird der Bekanntheitsgrad berechnet, indem die Metadaten der Suchergebnisse analysiert werden, die von einer Suchmaschine zurückgegeben werden. Die in unserer Methode verwendeten Metadaten umfassen URL, Snippet und die Anzahl der Suchergebnisse. Um den Bekanntheitsgrad einer Person zu berechnen, gruppieren wir zunächst die Suchergebnisse mithilfe ihrer Metadaten. Zweitens berechnen wir die Abweichungen in der Größe und Anzahl solcher Cluster. Wenn die zugehörigen Webseiten einer Person in viele große Cluster ähnlicher Größe gruppiert werden können, sieht es so aus, als ob diese Person auf vielen Webseiten aus verschiedenen Domänen erwähnt wurde und sie/er bekannt ist. Darüber hinaus vergleichen wir die Cluster der Suchergebnisse mit denen anderer Personen. Personen mit mehr und größeren Clustern erhalten höhere Bekanntheitswerte. Wir zeigen auch experimentelle Ergebnisse, um die Ranking-Methode basierend auf dem Berühmtheits-Score zu validieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85200-1_7 e23ac39e27219fd7f2bbfe539b89ef23;de;;;7.3.;;;Ein effizienter Microblog-Algorithmus zur Erkennung aktueller Themen basierend auf zweistufigem Clustering Microblog zeichnet sich durch kurze Länge, komplexe Struktur und Wortverformung aus. In diesem Beitrag wird ein zweistufiger Clustering-Algorithmus basierend auf probabilistischer latenter semantischer Analyse (pLSA) und K-Means-Clustering (K-Means) vorgeschlagen. Außerdem werden in diesem Beitrag auch die Definition der Popularität und der Sortiermechanismus der Themen vorgestellt. Experimente zeigen, dass unsere Methode Themen effektiv clustern und auf die Erkennung heißer Themen in Microblogs anwenden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44980-6_10 1e939aa8016b563b9a71590b866ba782;de;;;7.3.;;;Aufklärung bevorstehender Verkehrsprobleme im Cloud Computing Cloud Computing gilt allgemein als die begabteste technologische Revolution im Computing und wird bald zum Industriestandard werden. Es wird davon ausgegangen, dass die Cloud das traditionelle Office-Setup ersetzen wird. Allerdings besteht ein großes Fragezeichen über die Netzwerkleistung, wenn der Cloud-Traffic explodiert. Wir nennen es „Explosion“, da wir wissen, dass in Zukunft verschiedene Cloud-Dienste, die Desktop Computing ersetzen, über die Cloud zugegriffen werden und der Datenverkehr exponentiell ansteigt. Dieses Papier zielt darauf ab, einige dieser Zweifel, besser als „Gefahren“ bezeichnet, in Bezug auf die Netzwerkleistung auszuräumen, wenn die Cloud weltweit zum Standard wird. Unsere Studie konzentriert sich darauf, dass die Cloud trotz besserer Round-Trip-Zeiten und Durchsätze ständig große Datenmengen zu verlieren scheint, die sie an die Clients senden muss. In diesem Beitrag geben wir zunächst einen kompakten Überblick über die Forschungsanstrengungen in diesem Bereich. Unsere Umfrageergebnisse zeigen, dass sich die Netzwerkforschungsgemeinschaft zu dem gemeinsamen Verständnis entwickelt hat, dass eine Messinfrastruktur für den optimalen Betrieb und das zukünftige Wachstum der Cloud nicht ausreicht. Trotz vieler Vorschläge aus der Forschung zum Aufbau einer Netzmessinfrastruktur glauben wir, dass eine solche Infrastruktur aufgrund der Größe und Komplexität des Netzes in naher Zukunft nicht vollständig eingerichtet und betriebsbereit sein wird. Wir untersuchen dieses Problem und bieten Schlussfolgerungen an, die dieses unberechenbare Verhalten erklären könnten. Wir schlagen auch eine Reihe von Technologien vor, um Cloud-Datenverkehr mithilfe des IP-Header-DS-Felds, QoS-Protokollen und einiger Hochgeschwindigkeits-Edge-Router zu identifizieren und zu verwalten. Unsere Lösungen gehen davon aus, dass die Cloud über ein einfaches öffentliches Netzwerk bewertet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14493-6_8 fb42dfe66d8229c1b2bf2880cf46e012;de;;;7.3.;;;Enterprise Web Services und Elemente menschlicher Interaktionen Wir stellen Richtlinien zur Verbesserung der Interaktivität zwischen Webdiensten und menschlichen Benutzern vor. Die Leitlinien plädieren dafür, die wesentlichen Merkmale menschlichen Verhaltens in elektronischen Umgebungen auf die Interaktionen zwischen Mensch und Dienst abzustimmen. Die Studie untersucht die Interaktionen von Wissensarbeitern auf einem großen Unternehmens-Intranetportal und leitet relevante Implikationen für Webdienste ab. Die Ergebnisse zeigen, dass effektive menschliche Interaktionen mit Webdiensten im Durchschnitt nicht mehr als fünf Benutzeraktionen erfordern sollten. Aktive Interaktionen sollten eine Dynamik im Sekundenbereich aufweisen und passive Interaktionen sollten nicht mehr als sieben Minuten menschlicher Aufmerksamkeit erfordern. Komplexe Geschäftsprozesse sollten über logische Kompakte interaktiver Teilprozesse segmentiert und implementiert werden. Die Anzahl der Teilprozesse sollte drei nicht überschreiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79396-0_23 b3954d2b64f1b09e3f4fd3485611f0a0;de;;;7.3.;;;Ein webbasiertes System, das den verteilten Zugriff und die intelligente Verarbeitung von Bioinformatikdaten in Grid-Umgebungen ermöglicht Dieser Beitrag stellt ein webbasiertes Portal vor, das eine intelligente Verarbeitung biologischer Daten in Grid-Umgebungen ermöglicht. Die eingesetzte Software zielt auf die Erstellung von Werkzeugen zur Verarbeitung von Daten aus Microarray-Experimenten über die Hellenic Grid-Infrastruktur ab. Der Schwerpunkt liegt auf Benutzerschnittstellen- und Zugriffsproblemen, während das Papier auch das Datenparsing und die Parallelisierung der Mikroarray-Datenverarbeitung beschreibt. Die Beschreibung des Systems richtet sich an Grid-Entwickler und -Anwender, da sie sich auf die Anpassung und Nutzung der Microarray-Anwendungen über das Grid konzentriert. Neben der Unterstützung der leistungsstarken und wirtschaftlichen Durchführung von Mikroarray-Experimenten ist das vorgeschlagene System bestrebt, Zugang zu einem verteilten Repository von Experimentinformationen und Ergebnissen bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-74161-1_13 6462d75c55d336dfd1afdc6b1116a619;de;;;7.3.;;;Messung der Aufmerksamkeitsintensität auf Webseiten basierend auf der Spezifität von Social Tags Social Bookmarks werden verwendet, um Webseiten zu finden, die viel Aufmerksamkeit auf sich ziehen. Die Tendenz der Seiten, Lesezeichen zu sammeln, unterscheidet sich jedoch je nach Thema. Daher kann die Anzahl der Lesezeichen verwendet werden, um die Aufmerksamkeitsintensität für Seiten zu ermitteln, sie kann jedoch nicht als Maß für die Intensität selbst verwendet werden. Wir definieren die relative Menge an Social Bookmarks (RQS) zur Messung der Aufmerksamkeitsintensität einer Webseite. Der RQS wird anhand der Anzahl der Social Bookmarks verwandter Seiten berechnet. Verwandte Seiten werden anhand der Ähnlichkeit basierend auf der Spezifität der sozialen Tags gefunden. Wir definieren zwei Arten von Spezifität, lokale Spezifität, die die Spezifität für einen Benutzer ist, und globale, die in einem sozialen Lesezeichendienst üblich ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14589-6_27 b926632ba625ae24ca70eb922996feac;de;;;7.3.;;;Vertrauensberechnung Das Semantic Web wird im Allgemeinen als eine riesige Sammlung von in Dokumenten eingebettetem Wissen betrachtet, die es für Agenten, die diesen Raum durchqueren, sehr unwahrscheinlich macht, direkt zu wissen, mit welcher Entität, Person oder Organisation sie zu tun haben. In einer solchen Umgebung wird die explizite Darstellung von Vertrauen ein wesentlicher Bestandteil der Berechnung, ob ein Agent fremde Quellen glauben und verwenden (oder wiederverwenden) kann. Eine Schlüsselaktivität in diesem Prozess ist die Integration der Ontologie eines Agenten mit der eines anderen im Web gefundenen Dokuments. Um die Berechnung von Vertrauenswerten für diesen Zweck zu unterstützen, bietet Riposte eine Reihe von Vertrauensmodellen und Vertrauensmanipulationsalgorithmen, um ein dynamisches Modell des Autorenvertrauens basierend auf der Arbeit zu erstellen, die einem Agenten bereitgestellt wird. Riposte ist ein Ontologie-Integrationstool, das Vorschläge verwendet und Vertrauen darauf aufbaut, ob ein Objekt in der bereitgestellten Ontologie aktuelle Überzeugungen bestätigt oder widerlegt. Dem Autor kann ein anfänglicher Vertrauenswert zugewiesen werden, und dieser Wert wird nach dem Integrationsprozess neu berechnet.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-44641-7_12 edd9d65400dce0173149afe79495061a;de;;;7.3.;;;Usability-Reporting mit UsabML Usability-Praktiker führen formative Evaluierungen durch, wie z. B. heuristische Evaluierungen und Think-Aute-Tests, um potenzielle Probleme in einer Benutzeroberfläche als Teil des iterativen Designzyklus zu identifizieren. Die Ergebnisse einer formativen Evaluation (im Wesentlichen eine Liste potenzieller Probleme) werden in der Regel in schriftlichen Berichten zusammengefasst und in der Regel als PDF- oder Word-Dokument geliefert. Ein schriftlicher Bericht ist bequem zu lesen, erschwert jedoch die elektronische Wiederverwendung der Ergebnisse. Die Usability Markup Language (UsabML) definiert ein strukturiertes Berichtsformat für die Ergebnisse von Usability-Bewertungen. In der agilen Softwareentwicklung kann die direkte Übergabe von Usability-Erkenntnissen an Softwareingenieure Entwicklungszyklen beschleunigen und die Softwarequalität verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34347-6_26 3b9c704eacbcb0cf990e6c532440adc2;de;;;7.3.;;;IT-Sicherheitsbereitschaft in Entwicklungsländern So wie Computer- und Netzwerksicherheit immer mehr zu einem globalen Anliegen für Unternehmen, Regierungsbehörden, Hochschulen und sogar für den privaten Gebrauch durch Privatpersonen wird, gibt es in einigen Teilen der Welt dennoch einige Menschen, die nicht einmal über die Existenz eines solchen Problems informiert sind . Konkret leben diese Menschen in Entwicklungsländern. Tansania ist ein typisches Beispiel für Länder, in denen IT-Sicherheitsfragen nicht ausreichend berücksichtigt wurden. Dies wurde im Herbst 2001 in den Kursen und Seminaren zum Thema IT-Sicherheit in Tansania deutlich. In diesem Beitrag werden zunächst die Hintergründe und die aktuelle Situation von IT und Konnektivität im Land beschrieben, gefolgt von einer zusammenfassenden Diskussion der Bewertungen von der Kurs und die Seminare. Dann werden wir einige der wenigen tödlichen Fälle von Computersicherheitsverletzungen im Land anführen. Schließlich werden wir besprechen, was unser nächster Schritt in Richtung eines Versuchs ist, das Problem zu lösen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35694-5_12 edbe731b7c0a51e458597134c8dd3bc2;de;;;7.3.;;;Eine logische Darstellung arabischer Fragen zur automatischen Extraktion von Passagen aus dem Web Mit dem wachsenden Wachstum arabischer elektronischer Daten im Web wird das Extrahieren von Informationen, die eigentlich eine der größten Herausforderungen bei der Beantwortung von Fragen darstellen, im Wesentlichen zum Aufbau von Dokumenten verwendet. Tatsächlich ist der Aufbau eines Korpus ein Forschungsthema, das derzeit neben einigen anderen wichtigen Themen von Konferenzen in der Verarbeitung natürlicher Sprache (NLP) wie Information Retrieval (IR), Fragenbeantwortung (QA), automatische Zusammenfassung ( AS) usw. Im Allgemeinen stellt ein Frage-Antwort-System verschiedene Passagen bereit, um die Benutzerfragen zu beantworten. Um diese Passagen wirklich informativ zu gestalten, benötigt dieses System Zugriff auf eine zugrundeliegende Wissensbasis, dies erfordert den Aufbau eines Korpus. Das Ziel unserer Forschung ist es, ein arabisches Frage-Antwort-System aufzubauen. Darüber hinaus muss die Analyse der Frage der erste Schritt sein. Als nächstes ist es wichtig, eine Passage aus dem Internet abzurufen, die als angemessene Antwort dienen kann. In diesem Papier schlagen wir eine Methode vor, um die Frage zu analysieren und die Antwort der Passage in der arabischen Sprache abzurufen. Für die Fragenanalyse werden fünf sachliche Fragetypen verarbeitet. Darüber hinaus ist es unser Ziel, mit der Erzeugung einer logischen Darstellung aus der deklarativen Form jeder Frage zu experimentieren. Mehrere Studien, die sich mit logischen Ansätzen bei der Frage-Beantwortung befassen, werden in anderen Sprachen als der arabischen Sprache diskutiert. Diese Darstellung ist sehr vielversprechend, weil sie uns später bei der Auswahl einer berechtigten Antwort hilft. Die Genauigkeit der Fragen, die richtig analysiert und in die logische Form übersetzt wurden, erreichte 64%. Und dann erreichten die Ergebnisse der automatisch generierten Textpassagen eine Punktzahl von 87% für Genauigkeit und eine Punktzahl von 98% für c@1.;-;-;-;https://link.springer.com/article/10.1007/s10772-017-9411-7 59db167425431221ebf8537b244f6771;de;;;7.3.;;;Zuordnung von Cyber-Angriffen auf Prozessleitsysteme Die Zuordnung von Cyberangriffen ist ein wichtiges Problem. Die Zuordnung gibt Eigentümern und Betreibern von Assets kritischer Infrastrukturen im Falle von Angriffen rechtliche Möglichkeiten und schreckt potenzielle Angriffe ab. In diesem Beitrag werden Attributionstechniken sowie die damit verbundenen rechtlichen und technischen Herausforderungen diskutiert. Sie stellt einen Vorschlag für ein freiwilliges Netzwerk zuordenbarer Aktivitäten vor, ein wichtiger erster Schritt hin zu einer umfassenderen Attributionsmethodik für die Kontrollsystemgemeinschaft.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-88523-0_7 e14288f34da47a2a2dfd5b4eb928fc27;de;;;7.3.;;;Methode der Deep-Web-Sammlung für den Mobile Application Store basierend auf der Suche nach Kategorie-Schlüsselwörtern Mit der rasanten Entwicklung des mobilen Internets ist das mobile Internet in das Zeitalter von Big Data eingetreten. Die Nachfrage nach Datenanalysen von mobilen Anwendungen ist immer offensichtlicher geworden, was höhere Anforderungen an den Standard der Informationserfassung mobiler Anwendungen stellt. Aufgrund der großen Anzahl von Anwendungen zeigen fast alle App-Stores von Drittanbietern nur eine geringe Anzahl von Anwendungen an, und die meisten Informationen sind in der Deep Web-Datenbank hinter dem Abfrageformular versteckt. Die vorhandene Crawler-Strategie kann die Nachfrage nicht decken. Um die oben genannten Probleme zu lösen, schlägt dieses Papier eine Sammlungsmethode basierend auf Kategorie-Schlüsselwörtern vor, um die Crawling-Rate und die Integrität der Informationssammlung der mobilen App-Stores zu verbessern. Rufen Sie zunächst mithilfe des vertikalen Crawlers Informationen zu Anwendungsschnittstellen ab, die verschiedene Arten von Anwendungen umfassen. Extrahieren Sie dann die Schlüsselwörter, die jede Anwendungskategorie repräsentieren, durch den TF-IDF-Algorithmus aus den Anwendungsnamen und Beschreibungsinformationen. Schließlich wird inkrementelles Crawling unter Verwendung einer auf Schlüsselwortabfragen basierenden Erfassungsmethode durchgeführt. Die Ergebnisse zeigen, dass diese Erhebungsmethode die Informationsintegrität und die Erfassungseffizienz effektiv fördert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-24907-6_25 f3d9b05be823f31f608c43dcb44d1c43;de;;;7.3.;;;Mentor: Positive DNS-Reputation, um gutartige Domains in Botnet-C&C-Blacklists abzuschöpfen Das Domain Name System (DNS) ist ein wesentlicher Infrastrukturdienst im Internet. Es bietet eine weltweite Zuordnung zwischen leicht zu merkenden Domainnamen und numerischen IP-Adressen. Heutzutage verwenden legitime Benutzer und bösartige Anwendungen diesen Dienst, um Inhalte im Internet zu finden. Botnets verlassen sich jedoch zunehmend auf DNS, um sich mit ihren Befehls- und Kontrollservern zu verbinden. Ein weit verbreiteter Ansatz zur Erkennung von Bot-Infektionen in Unternehmensnetzwerken besteht darin, den DNS-Datenverkehr mithilfe von Domänen-C&C-Blacklists zu überprüfen. Diese werden mit einer Vielzahl von Techniken erstellt, darunter passive DNS-Analyse, Malware-Sandboxing und Webinhaltsfilterung. Die Verwendung von DNS zur Erkennung von Botnets ist immer noch ein fehleranfälliger Prozess, und aktuelle Algorithmen zur Erstellung von Blacklists fügen häufig harmlose Domänen hinzu, die während der Erkennung zu einer großen Anzahl von falsch positiven Ergebnissen führen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55415-5_1 c69ba652ab017182079791d9f38d0b34;de;;;7.3.;;;Elektronische XML-Signaturen Der Einsatz elektronischer Signaturen wird immer wichtiger, da ein zunehmender Teil der Geschäftstransaktionen über elektronische Kanäle wie das World Wide Web abgewickelt wird, da sie Integrität, Signatursicherheit und Nichtabstreitbarkeit elektronischer Daten erleichtern. Extensible Markup Language (XML) ist als generische Sprache zum Entwerfen elektronischer Dokumente, die zum Austausch von Daten zwischen verschiedenen Anwendungen verwendet werden, weithin akzeptiert. Im Juni 1999 hat das World Wide Web Consortium (W3C) zusammen mit der Internet Engineering Task Force (IETF) die Arbeitsgruppe XML-Signature gegründet. Die vorgeschlagene Arbeit wird sich mit der digitalen Signatur von Dokumenten mit XML-Syntax befassen. Im Herbst 2000 erreichte der Standardentwurf „XML-Signatur-Syntax und -Verarbeitung“ das Stadium der Kandidatenempfehlung und erscheint als ziemlich stabile Spezifikation. Dieses Papier präsentiert ausgewählte Themen, die im Entwurf behandelt werden, die ich für interessant halte für Personen, die mit anderen Signaturprotokollen wie der Kryptografischen Nachrichtensyntax vertraut sind, aber nur begrenzte Kenntnisse der XML-Domäne haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35413-2_2 1349331923431848e4adc997c8a8cc3b;de;;;7.3.;;;Ein internetbasierter Ansatz zur Erfassung und Wiederverwendung von Wissen im Design Designer in modernen Designumgebungen sind mit mehreren Belastungen konfrontiert. Sie sehen sich mit steigenden Anforderungen konfrontiert, Entwicklungskosten zu reduzieren, Time-to-Market-Perioden zu verkürzen und gleichzeitig die Gesamtqualität des Produkts zu verbessern, was unweigerlich zu einer Erhöhung der Komplexität von Designprojekten führt. Um diesen und anderen Belastungen gerecht zu werden, verlassen sich Designer heute auf große Mengen an Wissen, um ihre Designaufgaben zu unterstützen. Dieses Wissen muss in einem Format vorliegen, das der Designer leicht finden, abrufen, verwenden und wiederverwenden kann. Zu diesem Zweck beschreibt dieses Papier einen praktischen Ansatz, der Methoden zum Erfassen, Speichern, Anwenden und Wiederverwenden von Wissen in Designaktivitäten erleichtert. Der Ansatz basiert auf einer „KI as Writing“-Metapher, die in eine internetbasierte „Wissensserver“-Architektur implementiert wurde. Die Implementierung WebCADET bietet effektive Mechanismen zur Erfassung, Nutzung und Wiederverwendung von Wissen in modernen konzeptionellen Aufgaben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0351-6_16 94e4f349028fcbd255a0be245ffabcad;de;;;7.3.;;;Gedanken zur Reform des Basketballunterrichts an Hochschulen und Universitäten vor dem Hintergrund von „Internet +“ Mit der Entwicklung der Internet-Technologie in China ist die Anwendung von „Internet +“ auf den Basketballunterricht an Hochschulen und Universitäten immer breiter geworden. Vor diesem Hintergrund analysierte diese Arbeit zunächst den Einfluss des Internets auf die Basketball-Lehrreform an Hochschulen und Universitäten, diskutierte dann die aktuelle Situation der Basketball-Lehre an Hochschulen und Universitäten, um so die Gegenmaßnahmen zur Basketball-Lehrreform an Hochschulen und Universitäten herauszufinden und zu verbessern die Qualität des Basketballunterrichts.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3250-4_136 8462e8fc2a884901054e0b55d42d3844;de;;;7.3.;;;Virtuelle Schulen Dieser Beitrag geht der Frage nach, ob „virtuelle“ Schulbildung ein realistisches Konzept ist und stellt sich der herausfordernden Frage, ob Computer Lehrer ersetzen werden. Es wird ein mögliches Szenario der zukünftigen Schulbildung beschrieben und wirtschaftliche, technologische und soziale Faktoren betrachtet, die einen solchen Wandel begünstigen oder behindern könnten. Jüngste Entwicklungen in der Videostreaming-Technologie werden untersucht und der Einsatz von Videostreaming-Technologie im Zusammenhang mit der Realisierbarkeit virtueller Schulkonzepte. Es werden Implikationen für Schüler, Lehrer und Lehrerausbilder in Bezug auf das Konzept der virtuellen Schule gezogen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35596-2_15 d38538ca2258e62a8fe4bd0c3caf0864;de;;;7.3.;;;Autonomes News-Clustering und -Klassifizierung für ein intelligentes Webportal Der Beitrag stellt ein autonomes Textklassifikationsmodul für ein Nachrichten-Webportal für die rumänische Sprache vor. Statistische Techniken der natürlichen Sprachverarbeitung werden kombiniert, um eine völlig autonome Funktionalität des Portals zu erreichen. Die Nachrichten werden automatisch aus einer großen Anzahl von Nachrichtenquellen mittels Web-Syndication gesammelt. Anschließend werden Techniken des maschinellen Lernens verwendet, um eine automatische Klassifizierung des Nachrichtenstroms zu erreichen. Zunächst werden die Artikel mit einem agglomerativen Algorithmus geclustert und die resultierenden Gruppen entsprechen den wichtigsten Nachrichtenthemen. So werden mehr Informationen zu jedem der Hauptthemen aus verschiedenen Nachrichtenquellen gewonnen. Zweitens werden Textklassifizierungsalgorithmen angewendet, um jede Gruppe von Nachrichtenartikeln automatisch in eine vorbestimmte Anzahl von Klassen zu kennzeichnen. Sowohl für die Schulung als auch für die Auswertung der Klassifikatoren wurden mehr als tausend Nachrichten verwendet. Das Papier präsentiert einen vollständigen Vergleich der Ergebnisse, die für jede Methode erhalten wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68123-6_52 2bf770bbfc183c4ede60c869f41eaefa;de;;;7.3.;;;Ein effizienter Ansatz zur Leistungssteigerung von m-Health mit Sensornetzen und Cloud-Technologien Mobile Gesundheitstechnologie hat große Aussichten, die Qualität der Gesundheitsversorgung zu verbessern, den Zugang zu Dienstleistungen zu erweitern, Kosten zu senken und das persönliche Wohlbefinden und die öffentliche Gesundheit zu verbessern. Die Online-M-Health-Überwachung und -Steuerung ist einer der vielversprechendsten Bereiche für mobile Computertechnologien. Das Online-Gesundheitsmanagement und die Online-Steuerung durch den Einsatz medizinischer Sensoren, Umweltsensoren, Clouds, Internet of Things (IoT) und Fuzzy-Logik-basierter Ansätze zur Herstellung einer unzerbrechlichen und endlosen Kommunikation zwischen medizinischem Fachpersonal und Patienten ist der Bedarf aktueller Krankenhäuser. Drahtlose medizinische Sensornetzwerke und Radiofrequenz-Identifikation sind sowohl in der Medizin- als auch in der Gesundheitsbranche weit verbreitet. Allerdings stellen mobile Gesundheitsüberwachungssysteme auch erhebliche Herausforderungen in Bezug auf Datenschutz und Sicherheit. Die experimentellen Ergebnisse der frühen Tage haben ein starkes Potenzial für den Einsatz von drahtlosen Sensornetzwerken (WSNs) empfohlen, bei denen kostengünstige medizinische Sensoren und Umweltsensoren zur Verbesserung der Qualität der Online-Patientendiagnose und der Gesundheitsüberwachung in den Krankenhäusern effizient eingesetzt werden können. Es ist äußerst wünschenswert, Ubiquitous Computing mit M-Health-Systemen zu verschmelzen und drahtlose medizinische Sensoren und Smartphones zu verwenden, um das Wohlbefinden chronischer Patienten kontinuierlich zu beobachten. Dabei kann die Überwachung von Patienten entweder mit Einwilligung des Patienten oder mit Einwilligung der Angehörigen des Patienten erfolgen. Mit tragbaren oder nicht tragbaren Sensoren können die Patienten überwacht und ihre Aktivitäten verfolgt werden. Die modernsten Fortschritte in der WSN-Technologie haben eine neue Dimension von Wireless Body Area Networks (WBAN) geschaffen, deren Integration mit dem m-Health-System eine neue Dimension eines patientenfreundlichen Online-Gesundheitsüberwachungs-, Beratungs- und Kontrollsystems schafft. Denn die von medizinischen Sensoren eines Patienten gewonnenen physiologischen Daten sind sehr aufnahmefähig. Daher ist die Wahrung der Vertraulichkeit der Patientendaten eine sehr verantwortungsvolle Aufgabe. Daher ist die Sicherheit ein wesentliches Forschungsanliegen von m-Health-Anwendungen, insbesondere für die Fälle, in denen Patienten an belastenden Krankheiten leiden. Die Gesundheitsdienste wurden mit Hilfe globaler Mobilfunksysteme und breiter Funkfrequenzdienste zu einem mobilen Gesundheitsdienst ausgebaut. In dieser Forschungsarbeit hat der Autor versucht, die Fragestellungen rund um mobile Gesundheitssysteme aufzugreifen und zu diskutieren und mit Sensoren, Clouds, Internet of Things (IoT) und Soft Computing Technologien geeignete Lösungen für diese Probleme zu finden. Im vorgeschlagenen m-Health-System wird ein zentraler Cloud-Server verwendet, der mit IoT- und Fuzzy-Set-basierten Technologien ausgestattet ist, um medizinische Sensordaten von Patienten auszulesen. Diese erhaltenen Daten werden weiter an mobile Anwendungen zum Senden von Alarm-SMS (Short Message Service) in regelmäßigen Abständen in Notfallsituationen übertragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37468-6_26 2f7cc4436df05b4557c669b7860e9075;de;;;7.3.;;;Persönliches Wissensmanagement auf Basis von Social Software Das Aufkommen der Informationstechnologie hat dem persönlichen Wissensmanagement eine mächtige Hand gegeben, so dass das persönliche Wissensmanagement bequemer und machbarer wird. Dieses Papier gab eine Zusammenfassung des persönlichen Wissensmanagements sowie sozialer Software, analysierte dann die Charakteristik der Anwendung von sozialer Software im persönlichen Wissensmanagement aus der expliziten und impliziten Wissensperspektive und gab schließlich ein Modell für die Anwendung von sozialer Software im persönlichen Wissensmanagement.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75494-9_42 f3c608c6da9e78553b19b97c9f4a18e4;de;;;7.3.;;;Schnittstellenstrategien für die Telerehabilitation zur Verbesserung des Zugangs zu Gesundheitsdiensten für Personen mit unterschiedlichen Fähigkeiten und Präferenzen Dieses Kapitel erweitert ein früheres Klassifikationsschema für Telebegegnungen mit dem Ziel, es auf menschliche Faktoren und Zugänglichkeitsanalysen von elektronischen und informationstechnischen Schnittstellen anzuwenden, die üblicherweise für Telerehabilitationsanwendungen verwendet werden. Es wird ein neuer Rahmen für die Entwicklung technischer Richtlinien für Teleschnittstellen vorgeschlagen, die zu einem gerechteren Zugang zu Telerehabilitationsdiensten (und allgemeiner zu Telegesundheitsdiensten) für Personen mit unterschiedlichen Fähigkeiten und Vorlieben führen würden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-4198-3_5 3c4e51d6926f403da7ec4eef61f1b988;de;;;7.3.;;;Adaptive Active Immune Policy für Sensorknoten im Internet der Dinge Das Internet der Dinge (IoT) ist ein allgegenwärtiges Netzwerk, das auf der Basis des traditionellen Internets gebildet wurde. Die Sensorschicht des IoT ist die Brücke zwischen der Informationswelt und der realen Welt. Die Sicherheit des Sensornetzwerks des IoT ist die primäre Grundlage für die Glaubwürdigkeit des IoT. Nur wenn die Sicherheit des Sensornetzwerks gewährleistet ist, kann die Sicherheit des IoT gewährleistet werden. Der bestehende Sicherheitsmechanismus basiert jedoch hauptsächlich auf passiver Verteidigung und kann auf viele unbekannte Sicherheitsbedrohungen nicht aktiv reagieren. Daher ist es notwendig, einen aktiven Immunitätsmechanismus zu untersuchen, der für IoT-Sensorknoten geeignet ist. Dieser Artikel wird hauptsächlich einen aktiven Immunmechanismus entwerfen, der die Sicherheitsanforderungen von IoT-Sensorknoten für die Sensorschicht des IoT erfüllen kann, und den relevanten Feedback-Mechanismus kombinieren, um die Glaubwürdigkeitsmessungsrichtlinie zwischen den Knoten in Echtzeit anzupassen, sodass der Mechanismus in Echtzeit an Umweltveränderungen angepasst. Auf diese Weise ist es proaktiver, die Sicherheit des Sensornetzwerks zu gewährleisten. Die Simulationsergebnisse zeigen, dass die Sicherheitsstrategie in diesem Dokument die Sicherheitsbedrohungen durch bösartige Knoten besser bewältigen kann als die herkömmliche Strategie, und die Reaktionszeit wird um etwa 50 % reduziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-78621-2_43 e62507bfd6b9ec8a0d0641fb3f0a6c83;de;;;7.3.;;;Der Lessons Learned-Zyklus Dieses Kapitel präsentiert einige Vorüberlegungen, wie Corporate Memories so organisiert werden sollten, dass sie maximal zur Wettbewerbsfähigkeit einer Organisation beitragen. Wir argumentieren, dass ein Unternehmensgedächtnis drei Arten des organisationalen Lernens unterstützen sollte, die beschrieben werden. Anschließend formulieren wir funktionale Anforderungen und präsentieren eine Architektur für Corporate Memorys, die diesen Anforderungen gerecht wird. Das Kapitel endet mit Hinweisen auf verwandte Arbeiten und zukünftige Forschungsfragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-03723-2_2 1b30cf9f35c861fdac7b02ad5e61222e;de;;;7.3.;;;Logisches Schema aus dem Web extrahieren Eine der Haupteinschränkungen beim Zugriff auf das Web ist das Fehlen einer expliziten Struktur, deren Vorhandensein zum Verständnis der Datensemantik beitragen kann. Schemas für Webdaten können auf verschiedenen Ebenen erstellt werden und eine einzelne Seite oder eine ganze Site oder Gruppe von Sites strukturieren. Hier stellen wir einen Ansatz vor, um einer Website ein logisches Schema zu geben, indem wir zunächst ein Modell für eine einzelne Seite definieren, deren Inhalt in „logische“ Abschnitte unterteilt ist, d. h. Teile einer Seite, die jeweils zugehörige Informationen sammeln. Dann führen wir ein Site-Modell ein, in dem sowohl physische als auch logische Links zwischen verschiedenen Seitenabschnitten dargestellt werden: physische sind vorhandene Hyperlinks, während logische Links Links zwischen Abschnitten sind, die semantisch verwandte Informationen enthalten. Wir zeigen, wie solche Links gefunden und nach ihrer Relevanz klassifiziert werden können, und zeigen auch, wie Schema in einem strukturbewussten Browser verwendet wird, um sowohl das Browsen als auch das Suchen zu verbessern.;-;-;-;https://link.springer.com/article/10.1023/A%3A1023206322783 e545e7fa8cc99696a07a07e8a7a8991f;de;;;7.3.;;;Datenschutz durch Rechenschaftspflicht: Eine Perspektive der Informatik Der Datenschutz ist in der modernen Gesellschaft zu einem wichtigen Anliegen geworden, da personenbezogene Daten über Einzelpersonen zunehmend von einer Vielzahl von Organisationen gesammelt, verwendet und weitergegeben werden, oft unter Verwendung digitaler Technologien. Um Datenschutzbedenken zu mindern, müssen Organisationen die Datenschutzgesetze in regulierten Sektoren (z Google und Facebook in Webdiensten). Dieser Artikel bietet einen Überblick über eine Reihe von Arbeiten zur Formalisierung und Durchsetzung von Datenschutzrichtlinien. Wir formalisieren Datenschutzrichtlinien, die vorschreiben und verbieten;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-04483-5_5 9ba70737b16ab9b4f709fd3bd0dac724;de;;;7.3.;;;Ein kontextsensitives Anpassungsmodell für effizientes Web-Browsing auf mobilen Geräten Eine mobile Umgebung zeichnet sich durch eine geringe Kommunikationsbandbreite und eine schlechte Konnektivität aus. Ein effizienter Webzugriff über ein drahtloses Netzwerk ist aufgrund der unterschiedlichen Eigenschaften verschiedener Geräte, die die drahtlose Umgebung bilden, und der nachteiligen Interaktionen zwischen HTTP, TCP und dem drahtlosen Netzwerk eine Herausforderung. Diese führen zu Problemen, die die vom Benutzer erlebte Leistung des Webs, auf das über das drahtlose Netzwerk zugegriffen wird, erheblich verschlechtern. Wir haben Techniken entwickelt, um den Webzugriff in einer mobilen Umgebung zu visualisieren – die Proxy-Agent Mobile Document Clustering Architecture (PMDC). Die PMDC-Architektur ermöglicht es den mobilen Benutzern, die Webstruktur zu visualisieren und durch diese zu navigieren, ohne alle zugehörigen Links auf einer Website herunterladen zu müssen. Das Proxy-Agent-Modell bietet Möglichkeiten zur Anpassung in einer mobilen Umgebung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10236-3_4 77f7abcf870ea264ba6460b2e8abccf0;de;;;7.3.;;;Computerkenntnisse und Nutzung offener Bildungsressourcen: Eine Studie von Universitätsstudenten in Hongkong Dieser Beitrag berichtet über eine vorläufige Studie zum Zusammenhang zwischen Computerkenntnissen und der Nutzung von Open Educational Resources (OER) von Universitätsstudenten in Hongkong. Es überprüft die technologische Infrastruktur und die staatliche Unterstützung zur Verbesserung der Computerkenntnisse der Schüler und die Entwicklung von Ressourcen in der Stadt und zeigt, dass Hongkong eine Grundlage für das Wachstum und die Blüte von OER gelegt hat. Durch die Berichterstattung über die Ergebnisse einer unter Universitätsstudenten durchgeführten Umfrage wird jedoch deutlich, dass die meisten Studenten trotz ihrer hohen Computerkenntnisse ein geringes Bewusstsein und nur begrenzte Erfahrung mit OER haben und nur mit wenigen gängigen Arten von Ressourcen konfrontiert waren . Die Beobachtungen erfordern weitere institutionelle und didaktische Unterstützung, um das Bewusstsein der Schüler für die verfügbaren Ressourcen und das Verständnis für deren richtige Verwendung zu stärken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46158-7_21 709943bc56f4173d38f99f461a02d8e7;de;;;7.3.;;;Servicequalität von Webportalen zur frühkindlichen Bildung in finnischen Gemeinden Immer mehr Regierungsorganisationen haben das Material auf ihren Websites umgewandelt, um Benutzern Informationen über ihre Produkte und Dienstleistungen bereitzustellen. In diesem Artikel wenden wir das Instrument von Yang et al. (2005) zur Analyse kommunaler Websites zur frühkindlichen Bildung (ECE) in Finnland an. Ziel der Studie war es, die Qualität von ECE-Webportalen zu ermitteln sowie Hinweise zur Wertsteigerung aus Nutzersicht zu geben. Im Allgemeinen scheinen die fünf Dimensionen Usability, Nützlichkeit von Inhalten, Angemessenheit von Informationen, Zugänglichkeit und Interaktion des Modells von Yang et al.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75494-9_46 463bf5451c608db50f1bfdd6a2f5fd9c;de;;;7.3.;;;Forensische Webdienste Choreographie, Orchestrierung und dynamische Aufrufe ermöglichen es, neue Webservices aus bestehenden zu komponieren. Diese Zusammensetzungen schaffen jedoch Dienstwechselabhängigkeiten, die für Finanzbetrug und andere illegale Zwecke missbraucht werden können. Wenn ein Missbrauch gemeldet wird, müssen Ermittler durch Sammlungen von Protokollen navigieren, um das Aufrufszenario neu zu erstellen, um die Missbrauchsansprüche zu bewerten. Wir schlagen die Erstellung forensischer Webdienste vor, die Transaktionsaufzeichnungen zwischen Webdiensten sicher verwalten können. Eine unabhängige Stelle könnte die gespeicherten Aufzeichnungen verwenden, um den vollständigen Transaktionsverlauf bei der Untersuchung eines Missbrauchsanspruchs zu reproduzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-84927-0_14 20ae0bc9b472e17398b0a56ba631222a;de;;;7.3.;;;Symbolerdung für das Semantic Web Ein echtes semantisches Datennetz erfordert eine dynamische Echtzeit-Interoperabilität zwischen unterschiedlichen Datenquellen, die von verschiedenen Organisationen auf unterschiedliche Weise für ihre eigenen spezifischen Zwecke entwickelt wurden. Ontologiesprachen bieten ein Mittel, um Datenelemente auf logisch gut definierte Weise miteinander in Beziehung zu setzen und komplexe logische Strukturen mit einer zugrunde liegenden formalen Semantik zu erzeugen. Während diese Strukturen eine logische formale Semantik haben, fehlt ihnen eine pragmatische Semantik, die sie auf systematische und eindeutige Weise mit den realen Entitäten, die sie repräsentieren, verbindet. Somit sind sie komplizierte Luftschlösser, die sicherlich über Verbindungswege verfügen, denen jedoch die soliden Grundlagen fehlen, die für eine robuste dynamische Echtzeitinteroperabilität zwischen Strukturen erforderlich sind, die in der Entwurfsphase nicht aufeinander abgebildet werden. Gegenwärtige Ontologie-Interoperabilitätsstrategien haben keinen solchen bedeutungsbasierten Vermittler und sind stattdessen auf menschliche Vermittlung oder heuristische Ansätze angewiesen. Dieser Beitrag stellt das Problem der Symbolerdung vor, erläutert seine Relevanz für das Semantic Web, veranschaulicht, wie eine unangemessene Korrespondenz zwischen Symbol und Referent zu logisch gültigen, aber bedeutungslosen Schlussfolgerungen führen kann, untersucht einige der Mängel des gegenwärtigen Ansatzes beim effektiven Umgang mit der Bedeutung , und schließt mit einigen Ideen für die Identifizierung effektiver Erdungsstrategien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72667-8_31 018ec282da9ca474ce8bd9e6ac14576a;de;;;7.3.;;;Nutzerbedürfnisse im E-Government: Durchführung von Richtlinienanalysen mit Modellen im Web In E-Government-Modellen im Web tauchen Designkonventionen auf, aber sie basieren nicht auf Beweisen für tatsächliche Was-wäre-wenn-Analysen von Analysten für Zwecke wie die Politikgestaltung. Aus Feldstudien entwickelten wir Darstellungen der tatsächlichen Arbeit von Politikanalysten und verglichen sie mit den angenommenen Zielen und Aufgaben, die in bestehende Online-Modelle eingebaut wurden, abgeleitet durch zielorientierte Anforderungsmethoden. Wir haben festgestellt, dass eine große Lücke besteht und argumentieren, dass aktuelle Online-Modelle verarmt sind, weil sie das Fachwissen ignorieren, das Benutzer in ihre Arbeit einbringen.;-;-;-;https://link.springer.com/chapter/10.1007/1-84628-249-7_9 08d1cb6a67adf9e7a8b36f307c59b1e7;de;;;7.3.;;;Gestaltung eines webbasierten Hochschulkurses mit einem modifizierten personalisierten Unterrichtssystem (PSI) Bei richtiger Planung und Berücksichtigung des Unterrichtsdesigns können webbasierte Kurse eine bequeme und lehrreiche Methode der Kursdurchführung bieten. Das PSI-Modell ist ein bewährtes Modell, das auf viele webbasierte Kurse angewendet werden kann;-;-;-;https://link.springer.com/article/10.1007/BF02818161 561667564162e1bb8bb89eba84c5999d;de;;;7.3.;;;Der aktive Ratgeber Das System wurde mit der Implementierung eines interaktiven Reiseführers evaluiert. Die Testdaten stammen aus bestehenden Webseiten, die die Stadt Cambridge in England beschreiben und mit räumlichen Informationen angereichert wurden. Ein GPS-System wird verwendet, um die Standard-Standortinformationen für den Abruf bereitzustellen, kann jedoch mit expliziten Koordinaten überschrieben werden.;-;-;-;https://link.springer.com/chapter/10.1007/0-306-47005-5_5 51640acf879e551087a59b93b4f9090d;de;;;7.3.;;;Minimales Parsing-Schlüsselkonzept-basiertes Frage-Antwort-System Die Homepage eines Unternehmens ist ein wirksames Mittel, um seine Produkte und Technologien zu präsentieren. Unternehmen investieren viel Aufwand, Zeit und Geld in die Gestaltung ihrer Webseiten, damit ihre Nutzer möglichst schnell und einfach auf die gesuchten Informationen zugreifen können. Trotz all dieser Bemühungen ist es nicht ungewöhnlich, dass ein Benutzer eine beträchtliche Zeit damit verbringt, die bestimmte Information, nach der er sucht, abzurufen. Heute muss er mehrere Hyperlink-Klicks durchlaufen oder manuell die von der Site-Suchmaschine angezeigten Seiten durchsuchen, um zu den gesuchten Informationen zu gelangen. Es wird viel Zeit verschwendet, wenn die erforderlichen Informationen auf dieser Website nicht vorhanden sind. Da Websites zunehmend als Informationsquelle über Unternehmen und deren Produkte genutzt werden, besteht Bedarf an einer komfortableren Benutzeroberfläche. In diesem Artikel diskutieren wir ein System, das auf einer Reihe von Natural Language Processing (NLP)-Techniken basiert und dieses Problem angeht. Das System ermöglicht es einem Benutzer, auf einer bestimmten Website in freiem, natürlichem Englisch nach Informationen zu fragen. Das NLP-basierte System ist in der Lage, auf die Anfrage zu antworten, indem es die Absicht der Anfrage „versteht“ und dieses Verständnis dann verwendet, um relevante Informationen aus seiner unstrukturierten Info-Datenbank oder strukturierten Datenbank abzurufen, um sie dem Benutzer zu präsentieren. Die Schnittstelle heißt UniqliQ, da sie es dem Benutzer vermeidet, sich durch mehrere verlinkte Seiten zu klicken. Der Kern von UniqliQ ist seine Fähigkeit, die Frage zu verstehen, ohne sie formal zu analysieren. Das System basiert darauf, Schlüsselkonzepte und Schlüsselwörter zu identifizieren und diese dann zum Abrufen von Informationen zu verwenden. Dieser Ansatz ermöglicht die Verwendung des UniqliQ-Frameworks für verschiedene Eingabesprachen mit minimalen Architekturänderungen. Ferner verleiht der Schlüsselkonzept-Schlüsselwort-Ansatz dem System die inhärente Fähigkeit, ungefähre Antworten zu liefern, falls die genauen Antworten nicht in der Informationsdatenbank vorhanden sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73110-8_12 df451fa9872fe0b8002d68c91f1c366f;de;;;7.3.;;;Erstellen von RESTful-Webdiensten Webdienste akzeptieren HTTP-Anforderungen und generieren Antworten, die Daten enthalten. In diesem Kapitel erkläre ich, wie die Funktionen von MVC Framework, das ein wesentlicher Bestandteil von ASP.NET Core ist, verwendet werden können, um auf den in Teil 2 beschriebenen Funktionen zum Erstellen von Webdiensten aufzubauen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-5440-0_19 653b4fbbf8d740e9afd3e2ee7b57be48;de;;;7.3.;;;Internetware: Ein aufstrebendes Software-Paradigma für Internet-Computing Das Internet durchläuft einen enormen Wandel hin zu einer globalisierten Computerumgebung. Aufgrund der offenen, dynamischen und unkontrollierbaren Natur des Internets weist Software, die in der Internet-Computing-Umgebung läuft, einige neue Funktionen auf, die aktuelle Softwaretechnologien in Bezug auf Softwaremodell, Softwarebetriebsplattform, Softwareentwicklungsansätze und Softwarequalität herausfordern. Forscher in China haben den Begriff „Internetware“ vorgeschlagen, um das aufkommende Software-Paradigma zu präsentieren. Gefördert durch das National Basic Research 973 Program wurden im letzten Jahrzehnt mehrere Forschungspraktiken zu Internetware durchgeführt. Dieses Papier fasst den Fortschritt und den Stand der Internetware-Forschungen zusammen. Ein technischer Lösungsrahmen für das Internetware-Paradigma wird unter vier Aspekten vorgeschlagen: Das Internetware-Softwaremodell definiert;-;-;-;https://link.springer.com/article/10.1007/s11390-011-1159-y e342707bb66af5203c8b8379d62317fe;de;;;7.3.;;;Crawlen und Extrahieren von Prozessdaten aus dem Web In diesem Beitrag beschäftigen wir uns mit dem Design und der Implementierung eines unterstützenden Systems für die prozessbasierte Suche. Dieses unterstützende System kann das Web effizient crawlen und Prozesse aus den erhaltenen Daten extrahieren. Die abgerufenen Prozesse können dann in einer prozessbasierten Suchmaschine (PBSE) verwendet werden. In dieser Arbeit wird ein Prozess als eine Abfolge von Aktivitäten zur Erreichung eines Ziels definiert. Ein PBSE verwendet die extrahierten Prozesse, um eine ursprüngliche Abfrage in mehrere Unterabfragen umzuwandeln, und führt dann eine Schlüsselwortsuche für jede transformierte Unterabfrage durch. Um eine effektive prozessbasierte Suche zu ermöglichen, ist eine Vielzahl qualitativ hochwertiger Prozesse erforderlich. Dieses Papier konzentriert sich darauf, wie man durch Erkunden des Webs effizient und effektiv eine Datenbank mit Prozessen erstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03348-3_55 f8c5c01d79711fc62517c97926faaae6;de;;;7.3.;;;Theoretisches und gestalterisches Framework des konstruktivistischen webbasierten Lernumgebungsmodells zur Problemlösung Der Zweck dieser Forschung war es, den theoretischen Rahmen einer konstruktivistischen webbasierten Lernumgebung zur Problemlösung zu synthetisieren. Die in der Studie verwendeten Zielgruppen waren 1) 3 Inhaltsexperten für die Bewertung der Inhalte 2) 3 Experten für die Bewertung der Lehrdesigner 3) Experten für die Bewertung des Lehrmedienexperten. 4) 3 Experten zur Evaluation der Sammelinstrumente und 5) 20 Studierende des regionalen Sonderschulzentrums 9, Khon Kaen in einem Kurs für geistige Behinderung im 2. Semester 2019. Die verwendeten Instrumente waren 1) Erhebungsbogen zum kontextuellen Lernen 2 ) Erhebungsformular für Schülercharakteristik und 3) das Aufnahmeformular zur Synthese des theoretischen Rahmens des konstruktivistischen webbasierten Lernumgebungsmodells zur Problemlösung. Zusammenfassung, Interpretation und analytische Beschreibung wurden verwendet, um die Daten zu analysieren. Das Ergebnis zeigte, dass: Theoretischer Rahmen der konstruktivistischen webbasierten Lernumgebung aus 5 Komponenten besteht: 1) Psychologische Basis 2) Pädagogische Basis 3) Problemlösungsbasis 4) Medientheorie und Technologiebasis 5) Kontextuelle Basis.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63885-6_53 3393ce7abc837c3e0b669d18c0a8ba96;de;;;7.3.;;;Extrahieren von Beziehungsinstanzen aus Webdokumenten mithilfe von Redundanz In diesem Dokument beschreiben wir unseren Ansatz für eine spezifische Teilaufgabe der Ontologie-Population, die Extraktion von Instanzen von Beziehungen. Wir präsentieren einen generischen Ansatz, mit dem wir Informationen aus Dokumenten im Web extrahieren können. Das Verfahren nutzt die Redundanz von Informationen, um Genauigkeitsverluste auszugleichen, die durch die Verwendung von domänenunabhängigen Extraktionsverfahren verursacht werden. In diesem Papier stellen wir den allgemeinen Ansatz vor und beschreiben unsere Implementierung für eine spezifische Aufgabe zur Extraktion von Beziehungsinstanzen im Kunstbereich. Für diese Aufgabe beschreiben wir Experimente, diskutieren Evaluationsmaßnahmen und präsentieren die Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/11762256_20 d5c636a0c11afb18ead6ab839e910263;de;;;7.3.;;;Web-Text-Clustering mit dynamischen Designs Die Forschung im Bereich Data Mining hat viele Technologien zum Herausfiltern nützlicher Informationen aus riesigen Datenmengen entwickelt, Dokumenten-Clustering ist eine der wichtigsten Technologien. Es gibt zwei Ansätze für das Clustering von Dokumenten: das Clustering mit Metadaten von Dokumenten und das andere das Clustering mit dem Inhalt von Dokumenten. Die meisten bisherigen Clustering-Ansätze mit Dokumenteninhalten, die sich auf die Dokumentenzusammenfassung (Zusammenfassung einzelner oder mehrerer Dateien) und die Wörter Vektoranalyse von Dokumenten konzentrierten, fanden die wenigen und wichtigen Schlüsselwörter für die Durchführung von Dokumentenclustern. In dieser Studie kategorisieren wir heiße Ware im Web und benennen sie dann entsprechend dem Webtext (Abstracts) dieser heißen Ware und ihrer Zugriffszeit. Zunächst wurde beim Parsen von chinesischem Webtext von Dokumenten auf heiße Ware der hierarchische agglomerative Clustering-Algorithmus-Ward-Verfahren angewendet, um die Eigenschaften von Wörtern in Themen zu analysieren und die Anzahl s von Themen zu bestimmen. Zweitens, Anwenden des Cross Collection Mixture Model, das beim Temporal Text Mining angewendet wurde, und der Zugriffszeiten (der Grad der Benutzeridentifikationswörter), um dynamische Themen zu sammeln, dann sammeln stabile Wörter nach Wahrscheinlichkeitsverteilung als Vektoren der Dokumentenclustering. Schätzen Sie drittens Parameter mit dem Algorithmus der Erwartungsmaximierung (EM). Wenden Sie schließlich K-Means mit extrahierten dynamischen Themen an, um die Funktionen des Dokumentenclusters zu sein. Diese Studie schlägt einen neuartigen Ansatz zum Clustering von Dokumenten vor und durch eine Reihe von Experimenten wurde bewiesen, dass der Algorithmus effektiv ist und die Genauigkeit der Clustering-Ergebnisse verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23982-3_16 dd09f8e363588a64f5cc95c139b712e4;de;;;7.3.;;;OP2A: So verbessern Sie die Qualität des Webportals von Open-Source-Softwareprodukten Open-Source-Software-Communitys (OSS) investieren nicht oft in Marketingstrategien, um ihre Produkte wettbewerbsfähig zu bewerben. Selbst die Homepages der Webportale bekannter OSS-Produkte zeigen technische Details und Details, die für eine schnelle und effektive Bewertung der Produkteigenschaften nicht relevant sind. Endbenutzer und sogar Entwickler, die daran interessiert sind, ein OSS-Produkt zu evaluieren und möglicherweise zu übernehmen, sind oft von der Qualitätswahrnehmung des Webportals des Produkts negativ beeindruckt und wenden sich proprietären Softwarelösungen zu oder setzen OSS nicht ein, die möglicherweise nützlich sein könnten bei ihren Aktivitäten. In diesem Papier definieren wir OP2A, ein Evaluierungsmodell, und leiten eine Checkliste ab, die OSS-Entwickler und Webmaster verwenden können, um ihre Webportale mit allen Inhalten zu gestalten (oder zu verbessern), die für OSS-Endbenutzer interessant sein sollen. Wir veranschaulichen die Verwendung des Modells, indem wir es auf das Apache Tomcat-Webportal anwenden, und wir wenden das Modell auf 47 Websites bekannter OSS-Produkte an, um die aktuellen Mängel aufzuzeigen, die diese Webportale charakterisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28082-5_11 028216023d747c1358e7fd18a8b7c371;de;;;7.3.;;;E-Services Interoperabilitätsanalyse und Roadmap-Aktionen e-Services sind die Bausteine ​​für lose gekoppelte, verteilte Anwendungen, die auf den Prinzipien der serviceorientierten Architektur basieren. Einer der Hauptvorteile, die sie bieten, ist die Interoperabilität sowohl zwischen Komponenten serviceorientierter Systeme als auch zwischen verschiedenen Systemen. Dennoch erschweren die Vielfalt und Vielfalt der Implementierungen und Interpretationen von SOA und die große Menge neuer Standards die Interoperabilität. In diesem Papier werden die Interoperabilitätsanforderungen und damit verbundene Probleme für jede der wichtigsten e-Services-Kategorien untersucht: Web-, Grid- und P2P-Services. Unser Ziel ist es, die Grundlage für eine Roadmap zur Verbesserung der Interoperabilität von e-Services zu schaffen, die die erfolgreiche Gestaltung servicebasierter verteilter Anwendungen ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-29360-4_48 9698c4932bbd22d6a5d56898e0e836e3;de;;;7.3.;;;Eine Studie über ein System zur Erkennung von Webdiensten basierend auf den Benutzerinformationen des Internets der Dinge IoT ist eine Technologie, die Dienste bereitstellt und Informationen teilt, indem reale Objekte über drahtlose und kabelgebundene Netzwerke verbunden werden. Verschiedene Dienste und Informationen, die durch IoT-basierte Umgebungsgeräte-Kooperation geteilt werden, erhöhen nicht nur die Lebensqualität des Einzelnen, sondern sind auch zu einem wichtigen Thema bei der Entwicklung verschiedener Industriebereiche geworden. Es ist eine IoT-Serviceentwicklung erforderlich, die für die jeweiligen Branchen und persönlichen Anforderungen geeignet ist. Diese Studie schlägt ein System vor, das bei der Auswahl des Dienstes eine für den Benutzer geeignete Webdienstliste bereitstellen kann, indem ein Konzept verwendet wird, bei dem verschiedene Formen von Informationen angewendet und gesammelt werden, die in der IoT-Umgebung während der Verwendung von Webdiensten erstellt werden. Die vorgeschlagene Methode wendet Benutzer-IoT-Informationen mit der traditionellen Webdienstsuche an, um die Vorteile der vorhandenen Suchmethoden und Dienste einzubeziehen, die der Benutzer benötigt. Somit wird eine benutzerfreundliche Dienstauswahl geschaffen, die die Effizienz der Dienstnutzung erhöhen kann, verglichen mit der traditionellen anbieterzentrierten Dienstbereitstellungsumgebung. Die Studie definiert nutzbare Serviceeigenschaften und leitet IoT-Servicekomponenten ab. Auf dieser Grundlage schlagen wir ein auf IoT-Informationen basierendes Webservice-Suchsystem und einen Algorithmus vor. Verschiedene Benutzerinformationsmodelle, die durch IoT Collector gesammelt und erstellt werden, werden während der Serviceauswahl mit Benutzeranforderungen versehen und basierend auf Benutzer-IoT-Informationen können nützliche Dienste für die individuelle Benutzerumgebung entdeckt und bereitgestellt werden. Das vorgeschlagene Verfahren verwendet Informationsmodelle, die durch IoT-Geräteelemente erstellt wurden, um ein Systemmodell vorzuschlagen, das für verschiedene Anforderungen und sich schnell ändernde Dienste verwendet werden kann.;-;-;-;https://link.springer.com/article/10.1007/s10586-017-0884-6 04218a658f9b220c42f99ef13c163ab4;de;;;7.3.;;;Die Problematik der Überwachung verteilter Systeme - Ein Beispiel: GeneSyS In diesem Kapitel wird die Problematik der verteilten Systemüberwachung anhand eines umfassenden Standes der Technik dargestellt. Die Probleme werden anhand einer Fallstudie über ein innovatives und generisches Überwachungstool, GeneSyS, veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-8159-6_5 306dd4dd5729665a1cd3993275b3e4a0;de;;;7.3.;;;4G LTE-Netzzugangssystem und Preismodell für IoT-MVNOs: Verbreitung des intelligenten Tourismus Ziel dieser Studie ist es, den Marktzugang durch Internet of Things (IoT) Mobile Virtual Network Operators (MVNOs) (im Folgenden „M2V“) zu erleichtern, um die IoT-Dienste bereitzustellen, die für die Implementierung eines fortschrittlicheren Smart Tourism im Tourismussektor erforderlich sind die nicht nur stark vom Internet, sondern auch von der Informations- und Kommunikationstechnologie (IKT) im Zeitalter der Netze der vierten Generation (4G) der langfristigen Evolution (LTE) beeinflusst wird. Die Studie brachte folgende Ergebnisse. Es etablierte ein 4G LTE netzbasiertes technologisches Zugangssystem, das weltweit kommerziell angeboten wird, und schlug Geschäftsmodelle vor, die ein vielfältiges Interworking zwischen Netz und System durch M2V-Zugang zu 4G LTE sowie das daraus resultierende Großhandelspreiskalkulationsmodell nach Bandbreite. Basierend auf dem Forschungsmodell ist zu erwarten, dass sowohl die koreanische Regierung als auch Regierungen anderer Länder den intelligenten Tourismus in Zukunft weiter vorantreiben werden, indem sie politische und institutionelle Unterstützungen implementieren, die darauf abzielen, dass 4G LTE-Netzwerk-basiertes M2V ein technologisches Zugangssystem realisieren kann, und indem M2V dazu gebracht wird, auf der Grundlage diversifizierter Geschäftsmodelle in die Tourismusbranche vorzudringen.;-;-;-;https://link.springer.com/article/10.1007/s11042-016-3369-3 ec8b678dc8a3d64b228f8b2896732259;de;;;7.3.;;;Ein Quanten-Router für das verstrickte Web Qubit-Übertragungsprotokolle sind derzeit Punkt-zu-Punkt und daher in ihrer Funktionalität eingeschränkt. Damit das Quanteninternet Wirklichkeit werden kann, ist ein Quantenrouter notwendig. Wir präsentieren ein auf Teleportation basierendes Quantenrouter-Design sowie Mechanismen für das Management von verschränkten Paaren. Der Prototyp wurde mit einem Quantensimulator validiert.;-;-;-;https://link.springer.com/article/10.1007/s10796-019-09955-5 131f8b5a64cb268492620f4fa8e3ccd4;de;;;7.3.;;;Extrahieren der Übersetzung von Anime-Titeln aus Webkorpora mit CRF Unbekannte Wörter, deren Übersetzung nicht in allgemeinen Wörterbüchern aufgeführt ist, waren ein Problem beim sprachübergreifenden Informationsabruf und der maschinellen Übersetzung. Da die neuen Begriffe nacheinander erstellt werden, ist es schwierig, alle diese Begriffe mit allgemeinen zweisprachigen Wörterbüchern abzudecken. Daher wurden Untersuchungen zur automatischen Extraktion von Übersetzungen für unbekannte Wörter durchgeführt, um ein zweisprachiges Wörterbuch mit geringen Kosten unter Verwendung von Webkorpora aufzubauen. In diesem Artikel konzentrieren wir uns auf Anime-Titel, die kommerziell wichtig sind, und schlagen eine Methode vor, um japanische Kandidatenübersetzungen zu extrahieren, die den englischen Anime-Titeln unter Verwendung von Conditional Random Fields (CRF) entsprechen. Wir haben Transliterationsfunktionen sowie Funktionen von Wortschatz, Wortarten usw. verwendet, weil wir uns darauf konzentriert haben, dass die japanischen Anime-Titel bei der Übersetzung ins Englische in vielen Fällen transkribiert wurden. Die Experimente wurden unter Verwendung von höchstens hundert Webseiten durchgeführt, die von der Suchmaschine gesammelt wurden, deren Abfragen japanisch-englische Anime-Titelpaare aus Wikipedia waren. Die Ergebnisse zeigten, dass die Anzahl der erworbenen Titel bei Verwendung der Transliterationsfunktionen signifikant anstieg.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11854-3_26 efcbf3e9494d4b89a7c6ac7bc1dfd12f;de;;;7.3.;;;Recherche von Webdokumenten-Clustering basierend auf einem dynamischen Konzept Konzeptuelles Clustering wird hauptsächlich verwendet, um den Mangel und die Unvollständigkeit von Domänenwissen zu beheben. Basierend auf der konzeptionellen Clustering-Technologie und mit dem Ziel des institutionellen Rahmens und der Charakteristik von Web-Themeninformationen schlägt und implementiert dieses Papier einen dynamischen konzeptionellen Clustering-Algorithmus und einen Merging-Algorithmus für Webdokumente und analysiert auch die Superleistung des Clustering-Algorithmus hinsichtlich Effizienz und Clustering-Genauigkeit.;-;-;-;https://link.springer.com/article/10.1007/BF02831639 244d034471cf1a5906c5e4e199bb0adf;de;;;7.3.;;;Fuzzy Multi-Label-Klassifizierung von Kundenbeschwerdeprotokollen in lauter Umgebung Das Analysieren und Verstehen von Kundenbeschwerden ist in fast allen Unternehmen zu einem wichtigen Thema geworden. Dabei kommt es unter anderem darauf an, die unterschiedlichen Ursachen der Beschwerden automatisch zu identifizieren und zu analysieren. Eine einzelne Beschwerde kann zu mehreren Beschwerdedomänen mit Fuzzy-Zuordnungen zu jeder der verschiedenen Domänen gehören. Daher sind Einzeletiketten- oder Mehrklassen-Klassifizierungstechniken möglicherweise nicht für die Klassifizierung solcher Beschwerdeprotokolle geeignet. In diesem Papier haben wir die Kundenbeschwerden einiger der führenden Telekommunikationsdienstleister in Indien analysiert und klassifiziert. Dementsprechend haben wir einen Fuzzy-Multi-Label-Textklassifizierungsansatz zusammen mit verschiedenen sprachunabhängigen statistischen Merkmalen gewählt, um das oben erwähnte Problem anzugehen. Unsere Auswertung zeigt, dass die Kombination der Eigenschaften von punktweiser gegenseitiger Information und Unigramm-Rückgabe das bestmögliche Ergebnis darstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-47160-0_34 7f61a0c9af91d5fd6a70386a7742e0a5;de;;;7.3.;;;Design und Implementierung eines virtuellen Computernetzwerklabors basierend auf NS2 im Internet In diesem Papier wurden das Entwurfsmodell und die Implementierungsmethode des virtuellen Computernetzwerks-Labors vorgeschlagen, das auf NS2 basiert. In diesem Lab wird der Client-Teil mit Java Applet implementiert, NS2 wird als Rechenplattform verwendet, Nam wird als Tool zur Anzeige im Client verwendet und Java RMI wird für die Kommunikation zwischen Server und Client verwendet. Die virtuellen Experimentiergeräte werden mit Java Bean implementiert. Der Server, der NS2 als Computerplattform verwendet, verfügt über leistungsstarke Simulationsfunktionen. Das webbasierte Labor für virtuelle Computernetzwerke bietet eine Plattform zwischen Benutzern und NS2, sodass Benutzer sich das Studium von NS2 ersparen. Benutzer können damit Netzwerksimulationsexperimente durchführen und das komplexe Verhalten in Computernetzwerken tiefgreifend verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27859-7_45 8044f3baf5905a99a4701f7f1b16e08a;de;;;7.3.;;;Verwendung von ImPACT zur Diagnose einer minimalen hepatischen Enzephalopathie: Eine genaue, praktische und benutzerfreundliche internetbasierte neuropsychologische Testbatterie Ein effektiver, benutzerfreundlicher neurokognitiver Test zur Diagnose einer minimalen hepatischen Enzephalopathie (MHE) ist erforderlich. Immediate Post-Concussion Assessment and Cognitive Testing (ImPACT) ist eine kurze, validierte, webbasierte, neuropsychologische Testbatterie, die zu vier zusammengesetzten Bewertungen führt [Verbales Gedächtnis (VrbM), Visuelles Gedächtnis, Visuelle Motorgeschwindigkeit (VMS), )]. Wir verglichen ImPACT mit herkömmlichen Papier-und-Bleistift-Tests bei Patienten mit MHE-Risiko im Vergleich zu Kontrollen.;-;-;-;https://link.springer.com/article/10.1007/s10620-013-2668-z 4dae6eb863d2aea093749149bd530ce7;de;;;7.3.;;;Clustering von Abfrageergebnissen durch Erweitern von SPARQL mit CLUSTER BY Die Aufgabe des dynamischen Clusterns der Suchergebnisse hat sich im Web-Kontext als sinnvoll erwiesen, wo der Benutzer die Granularität der Suchergebnisse oft nicht im Voraus kennt. Das Ziel dieses Papiers ist es, einen deklarativen Weg zum Aufrufen dynamischer Clustering der Ergebnisse von Abfragen bereitzustellen, die über Semantic Web-Daten gesendet werden. Um dieses Ziel zu erreichen, schlägt das Papier einen Ansatz vor, der SPARQL um Clustering-Fähigkeiten erweitert. Der Ansatz führt eine neue Anweisung, CLUSTER BY, in die SPARQL-Grammatik ein und schlägt Semantik für eine solche Erweiterung vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05290-3_101 2ac58cb9789bc37d4ef7b37be92ebca5;de;;;7.3.;;;SOAM: Ein Umgebungsanpassungsmodell für das Pervasive Semantic Web Heutzutage besteht ein großes Interesse an der Anwendung von Web- und Semantic-Web-Techniken zur Erstellung von Pervasive Computing-Szenarien, in denen Geräte und Objekte unter Verwendung dieser Technologien kommunizieren. Das Web-Modell hat sich sowohl in internetweiten als auch in Intranet-Szenarien weitgehend als gültig erwiesen, wird jedoch in Personal Area Networks als Kommunikations- und Wissensbegründungssystem eingesetzt.;-;-;-;https://link.springer.com/chapter/10.1007/11751632_12 6c3bc54a9ee571ff527116229f966335;de;;;7.3.;;;Ameisenkolonie-Metapher, die in der Empfehlung für die Benutzeroberfläche angewendet wird In diesem Artikel wird eine hybride Empfehlungsmethode für webbasierte Systembenutzerschnittstellen basierend auf der Ameisenkolonie-Metapher vorgestellt. Wir wenden die ontologiebasierte Benutzer- und Benutzeroberflächenmodellierung an. Das Benutzermodell wird als Tupel dargestellt und das Benutzerschnittstellenmodell wird durch eine Menge verbundener Knoten repräsentiert, was ein geeignetes Benutzerschnittstellendesign, eine Schnittstellenpersonalisierung und -empfehlung ermöglicht. Die Empfehlung wird unter Verwendung einer Ameisenkolonie-Metapher zur Auswahl des optimalsten Pfads in dem Benutzeroberflächengraphen durchgeführt, der die Benutzeroberflächenparameter für den angegebenen Benutzer spezifiziert.;-;-;-;https://link.springer.com/article/10.1007/s00354-008-0045-9 089db480df764da1499bf0052409c9af;de;;;7.3.;;;Web Opinion Mining und Sentimentalanalyse Web Opinion Mining (WOM) ist ein neues Konzept in Web Intelligence. Es umfasst das Problem der Extraktion, Analyse und Aggregation von Webdaten über Meinungen. Das Studium der Meinungen der Nutzer ist relevant, da durch sie festgestellt werden kann, wie Menschen über ein Produkt oder eine Dienstleistung denken und wie es vom Markt aufgenommen wurde. In diesem Kapitel geben wir einen Überblick darüber, was Opinion Mining ist, und geben einige Ansätze dazu. Außerdem unterscheiden und diskutieren wir vier Ressourcen, aus denen Meinungen extrahiert werden können, und analysieren jeweils die Hauptprobleme, die den Bergbauprozess verändern könnten. Ein letztes interessantes Thema im Zusammenhang mit WOM, das in diesem Kapitel diskutiert wird, ist die Zusammenfassung und Visualisierung der WOM-Ergebnisse. Wir halten diese Techniken für wichtig, da sie eine echte Chance bieten, eine große Menge heterogener gesammelter Meinungen zu verstehen und einen echten Wert zu finden . Nach ausreichendem konzeptionellen Hintergrund wird schließlich ein praktisches Beispiel vorgestellt, bei dem Twitter als Plattform für das Web Opinion Mining verwendet wird. Die Ergebnisse zeigen, wie eine Meinung im Netzwerk verbreitet wird und wie sich die Nutzer gegenseitig beeinflussen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33326-2_5 1f100d09a64bc860720b4570ea508146;de;;;7.3.;;;Ein Problem des Herstellervertriebs: Wie man einen Online- und einen traditionellen Einzelhändler verwaltet Die Popularität und der Erfolg des Internets haben neue Beziehungen im B2B-Markt geprägt. Die Verwendung von Doppelkanälen wird zu einer weit verbreiteten Praxis und die Kanalmitglieder stehen vor neuen Herausforderungen. Wir bewerten den Nutzen von zwei Koordinierungsmechanismen, nämlich dem Gesamtkanalpreis und dem Mengenrabatt, wenn ein Hersteller sein Produkt über einen traditionellen und einen Online-Shop verkauft und für beide Einzelhändler einen einzigen Großhandelspreis verwendet. Dann erweitern wir die Analyse auf das Preisszenario mit zwei Großhandelspreisen. Unser Modell legt nahe, dass die Produktkompatibilität mit dem Web ein Schlüsselfaktor für die Entscheidung ist, ob der Kanal koordiniert wird oder nicht und welcher Koordinationsmechanismus verwendet werden soll. Wir haben auch festgestellt, dass der gesamte Kanal immer besser dran ist, wenn eine Koordinierung implementiert wird, obwohl die Kanalmitglieder in Bezug auf eine solche Entscheidung unterschiedliche Positionen haben. Daher ist ein Gewinnbeteiligungsmechanismus erforderlich, um alle Mitglieder zufrieden zu stellen. Schließlich analysieren wir die Auswirkungen unterschiedlicher Austauschbarkeit von Kanälen auf die Rentabilität der Kanalmitglieder.;-;-;-;https://link.springer.com/article/10.1007/s10479-015-1982-6 bf244c777bad6d03c2675ff238e376d7;de;;;7.3.;;;BDI-Agenten: Flexibilität, Personalisierung und Anpassung für webbasierte Supportsysteme Nutzer legen zunehmend Wert auf personalisierte, flexible und interaktive Formen der Unterstützung. In diesem Kapitel betrachten wir das Problem der Bereitstellung von Entscheidungsunterstützung für mobile Wissensarbeiter durch ein System mit gemischten Initiativen und mehreren Agenten. Wir beschreiben eine abstrakte Architektur für die Entwicklung von MASs mit gemischten Initiativen und identifizieren die Hauptkomponenten und zugrunde liegenden Ontologien, die erforderlich sind, um automatisiertes Denken, Problemlösung und Anpassung zu unterstützen. Wir schlagen das BDI-Agenturmodell für die Entwicklung von Agenten vor, denen Ziele delegiert werden können und die kollaborativ mit den Benutzern und untereinander arbeiten können. Benutzer und Agenten interagieren in einem gemischten Initiativmodus, um eine gemeinsame Basis zu schaffen und die gemeinsamen Ziele zu erreichen. Pläne als Mittel, um die Ziele des Benutzers zu erreichen, werden verwendet, um die Verfeinerung und Feinabstimmung von Geschäftsprozessen zu ermöglichen, um dem Arbeitsstil des einzelnen Wissensarbeiters besser zu entsprechen. Darüber hinaus betrachten wir Möglichkeiten zum Umgang mit außergewöhnlichen Umständen, wie sie bei der Ausführung von Plänen auftreten, und wie ein Agent im Wesentlichen lernen kann, mit solchen Situationen umzugehen, indem er mit anderen Agenten sowie dem als Experte geltenden Benutzer interagiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88071-4_9 0230cbced978af461fb44e708f349396;de;;;7.3.;;;Rangfolge semantischer Webdienste durch Abgleichen von Triples und Abfragen basierend auf Ähnlichkeitsmaß Ein Webdienst (WS) bietet Interoperabilität zwischen Plattformen. Es ist schwierig, einen gewünschten Webservice zu finden, der den Benutzeranforderungen entspricht, was den Bedarf für das WS-Discovery-Tool erhöht. Dieses Papier schlägt ein Tool für Semantic Web Service Discovery (SWSD) vor, um die Ähnlichkeitswerte des Semantic Web Service (SWS);-;-;-;https://link.springer.com/article/10.1007/s41870-019-00322-w 396cf71630b343fae854545e92ddacc2;de;;;7.3.;;;Leichtes Mikro-Cash für das Internet Wir schlagen eine Micro-Cash-Technik vor, die auf einem einmaligen Signaturschema basiert: Das mehrmalige Signieren einer Nachricht führt zur Offenlegung des privaten Schlüssels des Signierers. Neben den üblichen Bargeld-Eigenschaften wie Offline-Bank zum Bezahlen und der Anonymität des Geldausgebers bietet die Technik auch eine Reihe nützlicher Funktionen. Dazu gehören: Identifizierung von Doppelspendern mit starkem Beweis, Bargeld widerruflich für identifizierte Doppelspender, unabhängig von der Verwendung manipulationssicherer Geräte, Münzen unterteilbar in kleinere Stückelungen und Systemeinfachheit in Bezug auf kleine Daten für die Bargelddarstellung sowie einfache Protokolle für Bargeldabhebung, Zahlung und Einzahlung. Wir argumentieren, dass diese Funktionen ein leichtes Bargeldsystem unterstützen, das für die Abwicklung von Zahlungstransaktionen mit sehr geringem Wert geeignet ist, wie z.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-61770-1_25 6bd9cac97455c0ce8d7e6927f42d3f20;de;;;7.3.;;;Umsetzung von NLP-Projekten für dezentrale Sprachen: Anleitungen für Fördergeber, Strategien für Entwickler Diese Forschung beginnt mit der Unterscheidung einer kleinen Anzahl „zentraler“ Sprachen von den „nichtzentralen Sprachen“, wobei die Zentralität daran gemessen wird, inwieweit eine bestimmte Sprache durch Werkzeuge und Forschung zur Verarbeitung natürlicher Sprache unterstützt wird. Wir analysieren die Bedingungen, unter denen dezentrale Sprachprojekte (NCLPs) und zentrale Sprachprojekte durchgeführt werden. Wir stellen eine Reihe wichtiger Unterschiede fest, die weitreichende Konsequenzen für NCLPs haben. Um die Schwierigkeiten von NCLPs zu überwinden, müssen traditionelle Forschungsstrategien überdacht werden. Erfolgreiche Formen der wissenschaftlichen Zusammenarbeit, wie sie beispielsweise in der Open-Source-Softwareentwicklung oder bei der Entwicklung der Wikipedia zu finden sind, bieten alternative Sichtweisen auf die Gestaltung von NCLPs. Wir erarbeiten die Konzepte freier Software und Softwarepools und argumentieren, dass NCLPs in ihrem eigenen Interesse einen Open-Source-Ansatz für die von ihnen entwickelten Ressourcen verfolgen und diese Ressourcen zusammen mit anderen ähnlichen Open-Source-Ressourcen bündeln sollten. Die erwarteten Vorteile dieses Ansatzes sind so wichtig, dass wir vorschlagen, dass Förderorganisationen ihn als;-;-;-;https://link.springer.com/article/10.1007/s10590-007-9026-x d659b28f940f90142a6d0de862138c7c;de;;;7.3.;;;Ein internetbasiertes mehrsprachiges System zur Extraktion von Anlageinformationen Elektronische Informationen nehmen schnell zu, da das Internet in unserem täglichen Leben weit verbreitet ist. Menschen können leicht Informationen aus dem Internet abrufen. Um einige wichtige Punkte aus Anlagenachrichten automatisch zu identifizieren, wird ein mehrsprachiges Anlageinformationsextraktionssystem basierend auf Vorlagen und Mustern realisiert. Das System besteht aus drei Teilen: Verarbeitung von Benutzeranfragen, Extraktion basierend auf Vorlagen und Mustern und dynamischer Erfassung. Das System zeichnet sich durch die einheitliche Verarbeitung für verschiedene Sprachen und die Kombination von vordefinierten Vorlagen und dynamisch generierten Vorlagen aus. Derzeit verarbeitet das System Anfragen in Chinesisch, Englisch, Deutsch und extrahiert chinesische Anlagenachrichten aus dem Internet, künftig werden deutsche und englische Anlagenachrichten hinzugefügt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0494-7_1 9f35ce031602ad72bca94176e1b52e4a;de;;;7.3.;;;Auf dem Weg zu einem intelligenten Framework, um das Web zu verstehen und zu füttern Das Web wird zu einem Spiegel der „realen“ physischen Welt. Immer mehr Aspekte unseres Lebens verlagern sich ins Web und verändern damit auch diese Welt. Und die Vielfalt der Kommunikationsmöglichkeiten über das Internet ist enorm gewachsen. In diesem Zusammenhang ist es zu einer bemerkenswerten Herausforderung geworden, das Richtige zur richtigen Zeit auf die richtige Art und Weise an die richtige Person zu kommunizieren. In diesem konzeptionellen Papier schlagen wir einen Rahmen vor, um semantische Technologien in Kombination mit statistischen und Lernmethoden auf Web- und Social-Media-Daten anzuwenden, um einen Rahmen zur Entscheidungsunterstützung aufzubauen. Dieses Framework sollte Fachleuten sowie normalen Benutzern helfen, die Verbreitung ihrer Informationen und die potenzielle Auswirkung dieser Informationen auf das Web zu optimieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34228-8_24 a5da7a10ff0b2bfa87bd6699ef0fff4f;de;;;7.3.;;;Ontologie-vermittelter Service-Matching und -Anpassung Die ontologievermittelte Modellierung der Übereinstimmung von Serviceanforderungen mit Anbietern beinhaltet das Analysieren der Absicht eines Benutzers, das Bereitstellen des richtigen Aufgabenflusses und die Anpassung der Umgebungsänderung. Diese Studie stellt einen praktischen Ansatz vor, um Benutzer mit einem hohen Maß an Serviceintegration über eine einfache Interaktion hinaus zufrieden zu stellen. Nachdem die Semantik der Web-Services-Schnittstellen auf der Plattform registriert ist, für die ein Taskflow entwickelt wird, werden drei Vergleichsvergleicher – kontextbasierter, signaturbasierter und einschränkungsbasierter Vergleich – angewendet, um den Taskflow zu analysieren, der am besten zu den Anforderungen des Benutzers Absichten, Parsing durch Klartexteingabe. Für praktische Zwecke wird der Anpassungsprozess von Taskflow und Ontologie modelliert, und der Benutzer kann die vorgeschlagenen Vorschläge genehmigen oder verwerfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39962-9_31 6ba2653f1fdd467c3fbc5de11aa016fb;de;;;7.3.;;;Legal Knowledge Modeling für das Gesetzgebungsmanagement im Semantic Web Regulierungsqualität und Zugänglichkeit sind wesentliche Voraussetzungen, um einen transparenten Rahmen für die Politikgestaltung zu gewährleisten und damit Demokratie, Rechtssicherheit und die Beteiligung der Bürger am Entscheidungsprozess zu fördern. Insbesondere die Politik der Europäischen Union in Bezug auf eGovernment erfordert hochrangige Informations- und Kommunikationstechnologien (IKT) zur Förderung eines transparenteren, partizipativen und rechenschaftspflichtigen Entscheidungsprozesses. Die Modellierung von Rechtswissen kann eine Voraussetzung für die Erfüllung solcher Anforderungen darstellen, gleichzeitig kann das Semantic Web den Hintergrund von Prinzipien und Werkzeugen liefern, die die Implementierung fortgeschrittener Gesetzgebungsverfahren in mono- und mehrsprachigen Bereichen sowie Retrieval- und Reasoning-Dienste ermöglichen über die Gesetzgebung. In diesem Beitrag werden solche Fragestellungen anhand semantischer und logischer Profile von Rechtstexten sowie mögliche technische Implementierungen solcher Dienste untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19575-9_19 a93cc150edd1458f6bb6232d4fed7f7c;de;;;7.3.;;;Pionierarbeit im Internet in den Neunzigern – Ein innovatives Projekt unter Beteiligung britischer und australischer Schulen Der Autor diskutiert die Herausforderungen und Veränderungen der Pädagogik bei der Einführung eines innovativen Projekts zur Verbindung britischer und australischer Schulen zwischen 1996 und 1998;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55119-2_27 8efcbc678a01f4cc591acd0c70511293;de;;;7.3.;;;MAT: Eine End-to-End-Mobilkommunikationsarchitektur mit nahtloser IP-Handoff-Unterstützung für das Internet der nächsten Generation Der technologische Fortschritt im Bereich der tragbaren Mobilgeräte hat zu einer Bewegung in Richtung totale Mobilität geführt. Echtzeitanwendungen verlangen eine solch flexible Mobilitätsunterstützung, die nicht nachteilig mit den bestehenden Protokollen, insbesondere mit Quality of Service (QoS) und Sicherheitsmechanismen interagiert. Wir glauben, dass dies durch die Bereitstellung von Mobilitätsdiensten über die mobilen Knoten selbst und nicht über Proxys erreicht werden könnte. Dieses Papier schlägt eine End-to-End-Mobilkommunikationsarchitektur namens Mobile IP with Address Translation (MAT) vor. MAT erfordert keine Änderung im Kernnetz. Um Mobilität zu realisieren, verwenden wir die Adressübersetzung innerhalb von Host-Knoten auf der IP-Schicht. Wir beschreiben die MAT-Architektur und zeigen ihre Mobilitätsfähigkeit durch prototypische Implementierung und Evaluierung. Vorläufige Ergebnisse zeigen, dass MAT vollständig kompatibel ist und sowohl in IPv4- als auch in IPv6-Umgebungen gut funktioniert. Wir vergleichen seine Funktionen auch mit den Protokollen Mobile IPv4 (MIP), Mobile IPv6 (MIPv6) und Location Independent Network Architecture (LIN6). Darüber hinaus schlagen wir eine Handoff-Technik basierend auf MAT vor, die dazu beiträgt, das Service-Unterbrechungsintervall signifikant zu reduzieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45036-X_47 3124c809da5ea30e8f9229f3d5ed3029;de;;;7.3.;;;Ein letzter semantischer Cache für Webabfragen Wir schlagen eine Methode vor, um Abfragen auszuwerten, die einen semantischen Cache der letzten Instanz in einer verteilten Websuchmaschine verwenden. Der Cache speichert eine Gruppe häufiger Anfragen und hält für jede dieser Anfragen minimale Daten, dh die Liste der Maschinen, die ihre Antworten produziert haben. Die Methode zur Auswertung der Abfragen verwendet die inverse Häufigkeit der Terme in den im Cache gespeicherten Abfragen (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03784-9_31 5324b05038f56dbb37eb9dffc16f914f;de;;;7.3.;;;Cloud-basiertes Videoüberwachungssystem zur Bekämpfung von Krankheiten und Schädlingen in Obstgärten Als These des „Internet plus“-Konzepts und des schnellen Fortschritts der neuen Medientechnologie wird das traditionelle Geschäft zunehmend an den Entwicklungsergebnissen der Informatisierung und der Vernetzung beteiligt. Ausgehend von den tatsächlichen Pflanzenschutzanforderungen wurde der Aufbau eines Cloud-basierten Videoüberwachungssystems zur Überwachung von Krankheiten und Schädlingen in Apfelplantagen diskutiert, um den Mangel an Aktualität und Vollständigkeit bei der Bekämpfung von Krankheiten und Schädlingen in Apfelplantagen zu beheben. Das System kann nicht nur den Wachstumszustand aller Apfelbäume in Obstplantagen überwachen, sondern auch Krankheiten und Schädlinge der Apfelbäume erkennen. Das System verfügte über eine Kamera unter den Baumkronen, die Krankheiten und Schädlinge auf der Rückseite der Blätter präzise erkennen konnte. Auf der Seite des Cloud-Speicherdienstes können Pflanzenschützer die Situation von Apfelbaumkrankheiten und Schädlingen mithilfe der auf einem Smartphone oder einem Computer installierten Software in den Griff bekommen. Das System lieferte punktgenaue Überwachungsdaten und Bestimmungskriterien für die Bekämpfung von Krankheiten und Schädlingen von Obstbäumen, die für die Entwicklung der landwirtschaftlichen und ländlichen Informatisierung von großer realistischer Bedeutung waren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48357-3_27 5e8f20ae76f0df3a62d35efd90f9e264;de;;;7.3.;;;Verhaltensanalyse von Webservice-Angriffen Mit der rasanten Entwicklung des Internets und seiner Dienste treten heutzutage zunehmend Cyberangriffe auf und entwickeln sich weiter. Um neue Angriffe zu erkennen und geeignete Schutzmechanismen zu entwickeln, ist es interessant, Angreifer anzuziehen, ihre Aktivitäten automatisch zu überwachen und ihr Verhalten zu analysieren. In diesem Paper sind wir besonders daran interessiert, Angriffe auf Webdienste zu erkennen und zu lernen. Wir schlagen einen Ansatz vor, der das Verhalten des Angreifers anhand von Daten beschreibt, die bei der Bereitstellung eines Webservice-Honeypots gesammelt wurden. Die Stärken unseres Ansatzes sind, dass (1) er eine Umgebung mit hoher Interaktion bietet, die in der Lage ist, wertvolle Informationen über bösartige Aktivitäten zu sammeln, (2) unsere Lösung den Satz von Datenattributen vorverarbeitet, um nur signifikante zu behalten (3) sie gewährleistet zwei Clustering-Ebenen, um prägnantere Angriffsszenarien zu erstellen. Um diese Beiträge zu erzielen, verwenden wir drei Analysetechniken: Hauptkomponentenanalyse, Spectral Clustering und Sequence Clustering. Unsere experimentellen Tests ermöglichen es uns, einige Angriffsszenarien wie SQL Injection und Denial of Services (DoS) zu entdecken, die in Markov-Ketten modelliert sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55415-5_31 579e03565aa4425d8630902dcb407c94;de;;;7.3.;;;Intelligente Schnittstellen zur Stärkung von Menschen mit Behinderungen Schwere Bewegungseinschränkungen können aus nicht fortschreitenden Erkrankungen wie Zerebralparese oder degenerativen neurologischen Erkrankungen wie Amyotrophe Lateralsklerose (ALS), Multiple Sklerose (MS) oder Muskeldystrophie (MD) resultieren. Sie können durch Schädel-Hirn-Traumata, beispielsweise durch einen Verkehrsunfall, oder durch Hirnstamm-Schlaganfälle entstehen [9, 84]. Weltweit sind Millionen von Menschen aller Rassen und ethnischen Hintergründe von diesen Störungen betroffen [4, 75, 52]. Da der Krankheitsausbruch von MS und ALS typischerweise im Erwachsenenalter auftritt, sind betroffene Menschen in der Regel mit Computerkenntnissen vertraut. Intelligente Schnittstellen können ihr tägliches Leben immens verbessern, indem sie es ihnen ermöglichen, zu kommunizieren und an der Informationsgesellschaft teilzunehmen, beispielsweise durch das Surfen im Internet, das Posten von Nachrichten oder das Versenden von E-Mails an Freunde. Menschen mit fortgeschrittener ALS, MS oder MD können jedoch einen Punkt erreichen, an dem sie Tastatur und Maus nicht mehr kontrollieren können und sich auch nicht auf die automatische Spracherkennung verlassen können, weil ihre Sprache undeutlich geworden ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-93808-0_15 5b8c5a69ced0110ed2a51dee32343e19;de;;;7.3.;;;Ein Framework für die Entwicklung eines webbasierten Optimierungs-Entscheidungsunterstützungssystems für intra- und interorganisationale Entscheidungsprozesse Die Evolution in der Informationstechnologie hat die Entwicklung neuer DSS-Architekturen ermöglicht. Dieses Papier stellt einen Rahmen für die Entwicklung eines webbasierten Optimierungs-Entscheidungsunterstützungssystems für intra-/interorganisationale Entscheidungsprozesse vor. Der Datenaustausch bei interorganisationalen Entscheidungen, getrennte Entscheidungs- und Datenmodelle und die Webservices-Technologie wurden angesprochen. Unter Berücksichtigung dieser Faktoren wurde ein Rahmen für die Entwicklung eines DSS mit Webservices definiert. Im geschäftlichen Kontext könnten diese Webservices für verschiedene Webservice-Provider-Unternehmen angeboten und von den verschiedenen Teilnehmern an einem intra-/interorganisationalen Entscheidungsprozess verwendet werden. Um diesen Rahmen zu kontextualisieren, wurden drei Szenarien definiert und unterschiedliche Beziehungen zwischen den beteiligten Unternehmen identifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14341-0_14 fd17ed468b581a56ca11b6dc716c44a2;de;;;7.3.;;;Geschäftsfälle und elektronischer Handel In diesem Kapitel werden einige Geschäftsfälle und kurz der elektronische Geschäftsverkehr untersucht. Durch das Studium von Geschäftsfällen können wir Vorteile, Probleme, Grenzen und Einschränkungen untersuchen, auf die Unternehmen stoßen, die versuchen, die fortschrittlichsten produktiven Paradigmen in die Praxis umzusetzen. Wir haben drei Fälle ausgewählt. Die erste untersucht das Virtual Vertical Enterprise (VIVE). Dies ist ein aktuelles Forschungsproblem, an dem mehrere europäische Länder beteiligt sind. Der Hauptverdienst von VIVE ist die Integration von KMU. Virtual Enterprise (und dann Concurrent Enterprise) ist nicht nur für die größten Unternehmen ein Problem, sondern aufgrund der Art der beteiligten Technologien für die größte Gruppe von Unternehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4070-0_6 626713fc6e5f7ccd7e0092af95d8e87d;de;;;7.3.;;;Ameisenfokussierter Crawling-Algorithmus In diesem Artikel wird ein neuer Algorithmus für das Crawlen von Hypertext-Graphen vorgestellt. Die Verwendung einer Ameise als Agent in einem Hypertext-Graphen begrenzt die Menge irrelevanter Hypertext-Dokumente, die heruntergeladen werden müssen, um eine gegebene Anzahl relevanter Dokumente herunterzuladen, erheblich. Darüber hinaus benötigen künstliche Ameisen während des gesamten Kriechens keine Warteschlange zur zentralen Steuerung des Kriechvorgangs. Der vorgeschlagene Algorithmus, Focused Ant Crawling Algorithm, für das Hypertext-Graphen-Crawling, ist besser als der Shark-Search-Crawling-Algorithmus und der Algorithmus mit der Best-First-Suchstrategie, die eine Warteschlange zur zentralen Steuerung des Crawling-Prozesses verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69731-2_96 9270621266c3429d43d31d9966ba943c;de;;;7.3.;;;Adaptive Clustering-basierte Änderungsvorhersage zum Aktualisieren des Web-Repository Ressourcenbeschränkungen wie Zeit und Netzwerkbandbreite hindern moderne Suchmaschinenanbieter daran, die lokale Datenbank vollständig mit dem Web zu synchronisieren. In diesem Artikel schlagen wir einen adaptiven Clustering-basierten Ansatz zur Änderungsvorhersage vor, um das lokale Web-Repository zu aktualisieren. Insbesondere gruppieren wir zunächst die vorhandenen Webseiten im aktuellen Repository anhand ihrer ähnlichen Änderungsmerkmale in Web-Cluster. Anschließend sampeln und untersuchen wir einige Seiten in jedem Cluster, um ihre Änderungsmuster einzuschätzen. Ausgewählte Webseiten-Cluster mit höherer Änderungswahrscheinlichkeit werden später heruntergeladen, um das aktuelle Repository zu aktualisieren. Schließlich wird die Effektivität des aktuellen Download-Zyklus untersucht, wobei einer Webseite entweder eine zusätzliche (nicht heruntergeladene), eine Belohnung (korrekte Änderungsvorhersage) oder eine Strafpunktzahl (falsche Änderungsvorhersage) zugewiesen wird. Diese Punktzahl wird später verwendet, um das konsekutive Web-Clustering sowie die Änderungsvorhersageprozesse zu verstärken. Um die Leistung des vorgeschlagenen Ansatzes zu bewerten, führen wir umfangreiche Experimente mit Snapshots von echten Webdatensätzen von etwa 282.000 verschiedenen URLs durch, die zu mehr als 12.500 Websites gehören. Die Ergebnisse zeigen deutlich, dass der vorgeschlagene Ansatz den bestehenden Stand der Technik zu Clustering-basierten Web-Crawling-Richtlinien insofern übertrifft, als er ein frischeres lokales Web-Repository mit begrenzten Ressourcen bereitstellen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-21404-7_38 be5ff962454f7a6e127197f0caced318;de;;;7.3.;;;Untersuchung der semantischen Lücke durch Abfrageprotokollanalyse In den letzten Jahren haben sich erhebliche Anstrengungen darauf konzentriert, große Mengen an Metadaten online zu stellen, und der Erfolg dieser Bemühungen lässt sich an der beeindruckenden Anzahl von Websites ablesen, die Daten in RDFa oder RDF/XML veröffentlichen. Es ist jedoch wenig darüber bekannt, inwieweit diese Daten den Bedürfnissen normaler Webbenutzer mit alltäglichen Informationsbedürfnissen entsprechen. In diesem Beitrag untersuchen wir die semantische Lücke zwischen der Bereitstellung von Daten im Semantic Web und den Bedürfnissen der Webnutzer, wie sie in den Anfragen einer großen Websuchmaschine zum Ausdruck kommen. Wir führen unsere Analysen sowohl auf Instanz- als auch auf Ontologieebene durch. Zunächst schauen wir uns an, wie viele Daten tatsächlich für Webabfragen relevant sind und um welche Art von Daten es sich handelt. Zweitens stellen wir eine generische Methode bereit, um die Attribute zu extrahieren, nach denen Webbenutzer in Bezug auf bestimmte Klassen von Entitäten suchen. Diese Methode ermöglicht es, Klassendefinitionen, die in Semantic Web-Vokabularen gefunden werden, mit den Attributen von Objekten zu vergleichen, an denen Benutzer interessiert sind. Unsere Ergebnisse sind entscheidend, um das Potenzial der semantischen Suche zu messen, sprechen aber auch für den Zustand des Semantic Web im Allgemeinen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04930-9_28 7d035d7b233b18e782495485a4129f69;de;;;7.3.;;;Kinder und die sich wandelnde Werbewelt Die Besorgnis über die Fähigkeit von Kindern, Werbebotschaften vollständig zu verstehen und zu bewerten, hat seit mehr als drei Jahrzehnten umfangreiche Forschungen und hitzige Debatten unter Wissenschaftlern, Unternehmern, Verbraucherschützern und politischen Entscheidungsträgern angeregt. Während dieser Zeit wurden einige sehr grundlegende Fragen zur Fairness von Marketing gegenüber Kindern aufgeworfen, doch viele sind bis heute ungelöst. Mit dem Aufkommen immer ausgefeilterer Werbemittel, Werbeangebote und kreativer Aufrufe in den letzten Jahren sind auch neue Themen entstanden. Dieses Papier bietet eine Grundlage für die weitere Untersuchung einiger Schlüsselfragen in diesem Bereich und schlägt vor, wie die Werbeforschung für Kinder eingesetzt werden kann, um sie zu beleuchten.;-;-;-;https://link.springer.com/article/10.1023/B%3ABUSI.0000035907.66617.f5 d20f4c94a4022461ca35c03279a879c8;de;;;7.3.;;;ICICLE: Ein semantikbasiertes Abrufsystem für WWW-Bilder In diesem Beitrag stellen wir ICICLE (Image ChainNet and Incremental Clustering Engine) vor, ein Prototypsystem, das wir entwickelt haben, um WWW-Bilder basierend auf Bildsemantik effizient und effektiv abzurufen. ICICLE hat zwei Unterscheidungsmerkmale. Erstens verwendet es ein neuartiges Bilddarstellungsmodell namens Weight ChainNet, um die Semantik des Bildinhalts zu erfassen. Eine neue Formel namens;-;-;-;https://link.springer.com/article/10.1007/s00530-006-0020-6 0a4565b69d57634029eef4dc5bf32635;de;;;7.3.;;;Unterstützung der Online-Glaubwürdigkeitsbewertung Dieses Kapitel befasst sich mit Methoden und Algorithmen zur Unterstützung der Glaubwürdigkeitsbewertung von Webinhalten. Das Kapitel stellt mehrere Beispiele für Systeme zur Unterstützung der Glaubwürdigkeitsbewertung (CS) vor. Ein Referenzdesign eines CS-Systems führt den Leser. Verschiedene Algorithmen, die Teil des CS-Systems sind, werden diskutiert. Algorithmen zur automatischen Bewertung der Glaubwürdigkeit von Aussagen werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-77794-8_3 9e0a981219425f44497b8d6473a808f9;de;;;7.3.;;;Internetbasierte virtuelle Computerumgebung Anders als die traditionellen Ressourcen weisen Ressourcen über das Internet natürliche Merkmale wie Wachstum, Autonomie und Vielfalt auf, die ihre effiziente gemeinsame Nutzung und umfassende Nutzung vor große Herausforderungen gestellt haben. Da es die wesentlichen Unterschiede zwischen der Internet-Computing-Umgebung und der traditionellen Computerumgebung gibt, sind die Methoden des Ressourcenmanagements für traditionelle Computer nicht mehr für das Internet geeignet. Das Aufkommen und die Entwicklung von Web 2.0- und P2P-Technologien in den letzten Jahren zeigt, dass sich das Ressourcenmanagement über das Internet an die natürlichen Eigenschaften der Internetressourcen anpassen sollte und die Virtualisierung eines der potenziellen Mittel zur Bewältigung dieser Herausforderungen ist. Die Virtualisierung in einer Internet-Computerumgebung unterscheidet sich jedoch wesentlich von der in einer herkömmlichen Computerumgebung. Es sind drei wissenschaftliche Themen zu untersuchen, d. h. On-Demand-Aggregation in der offenen Internetumgebung, autonome Zusammenarbeit zwischen verteilten autonomen Ressourcen, rechnerische Eigenschaften der Aggregation und Zusammenarbeit. Wir schlagen die internetbasierte Virtual Computing Environment (iVCE) vor, die darauf abzielt, mithilfe neuartiger Computermodelle und innovativer Mechanismen, wie der On-Demand-Ressource, eine harmonische, vertrauenswürdige und transparente Computerumgebung und Dienste für Endbenutzer und Anwendungen bereitzustellen Aggregation und autonome Ressourcenkollaboration. Das iVCE versucht, Internet-Ressourcen zu virtualisieren und zu autonomisieren, neue Modelle und Mechanismen zu entwickeln, die sich gut an die Internet-Computerumgebung anpassen, und die gemeinsame Nutzung und Nutzung der Internet-Ressourcen zu fördern. In den letzten Jahren wurden viele Fortschritte in Bezug auf das Modell, den technischen Rahmen und die Mechanismen von iVCE erzielt. Das Konzeptmodell von iVCE umfasst autonomes Element (AE), Virtual Commonwealth (VC) und Virtual Executor (VE). Die Architektur von iVCE basiert auf diesen Modellen. Viele Mechanismen wurden in Bereichen wie Ressourcenvirtualisierung, On-Demand-Aggregation, autonome Zusammenarbeit, vertrauenswürdige Erweiterung und Programmierspracheneinrichtung vorgeschlagen. Die iVCE-Middleware wurde entwickelt und implementiert und bietet eine Reihe von Diensten zur Unterstützung der flexiblen gemeinsamen Nutzung und Zusammenarbeit von Internetressourcen. Die iVCE-Middleware hat auch einige Tools bereitgestellt, wie z. B. virtuellen Netzwerkspeicher, virtuellen Netzwerkspeicher und virtuelle Cluster für Benutzer. Viele Anwendungen wurden auf der iVCE-Middleware ausgeführt. iVCE wird die übergreifende gemeinsame Nutzung und Zusammenarbeit von Ressourcen in verschiedenen Granularitäten unterstützen, einschließlich des großen Rechenzentrums, der Client-Ressourcen und verschiedener Ressourcen am Rand des Internets. Die Produktivität und Vertrauenswürdigkeit von iVCE wird in Zukunft untersucht werden. Auch die Integration mehrerer virtueller Commonwealths ist Teil unserer zukünftigen Arbeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15672-4_2 32d08c15388cf31de4a09e0747046bd7;de;;;7.3.;;;Elektronische Stimmabgabe: Ansätze, Strategien und politische Fragen – ein Bericht aus der Schweiz Die langfristigen Auswirkungen des Internets auf politische Systeme und zugrunde liegende Informationsprozesse bleiben ungewiss und sind Gegenstand einer neuen multidisziplinären – und zunehmend quantitativ orientierten – Forschung. Während die Jury noch nicht entschieden ist, deuten anekdotische und teilweise sogar empirische Belege aus verschiedenen Ländern auf Verschiebungen in der Ausübung politischer Rechte in der digital vernetzten Umgebung hin. Dem Einsatz digitaler Tools im Hinblick auf politische Kampagnen wurde viel Aufmerksamkeit geschenkt – insbesondere im Kontext der jüngsten US-Präsidentschaftswahlen, aber auch mit der Rolle des Internets in Südkorea oder während der Orangen Revolution in der Ukraine. Weniger spektakulär und weniger transformativ ist allerdings die Nutzung des Internets im Rahmen des Wahlprozesses selbst, die in demokratischen Gesellschaften als Kernelement der politischen Rechte gilt. Mehrere Länder der westlichen Hemisphäre, darunter Kanada, Estland, Großbritannien, die Vereinigten Staaten und die Schweiz, haben erste Erfahrungen mit der Internet-Abstimmung als Unterkategorie eines breiteren Spektrums von Fernabstimmungsverfahren gesammelt. Dieser Artikel gibt einen Überblick über die Schweizer Erfahrungen mit E-Voting anhand der jeweiligen Projekte in den Kantonen Genf, Zürich, Neuenburg und Basel-Stadt und gibt einen Überblick über die wichtigsten Versprechen und Herausforderungen aus theoretischer und praktischer Perspektive. Schließlich diskutiert der Artikel ausgewählte rechtliche, technologische und soziale Faktoren, die beim Aufbau eines institutionellen Rahmens für E-Voting berücksichtigt und gesteuert werden müssen.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-6704-731-9_7 c6307b63108d5fe87f8ea007096b0485;de;;;7.3.;;;Inhaltsbasierter 3D-Modellabruf Die rasante Entwicklung von Computergrafik- und 3D-Modellierungswerkzeugen hat zu einer steigenden Anzahl von 3D-Modellen geführt. Darüber hinaus ermöglicht uns die rasante Entwicklung des Internets, überall auf 3D-Modelle zuzugreifen, die von Menschen erstellt wurden. Da die Zahl der verfügbaren 3D-Modelle wächst, besteht ein zunehmender Bedarf, diese basierend auf ihrem Inhalt zu indizieren und abzurufen. In diesem Kapitel werden die Schritte und Techniken erläutert, die bei inhaltsbasierten 3D-Modellabrufsystemen erforderlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12651-2_4 576f513d437385f1defb15317c711b55;de;;;7.3.;;;Ein konzeptionelles Modell für die Veröffentlichung von Multimedia-Inhalten im Semantic Web Das Abrufen von Multimedia bleibt eine Herausforderung im Web des 21. Jahrhunderts. Dies liegt unter anderem an den inhärenten Beschränkungen des maschinengetriebenen Multimedia-Verständnisses, die das Web 2.0 ebenso wie sein semantisches Gegenstück betreffen. Die Beschreibung von Multimedia-Ressourcen durch Metadaten wird daher oft als der einzig gangbare Weg angesehen, um ein effizientes Multimedia-Retrieval zu ermöglichen. Unter der Annahme der Verfügbarkeit von Metadatenbeschreibungen erfordert eine effektive Indexierung von Multimedia die Vermittlung zwischen dem breiten Spektrum von Metadatenformaten, die derzeit verwendet werden, um diese Ressourcen zu kommentieren oder zu beschreiben. Semantische Technologien wurden als potenzielle Lösung für dieses groß angelegte Interoperabilitätsproblem identifiziert. Die in diesem Beitrag vorgestellte Arbeit baut auf dieser letzten Aussage auf. Wir stellen RICO vor, ein konzeptionelles Modell und eine Reihe von Ontologien, um in Webseiten eingebettete Multimediainhalte zu markieren und solche Multimediabeschreibungen im Semantic Web bereitzustellen. Durch die Verwendung semantischer Metadaten, die auf formale Ontologien verweisen, schaffen wir nicht nur eine Grundlage für die einheitliche Beschreibung multimedialer Ressourcen im Web, sondern ermöglichen auch die automatische Vermittlung zwischen Metadatenstandards und intelligente Multimedia-Retrieval-Features.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10543-2_11 325d9b5fa2e80fe8cd9850e1a74b5ec6;de;;;7.3.;;;Ein kontextbasiertes Framework und eine Methode für die Beschreibung und Suche von Lernobjekten In den letzten zehn Jahren hat sich E-Learning zu einem aktiven Forschungsgebiet entwickelt. Viele Unternehmen und Organisationen stellen mittlerweile große Mengen an Online-Lernressourcen zur Verfügung. Diese Lernressourcen haben die meisten gängigen Bildungs- und Lernbereiche und -fächer abgedeckt und sind immer verfügbar, sodass die Lernenden von überall mit einer Internetverbindung darauf zugreifen können. Die Lernenden können flexibel die gewünschten Fächer wählen und ihren eigenen Lehr- und Studienplan zusammenstellen. Die meisten Online-Lernressourcen sind jedoch schlecht beschrieben und strukturiert, was zu großen Problemen bei ihrer Verwendung, Suche, Organisation und Verwaltung führt. Um die Probleme zu überwinden, schlagen wir einen neuen und praktischen kontextbasierten semantischen Beschreibungsrahmen vor, der darauf abzielt, Informationen und Wissen über Lernressourcen und deren Strukturen zu beschreiben. Die kontextbasierte semantische Beschreibung ist ein effektiver Weg, um Wissen aus verschiedenen Aspekten zu extrahieren, um Lernressourcen abzubilden, die abstrahiert und als Lernobjekte bezeichnet werden. Dieses Framework besteht aus vier Teilen: der Definition von Lernobjekten, einem kontextbasierten semantischen Beschreibungsmodell, einer Ontologie und Abhängigkeitsgraphen von Lernkonzepten. Durch die Verwendung der Attribute des Lernobjekts und ihrer verschiedenen semantischen Beziehungen, die im vorgeschlagenen Rahmen behandelt werden, versuchen wir, die Anforderungen eines Lernenden mit Hilfe von Wissen aus Lernumgebungen mit der Beschreibung von Lernobjekten, die vom Rahmen bereitgestellt werden, zu suchen und abzugleichen. Ein wichtiger Schritt hierbei ist die Berechnung der semantischen Ähnlichkeit unter Verwendung des modellierten Wissens. Die vorgeschlagene Arbeit zielt darauf ab, Lernende dabei zu unterstützen, massive Lernressourcen aus dem Internet zu nutzen, um Selbstlernen mit oder ohne Hilfe von Rat und Anleitung von Pädagogen durchzuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78139-4_11 c22c3e8160f500c65fbb9056c9e8a75a;de;;;7.3.;;;Erweiterung des SDSI/SPKI-Modells durch Federation Webs Klassische Sicherheitssysteme verwenden ein im Authentifizierungsverfahren zentriertes Vertrauensmodell, das von einem Namensdienst abhängig ist. Selbst bei Verwendung einer Public-Key-Infrastruktur wie X.509 sind solche Systeme nicht einfach skalierbar und können zu einzelnen Fehlerpunkten oder Leistungsengpässen werden. Neuere Systeme mit einem auf den Client fokussierten Vertrauensparadigma und basierend auf Berechtigungsketten, wie SDSI/SPKI, sind viel besser skalierbar. Sie bieten jedoch einige Schwierigkeiten beim Auffinden der Kette, die den Client mit einem bestimmten Server verbindet. Dieses Papier definiert Erweiterungen des SDSI/SPKI-Autorisierungs- und Authentifizierungsmodells, die es dem Client ermöglichen, neue Ketten aufzubauen, um ihn mit einem Server zu verbinden, wenn der entsprechende Pfad nicht existiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45184-6_11 d9359d79a6e1ec188ccbf8cd9757793c;de;;;7.3.;;;Generierung und Erweiterung von Keywords für die albanische Werbung über versteckte semantische Beziehungen Keyword-Generierung und -Erweiterung sind wichtige Probleme in der Computerwerbung. Keyword-Vorschlagsmethoden helfen Werbetreibenden, geeignetere Keywords zu finden. Sie beinhalten das Entdecken neuer Wörter oder Phrasen, die sich auf die vorhandenen Keywords beziehen. Die richtigen versteckten, aber semantisch relevanten Keywords zu produzieren, ist ein schwieriges Problem. Die eigentliche Schwierigkeit besteht darin, viele solcher Wörter zu finden. In diesem Beitrag schlagen wir einen künstlichen Schlüsselwort-Suggester für die albanische Sprache vor, indem wir menschenähnliche Systeme nachahmen. Die Möglichkeit eines Menschen, diese Schlüsselwörter bereitzustellen, beruht auf dem Reichtum und der Tiefe seiner sprachlichen und kulturellen Qualifikationen. Um zusätzliche Schlüsselwörter bereitzustellen, muss ein Mensch mehrere Speichersuchaufgaben für die Bedeutung einer großen Anzahl von Konzepten und deren Bezugsrahmen ausführen. Daher basiert der Speicher des vorgeschlagenen künstlichen Schlüsselwort-Suggesters auf einem großen Informationsspeicher, der durch die Verwendung von maschinellen Lesetechniken zur Faktenextraktion aus dem Web gebildet wird. Als Erinnerung nutzen wir indirekt das albanische World Wide Web und Gjirafa.com als Suchmaschine. Komplementär dazu ist das Gehirn des Systems als sich ausbreitendes aktivierendes Netzwerk konzipiert. Das Gehirn behandelt bereitgestellte Schlüsselwörter und findet Assoziationen zwischen ihnen und Konzepten in seinem Gedächtnis, um inkrementell eine neue Liste potenzieller Schlüsselwörter zu berechnen und vorzuschlagen. Experimentelle Ergebnisse zeigen, dass unser vorgeschlagenes Verfahren erfolgreich Vorschläge liefern kann, die die Genauigkeits- und Abdeckungsanforderungen erfüllen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-33625-1_34 8cefc8f8321b2d54aee790c72524933a;de;;;7.3.;;;„Plug and Do Business“ und die europäischen F&E-Programme Interoperabilität ist vielleicht das kritischste Thema für Unternehmen, die ihre Geschäftstätigkeit auf elektronischem Weg begonnen haben oder beabsichtigen. Damit Unternehmen Geschäfte über das Internet abwickeln können, müssen sie mit einer Vielzahl von Geschäftspartnern kommunizieren und einen elektronischen Austausch durchführen. E-Business ist mehr als das Kaufen und Verkaufen von Transaktionen über das Internet. Es handelt sich um neue Formen der Zusammenarbeit, bei denen Geschäftsprozesse, Ressourcen, Fähigkeiten und Wissen geteilt werden. Heutzutage verhindert die geringe Interoperabilität von Geschäftsanwendungen die Annahme dieser neuen Form der Zusammenarbeit, insbesondere der Formen, die auf lose gekoppelten Unternehmensvereinigungen über das Internet für viele Organisationen basieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35585-6_31 0785a2c788caaf2dc639ceb1a9faf55e;de;;;7.3.;;;HOME: eine Umgebung für Hypermedia-Objekte In diesem Beitrag stellen wir HOME vor, eine neue Umgebung für verteilte Hypermedien. Wir konzentrieren uns hauptsächlich auf die Serverseite und bieten über einen Gateway-Mechanismus Zugriff auf WWW-Clients. Daten und Metadaten sind im verteilten HOME-Server strikt getrennt. Die Architektur basiert auf einem geschichteten Ansatz mit separaten Schichten für Rohdaten, Multimedia-Eigenschaften und Hypermedia-Struktur. Wir stellen einige Umsetzungsaspekte kurz vor und betonen die Besonderheiten von HOME. Wir schließen mit einem Vergleich mit verwandter Forschung und unseren Plänen für die Zukunft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-80350-5_27 72de3a7dfdbd5121832b5ef7d2175757;de;;;7.3.;;;Informationskultur in der Hochschulbildung Die Probleme der Förderung des Informationsverhaltens bei College- und Universitätsstudenten – das Verständnis von Unterschieden in der Informationskultur und -kompetenz – werden diskutiert. Die grundlegenden Konzepte der Informations- und Bibliothekskultur werden vorgestellt.;-;-;-;https://link.springer.com/article/10.3103/S0147688207010066 f58f2faadcfc265a6b13246a83376412;de;;;7.3.;;;Ein datenzentrierter Ansatz für die datenschutzbewusste Aktivierung von Geschäftsprozessen In einem SOA-Kontext können Unternehmen Workflow-Technologien verwenden, um verfügbare Geschäftsprozesse und ihre entsprechenden Dienste zu orchestrieren und Geschäftsregeln oder Richtlinien anzuwenden, um zu steuern, wie sie verwendet werden können und wer sie verwenden darf. Dieser Ansatz wird etwas komplexer, wenn eine Reihe von Geschäftsprozessen Dienste umfasst, die außerhalb der Domäne des Unternehmens stammen und daher möglicherweise nur schwer an bestehende Regeln/Richtlinien angepasst werden können. Im Datenschutz- und Sicherheitsbereich werden Zugriffskontroll- und Richtliniensprachen verwendet, um zu definieren, welche Aktionen auf Ressourcen von wem, zu welchem ​​Zweck und in welchem ​​Kontext ausgeführt werden können. In diesem Papier schlagen wir einen Ansatz für den Umgang mit der Einbeziehung interner und/oder externer Dienste in einen Geschäftsprozess vor, der Richtlinien zum Umgang mit Daten enthält.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19680-5_16 60d31fa7020543d5c44862c69f8bf966;de;;;7.3.;;;Minimierung der Energie für drahtlosen Webzugriff mit begrenzter Verlangsamung Bei vielen batteriebetriebenen mobilen Computergeräten trägt das drahtlose Netzwerk erheblich zum Gesamtenergieverbrauch bei. In diesem Papier untersuchen wir die Interaktion zwischen energiesparenden Protokollen und der TCP-Leistung für webähnliche Übertragungen. Wir zeigen, dass der beliebte IEEE 802.11-Energiesparmodus (PSM), ein „statisches“ Protokoll, die Leistung beeinträchtigen kann, indem die schnellen Roundtrip-Zeiten (RTTs) auf 100 ms erhöht werden, und dass aktuelle Implementierungen unter typischen Web-Browsing-Workloads unnötig Geld ausgeben Energie weckt während langer Leerlaufzeiten.;-;-;-;https://link.springer.com/article/10.1007/s11276-004-4751-z 3b60e10150c5eff177f61f992083ae01;de;;;7.3.;;;Mobiles webbasiertes System für ferngesteuerte elektronische Geräte und Smart Objects Heutzutage gibt es viele intelligente elektronische Geräte im alltäglichen Umfeld: Haushaltsgeräte, Industriemaschinen, Geräte für Dienstleister in den Städten usw. Diese elektronischen Geräte kommunizieren meist mit anderen Geräten und Personen, um Aufgaben zu erledigen oder Dienstleistungen zu erbringen. Die häufigste Form der Interaktion zwischen Mensch und Gerät ist die Nutzung der Geräteschnittstellen (Tasten, Touchscreens etc.). Es gibt jedoch andere Möglichkeiten der Interaktion, wie zum Beispiel Smartphones, die verwendet werden, um Benutzer mit elektronischen Geräten zu kommunizieren. Normalerweise wählt der Benutzer die Befehle oder Aktionen aus einer auf dem Smartphone installierten Anwendung aus. Diese Anwendung verwendet die Kommunikationshardwareelemente des Smartphones (z. B. Bluetooth, Wi-Fi), um die ausgewählten Befehle an das elektronische Gerät zu senden. Native mobile Anwendungen sind plattformabhängig (Android, Symbian, etc.) und werden für mehrere Plattformen entwickelt und haben meist hohe Entwicklungskosten. Wir präsentieren einen Vorschlag, der es Webanwendungen ermöglicht, auf die Hardwareelemente der Gerätekommunikation zuzugreifen und die Kommunikation mit physischen Geräten zu ermöglichen.;-;-;-;https://link.springer.com/article/10.1007/s11036-014-0510-2 f50abc7bd4b7a7844c2da9fa4da12f92;de;;;7.3.;;;Web-Wissenserwerbsmodell basierend auf dem menschlichen kognitiven Prozess Der weborientierte Wissenserwerb ist zu einem wichtigen Weg für den Menschen geworden, sich Wissen anzueignen. Ein wichtiges Problem für Webdienste ist es, Benutzern zu helfen, personalisiertes Wissen im Netzwerk zu erhalten. In diesem Beitrag stellen wir ein auf dem menschlichen kognitiven Prozess basierendes Web-Wissenserwerbsmodell vor, das die Präzision des Wissenserwerbs verbessern und die personalisierten Anforderungen der Benutzer erfüllen kann. Das in diesem Dokument entwickelte User Cognitive Model (UCM) kann die Interaktion mit dem Web verbessern und dann die Entwicklung von Webdiensten personalisiert, genau und intelligent fördern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0539-8_120 d21ee1e04bd5d13f9ec07b4bf6639b4a;de;;;7.3.;;;Skalierbare entitätsbasierte Zusammenfassung von Websuchergebnissen mit MapReduce Obwohl Websuchmaschinen große Mengen von Dokumenten indizieren und Zugriff darauf bieten, geben Benutzerabfragen normalerweise nur eine lineare Liste von Treffern zurück. Während dies für die fokalisierte Suche oft zufriedenstellend ist, bietet es keine Untersuchung oder tiefere Analyse der Ergebnisse. Eine Möglichkeit, fortschrittliche Explorationseinrichtungen zu erreichen, die die Verfügbarkeit strukturierter (und semantischer) Daten in der Websuche nutzen, besteht darin, sie mit;-;-;-;https://link.springer.com/article/10.1007/s10619-013-7133-7 633116f9df22b76508dfba5b58f4ac7c;de;;;7.3.;;;Ein viertes Gesetz der Robotik? Urheberrecht und Recht und Ethik der maschinellen Koproduktion Jon Bing war nicht nur ein Pionier im Bereich Künstliche Intelligenz und Recht und der rechtlichen Regulierung der Technik. Er war auch ein versierter Autor von Belletristik, mit einem Oeuvre, das von Kurzgeschichten und Romanen über Theaterstücke bis hin zu einer Oper reichte. Während die Realität die Vorstellungskraft von Science-Fiction-Autoren einholt, die eine Welt vorweggenommen haben, die von Menschen und nicht-menschlichen Intelligenzen geteilt wird, bekommen einige der Urheberrechtsfragen, die er in seiner akademischen Funktion diskutiert hat, neue Resonanz. Wie werden wir das Urheberrecht regulieren, wenn Roboter Kunstproduzenten und -konsumenten sind? Dieser Aufsatz versucht, eine Skizze des Problems zu geben und Hinweise auf mögliche Antworten zu geben, die in gewissem Maße von Bings akademischem und kreativem Schreiben inspiriert sind.;-;-;-;https://link.springer.com/article/10.1007/s10506-015-9169-7 c986511e71ee961194a27421386f6005;de;;;7.3.;;;Von Videos zu URLs: Ein Multi-Browser-Leitfaden zum Extrahieren des Benutzerverhaltens mit optischer Zeichenerkennung Die Verfolgung der Benutzeraktivitäten im World Wide Web (WWW) ermöglicht es Forschern, das Internetverhalten jedes Benutzers im Laufe der Zeit und für die auf einer bestimmten Domain verbrachte Zeit zu analysieren. Diese Analyse kann im Forschungsdesign verwendet werden, da Forscher beim Surfen im Internet auf das Verhalten ihrer Teilnehmer zugreifen können. Das Websuchverhalten ist aufgrund seiner realen Anwendungen im Marketing, der digitalen Werbung und der Identifizierung potenzieller Bedrohungen im Internet von Interesse. In diesem Papier stellen wir eine bildverarbeitungsbasierte Methode vor, um Domänen zu extrahieren, die von einem Teilnehmer über mehrere Browser während einer Laborsitzung besucht werden. Diese Methode könnte eine weitere Möglichkeit bieten, die Aktivitäten der Benutzer während einer Online-Sitzung zu erfassen, da der Sitzungsrekorder die Daten erfasst hat. Das Verfahren kann auch verwendet werden, um den Textinhalt von Webseiten, die eine Person besucht, zur späteren Analyse zu sammeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-17795-9_37 50de36b42217337b7d20dcda344304bf;de;;;7.3.;;;Ein Ansatz zur Früherkennung von Web-User-Aufgaben durch das Surfverhalten Es wurde eine Studie durchgeführt, um das Informationssuchverhalten von Webnutzern in Online-Zeitungen zu untersuchen, wobei zwischen den Aufgabenkategorien Faktensuche, Informationsbeschaffung und Browsen unterschieden wurde. Über einen Zeitraum von vier Wochen wurde das Surfverhalten von 41 Nutzern erfasst, die zusätzlich ein Tagebuch führten, um ihre Aktivitäten zu dokumentieren. Untersucht wurde, ob das Surfverhalten je nach Aufgabenstellung bereits zu Beginn einer Aktivität signifikante Unterschiede aufweist, was Voraussetzung für eine zeitnahe Reaktion auf aktuelle Nutzerbedürfnisse ist. Verhaltensaspekte wie die Anzahl der aufgerufenen Seiten, Scroll- und Mausbewegungsverhalten etc. ergeben den Ergebnissen zufolge bereits in den ersten 60 Sekunden einer Aufgabe signifikante Unterschiede. Dennoch zeigen Klassifikationstests, dass diese Verhaltensattribute noch nicht zu einer für eine solide Echtzeit-Aufgabenerkennung ausreichenden Vorhersagegenauigkeit führen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23017-2_5 a165a1edab0e0a6bdb57d0450b55dfc8;de;;;7.3.;;;Auf dem Weg zu einer agentenbasierten Rational-Service-Komposition – RACING-Ansatz Präsentiert wird die Vision der Autoren, wie vielfältige Webdienste zusammengestellt werden können, vermittelt durch dynamische Aufgabenkoalitionen von Agenten, die Aufgaben für Dienstanforderer ausführen. Der Schwerpunkt und der Beitrag des Papiers ist der Vorschlag der geschichteten Webservice-Vermittlungsarchitektur. Middle Agent Layer wird eingeführt, um Service Request-to-Task-Transformation, agentenfähige kooperative Aufgabenzerlegung und Performance durchzuführen. Präsentiert werden die formalen Mittel, um Agentenverhandlungen zu arrangieren, die semantische Struktur der Task-Activity-Service-Hierarchie abzubilden und die Fähigkeiten und Glaubwürdigkeitsfaktoren der Agenten einzuschätzen. Schließlich wird argumentiert, dass die vorgestellte formale Technik auf verschiedene Anwendungsdomänen anwendbar ist. Präsentiert werden die laufenden Arbeiten zum Aufbau einer agentenbasierten Schichtarchitektur für eine intelligente rationale Informations- und Dokumentenabruf-Mediation im Rahmen des RACING-Projekts.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39872-1_14 88114c9519b9ea76ee0e573a6a3d7298;de;;;7.3.;;;Erkennungs- und Korrekturschema von Internet-Chat-Lingo basierend auf Statistik und Pinyin-Ähnlichkeit Die Entwicklung des Internets fördert die Verwendung der Internet-Chat-Sprache. Diese Art von Sprache ist für die Verarbeitung natürlicher Sprache diversifiziert und unregelmäßig. In diesem Artikel haben wir gemäß den Merkmalen des chinesischen und Internet-Chat-Jargons eine Methode zur Erkennung und Korrektur von Jargon vorgeschlagen, die auf der Statistik und der Pinyin-Ähnlichkeit basiert. Diese Methode wendete das Bigram-Modell an, um die Grenze von Lingo zu erkennen, und korrigierte sie dann mithilfe der Pinyin-Ähnlichkeit. Nach den experimentellen Ergebnissen und Analysen kann unsere Methode Chat-Jingos effektiv erkennen und korrigieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34038-3_24 bd9374375a6f990d9ce539b6e4328d42;de;;;7.3.;;;Reduzieren von Abfragelatenzen in der Websuche durch feinkörnige Parallelität Die semantische Websuche ist eine neue Anwendung der jüngsten Fortschritte in den Bereichen Information Retrieval (IR), Verarbeitung natürlicher Sprache, künstlicher Intelligenz und anderen Bereichen. Die Powerset-Gruppe in Microsoft entwickelt eine semantische Suchmaschine, die darauf abzielt, Abfragen nicht nur durch übereinstimmende Schlüsselwörter zu beantworten, sondern tatsächlich Bedeutung in Abfragen mit Bedeutung in Webdokumenten abzugleichen. Im Vergleich zur typischen Stichwortsuche kann die semantische Suche zusätzliche technische Herausforderungen für das Backend- und Infrastrukturdesign darstellen. Die größte Herausforderung, die in diesem Whitepaper behandelt wird, besteht darin, die Abfragelatenzen auf ein akzeptables, interaktives Niveau zu senken. Die indexbasierte semantische Suche erfordert mehr Datenverarbeitung, wie beispielsweise zahlreiche Synonyme, Hypernyme, mehrere linguistische Lesarten und andere semantische Informationen sowohl bei Abfragen als auch im Index. Darüber hinaus können einige der Algorithmen superlinear sein, z. B. beim Abgleichen von Koreferenzen in einem Dokument. Folglich können viele semantische Abfragen erheblich langsamer ausgeführt werden als dieselbe Schlüsselwortabfrage. Benutzer erwarten jedoch zunehmend, dass Websuchmaschinen nahezu sofortige Ergebnisse liefern, und eine langsame Suchmaschine könnte als unbrauchbar angesehen werden, selbst wenn sie hochrelevante Ergebnisse liefert. Daher ist es für jede Suchmaschine unerlässlich, die Interaktivitätserwartungen ihrer Benutzer zu erfüllen oder sie zu verlieren. Unser Ansatz zur Bewältigung dieser Herausforderung besteht darin, Datenparallelität bei langsamen Suchanfragen auszunutzen, um deren Latenz in Mehrkernsystemen zu reduzieren. Obwohl alle Suchmaschinen darauf ausgelegt sind, Parallelität auszunutzen, bedeutet dies auf Einzelknotenebene normalerweise eine durchsatzorientierte Aufgabenparallelität. Dieses Papier konzentriert sich auf das Engineering von zwei latenzorientierten Ansätzen (grob- und feingranular) und vergleicht sie mit dem aufgabenparallelen Ansatz. Wir verwenden die von Powerset bereitgestellte Suchmaschine, um die verschiedenen Faktoren zu bewerten, die die parallele Leistung beeinflussen: Workload, Overhead, Load Balancing und Ressourcenkonflikte. Wir diskutieren auch Heuristiken, um den Grad der Parallelität und den daraus resultierenden Overhead auf Abfrage-für-Abfrage-Ebene selektiv zu steuern. Unsere experimentellen Ergebnisse zeigen, dass die Verwendung von feingranularer Parallelität mit diesen dynamischen Heuristiken Abfragelatenzen im Vergleich zu festen Parallelisierungsschemata mit grober Granularität erheblich reduzieren kann. Obwohl diese Ergebnisse mit der semantischen Suche von Powerset erzielt und für diese optimiert wurden, können sie leicht auf eine breite Klasse von Suchmaschinen mit umgekehrtem Index verallgemeinert werden.;-;-;-;https://link.springer.com/article/10.1007/s11280-009-0066-4 e2abffbf25d9e72ad003141ca527dbe5;de;;;7.3.;;;Datenschutz in georeferenzierten kontextbezogenen Diensten: Eine Umfrage Location Based Services (LBS) sind eine spezifische Instanz einer breiteren Klasse von Internetdiensten, die voraussichtlich in naher Zukunft populär werden: kontextbezogene Dienste. Die von LBS geäußerten Datenschutzbedenken werden wahrscheinlich noch schwerwiegender, wenn im Rahmen einer Internetanfrage mehrere Kontextdaten außer Ort und Zeit an Dienstanbieter gesendet werden. Dieses Papier bietet eine Klassifizierung und einen kurzen Überblick über die Techniken zum Schutz der Privatsphäre, die für diese Art von Diensten vorgeschlagen wurden. Nach der Identifizierung der Vorteile und Mängel jeder Klasse von Techniken schlägt das Papier einen kombinierten Ansatz vor, um eine umfassendere Lösung für den Datenschutz in georeferenzierten kontextbezogenen Diensten zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03511-1_7 448f205a63f9892a1fc15f32782dc040;de;;;7.3.;;;Ein Framework für Multimedia Software Engineering Am 31. Dezember 1998 brachte USA Today einen interessanten Artikel mit dem Titel „Geburt einer neuen Ordnung“ über das Jahr, in dem die Zeit- und Raumlinien der Welt zusammenbrachen. Die prägnantesten Absätze sind im Folgenden auszugsweise aufgeführt:;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4435-7_1 d4652ce7408904c7371e5056350dc400;de;;;7.3.;;;Unscharfe Auswahl von Softwarekomponenten und Webservices Es wird ein Überblick über die Suche und Auswahl von Softwarekomponenten und -diensten über ein Netzwerk gegeben. Insbesondere überprüfen wir Techniken, die auf Fuzzy-gewichteten Deskriptoren von Komponenten basieren. Diese Techniken ermöglichen es Entwicklern einer neuen Anwendung, eine Anfrage über das Netzwerk zu senden, um die am besten geeignete Kandidatenkomponente zur Wiederverwendung zu suchen. Die Syntax und Semantik von Deskriptoren und von „Anpassbarkeit“ basierend auf Fuzzy-Kalkül wird zusammen mit einem Beispiel für die Online-Suche von Komponenten über eine Site, die einen Fuzzy-Trader implementiert, gegeben. Wir beschreiben eine Architektur, die auf einem Trader basiert und eine Hierarchie von Deskriptoren speichert, die es ermöglicht, sowohl funktionale als auch nicht-funktionale Merkmale der vernetzten Komponenten und Dienste darzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-44405-3_1 93c19d1b53f1092ef38d86319473490d;de;;;7.3.;;;Effizientes Computing Offloading für das Internet of Vehicles in Edge-Computing-unterstützten 5G-Netzen Das Internet der Fahrzeuge (IoV) wird verwendet, um Echtzeit-Verkehrsinformationen für Fahrer zu sammeln, und Basisstationen in 5G-Systemen werden verwendet, um die Verkehrsdatenübertragung zu unterstützen. Für eine schnelle Implementierung können die Anwendungen in Fahrzeugen auf Edge-Nodes (ENs) ausgelagert werden, die von Mikrobasisstationen erweitert werden. Trotz der Vorteile von IoV und ENs übersteigt das explosive Wachstum von entladenen Fahrzeuganwendungen die Kapazität von ENs, was zu einer Überlastung von fraktionierten ENs führt. Daher ist es notwendig, die Rechenanwendungen in überlasteten ENs auf andere untätige ENs auszulagern, während es eine Herausforderung ist, geeignete Entladeziel-ENs auszuwählen. In diesem Papier betrachten wir zunächst das Edge-Computing-Framework für das Computing Offloading in IoV unter der Architektur von 5G-Netzwerken. Anschließend formulieren wir ein Mehrzieloptimierungsproblem zur Auswahl geeigneter Ziel-ENs, das darauf abzielt, die Entladeverzögerung der Fahrzeuganwendung und die Entladekosten zu minimieren sowie den Lastausgleich der ENs zu realisieren. Darüber hinaus wurde eine Computation Offloading-Methode für IoV namens COV entwickelt, um das Mehrzieloptimierungsproblem zu lösen. Schließlich belegen verschiedene Simulationsanalysen die Effektivität und Effizienz von COV.;-;-;-;https://link.springer.com/article/10.1007/s11227-019-03011-4 cb13d5c13bb9b259cb0f9a5f5c960e6c;de;;;7.3.;;;Elliptic Curve Cryptography-based Signcryption Scheme mit einem starken Designated Verifier für das Internet der Dinge Das Internet der Dinge (IoT) ist eine neue Technologie, die im World Wide Web wächst. Es gibt Szenarien, in denen das reale Objekt Daten über ein unsicheres drahtloses Netzwerk überträgt. Die Sicherheit im IoT wurde aufgrund der geringen Rechen- und Kommunikationskapazität des Objekts schwieriger. Das vorgeschlagene Signcryption-Schema ist eine Kombination aus einer digitalen Signatur und einer symmetrischen Schlüsselverschlüsselung in einer einzigen logischen Einheit, die die Rechenkomplexität im Vergleich zur herkömmlichen Signatur reduziert Prüfer. Der Rechen- und Kommunikationsaufwand des elliptischen Kurvenkryptographie-(ECC)-Schemas ist aufgrund der kurzen Schlüssellänge mit demselben Sicherheitsniveau im Vergleich zu anderen Kryptosystemen mit öffentlichem Schlüssel geringer. Die Sicherheitshärte des Schemas basiert auf dem diskreten elliptischen Kurvenlogarithmus (ECDLP) und stellt auch verschiedene Sicherheitsanforderungen bereit. Das vorgeschlagene Schema hat einen geringen Rechen- und Kommunikationsaufwand bei geringer Energieeffizienz für IoT-Szenarien.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1884-3_44 222393daf81ef2bf5e48f39e70cf7c27;de;;;7.3.;;;Verwendung von Domain-Ontologien für die Websuche Das Web ist ein breites Repository an verfügbaren Informationen, aber seine Heterogenität, Größe und auf den Menschen ausgerichtete Semantik stellt ein Hindernis bei der Suche nach gewünschten Informationen dar. Websuchmaschinen sind eine große Hilfe beim Zugriff auf Webressourcen, dennoch sind ihre Klassifizierungsalgorithmen noch begrenzt, da sie nur das Vorhandensein eines bestimmten Schlüsselworts oder von Links überprüfen, sie analysieren nicht den semantischen Inhalt der Ressourcen. In den letzten Jahren wurden mehrere Arbeiten zur Umwandlung des Webs von einem Informationsraum in einen Wissensraum unter Verwendung gemeinsamer Pläne durchgeführt. Eine Möglichkeit, dieses Ziel zu erreichen, ist die Verwendung von Ontologien. Das vorliegende Papier schlägt eine Methodik vor, bei der zuvor definierte Domänenontologien und die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85863-8_38 74188d5ad7da09fef3d199c006e5c2c9;de;;;7.3.;;;Elektronische Straßen: Intelligente Navigation durch multikontextuelle Informationen Dieses Papier schlägt ein Modell für intelligente Navigation durch multikontextuelle Informationen vor, die elektronische Straßen in der Informationsgesellschaft bilden könnten. Ziel dieses Beitrags ist es, das Problem elektronischer Informationsstraßen zu adressieren, deren Begriff und technische Ausgestaltung zu definieren sowie die für die Implementierung eines solchen Systems entwickelten Werkzeuge vorzustellen. Das Hauptziel des vorgeschlagenen Modells besteht darin, dem Reisenden die Möglichkeit zu geben, den Informationsraum auf natürliche Weise zu erkunden, wobei die angebotenen Informationen kontinuierlich interessant bleiben. Das System bietet Verknüpfungen zu Informationen auf dynamische und adaptive Weise. Dies wird durch den Einsatz intelligenter Navigationstechniken erreicht, die Benutzerprofile und Metadaten kombinieren. Elektronische Straßen betonen die Präsentation multikontextueller Informationen, d. h. Informationen, die semantisch verwandt, aber unterschiedlicher Natur an verschiedenen Orten und zu verschiedenen Zeiten sind. Eine elektronische Straße ist der Navigationspfad des Benutzers durch eine Reihe von Informationseinheiten. Informationseinheiten sind die Bausteine ​​der verfügbaren kulturellen Informationsinhalte.;-;-;-;https://link.springer.com/article/10.1007/s10115-003-0090-0 d6557db1d48891731d14914e74be85df;de;;;7.3.;;;Vorhersage des Ersatzes von Smartphones durch die Nutzung mobiler Apps Die richtigen Kunden zu identifizieren, die beabsichtigen, das Smartphone zu ersetzen, kann dazu beitragen, präzises Marketing zu betreiben und so den Handy-Händlern erhebliche finanzielle Vorteile zu bringen. In diesem Whitepaper stellen wir eine Studie zur Nutzung mobiler Apps zur Vorhersage von Benutzern vor, die das Telefon in Zukunft wechseln werden. Wir analysieren zunächst die Eigenschaften mobiler Logdaten und entwickeln das temporale Bag-of-Apps-Modell, das die Rohdaten in die App-Nutzungsvektoren umwandeln kann. Anschließend formulieren wir das Vorhersageproblem, präsentieren das gefahrenbasierte Vorhersagemodell und leiten das Inferenzverfahren ab. Schließlich evaluieren wir sowohl das Datenmodell als auch das Vorhersagemodell an realen Daten. Die experimentellen Ergebnisse zeigen, dass das zeitliche Nutzungsdatenmodell die einzigartigen Eigenschaften mobiler Protokolldaten effektiv erfassen kann und das gefahrenbasierte Vorhersagemodell daher viel effektiver ist als herkömmliche Klassifizierungsverfahren. Darüber hinaus ist das Gefährdungsmodell erklärbar, d. h. es kann leicht aufzeigen, wie sich die Ablösung von Smartphones im Zeitverlauf auf die Nutzung mobiler Apps bezieht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48740-3_25 c38d65f1f3f94acf3fcac9bcb7ee89bb;de;;;7.3.;;;Eine Community-Health-Service-Architektur basierend auf dem Internet der Dinge im Gesundheitswesen Um eine medizinische Versorgung älterer Menschen, die allein leben oder eine chronische Krankheit haben, in Echtzeit zu gewährleisten und die Reaktionsfähigkeit und Qualität des Gemeindekrankenhauses zu verbessern, wurde eine Gemeindegesundheitsdienstarchitektur basierend auf dem Internet der Dinge im Gesundheitswesen entwickelt. Pflege. Die körperphysiologischen und sportlichen Informationen der Benutzer können von den Gesundheitssensoren zu Hause intelligent erfasst und nach der Informationsverarbeitung über Netzwerke an das kommunale Gesundheitszentrum übertragen werden. Die Gemeindeärzte können einen medizinischen Service per Video, Sprache oder E-Mail gemäß den Prozessnotizen, Testdaten und Symptomen der Benutzer bereitstellen. Selbstverständlich können Ärzte auch online mit anderen Spezialisten kommunizieren und ihre Meinung teilen. Die Schlüsseltechnologie dieses Systems ist das Internet der Dinge im Gesundheitswesen. Das Internet der Dinge im Gesundheitssystem kann die Gesundheitsinformationen der Benutzer aktiv abrufen und dann umgehend intelligente Entscheidungen treffen und schließlich einen persönlicheren Gesundheitsdienst bereitstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29305-4_345 d39ee55bf0773595d230db66d68142bb;de;;;7.3.;;;Offene Datenquellen zur Entwicklung mobiler Anwendungen und Prognose mikrobieller Kontamination in Badegewässern Dieses Papier beschreibt eine serviceorientierte Architektur für Mobil- und Webanwendungen und die Ermöglichung partizipativer Beobachtungen der Umgebung. Die Architektur beherbergt generische Vorhersagemodelle für das mikrobielle Risiko in Badezonen, die durch heterogene Eingabedaten trainiert werden. Für den Bau solcher Anwendungen werden offene Beobachtungsdatenquellen verwendet, die auf Wasserqualitätsindikatoren und Umweltprozesse spezialisiert sind. Dennoch war die angetroffene Integration der offenen Datenquellen aufgrund der verschiedenen Inkompatibilitäten in Datenproben eine Herausforderung. Dazu gehörten Datenlücken mit unterschiedlicher zeitlicher und räumlicher Abdeckung sowie widersprüchliche Erhebungsrichtlinien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-15994-2_30 4192d849309550d4bc733e3d5f8ba826;de;;;7.3.;;;Dynamische Verbesserung von Arzneimitteletiketten zur Unterstützung der Arzneimittelsicherheit, Wirksamkeit und Wirksamkeit Veraltete oder unvollständige Informationen zur Arzneimittelkennzeichnung können das Risiko ansonsten vermeidbarer unerwünschter Arzneimittelereignisse erhöhen. In Anerkennung dieser Bedenken verlangt die US-amerikanische Arzneimittelbehörde FDA, dass die Etiketten von Arzneimitteln spezifische Informationen enthalten. Leider haben mehrere Studien ergeben, dass die Kennzeichnung von Arzneimitteln nicht mit der wissenschaftlichen Literatur übereinstimmt. Wir stellen einen neuartigen Ansatz vor, um dieses Problem anzugehen. Das Hauptziel dieses neuartigen Ansatzes besteht darin, den Informationsbedarf von Personen besser zu erfüllen, die das Arzneimitteletikett nach Informationen über die Wirksamkeit, Wirksamkeit und Sicherheit eines Arzneimittels konsultieren. Unter Verwendung der FDA-Richtlinien für Produktetiketten verknüpft der Ansatz Arzneimittelaussagen, die in den im Semantic Web verfügbaren Arzneimittelinformationsquellen enthalten sind, mit bestimmten Abschnitten auf den Produktetiketten. Hier berichten wir über Pilotarbeiten, die die grundlegenden Leistungsmerkmale eines Proof-of-Concept-Systems festlegen, das den neuartigen Ansatz implementiert. Behauptungen aus drei Informationsquellen zu Arzneimitteln wurden mit der;-;-;-;https://link.springer.com/article/10.1186/2041-1480-4-5 b580a322011a58ca5aa5ff409b3d6178;de;;;7.3.;;;Auf dem Weg zum Geospatial Web: Medienplattformen für die Verwaltung von Geotagged Knowledge Repositories Internationale Medien haben die visuelle Attraktivität von Geo-Browsern wie NASA World Wind und Google Earth erkannt, als beispielsweise im August 2005 Web- und Fernsehberichte über den Hurrikan Katrina interaktive Geoprojektionen verwendeten, um seinen Weg und das Ausmaß der Zerstörung zu illustrieren frühe Anwendungen weisen nur auf das wahre Potenzial der Geodatentechnologie hin, um virtuelle Gemeinschaften aufzubauen und zu unterhalten und die Produktion, den Vertrieb und den Konsum von Medienprodukten zu revolutionieren. In diesem Kapitel wird dieses Potenzial untersucht, indem die Literatur durchgesehen und die Integration von georäumlichen und semantischen Referenzsystemen diskutiert wird, wobei der Schwerpunkt auf der Extraktion des räumlichen Kontexts aus unstrukturiertem Text liegt. Eine Inhaltsanalyse der Berichterstattung basierend auf einer Reihe von Text-Mining-Tools (webLyzard) gibt Aufschluss über die Popularität und Akzeptanz von Geodatenplattformen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84628-827-2_1 8b4f0fc4655c2743a71d0777abe61599;de;;;7.3.;;;Änderungszusammenfassung in Websammlungen Das World Wide Web ist nicht nur ein riesiger, sondern auch dynamischer Informationsraum. Jeden Tag werden viele neue Informationen auf Webseiten veröffentlicht. Oft möchten die Leute wissen, was die wichtigsten Veränderungen in ihrem Interessengebiet in einem bestimmten Zeitraum sind. Dieses Papier befasst sich mit dem Problem der Zusammenfassung von Änderungen in Websammlungen, die einem gemeinsamen Thema gewidmet sind. Wir haben ein System namens ChangeSummarizer entwickelt, das regelmäßig eine Websammlung auf der Suche nach neuen Änderungen überwacht und deren Zusammenfassung erstellt. Da viele Webseiten über lange Zeit recht statisch oder einfach nicht mit der Abfrage in Zusammenhang stehen können, verwenden wir die Methode um auszuwerten, welche Seiten dynamisch sind und welche wertvollen Inhalt liefern. Basierend auf dieser Auswertung erstellt ChangeSummarizer eine Webseiten-Rangliste und aktualisiert diese regelmäßig, um spätere Zusammenfassungen zu verbessern. Darüber hinaus sucht das System nach neuen, wertvollen Webseiten, die zur Qualitätssteigerung in die Sammlung aufgenommen werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24677-0_67 77958e33a3b9da17c5c6e2fcfff541ad;de;;;7.3.;;;Ein ontologiebasiertes und kooperatives Annotationssystem Das Semantic Web ist charmant, aber nicht einfach zu realisieren, da einer der erforderlichen Schritte darin besteht, semantische und präzise Daten gemäß traditionellen Webseiten zu erstellen. Wir bieten ein Annotationssystem ConAnnotator, welches ein ontologiebasiertes Annotationssystem ist und kooperatives Arbeiten ermöglicht. Es zielt darauf ab, den Annotationsprozess sowie die Weiterentwicklung der Ontologie zu unterstützen. Durch halbautomatisches Erstellen ontologiebasierter Annotationen und Verwaltung der statistischen Informationen über den Annotationsverlauf erleichtert es den Annotationsprozess, verbindet die annotierten Dokumente mit der Ontologie und baut das Semantic Web weiter auf und hilft den Benutzern letztendlich, die Ontologie selbst zu entwickeln .;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-44641-7_58 2ee205a3471f337f993d32745e5139c7;de;;;7.3.;;;Anomalieerkennung bei der Gewährleistung der Sicherheit des Netzwerkverkehrs Der Artikel konzentriert sich auf ein ausgewähltes Element der Netzwerksicherheit, nämlich die Erkennung von Anomalien bei der Überwachung des Netzwerkverkehrs. Die Komponente zur Anomalieerkennung wird im Rahmen des Regional Security Operation Center (entwickelt im RegSOC-Projekt) – einer lokalen Instanz des Security Operational Center (SOC) – entwickelt, um Vorfälle oder deren Symptome in Form von Ausreißerbeobachtungen in Daten zu erkennen. Das Ziel der Forschung ist die Bewertung und Auswahl von Implementierungsmethoden und -werkzeugen, die den Anforderungen des durchgeführten RegSOC-Projekts entsprechen. Das Papier erörtert die Rolle und Platzierung solcher Tools in der allgemeinen SOC-Architektur und die Anforderungen, die von diesen Tools im Hinblick auf die spezifischen RegSOC-Projektanforderungen erfüllt werden müssen. Als nächstes wird eine Überprüfung der verfügbaren Methoden und Werkzeuge durchgeführt, um die nützlichsten auszuwählen. Mit dem ausgewählten Tool wird ein allgemeines Konzept der Sicherheitsanalysekomponente präsentiert und anhand der Projektanforderungen bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-19501-4_5 2c154c00904295f4ca82ed8c7bff48fe;de;;;7.3.;;;Neuronales Netzmodell für die Extraktion von hervorgehobenen Wörtern Suchmaschinen übernehmen die Aufgabe, Informationen zu den vom Benutzer eingegebenen Abfragewörtern abzurufen. Diese Aufgabe besteht aus zwei Teilen, einer besteht darin, „vorgestellte Wörter“ zu finden, die einen Artikel am besten beschreiben, und die andere besteht darin, zwischen diesen Wörtern eine Übereinstimmung mit benutzerdefinierten Suchbegriffen zu finden. Es gibt zwei hauptsächlich unabhängige Ansätze, um diese Aufgabe zu lösen. Der erste, der die Konzepte der Semantik verwendet, wurde teilweise implementiert. Für weitere Details siehe ein anderes Papier von Marko et al., 2002. Der zweite Ansatz wird in diesem Papier beschrieben. Es ist ein theoretisches Modell, das auf der Verwendung eines neuronalen Netzes (NN) basiert. Anstatt Schlüsselwörter zu verwenden oder aus den ersten Zeilen von Aufsätzen/Artikeln zu lesen, legt das vorliegende Modell den Schwerpunkt darauf, „besondere Wörter“ aus einem Artikel zu extrahieren. Offensichtlich schlagen wir vor, Präpositionen, Artikel usw., also englische Wörter wie „of, the, are, so, deshalb“ usw. aus einer solchen Liste auszuschließen. Ein neuronales Modell wird mit seinen Knoten vorab zugewiesenen Energien genommen. Immer wenn eine Übereinstimmung mit vorgestellten Wörtern und benutzerdefinierten Suchwörtern gefunden wird, wird der Knoten gefeuert und springt zu einer höheren Energie. Dieses Feuern wird fortgesetzt, bis das Modell ein stabiles Energieniveau erreicht und nun die Gesamtenergie berechnet wird. Natürlich erzeugt eine höhere Übereinstimmung eine höhere Energie, sodass auf der Grundlage der Gesamtenergie eine Rangfolge für den Artikel erstellt wird, die den Grad der Relevanz für das Interesse des Benutzers angibt. Ein weiteres wichtiges Merkmal des vorgeschlagenen Modells ist das Einbeziehen eines semantischen Moduls, um die Suchwörter zu verfeinern, wie zum Beispiel das Finden einer Zuordnung zwischen Suchwörtern usw. Auf diese Weise kann die Informationsgewinnung deutlich verbessert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73849-7_39 af7ab20545c7cdfcaa23d3a8ffd5357d;de;;;7.3.;;;Eine pragmatische, erfahrungsbezogene Definition von Computerkriminalität Obwohl der erste bekannte Virus für einen PC bis 1980 zurückverfolgt wurde und 1984 eine systematische Studie in den Bell Labs durchgeführt wurde [1,2], wurde die Welt wirklich nicht darauf aufmerksam, bis der Melissa-Virus begann, Millionen von Computern in Ende März 1999. Nach dem Melissa-Virus wurde Elliot Turrini als leitender Staatsanwalt für die kriminellen Ermittlungen des Justizministeriums gegen Melissas Multiplikator eingesetzt. Dies prägte auch die Konzeption dieses Buches. Elliot hatte wenig mit der körperlichen Untersuchung zu tun, die zur Festnahme des Täters führte. Mit wertvoller Unterstützung der Ermittler von America Online (AOL) nahmen die New Jersey State Police und das Federal Bureau of Investigation den Täter David Smith innerhalb weniger Tage fest. Schnell wurde klar, dass die Festnahme des Täters der relativ leichte Teil war. AOL hatte einen Bericht vorgelegt, aus dem hervorging, dass der Melissa-Virus in einer unter AOL gehosteten Usenet-Gruppe von einer Person gepostet wurde, die von einem kleinen ISP in Monmouth County, New Jersey, auf ein AOL-Konto zugegriffen hatte. Die Anruferidentifikationsinformationen in der Anrufaufzeichnung dieses kleinen ISPs zeigten, dass der Virus aus David Smiths Wohnung gestartet wurde. Die verbleibenden Schritte im Zusammenhang mit dem Nachweis, dass David Smith das Virus ins Leben gerufen hatte, beinhalteten klassische Polizeiarbeit, einschließlich Durchsuchungsbefehle und Interviews, die die New Jersey State Police und das FBI sehr gut führten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13547-7_1 62d8b3de5e6bc22adb4eb175d2b58f0f;de;;;7.3.;;;Globale Beschaffung außerhalb der Produktion bei Motorola: Management der sich entwickelnden Unternehmensinfrastruktur In diesem Kapitel beschreiben wir die Erfahrungen bei Motorola mit dem Einsatz von E-Commerce-Technologien zur integrierten Unterstützung und Optimierung der Beschaffung außerhalb der Produktion weltweit. Wir zeigen Erfolge auf und diskutieren einige der Herausforderungen und Überlegungen, mit denen das Unternehmen in der Zukunft konfrontiert ist.;-;-;-;https://link.springer.com/chapter/10.1007/0-306-47548-0_7 57308461d8945cff41e468ed28bebc3b;de;;;7.3.;;;Verwenden der Evolutionsstrategie für kooperatives fokussiertes Crawlen im Semantic Web Herkömmliche fokussierte Crawling-Systeme haben Schwierigkeiten beim Abruf kontextbezogener Informationen in einer semantischen Webumgebung. Um diese Probleme zu lösen, schlagen wir eine kooperative Crawler-Plattform vor, die auf einer Evolutionsstrategie basiert, um eine semantische Struktur (d. h. lokale Ontologien) von Webspaces aufzubauen. Hauptsächlich können mehrere Crawler semantische Instanzen (d. h. Ontologiefragmente) aus annotierten Ressourcen in einem Webspace entdecken, und ein zentralisierter Meta-Crawler kann eine inkrementelle Aggregation der von den mehreren Crawlern gesendeten semantischen Instanzen durchführen. Dazu nutzen wir einen auf Ähnlichkeit basierenden Ontologie-Matching-Algorithmus für die Berechnung;-;-;-;https://link.springer.com/article/10.1007/s00521-008-0173-7 a4ee4b5a600b4649d8a6abeace3838f3;de;;;7.3.;;;Überwachungssystem vernetzter Tankstellen basierend auf Embedded Dynamic Web Das Öl ist eine Art strategisches Material, und daher hat die Stärkung des Managements von Ölmaterial eine sehr wichtige Bedeutung. Auf den Unterschied im Kommunikationsprotokoll zwischen Zapfsäulen von Tankstellen ausgerichtet, was dazu führte, dass die Integration des Überwachungssystems schwierig zu realisieren war, schlug dieser Artikel eine Art integrierte Überwachungslösung auf der Grundlage des eingebetteten Webs vor. Das Kerngerät des Überwachungssystems wählte eine Art eingebetteten Webserver basierend auf der Intel Xscale IXP-422 RISC CPU. Die im industriellen Bereich von Tankstellen verteilten Server sind über industrielles Ethernet miteinander verbunden und bilden ein Weitverkehrsnetzsystem basierend auf Webservice. Der Feldbus des Feldgerätes ist mit Webserver im Feld-Lokalbereich von Tankstellen verbunden, um die integrierte Überwachung des Feldgeräts zu vervollständigen. Das System übernahm die Architektur eines verteilten Browsers/Servers. Durch den Ansatz von Apache+Html+PHP konnte die Überwachung und Verwaltung der Tankstellen auf Basis von Embedded Web realisiert werden und die Realisierung des dynamischen Webbrowsens durch die Steuereinheit abgeschlossen werden. Die tatsächlichen Testdaten zeigten, dass sie ein hohes Sicherheitsniveau, eine stärkere Entstörung, eine bessere Umgebungsanpassungsfähigkeit und eine höhere Echtzeitleistung aufweisen könnten. Das Forschungsergebnis zeigt, dass die vorgeschlagene Lösung machbar und sinnvoll ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38667-1_44 1dde02febab0111764dfcd56c8ce82f3;de;;;7.3.;;;Die Überlastung personenbezogener Daten wirkt sich auf den Schutz von Informationen im Zeitalter des Internets der Dinge (IoT) aus Mit dem Aufkommen der Informationsflut im Zeitalter des Internets der Dinge (IoT) werden Daten unabhängig vom persönlichen Willen erhoben und Informationen verarbeitet. Diese Studie zielt darauf ab, die Auswirkungen einer Überlastung persönlicher Informationen auf wahrgenommene Risiken und Informationen zum Schutz von Informationen in der IoT-Umgebung zu untersuchen. In dieser Studie wurde ein Forschungsmodell zum Thema „Personal Information Overload“ vorgeschlagen und empirische Analysen durchgeführt. Die wichtigsten Erkenntnisse sind wie folgt. Erstens hatte die Überlastung persönlicher Informationen einen signifikanten Einfluss auf die wahrgenommenen Risiken (wirtschaftliche, soziale, Zeitverlust und Datenschutzrisiken). Zweitens hatten unter den wahrgenommenen Risiken wirtschaftliche, soziale und Datenschutzrisiken einen signifikanten Einfluss auf die Reaktionen zum Schutz von Informationen, während das Risiko von Zeitverlust dies nicht tat.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7605-3_141 28e07421ffa444b4c13d86e364bd81dd;de;;;7.3.;;;Agentenbasierte faire Lastverteilung im Linux-Webserver-Cluster Das Clustern der replizierten Webserver ist eine geeignete Methode, um ein Webinformationssystem aufzubauen. Ein mit Software-Clustering-Technologie betriebener LVS (Linux Virtual Server) stellt den Webdienst basierend auf einer Linux-Umgebung bereit. Das LVS ist die zentrale Struktur, bei der die Last durch einen Load Balancer auf die realen Server verteilt werden soll. Ein Round-Robin-Scheduling-Verfahren oder ein Scheduling-Verfahren der kleinsten Verbindung kann ein Lastungleichgewicht zwischen den realen Servern verursachen, da solche Verfahren die Last auf die realen Server verteilen, ohne die tatsächliche Last der realen Server zu berücksichtigen. In diesem Papier schlagen wir ein faires Lastverteilungsschema vor, das die Anforderungen sogar gerechter verteilen kann als ABSS, das früh vorgeschlagen wurde, um das Problem der Scheduling-Methoden in der LVS zu lösen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24604-6_14 237e0dbada8e281e4ab93f59f72d36e0;de;;;7.3.;;;Erkennung bösartiger URLs durch dynamisches Mining-Muster ohne vordefinierte Elemente Das Erkennen bösartiger URLs ist eine wesentliche Aufgabe der Netzwerksicherheitsintelligenz. In diesem Whitepaper liefern wir zwei neue Beiträge, die über die hochmodernen Methoden zur Erkennung bösartiger URLs hinausgehen. Anstatt vordefinierte Merkmale oder feste Trennzeichen für die Merkmalsauswahl zu verwenden, schlagen wir vor, lexikalische Muster dynamisch aus URLs zu extrahieren. Unser neuartiges Modell von URL-Mustern bietet neue Flexibilität und Möglichkeiten bei der Erfassung bösartiger URLs, die algorithmisch von bösartigen Programmen generiert werden. Zweitens entwickeln wir eine neue Methode zum Mining unserer neuartigen URL-Muster, die nicht mit vordefinierten Elementen zusammengestellt werden und daher nicht mit bestehenden häufigen Pattern-Mining-Methoden abgebaut werden können. Unsere umfangreiche empirische Studie mit realen Datensätzen von Fortinet, einem führenden Unternehmen der Netzwerksicherheitsbranche, zeigt deutlich die Effektivität und Effizienz unseres Ansatzes.;-;-;-;https://link.springer.com/article/10.1007/s11280-013-0250-4 640cd23239092971f22a27a391c996c9;de;;;7.3.;;;Konzeptionelle Informationsbeschaffung Eine regelmäßige und anspruchsvolle Aufgabe in Anwaltskanzleien ist die Suche nach Dokumenten zu einem beliebigen Thema. Der Punkt liegt in der Tatsache, dass jeder neue Prozess nach ähnlichen, bereits aufgetretenen ocurrent analysiert wird – die vergangenen Analysen unterstützen den aktuellen. Dennoch ist diese Suche zeitaufwendig, da die Anzahl der Dokumente in der Regel groß ist. Klassische IR-Tools rufen normalerweise eine beträchtliche Menge irrelevanter Dokumente ab – bei denen die Begriffe der Abfrage nicht die beabsichtigte Bedeutung ausdrücken – und können relevante übersehen – bei denen die beabsichtigte Bedeutung durch verschiedene Begriffe repräsentiert wird. In diesem Beitrag wird eine Suchmaschine basierend auf der Konzeptanalyse vorgestellt. Die Suchmaschine ermöglicht das Auffinden von Dokumenten basierend auf der Bedeutung, die durch die Begriffe einer Abfrage ausgedrückt wird, und nicht auf ihrer lexikalischen Darstellung. Dadurch wird eine effektivere Analyse vergangener Prozesse in Anwaltskanzleien erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-25958-9_13 b24d3aae87790fa66d866de37483f5e3;de;;;7.3.;;;Serviceorientierte Programmierung: Ein neues Paradigma der Software-Wiederverwendung In den letzten Jahren haben sich Websites von einfachen Sammlungen statischer Inhalte zu Anbietern komplexer Dienste für Benutzer entwickelt. Diese Entwicklung hat es den Benutzern ermöglicht, von verschiedenen maßgeschneiderten Diensten zu profitieren, die ihren Bedürfnissen entsprechen. Derzeit sind viele Dienste geografisch orientiert und verfügen über lokalisierte Funktionen, kommunizieren jedoch nicht mit Systemen, die aus geografischer oder funktionaler Sicht komplementär sind. Die geografische Ausdehnung ist jedoch eine natürliche Dimension, auf der einfache Dienste in komplexe integriert werden können. Diese Integration erfordert einen Container, der eine gemeinsame und vereinheitlichende Ansicht des Territoriums bietet. Ein GIS mit topologischen Informationen ist die ideale Kartierung für Dienste, die sich auf ein bestimmtes Gebiet beziehen. Die Integration bietet eine Möglichkeit, neue Dienste durch die Wiederverwendung von Diensten zu erstellen, die nur eine Teilmenge der Funktionalität bereitstellen, die in sehr unterschiedlichen integrierten Diensten verwendet werden könnte. In diesem Papier werden die Integrationsprobleme lokalisierter Dienste mit einem GIS analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-46020-9_19 29e10038a56c1fabab60801b90a8ba96;de;;;7.3.;;;DSBAF: Ausführen meiner Webdienste in Ihrer WS-Umgebung SaaS ist der Forschungs-Hotspot des Cloud Computing in der Software-Anwendungsschicht. Mit der breiten Anwendung der Webservice-Kompositionstechnologie wird die Webservice-Interaktion immer komplexer, während das statische Webservice-Verhaltensanpassungsverfahren schwierig ist, eine komplexe Verhaltensanpassung zwischen Webservices zu unterstützen. Dieses Papier stellt ein Verhaltensanpassungsmodell BAM und ein Anpassungsframework DSBAF mit dynamischer Verhaltensanpassung für Webdienste vor. Das Verfahren, das die Webdienstanpassung durch die motorgetriebene Ausführungseinheit mit Verhaltensanpassung, separater Modellierung und dynamischem Laden des Adapterrahmenmodells abschließt, ist in der Lage, die Webdienstanpassung dynamisch abzuschließen. Darüber hinaus kann die Verwendung des Verhaltensanpassungsmodells einen virtuellen Dienst auf DSBAF aufbauen bei Laufzeit, die unseren Webservice in der externen Umgebung ausführen lässt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16050-4_13 d1b3abef1017f3fac3cd111b795df9e8;de;;;7.3.;;;Indexkombinationen und Abfrageumformulierungen für gemischten einsprachigen Webabruf Wir untersuchen die Effektivität auf dem mehrsprachigen WebCLEF 2006 Test-Set von leichtgewichtigen Methoden, die sich in anderen Web-Retrieval-Settings bewährt haben: Kombinationen von Dokumentrepräsentationen einerseits und Techniken zur Neuformulierung von Abfragen andererseits.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74999-8_104 c9001d118532d66847541c093aec6dc0;de;;;7.3.;;;Dialog erleichtern - Semantic Web Technologie für eParticipation nutzen In diesem Papier beschreiben wir die Anwendung verschiedener Semantic Web-Technologien und ihre Kombination mit aufkommenden Web 2.0-Nutzungsmustern im Bereich der ePartizipation und zeigen, wie sie in einem operativen System für die Regionalregierung der Präfektur Samos, Griechenland, verwendet werden. Wir stellen Teile des Systems vor, die auf Semantic-Web-Technologie basieren und wie sie mit einer Web 2.0-Philosophie verschmolzen werden, und erläutern die Vorteile dieses Ansatzes, wie sie an Anwendungen zum Kommentieren, Suchen, Durchsuchen und Querverweisen von Inhalten in eParticipation-Communitys demonstriert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13486-9_18 1eb24e46bb785c8606b34376958f39b8;de;;;7.3.;;;Design und Implementierung eines hostbasierten Intrusion Detection Systems für Linux-basierte Webserver Im Zeitalter der blühenden Informatik und Internettechnologie können die Menschen die Vernetzung in unserem Leben nicht abschaffen. Allerdings wird die große Anzahl von Nutzern, die Website-Dienste zu den beliebtesten Zielen für Hacker machen. Obwohl diese bösartigen Verhaltensweisen von einem Netzwerk-Intrusion-Detection-System erkannt werden können, ist es aufgrund des Datenmangels schwierig, genaue Ergebnisse zu erzielen. In diesem Artikel wurde eine Lösung vorgeschlagen, die ein Host-Intrusion-Detection-System verwendet, das sich auf die Host-Log-Erkennung von Webservern konzentriert. Neben der Portüberwachung zur Überwachung der Netzwerkumgebung wurden in diesem Dokument auch Signaturen von Webangriffen und bösartigen Aktivitäten mithilfe eines signaturbasierten Ansatzes gesammelt. Darüber hinaus wird diese Untersuchung mit der Dateiüberwachungsfunktion die Quelle der schädlichen Dateien ermitteln und geeignete Maßnahmen zum Schutz von Webdiensten ergreifen. Durch die Verwendung des vorgeschlagenen Mechanismus hostbasierter Intrusion Detection-Methoden kann eine hohe Genauigkeit zur Gewährleistung der Sicherheit für Manager und Benutzer bereitgestellt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-03748-2_44 7650f0320cbe5eb9e32d60967e2e2989;de;;;7.3.;;;Bereitstellung von RDFa, Mikrodaten und Mikroformaten im Web – eine quantitative Analyse Immer mehr Websites betten strukturierte Daten, die beispielsweise Produkte, Rezensionen, Blog-Posts, Personen, Organisationen, Veranstaltungen und Kochrezepte beschreiben, in ihre HTML-Seiten ein. Diese Entwicklung hat sich in den letzten zwei Jahren beschleunigt, da große Webunternehmen wie Google, Facebook, Yahoo! und Microsoft damit begonnen haben, eingebettete Daten in ihren Anwendungen zu verwenden. In diesem Papier analysieren wir die Akzeptanz von RDFa, Mikrodaten und Mikroformaten im gesamten Web. Unsere Studie basiert auf einem großen öffentlichen Webcrawl von Anfang 2012, der aus 3 Milliarden HTML-Seiten besteht, die von über 40 Millionen Websites stammen. Die Analyse zeigt den Einsatz der verschiedenen Markup-Standards, die wichtigsten Themenbereiche der veröffentlichten Daten sowie die unterschiedlichen Vokabulare, die innerhalb jedes Themenbereichs zur Darstellung von Daten verwendet werden. Was unsere Arbeit von früheren Studien der großen Webunternehmen unterscheidet, ist, dass sowohl der analysierte Crawl als auch die extrahierten Daten öffentlich zugänglich sind. Dies ermöglicht es, unsere Erkenntnisse zu verifizieren und als Ausgangspunkt für weitere domänenspezifische Untersuchungen sowie für gezielte Bemühungen zur Informationsextraktion zu verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41338-4_2 3029e979e8f466f6bb0fdd4d0068e24f;de;;;7.3.;;;Mining beliebter Menüpunkte eines Restaurants aus Web-Bewertungen Wir schlagen eine neuartige Methode vor, um beliebte Menüpunkte aus Online-Bewertungen zu ermitteln. Um beliebte Menüpunkte zu extrahieren, wurde ein Crawler verwendet, der den Wrapper auf Suchwebsites verwendet, um Online-Rezensionen, Restaurantnamen und Menüpunkte zu sammeln. Anschließend wurden unnötige Beiträge mithilfe der Muster entfernt. Außerdem wurde die Post-Frequenz verwendet, um die am häufigsten erscheinenden Menüpunkte aus Online-Rezensionen zu finden, um die beliebtesten Menüpunkte auszuwählen. Im Ergebnis betrug die durchschnittliche Gesamtgenauigkeit 0,900.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23982-3_31 20280f6dd7c9982a0c79abc37643a0d9;de;;;7.3.;;;Clustering-basierte Navigation von Bildsuchergebnissen auf Mobilgeräten Mit der Informationsexplosion im Internet sowie der rasanten Zunahme mobiler Nutzer wird die Web-Bildsuche und das Browsen auf mobilen Geräten in absehbarer Zeit zu einer großen Anwendung. Da mobile Geräte im Allgemeinen unter begrenzten Ressourcen leiden, wie kleine Bildschirmgröße und Interaktionsmöglichkeiten usw., ist die von der aktuellen Bildsuchmaschine bereitgestellte Schnittstelle nicht für die Navigation in Suchergebnissen auf mobilen Geräten geeignet. In diesem Artikel schlagen wir eine neue Methode vor, um die Benutzererfahrung beim Durchsuchen und Navigieren von Suchergebnissen zu verbessern. Durch das Clustern von Ergebnisbildern basierend auf visuellen und semantischen Hinweisen kann der Benutzer mit nur wenigen Klicks einen Überblick über die Suchergebnisse erhalten. Durch Verwendung eines optimalen Layout-Algorithmus kann die Zusammenfassung jedes Clusters auf einem kleinen Bildschirm mit maximalem Skalierungsverhältnis dargestellt werden Durch die Verwendung der intelligenten Miniaturansicht des Präsentationsbilds können Benutzern auf einem begrenzten Bildschirm mehr Informationen angezeigt werden. Die Navigationsfunktionen sind so konzipiert, dass die neue Benutzeroberfläche leicht erlernbar und benutzerfreundlich ist. Versuchsergebnisse belegen die Wirksamkeit der neuen Präsentationsmethode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-31871-2_28 f78a06f69a26352a0637a6f5bb25f10c;de;;;7.3.;;;Matrix Market: eine Webressource für Testmatrixsammlungen Wir beschreiben ein Datenarchiv zum Testen numerischer Algorithmen und mathematischer Software für Matrixberechnungen. Das Repository ist so konzipiert, dass es sowohl dichte als auch spärliche Matrizen sowie Software zum Generieren von Matrizen aufnehmen kann. Es wurde mit der bekannten Harwell-Boeing Sparse-Matrix-Sammlung besät. Die Rohdatendateien wurden durch ein integriertes World Wide Web Interface ergänzt, das die Matrizen in der Sammlung quantitativ und visuell beschreibt. Zum Beispiel hat jede Matrix eine Webseite, die ihre Attribute detailliert beschreibt, ihr Sparsity-Muster grafisch darstellt und Zugriff auf die Matrix selbst in verschiedenen Formaten bietet. Darüber hinaus ist ein Suchmechanismus enthalten, der das Auffinden von Matrizen anhand einer Vielzahl von Attributen wie Typ und Größe sowie durch Freitextsuche in Abstracts ermöglicht. Die URL lautet;-;-;-;https://link.springer.com/chapter/10.1007/978-1-5041-2940-4_9 b2c2181896e403965ae1add9b90152d0;de;;;7.3.;;;Virtueller Kapitalismus Auch wenn es schwierig ist, den Verlauf wichtiger Innovationen vorauszusagen, können wir einige einigermaßen sichere Wetten auf die Entwicklung des Internets als Ort der Wirtschaftstätigkeit schließen.;-;-;-;https://link.springer.com/chapter/10.1057/9781403914507_7 7d6e2f7cbca2caa922a98fbbbf0495fe;de;;;7.3.;;;Ein modellgetriebener Ansatz für die Webservice-Anpassung mit komplexer Ereignisverarbeitung Web Services werden oft unabhängig entwickelt und folgen beim Aufbau ihrer Schnittstellen unterschiedlichen Standards oder Ansätzen. Daher ist es wahrscheinlich, dass die meisten Webdienste nicht kompatibel sind, da viele Dienste nicht dieselbe Schnittstelle unterstützen. Um dieses Problem zu lösen, wird in diesem Beitrag ein modellgetriebener Ansatz definiert, um automatisch Adapter zwischen inkompatiblen Webservice-Schnittstellen zu generieren. Konkret wird ein grafischer Modellierungseditor entwickelt, um solche Inkompatibilitäten zu erkennen, die Adapter zwischen den modellierten Schnittstellen zu erstellen und diese Adapter in Code umzuwandeln. Dieser Code wird in eine komplexe Ereignisverarbeitungs-Engine implementiert, die Software, die die Webservice-Anpassung durchführt. Wir illustrieren diesen Ansatz anhand einer Fallstudie für zwei Webservices mit inkompatiblen Schnittstellen. Die Ergebnisse bestätigen, dass dieser Ansatz eine geeignete Lösung für die Webservice-Anpassung mittels komplexer Ereignisverarbeitung darstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45364-9_28 3dc7adccf2f7e644a4d9d0003242426b;de;;;7.3.;;;Skalierbare OWL 2-Begründung für verknüpfte Daten Das Ziel der Vorlesung Scalable OWL 2 Reasoning for Linked Data ist zweierlei: erstens den Forschern des Semantic Web skalierbare Argumentations- und Abfragetechniken als mächtige Werkzeuge zur Nutzung von Linked Data und groß angelegten Ontologien vorzustellen und zweitens interessante Forschungsergebnisse zu präsentieren Probleme für das Semantic Web, die sich im Umgang mit TBox- und ABox-Argumentation in OWL 2 ergeben. Die Vorlesung besteht aus drei Teilen. Der erste Teil beginnt mit einer Einführung und Motivation zum Nachdenken über Linked Data, einschließlich einer Umfrage zur Verwendung von RDFS und OWL im Web. Der zweite Teil wird einen skalierbaren, verteilten Argumentationsdienst für Instanzdaten präsentieren, der eine benutzerdefinierte Untermenge von OWL 2 RL/RDF-Regeln (basierend auf einem handhabbaren Fragment von OWL 2) anwendet. Im dritten Teil werden neuere Arbeiten zur getreuen ungefähren Argumentation für OWL 2 DL vorgestellt. Der Vortrag umfasst unsere Implementierung der genannten Techniken sowie deren Auswertungen. Diese Notizen bieten kostenloses Referenzmaterial für die Vorlesung und folgen dem dreiteiligen Aufbau und Inhalt der Vorlesung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23032-5_5 27b9d4c03ec618cee7779b86c373c944;de;;;7.3.;;;Regulierung des Zugangs zu semistrukturierten Informationen im Web Das bemerkenswerte Wachstum des World Wide Web in den letzten Jahren hat es möglich gemacht, Informationen in Form einer unorganisierten und unstrukturierten Sammlung von Dokumenten an Benutzer zu verteilen. Während die Sicherheit in einem solchen Szenario ein wichtiger Aspekt ist, sind die heute verfügbaren Zugangskontrollsysteme zu starr und begrenzt. Wir präsentieren einen Ansatz zum Festlegen und Durchsetzen von Zugriffsbeschränkungen auf Webdokumente. Der Ansatz bietet Flexibilität, da er es ermöglicht, eine Vielzahl von Sicherheitsrichtlinien und -anforderungen auf einer fein abgestuften Ebene durchzusetzen, ohne die Datenorganisation zu beeinträchtigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35515-3_36 baef797b911befd047a0de3a6f43b623;de;;;7.3.;;;Integration von Sensornetzwerken Sensornetzwerke und deren Anwendungen wurden in den letzten zehn Jahren intensiv erforscht und mittlerweile eine Vielzahl von Systemen in der Praxis eingesetzt. Die meisten dieser Anwendungen und die dazugehörigen Sensornetzwerke sind als vertikal integrierte Systeme konzipiert [1–3]. In solchen vertikalen Systemen wird ein Sensornetzwerk oder eine begrenzte Menge von meist homogenen Sensornetzwerken für eine bestimmte Anwendung eingesetzt. Die Anwendung ist meistens der alleinige Benutzer dieses Sensornetzwerks und hat a priori Kenntnisse über die Fähigkeiten, die das/die Sensornetzwerk(e) bietet. Eine Anwendung weiß typischerweise auch, wie die jeweiligen Gateways/Senken der Sensornetzwerke zu adressieren sind, um mit den Sensornetzwerken zu interagieren, und teilt mit ihnen ein gemeinsames Interaktionsprotokoll.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84996-510-1_5 6575ee29cadd51b719a1ca1f4a3e3522;de;;;7.3.;;;Sichere End-to-End-Authentifizierung für Mobile Banking Der technologische Fortschritt macht Mobile Banking-Transaktionen anspruchsvoller. Die OTP-SMS wird vom Bankserver generiert und an den Mobilfunkteilnehmer des Kunden übergeben. Um mögliche Angriffe wie Phishing und andere Angriffe zu vermeiden, muss das OTP gesichert werden. Um zuverlässige und sichere mobile Transaktionen ohne Komforteinbußen zu ermöglichen, wurde in diesem Beitrag ein zuverlässiges M-Banking-Authentifizierungsschema entwickelt, das die geheime PIN mit der Verschlüsselung des Einmalpassworts (OTP) kombiniert. Das gesicherte OTP unter Verwendung des eZeeMPay-Salt-Algorithmus versucht, die sicherere M-Banking-Transaktion zu bieten. Nachdem die verschlüsselte OTP-SMS das Handy des Kunden erreicht hat, wird das OTP wieder zum Entschlüsseln verwendet. Der reine OTP-Text sollte an die Bank zurückgesendet werden, die auf dem Server verifiziert wird, um die eingeleitete Transaktion abzuschließen. Die Kombination von OTP mit gesichertem OTP bietet Authentifizierung und Sicherheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-18473-9_22 bdc977fcebec25862ea4689f02072282;de;;;7.3.;;;Ein neuer Blick auf Webseiten-Ranking-Systeme Dieses Papier schlägt eine neue Art der Betrachtung von Webseiten-Ranking-Systemen vor, indem einige Konzepte der Warteschlangentheorie im Operations Research und der stochastischen Wasserspeichertheorie in der Hydrologie verwendet werden. Da sowohl die Theorien zum Queuing als auch die stochastische Wasserspeicherung reich an Technologie- und Anwendungsaspekten sind, kann der neue Look in diesem Papier zu neuen Richtungen in Webseiten-Ranking-Systemen und verwandten Forschungsgebieten führen. Dabei zieht dieses Papier zunächst einige Analogien zwischen einem Webseiten-Ranking-System und der Theorie der Warteschlangen. Dann wird gezeigt, wie ein Webseiten-Ranking-System angegangen werden kann, um aktuelle Hindernisse durch den Einsatz von Techniken der Warteschlangentheorie zu reduzieren. Im zweiten wird ein Webseiten-Ranking-System als Rahmen der stochastischen Wasserspeichertheorie modelliert, um eine Liste von Webseiten-Rankings abzuleiten. Drittens und schließlich werden die Ergebnisergebnisse von Rankings, die unter Verwendung der vorgeschlagenen beiden Theorien Warteschlangentheorie und stochastische Wasserspeicherung erhalten wurden, verglichen und sowohl analytisch als auch experimentell analysiert. Die experimentellen Ergebnisse zeigen, dass der vorgeschlagene neue Look vielversprechend für die Etablierung eines neuen Forschungsgebiets ist, das die aktuellen Situationen und Schwierigkeiten, die insbesondere bei Suchmaschinen und deren Ranking-Systemen aufgetreten sind, sowie einige Probleme im World Wide Web insgesamt verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12286-1_35 b82d4c13e1523e004334b3237f0623e0;de;;;7.3.;;;Datenschutz: Worüber reden wir eigentlich? In diesem Beitrag wird ein multidisziplinärer Ansatz zum Datenschutz vorgestellt. Das Thema wird aus ethischer, sozialer und ökonomischer Perspektive untersucht, die die vorläufigen Ergebnisse des EU-geförderten Forschungsprojekts PRESCIENT widerspiegelt. Die Analyse wird die einzigartigen und charakteristischen Merkmale der Dimensionen umfassend veranschaulichen. Dies bildet die Grundlage, um Überschneidungen zu erkennen und Synergieeffekte zu entwickeln, die idealerweise zu einem besseren Verständnis der Privatsphäre beitragen sollen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20769-3_1 6fdedfaa6d55d151fb0491ec06869d06;de;;;7.3.;;;Cache „Weniger für mehr“ in informationszentrierten Netzwerken Ubiquitäres In-Network-Caching ist einer der Schlüsselaspekte des informationszentrierten Networkings (ICN), das in letzter Zeit ein breites Forschungsinteresse gefunden hat. In einem der wichtigsten Vorschläge, der als Networking Named Content (NNC) bekannt ist, geht die Prämisse davon aus, dass die Nutzung von In-Network-Caching zum Speichern von Inhalten in jedem Knoten, den er entlang des Bereitstellungspfads durchquert, die Bereitstellung von Inhalten verbessern kann. Wir hinterfragen eine solche wahllose universelle Caching-Strategie und untersuchen, ob Caching;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30045-5_3 22d2b94d3ce01f70ad564d7a4a3f41dd;de;;;7.3.;;;"Automatisierte semantische Validierung lokaler Crowdsourcing-Informationen – der Fall der Webanwendung Climate Twins Climate Twins ist eine frei zugängliche Webanwendung, die leicht verständliche Informationen zu den prognostizierten Klimaentwicklungen in Europa auf regionaler Ebene bereitstellt. Climate Twins basiert auf der Idee, dass durch die Angabe von Regionen mit ähnlichem gegenwärtigem Klima ein Eindruck vom zukünftigen Klima einer bestimmten Region gewonnen werden kann. Im 7. EU-FP-Projekt wurden der Basis-Webanwendung Climate Twins Ontologie-basierte Funktionalitäten hinzugefügt, um Benutzern zu ermöglichen, die ursprüngliche Informationsbasis - beschränkt auf nur zwei Klimaparameter (""Temperatur"" und ""Niederschlag"") - zu erweitern selbst, indem sie weitere geolokalisierte Informationen hinzufügen, die sie im Kontext eines bestimmten lokalen Klimas für relevant halten (z. B. Informationen über lokale Vegetation und Fauna). Diese Art des Crowdsourcing von Informationen wirft das Problem auf, die Qualität der hinzugefügten Informationen zu sichern. In diesem Beitrag zeigen die Autoren, wie die Domänenontologie von Climate Twins genutzt werden kann, um die Kohärenz neuer Einträge semantisch zu validieren, um fehlerhafte Links zu vermeiden.";-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41151-9_3 01174904f974354e8a49f23280884d75;de;;;7.3.;;;Rekanonisierung des „amerikanischen“ Sounds und Neuerfindung der Broadway Song Machine: Digital Musicology Futures of Broadway Musicals 1997 schlug ein Computer einen menschlichen Komponisten und Musikprofessor beim Komponieren eines nach Bach klingenden Chorals. 2016 feierte das weltweit erste computergenerierte Musical im Londoner West End Premiere. Was steht nun dem Broadway-Musiktheater bevor? Dieses Kapitel untersucht die Technologie hinter den computergenerierten Musicals und modernsten digitalen Musikwissenschaftstools und weist darauf hin, dass Broadway-Kanonen den Musiktheaterklang, den digitale Tools erfassen und neu erstellen, weitgehend bestimmen. Anschließend werden sechs Metriken für die (Re-)Kanonisierung von US-Broadway-Musicals im digitalen Zeitalter vorgeschlagen, einschließlich der persönlichen Kanonisierung. Sie betont, wie wichtig es ist, den „amerikanischen“ Sound zu diversifizieren und die Broadway-Song-Maschine (Formeln, die einen Broadway-Hit ausmachen) neu zu erfinden, und argumentiert, dass die digitale Musikwissenschaft den Menschen Werkzeuge bietet, um die Vergangenheit zu überdenken und neu zu bewerten, Musiktheaterpädagogik zu entwickeln und Komponisten herauszufordern Zukunft eines neuen und abwechslungsreicheren „amerikanischen“ Sounds zu schaffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-64876-7_12 81b04f6c8e2a8451577ef708512e07f9;de;;;7.3.;;;Snippet-Generierung für Semantic Web Search Engines Mit der Entwicklung des Semantic Web stehen immer mehr Ontologien zur Nutzung durch semantische Suchmaschinen zur Verfügung. Während jedoch semantische Suchmaschinen das Auffinden von Kandidatenontologien unterstützen, ist die endgültige Auswahl der am besten geeigneten Ontologie für die Endbenutzer immer noch schwierig. In diesem Papier erweitern wir bestehende Arbeiten zur Ontologie-Zusammenfassung, um die Präsentation von Ontologie-Schnipseln zu unterstützen. Die vorgeschlagene Lösung nutzt ein neues semantisches Ähnlichkeitsmaß, um Snippets zu generieren, die auf der gegebenen Abfrage basieren. Experimentelle Ergebnisse haben das Potenzial unserer Lösung in diesem bisher weitgehend unerforschten Problembereich gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89704-0_34 5d34d73a22f0d45c185aa89a2cf82ac0;de;;;7.3.;;;Ein LOD-Modell für die Graphvisualisierung und seine Anwendung in der Webnavigation Dieser Artikel stellt eine neue Methode zur Visualisierung und Navigation großer Graphen vor. Das Hauptmerkmal dieser Methode besteht darin, dass sie die Level-Of-Detail-Strategie (LOD) auf die Diagrammvisualisierung und -navigation anwendet und es dem Benutzer ermöglicht, in Echtzeit im Diagramm zu navigieren. Zuerst berechnet der Algorithmus die Gewichtung für jeden Scheitelpunkt durch ein verbessertes Link-Analyseverfahren. Zweitens werden repräsentative Scheitelpunkte mit höheren Gewichtungen ausgewählt. Drittens wird ein Wellenfrontalgorithmus verwendet, um benachbarte Scheitelpunkte für jeden repräsentativen Scheitelpunkt zu gruppieren. Dieser Schritt erzeugt mehrere Cluster, die durch die repräsentativen Scheitelpunkte gekennzeichnet sind. Dann werden die Schritte zwei und drei in jedem Cluster wiederholt, um einen LOD-Baum zu bilden. Schließlich verwenden wir eine kraftgerichtete Methode, um den Untergraphen unter den Nicht-Blatt-Knoten des LOD-Baums zu zeichnen. Basierend auf der vorgeschlagenen Methode entwickeln wir ein Graphenvisualisierungs- und Navigationssystem – DynamicViewer. Anschließend demonstrieren wir seine Anwendung in der Web-Navigation. Mit DynamicViewer kann sich der Benutzer einen Überblick über das Web verschaffen und dann bei Bedarf einzelne Informationen durchsuchen. Die Versuchsergebnisse zeigen, dass DynamicViewer die Fähigkeit verbessert, dem Benutzer die richtigen Informationen bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-31849-1_43 9508622784dc21749532e2ffdb1b70c3;de;;;7.3.;;;Automatische Restrukturierung von Webdokumenten basierend auf visueller Informationsanalyse Viele im Internet verfügbare Dokumente haben eine recht komplexe Struktur, die es ermöglicht, verschiedene Arten von Informationen darzustellen. Neben den Hauptinhalten enthalten die Dokumente in der Regel Kopf- und Fußzeilen, Navigationsabschnitte und sonstige Zusatzinformationen. Für viele Anwendungen wie die Dokumentenindizierung oder das Browsen auf speziellen Geräten ist es wünschenswert, dass die Hauptdokumentinformationen den zusätzlichen Informationen im zugrunde liegenden HTML-Code vorangehen. In diesem Beitrag schlagen wir eine Methode zur Dokumentenvorverarbeitung vor, die den Dokumentencode automatisch nach diesen Kriterien umstrukturiert. Unsere Methode basiert auf der gerenderten Dokumentenanalyse. Zur Erkennung der Grundblöcke auf der Seite wird ein Seitensegmentierungsalgorithmus verwendet und aus den visuellen Eigenschaften des Textinhalts die Relevanz der einzelnen Teile abgeschätzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10687-3_6 729a477d9735935ad741e909891f0d80;de;;;7.3.;;;Nutzung hybrider Parallelität in Websuchmaschinen Mit dem Aufkommen von Multi-Core-CPUs (oder Chip-Level MultiProcessor -CMP-) ist es unerlässlich, Techniken zu entwickeln, die die Vorteile von CMP nutzen, um sehr anspruchsvolle Anwendungen des parallelen Computings wie Websuchmaschinen zu beschleunigen. Insbesondere für diese Anwendung und angesichts der enormen Menge an Rechenressourcen, die in Rechenzentren eingesetzt werden, ist es von größter Bedeutung, Strategien zu entwickeln, mit denen die beste Leistung aus der Hardware herausgeholt werden kann. Dies ist besonders kritisch, wenn wir bedenken, wie wir die Hardware organisieren, um dauerhafte Zeiten mit sehr hohem Datenaufkommen von Benutzeranfragen zu bewältigen. In diesem Beitrag schlagen wir eine Hybridtechnik vor, die auf;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85451-7_45 b14e210ad1fc789de8d3e59fdf11767a;de;;;7.3.;;;Verbesserung der semantischen Annotationsmethode im semantischen Internet der Dinge basierend auf einem konzeptionellen Ontologiemodell Mit der Entwicklung der Semantic-Web-Technologie bietet sie eine bessere Lösung für dieses Problem, da der Kern des Semantic Web die Ontologie ein konzeptionelles Modell einer klaren Spezifikation ist. Es bietet eine starke Unterstützung für die semantische Ähnlichkeitsberechnung. Dieser Artikel beschreibt die semantische Annotation-Methode im Semantic Web. Dieser Beitrag analysiert die Konstruktion einer konzeptuellen Ontologie im Semantic Web. Der Beitrag präsentiert die Verbesserung der semantischen Annotation-Methode im semantischen Internet der Dinge basierend auf dem konzeptionellen Ontologiemodell.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98776-7_158 e744a48c15541b598534a1aca6375ffe;de;;;7.3.;;;Ein neuartiges Feedback-Modell für Bildanmerkungen basierend auf der Internet-Suche Wir schlagen ein internetbasiertes, automatisches Feedback-Modell für Bildannotationen vor, das inhaltsbasierte und webbasierte Bildannotation kombiniert, um die Relevanzannahme zwischen Bild und Text und das begrenzte Volumen der Datenbank zu lösen. In diesem Modell extrahieren wir Kandidatenlabels aus Suchergebnissen mithilfe von webbasierten Texten, die mit dem Bild verknüpft sind, und überprüfen dann die endgültigen Ergebnisse, indem wir Internetsuchergebnisse von Kandidatenlabels mit inhaltsbasierten Funktionen verwenden. Experimentelle Ergebnisse zeigen, dass diese Methode die umfangreiche Datenbank mit hoher Genauigkeit annotieren kann und eine Verbesserung von 5,2 % auf Basis der webbasierten automatischen Bildannotation erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33469-6_72 64fb49bb92b380de171226089d4917d9;de;;;7.3.;;;Eine pragmatische und durchdringende Methodik für die Webservice-Erkennung Service-Oriented Computing kann als die treibende Kraft für interoperable Webanwendungen bezeichnet werden. Unternehmen, die auf serviceorientierte Technologien setzen, neigen zu einer effektiven Zusammenarbeit mit anderen Unternehmen. Diese Zusammenarbeit kann nicht nur die Märkte der Unternehmen erweitern, sondern auch die Bereitstellung hochwertiger Dienstleistungen für die Bürger bei der Abwicklung ihrer täglichen Transaktionen ermöglichen. Für eine effektive Nutzung des serviceorientierten Rechnens müssen jedoch eine Vielzahl anderer Technologien einbezogen werden, nämlich Semantik, Pragmatik, effektive Suchtechniken, intelligente Agenten und Pervasive Services. In diesem Papier konzentrieren wir uns auf eine der Phasen des serviceorientierten Computings, die Webservice-Erkennung, und schlagen eine effektive pragmatische und durchdringende Methodik vor, die es potenziellen Geschäftspartnern ermöglicht, die Webdienste/Prozesse ihres Interesses zu entdecken. Wir legen besonderen Wert auf die Bedeutung der Pragmatik und deren Anwendung bei der Webservice-Erkennung, denn nur eine pragmatische Betrachtung kann der Webservice-Nutzung eine vollständige und eindeutige Bedeutung geben.;-;-;-;https://link.springer.com/chapter/10.1007/11915072_32 6d4a7c02d98d1e5f22aa36d20e8491d4;de;;;7.3.;;;Textkategorisierung mehrsprachiger Webseiten in einer bestimmten Domäne Im Vergleich zur traditionellen Textkategorisierung stellt die automatisierte Kategorisierung für domänenspezifische Webseiten aufgrund der verrauschten und vielfältigen Natur der Seiten und der feinen und komplexen Kategoriestruktur neue Herausforderungen für die Forschung. Bei mehrsprachigen Webseiten muss auch berücksichtigt werden, wie die Begriffe verschiedener Sprachen genau extrahiert werden. Unter Verwendung eines Datensatzes von hybriden chinesisch-englischen chemischen Webseiten wird in diesem Beitrag ein neuer wörterbuchbasierter Ansatz zur mehrsprachigen Textkategorisierung vorgeschlagen, um zu versuchen, die Seiten genauer in eine hierarchische Themenstruktur einzuordnen. Durch die Verwendung eines automatischen Kodierungserkennungs- und Integrationsverfahrens kann der Ansatz die Webseitenkodierungen richtig erkennen und integrieren. Dadurch wird die Merkmalsextraktion für die mehrsprachigen Seiten präziser. Der Ansatz kann auch die Domänenkonzepte in den Webseiten basierend auf einem Chemiewörterbuch intensivieren. Die experimentellen Ergebnisse zeigen, dass der vorgeschlagene Ansatz bei der Klassifizierung der mehrsprachigen Webseiten in eine bestimmte Domäne eine bessere Leistung als die traditionelle Kategorisierungsmethode aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68125-0_96 8fa6659a8f64654b663fbc76a6d7cc06;de;;;7.3.;;;Ein selbstheilendes Framework für die QoS-bewusste Zusammensetzung von Webdiensten durch fallbasiertes Denken Die Selbstheilungsfähigkeit ist für serviceorientierte Systeme in einem hochdynamischen Umfeld sehr wichtig. Fallbasierte Argumentation wird verwendet, um mit den Komponentendiensten umzugehen, die die funktionalen und nichtfunktionalen Anforderungen in diesem Dokument nicht erfüllen. Wir nehmen frühere Fehlerinstanzen als Fälle, die in einer Falldatenbank gespeichert werden. Wenn ein neuer Fehler auftritt, werden seine Symptome extrahiert und mit der Fallbasis abgeglichen, um nach dem ähnlichsten Fall zu suchen. Eine Falldarstellung und eine Ähnlichkeitsfunktion werden vorgeschlagen. In der Zwischenzeit wird ein neuartiger Wiederverwendungsansatz entwickelt, um Lösungen zu finden, die die Symptome befriedigen. Darüber hinaus präsentieren wir ein selbstheilendes Framework und führen Experimente mit echten QoS-Datensätzen durch. Experimentelle Ergebnisse zeigen, dass fallbasiertes Denken die Selbstheilungskräfte ermutigend verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37401-2_64 1993a32aa6d10e90d20a856b1fab77cc;de;;;7.3.;;;Theoretische Grundlagen der bereichsbasierten Compensable Flow Language für Webdienste Web Services sind in diesen Jahren immer wichtiger geworden und BPEL4WS ist ein De-facto-Standard für die Zusammensetzung und Orchestrierung von Web-Services. In diesem Papier schlagen wir eine Sprache vor;-;-;-;https://link.springer.com/chapter/10.1007/11768869_19 c423126f3e85d7c4aac526fb00057bcd;de;;;7.3.;;;Das Internet der Zukunft ist über Ethernet Dies ist ein Positionspapier, das einen Ansatz zur Schaffung des Future Internet beschreibt. Wir argumentieren, dass die neue Architektur auf zwei zentrale Herausforderungen reagieren muss: (1) das Vertrauen unter den Internet-Stakeholdern erhöhen und (2) eine kosteneffiziente Skalierung des Netzwerks auf neue Kapazitätsniveaus, Benutzerzahlen und Anwendungen ermöglichen. Wir argumentieren, dass die Lösung darin besteht, das Internet neu zu gestalten, indem IP schrittweise durch ein Transportsystem der Carrier-Klasse ersetzt wird. In der Praxis kann ein solches Pakettransportsystem basierend auf Carrier Grade Ethernet erstellt werden. Wir nennen das resultierende Netzwerk Internet von Ethernet. Wir führen einige grundlegende Argumente an und skizzieren die Forschungsagenda, die sich basierend auf den von uns beschriebenen Prämissen öffnen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15476-8_11 8b02a175529308ccd34bd72112a32d2e;de;;;7.3.;;;eLearning in der Aus- und Weiterbildung Neuroradiologie: Einführung einer webbasierten Lehr- und Lernanwendung Neue Informationstechnologien bieten die Möglichkeit zu erheblichen Verbesserungen in der beruflichen Aus- und Weiterbildung von Ärzten. Die webbasierte, multimediale Lehr- und Lernanwendung Schoolbook wurde für die Neuroradiologie entwickelt und genutzt.;-;-;-;https://link.springer.com/article/10.1007/s00234-006-0108-x 1ddd949ce0138ba14d74f9612e8c07a9;de;;;7.3.;;;Message-Passing Concurrency für skalierbare, zustandsorientierte, rekonfigurierbare Middleware Message-Passing Concurrency (MPC) wird zunehmend verwendet, um Systemsoftware zu erstellen, die sich gut auf Multi-Core-Hardware skalieren lässt. Auch funktionale Programmierimplementierungen von MPC wie Erlang haben ihre zustandslose Natur genutzt, um Middleware zu entwickeln, die nicht nur skalierbar, sondern auch dynamisch rekonfigurierbar ist. Viele Middleware-Plattformen eignen sich jedoch eher für ein zustandsbehaftetes Programmiermodell, das den Sitzungs- und Anwendungsstatus unterstützt. Eine Einschränkung vorhandener Programmiermodelle und Frameworks, die die dynamische Neukonfiguration für zustandsbehaftete Middleware unterstützen, wie z. B. Komponenten-Frameworks, besteht darin, dass sie nicht für MPC entwickelt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35170-9_11 dbe6640fa1461cb511d9030a6b0336bb;de;;;7.3.;;;Prädikatsbasierte Indizierung für die Desktopsuche Google und andere Produkte haben die Art und Weise, wie wir nach Informationen suchen, revolutioniert. Es gibt jedoch noch eine Reihe von Forschungsherausforderungen. Eine Herausforderung, die sich speziell bei der Desktop-Suche ergibt, besteht darin, die Struktur und Semantik von Dokumenten auszunutzen, wie sie von dem Anwendungsprogramm definiert werden, das die Daten generiert hat (z. B. Word, Excel oder Outlook). Die aktuelle Generation von Suchprodukten nicht;-;-;-;https://link.springer.com/article/10.1007/s00778-010-0187-5 345d81bf7ddbdf7b2b81b2ff9d5b57f0;de;;;7.3.;;;Rollen von Ontologien für Web Intelligence Der Artikel untersucht die Rolle von Ontologien für Web Intelligence, einschließlich Fragen zu Präsentation, Kategorien, Sprachen und automatischer Konstruktion von Ontologien. Es werden drei Ontologie-Kategorien vorgeschlagen, ein Teil der Forschung und Entwicklung in Bezug auf die drei Kategorien vorgestellt, die wichtigsten Ontologiesprachen untersucht und ein mehrphasiger Prozess der automatischen Konstruktion;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48050-1_8 12d5e89361a30e261e2e5b22f3ad2cf1;de;;;7.3.;;;Informationsextraktion aus heterogenen Websites mithilfe des Clue Complement-Prozesses basierend auf einem instanziierten Beispiel eines Benutzers Seit dem Wachstum des Internets hat sich das World Wide Web in verschiedenen Bereichen wie Wirtschaft, Handel, Bildung usw. zu einer bedeutenden Infrastruktur entwickelt. Dementsprechend hat ein Benutzer Informationen unter Verwendung des Internets gesammelt. Aufgrund zunehmender Webseiten wird es jedoch für einen Benutzer schwierig, wünschenswerte Informationen zu sammeln. Fortgeschrittene Websuchmaschinen können bis zu einem gewissen Grad eine Lösung bieten, es ist jedoch immer noch Sache eines Benutzers, aussagekräftige Informationen aus solchen Abrufergebnissen zusammenzufassen oder zu extrahieren. Ausgehend von diesen Gesichtspunkten befasst sich dieses Papier mit einer Generierungsmethode von tabellenartigen Daten aus heterogenen Webseiten, die die Intention eines Benutzers widerspiegelt. Um dies zu erreichen, verwendet das Verfahren ein instanziiertes Beispiel eines Benutzers in einer Tabelle zusätzlich zu Spaltenbeschriftungen als Tabelle. Basierend auf einem instanziierten Beispiel eines Benutzers werden aussagekräftige Informationen mithilfe von Mustervergleich und N-Gramm-Methode extrahiert. Wir wenden diese Methode auf 57 Seiten mit 27 Reisebüros an, unabhängig davon, ob die vorgeschlagene Methode effektiv ist oder nicht. Als Ergebnis waren 88 % Präzisionsrate und 68 % Recall-Rate.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14883-5_74 31be91de05493c99a6cfb36349a02935;de;;;7.3.;;;HealthRecSys: Ein semantisches inhaltsbasiertes Empfehlungssystem zur Ergänzung von Gesundheitsvideos Das Internet und seine Popularität wachsen in einem noch nie dagewesenen Tempo. Das Ansehen von Videos im Internet ist sehr beliebt, es wird geschätzt, dass jede Minute 500 Stunden an Videos auf YouTube, einen Video-Sharing-Dienst, hochgeladen werden und dass bis 2019 Videoformate mehr als 80% des Internetverkehrs ausmachen werden. Gesundheitsbezogene Videos sind auf YouTube sehr beliebt, aber ihre Qualität ist immer ein Grund zur Sorge. Ein Ansatz zur Verbesserung der Qualität von Online-Videos besteht darin, zusätzliche gesundheitsfördernde Inhalte wie Websites bereitzustellen, um Gesundheitskonsumenten zu unterstützen. Diese Studie untersucht die Machbarkeit des Aufbaus eines inhaltsbasierten Empfehlungssystems, das Gesundheitskonsumenten für ein bestimmtes Gesundheitsvideo von YouTube mit seriösen Gesundheitsbildungs-Websites von MedlinePlus verbindet.;-;-;-;https://link.springer.com/article/10.1186/s12911-017-0431-7 1685d5d3e04b38370d974172fea5ab89;de;;;7.3.;;;Autonome Suche in einem sozialen und allgegenwärtigen Web Jüngste W3C-Empfehlungen für das Web of Things (WoT) und das Social Web machen Hypermedien zu einem homogenen Informationsgefüge, das heterogene Ressourcen miteinander verbindet: Geräte, Menschen, Informationsressourcen, abstrakte Konzepte usw. Die Integration von Multi-Agenten-Systemen mit solchen Hypermedien Umgebungen bieten nun ein Mittel, um autonomes Verhalten in weltweit durchdringenden Systemen zu verteilen. Ein zentrales Problem besteht dann darin, autonomen Agenten zu ermöglichen,;-;-;-;https://link.springer.com/article/10.1007/s00779-020-01415-1 e2d282e08f4a07e139bfb24307f94c2e;de;;;7.3.;;;Modellgetriebenes Design von Web-Service-Operationen mit Web-Engineering-Praktiken Das Design von Web Services stellt sich heute als eine der wichtigsten Aufgaben bei der Entwicklung einer serviceorientierten Anwendung heraus. Webservice-Designer benötigen einige Richtlinien, um ein qualitativ hochwertiges Design zu erreichen. In diesem Papier bieten wir einen methodischen Leitfaden im Kontext einer Web-Engineering-Methode namens OOWS. Unser Ansatz ermöglicht es, die Operationen von Webservices nach einem modellgetriebenen Ansatz zu identifizieren, wobei die konzeptionellen Modelle der OO-Methode / OOWS als Quelle verwendet werden. Um unseren Ansatz zu dokumentieren, wenden wir unsere Ideen auf eine reale Fallstudie einer Webanwendung zur Verwaltung von Universitätsforschungsgruppen an.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7643-8448-7_7 50d7cc1ffc42558c59b8c04a13675b75;de;;;7.3.;;;Ein effizienter Ansatz zum Clustering von Immobilienangeboten Das World Wide Web (WWW) ist eine riesige Informationsquelle, das Problem der Informationsüberflutung ist akuter denn je. Aufgrund von Rauschen im WWW wird es schwierig, brauchbare Informationen zu finden. Immobilienangebote sind häufig über verschiedene Immobilienagenturen erhältlich und werden auf verschiedenen Websites veröffentlicht. Dadurch sind auch Unterschiede in Preis und Beschreibung zu beobachten. Gleichzeitig kann es sein, dass ein potenzieller Käufer oder Mieter es vorzieht, die gesamte Beschreibung einer interessierenden Immobilie auf der Grundlage der auf verschiedenen Portalen verfügbaren Daten zu erhalten und wenn möglich die Preisänderungen zu verfolgen. Dieses Problem kann als Veranschaulichung einer breiteren Klasse von Problemen bei der Integration der Daten aus zahlreichen halbstrukturierten Webdatenquellen betrachtet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15381-5_46 a63658fa466037b2f4655577fed2cd06;de;;;7.3.;;;Web-Reputation-Management-Systeme als strategisches Werkzeug Entsprechend der Resource Based View wird die Online-Unternehmensreputation als Ressource für einen nachhaltigen Wettbewerbsvorteil gesehen. Insbesondere das Internet und das „Web 2.0“ haben die Dynamik der Reputationsbildung und des Managements von Unternehmen radikal verändert, indem sie neu zugängliche Kommunikationskanäle und -wege geschaffen und die Machtverhältnisse der „Stimme“ verschoben haben. Das Ergebnis ist, dass die Reputation von Unternehmen zunehmend nicht (nur) davon bestimmt wird, was Unternehmen tun oder sagen, sondern auch davon, wie Stakeholder ihre Handlungen und Worte wahrnehmen und darauf reagieren. Effektives Online-Unternehmensreputationsmanagement erfordert, dass Unternehmen neue Fähigkeiten entwickeln, auch im Hinblick auf die IT-Ausnutzung. Unsere Arbeit konzentriert sich auf Web-Reputation-Management-Systeme, aufkommende Softwaresysteme zur Überwachung und Verwaltung der Online-Unternehmensreputation. Unser Ziel ist es, die wichtigsten Kritikpunkte, Chancen und Managementbedürfnisse durch die Analyse einer explorativen Fallstudie aufzuzeigen, die auf den Erfahrungen eines italienischen Beratungsunternehmens mit 35 Kunden in den letzten 2 Jahren basiert. Abschließend geben wir einige Anregungen für zukünftige Forschungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-2404-9_31 1804c63703cbe21c383f89f2a8b8c4de;de;;;7.3.;;;Begriffsklärung von Web-Personen unter Verwendung des hierarchischen Koreferenzmodells Als eine der Aufgaben zur Begriffsklärung von Entitäten identifiziert die Web Person Disambiguation (WPD) verschiedene Personen mit demselben Namen, indem Suchergebnisse für verschiedene Personen in verschiedene Cluster gruppiert werden. Die meisten aktuellen Forschungsarbeiten verwenden Clustering-Methoden, um WPD durchzuführen. Diese Ansätze erfordern die Abstimmung von Schwellenwerten, die auf Trainingsdaten ausgerichtet sind und für verschiedene Datensätze möglicherweise nicht gut funktionieren. In diesem Papier schlagen wir einen neuartigen Ansatz vor, indem wir eine paarweise Co-Referenzmodellierung für WPD verwenden, ohne dass eine Schwellenwertabstimmung erforderlich ist. Da Personennamen benannte Entitäten sind, kann die Begriffsklärung von Personennamen semantische Maße verwenden, die das sogenannte Koreferenz-Auflösungskriterium für verschiedene Dokumente verwenden. Der Algorithmus bildet zunächst einen Wald mit Personennamen als beobachtbare Blattknoten. Es versucht dann stochastisch, eine Entitätshierarchie zu bilden, indem Namen in einen Unterbaum als latente Entitätsgruppe zusammengeführt werden, wenn sie eine dokumentübergreifende koreferenzielle Beziehung haben. Da das Zusammenfügen/Aufteilen von Knoten auf koreferenzbasierten Vergleichswerten basiert, ist unser Verfahren unabhängig von Trainingsdaten und somit ist keine Parameterabstimmung erforderlich. Experimente zeigen, dass diese semantikbasierte Methode eine vergleichbare Leistung mit den beiden besten Systemen des Standes der Technik ohne Verwendung von Trainingsdaten erreicht hat. Der stochastische Ansatz macht unseren Algorithmus auch zu einer nahezu linearen Verarbeitungszeit viel effizienter als die HAC-basierte Clustering-Methode. Da unser Modell es einer kleinen Anzahl von übergeordneten Entitätsknoten ermöglicht, eine große Anzahl von Namensnennungen zusammenzufassen, hat das Modell eine viel höhere semantische Repräsentationskraft und ist im Vergleich zu HAC-basierten Algorithmen über große Sammlungen von Namensnennungen viel skalierbarer.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-18111-0_22 60ca3e8b5f51f1009f8dad1933ef11a7;de;;;7.3.;;;Auswirkungen auf Kinder, Medienkompetenz und Online-Sicherheitspolitik Da Web 2.0-Technologien und soziale Medien zu einem integralen Bestandteil des Lebens von Kindern werden, erweist sich Medienkompetenz als unschätzbare politische Antwort, insbesondere zum Schutz von Kindern in der Online-Umgebung (Livingstone, 2004a,b: 5, Prensky, 2001, vgl ). Die gezielte Ausrichtung von Medienkompetenzmaßnahmen auf Kinder ist nicht neu. Vor dem Internet verließ man sich auf Bildungs- und Medienbewusstseinsinitiativen, um Kindern kritische Lese- und Schreibfähigkeiten zu vermitteln (Gill, 2007: 18–38, Megee, 1997). Initiativen zur Medienkompetenz wurden auch als hilfreich angesehen, um den negativen entwicklungsbezogenen und psychologischen Auswirkungen von Fernsehprogrammen und kommerzieller Werbung auf Kinder entgegenzuwirken (Buckingham, 2007: 84–6, Nathanson, 2004). Eine wichtige Prämisse in der Medienkompetenzpolitik ist, dass Personen, die keinen Zugang zu relevanten Informationen haben, am wenigsten in der Lage sind, Web 2.0-Technologien und Online-Sicherheitsvorfälle auf sichere und verantwortungsvolle Weise zu handhaben (Rideout et al., 2007). Diese Intuition ist im Großen und Ganzen richtig, was sich in der Bedeutung widerspiegelt, die die Europäische Kommission, die Anbieter von Mobiltelefonen und sozialen Netzwerken der Aufklärung von Benutzern, Kindern und Eltern über Online-Sicherheitsfragen beimessen (Europäische Kommission, 2011b, ECDG, 2009). Dieses Kapitel befasst sich hauptsächlich mit dem Verständnis der Rolle der Medienkompetenz in Bezug auf die Online-Governance der Kindersicherheit. Es betont einige ihrer Schlüsselmerkmale im Kontext konvergierender Informations- und Social-Media-Kommunikationsplattformen und Netzwerköffentlichkeiten, die praktische Governance- und regulatorische Auswirkungen haben. Während der Wert informierter Entscheidungen als Kinderschutzstrategie anerkannt wird, lautet das zentrale Argument in diesem Kapitel, dass Jugendkultur, Netzwerkpublikum, Informationsfluss und digitale Informationen neue Komplikationen mit sich bringen, die politische Entscheidungsträger nicht ignorieren können. Tatsächlich sollte die Vorstellung, dass Medienkompetenz Kinder zu einem besseren Umgang mit Online-Risiken befähigt, nicht darüber hinwegtäuschen, dass oft nicht der Mangel an Informationen über Internet-Bedrohungen, sondern mangelnde Entscheidungskompetenz und das Fehlen ethischer Normen die Wurzel einiger der Online-Governance-Themen der Kindersicherheit (James et al., 2008, Thornburgh et al., 2002: 12-13). Die Anerkennung dieses Merkmals hat wichtige Auswirkungen darauf, was wir von Medienkompetenzprogrammen erwarten können und sollten (Byrne, 2009).;-;-;-;https://link.springer.com/chapter/10.1057/9780230361003_7 ef6a1a998f77a60c03da23bdb971111e;de;;;7.3.;;;Ein multimodaler Ansatz zur Segmentierung von Storys für Nachrichtenvideos Diese Forschung schlägt einen zweistufigen, multimodalen Rahmen vor, um die Segmentierung und Klassifizierung von Nachrichtenvideos in einstöckige semantische Einheiten durchzuführen. Das Video wird auf der Ebene der Aufnahme und der Story-Einheit (oder Szene) unter Verwendung einer Vielzahl von Funktionen und Techniken analysiert. Auf Schussebene verwenden wir die Entscheidungsbaumtechnik, um die Aufnahmen in eine von 13 vordefinierten Kategorien oder Mittelstufenmerkmale zu klassifizieren. Auf Szenen-/Story-Ebene führen wir die HMM-Analyse (Hidden Markov Models) durch, um Story-Grenzen zu lokalisieren. Unsere ersten Ergebnisse zeigen, dass wir eine hohe Genauigkeit von über 95 % bei der Schussklassifizierung und über 89 % bei der Schussklassifizierung erreichen konnten;-;-;-;https://link.springer.com/article/10.1023/A%3A1023622605600 6cec083dec68a424f4a7a7cd00df6c6b;de;;;7.3.;;;Verkehrsanalyse bei gleichzeitiger Mehrkanalanzeige auf P2PTV In den letzten Jahren haben Peer-to-Peer (P2P) Videostreaming-Dienste (P2PTV) viel Aufmerksamkeit auf sich gezogen, da sie die Last auf den Inhaltsservern durch die Verteilung der Datenlieferfunktion an Peers verringern können. Andererseits kennen P2P-Overlay-Netzwerke die physische Netzwerktopologie nicht und können daher bei einigen Internetdienstanbietern (ISPs) zu unerwünschter Verkehrsüberlagerung führen. Um den P2PTV-Verkehr zu optimieren, wurden mehrere Verkehrsmessungen untersucht und die Eigenschaften des P2PTV-Verkehrs aufgezeigt. Diese Studien konzentrierten sich jedoch nicht auf das Nutzerverhalten und den Verkehrsfluss jedes Nutzers. In diesem Artikel konzentrieren wir uns auf PPTV, einen der bekanntesten P2PTV-Dienste, und sammeln Verkehrsdaten, wenn mehrere Kanäle gleichzeitig angesehen werden. Durch diese Messung haben wir die Veränderungen der Anzahl der Peers, des Verkehrsflusses und der Paketankunftszeit beobachtet. Als Ergebnis fanden wir die neuen Eigenschaften von PPTV, wie den Übertragungszustand von PPTV, indem wir die Variation der Anzahl neu ankommender Peers überwachten. Darüber hinaus konnten wir Videoserver erkennen, indem wir gleichzeitig den Mehrkanal-PPTV-Verkehr analysieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46578-3_11 5bd36654cd90ee0f393e95c8f97ffc6d;de;;;7.3.;;;MOOCs Empfehlungssystem: Ein Empfehlungssystem für die Massive Open Online Courses Heutzutage beeinflusst die Technologie jeden Aspekt unserer Gesellschaft auf unterschiedliche Weise. Die technologischen Auswirkungen sind jedoch im Bildungsbereich greifbarer. Technologische Fortschritte verändern die Art und Weise, wie Bildung vermittelt wird. Die Kurse sind nicht auf diejenigen beschränkt, die Universitäts- oder Schulklassen besuchen. Die Verbreitung von Web-Technologien und die Erforschung der Möglichkeiten von Technology Enhance Learning (TEL) führten zur Entwicklung vieler Lernlösungen und kürzlich zu Massive Open Online Courses (MOOCs). MOOCs sind in der Lage, mehreren zehntausend Lernenden den Zugang zu Kursen über das Internet zu ermöglichen. In letzter Zeit gibt es viele MOOCs-Anbieter/-Plattformen mit unterschiedlichen Funktionen und Eigenschaften. Online-Lernende sind mit diesem Überschuss dieser MOOC-Anbieter verschiedenen Herausforderungen ausgesetzt. Dieses Papier stellt ein System vor, das in die Spitze der MOOC-Anbieter integriert ist, um als einziger Zugangspunkt zu diesen Anbietern zu fungieren. Dieses System ist zweifach: Erstens wird es den Lernprozess für jeden Online-Lernenden so verbessern, dass es die Bedürfnisse der Lernenden bei der Suche nach geeigneten Kursen bei verschiedenen Anbietern erfüllt. Zweitens wird es Kurse empfehlen, die sich auf die bisherigen Erfahrungen seiner Benutzer beziehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-2419-1_20 ad1b94c7b08d2549b55fa626f35c448f;de;;;7.3.;;;E-Procurement-Nutzung und Akzeptanzbarrieren: Beweise aus dem griechischen Foodservice-Sektor Trotz der Vorteile von E-Procurement setzen die meisten Unternehmen es nur langsam ein. Da sich frühere Studien zur elektronischen Beschaffung hauptsächlich auf die Untersuchung ihrer Vorteile oder deren Einführung hauptsächlich in der Fertigung konzentriert haben, ist die Forschung, die die Faktoren untersucht, die die Nutzung und Einführung von Systemen der elektronischen Beschaffung durch Lebensmitteldienstleister beeinflussen, minimal. Diese Studie zielt darauf ab, diese Lücke zu schließen, indem die Literatur überprüft wird, in der potenzielle Faktoren für die Einführung von E-Procurement identifiziert werden, und dann deren Auswirkungen getestet werden, indem Daten von griechischen Foodservice-Betreibern gesammelt werden. Es werden Implikationen für Foodservice-Betreiber, Internet-Modellentwickler und E-Commerce-Politiker aufgezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/3-211-27283-6_36 0b218204c96a7523f55b6f0888bb8cf7;de;;;7.3.;;;Auswirkungen des Internets auf die Reisezufriedenheit und die allgemeine Lebenszufriedenheit Der Zweck dieses Kapitels besteht darin, die Auswirkungen des Internets auf die Reisezufriedenheit und letztendlich das allgemeine Wohlbefinden und/oder die Lebensqualität (QOL) zu diskutieren. Dieses Kapitel schlägt die allgemeine Lebenszufriedenheit als operationalisierte abhängige Variable vor, um das Wohlbefinden und die Lebensqualität einer Person zu messen, sowie Konstrukte der Zufriedenheit mit Bedürfnissen als unabhängige Variable. Es werden zwei konzeptionelle Modelle vorgeschlagen, um die Auswirkungen des Internets auf die Reisezufriedenheit und die allgemeine Lebenszufriedenheit zu untersuchen. Das erste Modell konzentriert sich auf die Rolle des Internets, wenn es als Werkzeug für die Reiseplanung vor der Reise betrachtet wird, und das zweite Modell konzentriert sich auf die Rolle des Internets, wenn es als soziale Plattform in einer Web 2.0-Umgebung betrachtet wird, in der Menschen Reiseinformationen austauschen nach einer Reise, mit anderen kommunizieren und Kontakte knüpfen. Es werden zwei wichtige Rollen des Internets bei der Zufriedenheitsbildung und -modifikation gefunden. In Bezug auf die Zufriedenheitsbildung hilft die größere Menge an transparenten und zuverlässigen Informationen, die im Vorfeld der Reise über das Internet gesammelt werden, den Personen, die Erwartungen realistisch anzupassen, und die realistische Erwartung führt dazu, die negative Zufriedenheitsdiskonfirmation zu reduzieren und ein höheres Zufriedenheitsniveau aufrechtzuerhalten. Im Sinne der Zufriedenheitsmodifikation rekonstruieren Postkonsumerlebnisse auf der sozialen Plattform frühere Erinnerungen und modifizieren dementsprechend die Zufriedenheit. Die modifizierte Zufriedenheit beeinflusst schließlich die allgemeine Lebenszufriedenheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-2288-0_19 6e05e64348d9269128afce536da87a44;de;;;7.3.;;;Auswahl von Internetkameras als Reaktion auf standortbasierte Anfragen von mehreren Benutzern Die mobile Kommunikation ist in den letzten Jahren populär geworden, und die mobilen Benutzer können sich überall mit dem Internet verbinden. Immer mehr mobile Nutzer werden sich in Zukunft nach ihrem Standort erkundigen. Wenn wir Informationen über einen bestimmten Ort bereitstellen, ist es eine der effektivsten Methoden, Bilder von Festpunkt-Beobachtungskameras zu verwenden, da die Kamerabilder uns explizit über die Situation des Ortes erzählen können. Darüber hinaus ist die Verwendung mehrerer Kameras effektiver, da wir viele Orte aus vielen Blickwinkeln sehen können. Es gibt jedoch einige Probleme, die gelöst werden müssen, wenn wir mehrere Kameras verwenden. Ein Problem besteht darin, dass es schwierig ist, eine Zielkamera aus einer großen Anzahl von Kameras auszuwählen. In unserer Forschung schlagen wir einen Algorithmus vor, um basierend auf Positionsinformationen die optimale Kamera auszuwählen, die für Benutzeranfragen geeignet ist. Wir können mehrere Kameras mit einzigartigen Parametern verwenden, indem wir unsere vorgeschlagene Methode verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45235-5_40 92a027a0f0c021ce4b75ac3b0987fd93;de;;;7.3.;;;Timeline-Analyse von Web-News-Ereignissen Da täglich eine große Anzahl von Nachrichten im Internet verfügbar ist, ist es eine interessante Aufgabe, Nachrichtenereignisse automatisch nach Zeitreihenfolge und Abhängigkeiten zwischen Ereignissen zu organisieren. Die Arbeit kann Benutzern helfen, die Entwicklung von Nachrichtenereignissen bequem und schnell zu durchsuchen. In diesem Papier wird eine Aufgabe zur Ereigniszeitlinienanalyse (ETA) definiert, um den Bedarf zu decken. Im Vergleich zu bestehenden Werken präsentiert ETA die Ereignisentwicklung grafisch und aktualisiert inkrementell den Prozess der Ereignisentwicklung, um besser zu den Nachrichtenströmen im Internet zu passen. Um die ETA-Aufgabe abzuschließen, schlägt dieses Papier eine Event Evolving Graph (EEG)-Struktur und einen Aufbau- und Ordnungsalgorithmus des EEG vor. Experimente demonstrieren die Nützlichkeit und Durchführbarkeit des Verfahrens.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88192-6_13 9c44cafd37867d25da2ec9ce6f92704c;de;;;7.3.;;;Online-Verhaltensmuster von Terroristen: Vergangenheit und Gegenwart Terroristen haben ihre Aktivitäten zur Planung und Koordinierung von Angriffen mithilfe von Webtechnologien auf das Internet verlagert. Sie sind gut genug ausgebildet, um ihre Websites zu erstellen und über Apps zu kommunizieren. Sie nutzen Online-Technologien, um ihre Ziele wie Materialverteilung, Überwindung von Hindernissen, Kommunikation, Rekrutierung, Fundraising, Koordination, Werbung usw. zu erreichen. Terroristen rekrutieren benötigte Personen über soziale Medien, Websites, Videospiele usw sich mit Hilfe moderner Formen des Terrorismus auf Anschläge vorzubereiten. Das Papier erläuterte verschiedene Verhaltensmuster von Terroristen von der Vergangenheit bis zur Gegenwart. Sie haben ihre Aktivitäten seit 1970 bis heute erhöht. Die Aktivitäten werden von 1970 bis 2016 dargestellt. Die Aufzeichnungen werden von der Kaggle-Site gesammelt. Es wird studiert und analysiert. Der Terrorismus ist in jedem Land stark betroffen und seine Aktivitäten nehmen von Tag zu Tag zu. In diesem Papier wurde versucht, das Online-Verhalten von Terroristen zu identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9187-3_60 ba876fce5487ba244f0de95c42ce0d62;de;;;7.3.;;;Effiziente benutzerunterstützte Inhaltsverteilung über ein informationszentriertes Netzwerk Um die grundlegenden Einschränkungen des aktuellen Internets bei der Unterstützung der heutigen inhaltsorientierten Dienste zu lösen, wurde das Konzept der informationszentrierten Vernetzung (ICN) vorgeschlagen. ICN verfügt über attraktive Funktionen (z. B. namensbasiertes Routing, Caching im Netzwerk und Multicast), die effiziente inhaltsorientierte Dienste unterstützen. Die attraktiven Merkmale können jedoch aufgrund der Ressourcenbeschränkung nicht von allen vorhandenen Inhalten vollständig genutzt werden, was bedeutet, dass zusätzliche Techniken zur Verbesserung der inhaltsorientierten Dienste erforderlich sein können. In diesem Papier untersuchen wir als einen möglichen Weg dafür die P2P-Technik, die Benutzerressourcen in ICN ausnutzt. Wir untersuchen zunächst, wie P2P in ICN aussieht. Dann führen wir das beitragsbewusste ICN und den entsprechenden Anreizmechanismus ein, um die Benutzerressourcen effizient zu nutzen. Wir zeigen auch, wie das beitragsorientierte ICN über die bestehenden ICN-Architekturen implementiert werden kann. Durch Simulationen evaluieren wir einen Effekt der Benutzerbeteiligung auf die Leistung der Inhaltsverteilung in ICN. Wir prüfen auch die Machbarkeit des beitragsbewussten ICN im Hinblick auf die Effizienz der Ressourcennutzung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30045-5_1 3f72598c6e785c2bf11330797c682ff3;de;;;7.3.;;;Policy4TOSCA: Ein richtlinienbewusster Ansatz für die Bereitstellung von Cloud-Diensten, um sicheres Cloud-Computing zu ermöglichen Mit der zunehmenden Akzeptanz von Cloud Computing werden automatisierte Bereitstellungs- und Bereitstellungssysteme für Cloud-Anwendungen immer häufiger. Sie tragen dazu bei, die Onboarding-Kosten für Neukunden sowie die finanziellen Auswirkungen der Verwaltung von Cloud-Services zu reduzieren, indem sie diese bisher manuellen Aufgaben automatisieren. Bei der weit verbreiteten Verwendung solcher Systeme wird die Einführung eines gemeinsamen Standards zur Beschreibung von Cloud-Anwendungen einen entscheidenden Vorteil bieten, indem sie wiederverwendbare und portable Anwendungen ermöglicht. TOSCA, ein neu veröffentlichter Standard von OASIS mit breiter Beteiligung der Industrie, bietet diese Möglichkeit. Neben den technischen Anforderungen für den Betrieb und die Verwaltung von Anwendungen in der Cloud sind nicht-funktionale Anforderungen wie Kosten-, Sicherheits- und Umweltaspekte von besonderer Bedeutung beim Übergang zur automatisierten Bereitstellung und Verwaltung von Cloud-Anwendungen. In diesem Whitepaper zeigen wir, wie nichtfunktionale Anforderungen in TOSCA mithilfe von Richtlinien definiert werden. Wir schlagen einen Mechanismus zur automatischen Verarbeitung dieser formalen Richtliniendefinitionen in einer TOSCA-Laufzeitumgebung vor, die wir basierend auf der vorgeschlagenen Architektur des TOSCA-Primers entwickelt haben. Um unseren Ansatz zu evaluieren, präsentieren wir prototypische Implementierungen von Sicherheitsrichtlinien zur Verschlüsselung von Datenbanken und zur Begrenzung des geografischen Standorts der Cloud-Server. Wir demonstrieren, wie unsere Laufzeitumgebung diese Richtlinien sicherstellt und zeigen, wie sie sich auf die Bereitstellung der Anwendung auswirken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41030-7_26 5746b217326018a37e4684474de56930;de;;;7.3.;;;Benutzeroberflächen und Serversteuerungen In Kapitel 2 haben wir die Architektur und den Zweck von Webformularen untersucht und diskutiert, wie sie das Konzept einer Webseite verbessern. Sie begannen zu sehen, wie in Kombination mit der von VS .NET bereitgestellten IDE ASP.NETs;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-0728-3_3 ee29a0d40571cac461a202631c84b9aa;de;;;7.3.;;;Webbasiertes Robotiklabor: Remote vs. Virtual Training in Programmiermanipulatoren Es ist allgemein anerkannt, dass in allen ingenieurwissenschaftlichen Disziplinen gut konzipierte praktische Ausbildungsszenarien in realistischen experimentellen Laboreinrichtungen erforderlich sind, um die Ausbildung der Studierenden abzuschließen. Praktische Laborexperimente sind in der Tat unerlässlich, um die Vorlesungen im Klassenzimmer und den theoretischen Unterricht zu verbessern und zu vervollständigen. Die Veranschaulichung analytischer Techniken, die Aufnahme theoretischer Konzepte, die Einführung in die Berufspraxis und die Unsicherheiten realer Experimente sowie die Entwicklung von Fähigkeiten einschließlich Teamwork in technischen Umgebungen sind einige der Gründe, die den Laborunterricht in ingenieurwissenschaftlichen Curricula pädagogisch unverzichtbar machen. Der Zugang zu teuren und komplexen Laborgeräten bringt jedoch oft unweigerlich viele Einschränkungen mit sich, sowohl in Bezug auf Zeit als auch Platzbeschränkungen. Entfernte und/oder virtuelle Labore könnten einige Lösungen für diese Beschränkungen bieten und verschiedene Alternativen bieten, um solche Beschränkungen zu überwinden, indem Studenten Zugang zur Laborinfrastruktur auf eine Weise erhalten, die ansonsten unmöglich wäre.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-2505-0_9 a9e8462a78933ded52a97adf40b66ddf;de;;;7.3.;;;Nationale Kontexte Wie in Kapitel 1 erwähnt, betraf die wichtigste kontextuelle Frage von SITES 2006 die Systemfaktoren, die mit unterschiedlichen pädagogischen Ansätzen und der IKT-Nutzung in den jeweiligen teilnehmenden Bildungssystemen verbunden sind. Dieses Kapitel konzentriert sich daher auf die Bildungssysteme, die an SITES 2006 teilgenommen haben, und ihre Eigenschaften. Die Kontexte jedes der 22 Bildungssysteme werden charakterisiert, um die Interpretation der in späteren Kapiteln berichteten Ergebnisse im Allgemeinen zu erleichtern und um zu bewerten, inwieweit Systemmerkmale uns helfen, Trends in der schulischen IKT-Politik und im Besonderen im pädagogischen Unterricht zu verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-8928-2_3 e33d4f90879aaaaca0e4f5e788b7ce5f;de;;;7.3.;;;Soziale Medien als Quelle der Wahrnehmung zur Untersuchung von Stadtdynamiken und urbanem Sozialverhalten: Ansätze, Modelle und Chancen Um das von Mark Weiser populär gemachte Konzept des Ubiquitous Computing zu verwirklichen, ist es notwendig, die Umgebung zu erfassen. Eine Alternative besteht darin, traditionelle drahtlose Sensornetzwerke (WSNs) zu verwenden. WSNs haben jedoch ihre Grenzen, beispielsweise bei der Erfassung großer Gebiete, wie beispielsweise Metropolen, da der Aufbau und die Wartung solcher Netze hohe Kosten verursachen. Die Allgegenwart von Smartphones im Zusammenhang mit der Einführung von Social-Media-Websites, die sogenannte partizipative Sensing-Systeme (PSSs) bilden, ermöglicht beispiellose Möglichkeiten, die Umwelt zu erfassen. Insbesondere die von PSS erfassten Daten sind sehr interessant, um die Stadtdynamik und das städtische Sozialverhalten zu untersuchen. Das Ziel dieser Arbeit ist es, Ansätze und Modelle zu untersuchen, die auf PSS-Daten angewendet werden, um die Stadtdynamik und das soziale Verhalten der Städte zu untersuchen. Darüber hinaus ist es auch ein Ziel dieser Arbeit, einige der Herausforderungen und Chancen bei der Nutzung sozialer Medien als Quelle der Wahrnehmung zu diskutieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45392-2_4 6cb2658b0226cb931d6bf722d06159a5;de;;;7.3.;;;Lehren und Lernen durch technologievermittelte Interaktion Als Reaktion auf die zunehmende Komplexität von Online-Umgebungen suchen Pädagogen nach Wegen, sich entwickelnde Technologien für effektives Lehren und Lernen zu nutzen. Dieses Papier stellt einen Rahmen für technologievermittelte Interaktion vor, der versucht, die Beziehung zwischen Interaktionsarten und der Eignung verschiedener Technologien zur Unterstützung hochwertiger Lernergebnisse zu konzeptualisieren. Das Sieben-Ebenen-Modell hat Kollaboration als höchste Ebene der sinnvollen Interaktion mit sozialer Interaktion als Basisebene. Die Qualität von Lernergebnissen auf verschiedenen Ebenen findet ihre Grundlage in Theorien der kognitiven Entwicklung und der verhaltensbezogenen und sozialen Interdependenz. Das Papier bietet einen Leitfaden für die Stichprobenziehung solcher Interaktionen und den Nachweis von qualitativ hochwertigen Lernergebnissen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35596-2_25 43cc1a03b32b78f4d3e90d83e37bdf81;de;;;7.3.;;;Identifizierung und Spezifikation von generischen und spezifischen Enablern des zukünftigen Internets – illustriert durch den Bereich Geospatial and Environmental Die Identifizierung und Spezifikation von generischen und spezifischen Enablern des Future Internet basiert auf einer anwendungsfallorientierten Methodik unter Berücksichtigung von Lebenszyklus- und Architekturbeschränkungen. Der Ansatz wird anhand von Beispielen aus dem Geo- und Umweltbereich illustriert, die beide im ENVIROFI-Nutzungsgebietsprojekt im Rahmen des Future Internet Public Private Partnership-Programms erarbeitet werden. Der Ansatz erhebt den Anspruch, auf andere Themendomänen und Nutzungsbereiche anwendbar zu sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24755-2_26 23c67d0ae05540864ae64db321289133;de;;;7.3.;;;Online-Psychophysik: Reaktionszeiteffekte in kognitiven Experimenten Die Nutzung des Internets zur Erfassung von Verhaltensdaten ist derzeit auf dem Vormarsch. Allerdings sind noch ganz grundsätzliche Fragen zur Machbarkeit der Online-Psychophysik offen. Hier wollten wir fünf bekannte Paradigmen der experimentellen Psychologie (Stroop, Flanker, visuelle Suche, maskiertes Priming, Aufmerksamkeitsblinzeln) in drei Settings (klassisches „Lab“, „Web-in-Lab“, „Web“) replizieren, um Berücksichtigung möglicher Veränderungen in Technologie und Umgebung. Labor- und Web-in-Lab-Daten wurden beide in einer Laborumgebung mit Labor nach „Gold Standard“-Methoden erfasst, während Web-in-Lab Web-Technologie verwendet. Dies ermöglichte einen direkten Vergleich von Potenzialunterschieden in der Erfassungssoftware. Um zusätzliche Umweltunterschiede zu berücksichtigen, wurden die Webtechnologie-Experimente online veröffentlicht, um von zu Hause aus teilzunehmen (Setting Web), wodurch die Software und das experimentelle Design identisch blieben und nur die Umgebungsumgebung verändert wurde. Unsere wichtigsten Ergebnisse sind: Erstens fanden wir einen erwarteten festen additiven Timing-Offset bei Verwendung der Webtechnologie (;-;-;-;https://link.springer.com/article/10.3758/s13428-016-0783-4 34b7d6a738013ff9e4f07dcee72cb67b;de;;;7.3.;;;Einführung in das erste Jahr der Semantic Web Services Challenge Die Semantic Web Services Challenge ist eine Initiative, die eine Reihe von Workshops umfasst, in denen die Teilnehmer Papiere darüber präsentieren, wie sie einige Benchmark-Probleme bei der Vermittlung, Entdeckung und Erstellung von Webdiensten gelöst haben. Die Verifizierung der Behauptungen erfolgt durch Erfassung der mit dem Challenge-Testbed ausgetauschten Nachrichten sowie durch Code-Inspektion durch Workshop-Teilnehmer. Technologiezertifizierungen werden öffentlich im Challenge-Wiki angegeben. Die bisherige Erfahrung zeigt, dass selbst einfache Probleme viel schwieriger tatsächlich zu lösen sind, als dies von Papieren an Orten suggeriert wird, die solche Behauptungen nicht so überprüfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-72496-6_1 512a6ff48625b20630e881f855e39415;de;;;7.3.;;;"Dynamische Webanwendung zum Verwalten und Suchen von Informationen zu antiken und Kunstobjekten Informationen zu Antiquitäten und Kunstobjekten spielen in der Archäologie, Geschichte und Kultur eine wichtigere Rolle. Diese wertvollen Informationen wurden jedes Jahr kontinuierlich erweitert und angesammelt. Es erfordert ein effektives System, um das verfügbare Wissen für die Menschen der nächsten Generationen zu übertragen. Daher zielt diese Studie darauf ab, eine Datenbank zum Speichern der Informationen zu entwerfen und eine dynamische Webanwendung zu entwickeln, um die Informationen zu verwalten und zu durchsuchen. Das System besteht aus zwei Hauptteilen: 1) Datenmanipulation und 2) erweiterte Suche. Der erste Teil wurde für Museumsmitarbeiter entwickelt, um Daten zu speichern, zu aktualisieren und zu löschen. Der zweite Teil ist für allgemeine Benutzer, um die Informationen effizient zu durchsuchen, indem sie eine Kombination von Schlüsselwörtern verwenden, die Name, Typ, Material, Periode und Kunststil sind, und zwei logische Operatoren, ""UND"" und ""ODER"". Die Anwendung ist nützlich, da sie eine bequeme und effektive Bearbeitung und Suche von Informationen zu Antiquitäten und Kunstobjekten über das Internet ermöglicht.";-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12823-8_35 a4b262a3cb30f5eee69ad7ac8383be99;de;;;7.3.;;;Zusammenarbeit von Menschen für Nachhaltigkeit in der IKT-Gesellschaft In der gegenwärtigen Netzwerkperiode der IT-Geschichte vollziehen sich tiefgreifende Veränderungen in der Zusammenarbeit zwischen Mensch und menschlicher Kommunikation, ihrer Struktur, Quantität und Qualität. Ein dominierender Steuerungsfaktor für die Gestaltung und Gestaltung des Arbeits- und Privatlebens ist die Konvergenz der drei Technologien Computertechnik, Teletechnik und Medientechnik (IKT). Die Telekommunikationstechnologie spielt bei dieser Konvergenz eine immer dominantere Rolle, insbesondere die Internet- und Webtechnologie. Eingebettete (ubiquitäre) Computertechnologie macht den Prozess unsichtbar und Medientechnologie konvergiert in sich selbst (Multimedia oder Cross Media). Gut funktionierende Organisation;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73354-6_77 bc091bf1b3894ef3b1c32716c8c5bdbe;de;;;7.3.;;;Ein erweiterbares Framework für die Visualisierung und Analyse von Schwachstellen in Webanwendungen Die Popularität webbasierter Anwendungen macht sie zu interessanten Zielen für Cyberangriffe. Um dieser Bedrohung zu begegnen, ist das Aufdecken vorhandener Schwachstellen ein proaktiver Schritt. Obwohl viele Webanwendungsscanner für diese Aufgabe entwickelt wurden, fehlt ihnen die visuelle Analysefähigkeit und sie arbeiten nicht gut zusammen. In diesem Beitrag schlagen wir eine neuartige Visualisierungstechnik und einen flexiblen Rahmen vor, um die beiden oben genannten Probleme zu lösen. Auf Basis des Vorschlags entwickeln wir auch einen Prototypen und experimentieren damit mit virtuellen Websites. Versuchsergebnisse zeigen den einzigartigen Nutzen, den unsere Arbeit bietet. Vor allem aber zeigt es, dass nicht nur eine Verbesserung der Visualisierungstechnik aus technischer Sicht erforderlich ist, sondern auch aus menschlicher kognitiver Sicht eine höhere Priorität einzuräumen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12778-1_7 5cc220ff890bfb111847820b6174023a;de;;;7.3.;;;Stabilisierung von Benutzerprofilen, die durch Metaclustering von Webseiten verarbeitet werden In diesem Beitrag berichten wir über ein laufendes Forschungsprojekt, das darauf abzielt, die Hypothese einer Stabilisierung der Segmentierung von Webnutzern durch standortübergreifenden Informationsaustausch zu bewerten. Wir überprüfen die Stabilität der Benutzermitgliedschaft in Segmenten, die zu verschiedenen Zeitpunkten aus den Inhalten der von ihnen besuchten Websites abgeleitet werden. Wenn es wahr ist, dass Benutzer des gleichen Dienstes im Laufe der Zeit Segmente teilen, kann das Zusammenführen von Informationen über verschiedene Dienste gewinnbringend sein. Wenn nicht, muss die Art und Weise, wie Benutzer profiliert oder geclustert werden, überarbeitet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38634-3_20 84e58d68ab245a7824d7bad7145ef2e3;de;;;7.3.;;;Ein weiches Echtzeit-Klassifizierungssystem für Webnachrichten mit doppelten Regelkreisen Dieses Papier schlägt einen Rahmen für weiche Echtzeit-Textklassifikationssysteme vor, die anstelle von Ad-hoc-Lösungen die Kontrolltheorie als wissenschaftliche Grundlage verwenden. Um eine Echtzeitgarantie zu bieten, werden zwei Regelkreise verwendet. Die Feedforward-Regelschleife schätzt die geeignete Anzahl von Klassifizierern entsprechend der aktuellen Arbeitsbelastung, während die Rückkopplungs-Regelschleife eine feinkörnige Steuerung der Anzahl von Klassifizierern bereitstellt, die ungenaue Berechnungen durchführen. Das Soft-Echtzeit-Klassifizierungssystem kann sich an veränderte Arbeitsbelastung und vorübergehende Überlastung anpassen. Die Ergebnisse der Theorieanalyse und der Experimente beweisen ihre Wirksamkeit weiter: Der Variationsbereich der durchschnittlichen Reaktionszeit wird innerhalb von ± 3% des gewünschten Wertes gehalten, die Rechenressourcen werden dynamisch neu zugewiesen und zurückgewonnen.;-;-;-;https://link.springer.com/chapter/10.1007/11563952_8 453ed2866ea3fd94b0f6e891183ede5a;de;;;7.3.;;;Find, New, Copy, Web, Page - Tagging für die (Wieder-)Entdeckung von Webseiten Das World Wide Web hat einen sehr dynamischen Charakter, bei dem Ressourcen ständig verschwinden und (wieder) auftauchen. Ein allgegenwärtiges Ergebnis ist der Fehler „404 Seite nicht gefunden“ als Anfrage nach fehlenden Webseiten. Wir untersuchen Tags, die wir von Delicious erhalten haben, um solche fehlenden Webseiten mit Hilfe von Suchmaschinen wiederzufinden. Wir ermitteln die leistungsstärkste Tag-basierte Abfragelänge, quantifizieren die Relevanz der Ergebnisse und vergleichen Tags mit Abrufmethoden basierend auf dem Inhalt einer Seite. Wir finden, dass Tags nur zusätzlich zu inhaltsbasierten Methoden sinnvoll sind. Wir führen außerdem den Begriff „Ghost-Tags“ ein, Begriffe, die als Tags verwendet werden, die in der aktuellen, aber in einer früheren Version der Webseite vorkommen. Ein Drittel dieser Ghost-Tags wird in Delicious hoch eingestuft und kommt auch häufig im Dokument vor, was auf ihre Bedeutung sowohl für den Benutzer als auch für den Inhalt des Dokuments hinweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24469-8_5 0d3a970db6986593f25af2260d8cae32;de;;;7.3.;;;Zur Effektivität der Vorverarbeitung durch Clustering bei der Vorhersage von C.E.-Technologiedaten mit KNN Die technologischen Daten des Bauingenieurwesens werden natürlich in einer bestimmten Weise geclustert. Mit einem geeigneten künstlichen neuronalen Netz wie Fuzzy ARTMAP, das für die vorgestellten Experimente implementiert wurde, kann ein Black-Box-Modell der Beziehung zwischen Betonzusammensetzung und Betoneigenschaften konstruiert werden. Nach dem Training ermöglicht das System wertvolle Vorhersagen von technologischen Daten. Es wurde erwartet, dass die Vorbehandlung von Daten durch ihre Clusterbildung eine verbesserte Vorhersage von Testbeispielen ermöglichen sollte. Das Clustering wurde auf zwei verschiedene Arten realisiert: mit k — mean Algorithmus und mit GCA-Ansatz. Die Verbesserung der Genauigkeit der Vorhersagen war eher begrenzt, aber die endgültige Effizienz war besser, da mehr Aufzeichnungen positiv anerkannt wurden. Noch erfolgversprechender erscheint der Ansatz bei Daten mit besonderer interner Struktur und Anwendung fortgeschrittener Clustering-Verfahren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36562-4_27 739356c11ae13791e36f7845cd455a1c;de;;;7.3.;;;Eine vergleichende Untersuchung von Kostenschätzungsmodellen für Web-Hypermedia-Anwendungen Software-Kostenmodelle und Aufwandsschätzungen helfen Projektmanagern, Ressourcen zuzuordnen, Kosten zu kontrollieren und aktuelle Verfahren zu planen und zu verbessern, was dazu führt, dass Projekte termin- und budgetgerecht abgeschlossen werden. Im Zusammenhang mit der Webentwicklung sind diese Themen ebenfalls von entscheidender Bedeutung und sehr herausfordernd, da Webprojekte kurze Zeitpläne und einen sehr fließenden Umfang haben. Im Kontext des Web-Engineering haben nur wenige Studien die Genauigkeit verschiedener Arten von Kostenschätzungstechniken verglichen, wobei der Schwerpunkt auf linearen und schrittweisen Regressionen und fallbasierter Argumentation (CBR) gelegt wurde. Bisher wurde nur eine Art von CBR-Technik im Web-Engineering verwendet. Wir glauben, dass die Ergebnisse dieser Studie verzerrt sein könnten, da auch andere CBR-Techniken zur Vorhersage der Anstrengung verwendet werden können. Folglich besteht das erste Ziel dieser Studie darin, die Vorhersagegenauigkeit von drei CBR-Techniken zu vergleichen, um den Aufwand für die Entwicklung von Web-Hypermedia-Anwendungen abzuschätzen und diejenige mit den besten Schätzungen auszuwählen. Das zweite Ziel besteht darin, die Vorhersagegenauigkeit der besten CBR-Technik mit zwei häufig verwendeten Vorhersagemodellen zu vergleichen, nämlich schrittweise Regression und Regressionsbäume. Ein Datensatz wurde im Schätzprozess verwendet und die Ergebnisse zeigten, dass die besten Vorhersagen für die schrittweise Regression erhalten wurden.;-;-;-;https://link.springer.com/article/10.1023/A%3A1023062629183 1b9c735c04a53d224ca95e913ded2f3b;de;;;7.3.;;;Profilerstellung — Technologie Die Netzwerkidentität wird durch den Satz von Merkmalen über eine Person in einem Computernetzwerk definiert, und daher ist das Identitätsmanagement im Internet der Schlüssel zur Sicherstellung eines maximalen Wettbewerbs- und Marketingvorteils für Dienstanbieter bei gleichzeitigem Schutz der Privatsphäre der Endbenutzer. In den letzten Jahren gab es in der IT-Welt große Versuche, Teile der Identity-Management-Lösung bereitzustellen, aus denen wir wichtige Lehren ziehen können. BTexact hat auch einen Profil-Hosting-Server entwickelt, um die technologischen Probleme zu untersuchen und eine Lösung in diesem wichtigen, sich entwickelnden Bereich vorzuschlagen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1022400226864 3fc9d26bdb238c9fe7a6ccefb7c2651e;de;;;7.3.;;;Grid Resource Broker mit Anwendungs-Benchmarking Während Grid im Kontext von Distributed Computing zu einem gängigen Begriff wird, erleben Benutzer immer noch lange Phasen der Anpassungsfähigkeit und erhöhter Komplexität bei der Nutzung des Systems. Obwohl Benutzer Zugriff auf mehrere Ressourcen haben, ist die Auswahl der optimalen Ressource für ihre Anwendung und das entsprechende Starten des Jobs ein langwieriger Prozess, der sich nicht nur für den naiven Benutzer als schwierig erweist, sondern auch zu einer ineffektiven Nutzung der Ressourcen führt. Ein Allzweck-Ressourcenbroker, der die anwendungsspezifische Ressourcenauswahl im Auftrag des Benutzers über eine Webschnittstelle durchführt, ist erforderlich. Dieses Papier beschreibt das Design und das Prototyping eines solchen Ressourcenbrokers, der nicht nur eine passende Ressource basierend auf benutzerdefinierten Kriterien auswählt, sondern auch die Anwendungsleistungsmerkmale der Ressourcen verwendet, die es dem Benutzer ermöglichen, Anwendungen transparent und effizient auszuführen, wodurch eine echte Virtualisierung bereitgestellt wird.;-;-;-;https://link.springer.com/chapter/10.1007/11508380_70 ade647eee674fde4ca3c68b8c2fc6220;de;;;7.3.;;;Analyse von Backdoor-Phishing-Kits Dieses Papier analysiert die „hintertürten“ Phishing-Kits, die von der berüchtigten Mr-Brain-Hacking-Gruppe aus Marokko verbreitet werden. Diese Phishing-Kits ermöglichen es einer zusätzlichen Stufe von Cyberkriminellen, auf die Zugangsdaten von Internetopfern zuzugreifen. Es werden auch verschiedene Methoden zur Verschleierung von Drop-E-Mails diskutiert, die von der Hacking-Gruppe verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24212-0_12 1c080c2a11b74acb0f153ddc9e70fce6;de;;;7.3.;;;Suche nach effektivem Fernunterricht in Entwicklungsländern mit Multimedia-Technologie Obwohl die Entwicklungen der Multimedia-Technologie und der Internet-Netzwerke zu immensen Verbesserungen des Lernniveaus sowie des Fernunterrichts in den Industrieländern beigetragen haben, sind die Entwicklungsländer aufgrund der begrenzten Verbreitung dieser Technologien immer noch nicht in der Lage, von diesen Verbesserungen zu profitieren. Mangel an angemessener Verwaltung und Infrastrukturprobleme. Wenn es uns nicht gelingt, diese Probleme zu lösen, damit Menschen in Entwicklungsländern die Vorteile dieser Technologien für den Fernunterricht nutzen können, wird die große Mehrheit der Weltbevölkerung im Rückstand sein. In diesem Papier ziehen wir eine Bestandsaufnahme der aktuellen Situation und schlagen einige zukünftige Richtungen bei der Lösung dieser Probleme vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17641-8_30 13da5d1f1a916280ec7f1f0a525171d9;de;;;7.3.;;;Komposition von Mehrwert-Webdiensten mit automatischer Programmsynthese Die Zahl der über das Internet verfügbaren Produkte und Dienstleistungen hat in den letzten Jahren dramatisch zugenommen und es übersteigt bereits heute die menschliche Fähigkeit, diese effizient zu analysieren und zu kombinieren. Wenn wir gleichzeitig Arbeiten im Software-Engineering (und insbesondere in der komponentenbasierten Systementwicklung) betrachten, können wir eine recht starke Ähnlichkeit in der Problembeschreibung feststellen. Die Webservices können ähnlich wie Softwarekomponenten behandelt werden und die Servicekomposition kann als Problem der Softwaresynthese und -komposition betrachtet werden. Die Grundidee unseres Ansatzes ist die Anwendung der Software-Synthese- und Kompositionsmethoden auf die Komposition von Mehrwert-Webdiensten. Wir beschreiben auch einige technische Details innerhalb des Ansatzes, insbesondere eine Webservice-Beschreibungssprache und eine Programmsynthesemethode.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36189-8_17 675dfd9ac43ebb2b43cb8ec49d292e93;de;;;7.3.;;;EIN WEBSERVICE FÜR ZERTIFIZIERTE E-MAIL Die Webservice-Technologie ermöglicht die Erledigung komplexer Aufgaben durch die Definition einfacherer Dienste für die Zusammenarbeit. Sobald Webservices verfügbar werden, stellt die Bereitstellung von Mitteln zum Nachweis des Datenaustauschs und der Servicenutzung eine Herausforderung dar. Ein interessanter Testfall stammt aus der Entwicklung webbasierter zertifizierter E-Mail-Systeme. In solchen Systemen möchten Benutzer, die E-Mail-Nachrichten austauschen, einige zusätzliche Garantien für die Sicherheit der Kommunikation während der Interaktion erhalten. In dieser Arbeit beschreiben wir das Design und die Implementierung einer zertifizierten E-Mail-Anwendung, die durch die Definition von interagierenden Servern realisiert wird. Benutzer greifen über eine webbasierte Anwendung auf den Dienst zu und können am Ende der Transaktion eine gültige Quittung erhalten, die im Streitfall verwendet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/11397427_7 28f5b5b047f605dc9d178d5e1bd9dfce;de;;;7.3.;;;Neue Technologien. Politische, rechtliche, wirtschaftliche und faktische Auswirkungen in Deutschland Neue Technologien beeinflussen die Versicherungswirtschaft in Deutschland in vielerlei Hinsicht. Dies spiegelt sich auch in Änderungen der rechtlichen Rahmenbedingungen wider. So hat der deutsche Gesetzgeber beispielsweise neue Regeln für das hoch- und vollautomatisierte Fahren eingeführt. Künftig stellt sich beim autonomen Fahren die Frage nach den Auswirkungen des Wegfalls des Fahrers auf Haftpflicht und Versicherung. Der Beitrag zeigt, dass auch das deutsche System der Halterhaftung in Kombination mit einer obligatorischen Haftpflichtversicherung eine überzeugende Lösung für diese Herausforderung bietet, insbesondere im Hinblick auf einen wirksamen Schutz von Verkehrsopfern. Ein weiteres Feld sind Cyberrisiken. Sie haben zur Entwicklung eines neuen Versicherungsschutzes geführt. Die Digitalisierung bietet neue Chancen für den Vertragsabschlussprozess und die Regulierung von Versicherungsansprüchen, aber auch rechtliche Herausforderungen sind zu bewältigen. Nicht zuletzt führt der Einsatz von Robotern und Nanotechnologie zu neuartigen Risiken und veränderten Deckungskonzepten. Dieser Artikel beschäftigt sich mit aktuellen Entwicklungen in Deutschland.;-;-;-;https://link.springer.com/article/10.1007/s12297-020-00460-2 5a060a010e38d092e819a1839da85759;de;;;7.3.;;;Middleware für die autonomen Webdienste (AWS) Der Zweck der Autonomous Web Services (AWS) besteht darin, den Austausch von Geschäftstransaktionen im Internet zwischen Systemen mit unterschiedlichen Geschäftsprozessmodellen zu ermöglichen, indem diese bei der Begegnung der Systeme dynamisch harmonisiert werden. Basierend auf den Prinzipien und den grundlegenden Methoden, die in früheren Forschungen wie [3] vorgeschlagen wurden, ist es uns gelungen, die experimentelle Implementierung der AWS-Middleware zu entwickeln. Die AWS-Middleware besteht aus drei Softwareschichten – der dynamischen Modellharmonisierungsschicht, der Anwendungsframework-Schicht und der Messaging-Schicht. In diesem Papier werden die Entwicklungsprinzipien, Betriebskonzepte, vorgeschlagenen Spezifikationen, detaillierten Algorithmen und Testergebnisse der von uns entwickelten AWS-Middleware erwähnt. Dieser Implementierungserfolg zeigt die theoretische Eignung von AWS und seine Verfügbarkeit für reale Anwendungen sowie die Anwendbarkeit des in diesem Dokument vorgeschlagenen verbesserten Modellharmonisierungsalgorithmus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16283-1_5 920b92533629f6bc7cc9c62976959dc7;de;;;7.3.;;;Wie können Cloud-Benutzer bei der Entscheidung, Verfolgung und Kontrolle der Verwendung ihrer Daten unterstützt werden? Transparenz ist ein Grundprinzip der Privatsphäre und ein Faktor des sozialen Vertrauens. Allerdings ist die Verarbeitung personenbezogener Daten entlang einer Cloud-Kette für die betroffenen Personen oft eher intransparent. Transparency Enhancing Tools (TETs) können Benutzern bei der Entscheidung, Verfolgung und Kontrolle ihrer Daten in der Cloud helfen. Allerdings müssen auch TETs zur Verbesserung der Privatsphäre so konzipiert sein, dass sie sowohl die Privatsphäre erhalten als auch nutzbar sind. In diesem Whitepaper stellen wir Anforderungen an verwendbare TETs für die Cloud vor. Die in diesem Papier vorgestellten Anforderungen wurden auf zwei Arten abgeleitet, auf einem Stakeholder-Workshop und durch eine rechtliche Analyse. Hier diskutieren wir Gestaltungsprinzipien für verwendbare Datenschutzrichtlinien und geben Beispiele für TETs, die es Endbenutzern ermöglichen, ihre personenbezogenen Daten zu verfolgen. Wir entwickeln sie unter Verwendung von Datenschutz und Benutzerfreundlichkeit als Designkriterien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55137-6_6 2c4f56594235333edfe12afe18c5ea40;de;;;7.3.;;;Kategorisieren von Computing-Assets nach Kommunikationsmustern In der heutigen dynamischen Informationsgesellschaft hängen Unternehmen entscheidend von der zugrunde liegenden Computerinfrastruktur ab. Die Verfolgung von Computergeräten als Assets und ihrer Nutzung hilft bei der Bereitstellung und Wartung eines effizienten, optimierten Dienstes. Ein genaues Verständnis der betrieblichen Infrastruktur und ihrer Nutzer spielt auch bei der Verhandlung von Outsourcing-Verträgen und bei der Planung von Mergers & Acquisitions eine zentrale Rolle. Der Aufbau eines genauen Inventars von Computerressourcen ist in unbekannten heterogenen Systemen und Netzwerkumgebungen ohne vorherige Geräteinstrumentierung besonders schwierig. Benutzermobilität und mobile, nicht immer angemeldete Computergeräte tragen zu dieser Herausforderung bei. Wir schlagen vor, grundlegende netzwerkbasierte Erkennungstechniken mit den kombinierten Protokollinformationen von Netzwerk- und Anwendungsservern zu ergänzen, um ein aggregiertes Bild von Assets zu berechnen und deren Nutzung mit Data-Mining-Techniken nach erkannten Kommunikationsmustern zu kategorisieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36162-6_4 eebb216b87820acb4d5fb8b02259caf4;de;;;7.3.;;;Ein Fahrplan für ein verteiltes Web-Assessment Das Projekt webLyzard generiert empirische Webdaten, indem es große Stichproben von Websites automatisch verarbeitet. Es spiegelt in monatlichen Abständen mehr als 5.000 internationale Websites und hat seit 1999 Webdaten von mehr als einem Terabyte gesammelt. Struktur- und Textanalysen wandeln die Fülle der in der Stichprobe enthaltenen Informationen in detaillierte Websiteprofile und aggregierte Inhaltsdarstellungen um. Ein verteilter Ansatz verspricht, sowohl die Stichprobengröße als auch die Häufigkeit der Datenerhebung zu erhöhen. Dieses Papier stellt einen Fahrplan für eine verteilte Webbewertung vor und erweitert und überarbeitet die aktuelle Systemarchitektur, um ihre Skalierbarkeit und Flexibilität für die Untersuchung der Dynamik elektronischer Inhalte zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27834-4_22 248fd5927cdcb64cc70823144ad6e12c;de;;;7.3.;;;Sicherheits- und Datenschutzanforderungen beim interaktiven Fernsehen Das Papier konzentriert sich auf Sicherheitsmaßnahmen im Kontext von interaktivem Fernsehen (iTV), lässt den Bereich des sozialen Fernsehens aus und konzentriert sich auf die gesamte wechselseitige Kommunikation zwischen Benutzer/Zuschauer und Infrastruktur- oder Inhaltsanbietern. Ziel ist die Einführung einer Architektur zur Regulierung aller Arten von Interaktionen und Datenströmen innerhalb einer iTV-Umgebung, einschließlich der verschiedenen Parteien und ihrer individuellen Interessen. Mit der Modellierung einer solchen organisatorischen Infrastruktur folgen die Autoren der Intention, den besten Kompromiss zwischen den teilweise gegensätzlichen Interessen zu finden. Während der Nutzer seine Privatsphäre schützen muss, sind der Szenarioanbieter sowie der Inhaltsanbieter zusammen mit den Werbetreibenden auf wertvolle Verbraucherinformationen über Inhalte und allgemeine Produktinformationen angewiesen. Die vorgeschlagene Szenarioskizze berücksichtigt dabei alle Wege und Richtungen des Datenflusses, angefangen von Nutzerinformationen in Form von TV-Inhaltsempfehlungen oder maßgeschneiderten Produktinformationen nach gegebenen Konsumpräferenzen bis hin zu allen Aspekten des Datenschutzes. Letzteres erscheint entsprechend den unterschiedlichen Akteuren des Szenarios von großer Bedeutung, die alle ihre eigenen Interessen haben und somit heterogene Beziehungen zwischen den verschiedenen einzelnen und korporativen Akteuren bilden. Der Artikel betont eine alternative Perspektive auf iTV im Vergleich zum einfachen digitalen Fernsehen einerseits und der Internettechnologie andererseits. Darin werden datenschutzrechtliche Belange, wirtschaftliche Interessen, organisatorische Notwendigkeiten und Lösungsansätze in der Programmierung detailliert beschrieben und neben neuesten Erfindungen und Standards in Bezug auf Datenschutzmerkmale, z.B. Der Betrieb mit anonymisierten Snapshots hilft nicht nur, die Identität des Benutzers zu verbergen, sondern auch Profilcluster zu erstellen. Einer der wichtigsten hier skizzierten Vorschläge besteht darin, die Rolle des Verbrauchers zu stärken und damit seine dominante Position für den Erfolg von iTV zu akzeptieren. Die vorzuschlagende Schlussfolgerung liegt in zwei wesentlichen Aspekten: Es ist sowohl notwendig, auf die Organisationsstruktur als Modell der Interessenbeziehungen zu verweisen, als auch die Struktur mit innovativen Datenschutzmechanismen zu verbinden. Da das gesamte Szenario stark von Vertrauen und Reputation abhängt, ist es notwendig, dem Benutzer/Betrachter die Kontrolle über die Ursprünge der Datenverarbeitung zu geben. Dies kann nur durch eine spezielle Art von Smartcard mit weitreichenden Auswirkungen in Verbindung mit dem Snapshot-Verfahren erreicht werden. Darüber hinaus geben die Autoren Hinweise, wie die Attraktivität des Rückkanals erhöht werden kann, um den Datenfluss zu stimulieren.;-;-;-;https://link.springer.com/article/10.1007/s00530-010-0221-x 9e8001f0155e55b236184528de8c4140;de;;;7.3.;;;Modellbasierte Detektion von CSRF Cross-Site Request Forgery (CSRF) wird in der Top-Ten-Liste des Open Web Application Security Project (OWASP) als eine der kritischsten Bedrohungen für die Websicherheit aufgeführt. Es gibt eine Reihe von Schutzmechanismen gegen CSRF, aber ein Angreifer kann oft die Komplexität moderner Webanwendungen ausnutzen, um diesen Schutz zu umgehen, indem er andere Fehler missbraucht. Wir präsentieren eine formale modellbasierte Technik zur automatischen Erkennung von CSRF. Wir beschreiben, wie eine Webanwendung spezifiziert werden sollte, um die Aufdeckung von CSRF-bezogenen Schwachstellen zu erleichtern. Wir verwenden ein Eindringlingsmodell à la Dolev-Yao und diskutieren, wie sich CSRF-Angriffe aus den Interaktionen zwischen dem Eindringling und den der Webanwendung zugrunde liegenden kryptografischen Protokollen ergeben können. Wir demonstrieren die Wirksamkeit und Benutzerfreundlichkeit unserer Technik anhand von drei praxisnahen Fallstudien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55415-5_3 13d9dcaf9c372b659d73353d6541fba9;de;;;7.3.;;;Verbesserung der Suche und Navigation durch die Kombination von Ontologien und Social Tags Das Semantic Web hat das ehrgeizige Ziel, komplexe autonome Anwendungen zu ermöglichen, auf einer maschinenverarbeitbaren Version des World Wide Web zu argumentieren. Dies würde jedoch einen koordinierten Aufwand erfordern, der in der Praxis nicht ohne weiteres zu erreichen ist. Auf der anderen Seite haben spontane Communities, die auf Social Tagging basieren, in letzter Zeit einen spürbaren Konsens und Verbreitung erreicht. Das Ziel der;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88875-8_26 15456dc8b7f85e3f8a05f2654e4cd548;de;;;7.3.;;;Service-Interdependenzen: Einblick in Anwendungsfälle für die Service-Zusammensetzung Der Beitrag analysiert einige der attraktivsten Anwendungsfälle für Semantic Web Services und deren Zusammensetzung. Sie werden aus der Perspektive von Diensttypen, QoS-Parametern, semantischer Beschreibung und Benutzerpräferenzen betrachtet. Wir stellen verschiedene Ebenen der Service-Zusammensetzung vor und diskutieren die Auswirkungen der oben genannten.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34749-3_11 c3d3866d43681116d0cfc1974abcaa48;de;;;7.3.;;;Eine Architektur für die Archivierung und Nachbearbeitung großer, verteilter, wissenschaftlicher Daten mit SQL/MED und XML Wir haben eine webbasierte Architektur und Benutzeroberfläche zur Archivierung und Manipulation von Ergebnissen numerischer Simulationen entwickelt, die vom UK Turbulence Consortium auf der neuen nationalen wissenschaftlichen Supercomputing-Ressource des Vereinigten Königreichs generiert werden. Diese Simulationen erzeugen große Datensätze, die webbasierte Mechanismen zum Speichern, Suchen und Abrufen von Simulationsergebnissen im Bereich von Hunderten von Gigabyte erfordern. Wir zeigen, dass der im Entwurf SQL Management of External Data Standard definierte neue DATALINK-Typ, der die Datenbankverwaltung verteilter externer Daten erleichtert, dazu beitragen kann, Probleme im Zusammenhang mit begrenzter Bandbreite zu überwinden. Wir zeigen, dass eine Datenbank die scheinbar unterschiedlichen Anforderungen erfüllen kann, sowohl die relativ kleinen Metadaten der Simulationsergebnisse als auch die großen Ergebnisdateien auf einheitliche Weise zu speichern, während die Sicherheit, Wiederherstellung und Integrität der Datenbank gewahrt bleibt. Durch diese verteilte Datenverwaltung ermöglicht das System die direkte Nachbearbeitung archivierter Simulationsergebnisse, ohne dass die Kosten für eine erneute Materialisierung in Dateien entstehen. Diese Verteilung reduziert auch Zugriffsengpässe und Prozessorbelastung. Wir zeigen auch, dass die Trennung der Benutzeroberflächenspezifikation von der Benutzeroberflächenverarbeitung eine Reihe von Vorteilen bieten kann. Wir bieten ein Tool zum automatischen Generieren einer Standard-Benutzeroberflächenspezifikation in Form eines XML-Dokuments für eine bestimmte Datenbank. Das XML-Dokument kann angepasst werden, um das Aussehen der Schnittstelle zu ändern. Unsere Architektur kann nicht nur Daten verteilt archivieren, sondern auch Anwendungen. Diese Anwendungen sind lose mit den Datensätzen (in einer Viele-zu-Viele-Beziehung) über XML-definierte Schnittstellen gekoppelt. Sie bieten wiederverwendbare serverseitige Nachbearbeitungsvorgänge wie Datenreduktion und Visualisierung.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-46439-5_31 50c8daa21aa344866167f7de478d982c;de;;;7.3.;;;Kontextbasiertes User-Ranking in Foren zur Expertensuche mit WordNet-Wörterbuch und Social-Network-Analyse Derzeit sind Online-Foren zu einem der beliebtesten Tools für die Zusammenarbeit im Internet geworden, in denen Menschen ihre Meinungen frei äußern können. Foren bieten Einrichtungen für das Wissensmanagement, in denen ihre Mitglieder ihr Wissen miteinander teilen können. In dieser Hinsicht ist das Hauptproblem beim Wissensaustausch in Foren die große Menge an Daten über sie ohne einen Mechanismus zur Feststellung ihrer Gültigkeit. Für Wissenssuchende ist es daher wichtig, das Fachwissen jedes Mitglieds in einem bestimmten Kontext zu kennen, um gültige Antworten zu finden. In dieser Forschung wird ein neuartiger Algorithmus vorgeschlagen, um das Kompetenzniveau von Personen basierend auf dem Kontext zu bestimmen. Für den Bewertungsprozess der vorgeschlagenen Methode wurde das Forum AskMe ausgewählt, dessen Daten in mehreren Stufen verarbeitet wurden. Zunächst wird ein spezielles Crawling-Programm entwickelt, um Daten aus dem AskMe-Forum zu sammeln. Anschließend werden Rohdaten extrahiert, transformiert und mithilfe von SQL Server-Integrationsdiensten in eine entworfene Datenbank geladen. Anschließend wird das Fachwissen der Personen für den angegebenen Kontext berechnet, indem die vorgeschlagene Methode auf die verarbeiteten Daten angewendet wird. Schließlich werden Bewertungstests durchgeführt, um die Genauigkeit der vorgeschlagenen Methode zu berechnen und mit anderen Methoden zu vergleichen.;-;-;-;https://link.springer.com/article/10.1007/s10799-013-0173-x c31242200a2f3cf2e2255ebb8cebc717;de;;;7.3.;;;X-Sensor: Testbed für drahtloses Sensornetzwerk, das mehrere Netzwerke integriert Dieses Kapitel beschreibt eine Testumgebung für drahtlose Sensornetzwerke namens XSensor, die mehrere Sensornetzwerke integriert. X-Sensor verwaltet mehrere drahtlose Sensornetzwerke, die an verschiedenen Standorten aufgebaut sind und auf die von entfernten Benutzern zugegriffen werden kann. Dies macht es für Benutzer einfach, Experimente in verschiedenen Umgebungen durchzuführen. Darüber hinaus bietet X-Sensor reale Sensordaten, die von Sensorknoten in jedem Sensornetzwerk erfasst werden, die für Forscher nützlich sind, die in Forschungsfeldern im Zusammenhang mit Sensordaten wie Sensor Data Mining und Analyse arbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13965-9_9 33dc486cef46134849699c5cad2f5d88;de;;;7.3.;;;Komplexe Netzwerke Wir beschreiben kurz das Toolkit, das zum Studium komplexer Systeme verwendet wird: nichtlineare Dynamik, statistische Physik und Netzwerktheorie. Wir legen besonderen Wert auf die Netzwerktheorie – das Thema dieser Sonderausgabe – und ihre Bedeutung als Ergänzung des Rahmens für die quantitative Untersuchung komplexer Systeme. Um die Hauptprobleme zu veranschaulichen, gehen wir kurz auf einige Bereiche ein, in denen die Netzwerktheorie zu bedeutenden Entwicklungen in unserem Verständnis komplexer Systeme geführt hat. Konkret diskutieren wir Veränderungen, die sich aus der Netzwerktheorie ergeben, in unserem Verständnis von (i) dem Internet und anderen Kommunikationsnetzwerken, (ii) der Struktur natürlicher Ökosysteme, (iii) der Verbreitung von Krankheiten und Informationen, (iv) der Struktur von zellulare Signalisierungsnetze und (v) die Robustheit der Infrastruktur. Schließlich diskutieren wir, wie Komplexität beide neuen Werkzeuge erfordert;-;-;-;https://link.springer.com/article/10.1140/epjb/e2004-00110-5 47b0061d540804437b4708fdd4f26155;de;;;7.3.;;;Konsens als Werkzeug zur RESTful Web Service Identification Unsere aktuellen Studien zeigen, dass der Markt für RESTful Web Services schnell wächst. Es fehlen jedoch noch Identifizierungsmethoden dieser Klasse von Diensten, so dass sie für ihre potentiellen Benutzer unsichtbar bleiben. In dieser Arbeit schlagen wir ein Werkzeug vor, um das obige Problem unter Verwendung der Konsensus-Methoden zu lösen. Der Identifizierungsprozess basiert auf dem Erkennen von URI-Strukturmustern, die den Meinungen verschiedener Agenten mit unterschiedlichem Wissen unterliegen. Die Aufgabe der Konsensmethode besteht darin, die Version des Wissens zu bestimmen, die die gegebenen Versionen am besten widerspiegelt, die sich in den Meinungen des Agenten zu einzelnen Komponenten widerspiegeln. Die Forschung umfasst die Definition der Wissensstruktur, die Bestimmung von Konfliktsituationen, Konfliktprofilen, die Definition von Konsensfunktionen und die Zuweisung von Distanzfunktionen, die es ermöglichen, widersprüchliche Ansichten aufzulösen. Darüber hinaus wird unsere Forschung durch Implementierungen des vorgeschlagenen Ansatzes unterstützt, mit denen wir Vorversuche durchgeführt haben. Experimentelle Ergebnisse zeigen eine hohe Effektivität und Leistungsfähigkeit des vorgeschlagenen Ansatzes im Gegensatz zu den anderen gewählten Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34707-8_30 4f94ee1cd748be26646c09de1332c3b7;de;;;7.3.;;;Korrelation von Online-Reisenutzerdaten im Rahmen von „Internet Plus“ Mit dem Fortschritt der Zeit wird die Entwicklung des Verkehrs immer schneller, mit dem Bau des Eisenbahnnetzes, dem Flughafenbau, der Entwicklung der Hochgeschwindigkeitsbahntechnologie und dem Flugzeugdesign wird unser Reisen immer bequemer. Und wegen der Popularität von Tourismuspropagandafilmen, der Verbesserung des volkswirtschaftlichen Niveaus und des Rückgangs der Tourismuskosten werden die meisten Menschen jetzt ein- oder zweimal im Jahr reisen. Ziel dieser Arbeit ist es daher, die Datenkorrelation touristischer Nutzer auf Basis des Internet plus zu untersuchen und zu analysieren. In diesem Artikel wird nach der Untersuchung der Anzahl der Touristen und des Verkehrsbetriebs in den letzten Jahren und der Konsultation des Algorithmus schließlich der Cosinus-Assoziationsanalyse-Algorithmus ausgewählt, um die Benutzerdaten zu modellieren und zu analysieren, und die experimentellen Ergebnisse sind verwandte Ähnlichkeiten. Experimentelle Ergebnisse zeigen, dass die Zahl der Online-Reisenutzer in den letzten Jahren proportional zugenommen hat und mancherorts eine gewisse Korrelation zwischen der Zahl der Touristen besteht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-74811-1_24 ab5c2ff21726c50aae2710aef89e6fe5;de;;;7.3.;;;Kollaborations-, Reputations- und Empfehlungssysteme in der Social Web Search Moderne Websuchmaschinen dominieren mittlerweile, wie Millionen von Menschen die Informationen finden, nach denen sie online suchen. Während die schiere Größe und der Erfolg der führenden Suchmaschinen ein Zeugnis für den wissenschaftlichen und technischen Fortschritt der letzten zwei Jahrzehnte sind, ist die Mainstream-Suche nicht ohne Herausforderungen. Mainstream-Suchmaschinen bieten weiterhin eine weitgehende;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-7637-6_17 0343e0963d01e9ed6f13f410327c299d;de;;;7.3.;;;Abfragestrukturierung und -erweiterung mit zweistufiger Begriffsabhängigkeit für den japanischen Webabruf In diesem Beitrag schlagen wir ein neues Begriffsabhängigkeitsmodell für die Informationsgewinnung vor, das auf einem theoretischen Rahmen mit Markov-Zufallsfeldern basiert. Wir gehen von zwei Arten von Abhängigkeiten von in einer Abfrage angegebenen Begriffen aus: (i) weitreichende Abhängigkeiten, die beispielsweise innerhalb einer Passage oder eines Satzes in einem Zieldokument vorkommen können, und (ii) kurzfristige Abhängigkeiten, die beispielsweise in ein zusammengesetztes Wort in einem Zieldokument. Basierend auf dieser Annahme erfasst unser zweistufiges Begriffsabhängigkeitsmodell sowohl langfristige als auch kurzfristige Begriffsabhängigkeiten unterschiedlich, wenn mehr als ein zusammengesetztes Wort in einer Abfrage vorkommt. Wir untersuchen auch, wie eine Abfragestrukturierung mit Begriffsabhängigkeit die Leistung der Abfrageerweiterung mithilfe eines Relevanzmodells verbessern kann. Das Relevanzmodell wird unter Verwendung der Abrufergebnisse der strukturierten Abfrage mit Begriffsabhängigkeit konstruiert, um die Abfrage zu erweitern. Wir zeigen, dass unser Begriffsabhängigkeitsmodell gut funktioniert, insbesondere wenn die Abfragestrukturierung mit zusammengesetzten Wörtern verwendet wird. Wir zeigen auch, dass die Performance des Relevanzmodells durch den Einsatz der strukturierten Abfrage mit unserem Begriffsabhängigkeitsmodell deutlich verbessert werden kann.;-;-;-;https://link.springer.com/article/10.1007/s10791-009-9092-1 36e446a9fa16f6d2eb48d0339ea96e81;de;;;7.3.;;;E-Learning über Workflow-Management initiieren Sowohl eLearning- als auch Workflow-Management-Systeme werden heute häufig zur Unterstützung des Content-Managements eingesetzt. Workflow Management ist darauf ausgelegt, Büroprozesse durch eine strikte Arbeitsstrukturierung möglichst optimal zu gestalten, während eLearning einen sehr flexiblen Zugang zum Erlernen neuer Fähigkeiten oder Informationen ermöglicht. In diesem Papier schlagen wir die Integration von eLearning in das Workflow-Management vor, sodass ein Lernbedarf automatisch vom Workflow-Management-System registriert und über das Internet bereitgestellt wird, um eine vollständig verteilte Lösung für heutige Organisationen bereitzustellen. Ein solcher Bedarf liegt beispielsweise vor, wenn ein Mitarbeiter eine bestimmte Aufgabe zum ersten Mal ausführen muss. Mit Hilfe eines Lernermanagementsystems kann dieses maßgeschneiderte Lernen in Bezug auf das Vorwissen jedes Lerners maximal effizient gestaltet werden. Unsere Ergebnisse testen wir derzeit in Kooperation mit einem der größten deutschen Versicherungsunternehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35617-4_21 50c7be47c35e438d3c533903bc3d9923;de;;;7.3.;;;Personalisierung und Datenschutz: eine Übersicht über Datenschutzrisiken und Abhilfemaßnahmen in personalisierungsbasierten Systemen Personalisierungstechnologien bieten leistungsstarke Werkzeuge zur Verbesserung der Benutzererfahrung in einer Vielzahl von Systemen, werfen aber gleichzeitig neue Datenschutzbedenken auf. Beispielsweise führen Systeme, die Werbung nach dem physischen Standort des Benutzers oder nach dem Suchverlauf der Freunde des Benutzers personalisieren, neue Datenschutzrisiken ein, die eine breite Akzeptanz von Personalisierungstechnologien verhindern können. Dieser Artikel analysiert die Datenschutzrisiken, die mit mehreren aktuellen und prominenten Personalisierungstrends verbunden sind, nämlich sozialbasierte Personalisierung, Verhaltensprofilerstellung und standortbasierte Personalisierung. Wir erheben die Einstellung der Benutzer zu Datenschutz und Personalisierung sowie zu Technologien, die dazu beitragen können, Datenschutzrisiken zu reduzieren. Wir schließen mit einer Diskussion, die Risiken und technische Lösungen an der Schnittstelle zwischen Personalisierung und Privatsphäre sowie Bereiche für weitere Untersuchungen beschreibt. Diese Frameworks können Designern und Forschern helfen, Datenschutzherausforderungen von Lösungen beim Entwerfen von Personalisierungssystemen zu kontextualisieren.;-;-;-;https://link.springer.com/article/10.1007/s11257-011-9110-z e446e15474a99185733da0a690e9b6db;de;;;7.3.;;;G-Form: Ein kollaborativer Designansatz, um Deep Web Form als Galaxie von Konzepten zu betrachten Deep Web wächst schnell mit einer Vielzahl von Geräten und Rendering-Funktionen. Trotz des Reichtums an Deep-Web-Formularen ist ihre Darstellungsmethodik in Bezug auf die Ausdrucksfähigkeit sehr schlecht. Daher hat der Benutzer keinen Hinweis auf die Reichhaltigkeit der Abfrage und Abfragefähigkeit, wenn er diese Schnittstelle interpretiert. In diesem Beitrag schlagen wir einen neuen Rendering-Ansatz von Deep Web-Formularen vor, der vom Benutzer leicht zu interpretieren ist und die genaue Bedeutung der Abfrage widerspiegelt. Wir haben unseren Algorithmus anhand von Standarddatensätzen evaluiert und mit einem bekannten Stand der Technik verglichen. Unser Ansatz hat sich in Bezug auf Standardmaßnahmen bewährt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24132-6_20 1a5603f3cf3869a5faae19c7acf68294;de;;;7.3.;;;Adaptive persönliche Agenten Persönliche Agenten sind ein wichtiger Fortschritt bei der Verwaltung elektronischer Informationen. Eine genaue Benutzerprofilerstellung ist entscheidend für die Personalisierung von agentenbasierten Diensten. In diesem Papier beschreiben wir ein Framework für Personal Agents, das eine Reihe von Diensten unter Verwendung eines gemeinsamen Benutzerprofils bereitstellt. Das Benutzerprofil wird automatisch aus der Beobachtung der elektronischen Dokumente, die ein Benutzer liest, gelernt und verfolgt die Benutzerinteressen im Laufe der Zeit. Wir berichten über einen großen Test dieses Frameworks, der uns wichtige Einblicke in die Effektivität von Personal Agent-Anwendungen gegeben hat. Insbesondere diskutieren wir die Vorteile, die sich aus der Verwendung eines gemeinsamen Profils und der Zusammenarbeit mehrerer persönlicher Agentenanwendungen ergeben.;-;-;-;https://link.springer.com/article/10.1007/BF01321172 1a20b6043388bff3010041902a7f6bb0;de;;;7.3.;;;Mit dialektischem E-Learning im Grundstudium die Lernqualität effektiv verbessern Das Internet ist für College-Studenten zur ersten Wahl geworden, um neue Dinge zu entdecken, neue Trends zu erfassen und miteinander zu interagieren. Die Nachfrage nach Internet ist im täglichen Leben und im Studium allgegenwärtig. Das Internet ist ein ziemlich neues Produkt und seine Nutzung und Umgebung hat definitiv eine zweischneidige Wirkung auf College-Studenten. In diesem Beitrag werden die Eigenschaften von E-Learning-Ressourcen bewertet und die positiven und negativen Einflüsse der rasanten Entwicklung des Internets auf das Leben und das Studium von College-Studenten eingehend analysiert. Basierend auf der Analyse werden einige Vorschläge und Strategien unterbreitet, die von der rationellen Nutzung von Internetressourcen über die Überwindung negativer Auswirkungen bis hin zur Verbesserung der Lerneffizienz reichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-15740-1_73 ea73702fcb3bfdd30e141334eea1c9bd;de;;;7.3.;;;Vernetztes Überwachungssystem basierend auf Embedded Dynamic Web Auf das Rätsel der heterogenen Datenintegration für vernetzte Überwachungssysteme abzielend, präsentierte der Beitrag eine Art Lösung basierend auf eingebettetem dynamischem Web. Mittels des eingebetteten Webservers basierend auf Hochleistungs-CPU und dem Ansatz von Apache+HTML+PHP, wurden die im industriellen Bereich der Leittechnik verteilten Server über Industrial Ethernet miteinander verbunden und bildeten ein auf Webservice basierendes Weitverkehrsnetzsystem. Um die integrierte Überwachung der Feldgeräte zu vervollständigen, wurde der Feldbus des Leitsystems mit dem Webserver im Field Local Area verbunden. Die Realisierung des dynamischen Webbrowsens wird durch die Steuereinheit abgeschlossen. Die Ergebnisse des Praxistests zeigen, dass es machbar und effektiv ist, ein hohes Sicherheitsniveau, eine stärkere Entstörung, eine bessere Umgebungsanpassungsfähigkeit und eine höhere Echtzeitleistung aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88914-4_71 1aab3776ba36abca6acd63fcf9106f40;de;;;7.3.;;;Auswirkungen eines internetbasierten Curriculums auf die postgraduale Ausbildung Wir stellten die Hypothese auf, dass das Internet zur Verbreitung und Bewertung eines Curriculums in der ambulanten Versorgung genutzt werden könnte und dass die Direktoren der Facharztausbildung für Innere Medizin die Funktionen schätzen würden, die durch die Online-Verbreitung ermöglicht werden. Ein internetbasiertes Curriculum für ambulante Pflege wurde entwickelt und an die Direktoren der Internisten-Residency-Programme vermarktet. Nutzungs- und Wissensergebnisse wurden von der Website verfolgt, Meinungen der Programmdirektoren wurden durch Umfragen in Papierform gemessen. Vierundzwanzig Programme eingeschrieben mit dem Online-Curriculum. Der Lehrplan wurde von allen Programmen positiv bewertet, die Testergebnisse zu Lehrplaninhalten verbesserten sich erheblich, und die Programmdirektoren bewerteten die Funktionen, die durch einen internetbasierten Lehrplan ermöglicht werden, sehr gut.;-;-;-;https://link.springer.com/article/10.1111/j.1525-1497.2004.30097.x a24a506a29e9413379e7cf9ce3c9c84c;de;;;7.3.;;;Implementierung des lernerzentrierten Design-Paradigmas für webbasierte Trainingscurricula e-Learning-Umgebungen bieten spannende Lern- und Weiterbildungsmöglichkeiten, aber die Abbruchquoten sind hoch und die Qualität der e-Learning-Kurse wird in Frage gestellt. Die Erfassung von Anforderungen und die Entwicklung nutzbarer E-Learning-Kurse mit Fokus auf Usability und User Centered Design sind von hoher Bedeutung. Solche Bemühungen müssen für E-Learning-Kontexte neu definiert werden. Dieses Papier betont die Notwendigkeit eines nutzbaren und effektiven E-Learning-Designs und beschreibt die Erfahrungen der Autoren bei der Anpassung von Methoden und Techniken des menschzentrierten Designs, die einen lernerzentrierten Ansatz für das Design von E-Learning implementieren.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-23572-8_39 f6834fe7e2b130eb8b38de5ce05d9ee0;de;;;7.3.;;;Fakultätsempfehlungen für Webtools: Implikationen für Kursmanagementsysteme AGAP ANALYSIS OF WEB TOOLS in Engineering wurde als Teil des Digital Library Network for Engineering and Technology (DLNET) Grant durchgeführt, der von der NSF (DUE-0085849) finanziert wurde. DLNET stellt ein Webportal und einen Online-Review-Prozess dar, um hochwertige Wissensobjekte in den Disziplinen Ingenieurwesen und Technik zu archivieren. Die Lückenanalyse fiel mit der Entwicklung von DLNET zusammen, um Webtools zu identifizieren, die Lehrende oder Studenten verwenden könnten, um Informationen im Portal zu verarbeiten. Zu den Produkten eines zweiphasigen Online-Delphi-Prozesses mit einem Gremium von 65 Ingenieur- und Technologiefakultäten gehören: 51 Werkzeugvorschläge, geordnet nach Bedarf, kategorisiert in zehn Gruppen und nach Fakultäten in vier Ingenieurdisziplinen. Lücken zwischen gewünschten Werkzeugmerkmalen und tatsächlichen Werkzeugmerkmalen, die derzeit in Online-Kursverwaltungssystemen verfügbar sind, wurden identifiziert, um verbesserte Softwaresysteme zu unterstützen. Es werden Empfehlungen für neue Tools gegeben. Fakultätsbewertungen legen eine Präferenz für lehrerzentrierte Tools nahe, die mit früheren Studien zu Kursmanagementsystemen übereinstimmen. Die Ergebnisse deuten darauf hin, dass neue Werkzeugsysteme, die besser auf pädagogische Strategien ausgerichtet sind, sowie innovative Modelle der Peer-to-Peer-Unterstützung durch die Fakultät erforderlich sind, um von der Verwendung von Standardwerkzeugen zu einer schülerzentrierten Werkzeugnutzung zu gelangen.;-;-;-;https://link.springer.com/article/10.1007/BF03033424 a0fadc0fff5b3e2286f3f8b5f37fe2e7;de;;;7.3.;;;Eine Fallstudie zur elektronischen Vertragsgestaltung in der Online-Werbung – Status und Perspektiven Die elektronische Geschäftsabwicklung zwischen Unternehmen hat in den letzten Jahren als Weg zur Verbesserung traditioneller Vertragspraktiken sowie als Paradigma, das die Unterstützung neuer Geschäftsmodelle in einem Unternehmen ermöglicht, an Aufmerksamkeit gewonnen. Dieser Beitrag präsentiert den Business Case des niederländischen Nachrichtenmediums Telegraaf für die Vergabe von Werbespots in seiner Online-Ausgabe. Wir diskutieren den Ersatz aktueller Vertragspraktiken durch fortschrittliche elektronische Verträge, die es Telegraaf ermöglichen, seine Vertragserstellung, -durchsetzung und -verwaltungsprozesse hochgradig zu automatisieren. Dieser hohe Automatisierungsgrad bietet Telegraaf die Chance zur organisatorischen Restrukturierung und zur Unterstützung neuer Geschäftsmodelle, die die Wettbewerbsfähigkeit des Unternehmens verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-38269-2_44 74471406dcaf955c1b6784f265002179;de;;;7.3.;;;Integration von Projekten im Dienste der öffentlichen Bildung in die Lehrerausbildung Vor etwa 10 Jahren schien die Informatiklehrerausbildung nicht allzu produktiv zu sein. Obwohl viele Studenten ihren Abschluss machten, wählten die meisten von ihnen gut bezahlte Jobs als IT-Spezialisten anstelle von unterbezahlten Lehrerstellen in Ungarn. Was ist dann der Grund, sich darum zu bemühen, zukünftigen Lehrern, die nie in der Lage sein werden, ihr erworbenes Wissen in die öffentliche Bildung zu übertragen, die aktuellste Technologie und Methodik zur Verfügung zu stellen? Die einzig mögliche Lösung schien die Umstellung auf E-Learning zu sein. Die Bedeutung der TeaM-E-Learning-Aktivitäten an der ELTE University besteht hauptsächlich darin, dass sie miteinander verbunden sind und sich aus Kursprojektarbeiten, Bachelor-Diplomarbeiten, Ph.D. Dissertationen von Studierenden sowie alle lokalen und internationalen Projekte, an denen TeaM Lab beteiligt ist. Somit wird eine dynamische Entwicklung kontinuierlich vorangetrieben, die eine Win-Win-Beziehung zwischen allen Beteiligten, der Lehrerausbildung und den Projekten ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34731-8_25 5a5c01e03fe72cbca813e40ab940acbe;de;;;7.3.;;;Richtlinienbasierte Service-Level-Verhandlung mit COPS-SLS Datenströme in der End-to-End-Kommunikation können mehrere Netzwerkdomänen überqueren, in denen verschiedene QoS-Lösungen bereitgestellt werden. Die Bereitstellung einer End-to-End-Dienstqualität in einer heterogenen Umgebung setzt die Aushandlung von gegenseitig akzeptablen SLAs voraus. Der Verhandlungsprozess gibt dem Benutzer die Möglichkeit, das gewünschte Dienstniveau zusammen mit der zulässigen Preisgestaltung des Dienstes zu spezifizieren. Dieses Papier stellt die Verwendung des COPS-SLS-Protokolls für die Aushandlung von Intra-, Inter-Domain- und End-to-End-QoS vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35620-4_16 733ff33fb6402ff19c8af3132e7a937b;de;;;7.3.;;;Automatische Empfehlung für medizinische Produkte zu Hause Webbasierte persönliche Gesundheitsakten (PHRs) sind weit verbreitet. Um die Leistungsfähigkeit und Benutzerfreundlichkeit von PHR zu verbessern, haben wir das Konzept der intelligenten PHR (iPHR) vorgeschlagen. In diesem Beitrag verwenden wir die automatische Empfehlung von Medizinprodukten zu Hause als konkrete Anwendung, um die Vorteile der Einführung von Intelligenz in PHRs aufzuzeigen. In dieser neuen Anwendungsdomäne entwickeln wir mehrere Techniken, um die aufkommenden Herausforderungen anzugehen. Unser Ansatz nutzt Behandlungswissen und Pflegewissen und erweitert die Sprachmodellierungsmethode um (1) eine Themenauswahl-Eingabeschnittstelle für die Empfehlung von Heimmedizinprodukten zu erstellen, (2) ein globales Ranking von Webseiten zu erstellen, die durch mehrere Abfragen abgerufen wurden, und (3 ) bieten vielfältige Suchergebnisse. Wir demonstrieren die Wirksamkeit unserer Techniken anhand von medizinischen USMLE-Untersuchungsfällen.;-;-;-;https://link.springer.com/article/10.1007/s10916-010-9483-2 84b15449b38bf05c4053289a3c7caa35;de;;;7.3.;;;Eine leistungsstarke Extraktionsmethode für die öffentliche Meinung im Internet Mit Blick auf die Bedeutung der Analyse für die öffentliche Meinung im Internet schlagen die Autoren eine leistungsstarke Extraktionsmethode für die öffentliche Meinung vor. Bei diesem Verfahren wird das Raummodell für die Klassifizierung verwendet, um die Beziehung zwischen Wörtern und Kategorien zu beschreiben. Das kombinierte Merkmalsauswahlverfahren wird verwendet, um verrauschte Wörter effektiv aus dem ursprünglichen Merkmalsraum zu entfernen. Dann wird das Kategoriegewicht von Wörtern durch die verbesserte Formel berechnet, die die Häufigkeit von Wörtern und die Verteilung von Wörtern kombiniert. Schließlich werden die Klassengewichte der nicht kategorisierten Dokumente basierend auf dem Kategoriegewicht von Wörtern erhalten, um eine Meinungsextraktion zu realisieren. Versuchsergebnisse zeigen, dass das Verfahren eine vergleichsweise hohe Klassifikation und gute Stabilität aufweist.;-;-;-;https://link.springer.com/article/10.1007/s11859-007-0026-8 c8c31649179345a00148733aacbb210e;de;;;7.3.;;;Design und Implementierung eines Websystems basierend auf Blockchain Das Internet hat eine große Entwicklung, aber die Cyberkriminalität fehlt an einer wirksamen Aufsicht. Darüber hinaus ist die Überlastung des Netzes immer noch ein weit verbreitetes Phänomen in unserem täglichen Leben. Dieses Papier schlägt ein dezentralisiertes Websystem basierend auf Blockchain vor, um die oben genannten Probleme zu lösen. In diesem Schema lädt der Herausgeber von Webinhalten die Webinhalte in das IPFS-Netz (InterPlanetary File System), das ein Peer-to-Peer-Speichernetzwerk ist, hoch und ruft die Hashes der Webinhalte vom IPFS-System ab und schreibt diese Hashes dann in den Smart Contract, der auf der Ethereum-Blockchain bereitgestellt wurde, können Tausende von Webbenutzern die Hashes dieser Webinhalte auf diesem Smart Contract auf der Ethereum-Blockchain lesen und die entsprechenden Webinhalte nach Hashes im dezentralen IPFS-Netzwerk durchsuchen. Die experimentellen Ergebnisse zeigen, dass das dezentrale Websystem auf Basis der Ethereum-Blockchain und des IPFS-Netzwerks einen schnelleren Zugriff auf Webinhalte bieten kann als das traditionelle HTTP-Web. Darüber hinaus verfügt dieses Websystem über eine starke Fähigkeit, großen gleichzeitigen Zugriffen auf der Grundlage des IPFS-Netzwerks standzuhalten, das das dezentrale Speichersystem für Webinhalte ohne zentralen Webserver ist, und kann gegen böswillige Manipulationsangriffe auf Basis der Ethereum-Blockchain kämpfen, die 51% Angriffen widerstehen kann und Zeichnen Sie alle Transaktionen einschließlich des Manipulationsverhaltens auf der Ethereum-Blockchain mit Zeitstempel auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00009-7_63 b5f956dab95796f8a97321fa6c033a54;de;;;7.3.;;;"Ein neuartiges Framework zur Erleichterung der personalisierten Websuche in einem dualen Modus Websuchmaschinen leisten heutzutage gute Dienste in Bezug auf das Auffinden und die Präsentation der Informationen für den Benutzer. Eine der Hauptschwierigkeiten im modernen und ständig wachsenden Web ist die mangelnde Anpassung des Benutzerinteresses bei der Websuche. Allen Benutzern wird der gleiche Satz von Suchmaschinen-Ergebnisseiten (SERPs) für eine bestimmte Eingabe-Abfragezeichenfolge angezeigt, da sie der schlüsselwortbasierten Suche folgt. Die Einschränkung der schlüsselwortbasierten Suche besteht in (i) ungewissen Benutzerbedürfnissen und (ii) ungeeigneter Abfrageauswahl. Wenn der Programmierer nach einer Abfrage ""switch"" sucht, bezieht sich dies auf die switch-Anweisung einer Programmiersprache und für einen Elektroingenieur ist der Kontext der Suche die physische Haushaltsschalterkomponente. Darüber hinaus kann es vorkommen, dass ein Benutzer nicht die richtige Suchabfrage wählt, die seinen Informationsbedarf am besten artikuliert. Daher ist es offensichtlich, dass es bei Stichwortsuchen schwierig ist, den Benutzerkontext von der Abfrage zu unterscheiden. Ein typischer Ansatz zur Bewältigung dieser Herausforderung ist eine personalisierte Websuchstrategie, bei der die Ergebnisse basierend auf den Interessen und Präferenzen des Benutzers abgerufen werden. Die drei verschiedenen Hauptsuchmodule sind: (i) Erstellen von Benutzerprofilen, (ii) Neuordnen der SERPs im persönlichen Modus und (iii) Neuordnen der SERPs im Gruppenmodus. Die vorgeschlagene Arbeit steht für einen Beitrag im Bereich der Erstellung von Benutzerprofilen und des personalisierten Page-Rankings. Ein neues Verfahren zur Darstellung von Benutzermodellen, das als Präferenznetzwerk bezeichnet wird, wird konstruiert. Das vorgeschlagene System kann sowohl im Initialisierungs- als auch im Wartungsmodus arbeiten, um ein neues Modell zu erstellen oder ein vorhandenes Modell zu aktualisieren. Sowohl die kurzfristigen als auch die langfristigen Zinsen werden verwendet, um die SERPs zu bewerten. Die Benutzerinteressenbewertung und die Gruppeninteressenbewertung werden dynamisch berechnet.";-;-;-;https://link.springer.com/article/10.1007/s10586-017-1128-5 5bd2737f7db5517491b70478b9416fb4;de;;;7.3.;;;Automatisierter Webtest zur Erkennung von Lücken Das Internet, Computersysteme und Webkonsumenten sind anfällig für Cyberangriffe geworden. Malicious Uniform Resource Locator (URL) ist ein bekannter Cyberangriff, der häufig mit der Absicht verwendet wird, Daten, Geld oder persönliche Informationen zu stehlen. Diese Arbeit konzentriert sich auf die Analyse von URLs durch maschinelle Lerntechniken auf ihren Angriffstyp. Unsere Arbeit verwendet lexikalische Merkmale von URLs, um sie nach ihrem Angriff zu klassifizieren, nämlich Phishing, Spam, Gutartige und Malware. Es werden vier verschiedene Klassifikatoren verwendet, wie Decision Tree, Random Forest, SVM (Support Vector Machine) und Neural Network. Die Testergebnisse in unserem Informationsindex zeigen, dass dieses Papier die höchste Genauigkeit von 99% mit dem Random-Forest-Klassifizierungsalgorithmus erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0111-1_33 c58b2b51700b7c4d71e5be8367f75866;de;;;7.3.;;;Aggregation und Optimierung der Vertrauenswürdigkeit von Composite Services Das Kapitel stellt den Aniketos-Ansatz zur Aggregation und Vorhersage der Vertrauenswürdigkeit von Diensten vor, die aus Komponentendiensten zusammengesetzt sind. Einige der wichtigen Merkmale von Serviceumgebungen sind, dass sie dynamisch, verteilt und lose gekoppelt sind. Diese Eigenschaften führen zur Existenz unterschiedlicher Ebenen von funktionalen und nichtfunktionalen Attributen der Dienste, die in solchen Umgebungen betrieben werden. Folglich stellt es Herausforderungen für interagierende Dienstnutzer, die nur mit vertrauenswürdigen Diensten umgehen müssen. In Dienstzusammensetzungen können die Komponentendienste obligatorisch oder optional sein und in ihrem Beitrag zur Vertrauenswürdigkeit des zusammengesetzten Dienstes variieren. Kompositionstechniken müssen in der Lage sein, vertrauenswürdige Komponenten auszuwählen und sich dynamisch an spätere Änderungen der Dienste und der Umgebung anzupassen. Die Verfügbarkeit mehrerer Dienste, die dieselbe oder ähnliche Funktionalität bereitstellen, jedoch mit unterschiedlichen Vertrauenswürdigkeitsstufen, hilft Anbietern zusammengesetzter Dienste, vertrauenswürdige Zusammensetzungen zu erstellen und zu pflegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13518-2_11 1a6086331e969a22f90945918ee6c3ed;de;;;7.3.;;;Die Wirksamkeit der latenten semantischen Analyse zum Aufbau einer Bottom-up-Taxonomie aus Folksonomy-Tags In diesem Papier bewerten wir die Wirksamkeit einer semantischen Glättungstechnik, um Folksonomie-Tags zu organisieren. Folksonomy-Tags haben keine expliziten Beziehungen und variieren, weil sie ein unkontrolliertes Vokabular bilden. Wir unterscheiden sogenannte subjektive Tags wie „cool“ und „fun“ von Folksonomy-Tags ohne weitere Kenntnisse außer Folksonomy-Triples und verwenden den Grad der Tag-Generalisierung, um die objektiven Tags in eine Hierarchie zu formen. Wir verifizieren, dass die Entropie von Folksonomy-Tags ein wirksames Maß zur Unterscheidung subjektiver Folksonomy-Tags ist. Unsere hierarchische Tag-Zuordnungsmethode garantiert die Anzahl der Kinderknoten und erhöht die Anzahl der verfügbaren Pfade zu einem Zielknoten im Vergleich zu einer bestehenden Baumzuordnungsmethode für Folksonomy-Tags.;-;-;-;https://link.springer.com/article/10.1007/s11280-009-0069-1 bdea45c7d075831a8dc2f48b0b779979;de;;;7.3.;;;Dateikorrespondenzen-Wörterbuchaufbau in mehrsprachigen P2P-Dateifreigabesystemen Die Erkennung gemeinsamer Dateien ist ein grundlegendes Problem in P2P-Netzwerken. Dieses Papier präsentiert einen namensbasierten Ansatz zur Identifizierung von gemeinsamen Dateikorrespondenzen in mehrsprachigen P2P-Systemen. Das Problem wird zunächst analysiert, indem die Namen der gemeinsam genutzten Dateien in verschiedenen Knoten einer echten P2P-Community verglichen werden, die diese Dateien in verschiedenen Sprachen benennen. Dann wird basierend auf den Beziehungen dieser Dateinamen ein computergestütztes Verfahren vorgeschlagen, um das Problem zu lösen. Darüber hinaus wurden der Rahmen und das Identifizierungsverfahren dieser Methode in dem Papier diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/11807964_15 dda5950befb30f7a02757a25a5b0cbfe;de;;;7.3.;;;Verbesserung der Paketfilterverwaltung durch automatische und dynamische Schemata Die Entwicklung komplexer Zugangskontrollarchitekturen wirft das Problem ihrer Verwaltung auf. In diesem Artikel beschreiben wir eine Architektur, die die Konfiguration von Paketfiltern in internetbasierten Netzwerken bereitstellt. Die Leistung des Zugangskontrollprozesses hängt stark von der Anzahl der Regeln ab, die verwendet werden, um den Zugangskontrolldienst zu definieren. Daher beruht eine effiziente Zugangskontrollarchitektur auf einer cleveren Konfiguration der Zugangskontrollregeln. Die aktuellen Ansätze zu diesem Problem basieren auf einer statischen Beschreibung des Netzwerks, die Sicherheitsbeauftragte zwingen kann, zwischen Effizienz und Verwaltbarkeit zu wählen. Unsere Verteilungsarchitektur verlässt sich nicht auf ein Modell des Netzwerks und beseitigt somit diese Einschränkung, während sie drei Optimierungen vorschlägt, um die Zugangskontrollprozesse mit optimalen Konfigurationen zu versehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35515-3_34 16b7bd385bf05d1a80cd0c95f681fa75;de;;;7.3.;;;Netzwerkzugriff in einem diversifizierten Internet Es besteht ein wachsendes Interesse an virtualisierten Netzwerkinfrastrukturen, um eine experimentelle Evaluierung neuer Netzwerkarchitekturen im realistischen Maßstab zu ermöglichen. Die GENI-Initiative der National Science Foundation zielt darauf ab, eine nationale experimentelle Einrichtung zu entwickeln, die virtualisierte Netzwerkplattformen umfasst, die viele gleichzeitige experimentelle Netzwerke unterstützen können, mit dem Ziel, Hindernisse für neue Netzwerkarchitekturen zu reduzieren. Dieses Papier konzentriert sich darauf, wie das Konzept der virtualisierten Vernetzung durch LAN-basierte Zugangsnetze auf die Endsysteme ausgeweitet werden kann. Wir zeigen, dass unser Ansatz die Leistung gegenüber anderen Ansätzen um eine Größenordnung verbessern und virtuelle Netzwerke ermöglichen kann, die eine durchgängige Servicequalität bieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72606-7_114 b2f68f46d4a4f8d3bb069d9a9e899f6b;de;;;7.3.;;;Forschung zur Informationsintegrationsorientierten Lieferkette von Telekommunikations-Mehrwertdiensten In diesem Papier wird die Informationsintegrationsorientierte Lieferkette von Telekommunikations-Mehrwertdiensten erörtert. Erstens verwendet es eine serienstrategische Methode. Zweitens wird argumentiert, wie die Lieferkette in den Webservice integriert werden kann. Drittens beschreibt das Papier ein Beispiel, das erläutert, wie Mehrwertdienste für Banken verwaltet werden. Das dynamische System hat eine komplexere Art der Interaktion und Zusammenarbeit zwischen Partnern ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75902-9_62 07e7d104a0ced1263878fe4e70a56ff3;de;;;7.3.;;;Erkennen von heißen Ereignissen aus Websuchprotokollen Das Erkennen von Ereignissen aus Webressourcen ist eine anspruchsvolle Aufgabe, die in den letzten Jahren viel Aufmerksamkeit auf sich gezogen hat. Das Websuchprotokoll ist eine wichtige Datenquelle für die Ereigniserkennung, da die darin enthaltenen Informationen die Aktivitäten der Benutzer und ihre Bedeutung für verschiedene reale Ereignisse widerspiegeln. Bei der Ereigniserkennung aus Websuchprotokollen gibt es drei Hauptprobleme: Effektivität, Effizienz und die Organisation der erkannten Ereignisse. In diesem Beitrag entwickeln wir eine neuartige Methode zur Themen- und Ereigniserkennung,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14246-8_41 78928509da6cd595b60f1c8a467d1580;de;;;7.3.;;;Tweets und Tags für URLs vergleichen Die auf Social-Bookmarking-Sites wie Delicious verfügbaren Freiform-Tags haben sich für eine Reihe von Zwecken als nützlich erwiesen und könnten als billige Quelle für Metadaten zu URLs im Web dienen. Leider hat die Popularität solcher Sites in den letzten Jahren abgenommen, aber gleichzeitig haben Microblogging-Sites wie Twitter an Popularität gewonnen. Auf diesen Seiten senden Benutzer kurze Nachrichten (oder „Tweets“) über das, was sie gerade lesen, denken und tun und posten häufig URLs.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28997-2_7 0c708d91d8c2a2dde25f4810b8472114;de;;;7.3.;;;Exploration von Websuchergebnissen basierend auf der formalen Konzeptanalyse In diesem Beitrag präsentieren wir einen Ansatz zur Unterstützung der explorativen Suche durch die Strukturierung von Suchergebnissen auf der Grundlage von Konzeptgittern, die mit fortgeschrittenen Methoden aus dem Bereich der Formalen Konzeptanalyse (FCA) im laufenden Betrieb erstellt werden. Das Hauptziel des Ansatzes besteht darin, auf Abfragen basierende Suchmaschinenergebnisse (z. B. Webdokumente) als eine Hierarchie von Clustern zu organisieren, die aus Dokumenten mit ähnlichen Attributen bestehen. Das Konzeptgitter bietet eine strukturierte Ansicht der abfragebezogenen Domänen und kann somit das Verständnis von Dokumenteigenschaften und gemeinsam genutzten Funktionen verbessern. Darüber hinaus haben wir eine Fuzzy-Erweiterung von FCA angewendet, um die Verwendung verschiedener Arten von Attributen innerhalb der analysierten Abfrageergebnisse zu unterstützen. Der Ansatz wurde in eine interaktive Web-Suchoberfläche integriert. Es bietet eine reibungslose Integration von schlüsselwortbasierter Websuche und interaktiver Visualisierung des Konzeptgitters und seiner Konzepte, um komplexe Suchaufgaben zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-74497-1_12 5589038aae641e4acc4df85e0d3ce45f;de;;;7.3.;;;Eine formale Sprache für elektronische Verträge In diesem Beitrag schlagen wir eine formale Sprache für das Schreiben elektronischer Verträge vor, die auf den deontischen Begriffen Verpflichtung, Erlaubnis und Verbot basiert. Wir verfolgen einen Ansatz, bei dem deontische Operatoren auf Handlungen und nicht auf Sachverhalte angewendet werden. Wir schlagen eine Verlängerung der;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72952-5_11 716f8a468a0f85a54a81ad2db0dc41fa;de;;;7.3.;;;Chatterbots Ein Überblick über Chatterbots wird zusammen mit ihrem kurzen Hintergrund einschließlich ihrer Entstehung, Beschreibung der ersten Programme dieser Art und einiger ihrer modernen kommerziellen und pädagogischen Anwendungen vorgestellt.;-;-;-;https://link.springer.com/article/10.3103/S0147688210020097 1b3538658ba4d6ad7ad770adfaff85ed;de;;;7.3.;;;Istopolis: Designprobleme und Bewertungsergebnisse einer integrierten webbasierten Bildungsanwendung In dieser Studie werden die Designaspekte einer webbasierten Anwendung namens Istopolis beschrieben. Istopolis ist ein integriertes System, das darauf abzielt, Geschichts- und Kulturkurse im Primar- und Sekundarbereich in Griechenland zu unterstützen. Dieses Hypermedia-Anwendungssystem kann auf einem Server installiert werden, der den Zugriff sowohl für Schüler als auch für Lehrer ermöglicht. Autorisierte Lehrkräfte können Module mit Text, virtuellem Material und Video modifizieren oder hinzufügen sowie Szenarien für eine optimale Nutzung der ursprünglich festgelegten Bildungsmodule ändern oder hinzufügen. Darüber hinaus werden Ergebnisse der summativen Evaluation einer Stichprobe von aktiven Lehrkräften präsentiert, die zeigen, dass Probleme wie „Lost in Cyberspace“ umgangen wurden und Pädagogen im Allgemeinen eher positiv gegenüber der entwickelten Anwendung in Bezug auf Benutzerfreundlichkeit, Qualität stehen von Medien und Ästhetik.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-9151-2_12 0f3b30371b0c6f4ae17c6c2f64715336;de;;;7.3.;;;Kombination von Wahrscheinlichkeitsmodellen und Web-Mining-Modellen: ein Framework für die Transliteration von Eigennamen Das schnelle Wachstum des Internets hat eine enorme Anzahl mehrsprachiger Ressourcen geschaffen. Sprachgrenzen verhindern jedoch den länderübergreifenden Austausch und die Entdeckung von Informationen. Eigennamen spielen eine wichtige Rolle bei Suchanfragen und Wissensentdeckung. Wenn es sich um ausländische Namen handelt, werden Eigennamen oft phonetisch übersetzt, was als bezeichnet wird;-;-;-;https://link.springer.com/article/10.1007/s10799-007-0031-9 188bf26f5c3df70a2b356af1edd296f0;de;;;7.3.;;;Ontologiegesteuertes Webhosting-Überwachungssystem für die öffentliche Verwaltung Die öffentliche Verwaltung (PA) ist ständig auf der Suche nach neuen Lösungen, um ihre Leistung zu verbessern. Die IKT-gestützte Innovation des öffentlichen Sektors und der Open-Government-Ansatz sind erforderlich, um neue datengesteuerte Dienste zur Verbesserung der öffentlichen Verwaltung bereitzustellen. Die Herausforderung besteht darin, die öffentlichen Informationen so zu organisieren, dass sie von Benutzern und PA selbst leicht verwendet werden können. Um diesen Bedarf zu decken, schlägt die Forschung neue Ansätze vor. Unter diesen Ansätzen dominieren semantische Technologien. Wir haben ein innovatives Ontologie-getriebenes System realisiert, das die Prozesse der Datensammlung, Wissensextraktion und Darstellung unter Verwendung unterschiedlicher und heterogener Quellen automatisiert. Insbesondere zeigen wir, wie dieser Ansatz gewinnbringend für die automatische Überwachung und systematische Überprüfung des Webhosting-Dienstes in PA eingesetzt werden kann. Dieses Papier ist ein Bericht über einen Machbarkeitsnachweis, der zeigt, wie unser System erfolgreich eingesetzt werden kann, um relevante Informationen über PA-Szenarien bereitzustellen und wie diese Informationen verwendet werden können, um PA-Entscheidungsprozesse zu leiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45550-0_63 9fce28877104706d0310940f812a7770;de;;;7.3.;;;Ein tiefes Verständnis der Cloud-Computing-Sicherheit In diesem Papier werden drei typische Definitionen von Cloud Computing aufgeführt. Sicherheitsfragen im Cloud Computing werden analysiert. Neuheiten im Cloud-Bedrohungsmodell, neue Probleme und neue Forschungsrichtungen in der Cloud-Computing-Umgebung werden ebenfalls skizziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35211-9_13 5eb6af8664a405089bb399703690de22;de;;;7.3.;;;Aktivieren des Webs der (verknüpften offenen) Daten In diesem Tutorial werfen wir einen Blick auf das Web of Data und insbesondere das Linked Open Data (LOD)-Projekt aus den Augen der „emergent semantics“, die für eine begehrte semantische Interoperabilität in hochdynamischen Umgebungen unverzichtbar ist . Wir überprüfen das Web of Data auch über die Eigenschaft der Selbstorganisation, die eine wesentliche Eigenschaft von emergenten Semantiksystemen ist. Dieser Ansatz ist vielversprechend, um einige der Herausforderungen im Zusammenhang mit erfolgreicher Veröffentlichung, Wiederverwendbarkeit und Verknüpfung von offenen Daten im Web zu bewältigen, da sich Datensätze und ihre Beschreibungen in einer so dynamischen Umgebung ständig weiterentwickeln und daher erforscht und durchsucht werden müssen über Näherungsabfragen, Mustersuche und Ähnlichkeitsfunktionen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19890-3_67 2dfc4f5778d2e1894224ad71d09bcf15;de;;;7.3.;;;LDFGB-Algorithmus für die Erkennung von Anomaly Intrusion Mit der Entwicklung der Internettechnologie treten immer mehr Risiken im Internet auf und die Internetsicherheit ist zu einem wichtigen Thema geworden. Die Intrusion Detection-Technologie ist ein wichtiger Bestandteil der Internetsicherheit. Bei der Intrusion Detection ist eine schnelle und effektive Methode wichtig, um bekannte und unbekannte Angriffe zu erkennen. In diesem Artikel stellen wir einen grafenbasierten Intrusion Detection-Algorithmus durch eine Ausreißererkennungsmethode vor, die auf dem Local Deviation Factor (LDFGB) basiert. Dieser Algorithmus hat bessere Erkennungsraten als ein früherer Clustering-Algorithmus. Darüber hinaus ist es in der Lage, jede Form von Clustern zu erkennen und dennoch eine hohe Erkennungsrate beizubehalten, um unbekannte oder bekannte Angriffe zu erkennen. Der LDFGB-Algorithmus verwendet den graphbasierten Clusteralgorithmus (GB), um eine anfängliche Partition des Datensatzes zu erhalten, die von einem Parameter der Clusterpräzision abhängt. Diese Maßnahme ist wirksam, um die Erkennungsraten und die Falsch-Positiv-Raten zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55032-4_39 e38272b2c3e838e7765050204c0f3f37;de;;;7.3.;;;Unser digitales Erbe bewahren: Erfahrungen aus dem Pelikonepeijoonit-Projekt Pelikonepeijoonit ist ein privates finnisches Museum für Computer und Spielkonsolen. Ähnlich wie bei den meisten Bastlersammlungen wurden die ersten Stücke aus persönlichen Gründen erworben. In den acht Jahren ist die Sammlung erheblich gewachsen und hat sich in Richtung eines Projekts zur Erhaltung des digitalen Erbes verlagert. In diesem Beitrag präsentieren wir die Geschichte von Pelikonepeijoonit, verbunden mit Beobachtungen im Laufe der Jahre. In der finnischen Spiele-/Computersammler-Community wurde auch eine unterstützende Studie durchgeführt, um zusätzliche Standpunkte zu gewinnen und die persönlichen Beobachtungen zu validieren. Die Ergebnisse dieser Studie werden in Bezug auf das digitale Erbe präsentiert, um die beiden Praktiken, die Sammlerkreise und das kulturelle Erbe, zu verbinden. Abschließend präsentieren wir einige Vorschläge für die weitere Arbeit, die auf den aktuellen und zukünftigen Herausforderungen des Feldes basieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03757-3_6 ba9000197dff40f8ded55d8f42c1fe68;de;;;7.3.;;;Voraussetzungen für den Aufbau von Vertrauen in professionelle e-Services Professionelle Dienstleister nutzen das Internet, um einem größeren, aber auch vielfältigeren Kundenstamm elektronische Dienste anzubieten. Dies hat die Notwendigkeit erhöht, Vertrauen zwischen ihnen und ihren Kunden und innerhalb der Kanzlei selbst aufzubauen. In diesem Papier werden die Vorläufer von Vertrauen identifiziert und mit Strategien verglichen, die die Praktiken der öffentlichen Rechnungslegung anwenden könnten, um Vertrauen aufzubauen. Elf Vorläufer für externe Beziehungen, die von Vertrauenswürdigkeit bis Wohlwollen reichen, werden identifiziert. Eine Schlüsselstrategie besteht darin, Informationen über die Expertise, die Standards und die Kunden des Unternehmens auf der Website anzuzeigen. Vertrauen für interne Beziehungen reicht von einzelnen bis hin zu unternehmensübergreifenden Allianzen und beruht weitgehend auf der Bereitstellung von technologischer (Internet-)Unterstützung und Informationen über die Vision und Werte des Unternehmens.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75494-9_6 0de59bd81d0df185a158fdb8f83278cd;de;;;7.3.;;;Brede Tools und Online-Datenbanken für die Neuroinformatik Als Open-Science-Neuroinformatik-Datenbanken bemühen sich die Brede-Datenbank und das Brede-Wiki, die Verbreitung und Zusammenführung ihrer Inhalte so einfach und transparent wie möglich zu gestalten. Die Datenbanken basieren auf einfachen Formaten und ermöglichen anderen Online-Tools die Wiederverwendung ihrer Inhalte. Dieses Papier beschreibt die möglichen Verbindungen auf verschiedenen Ebenen zwischen den Brede-Tools und anderen Datenbanken.;-;-;-;https://link.springer.com/article/10.1007/s12021-013-9183-4 6ea0a284629c22e52791f78e54d0155f;de;;;7.3.;;;Automatische Extraktion von Übersetzungen aus webbasierten zweisprachigen Materialien Dieser Artikel beschreibt den Rahmen des StatCan Daily Translation Extraction Systems (SDTES), einem Computersystem, das webbasierte Übersetzungstexte von Pressemitteilungen von Statistics Canada (StatCan) in der StatCan-Publikation abbildet und vergleicht;-;-;-;https://link.springer.com/article/10.1007/s10590-008-9040-7 da38caad1c4f6d603b80268a26cba11e;de;;;7.3.;;;Naive Sicherheit in einer WLAN-Welt Trotz des nahezu allgegenwärtigen Zugangs zu drahtlosen Netzwerken verhalten sich viele Benutzer immer noch riskant, treffen schlechte Entscheidungen oder sind den Bedenken, an denen Sicherheits- und Datenschutzforscher eifrig arbeiten, scheinbar gleichgültig. Derzeit ist die Einstellung der Benutzer zu Sicherheit und Datenschutz in öffentlichen Wi-Fi-Netzwerken selten. Dieses Whitepaper untersucht die Wi-Fi-Sicherheit und den Datenschutz, indem es die aktuellen Aktionen der Benutzer und die Zurückhaltung gegenüber Änderungen analysiert. Durch Interviews und konkrete Demonstrationen von Schwachstellen zeigen wir, dass Benutzer Sicherheitsentscheidungen basierend auf (oft falschen) Analogien zur physischen Welt treffen. Darüber hinaus bleiben die Benutzer trotz des erhöhten Bewusstseins für Verwundbarkeiten einfallsreich und entwickeln keine realistische Sicht auf Risiken. Wir argumentieren, dass unsere Daten ein Bild von Benutzern darstellen, die in einer Form naiver Sicherheit tätig sind. Wir glauben, dass unsere Ergebnisse für Forscher im Bereich des Designs von Sicherheitstools von Vorteil sein werden, insbesondere im Hinblick auf eine bessere Information der Benutzerentscheidungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13446-3_3 1465f0edcbc9f91b6f5d5b8344f539fe;de;;;7.3.;;;Ein feindliches und erkennungsbasiertes Angriffsmodell-Ranking-Schema Ein erfolgreicher Einbruch in ein Computersystem ist oft das Ergebnis eines Angreifers, der Exploits einzelner Schwachstellen kombiniert. Dies kann durch Angriffsmodelle und Angriffsgraphen modelliert werden, um einen globalen Überblick über die Systemsicherheit gegen das Ziel des Angreifers zu erhalten. Da jedoch die Größe und Komplexität von Angriffsmodellen und Angriffsdiagrammen in der Regel die menschliche Fähigkeit zur Visualisierung, Verständnis und Analyse bei weitem übersteigt, ist ein Schema erforderlich, um wichtige Teile von Angriffsmodellen und Angriffsdiagrammen zu identifizieren. Mehta;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72738-5_5 f2daf7462678f5d4052359cae69db1e8;de;;;7.3.;;;Evolution der kognitiven Funkarchitektur: Annalen der Telekommunikation Die kognitive Funkforschung hat ein dynamisches Funkspektrummanagement entwickelt, um die Frequenzeffizienz zu verbessern, z. B. als Zweitnutzer in ungenutzten TV-Bändern. Der Standort und der Benutzerkontext des Mobilfunknutzers, der von Regulierungsbehörden und Gesetzgebern als wichtig für die Richtlinien zur Frequenzinterferenz angesehen wird, wurden nicht so gründlich behandelt. Darüber hinaus bietet die Dienstgüte (QoS) einen Ausgangspunkt, garantiert jedoch keine Erfahrungsqualität (QoE), die von der Informationsqualität (QoI) abhängt, die eine Funktion von Ort, Zeit und Benutzerstatus in einem sozialen Umfeld ist (z , pendeln, einkaufen oder medizinische Hilfe benötigen). Dieser Beitrag betrachtet die Entwicklung der kognitiven Funkarchitektur (CRA) vom dynamischen Spektrumszugang (DSA) zu QoE aus einer interdisziplinären Perspektive. Die maschinelle Wahrnehmung in visuellen, akustischen, Sprach- und Textdomänen kann die automatische Erkennung des Benutzerzustands in stereotypen Situationen auslösen, wodurch kognitive Knoten und Netzwerke besser zwischen Funkbändern und -modi auswählen können, wodurch kognitive drahtlose Netzwerke (CWNs) die Leistung erbringen höhere QoE innerhalb der technischen Richtlinienbeschränkungen auf eine Weise, die eine kostengünstige Nutzung von eingebetteter und verteilter Computerintelligenz ermöglicht. Die Steuerung von Netzwerken solcher kognitiver Funkgeräte erfordert Fortschritte in der Politiksprachenarchitektur, daher führt dieser Artikel die kognitive Linguistik für Politiksprachen ein.;-;-;-;https://link.springer.com/article/10.1007/s12243-009-0101-6 0092d36c7c5a638858419fadda94eb57;de;;;7.3.;;;Augenüberwachung in der Online-Suche Das Web bietet sowohl neue Möglichkeiten als auch Herausforderungen für die Eyetracking-Forschung. Die jüngsten technologischen Fortschritte bei Hard- und Software haben stark zur Verwendung von Augenüberwachung (oder Blickverfolgung) für die Analyse von Online-Anwendungen beigetragen. Eye Monitoring wird jetzt verwendet, um Einblicke in das Homepage-Marketing, die Werbung, das Lesen von Online-Nachrichten und die Interpretation des Nutzerverhaltens in Online-Suchumgebungen zu bieten. In diesem Kapitel werden einige der wichtigsten Fragen im Zusammenhang mit der Datensammlung und -analyse im Online-Kontext bewertet. Auf den Einsatz von Eyetracking für die Online-Suche gehen wir dann noch genauer ein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75412-1_16 3d7f0fbc144d8e86d0c56fc3491f602c;de;;;7.3.;;;Wie gefährlich ist das Scannen im Internet? Das Internet-Scannen ist de facto ein Hintergrundgeräusch, bei dem nicht klar ist, ob es eine gefährliche Bedrohung darstellt, d. Wie hoch ist die Erfolgsquote beim Scannen? und ob das Problem es wert ist, erhebliche Anstrengungen und Geld zu investieren, um es zu mildern, z. B. durch Filtern von unerwünschtem Datenverkehr? In dieser Arbeit werfen wir einen ersten Blick auf das Internet-Scanning aus Sicht der Scan-Replier anhand einer einzigartigen Kombination von Datensätzen, die es uns erlaubt abzuschätzen, wie viele Hosts auf Scanner geantwortet haben und ob sie anschließend in einem realen Netzwerk angegriffen wurden. Um unsere Analyse einzugrenzen, konzentrieren wir uns auf ein spezielles interessantes Scanning-Ereignis, das im Februar 2011 vom Sality-Botnet orchestriert wurde und den gesamten IPv4-Adressraum durchsuchte. Durch die Analyse von NetFlow-Datensätzen ohne Stichproben zeigen wir, dass 2 % der gescannten Hosts tatsächlich auf die Scanner geantwortet haben. Darüber hinaus zeigen wir durch die Korrelation von Scan-Antworten mit IDS-Warnungen aus demselben Netzwerk, dass eine erhebliche Ausbeutungsaktivität gegenüber den Antwortgebern erfolgte, die schließlich zu schätzungsweise 8 % der kompromittierten Antwortgeber führte. Diese Beobachtungen legen nahe, dass das Scannen im Internet gefährlich ist: In unserem Universitätsnetzwerk wurden schließlich mindestens 142 gescannte Hosts kompromittiert. Weltweit ist die Zahl der Hosts, die als Reaktion auf das untersuchte Ereignis kompromittiert wurden, wahrscheinlich viel größer.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-17172-2_11 14d229fe7f3f4c7606b9702c339066e0;de;;;7.3.;;;Verbesserung des Konfigurationsmanagements großer Netzwerksicherheitssysteme Die in heutigen vernetzten Umgebungen eingesetzten Sicherheitsmechanismen werden immer komplexer und ihr Konfigurationsmanagement spielt eine wichtige Rolle für den Schutz dieser Umgebungen. Insbesondere in großen Netzwerken stehen Sicherheitsadministratoren vor der Herausforderung, eine Vielzahl von Mechanismen zu entwerfen, bereitzustellen, zu warten und zu überwachen, von denen die meisten komplizierte und heterogene Konfigurationssyntaxen aufweisen. Diese Arbeit bietet einen Ansatz zur Verbesserung des Konfigurationsmanagements von Netzwerksicherheitssystemen in großen Umgebungen. Wir präsentieren einen Konfigurationsprozess, der durch eine Modellierungstechnik unterstützt wird, die verschiedene Mechanismen einheitlich behandelt, und durch einen grafischen Editor für das Systemdesign. Der Editor enthält Fokus- und Kontextkonzepte zur Verbesserung der Modellvisualisierung und -navigation.;-;-;-;https://link.springer.com/chapter/10.1007/11568285_4 87146b11e025b1ffd0289a345caff223;de;;;7.3.;;;Erkennung von Webdienst-Antimustern mithilfe neuronaler Netze mit mehreren Schichten Anti-Patterns in der serviceorientierten Architektur sind Lösungen für häufige Probleme, bei denen die Lösung ineffektiv ist und unerwünschte Folgen haben kann. Es ist eine Standardübung, die auf den ersten Blick die beste Lösung zu sein scheint, aber am Ende führt sie zu schlechten Ergebnissen, die alle Vorteile aufwiegen. Untersuchungen haben ergeben, dass das Vorhandensein von Anti-Patterns zu einer Verschlechterung der Qualität und des Designs der Softwaresysteme führt, was den Prozess der Erkennung von Anti-Patterns in Webdiensten sehr wichtig macht. In dieser Arbeit untersuchen wir empirisch die Wirksamkeit von drei Feature-Sampling-Techniken, fünf Data-Sampling-Techniken und sechs Klassifikationsalgorithmen bei der Erkennung von Webservice-Antimustern. Die Versuchsergebnisse zeigten, dass das Modell, das unter Berücksichtigung von Metriken entwickelt wurde, die von der Hauptkomponentenanalyse (PCA) als Eingabe ausgewählt wurden, eine bessere Leistung im Vergleich zu dem von anderen Metriken entwickelten Modell erzielte. Experimentelle Ergebnisse zeigten auch, dass das mit zwei versteckten Schichten entwickelte neuronale Netzmodell alle anderen Modelle, die mit einer unterschiedlichen Anzahl von versteckten Schichten entwickelt wurden, übertroffen hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63823-8_65 328ae8ad3b3a88112a0c9c2da22d1fd2;de;;;7.3.;;;Organisation multimedialer Daten für die konzeptionelle Suche basierend auf Ontologien Im Semantic Web steht heute eine große Menge semantisch annotierter Multimediadaten zur Verfügung. Diese Daten stammen aus verschiedenen Quellen, wodurch neue Fragen zu ihrer Speicherung und ihrem Abruf entstehen. In diesem Szenario werden häufig einfache Ontologien verwendet, um Wissensdomänen zu definieren und Daten in Konzepte zu klassifizieren und Beziehungen zwischen ihnen herzustellen. Eine solche konzeptionelle Beziehung kann durch eine Ähnlichkeitsfunktion gemessen werden, die ermöglicht, dass die Suche nach Ähnlichkeit in einem Indexierungssystem durchgeführt wird. Der Beitrag dieses Papiers besteht darin, vorzuschlagen, wie Multimediadaten mithilfe dieser konzeptionellen Klassifikation in LSH-Funktionen (Locality Sensitive Hashing) organisiert werden können, um die konzeptionelle Suche in verteilten Systemen wie P2P-Netzwerken zu erleichtern.;-;-;-;https://link.springer.com/article/10.1007/s13173-011-0042-6 abafcba91ea0810e41add8319585f428;de;;;7.3.;;;Ein Middleware-System zum Schutz vor Denial-of-Service-Angriffen auf Anwendungsebene In letzter Zeit haben wir immer häufiger Denial-of-Service (DoS)-Angriffe auf Online-Dienste und Webanwendungen beobachtet, entweder aus Erpressungsgründen oder um den Wettbewerb zu beeinträchtigen oder sogar auszuschalten. Diese DoS-Angriffe zielen zunehmend auf die Anwendungsebene ab. DoS-Angriffe auf Anwendungsebene emulieren die gleiche Anforderungssyntax und die gleichen Verkehrsmerkmale auf Netzwerkebene wie legitime Clients, wodurch die Erkennung und Abwehr der Angriffe erheblich erschwert wird. Darüber hinaus zielen solche Angriffe in der Regel auf Engpassressourcen wie Festplattenbandbreite, Datenbankbandbreite und CPU-Ressourcen ab. In diesem Whitepaper schlagen wir serverseitige Middleware vor, um DoS-Angriffen auf Anwendungsebene entgegenzuwirken. Die Schlüsselidee hinter unserer Technik besteht darin, die Prioritätsstufe eines Clients und die relative Menge der diesem Client zugewiesenen Ressourcen als Reaktion auf die vergangenen Anfragen des Clients auf eine Weise, die die Semantik auf Anwendungsebene einbezieht, adaptiv zu variieren. Anwendungsspezifisches Wissen wird verwendet, um die Kosten und den Nutzen jeder Anfrage sowie die Wahrscheinlichkeit, dass eine Folge von Anfragen von einem böswilligen Client gesendet wird, zu bewerten. Basierend auf den Bewertungen wird die Prioritätsstufe eines Kunden entsprechend erhöht oder verringert. Die Prioritätsstufe eines Clients wird von der serverseitigen Firewall verwendet, um die Anforderungsrate des Clients zu drosseln, wodurch sichergestellt wird, dass den legitimen Clients mehr serverseitige Ressourcen zugewiesen werden. Wir präsentieren eine detaillierte Implementierung unseres Ansatzes auf dem Linux-Kernel und evaluieren ihn anhand zweier Beispielanwendungen: Apache HTTPD Micro-Benchmarks und TPCW. Unsere Experimente zeigen, dass unser Ansatz einen geringen Performance-Overhead verursacht und gegen DoS-Angriffe auf Anwendungsebene widerstandsfähig ist.;-;-;-;https://link.springer.com/chapter/10.1007/11925071_14 43cc11b5e17377ff75af9a4df24b1417;de;;;7.3.;;;InfoSearch: Eine soziale Suchmaschine Das atemberaubende Wachstum von Online-Plattformen für soziale Netzwerke hat auch den Informationsaustausch zwischen den Benutzern im Netzwerk vorangetrieben. Dies hat dazu beigetragen, die Benutzer-zu-Inhalt-Linkstruktur zusätzlich zu der bereits vorhandenen Benutzer-zu-Benutzer-Linkstruktur zu entwickeln. Diese beiden Datenstrukturen haben uns eine Fülle von Datensätzen zur Verfügung gestellt, die genutzt werden können, um eine soziale Suchmaschine zu entwickeln und unsere Suche nach relevanten Informationen erheblich zu verbessern. Jeder Benutzer einer Social-Networking-Plattform hat seine eigene einzigartige Sicht auf das Netzwerk. Vor diesem Hintergrund besteht das Ziel einer sozialen Suchmaschine darin, die zwischen Freunden eines einzelnen Benutzers geteilte Beziehung und die geteilten Informationen zu analysieren, um die meisten zu berechnen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40837-3_6 734251ce7ef9b454c26a16b007feabcd;de;;;7.3.;;;Extrahieren lokaler Web-Communitys mit lexikalischer Ähnlichkeit Similar Das World Wide Web enthält umfangreiche Textinhalte, die über komplexe Hyperlinks miteinander verbunden sind. Die meisten Studien zur Extraktion von Web-Communitys konzentrieren sich nur auf Graphstrukturen. Folglich werden Web-Communitys rein in Bezug auf explizite Link-Informationen entdeckt, ohne die textlichen Eigenschaften von Webseiten zu berücksichtigen. Dieses Papier schlägt einen verbesserten Algorithmus vor, der auf der Flake-Methode basiert und den maximalen Flussalgorithmus verwendet. Der verbesserte Algorithmus berücksichtigt die Unterschiede zwischen Kanten hinsichtlich ihrer Wichtigkeit und weist jeder Kante über die lexikalische Ähnlichkeit von Webseiten eine gut geplante Kapazität zu. Bei einer bestimmten Abfrage bietet es sich auch für ein neues und effizientes Ranking-Schema für die Mitglieder der extrahierten Community an. Die experimentellen Ergebnisse zeigen, dass unser Ansatz eine Vielzahl von Datensätzen über eine neuartige Optimierungsstrategie der Ähnlichkeitsberechnung effizient handhabt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14589-6_33 c8e74fbd538520e06b791fb60d77edef;de;;;7.3.;;;Do-Not-Track-Techniken für Browser und ihre Auswirkungen auf Verbraucher Jüngste Bemühungen, die Online-Privatsphäre zu erhöhen, indem dem Benutzer eine allgemeinere Möglichkeit geboten wird, das Online-Tracking abzulehnen, wurden Ende 2010 hauptsächlich von der FTC vorangetrieben. Da die FTC ausdrücklich technische Details ausgelassen hat, begannen die Browser-Entwickler mit der Umsetzung dessen, was sie für angemessen hielten entweder die Benutzerverfolgung direkt einschränken oder den Werbetreibenden über den Wunsch des Benutzers informieren, nicht verfolgt zu werden. Dieses Papier gibt einen kurzen Überblick über die Positionen und Argumente der Interessengruppen und bewertet die technischen Vorschläge und Implementierungen, die darauf abzielen, den Verbraucher dabei zu unterstützen, die Kontrolle über seine personenbezogenen Daten zu behalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31668-5_14 71f0724b4d70706bb3c6eadae63cf44c;de;;;7.3.;;;Verwendung einer High-Definition-Live-Video-Plattform zur Erleichterung der Bereitstellung öffentlicher Dienste Im Rahmen des LiveCity-Projekts soll ein stadtbasiertes „Living Lab“ und ein zugehöriges Ökosystem geschaffen werden, um interaktives hochauflösendes Video-to-Video (v2v) live auf einer ultraschnellen drahtlosen und drahtgebundenen Internetinfrastruktur zu testen, um geeignete Anwendungsfälle im öffentlichen Dienst zu unterstützen eine Reihe von städtischen Nutzergemeinschaften, zunächst in vier europäischen Großstädten. Das wesentliche Ziel besteht darin, die Bürger einer Stadt zu befähigen, produktiver, effizienter und gesellschaftlich nützlicher miteinander zu interagieren, indem v2v über das Internet verwendet wird, da letzteres als Verbesserung der Stadtverwaltung, der Bildung und des Stadterlebnisses angesehen werden kann Touristen/Kulturkonsumenten und retten das Leben von Patienten. Wir diskutieren die Rolle, die Stakeholder bei der Identifizierung geeigneter KPIs spielen können, um den Fortschritt des LiveCity-Konzepts zu bewerten, das die zugrunde liegende Netzwerkinfrastruktur, die beabsichtigten Serviceeinrichtungen im Einzelfall sowie die Zufriedenheit und Anforderungen der Benutzer umfasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33412-2_30 fd842e77ffe669bd4bd09c26e5243f02;de;;;7.3.;;;Zwei Fallstudien zur Verwendung von Chatbots für Sicherheitsschulungen In diesem Beitrag werden die Ergebnisse von zwei Fallstudien diskutiert, die in einem großen internationalen Unternehmen durchgeführt wurden, um den Einsatz von Chatbots für interne Sicherheitsschulungen zu testen. Die erste Studie richtete sich an 26 Endbenutzer im Unternehmen, während die zweite Studie 80 Sicherheitsspezialisten untersuchte. Aus quantitativ-analytischer Sicht scheint es keine signifikanten Erkenntnisse zu geben, wenn Chatbots für Sicherheitstrainings eingesetzt werden. Allerdings scheint es qualitative Daten zu geben, die darauf hindeuten, dass die Einstellung der Befragten beim Einsatz von Chatbots positiver zur Sicherheit erscheint als bei den aktuellen klassischen E-Learning-Sicherheitsschulungen im Unternehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39377-8_31 5dd82894453a426a6cb486a5f3c35502;de;;;7.3.;;;Erwerb von Know-How-Informationen aus dem Web Vielfältiges Know-how wie Rezepte und Problemlösungen sind im Web hinterlegt. Es ist jedoch nicht so einfach, bestimmte Know-how-Informationen angemessen zu finden. Wenn Know-how angemessen erkannt werden könnte, wäre es für uns viel einfacher, unvorhergesehene Situationen wie Unfälle und Katastrophen zu bewältigen. Dieses Papier schlägt eine vielversprechende Methode vor, um Know-how-Informationen aus dem Web zu erhalten. Zunächst extrahieren wir Passagen, die mindestens ein Zielobjekt enthalten, und extrahieren daraus Kandidaten für Know-how. Dann werden Passagen, die das Know-how enthalten, von Nicht-Know-how-Informationen unter Berücksichtigung jedes Objekts und seiner typischen Verwendung unterschieden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25631-8_40 e751223d1570b2618b9562b33ab3d476;de;;;7.3.;;;Inhaltsqualität in Web 2.0-Anwendungen Application Heutzutage sehen sich Webnutzer einer neuartigen und sich dynamisch verändernden Umgebung gegenüber, die die Zusammenarbeit bei der Inhaltserstellung fördert. In der Web-Ära vernachlässigten die Menschen normalerweise die Qualität von Inhalten und hatten nur ein Minimum an Befugnissen, gute oder schlechte Inhalte zu melden, während im Web 2.0 Inhalt eine Priorität gewinnt und die Menschen bei der Beurteilung ihrer Qualität kritischer werden. Im ersten Fall hatte jede Website eine Identität, einen einzelnen Redakteur oder eine geschlossene Gruppe von Redakteuren, die für das inhaltliche Qualitätsmanagement verantwortlich waren und die stilistische Gestaltung der wichtigste Qualitätsstandard für die Besucher war. Im letzteren Fall haben mehrere Anwendungen und ein neues Denken den Arbeitsplatz verändert und einen neuen Ansatz für das Qualitätsmanagement geschaffen. Konkret steht das Redaktionsteam jedem Webnutzer offen, Inhalte sind ein kollaboratives Produkt und das Modell „Embedded Object“ oder „Inline Linking“ gewinnt gegenüber Hyperlinks an Popularität.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15393-8_5 ae682e25dc2eb334f2c0ac6caf0a611e;de;;;7.3.;;;Eine Studie untrainierter Modelle für die multimodale Informationsbeschaffung Operative multimodale Information Retrieval-Systeme müssen mit immer komplexeren Dokumentensammlungen und Abfragen fertig werden, die sich aus einer Vielzahl von textlichen und nicht-textuellen Modalitäten wie Bewertungen, Preisen, Zeitstempeln, geografischen Koordinaten usw. zusammensetzen. Die resultierende kombinatorische Explosion von Modalitätskombinationen macht es ist schwer, jede Modalität einzeln zu behandeln und geeignete Trainingsdaten zu erhalten. Anstatt neue Modelle für jede einzelne Modalität oder Kombination von Modalitäten zu finden und zu trainieren, ist es daher entscheidend, einheitliche Modelle zu etablieren und ihre Ergebnisse auf robuste Weise zu fusionieren. Da sich die gängigsten Gewichtungsschemata für textuelles Retrieval in der Vergangenheit gut auf viele Retrieval-Aufgaben verallgemeinert haben, zeigen wir, wie sie an nicht-textuelle Modalitäten angepasst werden können, was ein erster Schritt auf dem Weg zu einem solchen einheitlichen Modell ist. Wir demonstrieren, dass das beliebte Gewichtungsschema BM25 für multimodale IR-Systeme geeignet ist und analysieren die zugrundeliegenden Annahmen der BM25-Formel hinsichtlich der Zusammenführungsmodalitäten unter der sogenannten Raw-Score-Zusammenführungshypothese, die kein Training erfordert. Wir erstellen eine multimodale Baseline für zwei multimodale Testsammlungen, zeigen, wie sich Modalitäten hinsichtlich ihres Beitrags zur Relevanz unterscheiden und wie schwierig es ist, Modalitäten mit überlappenden Informationen zu behandeln. Unsere Experimente zeigen, dass unsere multimodale Baseline ohne Training eine signifikant höhere Retrieval-Effektivität erreicht als die alleinige Verwendung der textuellen Modalität für die Sammlung der sozialen Buchsuche 2016 und im Bereich eines trainierten multimodalen Ansatzes mit der optimalen Linearkombination der Modalitäts-Scores liegt.;-;-;-;https://link.springer.com/article/10.1007/s10791-017-9322-x 04318df96471c21ac65ec537edf2c21c;de;;;7.3.;;;Semantikbasiertes Framework für den personalisierten Zugriff auf TV-Inhalte: Der Anwendungsfall von iFanzy Die IKT-Landschaft entwickelt sich zu einer hochinteraktiven verteilten Umgebung, in der Menschen mit mehreren Geräten (z. B. tragbaren Geräten wie Mobiltelefonen und Heimgeräten wie Fernsehern) und mehreren Anwendungen (z. B. Computerprogrammen wie Webbrowsern und dedizierten Webdiensten) interagieren. [1]. Weltweit wird die Branche von der Abkehr von alten Modellen angetrieben – vom physischen Raum zum digitalen Raum. Es entstehen neue Methoden, um Inhalte wie TV-Programme über das Web zu beziehen. Fast die Hälfte der Menschen möchte TV-Inhalte auf dem PC ansehen, eine Brücke zwischen Fernseher und PC schlagen, vielleicht sogar im Home-Office sitzen [2]. Die Informationsflut ist enorm und die präsentierten Inhalte werden kaum dem Vorwissen, den Vorlieben und der aktuellen Situation des Nutzers angepasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76298-0_65 f4b0926e0e4355892368310abc114c39;de;;;7.3.;;;Agent Inferencing trifft auf das Semantic Web Wir geben einem Agenten die Möglichkeit, die Beziehungen (Assertions) abzuleiten, die sich aus den Regeln ergeben, die die formale Semantik einer RDFS-Wissensdatenbank beschreiben. Der vorgeschlagene Inferenzprozess formuliert jede semantische Einschränkung als Regel, die in einer SPARQL-Abfrageanweisung implementiert ist. Der Prozess erweitert den ursprünglichen RDF-Graphen zu einem vollständigeren Graphen, der die beschriebene Semantik der Regel explizit erfasst. Der Ansatz wird derzeit untersucht, um Beschreibungen zu unterstützen, die der generischen Semantic Web Rule Language folgen. Zur Veranschaulichung der Agentenmodellierungsmethode und des Inferenzprozesses wird ein Experiment unter Verwendung der Feuerwehrdomäne, einer kleinen Wissensdatenbank, durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04686-5_41 c214ea10428219e045e0885b095a4feb;de;;;7.3.;;;Planung der 802.11/abgn Computernetze mit Hilfe des Specialized Web Service Das Kapitel präsentiert eine systematische, computergestützte Methode zur Unterstützung der Netzwerkplanung für interne drahtlose Netzwerke basierend auf der IEEE 802.11-Standardfamilie. Eine detaillierte Beschreibung der Merkmale und Funktionalitäten des vorgeschlagenen Netzplanungstools, das als Webservice verfügbar ist, wird zusammen mit Anweisungen zu seiner möglichen Erweiterung bereitgestellt. Der Beschreibung des Dienstes geht eine kritische Bewertung vorhandener kommerzieller und nichtkommerzieller Softwaretools für die Netzplanung voraus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27446-6_13 040985ac4e9ff7352100aae876ad2829;de;;;7.3.;;;Informationssicherheit auf der elektronischen Autobahn In diesem Papier werden eine Reihe von Sicherheitsprotokollen für das Internet und das World Wide Web erörtert. Die ersten beiden, SSL und SHTTP, bieten allgemeine Authentifizierungs-, Vertraulichkeits- und Integritätsfunktionen, während SEPP ein Zahlungsprotokoll ist, das speziell für die Verwendung beim elektronischen Einkauf entwickelt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-5041-2919-0_13 04c57010fd092dfaf1573853eee9ad1a;de;;;7.3.;;;Freitextsuche versus komplexe Webformulare Wir haben den Einsatz von Freitextabfragen als alternatives Mittel zur Suche „hinter“ Webformularen untersucht. Wir haben eine Benutzerstudie durchgeführt, in der wir unseren Prototyp einer Freitextschnittstelle in einem Reiseplaner-Szenario evaluiert haben. Unsere Ergebnisse zeigen, dass Nutzer diese Freitext-Oberfläche dem ursprünglichen Webformular vorziehen und ihre Suchaufgaben im Durchschnitt etwa 9 % schneller erledigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20161-5_67 916e5db20dd6dbfcff6764ae166ee53f;de;;;7.3.;;;Lernen, Abfragen in Websuchknoten zu verteilen Websuchmaschinen bestehen aus einer großen Anzahl von Suchknoten und einer Brokermaschine, die sie mit Abfragen füttert. Ein Standort-Cache speichert minimale Informationen im Broker, um die Suchknoten zu registrieren, die in der Lage sind, die Top-;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12275-0_26 ad67e9a63ce5af15ff0335e9b4fbda29;de;;;7.3.;;;Digitale Archive: Semantisches Suchen und Abrufen Soziale Medien haben sich in den letzten Jahren zur Hauptinformationsquelle für das gesellschaftliche Feedback zu Ereignissen entwickelt, die das tägliche Leben prägen. Das Social Web ist der Ort, an dem Journalisten herausfinden, wie Menschen auf die von ihnen gelesenen Nachrichten reagieren, aber auch der Ort, an dem Politiker und politische Analysten nach der Meinung der Gesellschaft zu politischen Entscheidungen, Politikern, angekündigten Ereignissen und Richtlinien suchen. Diese Arbeit berichtet über den Entwurf und die Evaluation einer Such- und Retrievalschnittstelle für sozial angereicherte Webarchive. Die Überlegungen zu den Endnutzer-Anforderungen an den Social Content werden ebenso vorgestellt wie die Vorgehensweise bei Design und Testing anhand einer großen Sammlung von Webdokumenten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39146-0_16 86790a8c6ed96bc72934779fd593c027;de;;;7.3.;;;Ontologiebasierte automatische Annotation: Ein Ansatz zum effizienten Abrufen semantischer Ergebnisse von Webdokumenten Das Web enthält große Datenmengen unstrukturierter Natur, die sowohl relevante als auch irrelevante Ergebnisse liefern. Um die Irrelevanz der Ergebnisse zu beseitigen, wird eine Methodik definiert, die die semantischen Informationen abrufen würde. Die semantische Suche befasst sich direkt mit der Wissensbasis, die domänenspezifisch ist. Jeder konstruiert die Ontologie-Wissensbasis auf seine eigene Weise, was zu Heterogenität in der Ontologie führt. Das Problem der Heterogenität kann durch Anwendung des Algorithmus der Ontologie-Abbildung gelöst werden. Alle Dokumente werden von Webcrawlern aus dem Web gesammelt und eine Dokumentenbasis erstellt. Die Dokumente werden dann als Eingabe zum Ausführen einer semantischen Annotation an der aktualisierten Ontologie bereitgestellt. Die Ergebnisse der Benutzerabfrage werden aus dem semantischen Informationsabrufsystem abgerufen, nachdem ein Suchalgorithmus darauf angewendet wurde. Die mit dieser Methodik durchgeführten Experimente zeigen, dass die so erhaltenen Ergebnisse genauere und genauere Informationen liefern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-2471-9_32 bcc190f43075c42b054ddf4272f4c3df;de;;;7.3.;;;Die Zukunft der Glasfaserzugangssysteme? Es liegt auf der Hand, dass ein enormes Nachfragepotenzial für Dienste mit hoher Bandbreite besteht, die irgendwann in der Zukunft über das Festnetz bereitgestellt werden könnten. Die vielversprechendste Technologie, um dem Kunden den Bereitstellungsmechanismus bereitzustellen, sind optische Zugangsnetze. Die Hauptfrage für die Telekommunikationsbranche ist, wie dies zu ausreichend geringen Kosten möglich ist. Dieses Papier befasst sich mit den wirtschaftlichen Problemen und schlägt einige mögliche Wege vor, wenn wir zur Bereitstellung von Diensten weit über die Möglichkeiten von ADSL- und Kabelmodemtechnologien hinausgehen wollen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1021323331781 7d64e141a148c966b65f7cc9b6569e51;de;;;7.3.;;;Untersuchung des Besucherverhaltens durch Web Usage Mining Das Mining der Web-Nutzung konzentriert sich darauf, das potenzielle Wissen aus den Surfmustern der Benutzer zu entdecken und die Korrelation zwischen den zu analysierenden Seiten zu finden. Mit dem exponentiellen Wachstum von Weblogs haben sich die herkömmlichen Data-Mining-Techniken als ineffizient erwiesen, da sie jedes Mal neu ausgeführt werden müssen. Da Web-Logs inkrementell sind, ist es für Web-Miner notwendig, inkrementelle Mining-Techniken zu verwenden, um die Nutzungsmuster zu extrahieren und die Besuchsmerkmale des Benutzers zu untersuchen. Die Daten im Weblog sind heterogen und nicht skalierbar, daher benötigen wir einen verbesserten Algorithmus, der die Rechenkosten deutlich reduziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12214-9_31 af6c39ac9c926ea7f4ba49ee21659944;de;;;7.3.;;;Offene Probleme beim Teilen von Web 2.0-Benutzerinhalten Benutzer brauchen nützliche Mechanismen, um ihre Web 2.0-Inhalte auf kontrollierte Weise über die Grenzen von Content-Hosting und Service Providern (CSPs) hinweg miteinander zu teilen. In diesem Papier diskutieren wir offene Probleme und Forschungsmöglichkeiten im Bereich des Web 2.0-Inhaltsaustauschs zwischen Benutzern. Wir untersuchen Probleme in den Kategorien Benutzerbedürfnisse, aktuelle Sharing-Lösungen von CSPs und Technologien im Zusammenhang mit verteilter Zugriffskontrolle. Für jedes offene Problem diskutieren wir bestehende und potenzielle Lösungen und zeigen Bereiche für die zukünftige Arbeit auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05437-2_4 fadc96937340c0a1a68d377c50e11aaf;de;;;7.3.;;;Eine agentenbasierte Plattform zur Wissensbeschaffung Der schnelle und einfache Zugriff auf aktuelle Informationen impliziert die Notwendigkeit von Informationsmanagement-Tools, um die große Zahl verfügbarer elektronischer Ressourcen zu erkunden und zu analysieren. Das Web bietet eine große Menge an wertvollen Informationen, aber seine menschenorientierte Darstellung und seine Größe erschweren jede Art der computergestützten Verarbeitung extrem. In diesem Papier wird eine Kombination aus verteilter KI und Informationsextraktionstechniken vorgeschlagen, um dieses Problem anzugehen. Insbesondere haben wir a;-;-;-;https://link.springer.com/chapter/10.1007/11550648_11 4f440daa625fae18d6e2d054d30595df;de;;;7.3.;;;DIWeDa - Erkennung von Einbrüchen in Web-Datenbanken Es gibt viele Intrusion Detection Systeme (IDS) für Netzwerke und Betriebssysteme und nur wenige für Datenbanken – trotz der Tatsache, dass die wertvollsten Ressourcen jedes Unternehmens in seinen Datenbanken stecken. Die Zahl der Datenbankangriffe ist gestiegen, zumal die meisten Datenbanken über das Internet zugänglich sind und es noch keine zufriedenstellenden Lösungen für solche Angriffe gibt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-70567-3_24 10d3b1a2cee849c03f8e1b065f7609d5;de;;;7.3.;;;Homogene Ameisen für die Ähnlichkeitsmodellierung und Kategorisierung von Webdokumenten Das selbstorganisierende und autonome Verhalten von sozialen Insekten wie Ameisen stellt eine interessante und aussagekräftige Metapher für Anwendungen beim Abrufen und Verwalten großer und schnell wachsender Online-Informationsmengen dar. Das explosionsartige Wachstum von Webdokumenten hat die manuelle Aufgabe, die Dokumente durch menschliche Experten in sinnvolle Kategorien zu ordnen, zunehmend schwieriger und kostspieliger gemacht. Daher ist es wünschenswert, dass ein gewisser Grad an Automatisierung in den Klassifizierungsprozess integriert wird, um eine bessere Skalierbarkeit zu ermöglichen und zu verhindern, dass menschliche Klassifizierer von der Informationsflut überwältigt werden. Dieser Beitrag präsentiert eine vorläufige Untersuchung der Anwendung eines homogenen Multi-Agenten-Clustering-Systems basierend auf dem Selbstorganisationsverhalten der Ameisen auf das hochdimensionale Problem der Kategorisierung von Webdokumenten. Eine Beschreibung der Textverarbeitung, die erforderlich ist, um signifikante Dokumentmerkmale zu erhalten, ist enthalten. Das System wird anhand von Online-Englisch-Dokumenten mit mehreren Klassen bewertet, die von einer weit verbreiteten Suchmaschine abgerufen werden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45724-0_24 2ca190c69527f8b55cd248ad90bd337e;de;;;7.3.;;;Auswirkungen einer webbasierten Intervention auf das Brustgesundheitsverhalten von Frauen Es ist wichtig, Frauen dabei zu helfen, Entscheidungen zur Verringerung des Krebsrisikos und zur Verbesserung des Gesundheitsverhaltens der Brust zu treffen, aber die besten Möglichkeiten, mehr Menschen mit Interventionsunterstützung zu erreichen, sind nicht bekannt. Um die Wirksamkeit einer webbasierten Intervention zu testen, die Frauen dabei helfen soll, bessere Entscheidungen bezüglich der Brustgesundheit zu treffen, haben wir unser zuvor getestetes, erfolgreiches Brustgesundheits-Interventionspaket für die Bereitstellung im Internet angepasst und es dann in einer randomisierten Studie getestet. Wir rekrutierten Frauen aus der breiten Öffentlichkeit, die randomisiert entweder einer aktiven Interventionsgruppe oder einer verzögerten Interventionskontrollgruppe zugeteilt wurden. Die Intervention bestand aus einer spezialisierten Website, die allen Teilnehmern maßgeschneiderte und personalisierte Risikoinformationen bereitstellte, gefolgt von Angeboten zusätzlicher Unterstützung, falls erforderlich. Die Nachuntersuchung ein Jahr nach der Randomisierung zeigte signifikante Verbesserungen des Mammographie-Screenings bei Interventionsfrauen im Vergleich zu Kontrollfrauen (Verbesserung um 13 Prozentpunkte). Die Interventionseffekte waren bei Frauen stärker, die das Wissen über die Brustgesundheit verbesserten und die Krebssorgen während der Intervention verringerten. Diese Daten weisen darauf hin, dass bei bevölkerungsbasierten, meist versicherten Stichproben eine Steigerung der Mammographie durch die Implementierung dieser einfachen, wenig ressourcenintensiven Intervention erreicht werden kann.;-;-;-;https://link.springer.com/article/10.1007/s13142-016-0439-z e87b5eeb63465e270a62ac08829db9b5;de;;;7.3.;;;Auswirkungen einer webbasierten Intervention auf das Brustgesundheitsverhalten von Frauen Es ist wichtig, Frauen dabei zu helfen, Entscheidungen zur Verringerung des Krebsrisikos und zur Verbesserung des Gesundheitsverhaltens der Brust zu treffen, aber die besten Möglichkeiten, mehr Menschen mit Interventionsunterstützung zu erreichen, sind nicht bekannt. Um die Wirksamkeit einer webbasierten Intervention zu testen, die Frauen dabei helfen soll, bessere Entscheidungen bezüglich der Brustgesundheit zu treffen, haben wir unser zuvor getestetes, erfolgreiches Brustgesundheits-Interventionspaket für die Bereitstellung im Internet angepasst und dann in einer randomisierten Studie getestet. Wir rekrutierten Frauen aus der breiten Öffentlichkeit, die randomisiert entweder einer aktiven Interventionsgruppe oder einer verzögerten Interventionskontrollgruppe zugeteilt wurden. Die Intervention bestand aus einer spezialisierten Website, die allen Teilnehmern maßgeschneiderte und personalisierte Risikoinformationen bereitstellte, gefolgt von Angeboten für zusätzliche Unterstützung, falls erforderlich. Die Nachuntersuchung 1 Jahr nach der Randomisierung zeigte signifikante Verbesserungen beim Mammographie-Screening bei Interventions-Frauen im Vergleich zu Kontroll-Frauen (Verbesserung um 13 Prozentpunkte). Die Interventionseffekte waren bei Frauen stärker, die das Wissen über die Brustgesundheit verbesserten und die Krebssorgen während der Intervention verringerten. Diese Daten weisen darauf hin, dass bei bevölkerungsbasierten, meist versicherten Stichproben eine Steigerung der Mammographie durch die Implementierung dieser einfachen, wenig ressourcenintensiven Intervention erreicht werden kann.;-;-;-;https://link.springer.com/article/10.1007/s13142-011-0028-0 35b1953c54307bda176d6504475cf493;de;;;7.3.;;;Entdecken von Webdiensten zur Verbesserung der Anforderungsspezifikationen: Hilft es? Servicezentrierte Systeme bieten neue Möglichkeiten für das Engineering von Anforderungen. Dieses Papier berichtet über eine Bewertung von Softwarewerkzeugen, mit denen entdeckte Dienste genutzt werden können, um die Vollständigkeit von Anforderungsspezifikationen zu verbessern. Obwohl diese Tools zuvor in moderierten Industrieworkshops evaluiert worden waren, hatten industrielle Anwender die Tools nicht direkt verwendet. In diesem Papier berichten wir über 2 industrielle Anwendungen und Bewertungen, bei denen erfahrene Analysten die Tools direkt in 2 realen Anforderungsprojekten eingesetzt haben. Die Ergebnisse zeigen, dass Analysten die Tools zum Abrufen von Webdiensten verwendet haben, die bestimmte Anforderungen implementieren konnten, diese Anforderungen jedoch angesichts der abgerufenen Dienste weniger verbessert werden konnten. Die Ergebnisse haben Auswirkungen auf iterative Service-Discovery-Prozesse und Service-Discovery-Algorithmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69062-7_17 b2e58bec82fe60f227855d3aa24464c2;de;;;7.3.;;;Name-Face-Assoziation in Webvideos: Ein umfangreicher Datensatz, Baselines und offene Probleme Das Verknüpfen von Gesichtern, die in Webvideos erscheinen, mit Namen, die im umgebenden Kontext präsentiert werden, ist in vielen Anwendungen eine wichtige Aufgabe. Das Problem wird jedoch insbesondere in einem groß angelegten realistischen Szenario nicht gut untersucht, hauptsächlich aufgrund der Knappheit der unter solchen Umständen erstellten Datensätze. In diesem Artikel stellen wir einen Web-Video-Datensatz von Prominenten namens WebV-Cele zur Namen-Gesicht-Assoziation vor. Der Datensatz besteht aus 75 073 Internetvideos von über 4 000 Stunden, die 2 427 Prominente und 649 001 Gesichter abdecken. Dies ist unseres Wissens der umfassendste Datensatz für dieses Problem. Wir beschreiben die Details der Datensatzkonstruktion, diskutieren mehrere interessante Ergebnisse durch die Analyse dieses Datensatzes wie die Entdeckung von Prominentengemeinschaften und stellen experimentelle Ergebnisse der Namen-Gesicht-Assoziation mit fünf bestehenden Techniken bereit. Wir skizzieren auch wichtige und herausfordernde Forschungsprobleme, die in Zukunft untersucht werden könnten.;-;-;-;https://link.springer.com/article/10.1007/s11390-014-1468-z 225fea4d79a72a671f47a7a86da5f864;de;;;7.3.;;;Eine Analyse zur Implementierung der elektronischen Lieferkette im internationalen Handel Der Fortschritt der Informationstechnologie hat es Unternehmen, die am Supply Chain Management beteiligt sind, ermöglicht, Informationen über Organisationsgrenzen hinweg auszutauschen. Ein innovativer, elektronisch unterstützter Transaktionsprozess kann zu Effizienzgewinnen und Kostensenkungen führen, gleichzeitig erhöht er die operative Effektivität. Die Implementierung der elektronischen Lieferkette im internationalen Handel verbessert die Koordination zwischen Käufern und Verkäufern und erhöht die Transaktionseffizienz durch Erhöhung der operativen Effektivität. Das Papier gibt uns eine grobe Einführung in die elektronische Lieferkette. Dann zeigt es uns den Prozess des internationalen Handels, in dem eine effektive elektronische Lieferkette implementiert ist. Schließlich wird eine Fallstudie über Dell veröffentlicht, um zu zeigen, wie E-Supply Chain im internationalen Handel implementiert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75466-6_14 d54bd345c5d0fe37ff32e927c9698af0;de;;;7.3.;;;Web Scraping mit Python erkunden Menschen, die nach und nach elektronische Geräte besitzen, und ressourcenreiche Unternehmen werden zu Meilensteinen für Datenfabriken, die täglich unglaubliche Mengen an Informationen in das World Wide Web (WWW) einspeisen. Diese unzähligen Datenmengen werden auf eine riesige Anzahl von Websites und deren Anwendungen verteilt. Die übersehenden Prinzipien und Herangehensweisen der Web Scraper werden gegenübergestellt und in Bezug auf den Betrieb beschrieben, wie der Scraper geplant wird. Dieses Kunstwerk teilt drei Teile zu – der Web Scraper stapelt die bevorzugten Weblinks, danach werden die Daten gesammelt, um die gewünschten Daten aus diesen Quellen zu beschaffen und diese Daten schließlich zur weiteren Referenzierung in einer CSV-Datei abzulegen. Hier wird die Python-Sprache zur Erfüllung dieser Aufgabe verwendet. Konsequenterweise diese mit dem gewissenhaften der Bibliotheken zusammenführen und deren Kenntnisse forcieren und die gewünschten Inhalte mit diesem geeigneten Schaber erwerben. Aufgrund einer großen Gruppe und Bibliotheksressourcen von Python und der großartigen Codes in der Python-Programmiersprache ist es am besten geeignet, um die beabsichtigten Informationen von der erwarteten Website abzurufen. Der Anspruch und die Konnotation, die Daten aus der gewaltigen Konnektivität auf der ganzen Welt zu extrahieren, werden daher sukzessive benutzerfreundlicher.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4893-6_26 57de5295d8ea29acd7c0b5a031e9d2ed;de;;;7.3.;;;Hybrid-Toleranz-Rough-Fuzzy-Set mit verbessertem Affensuchalgorithmus-basiertem Dokumenten-Clustering Das Clustering von Webdokumenten spielte eine wichtige Rolle in verschiedenen Forschungsanwendungen, um den effektiven Datenanalyseprozess zu gestalten. Während des Dokumentenclustering-Prozesses haben Dokumente riesige Abmessungen, die schwer zu verarbeiten sind. Die Schwierigkeiten führen zu einer Verringerung der Effizienz des Dokument-Clustering-Prozesses. Daher verwendet diese Arbeit in dieser Arbeit die neuartige Merkmalsauswahlmethode, wie z . Dieses Verfahren sucht die optimierten Merkmale im Hinblick auf die Verwendung eines auf einem Algorithmus basierenden künstlichen Bienenvolkes, der verwendet wird, um die Dimensionalität des Merkmalsraums zu minimieren. Die optimierte Methode erhöht die Gesamteffizienz des Webdokument-Clustering-Prozesses. Die Effizienz des Hybrid-Toleranz-Rough-Fuzzy-Sets mit verbessertem Affensuchalgorithmus (IMS) wird anhand von Simulationsergebnissen untersucht.;-;-;-;https://link.springer.com/article/10.1007/s12652-018-1013-y 82a33803770bfb3c2cca2b6368bea526;de;;;7.3.;;;Ein Ansatz zur latenten Nutzung für das Clustern von Webtransaktionen und das Erstellen von Benutzerprofilen Webtransaktionsdaten zwischen Webbesuchern und Webfunktionalitäten vermitteln in der Regel aufgabenorientierte Verhaltensmuster der Nutzer. Das Clustern von Webtransaktionen kann daher solches informatives Wissen erfassen und wiederum Benutzerprofile erstellen, die mit unterschiedlichen Navigationsmustern verbunden sind. Für einige fortgeschrittene Webanwendungen, wie Webempfehlungen oder Personalisierung, ist die oben genannte Arbeit entscheidend, damit Webbenutzer ihre bevorzugten Informationen genau erhalten. Andererseits führen die herkömmlichen Web-Nutzungs-Mining-Techniken zum Clustern von Web-Objekten häufig das Clustern von Nutzungsdaten direkt durch, anstatt die zugrunde liegenden semantischen Beziehungen zwischen den Web-Objekten zu berücksichtigen.;-;-;-;https://link.springer.com/chapter/10.1007/11527503_6 e35a48d9732e0f7601fbc430e492f1b8;de;;;7.3.;;;Screenshot-basierte Farbkompatibilitätsbewertung und -übertragung für Webseiten Farben spielen eine besonders wichtige Rolle sowohl bei der Gestaltung als auch beim Zugriff auf Webseiten. Ein gut gestaltetes Farbschema verbessert die visuelle Ästhetik von Webseiten und erleichtert Benutzerinteraktionen. Soweit wir wissen, konzentrieren sich bestehende Studien zur Bewertung und Verbesserung der Farbkompatibilität auf Bilder, und die Bewertung und Verbesserung für Webfarben ist selten. Um Webdesignern bei der Bewertung und Auswahl von Farben zu helfen, untersucht dieses Dokument die Farbkompatibilitätsbewertung für Webseiten und wendet diese Bewertung auf die Webfarbbearbeitung basierend auf Web-Screenshots anstelle von Quellcodes an. Diese Studie besteht aus vier Teilen. Zunächst werden die Rollen der Farbgestaltung in Webseiten diskutiert und ein Screenshot-basierter Ansatz für die Analyse von Webseitenbereichen vorgeschlagen. Zweitens wird ein neues Verfahren zum Extrahieren des Farbthemas einer Webseite vorgeschlagen. Dann konstruieren wir ein Bewertungsmodell, das der Farbkompatibilität von Webseiten durch Transferlernen Punkte zuordnet. Drittens untersuchen wir die Web-Farbübertragung und kombinieren sie mit dem gelernten Kompatibilitätsbewertungsmodell, um eine neue Anwendung zu erstellen, die Farben für das Webdesign empfiehlt. Schließlich legen die Bewertungsergebnisse nahe, dass das konstruierte Kompatibilitätsbewertungsmodell und die vorgeschlagene Farbübertragungstechnik effektiv sind und herkömmlichen Verfahren überlegen sind. Benutzerstudien deuten darauf hin, dass unsere Farbempfehlungsanwendung neue Webseiten-Screenshots generieren kann, die im Vergleich zu denen der Originalseiten höhere Farbkompatibilitätswerte aufweisen.;-;-;-;https://link.springer.com/article/10.1007/s11042-017-4582-4 2da9d5113cbe627a110c1c81d4f0cbe5;de;;;7.3.;;;Panel zum lebenslangen Lernen Das Panel begann mit kurzen Präsentationen der Panelisten. Die anschließende Diskussion konzentrierte sich auf die folgenden Themen: die Notwendigkeit, dass das akademische Personal neue technologische Fähigkeiten erlernt, um Veränderungen zu ermöglichen, die Notwendigkeit, den Kursentwicklungszyklus im Fernunterricht zu beschleunigen und den Bedürfnissen der Studierenden anzupassen, die Notwendigkeit, das Lernen anzuerkennen außerhalb der Universitäten stattfinden, die unterschiedliche und notwendige Rolle der Universitäten im lebenslangen Lernen als Orte der Reflexion und der kritischen Perspektive, die Rolle der Informations- und Kommunikationstechnologien (IKT) im lebenslangen Lernen, das Auftreten in verschiedenen Formen virtueller Universitäten und die Rollenwechsel des Lehrers.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35502-3_6 17852306ab68d6a4f50812d2dbbda252;de;;;7.3.;;;Messung der strukturellen Ähnlichkeit zwischen Webdokumenten: vorläufige Ergebnisse Wenn wir eine Webseite informell beschreiben, verwenden wir oft Ausdrücke wie „es sieht aus wie eine Zeitungsseite“, „es gibt mehrere ungeordnete Listen“ oder „es ist nur eine Sammlung von Links“. Leider bieten keine Websuch- oder Klassifikationstools die Möglichkeit, Informationen mit solchen informellen Beschreibungen abzurufen, die auf dem Erscheinungsbild basieren, d. h.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0053296 25138cf04d7b75f6371bcfadcd95e78b;de;;;7.3.;;;Argumentbasierte Benutzerunterstützungssysteme mit Defeasible Logic Programming Argumentation hat in den letzten Jahren in mehreren Al-bezogenen Bereichen zunehmend an Bedeutung gewonnen, vor allem als Vehikel, um rational begründbare Entscheidungen beim Umgang mit unvollständigen und potenziell inkonsistenten Informationen zu erleichtern. In diesem Umfeld können sich Benutzerunterstützungssysteme auf Argumentationstechniken stützen, um das Denken und die Entscheidungsfindung in verschiedenen Situationen zu automatisieren, z. B. beim Umgang mit komplexen Richtlinien oder beim Management von Veränderungen in dynamischen Umgebungen. Dieses Papier stellt einen generischen argumentbasierten Ansatz zur Charakterisierung von Benutzerunterstützungssystemen vor, in dem Wissensrepräsentation und Inferenz im Sinne von Defeasible Logic Programming erfasst werden, einem universellen Defeasible-Argumentationsformalismus, der auf Logikprogrammierung basiert. Wir diskutieren eine spezielle Anwendung, die sich als Beispiel für diesen Ansatz herauskristallisiert hat, der darauf ausgerichtet ist, Benutzerentscheidungen für die Websuche zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-34224-9_8 21a64f0de87dadbd11cb0f5c17f7e85b;de;;;7.3.;;;Praktiken zur Verwaltung digitaler Rechte Computer, Internet und digitale Kommunikationstechnologien haben unser tägliches Leben weltweit umgeben. Die Entwicklung digitaler Technologien, insbesondere von Netzwerken, erleichtert die Wissensverbreitung. Die Übermittlung von Informationen hat die nationale Grenze durchbrochen, was eine Einschränkung der physischen Umstände zu sein scheint. Im Gegenteil, eine übermäßige Einschränkung kann die Privatsphäre der Öffentlichkeit oder andere Probleme zur Folge haben. Digitale Technologien haben das Leben der Menschen stark verbessert, was ein innovatives Geschäftsmodell für den Urheberrechtsschutz initiiert. Das iTunes Music Store-Modell gilt als einer der klassischen Fälle des digitalen Rechtemanagements in Zeiten des digitalen Urheberrechts.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1995-6_6 e94fff60c8ea7331b2bbe4cd7f01dd6b;de;;;7.3.;;;Determinanten der Kundenbindung für Social-Networking-Sites Obwohl die Kundenbindung in verschiedenen Internetkontexten umfassend untersucht wurde, wurde die Konzeptualisierung und empirische Validierung eines Kundenbindungsmodells für Social-Networking-Sites (SNSs) nicht angemessen behandelt. Diese Studie versucht, die Determinanten der Kundenbindung für SNS zu beleuchten. Wir schlagen ein theoretisches Modell vor, das den wahrgenommenen Wert, die Zufriedenheit und das Verbraucherwissen als Vorläufer der SNS-Kundentreue umfasst. Theoretische und betriebswirtschaftliche Implikationen sowie Vorschläge für die zukünftige Forschung werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17449-0_21 f5d8573eacc3920c3992faff6d4a54b4;de;;;7.3.;;;Benutzerinteressenbasierte komplexe Web-Informationsvisualisierung Webgraph ermöglicht es dem Endbenutzer, Webinformationen und deren Konnektivität zu visualisieren. Aufgrund seiner enormen Größe ist es jedoch eine große Herausforderung, Webinformationen aus dem riesigen Cyberspace zu visualisieren. Infolgedessen fehlt es dem Webgraph an Einfachheit, während der Benutzer nach Informationen sucht. Clustering- und Filtertechniken wurden verwendet, um die Visualisierung prägnant zu machen, aber sie entspricht oft nicht den Erwartungen des Benutzers, da sie keine benutzerzentrierten Informationen verwenden. Um die Informationen prägnant und präzise an die Endbenutzer entsprechend ihren Interessen zu liefern, führen wir personalisierte Clustering-Techniken für die Visualisierung von Web-Informationen ein. Wir schlagen eine Systemarchitektur vor, die die Benutzerinteressen beim Clustern und Filtern berücksichtigt, um die Webinformationen für die Endbenutzer aussagekräftiger und nützlicher zu machen. Durch die Implementierung der Architektur wird ein experimentelles Beispiel zur Verfügung gestellt, um unseren Ansatz widerzuspiegeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37401-2_43 4db8b0be09e3220c0f8509c7da992874;de;;;7.3.;;;Erwartete User Experience mobiler Augmented-Reality-Dienste: eine Nutzerstudie im Kontext von Shoppingcentern Die technischen Voraussetzungen für mobile Augmented Reality (MAR) werden robust genug, um die Entwicklung von MAR-Diensten zu ermöglichen, die für Verbraucher wirklich wertvoll sind. Solche Dienste würden eine neuartige Schnittstelle zu den allgegenwärtigen digitalen Informationen in der physischen Welt bieten und somit in einer Vielzahl von Kontexten und alltäglichen menschlichen Aktivitäten dienen. Um die Akzeptanz und den Erfolg zukünftiger MAR-Dienste sicherzustellen, sollte deren Entwicklung auf dem Wissen über die Erwartungen und Anforderungen potenzieller Endnutzer basieren. Wir führten 16 halbstrukturierte Interviewsitzungen mit 28 Teilnehmern in Einkaufszentren durch, die als fruchtbarer Kontext für MAR-Dienstleistungen angesehen werden können. Unser Ziel war es, neue Erkenntnisse über (1) die Merkmale der erwarteten Benutzererfahrung und (2) zentrale Benutzeranforderungen in Bezug auf MAR in einem solchen Kontext zu gewinnen. Aus pragmatischer Sicht erwarteten die Teilnehmer, dass MAR-Dienste ihr Gefühl der Effizienz katalysieren, sie mit neuen kontextsensitiven und proaktiven Funktionalitäten befähigen und ihr Bewusstsein für die Informationen ihrer Umgebung mit einer intuitiven Oberfläche schärfen. Emotional sollten MAR-Dienste anregende und angenehme Erfahrungen wie Verspieltheit, Inspiration, Lebendigkeit, Kollektivität und Überraschung bieten. Die identifizierten User-Experience-Kategorien und User-Anforderungen können als Zielvorgaben für die Gestaltung der User Experience zukünftiger MAR-Dienste dienen.;-;-;-;https://link.springer.com/article/10.1007/s00779-011-0494-x 5960f5498e4dafb79f54cfb239ed6e04;de;;;7.3.;;;Online-Mining Dynamische Web-News-Muster mit Methoden des maschinellen Lernens Angesichts der Popularität von Web-News-Diensten konzentrieren wir uns auf das Mining hierarchischer Muster aus Web-News-Stream-Daten. Um dieses Problem anzugehen, schlagen wir einen neuartigen Algorithmus vor, d. h. FARTMAP (fast ARTMAP). Wir entwickeln eine neue Match- und Aktivierungsfunktion, die sowohl für die Berechnung als auch für das Verständnis einfach ist. Die Neuheit des vorgeschlagenen Algorithmus ist die Fähigkeit, sinnvolle Nachrichtenmuster zu identifizieren und gleichzeitig den Rechenaufwand zu reduzieren, indem die Clusterstruktur inkrementell beibehalten wird. Experimentelle Ergebnisse zeigen, dass der vorgeschlagene Clustering-Algorithmus eine qualitativ hochwertige Mustererkennung erzeugt, während er eine angemessene Laufzeit erfüllt.;-;-;-;https://link.springer.com/chapter/10.1007/11540007_56 82b5a9effaf930c150da5f77f6668f6b;de;;;7.3.;;;Anwendung der mechanischen Philosophie auf die Webwissenschaft: Der Fall sozialer Maschinen Soziale Maschinen stehen im Mittelpunkt der Aufmerksamkeit für diejenigen, die im Bereich der Web- und Internetwissenschaft arbeiten. Obwohl eine Reihe von Online-Systemen als soziale Maschinen beschrieben wurden (Beispiele sind Facebook, Twitter, Wikipedia, Reddit und Galaxy Zoo), herrscht noch wenig Einigkeit über die genaue Bedeutung des Begriffs „soziale Maschine“. .“ Dies stellt ein Problem für die wissenschaftliche Untersuchung sozialer Maschinen dar, insbesondere wenn es um die Bereitstellung eines theoretischen Rahmens geht, der die wissenschaftlichen und technischen Aktivitäten der Gemeinschaft sozialer Maschinen leitet, informiert und erläutert. Der vorliegende Beitrag skizziert einen Ansatz zum Verständnis sozialer Maschinen, der sich auf neuere wissenschaftstheoretische Arbeiten, insbesondere Arbeiten in der sogenannten mechanischen Philosophie, stützt. Man könnte dies eine mechanistische Sicht auf soziale Maschinen nennen. Demnach sind soziale Maschinen Systeme, deren Phänomene (d. h. Ereignisse, Zustände und Prozesse) durch einen Appell an (online) sozio-technische Mechanismen erklärt werden. Wir zeigen, wie diese Darstellung in der Lage ist, eine Reihe bestehender Versuche zur Definition des Konzepts der sozialen Maschine zu berücksichtigen und damit eine wichtige Chance für eine theoretische Integration zu bieten.;-;-;-;https://link.springer.com/article/10.1007/s13194-021-00388-z 7ab518a4291178848c4975d347b7d4c0;de;;;7.3.;;;Religiöse Landschaft der USA auf Twitter Religiosität ist eine starke Kraft, die menschliche Gesellschaften prägt, und beeinflusst so unterschiedliche Bereiche wie das Wirtschaftswachstum oder die Fähigkeit, mit Krankheiten umzugehen. Da immer mehr religiöse Führer und Organisationen sowie Gläubige soziale Netzwerke (z. B. Twitter, Facebook) nutzen, werden Online-Aktivitäten zu wichtigen Erweiterungen traditioneller religiöser Rituale und Praktiken. Es fehlt jedoch an Forschung zur Religiosität in sozialen Online-Netzwerken. Dieses Papier macht einen Schritt zum Verständnis mehrerer wichtiger Aspekte der Religiosität auf Twitter, basierend auf der Analyse von mehr als 250.000 US-Nutzern, die ihre Religion/Ihren Glauben selbst erklärt haben, darunter;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13734-6_38 32ea34c2efcf045f5af2eb3315ccbd92;de;;;7.3.;;;Zugänglichkeit: Definition, Kennzeichnung und CVAA-Auswirkungen Dieser Beitrag kommt zur rechten Zeit, da er sich mit der Barrierefreiheit in Bezug auf Systemhardware und -software im Einklang mit der Einführung des Twenty-First Century Communications and Video Accessibility Act (CVAA) und der damit verbundenen Verzichtserklärung für die Spieleindustrie befasst, die im Januar 2017 in Kraft tritt USA Federal Communications Commission (FCC) zur Verbesserung des Zugangs von Menschen mit Behinderungen zu moderner Kommunikation und für andere Zwecke. Das Gesetz betrifft fortschrittliche Kommunikationsdienste und -produkte wie Textnachrichten, E-Mail, Instant Messaging, Videokommunikation, Browser, Spieleplattformen und Spielesoftware. Der CVAA hat jedoch keinen Rechtsstatus in der EU. Dieser Text führt kurz und bündig ein und hinterfragt Implikationen, Auswirkungen und breitere Akzeptanz. Durch die Darstellung des vollständigen CVAA- und Spieleindustrie-Waivers soll der Text Diskussionen und weitere Veröffentlichungen zu diesem Thema anregen, die sich erheblich auf die von diesem Band angesprochenen Branchen auswirken könnten — Es wird darauf hingewiesen, um Diskussionen über die wichtigen Fragen rund um Zugänglichkeit und Inklusion anzuregen.).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49879-9_14 bb8eaf4879b4625c15619d85a4986cca;de;;;7.3.;;;Einfluss der Internetressourcenstruktur auf den Energieverbrauch bei der Informationssuche Der Artikel stellt ein neues Modell der Auswirkung der Struktur der Internetressourcen auf die Energieeffizienz der Informationssuche vor. Vorhandene Studien haben ergeben, dass die Zahl der Internetanfragen exponentiell wächst. Die Ausführung jedes einzelnen verbraucht Energie. Der Artikel präsentiert auch den Stand der Technik des Energieverbrauchs von Suchmaschinen, Eigenschaften von Hypertextsystemen und Suchmaschinen. Außerdem wird ein Modell der Beziehung zwischen den Hypertext-Eigenschaften und der Anzahl von Informationssuchschritten entwickelt. Zu diesem Zweck wurde der Einfluss der Hypertextstruktur auf die Schrittzahl bei der Suche nach relevanten und relevanten Informationen sowie der Einfluss der Schrittzahl auf den Energieverbrauch untersucht. Als Ergebnis wurden Ansätze zur Optimierung der Hypertextstruktur unter den Bedingungen der Unsicherheit formuliert. Anhand eines Simulationsmodells konnte die Angemessenheit des entwickelten Modells der Auswirkung der Struktur verteilter Hypertextsysteme auf die Energieeffizienz der Informationssuche getestet werden. Dazu wurde ein Hypertextmodell als zufälliger Hypergraph generiert. Die Ergebnisse können verwendet werden, um automatisierte Systeme zur Optimierung von Hypertextsystemen zu erstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-44162-7_7 ab95554214097f1d6c172670161d98b7;de;;;7.3.;;;Wie kann ich mehr Besucher gewinnen? Willkommen zum letzten Kapitel in diesem Buch. Zu diesem Zeitpunkt sollten Sie eine aufregende Website voller Funktionen haben, die für Ihr Publikum bereit ist, einzutauchen und zu verwenden. Sie haben genug getan, damit Ihre fantastisch aussehende Website einwandfrei funktioniert. Bevor ich dieses Buch abschließe und Sie sich selbst überlasse, gibt es noch einen weiteren Bereich, der für den Erfolg Ihrer Website unerlässlich ist. Wir müssen uns überlegen, wie wir tatsächlich Besucher auf Ihre Website bringen (schließlich ist eine Party ohne Leute ein Misserfolg!). Die Bereiche Suchmaschinenoptimierung, Werbung und E-Commerce werden immer wichtigere Teile des Website-Erstellungsprozesses, insbesondere mit dem Aufkommen von Social Media – diesen coolen Orten, an denen Sie wahrscheinlich abhängen, wie Facebook, Twitter und MySpace. Wir werden die verschiedenen Methoden untersuchen, die Sie verwenden können, um Traffic auf Ihre Sites zu bringen (natürlich und übernatürlich), wie Sie sowohl Ihre Marke als auch Ihre Inhalte durch das Medium Selfpublishing vermarkten und wie Sie den Verkauf von Waren und Dienstleistungen auf einer sehr grundlegenden Ebene angehen das Internet.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-2518-8_10 36d321b56f8bcff87e31f5f994009f9a;de;;;7.3.;;;CBR-naive Interaktion in einem webbasierten System für den Tourismus Der Beitrag stellt eine empirische Forschung vor, deren Ziel es ist, die Interaktion zwischen einem Case-Based Reasoning (CBR) System und Benutzern ohne CBR-Kenntnisse zu untersuchen. Diese Art der Interaktion, hier CBR-naive Interaktion genannt, kann in webbasierten CBR-Systemen und folglich in CBR-basierten E-Commerce-Systemen häufig vorkommen. Die Forschung wurde während der Gebrauchstauglichkeitsbewertung von COOL-TOUR, einem webbasierten CBR-System zur touristischen Kulturförderung, durchgeführt. Der Beitrag beschreibt Methoden und Ergebnisse der Usability-Tests sowie ein Vorversuch. Die quantitativen Ergebnisse sind nicht endgültig, aber qualitative Hinweise deuten darauf hin, dass der Benutzer unterschiedliche Interaktionsmodelle anwendet.;-;-;-;https://link.springer.com/chapter/10.1007/3-211-27283-6_9 26a3251ca313ca1f88358c8e2e7a651f;de;;;7.3.;;;Zuverlässige Composite Web Services mit online aktualisierten Komponenten Das Erreichen einer hohen Zuverlässigkeit von Web Services (WSs), die dynamisch aus Komponenten-WSs zusammengesetzt sind, ist ein offenes Problem. Eine der Hauptschwierigkeiten besteht hier darin, dass die Komponenten-WSs online aktualisiert werden können und werden, was die Zuverlässigkeit der zusammengesetzten WS beeinträchtigt. Das Papier stellt das Problem des Upgrades von Komponenten-WS vor und schlägt Lösungen für ein zuverlässiges Upgrade vor, bei denen eine natürliche Redundanz verwendet wird, die durch die neuesten und die vorherigen Releases eines WS gebildet wird, die betriebsbereit gehalten werden. Das Papier beschreibt, wie das „Vertrauen in die Korrektheit“ systematisch als Maß für die Zuverlässigkeit sowohl der Komponenten- als auch der zusammengesetzten WSs verwendet werden kann. Wir diskutieren Architekturen für ein zusammengesetztes WS, in denen das Upgrade des Komponenten-WS verwaltet wird, indem das zusammengesetzte WS von der Verwendung des alten Releases des Komponenten-WS auf die Verwendung seines neueren Releases nur dann umgestellt wird, wenn das Vertrauen hoch genug ist, damit die Zuverlässigkeit des zusammengesetzten Dienstes wird sich durch den Wechsel nicht verschlechtern. Die Wirksamkeit der vorgeschlagenen Lösungen wird durch Simulation bewertet. Wir diskutieren die Implikationen der vorgeschlagenen Architekturen, einschließlich der Möglichkeiten, das Vertrauen in WSs zu „publizieren“, im Kontext relevanter Standardtechnologien wie WSDL, UDDI und SOAP.;-;-;-;https://link.springer.com/chapter/10.1007/11556169_5 8dd37ebac45f821ee4560776c525f78f;de;;;7.3.;;;Anwendung von Semantic Web-Technologien auf den Wissensaustausch in der Luft- und Raumfahrttechnik Dieses Papier beschreibt eine integrierte Methodik zur Optimierung der Wiederverwendung und Weitergabe von Wissen, illustriert mit einem Anwendungsfall im Bereich der Luftfahrt. Es verwendet Ontologien als zentrale Modellierungsstrategie für die Erfassung von Wissen aus Legacy-Dokumenten auf automatisierte Weise oder direkt in Systemen mit Schnittstellen zu Wissensarbeitern über benutzerdefinierte, webbasierte Formulare. Die für die Wissenserfassung verwendeten Domänenontologien leiten auch den Abruf des aus den Daten extrahierten Wissens mithilfe eines semantischen Suchsystems, das mehrere Modalitäten während der Suche unterstützt. Dieser Ansatz wurde im Bereich der Luft- und Raumfahrt erfolgreich angewendet und evaluiert und wird derzeit in immer größerem Maßstab auf andere Bereiche ausgeweitet.;-;-;-;https://link.springer.com/article/10.1007/s10845-008-0141-1 16b3df162f909393358dc347396445da;de;;;7.3.;;;Leistungsbewertung der Fuzzy-Neural-HTTP-Anforderungsverteilung für Webcluster In diesem Whitepaper stellen wir die Leistungsbewertung unseres fuzzy-neuralen HTTP-Request-Verteilungsalgorithmus namens FNRD vor, der jede eingehende Anfrage dem Server im Web-Cluster mit der schnellsten erwarteten Antwortzeit zuweist. Der Fuzzy-Mechanismus wird verwendet, um die erwarteten Reaktionszeiten abzuschätzen. Eine neuronale Rückkopplungsschleife wird für die Echtzeit-Abstimmung von Antwortzeitschätzungen verwendet. Um das System zu evaluieren, haben wir ein detailliertes Simulations- und Workload-Modell mit dem CSIM19-Paket entwickelt. Unsere Simulationen zeigen, dass FNRD effektiver sein kann als seine Konkurrenten.;-;-;-;https://link.springer.com/chapter/10.1007/11785231_21 11902fe9d1ac253b9aded98c71f6a5c1;de;;;7.3.;;;JeromeDL – Hinzufügen von Semantic Web-Technologien zu digitalen Bibliotheken In den letzten Jahren wurden immer mehr Informationen im Web bereitgestellt. Hochwertige Informationen werden oft in speziellen Datenbanken digitaler Bibliotheken gespeichert, die auf dem Weg sind, immer größere Inseln gut organisierter Informationen zu werden. Die Verwaltung dieser Informationen birgt jedoch immer noch Herausforderungen. Das Semantic Web stellt Technologien bereit, die dabei helfen, diese Herausforderungen zu meistern.;-;-;-;https://link.springer.com/chapter/10.1007/11546924_70 283763c6042229ca7a0e32b5fc4dcb9f;de;;;7.3.;;;Praktische Sicherheit bei groß angelegten Wahlen: Eine explorative Fallstudie zur Internet-Abstimmung in Estland Die estnische Parlamentswahl 2007 gilt als Erfolgsgeschichte groß angelegter Internetwahlen. Ich verwende diese Wahl in einer Einzelfallstudie zur praktischen Sicherheit, um zu zeigen, dass eine geringe Qualität der Sicherheit und ihres Managements nicht unbedingt die Durchführung groß angelegter Internetwahlen verhindert. Außerdem unterbreite ich Forschungsvorschläge im Hinblick auf zukünftige Herausforderungen für groß angelegte Internetwahlen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01256-3_4 c8c6a37f1e801a135252034efe2dc3ad;de;;;7.3.;;;Ein semantikbasiertes Framework zur automatischen Anpassung von Webinhalten für mobile Geräte Mit der rasanten Entwicklung der drahtlosen Kommunikationstechnologie greifen viele Benutzer von mobilen Geräten wie Notebooks, PDAs und Mobiltelefonen auf das Internet zu. Diese Geräte sind in Bezug auf Rechenressourcen, wie CPU-Geschwindigkeit, Arbeitsspeicher, temporärer Speicher, Stromversorgung, installierte Software und Kommunikationsbandbreite, unterschiedlich eingeschränkt. Die Webzugriffe in diesen mobilen Geräten stoßen daher auf eine verzerrte Benutzeroberfläche, defekte Bilder, langsame Antworten usw. Um dieses Problem zu überwinden, entwerfen und implementieren wir ein semantikbasiertes Framework zur Anpassung von Webinhalten, um automatisch angepasste Inhalte für verschiedene mobile Geräte bereitzustellen. Die RDF-Semantik der CC/PP-Konfigurationen der Client-Geräte und der Webseiten-Tag-Strukturen wird extrahiert, um die richtigen Parameter für das Format und das Layout von Webinhalten zu bestimmen. Anschließend werden heuristische Transcodierungsregeln im Jenaer Inferenzsystem angewendet, um die Webinhalte für jedes einzelne Gerät zu transformieren. Die Funktionalität dieses Frameworks wird durch seine Fähigkeit veranschaulicht, das Layout der Hauptseite eines Einkaufsportals und die Parameter von Bildern auf der Seite anzupassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68262-2_17 8b501d5d64fd3657a059cc4c8af24b01;de;;;7.3.;;;So informieren Sie Menschen mit eingeschränkter Mobilität über öffentliche Verkehrsmittel Das deutsche Projekt BAIM unterstützt die aktive und selbstständige Teilhabe von Menschen mit eingeschränkter Mobilität am ÖPNV. Im Mittelpunkt steht die Bereitstellung zugänglicher und anpassungsfähiger Informationsdienste mit zielgruppenorientierten Informationen über geeignete Reisemöglichkeiten oder potenzielle Barrieren vor und während der Reise. Die Informationen werden über das Internet und über einen interaktiven Telefondienst mit Spracherkennung bereitgestellt. Das System wurde in zwei integrierten öffentlichen Verkehrssystemen, dem Rhein-Main-Verkehrsverbund und dem Verkehrsverbund Berlin-Brandenburg mit einer Bevölkerung von 11 Mio. Menschen, mit einem starken Schwerpunkt auf Benutzerbeteiligung in allen Projektphasen. Wesentliche Teile des Systems gingen im Januar 2008 an die Börse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-70540-6_146 44f2297fcbad8fe0f7adaff46c477299;de;;;7.3.;;;Zur Anwendbarkeit von Trusted Computing bei verteilter Autorisierung mit Webservices Die verteilte Autorisierung bietet die Möglichkeit, den Zugriff auf Ressourcen zu steuern, die über das Internet verteilt sind. Typische Berechtigungssysteme berücksichtigen eine Reihe von Sicherheitsinformationen wie Benutzeridentitäten, Rollenidentitäten oder sogar zeitliche, räumliche und kontextbezogene Informationen, die mit dem Zugangsantragsteller verbunden sind. Jedoch war die Fähigkeit, rechnerplattformbezogene Informationen aufzunehmen, aufgrund von Beschränkungen bei der Identifizierung und Validierung von Plattformen bei der Verteilung ziemlich eingeschränkt. Trusted Computing ist eine spannende Technologie, die neue Wege zur Überbrückung dieser Lücke bieten kann. In diesem Dokument stellen wir die ersten Schritte vor, die erforderlich sind, um eine verteilte Autorisierung mithilfe von vertrauenswürdigen Computerplattformen zu erreichen. Wir führen den Begriff eines Eigenschaftsmanifests ein, das bei der Spezifikation von Autorisierungsrichtlinien verwendet werden kann. Wir geben einen Überblick über unsere Berechtigungsarchitektur, deren Komponenten und Funktionen. Anschließend veranschaulichen wir die Anwendbarkeit unseres Systems, indem wir es in eine Webservice-orientierte Architektur implementieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-70567-3_18 9cfd83c43dd18c2149d369329c7b463d;de;;;7.3.;;;Die Rolle von Ontologien im E-Commerce Die Webtechnologie beginnt in viele Bereiche unseres täglichen Lebens einzudringen und ihre Bedeutung als Medium für Geschäftstransaktionen wird in den nächsten Jahren deutlich zunehmen. Bezogen auf das Marktvolumen wird B2B der interessanteste Bereich sein, in dem neue Technologien zu drastischen Veränderungen in etablierten Kundenbeziehungen und Geschäftsmodellen führen werden. Einfache und etablierte one2one-Handelsbeziehungen werden durch offene und flexible n2m-Beziehungen zwischen Kunden und Lieferanten ersetzt. Diese neue Flexibilität im elektronischen Handel stellt jedoch auch die Beteiligten vor ernsthafte Herausforderungen. Das Hauptproblem ist die Heterogenität der von Anbietern und Kunden verwendeten Informationsbeschreibungen. Produktbeschreibungen, Katalogformate und Geschäftsdokumente sind oft unstrukturiert und nicht standardisiert. Intelligente Lösungen, die dabei helfen, den Prozess der Strukturierung, Standardisierung, Ausrichtung und Personalisierung zu mechanisieren, sind wesentliche Voraussetzungen, um die aktuellen Engpässe des eCommerce erfolgreich zu überwinden und sein weiteres Wachstum zu ermöglichen. In diesem Artikel werden die Hauptprobleme der Informationsintegration in diesem Bereich erörtert und beschrieben, wie die Ontologie-Technologie bei der Lösung vieler dieser Probleme helfen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24750-0_30 dbf4677c40034af008449fcaf877eef0;de;;;7.3.;;;Meinungsumfrage Die enorme Menge an Text ist aufgrund der einfachen Verfügbarkeit von Webtechnologien online verfügbar. Dies motiviert die Benutzer, Meinungen zu veröffentlichen und ihre Erfahrungen im Web für den Entscheidungsprozess zu teilen. Informationen können zu jedem Thema leicht anhand von Fakten gesucht werden, aber die Suche nach Meinungen ist schwierig. Bisherige Recherche- und Extraktionssysteme werden gründlich analysiert, um ein effizientes Retrieval-System für Opinion Mining aufzubauen, das zwischen konstruktiven meinungsbezogenen Informationen unterscheidet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5043-0_3 a0f49cde9f33436100d2bd0bf2696417;de;;;7.3.;;;Kann die Benutzerkennzeichnung Suchern nach Gesundheitsinformationen helfen? Das Web wird zu einer regelmäßigen Informationsquelle für Suchende nach Gesundheitsinformationen (HI). In den Vereinigten Staaten zum Beispiel berichten mehrere Studien, dass mehr als 80 % der Internetnutzer routinemäßig das Internet nutzen, um medizinische und gesundheitliche Informationen zu erhalten. Während die Google-Suche bei weitem der Standardzugangspunkt für HI-Suchende ist, ist die Nutzung von Experten-Websites wie Medline+ und WebMD auch eine weitere Alternative für Benutzer, die nach qualitativ hochwertigen Inhalten suchen. Darüber hinaus werden Websites von Gesundheitsexperten mit mehreren erweiterten Abfragen unterstützt, z. B. das Durchsuchen mithilfe von Kategorien, die entweder als Hierarchie oder in einer A-Z-Suchliste organisiert sind. Dieser Suchmodus, der durch von Experten generierte Taxonomien oder Metadaten unterstützt wird, eignet sich besonders für Discovery-Zwecke. Parallel dazu bieten soziale Websites wie Delicious und StumbleUpon Web-Benutzern eine neue Möglichkeit, am Prozess der Kommentierung von Web-Ressourcen teilzunehmen. Dies gilt insbesondere für Gesundheitsdaten, wie sie beispielsweise durch die große Menge an Gesundheitsressourcen unterstützt werden, die von Delicious annotiert werden. In diesem Papier untersuchen wir die Beziehung zwischen Experten-Gesundheitsmetadaten und Benutzeranmerkungen, wobei das Ziel darin besteht, zu bestimmen, wie sie kombiniert werden können, um HI-Suchenden bessere Möglichkeiten zu bieten, ihren HI-Bedarf zu finden. Die Ergebnisse der Studie zeigen, dass es zwar merkliche Überschneidungen zwischen diesen beiden Datentypen gibt, dass Benutzer-Tags jedoch eindeutig eine neue Art von Metadaten sind, die eine wichtige Rolle bei der Unterstützung von HI-Suchenden bei der Suche nach Gesundheitsressourcen spielen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21657-2_42 ac393ed27ad28d6012d0614314f8b35f;de;;;7.3.;;;Ein neuer Ansatz zur Überprüfung der URL-Eindeutigkeit in Web-Crawlern Das Web hat sich zu einem riesigen Repository von Seiten entwickelt und Suchmaschinen ermöglichen es Benutzern, relevante Informationen in diesem Repository zu finden. Webcrawler sind ein wichtiger Bestandteil von Suchmaschinen. Sie finden, laden, parsen Inhalte und speichern Seiten in einem Repository. In diesem Whitepaper stellen wir einen neuen Algorithmus zur Überprüfung der URL-Eindeutigkeit in einem umfangreichen Webcrawler vor. Der Eindeutigkeitsprüfer muss prüfen, ob eine URL im Repository der eindeutigen URLs vorhanden ist und ob die entsprechende Seite bereits erfasst wurde. Der Algorithmus basiert auf einer neuartigen Richtlinie zum Organisieren des Satzes eindeutiger URLs gemäß dem Server, zu dem sie gehören, und nutzt dabei eine Referenzlokalität. Diese Eigenschaft ist Web-Traversals inhärent, die sich aus der schiefen Verteilung von Links innerhalb einer Webseite ergibt, wodurch Verweise auf andere Seiten von demselben Server bevorzugt werden. Wir wählen die zu crawlenden URLs unter Berücksichtigung von Informationen über die Server aus, zu denen sie gehören, und ermöglichen so die Verwendung unseres Algorithmus im Crawler ohne zusätzliche Kosten zur Vororganisation der Einträge. Wir vergleichen unseren Algorithmus mit einem State-of-the-Art-Algorithmus aus der Literatur. Wir präsentieren ein Modell für beide Algorithmen und vergleichen ihre Leistungen. Wir haben Experimente mit einer Crawling-Simulation einer repräsentativen Teilmenge des Webs durchgeführt, die zeigen, dass die angenommene Richtlinie zu einer erheblichen Verbesserung des Zeitaufwands für die Überprüfung der URL-Eindeutigkeit führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24583-1_23 443771a986c4d62b7e4380853ba8b3bb;de;;;7.3.;;;Google Chrome und Android: Rechtliche Aspekte von Open-Source-Software Google nutzt in großem Umfang kostenlose und Open-Source-Software, sowohl in der Infrastruktur seiner Online-Dienstplattform (Suchmaschine und andere Google-Angebote) als auch kostenlose Softwareprojekte, die Google veröffentlicht und beworben hat, wie Android und Google Chromium. In diesem Kapitel kommentieren wir die FOSS-Lizenzierung, ihre Rolle in der Informationsgesellschaft und Googles Nutzung von FOSS für strategische Zwecke sowie die jüngsten „;-;-;-;https://link.springer.com/chapter/10.1007/978-90-6704-846-0_9 f4c11bee9af0ca617516a7aa68324836;de;;;7.3.;;;Telelearning: Neue Trends in der Bildung durch globale Multimedia-Netzwerke Heutzutage kann die Universalität des Internets in Kombination mit Breitband-Wohnnetzen verwendet werden, um fortschrittliche Multimediadienste nicht nur für große Unternehmen und akademische Organisationen, sondern auch für KMU und private Benutzer bereitzustellen. Eine der neuen Anwendungen mit direktem Einfluss auf die Gesellschaft und das Unternehmen ist das Tele-Learning. In diesem Papier wird eine ausreichende offene Architektur beschrieben, die Fernunterricht bieten kann. Durch die Kombination von Web-Browsing mit der Common Object Request Broker Architecture (CORBA) auf verschiedene Weise wird ein verteilter objektorientierter Ansatz erreicht. Über diese Architektur werden wohldefinierte Bildungsdienste als Methoden verteilter Objekte bereitgestellt, um es mehreren Instituten und Anbietern von Bildungsinformationen/-inhalten zu ermöglichen, ihre Daten abstrakt objektorientiert zu veröffentlichen. Objekte folgen einem gemeinsamen Rahmen, um weithin verfügbar zu werden und ein hochgradig multimediales Profil durch die Schnittstelle zu den bekannten WWW-Browsern zu unterstützen. Um die Authentifizierung und Abrechnung über das unsichere öffentliche Internet zu unterstützen, kommen spezielle Verschlüsselungstechniken basierend auf der Verwendung von Secure Socket Layer (SSL) in Betracht.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0037384 e572348426dfcd720bea33f3a61ff22a;de;;;7.3.;;;Modell zur Durchsetzung von Richtlinien zur Bluetooth-Nutzungskontrolle Bluetooth ist ein drahtloser Kommunikationsmechanismus mit kurzer Reichweite, der detaillierte Spezifikationen für die Verbindung von Geräten bereitstellt. Es wird für die Datenübertragung über einen drahtlosen Kanal verwendet, die Funktionalität ist jedoch nicht darauf beschränkt. Es bietet fortschrittliche Funktionen, für die es derzeit keine Alternative gibt, darunter niedrige Kosten, geringer Stromverbrauch, schnellere Datenraten und gemeinsame Nutzung von Diensten wie Internet, Netzwerken für den persönlichen Bereich usw. Ausgestattet mit High-End-Funktionen erfordert Bluetooth angemessene Sicherheitsimplementierungen für eine sichere und zuverlässige Kommunikation . Aktuelle Sicherheitsimplementierungen für Authentifizierung und Verschlüsselung gelten als stark genug gegen Sicherheitsbedrohungen. Die derzeit von Bluetooth unterstützte Autorisierung basiert jedoch auf dem einfachen Zulassen oder Verweigern einer Ressource. Die Autorisierung sollte den Benutzer mit feinkörnigen Kontrollfunktionen für Ressourcen unterstützen. Dies bedeutet, dass der Autorisierungsmechanismus die Nutzungskontrolle über Ressourcen ermöglichen sollte, die über Bluetooth gemeinsam genutzt werden. Wir schlagen das Bluetooth Usage Control Model (BUCM) vor, das das bestehende Sicherheitsmodell in den Nutzungskontrollfunktionen verbessert. Unter Verwendung des erweiterten Modells kann der Benutzer eine feinkörnige Anpassung der Ressourcen vornehmen. Das vorgeschlagene Modell ist im Android-Bluetooth-Stack implementiert. Leistungsergebnisse verifizieren das erweiterte Modell auf minimalen Leistungsaufwand.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28962-0_27 d8d162b3d885eb5b132caf1fab20cd97;de;;;7.3.;;;Ein webbasiertes Überwachungssystem als Messinstrument in Gewächshäusern mit drahtlosen Sensornetzwerken In dieser Arbeit schlagen wir ein webbasiertes Überwachungssystem vor, das drahtlose Sensornetzwerke (WSNs) verwendet, um Pflanzenparameter und Umweltfaktoren in Gewächshäusern zu messen. Um diese Variablen zu erkennen und zu senden, z.B. Blatttemperatur, Luftfeuchtigkeit sammelt ein ZigBee-basiertes WSN Daten, die über GPRS-Module und das Internet an einen Zentralrechner übertragen werden und alle Informationen, auch die dynamische Topologie von WSNs, können über das Web veröffentlicht werden. Das System bietet flexible Konfigurationsmöglichkeiten für Sensorknoten und Transport-Downlink-Befehle, d. h. Sensoren können in einem Knoten flexibel hinzugefügt oder entfernt werden, ohne die Hardware-Schnittstelle und die Rechenzentrums-Service-Software zu ändern. Außerdem wurde die Varianz des empfangenen Signalstärkeindikators und des Verbindungsqualitätsindikators (LQI) unter verschiedenen Verteilungen der wachsenden Pflanzen berücksichtigt, um die Netzwerkverbindungsqualität abzuschätzen, um eine zuverlässige Datenübertragung in den WSNs sicherzustellen. Experimente zeigen, dass das System zuverlässig, flexibel und praktisch ist und gute Echtzeit- und Skalierbarkeitseigenschaften bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18354-6_35 681d1edf0e4a79336627921a6460d6b3;de;;;7.3.;;;Ein neuartiger P2P-Informations-Clustering- und -Abrufmechanismus Der Abruf von Informationen über Peer-to-Peer-Netzwerke ist eine wichtige Aufgabe. Um ein Überfluten von Abfragenachrichten zu vermeiden und die Leistung des Informationsabrufs zu verbessern, ist das Clustern von Knoten, die die gleichen Interessen teilen, ein möglicher Ansatz. Ein interessierender Crawling-Agent, der einen inkrementellen Lernalgorithmus verwendet, wird vorgeschlagen, um die Bewertung eines durchforsteten Knotens zu berechnen, die zum Aufbauen eines Knotenclusters verwendet wird. Zur Beschleunigung der Abfrage wird ein aktives Zeitfenster verwendet. Um den Knotencluster effizient zu nutzen, präsentieren wir a;-;-;-;https://link.springer.com/chapter/10.1007/11811305_40 ef74b86acaf6841b879df0a9ebbf8497;de;;;7.3.;;;Elektronische Märkte, ein Blick hinter die Kulissen: Wie können Semantic Matchmaking und Negotiation E-Commerce ankurbeln? In diesem Beitrag präsentieren wir einen Überblick über verschiedene semantikbasierte Ansätze für Matchmaking und Verhandlung in elektronischen Märkten und zeigen, wie Semantik zu einer neuen Generation von EC-Systemen führen kann. Wir werden verschiedene Lösungen vorstellen und kurz besprechen, um die beiden Probleme im Kontext von Suche/Abruf, Multiattribut-Auktionen, Werbung, um nur einige zu nennen, zu lösen und den Mehrwert dieser Techniken in so lebendigen Umgebungen zu zeigen. Die Präsentationen reichen von streng semantikbasierten Ansätzen über die Kombination von logischen Sprachen mit der Nutzentheorie bis hin zu neuesten Ansätzen, die auf Semantic-Web-Technologien und Linked-Data-Datensätzen basieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15208-5_22 18c237d5b97b40caa71f7a2e17bff98e;de;;;7.3.;;;Social Reader: zum Surfen im Social Web Wir beschreiben Social Reader, einen Feed-Reader-plus-Social-Network-Aggregator, der Kommentare aus sozialen Medien durchsucht, um die relationale Nachbarschaft eines Benutzers als navigierbares soziales Netzwerk anzuzeigen. Die Netzwerkvisualisierung von Social Reader verbessert das gegenseitige Bewusstsein von Blogger-Communitys, erleichtert deren Erkundung und Wachstum mit einer vollständig Drag-Drop-Oberfläche und bietet neue Möglichkeiten zum Filtern und Zusammenfassen von Personen, Gruppen, Blogs und Kommentaren. Wir besprechen die Architektur hinter dem Reader, heben Aufgaben hervor, die er zum Workflow eines typischen Readers hinzufügt, und bewerten deren Kosten. Wir untersuchen auch das Potenzial von stimmungsbasierten Funktionen in Social-Media-Anwendungen. Stimmung ist für Social Media besonders relevant, da sie die persönliche Natur des Mediums widerspiegelt. Wir untersuchen zwei prototypische stimmungsbasierte Funktionen: Farbcodierung der Stimmung der letzten Posts gemäß einer Valenz-/Erregungskarte und eine stimmungsbasierte Zusammenfassung der jüngsten Aktivitäten unter Verwendung von Bildmedien. Eine sechswöchige Studie der Software mit 20 Benutzern bestätigte die Nützlichkeit der neuartigen visuellen Anzeige durch eine quantitative Analyse der Nutzungsprotokolle und eine Exit-Umfrage.;-;-;-;https://link.springer.com/article/10.1007/s11042-012-1138-5 b8b403e4bc81c907ed2cdb986fd18ab5;de;;;7.3.;;;Ein digitales Signaturschema in einem webbasierten Verhandlungsunterstützungssystem Mit der schnellen Entwicklung des elektronischen Handels ist die digitale Signatur sehr wichtig, um das Fälschen, Manipulieren und Annullieren elektronischer Verträge im webbasierten Verhandlungsunterstützungssystem (WNSS) zu verhindern. Basierend auf den Anforderungen elektronischer Verträge in WNSS und mehreren bei digitalen Signaturen weit verbreiteten Techniken wird in dem Papier ein digitales Signaturschema für elektronische Verträge vorgestellt. In dem Schema werden ein Public-Key-Algorithmus, eine Hash-Funktion und Interceders verwendet. Die Durchführbarkeit und Implementierung des Schemas in WNSS werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75466-6_71 b935b2f6843a6a773aea920d3b38747b;de;;;7.3.;;;Das Design einer webbasierten intelligenten Artikelbank Basierend auf einer kurzen Analyse der aktuellen Situation und Probleme der Internet-Artikeldatenbank schlägt der Beitrag eine webbasierte intelligente Artikeldatenbank vor, die intelligent ist und die Tests effektiv auswerten kann. Anschließend werden das Funktionsdesign, die Architektur und das Implementierungsschema des Systems vorgestellt. Es erarbeitet die Bewertungsstrategien – S-P-Tabelle im Detail, die nicht nur den Schüler einzeln und als Ganzes bewerten kann, sondern auch die Tests bewerten kann. Schließlich wird die zukünftige Entwicklung des Systems diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69736-7_30 8547dc3fd054650c051d958e605b8376;de;;;7.3.;;;ANMoLe – Eine adaptive Middleware-Architektur zur Bereitstellung von Multimedia-Inhalten für heterogene mobile Umgebungen mit mehreren Geräten Trotz des kommerziellen Ansturms von tragbaren Mehrzweckgeräten wie integrierten Mobiltelefon-PDA-Kombinationen besteht auch heute noch der Bedarf an mehreren Geräten, wobei jedes Gerät seine eigene vordefinierte und spezialisierte Funktion ausführt. Die neue Generation von Internetnutzern hat die neue Generation von unterschiedlichen Geräten für ihre unterschiedlichen Bedürfnisse schnell aufgenommen – Mobiltelefone für die Sprachkommunikation, Pager für Textnachrichten und PDAs für Notizen. Inhaltsquellen gehen heute davon aus, dass das zum Abrufen des Inhalts verwendete Endgerät über bestimmte vordefinierte Mindestfunktionen verfügt. Die in diesem Dokument vorgestellte Architektur erforscht einen neuen Bereich der Inhaltsbereitstellung, bei dem alle Geräte in der Geräteumgebung eines Benutzers zu einer einzigen Einheit für die Inhaltsbereitstellung vereint sind. Diese Lösung nutzt die charakteristischen Fähigkeiten dieser einzelnen Geräte, um den abgerufenen Inhalt für den Benutzer zu rendern, oder modifiziert in Fällen, in denen die Fähigkeiten der Zielgeräte eingeschränkt sind, den Inhalt, um den Fähigkeiten des Geräts zu entsprechen. Eine umfassende Beschreibung des Testbeds, das wir basierend auf dieser Architektur erstellt haben, wird ebenfalls beschrieben.;-;-;-;https://link.springer.com/article/10.1023/B%3AMTAP.0000011933.21474.96 f5ed7f534cb86d7ca5ef256af9f70d25;de;;;7.3.;;;Hierarchisches Bildbewertungssystem für Erwachsene Obwohl die Popularität und Verbesserung des Internets mit der explosionsartigen Verbreitung von Multimedia-Inhalten uns das Zeitalter der digitalen Informationen einleitet, bringt uns die unerwartete Popularität des Internets seine eigene dunkle Seite. Alltägliche kleine Kinder sind Bildern ausgesetzt, die ihnen nicht geliefert werden sollten. In diesem Artikel schlagen wir ein Bewertungssystem für Bilder für Erwachsene vor, das ein Bild ordnungsgemäß in eine von mehreren Klassen wie Schwimmanzug, Oben ohne, Alle Akt, Sexbild und Normal einteilt. Die Simulationsergebnisse zeigen, dass das vorgeschlagene System Bilder erfolgreich in mehrere Klassen mit einer Rate von über 70 % einteilt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-37258-5_110 37e9bc34d507cbc027d1679b81b4cada;de;;;7.3.;;;Biometrische Daten, Datenschutz und das Recht auf Privatsphäre Sind biometrische Daten immer personenbezogene Daten? Bis heute wird diese Frage immer wieder gestellt, auch ob es sich bei biometrischen Daten um „sensible“ Daten handelt. Das Kapitel gibt Antworten auf der Grundlage einer detaillierten Analyse der Konzepte aus nationaler und europarechtlicher Perspektive. Die Leitlinien der Artikel-29-Datenschutzgruppe zu diesen Fragen werden hiermit kritisch kommentiert, auch unter Berücksichtigung der Stellungnahmen WP192 und WP193 von 2012. Der Autor schlägt auch eine Definition biometrischer Daten vor, die für die Gestaltung späterer Vorschläge unverzichtbar ist. Biometrische Daten werden außerdem mit biologischem Material und DNA verglichen, für die es genauere Regelungen gibt. Viele schätzen, dass DNA-Analysen bald auch in „Echtzeit“ möglich sein werden. Abschließend skizziert der Autor den Rahmen für Privatsphäre und Datenschutz, nun auch beide in der EU-Charta proklamierten Grundrechte, in die sich die biometrische Datenverarbeitung einfügen soll. Als Omen für unterschiedliche Interpretationen und Leitlinien zur Verarbeitung biometrischer Daten treten unterschiedliche nationale Ansätze auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7522-0_3 2c4b321cea96f5cd4a07c492fa73ce70;de;;;7.3.;;;Automatische versus manuelle Weiterleitung in Web-Umfragen – eine kognitive Belastungsperspektive für zufriedenstellende Antworten Wir untersuchen das zufriedenstellende Befragtenverhalten und die kognitive Belastung der Teilnehmer in bestimmten Web-Umfrage-Schnittstellen mittels automatischer Weiterleitung (AF) oder manueller Weiterleitung (MF), um die Befragten zum nächsten Item weiterzuleiten. Wir erstellen einen theoretischen Rahmen basierend auf der Cognitive Load Theory (CLT), der Cognitive Theory of Multimedia Learning (CTML) und der Survey Satisficing Theory unter Berücksichtigung der neuesten Erkenntnisse der kognitiven Neurowissenschaften. Wir entwickeln eine neue Methode, um die Zufriedenheit bei der Beantwortung von Web-Umfragen zu messen. Wir argumentieren, dass der kognitive Antwortprozess in Web-Umfragen ausgehend von der Ebene des sensorischen Gedächtnisses und nicht von der Ebene des Arbeitsgedächtnisses interpretiert werden sollte. Dieser Ansatz ermöglicht es Forschern, eine Akkumulation der kognitiven Belastung im gesamten Fragebogen basierend auf beobachteten oder hypothetischen Augenbewegungen zu analysieren, wobei das Interface-Design der Web-Umfrage berücksichtigt wird. Wir stellen fest, dass MF sowohl die durchschnittlichen Reaktionszeiten auf Artikelebene als auch die Standardabweichung der Reaktionszeiten auf Artikelebene reduziert. Dies legt eine Unterstützung für unsere Hypothese nahe, dass die MF-Schnittstelle als komplexeres Design mit Zurück- und Weiter-Schaltflächen die zufriedenstellende Reaktion erhöht, was auch eine höhere kognitive Gesamtbelastung der Befragten verursacht. Die Ergebnisse bestärken in HCI die Ansicht, dass die Reduzierung der Komplexität von Schnittstellen und das Vorhandensein von Fremdelementen die kognitive Belastung reduziert und die Konzentration kognitiver Ressourcen auf die jeweilige Aufgabe erleichtert. Es sei darauf hingewiesen, dass die Evidenz auf einer relativ kurzen Umfrage unter Universitätsstudenten basiert. Die Replikation in anderen Einstellungen wird empfohlen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-49570-1_10 b355aeed1e58b0e2fe023f33a8963a08;de;;;7.3.;;;Studie zum webbasierten Entscheidungsunterstützungssystem für die landwirtschaftliche Mechanisierung Das Papier erörterte den Hintergrund und die Bedeutung der Forschung zum Entscheidungsunterstützungssystem für die landwirtschaftliche Mechanisierung (AMDSS). Die Verwertungsidee von AMDSS basierend auf dem Web wurde vorgebracht. Die Data-Mining-Technik wurde in das System integriert, um seine Funktionen zu stärken und die Umsetzung zu erleichtern. Es wurden auch Entwürfe für allgemeine Rahmenbedingungen und Module für AMDSS vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-29295-0_88 21737b1fba5349ca59d1471eb0301053;de;;;7.3.;;;Sicherstellung der Wiederherstellung für SACReD-Webtransaktionen in den E-Commerce-Anwendungen Dieses Dokument stellt eine Erweiterung eines neuartigen Web-Transaktionsverwaltungsprotokolls vor, das zuvor für eine fehlerfreie Umgebung definiert wurde, sodass es eine zuverlässige Wiederherstellung nach Fehlern in E-Commerce-Anwendungen ermöglicht. Dieses Protokoll verwaltet komplexe Webtransaktionen auf mehreren verteilten Webdiensten und überwindet die Beschränkungen von Zweiphasen-Commit-Protokollen durch Anwenden von Korrektheitskriterien basierend auf semantischer Atomizität. Darüber hinaus unterstützt es eine verbesserte Transaktionsstabilität durch den Einsatz von kompensierenden und alternativen Transaktionen. Das Protokoll wurde in einer CORBA-Umgebung als Prototyp entwickelt. Eine an diesem Prototyp durchgeführte Evaluierung zeigt, dass der neue Wiederherstellungsmechanismus den Protokollierungsaufwand minimiert, die Fehlertoleranz erhöht und eine unabhängige Wiederherstellung autonomer Systeme ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-46146-9_5 aba0e3152398a79939272d6abe05ea6a;de;;;7.3.;;;Eine Studie zu den Einflussfaktoren des Informationssuchverhaltens von Verbrauchern im Kontext von Ambient Intelligence Ausgehend von der Perspektive der Ambient Intelligence untersucht diese Studie die Einflussfaktoren des Informationssuchverhaltens von Verbrauchern und deren Mechanismen. Es führt auch die beiden Mediationsvariablen ein, wie das Motiv der Informationssuche und die Fähigkeit zur Informationssuche. Es wird durch empirische Analysen bewiesen, dass das Vertrauen in das mobile Internet und das wahrgenommene Risiko einen positiven Einfluss auf die Informationssuche der Verbraucher haben und das Motiv der Informationssuche eine vermittelnde Rolle beim Einfluss des Vertrauens in das mobile Internet und des wahrgenommenen Risikos auf die Informationssuche der Verbraucher spielt Die Nutzung des mobilen Internets hat einen positiven Effekt auf die Fähigkeit zur Informationssuche. Die wahrgenommene Benutzerfreundlichkeit hat jedoch keinen signifikanten Einfluss auf die Fähigkeit zur Informationssuche. Es ist sowohl theoretisch als auch praktisch von praktischer Bedeutung, vertiefte Diskussionen über das Informationssuchverhalten der Verbraucher in Kombination mit chinesischen lokalen Elementen zu führen.;-;-;-;https://link.springer.com/article/10.1007/s12652-018-1005-y 510790acb099964f4997322919b58e43;de;;;7.3.;;;Auf dem Weg zu groß angelegter semantischer Annotation basierend auf der MapReduce-Architektur Die automatisierte Annotation der Webdokumente ist eine zentrale Herausforderung des Semantic Web-Projekts. Webdokumente sind strukturiert, aber ihre Struktur ist nur für einen Menschen verständlich, das ist das Hauptproblem des Semantic Web. Semantic Web kann nur ausgenutzt werden, wenn Metadaten, die von einem Computer verstanden werden, eine kritische Masse erreichen. Semantische Metadaten können manuell erstellt werden, indem automatisierte Annotations- oder Tagging-Tools verwendet werden. Automatisierte semantische Annotationstools mit den besten Ergebnissen basieren auf verschiedenen maschinellen Lernalgorithmen, die Trainingssätze erfordern. Ein anderer Ansatz besteht darin, musterbasierte semantische Annotationslösungen zu verwenden, die auf NLP-, Informationsabruf- oder Informationsextraktionsmethoden basieren. Die meisten der entwickelten Methoden werden an Hunderten von Dokumenten getestet und bewertet, die ihre tatsächliche Verwendung bei großen Datenmengen wie Web- oder E-Mail-Kommunikation in Unternehmens- oder Community-Umgebungen nicht beweisen können. In diesem Artikel stellen wir vor, wie ein musterbasiertes Annotationstool von der MapReduce-Architektur von Google profitieren kann, um große Textdatenmengen zu verarbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69389-5_38 088e49d9c70d7772680120aa0411cfde;de;;;7.3.;;;Web-Content-Analyse: Erweiterung des Paradigmas Sind etablierte Methoden der Inhaltsanalyse (CA) für die Analyse von Webinhalten geeignet oder sollten neue Methoden entwickelt werden, um neuen technologischen Entwicklungen Rechnung zu tragen? Dieser Artikel geht dieser Frage nach, indem er enge und weite Interpretationen des Konzepts der Webinhaltsanalyse gegenüberstellt. Die Nützlichkeit einer breiten Interpretation, die die enge umfasst, wird dann mit Bezug auf die Forschung zu Weblogs (Blogs) veranschaulicht, einem populären Webformat, in dem Merkmale von HTML-Dokumenten und interaktive computervermittelte Kommunikation konvergieren. Der Artikel schließt mit dem Vorschlag eines erweiterten Paradigmas der Web Content Analysis (WebCA), in dem Erkenntnisse aus Paradigmen wie der Diskursanalyse und der Analyse sozialer Netzwerke operationalisiert und in einen allgemeinen inhaltsanalytischen Rahmen implementiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-9789-8_14 98a93ee70b0f3f6debc84c4f8235ac3a;de;;;7.3.;;;Clustering von Suchergebnissen mithilfe von Semantic Web-Daten Traditionelles Web (Web 1.0) ist ein Web von Dokumenten. Das Auffinden von Dokumenten ist das Hauptziel der Informationsbeschaffung. Es gab einige Verbesserungen bei IR (Information Retrieval) im Web seit;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20042-7_30 c3e74d87cc467411af17ae7d0b0039c9;de;;;7.3.;;;Automatisches Verknüpfen von Live-Erlebnissen mit einer allgegenwärtigen Infrastruktur Ubiquitous Computing zielt darauf ab, Benutzern in alltäglichen Umgebungen wie zu Hause Dienste bereitzustellen. Ein Forschungsthema in diesem Bereich ist das Bauen;-;-;-;https://link.springer.com/article/10.1007/s11042-007-0131-x b87a0a9f624203c9ec4bf50d9b94b0bc;de;;;7.3.;;;Semantische Integration von Webdaten zur Unterstützung internationaler Investitionsentscheidungen Angesichts der aktuellen Wirtschaftslage und der Finanzkrise in vielen europäischen Ländern sehen kleine und mittlere Unternehmen (KMU) die Internationalisierung und den Export ihrer Produkte als Hauptweg aus dieser Krise. In diesem Papier stellen wir ein Entscheidungsunterstützungssystem bereit, das Informationen aus vielen heterogenen Webressourcen semantisch aggregiert und KMU eine Anleitung für ihre potenziellen Investitionen bietet. Die Hauptbeiträge dieses Papiers sind die Einführung von KMU-Internationalisierungsindikatoren, die für solche Entscheidungen berücksichtigt werden können, sowie das neuartige Entscheidungsunterstützungssystem für die KMU-Internationalisierung basierend auf Inferenz über semantisch integrierte Daten aus heterogenen Webressourcen. Das System wird von KMU-Experten in realistischen Szenarien im Bereich Milchprodukte evaluiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-45982-0_18 fc2afaae3a4577822a366119a4b71997;de;;;7.3.;;;Integriertes dynamisches Management virtueller Unternehmen. Konzepte und Lösung im Bidsaver-Projekt Dieses Papier zielt auf die neuen Methoden und Infrastrukturen für das dynamische Management von virtuellen Unternehmen (VE), wie sie im BIDSAVER-Projekt (IST-Projekt #10768) als Teil der VIVE-Initiative (Virtual Vertical Enterprise) unter der Leitung von CE Consulting aufgebaut wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35585-6_58 e7923609f8179d6f3155b3b97cb7630e;de;;;7.3.;;;Erkennen von Meinungsabweichungen bei chinesischen Web-Kommentaren basierend auf Sentiment Distribution Computing Als Meinungsdrift wird in diesem Papier die Veränderung der Stimmungsverteilung bezeichnet. Beim Opinion and Sentiment Mining ist es ein wichtiges Problem für die Analyse der öffentlichen Meinung im Internet, wie Meinungsdriften erkannt und ihre Gründe analysiert werden können. Um dieses Problem anzugehen, wird ein Ansatz zur Erkennung von Meinungsabweichungen für chinesische Webkommentare vorgeschlagen. Für einen über einen langen Zeitraum angelegten Kommentar zu einem heißen Ereignis ermittelt der vorgeschlagene Ansatz zunächst mögliche Drift-Zeitstempel entsprechend der Änderung der Kommentarnummer, berechnet unterschiedliche Stimmungsorientierungen und deren Verteilungen zu diesen Zeitstempeln, erkennt Meinungsdriften entsprechend der Verteilungsänderungen analysiert die Einflüsse verwandter Ereignisse, die in den Zeitstempeln auftreten. Umfangreiche Experimente wurden in einem echten Kommentar-Set des chinesischen Forums durchgeführt. Die Ergebnisse zeigen, dass die ermittelten Zeitstempel der Drift und die erkannten Meinungsdriften dem realen Ereignis entsprechen, sodass der in diesem Papier vorgeschlagene Ansatz für die Anwendung der öffentlichen Meinungsanalyse im Internet praktikabel und effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41230-1_6 03feb0898e07b4a8e855de5d5926400a;de;;;7.3.;;;The Whodunit Challenge: Mobilisierung der Masse in Indien Während das Interesse an der Mobilisierung der Masse zur Lösung großer zeitkritischer Herausforderungen gestiegen ist, konzentrierte sich diese Arbeit bisher auf Länder mit hohem Einkommen und internetbasierte Lösungen. In Entwicklungsländern sind die Ansätze zur Massenmobilisierung oft breiter und vielfältiger und nutzen nicht nur das Internet, sondern auch persönliche und mobile Kommunikation. In diesem Beitrag beschreiben wir die Whodunit Challenge, den ersten in Indien gestarteten Wettbewerb zur sozialen Mobilisierung. Der Wettbewerb ermöglichte die Teilnahme über einfache Mobiltelefone und erforderte die schnelle Bildung großer Teams, um einen fiktiven Mystery-Fall zu lösen. Die Challenge umfasste 7.700 Teilnehmer an einem einzigen Tag und wurde in ca. 5 Stunden von einem Hochschulteam gewonnen. Um die Strategien und Erfahrungen der Teams zu verstehen, führten wir 84 Telefoninterviews durch. Während das Internet für die meisten Teams ein wichtiges Werkzeug war, haben wir im Gegensatz zu früheren Herausforderungen auch eine starke Abhängigkeit von persönlichen Netzwerken und Offline-Kommunikationskanälen festgestellt. Wir fassen diese Ergebnisse zusammen und bieten Empfehlungen für zukünftige Herausforderungen bei der Massenmobilisierung, die auf einkommensschwache Umgebungen in Entwicklungsländern abzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22668-2_39 067a026f1046e7a18bdd0405cc208363;de;;;7.3.;;;Ein hierarchischer adaptiver probabilistischer Ansatz für die Zero-Hour-Phish-Erkennung Phishing-Angriffe stellen eine erhebliche Bedrohung für Internetnutzer dar und verursachen jedes Jahr enorme wirtschaftliche Verluste. Bei der Phishing-Bekämpfung verlässt sich die Industrie stark auf die manuelle Verifizierung, um eine niedrige False-Positive-Rate zu erreichen, die jedoch tendenziell langsam auf die riesige Menge einzigartiger Phishing-URLs reagiert, die von Toolkits erstellt werden. Unser Ziel hier ist es, die besten Aspekte von Human verifizierten Blacklists und heuristikbasierten Methoden zu kombinieren, d. h. die niedrige False-Positive-Rate der ersteren und die breite und schnelle Abdeckung der letzteren. Zu diesem Zweck präsentieren wir das Design und die Evaluierung eines hierarchischen Blacklist-Enhanced Phish Detection Framework. Die Schlüsselerkenntnis hinter unserem Erkennungsalgorithmus besteht darin, vorhandene von Menschen verifizierte schwarze Listen zu nutzen und die Schindeltechnik anzuwenden, einen beliebten Erkennungsalgorithmus für nahezu Duplikate, der von Suchmaschinen verwendet wird, um Phishing probabilistisch mit sehr hoher Genauigkeit zu erkennen. Um eine extrem niedrige False-Positive-Rate zu erreichen, verwenden wir in unserem mehrschichtigen System ein Filtermodul, das die Leistungsfähigkeit von Suchmaschinen über Informationsabruftechniken nutzt, um False-Positives zu korrigieren. Umfassende Experimente über ein vielfältiges Spektrum von Datenquellen zeigen, dass unsere Methode eine 0% Falsch-Positiv-Rate (FP) mit einer True-Positive-Rate (TP) von 67,15% mit suchorientierter Filterung und 0,03 % FP und 73,53 % TP ohne Filterung erreicht Modul. Mit der Fähigkeit zur inkrementellen Modellerstellung über einen Schiebefenstermechanismus kann sich unser Ansatz schnell an neue Phishing-Varianten anpassen und reagiert somit besser auf die sich entwickelnden Angriffe.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15497-3_17 83c11c9678dea435cf8f94ebcc9ff8e9;de;;;7.3.;;;ZigZag: Eine Middleware für Service Discovery im Internet der Zukunft Future In den letzten Jahren waren soziale Netzwerke, mobile Geräte und personalisierte Dienste maßgeblich für eine erhebliche Zunahme der über das Internet verfügbaren Remote-Dienste verantwortlich. Folglich müssen Service-Konsumenten Remote-Services jederzeit und überall über Netzwerkgrenzen hinweg erkennen, was die Service-Discovery und die ihnen zugrunde liegenden Service Discovery Protocols (SDPs) wichtiger denn je macht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30823-9_19 da78eee5b46cdeb8465a841eb9ba824f;de;;;7.3.;;;Untersuchung von Sicherheitsproblemen in einer allgegenwärtigen Umgebung des Internets der Dinge der nächsten Generation Das Internet der Dinge ist ein neuartiges Konzept, das semantisch ein weltweites Netzwerk einzigartig adressierbarer miteinander verbundener intelligenter Objekte impliziert. Es zielt darauf ab, ein beliebiges Paradigma in der Informatik zu etablieren. In dieser Umgebung wird die Grenze zwischen virtueller und physischer Welt aufgehoben. Da das Netzwerk mit bisher unbekannten Anwendungen überladen wird, nehmen auch Sicherheitsbedrohungen zu. Aktuelle Sicherheitslösungen versagen, da neue Bedrohungen die Zuverlässigkeit von Informationen zu zerstören scheinen. Das Netzwerk muss in ein IPv6-fähiges Netzwerk umgewandelt werden, um eine große Anzahl von intelligenten Objekten zu adressieren. Somit kommen neue Adressierungsschemata mit neuen Angriffen. Die Echtzeitanalyse von Informationen aus den heterogenen intelligenten Objekten erfordert den Einsatz von Cloud-Diensten. Dies kann Cloud-spezifischen Sicherheitsbedrohungen zum Opfer fallen. Daher besteht Bedarf an einer Überprüfung der Sicherheitsbedrohungen für einen neuen Bereich mit großem Bedarf. Hier wird eine Studie zu Sicherheitsfragen in diesem Bereich kurz vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40925-7_20 2a4749900cbb953b20f7c765c1594e3b;de;;;7.3.;;;Extrahieren von lexikalischen und phrasalen Paraphrasen: ein Überblick über die Literatur Jüngste Fortschritte in der Verarbeitung natürlicher Sprache haben die Popularität der Paraphrasenextraktion erhöht. Die meiste Aufmerksamkeit wurde jedoch nur den Extraktionsmethoden gewidmet, ohne den Ressourcenfaktor zu berücksichtigen. Unwissentlich besteht ein starker Zusammenhang zwischen ihnen und der Ressourcenfaktor spielt auch bei der Paraphrasenextraktion eine ebenso wichtige Rolle. Darüber hinaus haben sich fast alle bisherigen Studien auf korpusbasierte Methoden konzentriert, die Paraphrasen aus Korpora ausschließlich auf der Grundlage syntaktischer Ähnlichkeit extrahieren. Trotz der Popularität korpusbasierter Methoden hat eine beträchtliche Menge an Forschung durchweg gezeigt, dass diese Methoden anfällig für verschiedene Arten von fehlerhaften Umschreibungen sind. Aus diesen Gründen muss bewertet werden, ob sich der Trend in eine positive Richtung bewegt. Dieser Artikel gibt einen detaillierten Überblick über die wichtigsten Forschungsarbeiten zu Paraphrasenextraktionsmethoden. Es beginnt mit der Untersuchung der Definition von Paraphrase aus verschiedenen Perspektiven, um ein besseres Verständnis des Konzepts der Paraphrasenextraktion zu ermöglichen. Anschließend werden die Eigenschaften und die potenziellen Verwendungen verschiedener Arten von Paraphrasenressourcen untersucht. Danach werden Paraphrasenextraktionsmethoden in vier Hauptkategorien eingeteilt: heuristikbasiert, wissensbasiert, korpusbasiert und hybridbasiert und fasst ihre Stärken und Schwächen zusammen. Dieses Papier schließt mit einigen potenziellen offenen Forschungsfragen für zukünftige Richtungen.;-;-;-;https://link.springer.com/article/10.1007/s10462-012-9357-8 aa5f4664e13706045f856419d35245a9;de;;;7.3.;;;Ein Web-Mining-Tool zur Unterstützung beim kreativen Schreiben Wir entwickeln ein Web-Mining-Tool zur Unterstützung beim kreativen Schreiben. Die Relevanz des Web-Mining wird durch die Berechnung von Ähnlichkeiten von Parse-Bäumen für Abfragen und gefundene Snippets erreicht. Um den plausiblen Fluss mentaler Zustände der beteiligten Agenten sicherzustellen, ist ein Multi-Agenten-Verhaltenssimulator in den Inhaltsgenerierungsalgorithmus integriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36973-5_95 9ea829467811386f4adee142b41d4c5a;de;;;7.3.;;;Social-Tagging Tagging ist auf sozialen Websites schnell zu einer gängigen und beliebten Praxis geworden. Es ermöglicht Benutzern, die von ihnen veröffentlichten oder geteilten Inhalte einfach mit Freiform-Schlüsselwörtern zu versehen, um die Inhalte für andere leichter durchsuchbar und auffindbar zu machen, was zu einer sozialen Komponente des Taggings führt. Tagging ist zwar eine leichtgewichtige, agile und sich weiterentwickelnde Möglichkeit, Inhalte zu kommentieren, wir glauben jedoch, dass es effizient mit formalen Modellierungsschemata wie Ontologien kombiniert werden kann, um es leistungsfähiger zu machen und Teil des Semantic Web als Ganzes zu werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01172-6_8 b02ebc181692fcbc2647c7919b697db6;de;;;7.3.;;;Ein Framework für die qualitätsbasierte Auswahl und Abfrage von Open Data – ein Anwendungsfall aus dem maritimen Bereich Das Papier präsentiert einen Vorschlag für einen Rahmen für die Identifizierung, Bewertung und Auswahl von offenen Datenquellen basierend auf bestimmten Qualitätskriterien wie Zugänglichkeit, Relevanz, Genauigkeit & Zuverlässigkeit, Klarheit, Aktualität & Pünktlichkeit sowie Kohärenz & Vergleichbarkeit. Das Framework betrifft hauptsächlich offene Datenquellen und konzentriert sich auf deren Qualität. Die Open Data werden verwendet, um vorhandene interne Daten zu erweitern und mit Daten aus anderen Quellen zu verschmelzen. Der Rahmen besteht aus wenigen Schritten, beginnend mit der Definition von Qualitätskriterien auf der Grundlage der Überprüfung der relevanten Literatur und der Benutzeranforderungen, dann der Identifizierung potenzieller Quellen, der Quellenbewertung und -auswahl und schließlich dem Datenabrufprozess. Für jeden Schritt wird ein spezifisches Vorgehen beschrieben, wie es in der Praxis durchgeführt werden kann. Das vorgeschlagene Framework wird anhand eines realen Anwendungsszenarios aus dem maritimen Bereich evaluiert. Der in diesem Anwendungsfall hauptsächlich verwendete Ansatz ist die Delphi-Methode mit einigen Merkmalen des analytischen Hierarchieprozesses.;-;-;-;https://link.springer.com/article/10.1007/s12525-017-0277-y b49e8f106948d8d0dc2f5f556516f04e;de;;;7.3.;;;Verbesserung der Nutzbarkeit von Petrinetzen mit dem ≫Petri Net Baukasten≪ Zur Unterstützung der prozessgetriebenen Systementwicklung wurde eine enorme Vielfalt an Petrinetz-Konzepten, -Techniken und -Methoden sowie verschiedene Werkzeuge und Werkzeugumgebungen entwickelt. Die Systementwicklung unter Verwendung von Petri-Netzen ist jedoch immer noch schwierig, da dasjenige, das am besten zur Anwendung passt, nicht leicht zu identifizieren ist. In diesem Beitrag wird ein anwendungsorientierter Assistenzansatz vorgestellt, der Anwendungsentwicklern hilft, die „richtige“ Petrinetz-Variante, das Werkzeug, die Technik und die Entwicklungsmethode für spezifische Entwicklungsaufgaben zu finden. Es basiert auf dem ≫Petri Net Baukasten more, insbesondere auf seiner Application Developer View und seiner Common Base. Beides wird ausführlich erklärt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45541-8_3 0ad9054116433fe4767cf0d945ed8dc6;de;;;7.3.;;;Heterogenes Komponentenmodell für die Architektur des Community Medical Internet of Things Als eine Art medizinische Dienstleistung rund um den Menschen ist die gemeindenahe Gesundheitsversorgung eng mit dem Leben der Menschen verbunden und hat daher auch höhere Anforderungen gestellt. Angesichts des wachsenden medizinischen Bedarfs in der Gemeinde steht der Aufbau und die Entwicklung des gemeindemedizinischen Internets der Dinge unmittelbar bevor. Durch die Analyse der bestehenden Konstruktion des medizinischen Internets der Dinge, kombiniert mit der Community-Anwendungsumgebung, wird ein heterogenes Komponentenmodell für das Community Medical Internet of Things entworfen, das auf die tatsächliche Community-Situation angewendet werden kann. Das Modell umfasst drei Teile wie heterogene Komponenten für das medizinische Internet der Dinge, deren flache physikalische Struktur und hierarchische logische Struktur. In der Zwischenzeit wird eine entsprechende Modellbeschreibung vorgestellt, um die gesamte Systemarchitektur perfekter zu machen und die Systemarchitektur auch den Bedürfnissen verschiedener Benutzer anzupassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-60753-5_15 2fdc68d42fed33d38a8db39205b3a28b;de;;;7.3.;;;Nutzung der Sprache für die automatische Delinearisierung von Fernsehsendungen: Von Streams zu medienübergreifender semantischer Navigation Die schrittweise Migration des Fernsehens von der Rundfunkverbreitung zur Internetverbreitung bietet unzählige Möglichkeiten für die Generierung reichhaltiger navigierbarer Inhalte. Es wirft jedoch auch zahlreiche wissenschaftliche Fragen in Bezug auf die Delinearisierung von TV-Streams und die Anreicherung von Inhalten auf. In diesem Beitrag untersuchen wir, wie Sprache auf verschiedenen Ebenen des Delinearisierungsprozesses verwendet werden kann, indem automatische Sprachtranskription und natürliche Sprachverarbeitung (NLP) zur Segmentierung und Charakterisierung von Fernsehprogrammen und zur Generierung semantischer Hyperlinks in Videos verwendet werden. Transkriptbasierte Video-Delinearisierung erfordert natürliche Sprachverarbeitungstechniken, die robust gegenüber Transkriptionsbesonderheiten wie Transkriptionsfehlern und Domänen- und Genreunterschieden sind. Wir schlagen daher vor, klassische NLP-Techniken, die ursprünglich für reguläre Texte entwickelt wurden, zu modifizieren, um ihre Robustheit im Kontext der TV-Delinearisierung zu verbessern. Wir zeigen, dass die modifizierten NLP-Techniken verschiedene Arten von TV-Material effizient verarbeiten und zur Programmbeschreibung, zur Themensegmentierung und zur Generierung semantischer Hyperlinks zwischen Multimediainhalten genutzt werden können. Wir veranschaulichen das Konzept der medienübergreifenden semantischen Navigation mit einer Beschreibung unseres News-Navigations-Demonstrators, der während des NEM-Gipfels 2009 vorgestellt wurde.;-;-;-;https://link.springer.com/article/10.1155/2011/689780 2c15f99a030b94407e50cad9428fd62f;de;;;7.3.;;;Analyse von WEB-Browsern der HSTS-Sicherheit unter der MITM-Verwaltungsumgebung Die transaktionalen Websites und Dienste in der Cloud sind dank ihrer Portabilität und Benutzerfreundlichkeit zu den am häufigsten verwendeten Browsern geworden, mit einer deutlichen Zunahme der Entwicklung von Cloud-Lösungen, die digitale Kontexte unter dem 4.0-Web implementieren, was zu einem Anstieg von increase Möglichkeiten für Transaktionen unterschiedlicher Art. Allerdings treten jedes Mal mehr Sicherheitsprobleme auf. Aufgrund dieses Problems ist die Computersicherheit ein steigender Trend, der neue Möglichkeiten zur Minderung von Schwachstellen beim Umgang mit Informationen in einer transaktionalen Website generiert, eine Analyse der Leistung, Schwächen und Stärken des HSTS-Standards als Sicherheitsergänzung des SSL/TLS-Protokoll.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-81635-3_27 725e10ffd40d0e267b96c6f81aa63ef3;de;;;7.3.;;;Lernen, Informationen für das Semantic Web zu sammeln In diesem Papier beschreiben wir eine Methodik zum Sammeln von Informationen aus großen verteilten Repositories (z. B. großen Websites) mit minimalem Benutzereingriff. Die Methodik basiert auf einer Kombination aus Informationsextraktion, Informationsintegration und Techniken des maschinellen Lernens. Das Lernen wird durch das Extrahieren von Informationen aus strukturierten Quellen (z. B. Datenbanken und digitalen Bibliotheken) oder einem benutzerdefinierten Lexikon angesät. Die abgerufenen Informationen werden dann verwendet, um Dokumente teilweise mit Anmerkungen zu versehen. Annotierte Dokumente werden verwendet, um das Lernen für einfache Information Extraction (IE)-Methoden zu starten, was wiederum mehr Annotationen erzeugt, um mehr Dokumente zu kommentieren, die zum Trainieren komplexerer IE-Engines usw. verwendet werden. In diesem Papier beschreiben wir die Methodik und deren Implementierung im Armadillo-System, vergleichen sie mit dem aktuellen Stand der Technik und beschreiben die Details einer implementierten Anwendung. Abschließend ziehen wir einige Schlussfolgerungen und beleuchten einige Herausforderungen und zukünftige Arbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-25956-5_22 7c5b9268283cacd6d87396e0524d2cca;de;;;7.3.;;;Effektive Filterung für kollaboratives Publizieren In den letzten zehn Jahren hat sich das World Wide Web als ein Medium der Interaktion, Kommunikation, Bereitstellung von Inhalten und Zusammenarbeit etabliert, das der Menschheit bisher nie dagewesene Möglichkeiten und in der Geschichte der Menschheit beispiellosen Ausmaße eröffnet hat. Zur selben Zeit,;-;-;-;https://link.springer.com/chapter/10.1007/11600930_42 38ef7c05e2e6cab46365b136282caf8b;de;;;7.3.;;;Informationssicherheit in der Netzwerkfinanzierung und ihre Gegenmaßnahmen Der Aufbau der Finanzinformationssysteme, die hauptsächlich von der modernen Computernetzwerktechnologie abhängt, ist ein unvermeidlicher Trend der Entwicklung des modernen Finanzmanagements. Im Vergleich zu traditionellen Rechnungslegungsmethoden ist das Finanzsystem in der Computernetzwerkumgebung vielen neuen Risiken ausgesetzt. Dieses Papier analysiert das Informationssicherheitsproblem in der Netzwerkfinanzierung und schlägt einige Gegenmaßnahmen zur Informationssicherheit der Netzwerkfinanzierung vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24820-7_104 c89c9db922b83897cb42c0b9653a07b4;de;;;7.3.;;;Multi-Access in zukünftigen Generationen Zukünftige drahtlose Kommunikationssysteme werden sich durch eine Integration unterschiedlicher Zugangstechnologien auszeichnen. Die Entwicklung von Multi-Access-Lösungen wird nahtlose Netzwerke bereitstellen, die gleichzeitig flächendeckende Mobilfunk-, Nomaden- und andere Arten von Zugängen umfassen. Diese Situation erfordert eine nutzerfreundliche Abstimmung der komplementären Zugangstechnologien, um unter Verwendung des aktuell am besten geeigneten Zugangs nahtlos auf personalisierte Dienste zugreifen zu können. In diesem Papier werden einige Szenarien für den zukünftigen Einsatz von Multi-Access-Systemen beschrieben. Darüber hinaus werden Anforderungen und Beispiele von Multi-Access-Systemen vorgestellt, gefolgt von einer Beschreibung der Multi-Access-Architektur der nächsten Generation, wie sie in internationalen Foren diskutiert wird.;-;-;-;https://link.springer.com/article/10.1023/A%3A1025566117505 4064eac3d36c8e9b9dcb887151e25b30;de;;;7.3.;;;Ein kollaboratives P2P-Framework für Smartphones Diese Studie untersucht die Integration des Peer-to-Peer (P2P)-Computing-Modells in Smartphones und diskutiert seine potenziellen Vorteile für kollaborative mobile Benutzer. Ziel dieser Studie ist es, eine P2P-Computing-Umgebung für netzwerkfähige Smartphones zu etablieren. Um die Interoperabilität von Smartphones zu unterstützen und ihnen den nahtlosen Austausch von Informationen zu ermöglichen, schlägt diese Studie außerdem ein serviceorientiertes P2P-Framework vor, das XML und SOAP als zugrunde liegende Kommunikationsmedien verwendet. Ein Prototyping-System des vorgeschlagenen Systems wird implementiert. Auch ihre Implikationen und Anwendungen werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-32015-6_10 89ab1c8a0e4997d5b92dd10bfe806436;de;;;7.3.;;;Flammen und Debatten: Beeinflussen Social Media die Zufriedenheit mit der Demokratie? Medien spielen eine wichtige Rolle bei der Definition der Qualität der Demokratie in der konsolidierten Demokratie. Das Internet wiederum kann Auswirkungen auf die Demokratie haben, und viele Wissenschaftler haben einen solchen Zusammenhang untersucht. Ausgehend von dieser Literatur verwenden wir Eurobarometer-Daten, um die Auswirkungen des Internets auf die Zufriedenheit der europäischen Bürger mit dem Funktionieren der Demokratie abzuschätzen. Die Ergebnisse zeigen, dass die Internetnutzung per se keinen Einfluss auf die Demokratiezufriedenheit hat. Der Konsum von Online-Nachrichten kann jedoch den Unterschied ausmachen, auch wenn dieser Effekt positiv ist, wenn Benutzer Nachrichten aus traditionellen Online-Medien konsumieren, während soziale Medien einen negativen Effekt haben, der durch das Ausmaß der Online-Uneinigkeit und das potenzielle Entstehen von Flammen vermittelt wird.;-;-;-;https://link.springer.com/article/10.1007/s11205-015-0893-x f89dbdb8ddabe9454a93357919bc9b0e;de;;;7.3.;;;E-Petitioning aus der Perspektive einer Kommunikationsgattung: Der Fall der Bürgerinitiative Die Europäische Bürgerinitiative soll die europäische Demokratie direkter gestalten, indem sie es den Bürgern ermöglicht, der Kommission (auch elektronisch) Rechtsakte vorzuschlagen. Das vorliegende Papier bietet ein konzeptionelles Modell für die Analyse dieses eParticipation-Falls und anderer ähnlicher e-Petitioning-Praktiken, das nicht von politischen Ambitionen oder technologischem Determinismus beeinflusst wird. Der vorgeschlagene operationelle Rahmen zielt darauf ab, die Art der Kommunikation zwischen Bürgern, Regierungen und der Zivilgesellschaft sowie anderen Akteuren in der zeitgenössischen Medienlandschaft zu verstehen, indem zu diesem Zweck das Konzept von Genresystemen verwendet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33250-0_4 66f7e6b9bcfd91c3d0aba92615ba284f;de;;;7.3.;;;Active Document Framework ADF: Konzept und Methode Dieses Papier schlägt das Konzept und die Methode des Active Document Framework ADF vor, bei dem es sich um einen selbstrepräsentierbaren, selbsterklärenden und selbstausführbaren Dokumentenmechanismus handelt. Der Inhalt des Dokuments wird durch Granularitätshierarchie, Vorlagenhierarchie, Hintergrundwissen und semantische Verknüpfungen zwischen Dokumentfragmenten widergespiegelt. Ein ADF verfügt über eine Reihe von eingebauten Engines zum Durchsuchen, Abrufen und Argumentieren. Es kann auf die Art und Weise arbeiten, die für den Inhalt am besten geeignet ist. Das ADF unterstützt nicht nur die Browse- und Retrieval-Dienste, sondern auch intelligente Dienste wie komplexe Fragenbeantwortung und Online-Lehre. Der Dienstbereitstellungsmechanismus auf der Clientseite ist nur dafür verantwortlich, den erforderlichen ADF-Mechanismus zu erhalten, der die bestimmten Informationsdienste bereitstellt. Dies verbessert die aktuellen Web-Information-Retrieval-Ansätze in Bezug auf Effizienz, Genauigkeit und Mobilität von Informationsdiensten sowie die Ermöglichung intelligenter Dienste.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36901-5_35 5880cb8e3a4915d1f1a5050e50126a70;de;;;7.3.;;;Obskure Giganten: Erkennung der anbieterfreien ASes Internet-Routing hängt von wirtschaftlichen Beziehungen zwischen ASen (Autonomous Systems) ab. Trotz umfangreicher vorheriger Forschungen zu diesen Beziehungen bleibt ihre Charakterisierung ungenau. In diesem Whitepaper konzentrieren wir uns auf anbieterfreie ASen, die das gesamte Internet erreichen, ohne jemanden für die Traffic-Zustellung zu bezahlen. Während die Grundwahrheit über PFS (Satz der anbieterfreien ASen) außerhalb der Öffentlichkeit liegt, verwenden wir vertrauenswürdige, nicht überprüfbare Quellen als Grundlage für die Ergebnisvalidierung. Die einfache Extraktion von PFS aus öffentlichen Datensätzen der wirtschaftlichen Beziehungen zwischen AS führt zu schlechten Ergebnissen. Dann entwickeln wir einen ausgefeilteren Temporal Cone (TC)-Algorithmus, der auf topologischen Statistiken (Kundenkegel von ASen) beruht und die zeitliche Vielfalt der Datensätze ausnutzt. Unsere Auswertung zeigt, dass der TC-Algorithmus PFS aus denselben öffentlichen Datensätzen mit einer deutlich höheren Genauigkeit ableitet. Wir bewerten auch die Sensitivität des TC-Algorithmus gegenüber seinen Parametern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30054-7_12 29a09bc199a2eeb389053ae95ce1fe4e;de;;;7.3.;;;Funktionsauswahl zur robusten Erkennung von Distributed-Denial-of-Service-Angriffen mit genetischen Algorithmen In diesem Beitrag stellen wir einen robusten neuronalen Netzdetektor für Distributed Denial-of-Service (DDoS)-Angriffe auf Computer vor, die Internetdienste bereitstellen. Ein genetischer Algorithmus wird verwendet, um eine kleine Anzahl effizienter Merkmale aus einem erweiterten Satz von 44 statistischen Merkmalen auszuwählen, die nur aus den Paket-Headern geschätzt werden. Die genetische Auswertung erzeugt einen fehlerfreien neuronalen Netz-DDoS-Detektor mit nur 14 Funktionen. Darüber hinaus zeigten die experimentellen Ergebnisse, dass die Merkmale, die sich am besten für die DDoS-Erkennung eignen, die SYN- und URG-Flags, die Wahrscheinlichkeit unterschiedlicher Quellports in jedem Zeitrahmen, die Anzahl der Pakete, die bestimmte Portbereiche verwenden, die TTL und die Fenstergröße in jedem Zeitrahmen sind .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24674-9_29 3e19726be1e9e7685e828aedbdbd9b8d;de;;;7.3.;;;Eine Analyse der Natur von Spam als Cyberkriminalität Das anhaltend schnelle Wachstum des Internets und das Aufkommen des Internets der Dinge (IoT) haben zu einer immer ausgefeilteren Schadsoftware oder Crime-Ware-Tools und zur Verfeinerung irreführender Methoden zur Durchführung von Computerangriffen und -einbrüchen geführt. Cyberangriffe über Spam-E-Mails (unerwünschte Massennachrichten) bleiben einer der wichtigsten Vektoren für die Verbreitung von Malware und vielen Prädikatsformen der Cyberkriminalität. Die Überwachung von Spam als potenzielle Cyberkriminalität kann zur Prävention beitragen, indem Änderungen der Angriffsmethoden beobachtet werden, einschließlich der Art des bösartigen Codes und des Vorhandenseins krimineller Netzwerke. In diesem Whitepaper beschreiben wir das Wesen und die Trends von Spam-basierter Malware. Dieses Papier skizziert einige der Probleme und Probleme in Bezug auf Spam bei Cyberkriminalität und gibt Beispiele für bekannte Fälle und bietet Einblicke in die Lösung von Spam-Problemen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-32824-9_13 e508dd1c10076f2a70c368374057365f;de;;;7.3.;;;Eine auf Webdiensten basierende Architektur für die Bereitstellung dynamischer Dienste Aufgrund der zunehmenden Heterogenität und Komplexität heutiger Netzwerksysteme entsteht ein Bedarf an einer Architektur für netzwerkbasierte Dienste, die Flexibilität und Effizienz bei der Definition, Bereitstellung und Ausführung der Dienste bietet und gleichzeitig die der Anpassungsfähigkeit und Entwicklung solcher Dienste. In diesem Beitrag stellen wir einen Ansatz vor, der ein Komponentenmodell auf GT4 anwendet, eine Web-Service-basierte Grid-Umgebung, die die Bereitstellung paralleler Anwendungen als QoS-aware (Grid)-Dienste ermöglicht, deren Leistungsmerkmale dynamisch zwischen einer Client-Anwendung ausgehandelt werden können und Dienstleister. Unser Komponentenmodell ermöglicht es, Kontextabhängigkeiten in Bezug auf die Hosting-Umgebung, Rechenressourcen sowie Abhängigkeiten von anderen Komponenten explizit auszudrücken und dynamisch zu verwalten. Unsere Arbeit kann als erster Schritt zu einem komponentenbasierten Programmiermodell für serviceorientierte Infrastrukturen unter Verwendung von Standard-Webservice-Technologien gesehen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00972-3_19 53dc651ebcb47475b452179acc35370a;de;;;7.3.;;;Erkennen von Off-Topic-Seiten in Webarchiven Webarchive sind zu einem bedeutenden Repositorium unserer jüngsten Geschichte und unseres kulturellen Erbes geworden. Die archivische Integrität und Genauigkeit ist eine Voraussetzung für die zukünftige Kulturforschung. Derzeit gibt es keine quantitativen oder inhaltsbasierten Tools, die es Archivaren ermöglichen, die Qualität der Webarchiv-Erfassungen zu beurteilen. In diesem Whitepaper behandeln wir die Probleme bei der Erkennung von Off-Topic-Seiten in Webarchivsammlungen. Wir evaluieren sechs verschiedene Methoden, um zu erkennen, wann die Seite durch nachfolgende Erfassungen vom Thema abweicht. Diese vorhergesagten Off-Topic-Seiten werden dem Kurator der Sammlung zur möglichen Entfernung aus der Sammlung oder zur Einstellung des Crawlings vorgelegt. Wir haben einen Goldstandard-Datensatz aus drei Archive-It-Sammlungen erstellt, um die vorgeschlagenen Methoden bei verschiedenen Schwellenwerten zu bewerten. Wir fanden heraus, dass die Kombination von Kosinusähnlichkeit bei Schwellenwert 0,10 und Größenänderung mithilfe der Wortzahl bei Schwellenwert at;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24592-8_17 c4e161d42ae90db2ff7979ba8e9d5059;de;;;7.3.;;;Eine Fallstudie zur praktischen Sicherheit von Kabelnetzen Kabelnetze sind komplexe, über Jahre gewachsene Systeme, in die neue Features wie Internetzugang und Voice over IP (VoIP) integriert wurden. Wir argumentieren, dass sich Bedrohungsmodelle zusammen mit solchen Systemen entwickeln müssen und zeigen, dass unzureichende Bedrohungsmodelle verwendet werden können, um bekannte und unbekannte Schwachstellen in heutigen Kabelnetzen zu erklären. Wir tun dies, indem wir einen Angriff auf den Bereitstellungsstandard DOCSIS in Kabelnetzen demonstrieren. Durch Ausnutzen dieser Schwachstelle kann ein Angreifer VoIP-Konten kapern. Wir zeigen auch, wie Sie den Angriff abschwächen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21424-0_8 2295b5df94a3d678e65e4d5b14545475;de;;;7.3.;;;Feature- und Clique-basierte Nutzermodelle für die Filmauswahl: Eine vergleichende Studie Die riesige Menge an Informationen, die in der sich derzeit entwickelnden weltweiten Informationsinfrastruktur zu jeder Zeit verfügbar ist, kann Endbenutzer leicht überfordern. Eine Möglichkeit, der Informationsexplosion entgegenzuwirken, besteht darin, einen „Informationsfilteragenten“ zu verwenden, der Informationen je nach Interesse und/oder Bedarf eines Endnutzers auswählen kann. Gegenwärtig existieren jedoch nur wenige Informationsfilteragenten für die sich entwickelnde weltweite Multimedia-Informationsinfrastruktur. In dieser Studie evaluieren wir die Verwendung von merkmalsbasierten Ansätzen zur Benutzermodellierung mit dem Ziel, einen Filteragenten für die Video-on-Demand-Anwendung zu erstellen. Wir evaluieren mehrere Feature- und Clique-basierte Modelle für 10 freiwillige Probanden, die Bewertungen für die Filme abgegeben haben. Unsere vorläufigen Ergebnisse deuten darauf hin, dass die merkmalsbasierte Auswahl ein nützliches Werkzeug sein kann, um Filme nach dem Geschmack des Benutzers zu empfehlen und so effektiv wie ein Filmbewertungsexperte sein kann. Wir vergleichen unseren Feature-basierten Ansatz mit einem Clique-basierten Ansatz, der Vorteile hat, wenn Informationen von anderen Benutzern verfügbar sind.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008286413827 648f56562f54321f0a04296f0c8d9c50;de;;;7.3.;;;Computerforensische Analyse privater Browsing-Modi In diesem Whitepaper wird die Effektivität der privaten Browsing-Modi untersucht, die in vier der wichtigsten Internetbrowser integriert sind. Bei der Untersuchung des Phänomens der privaten Browsing-Modi, die in vier weit verbreiteten Internetbrowsern eingebaut sind, zielt dieser Beitrag darauf ab, festzustellen, ob festgestellt werden kann, wann ein Verdächtiger einen privaten Browsing-Modus für eine kriminelle oder illegale Handlung verwendet hat und inwieweit die forensischen Die Untersuchung eines Computers kann Beweise für die private Nutzung des Surfens aufdecken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23276-8_9 b8def4367ca7321ac02375054bf1597d;de;;;7.3.;;;I-SEARCH: Ein einheitliches Framework für multimodales Suchen und Abrufen In diesem Artikel wird ein einheitliches Framework für die multimodale Suche und Abfrage vorgestellt. Der Rahmen ist ein Ergebnis der Forschung, die im Rahmen des europäischen I-SEARCH-Projekts stattfand. Das vorgeschlagene System deckt alle Aspekte eines Such- und Abrufprozesses ab, nämlich Deskriptorextraktion auf niedriger Ebene, Indexierung, Abfrageformulierung, Abruf und Visualisierung der Suchergebnisse. Alle I-SEARCH-Komponenten bringen den Stand der Technik in den entsprechenden wissenschaftlichen Bereichen voran. Die multimodale Suchmaschine I-SEARCH wird dynamisch an die Endgeräte der Endnutzer angepasst, die vom einfachen Mobiltelefon bis zum Hochleistungs-PC reichen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30241-1_12 ed64c4529f61719d4bd2b79e73caab18;de;;;7.3.;;;Onion-Routing-Effizienz für die Web-Anonymisierung in verschiedenen Konfigurationen Die Anonymisierung des Webverkehrs verbirgt den Absender der Webanfrage. Obwohl dies unter bestimmten Umständen erforderlich ist, ist eine solche Funktion nicht im WWW-Dienst enthalten. Die Anonymisierung kann mit verschiedenen kommerziellen und gemeinfreien Tools erreicht werden. Der offensichtliche Nachteil der Anonymisierung ist die erhebliche Verlangsamung des anonymisierten Datenverkehrs im Vergleich zum normalen Datenverkehr. Diese Studie konzentriert sich auf die Messung der Parameter einer solchen Verlangsamung (in Bezug auf Übertragungsgeschwindigkeit und Latenz). Diese Studie basiert auf früheren Studien, die zu dem Schluss kamen, dass TOR (The Onion Routing) das beste verfügbare kostenlose Web-Anonymisierungstool ist. Trotzdem sind die Betriebskosten des TOR in Bezug auf die Erhöhung der Reaktionszeit immer noch zu hoch, daher besteht das Hauptziel dieses Papiers darin, Wege zu finden, wie sie gesenkt werden können. Der umfangreiche Satz von WWW-Seiten und -Dateien wurde gebildet und die Latenz und Reaktionszeit während ihres Downloads sowohl mit Anonymisierung in verschiedenen Konfigurationen als auch ohne diese wiederholt gemessen. Das Ergebnis zeigte, dass es einige Möglichkeiten gibt, die TOR-Effizienz zu verbessern, aber trotzdem sind die Kosten für den normalen Gebrauch immer noch zu hoch.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38865-1_15 c0a619d464c79c7e81c4a12219e9a043;de;;;7.3.;;;XML-Schema mit abgeleiteten Elementen erweitern XML wird zum Standard für die Dokumentbeschreibung, und XML Schema wird als Schemasprache zur Definition des Satzes von Elementen und Attributnamen, die den Inhalt eines Dokuments beschreiben, immer mehr akzeptiert. Diese Arbeit schlägt sowohl ein Wissensmodell als auch ein Ausführungsmodell vor, um das XML-Schema mit abgeleiteten Elementen zu erweitern:;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35614-3_4 ed27707b28ca0a7fa93b9f500211ee61;de;;;7.3.;;;Ein modellbasierter Ansatz für die Entwicklung von Webanwendungen Die zunehmende Größe und Komplexität von Portalen erfordert einen systematischen Weg zur Entwicklung von Webanwendungen, der den hohen Anforderungen sowohl an die Entwicklung als auch an die Wartung dieser Systeme gerecht wird. Um diese Situation zu mildern, wurden modellbasierte Ansätze vorgeschlagen. Diese Ansätze zielen darauf ab, vorzugsweise orthogonale Modelle zu finden, die es Designern ermöglichen, ein bestimmtes Anliegen der Anwendung deklarativ zu spezifizieren, ohne sofort in Details von Implementierungen einzutauchen. Dieses Papier präsentiert;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35658-7_18 0520c4eee03dfda47f74e152cda495d3;de;;;7.3.;;;Verwendung von KNN und SVM-basiertem Ein-Klassen-Klassifikator zur Erkennung von Online-Radikalisierung auf Twitter Twitter ist die größte und beliebteste Microblogging-Website im Internet. Aufgrund der geringen Veröffentlichungsbarriere, der Anonymität und der breiten Verbreitung ist Twitter zu einem einfachen Ziel oder einer Plattform für Extremisten geworden, um ihre Ideologien und Meinungen zu verbreiten, indem sie hasserfüllte und extremismusfördernde Tweets veröffentlichen. Millionen von Tweets werden täglich auf Twitter gepostet und es ist für Twitter-Moderatoren oder einen Geheimdienst- und Sicherheitsanalysten praktisch unmöglich, solche Tweets, Benutzer und Communities manuell zu identifizieren. Die automatische Einteilung von Tweets in vordefinierte Kategorien ist jedoch aufgrund des kurzen Textes des Tweets (die maximale Länge eines Tweets kann 140 Zeichen betragen) und des verrauschten Inhalts (falsche Grammatik, Rechtschreibfehler, Vorhandensein von Standards) ein nicht triviales Problem und nicht standardmäßige Abkürzungen und Slang). Wir fassen das Problem von Hass und Extremismus, das die Tweet-Erkennung fördert, als Ein-Klassen- oder Einklassen-Kategorisierungsproblem ein, indem wir ein statistisches Modell aus einem Trainingssatz lernen, der nur die Objekte einer Klasse enthält . Wir schlagen verschiedene sprachliche Merkmale vor, wie das Vorhandensein von Krieg, religiösen, negativen Emotionen und beleidigenden Begriffen, um Hass und Extremismus zu diskriminieren, die Tweets von anderen Tweets fördern. Wir verwenden einen Einklassen-SVM- und KNN-Algorithmus für eine Einklassen-Klassifikationsaufgabe. Wir führen eine Fallstudie zum Jihad durch, führen eine Charakterisierungsstudie der Tweets durch und messen die Präzision und den Wiedererkennungswert des auf maschinellem Lernen basierenden Klassifikators. Experimentelle Ergebnisse an großen und realen Datensätzen zeigen, dass der vorgeschlagene Ansatz mit einem F-Score von 0,60 bzw. 0,83 für den KNN- bzw. SVM-Klassifikator effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-14977-6_47 bc32562386643337287331b49ea4a1ff;de;;;7.3.;;;Webbasiertes Training metakognitiver Strategien zum Textverstehen: Fokus auf schlechte Verständliche Metakognitive Lesestrategien wurden mit interaktiven webbasierten Tools trainiert und geübt. Zwanzig leseschwache Mittelschüler wurden in zwei metakognitiven Strategien unter Verwendung einer webbasierten Anwendung namens 3D-Reader geschult. Die Schulungstexte waren wissenschaftsorientiert und führten die Genres Erzählung und Darstellung zusammen. Die Ergebnisse eines fächerinternen Designs beantworteten zwei experimentelle Hauptfragen: (1) Wurden größere Verständnisgewinne nach dem Lesen experimenteller Texte mit eingebetteten verbalen (Fragen generieren) und visuellen (Modell erstellen) Strategien im Vergleich zu Kontrolltexten gezeigt? (2) Hatten die eingebetteten Strategien das wahlfreie Wiederlesen der Texte beeinflusst? Die Daten beantworteten beide Fragen bejahend. Das Verständnis, das mit konstruierten Antworten bewertet wurde, war in der experimentellen Bedingung signifikant höher, was die Wirksamkeit des Trainings verbalen und visuellen Strategien in einer webbasierten Umgebung demonstriert. Darüber hinaus entschieden sich die Teilnehmer, im experimentellen Zustand (gemessen an der Anzahl der Klicks zum „ScrollBack“ durch den Text) häufiger erneut zu lesen und demonstrierten damit die Wirksamkeit des Strategietrainings bei der Textaufbereitung. Interessanterweise ist die;-;-;-;https://link.springer.com/article/10.1007/s11145-005-0956-5 62ba0a04bb317331764c83aac039cf3a;de;;;7.3.;;;MI-MERCURY: Eine mobile Agentenarchitektur für den allgegenwärtigen Abruf und die Bereitstellung von Multimediainformationen Das Mining von Multimedia-Informationen im Web ist im Allgemeinen eine mühsame Aufgabe, da (a) Menschen Medieninhalte mit hochrangigen Konzepten wahrnehmen, (b) die Subjektivität und Unbestimmtheit der Inhaltsinterpretation und (c) die Tatsache, dass relevante Daten sind oft in einer riesigen Menge irrelevanter Informationen versteckt. Darüber hinaus erfordert das Liefern und Verteilen der abgerufenen Informationen an eine breite Palette von Endgeräten mit unterschiedlichen Eigenschaften über eine breite Palette von Netzwerken an Benutzer mit unterschiedlichen Präferenzen neue Werkzeuge und Mechanismen für die Inhaltsumwandlung und -anpassung. Andere Probleme betreffen die Sprache, in der die Daten gespeichert werden, die möglicherweise nicht die bevorzugte Sprache des Benutzers ist. Um diese Probleme anzugehen, schlagen wir eine integrierte, rekonfigurierbare, anpassungsfähige und offene Architektur zum Mining, Indexieren und Abrufen von Multimediainformationen basierend auf einem Technologieschema für mobile Agenten vor. Die vorgeschlagene Architektur besteht aus drei integralen Subsystemen: dem Erfassungsmodul, das für das Suchen und Abrufen von Mediendaten (sowohl textuell als auch visuell) verantwortlich ist, dem Transformationsmodul, das in der Lage ist, die gewonnenen Informationen an andere Darstellungsformen anzupassen und umzuwandeln, und das Verteilungsmodul für Liefern und Anpassen der abgerufenen Daten in Bezug auf Endgeräte, Netzwerkkanäle und Benutzerpräferenzen. Das System basiert auf einer rekonfigurierbaren Architektur, die in der Lage ist, die Systemantwort dynamisch und automatisch an die tatsächlichen Bedürfnisse und Vorlieben des Benutzers anzupassen, indem Deskriptorklassen erweitert werden, die von den Benutzern als relevanter angesehen werden. Sowohl bei jedem Systemmodul als auch bei der Systemintegration werden in diesem Beitrag neue innovative Algorithmen vorgestellt. Das System unterstützt effiziente Mechanismen zur Inhaltsanpassung, textuelle und visuelle Zusammenfassung (sowohl sequenziell als auch hierarchisch), automatische Sprachübersetzung, ontologische Darstellung, visuelle Verarbeitung und webbasiertes Data Mining. Es wurden experimentelle Analysen an realen Websites durchgeführt, um die Effizienz des vorgeschlagenen Schemas zu testen und es mit anderen in der Literatur vorgestellten Ansätzen zu vergleichen.;-;-;-;https://link.springer.com/article/10.1007/s11042-007-0153-4 3f5365d582dc87cf174e52234caa2ac9;de;;;7.3.;;;Semantische Destillation: Eine Methode zum Clustern von Objekten anhand ihrer kontextuellen Spezifität Techniken für Data-Mining, latente semantische Analyse, kontextuelle Suche in Datenbanken usw. wurden schon vor langer Zeit von Informatikern entwickelt, die sich mit Information Retrieval (IR) befassen. Experimentelle Wissenschaftler aller Disziplinen, die große Sammlungen experimenteller Rohdaten (astronomische, physikalische, biologische usw.) analysieren müssen, haben leistungsfähige Methoden für ihre statistische Analyse und für das Clustern, Kategorisieren und Klassifizieren von Objekten entwickelt. Schließlich haben Physiker eine Theorie der Quantenmessung entwickelt, die die logischen, algebraischen und probabilistischen Aspekte von Abfragen in einem einzigen Formalismus vereint.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78987-1_39 97c60f8e17376f99d51335317eaecbb1;de;;;7.3.;;;Personalisierte Kursnavigation basierend auf Gray-Relational-Analyse Die Webpersonalisierung hat sich schnell von einer Mehrwerteinrichtung zu einem Dienst gewandelt, der für die Präsentation großer Informationsmengen erforderlich ist, da einzelne Benutzer des Internets unterschiedliche Bedürfnisse und Präferenzen bei der Suche nach Informationen haben. Dieses Papier präsentiert ein neuartiges personalisiertes Empfehlungssystem mit Online-Präferenzanalyse in einer Fernlernumgebung namens;-;-;-;https://link.springer.com/article/10.1007/s10489-005-5598-4 f8a87b836b853f882213a08f65b0fb87;de;;;7.3.;;;Mehrsprachige, Phrasenbasierte Konkordanzgenerierung in Echtzeit Wir präsentieren eine Software, die auf der Grundlage von Internet-Suchvorgängen in Echtzeit Phrasen-basierte Konkordanzen generiert. Wenn ein Benutzer eine Wortfolge eingibt, für die er Konkordanzen finden möchte, sendet das System diese Zeichenfolge als Abfrage an eine Suchmaschine und erhält Suchergebnisse für die Zeichenfolge. Die Konkordanzen werden durch eine statistische Analyse der Suchergebnisse extrahiert und dann an den Benutzer zurückgemeldet. Im Gegensatz zu bestehenden Tools ist dieses Konkordanzberatungstool sprachunabhängig, sodass Konkordanzen auch in einer Sprache erhalten werden können, für die es keine etablierten Analysemethoden gibt. Unsere Auswertung hat ergeben, dass Konkordanzen effektiver gewonnen werden können, als wenn nur eine Suchmaschine direkt verwendet wird.;-;-;-;https://link.springer.com/article/10.1007/s10791-006-9021-5 6c027e54a240de88163f6647191054d5;de;;;7.3.;;;Ein Ansatz für eine fehlertolerante LISP-Architektur Next Generation Internet weist auf die Herausforderung hin, „Dinge“ sowohl in einem Netzwerk mit (drahtgebundener) als auch ohne (drahtlose) Infrastruktur zu adressieren. In diesem Szenario müssen neue effiziente und skalierbare Adressierungs- und Routing-Schemata gesucht werden, da derzeit vorgeschlagene Lösungen aktuelle Skalierbarkeitsprobleme auf der aktuellen globalen Internet-Routing-Tabelle aufgrund von beispielsweise Multihoming-Praktiken kaum bewältigen können. Einer der relevantesten Vorschläge für ein Adressierungsschema ist das Locator Identifier Separation Protocol (LISP), das seinen Hauptvorteil darauf konzentriert, dass es keinen disruptiven Ansatz verfolgt. Dennoch hat LISP gerade in Bezug auf die Erreichbarkeit in den Grenzroutern einige Nachteile. Angesichts dessen schlagen wir in diesem Papier ein Protokoll vor, das sogenannte LISP Redundancy Protocol (LRP), das einen interessanten Ansatz für das Management der Erreichbarkeits- und Zuverlässigkeitsprobleme bietet, die bei einer LISP-Architektur üblich sind, wie z Fehler.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21560-5_28 87538d266e6cf57da4beb2348d2fc2f9;de;;;7.3.;;;Einfluss der kompetitiven Finanzierung auf die wissenschaftlichen Ergebnisse russischer Forscher: Bibliometrische Analyse auf Basis der Web of Science-Datenbank für 2008 Diskutiert wird die Nutzung einer neuen Option der Datenbank Web of Science (WOS), die die Möglichkeit bietet, bibliometrische Statistiken von Fördergebern zu erheben. Die Suchmethode mit dieser Option wird ausführlich beschrieben, ebenso wie Probleme bei der Identifizierung desselben Fonds aufgrund zahlreicher englischsprachiger Versionen seiner Namensschreibweise. Die Analyse von 26500 inländischen Artikeln wurde für das Jahr 2008 mit der Option Research Analysis durchgeführt. Etwa 23,4% (6830) der Artikel wurden von verschiedenen Fonds finanziert, etwa 4600 Artikel wurden von Stipendiaten der Russischen Stiftung für Grundlagenforschung veröffentlicht. Der Wunsch russischer Forscher nach zusätzlichen Finanzierungsquellen und einem breiten Netzwerk internationaler wissenschaftlicher Verbindungen wird durch ihre Beteiligung an zahlreichen ausländischen Organisationen (Fonds, Universitäten und Ministerien) in 72 Ländern während der Durchführung der Forschung belegt.;-;-;-;https://link.springer.com/article/10.3103/S0147688210010119 9671a159f2ed9d8c52e94c5b6478ce72;de;;;7.3.;;;Low-Earth-Orbital-Internet-of-Things-Satellitensystem auf Basis einer verteilten Satellitenarchitektur Die Probleme des Aufbaus des Internet of Things (IoT)-Satellitensystems mit niedriger Erdumlaufbahn (LEO) auf der Grundlage der verteilten Satellitenarchitektur und der Konzeptanwendung Fog Computing wurden berücksichtigt. Es werden die Prinzipien des Orbitalsegments des LEO-Satellitensystems für das Internet der Dinge gezeigt, das Prinzip des verteilten Satelliten mit Mikrosatelliten- und Würfelsatentwicklung, die Methode des kontinuierlichen Servicebereichs des Internet der Dinge-Satelliten für verteilte Satelliten Systemerstellung. Für die Fog-Computing-Realisierung sind Satelliten-Computer in jedem verteilten Satelliten enthalten. Satelliten-Computer bilden das Orbital Distributed Computing Network. Es wurde vorgeschlagen, die verteilte lokalisierte Datenbank auf der Grundlage des Orbital Distributed Computing Network zu platzieren. Die verallgemeinerte Datenbankstruktur und ihr Zweck für konservative und operative Teile wurden definiert. Die Richtwirkung der Datenübertragung durch das Orbitalsegment des LEO IoT-Satellitensystems wurde für das Update des lokalisierten Datenbankbetriebsteils und für den Computational Load Balancing durch das Orbital Distributed Computing Network berücksichtigt. Die Bodeninfrastruktur für die Überwachung und Kontrolle von Orbitalsegmenten wird gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4409-5_27 e0cf41cbfd52080b15e53bc4d783cdbe;de;;;7.3.;;;Sitzungsbezogene SSL/TLS-Benutzerauthentifizierung mit einem GAA-Bootstrapping-Schlüssel Die meisten SSL/TLS-basierten Anwendungen für den elektronischen Handel (E-Commerce) (einschließlich Internet-Banking) sind anfällig für Man-in-the-Middle-Angriffe. Solche Angriffe entstehen, weil Benutzer oft nicht in der Lage sind, einen Server effektiv zu authentifizieren, und weil Benutzerauthentifizierungsmethoden typischerweise von der Einrichtung von SSL/TLS-Sitzungen entkoppelt sind. Das kryptografische Verbinden der beiden Authentifizierungsverfahren miteinander, ein Prozess, der hier als SSL/TLS-Sitzungsbewusste Benutzerauthentifizierung (TLS-SA) bezeichnet wird, ist eine leichte und effektive Gegenmaßnahme. In diesem Whitepaper schlagen wir eine Möglichkeit vor, TLS-SA mithilfe eines GAA-Bootstrap-Schlüssels zu implementieren. Das Schema verwendet ein GAA-fähiges Benutzergerät mit einer Anzeige und einer Eingabefähigkeit (z. B. ein 3G-Mobiltelefon) und einen GAA-fähigen Server. Wir beschreiben eine einfache Instanziierung des Schemas, die den Passwort-Authentifizierungsmechanismus SSL/TLS sitzungsbewusst macht, außerdem beschreiben wir zwei mögliche Varianten, die Kompromisse bei der Sicherheit und Effizienz eingehen. Die Analyse zeigt, dass das System effektiv, sicher und skalierbar ist. Darüber hinaus passt der Ansatz gut zum Szenario mit mehreren Institutionen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21040-2_4 ec88dc72b91b7ef2d4cadfc2fb639a9e;de;;;7.3.;;;Strukturierung japanischer regionaler Informationen aus dem Internet als verknüpfte offene Daten zur Verwendung bei der Besorgnisbewertung Wir entwickeln eine eParticipation-Webplattform auf Basis von Linked Open Data, die auf regionale Gemeinschaften in Japan abzielt. Um die Transparenz und die Beteiligung der Öffentlichkeit zu erhöhen, möchten wir Webinhalte mit Bezug zu den Zielregionen nutzen, um öffentliche Anliegen unter Bürgern, Regierungsbeamten und Experten zu teilen. Wir haben einen Linked Open Data Set namens SOCIA (Social Opinions and Concerns for Ideal Argumentation) entworfen, um regionale Webinhalte (z. Die Webinhalte werden von unserem Text-Mining-System Sophia halbautomatisch nach Regionen und Ereignissen aus Nachrichtenartikeln im Web strukturiert. In SOCIA gespeicherte Protokolle von Stadtratssitzungen werden mit Diskurssalienz versehen, um Themenübergänge in einem Sitzungsprotokoll zu visualisieren. Wir haben auch ein prototypisches System zur Unterstützung von Debatten namens citispe@k entwickelt, das SOCIA nutzt, um Bürgern zu helfen, ihre Bedenken zu teilen. Benutzer können Agenden, Ideen, Fragen und Antworten einreichen, indem sie auf die strukturierten regionalen Informationen in SOCIA verweisen. Darüber hinaus können sie SOCIA-Daten mit Tags versehen, die Kriterien zur Bewertung von Bedenken oder Äußerungsabsichten darstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33250-0_7 de9ea4ab6870aff9c2db7730d28bcc8c;de;;;7.3.;;;CloudDSF – Das Cloud Decision Support Framework für die Anwendungsmigration Die Migration bestehender Anwendungen auf Cloud-Lösungen ist ein mehrdimensionales Problem, das über technische Probleme hinaus in die Bereiche Finanzen, Sicherheit und Organisation geht. Die vorliegenden Arbeiten auf diesem Gebiet zeichnen ein Bild eines reifen, aber noch unvollständigen Forschungsgebiets, das die Einführung umfassender Lösungen für die Migration von Unternehmenssystemen und -anwendungen auf Cloud-Lösungen erfordert. Als Teil dieser Bemühungen konzentrieren wir uns in dieser Arbeit darauf, Entscheidungsträger bei der Bewertung des Migrationsbedarfs zu unterstützen und sie bei den Entscheidungen zu begleiten, die vor dem eigentlichen Migrationsprozess getroffen werden müssen. Zu diesem Zweck bauen wir auf bestehenden Arbeiten auf, um ein ausgearbeitetes Entscheidungsunterstützungs-Framework bereitzustellen, das als Web-Anwendung verfügbar ist. Wir diskutieren die Bewertung des Rahmenwerks durch Experten, identifizieren seine Mängel und skizzieren unsere zukünftigen Schritte. {keywordsAnwendungsmigration, Entscheidungsunterstützung, Entscheidungsvisualisierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44879-3_1 faf4e281a6f2e5e7a0ec8ef6099bc322;de;;;7.3.;;;Bilder des Presseverbands – Herausforderungen beim Abrufen von Bildern Um die potenziellen Vorteile großer Bestände digitaler Bilder, die sowohl öffentlich als auch in privaten Sammlungen verfügbar sind, zu maximieren, sind intelligente Informationsabrufsysteme erforderlich. Leider verlassen sich die meisten Bildsuchmaschinen auf die Freitextsuche, die oft nicht relevante Ergebnisse zurückgibt, basierend auf dem Vorkommen von Suchbegriffen im Begleittext der Bilder, die nur auf lexikalischer und nicht auf semantischer Ebene abgeglichen werden. In diesem Kapitel berichten wir über die laufende Arbeit bei Press Association Images zum Aufbau einer semantisch aktivierten Bildannotations- und -abruf-Engine, die auf methodisch strukturierten Ontologien für die Bildannotation beruht und so eine intelligentere Schlussfolgerung über den Bildinhalt ermöglicht und somit den Endbenutzer verbessert Browsing-Erlebnis.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15181-1_25 f436dcba4ce8c4d22cbd6b62e4e5af32;de;;;7.3.;;;SYSTRAN auf AltaVista Eine Benutzerstudie zur maschinellen Echtzeitübersetzung im Internet Am 9. Dezember 1997 starteten SYSTRAN und das AltaVista Search Network den ersten weit verbreiteten, kostenlosen und schnellen Echtzeit-Übersetzungsdienst im Internet. Dieser erste Einsatz, der als globales Experiment behandelt wird, hat sich zu einem enormen Erfolg entwickelt. Durch diesen Service ist die Technologie der maschinellen Übersetzung (MT) in den Vordergrund des weltweiten Bewusstseins gerückt. Neben der wachsenden Medienberichterstattung war die Reaktion der Nutzer in den ersten fünf Monaten überwältigend. Dieses Papier ist eine Studie des Benutzerfeedbacks aus der Perspektive der MT-Entwickler und befasst sich mit Fragen wie: Wer sind die Benutzer? Was sind ihre Bedürfnisse? Wie ist ihre Akzeptanz von MT? Welche Arten von Texten werden übersetzt? Welche Vorschläge bieten Nutzer an? Schließlich skizziert dieses Papier unsere Sicht auf Chancen und Herausforderungen und wie wir dieses Feedback nutzen können, um zukünftige Entwicklungsprioritäten zu leiten.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-49478-2_25 bfec3b31d3dffa7e3daec22d87d7c6e3;de;;;7.3.;;;Auf Fakten basierende Medizin Ein 59-jähriger Mann stellt sich in Ihrer Praxis mit einer 4-wöchigen Anamnese von intermittierenden substernalen Brustbeschwerden bei Anstrengung, ohne Strahlung und durch Ruhe gelindert vor. Jede von mehreren Episoden dauerte nicht länger als 5 Minuten. Er war in einem guten allgemeinen Gesundheitszustand, hatte keine Vorgeschichte von Brustschmerzen, Bluthochdruck, Diabetes oder schweren Krankheiten. Er ist Nichtraucher und nimmt keine Medikamente. Die Familienanamnese zeigt, dass sein Vater im Alter von 73 Jahren starb, wahrscheinlich an einem Herzinfarkt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0069-4_6 e4d544bbeae00741ccdba4e45f3ff30d;de;;;7.3.;;;Von der digitalen Erde zur intelligenten Erde In diesem Artikel werden die Errungenschaften des Konzepts der digitalen Erde analysiert und zwei Schlüsseltechnologien vorgestellt, das Internet der Dinge und Cloud Computing. Beide Technologien beschleunigen die Entwicklung der digitalen Erde hin zu einem neuen Konzept – der intelligenten Erde. Ziel dieses Artikels ist es, Architektur, Infrastruktur und typische Anwendungen für Smart Earth zu diskutieren und Trends der Entwicklung von der Digital Earth zu Smart Earth herauszuarbeiten.;-;-;-;https://link.springer.com/article/10.1007/s11434-013-0100-x 19b19959dd0212de4ab8cb15b07e4484;de;;;7.3.;;;Ein kollaboratives Bildungs-IS basierend auf WWW Computer Aided Education (CAE) ist eine der wichtigsten Anwendungen der Informationstechnologie (IT). Das Internet und das World Wide Web (WWW) haben diesem Bereich einen breiteren Kontext gegeben, der bereits viel Aufmerksamkeit auf sich gezogen hat. In den frühen 1990er Jahren wurden die Konstruktive Bildungstheorie und die Kollaborative Pädagogik eingeführt, die den schülerzentrierten Unterricht betonen. Die Integration der beiden hat zu flexibleren bildungsorientierten Informationssystemen (IS) geführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35347-0_16 e85fdd607bc4da1934977b80f0893a17;de;;;7.3.;;;Entdecken von Kalligraphie-Stil-Beziehungen durch Supervised Learning Weighted Random Walk Model Chinesische Kalligraphie ist ein wichtiger Teil der traditionellen chinesischen Kultur. Immer mehr kalligrafische Werke werden digitalisiert, konserviert und in digitalen Bibliotheken ausgestellt. Benutzer möchten vielleicht die stilähnlichen Werke gleichzeitig schätzen. Jedoch können derzeit verfügbare Dienste, wie etwa auf Metadaten basierendes Browsen und Suchen, diese Art von Anforderung nicht erfüllen. Um es den Benutzern zu ermöglichen, die stilähnlichen Werke bequem zu schätzen, schlagen wir ein gewichtetes Random-Walk-Modell mit überwachtem Lernen vor, um Kalligraphie-Stilbeziehungen zu entdecken. Im Modell betrachten wir die Heterogenität von Kanten und Knoten und verwenden dann einige Präferenzpaare, um die Gewichte verschiedener Kantentypen im Graphen zu lernen. Nach dem Gewichtungslernen können die Stilbeziehungen durch Random Walk auf den heterogenen Graphen entdeckt werden. Um die zu lösen;-;-;-;https://link.springer.com/article/10.1007/s00530-008-0151-z 9384cfb0c3d3aecc35e6c537069abbf7;de;;;7.3.;;;Eine skalierbare und verteilte NLP-Architektur für die Annotation von Webdokumenten Im Rahmen des ALVIS-Projekts, das darauf abzielt, sprachliche Informationen in themenspezifische Suchmaschinen zu integrieren, entwickeln wir eine NLP-Architektur, um große Sammlungen von Webdokumenten sprachlich annotieren zu können. Dieser Kontext führt uns zum Aspekt der Skalierbarkeit der Verarbeitung natürlicher Sprache. Die Plattform kann als Framework unter Verwendung vorhandener NLP-Tools betrachtet werden. Wir konzentrieren uns auf die Effizienz der Plattform, indem wir die sprachliche Verarbeitung auf mehrere Maschinen verteilen. Wir führen ein Experiment mit 55.329 Webdokumenten mit dem Schwerpunkt Biologie durch. Diese 79 Millionen Wörter umfassenden Sammlungen von Webdokumenten wurden in 3 Tagen auf 16 Computern verarbeitet.;-;-;-;https://link.springer.com/chapter/10.1007/11816508_8 ed075dbc3e81996d484f654fce4854bb;de;;;7.3.;;;Interoperabilitätsbeschreibung von Webservices-basierten Anwendungsservern Webservice-Standards wurden entwickelt, um die Interoperabilität heterogener Anwendungsserver in der serviceorientierten Architektur zu ermöglichen. Obwohl sich die Standards als sehr erfolgreich erwiesen haben, gibt es immer noch Schwierigkeiten bei der effektiven Integration von Diensten. Das Papier stellt eine Methodik vor, die eine Beschreibung der Interoperabilität von Anwendungsservern ermöglicht, um den Dienstintegrationsprozess zu verbessern. Die Methodik schlägt eine systematische Klassifizierung von Webservice-Standards, -Versionen und -Konfigurationsoptionen vor und verwendet die Klassifizierung für die Interoperabilitätsbewertung. Konkrete Integrationen werden von Entwicklern bewertet, die den Integrationsumfang, die Konfigurationskomplexität und das erforderliche Fachwissen angeben. Die Methodik wurde in ein Websystem implementiert, das die Definition von Standards und Konfigurationsmöglichkeiten sowie die Bewertung von Integrationen ermöglicht. Im Rahmen der Forschung wurden Interoperabilitätsexperimente durchgeführt und im System registriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32808-4_30 7fed61a241a09dd20e1adcee486e4b2d;de;;;7.3.;;;Simple Mail Delivery Protocol In diesem Papier schlagen wir eine benutzerbasierte Architektur für das E-Mail-System vor, bei der der Empfänger einer E-Mail-Nachricht ihren Empfang in Verbindung mit sowohl dem Ursprungs- als auch dem Ziel-E-Mail-Server verwaltet. Nachrichten werden auf dem Ursprungs-E-Mail-Server aufbewahrt, bis eine Bestätigung vom Empfänger über den Ziel-E-Mail-Server ausgegeben wird. Daher wandern Spam-E-Mails nicht durch das Internet und überlasten den Ziel-E-Mail-Server und das Postfach des Empfängers nicht. White- und Blacklists für (Absender, E-Mail_Server)-Paare werden nach der Benutzerbewertung automatisch erstellt. Mit unserem Vorschlag wird die volle Kontrolle über die E-Mail-Aktivität an den Empfänger delegiert. Auf der Serverseite verwaltet das Simple Mail Delivery Protocol (SMDP) die E-Mail-Zustellung und -Optionen. Der SMDP-Server fungiert als Gateway zum Versenden von E-Mails, als Repository für die Postfächer der Benutzer und als zentraler Punkt für die Verwaltung von Benutzeroptionen in Bezug auf E-Mail-Filterung und Spam-Behandlung. Die Lösung eignet sich für die Bearbeitung von Gruppen-/Geschäfts-E-Mails.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37437-1_9 92cbc5e5075aa7f8cd2b8283c9219aad;de;;;7.3.;;;Fallstudie zu Responsive Webdesign: Pragmatischer Agile- und Hero-Team-Ansatz – Zeit- und Kosteneinsparungen durch Qualitätsverbesserung Es gab eine Anfrage, weitere Forschungsergebnisse zu den geschäftlichen Auswirkungen der agilen Einführung in Softwareteams zu veröffentlichen. Dies ist eine empirische Studie, die in einem Fortune-500-Unternehmen durchgeführt wurde, bei dem Agilität angewendet wurde, während das Team daran arbeitete, um ein Produkt bereitzustellen, das aus responsivem Webdesign besteht. Die Einführung führte zu einem pragmatischen agilen Ansatz, bei dem sich herausstellte, dass der Agilitäts- und Hero-Team-Ansatz zu erheblichen Einsparungen sowohl bei den Anstrengungen zur Herstellung des Produkts als auch bei der Qualität des gelieferten Produkts führte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-44930-7_7 4c17aca8247b77ebd2f3a3afc6452d2c;de;;;7.3.;;;Das Design und die Implementierung einer semantischen Web-basierten Architektur für Augmented Reality Browser Durch die Verbreitung von Smartphones haben sich Augmented Reality-Anwendungen heutzutage immer weiter verbreitet. Insbesondere Augmented Reality-Browser erfreuen sich innerhalb dieser Anwendungen großer Beliebtheit. Die physische Umgebung könnte mit diesen Browsern um ortsbezogene Zusatzinformationen erweitert werden. Derzeit wird von den aktuellen Augmented-Reality-Browsern typischerweise eine bestimmte Datenquelle verwendet, auch wenn eine enorme Menge an verfügbaren Datenquellen vorhanden ist. Das Semantic Web könnte helfen, dieses Problem zu überbrücken. Das Ziel dieser Arbeit ist die Kombination von Augmented Reality und Semantic Web Technologien, um die bestehenden mobilen Augmented Reality Browser mit Semantic Web Technologien zu erweitern. Dazu nutzen wir unter anderem die Vorteile der Semantic-Web-Technologien wie Datenintegration, einheitliches Datenmodell sowie öffentlich zugängliche semantische Datenquellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-18818-8_46 33d0d9e8a42f2e9a9fe27b7c96e12a96;de;;;7.3.;;;E-MuniS — Elektronische kommunale Informationsdienste - Best Practice Transfer and Improvement Project: Projektansatz und Zwischenergebnisse Das E-Munis (Elektronischer Municipal Information Services - Best Practice Transfer und Improvement) Projekt hat zum Ziel, die besten Praktiken der Europäischen Union Gemeinden in Bezug auf die Nutzung der Informationstechnologie in der kommunalen Verwaltung Arbeitsabläufe und Dienstleistungen für die Bürger zu verbessern und diese Ergebnisse nach Süd zu übertragen -Eastern europäische Kommunen insbesondere aus der Balkan-Region damit es in die EU kommunalen Netzwerk zu integrieren. Das Projektkonsortium umfasst als Teilnehmer Paare der lokalen Gemeinde-IT-Unternehmen Partnerschaften aus EU-Ländern und aus den Ländern Südosteuropas. Innerhalb der Projektlösungen für ein E-Gemeinde Büro (als Backoffice-System) und Prototypen von E-Service für Bürger und Unternehmen (als Front-Office-System) entwickelt und umgesetzt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-46138-8_32 0f6aa0984776947ffb0b3ff3e0472ede;de;;;7.3.;;;Netzwerke zum Teilen und Verbinden Die Vernetzung ermöglicht die notwendige Konnektivität zwischen Geräten über kleine, lokale bis große Entfernungen, indem rechtzeitige und geeignete Technologien für die Festnetz- und Mobilfunkkommunikation bereitgestellt werden. Wir beschreiben die Entwicklung von lokalen und Weitverkehrsnetzen, die von Computern angetrieben werden, und heben die Verwendung der Internetprotokoll-Suite für den Erfolg und den Durchbruch des Internets hervor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-61161-7_5 77d155f79b5c75aa9dd6810fe18cdd06;de;;;7.3.;;;Realisierung einer interoperablen Infrastruktur für elektronische Geschäftssysteme und lokale Verwaltungssysteme Web Services und verwandte Open-Standard-Technologien sind Schlüsseltechnologien für die Systeminfrastruktur in Industriesystemen und lokalen Regierungssystemen. Es gibt viele Projekte, die diese Technologien in den lokalen Regierungssystemen und auch in B2B-Systemen in verschiedenen Branchen übernommen haben. Wir haben festgestellt, dass eine der wichtigsten Voraussetzungen für die Förderung dieser Standards in der Industrie das Pull-Messaging für Client/Server-Systeme ist, da sich viele kleine und mittlere Unternehmen keine Serversysteme leisten können. Um dies zu erreichen, haben wir die Pull-Messaging-Spezifikation als Teil der ebXML (Electronic Business using eXtensible Markup Language) Messaging Services Specification Version 3.0 mit Eingaben von Branchenanforderungen standardisiert. Wir haben auch ein Konformitätstesttool und zusätzliche Testzusicherungen für ebMS3.0 entwickelt, um eine interoperable Implementierung für ebMS3.0 zu fördern, und Interoperabilitätstests durchgeführt. Bei dieser Erfahrung haben wir Interoperabilitätsprobleme bei Open Source festgestellt. Wir werden dieses Problem weiter untersuchen und weiterhin Feedback zu Implementierungen und Prototypen geben. Wir glauben, dass diese Erfahrung mit der Pull-Messaging-Technologie in Zukunft für lokale Regierungssysteme wertvoll sein wird, wenn sie ihre Infrastruktur erweitern, um sich mit mittleren und kleinen Einheiten zu verbinden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-85691-9_29 9b8997fa5f6483158367083add0a6208;de;;;7.3.;;;Authentifizierung und Autorisierung in Webdiensten In diesem Papier geben wir den Entwurf eines Sicherheitsmodells, das die grundlegenden Module kapselt, die für die Absicherung des Zugriffs auf einen Webservice benötigt werden, nämlich Authentifizierung und Autorisierung. Unser Modell basiert auf WS-Security-Standards und einer weiteren Anwendungsschicht-Technologie, nämlich dem „Lightweight Directory Access Protocol“. Wir implementieren und testen das Modell auch und stellen verschiedene Testfallszenarien bereit. Darüber hinaus wird eine Leistungsbewertung durchgeführt, um die Bedenken hinsichtlich Sicherheitsengpässen und Overheads zu reduzieren. Abschließend beleuchten wir einige Vor- und Nachteile unseres Modells.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22185-9_2 4848aa92a54b9b67c35cf9f57bea8dbf;de;;;7.3.;;;Ein wettbewerbsorientiertes Informationsempfehlungssystem und sein Verhalten Informationsempfehlungssysteme lenken die Aufmerksamkeit von Praktikern im elektronischen B-to-C-Handel. In einem unabhängigen Empfehlungssystem wie www.amazon.com kann ein Benutzer die empfohlenen Artikel nicht mit denen aus anderen Informationsquellen vergleichen. In einem Makler-vermittelten Empfehlungssystem wie in www.dealtime.com ergreift der Makler die Empfehlungsinitiative, und der Informationsanbieter kann seinen Artikel dem Benutzer nicht direkt empfehlen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45741-0_13 0b6e49a0e6d46939262875227af9d461;de;;;7.3.;;;Hebräische Computerlinguistik: Vergangenheit und Zukunft Dieser Artikel gibt einen Überblick über den aktuellen Stand der Technik in der natürlichen Sprachverarbeitung für Hebräisch, sowohl theoretisch als auch praktisch. Die hebräische Sprache stellt, wie andere semitische Sprachen, besondere Herausforderungen an die Entwickler von Programmen für die Verarbeitung natürlicher Sprache: das Schriftsystem, die reiche Morphologie, der einzigartige Wortbildungsprozess von Wurzeln und Mustern, das Fehlen linguistischer Korpora, die den Sprachgebrauch dokumentieren, alle tragen dazu bei, computergestützte Ansätze für Hebräisch herausfordernd zu machen . Der Aufsatz gibt einen kurzen Überblick über das Gebiet der Computerlinguistik und die darin behandelten Probleme, beschreibt die besonderen Schwierigkeiten, die dem Hebräischen (wie auch anderen semitischen Sprachen) innewohnen, gibt einen Überblick über eine Vielzahl vergangener und laufender Arbeiten und versucht, zukünftige Bedürfnisse und mögliche Lösungen zu charakterisieren.;-;-;-;https://link.springer.com/article/10.1023/B%3AAIRE.0000020865.73561.bc 7d925078a3f90ab3b32f96773b8b3120;de;;;7.3.;;;Überlegungen zur Implementierung von E-Health-Anwendungen Angesichts des explodierenden Verkehrsvolumens und der steigenden Dienstgüte-(QoS-)Anforderungen von aufkommenden e-Health-Anwendungen wurden umfangreiche Forschungen durchgeführt, um verschiedene Probleme der QoS-Parameter bezüglich des Internets und der Telekommunikationsnetze anzugehen. Im Umgang mit E-Health-Anwendungen sollten wir aufgrund ihres Zusammenhangs mit der Gesundheit des Menschen über eine qualifizierte Infrastruktur und Kommunikationsnetze verfügen, die in der Lage sind, Daten fehlerfrei und pünktlich zu liefern. Es sollte Mindestschwellenwerte für diese Parameter wie Bandbreite und Latenz geben, um die Genauigkeit der Ergebnisse von E-Health-Anwendungen sicherzustellen. Der Einfluss von QoS-Schlüsselparametern auf die erfolgreiche Implementierung verschiedener E-Health-Anwendungen wird untersucht. Ziel ist es, eine Kulisse für Entscheidungsfindung und E-Health-Anwendbarkeit zu schaffen. Eine vierstufige ordinale Skalierungsmethode wird verwendet, um den Wichtigkeitsgrad jedes QoS-Bereichs im e-Health-Bereich als niedrige, mäßige, hohe und sehr hohe Bedeutung aufzuzeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69139-6_212 9d02d995565bbea5d0d41032f3165dba;de;;;7.3.;;;Lernmethoden für Graphmodelle der Dokumentstruktur Dieses Kapitel konzentriert sich auf die strukturbasierte Klassifizierung von Websites nach Hypertexttyp oder Genre. Eine Website besteht in der Regel aus mehreren Webseiten. Seine Struktur wird durch ihre Hyperlinks gegeben, die zu einem gerichteten Graphen führen. Um den logischen Aufbau einer Website darzustellen, wird die zugrundeliegende Graphenstruktur als sogenanntes;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22613-7_14 1c94cbf4cfef076b0ade5d2660b1e776;de;;;7.3.;;;Ein REST-basiertes industrielles Web-of-Things-Framework für Smart Warehousing Es wird eine weborientierte Architektur unter Verwendung des REST-Frameworks vorgeschlagen, um es Warehouse-Objekten zu ermöglichen, über das Web zu kommunizieren. Bei dem vorgeschlagenen Mechanismus besteht das Smart Warehouse aus einem Datenerfassungsmodul und einem Verwaltungsmodul. Erstere umfasst eine Sammlung von Hochfrequenz-Identifikationssensoren zum Lesen von RFID-Tags der Produkte, drahtlose Sensoren zur Betriebsdatenerfassung und die Aktoren. Es ist für den Datenerfassungsprozess der im Lager gelagerten Produkte und Waren sowie für die Erfassung der Betriebsparameter wie Temperatur, Feuchtigkeit, Luftqualität und Druck verantwortlich. Letzteres fungiert als Gehirn des Smart Warehouse, indem es Daten verarbeitet, Daten organisiert, Ereignisse generiert und Aktionen ausführt. Dem Lagerbenutzer wird die Umgebung zur Verfügung gestellt, um die Funktionalität verschiedener Sensoren, Dinge, Geräte und HAVC-Lagersysteme über das Web zu steuern. Ein Ereignisentscheidungssystem wird auf der Webarchitektur aufgebaut, um die Echtzeitverarbeitung der Sensoren, Dinge usw. zu steuern. In der vorgeschlagenen Architektur besteht das Smart Gateway aus zwei Schichten, nämlich dem Transportmodul (TM) und dem Gerätedienstmodul ( DSM). Die Kombination von TM und DSM bildet den Gerätecontroller für eingebettete Geräte, die mit proprietären Protokollen arbeiten. Das vorgeschlagene System wird in verschiedenen Szenarien im Zusammenhang mit Erkennungszeit, Reaktionszeit und Übertragungsfehlern simuliert und bewertet. Seine Wirkung zeigt sich in Form einer verbesserten Leistung des Lagers in schneller Interaktion und auch in hoher Genauigkeit.;-;-;-;https://link.springer.com/article/10.1007/s11227-016-1937-y 9fe4df10e63cceee3a25f46a6e123830;de;;;7.3.;;;Anerkennung der Homepage chinesischer Expertenorganisationen basierend auf Co-EM Konzentriert auf das Problem zahlreicher Kennzeichnungsarbeiten auf der Experten-Homepage im Verfahren der chinesischen Experten-Homepage-Erkennung, wird in diesem Beitrag eine Methode zur chinesischen Experten-Homepage-Erkennung basierend auf dem Co-EM vorgeschlagen. Im Einzelnen sammeln Sie zunächst die Namen der chinesischen Expertenorganisationen und der entsprechenden Webseiten und beschriften dann eine kleine Anzahl von Webseiten. Zweitens extrahieren Sie für chinesische Entitätsmerkmale die Hyperlink-Features und die Webseiteninhalts-Features als zwei unabhängige Feature-Sets. Drittens: Trainieren Sie den Hyperlink-Klassifizierer unter Verwendung des Hyperlink-Merkmalssatzes und beschriften Sie alle Homepages der Expertenentität, und trainieren Sie dann den Inhaltsklassifikator unter Verwendung des Webseiteninhalts-Merkmalssatzes und der Labels, die durch den Hyperlink-Klassifizierer gekennzeichnet wurden. Verwenden Sie die Labels, die vom Inhaltsklassifikator gekennzeichnet wurden, um den Hyperlink-Klassifizierer zu aktualisieren. Wiederholen Sie den Vorgang, bis die beiden Klassifikatoren konvergieren. Schließlich wurden Experimente mit der Methode der 10-fachen Kreuzvalidierung durchgeführt. Die Ergebnisse zeigen, dass das auf dem halbüberwachten Algorithmus von Co-EM basierende Verfahren die unbeschrifteten Webseiten effektiv nutzen kann und die Erkennungsgenauigkeit im Vergleich zur alleinigen Verwendung der beschrifteten Webseiten erhöht wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23982-3_22 74b0bc1b3179f513235a56afb628a75b;de;;;7.3.;;;Dynamische Anpassungsstrategien für langfristige und kurzfristige Benutzerprofile zur Personalisierung der Suche Neuere Studien zur personalisierten Suche haben gezeigt, dass Nutzerpräferenzen implizit erlernt werden können. Soweit uns bekannt ist, vernachlässigen diese Studien jedoch, dass sich die Präferenzen der Nutzer im Laufe der Zeit wahrscheinlich ändern. Dieses Papier stellt ein adaptives Schema vor, um die Änderungen der Benutzerpräferenzen aus den Klickverlaufsdaten zu lernen, und einen neuartigen Rangmechanismus, um die Suchergebnisse jedes Benutzers zu beeinflussen. Wir schlagen unabhängige Modelle für langfristige und kurzfristige Benutzerpräferenzen vor, um unser Benutzerprofil zu erstellen. Das vorgeschlagene Benutzerprofil enthält eine taxonomische Hierarchie für das Langzeitmodell und einen kürzlich besuchten Seitenverlaufspuffer für das Kurzzeitmodell. Dynamische Anpassungsstrategien werden entwickelt, um die Akkumulation und Verschlechterung von Benutzerpräferenzen zu erfassen und den Inhalt und die Struktur des Benutzerprofils an diese Veränderungen anzupassen. Experimentelle Ergebnisse zeigen, dass unser Schema effizient ist, um das aktuelle Benutzerprofil zu modellieren, und dass der auf diesem Schema basierende Rangmechanismus Websuchsysteme dabei unterstützen kann, angemessene Ergebnisse in Bezug auf die Benutzerzufriedenheit zu liefern, was einen Durchschnitt von 29,14 % ergibt Verbesserung gegenüber den verglichenen Rangmechanismen in Experimenten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72524-4_26 9b4fec58e51dd41e07db8a00f61c66fa;de;;;7.3.;;;Wirkung der Weltraumgeometrie über das Internet als physikalisch-logisches, voneinander abhängiges Netzwerk In diesem Artikel untersuchen wir die Robustheit des Internets bei Ausfällen von physischen Knoten, da die physische Schicht über Räume mit Geometrie-/Formbeschränkungen aufgebaut ist. Dies ist von besonderem Interesse für Länder, die anfällig für Naturkatastrophen sind, sowie für lange und enge Geographien wie Chile und Japan. Wir modellieren das Internet als ein interdependentes Netzwerk, das aus der physikalischen Schicht des Internets (Internet-Backbone) und der logischen Schicht des Internets (Autonomous System Level Network) gekoppelt ist. Hier wird die Robustheit getestet, indem die Anzahl der funktionalen Knoten im logischen Netzwerk gemessen wird, nachdem physische Knoten zufällig entfernt wurden. In dieser Arbeit haben wir sechs verschiedene räumlich eingeschränkte Netzwerkmodelle getestet, um die physikalische Schicht des Internets zu generieren (Yao-Graphen, geometrische bevorzugte Befestigung, Erdős-Rényi,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-38965-9_15 8a74881b5348890d52bc0a8738ccbba4;de;;;7.3.;;;Verlässlicher und flexibilitätszentrierter Ansatz für die Modellierung von Composite Web Services Das Interesse am Thema der Zusammensetzung von Web Services (WS) ist enorm gewachsen. Es wird erwartet, dass es in naher Zukunft einen regelrechten Wandel in der Geschichte des verteilten Rechnens bewirken wird, indem die serviceorientierte Architektur (SOA) Wirklichkeit wird. Doch der Weg vor uns ist noch lang. Eine sorgfältige Untersuchung eines Großteils der bisher vorgeschlagenen Lösungen zeigt, dass sie einem Workflow-ähnlichen Kompositionsansatz folgen und Misserfolge als Ausnahmesituationen betrachten, die nicht im Vordergrund stehen müssen. In diesem Papier behaupten wir, dass die Befolgung dieser Annahmen im WS-Bereich die Chancen, ein hohes Zuverlässigkeitsniveau zu erreichen, entscheidend einschränken und die Flexibilität erheblich beeinträchtigen kann. Motiviert durch diese Argumente schlagen wir einen WS-Kompositionsmodellierungsansatz vor, der die Unvermeidlichkeit von Fehlern akzeptiert und die Komposition mit Konzepten anreichert, die Flexibilität und Zuverlässigkeit hinzufügen können, aber nicht Teil der WS-Architektursäulen sind, nämlich der Zustand, das Transaktionsverhalten, die Vitalität Grad und die Fehlerbeseitigung. Darüber hinaus beschreiben wir eine WS-Komposition in Form von Definitionsregeln, Kompositionsregeln und Ordnungsregeln und führen eine grafische und eine formale Notation ein, um sicherzustellen, dass eine WS-Komposition einfach und dynamisch an die Anforderungen einer sich ständig ändernden . angepasst werden kann Umgebung. Unser Ansatz kann als eine höhere Abstraktionsebene vieler aktueller Lösungen angesehen werden, da er diese um die erforderliche Unterstützung erweitert, um eine höhere Flexibilität, Zuverlässigkeit und Aussagekraft zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/11914853_11 eca800e177098d262fbf4a3518fa3d02;de;;;7.3.;;;Eine Taxonomie der forensischen Tools von Cloud Endpoint Auf Cloud-Computing-Dienste kann über Browser oder Client-Anwendungen auf vernetzten Geräten wie Desktop-Computern, Laptops, Tablets und Smartphones zugegriffen werden, die im Allgemeinen als Endgeräte bezeichnet werden. Für forensische Untersuchungen relevante Daten können auf Endgeräten und/oder bei Cloud-Dienstleistern gespeichert werden. Wenn von einem Endgerät auf Cloud-Dienste zugegriffen wird, werden mehrere Dateien und Ordner auf dem Gerät erstellt, auf die Daten kann ein digitaler forensischer Ermittler mit verschiedenen Tools zugreifen. Ein Ermittler kann auch eine Anwendungsprogrammierschnittstelle verwenden, die von einem Cloud-Dienstanbieter zur Verfügung gestellt wird, um forensische Informationen aus der Cloud zu erhalten, die sich auf Objekte, Ereignisse und Dateimetadaten beziehen, die einem Cloud-Benutzer zugeordnet sind. In diesem Kapitel wird eine Taxonomie der forensischen Tools vorgestellt, die zum Extrahieren von Daten von Endpunktgeräten und von Cloud-Dienstanbietern verwendet werden. Die Tool-Taxonomie bietet Ermittlern einen leicht durchsuchbaren Katalog von Tools, die ihre technischen Anforderungen bei Cloud-forensischen Untersuchungen erfüllen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99277-8_14 a9726cf0f8b393bfc4c3eea604fed835;de;;;7.3.;;;Quo Vadis Smart Surveillance? Wie intelligente Technologien die demokratische Aufsicht kombinieren und in Frage stellen „Smart“ scheint der neue Standard für Überwachungstechnik geworden zu sein. Intelligente Überwachung verspricht weniger Personal, eine größere Abdeckung und höhere Erkennungsraten. Dieser Artikel untersucht die Wurzeln dieser Entwicklung durch die Linse aktueller und aufkommender Technologien. Basierend auf der Überprüfung und Analyse von wissenschaftlichen Artikeln, politischen Dokumenten und Berichten, Presseberichten und Forschungsprojekten identifizieren wir die verschiedenen Arten von Überwachungstechnologien, die heute in unserer Gesellschaft vorherrschen und in naher Zukunft aufkommen. Unsere Analyse zeigt, wie sowohl aktuelle als auch neue Technologien zunehmend in Assemblagen organisiert werden – „intelligente Überwachungssysteme“, bei denen einzelne Überwachungstechnologien und lokale Systeme integriert, multimodal, automatisiert, allgegenwärtig und zunehmend von der Öffentlichkeit akzeptiert werden. Dabei stellen sie Vorstellungen von Zustimmung und demokratischer Kontrolle in Frage.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7540-4_9 751ef70fb6f8850627f01557a4c8b86e;de;;;7.3.;;;Tracking-System für neue Themen Aufgrund seiner offenen Eigenschaft wird das Web dynamisch mit einer großen Menge neuer Informationen gepostet. Folglich werden in jedem Informationsbereich jederzeit heiße Themen auftauchen, die die Benutzer interessieren könnten. Es ist jedoch für Benutzer nicht praktikabel, ständig im Internet nach Updates zu suchen. Daher benötigen wir dieses Emerging Topic Tracking System (ETTS) als Informationsagent, um die Veränderungen im Informationsbereich von unserem Interesse zu erkennen und von Zeit zu Zeit eine Zusammenfassung der Veränderungen an uns zu erstellen. Diese Zusammenfassung der Änderungen wird die neuesten am häufigsten diskutierten Themen sein und kann ein neues Thema aufdecken.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45490-X_13 9ddc2611bdb415f4368b5ab5b11890fa;de;;;7.3.;;;Mobile Botnet-Erkennung mit Netzwerkforensik Schädliche Software (Malware) infiziert eine große Anzahl von Computern auf der ganzen Welt. Diese Malware kann verwendet werden, um unerwünschte Produkte zu bewerben, anstößige Inhalte zu verbreiten oder unbefugten Zugriff auf persönliche und finanzielle Informationen zu ermöglichen. Bis vor kurzem waren Mobilfunknetze relativ vom Internet abgeschottet, sodass sie kaum vor Botnets geschützt werden mussten. Mobilfunknetze sind inzwischen gut in das Internet integriert, sodass Bedrohungen im Internet wie Botnets begonnen haben, auf Mobilfunknetze zu migrieren. Botnets auf mobilen Geräten werden wahrscheinlich sehr bald auftauchen, es gibt bereits Anzeichen dafür. Dieser Artikel untersucht die potenzielle Bedrohung durch Botnets basierend auf mobilen Netzwerken und schlägt den Einsatz von Computer-Intelligenz-Techniken vor, um Botnets zu erkennen. Anschließend simulieren wir die Anomalieerkennung, gefolgt von einer Interpretation der simulierten Werte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15877-3_7 3e645394641c13f9127ffa67d88b6b46;de;;;7.3.;;;Inhaltsbasierter Videoabruf anhand eines Beispielclips im WWW Das Ähnlichkeitsmaß zweier Videoclips ist ein Schlüsselproblem beim Videoabruf. Bei der Entwicklung unseres WWW-orientierten Video-Retrieval-Systems schlagen wir ein neues Modell der Videoähnlichkeit vor. Im Vergleich zu bestehenden Algorithmen schlägt es viele Einflussfaktoren wie Ordnungsfaktor, Geschwindigkeitsfaktor, Störfaktor usw. auf der Grundlage der menschlichen Subjektivität in der visuellen Beurteilung vor. Somit verkörpert dieser Algorithmus den Ähnlichkeitsgrad vollständig und systematisch. Andererseits verfügt es über eine Auflösungsanpassung, da es auf jede Ebene der Videostruktur angewendet werden kann. Im Retrievalsystem wird es verwendet, um die Videoabfrage nach Beispielclip im World Wide Web zu verarbeiten. Dieses Papier stellt diesen Algorithmus im Detail vor und präsentiert die experimentellen Ergebnisse am Ende des Papiers.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-6771-7_7 bbc2b68711d53943c7f596f001382ab8;de;;;7.3.;;;Die Zukunft des World Wide Web? Das Web begann als einfaches und sehr benutzerfreundliches verteiltes System, das schnell angenommen wurde. Die Webprotokolle durchliefen dann eine Phase der Rationalisierung und Entwicklung, um Inhalte von der Präsentation zu trennen, um die Wiederverwendbarkeit von Inhalten auf verschiedenen Geräten zu fördern. Heutzutage adressieren die Entwicklungen der Web-Technologien neue Möglichkeiten in Web Services und im Semantic Web sowie die wachsende kulturelle Vielfalt des Webs. Diese Entwicklungen vereinen sich in der Ausgabe von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27811-5_2 4ee7b6df85257bc8dbeff922e8103714;de;;;7.3.;;;Webanwendungen und Maven In diesem Kapitel wird erläutert, wie Informationen zwischen einem Browser und einem Server gesendet werden. Es beginnt mit Beschreibungen der Anfrage von einem Browser und einer Antwort von einem Server. Jeder hat ein Format, das durch die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-62274-9_1 cbe8aeb72dbae03a9cd4e962a56c5970;de;;;7.3.;;;Automatisierte Feature-Identifikation in Webanwendungen Marktorientierte softwareintensive Produktentwicklungsunternehmen haben im Laufe der Zeit immer mehr mit dem Problem der Funktionserweiterung zu kämpfen. Produktmanager stehen vor der Herausforderung, die hochwertigen Funktionen in einer Anwendung zu identifizieren und zu lokalisieren und diejenigen mit geringem Wert aus den nächsten Versionen auszusondern. Derzeit gibt es nur wenige Methoden und Tools, die sich mit der Merkmalserkennung befassen, und sie adressieren das Problem nur teilweise. Daher besteht ein dringender Bedarf an Verfahren und Werkzeugen, die eine systematische Merkmalsreduktion ermöglichen, um Probleme zu lösen, die sich aus Merkmalskriechen ergeben. In diesem Whitepaper werden ein Ansatz und ein zugehöriges Tool zur Automatisierung der Feature-Identifikation für Webanwendungen vorgestellt. Zur empirischen Validierung wurde eine multiple Fallstudie mit drei bekannten Webanwendungen durchgeführt: Youtube, Google und BBC. Die Ergebnisse zeigen, dass ein gutes Potenzial für die Automatisierung der Merkmalsidentifikation in Webanwendungen besteht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03602-1_7 adc531a93f9ea483172da540919c4015;de;;;7.3.;;;Dynamische Replikation von Webinhalten Das phänomenale Wachstum des World Wide Web hat zu einem enormen Anstieg des Verkehrs auf die beliebten Websites geführt. Lange Verzögerungen und Denial-of-Service für Endbenutzer, insbesondere während der Stoßzeiten, sind nach wie vor das häufigste Problem beim Zugriff auf beliebte Websites. Das Replizieren einiger Objekte an mehreren Standorten in einer verteilten Webserverumgebung ist eine der möglichen Lösungen zur Verbesserung der Antwortzeit/Latenz. Die Entscheidung, was und wo repliziert werden soll, erfordert die Lösung eines Constraint-Optimierungsproblems, das im Allgemeinen NP-vollständig ist. In diesem Papier betrachten wir das Problem des Platzierens von Kopien von Objekten in einem verteilten Webserversystem, um die Kosten für die Bedienung von Lese- und Schreibanforderungen zu minimieren, wenn die Webserver eine begrenzte Speicherkapazität haben. Wir formulieren das Problem als 0-1 Optimierungsproblem und präsentieren einen Polynomial Time Greedy Algorithmus mit Backtracking, um Objekte dynamisch an den entsprechenden Stellen zu replizieren, um eine Kostenfunktion zu minimieren. Um den Lösungssuchraum zu reduzieren, präsentieren wir die notwendigen Bedingungen für eine Site, um eine Replik eines Objekts zu haben, um die Kostenfunktion zu minimieren. Wir präsentieren Simulationsergebnisse für eine Vielzahl von Problemen, um die Genauigkeit und Effizienz der vorgeschlagenen Algorithmen zu veranschaulichen und sie mit denen einiger bekannter Algorithmen zu vergleichen. Die Simulationsergebnisse zeigen die Überlegenheit der vorgeschlagenen Algorithmen.;-;-;-;https://link.springer.com/article/10.1007/s11432-007-0018-5 590e4bf9ac59a22b73a5b62828a4cef3;de;;;7.3.;;;Erweiterung von WHIRL mit Hintergrundwissen zur besseren Textklassifizierung Die intelligente Nutzung der vielfältigen, im Internet verfügbaren Datenformen erfordert neue Werkzeuge zur Verwaltung und Manipulation heterogener Informationsformen. Dieses Papier verwendet WHIRL, eine Erweiterung relationaler Datenbanken, die Textdaten mit statistischen Ähnlichkeitsmaßen manipulieren können, die von der Information Retrieval-Community entwickelt wurden. Wir zeigen, dass WHIRL zwar für allgemeinere ähnlichkeitsbasierte Schlussfolgerungsaufgaben entwickelt wurde, aber mit ausgereiften Systemen, die explizit für die induktive Klassifikation entwickelt wurden, konkurrieren kann. WHIRL ist insbesondere gut geeignet, um unterschiedliche Wissensquellen im Klassifikationsprozess zu kombinieren. Wir zeigen an einer Vielzahl von Aufgaben, dass die Verwendung geeigneter Mengen von unmarkiertem Hintergrundwissen häufig die Fehlerquote verringert, insbesondere wenn die Anzahl der Beispiele oder die Größe der Strings in der Trainingsmenge gering ist. Dies ist besonders nützlich, wenn das Etikettieren von Text eine arbeitsintensive Aufgabe ist und wenn im World Wide Web eine große Menge an Informationen zu einem bestimmten Problem verfügbar ist.;-;-;-;https://link.springer.com/article/10.1007/s10791-006-9004-6 f1c7a4dd781fbab71e30cbb15b308ddc;de;;;7.3.;;;CassMail: Ein skalierbarer, hochverfügbarer und schnell prototypisierter E-Mail-Dienst In diesem Beitrag stellen wir das Design und die Implementierung eines skalierbaren E-Mail-Dienstes über das Cassandra-endgültig-konsistente Speichersystem vor. Unser System bietet eine funktionierende Implementierung der SMTP- und POP3-Protokolle und unsere Bewertung zeigt, dass das System eine skalierbare Leistung, hohe Verfügbarkeit und eine einfache Verwaltung bei schreibintensiven E-Mail-Workloads aufweist. Das Design und die Implementierung unseres Systems konzentrieren sich auf eine Synthese interoperabler Komponenten für Rapid Prototyping und Deployment. Neben einem Proof-of-Concept eines solchen Ansatzes für das Prototyping verteilter Anwendungen liefern wir in diesem Papier außerdem zwei wichtige Beiträge: Erstens liefern wir eine detaillierte Bewertung der Konfiguration und des Tunings der zugrunde liegenden Speicher-Engine, die für eine skalierbare Anwendungsleistung erforderlich sind. Zweitens zeigen wir, dass die Verfügbarkeit skalierbarer Speichersysteme wie Cassandra das Design und die Implementierung von übergeordneten skalierbaren Diensten vereinfacht, insbesondere im Vergleich zum Aufwand in Projekten mit ähnlichen Zielen in der Vergangenheit (z. B. Porcupine). Wir glauben, dass die Existenz von Infrastrukturdiensten wie Cassandra uns der Vision einer universellen Toolbox für das schnelle Prototyping beliebiger skalierbarer Dienste näher bringt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21387-8_23 88d4cd0dd49a939556e9ae5e335c8c32;de;;;7.3.;;;R mit dem Sensor Web verbinden Datenaustausch und Reproduzierbarkeit werden für die moderne wissenschaftliche Forschung immer wichtiger. Dieses Papier zeigt, wie drei Open-Source-Projekte zusammenarbeiten, um dies zu realisieren: (i) das R-Projekt, das die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19789-5_12 4c46b6906986e59d3103950048b763bb;de;;;7.3.;;;Ansätze zur Erkennung der Schlüsselwörter in gesprochenen Dokumenten Anwendung für den Bereich E-Libraries Automatische Indizierung von Multimedia-Dokumenten über mehrere verschiedene Anwendungsaufgaben hinweg, einschließlich der Suche nach gesprochenen Wörtern, der Erkennung von Schlüsselwörtern und des Abrufens von Audioinformationen. Trotz der Veränderungen im Bereich der Sprachindizierung bleibt also insbesondere für die Stichwortsuche in der Spontansprache noch viel zu tun. Zwar wurden die Forschungsgebiete Spoken Words und Audio Retrieval gut adressiert, jedoch sind noch erhebliche Einschränkungen zu erreichen, insbesondere im Hinblick auf die heute verfügbaren Ressourcen im Web.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34478-7_25 878f055203d64d5cd9bd7caf8a9d786f;de;;;7.3.;;;Forschungstrends in der medizinischen Bildgebungsinformatik Die Forschungs- und Entwicklungsbemühungen in der medizinischen Bildgebung begannen in den frühen 1970er Jahren. Das Feld hat sich in den letzten 30 Jahren allmählich zu einer wissenschaftlichen Disziplin entwickelt. Dieses Feld erfordert Kenntnisse in den physikalischen Wissenschaften einschließlich Ingenieurwissenschaften, Physik, Mathematik, Informatik sowie den biomedizinischen Wissenschaften, einschließlich Medizin und Biologie. Einige bedeutende Beiträge der medizinischen Bildgebung im Gesundheitswesen umfassen die Entwicklung verschiedener medizinischer Bildgebungsmodalitäten, 3D-Rendering, Bildverarbeitung, Bildfusion, bild(computer)gestützte Diagnose und Chirurgie. Dieser Fortschritt ist wichtig für die Formulierung des Konzepts der bildgebenden Informatik, denn die Produkte werden zu den Eckpfeilern dieser neuen Disziplin. Die Entwicklung von Bildarchivierungs- und Kommunikationssystemen (PACS) in den 1990er Jahren lieferte sehr große Bilddatenbanken, die die Erforschung groß angelegter medizinischer Bildgebungsanwendungen ermöglichen. Forschung und Entwicklung mit großen Bilddatenbanken wird grob als medizinische Bildgebungsinformatik bezeichnet.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-8967-3_17 4e7b082599faf90ed48c0e73494a4905;de;;;7.3.;;;Nachrichtenempfehlungssystem basierend auf Themenerkennung und -verfolgung In Web-Recommender-Systemen wird das Clustering offline durchgeführt, um Nutzungsmuster zu extrahieren, und eine erfolgreiche Empfehlung hängt stark von der Qualität dieser Clustering-Lösung ab. Bei der kollaborativen Empfehlung gibt es zwei Möglichkeiten, die Ähnlichkeit der Clique-Empfehlung zu berechnen: Item-based Clustering Method und User-based Clustering Method. Forschungen haben bewiesen, dass objektbasiertes kollaboratives Filtern bei Präzision und Berechnungskomplexität besser ist als benutzerbasiertes kollaboratives Filtern. Die üblichen artikelbasierten Clustering-Technologien könnten jedoch nicht ganz für ein Nachrichtenempfehlungssystem geeignet sein, da sich die Nachrichtenereignisse schnell und kontinuierlich entwickeln. In diesem Papier schlagen wir vor, Technologien von TDT zu verwenden, um Nachrichten zu gruppieren, anstatt übliche artikelbasierte Clustering-Technologien. Es werden experimentelle Ergebnisse untersucht, die die Nützlichkeit unseres Ansatzes zeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02962-2_87 deb4b623d196106d03ce3680660ab8ea;de;;;7.3.;;;Mining von Unterthemen aus verschiedenen Aspekten zur Diversifizierung der Suchergebnisse Benutzeranfragen an das Web neigen aufgrund ihrer Mehrdeutigkeit und anderer Merkmale dazu, mehr als eine Interpretation zu haben. Wie die Ranking-Ergebnisse diversifiziert werden können, um die verschiedenen potenziellen Informationsbedürfnisse der Benutzer zu erfüllen, hat in letzter Zeit erhebliche Aufmerksamkeit auf sich gezogen. Dieses Papier zielt darauf ab, die Unterthemen einer Abfrage entweder indirekt aus den zurückgegebenen Ergebnissen von Retrievalsystemen oder direkt aus der Abfrage selbst zu ermitteln, um die Suchergebnisse zu diversifizieren. Für den indirekten Subtopic-Mining-Ansatz wird das Clustern der Retrievalergebnisse und das Zusammenfassen des Inhalts von Clustern untersucht. Darüber hinaus wird die Kennzeichnung von Themenkategorien und Konzept-Tags auf jedem zurückgegebenen Dokument untersucht. Für den direkten Subtopic-Mining-Ansatz werden mehrere externe Ressourcen wie Wikipedia, Open Directory Project, Suchabfrageprotokolle und die zugehörigen Suchdienste von Suchmaschinen herangezogen. Darüber hinaus schlagen wir ein diversifiziertes Retrievalmodell vor, um Dokumente in Bezug auf die abgebauten Unterthemen einzuordnen, um Relevanz und Vielfalt abzuwägen. Es werden Experimente am Datensatz ClueWeb09 mit den Themen der Diversity-Aufgaben TREC09 und TREC10 Web Track durchgeführt. Experimentelle Ergebnisse zeigen, dass der vorgeschlagene subthemenbasierte Diversifizierungsalgorithmus die hochmodernen Modelle in den Diversity-Aufgaben TREC09 und TREC10 Web Track deutlich übertrifft. Die beste Leistung, die unser vorgeschlagener Algorithmus erreicht, ist α-nDCG@5 0,307, IA-P@5 0,121 und α#-nDCG@5 0,214 auf dem TREC09 sowie α-nDCG@10 0,421, IA-P@10 0,201 , und α#-nDCG@10 0.311 auf dem TREC10. Die Ergebnisse kommen zu dem Schluss, dass die Subtopic-Mining-Technik mit den aktuellen Suchabfrageprotokollen der Benutzer der effektivste Weg ist, die Unterthemen einer Abfrage zu generieren, und der vorgeschlagene unterthemenbasierte Diversifizierungsalgorithmus kann die Dokumente auswählen, die verschiedene Unterthemen abdecken.;-;-;-;https://link.springer.com/article/10.1007/s10791-012-9215-y cf7a4fd9af7eaf5c9657f0c04ba45a3a;de;;;7.3.;;;Bienenschwarmoptimierung für die Suche nach medizinischen Webinformationen Die vorliegende Arbeit bezieht sich auf Web Intelligence und genauer auf die Suche nach medizinischen Informationen. Wir präsentieren hier einen neuartigen Ansatz basierend auf Agententechnologie für die Informationssuche. Es wird eine Architektur vorgeschlagen, bei der wir zwei wichtige Phasen unterscheiden. Der erste ist ein Lernprozess zum Lokalisieren der relevantesten Seiten, die den Benutzer interessieren könnten. Dies wird auf einer festen Instanz des Webs durchgeführt. Die zweite berücksichtigt die Offenheit und Dynamik des Webs. Es besteht aus einem inkrementellen Lernen, das mit dem Ergebnis der ersten Phase beginnt und die Ergebnisse unter Berücksichtigung der Veränderungen, die das Web erfährt, neu gestaltet. Das gesamte System bietet ein Werkzeug, das dem Benutzer bei der Informationssuche hilft. Wir haben das System mit einer Gruppe kooperativer reaktiver Agenten und genauer gesagt einer Kolonie künstlicher Bienen implementiert. Um unseren Vorschlag zu validieren, wurden Experimente mit MedlinePlus durchgeführt, einem Benchmark für Forschung im Bereich Gesundheit. Die Ergebnisse sind sowohl in Bezug auf Web-Regelmäßigkeiten als auch in Bezug auf die Reaktionszeit vielversprechend, die sehr kurz ist und somit die Echtzeitbeschränkung erfüllt.;-;-;-;https://link.springer.com/article/10.1007/s10916-015-0373-5 4d17522a8335137eb758ac533be1613c;de;;;7.3.;;;Moderne politische Kommunikation und Web 2.0 in repräsentativen Demokratien: Die Vereinigten Staaten und die britische Erfahrung Im modernen Wahlkampf haben Online-Wahlkampfformen und der Einsatz sozialer Medien exponentiell Einzug gehalten. Bei den jüngsten Wahlen hat sich das Internet aus seiner Rolle als Ergänzung zu den fernsehgestützten Präsidentschaftskampagnen in den USA – und in geringerem Maße auch bei den Parlamentswahlen in Großbritannien – zu einem wesentlichen Bestandteil der politischen Kommunikation entwickelt. Dieses Kapitel versucht zu verstehen, ob diese Nutzung von Social Media wirklich neue Formen der Partizipation ermöglicht hat oder eher als strategisches Element in parteiische Kommunikationstechniken integriert wurde.;-;-;-;https://link.springer.com/chapter/10.1057/978-1-137-41030-6_5 debd3f73f4b74d3cb3153f5d96433258;de;;;7.3.;;;Eine automatische Methode zur Generierung mobiler Webs aus dem PC-Web mit DFS und W-DFS Diese Arbeit soll vorschlagen, wie durch Extrahieren von Webinhalten anpassungsfähige Inhalte erzeugt werden können, die auf einem Gerät wiedergegeben werden können, damit eine vorhandene Webseite mit einem Gerät wiedergegeben werden kann, das Multimedia-Technologien wie Handy und TV wiedergeben kann. Um einen Dienst unter Verwendung des MobileGate-Systems und adaptiver Konvertierung einer im Web vorhandenen HTML-Seite in ein Gerät auszuführen, wird eine Seite verwendet, die in MPEG-21 als DIDL definiert ist. Um eine Vielzahl von Webinhalten in einem Gerät mit einer begrenzten Schnittstelle zu verwenden, wird durch Extrahieren eines Inhalts durch das DFS-Verfahren eine kreisförmige doppelt verknüpfte Liste erstellt und bereitgestellt. DIDL von durchschnittlich 18 Seiten zur Minimierung des Scrollens auf einer Webseite wird generiert und alle Inhalte im Web können nur mit den Auf- und Ab-Tasten aufgerufen und wiedergegeben werden. In dieser Untersuchung kann ein Webinhaltsdienst, der unter Verwendung eines PCs angeboten werden kann, von einem Mobil- und Fernsehgerät angeboten werden, die sich in einer allgegenwärtigen Umgebung befinden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74477-1_21 af4cc56dd907270b3e50c6beb50cc0f3;de;;;7.3.;;;Webbasiertes Intelligentes Tutoring-System mit Strategieauswahl nach Konsens-Methoden In diesem Beitrag stellen wir die webbasierte Implementierung des Intelligent Tutoring Systems vor. Im System erfolgt die Strategieauswahl durch Anwendung von Konsensverfahren. Im System wird die Nachhilfestrategie an den jeweiligen Studierenden angepasst, basierend auf den erfolgreichen Strategien anderer ähnlicher Studierender. Die Domänenkenntnisse des Systems enthalten die Verkehrsregeln in Polen. Dieser Bereich wurde ausgewählt, um potenziell viele Benutzer anzuziehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36562-4_11 f34566a61e1299024f3f7ead423d0942;de;;;7.3.;;;Kollaboratives Inhalts- und benutzerbasiertes Web-Ontologie-Lernsystem Dieses Kapitel stellt einen kollaborativen Ontologie-Lernansatz für die Implementierung eines Ontologie-basierten Web Content Management Systems (OWCMS) vor. Das Vorschlagssystem integriert zwei überwachte Lernansätze – inhaltsbasiertes Lernen und benutzerbasiertes Lernen. Der inhaltsbasierte Lernansatz wendet Text-Mining-Methoden an, um Ontologiekonzepte zu extrahieren und einen Ontologiegraphen (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17916-7_12 3d8b10d252466c09bce2370f8b84f529;de;;;7.3.;;;VPRSM-Ansatz für die WEB-Suche Es wird eine Methode zum Abrufen von Informationen vorgeschlagen, die auf einem groben Satzmodell mit variabler Präzision (VPRSM) basiert. In der Methodik werden sowohl Abfragen als auch Dokumente als grobe Sets dargestellt. Die Dokumente werden anhand von algebraischen Operatoren der groben Mengenlehre nach Relevanz geordnet. Auch die Ergebnisse von Vortests mit dem System WebRank zum Abrufen von Webseiten werden berichtet.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45813-1_68 8f7638b4950fe58c8c4f872001b844f1;de;;;7.3.;;;Web-Annotationen für Mensch und Maschine Wir schlagen vor, Webseiten manuell mit computerverarbeitbarer kontrollierter natürlicher Sprache zu kommentieren. Diese Annotationen haben gut definierte formale Eigenschaften und können als abfragerelevante Zusammenfassungen verwendet werden, um automatisch in kontrollierter natürlicher Sprache formulierte Fragen zu beantworten, und als Grundlage für andere Formen der automatischen Argumentation. Nicht zuletzt können die Anmerkungen auch als menschenlesbare Zusammenfassungen der Inhalte der Webseiten dienen. In kontrollierter natürlicher Sprache geschriebene Anmerkungen können wohl die Lücke zwischen informellen und formalen Notationen schließen und eine echte Zusammenarbeit zwischen Mensch und Maschine fördern. Dies ist ein Positionspapier, das eine Lösung vorschlägt, die bestehende Methoden und Techniken kombiniert, um ein höchst relevantes praktisches Ziel zu erreichen, nämlich den effektiven Zugriff auf Informationen im Web. Unsere Lösung führt jedoch zu einem Henne-Ei-Problem: Eine kritische Masse an Web-Anmerkungen wird notwendig sein, damit die Leute den Wert dieser Anmerkungen erkennen und Webseiten selbst kommentieren. Ob dieses – im Grunde nicht-technische – Problem gelöst werden kann, wird erst die Zukunft zeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72667-8_33 85512f6e5217e2a1452597d7cb67e94d;de;;;7.3.;;;Informationsfusion zur Kombination von visuellem und textuellem Bildabruf in ImageCLEF@ICPR Beim Image-Retrieval-Wettbewerb ImageCLEF wurde in den letzten sieben Jahren die multimodale Bildsuche evaluiert. Für die IKSR 2010 wurde ein Wettbewerb zur Verschmelzung von visuellem und textuellem Retrieval organisiert, da dies eine Aufgabe war, bei der die meisten Teilnehmer Probleme hatten. In diesem Beitrag wurden klassische Ansätze wie die Maximalkombinationen (combMAX), die Summenkombinationen (combSUM) und die Multiplikation der Summe und der Anzahl von Nicht-Null-Scores (combMNZ) sowie der Trade-off zwischen zwei Fusionseffekten ( Chorus- und Dark Horse-Effekte) wurde basierend auf der Summe von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17711-8_14 92ea314514de69a100f8ebc3820f71a8;de;;;7.3.;;;Themenbasiertes Computing-Modell für Webseiten-Popularität und Website-Einfluss Wir schlagen einen neuartigen Algorithmus namens Popularity&InfluenceCalculator (PIC) vor, um die beliebtesten und einflussreichsten Websites unter bestimmten Schlüsselwörtern zu erhalten. Wir gehen davon aus, dass sich der Einfluss einer Website aus ihrer eigenen Bedeutung und den Auswirkungen ihrer Seiten zusammensetzt, während die Popularität einer Website mit den Websites und allen anderen Seiten zusammenhängt. Danach entwerfen wir einen neuartigen Algorithmus, der iterativ die Bedeutung von Websites und Webseiten berechnet. Die empirischen Ergebnisse zeigen, dass der PIC-Algorithmus die Seiten in berühmten Websites und Seiten mit beschreibenden Fakten höher ranken kann. Wir stellen auch fest, dass diese Seiten populärere Inhalte enthalten, was unserer vorherigen Beschreibung der Popularität entspricht. Unser System kann den Nutzern helfen, die wichtigsten Nachrichten unter bestimmten Stichworten zuerst zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10439-8_22 276e0f3883a390056689c8ed7aeec1de;de;;;7.3.;;;Kollaborative Websuche: eine Robustheitsanalyse Die kollaborative Websuche nutzt vergangene Suchverläufe in einer Gemeinschaft gleichgesinnter Benutzer, um die Qualität der Suchergebnisse zu verbessern. Suchergebnisse, die von Community-Mitgliedern für frühere Abfragen ausgewählt wurden, werden als Reaktion auf ähnliche Abfragen, die in der Zukunft auftreten, hochgestuft. Das I-SPY-System ist ein Beispiel für einen solchen kollaborativen Suchansatz. Wie bei allen offenen Systemen ist es jedoch schwierig, die Integrität derjenigen zu ermitteln, die auf ein System zugreifen, und somit besteht das Potenzial für bösartige Angriffe. In diesem Papier untersuchen wir die Robustheit des I-SPY-Systems gegenüber Angriffen. Insbesondere betrachten wir Angriffsszenarien, bei denen böswillige Agenten versuchen, bestimmte Ergebnisseiten innerhalb einer Community zu bewerben. Darüber hinaus analysieren wir die Robustheit im Kontext der Community-Homogenität und zeigen, dass dieses Schlüsselmerkmal von Communities Auswirkungen auf die Systemrobustheit hat.;-;-;-;https://link.springer.com/article/10.1007/s10462-008-9075-4 de6b9e2e2135c42f3162cd29edcd4bec;de;;;7.3.;;;Eine Webservice-Suchmaschine für die groß angelegte Webservice-Erkennung basierend auf der probabilistischen Themenmodellierung und Clusterbildung cluster Mit der ständig steigenden Anzahl von Webdiensten ist das Auffinden eines geeigneten Webdienstes, der von Benutzern angefordert wird, zu einer wichtigen, aber auch herausfordernden Aufgabe geworden. Wir brauchen eine skalierbare und effiziente Suchmaschine, um die große Menge an Webservices zu bewältigen. Ziel dieses Ansatzes ist es, eine effiziente Suchmaschine bereitzustellen, die in kurzer Zeit die relevantesten Webdienste abrufen kann. Die vorgeschlagene Webservice-Suchmaschine (WSSE) basiert auf probabilistischen Themenmodellierungs- und Clustering-Techniken, die integriert sind, um sich gegenseitig zu unterstützen, indem sie die semantische Bedeutung von Webservices entdecken und den Suchraum reduzieren. Die latente Dirichlet-Zuordnung (LDA) wird verwendet, um Themen aus Web-Service-Beschreibungen zu extrahieren. Diese Themen werden verwendet, um ähnliche Webdienste zu gruppieren. Jede Webservice-Beschreibung wird als Themenvektor dargestellt, daher ist das Themenmodell eine effiziente Technik, um die Dimensionalität von Wortvektoren zu reduzieren und die semantische Bedeutung zu entdecken, die in Webservice-Beschreibungen verborgen ist. Außerdem wird die Webdienstbeschreibung als Wortvektor dargestellt, um die Nachteile des schlüsselwortbasierten Suchsystems zu beheben. Die Genauigkeit des vorgeschlagenen WSSE wird mit dem schlüsselwortbasierten Suchsystem verglichen. Außerdem werden die Präzisions- und Erinnerungsmetriken verwendet, um die Leistung des vorgeschlagenen Ansatzes und des schlüsselwortbasierten Suchsystems zu bewerten. Die Ergebnisse zeigen, dass das vorgeschlagene WSSE basierend auf LDA und Clustering das schlüsselwortbasierte Suchsystem übertrifft.;-;-;-;https://link.springer.com/article/10.1007/s11761-018-0232-6 17815e415e29ad7251092b596f3ab8a5;de;;;7.3.;;;Bürgerbasierte Erfassung von Krisenereignissen: Sensor Web Enablement für freiwillige geografische Informationen Dank der jüngsten Konvergenz eines besseren Zugangs zu Breitbandanschlüssen, der Verfügbarkeit von globalen Positionsbestimmungssystemen in kleinen Paketen zu erschwinglichen Preisen und partizipativeren Formen der Interaktion im Web (Web 2.0) konnten viele Personen freiwillige geografische Informationen erstellen und teilen (VGI). Das Potenzial von bis zu sechs Milliarden Menschen, den Zustand der Umwelt zu überwachen, globale Modelle mit lokalem Wissen zu validieren, zur Sensibilisierung für Krisensituationen beizutragen und Informationen bereitzustellen, die nur Menschen erfassen können, ist enorm und muss noch vollständig ausgeschöpft werden. Die Integration von VGI in Geodateninfrastrukturen (GDI) ist eine große Herausforderung, da sie oft als unzureichend strukturiert, dokumentiert oder nach wissenschaftlichen Standards validiert angesehen wird. Frühere Instanzen von SDIs hatten früher eine begrenzte Fähigkeit, geosensorbasierte Daten (über die Fernerkundungsbilder hinaus) zu verwalten und zu verarbeiten, die in der Regel in kontinuierlichen Strömen von Echtzeitinformationen ankommen. Die aktuellen Arbeiten zu Standards für Sensor Web Enablement füllen diese Lücke. Dieses Papier zeigt, wie solche Standards auf VGI angewendet werden können und diese somit in eine zeitnahe, kostengünstige und wertvolle Informationsquelle für GDIs umwandeln. Auf diese Weise erweitern wir frühere Bemühungen, einen Workflow für die VGI-Integration in SDI zu beschreiben, und entwickeln einen ersten Satz von VGI-Erfassungs- und Ereigniserkennungstechniken weiter. Es werden Beispiele dafür bereitgestellt, wie solche VGI-Erfassungstechniken ein Kriseninformationssystem unterstützen können. Der vorgestellte Ansatz dient als zentrale Bausteine ​​für das Nervensystem einer Digitalen Erde, die für die Entwicklung der nächsten Generation von (Geo-)Informationsinfrastrukturen benötigt werden.;-;-;-;https://link.springer.com/article/10.1007/s12518-011-0056-y 2a86c084c04a9e64439064534abbb565;de;;;7.3.;;;Mandala: Eine Architektur für die Verwendung von Bildern für den Zugriff und die Organisation von Webinformationen Mandala ist ein System zur Verwendung von Bildern, um Webinformationen darzustellen, darauf zuzugreifen und sie zu organisieren. Bilder von einer Webseite repräsentieren den Inhalt der Seite. Ein Doppelklick auf ein Bild signalisiert einem Webbrowser, die zugehörige Seite anzuzeigen. Benutzer identifizieren Gruppen von Bildern visuell und teilen sie mit Mandala, indem sie sie zwischen Fenstern ziehen. Gruppen von Bilddarstellungen werden als Imagemaps gespeichert, sodass visuelle Lesezeichen, Site-Indizes und Sitzungsverläufe einfach gespeichert werden können. Bilddarstellungen ermöglichen Unternehmen eine bessere Skalierung als Textanzeigen und bieten gleichzeitig eine Fülle zusätzlicher Informationen. Personen können verwandte Bilder leicht gruppieren, relevante Bilder identifizieren und Bilder als Gedächtnisstütze verwenden. Hypermedia-Systeme, die Bilddarstellungen verwenden, scheinen weniger anfällig für klassische Hypertext-Probleme zu sein. Wenn Bilddarstellungen aus einem Proxy-Server-Cache abgeleitet werden, erhöhen die resultierenden Visualisierungen die Cache-Hitraten, den Zugriff auf relevante Ressourcen und die gemeinsame Nutzung von Ressourcen, während sie die dynamischen Zugriffsmuster einer Community aufdecken.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48762-X_21 26d77e5e90491392a6a8a36bbe8dd7aa;de;;;7.3.;;;Autonome Multi-Server-Verteilung im Flash Crowds Alleviation Network Die Flash-Massen sind eine schnelle Zunahme des Zugriffs auf den Inhalt von Websites, wodurch die Websites unzugänglich werden und die Kunden mit unbefriedigten Anfragen zurückbleiben. Der Hauptmangel der Flash-Crowd-Recherchen besteht darin, dass sie nicht die wichtige Größenänderungsfunktion einer Surrogate-Wolke unterstützen. Unser System FCAN (Flash Crowds Alleviation Network) ist ein System zur Bereitstellung von Ressourcen für Websites, um Flash-Massen zu überwinden. Ein Hauptmerkmal von FCAN ist seine dynamische Größenänderungsfunktion, die sich an die Anforderungslast von Flash-Massen anpassen kann, indem eine Cloud von Ersatzservern, die von den Websites verwendet werden, vergrößert oder verkleinert wird. In diesem Whitepaper stellen wir eine neue Funktion von FCAN vor, um mehrere Server zu unterstützen, die gleichzeitig verschiedene Flash-Crowds erleben, und zeigen Experimentergebnisse mit echten Webprotokolldaten von Live Eclipse 2006.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77090-9_28 eed7e5ed7227f67d165d17eb3ff8a2b4;de;;;7.3.;;;Bewertung der Ähnlichkeit von Websites mit genetischem Algorithmus für die Reorganisation des Webdesigns Web Mining ist ein notwendiger und wichtiger Prozess des Data Mining, der die wichtigen Informationen aus Webdokumenten und Webdiensten automatisch erkennt. Web-Mining ist die Methode zum Abrufen nützlicher Informationen aus Aktivitäten, die über das World Wide Web durchgeführt werden. Es kann in drei verschiedene Formen eingeteilt werden, wie Web Usage Mining, Web Content Mining und Web Structure Mining. Websites sind wesentliche Werkzeuge für die Webbenutzer, um notwendige Informationen wie Bildung, Unterhaltung, Gesundheit und E-Commerce aus dem Web zu erhalten. Der Zweck dieses Papiers besteht darin, einen genetischen Algorithmus vorzustellen, um die Ähnlichkeit von zwei oder mehr Webseiten der Websites zu bewerten. Darüber hinaus wird die Komplexität des Website-Designs durch die Neuorganisation der Webseiten der Website berechnet. Die erzielten Ergebnisse würden definitiv die Effektivität der Websites erhöhen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-3779-5_9 374431c7521757cb5d2424b111ff8944;de;;;7.3.;;;Emergent Semantics in Knowledge Sifter: Ein evolutionärer Suchagent basierend auf Semantic Web Services Dieses Papier befasst sich mit den verschiedenen Facetten der emergenten Semantik in Content-Retrieval-Systemen wie Knowledge Sifter, einer Architektur und einem System, die auf dem Einsatz spezialisierter Agenten zur Koordination der Wissenssuche in heterogenen Quellen, einschließlich des Webs, semistrukturierter Daten, relationaler Daten, basieren und das Semantische Web. Ziel ist es, den Benutzern Just-in-Time-Wissen basierend auf ihren Entscheidungsanforderungen bereitzustellen. Es gibt drei wichtige Faktoren, die bei der Fokussierung der Suche helfen können: 1) die des Benutzers;-;-;-;https://link.springer.com/chapter/10.1007/11803034_9 9bb60abac19648162a7b0d64f1b5652f;de;;;7.3.;;;XML allein reicht für effektives WebEDI nicht aus WebEDI setzt für den Dokumentenaustausch zwischen Unternehmen auf die Internet-Infrastruktur. Typischerweise handelt es sich bei diesen Dokumenten um Bestellungen und Rechnungen und können durch direkte Integration der ERP-Systeme der Unternehmen oder per Webanwendungs-Upload, -Download oder -Eingabe von Dokumenten ausgetauscht werden. XML gilt als State-of-the-Art-Methode, um die Komplexität der Verwaltung der verschiedenen Datenformate zu reduzieren. Dennoch bietet der XML-Standard allein nicht die erforderliche Semantik. Bei der Integration weniger Unternehmen ist es möglich, die Semantik in den Anwendungen, die die Dokumente verarbeiten, fest zu codieren. Bei der Integration zahlreicher unterschiedlicher Unternehmen skaliert eine solche Lösung jedoch nicht. Die Semantik muss flexibler und skalierbarer erfasst werden. Um dieser Notwendigkeit gerecht zu werden, sind einfache Ontologien erforderlich, um die Datenbeschreibung zu erweitern.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-7907-9_18 46ad7ebd8065b69ac295fadddd399bb5;de;;;7.3.;;;Dynamische QoS-Anpassung mit COPS und Netzwerküberwachungs-Feedback In diesem Dokument wird ein Ansatz vorgestellt, um Datenverkehr außerhalb des Profils mithilfe von Common Open Policy Service und Feedback zur Netzwerküberwachung zu verarbeiten. Der vorgeschlagene Ansatz basiert auf Überwachungs- und Berichtsinformationen, die von Bandbreitenmonitoren gesendet werden, die auf jedem Knoten einer Diffserv-Domäne installiert sind. Ein Monitor interagiert mit Policy Decision Point. Dies überträgt später, abhängig vom Netzwerkstatus, Richtlinienentscheidungsregeln an den Richtliniendurchsetzungspunkt, um Verkehr dynamisch zu akzeptieren, zu kommentieren oder aus dem Profil zu entfernen. Dies ermöglicht eine dynamische Neuzuweisung und Verwaltung von Netzwerkressourcen basierend auf dem aktuellen Netzwerkstatus und den QoS-Anforderungen der Anwendungen. Eine Implementierung und eine Leistungsbewertung des dynamischen QoS-Anpassungsrahmens unter Verwendung eines Java COPS und eines Linux-basierten Netzwerktestbeds werden ebenfalls vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45812-3_20 b5ae578bade18b6d0d4dd07eb99a8309;de;;;7.3.;;;Empfohlene Falldatenbanken: Anwendungen in der Social Web Search Der Schwerpunkt der CBR-Forschung lag bei Fragen des Retrievals vor allem auf dem Retrieval von Fällen aus einem Erfahrungswissen oder einer Fallbasis. In diesem Papier betrachten wir ein komplementäres Abfrageproblem, nämlich das Abfragen von Falldatenbanken selbst in Szenarien, in denen Erfahrungen auf mehrere Falldatenbanken verteilt werden können. Wir begründen dieses Problem mit Bezug auf einen eingesetzten sozialen Websuchdienst namens;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23291-6_21 bee9395acef0f5aa037be287be7e2b8c;de;;;7.3.;;;Ein Korpus realistischer Known-Item-Themen mit zugehörigen Webseiten im ClueWeb09 Das Auffinden bekannter Gegenstände ist die Aufgabe, einen zuvor gesehenen Gegenstand zu finden. Solche Elemente können von besuchten Websites bis hin zu empfangenen E-Mails reichen, aber auch Bücher lesen oder Filme gesehen haben. Die meisten Untersuchungen zum Auffinden bekannter Elemente konzentrieren sich auf das Abrufen von Web oder E-Mails und werden auf proprietären Korpora durchgeführt, die nicht öffentlich zugänglich sind. Öffentliche Korpora sind normalerweise ziemlich künstlich, da sie automatisch generierte Abfragen zu bekannten Elementen oder Abfragen enthalten, die von Menschen formuliert wurden, die das bekannte Element tatsächlich sehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16354-3_57 2f50b20d404017fffe25afc857ce0a40;de;;;7.3.;;;Ein FAR-SW-basierter Ansatz zur Extraktion von Webseiteninformationen Das automatische Identifizieren und Extrahieren der Zielinformationen einer Webseite, insbesondere des Haupttexts, ist eine kritische Aufgabe in vielen Webinhaltsanalyseanwendungen, wie z. Im Vergleich zu typischen Klartexten sind die Informationsstrukturen im Web jedoch äußerst komplex und haben kein festes Template oder Layout. Andererseits ist die Anzahl der Präsentationselemente auf Webseiten wie dynamische Navigationsmenüs, blinkende Logos und eine Vielzahl von Werbeblöcken in den letzten zehn Jahren rasant gestiegen. In diesem Papier haben wir einen statistikbasierten Ansatz vorgeschlagen, der das Konzept der Fuzzy-Assoziationsregeln (FAR) mit dem des Sliding Window (SW) integriert, um den Haupttextinhalt effizient aus Webseiten zu extrahieren. Unser Ansatz umfasst zwei separate Phasen. In Stufe 1 wird die ursprüngliche HTML-Quelle vorverarbeitet und Merkmale werden für jede Textzeile extrahiert, dann wird ein überwachtes Lernen durchgeführt, um Fuzzy-Assoziationsregeln in Trainings-Webseiten zu erkennen. In Stufe 2 werden die notwendige HTML-Quellvorverarbeitung und die Extraktion von Textzeilenmerkmalen auf die gleiche Weise wie in Stufe 1 durchgeführt, wonach jede Textzeile durch extrahierte Fuzzy-Assoziationsregeln getestet wird, ob sie zum Haupttext gehört. Als nächstes wird ein gleitendes Fenster angewendet, um die Webseite in mehrere potenzielle Themenblöcke zu unterteilen. Schließlich wird ein einfacher Auswahlalgorithmus verwendet, um diejenigen wichtigen Blöcke auszuwählen, die dann als der erkannte Themenbereich (Haupttexte) vereinigt werden. Experimentelle Ergebnisse mit Daten aus der realen Welt zeigen, dass die Effizienz und Genauigkeit unseres Ansatzes besser ist als die der bestehenden Document Object Model (DOM)-basierten und Vision-basierten Ansätze.;-;-;-;https://link.springer.com/article/10.1007/s10796-013-9412-2 a18b4009aacb7eee4afcb2aeb242f278;de;;;7.3.;;;Parallele Berechnungen im Freiwilligen-basierten Computersystem Der Beitrag stellt Comcute vor, eine neuartige Multi-Level-Implementierung des freiwilligen Computing-Paradigmas. Comcute wurde entwickelt, um es Benutzern zu ermöglichen, die Rechenleistung ihrer PCs auf vereinfachte Weise zu spenden, indem sie nur ihren Webbrowser auf eine bestimmte Webadresse richten und eine Maus klicken müssen. Die Serverseite ernennt mehrere Server, die für die Ausführung bestimmter Aufgaben verantwortlich sind. Dadurch kann das System Ausfälle einzelner Computer überstehen und die Definition der Redundanz der gewünschten Reihenfolge ermöglichen. Clientseitig werden Berechnungen innerhalb von Webbrowsern unter Verwendung von Technologien wie Java, JavaScript, Adobe Flash etc. ausgeführt, ohne dass zusätzliche Software installiert werden muss. Dieses Papier präsentiert Ergebnisse von Skalierbarkeitsexperimenten, die auf dem Compute-System durchgeführt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55224-3_25 1bb048708b8a07314fc3fc3580e012cb;de;;;7.3.;;;Bewertung der Affinität zwischen Benutzern und CDN-Sites Große Webdienste verwenden CDNs, um die Benutzerleistung zu verbessern. CDNs verbessern die Leistung, indem sie Benutzern von nahegelegenen Front-End-Clustern (FE) dienen. Außerdem verteilen sie Benutzer auf FE-Cluster, wenn einer überlastet oder nicht verfügbar ist und andere über ungenutzte Kapazitäten verfügen. Unser Papier ist das erste, das die Dynamik der Zuordnung von Benutzern zu FE-Clustern für Google und Akamai anhand einer Vielzahl von Client-Präfixen untersucht. Wir messen, wie sich 32.000 Präfixe über einen Monat lang alle 15 Minuten mit FE-Clustern in ihren CDNs verbinden. Wir untersuchen geografische und Latenzeffekte von Kartierungsänderungen und zeigen, dass 50–70 % der Präfixe zwischen FE-Clustern wechseln, die sehr weit voneinander entfernt sind (mehr als 1.000 km), und dass diese Verschiebungen manchmal (28–40 % der Zeit) zu großen Latenzverschiebungen (100 ms oder mehr) führen. Die meisten Präfixe sehen nur kurzzeitig große Latenzen, aber einige (2–5 %) sehen die meiste Zeit eine hohe Latenz. Wir stellen auch fest, dass viele Präfixe im Laufe eines Monats an mehrere Länder gerichtet werden, was die Zuständigkeitsfragen kompliziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-17172-2_7 c38407ea580d9572903723d1df29d2c3;de;;;7.3.;;;Anwendung neuer Bildungsmodelle in IKT-Lehre und -Lernen Dieses Papier stellt eine Gruppe von Elementen zur Verbesserung des Lehrens und Lernens in der technologischen Bildung vor, die auf Informations- und Kommunikationstechnologien (IKT) angewendet werden. Diese Elemente basieren auf einigen Beiträgen zeitgenössischer Bildungsmodelle, nämlich den namely;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34731-8_6 4532f309d6d7312310e8e45739b83bc9;de;;;7.3.;;;Verwalten eines großen verteilten Projekts im Web In diesem Artikel werden die Probleme und Chancen angesprochen, die sich bei Modernisierungsprojekten in mittel- und osteuropäischen Ländern im Zuge ihrer Annäherung an die Europäische Union ergeben. Es wird ein neuer Ansatz beschrieben, der ein effektives Monitoring (und damit Management) von groß angelegten Modernisierungsprojekten in der öffentlichen/nationalen Verwaltung ermöglicht. Kernstück dieses Ansatzes ist die Verschmelzung des computergestützten Projektmanagements mit dem Internet. Die Synergie der Vorteile beider Technologien ermöglicht die optionale Dezentralisierung der Umsetzung bei gleichzeitiger effektiver Überwachung der Umsetzung der geplanten Arbeiten. Es ist möglich, die beschriebene Methode der Projektüberwachung in kürzester Zeit unter Nutzung vorhandener Technologie und Know-how zu sehr geringen Kosten einzuführen. Ziel dieses Artikels ist es, den mehrstufigen Prozess der Einführung des Ansatzes und die damit gewonnenen Erfahrungen zu beschreiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4851-5_48 ed4e37bbe51384a6681d14adcaf4101a;de;;;7.3.;;;Maschinelle Übersetzung aus der Sprache Dieses Kapitel beschreibt Ansätze für die Übersetzung aus der Sprache. Die Übersetzung aus der Sprache bringt zwei neue Probleme mit sich. Zuerst müssen wir natürlich die Sprache in der Ausgangssprache erkennen. Obwohl sich die Spracherkennung in den letzten drei Jahrzehnten erheblich verbessert hat, ist sie noch lange nicht gelöst. Unter den besten Bedingungen, wenn die Sprache aus qualitativ hochwertiger, sorgfältig ausgesprochener Sprache zu allgemeinen Themen stammt (wie etwa von einem geschulten Nachrichtensender gelesene Sprache), liegt die Wortfehlerrate typischerweise in der Größenordnung von 5%. Menschen können normalerweise solche Sprache mit weniger als 1% Unstimmigkeit zwischen Annotatoren transkribieren, sodass selbst diese beste Zahl immer noch weitaus schlechter ist als die menschliche Leistung. Die Aufgabe wird jedoch viel schwieriger, wenn sich von diesem Idealzustand etwas ändert. Einige der Bedingungen, die eine höhere Fehlerquote verursachen, sind, wenn das Thema etwas ungewöhnlich ist oder die Sprecher nicht lesen, damit ihre Rede spontaner ist, oder wenn die Sprecher einen Akzent haben oder einen Dialekt sprechen oder wenn es einen gibt there akustische Beeinträchtigung, wie Lärm oder Nachhall. In diesen Fällen kann der Wortfehler erheblich auf 20 %, 30 % oder mehr ansteigen. Dementsprechend werden in diesem Kapitel größtenteils Techniken zur Verbesserung der Spracherkennungsgenauigkeit diskutiert, während ein Abschnitt Techniken zur Integration von Spracherkennung und Übersetzung erörtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-7713-7_3 415cb224b940c75256398bddf7942e6b;de;;;7.3.;;;Konzeptbasierte Such- und Fragebogensysteme World Wide Web-Suchmaschinen wie Google, Yahoo und MSN sind zu den am häufigsten genutzten Online-Diensten (einschließlich der gezielten Werbung) geworden, wobei jeden Tag Millionen von Suchen auf unstrukturierten Websites durchgeführt werden. In dieser Präsentation möchten wir über die traditionellen Websuchmaschinen hinausgehen, die auf der Schlüsselwortsuche basieren, und das Semantic Web, das einen gemeinsamen Rahmen bietet, der es ermöglicht, Daten anwendungsübergreifend zu teilen und wiederzuverwenden. Aus diesem Grund ist unsere Ansicht, dass „bevor man die Macht der Websuche nutzen kann, die relevanten Informationen durch den konzeptbasierten Suchmechanismus und logische Argumentation mit der Fähigkeit zur Q&A-Darstellung anstelle einer einfachen Stichwortsuche gewonnen werden müssen“. In diesem Beitrag stellen wir zunächst den Zustand der Suchmaschinen vor. Dann werden wir uns auf die Entwicklung eines Frameworks für Argumentation und Deduktion im Web konzentrieren. Ein neues Websuchmodell wird vorgestellt. Eine der wichtigsten Kernideen, die wir verwenden werden, um unsere Technik zu erweitern, besteht darin, die Term-Documents-Concept (TDC)-Matrix in eine regelbasierte und graphenbasierte Darstellung zu ändern. Dies wird uns ermöglichen, die traditionelle Suchmaschine (keyword-based search) in eine konzeptbasierte Suche und dann in ein Q&A-Modell zu entwickeln. Bei gegebenem TDC werden wir jedes Dokument in ein regelbasiertes Modell einschließlich seines äquivalenten Graphenmodells umwandeln. Sobald die TDC-Matrix in ein maximal kompaktes Konzept basierend auf Graphdarstellung und Regeln basierend auf dem possibilistischen relationalen universellen Fuzzy-Typ II (bezüglich der Zusammensetzung) umgewandelt wurde, kann man den Z(n)-kompakten Algorithmus verwenden und den TDC in Baum und hierarchischer Graph, der ein Q&A-Modell darstellt. Schließlich wird das Konzept der semantischen Äquivalenz und der semantischen Folgerung basierend auf dem possibilistischen relationalen universellen Fuzzy als Grundlage für die Beantwortung von Fragen (Q&A) und die Inferenz aus Fuzzy-Prämissen verwendet. Dies wird eine Grundlage für ungefähres Denken, eine Sprache für die Darstellung von ungenauem Wissen, eine Bedeutungsrepräsentationssprache für natürliche Sprachen, eine Präzisierung von Fuzzy-Propositionen, die in einer natürlichen Sprache ausgedrückt werden, und als Werkzeug für Precisiated Natural Language (PNL) und Präzisierung von Bedeutung liefern. Die maximal kompakten Dokumente basierend auf dem Z(n)-kompakten Algorithmus und dem possibilistischen relationalen universellen Fuzzy-Typ II werden verwendet, um die Dokumente basierend auf konzeptbasierten abfragebasierten Suchkriterien zu clustern.;-;-;-;https://link.springer.com/article/10.1007/s00500-007-0195-6 7275c80afb2c6b9b234542f3a1974b82;de;;;7.3.;;;Kombination von domänengetriebenem Design und Mashups für die Serviceentwicklung Dieses Kapitel stellt den Romulus-Projektansatz für die Serviceentwicklung unter Verwendung von Java-basierten Webtechnologien vor. Romulus zielt darauf ab, die Produktivität der Serviceentwicklung zu verbessern, indem ein toolgestütztes Modell zur Konzeption von Java-basierten Webanwendungen bereitgestellt wird. Dieses Modell folgt einem Domain Driven Design-Ansatz, der besagt, dass der primäre Fokus von Softwareprojekten auf der Kerndomäne und der Domänenlogik liegen sollte. Romulus schlägt ein werkzeuggestütztes Modell vor,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-0415-6_7 675c2ff2ca33d4d87dcb6b7706d4b2ca;de;;;7.3.;;;Proteom-Datenbanken Das Bewusstsein, dass Protein- und DNA-Sequenzdaten für das Verständnis biologischer Systeme unerlässlich sind, ist in der Life-Science-Community mittlerweile gut etabliert. Dieser Community wird zunehmend bewusst, dass dies auch für zusätzliche Informationen über Proteinexpression, posttranslationale Modifikationen, Tertiärstruktur und natürlich Funktion gilt. All dieses Wissen muss in verschiedenen Datenbanken gekapselt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-03493-4_5 933c31dbf66c4a00dfe705e444b59c93;de;;;7.3.;;;Unkorrelierende PageRank und In-Grade in einem synthetischen Webmodell Ein wichtiger Teil der Webforschung konzentriert sich heutzutage auf die Entwicklung immer ausgefeilterer Modelle des Webgraphen. Die Eigenschaften dieser Graphen werden gemessen und mit den Eigenschaften des realen Webs verglichen. Dieses Papier fasst die wichtigsten Maßnahmen und Modelle des Webs kurz zusammen und schlägt ein neues Modell vor, das eine verbesserte Version einiger vorhandener Modelle ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39737-3_18 973499e490d3de671aaae1592dda2512;de;;;7.3.;;;Angstappelle auf kommerziellen Webseiten: eine qualitative Studie ThunderStore BV, ein niederländischer Softwareentwickler und -vertreiber, der sich auf Content-Sicherheitssoftware für Unternehmen spezialisiert hat, befand sich im Mai 2001 in der Endphase der Fertigstellung seines neuesten Produkts namens X-Tra Secure unerwünschte, ungenaue, illegale und unbekannte Datennutzung. Während die aktuellen Sicherheitsmaßnahmen von Organisationen bestimmen, wer und wo Zugriff auf geschäftskritische Daten hat, ermöglicht X-Tra Secure zusätzlich die Überwachung und Regulierung, welche Daten wann und wie verwendet werden verwendet, wer sie verwendet und wo sie gespeichert ist. Das Programm analysiert Daten über Dateiinhalt, Dateieigenschaften, Speicherort und die öffnende Anwendung, noch bevor sie das Betriebssystem erreichen, und reagiert gemäß den von der Organisation festgelegten X-Tra Secure-Richtlinien, z. indem (nicht) erlaubt wird, dass die angeforderte Datei geöffnet, gelesen, gespeichert, kopiert, gelöscht usw.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-81329-9_3 d2d01b4fda6f062b43b3e3068e63b5d4;de;;;7.3.;;;Eine umfassende Analyse der ersten zehn Ausgaben der WEBIST-Konferenz Eine Analyse der Protokolle des ersten Jahrzehnts der WEBIST-Konferenz in Bezug auf soziale Netzwerke und statistische Analysen sowie Bibliometrie hat Informationen zu bestehenden Mustern in den vorherrschenden Themen und Themen der Konferenz zutage gefördert, die die Entwicklung Event und seine Community, während sie wuchsen und reiften. Zusätzlich zu den Ergebnissen dieser Analyse präsentieren wir eine abfragbare webbasierte Anwendung, die aus einem Datensatz von RDF-Tripeln schöpft und die Wiederherstellung der untersuchten Muster und die weitere Exploration der Verfahrensdaten ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30996-5_13 6c7706f0837c9ae13685c0121c82eade;de;;;7.3.;;;Crawling-Richtlinien basierend auf der Vorhersage der Webseiten-Popularität In diesem Whitepaper konzentrieren wir uns auf Crawling-Strategien für neu entdeckte URLs. Da es unmöglich ist, alle neuen Seiten direkt nach dem Erscheinen zu crawlen, werden die wichtigsten (bzw;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06028-6_9 e545956aacf40e1483a78772d8c6c861;de;;;7.3.;;;Verwendung des Site-Specific Recombinases-Webservers von Textpresso zur Identifizierung von Cre-exprimierenden Mausstämmen und floxierten Allelen Effektive Werkzeuge zum Durchsuchen der biomedizinischen Literatur sind für die Identifizierung von Reagenzien oder Mausstämmen sowie für ein effektives experimentelles Design und eine fundierte Interpretation experimenteller Ergebnisse unerlässlich. Wir haben den Webserver Textpresso Site Specific Recombinases (Textpresso SSR) entwickelt, um Forschern, die Mäuse verwenden, eine gründliche Suche in einem schnell wachsenden und komplexen Teil der Mausliteratur zu ermöglichen. Unser Textpresso-Webserver bietet eine Schnittstelle zum Durchsuchen des Volltexts der meisten von Experten begutachteten Veröffentlichungen, die über die Charakterisierung oder Verwendung von Mausstämmen berichten, die Cre- oder Flp-Rekombinase exprimieren. Die Datenbank enthält auch die meisten Veröffentlichungen, die die Charakterisierung oder Analyse von Stämmen beschreiben, die konditionale Allele oder Transgene tragen, die durch ortsspezifische Rekombinasen wie Cre oder Flp inaktiviert oder aktiviert werden können. Textpresso SSR ergänzt die bestehenden Online-Datenbanken, die Cre- und Flp-Expressionsmuster katalogisieren, indem es eine einzigartige Online-Schnittstelle für das eingehende Text-Mining der ortsspezifischen Rekombinase-Literatur bereitstellt.;-;-;-;https://link.springer.com/protocol/10.1007/978-1-60327-292-6_23 de5bfc5275d2d97fdcf9f9a4b8238b86;de;;;7.3.;;;Benutzerprofilerstellung für semantisches Browsen in medizinischen digitalen Bibliotheken Semantic Browsing bietet kontextualisierte, dynamisch generierte Webinhalte, die das Wissen anpassen, um die Erwartungen der Benutzer besser zu erfüllen. Die reale medizinische digitale Bibliothek, die National electronic Library of Infection (NeLI, www.neli.org.uk), angereichert mit einer Infektionsdomänenontologie, ermöglicht die qualitative Entwicklung neuer semantischer Dienste. In diesem Papier werden wir uns mit der Verwendung von Gruppenprofilen befassen, um semantisches Browsing durch die Integration verteilter Wissensquellen anzupassen. Die Bewertung des Dienstes erfolgt durch die Analyse der Webserver-Logs, die dynamische Erweiterung der Profile und durch qualitatives Feedback von echten Benutzern des NeLI-Portals.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68234-9_67 fc49be033bc6fd837cbfd3dc979e1ff3;de;;;7.3.;;;Fuzzy-Ontologien und Fuzzy-Markup-Sprache: Eine neue Vision in Web Intelligence Semantic Web and Ontologies hat das Interesse an der Verwendung wissensbasierter Systeme erhöht, um eine automatisierte Verarbeitung und Argumentation mit Informationen im Web zu ermöglichen. Es wird jedoch allgemein darauf hingewiesen, dass Standardontologien für einige Anwendungen in der realen Welt nicht ausreichen, um mit ungenauem und vagem Wissen umzugehen, aber die Fuzzy-Ontologien können Daten und Wissen mit Unsicherheit effektiv modellieren. Insbesondere wird in diesem Beitrag eine Sammlung von realen Anwendungen vorgestellt, die auf der Integration verschiedener weborientierter Frameworks wie der;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18029-3_1 67417af3e877a02cd8438c65487cbd71;de;;;7.3.;;;Sicherheitsanalyse für IP-Speicher Der Beitrag präsentiert eine Analyse verschiedener Methoden zum Schutz von IP-Speichersystemen. Das Problem ist, ob die vorhandenen Tools und Methoden zur Sicherung gängiger Internetdienste wie WWW, VoIP für den Schutz von IP-Speichersystemen geeignet sind? Die notwendigen Sicherheitsdienste wie: Authentifizierung, Integrität und Verschlüsselung können auf viele verschiedene Arten bereitgestellt werden. Es ist notwendig, die optimale Methode für eine bestimmte Anwendung auszuwählen. Der Hauptteil des Papiers bezieht sich auf die Bewertung verschiedener IP-Speichersysteme, die das iSCSI-Protokoll für die Übertragung und das IPSec-Protokoll für den Schutz verwenden. Es werden mehrere Methoden und Implementierungen von Sicherheitssystemen mit unterschiedlichen Kryptomodulstandorten (Client, Server, Speichermedium) und mit unterschiedlichen Implementierungen (Software oder Hardware) untersucht. Folgende Attribute der Systeme werden analysiert: Sicherheitslevel, Performance/Durchsatz-Overhead, Kosten, Flexibilität.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31217-5_24 7e8387219ef35a39e6f158296f7e6917;de;;;7.3.;;;Automatische RESTful Web Service Identifizierung und Informationsextraktion Leichte RESTful-Webdienste sind in der jüngsten Entwicklung von Webanwendungen immer beliebter und verbreiteter geworden und dominieren damit die unhandlichen SOAP-Webdienste. Das Auffinden von RESTful-Diensten im Web ist jedoch immer noch ein ungelöstes und herausforderndes Problem und übersteigt den Rahmen aktueller Ansätze zum Abrufen von SOAP-Webdiensten, die auf formalen Beschreibungen beruhen. In diesem Papier stellen wir eine Methode zur automatischen Identifizierung von RESTful-Webdiensten im Webmaßstab und zur Datenextraktion aus HTML-Seiten vor, die Dienste beschreiben. Dieses Papier beschreibt auch eine erste vollständige und umfangreiche RESTful Web Service Testsammlung, die für viele Benchmarks verwendet werden kann und Forschungsergebnisse vergleichbar macht. Die vorgestellten Evaluationsergebnisse belegen die Wirksamkeit der vorgestellten Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07941-7_32 feeb47e6ad485f5e605101c17927f359;de;;;7.3.;;;E-Mail-Klassifizierung zur Phishing-Abwehr Wir diskutieren einen klassifikationsbasierten Ansatz zum Filtern von Phishing-Nachrichten in einem E-Mail-Stream. Bei der Ankunft werden verschiedene Merkmale jeder E-Mail extrahiert. Dies bildet die Grundlage für einen Klassifizierungsprozess, der potenziell schädliche Phishing-Nachrichten erkennt. Wir stellen verschiedene neue Features zur Identifizierung von Phishing-Nachrichten und zum Rang etablierter sowie neu eingeführte Features entsprechend ihrer Bedeutung für dieses Klassifizierungsproblem vor. Darüber hinaus wird im Gegensatz zu klassischen binären Klassifikationsansätzen (Spam vs. kein Spam) ein verfeinerter ternärer Klassifikationsansatz zur Filterung von E-Mail-Daten untersucht, der automatisch drei Nachrichtentypen unterscheidet: Ham (erwünschte E-Mail), Spam und Phishing .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00958-7_40 0cecfe20e7c558a7cf6de93c17326666;de;;;7.3.;;;Eine dreijährige Analyse der Bereitschaft von Ingenieurstudenten für Fernlernen und ihre Relevanz für COVID-19 Die UNESCO ist besorgt über die Auswirkungen der COVID-19-Pandemie auf 1,5 Milliarden Lernende weltweit. Zukünftige Macher und Macher unserer Welt verlieren durch die durch diese Pandemie verursachten Störungen ihre wertvolle Zeit. Können sie ihre Lernaktivitäten nicht von überall aus fortsetzen? Die Technologie bietet Lehrern und Schülern verschiedene Möglichkeiten, auf eine Vielzahl von Bildungsressourcen zuzugreifen. In den letzten Jahren hat auch die Einführung von Technologie in Bildungseinrichtungen erheblich zugenommen. Die Welt steht an der Schwelle zur vierten industriellen Revolution, die auf Informations- und Kommunikationstechnologien basiert. Diesem modernen Trend entsprechend wurde die Datenerhebung 2017, 2018 und 2019 durch die Verteilung eines Online-Fragebogens an Studienanfänger der Fakultät für Ingenieurwissenschaften der University of Moratuwa (UoM) in Sri Lanka durchgeführt Fragebogen wurden die Fragen dem Kirkwood & Price TEL Handbook entnommen. Die Ergebnisse zeigten, dass alle Befragten Computerkenntnisse hatten und 80% von ihnen Computer zu Hause besaßen. Daher können Hochschuleinrichtungen diese Möglichkeiten nutzen, um das Lernen der Studierenden zu verbessern, indem sie sie ermutigen, kollaborative Lernmethoden anzuwenden. Darüber hinaus zeigt diese Studie, dass mehr als 95 % von ihnen über ein Smartphone auf das Internet zugreifen. Daher können Hochschuleinrichtungen mobile Technologien für die Ingenieurausbildung nutzen und so den Studierenden den maximalen Nutzen bieten. Basierend auf den Ergebnissen dieser Studie ist es sinnvoll, den Schluss zu ziehen, dass die Einführung sinnvoller technologischer Interventionen zu signifikanten und positiven Veränderungen in der Lehr- und Lernpraxis an UoM führen könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-68201-9_67 087a87428bc110d9a3e5bdc81e4fe12e;de;;;7.3.;;;Abwehr von Drive-By-Download-Angriffen: Herausforderungen und offene Probleme Schädliche Websites führen Drive-by-Download-Angriffe durch, um ihre Besucher mit Malware zu infizieren. Aktuelle Schutzansätze basieren auf Black- oder Whitelisting-Techniken, die nur schwer auf dem neuesten Stand zu halten sind. Da bei heutigen Drive-by-Angriffen bereits Verschlüsselung verwendet wird, um die Erkennung auf Netzwerkebene zu umgehen, schlagen wir eine Reihe von Techniken vor, die in Webbrowsern implementiert werden können, um den Benutzer vor solchen Bedrohungen zu schützen. Darüber hinaus diskutieren wir Herausforderungen und offene Probleme, mit denen diese Mechanismen konfrontiert sind, um effektiv und effizient zu sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05437-2_5 32afbe49228dbce5908582533bfe1986;de;;;7.3.;;;Umwandlung von Fuzzy-Beschreibungslogiken in klassische Beschreibungslogiken In diesem Papier betrachten wir Beschreibungslogiken (DLs), die Logiken für die Verwaltung von strukturiertem Wissen sind, mit einer bekannten Fuzzy-Erweiterung, um mit vagen Informationen umzugehen. Während in der Literatur für Fuzzy-DLs ad-hoc-Tabellen-ähnliche Argumentationsverfahren angegeben wurden, ist das Thema dieses Beitrags die Darstellung einer argumentationserhaltenden Transformation von Fuzzy-DLs in klassische DLs. Dies hat die beträchtliche praktische Konsequenz, dass das Schlußfolgern in Fuzzy-DLs unter Verwendung bereits vorhandener DL-Systeme durchführbar ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30227-8_33 e078f754167aa63304d66a927d7ea106;de;;;7.3.;;;Eine Methode zur Berechnung der Popularität von Hot Topics im Internet in Kombination mit den Funktionen der Microblogs Der Artikel stellt eine neue Formel zur Berechnung der Popularität der Themen vor, die auf dem Nachrichtenstrom im Internet basiert. Darüber hinaus sollten auch die Funktionen der Microblogs berücksichtigt und kombiniert werden. Die heißen Themen sind nach ihren Werten sortiert, so dass die Informationen zu den Themen bequem und genau für die Öffentlichkeit zugänglich sind. Es ist für die Regierung von Vorteil, auch die öffentliche Meinung zu überwachen. Die Experimente basieren sowohl auf Nachrichten als auch auf den Microblogs. Unser System könnte den Wert der aktuellen Themen anhand der Beliebtheit bei den Benutzern ermitteln, danach werden die Themen automatisch sortiert. Die Ergebnisse der Experimente haben gezeigt, dass das System gut funktioniert.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_342 bf2b29b82e16f444d75e16d3a405759c;de;;;7.3.;;;Semantische Web-Service-Architektur mit Multi-Agent-Szenario-Beschreibung Aktuelle Forschungsfragen zu Webservices drehen sich um die flexible Gestaltung bestehender Services. Auf Initiative der Industrie wurde ein flexibler Kompositionsrahmen für ein Workflow-Modell entwickelt, bei dem der Ablauf der Prozesse und die Bindungen zwischen den Diensten im Voraus bekannt sein sollten. Kurz gesagt, sein Rahmen ermöglicht eine flexible Zusammensetzung innerhalb der verfügbaren Dienste, die nicht weit geöffnet sind. Dieses Papier konzentriert sich auf zwei Einschränkungen der aktuellen Zusammensetzung von Webdiensten. Eine Einschränkung besteht darin, dass Multi-Agent-Szenarien, die aus mehreren gleichzeitigen Prozessen bestehen, schwer abzubilden sind, da sie auf einem Workflow-Modell basieren. Die andere Einschränkung besteht darin, dass ein einmal erstellter Webdienst nicht wiederverwendet oder für andere Anforderer übertragen werden kann, da es keine Funktion gibt, die Semantik auf zusammengesetzte Webdienste zu übertragen. Um diese Einschränkungen zu überwinden, haben wir die Szenariobeschreibungssprache Q entwickelt, die es uns ermöglicht, eine Webservice-Komposition zu realisieren, die den Kontext eines Multi-Agenten nicht als Workflow, sondern als Szenario widerspiegelt. Darüber hinaus haben wir ein System entwickelt, das Multi-Agent-Szenarien in DAML-S übersetzt und das übersetzte DAML-S als neuen Webservice registriert. Wir besprechen auch die Verfügbarkeit unseres Systems zum Entwerfen einer Anwendung für C-Commerce und Digital Cities.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39896-7_9 05f75a61ff379a57359042e8f4079027;de;;;7.3.;;;Webbasierte visuelle 3D-Benutzeroberfläche für ein Hochwasservorhersagesystem Die Universität Linköping (LiU) hat in einem von der EU finanzierten Projekt MUSIC eine visuelle Benutzeroberfläche und eine webfähige erweiterte 3D-Visualisierung für ein Hochwasservorhersagesystem entwickelt. Das Projekt entwickelt hochmoderne Algorithmen zur Niederschlagsschätzung, bewertet deren Unsicherheit und nutzt eine innovative Kombination der Ausgabedaten der drei unabhängigen Datenquellen Radar, Satellit und Regenmesser. Die grundlegende Rolle jedes quantitativen Echtzeit-Niederschlags- und Hochwasservorhersagesystems liegt in seiner Fähigkeit, innerhalb des Vorhersagehorizonts die Unsicherheit bei Vorhersagen zukünftiger Ereignisse zu bewerten und zu reduzieren, um verbesserte Warnungen und operative Entscheidungen zur Reduzierung des Hochwasserrisikos zu ermöglichen . Entsprechend dieser Anforderung soll im Projekt MUSIC eine innovative Technik zur Verbesserung der von Wetterradar, Wettersatelliten und Regenmesser abgeleiteten Niederschlagsdaten als unabhängige Messquelle entwickelt werden. Ein weiteres wichtiges Ziel besteht darin, die Kommunikation und Verbreitung der Ergebnisse an die Behörden zu verbessern, die an der Hochwasservorhersage und -verwaltung in Echtzeit beteiligt sind. Das Projekt testet das System an realen Fallstudien in zwei Testeinzugsgebieten, den Flüssen Reno und Arno in Italien. LiU entwickelt die innovative visuelle 3D-Benutzeroberfläche, die es den Benutzern ermöglicht, eine aktivere Rolle bei der Visualisierung und Untersuchung von Hochwasservorhersagen einzunehmen, sodass sie die Daten und die Unsicherheit hinter dem Vorhersagesystem besser verstehen können. LiU bietet auch einfach zu bedienende kollaborative Visualisierungstools, die es den Meteorologen, Hydrologen, Betriebsleitern und dem Zivilschutzleiter ermöglichen, die Vorhersageergebnisse in Echtzeit im gesamten Netzwerk anzuzeigen und zu diskutieren, bevor sie schließlich mit den Medien, der Polizei, anderen Beamten und die Öffentlichkeit. Das System wird die Zuverlässigkeit und Präzision der Sturzflutvorhersage erheblich verbessern und die Zeit verkürzen, die erforderlich ist, um Ereignisse zu erkennen, die zu katastrophalen Hochwasserereignissen führen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-27468-5_72 b12832d7039180bdce1e7609e01282f5;de;;;7.3.;;;Erkennen von Webdiensten mithilfe von Verhaltensbeschränkungen und Ontologie Die Fähigkeit, nützliche Online-Webdienste zu finden, wird für die heutigen serviceorientierten Geschäftsanwendungen immer wichtiger. Es wurden eine Reihe von Bemühungen unternommen, um den Dienstentdeckungsprozess zu verbessern, indem konzeptualisiertes Wissen, genannt Ontologie, bestimmter Dienstdomänen verwendet wird, um Diensteigenschaften zu beschreiben. Dieses Papier präsentiert einen ontologiebasierten Ansatz zur Erweiterung von Beschreibungen von Webdiensten, die in WSDL ausgedrückt werden, mit ontologiebasierten Verhaltensinformationen, d. h. Eingabe, bedingte/unbedingte Ausgabe, Vorbedingung und bedingte/unbedingte Wirkung der Dienste. Da jeder Web-Service-Beschreibung eine Dienst-Ontologie zugeordnet ist, können Abfragen nach Diensten auf der Grundlage von Verhaltensbeschränkungen davon profitieren, die Semantik des Dienstes aus der Dienst-Ontologie abzuleiten. Der Service-Discovery-Prozess nähert sich der Discovery durch Service-Semantik oder -Verhalten an, im Gegensatz zur Discovery durch Abgleichen von Service-Attributwerten – dem Mechanismus, der derzeit von Web Services unterstützt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-40010-3_22 45cdce15d0a4b837b793d8bd32370ee7;de;;;7.3.;;;Nutzung von Ontologien für die Personalisierung der Websuche In dieser Arbeit präsentieren wir einen Ansatz zur Personalisierung von Web-Suchen unter Ausnutzung der Ontologien. Unser Ansatz zielt darauf ab, Personalisierung in Websuchmaschinen bereitzustellen, indem Data-Mining-Techniken mit der zugrunde liegenden Semantik des Webinhalts gekoppelt werden. Zu diesem Zweck nutzen wir Referenzontologien, die aus Webkatalogen hervorgehen (wie ODP - Open Directory Project), die mit dem Wachstum des Webs skaliert werden können. Unsere Methodik verwendet Ontologien, um ein semantisches Profiling der Interessen der Benutzer bereitzustellen, basierend auf der impliziten Protokollierung ihres Verhaltens und der on-the-fly semantischen Analyse und Annotation der Zusammenfassungen der Webergebnisse. Die experimentelle Evaluierung unseres Ansatzes zeigt, dass die von der Clusterung semantischer Nutzer in Suchmaschinen erwarteten Ziele erreichbar sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02794-9_3 1bfd58964a9d591b1c44e0a90726453e;de;;;7.3.;;;Ein semantisch erweitertes mehrstufiges Matching-Modell von Webservices Semantische Webdienste, die Webdienstbeschreibungen mit semantischer Webtechnologie erweitern, wurden eingeführt, um die Veröffentlichung, Erkennung und Ausführung von Webdiensten auf semantischer Ebene zu erleichtern. Semantische Matchmaker verbessern die Fähigkeit von UDDI-Dienstregistern in der Architektur von semantischen Webdiensten durch Anwenden einiger Übereinstimmungsalgorithmen zwischen Werbungen und Anforderungen, die in OWL-S beschrieben sind, um verschiedene Übereinstimmungsgrade für Webdienste zu erkennen. Dieses Papier schlägt ein neuartiges, semantikverbessertes Webservice-Framework und ein mehrstufiges Matching-Modell für Webservices vor. Der Matching-Prozess erfolgt auf fünf Ebenen: syntaktisch, statisch semantisch, dynamisch semantisch, qualitativer Service und zuverlässiger Service. Eine Fallstudie zum kollaborativen Design wird verwendet, um den vorgeschlagenen Ansatz zu demonstrieren.;-;-;-;https://link.springer.com/article/10.1007/s11761-009-0045-8 2ffb2611d938c55ab2686774caddf832;de;;;7.3.;;;Security SLAs – Eine Idee, deren Zeit gekommen ist? Service Level Agreements (SLAs) werden seit Jahrzehnten verwendet, um Aspekte wie Durchsatz, Verzögerung und Reaktionszeiten von Services in verschiedenen Outsourcing-Szenarien zu regeln. Allerdings wurden Sicherheitsaspekte in SLAs typischerweise vernachlässigt. In diesem Papier argumentieren wir, dass Sicherheits-SLAs für zukünftige Internetdienste erforderlich sein werden, und geben Beispiele dafür, wie dies in der Praxis funktionieren wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32498-7_10 81a01f33be69499f628a7b38882f47c0;de;;;7.3.;;;Aufbau einer intelligenten Regierung, einer intelligenten Stadt und einer intelligenten Bürgerschaft durch IKT: Smart City-Innovationen in New Taipei City, Taiwan Dieses Kapitel präsentiert eine Fallstudie der Smart City-Initiativen in New Taipei City (NTPC) in Taiwan. Unter Verwendung des integrativen Rahmens von Chourabi et al. (Understanding smart Cities: An integrative Framework. In 2012 45th Hawaii International Conference (HICSS) on System Science (S. 2289–2297). IEEE. 2012) als analytische Linse diskutieren die Autoren die Eigenschaften und den Umfang der Innovationen von NTPC bei der Bereitstellung Dienstleistungen und Ressourcenmanagement mit Hilfe von IKT sowie die politischen, menschlichen, sozialen und kulturellen Kontexte, die die Einführung und Entwicklung dieser intelligenten Technologien prägen. Als Antwort auf die Forschungsfrage wurde eine SWOT-Analyse (Stärken, Schwächen, Chancen und Bedrohungen) durchgeführt, die zur Identifizierung von Erkenntnissen aus diesem speziellen Fall beigetragen hat, die für andere Smart-City-Initiativen eine breitere Relevanz haben könnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-17620-8_14 cdcfeab07e420515fcef8d1dc3ee661c;de;;;7.3.;;;Lehren für autonome Dienste aus dem Design eines anonymen DoS-Schutz-Overlays In diesem Papier berichten wir über das Design und die Implementierung eines Denial-of-Service-Schutz-Overlays und ziehen Lehren für autonome Dienste. Unser Ansatz ist insofern neu, als jeder Knoten nur eine Teilmenge der anderen Knoten innerhalb des Overlays kennt, die Routing-Topologie des Overlays vor internen und externen Knoten verborgen ist und das Overlay ein verteiltes Überwachungs- und Vertrauenssystem verwendet, um fehlerhafte Knoten zu erkennen. Um diese Designziele zu erreichen, mussten wir über die normalen Ansätze zur Entwicklung selbstkonfigurierender und selbstüberwachender Dienste hinausgehen und betonen diese Aspekte als wichtig für die Gestaltung zukünftiger organisationsübergreifender Systeme.;-;-;-;https://link.springer.com/chapter/10.1007/11880905_8 bf51fed1890732f0fec5b36e57792ca2;de;;;7.3.;;;Integration der R-Statistikumgebung in die ICT-Infrastruktur von GMP und GENASIS Der Global Monitoring Plan (GMP) wurde als Instrument zur Bereitstellung eines weltweiten Überblicks über die Einhaltung des Stockholmer Übereinkommens (SC) durch Überwachung und Bewertung der Konzentrationsniveaus von SC 22 persistenter organischer Schadstoffe (POP) und ihrer Trends erstellt. Um einen Datensatz zu POP-Konzentrationen aus der ersten GMP-Kampagne auszuwerten, war es unerlässlich, fortschrittliche statistische Methoden zu verwenden, die nicht in gängige Datenbanksprachen integriert sind. Statt einer vollständigen Umsetzung dieser Methoden in der Hauptprogrammiersprache, in der die Anwendung entwickelt wird, wurde diese Sprache nur als Schnittstelle zur Serverversion der mächtigen Statistiksoftware R verwendet. Die Beteiligung der Sprache R an der Umweltverschmutzung Die Datenbewertungsinfrastruktur des Global Environmental Assessment Information Systems (GENASIS) für die GMP-Daten erleichtert die Vermeidung von Unklarheiten bei der Datenanalyse und bietet ein leistungsstarkes Werkzeug für die erweiterte statistische Analyse und Visualisierung von GMP- und GENASIS-Daten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41151-9_23 0fd458da5555afbfe0d12fb3591759f4;de;;;7.3.;;;Eine webbasierte Plattform für Mining- und Ranking-Assoziationsregeln In dieser Demo stellen wir ein interaktives System vor, das die Analyse mehrerer Kriterien effektiv auf Rangzuordnungsregeln anwendet. Wir verwenden erstens Assoziationsregeltechniken, um die Korrelationen zwischen Variablen in gegebenen Daten (d. h. Datenbank und verknüpfte Daten (LD)) zu untersuchen, und zweitens wenden wir eine Mehrfachkriterienanalyse (MCA) an, um die relevantesten Regeln gemäß den Benutzerpräferenzen auszuwählen. Das entwickelte System ist flexibel und ermöglicht die intuitive Erstellung und Ausführung verschiedener Algorithmen für ein umfangreiches Spektrum fortgeschrittener Datenanalysethemen. Darüber hinaus demonstrieren wir eine Fallstudie zum Mining von Assoziationsregeln und zum Ranking von Verkehrsunfalldaten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-45442-5_55 1dbd7077b0ee3c07bd7e14f8e62a7eba;de;;;7.3.;;;Technologische Netzwerke Das Studium von Netzwerken in Form der mathematischen Graphentheorie ist einer der Grundpfeiler der diskreten Mathematik. In den letzten Jahren gab es jedoch eine erhebliche neue Bewegung in der Netzwerkforschung. Der Fokus der Forschung verschiebt sich weg von der Analyse kleiner Graphen und der Eigenschaften einzelner Knoten oder Kanten hin zur Berücksichtigung statistischer Eigenschaften großskaliger Netzwerke. Dieser neue Ansatz wurde vor allem durch die Verfügbarkeit technologischer Netzwerke wie das Internet [12], World Wide Web Network [2] usw. vorangetrieben, die es uns ermöglichen, Daten in einem viel größeren Maßstab als bisher möglich zu sammeln und zu analysieren. Gleichzeitig haben sich technologische Netzwerke zu einem sozio-technologischen System entwickelt, da sich die Konzepte sozialer Systeme, die auf der Selbstorganisationstheorie basieren, in technologischen Netzwerken vereinheitlicht haben [13]. In der heutigen Gesellschaft haben wir einen einfachen und universellen Zugang zu großen Mengen an Informationen und Diensten. Diese Informationsdienste basieren auf der Infrastruktur des Internets und des World Wide Web. Das Internet ist das System, das aus „Computern“ besteht, die durch Kabel oder eine andere Form physischer Verbindungen verbunden sind. Über dieses physische Netzwerk ist es möglich, E-Mails auszutauschen, Dateien zu übertragen usw. Andererseits ist das World Wide Web (üblicherweise als Web abgekürzt) ein System verknüpfter Hypertextdokumente, auf die über das Internet zugegriffen wird, wobei Knoten das Web darstellen Seiten und Links stellen Hyperlinks zwischen den Seiten dar. Auch Peer-to-Peer (P2P)-Netzwerke [26] haben sich in letzter Zeit zu einem beliebten Medium entwickelt, über das riesige Datenmengen ausgetauscht werden können. P2P-Filesharing-Systeme, bei denen Dateien ohne die Hilfe von zentralen Servern unter Peers gesucht und heruntergeladen werden, haben sich zu einem wichtigen Bestandteil des Internetverkehrs entwickelt. Ein wichtiger Vorteil in P2P-Netzwerken besteht darin, dass alle Clients Ressourcen bereitstellen, einschließlich Bandbreite, Speicherplatz und Rechenleistung. In diesem Kapitel besprechen wir diese technologischen Netzwerke im Detail. Die Überprüfung ist wie folgt organisiert. Abschnitt 2 bietet eine Einführung in das Internet und verschiedene damit verbundene Protokolle. Dieser Abschnitt spezifiziert auch die sozio-technologischen Eigenschaften des Internets, wie Skaleninvarianz, Small-World-Eigenschaft, Netzwerk-Resilienz usw. Abschnitt 3 beschreibt die P2P-Netzwerke, ihre Kategorisierung und andere verwandte Themen wie Suche, Stabilität usw 4 schließt das Kapitel ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-8176-4751-3_15 64d7c806f464ebe5aa89afa6d0c8d3e3;de;;;7.3.;;;Physische Knowledge Base-Darstellung für Web Expert System Shell Webanwendungen haben sich rasant entwickelt und haben die Anwendung von Systemen in vielen Bereichen maßgeblich beeinflusst. Als permanenter Trend ist die Migration von Informationssystemen von klassischer Desktop-Software hin zu Web-Applikationen zu sehen. Dieser Trend gilt auch für die wissensbasierten Systeme. Diese Arbeit ist ein Teil der;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-34099-9_43 21ba5a095952305db1485eaca1dd4c36;de;;;7.3.;;;WTCluster: Verwenden von Tags für das Clustering von Webdiensten Das Clustern von Webdiensten würde die Fähigkeit der Webdienstsuchmaschine, relevante Dienste abzurufen, erheblich verbessern. Eine wichtige Einschränkung traditioneller Studien zum Webservice-Clustering besteht darin, dass sich die Forscher auf die Verwendung von WSDL-Dokumenten (Web Service Description Language) von Webservices konzentriert haben. Die Einzigartigkeit der Datenquelle schränkt die Genauigkeit des Clusterings ein. In letzter Zeit haben Webservice-Suchmaschinen wie Seekda! ermöglichen es Benutzern, Webservices mithilfe sogenannter Tags manuell zu kommentieren, die die Funktion des Webservices beschreiben oder zusätzliche kontextbezogene und semantische Informationen bereitstellen. In diesem Beitrag schlagen wir einen neuartigen Ansatz namens vor;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25535-9_14 84ed7ff381d4200e58180175345d9211;de;;;7.3.;;;Schüleranfrage Lernen im Web 2.0-Zeitalter Die Informationsverbreitung im Web 2.0-Zeitalter hat zu mehreren aufkommenden Problemen geführt, nämlich der Authentizität von Informationen, Orientierungslosigkeit sowie Fragen der Informationssuche und des Zitierens im akademischen Bereich. Studierende befinden sich beim webbasierten Lernen oft in einer schwierigen Situation, wenn die Nützlichkeit und der Wahrheitsgehalt der Webinformationen zweifelhaft sind. Basierend auf der Studie der Pre-Reading-Aktivität und des Websuchverhaltens von Lawless, Schrader und Mayall (2007) und der Web-Informationsbewertungsarbeit von Eagleton und Dobler (2007) schlägt dieses Papier einen Leitfaden vor, der den Schülern hilft, die Nützlichkeit und Wahrhaftigkeit der Informationen in ihrem Anfrageprozess. Dieses Framework bietet auch Anleitungen zum Speichern und Zitieren von Web 2.0-Informationen. Die Wirksamkeit des Leitlinienrahmens wurde jedoch nicht empirisch getestet und es sind weitere Studien zu seiner Anwendbarkeit erforderlich.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-93847-9_10 1714315a0ad84bc9c7bc34938beb3b8f;de;;;7.3.;;;Die Krise des Journalismus neu gedacht: Kulturelle Macht Der jüngste technologische Wandel und die von ihm hervorgerufenen wirtschaftlichen Umwälzungen werden durch gesellschaftliche Bedeutungen kodiert. Kulturelle Codes lösen nicht nur technologische und wirtschaftliche Veränderungen aus, sondern bieten auch Wege zu deren Kontrolle, sodass die demokratischen Praktiken des unabhängigen Journalismus in neuen Formen aufrechterhalten werden können. Auch wenn sie ihre Berufsethik erfolgreich verteidigen, erleben Journalisten sie angesichts des technologischen und wirtschaftlichen Wandels als anfällig für Subversion. Tatsächlich haben unabhängige Journalisten und die sie unterstützenden sozialen Gruppen oft das Gefühl, den Kampf um Autonomie zu verlieren. Genauso wie die aktuellen Ängste durch die Computerisierung und digitale Nachrichten ausgelöst wurden, waren auch frühere Krisen des Journalismus mit technologischen Veränderungen verbunden, die neue Formen der wirtschaftlichen Organisation erforderten. Die digitale Produktion hat zu außergewöhnlichen organisatorischen Umbrüchen und wirtschaftlichen Belastungen geführt. Gleichzeitig haben kritische Auseinandersetzungen mit der digitalen Produktion innovative Organisationsformen ausgelöst, die es neuen Technologien ermöglichen, die demokratische Kultur und Institution der Nachrichtenproduktion zu erhalten und nicht zu untergraben. Wenn Nachrichtenproduzenten sich bemühen, den professionellen Journalismus unter Beibehaltung journalistischer Bürgerwerte an das digitale Zeitalter anzupassen, gibt es parallel Anpassungen von der digitalen Seite: Der digitale Journalismus wird immer mehr zum professionellen Journalismus.;-;-;-;https://link.springer.com/article/10.1007/s40647-014-0056-5 542546970febeb0120083b898ac5cecc;de;;;7.3.;;;Webbasierte Erkundung von Fotos mit Zeit und Geospace Die Welt der Community-integrierten Fotodaten im Web fordert uns heraus, Werkzeuge und Techniken für die visuelle Erkundung von Fotos nicht nur im Hinblick auf den Bildinhalt, sondern auch auf die anderen mit den Fotos verbundenen Informationen zu entwickeln. In diesem Beitrag untersuchen wir Lösungen für die visuelle Exploration von Fotos in Zeit und Raum. Die drei Aspekte raumzeitlicher Fotodaten (die sind:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36608-6_10 80c22e48be66bec22a9b95527c3c36e5;de;;;7.3.;;;Eine digitale Inhaltsverteilung unter Verwendung einer Gruppenschlüssel- und mehrschichtigen Struktur basierend auf dem Web Hinsichtlich des Entwurfs eines Multimedia-Digitalinhalt-Verteilungssystems besteht die wichtige Aufgabe darin, Benutzern eine große Menge an Multimedia-Digitalinhalt bereitzustellen und die Sicherheit digitaler Inhalte zu garantieren. In dieser Studie haben wir vorgeschlagen, für jede Gruppe eine Sicherheitstechnik in einer mehrschichtigen Struktur und eine Caching-Technik, die auf dieser Sicherheitstechnik basiert, zu entwerfen und die Reaktionsgeschwindigkeit des Benutzers zu verbessern. Die Verwendung dieser Techniken garantiert die Sicherheit der Verbreitung digitaler Inhalte.;-;-;-;https://link.springer.com/chapter/10.1007/11596042_128 6df80f8cddc8b45945a9b700eb8bf272;de;;;7.3.;;;Visuelle Ähnlichkeit von Webseiten In diesem Artikel stellen wir ein Experiment mit zwei Methoden zur Bewertung der Ähnlichkeit von Webseiten vor. Die Ergebnisse dieser Verfahren können auf verschiedene Weise für die Neuordnung und das Clustern eines Webseitensatzes verwendet werden. Beide Methoden gehören zum Bereich des Web Content Mining. Die erste Methode konzentriert sich ausschließlich auf die visuelle Ähnlichkeit von Webseiten. Diese Methode segmentiert Webseiten und vergleicht ihre Layouts basierend auf Bildverarbeitung und Graph-Matching. Das zweite Verfahren basiert auf der Erkennung von Objekten, die sich aus der Sicht des Benutzers auf der Webseite ergeben. Die Ähnlichkeit von Webseiten wird als Objektübereinstimmung auf den analysierten Webseiten gemessen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10687-3_13 d110047c28fb463343063fa3db92c215;de;;;7.3.;;;State of the Art in den kognitiven Aktivitäten von Designern und in der Computerunterstützung: Mit Schwerpunkt auf der Informationskategorisierung in den frühen Phasen des Designs Heutzutage wächst das Interesse an der Analyse der kognitiven Aktivitäten von Designern [2]- [10]. Dieses Interesse ist zu einem wichtigen interdisziplinären Thema nicht nur in der Designwissenschaft, sondern auch in der kognitiven Psychologie, Informatik und künstlichen Intelligenz geworden. In diesem Zusammenhang zielt die Analyse der kognitiven Aktivität des Designers darauf ab, die mentalen Strategien zur Lösung von Entwurfsproblemen klarer zu beschreiben und rechnerische Werkzeuge zu entwickeln, um Designer in den frühen Phasen des Entwurfs zu unterstützen. Soweit die Designforschung auf Erkenntnissen empirischer Studien beruht [11], haben die Ergebnisse dieser Studien gezeigt, dass die kognitiven Aspekte der Konstruktion, Kategorisierung und effektiven Anwendung von Designinformationen zur Ideengenerierung in den frühen Phasen des Designs relativ implizit vernachlässigt werden . Daher bieten wir in diesem Papier den Stand der Technik in den kognitiven Aktivitäten und der computergestützten Unterstützung von Designern mit Schwerpunkt auf der Informationskategorisierung in den frühen Phasen des Designs durch einen Überblick über eine breite Palette von Literatur. Wir präsentieren auch eine Fallstudie des Systems „TRENDS“, das im Kern dieser Forschungstendenz positioniert ist. Abschließend diskutieren wir die Grenzen der aktuellen Forschung und Perspektiven für die weitere Arbeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85190-5_37 84d6361cef796fce473c8b8399259ab4;de;;;7.3.;;;Filterung großer Mengen unstrukturierter Textdokumente durch das entwickelte Tool TEA Dieser Artikel beschreibt ein Textdokument-Filter-Softwaretool TEA (TExt Analyzer), das ursprünglich für Ärzte entwickelt wurde, um die Auswahl einer großen Anzahl unstrukturierter medizinischer Textdokumente aus verfügbaren Internetdiensten zu unterstützen. TEA lernt interessante und relevante Dokumente für;-;-;-;https://link.springer.com/chapter/10.1007/3-540-46154-X_13 dd68899799fe570435ad813591846a0d;de;;;7.3.;;;Experimentelle Studie zur Darstellung von Einheiten in der chinesischen Textkategorisierung Dieses Papier ist eine vergleichende Studie zur Darstellung von Einheiten in der chinesischen Textkategorisierung. Es wurden verschiedene Arten von Darstellungseinheiten untersucht, einschließlich Byte 3-Gramm, chinesisches Schriftzeichen, chinesisches Wort und chinesisches Wort mit Wortteilmarkierung. Empirische Beweise zeigen, dass Darstellungen von höheren oder größeren Merkmalsräumen, wenn die Größe der Trainingsdaten groß genug ist, zu einer besseren Leistung führen als Darstellungen von niedrigeren Ebenen oder mit kleineren Merkmalsräumen Die Umkehrung. Im Allgemeinen benötigen Darstellungen von höheren Ebenen oder mit größeren Merkmalsräumen mehr Trainingsdaten, um die beste Leistung zu erzielen. Aber was eine konkrete Darstellung angeht, korrelieren die Trainingsdatengröße und die Kategorisierungsleistung nicht immer positiv.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36456-0_67 1dbef5ebd4568e5b8edcce70094642ec;de;;;7.3.;;;Dienstleistungsproduktivität im Gesundheitswesen Das Gesundheitswesen ist ein Kerndienstleistungsfeld, nicht zuletzt, weil wir alle zumindest am Konsum, wenn nicht gar an der Leistungserbringung beteiligt sein werden. Es hat sich im letzten Jahrhundert dramatisch verbessert und profitierte von einer Reihe technologischer und organisatorischer Innovationen. Dabei ist die Gesundheitsversorgung jedoch zu einem sehr komplexen Prozess geworden, an dem viele verschiedene Interessengruppen beteiligt sind, sodass der Prozess und die Ergebnisse dieser Serviceoperationen ein intensives, oft kritisches öffentliches Interesse auf sich ziehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-05975-4_8 e18821f04070be77dfd508cd72db48db;de;;;7.3.;;;Ein verteilter Algorithmus für das Overlay-Backbone-Multicast-Routing in Content Delivery Networks Um groß angelegte Live-Internet-Rundfunkdienste in Content Delivery Networks (CDNs) effizient zu unterstützen, ist es wichtig, die Peer-to-Peer-Fähigkeiten zwischen den Endbenutzern zu nutzen. Auf diese Weise kann der Bedarf an Zugriffsbandbreite auf CDN-Servern im Overlay-Backbone weitgehend reduziert werden. Eine solche Streaming-Infrastruktur führt zu einem herausfordernden Overlay-Backbone-Multicast-Routing-Problem (OBMRP), um das Multicast-Routing zwischen CDN-Servern im Overlay-Backbone zu optimieren. In diesem Beitrag verwenden wir einen graphentheoretischen Ansatz und rahmen OBMRP als ein eingeschränktes Spannbaumproblem ein, das sich als NP-schwer erweist. Wir präsentieren einen leichtgewichtigen verteilten Algorithmus für OBMRP. Simulationsexperimente bestätigen, dass unser vorgeschlagener Algorithmus zu Lösungen guter Qualität konvergiert und einen geringen Steuerungsaufwand erfordert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79549-0_21 98c43fd0bf2aacc7093185bf4a8bcc20;de;;;7.3.;;;Duale Beziehungen im physischen und im Cyberraum Mit der rasanten Entwicklung der Computer-, Kommunikations- und Sensortechnologie hat sich unser Lebensraum vom physischen Raum in einen Raum verwandelt, der vom physischen Raum und dem Cyberspace geteilt wird. Angesichts dieser Tatsache und basierend auf der Analyse der Eigenschaften des physischen Raums bzw. des Cyberspace schlug dieser Aufsatz vor, dass es zwischen dem physischen Raum und dem Cyberspace eine duale Beziehung gibt. Die Herstellung dualer Beziehungen wird in den folgenden zwei Prozessen realisiert: dem Prozess der Informationsextraktion, -analyse und -strukturierung vom physischen Raum zum Cyberspace und dem Prozess der Bereitstellung der Informationsdienste vom Cyberspace zum physischen Raum durch Rückschlüsse auf Intention, Zustand und Nachfrage der Nutzer of , sowie. HCI (Human Cyberspace Interaction) im dualen Raum bedeutet, die dualen Beziehungen herzustellen, die das Human Centered HCI verkörpert haben, d.;-;-;-;https://link.springer.com/article/10.1007/s11434-004-0643-y 4a3ae6af0a8abf9522c8eeb9b117d25f;de;;;7.3.;;;Vergleichende Analyse von IR-basierten Webdienst-Ähnlichkeitsmessungen unter Verwendung des Vektorraummodells Mit dem Aufkommen der serviceorientierten Architektur (SOA) haben Webdienste eine enorme Popularität erlangt. Durch die Verfügbarkeit einer Vielzahl von Webservices wird die Suche nach relevanten Services immer schwieriger. Darüber hinaus verlassen sich große Unternehmen heutzutage zunehmend auf Webdienste als Methodik für die groß angelegte Softwareentwicklung und die gemeinsame Nutzung von Diensten innerhalb einer Organisation. . Dies rechtfertigt die Notwendigkeit, einen effektiven Prozess zum Auffinden ähnlicher Dienste einzurichten. Die Erkennung von Webdiensten umfasst drei miteinander verbundene Phasen: 1 – Abgleich, 2 Bewertung und 3 – Auswahl. Unsere Arbeit konzentriert sich auf die Phase 1, Service Discovery Matching, in der wir Standard-Ähnlichkeitsmaße verwenden, d. h. Cosinus-Ähnlichkeit und euklidische Distanz, um die relevantesten Dienste abzurufen. Da es keine vorgegebene Formel oder Methode gibt, um die Parameter zu identifizieren, anhand derer die Ähnlichkeit zwischen zwei Diensten festgestellt werden kann, entwickeln wir ein Regressionsmodell, um die Bedeutung der verwendeten Parameter zu überprüfen. Am Ende führen wir die vergleichende Analyse der von uns verwendeten Ansätze durch.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29216-3_81 02f3fdcc097935854d38bb4ca1b6f16b;de;;;7.3.;;;Technologische Übernahme eines privatisierten E-Government: Implikationen für Demokratie und sozial marginalisierte Gemeinschaften in Brasilien In den meisten Teilen der Welt kann E-Government als privatisierte Initiative in dem Sinne charakterisiert werden, dass seine Infrastruktur durch Verträge mit der Privatwirtschaft aufgebaut wird. Während in Brasilien, wie auch in vielen anderen Ländern, E-Government-Initiativen erfolgreich waren, die elektronische Bereitstellung einer großen Vielfalt und Anzahl öffentlicher Dienstleistungen für die Bevölkerung schnell umzusetzen – „Agenda zur Verbesserung der Dienste“, die Transparenz im Entscheidungsprozess in öffentlichen Institutionen – „Relationship Improvement Agenda“ – sind in der Praxis unterentwickelt. Aufgrund der Privatisierung des Telekommunikationssektors, die den neoliberalen Diskurs begleitete, kamen hohe Investitionen der Regierung in Projekte der Informations- und Kommunikationstechnologien (IKT) eher den Unternehmensakteuren als den wirtschaftlich verarmten Gemeinschaften zugute, da der Zugang zu elektronischen Diensten nicht mehr als soziales Recht für alle, sondern als Privileg für einige angesehen. Der E-Government-Diskurs soll fordern, dass der Zugang zu neuen Technologien ein Grundrecht für alle ist. Leider ist in den meisten Ländern das vorherrschende E-Government-Modell so konzipiert, dass die Bürger eher als Leistungsempfänger denn als aktive Teilnehmer betrachtet werden. Darüber hinaus findet der Dialog zwischen Anbietern und Bürgern nicht während des Entwicklungsprozesses der Technologie statt, sondern an der Peripherie ihrer Implementierung. Ziel dieser Studie ist es, die Herausforderungen des E-Government in Brasilien zu diskutieren, das trotz der hohen Werbekosten der „Services Improvement Agenda“ als Unternehmensorientierung kommerzialisiert wird, die Bürgerbeteiligung und das Demokratiedefizit bzw Verbesserungsagenda“.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-6536-3_15 cd767bcc9b40f96243b633669eeed61f;de;;;7.3.;;;Destination Management Organizations (DMOs) und Digital Natives: die vernachlässigte „informelle Expertise“ in der Web 2.0-Implementierung und Social-Media-Präsenz. Einblicke aus dem italienischen DMO Friaul-Julisch Venetien Der vorliegende Beitrag möchte die Perspektive von Digital Natives (DNs), die in der Literatur als „informelle Experten“ bezeichnet werden, in Bezug auf die Umsetzung digitaler Strategien von Destination Management Organisationen (DMOs) untersuchen. Insbesondere wurden Fokusgruppen von Studenten und Arbeitnehmern im Tourismusbereich gebeten, die Website und die Social-Media-Präsenz einer italienischen regionalen DMO (d. h. PromoTurismoFVG) zu durchsuchen und zu diskutieren. Kommentare wurden gesammelt und mit der GABEK/Winrelan-Methode zur qualitativen Analyse analysiert. Die Ergebnisse bestätigten die Annahme eines digitalen Formats durch die DMO, jedoch mit begrenzten sozialen und verbrauchergenerierten Inhalten (CGC). DNs erkannten die Implementierung einer Web 2.0-Zielseite in eine eher traditionelle Marketing-Mix-Strategie. Darüber hinaus ergab die Inhaltsanalyse von DMO-Websites und Social Media (SM) (d. h. Facebook, Instagram, Twitter und YouTube), dass der DMO Produkte und Angebote für das junge Marktsegment fehlen. Die Kombination aus begrenzten sozialen Inhalten und der schwachen Aufmerksamkeit für den Jugendmarkt macht die aktuelle digitale DMO für die Digital Natives nicht attraktiv genug. Die Arbeit unterstreicht, wie wichtig es ist, sich bei der Planung und Entwicklung von digitalen Strategien, DMO-Websites und SM-Präsenz auf die „informelle Expertise“ von DN zu konzentrieren. Ihr nachgewiesenes Social-Media-Wissen und ihre digitalen Kompetenzen müssen als wichtige Chance für DMOs und zur Verbesserung der Destinationsmarketingstrategien betrachtet werden. Diese Forschung trägt zur wissenschaftlichen Diskussion über die Implementierung von SM/Web 2.0 im Destinationsmanagement bei, indem sie eine explorative Studie zur informellen Expertenperspektive von DNs präsentiert, die durch den Einsatz von GABEK/Winrelan als innovative Methode unterstützt wird.;-;-;-;https://link.springer.com/article/10.1007/s40558-016-0068-x 73d5dc29e6268e63550662b7af94d51a;de;;;7.3.;;;Kooperative Ontologie-Entwicklungsumgebung CODE und ein Demo Semantic Web für Wirtschaftswissenschaften Ontologie ist das Rückgrat des Semantic Web. Die Ontologie hat immer mehr Bedenken hinsichtlich der Forschungsarbeiten im Semantic Web auf sich gezogen. Der Aufbau umfangreicher Ontologien erfordert die Zusammenarbeit mehrerer Entwickler. In diesem Beitrag zeigen wir unsere kooperative Ontologie-Entwicklungsumgebung CODE und diskutieren eine Demo des Semantic Web für Wirtschaftswissenschaften.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-31849-1_104 fd3e4b75f04c9552151e6ba9a5330afa;de;;;7.3.;;;Unternehmen und das Internet: Implikationen für Unternehmensstandort und Clustering In diesem Artikel werden die wirtschaftlichen und geografischen Auswirkungen des zunehmenden Einsatzes von Informations- und Kommunikationstechnologien (IKT) im Produktionsprozess erörtert. Kurz gesagt, IKT machen die interne und externe Kommunikation effizienter und ermöglichen eine schnellere und flexiblere Interaktion zwischen verschiedenen Agenten. Diese Verbesserungen korrelieren mit Veränderungen in der internen Organisation des Unternehmens und in seinem strategischen Verhalten. Diese Veränderungen haben Auswirkungen auf die regionale Wirtschaftsentwicklung.;-;-;-;https://link.springer.com/article/10.1023/A%3A1011405322306 c585b2f2c899424213394133193e6703;de;;;7.3.;;;Ein themenspezifisches Websuchsystem mit Fokus auf Qualitätsseiten Wir beschreiben ein themenspezifisches Websuchsystem, das sich auf Qualitätsseiten konzentriert, und argumentieren, dass Bedarf an solchen qualitätsbasierten themenspezifischen Suchwerkzeugen besteht. Die erste Implementierung des Suchsystems ist im Web verfügbar und befasst sich mit dem Klimawandel. Der Grundgedanke ist das Crawlen (mit einer fokussierten Crawling-Technik) in bekannten vertrauenswürdigen Sites und in Sites, die mit ihnen verbunden sind. Außerdem diskutieren wir die Weiterentwicklung des Systems und unsere zukünftige Forschung. Unser Projektplan sieht den Aufbau eines größeren qualitätsbasierten Websuchsystems vor, das sich mit vielen global bedeutsamen Themen (neben dem Klimawandel) befasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15464-5_64 4d8e5cff2dde76397794270cb3f4cacc;de;;;7.3.;;;Rolle des Web 3.0 in der Service-Innovation In diesem Kapitel wird die Rolle der aufstrebenden Technologie Web 3.0 (Semantic Web) bei der Serviceinnovation erörtert und die Dimension der technologischen Optionen der Hertog (;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-6590-3_13 d44c0f76053afe079be6b62ec152e0b8;de;;;7.3.;;;Taiwans industrielle Entwicklung, ausländische Investitionen und IT-Industrie Das Kapitel liefert Hintergrund und Kontext für das Manuskript, das eine prägnante Beschreibung der Entwicklung von Taiwans Wirtschaft und ausländischer Direktinvestitionen (ADI) in Taiwan und insbesondere in der IT-Branche enthält. Das Kapitel beginnt mit der Diskussion des historischen Hintergrunds der wirtschaftlichen Entwicklung und der Etablierung der aktuellen Industriestruktur in Taiwan, einschließlich der Entstehung und des Wachstums der IT-Industrie, um die Standortvorteile Taiwans für ausländische Direktinvestitionen zu untersuchen. Die Diskussion zeigt, dass sich Taiwan im letzten halben Jahrhundert erfolgreich von einer Agrargesellschaft zu einem wichtigen Akteur in der globalen IT-Branche gewandelt hat. Darüber hinaus deutet die Diskussion darauf hin, dass das nachhaltige Wachstum der heimischen IT-Branche von der Realisierung eines hohen Markt- und Entwicklungspotenzials abhängt, das ein höheres Technologieniveau, höhere Wertschöpfungsaktivitäten, eine geringere Umweltverschmutzung und eine geringere Abhängigkeit von nicht erneuerbaren Energiequellen erfordert . Inländische Unternehmen müssen ihre Design-, F&E-, Logistik- und Marketingkapazitäten stärken, um auf ihren zentralen Wettbewerbsvorteilen aufzubauen. Ein Profil von 16 großen US-amerikanischen MNUs in der IT-Branche Taiwans wurde zusammen mit einer Untersuchung des breiten Spektrums ihrer Wertschöpfungskettenaktivitäten im Land vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-32028-1_2 3a67b170ce1af8513306a1565901903f;de;;;7.3.;;;Kann WWW erfolgreich sein? Angesichts der Tatsache, dass die Zahl der WWW-Server und -Benutzer immer weiter explodiert, klingt der Titel dieses Artikels gelinde gesagt seltsam. Während sich jedoch jede Organisation ohne ihre eigene richtige URL wie ein Ausgestoßener zu fühlen beginnt, liegen Wolken über der Zukunft des WWW.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35561-0_3 c3b5b3b8a25f57db8333b972868af1d5;de;;;7.3.;;;: Ein modellbasiertes Framework für die Semantic Web Service Discovery Die Erkennung von Semantic Web Service (SWS) hat immer mehr an Aufmerksamkeit gewonnen, was zu einer großen Anzahl von Service-Matchmaking-Ansätzen geführt hat. Bestehende Ansätze basieren auf SWS-Beschreibungen, die gemäß einer einzigen Spezifikation ausgedrückt werden (z. B. OWL-S, WSMO und SAWSDL). In diesem Beitrag schlagen wir einen Service-Matchmaking-Algorithmus vor, der auf einem SWS-Metamodell basiert und die Merkmale aller gängigsten SWS-Spezifikationen abstrahiert. Der Algorithmus führt einen SWS-Vergleich durch, indem er die Matchmaking-Beschränkungen zunehmend lockert, um die Effektivität des Entdeckungsverfahrens in Bezug auf Präzision und Erinnerung zu maximieren. Um die Leistung von Algorithmen zu beschleunigen, bieten wir außerdem;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45714-6_3 c57720475e62515f0d88a626ed50fe36;de;;;7.3.;;;Netzwerksysteme und Beispiele Satellitenkommunikationsnetze haben sich von Rundfunksystemen, strahlvermittelten Transpondersystemen zu IP-Paketweiterleitungs-, Onboard-Verarbeitungs- und Vermittlungssystemen entwickelt. Die Rundfunkarchitektur der meisten kommerziellen Satelliten liefert Bandbreiten von 1 bis 2 GHz oder weniger. Die neuen Anwendungen erfordern in den nächsten Jahren eine effektive Bandbreitenerhöhung um eine Größenordnung. Die Masse der Satelliten ist mit einer Rate von 8 % pro Jahr gewachsen und die Kommunikationsnutzlasten haben sich über 35 Jahre auf weit über zweitausend Prozent erhöht [3]. Die zukünftigen Satellitensystemdesigns verwenden mehrere Punktstrahlen, um eine maximale Frequenzwiederverwendung zu erreichen. Satellitensysteme können in Regionen mit weniger entwickelter Kommunikationsinfrastruktur zur eingebetteten Infrastruktur werden und den Internetdienst gegenüber anderen Technologien wie Kabel, DSL, Glasfaser und Wireless ergänzen. Es wird erwartet, dass der Markt für Content Delivery Distribution über ein Satellitennetzwerk bis 2006 auf 4 Milliarden US-Dollar anwachsen wird [59].;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-8895-9_4 ad07aa2d12bb115a1de87932f30d132a;de;;;7.3.;;;Webbasierte Tools für die Politikbewertung Die aktuelle Forschung zur E-Demokratie konzentriert sich bisher auf die frühen Phasen der politischen Entscheidungsfindung. Es hat sich gezeigt, dass Informations- und Kommunikationstechnologie (IKT) die Teilnahme am Agenda-Setting und der Alternativenauswahl erleichtert. IKT hat aber auch das Potenzial, die Bewertung bestehender Politiken zu erleichtern. Dieses Papier untersucht die Politikbewertung aus Sicht der Kommunalpolitiker. Welche webbasierten Tools sind für die Politikbewertung nützlich und welche Art von Informationen bieten diese Tools?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-32257-3_2 10ebbd4f0b78d55b2e60705f08275258;de;;;7.3.;;;wHunter: Ein fokussierter Web-Crawler – Ein Werkzeug für die digitale Bibliothek Themengesteuerter Web-Crawler oder fokussierter Crawler ist das Schlüsselwerkzeug der Online-Web-Informationsbibliothek. Es ist eine Herausforderung, mit begrenzten Zeit- und Platzressourcen effizient eine gute Leistung zu erzielen. Dieses Papier schlägt einen fokussierten Webcrawler wHunter vor, der inkrementelles und Multi-Strategie-Lernen implementiert, indem er die Vorteile von SVM (Support Vector Machines) und naiven Bayes nutzt. Einerseits wird die Anfangsleistung über den SVM-Klassifikator garantiert, andererseits wird bei genügend Webseiten der Klassifikator auf naive Bayes umgeschaltet, so dass inkrementelles Online-Lernen erreicht wird. Experimentelle Ergebnisse zeigen, dass unser vorgeschlagener Algorithmus effizient und einfach zu implementieren ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30544-6_59 5d9a15d35eb0b1fad2a088d9f8f0cce0;de;;;7.3.;;;NLP und Large-Scale Information Retrieval zu mathematischen Texten Wir präsentieren ein Empfehlungssystem, das mathematische und mathematische Physikarbeiten aus dem arXiv umfasst, um Forschern zu helfen, Theoreme schnell abzurufen und ähnliche Ergebnisse aus diesem riesigen Korpus zu entdecken. Das Retrieval zielt darauf ab, nicht nur syntaktische, sondern auch semantische Ähnlichkeiten zu entdecken. Wir werden die aufgetretenen Herausforderungen und die verwendeten experimentellen Methoden diskutieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-96418-8_19 e6e952741e05c242f43fa95c4fb3201b;de;;;7.3.;;;Magnet Mail: Ein Visualisierungssystem zum Abrufen von E-Mail-Informationen Wir präsentieren Magnet Mail (MM), ein Visualisierungssystem zum Abrufen von Informationen aus E-Mail-Archiven über eine zoombare Oberfläche. MM ermöglicht es Benutzern, Beziehungen zwischen ihren E-Mail-Dokumenten basierend auf der Suche nach Schlüsselwörtern abzuleiten. Der Prototyp interagiert mit einem Massenmarkt-E-Mail-System und verwendet eine Magnetmetapher, um die Benutzerinteraktion mit E-Mails zu simulieren. Die grafische Umsetzung basiert hauptsächlich auf dem Piccolo-Toolkit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02115-2_18 6d6d2fbcb0ac2ab31d60eb9df53eac70;de;;;7.3.;;;Die Rolle adaptiver Elemente in Benutzeroberflächen von webbasierten Überwachungssystemen In diesem Beitrag präsentieren wir eine Analyse der Verbesserungen einer webbasierten grafischen Benutzeroberfläche (GUI) für Gesundheitsüberwachungssysteme. Solche Systeme sollen Mittel bereitstellen, um Ausbrüche und entsprechende Informationen über sie sowohl aus formellen (z. B. Krankenhausberichten) als auch aus informellen (z. B. Nachrichtenseiten) Quellen zu erkennen und vorzuschlagen. Trotz der Verfügbarkeit verschiedener solcher Systeme wurden jedoch nur wenige Studien durchgeführt, um die Elemente der Benutzeroberfläche des Systems zu diskutieren und wie sie Benutzer bei ihren Aufgaben unterstützen kann. Zu diesem Zweck untersuchen wir Techniken zur intuitiven und benutzerfreundlichen Anpassung, Strukturierung und Navigation von Informationen, wobei der Schwerpunkt auf einem Übergang von einem statischen zu einem dynamisch angepassten Weberlebnis liegt. Wir führen eine Fallstudie mit Gesundheitsüberwachungsexperten durch, in der wir einen Fall für Empfehlungen präsentieren, die den Präferenzen des Benutzers innerhalb eines Systems entsprechen, und Verbesserungen der vorgestellten GUI diskutieren. Wir diskutieren Verbesserungen im Lichte des Feedbacks dieser Benutzer und schlagen vor, wie angepasste Elemente einer GUI verwendet werden können, um die Benutzererfahrung bei einer Überwachungsaufgabe zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08786-3_31 089f9e1037c7e2620894f06b72120b0d;de;;;7.3.;;;Bedeutungsfokussierte und quanteninspirierte Informationsbeschaffung In den letzten Jahren haben quantenbasierte Methoden die traditionellen Verfahren im Information Retrieval (IR) und Natural Language Processing (NLP) vielversprechend integriert. Inspiriert von unserer Forschung zur Identifizierung und Anwendung von Quantenstrukturen in der Kognition, insbesondere unserer Arbeit zur Darstellung von Konzepten und deren Kombinationen, haben wir ein auf Quantenbedeutungen basierendes Framework für strukturierte Abfragen in Textkorpora und standardisierte Testkorpora entwickelt. Dieses Schema für IR beruht auf der Berücksichtigung von (i) „Bedeutungseinheiten“, z. Der Bedeutungsgehalt dieser „Bedeutungsentitäten“ wird rekonstruiert, indem ein „inverses Problem“ im Quantenformalismus gelöst wird, das darin besteht, die vollständigen Zustände der Bedeutungsentitäten aus ihren kollabierten Zuständen zu rekonstruieren, die in relevanten Dokumenten als Spuren identifiziert wurden. Anhand konkreter Beispiele werden die Vorteile gegenüber traditionellen Ansätzen wie der Latent Semantic Analysis (LSA) diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54943-4_7 93e8eff46363503efeaccd92b0110a53;de;;;7.3.;;;Schnelle Ausbreitungsalgorithmen für einfach verbundene Netzwerke und ihre Anwendungen für den Informationsabruf Es gibt einige Probleme, bei denen die Zeit, die zum Bewerten eines Bayesschen Netzes benötigt wird, nicht lang sein darf. Dies bedeutet, dass in diesen Situationen nicht alle Ausbreitungsalgorithmen angewendet werden könnten und daher ein geeignetes Verfahren gewählt werden muss. Eine Auswertung, die diese Anforderung erfüllt, wird allgemein als „Anytime-Algorithmus“ bezeichnet. Sie können jederzeit eine ungefähre Ausgabe zurückgeben, eine Lösung, die für einige Probleme ausreichen könnte. In dieser Arbeit werden zwei Methoden vorgestellt, die in diesem Ansatz umrahmt sind. Dabei handelt es sich um Modifikationen des exakten Ausbreitungsalgorithmus von Pearl für einfach verbundene Netzwerke, die mit dem Ziel entwickelt wurden, den Ausbreitungsaufwand bei Domänenproblemen zu reduzieren, bei denen die Anzahl der Variablen sehr groß ist und das Domänenwissen mit dieser Topologie dargestellt werden könnte. Als sehr geeigneter Prüfstand zur Messung ihrer Qualität wurde der Bereich Information Retrieval gewählt. Die Ergebnisse eines detaillierten Experiments werden ebenfalls präsentiert und zeigen eine gute Leistung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39879-0_15 f43f4f93a1c56a8a6c63783eb186f8bf;de;;;7.3.;;;Die dunkle Seite des Web 2.0 Social-Networking-Sites haben an Popularität gewonnen und werden für viele Zwecke verwendet, darunter die Verbindung mit anderen Personen, das Teilen von Informationen und das Erstellen von Inhalten. Viele Menschen auf Social-Networking-Sites nutzen diese Plattformen, um Meinungen zu aktuellen Ereignissen in der Gesellschaft zu äußern. Die Menschen erkennen nicht den Wert ihrer auf diesen Plattformen preisgegebenen Daten und die Taktiken der Social Engineers, um die scheinbar wertlosen Daten zu sammeln. Ein Angriffsvektor entsteht, wenn ein Benutzerprofil mithilfe von Antworten von einer dieser Plattformen erstellt und die Daten mit durchgesickerten Informationen von einer anderen Plattform kombiniert werden können. In diesem Artikel werden Methoden erörtert, wie diese Daten ohne nennenswerten Wert für die Benutzer zu einem Gut für Social Engineers werden können. In diesem Artikel wird untersucht, welche Informationen aus den Antworten auf Social-News-Sites abgeleitet werden können, und untersucht, wie diese Informationen für Social Engineers nützlich sein können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33332-3_22 59de0bc13b77c1d77541aa91477c949b;de;;;7.3.;;;Kontextbasierte Relevanzbewertung von Webdokumenten Fokussiertes Crawlen gilt als eine wichtige Strategie, um den Suchraum zu reduzieren und einem Benutzer basierend auf Suchanfragen relevantere Links bereitzustellen. Vorhandene Webcrawler funktionieren nur auf der Grundlage eines vollständigen String-Matchings von Abfrageschlüsselwörtern mit Wörtern, die in verschiedenen Tags oder Feldern auf den Webseiten vorhanden sind. Aber ein bestimmtes Schlüsselwort kann in verschiedenen Kontexten unterschiedliche Bedeutungen haben, abhängig von seiner Verwendung als Verb, Substantiv usw. Zum Beispiel;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32129-0_24 fdeda7c4d15930b39986e708df5fd673;de;;;7.3.;;;Ontia iJADE: Ein intelligentes Ontologie-basiertes Agenten-Framework für Semantic Web Service Das Internet wird Teil unseres Lebens. Benutzer können über das Internet auf verschiedene Arten von Informationen zugreifen. Das exponentielle Wachstum des Internets führte jedoch zu einem großen Problem: Es ist schwierig, relevante Informationen zu finden. Das Semantic Web ist eine Erweiterung des aktuellen Websystems, in dem Informationen klar organisiert sind und Computer und Menschen zusammenarbeiten können. Die Agententechnologie eröffnet diesem intelligenten Websystem einen neuen Weg. In diesem Papier haben wir eine innovative Agentenplattform vorgeschlagen – Ontia iJADE, die den Semantic Web Service unterstützt. Ontia iJADE enthält einen Ontologieserver, der als intelligenter Java-basierter Ontologieserver (IJAOS) bekannt ist und die Ontologieinformationen für Agenten zur gemeinsamen Nutzung und Wiederverwendung speichert und verwaltet.;-;-;-;https://link.springer.com/chapter/10.1007/11893004_82 b6160a5b4d4a6999925e44cbbfcbdab7;de;;;7.3.;;;Ein formales Sicherheitsmodell eines Smartcard-Webservers Der Smartcard-Webserver bietet eine moderne Schnittstelle zwischen Smartcards und der Außenwelt. Es ist von größter Bedeutung, dass diese neue Softwarekomponente die Sicherheit der Chipkarte nicht gefährdet. Dieses Papier präsentiert ein formales Modell der Smartcard-Webserverspezifikation und den Nachweis ihrer Sicherheitseigenschaften. Die Formalisierung ermöglicht eine durchdachte Analyse der Spezifikation, die mehrere Unklarheiten und potenziell gefährliche Verhaltensweisen aufgedeckt hat. Unser formales Modell basiert auf einem modularen Ansatz auf einem Modell von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27257-8_3 b01da061d2c305a91f8cae555a1d7249;de;;;7.3.;;;Innovative Mass Customization in der Modebranche Mass Customization (MC) ist eine beliebte Strategie in der Modebranche. MCas Ziel ist es, die individuellen Kundenbedürfnisse mit kundenspezifischen Produkten zu massenproduktionsnahen Kosten zu befriedigen. In diesem Kapitel führen wir zunächst eine umfassende Literaturrecherche zu MC in der Modebranche durch. Wir schlagen dann ein Schema vor, um die MC-Praktiken als traditionell und innovativ zu klassifizieren. Durch die Untersuchung vieler realer Fälle vergleichen und entwickeln wir Erkenntnisse über die Anwendungen verschiedener Arten von MC in der Modebranche. Managementempfehlungen werden generiert. Wir glauben, dass dieses Kapitel eine gute Grundlage für zukünftige Studien zu MC bilden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04313-0_21 0358ea426ae5a3866f1d218e65846085;de;;;7.3.;;;Verbesserung der personalisierten Suche im Social Web basierend auf Ähnlichkeiten zwischen Benutzern Um die Präferenzen eines Benutzers und die soziale Zusammenfassung eines Dokuments zu charakterisieren, werden das Benutzerprofil und das allgemeine Dokumentprofil in bestehenden Folksonomie-basierten Personalisierungslösungen weitgehend übernommen. In vielen realen Situationen kann die Verwendung nur dieser beiden Profile jedoch die Suchergebnisse im Social Web nicht gut personalisieren, da (i) verschiedene Personen normalerweise unterschiedliche Ansichten über dasselbe Dokument haben und (ii) die im Benutzer enthaltenen Informationen Profil ist in der Regel nicht umfassend genug, um die Präferenzen eines Benutzers zu charakterisieren. Um die personalisierte Suche im Social Web zu verbessern, schlagen wir daher in dieser Arbeit eine duale personalisierte Ranking-Funktion (D-PR) vor, die zwei neuartige Profile verwendet: ein erweitertes Benutzerprofil und ein personalisiertes Dokumentenprofil. Für jedes Dokument, anstatt ein allgemeines Dokumentenprofil für alle Benutzer zu verwenden, berechnet unsere Methode für jeden einzelnen Benutzer ein personalisiertes Dokumentenprofil, um seine Wahrnehmung zu diesem Dokument besser zusammenzufassen. Es wird eine Lösung vorgeschlagen, um dieses Profil basierend auf den Wahrnehmungsähnlichkeiten zwischen den Benutzern zu schätzen. Darüber hinaus definieren wir ein erweitertes Benutzerprofil als die Summe aller personalisierten Dokumentprofile des Benutzers, um die Präferenzen eines Benutzers besser zu charakterisieren. Experimentelle Ergebnisse zeigen, dass unsere D-PR-Ranking-Funktion ein besseres personalisiertes Ranking im Social Web erzielt als die moderne Baseline-Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11508-5_26 a761a6d1afb299cc4b871747619ebbe6;de;;;7.3.;;;Eine Studie mit TAM zur Anerkennung der Privatsphäre von Personen und der Akzeptanz von Risiken In diesem Papier wurde eine Umfrage zum aktuellen Status von Social-Networking-Diensten (SNS) mit Schwerpunkt auf Datenschutzbedenken durchgeführt, die oft als Hindernis bei der Nutzung solcher Dienste im Internet angesehen werden. Die Angst um die Privatsphäre und andere Faktoren wurden basierend auf dem Technologieakzeptanzmodell (TAM) analysiert. Die Ergebnisse der Umfrage zeigen, dass die „wahrgenommene Nützlichkeit“ in Bezug auf SNS am höchsten bewertet wurde, obwohl auf der negativen Seite deutliche Bedenken hinsichtlich der Privatsphäre bestanden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39345-7_13 956ce724685822ae49ff99043c3f7ad6;de;;;7.3.;;;Gamification Literacy: Neue Anforderungen zur Identifizierung von schlechter Gamification Gamification ist eine Sammlung von Know-how aus dem Spieldesign, das das Service-Engagement erleichtert. Es wird in einer Vielzahl von Anwendungen, Marketing, Unternehmensmanagement und Bildung verwendet. Die positive Seite der Gamification bietet nützliche Werkzeuge zur Verbesserung des Engagements. Gleichzeitig hat Gamification negative Seiten, wenn es übermäßig oder böswillig verwendet wird. Der Autor schlägt das Konzept der Gamification Literacy vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-6738-6_49 5efe8285de0d78f02c82c662ab4fd29b;de;;;7.3.;;;Aktive Werbung in Supermärkten mit Personal Agents In diesem Beitrag stellen wir unseren Ansatz für aktives Marketing in Supermärkten vor, mit einer umfassenden Nutzung von Radiofrequenz-Identifikatoren (RFIDs) von Waren und Standorten sowie persönlichen, mobilen Kommunikationsgeräten der Kunden. Unsere Lösung basiert auf der personalisierten Filterung von RFID-bezogenen Marketinginformationen durch den Einsatz von Softwareagenten. Als Implementierungsbasis verwenden wir das Agent Computing Environment (ACE) Framework. ACE-Agenten werden teilweise auf den mobilen Geräten der Kunden und teilweise im lokalen Netzwerk eines Supermarkts ausgeführt. Diese Agenten sind in der Lage, gesendete Marketinginformationen nach detaillierten Benutzerbedürfnissen, technischen Einschränkungen für Endbenutzergerät, Datum und Uhrzeit, früheren Kontakten usw Einkaufslisten, persönliche Marketing-Firewalls und Überwachung auf Änderungen.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-29773-1_27 e0e8554bc8338df42394b9b498caa64e;de;;;7.3.;;;Personalisiertes intelligentes Training im Web: Ein Ansatz mit mehreren Agenten Einer der interessantesten Bereiche unter denen, die durch die Entwicklung des Internets zum Erfolg geführt wurden, ist der Fernunterricht und die Ausbildung. Aus diesem Grund ist die Suche nach geeigneten Architekturen und Plattformen, die flexible und maßgeschneiderte Trainingslösungen unterstützen, heute von großem Interesse in der wissenschaftlichen Gemeinschaft. Dieser Beitrag befasst sich mit der Präsentation einer originellen Architektur für intelligente Fernunterrichtsstunden, die Softwareagenten verwenden. Die Art und Weise, wie das Wissen dargestellt und gespeichert wird, wird zusammen mit der Fähigkeit unseres Systems diskutiert, individuelle Lernpfade für verschiedene Benutzer zu verwalten. Die Gründe für die Verwendung von Agenten werden vorgestellt und die Implementierung des Systems wird diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-1497-8_5 7cadbfbd98d4bc6392f511e808bccf34;de;;;7.3.;;;Ein Framework für dezentralisierte, kontextsensitive mobile Anwendungen mit Semantic Web-Technologie Die jüngste Entwicklung bei mobilen Geräten, kombiniert mit schnellen Fortschritten bei Identifizierungstechniken, hat zu neuen Möglichkeiten für Entwickler mobiler Anwendungen geführt: mobile Anwendungen, die auf ihre Umgebung und die darin enthaltenen Objekte aufmerksam gemacht werden können. Darüber hinaus können durch die Kombination mobiler Geräte und Identifikationstechnologie mit dem Web mobile Anwendungen entwickelt werden, die Dienste und Informationen nutzen, die mit nahegelegenen Objekten verbunden sind. In diesem Beitrag stellen wir ein Anwendungsframework vor, das die Entwicklung solcher mobiler Anwendungen unterstützt, ohne auf einen zentralen Dienst angewiesen zu sein, der Informationen über die Umgebung des Benutzers bereitstellt. Darüber hinaus wird durch den Einsatz der Semantic-Web-Technologie die Integration von Informationen aus verschiedenen Informationsquellen erleichtert, was eine ausdrucksstarke und leistungsstarke personalisierte Informationsbereitstellung ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05290-3_18 8426fd30187517f5c0cb3c2b79c1ac4a;de;;;7.3.;;;ANN-Agent für verteilte Wissensquellenerkennung In diesem Artikel wird ein auf künstlichen neuronalen Netzwerken (KNN) basierender Agent mit Funktionen zum Auffinden verteilter Wissensquellen vorgestellt. Dieser Agent hat die Verantwortung, Wissensanforderungen an verteilte Ontologiedomänen im Semantic Web zu lenken und z. Der Agent führt seine Aufgabe durch ein neuronales Netzmodell aus. Diese Arbeit zeigt eine vorgeschlagene Referenzarchitektur, erklärt das Ontologie-Matching-Modell KNN-basiert für den Agenten und präsentiert vorläufig gute Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76888-3_69 dca4b188ea21b00047fd74e23e7c4149;de;;;7.3.;;;Modellbasierte Generierung von Testbeds für Web Services Ein Webservice ist normalerweise keine unabhängige Softwareeinheit, sondern spielt eine Rolle in einem Geschäftsprozess. Daher ist es auf die Dienste externer Webdienste angewiesen, um seinen eigenen Dienst bereitzustellen. Beim Entwickeln und Testen eines Webservices stehen solche externen Dienste nicht immer zur Verfügung oder deren Nutzung bringt unerwünschte Nebenwirkungen wie z.B. Nutzungsgebühren oder Datenbankänderungen mit sich. Wir präsentieren einen modellbasierten Ansatz zur Generierung von Stubs für Web Services, die sowohl einen über ein Service Level Agreement (SLA) ausgedrückten extrafunktionalen Vertrag als auch einen über eine Zustandsmaschine modellierten funktionalen Vertrag respektieren. Diese Stubs ermöglichen es einem Entwickler, eine Testumgebung über der Zielplattform einzurichten, in der das außerfunktionale und funktionale Verhalten eines in Entwicklung befindlichen Webservices vor seiner Veröffentlichung getestet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68524-1_19 7a98e4f68ee48770011bd312983a622a;de;;;7.3.;;;Die Entwicklung von IKT-Netzwerken für südafrikanische Schulen Informations- und Kommunikationstechnologien (IKT) werden zunehmend als wertvolle Werkzeuge in der Bildung angesehen, die die Entwicklung höherer kognitiver Prozesse fördern und Lehrern und Lernenden den Zugang zu einer Fülle von Informationen ermöglichen. Dieser Beitrag berichtet über zwei Pilotstudien, die in Südafrika an prototypischen, zuvor benachteiligten Schulen und deren umliegenden Gemeinden durchgeführt wurden. In jeder Pilotstudie wurde ein Teilnehmeranschlussnetz in verarmten Gemeinden eingerichtet, das Schulen miteinander und zentrale Dienste wie E-Mail und Sprachkommunikation verband. Die Vorteile dieser Netzwerke bestanden darin, dass Lehrer, Lernende und die örtliche Gemeinschaft Zugang zu Informationen sowie Kommunikations- und Kollaborationskanälen hatten, die potenzielle Testumgebungen für die Untersuchung des Einsatzes von Computern als Denkwerkzeuge darstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09729-9_25 10bf28a781d8c905c508d928c342d997;de;;;7.3.;;;Textunterscheidungen, die in einer interaktiven Metasuchmaschine verwendet werden Mit der Explosion des Internets werden Suchmaschinen immer beliebter. Bisher liefern die meisten Suchmaschinen den verschiedenen Benutzern bei derselben Suchanfrage dieselben Ergebnisse. Benutzer haben jedoch möglicherweise ein eigenes Gespür für dieselbe Abfrage und benötigen personalisierte Ergebnisse. Außerdem sind Benutzer oft mit den primitiv zurückgegebenen Ergebnissen nicht zufrieden und benötigen einen Mechanismus zum Verfeinern der Ergebnisse. In dieser Arbeit schlagen wir eine Methode zur Sammlung von Online-Textunterscheidungen unter einem interaktiven Metasuchrahmen vor. Wir verwenden diese Unterscheidungsmerkmale auch, um die Suchergebnisse neu zu ordnen, um die bestimmte Rangfolge zu erreichen. Textunterscheidungen werden als Wörter definiert, die ein Dokument von anderen trennen können. Sie können verwendet werden, um die Präferenz des Benutzers für eine bestimmte Abfrage widerzuspiegeln.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45703-8_17 3c698d09d05620e805a41598db8ff3cd;de;;;7.3.;;;Tun Sie Ihr Bestes, um das Beste zu machen: Paradoxe Effekte bei inkrementellen PageRank-Berechnungen Die Entscheidung, welche Art von Besuch schneller qualitativ hochwertige Seiten ansammelt, ist eines der am häufigsten diskutierten Themen beim Design von Webcrawlern. Es ist bekannt, dass Breitenbesuche gut funktionieren, da sie dazu neigen, Seiten mit hohem PageRank früh im Crawl zu entdecken. In der Tat ist diese Besuchsreihenfolge viel besser als Depth First, was wiederum noch schlechter ist als ein zufälliger Besuch. Dennoch kann Broadth-First durch einen allwissenden Besuch ersetzt werden, der bei jedem Schritt den Knoten mit dem höchsten PageRank in der Grenze wählt .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30216-2_14 4f5f8bd77f9726c00e4f25545d8db07b;de;;;7.3.;;;Sicherheitsbewertung von Webanwendungen im portugiesischen World Wide Web Panorama Im Einklang mit der EU-Agenda für Informations- und Kommunikationstechnologien hat die portugiesische Regierung mit der Entwicklung vieler Anwendungen begonnen, die die elektronische Interaktion zwischen Einzelpersonen, Unternehmen und der öffentlichen Verwaltung – dem E-Government – ​​ermöglichen. Aufgrund der Offenheit des Internets und der Sensibilität der Daten, mit denen diese Anwendungen umgehen müssen, ist es wichtig, ihre Sicherheit zu gewährleisten und zu bewerten. Finanzinstituten wie Banken, die heute das WWW als Kommunikationskanal mit ihren Kunden nutzen, stehen vor denselben Herausforderungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16120-9_17 993ace3c5515acef6004d091ba644be9;de;;;7.3.;;;Ein konfuzianischer Blick auf die Internetzensur in China Chinas Praktiken der Internetzensur sind ausgeklügelt und allgegenwärtig. Wissenschaftliche Forschungen und Medienberichte haben die vielfältigen, weitreichenden Zensurmethoden der chinesischen Regierung und die Techniken der chinesischen Bürger, sie zu untergraben, untersucht, aber dem Verständnis, wie chinesische Bürger in ihrem Alltag über Zensur denken, wurde wenig Aufmerksamkeit geschenkt. Wir führten eine qualitative Studie mit Bürgern des chinesischen Festlandes durch, die die Zensur umgingen. Bei unseren Teilnehmern fanden wir scheinbar widersprüchliche Einstellungen und Praktiken. Sie zeigten Geschick darin, die Zensur zu umgehen, fühlten sich jedoch manchmal mit zensierten Informationen wohl. Sie waren bereit, sensible Informationen mit anderen zu teilen, sahen jedoch die Vorteile, den Zugang der Öffentlichkeit zu Informationen unter bestimmten Umständen einzuschränken. Wir untersuchen, wie die komplexen, nuancierten Einstellungen zur Zensur mit den klassischen Lehren des Konfuzianismus, Chinas traditionellem philosophischen und ethischen System, übereinstimmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67744-6_25 ecc7e75ae1372622d0d9877154b7eaf6;de;;;7.3.;;;Neuronale Netzwerk-basierte Bildklassifizierung für Erwachsene Seit das Internet populär geworden ist, nehmen die digitalen Multimediadaten täglich dramatisch zu. Dieser Zuwachs an Multimediadaten erhöht auch die Bildinhalte für Erwachsene im Internet. Folglich sind viele Kinder diesen X-bewerteten Inhalten ausgesetzt. In diesem Beitrag schlagen wir ein effizientes Klassifikationssystem vor, das Eingabebilder in Bilder für Erwachsene oder Nicht-Erwachsene kategorisieren kann. Die Simulation zeigt, dass dieses System 95 % der wahren Rate erreicht, während es die Falsch-Positiv-Rate unter 3 % reduziert.;-;-;-;https://link.springer.com/chapter/10.1007/11550822_75 9e5f3dd838292b4d9c817a967c03d6a0;de;;;7.3.;;;Erstellen von webbasierten Szenarien zur Unterstützung von Fernlernern Dieses Papier beschreibt einen Ansatz zur schrittweisen Einführung vernetzter Technologien in die Praxis des Fernunterrichts in großem Maßstab. Ein Rahmen für die Erstellung von Lernszenarien wird vorgeschlagen und ein Autorenwerkzeug wird vorgestellt. Aus den auf hoher Ebene beschriebenen Dokumenten und einem Domänenmodell wird eine webbasierte Umgebung generiert. Diese Dokumente beschreiben explizit Lerntrajektorien und betten Verweise auf Domänenobjekte ein, wodurch Inhalt von Struktur getrennt werden. Dies ermöglicht die Durchführung unterschiedlicher Lernstrategien über den gleichen Domäneninhalt. Eine Fallstudie für einen Informatik-Studiengang veranschaulicht den Einsatz des Systems.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35502-3_11 6d0f4cfc2d5cd0cba8427f8ffa4d6278;de;;;7.3.;;;Um das Internet in Topic Maps umzuwandeln Dieses Papier beschreibt Semants, ein in Arbeit befindliches Framework, das Wikipedia als Brennpunkt verwendet, um Informationen aus verschiedenen Ressourcen zu sammeln. Semants zielt darauf ab, mehrere spezialisierte Anwendungen (die Ameisen) zu entwickeln, die verwendet werden, um eine Ressource in ein Topic-Map-Fragment umzuwandeln, das zu einer größeren Topic-Map zusammengeführt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71945-8_15 a07657d2a824227d2fb3c674ca4715cb;de;;;7.3.;;;Förderung des Bewertungsverhaltens der Schüler bei der Suche im Internet Es wurde ein Programm zur Vermittlung von Kursinhalten (Geschichte) für Neuntklässler und zur Bewertung von Informationen aus dem WWW entwickelt und getestet. Ziel des Programms war die Vermittlung von Inhalten, Bewertungskompetenzen und der Transfer dieser Fähigkeiten in einen anderen Bereich. Bei der Gestaltung des Programms wurden die Prinzipien zweier Transfertheorien mit einem designbasierten Forschungsansatz kombiniert. Die Ergebnisse zeigten, dass das Programm das Bewertungsverhalten der Studierenden verbesserte. Im Vergleich zu den Schülern der Kontrollbedingung verbesserten sich die Bewertungskompetenzen der Schüler in der experimentellen Bedingung auf einem höheren Niveau, führten jedoch nicht zu einem Transfer. Die Schüler der experimentellen Klassen erzielten bei der abschließenden Inhaltsprüfung höhere Ergebnisse als die Schüler der Kontrollklasse.;-;-;-;https://link.springer.com/article/10.1007/s11251-012-9221-x 799d0d942d85ba4350de9144ad536cb8;de;;;7.3.;;;Konzeptionelle Analyse von Einbruchalarmen Sicherheitsinformationen zu Informationssystemen, die von aktuellen Intrusion Detection Systemen (IDS) bereitgestellt werden, werden über zahlreiche ähnliche und fein abgestufte Warnungen verteilt. Sicherheitskräfte werden folglich von Warnungen überhäuft, deren Inhalt zu schlecht ist. Alarmkorrelationstechniken werden verwendet, um die Anzahl der Alarme zu reduzieren und ihren Inhalt zu verbessern. In diesem Beitrag behandeln wir das Alert-Korrelationsproblem als Information Retrieval-Problem, um den Umgang mit Alert-Gruppen zu erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/11553595_11 84644f74a748c6990391a8965a7de33d;de;;;7.3.;;;Automatisieren der Ereignisextraktion für die Sicherheitsdomäne In diesem Kapitel werden die laufenden Bemühungen des Gemeinsamen Forschungszentrums der Europäischen Kommission zur Automatisierung der Ereignisextraktion aus über das Internet gesammelten Nachrichtenartikeln mit dem Europe Media Monitor-System vorgestellt. Die Ereignisextraktion baut auf über mehrere Jahre entwickelten Techniken der Informationsextraktion auf, deren grundlegendes Ziel darin besteht, quantitative Daten aus unstrukturiertem Text abzuleiten. Die Motivation für die automatisierte Ereignisverfolgung besteht darin, objektive Vorfalldaten mit einer breiten Abdeckung von terroristischen Vorfällen und gewaltsamen Konflikten auf der ganzen Welt bereitzustellen. Diese quantitativen Daten bilden dann die Grundlage für die Befüllung von Ereignisdatenbanken und Systemen zur Trendanalyse und Risikobewertung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69209-6_2 51e2888e766d9a02536b2c0357bd500b;de;;;7.3.;;;SARS: Ein auf einem linearen Quellmodell basierendes adaptives Ratensteuerungsschema für TCP-freundliches MPEG-4-Videostreaming in Echtzeit Die steigende Nachfrage nach Streaming-Videoanwendungen im Internet motiviert das Problem des Aufbaus eines adaptiven Ratensteuerungsschemas für den zeitveränderlichen Netzzustand. Die zeitveränderliche verfügbare Bandbreite und Latenz erschweren es den Echtzeit-Streaming-Anwendungen, eine hohe Bandbreitennutzung und Videoqualität an den Empfängern zu erreichen. MPEG-4 ist ein weit verbreitetes Streaming-Protokoll, und ein MPEG-4-Videostreaming-System sollte in der Lage sein, einen adaptiven Ratensteuermechanismus bereitzustellen, um diese sich ändernden Bedingungen zu erfüllen.;-;-;-;https://link.springer.com/chapter/10.1007/11582267_35 c29a3ee7b1490915b43cafdbf6a1aa91;de;;;7.3.;;;Elektronische Stimmabgabe in Österreich: Aktueller Stand der öffentlichen Internetwahlen In Artikel 1 der österreichischen Verfassung heißt es: „Österreich ist eine demokratische Republik“. Öffentliche Wahlen sind das Schlüsselelement eines demokratischen Landes, da sich das Recht einer Republik aus dem Recht ihrer Einwohner ableitet. Diese obligatorischen Wahlen sind auch ein Menschenrecht, wie in Artikel 3 des Protokolls zur Menschenrechtskonvention zur Gewährleistung freier und geheimer Wahlen festgelegt ist.;-;-;-;https://link.springer.com/chapter/10.1057/9780230523531_7 9c0a8e827002bd327ac8dbbcfd4acc69;de;;;7.3.;;;Auf dem Weg zu einer besseren Kontextualisierung von Webinhalten durch Analyse auf Entity-Level Bei der Fülle an Daten und dem breiten Zugang zum Internet kann ein Benutzer mit Informationen überhäuft werden. Für einen durchschnittlichen Webbenutzer ist es sehr schwierig zu erkennen, welche Informationen relevant oder irrelevant sind. Daher sind im Zeitalter des sich ständig verbessernden Webs die Organisation und Interpretation von Webinhalten sehr wichtig, um leicht auf die relevanten Informationen zuzugreifen. Viele neuere Fortschritte auf dem Gebiet des Web-Content-Managements, wie die Klassifizierung von Web-Inhalten, die Informationsverbreitung, die Glaubwürdigkeit von Informationen usw. wurden auf der Grundlage von Text und Semantik des Dokuments untersucht. In diesem Beitrag schlagen wir eine rein semantische Kontextualisierung von Webinhalten vor. Wir nehmen an, dass benannte Entitäten und ihre Typen in einem Webdokument wesentliche semantische Informationen vermitteln. Durch die Extraktion dieser Informationen möchten wir die Argumentation und Erklärung hinter den Webinhalten oder -mustern untersuchen. Darüber hinaus planen wir auch, LOD (Linked Open Data) zu nutzen, um einen tieferen Einblick in Webinhalte zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-45442-5_80 a327174671bd2d9f578cf09b47a757d2;de;;;7.3.;;;Internet-Selbstregulierung in der Hochschulbildung: Ein metakognitiver Ansatz für die Internetsucht Ätiologische Modelle der Internetsucht (IA) haben wiederholt die Selbstregulierungsfunktionen eines Individuums als wichtigen Faktor bei der Entwicklung und Aufrechterhaltung der pathologischen Nutzung des Internets hervorgehoben. Darüber hinaus haben Neuroimaging-Studien signifikante Veränderungen in der Aktivität und Struktur des präfrontalen Kortex bei Internetsüchtigen gezeigt. Diese Hirnregion ist für exekutive Funktionen wie Impulsivität, Selbstregulation, Selbstkontrolle und zielorientierte Entscheidungsfindung verantwortlich. Universitätsstudenten wurden in der gesamten IA-Forschung als gefährdete Bevölkerungsgruppe anerkannt. Darüber hinaus wurde IA in letzter Zeit stark mit riskantem Cybersicherheitsverhalten in Verbindung gebracht, wodurch Studenten als anfällig für Cybersicherheitsrisiken eingestuft wurden. Dieser Beitrag stellt die Ergebnisse einer Inhaltsanalyse vor, mit der versucht wurde herauszufinden, ob technologische Interventionen im Hochschulkontext dokumentiert wurden, um die Prävention von IA durch die Förderung selbstregulierender Funktionen der Internetnutzung zu unterstützen. Es wurden keine Studien gefunden, die das primäre Ziel der Analyse erfüllten, jedoch wurden sekundäre Ziele erreicht. Verschiedene neue Erkenntnisse sowie einige, die mit früheren Forschungen auf diesem Gebiet übereinstimmen, wurden aus Studien abgeleitet, die für eine vorbeugende Intervention verwendet werden könnten, die metakognitive Komponenten nutzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-57404-8_15 f1e044d044801ffc9dcd58f7e397324e;de;;;7.3.;;;Wissensaufbau durch Hypermedia-Authoring Lernen ist nach Ansicht prominenter Lerntheoretiker viel mehr als das Sammeln von Informationen in einer gut gestalteten, lehrerzentrierten Umgebung, das Lernen wird gefördert, wenn die Schüler individuelle Interessen verfolgen, auf Vorwissen aufbauen und sich praxisnah und authentisch engagieren Aktivität. Obwohl sehr viel Literatur existiert, die Ideale wie diese beschreibt, ist die Forschung, die die Umsetzung dieser Ideale in den Klassenzimmern untersucht, rar, und der Einsatz von Technologie für mehr als die Informationsvermittlung ist noch seltener. Der Zweck dieser Studie war es, einen Studiengang an einer großen Universität im Mittleren Westen zu untersuchen, um herauszufinden, wie sich die Bildungstheorie in die Unterrichtspraxis übersetzt. Im Kurs lernten die Studenten die Bildungstheorie, indem sie ein Hypermedia-Kapitel für ein World Wide Web-basiertes Buch entworfen und erstellt haben. Qualitative Daten wurden über ein 16-wöchiges Semester gesammelt und zeigten sowohl die Perspektiven der Studierenden als auch der Lehrenden in Bezug auf den Studiengang auf, einschließlich der Stärken und Grenzen eines Schüler-als-Multimedia-Autor-Ansatzes. Die Ergebnisse zeigten, dass die meisten Studenten mit dem Kurs sehr zufrieden waren, dass einige das Lernen transferierten und dass die Studenten Fähigkeiten und Kenntnisse mit Unterrichtsdesign, Bildungstheorie und Technologie entwickelten.;-;-;-;https://link.springer.com/article/10.1007/BF02299475 fe565fe429aec617cab3142c1d5407ea;de;;;7.3.;;;Erkennung von Ponzi- und Pyramiden-Geschäftsschemata in choreografierten Webdiensten Unternehmen verwenden zunehmend Webservice-Choreographien, um dynamische Serviceaufrufe und inhaltsspezifische Operationen zu implementieren. Diese Webservice-Choreografien können auf mehreren Ebenen missbraucht werden – indem ihre technischen Fähigkeiten ausgenutzt und zur Gestaltung komplexer illegaler Geschäftspläne wie Ponzi-, Pyramiden- und Geldwäscheprogramme verwendet werden. Eines der Hauptprobleme bei den illegalen Systemen besteht darin, dass sie legalen mehrstufigen Unternehmenssystemen ähneln, ihre Illegalität ist nur für einen makroskopischen Beobachter offensichtlich. Dieses Papier beschreibt einige dieser Schemata und zeigt, wie man Beweise in Bezug auf die Schemata unter Verwendung kryptographisch sicherer lokaler Nachrichten-Repositorys erhält. Die gesammelten Beweise sind für Ermittler von Finanzbetrug, Geschäftsschlichter, potenzielle Investoren und Justizakteure von erheblichem Wert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15506-2_10 df2ddf13313cca8cdd778109a24e98e3;de;;;7.3.;;;MultiAgent-System für eine medizinische Anwendung über Web-Technologie: Eine Arbeitserfahrung Viele medizinische Anwendungen beschränken sich derzeit auf die Speicherung grundlegender Patienteninformationen wie Anamnese, Diagnosen von Spezialisten, Gutachten etc. Doch die medizinische Arbeit ist bei komplexen Fällen mit unterschiedlichen Experten nicht einfach und erfordert ein hohes Maß der Koordination und Zusammenarbeit. Traditionell findet die Kommunikation zwischen Experten über Konsultationen hinweg statt, die große Ressourcen (Geld, Zeit usw.) erfordern. MultiAgent-Systeme (MAS) sind ein Zweig der künstlichen Intelligenz, der verteilt wird, um unter anderem Koordinations- und Kommunikationsprobleme adäquat anzugehen, an denen mehrere Entscheidungsträger beteiligt sind. Das Ziel dieser Arbeit ist die Konzeption und Implementierung von MAS, die es ermöglicht, den Arbeitsablauf eines medizinischen Zentrums zu koordinieren. Wir haben ein auf Webtechnologie basierendes Verwaltungstool für Krankenakten und Anfragen nach medizinischen Leistungen implementiert. Die Anwendung stellte den Ärzten alle Informationen zur Verfügung, die für die Durchführung einer rechtzeitigen Diagnose durch elektronische Krankenakten erforderlich sind. Zu den genannten Koordinationsaufgaben: Zuweisung von Aufgaben an Ärzte, Anfragen zur Begutachtung, Lieferung von Ergebnissen u.a. mittels Technologien wie SMS, E-Mail und Online. Um Agenten und ihre Rollen, Aufgaben und Pläne unter Verwendung des „Software Agent Architecture Pattern“ zu entwerfen, das auf einer Reihe von Klassen basiert, die für die Codierung von Softwarekomponenten mit Agenten organisiert sind, die in Webanwendungen integriert sind, zusätzlich zur Verwendung als MAS commonKADS Methodology Entwicklung des MAS. Derzeit haben eine Anwendung robust und stabil. Es ist erwähnenswert, dass dieser speziell im medizinischen Bereich verwendete Ansatz auf andere Bereiche ausgedehnt wird, die eine verteilte Koordination erfordern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-92841-6_285 1167d50faaea63134f1504e5df39ebd6;de;;;7.3.;;;Anforderungen von Nutzern mit Behinderungen für E-Government-Dienste in Griechenland E-Government-Dienste sind ein Hauptanliegen, um Verwaltungen den Bürgern und Unternehmen näher zu bringen. Die Zugänglichkeit für Menschen mit Behinderungen ist eines der Hauptmerkmale solcher Dienste, das notwendig ist, um eine breite öffentliche Akzeptanz zu erreichen. In diesem Papier wird eine Anforderungserhebungsstudie zur Entwicklung barrierefreier E-Government-Dienste diskutiert, die in Griechenland im Rahmen eines vom Europäischen Sozialfonds (ESF) und dem griechischen Innenministerium kofinanzierten nationalen Projekts durchgeführt wurde. Die wichtigsten Umfrageergebnisse werden vorgestellt und diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-70540-6_63 290b5e52bab761cf97a1b4cd68190c3d;de;;;7.3.;;;Erstellen eines Internet-Chat-Wörterbuchs zum Zuordnen der Chat-Sprache zur Standardsprache Wir konstruieren eine Relationstabelle, die den Vergleich des allgemeinen Vokabulars und des Chat-Vokabulars enthält. Auch diese Studie schlägt eine Methode vor, um ein umfassendes Chat-Wörterbuch zu erstellen, das die verschiedenen Unterlisten des Internet-Chat-Vokabulars, die Beziehungen zwischen diesen Unterlisten und die Informationen über die Attribute der Chatter enthält. Unter Verwendung des konstruierten Wörterbuchs präsentiert diese Studie eine Methode zur Auflösung von Mehrdeutigkeiten, die während des Prozesses der Abbildung der Chatsprache in die Standardsprache auftreten.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45036-X_72 901bc6bd864992ee37fcec5ead4bd758;de;;;7.3.;;;Hypertexttypen und Auszeichnungssprachen Texttechnische Anwendungen wie automatische Verdichtungs- oder Informationsextraktionssysteme verarbeiten häufig Webdokumente. Ein wichtiger Aspekt von Webdokumenten, den die meisten Systeme ignorieren, ist der Dokumenttyp oder Dokumentgenre und die Beziehung, die das jeweilige Genre sowie Genres im Allgemeinen in Bezug auf die Hypertext Markup Language haben. Dieses Kapitel führt in das Konzept der Hypertext-Typen ein, um einige der wichtigsten Aspekte und Anwendungen hervorzuheben. Hypertexttypen sind traditionellen Texttypen sehr ähnlich, da Hypertexte in Kategorien gruppiert werden können, die bestimmte sprachliche, textuelle oder pragmatische Merkmale wie kommunikative Funktion, hypertextuelle Struktur oder Inhalt teilen. Die Verarbeitung von Webdokumenten basierend auf ihren Genres bringt mehrere Vorteile mit sich, von denen der wichtigste die automatische Identifizierung von Web-Genres für verbesserte Ansätze zur Informationsabfrage ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-3331-4_8 899185769eb8931e6f61f9be51dca043;de;;;7.3.;;;Informationsextraktion in einem Wissensbestand mit einem auf Fuzzy-Logik basierenden intelligenten Agenten In diesem Beitrag wird eine Methode zur Informationsextraktion (IE) in einem Wissensbestand vorgeschlagen, um Benutzerkonsultationen mit natürlicher Sprache zu beantworten. Das System basiert auf einer Fuzzy-Logik-Engine, die ihre Flexibilität für die Verwaltung von angesammeltem Wissen nutzt. Diese Mengen können in hierarchischen Ebenen durch eine Baumstruktur aufgebaut werden. Ein Konsultationsverfahren basierend auf einer Fuzzy-Logik-Anwendung, die mit einer Schnittstelle versehen ist, mit der man in natürlicher Sprache interagieren kann, wird ebenfalls vorgeschlagen. Das letztendliche Ziel dieses Systems ist die Implementierung eines intelligenten Agenten zur Verwaltung der in einem Internetportal enthaltenen Informationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74484-9_69 d41aef8a853f1f2e2c05370792242a76;de;;;7.3.;;;Ungefähre Informationsfilterung im Semantic Web Angesichts der zunehmenden Informationsmenge im World Wide Web gewinnen intelligente Techniken zur inhaltsbasierten Informationsfilterung immer mehr an Bedeutung. Herkömmliche Ansätze, die schlüsselwort- oder textbasierte Abfragemethoden verwenden, wurden entwickelt, die relativ gut funktionieren. Diese Ansätze haben jedoch Probleme mit mehrdeutigen und ungenauen Informationen. Das Semantic Web, das darauf abzielt, Informationsquellen durch eine formale Spezifikation ihrer Bedeutung durch Ontologien zu ergänzen, kann möglicherweise helfen, dieses Problem zu überwinden. Derzeit leidet das Semantic Web jedoch noch an eigenen Problemen hinsichtlich heterogener Ontologien und der Notwendigkeit, diese miteinander in Beziehung zu setzen. In diesem Beitrag argumentieren wir, dass wir dieses Problem überwinden können, indem wir gemeinsames Vokabular verwenden, eine standardisierte Sprache zur Kodierung von Ontologien, die grundlegende terminologische Argumentation (in diesem Fall DAML+OIL) und Techniken des approximativen Denkens unterstützt. Wir führen den Ansatz auf informeller Ebene anhand eines didaktischen Beispiels ein und geben eine formale Charakterisierung der Methode inklusive Korrektheitsbeweise für das Problem der Informationsfilterung.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45751-8_8 f6f55d953e1f17fa2b4f03bb816d9777;de;;;7.3.;;;Informationsrevolutionen in Vergangenheit und Gegenwart und Lehre der Frühen Neuzeit Im modernen universitären Geschichtsunterricht widmen wir als Lehrende einen immer größeren Teil unserer Zeit mit unseren Studierenden der Diskussion über Wege der Informationsvermittlung. Die Themen dieser Gespräche sind bekannt und immer wiederkehrend: mysteriös verloren gegangene E-Mail-Nachrichten, angebliche Schwierigkeiten beim Herunterladen von Lesungen und Aufgaben mit Kursverwaltungssoftware und Berichte über unterbrochenen Internetzugang. Das große Potenzial dieser digitalen Datenübermittlung geht einher mit vermehrten Systemausfällen und vielen neuen Möglichkeiten der Entschuldigung. Da wir die digitalen Transformationen unserer Zeit aufgreifen und in unsere Klassenzimmer einführen, sind wir uns des großen Potenzials bewusst, das sie für unsere Lehre bieten und uns mit zugegebenermaßen heiklen Fragen der Prozess-, Umsetzungs- und Qualitätskontrolle auseinandersetzen. Selbstverständlich verbringen wir viel Zeit damit, die Versprechen, Fallstricke und Herausforderungen der neuen Wege der Informationsbeschaffung und des Austauschs zu verhandeln.;-;-;-;https://link.springer.com/chapter/10.1057/9780230307483_4 811903678d837a6a0030c8d4914d8b89;de;;;7.3.;;;Discovery und Query: Zwei semantische Prozesse für Webdienste In diesem Papier konzentrieren wir uns auf zwei Prozessphasen von Webservices, nämlich die Webservices-Erkennung und die Webservice-Abfrage. Die Webservices-Erkennung dient dazu, den entsprechenden Service zu finden, und die Webservice-Abfrage dient dazu, die Servicedaten während der Ausführung des Webservices zu durchsuchen. Wenn ein Endbenutzer ein Ticket buchen möchte, entdeckt er zuerst den Webservice und fragt dann diesen Service ab, um festzustellen, ob er das erfüllbare Ticket bereitstellen kann. Daher sollten die beiden Prozessphasen zusammenarbeiten, um nicht nur einen möglichen erfüllbaren Dienst zu entdecken, sondern auch die tatsächlichen erfüllbaren Dienstdaten zu finden. Es ist eine vielversprechende Idee, die Semantic-Web-Technologie einzusetzen, um die beiden Prozesse zu implementieren. In diesem Artikel wird zunächst die gesamte Architektur für die Erkennung und Abfrage vorgeschlagen, dann vier Algorithmen zum Erkennen von Webdiensten und drei Algorithmen zur Abfrage von Webdiensten basierend auf dem Konzept der Dienstdateninstanz und der Ähnlichkeitsberechnung vorgestellt. Dementsprechend werden zwei Frameworks separat für Discovery und Abfrage implementiert. Das Ergebnis beweist, dass der Ansatz der Kombination zweier Verfahren den persönlichen Anforderungen wirklich gerecht werden kann, also einen gewissen Anwendungswert hat.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-29773-1_38 7fe8d3853db23255479e0a454a46c902;de;;;7.3.;;;Das Pazifik-Ozean-Internet Das Web ist eine Anwendung, die auf dem Internet läuft. In diesem Kapitel geben wir einen kurzen Überblick über die Geschichte des Internets, vom ARPANET-Projekt bis hin zu aktuellen Fragen der Netzneutralität.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-90008-7_2 82e9439396a5a3665d10903f53136ac3;de;;;7.3.;;;Human Use Regulatory Affairs Advisor (HURAA): Lernen über Forschungsethik mit intelligenten Lernmodulen Der Human Use Regulatory Affairs Advisor (HURAA) ist eine webbasierte Einrichtung, die auf der Grundlage von Dokumenten und Vorschriften der US-Bundesbehörden Hilfe und Schulungen zum ethischen Umgang mit Menschen in der Forschung bietet. HURAA verfügt über eine Reihe von Standardfunktionen herkömmlicher Web-Einrichtungen und computergestützter Schulungen, wie Hypertext, Multimedia, Hilfemodule, Glossare, Archive, Links zu anderen Sites und didaktische Anleitungen zum Umblättern. HURAA verfügt auch über diese intelligenten Funktionen: (1) einen animierten Konversationsagenten, der als Navigationsleitfaden für die Web-Einrichtung dient, (2) Lektionen mit fallbasierter und erklärungsbasierter Argumentation, (3) Dokumentenabruf durch Abfragen in natürlicher Sprache und (4) ein kontextsensitives Segment mit häufig gestellten Fragen, genannt;-;-;-;https://link.springer.com/article/10.3758/BF03195569 1e735e08d19c930f6d747e266052b652;de;;;7.3.;;;Die operative Komponente der Informationskultur eines Tourismus-Bachelorstudiums Dieser Artikel analysiert die Fragen der Ausbildung von Tourismusfachleuten, beschreibt die Ergebnisse der Ausbildung der betrieblichen Komponente der Informationskultur des Tourismus-Bachelorstudiums.;-;-;-;https://link.springer.com/article/10.3103/S0147688217010129 cad79d3faf5c7a81c0bad53d919d13c0;de;;;7.3.;;;Eine theoretische Studie einer verallgemeinerten Version von Kleinbergs HITS-Algorithmus Kleinbergs HITS-Algorithmus (Kleinberg 1999), der ursprünglich im Web-Kontext entwickelt wurde, versucht anhand der Struktur eines Untergraphen des Web-Graphen, der unter Berücksichtigung dieser spezifischen Anfrage gewonnen wird, auf die Autorität einer Webseite in Bezug auf eine bestimmte Anfrage zu schließen . Neuere Anwendungen dieses Algorithmus in Kontexten, die weit von denen der Websuche entfernt sind (Bacchin, Ferro und Melucci 2002, Ng et al. 2001), haben uns dazu inspiriert, den Algorithmus unabhängig von seinen speziellen Anwendungen abstrakt zu studieren und zu versuchen, sein Verhalten mathematisch zu beleuchten . In der vorliegenden Arbeit gehen wir auf diese theoretische Analyse ein. Die ursprüngliche Arbeit beginnt mit der Definition einer überarbeiteten und allgemeineren Version des Algorithmus, die den klassischen als Sonderfall umfasst. Wir führen eine Analyse der Struktur zweier bestimmter Matrizen durch, die für das Studium des Verhaltens des Algorithmus unerlässlich ist, und beweisen die Konvergenz des Algorithmus im allgemeinsten Fall, indem wir den analytischen Ausdruck der Vektoren finden, gegen die er konvergiert. Dann untersuchen wir die Symmetrie des Algorithmus und beweisen die Äquivalenz zwischen der Existenz von Symmetrie und der Unabhängigkeit von der Ausführungsreihenfolge einiger grundlegender Operationen auf Anfangsvektoren. Schließlich erläutern wir einige interessante Konsequenzen unserer theoretischen Ergebnisse.;-;-;-;https://link.springer.com/article/10.1007/s10791-005-5660-1 521442cabc778c77f58c89949a9d2771;de;;;7.3.;;;Ein konzeptioneller Annotationsansatz für die Indexierung in einem webbasierten Informationssystem WWW-Objekte zeichnen sich durch Daten mit heterogenen Merkmalen wie Text, Bilder, sowohl stehende als auch bewegte, Grafiken und Ton aus. Eines der wichtigsten Probleme in diesem Zusammenhang besteht darin, den Inhalt von WWW-Objekten darzustellen und abzufragen. Alle Spezialisten sind sich einig, dass die Möglichkeit, zu multimedialen WWW-Objekten irgendeine Art von konzeptionellen Anmerkungen hinzuzufügen, die ihren Informationsinhalt beschreiben, einen großen Beitrag zur Lösung des Problems ihrer intelligenten Indizierung und Wiedergewinnung leisten würde. In diesem Beitrag schlagen wir vor, den WWW-Objekten nicht die endgültige konzeptionelle Annotation, sondern eine einfache Überschrift in natürlicher Sprache (NL) in Form von kurzen Texten zuzuordnen, die eine allgemeine, neutrale Beschreibung ihres Informationsgehalts darstellen. Die NL-Beschriftung wird dann in eine konzeptionelle Annotation in NKRL (Narrative Knowledge Representation Language) [35,36] umgewandelt, wobei ein halbautomatisches Übersetzungssystem verwendet wird, wie wir es im Rahmen neuerer europäischer Projekte implementiert haben.;-;-;-;https://link.springer.com/article/10.1023/A%3A1019147115460 ea3f5d164fbafa087001fbf883648ecd;de;;;7.3.;;;Modellierung des Auswahlprozesses von Leistungsindikatoren für die Vorschläge von Vo-Partnern In der gegenwärtigen dynamischen Welt, in der Organisationen eingebunden sind, gibt es keine Zeit, Unternehmen aufgrund des Mangels an Unterstützung zu verschieben, die ihnen hilft, die erforderlichen Verbindungen zu anderen Organisationen agil aufzubauen. In diesem Zusammenhang ist einer der kritischen Punkte die Schaffung einer virtuellen Organisation, wenn Partner ausgewählt werden müssen. Dieses Papier befasst sich mit einem sehr eng damit verbundenen Thema, nämlich der Auswahl der Leistungsindikatoren, die verwendet werden sollten, um die Partnersuche voranzutreiben. Angesichts der Komplexität dieser Aufgabe stellt dieses Papier die Prozessmodellierung vor, die den Benutzer dabei unterstützen soll, geeignete Leistungsindikatoren zu finden, die zum Vergleichen und zum Vorschlagen von Organisationen verwendet werden können, die in der Lage sind, die Anforderungen eines Unternehmens zu erfüllen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09492-2_7 2c7609f69a6ccb524ca6138d4a906683;de;;;7.3.;;;Verwendung von modellgetriebenen Sicherheitsansätzen in der Entwicklung von Webanwendungen Mit dem Aufkommen von Model Driven Engineering (MDE) als Softwareentwicklungsmethodik, die die Produktivität steigert und, unterstützt durch leistungsfähige Codegenerierungstools, einen weniger fehleranfälligen Implementierungsprozess ermöglicht, ist die Idee der Modellierung von Sicherheitsaspekten während der Designphase der Software Entwicklungsprozess wurde erstmals vor fast einem Jahrzehnt von der Forschungsgemeinschaft vorgeschlagen. Während im Laufe der Jahre verschiedene Ansätze für Model Driven Security (MDS) vorgeschlagen wurden, ist noch unklar, wie diese Konzepte im Vergleich zueinander stehen und ob sie die Sicherheit von Softwareprojekten verbessern können. In diesem Beitrag geben wir eine Bewertung aktueller MDS-Ansätze anhand eines einfachen Webanwendungsszenarios und diskutieren die Stärken und Grenzen der verschiedenen Techniken sowie die Praktikabilität von MDS für die Webanwendungssicherheit im Allgemeinen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55032-4_42 19fa839207f4e99039de05f238cbbae9;de;;;7.3.;;;Herkunft, Vertrauen und Weitergabe in der fallbasierten Peer-to-Peer-Websuche Trotz des Erfolgs moderner Websuchmaschinen bleiben die Herausforderungen bestehen, Menschen zur richtigen Zeit Zugang zu den richtigen Informationen zu verschaffen. In diesem Beitrag beschreiben wir, wie eine neuartige Kombination aus fallbasierter Argumentation, Websuche und Peer-to-Peer-Networking verwendet werden kann, um eine Plattform für die personalisierte Websuche zu entwickeln. Dieser neuartige Ansatz profitiert von einer besseren Ergebnisqualität und einer verbesserten Robustheit gegenüber Suchspam, während er dem einzelnen Benutzer ein höheres Maß an Privatsphäre bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85502-6_6 86b220b3aae43ddebadcdf0862f07cf4;de;;;7.3.;;;Hybridisierung eines Index basierend auf einem Konzeptgitter mit einem Terminologieextraktionsmodell für die semantische Informationssuche unter Anleitung von WordNet In diesem Beitrag stellen wir IRAFCA-WN ein Informationsabrufsystem aus Textdokumenten vor. Unser Modell beinhaltet ein Modul zur automatischen Extraktion von Terminologie und ein Modul, das auf der formalen Konzeptanalyse (FCA) basiert, die von WordNet zur Indexierung geführt wird. Die experimentelle Studie an einem Standardtestdaten zeigt die Wirksamkeit unseres Hybridmodells.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-52941-7_15 4dd5e265999c0684dfdb7c91ce7f91ee;de;;;7.3.;;;Bewertung von Tools zum Abruf chemischer Informationen In diesem Buch wurde bereits erwähnt, dass sich der Patentabruf von dem „Standard“-Informationsabruf unterscheidet und komplizierter ist. Es hat sich auch gezeigt, dass die Evaluierung von Patent-Retrieval-Engines besondere Aufmerksamkeit erfordert. In diesem Kapitel führen wir diesen Punkt weiter an, betonen jedoch die Anstrengungen, die in einem bestimmten Bereich, nämlich der Chemie, unternommen wurden. Wir haben uns diesem Thema aus zwei unterschiedlichen Perspektiven genähert. Da ist zunächst das Problem der Skalierbarkeit. Weitgehend ähnlich wie die Bemühungen von CLEF-IP, zielt es auf das Problem ab, eine große Anzahl von Dokumenten und möglicherweise eine große Anzahl von Anfragen bearbeiten zu müssen. Zweitens gibt es die Probleme, die durch die spezifischen Eigenschaften von Chemiedokumenten erzeugt werden. Wir beschreiben hier, wie wir manuell eine Reihe von Themen erstellt haben, um die Art von Informationsanfragen widerzuspiegeln, die ein Patentrechercheur oder ein allgemeiner Forscher haben könnte. Die Ergebnisse des ersten Jahres werden ebenfalls präsentiert, zusammen mit Richtungen und Desiderata für die nächsten Jahre.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19231-9_5 d1262c9a3909dc1fbd05bf4a9b4aa59e;de;;;7.3.;;;Ranking von Webseiten durch Verknüpfen von Schlüsselwörtern mit Standorten Viele Webabfragen enthalten sowohl Textschlüsselwörter als auch Standortwörter. Bei der Beantwortung solcher Anfragen sollte die Assoziation zwischen den textuellen Schlüsselwörtern und Orten in einer Webseite berücksichtigt werden. In diesem Beitrag stellen wir einen neuen Ranking-Algorithmus für die ortsbezogene Websuche vor, der sich MapRank nennt. Die Hauptidee besteht darin, die Assoziationen zwischen Schlüsselwörtern und Orten auf Webseiten zu extrahieren und sie weiter zu verwenden, um die Effektivität des Rankings zu verbessern. Zuerst bestimmen wir jedes Schlüsselwort mit bestimmten Orten zuordnen und bilden einen Satz von -Paaren. Dann berechnen wir für jedes Keyword den standortabhängigen Score und fügen ihn in das Ranking-Verfahren ein. Wir führen Vergleichsexperimente an einem realen Datensatz durch und verwenden die Metriken einschließlich MAP und NDCG, um die Leistung von MapRank zu messen. Die Ergebnisse zeigen, dass MapRank den bisherigen Methoden in Bezug auf verschiedene symbolische Standortbezogene Abfragen überlegen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38562-9_62 4a5defefb28cefb6b786feba3bdb5045;de;;;7.3.;;;MobMaps: Auf dem Weg zu einer gemeinsamen Umgebung für kollaborativen sozialen Aktivismus Heutzutage ist es möglich, Informationen in Echtzeit in die ganze Welt zu verbreiten, indem aktuelle Kommunikationsmittel verwendet werden, die hauptsächlich vom Internet unterstützt werden. Die Arbeit mehrerer Organisationen, die über eine Vielzahl von Problemen unserer Gesellschaft berichten, kann durch partizipative Plattformen unterstützt werden, die die Zusammenarbeit von Teilnehmern auf der ganzen Welt anregen. In diesem Beitrag stellen wir eine technologische Plattform vor, die eine gemeinsame Umgebung für kollaborativen sozialen Aktivismus bietet. Wir haben die Plattform an eine bestimmte Organisation angepasst, MachsomWatch, die Menschenrechtsverletzungen an israelischen Kontrollpunkten meldet. Abschließend präsentieren wir einige vorläufige Ergebnisse der ethnographischen Forschung mit der entwickelten Plattform.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04216-4_24 12665d5c910f8d36333d83fb06fc51e2;de;;;7.3.;;;Cyber-Sicherheitsbedrohungen für IoT-Anwendungen und Dienstdomänen Wir leben derzeit in der Post-PC-Ära, in der Smartphones und andere drahtlose Handheld-Geräte unsere Umgebung verändern und sie interaktiver, anpassungsfähiger und informativer machen. Als Internet of Things (IoT) bezeichnet, das sich zum Internet of Everything entwickelt, kombiniert das neue Ökosystem drahtlose Sensornetzwerke, Cloud Computing, analytische Daten, interaktive Technologien sowie intelligente Geräte, um Lösungen bereitzustellen, in die die Objekte mit Netzwerkkonnektivität eingebettet sind eine Kennung zur Verbesserung der Objekt-zu-Objekt-Interaktionen. Die IoT-Innovation schreitet voran und bietet vielfältige intelligente Lösungen oder Anwendungen. Von E-Transport bis E-Health, Smart Living bis E-Manufacturing und vielen anderen E-Lösungen. In diesem Umfeld bereitet der zunehmende Trend von Cyberangriffen auf die Systeminfrastruktur in Verbindung mit systeminhärenten Schwachstellen nicht nur den Anbietern, sondern auch den Verbrauchern Sorgen. Diese Sicherheitsbedenken müssen angegangen werden, um das Vertrauen der Benutzer zu gewährleisten, eine breite Akzeptanz zu fördern und die Potenziale des IoT auszuschöpfen. Aus der Perspektive von Firmware-, Hardware- und Software-Infrastruktur-Setups betrachtet dieses Papier einige der wichtigsten IoT-Anwendungs- und Servicedomänen und analysiert die Cybersicherheitsherausforderungen, die die IoT-Forschung in naher Zukunft wahrscheinlich vorantreiben werden.;-;-;-;https://link.springer.com/article/10.1007/s11277-017-4434-6 32bc19ebc4fe4593eb51011597e2a132;de;;;7.3.;;;Datenschutzerhaltende Authentifizierung und Verwaltung von Dienstrechten für das Internet der Fahrzeuge Aufgrund des Wachstums des Breitband- und drahtlosen Kommunikationsnetzes wurde es in den letzten Jahren immer beliebter, das Internet der Fahrzeuge (IoV) als Forschungsthema zu fördern. Das IoV unterscheidet sich von Fahrzeug-Ad-hoc-Netzen (VANETs). Das IoV erfordert mehr Sicherheitsüberlegungen als ein VANET. Beispielsweise müssen die erbrachten Dienstleistungen effektiv verwaltet werden. Einige Fahrzeuge müssen verschiedenen Fahrern die Nutzung ermöglichen und erhalten unterschiedliche Servicerechte (In einer Taxiflotte wird das gleiche Auto von verschiedenen Personen in Schichten gefahren) und die Identität von Fahrzeug und Fahrer muss durch Anonymität geschützt werden. Angesichts der obigen Sicherheitsüberlegungen präsentieren wir eine Methode zur Wahrung der Privatsphäre und der Zugriffskontrolle auf Dienste im IoV. In diesem System kann nur die Zertifizierungsstelle (CA) den Widerrufsprozess durchführen, wenn ein Fahrzeug oder ein Fahrer als ungültig beurteilt wird. Um diesen Zweck der Dienstezugriffskontrolle zu erreichen, schlagen wir ein neues Service Rights Management (SRM)-Schema vor, das ihre verschiedenen Dienste abhängig von den verschiedenen Objekten erhält und dann verschiedene digitale Rechte für die Verwaltung von Diensten und Zugriffsrechten separat zuweist. Bei der Bedrohungs- und Angriffsanalyse wird unser Schema mit anderen Mechanismen zur Verhinderung aller Arten von Angriffen auf drahtlose Netzwerke verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3648-5_244 e5dec3e3b59d31b81283f0a7e177b4de;de;;;7.3.;;;Profilerstellung von Flash Mob-Organisatoren in Webdiskussionsforen Das Phänomen Flashmob ist in der Soziologie und anderen Disziplinen gut untersucht, jedoch nicht im Bereich der digitalen Forensik. Flashmobs werden manchmal gewalttätig, begehen kriminelle Handlungen und stellen eine Bedrohung für die öffentliche Sicherheit dar. Aus diesen Gründen sind das Verständnis von Flashmob-Aktivitäten und die Identifizierung von Flashmob-Organisatoren wichtige Aufgaben für die Strafverfolgung. Dieses Kapitel stellt eine Technik vor, um wichtige Verhaltensmerkmale im Internet aus einem beliebten Diskussionsforum in Hongkong zu extrahieren, um Themenautoren – potenzielle Flashmob-Organisatoren – zu identifizieren, die einer lautstarken Minderheit angehören, aber die Motivation und die Fähigkeit haben, signifikanten sozialen Einfluss auf die Diskussion auszuüben Forum. Die Ergebnisse legen nahe, dass es bei der Interpretation von Flashmob-Phänomenen wichtig ist, die Online-Verhaltensattribute verschiedener Arten von Forennutzern zu berücksichtigen, anstatt nur aggregierte oder durchschnittliche Verhaltensdaten zu verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-46279-0_14 45b0766ceb920ee94ea45243b1a86a97;de;;;7.3.;;;Die Verwendung von Mustern in der Servicekomposition E-Services sind Dienste, die über das Internet aufgerufen werden können. Eine wahrscheinliche Verwendung von E-Diensten wäre die Erstellung von Geschäftsanwendungen, die E-Dienste von verschiedenen Dienstanbietern verwenden können. Diese potenzielle Nutzung von zusammengesetzten Diensten in Geschäftsumgebungen unterstreicht die Probleme von Zahlungsmechanismen, Zuverlässigkeit, Vertrauen, Interoperabilität und Dienstgarantien zwischen verschiedenen Dienstanbietern. Es wird auch wichtig, E-Services auszuwählen, die die Anforderungen einer bestimmten Geschäftsanwendung am besten erfüllen. Wir untersuchen, wie Muster in der Servicekomposition verwendet werden können, um die Entwicklung von Geschäftsanwendungen auf Basis von E-Services zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36189-8_3 9625fb7701a6508ca99d69b391e14802;de;;;7.3.;;;Sichern von XML-Webdiensten mithilfe eines Proxy-Webdienstmodells XML-Webdienste spielen eine grundlegende Rolle bei der Erstellung verteilter, integrierter und interoperabler Lösungen über das Internet. Das Hauptproblem, mit dem XML Web Services konfrontiert sind, ist die fehlende Unterstützung für Sicherheit in der Simple Object Access Protocol (SOAP)-Spezifikation. SOAP ist das wichtige Kommunikationsprotokoll, das von XML Web Services verwendet wird. Unsere Forschungsstudie zielt darauf ab, einen Proxy-basierten, leichtgewichtigen Ansatz zur Bereitstellung von Sicherheit in XML-Webdiensten zu implementieren. Der Ansatz bietet eine End-to-End-Sicherheit auf Nachrichtenebene nicht nur in den neuen Web Services, sondern auch in den bereits laufenden, ungestört. Die SOAP-Nachricht in einer Web-Services-Umgebung läuft über das HTTP-Protokoll, das als nicht sicher gilt, da die Nachrichten im Klartextformat über das Netzwerk übertragen werden und von Protokoll-Sniffern leicht gelesen werden können. Daher stellen wir in unserem Projekt eine sichere Verbindung zwischen dem Endbenutzer und dem Proxy Web Service mittels Secure Sockets Layer (SSL) her und die Verbindung zwischen dem Proxy Web Service und dem eigentlichen Web Service wird ebenfalls mittels SSL gesichert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-8741-7_74 057e946cf42b0cde09c68318db801562;de;;;7.3.;;;Webbasiertes Expertensystem für Weizen- und Maiswachstumsmanagement Webbasiertes Expertensystem für Weizen- und Maiswachstumsmanagement, hauptsächlich um die Informationen über die Weizen- und Maispflanzung ins Internet zu stellen. Es integrierte viele neue Erkenntnisse aus der Landwirtschaft einschließlich Wetter, Pflanzenschutz, Fachwissen, GIS, Internet und Computertechnologie. Es lieferte die Informationen über Rasse, Boden, Weizen und Ernte, die für die Landwirte verschiedener Gebiete in der Provinz Hebei im Internet charakteristisch sind. Darüber hinaus wurden alle Arten von Weizen- und Maispflanzexpertensystemen für verschiedene Zeiträume (Besamung, Düngung, Heilmittel, Bewässerung) des Weizen- und Maiswachstums bereitgestellt. Die Echtzeit-Vorhersage und das Management von Pflanzen wurde mit diesem System in der landwirtschaftlichen Produktion realisiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-77251-6_13 22855fd4b235c198dd59f6c68dcf3d70;de;;;7.3.;;;Komplexe Netzwerkphänomene in Telekommunikationssystemen Es hat sich herausgestellt, dass viele Netzwerke wie das Internet skalenfreie und kleine Netzwerkeigenschaften besitzen, die durch Potenzgesetz-Verteilungen widergespiegelt werden. In großen komplexen Netzwerken entwickeln sich skalenfreie Eigenschaften durch selbstorganisierende Prozesse und insbesondere durch bevorzugte Anlagerung. Neue Knoten in einem Netzwerk neigen dazu, sich mit anderen Knoten zu verbinden, die bereits gut verbunden sind. Da der Verkehr hauptsächlich über einige wenige hochgradig verbundene und konzentrierte Knoten geleitet wird, ist der Durchmesser des Netzwerks im Vergleich zu anderen Netzwerkstrukturen klein und die Bewegung durch das Netzwerk ist daher effizient. Gleichzeitig birgt diese Effizienzfunktion die Gefahr, dass skalierungsfreie Netzwerke getrennt oder erheblich gestört werden, wenn superverbundene Knoten entweder unbeabsichtigt oder durch einen gezielten Angriff oder eine externe Gewalt entfernt werden.;-;-;-;https://link.springer.com/article/10.1007/s11067-005-6208-z d933249e41730a6bf4ebee8ed25932e7;de;;;7.3.;;;Multimodale Dienste für die Erfassung von Webinformationen basierend auf Multi-Agent-Techniken Mit dem schnellen Informationswachstum im Internet wird die Erfassung von Webinformationen in vielen Webanwendungen, insbesondere in Suchmaschinen, immer wichtiger. Die Leistung von Web-Informationssammlern hat einen großen Einfluss auf die Qualität von Suchmaschinen, daher konzentrieren wir uns bei Web-Spidern normalerweise auf deren Geschwindigkeit und Genauigkeit. In diesem Beitrag weisen wir darauf hin, dass die Anpassbarkeit auch ein wichtiges Merkmal einer gut gestalteten Spinne ist, was bedeutet, dass Spinnen in der Lage sein sollten, multimodale Dienste bereitzustellen, um verschiedene Benutzer mit unterschiedlichen Anforderungen und Präferenzen zu befriedigen. Und wir haben ein paralleles Web-Spider-System entwickelt, das auf Multi-Agent-Techniken basiert. Es läuft mit hoher Geschwindigkeit und hoher Genauigkeit, und was am wichtigsten ist, es kann seine Dienste aus mehreren Perspektiven bereitstellen und verfügt über eine gute Erweiterbarkeit und personalisierte Anpassbarkeit.;-;-;-;https://link.springer.com/chapter/10.1007/11802372_15 690f7500dc63a120a75f9fdc0dc9efcc;de;;;7.3.;;;Tagging-Methode für Webdienste basierend auf der Faktorisierung der gewichteten Textmatrix Webservices sind wichtige Technikgrundlagen der Serviceorientierten Architektur. Service Discovery ist die genaue Nutzung der im Internet veröffentlichten Dienste vor der Nutzung. Die Tagging-Technik wird derzeit häufig verwendet, um die Suche nach Diensten zu unterstützen. Um das zeitaufwendige und fehleranfällige Problem beim manuellen Tagging zu lösen, schlagen wir in diesem Artikel einen neuartigen automatischen Ansatz zum Taggen von Webservices vor. Es gibt zwei Schritte, die aus der Extraktion von WSDL-Dokumenten (Web Services Description Language) und der Tag-Empfehlung unter Verwendung der gewichteten Textmatrixfaktorisierung bestehen. Es werden Experimente mit realen Datensätzen durchgeführt und die Ergebnisse beweisen, dass unser Ansatz effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-14680-1_42 af41018d81e7acd74df1c653326daea7;de;;;7.3.;;;Kurzfristige Wirksamkeit einer webbasierten computergestützten Ernährungsintervention: Haupteffekte und Mediatoren : Diese Studie bewertet die kurzfristige Wirksamkeit und die Bewertungen der Befragten einer webbasierten computergestützten Ernährungsintervention, die darauf abzielt, die Aufnahme gesättigter Fettsäuren zu verringern und die Aufnahme von Obst und Gemüse zu erhöhen. Als Mediatoren für die Wirkungen der maßgeschneiderten Intervention wurden die wahrgenommene persönliche Relevanz, Individualisierung und Interessantheit der Informationen getestet.;-;-;-;https://link.springer.com/article/10.1207/s15324796abm2901_8 1d56b94281047e068437fa3e4af06a50;de;;;7.3.;;;Responsive Webdesign und seine Verwendung durch eine E-Commerce-Website Es wird angenommen, dass verantwortungsbewusstes Architekturdesign die effektivste Antwort auf das Inkompatibilitätsproblem von Webseiten auf Geräten mit unterschiedlichen Größen und Auflösungen ist. Das Online-Shopping-Verhalten ist geräteübergreifend und kontinuierlich. Daher ist es unserer Meinung nach auch wichtig, zu untersuchen und zu diskutieren, wie eine flüssige und konsistente Benutzererfahrung für dieselbe Webseite auf verschiedenen Geräten bereitgestellt werden kann (außer der einfachen Verwendung der Fluid-Grid-Technik zur Wartung). Geräteübergreifende Kompatibilität). Inspiriert von der Fluency-Theorie gehen wir davon aus, dass die flüssige Verarbeitung von Webseiten auf verschiedenen Geräten das responsive Weberlebnis eines Benutzers beeinflusst. In diesem Artikel wurde eine Fallstudie von etao.com durchgeführt, um zu untersuchen, wie die flüssige Benutzererfahrung mit responsivem Webdesign auf Mobiltelefonen verbessert werden kann. Die Studie bestand aus zwei Experimenten: einem PC-Test und einem Handy-Test. Der PC-Test wurde entwickelt, um die Interaktionen zwischen den Benutzern und den Informationsinhalt auf etao.com (Desktop-Version) zu verstehen, was die Identifizierung von Benutzerpräferenzen und -erwartungen erleichtern und das Design der responsiven Webseite auf Mobiltelefonen leiten könnte. Im Handy-Test haben wir die responsive Webseite, die nach den Vorlieben und Erwartungen der Nutzer gestaltet wurde, daraufhin untersucht, ob diese Art des Layouts von den Nutzern akzeptiert werden kann. Die Ergebnisse zeigten, dass die Benutzer die neue Version der responsiven Webseite höher bewerteten als die traditionelle responsive Seite, die ausschließlich mit der proportionalen Fluid-Grid-Technologie entworfen wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07308-8_49 f2a43333f5e00aef6855aa4b6c240cd0;de;;;7.3.;;;Über Erfahrungen mit der Verwendung von Fernunterrichtstechnologien für den Kryptologieunterricht Die Notwendigkeit des Einsatzes von Distance Learning (DL) für den Kryptologieunterricht wird analysiert. Die modernen Merkmale der Anwendung verschiedener DL-Ansätze zur Lösung dieser Aufgabe werden extrahiert. Die Erfahrung der NRNU MEPhI bei der Erstellung eines massenorientierten DL-Projekts namens;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-18500-2_10 a0bb25287a620be9f807b2826d5ee791;de;;;7.3.;;;Dynamische Anpassung, Komposition und Orchestrierung von Webservices in virtuellen Umgebungen Um Interaktions- und Erkennungsprobleme zu lösen, müssen Webdienste eindeutig beschrieben werden. Vorhandene Technologien wie WSDL beschreiben die funktionalen Aspekte von Webdiensten, Netzwerkdienstendpunkten und Schnittstellen. Die semantischen Aspekte sind schwieriger zu handhaben, da verschiedene Organisationen auf unterschiedliche Weise arbeiten und unterschiedliche Informationsmodelle und domänenspezifische Vokabulare verwenden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-84837-2_52 5baeefe7fe1be92fd19a574fcf91f493;de;;;7.3.;;;Eine SVR-basierte Data Farming-Technik für Webanwendungen Um das Problem zu lösen, dass die Leistung von Webanwendungen die Erwartungen der Benutzer nicht erfüllen kann, wenn viele Benutzer über die Anwendung auf dynamische Daten zugreifen, wird eine Data Farming-Optimierungstechnik für Webanwendungen vorgeschlagen. Bei der vorgeschlagenen Technik basiert die Webanwendung auf XML und die Daten werden in das XML-Format konvertiert, bevor sie über XSL präsentiert werden. Um die Seitenantwortzeit zu verkürzen, wird SVR verwendet, um die Anforderungen des Benutzers zu prognostizieren. Und basierend auf den Anfragen wird ein Data Farming-Agent verwendet, um Webseiten zu erstellen, die von Benutzern möglicherweise benötigt werden. Schließlich werden Experimente durchgeführt, um die Seitenantwortzeiten für drei Websites zu vergleichen: eine dynamische Website ohne Data-Farming-Optimierung, eine Data-Farming-optimierte Website und eine SVR-basierte Data-Farming-optimierte Website. Es ist bewiesen, dass die Seitenreaktionszeit für die letzte Website am geringsten ist, was beweist, dass die vorgeschlagene Technik effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75902-9_47 efda620588e3c5985c39906bf861441c;de;;;7.3.;;;Anforderungen an Personal Information Agents im Semantic Web In diesem Papier stellen wir zunächst einige Anforderungen an Personal Information Agents im Semantic Web vor. Dann skizzieren wir unser PINA-Projekt, das versucht, Elemente des Identitätsmanagements und Informationsagenten im Semantic Web zu kombinieren. Die Grundidee besteht darin, Verweise auf Semantic Web-Annotationen in Identitätsservern als Teil von Benutzerprofilen zu speichern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-40010-3_23 0accd2d685820f775486421add450d8a;de;;;7.3.;;;Informationsmonitore: Eine Architektur basierend auf XML In diesem Papier stellen wir einen Ansatz vor, um die Überwachung von XML-Dokumenten im World Wide Web zu ermöglichen. Wir beschreiben eine verteilte Informationsüberwachungsarchitektur basierend auf Überwachungsregeln. Die Architektur bewahrt die Autonomie der beteiligten Dokumente und ermöglicht die Weiterentwicklung des Systems durch Hinzufügen, Entfernen und Ändern von XML-Dokumenten. Um den Ansatz zu veranschaulichen, stellen wir ein Beispiel aus dem Finanzbereich vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0299-1_38 af4594a404a3986c5123a3bfc79c1127;de;;;7.3.;;;CAPS: Ein Cloud-gestützter Ansatz zur Bewältigung von Spitzen bei der Peer-to-Peer-Websuche In Suchmaschinen verursachen populäre Nachrichtenereignisse enorme Spitzen bei den Suchanfragen im Zusammenhang mit den Ereignissen. In dieser Arbeit betrachten wir die Stabilitätsprobleme, die durch diese Spitzen in einer Peer-to-Peer-Websuchmaschine verursacht werden, die aus freiwilligen Ressourcen besteht, die von Peers geteilt werden. Die Anforderung, erstklassige Ergebnisse aus einem dynamischen Index bereitzustellen, unterscheidet die Websuche von anderen Klassen der Peer-to-Peer-Suche wie der Objektsuche und der Dateisuche. Dies macht die traditionellen Methoden der Lastreduzierung basierend auf Caching und Replikation, die für die Peer-to-Peer-Objektsuche und die Dateisuche vorgeschlagen werden, unzureichend, um Interessenspitzen bei der Peer-to-Peer-Websuche einzudämmen. Wir schlagen vor, die öffentliche Cloud vorübergehend zu verwenden, um die Stabilität von Peer-to-Peer-Websuchmaschinen bei Interessenspitzen aufrechtzuerhalten. Nach unserem besten Wissen ist dies die erste Arbeit, die eine vorübergehende Nutzung der Public Cloud vorschlägt, um Spitzen bei der Peer-to-Peer-Suche zu bewältigen. In der vorgeschlagenen Architektur, CAPS, wird die Verantwortung für die Behandlung von Spiking-Anfragen während der Spiking-Periode dynamisch auf öffentliche Clouds ausgelagert. Die für die Übertragung relevanter Indizes von Peers in die Cloud zu verwendende Peer-Bandbreite wird unter Berücksichtigung der Auswirkungen auf andere Anwendungen im Peer sowie der Anforderungen der Suchanwendung festgelegt. Wir zeigen, dass die vorübergehende Nutzung der Public Cloud ohne größere negative Auswirkungen auf die wünschenswerten Eigenschaften der Peer-to-Peer-Suche wie Datenschutz und dezentrale Kontrolle durchgeführt werden kann. Experimentelle Auswertungen unter realistischen Bedingungen zeigen, dass die Cloud-Unterstützung effektiv eingesetzt werden kann, um Spikes zu bewältigen.;-;-;-;https://link.springer.com/article/10.1007/s12083-014-0322-y c529479766f2c879bed89db7dfd82a23;de;;;7.3.;;;Verschlüsselung und Informationsschutz/Integritäts- und Geheimhaltungsmethoden: Unterrichtspläne Der Informationsschutz ist ein wichtiges Ziel der meisten Informationssicherheitskontrollen. Ohne Mechanismen zum Verbergen und Schutz von Informationen sind der gesamte E-Commerce und die Fernkommunikationsmechanismen nicht möglich. Da Benutzer im Internet kommunizieren, ohne sich zu sehen, sollten Mechanismen vorhanden sein, um die Identität jeder Partei der Kommunikationsaktivität gegenüber der zweiten Partei zu validieren. Ihre Kommunikation und alle zwischen ihnen ausgetauschten Informationen sollten ebenfalls geschützt werden, damit kein Dritter diese Daten oder Informationen einsehen oder preisgeben kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-72119-4_5 8b6a48182d68d705815d62dfae620307;de;;;7.3.;;;Technische Tools und Designs für den Datenschutz Dieses Kapitel befasst sich mit den spezifischen technischen Tools und Designs für den Datenschutzschlüssel für einen Privacy-by-Design- und Default-Ansatz. Nach der Präsentation eines Einführungsszenarios klassifizieren wir die verfügbaren Datenschutz- und Datenschutztechnologien in Tools und Designs für Sicherheit, Anonymität, Autonomie und Transparenz. Dieser Taxonomie folgend, werden in den folgenden Abschnitten die einzelnen Tools, Techniken und Designs detaillierter beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98624-1_6 a7d0104d260fc4a9597d23b7c703bfe3;de;;;7.3.;;;Inkrementelles Dokumenten-Clustering für die Klassifizierung von Webseiten Motiviert durch die Vorteile bei der Organisation der Dokumente in Web-Suchmaschinen betrachten wir das Problem der automatischen Klassifizierung von Webseiten. Wir verwenden die Clustering-Techniken. Jedes Dokument wird durch einen Merkmalsvektor repräsentiert. Durch die Analyse der von diesen Vektoren gebildeten Cluster können wir die Dokumente innerhalb desselben Clusters automatisch derselben Klasse zuordnen. Unsere Beiträge sind die folgenden: (1) Wir schlagen einen Mechanismus zur Merkmalsextraktion vor, der besser für die Klassifizierung von Webseiten geeignet ist. (2) Wir führen eine Baumstruktur ein, die als DC-Baum bezeichnet wird, um den Clustering-Prozess inkrementell und weniger empfindlich gegenüber der Dokumenteinfügereihenfolge zu machen. (3) Wir zeigen mit Experimenten an einer Reihe von Internetdokumenten aus;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-66979-1_10 122a1332c2a0cbc344a464a99fa948ae;de;;;7.3.;;;Verwenden des World Wide Web und von Java für die Verwaltung von Netzwerkdiensten In diesem Whitepaper werden die potenziellen Anwendungen von World Wide Web-Technologien erörtert, um die Anforderungen an die Netzwerkdienstverwaltung zu erfüllen. Webbasierte Tools können in vielen Bereichen des Netzwerkmanagements eingesetzt werden, vom einfachen Element bis hin zu hochentwickelten Service-Management-Anwendungen. Die Hintergrundprobleme, die zu diesem Ansatz geführt haben, Beispiele für Lösungen und die allgemeinen Vorteile von Webbrowsern und Java* von Sun werden erörtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35180-3_6 7fd244b17e562cf118368070634f7115;de;;;7.3.;;;Links in hierarchischen Informationsnetzwerken Wir beweisen, dass die inhärente hierarchische Struktur des Webs eng mit der Linkstruktur zusammenhängt. Darüber hinaus zeigen wir, dass diese Beziehung mehrere wichtige Merkmale des Webs erklärt, einschließlich der Lokalität und Bidirektionalität von Hyperlinks und der Komprimierbarkeit des Webgraphen. Wir beschreiben, wie Datenmodelle des Webs erstellt werden, die sowohl die hierarchische Natur des Webs als auch einige entscheidende Merkmale des Linkgraphen erfassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30216-2_12 3966d07531dab6d589ecc4d5029dcf86;de;;;7.3.;;;Hybridisierter Funktionssatz für die genaue Klassifizierung von dunklen arabischen Webseiten Sicherheitsinformatik und Computational Intelligence gewinnen bei der Aufdeckung terroristischer Aktivitäten an Bedeutung, da extremistische Gruppen viele der verfügbaren Internetdienste missbrauchen, um Gewalt und Hass zu schüren. Allerdings verringert die unzureichende Leistung von statistischen Methoden der Computer-Intelligenz die Effizienz intelligenter Techniken bei der Unterstützung von Anti-Terror-Bemühungen und schränkt die Möglichkeiten der Früherkennung potenzieller terroristischer Aktivitäten ein. In diesem Artikel schlagen wir eine Feature-Set-Hybridisierungsmethode vor, die auf Merkmalsauswahl- und Extraktionsmethoden basiert, um eine genaue Inhaltsklassifizierung in arabischen dunklen Webseiten zu ermöglichen. Das vorgeschlagene Verfahren hybridisiert die Merkmalssätze, so dass der erzeugte Merkmalssatz eine geringere Anzahl von Merkmalen enthält, die eine höhere Klassifikationsleistung erreichen können. Ein ausgewählter Datensatz aus dem Dark Web Forum Portal (DWFP) wird verwendet, um die Leistungsfähigkeit der vorgeschlagenen Methode zu testen, die einerseits auf Term Frequency - Inverse Document Frequency (TFIDF) als Feature-Auswahlmethode basiert, während Random Projection (RP) und Principal Component Analyse (PCA)-Merkmalsauswahlmethoden auf der anderen Seite. Klassifikationsergebnisse mit dem Support Vector Machine (SVM)-Klassifikator zeigen, dass eine hohe Klassifikationsleistung basierend auf der Hybridisierung von TFIDF und PCA erreicht wurde, wobei 99 % der F1- und Genauigkeitsleistung erreicht wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22689-7_13 b6dd3af45cbde4ddaf0ece2319188ee9;de;;;7.3.;;;Lernen impliziter Benutzerinteressen mithilfe von Ontologie und Suchverlauf zur Personalisierung Der Schlüssel zur Bereitstellung eines robusten Kontexts für den personalisierten Informationsabruf besteht darin, eine Bibliothek aufzubauen, die die langfristigen und kurzfristigen Interessen des Benutzers erfasst und diese dann im Abrufprozess verwendet, um Ergebnisse zu liefern, die den Informationsbedürfnissen des Benutzers besser entsprechen. In diesem Beitrag präsentieren wir einen verbesserten Ansatz zum Erlernen einer semantischen Repräsentation der Interessen des zugrunde liegenden Benutzers unter Verwendung des Suchverlaufs und einer vordefinierten Ontologie. Die Grundidee besteht darin, die Interessen des Benutzers durch das Sammeln von Beweisen aus seiner Suchhistorie zu erfahren und diese mit der Konzepthierarchie der Ontologie konzeptionell darzustellen. Wir verwenden auch eine dynamische Methode, die Änderungen der Interessen des kurzfristigen Benutzers unter Verwendung eines Korrelationsmetrikmaßes verfolgt, um die Interessen des Benutzers zu erfahren und aufrechtzuerhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77010-7_31 040bd9783a6a1170fcff2f1added49a3;de;;;7.3.;;;Ein ontologischer Rahmen des semantischen Lernerprofils in einem E-Learning-System Der Erfolg des E-Learning-Systems hängt vom Abruf relevanter Lerninhalte des Lernenden ab. Die beste Methode zur Erfassung der Lernerbedürfnisse ist die Erstellung eines effizienten Lernerprofils, das dem Semantic Web entsprechen muss. Semantic Web stützt sich stark auf formale Ontologien, um Daten zu strukturieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49685-6_26 48086abfe0552131f7ab37fecf9d8170;de;;;7.3.;;;Informationskrieg: Fakt oder Fiktion? Das Ziel des Papiers ist es, zu untersuchen, was Informationskrieg ist und welche Auswirkungen er auf ein Land haben könnte. Das Papier wird dann die Auswirkungen diskutieren, die der Informationskrieg auf Australien haben könnte. Diese Bewertung erfolgt in Form einer Bewertung zweier nationaler Studien, die in Australien zu Informationskriegsführung durchgeführt wurden, und untersucht die Risiken, die sich auf den E-Commerce auswirken könnten. Das Papier wird auch die Schritte beschreiben, die einige Länder unternehmen, um sich gegen die Bedrohung durch den Informationskrieg zu schützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35515-3_42 6a20ff83114f7edde184e6de1604ed4f;de;;;7.3.;;;E-Wartungsplattformdesign für öffentliche Infrastruktur basierend auf IFC- und Semantic-Web-Technologien Als wichtige Infrastruktur wird die Lebensdauer eines Tunnels auf 100 Jahre oder mehr geschätzt. Während seiner Lebensdauer spielt eine effektive Wartungsstrategie eine wesentliche Rolle, um seine Verfügbarkeit und Sicherheit zu erhalten. Die Wartungsarbeiten umfassen eine Reihe von Teilnehmern, Aktivitäten und Ressourcen, die Schwierigkeiten bei der Implementierung einer effektiven Wartung mit sich bringen. Dieses Papier schlägt ein E-Wartungs-Framework vor, das BIM-, IFC- und semantische Web-Technologien kombiniert, um Wartungsmanagern und Wartungspersonal dabei zu helfen, die benötigten Informationen rechtzeitig und genau zu erhalten und effektive Wartungsentscheidungen zu treffen. In diesem Papier wird ein Fall einer Kostenanalyse vorgestellt, um den Implementierungsmechanismus und die Validierung dieser Methode zu veranschaulichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98776-7_56 158574d77817d98793bd7e6a2d1331d6;de;;;7.3.;;;Information ist Macht Das Kernelement der digitalen Gesellschaft sind digitalisierte Informationen. Informationen sind der Schlüssel dafür, wie die digitale Gesellschaft Mehrwert schafft und Macht neu verteilt. In einer vernetzten Welt gewinnen Informationen durch dauerhafte Speicherung und weite Verbreitung an Macht. Dieselben Informationen, die in der analogen Welt existierten, können exponentiell an Leistung zunehmen, sobald sie in digitalen Netzwerken geteilt wurden. Digitale Informationen sind nicht greifbar. Doch einmal aufgenommen, kann es für immer existieren. Diese neue Art des Bestehens und Teilens schafft Lücken zwischen denen, die Informationen als Ressource nutzen können, und denen, die dies nicht können. Die Fähigkeit, Daten zu lokalisieren, in Informationen umzuwandeln und sie im Offline-Kontext anzuwenden, ist der Schlüssel zur Informationsflussigkeit. In diesem Kapitel werden die Fragen skizziert, wie der Ausschluss von Informationen Mitglieder einer Gesellschaft dazu führen kann, eine digitale Unterschicht in einer stark vernetzten Gesellschaft zu werden. Informationsfluss wird als wichtiger Bestandteil des digitalen Sprachflusses eingeführt.;-;-;-;https://link.springer.com/chapter/10.1057/978-1-137-59332-0_8 6c6bac0c52dda8c1a39be619970b6c50;de;;;7.3.;;;Ein ontologiebasierter Ansatz zur Beschreibung und Ausführung von Composite Network Management-Prozessen für die Netzwerküberwachung Network Web-Service-Technologie wurde vorgeschlagen, um Verwaltungsschnittstellen von verwalteten Ressourcen zu implementieren. Diese Webdienste können normalerweise kombiniert werden, um zusammengesetzte Prozesse durchzuführen. Diese zusammengesetzten Prozesse können mit Service-Ontologien wie OWL-S definiert werden, was ihre formale Beschreibung ermöglicht. Andere Technologien, einschließlich der Web Services Business Process Execution Language (WSBPEL), bieten jedoch ausgereiftere Ausführungs-Engines. Dieses Papier präsentiert einen Ansatz zur Definition und Ausführung von Composite Network Management-Prozessen mit bestehender Technologie. Dazu wird ein Use Case entwickelt, in dem ein Set von Webservice-Schnittstellen für eine Netzwerkprobe definiert und ein zusammengesetzter Prozess mittels OWL-S zur Überwachung der Netzwerklast spezifiziert wird. Dann wird diese Spezifikation später in WSBPEL übersetzt und von einer echten Ausführungsmaschine interpretiert.;-;-;-;https://link.springer.com/chapter/10.1007/11907466_8 9cbf1f4c47b98e27497dced4b66ee707;de;;;7.3.;;;Erleichterung der Geschäftsinteroperabilität über das Semantic Web Die meisten Ansätze zur B2B-Interoperabilität basieren auf der Standardisierung der Sprachsyntax, normalerweise durch XML-Schemas. Aufgrund von XML-Expressivitätseinschränkungen sind sie jedoch schwierig in die Praxis umzusetzen, da Sprachsemantik für computergestützte Mittel nicht verfügbar ist. Daher gibt es viele Versuche, formale Semantik für B2B basierend auf Ontologien zu verwenden. Dies ist jedoch ein schwieriger Sprung, da es bereits ein riesiges XML-basiertes B2B-Framework gibt und ontologiebasierten Ansätzen an Schwung fehlt. Unser Ansatz zur Lösung dieser Sackgasse basiert auf einer direkten und transparenten Übertragung bestehender XML-Schemas und XML-Daten in die semantische Welt. Dieser Prozess basiert auf einem XML-Schema-zu-Web-Ontologie-Mapping kombiniert mit einem XML-Daten-zu-Semantic-Web-Daten-Mapping. Im semantischen Raum angekommen, ist es einfacher, unterschiedliche Geschäftsstandards mithilfe von Ontologie-Alignment-Tools zu integrieren und dank semantikbewusster Tools Geschäftsinformationssysteme zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72035-5_17 21250da511e753f93158c9e1f4bbd640;de;;;7.3.;;;Bayessche Methoden zur Schätzung der zukünftigen Last in Webfarmen Webfarmen sind geclusterte Systeme, die entwickelt wurden, um Webdienste mit hoher Verfügbarkeit und hoher Leistung bereitzustellen. Eine Webfarm ist eine Gruppe replizierter HTTP-Server, die Webanforderungen beantworten, die von einem einzigen Zugriffspunkt an den Dienst weitergeleitet werden. Um diese Aufgabe zu bewältigen, führt der Zugangspunkt einen Lastausgleichsalgorithmus aus, um die Webanfrage auf die Servergruppe zu verteilen. Die vorliegenden Algorithmen bieten eine kurzfristige dynamische Konfiguration für diesen Vorgang, aber einige Korrekturmaßnahmen (Gewährung unterschiedlicher Sitzungsprioritäten oder verteilte WAN-Weiterleitung) können ohne eine langfristige Schätzung der zukünftigen Weblast nicht erreicht werden. In diesem Papier schlagen wir eine Methode vor, um die Arbeitslast von Webdiensten vorherzusagen. Unser Ansatz umfasst auch eine innovative Segmentierungsmethode für die Webseiten mit EDAs (Estimation of Distribution Algorithms) und die Anwendung semi-naiver Bayes-Klassifikatoren, um die zukünftige Weblast einige Minuten vorher vorherzusagen. Alle unsere Analysen wurden mit echten Daten aus einem weltweiten akademischen Portal durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24681-7_24 78ef47c2c3f3789f07a82dc8779febe0;de;;;7.3.;;;Erweiterung von OWL mit Dynamic Fuzzy Logic In den letzten Jahren hat die Ontologie eine große Rolle in der Wissensrepräsentation gespielt. Ontologiesprachen basieren auf Beschreibungslogiken. Obwohl sie ausdrucksstark genug sind, können sie sich nicht mit unscharfem und dynamischem Wissen im Semantic Web ausdrücken und argumentieren. Um mit unsicherem und dynamischem Wissen über das Semantic Web und seine Anwendungen umzugehen, eine neue Fuzzy-Erweiterung von Beschreibungslogiken, OWL und Ontologie basierend auf dynamischer Fuzzy-Logik, die als dynamische Beschreibungslogiken (DFDL), dynamische Fuzzy-Ontologie (DFO) und dynamische Fuzzy-OWL bezeichnet werden (DFOWL) vorgestellt. Syntax und Semantik von DFDL, DFO und DFOWL werden formal definiert und die Formen von Axiomen und Behauptungen spezifiziert. Die Forschung zeigt, dass DFOWL dem Semantic Web mehr Ausdruckskraft bietet und die Unzulänglichkeit von OWL als Ontologiesprache für das Semantic Web überwindet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03996-6_7 2624d275f328afed63504a1ef63338c8;de;;;7.3.;;;Verbesserung der Modularität und Flexibilität von Identitätsmanagement-Architekturen für nationale und grenzüberschreitende eID-Anwendungen Identitätsmanagementsysteme spielen eine Schlüsselrolle in verschiedenen Anwendungsbereichen und E-Government-Prozessen, in denen der Zugriff auf sensible Daten geschützt werden muss. Um diese sensiblen Daten zu schützen, stellt das Identitätsmanagementsystem den Dienstanbietern alle erforderlichen Funktionen zur Verfügung, um digitale Identitäten zu verwalten und den Identifizierungs- und Authentifizierungsprozess abzuwickeln. Identitätsmanagement an sich ist kein neues Thema und so haben sich im Laufe der Zeit mehrere Identitätsmanagementsysteme entwickelt, die in fast allen europäischen Ländern im Einsatz sind. Das Identitätsmanagement entwickelt sich jedoch ständig im Hinblick auf neue technische oder rechtliche Anforderungen, höhersichere Protokolle, neue Identifikations- und Authentifizierungsmechanismen oder neue Anwendungsfelder. Insbesondere die Notwendigkeit, Identitäten über Domänen oder sogar Grenzen hinweg auszutauschen oder zu föderieren, erfordert neue interoperable Lösungen und flexible Architekturen für das Identitätsmanagement. In diesem Papier stellen wir eine flexible und modulare Identitätsmanagement-Architektur vor, die sich auf Föderations- und Interoperabilitätsfunktionen basierend auf steckbaren Komponenten konzentriert. Dadurch können neu entstehende Anforderungen einfach durch die Implementierung entsprechender Plug-Ins erfüllt werden. Daher eignet sich unsere vorgeschlagene Architektur insbesondere für hochqualifizierte Identifikationssysteme wie nationale eIDs für e-Government-Anwendungen und deren grenzüberschreitende Föderation. Die Anwendbarkeit unserer Architektur verdeutlichen wir weiter, indem wir sie als Identity Provider für österreichische eGovernment-Anwendungen einsetzen, einerseits für nationale Authentifizierungen und andererseits im grenzüberschreitenden Kontext.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30996-5_7 d9b71ea99630ce5de0d10b0df3b7f047;de;;;7.3.;;;Ein neuartiger Ensemble-Entscheidungsbaum basierend auf Undersampling und klonaler Selektion für die Web-Spam-Erkennung Derzeit ist Web-Spamming ein ernstes Problem für Suchmaschinen. Es verschlechtert nicht nur die Qualität der Suchergebnisse, indem es absichtlich unerwünschte Webseiten für die Benutzer heraufbeschwört, sondern führt auch dazu, dass die Suchmaschine eine erhebliche Menge an Rechen- und Speicherressourcen durch die Manipulation nutzloser Informationen verschwendet. In diesem Beitrag stellen wir einen neuartigen Ensemble-Klassifikator für die Web-Spam-Erkennung vor, der den klonalen Auswahlalgorithmus für die Merkmalsauswahl und das Undersampling für den Datenausgleich kombiniert. Dieses Web-Spam-Erkennungssystem heißt USCS. Die USCS-Ensemble-Klassifizierer können automatisch Unterklassifizierer abtasten und auswählen. Zuerst wandelt das System den unausgeglichenen Trainingsdatensatz unter Verwendung der Unterabtastmethode in mehrere ausgeglichene Datensätze um. Zweitens wählt das System automatisch mehrere optimale Merkmalsuntermengen für jeden Unterklassifizierer unter Verwendung eines angepassten klonalen Auswahlalgorithmus aus. Drittens erstellt das System mehrere C4.5-Entscheidungsbaum-Unterklassifizierer aus diesen ausgewogenen Datensätzen basierend auf seinen spezifizierten Merkmalen. Schließlich werden diese Unterklassifizierer verwendet, um einen Ensemble-Entscheidungsbaumklassifizierer zu konstruieren, der angewendet wird, um die Beispiele in den Testdaten zu klassifizieren. Experimente mit dem WEBSPAM-UK2006-Datensatz zum Web-Spam-Problem zeigen, dass unser vorgeschlagener Ansatz, der USCS-Ensemble-Web-Spam-Klassifikator, im Vergleich zu mehreren Basissystemen und modernsten Ansätzen eine signifikante Klassifizierungsleistung beiträgt.;-;-;-;https://link.springer.com/article/10.1007/s10044-017-0602-2 3cbc42c09a77c2246974143011b66f14;de;;;7.3.;;;Java-basierte verteilte intelligente Agentenarchitektur zum Aufbau sicherheitskritischer Teleinspektionssysteme im Internet Die Inspektion von SG(Dampfgenerator)-Rohren in einem KKW (Kernkraftwerk) ist eine zeitaufwendige, mühsame und sicherheitskritische Aufgabe aufgrund mehrerer schwerwiegender Einschränkungen, einschließlich einer stark verstrahlten Arbeitsumgebung, eines engen Aufgabenplans und der Notwendigkeit für viele hochqualifizierte Personalinspektoren. Um diese sicherheitskritische und komplexe Inspektion über das Internet zu realisieren, wurden intelligente Agenten auf Basis von Java-Distributed-Technologien entwickelt. Die vorgeschlagene Agentenarchitektur, ein deklaratives Befehlskonzept basierend auf einer geschichteten Architektur, wurde eingeführt, um die Auswirkungen der Internet-Latenz zu minimieren und die Zuverlässigkeit eines Inspektionssystems mit Teleoperation über das Internet zu maximieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45049-1_5 6b6af096512e26bfcee507473665b81c;de;;;7.3.;;;Medienerweiterung und Personalisierung durch Multimedia-Verarbeitung und Informationsextraktion In diesem Kapitel werden der Wert und die Methoden für die Erweiterung und Personalisierung von Inhalten in verschiedenen Medien wie TV und Web beschrieben. Wir veranschaulichen, wie die Metadatenextraktion bei der Kombination verschiedener Medien helfen kann, um ein neuartiges Inhaltskonsum- und Interaktionserlebnis zu erzeugen. Wir präsentieren zwei Pilotanwendungen zur Inhaltserweiterung. Die erste, MyInfo genannt, kombiniert automatisch segmentierte und zusammengefasste Fernsehnachrichten mit Informationen, die aus Webquellen extrahiert wurden. Unser Nachrichtenzusammenfassungs- und Metadatenextraktionsprozess verwendet Textzusammenfassung, Ankererkennung und visuelle Schlüsselelementauswahl. Erweiterte Metadaten ermöglichen den Abgleich mit dem Benutzerprofil zur Personalisierung. Unsere zweite Pilotanwendung namens InfoSip führt eine Personenidentifizierung und Szenenanmerkung basierend auf der Anwesenheit von Schauspielern durch. Die Personenidentifikation basiert auf visueller, akustischer, Textanalyse und Gesichtserkennung. Die InfoSip-Anwendung verknüpft Personenidentitätsinformationen mit Filmografien und Biografien, die aus dem Web extrahiert wurden, und verbessert so das Fernseherlebnis, indem Benutzer ihre Fernsehgeräte einfach nach Informationen über Schauspieler in der aktuellen Szene abfragen können.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-2164-X_8 d7407826a45deae9f70764a54b93981e;de;;;7.3.;;;Aspect Fusion als Designparadigma für den Abruf rechtlicher Informationen Legal Information Retrieval (LIR) hängt davon ab, Tatsachen oder Aussagen in Texten zu identifizieren und entsprechend relevante Gesetze, Unternehmensrichtlinien und dergleichen abzurufen. Wir schlagen einen Ansatz für den Matching-Prozess vor, der sich eher auf Aspekte stützt, die sich in Fakten und Prädikationen widerspiegeln, als auf der spezifischen Formulierung. Die Benutzer definieren und verwalten Blueprints als standardisierte Darstellungen von Aspekten, die ihren mentalen Modellen von Fakten und Prädikationen entsprechen. In diesem Papier demonstrieren wir unser prototypisches System Contexter, das auf diesen Blaupausen als steuernde Elemente seines Abrufprozesses arbeitet. Das System nimmt die manuell definierten Blueprints als Seeds und versucht automatisch weitere gültige Varianten dieser Blueprints zu erkennen, die der Benutzer abschließend bestätigen oder ablehnen kann. Dieser benutzergesteuerte und halbautomatische Prozess unterstützt den Benutzer dabei, die Basis der Aspektmuster anzureichern und schließlich die Abruffähigkeiten des Systems zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-68017-6_81 dc00d80f84b369781a63056bb4e759a4;de;;;7.3.;;;Datenverschlüsselung für Fernüberwachungssystem basierend auf dem Internet der Dinge im mobilen Modus Mit der Entwicklung des Internet of Things (IoT) und den weit verbreiteten Anwendungen intelligenter mobiler Endgeräte wird die Fernüberwachung auf dem mobilen Endgerät zum Trend. Dieses Papier untersucht die Datenreinigungs- und Verschlüsselungstechnologie zwischen Server und mobilem Endgerät in einem Fernüberwachungssystem. Für die vernetzte Datenübertragung im Fernüberwachungssystem haben die Autoren die Sorted Neighborhood-Methode untersucht und ihre Leistung verbessert, die die erhaltenen doppelten Daten in der Datenquelle erkennt und behandelt, um die Kommunikationslast zwischen mobilem Client und Server zu reduzieren, die bereinigten Daten werden verschlüsselt durch RSA- und MD5-Algorithmus, um die Systemsicherheit zu verbessern und Serverdatenverluste zu verhindern. Wir haben Experimente durchgeführt, deren Ergebnisse zeigen, dass unser Ansatz zur Datenbereinigung und -verschlüsselung die Datenübertragungsrate zwischen Server und mobilem Client erheblich steigern kann, was zu besseren Lösungen für praktische Probleme führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-15554-8_20 7421d76f60e3ccb22dd3f0c8eca70f53;de;;;7.3.;;;Verwenden von implizitem Relevanz-Feedback in einem Websuchassistenten Die explosionsartige Zunahme von Informationen im WorldWid eWeb erfordert effektive intelligente Such- und Filtermethoden. Folglich wurden Techniken entwickelt, die konzeptionelle Informationen aus Dokumenten extrahieren, um automatisch Domänenmodelle zu erstellen. Das von uns erstellte Modell ist eine Taxonomie konzeptioneller Begriffe, die in einem Suchassistenten verwendet wird, um dem Benutzer zu helfen, zum richtigen Satz erforderlicher Dokumente zu navigieren. Wir überwachen die von den Benutzern durchgeführten Dialogschritte, um Feedback über die Qualität der vom System vorgeschlagenen Auswahlmöglichkeiten zu erhalten und das Modell ohne manuelle Eingriffe anzupassen. So beschäftigen wir;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45490-X_43 4b513e822844d7ed9bf21f23312dedf4;de;;;7.3.;;;Clusterbasierte Websystemmodelle für verschiedene Clientklassen in QPN Simulationsstudien für Websysteme wurden von vielen akademischen Forschern und Praktikern durchgeführt. Modelle sind oft weniger zeitaufwändig für die Entwicklung und den Betrieb von Produktionssystemen. Performance Engineering wird durchgeführt, um die Systemleistung zu bestimmen. In dem Beitrag werden verschiedene Leistungsmodelle von Cluster-basierten Websystemen sowie deren Einfluss auf die Antwortzeit diskutiert. Die Simulationen von Queuing Petri Nets basieren auf unterschiedlichen Belastungen, aber auch auf wechselnden Umgebungsparametern und Systemstrukturen. Eine Neuheit bei diesem Ansatz ist die Verwendung von zwei Client-Klassen, die sich auf das Kundenverhalten und die Routen im System beziehen. In allen Fällen werden Web-Systemarchitekturen mit Clustern berücksichtigt. Simulationsergebnisse aus diesen Modellen werden mit Daten aus einem realen System verglichen und zeigen eine gute Genauigkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-21952-9_26 9cb7e4e1a8746c5b267755e51c3cbc5b;de;;;7.3.;;;Ein semantischer Lexikon-basierter Ansatz zur Sinn-Begriffsklärung und seine WWW-Anwendung Diese Arbeit schlägt einen grundlegenden Rahmen für die Auflösung der Sinndisambiguierung durch die Verwendung von Semantic Lexicon vor, einem maschinenlesbaren Wörterbuch, das sowohl Wortsinne als auch lexikalisch-semantische Beziehungen verwaltet. Insbesondere wird polyseme Mehrdeutigkeit diskutiert, die Webdokumente charakterisieren. Das angenommene semantische Lexikon ist WordNet, eine lexikalische Wissensdatenbank mit englischen Wörtern, die in vielen Forschungsstudien zur Wissensentdeckung weit verbreitet ist. Der vorgeschlagene Ansatz erweitert neuere Arbeiten zur Wissensentdeckung, indem er sich auf den Aspekt der Begriffsklärung konzentriert. Durch Ausnutzung der Struktur der WordNet-Datenbank werden lexiko-semantische Merkmale verwendet, um die inhärente Mehrdeutigkeit des geschriebenen Textes mit besonderem Bezug auf HTML-Ressourcen aufzulösen. Die erhaltenen Ergebnisse können auch auf generische Hypertext-Repositorys ausgeweitet werden. Experimente zeigen, dass Polysemiereduktion verwendet werden kann, um Hinweise auf die Bedeutung bestimmter Sinne in bestimmten Kontexten zu geben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04020-7_50 d572046dce63775b04672269e1fa7b16;de;;;7.3.;;;Mensch-Maschine-Interaktion in der Logistik: Beispiel „Internet der Dinge“ Die Einführung von IKT-Systemen (IKT: Informations- und Kommunikationstechnologien) hat in den letzten Jahren in zahlreichen Bereichen der Arbeitswelt zu grundlegenden Veränderungen geführt. Vor allem die Vernetzung mit Hilfe von IKT-Anwendungen (z.B. Sicherheitssysteme in Autos, Flugzeugen etc.) hat viele Möglichkeiten geschaffen, komplexe Systeme und Prozesse zu überwachen und immer mehr ohne menschliche Eingriffe zu steuern. Weyer (Autonomie und Kontrolle. Arbeiten in hybriden Systemen am Beispiel der Luftfahrt. Technikfolgenabschätzung – Theorie und Praxis Nr. Dortmund, 2007, S. 35) kommentiert diese Entwicklung wie folgt: „Ein besonderes Merkmal der jüngsten Entwicklung ist außerdem das scheinbar unaufhörliche Vordringen autonomer technischer Systeme, die immer mehr zu Mitspielern in derartigen Netzwerken geworden sind“. Die Entstehung „hybrider Konstellationen, durchdrungen von menschlichen Akteuren und (semi)autonomen Maschinen“ (vgl. ebd.) ist eine der Folgen dieser Entwicklung. Wie später gezeigt wird, hat die Autonomie von IKT-Systemen schrittweise zugenommen, während die Rolle der menschlichen Akteure in den Hintergrund gerückt ist. Auslöser sind neue Hightech-Entwicklungen im Bereich RFID (Radio-Frequency Identification) (Want et al. IEEE Pervasive Computing, 2006, 5:25–33) und das „Internet der Dinge“ Kevin Ashton, der 1999 zum ersten Mal den Begriff „Internet der Dinge“ verwendet hat (Ashton, RFID Journal.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35966-8_46 b6b28d165ce2c9c1cf9fc52b2140b1ed;de;;;7.3.;;;Wissensnetzwerke zur Überwindung der digitalen Kluft Da Organisationen zunehmend über globale Grenzen hinweg expandieren, steigt ihre Abhängigkeit von Informations- und Kommunikationstechnologien (IKT) zur Unterstützung ihrer Prozesse. Der Einsatz von IKT zur Aktivierung von verteiltem Wissen in komplexen Netzen menschlicher Netzwerke kann es ermöglichen, die Kluft zwischen informationsreichen und informationsarmen Menschen zu überwinden. Dieser Beitrag entwickelt ein neues Konzept namens Wissensvernetzung und untersucht, wie dieser Prozess die Überwindung der digitalen Kluft ermöglicht. Nach einer phänomenologischen Analyse der Wissensvernetzung anhand einer Auswahl von Vignetten liefert dieser Beitrag ein konzeptionelles Modell, das beschreibt, wie Wissensvernetzung die Überwindung der digitalen Kluft ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-0011-1_14 103243e8eaffc76148afffec38d943a3;de;;;7.3.;;;Dynamische Bandbreitenzuweisung für Internettelefonie Für Ferngespräche ist die Internettelefonie aufgrund ihrer geringen Servicegebühr und der Mehrwertfunktionen vielversprechend. Um der allgemeinen Öffentlichkeit Internet-Telefonie bereitzustellen, kann ein Dienstanbieter in jeder bedienenden Stadt ein Telefon-Gateway betreiben, um das lokale Telefonnetz und das Internet zu überbrücken, so dass Benutzer Telefone oder Faxgeräte verwenden können, um auf dieses Gateway für Dienste zuzugreifen. In diesem Papier schlagen wir ein dynamisches Bandbreitenzuweisungsschema für zwei Zwecke vor: (1) jedes Telefon-Gateway kann die verfügbare Bandbreite vollständig nutzen, um mehr Telefon- und Faxsitzungen zu bedienen, und (2) es kann auf die sich ändernden Umgebungen reagieren. Wir nutzen drei Eigenschaften für die dynamische Bandbreitenzuweisung. Erstens wechselt jeder Benutzer in einer Telefonsitzung normalerweise zwischen Sprechen und Zuhören. Wenn ein Benutzer nicht spricht, sendet er keinen Sprachstream und somit kann die Bandbreite aus dieser Sitzung dynamisch für die anderen Sitzungen freigegeben werden. Zweitens ist der Sprachverkehr elastisch, da er auf Kosten einer geringeren Qualität weiter komprimiert werden kann. Drittens ist der Faxverkehr flexibel, da er vorübergehend verzögert werden kann. Wir nutzen diese drei Eigenschaften, um Telefon- und Faxsitzungen dynamisch Bandbreite zuzuweisen. Wenn ein Telefon-Gateway eine dynamische Bandbreitenzuweisung anwendet, kann es mehr Telefon- und Faxsitzungen bedienen, während es eine akzeptabel gute Dienstgüte (QoS) bietet, und es kann eine stabilere QoS liefern, wenn die verfügbare Bandbreite variiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30542-2_49 f128bfdf78a43dbf99106c922f2cfb2d;de;;;7.3.;;;GRIDs – Die Technologien der nächsten Generation für das Internet GRIDs sind sowohl ein neues als auch ein altes Konzept. Viele der Komponenten waren Gegenstand von Forschung und Entwicklung und einige existieren als kommerzielle Produkte. Das GRIDs-Konzept repräsentiert viele verschiedene Dinge für verschiedene Menschen: Metacomputing, verteiltes Computing, fortschrittliche Netzwerke, verteilte Datenbanken, Informationsabruf, digitale Bibliotheken, Hypermedien, kooperatives Arbeiten, Wissensmanagement, fortschrittliche Benutzerschnittstellen, mobiles und durchdringendes Computing und viele andere. Noch wichtiger ist, dass Endbenutzer die GRIDs-Technologie als Mittel zum Zweck sehen – um Qualität, Arbeitsgeschwindigkeit und Zusammenarbeit in ihrem Bereich zu verbessern. GRIDs werden die erforderlichen Informationen in geeigneter Form zeitnah an die richtige Stelle liefern. Die Neuheit von GRIDs liegt in der notwendigen Informationssystemtechnik, um fehlende Komponenten zu generieren und die Komponenten zusammenzusetzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0719-4_1 1cfa6e3d209cf08c947d3827b0969d45;de;;;7.3.;;;Zweisprachige Suchmaschine und Tutoring-System, erweitert mit Abfrageerweiterung Heutzutage sind verteilte Informationen in Form von sprachlichen Ressourcen über das Internet zugänglich. Suchmaschinen sind für den Informationsabruf von entscheidender Bedeutung geworden, da Benutzer relevante Informationen in verschiedenen Sprachen und Formen finden und abrufen müssen. Das Ziel dieses Beitrags ist es, die Anwendung der Abfrageerweiterungstechnik zur Verbesserung des sprachübergreifenden Informationsabrufs in Englisch und Thai zu untersuchen sowie das Potenzial, die Technik auf andere intelligente Systeme wie Tutorsysteme anzuwenden. Als Bewertungsmethode der Sucherweiterung untersuchen wir, ob die erweiterten Begriffe für die Suche nützlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85644-3_4 5d0ef4b44696401e2c931ad3c60c670e;de;;;7.3.;;;Ein effizienter Algorithmus für das Assoziations-Informations-Mining auf Webseiten mit dynamischen Skripten Der Hyperlink-Analysealgorithmus wird häufig von öffentlichen Suchmaschinen verwendet. Bei der Entwicklung der Websites mit dynamischem Skript ist dieser Algorithmus jedoch nicht geeignet, um eine effiziente Suche nach diesen verwandten Seiten zu realisieren, da nicht genügend Hyperlink-Informationen für diese Seiten vorhanden sind. Die Forschung zum Verband Information Mining auf Webseiten mit dynamischen Skripten schreitet sukzessive voran. Dieses Papier schlägt ein verbessertes Such-Framework vor, das für die Seiten mit dynamischen Skripten effizienter sein kann. Dann präsentiert die Veröffentlichung durch Aufbauen von Zustandsinformationstabellen, die mit Seitenänderungen derselben URL für diese Seiten und Zustandsübergangsketten für das Laden von Seiten übereinstimmen, einen Analysealgorithmus basierend auf einem zustandsbezogenen Abgleich dieser Seiten. Schließlich beschreibt das Papier detailliert den gesamten Implementierungsprozess des Algorithmus und demonstriert die Effizienz des Algorithmus durch experimentelle Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24273-1_46 1364121f2107ab747e0136c582855a36;de;;;7.3.;;;Pragmatic Computing – Eine semiotische Perspektive auf Webdienste Das Web scheint sich von einem syntaktischen Web, einem semantischen Web zu einem pragmatischen Web entwickelt zu haben. Diese Entwicklung entspricht dem Studium der Information und Technologie aus der Theorie der Semiotik. Die Pragmatik in Bezug auf die Verwendung von Informationen in Bezug auf den Kontext und die beabsichtigten Zwecke ist bei Webdiensten und Anwendungen äußerst wichtig. Es wurde viel in der Pragmatik geforscht, aber gleichzeitig haben Versuche und Lösungen zu einigen weiteren Fragen geführt. Nach einem Überblick über die aktuelle Arbeit im pragmatischen Web präsentiert der Artikel einen semiotischen Ansatz für Website-Dienste, insbesondere auf Anforderungszerlegung und Dienstaggregation.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88653-2_1 dbaa8d706052707559db84c0f58d4242;de;;;7.3.;;;Herausforderungen und Sicherheit im Cloud Computing Menschen, die in dieser Welt leben, wollen alle Probleme so lösen, wie sie damals auftreten. Eine IT-Technologie namens Ubiquitous Computing soll die Situationen erleichtern und wir nennen eine Technologie, die es noch besser und leistungsfähiger macht Cloud Computing. Cloud Computing steht jedoch noch am Anfang der Implementierung und Nutzung und steht vor vielen Herausforderungen in technischen Belangen und Sicherheitsfragen. Dieses Papier befasst sich mit der Cloud-Computing-Sicherheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17604-3_24 52ae00d83da923bb3beed42c2eb76bc6;de;;;7.3.;;;Web Canary: Ein virtualisierter Webbrowser zur Unterstützung der groß angelegten stillen Zusammenarbeit bei der Erkennung bösartiger Websites Schädliche Webinhalte stellen eine ernsthafte Bedrohung für das Internet, Organisationen und Benutzer dar. Aktuelle Ansätze zur Erkennung bösartiger Webinhalte verwenden leistungsstarke Honey-Clients, um das Web nach potenziell bösartigen Seiten zu durchsuchen. Diese Ansätze sind zwar effektiv bei der Erkennung bösartiger Inhalte, haben jedoch den Nachteil, dass sie nur wenige sind, eine einzige Momentaufnahme sehr dynamischer Phänomene darstellen und künstliche Testdaten haben. Um diese Probleme anzugehen, haben wir einen virtualisierten Webbrowser entwickelt, der eine umfangreiche Zusammenarbeit nutzt, um URLs zu identifizieren, die kontinuierlich bösartige Inhalte hosten, indem wir ein optionales Berichtssystem einbauen. Das System, das wir als Web Canary bezeichnen, führt bei jedem Browserstart einen Standard-Webbrowser in einem bekannten, makellosen Betriebssystem aus. Benutzer melden nicht nur bösartige URLs, sondern profitieren auch vom Schutz vor bösartigen Inhalten. Experimentelle Ergebnisse zeigen, dass es die bösartigen Webseiten mit akzeptablem Aufwand effektiv erkennen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03354-4_3 45cf63936d0e4325f2f692fb370ff8a0;de;;;7.3.;;;Ein HowNet-basierter Web-Log-Mining-Algorithmus Weblog-Mining wird verwendet, um Benutzerzugriffsmuster zu extrahieren. In diesem Papier wird ein Algorithmus vorgeschlagen, um das Problem der schlechten Erklärung für die Seitenfolge des Weblog-Mining zu lösen. Der Algorithmus wandelt zuerst die vom Benutzer besuchte Seitenfolge in eine maximale Vorwärtsfolge um und verwendet dann den HowNet-basierten semantischen ähnlichen Algorithmus, um das Benutzerinteresse an der Besuchsfolge zu beschreiben und die Interessenbewegung mit bestimmten semantischen Wörtern zu erklären. Der Algorithmus hilft Websites dabei, Personalisierungsseiten bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-76312-5_15 4828fdb8748d7da6a0e8801fcd1ac5c8;de;;;7.3.;;;Intelligente Softwareagenten: Aktuelle Technologie und potenzielle Auswirkungen auf elektronische Märkte und Vermittler Das beispiellose Potenzial intelligenter Software-Agenten zur Reduzierung von Arbeits- und Informationsüberlastung bietet im internetbasierten Business entlang der gesamten Wertschöpfungskette insbesondere auf Seiten der Endkunden deutlich reduzierte Transaktionskosten. Veränderte Kostenstrukturen werden die Vermittlung verändern und neue Marktformen ermöglichen. Der aktuelle Stand der Agententechnologie und deren Anwendung bei der Gestaltung von Einzelhandelsmärkten wird untersucht und kategorisiert. Die Fähigkeit von Maklern, im Namen ihrer Eigentümer zu verhandeln, ist von entscheidender Bedeutung. Die ökonomische Theorie der Transaktionskosten wird angewendet, um die Ansichten von Wideheld über die zukünftige Entwicklung und Organisation elektronischer Märkte im Lichte der neuen Technologie zu hinterfragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-60187-3_46 677abc680d1108ad4cee654f34a10015;de;;;7.3.;;;Erfolgsfaktoren für das Mozilla-Projekt identifizieren Die Veröffentlichung des Netscape-Quellcodes unter freier Softwarelizenz und der Start des Mozilla-Projekts sind eine bahnbrechende Initiative im Bereich freier und quelloffener Software. Fünf Jahre nach der Veröffentlichung kam es jedoch zu Jahren des Niedergangs. Mit dem leichteren Firefox-Browser stiegen die Marktanteile nach 2004 wieder an. Wir schlagen eine Fallstudie für den Zeitraum von 1998 bis 2012 vor. Wir identifizieren die Faktoren, die die Entwicklung des Mozilla-Projekts erklären. Unsere Studie vertieft verschiedene in der Literatur identifizierte Erfolgsfaktoren. Es basiert auf den Erfahrungen der Autoren sowie der reichhaltigen Literatur, die der Firma Netscape und dem Mozilla-Projekt gewidmet ist. Es hebt insbesondere die Bedeutung der Komplexität des Quellcodes, seiner Modularität, der Verantwortungszuweisung und der Existenz einer organisatorischen Trägerschaft hervor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38928-3_4 7f980be403ac951ffd518cdc00e9d0d4;de;;;7.3.;;;Erweiterung des UTAUT2-Modells, um die Akzeptanz von Unternehmern zu verstehen und das Internet der Dinge (IoT) einzuführen Das Ziel dieser empirischen Studie ist es, die Faktoren zu untersuchen und zu diskutieren, die die Akzeptanz und Akzeptanz des Internets der Dinge (IoT) bei Unternehmern mit dem UTAUT2-Modell beeinflussen. Die Studiendaten wurden mithilfe einer Umfrage erhoben, die über einen Zeitraum von sechs Monaten unter omanischen Unternehmern verteilt wurde. Die Ergebnisse zeigten, dass die Beziehung zwischen IT-Wissen und der Akzeptanz und Einführung des IoT durch Unternehmer unterstützt wurde, wie die meisten anderen hypothetischen Beziehungen in der Studie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-21451-7_29 ce8548dd72502b4525a21b66d25aec53;de;;;7.3.;;;Eine Webplattform zur Förderung und Bewertung des Bewusstseins für Tonharmonie Harmon In diesem Beitrag wird der Einsatz computerbasierter Technologien für das frühe Erlernen der tonalen Harmonielehre untersucht, ein Thema, das für junge Studenten oder Amateure oft als zu abstrakt und schwierig angesehen wird. Es wird eine webbasierte Plattform beschrieben, die darauf abzielt, harmonisches Bewusstsein bei Kindern zu fördern und zu bewerten, indem sie Akkordwahrnehmung, gestische Interaktion und Gamification-Techniken nutzt. Die Anwendung führt junge Lernende durch 3 Erfahrungen zur Entdeckung wichtiger Merkmale der tonalen Harmonie, wo sie Melodien oder Stücke bekannter Musikstücke hören und ihnen Akkorde zuordnen können. Die Aktionen der Benutzer während der Erlebnisse werden aufgezeichnet und analysiert. Ein erstes Experiment mit 45 Schullehrern wurde mit dem Ziel durchgeführt, die Benutzerfreundlichkeit der Anwendung, die Akzeptanz durch die Lehrer und das prototypische Verhalten während der Erfahrungen zu bewerten. Die Ergebnisse liefern Leitlinien zur Bewertung der Nutzerleistung sowie nützliche Hinweise für die Weiterentwicklung der Plattform.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58459-7_19 a7ebe52368b6cabf6500287a64046591;de;;;7.3.;;;Internetarchiv für elektronische Musik IAEM – Internet Audio Rendering System iARS Das Internet Archive for Electronic Music (IAEM) soll eine Plattform sein, um auf ein umfangreiches und verteiltes Archiv elektronischer Musik zuzugreifen. Es kombiniert kollaborative Werkzeuge, Echtzeit-Signalverarbeitung auf Client-Seite und die Inhalte des Archivs mit dem Konzept der Lernsequenzen zu einem leistungsstarken Lehr-, Forschungs- und Publikationswerkzeug. Das Internet Audio Rendering System (iARS) ist eine Client-Browser-Erweiterung, die Teil des IAEM-Systems ist. Es erweitert einen Webbrowser um eine flexible Echtzeit-Audioverarbeitung und OpenGL-Grafikanzeigefunktionen, die Mehrkanalverarbeitung und Streaming unterstützen. Dies ermöglicht Benutzern des Systems, mehrspurige Aufnahmen wahrzunehmen, die ihren beabsichtigten akustischen Kontext in virtuellen Konzertsälen zeigen. Diese Umgebungen können eingebettet in Lernsequenzen für den Unterricht verwendet werden, was neue Möglichkeiten in der Musikausbildung eröffnet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-31807-1_10 54a4215855371268c48c6d6d66adc7fe;de;;;7.3.;;;Begriffsbasiertes Clustering und Zusammenfassung von Webseitensammlungen Die effektive Zusammenfassung von Webseitensammlungen wird immer wichtiger, da die Informationsmenge im World Wide Web weiter wächst. Eine prägnante und aussagekräftige Zusammenfassung einer Webseitensammlung, die automatisch generiert wird, kann Webbenutzern helfen, die wesentlichen Themen und Hauptinhalte der Sammlung schnell zu verstehen, ohne viel Zeit zum Durchsuchen zu verbringen. Das automatische Generieren kohärenter Zusammenfassungen sowie von von Menschen verfasster Zusammenfassungen ist jedoch eine anspruchsvolle Aufgabe, da Webseitensammlungen oft unterschiedliche Themen und Inhalte enthalten. Diese Forschung zielt auf das Clustern von Webseitensammlungen unter Verwendung automatisch extrahierter thematischer Begriffe und die automatische Zusammenfassung der resultierenden Cluster ab. Wir experimentieren mit wort- und begriffsbasierten Darstellungen von Webdokumenten und zeigen, dass begriffsbasiertes Clustering das wortbasierte Clustering mit viel geringerer Dimensionalität deutlich übertrifft. Die Zusammenfassungen der berechneten Cluster sind informativ und aussagekräftig, was darauf hindeutet, dass das Clustern und Zusammenfassen großer Webseitensammlungen vielversprechend ist, um das Problem der Informationsüberflutung zu lindern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24840-8_5 971e4e30e2cb631c448bb2f1dedc27c1;de;;;7.3.;;;IKT in der Lehrerbildung: Entwicklung von Schlüsselkompetenzen im Präsenz- und Fernunterricht Dieses Papier berichtet über die Ausbildung von 56 Lehrern in IKT- und Bildungskursen. Dieser Kurs umfasste eine Woche Präsenzunterricht und sieben Wochen Fernunterricht. Die Studierenden entwickelten während dieser Wochen mehrere IKT-Kompetenzen und berichteten über deren Einsatz in ihrem Unterricht. Dargestellt wird eine Charakterisierung der digitalen Kompetenz der Probanden sowie deren Teilnahme an Chat-Sessions und im Forum, die zwar nicht verpflichtend, aber sehr empfehlenswert waren. Die Mehrheit der Studierenden nahm nicht an den synchronen und asynchronen Kommunikationsmöglichkeiten teil. Diejenigen, die an den Chat-Sitzungen und Forendebatten teilnahmen, erledigten jedoch alle Aufgaben und Aufgaben. Die Studenten erkannten die Bedeutung des Lernens über IKT und wie es ihre Lehrmethoden verändert hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15378-5_3 8521a32448420bee61bb1914c6fa8215;de;;;7.3.;;;Ein Evolutionsmodell der emotionalen öffentlichen Meinung im Internet mit informierten Marken Die bestehenden Modelle der öffentlichen Meinung im Internet berücksichtigen nicht die Auswirkungen des informierten Status und der emotionalen Neigung des Einzelnen auf die öffentliche Meinungsbildung. Als Antwort auf dieses Problem wird basierend auf der Emerging Computing-Theorie ein Evolutionsmodell der emotionalen öffentlichen Internet-Meinung mit informierten Noten vorgeschlagen. In diesem Modell werden die Cyber-Bürger als Agenten abstrahiert und einige Parameter wie Emotionsneigung und erste informierte Markierungen hinzugefügt. Um dem Gesetz der öffentlichen Meinung der Ausbreitung zu entsprechen, werden die Interaktionsregeln der aktuellen Modelle verbessert. Im Vergleich zum bestehenden Modell analysiert dieses Modell den Einfluss der neu hinzugekommenen Parameter auf die öffentliche Meinung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34038-3_10 fb025746e112b68eb8a09e76c6394a32;de;;;7.3.;;;Einführung des Internets der Dinge: Empirische Beweise aus einem Schwellenland Der Zweck dieser Studie war es, Faktoren zu untersuchen, die die Absicht von Unternehmern beeinflussen, das Internet der Dinge (IoT) im Oman mithilfe der UTAUT2-Theorie einzuführen. Die Daten für diese Studie wurden von omanischen Unternehmern in einem Zeitraum von fünf Monaten gesammelt. Die Ergebnisse zeigten, dass alle hypothetischen Beziehungen unterstützt werden, mit Ausnahme der Auswirkungen des Preiswerts und der Aufwandserwartung auf die Absicht, das IoT einzuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-21451-7_30 d2049ff0dad234a09cdc8707139e1f5e;de;;;7.3.;;;ANN für mehrsprachige regionale Webkommunikation In Indien sind Webentwicklung und -kommunikation stark auf dem Vormarsch, wobei billigere mobile Kommunikation der Katalysator ist. Die Verwendung von Mobiltelefonen hat die Kultur der Kommunikation mit den Dorfbewohnern durch ausgeklügelte computerbezogene Wörter wie SMS verändert. Die größte Komplexität entsteht jedoch, wenn Webdokumente in Regionalsprachen angezeigt werden. Das Verstehen des Inhalts des Dokuments und die spätere Kommunikation durch mündliche oder textliche Mittel wird schwierig und dies ist der Bereich, den das aktuelle Papier anspricht und dabei ein Modell versucht, wie das Wissen in den Köpfen der Analphabeten entsteht. Der Beitrag stellt zunächst dar, wie Buchstaben und Wörter, die die Grundlage der textbasierten Kommunikation bilden, für Inhalte verwendet werden können und später werden inhaltsbezogene Wörter als Grundlage für das Training in KNN ausgewählt. Ein Vergleich mit einem statistischen – als algorithmischer Ansatz bezeichneten Ansatz – wird hier durchgeführt, um zu zeigen, wie KNN effektiver sein könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34500-5_56 652a614ccad294da9580b3b46d6b06ce;de;;;7.3.;;;Skalierbare Erkennung und Isolierung von Phishing Dieses Papier präsentiert einen Vorschlag für eine skalierbare Erkennung und Isolierung von Phishing. Die Hauptideen sind, den Schutz vom Endnutzer auf den Netzbetreiber zu verlagern und das neuartige Bad-Neighborhood-Konzept anzuwenden, um sowohl Phishing-E-Mail-Versender als auch Phishing-Webserver zu erkennen und zu isolieren. Darüber hinaus schlagen wir vor, eine Selbstverwaltungsarchitektur zu entwickeln, die es ISPs ermöglicht, ihre Benutzer vor Phishing-Angriffen zu schützen, und erläutern, wie diese Architektur bewertet werden könnte. Dieser Vorschlag ist das Ergebnis einer halbjährigen Forschungsarbeit an der Universität Twente (UT) und zielt auf einen Ph.D. Diplomarbeit im Jahr 2012.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02627-0_20 9ffd6e30ef193a47c85709daecfbbce2;de;;;7.3.;;;CLBCRA-Ansatz zur Kombination von inhaltsbasiertem und linkbasiertem Ranking in der Websuche Es gab zwei Arten von Methoden bei der Informationsbeschaffung, basierend auf Inhalt und basierend auf Hyperlinks. Der Rechenaufwand in inhaltsbasierten Systemen war sehr groß und die Präzision in Systemen, die nur auf Hyperlinks basierten, war nicht ideal. Es galt, eine Technik zu entwickeln, die die Vorteile zweier Systeme vereint. In diesem Papier haben wir ein Framework erstellt, indem wir die beiden Methoden verwenden. Wir richten die Übergangswahrscheinlichkeitsmatrix ein, die sich aus Linkinformationen und dem relevanten Wert von Seiten mit der angegebenen Abfrage zusammensetzt. Der entsprechende Wert wurde mit bezeichnet;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73871-8_4 3055f534980c8199536d63753c03d49d;de;;;7.3.;;;Analyse und Eliminierung von Phishing-Bedrohungen in IoT, Netzwerk- und anderen Webanwendungen durch iterative Schnittmengen In der heutigen Cyber-Ära werden Internet of Things (IoT)-basierte Produkte von Benutzern zunehmend für verschiedene Zwecke übernommen. Der Zugriff auf diese Systeme wird dem Endbenutzer über eine Webanwendung erleichtert. Traditionell richteten sich Phishing-Angriffe gegen Banken und Finanzsysteme. Mit der zunehmenden Nutzung von IoT wächst die Angriffsfläche. Neben IoT-spezifischen Angriffen zielen Angreifer mit Phishing auf Benutzer, um Passwörter zu stehlen, um Zugang zu IoT-Geräten wie Sicherheitskameras zu erhalten. Phishing ist ein Online-Angriff, den es seit mehr als zwei Jahrzehnten gibt. Obwohl es fortschrittliche Präventions- und Erkennungsmechanismen gibt, die von Forschern und Organisationen entwickelt und entwickelt wurden, zeigen Statistiken, dass Phishing auf dem Vormarsch ist. Häufig besteht ein monetärer Anreiz für den bösartigen Akteur, der eine Phishing-Attacke durchführt. Dies motiviert Angreifer, ihre Umgehungsmechanismen voranzutreiben und den Status quo als Wettlauf zwischen Aufdeckung und Umgehung aufrechtzuerhalten. Es wurde eine Phish-Sec-Methodik eingeführt, die einen Weg ebnet, Phishing-Angriffen proaktiv zu begegnen, indem Signaturen legitimer Websites an der Quelle gesammelt werden. Phish-Sec beinhaltet die Bestimmung der Einzigartigkeit über ‚n‘ Websites hinweg. Dieses Manuskript bietet die mathematische Lösung unter Verwendung von Schnittmengen, um die Einzigartigkeit einer besuchten Webseite zu bestimmen. Iterative Schnittmengen sind in Phish-sec integriert, um die Giftvermeidung in seinem Back-End-System zu erleichtern. Dadurch kann Phish-Sec auf eine Vielzahl von Anwendungen erweitert werden, einschließlich nicht-finanzieller Systeme wie IoT. Es ist erwiesen, dass die Gesamteffizienz von Phish-Sec mit seinen Erweiterungsmöglichkeiten steigt. Das wahre Positive, das Phish-Sec erreicht, beträgt 99,15%, was 0,15% höher ist.;-;-;-;https://link.springer.com/article/10.1007/s12083-020-00944-z ebdea1a23c833604df51ec6a98ab433d;de;;;7.3.;;;Schritte zu zuverlässigen Online-Gesundheitsinformationen für Verbraucher Die neuesten Fortschritte in der Informationstechnologie haben die Entwicklung von Anwendungen ermöglicht, die enorme Auswirkungen auf das Gesundheitswesen hatten. Neben dem Zugang müssen Mittel bereitgestellt werden, um sicherzustellen, dass die Informationen vertrauenswürdig und relevant sind. Die Zertifizierung der Informationsqualität kann freiwillig bleiben, um die Rechte der Bürger zu wahren und die Vielfalt zu fördern. Die Zusammenarbeit aller Internet-Akteure ist entscheidend, um Interessenkonflikte zu reduzieren und eine kosteneffiziente Verbreitung hochwertiger Gesundheits- und medizinischer Informationen zu gewährleisten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-3920-6_7 14066f0e9b155532edfc8f8e5a4257ce;de;;;7.3.;;;Die Notwendigkeit eines Paradigmenwechsels bei der Bewältigung von Datenschutzrisiken in sozialen Netzwerkanwendungen Neue Entwicklungen im Internet in den letzten Jahren haben eine Reihe von Online-Social-Networking-Anwendungen innerhalb der sogenannten Web 2.0-Welt hervorgebracht, die ein phänomenales Wachstum und eine enorme Aufmerksamkeit in der Öffentlichkeit erfahren haben. Soziale Online-Networking-Dienste bauen ihr Geschäftsmodell auf der Unzahl sensibler personenbezogener Daten auf, die von ihren Benutzern frei zur Verfügung gestellt werden, eine Tatsache, die zunehmend die Aufmerksamkeit von Datenschutzbeauftragten auf sich zieht. Nachdem die wirtschaftliche Bedeutung und Bedeutung von sozialen Online-Netzwerken für den E-Commerce im Allgemeinen erläutert und die Grundprinzipien von Web 2.0-Umgebungen und deren Unternehmensmechanismen im Besonderen wiederholt wurden, befasst sich dieser Beitrag mit den wichtigsten Datenschutzrisiken von Web 2.0-Geschäftsmodellen mit Fokus auf Online-Social Netzwerkseiten. Aus der Literaturrecherche und aktuellen Expertendiskussionen werden neue Forschungsfragen zum Datenschutz für die zukünftige Entwicklung von Technologien zur Verbesserung der Privatsphäre in Web 2.0-Umgebungen vorgeschlagen. Der daraus resultierende Paradigmenwechsel, der bei der Bewältigung von Datenschutzrisiken in sozialen Netzwerkanwendungen erforderlich ist, wird sich wahrscheinlich weniger auf den Zugriffsschutz, die Anonymität und die Unverknüpfbarkeit von PET-Lösungen konzentrieren als auf Maßnahmen zum Schutz der Privatsphäre, die mehr Transparenz ermöglichen und die Kontext- und Zweckbeschränkung direkt mit persönlich identifizierbare Daten selbst. Aus der FIDIS/IFIP-Workshopdiskussion entstand die Idee, bestehende datenschutzfördernde Technologien und Schutzmethoden mit neuen Sicherungsmaßnahmen zu kombinieren, um der Web 2.0-Dynamik Rechnung zu tragen und den Informationsschutz der Web 2.0-Nutzer zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-79026-8_12 f9167c937e9ea8255d26fbdac19ec12c;de;;;7.3.;;;Nutzung von Web 2.0 für kollaboratives Lernen Das Web hat sich von der Anzeige von Informationsseiten zu benutzergenerierten Inhalten verlagert. So vielversprechend es beim kollaborativen Lernen auch sein mag, das Web 2.0 muss noch die erwarteten Ergebnisse liefern. Diese „Lese-Schreib“-Fähigkeit des Web 2.0 sollte theoretisch die Interaktionen zwischen Benutzern im Web verbessern. Dieser Artikel versucht das Problem zu entschlüsseln und schlägt vor, dass die begrenzte Nutzung des Webs beim kollaborativen Lernen auf das Fehlen eines effizienten Informationsmanagements zurückzuführen ist, insbesondere auf ein einfach zu verwendendes Sharing-Schema.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-92841-6_542 b015084fc3502717cb23b41f04f1fa30;de;;;7.3.;;;Ein blockstrukturiertes Modell für das Abrufen von Quellcode Die große Menge an Software-Quellcode-Projekten, die im Internet oder in Unternehmen verfügbar sind, schafft neue Herausforderungen bei der Informationsbeschaffung. Heutige Quellcode-Suchmaschinen wie die Google Code-Suche neigen dazu, Quellcode wie bei Webseiten als reinen Text zu behandeln. Quellcodedateien unterscheiden sich jedoch von Webseiten oder reinen Textdateien dadurch, dass jede Datei einem Satz von Regeln namens Syntax folgen muss und eine Quelldatei als strukturiertes Dokument betrachtet werden kann. Jede Datei enthält Elemente, um eine Aufgabe abzuschließen. In diesem Papier analysieren wir jede Quellcodedatei in Elemente, die als Blöcke bezeichnet werden. Sie umfassen einen Nicht-Blatt-Block und einen Blatt-Block zur weiteren Indizierung und Rangordnung. Diese Blattblöcke können in Codedaten- und Metadatenblöcke kategorisiert werden, die unterschiedliche Stamm- und Stoppwortfilterprozesse besitzen, die beim Aufbau des Quellcodeindex verwendet werden. Um ein flexibles Codesuchschema bereitzustellen, schlagen wir schließlich auch ein blockspezifisches Abfrageschema vor. Experimentelle Ergebnisse zeigen, dass unser Ansatz einen flexibleren Codesuchmechanismus bietet, der zu einer höheren Anzahl relevanter Elemente führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20042-7_17 eb018c2c12af9a7a37199f1052c55e29;de;;;7.3.;;;Auf dem Weg zu Web Intelligence auf menschlicher Ebene: Eine Perspektive der Gehirninformatik In diesem Vortrag skizzieren wir eine Vision der Web Intelligence (WI)-Forschung aus der Sicht der Hirninformatik (BI), einem neuen interdisziplinären Feld, das die Mechanismen der menschlichen Informationsverarbeitung sowohl aus Makro- als auch aus Mikrosicht untersucht, indem es experimentelle kognitive Neurowissenschaften mit fortschrittliche Informationstechnologie. BI kann als Hirnforschung im WI-zentrierten IT-Zeitalter betrachtet werden und betont einen systematischen Ansatz zur Untersuchung menschlicher Informationsverarbeitungsmechanismen. Fortschritte bei Instrumenten wie fMRI und Informationstechnologien bieten mehr Möglichkeiten für die Forschung sowohl in den Bereichen Web Intelligence als auch in den Hirnwissenschaften. Ein besseres Verständnis der menschlichen Intelligenz durch Hirnwissenschaften fördert die innovative Forschung und Entwicklung von Web Intelligence. Web-Intelligence-Portaltechniken bieten eine leistungsstarke neue Plattform für die Hirnwissenschaften. Die Synergie zwischen WI und BI fördert unsere Art der Analyse und das Verständnis von Daten, Wissen, Intelligenz und Weisheit sowie deren Beziehung, Organisation und Erstellungsprozess. Web Intelligence wird zu einem zentralen Feld, das Informationstechnologien im Allgemeinen und künstliche Intelligenz im Besonderen in Richtung Web Intelligence auf menschlicher Ebene verändert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77046-6_38 0865cb119677e64ca0d7f167d03ecbda;de;;;7.3.;;;Semantic Pattern Mining-basierte Webservice-Empfehlung Dieser Beitrag befasst sich mit dem Problem der Webservice-Empfehlung. Wir schlagen ein neues inhaltsbasiertes Empfehlungssystem vor. Seine Originalität ergibt sich aus der Kombination von probabilistischen Themenmodellen und Pattern-Mining, um die maximale gemeinsame Semantik von Service-Sets zu erfassen. Wir definieren den Begriff semantischer Muster, die maximal häufige Itemsets von Themen sind. Im Offline-Prozess wird die Berechnung dieser Muster unter Verwendung häufiger Konzeptgitter durchgeführt, um auch die Sätze von Diensten zu finden, die den semantischen Mustern zugeordnet sind. Diese Sets von Diensten werden dann verwendet, um Dienste im Online-Prozess zu empfehlen. Wir vergleichen die Ergebnisse des vorgeschlagenen Systems in Bezug auf Präzision und normalisierten diskontierten kumulativen Gewinn mit Apache Lucene und SAWSDL-MX2 Matchmaker auf realen Daten. Unser Angebot übertrifft diese beiden Systeme.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-46295-0_26 2133535e9acc370f2665890d046b32c9;de;;;7.3.;;;Aktuelle Herausforderungen beim Web-Crawling Web-Crawling, ein Prozess zum automatisierten Sammeln von Webseiten, ist die primäre und allgegenwärtige Operation, die von einer großen Anzahl von Websystemen und Agenten verwendet wird, angefangen von einem einfachen Programm zur Website-Backup bis hin zu einer großen Websuchmaschine. Aufgrund einer astronomischen Menge an bereits im Web veröffentlichten Daten und einem anhaltenden exponentiellen Wachstum von Webinhalten steht jede Partei, die die Vorteile massiver Webdaten nutzen möchte, vor einer hohen Eintrittsbarriere. In diesem Tutorial stellen wir dem Publikum fünf Themen vor: Architektur und Implementierung von Hochleistungs-Webcrawlern, kollaboratives Web-Crawling, Crawlen des Deep Web, Crawlen von Multimedia-Inhalten und zukünftige Richtungen in der Web-Crawling-Forschung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39200-9_49 9af90221ed57be1eb1f843fca69c8321;de;;;7.3.;;;Entscheidungshilfe bei der Auswahl von Diensten im Internet der Dienste Mit dem Aufkommen von Dienstbereitstellungsinfrastrukturen und den Netzwerkfähigkeiten des Webs wurde die IT-Welt mit der Dynamik erweitert, um einen Markt von Diensten zu unterstützen, auf dem die Anzahl von Anbietern und Kunden potenziell unbegrenzt ist, auch bekannt als Internet der Dienste. In diesem Rahmen stößt der Kunde auf das Problem, einen Dienst aus einer Vielzahl verfügbarer Dienste auszuwählen. Dieses Papier plädiert dafür, dass die große Anzahl von Kunden die Lösung für dieses Problem bieten kann, indem sie die Erfahrungen derjenigen nutzen, die ein ähnliches Verhalten zeigen, wenn sie gebeten werden, einen angebotenen Service zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15681-6_2 5dd650584ac458e8c9515409bec83715;de;;;7.3.;;;Gemeinsame Empfehlungen mit inhaltsbasierten Filtern für kulturelle Aktivitäten über eine skalierbare Event-Distributionsplattform Heutzutage haben die meisten Menschen begrenzte Freizeit und das Angebot an (kulturellen) Aktivitäten, um diese Zeit zu verbringen, ist enorm. Folglich wird es für Endbenutzer immer schwieriger, die am besten geeigneten Ereignisse auszuwählen. Diese Komplexität der Auswahl verstärkt die Notwendigkeit von Filtersystemen, die Benutzer beim Auffinden und Auswählen relevanter Ereignisse unterstützen. Während herkömmliche Filtertools z.B. B. der Verwendung von schlüsselwortbasierten oder gefilterten Suchen, stützen sich innovative Empfehlungssysteme auf Benutzerbewertungen, Präferenzen und Metadaten, die die Ereignisse beschreiben. Bestehende kollaborative Empfehlungstechniken, die entwickelt wurden, um Webshop-Produkte oder audiovisuelle Inhalte vorzuschlagen, haben Schwierigkeiten mit spärlichen Bewertungsdaten und kommen mit ereignisspezifischen Einschränkungen wie Verfügbarkeit, Zeit und Ort überhaupt nicht zurecht. Darüber hinaus sind das Aggregieren, Anreichern und Verteilen dieser Ereignisse zusätzliche Voraussetzungen für einen optimalen Kommunikationskanal. In diesem Papier schlagen wir eine hochskalierbare Event-Empfehlungsplattform vor, die ereignisspezifische Merkmale berücksichtigt. Persönliche Vorschläge werden durch einen fortschrittlichen kollaborativen Filteralgorithmus generiert, der bei spärlichen Daten robuster ist, indem er Benutzerprofile mit voraussichtlichem zukünftigen Verbrauch erweitert. Die Ereignisse, die mit einer RDF/OWL-Darstellung des EventsML-G2-Standards beschrieben werden, werden durch intelligente Indexierung und offene verknüpfte Datensätze kategorisiert und angereichert. Dieses Metadatenmodell ermöglicht zusätzliche inhaltsbasierte Filter, die ereignisspezifische Merkmale berücksichtigen, auf der Empfehlungsliste. Die Integration dieser unterschiedlichen Funktionalitäten wird durch eine skalierbare und erweiterbare Busarchitektur realisiert. Schließlich wurden Fokusgruppengespräche mit externen Experten, Kulturmittlern und potenziellen Endnutzern organisiert, um die Veranstaltungsplattform zu bewerten und den möglichen Mehrwert von Empfehlungen für die kulturelle Teilhabe zu untersuchen.;-;-;-;https://link.springer.com/article/10.1007/s11042-010-0715-8 f71b12355adc6b264af3464542d341bc;de;;;7.3.;;;Selbstorganisierende Karten mit Weblink-Informationen Wir haben ein Verfahren entwickelt, das Hypertext-Link-Informationen beim Abrufen von Bildern aus dem World Wide Web verwendet. Die Grundlage der Methode besteht aus einer Reihe von grundlegenden Beziehungen, die zwischen zwei Bildern im Web stattfinden können. Unsere Methode verwendet den SHA-1-Message-Digest-Algorithmus zur Dimensionsreduktion durch zufälliges Mapping. Die Weblink-Funktionen wurden dann verwendet, um eine selbstorganisierende Karte von Bildern im Web zu erstellen. Die Methode wurde mit unserem inhaltsbasierten Bildabrufsystem PicSOM unter Verwendung einer Web-Bilddatenbank mit über einer Million Bildern effektiv getestet. Das Verfahren kann als solches auch in anderen Webanwendungen verwendet werden, die sich nicht auf die inhaltsbasierte Bildsuche beziehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0715-6_21 97702f3a180bf84e280f5b95bf60988c;de;;;7.3.;;;Sichere Webdienste für standortbasierte Dienste in drahtlosen Netzwerken Obwohl Location Based Services (LBS) unser Leben komfortabler und produktiver machen können, können sie durch Offenlegung und kommerzielle Nutzung von Standortinformationen eine Verletzung der Privatsphäre verursachen. In diesem Whitepaper diskutieren wir Datenschutz- und Sicherheitsprobleme, die im aktuellen LBS-System auftreten können, und schlagen Lösungen vor. Wir schlagen eine neue sichere Webservice-Architektur für LBS in drahtlosen Netzwerken vor. Unsere Architektur ermöglicht es mobilen Benutzern, dynamische Richtlinien für sichere und konsistente LBS zu erstellen und durchzusetzen. Wir beschreiben auch einige praktische Szenarien, in denen unsere Architektur die Privatsphäre und Sicherheit des Standorts des Benutzers schützt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24693-0_28 4050c2097099c206ab22ec24044d0b38;de;;;7.3.;;;Toolkits zum Generieren von Wrappern Verschiedene Webanwendungen im E-Business wie Online-Preisvergleiche, Wettbewerbsüberwachung und personalisierte Newsletter erfordern den Abruf von verteilten Informationen aus dem Internet. In diesem Beitrag wird die Eignung von Software-Toolkits für die Extraktion von Daten aus Websites untersucht. Der Begriff;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36557-5_15 6312ac61fc393f70597ef5073475ddd4;de;;;7.3.;;;Die Konsistenz und Konformität der Webdokumentsammlung basierend auf heterogenem DAC-Graphen Der heterogene DAC-Graphen ist eine Erweiterung eines herkömmlichen, homogenen Graphen, der eine Webdokumentsammlung darstellt. Im DAC-Graph können neben den Beziehungen von Dokumenten auch die Beziehungen zwischen Dokumenten, Autoren und Konzepten modelliert werden. Das Modell der Dokument-Autor-Konzept-Beziehungen wird verwendet, um die Konsistenz und Konformität einer Webdokumentsammlung zu messen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69052-8_34 229a54ef13472648aaad22ab9f70c994;de;;;7.3.;;;Eine abgestufte Mobilitätsmanagementlösung für integrierte Mobilfunk-/WLAN-Netzwerke mit geringer Übergabeverzögerung Hand Die Nachfrage nach Internetdiensten über GPRS/3G-Netze wächst von Tag zu Tag. Aber eine niedrige Bitrate schränkt Multimedia- oder mobile Geschäftsdienste ein. Im Gegensatz dazu bieten Wireless Local Area Networks (WLANs) eine hohe Bitrate bei geringen Bereitstellungskosten. Daher würde die Integration dieser beiden komplementären Systeme im Mittelpunkt der drahtlosen Netzwerke der nächsten Generation stehen. Mobilität und Übergabemanagement werden jedoch zu den Schlüsselthemen für eine solche Integration. Wenn ein Mobilfunkanbieter als Betreiber-IP-Netzwerk (OIN) bereitgestellt wird, wird er an der Gi-Schnittstelle mit GPRS und über eine Firewall mit dem Internet verbunden. Alternativ kann das Internet direkt an der Gi-Schnittstelle und OIN mit dem Internet verbunden werden. Diese Verbindungsmechanismen schränken die Skalierbarkeit aufgrund der großen Paketweiterleitungsverzögerung ein. In diesem Papier schlagen wir einen neuen Weg zur Integration von GPRS/UMTS, OIN und dem Internet für bessere Skalierbarkeit und geringere Paketverzögerung vor. Wir stellen ein Gateway für Benutzer von Mobilfunk (GPRSAJMTS) und WLAN-Host bereit. Das Gateway ist in OIN und ist direkt mit GGSN an der Gi-Schnittstelle verbunden. Die Home-Agent-Funktionalitäten sind innerhalb des OIN in zweistufigen Hierarchien verteilt, um die Paket- und Übergabeverzögerung zu reduzieren. Die vorgeschlagene Architektur wäre für große Netzwerkgrößen nützlich.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-74159-8_20 199f60bc83063820fbf6f363ffa49504;de;;;7.3.;;;Effizienter Einsatz von Honeynets zur statistischen und forensischen Analyse von Angriffen aus dem Internet Der Einsatz von Honeynets als Mittel zur Erkennung und Beobachtung von Angriffen aus dem Internet sowie zur forensischen Analyse ist eine Technik, die in der Forschungsgemeinschaft zunehmend Beachtung findet. Allerdings wurde noch nicht untersucht, wie effektiv Honeynets sind und inwieweit ihre Effizienz aktiv verbessert werden kann. Daher wird nach einer kurzen Einführung in das Honeynet-Konzept und seine Umsetzungsmöglichkeiten eine Fallstudie vorgestellt, die einen Einblick in dieses Thema gibt. Für diese Fallstudie wurde ein Honeynet implementiert und eine mehrstufige Eskalationsstrategie definiert und eingesetzt, um zu klären, inwieweit die erkannten Angriffe nur die „durchschnittliche“ Malware-Aktivität darstellen und inwieweit Honeynet-Besitzer Angriffe aktiv anlocken oder gar anlocken können bestimmte Arten von Angriffen beeinflussen.;-;-;-;https://link.springer.com/chapter/10.1007/11422778_61 d1153abd53119df544942c36afd124ce;de;;;7.3.;;;Computer für Mobiltelefone ersetzen? Eine Analyse der Auswirkungen der Gerätetrennung auf digitale Kompetenzen in Brasilien Ziel dieses Beitrags ist es, das Phänomen der Gerätekluft im brasilianischen Kontext zu analysieren, um zu verstehen, wie verschiedene Internetzugangsgeräte und soziodemografische Faktoren die Entwicklung digitaler Kompetenzen beeinflussen. Die Forschung verwendet die Mikrodaten der Ausgaben 2014 und 2016 einer landesweiten Umfrage in Brasilien namens ICT Households Survey. Die wichtigsten Ergebnisse zeigen, dass mobile Geräte von brasilianischen Internetnutzern weit verbreitet sind. Während dieses Gerät in der Oberschicht jedoch die Rolle eines ergänzenden Zugangs zu anderen Geräten spielt und den Benutzern den Zugang zum Internet über Computer und mobile Plattformen ermöglicht, ist für einkommensschwache Gruppen das Handy die einzige Möglichkeit des Internetzugangs und ersetzt die Verwendung von Computergeräten . Die Ergebnisse zeigen auch, dass Internetnutzer, die sowohl über Computer als auch über mobile Geräte auf das Internet zugreifen, die höchsten digitalen Fähigkeiten aufweisen. Im Gegensatz dazu weisen Benutzer, die sich ausschließlich über Mobilgeräte verbinden, ein geringeres Maß an digitalen Fähigkeiten auf, was ihre Effektivität bei der Nutzung des Internets beeinträchtigen könnte. Diese Ergebnisse zeigen die Bedeutung des Verständnisses der Bedingungen des Internetzugangs sowie deren Bedeutung für die Entwicklung digitaler Kompetenzen und die Bereitstellung von Internetdiensten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-27397-2_12 285175d31d805b15c86ded6ba55fc37a;de;;;7.3.;;;Die neue Marketinglogik Wenn sich Menschen, Technologie, institutionelle Rahmenbedingungen, Ökonomie oder Geschäftslogik ändern, hat dies Auswirkungen auf Marketing und Medien. Eine nicht minder zentrale Rolle spielen Marketing und Medien auf dem mobilen Marktplatz. Aus Medien- und Marketingsicht ist das Handy ein neuer Kanal und wird bereits als solcher genutzt. Wie es in Zukunft genutzt wird, hängt maßgeblich von seiner Funktion in der sich wandelnden Medien- und Marketinglandschaft ab.;-;-;-;https://link.springer.com/chapter/10.1057/9780230511613_9 02c4fc4f880eae9bceab00661a5909e2;de;;;7.3.;;;Segmentierte Webseiten indexieren und abfragen: das BlockWeb-Modell In diesem Beitrag stellen wir ein Modell zur Indexierung und Abfrage von Webseiten vor, das auf der hierarchischen Zerlegung von Seiten in Blöcke basiert. Das Aufteilen einer Seite in Blöcke hat mehrere Vorteile in Bezug auf Seitendesign, Indexierung und Abfrage, wie zum Beispiel (i) Blöcke einer Seite, die einer Abfrage am ähnlichsten ist, können anstelle der Seite als Ganzes zurückgegeben werden;-;-;-;https://link.springer.com/article/10.1007/s11280-011-0124-6 c1f5100510f0b883708563776c8a60fa;de;;;7.3.;;;Semantische Analyse von Webseiten mit Clusteranalyse und nichtnegativer Matrixfaktorisierung In diesem Beitrag werden die Webseiten zum Produktverkauf analysiert mit dem Ziel, Cluster ähnlicher Webseiten zu bilden und diese durch GUI-Muster zu charakterisieren. Wir haben die GD-CLS-Methode (Gradient Descent - Constrained Least Squares) angewendet, die einige der besten Eigenschaften anderer Methoden kombiniert. Es werden sowohl traditionelle Methoden zum Suchen von Clustern als auch nichtnegative Matrixfaktorisierung verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72575-6_53 7bca54c208eb0bb5ee02b1ad7c5cc983;de;;;7.3.;;;Stimmungsanalyse mit modifiziertem LDA Die Technologie des Internets entwickelt sich in den letzten Jahren rasant, die Öffentlichkeit neigt dazu, ihre Bewertungen, Meinungen und Ideen im Internet zu teilen. Die Formen dieser subjektiven Texte sind frei und prägnant und enthalten eine Fülle von Gefühlsinformationen. In diesem Beitrag werden ein modifiziertes latentes Dirichlet-Allokationsmodell (LDA) und eine Support Vector Machine (SVM) für die Sentimentanalyse subjektiver Texte verwendet. Die Analyse der Stimmung könnte dem Hersteller helfen, die Produkte zu verbessern und den Benutzern zu helfen, bessere Entscheidungen zu treffen. Wir wenden ein modifiziertes LDA-Modell unter Verwendung des Term Frequency-Inverse Document Frequency (TF-IDF)-Algorithmus an, um potenzielle Themen zu ermitteln, die relevantesten Wörter des Themas zu finden und das Dokument darzustellen. Dann verwenden wir SVM, um die Texte in zwei Klassen zu kategorisieren: positiv und negativ. Die Versuchsergebnisse zeigen, dass die Leistung des modifizierten LDA-Ansatzes besser ist als die des traditionellen LDA-Modells.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7521-6_25 d3bbe95de5b9ecb0e35f8ee16be950da;de;;;7.3.;;;Semantische Integration Das Ziel dieses Kapitels ist es, eine erweiterte Motivation für das Problem des Informationsaustauschs und die Rolle der Informationssemantik in diesem Zusammenhang zu geben. Wir adressieren das Problem der Heterogenität und argumentieren, dass in einer schwach strukturierten Umgebung explizite Darstellungen der Informationssemantik benötigt werden. Um diese Behauptung zu untermauern, geben wir ein hypothetisches Anwendungsbeispiel, das die Vorteile der expliziten Semantik veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-26907-X_1 31b0a8c569ad286a8b0e6249879ef1f2;de;;;7.3.;;;Quantifizierung der Suchverzerrung: Untersuchung politischer Verzerrungen in sozialen Medien und der Websuche Benutzer nutzen häufig Suchsysteme im Web sowie soziale Online-Medien, um sich über laufende Ereignisse und die öffentliche Meinung zu Persönlichkeiten zu informieren. Frühere Studien haben gezeigt, dass die Top-Ranking-Ergebnisse dieser Suchmaschinen die Meinung der Benutzer zu dem gesuchten Thema (z. B. Ereignis oder Person) beeinflussen können. Bei polarisierenden Themen wie Politik, bei denen mehrere konkurrierende Perspektiven existieren, kann die politische Voreingenommenheit in den Top-Suchergebnissen eine bedeutende Rolle dabei spielen, die öffentliche Meinung zu (oder weg von) bestimmten Perspektiven zu formen. Angesichts der beträchtlichen Auswirkungen, die Suchverzerrungen auf den Benutzer haben können, schlagen wir einen verallgemeinerbaren Rahmen zur Quantifizierung der Suchverzerrung vor, der nicht nur die politische Verzerrung in der Ranglistenausgabe des Suchsystems misst, sondern auch die durch die verschiedenen Quellen – Eingabedaten und Ranking-System. Wir wenden unseren Rahmen an, um die politische Verzerrung bei Suchanfragen im Zusammenhang mit den Vorwahlen des US-Präsidenten 2016 in der Twitter-Suche in sozialen Medien zu untersuchen und stellen fest, dass sowohl die Eingabedaten als auch das Ranking-System bei der Bestimmung der von den Benutzern gesehenen endgültigen Suchausgabenverzerrung eine Rolle spielen. Und schließlich verwenden wir das Framework, um die relative Voreingenommenheit für zwei beliebte Suchsysteme – die Twitter-Suche in sozialen Medien und die Google-Websuche – bei Suchanfragen zu Politikern und politischen Ereignissen zu vergleichen. Abschließend diskutieren wir einige mögliche Lösungen, um die Verzerrung in den Suchergebnissen zu signalisieren, um die Benutzer darauf aufmerksam zu machen.;-;-;-;https://link.springer.com/article/10.1007/s10791-018-9341-2 50b9c449bb16611e41afe6ef1c2f45cf;de;;;7.3.;;;Ein semantikbasiertes Informationsverteilungs-Framework für ein großes webbasiertes Kursforumsystem Wir schlagen ein neuartiges Datenverteilungs-Framework für die Entwicklung eines großen webbasierten Kursforensystems vor. Im verteilten Architekturdesign ist jeder Forenserver vollständig mit der Fähigkeit ausgestattet, einige Kursforen unabhängig zu unterstützen. Die miteinander zusammenarbeitenden Forenserver bilden das gesamte Forensystem. Daher kann die Arbeitsbelastung der Kursforen von einer Gruppe der Server geteilt werden. Mit dem sicheren Gruppenkommunikationsprotokoll und dem fehlertoleranten Design bietet das neue Verteilungs-Framework eine robuste und leistungsstarke verteilte Architektur für das große Kursforumsystem. Die Forenserver können überall eingerichtet werden, solange eine Breitband-Netzwerkverbindung zum Internet bereitgestellt wird. Unsere experimentellen Leistungstestergebnisse zeigen, dass das Großforumsystem ein verteiltes Hochleistungssystem mit geringen Netzwerk-Overhead-Kosten ist. Darüber hinaus wird ein semantikbasierter Clustering-Algorithmus entwickelt, um die Lehrveranstaltungen nach der inhaltlichen Relevanz ihres Lehrmaterials zu klassifizieren. Relevante Kursforen können gemeinsam auf demselben Forenserver eingerichtet werden. Daher bietet unser Distributions-Framework auch eine wissensbasierte taxonomische Speicherlösung zum Aufbau einer großen digitalen Bibliothek mit Kurslehrmaterial.;-;-;-;https://link.springer.com/chapter/10.1007/11925293_9 3598d288d987e5ef6f331b89cfdacdb3;de;;;7.3.;;;Verwendung von Eye-Tracking-Technologie zur Untersuchung der Auswirkungen verschiedener Arten von Advance Organizern auf das Lesen von webbasierten Inhalten durch die Zuschauer: Eine Pilotstudie Diese Studie nutzte Eye-Tracking-Technologie, um zu untersuchen, wie sich Frage- und Zusammenfassungsformen von Vorab-Organisatoren auf die Informationsverarbeitung von webbasierten Leseinhalten durch 9 College-Studenten auswirkten. Die Ergebnisse zeigten, dass die Augen der Schüler mehr auf das Frageformular als auf den Zusammenfassungsformular-Organizer gerichtet waren. Es wurde jedoch festgestellt, dass die Zuschauer mehr Zeit damit verbrachten, den Hauptleseinhalt zu lesen, wenn der Zusammenfassungsformular-Organizer verwendet wurde. Der Versuch, vorab Fragen zu beantworten, könnte das Gedächtnis der Schüler an den zu lernenden Inhalt gestärkt und außerdem ein effektives Abrufen von Informationen aus den webbasierten Leseinhalten erreicht haben. Weitere Studien mit großer Stichprobengröße und Maßnahmen zu Leistung und kognitiver Belastung sind erforderlich, um eingehend zu erkennen, wie sich die Art des Vorab-Organizers auf die Informationsverarbeitung der Zuschauer auswirkt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25908-1_9 39f7dcf8a982b52f83510be4ad32ce63;de;;;7.3.;;;Discovery Experience für Big Data-Interaktion entwerfen: Ein Fall von webbasiertem Knowledge Mining und interaktiver Visualisierungsplattform Die exponentiell wachsende Datenmenge in jedem Aspekt des menschlichen Lebens bietet sowohl Möglichkeiten, beispiellose Erkenntnisse zu gewinnen, als auch Herausforderungen für die Gestaltung effizienter Entdeckungserlebnisse. Um auf die Herausforderung im Umgang mit Big Data zu reagieren, entwickeln wir eine webbasierte Knowledge-Mining- und interaktive Visualisierungsplattform, die es Benutzern ermöglicht, interaktiv große Daten zu synthetisieren, zu minen und zu visualisieren. In diesem Artikel erweitern wir das klassische Konzept des Informationsabrufs der Informationssuche auf ein allgemeineres Erkenntnisverhalten. Unser Ansatz besteht darin, sich auf den Insight Discovery-Workflow der Benutzer zu konzentrieren und nicht auf die Daten an sich. Benutzerinterviews wurden durchgeführt, um Arbeitsabläufe und spezifische Anforderungen zu ermitteln, um Designentscheidungen zu informieren und zu lenken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39253-5_60 4ffe5f2a3a8e8bc33a2d43a09315ecbe;de;;;7.3.;;;Konzeptklassifizierungsmodell für die digitale Kluft Die digitale Kluft wurde in einer Reihe von Studien als zentrales Konzept verwendet, doch dieses Konzept hat viele verschiedene Definitionen. Dieses Papier diskutiert die Bedeutung und Definition der digitalen Kluft und bietet eine Dichotomie, die zur Analyse verschiedener Definitionen dieses Konzepts verwendet werden kann. Der Hauptbeitrag dieses Papiers besteht darin, eine theoretische Dichotomie zum Verständnis der Bedeutung und der zugrunde liegenden Annahmen im Zusammenhang mit dem Konzept der digitalen Kluft bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-3656-8_14 e4d64ab07a2a833adba51e756bc20df6;de;;;7.3.;;;Ein Entity Name System (ENS) für das Semantic Web In diesem Papier argumentieren wir, dass die Umsetzung der großen Vision des Semantic Web von einem Dienst stark profitieren würde, der die Wiederverwendung global einzigartiger URIs über semantische Datensätze hinweg ermöglicht, die in einer vollständig dezentralisierten und offenen Umgebung erstellt wurden. So ein Service, den wir nennen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68234-9_21 53935c00b04c970c408e1480696ac548;de;;;7.3.;;;IT und Verbraucher In diesem Kapitel betrachten wir die Auswirkungen auf die Verbraucher im Lichte der Entwicklungen (technologisch und anderweitig), die wir in den beiden vorherigen Kapiteln vorgestellt haben. Wir beginnen mit dem elektronischen Handel und betrachten verschiedene Ansätze, die Unternehmen, sowohl stationär als auch mobil, jetzt zur Verfügung haben, um ihre Botschaft an den Kunden zu bringen, einschließlich Werbung, Social Media Marketing und Empfehlung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-60161-8_3 3c59e5156c09bd3b2d6038bd89781dc5;de;;;7.3.;;;Workflow View-getriebene organisationsübergreifende Interoperabilität in einer Web-Service-Umgebung In einer E-Service-Umgebung umfasst der Workflow nicht nur eine einzelne Organisation, sondern auch eine Reihe von Geschäftspartnern. Daher ist die Workflow-Interoperabilität in einer solchen Umgebung ein wichtiges Thema für die Umsetzung von Workflows. In diesem Papier stellen wir unseren Ansatz vor, Workflow-Ansichten als grundlegende Unterstützung für die Interoperabilität von E-Service-Workflows und für die Sichtbarkeit von kontrollierten (Teil-)Workflows für externe Parteien zu verwenden. Wir präsentieren ein Metamodell von Workflow-Ansichten und deren Semantik mit Beispielanwendung. Wir entwickeln ein Interoperationsmodell basierend auf Workflow-Ansichten mit einem Beispiel für einen organisationsübergreifenden E-Service-Workflow für die Lieferkette. Wir schlagen auch eine Implementierung von Workflow-Ansicht und organisationsübergreifender Interoperabilität basierend auf zeitgemäßen Webservices vor [;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36189-8_4 924097f04cd151e9c2309ce1bc49b080;de;;;7.3.;;;Abfragen virtueller Welten. Ein unscharfer Ansatz In diesem Artikel beschreiben wir ein Abfragemodell, das es Benutzern ermöglicht, virtuelle Welten und Objekte in diesen Welten zu finden, wobei als Grundlage ein neues Darstellungsmodell für virtuelle Welten und ein Fuzzy-Ansatz zur Lösung der Abfragen verwendet werden. Das System wurde in zwei verschiedenen Welten entwickelt und getestet. Sowohl das Design als auch die aktuelle Implementierung des Systems werden beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24694-7_7 fd7c515af254a0022c67f213bc79ae0b;de;;;7.3.;;;Visual Based Content Understanding in Richtung Webanpassung towards In diesem Papier wird eine Webinhaltsstruktur vorgeschlagen, um die automatische Anpassung von Webseiten zu erleichtern. Durch die Identifizierung der logischen Beziehung von Webinhalten basierend auf Layoutinformationen repräsentiert die Webinhaltsstruktur effektiv die Präsentationsabsicht der Autoren. Es wird ein automatischer Top-Down-, Tag-Tree-unabhängiger Ansatz zur Erkennung der Webinhaltsstruktur vorgestellt. Es simuliert, wie ein Benutzer die Weblayoutstruktur basierend auf seiner Vision versteht. Im Vergleich zu anderen Inhaltsanalysetechniken ist unser Ansatz unabhängig von der physischen Umsetzung und funktioniert auch dann gut, wenn sich die physische Struktur stark von der Layoutstruktur unterscheidet. Außerdem ist unser Ansatz ein;-;-;-;https://link.springer.com/chapter/10.1007/3-540-47952-X_18 f81b332e5ad360e50f3c35601a0ae0f5;de;;;7.3.;;;Adaptives Benutzerprofil im Web-IR-System mit heuristikbasierter Erfassung wesentlicher Begriffe Dieser Beitrag stellt eine Methode zur adaptiven Benutzerprofilerstellung, Modifizierung im Bereich der Web-Suchsysteme unter Verwendung von Abfragebegriffen und gewichteten Begriffen gefundener Dokumente vor. Einer der wesentlichen Bestandteile des Verfahrens ist die heuristikbasierte Auswahl signifikanter Begriffe aus relevanten Dokumenten, deren Relevanzbewertung vom Benutzer zugewiesen wird. Während der Abrufzyklen erstellte Unterprofile repräsentieren Benutzerinteressen und werden für die Änderung von Benutzeranfragen verwendet. Die Experimente zum adaptiven Benutzerprofil als Personalisierungsmechanismus von Websuchsystemen werden vorgestellt und diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14989-4_20 8ec4b654d1a4249c6fcabb1494a9d1d2;de;;;7.3.;;;Analyse von Content-Filtering-Software Die Offenheit des Webs ermöglicht es jedem Benutzer, jederzeit und überall leicht Informationen zu erhalten. Neben dem Vorteil des einfachen Zugangs zu nützlichen Informationen hat das Web jedoch auch den Nachteil, dass es den Benutzern wahllos schädliche Informationen bereitstellt. Einige Informationen, wie zum Beispiel nicht jugendfreie Inhalte, sind für Kinder nicht geeignet. Um Kinder vor Inhalten für Erwachsene zu schützen, wurden viele Arten von Filtersoftware verbreitet. Filtersoftware kann jedoch Inhalte für Erwachsene nicht vollständig blockieren, da sie einige Funktionseinschränkungen aufweist. In diesem Papier analysieren wir verschiedene Filtersoftware und diskutieren ihre Grenzen. Darüber hinaus schlagen wir die wesentlichen Funktionalitäten für Filtersoftware vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21793-7_62 12f139a87077d8bc53ec37257422e45b;de;;;7.3.;;;E-Tourism-Portal: Eine Fallstudie zur ontologiegesteuerten Entwicklung Softwareentwicklung ist eine ziemlich komplexe Aktivität, die sowohl arbeitsintensiv als auch wissensreich ist, und die systematische Bereitstellung qualitativ hochwertiger Software, die den Bedürfnissen der Benutzer entspricht, pünktlich und innerhalb des Budgets, bleibt ein schwer fassbares Ziel. Dies gilt umso mehr für Internetanwendungen, die zusätzliche Herausforderungen mit sich bringen, darunter 1) ein Vorherrschen der hochvolatilen Interaktionslogik und 2) ein stärkerer Time-to-Market-Druck. Modellgetriebene Entwicklung soll das Problem lindern, indem sie den Entwicklungsprozess in eine Abfolge semantikerhaltender Transformationen aufteilt, die von einem rechenunabhängigen Modell über ein architekturneutrales plattformunabhängiges Modell (PIM) bis hin zu plattformunabhängigen bestimmtes Modell oder Code am anderen Ende. Das ist die Idee(l). Im Allgemeinen ist die semantische Lücke zwischen CIM und PIM jedoch so groß, dass der Übergang zwischen ihnen schwer zu formalisieren ist. In diesem Papier präsentieren wir eine Fallstudie, in der wir eine Ontologie verwendet haben, um die Entwicklung eines E-Tourismus-Portals voranzutreiben. Unser Projekt hat gezeigt, dass es möglich ist, die Entwicklung einer Internetanwendung aus einer semantischen Beschreibung der Geschäftseinheiten voranzutreiben und die Wirksamkeit dieses Ansatzes bei der Wartung veranschaulicht. Es zeigte auch die Arten von Kompromissen auf, die wir eingehen mussten, um etwas hochstehende Designprinzipien mit dem Gebot der Herstellung eines Produkts mit angemessener Qualität in Einklang zu bringen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20862-1_6 1bec772cd56c2739f0dc77da7b7b2533;de;;;7.3.;;;Standortbezogene Musikempfehlung Die zunehmende Menge an Online-Musikinhalten hat Möglichkeiten für die Implementierung neuer effektiver Informationszugriffsdienste – allgemein bekannt als Musikempfehlungssysteme – eröffnet, die die Musiknavigation, das Entdecken, das Teilen und die Bildung von Benutzergemeinschaften unterstützen. In den letzten Jahren hat sich ein neues Forschungsgebiet der kontextuellen Musikempfehlung und -suche herausgebildet. Kontextbewusste Musikempfehlungssysteme sind in der Lage, Musikelemente unter Berücksichtigung von Kontextbedingungen wie der Stimmung oder des Standorts des Benutzers vorzuschlagen, die die Vorlieben des Benutzers zu einem bestimmten Zeitpunkt beeinflussen können. In dieser Arbeit betrachten wir eine besondere Art von kontextbewusster Empfehlungsaufgabe – die Auswahl von Musikinhalten, die zu einem Ort von Interesse (POI) passen. Um dieses Problem anzugehen, haben wir emotionale Tags verwendet, die sowohl Musiktiteln als auch POIs zugewiesen sind, und wir haben eine Reihe von Ähnlichkeitsmetriken für markierte Ressourcen in Betracht gezogen, um eine Übereinstimmung zwischen Musiktiteln und POIs herzustellen. Nach einer ersten webbasierten Evaluierung der Core-Matching-Technik haben wir eine mobile Anwendung entwickelt, die für jeden besuchten POI eine Reiseroute vorschlägt und Musikempfehlungen abspielt, und diese in einer Live-Nutzerstudie bewertet. Die Ergebnisse der Studie zeigen, dass Nutzer die empfohlene Musik als geeignet für die POIs einschätzen und die Musik in diesem Nutzungsszenario höher bewertet wird, wenn sie abgespielt wird.;-;-;-;https://link.springer.com/article/10.1007/s13735-012-0032-2 eec9ecb010ecbb61744927f90b108151;de;;;7.3.;;;Anonymisierung der Traffic-Effizienzstudie für Web-Clients Anonymisierung im Sinne des Verbergens des Urhebers der Webanfrage kann manchmal nützlich sein und kann mit verschiedenen kommerziellen und gemeinfreien Tools erfolgen. Der Nachteil der Anonymisierung besteht darin, dass der anonymisierte Verkehr deutlich langsamer ist als der normale. Die Studie, die darauf abzielt, die Verlangsamung zu beschreiben und ihre Geschwindigkeit zu quantifizieren, wird in diesem Artikel vorgestellt. An der Studie waren die bekanntesten kostenlosen Anonymisierungstools beteiligt, nämlich TOR, JAP und I2P. Der Satz von Dateien wurde gebildet und ihre Download-Übertragungsgeschwindigkeit wurde mit und ohne Verwendung von Anonymisierung gemessen. Außerdem wurde der Satz von Webseiten gebildet, bei denen sowohl die Latenz als auch die Übertragungsgeschwindigkeit gemessen wurden. Alle Messungen wurden auf der Anwendungsschicht durchgeführt. Der abschließende Vergleich zeigte, dass TOR trotz der herausragenden Latenzzeit von JAP nach wie vor das beste Werkzeug für die Anonymisierung ist. Der für die Anonymisierung gezahlte Preis bleibt ebenfalls recht hoch, da bestätigt wurde, dass eine Verringerung der Übertragungsgeschwindigkeit von mindestens 90 % untrennbar mit der Verwendung kostenloser Anonymisierungstools verbunden ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31217-5_26 d35eb25e3bd89a7c4918065ccb30cf63;de;;;7.3.;;;Semantische Web-Suchmaschinen In den letzten Jahren ist die Menge an Semantic Web-Daten, die im Web verfügbar und nutzbar gemacht werden, zunehmend gewachsen. Im Vergleich zum Web ist ein einzigartiges Merkmal des Semantic Web seine benutzerfreundliche Schnittstelle zu Softwareprogrammen. Um menschliche Benutzer mit Softwareprogrammen besser bedienen zu können, werden unterstützende Infrastrukturen zum Auffinden und Auswählen der verteilten Online-Semantic-Web-Daten benötigt. In letzter Zeit sind eine Reihe von Semantic Web-Suchmaschinen erschienen. Diese Systeme basieren auf unterschiedlichen Designprinzipien und bieten unterschiedliche Unterstützungsebenen für Benutzer und/oder Anwendungen. In diesem Kapitel wird ein Überblick über diese Semantic Web-Suchmaschinen zusammen mit der detaillierten Beschreibung des Designs zweier prominenter Systeme gegeben: Swoogle und Watson. Die Art und Weise, wie diese Systeme verwendet werden, um Domänenanwendungen zu ermöglichen und die Spitzenforschung zu Semantic Web-Technologien zu unterstützen, wird ebenfalls diskutiert. Dieses Kapitel enthält insbesondere Beispiele für eine neue Generation semantischer Anwendungen, die dank Semantic-Web-Suchmaschinen Online-Wissen zur Laufzeit verwerten, ohne mühsam in bestimmten Domänen erworben zu werden. Darüber hinaus ermöglichen Semantic Web-Suchmaschinen wie Watson und Swoogle Forschern durch das Sammeln großer Mengen semantischer Inhalte im Internet, besser zu verstehen, wie Wissen formal online veröffentlicht wird und wie Semantic Web-Technologien verwendet werden. Mit anderen Worten, durch das Mining der gesammelten semantischen Dokumente wird es möglich, sich einen Überblick zu verschaffen und die heutige Semantic Web-Landschaft zu erkunden.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-540-92913-0_16 2c6ac751f5dfd71b44b632c25ce32b14;de;;;7.3.;;;Forschung zum Anwendungsmodell einer Multimediadatenbank basierend auf Computernetzwerktechnologie Network Mit dem Fortschritt und der schnellen Entwicklung der Computer- und Netzwerkinformationstechnologie wird die Anwendung von Multimediadatenbanken immer häufiger verwendet, und Multimediadatenbanken werden in akademischen Kreisen, Bildungskreisen und im Management häufig verwendet, um die Einschränkungen der traditionellen Datenbank und den Mangel zu überwinden Situation und realisieren die effektive Anwendung von Multimedia-Datenbanken. Dieses Papier kombiniert die heutige High-Tech-Computernetzwerktechnologie, analysiert und studiert die Grundlagen und das Design von Multimedia-Datenbanken. Dadurch, dass ein Multimedia-Datenbank-Anwendungsmodell erstellt wird, ist es bequemer, schneller, reich an Inhalten, verschiedene Multimedia-Datenbanken, verbessert die Effizienz und verbessert gleichzeitig die Atmosphäre der Unterhaltung und Entspannung, um die effiziente Anwendung zu verwirklichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35419-9_92 b977b472d72b22bf38c681806108135e;de;;;7.3.;;;Ein herausragender Ansatz für die Informationsbeschaffung In den letzten drei Jahrzehnten hat die Forschung im Bereich Information Retrieval (IR) eine Leistungsverbesserung gezeigt, wenn viele Beweisquellen kombiniert werden, um ein Ranking von Dokumenten zu erstellen. Die meisten aktuellen Ansätze bewerten die Dokumentenrelevanz durch Berechnen einer einzelnen Bewertung, die Werte einiger Attribute oder Kriterien aggregiert. Sie verwenden analytische Aggregationsoperatoren, die entweder zu einem Verlust wertvoller Informationen führen, z. B. die min- oder lexikographischen Operatoren, oder es ermöglichen, sehr schlechte Bewertungen einiger Kriterien durch gute zu kompensieren, z. B. den gewichteten Summenoperator. Darüber hinaus gehen alle diese Ansätze nicht mit der Ungenauigkeit der Kriteriumsbewertungen um. In diesem Papier schlagen wir einen Rahmen mit mehreren Kriterien vor, der einen neuen Aggregationsmechanismus verwendet, der auf Entscheidungsregeln basiert, die positive und negative Gründe für die Beurteilung, ob ein Dokument ein besseres Ranking als ein anderes erhalten sollte, identifizieren. Das resultierende Verfahren handhabt auch Ungenauigkeiten beim Kriterienentwurf. Es werden experimentelle Ergebnisse berichtet, die zeigen, dass die vorgeschlagene Methode besser abschneidet als Standardaggregationsoperatoren.;-;-;-;https://link.springer.com/article/10.1007/s10791-008-9046-z 8a0d6e005909e6e642e514c126d0bb33;de;;;7.3.;;;Simulation von Internet-DDoS-Angriffen und -Abwehr Der Beitrag betrachtet das Software-Simulationstool DDoSSim, das zur umfassenden Untersuchung von Internet-DDoS-Angriffen und Abwehrmechanismen entwickelt wurde. Dieses Tool kann durch drei Hauptmerkmale charakterisiert werden: agentenorientierter Ansatz zur Simulation, paketbasierte Nachahmung von Netzwerksicherheitsprozessen und offene Bibliothek verschiedener DDoS-Angriffe und Abwehrmechanismen. DDoSSim ermöglicht es, verschiedene Angriffe und Abwehrmethoden gründlich zu untersuchen und wertvolle Empfehlungen zur Auswahl der besten Abwehr zu generieren. In der Arbeit wird der vorgeschlagene agentenorientierte Ansatz berücksichtigt. Die Taxonomie von Eingabe- und Ausgabeparametern für die Simulation wird skizziert. Die wichtigsten DDoSSim-Komponenten werden angegeben. Eines der Experimente zum Schutz vor DDoS-Angriffen zeigt einige DDoSSim-Möglichkeiten. Wir betrachten verschiedene Phasen von Verteidigungsoperationen – Lernen, Entscheidungsfindung und Schutz, einschließlich der Anpassung an die Handlungen von Übeltätern.;-;-;-;https://link.springer.com/chapter/10.1007/11836810_24 1356642002aac7fe35c4524ec48c6c63;de;;;7.3.;;;Auf dem Weg zur nächsten Generation des Web of Things: Eine Umfrage zum Framework des Semantic Web of Things Das Konzept hinter dem Semantic Web of Things (SWoT) besteht darin, die IoT-Architekturen (Internet of Things) zu erweitern und fortschrittliches Ressourcenmanagement und -erkennung bereitzustellen. Es verwendet auch die Integration von Wissensrepräsentations- und Argumentationstechniken, die im Wesentlichen aus dem Semantic Web entwickelt wurden. Die Kombination zweier Technologien zielt darauf ab, semantische Annotationen mit Objekten der realen Welt zu verknüpfen. In diesem Papier werden solche drei Frameworks, nämlich SWoT-Framework basierend auf Ubiquitous Knowledge Base, CoAP-basiertes Framework und Smart Gateway Framework, die für das erweiterte IoT (SWoT) entwickelt und vorgeschlagen wurden, zusammen mit den grundlegenden Herausforderungen des IoT diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30933-0_4 927cebd214b4b200a5e20b53260c1008;de;;;7.3.;;;Mining paralleler Dokumente mit niedriger Bandbreite und hochpräziser CLIR aus dem heterogenen Web Wir schlagen eine inhaltsbasierte Methode vor, zweisprachige parallele Dokumente von Websites zu gewinnen, die nicht unbedingt strukturell miteinander verwandt sind. Es gibt zwei bestehende Ansätze für das automatische Mining paralleler Dokumente aus dem Web. Strukturbasierte Methoden funktionieren nur für parallele Websites und die meisten inhaltsbasierten Methoden erfordern entweder große Rechenkapazitäten, Netzwerkbandbreite oder sind nicht auf heterogene Webs anwendbar. Wir schlagen eine neuartige inhaltsbasierte Methode vor, die Cross-Lingual-Information-Retrieval (CLIR) mit Abfrage-Feedback und -Verifizierung verwendet und mit strukturellen Informationen ergänzt, um parallele Ressourcen aus dem gesamten Web mithilfe von Suchmaschinen-APIs zu ermitteln. Die Methode geht über strukturelle Informationen hinaus, um parallele Dokumente auf nicht parallelen Websites zu finden. Wir haben eine sehr hohe Mining-Präzision und extrahierte parallele Sätze erreicht. Die verbesserte SMT-Leistung mit einem höheren BLEU-Score ist vergleichbar mit der, die mit qualitativ hochwertigen manuell übersetzten parallelen Sätzen erzielt wurde, was die hervorragende Qualität des abgebauten parallelen Materials veranschaulicht;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20128-8_2 103bac66b73c4210829833b19ba5c605;de;;;7.3.;;;Zu Information Retrieval-Metriken, die für die Bewertung mit unvollständigen Relevanzbewertungen ausgelegt sind Moderne Testsammlungen des Information Retrieval (IR) sind an Umfang gewachsen, aber die verfügbare Manpower für Relevanzbewertungen ist mehr oder weniger konstant geblieben. So bewerten und vergleichen Sie IR-Systeme zuverlässig mit;-;-;-;https://link.springer.com/article/10.1007/s10791-008-9059-7 1b78914c6dafde1bfc985c548e54ad43;de;;;7.3.;;;Gestaltung der Face-to-Face-Umfrage Das persönliche Interview hat mehrere Einschränkungen. Es erfordert mehr Zeit und verursacht höhere Kosten als andere Vermessungsmodi. Es kann zu Daten führen, die Variationen, die aus den Antworten eines Befragten stammen, mit Variationen in verschiedenen Interviewsituationen mischen. Es hat jedoch auch erhebliche Vorteile gegenüber nicht-interviewbezogenen Befragungen und gegenüber nicht-persönlichen Interviews aufgrund der direkten zwischenmenschlichen Interaktion zwischen Interviewer und Interviewpartner. Zwei Hauptparadigmen der Befragungsinterviewbegegnung (Stimulus-Response/Information Retrieval und Constructionist-collaborative) implizieren die Verwendung alternativer persönlicher Interviewformate (standardisiert oder dialogorientiert), um die Datenqualität und Messzuverlässigkeit zu maximieren. Die Paradigmen schlagen auch alternative Wege zur Verbesserung von Umfrageinterviews vor, d. h. kognitive Interviews oder Konversationsanalyse. Das ausschließliche Vertrauen auf das dominante Stimulus-Response/Information-Retrieval-Paradigma und die strikte Einhaltung eines standardisierten Formats in Face-to-Face-Interviews können ein hohes Maß an Verhaltenskonsistenz erreichen und auch den Erwerb umfangreicher Umfragedaten mit inhaltlicher Konsistenz verhindern. Eine persönliche Befragung mit einem flexiblen, konversationalen Interviewformat, wie es vom Konstrukteur-kollaborativen Paradigma unterstützt wird, hat möglicherweise eine geringere Verhaltenskonsistenz, kann jedoch die substanzielle Datenkonsistenz maximieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-3876-2_14 02fe3c4b7c2397516afbc4b35dae2e26;de;;;7.3.;;;Ein generisches Modell und eine Architektur für automatisiertes Auditing Forschung wurde in Bereichen der Wirtschaftsprüfung durchgeführt, u.a. Sicherheitsprüfung, Compliance-Prüfung, Finanzprüfung. Um die Effizienz der Revision zu steigern und eine kontinuierliche Revision zu ermöglichen, müssen Revisionsaufgaben automatisiert werden, was nur möglich ist, wenn Revisionsdaten digital verfügbar sind und geeignete Algorithmen existieren.;-;-;-;https://link.springer.com/chapter/10.1007/11568285_11 3456b6a3e6957aa671aeab23836bd9d9;de;;;7.3.;;;DNS-Load-Balancing DNS-Load-Balancing ist die einfachste Form des Load-Balancing. Das heißt, es ist auch sehr mächtig. Es kann verwendet werden, um viele Leistungsprobleme sehr schnell zu lösen, da Sie eingehenden Datenverkehr an einen beliebigen Server aus einer Gruppe leiten können. Aber wie bei allen schnellen und einfachen Lösungen gibt es viele Dinge, die DNS-Load-Balancing nicht kann. Wenn es ein Allheilmittel wäre, hätten wir dieses Buch schließlich nicht schreiben müssen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-3681-8_4 e1181615ed96912f68e135bf43d618bc;de;;;7.3.;;;Online-Berufsentwicklung für Lehrer Der effektivste Weg zur Verbreitung und Aktualisierung der beruflichen Weiterbildung von Lehrkräften kann durch den Einsatz virtueller Lernumgebungen erreicht werden. Sie bieten eine einfache Bereitstellung, Flexibilität bei der Nutzung von Ressourcen, Technologie zur Unterstützung der kollaborativen Arbeit und das Entstehen von Lern-/Lehrgemeinschaften, die sich gegenseitig bei ihren gemeinsamen Aufgaben unterstützen können. Die Nutzung von Technologien ist ein grundlegendes Merkmal der Online-Berufsentwicklung, da sie sowohl die Technologie der Vermittlung als auch effektive Lernmittel bereitstellt. Daher muss die berufliche Entwicklung den Einsatz von Informations- und Kommunikationstechnologien als ihre Hauptprioritäten bei der Umwandlung der Lehrerausbildung in einen effektiven Prozess berücksichtigen. Bildung muss auch den Wandel der Lernformen berücksichtigen, weg von stärker formalisierten Schulformen hin zu verschiedenen Formen informeller Lernformen, so dass die Gestaltung der Lernobjekte einem flexibleren Materialeinsatz in unterschiedlichen Kontexten gerecht werden muss.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-73315-9_43 7389e79a162558a606216813297b8a0d;de;;;7.3.;;;Unbeaufsichtigte Extraktion beliebter Produktattribute aus Websites Wir entwickeln ein unüberwachtes Lern-Framework zum Extrahieren beliebter Produktattribute aus verschiedenen Web-Produktbeschreibungsseiten. Im Gegensatz zu bestehenden Systemen, die die Popularität der Attribute nicht unterscheiden, schlagen wir ein Framework vor, das in der Lage ist, betroffene beliebte Merkmale eines Produkts nicht nur aus einer Sammlung von Kundenbewertungen zu erkennen, sondern diese beliebten Merkmale auch den zugehörigen Produktattributen und gleichzeitig diese Attribute aus Beschreibungsseiten zu extrahieren. Um die technischen Herausforderungen anzugehen, entwickeln wir ein diskriminierendes grafisches Modell, das auf versteckten bedingten Zufallsfeldern basiert. Wir haben Experimente zu mehreren Produktdomänen durchgeführt. Die empirischen Ergebnisse zeigen, dass unser Framework effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35341-3_39 9bac8a563234c55e9c62b5d4f51f6788;de;;;7.3.;;;Kinder und Web 2.0: Was sie tun, was wir befürchten und was getan wird, um sie sicher zu machen Kinder fangen heutzutage immer früher an, das Internet zu nutzen. Dies hat die Aufmerksamkeit von Wissenschaftlern in verschiedenen Disziplinen wie Psychologie, Soziologie und Medien erregt. Die Besorgnis über die Online-Sicherheit von Kindern hat zugenommen, aber die Forschung zu Informationssystemen (IS) in diesem Bereich ist immer noch rar, obwohl Informationssicherheit ein etabliertes Forschungsfeld innerhalb der IS-Forschung ist. In diesem Papier überprüfen wir die vorhandene Forschung zu den Online-Aktivitäten von Kindern und den damit verbundenen Bedrohungen und Risiken sowie Initiativen zur Erreichung der Online-Sicherheit. Wir identifizieren Lücken in der aktuellen Forschung, wie den Mangel an qualitativen Studien und Forschung im Zusammenhang mit Kleinkindern sowie den Mangel an Forschung, die sich mit der Wirksamkeit von Bildungsinitiativen befasst. Wir argumentieren auch, dass die IS-Forschung zu diesem Forschungsfeld beitragen sollte, indem sie beispielsweise die Informationssicherheit und das datenschutzbezogene Verhalten von Kindern untersucht, da gute Kenntnisse der Informationssicherheit die Grundlage für den Datenschutz bilden, den Grundstein für Online-Sicherheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-21783-3_3 4e61d5758d12f28b3fcf0f723ae640da;de;;;7.3.;;;GERHARD (German Harvest Automated Retrieval and Directory) Gerhard ist ein vollautomatisches Erschließungs- und Klassifikationssystem des deutschen World Wide Web zum integrierten Suchen und Browsen. Es besteht aus einem datenbankgesteuerten Roboter, der wissenschaftlich relevante Dokumente sammelt, einem schnellen Klassifikationsmodul, einer Datenbank und einer dreisprachigen (Deutsch, Englisch und Französisch) Benutzeroberfläche für den Dienst selbst sowie für die Pflege des Dienstes. Durch die Integration von Such- und Browsing-Mechanismen kann der Benutzer sehr einfach nach „ähnlichen“ Dokumenten suchen. Derzeit sind 400 Bereiche des deutschen WWW definiert, die als wissenschaftlich relevant gelten, mit mehr als einer Million klassifizierten und erschlossenen Dokumenten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-57280-7_48 9eb55fe33d643926729c750fec499c95;de;;;7.3.;;;WCVF: Die schwierige Visualisierung von Webinhalten Heutzutage verwenden Mensch und Maschine nicht das gleiche Format der Wissensrepräsentation. Diese Lücke ist ein ernstes Problem in der Mensch-Maschine-Interaktion. Genauer gesagt spielt das Verstehen von Text und Bildern eine Schlüsselrolle in dem Prozess, der der Webnavigation zugrunde liegt. Diese Tatsache zielt darauf ab, die Anwendung intelligenter Methoden zu sprengen, die die Lücke zwischen den Informationen, die den Benutzern angezeigt werden, und dem, was sie verstehen und verwenden können, pro Site und pro Benutzer minimieren.;-;-;-;https://link.springer.com/chapter/10.1007/11495772_22 7de5fc06da548d5f79bc114d237c3e37;de;;;7.3.;;;Eine Berechtigungsarchitektur für Webdienste Dieses Papier betrachtet die Berechtigungsservice-Anforderungen für die serviceorientierte Architektur und schlägt eine Berechtigungsarchitektur für Webservices vor. Es beschreibt den architektonischen Rahmen, die Administrations- und Laufzeitaspekte unserer Architektur und ihrer Komponenten zur sicheren Autorisierung von Webservices sowie die Unterstützung beim Management von Autorisierungsinformationen. Die vorgeschlagene Architektur hat mehrere Vorteile. Es unterstützt sowohl Legacy-Anwendungen als Web-Services als auch neue Web-Service-basierte Anwendungen, die entwickelt wurden, um die Vorteile der serviceorientierten Architektur zu nutzen Verwaltung von Webservices und zugehörigen Berechtigungsinformationen. Die vorgeschlagene Architektur kann in bestehende Middleware-Plattformen integriert werden, um den exponierten Webdiensten erhöhte Sicherheit zu bieten. Die Architektur wird derzeit innerhalb des .NET-Frameworks implementiert.;-;-;-;https://link.springer.com/chapter/10.1007/11535706_17 30748cbc98a176d8464f1f7fc0b6d9e9;de;;;7.3.;;;Umfangreiche Linked-Data-Integration mit probabilistischem Denken und Crowdsourcing Wir gehen die Probleme an, verlinkte Datensätze halbautomatisch abzugleichen und große Sammlungen von Webseiten mit verlinkten Daten zu verknüpfen. Unser System, ZenCrowd, (1) verwendet eine dreistufige Blockierungstechnik, um die bestmöglichen Instanzübereinstimmungen zu erhalten und gleichzeitig sowohl die Rechenkomplexität als auch die Latenz zu minimieren, und (2) identifiziert Entitäten aus natürlichsprachlichem Text mithilfe modernster Techniken und verbindet sie automatisch mit der verlinkten Open-Data-Cloud. Erstens verwenden wir strukturierte invertierte Indizes, um schnell potenzielle Kandidatenergebnisse von Entitäten zu finden, die in unserem System indiziert wurden. Unser System analysiert dann die Kandidatenübereinstimmungen und verfeinert sie, wann immer es für notwendig erachtet wird, indem rechenintensivere Abfragen in einer Graphdatenbank verwendet werden. Schließlich greifen wir auf Human Computing zurück, indem wir Crowdsourcing-Aufgaben dynamisch generieren, falls die algorithmischen Komponenten nicht zu überzeugenden Ergebnissen führen. Wir integrieren alle Ergebnisse aus den invertierten Indizes, aus der Graphdatenbank und aus der Crowd mithilfe eines probabilistischen Frameworks, um sinnvolle Entscheidungen über Kandidaten-Matches zu treffen und unzuverlässige menschliche Arbeiter zu identifizieren. Im Folgenden geben wir einen Überblick über die Architektur unseres Systems und beschreiben detailliert unsere neuartige dreistufige Blockierungstechnik und unseren probabilistischen Entscheidungsrahmen. Wir berichten auch über eine Reihe experimenteller Ergebnisse zu einem Standarddatensatz, die zeigen, dass unser System beim Instanz-Matching eine durchschnittliche Genauigkeit von 95 % (im Vergleich zu den anfänglichen 88 % der durchschnittlichen Genauigkeit der rein automatischen Basislinie) erreichen kann, während die Menge drastisch begrenzt wird der von der Masse geleisteten Arbeit. Die experimentelle Bewertung unseres Systems bei der Entity-Linking-Aufgabe zeigt eine durchschnittliche relative Verbesserung von 14 % gegenüber unserem besten automatischen Ansatz.;-;-;-;https://link.springer.com/article/10.1007/s00778-013-0324-z 20070adf80bdc3143aef1faa26f18476;de;;;7.3.;;;Experimentell getriebene Forschung im Publish/Subscribe-Informationszentrierten Inter-Networking Das Testen und Bewerten neuer Architekturvorschläge ist eine Herausforderung. Bei der üblichen Vielfalt an Technologien und Maßstäben bei der notwendigen Evaluation reicht ein One-Size-Fits-All-Ansatz kaum aus. Stattdessen muss eine Sammlung von Bewertungs- und Versuchsmethoden gewählt werden, um die vorgeschlagenen Lösungen umfassend zu testen. Dieses Papier skizziert einige der Ansätze, die für einen Architekturvorschlag gewählt wurden, der eine Publish/Subscribe-basierte Internetworking-Schicht für das Future Internet erstellt. Dazu skizzieren wir Herausforderungen, die wir identifiziert haben, als wir uns dem Experimentieren als Mittel zur Evaluierung zuwenden. Anschließend stellen wir die Vielfalt der Emulation sowie experimentelle Testumgebungsbemühungen vor, die versuchen, diese Herausforderungen anzugehen. Obwohl dies nicht als abschließende Zusammenfassung der experimentellen Forschung in diesem Bereich zu sehen ist, ist es ein Versuch, unsere Bemühungen als Arbeit für andere im Architekturbereich zusammenzufassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17851-1_36 8652763a44efc103467113bcd58d9b46;de;;;7.3.;;;Themenbasiertes Ranking in Folksonomy über probabilistisches Modell Social Tagging wird immer beliebter, um Dokumente im Web zu beschreiben und zu klassifizieren. Die Qualität der Tags variiert jedoch erheblich, da die Tags frei verfasst werden. Die Bewertung der Tags wird zu einem wichtigen Thema. Die meisten Social-Tagging-Systeme ordnen Tags nur nach der Eingabereihenfolge mit wenig Informationen über Wichtigkeit und Relevanz. Dadurch werden die Anwendungen von Tags wie Informationssuche, Tag-Empfehlung usw. eingeschränkt. In diesem Papier achten wir darauf, die Autoritätsbewertung von Tags im gesamten Tag-Raum abhängig von Themen zu finden und schlagen einen themensensitiven Tag-Ranking-Ansatz (TSTR) vor, um Tags automatisch nach ihrer Themenrelevanz zu ranken. Wir extrahieren zunächst Themen aus der Folksonomie mit einem probabilistischen Modell und konstruieren dann einen Übergangswahrscheinlichkeitsgraphen. Schließlich führen wir einen Random Walk über die Themenebene im Diagramm durch, um Themenrangwerte von Tags zu erhalten. Experimentelle Ergebnisse zeigen, dass die vorgeschlagene Tag-Ranking-Methode sowohl effektiv als auch effizient ist. Wir wenden auch das Tag-Ranking in die Tag-Empfehlung an, was zeigt, dass der vorgeschlagene Tag-Ranking-Ansatz die Leistung von Anwendungen im Zusammenhang mit Social-Tagging wirklich steigert.;-;-;-;https://link.springer.com/article/10.1007/s10462-011-9207-0 ec8ae69d76383ca879ffd16a547fc7bc;de;;;7.3.;;;Integration von Geräteunabhängigkeit und Benutzerprofilen im Web Dieses Papier beschreibt Forschungsarbeiten, die es ermöglichen, den richtigen Personen zur richtigen Zeit und im richtigen Detaillierungsgrad das richtige Wissen über eine Reihe von Benutzergeräten (Laptop-PC, Mobiltelefon, drahtloser E-Mail-Client, etc). Wir beschreiben ein Framework, das Geräteprofile mit Benutzerpräferenzprofilen und Zugänglichkeitsanforderungen integriert, um eine effektive Wissensvermittlung an eine Reihe von Endbenutzergeräten zu ermöglichen. Das Framework besteht aus zwei Komponenten – einer Ontologie von Geräte- und Benutzerprofilen und einer Engine zur Inhaltsanpassung, um dem Benutzer Informationen in einem geeigneten Format zu präsentieren.;-;-;-;https://link.springer.com/article/10.1007/s10550-005-0045-y f2290c724de69013195a0e6954cadaf3;de;;;7.3.;;;PrivacySearch: Ein Endbenutzer- und Abfragegenerierungstool zur Verbesserung des Datenschutzes in der Websuche Websuchmaschinen nutzen die Erstellung von Benutzerinteressenprofilen oder eignen sich dafür, um personalisierte Suchergebnisse bereitzustellen. Der Mangel an Transparenz darüber, welche Informationen gespeichert werden, wie sie verwendet werden und mit wem sie geteilt werden, schränkt die Wahrnehmung der Privatsphäre der Nutzer in Bezug auf den Suchdienst ein. In diesem Whitepaper untersuchen wir eine Technologie, die es Benutzern ermöglicht, spezifische Suchanfragen durch allgemeinere, aber semantisch ähnliche Suchbegriffe zu ersetzen. Durch die Verallgemeinerung von Abfragen könnte das Nutzerprofil ungenauer und damit privater werden, allerdings offenbar auf Kosten einer Verschlechterung der Genauigkeit der Suchergebnisse. In dieser Arbeit konzipieren und entwickeln wir ein Werkzeug von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-02744-5_23 97ab8f4e3dfec51f515cb61f6f430eb4;de;;;7.3.;;;Semantische Annotation von Ressourcen im Semantic Web In diesem Kapitel geben wir eine kurze Einführung in die Grundidee des Semantic Web, nämlich die bessere Nutzung und Ermöglichung intelligenter Anwendungen für webzugängliche Informationen durch die Begleitung mit maschinenverständlichen semantischen Metadaten, wir skizzieren den wesentlichen methodischen Rahmen dahinter, bestehend aus zwei ineinander verschränkten, orthogonalen Prozessen, dem Wissensprozess und dem Wissensmetaprozess – letzterer beschäftigt sich mit dem Ontology Engineering, ersterer nutzt Ontologien zur ontologiebasierten Metadatenzuordnung zu Webressourcen, also zur semantischen Annotation. Der Hauptteil des Kapitels widmet sich der Idee der semantischen Annotation, Anforderungen und Funktionalitäten von Annotationswerkzeugen, einer beispielhaften Implementierung und einem Überblick über den Stand von Forschung und Praxis in der semantischen Annotation.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-70894-4_5 eee876dadbcecfc501f9362f12001370;de;;;7.3.;;;Können unbewusst-bewusste Verarbeitungssequenzen die Ergebnisse der Anzeigenpräsenz verbessern? Kann die Reihenfolge, in der die Anzeigenpräsenz in verschiedenen Anzeigenformaten generiert wird, die Kommunikationsergebnisse in Situationen mit geringer Beteiligung verbessern oder verhindern? Diese Studie vergleicht die Wirkung von selbstselektierten und erzwungenen (oder aufdringlichen) Anzeigenschaltungen mit wiederholten Anzeigen einzelner Anzeigenformate auf die Markenerinnerung, die Markeneinstellung und die reizbasierte Aufnahme in den Betrachtungssatz. Die Analyse experimenteller Daten zeigt, dass die Abfolge von selbst ausgewählten Anzeigenformaten, die eine prä-aufmerksame Verarbeitung von Anzeigeninformationen induzieren, gefolgt von erzwungenen Anzeigenformaten, die eine bewusste Verarbeitung bewirken, im Vergleich zu anderen zu besseren Ergebnissen führt. Frühere Forschungen zum Priming unterstützen die Ergebnisse und Implikationen für die Mediaplanung, werden angesprochen.;-;-;-;https://link.springer.com/article/10.1057/bm.2011.9 62e3dd884aabafb305d631ad6460311d;de;;;7.3.;;;Attributabruf aus relationalen Webtabellen In diesem Papier schlagen wir einen Attribut-Retrieval-Ansatz vor, der Attribute aus HTML-Tabellen extrahiert und einordnet. Bei einer gegebenen Instanz (z. B. Turm von Pisa) möchten wir ihre Attribute (z. B. Höhe, Architekt) aus dem Web abrufen. Unser Ansatz verwendet HTML-Tabellen, die wahrscheinlich die größte Quelle für das Abrufen von Attributen sind. Drei anruforientierte Filter werden auf Tabellen angewendet, um die folgenden drei Eigenschaften zu überprüfen:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24583-1_12 5f863c511be308febf9717e1fae6cd9c;de;;;7.3.;;;Auswerten von Skyline-Abfragen für räumliche Webobjekte GoogleMaps, Google Earth und Bing Maps haben die visuelle Erkundung von Karten im Web angeregt und es Benutzern ermöglicht, räumliche Webobjekte abzufragen. Ein räumliches Webobjekt hat einen geografischen Standort und ist normalerweise mit einer Textbeschreibung oder einem Link zu einem Webdokument verbunden. Um die Objekte als Antwort auf eine Abfrage auszuwählen, müssen die in ihrer textlichen Beschreibung oder ihrem Dokument enthaltenen Daten überprüft werden. Skyline ist ein Abfrageverarbeitungsparadigma, das Abfragen über mehrere Kriterien anbietet, wobei jedes Kriterium gleich wichtig ist. In diesem Papier definieren wir;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32597-7_36 40b664ec1d9210a5e3f64f86a6a220f0;de;;;7.3.;;;Wissensdomänen-Semantische Suche und Empfehlung basierend auf einem verbesserten Ameisenkolonie-Algorithmus Um genaue Suchergebnisse zu erhalten und den Einsatz menschlicher Anstrengungen bei der Entdeckung von Wissen zu fördern, schlagen wir eine Methode vor, die auf dem Ameisenkolonie-Algorithmus (ACA) basiert. Die vorgeschlagene Methode simuliert das Verhalten von Ameisen auf der Suche nach Nahrung. Spezifische Merkmale wie das Verhalten von Ameisen bei der Nahrungssuche, ihre etablierten Suchpfade und das Ameisen-„Nachbarschaftsprofil“ werden untersucht. Die Untersuchungsergebnisse zeigen, dass das Verhalten von Menschen, die nach nützlichen Informationen suchen, dem von Ameisen auf der Suche nach Nahrung ähnelt. Wir verwenden auch semantische Annotation und den Ansatz der abnehmenden Matrixdimension, um den Prozess der Lebensmittelsuche zu beschleunigen und den Abstand zwischen den Ausgangspunkten der Abfrage und den endgültigen Antworten zu verkürzen. Ein Benutzerverhaltensmodell wird basierend auf persönlichen und Domänenontologien erstellt. Die experimentelle Bewertung mit dem verbesserten ACA besteht aus zwei Teilen: (1) Schätzen der Effizienz der Informationsabfrage unter Berücksichtigung der Benutzerinteressen und (2) Identifizieren, wie die Nutzung gewichtet und Benutzerdaten während der Empfehlung bewertet werden.;-;-;-;https://link.springer.com/article/10.1016/S1672-6529%2813%2960250-4 d51b5f9c890dd345cdfd7be65e813f24;de;;;7.3.;;;Anforderungen an die Web-Zugänglichkeit für Mediaplayer Videoinhalte werden im Web immer stärker. Aus diesem Grund ist es notwendig, Videoinhalte mit geeigneten Zugänglichkeitsanforderungen zur Nutzung durch alle Menschen aufzunehmen. Benutzeragenten (wie Player, Browser) müssen ebenfalls Barrierefreiheitsanforderungen enthalten. Dieses Dokument enthält eine Reihe grundlegender Richtlinien für Fachleute, die Videoplayer in ihr Web einbetten möchten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23768-3_109 cb118e255def55dc7fa4edbf8e98c0c1;de;;;7.3.;;;Hassspirale: Soziale Auswirkungen in Käufer-Verkäufer-Querkommentaren bei Internet-Auktionen Eine Auktionsplattform ist eine dynamische Umgebung, in der eine Vielzahl von sozialen Effekten beobachtet werden können. Die meisten dieser Effekte bleiben für normale Benutzer unbemerkt oder sogar verborgen. Die eingehenden Studien zu solchen Effekten sollen es uns ermöglichen, die Schlüsselfaktoren, die das Nutzerverhalten beeinflussen, zu identifizieren und zu verstehen. Das gesammelte Material des größten polnischen Auktionshauses wurde analysiert. NLP-Algorithmen wurden angewendet, um stimmungsbezogene Inhalte aus gesammelten Kommentaren zu extrahieren. Die emotionale Distanz zwischen negativen, neutralen und positiven Kommentaren wurde berechnet. Die erhaltenen Ergebnisse bestätigen die Existenz der Hassspirale, weisen aber auch darauf hin, dass viel komplexere Muster der gegenseitigen Beziehungen zwischen Verkäufern und Käufern existieren. Der letzte Abschnitt enthält einige Vorschläge, die sich als nützlich erweisen können, um die Vertrauenswürdigkeit von Benutzerberichten und die Sicherheit einer Auktionsplattform im Allgemeinen zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02056-8_1 db6a7cc53883938f662fa29d4254bb2e;de;;;7.3.;;;Ein verbesserter genetischer Algorithmus für die Auswahl von Webdiensten Ein verbesserter genetischer Algorithmus wird vorgestellt, um optimale zusammengesetzte Webservice-Pläne aus vielen zusammengesetzten Plänen auf der Grundlage globaler Dienstgüte-(QoS)-Beschränkungen auszuwählen. Das Relationsmatrix-Kodierungsschema des Genoms ist seine Grundlage. In diesem genetischen Algorithmus werden eine spezielle Fitnessfunktion und eine Mutationspolitik auf der Grundlage des Relationsmatrix-Kodierungsschemas des Genoms vorgeschlagen. Sie verbessern die Konvergenz des genetischen Algorithmus und können einen besseren zusammengesetzten Serviceplan erhalten, da sie sehr gut mit der Auswahl von Webservices übereinstimmen. Die Simulationsergebnisse zur Auswahl von QoS-fähigen Webdiensten haben gezeigt, dass der verbesserte genetische Algorithmus effektiv den zusammengesetzten Dienstplan erreichen kann, der die globalen QoS-Anforderungen erfüllt, und dass die Konvergenz des genetischen Algorithmus sehr gut verbessert wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72883-2_21 139fb3ac9c84cf9a0d1760be721f92ed;de;;;7.3.;;;Einsatz von Semantic Web-Technologien im Gesundheitswesen Der technologische Durchbruch in der Biomedizintechnik und Gesundheitsinformatik hat mehrere Gesundheitsinformationssysteme (KIS) und medizinische Geräte hervorgebracht, die täglich in Krankenhäusern eingesetzt werden und riesige Datenmengen produzieren. Die erzeugten Daten stammen aus unterschiedlichen Quellen und werden nicht einmal in einem einzigen Krankenhaus in einem einheitlichen Speicher-Repository oder einer Datenbank gespeichert. Dadurch ist die Interoperabilität des KIS eingeschränkt, das Auffinden von Informationen schwierig und es gibt verborgenes Wissen, das in riesigen und vielfältigen medizinischen Datenpools ungenutzt bleibt. Um das oben Genannte zu überwinden, schlägt die wissenschaftliche Gemeinschaft die Verwendung der semantischen Web-Technologien vor. Die Semantic-Web-Technologien bieten die Werkzeuge, die es ermöglichen, Daten effektiver und genauer zu verarbeiten, den Rahmen für die Interoperabilität zwischen KIS zu schaffen und auch Daten aus verschiedenen Quellen mit ihrer semantischen Bedeutung zu integrieren;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06844-2_2 ef3ed056617edba6d3e772d5ee4c0e9d;de;;;7.3.;;;Entwicklung einer ICT-Infrastruktur für die internetbasierte Integration Infrastrukturen der Informations- und Kommunikationstechnologie (IKT), die komplexe Operationen unterstützen, erfordern gemeinsame Anstrengungen, um eine Reihe von eigenständigen Softwareprodukten in ein koordiniertes System zu integrieren. Die eigenständigen Produkte werden jedoch normalerweise mit bestimmten Zielen entwickelt und interagieren nicht miteinander. In einer virtuellen Unternehmensumgebung stellt dies die ICT-Manager vor große Herausforderungen, eine große Vielfalt von Softwareprodukten zu verwalten, wobei jedes Produkt nur die einzigartigen Anforderungen eines kleinen Teils der Benutzergemeinschaft erfüllt. In diesem Papier wird die Entwicklung der ICT-Infrastruktur für ein virtuelles Tooling-Unternehmen unter Verwendung der offenen Protokollstandards sowie eines neuen ICT-Infrastruktur-Entwicklungstools namens Dynamic Network System (DNS) erörtert. DNS modelliert die Betriebseigenschaften der ICT-Umgebung und generiert aus Sicht des Systemdesigners schnell das integrierte Internet-Webportal. Es basiert auf Standard-JSP-Serverfunktionen unter Verwendung eines Open-Source-Systems, das über die normalen Serversicherheitsfunktionen verfügt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-38269-2_48 f093751095a48cdc85abbf84a16843ea;de;;;7.3.;;;Überprüfung von Ansätzen zur Linked Data Ontology Enrichment Die Semantic-Web-Technologie hat einen Rahmen zum Erstellen eines „Datennetzes“ geschaffen, bei dem die Knoten den interessierenden Ressourcen in einer Domäne entsprechen und die Kanten logischen Anweisungen entsprechen, die diese Ressourcen unter Verwendung binärer interessierender Beziehungen in der Domäne verknüpfen. Das Framework bietet einen standardisierten Weg zum Beschreiben eines interessierenden Bereichs, so dass die Beschreibung maschinenverarbeitbar ist. Dies ermöglicht Anwendungen, Daten und Wissen über Entitäten auf eindeutige Weise auszutauschen. Da alle Ressourcen mit IRIs dargestellt werden, wird außerdem ein riesiges verteiltes Netzwerk von Datensätzen erstellt. Anwendungen können diese Datensätze dynamisch entdecken, auf die aktuellsten Daten zugreifen, diese anhand der zugehörigen Metadaten (Ontologien) interpretieren und in ihren Betrieb integrieren. Während die Linked Open Data (LOD)-Initiative auf der Grundlage der Semantic Web-Standards zu einem riesigen Webkorpus von Domain-Datensätzen geführt hat, ist bekannt, dass die meisten Aussagen in einem Datensatz von der Art sind, die bestimmte Personen miteinander verbindet auf bestimmte Personen (z. B. Paris ist die Hauptstadt von Frankreich) und es besteht ein großer Bedarf, die Datensätze mit Aussagen zu ergänzen, die übergeordnete Einheiten verbinden (z. B. eine Aussage über Länder und Städte wie „Jedes Land hat eine Stadt als Hauptstadt“) . Das Hinzufügen von Aussagen dieser Art ist Teil der Aufgabe der Anreicherung der LOD-Datensätze, die als „Ontology Enrichment“ bezeichnet wird. In diesem Beitrag fassen wir verschiedene neuere Forschungsbemühungen zusammen, die sich dieser Aufgabe widmen. Wir untersuchen verschiedene Arten von Ontologieanreicherungen, die möglich sind, und fassen die Forschungsbemühungen in jeder Kategorie zusammen. Wir beobachten, dass, während das anfängliche schnelle Wachstum von LOD durch Techniken beigetragen wurde, die strukturierte Daten in den LOD-Raum umwandelten, die Ontologie-Anreicherung komplexer ist und mehrere Techniken aus der Verarbeitung natürlicher Sprache, maschinellem Lernen und auch Methoden erfordert, die das Bestehende geschickt nutzen Ontologie-Anweisungen, um neue Anweisungen zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-72344-0_2 fc634b143beb3334f3b418287f13fe2d;de;;;7.3.;;;Mining-Produktfunktionen aus dem Web: Ein selbstüberwachter Ansatz Der Abbau von im Web verfügbaren Informationen zum automatischen Aufbau von Wissensdatenbanken ist ein interessantes Feld für die akademische Forschung und die Industrie. Bestehende Wrapper-Induktionsansätze erfordern manuelle Annotationen oder zielen darauf ab, domänenspezifische Extraktoren zu erstellen, die normalerweise nicht mit Vorlagenänderungen zurechtkommen. In diesem Artikel gehen wir das Problem der umfangreichen Extraktion von Produktmerkmalen aus E-Commerce-Websites an. Wir schlagen einen neuartigen, selbstüberwachten Ansatz vor, der auf visuellen Hinweisen und einer kleinen Wissensdatenbank beruht, um Produktmerkmale automatisch mit Anmerkungen zu versehen. Unser Ansatz benötigt keinen anfänglichen Satz von gekennzeichneten Seiten, um Extraktionsregeln zu lernen, und ist robust gegenüber Website-Änderungen. Experimentelle Ergebnisse mit der Produktdatenextraktion von 10 großen französischen E-Commerce-Websites (rund 1 000 Webseiten) zeigen, dass die vorgeschlagene Methode vielversprechend ist. Darüber hinaus haben Experimente gezeigt, dass unsere Methode Änderungen von Website-Templates ohne menschliches Eingreifen verarbeiten kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36608-6_19 d226544434acd70633796e8fa1feef08;de;;;7.3.;;;Neptuno: Semantic-Web-Technologien für ein digitales Zeitungsarchiv Zeitungsarchive sind ein grundlegendes Arbeitsinstrument für Redaktionen. Ihre Nutzung in digitaler Form über das Web und die Bereitstellung von Technologien, die dies ermöglichen, sind heute ebenfalls wichtige Geschäfte. Die Menge an Archivinhalten und die Komplexität der menschlichen Teams, die sie erstellen und pflegen, führen zu vielfältigen Managementschwierigkeiten. Wir schlagen die Einführung der aufkommenden semantikbasierten Technologien vor, um die Prozesse der Erstellung, Pflege und Nutzung des digitalen Archivs einer Zeitung zu verbessern. Wir beschreiben eine auf diesen Technologien basierende Plattform, die aus a) einer dem Zeitungsarchiv zugeordneten Wissensdatenbank auf Basis einer Ontologie zur Beschreibung journalistischer Informationen, b) einem semantischen Suchmodul und c) einem Modul zum Durchsuchen von Inhalten Visualisierung basierend auf Ontologien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-25956-5_31 887459cf0237a0e3b33c50af5cd3e76b;de;;;7.3.;;;Cross-Language Mining für Akronyme und ihre Vervollständigungen aus dem Web Wir schlagen eine Methode vor, die biomedizinische Akronyme und ihre Langformdefinitionen über verschiedene Sprachen hinweg angleicht. Wir verwenden ein frei verfügbares Such- und Extraktionstool, mit dem Abkürzungen zusammen mit ihren vollständig erweiterten Formen massiv aus dem Web geschürft werden. In einem nachfolgenden Schritt werden sprachspezifische Varianten, Synonyme und Übersetzungen der extrahierten Akronymdefinitionen durch Verweis auf eine sprachunabhängige, gemeinsame semantische Interlingua normalisiert.;-;-;-;https://link.springer.com/chapter/10.1007/11563983_11 eb6df881fadf476b153154986f664cc0;de;;;7.3.;;;DILT: Ein hybrides Modell für die dynamische Komposition und Ausführung heterogener Webdienste Geschäftsanwendungen in Bereichen wie e-Governance erfordern die Zusammenarbeit zwischen Regierungs- und Nichtregierungsabteilungen, was den Bedarf an SOAP-basierten und RESTful-Diensten erhöht. Bestehende Arbeiten adressieren dieses Ziel allein durch die statische Komposition. Es wäre jedoch von Vorteil, wenn Benutzer die Anforderungen während der Laufzeit basierend auf dem Ergebnis der zuvor ausgeführten Dienste spezifizieren können. Im Allgemeinen folgen Geschäftsanwendungen einer vordefinierten Reihenfolge und folglich kann der Kompositionsprozess einer Vorlage von Geschäftsaktivitäten folgen. Bestehende Arbeiten zur dynamischen Webservice-Komposition trennen die Kompositions- und Ausführungsphasen entweder getrennt oder führen sie verschachtelt durch. Der erstere Ansatz kann sich nicht an Laufzeitänderungen anpassen, während der letztere Dienste basierend auf dem Ergebnis früherer Dienstausführungen auswählen kann. Der verschachtelte Ansatz unterstützt jedoch keine Geschäftsaktivitäten, die eine bestimmte Reihenfolge aufweisen. Daher wurde in diesem Papier ein neuartiges Hybridmodell - Dynamic InterLeaved Template (DILT) - vorgeschlagen, das eine verschachtelte Komposition und Ausführung von Webservices basierend auf vordefinierten Workflow-Vorlagen ermöglicht. Dieses Hybridmodell eignet sich natürlich für die Zusammenstellung sowohl von SOAP-basierten als auch RESTful-Services.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-14977-6_20 f2932aef401e0e6ed606c0f958d06907;de;;;7.3.;;;Cyber-Terrorismus: eine klare und präsente Gefahr, die Summe aller Ängste, Sollbruchstelle oder Patriotenspiel? In den letzten zwei Jahrzehnten hat sich eine umfangreiche Literatur zum Problem des Cyber-Terrorismus entwickelt. Die Themen, die von denen, die über Cyber-Terrorismus schreiben, entwickelt wurden, scheinen aus den Titeln von Tom Clancys Fiktion zu stammen, wie zum Beispiel;-;-;-;https://link.springer.com/article/10.1007/s10611-007-9061-9 b181a3bd26d6fcbed6955fe102987952;de;;;7.3.;;;E-Learning-Tools und Web-Ressourcen für das Lehren rekonfigurierbarer Systeme Der Beitrag zeigt, dass das Lehren rekonfigurierbarer Systeme ein komplexer und schwieriger Prozess ist, der viele neue Methoden und Werkzeuge erfordert, die im selben Kurs berücksichtigt werden müssen. Dieser Prozess kann mit Hilfe der entwickelten Informationsressourcen und E-Learning-Tools stark vereinfacht und in eine integrierte Methodik mit originellen Evaluations- und Motivationsmethoden integriert werden. Diese Methodik wird seit ca. 10 Jahren erfolgreich in der Lehre rekonfigurierbarer Systeme angewendet. Der Beitrag diskutiert die Auswirkungen dieser Methodik auf so wichtige Komponenten der Hochschulbildung wie Forschungsaktivitäten, postgraduales Lernen und Ausbildung für Ingenieurtätigkeiten in der Industrie.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34731-8_23 cd68645f419500f499671116329d958c;de;;;7.3.;;;Prognose des Fahrgastaufkommens auf der Grundlage von Web-Suchbegriffen und feindlichen Netzen Eine genaue Prognose des Fahrgastaufkommens im Schienenverkehr macht die Politikformulierung effektiv und die Zuweisung von Verkehrsressourcen sinnvoll. Mit der Popularität des Internets entscheiden sich immer mehr Menschen dafür, das Internet zu nutzen, um Informationen über das Reisen zu erhalten. Daher schlägt dieses Papier vor, die Websuche als Trainingsdaten zu verwenden, um das Fahrgastaufkommen im Schienenverkehr vorherzusagen. Darüber hinaus werden kontradiktorische Netze (AN) vorgeschlagen, um das Fahrgastaufkommen im Schienenverkehr vorherzusagen. Das AN-Training besteht aus zwei Schritten, wobei der erste Schritt ein kontradiktorisches Training und der zweite die Feinabstimmung ist. Durch das unüberwachte gegnerische Training werden die Ausgangsparameter des neuronalen Netzes optimiert und seine Generalisierungsfähigkeit erhöht. Die überwachte Feinabstimmung ermöglicht es AN, das Fahrgastaufkommen im Schienenverkehr vorherzusagen. Um die Parameter von AN zu optimieren, wird außerdem ein verbesserter Partikelschwarm-Optimierungsalgorithmus vorgeschlagen. Die experimentellen Ergebnisse zeigen, dass das vorgeschlagene Modell eine bessere Leistung aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00009-7_2 8bac34f81bc7b58753e121137282f548;de;;;7.3.;;;Werbespiele für Webdienste Wir entwickeln und diskutieren einen Rahmen, der geeignet ist, um theoretische Implikationen und praktische Auswirkungen von Sprachentwicklung und Lexikon-Sharing in einem offenen verteilten Multi-Agenten-System zu untersuchen. In unserem Ansatz spielt die Annahme von Autonomie eine Schlüsselrolle, um den Agenten die Möglichkeit einer lokalen Codierung von Bedeutungen zu bewahren. Wir betrachten das Anwendungsszenario von Webservices, wobei wir die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39964-3_8 c9841628f87c8d86eae5b9d64557d1a4;de;;;7.3.;;;Zur String-Priorisierung bei der webbasierten Lokalisierung der Benutzeroberfläche Wir haben festgestellt, dass die meisten der aktuellen Herausforderungen, die die Lokalisierung von Benutzeroberflächen betreffen, leicht angegangen werden könnten, wenn eine String-Priorisierung ermöglicht würde. In diesem Papier gehen wir diese Herausforderungen mit Nimrod an, einem webbasierten Internationalisierungstool, das Zeichenfolgen der Benutzeroberfläche anhand einer Reihe von Unterscheidungsmerkmalen priorisiert. Als praktische Anwendung untersuchen wir verschiedene Priorisierungsstrategien für verschiedene String-Kategorien aus Wordpress, einem beliebten Open-Source-Content-Management-System mit einem großen Nachrichtenkatalog. Darüber hinaus tragen wir mit WPLoc bei, einem sorgfältig kommentierten Datensatz, damit andere unsere Experimente reproduzieren und auf dieser Arbeit aufbauen können. Strings im WPLoc-Dataset werden als relevant und nicht relevant gekennzeichnet, wobei relevante Strings wiederum als kritisch, informativ oder navigationsbezogen kategorisiert werden. Mit modernsten Klassifikatoren sind wir in der Lage, Strings in diesen Kategorien mit wettbewerbsfähiger Genauigkeit zu ermitteln. Nimrod und der WPLoc-Datensatz sind beide öffentlich zum Download verfügbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11746-1_34 3ab38a732c98b49d40fb7dee9eb58e23;de;;;7.3.;;;Ausbildung zukünftiger Lehrkräfte in der Entwicklung und Anwendung von Computerwerkzeugen zur Bewertung des Studienfortschritts Die Evaluation des Studienfortschritts ist ein wichtiger Schritt in der wissenschaftlichen Tätigkeit. Das Ausbildungsprogramm für die Ausbildung angehender Lehrer an der Staatlichen Pädagogischen Universität Ural umfasst den Kurs „Moderne Instrumente zur Bewertung des akademischen Fortschritts“. Durch den Masterstudiengang werden die Studierenden mit der Theorie und Methodik zur Entwicklung und Anwendung von Evaluationsinstrumenten mittels Computertechnologien vertraut gemacht. Das Papier präsentiert einen Versuch, die kontextbezogene Lerntechnologie mit WEB 2.0 (World Wide Web) und SaaS (Software as a Service) Internet-Technologien zu integrieren, um Studenten im gemeinsamen Design und der Anwendung von computergestützten Tools zur Bewertung des akademischen Fortschritts auszubilden - Bildungstests Karten, Merkkarten usw.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19875-0_29 86c99f32838afd80faa0cbbc13d66a88;de;;;7.3.;;;Globalisierung - Zusammenhänge zwischen Einstellungen zur Globalisierung, Zeit, Ressourcen und finanziellen Ressourcen verstehen Verstärkt durch KI ist E-Marketing mittlerweile ein etablierter, wichtiger und oft entscheidender Kanal insbesondere für B2C (Business to Consumer) Aktivitäten. Eines der sichtbaren Merkmale der heutigen Welt ist die Globalisierung. In entwickelten Gesellschaften, in denen Dienstleistungen, Produkte und Möglichkeiten im Überfluss vorhanden sind, wird nicht nur Geld, sondern zunehmend auch Zeit zu einem wichtigen Wert. Die Verfügbarkeit von Zeit ist entscheidend für ihre Arbeitsweise, ihr Leben und ihr Verhalten bei der Auswahl, dem Kauf und der Nutzung von Produkten auf dem Markt. Die Einstellung zur Globalisierung beeinflusst nicht nur die Auswahl von Produkten und Dienstleistungen, sondern auch die Art und Weise, wie Menschen das Internet nutzen und es als Marketingkanal akzeptieren, um bekannte und neue Produkte, Dienstleistungen und Marken zu präsentieren. Daher sind Zeit- und Geldressourcen sowie die Einstellung zur Globalisierung auch für Unternehmen entscheidend bei der Entwicklung von Produkten und Dienstleistungen und deren Vermarktung. Künstliche Intelligenz spielt eine große Rolle bei der Zeitoptimierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-52903-1_1 0c98605c13282b35a2ff6382d1e4d38c;de;;;7.3.;;;Medizinische Ontologien aus dem Web lernen Die Entwicklung intelligenter Gesundheitsunterstützungssysteme erfordert immer eine Formalisierung des medizinischen Wissens. Domain-Ontologien sind hierfür besonders geeignet, deren Aufbau wird jedoch in den meisten Fällen manuell bearbeitet. Daraus resultieren lange und langwierige Entwicklungsprozesse, die ihre tatsächliche Anwendbarkeit erschweren. Aus diesem Grund werden Ontologie-Lernmethoden benötigt, die den Ontologie-Konstruktionsprozess unterstützen. Angesichts der enormen Menge an digitalem medizinischem Wissen, die frei im Web verfügbar ist, kann man es als eine valide Quelle für die Entwicklung von Wissenserwerbssystemen betrachten. In diesem Beitrag bieten wir einen Überblick über eine automatische und unüberwachte Methode zum Erlernen von Domänenontologien aus dem Web. Im Rahmen des europäischen Projekts K4Care stellen wir auch seine Anwendung in einem bestimmten medizinischen Bereich vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78624-5_3 9756951be5768101f2ece04a722fde4c;de;;;7.3.;;;Modellierung von Score-Verteilungen bei der Informationsbeschaffung Wir überprüfen die Geschichte der Modellierung von Score-Verteilungen und konzentrieren uns auf die Mischung von normal-exponentiell, indem wir sowohl die theoretischen als auch die empirischen Beweise untersuchen, die ihre Verwendung unterstützen. Wir diskutieren zuvor vorgeschlagene Bedingungen, die gültige binäre Mischungsmodelle erfüllen sollten, wie die Recall-Fallout-Konvexitätshypothese, und formulieren zwei neue Hypothesen, die die Komponentenverteilungen einzeln und paarweise unter einigen Randbedingungen von Parameterwerten berücksichtigen. Von allen in der Vergangenheit vorgeschlagenen Mischungen weist das aktuelle theoretische Argument auf das zwei Gamma als das wahrscheinlichste universelle Modell hin, wobei das Normal-Exponential eine brauchbare Näherung ist. Über den theoretischen Beitrag hinaus liefern wir neue experimentelle Beweise, die zeigen, dass Vektorraum- oder geometrische Modelle und BM25 „freundlich“ für die Normal-Exponentialfunktion sind und dass das Nichtkonvexitätsproblem, das die Mischung besitzt, praktisch nicht schwerwiegend ist. Darüber hinaus überprüfen wir aktuelle nicht-binäre Mischungsmodelle, spekulieren über abgestufte Relevanz und betrachten Methoden wie die logistische Regression zur Score-Kalibrierung.;-;-;-;https://link.springer.com/article/10.1007/s10791-010-9145-5 e650ad0aaf57481be63b2713f219631a;de;;;7.3.;;;Sicheres Grid-Computing mit vertrauenswürdigen Ressourcen und Internet-Datamining Internetbasiertes Grid-Computing entwickelt sich zu einer der vielversprechendsten Technologien, die die Welt verändern können. Dr. Hwang und sein Forschungsteam an der University of Southern California (USC) arbeiten an Selbstverteidigungstools, um Grid-Ressourcen automatisch vor Cyberangriffen oder böswilligen Eindringlingen zu schützen. Dieses Projekt baut ein automatisiertes Intrusion-Response- und Trust-Management-System auf, um Authentifizierung, Autorisierung und Sicherheitsbindung bei der Verwendung von Metacomputing-Grids oder Peer-to-Peer-Webdiensten zu erleichtern. Die vertrauenswürdige GridSec-Infrastruktur unterstützt Internet-Traffic-Datamining, verschlüsseltes Tunneling, optimierte Ressourcenzuweisungen, Netzwerkflutkontrolle und Anomalieerkennung usw. Das USC-Team entwickelt eine NetShield-Bibliothek zum Schutz von Grid-Ressourcen. Dieses neue Sicherheitssystem passt sich dynamisch an sich ändernde Bedrohungsmuster und Netzwerkverkehrsbedingungen an. Dieses Projekt fördert die Akzeptanz von Grid-Computing durch internationale Kooperationen mit den Forschungsgruppen des INRIA, Frankreich, der Chinesischen Akademie der Wissenschaften und der Melbourne University. Die verstärkte Grid-Infrastruktur wird sicherheitskritischen Zuweisungen in den Bereichen Digital Government, E-Commerce, Anti-Terror-Aktivitäten und Cyber-Kriminalitätskontrolle zugute kommen. Die weitreichenden Auswirkungen dieses ITR-Projekts sind in einer Ära wachsender Nachfrage nach Internet-, Web- und Grid-Diensten weitreichend.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30141-7_1 91c55c94d033fd6ed8243443d28eca90;de;;;7.3.;;;E-Commerce: Online-Shopping für Verbraucher in Kanada E-Commerce hat die Art und Weise, wie Unternehmen geführt werden, verändert und die Marktstrukturen weltweit verändert. Als Ergebnis wurden neue Beziehungen zwischen Verbrauchern und Anbietern aller Waren und Dienstleistungen entwickelt. Das Online-Shopping, das durch Fortschritte im Internet und der IKT-Infrastruktur angetrieben wird, hat die Einstellung der Verbraucher und die Beziehung zwischen Verbrauchern und Lieferanten verändert. Die Entwicklung wiederum hat neue Fragen für Wirtschaftsführer, Regierungen und Forscher aller Bereiche, einschließlich der Betriebswirtschaftslehre, aufgeworfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34447-3_1 f03145a56ffd1d0d47881bf087893315;de;;;7.3.;;;Ein System zur Erkennung von Web-Widgets, das die semantische Distanz zwischen Benutzerabsicht und sozialen Tags verwendet Soziale Interaktion nutzt kollektive Intelligenz durch benutzergenerierte Inhalte, soziale Netzwerke und soziale Anmerkungen. Benutzer können die Wissensrepräsentation durch Bewertung, Kommentierung und Tagging bereichern. Die existierenden Systeme zur Dienstentdeckung nutzen die semantische Beziehung zwischen sozialen Tags, ignorieren jedoch die Beziehung zwischen einem Benutzerinformationsbedarf für Dienste und Tags. Dieses Whitepaper bietet zunächst einen Überblick darüber, wie Social Tagging angewendet wird, um Inhalte/Dienste zu entdecken. Anschließend wird ein verbessertes Web-Widget-Erkennungsmodell vorgeschlagen, das darauf abzielt, für Benutzer hauptsächlich relevante Dienste zu entdecken. Das Modell enthält einen Algorithmus, der die genaue Beziehung zwischen der Benutzerabsicht für einen Dienst und den Tags eines Widgets quantifiziert, sowie drei verschiedene Widget-Erkennungsschemata. Mit dem Online-Dienst von Widgetbox.com demonstrieren wir experimentell die Genauigkeit und Effizienz unseres Systems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35386-4_1 60163e661c1125c141a022478c2827f1;de;;;7.3.;;;Gültigkeit von Router-Antworten für die Auflösung von IP-Aliassen Um realitätsnahe Internetkarten zu erhalten, ermöglicht die Auflösung von IP-Aliasen die Identifizierung von IP-Adressen, die zu demselben Router gehören. Hauptsächlich wird aktives Sondieren für die Auflösung von IP-Aliasen nach direkten und indirekten Schemata verwendet. Außerdem werden verschiedene Arten von Prüfpaketen verwendet (ICMP, UDP usw.), die sich auf verschiedene Header-Felder und Eigenschaften von IP und höheren Schichten konzentrieren. Die Reaktionsfähigkeit von Routern unterscheidet sich nicht nur in der Anzahl der empfangenen Antwortpakete, sondern auch in der Gültigkeit dieser Pakete, die bei der IP-Aliasidentifizierung verwendet werden sollen. Daher kann das spezifische Verhalten von Routern, die diese Antwortpakete erzeugen, über den Erfolg oder Misserfolg bestimmter Methoden zur Auflösung von IP-Aliasen entscheiden. In diesem Artikel wird eine eingehende Analyse des Routerverhaltens bereitgestellt, die nicht nur die Router-Reaktionsfähigkeit berücksichtigt, sondern auch die Gültigkeit dieser Antworten, die bei der Auflösung von IP-Aliasen verwendet werden sollen. Unsere Ergebnisse zeigen, dass, obwohl die Reaktionsfähigkeit für indirektes Sondieren besser ist, direktes Sondieren mit ICMP-Echo-Testpaketen und IPID-basiertem Verhalten das beste Identifikationsverhältnis für die Auflösung von IP-Aliasen bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30045-5_27 bad4aff5ae57369c2caa9864fc14ca1b;de;;;7.3.;;;Fließende Arbeitsorganisation in der allgegenwärtigen Informationsumgebung Der starke Trend zur Miniaturisierung und Personalisierung von Computergeräten, der sich in unserem täglichen Leben fortsetzt, ist untrennbar mit den verschiedenen Diensten und Funktionen verbunden, die diese technologischen Artefakte bieten. Mobile Mitarbeiter können ihre Arbeit nicht nur in informellen Büroräumen, sondern auch an so unterschiedlichen Orten wie Hotels und Bahnhöfen erledigen. Diese Arbeitnehmer nutzen in ihren hochmobilen Arbeitspraktiken aktiv verschiedene IKT. Dieses Papier untersucht ein aufkommendes Muster der Arbeitspraxis in der allgegenwärtigen Informationsumgebung, nämlich:;-;-;-;https://link.springer.com/chapter/10.1007/0-387-28918-6_15 80a19f791748c581a056bfb954ded3cf;de;;;7.3.;;;Websuche und Verzeichnis Suche und Verzeichnis sind einige der frühesten Anwendungen des World Wide Web. In diesem Kapitel wird die allgemeine Architektur eines Websuchsystems vorgestellt. Ein wichtiger Aspekt eines Websuchsystems ist der Webcrawler, der das World Wide Web durchsucht, indem er Links folgt und diese Informationen zur Verarbeitung speichert. Die Probleme beim Crawlen und wie Abfragen zum Abrufen von Dokumenten verwendet werden, werden vorgestellt. Auch Varianten der Suche wie fokussiertes Crawlen, Metasuche und dynamische Suche werden diskutiert. Ein Überblick über Webverzeichnissysteme und verschiedene Methoden zum Aufbau von Webverzeichnissen werden beschrieben. Ranking-Algorithmen wie PageRank;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-1135-9_5 60998b46d89b3f95e5cea529e64334ad;de;;;7.3.;;;Verbesserung der Effizienz von HTTP-Caching durch Hash-basierte Ressourcenkennungen Der Internetverkehr wächst kontinuierlich und trägt maßgeblich zu den steigenden Kosten der Netzbetreiber bei. Auswertungen haben ergeben, dass heute multimediale Inhalte einen Großteil der übertragenen Bytes im Internet ausmachen und HTTP das dominierende Protokoll ist. Eine natürliche Lösung zur Reduzierung dieser Netzwerkkosten ist das Caching häufig angeforderter Inhalte. Bereits Anfang der 90er Jahre wurden HTTP-Caches vorgeschlagen, die in den Domänen der Netzbetreiber eingesetzt wurden. Diese traditionellen HTTP-Caches verlassen sich auf URLs, um Ressourcen zu identifizieren und zu vermeiden, dass dieselben Daten zweimal übertragen werden. Leider kann heute ein bestimmter Inhalt unter verschiedenen URLs verfügbar sein. Darüber hinaus sind viele HTTP-Verbindungen personalisiert und daher wird das Caching von Inhaltsproduzenten oft deaktiviert. So wurde das traditionelle HTTP-Caching für die Netzbetreiber ineffizient. In diesem Artikel schlagen wir eine Methode vor, um die Effizienz von HTTP-Caching zu verbessern. Unser Ansatz basiert hauptsächlich auf Hash-Schlüsseln als zusätzliche Kennungen im Header von HTTP-Nachrichten. Dadurch ist die Identifizierung der übertragenen Inhalte genauer als bei URLs. Darüber hinaus zeigen wir, wie Caching auch bei Personalisierung in HTTP-Nachrichten erreicht werden kann und wie Content-Produzenten die volle Kontrolle über ihre Inhalte behalten, obwohl diese von ISPs zwischengespeichert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32808-4_33 74caf4fa2b2a42023122100237a62749;de;;;7.3.;;;Lookmark: Ein 2,5D-Web-Informationsvisualisierungssystem Lookmarks sind Miniaturansichten bestehender Webseiten, die in einem 2,5-dimensionalen Raum angeordnet werden können, genau wie Dokumente auf einem normalen Schreibtisch angeordnet werden können. Das Lookmark-System bietet dem Benutzer die Möglichkeit, einzelne Webseiten zu nehmen und diese in einem 2,5-dimensionalen Raum zu strukturieren und zu verwalten. Der Beitrag diskutiert relevante verwandte Arbeiten im Bereich Informationsvisualisierung und Interaktion, Designfragen und die Implementierung von Lookmark in Java und Java3D.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36087-5_11 846fd139d06a92fa5bb5ba6997c38f97;de;;;7.3.;;;Semantische Multimedia Multimedia stellt ein interessantes Anwendungsfeld für Semantic Web und Semantic Web Reasoning dar, da der Zugriff und die Verwaltung multimedialer Inhalte und Kontexte stark von deren semantischen Beschreibungen abhängt. Gleichzeitig stellen Multimedia-Ressourcen komplexe Objekte dar, deren Beschreibungen involviert sind und die Grundlage fundierter Modellierungspraxis erfordern, um Erkenntnisse der Low- und High-Level-Multimedia-Analyse darzustellen und über Semantic Web-Abfragen von Ressourcen zugänglich zu machen. Dieses Tutorial zielt darauf ab, einen roten Faden durch diese verschiedenen Themen zu ziehen und einen Überblick darüber zu geben, wo Semantic Web Modeling and Reasoning einen weiteren Beitrag im Bereich semantischer Multimedia für die fruchtbare Interaktion zwischen diesen beiden Bereichen der Informatik leisten muss.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85658-0_4 e4a754a06a7ecb650867ab52f3e4c2b9;de;;;7.3.;;;Ontologien und Semantic Web für E-Learning Dieser Artikel diskutiert den Bereich Ontologien und Semantic Web Technologien im E-Learning und vergleicht den Forschungsstand der Jahre 2004 und 2006. Er betrachtet den Einfluss von Ontologien auf die Web-basierten Bildungssysteme (WBES). Anschließend wird eine Ontologie des Bereichs Ontologien für das Bildungswesen zusammen mit einem von dieser Ontologie betriebenen Community-Webportal (O4E) präsentiert. Schließlich wird ein Anwendungsfall semantischer Webtechnologien als Basistechnologien für den Aufbau von WBES vorgestellt: der Fall von TM4L. Topic Maps for E-Learning (TM4L) ist eine Autorenumgebung zum Erstellen von ontologiebewussten, auf Standards basierenden Repositorys von Lernmaterialien (Objekten).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74155-8_3 02a156326a4dc769b860ecf073c4bdf9;de;;;7.3.;;;Ein hybrider Ansatz für die Erkennung von semantischen Webdiensten Der Zweck der Semantic Web Services Discovery besteht darin, semantisches Wissen zu verwenden, um Dienste zu finden, die zusammengesetzt werden können, um eine zulässige Antwort auf eine Anfrage zu bilden. In diesem Artikel betrachten wir den Vorteil eines wissensbasierten Ansatzes zur Erkennung von Webservices. Dienste werden durch terminologische Axiome und Zwangsklauseln beschrieben. Wir wenden eine spezifische Auflösung und einen Einschränkungs-Weiterleitungsmechanismus an, um Abfragen über Dienste auszuwerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39985-8_59 a8514853b844aa7b717494fb4c7025d6;de;;;7.3.;;;Algebraischer Ansatz zur Verknüpfung der Semantik von Webservices Webservices haben in diesen Jahren immer mehr an Bedeutung gewonnen und BPEL4WS (BPEL) ist ein De-facto-Standard für die Zusammensetzung und Orchestrierung von Webservices. Es enthält mehrere unterschiedliche Funktionen, einschließlich des umfangsbasierten Ausgleichs- und Fehlerbehandlungsmechanismus. Wir haben die operationale Semantik und die denotationale Semantik für BPEL betrachtet, wobei über diese beiden Modelle jeweils eine Reihe von algebraischen Gesetzen erreicht werden kann. In diesem Papier betrachten wir die inverse Arbeit, die die operationale Semantik und die denotationale Semantik aus der algebraischen Semantik für BPEL ableitet. In unserem Modell führen wir vier Typen typischer Programme ein, durch die jedes Programm als Summe dieser vier Typen ausgedrückt werden kann. Basierend auf der algebraischen Semantik wird die Strategie zur Ableitung der operationalen Semantik bereitgestellt und ein Transitionssystem durch strengen Beweis abgeleitet. Dies kann als die Soliditätsexploration für die operationale Semantik auf der Grundlage der algebraischen Semantik angesehen werden. Weiterhin wird die Äquivalenz zwischen der Ableitungsstrategie und dem abgeleiteten Transitionssystem untersucht, was als Vollständigkeit der operationellen Semantik angesehen werden kann. Schließlich wird die Ableitung der denotationalen Semantik aus der algebraischen Semantik untersucht, die es leichter macht, über weitere Programmeigenschaften nachzudenken.;-;-;-;https://link.springer.com/article/10.1007/s11334-011-0172-1 807aed0c57bf25e110d78ae4660369af;de;;;7.3.;;;Datenaufbewahrungs- und Anonymitätsdienste Auch das kürzlich erlassene Gesetz zur Vorratsdatenspeicherung zur Verfolgung von Cyberkriminalität in Europa beeinträchtigt die erreichbare Sicherheit von Systemen für die anonyme Kommunikation im Internet. Wir argumentieren, dass die Vorratsdatenspeicherung eine Überprüfung bestehender Sicherheitsbewertungen mit einer neuen Klasse realistischer Gegnermodelle erfordert. Insbesondere präsentieren wir theoretische Ergebnisse und erste empirische Belege für Kreuzungsangriffe durch Strafverfolgungsbehörden. Die Referenzarchitektur für unsere Studie ist der Anonymitätsdienst AN.ON, aus dem wir auch empirische Daten erheben. Unser Gegnermodell spiegelt eine Interpretation der aktuellen Umsetzung der EG-Richtlinie zur Vorratsdatenspeicherung in Deutschland wider.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03315-5_7 8de0d2ec7e80a71351a3e1647616fdbc;de;;;7.3.;;;Semantische Erkennung der Webstruktur zum Abrufen relevanter Dokumente von Google durch Formulierung eines Indexbegriffs Heutzutage ist Google unter verschiedenen Suchmechanismen einer der besten Mechanismen zum Abrufen von Informationen, um nützliche Ergebnisse gemäß Benutzerabfrage abzurufen. Im Allgemeinen wird der gesamte Suchprozess von Google durch Crawler und Indexierungsprozess abgeschlossen. Tatsächlich führt Google den Indexierungsprozess von Dokumenten unter Berücksichtigung verschiedener Merkmale von Webdokumenten (Titel, Meta-Tags, Schlüsselwörter usw.) durch, was hilft, das komplementäre Ergebnis abzurufen, indem die angegebene Abfrage genau mit dem Indexbegriff mit dem Benutzerinteresse übereinstimmt. Obwohl ein angemessener Indexierungsprozess sehr schwierig ist, ist es wichtig, das relevante Dokument vollständig oder teilweise zu extrahieren, abhängig davon, wie relevant der Indexbegriff für das Dokument ist. Manchmal wird dieser Indexierungsprozess jedoch durch eine Vielzahl von Merkmalen von Webdokumenten beeinflusst, die zu unterschiedlichen Ergebnissen führen, die für die Suche entweder vollständig oder teilweise irrelevant sind und unerwartet erscheinen. Um dieses Problem zu reduzieren, analysieren wir Webdokumente unter Berücksichtigung ihrer unstrukturierten (Webinhalte und Link-Features) Daten hinsichtlich Effizienz, Qualität und Relevanz bei der Nutzersuchanfrage und präsentieren einen schlüsselwortbasierten Ansatz zur Formulierung geeigneter Indexbegriffe durch semantische Analyse mit NLP-Konzept. Dieser Ansatz hilft, die aktuelle Webstruktur (Effektivität, Qualität und Relevanz) zu verstehen und das aktuelle Inkonsistenzproblem zu mildern, indem geeignete, effiziente und relevante Indexbegriffe generiert werden, die die Suchqualität verbessern könnten, da zufriedenstellende Suchergebnisse das Hauptanliegen von Google sind Suchmaschine. Die Analyse hilft dabei, einen geeigneten Indexbegriff für Google-Webdokumente zu generieren, der nützlich sein könnte, um geeignete und relevante Webdokumente systematischer als andere bestehende Ansätze (Lexikon- und Webstruktur-basierte Ansätze) abzurufen. Das experimentelle Ergebnis zeigt, dass der vorgeschlagene Ansatz eine effektive und effiziente Methode ist, um die Kompetenz von Webdokumenten vorherzusagen und geeignete und relevante Webdokumente zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6861-5_43 b420b76bf9e64d6acf3ed17fc19ba4b6;de;;;7.3.;;;Auf dem Weg zum Testen von Composed Web Services in 3 Mit der Verbreitung von Webdiensten in der Wirtschaft und mit zunehmender Anzahl von Webdiensten wird erwartet, dass ein einzelner Webdienst nicht mehr ausreicht, um eine Vielzahl heterogener und komplexer Funktionen zu handhaben. Mit Hilfe der Web-Service-Komposition werden daher neue Mehrwertdienste mit einer Vielzahl von Funktionalitäten geschaffen. Die Verwaltung eines zusammengesetzten Webdienstes ist im Vergleich zur Verwaltung eines nicht zusammengesetzten (einfachen) Webdienstes ein komplexes Thema. In diesem Beitrag schlagen wir eine Multi-Observer-Architektur vor, um Fehler in zusammengesetzten Webdiensten zu erkennen und zu lokalisieren. Es verwendet ein Netzwerk von Beobachtern, die zusammenarbeiten, um einen zusammengesetzten Webservice zu beobachten. Es wird eine Beobachtungsstrategie basierend auf einer Reihe von Heuristiken vorgestellt, um die Anzahl der zu beobachtenden Webservices zu reduzieren. Beobachter werden als mobile Agentenbeobachter entwickelt, um die durch die Beobachtung verursachte Belastung zu reduzieren. Algorithmen zur Fehlererkennung, Benachrichtigung und Zusammenarbeit zwischen Beobachtern werden beschrieben. Schließlich wird die Architektur durch eine Fallstudie zur Beobachtung eines zusammengesetzten Telekonferenz-Webdienstes in einem 3G-Netz veranschaulicht. Es werden verschiedene Komponenten der Architektur entwickelt. Die durch die Beobachtung eingeführte Netzwerklast wird gemessen und die Fehlererkennungsfähigkeiten der Architektur werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/11754008_8 859a329e2ee93c6e82b5bcd66fb86852;de;;;7.3.;;;Konsensbildung bei der verteilten Online-Entscheidungsfindung: Interaktion, Aggregation und die Konstruktion von gemeinsamem Wissen In diesem Kapitel diskutiere ich die Möglichkeit der Nutzung des groß angelegten Wissensaustauschs und der Masseninteraktion im Internet, um Entscheidungsunterstützungssysteme basierend auf verteilter kollektiver Intelligenz aufzubauen. Vor- und Nachteile aktuell verfügbarer kollaborativer Technologien werden hinsichtlich ihrer Fähigkeit zur Förderung von Wissensakkumulation, Filterung, Aggregation und Konsensbildung untersucht. Insbesondere konzentriere ich mich auf eine besondere Art von kollaborativen Technologien, das kollaborative Online-Mapping, dessen Eigenschaften einige Einschränkungen populärer kollaborativer Werkzeuge überwinden können, insbesondere dank ihrer Fähigkeit, kollektive Sinnfindung und die Konstruktion gemeinsamer Wissensobjekte zu unterstützen. Indem ich einige der Arbeiten auf diesem Gebiet betrachte, argumentiere ich, dass die Kombination von Online-Mapping und Computertechniken zur Aggregation von Überzeugungen eine interessante Grundlage für die Konstruktion von Systemen für die verteilte Entscheidungsfindung bieten kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20533-0_18 6fe73ae0fd40e407dd5bfc2e8310252a;de;;;7.3.;;;Eine interaktive Audio- und Videostation über das Internet In diesem Dokument wird eine interaktive Audio- und Videostation namens IAVS über das Internet vorgestellt. Das IAVS-System ist ein persönliches Audio- und Video-Multicast-Übertragungssystem und bietet eine interaktive Zwei-Wege-Kommunikation über das Internet. IAVS bietet zwei Funktionen unter Verwendung der Echtzeit-Multimedia-Interaktionstechnik. Der erste ist, dass das IAVS-Publikum seine Stimme mit einer Call-In-Operation an den IAVS-Server übertragen kann. Der zweite ist, dass IAVS den Dual-Server-Modus bietet, um es einem sekundären DJ zu ermöglichen, der geografisch vom Haupt-DJ getrennt ist, dem Programm beizutreten. Das heißt, zwei geografisch getrennte DJs steuern das Programm kooperativ. Viele Internet-Unterhaltungsanwendungen wie Talkshows und Musiksender können mit IAVS erstellt werden. Verwandte Technikfragen und die entsprechende Systementwicklung von IAVS werden im Beitrag ausführlich vorgestellt....;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45453-5_75 3e80ae626c51a8c61ea9a41c6b20dece;de;;;7.3.;;;Eine Studie zum Domain Name System als Lookup Manager für drahtlose/mobile Systeme in IPv6-Netzwerken Mobile IPv6 (MIPv6) ist ein Protokoll, das als Teilmenge des Internet Protocol Version 6 (IPv6) entwickelt wurde, um mobile Verbindungen zu unterstützen. MIPv6 ermöglicht es einem mobilen Knoten, Verbindungen transparent aufrechtzuerhalten, während er von einem Subnetz in ein anderes wechselt. Jedes Gerät wird durch seine Heimatadresse identifiziert, obwohl es möglicherweise eine Verbindung über ein anderes Netzwerk herstellt. Bei einer Verbindung über ein fremdes Netzwerk sendet ein mobiles Gerät seine Standortinformationen an einen Heimatagenten, der für das Gerät bestimmte Pakete abfängt und an den aktuellen Standort tunnelt. Wenn ein Knoten ein Webserver ist und ein anderer Knoten versucht, darauf zuzugreifen, ist es sehr einfach, wenn er die IP-Adresse des Webservers kennt. Üblicherweise verwenden wir bei der Suche nach anderen Websites als der IP-Adresse den Domainnamen. Dieses Papier schlägt eine IP-Suche in einer mobilen IPv6-Umgebung vor. Diese Methode verwendet die DNS-Suche.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27189-2_15 6479e908a6414905ef9846ca74f41231;de;;;7.3.;;;Open-Source-Tools, Techniken und Daten in der Chemoinformatik Chemikalien sind überall und bestehen im Wesentlichen aus Atomen und Bindungen, die das Leben unterstützen und Komfort bieten. Die zahlreichen Kombinationen dieser Entitäten führen zur Komplexität und Vielfalt des Universums. Chemie ist ein Fach, das diese Komplexität auf atomarer Ebene analysiert und zu erklären versucht. Fortschritte in diesem Bereich führten zu mehr Datengenerierung und Informationsexplosion. Über einen bestimmten Zeitraum wurden die Beobachtungen in chemischen Dokumenten festgehalten, darunter Zeitschriften, Patente und Forschungsberichte. Die riesige Menge chemischer Literatur, die mehr als zwei Jahrhunderte umfasst, erfordert den umfassenden Einsatz von Informationstechnologie, um sie zu verwalten. Heute sind die Werkzeuge und Methoden der Chemoinformatik leistungsfähig genug, um unerforschtes Wissen aus dieser riesigen Quelle chemischer Informationen zu verarbeiten und zu entdecken. Die Rolle der Chemoinformatik besteht darin, jedem Bit chemischer Daten einen Mehrwert zu verleihen. Das zugrunde liegende Thema dieser Domäne ist die Entwicklung effizienter Chemikalien mit vorhergesagten physikalisch-chemischen und biologischen Eigenschaften für Wirtschaft, Gesellschaft, Gesundheit, Sicherheit und Umwelt. In diesem Kapitel beginnen wir mit einer kurzen Definition und Rolle von Open-Source-Werkzeugen in der Chemoinformatik und erweitern die Diskussion über die Notwendigkeit grundlegender Computerkenntnisse, die zum Verständnis dieses spezialisierten und interdisziplinären Themas erforderlich sind. Darauf folgt eine eingehende Analyse traditioneller und fortgeschrittener Methoden zum Umgang mit chemischen Strukturen in Computern, die eine elementare, aber wesentliche Vorstufe für jede Chemoinformatikaufgabe darstellen. Praktische Anleitungen zur schrittweisen Verwendung von Open-Source-, freien, akademischen und kommerziellen Strukturdarstellungswerkzeugen werden ebenfalls bereitgestellt. Zum besseren Verständnis wird dem Leser dringend empfohlen, die Übungs-Tutorials auszuprobieren,;-;-;-;https://link.springer.com/chapter/10.1007/978-81-322-1780-0_1 872b5bc1baecc176600aa1bb22a75694;de;;;7.3.;;;Blockbasierte Webseiten-Funktionsauswahl mit neuronalem Netzwerk Das genaue Extrahieren der Funktion von Webseiten ist eines der grundlegenden Themen des Web Data Mining. In Anbetracht der Struktur der Webseite wurde in diesem Artikel eine blockbasierte Feature-Auswahlmethode importiert. Ein neuronales Netz könnte verwendet werden, um die Prioritäten verschiedener Webseitenblöcke zu erkennen und dann wurde der VPDom-Baum aufgebaut. Das Experiment beweist, dass die blockbasierte Featureauswahl das „Rauschen“ filtern und den Hauptinhalt der Webseite verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23324-1_36 b3b8cb915f4e5a07423e0842cacb115b;de;;;7.3.;;;Ein Überblick über die Multicast-Gruppenkommunikation auf Anwendungsebene und ein Vorschlag für intelligente Reflektoren Der Artikel schlägt den Stand der Technik bei Techniken und Modellen vor, die entwickelt wurden, um Probleme beim IP-Multicast auf Anwendungsschicht zu lösen. Konkret wird die Frage der Gruppenkommunikation zur Verteilung von Videoflüssen unter Verwendung von Reflektoren an die Teilnehmer einer Videokonferenz betrachtet. Es wird eine vorgeschlagene Lösung vorgestellt, die einen Algorithmus beinhaltet, der in der Lage ist, den geeigneten Reflektor dynamisch zu finden, um die Bedürfnisse eines bestimmten Kunden zu erfüllen. Simulationsergebnisse zeigen die Effizienz der Verwendung von Reflektoren in dieser Art von Anwendung.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34827-8_10 4126a8ab0bcd5f914acf09b921ae7ca9;de;;;7.3.;;;Communities in Grafiken Graph Viele Anwendungen, wie das Abrufen von Informationen aus dem WWW, erfordern oder werden durch die Erkennung von Sätzen eng verwandter Scheitelpunkte in Graphen verbessert. Je nach Anwendung sind viele Ansätze möglich. In diesem Beitrag präsentieren wir einen rein graphentheoretischen Ansatz, unabhängig von den dargestellten Daten. Basierend auf der Kantenkonnektivität von Teilgraphen wird ein Baum von Teilgraphen konstruiert, so dass die Kinder eines Knotens paarweise disjunkt und in ihrem Elternteil enthalten sind. Wir beschreiben einen polynomialen Algorithmus zur Konstruktion des Baumes und stellen zwei effiziente Methoden zur Behandlung von Scheitelpunkten von Dangling-Links mit niedrigem Grad vor, die das korrekte Ergebnis in deutlich verkürzter Zeit konstruieren. Darüber hinaus geben wir eine kurze Beschreibung möglicher Anwendungen in den Bereichen Information Retrieval, Clustering und Graph Drawing.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39884-4_3 375de353646fe3af7406f76beba21155;de;;;7.3.;;;Neue Methode zum Extrahieren von Schlüsselwörtern für den sozialen Akteur In diesem Papier untersuchen wir die Beziehung zwischen Abfrage und Suchmaschine, indem wir einige Eigenschaften untersuchen und auch ihre Beziehungen anwenden, um Schlüsselwörter für jeden sozialen Akteur zu extrahieren, indem wir eine neue Methode vorschlagen. Der vorgeschlagene Ansatz basiert auf der Berücksichtigung des Ergebnisses der Suchmaschine im Singleton und Doubleton. In diesem Artikel entwickeln wir eine neuartige Methode zum automatischen Extrahieren von Schlüsselwörtern aus dem Web mit dem Spiegelschattenkonzept (M2M). Die Ergebnisse zeigen das Potenzial des vorgeschlagenen Ansatzes. Im Experiment stellen wir fest, dass die Leistung (Erinnerung und Genauigkeit) von Keywords sowohl von der Gewichtung (Singleton und tfidf) als auch von deren Abstand abhängt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-05476-6_9 ffd4c2f831194ce1f8b997a81853f9ab;de;;;7.3.;;;Empfehlen typischer Verwendungsbeispiele für das Abrufen von Komponenten in Wiederverwendungs-Repositorys Programmierer neigen dazu, vorhandene Komponenten wiederzuverwenden, um die Entwicklungskosten zu senken und die Produktivität zu verbessern. Beim Abrufen von Komponenten aus dem Wiederverwendungs-Repository müssen Entwickler oft wissen, wie die Komponenten auf unterschiedliche Weise verwendet werden, um beurteilen zu können, welche Komponente besser geeignet ist. Eine effiziente Methode, um Entwicklern zu zeigen, wie die Komponenten verwendet werden, ist die Nutzung des Beispielcodes. Allerdings reichen die Beispiele in Handbüchern und Online-Dokumenten in der Regel nicht aus. Um dieses Problem anzugehen, schlagen wir einen Ansatz vor, der Entwicklern typische Anwendungsbeispiele empfiehlt, indem Quellcode aus dem Internet genutzt wird. Für jede Komponente, die Entwickler verwenden möchten, ruft unsere Methode zuerst relevanten Code ab, der als Kandidatenbeispiel aus dem Internet heruntergeladen wurde. Die Kandidatenbeispiele werden dann geclustert und wir wählen aus jedem Cluster ein typisches Beispiel aus. Schließlich werden die Ausgewählten bewertet und an die Entwickler zurückgegeben. Wir haben unsere Methode mit einem prototypischen System implementiert und eine experimentelle Studie durchgeführt, um ihre Wirksamkeit zu evaluieren. Die experimentellen Ergebnisse zeigen, dass unser Ansatz Beispiele liefern kann, um Entwicklern zu helfen, verschiedene Verwendungen der Komponente zu kennen, und somit das Potenzial hat, Entwickler bei der Wiederverwendung zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68073-4_7 30c1bc253cfe691c5c8c5b48ab95b480;de;;;7.3.;;;Ein DHT-basiertes Multi-Agent-System für den semantischen Informationsaustausch Dieses Papier stellt AOIS vor, ein Multi-Agenten-System, das den Informationsaustausch zwischen einer dynamischen Gemeinschaft von Benutzern unterstützt, die über das Internet verbunden sind, dank der Verwendung einer bekannten DHT-basierten Peer-to-Peer-Plattform: BitTorrent. In Bezug auf Web-Suchmaschinen verbessert dieses System die Suche durch Domain-Ontologien, vermeidet die Last der Veröffentlichung der Informationen im Web und garantiert einen kontrollierten und dynamischen Zugriff auf die Informationen. Der Einsatz von Agententechnologien hat die Realisierung von drei der Hauptmerkmale des Systems unkompliziert gemacht: i) Filterung von Informationen, die von verschiedenen Benutzern stammen, auf der Grundlage der bisherigen Erfahrungen des lokalen Benutzers, ii) Heraufdrängen einiger neuer Informationen, die für einen Benutzer von Interesse sein kann, und iii) Delegation von Zugriffsmöglichkeiten auf der Grundlage eines Reputationsnetzwerks, das von den Agenten des Systems auf die Gemeinschaft seiner Benutzer aufgebaut wird. Die Verwendung von BitTorrent wird es uns ermöglichen, die AOIS-Systeme Hunderten von Millionen Benutzern anzubieten, die bereits Dokumente über die BitTorrent-Plattform teilen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31546-6_12 d80a1342c8d18e5e643f178aae55cebe;de;;;7.3.;;;Aufbau qualitätsbasierter Sichten auf das Web Aufgrund des schnell wachsenden Informationsangebots im Web wird das Auffinden relevanter Inhalte immer schwieriger. Die Komplexität der Aufgabe betrifft sowohl die Semantik der Inhalte als auch die Filterung qualitätsbezogener Quellen. Eine neuere Strategie zur Bewältigung der überwältigenden Informationsmenge besteht darin, die Suche auf eine Momentaufnahme des Internets zu konzentrieren, nämlich eine Webansicht. In diesem Beitrag stellen wir ein System vor, das die Erstellung einer qualitätsbasierten Sicht auf das Web unterstützt. Wir geben einen kurzen Überblick über die Software und ihre funktionale Architektur. Ein weiterer Schwerpunkt liegt auf der Rolle der KI bei der Unterstützung der Organisation von Webressourcen in einer hierarchischen Struktur von Kategorien. Wir überblicken unsere jüngsten Arbeiten zu Dokumentenklassifizierern, die sich mit einer zweifachen Herausforderung befassen. Einerseits besteht die Aufgabe darin, Klassifikationen von Webressourcen zu empfehlen, wenn die Taxonomie keine Beispiele für die Klassifikation liefert, was normalerweise geschieht, wenn Taxonomien von Grund auf neu erstellt werden. Auf der anderen Seite werden Klassifikatoren, selbst wenn Taxonomien gefüllt sind, mit wenigen Beispielen trainiert, da normalerweise, wenn eine Kategorie eine bestimmte Menge an Webressourcen erreicht, die Organisationsrichtlinie eine Verfeinerung der Taxonomie vorschlägt. Das Papier enthält eine kurze Beschreibung einiger Fallstudien, in denen das System für reale Anwendungen eingesetzt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74782-6_45 40753fd5807838dfd9abb2f71d399a85;de;;;7.3.;;;Verwenden von MPEG- Das IST-Forschungsprogramm der Europäischen Union SAMBITS (System for Advanced Multimedia Broadcast and IT Services)-Projekt verwendet Digital Video Broadcasting (DVB), den DVB Multimedia Home Platform (MHP)-Standard, MPEG-;-;-;-;https://link.springer.com/article/10.1155/S1110865702000756 01dd7b3ee5c82d13c0215c495546cc0d;de;;;7.3.;;;Über Sicherheit, Berechenbarkeit und lokale Eigenschaften von Webabfragen In diesem Papier untersuchen wir die Sicherheit von Formeln, die Berechenbarkeit und die lokale Eigenschaft von Webabfragen. Die eingeschränkte Zugriffsfähigkeit und die lose strukturierten Informationen unterscheiden das Abfragen des Webs erheblich von dem Abfragen einer herkömmlichen Datenbank. Bei der Auswertung von Abfragen im Web ist es nicht möglich, alle Objekte im Web erschöpfend zu untersuchen. Die in diesem Artikel untersuchte lokale Eigenschaft kann informell als umgekehrtes Szenario beschrieben werden: Um zu überprüfen, ob ein Objekt am Ergebnis einer Web-Abfrage beteiligt war, reicht es aus, einen begrenzten Teil des Web zu untersuchen? Wir beginnen unsere Untersuchung mit der von Mendelzon und Milo vorgeschlagenen Webmaschine [1]. Wir überprüfen die Generizität, Domänenunabhängigkeit und Berechenbarkeit von Webabfragen. Wir präsentieren eine syntaktische Klasse lokaler Webabfragen und einen soliden Algorithmus, um zu überprüfen, ob eine Abfrage zu dieser Klasse gehört. Anschließend untersuchen wir den Begriff der Lokalität zweier populärer XML-Abfragesprachen, nämlich XPath und XQuery, und zeigen, dass sie nicht lokal sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78849-2_27 1e053442c801074dd5e79d872b9a373a;de;;;7.3.;;;Community-Netzwerke und die Entwicklung der Bürgerintelligenz Obwohl sich die intrinsische Körperlichkeit des Menschen seit Jahrtausenden nicht verändert hat, ist es der Spezies gelungen, die physische und soziale Welt, in der sie lebt, grundlegend zu rekonstruieren. Obwohl das Wort „tiefgreifend“ nicht ausreicht, um die gewaltigen Veränderungen zu beschreiben, die unsere Welt durchgemacht hat, ist es neutral genug, um sowohl die Möglichkeiten – als auch die;-;-;-;https://link.springer.com/article/10.1007/s00146-009-0260-z f9c1f187fab556c9a841724f9cf59603;de;;;7.3.;;;Verteilte Versionierung: Konsistente Replikation zur Skalierung von Back-End-Datenbanken dynamischer Inhaltswebsites Websites mit dynamischem Inhalt bestehen aus einem Front-End-Webserver, einem Anwendungsserver und einer Back-End-Datenbank. In diesem Whitepaper stellen wir die verteilte Versionierung vor, eine neue Methode zur Skalierung der Back-End-Datenbank durch Replikation. Die verteilte Versionsverwaltung bietet sowohl die Konsistenzgarantien der Eager Replication als auch die Skalierungseigenschaften der Lazy Replication. Dies geschieht durch die Kombination einer neuartigen Parallelitätskontrollmethode, die auf expliziten Versionen basiert, mit konfliktbewusster Abfrageplanung, die die Anzahl von Sperrkonflikten reduziert. Wir evaluieren die verteilte Versionierung mithilfe von drei dynamischen Inhaltsanwendungen: dem TPC-W-E-Commerce-Benchmark mit seinen drei Workload-Mixen, einem Auktions-Site-Benchmark und einem Bulletin-Board-Benchmark. Darüber hinaus zeigen wir, dass die Vorteile einer entspannenden Konsistenz begrenzt sind, mit Ausnahme des konfliktreichen TPC-W-Bestellmixes.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44892-6_15 d48117131ac9531e96cc689d2dadecee;de;;;7.3.;;;Ein fokussierter Crawler für Web Feature Service und Web Map Service Discovering Durch die Globalisierung und den technologischen Fortschritt der letzten Jahrzehnte entstehen vor allem im Web täglich große Datenmengen. Webdienste sind eines der Hauptartefakte, die im Web erstellt werden. Sie können den Zugriff auf Datenquellen vieler Größen und Typen ermöglichen. In dieser Arbeit nähern wir uns der Herausforderung, einen Web Crawler zu entwerfen und zu evaluieren, um zwei OGC (Open Geospatial Consortium) Webservice-Standards zu finden: WFS (Web Feature Service) und WMS (Web Map Service). Kommerzielle Suchmaschinen, z. B. Google und Bing, leisten als Allzwecksuchmaschinen zweifellos einen nützlichen Job. Einige Anwendungen benötigen jedoch domänenspezifische Suchmaschinen und Web-Crawler, um detaillierte Informationen im Web zu finden. Daher präsentiert diese Arbeit;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-60952-8_12 94852fec5599ea5ab3443e81c8878f1f;de;;;7.3.;;;Entdecken von Klartext-beschriebenen Diensten basierend auf Ontologie-Lernen In diesem Papier stellen wir einen Ansatz vor, um domänenspezifische Dienste, die durch Klartext über das Internet beschrieben werden, effizient zu erkennen. Klartextbeschriebene Service-Anzeigen machen die überwiegende Mehrheit der Service-Anzeigen über das Internet aus, aber die aktuelle Forschung konzentriert sich selten auf diesen Bereich. Um dieses Problem anzugehen, entwickeln wir einen domänenontologiebasierten Ansatz für die automatische Erkennung von Diensten im Klartext. Dieser Ansatz umfasst eine im Klartext beschriebene Service-Ontologie für die Standard-Servicebeschreibung, ein im Klartext beschriebenes Service-Discovery-Framework für domänenrelevante Service-Discovery und Ontologie-Lernen und ein auf maschinellem Lernen basierendes Modell für ontologiebasierte Service-Funktionalitätsannotation. Die experimentellen Ergebnisse zeigen, dass dieser Ansatz in der Lage ist, relevantere Klartext-beschriebene Dienste effizient zu entdecken als andere Ansätze.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12643-2_81 40a5e295411da6f6b1fd92ab69ae296c;de;;;7.3.;;;Erkennung und Abwehr von Insider-Bedrohungen in datenbankgestützten Webdiensten In diesem Whitepaper unternehmen wir den ersten Schritt, um die Lücke zwischen den Sicherheitsanforderungen bei ausgelagerten Hosting-Diensten und dem in der aktuellen Praxis gebotenen Schutz zu schließen. Wir betrachten sowohl Insider- als auch Outsider-Angriffe in den Webhosting-Szenarien von Drittanbietern. Wir präsentieren;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02056-8_8 d564c4f58d13c774dcdcb89cdc2417e2;de;;;7.3.;;;IglooG: Ein verteilter Web-Crawler basierend auf Grid-Service Webcrawler ist ein Programm zum Herunterladen von Dokumenten von der Website. In diesem Papier wird das Design eines verteilten Webcrawlers auf einer Grid-Plattform vorgestellt. Dieser verteilte Webcrawler basiert auf unserer früheren Arbeit Igloo. Jeder Crawler wird als Grid-Service bereitgestellt, um die Skalierbarkeit des Systems zu verbessern. Informationsdienste in unserem System sind für die Verteilung von URLs zum Lastenausgleich der Crawler verantwortlich und werden als Grid-Dienst bereitgestellt. Informationsdienste sind als Peer-to-Peer-Overlay-Netzwerk organisiert. Anhand der ID des Crawlers und des semantischen Vektors der Crawling-Seite, die von Latent Semantic Indexing berechnet wird, kann der Crawler entscheiden, ob er die URL an den Informationsdienst übermittelt oder sich selbst hält. Wir präsentieren eine Implementierung des verteilten Crawlers auf Basis von Iglu und simulieren die Umgebung von Grid, um die Lastverteilung auf den Crawlern und die Crawlgeschwindigkeit zu bewerten. Sowohl die theoretische Analyse als auch die experimentellen Ergebnisse zeigen, dass unser System ein leistungsstarkes und zuverlässiges System ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-31849-1_21 8698a0b713d2941d8a4784bc55f509b6;de;;;7.3.;;;Ansätze zur effizienten Abfrageoptimierung mit Semantic-Web-Technologien Das Abfrageoptimierungssystem schlägt einen antwortgesteuerten Ansatz für den Informationszugriff vor. Der größte Teil des Abfrageoptimierungssystems zielt auf den Informationsabruf ab, der für Abfragen in natürlicher Sprache erforderlich ist. Anfragen werden im Allgemeinen innerhalb eines Kontexts gestellt und Antworten werden innerhalb dieses spezifischen Kontexts bereitgestellt. RDF ist eine allgemeine Vorschlagssprache für das Web, die Daten aus verschiedenen Ressourcen zusammenführt. SPARQL, eine Abfragesprache für RDF, kann Daten aus verschiedenen Datenbanken sowie Papiere, Inferenz-Engines oder alles andere zusammenführen, das seine Expertise als geführtes klassifiziertes Diagramm offenbart. Aufgrund des Fehlens einer angemessenen Architekturzirkulation haben die bestehenden SPARQL-zu-SQL-Übersetzungstechniken tatsächlich viele Einschränkungen gekürzt, die ihre Robustheit, Effektivität und Zuverlässigkeit verringern. Zu diesen Einschränkungen gehören die Generierung ineffektiver oder möglicherweise falscher SQL-Abfragen, das Fehlen einer offiziellen Historie und fehlerhafte Anwendungen. Dieses Papier empfahl eine Struktur, die von einem ontologiebasierten Moderatorensystem verwendet wird, um das wohldefinierte semantische Design bereitzustellen, das (i) eine unterschiedliche SPARQL-Semantik liefert, die verwendet wird, um die Frage in SQL umzuschreiben, (ii) ontologiebasiertes Fachwissen ist erstellt für eine schnelle Zugänglichkeit sowie eine gleichberechtigte Überarbeitung von SPARQL zu SQL für eine zuverlässige Informationsabfrage in semantischen Internetdaten großer Datenmengen, (iii) ein hybrides Framework zur Abfrageoptimierung wird für die Abfragebehandlungstechnik für den effektiven Zugriff auf benutzerdefinierte Details der semantischen Internetherstellung vorgeschlagen Nutzung gebündelter Ontologie-Expertise und Inferenz-Engine.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2043-3_47 9e07eca8fbacd99fa1903a8d6631989a;de;;;7.3.;;;DDoS-Minderung in nicht kooperativen Umgebungen Distributed Denial of Service (DDoS)-Angriffe haben das Internet seit vielen Jahren heimgesucht. Wir schlagen ein System zur Abwehr von DDoS-Angriffen in einer nicht kooperativen Umgebung vor, in der vorgelagerte Zwischennetzwerke einen wirtschaftlichen Anreiz erhalten müssen, damit sie bei der Angriffsabwehr kooperieren. Das Fehlen solcher Anreize ist eine der Hauptursachen für den seltenen Einsatz verteilter DDoS-Abwehrsysteme. Unser System basiert auf spieltheoretischen Prinzipien, die jedem teilnehmenden AS (Autonome Systeme) nachweislich Anreize bieten, dem Opfer seine wahren Verteidigungskosten zu melden, das die kosteneffizientesten (und dennoch effektivsten) Verteidiger-AS berechnet und kompensiert. Wir präsentieren auch Simulationsergebnisse mit realen AS-Level-Topologien, um die wirtschaftliche Machbarkeit unseres Ansatzes zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79549-0_52 1a18231d5e8a1c92474642377424626f;de;;;7.3.;;;Minimierung des SSO-Aufwands bei der Überprüfung von SSL-Anti-Phishing-Indikatoren Bei einer Online-Transaktion sendet ein Benutzer seine persönlichen sensiblen Daten (z. B. Passwort) zur Authentifizierung an einen Server. Dieser Vorgang wird als Single Sign-On (SSO) bezeichnet. Vorbehaltlich von Phishing- und Pharming-Angriffen können die sensiblen Daten an einen Gegner weitergegeben werden, wenn der Benutzer dazu verleitet wird, einen gefälschten Server zu besuchen. Es wurde viel über Anti-Phishing-Methoden geforscht und die meisten basieren auf der Verbesserung der Sicherheit des Browserindikators. In diesem Whitepaper stellen wir einen völlig anderen Ansatz zur Abwehr von Phishing- und Pharming-Angriffen vor. Unsere Methode basiert auf einem verschlüsselten Cookie. Es markiert die sensiblen Daten mit dem öffentlichen Schlüssel des Servers und speichert ihn als Cookie auf dem Computer des Benutzers. Wenn der Benutzer den Server besucht, um eine Online-Transaktion durchzuführen, werden die sensiblen Daten im Cookie mit dem gespeicherten öffentlichen Schlüssel des Servers verschlüsselt. Der Geheimtext kann nur vom echten Server entschlüsselt werden. Unser verschlüsseltes Cookie-Schema (ECS) hat den Vorteil, dass der Benutzer den SSL-Indikator im Transaktionsprozess ignorieren kann. Die Sicherheit ist selbst dann gewährleistet, wenn der Benutzer ein bösartiges selbstsigniertes Zertifikat akzeptiert. Dieser Vorteil entlastet den Benutzer erheblich von der Überprüfung des SSL-Indikators, was selbst für einen erfahrenen Benutzer sehr schwierig sein kann, wenn die Phishing-Angriffe ein ausgeklügeltes Visionsdesign haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09699-5_4 f335ec33482bf82e65ee02fafce98173;de;;;7.3.;;;Arbeiten in einem dynamischen Umfeld: Der NeP4B-Ansatz als MAS Die Integration heterogener Informationen im Kontext des Internets wird zu einer Schlüsselaktivität, um einen organisierteren und semantisch sinnvolleren Zugriff auf verschiedene Arten von Informationen in Form von Datenquellen, Multimediadokumenten und Webdiensten zu ermöglichen. In NeP4B (Networked Peers for Business), einem vom italienischen Ministerium für Universität und Forschung geförderten Projekt, haben wir einen Ansatz entwickelt, um eine einheitliche Darstellung von Daten, Multimedia und Diensten bereitzustellen, sodass Benutzer Datensätze, multimediale Dokumente und Listen erhalten können von Webservices als Abfrageergebnisse. NeP4B basiert auf einem P2P-Netzwerk semantischer Peers, die über automatisch generierte Mappings miteinander verbunden sind. In diesem Papier stellen wir eine neue Architektur für NeP4B vor, die auf einem Multi-Agenten-System basiert. Wir behaupten, dass eine solche Lösung dank der Autonomie und Intelligenz der Agenten in einer dynamischen Umgebung, in der häufig Quellen zum Netzwerk hinzugefügt (oder gelöscht) werden, effizienter und effektiver ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31809-2_11 5a4368fa5991518ca2afc0f9f25168b1;de;;;7.3.;;;Erlernen des Aufrufens von Webformularen Neue Webstandards versprechen ein Netzwerk heterogener und dennoch interoperabler Webdienste. Web Services würden die Entwicklung vieler Arten von Datenintegrationssystemen, Informationsagenten und Wissensmanagementanwendungen erheblich vereinfachen. Leider erfordert diese Vision, dass Dienste erhebliche Mengen an expliziten semantischen Metadaten „Klebstoff“ bereitstellen. Als einen Schritt zur automatischen Generierung solcher Metadaten präsentieren wir einen Algorithmus, der lernt, Webformulare mit semantischen Labels zu versehen, und evaluieren unseren Ansatz an einer großen Sammlung echter Webdaten. Die Schlüsselidee besteht darin, die Klassifizierung von Webformularen als Bayes'sches Lernen und Inferenz über ein generatives Modell des Webformulardesignprozesses zu übertragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39964-3_63 854f3cdbc2c1eca425b81697c0595d7f;de;;;7.3.;;;Legalurn: Ein Framework zum Organisieren und Surfen von Rechtsdokumenten im Web Das Identifizieren von Ressourcen ist ein kritisches Thema im Wide Web-Informationsraum. Es wurden mehrere Identifikationssysteme definiert, die jeweils auf eine bestimmte Domäne oder ein bestimmtes Anwendungsfeld zugeschnitten sind und durch viele Einschränkungen gekennzeichnet sind. In diesem Beitrag beschreiben wir ein Identifikationssystem nach URN-Spezifikation, das speziell für den Rechtsbereich definiert und implementiert wurde und dabei mehrere innovative Funktionen bietet. Das System ermöglicht die einfache Verwaltung von Verweisen auf juristische Dokumente und die Automatisierung des verteilten Hyperlinking-Erstellungsprozesses. Darüber hinaus stellt das System einen Auflösungsdienst bereit, der dem logischen Identifikator eine physische Ressource (z. B. URL) und andere Einrichtungen zuordnet, um semantische Kohärenz und Eindeutigkeit in der Aufgabe der einheitlichen Namenszuordnung sicherzustellen. Schließlich skizzieren wir kurz zukünftige Arbeiten bezüglich der Möglichkeit, andere relevante Eigenschaften im Rechtsbereich zu untersuchen, indem Gesetze als gerichteter Graph dargestellt werden.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-29773-1_21 70174356d0a70c62b9f99f1316bdd890;de;;;7.3.;;;Die BUAP-Teilnahme am Web Service Discovery Track von INEX 2010 Um in WSDL-Dateien enthaltene Texte zu nutzen, wurde ein erster Ansatz zur Web-Service-Erkennung basierend auf Techniken aus Information Retrieval (IR), Natural Language Processing (NLP) und XML Retrieval entwickelt. Es berechnet den Ähnlichkeitsgrad zwischen Wörtern und ihre relative Bedeutung, um die Aufgabe der Erkennung von Webdiensten zu unterstützen. Der erste Algorithmus verwendet die in den WSDL-Spezifikationen (Web Service Description Language) enthaltenen Informationen und gruppiert Webservices basierend auf ihrer Ähnlichkeit. Ein zweiter Ansatz, der auf einem Information-Retrieval-System basiert, das Begriffe unter Verwendung einer invertierten Indexstruktur indexiert, wurde ebenfalls verwendet. Beide Algorithmen werden angewendet, um 25 Themen in einem Set von 1947 realen Webservices (alle von INEX bereitgestellt) zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23577-1_33 8a5c9d8577fd11d7a4c6fc6f03543b91;de;;;7.3.;;;Kairos: Proaktives Sammeln von Forschungspapier-Metadaten von wissenschaftlichen Konferenz-Websites Wir untersuchen das automatische Sammeln von Forschungspapier-Metadaten aus aktuellen wissenschaftlichen Veranstaltungen. Unser System Kairos kombiniert einen fokussierten Crawler und eine Informationsextraktionsmaschine, um eine Liste von Konferenzwebsites in einen Index zu konvertieren, der mit Metadatenfeldern gefüllt ist, die einzelnen Beiträgen entsprechen. Mithilfe von Metadaten zum Veranstaltungsdatum, die von der Konferenz-Website extrahiert wurden, sammelt Kairos proaktiv Metadaten zu den einzelnen Beiträgen, kurz nachdem sie veröffentlicht wurden. Wir verwenden einen Maximum Entropy Classifier, um Uniform Resource Locators (URLs) als wissenschaftliche Konferenzwebsites zu klassifizieren und verwenden Conditional Random Fields (CRF), um einzelne Papiermetadaten aus solchen Websites zu extrahieren. Experimente zeigen für jede der beiden Komponenten ein akzeptables Maß an Klassifikationsgenauigkeit von über 95 %.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13654-2_28 bcd57bd170d9d575bb377c48874175c2;de;;;7.3.;;;Über das Erfassen von Semantik beim Ontologie-Mapping Die semantische Interoperabilität zwischen unterschiedlichen Systemen in offenen, verteilten Umgebungen ist zum Wunsch vieler Praktiker in einer Vielzahl von Bereichen geworden. Eine Möglichkeit, ein solches Ziel zu erreichen, ist das Ontologie-Mapping. Die perspektivischen Benutzer einer solchen Technologie stehen jedoch vor einer Reihe von Herausforderungen, einschließlich der Mehrdeutigkeit der Bedeutung von Mappings, Schwierigkeiten bei der Erfassung der Semantik, der Wahl der richtigen Ontologie-Mapping-Tools, der Verifizierung und Validierung der Ergebnisse und der Operationalisierung in der begünstigten semantischen Webanwendung . In diesem Beitrag präsentieren wir eine Formalisierung von Ontologien und ein Dreiecksmodell für die Ontologie-Mapping-Probleme. Diese Formalisierung des Ontologie-Mappings spiegelt die Engineering-Schritte wider, die erforderlich sind, um ein vielseitiges Mapping-System zu verwirklichen, um die in Ontologien verkörperte Semantik, die die grundlegenden Anforderungen der semantischen Web-Umgebung sind, originalgetreu wiederzugeben. Wir tragen dieser Formalisierung weiter mit einer Reihe von spezialisierten Algorithmen Rechnung, die auf bestimmte Aspekte der semantischen Erfassung abzielen. Schließlich haben wir die vorgeschlagenen Algorithmen mittels Ontologie-Mapping-Benchmark-Tests evaluiert.;-;-;-;https://link.springer.com/article/10.1007/s11280-008-0042-4 05d3b807b5cf411fc0766296ac71ac9a;de;;;7.3.;;;Neuordnung und Clustering von Webseiten basierend auf Webmustern In diesem Beitrag wurde eine Methode zur Beschreibung von Webseiten anhand von Webmustern vorgeschlagen. Wir erklären, was wir unter dem Begriff „Webmuster“ verstehen. Wir werden eine Taxonomie von Webmustern und eine Beschreibung einiger ihrer Typen präsentieren. Bei der Beschreibung von Webmustern konzentrieren wir uns auf Eigenschaften, die für die automatische Erkennung auf Webseiten nützlich sind. Als Ergebnis der Erkennung erhalten wir eine Beschreibung einer Webseite anhand von gefundenen Webmustern. Die Beschreibung kann zum Neuordnen und Clustern eines Webseitensatzes verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77566-9_63 e57a372b1ebe0f16d0a655e8427a415b;de;;;7.3.;;;SATELIT-Agent: Eine adaptive Schnittstelle basierend auf Learning Interface Agents Technologie Agent Dieser Artikel stellt einen adaptiven Schnittstellenagenten für SATELIT vor, ein System, das Methoden der Künstlichen Intelligenz und Hypermedia-Technologie integriert. SATELIT wird im Internet implementiert, dargestellt als eine Reihe von interaktiven World Wide Web (WWW)-Seiten mit ihren eigenen Funktionalitäten. Der Lernagent SATELIT wurde für die adaptive Schnittstellenpflege entwickelt und verfolgt je nach Intention des Benutzers zwei Hauptziele. Erstens ist es in der Lage, das Profil von SATELIT-Experten zu unterscheiden, deren Zweck es ist, eine SATELIT-Anwendung zu erstellen, und bietet ihnen eine spezielle Schnittstelle. Das zweite Ziel von SATELIT-Agent ist eine Antwort auf das allgemeine Hypermedia-Problem des „Verlierens im Hypermedia-Raum“. Mit Hilfe eines lernenden Schnittstellenagenten leitet SATELIT ein Analogon der Suchanforderungen des Benutzers ab und hilft ihm, diese zu erreichen, und schlägt gute Navigationsrouten vor. Auf diese Weise fungiert der SATELIT-Agent als aktiver Browser, der den Benutzer interaktiv unterstützt und führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-2670-7_3 e3fa7fa0ab907b6c5f0cbba6dd79d453;de;;;7.3.;;;Informationszugriffsgeräte Handheld-Computer bilden die größte Gruppe von mit dem Internet verbindbaren, allgegenwärtigen Geräten. Sie sind klein, leicht und passen in Taschen. Ein Stift wird verwendet, um auf einen Touchscreen zu tippen, um Anwendungen zu aktivieren oder Daten einzugeben. Derzeit werden zwei Hauptbetriebssysteme auf Handheld-Geräten verwendet: Palm OS und Windows CE.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-04318-9_2 8469617faeb22ec81064020d6fe5152c;de;;;7.3.;;;Das Paradigma des mobilen Agenten trifft auf digitale Dokumententechnologie: Designing for autonome Media Collection Mobile Agenten haben sich als neues Paradigma für das Computing herausgebildet und erweisen sich im Client-Server-Modell als flexibler und dynamischer als der durchschnittliche Client. Im Modell des mobilen Agenten wird das Programm an die entfernte Maschine gesendet und läuft auf dieser, wodurch näher an der entfernten Dokumentressource und interaktiver mit ihr operiert wird. Während die Industrie derzeit größtenteils zurückhaltend ist, haben sich Forschungslabore das Konzept zu eigen gemacht und effektive Prototypen sind entstanden. AgentSys ist ein solches mobiles Agentensystem, das von der Agent Group am Multimedia Information Research Laboratory [26] entwickelt wurde. Dieser Prototyp implementiert die Protokolle (AgenTask, AgenTransact, AgenTransfer), die erforderlich sind, damit Agenten autonom durch ein Netzwerk digitaler Ressourcen wandern, Informationen intermittierend sammeln und mit Ergebnissen an den Benutzer zurückkehren können. Während mit dem Paradigma des mobilen Agenten sowohl die Netzwerkbandbreite als auch die Benutzersuchzeit reduziert werden können, erfordert ein solches System Protokolle auf Agentensprache, Ontologie, Übertragung und Anwendungsebene. Dieses Papier schlägt vor: (i) einen Agenten-Stack, um ein mobiles Agentensystem zu ermöglichen, (ii) die Agentenprotokolle, die für die Interaktion zwischen Agenten und digitalen Dokumenten erforderlich sind, (iii) eine tiefgreifende neue Denkweise von Dokumenten innerhalb des Paradigmas mobiler Agenten und (iv) Lösungen für kritische Probleme bei der Übertragung von mobilen Agenten und der Aufgabenspezifikation in Bezug auf die autonome Sammlung digitaler Dokumente. Dies umfasst sowohl die Übertragung von multimedialer mobiler Agentenfracht als auch neuartige Techniken zur Spezifikation des Agentenverhaltens innerhalb der Dokumentenaufgabe. Eine kurze quantitative Analyse des Websurfing-Paradigmas im Vergleich zum Mobile-Agent-Paradigma ist enthalten, um die Behauptungen über Einsparungen beim Netzwerkverkehr durch Agenten zu rechtfertigen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1009655532580 ed1a44ab4d93f7bcb15aa009fe321433;de;;;7.3.;;;Kollaborative Websuche Das Internet ist die größte Dokumentensammlung, die die Menschheit je erstellt hat. Freiwillige Beiträge von Millionen von Internetnutzern auf der ganzen Welt und eine dezentrale, autonome Hosting-Infrastruktur sind die einzigen Faktoren, die das kontinuierliche Wachstum des Internets vorantreiben. Laut der Webserver-Umfrage von Netcraft (http://news.netcraft.com/) wurden im Oktober 2011 rund 18 Millionen Websites zum Internet hinzugefügt, was einer Gesamtzahl von 504,08 Millionen entspricht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03807-0_4 79d9a822335ffde987283de20f710f99;de;;;7.3.;;;Robuste Codes Die vielen Codes in diesem Kapitel haben eines gemeinsam, sie sind robust. Alle Fehler, die sich in eine Reihe solcher Codes einschleichen, können entweder erkannt (oder sogar automatisch korrigiert) werden oder haben nur begrenzte Auswirkungen und breiten sich nicht unbegrenzt aus. Das Kapitel beginnt mit einer Diskussion der Prinzipien von Fehlerkontrollcodes.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84628-959-0_3 93bc5f57dad333ceec8992ee49e87741;de;;;7.3.;;;Sicherheitsökonomie und Europapolitik Im September 2007 erhielten wir von der Europäischen Agentur für Netz- und Informationssicherheit (ENISA) den Auftrag, Versäumnisse auf dem Markt für sichere elektronische Kommunikation innerhalb der Europäischen Union zu untersuchen und politische Empfehlungen auszuarbeiten. Dabei sprachen wir mit einer Vielzahl von Interessenträgern und hielten im Dezember 2007 in Brüssel eine Konsultationssitzung ab, um Entwurfsvorschläge vorzulegen, von denen die meisten eine breite Unterstützung der Interessenträger fanden. Das formelle Ergebnis unserer Arbeit war ein ausführlicher Bericht mit dem Titel „Sicherheitsökonomie und Binnenmarkt“, der im März 2008 von der ENISA veröffentlicht wurde unsere Begründung.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09762-6_3 5924e57eef0384cbf31d0fa6311a2ae0;de;;;7.3.;;;Aufrechterhaltung der zeitlichen Integrität von World Wide Web-Seiten Im World Wide Web (WWW) wird eine große Menge zeitlicher Informationen bereitgestellt. Für einen Webmaster ist es äußerst schwierig, diese Informationen ohne Inkonsistenzen zu pflegen. Die geschäftlichen und wettbewerblichen Aspekte der Aufrechterhaltung der zeitlichen Integrität werden erörtert. Wir präsentieren ein Konzept zur Unterstützung der Pflege von WWW-Seiten durch einen Java-Agenten, der versucht, zeitliche Informationen zu identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35317-3_3 d2eab33a49a7cc3dad0ba22244ffc140;de;;;7.3.;;;Eine empirische Untersuchung der Auswirkungen von Websuchmerkmalen auf Entscheidungen im Zusammenhang mit der Eindrucksbildung Es ist mittlerweile allgemein bekannt, dass Informationen im World Wide Web von Menschen genutzt werden, um sich Fakten zu verschaffen, bevor sie Entscheidungen treffen. Vor diesem Hintergrund stellt sich die interessante Frage, ob und wie solche Eindrücke durch die Eigenschaften der Informationsquelle selbst verzerrt werden können. Beeinflussen beispielsweise bei Suchergebnissen zu einer Person die Menge und die Reihenfolge der Ergebnisse den Eindruck, der über die betreffende Person entsteht? Die Frage gewinnt an Bedeutung, wenn man bedenkt, dass diese Faktoren Entscheidungen von erheblicher Tragweite und greifbare Konsequenzen, wie zum Beispiel in Bezug auf die Beschäftigung, beeinflussen können und gleichzeitig diese Faktoren weitgehend außerhalb der Kontrolle der Betroffenen liegen. In diesem Papier bezeichnen wir durchsuchbare digitale Informationen über eine Person im Web als;-;-;-;https://link.springer.com/article/10.1007/s10796-009-9177-9 400c53dae057070ccc73e24f5dbfbb7e;de;;;7.3.;;;Erforschung und Anwendung einer Gebäudeüberwachungsplattform basierend auf dem Internet der Dinge Erforschte das Design einer Gebäudeüberwachungsplattform basierend auf dem Internet der Dinge und erreichte die Funktion der Überwachung von Echtzeitinformationen mehrerer Knoten über ein Web. Unser System verwendet den STM32F407 als Master-Chip, um die Konvertierung der Daten in verschiedene Kommunikationsprotokolle abzuschließen. Auf der Benutzerseite sendet der STM32F407 als Webserver die Webseite, die die Knotendaten enthält, an die Clients, auf der Knotenseite realisiert der STM32F407 die Interaktion der Knoten durch das Funkmodul nRF24L01. Um eine gute Skalierbarkeit zu erreichen, wird zwischen Mikrocontroller und Knoten ein spezielles Protokoll verwendet. Dieses Papier beschreibt Architektur und Arbeitsprinzip, Software- und Hardwaredesign des Systems, veranschaulicht das in diesem System verwendete Kommunikationsprotokoll, analysiert einige Probleme im Zusammenhang mit dem Überwachungssystem und schlägt Lösungen vor. Verwandte Experimente zeigen, dass das System stabil ist, die Erweiterungsfähigkeit der Knoten leistungsstark ist und das System die Anforderungen der meisten Anwendungen der drahtlosen Überwachung erfüllt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-00536-2_10 abbfe5a461d4d87f196fb63157e03938;de;;;7.3.;;;Forschung zu semantischen Metadaten Online-Hilfskonstruktionsplattform und Schlüsseltechnologien Die Semantisierung von Bibliotheksressourcen ist der allgemeine Trend in einer vernetzten Umgebung, daher schlagen wir Methoden vor, die Technologien zur Verarbeitung natürlicher Sprache und maschinelles Lernen verwenden, um den Semantisierungsprozess von Bibliotheksressourcen zu fördern. Wir entwickeln eine Online-Hilfskonstruktionsplattform für semantische Metadaten von chinesischen Informationsressourcen, um eine semantische Kennzeichnung von verwandter Literatur zu erstellen, und generieren erste semantische Metadaten, indem wir traditionelle Organisationsressourcen (wie Thesaurus) mit maschinellen Lernmethoden verwenden, die auf der relativen Semantisierung einer großen Menge von Inhalten basieren , und realisieren gleichzeitig die Implementierung der Konstruktion von semantischen Metadatensystemen und der Semantisierung von organisatorischen Ressourcen. Das in diesem Beitrag vorgeschlagene System kann helfen, die semantischen Metadaten von wissenschaftlichen und technischen Informationen basierend auf dem Web zu erstellen und aktuelle semantische Technologien zu nutzen, um einen Domänen-Thesaurus zu realisieren und verschiedene Arten von Metadaten effektiv zu integrieren, es kann auch die Bearbeitung realisieren , Entwicklung und Pflege eines bestimmten semantischen Metadatenprojekts durch automatisches oder Hilfskonstruieren des semantischen Metadatensystems unter Verwendung des halbstrukturierten Textes. Die Realisierung und Implementierung dieser Methode kann technische Unterstützung und theoretische Referenzen bieten, um den Fortschritt der semantischen Annotation von chinesischen Ressourcen zu beschleunigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45185-0_72 5453f9b0b2fb78985dbb5684eddea761;de;;;7.3.;;;Testen des Zugriffs auf externe Informationsquellen in einer Mediatorenumgebung In diesem Beitrag wird das Testen der Kommunikation in der immer wichtiger werdenden Klasse verteilter Informationssysteme diskutiert, die auf einer Mediatorarchitektur basieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35497-2_8 9b984406374951a14086b425e565b0f9;de;;;7.3.;;;Die Nutzung sozialer Medien in arabischen Ländern: Ein Fall von Saudi-Arabien Soziale Medien oder sogenannte soziale Websites sind zu einer entscheidenden Methode für die Kommunikationsentwicklung geworden und zu einem Schlüsselfaktor für die Art und Weise, wie Einzelpersonen und Organisationen auf der ganzen Welt ein kollaboratives Umfeld schaffen. Trotz der Tatsache, dass soziale Medien unter Einzelpersonen weit verbreitet sind, ist nicht gut verstanden, wie kulturelle Probleme und individuelle Motivationen ihre soziale und berufliche Nutzung beeinflussen. Dieses Papier zielt darauf ab, die Nutzung sozialer Medien durch Einzelpersonen in Saudi-Arabien zu untersuchen und zu untersuchen, indem ein quantitativer Ansatz verwendet wird, um die Auswirkungen kultureller Einschränkungen auf die Motivation des Einzelnen, die Einstellung der Benutzer, das Absichtsverhalten und deren tatsächliche Nutzung zu untersuchen und zu verstehen. Basierend auf den Studienergebnissen werden die Einstellung und das Verhalten von Einzelpersonen zur Nutzung von Social Media diskutiert und Vorschläge für die zukünftige Arbeit gemacht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36608-6_13 2d2441785115b8783823800f4f4a0bcd;de;;;7.3.;;;Visualisierung von Datenübertragungspfaden Im jABC wurde ein Workflow zur Visualisierung von Serververbindungen mit der Google Maps API erstellt. Es verwendet drei grundlegende Dienste: Ein XML-basierter Webdienst für die Geolokalisierung von IP-Adressen, ein Befehlszeilentool und die Static Maps API. Das Ergebnis des Workflows ist eine URL, die zu einer Bilddatei einer Karte führt und Serververbindungen zwischen einem Client und einem Zielhost anzeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45006-2_11 9c4fdebe463303e08e64f2301ef6ffed;de;;;7.3.;;;Ein hierarchisches Fuzzy-Clustering-basiertes System zum Erstellen von Benutzerprofilen Die rasche Entwicklung des World Wide Web als ein Medium des Handels und der Informationsverbreitung hat ein wachsendes Interesse von Webportalmanagern an Systemen geweckt, die in der Lage sind, Benutzerprofile aus den Webzugriffsprotokollen zu identifizieren. Die Interpretation dieser Profile kann helfen, das Webportal neu zu organisieren, z. B. durch eine effizientere Neustrukturierung der Seiteninhalte, oder sogar adaptive Webportale aufzubauen, d. h. Portale, deren Organisation und Darstellung sich je nach den spezifischen Bedürfnissen des Besuchers ändert. In diesem Beitrag gehen wir davon aus, dass die Seiten des Webportals in verschiedene Kategorien vorgeordnet wurden. Wir führen einen systematischen Ansatz ein, um eine Hierarchie von Benutzerprofilen aus der Historie der Zugriffe der Benutzer auf die Kategorien zu bestimmen. Zuerst filtern wir das Zugriffsprotokoll, indem wir sowohl gelegentliche Benutzer als auch Kategorien von geringem Interesse entfernen. Dann wenden wir einen Unsupervised Fuzzy Divisive Hierarchical Clustering (UFDHC)-Algorithmus an, um die Benutzer des Webportals in eine Hierarchie von Fuzzy-Gruppen zu gruppieren, die durch eine Reihe gemeinsamer Interessen gekennzeichnet sind und jede durch einen Prototyp repräsentiert wird, der das Profil der typischen Gruppe definiert Mitglied. Um das Profil eines bestimmten Benutzers zu identifizieren, schlagen wir ein neuartiges Klassifizierungsverfahren vor, das die in der Hierarchie enthaltenen Informationen vollständig ausnutzt. Um die Wirksamkeit unseres Ansatzes zu beweisen, wenden wir den UFDHC-Algorithmus auf Zugriffsprotokolldaten an, die über einen Zeitraum von 15 Tagen gesammelt wurden, und verwenden die Klassifizierungsmethode, um ein Profil mit den Benutzern zu verknüpfen, die durch Zugriffsprotokolldaten definiert wurden, die in den folgenden 60 Tagen gesammelt wurden. Schließlich heben wir die guten Eigenschaften unseres Systems hervor, indem wir unsere Ergebnisse mit denen vergleichen, die wir durch die Anwendung eines Profiling-Systems erhalten haben, das auf einer modifizierten Version des Fuzzy-C-Means basiert.;-;-;-;https://link.springer.com/article/10.1007/s00500-006-0074-6 995be791a864b7447e536dfea8a52fb5;de;;;7.3.;;;Die Rolle der Informatik im koordinierten Management von Sammlungen biologischer Ressourcen Der Begriff „biologische Ressourcen“ wird für lebendes biologisches Material verwendet, das in Kultursammlungen gesammelt, aufbewahrt und katalogisiert wird: Bakterien- und Pilzkulturen, tierische, menschliche und pflanzliche Zellen, Viren und isoliertes genetisches Material. Eine Fülle von Informationen zu diesen Materialien wurde in Kultursammlungen gesammelt, und die meisten dieser Informationen sind zugänglich. Die Digitalisierung von Daten hat ein hohes Niveau erreicht, jedoch sind die Informationen noch immer verstreut. Es wurden individuelle und koordinierte Ansätze eingeleitet, um die Zugänglichkeit von Zentren für biologische Ressourcen, ihren Beständen und zugehörigen Informationen über das Internet zu verbessern. Diese Ansätze umfassen Themen wie die Standardisierung der Datenhandhabung und des Datenzugangs sowie die Standardisierung und Qualitätskontrolle von Laborverfahren. Dieser Artikel gibt einen Überblick über einige der wichtigsten bisher umgesetzten Initiativen sowie die jüngsten Errungenschaften. Außerdem werden die möglichen Verbesserungen erörtert, die durch die Einführung neuer Kommunikationsstandards und -technologien wie Webdienste im Hinblick auf eine tiefere und fruchtbarere Integration von Informationen über biologische Ressourcen in die Bioinformatik-Netzwerkumgebung erreicht werden könnten.;-;-;-;https://link.springer.com/article/10.2165/00822942-200594030-00002 66d1adae62e0227d284f09c76562ecea;de;;;3.3.;;;Analyse des gesellschaftspolitischen Inhalts von Internetressourcen basierend auf hybriden neuronalen Netztechnologien Um soziokulturellen Bedrohungen und Cyberbedrohungen sowie ideologischem Extremismus entgegenzuwirken, müssen unerwünschte Inhalte von Informationsquellen identifiziert werden, in erster Linie der Inhalt von Internetressourcen. Bedeutende Mengen sowie die semantische und lexikologische Vielfalt von Internetinhalten machen es erforderlich, Methoden der künstlichen Intelligenz (KI) für die neuronale Netzanalyse zu verbessern, um potenzielle Bedrohungen und unerwünschte Inhalte zu identifizieren. Das Problem wird durch das Vorhandensein von „Informationsmüll“ in den untersuchten Inhalten kompliziert, bei dem es sich um ein spezifisches Informationsrauschen handelt. Es kann mit neuronalen Netztechnologien gelöst werden, einschließlich Frequenzvorverarbeitung von Textarrays, Begründung der Struktur und Konstruktion einer subjektorientierten Datenbank von Textdatenkörpern, Begründung und experimentelle Untersuchung der Architektur des hybriden KNN basierend auf der Vektordarstellung von vorgefertigte Wörterbücher. Die Autoren begründen einen modifizierten Ansatz zur Erkennung von expliziten oder latenten soziokulturellen und Cyberbedrohungen durch neuronale Netze, die im Informationsgehalt von Internetressourcen enthalten sind. Thematische Wörterbücher, die für die neuronale Netzklassifikation von Texten verwendet werden, werden basierend auf einer Computeranalyse des Ziel-Internetinhalts vorgefertigt. Ein Ensemble von kombiniertem KNN wird basierend auf einer Kombination von Faltungs-, vollständig verbundenen und rekursiven Schichten aufgebaut, die darauf abzielen, Textinhalte zu identifizieren, die unerwünschte Informationen enthalten, einschließlich soziotechnischer und Cyber-Bedrohungen. Der Wiedererkennungsgrad thematischer Texte wird im Bereich von 0,79…0,85 erreicht. Als Ergebnis erhielten wir eine Reihe neuronaler Netzbewertungen typischer RSS-Feeds, die auf den Kriterien erkannter Anzeichen von expliziten oder latenten soziokulturellen und Cyberbedrohungen basieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1480-4_11 a76d1e0d6b8480fb7b85a47db33ff13a;de;;;3.3.;;;Beziehung zwischen digitalem Zwilling und Software-Ökokette Um sich an das 4.0-Zeitalter der Industrie anzupassen, müssen Unternehmen aller Art digitale Mittel einsetzen, um die Produktentwicklung zu beschleunigen und die Effizienz von Entwicklung und Produktion zu verbessern. All dies erfordert von Unternehmen die vollständige Digitalisierungsfähigkeit, die auf dem Digital Twin basiert. Um eine wissenschaftliche, rationale, professionelle und genaue digitale Zwillingsstruktur aufzubauen, ist die wichtigste Technologie die industrielle Simulationssoftware. Durch die Analyse der Schlüsseltechnologien des beliebten Digital Twin-Konzepts zeigt dieser Beitrag die Schwächen des heimischen Softwaremarktes im Vergleich zum Ausland auf und analysiert auf dieser Grundlage den Zusammenhang zwischen dem Aufbau einer perfekten Software-Ökokette und der Anwendung des Digital Twin Technologie und kommt zu dem Schluss, dass es für Chinas industrielle Entwicklung sehr wichtig ist, eine technologiebasierte ökologische Kette der Softwareindustrie aufzubauen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6609-1_66 22ad5f34306f1137da7bd5bc4b64508c;de;;;3.3.;;;Einfache Hardware-Implementierung MMPF für manövrierende Zielverfolgung: Algorithmus und Architektur In diesem Papier stellen wir einen einfach zu implementierenden Multi-Model-Partikelfilter (MMPF) für die manövrierende Zielverfolgung vor. In dem vorgeschlagenen Filter wird das SIR-Filter (Sampling Importance Resampling), das typischerweise für nichtlineare und/oder nicht-Gaußsche Anwendungen verwendet wird, auf die Einbeziehung mehrerer Modelle erweitert, die aus einem Modell mit konstanter Geschwindigkeit (CV) und einem „aktuellen“ statistischen (CS) bestehen. Modell, und der Independent Metropolis Hasting (IMH) Sampler wird für die Resampling-Einheit in jedem Modell verwendet. Verglichen mit dem Bootstrap-MMPF erfordert das vorgeschlagene MMPF keine Kenntnis von Modellen und Modellübergangswahrscheinlichkeiten für verschiedene Manövrierbewegungen und behält jederzeit eine konstante Anzahl von Partikeln pro Modell bei. Dies ermöglicht eine regelmäßige Pipeline-Hardwarestruktur und kann leicht in Hardware implementiert werden. Darüber hinaus vermeidet die Verwendung des IMH-Samplers für die Resampling-Einheit den durch den traditionellen systematischen Resampler verursachten Engpass und reduziert die Latenz der gesamten Implementierung. Simulationsergebnisse zeigen, dass der vorgeschlagene Filter eine ungefähr gleiche Tracking-Leistung wie der Bootstrap-MMPF aufweist. Die Hardwarearchitektur des IMH-Samplers und seiner entsprechenden Sample-Einheit wird vorgestellt, und eine parallele Architektur bestehend aus einem CV-Modell-Verarbeitungselement (PE), einem CS-Modell-PE und einer Zentraleinheit (CU) wird beschrieben. Die vorgeschlagene Architektur wird auf einer Xilinx Virtex-II Pro FPGA-Plattform für eine manövrierende Zielverfolgungsanwendung evaluiert und die Ergebnisse zeigen viele Vorteile des vorgeschlagenen MMPF gegenüber bestehenden Ansätzen in Bezug auf Effizienz, geringere Latenz und einfache Hardwareimplementierung.;-;-;-;https://link.springer.com/article/10.1007/s11265-010-0450-4 25c935395dfc6acfe8b0862219347c1f;de;;;3.3.;;;Identifizieren von zustandsfreien vernetzten Tags Herkömmliche RFID-Technologien ermöglichen es Tags, mit einem Lesegerät zu kommunizieren, aber nicht untereinander. Durch die Möglichkeit der Peer-Kommunikation zwischen benachbarten Tags stellen die neu entstehenden vernetzten Tags eine wesentliche Verbesserung der heutigen RFID-Tags dar. Sie unterstützen Anwendungen in bisher nicht realisierbaren Szenarien, in denen die Lesegeräte aus Kosten- oder physikalischen Gründen nicht alle Tags abdecken können. In diesem Kapitel wird ein grundlegendes Problem bei der Identifizierung vernetzter Tags vorgestellt. Um die Lebensdauer vernetzter Tags zu verlängern und Identifikationsprotokolle auf große Systeme skalierbar zu machen, sind Energieeffizienz und Zeiteffizienz äußerst wichtig. Wir zeigen, dass das traditionelle konkurrenzbasierte Protokolldesign zu viel Energieaufwand in Multihop-Tag-Systemen verursacht, während ein leserkoordiniertes Design, das Tag-Übertragungen signifikant serialisiert, viel besser abschneidet. Darüber hinaus zeigen wir, dass der Lastausgleich wichtig ist, um die Energiekosten im schlimmsten Fall für die Tags zu reduzieren, und stellen eine Lösung auf der Grundlage von Seriennummern vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-47355-0_4 4cc278edcdab8211854cd54dd492a0e3;de;;;3.3.;;;Eine Machbarkeitsstudie zur Verwendung der NeuCube Spiking Neural Network Architektur zur Modellierung von Alzheimer-EEG-Daten Das Papier präsentiert eine Machbarkeitsanalyse einer neuartigen Spiking Neural Network (SNN)-Architektur namens NeuCube [10] zur Klassifizierung und Analyse funktioneller Veränderungen der Gehirnaktivität von Elektroenzephalographie (EEG)-Daten, die in zwei Gruppen gesammelt wurden: Kontrolle und Alzheimer-Krankheit (AD). Es wurden hervorragende Klassifikationsergebnisse von 100 % Testgenauigkeit erzielt und diese auch mit traditionellen maschinellen Lernverfahren verglichen. Die Ergebnisse bestätigten, dass der NeuCube besser geeignet ist, um EEG-Daten und die beteiligten Gehirnprozesse zu modellieren, zu klassifizieren, zu interpretieren und zu verstehen. Zukünftige Anwendungen eines NeuCube-Modells werden diskutiert, einschließlich seiner Verwendung als Indikator für den frühen Beginn einer leichten kognitiven Beeinträchtigung (MCI), um die Degeneration der Pathologie in Richtung AD zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-18164-6_16 4e7b1650a1ca6a989e310ffaf25d92fd;de;;;3.3.;;;Eine Zeitmultiplex-Architektur für die Kommunikation zwischen Neuronen Dieses Papier präsentiert eine Hardware-Implementierung einer Time Multiplexing Architecture (TMA), die Arrays von Neuronen in einem künstlichen neuronalen Netzwerk (ANN) mit einem einzigen Metalldraht verbinden kann. Der Ansatz nutzt die relativ langsame Betriebsgeschwindigkeit des biologischen Systems, indem schnelle digitale Hardware verwendet wird, um sequentiell Neuronen in einer Schicht abzutasten und die zugehörigen Spitzen an Neuronen in anderen Schichten zu übertragen. Die Motivation für diese Arbeit ist die Entwicklung von Hardware für die Kommunikation zwischen Neuronen mit minimaler Fläche. Eine Schätzung der Dichte von Neuronen auf dem Chip, die dieser Ansatz bietet, wird präsentiert. Die Arbeit verifiziert die Funktion des TMA und untersucht Impulsübertragungsfehler in Abhängigkeit von der Abtastrate. Simulationen mit dem Xilinx System Generator (XSG)-Paket zeigen, dass die Auswirkung dieser Fehler auf die Leistung eines SNN, das zur Lösung des XOR-Problems vortrainiert wurde, bei ausreichend hoher Abtastfrequenz vernachlässigbar ist.;-;-;-;https://link.springer.com/chapter/10.1007/11840817_98 7e0ba916acc9d3fc20dfe6d0d00f319d;de;;;3.3.;;;Bewertung der Fairness im Message Broker-System mit Clustered Architecture und Mirrored Queue Das Papier präsentiert eine Leistungsbewertung eines Message Broker-Systems in verschiedenen Hochverfügbarkeitskonfigurationen. Wir verifizieren verschiedene Redundanzarchitekturen gegen die Warteschlangensystemleistung am Beispiel des Rabbit MQ-Systems. Wir diskutieren Fairnessprobleme und stellen fest, dass die Replikation von Warteschlangen zu erheblichen Unterschieden in der Leistung führen kann, die Clients angeboten wird, die mit verschiedenen Knoten des Messagingsystems verbunden sind. Basierend auf der Analyse schlagen wir Cluster-Architekturen vor, die eine faire Zuweisung von Ressourcen an mehrere Clients ermöglichen und gleichzeitig die Redundanz und hohe Leistung beibehalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09465-6_42 5d48f16267f2d311e579659176632bfb;de;;;3.3.;;;Softwaredefinierte Netzwerkreaktive Stateful Firewall Die Netzwerksicherheit ist ein entscheidendes Thema von Software Defined Networking (SDN). Es ist wahrscheinlich eines der Schlüsselmerkmale für den Erfolg und die zukünftige Verbreitung der SDN-Technologie. Aus dieser Perspektive schlagen wir eine reaktive SDN-Stateful-Firewall vor. Unsere Lösung ist in die SDN-Architektur integriert. Die Anwendung filtert die TCP-Kommunikation gemäß den Netzwerksicherheitsrichtlinien. Es erfasst und verarbeitet die unterschiedlichen Zustände von Verbindungen und interpretiert ihre möglichen Übergänge in OpenFlow (OF)-Regeln. Der Vorschlag verwendet ein reaktives Verhalten, um die Anzahl der OpenFlow-Regeln in den Geräten auf der Datenebene zu reduzieren und einige Denial-of-Service (DoS)-Angriffe wie SYN-Flooding abzuschwächen. Die Firewall verarbeitet die Finite State Machine von Netzwerkprotokollen, um nutzlosen Verkehr, der nicht den Bedingungen ihrer Übergänge entspricht, zurückzuziehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-33630-5_9 d8d1233f5020eece4832218e9cef7070;de;;;3.3.;;;Design und Implementierung der SPEEX-Sprachtechnologie auf dem ARM-Prozessor Das Ziel dieses Papiers ist die Implementierung der SPEEX-Sprachkompressionstechnologie auf einem ARM-Prozessor. SPEEX ist eine Sprachkomprimierungstechnologie, die auf dem Algorithmus Code Excited Linear Prediction (CELP) basiert. Es hat eine niedrige Bitrate, eine hohe Auflösung und unterstützt eine Vielzahl von Signalabtastraten, sodass die Stimme effektiv komprimieren und auch die Sprachintegrität bewahren kann. Für den Hardwareteil verzichten wir auf teure, leistungsstarke digitale Signalprozessoren (DSPs), sondern wählen den ARM-Prozessor der STM32-Serie von STMicroelectronics. Die SPEEX-Sprachkompressionstechnologie wird auf den STM32-Prozessor übertragen, und SPEEX-codierte Daten werden über den Sender an den Empfänger übertragen und schließlich werden die codierten Daten über die Decodierungsseite zur Wiedergabe wiederhergestellt. Der Versuch gliedert sich in zwei Teile. Zuerst geben wir über das SPEEX-codierte Sinuswellensignal Daten in den ARM-Decoder ein und verwenden das Oszilloskop, um die Differenz nach dem Codieren und Decodieren der Signale zu vergleichen. Die andere erfolgt durch PESQ zur Überprüfung der Sprachqualität und wird mit der traditionellen ADPCM-Sprachqualität verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7850-7_7 7af26a4ecb763e1d7c58bb4ed580e071;de;;;3.3.;;;Parallele Leistungsvorhersage Ein enttäuschender Kontrast bei Parallelsystemen besteht zwischen der Spitzenleistung der Parallelsysteme und der tatsächlichen Leistung paralleler Anwendungen. Mit zunehmender Größe und Komplexität paralleler Systeme wird der Kontrast immer wichtiger, was die Suche nach Metriken, Techniken und Werkzeugen rechtfertigt, die es den Benutzern ermöglichen, die Ursachen der Leistungsverschlechterung zu verstehen. Das Verständnis der Leistung ist nicht nur wichtig, um die Effizienz von Anwendungen zu verbessern, sondern auch um Verbesserungen an parallelen Architekturen und parallelen Programmierumgebungen zu leiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5147-8_5 237437ca1e11ef90a602d6bdd7d445d9;de;;;3.3.;;;Anwendungsgesteuerte IPC-Synchronität – ein ereignisgesteuerter Multithread-Ansatz Interprozesskommunikation (IPC) ist ein wichtiges Phänomen in verteilten Computer- und Betriebssystemen. Mikrokernel moderner Betriebssysteme verwenden synchrone IPC-Semantik für jeden einzelnen Prozess. Andererseits kann ein Prozess die nicht blockierende IPC-Semantik ausnutzen. In beiden Fällen liegt der Kontrollmechanismus in der Hand des zugrunde liegenden Betriebssystems. IPC-Monitore öffnen sich für Fehlinterpretationen von IPC-Zeitüberschreitungsereignissen aufgrund von Thread-Nichtverfügbarkeit in dynamischen Multithread-Systemen. In diesem Beitrag schlagen wir eine auf verteilte Systeme anwendbare Softwarearchitektur vor, die den Prozessen die Entscheidung über die IPC-Semantik während der Ausführung überträgt, sodass sie von Fall zu Fall und Bedarf flexibel blockierende und nicht blockierende Semantik mischen können. Darüber hinaus wird das Konzept des Thread-Pools eingeführt, um die Möglichkeit einer Fehlinterpretation von IPC-Timeout-Ereignissen durch Monitore auszuschließen. Arbeitsthreads in einem Threadpool werden effektiv geplant, um die Verschwendung von Verarbeitungszeit und den dynamischen Thread-Overhead zu minimieren. Ereignisgesteuerte und Multithread-Systemmodelle stehen sich während der Ausführung diagonal gegenüber. Unsere Architektur nutzt jedoch die Vorteile eines ereignisgesteuerten Modells mit denen eines Multithread-Modells auf fruchtbare Weise, um Parallelität und Schutz zu nutzen. Die Softwareimplementierung unserer vorgeschlagenen Architektur erfolgt als Middleware-Erweiterung auf dem Kommunikationssubsystem von Windows-Betriebssystemen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44862-4_109 36640033fe7440971fd77e16422b04f3;de;;;3.3.;;;Verifizierung komponentenbasierter Softwareanwendungsfamilien Wir präsentieren einen neuartigen Ansatz, der die formale Verifikation komponentenbasierter Softwareanwendungsfamilien mittels Model Checking erleichtert. Dieser Ansatz ermöglicht ein effektives kompositorisches Denken, indem die Formulierung von Komponenteneigenschaften und deren Umgebungsannahmen erleichtert wird. Dieser Ansatz integriert eine Bottom-up-Komponentenverifikation und eine Top-down-Systemverifikation basierend auf dem Konzept der Application Family Architectures (AFA). Die Kernelemente einer AFA sind Architekturstile und wiederverwendbare Komponenten. Wiederverwendbare Komponenten einer Familie werden im Kontext ihrer Architekturstile definiert und ihre Korrektheitseigenschaften in Bottom-up-Komponentenzusammensetzungen überprüft. Die Top-Down-Systemverifizierung verwendet Architekturstile, um die Zerlegung von Eigenschaften eines Systems in Eigenschaften seiner Komponenten und Formulierung von Annahmen für die Komponenteneigenschaften zu führen. Die Komponenteneigenschaften werden wiederverwendet, wenn sie bereits verifiziert sind, andernfalls werden sie top-down rekursiv verifiziert. Die architekturgesteuerte Eigenschaftszerlegung erleichtert die Wiederverwendung verifizierter Komponenteneigenschaften. Vorläufige Fallstudien haben gezeigt, dass unser Ansatz eine Reduzierung der Verifizierungskomplexität um Größenordnungen erreicht und eine größere Wiederverwendung der Verifizierung realisiert.;-;-;-;https://link.springer.com/chapter/10.1007/11783565_4 fc75b5a66e94b3295300e988c166563e;de;;;3.3.;;;Lineare Softwaremodelle sind theoretische Standards der Modularität Modularität ist unerlässlich, um aus COTS-Komponenten (Commercial Off-The-Shelf) gut komponierte Softwaresysteme zu erhalten. Aber COTS-Komponenten passen nicht unbedingt zu den Modulen des entworfenen Softwaresystems. Für die Auswahl der notwendigen und ausreichenden Komponenten mit den erforderlichen Funktionalitäten ist ein klares Vorgehen erforderlich. Lineare Softwaremodelle sind strenge theoretische Standards der Modularität. Diese Modelle werden als formale Kriterien für gut zusammengestellte Softwaresysteme vorgeschlagen. Das Papier legt theoretische Grundlagen – auf linearen Unabhängigkeits- und reduzierbaren Matrixkonzepten – fest und gibt bekannten Softwarekonzepten wie Kopplung und dem Single-Responsibility-Theorem präzise Bedeutungen. Die Theorie verwendet eine Modularitätsmatrix, die linear unabhängige Softwarestruktoren mit zusammensetzbaren Softwarefunktionen verbindet. Die Theorie wurde getestet, indem sie auf kleine kanonische Systeme und auf große Softwaresysteme aus der Literatur angewendet wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45404-2_14 19b21c842e49f5f660bd471f3ecb8d06;de;;;3.3.;;;Hybride Speicherarchitektur für vernetzte Digital Signage-Systeme Digital Signage wurde kürzlich als eines der digitalen Medien der nächsten Generation hervorgehoben. Es spielt eine bestimmte Reihe von Multimedia-Inhalten verschiedener Qualität ab, nachdem sie von einem großen Speicher über WAN (wie FTP-Server) auf seine lokale Festplatte begrenzter Größe heruntergeladen wurden. Mit anderen Worten, der Beginn seiner Spielzeit kann bis zu einem gewissen Grad verzögert werden, wenn die Downloadzeit der Inhalte länger wird. In diesem Whitepaper schlagen wir eine hybride Speicherarchitektur für vernetzte Digital Signage vor, um die Downloadzeit von Inhalten zu beschleunigen. Die vorgeschlagene Architektur umfasst nicht nur eine iSCSI-Speicherschicht zwischen der lokalen Festplatte und dem WAN-basierten großen Speicher, sondern bietet auch einen neuartigen Content-Caching-Algorithmus. Umfangreiche Performance-Experimente an einem Simulator und dessen Prototyp mit unterschiedlichen Workloads zeigen, dass die vorgeschlagene Architektur andere mögliche Architekturen in Bezug auf die Downloadzeit der Inhalte um das Dreifache übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27210-3_2 1891d24e86952b2db73687f3245b0eeb;de;;;3.3.;;;Bahnplanung für mobile Indoor-Roboter mit QR-Code Mobile Roboter, die die Automatisierungsanforderungen erfüllen, werden häufig in servicebasierten Umgebungen wie Lagerhallen, Hotels, Krankenhäusern, Restaurants usw. eingesetzt. Die Wegplanung zum Erreichen des Ziels von einer Quelle ist eine entscheidende Aufgabe für jeden mobilen Roboter. Ein Planungsalgorithmus für leere Pfade mit einer gegebenen Quelle und einem Ziel sollte einen kürzesten Pfad mit weniger Rechenzeit autonom planen. In dieser Arbeit wird Quick Response (QR) Code als Wegpunkt/Wahrzeichen in der Umgebung verwendet. QR-Code ist ein 2D-Barcode, der mehr Daten speichert als ein herkömmliches Barcode-System. Die Pfadmatrix, die Navigationsinformationen enthält, um über Punkte oder Ziele in der Nähe zu erreichen, ist im QR-Code gespeichert. Diese QR-Codes werden strategisch auf dem Boden platziert, sodass ein mobiler Roboter bei einem gegebenen Ziel auf der kürzesten Route ohne allgemeine Umgebungsinformationen navigieren kann. Das vorgeschlagene System wird mit einem intern gebauten omnidirektionalen mobilen Roboter implementiert und getestet, der von BeagleBone Black angetrieben wird. Die erhaltenen Ergebnisse beweisen, dass der mobile Roboter seinen Zielpunkt genau erreichen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2612-1_65 ab399965c5de55164de670fee0e9701e;de;;;3.3.;;;Optimierung von Funktionszusammenfassungen durch Interpolation Zwei der in diesem Buch vorgestellten statischen Analysetechniken verwenden Craig-Interpolation, ein Mittel der Überapproximation, um eine effiziente SAT-basierte symbolische Modellprüfung zu erreichen. Verschiedene Verifikationsanwendungen verwenden Interpolanten für unterschiedliche Zwecke, es ist unwahrscheinlich, dass ein einziges Interpolationsverfahren für alle Fälle geeignete Interpolanten liefern könnte. Dieses Kapitel beschreibt das PeRIPLO-Framework, einen interpolierenden SAT-Solver, der eine Reihe von Techniken zum Generieren und Manipulieren von Interpolanten für verschiedene Modellprüfungsaufgaben implementiert. Auch wenn das PeRIPLO-Framework neben der statischen Analyse für viele andere Zwecke verwendet werden kann, werden wir damit auf interessante Weise die Vorteile und Herausforderungen des Craig-Interpolations-basierten Bounded Model Checking veranschaulichen. Wir demonstrieren die Flexibilität des Frameworks in zwei softwaregebundenen Modellprüfungsanwendungen, die in den Kap.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10623-6_7 a8727cafc70513d313c6d886e4e7f58a;de;;;3.3.;;;Ein Lastausgleichsmechanismus für ein softwaredefiniertes WLAN-Netzwerk mit mehreren Controllern Softwaredefinierte WLAN-Netzwerke (SD-WiFi) führen zu einem vielversprechenden Entwicklungspfad, indem sie Änderungen im Netzwerkverkehr unterstützen, eine zentralisierte Netzwerkbereitstellung bereitstellen und eine flexible Ressourcenzuweisung ermöglichen. Der Lastausgleich bleibt aufgrund der gestiegenen Anzahl von WLAN-Benutzern weiterhin ein schwieriges Thema. In diesem Papier schlagen wir einen effizienten algorithmischen Ansatz vor, um das Problem des Lastungleichgewichts in SD-WiFi zu lösen. Von Benutzern erzeugter Verkehr, der die Last bildet, kommt an WiFi-Zugangspunkten (APs) an. Die Support Vector Machine (SVM) trennt den Verkehr in eine Klasse mit hoher Priorität (HP) und eine Klasse mit niedriger Priorität (LP) unter Berücksichtigung von Flussfristen und Flusstypen. Controller sind in zwei Ebenen angeordnet: globale und lokale Controller. Die lokalen Controller (LC) aktualisieren ihre Lastinformationen periodisch an den globalen Controller (GC). Der binäre Suchbaum (BST) wird im GC verwendet, um den am wenigsten belasteten LC für die Flussverarbeitung zu finden. Der OMNeT++-Simulator wird verwendet, um umfangreiche Simulationen zur Leistungsbewertung des vorgeschlagenen SVM-BST-Schemas durchzuführen. Das vorgeschlagene SVM-BST-Schema übertrifft die Lastinformationsstrategie und EASM-Schemata beim Durchsatz um 50–200 % und bei der Reaktionszeit um 20–30 %.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-78615-1_1 7866952e1c20acd9c406be88f82ae42b;de;;;3.3.;;;Auf dem Weg zu einem autonomen Ansatz für softwaredefinierte Netzwerke: Ein Überblick Unter dem neuen Paradigma Software Defined Networking (SDN), das die Entkopplung der Steuerungsebene von der Datenebene beinhaltet und die Bereitstellung von Steuerungsebenen auf externen Servern ermöglicht, ist es unser Hauptziel, einen Überblick über die Architektur zu geben, die Probleme der Netzwerk-QoS effektiv lösen kann durch diese Trennung. Das übergeordnete Ziel besteht darin, die Verwendung von SDN-Netzen als Eckpfeiler eines Kommunikationssystems zu untersuchen und zu bewerten, das verteilte Anwendungen effektiv unterstützen kann, deren Anforderungen sich im Laufe der Zeit ändern. In diesem Papier konzentrieren wir uns insbesondere auf das Problem der Controller-Platzierung in SDN, wobei die Latenz, Ausfallsicherheit, Zuverlässigkeit, Skalierbarkeit und andere Netzwerkleistung optimiert werden. Die technischen Lösungen für diese Probleme werden untersucht, um die Komponenten von SDN zu identifizieren, die verbessert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-1627-1_12 de53875b956d20110702e9778c1ba493;de;;;3.3.;;;Hoher Durchsatz in Slices: Der Fall von PRESENT-, PRINCE- und KATAN64-Chiffren In diesem Beitrag werden High-Throughput-Assembly-Implementierungen von PRESENT-, PRINCE- und KATAN64-Chiffren für die ATtiny-Familie von AVR-Mikrocontrollern vorgestellt. Wir melden neue Durchsatzrekorde, die eine Geschwindigkeit von 2967 Taktzyklen pro Blockverschlüsselung für PRESENT, 1803 Zyklen für PRINCE und 23671 Zyklen für KATAN64 erreichen. Darüber hinaus bieten wir Einblicke in die „Slicing“-Techniken, die für hohen Durchsatz verwendet werden, und deren Anwendung auf leichtgewichtige kryptografische Implementierungen. Wir demonstrieren auch den Speed-Memory-Kompromiss, indem wir Hochdurchsatz-Implementierungen mit großen Speicheranforderungen konstruieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13066-8_9 19313c4baabcf7d69f8afcdbc892b5a0;de;;;3.3.;;;Eine serviceorientierte Architektur für die Untersuchung hochleistungsfähiger Modelle mit verteilter Stromversorgung Stromnetze enthalten zunehmend hochwertige Sensorgeräte mit hohem Durchsatz in Stromverteilungsnetzen. Diese Geräte führen zu einem beispiellosen Anstieg der Menge und Rate der verfügbaren Informationen. Die Echtzeitanforderungen für die Verarbeitung dieser Daten übersteigen die Kapazität konventioneller Strommodelle, die in zentralen Versorgungsunternehmen laufen. Daher untersuchen wir dezentrale Strommodelle, die auf regionaler Ebene eingesetzt werden. Die Anbindung dieser Modelle für eine größere geografische Region wird durch eine verteilte Systemarchitektur unterstützt. Diese Architektur ist in einem serviceorientierten Stil aufgebaut, wobei verteilte Leistungsmodelle, die auf Hochleistungsclustern ausgeführt werden, als Dienste bereitgestellt werden. Jeder Service ist semantisch annotiert und kann daher über einen Servicekatalog entdeckt und in Workflows zusammengestellt werden. Die Gesamtarchitektur wurde als integrierte Workflow-Umgebung implementiert, die für Energieforscher nützlich ist, um neu entwickelte verteilte Energiemodelle zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34321-6_59 d8a97559ab169998eed11b3cf3d92c0d;de;;;3.3.;;;Funkempfänger für Mobilfunknetze: Mögliche Architekturen mit ΣΔ-Wandler Wir erklären zunächst die Einschränkungen, die einem Empfänger für digitale zellulare Systeme auferlegt werden, bevor wir zeigen, wie sie mit den Standardarchitekturen (direkte Umwandlung und Superheterodyn) gehandhabt werden. Wir stellen dann einen neuen Ansatz vor, der auf der direkten Abtastung der Zwischenfrequenz in einem Superheterodyn-Empfänger unter Verwendung eines Analog-Digital--Wandlers im Durchlassbereich basiert. Wir geben Entwurfsregeln, um die Komplexität des Systems zu minimieren und untersuchen in diesem Rahmen das Interesse von unterabgetasteten ΣΔ-Wandlern, die insbesondere die Stabilitätsprobleme ansprechen. Durch Undersampling kann die Verarbeitungslast im digitalen Teil des Wandlers im Vergleich zu einer Standard-ΣΔ-Wandlung reduziert werden. Das letzte Kapitel ist einer Darstellung von Mobilfunknetzen gewidmet, um die Einschränkungen zu rechtfertigen, die an Empfänger, die für diese Umgebung ausgelegt sind, gestellt werden.;-;-;-;https://link.springer.com/article/10.1007/BF02995501 738c4888c06a898e583ff7775cc30408;de;;;3.3.;;;Nicht-kodierende RNAs und eine geschichtete Architektur genetischer Netzwerke In eukaryontischen Zellen machen proteinkodierende Sequenzen einen relativ kleinen Teil des Genoms aus. Der Rest des Genoms wird in nicht-kodierende RNAs (ncRNAs) transkribiert. Solche RNAs bilden den Grundstein eines regulatorischen Netzwerks, das parallel zum Proteinnetzwerk arbeitet. Ihre biologischen Funktionen basieren hauptsächlich auf der Fähigkeit, sich mit Ziel-Messenger-RNAs (mRNAs) zu paaren und diese zu deaktivieren. Um die wahrscheinliche Rolle von ncRNAs in komplexen genetischen Netzwerken zu klären, präsentieren und analysieren wir ein kinetisches Modell eines der wichtigsten Gegenstücke der Netzwerkarchitekturen. Insbesondere wird angenommen, dass die in ncRNAs transkribierten Gene mit einem hierarchischen zweischichtigen Satz von Genen, die in mRNAs transkribiert wurden, zusammenwirken. Die Gene, die die untere Schicht bilden, werden von oben reguliert und sind negativ selbstreguliert. Ist die erstgenannte Regulation positiv, zeigt sich die Abhängigkeit der RNA-Populationen von den bestimmenden Parametern oft nicht monoton. Insbesondere sagt das Modell die Bistabilität voraus. Bei negativer Regulation ist die Abhängigkeit der RNA-Populationen von den bestimmenden Parametern monoton. Insbesondere ist die Population der mRNAs, die den Genen der unteren Schicht entsprechen, nahezu konstant.;-;-;-;https://link.springer.com/article/10.2478/s11534-010-0025-9 c888832e2219e0309ab546a726d3b0f4;de;;;3.3.;;;Hardware-/Software-Co-Design für Bild-Kreuzkorrelation Kreuzkorrelation ist ein wichtiger Bildverarbeitungsalgorithmus für den Vorlagenvergleich, der bei Systemen auf der Grundlage von Computer Vision weit verbreitet ist. Diese Arbeit folgt einer profilbasierten Hardware/Software-Co-Design-Methode, um eine Architektur für die Berechnung der normalisierten Kreuzkorrelationskoeffizienten unter Verwendung des Nios II-Softprozessors zu entwickeln. Die Ergebnisse zeigen Vergleiche zwischen der Allzweckprozessorimplementierung und verschiedenen angepassten Softprozessorimplementierungen unter Berücksichtigung der Ausführungszeit und des Einflusses der Bild- und Teilbildgröße. Nios II-Softprozessoren, die mit Gleitkomma-Hardwarebeschleunigung konfiguriert sind, erreichten eine Geschwindigkeit von 8,31.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22247-4_14 5aea01e6bc7d957b6d5eb904bcd7c603;de;;;3.3.;;;Zuverlässige Personenerkennung mit Entfernungs- und Intensitätsdaten aus mehreren Schichten von Laser-Entfernungsmessern auf einem mobilen Roboter Zuverlässige Personenerkennung ist eine wichtige Aufgabe in mehreren Bereichen wie Sicherheit, intelligente Umgebungen und Mensch-Roboter-Interaktion. Die Personenerkennung hängt nicht nur von der Trennung statischer Umgebungsobjekte von denen ab, die sich bewegen (hoffentlich Menschen), ein zuverlässiges System sollte auch in unübersichtlichen Umgebungen statische Personen erkennen können.;-;-;-;https://link.springer.com/article/10.1007/s12369-010-0086-3 7be3c8f4d3bb62c3da7763fdfec730df;de;;;3.3.;;;Worst-Case-Analyse von zerlegtem Software-Pipelining für zyklisches einheitliches RCPSP mit Vorrangverzögerungen In diesem Artikel behandeln wir ein zyklisches Scheduling-Problem beim Finden eines periodischen Schedulings mit minimaler Periode für das zyklische Scheduling-Problem mit einheitlicher Ressourcenbeschränkung. Die Hauptoriginalität besteht darin, sowohl mit Verzögerungen der Vorrangstellung als auch mit komplexen Ressourceneinstellungen umgehen zu können, die das Problem;-;-;-;https://link.springer.com/article/10.1007/s10951-010-0220-y a516d4d08a7a9895010db0ac439b42a4;de;;;3.3.;;;Intelligente Verhandlungsagentenarchitektur für den SLA-Aushandlungsprozess im Cloud Computing Cloud Service Provider (CSP) stellt mehrere Dienste über das Netzwerk bereit und die Auswahl der Ressourcen erfolgt durch einen intelligenten Matching-Agenten zwischen CSP und Verbraucher. Im Cloud-Markt verhandeln Verbraucher und CSP miteinander über den Ressourcenbedarf. Aufgrund der großen Anzahl von CSPs auf dem Markt ist der Wettbewerb sehr hoch. Der automatisierte Verhandlungsagent ist sehr gefragt, um Verhandlungen in kürzester Zeit mit maximaler Erfolgsrate durchzuführen. Die Verhandlungen müssen auf Preis, Ressourcen, zuverlässigem CSP, maximalem Nutzwert und anderen Qualitätsfaktoren erfolgen. Aufgrund dynamischer Veränderungen auf dem Markt und zunehmender Konkurrenz durch CSPs, falscher Verhandlungen, unzuverlässiger Server und hoher Preise treten Probleme auf. Ein automatisierter intelligenter Agent produziert eine Lösung, die das Verhalten des Gegners und die Anforderungen beider Seiten versteht, und diese Faktoren gehen in die Verhandlung über und sorgen für die beste Übereinstimmung zwischen Verbraucher und CSP. Die vorgeschlagene Architektur des Verhandlungsagenten verbessert den Verhandlungsprozess spürbar, indem sie die Verhandlungszeit und eine hohe Erfolgsrate reduziert und hilft auch, zuverlässige Dienste bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4087-9_62 4bd6a55c55d9f08f04739f8986a86c55;de;;;3.3.;;;Virtuelle Retusche von zerstörten Fresken In dieser Studie präsentieren wir die Ergebnisse der Anwendung der virtuellen Farbrestaurierung auf den zerstörten Fresken der Kirche des Heiligen Johannes (im Innenhof des Campus II der Universität West Attika). Um das Innere und Äußere des Denkmals zu erfassen, wurden in zwei unterschiedlichen Perioden dreidimensionale Scantechnologie und Photogrammetrie implementiert. Im Jahr 2010 wurden das Scannen durch terrestrische Laserscanner und die Erfassung des Innenraums durchgeführt. Die Dokumentation mittels Photogrammetrie fand 2016 statt. Aufgrund des umfangreichen Vandalismus im Inneren beschränkte sich die aktuelle Dokumentation nur auf das Äußere des Denkmals. Für die Anwendung der digitalen Farbrestauration haben wir uns zunächst entschieden, die drei Retuschetechniken in der virtuellen Umgebung individuell anzuwenden: chromatische Abstraktion, neutrale Farbe und mimetische Farbrestaurierung. Da das optische Ergebnis der virtuellen Eingriffe ästhetisch nicht korrekt war, haben wir uns entschieden, zeitgenössische ästhetische Ansätze sowie grundlegende Retuschetechniken zu kombinieren und auf originelle Weise anzuwenden: chromatische Abstraktion, neutrale Farbe und mimetische Farbrestaurierungstechnik, die zu einer a neue Mischmethode. Gemäß Artikel 9 der Charta von Venedig zielt die Retusche darauf ab, den ästhetischen Wert des Denkmals in Bezug auf seinen historischen Wert wiederherzustellen und muss dort aufhören, wo die Vermutung beginnt. Darüber hinaus sollten sich die Retuschetechniken durch die authentische Malschicht sichtbar abheben und jeder Eingriff sollte auf archäologischen und historischen Erkenntnissen beruhen. Daher entsprach der beschlossene Arbeitsablauf dem Ethikkodex zur Erhaltung des Kulturerbes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-12957-6_11 17c31651c79c28499e405ca88cb26198;de;;;3.3.;;;Schlüsselabruf von der AES-Architektur durch Hardware-Trojaner Die Untersuchung von Hardware-Trojanern und ihren Auswirkungen ist heute ein hochmodernes Forschungsthema. Hardware-Trojaner (HTH) werden von einem Gegner entweder während der Entwurfs- oder Herstellungsphase des IC eingefügt, der die böswilligen Änderungen in der Schaltung vornimmt. Das Hauptziel dieses Papiers besteht darin, zwei neue Hardware-Trojaner-Designs in Kryptosysteme einzufügen und ihre Auswirkungen durch Berechnung von Pfadverzögerung, Stromverbrauch und Flächennutzung zu untersuchen. Insbesondere wurde der vorgeschlagene Trojaner mit einem einzigen Trigger mit einer Struktur mit mehreren Nutzlasten entwickelt. Diese Designs werden auferlegt, um die böswillige Aktion der Fehlerinjektion in der vorletzten Mixcolumn von AES-128 auszuführen, die es ermöglicht, den gesamten geheimen 128-Bit-Schlüssel mit minimaler Aktivierungszeit auf den HTHs durch Ausführen einer Differential Fault Analysis (DFA) zu extrahieren. Beide von Trojanern eingefügten AES-Designs sind auf den Virtex-5-FPGAs von Xilinx implementiert. Die vorgeschlagenen Trojaner-Designs HT1 und HT2 haben einen minimalen Flächen-Overhead von 0,7 % bzw. 1,5 % mit einem Frequenz-Overhead von jeweils 2 %. Vorausgesetzt, die entwickelten Modelle haben im Vergleich zum ursprünglichen AES einen vernachlässigbaren Einfluss auf die Pfadverzögerung und den Stromverbrauch.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-5826-5_37 cf17a696f82ecdfd473ebd27c07bb010;de;;;3.3.;;;Hardwarearchitekturen für elliptische Kurven-Kryptoprozessoren mit polynomialer und Gaußscher Normalbasis über GF(2 Diese Arbeit präsentiert effiziente Hardware-Architekturen für elliptische Kurven-Kryptoprozessoren mit polynomialer und Gaußscher Normalbasis. Die Skalarpunktmultiplikation wird mit zufälligen Kurven über GF(2;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17697-5_5 3c4e0634d64b3e16c3beb466641e1442;de;;;3.3.;;;Eine Architektur für die intelligente Diagnose von diabetischen Typen und Komplikationen basierend auf Symptomen Die Informations- und Kommunikationstechnologie kann eine entscheidende Rolle bei der Verbesserung der Gesundheitsversorgung spielen, indem sie neue und effiziente Wege zur Diagnose von Krankheiten bietet. Diabetes gilt als die am schnellsten wachsende Krankheit der Welt. Aufgrund unzureichender diagnostischer Mechanismen steigt die Zahl der nicht diagnostizierten Diabetes von Tag zu Tag. Und es führt zu langfristigen Komplikationen wie Neuropathie, Nephropathie, Fußbrand und so weiter. Ziel dieser Studie ist es, eine intelligente Architektur zur effektiven Diabetes-Diagnose basierend auf den individuellen körperlichen Symptomen zu entwerfen. Die Architektur wurde unter Verwendung der Kombination von neuronalen Netzen, Datenclustering-Algorithmen und Fuzzy-Logik-Techniken entworfen. Anschließend wurde ein Prototypsystem entwickelt, um die diagnostische Architektur hinsichtlich der Effizienz und Genauigkeit der Diagnose von Diabetes sowie seiner Arten und Komplikationen zu validieren. Die qualitativen Gesamtergebnisse dieser Studie wurden sehr hoch bewertet, was zu 94,50 % genau ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-70713-2_11 bcb87e6595aee37cc63a65dd8d2f7b14;de;;;3.3.;;;Gewichtetes Load-Balancing auf Zeitbasis mit Software-Defined Networking Das Netzwerk verändert sich durch Software Defined Networking sehr schnell. Um Netzwerke richtig zu implementieren, benötigen wir viele Netzwerkgeräte wie Router, Switches, Load Balancer, Firewalls und Intrusion Detection (IDS)/Prevention (IPS). In herkömmlichen Netzwerken sind diese Geräte sehr teuer, unflexibel und herstellerspezifisch. Alle diese Geräte bestehen aus Data Plane & Control Plane. Diese Ebenen sind eng gekoppelt. Sie können die Anbieter nicht zwingen, Ihnen nur die Datenebene zu verkaufen, damit Sie die Steuerungsebene Ihrer Wahl verwenden können. Aber SDN ändert dies, indem es die Datenebene und die Steuerungsebene trennt. Jetzt können Sie beim Anbieter nach der Datenebene fragen und Open Source-Steuerungsebenen wie POX, RYU und Opendaylight verwenden. Durch das Schreiben von Netzwerkanwendungen wie Load Balancer oder Firewall auf diese Steuerungsebenen wird sich Ihre Datenebene wie Load Balancer oder Firewall verhalten. Somit bietet uns SDN die Programmierbarkeit von Netzwerken. In unserem Fall haben wir eine Lastausgleichsanwendung basierend auf der am wenigsten zeitbasierten gewichteten Round-Robin-Strategie erstellt. Load-Balancer-Geräte werden grundsätzlich zum Verteilen einer großen Menge an Client-Traffic auf mehrere Server verwendet, abhängig von der Load-Balancing-Strategie. Die verschiedenen Strategien können Round Robin, Random, Weighted Round Robin oder Server Load Balancing sein. Wir haben unsere neue Load-Balancing-Strategie mit der Round-Robin-Strategie verglichen. Für unseren experimentellen Aufbau haben wir das Mininet Emulator Tool & POX Controller als unsere Steuerungsebene verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-5427-3_33 1e64617bdcfba6af9f4ff1ce45aa50c6;de;;;3.3.;;;Ein kontextsensitives Traffic-Engineering-Modell für softwaredefinierte Netzwerke Software-Defined Networking ist ein neues Paradigma, das auf der Trennung der Datenebene von der Steuerungsebene basiert. Es ermöglicht den direkten Zugriff auf die Weiterleitungsebene eines Netzwerk-Switches oder -Routers über das Netzwerk. Obwohl sie viele Vorteile bietet, lässt die SDN-Technologie viel Raum für Verbesserungen. Forschungsprobleme wie effiziente Techniken zur Anpassung und Optimierung für SDN-Netzwerke werden untersucht. Dieses Papier zielt darauf ab, ein Modell für Verkehrstechnik in SDN-basierten Netzen vorzuschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-15392-6_8 12869c654e55fe94426dddcb0f9a768d;de;;;3.3.;;;Messung des Kraftstofffüllstands im Tank mit IR-Sensoren und Berichterstattung über IoT Rohbaumwolle in den Spinnereien wird mit Benzin gereinigt. Benzin ist einer der wesentlichen Brennstoffe. Dieses Projekt wurde für die Spinnereiindustrie entwickelt, um den Füllstand des Flüssigkeitsinhalts in den Tanks zu messen. Der Einsatz von IR-Sensoren und Magnetsensoren umgeht das Problem der Oxidation der Füllstandssonden. Thermistor ist ein Widerstandsgerät, das als Temperatursensor verwendet wird. Der Inhalt der Flüssigkeit/Kraftstoff im Tank wird durch einen Mikrocontroller überwacht. Diese Ebene wird über das mit dem Mikrocontroller verbundene IoT-Modul angezeigt und aktualisiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2256-7_69 b9f757c7cdbe7a63328f888c8f47a5fe;de;;;3.3.;;;Asynchroner bitserieller Datenpfad für objektorientierte rekonfigurierbare Architektur PCA In diesem Papier werden Entwurf und Organisation von bitseriellen asynchronen arithmetischen Schaltungen auf PCA (Plastic Cell Architecture), einer rekonfigurierbaren Architektur bestehend aus Kommunikations-, Speicher- und Verarbeitungseinrichtungen, diskutiert. Basierend auf den Evaluierungsergebnissen der Implementierung wird auch eine neuartige Architektur eines konfigurierbaren Teils von PCA vorgeschlagen. Die Implementierung von bitseriellen asynchronen Rechenschaltungen hängt nicht von PCA ab. Da asynchrone Schaltungen mit Handshaking und nicht mit Taktsignalen arbeiten, sind andere Entwurfstechniken erforderlich als die beim Entwurf synchroner Schaltungen. Wir schlagen eine solche neue Technik zum Entwurf einer Multipliziererschaltung vor. Darüber hinaus wird eine neuartige Struktur für ein FIR-Filter (Finite Impulse Response) vorgeschlagen, das auch auf eine synchrone Implementierung angewendet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39864-6_6 782ad8a81aa7b3f75aad1690d52b1fdf;de;;;3.3.;;;Kontextfluss: Eine Alternative zu herkömmlichen Pipeline-Architekturen In einer früheren Arbeit [Topham, Omondi und Ibbet 1988] haben wir konventionelle Ansätze zum Entwurf konventioneller Pipeline-Architekturen untersucht und kamen zu dem Schluss, dass die zugrunde liegenden Beschränkungen dieser Techniken radikale Alternativen erfordern. In diesem Beitrag wird eine solche Alternative diskutiert,;-;-;-;https://link.springer.com/article/10.1007/BF00127847 cabbb1bfe2ed6254fbe45c8863eba68b;de;;;3.3.;;;Dynamische Planung mit Multiagenten-Architektur Es wird ein dynamischer Ansatz zur Lkw-Planung unter Verwendung einer intelligenten verteilten Multi-Agenten-Architektur vorgestellt. Dieser Beitrag stellt ein inhärent verteiltes Problem vor, das dynamische Lkw-Scheduling-Problem, das die aktuelle Studie über eine intelligente Multi-Agenten-Architektur für optimale Echtzeitlösungen motiviert hat. Die .Net-Umgebung wird für die vorgeschlagene Multi-Agenten-Architektur kritisiert. Ein Entwurf und eine Implementierung eines prototypischen Systems werden vorgestellt und einige Testergebnisse diskutiert. Mögliche zukünftige Erweiterungen des Systems, um die Kommunikation über tragbare Geräte für mobile Agenten zu ermöglichen, die bei der LKW-Planungsproblematik erforderlich sind, werden ebenfalls zusammengefasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30133-2_62 1a4f96f0a0ae33578d96a7a84483a49e;de;;;3.3.;;;Überprüfung von JML-Spezifikationen mit einem erweiterbaren Framework zur Überprüfung von Softwaremodellen Die Verwendung von Zusicherungen, um Korrektheitseigenschaften von Programmen auszudrücken, nimmt in der Praxis zu. Assertions stellen eine Form einer leichtgewichtigen, überprüfbaren Spezifikation dar, die sehr effektiv sein kann, um Fehler in Programmen zu finden und Entwickler zur Ursache eines Problems zu führen. Es wurde eine Vielzahl von Assertionssprachen und zugehörigen Validierungstechniken entwickelt, aber die Laufzeitüberwachung wird allgemein als die einzige praktische Lösung angesehen. In diesem Artikel beschreiben wir, wie Spezifikationen, die in der Java Modeling Language (JML), einer universellen Verhaltensspezifikation und Assertionssprache für Java, geschrieben wurden, mit einem angepassten Model Checker validiert werden können, der auf dem Bogor Model Checking Framework basiert. Unsere Erfahrung zeigt den Bedarf an angepassten Zustandsraumdarstellungen und Reduktionsstrategien in Model-Checking-Frameworks, um effektiv die Art von starken Verhaltensspezifikationen zu überprüfen, die in JML geschrieben werden können. Wir diskutieren die Vorteile und Kompromisse der Modellprüfung im Vergleich zu anderen Spezifikationsvalidierungstechniken und präsentieren Daten, die nahelegen, dass die Kosten der Modellprüfung starker Spezifikationen für mehrere reale Programme praktikabel sind.;-;-;-;https://link.springer.com/article/10.1007/s10009-005-0218-5 acf5fcfa524d46c0180905748032278d;de;;;3.3.;;;Szenariobasierte Generierung digitaler Bibliotheksdienste Wir beschreiben die Entwicklung, Implementierung und Bereitstellung eines neuen generischen Generators für digitale Bibliotheken, der Implementierungen digitaler Bibliotheksdienste aus Modellen von DL-„Gesellschaften“ und „Szenarien“ hervorbringt. Die einzelnen Aspekte unserer Lösung sind: 1) Ansatz basierend auf einem formalen, theoretischen Rahmen, 2) Verwendung modernster Datenbank- und Software-Engineering-Techniken wie domänenspezifische deklarative Sprachen, Szenariosynthese, komponenten- und modellgesteuert Architekturen, 3) Analyse mit Schwerpunkt auf szenariobasiertem Design und DL-Gesellschaftsbeziehungen, 4) automatische Transformationen und Abbildungen von Szenarien zu Workflow-Designs und von diesen zu Java-Implementierungen, 5) besonderes Augenmerk auf Fragen der Einfachheit der Implementierung, Modularität, Wiederverwendbarkeit, und Erweiterbarkeit. Wir demonstrieren die Machbarkeit des Ansatzes anhand einer Reihe von Beispielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45175-4_25 888e20654d21e6bc773a345e379d456a;de;;;3.3.;;;Sektorbezogene Verbesserung des Informationssicherheits-Risikomanagementprozesses im Kontext der Telekommunikationsregulierung Die aktuelle europäische Verordnung über öffentliche Kommunikationsnetze verlangt heute, dass Telekommunikationsdienstanbieter (TSPs) geeignete technische und organisatorische Maßnahmen ergreifen, um die Risiken für die Sicherheit von Netzen und Diensten zu bewältigen. Ein zentrales Thema in diesem Prozess ist jedoch die Risikoidentifikationsaktivität, die grob darin besteht, die relevanten Risiken in Bezug auf das betriebene Geschäft und die vorhandene Architektur zu definieren. Das gleiche Problem tritt bei der Auswahl relevanter Sicherheitskontrollen auf. Die in diesem Papier diskutierte Forschungsfrage lautet: Wie können generische Prozesse und Praktiken des Informationssicherheitsrisikomanagements (ISRM) an den Telekommunikationssektor angepasst werden? Zur Beantwortung dieser Forschungsfrage wurde eine vierstufige Forschungsmethode etabliert, die in diesem Beitrag vorgestellt wird. Das Ergebnis ist ein verbesserter ISRM-Prozess im Kontext der Telekommunikationsregulierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39179-8_2 ceba3f562df00ce1cb34295d0ea0655f;de;;;3.3.;;;Aufteilung des Aufwands auf Artefakte der Softwareentwicklung: Eine erste Fallstudie Modellgetriebene Entwicklung zielt darauf ab, die Produktivität zu steigern, indem das Abstraktionsniveau von Softwarespezifikationen erhöht und automatisierte Transformationen eingeführt werden, um Spezifikationen auf niedrigerer Ebene zu ersetzen. Um die Vorteile des Ersetzens eines Legacy-Entwicklungsprozesses durch einen modellgetriebenen Ansatz zu bewerten, muss eine Basislinie des aktuellen Prozesses in Bezug auf den in die Entwicklungsartefakte investierten Aufwand erstellt werden. In diesem Beitrag berichten wir über eine erste Fallstudie, in der wir die wesentlichen Artefakte in der Analyse- und Entwurfsphase hinsichtlich Aufwand und wahrgenommener Bedeutung untersuchen. Wir haben eine nicht modellgetriebene Entwicklung softwarebasierter Automobilfunktionen untersucht und unsere ersten Ergebnisse zeigen, dass einige wenige Artefakte den größten Aufwand erhalten und dass die Artefakte mit dem größten Aufwand nicht die wichtigsten sind. Die ersten Ergebnisse deuten darauf hin, dass die Verteilung des Aufwands zwischen Modellen und anderen Artefakten ähnlich wie bei modellgetriebenen Projekten ist, obwohl das Projekt als codezentriert wahrgenommen und charakterisiert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13051-9_20 f9a0586078ab042ca1bfa3754894a0a4;de;;;3.3.;;;Experimentieren mit Lebendigkeit im Cloud-Infrastruktur-Management Cloud Computing spielt seit seiner Geburt eine bedeutende Rolle bei der Bereitstellung von Diensten über das Internet. Entwickler stehen jedoch immer noch vor mehreren Herausforderungen, die ihr volles Potenzial einschränken. Die Schwierigkeiten sind vor allem auf den großen, ständig wachsenden und sich ständig ändernden Servicekatalog der Cloud-Anbieter zurückzuführen. Als Konsequenz müssen Entwickler in ihren Systemen mit unterschiedlichen Cloud-Diensten umgehen, die jeweils fast individuell verwaltet werden und immer komplexer werden. Diese Heterogenität kann die Sicht der Entwickler auf ihre Systemarchitekturen einschränken und die Aufgabe der Verwaltung dieser Ressourcen komplexer machen. Diese Arbeit untersucht die Verwendung von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-40223-5_4 c1be5aae311d11992b8ea2884d09b0d3;de;;;3.3.;;;Eine Architektur zur Aufgabeninterpretation und Ausführungskontrolle für Interventionsroboter: Vorversuche Dieses Papier befasst sich mit dem Softwaresystemdesign von Robotern, die Menschen bei Interventionsaufgaben in gefährlichen Umgebungen ersetzen oder unterstützen können. Wir betrachten Missionen, die die Navigation von einer Site zu einer anderen, die Ausführung bestimmter Aufgaben und die Übertragung von Daten umfassen. Kommunikationsschwierigkeiten mit einer entfernten Bodenstation (Verzögerungen und Bandbreite) sowie zeitliche Beschränkungen der Aufgaben machen es erforderlich, solchen Robotern ein hohes Maß an Autonomie bei der Ausführung einer genau festgelegten Mission zu verleihen. Es ist heute jedoch unrealistisch, vollständig autonome (und nützliche) Roboter zu bauen. Dieses Papier stellt einen Ansatz zur Beantwortung dieser Anforderungen vor und beschreibt eine integrierte Robotersystemarchitektur, die es dem Roboter ermöglicht, seine Mission kontextbezogen zu interpretieren und die Ausführung seiner Aktionen in Echtzeit zu steuern und anzupassen.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0036141 6d91245f7a17210ebd22c8dd43178a7d;de;;;3.3.;;;Forschung zur Schätzung der menschlichen Haltung und Objekterkennung im Bereich des unbemannten Einzelhandels Der Schlüssel zum unbemannten Einzelhandel besteht darin, zu beurteilen, wer welches Produkt gekauft hat. Um die Probleme zu lösen, schlagen wir eine Methode vor, die die Schätzung der menschlichen Haltung und den Algorithmus zur Warenerkennung basierend auf Deep Learning kombiniert. Um Videos in Echtzeit zu verarbeiten, wenden wir tiefenseparierbare Faltung an, um den Algorithmus zur Schätzung der menschlichen Pose zu modifizieren, die Größe des Faltungskernels zu reduzieren und mehrstufige Informationen zu fusionieren. Um Waren zu erkennen, erstellen wir einen Datensatz zur Warenerkennung, um das Objekterkennungsmodell zu trainieren. Der modifizierte Posenschätzungsalgorithmus wird verwendet, um Schlüsselpunkte des linken und rechten Handgelenks des menschlichen Körpers zu identifizieren, und der Objekterkennungsalgorithmus erkennt im aktuellen Bild vorhandene Produkte. Wir berechnen den Abstand zwischen Schlüsselpunkten und Produkten und verwenden diesen Wert, um zu bestimmen ob der Kunde ein bestimmtes Produkt gekauft hat. Als Ergebnis haben wir die vorgeschlagene Pipeline in realen Szenarien getestet, um festzustellen, ob der Benutzer das Produkt gekauft hat. Diese Methode, die nur Computer Vision zur Beurteilung verwendet, ist bequem in der Anwendung und Weiterentwicklung des unbemannten Einzelhandels. Die Forschungsergebnisse wurden auf stationäre Geschäfte übertragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4336-8_11 bd4f57f4c11353b9d6024cb7402ac626;de;;;3.3.;;;Optimierung der Technologieforschung von Testfällen basierend auf Fuzzy Cognitive Map Regressionstests sind einer der sehr wichtigen, aber teuren Prozesse während des Softwaretests. Testkosten und -zeit werden zum Engpass beim erneuten Testen des gesamten Codes, da die Software immer größer wird. Die Auswahl eines Satzes von Testfällen wird also zu einer Forschung, die heiß auf Regressionstests ist. Die Testfallsuite könnte alle Modifikationen und alle von Modifikationen betroffenen Codes abdecken und muss so klein wie möglich sein. Basierend auf diesem Ideal wird eine Fuzzy-Cognitive-Map eingeführt, um die Wechselbeziehung zwischen allen Segmentcodes zu lösen, die durch das Gewicht der Knoten reflektiert wurden. Alle Segmentcodes konnten durch Lernen und Evolution der Fuzzy-Cognitive-Map gefunden werden. Dieses Verfahren kann die minimale Testsuite und maximale Abdeckung in der experimentellen Analyse erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03718-4_61 a7d0e06a95e4304b5c825f25ed9adab6;de;;;3.3.;;;Auswirkung der Netzwerklast auf die Anomalieerkennung in softwaredefinierten Netzwerken Software-Defined Networking (SDN) führt ein neues Netzwerkparadigma zur Trennung von Steuerungsebene und Datenebene ein. Die Steuerungsebene verwaltet den Paketfluss in der Datenebene des Netzwerks. Die Anomalieerkennung im Kontext von SDN dient der Identifizierung potenziell schädlichen Datenverkehrs. Wenn aufgrund von bösartigen Paketen im SDN eine Anomalie auftritt, ist die Überprüfung der Nutzlast von Paketen eine effektive Möglichkeit, abnormalen Datenverkehr zu erkennen. In diesem Papier betrachten wir verschiedene Bandbreiten und Topologien des Netzwerks zur Erkennung einer Anomalie in SDN. Wir bewerten auch die Leistung des SDN im selben Netzwerk. Wir haben verschiedene Baumtopologien auf dem OpenFlow-Controller mit dem Mininet-Netzwerkemulator implementiert. Wir haben OpenFlow-Nachrichten als Leistungsmetrik zur Bewertung der Leistung des Netzwerks mit verschiedenen Baumtopologien betrachtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0694-9_13 feeefdba0cdeff31c6122c8fd4270a8a;de;;;3.3.;;;Informatik in Vergangenheit und Zukunft Dieses Papier untersucht die Meilensteine ​​der Informatik und schlägt vor, dass zukünftige Fortschritte nicht in Form von „größer und besser“ erfolgen werden, sondern eher in qualitativen Unterschieden in unserer Fähigkeit, Informationen zu verarbeiten. Errungenschaften in den Bereichen Künstliche Intelligenz, Programmiersprachen und -systeme, Computerarchitektur, Numerische Analyse sowie Komplexitäts- und Algorithmische Theorie werden diskutiert und neue Forschungswege in diesen Bereichen vorgeschlagen. Wir glauben, dass es eine spannende und symbiotische Beziehung zwischen unserer Denkweise und den von uns gebauten Systemen geben wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-0705-8_60 e33f3ded14f185dbaec4f6f5dc58115d;de;;;3.3.;;;Ermöglichen der kurzzeitgespeisten Kommunikation durch Rückstreuen von Energiezustandsinformationen Das wachsende Interesse an drahtlosen Sensoren mit extrem geringem Stromverbrauch, die direkt von Energy Harvester betrieben werden, hat einen der Hauptnachteile solcher batterielosen Geräte aufgezeigt, nämlich die Kommunikation zwischen Knoten, ohne Energie aufgrund nicht verfügbarer Empfänger zu verschwenden. Die Backscatter-Kommunikation ermöglicht eine Kommunikation mit geringem Stromverbrauch, indem energiehungrige Hardwarekomponenten eliminiert werden, und kann kommunizieren, ob IoT-Geräte auch bei Nullenergie an Bord empfangsbereit sind. In diesem Artikel stellen wir das Design eines Rückstreufunkmechanismus vor, der als Rückkanal verwendet wird, um die Energiezustandsinformationen fast kostenlos zu übertragen. Simulationsergebnisse belegen die Wirksamkeit unseres nach dem neuartigen Ansatz des „Transient Computing“ konzipierten Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-66729-0_22 13e416bc2f53b2ffc32eabc88455e13b;de;;;3.3.;;;Erweiterbares Debugger-Framework für erweiterbare Sprachen Die Spracherweiterung ermöglicht die Integration neuer Sprachkonstrukte ohne invasive Änderungen an einer Basissprache (z. B. C). Solche Erweiterungen helfen dabei, zuverlässigere Software zu erstellen, indem geeignete domänenspezifische Abstraktionen verwendet werden. Language Workbenches reduzieren den Aufwand für die Erstellung solcher erweiterbarer Sprachen erheblich, indem sie aus Sprachdefinitionen eine vollwertige IDE synthetisieren. In modernen Tools beinhaltet diese Synthese jedoch kein interaktives Debugging für Programme, die mit der Basissprache oder ihren Erweiterungen geschrieben wurden. Dieses Dokument beschreibt ein generisches Framework für erweiterbare Debugger, das das Debuggen der Spracherweiterungen ermöglicht, indem Zuordnungen zwischen der Basissprache und den Spracherweiterungen definiert werden. Die Architektur ist auf Erweiterbarkeit ausgelegt, sodass mit geringem Aufwand Debug-Unterstützung für zukünftige Erweiterungen eingebracht werden kann. Wir zeigen eine Implementierung unseres Ansatzes für mbeddr, eine erweiterbare Version der Programmiersprache C. Wir besprechen auch die Debugger-Implementierung für nicht-triviale C-Erweiterungen wie Komponenten. Schließlich wird diskutiert, inwieweit der Ansatz mit anderen Basissprachen, Debugger-Backends und Sprachworkbenches verwendet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19584-1_3 5ab87e278087e7f8b2ff2f0a865f7a76;de;;;3.3.;;;Zur Formalisierung der Java-Sicherheitsarchitektur von JDK 1.2 Die Java-Sicherheitsarchitektur im Java Development Kit 1.2 erweitert das aktuelle Java-Sandbox-Modell und ermöglicht eine differenziertere, konfigurierbare Zugriffskontrolle für Java-Code. Diese neue Sicherheitsarchitektur ermöglicht einen präziseren und dennoch flexiblen Schutz sowohl für Remote-Code (über eine Netzwerkverbindung geladen) als auch für lokalen Code (der sich auf derselben Maschine befindet, auf der die Java Virtual Machine läuft), die mit der Programmiersprache Java entwickelt wurde. Unser formales Modell und unsere Analyse sollen: (1) Designern und Implementierern ermöglichen, den durch diese Sicherheitskontrollen bereitgestellten Schutz zu verstehen und richtig zu verwenden, und (2) einem JVM-Implementierer, der diese Sicherheitskontrollen unterstützen möchte, eine Anleitung geben. Zugriffssteuerungsentscheidungen in Java werden basierend auf dem aktuellen Ausführungskontext unter Verwendung von Stack-Introspektion getroffen. Um dies zu modellieren, verwenden wir ein zustandsbasiertes Modell, das mehrere Zugriffskontrollmatrizen verwendet, um die Sicherheitskontrollen in JDK 1.2 zu modellieren. Wir präsentieren auch eine Sicherheitsanalyse und diskutieren die Auswirkungen statischer und dynamischer Sicherheitsrichtlinien für eine bestimmte Java Virtual Machine.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0055864 90eb12e59af47af4e4ad68671b44a6fa;de;;;3.3.;;;Tunnelbeschränkung zur Verhinderung von Paketen außerhalb der Reihenfolge für die Routenoptimierung in Proxy Mobile IPv6 Die für Proxy Mobile IPv6 (PMIPv6) entwickelte Routenoptimierung (RO) zielt darauf ab, die Paketübertragungskosten zu reduzieren. Wie wir in diesem Papier darstellen, kann das RO-Verfahren jedoch Pakete außerhalb der Reihenfolge verursachen. In diesem Artikel schlagen wir ein Tunnelbeschränkungsschema vor, um Out-of-Order-Pakete während der Übergabe eines mobilen Knotens (MN) zu minimieren, indem eine entwickelte Schätzfunktion verwendet wird, die eine Menge von Out-of-order-Paketen im RO-Verfahren berechnet. In dem vorgeschlagenen Tunneleinschränkungsschema werden Puffertechniken bei Proxy-Mobilitätsagenten verwendet, um die Ankunft von Paketen außerhalb der Reihenfolge beim MN zu minimieren. Die an der RO-Prozedur teilnehmenden Proxy-Mobilitätsagenten puffern die Pakete für den MN, bis sie den RO-Tunnel zwischen sich aufbauen. Die durchgeführten Leistungsbewertungsergebnisse zeigen, dass die Verkehrsrate und die Zeitdauer der Out-of-order-Pakete hauptsächlich Auswirkungen auf das Out-of-order-Pakete-Problem haben. Wir zeigen auch, dass das vorgeschlagene Tunneleinschränkungsschema die Leistung von PMIPv6 RO verbessert, indem es die Anzahl von Paketen außerhalb der Reihenfolge minimiert.;-;-;-;https://link.springer.com/article/10.1007/s11277-011-0308-5 1be7b0f59a9f872225b5759893a1ce63;de;;;3.3.;;;Zur Integration von UML und Petrinetzen in die Softwareentwicklung Software Performance Engineering beschäftigt sich mit der Betrachtung der quantitativen Analyse des Verhaltens von Softwaresystemen aus den frühen Entwicklungsphasen im Lebenszyklus. Dieser Beitrag fasst semiformal und anschaulich unseren Vorschlag für einen geeigneten Software Performance Engineering Prozess zusammen. Wir versuchen, in einem sehr pragmatischen Ansatz die übliche objektorientierte Methodik – unterstützt durch die UML-Sprache und weit verbreitete CASE-Tools – mit einem Performance-Modellierungsformalismus, nämlich stochastischen Petrinetzen, zu integrieren. Eine einfache Fallstudie wird verwendet, um den gesamten Prozess zu beschreiben. Nähere technische Details sind dem zitierten Literaturverzeichnis zu entnehmen.;-;-;-;https://link.springer.com/chapter/10.1007/11767589_2 2a594a1eac5f20b126de56fb89ef9e1f;de;;;3.3.;;;Botschaft der UDM2010-Workshop-Organisatoren Allgegenwärtige Computertechnologien bieten eine allgegenwärtige Basis für eine reale Umgebung, sodass wir Informationen an jedem Ort erfassen und bereitstellen können. Fortschritte in den Technologien von Displays, elektronischen Papieren, digitaler Architektur, Sensoren, RFID-Tags und Speichergeräten usw. können eine neue reale Umgebung für den Datenzugriff schaffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14589-6_39 631164e826ab8193b5e503d31468c5c1;de;;;3.3.;;;DNA- UND PROTEIN-SENSOR-ARRAYS Biochips (www.gene-chips.com, www.functionalgenomics.org.uk) sind bioanalytische Geräte, die für die Diagnostik, Wirkstoffforschung und biowissenschaftliche Forschung geeignet sind. Laut Weller „;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-4611-1_23 27b57c17df9109cf53bc64eefc5aca0f;de;;;3.3.;;;Anwendung des softwaredefinierten Netzwerkparadigmas auf die Optimierung der Nutzung von Cloud-Diensten aus Sicht der Mieter Der Artikel beschreibt Forschungsergebnisse im Bereich Software-Defined Networking, die auf Multi-Cloud-Infrastrukturen angewendet werden. Wir präsentieren einen innovativen Load Balancer, der gemäß einer einzigartigen Reihe von Anforderungen entwickelt wurde, die aus der Sicht des Cloud-Mandanten hinsichtlich der Effektivität der Nutzung von Cloud-Diensten stammen. Wir entwickelten eine Proof-of-Concept-Implementierung des Load Balancers und zogen die Schlussfolgerungen bezüglich des Systems selbst und seiner Anwendbarkeit auf Produktionsumgebungen. Unsere Lösung ist umfassender als andere, die in modernen SDN-Umgebungen verfügbar sind, und bietet mehr Funktionalität als nur Service-Chaining, das durch Flussumleitungen realisiert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19419-6_18 0b2eebfc5af1c332762ebfaa6f88dd9d;de;;;3.3.;;;Entwerfen Sie eine VLSI-Architektur für 2_D DWT mit NEDA- und KSA-Technik Bildkompression, die Verwendungen der Datenkompression auf digitalen Bildern ausstrahlt. Die Discrete Wavelet Transform (DWT) macht sich mit einem extremen Schritt in der Bildverarbeitung vertraut. Um den Nachteil des JPEG-Standards und die zunehmenden Bereiche der Mobil- und Internetkommunikation zu beseitigen, wurde der neue JPEG2000-Standard basierend auf den Prinzipien der DWT geschaffen. Mit der Verbreitung des 2_D DWT hat sich die Technologie vorhersehbar verbessert. Alles in allem besteht nach wie vor Bedarf an einer robusteren und effizienteren Komprimierungstechnologie mit DWT. Daher wird eine 2_D-DWT mit einer multiplikatorlosen NEDA-Technik implementiert. NEDA besteht aus einem Puffer, ROM und Addierer. Es gibt viele Arten von Addierern, die in Ziffernschaltungen verwendet werden, aber der Kogge-Stone-Addierer (KSA) wird in dem vorgeschlagenen Verfahren verwendet. KSA ist ein sehr effizienter Addierer und besteht aus dem XOR-Gatter und HA. Vorgeschlagene Schemata sind simulierte Xilinx-Software mit der VHSIC Hardware Description Language (VHDL)-Plattform und berechnet Parameter wie Geschwindigkeit und Frequenz.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4909-4_66 8cc0761630916e2695f0c180bbeb7bf4;de;;;3.3.;;;Steuerbare Testfälle für die verteilte Testarchitektur In der verteilten Testarchitektur wird ein System mit mehreren Ports mit einem Tester an jedem Port/Interface getestet, diese Tester können nicht miteinander kommunizieren und es gibt keine globale Uhr. Neuere Arbeiten haben eine Implementierungsbeziehung zum Testen gegen ein Eingabe-Ausgabe-Übergangssystem in der verteilten Testarchitektur definiert. Dieses Framework schränkte die Testfälle jedoch nicht ein und erlaubte ihnen insbesondere, eine Art Nichtdeterminismus zu erzeugen. Außerdem wurde das Problem der Testgenerierung nicht berücksichtigt. Dieses Papier untersucht die Klasse der kontrollierbaren Testfälle für die verteilte Testarchitektur und definiert eine neue Implementierungsbeziehung und einen Testgenerierungsalgorithmus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88387-6_16 78e3803dde4616f9aa465b2cbac95682;de;;;3.3.;;;Modellgetriebene Softwareentwicklung kombiniert mit semantischer Mutation von UML-Zustandsmaschinen Das Papier präsentiert einen Ansatz zur semantischen Mutation von Zustandsautomaten, die das Klassenverhalten in der modellgetriebenen Softwareentwicklung spezifizieren. Die Mutationen zielen auf verschiedene Varianten des Verhaltens von UML-Zustandsautomaten ab. Mutationstests einer Zielanwendung ermöglichen den Vergleich verschiedener semantischer Interpretationen und die Überprüfung einer Reihe von Testfällen. Wir präsentieren eine Notation eines Prozesses, der modellgetriebene Entwicklung mit semantischer Mutation und semantischen folgeorientierten Mutationen kombiniert. Ursprung und Details der vorgeschlagenen Mutationsoperatoren werden diskutiert. Der Ansatz wurde vom Framework für eXecutable UML (FXU) unterstützt, das eine C#-Anwendung aus UML-Klassen und Zustandsautomaten erstellt. Die Werkzeugarchitektur wurde überarbeitet, um semantische Mutationsoperatoren in den modellgetriebenen Entwicklungsprozess anzuwenden und Tests an einer Reihe semantischer Mutanten zu realisieren. Das Tool und die implementierten Mutationsoperatoren wurden in einer Fallstudie zu einem Statusdienst für ein soziales Netzwerk überprüft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-40223-5_10 b8c46dc190e1e7915c987c54beedbfb2;de;;;3.3.;;;Computerviren und -würmer Computerviren sind Programme, die sich auf andere Programme kopieren. Wenn das Wirtsprogramm ausgeführt wird, läuft auch der Virus und als Folge seiner Ausführung erstellt er weitere Kopien von sich selbst. Die meisten Viren haben auch andere Auswirkungen, wie das Löschen oder Beschädigen von Dateien, das Anzeigen von unhöflichen Worten oder Bildern oder sogar die Beschädigung des Computers oder Monitors selbst.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-3458-4_6 8279ee0449d8068afa95588df9bb9913;de;;;3.3.;;;Ein Ansatz: Eine serviceorientierte funktionale Ausrichtung von Business und IT Es werden mehrere Frameworks vorgeschlagen, die konzeptionell die Geschäfts- und IT-Ausrichtung definieren. Es gibt auch mehrere empirische Methoden zur Modellierung des Business- und IT-Alignments. Beim Übergang zwischen konzeptionellen Definitionen und Modellierungssprachen fehlen jedoch noch ein klarer Ansatz und Werkzeuge, um zu überprüfen, ob Business und IT in einem bestimmten Unternehmensmodell aufeinander abgestimmt sind. Das Paper präsentiert einen Ansatz für ein funktionales Business- und IT-Alignment, das sich auf seine Implementierung mit heutigen Enterprise-Modellierungstechniken und -werkzeugen konzentriert. Der vorgeschlagene Ansatz basiert auf SOA, GRAAL und Unternehmensmodellierungstechniken wie TOGAF, DoDAF und UPDM. Ein Praxisbeispiel wird vorgestellt, um die Eignung des Ansatzes zu validieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33308-8_14 f287f429e4026672e5754c1201691e49;de;;;3.3.;;;Software-Entwicklung Es ist wichtig zu verstehen, dass sich die Softwareentwicklung von der Systemanpassung des Anbieters unterscheidet. Softwareentwicklung ist ein Begriff, der verwendet wird, um den Prozess der Erstellung von Computerprogrammen oder Anwendungen zu beschreiben. Programmierer können mit einem leeren Bildschirm bei Null anfangen oder Standardkomponenten oder Frameworks integrieren. Obwohl es Ähnlichkeiten zwischen der Verwaltung der Softwareentwicklung und der Verwaltung der Systemimplementierung gibt, gibt es auch erhebliche Unterschiede. Die Entwicklung von Software ist ein Entdeckungsprozess, bei dem der Programmierer ein Verständnis für einen Geschäftsprozess oder eine Aufgabe entwickelt und eine Anwendung erstellt, die das Datenmanagement und die Entscheidungsfindung rund um die Aufgabe unterstützt. Obwohl die Erkennung auch während der Systemimplementierung erfolgt, passen die Mitarbeiter eine Anwendung an, anstatt eine Anwendung zu erstellen. Im Buchhandel erhältliche Projektmanagement-Bücher behandeln in der Regel Projektmanagement-Techniken für den Softwareentwicklungsprozess und nicht Projektmanagement im implementierenden Sinne.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-4343-2_14 8856fbfa6e24af2cddd2511d5fd31083;de;;;3.3.;;;Lehrforschung zu DSP-Technologie und -Anwendungen Der DSP-Technologie- und Anwendungskurs ist ein sehr wichtiger Kurs für Elektronikfachstudenten. Dieses Papier analysiert den Charakter des Kurses DSP-Technologie und -Anwendungen und schlägt das Problem während des Lehrprozesses vor. Und Forschung zu Lehrinhalten, Lehrmethoden und Bewertungsmethoden. Beschreiben Sie konkrete Reformideen und Methoden der Lehrreform, um die Lerninitiative der Studierenden zu verbessern und die Lehrwirkung zu optimieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27452-7_81 41f7202c3c36ec2e7b1031ae6035c65e;de;;;3.3.;;;Integration ultramobiler Geräte in taktische Verteidigungsumgebungen durch Middleware Dieses Papier befasst sich mit der Integration mobiler Technologien (wie Smartphones und Tablets) in taktische Verteidigungsumgebungen. Die Motivation und Schlüsseltechnologien dieser Forschung werden ausführlich diskutiert. Das Vehikel für die Durchführung dieser Forschung ist die Net Warrior-Initiative der Defense Science and Technology Organisation. Die erste Arbeit, die im Rahmen dieses Forschungsprogramms im Rahmen von Net Warrior durchgeführt wurde, untersuchte, wie verteilte Objekt- und Publish/Subscribe-Middleware in ein Smartphone integriert werden können, um Informationsinteroperabilität mit taktischen Plattformen und Systemen zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-42017-7_17 5eada90fba7048154bd2db8af8bd6b86;de;;;3.3.;;;Skizzenbasierte Modellierung und immersive Anzeigetechniken für die Präsentation von Tatorten in Innenräumen Die Rekonstruktion von Tatorten spielt eine wichtige Rolle in der digitalen forensischen Anwendung. Obwohl die 3D-Scan-Technik bei der allgemeinen Szenenrekonstruktion beliebt ist, weist sie in der Praxis der Tatortdarstellung große Einschränkungen auf. Dieser Artikel integriert Computergrafik, skizzenbasierte Modellierung und Techniken der virtuellen Realität (VR), um einen kostengünstigen und schnellen 3D-Tatortpräsentationsansatz zu entwickeln, der von Ermittlern zur Analyse und Simulation des kriminellen Prozesses verwendet werden kann. Zuerst haben wir eine Sammlung von 3D-Modellen für Indoor-Tatort mit verschiedenen gängigen Techniken erstellt, darunter Laserscanning, bildbasierte Modellierung und Softwaremodellierung. Zweitens wurde ein skizzenbasiertes Abrufverfahren vorgeschlagen, um schnell ein interessierendes Objekt aus der 3D-Modelldatenbank zu erhalten, das mit der geometrischen Struktur des realen Objekts übereinstimmt. Schließlich wurde ein schnelles Modellierungssystem entwickelt, das unsere Datenbank und unseren Retrieval-Algorithmus integriert, um schnell einen digitalen Tatort aufzubauen. Für die Praxis wurde eine interaktive Echtzeit-Virtual-Roaming-Anwendung in Unity 3D und ein kostengünstiges VR-Head-Mounted-Display (HMD) entwickelt. Anhand von Praxisfällen wurde die Machbarkeit und Verfügbarkeit unserer Methode demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-73697-6_14 1a386a97bb51ef6067138180c60c61bc;de;;;3.3.;;;Chirurgische Navigation von Integralen Videografie-Bildüberlagerungen für die offene MRT-geführte Gliomchirurgie Für die offene MRT-geführte Chirurgie wurde ein dreidimensionales (3D) Bild-Overlay-Navigationssystem entwickelt. Die Bilder werden durch den Einsatz von animierten autostereoskopischen Bildern der integralen Videografie (IV) erzeugt, die geometrisch genaue 3D-Bilder liefern und Bewegungsparallaxe ohne zusätzliche Brillen oder Tracking-Geräte reproduzieren. Die räumlich projizierten 3D-Bilder werden dem Patienten überlagert und über einen halbhohen Spiegel betrachtet. Wir haben ein Verfahren zur räumlichen Bildregistrierung für die intraoperative IV bildgestützte Diagnostik und Therapie entwickelt. Zwei Sätze von vorläufigen Experimenten zeigten, dass der Gesamtsystemfehler bei der Patienten-zu-Bild-Registrierung 0,90 ± 0,21 mm betrug und die Verfahrenszeit zum Führen einer Nadel zu einem Ziel auf 24% verkürzt wurde. Die Augmented Reality des Bildüberlagerungssystems ist möglich, um die Platzierungsgenauigkeit der chirurgischen Instrumente zu erhöhen und auch die Eingriffszeit durch die intuitive 3D-Betrachtung zu reduzieren.;-;-;-;https://link.springer.com/chapter/10.1007/11812715_24 9c543d36b709640818d366ec4236e0a8;de;;;3.3.;;;Einführung von Cloud Computing in e-Governance Cloud ist ein Modell oder eine Architektur und ein neues Computing-Paradigma mit SOA als Basisarchitektur. Cloud Computing hat sich zu einer wichtigen Computerplattform für die gemeinsame Nutzung von Ressourcen entwickelt, die Infrastrukturen, Software, Anwendungen und Geschäftsprozesse umfassen. E-Governance spielt in jeder Organisation eine wichtige Rolle und Clouds mit unterschiedlichen Ebenen sind für die E-Governance-Dienste hilfreich. Cloud hat verschiedene Dienste, die integriert und wiederverwendet werden. Denn E-Governance nutzt verteilte Dienste, was viel Infrastruktur erfordert. Cloud-Dienste sind hilfreich, um die Kosten für Infrastruktur und Software zu senken. In diesem Whitepaper wird beschrieben, wie Cloud Computing in e-Governance-Anwendungen eingesetzt werden kann, um die Infrastruktur- und Plattformkosten zu senken, die Netzwerksicherheit zu erhöhen, die Skalierbarkeit zu erhöhen und eine schnelle Implementierung zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17881-8_16 059c1d240ea71605e0242a42c579b8e9;de;;;3.3.;;;Eine kombinierte Hardware-/Software-Messung für die ARM-Programmausführungszeit Gegenwärtig gibt es keine genauen dynamischen End-to-End-Messungen für die Ausführungszeit von ARM-Programmen, da die von Hardwarezählern in ARM-Mikroprozessoren gelieferten Messergebnisse nicht genau genug sind und der Zeitaufwand von Instrumentenmethoden schwer zu berechnen ist. Daher schlägt dieses Papier eine kombinierte Hardware/Software-Messung für die ARM-Programmausführungszeit vor. Es legt die Messgenauigkeit im Bootloader-Code des Systems fest, kapselt den Zugriff auf Timer im Linux-Kernel und misst dann die Ausführungszeit des Programms durch den Timer und seinen entsprechenden Interrupt während der Programmausführung. Experimentelle Ergebnisse haben gezeigt, dass unsere Methode im Vergleich zu Instrumentenmethoden und Hardwarezählern ein effizienter Weg ist, um genaue und präzise Ausführungszeitmessungen für ARM-Programme zu erhalten. Zusätzliche Experimente, die durch die Kombination von Kurvenanpassungstechniken und unserem Verfahren durchgeführt wurden, haben gezeigt, dass das Verfahren verwendet werden kann, um die Ausführungszeit eines Programms unter verschiedenen Eingabedaten vorherzusagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35898-2_21 c40924060259ede2b593afbb44b24b71;de;;;3.3.;;;Ein Rahmen zur Messung des Wertes der Unternehmensarchitektur in südafrikanischen Telekommunikationsorganisationen Enterprise Architecture (EA) hat sich als Enabler für schnelle organisatorische Veränderungen im Hinblick auf Controlling, Optimierung und Komplexitätsmanagement etabliert. Es gilt daher als Blaupause für Organisationen für Anpassungsfähigkeit, Wandel, Evolution und damit Wachstum. Die bloße Bereitstellung würde jedoch nicht unbedingt zu günstigen Ergebnissen führen, stattdessen können die Ergebnisse von einer Organisation zur anderen variieren. Dies erfordert Untersuchungen zur Bereitschaft von Organisationen vor der Bereitstellung von EA sowie geeignete Mechanismen zur Überwachung ihres Wertes während der Bereitstellung und ihrer Auswirkungen nach der Bereitstellung. Wir schlagen hiermit einen Rahmen zur Messung des Wertes von EA in Organisationen mit Fokus auf die Telekommunikationsindustrie in Südafrika vor. Aus Fallstudien geht hervor, dass das Framework Organisationen nicht nur dabei unterstützen könnte, eine fundierte Entscheidung über die Bereitstellung von EA zu treffen oder nicht, sondern auch die Vorteile (falls vorhanden) während der Bereitstellung und darüber hinaus ständig zu überwachen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16886-9_29 fb8aa6201cac1f07c12b55816cb94c5b;de;;;3.3.;;;Ein Vergleich von Frameworks für die Modellierung von Unternehmensarchitekturen Diese Präsentation vergleicht und kontrastiert zwei unterschiedliche Ansätze zur Darstellung und Verwaltung von Modellen in Bezug auf die Unternehmenskomplexität. Die Ansätze haben einen gemeinsamen Schwerpunkt auf der Beschreibung der Unternehmensdomäne, wenn auch auf unterschiedliche Weise. Jeder Ansatz hat ein Publikum bestehender Unterstützer. Der erste Ansatz organisiert Modelle nach den Perspektiven der Modellbenutzer und wird durch das Zachman Framework for Enterprise Architecture veranschaulicht, das in den letzten zehn Jahren in einer Vielzahl von kommerziellen und staatlichen Umgebungen an Popularität gewonnen hat. Der zweite Ansatz verwendet den Lebenszyklus als Organisationsthema und wird durch drei ISO-Standards zur industriellen Automatisierung und Systemtechnik (15704:2000, 19439:2003 und 15288:2002) veranschaulicht, die alle auf jahrzehntelanger Praxis aufbauen. Die beiden Ansätze verwenden eine Rahmenstruktur mit einem gemeinsamen Meta-Meta-Modell [1] und erweisen sich als komplementär. Jeder Ansatz dient einem bestimmten und wesentlichen Bedürfnis, um ein erfolgreiches Unternehmen zu verstehen und zu verwirklichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39648-2_43 09441d824d583ffc30062d75f10cc732;de;;;3.3.;;;Messung der Softwarekopplung basierend auf der Strukturentropie In der Software für orientierte Objekte ist die Kopplung der Grad der gegenseitigen Abhängigkeit zwischen Objekten. Um die Kopplung eines Softwaresystems formal zu messen, wird ein neuartiger Ansatz vorgestellt. Zunächst wird die Kopplung objektorientierter Softwaresysteme analysiert. Zweitens wird die Definition der Strukturentropie gegeben, Entropie ist das einflussreichste Konzept, das aus der statistischen Mechanik hervorgegangen ist. Die Entropie misst die Unordnung in einem System. Schließlich wird basierend auf der Strukturentropie ein Ansatz zur Messung der Kopplung des orientierten-Objekt-Softwaresystems vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18134-4_70 2bad964cd403a2f8e4886c8f484348fa;de;;;3.3.;;;Nahezu Echtzeit-Mustererkennung in einem Spezialcomputer mit paralleler Architektur In der Computer Vision birgt der Begriff Echtzeit eine gewisse Unsicherheit, da die Anforderungen von Standard-Kamerasensoren und die Anforderungen der zu prüfenden Prozesse teilweise auftragsbezogen unterschiedlich sind. Ein Beispiel zeigt die notwendige Systemkomplexität. Bei der Bildmustererkennung sind die Segmentierung interessanter Bildobjekte aus ihrem Bildhintergrund und die Charakterisierung der Objekteigenschaften durch ihre beschreibenden Merkmale die Voraussetzung für eine Objektklassifizierung. Beide Prozessschritte sind in der Regel von hohem Rechenaufwand bzw. hohem Zeitaufwand. Folglich ist eine Verarbeitung in Video-Echtzeit nur durch eine unterstützende Rechnerarchitektur möglich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-88049-0_100 6bf0d2b43d7af792a5fbbbe19b5ea8c2;de;;;3.3.;;;Verbesserung der Bildgebungsgeschwindigkeit von AFM mit modernen Kontrolltechniken Bei der Rasterkraftmikroskopie (AFM) sind die Dynamik und die Nichtlinearitäten des Positioniertischs Hauptquellen für Bildartefakte und Verzerrungen, insbesondere bei der Bildgebung mit hoher Geschwindigkeit. Dieser Beitrag diskutiert einige neuere Entwicklungen, um diese negativen Auswirkungen der Positioniertischdynamik in Hochgeschwindigkeits-AFM durch den Einsatz moderner Steuerungsmethoden zu kompensieren. Die Verbesserungen sowohl der seitlichen Abtastbewegung als auch der Kontrolle der Wechselwirkungskraft zwischen Spitze und Probe ermöglichen eine wesentlich schnellere und genauere AFM-Abbildung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22173-6_5 7939527d98acef6f0e57b6821e2f52a0;de;;;3.3.;;;Eine Studie zur Anwendung von SIP-Mobilität in der mobilen WiMax-Netzwerkarchitektur Dieses Papier untersucht die Zusammenarbeit der ASN-verankerten Mobilität und der SIP-Terminalmobilität, um die Übergabeleistung im WiMax-Netzwerk zu verbessern. Neben der Integration des WiMax-Mobility- und SIP-Mobility-Verfahrens unter Verwendung des B2BUA-Konzepts untersucht das vorgeschlagene Schema die Verkehrsbelastung, so dass die Weiterreichungsabfallrate reduziert werden kann. Da der B2BUA als Proxy fungiert, um die Übergaben der Verbindungsschicht und der Anwendungsschicht zu handhaben, können die Übergabeentscheidung und -richtlinie auf heuristische Weise durchgeführt werden. Experimentelle Simulationen wurden durchgeführt und die Ergebnisse zeigen, dass das vorgeschlagene Schema die Verkehrsverbindungen effektiv nutzen kann, um das obige Ziel zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21153-9_5 c14403a0d270b1133a2b9c265db1fbda;de;;;3.3.;;;ALL-TIMES – Ein europäisches Projekt zur Integration der Zeitmesstechnik ALL-TIMES ist ein Forschungsprojekt innerhalb des 7. EU-Rahmenprogramms. Das Projekt betrifft eingebettete Systeme, die Sicherheits-, Verfügbarkeits-, Zuverlässigkeits- und Leistungsanforderungen unterliegen. Diese Anforderungen beziehen sich zunehmend auf das richtige Timing. Folglich wächst der Bedarf an geeigneten Timing-Analysemethoden und -werkzeugen rasant. Immer mehr ausgereifte und technisch ausgereifte Timing-Analyse-Tools und -Methoden werden kommerziell und in der Wissenschaft verfügbar. Allerdings wurden Werkzeuge und Methoden historisch isoliert entwickelt und den potentiellen Anwendern fehlt eine prozessbezogene und durchgängige Werkzeug- und Methodenunterstützung. Aufgrund dieser Fragmentierung schöpft die Timing-Analysetool-Landschaft ihr Potenzial noch nicht voll aus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88479-8_31 4998a5f166faaae12fa0c561afff34d9;de;;;3.3.;;;Messung verformter Oberflächen und Schlüsseldatenverarbeitung basierend auf Reverse Engineering Nach der Blechumformung sollte die Dehnungsänderung auf verschiedene Weise bekannt sein, um die Spannungsanalyse des Umformprozesses durchzuführen. Um dieses Ziel zu erreichen, werden einige spezielle Kreismarkierungen auf die Blechoberfläche gedruckt und nach dem Umformen sollten die verformten Kreismarkierungen gemessen werden. Bei der bisherigen Methode wird das gespannte Seil mit einem Messschieber manuell gemessen, was sehr mühsam und ungenau ist. Um diesen Nachteil zu überwinden, werden alle Koordinatendaten nach dem Struktur-Licht-Prinzip berührungslos erfasst. Dann werden die erhaltenen Koordinatendaten der räumlichen Oberfläche durch Reverse Engineering (RE) zu einem CAD-Modell angepasst. In RE wird die CAD-Oberfläche zu einer Ebene entfaltet oder es werden zwei orthogonale Linien auf die CAD-Oberfläche projiziert, sodass die verformten Kreismarkierungen – räumliche Ellipsen – vollständig auf einmal gemessen werden können. Die Experimente belegen, dass die gemessene Genauigkeit etwa 0,01 mm höher ist als bei der vorherigen manuellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-7010-6_81 85b86ca4bfebaf32c0946e364f776209;de;;;3.3.;;;Von der Prozessprogrammierung zur Verfahrenstechnik Osterweil schlug 1986 die Idee von Prozessen als eine Art Software vor. Sie entstand aus früheren Arbeiten zu Softwaretools, Toolintegration und Entwicklungsumgebungen sowie aus dem Wunsch, die Spezifikation und Steuerung von Softwareentwicklungsaktivitäten zu verbessern. Die Vision der Prozessprogrammierung war inspirierend und führte direkt zu Ideen über Prozesssprachen, Prozessumgebungen, Prozesswissenschaft (sowohl rein als auch angewandt) und zu Möglichkeiten der Prozessanalyse und -simulation. Osterweil, seine Kollegen und eine blühende Gemeinschaft von Forschern weltweit arbeiten seit 25 Jahren an diesen und verwandten Ideen mit vielen bedeutenden Ergebnissen. Darüber hinaus sind, wie Osterweil und andere gezeigt haben, Ideen und Ansätze, die im Kontext von Softwareprozessen entstanden sind, in anderen Bereichen wie Wissenschaft, Regierung und Medizin anwendbar. Vor diesem Hintergrund sieht die Zukunft der Prozessprogrammierung so spannend und überzeugend aus wie eh und je.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19823-6_15 560f415d47b36c76e7baba38c3342995;de;;;3.3.;;;Motion Controller für rasterkraftmikroskopische Nanobiomanipulation Nanomanipulation mit Rasterkraftmikroskopie (AFM) ist eines der grundlegenden Werkzeuge für die Nanoherstellung. Die Bewegungssteuerung des Nanomanipulationssystems erfordert eine genaue Rückmeldung vom piezoelektrischen Aktor und eine Hochfrequenzantwort vom Steuersystem. Da ein normales AFM-Steuerungssystem für Scanbewegungen nicht für die Steuerung beliebiger Bewegungen geeignet ist, haben wir daher die Hardwarekonfiguration modifiziert, um den Anforderungen der Nanomanipulationssteuerung gerecht zu werden. Durch die Identifizierung der notwendigen Parameter mit Methoden der Systemidentifikation haben wir ein neues dynamisches Modell für die geänderte Konfiguration aufgebaut. Basierend auf dem neuen Modell und der neuen Konfiguration haben wir ein Steuerungsschema als Bewegungssteuerung für den AFM-Nanomanipulationsbetrieb entworfen und implementiert. Ziel ist es, verschiedene Faktoren bei der Steuerung des AFM-basierten Nanomanipulationssystems zu analysieren. Durch die Integration des ursprünglichen AFM-Controllers mit dem externen Linux-Echtzeitcontroller haben wir ein stabiles System mit Hochfrequenzgang erreicht. Mehrere Probleme wurden basierend auf dem neuen Steuerschema angegangen, wie beispielsweise Hochfrequenzantwort, robuste Rückkopplungssteuerung und Nichtlinearität usw. Schließlich wird dieses Multiple-Input Single-Output (MISO) System durch eine Echtzeit-Nanomanipulationsaufgabe validiert. Es hat sich als effektives und effizientes Werkzeug zur Kontrolle des Nanobiomanipulationsvorgangs erwiesen, indem die interzelluläre Verbindung von menschlichen Keratinozyten geschnitten wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22173-6_9 30e7cde19911b537fd0d4946d9270fcd;de;;;3.3.;;;Frühe Erfahrungen mit agiler Methodik in einem modellgetriebenen Ansatz Wir liefern softwareintensive Geschäftssysteme mit modellgesteuerten Techniken. Die Entwicklung geeigneter Codegeneratoren ist ein wichtiger Schritt in der modellbasierten Entwicklung zweckspezifischer Geschäftsanwendungen. Daher ist es wichtig sicherzustellen, dass die Entwicklung von Codegeneratoren nicht zu einem Engpass für die Projektabwicklung wird. Nach dem Aufbau einer ausgefeilten Technologieinfrastruktur zur schnellen und einfachen Anpassung modellbasierter Codegeneratoren experimentierten wir mit agiler Methodik. In diesem Papier diskutieren wir, warum eine reine agile Methodik für die modellgetriebene Softwareentwicklung nicht funktioniert. Als goldene Mitte zwischen agiler Methode und traditioneller plangetriebener Methode schlagen wir eine Modifikation der agilen Methodik in Form von Meta-Sprints vor. Erste Erfahrungen mit der vorgeschlagenen Entwicklungsmethode werden zusammen mit den gewonnenen Erkenntnissen ausgetauscht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24485-8_42 0a5e0adacdb747ca927817b5cb2b7c85;de;;;3.3.;;;Verstehen und Bewerten der Replikation in serviceorientierten mehrschichtigen Architekturen Aktuelle serviceorientierte Lösungen verwenden als Hauptbaustein eine mehrschichtige Architektur. Diese Architekturen stellen hohe Anforderungen an Leistung und Zuverlässigkeit. Die Replikation ist eine allgemeine Lösung für schnellen lokalen Zugriff und hohe Verfügbarkeit. Auf der Anwendungsserverebene bedeutet dies die Replikation der wiederverwendbaren Softwarekomponente der Geschäftslogik und des anwendungsabhängigen Zustands der Geschäftsdaten. Während die Replikation von Datenbanken jedoch ein gut erforschtes Gebiet ist und die Auswirkungen der Replikatwartung gut verstanden sind, ist dies bei der Datenreplikation in Anwendungsservern nicht der Fall, wo ganze Geschäftsobjekte repliziert werden, Web-Service-Schnittstellen bereitgestellt werden und der Hauptspeicherzugriff stark ist verbreiteter sind und einen Datenbankserver als Back-End-Schicht haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05201-9_8 bf96348e400cdecb8acf5d0788303db0;de;;;3.3.;;;Eine Einführung in die lasergestützte Mikrofabrikation, aktueller Stand und zukünftiger Anwendungsbereich Seit der Erfindung des Lasers vor fast fünf Jahrzehnten haben Wissenschaftler das Potenzial der Lasermikrobearbeitung untersucht. Im Vergleich zu Hochleistungslaseranwendungen erfordern die meisten Anwendungen im Mikromaßstab eher moderate mittlere Leistungen im Bereich von wenigen Watt oder darunter zusammen mit guten Strahlqualitäten und der Möglichkeit, gepulste und/oder kurzwellige Lasersysteme zu verwenden. Die meisten Anwendungen in diesem Bereich basieren auf Ablation, also Materialabtrag zum Strukturieren, Bohren oder präzisen Schneiden von Materialien. Aktuell laufen aber auch Aktivitäten, das Rapid Prototyping, also generative Verfahren, auf den Mikromaßstab zu adaptieren. Schließlich werden enorme Forschungsaktivitäten betrieben, um Nanostrukturen zu generieren. Aufgrund der Wellenlänge und der Beugungsgrenze in der klassischen Optik wurden neue Ansätze in Betracht gezogen, diese Einschränkungen zu überwinden und die einzigartigen Eigenschaften der Laserstrahlung auch im Nanometerbereich zu nutzen. Dieses Kapitel gibt einen Überblick über die gepulste lasergestützte Mikrobearbeitung mit den Schwerpunkten Strukturierung durch Laserablation, lasergenerative Verfahren und schließlich Nanobearbeitung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28359-8_6 7664c7dcd75b0ad0bb0824752fd811dd;de;;;3.3.;;;Ein adaptiver geruchsneutraler Kalman-Filter-basierter Controller zur gleichzeitigen Hindernisvermeidung und Verfolgung von mobilen Robotern auf Rädern mit unbekannten Schlupfparametern Es wird ein neuartiger vereinheitlichter Steuerungsansatz vorgeschlagen, um gleichzeitig Verfolgungs- und Hindernisvermeidungsprobleme eines auf Rädern befindlichen mobilen Roboters (WMR) mit unbekanntem Radschlupf zu lösen. Der Längs- und Querschlupf werden als drei zeitvariable Parameter verarbeitet und ein adaptiver Unscented Kalman-Filter (AUKF) wurde entwickelt, um die Schlupfparameter online zu schätzen Genauer gesagt wird eine adaptive Anpassung der Rauschkovarianzen im Schätzprozess unter Verwendung einer Technik von . implementiert Kovarianz-Matching im Kontext des Unscented Kalman Filter (UKF). Ein stabiler vereinheitlichter Controller wird verwendet, um gleichzeitig die Verfolgung und die Hindernisvermeidung für dieses WMR-System zu handhaben, um den unbekannten Schlupfeffekt zu kompensieren. Unter Anwendung der Lyapunov-Stabilitätstheorie wird bewiesen, dass Spurfehler des geschlossenen Regelkreises unabhängig von unbekanntem Schlupf asymptotisch konvergent sind, die Spurfehler außerhalb des Hinderniserkennungsbereichs gegen Null konvergieren und die Hindernisvermeidung innerhalb des Hinderniserkennungsbereichs garantiert ist. Die Wirksamkeit und Robustheit der vorgeschlagenen Kontrollmethode werden durch Simulation und experimentelle Ergebnisse validiert.;-;-;-;https://link.springer.com/article/10.1007/s10846-017-0761-9 7b4a7674dc701bf3e38211bc7041bbbd;de;;;3.3.;;;Scan: Minimierung der Cache-Verschmutzung durch Cache-Management auf Anwendungssoftwareebene für MMDB Die Verwendung von gemeinsam genutztem LLC (Last Level Cache) ist für die Effizienz von Mehrkernprozessoren wichtig. Unkontrollierte gemeinsame Nutzung führt zu Cache-Verschmutzung, d. h. die schwachen Lokalitätsdaten (Einzelnutzungsdaten ohne Wiederverwendung) verdrängen kontinuierlich die starken Lokalitätsdaten (häufig wiederverwendete Daten) von LLC sowohl in der inneren Abfrageverarbeitung als auch in gemeinsam laufenden Programmen. Bei analytischen MMDB-Anwendungen (Main-Memory Database) mit schrägem Sternschema von DW werden mehr als 95 % der Speicherkapazität von speicherresidenten Faktentabellen mit schwacher Lokalität belegt, und es gibt nur Dimensionstabellen mit kleiner Größe mit starker Lokalität. Die Cachepartitionierung muss Daten mit unterschiedlichen Lokalitäten innerhalb der Abfrageverarbeitung verwalten, um eine Cache-Verschmutzung durch eine Faktentabelle mit schwacher Lokalität zu vermeiden. Die statische BS-basierte Cache-Partitionierung leidet unter unzureichender Speicheradresskapazität aufgrund einer großen Faktentabelle und die dynamische BS-basierte Cache-Partitionierung leidet auch unter dem Overhead der Datenbewegung während der Cache-Neuzuweisung. Um eine praktische und effektive Cache-Partitionierungsrichtlinie anzuwenden, schlagen wir eine softwarebasierte Anwendung vor;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23535-1_41 c390a64da4484b09fb8f86470f2d20d8;de;;;3.3.;;;Ein hochverfügbarer Webserver-Cluster mit mehreren Front-Ends Heutzutage werden viele Clustering-Technologien auf Websites angewendet. Ein Webserver-Cluster kann entweder mit einem leistungsstarken Hardware-Switch oder LVS-Software (Linux Virtual Server) konfiguriert werden. Ein leistungsstarker Hardware-Switch hat eine gute Leistung, kostet aber beim Aufbau kleiner und mittlerer Websites viel. LVS, das kostenlos ist und eine gute Leistung bietet, wird häufig verwendet, um Webserver-Cluster zu erstellen. LVS wird durch ein einziges Front-End behindert, da dies bei erhöhten Anforderungen einen Engpass verursachen und dazu führen kann, dass das Cluster-System nicht mehr funktioniert. In diesem Whitepaper schlagen wir eine neue Architektur für Webserver-Cluster basierend auf LVS mit mehreren Frontends vor, die auch als Backends fungieren können. Diese Architektur beseitigt den Engpass und ist nützlich beim Erstellen kleiner und mittelgroßer Websites. Wir schlagen auch einen Scheduling-Algorithmus vor, um Anfragen unter Berücksichtigung ihrer Last gleichmäßig auf die Server zu verteilen. Mit diesem Planungsalgorithmus kann ein Server direkt auf die Anfrage eines Clients antworten, wenn seine Last nicht zu groß ist. Andernfalls leitet der Server die Anfrage an das ausgewählte Back-End mit der geringsten Last weiter. Durch unsere Experimente zeigen wir, dass ein Webserver-Cluster mit mehreren Front-Ends den Durchsatz linear erhöht, während ein Webserver-Cluster mit einem einzigen Front-End den Durchsatz kurvig erhöht. Wir hoffen, dass ein Webserver-Cluster mit mehreren Frontends hinsichtlich Kosten und Leistung für den Aufbau kleiner und mittlerer Websites geeignet und effizient ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30497-5_117 99154687651b8adc079164b3e6d3317e;de;;;3.3.;;;Programmierung auf Metaebene mit CodA Meta-Ebenen sind komplexe Softwareteile mit unterschiedlichen Anforderungen sowohl in der Berechnungs- als auch in der Interaktionsdomäne. Gängige Techniken, die nur Code verwenden, um Verhalten auszudrücken, können die Verantwortung für die Definition eines bestimmten Verhaltens nicht eindeutig zuordnen oder die Wiederverwendung oder Integration vorhandener Verhaltensbeschreibungen unterstützen. Die Techniken der feinkörnigen Zerlegung von Meta-Level-Verhalten in Objekte und deren anschließende Zusammensetzung in Objektmodellen bieten einen Rahmen für die Erstellung, Wiederverwendung und Integration komplexer Objektverhaltensweisen. Mit einem solchen Framework zeigen wir, dass Benutzer ganz unterschiedliche Objektmodelle entwickeln und integrieren können, während sie einen hohen Abstraktionsgrad beibehalten und die Wiederverwendung von Komponenten auf Metaebene fördern.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-49538-X_10 41a2f145e264b4a8b3603c13ae062405;de;;;3.3.;;;Industrie 4.0 CAMI: Eine Elastic Cloud Zynq UltraScale FPGA-Messarchitektur Im Zeitalter von Industrie 4.0 erfordern standardisierte Dienste (wie Strom, Gesundheitswesen usw.) Genauigkeit, Verfügbarkeit, Sicherheit und Servicequalität (QoS) im Cloud-Raum. Dieses Whitepaper stellt eine Cloud Advanced Metering Infrastructure (CAMI) vor, die ein feldprogrammierbares Gate-Array (FPGA) von Zynq UltraScale+ verwendet. Das architektonische Layout für die Energieverfolgung und Profilmessung wird diskutiert. Im Gegensatz zu bestehenden Systemen mit digitalen Signalprozessoren verwendet es präzisionsbasierte Zählerablesung mit verschlüsseltem Demand Side Management (DSM), um die Endbenutzer zu schützen. Eine Energiedienstleistungsanwendung mit unterstützendem Hardware-Prototyp wird entworfen. Kryptografische Algorithmen, dynamische automatische Skalierung und prädiktive QoS-Bereitstellung werden als Funktionen des Back-End-Cloud-Virtualisierungs-Infrastruktur-Controllers (CVIC) eingeführt. Die Prozessintegration wird mit der CVIC-Synthese für Energieanalytik und DSM erreicht. Für das Anwendungsszenario läuft der CAMI-Prototyp auf Zynq UltraScale+-Geräten mit Unterstützung für End-to-End-Datensatzerfassungen. Das System bietet eine On-Demand-Visualisierung von Energieverbrauchsmustern für die Endbenutzer. Im Versuchsaufbau demonstrieren zwei Fallszenarien, wie das Messsystem ein schnelles Edge-Computing-Profiling durchführt. Optimale Leistung wird für Latenz, Auslastung und Durchsatz unter CVIC-Overhead-Beschränkung erreicht. Es wurde beobachtet, dass die Ressourcennutzungsreaktionen für heterogene und nicht heterogene CVIC 71,43 % bzw. 28,57 % betragen. Latenzprofile ergaben 71,43 % bzw. 28,57 %. Mit dem VM-Controller bietet FPGA CAMI 47,36 %, während ohne VM-Controller 52,63 % Durchsatz beobachtet werden. Folglich zeigen die Ergebnisse, wie die FPGA-Hardwarebeschleunigung die Anforderungsverteilung sowie die Verarbeitung der Arbeitslast für Cloud-basierte Messsysteme erheblich verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58817-5_39 b79ea893e073433da15d003b9580ea26;de;;;3.3.;;;Zuverlässiger digitaler Zwilling für vernetzte Fußballer Der digitale Zwilling wird neue Erkenntnisse im Sportbereich gewinnen. Es hilft nicht nur, Sportler virtuell in einem Labor zu verbinden und zu überwachen, sondern hilft auch, Aktionen, Bewegungen im Boden und Spielschüsse zu simulieren, die Trainer und Trainer empfehlen, die Spielstrategie im laufenden Betrieb oder sogar zur Halbzeit oder während des Spiels neu zu definieren .;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8681-6_18 0f393492254dc6a4d6473c685351cb15;de;;;3.3.;;;Die Innovationsstrategie Dieses Kapitel beschreibt die wesentlichen Zutaten, die für die Formulierung einer effektiven IKT-basierten Innovationsstrategie erforderlich sind. Dies basiert auf eingehenden Recherchen, Literaturrecherchen, Branchenerfahrungen und der Bewertung von Geschäftstrends. Es präsentiert ein Framework, das auf Open Innovation, dem Quadruple Helix-Modell, basiert und von ICT angetrieben wird. Einige wichtige, indikative Metriken und Prozesse/Richtlinien werden ebenfalls vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1675-3_6 072d848bdec93cd4b4c5b458ca30272d;de;;;3.3.;;;A BDS-3 B1C/B2a Dual-Frequency Joint Tracking Architektur basierend auf adaptivem Kalman-Filter und verlängerter Integrationszeit Mit der Entwicklung des BeiDou-Navigationssatellitensystems (BDS-3) der dritten Generation wird die Verfügbarkeit neuer ziviler B1C- und B2a-Signale zusammen mit bestehenden B1I- und B3I-Signalen das Design der BeiDou-Mehrfrequenzempfänger erheblich verbessern. BDS-3 kann zum Beispiel Signalbeobachtungen bei mehreren Frequenzen bereitstellen, um flexible Designstrategien für fortschrittliche Empfänger-Basisbandsignale und eine lineare Kombination von Beobachtungen zu bilden, die für verschiedene Zwecke verwendet werden. Kürzlich wurden die B1C/B2a-Empfänger vorgeschlagen, die jedoch durch die Integrationszeit begrenzt sind, um die Tracking-Empfindlichkeit weiter zu verbessern. Außerdem wurden die Signalbeobachtungen und die Eigenschaften der Dual-Frequency-Tracking-Architektur noch nicht vollständig erforscht, was weiter entwickelt werden kann, um gegenseitige Vorteile zu erzielen und eine optimale Tracking-Leistung zu erreichen. Zur Verbesserung der Tracking-Performance, insbesondere in anspruchsvollen Umgebungen, wie z. B. bei schwachem Signal und selektiver Frequenzsignaldämpfung, wird eine B1C/B2a-Joint-Tracking-Architektur für BDS-3 Zweifrequenzempfänger basierend auf einem adaptiven Kalman-Filter vorgeschlagen und eine verlängerte Integrationszeit. Die experimentellen Ergebnisse zeigen, dass die vorgeschlagene gemeinsame Tracking-Architektur im Vergleich zu den modifizierten traditionellen Tracking-Architekturen die Tracking-Empfindlichkeit des Empfängers um bis zu 3,29 dB verbessern und eine optimale Verfügbarkeit, Genauigkeit und Robustheit sowohl bei Tracking- als auch bei Navigationslösungen erreichen kann.;-;-;-;https://link.springer.com/article/10.1007/s10291-019-0944-x 3c4ad6882bdb91dcac6972385206ace2;de;;;3.3.;;;Eine Methode zur schnellen Bildung eines virtuellen Softwareentwicklungsteams Unternehmen, die sich mit Softwareentwicklung befassen, haben aufgrund des schnellen Technologiewandels und unterschiedlicher Projektanforderungen häufig Probleme mit Kadern. Häufig wird beim Start eines neuen Projekts zusätzliches Personal benötigt, aber nach Abschluss des Projekts werden diese zusätzlichen Mitarbeiter nicht mehr benötigt. Eine mögliche Lösung für das Problem ist die Bildung eines virtuellen Entwicklungsteams. Der Einsatz virtueller Entwicklungsteams im Bereich der Softwareentwicklung ist gängige Praxis. Solche Teams werden jedoch in der Regel für längere Zeit zusammengestellt und ihre Mitglieder sind relativ dauerhaft. Das Ziel unserer Forschung ist es, einen methodischen Ansatz zu entwickeln, der es einem Softwareentwicklungsunternehmen ermöglicht, bei Bedarf schnell ein virtuelles Ad-hoc-Team aufzubauen. Die Mitglieder eines solchen Teams wären nur vorübergehend und ihre Aufgaben relativ einfach und unabhängig. Unserer Meinung nach könnte ein solcher Ansatz für bestimmte Arten von Softwareentwicklungsunternehmen interessante Vorteile bieten. Dieses Kapitel stellt das Rückgrat des Ansatzes und seine grundlegenden Eigenschaften vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-68772-8_35 973ff454b5acb4a14bf0fecd49dcf074;de;;;3.3.;;;Rolle des Brokers in der InterCloud-Umgebung Cloud Computing stellt ein großes Versprechen dar, Unternehmen und Unternehmen schnell effizientere Informationstechnologie (IT)-Systeme zur Verfügung zu stellen, kleine und mittlere Unternehmen zu ermutigen, intensivere und verbreitetere Technologien zu nutzen, und somit eine starke Erholung auf a neue Basis für den Markt der Informations- und Kommunikationstechnologie (IKT). Zwei große Herausforderungen beim Cloud-Computing sind die Skalierbarkeit und das konsistente Erreichen von Quality of Service (QoS)-Standards, die von den Verbrauchern festgelegt werden. Je nach den von den CSPs bereitgestellten Diensten und den Anforderungen der Nutzer können verschiedene Cloud-Ressourcen von den Cloud-Service-Providern (CSPs) auf unterschiedlichen Abstraktionsebenen bezogen werden. Eine einheitliche Lösung zur Bereitstellung der versprochenen Dienste mit geeigneten Leistungskennzahlen ist die Implementierung einer föderierten Umgebung mit Hilfe eines Agenten oder Brokers. In diesem Kapitel werden die Vision, die Herausforderungen und die Architekturelemente von Maklerdiensten einer föderierten Cloud-Computing-Umgebung vorgestellt. Es bietet einen grundlegenden Überblick und Erwartungen und bildet den Hintergrund für die restlichen Kapitel in diesem Buch.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-6452-4_5 6b0f27c6b67df164f2311b2f0425c429;de;;;3.3.;;;Eine zweifache Auswirkungsanalyse von Schemaänderungen auf Datenbankanwendungen Datenbankanwendungen werden immer beliebter, hauptsächlich aufgrund der fortschrittlichen Datenverwaltungsfunktionen, die das zugrunde liegende Datenbankverwaltungssystem im Vergleich zu herkömmlichen Legacy-Softwareanwendungen bietet. Die Interaktion solcher Anwendungen mit dem Datenbanksystem bringt jedoch eine Reihe von Problemen mit sich, unter anderem befasst sich dieser Artikel mit der Auswirkungsanalyse der auf Datenbankschemaebene durchgeführten Änderungen. Unsere Motivation ist es, den Softwareentwicklern von Datenbankanwendungen automatisierte Methoden zur Verfügung zu stellen, die große Wartungsaufgaben wie Quellcodekorrekturen und Regressionstests erleichtern, die durch das Auftreten solcher Änderungen ausgelöst werden sollen. Die vorgestellte Wirkungsanalyse ist daher zweigeteilt: Die Wirkung wird sowohl hinsichtlich der betroffenen Quellcode-Aussagen als auch der betroffenen Testsuiten bezüglich des Testens dieser Anwendungen analysiert. Um das erstgenannte Ziel zu erreichen, wird eine Programm-Slicing-Technik verwendet, die auf einer erweiterten Version des Programmabhängigkeitsgraphen basiert. Das letztgenannte Ziel erfordert die Analyse von Testsuiten, die für Datenbankanwendungen generiert wurden, was durch den Einsatz von Testtechniken erreicht wird, die auf diese Art von Anwendungen zugeschnitten sind. Die Verwendung sowohl der Slicing- als auch der Testtechniken verbessert das Programmverständnis von Datenbankanwendungen und unterstützt gleichzeitig die Entwicklung einer Reihe praktischer Metriken bezüglich ihrer Wartbarkeit gegenüber Schemaänderungen. Um die Machbarkeit und Wirksamkeit der vorgestellten Techniken und Metriken zu bewerten, wurde ein Softwaretool namens DATA implementiert. Die experimentellen Ergebnisse seiner Anwendung in der TPC-C-Fallstudie werden berichtet und analysiert.;-;-;-;https://link.springer.com/article/10.1007/s11633-009-0109-4 96899bb063d662f642b9cf56b5683b8a;de;;;3.3.;;;Analyse des Bluetooth-Geräteerkennungsprotokolls Die Geräteerkennung und der Verbindungsaufbau sind grundlegend für die Kommunikation zwischen zwei Bluetooth (BT)-Geräten. In diesem Beitrag geben wir ein analytisches Modell der Zeit, die der Meister in einem Piconetz benötigt, um einen Sklaven zu entdecken. Wir zeigen, dass auch ohne Paketinterferenz die Erkennungszeit in einigen Fällen lang sein kann. Wir haben das Entdeckungsprotokoll simuliert, indem wir es tatsächlich implementiert haben, um das analytische Modell zu validieren. Anhand von Simulationen zeigen wir, wie die Erkennungszeit beeinflusst wird durch (i) das Vorhandensein mehrerer potenzieller Slaves und (ii) Änderungen der maximalen Backoff-Grenze. Anhand von Simulationsstudien haben wir die Wirksamkeit von zwei vorgeschlagenen Verbesserungen der Geräteerkennung beobachtet, nämlich (i) die Vermeidung von Wiederholungen der;-;-;-;https://link.springer.com/article/10.1007/s11276-008-0142-1 e3b3457ecc601f0341b61f2ff16e15cd;de;;;3.3.;;;Modelle, Methoden und Werkzeuge zur Effektivitätsabschätzung postobjektorientierter Technologien in der Softwarewartung Es wird ein intelligenter Rahmen für die Effektivitätsschätzung post-objektorientierter Technologien (POOT) vorgeschlagen, der auf der Strukturierung und Analyse von domänenspezifischem Wissen über solche miteinander verbundenen und komplexen Datenressourcen innerhalb eines Software-Wartungsprozesses basiert wie: (1) strukturelle Komplexität von Legacy-Softwaresysteme, (2) dynamisches Verhalten von Benutzeranforderungen, (3) architekturzentrierte Implementierungsprobleme durch Verwendung verschiedener POOTs. Diese 3 Komponenten werden formalisiert und in Form des algorithmischen Modells kombiniert, und die endgültigen Schätzwerte der POOT-Effektivität werden mit Fuzzy-Logik-Methoden definiert und CASE-Tools ausgearbeitet, die erfolgreich in der Wartungsfallstudie realer Softwareanwendungen getestet wurden .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30246-1_2 531b1424e2889bcbeb2a56d4c43c4d64;de;;;3.3.;;;Virtuelle und dynamische hierarchische Architektur: eine Overlay-Netzwerktopologie zum Erkennen von Grid-Diensten mit hoher Leistung In diesem Whitepaper wird eine Overlay-Netzwerktopologie namens Virtual and Dynamic Hierarchical Architecture (VDHA) zum Erkennen von Grid-Diensten mit hoher Leistung vorgestellt. Service Discovery basierend auf VDHA ist skalierbar, autonom, effizient, zuverlässig und reaktionsschnell. Wir schlagen zwei Service-Discovery-Algorithmen vor. Full Search Query and Discovery Protocol (FSQDP) erkennt die Knoten, die der Anforderungsnachricht von allen entsprechen;-;-;-;https://link.springer.com/article/10.1631/jzus.2004.0539 35569b0a4a83edcfb30d31178805c76c;de;;;3.3.;;;Kommunikations-Ressourcen-Management-Technologie von Kernkraftwerken In der Informationsumgebung werden die Ressourcen von Kommunikationsgeräten zunehmend vielfältiger und komplexer. Abgesehen von gängigen Informationsmanagementsystemen können Geräteressourcen im Verbund organisiert werden. Ausrüstungsressourcen können einen Arbeitsauftrag bilden. Der Arbeitsauftrag hat mindestens ein Objekt und kann in kleinere unterteilt werden. So kann der Arbeitsauftrag in viele Teilaufgaben unterteilt werden, um eine hierarchische Struktur zu bilden. Das Managementsystem ist so konzipiert, dass es diese Aufgaben aufschlüsselt und seine Aufgabenknoten zuweist. Als Ergebnis der Zerlegung können alle Geräteressourcen von diesem System verwaltet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-7010-6_127 6bb6f059501a94ef6ff0817e18f6c491;de;;;3.3.;;;Sprachkritische Entwicklung prozessorientierter Anwendungssysteme Der Fachkräftemangel im IT-Bereich sowie die technologischen Möglichkeiten von Service-orientierten Architekturen (SOA) und Web 2.0-Anwendungen führen zu folgenden Konsequenzen: Arbeitsprozesse, Jobengineering und Arbeitsorganisation werden modelliert und damit gestaltet digital im Sinne von IT-Unterstützung. Damit einher geht die mitarbeiterunabhängige Modellierung von Arbeitsabläufen in zu rationalisierenden bzw. zu rationalisierenden Bereichen. nicht mit qualifizierten Fachkräften besetzt werden. Daher wird es eine weltweite netzbasierte Auswahl derjenigen geben, die in der Lage und qualifiziert sind, modellierte Arbeiten wie z.B. „Schadensfall bearbeiten“ oder „eine optimierte Datenstruktur für Stammdaten erstellen“ mittels der Unified Modeling Language (UML) am effektivsten und effizientesten. Ein Unternehmen wird daher seine modellierten Arbeitsprozesse (HB-Dienste) und IT-Dienste (Anwendungsprogramme), die als computergestützte Arbeitsmittel in jedem Arbeitsprozess an einem beliebigen Ort der Welt stattfinden, neutral verwalten, ohne ihn zuvor einem bestimmten Leistungsträger zuzuordnen (neutral oder künstliche Akteure). Damit ist es möglich, Arbeitsprozesse global arbeitsteilig zu steuern und dynamisch abzuwickeln sowie eine datenbankgestützte Verwaltung von „Leistungsverzeichnissen“ (Arbeitsplänen) über das World Wide Web. All das erfordert neue und dynamische – im Sinne komponentenbasierter – Stellenbeschreibungen und andere Arbeitsmittel, die weit über das heute etablierte Skill- und Task-Management hinausgehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14819-4_3 426b1a122624a74038b4d8c1546f4cf0;de;;;3.3.;;;QoS-Verschlechterung von Partner-Webdiensten managen: Ein proaktiver und präventiver Ansatz Im serviceorientierten Paradigma ist eine Softwarelösung eine Zusammenstellung einzelner Webdienste. Diese Webservices, auch Partnerservices genannt, tragen nicht nur dazu bei, die Funktionalität der Softwarelösung zu realisieren, sondern bestimmen auch deren Quality of Service (QoS). Ein Partner-Webdienst arbeitet in einer dynamischen Umgebung und ist daher anfällig für Ausfälle oder leidet unter einer Verschlechterung der QoS. Der Ausfall eines Partner-Webdienstes beeinträchtigt die QoS einer servicebasierten Lösung. Daher stellt sich eine Forschungsherausforderung hinsichtlich der Verwaltung von Webdiensten, die zum Zeitpunkt der Ausführung plötzlich verschwinden oder nicht mehr wie erwartet funktionieren. Für die Laufzeitüberwachung der Partner-Webservices existieren mehrere Lösungen, sodass bei einer Verschlechterung der QoS-Werte einiger von ihnen die Softwarelösung angepasst und über alternative Webservices mit besserer QoS ausgeführt werden kann. Diese Lösungen sind jedoch entweder auf die Client- oder die Anbieterseite beschränkt. In diesem Papier schlagen wir eine Lösung vor, die zwischen den Kunden und den Dienstleistern verteilt wird. Es handelt sich um ein auf Softwareagenten basierendes Framework, das den Aufruf von Partner-Webdiensten mit verschlechterter QoS verhindert. Die experimentellen Ergebnisse zeigen die Effektivität und Effizienz der vorgeschlagenen Lösung in einer dynamischen Laufzeitumgebung.;-;-;-;https://link.springer.com/article/10.1007/s12927-016-0007-6 9f3c94e0cd213bceb848249e93cc0cfd;de;;;3.3.;;;Hochgeschwindigkeits-LDPC-Encoder-Architektur für digitale Videoübertragungssysteme In diesem Papier haben wir eine Hochgeschwindigkeits-LDPC-Encoder-Architektur für den DVB-S2-Standard vorgeschlagen. Die vorgeschlagene LDPC-Kodierungsarchitektur basiert auf parallelen 360-Bit-weisen Operationen. Die Schlüsselthemen für die Realisierung hoher Geschwindigkeiten sind die Verwendung der beiden Arten von Indexadressen und die effiziente Nutzung von Speichern. Wir haben einen LDPC-Encoder mit halber Rate auf einem FPGA implementiert und bestätigt, dass sein maximaler Durchsatz bis zu 10 Gbps bei 100 MHz Takt beträgt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35603-2_34 215f53c3d1b09d4f69296f864c8729ca;de;;;3.3.;;;Hardware-Bausteine ​​einer rekonfigurierbaren System-on-Chip-Plattform mit gemischter Granularität Aufgrund der Kombination aus Flexibilität und Realisierungseffizienz hat sich rekonfigurierbare Hardware zu einer vielversprechenden Implementierungsalternative entwickelt. Im Rahmen des IST-AMDREL-Projekts wurde eine rekonfigurierbare SoC-Plattform mit gemischter Granularität entwickelt, die auf drahtlose Kommunikationssysteme abzielt. Die Hauptbausteine ​​der Plattform werden vorgestellt, darunter grobkörnige rekonfigurierbare Einheiten, eingebettetes FPGA, Verbindungsnetzwerk und anwendungsspezifische wiederverwendbare Blöcke. Die Kombination dieser Blöcke in Plattforminstanzen soll zu einem guten Gleichgewicht zwischen Implementierungseffizienz und Flexibilität führen. Ein auf der AMDREL-Plattform basierender rekonfigurierbarer SoC für ein drahtloses Multimode-Netzwerksystem wird derzeit entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30205-6_63 0f0f709582516ee99ef3fde3c2d3a163;de;;;3.3.;;;TCP/IP Security Protocol Suite für Grid-Computing-Architektur Grid Computing ist ein Begriff, der sich auf die Kombination von Computerressourcen aus mehreren Verwaltungsdomänen bezieht, um ein gemeinsames Ziel zu erreichen. Das Grid kann man sich als verteiltes System mit nicht interaktiven Workloads vorstellen, die eine große Anzahl von Dateien umfassen. In diesem Whitepaper schlagen wir eine Lösung für verschiedene Sicherheitsprobleme vor, die in der High Performance Grid Computing Architecture vorkommen. Wir analysieren verschiedene Netzwerkschichten, die in der Grid Protocol Architecture verfügbar sind, und identifizieren verschiedene Sicherheitsdisziplinen auf ihren verschiedenen Schichten. Wir analysieren auch verschiedene Sicherheitssuiten, die für die TCP/IP-Internetprotokollarchitektur verfügbar sind. Das Papier beabsichtigt, zwei Hauptaufgaben zu erfüllen. Erstens definiert es die verschiedenen Sicherheitsdisziplinen auf verschiedenen Ebenen der Grid Protocol Architecture. Zweitens werden verschiedene Sicherheitssuiten vorgeschlagen, die für verschiedene Ebenen von Sicherheitsdisziplinen anwendbar sind, die in verschiedenen Schichten der TCP/IP-Sicherheitsprotokollsuite verfügbar sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22577-2_4 6ab03967b8be814817bad48e990354de;de;;;3.3.;;;Softwareentwicklungsmanagementforschung basierend auf fahrzeuggesteuerten Steuergeräten In diesem Papier werden basierend auf der Softwareentwicklungsmanagementstrategie eines fahrzeuggesteuerten Steuergeräts als Forschungsobjekt durch die Analyse des Status der Fahrzeugsoftwareindustrie und des technischen Managements ein Softwareentwicklungsmanagementprozesssystem und ein für Automobilsteuergeräte geeigneter Qualitätsbetriebsmodus vorgestellt , nämlich „Double-V-Iterationsmodus“. Durch verifiziertes Pilotprojekt, das erfreuliche, schrittweise Ergebnisse erzielt hat. Aus den Ergebnissen der Phase geht hervor, dass es eine gute Leistung erbracht hat und das Qualitätsmanagement und die Konfigurationsmanagementebene des Unternehmens verbessert und eine qualitativ hochwertige Managementstrategie für das neu entwickelte fahrzeuggesteuerte ECU-Softwaremanagement bereitgestellt hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7945-5_73 ae4e2556734b79b428387973ddb491b5;de;;;3.3.;;;Hardware-Aspekte der Datenübertragung in Kohlebergwerken mit Explosionsgefahr Die Vielfalt und Gemeinsamkeit der zur Überwachung von Industrieprozessen eingesetzten Sensoren und der weit verbreitete Einsatz digitaler Datenverarbeitungsverfahren für die Messungen sind entscheidende Themen der Kommunikation und Datenerfassung. Die gängigen technischen Lösungen zur schnellen und zuverlässigen Übertragung großer Informationspakete lassen sich in explosionsgefährdeter Umgebung nicht direkt anwenden. Der Beitrag zeigt die für Kohlebergwerke charakteristischen Physical Layer Limitierungen für die Übertragungsstrecken mit der potentiellen Explosionsgefahr von Methan und Kohlenstaub. Es wurden Bereiche minenspezifischer Anwendungen zur Datenübertragung zusammengefasst und ein Beispiel zur Berechnung von Sicherheitsparametern für den Kommunikationsstandard RS485 vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38865-1_52 226b14aac4d4884499aedeb1f03415bd;de;;;3.3.;;;Modellgetriebener Ansatz für die Entwicklung von Webanwendungssystemen Um die Probleme der modellgetriebenen Softwareentwicklung zu lösen, wird in diesem Beitrag ein modellgetriebener Ansatz für die Entwicklung von Webanwendungssystemen vorgeschlagen. Der Entwicklungsprozess beginnt mit der Beschreibung plattformunabhängiger Modelle. Dann werden Abbildungsbeziehungen vom Quellmodell zum Zielmodell gemäß der syntaktischen Struktur und den semantischen Merkmalen beider Metamodelle aufgebaut, und anschließend können Modelltransformation sowie Codegenerierung erreicht werden. Als Zielplattform im Experiment wird ASP.NET verwendet, was zeigt, dass dieser Ansatz dem Wesen, dem Prozess und den Anforderungen der modellgetriebenen Softwareentwicklung folgt und damit eine wirkungsvolle Unterstützung für das modellgetriebene Software-Engineering leisten kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37829-4_21 96db70da1df580df37847d7daf130b80;de;;;3.3.;;;Eine verteilte generische Datenstruktur für die Überwachung von Gebäudedaten auf Stadtebene Der Aufbau einer generischen Datenstruktur, die den Aufbau realer Daten im städtischen Maßstab handhabt, stellt gewisse Herausforderungen dar. Entitäten der realen Welt müssen in einer Umgebung erfasst werden, die die Kommunikation relevanter Daten ermöglicht. Die zugehörigen Softwarekomponenten müssen wartbar und zuverlässig sein. Der vorliegende Beitrag beschreibt Bemühungen zur Verbesserung eines bewährten Rahmens für die Gebäudeüberwachung, um Gebäudedaten auf städtischer Ebene zu verarbeiten. Dies erfordert die Entwicklung eines verteilten, generischen und erweiterbaren Datenspeichers sowie die Konzeption einer modularen und skalierbaren Anwendungsarchitektur. Der skalierbare Datenspeicher wird eingeführt sowie der Modularisierungsprozess der Anwendungslogik, einschließlich Datenhandhabungs- und Kommunikationsroutinen. Darüber hinaus ermöglicht das Konzept der virtuellen Datenpunkte und virtuellen Datenpunktsammlungen städtischen Einheiten (z. B. Gebäuden), ihren Status auf effektive Weise an das System zu übermitteln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55032-4_9 28e322d02748d01860248d137abf31ac;de;;;3.3.;;;Ein Integritätssicherungsmechanismus für Laufzeitprogramme Um die Schwäche bestehender Integritätsmess- und -verifikationsmechanismen basierend auf Trusted Computing-Technologie zu überwinden, wird in diesem Papier ein Integritätssicherungsmechanismus für Laufzeitprogramme vorgeschlagen. Basierend auf einem dynamischen Integritätsmessmodul löst der vorgeschlagene Integritätssicherungsmechanismus die Schwierigkeiten, die bei der Bestätigung der Integrität von laufenden Programmen auftreten können. Das Papier beschreibt auch die Design- und Implementierungsdetails des vorgeschlagenen Moduls. Ein Beispiel für die Anwendung des vorgeschlagenen Mechanismus zum Schutz der vTPM-Instanzen im Xen-Hypervisor wird schließlich vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01440-6_29 44f9647e216b4a127ef590357b6aaeb5;de;;;3.3.;;;2-schichtige SOA-Testarchitektur basierend auf BPA-Simulationsereignis Dieses Whitepaper präsentiert eine Implementierungs-Fallstudie für ein geschäftsorientiertes SOA-Testframework. Die Referenzarchitektur eines SOA-Systems ist normalerweise geschichtet: Geschäftsprozessschicht, Serviceschicht und Rechenressourcenschicht. In der Architektur gibt es so viele Subsysteme, die die Systemleistung beeinflussen, außerdem stehen sie in Beziehung zueinander. Daher ist es in Bezug auf die Gesamtleistung normalerweise bedeutungslos, die Leistung jedes Teilsystems separat zu messen. In einem SOA-System hängt die Leistung der Geschäftsprozessschicht, mit der Benutzer in Kontakt bleiben, von der Summe der Leistung der anderen unteren Schichten ab. Daher umfasst die Messung der Leistung der Business-Schicht die indirekte Messung der anderen SOA-Systemschichten. Wir haben ein geschäftsorientiertes SOA-Testframework entwickelt, in dem Aktivitäten und Steuerungsprimitive in Geschäftsprozessmanagern simuliert werden, um Befehle oder Dienste in einem Testszenario aufzurufen. Das heißt, im Testframework kann ein reales Geschäftsprozess-Szenario durch ein nachgebildetes Geschäftsprozess-Testszenario ersetzt werden, das in einem Test-Proxy basierend auf Ereignismechanismen ausgeführt wird. In diesem Papier stellen wir das Konzept der BPA-Simulation, des 2-schichtigen Testsuitemodells und der Referenzarchitektur vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10844-0_6 fc95891c4bf8cac5eb6df51c26b9d787;de;;;3.3.;;;Eine Multi-Agenten-Architektur zur Steuerung autonomer mobiler Roboter mit Fuzzy-Logik und Hindernisvermeidung mit Computer Vision Dieses Papier beschreibt die Entwicklung eines Multi-Agenten-Systems (MAS), das mit Fuzzy-Logik (um die Roboterbewegungen in einem reaktiven Pfad zu steuern) und Computer Vision unterstützt wird, die einen autonomen mobilen Roboter steuert, um ein Labyrinth zu verlassen. Die Recherche besteht aus zwei Phasen. In der ersten Phase besteht das Problem darin, den Roboter dazu bringen zu können, ein Labyrinth zu verlassen, der mobile Roboter wird am Eingang positioniert (Punkt A) und sollte einen Ausgang (B) erreichen, es ist zu beachten, dass wir mit einem NXT arbeiten Roboter zu Lego MINDSTORMS ®. In seiner zweiten Phase besteht das Problem darin, den Roboter nach einem erkannten Objekt suchen zu lassen, dazu werden mit einer Kamera Bilder aufgenommen, die mit Vision-Techniken zur Identifizierung verarbeitet werden, und danach trifft die SMA die Entscheidung, auszuweichen oder nimm das Objekt entsprechend.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04516-5_14 be26ca247bdc4004602fca9c8814993f;de;;;3.3.;;;Eine Architektur für Echtzeit-Argumentation und -Lernen Dieser Beitrag vergleicht die verschiedenen Konzeptionen von „Echtzeit“ im Kontext von KI, als unterschiedliche Berücksichtigung der Bearbeitungszeit bei der Lösung von Problemen. Es wird eine Architektur des Echtzeit-Schlußfolgerns und -Lernens eingeführt, die ein Aspekt des AGI-Systems NARS ist. Die Grundidee besteht darin, Problemlösungsprozesse flexibel und dynamisch zur Laufzeit zu gestalten, indem Inferenzregeln als Bausteine ​​verwendet werden und die Überzeugungen und Fähigkeiten des Systems unter Beschränkung des Zeitbedarfs der Aufgaben inkrementell selbst organisiert werden. NARS wurde unter der Annahme von unzureichendem Wissen und Ressourcen entwickelt, was zu einer inhärenten Fähigkeit führt, mit unterschiedlichen Situationen rechtzeitig umzugehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-52152-3_37 f3431dc96875aacecfbc190f94447502;de;;;3.3.;;;Forschung zur Steuerungs- und Managementtechnologie der gemeinsamen Plattform für verteilte Simulationsexperimente Gegenwärtig nimmt die Komplexität von Simulationsexperimenten dramatisch zu, da das Waffensystem des Systems immer komplexer wird. Das Simulationsexperiment mit einer Maschine konnte die Projektanforderungen nicht erfüllen. Als Entwicklung der Computer- und Netzwerktechnologie hat sich Advanced Distributed Simulation (ADS) im Experiment, der Argumentation und Bewertung von Hightech- und komplexen Waffensystemen weit verbreitet, was die Nachteile der Einzelmaschinensimulation überwindet. Ein groß angelegtes integriertes Simulationsexperiment zur Argumentation und Gestaltung von Waffensystemen ist jedoch ein System Engineering, das zu einem explosionsartigen Anstieg der Simulationsressourcen führt. Als Ergebnis wird die funktionale Struktur immer vielfältiger, die interaktive Beziehung wird immer komplexer und die Betriebssteuerung wird immer schwieriger. Um das Simulationsexperiment und die Auswertung schneller, genauer und bequemer durchführen zu können, ist es dringend erforderlich, ein Makrosteuerungs- und Managementsystem für umfassende Simulationsexperimente zu entwerfen und zu entwickeln, um dessen gesamte Lebenszyklussteuerung und -verwaltung zu unterstützen . In diesem Beitrag wird die Steuerungs- und Managementtechnologie für verteilte Simulationsexperimente vor dem Hintergrund des Projekts Joint Distributed Simulation Experiment Platform (JDSEP) untersucht. Dieses Papier schlägt und erläutert die Architektur von JDSEP, den Rahmen des Makro-Management- und Kontrollsystems bzw. des Simulationsressourcen-Management-Tools in Übereinstimmung mit der Reihenfolge vom Ganzen zum Lokalen, was einen konzeptionellen Rahmen und eine theoretische Anleitung für die Folgemaßnahmen bietet Realisierung und Umsetzung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-2663-8_31 fbab06a1bd2b2fb9cf5803afe5718fd3;de;;;3.3.;;;Dreischichtige Architektur der Fascia poplitea, die als kinetisches Retinakulum für die Oberschenkelmuskulatur fungiert Wenn Patienten bei Kniestreckung Schmerzen in der Kniekehle berichten, ist der Schmerz normalerweise im unteren Bereich der Kniekehle lokalisiert. Einige Patienten klagen jedoch über Schmerzen im oberen Bereich der Fossa poplitea bei Beugung des Knies, was uns motivierte, die Rolle der Fascia poplitea als Retinakulum der Oberschenkelmuskulatur zu untersuchen. 34 Oberschenkel von 19 japanischen Kadavern wurden seziert. Die Fascia poplitea wurde als die einzelne aponeurotische Schicht definiert, die die Fossa poplitea bedeckt. Wir fanden, dass die Faszie als dreischichtiges Retinakulum für die Beugemuskeln des Oberschenkels fungiert und in jeder kinetischen Position des Kniegelenks einen sicheren Weg für neurovaskuläre Strukturen zum Unterschenkel bereitstellt. Die oberflächliche Schicht der Fascia poplitea, die den Oberschenkel bedeckt, war seitlich stark mit dem Epimysium des M. biceps femoris und medial mit dem Epimysium des M. semimembranosus verwoben, um sicherzustellen, dass die Beugemuskeln in ihrer richtigen Position blieben. Die Zwischenschicht entstand von der medialen Seite des M. biceps femoris und verschmolz medial mit der oberflächlichen Schicht. Die profunde Schicht erstreckte sich quer zwischen dem M. biceps femoris und dem Semimembranosus. Darüber hinaus haben wir die Nervenverteilung in der Fascia poplitea mit Sihler-Färbung und Whole-mount-Immunfärbung für Neurofilamente untersucht. Die dreischichtige Faszie wurde ständig von Ästen des N. cutaneus oder saphenus posterior femoris innerviert. Die Nerven waren eng verwandt und als freie oder eingekapselte Nervenenden zu dicht gepackten Kollagenfasern in der oberflächlichen Schicht verteilt, was darauf hindeutet, dass die Faszie an Schmerzen im oberen Bereich der Kniekehle beteiligt ist.;-;-;-;https://link.springer.com/article/10.1007/s12565-015-0306-x 8afbc3b74ade7e327c139d8d6a7e1f44;de;;;3.3.;;;Ein auf SMM basierender Software-Erkennungsmechanismus im Netzwerk-Computing Um die Sicherheit des Netzwerkcomputersystems zu gewährleisten, ist die effektive Methode die Erkennung illegaler oder bösartiger Software. Die meisten der früheren Forschungen implementieren es auf OS-Kernel- oder Hypervisor-Ebene. Wenn das System jedoch durch die Risiken auf Ring 0 oder Ring 1 angegriffen wird, kann der Betriebssystemkernel oder Hypervisor die vertrauenswürdige Basis nicht bereitstellen, was zu einem falschen Ergebnis führen kann. Um die Mängel zu beheben, wählen wir den System Management Mode (SMM), um eine vertrauenswürdige Ausführungsumgebung aufzubauen. Der SMM ist ein spezieller CPU-Modus in der x86-Architektur, der einen Sicherheits- und isolierten Bereich auf Firmware-Ebene zur Erkennung bösartiger Angriffe schaffen könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49145-5_14 30136d7afa55c5de915305bd9c26c8a1;de;;;3.3.;;;EnOI-basierte Datenassimilationstechnologie für Satellitenbeobachtungen und ARGO-Schwimmermessungen in einem hochauflösenden globalen Ozeanmodell mit der CMF-Plattform Eine parallele Implementierung der Ensemble-Optimalen Interpolation (EnOI)-Datenassimilationsmethode für das hochauflösende allgemeine Ozeanzirkulationsmodell wird vorgestellt. Der Datenassimilationsalgorithmus ist als Serviceblock des Compact Modeling Framework (CMF 3.0) formuliert, der zur Bereitstellung der Softwareumgebung für eigenständige und gekoppelte Modelle der globalen geophysikalischen Fluide entwickelt wurde. In CMF 3.0 wird der direkte MPI-Ansatz durch das PGAS-Kommunikationsparadigma ersetzt, das im Global Arrays (GA)-Toolkit von Drittanbietern implementiert ist, und mehrere Kopplerfunktionen sind in einem Satz gleichzeitig arbeitender paralleler Dienste gekapselt. Auf dem Supercomputer Lomonosov wurden Leistungstests für das Datenassimilationssystem durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-55669-7_5 486925d31c0860d3dfb62cbf454af39d;de;;;3.3.;;;Saubere A-SPICE-Prozesse und agile Methoden sind der Schlüssel für modernes Automotive Software Engineering Mit der Entwicklung unserer neuen Generation der „High Definition Digital Headlamp“ ist es uns gelungen, die Lichtverteilung so flexibel wie nie zuvor zu gestalten. „Im historischen Ansatz, der die Anforderungen festlegt und das Produkt auf einmal liefert, sind die Ergebnisse alles oder nichts. Entweder gelingt uns das ganz oder wir scheitern absolut. Es steht viel auf dem Spiel, denn alles hängt von der Arbeit ab, die am Ende passiert.“ [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-56441-4_43 3ac496be9a9f0a8b40982dc7409efa24;de;;;3.3.;;;Überwindung und Analyse des Engpasses des Interposer-Netzwerks in der 2.5D-NoC-Architektur Da es bei der 3D-Stacking-Technologie noch viele Herausforderungen gibt, scheint die 2,5D-Stacking-Technologie bessere Anwendungschancen zu haben. Mit dem Silizium-Interposer kann das 2,5D-Stacking die Bandbreite und Kapazität des Speichers verbessern. Darüber hinaus kann der Interposer erforscht werden, um ungenutzte Routing-Ressourcen zu nutzen und ein zusätzliches Netzwerk für die Kommunikation zu generieren. In diesem Papier kommen wir zu dem Schluss, dass die Verwendung von konzentriertem Mesh als Topologie des Interposer-Netzwerks dem Engpass des Kantenteils gegenübersteht, während die Verwendung von Double-Butterfly diesen Engpass überwinden kann. Wir analysieren die Gründe für den Engpass, vergleichen die Auswirkungen verschiedener Topologien auf Engpässe und schlagen Designziele für das Interposer-Netzwerk vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-2209-8_4 48f62a78017bc367cfe4e05e9632fad6;de;;;3.3.;;;Eine vertrauenswürdige Umgebungskonstruktionsmethode für sicherheitskritische Software Dieses Papier stellt eine Konstruktionsmethode für eine vertrauenswürdige Umgebung vor, die auf der zugrunde liegenden Hardware basiert. Dieses Verfahren zielt darauf ab, die sicherheitskritische Software in Bezug auf das Laden, Ausführen und Speichern von Software im allgemeinen Betriebssystem zu schützen. Es erweitert die Vertrauenskette der traditionellen Trusted Computing-Technologie, um die Zielsoftware zu erreichen, und gewährleistet so ein vertrauenswürdiges Laden. Der erweiterte Speicherverwaltungsmechanismus verhindert effektiv Speicherauszüge und Speichermanipulationen für die hochsensiblen Daten. Der Dateiüberwachungsmechanismus schützt Dateien vor bösartigen Angriffen durch Angreifer. Eine flexibel erweiterte Speicherumgebung bietet der Zielsoftware statischen Speicherschutz. Das experimentelle System überprüft, ob das Verfahren für allgemeine Betriebssysteme geeignet ist und sicherheitsempfindliche Software mit geringem Overhead effektiv schützen kann.;-;-;-;https://link.springer.com/article/10.1007/s11859-011-0767-2 c6ac15f49f60d773f07fe69f383217d9;de;;;3.3.;;;Verwendung von OpenFlow, SDN und NFV im GPRS-Kernnetzwerk Seit der Einführung von GPRS haben Mobilfunknetze einen langen Weg zurückgelegt, jedoch ist GPRS mit seiner EDGE-Erweiterung immer noch weit verbreitet, aber die Architektur erweist sich als veraltet, komplex und oft schwer in andere Technologien zu integrieren. Mit der Einführung neuer Netzwerkansätze wie SDN und NFV treten viele Probleme bezüglich GPRS auf. In diesem Papier stellen wir eine neue Architektur für die Bereitstellung von GPRS-Diensten vor, die moderne Ansätze wie SDN und NFV verwendet. Diese Architektur vereinfacht das gesamte Netzwerk, indem sie die Mobilnetzintelligenz auf den SDN-Controller verlagert, während alte, komplexe Knoten wie SGSN und GGSN und Mobilprotokolle wie GTP entfernt werden. Dies bringt die Netzwerkflexibilität, Programmierbarkeit, Dienstelastizität und Herstellerunabhängigkeit. Für den Einsatz unserer vereinfachten GPRS-Architektur sind keine Änderungen am Funkzugangsnetz oder am mobilen Endgerät erforderlich, sodass Abwärtskompatibilität und Interoperabilität gewährleistet sind. Die vorgeschlagene Architektur wurde mit einem echten Funkzugangsnetz und einem mobilen Endgerät implementiert und getestet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13326-3_18 49838b552663264596ebdf90bcbf722d;de;;;3.3.;;;Die Verwendung von Hoare-Logik bei der Verifikation von horizontalen Mikroprogrammen In den letzten Jahren wurden große Anstrengungen unternommen, um Mikroprogrammiersprachen zu entwerfen und zu implementieren, die die Produktion von hochzuverlässigem und dennoch effizientem Laufzeit-Mikrocode unterstützen. Eines der Ziele solcher Sprachen ist es, die formale Verifikation von Mikroprogrammen mit Hilfe der induktiven Behauptungsmethode von Hoare zu erleichtern. Wesentlich für die Anwendung dieses Verfahrens ist eine axiomatische Definition der Mikroprogrammiersprache.;-;-;-;https://link.springer.com/article/10.1007/BF00985823 9bee3b53768aac5b1199bcb11d265de3;de;;;3.3.;;;Verbesserung der parallelen selbstorganisierenden Karte auf heterogenen Systemarchitekturen Self-organizing Map (SOM) ist ein sehr beliebter Algorithmus, der als Clustering-Algorithmus und Datenexploration verwendet wurde. SOM besteht aus komplexen Berechnungen, wobei die Berechnung der Komplexität von den Umständen abhängt. Vielen Forschern ist es gelungen, die Online-SOM-Verarbeitungsgeschwindigkeit mit diskreten Grafikprozessoren (GPU) zu verbessern. Trotz der hervorragenden Leistung mit GPU gibt es eine Situation, die dazu führt, dass Computerhardware bei der Ausführung der Online-SOM-Variante auf der GPU-Architektur nicht ausgelastet wird. Im Detail tritt die Situation auf, wenn die Anzahl der Kerne größer ist als die Anzahl der Neuronen auf der Karte. Darüber hinaus erhöht die Komplexität der SOM-Schritte auch die Verwendung einer hohen Speicherkapazität, was zu einer Speicherübertragung mit hoher Rate führt. In letzter Zeit ist die Heterogeneous System Architecture (HSA), die Zentralprozessoreinheit (CPU) und GPU zusammen auf einem einzigen Chip integriert, aufgrund ihrer bemerkenswerten Parallelverarbeitungsfähigkeiten schnell als Designparadigma für aktuelle Plattformen attraktiv geworden. Daher besteht das Hauptziel dieser Studie darin, die Rechenzeit des SOM-Trainings durch die Anpassung der HSA-Plattform und die Kombination von zwei SOM-Trainingsprozessen zu reduzieren. Diese Studie versucht, die Verarbeitung des SOM-Algorithmus durch den Ansatz mehrerer Stimuli zu verbessern. Die in dieser Studie verwendeten Daten sind Benchmark-Datensätze aus dem UCI Machine Learning Repository. Als Ergebnis kann der verbesserte parallele SOM-Algorithmus, der auf der HSA-Plattform ausgeführt wird, eine vielversprechende Geschwindigkeitssteigerung für unterschiedliche Parametergrößen im Vergleich zum standardmäßigen parallelen SOM auf der HSA-Plattform erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7242-0_14 7b7bda9421342fb0918136f3c9fc0606;de;;;3.3.;;;Netzwerkzuverlässigkeit: Ein Verfügbarkeitsmaß in einer N-Tier-Client/Server-Architektur In veröffentlichten Arbeiten zur Zuverlässigkeit von Computernetzwerken wird häufig die Verfügbarkeit als Maß für die Zuverlässigkeit verwendet. Obwohl mehrere Möglichkeiten zum Definieren der Verfügbarkeit vorgeschlagen wurden, erfasst jedoch keine das gesamte Serviceniveau, das Client-Hosts in einer modernen n-Tier-Client/Server-Architektur erhalten. Wir schlagen eine solche Maßnahme vor, indem wir den Anteil der Client-Hosts berechnen, die vollständige Dienste aus dem Netzwerk erhalten. Wir erweitern auch eine veröffentlichte effiziente heuristische Methode zur Berechnung der Verfügbarkeit, um unser neues vorgeschlagenes Maß zu berücksichtigen. Das Endergebnis ist ein Verfahren polynomialer Komplexität;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39737-3_98 ba11e0b60032e7e6412920bb2bc7b008;de;;;3.3.;;;Architekturen und Schaltungen für die A/D- und D/A-Wandlung in integrierten CMOS-Systemen für Telekommunikationsanwendungen Aufstrebende Telekommunikationssysteme wie ADSL, VDSL erfordern hochmoderne Hochgeschwindigkeits- und hochauflösende A/D- und D/A-Wandler. Darüber hinaus erfordern Kosten- und Stromverbrauchsprobleme die Verwendung spezieller A/D- und D/A-Architekturen, um die gewünschte Auflösung bei der erforderlichen Geschwindigkeit für die minimale Leistung zu erreichen. Im ersten Teil dieses Dokuments wird ein Überblick über verschiedene A/D- und D/A-Wandlerarchitekturen gegeben, die in den Alcatel-Telekommunikationssystemen in den letzten 15 Jahren verwendet wurden. Der Schwerpunkt liegt auf der Entwicklung von A/D- und D/A-Wandlern für die heutigen ADSL-Anwendungen. Dann werden Entwurfsüberlegungen für Hochgeschwindigkeits- und hochauflösende A/D-Wandler mit Pipeline für die zukünftige VDSL-Technologie angesprochen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-2602-2_4 d87a538bec328e64d2df9751a27216f6;de;;;3.3.;;;Eine entkoppelte datengesteuerte Architektur mit Vektoren und Makroakteuren Dieser Beitrag stellt die Umsetzung wissenschaftlicher Programme auf einer entkoppelten datengetriebenen Architektur mit Vektoren und Makroakteuren vor. Dieser hybride Multiprozessor kombiniert die dynamischen Datenflussprinzipien der Ausführung mit dem Kontrollfluss des von Neumann-Ausführungsmodells. Die beiden Hauptideen des entkoppelten Modells sind: Vektor- und Makroakteure mit variabler Auflösung und asynchrone Ausführung von Graphen- und Berechnungsoperationen. Der Compiler erzeugt Graphen mit Akteuren unterschiedlicher Größe, um die Eigenschaften der Berechnung anzupassen. Beispielsweise werden Vektorakteure für viele Aspekte des wissenschaftlichen Rechnens vorgeschlagen, während für nicht vektorisierbare Programme eine niedrigere Auflösung (vom Compiler erzeugte Sammlung von Skalarakteuren) oder eine höhere Auflösung (skalare Aktoren) verwendet wird. Eine Blockplanungstechnik zum Extrahieren von mehr Parallelität aus sequentiellen Konstrukten ist in die entkoppelte Architektur integriert. Darüber hinaus ist ein Prioritätsplanungsmechanismus auf Graphenebene implementiert, der die Ressourcenauslastung verbessert und zu einer höheren Leistung führt. Eine Grapheneinheit führt alle Graphenoperationen aus und eine Recheneinheit führt alle Berechnungsoperationen aus. Die Unabhängigkeit der beiden Haupteinheiten der Maschine ermöglicht die effiziente Pipeline-Ausführung von Makroakteuren mit unterschiedlichen Granularitätseigenschaften.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-53065-7_86 0696b9f63bf521fbf4c450ac14af623f;de;;;3.3.;;;Einführung neuer Technologien im Lieferkettenbetrieb zur Kostensenkung und Steigerung des Aktionärsvermögens: Eine Fallstudie der Organisation der VAE Technologie und Innovation gelten für die meisten Unternehmen als die wichtigsten Triebkräfte des Wettbewerbsvorteils, was auf die Entwicklung neuer Technologien wie z. B. AI IoT, Blockchains und zuletzt FINTECH-Plattformen für Finanz- und Rechnungswesen hinweist. Diese Technologien bieten Unternehmen und Managern immense Möglichkeiten für die Einführung in Richtung Kostensenkung, verbesserten Kundenservice und größeren Aktionärsvermögen. Wenn dies jedoch nicht ordnungsgemäß überprüft wird, kann dies eine „störende“ Technologie sein, die die Leistung und Wettbewerbsfähigkeit von Unternehmen bedroht. In diesem Papier wurde untersucht, welche digitalen Technologien für das Supply Chain Management eingesetzt wurden und wie diese Technologien zu einer Senkung der Betriebskosten und einer Steigerung des Shareholder Value geführt haben. Das Forschungspapier beleuchtet die Schlüsseltechnologien, die in den Vereinigten Arabischen Emiraten eingesetzt werden, und zeigt, wie diese Technologien zur Unternehmensleistung und zum Wohlstand der Aktionäre beitragen. Es ist offensichtlich, dass Unternehmen in Technologien wie RFID und ERP investieren, um Kosten zu senken und das Vermögen der Aktionäre zu steigern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-12839-5_40 d8feddf29656099f481e2f2e79e0fb73;de;;;3.3.;;;Anforderungen für E-Testing-Dienste im Cloud-basierten E-Learning-System von AfgREN In vielen Ländern bereits existierende Nationale Forschungs- und Bildungsnetze (NRENs) sind eine vielversprechende Infrastruktur für landesweite E-Assessments. Die Forscher konzentrieren sich jedoch nicht ausreichend auf NREN-basierte E-Assessment-Architekturen. Es gibt bereits viele E-Assessment-Architekturen auf der Grundlage von Public Cloud Computing, die Interoperabilitäts-, Sicherheits- und Anpassungsprobleme aufweisen. Auch eigenständige und webbasierte Lernmanagementsysteme (LMS) weisen Einschränkungen in der Anpassungsfähigkeit für das bundesweite E-Assessment auf. In diesem Papier untersuchen wir, wie die Interoperabilität, Sicherheit und Anpassungsfähigkeit von E-Assessment-Systemen auf nationaler Ebene verbessert werden kann. Als Fallbeispiel wird das Afghanistan Research and Education Network (AfgREN) betrachtet. Ein Anforderungsbasar dient zum Sammeln von Daten über funktionale und nichtfunktionale Anforderungen. Wir nutzen Design Science als Forschungsmethode und analysieren die relevanten Aspekte von NREN-basierten E-Assessment-Architekturen mit Hilfe der Architecture Tradeoff Analysis Method (ATAM).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-57744-9_12 752fb5af392f77029ead215bb4ad1a05;de;;;3.3.;;;Inhaltsbewusste automatische QoS-Bereitstellung für UpnP AV-basierte Multimediadienste über Wireless LANs Mit dem Aufkommen von drahtlosen und mobilen Geräten erlebt die drahtlose Kommunikationstechnologie die schnellste Wachstumsphase in der Geschichte. Es hat die Art und Weise, wie wir leben und arbeiten, stark beeinflusst. Zwei Hauptherausforderungen, die die weit verbreitete Verbreitung digitaler Medien mit drahtloser Technologie wie IEEE 802.11 Wi-Fi-LANs zu Hause verhindern, sind Plug-and-Play (Nullkonfiguration) und Dienstqualität (QoS). Die UPnP AV-Technologie (Audio/Video) ist ein aufkommendes Protokoll zur Einleitung/Steuerung von Multimedia-Sitzungen, das von Intel und Microsoft für Dienste zur Bereitstellung von Multimedia-Inhalten in Heimnetzwerken gefördert wird. In diesem Papier schlagen wir ein neues Schema vor, um die beiden oben genannten Probleme anzugehen. Durch die Durchführung von Layer-7-Inhaltsklassifizierung, -inspektion und automatischer Ressourcenzuweisung und -konfiguration bietet das Schema transparente QoS-Garantien für UPnP-AV-Multimedia-Streaming-Anwendungen über drahtlose LANs wie in Heim- und Büroumgebungen. Die Ausführung dieser Vorgänge erfolgt automatisch und für die Endbenutzer vollständig transparent. Benutzer sind frei von komplexen QoS-Konfigurations- und Multimediadiensttechnologiedetails. Das Schema erfordert keine Änderungen an bestehenden Protokollen und Netzwerkschnittstellenkarten. Ein Linux-basierter Wireless Home Gateway Router wird ebenfalls als Prototyp vorgestellt. Die vom Testbed gemessenen Leistungsergebnisse zeigen, dass das System die Ziele erreicht, Heimanwendern eine Nullkonfiguration und transparente QoS-Garantien für Multimedia-Streaming über drahtlose Heimnetzwerke zu bieten.;-;-;-;https://link.springer.com/chapter/10.1007/11428848_59 ba1648e5ea7c9fb8181458975551080f;de;;;3.3.;;;Modellierung in der agilen Softwareentwicklung: Eine systematische Literaturübersicht Agile Methoden werden seit über einem Jahrzehnt eingesetzt. Allerdings gibt es Einschränkungen beim Einsatz agiler Methoden in komplexen Großprojekten und in verteilten Teams. Herkömmliche Softwaredesigntechniken wie die Modellierung könnten dabei helfen, diese Einschränkungen zu überwinden. Ziel dieser Arbeit ist es, Modellierungsaspekte in der agilen Softwareentwicklung zu identifizieren und den Stand der Technik in diesem Bereich anhand einer systematischen Literaturrecherche darzustellen. Die Ergebnisse zeigen den Einsatz von Modellierungspraktiken in agilen Methoden während des gesamten Projekts, insbesondere in den ersten Sprints. Die wichtigsten verwendeten Modellierungssprachen sind UML, informelle Diagramme, CRC-Karten und Textsprache. Es gibt Versuche, Agile mit formalen Methoden und modellgetriebener Entwicklung zu nutzen, ohne konsistente Ergebnisse der Wirksamkeit dieser Vorschläge. Schließlich stellten wir fest, dass in der Literatur schlüssige Experimente zur Modellierung in Projekten mit agilen Methoden fehlen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-55907-0_5 2f001283049ff6113d5fe4a4189c967c;de;;;3.3.;;;Eine hocheffiziente Crossbar-Allocator-Architektur für High-Radix-Switches Der vorliegende Beitrag untersucht das Allocator-Design für High-Radix-Switches und implementiert eine hocheffiziente Allocator-PWF (Parallel WaveFront) zum Erreichen eines hohen Durchsatzes. Basierend auf dem Wavefront-Allocator realisiert der PWF-Allocator eine schnelle Zuteilung innerhalb eines Zyklus, um eine Zeitschleife zu vermeiden, und schlägt eine parallelisierte Matching-Strategie mit zyklischer Priorität vor, um eine faire Zuteilung zu gewährleisten sowie eine gierige Politik zum Erreichen der maximalen Match-Zahl zu verwenden. Implementiert unter 32-nm-CMOS-Technologie zeigen die Bewertungsergebnisse der PWF-Hardwarekosten, dass die Fläche und der Stromverbrauch im Vergleich zum Wavefront-Allocator leicht um 32,8% bzw Anforderung eines Frequenzdesigns auf GHz-Ebene für Switches mit hohem Radix Durch die weitere Schätzung der Zuteilungseffizienz reduziert PWF die Anfragezeitplanzeit um 61,2% und 65,7% und erhöht die Anzahl der unmittelbaren Anfragezeitpläne durchschnittlich um 38,9% und 46,7% im Vergleich zum Wavefront-Allocator. Die Effizienzsteigerung zeigt sich dann auch in der deutlich geringeren durchschnittlichen Fahrplanzeit und durchschnittlichen Reaktionszeit im Vergleich zu Wavefront- und DRRM-Allokatoren, was offensichtliche Vorteile bei der Verbesserung der Allokationsleistung und einer guten Allokationsfairness bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45815-0_5 283da95cc34d671cdcf2665ef6e493d7;de;;;3.3.;;;CMOS-skalierte Architektur und Schaltungsoptionen für 5G Bei System- und Schaltungsdesigns für 5G ergeben sich neue Herausforderungen beim Bau effizienter, hochleistungsfähiger Phased-Array-Transceiver, da 5G eine große Menge des verfügbaren Spektrums im Millimeterwellenbereich abdeckt. Im Wesentlichen konzentriert sich dieses Kapitel auf den CMOS-Schaltungs- und Systemhandel für große Millimeterwellen-Leistungsverbraucher wie Leistungsverstärker, Lokaloszillatorerzeugung und -verteilung im Rahmen des Beamforming-Systemdesigns und der Anforderungen an mobile Verbindungen. Ein geeigneter Millimeterwellen-Transceiver für 5G und ihre Anwendung für E-Band 71–76 GHz-Schaltungsblöcke im Intel 22FFL FinFET-Prozess wurden ausführlich diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9865-4_3 e0f5935376eb82f05c01535bf6cd31fd;de;;;3.3.;;;Modellbasierte Verifikation von dynamisch evolvierbaren serviceorientierten Systemen Dynamische Evolution ist für serviceorientierte Systeme in offenen Umgebungen sehr wünschenswert. Damit die Entwicklung vertrauenswürdig ist, ist es entscheidend, dass der Prozess mit der Spezifikation konsistent ist. In diesem Papier untersuchen wir zwei Arten von Evolutionsszenarien und schlagen einen neuartigen Verifikationsansatz basierend auf hierarchischen zeitgesteuerten Automaten vor, um die zugrunde liegende Konsistenz mit der Spezifikation zu überprüfen. Es untersucht die Abläufe vor, während bzw. nach dem Evolutionsprozess und kann die direkte Modellierung zeitlicher Aspekte sowie die hierarchische Zerlegung von Softwarestrukturen unterstützen. Wahrscheinlichkeiten werden eingeführt, um die in offenen Umgebungen charakterisierte Unsicherheit zu modellieren und können somit die Überprüfung der Entwicklung auf Parameterebene unterstützen. Wir präsentieren einen Abflachungsalgorithmus, um die automatisierte Verifizierung mit dem Mainstream-Modellprüfer auf Zeitautomatisierungsbasis – UPPAAL (integriert in UPPAAL-SMC) zu erleichtern. Auch mit der Leistungsbewertung liefern wir ein motivierendes Beispiel, das die Diskussion ergänzt und die Machbarkeit unseres Ansatzes aufzeigt.;-;-;-;https://link.springer.com/article/10.1007/s11432-015-5332-8 c24e4a45aa761035fdd71cbd10c0cecf;de;;;3.3.;;;Entwurf einer Hochgeschwindigkeits-Binärzähler-Architektur für Anwendungen mit geringem Stromverbrauch In diesem Kapitel wird ein Entwurf einer Hochgeschwindigkeits-Binärzählerarchitektur unter Verwendung von Clock-Gating für Anwendungen mit geringem Stromverbrauch vorgestellt. Takt-Gating-Techniken ermöglichen die Verbesserung der Latenz und des Leistungsverbrauchs des vorgeschlagenen Binärzählers. Die Latenz der vorgeschlagenen Architektur ist im Vergleich zur herkömmlichen Architektur geringer, was zeigt, dass das vorgeschlagene Design bei hohen Eingangsfrequenzen betrieben werden kann. Das vorgeschlagene binäre Zählerdesign mit 4-, 8- und 16-Bit wurde mit Verilog HDL-Code erstellt und mit dem Questa Simulator von Mentor Graphics simuliert. Für die Synthese des vorgeschlagenen Designs wird das LeonardoSpectrum-Tool von Mentor Graphics verwendet, dessen Synthese auf dem CMOS-Prozess TSMC 0,35 µm, Spartan 6 und Spartan 3E FPGA basiert. Das physikalische Semi-Custom-Layout für die vorgeschlagene 8-Bit-Zählerarchitektur unter Verwendung des 350-nm-Standard-CMOS-Prozesses wird ebenfalls in dieser Arbeit erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7486-3_13 6780c32dac68974c2b867207effc9ed2;de;;;3.3.;;;Intelligente ubiquitäre IT-Politik und ihre industriellen Dienstleistungen Die Kernbasis intelligenter Ubiquitous-Computing-Umgebungen sind die ubiquitäre Netzwerkinfrastruktur und die dazugehörigen Dienste. Die Telekommunikationsdienstleistungsbranche umfasst eine solche allgegenwärtige Netzwerkinfrastruktur und die meisten verwandten Dienste, und sie führt zu einem gleichzeitigen Wachstum von Netzwerken, Endgeräten, Software und Inhalten usw., indem sie an der Spitze der Wertschöpfungskette der IT-Industrie platziert wird. In dieser Sonderausgabe haben wir aktuelle IT-bezogene Themen, politische Trends und neue industrielle Dienstleistungen diskutiert, die zu einem erfolgreichen Übergang in eine intelligente ubiquitäre Gesellschaft führen, die ein neues Paradigma der Zukunft ist.;-;-;-;https://link.springer.com/article/10.1007/s10845-011-0586-5 f305ffadad508e179b96f55b444ce0ec;de;;;3.3.;;;Bewertung der thermischen Belastung für transiente flüssigphasengebundene Si-Chips in Hochleistungsmodulen mit experimentellen und numerischen Methoden Das Potenzial des transienten Flüssigphasen-(TLP)-Bondens für Chip-Packaging-Anwendungen wurde bewertet, wobei der Schwerpunkt auf drei Zwischenschichtanordnungen (Ag-Sn-Ag, Ni-Sn-Ni und Ag-Sn-Ni) lag. Scherversuche an TLP-gebundenen Bauteilen lieferten die zwischenschichtabhängige mechanische Festigkeit sowie Versagensart und -position. Kritische lokale Spannungen, d. h. Versagenskriterien, innerhalb der intermetallischen Verbindungsschicht (IMC) wurden durch Replizieren der Schertestbedingungen mit Finite-Elemente-Methoden abgeleitet. Der fehlende Wärmeausdehnungskoeffizient für Ag;-;-;-;https://link.springer.com/article/10.1007/s11664-016-5064-6 7f66a39c4433b9bdfd36b5c2433c5e61;de;;;3.3.;;;Eine Bewertung der Multi-Engine-MT-Architektur Die Multi-Engine MT (MEMT)-Architektur kombiniert die Ausgaben mehrerer MT-Engines unter Verwendung eines statistischen Sprachmodells der Zielsprache. Es wurde erfolgreich in einer Reihe von MÜ-Forschungssystemen sowohl für die Text- als auch für die Sprachübersetzung eingesetzt. Trotz der wahrgenommenen Vorteile hat es nie eine strenge, veröffentlichte, doppelblinde Bewertung der Behauptung gegeben, dass die kombinierte Leistung eines MEMT-Systems tatsächlich besser ist als die eines der Komponenten-MT-Motoren. Über die Ergebnisse einer solchen Evaluation berichten wir hier. Die kombinierte MEMT-Leistung ist tatsächlich insgesamt besser als die Leistung der Komponentenmotoren in einem kroatisch-englischen MT-System. Dieses Ergebnis ist in beiden Übersetzungsrichtungen und zwischen verschiedenen Bewertern konsistent.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-49478-2_11 b06b12415a673f1a2e91bb4d4f71fae0;de;;;3.3.;;;Mathematik für die Architektur: Einige europäische Erfahrungen Orietta Pedemonte untersucht den Mathematikunterricht an Architekturfakultäten oder -schulen in Belgien, Portugal, Frankreich, der Schweiz und Spanien und vergleicht dabei Studienorganisation, Fächerangebot und Zugangsvoraussetzungen. Welche und wie viel Mathematik für die Architektur? Welche Art von Lehre? Ist es besser, Informationen über viele Aspekte zu haben oder einen tieferen Einblick in nur wenige? Ist es besser, einen historisch-philosophischen Überblick zu bevorzugen oder sich auf aktuelle Anwendungsaspekte zu konzentrieren? Dies sind einige der Fragen, die sich jeder stellt, der sich mit dem Mathematikunterricht an einer Fakultät oder Fakultät für Architektur beschäftigt.;-;-;-;https://link.springer.com/article/10.1007/s00004-000-0012-3 ebaa8cf37d464d4cf9ce7f0892473558;de;;;3.3.;;;VLSI-Array-Architektur für die Bildverarbeitung Viele Operationen bei der Bild- oder Bildverarbeitung werden über eine große Anzahl von Pixeln eines Bildes wiederholt ausgeführt, und die Rechenzeit kann durch parallele Verarbeitung erheblich reduziert werden. Mit dem schnellen Fortschritt in der VLSI-Technologie wird es in naher Zukunft möglich sein, VLSI-Array-Chips für bestimmte spezielle Bildverarbeitungsvorgänge zu entwerfen und herzustellen. Diese Spezialchips können über den Systembus mit dem Host-Computersystem verbunden werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-87867-1_10 b10798fefca8d79173ed4a38cd88ca6b;de;;;3.3.;;;Verwenden der konformen Systemarchitektur zur Bereitstellung flexibler Richtlinien innerhalb des zweiphasigen Commit Die konforme Systemarchitektur (CSA) ist eine Strukturierungsmethodik zum Aufbau von Softwaresystemen, die eine strikte Trennung von Richtlinie und Mechanismen aufweisen. Komponenten einer instanziierten CSA passen sich unter Anwendungskontrolle an ihre Umgebung an. Diese Entwicklungsfähigkeit ermöglicht es einem einzelnen System, durch flexible Richtlinienspezifikation eine optimale Unterstützung für beliebige Anwendungen bereitzustellen. Anträge können ihren bevorzugten Grad der Beteiligung an der Spezifikation der Richtlinie bestimmen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45073-4_19 2f18f13d5080936dfc11ebdbd0f7feb1;de;;;3.3.;;;Ein Multi-Agenten-Organisationsansatz zur Entwicklung sozialtechnischer Software autonomer Roboter Software eines autonomen Roboters ist ein komplexes physikalisches und soziales technisches System, das kontextbewusst, autonom und in der Lage ist, Aufgaben zu erfüllen. Es besteht typischerweise aus einer großen Menge autonomer Entitäten und Interaktionen. Um ein solches System zu entwickeln, sind Metaphern auf hohem Niveau und effektive Mechanismen erforderlich, die von physikalischen und technischen Details verschiedener Roboter unabhängig sind. Das Papier präsentiert einen Multi-Agenten-Organisationsansatz zur Entwicklung autonomer Robotersoftware, die als soziale Organisation modelliert wird, in der jeder Agent an spezifische Rollen mit festgelegten Verantwortlichkeiten gebunden ist, die eng mit den Eigenschaften und Aufgaben des Roboters verbunden sind. Diese Agenten bilden vielfältige Organisationsstrukturen und -muster, um eine flexible Zusammenarbeit zu erreichen, um die zugewiesenen Aufgaben zu erfüllen. Das Papier beschreibt das Multi-Agenten-Organisationsmodell der autonomen Robotersoftware und verschiedene Rollen im Modell. Wir haben ein Framework namens . implementiert;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-2053-7_3 8f673b949c18441a5d9492a60593cc12;de;;;3.3.;;;Informationsverbreitung in mobilen Ad-hoc-Geosensor-Netzwerken Dieses Papier befasst sich mit der Frage, wie relevante Informationen an mobile Agenten innerhalb eines Geosensornetzwerks weitergegeben werden können. Herkömmliche mobile und standortbezogene Systeme basieren auf einem zentralisierten Modell von Informationssystemen, das durch das Client-Server-Modell typisch ist, das für die meisten standortbezogenen Dienste verwendet wird. In diesem Papier argumentieren wir jedoch, dass ein dezentraler Ansatz gegenüber einem zentralisierten Modell mehrere entscheidende Vorteile bietet, darunter Robustheit und Skalierbarkeit. Wir präsentieren eine Umgebung zur Simulation von Strategien zur Informationsverbreitung in mobilen Ad-hoc-Geosensornetzen. Wir schlagen verschiedene Strategien für den skalierbaren Peer-to-Peer-Informationsaustausch vor und bewerten deren Leistung hinsichtlich ihrer Fähigkeit, relevante Informationen an Agenten zu verteilen und Redundanz zu minimieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30231-5_14 3ba1a3f5372c969ff4a99ce3f88ea167;de;;;3.3.;;;Auf dem Weg zu einem Delegationsrahmen für Flugroboter-Missionsszenarien Das Konzept der Delegation ist von zentraler Bedeutung für das Verständnis der Interaktionen zwischen Agenten in kooperativen Problemlösungskontexten von Agenten. Tatsächlich bietet das Konzept der Delegation ein Mittel, um die formalen Zusammenhänge zwischen gemischt-initiativer Problemlösung, anpassbarer Autonomie und kooperativer Zielerreichung der Agenten zu untersuchen. In diesem Beitrag präsentieren wir eine explorative Studie des Delegationskonzepts, die im Kontext eines relativ komplexen Multi-Plattform-Unmanned Aerial Vehicle (UAV)-Katastrophenhilfeszenarios basiert, bei dem UAVs kooperativ eine geografische Region nach Verletzten absuchen müssen. Wir stellen das Szenario zunächst als Fallstudie vor und zeigen, wie es mit tatsächlichen UAV-Plattformen instanziiert wird und was eine reale Mission pragmatisch bedeutet. Wir treten dann einen Schritt zurück und präsentieren eine formale Theorie der Delegation basierend auf der Verwendung von 2APL und KARO. Wir kehren dann zum Szenario zurück und verwenden die neue Theorie der Delegation, um viele der kommunikativen Interaktionen im Zusammenhang mit der Delegation formal zu spezifizieren, die zum Erreichen des Ziels des kooperativen UAV-Scannens verwendet werden. Die Theorieentwicklung und ihre empirische Evaluation werden von Anfang an integriert, um sicherzustellen, dass die Lücke zwischen dieser sich entwickelnden Delegationstheorie und ihrer tatsächlichen Anwendung im Verlauf der Forschung eng synchronisiert bleibt. Die hier präsentierten Ergebnisse können als eine erste Iteration der Theorie und Ideen angesehen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75119-9_2 0a3398cae15c63bb2f7052aec5fb22d1;de;;;3.3.;;;Zur Identifizierung von Migrationsinkrementen, um eine reibungslose Migration zu ermöglichen Die Migration bestehender Systeme ist ein großes Problem in heutigen Unternehmen. Diese Systeme, die oft als Legacy-Systeme bezeichnet werden, sind in der Regel geschäftskritisch, aber schwer an neue Geschäftsanforderungen anzupassen. Eine erfolgversprechende Lösung ist die reibungslose Migration dieser Systeme, d. h. die Systeme werden in die Systemlandschaft integriert und dann in mehreren kleineren Schritten migriert. Dies führt zu der Frage, wie diese Schritte identifiziert werden können. Wir schlagen eine Methode vor, die auf einem Abhängigkeitsmodell des bestehenden Systems und Graph-Clustering-Analysen basiert, um diese Schritte zu identifizieren und Migrationsschritte zu definieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78999-4_9 26aea52c6f2c6695c82b496648bd7551;de;;;3.3.;;;Modellierung von UML-Sequenzdiagrammen mit erweiterten Petrinetzen Zur Darstellung der Systemanforderungen werden Unified Modeling Language (UML)-Sequenzdiagramme in Kombination mit dem UML-Profil zur Modellierung und Analyse von Echtzeit- und Embedded-Systemen (MARTE) verwendet. Um die formalen Analysefähigkeiten zu verbessern, werden mit MARTE-Stereotypen annotierte Sequenzdiagramme in zeitgesteuerte farbige Petrinetze mit Inhibitorbögen (TCPNIA) abgebildet. Die Abbildungsregeln für die Fragmente von Sequenzdiagrammen und MARTE-Stereotypen werden entsprechend vorgeschlagen. Sie werden sowohl in grafischer als auch in formaler Form vorgeschlagen. Die Solidität der Mapping-Regeln wird analysiert. Die datenbezogenen Probleme werden durch farbige Eigenschaften in TCPNIA-Modellen, Schutzfunktionen und Betriebsfunktionen behandelt. Basierend auf datenbezogenen Informationen wird eine Abbildungsregel für die Zustandsinvariante vorgeschlagen. Durch zustandsinvariante können komplizierte Kontrollbeziehungen ausgedrückt werden. Formale Definitionen für Morphing und Substitution in TCPNIA-Modellen werden gegeben. Sie bieten modulare und hierarchische Modellierungsmethoden für TCPINA-Modelle. Um die Anwendbarkeit und Machbarkeit unserer Methode zu zeigen, wird ein Anwendungsbeispiel in der Domäne von Fahrzeug-Ad-hoc-Netzwerken (VANETs) untersucht.;-;-;-;https://link.springer.com/article/10.1007/s11235-011-9424-5 706922e06795c2a7022831ba148eb16e;de;;;3.3.;;;Autonome Computersoftware für autonome Raumfahrzeuge Aktuelle Weltraummissionen erfordern zunehmend mehr Autonomie bei den Steuerungsarchitekturen für unbemannte Raumfahrzeuge (USVs), damit sich unbemannte Langzeitmissionen leisten können. Die kontinuierliche Sicherstellung einer effektiven Anpassung an unvorhersehbare interne und externe Veränderungen sowie ein effizientes Ressourcenmanagement sind für solche Anforderungen unerlässlich. Eine der attraktiven Lösungen ist diejenige, die von der Physiologie lebender Systeme inspiriert ist, bei der Selbstregulierung hilft, eine kontinuierliche Anpassung an die Umwelt durch sich ändernde interne Bedingungen zu erreichen. Die physiologischen Funktionen werden durch Reflexe des Nervensystems ausgeführt, die die Grundlage für Selbstregulierungsmechanismen wie die Homöostase sind. Der Einbau einer künstlichen Selbstregulation ähnlich der biologischen in USVs macht sie äußerst lebensfähig und ultrastabil, um sehr lange Missionen zu unterstützen. In diesem Beitrag werden Aspekte vorgestellt, wie USVs mit künstlichen Nervenreflexen (ANRs) ausgestattet werden können, indem physiologische Prinzipien der Selbstregulation auf die Kontrollarchitektur der USV angewendet werden, um Widerstandsfähigkeit und Persistenz zu unterstützen. Eine Fallstudie eines zusammengesetzten Orbiters wird vorgestellt. Die untersuchten ANRs werden benötigt, um die Selbstregulierung von Reaktionszeit (Latenz), Betriebstemperatur (Thermoregulierung) und Stromverbrauch (Energiebilanz) zu gewährleisten. Es werden auch Ergebnisse einer gegengeprüften Analyse der oben genannten Selbstregulierungsmechanismen präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-15392-6_4 8bcd41e21d3fa5e5cd2e5f353395b4b6;de;;;3.3.;;;Schnelle Architektur der modularen Inversion mit dem Itoh-Tsujii-Algorithmus Modulare Inversion ist ein sehr verbreitetes Grundelement, das für die kryptographischen Berechnungen verwendet wird. Es ist die rechenintensivste Einheit, die im Vergleich zu anderen Primitiven mehr Ressourcen erfordert. Innerhalb der modularen Inversions-Arithmetikschaltungen ist eine beträchtliche Geschwindigkeit mit optimierter Architektur erforderlich. Dieses Papier schlägt eine optimierte parallele Architektur für den modularen Itoh-Tsujii-Inversionsalgorithmus für;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7470-7_5 022cbeb76c2fbaaab0c1699954c941de;de;;;3.3.;;;Ein neuartiges Design einer rekonfigurierbaren Architektur für ein Multistandard-Kommunikationssystem Das Ziel zukünftiger Mobilkommunikationssysteme wird es sein, verschiedene drahtlose Zugangstechnologien und Mobilnetzarchitekturen auf komplementäre Weise zu integrieren und zu integrieren, um eine nahtlose drahtlose Zugangsinfrastruktur zu erreichen. Um diese nahtlose Benutzermobilität über verschiedene drahtlose Zugangstechnologien hinweg zu unterstützen, ist es erforderlich, eine rekonfigurierbare Multistandard-Empfängerarchitektur zu entwickeln. Dieses Papier stellt das Design der Basisbandarchitektur eines drahtlosen Empfängers auf Systemebene vor, das zwei drahtlose Zugangstechnologien unterstützt: Wideband Code Division Multiple Access (WCDMA) und Orthogonal Frequency Division Multiplexing (OFDM). In diesem Papier wurden ein effizientes Verfahren des Fast Fourier Transform (FFT)-Algorithmus für den OFDM-Standard und ein Rake-Empfänger-Design für den WCDMA-Standard implementiert. Diese Architektur teilt die Ressourcen, die für diese beiden Standards benötigt werden, während der Neukonfiguration effizient. Die vorgeschlagene Architektur wird mit ModelSimSE v6.5 simuliert und mit dem Tool Xilinx ISE 9.2 auf ein Spartan 3E FPGA-Gerät (3s5000epq208) abgebildet. Simulationsergebnisse zeigen, dass die vorgeschlagene Architektur zur Laufzeit effizient rekonfiguriert und als flächeneffizient bewiesen werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20573-6_14 fa5daf3571e3e4c0e48faaf697d65491;de;;;3.3.;;;μBTRON Bus: Design und Evaluation der musikalischen Datenübertragung Der μBTRON-Bus wurde entwickelt, um elektronische Schreibwaren mit BTRON-basierten Arbeitsplätzen zu verbinden. Die Designziele des μBTRON-Busses werden beschrieben und anschließend wird die Leistung der Musikdatenübertragung auf dem Bus anhand von Simulationsergebnissen diskutiert. Die Ergebnisse zeigen, dass der μBTRON-Bus für diese Anwendung eine zufriedenstellende Leistung bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-68069-7_11 af34e482087bd35c124dd77d7feabefd;de;;;3.3.;;;Eine effiziente VLSI-Architektur für die aktuelle Blockchiffre und ihre FPGA-Implementierung Leichte Kryptographie spielt eine wesentliche Rolle für aufkommende Authentifizierungs-basierte Pervasive Computing-Anwendungen in Umgebungen mit eingeschränkten Ressourcen. In diesem Papier haben wir ressourceneffiziente und leistungsstarke VLSI-Architekturen für den PRESENT-Blockchiffrieralgorithmus für die beiden Schlüssellängen 80 Bit und 128 Bit, nämlich PRESET-80 und PRESENT-128, vorgeschlagen. Die FPGA-Implementierungen dieser Architekturen wurden auf dem auf der LUT-6-Technologie basierenden Xilinx Virtex-5 XC5VFX70T-1-FF1136 FPGA-Gerät durchgeführt. Diese Architekturen haben eine Latenz von 33 Taktzyklen, laufen mit einer maximalen Taktfrequenz von 306,84 MHz und bieten einen Durchsatz von 595,08 Mbps. Sie wurden mit den beiden unterschiedlichen etablierten Architekturen verglichen. Es wurde beobachtet, dass die PRESENT-80-Architektur 20,3% weniger FPGA-Slices verbraucht und einen Durchsatzgewinn von 25,4% erzielt. Ebenso erfordert die PRESENT-128-Architektur 20,7 % weniger FPGA-Slices zusammen mit einer Reduzierung der Latenz um 27,7 % und einer Gesamtdurchsatzsteigerung um 69,1 %.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7470-7_27 62ea9d4f93f1c970963afd3f2519faae;de;;;3.3.;;;Airborne Lidar in der Archäologie: Überblick und eine Fallstudie Airborne Laser Scanning (ALS) ist ein optisches Messverfahren zur Gewinnung hochpräziser Informationen über die Erdoberfläche einschließlich grundlegender Geländekartierung (Digitales Geländemodell, Bathymetrie, Korridorkartierung), Vegetationsbedeckung (Waldbewertung und Bestandsaufnahme), Küsten- und Stadtgebiete. Neuere Studien untersuchten die Möglichkeit, ALS in archäologischen Untersuchungen zur Identifizierung von Merkmalen von kulturellem Interesse einzusetzen, obwohl die Fähigkeit dieser Technologie in diesem Zusammenhang noch nicht im Detail untersucht wurde. In diesem Beitrag geben wir einen Überblick über vergangene und gegenwärtige Anwendungen von ALS als Werkzeug zur Erkennung archäologischer und paläo-ökologischer Merkmale auf kahlen Oberflächen sowie auf bewachsenen und bewaldeten Gebieten. Außerdem wird eine Fallstudie zu einer etruskischen Stätte im nördlichen Latium gezeigt. Die LiDAR-Daten wurden nach unserem besten Wissen zum ersten Mal verwendet, um geplünderte, von Vegetation bedeckte Gräber zu identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39643-4_48 d245f251728d7e220a707fba91fbd5ce;de;;;3.3.;;;Systolische Architektur für B-Spline-Oberflächen B-Spline-Oberflächen gehören zu den am häufigsten verwendeten Oberflächentypen zum Modellieren von Objekten in Computergrafik- und CAD-Anwendungen. Eine der zeitaufwendigen Operationen bei der B-Spline-Oberflächenerzeugung ist die Inversion. Zur Lösung dieses Problems wird ein effizienter Algorithmus vorgeschlagen. Dieser Algorithmus ist auf einer systolischen Architektur implementiert, um ein schnelles interaktives Oberflächendesign zu ermöglichen.;-;-;-;https://link.springer.com/article/10.1007/BF01407413 689c71c1567b6424cd754c2a84063dcd;de;;;3.3.;;;Remote Access VPN mit Portschutzfunktion durch Mobile Codes Die Besorgnis über die SSL VPN-Technologie als eine Klasse von VPNs hat in letzter Zeit zugenommen, da ein wesentlicher Vorteil von SSL VPN darin besteht, dass keine spezielle Client-Software erforderlich ist. Wenn ein Benutzer Zugriff auf einen Server anfordert, wird zuerst das SSL-Clientmodul, ein Java-Applet-Code, auf den Host heruntergeladen. Es ist jedoch sehr wahrscheinlich, dass nicht alle Anwendungen gut laufen, da sich ein Client in einigen Anwendungen nicht über einen HTTPS-Tunnel mit einem Server verbinden kann. Diese Studie schlägt eine RAS-VPN-Architektur vor, die es jeder Anwendung ermöglicht, das VPN zu verwenden. Das vorgeschlagene VPN verwendet das gleiche Java-Applet wie bestehende SSL-VPNs, aber die Funktion des Applets, das wir Mobile Code nennen, wird dynamisch durch Java Remote Method Invocation (RMI) geändert. Das VPN-Client-Applet kann serverseitig mit einem VPN-Server und einer Firewall zusammenarbeiten. Infolgedessen ist das vorgeschlagene VPN stark gegen Denial of Service (DoS)-Angriffe.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24591-9_2 3db6a91285354539f8dda7c67729b6ca;de;;;3.3.;;;BeeEye: Ein Framework zum Konstruieren von Architekturansichten Wir glauben, dass die Bereitstellung von Mitteln zum Definieren und Erstellen mehrerer Architekturansichten eines bestimmten Systems das Verständnis des Systems als Ganzes verbessert. BeeEye ist ein;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15114-9_31 d8fc865ae8bdf46d9bd46d4c3ee1541b;de;;;3.3.;;;Eine dynamische Unterwassersensor-Netzwerkarchitektur basierend auf physischem Clustering und Intra-Cluster-Autonomie In diesem Beitrag wird eine dynamische Architektur für Unterwassersensornetzwerke basierend auf dem physikalischen Clustering und der Intra-Cluster-Autonomie gemäß der traditionellen logischen Clustering-Theorie vorgestellt. In dieser Architektur eliminieren die Cluster-Header die negativen Auswirkungen des Stroms und verbessern die Stabilität der Unterwassersensornetzwerke, indem sie Cluster-Knoten zeichnen, um eine kreisförmige Bewegung durch Cluster-Kabel auszuführen. Diese kabelgebundene Kommunikation innerhalb des Clusters und die drahtlose Kommunikation zwischen den Clustern verbessern die Geschwindigkeit der Datenübertragung und Bereitstellung. Auf der anderen Seite wird zur Lösung energieintensiver Probleme eine Energy-Harvesting-Technologie in Betracht gezogen, um Knoten mit nachhaltiger Energie zu versorgen. Diese dynamische Unterwassersensornetzwerkarchitektur bietet ein grundlegendes Modell zum Studium der leistungsstarken und wiederverwendbaren Unterwassersensornetzwerke.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54522-1_9 e5d550243c1edc42f754bd6019b47146;de;;;3.3.;;;Automatisierte Invariantenpflege über OCL-Kompilierung UML-Designmodelle, insbesondere ihre deklarativen OCL-Invarianten, müssen in gelieferten Code verfeinert werden. Ein zentrales Problem ist die Notwendigkeit, diese Logik nicht aufdringlich in vom Programmierer geschriebenen Code zu integrieren. Wir haben vor kurzem einen Ansatz namens developed entwickelt;-;-;-;https://link.springer.com/chapter/10.1007/11557432_46 0552b1a5b60cfaa6d345c6cb1da50665;de;;;3.3.;;;Einschränkungen der Modellierungssprachen: Eine vergleichende Studie von ArchiMate und SOMF In heutigen IT-Projekten modellieren einige Spezialisten Architekturen mit Hilfe von Ad-hoc-Modellierungssprachen auf wiederkehrende Weise. Da diese Sprachen normalerweise keine definierten Regeln oder Metamodelle haben und die Mehrheit der beteiligten Personen solche Sprachen möglicherweise nicht kennt, können Missverständnisse und Probleme auftreten. In diesem Artikel haben wir versucht zu überprüfen, ob es in zwei bekannten Modellierungssprachen Einschränkungen gibt, da wir glauben, dass die Einschränkungen der heutigen Modellierungssprachen eine der Ursachen für die Verwendung von Ad-hoc-Sprachen sein können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31800-9_28 9c33e86778bacd5763dcfcec95dc6f29;de;;;3.3.;;;Integration von Aspekten und wiederverwendbaren Komponenten: Eine archetypgetriebene Methodik Die vorgeschlagene Arbeit konzentriert sich auf die Entwicklung einer Methodik, die die Softwareentwicklung fördert, indem das gesamte System in verschiedene unabhängige Komponenten und Aspekte unterteilt wird. Dies erleichtert die Wiederverwendung von Komponenten sowie die separate Modellierung der Komponenten und betont die Bedenken, die das weit verbreitete OOP-Paradigma nicht berücksichtigt hat. Die Identifizierung wiederverwendbarer Komponenten erfolgt nach der hybriden Methodik und die Aspekte werden von den Domänenexperten identifiziert. Zusammen mit den Komponenten werden die entwickelten plattformunabhängigen Modelle und Aspekte in separaten Repositories gespeichert, um bei der Entwicklung anderer Software mit ähnlichen Anforderungen und Grundstruktur verwendet zu werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22606-9_56 d39cba9064c755b1be4af338e3187d65;de;;;3.3.;;;Metasynthese-basiertes intelligentes Big-Data-Verarbeitungsparadigma Diese Forschung zielt darauf ab, eine Methodik des Metasynthese-basierten intelligenten Big-Data-Processing-Paradigmas zu etablieren, die auf den Mechanismen der Metasynthese-Architektur, der Metasynthese-Technologie und dem Prinzip der Metasynthese-Intelligenz basiert. Die vorgeschlagene Methode wird die Fähigkeit zur intelligenten Datenerfassung, Datenidentifikation, Datenstrukturdesign und Datenanalyse sowie zur automatischen und intelligenten Entscheidungsfindung basierend auf integrierten Big-Data-Verarbeitungstechnologien, Entscheidungsmodellierungsmethoden und intelligenten Algorithmen erreichen. Auch das menschliche Engagement, gesellschaftliche Merkmale, dynamische Merkmale und Unsicherheit werden in dieser Studie berücksichtigt. Analysiert wird der aktuelle Forschungsstand einschließlich der Big-Data-Architekturen, Big-Data-Verarbeitungssysteme, Big-Data-Management, Big-Data-Anwendung. Um mit der Komplexität von Big-Data-Systemen umzugehen und eine intelligente Problemlösungsmethodik für die Big-Data-Verarbeitung zu etablieren, wird eine Idee der „3M“-Struktur der Metasynthese vorgeschlagen. Der methodische Rahmen basiert auf den akademischen Gedanken der Metasynthese. Die Anwendungsperspektiven dieser Methodik werden für zukünftige Forschung diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-1837-4_39 46e6cdc7a5d4561c9ab8d91aa83c5340;de;;;3.3.;;;Reichweitenbasierte Echtzeit-Lokalisierung in drahtlosen Sensornetzwerken In der heutigen Welt spielen Frachtcontainer und Schifffahrt eine massive Rolle für die Entwicklung des internationalen Handels durch den weltweiten Containerumschlag. Aufgrund des Fehlens eines zuverlässigen Positionierungs- und Verfolgungssystems ist die Aufzeichnung von Containern nicht genau und führt zu einer Reihe von verlegten, nicht identifizierten und verlorenen Containern, die mit der Zeit überwältigend werden können. Dies wirkt sich indirekt auf die Entwicklung des internationalen Handels aus, insbesondere für Länder, die auf importierte Nahrungsmittel, Ressourcen und Rohstoffe angewiesen sind. In diesem Beitrag diskutieren wir das Paradigma drahtloser Sensornetzwerke für ein Echtzeit-Lokalisierungssystem, um den Standort und den Status von Frachtcontainern in einem Hafen zu verfolgen. Wir haben das Ankunftszeit-(ToA)-Verfahren und ein Zwei-Wege-Ranging-Schema betrachtet. Betrachtet wird das ISM 2,4 GHz Band von Zigbee (IEEE 802.15.4 Standard), das aufgrund seiner geringen Kosten, Kommunikation und geringen Leistungsaufnahme weltweit für ein Echtzeit-Positionierungssystem verwendet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89853-5_45 0afc60615a0bfe421ed962bf42779f38;de;;;3.3.;;;Ein sicheres mobiles Zahlungsmodell für sich entwickelnde Märkte Die Entwicklung des mobilen Bezahlens vollzieht sich weiterhin mit hoher Geschwindigkeit mit sich ändernden Geschäftsmodellen und Technologiesystemen. Mit der allgegenwärtigen Verfügbarkeit von Mobiltelefonen und anderen mobilen Geräten bietet mobiles Bezahlen eine Investitionsmöglichkeit für sich entwickelnde Märkte. Der Erfolg von Mobile Payment hängt jedoch von der Sicherheit der zugrunde liegenden Technologie und dem damit verbundenen Geschäftsmodell ab. In diesem Papier wird ein mobiles Zahlungsmodell für sich entwickelnde Märkte diskutiert. Dieses mobile Zahlungsmodell umfasst die Funktionen, die sichere lokale Zahlungen an entfernten Standorten mit begrenzter Netzabdeckung ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14292-5_20 c0eae7c51278ab6f87f1ad57ba9808bb;de;;;3.3.;;;Eine Entwicklung eines Echtzeit-Failover-Inter-Domain-Routing-Frameworks unter Verwendung von Software-Defined Networking Internet Exchange Points (IXPs) spielen eine entscheidende Rolle bei der Verbindung zwischen Internetdienstanbietern. Folglich wirken sich Fehler in der zugrunde liegenden IXP-Infrastruktur auf die Endbenutzererfahrung aus und können potenziell zu einem finanziellen Verlust für die Teilnehmer führen. Mehrere Forschungsgruppen haben versucht, den Routenauswahlprozess des Border Gateway Protocol (BGP) in IXP mit einem softwaredefinierten Netzwerkansatz (SDN) zu überschreiben, um schnelle Failover-Zeiten bereitzustellen und den Datenverkehr zwischen IXPs zu steuern. In dieser Untersuchung unterbrechen Datenebenenfehler, wie z. B. physische Trennungen zwischen den Routern der Teilnehmer und dem IXP-Switch, den Verkehrsfluss, bis der konfigurierte BGP-Haltezeitgeber im IXP-Route-Server abläuft. Das Ziel dieser Forschung ist es, die Pakete zu verringern, die während eines IXP-Datenebenen-Fehlerereignisses verworfen werden. Wir versuchen, die Trennzeit zwischen den IXP-Teilnehmern auf einen Wert von weniger als einer Sekunde zu verringern, was der minimal konfigurierbaren BGP-Haltezeit entspricht. Um dieses Ziel zu verfolgen, haben wir ein Framework entwickelt, das den Failover-Prozess auf die Größenordnung von Millisekunden reduziert. Die Ergebnisse der Experimente ergaben eine durchschnittliche Ausfallzeit von 31 ms. Als Folge der Verbesserung der Failover-Zeit wird der durchschnittliche Paketverlust reduziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-73100-7_27 dace7035203e8c2cc4cdc6a69d5069a9;de;;;3.3.;;;Geschichte und Perspektiven der ASC Student Supercomputer Challenge Im Jahr 2012 unter der Leitung des chinesischen Ministeriums für Wissenschaft und Technologie und des chinesischen Bildungsministeriums und mit gemeinsamer Unterstützung der Inspur Group, des International Supercomputing Conference Organizing Committee (ISC) und des HPC-AC) wurde erstmals die „Student Supercomputer Challenge and ISC Student Cluster Challenge Regional Preliminary Stage“ in China eingeführt. Dieser Wettbewerb erhielt starke Unterstützung von der chinesischen Regierung und der wissenschaftlichen Gemeinschaft in China. Yilian Jin, Xubang Shen, Xin-gui He und Zuoning Chen, vier hochrangige Akademiker der Chinese Academy of Engineering, fungierten als Vorsitzende und stellvertretende Vorsitzende des Wettbewerbslenkungsausschusses. Dieser Wettbewerb wurde auch vom Department of High and New Technology Development and Industrialization des chinesischen Ministeriums für Wissenschaft und Technologie und der Tsinghua University voll unterstützt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-3731-3_7 9b3a97a92e8e8a46cfadfd158ad0a764;de;;;3.3.;;;Forschung zu 3G-Anwendungen mit NFC Dieses Papier beschreibt die Forschung zum Einsatz von NFC zur Entwicklung von 3G-Anwendungen. Dieses Papier stellt die Struktur der NFC-Bibliothek vor und beschreibt die Implementierung von Algorithmen in unserer Bibliothek. NFC ist eine auf Standards basierende drahtlose Nahbereichs-Konnektivitätstechnologie, die einfache und intuitive Zwei-Wege-Interaktionen zwischen elektronischen Geräten ermöglicht. Mit der NFC-Technologie können Verbraucher kontaktlose Transaktionen durchführen, auf digitale Inhalte zugreifen und NFC-fähige Geräte mit einer einzigen Berührung verbinden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35211-9_99 a74c3aa86aae22c79036aada9bae3fe4;de;;;3.3.;;;Eine neue offene Architektur des elektronischen Steuersystems für Kraftfahrzeuge In Anbetracht der Unzulänglichkeiten des geschlossenen E/E-Steuerungssystems für Autos wird durch die Analyse der Anforderungen und Eigenschaften des offenen Systems des E/E-Steuerungssystems des Fahrzeugs eine offene Systemstruktur des elektronischen Steuerungssystems für Kraftfahrzeuge basierend auf dem etablierten Quantenrahmensystem/E fortschrittliche Softwaretechnologie eingebetteter Systeme. Die Konstruktionsexperimente der elektronischen Steuerkupplung zeigen, dass das System einen offenen Rollennutzungsstil des Gebäudes und des Systems basierend auf dieser Architektur erreichen kann als ein geschlossenes System.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29087-9_111 12d820efba30f230601a05e46ed70600;de;;;3.3.;;;CIVIC: Eine Hypervisor-basierte virtuelle Computerumgebung Der Zweck einer virtuellen Computerumgebung besteht darin, die Ressourcennutzung zu verbessern, indem eine einheitliche integrierte Betriebsplattform für Benutzer und Anwendungen bereitgestellt wird, die auf der Ansammlung heterogener und autonomer Ressourcen basiert. Mit der schnellen Entwicklung in den letzten Jahren sind Hypervisor-Technologien ausgereift und umfassend mit vier Funktionen, darunter Transparenz, Isolierung, Kapselung und Verwaltbarkeit. In diesem Papier wird eine Hypervisor-basierte virtuelle Computerinfrastruktur namens CIVIC vorgeschlagen. Im Vergleich zu bestehenden Ansätzen kann CIVIC in mehrfacher Hinsicht profitieren. Es bietet eine separate und isolierte Computerumgebung für Endbenutzer und realisiert Hardware- und Softwarekonsolidierung und zentralisierte Verwaltung. Darüber hinaus bietet CIVIC eine transparente Sicht auf Anwendungen der oberen Schicht, indem es die Dynamik, Verteilung und Heterogenität der zugrunde liegenden Ressourcen verbirgt. Die Leistung der Infrastruktur wird durch eine anfängliche Bereitstellung und ein Experiment bewertet. Das Ergebnis zeigt, dass CIVIC die Installation, Konfiguration und Bereitstellung von netzwerkorientierten Anwendungen erleichtern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75444-2_75 ff0191dbfb7e57ef80df61905c3d1073;de;;;3.3.;;;Anpassung des SPMSA-Modells (Software Project Management Supported by Software Agents) an die PMBOK2004-Richtlinien Zahlreiche Softwareentwicklungsprojekte erfüllen die Erwartungen nicht oder scheitern komplett. Umfang, Umgebung und Implementierung von Softwareprojekten ändern sich aufgrund der Globalisierung, der Fortschritte bei Computertechnologien sowie der Bereitstellung von Softwareprojekten in verteilten, kollaborativen und virtuellen Umgebungen. Infolgedessen können herkömmliche Projektmanagementmethoden die zusätzliche Komplexität dieser sich ständig ändernden Umgebung nicht bewältigen. Die Autoren schlugen das Softwareprojektmanagementmodell mit dem Titel SPMSA (Software Project Management Supported by Software Agents) vor, das darauf abzielt, das Softwareprojektmanagement zu verbessern, indem die einzigartige Natur und sich ändernde Umgebung von Softwareprojekten berücksichtigt wird. Das SPMSA-Modell unterstützt das gesamte Spektrum der Softwareprojektmanagementfunktionen und unterstützt und verbessert jede Schlüsselfunktion mit einem Team von Softwareagenten. In diesem Papier passen die Autoren das SPMSA-Modell an, um die PMBOK2004-Richtlinien zu integrieren. Das SPMSA-Modell leistet einen neuen Beitrag zur Verbesserung des Software-Projektmanagements durch den Einsatz von Software-Agent-Technologie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04754-1_46 4c1c8dc40fad94498ab0e845e8c695e1;de;;;3.3.;;;Design der Prozessorleistungsversorgung mit großem Betriebsbereich für Super-Threshold-Spannung und Near-Threshold-Spannung Der Lastleistungsbereich moderner Prozessoren wird stark erweitert, da viele fortschrittliche Energieverwaltungstechniken verwendet werden, wie z. Da jedoch der Wirkungsgrad der Leistungsabgabe mit unterschiedlichen Lastbedingungen stark variiert, können herkömmliche Leistungsabgabekonstruktionen keine hohe Effizienz über das gesamte Spannungsspektrum aufrechterhalten, und die gewonnene Leistungseinsparung kann durch Leistungsverluste bei der Leistungsabgabe ausgeglichen werden. Wir schlagen SuperRange vor, eine Stromversorgungseinheit mit breitem Betriebsbereich. SuperRange ergänzt die Leistungsbereitstellung des On-Chip-Spannungsreglers und des Off-Chip-Spannungsreglers. Zusätzlich zu SuperRange analysieren wir seine Leistungsumwandlungseigenschaften und schlagen einen Spannungsregler (VR)-fähigen Power-Management-Algorithmus vor. Da außerdem immer mehr Kerne auf einem einzigen Chip integriert wurden, können mehrere SuperRange-Einheiten als grundlegende Bausteine ​​dienen, um hochskalierbar ein leistungsfähigeres Stromversorgungs-Subsystem mit größerer Leistungskapazität aufzubauen. Experimentelle Ergebnisse zeigen, dass die SuperRange-Einheit einen 1x und 1,3x höheren Leistungsumwandlungswirkungsgrad (PCE) bietet als andere zwei herkömmliche Leistungsabgabeschemata im NTV-Bereich und einen durchschnittlichen PCE von 70 % über den gesamten Betriebsbereich aufweist. Es zeigt auch eine überlegene Widerstandsfähigkeit gegenüber leistungsbeschränkten Systemen.;-;-;-;https://link.springer.com/article/10.1007/s11390-016-1625-7 294ad2dd76da672ad6ab4b3cd83680ac;de;;;3.3.;;;Bildmustererkennung mit konfigurierbaren Logikzellen-Arrays Es wird ein neuer Ansatz zur Lösung rechenintensiver Probleme unter Verwendung von programmierbaren Logikzellenarray-Bauelementen als rekonfigurierbare Prozessoren mit dynamischer Laufzeit vorgestellt. Die Anwendbarkeit des Ansatzes für reale Probleme wird an zwei zeitkritischen Teilen der Bildmustererkennung mit dem hierarchischen Fasenvergleichsverfahren demonstriert. Die Ausführungszeiten der Programme, die bestimmte rechenintensive Teile des Erkennungsprozesses auf einem normalen sequentiellen Computer ausführen, werden mit der neuen Architektur verglichen. Signifikante Beschleunigungen werden gegenüber dem sequentiellen Ansatz durch die Nutzung von Optimierung und paralleler Verarbeitung auf Gate-Ebene erreicht. Die potenzielle Rolle des Ansatzes in zukünftigen Computern wird diskutiert, der Anwendungsentwicklungsprozess und die erforderlichen Entwicklungswerkzeuge beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-68093-2_23 376cb9fea5e0f8f2f4b3a309f2506699;de;;;3.3.;;;Ein neuartiges „Kreditvereinigungsmodell des Cloud Computing“ Cloud Computing zieht die Aufmerksamkeit von Menschen aus allen Bereichen der IT-Welt auf sich. Es verspricht neben vielen anderen Vorteilen eine deutliche Kostensenkung, wie z (bezeichnet als CU-Modell oder kurz CUM). Dieses Modell ist motiviert durch das genossenschaftliche Geschäftsmodell der vielen Kreditgenossenschaften, die weltweit als eine Art Finanzinstitut weit verbreitet sind. Das CU-Modell zielt darauf ab, die riesigen, nicht ausgelasteten Computerressourcen in Privathaushalten und Büros zu nutzen und sie in eine selbst bereitgestellte Community-Cloud zu verwandeln, die das Geschäftsmodell einer Kreditgenossenschaft nachahmt, d. Auf dem CU-Modell basierende Clouds, die als CU-Clouds bezeichnet werden, weisen gegenüber den allgemeinen Clouds folgende vorteilhafte Eigenschaften auf: vollständige Herstellerunabhängigkeit, verbesserte Verfügbarkeit (aufgrund geringerer Internet-Abhängigkeit), bessere Sicherheit und hervorragende Nachhaltigkeit (Green Computing) . Dieses Papier erläutert die Prinzipien und Motivationen des CU-Modells, geht auf seine Implementierungsarchitektur und damit zusammenhängende Fragen ein und gibt einen Ausblick auf potenzielle Anwendungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21984-9_59 25646eb13037efc661ecd0fb485f468a;de;;;3.3.;;;Verteilte Kontrolle mobiler ATM-Netzwerke mit CORBA Dieses Papier berichtet über Design, Implementierung und Leistungsbewertung einer CORBA-basierten verteilten Steuerungsarchitektur für mobile ATM-Netzwerke. Die verteilte Steuerungsarchitektur verwendet offene Signalisierung, um die verschiedenen Netzwerkressourcen zu manipulieren, um Netzwerkdienste wie Anrufsteuerung, Multicast und Mobilitätsmanagement zu realisieren. Offene Signalisierung bietet die Flexibilität und Leichtigkeit bei der Schaffung neuer Netzdienste im Gegensatz zu Standardsignalisierungsansätzen wie der ATM-Forum-Signalisierung. Die Netzwerksteuerungsarchitektur arbeitet mit der ATM-Forum-Signalisierung zusammen. Die Leistung der Prototypimplementierung wird evaluiert, um die Auswirkung von CORBA-Latenzen auf die Signalisierungsleistung zu verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-49121-7_25 e2f5064d9ff05683452fa9325cfc4b72;de;;;3.3.;;;Intelligenter Verifizierungsalgorithmus für IoT-Anwendungen mit QR-Tag Es wird ein Smart Verification Algorithm (SVA) vorgeschlagen, der mit Internet of Things (IoT)-Anwendungen verwendet wird, um ein Überprüfungsverfahren durchzuführen, um autorisierte Anfragen des Benutzers zu ermöglichen, mit Hilfe des Quick Response (QR)-Tags auf ein intelligentes System zuzugreifen. Es verwendet verschlüsselte QR-Tag-Werte, um sie mit den Originalwerten zu vergleichen. Für dieses Verifizierungsverfahren wurden drei Schichten vorgeschlagen, um Sicherheitsziele zu erreichen. Die erste Schicht implementiert einen Vergleich, um das integrierte System zu erhalten. In der zweiten Schicht werden die Originalwerte im Offline-Datenbankspeicher gespeichert, um jeden durch Bedrohungen verursachten Zugriff zu deaktivieren und verfügbar zu halten. Die dritte generiert häufig ein authentifiziertes QR-Tag mit einem privaten 1-Sitzungs-Schlüssel, um sowohl den Verlust von Informationen als auch einen unbefugten Zugriff zu verhindern, wenn der Schlüssel abgeleitet wurde, um ihn vertraulich zu halten. Ziel des SVA ist es, den Datenschutz des Systems zu erhöhen. Es wird in Bezug auf Sicherheitsfaktoren bewertet. Die Ergebnisse bestätigen, dass es schneller ist als andere Wettbewerbstechniken. Darüber hinaus haben die Ergebnisse die Robustheit von SVA gegenüber unbefugten Zugriffsversuchen und Brute-Force-Angriffen diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2622-6_11 c0116d26428c16c7ceb653e96f0b58a8;de;;;3.3.;;;Energieeffiziente Hybrid-Vorcodierung für adaptive untergeordnete Architekturen in MmWave-Massiv-MIMO-Systemen Ein energieeffizienter Hybrid-Vorcodierungsalgorithmus mit Einschränkungen der Dienstgüte (QoS) wird für eine adaptive unterverbundene Architektur in mmWave-Massive Multiple Input Multiple Output (MIMO)-Systemen vorgeschlagen. Das Problem der Optimierung der Systemenergieeffizienz wird vorgeschlagen und dann in ein Unterproblem im analogen Bereich und in ein Unterproblem im digitalen Bereich zerlegt. Der Phasenextraktionsalgorithmus und der iterative Optimierungsalgorithmus werden verwendet, um das Optimierungsunterproblem im analogen bzw. digitalen Bereich zu lösen. Simulationsergebnisse zeigen, dass der vorgeschlagene Algorithmus effektiv ist, da er die Energieeffizienz von Netzwerken verbessern und gleichzeitig die Dienstgüte garantieren könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8411-4_89 17917eca98e8b4156d4adedd3ffadc6a;de;;;3.3.;;;Composite Technology Challenge System zur Optimierung der 5G-Kommunikation Die Bedeutung von Ansätzen zur Verbesserung von Systemen/Produkten wurde erhöht. In dem Artikel wird ein modulares Technologieherausforderungssystem als Grundlage für den Systemverbesserungsprozess vorgeschlagen. Der kombinatorische Rahmen für den Entwurf eines modularen Technologieherausforderungssystems wird beschrieben: (1) Sammlung von Informationen (Literaturquellen zu Technologieherausforderungen/Schlüsseltechnologien), (2) Entwurf einer Hierarchie über die Menge von Teilhierarchie unter Berücksichtigung des/der vorgegebenen Thema(s), (4) Zusammenstellung einer erforderlichen Informationseinheit Konfiguration als Technologie-Herausforderungssystem Die Kompositionsphase basiert auf morphologischem Design. Ein angewandtes realistisches numerisches Beispiel veranschaulicht die Verwendung des vorgeschlagenen Rahmens, um ein 5G-Technologie-Herausforderungssystem als Satz ausgewählter zugehöriger Optimierungsmaßnahmen zu entwerfen.;-;-;-;https://link.springer.com/article/10.1007/s42979-020-00235-7 ffb25e27a023cafe9890988491d39c71;de;;;3.3.;;;Schlussbemerkungen und Zukunftsaussichten Der Hauptbeitrag dieses Buches betrifft den unkonventionellen Time-Domain-Ansatz zur Implementierung von chiplosen RFID-Systemen und zugehörigen Sensoren. In solchen Systemen sind die Tags elektromagnetische Kodierer, die aus Ketten metallischer Einschlüsse (resonante Elemente oder Streifen) bestehen, die auf ein dielektrisches Substrat (starr oder flexibel, einschließlich Kunststoff und Papier) gedruckt oder geätzt sind. Der Leser ist ein Element, das das Vorhandensein von Funktionseinschlüssen in der Kette erkennen kann, wenn das Etikett über einen kurzen Abstand über den empfindlichen Teil des Lesers verschoben wird. Somit erfolgt in diesem System das Lesen des Tags durch Nähe (durch Nahfeldkopplung) zwischen dem Tag und dem Leser in einem Zeitmultiplexverfahren, bei dem der ID-Code sequentiell bitweise abgeleitet wird [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-39726-5_5 8c5c751e93c7948630e6f968d909d774;de;;;3.3.;;;Eine neuartige Hardware-/Software-Partitionierungsmethode basierend auf der Optimierung von lagegestörten Partikelschwärmen mit invasiver Unkrautoptimierung Mit der Entwicklung der Designkomplexität in eingebetteten Systemen wird die Hardware/Software (HW/SW)-Partitionierung zu einem herausfordernden Optimierungsproblem beim HW/SW-Co-Design. In diesem Beitrag wird eine neuartige HW/SW-Partitionierungsmethode vorgestellt, die auf der Positionsdistricted Particle Swarm Optimization with Invasive Weed Optimization (PDPSO-IWO) basiert. Es wird von Biologen festgestellt, dass die Erdhörnchen Alarmrufe erzeugen, die ihre Artgenossen warnen, sich zu entfernen, wenn eine potenzielle räuberische Bedrohung besteht. Hier stellen wir den PDPSO-Algorithmus vor, bei dem in jeder Iteration das Verhalten des Eichhörnchens beim Entkommen aus dem schlimmsten globalen Partikel simuliert werden kann, um die Populationsdiversität zu erhöhen und ein lokales Optimum zu vermeiden. Wir präsentieren auch neue Initialisierungs- und Reproduktionsstrategien, um den IWO-Algorithmus zum Suchen einer besseren Position zu verbessern, mit dem die globale beste Position aktualisiert werden kann. Dann können die Suchgenauigkeit und die Lösungsqualität verbessert werden. PDPSO und verbessertes IWO werden zu einem einzigen PDPSO-IWO-Algorithmus synthetisiert, der sowohl die Suchdiversifizierung als auch die Suchintensivierung beibehalten kann. Darüber hinaus wird ein hybrider NodeRank (HNodeRank)-Algorithmus vorgeschlagen, um die Population von PDPSO-IWO zu initialisieren, und die Lösungsqualität kann weiter verbessert werden. Da die Berechnung der HW/SW-Kommunikationskosten der zeitaufwendigste Prozess für den HW/SW-Partitionierungsalgorithmus ist, verwenden wir die GPU-Paralleltechnik, um die Berechnung zu beschleunigen. Auf diese Weise kann die Laufzeit von PDPSO-IWO für groß angelegte HW/SW-Partitionierungsprobleme effizient reduziert werden. Schließlich zeigen mehrere Experimente zu Benchmarks aus hochmodernen Veröffentlichungen und groß angelegte HW/SW-Partitionierung, dass der vorgeschlagene Algorithmus eine höhere Leistung als andere Algorithmen erreichen kann.;-;-;-;https://link.springer.com/article/10.1007/s11390-017-1714-2 e770af878281849d2fffde7b3ebc6b84;de;;;3.3.;;;Fuzzy und neuronale intelligente Steuerung: Grundprinzipien und Architekturen Die Fuzzy-Set- und Fuzzy-Logik-Theorie wurde von Zadeh [1] initiiert und erlaubt die exakte mathematische Behandlung von vagen, ungenauen und schlecht definierten Wissen und Konzepten. Im Laufe der Jahre wurde diese Theorie umfassend studiert und für die Analyse, Modellierung und Steuerung von technologischen und nicht-technologischen Systemen verwendet. Eigentlich gehorchen unser Leben und unsere Welt dem;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-5498-7_2 ed6c9ad75e6bb8ccacb3bf49b6f33abc;de;;;3.3.;;;Eine Studie zur Debugging-Methode für Engineering-Software mit Marshalling in eingeschränkter Umgebung Obwohl solche kommerziellen Produkte wie ANSYS, NASTRAN und PATRAN die meistgesuchten und produktivsten Funktionen für Analyse und Design bieten, bieten sie keine speziellen Funktionen, die von einem Fertigungsunternehmen benötigt werden. In diesem Fall entwickeln die meisten Unternehmen die erforderliche Engineering-Software selbst und verwenden C++ oder die Sprache C, um die erforderliche Engineering-Software zu entwickeln. In letzter Zeit steigt mit der steigenden Präferenz für GUI auch die Nachfrage nach GUI-Entwicklung. Für CUI-Entwickler ist es jedoch schwierig, sich in kurzer Zeit an die GUI-Entwicklung anzupassen. In diesem Papier wurde eine Debugging-Methode für die Zusammenarbeit zwischen internen Entwicklern, die Engineering-Software entwickeln, und externen Entwicklern, die GUI entwickeln, vorgeschlagen. Dieses Debugging-Verfahren hat den Vorteil, dass es die Entwicklung von GUI-basierter Software ermöglicht, ohne wesentliche Änderungen an der Grundstruktur der CUI-basierten Engineering-Software vorzunehmen. Darüber hinaus hat diese Debugging-Methode den Vorteil, dass die Kerntechnologie eines Unternehmens geschützt werden kann, da externe GUI-Entwickler die internen Eigenschaften von Engineering-Software nicht kennen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9341-9_41 37110d82d3e9f0b08a15033e1119acef;de;;;3.3.;;;3D-Technologien für die integrierte Analyse des Welterbes: Der Fall der UNESCO-Höhlen von Škocjan, Slowenien Die Karstlandschaft ist ein spezifisches Erbe, bei dem Oberfläche und Untergrund Teil einer einzigen Landschaft sind. Wo der Untergrund (Höhlen, Schächte...) eine wichtige Rolle bei der Entwicklung der Oberfläche spielte. Landschaft, in der natürliche und anthropogene Prozesse Hand in Hand gingen. Höhlen wurden oft als von der Außenlandschaft getrennt behandelt, isoliert von der Landschaft, zu der sie gehören. Dieses komplexe Erbe erfordert jedoch integrative Methoden, die die Höhlenaufzeichnungen in die Landschaft integrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13695-0_46 7e123415fb74fa9e8614b57875fbcd13;de;;;3.3.;;;Identifizieren und Behandeln von Problemen bei der Wiederverwendung von objektorientierten Frameworks Dieses Papier beschreibt die Ergebnisse einer langfristigen empirischen Untersuchung zur Wiederverwendung von objektorientierten Frameworks. Ziel ist es, die Hauptprobleme, die bei der Wiederverwendung von Frameworks auftreten, und die Auswirkungen aktueller Dokumentationstechniken auf diese Probleme zu identifizieren. Vier Hauptprobleme bei der Wiederverwendung werden identifiziert: Verständnis der Funktionalität von Framework-Komponenten, Verständnis der Interaktionen zwischen Framework-Komponenten, Verständnis der Zuordnung von der Problemdomäne zur Framework-Implementierung, Verständnis der Architekturannahmen im Framework-Design. Zwei Formen der Dokumentation werden als potenziell zur Lösung dieser Probleme identifiziert, nämlich Mustersprachen und Mikroarchitekturbeschreibungen. Eine eingehende qualitative Analyse legt nahe, dass Mustersprachen zwar eine sinnvolle Unterstützung bei der Einführung von Framework-Konzepten bieten, diese aber von Entwicklern mit ihrem Vorwissen umgangen werden kann, gelegentlich zu Lasten der endgültigen Lösung. Die Dokumentation zur Mikroarchitektur scheint Unterstützung für einfache Interaktions- und Funktionsabfragen zu bieten, ist jedoch nicht in der Lage, groß angelegte Interaktionsprobleme mit mehreren Klassen innerhalb des Frameworks zu lösen. Das Papier kommt zu dem Schluss, dass, obwohl eine Kombination aus Mustersprache und Mikroarchitektur-Dokumentation für die Wiederverwendung von Frameworks nützlich ist, die Formen dieser Dokumentationstypen, die in dieser Studie verwendet werden, einer weiteren Verbesserung bedürfen, um wirksam zu werden. Das Papier dient auch als Beispiel, um andere zu ermutigen, das Verständnis und die Dokumentation des Rahmenwerks zu bewerten.;-;-;-;https://link.springer.com/article/10.1007/s10664-006-9027-z 84e3a585cf5739a8e7c316bf09d67d2f;de;;;3.3.;;;Ein schneller Inversionsalgorithmus und eine Architektur mit geringer Komplexität über Die Leistung von Kryptosystemen mit öffentlichem Schlüssel wird hauptsächlich durch die zugrunde liegende Finite-Felder-Arithmetik bestimmt. Unter den grundlegenden arithmetischen Operationen über einen endlichen Körper ist die multiplikative Inversion die zeitaufwendigste Operation. In diesem Artikel wird ein schneller Inversionsalgorithmus über;-;-;-;https://link.springer.com/chapter/10.1007/11596981_1 1b3ceaee230084c4397458ba46a1ff7d;de;;;3.3.;;;Eine richtlinienbasierte Verwaltungsarchitektur für die flexible Dienstbereitstellung in aktiven Netzwerken Dieses Dokument beschreibt ein dynamisches, skalierbares und erweiterbares richtlinienbasiertes Netzwerkmanagementsystem (PBNM), das vollständig in eine Dienstbereitstellungsarchitektur für aktive Netzwerke integriert ist. Das wichtigste Ergebnis ist die Anpassung des Netzwerks an die Bedürfnisse der verschiedenen Dienstanbieter und deren Endbenutzer. Unsere komponentenbasierte Service-Provisioning-Architektur ermöglicht es uns, service- und benutzerspezifische Anforderungen über einzelne/mehrere Verwaltungsdomänen zur Bereitstellungszeit zu erfüllen und Servicekomponenten dynamisch mit den entsprechenden Management-Richtlinien auf das Netzwerk abzubilden. Die in diesem Papier vorgestellte Architektur beschreibt den Ansatz des IST-FAIN-Forschungsprojekts sowie die Hauptprobleme, denen wir bei der Entwicklung und Integration des PBNM mit dem Dienstbereitstellungsmechanismus begegnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24715-9_21 9a022790ad60e2dd709bc36e00a89d92;de;;;3.3.;;;Die denotationale Semantik-Definition von SPS-Programmen basierend auf Extended PLC ist im Bereich der automatischen Steuerung weit verbreitet. Zu den Methoden zur Überprüfung der Korrektheit von SPS-Programmen gehören Softwaremodellprüfung und Theorembeweis usw. Um formale Methoden zur Überprüfung der Korrektheit von SPS-Programmen zu verwenden, muss die denotationale Semantik definiert werden, und dann können SPS-Programme modelliert, modelliert und verifiziert werden. Basierend auf der erweiterten;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21802-6_7 f7763f921ffb6dede73ab45c7615de04;de;;;3.3.;;;Eine Multi-Agenten-Architektur zur Kennzeichnung von Daten und Generierung von Vorhersagemodellen im Bereich Social Services Vorhersagemodelle sind in Versicherungsunternehmen und Gesundheitsdiensten weit verbreitet. Auch wenn 120 Millionen Menschen in der EU von Armut oder sozialer Ausgrenzung bedroht sind, sind solche Modelle im Bereich der sozialen Dienste überraschend ungewöhnlich. Ein wesentlicher Grund für diese Lücke ist die Schwierigkeit, Daten zu sozialen Diensten zu kennzeichnen und zu kommentieren. Bedingungen wie soziale Ausgrenzung erfordern eine Einzelfalldiskussion. In diesem Beitrag wird eine Multi-Agenten-Architektur vorgestellt, die semantische Webtechnologien, explorative Datenanalysetechniken und überwachte maschinelle Lernmethoden kombiniert. Die Architektur bietet eine ganzheitliche Sicht auf die wichtigsten Herausforderungen bei der Kennzeichnung von Daten und der Erstellung von Vorhersagemodellen für soziale Dienste. Darüber hinaus wird in dem Vorschlag diskutiert, inwieweit diese Aufgaben durch intelligente Agenten automatisiert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-60285-1_15 9f725cb880acc883588e66fdaa7257c9;de;;;3.3.;;;Anwendung einer formalen Methode in der Industrie: Ein 15-jähriger Weg Dieser Artikel präsentiert industrielle Erfahrungen mit der Anwendung der formalen B-Methode in der Industrie in verschiedenen Anwendungsbereichen (Eisenbahn, Automobil, Smartcard usw.). Wenn der Mehrwert eines solchen Ansatzes im Laufe des Jahres nachgewiesen wurde, ist die Anwendung einer formalen Methode kein Allheilmittel und erfordert einige Vorsichtsmaßnahmen, wenn sie in einen industriellen Entwicklungszyklus eingeführt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04570-7_3 f534085248520952a74aac6f16e8304e;de;;;3.3.;;;SLUG: Eine konnektionistische Architektur zum Ableiten der Struktur endlicher Umgebungen Stellen Sie sich einen Roboter vor, der durch eine unbekannte Umgebung wandert, Aktionen ausführt und die resultierenden Umgebungszustände erfasst. Die Aufgabe des Roboters besteht darin, ein internes Modell seiner Umgebung zu konstruieren, ein Modell, das es ihm ermöglicht, die Konsequenzen seiner Handlungen vorherzusagen und zu bestimmen, welche Handlungssequenzen zu ergreifen sind, um bestimmte Zielzustände zu erreichen. Rivest und Schapire (1987a, 1987b, Schapire, 1988) haben dieses Problem untersucht und einen symbolischen Algorithmus entworfen, um die Struktur von „Finite State“-Umgebungen strategisch zu untersuchen und abzuleiten. Das Herzstück dieses Algorithmus ist eine clevere Darstellung der Umgebung namens an;-;-;-;https://link.springer.com/article/10.1023/A%3A1022694928327 ed88aff45f97cb16ac4d82d9b5e5e51a;de;;;3.3.;;;Sicherheitsprüftechnik und Schutztechnik in der Computersoftwaretechnik vor dem Hintergrund von Big Data In den letzten Jahren wurde Big Data mit seinem hohen Wert in der Wissenschaft und in Unternehmen stark beunruhigt. Die Verwaltung und Nutzung von Big Data und der Aufbau von Big Data-Diensten sind die wichtigsten Möglichkeiten, den Wert von Big Data zu erschließen. Dieser Beitrag beschäftigt sich hauptsächlich mit der Sicherheitsprüftechnik und der Schutztechnikanalyse der Computersoftwaretechnologie vor dem Hintergrund von Big Data. Dieses Dokument verwendet das IAAs-Framework von Cloudstack zum Aufbau der Cloud-Umgebung und verwendet Apache ode als vertrauenswürdige Kombinationsbewertungs-Engine, um die vertrauenswürdige Kombinationsbewertungsmethode zu implementieren. In diesem Artikel wird die Paketsammelverzögerung verwendet, um die Qualität der Netzwerkkommunikation zu messen. In diesem Artikel wird der White-Box-Test verwendet, um das Codesegment der Eingabekontrollstruktur im zweistufigen Verschleierungscode des Kernteils von CROT zu testen, und der Code vor und nach der Verschleierung wird verglichen und analysiert, um zu überprüfen, ob die Codefunktion konsistent ist . Der Black-Box-Test wird verwendet, um die Verschleierungstransformationsfunktion von CROT zu analysieren, und die Codeausgabe vor und nach der Verschleierung ist konsistent, wenn eine unterschiedliche Anzahl von Klassen für die Verschleierung ausgewählt wird und die Anzahl der Ausgabeklassen unterschiedlich ist. Die Daten zeigen, dass für Web Goat eine Genauigkeit von 69 % in den ersten 40 Elementen erreicht wird. Die Ergebnisse zeigen, dass die Softwaresicherheitstests in diesem Whitepaper die Vorteile einer hohen Testeffizienz haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-74811-1_55 6383b7a74ad36a0db9a1a9fc0133562c;de;;;3.3.;;;Überblick und Gedanken zur Standardisierung der chinesischen Blockchain-Technologie Als aufstrebendes Technologiefeld hat sich Blockchain in den letzten Jahren rasant entwickelt. Die Gesamtentwicklung befindet sich jedoch noch in einem verfrühten Stadium. Aufgrund fehlender Standards sind eine Reihe von Problemen aufgetaucht, die die weitere Entwicklung dieser Branche aufhalten. Daher ist eine Standardisierung der Blockchain-Technologie erforderlich, um diese Probleme zu lösen. Durch die Überprüfung des internationalen und nationalen Status Quo der Blockchain-Standardisierung identifizieren wir die Probleme, die in der aktuellen Situation gelöst werden müssen, und präsentieren dann unseren auf der Systems Engineering Methodology basierenden Ansatz zur Standardisierung der Blockchain-Technologie.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3278-8_15 ad5f11eb5d9db69e54d08e2d93fc10ce;de;;;3.3.;;;Ein halbautomatischer Ansatz zur Identifizierung von architektonischen technischen Schulden aus heterogenen Artefakten Architectural Technical Debt (ATD) ist eine Metapher, die verwendet wird, um Entscheidungen zu beschreiben, die von Softwarearchitekten getroffen werden, um kurzfristige Ziele zu erreichen, die sich jedoch möglicherweise negativ auf den langfristigen Zustand des Systems auswirken. ATD wird jedoch von den Architektenteams nicht ausreichend beachtet, da es schwer zu identifizieren, zu messen und zu priorisieren ist und sein Wert mit der langfristigen Wartung und Entwicklung eines Systems zusammenhängt. In dieser Forschung schlagen wir einen modellgetriebenen Ansatz vor, der sich auf den Aufbau eines binären Klassifikationsmodells für die ATD-Identifizierung konzentriert, basierend auf den Informationen, die aus während des Architekturentwurfs erzeugten Artefakten gesammelt wurden. Dieses Modell wird es Softwarearchitekten ermöglichen, das Management von bewussten und unbewussten ATD in ihren Softwareprojekten zu unterstützen. Dieser Vorschlag konzentriert sich nur auf TD auf Architekturebene, ohne den Quellcode zu berücksichtigen. Die Wirksamkeit dieses Vorschlags wird anhand von Fallstudien und Experteninterviews evaluiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-59155-7_1 9bbb6a545267b1c7df527b63324ce2e8;de;;;3.3.;;;VAMI – Eine neuartige Architektur für ein intelligentes Fahrzeugumgebungssystem Fahrzeugkommunikation beinhaltet viele Entscheidungssituationen. Die bestehenden Modelle für das Paket-Routing in VANET versagen in Fällen, in denen eine schnelle Entscheidungsfindung erforderlich ist. Das Ambient Intelligence (AmI)-System ist eine relativ neue Technik, die darauf abzielt, reale Umgebungen zu erweitern, in denen Benutzer mit durchdringenden virtuellen Diensten versorgt werden. Die Fähigkeit, sehr schnell aus der Umgebung eines Objekts zu lernen und diese Informationen in spezifische Reaktionen umzuwandeln, erfordert ein heterogenes Netzwerk aus Fahrzeugen, Menschen und straßenseitigen Einheiten. Dieses Papier schlägt eine modulare Architektur für die Informationserfassung, Kommunikation, Aktualisierung von Wissensdatenbanken usw. vor, die darauf abzielt, in Notfallsituationen Alarme zu generieren. Die Notfallsituation kann anormales körperliches Verhalten, Straßenblockaden aufgrund von Unfällen oder Umleitungen usw. beinhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27245-5_9 8aefac341d8fba0cc071f0b2ec99824e;de;;;3.3.;;;Hin zu einem Rahmen für die Einführung dynamischer Fähigkeiten der mobilen Informationskommunikationstechnologie für namibische kleine und mittlere Unternehmen Die Fähigkeit eines Unternehmens, mobil zu sein, ist die Fähigkeit, jederzeit und überall Transaktionen zu tätigen. Die Fähigkeit der mobilen Informations- und Kommunikationstechnologien (ICT) zur Transformation von Unternehmen wird den dynamischen Fähigkeiten (DCs) der IKT zugeschrieben. Als Reaktion auf sich ändernde Technologien und als Mittel zur Erzielung von Gewinnen verwenden Unternehmen DC, das ein Katalysator für die Fähigkeit des Unternehmens ist, Ressourcen zu entwerfen und anzupassen. Als solche wirken sich die DCs auch auf die Ressourcenbasis aus, die der Organisation einen Wettbewerbsvorteil verschaffen. In dieser qualitativen namibischen Fallstudie wurden die DCs der mobilen IKT genau analysiert, um die Nutzung der DCs der mobilen IKT durch namibische kleine und mittlere Unternehmen (KMU) zu untersuchen und wie sie die Transformation von KMU und die Strategien für ihre Einführung verbessern kann . Die Analyse dieser Studie wurde mit der Theorie der dynamischen Fähigkeiten durchgeführt. Für diese Studie wurden 40 KMU mittels Convenience Sampling und ein Mitarbeiter pro KMU mittels Purpose Sampling identifiziert. Die Datenerhebung erfolgte hauptsächlich durch Interviews und Fragebögen, anschließend wurden die Daten kodiert. Die Ergebnisse zeigten, dass, obwohl einige KMU in Namibia Technologie einsetzen, immer noch eine beträchtliche Zahl die Vorteile der DCs der mobilen IKT nicht kennt. Der Forscher empfiehlt daher, dass die Leitungsgremien namibischer KMU Richtlinien durchsetzen, die die Einführung mobiler IKT erleichtern und lokale KMU als Kanal für den wirtschaftlichen Fortschritt sponsern, dass Eigentümer von KMU mobile IKT als Mittel einsetzen, um Wettbewerbsvorteile zu erlangen, dass KMU mit vorhandener mobiler IKT Infrastruktur sollte nach Wegen suchen, um verschiedene DCs der mobilen IKT zu übernehmen und so ein besseres Umfeld für eine schnellere Servicebereitstellung zu schaffen, dass KMU die Kultur der IKT-Schulung übernehmen sollten, um es den Mitarbeitern zu ermöglichen, mobile IKT effektiv zu nutzen, dass KMU sich zur Reduzierung der Softwarekosten entscheiden sollten für Open-Source-Anwendungen, und als Mittel, um Sichtbarkeit zu gewinnen und den Kundenstamm zu vergrößern, sollten KMU mobile Technologien nutzen, um ihre Dienstleistungen und Produkte zu vermarkten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-01535-0_21 021f40a7e1ae174295bba89b6c4846b1;de;;;3.3.;;;Design eines IoT-Cloud-Systems zur Container-Virtualisierung auf Smart Objects Containervirtualisierung ist heutzutage eine leichtgewichtige Alternative zum Hypervisor-basierten Ansatz. Jüngste Verbesserungen im Linux-Kernel ermöglichen die Ausführung von Containern auf intelligenten Objekten, dh Einplatinencomputern, auf denen Linux-basierte Betriebssysteme ausgeführt werden. Bei der Betrachtung mehrerer IoT-Anwendungsszenarien ist es entscheidend, sich auf Cloud-Dienste zu verlassen, die Software bereitstellen und anpassen können, die auf intelligenten Zielobjekten ausgeführt wird. Um dieses Ziel zu erreichen, konzentrieren wir uns in diesem Papier auf eine Message Oriented Middleware for Cloud (MON4C), ein System, das entwickelt wurde, um Cloud-Einrichtungen mithilfe eines flexiblen föderationsfähigen Kommunikationssystems zusammenzustellen. Ziel ist die Bereitstellung von Internet of Things (IoT)-Diensten in einer komplexen intelligenten Umgebung wie einer Smart City, in der intelligente Objekte miteinander und mit der Cloud-Infrastruktur interagieren. Genauer gesagt diskutieren wir, wie MOM4C erweitert werden kann, um die Container-Virtualisierung auf Linux-Embedded-Geräten zu unterstützen, um IoT-Anwendungen einfach und flexibel bereitzustellen, und wir präsentieren das Design zugehöriger Softwaremodule.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-33313-7_3 05bc0dff2357fc3f8b19d204920aaf15;de;;;3.3.;;;Neuronale Netze – Stand der Technik, kurze Geschichte, Grundmodelle und Architektur Die Geschichte neuronaler Netze lässt sich auf die Arbeit zurückverfolgen, das Neuron zu modellieren. Heutzutage finden überall Diskussionen über neuronale Netze statt. Neuronale Netze mit ihrer bemerkenswerten Fähigkeit, aus komplizierten oder ungenauen Daten Bedeutungen abzuleiten, können verwendet werden, um Muster zu extrahieren und Trends zu erkennen, die zu komplex sind, um von Menschen oder anderen Computertechniken wahrgenommen zu werden. Es wird eine kurze Geschichte der Erforschung neuronaler Netze vorgestellt und einige populärere Modelle kurz diskutiert. Das Hauptaugenmerk liegt auf den Feed-Forward-Netzwerken und speziell auf der Topologie eines solchen Netzwerks und dem Verfahren zum Aufbauen der mehrschichtigen Perzeptronen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-45378-1_1 2267002c2b378b4d28aa4c41b60582ec;de;;;3.3.;;;Corvette: Ein kooperatives Experiment zur Entwicklung von Arbeitsabläufen Workflow-Systeme werden heute in zahlreichen Verwaltungs- und Produktionsanwendungen erfolgreich eingesetzt. Nach diesem Erfolg wurde viel geforscht, um die Workflow-Technologie für ein größeres Anwendungsspektrum zu unterstützen. Dieses Papier berichtet über das CORVETTE-Projekt, eine Erfahrung bei der Entwicklung eines kooperativen Workflow-Systems durch die Integration eines von Hitachi Ltd. entwickelten kommerziellen Workflow-Systems mit einer von INRIA entwickelten Kooperationstechnologie. Mit kooperativem Workflow-System meinen wir ein Workflow-System, das in der Lage ist, kooperatives Verhalten zu verwalten, das für kreative Anwendungen charakteristisch ist, typischerweise Co-Design- und Co-Engineering-Prozesse, bei denen die Interaktionen zwischen Aktivitäten subtiler sind als bei herkömmlichen Anwendungen. Genauer gesagt sollte Corvette Koordinationsprozesse eines virtuellen Teams unterstützen, das über das Internet arbeitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35585-6_19 ebc92605c5c65d8ef6c296be175ef3d4;de;;;3.3.;;;Webbasiertes Software-Zuverlässigkeitsanalyse- und Messsystem Um die Zuverlässigkeit und Sicherheit von Software genauer analysieren und beurteilen zu können, stellt dieser Beitrag ein webbasiertes Software-Zuverlässigkeits-Analysesystem (WSRAS) vor. Dieses System beginnt mit dem Datenformat der Datei und der dynamischen Verwaltung der Software durch Betriebssysteme, erforscht die Softwarezuverlässigkeit anhand der strukturellen Integrität der Software und verwendet innovative Ideen in der komplexen Netzwerktheorie, um Software-Kartenfunktionen zu erstellen. Schließlich werden einige Schlüsseltechniken im Detail vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23226-8_86 3b1e7ea9e9a57f1758d598e31845a1fb;de;;;3.3.;;;Überprüfung der SLAM-Algorithmen für mobile Indoor-Roboter mit LIDAR und RGB-D-Kameratechnologie Simultane Lokalisierung und Kartierung sind Techniken zur Kartierung homogener Umgebungen durch zentimetergenaue Lokalisierung der Position der Sensoren in einer Umgebung. In diesem Artikel werden die verschiedenen Techniken beschrieben, die bei der Kartierung und Lokalisierung von mobilen Robotern und beim Design einer kostengünstigen mobilen Plattform mit Sensoren wie RPLIDAR und Microsoft Kinect verwendet werden. In diesem Papier wurden auch die Verwendung des Roboterbetriebssystems und verschiedene Pakete und Themen erörtert, die für die Implementierung von SLAM verwendet werden. Neben der Softwareimplementierung von ROS behandelt dieses Dokument auch den Vergleich verschiedener Hardwareplatinen wie NVIDIA Jetson Nano und NVIDIA TK1 GPUs für die Ausführung schwerer und komplexer CUDA-Algorithmen. Untere Slave-Boards wie Arduino Mega und STM32 werden ebenfalls in diesem Whitepaper behandelt. Dieser Artikel konzentriert sich auch auf die Verwendung verschiedener Lokalisierungstechniken wie AMCL, ORB-SLAM, Hector SLAM, Gmapping, RTAB-MAP und Partikelfilter SLAM. Das Roboterbetriebssystem spielte die entscheidende Rolle bei der komplexen Verarbeitung und Kommunikation zwischen verschiedenen laufenden Knoten. Die autonome Navigation wird mithilfe des ROS-Navigationsstapels erreicht, und Simulationen dafür werden in Echtzeitumgebungen von Rviz und Pavillons durchgeführt. 2D-Punktwolken-basierte Algorithmen mit Laserscanner werden mit den 3D-Visualisierungstechniken verglichen. Am Ende übersichtlicher Vergleich zwischen allen Benchmark-Algorithmen wie Hector SLAM, Gmapping, RTAB-MAP, ORB-SLAM und;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4692-1_30 1adb153b6c17655c33f8aa7c8fad8193;de;;;3.3.;;;Anwendung eines O-MaSE-konformen Prozesses zur Entwicklung eines holonischen Multiagenten-Systems zur Bewertung intelligenter Stromverteilungssysteme Dieses Papier beschreibt die Anwendung eines organisationsbasierten Multiagent System Engineering (O-MaSE)-konformen Prozesses zur Entwicklung eines holonischen Multiagentensystems (MAS) zum Testen von Steuerungsalgorithmen für ein intelligentes Stromverteilungssystem. Das Papier beschreibt den Adaptive O-MaSE (AO-MaSE) Prozess, der Architekten und Entwicklern einen strukturierten Ansatz zum Testen und iterativen Hinzufügen von Funktionalität in komplexen, adaptiven Systemen bietet. Das Papier beschreibt die holonische MAS-Architektur für das intelligente Stromverteilungssystem, die Herausforderungen bei der Entwicklung der holonischen Architektur, die während des Projekts gewonnenen Erkenntnisse und zeigt, wie die Anwendung des Prozesses die Projektentwicklung verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45343-4_5 7203a46cb84b424b16923fbeb4956c30;de;;;3.3.;;;Verständnis der Kluft zwischen Softwareprozesspraktiken und der tatsächlichen Praxis in sehr kleinen Unternehmen Dieser Beitrag berichtet über eine fundierte Theorie zur Untersuchung des Einsatzes von Softwareentwicklungsprozessen durch Softwareentwickler in der Praxis im spezifischen Kontext von sehr kleinen Unternehmen. Diese Studie wurde in drei sehr kleinen Softwareproduktfirmen in Ecuador durchgeführt. Die Datenerhebung basierte auf halbstrukturierten qualitativen Interviews mit Softwareprojektleitern, Fokusgruppen mit Softwareentwicklern und wurde durch Literatur- und Dokumentenstudien ergänzt. Wir haben zwei Arten von Teilnehmern (Manager und Entwickler) befragt, um sicherzustellen, dass wir eine ganzheitliche Perspektive auf ihre Herangehensweise an den Softwareentwicklungsprozess in der Praxis erhalten. Ziel war es, zu untersuchen, welche Praktiken tatsächlich verwendet werden, und ihre Meinung und Einstellung zur möglichen Übernahme eines internationalen Standards (ISO/IEC 29110), der speziell für sehr kleine Unternehmen entwickelt wurde. Mit den gesammelten Daten haben wir eine Analyse unter Verwendung von Grounded-Theory-Coding-Techniken durchgeführt, da diese Methodik den Fokus auf das Aufdecken der wahren Anliegen der Teilnehmer fördert. In dieser Studie wurden drei Problembereiche hervorgehoben: Koordination und Verfolgung von Kunden-, Softwareprodukt- und Entwicklungsaufgaben. Die Ergebnisse dieser Studie geben einen Einblick in die Arbeitsergebnisse in Bezug auf die Softwareentwicklungsprozesspraktiken in sehr kleinen Unternehmen und die wichtigen Faktoren, die für den Projekterfolg berücksichtigt werden müssen.;-;-;-;https://link.springer.com/article/10.1007/s11219-015-9282-6 35ed6733957dbf80296b70372b8948c8;de;;;3.3.;;;Optimierung und Parallelisierung von CAE-Software-Stress-Strain-Solver für heterogene Computerhardware Dabei wird die effiziente Codeentwicklung für die Mehrkörpersimulation betrachtet. Der Solver wurde für die dynamische Spannungs-Dehnungs-Simulation von Körpern in komplexen Mechanismen entwickelt. Die mathematische Formulierung für einen Spannungs-Dehnungs-Solver basierend auf der Methode der diskreten Elemente wird vorgestellt. Hauptaspekte des Rechenalgorithmus werden berücksichtigt, um Möglichkeiten zur Leistungssteigerung aufzuzeigen. Der Rechenalgorithmus hat Einschränkungen hinsichtlich Skalierbarkeit und maximaler Geschwindigkeit in einer parallelen Implementierung. Die weitere Optimierung erfolgt mit verschiedenen Vektorbefehlssätzen wie SSE, AVX, AVX2, FMA, IMCI für Intel Xeon Phi-Coprozessoren (KNC) und AVX512 für 2;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-65551-2_41 9698467817b9532a7338d851caa71a85;de;;;3.3.;;;Kontextbewusster qualitätsmodellgetriebener Ansatz: Ein neuer Ansatz zur Qualitätskontrolle in Pervasive Computing-Umgebungen Dieses Papier präsentiert eine Erweiterung von MDA namens Context-Aware Quality Model Driven Architecture (CQ-MDA), die für die Qualitätskontrolle in Pervasive Computing-Umgebungen verwendet werden kann. Der vorgeschlagene CQ-MDA-Ansatz, der auf ContextualArchRQMM (Contextual ARCHitecture Quality Requirement MetaModel) basiert und eine Erweiterung des MDA ist, ermöglicht die Berücksichtigung von Qualität und Ressourcenbewusstsein bei der Durchführung des Entwurfsprozesses. Die Hauptidee der vorgestellten Erweiterung besteht aus drei Abstraktionsebenen: PIM (Platform Independent Model), CPIM (Contextual Platform Independent Model) und CPSM (Contextual Platform Specific Model). Auf der PIM-Ebene wird ein Modell in zwei miteinander verbundene Modelle zerlegt: Softwarearchitekturartefakte, die funktionale Anforderungen und ein Qualitätsmodell widerspiegeln. Auf CPIM-Ebene wird eine simultane Transformation dieser beiden Modelle mit kontextbezogenen Informationsdetails ausgearbeitet und dann auf CPSM-Ebene zu einer spezifischen Plattform verfeinert. Ein solches Vorgehen stellt sicher, dass die Transformationsentscheidungen auf der Qualitätsbewertung der erstellten Modelle basieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15114-9_39 b8ca3677bb2524bf85fb6361f98e69c6;de;;;3.3.;;;Softwareanforderungen für ein Ultragroßsystem zur Berechnung der mittleren Fehlerkosten in mehreren Dimensionen In früheren Arbeiten haben wir ein quantitatives Modell zur Risikobewertung der Cybersicherheit vorgestellt, das die Sicherheit eines Systems in finanzieller Hinsicht quantifiziert. Unser Modell bewertet die Kosten des Ausfalls einer Informationssystemsicherheit im Hinblick auf Bedrohungsdimensionen. Bei dieser Einschätzung gehen wir davon aus, dass die Bedrohungswelt in mehrere Bedrohungsdimensionen und -perspektiven unterteilt werden kann. In diesem Whitepaper diskutieren wir die Spezifikation und das Design eines automatisierten Tools, das Informationen verwaltet und verwaltet, die sich auf die Schätzung des Sicherheitsrisikos beziehen, das von unserem Risikobewertungsmodell unterstützt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-5907-1_39 699a884c8fac5c3b54d65c604362c4a7;de;;;3.3.;;;Ein Rückblick auf ein sicheres IoT-basiertes Gesundheitssystem Smart Grid, Smart Water Networks, Smart Monitoring System, High Security sind heute Infrastruktursysteme, die verschiedene Teile der Welt mehr verbinden können, als wir je durch das Internet der Dinge (IoT) dachten. Ein drahtloses Sensornetzwerk (WSN) besteht aus mehreren Sensorknoten für bestimmte Anwendungen. WSNs zeichnen sich durch eine einfachere Bereitstellung und eine bessere Anpassungsfähigkeit der Geräte aus. In jüngster Zeit ist die Gestenerkennung mit RFID-Tags eine der wichtigsten Anwendungen von drahtlosen Sensornetzwerken. Der Einsatz von Körpersensoren ist eine der sich am meisten entwickelnden und fortschrittlichsten Technologien im IoT. In dem aus IoT bestehenden Gesundheitssystem wird der Patient mit einer Reihe von mehreren, effizienten und genauen stromsparenden und leichten drahtlosen Sensorknoten überwacht. Um den Fortschritt des IoT in Unternehmen zu veranschaulichen, wird diese Studie die Trendforschung im Bereich des IoT überprüfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8221-9_282 ef4401998d5c9931e4f7b335d2f2aa80;de;;;3.3.;;;Echtzeit-Lüftungssteuerung basierend auf einer Bayes-Schätzung der Belegung Bedarfsgesteuerte Lüftung (DCV) wird üblicherweise implementiert, um variable Außenluftmengen entsprechend einem internen Lüftungsbedarf bereitzustellen. Ziel der vorliegenden Studie ist es, die Anwendbarkeit und Leistungsfähigkeit von belegungsbasierten DCV-Systemen im Vergleich zu zeitbasierten und CO .-Systemen zu untersuchen;-;-;-;https://link.springer.com/article/10.1007/s12273-020-0746-7 f16ca3f7548c7b8b1c81075abeb5b5f2;de;;;3.3.;;;Entwicklung eines Softwaretools zur Unterstützung der rückverfolgbarkeitsbasierten Prüfung von SOFL-Spezifikationen Bei der Entwicklung einer formalen Spezifikation für ein Softwareprojekt unter Verwendung des SOFL-Dreischritt-Modellierungsansatzes ist es wichtig, die Übereinstimmungsbeziehung zwischen allen zwei Ebenenspezifikationen sicherzustellen. Inspektion ist eine wichtige Technik, um die Spezifikationen zu überprüfen. In diesem Papier beschreiben wir eine Inspektionsmethode durch den Aufbau von Rückverfolgbarkeit zur rigorosen Überprüfung der Konformitätsbeziehung. Das Verfahren besteht aus zwei Schritten: (1) Ermittlung der Rückverfolgbarkeit und (2) Überprüfung der Zielvorgaben durch die aufgebaute Rückverfolgbarkeit. Wir bieten auch einige Inspektionsstrategien wie Checklisten basierend auf SOFL-Funktionen, um dem Inspektor zu helfen, Fehler zu finden und die Konsistenz zu wahren. Unser Tool bietet eine komfortable Schnittstelle, um Komponenten in verschiedenen Spezifikationen zu trennen und ihre Beziehungen zu speichern, um die Konsistenz zu wahren. In diesem Papier beschreiben wir das Design und die Implementierung unseres unterstützenden Tools. Eine Fallstudie zur Überprüfung der Spezifikationen eines Reiseplan-Buchungssystems wird gezeigt, um zu zeigen, wie die vorgeschlagene Methode in der Praxis angewendet werden kann;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-17404-4_3 6005331d1ad828cf3b8ee60ab021ff67;de;;;3.3.;;;CBSE in kleinen und mittleren Unternehmen: Erfahrungsbericht Obwohl das CBSE einen großen Erfolg im Software-Engineering hat, nutzen es nur große Unternehmen durch ihre Forschungs- und Entwicklungsabteilung. Kleine und mittlere Unternehmen haben immer noch einige Bedenken, die sie der verschiedenen Vorteile berauben, die CBSE bietet. Dies liegt vor allem an den wirtschaftlichen Zwängen, die große Unternehmen nicht haben. Wie können wir sie von dieser Technologie profitieren lassen? Müssen sie eigene Modelle entwickeln? Sollten sie eine modifizierte Version dieser Technologie erhalten? Was passiert mit dem bereits vorhandenen Code? Wie hoch sind die Kosten einer solchen Migration? Wie geht es weiter? In diesem Beitrag stellen wir ein Experiment zum Einsatz von CBSE im Rahmen einer Partnerschaft zwischen einem kleinen und mittleren Unternehmen und einem akademischen Forschungsteam vor. Wir präsentieren die Ergebnisse und die Art und Weise, wie diese Migration durchgeführt wurde, in der Hoffnung, dass dies eine Antwort auf die oben genannten Fragen ist.;-;-;-;https://link.springer.com/chapter/10.1007/11783565_11 17fb67cd1b46123dec0b683a01be96ab;de;;;3.3.;;;Domain-getriebenes Service-Design Serviceorientierte Architekturen und Microservices haben in den letzten Jahren viel Aufmerksamkeit erfahren, Unternehmen übernehmen diese Konzepte und unterstützenden Technologien, um die Agilität, Skalierbarkeit und Wartbarkeit ihrer Systeme zu erhöhen. Eine Anwendung in mehrere unabhängig einsetzbare Dienste entsprechender Größe zu zerlegen und diese dann zu integrieren ist eine Herausforderung. Domain-driven Design (DDD) ist ein beliebter Ansatz zur Identifizierung von (Micro-)Services durch die Modellierung sogenannter Bounded Contexts und Context Maps. In unserer vorherigen Arbeit haben wir eine domänenspezifische Sprache (DSL) vorgeschlagen, die die DDD-Muster nutzt, um die Dienstmodellierung und -zerlegung zu unterstützen. Die DSL ist in Context Mapper implementiert, einem Tool, mit dem Softwarearchitekten und Systemintegratoren domänengesteuerte Designs erstellen können, die sowohl von Menschen als auch von Maschinen lesbar sind. Allerdings haben wir die Toolarchitektur, die iterative und inkrementelle Verfeinerung solcher Maps und den Übergang von DDD-Muster-basierten Modellen zu (Mikro-)Service-orientierten Architekturen noch nicht behandelt. In diesem Beitrag stellen wir die Architekturkonzepte von Context Mapper und sieben Modellrefactorings vor, die Dekompositionskriterien unterstützen, die wir aus der Literatur und eigenen Branchenerfahrungen destilliert haben. Außerdem führen wir einen neuartigen Ansatz zur Generierung von Serviceverträgen ein, der eine neue, technologieunabhängige Microservice Domain-Specific Language (MDSL) nutzt. Diese Forschungsbeiträge werden in Context Mapper implementiert und mit empirischen Methoden validiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-64846-6_11 aa48ca4a6cfe8095267b19212a2911d6;de;;;3.3.;;;Ein mobiles Hochgeschwindigkeits-Datenzugriffssystem, das Datenbankabfragen in Echtzeit verarbeitet Process Es wurde ein sicheres Hochgeschwindigkeits-Abfrageverarbeitungssystem für den mobilen Kurierdatenzugriff (MCDA) für ein Kurierunternehmen entwickelt. Dieses System verwendet die drahtlosen Netzwerke in Kombination mit drahtgebundenen Netzwerken, um eine Live-Datenbank im Kurierzentrum in Echtzeit durch einen externen Mitarbeiter (den Kurier) zu aktualisieren. Das System ist durch VPN auf Basis von IPsec geschützt. Es gibt bisher kein System, das die in diesem Papier vorgeschlagene Aufgabe für den Kurier übernimmt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85930-7_43 3430307f55f017352c353816a3d30506;de;;;3.3.;;;CyberCut: Eine koordinierte Pipeline aus Design, Prozessplanung und Fertigung CyberCut ist eine koordinierte „Pipeline“ von Software, die verwendet werden kann, um ein Teil selbst zu konstruieren, eine Form für das Teil zu entwerfen und dann eine Aluminiumform aus der Konstruktion zu bearbeiten. WebCAD ist das „Frontend“ von CyberCut und lädt einen Maschinenbauer ein, spezifische Konstruktionswerkzeuge zu verwenden, die stark mit der nachgelagerten Fertigung verbunden sind. Alternativ erlauben wir dem Konstrukteur auch, ein CAD-System seiner Wahl zu verwenden und die in diesem Kapitel beschriebene „Merkmalserkennung“ zur Formanalyse für die nachgelagerte Planung und Bearbeitung zu nutzen. Ein ACIS-Grafikkern erleichtert den Schritt der Merkmalserkennung aus der CAD-Datei. Automatisierte Werkzeugwegplaner und automatisierte Werkzeugauswahlverfahren erzeugen dann computergesteuerten (CNC) Bearbeitungscode. Die von uns entwickelten Algorithmen eliminieren die manuelle CNC-Programmierung und reduzieren so die Formschneidezeit erheblich. Wir beschreiben auch eine optimale Werkzeugsequenzierungsmethode, indem wir den kürzesten Weg in einem gerichteten azyklischen Single-Source-, Single-Sink-Graphen finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84628-752-7_4 d97108c5a8531d0842e29bafdeff35eb;de;;;3.3.;;;QoS-Strategien für drahtlose Multimedia-Sensornetzwerke im Kontext von IoT Wireless Multimedia Sensor Network (WMSN) kann nicht nur skalare Sensordaten, sondern auch mehrdimensionale Sensordaten sammeln. Es gilt als Grundlage des IoT (Internet of Things). Zur Auswertung der Datenerfassung werden viele Quality of Service (QoS)-Indikatoren (z. Dieses Papier stellt verschiedene QoS-Strategien für WMSNs im Kontext von IoT aus der Netzwerkschicht, der Transportschicht und der Cross-Schicht vor. Was QoS-Strategien auf der Netzwerkschicht betrifft, werden viele Routingprotokolle eingeführt und ihre Eigenschaften werden verglichen. In diesem Papier werden auch Überlastungskontrollprotokolle, Fehlerwiederherstellungsprotokolle und prioritätsbasierte Protokolle auf der Transportschicht erörtert. Layerübergreifende QoS-Strategien spielen eine wichtige Rolle für die Systemoptimierung. Drei schichtübergreifende Strategien werden diskutiert. Für die Strategien jeder Schicht werden die Herausforderungen und Chancen verglichen. Schließlich werden die möglichen zukünftigen Richtungen von QoS-Strategien für Forschung und Anwendung diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-16042-5_21 45b9f080d386033bceaa4c160dd73be3;de;;;3.3.;;;Eine optimierte Methode für 3D-Bodyscanning-Anwendungen basierend auf KinectFusion KinectFusion ist eine leistungsstarke Methode zur 3D-Rekonstruktion von Innenszenen. Es verwendet eine Kinect-Kamera und verfolgt die Kamerabewegung in Echtzeit, indem es die ICP-Methode auf aufeinanderfolgende aufgenommene Tiefenbilder anwendet. Dann fügt es Tiefenrahmen entsprechend ihrer Position zu einem 3D-Modell zusammen. Leider reicht die Modellgenauigkeit für Körperscanneranwendungen nicht aus, da das Tiefenrauschen des Sensors die Kamerabewegungsverfolgung beeinflusst und das rekonstruierte Modell verformt. In diesem Artikel stellen wir eine Modifikation der KinectFusion-Methode für spezielle 3D-Körperscananwendungen vor. Unsere Idee basiert auf der Tatsache, dass die meisten Körperscanner so konstruiert sind, dass die Kamerabahn ein fester Kreis im 3D-Raum ist. Daher kann jede Kameraposition als Drehwinkel um eine feste Achse (Drehachse) bestimmt werden, die durch einen festen Punkt (Drehzentrum) verläuft. Da die Rotationsachse und das Rotationszentrum immer fest sind, können sie offline geschätzt werden, während das Tiefenrauschen durch Mittelung vieler Tiefenframes herausgefiltert wird. Durch die Ausstattung des Scannermotors mit einem Winkelsensor kann auch der Drehwinkel präzise gemessen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29196-9_6 66336f14df876e89beb33bfa362b48db;de;;;3.3.;;;Ein neuer Formalismus zur mathematischen Beschreibung und Verifikation komponentenbasierter Systeme In diesem Papier stellen wir einen formalen Ansatz zum Zusammensetzen von Softwarekomponenten in einem verteilten System vor. Wir beschreiben das System als eine hierarchische Zusammensetzung einiger Komponenten, die auf unterschiedlichsten Hardwareplattformen verteilt und parallel ausgeführt werden können. Wir stellen jede Komponente durch ein mathematisches Modell dar und spezifizieren die abstrakten Kommunikationsprotokolle der Komponenten mit;-;-;-;https://link.springer.com/article/10.1007/s11227-008-0240-y d8b1c15f361cfade07bc8f473d615771;de;;;3.3.;;;Modell- und Fallstudien des Laufzeit-UI-Anpassungsprozesses in Client-Server-Systemen Die zunehmende Vielfalt der Endgeräte, mit denen Nutzer auf ihre Anwendungen und Systeme zugreifen, verstärkt den Bedarf an geräteunabhängigen Methoden zur Umsetzung dieser Anwendungen. Die geräteunabhängige Architektur (DIA) ist einer der verfügbaren Ansätze für dieses Problem, aber sie befasst sich nicht direkt mit dem Problem der Geräteunabhängigkeit der Benutzeroberfläche (UI). Dieses Problem kann durch eine Laufzeit-UI-Anpassung angegangen werden, aber es ist nicht klar, ob die DIA-Architektur neue UI-Anpassungsverfahren erfordert oder vorhandene verwenden kann. Durch theoretische modellbasierte Analyse der UI-Anpassung in verschiedenen Client-Server-Systemen und durch Fallstudien praktischer UI-Anpassungslösungen kamen wir zu dem Schluss, dass die DIA-basierten Systeme bestehende Laufzeit-UI-Anpassungsmethoden verwenden können. Sie müssen jedoch mit einem anderen Satz von Optimierungskriterien verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-44354-6_3 7567124dae6972759aacf7e763023bad;de;;;3.3.;;;Sicherheitsstrategie für mobiles Polizeiinformationssystem mit SMS Mit dem Aufbau der gut ausgebauten zivilen drahtlosen Netzinfrastruktur und der zunehmenden Verbreitung mobiler Geräte wurden viele mobile Polizeiinformationssysteme eingerichtet, um der Polizei überall und jederzeit Informationen zur Verfügung zu stellen. Der (SMS) Short Message Service ist ein weit verbreitetes Kommunikationsmittel in diesen Anwendungen. Die mangelnde Sicherheit von SMS macht es jedoch für die Übertragung dieser vertraulichen Daten ungeeignet. In diesem Papier diskutieren wir zunächst die Sicherheitsanforderungen des mobilen Polizeiinformationssystems und schlagen dann eine Sicherheitsstrategie für das mobile Polizeiinformationssystem vor, um Informationen vertraulich über das öffentliche Mobilfunknetz mit SMS als Träger zu übertragen, und beschreiben das Authentifizierungs- und Kommunikationsprotokoll im Detail. Schließlich wird ein Leistungsvergleich des im sicheren Modus arbeitenden mobilen Polizeiinformationssystems mit dem im normalen Modus durchgeführt.;-;-;-;https://link.springer.com/article/10.1007/s11277-008-9647-2 374c4e84c7965f0f84fb01237af119fd;de;;;3.3.;;;Architekturdesign eines skalierbaren Encoders mit Feinkornqualität mit CABAC für skalierbare H.264/AVC-Erweiterung Neben der Codierungseffizienz bietet die skalierbare Erweiterung von H.264/AVC gute Funktionalität für die Videoanpassung in heterogenen Umgebungen. Feinkörnige Skalierbarkeit (FGS) ist eine Technik zum Extrahieren von Video-Bitstreams mit der feinsten Qualitätsstufe unter der gegebenen Bandbreite. In diesem Papier wird eine Architektur eines FGS-Codierers mit geringer externer Speicherbandbreite und geringen Hardwarekosten vorgeschlagen. Bis zu 99% der Bandbreitenreduzierung können durch den vorgeschlagenen Scan-Bucket-Algorithmus, die frühe Kontextmodellierung mit Kontextreduzierung und die Vorcodierung des ersten Scans erreicht werden. Die flächeneffiziente Hardwarearchitektur wird durch schichtweise Wiederverwendung der Hardware implementiert. Außerdem werden drei Entwurfsstrategien für Kodierer der Anreicherungsschicht untersucht, so dass der Kompromiss zwischen externer Speicherbandbreite und Siliziumfläche erlaubt ist. Die vorgeschlagene Hardwarearchitektur kann HDTV 1920 × 1080 Video mit zwei FGS-Verbesserungsschichten bei einer Arbeitsfrequenz von 200 MHz oder HDTV 1280 × 720-Video mit drei FGS-Verbesserungsschichten bei einer Arbeitsfrequenz von 130 MHz in Echtzeit codieren.;-;-;-;https://link.springer.com/article/10.1007/s11265-009-0378-8 1dc1d77f8eac939edb7b1d4367b4e3b8;de;;;3.3.;;;Ein verbesserter Angriff auf taktgesteuerte Schieberegister basierend auf der Hardwareimplementierung Wir kryptanalysieren eine Art Stromgenerator mit drei linear rückgekoppelten Schieberegistern, die gegenseitig Stop/Go getaktet sind und die Eigenschaft von Folgen der Zustandsraumkonvergenz haben. Durch das Erraten der taktgesteuerten Sequenz und die Verwendung einer Backtracking-Suche schlagen wir einen Algorithmusangriff auf die Art des Streamgenerators basierend auf der Hardwareimplementierung vor. Insbesondere beträgt die Zeitkomplexität des Algorithmus, der den Verschlüsselungsalgorithmus A5/1 angreift, 2;-;-;-;https://link.springer.com/article/10.1007/s11432-012-4682-8 d33fb4c4f1fc53a8f39d427e1ded4a59;de;;;3.3.;;;Unsicherheitsmanagement in Gefechtsplanungssoftware Viele Arten von Unsicherheit können in Computersimulationsmodulen auftreten, die Befehl und Kontrolle für die Gefechtsplanung modellieren Dieses Kapitel behandelt die Frage der computersimulierten Planung für Gefechtsplanungsexperimente. Computersimulationen von Abrieb, Bewegung und Logistik sind nicht enthalten. Techniken für computersimulierte Kampfplanung werden besprochen. Die Auswirkungen der Lösung widersprüchlicher Planungsmethoden und deren Auswirkungen auf die Programmgestaltung werden diskutiert. Es ist die These des Autors, dass der Modelllogik aktueller Kampfsimulationsmodelle die Fähigkeit fehlt, über ihren aktuellen Zustand (d. h. Look-Aheads) hinaus zu denken. Dies bietet zukünftigen Kampfsimulationsmodellen eine enorme Chance für eine „intelligente“ Befehls- und Kontrolllogik (C2), die das Wissen des Kommandanten und nicht die „Geometrie“ des Schlachtfelds widerspiegelt. Da perfekte Kenntnisse der Schlachtplanung möglicherweise nicht erreichbar sind, besteht ein effektiver Kompromiss darin, eine weniger extreme Position anzupassen, in der Voraussicht in die Modelle eingeführt wird. Diese Vorstellungen erfordern eine grundlegende Umstrukturierung von Kampfsimulationen, die vollständig von physischen Einheiten gesteuert werden, um die verschiedenen Arten von Fragen, die in der C2-Planung auftreten, wirtschaftlich zu adressieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-3040-3_12 e5ef6f8cf2069a5c2294b3441716805b;de;;;3.3.;;;Energy Harvesting in Nanonetzwerken Das Ziel dieses Kapitels ist es, den Prozess, die Probleme und Herausforderungen des Energy Harvesting in Nanonetzwerken, bestehend aus Nanoknoten mit einer Größe von Nano- bis Mikrometern, zu untersuchen. Ein Nanoknoten bestehend aus Nano-Speicher, einem Nano-Prozessor, Nano-Harvester, Ultra-Nano-Kondensator und einem Nano-Transceiver erntet die Energie, die für seine Operationen wie Verarbeitung und Kommunikation benötigt wird. Der Energy Harvesting-Prozess in Nanonetzwerken unterscheidet sich von herkömmlichen Netzwerken (z. B. drahtlose Sensornetzwerke, RFID) aufgrund ihrer einzigartigen Eigenschaften wie Nanoskala, Kommunikationsmodell und molekularer Betriebsumgebung. Nach der Überprüfung des Energy-Harvesting-Prozesses und der Energiequellen stellen wir das Kommunikationsmodell vor, das die Hauptquelle des Energieverbrauchs für Nanoknoten ist. Daran schließt sich eine Diskussion über die Modelle für gemeinsame Energiegewinnungs- und Verbrauchsprozesse an. Schließlich beschreiben wir Ansätze zur Optimierung des Energieverbrauchsprozesses, der ein optimales Datenpaketdesign, optimale Energienutzung, Energieverbrauchsplanung und Energy-Harvesting-bewusste Protokolle umfasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-50688-3_14 a7e0ddaddbf3ba2196fcdeb5d9168dbb;de;;;3.3.;;;Java lernen mit Sun SPOTs Small Programmable Object Technology-Geräte von Sun Microsystems (Sun SPOTs) sind kleine drahtlose Geräte, die Java-Programme ausführen können. In dem in diesem Beitrag beschriebenen laufenden Forschungsprojekt wurden Sun SPOTs in Verbindung mit modellgetriebenen Softwareentwicklungstechniken verwendet, um ein Werkzeug zu entwickeln, mit dem neue Softwareentwickler in die objektorientierte Programmierung im Allgemeinen und Java im Besonderen eingeführt werden können introduce auf eine neue und interessante Art und Weise.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-3660-5_42 6d71877d45a78c6be39306e442b22747;de;;;3.3.;;;MPEG-2 AAC 5.1-Kanal-Decoder-Software für einen energiesparenden integrierten RISC-Mikroprozessor Hier wird eine MPEG-2 AAC-Decodersoftware mit niedrigem Komplexitätsprofil für einen eingebetteten RISC-Mikroprozessor mit niedrigem Stromverbrauch, NEC V830 (300 mW @133 MHz), vorgestellt. Schnelle Verarbeitungsmethoden für IMDCT reduzieren die Ausführungszeit um 41 % und helfen, ein 5.1-Kanal-Audiosignal in Echtzeit zu decodieren, während nur 64,7% der Prozessorkapazität genutzt werden.;-;-;-;https://link.springer.com/article/10.1023/A%3A1012239731371 a7cac9e32db8a45264ed5af6dc2151ed;de;;;3.3.;;;Parallelisierung des genetischen Algorithmus beim Training der neuronalen Netzarchitektur mit automatischer Generierung Dieser Artikel beschreibt den genetischen Algorithmus des neuronalen Netztrainings mit automatischer Architekturgenerierung, die vorgeschlagene Methodenparallelisierung des Trainings und die Modifikation dieser Methode. Und enthält eine vergleichende Analyse des ursprünglichen Algorithmus ohne die Verwendung von Parallelisierung mit dem vorgeschlagenen Parallelisierungsalgorithmus durch Aufteilung in Gruppen und Austausch von Individuen zwischen Gruppen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13671-4_6 c1197c2319693b76d337ca1d8317d2d1;de;;;3.3.;;;Rekonfigurierbare Vlsi-Architektur für die Farbzuordnung von Graphen mit ihrer chromatischen Zahl Das Graph-Coloring-Problem ist ein Optimierungsproblem, das in verschiedenen Bereichen Anwendung findet, wie zB Registerzuweisung, Frequenzzuweisung in der Mobilkommunikation usw. Zur Lösung dieses Problems wurden verschiedene Algorithmen [3] implementiert. Der gierige Algorithmus ist einer von ihnen. Die bestehenden Architekturen für gierige Algorithmen verwenden parallele Prozessoren. In diesem Beitrag wird eine neuartige VLSI-Architektur für die Farbzuordnung von Graphen mit chromatischer Zahl vorgeschlagen, die auf rekonfigurierbarer Hardware – FPGA – basiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19542-6_103 d877fe0f7447fa77366d354e1084d862;de;;;3.3.;;;Architekturen und technische Schlüsselherausforderungen für raum-terrestrische heterogene Netzwerke Mit der Fähigkeit, die Begrenzung geographischer Bedingungen zu durchbrechen, spielen heterogene Weltraum-Terrestrische Netzwerke eine bedeutende Rolle für die globale Abdeckungskapazität, die jedoch neue Herausforderungen an das Design der Netzwerkarchitektur stellen. In diesem Papier schlagen wir zunächst neuartige Architekturen für die betrachteten raum-terrestrischen heterogenen Netzwerke vor. Auf dieser Grundlage werden einige technische Schlüsselfragen der entwickelten Architekturen umfassend diskutiert, darunter Protokolldesign, Integriertes Routing usw.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9409-6_240 444a035cf8eee3dca5495141079ffca9;de;;;3.3.;;;Serviceorientiertes Requirements Engineering – eine neue Dimension Dieses Papier schlägt einen neuen Ansatz für das serviceorientierte Requirements Engineering (SORE) vor. Es unterscheidet auch traditionelles Requirements Engineering und Service Oriented Requirements Engineering (SORE). SORE unterscheidet sich in verschiedenen Aspekten vom traditionellen RE-Prozess. Die Arbeit durchläuft einen vierstufigen Ansatz für serviceorientiertes Requirements Engineering. Im nächsten Schritt soll die Methode anhand einer Fallstudie simuliert und in der Industrie erprobt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25734-6_121 1a57653c65f7f352b4b0887bf4d0a53c;de;;;3.3.;;;Die Sarnoff-Engine: Ein massiv paralleler Computer für die hochauflösende Systemsimulation Dieses Papier beschreibt die Sarnoff Engine, einen 1,6 TeraFLOP, Echtzeit-, High-Definition-, Video- und Bildverarbeitungscomputer. Es handelt sich um eine skalierbare, lineare, Mehrbenutzer-MIMD-Architektur der zweiten Generation, die sich auf die Anwendungen der hochauflösenden Echtzeit-Video- und Bildverarbeitung (Datenkompressions-Encoder und -Decoder), 3D/4D-Datenvisualisierung und neuronale Netzwerkentwicklung konzentriert.;-;-;-;https://link.springer.com/article/10.1007/BF02109384 d64621d2323615f9e961859b31c64b0a;de;;;3.3.;;;Architektur und Planungsmethode eines Cloud-Videoüberwachungssystems basierend auf IoT Um bequem bereitgestellte Videoüberwachungsanwendungen zu realisieren, entwirft dieser Artikel ein Cloud-Service-System, das allgegenwärtig verfügbare IoT-Knoten verwendet. Angesichts der begrenzten Kapazität jedes IoT-Knotens beschreibt dieses Dokument zunächst die Systemarchitektur und das Betriebsverfahren für Anwendungsanforderungen und stellt das Design der Scheduler-Funktion und typische Videoverarbeitungsalgorithmen vor. Um Übertragungskonflikte zwischen Video-/Bildprozessorknoten zu verringern, schlägt dieses Papier außerdem ein Scheduling-Verfahren basierend auf einem genetischen Algorithmus vor, um die kooperativen IoT-Knoten rational zu nutzen. Simulationsergebnisse zeigen, dass dieses Verfahren im Vergleich zu üblichen Verfahren wie Random Scheduling und Opportunity Balanced Scheduling eine viel geringere Verarbeitungsverzögerung und Übertragungsverzögerung zusammen mit einem höheren Paketzustellungsverhältnis ergibt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27161-3_50 45403124723c88a36c4b9c402c262f94;de;;;3.3.;;;Zero–Latency Data Warehouse System basierend auf Parallel Processing und Cache Module Zero-Latency Data Warehouse (ZLDW) kann nicht auf der Grundlage eines Standard-ETL-Prozesses entwickelt und aufgebaut werden, bei dem Zeitrahmen den Zugriff auf aktuelle Daten einschränken und die Möglichkeit blockieren, Benutzerbedürfnisse zu berücksichtigen. Aus diesem Grund wurde nach eingehender Analyse dieses Themas und des Themas Workload Balancing ein innovatives System auf Basis einer Workload Balancing Unit (WBU) geschaffen. In diesem Papier stellen wir einen innovativen Workload-Balancing-Algorithmus vor – CTBE (Choose Transaction By Election), der es ermöglicht, alle eingehenden Transaktionen zu analysieren und ein Schema der Abhängigkeiten zwischen ihnen zu erstellen. Außerdem gewährleistet der Cache in der erstellten WBU die Möglichkeit, Informationen zu eingehenden Transaktionen zu speichern und Nachrichten mit Systemen auszutauschen, die Updates und Benutzeranfragen übertragen. Mit dieser Arbeit beabsichtigen wir, ein innovatives System zur Unterstützung von Zero-Latency Data Warehouse vorzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10840-7_56 a12a00e5a559efda8db390c2abbd447f;de;;;3.3.;;;Optimierungstechniken und Leistungsbewertung einer Multithreaded-Multicore-Architektur mit OpenMP Optimierungstechniken sind die entscheidenden Schritte bei der Parallelisierung der Programme für Multi-Core-Architekturen. Diese Multi-Core-Architekturen sind aufgrund verbesserter Leistung, Leistungsbedenken, Wärmeableitung und effizienterer gleichzeitiger Verarbeitung von Multi-Tasks beliebter geworden. Es gibt eine große Vielfalt von Optimierungstechniken, aber es gibt keine Historie, die über die Reihenfolge informiert, in der diese Techniken für ein Programm angewendet werden müssen, um eine maximale Leistung zu erzielen. Dieses Papier konzentriert sich hauptsächlich auf die Analyse verschiedener Programmoptimierungstechniken für Multi-Core-Architekturen. Schließlich zeigt dieses Papier, wie der sequentielle Code mit der OpenMP-Programmierumgebung parallelisiert werden kann und erläutert die interessanten Ergebnisse mit dem V-Tune-Analyzer.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22709-7_19 cebf6de6e0570b798fd0bf621c81bff7;de;;;3.3.;;;Ein serverseitiges Beschleuniger-Framework für Multi-Core-CPUs und Intel Xeon Phi-Coprozessorsysteme Verarbeitungsintensive Webserver-Anfragen können zu einer geringen Dienstgüte (QoS) führen, wie z. B. längere mittlere Antwortzeiten und geringerer Durchsatz, was ein neues Webserver-Software-Framework erfordert, das die Leistung von Webservern verbessern kann. Die Charakteristik der Parallelität auf Anforderungsebene in Webservern ist für Beschleuniger der Architektur mit vielen Kernen geeignet, wie GPU- und Intel Xeon Phi-Coprozessoren, aber das herkömmliche Webservermodell kann die Leistung dieser Beschleuniger nicht vollständig nutzen. Wir haben ein neues Webserver-Software-Framework namens MIC-based Server-side Accelerator Framework (MSAF) für eine Maschine mit nicht nur Multi-Core-CPUs, sondern auch Intel Xeon Phi-Coprozessoren basierend auf Staged Event Driven Architecture (SEDA) vorgeschlagen. Das Framework kann die Leistung von Intel Xeon Phi-Coprozessoren und Multi-Core-CPUs voll ausschöpfen und die Leistungs- und Energieeffizienz verbessern, indem die Phase der Verarbeitung von Anforderungen an Intel Xeon Phi-Coprozessoren ausgelagert wird. Die Webserver-Simulationssoftware auf Basis des MSAF-Frameworks haben wir auf einer Maschine mit Multicore-CPUs und Intel Xeon Phi-Coprozessoren implementiert und mittels Apache Benchmark (AB) evaluiert. Unsere Bewertung von MSAF zeigt, dass seine Leistung etwa der eines Webserver-Clusters mit vier bis fünf Rechenknoten entspricht. Dieses Dokument weist darauf hin, dass Intel Xeon Phi-Coprozessoren bei Anwendung von MSAF für serverseitige Software wie Webserver, DNS-Server und Datenbankserver geeignet sind, da sie eine geringere Kommunikationslatenz zwischen Intel Xeon Phi-Coprozessoren aufweisen und Host, leistungsfähigere Logikverarbeitungsfähigkeiten und mehr Energieeffizienz.;-;-;-;https://link.springer.com/article/10.1007/s10586-019-03030-z dbff23d55125713b9d13ac59188ea38e;de;;;3.3.;;;Intelligente agentenbasierte Architektur für die Patientenüberwachung in Biosensornetzwerken Körpersensornetzwerke haben ein breites Anwendungsspektrum im medizinischen Bereich, die Integration von Biosensoren in das drahtlose Kommunikationssystem hat das Potenzial, das Gesundheitswesen auf die nächste Stufe zu heben. Mit der Implementierung des Biosensor-Netzwerksystems in die Gesundheitsüberwachung wird der Aufwand reduziert und der menschliche Körper kann untersucht und krankhafte Erkrankungen früher erkannt werden. In diesem Beitrag wurde eine neue und effektive Methode zur Überwachung von Körpersensornetzwerken mit Echtzeitpositionierung und -verfolgung vorgeschlagen. Die in diesem System verwendeten intelligenten Agenten sorgen für eine kontinuierliche Interaktion zwischen Patient, Arzt und den Krankenhausdiensten. Der Hauptvorteil des vorgeschlagenen Verfahrens ist die Positionierung und Verfolgung des Patienten ohne die Hilfe eines Mobilfunkanbieters. Ein mobiler Agent, der Ortung und Ortung bereitstellt, wird auch verwendet, um im Notfall einen Krankenwagen zum Patienten zu schicken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25734-6_28 dc1adf1f58361899373e8e79adf78a7f;de;;;3.3.;;;Variante der zentralsymmetrischen Zensus-Transformation für Echtzeit-Stereo-Vision-Architektur auf dem Chip Stereovision ist eine der wichtigsten Operationen in vielen Computer-Vision-Anwendungen, und die Stereoanpassung ist ihr wichtigster Schritt. In den letzten Jahren hat sich das Stereo-Matching in Richtung zunehmender Genauigkeit und höherer Rechengeschwindigkeit entwickelt, und der auf Hardware-Architektur basierende Echtzeit-Stereo-Matching-Algorithmus wurde aufgrund seiner Anwendbarkeit in eingebetteten Systemen zunehmend betont. Die am häufigsten verwendete Methode auf FPGA ist die Census Transformation (CT) aufgrund ihrer einfachen Struktur und einfachen Parallelisierung und der hohen Qualität der erzeugten Disparitätskarten, aber CT hat die Nachteile von Fehlanpassungen in einigen Regionen und Abhängigkeit von einem zentralen Pixel. In diesem Beitrag wird ein verbesserter CT-basierter semi-globaler Stereo-Anpassungsalgorithmus mit Pipeline- und Parallelbetrieb basierend auf FPGA vorgeschlagen, um die Anpassungsgenauigkeit in bestimmten Regionen zu erhöhen und gleichzeitig Echtzeitbeschränkungen zu erfüllen. Im Anpassungskostenschritt werden Pixel in zwei Teile geteilt, wobei die beiden Verfahren berechnet werden, um das Bit-Vektor-Merkmal zu erzeugen. Ein halbglobaler Abgleichalgorithmus mit vier Pfaden mit zweimaliger Aggregation wird in der Kostenaggregationsstufe vorgeschlagen. Die Links-Rechts-Prüfung, das Füllen von nicht übereinstimmenden Punkten und der Medianfilter zur Verbesserung der endgültigen Disparitätskarte sind ebenfalls erforderlich. Der neuartige Algorithmus wird auf dem Middleburry-Benchmark evaluiert und auf Xilinx ZYNQ-7000 SoCs implementiert, was zu einem Durchsatz von 640 × 480/60 fps mit 64 Disparitätsstufen bei 100 MHz führt. Im Vergleich zu den verwandten Arbeiten verbessern wir die durchschnittliche Genauigkeit um 1,61%, wodurch unser Ansatz für eingebettete Echtzeitsysteme geeignet ist.;-;-;-;https://link.springer.com/article/10.1007/s11554-021-01087-x c94da32ccda7226ae0e98587bc0f85a8;de;;;3.3.;;;Verteiltes Multi-Agenten-System für flächendeckende Aufgaben: Architektur und Entwicklung Der Artikel soll ein neues Konzept in der mobilen Robotik vorstellen – die Schwarmrobotik. Es gibt einen Überblick über verwandte Forschungen zur Koordination mobiler Roboter in einer Gruppe und stellt aktuelle Forschungsaktivitäten in der Schwarmrobotik am Institut für Informatik SAS vor. Die Architektur und Entwicklung eines verteilten Multi-Agenten-Systems für Gebietsabdeckungsaufgaben werden vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10783-7_26 32470a0eb87a48156db642e245dfde00;de;;;3.3.;;;Eine Literaturübersicht zu den Herausforderungen bei der Service-Identifikation in der serviceorientierten Architektur Service Identification (SI) ist eine wichtige Phase im Lebenszyklus einer serviceorientierten Architektur (SOA). In der Forschungsgemeinschaft wurden viele SI-Herausforderungen geltend gemacht, die Forschungsanstrengungen erfordern. Diese Forschung zielt darauf ab, die behaupteten Herausforderungen von SI in SOA zu untersuchen und zu identifizieren, indem eine Literaturrecherche durchgeführt wird, um einen Einblick in die bestehenden SI-Herausforderungen, wie sie bisher veröffentlicht wurden, zu erhalten. Darüber hinaus zielt diese Forschung darauf ab, die bestehenden behaupteten Ursachen für jede identifizierte Herausforderung zu sammeln. Die Literaturübersicht untersuchte SI-Herausforderungen, die zwischen 2005 und 2016 behauptet wurden. Dieses Papier präsentiert die Ergebnisse der Literaturrecherche bei der Identifizierung von 8 behaupteten SI-Herausforderungen, und zwar von oben: Servicequalitätsattribute, Business-IT-Alignment, systematische SIM (Service Identification Method), umfassende SIM, Werkzeugunterstützung, Validierung, Eingabeartefakte und Konfigurierbarkeit der SIM. Die Ergebnisse dieser Überprüfung zeigten auch, dass die Herausforderung der Servicequalitätsattribute (insbesondere die Servicegranularität) in der Forschungsgemeinschaft mehr Aufmerksamkeit erfordert, da sie als die größte Herausforderung angesehen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-95204-8_18 57c29362bc0103e797f876d22cdd6913;de;;;3.3.;;;Entwicklung Cloud-basierter Anwendungen: Auf dem Weg zu einem Anwendungslebenszyklus Die Einführung von Cloud-Computing durch Unternehmen aller Größen und Typen in den letzten Jahren hat zahlreiche Möglichkeiten und Herausforderungen für die Entwicklung von Software für diese Umgebung geschaffen. In diesem Work-in-Progress-Papier liegt der Fokus auf letzterem Teil und bietet einen Blick auf die wichtigsten Forschungsherausforderungen, die durch Cloud Computing für die Softwareentwicklung entstehen. Diese Herausforderungen ergeben sich aus den inhärenten Merkmalen des Cloud-Computing-Paradigmas und erfordern einen mehrdimensionalen Ansatz, um sie anzugehen. Um dieses Ziel zu erreichen, wird ein Lebenszyklus für Cloud-basierte Anwendungen als Grundlage für die weitere Arbeit in diesem Bereich vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-79090-9_4 fdbfc98ba8413431835a8e7e48d79c2e;de;;;3.3.;;;Der Elbrus-4C-basierte Knoten als Teil eines heterogenen Clusters für Forschungen zur Öl- und Gasverarbeitung Dieses Papier untersucht kurz die Vor- und Nachteile von Elbrus-Architekturen als Bausteine ​​für das Seismische-Processing-Cluster-System. Die Konfiguration eines heterogenen geclusterten Systemaufbaus für die Forschung der Oil and Gas Company wird genauer untersucht. In diesem System werden Verarbeitungsknoten mit unterschiedlicher Architektur (x86, GPU und e2k) durch eine leistungsstarke globale Netzwerktopologie in einem einzigen Rechencluster integriert. Ein heterogener Cluster mit Elbrus-Knoten bietet eine gute Gelegenheit für eine architekturübergreifende Softwaremigration. Um das Potenzial der Nutzung von Elbrus-Knoten zu demonstrieren, wurde die multispektrale Datenanalyseanwendung für die e2k-Architektur optimiert. Das Papier enthält Leistungsergebnisse und Skalierbarkeitsanalysen für implementierte Module, die e2k- und x86-Knoten verwenden. Es wird erwartet, dass der heterogene Cluster mit Elbrus-Knoten ein integraler Bestandteil des Vorbereitungsprozesses des in Entwicklung befindlichen heimischen Supercomputers auf Basis der Elbrus-Prozessoren sein wird. Der grundlegende Software-Stack in der seismischen Verarbeitung wird natürlich durch die Verwendung des Elbrus-Knotens als Teil des heterogenen Clusters entstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-05807-4_57 3c3bb3bbc0bb8d8ba7858f0aa40b8804;de;;;3.3.;;;Ein symmetrischer und einheitlicher Ansatz zur Kombination von aspektorientierter und komponentenbasierter Softwareentwicklung In diesem Papier schlagen wir einen neuartigen Ansatz zur Integration der Ideen der aspektorientierten und komponentenbasierten Softwareentwicklung vor. Unser Ansatz zielt darauf ab, eine symmetrische, einheitliche Komponentenarchitektur zu erreichen, die Aspekte und Komponenten als einheitliche Einheiten behandelt. Dazu wird ein neuartiges Komponentenmodell eingeführt, das keine spezialisierten Aspektkonstrukte zur Modularisierung von Querschnittsbelangen verwendet. Stattdessen wird eine ausdrucksstarke Konfigurationssprache bereitgestellt, die es ermöglicht, sowohl reguläre als auch aspektorientierte Interaktionen zwischen Komponenten zu beschreiben. Dieses Papier stellt die laufende FuseJ-Forschung vor, ein erstes Experiment zur Realisierung dieser symmetrischen und einheitlichen Aspekt-/Komponentenarchitektur.;-;-;-;https://link.springer.com/chapter/10.1007/11783565_8 b0569c0456ef3ba5326e61f5921b54ba;de;;;3.3.;;;Ein Prototyp-Tool für Softwarekomponentendienste in eingebetteten Echtzeitsystemen Die Verwendung von Softwarekomponentenmodellen hat in den letzten zehn Jahren insbesondere bei der Entwicklung von Software für Desktopanwendungen und verteilte Informationssysteme an Popularität gewonnen. Solche Modelle sind jedoch im Bereich eingebetteter Echtzeitsysteme nicht weit verbreitet. Es gibt eine beträchtliche Menge an Forschung zu Komponentenmodellen für eingebettete Echtzeitsysteme oder sogar engere Anwendungsdomänen, die sich auf Quellcodekomponenten und statisch konfigurierte Systeme konzentrieren. Dieses Papier untersucht einen alternativen Ansatz, indem es die Grundlage für ein Komponentenmodell legt, das auf binären Komponenten basiert und auf den breiteren Bereich eingebetteter Echtzeitsysteme abzielt. Die Arbeit ist inspiriert von Komponentenmodellen für die Desktop- und Informationssystemdomänen in dem Sinne, dass ein grundlegendes Komponentenmodell um eine Reihe von Diensten für die Zielanwendungsdomäne erweitert wird. Ein prototypisches Werkzeug zur Unterstützung dieser Dienste wird vorgestellt und dessen Einsatz anhand einer Steuerungsanwendung veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/11783565_16 5b224c3285c299a903a8d9e6c955c0f4;de;;;3.3.;;;Eine Integritätssperrenarchitektur zur Unterstützung verteilter Berechtigungen in Datenbankföderationen In vielen Datenintegrationsanwendungen ist ein lose gekoppelter Datenbankverbund das zugrunde liegende Datenmodell. In diesem Artikel werden zwei zusammenhängende Sicherheitsprobleme untersucht, die für ein solches Modell einzigartig sind, nämlich wie eine feingranulare Zugriffskontrolle von Remotedaten unterstützt und wie die Integrität solcher Daten sichergestellt werden kann, während legitime Updates zugelassen werden. Für die erste Ausgabe passen wir die Integrity Lock Architektur in mehrstufigen Datenbanksystemen an einen Datenbankverbund an. Für die zweite Ausgabe schlagen wir ein dreistufiges Verfahren basierend auf Rastern von Merkel Hash Trees vor. Schließlich wird die Leistung der vorgeschlagenen Architektur und des Schemas durch Experimente bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09699-5_13 3b76ac764f9011bfa4d9d2e63ee87cd9;de;;;3.3.;;;Distributed Modular Audio Recognition Framework (DMARF) und seine Anwendungen über Webdienste In dieser Arbeit präsentieren wir das Softwarearchitekturdesign und die Implementierung eines Distributed Modular Audio Recognition Framework (DMARF) und seiner Anwendungen, wie beispielsweise Speaker Identification, die mithilfe von XML-RPC verteilt über die Web Services-Architektur laufen können. Wir beschreiben einige der während des Designs und der Implementierung aufgetretenen Herausforderungen, die Vor- und Nachteile einer solchen Implementierung und ihre möglichen zukünftigen Richtungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-3662-9_72 c483dfcf4d6186d79e882494c09ad57a;de;;;3.3.;;;Verknüpfung von Designentscheidungen mit Designmodellen in der modellbasierten Softwareentwicklung In der modellbasierten Softwareentwicklung werden zahlreiche Designentscheidungen getroffen, die oft nicht explizit dokumentiert werden. Daher ist das Designwissen „im Kopf des Designers“ und wird, wenn überhaupt, mündlich kommuniziert, und die Begründung für die Entscheidungen geht verloren. Bestehende Werkzeuge gehen dieses Problem für Architekturentscheidungen an, die sich auf die übergeordnete Architektur eines Systems beziehen. Diese Entscheidungen sind jedoch separate Artefakte und nicht mit einzelnen Designmodellelementen verknüpft. Daher findet keine automatische Überprüfung statt, ob die Designmodelle getroffenen Entscheidungen entsprechen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15114-9_19 78fb6c0f7d699f413fd85299a6fa8048;de;;;3.3.;;;Hardware/Software-Co-Design eines sicheren allgegenwärtigen Systems Eine ständig wachsende, allgegenwärtige Umgebung erfordert Sicherheit, Geschwindigkeit und Energiebewusstsein bei der Verarbeitung riesiger Multimedia-Informationen. Eine praktikable Lösung für diese Anforderungen ist die Konstruktion und Umsetzung einer sicherheitsbewussten, leistungsstarken und anspruchsvollen Architektur. Gemäß diesem Schema haben wir ein sicheres allgegenwärtiges System genutzt, das aus einer in Hardware-Kryptographie eingebetteten mobilen Multimedia-Architektur und deren Softwareunterstützung besteht. Die Architektur ist ein dedizierter Single-Chip-Prozessor namens HCgorilla. Da ein einseitiger Hardware-Design-Ansatz für die Entwicklung von HCgorilla nicht immer ausreicht, haben wir ein H/S Co-Design-Schema verfolgt. Die Softwareunterstützung umfasst eine Java-Schnittstelle und parallelisierende Compiler, die auf Servern laufen, um die Last zu reduzieren und die Leistung von HCgorilla-embedded Clients zu erhöhen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74377-4_41 b79c1a0a76ab15eb53908e2a3d5c2aac;de;;;3.3.;;;Benutzermodellierung in einer verteilten E-Learning-Architektur Dieses Papier konzentriert sich auf die Benutzermodellierung und -anpassung in verteilten E-Learning-Systemen. Wir beschreiben hier CUMULATE, einen generischen Studentenmodellierungsserver, der für eine verteilte E-Learning-Architektur, KnowledgeTree, entwickelt wurde. Wir stellen auch einen spezifischen, themenbasierten Wissensmodellierungsansatz vor, der als Inferenz-Agent in CUMULATE implementiert und in QuizGuide verwendet wurde, einem adaptiven System, das Schülern bei der Auswahl der relevantesten Selbstbewertungs-Quiz hilft. Wir diskutieren auch unsere Versuche, diese mehrstufige Schülermodellierung zu evaluieren.;-;-;-;https://link.springer.com/chapter/10.1007/11527886_50 032ddbcb304e404bc1c443bac8602337;de;;;3.3.;;;Auf dem Weg zu Cyber-Physical Infrastructure as-a-Service (CPIaaS) im Zeitalter von Industrie 4.0 Die entscheidende Rolle von Resilienz und Interoperabilität in den heutigen hochdynamischen Cyber-Physical Systems (CPSs), bei denen das (rechtzeitige) menschliche Eingreifen begrenzt ist, erfordert eine ganzheitliche Vision, die die autonome Orchestrierung von Cyber-Physical-Prozessen auf Feldebene ermöglicht. Herkömmliche Automatisierungs- und Steuerungssysteme sind jedoch als statische Silos konzipiert, die in der Regel einmal für einen bestimmten Zweck konfiguriert werden. Daher fehlt diesen Systemen die Flexibilität, sich effizient an sich dynamisch ändernde Systemanforderungen anzupassen, was die Integration heterogener Geräte und Dienste auf Anfrage oder elastische Funktionen wie die Bereitstellung von Rechen- und Speicherressourcen nach Bedarf umfasst. In dieser Arbeit schlagen wir eine Referenzarchitektur zur Implementierung eines Cyber-Physical Infrastructure as-a-Service (CPIaaS) Frameworks vor. Dieses Framework basiert auf dem Konzept der serviceorientierten Virtualisierung und bietet CPS ein Maß an Flexibilität und Interoperabilität, das mit herkömmlichen Ansätzen zum Aufbau hochintegrierter, plattformübergreifender Kommunikationsumgebungen zwischen Domänen nicht erreicht werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-28005-5_24 bff37d7d11a2062e48b78618ba3f3efd;de;;;3.3.;;;Faltungsneurale Netzwerkarchitektur mit exakter Lösung Convolutional Neural Networks (CNNs) wurden aufgrund ihrer komplexen Bildklassifizierungsfähigkeiten gründlich untersucht und in vielen realen Anwendungen eingesetzt. In den meisten dieser Anwendungen ist das Training von CNN unter Verwendung eines iterativen Lernens vom Backpropagation-Typ zu einer Standardpraxis geworden, aber dies macht das Training von CNN aufgrund verschiedener Probleme wie lokaler Minima und Paralyse sehr ineffizient und unsicher. Anderes iteratives und nicht-iteratives Lernen, einschließlich des exakten lösungsbasierten Lernens, könnte in Bezug auf Genauigkeit und Sicherheit im Training effizienter sein, jedoch wurde das Potenzial dieser Art von kombiniertem Lernen von CNN-Forschern nicht vollständig erforscht. Daher wird in diesem Beitrag eine exakte Lösungs-basierte neue Faltungsneuralnetzwerk-Architektur vorgeschlagen. In der vorgeschlagenen Architektur wird ein neuartiges Konzept eingeführt, bei dem die Gewichte von CNN-Schichten unter Verwendung eines iterativen Prozesses für eine feste Anzahl von Epochen aktualisiert werden und dann die Gewichte einer vollständig verbundenen Schicht unter Verwendung eines exakten Lösungsprozesses berechnet werden. Sowohl iterative als auch berechnete Gewichtungen werden dann zum Trainieren der vollständigen Architektur verwendet. Der vorgeschlagene Ansatz wurde anhand von drei Benchmark-Datensätzen wie CIFAR-10, MNIST und Digit evaluiert. Die experimentellen Ergebnisse haben gezeigt, dass der vorgeschlagene Ansatz eine höhere Genauigkeit als das Standard-CNN erreichen kann. Ein statistischer Signifikanztest wurde durchgeführt, um die Wirksamkeit des vorgeschlagenen Ansatzes zu beweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63823-8_63 3812561b6f94b75c6e33f8e1c11f2813;de;;;3.3.;;;Evolution optischer Zugangsnetze Dieses Kapitel gibt einen Überblick über die aktuellen Entwicklungen bei Zugangsnetzarchitekturen und -protokollen, um die aufkommenden Breitbanddienste dynamisch und kostengünstig an die Endnutzer weiterzugeben. Nach einer Zusammenfassung der Standards für Gigabit Ethernet und Passive Optical Network (PON) und Bereitstellungsproblemen in Bezug auf Ethernet (EPON) und Gigabit-fähige PON (GPON)-Infrastrukturen wird eine originelle transparente Netzwerkarchitektur vorgestellt, die die Interoperabilität des Zeitmultiplexverfahrens (TDM ) und Wellenlängen-Multiplex-(WDM)-PONs mittels grober Leitweglenkung. Um eine flexible Konnektivität bei erweiterter Dienstreichweite bereitzustellen, wurden hybride drahtlose und optische Freiraumtechnologien untersucht, um mobile Endbenutzer an PON-Endgeräte mit hoher Bandbreite anzuschließen. Um die unabhängige Bandbreitenverwaltung der konstituierenden Sektoren solcher Architekturen zu demonstrieren, werden die entwickelten Algorithmen zur dynamischen Bandbreitenzuweisung (DBA) zusammengefasst, gefolgt von einer ursprünglichen Steuerebene, um die verschiedenen obligatorischen Zugriffssteuerungs-(MAC)-Protokolle zu koordinieren. Um eine zuverlässige Servicebereitstellung zu gewährleisten, wurden schließlich mehrere Schutzsysteme analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01524-3_5 d3348e34c0cb27ff1346c51fee34d78c;de;;;3.3.;;;Dynamische Cluster verfügbar unter Clusterix Grid Die Geschwindigkeitssteigerung von Computernetzwerken gepaart mit der Allgegenwart von preiswerter, aber dennoch schneller und großzügig ausgestatteter Hardware bietet vielen Organisationen eine kostengünstige Möglichkeit, die verfügbare Rechenleistung zu erhöhen. Cluster, Hypercluster und sogar Grids, die vor nicht allzu langer Zeit nur in riesigen Rechenzentren zu finden waren, helfen heute vielen kleinen Unternehmen bei der Lösung ihrer Rechenanforderungen. Clusterix ist eine wirklich verteilte nationale Computerinfrastruktur mit 12 Standorten (statische Linux-Cluster) in ganz Polen. Die Rechenleistung von Clusterix kann durch den Anschluss zusätzlicher Cluster erhöht werden. Diese Cluster werden als dynamisch bezeichnet, weil davon ausgegangen wird, dass sie über ein automatisiertes Verfahren dynamisch an die Kerninfrastruktur angebunden werden. In dem Beitrag stellen wir die Entwurfsgrundlage des Cumulus Grids, das an der TU Wroclaw eingesetzt wird, zusammen mit der Methode für seine Integration als dynamische Komponente in das Clusterix Grid vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75755-9_99 b6d59c96d31d6e8be0705abcd7e1475e;de;;;3.3.;;;Holen Sie die gesamte Leistung Ihrer Hardware heraus, um Ihre Software zu überprüfen! Die Computerindustrie befindet sich in einem Paradigmenwechsel. Chiphersteller verlagern Entwicklungsressourcen weg von Single-Prozessor-Chips hin zu einer neuen Generation von Multi-Prozessor-Chips, riesige Cluster von Multi-Core-Workstations sind überall leicht zugänglich, externe Speichergeräte wie Festplatten oder Solid State Disks werden immer mehr leistungsstark sowohl in Bezug auf die Kapazität als auch auf die Zugriffsgeschwindigkeit. Dieser grundlegende technologische Wandel in der Core-Computing-Architektur erfordert eine grundlegende Änderung der Art und Weise, wie wir die Qualität von Software sicherstellen. Das Kernproblem besteht darin, dass Verifikationstechniken einen ähnlich tiefgreifenden technologischen Wandel durchlaufen müssen, um mit der Komplexität der Software, die für die neue Hardware entwickelt wurde, Schritt zu halten. In diesem Positionspapier möchten wir uns für die Notwendigkeit einsetzen, die Leistungsfähigkeit der neuen Computerhardware voll auszuschöpfen, um die Verifikationstechniken für Software der nächsten Generation geeignet zu machen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88479-8_43 76c8894e9387b4975cf6f6ad5cc7730b;de;;;3.3.;;;Erkennung der Strukturklassifizierung der Proteinfaltung durch NN und SVM Hierarchical Learning Architecture Die Klassifizierung der Proteinstruktur ist eine sehr wichtige Aufgabe in biologischen Daten. Durch die Klassifikation können die Beziehungen und Eigenschaften bekannter Proteine ​​genutzt werden, um die Struktur neuer Proteine ​​vorherzusagen. Die Untersuchung der Proteinstrukturen basiert auf den Sequenzen und deren Ähnlichkeit. Es ist eine schwierige Aufgabe. In letzter Zeit haben viele Forscher aufgrund der Fähigkeit maschineller Lerntechniken diese angewendet, um dieses Proteinklassifizierungsproblem zu untersuchen. Wir wenden hier auch maschinelle Lernmethoden für Mehrklassen-Proteinfaltungserkennungsprobleme an, indem wir eine neuartige hierarchische Lernarchitektur vorschlagen. Diese neuartige hierarchische Lernarchitektur kann durch NN (Neural Networks) oder SVM (Support Vector Machine) als Grundbausteine ​​gebildet werden. Unsere Ergebnisse zeigen, dass beide gut performen können. Wir verwenden diese neue Architektur, um das von Dubchak und Ding im Jahr 2001 vorgeschlagene Mehrklassen-Proteinfaltungs-Erkennungsproblem anzugehen. Mit den gleichen Funktionen kann unsere Methode nicht nur eine bessere Vorhersagegenauigkeit und eine geringere Rechenzeit erreichen, sondern kann auch die Verwendung vermeiden des stochastischen Abstimmungsprozesses im ursprünglichen Ansatz.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44989-2_138 db01d00b08e0ad3d4510089a618e3463;de;;;3.3.;;;Integration einer Struktur aus der Bewegung in die virtuelle und erweiterte Realität für die Architektur- und Stadtsimulation Computergestützte visuelle Simulationen sind äußerst nützliche und leistungsstarke Werkzeuge für die Entscheidungsfindung. Der Einsatz von Virtual und Augmented Reality (VR/AR) ist aufgrund von Echtzeit- und interaktiven visuellen Simulationswerkzeugen in Architektur- und Städtebaustudien und -präsentationen zu einem weit verbreiteten Phänomen geworden. In dieser Studie wird eine Demonstration durchgeführt, um Struktur aus Bewegung (SfM) in VR und AR zu integrieren. Eine 3D-Modellierungsmethode wird von SfM unter Echtzeit-Rendering als Lösung für die Modellierungskosten in groß angelegter VR untersucht. Die Studie untersucht die Anwendung von Kameraparametern von SfM, um eine angemessene Registrierungs- und Trackinggenauigkeit in der markerlosen AR zu erreichen, um großmaßstäbliche Designprojekte auf einer geplanten Baustelle zu visualisieren. Der vorgeschlagene Ansatz wird auf mehrere reale Architektur- und Städtebauprojekte angewendet, und die Ergebnisse zeigen die Machbarkeit und Wirksamkeit des vorgeschlagenen Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-5197-5_4 d29f02e70a29d4ba442b2b2087d4d882;de;;;3.3.;;;Sturzerkennung mit einer mehrstufigen Deep Convolutional Network-Architektur Die Sturzerkennung ist eine große Herausforderung im Bereich des öffentlichen Gesundheitswesens, insbesondere für ältere Menschen. Und eine zuverlässige Überwachung ist entscheidend, um die Häufigkeit von Stürzen zu verringern. In diesem Papier schlagen wir eine mehrstufige Architektur vor, um die Schätzung der menschlichen Pose zu erhalten. Die vorgeschlagene Netzwerkarchitektur enthält zwei Zweige. Der erste Zweig ist die Vertrauenskarte von Verbindungspunkten, der zweite Zweig schlägt ein bidirektionales Graphstruktur-Informationsmodell (BGSIM) vor, um die reichhaltigen Kontextinformationen zu codieren. Dann definieren wir eine lineare Funktion, um zu bestimmen, ob die Menschen (insbesondere ältere Menschen) stürzen oder eine Neigung zum Sturz haben. Wir testen das System in einer simulierten Umgebung wie einem Badezimmer, einer Küche und einem Flur. Inzwischen geben wir auch einige Vorhersageergebnisse aus realen Szenen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6837-0_19 131c33e9a1266862167bd943734c6257;de;;;3.3.;;;Multi-Class Support Vector Machine Training und Klassifizierung basierend auf der MPI-GPU Hybrid Parallel Architecture Machine Learning (ML) ist der Prozess des Extrahierens von Wissen aus aktuellen Informationen, um es Maschinen zu ermöglichen, neue Informationen basierend auf dem erlernten Wissen vorherzusagen. Viele ML-Algorithmen zielen darauf ab, den Lernprozess zu verbessern. Support Vector Machine (SVM) ist einer der besten Klassifikatoren für hyperspektrale Bilder. Wie viele der ML-Algorithmen erfordert das SVM-Training einen hohen Rechenaufwand, der ein sehr großes quadratisches Programmieroptimierungsproblem berücksichtigt. Die vorgeschlagene sequentielle minimale Optimierung löst die stark rechenintensiven Probleme unter Verwendung eines hybriden parallelen Modells, das sowohl eine grafische Verarbeitungseinheit verwendet, um einen Binärklassifikator zu implementieren, als auch eine Message-Passing-Schnittstelle, um eine Mehrklassen-nach-Eins-Methode zu lösen. Unsere Hybridimplementierung erreicht eine 40-fache Geschwindigkeit gegenüber der sequentiellen (LIBSVM), eine 7,5-fache Geschwindigkeit gegenüber der CUDA-OPENMP für einen Trainingsdatensatz von 44442 Datensätzen und eine 102-Feature-Größe für 9 Klassen und eine 13,7-fache Geschwindigkeit gegenüber LIBSVM Klassifizierungsprozess für 60300 Datensätze.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99010-1_16 472a95ad1623f8f04276349ceb89c59f;de;;;3.3.;;;Eine containerbasierte Elastic Cloud-Architektur für die Pseudo-Echtzeit-Ausnutzung von Wide Area Motion Imagery (WAMI) Stream Echtzeit-Informationsfusion basierend auf WAMI (Wide-Area Motion Imagery), FMV (Full Motion Video) und Textdaten ist für viele missionskritische Notfall- oder Militäranwendungen sehr erwünscht. Aufgrund der enormen Datenrate ist es jedoch immer noch unmöglich, Streaming-WAMI in Echtzeit zu verarbeiten und das Ziel einer unterbrechungsfreien Online-Zielverfolgung zu erreichen. In diesem Papier wird ein Pseudo-Echtzeit-Dynamic Data Driven Applications System (DDDAS) WAMI-Datenstrom-Verarbeitungsschema vorgeschlagen. Unter Ausnutzung der zeitlichen und räumlichen Lokalitätseigenschaften wird eine Teile-und-Herrsche-Strategie gewählt, um die Herausforderung zu bewältigen, die sich aus der großen Menge dynamischer Daten ergibt. Im;-;-;-;https://link.springer.com/article/10.1007/s11265-016-1206-6 9ee8b3da519563cc4ced57e3592a946e;de;;;3.3.;;;Erweiterte Rückverfolgbarkeit mit dem Internet der Dinge Stellen Sie sich Lieferketten für Meeresfrüchte vor, in denen Produkte Ihnen mitteilen, wann und wo sie gefangen wurden. Durch grafische Oberflächen und Anwendungen, die im Live-Modus ausgeführt werden, präsentiert der Demonstrator ein standardbasiertes Rückverfolgbarkeitssystem für Lieferketten für Meeresfrüchte, das den Geschäftsnutzen erhöht und das Verbrauchererlebnis verbessert. Der Demonstrator stammt aus dem Forschungsprojekt „WINGS“[1], das darauf abzielt, Architekturen zu entwerfen, die Discovery Services einbetten, um dezentrale Data Warehouses von Produktionsgütern abzurufen. Die französische Forschungsagentur (ANR) [2] unterstützt WINGS im Rahmen des Programms „Future Networks and Services“ (VERSO).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28816-6_12 98a6cfea88044ad6485c8e53e8bd47a9;de;;;3.3.;;;Forschung zu einer neuen Lehrmethode für Computersoftware, die virtuelle Anzeigetechnologie und Multimediatechnologie kombiniert Der Einsatz von Multimedia-Lehrtechnologie in der Hochschullehre hat die Entwicklung einer qualitativ hochwertigen Ausbildung an Hochschulen und Universitäten gefördert und die Qualität der Lehre verbessert. Der Inhalt des integrierten Managementsystems der Computersoftware ist komplizierter, aber auch relativ hoher Baumodus, es gibt einige der komplexeren Situationen in der Managementstruktur, so dass es viele Schwierigkeiten bei der Implementierung und Verwaltung geben wird die Untersuchung, statistische Analyse, Vorhersage und Modellierung von Computersoftware, Layoutoptimierung usw. haben einen großen Konstruktionsmaßstab, so dass das System komplizierter ist. Dieses Papier kombiniert virtuelle Anzeigetechnologie mit multimedialer Lehrtechnologie und erforscht innovative Lehrmethoden für Computersoftware. Sie listet einige praktikable und einfache Integrationsmethoden auf, um die Lehrmängel zu überwinden und bessere Lehrergebnisse zu erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-15740-1_123 c26815cba676ffb16aed832d96621a94;de;;;3.3.;;;Eine Schema-Digest-basierte Metadaten-Kapselungsarchitektur mit gemeinsam genutzten String-Tabellen Wir schlagen eine einfache, aber effiziente Kapselungsarchitektur vor, die verwendet wird, um auf Extended Markup Language (XML) basierende Serviceinformationen für ein TV Anytime (TVA) Metadaten-Liefermodell zu kodieren. In der vorgeschlagenen Architektur werden ein Schema-Digest und gemeinsame String-Tabellen auf mehrere Fragmente angewendet, während das bestehende Schema eine unabhängige individuelle String-Tabelle für jedes Fragment verwendet. Die experimentellen Ergebnisse zeigen, dass wir durch den Schema-Digest und gemeinsame String-Tabellen deutliche Verbesserungen gegenüber der bestehenden Architektur erzielen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-26010-0_18 e5cc1d96abcb530bf15e43200370cbf3;de;;;3.3.;;;Schlüsseltechnologien zur umfassenden Überwachung der Sicherheitsproduktion im vernetzten Kohlebergwerk Digital Mining und unbemannter Bergbau sind derzeit der Entwicklungstrend der Kohleindustrie. Mit Blick auf die Defizite der bestehenden Sicherheitsüberwachungstechnologie im Kohlebergwerk in Bezug auf Fortschrittlichkeit, Zuverlässigkeit und Echtzeit wird in diesem Papier die Schlüsseltechnologie der vernetzten Sicherheitsüberwachung von Kohlebergwerken vorgestellt. In dieser Studie wird die Struktur des Kommunikationsmodus basierend auf „ein Netzwerk eine Station“ diskutiert und die Entwurfsmethode des spezifischen Netzwerks analysiert. Die genaue Ortungsmethode von sich bewegenden Minenzielen basierend auf TOF wird untersucht. Untersucht wird die Technologie des auf drahtloser Selbstvernetzung basierenden Grubenbrandüberwachungssystems. Dieses Papier ist von theoretischem und praktischem Wert, um die Entwicklung der Sicherheitsüberwachungstechnologie für Kohlebergwerke und das Niveau der Minensicherheitskontrolle zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-0893-2_68 c1117ff1aa2bfe36f5dcdc0f26307142;de;;;3.3.;;;Einsatz des Digital Twin in der Montage der Pkw-Hinterachse Die Digital-Twin-Technologie ist in der Luft- und Raumfahrt sowie in der Fertigung weit verbreitet. Sie ist die Schlüsseltechnologie für die Transformation und Aufwertung der Fertigungsindustrie und die Realisierung einer intelligenten Fertigung. In diesem Beitrag wird die Digital-Twin-Technologie auf die Hinterachsbaugruppe eines Automobils angewendet. Am Beispiel der Montagelinie wird das Grundgerüst des digitalen Zwillingssystems detailliert vorgestellt. Die Sensorik und Datenkommunikationstechnik werden verwendet, um die Daten der physischen Einheit zu sammeln. Die Daten werden ständig in den virtuellen Raum gespiegelt, um den synchronen Betrieb des digitalen Zwillingssystems und der realen Produktion zu realisieren. Dieses Papier stellt auch die potenzielle Anwendung der Datenanalyse im digitalen Zwillingssystem vor und fasst die Probleme im digitalen Zwillingssystem unter drei Aspekten zusammen: Datenübertragungseffizienz, Effizienz des Computerbetriebs und Datensicherheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6318-2_32 ece8de2611a5b7e63ef2e3040c7a5cc0;de;;;3.3.;;;Unterstützung von Sehbehinderten in Szenenbeschreibungen mit mehreren Objekten durch OWA-basierte Fusion von CNN-Modellen Der technologische Fortschritt kann sehbehinderten (VI) Menschen viel Unterstützung bieten. Insbesondere Computer Vision und maschinelles Lernen können Lösungen für die Objekterkennung und -erkennung bieten. In dieser Arbeit schlagen wir eine Multi-Label-Bildklassifizierungslösung vor, um einer VI-Person zu helfen, das Vorhandensein mehrerer Objekte in einer Szene zu erkennen. Die Lösung basiert auf der Fusion zweier tiefer CNN-Modelle unter Verwendung des induzierten geordneten gewichteten Mittelwerts (OWA). In dieser Arbeit fusionieren wir nämlich die Ausgaben von zwei vortrainierten CNN-Modellen, VGG16 und SqueezeNet. Um den induzierten OWA-Ansatz zu verwenden, müssen wir ein Konfidenzmaß in den Ausgaben der beiden CNN-Basismodelle schätzen. Zu diesem Zweck schlagen wir den Restfehler zwischen dem vorhergesagten Output und dem wahren Output als Vertrauensmaß vor. Wir schätzen diesen Restfehler unter Verwendung eines anderen dedizierten CNN-Modells, das auf den Restfehlern trainiert wird, die aus den Haupt-CNN-Modellen berechnet wurden. Dann verwendet die OAW-Technik diese geschätzten Restfehler als Vertrauensmaße und fusioniert die Entscheidungen der beiden Haupt-CNN-Modelle. Beim Testen an vier Bilddatensätzen von Innenumgebungen von zwei getrennten Standorten verbessert das vorgeschlagene neue Verfahren die Erkennungsgenauigkeit im Vergleich zu beiden CNN-Basismodellen. Die Ergebnisse sind auch deutlich besser als die in der Literatur beschriebenen Methoden des Standes der Technik.;-;-;-;https://link.springer.com/article/10.1007/s13369-020-04799-7 4a695918f5f516070d5ba51eb4c26247;de;;;3.3.;;;CUDA-gestützter CTBE-Algorithmus für Zero-Latency Data Warehouse Die für Zero-Latency Data Warehouses dedizierten Systeme müssen den wachsenden Anforderungen an die aktuellsten Daten gerecht werden. Die derzeit verwendeten sequentiellen Algorithmen sind nicht geeignet, dem Druck, die frischesten Daten zu erhalten, gerecht zu werden. Die in aktuellen Lösungen implementierte Ein-Modul-Architektur schränkt die Entwicklungsmöglichkeiten ein und erhöht das Risiko kritischer Systemausfälle. In diesem Beitrag schlagen wir ein neues, innovatives, multimodulares System vor, das auf dem parallelen Algorithmus Choose Transaction by Election (CTBE) basiert. Darüber hinaus nutzen wir die CUDA-Architektur, um die Systemeffizienz zu steigern, indem wir die Rechenleistung von Mehrkern-Grafikprozessoren nutzen. Ziel dieser Arbeit ist es, die Vor- und Nachteile einer solchen Lösung aufzuzeigen. Durchgeführte Tests und Ergebnisse zeigen das Potenzial und die Fähigkeiten des multimodularen Systems unter Verwendung der CUDA-Architektur.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23201-0_37 033c5c3ff00d270898ee1bb643620074;de;;;3.3.;;;Eine Studie über ein einzelnes multiplikatives Neuron (SMN)-Modell für die Vorhersage der Softwarezuverlässigkeit In diesem Kapitel wird ein einzelnes multiplikatives Neuronenmodell zur Vorhersage von Softwarefehlern vorgeschlagen. Zur Optimierung der Parameter werden Standard-Backpropagation und real codierter genetischer Algorithmus mit mittlerem Quadratfehler als Fitnessfunktion verwendet. Die Leistung des vorgeschlagenen Modells wird anhand einiger echter Softwarefehlerdaten validiert. Eine vergleichende Studie zwischen einigen existierenden Software-Zuverlässigkeitsmodellen und dem vorgeschlagenen Modell wird unter Verwendung verschiedener Vergleichskriterien präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32177-1_6 415797f1122229e529f69a7f903307d1;de;;;3.3.;;;Effektivität des Codelesens und Funktionstests mit ereignisgesteuerter objektorientierter Software Dieses Kapitel befasst sich mit experimentellen Vergleichen des Codelesens und Funktionstests (einschließlich Fehleridentifizierung) von gleichzeitig ereignisgesteuerter Java-Software. Unsere ursprüngliche Idee war, dass Funktionstests in Bezug auf gleichzeitig ereignisgesteuerte OO-Software effektiver sind als das Lesen von Code. Ein kontrolliertes Experiment wurde zunächst mit Studenten im zweiten Jahr (unerfahrene Probanden) durchgeführt. Anschließend wurde es mit einigen Änderungen bei Junior- und Senior-Studenten (mittelerfahrene Fächer) repliziert. Wir haben auch eine weitere Replikation mit Masterstudierenden durchgeführt, die in diesem Kapitel nicht berücksichtigt wird. Das Versuchsziel wurde aus verschiedenen Perspektiven untersucht, einschließlich der Wirkung von Techniken auf die verschiedenen Arten von Fehlern. Die Ergebnisse lassen sich wie folgt zusammenfassen: 1) Bezüglich des anfänglichen, grundlegenden Experiments: Bei unerfahrenen Probanden und einem strengen Untersuchungsintervall von zwei Stunden gab es keinen statistisch signifikanten Unterschied zwischen den betrachteten Techniken, der Leistungsindikator der Probanden betrug 62 % Codelesen und 75% für Funktionstests. 2) Bezüglich der (ersten) Replikation: bei mäßig fachkundigen Probanden, wiederum einem strengen Untersuchungsintervall von zwei Stunden und mehr als doppelter Anzahl von ausgesäten Fehlern, gab es keinen statistisch signifikanten Unterschied zwischen den Techniken, der Leistungsindikator der Probanden war 100% für das Codelesen und 92 % für Funktionstests zeigt der Leistungsindikator der Probanden, dass erfahrenere Probanden mehr Zeit für die Inspektion verlangten, jedoch schnitten die Funktionstests viel besser ab als im Basisexperiment. Berechnungsfehler waren beim Codelesen am besten erkennbar, während Steuerungsfehler beim Funktionstest am besten erkennbar waren. Darüber hinaus waren mäßig erfahrene Probanden effektiver bei der Erkennung von Schnittstellen- und Ereignistypen von Fehlern als unerfahrene. Darüber hinaus erkannten mäßig erfahrene Funktionstester viele bereits vorhandene (nicht gesetzte) Fehler, während sowohl unerfahrene Probanden als auch mäßig erfahrene Codeleser keine nicht gesetzten Fehler erkennen konnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45143-3_10 429614343612422644838cb40476473f;de;;;3.3.;;;Unmanned Aerial Vehicle (UAV) Networking for Ocean Monitoring: Architekturen und Schlüsseltechnologien Technologie Kommunikationsnetze für unbemannte Luftfahrzeuge (UAVs) haben ein großes Potenzial in der Meeresüberwachung. Aufgrund der Hauptmerkmale wie Mobilität, Agilität, einfache Bereitstellung und Anpassungsfähigkeit werden UAV-Kommunikationsnetze in der Navigation, beim Management von Meeresfarmen und beim Schutz der Meeresumwelt weit verbreitet sein. In diesem Beitrag präsentieren wir einen kurzen Überblick über die UAV-Vernetzung für die Ozeanüberwachung in Bezug auf Architekturen und Schlüsseltechnologien, einschließlich UAV-Einsatz und Trajektorienoptimierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8411-4_254 547ceabc8d0ddd904c958c18495d954d;de;;;3.3.;;;Zur sicheren Gerätekopplung über Vibrationserkennung Multi-Party-Anwendungen werden aufgrund der Entwicklung mobiler Smart Devices immer beliebter. In dieser Arbeit untersuchen wir PVKE (Physical Vibration Keyless Entry), einen neuartigen Kopplungsmechanismus, durch den Benutzer intelligente Geräte verwenden können, um eine Vibration der Smartwatch zu erkennen, um Informationen aus der Vibration zu verwenden, um Sicherheitsschlüssel zu dekonstruieren. Somit führen wir die Gerätekopplung ohne komplizierte Vorgänge durch. Wir zeigen, dass die Erkennungsgenauigkeit der Vibrationstastenerkennung 95 % durch solide Experimente erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00021-9_17 60d1a2198dbd5224d14df82eaff556dc;de;;;3.3.;;;Eine Ultra-Low-Power-AES-Architektur für IoT Das Internet der Dinge (IoT) wird heute zu einem Teil unseres Lebens. Viele Geräte sind bereits verbunden, und es wird erwartet, dass in den nächsten Jahren weitere eingesetzt werden. Das Hauptanliegen des IoT besteht darin, eine praktische Lösung für Sicherheit, Datenschutz und Vertrauen bereitzustellen. Die Wissenschaft der Kryptographie spielt eine wichtige Rolle für die Bereitstellung von Sicherheit in IoTs. Der AES-Algorithmus ist ein bekannter symmetrischer Schlüssel, eine Blockchiffre, die sehr sicher ist. In diesem Whitepaper stellen wir eine Ultra-Low-Power-Architektur für die AES-Chiffre vor, die für die meisten IoT-Anwendungen benötigt wird. Die vorgeschlagene Architektur wurde auf der SCL-180-nm-Technologie implementiert. Wir haben 4-Bit-Serializer und Deserializer (SerDes) verwendet, um 128-Bit-Daten zu senden und zu empfangen. Die vorgeschlagene AES-Architektur verwendet einen 32-Bit-Datenpfad in der SubByte-Transformation und erfordert 44 Taktzyklen für die Verschlüsselung von 128-Bit-Klartext mit einem 128-Bit-Chiffrierschlüssel. Um 128-Bit-Klartext und Chiffrierschlüssel zu deserialisieren, benötigt die Architektur 32 Taktzyklen. Um 128-Bit-Chiffretext zu serialisieren, werden 32 Taktzyklen von 44 Taktzyklen überlappt, die vom AES-Modul benötigt werden. Dadurch wirkt sich die Verwendung von SerDes einmal nach den ersten 32 Taktzyklen nicht auf den Durchsatz des Systems aus. Bei 10 MHz verbraucht die ASIC-Implementierung der vorgeschlagenen Architektur auf einem SCL 180-nm-PDK 52,2;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9767-8_29 17841805fa5b75b556d6a7138d6c0e32;de;;;3.3.;;;Migration zu Microservices: Barrieren und Lösungen Die Microservices-Architektur (MSA) ist in den letzten Jahren entstanden. Trotz Standardisierungsbemühungen bleibt die Migration großer Legacy-Anwendungen in die Microservice-Architektur eine Herausforderung. Diese Studie präsentiert die Ergebnisse von siebzehn Interviews zu Hindernissen und Lösungsvorschlägen bei der Migration zu Microservices. Wir analysierten die Ergebnisse von Interviews unter Verwendung des Jobs-to-be-done-Frameworks in der Literatur und klassifizierten die Barrieren in drei Kategorien – Trägheit, Angst und Kontext. Diese Arbeit bietet eine Kategorisierung und einen Rahmen zur Überwindung der Barrieren basierend auf den Ratschlägen von Experten auf diesem Gebiet. Die Ergebnisse können als Referenz für zukünftige Forschungsrichtungen und fortschrittliche Migrationslösungen dienen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-32475-9_20 a85865017792256c895eae9918fb5cae;de;;;3.3.;;;Eine präventive Intrusion Detection-Architektur mit adaptiver Blockchain-Methode In diesem Whitepaper wird eine Netzwerkeinbruchsverhaltenserkennung vorgestellt, die einen adaptiven Blockchain-Mechanismus verwendet. Es wird ein Layered Voting Rule System (LVRS) eingeführt, das eine positive Schicht, eine negative Schicht und eine Ausbreitungsschicht enthält, die die Blockchain mit dem Stromverbrauch der Benutzer trainiert, um die Daten zu übertragen und zu empfangen. Die Leistung des Netzwerks wird anhand von Quality of Service (QoS)-Parametern analysiert, einschließlich Durchsatz und Stromverbrauch. Der beobachtete Durchsatz und Stromverbrauch des vorgeschlagenen Modells wird im Vergleich zum Modell ohne Blockchain um mehr als 30 % verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-62625-9_3 3bc30a977ae1a04e2f9ae8e61e05b346;de;;;3.3.;;;Sensibilisierung von KMU für Echtzeit-Ortungssysteme (RTLS) in der Intralogistik Die digitale Transformation in kleinen und mittleren Unternehmen (KMU) schreitet nur langsam voran. Neben knappen Ressourcen mangelt es oft an den notwendigen IT- oder Technologiekenntnissen und der Akzeptanz bei den Mitarbeitern. In diesem Beitrag stellen wir einen möglichen Ansatz zur Einführung einer bestimmten Technologie, der Echtzeit-Lokalisierung, in einem intralogistischen Szenario vor. In einem beispielhaften Szenario werden gemeinsam mit einem Pilotunternehmen Ladungsträger mit Tags zur Verfolgung ausgestattet. Das Potenzial der Technologie und ihre konkrete Anwendung werden in einem speziell für die Mitarbeiter von KMU entwickelten Lehr- und Lernkonzept aufgezeigt. Die Auswahl der Technologie, das Vorgehen beim Aufbau des Szenarios und die Konzeption des Workplace-Learning-Ansatzes werden detailliert beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-75004-6_15 314c8bb2a8581348180e8162326d87ac;de;;;3.3.;;;Computergestützte Modellierung krimineller Aktivitäten Computergestützte und mathematische Methoden haben wohl ein enormes Potenzial, um praktische Bedürfnisse in der Kriminalitätsanalyse und -prävention zu erfüllen, indem sie neue Ideen und Werkzeuge für die Kriminalermittlung sowie experimentelle Plattformen zur Entscheidungsunterstützung in der evidenzbasierten Politikgestaltung bieten. Wir präsentieren hier einen umfassenden Rechenrahmen für die Modellierung kriminellen Verhaltens, um systematische experimentelle Studien einer breiten Palette krimineller Aktivitäten in städtischen Umgebungen zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89900-6_7 26f890116924d6174b7adf834481038e;de;;;3.3.;;;Auf dem Weg zum aktiven Laden für softwaredefinierte drahtlose Netzwerke Ein programmierbarer Netzwerkansatz zum Verrechnen von Diensten in softwaredefinierten drahtlosen Netzwerken (SDWN) könnte die darin erwartete Dienstinnovation stark erleichtern. Es würde eine Dienstdifferenzierung durch maßgeschneiderte Abrechnung ermöglichen und die Bereitstellung von zusammengesetzten Diensten über mehrere Anbieter hinweg unterstützen. In diesem Positionspapier betrachten wir, wie frühere Ansätze für aktives Laden mit dem 3GPP-Ladeframework und jüngsten SDN-inspirierten zellularen Architekturinnovationen kombiniert werden können, um eine aktive Ladeinfrastruktur für SDN bereitzustellen. Unsere Analyse zeigt, dass aktives Laden im SDN technisch machbar, wirtschaftlich sinnvoll und schrittweise einsetzbar ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19743-2_35 17b88e3d9b3e97cde78645822ff4da1c;de;;;3.3.;;;Wenden Sie die agile Methode zur Verbesserung der Effizienz von Softwareentwicklungsprojekten bei VNG Company an Software Engineering Process (SEP) wird immer mehr als der Schlüsselfaktor für jedes Softwareunternehmen angesehen, um eine qualitativ bessere Software mit niedrigen Kosten und hoher Produktivität zu erstellen. Allerdings klafft eine Lücke zwischen Theorie und Praxis der Anwendung moderner SEP, wie der agilen Methode, um die Effizienz des Softwareprojektmanagements zu verbessern, insbesondere für Softwareunternehmen in einem Entwicklungsland wie Vietnam. Die VNG Corporation, ein Softwareunternehmen in Vietnam mit vielen kleinen und mittleren webbasierten Softwareprojekten, hat derzeit viele Schwierigkeiten, den Erfolg dieser Projekte sicherzustellen. Der aktuelle Ansatz für die Softwareentwicklung entspricht den steigenden Anforderungen und Flexibilitäten dieser Projekte nicht mehr und VNG wird einen neuen Weg finden, die Effizienz ihrer Softwareprojekte zu verbessern. In dieser Forschung wird die agile Methode angewendet und getestet, um zu überprüfen, ob sie eine geeignete Methode für VNG sein kann, um ihre Probleme in der Softwareentwicklung zu überwinden. Außerdem wird bei der Firma VNG ein Testprojekt basierend auf der agilen Methode durchgeführt, um die Lösung zu evaluieren. Die Ergebnisse zeigten, dass die agile Methode dazu beitragen kann, die Kundenzufriedenheit zu erhöhen und die Effizienz des Projektmanagements durch die meisten KPIs zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39643-4_31 37d995f3adf04c5778eefcbb48b72aec;de;;;3.3.;;;VLSI-Design für hohe Durchsatzbandbreite zur Bewegungskompensation im AVS HDTV-Decoder In diesem Beitrag präsentieren wir ein Motion Compensation (MC) Design für den neuesten Audio Video Coding Standard (AVS) von China. Wegen kompressionseffizienter Techniken variabler Blockgröße (VBS) und Subpixel-Interpolation sind eine intensive Pixelberechnung und ein riesiger Speicherzugriff erforderlich. Wir schlagen einen gemischten Luma-Interpolationsdatenfluss mit paralleler serieller Filterung und ein dreistufiges multiplikationsfreies Chroma-Interpolationsschema vor. Im Vergleich zu herkömmlichen Designs unterstützt die integrierte Architektur den etwa 2,7-fachen Filterdurchsatz. Das vorgeschlagene MC-Design nutzt die vertikale Z-Verarbeitungsreihenfolge für die Wiederverwendung von Referenzdaten und spart bis zu 30% Speicherbandbreite. Das gesamte Design erfordert 44,3k Gates, wenn es mit einer Taktfrequenz von 108 MHz unter Verwendung der 0,18-μm-CMOS-Technologie synthetisiert wird, und kann AVS HDTV-Videodecodierung mit bis zu 1920 × 1088 @ 30 fps unterstützen.;-;-;-;https://link.springer.com/article/10.1631/jzus.A071460 a39755d970eb5b960e9c2f18f328aa45;de;;;3.3.;;;Auf dem Weg zu einer gemeinschaftsorientierten Entwicklung von Bildungsmaterialien: Der Edukalibre-Ansatz Das libre-Softwareentwicklungsmodell hat gezeigt, wie die Kombination kollektiver Intelligenz zu revolutionären Methoden führen kann, die wichtige Software-Fortschritte untermauern. Dieser Beitrag argumentiert, dass die Zeit reif ist, die Anwendung dieses Modells auf die Entwicklung von Bildungsmaterialien zu untersuchen, bei denen nicht nur Lehrer, sondern auch Schüler aktiv an der Erstellung von Bildungsinhalten beteiligt werden können. Das Papier beschreibt einen Roman,;-;-;-;https://link.springer.com/chapter/10.1007/11876663_12 6754dadae202eebe1e04e80db5c579c1;de;;;3.3.;;;Intelligente Messungen und Analysen zur Verbesserung der Softwarequalität Aufgrund des Wettbewerbs in der Softwareindustrie und der Komplexität der Softwareentwicklung, die mehrere Technologiedomänen integriert (z. B. IoT, Big Data, Cloud, Künstliche Intelligenz, Sicherheitstechnologien), nehmen die Anforderungen zur Verbesserung der Softwarequalität zu. Die Erfassung und Analyse von Messwerten ist eine Schlüsselaktivität zur Bewertung der Softwarequalität während des Entwicklungslebenszyklus. Um diese Aktivität zu optimieren, besteht unsere Hauptidee darin, regelmäßig relevante durchzuführende Maßnahmen auszuwählen (aus einer Reihe möglicher Maßnahmen) und deren Analyse mithilfe eines speziellen Tools zu automatisieren. Die vorgeschlagene Lösung ist in eine ganze PaaS-Plattform namens MEASURE integriert. Die Tools, die diese Aktivität unterstützen, sind das Software Metric Suggester-Tool, das relevante Metriken gemäß mehreren Softwareentwicklungsbeschränkungen empfiehlt und auf künstlicher Intelligenz basiert, und das MINT-Tool, das gesammelte Messwerte korreliert und den Stakeholdern der Softwareentwicklung (z , Personalleiter etc.), um die Qualität des Entwicklungsprozesses zu verbessern. Um die Effizienz beider Tools zu veranschaulichen, haben wir verschiedene Szenarien erstellt, auf die beide Ansätze angewendet werden. Die Ergebnisse zeigen, dass beide Werkzeuge komplementär sind und zur Verbesserung des Softwareentwicklungsprozesses und damit der endgültigen Softwarequalität verwendet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29157-0_9 8d6a3c1939d92cde4213e976429491c5;de;;;3.3.;;;DEFACTO: Eine Designumgebung für adaptive Computertechnologie Das Fehlen von High-Level-Designtools behindert die weit verbreitete Einführung adaptiver Computersysteme. Anwendungsentwickler müssen ein breites Spektrum an Funktionen beherrschen, vom High-Level-Architekturdesign bis hin zum Timing der eigentlichen Steuer- und Datensignale. In diesem Artikel beschreiben wir DEFACTO, eine End-to-End-Designumgebung, die darauf abzielt, die Lücke bei Tools für adaptives Computing zu schließen, indem parallelisierende Compiler-Technologie und Synthesetechniken zusammengeführt werden.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0097941 55667ae9c1d33a6e7dba2a27e037ee1b;de;;;3.3.;;;Ein intelligenter Algorithmus für CO In diesem Papier wird ein intelligentes Fahrzeugverkehrsmanagement durch Fahrzeug-Ad-hoc-Netzwerke (VANETs) Infrastruktur und Kommunikation (V2I und V2V) vorgeschlagen. Ein verteilter Algorithmus namens SeaWave mit dem Ziel, einen weniger überlasteten Weg für die Fahrzeuge in einem städtischen Szenario zu bauen, wurde entwickelt. Es wird auch als das Problem betrachtet, die Luftqualität in den Städten zu verbessern und den CO-Ausstoß der Fahrzeuge zu reduzieren;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-59000-0_9 7a195b4913b2939ad2ec0b8e82d0f8c9;de;;;3.3.;;;Eine konfigurierbare Schaltung für die Kreuzkorrelation beim Echtzeit-Bildabgleich Die Kreuzkorrelation (CC) ist am zeitaufwendigsten bei der Implementierung von Bildvergleichsalgorithmen basierend auf dem Korrelationsverfahren. Daher ist es für den Echtzeit-Bildabgleich entscheidend, wie CC schnell berechnet wird. Diese Arbeit zeigt, dass die in der Vergangenheit weit verbreiteten Architekturen Single Cascading Multiply-Accumulate (CAMAC) und Concurrent Multiply-Accumulate (COMAC) tatsächlich nicht unbedingt eine zufriedenstellende Zeitleistung für CC bringen. Um eine bessere Zeitleistung und höhere Ressourceneffizienz zu erzielen, schlägt dieses Papier eine konfigurierbare Schaltung vor, die die Vorteile von CAMAC und COMAC für eine große Anzahl von Multiply-Accumulate (MAC)-Operationen von CC in der erschöpfenden Suche nutzt. Die vorgeschlagene Schaltung arbeitet in einer Array-Weise und kann sich besser an eine Bildanpassung mit sich ändernder Größe bei der Echtzeitverarbeitung anpassen. Experimentelle Ergebnisse zeigen, dass diese neuartige Schaltung, die die beiden Strukturen umfasst, umfangreiche MAC-Berechnungen mit sehr hoher Geschwindigkeit durchführen kann. Im Vergleich zu bestehenden verwandten Arbeiten verbessert es die Rechendichte weiter und ist flexibler einsetzbar.;-;-;-;https://link.springer.com/article/10.1007/s11390-017-1765-4 be9bf00b2435145299996f135e11d84c;de;;;3.3.;;;Ein einschichtiges Zero-Skew-Clock-Routing in der X-Architektur Mit ihren Vorteilen bei der Reduzierung der Kabellänge und der Routing-Flexibilität im Vergleich zum herkömmlichen Manhattan-Routing wurde die X-Architektur vorgeschlagen und auf modernes IC-Design angewendet. Als kritischer Teil in integrierten Hochleistungsschaltkreisen stellt sich das Design von Taktnetzwerken aufgrund der Verringerung der Strukturgröße und der Erhöhung der Taktfrequenz großen Herausforderungen. Um die durch die Vias verursachte Verzögerung und Dämpfung des Taktsignals zu eliminieren und es toleranter gegenüber Prozessschwankungen zu machen, schlagen wir in diesem Papier einen Algorithmus eines einschichtigen Zero-Skew-Takt-Routings in der X-Architektur (genannt ). Unsere Planar-CRX-Methode integriert den erweiterten Deferred-Merge-Einbettungsalgorithmus (DME-X, der den DME-Algorithmus auf die X-Architektur erweitert) mit dem modifizierten Ohtsuki-Liniensuchalgorithmus, um die Gesamtdrahtlänge und die Biegungen zu minimieren. Verglichen mit dem planaren Clock-Routing in der Manhattan-Ebene erreicht unser Verfahren eine Reduzierung der Gesamtdrahtlänge um durchschnittlich 6,81 % und erhält den resultierenden Clock-Tree mit weniger Biegungen. Experimentelle Ergebnisse zeigen auch, dass unsere Lösung mit dem vorherigen nicht-planaren Zero-Skew-Clock-Routing-Algorithmus vergleichbar sein kann.;-;-;-;https://link.springer.com/article/10.1007/s11432-009-0028-6 73239260fea8c778a91e2cd60d9736d6;de;;;3.3.;;;Prototyp eines eingebetteten Systems zur Bewässerung und Düngung in Gewächshäusern Das Hauptziel der Forschung ist die Automatisierung aktueller landwirtschaftlicher Praktiken unter Verwendung von Technologie für eine bessere Leistung. Diese Studie basiert auf der für eingebettete Systeme angewandten Hardware-Software-Codesign-Methodik, die es ermöglicht, die Synergie zwischen beiden Elementen voll auszuschöpfen. Als Ergebnis der Studie wurde ein Prototyp entwickelt, der Landwirten dabei helfen soll, die Arbeit in Gewächshäusern automatisierter durchzuführen und viel manuelle Handhabung zu vermeiden. Der Prototyp umfasst sowohl Umgebungstemperatur- als auch Bodenfeuchtigkeitssensoren, die die Bewässerung oder Fertigation durch Vernebler aktivieren. Diese speziellen Sensoren sind in der Lage, Stickstoff-, Phosphor-, Kalium- und andere Mineralienanteile im Boden zu erkennen. Dazu gehört auch ein Ultraschallsensor, der den aktuellen Wasserstand in den Tanks zur Wasserrationierung misst und ein Solarpanel dient als Energieversorgung. Die Daten der Sensoren werden vom Landwirt aus einer mobilen Anwendung gelesen, um sie dann auf einem Server in der Cloud zu speichern und aufzuzeichnen. Der entworfene Prototyp ist eine hervorragende Alternative für die Landwirtschaft, da er Kosten senkt und die Prozesse automatisiert. Es gibt dem Landwirt auch Zugang zu den Informationen, da es tägliche Datenaufzeichnungen führt, aber der wichtigste Vorteil ist, dass die Pflanzen in den Gewächshäusern optimal behandelt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-34989-9_3 bc54519f2de202f916e0b66fc3a38f0e;de;;;3.3.;;;Prinzipien und Anwendungen von reflektometrischen und interferometrischen faseroptischen Sensoren Faseroptische Sensoren sind in letzter Zeit weit verbreitet und untersucht worden. In diesem Papier werden Betriebsprinzipien und Anwendungen von faseroptischen Sensoren vorgestellt, nämlich reflektometrische und interferometrische faseroptische Sensoren. Die Mehrheit der Lichtwellenleitersensoren fällt in diese beiden großen Kategorien. Sowohl interferometrische als auch reflektometrische faseroptische Sensoren werden wegen ihrer Benutzerfreundlichkeit, Flexibilität, Erfassung großer Entfernungen und potenziell rauschfreier Erkennung immer beliebter. Außerdem können diese Sensoren problemlos in verschiedenen Anwendungen wie der Überwachung des strukturellen Zustands, der Erkennung von Perimetereinbrüchen, der Temperaturüberwachung und anderen zahlreichen Anwendungen verwendet werden. Dieses Papier unterteilt faseroptische Sensoren grob in zwei Untertypen. Das Papier beleuchtet außerdem verschiedene Sensoren basierend auf ihrer Erfassungsauflösung, Reichweite, räumlichen Vorteile und Anwendungen.;-;-;-;https://link.springer.com/article/10.1007/s12200-019-0824-6 c0596195551b4afd1d7335e62c16395b;de;;;3.3.;;;Drei Integrationsmethoden für ein komponentenbasiertes NetPay Vendor-System Wir haben NetPay entwickelt, ein Mikrozahlungsprotokoll, das sich durch Offline-Verarbeitung, Kundenanonymität und relativ hohe Leistung und Sicherheit auszeichnet und Einweg-Hashing-Funktionen zur Verschlüsselung verwendet. In unseren NetPay-Prototypen haben wir zwei Arten von NetPay-Anbietersystemen entworfen und implementiert, die Thin-Client-Benutzeroberflächen, eine komponentenbasierte serverseitige Infrastruktur und CORBA-Remote-Objekte für die systemübergreifende Kommunikation verwenden. Wir beschreiben drei alternative Möglichkeiten zur Integration der NetPay-Schnittstellenfunktionen in diese bestehenden E-Journal-Webanwendungen. Wir beschreiben die relativen Stärken und Schwächen bei jedem Ansatz und unsere Erfahrungen mit dem Bau von Prototypen davon.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30497-5_121 0ce098493580c371721c3871ade3f392;de;;;3.3.;;;Ein neuartiger Deadlock-freier Shortest-Path-Dimension-Order-Routing-Algorithmus für eine Mesh-of-Tree-basierte Network-on-Chip-Architektur Dieses Papier stellt einen neuen dimensionierten Routing-Algorithmus für Mesh-of-Tree (MoT)-basierte Network-on-Chip (NoC)-Designs vor. Der Algorithmus hat sich theoretisch als Deadlock-, Live-Lock- und Hungerfrei erwiesen. Es stellt auch das kürzeste Pfad-Routing für die Pakete sicher. Der vereinfachte Algorithmus bietet im Vergleich zu den zuvor veröffentlichten Arbeiten den gleichen Durchsatz und die durchschnittlichen Latenzmessungen bei einem geringeren Hardware-Overhead (ca. 61% für Router, 46% für Links und 44% insgesamt) aufgrund der möglichen Reduzierung des minimalen Flit -Größe. Es ermöglicht uns, die Router-Komplexität flexibler zu variieren und gleichzeitig das MoT-basierte NoC für die anwendungsspezifische System-on-Chip (SoC)-Synthese zu planen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17857-3_17 f11c7a4c0544a673ea82d5bd986d0c37;de;;;3.3.;;;On-Chip schwellenkompensierter Spannungsverdoppler für HF-Energiegewinnung Har Dieses Papier stellt ein neues Schwellwertspannungskompensationsschema für Spannungsverdoppler vor, um Hochfrequenzenergie (HF) in Gleichstromenergie (DC) für HF-Energiegewinnungsanwendungen umzuwandeln. Das vorgeschlagene Schema verwendet eine Kette von Dioden-verbundenen MOS-Transistoren anstelle von Sekundärbatterien oder großen Off-Chip-Widerständen, um Verluste aufgrund der MOSFET-Schwellenspannung zu minimieren. Der vorgeschlagene Doppler ist für RFID-Anwendungen geeignet, bei denen die angestrebte Versorgungsspannung 0,5 V beträgt. Der Spannungsverdoppler wurde in UMCs 0,18 . entworfen und simuliert;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9767-8_16 eee945582c90810318381417be964276;de;;;3.3.;;;AutoDBT: Ein Framework zum automatischen Testen von Web-Datenbankanwendungen Die komplexen Funktionalitäten und die hohen Anforderungen an die Softwarequalität machen das manuelle Testen einer Webanwendung wirkungslos. Automatische Softwaretestmethoden können helfen, festzustellen, ob eine Webanwendung korrekt funktioniert, aber vorhandene Methoden können nicht testen, ob eine solche Anwendung korrekt mit einer Back-End-Datenbank interagiert. In diesem Artikel wird ein Ansatz entwickelt, der als Automatic Database Tester (AutoDBT) bezeichnet wird und den Funktions- oder Black-Box-Test einer Webdatenbankanwendung um Datenbankaktualisierungen erweitert. AutoDBT verwendet als Eingabe ein Modell der Anwendung und eine Reihe von Testkriterien. Das Modell besteht aus einem Zustandsübergangsdiagramm, das zeigt, wie ein Benutzer zwischen Seiten in der Anwendung navigiert, und einer Datenspezifikation, die erfasst, wie Daten in der Anwendung fließen und wie die Datenbank aktualisiert wird. AutoDBT verwendet das Modell zusammen mit den Testkriterien, um Testfälle für den Funktionstest der Anwendung zu generieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30480-7_20 f71c9a542f46ccaf4cd42121de651327;de;;;3.3.;;;Lotus-G: Die virtuelle PVT-TLM-Plattform für die frühe RUMPS401-Softwareentwicklung Das faszinierende Wachstum von Multi-Processor System-on-Chip (MPSoC) stellt Softwareprogrammierer vor eine gewaltige Aufgabe. Die Aufgabe besteht darin, Software zu bauen, die Hardware-Potenziale vollständig ausschöpfen kann. Die virtuelle Plattform ist eine der Lösungen, die es Softwareprogrammierern ermöglicht, die Software frühzeitig zu entwickeln, bevor die Hardware verfügbar ist. Als Demonstration von Konzept und Realisierbarkeit wird hier die Functional Accuracy Programmer's View with Time (PVT) Transaction-Level Modeling (TLM) virtuelle Plattform: Lotus-G vorgestellt und für die frühe Softwareentwicklung eines realen MPSoC-Projekts verwendet: RUMPS401. Der Lotus-G imitiert den RUMPS401, ein MPSoC-Projekt mit extrem geringem Stromverbrauch, das im VLSI Design Center der Universität Tunku Abdul Rahman (UTAR) in Malaysia entwickelt wurde. Die virtuelle Plattform wird unter Verwendung von SystemC und der Methodik der Transaktionsmodellierung (TLM) unter Verwendung zusätzlicher High-Level-Modelle von Open Virtual Platforms (OVP) entwickelt. Die Simulation von Lotus-G erfolgt in SystemC-Umgebung mit Hilfe eines Befehlssatzsimulators von OVP, um die Software auf der Plattform auszuführen. Diese Forschung präsentiert die Ergebnisse und Details der frühen MPSoC-Softwareentwicklung unter Verwendung einer virtuellen PVT-TLM-Plattform mit OVP-Simulator und High-Level-Modellen für reale MPSoC-Projekte.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1289-6_1 e39eb18ddf89cbac0c8857287acbef0c;de;;;3.3.;;;Änderungs-Impact-Analyse von Feature-Modellen Die Veränderbarkeit ist eine grundlegende Eigenschaft von Softwaresystemen. Jedes Softwaresystem muss sich auf allen Abstraktionsebenen (Modelle, Architektur, Quellcode, Dokumentation usw.) weiterentwickeln, um den sich ändernden Benutzer- und Kontextanforderungen gerecht zu werden. Um das Ausmaß einer Änderung zu beurteilen, muss eine Änderungswirkungsanalyse durchgeführt werden. In diesem Papier schlagen wir eine Taxonomie von Änderungsaspekten in der Feature-Modellierungsdomäne vor und analysieren die Änderbarkeit von Feature-Modellen, eine hochgradige Darstellung der externen, für den Benutzer sichtbaren Eigenschaften des Systems. Wir schlagen das Änderungswirkungsmodell basierend auf einer Merkmalsabhängigkeitsmatrix vor, um die Gültigkeit von Merkmalsänderungen zu bewerten, die Ausbreitung von Merkmalsänderungen zu verfolgen und die Änderbarkeit eines Merkmalsmodells unter Verwendung eines Jaccard-Distanzmaßes abzuschätzen. Das Modell wird unter Verwendung von Prolog-Logikregeln implementiert. Eine Fallstudie wird vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33308-8_10 d36dce07e6da3ed9b35463bf4698543b;de;;;3.3.;;;Forschung zu vertrauenswürdiger Computertechnologie für eingebettete Echtzeitbetriebssysteme Die Trusted Computing-Technologie (TCT) ist ein effektiver Weg, um die Sicherheit des eingebetteten Echtzeitbetriebssystems (ERTOS) zu lösen. Jedoch ist es mit dem bestehenden TCT schwierig, die Eigenschaften der Echtzeit und des geringen Stromverbrauchs direkt zu erfüllen. Basierend auf dem vxworks-Kernel stellte dieses Papier eine Lösung für Trusted Computing vor, indem ein eingebettetes Echtzeit-Trusted-Computing-Modul und ein Trusted-Software-Stack entworfen wurden, der die Vertrauenskette mithilfe eines Integritätsmesszertifikats realisieren könnte. Experimente zeigen, dass die durchschnittliche Ausführungszeit von Befehlen auf dem Trusted Platform-Modul 65,81 % Ausführungszeit im Vergleich zu SW-TP spart, was die ERTOS-Anforderungen an Echtzeiteigenschaften und insgesamt geringen Stromverbrauch erfüllen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0421-6_13 a3a2dd9c9468d4ce7d71e0ae5263d807;de;;;3.3.;;;Social Robot Intelligence und Netzwerkkonsens Modelle der synthetischen Intelligenz sind für den schnell wachsenden Bereich der sozialen Robotik von großer Bedeutung. Roboter, die im Kontext einer Nicht-Laborumgebung mit Menschen interagieren, werden in rasantem Tempo weiterentwickelt, um den gesellschaftlichen Erwartungen gerecht zu werden. Um die Integration in menschliche Gesellschaften zu fördern und damit den Erwartungen gerecht zu werden, werden Roboter wahrscheinlich mit typisch menschlichen Attributen wie einer synthetischen Persönlichkeit ausgestattet. Eine solche soziale Persönlichkeit ist das Ergebnis der Interaktion einer Reihe von Systemen, von denen einige eine hohe Komplexität aufweisen, und kann als ein Netzwerk dynamischer Systeme betrachtet werden. Das Papier befasst sich mit den Beziehungen zwischen Frameworks, die mit synthetischen Intelligenzmodellen aus der Psychologie übereinstimmen, und Modellen von Netzwerken mit nicht glatter Dynamik und Konsensproblemen. Die Ziele sind (i) ein Framework zu schaffen, das Brücken zwischen Architekturen schlagen kann, einschließlich Konzepte aus den Sozialwissenschaften und Konzepten aus nicht glatten dynamischen Systemen, und (ii) die grundlegenden Eigenschaften eines solchen Frameworks zu bestimmen. Es wird gezeigt, dass grundlegende Stetigkeits- und Konvexitätseigenschaften den Kern des Gerüsts bilden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-7780-8_4 25c947789a51801784f803254068b427;de;;;3.3.;;;Die Personalschulden im Softwaregeschäft Dieses konzeptionell-analytische Papier präsentiert und definiert das Konzept der „Personalschulden“ (d. h. Personalschulden). Das vorgestellte Konzept orientiert sich an den jüngsten Arbeiten des Software Engineerings im technischen Schuldenmanagement, weicht jedoch von den bestehenden Konzeptualisierungen ab, indem es die Fähigkeiten und Kompetenzen einzelner Mitarbeiter in den Mittelpunkt stellt und die Notwendigkeit betont, den Skill-Pool durch bewusste Entscheidungen zu managen. Wie bei seinen Vorbildern zielt dieses neuartige Konzept darauf ab, das Phänomen mithilfe einer einfachen Metapher besser zu verstehen, zu kontrollieren und zu nutzen. Zudem betont die der Ökonomie entlehnte Metapher auch den möglichen Preis, der später zurückgezahlt werden muss. In der Diskussion wird die sich ständig wandelnde Softwareindustrie als beispielhafte Industriedomäne verwendet, das Konzept sollte jedoch auf andere Bereiche übertragbar sein. Schließlich legt das Papier die Grundlagen für die künftige Arbeit und schlägt erste Maßnahmen vor, die für die Erstellung einer angemessenen Forschungsagenda erforderlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-97931-1_3 6f52705e0b0bf1faa2bf560f066a7731;de;;;3.3.;;;Prüfen starker Spezifikationen mit einem erweiterbaren Framework zur Softwaremodellprüfung Die Verwendung von Zusicherungen, um Korrektheitseigenschaften von Programmen auszudrücken, nimmt in der Praxis zu. Assertions stellen eine Form von überprüfbarer Redundanz dar, die sehr effektiv beim Auffinden von Fehlern in Programmen und bei der Anleitung von Entwicklern zur Fehlerursache sein kann. Es wurde eine Vielzahl von Assertionssprachen und zugehörigen Validierungstechniken entwickelt, aber die Laufzeitüberwachung wird allgemein als die einzige praktische Lösung angesehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24730-2_31 0d64ffa4096ab3576025bd6cc3315ade;de;;;3.3.;;;Auswirkungen auf den Lebenszyklus modularer Produktarchitekturen in geschlossenen Lieferketten Die meisten Produktlebenszykluskosten und Umweltauswirkungen werden während der Produktentwicklungsphase bestimmt. Ein Produkt-Supply-Chain-Netzwerk kann als System betrachtet werden, das sich mit Produktlebenszyklusprozessen befasst. Idealerweise sollte ein Produkt so konzipiert sein, dass es eine Struktur aufweist, die eine gute Lebenszyklusleistung in seinem bestehenden Lieferkettennetzwerk bietet. Es fehlt jedoch an Forschung zur Modellierung von Lieferketteneffekten in der Produktentwicklungsphase. Dieses Papier zielt darauf ab, die Auswirkungen der Lieferkette auf das modulare Design von Produkten zu untersuchen. Die Lebenszyklusleistung einer modularen Struktur (Lebenszykluskosten und Lebenszyklus-Umweltbelastung) in verschiedenen Lieferkettenzuständen wird durch ein Lieferkettenbewertungsmodell bewertet und durch statistische Verfahren analysiert. Die vorläufigen Ergebnisse zeigen, dass die lieferkettenbezogenen Auswirkungen auf die Produktlebenszyklusleistung signifikant sind und die Optimierung der modularen Struktur wirksam ist, um den Anstieg der Lebenszykluskosten und die Umweltbelastung durch den Lebenszyklus, die durch verschiedene Lieferkettenzustände verursacht werden, zu reduzieren. Die wichtigsten Auswirkungen der Lieferkette werden für die Verbesserung des Produktdesigns identifiziert.;-;-;-;https://link.springer.com/article/10.1007/s00170-013-5409-8 113faee629eb1a6e32cd961f0be3a2ec;de;;;3.3.;;;Linearitätsanalyse eines kapazitiven Beschleunigungsmessers mit geschlossenem Regelkreis aufgrund von Abstandsfehlanpassung zwischen den Platten und dem Einfluss der Kompensationskondensatoranordnung Dieses Papier präsentiert mathematische Formeln, die zeigen, dass die Abstandsfehlanpassung für eine nicht zentrierte Prüfmasse in einem Beschleunigersensor die Linearität des Beschleunigungsmessers mit geschlossenem Regelkreis als Ganzes nicht beeinflusst. Diese Asymmetrie in Sensoren führt nur einen Ausgangsspannungs-Offset in die integrierte Ausleseschaltung ein. Numerische Simulation mit Matlab/Simulink bestätigt die mathematische Schlussfolgerung. Auch das lineare Verhalten nach Kompensation mit einem konventionellen Kondensator-Array wird simuliert und analysiert. Die Ergebnisse zeigen, dass es einen Verlust an Linearität gibt. Ähnliche Ergebnisse gelten nicht nur für die zeitkontinuierliche Architektur, sondern auch für eine zeitgeteilte Architektur. Eine integrierte Ausleseschaltung mit einer zeitgeteilten Architektur wird unter Verwendung eines 0,35 µm HV-CMOS-Prozesses entworfen und hergestellt. Ein Beschleunigungsmesser, bestehend aus einem mikroelektromechanischen Systemsensor mit starker eingebauter Abstandsfehlanpassung und der entworfenen integrierten Ausleseschaltung wird getestet. Testergebnisse zeigen, dass die Nichtlinearität eines solchen Beschleunigungsmessers innerhalb von 0,3% liegt.;-;-;-;https://link.springer.com/article/10.1007/s11432-013-4863-0 c5f3dc11a8140753c4c38a1e1a39a416;de;;;3.3.;;;Verbesserter Clustering-Algorithmus basierend auf Hochgeschwindigkeits-Netzwerkdatenstrom Mit der kontinuierlichen Weiterentwicklung der Netzwerktechnologie ist der Angriff zur größten Bedrohung für den stabilen Betrieb des Netzwerks geworden. Die Intrusion Detection-Technologie ist eine proaktive Sicherheitsmaßnahme, die eine Echtzeitüberwachung von internen Angriffen, externen Angriffen und Missbrauch ermöglicht. Herkömmliche Intrusion Detection-Systeme sind aufgrund der Kompliziertheit und Größe des Netzwerks nicht anpassungsfähig. Das Hauptproblem besteht darin, dass die Echtzeitleistung des Netzwerks schlecht und die Zuverlässigkeit nicht hoch ist. In diesem Dokument wird der Intrusion Detection-Mechanismus in Kombination mit einem Datenstrom-Clustering-Algorithmus und einem Intrusion Detection-System entwickelt, um das Problem bei der Verarbeitung einer großen Menge von Hochgeschwindigkeitsdatenströmen zu lösen. Die Leistung bei der Verarbeitung von Datenströmen wird durch den Clustering-Algorithmus basierend auf der Dichte und dem Gleitfenster verbessert, und die Experimente zeigen, dass die Effizienz der Intrusion Detection höher ist als die des DenStream-Algorithmus.;-;-;-;https://link.springer.com/article/10.1007/s00500-017-2708-2 b537b5ef65f882e83f536bba1c73e4bb;de;;;3.3.;;;Leistungsvergleich von Hypervisoren in der Private Cloud Um das Cloud-Computing-Modell praktisch zu machen und wesentliche Eigenschaften wie schnelle Elastizität, Ressourcen-Pooling, On-Demand-Zugriff und gemessener Service zu haben, sind zwei herausragende Technologien erforderlich. Einer davon ist das Internet und der zweite wichtige ist die Virtualisierungstechnologie. Virtualisierungstechnologie spielt eine wichtige Rolle für den Erfolg von Cloud Computing. Eine Virtualisierungsschicht, die mehrere darüber liegende virtuelle Maschinen infrastrukturell unterstützt, indem sie Hardwareressourcen wie CPU, Arbeitsspeicher, Festplatte und NIC virtualisiert, wird als Hypervisor bezeichnet. Es ist interessant zu untersuchen, wie sich verschiedene Hypervisor in der Private Cloud verhalten. Hypervisor gibt es in den Varianten paravirtualisiert, vollständig virtualisiert und hybrid. Es ist eine neue Idee, sie in der Private-Cloud-Umgebung zu vergleichen. Dieses Whitepaper führt verschiedene Leistungstests auf den drei Hypervisoren XenServer, ESXi und KVM durch und erläutert das Verhalten und die Ergebnisse jedes Hypervisors. Im Experiment wird CloudStack 4.0.2 (Open-Source-Cloud-Computing-Software) verwendet, um eine private Cloud zu erstellen, in der der Managementserver auf Ubuntu 12.04 – 64-Bit-Betriebssystem installiert ist. Als Hosts in den jeweiligen Clustern sind die Hypervisoren XenServer 6.0, ESXi 4.1 und KVM (Ubuntu 12.04) installiert und deren Performance im Detail evaluiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07350-7_44 2c0ec143430fdb96df486ab2623084c6;de;;;3.3.;;;Eine unternehmensweite Intervention bei IRS: Eine Längsschnittanalyse der Stakeholder-Sentimente Das von der Steuerbehörde der US-Regierung durchgeführte Business Modernization Project des Internal Revenue Service wurde als Beispiel für einen massiven Misserfolg genannt. Wie vorgesehen war das Projekt als unternehmensweite Intervention gedacht, die moderne Dienste und effektiven Datenzugriff für Bürger und mehrere Regierungsbehörden bereitstellt. Nach mehr als einem Jahrzehnt und 3 Milliarden Dollar später scheinen die Ergebnisse alles andere als vorbildlich zu sein. Dieses Papier identifiziert verschiedene Interessenvertreter, die an dem Projekt teilgenommen haben, und analysiert die Gefühle und das Vertrauen, die jeder zum Ausdruck bringt, um zu verstehen, was und wie die Dinge funktioniert haben oder nicht. Wir schließen mit den Erkenntnissen aus unserer Untersuchung, einschließlich der Anerkennung der Bedeutung mehrerer Interessengruppen für unternehmensweite Initiativen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16819-2_3 cf63411b98da1d156dd0ed7b9af60934;de;;;3.3.;;;Eine Analyse der Aufwandsvarianz in Softwarewartungsprojekten Quantitatives Projektmanagement, das Verständnis von Prozessvariationen und die Verbesserung der Gesamtprozessfähigkeit sind grundlegende Aspekte von Prozessverbesserungen und werden heute von allen Best-Practice-Modellen der Prozessverbesserung stark propagiert. Organisationen bewegen sich auf die nächste Ebene des quantitativen Managements, bei der empirische Methoden verwendet werden, um die Vorhersagbarkeit von Prozessen zu ermitteln und so eine bessere Projektplanung und -steuerung zu ermöglichen. In diesem Beitrag verwenden wir empirische Methoden, um die Aufwandsvarianz in Softwarepflegeprojekten zu analysieren. Das etablierte Aufwandsvarianzmodell wurde verwendet, um Prozessverbesserungen und die Ausgangsleistung zu identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-8741-7_66 398f80220a295bf69a3a446c5d71c021;de;;;3.3.;;;Softwareschätzung mit Funktionspunktanalyse: Schwierigkeiten und Forschungsherausforderungen Die Function Point Analysis-Methode dient einer effizienteren Methode zur Vorhersage der Schätzung in der Anfangsphase des Softwareentwicklungslebenszyklus (SDLC). Größe und Komplexität der Software können durch das Funktionspunktanalyseverfahren abgeleitet werden. Schwierigkeiten bei der Schätzung mit LOC (Lines of Code) können durch die Function Point Analysis vermieden werden, da sie sich direkt mit Funktionen oder Anforderungen befasst und unabhängig von Sprache oder Technologie. In diesem Dokument wird erläutert, wie die Funktionspunktanalyse für die Fallstudie Defect Tracking System (DTS) mithilfe der Funktionspunktanalyse berechnet wird. Die Fallstudie zum Fehlerverfolgungssystem (DTS) wurde von der Firma „XYZ“ übernommen. Aus Gründen der Vertraulichkeit geben die Autoren den Firmennamen nicht bekannt. Die Autoren diskutieren auch Schwierigkeiten und Herausforderungen, indem sie die Funktionspunktanalyse als Teil ihrer Forschungsarbeit verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-6268-1_21 b1038f71b22c1fc7eb3cd62f04a19c0d;de;;;3.3.;;;Was ist ein Testfall? Überarbeitung des Softwaretestfallkonzepts Seit den 1980er Jahren ist der Begriff Test Case (TC) als Baustein zur Beschreibung von Testobjekten anerkannt und wird häufig als Arbeitseinheit, Metrik und Dokumentationseinheit verwendet. Angesichts der zentralen Bedeutung des TC-Konzepts in Testprozessen sind die Fragen, die dieses Papier zu beantworten versucht: Welchen Nutzen hat TC im Softwaretest? Gibt es eine allgemeine, gemeinsam vereinbarte Definition eines TC? Wenn nicht, welche Auswirkungen hat diese Situation?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04133-4_2 d4fa2f52d6264ea221c1419b22589bdf;de;;;3.3.;;;Künstliche Intelligenz als Wettbewerbsvorteil im Fertigungsbereich Seit Beginn der industriellen Revolution hat die Fertigung verschiedene Stadien durchlaufen: 1. Technologieinseln, 2. Massenproduktion, 3. Lean Manufacturing und 4. IIoT (für das Jahr 2025), wir müssen die Führung in der Produktion nicht vergessen von Gütern heute, was die östlichen Länder haben (und verwenden Stufe 3), so dass die aktuellen Richtlinien die notwendige Bedeutung haben, die eine neue Art der Produktion von mehr als das Potenzial von Technologien, die sich im Reifeprozess befinden, wie: Künstliche Intelligenz, Big Data, 3D-Druck und Robotik finden originelle Lösungen für die Probleme der Produktivität, Anpassung, Just-in-Time und Dienstleistungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-33229-7_15 03f5a9f1a46ef73b5bde110168f2ef8f;de;;;3.3.;;;Ein Modell für die dynamische Rekonfiguration in serviceorientierten Architekturen Die Bedeutung der Modellierung der dynamischen Architekturmerkmale von Softwaresystemen ist seit langem bekannt. Die Natur der dynamischen Architekturmerkmale serviceorientierter Anwendungen geht jedoch über das hinaus, was derzeit von bestehenden Architekturbeschreibungssprachen (ADLs) angesprochen wird. Im Zentrum des serviceorientierten Ansatzes steht die logische Trennung von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15114-9_8 181174f077f027f52236dab0f3bb8d0c;de;;;3.3.;;;Die Lüge als Datenschutzmaßnahme Die Absicht des Autors, das Recht auf Lüge als eine dem Arbeitnehmer garantierte Maßnahme zum Zwecke eines wirksamen Schutzes der Privatsphäre im Arbeitsverhältnis zu bewerten. Das Kapitel befasst sich mit der Frage, ob sich der Arbeitnehmer aufgrund des Konzepts des Rechts auf Selbstverteidigung auf das Recht auf Lüge berufen kann und in Situationen, in denen die Tätigkeit des Arbeitgebers in seine Privatsphäre eingreift (auch im Licht die neuen Technologien), kann die Unwahrheit gegenüber dem Arbeitgeber verwenden. Es war auch entscheidend zu entscheiden, ob das Recht auf Lüge allen Personen, die Arbeit leisten (untergeordnete oder selbstständige Arbeit) in gleichem Umfang gewährt werden soll, und wann der Arbeitnehmer das Recht auf Lüge in Anspruch nehmen darf und in welchen Fällen dies entschieden werden kann eine solche Aktion ist notwendig. Das Kapitel stellt auch mögliche Handlungen des Arbeitnehmers vor, die die Unwahrheit durch das Prisma des Verhältnismäßigkeitsprinzips sagen, und die Bestimmung der Auswirkungen des Arbeitgebers, der die Lüge des Arbeitnehmers im Zusammenhang mit der Beendigung der Vereinbarung erfährt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-26538-0_7 eb8ecb6812e5dca8bc4db2a230294a1c;de;;;3.3.;;;Fuzzy-Logik-basierte Verfolgung und Erkennung des Aktivitätslebenszyklus Menschliche Aktivitäten haben einen Lebenszyklus, der verfolgt werden könnte, um wichtige Informationen bereitzustellen, die die Aktivitätserkennungsleistung verbessern. Die Lebenszyklusverfolgung ermöglicht auch leistungsfähigere und vielseitigere Programmiermodelle über das Empfindungsvermögen menschlicher Aktivitäten. In diesem Whitepaper wird ein neuer Ansatz zur Aktivitätserkennung vorgestellt, der auf Fuzzy-Logik und Aktivitätslebenszyklusverfolgung basiert. Wir führen eine vorläufige Leistungsvalidierung durch und zeigen, wie die Aktivitätslebenszyklusverfolgung im Vergleich zum traditionellen Ansatz der Erkennung von Aktivitäten ohne Lebenszyklus eine höhere Genauigkeit bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39470-6_32 8e59ae565b077f7267736cce6abed19b;de;;;3.3.;;;FPGA-Implementierung der PICO-Verschlüsselung Der Aufstieg des Ubiquitous Computing, das ressourcenbeschränkte Geräte verbindet, hatte zur Entstehung einer Unterdomäne in der Kryptographie geführt, die als leichte Kryptographie bezeichnet wird. Die Algorithmen in diesem Bereich zielen auf eine moderate Sicherheit ab, während sie die für eine gewünschte Anwendung festgelegten Beschränkungen erfüllen. PICO ist eine der leichten SPN-Chiffren, die für Anwendungen mit geringer Fläche und geringem Stromverbrauch geeignet sind. In diesem Papier werden zwei Hardwarearchitekturen vorgeschlagen, die sich ideal für einen geringen Platzbedarf und einen geringen Stromverbrauch eignen. Dies umfasst eine serielle Architektur und eine Architektur mit reduziertem Datenpfad, die speziell für Anwendungen mit reduzierter Fläche und geringem Stromverbrauch entwickelt wurden, während Kompromisse zwischen Latenz und Leistung gewählt werden. Die Ergebnisse werden für Xilinx FPGA-Plattformen wie Spartan 3, Virtex 4 und Virtex 6 ausgewertet. Die Synthese und Implementierung der vorgeschlagenen Architekturen erfolgt mit Verilog HDL in der Xilinx ISE Design Suite 14.6. Der Flächen-Footprint wird in Form von Slices, Flip-Flops und LUTs geschätzt. Der Stromverbrauch wird mit dem XPower Analyzer für eine Taktfrequenz von 10 MHz geschätzt. Die Simulationen für die vorgeschlagenen Designs werden mit ISim Simulator verifiziert. Außerdem wird die Fläche in Bezug auf belegte Slices mit den vorhandenen Chiffren für Spartan 3- und Virtex 4-Familien verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5546-6_43 6d96599b62d9788f1d8f393e99163733;de;;;3.3.;;;Compositional Reasoning der Leistung in komponentenbasierten verteilten Systemen Rapid Prototyping von verteilten Systemen kann durch die Integration von kommerziellen Standardkomponenten (COTS) erreicht werden. Bei Komponenten als Bausteinen ist es wichtig, die Leistung des Systems basierend auf der Leistung einzelner Komponenten vorherzusagen. In diesem Artikel wird die Leistungsvorhersage eines Systems, das aus einer kleinen Anzahl von Komponenten besteht, unter verschiedenen Kommunikationsmustern zwischen den Komponenten und der Anzahl der von Komponenten bereitgestellten Threads untersucht. Basierend auf den experimentellen Ergebnissen kann gefolgert werden, dass die vorgeschlagenen Zusammensetzungsregeln eine einigermaßen genaue Vorhersage der Leistung eines aus diesen Komponenten bestehenden Systems liefern.;-;-;-;https://link.springer.com/article/10.1007/s10586-008-0064-9 4a55d78191455ba3a198fffb486c865d;de;;;3.3.;;;Methode zur Identifikation von Verschwendung im Prozess der Softwareentwicklung in agilen Teams mit Lean und Scrum Verschwendung in Softwareentwicklungsprojekten ist definiert als alles, was Ressourcen wie Zeit, Mühe, Raum und Geld verbraucht, ohne für den Kunden einen Mehrwert zu schaffen. Methoden und Techniken zur Identifizierung von Abfallindikatoren, die für jedes Projekt spezifisch sind, werden auf einen Teil der gesamten Interaktionen und die Entwicklungsphasen angewendet und verbrauchen die Zeit und den Aufwand von Analysten und Entwicklern. Daher zielt dieses Papier darauf ab, eine Methode zur Identifizierung von Verschwendung innerhalb des Softwareentwicklungsprozesses in Scrum-Teams aus Daten basierend auf dem JIRA-Tool zu definieren, das die Softwareentwicklungsplanung, das Management und die Kontrollaktivitäten unterstützt. Gemäß der bibliographischen Überprüfung sind definiert: (i) Indikatoren für Abfallarten gemäß den Prinzipien der Lean-Softwareentwicklung, (ii) JIRA-Attribute, mathematische Operatoren, Schlüsselwörter, Funktionen und Berichte zu diesen Indikatoren. In der vorgeschlagenen Methode werden Anforderungen definiert, die eine semantische Beziehung zwischen den einzelnen Indikatorvariablen und Formeln zu den Attributen, Funktionen und Schlüsselwörtern von JIRA herstellen und darauf basierend Abfragen in JIRA Query Language implementiert werden, um die Indikatoren zu quantifizieren. Die Methodenvalidierung erfolgt anhand von Grafiken, die die Ergebnisse der Abfragen klassifiziert und gruppiert nach Projekt, Indikator und Abfallart zeigen, die aus einer Softwareprojektbasis für ein Unternehmen auf dem brasilianischen Finanzmarkt erworben wurden. Durch die quantitative Analyse der Ergebnisse ist es möglich, eine Hypothese für das Vorkommen der beobachteten Abfallarten vorzuschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-21451-7_40 3e193cd1e39d419aca7abc7d424ab1c7;de;;;3.3.;;;Ansatz zum Aufbau eines autonomen plattformübergreifenden Automatisierungscontrollers basierend auf der Synthese separater Module Der Beitrag widmet sich dem Bau einer programmierbaren Automatisierungssteuerung zur Ausführung einfacher technologischer Aufgaben (Verpackung, Druckmaschine usw.). Der vorgeschlagene Ansatz ermöglicht es, die minimal ausreichende Konfiguration der Software- und Hardwareplattform und der Anwendungssoftware abhängig von der technischen Aufgabe für das gesteuerte Objekt unter Berücksichtigung der Rechenfähigkeiten der Plattform auszuwählen. Es wird gezeigt, dass der plattformübergreifende Charakter der vorgeschlagenen Lösung es ermöglicht, den Kernel des Steuerungssystems ohne wesentliche Änderungen in der Architektur der Lösung auf verschiedene Plattformen zu übertragen, wodurch der finanzielle und zeitliche Aufwand für die Entwicklung der endgültigen Lösung reduziert wird. Die vorgeschlagene Lösung ermöglicht dem Anwender einerseits die Auswahl aus der ganzen Vielfalt der technischen Lösungen, die den Anforderungen der Aufgabe vollständig entsprechen, und andererseits die Möglichkeiten zur Beseitigung von Notfallsituationen, die mit der Unfähigkeit verbunden sind der Software- und Hardwareplattform, um die Aufgaben auszuführen. Ein praktisches Beispiel für das Finden einer synthetisierten Lösung für die Steuerung von Hydraulikzylindern wird ebenfalls betrachtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-39225-3_15 cd58bd80b22ff591309ccd28fc46de32;de;;;3.3.;;;Reduzierung der Komplexität in der Serviceentwicklung und -integration Das kontinuierliche Wachstum und die zunehmende Komplexität von Software für verteilte Systeme hat einen Bedarf an Softwareentwicklungswerkzeugen und -techniken erzeugt, die die Lernerfordernisse und die Komplexität beim Aufbau verteilter Systeme reduzieren. In dieser Arbeit befassen wir uns mit Komplexitätsreduktion in der serviceorientierten Softwareentwicklung und präsentieren einen Ansatz und ein Toolkit für die mehrsprachige Serviceentwicklung basierend auf drei Bausteinen: einer vereinfachten Servicebeschreibungssprache, einem intuitiven Nachrichtenserialisierungs- und Transportprotokoll und einem Set von Codegenerierungstechniken, die Boilerplate-Umgebungen für Dienstimplementierungen bereitstellen. Das Toolkit ist für den Einsatz im eScience-Bereich vorgesehen und wird zusammen mit einer Leistungsbewertung präsentiert, die die Toolkit-Leistung im Vergleich zu ausgewählten alternativen Toolkits und Technologien für die Serviceentwicklung quantifiziert. Es wurde festgestellt, dass die Leistung des Toolkits mit der Leistung bewerteter Technologien vergleichbar ist oder diese verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25414-2_5 8e1eff949742457d3b376cd81eaf627c;de;;;3.3.;;;Ein Rahmen für Innovation: Anwendung in einem Softwareunternehmen für die Geschäftsentwicklung Dieses Papier beschreibt den Innovationsrahmen, der von einer Softwareentwicklungsorganisation angenommen wird, um den Innovationsprozess zu implementieren. Es werden Wissensmanagement- und Innovationskonzepte analysiert, da sie die Grundlage für das weitere Verständnis der Funktionsweise des Frameworks liefern. Die Innovationsarchitektur, auf der der Innovationsprozess basiert, ermöglicht die Rahmenübernahme durch Organisationen aus anderen Sektoren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16402-6_32 25910410ff0224025d7423f0bf728def;de;;;3.3.;;;Erforschung der nichtflüchtigen Prozessorarchitektur für energiesparende Anwendungsszenarien Jede Änderung in der Art und Weise, wie unsere Geräte verbunden oder mit Strom versorgt werden, birgt ein Potenzial für eine Revolution in der Nutzung und den Fähigkeiten der um sie herum gebauten Systeme. So wie der Übergang von kabelgebundenen zu schnurlosen Telefonen zu beispiellosen Veränderungen in unserer Kommunikation führte und der Wechsel von Wandstrom zu Batteriestrom unsere Erwartungen an Computersysteme veränderte, verspricht der Wechsel von batteriebetriebenen Systemen zu autarken Systemen, nächste Revolution im Internet der Dinge (IoT). Die Möglichkeit, Umgebungsenergie, gebundene Energie wie Sonnenenergie, Hochfrequenzstrahlung (HF), piezoelektrischer Effekt, thermische Gradienten usw. Die von Energiegewinnungsquellen gelieferte Leistung ist jedoch sehr unzuverlässig und hängt von Umgebungsfaktoren ab. Daher ist es notwendig, spezialisierte IoT-Architekturen und -Systeme zu entwickeln, die dieser Leistungsschwankung gegenüber tolerant sind und auch in der Lage sind, die Rechenaufgaben voranzutreiben. In diesem Kapitel wird eine der potenziellen Lösungen namens nichtflüchtiger Prozessor vorgestellt, bei der die nichtflüchtige Funktion in einem Prozessor entwickelt wurde, um die instabile Stromversorgung durch verteilte Energie, zeiteffiziente Backup- und Wiederherstellungsvorgänge zu überwinden. Das Kapitel bietet Einblicke in den Designraum verschiedener Architekturen, verschiedener Eingangsstromquellen und Richtlinien zur Maximierung des Fortschritts. Durch die Untersuchung der verschiedenen Faktoren, die bei der Entwicklung eines batterielosen Energy-Harvesting-Systems eine Rolle spielen, bietet dieses Kapitel Chancen und beschleunigt die Innovationen autarker IoTs.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-16949-7_8 76b6b4ed40a24fa422a6014d9430350a;de;;;3.3.;;;Anforderungen für Enterprise Model Execution and Integration Services Geschäftstreiber für die verarbeitende Industrie erzeugen neue Anforderungen an flexible, erweiterte und interoperierende Informationsprozesse und damit an Informations- und Kommunikationstechnologie zu deren Unterstützung. Explizite Modellierung und andere Techniken können eine Lösung bieten, stellen jedoch selbst Anforderungen an die Infrastruktur, die zum Integrieren von Modellkomponenten erforderlich ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-60889-6_26 8505a82eecc5eaa5dd034dcc6712779d;de;;;3.3.;;;Analyse von Time-to-Market- und Zuverlässigkeitskompromissen mit Bayesian Belief Networks Webbasierte Systeme sind Softwaresysteme mit einer Webschnittstelle. In den letzten Jahren ist es erfolgreich in unseren Alltag eingedrungen. Die Entwicklung solcher Systeme hat auch ein neues Gebiet im Software Engineering eröffnet: das Web Engineering. Viele Studien haben ergeben, dass die Webentwicklung oft viel kürzere Zykluszeiten aufweist als die traditionelle Softwareentwicklung. Es widerspricht einigen nicht-funktionalen Anforderungen, wie z. B. der Systemzuverlässigkeit. Wenn sie nicht gleichzeitig erfüllt werden können, müssen Kompromissentscheidungen getroffen werden. Solche Entscheidungen sind in der Softwareentwicklung aufgrund der Komplexität und Unsicherheit des Entwicklungsprozesses typischerweise schwierig. Sie werden in der Regel ad hoc entschieden. Der Zweck dieser Arbeit besteht darin, eine neue Methodik für die Durchführung von Trade-off-Analysen vorzuschlagen. Bayesian Belief Networks (BBNs) wird verwendet, um diese Möglichkeit zu bieten. Durch die Erfassung und Modellierung der Ursache-Wirkungs-Beziehungen zwischen Zeit und Zuverlässigkeit in BBN-Modellen bietet es eine systematische Möglichkeit für eine umfassende Trade-Off-Analyse während des gesamten Entwicklungsprozesses.;-;-;-;https://link.springer.com/chapter/10.1007/11531371_85 6070d88d642d5ba35f938a123bb8a344;de;;;3.3.;;;Erkennungssystem für bösartige Software in einer virtuellen Maschine mit Datenbank Die Erkennung von bösartigem Verhalten mithilfe von Emulatoren oder virtuellen Maschinen wird zu einem interessanten Thema im Bereich der Informationssicherheit, da es einfach ist, das System neu zu initialisieren und Codes in unabhängigen separaten Räumen auszuführen, die das System nicht negativ beeinflussen. Dieses Papier schlägt ein schnelles Erkennungssystem für bösartige Codes vor, das eine Datenbank früherer bösartiger Codes verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24106-2_28 bac3fbf5946b0dcda3eee92d4443eb64;de;;;3.3.;;;Verwendung dynamischer Modellierung und Simulation zur Verbesserung des COTS-Softwareprozesses In den letzten Jahren hat die Softwareindustrie einen signifikanten Übergang zur Verwendung bestehender Komponentenprodukte in Gebäudesystemen durchlaufen. Heutzutage werden immer mehr Lösungen durch die Integration von Commercial-Off-The-Shelf (COTS)-Produkten erstellt, anstatt von Grund auf neu zu bauen. Dieser neue Ansatz für die Softwareentwicklung weist spezifische Merkmale auf, die neue Faktoren hinzufügen, die berücksichtigt werden müssen, um der Softwareentwicklung erfolgreich zu begegnen. In diesem Beitrag präsentieren wir die ersten Ergebnisse der Entwicklung eines dynamischen Simulationsmodells zur Modellierung und Simulation des COTS-basierten Softwareentwicklungsprozesses mit dem Ziel, die Besonderheiten dieser Art der Softwareentwicklung zu verstehen und Softwareprozessverbesserungen zu entwerfen und zu bewerten . Es wird ein Beispiel für die Verwendung dieser dynamischen Simulationsmodelle gezeigt, um zu untersuchen, wie sich der Ausgangspunkt der Systemintegration auf die wichtigsten Projektvariablen auswirkt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24659-6_41 c453fc44e1752cc5f9ee612fb7c5c2fc;de;;;3.3.;;;Grundgerätetechnologie Eines der wichtigsten Merkmale der VLSI-Technik, insbesondere im Hinblick auf VLSI-Geräte, ist der Wechsel von der konventionellen Integration von Schaltungen (Integrated Circuit: IC) zur Integration von Systemen selbst (Integrated System: IS) als Folge einer erhöhten Grad der Integration.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-69192-8_8 28adced1806eabc8a4c5236ebd1788cc;de;;;3.3.;;;Entwicklungstool für End-to-End-QoS-sensitive Frameworks und Technologien Dieses Papier schlägt ein Softwareentwicklungstool für die Entwicklung und das Testen von End-to-End-QoS-empfindlichen Frameworks und Technologien vor. Das Entwicklungswerkzeug ist ein modulares Softwaresystem, das es Forschern ermöglicht, die Leistungen und Funktionalitäten verschiedener QoS-Frameworks und -Technologien mithilfe einer experimentellen Methodik zu bewerten, anstatt Simulationsumgebungen zu verwenden. Wir beschreiben und analysieren das Verhalten des vorgeschlagenen Entwicklungstools, indem wir zwei End-to-End-QoS-Frameworks vergleichend testen: On-Demand QoS Path Framework (ODP) und Self-Adaptive Bandwidth Reconfiguration QoS Framework (SAR).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14306-9_10 a6cd6fe3febb237f54ab60aa81f2e42a;de;;;3.3.;;;Das Design einer Managementsoftware für hochwertige medizinische Verbrauchsmaterialien In diesem Beitrag wird eine in der Programmiersprache C# geschriebene Software basierend auf ORACLE und .NET Frame Work für das Management hochwertiger medizinischer Verbrauchsmaterialien vorgestellt. Unter Verwendung des Client-Server-Modells als Systemstruktur werden die Datenstruktur und der Datenfluss gemäß der Datenbank des Krankenhausinformationssystems (KIS) definiert. In der Software, indiziert nach Patienten-ID-Nummer, werden die Patienteninformationen und das hochwertige medizinische Verbrauchsmaterial, das sie im Behandlungsprozess verwendet haben, als Ganzes im Prozess des Lagerbetriebs zusammengefasst. Dann wird ein zweidimensionaler Code mit Patienten- und Materialinformationen erstellt, der automatisch in die Krankenakte eingefügt werden kann. Am Ende wird durch den Einsatz der Software das Managementbewusstsein und die Arbeitseffizienz gesteigert.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_255 3a86360633959ccd43ec701afbeed214;de;;;3.3.;;;Übertragung lernbasierter Verhaltensaufgabendecodierung aus der Gehirnaktivität Die Entschlüsselung des Gehirns birgt ein hohes Potenzial für zukünftige Anwendungen in der Medizinwissenschaft und im Gesundheitswesen. Es kann individuelle Gehirnunterschiede vorhersagen und anhand von Neuroimaging-Daten diagnostizieren, was neue Wege für Behandlung und Prävention bietet. Jüngste Fortschritte bei der funktionellen Magnetresonanztomographie (fMRT) haben gezeigt, dass es möglich ist, visuelle Informationen aus messbaren Gehirnaktivitäten zu entschlüsseln. Diese Studien konzentrieren sich jedoch typischerweise auf die Dekodierung von Bild- und Videoreizen innerhalb des Subjekts. Um diese Einschränkungen zu überwinden, schlugen wir einen fächerübergreifenden Dekodierungsansatz vor, der auf Deep Transfer Learning basiert, um den Gehirnzustand aus aufgabenbasierter fMRT zu dekodieren. Im Detail haben wir eine Pipeline für die Gehirndekodierung entworfen. Teile der hochmodernen Netzwerke, die auf ImageNet-Datensätzen vortrainiert sind, können mit unseren definierten Schichten verbunden werden, um die Zieldecodierungsaufgaben abzuschließen. Die Experimente in dieser Studie werden auf dem Datensatz des Human Connectome Project (HCP) implementiert. Die Ergebnisse zeigen, dass wir im Vergleich zu früheren akademischen Studien eine höhere Genauigkeit der fächerübergreifenden Dekodierung erreicht haben. Wir zeigen weiter, dass ein vollständig trainiertes neuronales Faltungsnetzwerk (CNN) und ein vortrainiertes CNN mit Feinabstimmung bestehende Methoden in derselben Datenbank übertrafen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6837-0_6 c378d1677096e98467a54a4a1e6045a2;de;;;3.3.;;;Eine Umfrage zum Test bekannter Open-Source-Softwareprojekte In diesem Papier untersuchen wir eine Reihe von 33 bekannten Open Source Software (OSS)-Projekten, um zu verstehen, wie Entwickler im Jahr 2010 Qualitätssicherungsaktivitäten für ihre OSS-Projekte durchführen. Wir vergleichen unsere Ergebnisse mit den Daten, die in einer früheren Umfrage von L. Zhao und S. Elbaum veröffentlicht wurden. Unsere Ergebnisse stimmen mit den bisherigen Arbeiten überein und bestätigen, dass OSS in der Regel nicht ausreichend validiert ist und daher seine Qualität nicht ausreichend offengelegt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29578-2_3 fad3683478702d5f1caab70598ba8c5e;de;;;3.3.;;;Der Einfluss des situativen Kontexts auf den Softwareentwicklungsprozess – eine Fallstudie einer hochinnovativen Start-up-Organisation In den letzten sechs Jahren haben wir die Auswirkungen des situativen Kontexts des Softwareentwicklungsprozesses untersucht. Unsere frühen Arbeiten umfassten die systematische Entwicklung eines umfassenden Bezugsrahmens für Situationsfaktoren. In jüngerer Zeit haben sich unsere Bemühungen auf die Anwendung dieses Referenzrahmens auf verschiedene Arten von situativen Kontexten konzentriert. In dieser neuesten in einer Reihe von Fallstudien untersuchen wir den Fall einer kleinen Start-up-Organisation und untersuchen den angewandten Prozess im Detail. Darüber hinaus haben wir den situativen Kontext detailliert bewertet und dabei sorgfältig die situativen Faktoren identifiziert, die von größter Bedeutung sind und wie diese Faktoren die Prozessgestaltung beeinflusst haben. Das Ergebnis unserer Fallstudie bestätigt unsere frühere Erkenntnis, dass ein Softwareentwicklungsprozess stark vom organisatorischen Kontext abhängt. Wir haben in diesem Start-up-Umfeld auch einige interessante neue Themen entdeckt, darunter die Schwierigkeit, situative Faktoren zu priorisieren, und die Komplexität, die das Softwareprozessdesign umgibt. Die Rolle des organisationalen Lernens und des Feedbacks zu verbesserten Entwicklungsprozessen wird ebenfalls als ein kritisches Merkmal dargestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67383-7_33 6d0aeddf92e94041547bef21361adf4e;de;;;3.3.;;;Aktivieren Sie QoS für verteilte Objektanwendungen durch ORB-basiertes aktives Netzwerk Zukünftige Anforderungen zur Unterstützung verteilter Objektanwendungen durch aktive Netzwerke werden diskutiert. Ein Middleware-Ansatz für aktives Networking wird vorgestellt. Eine CORBA-basierte verteilte Verarbeitungsumgebung (DPE) wird als interoperable Dienstplattform in einem aktiven Netzwerk beschrieben, um eine Ende-zu-Ende-QoS für die verteilte Objektkommunikation zu ermöglichen. Drei wichtige Plattformdienste werden vorgestellt, darunter QoS-Bindung, Komponentenverwaltung und Ressourcenkontrolle. Ein Bindungsrahmen wird verbessert, um eine transparente QoS-Bindung zu erreichen, ein aktiver Komponentenverwaltungsdienst wird als eine Außerband-Signalisierung vorgeschlagen, um Dienstobjekte zu installieren, aktive Knotenressourcen werden adaptiv verwaltet, um generische Reservierungsanforderungen zu unterstützen. Insgesamt präsentiert das Papier ein verteiltes Rechenmodell für aktive Netzwerke, so dass aktive Dienste dynamisch als herunterladbare Objekte bereitgestellt werden können, um bei Bedarf verschiedene QoS-Architekturen anzuwenden. Mit diesem Modell profitieren verteilte objektorientierte Systeme direkt von der aktiven Netzwerktechnologie in Bezug auf den QoS-Bedarf.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-40057-5_17 7d3653c3cdc2fb0be1f5c9bd2851979e;de;;;3.3.;;;VOTRIC: Eine hochgradig vorhersagbare fehlertolerante Systemarchitektur VOTRICS ist eine fehlertolerante Systemarchitektur, die eine Vielzahl von Steuerungssystemen mit hoher Verfügbarkeit und Zuverlässigkeit bereitstellen soll. VOTRICS bietet Nachrichtenweiterleitungsdienste zwischen aktiv replizierten Komponenten. Ereignisgetriggerte Anwendungen in lose sowie eng gekoppelten Computersystemen werden unterstützt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-88049-0_77 56449f07a92fba0dd34b3154456b7f81;de;;;3.3.;;;Agentenbasierte adaptive Interaktions- und Dialogverwaltungsarchitektur für Sprachanwendungen In diesem Beitrag stellen wir eine adaptive Architektur für Interaktions- und Dialogmanagement in gesprochenen Dialoganwendungen vor. Diese Architektur ist auf Anwendungen ausgerichtet, die sich der Situation und dem Benutzer anpassen. Wir haben die Architektur als Teil unseres Jaspis-Frameworks für die Entwicklung von Sprachanwendungen implementiert. Wir stellen auch einige Anwendungsprobleme vor, die in Anwendungen entdeckt wurden, die auf Jaspis aufbauen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44805-5_48 f1d3b68e34395e0a6a7a5591aac2fd41;de;;;3.3.;;;KinCA: Ein InfiniBand-Hostkanaladapter basierend auf Dual-Prozessor-Kernen Die InfiniBand-Technologie wird als zukünftige Systemverbindung akzeptiert, um als High-End-Unternehmensstruktur für Cluster-Computing zu dienen. Dieses Whitepaper präsentiert das Design und die Implementierung eines InfiniBand Host Channel Adapters (HCA) basierend auf zwei ARM9-Prozessorkernen. Der HCA ist ein SoC namens KinCA, der einen Hostknoten sowohl in Hardware als auch in Software mit dem InfiniBand-Netzwerk verbindet. Da der ARM9-Prozessorkern nicht die notwendigen Funktionen für die Multiprozessor-Konfiguration bietet, wurden neuartige Inter-Prozessor-Kommunikations- und Interrupt-Mechanismen zwischen den beiden Prozessoren entwickelt und in den KinCA-Chip eingebettet. KinCA wurde als verbessertes 564-Pin-BGA-Gerät (Ball Grid Array) mit 0,18 hergestellt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39737-3_11 3073fe453cd3cbd95961c731d018debf;de;;;3.3.;;;Anwendung von Soft-Computing-Techniken für die Modellierung des Aufwands von Softwareprojekten Die Entwicklungsphase von Softwareprojekten ist eine entscheidende Phase, da die Berechnung des genauen Aufwands und der Kosten eine herausfordernde und mühsame Aufgabe ist, und dafür muss man mehrere Hit-and-Trial-Softwarepraktiken durchlaufen. Es ist die Notwendigkeit jeder Software-Organisation, ihre Software-Projektentwicklung innerhalb des vorgegebenen Zeitplans und Budgets effektiv abzuschließen, um dies zu erreichen, sind traditionelle Ansätze völlig unzureichend, um ihre aktuellen Bedürfnisse abzubilden. Eine Über- und Unterschätzung des Softwareentwicklungsaufwands kann finanzielle Auswirkungen in Form von Personal-, Ressourcen- und Budgetkosten des Softwareprojekts haben. Daher besteht immer ein ständiger Bedarf an einem geeigneten und definierten Modell des Soft Computing, das kombiniert werden kann, um den Aufwand oder die Kosten rechtzeitig abzuschätzen und vorherzusagen. Im vorgestellten Artikel werden die Ansätze des Soft Computing oder des maschinellen Lernens (ML), z. Entscheidungsbaum (DT), Random Forest usw. werden verwendet und verglichen, um das genaue Aufwandsschätzungsmodell zu bewerten, und verschiedene Fehlerbewertungsmetriken werden berechnet und dokumentiert. Dafür haben wir einen prominenten Datensatz berücksichtigt, der chinesischer Datensatz (499) Standardprojektinstanzen ist. Nach dem Training und Testen der Datensätze wurde festgestellt, dass der mittlere absolute Fehler (MAE), die Fehlergröße relativ zum Schätzwert (MER), der Median der MRE (MdMRE), die mittlere relative Fehlergröße (MMRE) und die PRED (25) für Entscheidungsbaum und Random Forest waren signifikant besser als die bestehenden aufgelisteten Techniken. Somit könnten diese Techniken in Betracht gezogen werden, um die Schätzgenauigkeit traditioneller Aufwandsschätzungsmodelle während der Aufwandsberechnung zu verbessern und zu verbessern, so dass die Softwareorganisation ihr Budget entsprechend einhält.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7486-3_21 be1651989d1c673706a753972796343b;de;;;3.3.;;;Data Leakage Prevention System für Smart Grid Mit der großflächigen Anwendung fortschrittlicher Informations- und Kommunikationstechnologien wie drahtlose Kommunikation und Internet der Dinge im Smart Grid wird die Bedrohung durch Viren, Trojaner und Hacker aus dem Internet immer ernster. Im Vergleich zum klassischen Stromnetz stellen die komplexere Zugangsumgebung, flexible Zugangsmethoden und eine Vielzahl von Zugangsterminals im Smart Grid neue Herausforderungen an den Datenschutz. Bestehende Datenverschlüsselungs- und Zugriffskontrollschemata sind nur schwer den tatsächlichen Anforderungen an die Verhinderung von Datenlecks in allen Aspekten des Smart Grid gerecht. Dieses Papier schlägt eine Architektur des Smart Grid Data Leakage Prevention Systems basierend auf Label und Strategie vor und konzentriert sich auf die Entwicklung und Implementierung eines Data Leakage Prevention Systems für Smart Grid aus der Perspektive einer einheitlichen Datenmanagementplattform, Terminal- und Netzwerkdatenleckprävention. Die in diesem Dokument vorgeschlagene Systemdesignarchitektur und -schema kann dazu beitragen, den Datenschutz von Smart-Grid-Daten von der Übertragung bis zur Speicherung zu lösen, und hat einen wichtigen praktischen Referenzwert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7530-3_41 cff3ec24036d83f7782eaf6211537eee;de;;;3.3.;;;CUDA-beschleunigte schnelle Sauvola-Methode auf Kepler-Architektur Die Methode von Sauvola ist eine der besten Binarisierungsmethoden für degradierte Dokumentbilder. Die hohe Rechenkomplexität beschränkt sie jedoch auf nicht zeitkritische Anwendungen. In diesem Papier präsentieren wir eine parallele Implementierung der Sauvola-Methode mit integrierter Bildoptimierung, genannt schnelle Sauvola-Methode, auf GPUs der Nvidia Kepler-Architektur mit CUDA 5.0. Unsere Implementierung wird auf einer GTX 650-Grafikkarte (384 Kerne) evaluiert und zeigt eine durchschnittliche Geschwindigkeitssteigerung von etwa 38 im Vergleich zu einer sequentiellen Implementierung auf einer schnellen CPU.;-;-;-;https://link.springer.com/article/10.1007/s11042-014-2269-7 1cf8a97dce2be180e89627ea2f1248d8;de;;;3.3.;;;Angewandte Virtualität In diesem Artikel werden bestimmte Fragen erörtert, die sich im Zusammenhang mit der Suche nach einer Designtheorie ergeben. Sie beschäftigt sich mit den Bedingungen und Rahmenbedingungen einer solchen Theorie. Wenn man versucht, Design und Wissenschaft durch die Suche nach einer Methodik anzunähern, wird deutlich, dass der vielleicht häufigste Begriff von Design, Design als Problemlösung, an wichtigen Aspekten versagt. Ohne eine entsprechende Architektonik könnte ein Satz systematisch zusammenhängender Methoden allein normatives Handeln nicht legitimieren (auch wenn es sich nur um eine faktische Normativität handeln mag). Sie konnte dies nur als eine spezifische Form des Dogmatismus tun. Hier wird das schwierige Verhältnis von Design und Theorie relevant: Würde Design als Wissenschaft als eine der sogenannten Naturwissenschaften theoretisiert (auf der Suche nach „Natural Design Principles“)? Oder als eine der positiven Wissenschaften (auf der Suche nach ihren „formalen Wirkungsweisen“)? Oder als eine der geisteswissenschaftlichen Disziplinen (auf dem schwierigen Terrain der „semantischen Evaluation“)? Oder gar als eine Art Politik (das Bestreben, abweichende Absichtskonfigurationen zu integrieren)? Dieser Artikel schlägt vor, Design als einen integralen Vektor unter all diesen zu begreifen, und er versucht, mögliche Prinzipien für seine Theorie zu formulieren. Ausgehend von einem Verweis auf den Begriff des „Denkens des Außen“ als eine Art Rationalität, die in der Lage ist, Topologien und Netzwerke zu organisieren, identifizieren wir jenseits der Herrschaft des kartesischen Rasters „Design“ zusätzlich zu den bekannteren Leitlinien unser Denken, nämlich „Operationalisierung“ und „Beschreibung“, als interessanten dritten Pol. Zu diesem Zweck werden die philosophischen Konzepte des Virtuellen und des Differentials als eminent praktische Denkfiguren eingeführt. Der Beitrag schließt mit der Betonung, dass Design konstitutiv eine geregelte Praxis und Verhandlung von und für Prognosen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69002-3_10 9d6aa9be10424deb94d25b4baf19bb11;de;;;3.3.;;;NetSecCC: Eine skalierbare und fehlertolerante Architektur für Cloud-Computing-Sicherheit Wie die Netzwerksicherheit für moderne, auf virtuellen Maschinen basierende Cloud-Computing-Plattformen gewährleistet werden kann, ist noch eine offene Frage. Diese Frage wird wichtiger und dringender zu lösen, als die rasante Entwicklung des Cloud Computing in den letzten Jahren. Obwohl es viele bestehende Lösungen gibt, bieten sie entweder einen unvollständigen Schutz oder vernachlässigen wichtige intrinsische Eigenschaften des Cloud Computing. In diesem Beitrag stellen wir eine neuartige Netzwerksicherheitsarchitektur für Cloud Computing vor (;-;-;-;https://link.springer.com/article/10.1007/s12083-014-0314-y 70e1ec90fdd6a7e8d6a9e3ecbc7aee40;de;;;3.3.;;;Eine Untersuchung des Softwareentwicklungsprozesswissens Wissensmanagement hebt individuelles Wissen auf die organisatorische Ebene, indem es Informationen erfasst, teilt und in organisatorisches Wissen umwandelt. Um ein besseres Verständnis der gravierendsten Softwareprojektrisiken und der Zusammenhänge zwischen den Risiken zu ermöglichen, haben wir Softwareprojektdaten von Entwicklern gesammelt. Diese Daten umfassen Informationen über die Geschäftsleitung, Kunden und Benutzer, Anforderungen, Schätzung und Terminplanung, den Projektleiter, den Softwareentwicklungsprozess und das Entwicklungspersonal. Um unsere Daten zu organisatorischem Wissen zu erheben, haben wir eine Vielzahl von Studien zu diesen Daten durchgeführt und festgestellt, dass der wichtigste Erfolgsfaktor gute Anforderungen waren. Andere kritische Erfolgsfaktoren wurden entweder durch die Anforderungen beeinflusst oder beeinflussten selbst die Entwicklung der Anforderungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-05129-0_2 0f20fbe6a2d2a6bfc71d145becce2104;de;;;3.3.;;;Ein flexibles Framework für die Schätzung von Abdeckungsmetriken in der expliziten Zustandsprüfung von Softwaremodellen Explicit-State Model Checking ist eine gut untersuchte Technik zur Verifikation nebenläufiger Programme. Aufgrund exponentieller Kosten im Zusammenhang mit der Modellprüfung konzentrieren sich Forscher oft darauf, die Modellprüfung auf Softwareeinheiten und nicht auf ganze Programme anzuwenden. Vor kurzem haben wir ein Framework eingeführt, das es Entwicklern ermöglicht, umfangreiche Eigenschaften von Java-Softwareeinheiten mithilfe der Java Modeling Language (JML) zu spezifizieren und zu modellieren. Ein häufig übersehenes Problem in der Forschung zu Modellprüfungssoftwareeinheiten ist das Problem der;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30569-9_11 30ee9bac7e04910284dde8e487974a7f;de;;;3.3.;;;Auf dem Weg zum Aufbau eines Social Internet of Medical Things (SIoMT)-Netzwerks Das Aufkommen des Internet of Medical Things (IoMT) hat enorme Möglichkeiten auf dem Weg zu einer fortschrittlichen Gesundheitsversorgung eröffnet. Der Fortschritt bei tragbaren Sensoren und die Integration von IoT-Technologien in medizinische Anwendungen verändert die Art und Weise, wie wir das Gesundheitswesen erbringen. Außerdem hat das Aufkommen des Social Internet of Things (SIoT)-Paradigmas einen skalierbaren Ansatz zur Handhabung von Interaktionen zwischen IoT-Geräten eingeführt. Dieses Papier erkennt die Vorzüge eines SIoT-Netzwerks gegenüber einem herkömmlichen IoT-Netzwerk an und sieht die Einbindung von sozial aktiviertem IoT in eine intelligente Gesundheitsversorgung, die als Social Internet of Medical Things (SIoMT) bezeichnet wird, durch einen Vorschlag eines Cloud-basierten Frameworks für SIoMT-Systeme vor. Das vorgeschlagene Framework wird semantisch modelliert und mit Hilfe von semantischen Websprachen instanziiert. Darüber hinaus wurde ein Beziehungsmanagement-Ansatz definiert, um Beziehungen zwischen SIoMT-Geräten zu handhaben.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9019-1_17 b6e3d697431f5107c6204d95b4147e98;de;;;3.3.;;;Eine auf CNN basierende Hybridarchitektur für die modale semantische Instanzannotation Mit dem schnellen Wachstum verschiedener Mediendaten ist die effektive Verwaltung und Wiedergewinnung von Multimediadaten zu einem dringend zu lösenden Problem geworden. Aufgrund der semantischen Lücke ist das Überwinden der semantischen Lücke ein schwieriges Problem für die semantische Bildannotation geworden. In diesem Beitrag wird ein hybrider Ansatz vorgeschlagen, um automatisch semantische Bildkonzepte zu lernen, der als CNN-ECC bezeichnet wird. Es gliedert sich in die beiden Prozesse generatives Merkmalslernen und diskriminatives semantisches Lernen. In der Merkmalslernphase wird das neu gestaltete konvolutionelle neuronale Netz (CNN) für das Merkmalslernen anstelle der traditionellen Methoden des Merkmalslernens verwendet. Außerdem hat das rekonstruierte CNN-Modell die Fähigkeit, Multi-Instanz-Features zu lernen, die die Darstellung der Bildmerkmale beim Extrahieren von Merkmalen aus Bildern mit mehreren Instanzen verbessern können. In der semantischen Lernphase werden die Ensembles von Classifier Chains (ECC) basierend auf den erhaltenen visuellen Merkmalen für das semantische Lernen trainiert. Darüber hinaus können die Ensembles von Klassifiziererketten eine semantische Assoziation zwischen verschiedenen Labels lernen, wodurch die Erzeugung redundanter Labels beim Lösen von Klassifikationsaufgaben mit mehreren Labels effektiv vermieden werden kann. Darüber hinaus bestätigen die experimentellen Ergebnisse, dass der vorgeschlagene Ansatz für die semantische Bildannotation effektiver und genauer ist als der Stand der Technik.;-;-;-;https://link.springer.com/article/10.1007/s11042-017-4764-0 b3cf31cd68a4701f18a776ab13fa935a;de;;;3.3.;;;MEBRS: Eine Multiagenten-Architektur für ein erfahrungsbasiertes Argumentationssystem Dieses Papier untersucht acht verschiedene Inferenzregeln für erfahrungsbasiertes Denken (EBR) und schlägt eine Multiagentenarchitektur für ein EBR-System vor, die eine wichtige Grundlage für die Entwicklung von Multiagenten-EBR-Systemen (EBRS) darstellt. Die vorgeschlagene Architektur besteht aus einer globalen Erfahrungsbasis (GEB) und einer Multi-Inferenz-Engine (MIE), die den Mechanismus zur Implementierung von acht Argumentationsparadigmen basierend auf acht Inferenzregeln für EBR darstellt. Der vorgeschlagene Ansatz wird die Erforschung und Entwicklung von Erfahrungsmanagement, wissensbasierten Systemen und der Erkennung von Betrug und Täuschung im elektronischen Handel erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/11552413_139 a8f9b797363459743e3f23e875c34265;de;;;3.3.;;;Eine allgemeine Architektur für die dezentrale Überwachung von Systemen mit diskreten Ereignissen Wir betrachten eine verallgemeinerte Form der herkömmlichen dezentralisierten Steuerungsarchitektur für Systeme mit diskreten Ereignissen, bei der die Steuerungsaktionen einer Gruppe von Supervisoren durch Vereinigung und Schnittmenge aktivierter Ereignisse „fusioniert“ werden können. Die Aufseher stimmen nämlich a priori überein, „Fusion by union“ für bestimmte steuerbare Ereignisse und „Fusion by Kreuzung“ für bestimmte andere steuerbare Ereignisse auszuwählen. Wir zeigen, dass unter dieser Architektur eine größere Klasse von Sprachen erreicht werden kann als zuvor, da eine gelockerte Version des Begriffs der Co-Beobachtbarkeit in den notwendigen und hinreichenden Bedingungen für die Existenz von Supervisoren erscheint. Die rechnerische Komplexität der Überprüfung dieser neuen Bedingungen wird untersucht. Es wird ein Verfahren zur Aufteilung der steuerbaren Ereignisse zwischen „Fusion by Union“ und „Fusion by Kreuzung“ vorgestellt. Die algebraischen Eigenschaften der Co-Beobachtbarkeit im Kontext dieser Architektur werden vorgestellt. Wir zeigen, dass geeignete Kombinationen von Fusionsregeln mit entsprechenden entkoppelten lokalen Entscheidungsregeln die Sicherheit des Regelkreisverhaltens in Bezug auf eine gegebene, nicht mitbeobachtbare Spezifikation garantieren. Wir charakterisieren eine „optimale“ Kombination von Fusionsregeln unter diesen Kombinationen, die die Sicherheit des Regelkreisverhaltens garantieren. Darüber hinaus wird eine einfache Supervisor-Synthesetechnik vorgestellt, die die infimale präfixgeschlossene steuerbare und co-beobachtbare Supersprache erzeugt.;-;-;-;https://link.springer.com/article/10.1023/A%3A1015625600613 1edc520b36b477f8885f628449732889;de;;;3.3.;;;DMA-Malware verstehen Angreifer suchen ständig nach Möglichkeiten, illegale Aktivitäten gegen Computerplattformen zu tarnen. Verstohlene Angriffe sind bei Wirtschaftsspionage und auch bei Kriminellen, die Bankdaten stehlen, erforderlich. Moderne Computer enthalten dedizierte Hardware wie Netzwerk- und Grafikkarten. Solche Geräte implementieren unabhängige Ausführungsumgebungen, haben aber direkten Speicherzugriff (DMA) auf den Host-Laufzeitspeicher. In dieser Arbeit stellen wir DMA-Malware vor, d. h. Malware, die auf dedizierter Hardware ausgeführt wird, um mit DMA heimliche Angriffe auf den Host zu starten. DMA-Malware geht über die Fähigkeit hinaus, DMA-Hardware zu kontrollieren. Wir haben DAGGER implementiert, einen Keylogger, der Linux- und Windows-Plattformen angreift. Unsere Auswertung bestätigt, dass DMA-Malware Kernel-Strukturen effizient angreifen kann, selbst wenn die Randomisierung der Speicheradressen vorhanden ist. DMA-Malware ist bis zu einem Punkt heimlich, an dem der Host ihre Anwesenheit nicht erkennen kann. Wir evaluieren und diskutieren mögliche Gegenmaßnahmen und die (In-)Wirksamkeit von Hardware-Erweiterungen wie z. B. Input/Output Memory Management Units.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37300-8_2 76bfc7cff7362dcaa4c5a26543dcf288;de;;;3.3.;;;Adaptive vorkonditionierte iterative lineare Erkennung und Architektur für massiven MU-MIMO-Uplink Als Ermöglichungstechnik für die drahtlose 5G-Kommunikation kann das MIMO-System (Massive Multiple Input Multiple Output) die Kapazitätseffizienz drastisch erhöhen. Einige Hunderte von Antennen führen jedoch unweigerlich zu einer beträchtlichen Komplexität und behindern daher ihre direkte Einführung. Obwohl die iterativen Verfahren nach dem Stand der Technik (SOA) wie die Detektion mit konjugierten Gradienten (CG) einen Komplexitätsvorteil gegenüber den herkömmlichen wie der MMSE-Detektion zeigen, verlangsamen sich ihre Konvergenzraten, wenn die Antennenkonfigurationen komplizierter werden. Zu diesem Zweck widmet sich dieses Papier zunächst der Untersuchung der Konvergenzeigenschaften iterativer linearer Löser und nutzt dann die vorgeschlagene adaptive Vorbedingungstechnik, um die Konvergenzrate zu verbessern. Diese adaptive Vorbedingungstechnik ist allgemein und wurde als Vorzeigebeispiel in die Erkennung des steilsten Abstiegs (SD) integriert. Zur weiteren Komplexitätsreduktion wird eine angenäherte Berechnung für Log-Likelihood-Verhältnisse (LLRs) vorgeschlagen. Analytische und numerische Ergebnisse haben gezeigt, dass der adaptive vorkonditionierte SD (APSD)-Detektor bei gleicher Iterationszahl den CG-Detektor um 1 dB übertrifft, wenn BER = 10;-;-;-;https://link.springer.com/article/10.1007/s11265-017-1317-8 42899e4323a1422abfd712d228ae6038;de;;;3.3.;;;Entwicklung von Pervasive Multiagent Systems in SAPERE Angesichts der Zunahme agentenbasierter Modelle und Technologien im letzten Jahrzehnt hängt die Anwendbarkeit agentenorientierter Techniken auf das Engineering komplexer Systeme wie Pervasive Computing heute entscheidend von der Verfügbarkeit und Effektivität agentenorientierter;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45343-4_11 fa7d9ef6c2e22b6b388aa96d82358768;de;;;3.3.;;;Ein Hochdurchsatz-VLSI-Architekturdesign eines arithmetischen Encoders in JPEG2000 Der arithmetische Encoder (AE) ist ein Durchsatzengpass des gesamten JPEG2000-Encodersystems. Aber seine sequentielle Natur führt zu einer Schwierigkeit, seinen Durchsatz zu verbessern. Um diesen Engpass zu überwinden, wird eine Hochdurchsatz-AE vorgeschlagen, die in der Lage ist, ein Symbol pro Takt zu codieren. Zunächst werden die Korrelationen zwischen den sequentiellen Kontextpaaren und ihrer Entscheidung analysiert. Darüber hinaus werden die Burst-Nummer von CX und die Burst-Nummer des Indexwerts untersucht. Aufgrund dieser Analysen wird eine Schlussfolgerung gezogen, um ein Abwürgen des AE zu verhindern, wenn die Burst-Nummer des Kontexts größer als eins ist. Basierend auf dieser Schlussfolgerung wird ein „Index-Arbiter“-Verfahren eingeführt, das den Durchsatz stark erhöht. Weiterhin sind die Wahrscheinlichkeiten unterschiedlicher Einstellarten für das Intervallregister A und das Coderegister C vor der Renormierung angegeben. Auf der Grundlage dieser Daten wird ein Detektor für führende Nullen vorgeschlagen, um das Renormierungsverfahren zu vereinfachen. Schließlich werden die Gesamtzahl und die maximale Burst-Zahl der Zwei-Byte-Emission angegeben. Gemäß diesen Ergebnissen wird eine FIFO-Größe von 43 × 4 eingeführt, um zu verhindern, dass die Pipeline anhält, wenn eine Zwei-Byte-Emission auftritt. Die vorgeschlagene Architektur wird mit der TSMC0.18 μm HS-Technologiebibliothek der Firma ARM synthetisiert. Das Implementierungsergebnis zeigt, dass der Durchsatz der vorgeschlagenen Architektur 547Msymbols/s mit einer Fläche von 79.012,84 μm . beträgt;-;-;-;https://link.springer.com/article/10.1007/s11265-014-0945-5 5bef922c6ceeb81891a8b2f79d8be393;de;;;3.3.;;;Leistungsanalyse der IPv6- und NDN-Internetarchitektur in einer IoT-Umgebung Von den Anfängen des Internets bis heute hat die Zahl der Internetnutzer im Laufe der Zeit drastisch zugenommen. In der heutigen Zeit geht es nicht nur um das Internet der Menschen, sondern auch intelligentere und unabhängige Geräte, die miteinander verbunden sind, haben eine neue Technologie „Internet der Dinge“ hervorgebracht. Das Internet der Dinge hat sich zu einem Schritt in der Internet-Evolution entwickelt. Es bündelt die Erkenntnisse von Milliarden von Sensoren und vernetzten Geräten, die enorme Daten sammeln, um relevante Entscheidungen zu treffen. Um mit dieser neuen Welle im Internet Schritt zu halten, wurden Änderungen am aktuellen TCP-/IP-basierten Internetmodell vorgenommen und auch eine neue zukünftige Internetarchitektur NDN eingeführt. Der Hauptgrund für diese Arbeit besteht darin, aufzuzeigen, welche Internetarchitektur am besten geeignet ist, die Anforderungen für das zukünftige Web und das Internet der Dinge zu erfüllen. Diese Arbeit wird dazu beitragen, die Lücken zu ermitteln, die für diese Internetarchitekturen (IPv6 und NDN) geschlossen werden müssen, um den wachsenden Anforderungen des Internets der Dinge gerecht zu werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-5802-9_51 52b91efa82b7468c5e644326a014a8e2;de;;;3.3.;;;Ein Framework für die Integration von Legacy-Geräten in eine Jini-Management-Föderation Die Verwaltung heterogener Netzwerke mit vielen Geräten ist eine mühsame und zeitraubende Aufgabe. Heutige Ansätze stellen nur statische Konfigurationsdateien bereit und machen das Hinzufügen und Entfernen von Geräten zu einer manuellen Arbeit. In diesem Beitrag präsentieren wir ein Framework für die Integration von Legacy-Geräten basierend auf;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48100-1_20 4c6793c4b90ba8ef877782986a6fa1c9;de;;;3.3.;;;Über den polynomial-dynamischen Systemansatz für die Softwareentwicklung In diesem Beitrag wird die Entwicklung reaktiver Software in ein Regelungsproblem transformiert, und die Überwachungstheorie für dynamische Systeme mit diskreten Ereignissen wird vorgeschlagen, um dieses Regelungsproblem zu lösen. Dabei wird die betrachtete Betriebsumgebung als geregelte Anlage, die in Entwicklung befindliche Software als entsprechende Steuerung und die Software-Anforderungen als entsprechendes Steuerungsziel betrachtet. Diese Idee führt zu einem konstruktiven Ansatz des Softwaredesigns, der die erforderlichen Eigenschaften sicherstellt;-;-;-;https://link.springer.com/article/10.1007/BF02901657 d48005b64a5c539b1f4a4932b29ccf65;de;;;3.3.;;;Eine neue Bluetooth-Sicherheitsarchitektur Das Papier schlägt eine neue Bluetooth-Sicherheitsarchitektur vor, die auf Benutzerauthentifizierung und chaotischer Bildverschlüsselung basiert. Der Algorithmus ist in der Lage, Man-in-Middle-Angriffe zu überwinden und die Privatsphäre für das Bild wird durch einen schnellen Verschlüsselungsalgorithmus basierend auf chaotischer Verschlüsselung gewährleistet. Die chaotische Verschlüsselung erzeugt den Schlüssel mithilfe eines Pseudozufallszahlengenerators. Es ist ein Stromchiffrierverfahren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24043-0_51 6e2969892a00c793c6f98e16a23a107e;de;;;3.3.;;;Big-Data-Architektur für marokkanische Wasserakteure: Vorschlag und Wahrnehmung Die Wasserdaten werden aus synchronen und/oder asynchronen Beobachtungen von Gewässern erzeugt. Ziel dieser Beobachtungen ist es, das Wasserressourcenmanagement zu unterstützen. Die Wasserentitäten und -konzepte geben allen gesammelten Daten Bedeutung. Diese Einheiten sind heterogen, mit einer Fülle von Attributen und sehr unterschiedlichen Funktionen. In diesem Beitrag werden die Schritte zur Charakterisierung der Entitäten für Wasserressourcen in Marokko vorgestellt. Aus Reisearbeiten, Interviews mit Experten und Beobachtungen mit marokkanischen Akteuren. In einem zweiten Schritt werden wir dann eine Vision zu einer Big-Data-Architektur für Wasserressourcen in Marokko vorschlagen, die von den öffentlichen Verwaltungen genutzt werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6893-4_23 8b8fb2f82d6bf84f3b46efbb993300c3;de;;;3.3.;;;Datenbankfunktionalität Die gleichzeitige Verarbeitung ist eine wichtige Funktion bei jeder Datenbankverarbeitung, da sie Benutzern den gleichzeitigen Zugriff, die gemeinsame Nutzung von Daten und die konsistente Aktualisierung von Datenbanken ermöglicht. Eine Transaktion repräsentiert a;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-0862-4_15 66b973ce7a9b0f2b946ad9a36a65292a;de;;;3.3.;;;Vorhersage von Softwaredefekten in unausgeglichenen Datensätzen mit unvoreingenommener Support Vector Machine Beim Software-Assurance-Prozess ist es entscheidend, zu verhindern, dass ein Programm mit defekten Modulen für Benutzer veröffentlicht wird, da dies Wartungskosten sparen und die Softwarequalität und -zuverlässigkeit erhöhen kann. Es gab viele frühere Versuche, Fehler automatisch durch Anwendung konventioneller Klassifikationstechniken zu erfassen, z. B. Decision Tree, k-NN, Naive Bayes usw. Ihre Erkennungsleistung war jedoch aufgrund des unausgeglichenen Problems begrenzt, da die Anzahl der defekten Module sehr klein ist im Vergleich zu nicht defekten Modulen. Dieses Papier zielt darauf ab, eine hohe Vorhersagerate durch den Einsatz einer unverzerrten SVM namens „R-SVM“ zu erreichen, unserer Version von SVM, die auf Domänen mit unausgeglichenen Klassen zugeschnitten ist. Das Experiment wurde im Datensatz des NASA Metric Data Program (MDP) durchgeführt. Das Ergebnis zeigte, dass unser vorgeschlagenes System alle wichtigen traditionellen Ansätze übertraf.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46578-3_110 3bee76ad24ee2ae971c280b5ba59c0bc;de;;;3.3.;;;Sicherheitsanforderungsmanagement im Software-Produktlinien-Engineering Security Requirements Engineering ist aufgrund der Komplexität und Weitläufigkeit von Produktlinien sowohl eine zentrale Aufgabe als auch ein kritischer Erfolgsfaktor in der Produktlinienentwicklung. Die meisten der aktuellen Produktlinien-Praktiken im Requirements Engineering befassen sich jedoch nicht angemessen mit dem Security Requirements Engineering. Daher werden wir in diesem Kapitel einen Sicherheitsanforderungs-Engineering-Prozess (SREPPLine) vorschlagen, der von Sicherheitsstandards gesteuert wird und auf einem Entscheidungsmodell für Sicherheitsanforderungen zusammen mit einem Sicherheitsvariabilitätsmodell basiert, um die Variabilität der Artefakte in Bezug auf Sicherheitsanforderungen zu verwalten. Ziel dieses Ansatzes ist es, Sicherheitsanforderungen bereits in den frühen Phasen der Produktlinienentwicklung systematisch zu behandeln, um die Einhaltung der relevantesten Sicherheitsstandards im Hinblick auf das Management von Sicherheitsanforderungen, wie z. B. ISO/IEC ., zu erleichtern 27001 und ISO/IEC 15408.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05197-5_18 a25fd887525de05c1f339681968020dc;de;;;3.3.;;;Partikelschwarmoptimierung und auf genetischer Mutation basierende Routing-Technik für IoT-basierte homogene softwaredefinierte WSNs Die jüngsten Fortschritte bei drahtlosen Sensornetzwerken haben sich zu einem offenen System entwickelt, das dynamisch umkonfiguriert werden kann. Im Allgemeinen weisen diese Netzwerke unterschiedliche Einschränkungen und Herausforderungen auf, wie z Pfad, um die gesammelten Daten so zu übertragen, dass möglichst wenig Energie dabei verbraucht wird. Die Kontrollknoten sind für die Aufgabenzuweisung und Datenübertragung bei den Cluster-basierten Routing-Techniken verantwortlich. Die Auswahl des Kontrollknotens ist ein NP-schweres Problem. In diesem Beitrag wird ein adaptives PSO-Ensemble (Particle Swarm Optimization) mit auf genetischer Mutation basierendem Routing vorgestellt, um Kontrollknoten für IOT-basiertes softwaredefiniertes WSN auszuwählen. Das vorgeschlagene Verfahren spielt eine bedeutende Rolle bei der Auswahl der Kontrollknoten basierend auf dem Fitnesswert. Der Fitnesswert berücksichtigt Energie- und Distanzparameter. Zunächst wird die vorgeschlagene Arbeit für homogene Knoten implementiert, die mit einzelnen und mehreren Senken bereitgestellt werden können. Darüber hinaus kann die vorgeschlagene Arbeit auch für heterogene Sensorknoten mit unterschiedlicher Rechenleistung, begleitet von einzelnen und mehreren Senken, implementiert werden. Das Simulationsergebnis des vorgeschlagenen Verfahrens übertrifft einige andere existierende Algorithmen unter den verschiedenen Anordnungen des Netzwerks.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8297-4_12 2851379fd54a8d9abf657f8455457654;de;;;3.3.;;;Computergestützte Fluiddynamik-basierte Simulation des Wärmeübergangs durch Vakuumglas Der Wärmeübertragungsprozess von Vakuumglas ist sehr kompliziert. Insbesondere der Wärmeübertragungsprozess von funktionalem Vakuumglas, der die Kopplung von Wärmeleitung, Konvektion und Strahlung beinhaltet, hat keine exakte mathematische Lösung. Der wichtigste Parameter für die thermischen Eigenschaften von Vakuumglas, der Wärmedurchgangskoeffizient, ist online schwer zu messen, da er mit der Zeit ansteigt und dadurch die Wärmedämmleistung sinkt. Daher ist eine schnelle und genaue Messung bei einem verwendeten Vakuumglas schwierig. Diese Studie wurde durchgeführt, um eine effiziente Methode zur Simulation der Wärmeübertragung durch Vakuumglas zu entwickeln. Zu diesem Zweck wurde basierend auf fortschrittlicher numerischer Simulationstechnologie eine Software für numerische Strömungsmechanik verwendet, um den Wärmeübertragungsprozess zu analysieren, und die Simulationsergebnisse wurden verwendet, um das instationäre Testverfahren zu leiten und zu analysieren. Es wurde festgestellt, dass bei Verwendung einer kreisförmigen Heizplatte zum Erhitzen der Seite des Vakuumglases das Verhältnis des Radius der Heizplatte zur Dicke des Vakuumglases drei überschreiten sollte. Dieser Ansatz garantiert, dass die Mitte der Heizplatte einen eindimensionalen Wärmeübergang erfährt und die Temperaturmessung im Zentrum der nicht beheizten Oberfläche von praktischer Bedeutung ist.;-;-;-;https://link.springer.com/article/10.1140/epjp/i2019-12737-4 f541430dbb20fd245e50f83ff88423ff;de;;;3.3.;;;Leistungsanalyse für Schablonen-basierten 3D-MPDATA-Algorithmus auf GPU-Architektur EULAG (Eulerian/Semi-Lagrange-Fluid Solver) ist ein etabliertes Rechenmodell zur Simulation von Thermofluidströmungen über eine Vielzahl von Skalen und physikalischen Szenarien. Der mehrdimensionale positiv definierte Advektionstransportalgorithmus (MPDATA) gehört zu den zeitaufwendigsten Komponenten von EULAG.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55224-3_15 716603bd02cd3ea51d3a4d57eb5c6514;de;;;3.3.;;;Einsatz der E-Learning-Plattform zur Überwachung und Steuerung des Lehr- und Lernprozesses Um den Lehr- und Lernprozess in Echtzeit zu überwachen und zu steuern, wird die E-Learning-Plattform über Computernetzwerk, Programmiersprache und Datenbank entwickelt. Dieser Artikel beschreibt die Implementierung der Plattform und stellt die Module der E-Learning-Plattform vor, mit denen Lehrkräfte die Wirkung des Unterrichts überwachen können, Studierende die Wirkung des Lernens kennen und Lehrkräfte die Feedback-Echtzeitbewertung des Unterrichts durch die Studierenden kennen können. Dadurch können Lehrende und Studierende ihre Lehr-Lern-Methoden, -Inhalte und -Zeitpläne anpassen und die Lehr-Lern-Qualität wird verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22418-8_39 99827ef4042b94cf4b51834ee4e5a805;de;;;3.3.;;;Ein neuartiges Design eines flexiblen Krypto-Coprozessors und seine Anwendung Die Beschleunigung von Sicherheitsprotokollen war aufgrund der Komplexität von Kryptoalgorithmen eine große Herausforderung für Allzweckprozessoren. Die meisten Kryptoalgorithmen werden auf Funktionsebene zwischen verschiedenen Sicherheitsprotokollen verwendet. Wir schlagen eine neuartige flexible Krypto-Coprozessorarchitektur vor, die auf rekonfigurierbaren kryptografischen Blöcken (RCBs) beruht, um ein Gleichgewicht zwischen hoher Leistung und Flexibilität zu erreichen und die Architektur für Sicherheitsanwendungen auf FPGA zu implementieren. Die Pipelining-Technik wird verwendet, um parallele Daten zu realisieren und die Kommunikationskosten zu reduzieren. Wir betrachten mehrere Kryptoalgorithmen als Beispiele, um das Design des RCB im FC-Coprozessor zu veranschaulichen. Schließlich erstellen wir einen Prototyp des FC-Coprozessors auf einem Xilinx XC5VLX330 FPGA-Chip. Die Versuchsergebnisse zeigen, dass der Coprozessor mit 216 MHz die softwarebasierte Dateiverschlüsselung auf einer Intel Core i3 530 CPU mit 2,93 GHz für typische Verschlüsselungsanwendungen um den Faktor 29 übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44491-7_10 6f05ca30d6a2cfac07d67135ae6ba040;de;;;3.3.;;;Architektonische Bausteine ​​für das Plug-and-Play-Systemdesign Eines der Unterscheidungsmerkmale verteilter Systeme ist die Bedeutung der Interaktionsmechanismen, die verwendet werden, um zu definieren, wie die sequentiellen Komponenten miteinander interagieren. Angesichts der Komplexität des beschriebenen Verhaltens und des großen Gestaltungsraums verschiedener Alternativen ist die Auswahl geeigneter Interaktionsmechanismen schwierig. In diesem Papier schlagen wir einen komponentenbasierten Spezifikationsansatz vor, der es Designern ermöglicht, mit alternativer Interaktionssemantik zu experimentieren. Unser Ansatz ist auch in die Design-Time-Verifikation integriert, um Feedback über die Korrektheit des gesamten Systemdesigns zu geben. Bei diesem Ansatz werden Konnektoren, die eine spezifische Interaktionssemantik repräsentieren, aus wiederverwendbaren Bausteinen zusammengesetzt. Standard-Kommunikationsschnittstellen für Komponenten werden definiert, um die Auswirkungen sich ändernder Interaktionen auf die Berechnungen der Komponenten zu reduzieren. Die erhöhte Wiederverwendbarkeit sowohl von Komponenten als auch von Konnektoren ermöglicht auch Einsparungen bei der Modellkonstruktionszeit für die endliche Verifikation.;-;-;-;https://link.springer.com/chapter/10.1007/11783565_7 800268226d9d1a50655a9780c0d56021;de;;;3.3.;;;Geografische Automatensysteme und die OBEUS-Software für deren Implementierung Das Konzept des Geographic Automata Systems (GAS) formalisiert eine objektbasierte Sicht auf die Stadtstruktur und -funktion, die OBEUS-Software setzt diese Sicht auf die operative Ebene um. Der Beitrag stellt das GAS-Paradigma und die neueste benutzerfreundliche Version von OBEUS vor, letztere basiert auf der .NET-Technologie und wurde nach der OODBMS-Logik entwickelt. OBEUS fördert die Weiterentwicklung der GAS-Theorie, insbesondere im Hinblick auf den Umgang mit Zeit in Modellen, die Kollektive multipler interagierender autonomer urbaner Objekte beschreiben. Wir behaupten, dass alle uns bekannten hochauflösenden städtischen Zellularautomaten und Multi-Agenten-Modelle in GAS-Begriffen beschrieben und als OBEUS-Anwendungen dargestellt werden können. GAS und OBEUS können somit als universeller, übertragbarer Rahmen für die objektbasierte Stadtsimulation dienen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-29710-3_9 14260f3a728a1c79b945584c0320b6a8;de;;;3.3.;;;Ein reflektierender Ansatz zum Entwerfen komponentenbasierter verteilter Echtzeitanwendungen Komponentenbasiertes Software-Engineering (CBSE) hat sich bei der Entwicklung und Verwaltung verteilter Softwaresysteme als effektiv erwiesen, und das Komponentenmodell ist die Grundlage dieses Ansatzes. Aktuell treten einige Herausforderungen beim Aufbau zeitkritischer Anwendungen für die verteilten Systeme auf Basis aktueller Komponentenmodelle auf. Die Probleme bleiben, dass Komponentenmodelle selbst die beiden Hauptmerkmale verteilter Echtzeitsysteme nicht übernommen haben: Timing-Eigenschaften und dynamische Eigenschaften. Infolgedessen müssen komponentenbasierte verteilte Systeme mit Timing-Beschränkungen zusätzlich die nicht-funktionalen Anforderungen bewältigen und können nicht weiter vom CBSE profitieren. Um die Probleme zu lösen und die Entwicklung verteilter Echtzeitanwendungen im Client-Server-Rechenmuster zu erleichtern, wird in diesem Beitrag ein reflektierender Ansatz zum Entwurf komponentenbasierter verteilter Echtzeitanwendungen vorgestellt. Das reflektierende Design spezifiziert die Geschäftslogik der Komponente und ihre Timing-Constraint-Eigenschaften, öffnet die innere Realisierung der Komponente und führt eine Trennung von Funktionalität und Nicht-Funktionalität während des Designs und der Laufzeit durch. Um diesen Entwurfsansatz zu validieren, wird ein Beispiel durchgeführt. Experimentelle Ergebnisse zeigen, dass die Timing-Eigenschaften einer Anwendung durch die Anwendung dieses Designansatzes von den Komponenten selbst erfüllt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23226-8_8 f2358e3fac17d2dcf6d9a1aad4569f0e;de;;;3.3.;;;Multiagent-Architektur (BlueAgents) mit der Dynamic Pricing- und Maximum-Profit-Strategie im TAC SCM In diesem Papier schlagen wir eine neue Agentenarchitektur (BlueAgents) mit der Dynamic Pricing and Maximum Profit Strategy (DPMPS) vor. BlueAgents, die wir designen, zeigt den Ablauf des Handels als Angebotsanfrage, Angebot und Order basierend auf dem Zeitrahmen anschaulich und wir beschreiben die Funktionsbausteine, aus denen BlueAgents besteht. Einer der Schwerpunkte der Entscheidungsfindung in einem Supply Chain Management für den Handelsagentenwettbewerb (TAC SCM) ist die Optimierung des Angebotspreises unter der Unsicherheit. Der Preis ist ein wichtiger Faktor für die Maximierung des Nutzens durch das Bieterverfahren im Wettbewerb mit anderen Maklern. DPMPS ist ein Benchmarking-Modell, um dynamisch realistische optimale Angebotspreise für Gebote zwischen einem geschätzten Angebotspreis und einem regressierten Preis des aktuellen Marktes vorherzusagen, nachdem ein optimierter Angebotspreis zur Gewinnmaximierung geschätzt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/11589990_168 04cabfb976f93bda9a02989db7b2f3e0;de;;;3.3.;;;Eine rekonfigurierbare PV-Architektur basierend auf einem neuen Einstrahlungsausgleichsalgorithmus Im Falle einer teilweisen Verschattung oder eines Ausfalls von Photovoltaik (PV)-Modulen nimmt die Leistung der Photovoltaikanlage erheblich ab. Eine vielversprechende Technik zur Minderung dieser Leistungsverluste basiert auf der dynamischen Neukonfiguration der elektrischen Verbindungen zwischen den PV-Modulen. Dieser Artikel schlägt eine rekonfigurierbare PV-Architektur vor, die auf einer Total-Cross-Tied (TCT)-Konfiguration und einem verbesserten Bestrahlungsausgleichsalgorithmus (IrEq) basiert. Die PV-Architektur mit dem vorgeschlagenen Optimierungsalgorithmus wurde unter Verwendung der Matlab/Simulink-Umgebung simuliert und mit dem grundlegenden Ausgleichsbestrahlungsalgorithmus verglichen. Die Vorteile des vorgeschlagenen Algorithmus sind Einfachheit und sinnvolle Bereitstellungsverbesserungen bei der Array-Energieerzeugung zusammen mit der reduzierten Verarbeitungszeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1405-6_56 603aa746be2a457b596583c13e35b4b5;de;;;3.3.;;;Scan-to-XML: Verwendung von Softwarekomponenten-Algebra für die intelligente Dokumentengenerierung Das Hauptziel dieses Papiers ist es, einen neuen Ansatz zur Entwicklung einer Dokumentenanalyseplattform auf hohem Niveau zu testen, indem vorhandene Komponenten aus einer umfassenden Bibliothek modernster Algorithmen zusammengesetzt werden. Ausgehend von der Beobachtung, dass die Dokumentenanalyse als geschichtete Pipeline durchgeführt wird, die Syntax als Eingabe verwendet und Semantik als Ausgabe auf jeder Schicht erzeugt, führen wir das Konzept von a;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45868-9_18 58c7ed1abc884ad9d69be03452f914ae;de;;;3.3.;;;Automatische Erstellung einer vertrauenswürdigen Cluster-Computing-Umgebung Trusted Computing ist eine von der Trusted Computing Group (TCG) vorgeschlagene Technologie zur Lösung von Sicherheitsproblemen in Computern. Es wurde viel Arbeit geleistet, um Trusted Computing für einzelne Computer zu unterstützen, jedoch wurde wenig für verteilte Systeme (z. B. Cluster) getan. Wenn bösartige oder unqualifizierte Anwendungen auf Cluster-Knoten bereitgestellt werden, können Benutzer gefälschte Ergebnisse erhalten oder ihre Daten können durchsickern. In diesem Papier wird eine Methodik des Trusted Cluster Computing (TCC) vorgeschlagen, um automatisch benutzervertrauenswürdige Cluster-Computing-Umgebungen zu erstellen. Benutzerdefinierte Anwendungen werden von benutzerdefinierten Speicherorten heruntergeladen und automatisch und dynamisch auf Clusterknoten bereitgestellt. Um den Overhead der dynamischen Bereitstellung zu reduzieren, wird auch eine neuartige heuristikbasierte Overhead-Reducing (HOR)-Ersetzungsstrategie vorgeschlagen. Ein hochgradig konfigurierbarer Simulator wurde implementiert, um eine Reihe von Simulationen durchzuführen. Die Simulationsergebnisse zeigen, dass der HOR mit einer typischen Einstellung des Durchschnittes eine durchschnittliche Geschwindigkeit von bis zu 14% (leichte Arbeitsbelastung), 10% (mittlere Arbeitsbelastung), 8% (starke Arbeitsbelastung) höher als bei LRU-basierten Strategien erzielen kann Das Verhältnis von Bereitstellungszeit zu Ausführungszeit (ARDE) beträgt 0,2.;-;-;-;https://link.springer.com/article/10.1007/s11227-009-0315-4 8b9c06f081daef4a08f7ca6f5d57f5d5;de;;;3.3.;;;Goodput-Optimierung durch dynamische Framelängen- und Ladezeitanpassung für Backscatter-Kommunikation Computational Radio Frequency Identification (CRFID)-Sensoren stellen eine neue Grenze für die durchdringende Erfassung und Datenverarbeitung dar. Sie nutzen Umgebungslicht oder Radiofrequenz (RF) zur Energiegewinnung und nutzen die Backscatter-Kommunikation mit einem RFID-Lesegerät zur Datenübertragung. Im Gegensatz zu herkömmlichen RFID-Tags, die nur Kennungen übermitteln, müssen CRFID-Sensoren bei jedem Kontakt potenziell große Datenmengen an ein Lesegerät übertragen. Das vorhandene EPC Gen2-Protokoll ist im Umgang mit einer kleinen Anzahl von CRFID-Sensoren, die eine große Menge gepufferter Daten an das RFID-Lesegerät übertragen, ineffizient und hat kein spezielles Design für die Anpassung an dynamische Energiegewinnung und Kanalbedingungen. In diesem Artikel schlagen wir vor, dynamische Frame-Länge und Ladezeiten für die CRFID-Backscatter-Kommunikation zu verwenden, um sich an die sich ändernden Energy Harvesting- und Kanalbedingungen anzupassen und den System-Goodput zu verbessern. Zuerst werden eine optimale Rahmenlänge und Ladezeit, die den Goodput maximiert, durch Lösen des formulierten Goodput-Optimierungsproblems erhalten. Dann schlagen wir ein dynamisches Rahmenlängen- und Ladezeitanpassungsschema (DFCA) vor, das die Rahmenlänge und Ladezeit zur Laufzeit basierend auf der Goodput-Messung erhöht oder verringert. Simulationen zeigen, dass unser vorgeschlagenes DFCA-Schema den aktuellen Ansatz mit fester Rahmenlänge übertrifft und unter verschiedenen Energie-Harvesting- und Kanalbedingungen theoretisch optimal konvergieren kann.;-;-;-;https://link.springer.com/article/10.1007/s12083-016-0480-1 65e682533f7db4f4bc6178d920dcd993;de;;;3.3.;;;SAD-basierte Hochgeschwindigkeits-Wellenfrontsensorarchitektur-Implementierung auf FPGA Wellenfrontaberrationen, die durch turbulente oder sich schnell ändernde Medien verursacht werden, können die Leistung eines Abbildungssystems erheblich verschlechtern. Um diese Wellenfrontverzerrungen dynamisch zu kompensieren, wird adaptive Optik verwendet. Wir haben ein erschwingliches adaptives optisches System entwickelt, das CMOS-Sensor und Flüssigkristallanzeigetechnologie (LCOS) mit den parallelen Rechenfähigkeiten der FPGA-Geräte (Field Programmable Gate Array) kombiniert. Ein schneller, genauer Wellenfrontsensor ist ein elementarer Bestandteil eines adaptiven optischen Systems. In dem Artikel wird eine effiziente FPGA-Implementierung des Sum of Absolute Differences (SAD)-Algorithmus vorgestellt, der die korrelationsbasierte Wellenfronterfassung ermöglicht. Diese Architektur wurde auf einem Spartan-3 FPGA implementiert, der in der Lage ist, die ankommende Wellenfront in Echtzeit (>500 fps) zu messen.;-;-;-;https://link.springer.com/article/10.1007/s11265-010-0487-4 84424df7a4d0a455418b076de9af43aa;de;;;3.3.;;;Transkription des menschlichen HSP70-Gens: cis-wirkende Elemente und trans-wirkende Faktoren, die an der Basal-, Adenovirus-E1A- und stressinduzierten Expression beteiligt sind Das eukaryotische Genom kodiert für eine große Multigenfamilie von Proteinen, die eine umfassende Sequenzidentität und biochemische Eigenschaften mit dem wichtigsten durch Hitzeschock induzierbaren Protein HSP70 teilen. In menschlichen Zellen gibt es mindestens fünf verschiedene Mitglieder der HSP70-Genfamilie, die als Reaktion auf physiologischen Stress konstitutiv exprimiert oder induziert werden. Die Gene, die viele dieser HSP70-verwandten Proteine ​​kodieren, wurden kloniert, und der Vergleich ihrer entsprechenden Nukleotidsequenzen hat ein hohes Maß an evolutionärer Konservierung unter den Mitgliedern der HSP70-Familie innerhalb einer einzigen Art und zwischen Arten gezeigt (Moran et al. 1982, Lowe ua 1983, Hunt und Morimoto 1985, Mues ua 1986). Zum Beispiel Vergleich von Hitzeschockproteinen zwischen Spezies, getrennt als dnaK von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-75815-7_1 2b7b59d452763117dfa7f0cb3176054b;de;;;3.3.;;;Ein Agenten-Framework für Hochleistungssimulationen über Multi-Core-Cluster Agentenbasierte Modellierung und Simulation sind weithin als effektives Werkzeug für die Analyse komplexer Systeme anerkannt. Dieses Papier schlägt einen neuartigen Ansatz zur Modellierung und Hochleistungs-Parallelsimulation von skalierbaren Agentenmodellen basierend auf Akteuren und;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45037-2_5 c777400a80c421d6258d25157d2bfeab;de;;;3.3.;;;P-DBL: Eine Architektur zur tiefen Verkehrsflussvorhersage basierend auf Trajektoriendaten Die Vorhersage des Verkehrsflusses in großen Verkehrsnetzen ist in den letzten Jahrzehnten zu einem wichtigen und herausfordernden Thema geworden. Eine genaue Verkehrsflussvorhersage ist jedoch immer noch schwer zu realisieren. Wetterfaktoren wie Niederschläge in Wohngebieten und touristischen Zielen beeinflussen den Verkehrsfluss auf den umliegenden Straßen. In diesem Beitrag versuchen wir, die Niederschlagswirkung bei der Vorhersage des Verkehrsflusses zu berücksichtigen. Um diese Idee zu verwirklichen, schlagen wir eine tiefe Verkehrsflussvorhersagearchitektur vor, indem wir ein tiefes bidirektionales Langzeit-Kurzzeitgedächtnismodell, Niederschlagsinformationen, Restverbindung, Regressionsschicht und Dropout-Trainingsmethode einführen. Das vorgeschlagene Modell hat eine gute Fähigkeit, die tiefen Merkmale des Verkehrsflusses zu erfassen. Außerdem kann es die zeitabhängigen Verkehrsflussdaten und zusätzliche Niederschlagsdaten voll ausnutzen. Wir evaluieren die Vorhersagearchitektur des Taxi-Trajektorien-Datensatzes in Chongqing und des Taxi-Trajektorien-Datensatzes in Peking mit entsprechenden Niederschlagsdaten des China Meteorological Data Service Center (CMDC). Die Versuchsergebnisse zeigen, dass das vorgeschlagene Modell zur Verkehrsflussvorhersage im Vergleich zu anderen Modellen eine hohe Genauigkeit erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99247-1_21 3bda1b0d8def6aa733b8526a6d655b2c;de;;;3.3.;;;Zur Frage der mathematischen und simulativen Modellierung einer verteilten Registry auf Basis der RAFT-Architektur Dieser Artikel stellt die mathematische und simulationsbasierte Modellierung einer verteilten Registry am Beispiel eines Kontrollknotens unter Verwendung des RAFT-Konsensus-Algorithmus vor. Der Prozess der Interaktion einzelner verteilter Registrierungsnetzknoten wird beschrieben, wobei besonderes Augenmerk auf den Algorithmus zur Durchführung von Transaktionen innerhalb dieses Netzes gelegt wird. Ein wesentlicher Aspekt dieses Artikels ist die Entwicklung eines mathematischen Modells eines verteilten Registrierungsnetzwerks als Warteschlangensystem unter Verwendung der Warteschlangentheorie. Es werden konzeptionelle Modelle des verteilten Registers als Ganzes sowie das Modell des Informationsprozesses des Zugangs zum Cluster von Notarknoten betrachtet. Es wurde eine mathematische Modellierung des verteilten Registrierungsnetzwerks sowie des Informationsprozesses des Zugriffs auf den Kontrollknoten des Netzwerks durchgeführt. Eine Beschreibung der infinitesimalen Matrix wird erzeugt, um die Wahrscheinlichkeit von Übergängen zwischen Zuständen in einem verteilten Register zu bewerten, Übergangswahrscheinlichkeiten sowie Intensitäten dieser Prozesse werden beschrieben. Ein Stapel von Variablenindikatoren des Simulationsmodells wurde gebildet. Es wurden Tests durchgeführt, auf deren Grundlage der effektivste Satz von Merkmalen nach der empirischen Methode ausgewählt wurde. Die Ergebnisse der mathematischen und Simulationsmodellierung einer verteilten Registrierung mit einem Kontrollknoten werden vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71119-1_22 2454cfa2bd25137f1551c1856915543e;de;;;3.3.;;;Ein Business-Service-Auswahlmodell für automatisierte Web-Service-Discovery-Anforderungen Automated Web Service (WS) Discovery, d. h. Discovery ohne menschliches Eingreifen, ist ein Ziel des serviceorientierten Computings. Bisher ist es ein schwer fassbares Ziel. Die Schwächen von UDDI und anderen Teillösungen wurden ausführlich diskutiert, jedoch wurde wenig über die Gesamtheit der Anforderungen an die automatisierte Webservice-Erkennung artikuliert. Unsere Arbeit hat zu dem Schluss geführt, dass die Lösung einer automatisierten Webservice-Erkennung nicht nur durch technisches Denken gefunden werden kann. Wir argumentieren, dass die geschäftliche Motivation für Webdienste im Vordergrund stehen muss und haben daher Prozesse in Unternehmen zur Identifizierung, Bewertung und Auswahl von Unternehmensdiensten untersucht, um die Anforderungen an die Auffindung und Auswahl von Webdiensten umfassend zu bewerten. Das Papier verwendet ein generisches Auswahlmodell für Geschäftsdienste als Leitfaden für die Analyse einer umfassenden Reihe von Anforderungen an Einrichtungen zur Unterstützung der automatischen Erkennung von Webdiensten. Der Artikel bietet einen Überblick über die neuere Arbeit zu Aspekten der WS-Erkennung, schlägt ein Modell zur Auswahl von Geschäftsservices vor, betrachtet eine Reihe technischer Probleme im Hinblick auf das Geschäftsmodell, formuliert eine vollständige Reihe von Anforderungen und schließt mit Kommentaren zu einem System, das diese unterstützt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01347-8_66 2c67af314ccf1bb81b78b1a3e9598555;de;;;3.3.;;;Intelligentes Überwachungssystem für die Verhaltensstudie von Vögeln Der beste Weg, um relevante Informationen über das Verhalten von Tieren zu erhalten, besteht bisher darin, sie zu erfassen. Jedoch verursacht das Verfahren zum Einfangen von Individuen Stress und führt zu einer Auswirkung auf die Messung, die das Verhalten der Tiere beeinflussen kann. Um dieses Problem zu lösen, beschreibt dieser Artikel ein neuartiges intelligentes Antriebssystem für Vögel, die in Nistkästen brüten. Dieses System basiert auf einem Netzwerk von Smart-Nest-Boxen, das den Zugriff auf die erfassten Daten auf der ganzen Welt über das Internet ermöglicht. Ein Prototyp des vorgeschlagenen Systems wurde für die Bewertung einer Turmfalken-Brutkolonie in Südspanien implementiert. Dieser Prototyp hat in kurzer Zeit mehr wertvolle Informationen geboten, die mehrere Jahre manuell erfasst wurden. Dieser Prototyp hat gezeigt, dass das vorgeschlagene System eine kurze und zeitlich begrenzte Bewertung des Tierverhaltens ohne Störungen oder Stress ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44791-8_3 378e0f68089161eaf7178acd563a5ff5;de;;;3.3.;;;Reimaging des Buches ... schon wieder! Ein neues Framework für Smart Books mit Digital Twins-Technologie Technologiegestütztes Lernen und Kommunikation stehen an einem Scheideweg, der flexible Lösungen erfordert. Flexibles Lernen ermöglicht es einem Lernenden, sich nahtlos zwischen der realen und der virtuellen Welt zu bewegen. Wir schlagen ein neuartiges flexibles Kommunikationstool vor, das „Smart Book“, um diesen Herausforderungen zu begegnen. Zuerst betrachten wir die Rolle des traditionellen Buches, seine Rolle in der heutigen Gesellschaft und die jüngsten Fortschritte bei Augmented-Reality-Büchern. Als nächstes stellen wir einen neuartigen Ansatz vor, der digitale Zwillinge und gemischte Realitäten integriert, der für Kommunikation, Lernen und Entscheidungsfindung nützlich ist. Wir schlagen eine erste Vision der Architektur vor. Schließlich folgen wir der Spirale des kreativen Denkens, um einen ersten Prototyp mit vielversprechenden Ergebnissen zu erstellen. Unser Plan zur Weiterentwicklung der Architektur ist es, diese Spirale mit anderen Softwareentwicklungsmethoden zu integrieren. Wir brauchen weitere Iterationen innerhalb der Spirale, um Endbenutzer und verschiedene Anwendungen einzubeziehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-69136-3_16 d68b64a80815da17499b97f6d6b837f0;de;;;3.3.;;;Objektorientierung Obwohl objektorientierte Programmiersprachen Ende der 1960er Jahre mit dem Aufkommen von Simula-67 auftauchten, wurde das Objektparadigma erst Ende der 1980er Jahre populär. In den letzten zehn Jahren haben wir das Aufkommen vieler objektorientierter Programmiersprachen und Erweiterungen bestehender Sprachen gesehen, um objektorientierte Programmierung zu unterstützen (z. B. C++, Object Pascal).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-3431-2_4 1ea5f841c111d7950d14eeba81f71973;de;;;3.3.;;;Holografiekarte für Heimroboter: ein objektorientierter Ansatz Die Umgebungskarte spielt eine wichtige Rolle im Roboterservice, daher sollte sie nicht nur Informationen zum Aussehen der gesamten Serviceumgebung, sondern auch deren Tiefe enthalten. Der Hauptbeitrag des Beitrags ist die Präsentation einer neuartigen semantischen Karte, nämlich einer holografischen Karte bestehend aus Roboter, Familienmitgliedern, bedienbaren Gegenständen, lokalen Umgebungen sowie Standorten und Wegabschnitten für den Heimserviceroboter, der seine Umgebung erkennt und Dienste anbietet . Inspiriert vom objektorientierten Ansatz gliedert sich die Holografiekarte in die drei Hierarchien item-room-home und im Detail 13 Objektklassen. Der Entwurf und die Speicherung der objektorientierten Holographiekarte werden umfassend beschrieben und der Aufbau der Karte wird vorgestellt. Die Ausführung von Roboterdiensten basierend auf der objektorientierten Holographiekarte wird kurz diskutiert. Experimente an realen Servicerobotern zeigen, dass die objektorientierte Holografiekarte dem menschlichen Denken näher kommt und auf Indoor-Roboter-Serviceaufgaben anwendbar ist.;-;-;-;https://link.springer.com/article/10.1007/s11370-012-0109-z 072cc5ba36837d0cc819aad458e0697b;de;;;3.3.;;;Nur SPARSE-Matrixdarstellung zur Leistungsverbesserung der GPU-Architektur Die allgemeine Berechnung auf einer Grafikverarbeitungseinheit (GPU) ist in der Ära der Hochleistungscomputer dieser Zeit von herausragender Bedeutung. Das Portieren oder Beschleunigen der datenparallelen Anwendungen auf die GPU führt zu einer Standardleistungsverbesserung aufgrund der erhöhten Recheneinheiten. Bessere Leistungen sind zu sehen, wenn eine anwendungsspezifische Feinabstimmung in Bezug auf die betrachtete Architektur erfolgt. Ein solcher sehr weit verbreiteter rechenintensiver Kernel ist die Sparse-Matrix-Vektor-Multiplikation (SPMV) in Anwendungen auf der Basis von Sparse-Matrix. Die meisten der existierenden Datenformatdarstellungen der Sparse-Matrix werden in Bezug auf die Zentraleinheit (CPU) oder Multicores entwickelt. Dieses Papier bietet ein neues Format für die Sparse-Matrix-Darstellung in Bezug auf die Grafikprozessorarchitektur, das eine 2- bis 5-fache Leistungsverbesserung im Vergleich zu CSR (komprimiertes Zeilenformat), eine 2- bis 54-fache Leistungsverbesserung in Bezug auf COO (Koordinatenformat) und 3x bis 10 x-Verbesserung im Vergleich zum CSR-Vektorformat für die Anwendungsklasse, die für das vorgeschlagene neue Format geeignet ist. Es bietet auch 10 bis 133% Verbesserungen bei der Speicherübertragung (nur Zugriffsinformationen der Sparse-Matrix) zwischen CPU und GPU. Dieses Papier enthält die Einzelheiten des neuen Formats und seiner Anforderungen mit vollständigen Versuchsdetails und Vergleichsergebnissen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24037-9_58 135bef8f4b38cb894f30a3da5f03c20f;de;;;3.3.;;;Ein Überblick über die Methodik des Multiagenten Systems Engineering Um komplexe Probleme zu lösen, arbeiten Agenten in heterogenen Umgebungen mit anderen Agenten zusammen. Wir sind daran interessiert, das lokale Verhalten einzelner Agenten zu koordinieren, um ein angemessenes Verhalten auf Systemebene bereitzustellen. Der Einsatz intelligenter Agenten bietet eine noch größere Flexibilität hinsichtlich der Fähigkeit und Konfiguration des Systems selbst. Mit diesen neuen Feinheiten wird die Softwareentwicklung immer schwieriger. Daher ist es entscheidend, dass unsere Prozesse zum Erstellen der inhärent komplexen verteilten Software, die in dieser Umgebung ausgeführt werden muss, für die Aufgabe geeignet sind. In diesem Artikel wird eine Methodik zum Entwurf dieser Systeme interagierender Agenten vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44564-1_14 d08664820725216e1508925f7251f49c;de;;;3.3.;;;Eine proaktive entscheidungsgesteuerte Architektur für informationsbewusste Internet-of-Things-Anwendungen Diese Arbeit schlägt eine proaktive Ausführungsarchitektur für informationsbewusste Entscheidungen im Internet der Dinge (IoT) vor. Dabei ist die Einhaltung eines proaktiven Staubewusstseins und die Verbesserung der Qualität der Entscheidungsgrundlagen das entscheidende Attribut. Um einen vorausschauenden Plan für die unterschiedlichen Verkehrsstausituationen zu erstellen, wird zunächst ein Algorithmus zur proaktiven differenzierenden Zufallsfrüherkennung (PA-DRED) vorgeschlagen. PA-DRED betont die Rolle der zukünftigen Lastprognose bei den Zulassungsverfahren. PA-DRED basiert auf einer zweiphasigen Lastvorhersagestrategie, um die zukünftigen Verkehrslasttrends genau zu profilieren. Dieser prognostizierte Lasttrend wird dann mit dem Notfallgrad der Entscheidung konsolidiert, um ein proaktiv gewichtetes Zulassungskriterium zu formulieren. Zweitens wird ein adaptiver informationsbewusster prioritätsgesteuerter Planungsalgorithmus vorgestellt, um die Ausführung der zugelassenen Entscheidungen zu optimieren. Die durchgeführten Simulationen zeigen die Robustheit der vorgeschlagenen Architektur bei der Bereitstellung von Skalierbarkeit und hoher Verfügbarkeit gegenüber verschiedenen Überlastungsgraden. Darüber hinaus wurde klar gezeigt, dass die vorgeschlagene Architektur die ihrer Gegenstücke nach dem Stand der Technik übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-69717-4_25 67805859a0e6cbd5c6c9d4d4e54606ae;de;;;3.3.;;;Spannungsauswahl für zeitbeschränkte Multiprozessorsysteme Es hat sich gezeigt, dass dynamische Spannungsauswahl und adaptive Körpervorspannung den dynamischen und Leckstromverbrauch effektiv reduzieren. In diesem Kapitel stellen wir einen Energieoptimierungsansatz für zeitbeschränkte Anwendungen vor, die auf Multiprozessorsystemen implementiert werden. Wir beginnen mit der Einführung eines genetischen Algorithmus, der das Mapping und Scheduling der Anwendung auf der Zielhardwarearchitektur durchführt. Dann diskutieren wir im Detail mehrere Spannungsauswahlalgorithmen, wobei explizit die Übergangs-Overheads berücksichtigt werden, die durch sich ändernde Spannungspegel impliziert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-5869-1_12 9d93cc2e4f2798b297088e459bb8eeb8;de;;;3.3.;;;Eine konnektionistische Architektur für die Evolution von Rhythmen In diesem Beitrag schlagen wir die Verwendung eines interaktiven Multi-Agenten-Systems für das Studium der Rhythmusevolution vor. Das hier vorgeschlagene Modell soll zeigen, inwieweit neue Rhythmen sowohl aus der Interaktion zwischen autonomen Agenten als auch aus der Selbstorganisation interner rhythmischer Repräsentationen entstehen. Die Architektur der Agenten umfasst konnektionistische Modelle, um rhythmische Informationen zu verarbeiten, indem sie ihre Kompositionsmuster extrahieren, darstellen und klassifizieren. Anschließend werden die internen Modelle der Agenten erklärt und getestet. Diese Architektur wurde entwickelt, um die Evolution von Rhythmen in einer Gesellschaft virtueller Agenten zu erforschen, die auf Imitationsspielen basiert, inspiriert von der Forschung zur Sprachentwicklung.;-;-;-;https://link.springer.com/chapter/10.1007/11732242_66 a1314eb08e1abada139242a2fec9bfa1;de;;;3.3.;;;Aufbau kostengünstiger computergestützter Lernumgebungen durch Virtualisierung und servicebasierte Software Mit zunehmender und vielfältiger pädagogischer Aktivitäten spielen computergestützte Lernumgebungen eine bedeutende Rolle in Bildungsinstituten, Unternehmen und Organisationen. Die Kosten für den Betrieb computergestützter Lernumgebungen steigen unweigerlich mit den steigenden Anforderungen von Lehrenden und Lernenden. Daher ist es von entscheidender Bedeutung, herauszufinden, wie diese zentralen Umgebungen kosteneffizienter bereitgestellt werden können, ohne das Service-Level und die Benutzererfahrung zu beeinträchtigen. Dieser Artikel erläutert, wie die beiden Schlüsseltechniken des Cloud Computing: Systemvirtualisierung und Webservice angewendet werden können, um agile computergestützte Lernumgebungen mit verbesserter Kosteneffizienz zu schaffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23339-5_96 b9491454136c9e0d08798c765243c975;de;;;3.3.;;;Anwenden von Transformationen auf die modellgetriebene Entwicklung von Webanwendungen Der Reifegrad der Web-Engineering-Forschungsgemeinschaft lässt sich heute anhand der Vielzahl von Webdesign-Methoden beurteilen, die sich für die Spezifikation der funktionalen und navigationstechnischen Anforderungen an Web-Informationssysteme bewährt haben. Diese Vorschläge gehen jedoch oft nicht auf Architekturmerkmale ein, was zu Webspezifikationen mit starren Architekturen führt, ohne Rücksicht auf ihre tatsächlichen Verwendungsbedingungen. Um diese Einschränkung zu überwinden, schlagen wir einen generischen Ansatz namens WebSA vor. WebSA basiert auf dem MDA-Paradigma (Model-driven Architecture). Es schlägt eine modellgetriebene Entwicklung vor, die aus einer Reihe von UML-Architekturmodellen und QVT-Transformationen als Mechanismen besteht, um die funktionalen Aspekte der aktuellen Methodiken mit den Architekturaspekten zu integrieren. Um unseren Ansatz zu veranschaulichen, kombinieren wir in diesem Papier WebSA mit der OO-H-Methode, um das Design der bekannten J2EE Petstore-Spezifikation anzugehen.;-;-;-;https://link.springer.com/chapter/10.1007/11568346_8 97ee72399886d94d6eea7d8a1aa78c31;de;;;3.3.;;;Technologiegestützte Unterstützung beim Erlernen der konzeptionellen Modellierung Dieses Papier beschreibt eine optimierte didaktische Umgebung zur Unterstützung und Verbesserung von Lernleistungen für die konzeptionelle Modellierung. Insbesondere werden computergestützte Techniken beschrieben, um verschiedene Lernherausforderungen zu bewältigen, die im Lehrprozess beobachtet werden, wie z. Die didaktische Umgebung wurde im Rahmen der Lehrveranstaltung Architektur und Modellierung von Managementinformationssystemen entwickelt und anschließend optimiert. Es umfasst 1) Diagnosetests mit automatisiertem Feedback 2) ein angepasstes Modellierungswerkzeug 3) eine MDA-basierte Simulationsfunktion. Die didaktischen Werkzeuge wurden von den Studierenden positiv bewertet und es wurde ein positiver Einfluss auf die Fähigkeit der Studierenden zur Konstruktion objektorientierter Konzeptmodelle beobachtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31072-0_30 393b7e2af175d85ec25c5b3c4c54933a;de;;;3.3.;;;Deklarative Spezifikation von Roboterwahrnehmungsarchitekturen Serviceroboter werden immer leistungsfähiger und bieten ein breiteres Spektrum an Diensten, die alle eine breite Palette von Wahrnehmungsfähigkeiten erfordern. Diese Fähigkeiten müssen sich dynamisch ändernden Anforderungen gerecht werden, was den Entwurf und die Implementierung einer Roboter-Wahrnehmungsarchitektur zu einer komplexen und mühsamen und fehleranfälligen Aufgabe macht. Wir schlagen vor, die integralen Bestandteile von Roboter-Wahrnehmungsarchitekturen mit expliziten Modellen zu spezifizieren, was eine einfache Konfiguration, Modifizierung und Validierung ermöglicht. Der Beitrag stellt die domänenspezifische Sprache RPSL, einige Anwendungsbeispiele, den aktuellen Stand der Implementierung und einige Validierungsexperimente vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11900-7_25 4bedef9e4961f72b4ba9b47c20de3f7d;de;;;3.3.;;;Design von SOA Services: Erfahrungen aus der Industrie Aufgrund der unbekannten Nutzungsszenarien ist die Gestaltung der elementaren Dienste einer serviceorientierten Architektur (SOA), die die Grundlage für die spätere Komposition bilden, eher schwierig. Von Hochschulen, Werkzeuganbietern und Beratungsunternehmen wurden verschiedene Designrichtlinien vorgeschlagen, die sich jedoch in der Strenge der Validierung unterscheiden und oft auf bestimmte Technologien ausgerichtet sind. Aus diesem Grund wurde eine Fallstudie in fünf großen Unternehmen durchgeführt, die SOA erfolgreich im Tagesgeschäft eingeführt haben. Die beobachteten Ansätze werden den Ergebnissen einer Literaturrecherche gegenübergestellt, um einige Empfehlungen für das SOA-Service-Design abzuleiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20116-5_12 fae4077e430a615c84fe91b01b8481bf;de;;;3.3.;;;Switching-Software: Ein hierarchischer Designansatz In diesem Papier stellen wir einen Architekturstil für das Umschalten von Software vor. Im Allgemeinen umfasst Switching-Software Anwendungssoftware, Betriebssysteme und Datenbankverwaltungssysteme. Anwendungssoftware besteht aus Anrufbearbeitungs-, Betriebs-, Verwaltungs- und Wartungsfunktionen. Um die Wartbarkeit zu verbessern, schlagen wir eine hierarchische Struktur vor, die auf den Eigenschaften von Switching-Software basiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01203-7_23 4d6f9183f5106ec250f767904e7b6833;de;;;3.3.;;;Eine dezentrale, mehrschichtige Sliding Mode Control-Architektur für die globale Chassis-Steuerung von Fahrzeugen und Vergleich mit einer zentralisierten Architektur Dieses Papier stellt eine dezentrale Global Chassis Control (GCC)-Architektur vor. Das Ziel dieses globalen Fahrwerksreglers ist es, die Gesamtleistung des Fahrzeugs, d. h. Manövrierfähigkeit, Seitenstabilität und Überschlagsvermeidung, durch die Koordination von Active Front Steering, Direct Yaw Control und Active Suspensions in einer dezentralen Architektur zu verbessern. Die entwickelte Architektur ist mehrschichtig und basiert auf einer Gleitmodussteuerung höherer Ordnung, dem Super-Twisting-Algorithmus. Der vorgeschlagene GCC wird durch Simulation mit Matlab/Simulink validiert und ein Vergleich mit einem zentralisierten;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6259-4_61 1551121656936607f0c62d1b8ae39d2f;de;;;3.3.;;;ICFR: Eine effektive inkrementelle kollaborative Filterungs-basierte Empfehlungsarchitektur für personalisierte Websites Um das Problem zu lösen, dass die Abrufabsichten der Benutzer von personalisierten Websites selten berücksichtigt werden, schlagen wir in diesem Papier eine verbesserte inkrementelle kollaborative Filterung (CF)-basierte Empfehlungsimplementierungsmethode (ICFR) vor. Das ICFR-Modell verwendet einen der beliebtesten Empfehlungsalgorithmen – den Collaborative Filtering Recommendation Algorithmus – für personalisierte Websites. In diesem Artikel wird zunächst ein CF-Algorithmus verwendet, um die Beziehung zwischen Benutzerpräferenzen und empfohlenen Inhalten zu ermitteln. Zweitens werden die Informationen zum Surfverhalten der Benutzer durch die Analyse von Webprotokollen extrahiert und dann in Bewertungen umgewandelt. Schließlich wurde ein inkrementeller Algorithmus entwickelt, um historische Benutzerpräferenzdaten zu aktualisieren. Basierend auf diesem etablierten Modell schlagen wir einige Fälle für diese Architektur vor, die verdeutlichen, dass das ICFR-Modell für personalisierte Website-Empfehlungen geeignet ist.;-;-;-;https://link.springer.com/article/10.1007/s11280-019-00693-x 75e12eced3d88bec7d7dc87e8451975c;de;;;3.3.;;;3. Internationaler Workshop zur Softwareentwicklung durch Transformationen: Veränderungen annehmen Transformationsbasierte Techniken wie Refactoring, Modelltransformation und modellgetriebene Entwicklung, Architekturrekonfiguration usw. sind das Herzstück vieler Software-Engineering-Aktivitäten, die es ermöglichen, mit einer sich ständig ändernden Umgebung zurechtzukommen.;-;-;-;https://link.springer.com/chapter/10.1007/11841883_36 bf89b5cbed44344638911736214151be;de;;;3.3.;;;Initiativen zur Verbesserung von Softwareprozessen basierend auf Qualitätssicherungsstrategien: Eine QATAM-Pilotanwendung Quality Assurance (QS)-Strategien, d. h. Bündel von Verifikations- und Validierungsansätzen eingebettet in einen ausgewogenen Softwareprozess, können Projekt- und Qualitätsmanager bei der systematischen Planung und Umsetzung von Verbesserungsinitiativen unterstützen. Immer wieder kommen neue und modifizierte Prozesse und Methoden auf, die vielversprechende Kandidaten für Verbesserungen sind. Dennoch hängt die Wirkung von Prozessen und Methoden stark von den individuellen Projektkontexten ab. Eine große Herausforderung besteht darin, „Best Practices“ für Produktkonstruktion, Verifikation und Validierung systematisch auszuwählen und umzusetzen. In diesem Beitrag stellen wir die Quality Assurance Tradeoff Analysis Method (QATAM) vor, die Ingenieure dabei unterstützt, (a) Kandidaten für QS-Strategien systematisch zu identifizieren und (b) QS-Strategievarianten in einem bestimmten Projektkontext zu bewerten. Wir evaluieren die Machbarkeit und den Nutzen in einer Pilotanwendung in einem mittelständischen Software-Engineering-Unternehmen. Die wichtigsten Ergebnisse waren, dass QATAM als nützlich erachtet wurde, um verschiedene Verbesserungsinitiativen zu identifizieren und zu bewerten, die sowohl für große Organisationen als auch für kleine und mittlere Unternehmen geeignet sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15666-3_7 176a3a663d2a63c89f9e8ecbb17bd47f;de;;;3.3.;;;Werkzeuge als Gestaltungsinstrumente: Computer und Kognition? Diese Untersuchung untersucht den Einfluss digitaler Werkzeuge auf den Entwurfsprozess und testet empirisch den Zusammenhang zwischen computergestützten Entwurfswerkzeugen und Kognition und Kreativität in der Architekturpraxis. Der Beitrag analysiert die Beziehung „Design-Tool“ und gibt einen Überblick über die Forschung auf dem Gebiet des Computers als Instrument der Kreativität, untersucht deren Schlussfolgerungen und führt eine Fallstudie durch. Die statistische Analyse der Fallstudie legt nahe, dass drei Kreativitätsmaße signifikant mit der Zeit korrelieren, die eine Versuchsperson mit der Nutzung des Computers im Design verbringt: rho=0,487, P<0,05 für die Ausarbeitung von Designideen, rho=0,605, P<0,05, for Ideenvolumen, rho=0,687, P<0,05, für Ideenvielfalt. Außerdem scheint die Länge der Designer-Computer-Interaktion verschiedene Formen der Design-Argumentation zu unterstützen und die Kognition zu unterstützen: rho=0.591, P<0.05. Die Studie fand wenig Beweise für die Annahme, dass Computer andere Formen des Wissens verhindern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38974-0_1 5098736e6870b509ed6f31fda3f98967;de;;;3.3.;;;Starten von SPI aus dem Software Configuration Management: Ein schneller Ansatz für ein Unternehmen, um die Vorteile von SPI zu erkennen Für ein Unternehmen, das gerade erst mit den SPI-Initiativen begonnen hat, ist es ein entscheidender Erfolgsfaktor, den Entwicklern die Vorteile von SPI verständlich zu machen und eine aktive Beteiligung zu erlangen. Inzwischen innerhalb der CMM;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24659-6_7 66cb2b426f9f944126d2aad097e9f90a;de;;;3.3.;;;Forschung und Implementierung eines CAD-INP-Integrationssystems basierend auf OpenCASCADE MCNP ist ein universeller Monte-Carlo-N-Partikel-Code, der für den Neutronen-, Photonen-, Elektron- oder gekoppelten Neutronen-/Photonen-/Elektronentransport verwendet werden kann. Die MCNP-Eingabedatei (INP-Datei) hat die Eigenschaften einer komplizierten Form und ist fehleranfällig bei der Beschreibung des Geometriemodells. Dieses Papier schlägt eine Methode vor, die sowohl die geometrische Modellierung als auch die Konvertierung der Modelle in eine INP-Datei kombiniert, wobei die Methode ein System zur Integration von dreidimensionaler Modellierung und Konvertierung realisiert. Das dreidimensionale Modellierungsteil wurde basierend auf der Open-Geometrie-Engine OpenCASCADE entwickelt und kann STEP-Dateien (Standard for the Exchange of Product Model Data) direkt exportieren. Der Konvertierungsteil hat die Konvertierung von der STEP-Datei in die INP-Datei durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54900-7_33 787bf828ad49e53858328614ae39fb7b;de;;;3.3.;;;Optimierter Pfad und reduzierte Regel-Caching-Kosten für Software Defined Network (SDN)-basiertes Internet der Dinge (IOT) 2Im softwaredefinierten netzwerkbasierten Internet der Dinge (SDN-IoT) sollte der Pfad, der für die Weiterleitung der Pakete gemäß den Regeln ausgewählt wird, eine effektive Dienstgüte (QoS) sein. Da SDN-basiertes IoT dynamische heterogene Abläufe beinhaltet, wird die Handhabung von Caching in Bezug auf Regeln zu einer Herausforderung. Daher schlagen wir in diesem Papier eine QoS-bewusste Optimum Path Selection and Rule Caching Policy (QOPS-RCP) für SDN-basiertes IoT vor. Bei dieser Technik wird der optimale Pfad bestimmt, der die QoS-Beschränkungen erfüllt: Regel-Caching (RC)-Kosten, Paketverlustwahrscheinlichkeit und Verzögerung. Eine RC-Richtlinie wurde entwickelt, die den Anforderungen einer SDN-basierten IoT-Architektur entspricht, sodass die Kosten für RC minimiert werden. Die vorgeschlagene Forschungsmethodik wird im OpenFlow-Modul implementiert und die Leistung in Bezug auf Durchsatz und End-to-End-Verzögerung bewertet.;-;-;-;https://link.springer.com/article/10.1007/s11277-021-08698-4 65ffdd495f9576c8785f3eefdf0fe3f2;de;;;3.3.;;;Knotenarchitekturen und ihre Bereitstellung in drahtlosen Sensornetzwerken: Eine Umfrage In herkömmlichen drahtlosen Sensornetzwerken (WSNs) kann das Hinzufügen weniger mobiler Knoten die Steuerungs- und Erfassungsfähigkeiten der Netzwerke erheblich verbessern und Forschern helfen, viele Herausforderungen wie Netzwerkbereitstellung und Skalierbarkeit usw Videosensornetzwerke hängen von den Ressourcen der Knoten ab, die die Sensornetzwerke bilden. Die größte Herausforderung beim Design von drahtlosen Sensornetzwerken (WSNs) ist die Unterstützung des Funktionalen, wie z. B. Datenlatenz, und des Nicht-Funktionalen, wie z gewünschten Gestaltungsziele. In diesem Papier untersuchen und vergleichen wir die bestehenden Sensorknotenarchitekturen gründlich. Wir untersuchen auch die Forschung zur optimierten Knotenplatzierung in WSNs. Wir haben die Platzierungsstrategien in statisch und dynamisch bereitgestellt, je nachdem, ob die Optimierung zum Zeitpunkt der Bereitstellung oder während des Netzwerkbetriebs durchgeführt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22577-2_70 943f2dddaeedf1baf253d22fe5a7c8e7;de;;;3.3.;;;Einsatz einer Multi-Agenten-basierten Plattform zur Bereitstellung dokumentenzentrierter Interoperabilität im Bereich E-Government E-Government ist zu einem Grundbestandteil guter Regierungsführung geworden. Durch E-Government werden verschiedene Dienstleistungen für verschiedene Interessengruppen bereitgestellt, darunter Unternehmen, Mitarbeiter verschiedener Regierungsabteilungen und insbesondere Bürger. E-Government wird von einer Vielzahl von Ländern der Welt umgesetzt. Einige von ihnen sind entwickelt, aber die meisten von ihnen sind Entwicklungsländer und arbeiten an der Verbesserung der E-Government-Dienste. Entwicklungsländer haben unterschiedliche Systeme, die in verschiedenen Abteilungen arbeiten, wie einige über Legacy-Systeme und andere über neue. Das Problem ist die Interoperabilität zwischen diesen Systemen. Diese Forschung enthält eine Architektur, die eine Möglichkeit bieten kann, das Problem der Interoperabilität zu bewältigen. Durch die verschiedene Systeme in der Lage sein werden, dokumentenzentrierte Informationen auszutauschen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03783-7_13 9b1b55cc317f586506ec8b8d2f920a75;de;;;3.3.;;;SIES: Eine neuartige Implementierung der Spiking Convolutional Neural Network Inference Engine auf einem feldprogrammierbaren Gate-Array Neuromorphic Computing gilt als die Zukunft des maschinellen Lernens und bietet eine neue Art des kognitiven Rechnens. Inspiriert von der hervorragenden Leistung von Spiking Neural Networks (SNNs) in den Bereichen geringer Leistungsaufnahme und paralleles Rechnen versuchten viele Gruppen, das SNN mit der Hardwareplattform zu simulieren. Die Effizienz des Trainings von SNNs mit neuromorphen Algorithmen ist jedoch nicht ideal genug. Angesichts dessen, Michael;-;-;-;https://link.springer.com/article/10.1007/s11390-020-9686-z 0c2dc07cd0c677620ebd3b2370276aa2;de;;;3.3.;;;Eine neuronale Architektur für 2D- und 3D-Vision In diesem Beitrag wird ein modellbasiertes neuronales Sehsystem vorgestellt. Szenen werden in Form von Formprimitiven (von Kanten in den Szenen abgeleitete Liniensegmente) und ihrer relationalen Struktur beschrieben. Das neuronale Netz vergleicht die Grundelemente in der Szene mit den Grundelementen in einer Modellbasis, indem es die beste Übereinstimmung zwischen Grundelementen und ihrer relationalen Struktur unter der Einschränkung findet, dass höchstens ein Grundelement in der Modellbasis einem Grundelement in der Szene zugewiesen werden sollte. Sowohl die Qualität der Lösungen als auch die Konvergenzgeschwindigkeit wurden durch die Verwendung von Mean-Field-Approximationen verbessert. Dieser Ansatz wurde in 2D und in 3D Objekterkennung getestet. Beim 2D-Problem ist die Erkennung unabhängig von Position, Orientierung, Größe und kleinen perspektivischen Verzerrungen der Objekte. Beim 3D-Problem werden Stereobilder verwendet, um eine 3D-Beschreibung der Szene zu erzeugen, die dann mit Objekten in einer Modellbasis abgeglichen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-08896-8_58 4bfeca3cb613a6fc496e3a828782f143;de;;;3.3.;;;Ein Überblick über Energiemanagementfragen für das zukünftige 5G-Netz und darüber hinaus Das mit Spannung erwartete Jahr 2021, das viel verspricht, um die Erwartungen der 5. Generation (5G) drahtloser Systeme zu erfüllen, ist endlich da. Es wurden mehrere Lösungen vorgeschlagen, um die Energieherausforderungen in den sich entwickelnden drahtlosen Systemen zu bewältigen, insbesondere in 5G und darüber hinaus. Bei diesen Lösungen wurden unter anderem der Entwurf einer neuen Netzwerkarchitektur basierend auf dem Einsatz neuer Funkzugangstechniken, sogenannte Cloud Radio Access Networks (C-RAN), die Verwendung heterogener Netzansätze, die Einführung erneuerbarer Energien (RE) als alternative Stromquelle usw. Dennoch liegt der Fokus dieses Papiers letztendlich auf den Ansätzen, um eine optimale Energieeffizienz (EE) in 5G und darüber hinaus zu erreichen, basierend auf einer aufkommenden Designphilosophie, die eine höhere Gesamtsystemkapazität bei niedrigen Energiekosten verspricht. Es konzentriert sich auf vier wichtige EE-Lösungen für zukünftige drahtlose Systeme: EE-Ressourcenzuweisung, Netzwerkplanung, RE und C-RAN. Es diskutiert verschiedene verwandte Arbeiten, Forschungsherausforderungen und mögliche zukünftige Arbeiten für diese vier Bereiche. Darüber hinaus werden auch die Vorteile und Grenzen der neuen vorgeschlagenen 5G- und darüber hinausgehenden RON-Architektur überprüft. Es wird erwartet, dass die Leser dieser Studie verschiedene EE-Lösungen verstehen, um ein optimales EE-Netzwerk zu erreichen.;-;-;-;https://link.springer.com/article/10.1007/s11276-021-02616-z 8be3a21303f40054d0bba46a8c44c373;de;;;3.3.;;;Darmarchitektur, Verdauungsstörungen und Ernährungsökologie von ablagerungsfressenden und fleischfressenden Polychaeten Wir analysieren die Darmarchitektur von 42 Arten mariner Polychaeten in Bezug auf ihre anatomisch unterschiedlichen Kompartimente und quantifizieren Unterschiede zwischen den Därmen in Bezug auf das Verhältnis von Körpervolumen zu Darmvolumen, relative Kompartimentvolumina, Gesamtdarmseitenverhältnisse und Kompartimentseitenverhältnisse. Wir verwenden multivariate Techniken, um diese Polychaeten in 4 Gruppen zu klassifizieren: Fleischfresser mit röhrenförmigem Darm, Pfandfresser mit röhrenförmigem Darm, Pfandfresser mit 3 Darmkompartimenten und Pfandfresser mit 4 oder 5 Darmkompartimenten. Röhrenförmige Eingeweide, morphologische Ausdrucksformen des Pfropfenflusses, sind bei Ablagerungsförderern üblich und können relativ schnelle Aufnahmeraten und kurze Durchlaufzeiten ermöglichen. Das mittlere Darmvolumen pro Körpervolumeneinheit bei Einlagenfressern (31%) ist doppelt so groß wie das von Fleischfressern (15%) und reicht bei einer Tiefseeart bis zu 83%. Feeder von Tiefseeablagerungen neigen dazu, relativ größere und längere Eingeweide zu haben als eng verwandte Nearshore- und Schelfarten. Die Eingeweide einer Reihe von Tiefseeablagerungs-Feedern und Nearshore- und Schelfablagerungs-Feedern aus schlammigen Umgebungen sind mit zunehmender Körpergröße relativ länger und schmaler, was darauf hindeutet, dass die Verdauungsdiffusionsbeschränkungen wichtig sein könnten. Darmvolumen skaliert als (Körpervolumen);-;-;-;https://link.springer.com/article/10.1007/BF00318526 c2e1c98577e97d60f2ec387fa4e8b0ec;de;;;3.3.;;;Experimentelle Supercomputer-Echtzeit-Datenverarbeitung: Technologie und Anwendungen Im Fokus der Studie steht die Technologie der Remote-Echtzeitverarbeitung intensiver Datenströme von Versuchsständen mit Hilfe von Supercomputern. Die Struktur des verteilenden Datensystems, Software zur Datenverarbeitung, optimierter PIV-Algorithmus werden vorgestellt. Die Verwendung von Echtzeit-Datenverarbeitung ermöglicht die Durchführung von Experimenten mit Feedback, wenn der externe Antrieb von internen Eigenschaften des Systems abhängt. Die Anwendbarkeit dieser Technik wird durch experimentelle Untersuchungen der intensiven zyklonischen Wirbelbildung aus einer lokalisierten Wärmequelle in einer rotierenden Flüssigkeitsschicht demonstriert. In dieser Studie hängt die Heizintensität von der Strömungsgeschwindigkeit ab. Die durch Supercomputer-Echtzeitverarbeitung von PIV-Bildern erhaltenen Strömungseigenschaften werden als Eingangsparameter für das Heizsystem verwendet. Auch das Konzept des Einsatzes der entwickelten Technik in den Versuchsständen der Flugzeugindustrie wird beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-05807-4_55 2c06d0468023dcac1d80a6b1139af9b4;de;;;3.3.;;;Auswirkungen der Sterilisation auf ein extrazelluläres Matrixgerüst: Teil I. Zusammensetzung und Matrixarchitektur Der Einfluss von Peressigsäure (PAA), Lyophilisation und Ethylenoxid (EO)-Sterilisation auf die Zusammensetzung und dreidimensionale Matrixstruktur der Dünndarm-Submukosa (SIS), einem biologischen Gerüst, das verwendet wird, um die Reparatur von geschädigten Geweben und Organen zu stimulieren, wurde untersucht . Fibronektin und Glykosaminoglykane werden im SIS nach Oxidation durch Peressigsäure und Alkylierung unter Verwendung von Ethylenoxidgas zurückgehalten. Signifikante Mengen an FGF-2 werden ebenfalls zurückgehalten, aber VEGF ist anfällig für die Wirkungen von PAA und wird nach der Verarbeitung dramatisch reduziert. Darüber hinaus können Matrixoxidation, Lyophilisation und Sterilisation mit EO durchgeführt werden, ohne dass die dreidimensionale Struktur des nativen SIS irreversibel zusammenbricht. Diese strukturellen Merkmale und wachstumsfördernden Bestandteile der extrazellulären Matrix sind wahrscheinlich wichtige Variablen, die der zellulären Anheftung, Infiltration und eventuellen Aufnahme von SIS in heilende Wirtsgewebe zugrunde liegen.;-;-;-;https://link.springer.com/article/10.1007/s10856-007-2300-x a88a5fc390ce5e7640be2992409098c4;de;;;3.3.;;;Software-Prozesslinien: Eine systematische Literaturübersicht Software Process Line (SPrL) wurde als geeignetes Paradigma für die Anpassung und Wiederverwendung von Softwareprozessen beansprucht. Trotz seiner zunehmenden Bedeutung fehlt es jedoch noch an Forschung, die den Stand der Technik von SPrL-Ansätzen systematisch charakterisiert und analysiert, insbesondere wie ein solches Paradigma zur Verbesserung von Softwareprozessen eingesetzt wurde. Dieser Beitrag stellt die Methode vor, mit der eine systematische Literaturübersicht zu SPrL durchgeführt wird, um den Stand der Technik in diesem Bereich zu untersuchen, sowie die Ergebnisse dieser Übersichtsarbeit, die sich insbesondere auf die Darstellung der Variabilität konzentriert. Wir fanden 40 Primärstudien zu diesem Thema, die von 1996 bis 2013 veröffentlicht wurden. Unsere Ergebnisse zeigen, dass die Software-Engineering-Community zunehmend Anstrengungen in diesem Bereich unternommen hat. Es gilt jedoch noch als unausgereifter Bereich mit vielen offenen Fragen wie der fehlenden Modellierung bekannter Prozessstandards und Modelle mit SPrL-Konzepten und dem Fehlen empirischer Auswertungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13036-1_11 774024fa80b9fd793c57c64c80038e0e;de;;;3.3.;;;Architektur und elastische Eigenschaften des Reihenelastischen Elements des Muskel-Sehnen-Komplexes Die Serienelastizität der Skelettmuskulatur wird in mehrfacher Hinsicht als von großer Bedeutung für die Muskelfunktion angesehen. Beispielsweise wird in Bewegungskontrollstudien der Bewegungsapparat häufig als Masse-Feder-Komplex modelliert, bei dem die Steifigkeitseigenschaften der Federn eine Gelenkgleichgewichtsposition bestimmen, die bei bestimmten Aktivierungsstufen der Muskulatur erreicht 1982). Diese Art der Modellierung wird auch zur Untersuchung der Laufgangarten von Säugetieren in Bezug auf Bewegungsgeschwindigkeit, Gangart und Energieverbrauch angewendet [McMahon, 1985, Kapitel 37 (McMahon), Taylor, 1985]. Darüber hinaus ist das serienelastische Element (;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-9030-5_4 9282fe74943f1b88b09bf81608c752a4;de;;;3.3.;;;Ein Überblick über parallele Architektur In diesem Beitrag wird ein Überblick über Multiprocessing-Architekturen gegeben, vom einfachen Von Neumann bis hin zu den komplexesten Hyperwürfeln. Es wird ein Referenzrahmen vorgestellt, der es ermöglicht, die Hauptunterschiede zu bewerten, alternative Lösungen zu vergleichen und sie mit quantitativen Leistungsindizes zu messen, die vorgestellt und diskutiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-3496-5_2 cf5bb8c04dd55f7efde14f8db6644a40;de;;;3.3.;;;Die Auswirkungen der Cache-Leistung auf Multi-Core-Architekturen verstehen Aktuelle und alte Forschungen haben der Reduzierung der Zykluszeit und der Erhöhung der Ausführungsgeschwindigkeit des Prozessors große Aufmerksamkeit geschenkt. Dies führte zur Entwicklung von Mehrkernprozessoren, die die Last unter den vielen Prozessoren verteilen und verteilen. Die wichtige zu beantwortende Frage wäre, wird die Shared-Cache-Technologie für Multi-Core-Prozessoren genauso effizient arbeiten wie für Uni-Core-Prozessoren? Unsere Analyse in diesem Papier berücksichtigt die Auswirkungen, die Caches auf eine Uni-Core-Umgebung und in einer gemeinsam genutzten Multi-Core-Umgebung haben. Um dies zu demonstrieren, verwenden wir: DINERO IV zur Analyse der Leistung einer Uni-Core-Umgebung und CACTI (Cache Access Cycle Time Indicator) zur Analyse der Leistung einer Multi-Core-Umgebung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20573-6_71 59eb2e1c97f03d3bc3a90c36323b7f51;de;;;3.3.;;;Eine kognitive Sozialagentenarchitektur für die Zusammenarbeit in sozialen Simulationen Wir präsentieren eine kognitive Agentenarchitektur, die es ihren Agenten ermöglicht, soziales Verhalten zu zeigen, das sowohl durch rationale als auch durch kognitive Motivatoren beeinflusst wird. Derzeit liegt unser Fokus auf Kooperation und unser Ziel ist die Beobachtung oder Entstehung von nicht-scripted Verhalten in sozial-kooperativen Umgebungen. Wir präsentieren die Ergebnisse der Anwendung unserer Architektur beim Design virtueller Agenten, bei denen sie spontan kooperieren, um ihre individuellen und sozialen Ziele zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33197-8_32 4d30a9150f40a14c8f2b873e6491a103;de;;;3.3.;;;Funktionale Anforderungen an eine Middleware zur Integration drahtloser Sensornetzwerke (WSN) in Smart Objects-Anwendungen Bei der Anwendung intelligenter Objekte kann eine Technologie wie Wireless Sensor Networks (WSN) das Bindeglied zwischen den Aktivitäten in den Geschäftsprozessen (reale Welt oder physische Welt) und der Spiegel dieser Aktivitäten in den Informationssystemen (Informationswelt) sein. Um diese Rolle als Bindeglied zwischen den beiden Welten zu erfüllen, muss ein WSN jedoch mit anderen Komponenten einer Smart-Object-Anwendung interagieren. Dieses Papier beschreibt sieben funktionale Anforderungen, die ein Softwareprodukt erfüllen muss.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10607-1_2 873fce7bb9eea36595ac535225b13b98;de;;;3.3.;;;Eine affektive Entscheidungsfindungs-Agentenarchitektur mit Emotionsbewertungen Die intelligente Interaktion in einer zeitlich dynamischen Umgebung erfordert adaptive Leistungen von künstlichen Wesen. Ein Mechanismus, der derzeit erforscht wird, um ein intuitives Verhalten in KI-Anwendungen zu erzeugen, ist der der Emotionen. Mehrere populäre psychologische Emotionstheorien waren die Grundlage für eine Reihe von Agentenmodellen, die in der Lage sind, Emotionen zu synthetisieren. Obwohl diese Modelle nur begrenzten Erfolg gezeigt haben, fehlt ihnen jedoch die dynamische Skalierbarkeit, um komplexe emotionale Dimensionen zu bilden, die für die Erzeugung adaptiven Verhaltens erforderlich sind. In diesem Beitrag wird untersucht, wie eine affektive Bewertung mit diskreten Bewertungen eines Ereignisses zeitgenössische Grenzen überwinden kann. Ein künstlicher Agent, der diese Theorie in seine Architektur integriert hat, wird demonstriert. Ein formales Modell der Ontologie des Agenten und seines mehrdimensionalen affektiven Entscheidungsfindungsprozesses wird skizziert, mit Beispielen, die einen affektiven Entscheidungsfindungsprozess demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45683-X_62 fb91db4f520b017ef4cd17ad54447b4b;de;;;3.3.;;;Ein durch Agenten vermittelter Ansatz für dynamische Änderungen in Koordinationsrichtlinien Verteilte Informationssysteme für Entscheidungsunterstützung, Logistik und E-Commerce beinhalten die Koordination autonomer Informationsressourcen und Clients gemäß spezifischer domänenunabhängiger und domänenabhängiger Richtlinien. Eine große Herausforderung besteht darin, mit dynamischen Veränderungen der Prioritäten, Präferenzen und Einschränkungen der Kunden und/oder der Ressourcen umzugehen. Die Bewältigung einer solchen Herausforderung erfordert Lösungen für zwei Probleme: a) Überlegungen zur Notwendigkeit dynamischer Änderungen der Koordinierungspolitik als Reaktion auf geänderte Prioritäten, Präferenzen und Einschränkungen. b) Zuverlässige Koordination der Laufzeit-Zusammenstellung von Richtlinienänderungen. Dieses Papier stellt den NAVCo-Ansatz vor, um diese Probleme anzugehen. Der Ansatz beinhaltet die Nutzung einer verhandlungsbasierten Koordination, um das erste Problem anzugehen, und einer modellbasierten Änderungskoordination, um das zweite Problem anzugehen. Diese beiden Schlüsselmerkmale des Ansatzes eignen sich gut für die Realisierung unter Verwendung einer agentenbasierten Architektur. Das Papier beschreibt die Architektur mit besonderem Schwerpunkt auf der Analyse und Gestaltung der Agentenspezifikationen für die Verhandlungs- und Änderungskoordination.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45263-X_11 0831cc3b438d3ad2659c6dc4f721f891;de;;;3.3.;;;Ein wissensbasiertes Framework zur Extraktion von Komponenten in der agilen Systementwicklung systems Bei der Verwendung von Komponenten in der Softwareentwicklung wurden erhebliche Fortschritte erzielt. Viele proprietäre ERP-Softwareumgebungen (Enterprise Resource Planning) verwenden modulare Komponenten, um „Best Practices“ zu entwickeln und anzupassen, um eine spezifische Unternehmensanforderung zu erfüllen. In der agilen Anwendungsentwicklung sind viele Entwickler und Anwender gefordert, Systeme in kurzer Zeit zu entwerfen. Diese Anwendungen können Komponenten verwenden, die in Software-Repositorys eingebettet sind. Die Herausforderung besteht dann darin, die richtigen Softwarekomponenten (Daten und Verfahren) auszuwählen, um eine Anwendungsanforderung zu erfüllen. Obwohl erfahrene Entwickler Komponenten auswählen und anpassen können, um die Anforderungen einer Anwendung zu erfüllen, steht dieses Fachwissen möglicherweise nicht für andere Anwendungen zur Verfügung. Dieses Papier präsentiert ein wissensbasiertes Framework zur Auswahl und Anpassung von Softwarekomponenten und demonstriert seinen Wert bei der Ableitung von Qualitätsspezifikationen, selbst wenn die Entwickler relativ unerfahren sind.;-;-;-;https://link.springer.com/article/10.1007/s10799-007-0025-7 e4074ff80299f3d06ca8eac11a06f2e4;de;;;3.3.;;;Der Fall eines kleinen Sterns Dieser kurze Beitrag gibt einen kombinierten technisch-historischen Bericht über das Schicksal der weltweit meistgenutzten kontaktlosen Smartcard, der MIFARE Classic. Der Bericht konzentriert sich auf die Jahre 2008 und 2009, als gravierende Sicherheitslücken in MIFARE Classic aufgedeckt wurden. Die Geschichte behandelt neben den relevanten technischen Details die Risiken proprietärer Sicherheitsmechanismen, die Rechte und Moral bzgl. Veröffentlichung von Sicherheitslücken und schließlich die rechtliche Auseinandersetzung vor Gericht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-49301-4_5 d19c126ebfbd93aaa4288d953a87a2f2;de;;;3.3.;;;Eine effiziente Router-Architektur mit niedriger Latenz für Mesh-basiertes NoC NoC ist eine wachsende Technologie, bei der miteinander verbundene Muster im Zustand von Multiprozessoren entwickelt werden. Aufgrund der komplizierten Routing-Verbindungen herrschen viele Probleme in Bezug auf Verkehrsstaus und Latenzzeiten, was zu einer schlechten Leistung eines Netzwerks führt. In dieser Forschungsarbeit wird die virtuelle Router-Architektur vorgestellt, die eine geringe Latenzzeit ermöglicht, was zu einer Verbesserung der Leistung eines Netzwerks führt. Die vorgeschlagene VIP-basierte VC-Architektur für a;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4058-9_21 6f954b856828be038eee085f5792d509;de;;;3.3.;;;Architekturunabhängige Analyse paralleler Programme Das Vorhandensein eines universellen Maschinenmodells für den seriellen Algorithmusentwurf, nämlich des von Neumann-Modells, war einer der Schlüsselfaktoren für den Erfolg von Uniprozessoren. Das Vorhandensein eines solchen Modells ermöglicht die effiziente Portierung eines Algorithmus auf eine Vielzahl von Uniprozessoren. Universalalgorithmus-Designmodelle, die für Parallelcomputer vorgeschlagen werden, sind jedoch in der Regel in dem Bereich der parallelen Plattformen begrenzt, die sie effizient abdecken können. Folglich wird die Portabilität paralleler Programme auf Kosten von Effizienzverlusten erreicht. In diesem Beitrag untersuchen wir wünschenswerte und erreichbare Eigenschaften universeller Modelle des architekturunabhängigen parallelen Programmentwurfs. Wir untersuchen verschiedene vorgeschlagene Modelle, klassifizieren sie anhand wichtiger Maschinenparameter und untersuchen ihre Grenzen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45718-6_65 602442003b3c162dce40347a3908b329;de;;;3.3.;;;Überarbeitung der UML-Kollaborationen: Ein fundierter Ansatz Wir argumentieren zunächst, dass in einigen Bereichen der Softwareentwicklung die Notwendigkeit entsteht, strukturelle und verhaltensbezogene Aspekte einer Gemeinschaft von Objekten zu modellieren, die kooperieren, um einen bestimmten Zweck zu erreichen, kurz eine Kooperation. Der Begriff der Kooperation wird mit einem ersten Staatsbürgerschaftsstatus in der UML 2 als Kooperation formalisiert. Es gibt jedoch einige unklare und problematische Stellen sowohl in Bezug auf einige syntaktische als auch semantische Aspekte der UML-Kollaboration. Das Hauptziel dieser Arbeit ist es, zunächst ein stark vereinfachtes Metamodell zur Definition einer Kollaboration vorzustellen, das immer noch dieselbe Notation mit einer zugehörigen Semantik erzeugt. Überraschenderweise können verschiedene nützliche semantische Interpretationen gegeben und diskutiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12566-9_1 b4336617d266c5b98ab45bc48f39fadb;de;;;3.3.;;;Für Hochgeschwindigkeits-AFM entwickelte Techniken Dieser Artikel beschreibt grundlegende Geräte und Kontrolltechniken, die die Hochgeschwindigkeits-Atomkraftmikroskopie (AFM) ermöglicht haben, dynamische Prozesse einzelner Biomoleküle auf Video mit einer Bildrate von 10-25 Bildern/s aufzuzeichnen, ohne ihre biologischen Funktionen zu stören.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22173-6_1 ef7216c11f703cba1b436c7a6e4ea5e2;de;;;3.3.;;;Verwalten von Multimedia-Netzwerkdiensten In diesem Beitrag stellen wir einen neuartigen Ansatz zur Verwaltung von Echtzeitverkehr in Multimedia-Netzwerken vor. Wir klären zunächst die jeweiligen Rollen des Echtzeitsteuerungssystems, des Managementsystems und des Netzbetreibers und beschreiben deren Interaktionen zum Management von Echtzeitdiensten. Diesem Rahmen folgend, führen wir eine Architektur ein, die auf dem Konzept der Verwaltung von Netzwerkdiensten durch Abstimmung von Ressourcensteuerungsaufgaben im Netzwerksteuerungssystem basiert. Um der Komplexität des Netzwerksteuerungssystems gerecht zu werden, präsentieren wir das L-E-Modell, eine generische Zusammenfassung einer Ressourcensteuerungsaufgabe auf Systemebene. Wir definieren übergeordnete Kontrollen und visuelle Abstraktionen für den Netzbetreiber, die von unserer Architektur unterstützt werden. Diese Konzepte werden auf einer Prototyping-Plattform evaluiert, die eine auf einem Grafikrechner implementierte Managementstation und eine parallele Hochleistungsmaschine umfasst, die in Echtzeit die Steuerungs- und Managementsysteme eines großen Multimedianetzwerks betreibt. Wir schließen mit der Beschreibung der Ergebnisse mehrerer Experimente, die den quantitativen Effekt von Managementoperationen in einem großen Multimedianetzwerk, das unserer Architektur folgt, veranschaulichen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1018787214987 025f1abbcfaab3b8795a16db284449a0;de;;;3.3.;;;FTR-NAS: Fehlertolerante rekurrente neuronale Architektursuche Mit der Popularität von Anwendungen, die mit neuronalen Netzen auf Edge-Geräten ausgestattet sind, ist Robustheit in den Fokus der Forscher gerückt. Bei der Bereitstellung der Anwendungen auf der Hardware sind jedoch Umgebungsgeräusche unvermeidbar, bei denen Fehler insbesondere bei sicherheitskritischen Anwendungen zum Absturz von Anwendungen führen können. In diesem Papier schlagen wir vor;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63823-8_67 d8abc9c8f3e42472a81b25b8cdee3a1f;de;;;3.3.;;;Forschung und Design einer Schlüsseltechnologie zur Beschleunigung der Faltungsberechnung für FPGA-basierte CNN Convolutional Neural Network ist ein wichtiges Netzwerkmodell des Deep-Learning-Algorithmus. Es wird häufig bei der Handschrifterkennung, der Verarbeitung natürlicher Sprache usw. verwendet. Es ist auch ein heißes Thema in der Erforschung des maschinellen Lernens und des Computer-Bildsehens, daher hat es eine gewisse Forschungsbedeutung und -wert. Dieses Papier schlägt zunächst ein einfaches neuronales Faltungsnetzwerk-Modell – das SpNet-Modell – vor und analysiert die verschiedenen Arten von Parallelität im Trainingsprozess eines neuronalen Faltungsnetzwerks. Im Hinblick auf die weitreichende Verwendung der Faltungsberechnung wird aus der Sicht von Software und Hardware ein Schema entworfen, um die Faltungsberechnung zu beschleunigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3863-6_17 d2794960efa2473fef76f7185eb9ef56;de;;;3.3.;;;Semi-Supervised Learning Based Tag-Empfehlung für Docker-Repositorys Docker war in letzter Zeit die Mainstream-Technologie zur Bereitstellung wiederverwendbarer Software-Artefakte. Entwickler können ihre Anwendungen einfach mit Docker erstellen und bereitstellen. Derzeit wird eine große Anzahl wiederverwendbarer Docker-Images öffentlich in Online-Communitys geteilt und semantische Tags können erstellt werden, um Entwicklern bei der effektiven Wiederverwendung der Images zu helfen. Die Communities bieten jedoch keine Tagging-Dienste an, und das manuelle Tagging ist anstrengend und zeitaufwändig. Dieses Papier befasst sich mit dem Problem durch einen halbüberwachten lernbasierten Ansatz namens SemiTagRec. SemiTagRec enthält vier Komponenten: (1) den Prädiktor, der die Wahrscheinlichkeit der Zuweisung eines bestimmten Tags zu einem bestimmten Docker-Repository berechnet, (2) den Extender, der basierend auf der Tag-Korrelationsanalyse neue Tags als Kandidaten einführt, (3) den Evaluator , das die Kandidaten-Tags basierend auf einem logistischen Regressionsmodell misst, (4) der Integrator, der eine Endbewertung berechnet, indem er die Ergebnisse des Prädiktors und des Evaluators kombiniert, und dann die Tags mit hohen Bewertungen den angegebenen Docker-Repositorys zuweist. SemiTagRec fügt die neu markierten Repositorys in die Trainingsdaten für die nächste Trainingsrunde ein. Auf diese Weise trainiert SemiTagRec den Prädiktor iterativ mit den kumulativen Tagged-Repositorys und dem erweiterten Tag-Vokabular, um eine hohe Genauigkeit der Tag-Empfehlung zu erreichen. Schließlich zeigen die experimentellen Ergebnisse, dass SemiTagRec die anderen Ansätze übertrifft und die Genauigkeit von SemiTagRec in Bezug auf Recall@5 und Recall@10 0,688 bzw. 0,781 beträgt.;-;-;-;https://link.springer.com/article/10.1007/s11390-019-1954-4 3b0b95c9919d5d9aaca9169d7bcf21d0;de;;;3.3.;;;Eine neuromorphe Architektur für die kontextbezogene Textbilderkennung Obwohl vorhandene OCR-Tools (Optical Character Recognition) eine hervorragende Leistung bei der Textbilderkennung und Mustererkennung erzielen können, erfordern sie normalerweise ein sauberes Eingabebild. Die meisten von ihnen funktionieren nicht gut, wenn das Bild teilweise verdeckt oder verschmiert ist. Der Mensch kann beim Lesen eine deutlich schlechtere Bildqualität tolerieren, da die Wahrnehmungsfehler durch das Wissen auf Wort- und Satzebene korrigiert werden können. In diesem Beitrag präsentieren wir ein vom Gehirn inspiriertes Informationsverarbeitungs-Framework für die kontextsensitive intelligente Texterkennung (ITR) und deren Beschleunigung mit einem Memristor-basierten Crossbar-Array. Das ITRS verfügt über eine unterste Schicht aus massiven parallelen Brain-State-in-a-Box (BSB)-Engines, die Fuzzy-Mustervergleichsergebnisse liefern, und eine obere Schicht mit statistischer Inferenz-basierter Fehlerkorrektur. Optimierungen auf jeder Ebene des Frameworks werden eingeführt, um die Systemleistung zu verbessern. Es wird eine parallele Architektur präsentiert, die das Memristor-Kreuzschienenarray enthält, um die Musteranpassung zu beschleunigen. Im Vergleich zu herkömmlichen Multicore-Mikroprozessoren hat der Beschleuniger das Potenzial, enorme Flächen- und Energieeinsparungen sowie mehr als 8.000-fache Geschwindigkeiten zu erzielen.;-;-;-;https://link.springer.com/article/10.1007/s11265-015-1067-4 7791a1d5f4bcc60345a3587c73ae29e2;de;;;3.3.;;;Biologisch inspiriert: Eine regelbasierte Selbstrekonfiguration eines Virtex-Chips Um digitale Schaltkreise mit komplexer Struktur und/oder komplexer Funktionalität entwickeln zu können, schlagen wir einen künstlichen Entwicklungsprozess als Genotyp-Phänotyp-Mapping vor. Um solche Schaltungen realistisch zu entwickeln, wird eine Hardwareimplementierung des Entwicklungsprozesses zusammen mit einer Hochgeschwindigkeits-Rekonfigurationslogik für die Phänotypimplementierung präsentiert. Die Hardwareimplementierung des Entwicklungsprozesses ist ein programmierbarer Rekonfigurationsprozessor. Die Hochgeschwindigkeits-Rekonfigurationslogik zur Bewertung des Phänotyps ist in der Lage, den Vorteil einer massiven Parallelverarbeitung aufgrund der zellulären Automaten ähnlichen Struktur auszunutzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24688-6_161 edecc8e550b98d23a85cb3c666127c30;de;;;3.3.;;;Dynamisches Routing in softwaredefinierten Netzwerken Das Internet ist definitiv der größte Beitrag zur Globalisierung, die die ganze Welt zusammengeführt und jeden Winkel und jede Ecke erreichbar gemacht hat. Die herkömmlichen IP-Netze haben auch nach ihrer umfangreichen Anschaffung den Zweck einer vereinfachten Infrastruktur nicht erfüllen können. Netze von Dienstanbietern sind nicht in der Lage, (1) schnelles Switching im Kernnetz ohne Routing-Lookup, Lastausgleich und Retorten auf Fehler bereitzustellen, (2) das Netz gleichzeitig gemäß den vorherrschenden Netzrichtlinien und -bedingungen zu reorganisieren. Software-definiertes Netzwerk (SDN), das auf dem OpenFlow-Protokoll arbeitet, ist eine Revolution im Netzwerk, die darauf abzielt, das traditionelle Netzwerk durch Auflösen der Daten- und Steuerungsebenen umzugestalten. Es teilt die Steuerlogik von den verschiedenen Netzwerkgeräten wie Routern und Switches, indem es eine zentrale Überwachungssteuerlogik für das gesamte Netzwerk bereitstellt und die Fähigkeit bietet, das Netzwerk zu codieren. Beim traditionellen Routing werden die Informationen an das gesamte Netzwerk geflutet, was zu einer Übernutzung von Ressourcen, hohen Bandbreitenanforderungen und vielen anderen Nachteilen führt. Im Vergleich zum Legacy-Routing ist SDN bei der Routenberechnung effektiver und bietet vollständige Kontrolle über die Paketübertragung. Das Papier schlägt eine Methode vor, um mithilfe des Bellman-Ford-Routing-Algorithmus das kürzeste Weg-Routing zwischen der Quelle und dem Ziel zu finden. Zweitens werden die Routing-Emulationen für verschiedene Netzwerktopologien vorgestellt und unter Verwendung von Mininet verglichen, das Routing für SDN implementiert. Die vergleichende Analyse beider Szenarien zeigt, dass der in diesem Papier vorgeschlagene Routing-Algorithmus die höchste QoS beisteuert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-5802-9_89 57c44b3ce33f9962f4e48eb6181a5244;de;;;3.3.;;;Medical Body Area Network, Architekturdesign und Herausforderungen: Eine Umfrage Medical Body Area Network ist eine auf den Menschen ausgerichtete Anwendung von drahtlosen Sensornetzwerken, die in letzter Zeit viel Bedeutung erlangt hat. Die Anwendung umfasst sowohl tragbare als auch implantierbare Sensoren für die kontinuierliche Überwachung von Patienten in Krankenhäusern, alten Häusern oder an jedem entfernten Ort. Diese Sensorknoten in einem medizinischen Body-Area-Netzwerk besitzen alle Eigenschaften von Knoten in einem drahtlosen Sensornetzwerk. In diesem Artikel wurde ein Überblick über medizinische drahtlose Körpernetzwerke, seine architektonischen Designprobleme und Herausforderungen diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41054-3_6 5d32240fc6957c65aaca0c65900ce9ff;de;;;3.3.;;;Entwurf und Implementierung einer effizienten gemischten Parallel-Pipeline-SAD-Architektur für die HEVC-Bewegungsschätzung Die Videokomprimierung ist eine rechenintensive Aufgabe, die im Allgemeinen eine hohe Leistung für die Anwendung auf tragbaren Geräten erfordert. Diese hohe Leistung wird hauptsächlich durch die Bewegungsschätzung (ME) im Videocodierer erreicht. Mit der größeren Blockgröße und dem flexiblen Block macht die Partitionierung in High Efficiency Video Encoding (HEVC) den ME-Block komplizierter. Die Summe der absoluten Differenz (SAD) wird ausgiebig als Verzerrungsmetrik im ME-Prozess verwendet. Es ist die höchste Rechenaufgabe mit mehr Rechenzeit und Hardware-Ressource. In diesem Papier wird eine effiziente gemischte Parallelpipeline-SAD-Architektur für Hochfrequenz vorgeschlagen. Die Techniken zur Leistungsoptimierung werden auf verschiedenen Abstraktionsebenen verwendet: Architekturebene (parallel und Pipeline), RTL-Ebene (Gruppierung und gemeinsame Nutzung von Ressourcen) und Implementierungsebene (Retiming). Die vorgeschlagene Architektur wurde mit 28 nm Artix-7 Field Programmable Gate Array (FPGA) simuliert, synthetisiert und als Prototyp erstellt. Das Ergebnis zeigt, dass das vorgeschlagene Design einen signifikanten Anstieg der maximalen Frequenz von 498,4 MHz im Vergleich zu anderen existierenden Arbeiten in der Literatur bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6840-4_50 e15511812105e813345ba9c7ae0a65b3;de;;;3.3.;;;E-Assessment-Systeme und Online-Lernen mit adaptivem Testen In diesem Whitepaper erklären wir, wie ein systematischer Ansatz zum Design von Assessment as a Service in einer Cloud mit SOA-Architektur Zusatzfunktionen wie Online-Lernen mit interaktivem Assessment als eine Art formatives und integratives Assessment für den Lernprozess nutzen kann. Die Idee wird durch ein System (computerbasiertes Programm) realisiert, das systematisch Fragen stellt und die Schüler zur Wissenskonstruktion und -entdeckung führt. Das System sollte so einfach wie möglich und intelligent genug sein, um die Umsetzung dieser Idee zu ermöglichen. Dieses Online-Lerntool mit adaptivem Testen verwendet Softwareagenten, bei denen mehrere Strategien das Verhalten des Agenten definieren. Wir haben beobachtet, dass die Strategie „3 richtige Antworten hintereinander“ am besten abschneidet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41965-2_8 77c47f701730e125df5425fae161865e;de;;;3.3.;;;Parallele Verarbeitung von inkrementellem Raytracing auf einem Shared-Memory-Multiprozessor Dieses Papier stellt eine neuartige Parallelverarbeitungsmethode zur Bildsynthese unter Verwendung von inkrementellem Raytracing auf einer Multiprozessor-Workstation mit gemeinsam genutztem Speicher vor. Die effizienteste Technik zur Bildsynthese ist das Raytracing, das 1980 von Whitted vorgeschlagen wurde. Raytracing-Algorithmen sind einfach und können realistische Bilder erzeugen. Sie sind jedoch zeitaufwendig, da die Berechnungen der Schnittpunkte zwischen Objekten und Strahl mit zunehmender Komplexität der Szenen exponentiell zunehmen. Die schnelle Bildsynthese für Animationen ist eines der wichtigsten Themen in der Computergrafik. Mit der Erweiterung des Gebiets der Computeranwendungen hat sich die Komplexität der zu synthetisierenden Bilder erhöht. Die parallele Verarbeitung von Computergrafiken ist eine Möglichkeit, eine schnelle Bildsynthese zu erreichen. Dieses Papier beschreibt eine parallele Verarbeitungstechnik für inkrementelles Raytracing, die nur die Strahlen neu berechnet, die durch sich bewegende Objekte in aufeinanderfolgenden Szenen einer kontinuierlichen Bildsynthese geändert wurden. Die Leistung des parallelen Raytracings wurde auf der Multiprozessor-Workstation TOP-1 evaluiert. Strategien zum Zuweisen von Pixeln zu Prozessen unter einem Multiprozess-Betriebssystem auf dieser Workstation werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF01901687 47d6dc25ddbf25fbab1085311b7475c1;de;;;3.3.;;;Entwurf einer Barrel-Shifter-Architektur mit geringem Stromverbrauch durch Verwendung von vorgeschlagenem MUX-basiertem CORDIC in CMOS-Logik Shifter spielen normalerweise eine wichtige Rolle bei allen Operationen in VLSI-Computersystemen. Zum Beispiel ist der Barrel-Shifter ein grundlegender Block vieler Computersysteme aufgrund seines Betriebsbetriebs, dass er verschiedene Mehrfachbits in einem Zyklus verschieben und drehen kann. Der Barrel-Shifter kann auch für arithmetische und logische Shifter ersetzt werden, da er die Rotation der Daten nutzt. Es bietet auch die arithmetische und logische Verschiebung von rechts und links. Das Design ist rein MUX-basiert, und daher verbessert die Entwicklung eines MUX für niedrige Leistung, um ihn als sich wiederholenden Block im Barrel-Shifter zu verwenden, seine Effizienz. In diesem Papier wird ein 8-Bit-Barrel-Shifter mit Multiplexern (MUX) implementiert und in einem Kadenzwerkzeug zur Demonstration der Leistung und seiner Funktionsabläufe entwickelt. Das Papier analysiert und optimiert die Fläche und Leistung des Barrel Shifter in 180-nm-Technologien. Das Cadence Virtuoso-Tool wird für die Implementierung des Blocks verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7486-3_62 eee1fea218cf121ed53212457060774b;de;;;3.3.;;;Auf dem Weg zu regelkonsistenten Updates in softwaredefinierten drahtlosen Sensornetzwerken Das Phänomen inkonsistenter Netzwerkeigenschaften wie Weiterleitungsschleifen und Paketverluste kann während der Regelaktualisierung von softwaredefinierten drahtlosen Sensornetzwerken auftreten. Um dies zu erreichen, wird die Idee der Planung der Aktualisierungsreihenfolge von Sensorknoten übernommen, um die Strategie der umgekehrten Addition der Regeln, die Strategie der Modifikation der Regelunterdrückung und die Strategie der Löschung der umgekehrten Regel zu entwerfen. Gleichzeitig wird die parallele Ausführung von Sub-Updates durch die Aufteilung der Update-Domäne unterstützt. Dieses Verfahren verbessert effektiv die Konsistenz von Netzwerkaktualisierungsattributen und verbessert die Aktualisierungsleistung stark. Die Simulationsergebnisse auf Basis von SDN-WISE zeigen, dass sich die vorgeschlagenen Strategien gut an die ressourcenbegrenzten drahtlosen Sensornetzwerke anpassen könnten und die Vorteile besonders deutlich werden, wenn die Regelabhängigkeiten komplizierter sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00021-9_16 5fee3e22db3df6c032b838e4b18be46b;de;;;3.3.;;;Über die Entwaldungsparameter von sich ansammelnden Karten Entwaldung ist eine bekannte Programmtransformationstechnik, die Zwischendatenstrukturen eliminiert, die zwischen Funktionen weitergegeben werden. Eine seiner Schwächen ist die Unfähigkeit, Programme mit akkumulierenden Parametern abzuholzen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45607-4_3 b45ca642f86d2d5ead152cf97aa55355;de;;;3.3.;;;Ansätze und Controller zur Lösung des Konkurrenzproblems für Paketvermittlungsnetze: Eine Umfrage Optical Packet Switching (OPS) ist eine vielversprechende Technologie für zukünftige Netzwerke. Jedoch ist die optische Paketkonkurrenz ein Hauptproblem in einem OPS-Netzwerk. Auflösung und Vermeidung sind zwei Schemata, die das Konfliktproblem lösen können. Ein Lösungsschema löst als reaktiver Ansatz Kollisionen, während ein Vermeidungsschema als proaktiver Ansatz versucht, die Anzahl potenzieller Kollisionsereignisse zu reduzieren. Daher wurden viele Konkurrenzsteuerungen, die neuronale Netze verwenden, vorgeschlagen, um das Ausgabekonkurrenzproblem innerhalb eines Lernansatzes zu steuern. In diesem Artikel untersuchen wir die für OPS-Netzwerke vorgeschlagenen Konfliktlösungs- und -vermeidungsschemata. Wir überprüfen auch einige Vorschläge für Konkurrenzsteuerungen, die neuronale Netztechniken verwenden, um das Ausgabekonfliktproblem in OPS zu lösen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32427-7_24 d3c8e8c9cda90e5ad96b656ec7b6b76b;de;;;3.3.;;;Cloud SaaS: Modelle und Transformation Cloud Computing ist ein neues und kommendes Computing-Modell, bei dem die Rechenressourcen als Dienste aus der Ferne über ein Netzwerk angeboten werden. Die als Cloud-SaaS ausgeführten Softwareanwendungen sind auf verschiedene Plattformen ausgerichtet. Die sich ständig weiterentwickelnden Softwaretechnologien können dazu führen, dass die Legacy-Anwendungen veraltet sind. Es wird daher zu einer wesentlichen Voraussetzung, eine Softwareentwicklungsmethodik zu übernehmen, die die unerwünschten Auswirkungen des Technologiewandels mildern könnte. Der Model Driven Architecture (MDA)-Ansatz ist die naheliegende Wahl, wenn die Modelle den Softwareentwicklungsprozess steuern. Diese Modelle werden auf verschiedenen Abstraktionsebenen definiert und automatisierte Tools werden für Modell-zu-Modell- und Modell-zu-Code-Transformationen zwischen den Ebenen verwendet. In diesem Papier veranschaulichen die Autoren einen MDA-basierten Ansatz für die Entwicklung von Cloud-Softwareanwendungen, die sie im Zuge sich ändernder Technologien robuster, flexibler und agiler machen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24055-3_31 f68caf2f50cc4d4892b1a298c180fb18;de;;;3.3.;;;Auf dem Weg zu einer Blockchain-Architektur für Kulturerbe-Token Streitigkeiten über Kulturerbe-Token und Sammlungsansprüche zwischen Sammlern, organisierten sozialen Gruppen, Ländern, Ethnien und sogar Zivilisationen sind im Laufe der Zeit nur selten. Universelle Ontologien wie das CIDOC Conceptual Reference Model (ISO 21127:2014) haben sich in den letzten Jahren zu globalen Standards entwickelt, um eine nahtlose Strukturierung und den Austausch von Dokumentationsinformationen zu Artefakten des Kulturerbes zu ermöglichen, trotz ihrer tatsächlichen Natur (physisch, immaterielle, , etc.).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-12957-6_38 812418ee0b35aa878e501f24f4f9da07;de;;;3.3.;;;Ein 2,4 GHz CMOS-Transceiver mit geringem Stromverbrauch für LR-WPAN-Anwendungen Ein 2,4 GHz Low-Power-Transceiver für Low-Rate Wireless Personal Area Network (LR-WPAN)-Anwendungen wird vorgestellt. Der optimierte Low-IF-Empfänger besteht aus einem neuartigen HF-Front-End zur Stromwiederverwendung mit einem induktivitätslosen Balun-LNA und einem Quadraturmischer sowie einem adaptiven analogen Basisband zur Reduzierung von Leistung und Fläche. Er erreicht −94 dBm Empfindlichkeit, −9 dBm IIP3 und 28 dBc Spiegelfrequenzunterdrückung. Der direkt phasenmodulierte Sender auf der Grundlage einer Phasenregelschleife wird vorgeschlagen, um die Leistung zu reduzieren und eine Ausgangsleistung von +3 dBm zu liefern. Das Phasenrauschen des Niederleistungs-Frequenzsynthesizers mit gestapeltem LC-VCO zur Stromwiederverwendung erreicht –107,8 dBc/Hz bei 1 MHz Offset. Ein nichtflüchtiger Speicher mit extrem niedrigem Stromverbrauch wird verwendet, um Konfigurationsdaten zu speichern und Strom zu sparen. Der Chip wird in einem 0,18-μm-CMOS-Prozess implementiert und die Fläche beträgt weniger als 2,8 mm;-;-;-;https://link.springer.com/article/10.1007/s11432-013-4981-8 1b43f3def680338461acf142066050c1;de;;;3.3.;;;UCOMP-Roadmap: Umfrage, Herausforderungen, Empfehlungen Wir berichten über die Ergebnisse der Roadmap-Aktivität des EU-TRUCE-Projekts UCOMP. Wir kategorisieren UCOMP nach Hardware- und Softwareachsen und stellen einen Katalog mit hw-UCOMP und sw-UCOMP Beispielen bereit. Wir beschreiben den Ansatz, den wir bei der Zusammenstellung der Roadmap-Fallstudien im Rest von Teil I gewählt haben. Wir identifizieren acht Aspekte von UCOMP, um die breite Palette von Ansätzen zu analysieren: Geschwindigkeit, Ressourcen, Qualität, Einbettung, Formalismus, Programmierbarkeit, Anwendungen und Philosophie . Wir dokumentieren eine Reihe von Herausforderungen, denen sich die UCOMP-Forschung gegenübersieht, darunter Hardware-Design und -Herstellung, Software-Theorie und -Programmierung sowie Anwendungen und Bereitstellung. Schließlich listen wir einige Empfehlungen für die Fokussierung der zukünftigen UCOMP-Forschung auf: Skalierung von Hardware, Software und Konzepten, Identifizierung von Killer-Apps und Vereinheitlichung der UCOMP-Domäne.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-65826-1_2 4a5cdcbb63f12e23532444fb60e870d0;de;;;3.3.;;;Die TERENCE Smart Games Revisionsrichtlinien und das Software-Tool TERENCE ist ein hochgradig multidisziplinäres europäisches IKT-Projekt des RP7, das ein adaptives Lernsystem entwickelt, um schlecht verstehende Menschen und ihre Pädagogen zu unterstützen. Der Beitrag stellt den automatischen Generierungsprozess von Smart Games in TERENCE vor und stellt die Richtlinien für die manuelle Überarbeitung sowie das unterstützende Softwaresystem vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-00554-6_3 92665fb0a3a9523617e9bcdf8b883d33;de;;;3.3.;;;Codebasierte Public-Key-Kryptosysteme und ihre Anwendungen Codebasierte Kryptosysteme mit öffentlichem Schlüssel basieren auf der Härte eines Decodierungsproblems. Zu ihren Vorteilen zählen: 1) Quantentolerant, d.h. selbst auf Quantencomputern ist kein polynomialer Zeitalgorithmus bekannt, während zahlentheoretische Public-Key-Kryptosysteme wie RSA, Elliptic Curve Cryptosystems, DH, DSA dagegen anfällig sind. 2) Die Recheneinheit ist klein für die Verschlüsselung und Signaturprüfung, da sie hauptsächlich aus Exklusiv-Odern besteht, die hochgradig parallelisierbar sind. Der Nachteil besteht jedoch darin, dass die Größe des öffentlichen Schlüssels groß ist, die für typische Parameter etwa einige hundert KB bis einige MB beträgt. Mehrere Versuche wurden durchgeführt, um die Größe des öffentlichen Schlüssels zu reduzieren. Die meisten von ihnen scheiterten jedoch mit Ausnahme eines, der Quasi-Dyadic (QD) Public-Key (für große Erweiterungsgrade) ist. Obwohl ein Angriff auf den öffentlichen QD-Schlüssel (für kleine Erweiterungsgrade) vorgeschlagen wurde, kann dieser verhindert werden, indem;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14496-7_5 0e2eeab0f77fcbb8c6d466942f42659b;de;;;3.3.;;;Anpassen des HPL für China-Beschleuniger HPL ist ein Linpack-Benchmark-Paket, das häufig in Hochleistungs-Computing-Tests verwendet wird. Das Anpassen der HPL ist für ein heterogenes System, das mit CPU und dem China-Beschleuniger ausgestattet ist, aufgrund der Komplexität des China-Beschleunigers und der spezifizierten Schnittstelle zur Matrixmultiplikation, die im China-Beschleuniger eingebaut ist, entscheidend. Daher ist es ratsam, eine empfindliche Partition und Kapselung auf Matrix (DPEM) zu verwenden, um eine freundliche Testkonfiguration bereitzustellen. Noch wichtiger ist, dass wir den Orchestrierungsalgorithmus für die Matrixmultiplikation (OAMM) vorschlagen, um die Effizienz des heterogenen Systems aus CPU und China-Beschleuniger zu verbessern. Darüber hinaus wird eine Optimierung bei der Vektorisierung (OPTVEC) angewendet, um die Architekturdetails des im China-Beschleuniger ausgestatteten Vektorverarbeitungselements (VPE) abzuschirmen. Die experimentellen Ergebnisse validieren DPEM, OPTVEC und OAMM. OPTVEC-Optimierungen würden die Matrixmultiplikation mehr als verdoppeln, außerdem würde OAMM die Produktivität um bis zu 10 % verbessern, verglichen mit dem traditionellen HPL, das in einem heterogenen System getestet wurde.;-;-;-;https://link.springer.com/article/10.1007/s11432-017-9221-0 9c1ceafd0d302a43a212ddabe062c43d;de;;;3.3.;;;Payment Information Calculation System (PICS) Spezifikation für Qualitätsmaße im Gesundheitswesen Die Messung der Gesundheitsqualität in mehreren Versorgungseinrichtungen hat höchste Priorität. Die Fähigkeit, mit den sich entwickelnden Sorgfaltsstandards Schritt zu halten, um sicherzustellen, dass wir die richtigen Dinge zur richtigen Zeit messen, ist von entscheidender Bedeutung. Die Flexibilität, Qualitätsindikatoren einfach und in engen Zeitrahmen hinzuzufügen, zu aktualisieren und zu entfernen, ist von entscheidender Bedeutung. Das Payment Information Calculation System (PICS), das in mehreren nationalen Verträgen für die Erhebung und Berechnung von Gesundheitsqualitätsdaten verwendet wird, erleichtert die Reaktionsfähigkeit. Das Design des Systems ermöglicht eine gesteigerte Effizienz durch die Integration von regelgesteuerter Technologie. Das Tool bietet Fachexperten, die keine Entwickler sind, die Möglichkeit, Geschäftsregeln für die klinische Datenerfassung in einem XML-Format zu definieren, das vom PICS-Verbraucher verwendet wird, um Benutzerschnittstellen für die Datenerfassung zu generieren. Diese Flexibilität bietet die Möglichkeit, neue Datenerfassungsmodule komplett mit Datenerfassungsdefinitionen, Ablauflogik (Übersprungmuster) zu erstellen und Datenerfassungsformate durchzusetzen und erfasste Daten zu validieren (Bearbeitungen).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37899-7_21 cd2e518079c7bb8cdd7e44f8225eb511;de;;;3.3.;;;Untersuchung von Gen-zu-Geschlecht-Interaktionen für Lipidmerkmale in verschiedenen Populationen aus der Populationsarchitektur mithilfe von Genomik- und Epidemiologiestudien Die Werte von High-Density-Lipoprotein-Cholesterin (HDL-C), Low-Density-Lipoprotein-Cholesterin (LDL-C) und Triglycerid (TG) werden sowohl von den Genen als auch von der Umwelt beeinflusst. Genomweite Assoziationsstudien (GWAS) haben ~100 häufige genetische Varianten identifiziert, die mit HDL-C-, LDL-C- und/oder TG-Spiegeln assoziiert sind, hauptsächlich in Populationen europäischer Abstammung, aber über die Modifikatoren dieser Assoziationen ist wenig bekannt. Hier untersuchten wir, ob GWAS-identifizierte SNPs für Lipidmerkmale in der Studie Population Architecture using Genomics and Epidemiology (PAGE) Heterogenität nach Geschlecht aufwiesen.;-;-;-;https://link.springer.com/article/10.1186/1471-2156-14-33 64667577e7cc4f2a7ccea8c6c7ff890d;de;;;3.3.;;;Implementierung und Simulation einer ALLIANCE-basierten Multi-Roboter-Aufgabenzuweisungsarchitektur mit ROS In diesem Kapitel diskutieren wir die Implementierungs- und Simulationsergebnisse einer ALLIANCE-basierten Architektur auf dem Robot Operating System (ROS). Bei diesem Ansatz wurden die Systemparameter empirisch festgelegt und wir diskutieren nicht die Systemleistungsmetriken. Der Fokus liegt auf der Implementierung des Aufgabenverteilungsalgorithmus. Nach einem kurzen Überblick über das MRTA-Problem vergleichen wir bekannte Architekturen in einigen Schlüsselaspekten. Obwohl nur Simulationen den ALLIANCE-basierten Ansatz validieren, ist die Systemflexibilität und -anpassungsfähigkeit trotz der verschiedenen Ausführungsvarianten bemerkenswert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-47247-8_13 b95f9a5a320bd15df113db34091e1a19;de;;;3.3.;;;Mittelpunkterkennung des Fingerabdrucks basierend auf der Richtungsmittelwertdifferenz Das Richtungsmuster ist eine Darstellung des ursprünglichen Fingerabdruckbildes. Dieses Papier schlägt einen Algorithmus vor, der auf der Richtungsmittelwertdifferenz basiert, um den Fingerabdruckmittelpunkt zu erkennen. Die Realisierung dieses Algorithmus umfasst hauptsächlich das Erfassen der Punktrichtung jedes Pixels und das Konfigurieren von Blockmustern mit 8×8- und 16×16-Bereichen. Experimentelle Ergebnisse zeigen, dass der Algorithmus eine gute Robustheit aufweist und den falschen Mittelpunkt, der von den Fingerabdrücken erkannt wurde, leicht entfernen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23220-6_80 fa3eb6e9fbe5a435bcee1ade731fc227;de;;;3.3.;;;Eine Klassifikationsmethode für medizinische Datenbanken durch Immune Multi-Agent Neural Networks mit Planar-Gitter-Architektur Eine Klassifikationsfähigkeit von neuronalen Netzwerken mit mehreren Experten zeigt einige herausragende Ergebnisse beim Training einer Reihe von realen Trainingsfällen. Neuronale Netzwerke mit mehreren Experten arbeiten miteinander, basierend auf dem Konzept der Multiagenten. Wir können jedoch das Problem einer optimalen Anzahl von Agenten lösen. In diesem Papier wenden wir das neuronale Netz des planaren Gitters an, um eine optimale Zahl zu finden, während wir eine Reihe von Trainingsfällen klassifizieren. Um die Wirksamkeit zu verifizieren, berichten wir die experimentellen Ergebnisse für medizinische Datenbanken zu Leber- und Gallenerkrankungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45226-3_52 16383f5563dd9ecd373ca1d2ba9ce2c8;de;;;3.3.;;;Architekturauswahl und Singularitätsanalyse eines Planar-Parallel-Manipulators mit drei Freiheitsgraden In unserem Labor wurde ein Planar-Parallel-Manipulator mit drei Freiheitsgraden entwickelt, der für Hochgeschwindigkeits-, Hochpräzisions-Drahtbond- und Bestückungsaufgaben von elektronischen Bauteilen bestimmt ist. In diesem Beitrag werden die Arbeiten im Zusammenhang mit der Auswahl der kinematischen Manipulator-Architektur vorgestellt. Der erreichbare Arbeitsbereich und die Metriken „effektive Grundfläche“ des parallelen Manipulators wurden zur Auswahl der bestmöglichen Architektur aus sechs möglichen Konfigurationen verwendet. Konstante plattformorientierte Regionen innerhalb des erreichbaren Arbeitsbereichs des ausgewählten Manipulators wurden basierend auf den Anforderungen der Manipulator-Aufgabe identifiziert. Simulationsergebnisse für die Arbeitsraumanalysen (erreichbarer Arbeitsraum, effektive Grundflächen und konstante Orientierungsbereiche) werden in diesem Beitrag vorgestellt. Sobald die optimale Workspace-Architektur ausgewählt war, wurden sowohl die Workspace-Grenzen als auch die internen Singularitäten weiter untersucht, um eine klare Sicht auf die Menge unkontrollierbarer Posen des Manipulators zu haben. Beispiele für Singularitätsanalysen sind hierin ebenfalls enthalten.;-;-;-;https://link.springer.com/article/10.1023/A%3A1026163319039 40ca85fa81de9faf2167be85ef7b7a17;de;;;3.3.;;;So implementieren Sie eine verteilte multidisziplinäre Verbundsimulation für die kollaborative Produktentwicklung Komplexe Artefakte und Systeme verkörpern in der Regel multidisziplinäres Wissen, das die computergestützte Zusammenarbeit zwischen Experten und Designern unumgänglich macht. Multidisziplinäre kollaborative Modellierungs- und Simulationstechnologie (M&S) ist ein effektiver Ansatz für das Design und die Entwicklung des komplexen Produkts. Die Herausforderung besteht nun darin, das multidisziplinäre kollaborative M&S auf der systematischen Ebene komplexer Produktentwicklungen anzuwenden. Die zentrale Frage ist die Integration der heterogenen, autonomen Softwaretools in eine verteilte Umgebung. In diesem Papier berichten wir über die Begründung und Implementierung eines solchen multidisziplinären kollaborativen M&S-Frameworks, das auf der High-Level-Architektur (HLA) und Webservices basiert. Der Designprozess im kollaborativen Designparadigma wird grundsätzlich analysiert. Es wird eine Modellierungs- und Simulationsplattform mit dem Fokus auf multidisziplinäres kollaboratives Design vorgestellt. Daneben werden Schlüsseltechnologien für HLA und Webservices basierte Integration untersucht. Es stellt sich heraus, dass dieser Ansatz sehr effektiv und intuitiv sein sollte, indem die Neigekomponente einer Neigelokomotive als Instanz analysiert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-92719-8_12 cbeef7f36e9af15426ad754cd06234ed;de;;;3.3.;;;Filtern von Spam-E-Mails mit flexiblen Präprozessoren Spam-E-Mails sind die gebräuchliche Bezeichnung für „unaufgeforderte Massen-E-Mails“. Es ist eine der Cybernerven, die wir jeden Tag ertragen müssen. Spam-E-Mails verschwenden nicht nur Ressourcen, sondern stellen auch eine ernsthafte Sicherheitsbedrohung dar. Es gibt zwei Arten von Spam-E-Mails:;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-74938-9_16 ebd3de603d4f740f4e08eddb23d02b73;de;;;3.3.;;;Communities of Practice und das Geschäft mit Open Source Web Mapping Die Zunahme der Akzeptanz von Open-Source-Web-Mapping-Technologien in den letzten fünf Jahren war geradezu spektakulär. Obwohl den Technologien selbst große Aufmerksamkeit gewidmet wird, liegt der Ursprung ihres Wachstums in den sozialen und wirtschaftlichen Trends, die die Entwicklung und Einführung von Technologien vorangetrieben haben. Dieses Kapitel konzentriert sich auf das entstehende Open-Source-Webmapping-Ökosystem und die vielen Interessengruppen, die darin eine Rolle spielen. Das Kapitel skizziert insbesondere die starken Beziehungen zwischen Unternehmen und Partnerschaften zwischen Unternehmen und Praxisgemeinschaften rund um Open-Source-Technologien. Durch das Verständnis dieser Beziehungen können Technologienutzer, Mitwirkende, Unternehmen und Gemeinschaften ihre eigenen Rollen innerhalb des Ökosystems identifizieren und daraus Erfolgsstrategien entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74831-1_3 1e57a16e26972211f03049714aa94072;de;;;3.3.;;;Speichervertraulichkeits- und Integritätsschutztechnologie In den meisten existierenden Computersystemen ist die Datenübertragung und -speicherung in Form von Klartext anfällig für verschiedene Angriffe. In diesem Dokument verwenden wir den Algorithmus der Parralelized Memory Confidentiality and Integrity Protection (PCIP)-Technologie, um die Vertraulichkeit und Integrität von Speicherdaten sicherzustellen. Auf der Grundlage von PCIP verwenden wir PCIP Bonsai Merkle Tree (PCIP+BMT), um die Zählerwerte außerhalb des Chips zu schützen, um die Systemverzögerung und den Overhead zu reduzieren. PCIP verwendet eine Verschlüsselung im Zählermodus, um Daten zu verschlüsseln, während redundante Daten für die Integritätsprüfung hinzugefügt werden. Schließlich verwenden wir das SimpleScalar Tool, um die PCIP- und PE-ICE-Algorithmen zu simulieren. Die Ergebnisse zeigen, dass PCIP effektiver verschlüsselt wird als PC-ICE. Im Vergleich zum Hash-Algorithmus kann er die Systemverzögerung reduzieren und den internen Speicher-Overhead reduzieren. Der in diesem Dokument verwendete Baummechanismus reduziert die Auswirkungen auf die Systemleistung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6508-9_130 2cda87477dad7b3a9f7b270dba67da94;de;;;3.3.;;;Vom föderierten Lernen zur föderierten neuronalen Architektursuche: eine Umfrage Federated Learning ist ein kürzlich vorgeschlagenes Paradigma für verteiltes maschinelles Lernen zur Wahrung der Privatsphäre, das eine breite Palette von Anwendungen gefunden hat, bei denen der Datenschutz im Vordergrund steht. Inzwischen ist die neuronale Architektursuche beim Deep Learning sehr beliebt geworden, um die Architektur und Hyperparameter von tiefen neuronalen Netzen automatisch abzustimmen. Während sowohl das föderierte Lernen als auch die Suche nach neuronalen Architekturen mit vielen offenen Herausforderungen konfrontiert sind, ist die Suche nach optimierten neuronalen Architekturen im föderierten Lernrahmen besonders anspruchsvoll. Dieses Umfragepapier beginnt mit einer kurzen Einführung in das föderierte Lernen, das sowohl horizontales, vertikales als auch hybrides föderiertes Lernen umfasst. Anschließend werden neuronale Architektur-Suchansätze basierend auf Reinforcement Learning, evolutionären Algorithmen und gradientenbasiert vorgestellt. Es folgt eine Beschreibung der kürzlich vorgeschlagenen föderierten neuronalen Architektursuche, die in Online- und Offline-Implementierungen sowie Einzel- und Mehrzielsuchansätze kategorisiert wird. Abschließend werden noch offene Forschungsfragen skizziert und vielversprechende Forschungsthemen vorgeschlagen.;-;-;-;https://link.springer.com/article/10.1007/s40747-020-00247-z cc6dbeef7f214b067eed02b7bdf7be59;de;;;3.3.;;;Entwerfen einer Architektur für anpassungsfähig autonome Roboterteams Wir beginnen ein Projekt zur Entwicklung grundlegender Fähigkeiten, die es mehreren, verteilten, heterogenen Robotern ermöglichen, sich bei der Erfüllung von Aufgaben zu koordinieren, die von den Robotern nicht einzeln ausgeführt werden können. Das Grundkonzept besteht darin, die einzelnen Roboter weitgehend unabhängig voneinander agieren zu lassen und bei Bedarf dennoch eine enge und präzise Koordination zu ermöglichen. Die einzelnen Roboter werden hochgradig autonom sein, aber ihr Verhalten synchronisieren, miteinander verhandeln, um Aufgaben zu erledigen, und ihre Fähigkeiten „bewerben“. Dieser architektonische Ansatz unterscheidet sich von den meisten anderen Arbeiten in Mehrrobotersystemen, in denen die Roboter entweder lose gekoppelte Agenten mit geringer oder keiner expliziten Koordination sind [;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45408-X_34 89a6aa624d5f9994d7425ab0cddd8ab4;de;;;3.3.;;;Eine Studie einer parallelen Datenbankmaschine und ihrer Leistung der NCR/Teradata DBC/1012 Parallelverarbeitung ist seit langem als hocheffizientes Verfahren zum Aufbringen großer Mengen an Rechenleistung auf spezialisierte Anwendungen anerkannt. Die Welt des kommerziellen Rechnens hat jedoch größtenteils keine geeigneten Arbeiten geliefert, um die Schaffung kommerzieller Parallelsysteme zu rechtfertigen. Das Aufkommen des relationalen Modells mit seiner parallelen Sprache – SQL – und der Notwendigkeit, große Datenmengen zu speichern, hat diese Möglichkeit eröffnet. In diesem Beitrag werden einige der Vorteile vorgestellt, die sich aus einer groß angelegten parallelen Hardware unter Verwendung des Teradata DBC/1012-Datenbankcomputers ergeben, der derzeit in vielen großen kommerziellen Organisationen als Paradebeispiel verwendet wird.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-55693-1_35 7b9ce1c2b630e4752deb303addc4c2a0;de;;;3.3.;;;Breaking the Box: Simuliertes Protein-Computing Computer seit den 1940er Jahren haben dieselbe grundlegende Architektur, die von Turing und von Neumann beschrieben wurde, bei der ein zentraler Prozessor Zugriff auf einen zusammenhängenden Hauptspeicherblock hat. Diese Architektur wird durch moderne Anwendungen herausgefordert, die mehr Parallelität, Verteilung, Koordination und Komplexität erfordern. Hier zeigen wir, dass ein Modell von Proteininteraktionen als neue Architektur dienen kann und nützliche Berechnungen auf eine Weise durchführt, die eine viel größere Skalierbarkeit, Flexibilität, Anpassung und Leistungsfähigkeit bietet als die traditionelle von Neumann-Architektur. Wir fanden heraus, dass sogar diese einfache Simulation von Proteininteraktionen universell ist, da sie die auf einem digitalen Computer durchgeführten Berechnungen nachbilden kann, jedoch ohne auf einen zentralen Prozessor oder Hauptspeicher angewiesen zu sein. Wir gehen davon aus, dass die Konvergenz von Informations- und Biowissenschaften im Begriff ist, eine Plattform zu schaffen, die das Computing belebt, da sie Einblicke in die Komplexität lebender Systeme bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32615-8_43 bddff6ea0db0009feaccb08ff52669a5;de;;;3.3.;;;Modellgetriebenes Engineering für vertrauenswürdige eingebettete Systeme basierend auf Sicherheits- und Zuverlässigkeitsmustern Heutzutage äußern viele Praktiker ihre Besorgnis über aktuelle Software-Engineering-Praktiken. Neue Empfehlungen sollten in Betracht gezogen werden, um Software-Engineering auf zwei Säulen zu stützen: solide Theorie und bewährte Prinzipien. Wir haben die zweite Säule in Richtung Software-Engineering für eingebettete Systemanwendungen gewählt und uns auf das Problem der Integration von Sicherheit und Zuverlässigkeit (S&D) durch Design konzentriert, um die Wiederverwendung zu fördern. Das Framework und die Methodik, die wir vorschlagen, verbinden das modellgetriebene Paradigma und ein modellbasiertes Repository von S&D-Mustern, um das Design von vertrauenswürdigen Resource Constrained Embedded System (RCES)-Anwendungen für mehrere Domänen (z. B. Eisenbahn, Messtechnik, Automobil) zu unterstützen. Der Ansatz wurde von den externen Gutachtern des TERESA-Projekts sowie intern vom Ikerlan-Forschungszentrum für den Eisenbahnbereich erfolgreich evaluiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38911-5_5 eaf21951d804b6b245eecefe70eff212;de;;;3.3.;;;Verkehrsstauerkennung: Lösungen, offene Probleme und Herausforderungen In den letzten Jahren erleben Städte aufgrund von Verkehrsstaus einen tiefgreifenden negativen Einfluss. Da die Zahl der Fahrzeuge rapide ansteigt, werden Verkehrsstaus in städtischen Gebieten insbesondere zu Stoßzeiten unhaltbar, was zu Zeit- und Kraftstoffverschwendung, Unfällen, zusätzlichen Kosten für die Wirtschaft, Umweltproblemen und folglich zu einer Beeinträchtigung der Lebensqualität führt. Es werden enorme Anstrengungen unternommen, um Lösungen für die Erkennung und Überwachung von Verkehrsstaus bereitzustellen. Basierend auf den verwendeten Technologien lassen sich bestehende Lösungen in drei Kategorien einteilen: Sensorik, Vehicular Adhoc Networks und visuelle Verkehrsüberwachung. In dieser Umfrage überprüfen wir die wichtigsten neueren Arbeiten, die in jeder Kategorie vorgeschlagen wurden, und diskutieren ihre Stärken und Schwächen. Wir geben einen Einblick in zukünftige Richtungen für den Umgang mit Staus mit den vorgestellten Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-65810-6_1 cd70b9edc4e4ed45f79d8eb95f3635b7;de;;;3.3.;;;Analyse von Sicherheitsproblemen von Cloud-basierten Webanwendungen Das Cloud-Computing ist ein leistungsstarkes Werkzeug zur Optimierung der Kosten in Bezug auf Hardware, kontrollierbar, Nützlichkeit für die gemeinsame Nutzung der Daten, aufgrund der oben genannten Funktionen, die die meisten Unternehmen, die ihre Anwendungen und Dienste in die Cloud wechseln, verwenden. Cloud-Dienste bieten sichere und skalierbare Dienste, aber es gibt immer ein Sicherheitsproblem, wenn Daten von einem zentralen Speicherserver in eine andere Cloud übertragen wurden Anbieter in der Cloud oder wählen Sie die Cloud und verschieben Sie Dienste in die Cloud. Dieses Papier zielt darauf ab, Probleme zu lösen und Gegenmaßnahmen in Bezug auf Sicherheitsprobleme in Cloud-basierten Webanwendungen bereitzustellen. Die Schwachstellenbewertungen, ihre Auswirkungen auf Vertraulichkeit, Integrität, Verfügbarkeit, Zugriffskomplexität und Risiko für Assets werden berechnet und die meisten der während des Scans identifizierten Schwachstellen stehen im Zusammenhang mit der Sicherheit aufgrund von Fehlkonfigurationen von Webservern. Die analysierten Ergebnisse für die Schwachstellenbewertungen, Auswirkungen von Schwachstellen auf Vertraulichkeit, Integrität, Verfügbarkeit, Zugriffskomplexität und Risiko werden analysiert, Beschreibung und Risikobewertung. Die Gegenmaßnahmen für jede Schwachstelle basieren auf den diskutierten experimentellen Ergebnissen.;-;-;-;https://link.springer.com/article/10.1007/s12652-020-02370-8 6dd9c35610c825f6f0df55c419c28196;de;;;3.3.;;;Transformer-Based Coattention: Neuronale Architektur für Leseverständnis Machine Reading Comprehension (MRC) ist eine der Hauptherausforderungen beim Natural Language Understanding (NLU), ihr Ziel ist es, basierend auf den gestellten Fragen aus dem vorgegebenen Kontext die richtige Antwort zu geben. Heutzutage werden Aufmerksamkeitsmechanismen häufig bei Leseverständnisaufgaben verwendet. In diesem Kapitel wird basierend auf der Analyse zweier hochmoderner Aufmerksamkeitsmechanismen, Coattention und Multi-Head Attention, die Transformer-based Coattention (TBC) vorgeschlagen. Darüber hinaus wird ein allgemeines Hybridschema vorgeschlagen, um die TBC mit geringen zusätzlichen Schulungskosten in vortrainierte MRC-Modelle zu integrieren. Unsere Experimente mit dem Stanford Question Answering Dataset (SQuAD) und dem Discrete Reasoning Over the Content of Paragraphs (DROP) zeigen, dass unser hybrides Schema dazu führt, dass Modelle eine bessere Leistung erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1864-5_75 3f0c819946d79207ba5634a034f5e7e5;de;;;3.3.;;;Eine Architektur zur emotionalen Erkennung basierend auf der menschlichen Gehirnstruktur Emotionale Erfahrung hat beim Menschen zwei unterschiedliche Komponenten: „automatisch“ und „beaufsichtigt“. Erstere basiert stärker auf den ventralen und limbischen Bereichen des Gehirns, der Aufmerksamkeitsteil befasst sich mit kognitiven Aspekten des Erlebens und umfasst mehr dorsale Komponenten. Durch Bildgebung des Gehirns, Einzelzellaufzeichnungen und Defizitanalysen unter emotionalen im Vergleich zu neutralen Inputs wird ein schnell wachsender Wissensschatz über diese beiden getrennten Komponenten der menschlichen Erfahrung entwickelt. Wir beginnen mit der Zusammenfassung dieser Daten. Anschließend integrieren wir die Daten in ein kürzlich entwickeltes technisches Steuerungsmodell für Aufmerksamkeit und motorische Reaktionen. Die entscheidende Erweiterung dieses Modells beinhaltet ein ventrales/limbisches Gehirnnetzwerk, das Repräsentationen von Salienz und Valenz aufbaut. Eine Simulation eines einfachen Paradigmas wird verwendet, um die beträchtliche mögliche Dissoziation zwischen der kognitiven und der emotionalen Komponente zu demonstrieren. Das System wird durch die Einbeziehung des aufmerksamkeitsbasierten CODAM-Bewusstseinsmodells weiter erweitert. Dies ermöglicht es uns, „Emotionen“ mit „Gefühlen“ in Verbindung zu bringen und erwartete Architekturen für die Konstruktion künstlicher emotionaler Erkennungssysteme abzugrenzen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44989-2_135 956228958a53d8674a6387587b132e9c;de;;;3.3.;;;Gekapselte Multi-Vesikel-Baugruppen mit programmierbarer Architektur: Auf dem Weg zur personalisierten Gesundheitsversorgung Obwohl einzelne künstliche Vesikel erfolgreich als Abgabevehikel von Pharmazeutika verwendet werden, führen Eindeutigkeit und Beschränkung auf ein Gefäß zu einer vorzeitigen Freisetzung des Inhalts in physiologischen Umgebungen sowie zu Problemen beim gleichzeitigen Einschließen eines gegebenen Satzes von (pharmazeutischen) Komponenten. Multilamellarität und Anordnungen verschiedener Vesikelpopulationen werden vorgeschlagen, um diese Probleme zu lösen. In dieser Studie stellen wir ein neuartiges Verkapselungsprotokoll zur Herstellung multilamellarer Vesikel vor und berichten über die DNA-vermittelte Selbstorganisation von mehr als zwei verschiedenen Vesikelpopulationen. Wir diskutieren, wie diese Ergebnisse in der personalisierten Gesundheitsversorgung basierend auf maßgeschneiderten verkapselten vesikulären Medikamentenabgabesystemen mit mehreren Kompartimenten verwendet werden könnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18472-7_11 926315305603a6ce6d733058abca7e5f;de;;;3.3.;;;Ein Sicherheitsframework für eine serviceorientierte Architektur basierend auf Kerberos Die serviceorientierte Architektur ist ein neues Paradigma im Software Computing, das sich auf webbasiertes serviceorientiertes Computing konzentriert. Dieses Paradigma basiert auf der Client-Services-Architektur und beinhaltet die Kommunikation zwischen drei verschiedenen Entitäten: Service Provider, Service Consumer und Service Broker oder Registry. Diese drei Entitäten sind lose gekoppelt. Sicherheit ist ein wichtiger Aspekt für jede Anwendung. In SOA ist die Verwaltung und Organisation der Sicherheit eine Herausforderung, da Dienste in einer verteilten Umgebung bereitgestellt werden. In SOA wird Sicherheit in Bezug auf Dienste definiert, die sichere Dienstregistrierung und -abmeldung, sichere Diensterkennung, sichere Dienstbereitstellung und Verfügbarkeit vertrauenswürdiger Dienste sind. In diesem Papier wurde ein Kerberos-basiertes Sicherheits-Framework vorgeschlagen, das die Sicherheitsanforderungen erfüllt, die für eine sichere SOA erforderlich sind. Die Implementierung des vorgeschlagenen Sicherheitsrahmens wird ebenfalls bereitgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-8581-0_32 792c33ac642b36e497690dadb85fbba5;de;;;3.3.;;;Design und Entwicklung einer kostengünstigen Patch-Antenne mit Air Gap für drahtlose Anwendungen In diesem Papier wird eine rechteckige Patch-Antenne entworfen. Bei dieser Antenne fungiert Luft als Substrat zwischen Patch und Masse. Der Patch und der Boden bestehen aus einem 0,2 mm dicken Kupferblech. Die Abmessungen des Mikrostreifen-Patches und der Masse betragen 148,5 mm × 147 mm bzw. 155 mm × 159 mm. Der Luftspalt zwischen Patch und Substrat beträgt 5 mm. Diese Antenne schwingt bei 908 MHz. Die Antenne ist für Machine-to-Machine (M2M) RFID-Anwendungen ausgelegt. Die Simulation und Optimierung erfolgt in CST-Software und verschiedene Parameter wie Reflexionskoeffizient, Strahlungsmuster und VSWR und Verstärkung werden analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-7091-5_24 dc8a346fb3be0806c2738c3aec78e072;de;;;3.3.;;;Effiziente Netzplanung mit Clouds Eine effiziente Technik zum Scheduling in Grids wird in diesem Beitrag untersucht und um Clouds erweitert. Hier berücksichtigen wir die Bandbreitenverfügbarkeit bei der Auswahl von Ressourcen für die Jobplanung. Somit wählt diese Strategie die Ressource so aus, dass neben der Rechenleistung auch die Fähigkeit der Ressource, schnell auf eine Aufgabe zu reagieren, durch Nutzung der verfügbaren Bandbreite berücksichtigt wird. Dies wird mit der Cloud weiter ausgebaut, um die Nichtverfügbarkeit von Ressourcen in einer Grid-Umgebung zu beheben. Wenn also in einer Grid-Umgebung eine Spitzennachfrage auftritt, instanziieren wir eine On-Demand-Cloud-Ressource, die auf die Anforderungen der Grid-Benutzer zugeschnitten ist. Die Reaktionszeit und damit die Gesamtfertigstellungszeit für den Job sinkt mit der Verkürzung der Wartezeit der Jobs, was aus den experimentellen Ergebnissen ersichtlich ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22577-2_13 c58d7265d10a643af78b780e3b57260e;de;;;3.3.;;;Auf Lastdiversity basierende optimale Zuweisung von Verarbeitungsressourcen für Superbasisstationen in zentralisierten Funkzugangsnetzen Um die Baukosten und den Energieverbrauch von Zellularnetzen zu reduzieren, wurde die zentralisierte Funkzugangszellularnetz-Infrastruktur mit einer Super BS (CSBS)-Architektur vorgeschlagen. Die CSBS-Architektur hat den Vorteil, dass die zentralisierte Verarbeitungsressource flexibel organisiert werden kann. Das Problem einer geringen Effizienz der Verarbeitungsressourcen, die durch eine Lastdiskrepanz von Basisstationen verursacht wird, besteht jedoch immer noch, und die Verfahren zur Zuweisung von Verarbeitungsressourcen für die Verarbeitung auf der physikalischen Schicht sind für die Protokollverarbeitung nicht geeignet. In diesem Artikel wird ein Rahmen für die Verwaltung von Protokollverarbeitungsressourcen entworfen und ein auf Lastdiversität basierender Verarbeitungsressourcenzuweisungsalgorithmus (LDA) vorgeschlagen, der dynamische Programmierung unter Berücksichtigung von Lastdiskrepanzen verwendet. Um eine große Anzahl von BSs zu unterstützen, wird auch eine auf Hybridlast-Diversity basierende Verarbeitungsressourcenzuweisung (H-LDA) mit einem suboptimalen Algorithmus vorgeschlagen. Simulationsergebnisse zeigen, dass der LDA- und der H-LDA-Algorithmus die herkömmlichen Verfahren um mehr als 60 % bzw. 55 % in der Verarbeitungsressourceneffizienz deutlich übertreffen und die Leistungslücke mit steigender BS-Zahl wächst.;-;-;-;https://link.springer.com/article/10.1007/s11432-014-5075-y d89b78363fff3766585a50627e4efb17;de;;;3.3.;;;Reduzieren der DRAM-Auffrischung durch Fehlerkorrektur correction Dynamic Random Access Memory (DRAM) steht vor der Herausforderung der Technologieskalierung. Die abnehmende Merkmalsgröße macht es schwieriger, DRAM-Zellen herzustellen, die die aktuelle Datenhaltezeit beibehalten können. Wenn DRAM-Zellen Daten nicht lange halten können, benötigen DRAM-Chips einen häufigeren Auffrischungsvorgang. Daher werden Zeit- und Energiekosten für die DRAM-Auffrischung in naher Zukunft nicht mehr trivial sein. In diesem Papier schlagen wir DRAM Error Correction Pointer (ECP) vor, ein Rahmenwerk zur Fehlerkorrekturmethode, um DRAM-Auffrischungen ohne Datenverlust zu reduzieren. Wir nutzen die ungleichmäßige Eigenschaft von DRAM-Zellen in Bezug auf die Datenhaltezeit aus. Verglichen mit den herkömmlichen Auffrischungsmechanismen, die DRAM-Chips um die Retentionszeit der undichten Zellen auffrischen, aktualisieren wir die Chips viel seltener und behandeln die nicht rechtzeitig aufgefrischten Zellen als Fehlerelemente. Als fehlertolerantes Element verwenden wir die Struktur von ECP. Durch das Aufzeichnen der Daten, die in die undichten Zellen in unseren DRAM-ECP-Strukturen geschrieben werden sollen, kann DRAM-ECP die Auffrischfrequenz deutlich verringern. Wenn diese Daten ausgelesen werden sollen, ruft DRAM-ECP die in ECPs gespeicherten Daten ab und deckt sie an der entsprechenden Stelle in der Datenzeile ab. Unsere Experimente zeigen, dass DRAM-ECP die Auffrischungsvorgänge um mehr als 70 % reduzieren kann als der aktuelle Auffrischungsmechanismus und auch erhebliche Energieeinsparungen erzielen.;-;-;-;https://link.springer.com/article/10.1007/s11432-015-5352-4 05e959c97d6d0849b47bf5e23816be1d;de;;;3.3.;;;Forschung und Realisierung von Simulationsvisualisierungsunterstützungsdiensten X3D ist derzeit der Web3D-Standard zum Modellieren und Rendern von 3-dimensionalen Visualisierungsmodellen im Web. Und Grid ist die neu aufstrebende Internet-Computing-Technologie zur Integration und gemeinsamen Nutzung verschiedener Computing-Ressourcen. In diesem Beitrag wurde die Architektur der Simulationsvisualisierungsumgebung erstellt und der unterstützende Service für die Simulationsvisualisierung durch die Integration von X3D-Technologie, Grid-Technologie und J2EE-Technologie realisiert. Es unterstützt den Zugriff, die gemeinsame Nutzung und die Zusammenstellung verschiedener 3D-Modelle (wie Flugzeuge, Gelände, Spezialeffekte usw.) über einen Webbrowser. Es erleichtert auch die Anpassung von 3D-Visualisierungssimulationsanwendungen und den schnellen Aufbau einer virtuellen Simulationsumgebung. Die Architektur der Simulationsvisualisierungsumgebung und die Servicerealisierungsmethode werden ausführlich vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77600-0_20 af922e3d014b626a3041bc360b2f41b1;de;;;3.3.;;;SAConf: Semantische Bestätigung von Softwarekonfigurationen Die Remote-Bescheinigung ist eine der Schlüsselfunktionen, die von vertrauenswürdigen Plattformen bereitgestellt werden. Die meisten aktuellen Attestierungsansätze basieren auf kryptografischen Hash-Funktionen, die geeignet sind, relativ stabile Objekte wie ausführbare Dateien zu attestieren. Sie können jedoch nicht effektiv mit Softwarekonfigurationen umgehen, die viele (oder sogar unendliche) vertrauenswürdige Varianten haben und auch zur Laufzeit geändert werden könnten. Dieses Papier schlägt SAConf vor, einen neuartigen semantischen Attestierungsansatz zum Attestieren von Softwarekonfigurationen. SAConf verwendet eine Liste von Einschränkungen, um die Vertrauensrichtlinien des Herausforderers darzustellen, und verifiziert Konfigurationen basierend auf semantischen Prüfungen gegen die Einschränkungen, gemäß den semantischen Bedeutungen der Konfigurationen und nicht anhand ihrer Hashes. Als Ergänzung zur On-Load-Strategie wird auch eine On-Request-Messstrategie hinzugefügt, um mögliche Konfigurationsänderungen während der Ausführung zu erfassen. Wir haben einen Prototyp von SAConf implementiert und Evaluierungen zeigen, dass er den Speicher-Overhead von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02704-8_10 a395b164ad50eb7eb5ab465ca803f2cb;de;;;3.3.;;;Weyukers Eigenschaften, Sprachunabhängigkeit und objektorientierte Metriken Weyuker schlug die neun Eigenschaften vor, um Software-Komplexitätsmaße zu einer Zeit zu bewerten, in der prozedurale Sprachen vorherrschend waren, jedoch haben mehrere Forscher diese Eigenschaften verwendet, um objektorientierte Metriken zu bewerten, obwohl die objektorientierten (OO) Eigenschaften von Natur aus völlig unterschiedlich sind. In diesem Papier bewerten wir jede der Eigenschaften von Weyuker auf ihre effektive Bewertung und Relevanz für OO-Metriken. Darüber hinaus bewerten wir elf OO-Metriken im Hinblick auf Sprachunabhängigkeit und additive Eigenschaft. Eine Reihe zusätzlicher Eigenschaften für objektorientierte Metriken werden ebenfalls in diesem Papier zusammengefasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02457-3_6 d614225cf2e3adb3b0bb51ececfa1564;de;;;3.3.;;;Eine kognitive Architektur basierend auf der Dual Process Theory Dieser Beitrag schlägt eine kognitive Architektur vor, die auf Kahnemans dualer Prozesstheorie basiert [1]. Das Langzeitgedächtnis wird als transparentes neuronales Netz modelliert, das sich durch Interaktion mit der Umgebung autonom entwickelt. Das Arbeitsgedächtnis wird als Puffer modelliert, der Knoten des Langzeitgedächtnisses enthält. Berechnungen sind Prozesse, bei denen Arbeitsgedächtnisinhalte nach Regeln transformiert werden, die im Langzeitgedächtnis gespeichert sind. In dieser Architektur können symbolische und subsymbolische Argumentationsschritte kombiniert und ressourcenbegrenzte Berechnungen definiert werden, die von formalen Beweisen bis hin zu Assoziationsketten reichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39521-5_15 20fe490f16176844c38aef399231cba1;de;;;3.3.;;;Künstliche Intelligenz-Technologie in der intelligenten Gesundheitsinformatik Künstliche Intelligenz (KI) widmet sich der Entwicklung von Computersoftware und -hardware, die den menschlichen Geist imitiert. Das Hauptziel der KI-Technologie besteht darin, Computer intelligenter zu machen, indem Software entwickelt wird, die es einem Computer ermöglicht, einige der Funktionen des menschlichen Gehirns in ausgewählten Anwendungen nachzuahmen. Zu den Anwendungen der KI-Technologie gehören allgemeine Problemlösung, Expertensysteme, Verarbeitung natürlicher Sprache, Computer Vision, Robotik und Bildung. Alle diese Anwendungen verwenden Wissensdatenbanken und Inferenztechniken, um Probleme zu lösen oder Entscheidungen in bestimmten Bereichen zu treffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99981-4_1 73ecda2ccac42dffa94ac9486267e250;de;;;3.3.;;;Extrinsische Evolution von Fuzzy-Systemen für die Krankheitsdiagnose Biologen sammeln seit geraumer Zeit große Mengen an Biomarker-Daten von Patienten mit bestimmten Erkrankungen und von gesunden Menschen. Ihr Problem liegt nun in der Verarbeitung der riesigen Datenmenge, die es ihnen ermöglicht, aussagekräftige Informationen über die Verknüpfungen und damit die Regeln zu gewinnen, die eine Diagnose anhand bestimmter Biomarker ermöglichen. In diesem Artikel schlagen wir einen Ansatz für dieses Problem vor, der Fuzzy-Logik verwendet, um die Diagnosesysteme zu modellieren, und evolutionäres Computing, um solche Systeme zu finden. Darüber hinaus ermöglicht die Ausführungsgeschwindigkeit des vorgeschlagenen Designs, das auf mehreren Virtex5-FPGAs in Bezug auf eine Standardsoftwareberechnung basiert, die Realisierung von Tausenden von aufeinander folgenden evolutionären Durchläufen innerhalb einer angemessenen Zeit und ermöglicht so robuste statistische Informationen, die die Auswahl aussagekräftige Biomarker für die Diagnose bestimmter Krankheiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15323-5_20 9878756313e4cf324b00cd6e8241b62c;de;;;3.3.;;;Fortschrittliches intelligentes Parkhausverwaltungssystem für hohe Parkraumnutzung Die Suche nach einem Parkplatz auf einem überfüllten Parkplatz wird zu einer Herausforderung, die sowohl bei industriellen als auch bei akademischen Forschern zunehmend auf Interesse stößt. Dieses Papier zielte darauf ab, eine effiziente Nutzung eines Parkplatzes zu ermöglichen, indem das Problem des falschen Parkens ohne den Einsatz von Überwachungssystemen oder menschlichen Eingriffen gelöst wird. Dies wird durch die Entwicklung eines multifunktionalen intelligenten Parksystems erreicht, das kostengünstiger und benutzerfreundlicher ist als bestehende Systeme. Das vorgeschlagene System verwendet eine Reihe von kostengünstigen lichtabhängigen Widerständen und IR-Sensoren, die mit einem Himbeer-Pi als Steuereinheit verbunden sind. Es wurde auch eine einfach zu bedienende Webanwendung entwickelt, um die Daten vom Himbeer-Pi zu empfangen, die den Standort freier Parkplätze auf dem Smartphone des Benutzers anzeigen. Das Projekt war sehr erfolgreich und erreichte eine 100%ige Auslastung der Parkplätze. Kein Auto kann mehr als einen Slot belegen. Die Positionen leerer Slots werden in der Webanwendung genau angezeigt, wodurch das schnelle Erreichen des leeren Slots erleichtert wird. Dieses System ist für Fahrer von Vorteil, da es ihnen ermöglicht, den genauen freien Parkplatz leicht zu finden, so dass sie Zeit sparen und weniger Kraftstoff verbrauchen, wenn sie einen leeren Parkplatz verfolgen. Darüber hinaus wird es innerhalb des Parkplatzes zu keinen Staus kommen. Darüber hinaus ist dieses System auch für Parkplatzbesitzer von Vorteil, da die Nutzung des Parkplatzes effizienter wird, wenn die Anzahl der parkenden Autos der Anzahl der Parkplätze entspricht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72654-6_2 7e1b72fdac754ffbc080eec41ffa2761;de;;;3.3.;;;Skalierbare digitale CMOS-Architektur für spitzenbasiertes überwachtes Lernen Der überwachte Lernalgorithmus für Spiking Neural Networks (SNN) basierend auf der Remote Supervised Method (ReSuMe) verwendet die Spike-Timing-abhängige Plastizität (STDP), um die synaptischen Gewichte anzupassen. In dieser Arbeit präsentieren wir eine optimale Netzwerkkonfiguration, die für eine digitale CMOS-Implementierung geeignet ist und zeigen, dass nur 5 Bit Auflösung für die synaptischen Gewichte ausreichen, um eine schnelle Konvergenz zu erreichen. Wir schätzen, dass die Implementierung dieser optimalen Netzwerkarchitektur in;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23983-5_15 814fe0fbef0989106ed0f3b6e8422292;de;;;3.3.;;;Eine Architektur für effizientes Web-Crawling Virtuelle Integrationssysteme erfordern ein Crawling-Tool, mit dem relevante Seiten im Deep Web auf effiziente Weise navigiert und erreicht werden können. Bestehende Vorschläge im Crawling-Bereich erfüllen einige dieser Anforderungen, die meisten müssen jedoch Seiten herunterladen, um sie als relevant einzustufen oder nicht. Wir schlagen einen Crawler vor, der von einem Webseitenklassifizierer unterstützt wird, der ausschließlich eine Seiten-URL verwendet, um die Seitenrelevanz zu bestimmen. Ein solcher Crawler kann in jedem Schritt nur die URLs auswählen, die zu relevanten Seiten führen, und reduziert so die Anzahl unnötiger heruntergeladener Seiten, minimiert die Bandbreite und macht ihn effizient und für virtuelle Integrationssysteme geeignet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31069-0_20 210bccfc8bc2166b920b41b971223a1a;de;;;3.3.;;;Routing und Spektrumzuweisung für softwaredefinierte Elastic Optical Networks Software-definierte Elastic Optical Networks (SD-EONs) kombinieren Software-Defined Network (SDN) mit Elastic Optical Networks (EONs), um die Spektrumausnutzung von Routing- und Spektrumzuweisungsalgorithmen (RSA) weiter zu verbessern. Einige existierende RSA-Algorithmen berücksichtigen jedoch normalerweise nur die Hops, wenn sie das Route-Subproblem lösen, während der Link-Spektrum-Status ebenfalls sehr wichtig ist. Gleichzeitig vernachlässigen sie in der Regel die vertikale Fragmentierung zwischen benachbarten Links bei der Spektrumszuweisung. Daher schlagen wir einen innovativen hop- und konsekutiv-basierten Routing- und fragmentation-aware Spectrum-Assignment (HCR-FSA)-Algorithmus mit einer gemeinsamen Berücksichtigung von Hops und Spektrumskonsekutivität bei der Routing-Auswahl vor und achtet bei der Spektrumszuweisung sowohl auf horizontale als auch auf vertikale Fragmentierungen. Wir implementieren unseren HCR-RSA-Algorithmus im RYU-Controller, um seine Leistung zu bewerten. Die experimentellen Ergebnisse zeigen, dass unser Algorithmus im Vergleich zu den vorherigen Arbeiten eine bessere Blockierungswahrscheinlichkeit und einen besseren Fragmentgrad erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6508-9_50 72d543cc180b1cc1049056efb81abffb;de;;;3.3.;;;Kaskadierte und parallele neuronale Netzarchitekturen für Machine Vision – eine Fallstudie Neuronale Netze haben sich als effiziente Methode zur Ergänzung traditionellerer Ansätze herausgestellt, insbesondere in Situationen, in denen ein Entwurf von Algorithmen nach den ersten Prinzipien zu kostspielig wird oder aufgrund unzureichender Informationen über z.B. die Statistik eines Problems. Da jedoch die Probleme, auf die neuronale Netze angewendet werden, anspruchsvoller werden, wie z;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-77785-1_10 aced101c1f3fb6a1ad5a48c75c0b6ebc;de;;;3.3.;;;Ein Referenzgenerator mit niedriger TC-Spannung, der für Anwendungen bei niedrigen Temperaturen geeignet ist Es wird ein CMOS-Spannungsreferenzgenerator mit niedrigem Temperaturkoeffizienten (TC) vorgeschlagen, der für niedrige Temperaturen geeignet ist. Es nutzt die gegenseitige Temperaturkompensation zwischen Schwellenspannung und thermischer Spannung und liefert eine mittlere Referenzspannung von 692 mV. Ein zur absoluten Temperatur (PTAT) proportionaler Strom, der die thermische Spannung mit einem positiven TC enthält, wird erzeugt und dann in einen als Diode geschalteten NMOS-Transistor injiziert, der die Schwellenspannung mit einem negativen TC liefert. Das Mischen der beiden Spannungen erzeugt eine Referenzspannung mit Null TC. Die vorgeschlagene Schaltung wird mit SMIC CMOS 0,18 um-Prozesstechnologie implementiert. Die Simulationsergebnisse zeigen, dass die Leistungsaufnahme 2,1 uW beträgt und der TC 9,3 ppm/°C beträgt. Der Temperaturbereich reicht von -75°C bis 65°C, was darauf hinweist, dass die vorgeschlagene Schaltung in Umgebungen mit niedrigen Temperaturen eingesetzt werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7844-6_1 a27975ca34ec2ce2a6f4478e45f3918c;de;;;3.3.;;;Bildbasierte Selbstpositions- und Orientierungsmethode für bewegte Plattform Die Position und Ausrichtung der sich bewegenden Plattform hängt hauptsächlich vom globalen Positionsbestimmungssystem und dem Trägheitsnavigationssystem im Bereich der Vermessung, Kartierung und Fernerkundung in geringer Höhe sowie von landgestützten mobilen Kartierungssystemen ab. Das GPS-Signal ist jedoch bei der Anwendung der Weltraumforschung und der Indoor-Robotersteuerung nicht verfügbar. Unter solchen Umständen sind bildbasierte Verfahren sehr wichtig für die Selbstpositionierung und Orientierung der sich bewegenden Plattform. Daher stellt dieses Papier zunächst den Stand der Technik der Entwicklung der bildbasierten Selbstpositions- und Orientierungsmethode (ISPOM) für sich bewegende Plattformen unter folgenden Aspekten vor: 1) Ein Vergleich zwischen den wichtigsten bildbasierten Methoden (dh visuelle Odometrie, Struktur aus Bewegung, gleichzeitige Lokalisierung und Kartierung) für Position und Orientierung, 2) Arten von bewegten Plattformen, 3) Integrationsschemata des Bildsensors mit anderen Sensoren, 4) Berechnungsmethodik und Anzahl der Bildsensoren Dann schlägt das Papier ein neues ISPOM-Schema für mobile Roboter vor – abhängig nur von Bildsensoren. Es nutzt die Vorteile sowohl des monokularen Sehens als auch des Stereosehens und schätzt die relative Position und Ausrichtung der sich bewegenden Plattform mit hoher Präzision und hoher Frequenz. Kurz gesagt, ISPOM wird schrittweise von der Forschung zur Anwendung kommen und eine wichtige Rolle bei der Erforschung des Weltraums und der Steuerung von Indoor-Robotern spielen.;-;-;-;https://link.springer.com/article/10.1007/s11432-012-4649-9 f44df31c2db14559ed5d25c3386f8c9e;de;;;3.3.;;;Formale Überprüfung dynamischer Eigenschaften in einer Luft- und Raumfahrtanwendung Eine formale Verifikation computerbasierter Ingenieursysteme ist nur sinnvoll, wenn die verwendeten mathematischen Modelle systematisch abgeleitet werden und die Annahmen in jeder Modellierungsstufe erfasst werden. In diesem Beitrag geben wir eine Darstellung der Forschungsbemühungen in Zusammenarbeit mit der Luft- und Raumfahrtindustrie in Schweden. Wir betonen die Notwendigkeit von Modellierungstechniken und -sprachen, die das gesamte Spektrum von informellen Ingenieurdokumenten bis hin zu hybriden mathematischen Modellen abdecken. Bei diesem Modellierungsprozess geben wir der physikalischen Umgebung ebenso viel Gewicht wie der steuernden Software. Insbesondere berichten wir über unsere Erfahrungen mit Switched Bond Graphen zur Modellierung von Hardwarekomponenten in Hybridsystemen. Wir stellen die Grundideen der Bondgraphen vor und veranschaulichen den Ansatz durch die Modellierung eines Flugzeugfahrwerks. Dieses System besteht aus ansteuernder hydromechanischer und elektromechanischer Hardware sowie aus in Software und Elektronik implementierten Steuerungskomponenten. Wir präsentieren eine detaillierte Analyse des Closed-Loop-Systems in Bezug auf Sicherheits- und Aktualitätseigenschaften. Die Beweise werden im Beweissystem des Extended Duration Calculus durchgeführt.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008651801000 a38bef388dcaab0b669def355ea804e9;de;;;3.3.;;;System mit verteilter Architektur für Computerleistungstests Dieser Artikel stellt ein System vor, das auf einer verteilten Netzwerkarchitektur basiert. Das System definiert eine „doppelte“ Client-Server-Struktur, die es erlaubt, neue Client-Systeme in Echtzeit über das Internet einzubinden. Wir haben dieses verteilte Architektursystem verwendet, um ein Werkzeug zum Messen der Computerleistungseigenschaften mehrerer Computerarchitektursysteme zu entwickeln. Die Computerleistung wird durch eine kostenlose Bibliothek namens PAPI (Performance API) getestet, die uns den Zugriff auf interne Statusregister mehrerer CPU-Familien in mehreren Betriebssystemen ermöglicht. Da diese Tests in realen CPUs durchgeführt werden müssen, müssen wir ein neues System erstellen, um diese Funktionalität bereitzustellen. Die vorgeschlagene Struktur hat nur einen Einstiegspunkt zum gesamten System, den Master-Server und mehrere verschiedene Architektur-Client-Server. Wir stellen die Netzwerksystembeschreibung und die Verwendung von PAPI für Leistungstests vor.;-;-;-;https://link.springer.com/chapter/10.1007/11752578_18 3f0dd390e28e63464e27cbe0e675d2d3;de;;;3.3.;;;Ein serviceorientierter Business Rules Designer basierend auf Rule Engine In diesem Papier wurde eine serviceorientierte Modellierungssprache für Geschäftsregeln auf der Grundlage von XML mit dem Namen Unified Service-orientierte Rules Describe Language vorgestellt. Durch den Einsatz von Unified Service-Oriented Rules Describe Language stellen wir eine neue Methode zur Gestaltung serviceorientierter Geschäftsregeln vor: Erstens verwenden Sie Unified Service-orientierte Rules Describe Language zum Entwerfen von Geschäftsregeln, zweitens tauschen Sie die Unified Service-orientierten Rules Describe Language . aus Code in eine Regelsprache umzuwandeln, die auf einer Regel-Engine basierend auf einer Mapping-Tabelle basiert. Schließlich bieten wir mit dieser Methode einen Business Rules Designer von Drools Rule Engine an, der eine grafische Editieroberfläche bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27552-4_90 084594b8c0d0cf8ea0e31af220cbd7df;de;;;3.3.;;;Permissioned Blockchains und Smart Contracts in agile Softwareprozesse Seit der Einführung von Bitcoin im Jahr 2009, gefolgt von der Entwicklung zugelassener und erlaubnisloser Blockchain-Netzwerke, wie wir sie heute kennen, ändert sich die Technologie der verteilten Ledger kontinuierlich, um das Interesse des Marktes an ihnen zu befriedigen. Daneben entwickeln sich auch Softwareentwicklungsmethoden, um die Anforderungen von Unternehmen und Benutzern zu berücksichtigen. Die breite Nutzung des Internets in alltäglichen Aufgaben und Diensten wie Backend as a Service, Database as a Service, Infrastructure as a Service, Platform as a Service und Software as a Service haben die Softwareprozesse geformt, die zur Herstellung des Endprodukts angewendet werden. Blockchain verändert die Art und Weise, wie Software entwickelt wird, drastisch und Unternehmen, die Software herstellen, müssen sich schnell anpassen, indem sie ihre Softwareprozesse entsprechend ändern, um Hindernisse und Fallstricke zu vermeiden, die sich daraus ergeben, um diese neue Technologie zu integrieren, aber auch Techniken zu verfolgen, die nachhaltige Software produzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00623-5_26 dccbc6a46ceeeb7486a5ba5f88bc10c0;de;;;3.3.;;;Verfügbarkeitsfaktoren bei der Bereitstellung von Informations- und Kommunikationsressourcen an Verkehrssystembenutzer Die Verfügbarkeit als eines der Grundelemente der Systemsicherheit von Informations- und Kommunikationssystemen (IC) spielt eine wichtige Rolle bei ihrer Arbeit und beim Betrieb der über sie bereitgestellten Dienste. Das IC-System und zugehörige Dienste (IC-Ressourcen) müssen den Endbenutzern bei Bedarf zur Verfügung stehen. Die Verfügbarkeit von IC-Ressourcen ist insbesondere in IC-Systemen offensichtlich, die in einer Verkehrsumgebung implementiert sind. Das Aufkommen neuer Konzepte wie Internet of Things oder Cloud Computing und Technologien wie 5G führen zu einer zunehmenden Automatisierung von Prozessen im Verkehrssystem. Dabei kann die Nichtverfügbarkeit einzelner IC-Ressourcen zu einer negativen Benutzererfahrung bei der Nutzung bestimmter Dienstklassen führen, aber auch ein potenziell großes Sicherheitsrisiko und eine gefährdete Benutzersicherheit darstellen. In einer solchen Umgebung ist die erforderliche Verfügbarkeit der IC-Ressourcen oft extrem hoch, so dass es wichtig ist zu wissen, welche Faktoren sie beeinflussen. Diese Forschung zielt darauf ab, diese Faktoren zu identifizieren, und die Ergebnisse dieser Forschung werden Richtlinien liefern, nach denen Faktoren gemanagt werden müssen, um das erforderliche Niveau der Verfügbarkeit von IC-Diensten zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-66251-0_3 ebc0df2c4b06ed1f25981b346da8f224;de;;;3.3.;;;Eine Studie zur personalisierten Früherkennung von Brustkrebs mit moderner Technologie Im medizinischen Bereich ist Brustkrebs weltweit die am weitesten verbreitete Krebserkrankung bei Frauen. Die effektive Diagnose von Brustkrebs bleibt eine große Herausforderung in der Forschung. Brustkrebs kann jedoch durch eine frühzeitige Erkennung verhindert werden. Die Früherkennung ist äußerst wichtig, was die Behandlungsdauer verkürzt. Es gibt eine Reihe von Forschungen zu tragbaren Technologien zur Erkennung von Brustkrebs, da sich die Technologie so entwickelt, dass wir einen Sensor tragen und den Gesundheitszustand der Brust bequem für die Patientin überwachen können, anstatt eine Mammographie durchzuführen. Dieses Papier zielt darauf ab, den Forschungsfortschritt und die Vorteile von tragbaren Geräten zu beschreiben, die bei der Früherkennung von Brustkrebs helfen. Die Ergebnisse der Studie können verwendet werden, um ein neues effizientes Gerät zur Erkennung von Krebs für weitere Forschungen und Studien zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-5802-9_33 526ad1012e25aa74735d2efafa3589d5;de;;;3.3.;;;Evolvability-Charakterisierung im Kontext von SOA Serviceorientierte Architektur (SOA) ist ein Architekturstil, der die Wiederverwendung in sich geschlossener Dienste fördert. Diese in sich abgeschlossenen Dienste ermöglichen eine bessere Berücksichtigung von Software-Qualitätsmerkmalen, da sie unabhängig analysiert werden können. In unserer Arbeit wurde das Qualitätsmerkmal Evolvierbarkeit aufgrund seiner Auswirkungen in den Phasen Maintenance und Evolution (M&E) für Softwareunternehmen berücksichtigt. Drei Ziele werden in diesem Beitrag unterstrichen: erstens der Zusammenhang zwischen SOA und Qualitätsmerkmalen mit Fokus auf einer genauen Definition der Evolvierbarkeit eines Softwareprodukts aus SOA-Perspektive, zweitens ein M&E-Modell für SOA und schließlich werden einige Erfahrungen vorgestellt, um die Entwicklungsfähigkeit in realen Softwareprodukten beurteilen. Es wurden zwei Fallstudien durchgeführt: Die erste analysiert die Evolvierbarkeit des OSGi-Frameworks. Und im zweiten Fall wird das Modell in lokalen kleinen und mittleren Unternehmen (KMU) verwendet, wo ein Verbesserungsprozess durchgeführt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17578-7_25 ee42dcf61bc6f9d3c7fc4e7e844e42f0;de;;;3.3.;;;Vertrauenswürdige Echtzeit-Computing-Technologie für Xenomai Mit der Entwicklung von Wissenschaft und Technologie spielen eingebettete Systeme eine unverzichtbare Rolle in unserem täglichen Leben. Das Echtzeit-Betriebssystem (RTOS) ist der kritische Teil davon. Um die strengen Anforderungen an die Reaktionszeit zu erfüllen, wurde Xenomai als Software-Framework entwickelt, das dem Mainline-Linux-Kernel Echtzeitfähigkeiten hinzufügt. Andererseits ist die Sicherheit von RTOS ein zunehmendes Thema für die industrielle Computerentwicklung, da RTOS früher als sicherer galt als andere Systeme. Daher wird ein Trusted Platform Module (TPM) vorgeschlagen, um die Sicherheit aus Hardwaresicht zu gewährleisten. In dieser Arbeit haben wir eine vertrauenswürdige Echtzeitplattform basierend auf einer Dual-Kernel-Architektur aufgebaut. Es umfasst Host- und Gastbetriebssysteme, die von der Trusted Virtualization Platform (TVP) bzw. Xenomai implementiert werden. In der Plattform basierte TVP auf SW-TPM. Dann wurden einige Tests durchgeführt, um die Leistung des von uns gebauten Systems zu überprüfen. Das Ergebnis zeigt, dass die durchschnittliche Zeitersparnis unserer Plattform im Vergleich zum ursprünglichen Linux-Kernel 49,52% beträgt. Die im vorliegenden System ausgeführten TPM-Befehle sind schneller als die, die allein im SW-TPM als Binärdatei ausgeführt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7080-8_8 6d8caea1e604911016f336e8029f80f4;de;;;3.3.;;;Ein Quantisierungsdomänen-H.264/SVC-zu-H.264/AVC-Transcoder mit geringer Komplexität und Skalierbarkeit mittlerer Körnung Scalable Video Coding (SVC) soll die Möglichkeit bieten, sich an heterogene Anforderungen anzupassen. Es bietet große Flexibilität für die Bitstream-Anpassung in Mehrpunktanwendungen. Die Transcodierung zwischen SVC und AVC ist jedoch aufgrund der Existenz älterer AVC-basierter Systeme erforderlich. Dieses Papier schlägt einen schnellen SVC-zu-AVC MGS-Transcoder (Medium-Grain Quality Scalability) vor. Eine Quantisierungsdomänen-Umcodierungsarchitektur wird zum Umcodieren von Nicht-KEY-Bildern in MGS vorgeschlagen. KEY-Bilder werden durch eine driftfreie Architektur transkodiert, so dass die Fehlerausbreitung eingeschränkt ist. Simulationsergebnisse zeigen, dass der vorgeschlagene Transcoder eine durchschnittlich 37-fache Geschwindigkeit im Vergleich zum Neucodierungsverfahren mit akzeptablem Verlust der Codierungseffizienz erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35725-1_31 90b6aa522af93692dd225257e5b5aa6b;de;;;3.3.;;;Ein neuer, kompakter MR-kompatibler chirurgischer Manipulator für die minimalinvasive Leberchirurgie In letzter Zeit hat sich die intraoperative Magnetresonanztomographie (IO-MRT) zu einem wichtigen klinischen Verfahren entwickelt. Zur Durchführung dieser Arbeiten ist eine MR-kompatible chirurgische Ausrüstung erforderlich. In dieser Studie entwickelte unser Forschungsteam die Technologie für einen MR-kompatiblen Manipulator für die minimal-invasive Leberchirurgie, der ohne nennenswerten Einfluss auf die MR-Bildgebung in einem MRT-Scanner arbeiten kann. Das entwickelte System, das 6 Freiheitsgrade (D.O.F) und einen neuen RCM-Mechanismus und eine Biegezange ermöglicht, die durch ein motorhydraulisches Betätigungssystem betätigt werden. Dieser Manipulator bietet genügend Leistung für Leberoperationen und ist klein genug, um in einem offenen MRT in einem 45 cm hohen Raum operiert zu werden. Die Bildverzerrung innerhalb des MRT ist minimal, wenn man die Wirkung der im System verwendeten Materialien berücksichtigt. Diese Ergebnisse zeigen, dass es möglich ist, den Manipulator während der MR-Operation und beim Scannen zu betreiben.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45786-0_13 a2835d801ba78d2055557ec88d0fdb15;de;;;3.3.;;;Rezension zu Architekturen und Herausforderungen von mobilen Webdiensten Webservice ist das Softwaresystem, das dazu bestimmt ist, die Maschine-zu-interoperable Maschine-Verbindung von Frameworks über einem System zu unterstützen. Das Mobilfunkgerät entwickelt sich zu einem weiteren Computersystem und einem gemeinsamen Ziel, die erforderlichen Daten zu verarbeiten und darauf zuzugreifen. Um die geeignete Verarbeitung zu erreichen, können die Funktionen von Webdiensten und Mobilfunkgeräten nicht heruntergespielt werden. Die Integration des Webdienstes auf den Mobilfunkgeräten erhöht also die Benutzerfreundlichkeit von Webdiensten, was den Webdienst zum einfachsten Ansatz macht. Dieses Papier zeigt die Überprüfung des umfassenden Satzes von Architekturansätzen für mobile Webdienste und wird basierend auf den Architekturdesigns und den Nachteilen verglichen. Darüber hinaus beschreibt dieses Papier die Herausforderungen, die in der Umgebung mobiler Webdienste enthalten sind, zusätzlich zu Leistungsmessungen der erhaltenen Situation von mobilen Webdiensten (MWS).;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9282-5_10 18d2c6200d1b1a8b1bb5989f1c572807;de;;;3.3.;;;Ein Ansatz zur statisch-dynamischen Softwareanalyse Sicherheitskritische Software in der Industrie wird typischerweise sowohl dynamischen Tests als auch statischen Programmanalysen unterzogen. Während Tests jedoch teuer zu skalieren sind, ist die statische Analyse anfällig für falsch positive und/oder falsch negative Ergebnisse. In dieser Arbeit schlagen wir eine Lösung vor, die auf einer Kombination aus statischer Analyse zum Heranzoomen potenzieller Fehlerkandidaten in großen Codebasen und symbolischer Ausführung basiert, um diese Fehler zu bestätigen und konkrete Zeugen zu erstellen. Unser vorgeschlagener Ansatz soll die Skalierbarkeit bei gleichzeitiger Verbesserung der Präzision beibehalten und so die Mängel jeder einzelnen Lösung beheben. Darüber hinaus haben wir das SEEKFAULT-Tool entwickelt, das lokale symbolische Ausführungsziele aus Fehlerkandidaten der statischen Analyse erstellt und seine Wirksamkeit auf den SV-COMP-Schleifenbenchmarks bewertet. Wir zeigen, dass eine konservative Abstimmung in diesem Benchmark eine Erkennungsrate von 98 % erreichen kann, während gleichzeitig die Falsch-Positiv-Raten um etwa 50 % im Vergleich zu einem einzigen statischen Analyseansatz reduziert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-29510-7_13 718a7f7ca0a06555652cc2806e93231c;de;;;3.3.;;;Eine Übersicht und ein Kategorisierungsschema automatischer Programmiersysteme Systeme zur automatischen Programmierung (AP) werden seit den Anfängen des Software-Engineerings in vielfältiger Weise eingesetzt. Sie wurden in KI-bezogenen Forschungsansätzen mit dem Ziel verwendet, Computerprogramme aus informellen, unvollständigen, natürlichsprachlichen Spezifikationen zu generieren, sowie in pragmatischeren Ansätzen in Bezug auf Sprachen der 4. Stufe. Begriffe wie „Application Generator“, „Transformational System“, „Code Synthesizer“, „Generative Software Development“ wurden zur Benennung verschiedener Ansätze für AP verwendet. Dieses Papier stellt ein Kategorisierungsschema für AP-Systeme vor. In diesem Kategorisierungsschema wird klar zwischen den KI-bezogenen, harten AP- und weichen AP-Systemen unterschieden. Danach wird eine breite Palette von AP-Systemen sowie deren Position im Kategorisierungsschema vorgestellt. Schließlich diskutieren wir die Beziehung zwischen AP und Software-Wiederverwendung.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-40048-6_1 dfd2a1b483b47f28de3b32da3cbbdeec;de;;;3.3.;;;Implementieren und Bewerten eines farbbewussten Befehlssatzes für die eingebettete Videoverarbeitung mit geringem Speicher in datenparallelen Architekturen Zukünftige Embedded-Imaging-Anwendungen werden eine höhere Verarbeitungsleistung bei gleichzeitig niedrigen Kosten und niedrigem Energieverbrauch erfordern. Dieses Papier präsentiert und bewertet eine farbbewusste Befehlssatzerweiterung (CAX) für Single Instruction, Multiple Data (SIMD) Prozessorarrays, um die Rechenanforderungen und Kostenziele zu erfüllen. CAX unterstützt parallele Operationen mit zweifach gepackten 16-Bit-(6:5:5)-YCbCr-Daten in einem 32-Bit-Datenpfadprozessor und bietet so mehr Parallelität und Effizienz bei der Farbbild- und Videoverarbeitung. Im Gegensatz zu typischen Multimedia-Erweiterungen (z. B. MMX, VIS und MDMX) nutzt CAX die Parallelität innerhalb des menschlichen Wahrnehmungsfarbraums, anstatt nur von der generischen Teilwort-Parallelität abhängig zu sein. Darüber hinaus reduziert die Fähigkeit, die Datenformatgröße zu reduzieren, die Systemkosten. Die Reduzierung der Datenbandbreite vereinfacht auch das Systemdesign. Experimentelle Ergebnisse einer repräsentativen SIMD-Array-Architektur zeigen, dass CAX eine Geschwindigkeitssteigerung im Bereich von 5,2× bis 8,8× (durchschnittlich 6,3×) gegenüber der Basislinie der SIMD-Array-Leistung erreicht. Dies steht im Gegensatz zu MDMX (einer repräsentativen MIPS-Multimedia-Erweiterung), das eine Geschwindigkeitssteigerung von 3× bis 5× (durchschnittlich 3,7×) über das gleiche Basis-SIMD-Array erreicht. CAX übertrifft MDMX auch sowohl bei der Flächeneffizienz (eine Steigerung um 52 % gegenüber einer Steigerung von 13 %) als auch bei der Energieeffizienz (eine Steigerung um 50 % gegenüber einer Steigerung von 11 %), was zu einer besseren Komponentenausnutzung und einer nachhaltigen Batterielebensdauer führt. Darüber hinaus verbessert CAX die Leistung und Effizienz mit nur 3 % Erhöhung der Systemfläche und einer Erhöhung der Systemleistung um 5 %, während MDMX eine Erhöhung der Systemfläche um 14 % und eine Erhöhung der Systemleistung um 16 % erfordert. Diese Ergebnisse zeigen, dass CAX ein geeigneter Kandidat für anwendungsspezifische eingebettete Multimediasysteme ist.;-;-;-;https://link.springer.com/chapter/10.1007/11596356_4 2dc0dbbfb14a3cd7b38d3f7b1ad5bbaf;de;;;3.3.;;;Schnelles Failover für Verbindungsfehler in softwaredefinierten Netzwerken Obwohl Software-Defined Networking und seine Implementierung das Netzwerkmanagement und die dynamische Netzwerkkonfiguration erleichtern, bleibt eine rechtzeitige Wiederherstellung nach Netzwerkausfällen nicht trivial. In diesem Papier stellen wir einen schnellen Failover-Mechanismus namens CombinePR vor, um das Problem eines Verbindungsfehlers zu beheben. Beim schnellen Failover-Mechanismus hat der Controller mehrere Pfade für jedes Quelle-Ziel-Paar in den zugehörigen OpenFlow-fähigen Switches eingerichtet. In Fat-Tree kann ein als Ursprungslink bezeichneter Link im ausgewählten Pfad durch drei andere Links ersetzt werden, die sich nicht im ausgewählten Pfad befinden und die gleichen zwei Switches verbinden, die über diesen Ursprungslink verbunden sind. CombinePR wählt zufällig einen Link-Satz als alternativen Link-Satz für jedes Quell-Ziel-Link-Paar aus, wenn ein Fehler in jedem Link des aktiven Pfads berücksichtigt wird. Wenn eine Verbindung unterbrochen wird, können OF-Switches die betroffenen Flüsse auf drei alternative Verbindungen verteilen. Die Experimente zeigen, dass CombinePR die Paketverlustrate um 43,6% im Vergleich zu FFS reduzieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-24268-8_33 87b9ab801022964c630e2efd12df2431;de;;;3.3.;;;IoT-basiertes Lebensmittelinventar-Tracking-System Eine Schlüsselkomponente für ein effektives Küchenmanagement ist die Bestandskontrolle. Der Überblick über das Kücheninventar führt zu einer fundierteren Planung und Entscheidungsfindung. Da sich die Technologie rasant weiterentwickelt und alles um uns herum automatisiert wird, ziehen es die Menschen vor, ihre täglichen Aktivitäten mit den intelligenten Geräten zu überwachen und durchzuführen, die sie überall hin mitnehmen, anstatt Dinge manuell aufzuzeichnen und zu überwachen. Die Pflege und den Überblick über den alltäglichen gemeinsamen Lebensmittelbestand wird zu einem der Hauptprobleme in verschiedenen Haushalten, Restaurants und Lebensmittelketten. Das Auffüllen der Behälter im richtigen Moment und auch das Wissen um das Verfallsdatum von Lebensmitteln ist ein wichtiges Anliegen. Berufstätigen und gut besuchten Restaurants fällt es schwer, den Überblick zu behalten, weil es menschliches Eingreifen zur richtigen Zeit erfordert. Dadurch ist es einfach, mögliche Probleme im Zusammenhang mit Abfall und Diebstahl im Auge zu behalten. In diesem Projekt schlagen wir ein IOT (Internet of Things)-basiertes Lebensmittelinventar-Tracking-System vor, das eine Echtzeitüberwachung des Kücheninventars gewährleistet. Die gesammelten Daten können in Echtzeit analysiert werden, um den täglichen oder wöchentlichen Verbrauch zu verstehen und auch Nutzungs-/Verbrauchsmuster vorherzusagen. Es ist auch vorgesehen, den Echtzeitstatus und den Verbrauchsverlauf über eine Android-Anwendung zu überprüfen. Das System enthält einen Mikrocontroller, eine Wägezelle und ein drahtloses Modul, einen MQTT-Broker, eine Desktop-Anwendung und eine Android-Anwendung, über die die Bestandsverfolgung in Echtzeit durchgeführt wird. Die vorgeschlagene Lösung ist sowohl für private als auch für kommerzielle Zwecke vollständig drahtlos und zuverlässig.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-5758-9_4 26e30374673da9e459e985cb2d2b55f6;de;;;3.3.;;;Entwicklung mobiler Anwendungen mit Komponentenfunktionen und Vererbung Mit der ständigen Zunahme von persönlichen mobilen Diensten in einer mobilen Dienstgruppe, in der mobile Dienste die gleiche Funktionalität mit unterschiedlichen Parametern bieten, ist die Auswahl von mobilen Diensten in einer mobilen Dienstgruppe ein fortlaufendes Forschungsthema. Die Wiederverwendung von Software für mobile Anwendungen zu erkennen und zu erreichen, sind grundlegende Probleme im Software-Engineering. Die aktuellen Ansätze zur Komponentenwiederverwendung konzentrieren sich dabei primär auf die Verbraucherperspektive. Um das Gleichgewicht zwischen Komponentenherstellern, Komponentenkonsumenten und Endbenutzerperspektive für die mobilen Anwendungen zu halten, schlägt dieses Papier zwei orthogonale Ansätze zur Wiederverwendung vorhandener Komponenten vor: Komponentenvererbung und Featurezusammensetzung. Die Komponentenvererbung bietet einen effektiven Mechanismus für das Refactoring von Servicekomponenten. Um Variabilitätsanforderungen zu erfüllen, kann ein neues Servicekomponentenobjekt von einem alten Komponentenobjekt abgeleitet werden. Die Basiskomponentenklasse definiert Schnittstellen- und Ereignisnachrichtenfluss und implementiert Code-Framework und Teilfunktionen. Die abgeleitete Komponentenklasse für die mobilen Anwendungen verwendet Legacy-Asserts wieder und implementiert virtuelle Schnittstellenmethoden. Der vom Basiskomponentenobjekt erzeugte Ereignisnachrichtenfluss kann von der abgeleiteten Komponente abgefangen werden. Wir präsentieren auch einen fundierten Ansatz, um systematisch ein Software-Wiederverwendungsarchitekturmodell aus dem Anforderungszielmodell für ubiquitäre mobile Anwendungen unter Verwendung von CBD und UML abzuleiten. Um die Lücke zwischen der Benutzer- und der Entwicklerperspektive zu verringern, werden die Funktionen des Systems in einen Satz unabhängiger Funktionskomponenten zerlegt. Wenn eine Feature-Komponente wiederverwendet wird, muss der Consumer sie nur in die Hauptkomponente einstecken, die von den Komponenten-Clients verwendet wird. Experimente in Mobiltelefonprojekten zeigen, dass die beiden Ansätze zur Wiederverwendung und einfachen Änderung beitragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35267-6_8 552cfa367ce9e41ab659596ad475eb6a;de;;;3.3.;;;Ein Chaos-basiertes Bildverschlüsselungsschema mit Verwirrungsdiffusionsarchitektur Dieses Papier schlägt ein effizientes Chaos-basiertes Bildverschlüsselungsschema vor, bei dem das Mischen der Positionen und das Ändern der Grauwerte von Bildpixeln kombiniert werden, um die Beziehung zwischen dem Chiffrierbild und dem Klarbild zu verwirren. Zunächst wird die Arnold-Cat-Karte verwendet, um die Positionen der Bildpixel im räumlichen Bereich zu mischen. Dann wird das diskrete Ausgangssignal des chaotischen Systems von Lorenz so vorverarbeitet, dass es für die Graustufenbildverschlüsselung geeignet ist, und das gemischte Bild wird durch das vorverarbeitete Signal Pixel für Pixel verschlüsselt. Die experimentellen Ergebnisse zeigen, dass der Schlüsselraum groß genug ist, um dem Brute-Force-Angriff zu widerstehen und die Verteilung der Grauwerte des verschlüsselten Bildes ein zufälliges Verhalten hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21402-8_42 1174a8c84e47b94b04acf25751388f3e;de;;;3.3.;;;Zuverlässigkeit von Computersteuerungssystemen in Kraftwerken Die vorliegende Arbeit widmet sich der Bewertung der Zuverlässigkeit von Computersteuerungssystemen in Kraftwerken. Zur Analyse und Bewertung der Zuverlässigkeit solcher Systeme werden zwei komplementäre Ansätze verwendet, die jeweils auf analytischer Modellierung und experimenteller Validierung basieren. Beide Ansätze sowie Beispiele ihrer gegenseitigen Wechselwirkungen werden kurz an einem Teilsystem einer bestimmten Computersteuerung dargestellt. Der analytische Ansatz ermöglicht die Bewertung von Zuverlässigkeitsmaßen wie der Verfügbarkeit und identifiziert die einflussreichsten Zuverlässigkeitsparameter. Die Fehlerinjektion liefert die numerischen Werte der oben genannten Parameter und ermöglicht die Identifizierung spezifischer Verhaltensweisen, die vom analytischen Modell möglicherweise nicht berücksichtigt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-40891-6_15 a8e16d35131709e92b70c5078d2920e2;de;;;3.3.;;;Aufrechterhaltung der Konsistenz im Software-Transaktionsspeicher durch dynamisches Versionstuning Ein beliebtes Verfahren zum Aufrechterhalten der Konsistenz im Software-Transaktionsspeicher (STM) ist der globale Versionstakt, dessen Werte verwendet werden, um Speicherorte zu kennzeichnen. Dieses Verfahren ist nicht effizient, wenn transaktionales Commit häufig auftritt, da eine Konkurrenz um den globalen Takt kostspielige Cache-Kohärenz-Invalidierungen erzeugt und die Leistung verschlechtert. Die alternative Methode ist die lokale Thread-Uhr (TLC), die dezentrale lokale Variablen ausnutzt, um konsistente Zustände in Transaktionen aufrechtzuerhalten. TLC kann jedoch zu Fehlabbrüchen führen und die Laufzeit von Programmen erhöhen. In dieser Arbeit stellen wir Adaptive Versioning (AV) vor, die basierend auf der Wahrscheinlichkeit von Konflikten dynamisch eine der beiden Validierungstechniken auswählt. Wir zeigen, dass AV effektiv ist und die Leistung von Transaktionsanwendungen erheblich verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33065-0_5 18a54c330b0b15ea2580f4274f1c6b2d;de;;;3.3.;;;Zur Machbarkeit von Live-Echtzeit-Forensik für moderne intelligente Fahrzeuge Moderne Fahrzeugsysteme weisen eine Reihe vernetzter elektronischer Komponenten auf, die von Sensoren und Aktoren bis hin zu dedizierten Fahrzeugsubsystemen reichen. Diese Komponenten/Systeme und ihre Vernetzung werfen die Frage auf, ob sie für digitale forensische Untersuchungen geeignet sind. Wir haben festgestellt, dass dies insbesondere dann der Fall ist, wenn die von solchen Komponenten erzeugten Daten richtig erfasst und fusioniert werden (z. B. durch Verschmelzen des Standorts mit Audio-/Videodaten). In diesem Beitrag untersuchen wir daher die relevanten fortschrittlichen Automobilelektronikkomponenten und ihre jeweiligen Netzwerkkonfigurationen und -funktionen mit besonderem Schwerpunkt auf der Eignung für forensische Live-Untersuchungen (Echtzeit) und Überwachung basierend auf erweiterten Software- und/oder Hardwarekonfigurationen im Zusammenhang mit der Analyse des Fahrgastverhaltens. Dazu beschreiben wir Subsysteme, aus denen Sensordaten direkt oder mit geeigneten Modifikationen gewonnen werden können, diskutieren auch unterschiedliche automobile Netzwerk- und Busstrukturen und beschreiben anschließend mehrere Szenarien für die Anwendung einer solchen Verhaltensanalyse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23602-0_20 8f3f3550a29e1ca1dd45586dbe0688cc;de;;;3.3.;;;Software-Remodularisierung durch Schätzung struktureller und konzeptioneller Beziehungen zwischen Klassen und Verwendung hierarchischer Clustering In diesem Papier haben wir eine Technik der Software-Remodularisierung vorgestellt, indem wir die konzeptionelle Ähnlichkeit zwischen Softwareelementen (Klassen) schätzen. Die vorgeschlagene Technik verwendet sowohl strukturelle als auch semantische Kopplungsmessungen zusammen, um viel genauere Kopplungsmessungen zu erhalten. Insbesondere verwendet der vorgeschlagene Ansatz lexikalische Informationen, die aus sechs Hauptteilen des Quellcodes einer Klasse extrahiert wurden, nämlich Kommentare, Klassennamen, Attributnamen, Methodensignaturen, Parameternamen und Methodenquellcode-Anweisungszone. Gleichzeitig nutzt es auch das Zählen der Memberfunktionen anderer Klassen, die von einer bestimmten Klasse als strukturelles Kopplungsmaß zwischen Klassen verwendet werden. Die strukturelle Kopplung zwischen Softwareelementen (Klassen) wird unter Verwendung einer informationsflussbasierten Kopplungsmetrik (ICP) gemessen, und die konzeptionelle Kopplung wird durch Tokenisieren des Quellcodes und Berechnen der Kosinusähnlichkeit gemessen. Das Clustering wird durchgeführt, indem Hierarchical Agglomerate Clustering (HAC) durchgeführt wird. Die vorgeschlagene Technik wird auf drei standardmäßigen Open-Source-Java-Softwares getestet. Die erhaltenen Ergebnisse fördern die Remodularisierung, indem sie eine höhere Genauigkeit gegenüber dem entsprechenden Software-Goldstandard zeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-5780-9_9 52c49f0e5ff93b78ec8e2f74e0e06595;de;;;3.3.;;;Stochastische Kommunikation für anwendungsspezifische Networks-on-Chip In diesem Papier haben wir eine analytische stochastische Kommunikationstechnik für die Inter- und Intra-Networks-on-Chip (NoC)-Kommunikation entwickelt. Es trennt nicht nur die Berechnung und Kommunikation in Networks-in-Package (NiP), sondern sagt auch die Kommunikationsleistung voraus. Darüber hinaus hilft es bei der Verfolgung der verlorenen Datenpakete und ihrer genauen Position während der Kommunikation. Darüber hinaus hilft die vorgeschlagene Technik beim Aufbau des Closed Donor Controlled Based Compartmental Model, das beim Aufbau des stochastischen Modells von NoC und NiP hilft. Dieses Modell hilft bei der Berechnung der Übergangswahrscheinlichkeiten, der Latenz und des Datenflusses von einem IP zu einem anderen IP in einem NoC und zwischen NoCs in NiP. Aus den Simulationsergebnissen wird beobachtet, dass die Übergangs- und Steady-State-Antwort der Übergangswahrscheinlichkeiten die Latenzzeiten des Datenflusses zwischen den verschiedenen IPs in NoC und zwischen den Kompartimenten von NoCs in NiP ergeben. Darüber hinaus erzeugt die vorgeschlagene Technik eine niedrige Latenz im Vergleich zu den Latenzen, die von den bestehenden Topologien erzeugt werden.;-;-;-;https://link.springer.com/article/10.1007/s11227-010-0472-5 6c84794ceb629a0681b97018153349d2;de;;;3.3.;;;Implementierung eines Communications Channelizers mit FPGAs und RNS Arithmetik Feldprogrammierbare Logik (FPL), die oft unter dem populären Namen feldprogrammierbare Gate-Arrays (FPGA) zusammengefasst wird, steht kurz davor, Sektoren der digitalen Signalverarbeitung (DSP) zu revolutionieren, wie es der programmierbare DSP-Mikroprozessor vor fast zwei Jahrzehnten getan hat. Historisch betrachtet wurden FPGAs nur als Rapid-Prototyping- und Kleinserien-Produktionstechnologie angesehen. FPGAs versuchen nun, in den Mainstream-DSP vorzudringen, da sich ihre Dichte und ihr Leistungsumfang stetig verbessern. Während nun Beweise die Behauptung stützen, dass FPGAs ausgewählte Low-End-DSP-Anwendungen beschleunigen können (z. Dies ist in erster Linie auf systemische Schwächen in der FPGA-unterstützten arithmetischen Verarbeitung zurückzuführen. Es wird gezeigt, dass in solchen Fällen die;-;-;-;https://link.springer.com/article/10.1023/A%3A1008167323437 01452a4b7a6baf4172599842041c5484;de;;;3.3.;;;RISA: Objektorientierte Modellierung und Simulation eines verteilten Echtzeitsystems für die Luftverteidigung Dieses Papier beschreibt die objektorientierte Modellierung und Simulation von RISA (Real-time dIstributed System for Air Defense), insbesondere mit Fokus auf fortschrittliche Software-Engineering-Methoden unter Verwendung von Entwurfsmustern, einschließlich der objektorientierten Modellierungsmethode durch UML (Unified Modeling Language). Die Modellierung durch UML, dargestellt in mehreren Diagrammen, hilft Benutzern bei der Entwicklung der relevanten domänenspezifischen Modelle und bietet die Grundlage für den Aufbau einer robusten Softwarearchitektur auf Basis von HLA (High Level Architecture). Das aus sechs Komponenten (Föderates) bestehende RISA-System – SMCC, MFR, ECS, LAU, ATS, MSL – wird durch objektorientierte Entwurfsmuster in Bezug auf HLA-basierte Techniken konstruiert. Entwurfsmuster in RISA sind in vier Kategorien unterteilt. Die erste Entwurfsmusterkategorie, die sich auf die Benutzerschnittstelle (UI) bezieht, umfasst das Active Object Pattern, das Model-View-Controller (MVC)-Muster. Die zweite domänenspezifische Schicht enthält Fassadenmuster für eine einheitliche Schnittstelle der Datenbank und Integratormuster für viele Modelle. Die dritte datenbankbezogene hat ein Persistence-Layer-Muster für persistente Objekte. Das vierte, das sich auf die Synchronisierung bezieht, umfasst ein Strategiemuster für die Zeitsynchronisierung, einschließlich zeitgestufter, ereignisgesteuerter und optimistischer Mechanismen und ein Befehlsmuster für den Rückruf. Das objektorientierte Design durch Modellierung in RISA verleiht dem System Modifikation, Erweiterbarkeit, Flexibilität durch Abstraktion, Kapselung, Vererbung und Polymorphie. Außerdem vereinfachen Entwurfsmuster, die wiederverwendbare Lösungen für wiederkehrende Probleme, die während der Softwareentwicklung auftreten, den Softwareentwicklungsprozess und reduzieren die Kosten, da die Wiederverwendbarkeit von Software bei der Entwicklung eines Systems erhöht wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45242-3_37 d81e381e3a5d5e682edde7a6e7ea84af;de;;;3.3.;;;Design und Steuerung des aktiven Gehroboters JAIST Dieses Papier präsentiert das Design und die Steuerung eines neuartigen assistiven Roboter-Walkers, den wir „JAIST active robotic walker (JARoW)“ nennen. JARoW wurde entwickelt, um potenziellen Benutzern auf effiziente und kostengünstige Weise ausreichende Gehfähigkeit zu bieten. Konkret liegt unser Fokus darauf, wie eine einfachere Manövrierbarkeit ermöglicht wird, indem eine natürliche Schnittstelle zwischen dem Benutzer und JARoW geschaffen wird. Zu diesem Zweck entwickeln wir einen rotierenden Infrarotsensor, um die Bewegung der unteren Gliedmaßen des Benutzers zu erkennen. Die Implementierungsdetails der JARoW-Steuerungsalgorithmen basierend auf den Sensormessungen werden erläutert und die Wirksamkeit der vorgeschlagenen Algorithmen wird durch Experimente überprüft. Unsere Ergebnisse bestätigten, dass JARoW seine Bewegungsrichtung und -geschwindigkeit autonom an das Gehverhalten des Benutzers anpassen kann, ohne dass der Benutzer zusätzliche Anstrengung erfordert.;-;-;-;https://link.springer.com/article/10.1007/s11370-010-0064-5 8752ac3c023d1868945674640d16b041;de;;;3.3.;;;Hierarchisches Diagramm: Eine neue kosteneffektive Architektur für Network-on-Chip Wir haben eine neue Network on Chip (NoC)-Architektur namens Hierarchical Graph entwickelt. Das interessanteste Merkmal dieser neuartigen Architektur ist ihr einfacher Implementierungsprozess. Darüber hinaus eignet sich die flexible Struktur dieser Topologie für den Einsatz in anwendungsspezifischen Chips. Um die vorgeschlagene Architektur mit bestehenden zu vergleichen, wurden grundlegende Modelle der physischen Implementierung extrahiert und mit NS-2 simuliert. Die Ergebnisse im Vergleich mit der gängigen Architektur Mesh zeigen, dass HG insbesondere bei lokalem Verkehr und hohen Lasten eine bessere Performance aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/11596356_33 92bcdb8200c055dbae86aba285487798;de;;;3.3.;;;Anmutige Verschlechterung der Leistung der WaveScalar-Architektur Mit dem technologischen Fortschritt auf dem Gebiet der Transistoren ist es einfach geworden, Millionen von Transistoren auf einem Chip zu haben. Es ist nach wie vor eine Herausforderung, die verfügbaren Ressourcen in eine komfortable Anwendung zu übersetzen. Viele herkömmliche Prozessoren haben dieses Leistungsniveau nicht erreicht. Eine neue Alternative zu den herkömmlichen Prozessoren ist der skalierbare WaveScalar. WaveScalar ist ein auf Datenflussbefehlssätzen basierendes Ausführungsmodell mit geringer Komplexität und leistungsstarken Funktionen. Es kann reale und nicht-reale Programme ausführen, ohne die Sprache zu ändern und trotzdem die gleiche Parallelität zu haben. Es ist als intelligentes Speichersystem konzipiert, bei dem jeder Befehl an seiner Stelle ausgeführt wird und dann mit seinem abhängigen kommuniziert. Wenn ein Hochleistungsprozessor sein volles Potenzial ausschöpfen soll, sollte die Komplexität am geringsten sein. Hier ist dieses Papier, wir haben eine Lösung vorgeschlagen, um die Komplexität des Wavescalar-Prozessors zu reduzieren, ohne seine Leistung zu beeinträchtigen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15766-0_39 03d72bb4b0fc7fa2b2d5e38c7c826702;de;;;3.3.;;;Implementierung von Webservices für ILBS LBS (Location Based Service) setzt sich im Alltag durch. Navigation, Logistik, Flottensteuerung, POI (Point of Interest) usw. sind alle Arten von LBS. LBS ist so nützlich, dass es überall verfügbar sein sollte, auch innerhalb eines Gebäudes, in U-Bahn-Stationen, unterirdischen Einkaufszentren und in der Innenstadt einer Großstadt. Solche innerhalb eines Gebäudes bereitgestellten LBSs werden ILBS (Indoor-LBS) genannt. Ein Webservice ist eine Software oder eine Datenbank, die im Internet veröffentlicht wird, damit sie in der Webanwendungsentwicklung auf übliche Weise verwendet werden kann. Daher gilt Webservice als vielversprechende Technik zur Entwicklung einer Webanwendung. Dieses Papier stellt unsere Implementierung von Webservices elementarer Funktionen des ILBS-Systems vor. Indoor-Positionierung, Rendern von Zeichnungen, Abspielen von Inhalten sind nur einige dieser Funktionen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27180-9_51 617fbd355747b546eefc9a1c54ffba59;de;;;3.3.;;;Eine Dienstkapselungsmethode in der Cloud-Simulationsplattform In einer Cloud-Simulationsplattform existiert eine Vielzahl von Simulationssoftwaretools, die als Dienste gekapselt werden müssen, die bei Bedarf im Produktentwicklungsprozess bequem aufgerufen werden können. Eine geeignete Architektur zum Einkapseln und Verwalten dieser Softwaretools wird benötigt, um die Verwaltung dieser Simulationsressourcen zu erleichtern. In diesem Papier wird die serviceobjektorientierte Architektur (SOOA) verwendet, um die Service-Sharing-Umgebung für Engineering-Software im dynamischen Netzwerk aufzubauen, und das SOOA-basierte zweistufige Service-Kapselungsverfahren für Engineering-Software wird vorgeschlagen. Mit dieser Methode können Simulationssoftwaretools gekapselt und bequem als Dienste bereitgestellt werden, ohne dass eine Programmierung erforderlich ist, und die gekapselten Dienste können bequem über einen Standard-Webbrowser über das Cloud-Simulationsplattformportal aufgerufen und darauf zugegriffen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34390-2_49 2bd03d0c538d29cc3cf96fa039249c96;de;;;3.3.;;;Metriken und Dashboard für Level 2 – Erfahrung In den letzten Jahren ist die Menge der in einem Projekt gesammelten und überwachten Metriken gewachsen. Dies erhöht den Zeit- und Arbeitsaufwand, um den Erfolg einer Organisation oder einer bestimmten Aktivität zu erstellen und zu verfolgen, führt jedoch oft nicht zu einer Verbesserung des Projektmanagements. In diesem Artikel zeigen wir einen anderen Ansatz, um die wesentlichen Kennzahlen zu finden, die in keinem Projektstatusbericht fehlen sollten, insbesondere für kleinere Teams oder Anwendungsprojekte. Wir zeigen, wie Sie pro Prozess eine vollständige Liste von allgemein sinnvollen Kennzahlen (unter Berücksichtigung des VDA-Umfangs) erhalten und wie Sie aus dieser Liste die zwei oder drei Schlüsselkennzahlen pro Prozess anhand einer Risikobewertung extrahieren, um schließlich zu einer schlanken Kennzahl zu gelangen Rahmen. Beispielhaft werden die Prozesse Change Request Management (SUP.10) und Software Requirements Analysis (SWE.1) ausführlich beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-56441-4_49 ea2a8d22a1a0fd7311954ba242f6b51d;de;;;3.3.;;;Beschleunigung des Aufbaus von kardiovaskulären Modellen mit konvolutionellen neuronalen Netzen Das Ziel dieser Arbeit ist es, den Benutzeraufwand für die 2D-Segmentierung beim Erstellen patientenspezifischer kardiovaskulärer Modelle mit dem SimVascular-Softwarepaket für kardiovaskuläre Modellierung zu reduzieren. Die vorgeschlagene Methode verwendet ein vollständig konvolutionelles neuronales Netzwerk (FCNN), um 2D-Kardiovaskuläre Segmentierungen zu erzeugen. Bei gegebenen Gefäßpfadlinien erzeugt das neuronale Netz 2D-Gefäßverbesserungsbilder entlang der Pfadlinien. Danach werden Gefäßsegmentierungen mit dem Marschquadrat-Algorithmus extrahiert, die dann verwendet werden, um 3D-Herz-Kreislauf-Modelle zu konstruieren. Das neuronale Netz wird unter Verwendung einer neuartigen Verlustfunktion trainiert, die auf teilweise gekennzeichnete Segmentierungsdaten zugeschnitten ist. Außerdem wird eine automatisierte Methode zur Qualitätskontrolle entwickelt, mit der vielversprechende Segmentierungen ausgewählt werden können. Im Vergleich zu einem Schwellenwert- und Pegelsatzalgorithmus verbesserte die FCNN-Methode die 2D-Segmentierungsgenauigkeit über mehrere Metriken hinweg. Der vorgeschlagene Ansatz zur Qualitätskontrolle verbesserte den durchschnittlichen DICE-Score weiter um 25,8%. In Tests mit Benutzern von SimVascular akzeptierten die Benutzer bei der Qualitätskontrolle 80 % der Segmentierungen, die vom leistungsstärksten FCNN erstellt wurden. Die FCNN-Methode zur kardiovaskulären Modellerstellung reduziert den manuellen Segmentierungsaufwand für die patientenspezifische Modellkonstruktion um bis zu 73 %. Dies führt zu einer verkürzten Durchlaufzeit für kardiovaskuläre Simulationen. Während die Methode für den Aufbau von kardiovaskulären Modellen verwendet wurde, ist sie auf allgemeine röhrenförmige Strukturen anwendbar.;-;-;-;https://link.springer.com/article/10.1007/s11517-019-02029-3 aa97844af6ab16aa90a036f4b668ad4f;de;;;3.3.;;;Neue und aufkommende Technologien, die Industrie und Gesellschaft beeinflussen Dieses Papier versucht, die Technologien vorherzusagen, die in den nächsten zehn Jahren den größten Einfluss auf Industrie und Gesellschaft haben werden. Es umfasst nacheinander: Mathematische Technologie, Physikalische Technologie, Chemische Technologie, Materialtechnologie, Biotechnologie und Informationstechnologie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-76768-5_2 561766b95cee0a57b7a58114b90c72bc;de;;;3.3.;;;Komponenten- und komponentenbasierte Softwareentwicklung Um die Effizienz der Softwareentwicklung zu verbessern, wird eine komponentenbasierte Softwareentwicklungsmethode untersucht. Die wichtigsten Eigenschaften von Komponenten werden analysiert. Komponenten werden in zwei Typen als Basiskomponenten und Prozesskomponenten unterteilt, wobei Schlüsselprobleme der Komponentenspezifikation dargestellt werden. Wir machen auch einen Vergleich zwischen der Komponente in der komponentenbasierten Softwareentwicklung und dem Objekt in einer objektorientierten Umgebung und geben einige wichtige Punkte in der komponentenbasierten Softwaretechnologie an.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-4856-2_87 566f2521986f22a35f994eaa169e5c47;de;;;3.3.;;;Eine Multi-Agenten-Kontrollarchitektur für Lieferketten mit einer prädiktiven Pull-Flow-Perspektive Lieferketten sind groß angelegte Vertriebsnetze, in denen mehrere Arten von Waren vorhanden sind. In diesem Beitrag wird das Betriebsmanagement in Lieferketten als Tracking-Control-Problem dargestellt. Alle Lagerbestände im Netzwerk sollten über die Zeit möglichst nahe an den gewünschten Werten gehalten werden. Der Zustand der Lieferkette ist aufgrund der Kundennachfrage an den Endknoten gestört. Es wird eine Multi-Agenten-Kontrollarchitektur vorgeschlagen, um alle Lagerbestände über die Lieferkette hinweg wiederherzustellen. Zunächst wird das Modell für die Lieferkette mit Hilfe einer Flusszerlegung in kleinere Teilsysteme zerlegt. Die Betriebsführung für jedes Subsystem wird von einem dedizierten Kontrollagenten entschieden. Die Steuerungsagenten lösen ihre Probleme mit einer Pull-Flow-Perspektive, beginnend an den Endknoten und dann stromaufwärts propagieren. Das Hinzufügen neuer Komponenten zur Lieferkette hat zur Folge, dass mehr Kontrollagenten aufgenommen werden. Die vorgeschlagene Architektur ist aufgrund ihrer Modularität leicht auf große Lieferketten skalierbar. Die Leistung der Multi-Agenten-Steuerungsarchitektur wird anhand einer Lieferkette veranschaulicht, die aus vier Ebenen (Lieferanten, Konsolidierung, Verteilung, Endknoten) besteht und verschiedene Vorhersageebenen über die Kundenanforderungen verwendet. Mit der Erhöhung der Vorhersagegenauigkeit der Nachfrage ist die vorgeschlagene Steuerungsarchitektur in der Lage, den gewünschten Lagerbestand an den Endknoten über die Zeit zu halten, was sie für den Einsatz für Just-in-Time-Produktionsstrategien geeignet macht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38061-7_10 b5325ed214e1afd972d87952fe8c6039;de;;;3.3.;;;Konfigurierbare Hochgeschwindigkeits-VLSI-Architektur eines Mehrzweck-Lifting-basierten diskreten Wavelet-Prozessors Der Reichtum der Wavelet-Transformation ist auf vielen Gebieten bekannt. Es gibt verschiedene Klassen von Wavelet-Filtern, die je nach Anwendung verwendet werden können. In diesem Kapitel schlagen wir einen Allzweck-Lifting-basierten Wavelet-Prozessor vor, der verschiedene Vorwärts- und inverse DWTs ausführen kann. Unsere Architektur basiert auf M Verarbeitungselementen (PEs), die in jedem Taktzyklus einen kontinuierlichen Datenstrom entweder vorhersagen oder aktualisieren können. Wir betrachten auch den Normalisierungsschritt, der am Ende der Vorwärts-DWT oder am Anfang der inversen DWT stattfindet. Um mit unterschiedlichen Wavelet-Filtern und unterschiedlichen Anwendungen fertig zu werden, bieten wir eine Multikontext-Konfiguration zur Auswahl zwischen verschiedenen DWTs und eine beliebige Speichergröße zum Berechnen der Transformation. Für die 16-Bit-Implementierung ist die geschätzte Fläche des vorgeschlagenen Wavelet-Prozessors mit 8 PEs und 2x512 Wörtern Speicher in einem 0,18-;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05197-5_23 a2988cb1c62025f78db5a45c5420ebaa;de;;;3.3.;;;Ein paralleler zweiseitiger Jacobi-Komplex-SVD-Algorithmus mit niedriger Komplexität und eine Architektur für MIMO-Beamforming-Systeme Die Singular Value Decomposition (SVD) ist eine sehr wichtige Matrixfaktorisierungstechnik in technischen Anwendungen. In Multiple-Input-Multiple-Output-(MIMO)-Systemen wird SVD bei der Sendestrahlformung angewendet, was Vorteile einer hohen Diversität bietet. Dieses Papier schlägt einen parallelen zweiseitigen Jacobi-Komplex-SVD-Algorithmus und eine Architektur mit niedriger Komplexität vor, die für jedes m × . geeignet sind;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35898-2_22 040db2c0b660ba7ff3f8b1dbac4dd1c6;de;;;3.3.;;;Bereitstellung von Software-Asset-Management-Compliance in einem Green Deployment-Algorithmus Heutzutage wird die Nutzung von Software in der Regel durch Lizenzen geregelt, seien sie kostenlos oder kostenpflichtig und mit oder ohne Zugriff auf ihre Quellen. Die Welt der Lizenzen ist sehr groß und unbekannt. Oft ist nur die öffentliche Version bekannt (ein Softwarekauf entspricht einer Lizenz). Für Unternehmen ist die Realität viel komplexer, insbesondere für die wichtigsten Softwarehersteller. Nur sehr wenige Bereitstellungsalgorithmen, wenn überhaupt, berücksichtigen Überlegungen zum Software Asset Management (SAM), wenn Software in einer Cloud-Architektur platziert wird. Dies könnte enorme finanzielle Auswirkungen auf das Unternehmen haben, das diese Software verwendet. In diesem Artikel stellen wir das SAM-Problem tiefer vor, dann, nachdem wir unser Problem mathematisch ausgedrückt haben, präsentieren wir;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6987-0_37 67c4d69a1547df1f16169a07a032e064;de;;;3.3.;;;Bewertung von Ansätzen zur Segmentierung von tragbaren Sensor-Tag-Daten zur Klassifizierung von Aktivitäten in Echtzeit bei älteren Menschen Die Entwicklung der Überwachung menschlicher Aktivitäten hat die Entwicklung mehrerer Anwendungen ermöglicht, darunter die Erkennung von Aktivitäten mit hohem Sturzrisiko älterer Menschen zur Minderung von Stürzen. In dieser Studie wenden wir eine grafische modellbasierte Klassifizierungstechnik (bedingtes Zufallsfeld) an, um verschiedene Techniken auf Gleitfensterbasis zur Echtzeitvorhersage von Aktivitäten bei älteren Probanden zu bewerten, die einen passiven (batterielosen) sensorfähigen RFID-Tag tragen. Das System erreichte eine maximale Gesamtgenauigkeit der Aktivitätsvorhersage in Echtzeit von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11569-6_30 efe1a8a022612d8522fea64da2f53b0d;de;;;3.3.;;;Optimierungsansätze für einige Probleme der Gebäudeplanung Advanced Building Design ist ein relativ neuer interdisziplinärer Forschungszweig, der Wissen aus Physik, Ingenieurwesen, Kunst und Sozialwissenschaften kombiniert und dessen Unterstützung sowohl durch theoretische als auch durch computergestützte Mathematik benötigt wird. Dieser Beitrag zeigt ein Beispiel für eine solche Zusammenarbeit und stellt ein Modellproblem der optimalen Beheizung in einem Niedrigenergiehaus vor. Da alle für die Optimierung benötigten bestimmten Funktionswerte als numerische Lösungen eines Anfangs- und Randwertproblems für ein dünn besetztes System parabolischer partieller Evolutionsdifferentialgleichungen mit mindestens zwei Typen physikalisch motivierter Nichtlinearitäten erhalten werden, müssen die üblichen gradientenbasierten Verfahren methods durch den Downhill-Simplex-Nelder-Mead-Ansatz oder seine Quasi-Gradienten-Modifikationen ersetzt. Ein Beispiel für das echte Niedrigenergiehaus im Mährischen Karst wird mit Hinweisen auf andere praktische Anwendungen demonstriert.;-;-;-;https://link.springer.com/article/10.21136/AM.2018.0094-18 3d73a426a677c6ee30f5e23eb09f9768;de;;;3.3.;;;Messung der Länge von Warteschlangen im Straßenverkehr in Echtzeit: ein zuverlässiger Ansatz mit Ultraschallsensor Staus verlängern nicht nur die Fahrzeit eines Pendlers, sondern erhöhen auch den Kraftstoffverbrauch sowie die Luftverschmutzung. Daher hat das Verkehrsstaumanagement in den letzten Jahren erhebliches Forschungsinteresse geweckt. Andererseits ist eine zuverlässige Schätzung der Staudichte über die Messung der Staulänge an jedem Straßenabschnitt in Echtzeit sehr wünschenswert, um den Verkehrsstau in den städtischen Gebieten zu kontrollieren. Daher konzentrieren wir uns in diesem Artikel darauf, wie die Staudichte zuverlässig geschätzt werden kann, und schlagen einen Echtzeit-Ansatz zur Messung der Warteschlangenlänge für die signalisierten Kreuzungen unter Verwendung von Ultraschallsensorknoten (USN) vor. Die experimentellen Ergebnisse zeigen, dass unser vorgeschlagener Ansatz fast;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0829-5_38 9d5cdd3c3470c38ecee7529d9b87cf59;de;;;3.3.;;;Automatisierungsarchitektur für mehrpolige DC-Netze Das Multi-Terminal DC (MTDC)-Netz ist eine der Lösungen, um die zunehmende Kapazität der dezentralen Energieressourcen (DERs) im Verteilnetz aufzunehmen. Ein MTDC-Netz besteht aus Geräten verschiedener Hersteller mit proprietärem Protokoll, was eine Herausforderung für die Überwachung und Steuerung der Netzkonfiguration, der Netzbedingungen und der Umrichter darstellt. In diesem Beitrag wird eine interoperable Kommunikationsarchitektur mit IEC 61850 vorgeschlagen, die verwendet wird, um mit Umrichtern und Geräten verschiedener Hersteller zu kommunizieren. Darüber hinaus wird die Kommunikationsarchitektur auf einem MVDC-Demonstrator-Grid implementiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-56970-9_17 2fd353395ba1d6ca329665e6c3cfe995;de;;;3.3.;;;Eine Evaluierung von Integrationstechnologien zur Bereitstellung von Agentenaktionen als Webdienste Integrationsfähigkeiten sind ein Schlüsselmerkmal heutiger Unternehmenssoftwaresysteme, daher sind Integrationsfähigkeiten erforderlich, wenn Multi-Agenten-Systeme in der aktuellen Softwarelandschaft des Unternehmens erfolgreich sein sollen. Dieses Papier beginnt mit einigen Bemerkungen zur Offenlegung von Agentenaktionen als Webservices, ihren Vor- und Nachteilen, dann präsentieren wir die Ergebnisse der Offenlegung einer Agentenaktion als Webservice, indem ein Vertragsnetz zwischen Agenten ausgeübt und das Vertragsnetz aus einem Web aufgerufen wird Service.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54927-4_25 99926aef1dbd673e3b3bf9e99ec57fa1;de;;;3.3.;;;Auf der Suche nach Synergien zwischen Future Internet Ingredients Derzeit gibt es viele Vorschläge zur Neugestaltung des Internets. Während einige Designbestandteile mehreren Ansätzen gemeinsam sind, unterscheidet sich die Art und Weise, wie sie übernommen und kombiniert werden, in der Regel von Vorschlag zu Vorschlag. Dieses Papier verteidigt das Argument, dass ein tieferes architektonisches Umdenken eine tiefere Suche nach Synergien zwischen den ausgewählten Zutaten erfordert. Sie argumentiert, dass dies grundsätzlich ein möglicher Weg zur Vereinfachung des Designs ist, da die Zutaten in Richtung kohärenterer Blaupausen homogenisiert werden. Das Papier untersucht konzeptionelle Synergien und schlägt einige Richtlinien vor, die bei der entsprechenden Gestaltung helfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32692-9_9 b30f56fdc73ff59fbd3d5f8c479e1b4f;de;;;3.3.;;;Messung der Branch-Coverage für die SOA-basierte Anwendung mit Concolic Testing Diese Arbeit beschreibt die Funktionsweise von White-Box-Tests für die auf Service-Oriented Architecture (SOA) basierende Anwendung. Heutzutage ist es sehr wichtig, Code-Coverage-Tests durchzuführen, um die Qualität der Software zu verstehen. Dieses Papier befasst sich mit der Messung des Prozentsatzes der Zweigstellenabdeckung für die BPEL-Architektur, die alle geografisch verteilten Dienste orchestriert. Hier testen wir die Codeabdeckung der BPEL-Architektur, die tatsächlich die Aufrufe von Diensten anzeigt, wenn sie erforderlich sind. Diese Arbeit integriert die bestehenden Open-Source-Tools, um die Berechnung der Branch-Coverage für SOA-basierte Anwendungen zu automatisieren. Dieses Papier zeigt eine neuartige Technik zur Generierung von Testfällen und zur Berechnung der Zweigabdeckung durch unser vorgeschlagenes Tool.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-5427-3_18 e2f4357179987924e7d86be5065806dd;de;;;3.3.;;;Ein mehrschichtiges Sicherheitsmodell für das Internet der Dinge Seit der offenen Architektur auf der Wahrnehmungsschicht ist das IoT nicht nur den traditionellen Sicherheitsrisiken im TCP/IP-Netzwerk ausgesetzt, sondern auch den neu aufkommenden Risiken. In diesem Papier wird durch die Analyse der Infrastruktur des IoT und der Sicherheitsrisiken im IoT ein neues mehrschichtiges Sicherheitsmodell vorgeschlagen, das darauf abzielt, die Sicherheitstechnik im IoT zu verbessern. Basierend auf dem neuen Modell werden auf jeder Ebene jeweils eine Reihe von effektiven Wegen zum Umgang mit Sicherheitsrisiken diskutiert. Die Eigenschaften des Modells und der Anwendungsdomäne werden ebenfalls zusammengefasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32427-7_54 4f6a058f5a21b09354e6d04537fa8403;de;;;3.3.;;;Dynamische Partitionierung von skalierbarem Cache-Speicher für SMT-Architekturen Der bandbreitenoptimierte One-Level-Datencache [1] eliminiert den Overhead zur Aufrechterhaltung von Containment und Kohärenz. Und es ist für zukünftige große SMT-Prozessoren geeignet. Obwohl das Design eine gute Skalierbarkeit aufweist, verschärft eine groß angelegte SMT-Architektur die Belastung des Caches, insbesondere für den im Papier erwähnten bankverschachtelten Datencache [1]. Dieses Papier schlägt eine dynamische Partitionierungsmethode für skalierbare Caches für große SMT-Architekturen vor. Wir erweitern das in [2] vorgeschlagene Schema auf Multibanking-Cache. Da sich die Speicherreferenzeigenschaften von Threads sehr schnell ändern können, sammelt unsere Methode die Miss-Rate-Eigenschaften gleichzeitig ausgeführter Threads zur Laufzeit und verteilt den Cache unter den ausführenden Threads. Das Partitionierungsschema wurde unter Verwendung eines modifizierten SMT-Simulators evaluiert, der den einstufigen Datencache modelliert. Die Ergebnisse zeigen eine relative Verbesserung des IPC von bis zu 18,94 % gegenüber denjenigen, die durch den nicht partitionierten Cache unter Verwendung der Standardrichtlinie für den zuletzt verwendeten Austausch generiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41591-3_2 ee228ab12e83f15e9c7ff33d61568f0f;de;;;3.3.;;;Auf dem Weg zu einem dekonstruierten PACS-as-a-Service-System Traditionelle Bildarchivierungs- und Kommunikationssysteme (PACS) wurden für herstellerspezifische Umgebungen, dedizierte Radiologiearbeitsplätze und Scannerkonsolen entwickelt. Diese Art von Systemen wird aus zwei Hauptgründen obsolet. Erstens erfüllen sie nicht das seit langem bestehende Bedürfnis im Gesundheitswesen, alle patientenbezogenen Ressourcen in einer einzigen Lösung und nicht in einer Vielzahl von Teillösungen zu bündeln. Und zweitens haben Kommunikations-, Speicher- und Sicherheitstechnologien bewiesen, dass sie ausgereift genug sind, um diese Nachfrage in anderen Bereichen zu unterstützen. „Vendor Neutral Archives“ werden zum neuen Trend in der medizinischen Bildspeicherung und „deconstructed PACS“ geht noch einen Schritt weiter als eine vollständig entkoppelte Implementierung vorzuschlagen. Unsere Arbeit kombiniert diese Implementierung mit der Skalierbarkeit und allgegenwärtigen Verfügbarkeit von Cloud-Lösungen und Internet-Technologien, um eine Architektur eines PACS-as-a-Service-Systems bereitzustellen, das eine einfache Enterprise-Workflow-Orchestrierung der Teleradiologie handhabt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-59397-5_25 c830744380a07922705071cc02eadbec;de;;;3.3.;;;Paralleles ABM für Stromverteilungsnetze: Eine Fallstudie Dieses Papier stellt eine parallele Implementierung eines agentenbasierten Modells vor, das auf Stromverteilungsnetze angewendet wird. Es wird eine feingranulare Parallelimplementierung mit gemeinsam genutztem Speicher vorgestellt, die die Gruppierung und Ausführung der Agenten auf einer Multithread-Maschine sowie die Art und Weise, wie das Modell (zusammensetzbar) aufgebaut ist, detailliert beschreibt, was die Parallelisierung unterstützt. Aktuelle Ergebnisse zeigen eine mittlere Beschleunigung von 2.6, aber Verbesserungen werden erwartet, wenn neuere verteilte oder parallele ABM-Scheduler in diese Implementierung integriert werden. Obwohl domänenspezifisch, kann dieser parallele Algorithmus auf ähnlich strukturierte ABMs (Directed Acyclic Graphs) angewendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54420-0_55 d55058dce61f0a2f236f395e9a53921c;de;;;3.3.;;;Analyse von systematischen Fehlereinflüssen auf die Genauigkeit der luftgestützten Laserscanning-Altimetrie Die Fehlerquellen bezüglich Laserentfernungsmesser, GPS und INS werden detailliert analysiert. Mehrere Koordinatensysteme, die beim Laserscanning in der Luft verwendet werden, werden aufgestellt, und dann wird die Grundformel des Systems angegeben. Dieser Artikel konzentriert sich auf die Diskussion der kinematischen Offset-Korrektur zwischen dem Phasenzentrum der GPS-Antenne und dem lasergezündeten Punkt. Der Einfluss der kinematischen Zeitverzögerung auf die Position des Laser-Footprints, die Entfernungsfehler, Positionierungsfehler, Lagefehler und Integrationsfehler des Systems werden ebenfalls untersucht. Schließlich zeigt das Ergebnis, dass die kinematische Zeitverzögerung gegenüber anderen Fehlerquellen vernachlässigt werden kann. Die Genauigkeit der Koordinaten wird nicht nur durch die Amplitude des Fehlers beeinflusst, sondern auch durch die Betriebsparameter wie Flughöhe, Abtastwinkelamplitude und Lagegröße der Plattform gesteuert.;-;-;-;https://link.springer.com/article/10.1007/BF02826295 9aae7c5a387f2e209c4381d81410d102;de;;;3.3.;;;Unterstützung von Programmierern bei der Behebung von Schwachstellen in Java-Webanwendungen In diesem Whitepaper stellen wir einen neuen Ansatz zur Erkennung und Behebung von Sicherheitslücken in Java-Webanwendungen mit Programm-Slicing und -Transformation vor. Unser Schwachstellen-Detektor basiert auf einem erweiterten Programm-Slicing-Algorithmus und handhabt die Ausbreitung von Taint durch Strings. Unser Prototyp ist als Eclipse-Plug-In implementiert und nutzt die WALA-Bibliothek, um XSS-Schwachstellen auf interaktive Weise zu beheben. Wir zeigen auch, dass unser Ansatz sowohl rechnerisch als auch in Bezug auf gefundene Schwachstellen eine gute Leistung bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17881-8_26 11f917d4a5c5103df0e039905b4fa38c;de;;;3.3.;;;Ein VLSI-Pyramidenchip für die Bildanalyse mit mehreren Auflösungen Fortschrittliche Techniken in der Bildverarbeitung und Computer Vision erfordern zunehmend, dass Bilddaten mit mehreren Auflösungen und mehreren Abtastraten dargestellt werden. Anwendungsgebiete für solche Pyramidenbilddarstellungen umfassen Bildkompression, Bildverbesserung, Bewegungsanalyse und Objekterkennung.;-;-;-;https://link.springer.com/article/10.1007/BF00055150 1a3f378312df1655ca919b5af983b3d3;de;;;3.3.;;;Testen und Vergleichen der Leistung von Cloud-Service-Providern mit einer Service-Broker-Architektur Service Broker sind Werkzeuge, die es ermöglichen, verschiedene einzelne Service Provider zu integrieren. Eine API kann ein Mechanismus sein, um eine gemeinsame Schnittstelle bereitzustellen. Broker kann eigentlich auch für mehr als die Integration verwendet werden. Wir verwenden einen Cloud-Service-Broker, der eine Multi-Cloud-Abstraktions-API implementiert, um Leistungsvergleiche zwischen verschiedenen Cloud-Services durchzuführen. Das Broker-Tool hier ist eine Multi-Cloud-Speicher-API, die eine Reihe bereitgestellter Speicherdienste integriert. Die Bibliothek, die die API unterstützt, ist in drei Dienste organisiert, nämlich einen Datei-, einen Blob- und einen Tabellendienst. Mit dieser Broker-Architektur haben wir ein Performance-Testszenario entwickelt, um die verschiedenen Anbieter zu vergleichen, d.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-79090-9_8 bd3733bf160325a80b848210acc84f7f;de;;;3.3.;;;Eine Anwendung eines Standortalgorithmus zur Integration von Beidou und WSN in landwirtschaftliche IOT Mit der Entwicklung der landwirtschaftlichen IOT-Technologie in der Ebene von Xinjiang fanden es die meisten Forscher aufgrund der Beschränkung der Region schwierig, die Echtzeit-Positionsinformationen aller Knoten im Bewässerungsgebiet zu erhalten. Ein integrierter Ortungsalgorithmus unter Verwendung von Beidou und WSN wird vorgestellt, um eine nahtlose Positionierung für alle Knoten im Netzwerk zu erreichen. Dieser Algorithmus kann die absolute Position von Cluster-Knoten berechnen, indem er das Beidou-Modul auf den Cluster-Knoten konfiguriert und dann die relative Position des Endknotens durch die Cluster-Knoten erhält. Basierend auf dem Algorithmus wird ein Monitoringsystem durchgeführt, um die Positionierung der bewässerten landwirtschaftlichen Fläche aller Knoten zu erreichen. Simulationsergebnisse zeigen, dass das auf dem integrierten Algorithmus basierende Überwachungssystem die meisten Knoten im Netzwerk mit geringeren Hardwarekosten lokalisieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-0893-2_27 3afdf1c87c0d003fc122c83691a7f65a;de;;;3.3.;;;Effizientes Management von Grid-Ressourcen mit einer zweistufigen Entscheidungsarchitektur für „verarbeitbare“ Massendaten Das Problem der effizienten Zuweisung von Ressourcen zum Ausführen eines gegebenen Aufgabenpakets in einer verteilten Computerumgebung wurde von Forschungsgemeinschaften ausführlich untersucht. Um einen effizienten Ressourcenzuweisungsmechanismus zu entwickeln, konzentriert sich dieses Papier auf eine bestimmte Art von ressourcenintensiven Aufgaben und präsentiert eine zweistufige Entscheidungsarchitektur in einer Grid-Computing-Umgebung. In der vorgeschlagenen Architektur hat das höhere Entscheidungsfindungsmodul die Verantwortung, eine Ressourcenaufteilung für jede der Aufgaben auszuwählen. Das untere Entscheidungsmodul verwendet einen auf Integer Linear Programming basierenden Algorithmus, um Ressourcen aus dieser ausgewählten Partition tatsächlich einer bestimmten Aufgabe aus dem gegebenen Satz von Aufgaben zuzuweisen. In diesem Papier wird die Leistung der vorgeschlagenen Architektur bei verschiedenen Arbeitslastbedingungen analysiert. Diese Architektur kann mit den vorgestellten Konzepten für andere Aufgabentypen erweitert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76843-2_13 7e9309dca75f89e3d3939d4ec28b0648;de;;;3.3.;;;Design eines IoT-basierten Echtzeit-Videoüberwachungssystems mit Raspberry Pi und Sensornetzwerk Die Videoüberwachung von gesicherten Orten mit Sicherheitspersonal zu jedem Zeitpunkt ist nicht möglich. Auch Videoüberwachung (CCTV) wird in den meisten Sicherheitsbereichen wie Multi-Lager-Gebäuden, Banken, Kinosälen, Geschäftsgebäuden wie Einkaufszentren und mehr häufig verwendet. Die Echtzeit-Handhabung von Dieben ist jedoch sehr wichtig, um Diebstahl und Vandalismus zu verhindern. Dieses Projekt verwendet ein IoT-basiertes Echtzeit-Videoüberwachungssystem mit einer Passwort-Sperrtechnik mit Himbeer-Pi. Das System erfordert eine USB-Webcam, Raspberry Pi 3B, 4 * 4 Tastatur und PIR-Sensor. Wenn eine Bewegung erkannt wird, aktivieren Sie die Webcam zur Aufnahme des Bildes, wenn jemand ein falsches Passwort eingibt oder versucht, ein zufälliges Passwort einzugeben, zu diesem Zeitpunkt sendet der Prozessor eine E-Mail- oder SMS-Benachrichtigung, um die ID oder Handynummer zu registrieren. Wenn eine Bewegung mit einem Passiv-Infrarot-Sensor (PIR) erkannt wird, speichert der Raspberry Pi das Bild über den SMTP-Mailserver in der Cloud und sendet es an die Registrierungs-E-Mail.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6081-5_11 7c8d6860aca7748d9f0bc56114ec44ff;de;;;3.3.;;;Ein kritischer Überblick über angewandte MDA für eingebettete Geräte: Identifizierung von Problemklassen und Diskussion von Portierungsbemühungen in der Praxis Die modellgetriebene Entwicklung (MDD) hat in der Forschung breite Anwendung gefunden, stößt jedoch bei realen Industrieprojekten immer noch an Grenzen. Ein Projekt, das solche MDD-Prinzipien anwendet, ist die Entwicklung der Software eines Feature-Phones. Während die Vorteile in der Theorie die Nachteile zu überwiegen scheinen, treten bei der praktischen Anwendung der modellgetriebenen Methodik mehrere Probleme auf. Probleme bei der Übernahme dieses Ansatzes werden ebenso aufgezeigt wie eine praktische Lösung, um einen der Hauptvorteile von MDD – die Portabilität – zu nutzen. Es werden Probleme vorgestellt, die sich aus der Verwendung eines Tools ergeben, das einen modellgetriebenen Ansatz unterstützt. Ein Fazit fasst die persönlichen Erfahrungen bei der Anwendung von MDD in einem realen Projekt zusammen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24485-8_17 9ec952403d4bddbb43868a9156ce04dd;de;;;3.3.;;;Konzepte und Einrichtungen einer neuronalen Verstärkung lernenden Steuerungsarchitektur für die technische Prozesssteuerung Der Beitrag stellt die Konzepte einer neuronalen Steuerungsarchitektur vor, die in der Lage ist, qualitativ hochwertiges Regelverhalten in der technischen Prozesssteuerung von Grund auf zu erlernen. Als Eingabe für das lernende System muss nur das Steuerungsziel angegeben werden. Im ersten Teil des Artikels werden die zugrundeliegenden theoretischen Grundlagen dynamischer Programmiermethoden erläutert und deren Anpassung an den Kontext der technischen Prozesssteuerung beschrieben. Der zweite Teil diskutiert die grundlegenden Fähigkeiten des lernenden Systems an einem typischen Benchmark-Problem, wobei ein besonderer Fokus auf die Qualität des erworbenen Regelrechts liegt. Die Anwendung auf einen hochgradig nichtlinearen chemischen Reaktor und auf ein instabiles Multi-Output-System zeigt die Fähigkeit der vorgeschlagenen neuronalen Steuerungsarchitektur, selbst schwierige Steuerungsstrategien von Grund auf zu erlernen.;-;-;-;https://link.springer.com/article/10.1007/s005210050038 18d49f9c3e084ce01483a2e3ab9faf12;de;;;3.3.;;;Leistungsbewertungs-Framework für verteilte Objektarchitekturen Eine genaue, effiziente und vorhersagbare Leistungsbewertung von verteilten Objektmodellen ist notwendig, um eine fundierte Entscheidung darüber zu treffen, welches Modell in einer bestimmten Anwendungsdomäne verwendet werden soll. Dieser Artikel stellt ein Leistungsbewertungs-Framework für verteilte Objektmodelle vor. Es präsentiert zwei Beiträge zur Untersuchung der Performance verteilter Objekte: Es definiert die Performance-Kriterien für alle wichtigen Aspekte des Distributed Object Computing, einschließlich Single- und Multi-Client-Szenarien, und präsentiert das High- und Low-Level-Design des Frameworks und gibt Einblicke in Implementierungsdetails für mehrere wichtige verteilte Objektmodelle wie CORBA, RMI und RMI-IIOP.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48252-0_26 5036cd50a7463d332d450a66ce84c235;de;;;3.3.;;;BEACON: Ein Cloud Network Federation Framework Dieses Papier stellt das BEACON Framework vor, das die Bereitstellung und Verwaltung von standortübergreifenden virtuellen Netzwerken für föderierte Cloud-Infrastrukturen ermöglicht, um die automatisierte Bereitstellung von Anwendungen und Diensten in verschiedenen Clouds und Rechenzentren zu unterstützen. Das vorgeschlagene Framework wird verschiedene Verbundarchitekturen unterstützen, von eng gekoppelten (Rechenzentrumsverbund) bis hin zu lose gekoppelten (Cloud-Föderation und Multi-Cloud-Orchestrierung) Architekturen, und ermöglicht die Erstellung von Layer-2- und Layer-3-Overlay-Netzwerken, um Remoteressourcen an verschiedene Cloud-Sites. Außerdem wird eine Beschreibung der Hauptkomponenten des BEACON-Frameworks auf hoher Ebene eingeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-33313-7_25 9b18fef4395df495c8bfe377b8e71201;de;;;3.3.;;;Quadratische Gleichungen mit XL auf parallelen Architekturen lösen Das Lösen eines Systems multivariater quadratischer Gleichungen (MQ) ist ein NP-vollständiges Problem, dessen Komplexitätsschätzungen für viele kryptographische Szenarien relevant sind. In einigen Fällen ist es bei dem bekanntesten Angriff erforderlich, manchmal handelt es sich um einen generischen Angriff (wie bei den multivariaten PKCs) und manchmal bestimmt es ein nachweisbares Sicherheitsniveau (wie bei den QUAD-Stream-Chiffren).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33027-8_21 05a4f7d93fc453c173c50b0b24c2ae76;de;;;3.3.;;;Eine Kommunikationsarchitektur zur Überwachung und Diagnose von Verteilungssystemen In einem Stromverteilungssystem ist eine Senke jedes drahtlosen Sensornetzwerks erforderlich, um Überwachungsdaten oder Fehlerdiagnosen an ein Gateway zur endgültigen Lieferung an ein Überwachungszentrum, das sich in einem externen Netzwerk befindet, zu liefern. In diesem Papier schlagen wir einen effizienten Pfadverwaltungsmechanismus zwischen der Senke und dem Gateway vor. Wir haben bewiesen, dass unser vorgeschlagener Mechanismus in Bezug auf die Servicezeit und die Datenverlustrate viel besser abschneidet als bestehende Routingmechanismen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16444-6_27 d5b10549e0900eb535a14259e4404dcd;de;;;3.3.;;;Vergleich von AMD Zen 2 und Intel Cascade Lake zur Modellierung der Zellteilung von Säugetieren Moderne Architekturen von Zentralprozessoren, insbesondere AMD Zen 2 und Intel Cascade Lake, ermöglichen den Aufbau von Shared-Memory-Systemen mit mehr als 100 Rechenkernen. Dieses Papier präsentiert die Ergebnisse des Vergleichs der Leistung dieser Architekturen, die bei der numerischen Modellierung der Mitose in Eukaryoten gezeigt wurden. Als Benchmark diente die von den Autoren entwickelte Software MiCoSi, die zuvor eine lineare Skalierbarkeit bei Ausführung auf Clustersystemen demonstrierte. Die Tests wurden auf Amazon EC2-Cloud-Knoten mit jeweils 96 logischen Kernen durchgeführt. Es zeigt sich, dass die beiden untersuchten Architekturen in Bezug auf das Problem der Mitosemodellierung eine ähnliche Performance aufweisen, während Intel Cascade Lake seinen Konkurrenten AMD Zen 2 teilweise um 5–23 % umgeht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-78759-2_27 1749fa4226cf6cccdd61e4553f0c1c2f;de;;;3.3.;;;Software as a Service basierte CRM-Anbieter im Cloud Computing: Herausforderungen und technische Probleme Im letzten Jahr stellt Cloud Computing als neues internetbasiertes Computing-Modell verschiedene Dienstanbieter dynamisch zur Verfügung. Software-as-a-Service (SaaS) ist heute einer der wichtigsten Eckpunkte des Rechenverfahrens. Durch die Erhöhung der Benutzerinteraktionen steigt jedoch die Komplexität der Cloud-Prozesse mit dem Fortschritt der Technologie. Daher ist es in Cloud-Umgebungen schwierig, geeignete Dienste bereitzustellen, um auf die Anwendungen des Customer Relationship Management (CRM) zu reagieren. Nach unserem besten Wissen gibt es im Bereich der SaaS-basierten CRM-Anbieter im Cloud Computing keine systematische und detaillierte Überprüfung. Daher kategorisiert dieses Papier die SaaS-Funktionen basierend auf den wichtigsten Punkten der CRM-Anbieter. Die SaaS-Features werden nach wichtigen Faktoren der CRM-Anbieter wie Unternehmensgröße, Serviceeinsatz, Benutzerfreundlichkeit, Verfügbarkeit und Effizienz miteinander verglichen. Die Vor- und Nachteile der einzelnen Anbieter werden diskutiert und einige Hinweise zur Lösung ihrer Probleme gegeben.;-;-;-;https://link.springer.com/article/10.1007/s12927-017-0011-5 b208dfe62d68ca600b07c0ba3e01eb1b;de;;;3.3.;;;Globale Softwareentwicklungsmuster für das Projektmanagement Globale Softwareentwicklung mit dem agilen oder Wasserfall-Entwicklungsprozess wird in vielen Unternehmen eingesetzt. GSD bietet Vorteile, aber auch neue Herausforderungen ohne bekannte, dokumentierte Lösungen. Ziel dieser Forschung ist es, aktuelle Best Practices für GSD in Form von Prozessmustern für das Projektmanagement darzustellen, die mit einer szenariobasierten Bewertungsmethode bewertet werden. Die Best Practices wurden von einem großen Unternehmen gesammelt, das in der Prozessautomatisierung tätig ist. Es wird erwartet, dass die resultierende Mustersprache anderen Unternehmen hilft, ihre GSD-Prozesse zu verbessern, indem die Muster in die Prozesse integriert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04133-4_12 9a5f40f834f78623f1d80c1578bec554;de;;;3.3.;;;Erweiterte Analyse-Informationsarchitektur für die Dosierungsbewertung von Morphin-Kombinationszusatz Laut den Statistiken des National Bureau of Controlled Drugs in Taiwan und des Internationalen Narcotics Control Board der Vereinten Nationen betrug die DDD (Defined Daily Doses) des Morphinkonsums pro Million Einwohner in Taiwan 1987 12,2 mg und stieg erheblich auf 257,7 mg in 2002, das in 16 Jahren um das 20-Fache gewachsen ist. Der durchschnittliche tägliche Konsum von Morphin in Taiwan beträgt ein Zwölftel des in den Vereinigten Staaten. [1]In dieser Studie verwenden wir die National Health Insurance Research Database (NHIRD) als Datenquelle. Die Daten wurden dann vorverarbeitet und in der Datenbank gespeichert. Außerdem haben wir ein Online-Abfragesystem entwickelt, mit dem Nutzer eigene Suchbegriffe einrichten und ambulante Daten zur Nachanalyse abfragen können. Zukünftig werden wir weitere Suchmethoden anbieten, indem wir andere Begriffe wie ICD-9 (International Statistical Classification of Diseases) für Anfragen verwenden. Darüber hinaus wird die Studie nicht nur die Verwendung von Morphin und ihren kombinierten Arzneimitteln analysieren, sondern auch ein Bayes-Netzwerk zur Ermittlung der Beziehung zwischen Parametern aufbauen und die Wirkung von kombinierten Arzneimitteln auf die Morphindosierung analysieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10616-3_17 5db7c3efd000dd7b30d4802f66791806;de;;;3.3.;;;Standortmodellierung auf ein neues Niveau heben: Ein Toolkit zur Kartenmodellierung für intelligente Umgebungen Wir präsentieren ein Toolkit zur Kartenmodellierung, das den speziellen Anforderungen der Fußgängernavigation in intelligenten Umgebungen gerecht wird. Zentraler Bestandteil ist ein grafischer Editor, der die geometrische Modellierung architektonischer Grundrisse durch Polygonnetze unterstützt. Mit Hilfe von Layern können mehrere Ebenen und deren Verbindungen, wie Rampen und Treppen, dargestellt werden. Um eine breite Palette von Aktivitäten zu unterstützen, vom Reisen bis zur Interaktion mit durchdringenden Benutzeroberflächen, können grobe Modelle im Außenmaßstab hierarchisch durch Untermodelle auf Gebäude- und Raummaßstäben verfeinert werden. Die XML-kodierten Modelle können für Positionierungssysteme, Referenzierung des räumlichen Kontexts und für die Routenfindung durch mehrstöckige Gebäude nützlich sein. Neben dem Editor bietet das Toolkit ein Routingmodul für die Fußgängernavigation.;-;-;-;https://link.springer.com/chapter/10.1007/11752967_6 6405a03eabb51b14880160f5e4610c9e;de;;;3.3.;;;Systolische Architekturen, Systeme und Berechnungen Eine Vielzahl von Problemen im Zusammenhang mit systolischen Architekturen, Systemen und Berechnungen wird diskutiert. Der Schwerpunkt liegt auf grundlegenden und allgemeinen Problemen von allgemeinem Interesse. Der Beitrag konzentriert sich auf theoretische Modelle, Techniken und Ergebnisse. Es werden Hauptmotivationen besprochen und interessante/wichtige Anwendungen aufgezeigt. Das Hauptaugenmerk liegt auf Problemen im Zusammenhang mit Synthese, Transformationen und Simulationen systolischer Systeme und Architekturen. Besonderes Augenmerk wird auf das Studium der Leistung und der Struktur von Linear-Array-Berechnungen gelegt. Das Ziel ist es, die Hauptprobleme, Modelle und Techniken auf eher informelle Weise vorzustellen und die Hauptrichtungen und Ergebnisse zu überblicken.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-19488-6_121 cda71e918bb70216ef1345089fa9b746;de;;;3.3.;;;Eine tiefe Vorhersagearchitektur für den Verkehrsfluss mit Niederschlagsinformationen Die Verkehrsflussvorhersage ist ein wichtiger Baustein, um intelligente Verkehrssysteme in einer Smart City zu ermöglichen. Ein genaues Vorhersagemodell kann den Gouverneuren helfen, zuverlässige Verkehrssteuerungsstrategien zu entwickeln. In diesem Artikel schlagen wir eine tiefe Verkehrsflussvorhersagearchitektur P-DBL vor, die ein tiefes bidirektionales Langzeit-Kurzzeitgedächtnis (DBL) und Niederschlagsinformationen nutzt. Das vorgeschlagene Modell ist in der Lage, die tiefgreifenden Merkmale des Verkehrsflusses zu erfassen und zeitbewusste Verkehrsflussdaten und zusätzliche Niederschlagsdaten voll auszunutzen. Wir evaluieren die Vorhersagearchitektur auf dem Datensatz des Caltrans Performance Measurement System (PeMS) und dem Niederschlagsdatensatz des California Data Exchange Center (CDEC). Die Versuchsergebnisse zeigen, dass das vorgeschlagene Modell zur Verkehrsflussvorhersage im Vergleich zu anderen Modellen eine hohe Genauigkeit erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-93818-9_31 6d2203dacc4e1c848310e3affa0c5dd1;de;;;3.3.;;;Gewinn des Wettbewerbs In diesem Kapitel werden die Möglichkeiten aufgezeigt, wie man den Wettbewerb auf dem Markt durch den Einsatz von IKT und Innovation gewinnen kann. Ein Boilerplate-Template-Prozess wird angelegt. Die wichtigsten Dinge, auf die Sie achten sollten, werden beschrieben, z. B. Plattformen, Wettbewerbsorientierung (nicht nur Kundenorientierung), Verwendung von Metadaten, Aufbau von Communities, Einführung von schlankem und agilem Denken und so weiter.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1675-3_11 50d5c5582721d9fb7f52a38c5a1128af;de;;;3.3.;;;Rekonfigurierbare VLSI-Architektur des Multi-Radix-Maximum-A-Posteriori-Decoders für die neue Generation drahtloser Geräte Diese Arbeit stellt eine neue flexible Architektur für Maximum-a-posteriori (MAP)-Decoder mit Multi-Radix-Modi vor, um verschiedene Durchsätze bei unterschiedlichem Stromverbrauch zu unterstützen. Wir haben wichtige interne Blöcke des MAP-Decoders mit umfangreicher Steuerungslogik entwickelt, um Radix-2/4/8-Betriebsmodi zu unterstützen. Diese Designs ermöglichen ein effizientes Clock-Gating unseres Decoders für einen geringen Stromverbrauch in verschiedenen Betriebsmodi. Diese Decoder-Architektur wird nach dem Layout im 65-nm-CMOS-Prozess simuliert und seine Leistungsanalyse ergab, dass die;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-5950-7_4 caf50fc40f46009269a05826ea23fd7a;de;;;3.3.;;;Verifikation und Validierung im Lebenszyklus der Echtzeit-Softwareentwicklung Der V&V-Prozess beinhaltet die Wechselbeziehungen der Aktivitäten, die mit den oben genannten Merkmalen verbunden sind. Verifikation ist insbesondere der Prozess, bei dem festgestellt wird, ob die Produkte einer bestimmten Phase des Softwareentwicklungszyklus die in der vorherigen Phase festgelegten Anforderungen erfüllen. Validierung im Prozess der Softwarebewertung am Ende des Softwareentwicklungsprozesses zur Sicherstellung der Einhaltung der Softwareanforderungen [1].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-88049-0_101 465f7ccf9b8d2e3fd0f64b8cd5232476;de;;;3.3.;;;Herausforderungen für Software-Agenten, die Entscheidungsträger beim weltweiten Blumenhandel unterstützen Leistungsstarke Unternehmen arbeiten in Unternehmensnetzwerken mit fortschrittlichen Entscheidungsfindungsfähigkeiten. Die Entscheidungsfindung in Unternehmensnetzwerken ist ein neues Forschungsgebiet, das Wissen und Erkenntnisse darüber liefert, wie Entscheidungsrechte vergeben werden und wie Entscheidungsprozesse in sich entwickelnden Unternehmensnetzwerken entworfen und implementiert werden [22]. In diesem Artikel konzentrieren wir uns auf eine bestimmte Art von Support: Softwareagenten. Softwareagenten sind Softwareprogramme, die im Auftrag von Benutzern oder anderen Programmen handeln. Softwareagenten können autonom (in der Lage, die Art und Weise zu ändern, in der sie ihre Ziele erreichen), intelligent (in der Lage zu lernen und zu argumentieren) und verteilt (in der Lage, auf physisch unterschiedlichen Computern ausgeführt zu werden) sein. Software-Agenten können in Multi-Agenten-Systemen (z. B. verteilte Agenten, die allein nicht über die Fähigkeiten verfügen, ein Ziel zu erreichen und daher kommunizieren können müssen) und als mobile Agenten (z. B. diese verlagern ihre Ausführung auf verschiedene Prozessoren) agieren. Neuere Forschungen zeigen, dass Softwareagenten als Entscheidungshilfe- oder Trainingstool für Verhandlungen mit Menschen fungieren können. [16] Lin und Kraus (2010) identifizierten beispielsweise mehrere Arten von Agenten in verschiedenen Variationen von Verhandlungssettings. Diese Agenten unterscheiden sich in der Anzahl der Verhandlungspartner, Begegnungen und Attribute, die sie handhaben können. Die identifizierten Agenten sind: Diplomat, AutONA, Cliff-Edge, Coloured-Trails, Guessing Heuristic, QOAgent und Virtual Human. Obwohl Softwareagenten in wissenschaftlichen Forschungsprogrammen beliebt sind, ist die Verwendung von Softwareagenten in realen Geschäftssituationen begrenzt. Wir werden den Einsatz von Softwareagenten in der Blumenindustrie mit ihren komplexen Logistik-, Handels- und Finanzprozessen auf globaler Ebene untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28082-5_3 b9fcfae1fc4af4743a72960114bc7639;de;;;3.3.;;;Verbindungsmanagement in MPLS-Netzwerken mit mobilen Agenten In diesem Beitrag wird der Einsatz von Mobile-Agent-Technologie zum Erstellen von QoS-gesteuerten MPLS-Tunneln und LSPs untersucht und ein architektonischer Rahmen zur Integration zugehöriger Service- und Netzwerkmanagementaktivitäten vorgeschlagen. Unter Verwendung einer MIB-Definition werden Details einer Beispielimplementierung zum Konfigurieren von MPLS-Netzwerkelementen über CORBA- und JAVA-Einrichtungen erörtert. Es wird eine kritische Bewertung des vorgeschlagenen Ansatzes zusammen mit seinen Vorteilen, Problemen und dem Vergleich mit traditionellen Verbindungsmanagement-Ansätzen vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-47734-9_33 c0aea86a6932a0c52b1bea86d0a3bd6a;de;;;3.3.;;;Design und Implementierung eines verteilten Wasserzähler-Fernauslesesystems basierend auf SaaS Das System hat Merkmale der losen Kopplung, serviceorientiert und verteilt. Das Kommunikationssubsystem basiert auf der C/S-Architektur. Es bewältigt hochgradig gleichzeitigen Zugriff, indem es asynchrone Socket-Kommunikation verwendet. Das Monitoring-Subsystem basiert auf der B/S-Architektur und SaaS (Software as a Service). Es verwendet WCF-Webdienste (Windows Communication Foundation), um das Empfangen, Übertragen und Speichern von Daten zu erreichen. Dieses System implementiert Funktionen der Zählerfernablesung, des Wasserverkaufs und der Erstellung von Datenstatistiken. Das auf SaaS basierende Design reduziert die Schwierigkeit und das Risiko für die Informatisierung von Wasserunternehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-1839-5_44 a7ca95593768c9dc04a6c079bdddff9d;de;;;3.3.;;;Registrieren mehrerer Bereichsbilder basierend auf der Distanzmetrik von Oberfläche zu Oberfläche Bei den meisten herkömmlichen Algorithmen zum Registrieren von Mehrfachbereichsbildern werden die Posenparameter geschätzt, indem die Distanzsumme zwischen den nächsten Punktpaaren als Zielfunktion verwendet wird. Diese Algorithmen haben die Probleme einer ungenauen Punktkorrespondenz, Registrierungsgenauigkeit und Empfindlichkeit gegenüber anfänglichen Registrierungsparametern. Aufgrund der Scannereinstellungen, des Scannerabstands und der Oberflächenneigungen ist es unwahrscheinlich, dass zwei oder mehr 3D-Datensätze so erfasst werden, dass die 3D-Datenpunkte genau übereinstimmen, und auch jeder Punkt im Datensatz kann unterschiedliche Oberflächenbereiche darstellen. Dieses Papier schlägt einen neuartigen Registrierungsalgorithmus vor, der auf einer Distanzmetrik von Oberfläche zu Oberfläche basiert. Der Algorithmus verwendet Dreiecksnetze, um die Oberflächen darzustellen. Aus der Flächenstichprobe und den Punkt-zu-Flächen-Abständen wird die Integrationsberechnung des mittleren Flächenabstandes abgeleitet und auf eine einfache Formel reduziert. Die Methode wurde an synthetischen und realen Entfernungsbildern getestet.;-;-;-;https://link.springer.com/article/10.1360/04yf0037 aa983bccf4df6d38520d594bad7a35aa;de;;;3.3.;;;Über die Verwendung von LTSs zur Analyse von Softwareproduktlinienprodukten, die aus Funktionen bestehen In der Produktlinienentwicklung ist es üblich, die Produkte als Sätze von Merkmalen zu definieren, wobei jedes Merkmal einen zugehörigen Satz von Anforderungen hat. Typischerweise gibt es einen gemeinsamen Satz von Funktionen/Anforderungen und einige variable Funktionen/Anforderungen zum Erstellen verschiedener Produkte. In einem früheren Vorschlag, gekennzeichnete Übergangssysteme (LTSs) zu verwenden, um die Produkte zu modellieren und zu überprüfen, wurden die Produkte unter Verwendung des merkmalsorientierten Ansatzes zusammengestellt und LTS-Modelle mit einem entsprechenden LTS-Analysetool analysiert. Es wurden jedoch keine weiteren Details oder Analysen zu den Modellen und möglichen Konflikten gemacht. Wir untersuchen die Arten von Konflikten, die auftreten können, und diskutieren die Integrationsstrategien zum Aufbau eines integrierten LTS für das aus Funktionen bestehende Produkt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37832-4_48 d17077d06c052c441d15018951a23545;de;;;3.3.;;;Eine Anwendung der NFC-Technologie auf Systemen für die Anwesenheit im Unterricht Derzeit wird der Prüfungsprozess für die Anwesenheit in der Klasse des Informatikprogramms an der Universität Srinakharinwirot immer noch manuell durchgeführt, indem der Name des Studenten nacheinander aufgerufen wird. Dieser Vorgang ist unpraktisch und insbesondere in einer großen Klasse eine solche Zeitverschwendung. Aus diesem Grund möchten wir einen alternativen Weg für die Anwesenheitsprüfung im Unterricht präsentieren, indem die drahtlose Technologie im Smartphone, NFC, angewendet wird, um den Dozenten zu helfen, ihren Unterricht bequem zu verwalten. Das vorgeschlagene System bestand aus zwei Modulen: dem NFC-Modul und dem Web-Modul. Das NFC-Modul funktioniert auf der mobilen Website, die die persönlichen Daten des Studenten vom Smartphone des Studenten auf das Smartphone des Dozenten überträgt, indem beide Telefone miteinander verbunden werden. Das Webmodul wird auf der Server-Site ausgeführt, die die Präsenzdatenbank für den Unterricht enthält. Darüber hinaus bietet das Webmodul auch eine Anwendung für die Anwesenheit im Unterricht, die von einigen Schülern verwendet wird, deren Smartphones NFC nicht unterstützen. Alle Informationen zu den Kursbegleitern können in der Webanwendung dargestellt werden. Das vorgeschlagene System wird den Dozenten helfen, ihren Zeitaufwand für den Präsenzprozess zu reduzieren und dieses System kann in den anderen Fakultäten eingesetzt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-0008-0_21 d45ceab2bfcd090c4edffddfc7aa6756;de;;;3.3.;;;Wertorientiertes Wissensmanagement: der Beitrag der Konzernprozesse Wissensmanagement hat in letzter Zeit viel Aufmerksamkeit in der Softwareentwicklung erfahren, aber der Hauptfokus lag auf Informationssystemen zur Unterstützung des Lernens. Für die meisten Softwareunternehmen bleibt das wertvollste Wissen in den Menschen, und dieses Wissen erfordert verschiedene Methoden, um es zu verwalten. In diesem Kapitel diskutieren wir den Lernbeitrag zweier menschenorientierter Methoden: Postmortem-Reviews und Prozessworkshops.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-29263-2_15 084782e6eceb98810ae2140523b5b41e;de;;;3.3.;;;Minderung von Problemen bei der Zusammenarbeit zwischen Mensch und Mensch mithilfe von Software-Agenten In diesem Beitrag demonstrieren wir den Einsatz autonomer Agenten, um Menschen dabei zu unterstützen, den Zeitplan eines kollaborativen Arbeitsprozesses einzuhalten. Software-Agenten übernehmen die Aufgaben der Kommunikation zwischen den Agenten und die Erinnerung und Warnung von Menschen an die Einhaltung geplanter Aufgaben. Während die FIPA-Agentenkommunikationssprache den Kommunikationsaustausch zwischen Agenten implementiert, implementiert eine Schnittstelle für jeden Agenten die Kommunikation zwischen Menschen und Agenten. Eine solche Schnittstelle bietet Menschen ein bequemes Mittel, um alltägliche Aufgaben an Softwareagenten zu delegieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13480-7_22 486fcba28394ec26cb777b7d14e6a7f5;de;;;3.3.;;;Integration von Internet of Services und Internet of Things aus einer Multiagenten-Perspektive Um die internetbasierten soziotechnischen Systeme zu realisieren, ist es notwendig, eine umfassende und effektive Infrastruktur aufzubauen, die die Interaktion zwischen verschiedenen Cloud-Diensten im Internet und der physischen Welt, in der wir leben, unterstützt. Beispielsweise werden die von den Sensoren erzeugten Informationen in der Regel von Diensten in der Cloud aggregiert, verarbeitet und analysiert, die von verschiedenen Stakeholdern zur Entscheidungsfindung in vielen unterschiedlichen Anwendungsfeldern genutzt werden können. Daher ist zu überlegen, das Internet of Services (IoS), das das flexible Teilen und Zusammenstellen von Cloud-Diensten im Internet ermöglicht, mit dem Internet of Things (IoT), das die Konstellation der Dinge mit verschiedenen Sensoren und Aktoren darstellt, zu integrieren . Die Integration von IoS und IoT umfasst oft mehrere Parteien und muss sich daher mit komplexen Themen wie Interaktion, Dynamik, Skalierbarkeit und Entscheidungsfindung auseinandersetzen, die alle aus einer Multiagenten-Perspektive untersucht werden können. In diesem Whitepaper diskutieren wir zunächst die Notwendigkeiten und Herausforderungen für die Integration von IoS und IoT. Dann schlagen wir eine integrierte Architektur vor und untersuchen sie aus zwei Multiagenten-Perspektiven. Eine davon ist, die integrierte Architektur von IoS und IoT als Multiagenten-basierte Architektur zu betrachten, die verschiedene Muster der Dienstzusammensetzung und Interaktion berücksichtigt. Die andere ist die Anwendung von Multiagenten-Methoden beim Entwurf soziotechnischer Systeme für verschiedene Anwendungsdomänen basierend auf der integrierten IoS/IoT-Architektur. Darüber hinaus verwenden wir die Beispielanwendung der Gestaltung mehrsprachiger Umgebungen, um die oben genannten beiden Perspektiven mit möglichen zukünftigen Forschungsrichtungen zu diskutieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20937-7_3 e64a27ef7574b4d0c9c77e1947a0c2be;de;;;3.3.;;;Charakterisierung von selbstheilenden Softwaresystemen Die Einführung von Selbstheilungsfähigkeiten in Softwaresysteme könnte eine Möglichkeit bieten, das derzeitige, ungünstige Ungleichgewicht im Wettrüsten der Softwaresicherheit zu ändern. Folglich haben sich in den letzten Jahren selbstheilende Softwaresysteme als Forschungsgebiet von besonderem Interesse herauskristallisiert. Motiviert durch die Unfähigkeit traditioneller Techniken, Softwareintegrität und -verfügbarkeit zu garantieren, insbesondere gegenüber motivierten menschlichen Gegnern, sollen Selbstheilungsansätze bestehende Sicherheitsansätze ergänzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73986-9_2 206ef1fc8229887c9e8cc338a1a1e0fc;de;;;3.3.;;;Forschung zur Sicherheitslücke im Internet der Dinge basierend auf einem komplexen Netzwerkangriffsmodell Das Internet der Dinge bringt Komfort in das Leben der Menschen und ist aufgrund seiner eigenen Verwundbarkeit auch anfällig für Angriffe von außen. Aus diesem Grund ist die Analyse der Verwundbarkeit des Internets der Dinge sehr notwendig und sinnvoll. Das Papier beginnt mit den Eigenschaften des Internets der Dinge und konstruiert zunächst sein Netzwerkangriffsmodell. Und dann simulieren wir den Angriff auf das Modell nach den Angriffsregeln. Darüber hinaus wird eine experimentelle Analyse der Verwundbarkeit von Knoten durch die Theorie komplexer Netzwerke durchgeführt und Indikatoren für Netzwerkeigenschaften anhand der Entfernung verwundbarer Knoten quantifiziert. Die experimentellen Ergebnisse zeigen, dass die Verwundbarkeit des Systems mit zunehmendem Anteil der Knotenlöschung unterschiedliche Dämpfungsmuster zeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-5937-8_4 4ee3bbe5a9e5cb6c4ea8595981fe841c;de;;;3.3.;;;Eine vertrauenswürdige Computerbasis für den klassifizierten Schutz von Informationssystemen Das 21. Jahrhundert ist das Informationszeitalter, in dem Informationen zu einer wichtigen strategischen Ressource werden. Informationssicherheit wird heute zu einem der größten Probleme der Computertechnologie. Unsere Computersysteme sind dem Risiko ausgesetzt, von leistungsstarker, funktionsreicher Malware geplagt zu werden. Aktuelle Malware nutzt die endemischen Schwachstellen der riesigen Computerbasis aus, die vertrauenswürdig sein muss, um unsere privaten Informationen zu schützen. Diese Zusammenfassung stellt die Trusted Computing Base (TCB) und die Trusted Computing Group (TCG) vor. TCB ist die Gesamtheit des Beschützers des Computers, die die Sicherheit des Systems beeinflusst. Die Trusted Computing Group (TCG) ist eine internationale Gruppe für Industriestandards. Es gibt umfangreiche Theorien über Informationssicherheit und Technologie. Bereitstellung einiger Technologien und Methoden, die verhindern können, dass Ihr System von Malware angegriffen und von unbefugten Personen kontrolliert wird. Endlich führen wir eine effiziente TCB-Reduktion ein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00006-6_22 5b67bf55dd690c222da32d1eedbeecd7;de;;;3.3.;;;Entwicklung von Software zur Datenanalyse und Bildrekonstruktion in Kleintier-PET Kleintiere einschließlich Ratten werden in biochemischen Forschungen zur Untersuchung von Krankheitsstadien verwendet. Aufgrund der genetischen Ähnlichkeit mit dem Menschen wird der Mechanismus der Entwicklung und Behandlung von Krankheiten beim Menschen bei Ratten nachgeahmt. Dies ist ein effektiver Ansatz in Forschungen, die mit PET durchgeführt werden. Aufgrund der kleinen Körperstruktur bei Ratten kann die Verwendung von humanen PET-Systemen die Bilder nicht mit guter Auflösung liefern. So hilft das Design von PET speziell für Kleintiere wie Ratten in der medizinischen Forschung. Ziel der aktuellen Studie ist es, einen guten Algorithmus zur Bildrekonstruktion von PET-Bildern von Kleintieren mit der Schnellmethode bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54121-6_11 329e0b0fe37773f4c5f0f0510af021fa;de;;;3.3.;;;Eine Implementierung des direkten Lösers für lineare Gleichungen mit einer Vielkern-CPU für die mechanische dynamische Analyse Diese Forschung schlägt eine effektive Implementierung des Linearen Gleichungslösers für eine implizite Integration auf einer CPU mit vielen Kernen vor. Obwohl diese Implementierung auf eine flexible Körpersimulation in der mechanischen Dynamik angewendet wird, könnte sie auch in einer Vielzahl anderer Bereiche verwendet werden. Die BFS-basierte verschachtelte Dissektion und ihre numerische Faktorisierung ermöglichen eine adaptive Kontrolle der Einstellung des Betriebsbereichs sowie eine positive Parallelisierung im Vergleich zur traditionellen DFS-basierten verschachtelten Dissektion. Es bringt eine bessere parallele Effizienz, wenn Separatoren unterschiedlicher Größe in Blöcke unter einer bestimmten Größe unterteilt werden. Diese Studie präsentiert ein Experiment, um eine optimale maximale Blockgröße zu identifizieren. Sparse-Matrizen aus mechanischer Dynamiksoftware werden numerisch faktorisiert, und die Zeitergebnisse zeigen, dass der CACHE-Speichermodus für eine bessere Leistung als der FLAT-Modus geeignet ist. Und es wird empfohlen, in diesem Experiment den Betriebsbereich gemäß der MCDRAM-Größe aufzuteilen. Unsere Forschung zeigt eine ziemlich ähnliche Leistung wie die in MKL enthaltene DSS und beschleunigt die Zeit im Vergleich zu CHOLMOD, einem Teil von SuiteSparse, um das 8- bis 14-fache.;-;-;-;https://link.springer.com/article/10.1007/s12206-017-0910-x 23ab6a355b520b556701aa926ee1755e;de;;;3.3.;;;Überwachung des Flüssigkeitsstands in Flüssigkeitsbeuteln des Patienten durch drahtlose Sensoren im Krankenhaus Die jüngsten Fortschritte beim Internet of Medical Things (IoMT) wurden in verschiedenen Gesundheitsorganisationen eingesetzt, da es kosteneffektiv und profitabel ist. Darüber hinaus bietet es eine hohe Kundenzufriedenheit und erfüllt alle ihre Bedürfnisse. Mehrere Beschränkungen im medizinischen Bereich beinhalten Nachlässigkeit des medizinischen Personals, Unfähigkeit, Patienten zu überwachen, Verlust von Menschenleben aufgrund der Unfähigkeit, Patienten zur richtigen Zeit zu erreichen. Mit der Einführung von IoMT ist es jedoch möglich, diese Einschränkungen zu beseitigen und Menschen mit solchen Einrichtungen zu erleichtern, was nicht nur zu einer neuen Revolution für die Menschheit führt, sondern auch das Gesicht bestehender Einrichtungen verändert. In diesem Kapitel wurde ein innovativer Ansatz vorgeschlagen, um die Flüssigkeitsdurchflussrate von Tropfen im Körper des Patienten zu überprüfen und auch den genauen kritischen Wertabfall für einen Kochsalzlösungsbeutel zu ermitteln und mit Hilfe von IoMT einen sofortigen Alarm an das Pflegepersonal zu senden. Die vorgeschlagene Methode ist kostengünstig und erfordert weniger menschlichen Aufwand in Krankenhäusern, was zu einer neuen Revolution auf dem Gebiet der medizinischen Wissenschaft führen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9282-5_15 4873062e8d9b0164531f4ddb9e060fc3;de;;;3.3.;;;Maximierung der automatischen Codegenerierung: Verwendung von XML-basiertem MDA Derzeit wird Unified Modeling Language (UML) häufig für die Spezifikation und Modellierung von Software verwendet. Der modellgetriebene Ansatz verwendet eine einheitliche Modellierungssprache als plattformunabhängiges Modell und wandelt sie in ein plattformspezifisches Modell um, indem verschiedene Strategien in Form von Stereotypen und Metadaten übernommen werden. Die Uneinheitlichkeit der Strategie macht die UML-basierte modellgesteuerte Architektur (MDA) jedoch zu einer anspruchsvollen Aufgabe. Außerdem wird eine sehr geringe Anzahl von plattformspezifischem Code generiert, wenn das plattformunabhängige UML-Modell (PIM) in ein plattformspezifisches Modell (PSM) umgewandelt wird. Für Design und Implementierung wird ein Tool vorgeschlagen, das die eXtensible Markup Language (XML) als PIM verwendet. XML bietet Einheitlichkeit bei der Beschreibung verschiedener Komponenten. Es bietet auch eine Interoperabilität, die sonst nicht erreicht wird. Codedichte und Codegewinn erhöhen sich erheblich, wenn XML PIM in PSM konvertiert wird. Eine Fallstudie zeigt die Anwendbarkeit dieses Tools.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32129-0_31 42bce9f3839310e3f45da6771557e2be;de;;;3.3.;;;PARMA: Eine Dateistruktur mit mehreren Attributen für parallele Datenbankmaschinen Parallele Datenbanksysteme haben großes Interesse an der Hochleistungs-Informationsverarbeitung gewonnen. An erster Stelle erfordern diese Systeme effiziente Declustering-Ansätze, um jede Relation zu partitionieren und sie der parallelen Architektur zuzuordnen. Allerdings müssen neben dem Declustering auch die Low-Level-Pflege und die parallele Ausführung von Datenbankoperationen berücksichtigt werden. In diesem Papier wird eine neue parallele Dateistruktur mit mehreren Attributen, nämlich PARMA, vorgeschlagen. PARMA ist eine zweistufige hierarchische verteilte Verzeichnisstruktur, die die Funktionen von DYOP- und Grid-Dateien kombiniert. PARMA bewahrt die Integrität der declusterten Teilmengen der Rasterdatei, so dass die Parallelität zwischen Abfragen und Intraabfragen konsistent aufrechterhalten werden kann. Außerdem bietet die interne Struktur von PARMA die Grundlage für effiziente Algorithmen sowohl für daten- als auch kommunikationsintensive Datenbankoperationen wie Join und Reorganisation.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-60222-4_116 bd03f6dc2353dab74403c45cfc3a6a11;de;;;3.3.;;;Vertrauenswürdige clientseitige Verschlüsselung für Cloud-Speicher Heutzutage delegieren Benutzer die Datenspeicherung aufgrund des praktisch unbegrenzten Speichers, der Änderungshistorie, der Breitbandverbindung und der hohen Verfügbarkeit an Cloud-Dienste. Trotz der Vorteile und Einrichtungen muss der Vertraulichkeit der Daten und der Privatsphäre der Benutzer besondere Aufmerksamkeit geschenkt werden, da zahlreiche Bedrohungen darauf abzielen, solche Informationen auf unbefugte Weise zu sammeln. Ein Ansatz zur Gewährleistung der Vertraulichkeit der Daten ist die Verwendung einer clientseitigen Verschlüsselung, bei der der Benutzer die Kontrolle über die Verschlüsselungsschlüssel übernimmt und festlegt, welche Dateien oder Daten verschlüsselt werden. Dieses Schema wird bereits von vielen Anwendungen auf PCs und auch als natives Feature in einigen Smartphone-Betriebssystemen untersucht, ist jedoch immer noch anfällig für bestimmte Arten von Angriffen. Um die Sicherheit des clientseitigen Verschlüsselungsansatzes zu verbessern, schlagen wir vor, die Intel Software Guard Extensions (SGX) anzuwenden, um die Datenversiegelung durchzuführen die Schlüsselhandhabung schützen. Um unseren Vorschlag zu validieren, erstellen wir einen Proof of Concept basierend auf der Cryptomator-Anwendung, einem quelloffenen clientseitigen Verschlüsselungstool, das speziell für Cloud-Speicherdienste entwickelt wurde. Unsere Ergebnisse zeigen eine bessere Gesamtleistung als die ursprüngliche Cryptomator-Anwendung mit stärkeren Sicherheitsprämissen. Somit hat sich unsere Lösung als praktikabel erwiesen und kann für den praktischen Einsatz und die Integration mit Cloud-Synchronisationsdiensten erweitert und verfeinert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72369-9_1 5d72b23e62bbfee4c23922ac82c5d481;de;;;3.3.;;;Rückstandsbasierte Erkennungen und einheitliche Architektur für massiven MIMO-Uplink Massive Multiple-Input-Multiple-Output-(M-MIMO)-Technik bietet eine bessere Energieeffizienz und Abdeckung, aber eine höhere Rechenkomplexität als Small-Scale-MIMO. Für lineare Detektionen wie den minimalen mittleren quadratischen Fehler (MMSE) liegt eine unerschwingliche Komplexität in der Lösung von großskaligen linearen Gleichungen. Für einen besseren Kompromiss zwischen der Bitfehlerrate (BER)-Leistung und der Rechenkomplexität wurden iterative lineare Algorithmen wie der konjugierte Gradient (CG) angewendet und haben in den letzten Jahren ihre Durchführbarkeit gezeigt. In diesem Artikel werden restbasierte Erkennungsalgorithmen (RBD) für die M-MIMO-Erkennung vorgeschlagen, einschließlich des minimalen Restes (MINRES) Algorithmus, des generalisierten minimalen Restes (GMRES) und des konjugierten Restes (CR) Algorithmus. RBD-Algorithmen konzentrieren sich auf die Minimierung der Restnorm pro Iteration, während sich die meisten existierenden Algorithmen auf die Approximation des exakten Signals konzentrieren. Numerische Ergebnisse haben gezeigt, dass RBD-Algorithmen für 64-QAM 128 × 8 MIMO nur 0,13 dB von der exakten Matrixinversionsmethode entfernt sind, wenn BER = 10;-;-;-;https://link.springer.com/article/10.1007/s11265-018-1427-y 47b40edaa1ba82d5fc3165a9b4d5008c;de;;;3.3.;;;Agentenorganisationen in Informationsfusionsumgebungen Unter Informationsfusion in einem kontextbewussten System wird ein Prozess verstanden, der Bewertungen der Umgebung anhand ihrer Ziele zusammenstellt. Vorteile intelligenter Ansätze wie Multi-Agent-Systeme (MAS) und der Einsatz von Wireless Sensor Networks (WSN) innerhalb des Informationsfusionsprozesses zeichnen sich insbesondere in kontextbezogenen Szenarien ab. Es ist jedoch entscheidend geworden, verbesserte und effiziente Wege zum Umgang mit der enormen Datenmenge vorzuschlagen, die durch diese Ansätze bereitgestellt wird. Agenten sind eine geeignete Option, da sie autonome Einheiten repräsentieren können, indem sie ihre Fähigkeiten, ihr Fachwissen und ihre Absichten modellieren. In diesem Sinne sind virtuelle Agentenorganisationen eine interessante Option/Möglichkeit, da sie die notwendige Kapazität für den Umgang mit offenen und heterogenen Systemen bereitstellen können, wie sie normalerweise im Prozess der Informationsfusion zu finden sind. Dieses Papier stellt ein neues Framework vor, das eine Methode zum Erstellen einer virtuellen Organisation von Software- und Hardwareagenten definiert. Dieser Ansatz erleichtert die Einbeziehung kontextsensitiver Fähigkeiten bei der Entwicklung intelligenter und anpassungsfähiger Systeme, in denen Funktionalitäten verteilt und kollaborativ kommunizieren können. Zur Bewertung dieses Rahmens wurden mehrere Tests durchgeführt, und es werden vorläufige Ergebnisse und Schlussfolgerungen präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24769-9_5 bd9a9353ccd07c66f32a170c5871d6aa;de;;;3.3.;;;Neuronales maschinelles Übersetzungssystem für indische Sprachen mit tiefer neuronaler Architektur Das Übersetzen in eine indische Sprache ist eine anspruchsvolle Aufgabe. Indische Sprachen basieren auf Sanskrit und haben eine reiche und vielfältige Grammatik. Aufgrund seiner umfangreichen Grammatik erfordert es eine sehr große Anzahl komplexer Regeln zum Erstellen eines traditionellen regelbasierten maschinellen Übersetzungssystems. In dieser Arbeit haben wir ein indisches maschinelles Übersetzungssystem geschaffen, das die jüngsten Fortschritte im Bereich der maschinellen Übersetzung unter Verwendung tiefer neuronaler Architekturen nutzt. Die in diesem Artikel vorgestellten Ergebnisse zeigen, dass wir mit neuronaler maschineller Übersetzung eine natürlichere Übersetzung für indische Sprachen wie Hindi erreichen können, die zuvor mit regelbasierten oder Phrasenbasierten Übersetzungssystemen nicht effizient möglich war.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8657-1_62 605220b7b6a3ef4d5df085b86fb04e84;de;;;3.3.;;;Empfängerarchitekturen für Echtzeit-Bildkomprimierungsalgorithmen basierend auf einem Feature-Visibility-Modell Empfängerarchitekturen für ein rechentechnisch einfaches Bildkomprimierungsschema basierend auf einem expliziten Merkmal-Sichtbarkeits-Kriterium werden diskutiert. Die Komprimierungsalgorithmen verwenden das Merkmal-Sichtbarkeitskriterium, um Bilddetails zu entfernen, die unter normalen Betrachtungsbedingungen nicht sichtbar sind. Die Algorithmen sind von geringer Komplexität, verwenden ganzzahlige arithmetische Operationen und sind gut geeignet für eine einfache Echtzeitimplementierung in Hardware. Die Algorithmen unterteilen das Bild in quadratische Bereiche einheitlicher Intensität. Es wurde ein verlustfreier Code entwickelt, der die Regionsgröße und Organisationsinformationen effizient codiert. Die Empfängerstufen, die verwendet werden, um den verlustfreien Code zu decodieren, das komprimierte Bild zu rekonstruieren und das Bild zum Glätten nachzufiltern, werden beschrieben.;-;-;-;https://link.springer.com/article/10.1007/BF01213580 3cedee9a8b73b3d35e14c140e1861b91;de;;;3.3.;;;Hmesh: Eine vlsi-Architektur für parallele Verarbeitung Verbesserungen an Array-Prozessoren in Form von Rundsendebussen wurden vorgeschlagen, um die Geschwindigkeiten von Algorithmen in der linearen Algebra, der Bildverarbeitung und der Computergeometrie zu verbessern. In diesem Papier betrachten wir bestimmte praktische Probleme in solchen Arrays, die weniger Prozessoren mit den Broadcast-Bussen und endliche Zeit umfassen, nämlich log;-;-;-;https://link.springer.com/chapter/10.1007/3-540-16811-7_156 92add05466f77e3cdc7fb1161b89c6cd;de;;;3.3.;;;Ein SOA-basiertes plattformspezifisches Framework für kontextsensitive mobile Anwendungen Kontextbewusste mobile Anwendungen sind intelligente Anwendungen, die den Kontext des Benutzers überwachen und bei Änderungen in diesem Kontext ihr Verhalten konsequent anpassen können, um die aktuellen Bedürfnisse des Benutzers zu befriedigen oder dessen Absichten zu antizipieren. Das Design solcher Anwendungen basiert auf dynamischen Middleware-Plattformen, die aus einer Vielzahl von Komponenten bestehen. Diese Komponenten sind in der Umgebung verteilt und interagieren, indem sie die Dienste des anderen nutzen. Im Projekt A-MUSE haben wir eine auf MDA-Prinzipien basierende Designmethodik definiert, die auf einer SOA-Referenzarchitektur für kontextsensitive mobile Anwendungen basiert. Dieser Beitrag zeigt, wie abstrakte Konzepte im Design solcher Anwendungen angewendet werden können, um konkrete Komponenten zu realisieren, die architektonische Interoperabilität garantieren. Außerdem präsentieren wir ein plattformspezifisches Framework, das BPEL, UDDI Registry und Webservices als Zieltechnologien verwendet, um unsere Referenzarchitektur zu implementieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04750-3_3 a9c3907da917f419f0bd17c2aec0342c;de;;;3.3.;;;Hin zu einer rechnergestützten Architektur des dyadischen Rapport-Managements für virtuelle Agenten Rapport wurde als wichtiger Faktor für die menschliche Aufgabenerfüllung identifiziert. Motiviert durch die Verbreitung virtueller Agenten, die Menschen bei verschiedenen Aufgaben unterstützen, schlagen wir eine Computerarchitektur für virtuelle Agenten vor, die auf unserer eigenen Arbeit an einem dyadischen Modell der Beziehung zwischen Menschen und virtuellen Agenten aufbaut. Wir zeigen, wie ein solches System trainiert werden kann, um Rapport aufzubauen, aufrechtzuerhalten und zu zerstören.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09767-1_41 9b63711411cdfcaef534129605c0fac7;de;;;3.3.;;;Technologieanalyse zur Sicherheit und Zuverlässigkeit von Netzwerktransaktionen Basierend auf dem Vergleich und der Diskussion der gegenwärtigen Netzwerksicherheitstechnologien und -protokolle untersuchen wir die Sicherheit und Zuverlässigkeit von Netzwerktransaktionen unter technischen Aspekten, analysieren insbesondere die Struktur und den Mechanismus des Secure Sockets Layer (SSL)-Protokolls und weisen auf die Nachteile des SSL-Protokolls und schlagen entsprechende Verbesserungsmaßnahmen vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27326-1_6 d964098f622d1ce11fbc301a959a5fcb;de;;;3.3.;;;Modellierung von k-Anonymity Framework für den proximity-based Privacy Protection in kontextsensitiven LBS Mit der Entwicklung kontextsensitiver standortbasierter Dienste gibt es einen großen Spielraum für den Benutzerzugriff auf präferenzbasierte Dienste. Einer der Hauptforschungsbereiche bei kontextbezogenen ortsbezogenen Diensten ist der umgebungsbasierte Datenschutz für die Benutzer. Ziel unseres Ansatzes zum nähebasierten Datenschutz ist es, von der Implementierung des zentralisierten Anonymisierers abzuweichen und das k-anonymity Framework als sicheres Gateway im kontextbewussten Location Service Provider abzubilden. Unser Design des Datenschutzes basiert auf einem garantierten Datenschutz, anstatt davon auszugehen, dass der Anonymisierer ein vertrauenswürdiger Dritter ist, der den Datenschutz bietet. Unter Verwendung eines symbolischen Model-Checker-Tools NuSMV wurde der auf Nähe basierende Datenschutz durch das k-Anonymity-Framework modelliert und es wurde beobachtet, dass das System alle Einschränkungen berücksichtigt, indem es die meisten Spezifikationen erfüllt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25734-6_29 32cd42be630999318dd1a25d30dc4a75;de;;;3.3.;;;Retargetable Codegenerierung basierend auf struktureller Prozessorbeschreibung Die Designautomatisierung für eingebettete Systeme, die sowohl Hardware- als auch Softwarekomponenten umfassen, erfordert Codegeneratoren, die in elektronische CAD-Systeme integriert sind. Diese Codegeneratoren stellen die notwendige Verbindung zwischen Softwaresynthesewerkzeugen in HW/SW-Codesign-Systemen und eingebetteten Prozessoren bereit. Allzweck-Compiler für Standardprozessoren reichen oft nicht aus, da sie keine Flexibilität in Bezug auf verschiedene Zielprozessoren bieten und außerdem unter einer minderwertigen Codequalität leiden. Während sich die neuere Forschung zur Codegenerierung für eingebettete Prozessoren hauptsächlich auf Fragen der Codequalität konzentriert hat, betonen wir in diesem Beitrag die Bedeutung der Retargetability und beschreiben einen Ansatz, um Retargetability zu erreichen. Wir schlagen die Verwendung einheitlicher externer Zielprozessormodelle bei der Codegenerierung vor, die eingebettete Prozessoren mittels RT-Level-Netzlisten beschreiben. Solche Strukturmodelle beinhalten mehr Hardwaredetails als reine Verhaltensmodelle, wodurch eine enge Verbindung zu Hardware-Designtools und eine schnelle Anpassung an unterschiedliche Zielprozessoren ermöglicht werden. Der MSSQ-Compiler, der Teil des MIMOLA-Hardware-Designsystems ist, arbeitet mit Strukturmodellen. Wir beschreiben Eingabeformate, zentrale Datenstrukturen und Techniken zur Codegenerierung in MSSQ. Der Compiler wurde erfolgreich auf eine Reihe von realen Prozessoren ausgerichtet, was die Machbarkeit unseres Ansatzes in Bezug auf die Retargeting-Fähigkeit beweist. Wir besprechen die Möglichkeiten und Grenzen von MSSQ und identifizieren mögliche Verbesserungsbereiche.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008807631619 3fe8b56e68459889437086fc0a5d286c;de;;;3.3.;;;Ein Framework und eine Architektur für die Multiroboter-Koordination In diesem Beitrag präsentieren wir ein Framework und die Softwarearchitektur für den Einsatz mehrerer autonomer Roboter in einer unstrukturierten und unbekannten Umgebung mit Anwendungen, die von Scouting und Aufklärung über Such- und Rettungsaufgaben bis hin zu Manipulationsaufgaben reichen. Unser Software-Framework bietet die Methodik und die Werkzeuge, die es Robotern ermöglichen, im autonomen Betrieb deliberatives und reaktives Verhalten zu zeigen, von einem menschlichen Bediener zur Laufzeit umprogrammiert zu werden, zu lernen und sich an unstrukturierte, dynamische Umgebungen und neue Aufgaben anzupassen, Leistungsgarantien. Wir demonstrieren die Algorithmen und die Software auf einem experimentellen Teststand, an dem ein Team von autoähnlichen Robotern eine einzige omnidirektionale Kamera als Sensor ohne explizite Verwendung von Odometrie verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45118-8_31 c4767f2d143074d117ebd1115164b0e0;de;;;3.3.;;;Auf dem Weg zu einem informationsintegrierten Steuerungssystem – die steuerungstheoretische Sichtweise intelligenter Steuerungstechnik Die neuere Computertechnologie bietet alternative Strategien für die Funktionalität und Implementierung von Controllern für praktische komplexe Systeme. Ein wichtiges Thema wird sein, wie alle Informationen zu Steuerungsproblemen integriert werden können. In diesem Beitrag stellen wir die regelungstheoretische Sichtweise der intelligenten Regelungstechnik vor und diskutieren ein Paradigma für ein informationsintegriertes Regelungssystem.;-;-;-;https://link.springer.com/article/10.1007/BF02481180 d5200a9ce81f741dd871355e43601bcf;de;;;3.3.;;;Verzerren Sie ein Qubit beim Kopieren und Löschen Die Unmessbarkeit eines Quantenzustands hat wichtige Konsequenzen für die praktische Implementierung von Quantencomputern. Unser Ziel ist es, die Effizienz der verschränkten Ausgabe eines Pati-Braunstein-Löschgeräts oder eines Wootters-Zurek-Quantenkopiergeräts als Quantenkanal zu analysieren. Interessanterweise stellen wir fest, dass für spezielle Werte des Eingabeparameters der Zustand die Bell-Ungleichung nicht verletzt. Darüber hinaus analysieren wir die Leistungen der verschränkten Ausgabe von Pati-Braunstein beim Löschen nach dem Wootters-Zurek-Kopiergerät.;-;-;-;https://link.springer.com/article/10.1007/s11128-012-0484-6 4c3f7d395f3bf7cfa3ace37de26eb244;de;;;3.3.;;;Kontaktlose Patientenauthentifizierung zur Registrierung mit Gesichtserkennungstechnologie Die Patientenregistrierung ist ein wesentlicher Prozess in jeder Klinik und jedem Krankenhaus, bevor Dienstleistungen für Patienten erbracht werden. Normalerweise wird der Personalausweis oder der Fingerabdruck des Patienten (über einen Fingerabdruckscanner) zur Identitätsauthentifizierung angefordert, um medizinische Unterlagen des Patienten abzurufen. Die aktuelle globale Gesundheitskrise der COVID-19-Pandemie wirft jedoch Bedenken hinsichtlich der Hygiene und Sicherheit beim Teilen von Gegenständen oder beim Berühren von Oberflächen auf. Die gleiche Sorge wird auch in Bezug auf den Interaktionsprozess der Patientenregistrierung aufgeworfen, außerdem werden Krankenhäuser und Kliniken als Hochrisikostandorte eingestuft. Daher wird in dieser Arbeit eine kontaktlose Patientenauthentifizierung zur Registrierung mittels Gesichtserkennungstechnologie vorgeschlagen. Bei diesem System wird ein Gesicht gescannt und verarbeitet. Wenn das Gesicht in der Datenbank vorhanden ist, das anzeigt, dass es sich bei der Person um einen etablierten Patienten handelt, werden die Patientenakten abgerufen. Andernfalls wird eine neue Patientenregistrierung durchgeführt, um ein neues Konto zu registrieren. Die Effizienz des Systems wird anhand unserer selbsterstellten Datenbank bewertet. Empirische Ergebnisse zeigen, dass das vorgeschlagene System eine Genauigkeit von 94% erreichen kann. Es wird jedoch eine minderwertige Leistung erzielt, insbesondere beim Umgang mit Makeup-Variationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4069-5_7 3c8f5305df9d9b216737a71a74b131cb;de;;;3.3.;;;Verhaltenstests von programmierbaren Systemen Während das Testen digitaler Systeme seit mindestens dreißig Jahren Gegenstand der Forschung [1] ist, hat die Einführung zuerst von LSI und dann von VLSI und ULSI dem Problem einen neuen Schwerpunkt gegeben und folglich eine Untersuchung unter neue Sichtweise.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-1417-9_14 fe04b1287191e8d71e8a1d09de4f5509;de;;;3.3.;;;Adaptive Infrastrukturen für die Agentenintegration Mit der Verbreitung von Softwareagenten und intelligenten Hardwaregeräten wächst die Erkenntnis, dass große Probleme durch die Integration solcher eigenständiger Systeme angegangen werden können. Dies hat zu einem zunehmenden Interesse an Integrationsinfrastrukturen geführt, die die Zusammenarbeit einer heterogenen Vielfalt von Akteuren und Menschen ermöglichen. In unserer Arbeit hat diese Infrastruktur die Form einer Integrationsarchitektur namens;-;-;-;https://link.springer.com/chapter/10.1007/3-540-47772-1_9 2471b8ae9b4f62821afbc8c391637c29;de;;;3.3.;;;Ein Metamodell zur Integration von Software-Reengineering im Kontext von BPR-Projekten In diesem Beitrag wird ein Metamodell vorgeschlagen, das sich mit verschiedenen Konzepten befasst, die bei Reengineering-Operationen beteiligt sind. Dieses Metamodell, in dem sowohl Business Process Reengineering als auch Software Reengineering betrachtet werden, wird von einem Ansatz zur Analyse und Diagnose von Prozessen und Softwarekomponenten begleitet. Zur Unterstützung dieses Ansatzes wurde ein Prototyp entwickelt, der auf der Grundlage des vorgeschlagenen Reengineering-Metamodells entworfen wurde. Diese Ideen werden durch eine Fallstudie validiert, die in diesem Papier vorgestellt wird und sich auf einen Prozess im Hochschulbereich bezieht. Der Kontext dieser Fallstudie wird beschrieben, dann werden die entsprechenden Instanzen des Metamodells vorgestellt und einige Verbesserungsergebnisse offengelegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24358-5_33 e4adea57dce6b5970a11bf109c135d16;de;;;3.3.;;;ENME: Eine angereicherte Medienanwendung, die den Kontext für technische und menschliche Probleme der Sitzungsmobilität nutzt Wir untersuchen die Kombination einer SIP-Anwendung (IP-basierte Multimedia-Telefonie) mit einer kontextsensitiven Smart Environment. Wir beginnen mit der Beschreibung eines Szenarios, in dem es sehr wichtig ist, eine solche Kombination zu verwenden. Die kombinierte Anwendung heißt ENME und verwaltet und verschiebt Kommunikationssitzungen basierend auf dem Benutzerkontext. Wir realisieren den Service mit SIP REFER und SIP Extensions. Wir diskutieren auch kurz andere Lösungen wie „virtuelle Terminals“ und identifizieren Vor- und Nachteile der verschiedenen Lösungen. Die Anwendung ist implementiert und läuft auf einem Modelleisenbahnsystem, aber das Kontextmodell selbst ist allgemeiner. Ein nächster Schritt wäre, die Anwendung in anderen intelligenten Umgebungen bereitzustellen, und wir schauen uns kurz eine Krankenhausumgebung an. Wir beenden das Papier, indem wir einige menschliche Probleme für das ordnungsgemäße Funktionieren des Dienstes identifizieren und diese Probleme mit den technischen Lösungen in Verbindung bringen.;-;-;-;https://link.springer.com/chapter/10.1007/11596042_33 e22c9ea99da8eb328cc29a14c0ce6e97;de;;;3.3.;;;Gene Machine© – Eine Hardware-/Software-Plattform zur Analyse von Genomdaten Gene Machine© ist eine rekonfigurierbare Hardware-/Software-Architektur, die zur Untersuchung einer Vielzahl von Problemen im Bereich der Computerbiologie verwendet werden kann. Die wichtigsten Architekturmerkmale von Gene Machine© sind a) Hardwareimplementierung von n;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-70600-7_41 274d43a95f4d936895343863c5fbb488;de;;;3.3.;;;Heterogene Datenbankintegration des EPR-Systems basierend auf OGSA-DAI In diesem Papier beschreiben wir eine serviceorientierte Middleware-Architektur basierend auf OGSA-DAI, die heterogene Datenbanken integriert, die in verschiedenen elektronischen Patientenakten (EPR)-Systemen verteilt sind. OGSA-DAI bietet einen einheitlichen Zugriff auf heterogene Datenbanken mit heterogenen DBMSs per Webservice. Wir lösen die Datenheterogenität von Informationen, die ausgedrückt werden, indem wir die Kriterien der Informationsbeschreibung angeben und dann physische Daten in eine virtuelle Tabelle abbilden. Benutzer rufen Daten aus einer virtuellen Tabelle per SQL-Abfrage ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11842-5_35 a87ac2d1233f33a2d1590df409580490;de;;;3.3.;;;Architektur normaler Zottenbäume Die Verästelungen der Zottenbäume können in Segmente unterteilt werden, die sich hauptsächlich durch Kaliber, Stromastruktur, Gefäßstruktur und Position innerhalb des Zottenbaums unterscheiden (Abbildung 46). Fünf Zottentypen wurden beschrieben (Kaufmann et al., 1979, Sen et al., 1979, Castellucci & Kaufmann, 1982a,b, Kaufmann, 1982, Castellucci et al., 1984, 1990, Burton, 1987), einige davon weiter untergliedert werden kann. Wie besprochen, stammen alle Zottentypen von einzelnen Vorläufern ab, den mesenchymalen Zotten, die den Tertiärzotten der frühen Plazentationsstadien entsprechen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-4193-3_5 abb6fb8399f815feb218be37de59a68c;de;;;1.1.;;;Verfahren des Werbemittel-PretestingAngesichts der zum Teil sehr hohen Kosten für Werbekampagnen ist es ratsam, eine Werbung oder Werbekampagne ex ante, also bereits vor ihrer Schaltung im Markt, zu prüfen, ob sie die an sie gestellten Anforderungen erfüllen kann. Pretests dienen der Entscheidung, ob ein Werbemittel geschaltet werden oder vorher noch optimiert werden soll. Sinnvolles Pretesting wählt jeweils eine Kombination aus den verfügbaren Verfahren, die auf den jeweiligen Untersuchungszweck zugeschnitten sind. Pretesting kann Werbewirkung nicht komplett erklären oder gar prognostizieren, aber Schwachstellen aufdecken und zur Optimierung einzelner Werbemittel beitragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-3857-2_9 5507b032d8ac7acb75368e4db706603f;de;;;1.1.;;;Gut zu WissenIn der heutigen innovationsorientierten Wirtschaft leben die Menschen in einer Wissensgesellschaft, in der Wissen die wertvollste Ressource darstellt (Krcmar ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-08309-0_20 fa7a366c5f701695f805febd3b6290db;de;;;1.1.;;;Stabilität und Transformation: Elemente einer politikwissenschaflichen TransformationstheorieDie Ausgangsüberlegung für den Versuch, einen Beitrag zur theoretischen Konzeptionierung politikwissenschaftlicher Transformationsforschung zu leisten, beruht in Anlehnung an einige der Überlegungen in Kapitel 1.1 auf einem einfachen Vergleich naturwissenschaftlicher und sozialwissenschaftlicher Erkenntnisparameter. Die bisher in den Naturwissenschaften dominierende „analytische, linear-kausale Rationalität mit dem Ziel der ‘Beherrschung der Natur’ und ihre technokratische Übertragung auf Sozialsysteme ... (hat) uns neben faszinierenden Einsichten und Erkenntnissen und einem singulären materiellen Wohlstand in den führenden Industrieländern blind gegenüber anderen Fortschrittsmustern gemacht und in eine globale Ökologische und soziale Sackgasse manövriert“ (Balck/Kreibich 1991, 7). Auch in den sozialwissenschaftlichen Versuchen, komplexe und vernetzte Systemzusammenhänge analytisch zu betrachten, setzt sich zunehmend und als Ergebnis von Evolutions-, Chaos- und Autopoiesie-Forschung;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-99605-3_3 d99c3a327c9c74c6663a4c578273d082;de;;;1.1.;;;Akteure nachhaltigen KonsumsIn diesem Kapitel werden theoretische Grundlagen über Sustainability Brands, deren Personal und das Konsumentenverhalten dargelegt. Sie werden an einer späteren Stelle in dieser Arbeit aufgegriffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-29594-3_3 8627621fc5ae97d1837c67944d8bbf37;de;;;1.1.;;;Regime in der regulativen Politik. Chancen und Probleme eines TheorietransfersWird hier nur wieder alter Wein in neue Schläuche gefüllt? Das Regimekonzept hat in der Analyse der internationalen Beziehungen schon in den frühen 80er Jahren eine große Verbreitung erfahren. Mit dem Konzept wollten anfangs besonders amerikanische Politikwissenschafter die zahlreichen neuen Phänomene der Kooperation und Verständigung in der internationalen Politik erklären, die sich aufgrund der Annäherung der beiden großen geopolitischen und ideologischen Blöcke und in der Folge der Abschwächung der hegemonialen Stellung der USA in der Sicherheits-, Technologie- und Wirtschaftspolitik einstellten (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-90774-1_7 3b3bd180c308b96aa42e734d27c8d26f;de;;;1.1.;;;Kultur, Management und Organisation: Wirklichkeiten des Kultur, insbesondere fremde Kultur, als potentielles system-umwelt-interdependentes Ereignis von betrieblichen Organisationen ist weitaus weniger als etwas außen Auftretendes (oder Nicht-Auftretendes) aufzufassen als gemeinhin betrachtet. Mit dem in Kapitel III. formulierten System-Umwelt-Differenzen-Mechanismus richtet sich die grundlegende theoretische Frage darauf, wie kulturelle Aspekte in die Organisation als Organisationsbildung selbst eingebaut und reproduziert werden. Da die theoretischen Abhandlungen zum konstruktiven Aufbau von Wirklichkeit aus der Innenperspektive einer Organisation sowie zur Frage der Beobachtung von Organisationen im III. Kapitel bereits erfolgt sind, sammeln sich die Gedanken zunächst in einer Überarbeitung des Selbstverständnisses von ‘Kultur’.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08470-9_5 ddd332be4a83d23a392a9b52af9c7c4f;de;;;1.1.;;;Theoretische Einordnung: Forschung zum LehrerberufAuf dem Gebiet der Lehrerforschung treffen unterschiedliche Forschungsrichtungen, Disziplinen und Untersuchungsfragen aufeinander. Lehrpersonen und ihre Einstellungen, ihr Wissen, Können und Handeln sowie die Anforderungen des Berufsfeldes werden aus Sicht der Professionsforschung, der Unterrichtsforschung, der Expertiseforschung, der Persönlichkeitsforschung und der Biogra-phieforschung in den Blick genommen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-23543-7_2 87d8c84a73765c45dd7594dce9a6798d;de;;;1.1.;;;Ableitung wertmäßiger Kosten bei unvollständiger Information der UnternehmensleitungDie grundsätzliche Eignung der wertmäßigen Kosten als Instrument einer zielsetzungsgerechten Koordination dezentraler Entscheidungsprozesse hat die betriebswirtschaftlichen Autoren immer wieder angeregt, nach Methoden Ausschau zu halten, um das System simultan geltender Kostenwerte vor dem Vollzug der Planung quantifizieren zu können. Von praktischem Nutzen ist das Opportunitätskostenprinzip in der Kalkulation nur, wenn diese Kostenwerte vor und nicht erst mit der Planung der optimalen Faktorverwendung zu ermitteln sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-02072-1_7 4fabc620b81049271617a8b79f19cc25;de;;;1.1.;;;Selbstorganisierende Bildanalyse für die Navigation autonomer mobiler RoboterNach vielen Jahren der Forschung auf dem Gebiet autonomer mobiler Roboter bieten sich gegenwärtig Perspektiven für den Einsatz der entwickelten Technologien durch vermehrt aufkommende Anwendungen im Dienstleistungsbereich. Dabei steigen die Anforderungen an die Autonomie solcher Systeme sowie an die Leistungsfähigkeit ihrer Sensorik und Informationsverarbeitung, wenn man sich von eher einfachen Basisanwendungen hin zu Aufgaben bewegt, die durch eine echte Interaktion mit einer komplexen und im allgemeinen dynamischen Umwelt charakterisiert sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-80064-1_16 2dc058962df409ea228ea139ac7daa4b;de;;;3.3.;;;Newton: Ein hochrangiger humanoider Roboter für die RoboCup Soccer KidSize League Eines der Ziele der humanoiden Roboterforscher ist es, einen vollständigen – in Bezug auf Hard- und Software – künstlichen autonomen Agenten zu entwickeln, der in der Lage ist, mit Menschen zu interagieren und in der heutigen Welt zu agieren, der für den Menschen gebaut wurde. In den letzten Jahren gab es immer mehr humanoide Roboter, darunter Aldebarans NAO und Romeo, Intels Jimmy und Robotis’ DARwIn-OP. Dieser Forschungsartikel beschreibt das Projekt und die Entwicklung eines neuen humanoiden Roboters namens Newton, der für Forschungszwecke entwickelt wurde und auch im RoboCup Soccer KidSize League-Wettbewerb eingesetzt werden soll. Zu den Beiträgen des Newton-Roboters gehört, dass er so entwickelt wurde, dass er ohne ein dediziertes Mikrocontroller-Board funktioniert und ein 4 x 4 Zoll großes Intel NUC-Board verwendet, das einen voll funktionsfähigen PC darstellt. Um mit dieser High-Level-Hardware zu arbeiten, wurde eine neue Softwarearchitektur vorgeschlagen, die aus vollständig unabhängigen Prozessen besteht. Diese Architektur, Cross Architecture genannt, besteht aus völlig unabhängigen Prozessen, einem für jedes intelligente System, das ein Fußballspieler benötigt: Vision, Lokalisierung, Entscheidung, Kommunikation, Planung, Wahrnehmung und Handeln sowie einen Prozess zur Verwaltung der anderen. Die Experimente zeigten, dass der Roboter gehen konnte, den Ball in einer unbekannten Position finden, sich von einem Sturz erholen und den Ball mit guter Leistung selbstständig kicken konnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-48134-9_4 53847b63dc2d63758f6d0e0fcb0f1d25;de;;;3.3.;;;Multi-Constraint-gesteuerte System-on-Chip-Testzeitoptimierung Die Kosten für das Testen von SOCs (Systems-on-Chip) hängen stark von der Testanwendungszeit ab. Das Problem ist, dass die Testanwendungszeit steigt, da die Technologie es ermöglicht, hochkomplexe Chips zu entwerfen. Diese komplexen Chips beinhalten eine hohe Anzahl von Fehlerstellen, die ein hohes Testdatenvolumen zum Testen benötigen und das hohe Testdatenvolumen führt zu langen Testanwendungszeiten. Bei modularen kernbasierten SOCs, bei denen jedes Modul seine eigenen Tests hat, kann die gleichzeitige Anwendung der Tests die Testanwendungszeit im Vergleich zur sequentiellen Anwendung drastisch reduzieren. Wenn jedoch gleichzeitiges Testen verwendet wird, müssen Ressourcenkonflikte und Einschränkungen berücksichtigt werden. In diesem Papier schlagen wir eine Testplanungstechnik mit dem Ziel vor, die Testanwendungszeit unter Berücksichtigung mehrerer Konflikte zu minimieren. Die in Betracht gezogenen Konflikte sind auf Cross-Core-Tests (Testen von Verbindungen zwischen Cores), Modultests mit mehreren Testsets, hierarchische Konflikte in SOCs, bei denen Cores in Cores eingebettet sind, die gemeinsame Nutzung des TAM (Testzugriffsmechanismus), Test mechanism Leistungsbeschränkungen und Prioritätskonflikte, bei denen die Reihenfolge der Tests wichtig ist. Diese Konflikte müssen berücksichtigt werden, um einen praxistauglichen Prüfplan zu entwerfen. Insbesondere ist die Begrenzung des Teststromverbrauchs zu beachten, da eine Überschreitung der Leistungsgrenze des Systems das System beschädigen kann. Wir haben eine Technik implementiert, um den Wrapper-Entwurfsalgorithmus mit dem Testplanungsalgorithmus zu integrieren, während alle oben genannten Einschränkungen berücksichtigt werden. Umfangreiche Experimente mit den ITC'02-Benchmarks zeigen, dass unsere Technik trotz der Berücksichtigung einer großen Anzahl von Einschränkungen Ergebnisse liefert, die im Bereich der Ergebnisse liegen, die von Techniken erzeugt werden, bei denen die Einschränkungen nicht berücksichtigt werden.;-;-;-;https://link.springer.com/article/10.1007/s10836-005-2911-4 cc43bfd885567c5dca57ca24036043c3;de;;;3.3.;;;Verteilungs-Toolkit für die Zuweisung virtueller Ressourcen anfordern Das Konzept der serviceorientierten Architektur (SOA) ermöglicht den Aufbau flexibler Dienste, die in einer verteilten Umgebung bereitgestellt und auf verschiedenen Hardware- und Softwareplattformen ausgeführt werden können. Auf der anderen Seite stellt das SOA-Paradigma viele Herausforderungen im Bereich der Servicequalität und der Ressourcennutzung. In dem Papier Resources Distribution Manager (RDM) wird vorgestellt, der Ressourcen und die Servicebereitstellung verwaltet, um die Benutzeranforderungen und die Bedürfnisse des Service Providers zu erfüllen. Anfragen für Dienste werden an ausgewählte virtualisierte Instanzen von Diensten verteilt oder optional werden neue Instanzen zur Bearbeitung der Anfragen erstellt. Die Zuweisungsentscheidungen basieren auf dem Wissen über die Kommunikationsressourcen und die aktuelle Auslastung der Rechenressourcen, die durch ein spezielles RDM-Modul dynamisch überwacht werden. Die Entscheidung über die Ressourcenzuweisung wird dann mit ihrer Nutzung während der Dienstausführung verglichen und führt zu Änderungen der Zuweisungsstrategie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31464-3_33 64086c564118deb450dcd1360c72fd4d;de;;;3.3.;;;Effiziente Uplink-Scheduler-Architektur der Teilnehmerstation im IEEE 802.16-System Der IEEE 802.16, Breitband-Festnetzzugangsstandard, definiert vier Dienstklassen, USG, rtPS, nrtPS und BE für drahtlose Hochgeschwindigkeitsnetze. Um die QoS-Anforderung dieser Klassen zu garantieren, benötigen die Teilnehmerstation und die Basisstation eine Planungsarchitektur und einen Algorithmus. Jedoch definiert IEEE 802.16 keine Scheduling-Architektur oder einen Algorithmus, und die meisten existierenden Scheduling-Mechanismen konzentrieren sich nur auf die Arbeit an der BS. In diesem Papier schlagen wir zwei Arten von Scheduling-Architekturen vor, die an der SS arbeiten. Im One-Level-Scheduler verwenden wir eine Flow-Warteschlange und eine Klassenwarteschlange, indem wir Flows nach ihrer Klassenpriorität unterscheiden. Der zweistufige Scheduler kann einen besser organisierten QoS-Dienst bereitstellen, indem er den einstufigen Scheduler ergänzt. Durch die Anpassung dieser Architekturen kann der Scheduler alle Arten von Verkehr, die in IEEE 802.16 definiert sind, effizient steuern. In der vorgeschlagenen Architektur können beliebige Scheduling-Algorithmen wie SCFQ und EDF angewendet werden. Wir evaluieren die vorgeschlagene Scheduling-Architektur durch Simulation. Die Ergebnisse der Simulation zeigen, dass unsere vorgeschlagene Architektur die Bandbreite effizient nutzen kann.;-;-;-;https://link.springer.com/chapter/10.1007/11596042_76 adcdb5345d55da636882c26eb47b90d0;de;;;3.3.;;;Architektur zum Ausführen mehrerer Anwendungen in einem einzigen drahtlosen Sensornetzwerk: ein Vorschlag Drahtlose Sensornetzwerke haben in der jüngsten Vergangenheit sowohl von Forschern als auch von Industriellen viel Aufmerksamkeit erregt. Normalerweise werden drahtlose Sensornetzwerke anwendungsbasiert bereitgestellt. Diese Einschränkung hat den Einsatz in kommerziellen Anwendungen eingeschränkt, die die Ausführung mehrerer Anwendungen auf einer einzigen drahtlosen Sensornetzwerkinfrastruktur erfordern. In diesem Papier schlagen wir eine einfache Architektur vor, um mehrere Anwendungen in einem einzigen drahtlosen Sensornetzwerk auszuführen. Unser vorgeschlagenes System basiert auf dem Middleware-Konzept, bei dem ein Anwendungsmanagermodul das Umschalten zwischen verschiedenen Anwendungen mit Hilfe eines mobilen Agenten steuert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22726-4_5 6cae144f94b84e86ccc88b4af48d9d89;de;;;1.1.;;;Zu einer Politik der WeltgesellschaftIn den Theorien der internationalen Beziehungen dient die Annahme der Anarchie als strukturprägendes Merkmal internationaler Prozesse nie allein der Beschreibung empirischer Tatsachen. Vielmehr kann mir ihr auf besondere Naturgesetze internationaler Prozesse plädiert und damit schließlich auch auf die Eigenständigkeit der Disziplin hingewiesen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-90914-1_2 56455bbd0e8c1b8dd903164273593827;de;;;1.1.;;;Wahlteilnahme in DemokratienDie Wahlteilnahme wurde sowohl als einfachster als auch als wichtigster Akt politischer Partizipation in Demokratien bezeichnet (Aldrich 1993, Brady, Verba und Schlozman 1995). Es verwundert daher wenig, dass das anfängliche Unvermögen des RC-Ansatzes, dieses politische Handeln zu erklären, seit jeher das prominenteste Beispiel der empirischen Kritik am RC-Ansatz bildet. Die klassische RC-Analyse von Downs ergab, dass sich ein rationaler Entscheider nicht an Wahlen in Elektoraten substantieller Größe beteiligen sollte, da seine Stimme mit an Sicherheit grenzender Wahrscheinlichkeit für den Wahlausgang bedeutungslos ist (Downs 1957). Im Widerspruch dieser Folgerung zur empirisch vorfindbaren Wahlbeteiligung besteht das sog. ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-93144-9_8 bf48aabe371c855aa501d336fa0a0648;de;;;3.3.;;;Verschachtelte Transaktions- und ConcurrencyControl-Dienste auf CORBA In diesem Beitrag werden die Erkundung und Integration des Objekttransaktionsdienstes und des Parallelitätskontrolldienstes auf der Grundlage von CORBA vorgestellt. Wir bieten nicht nur das flache Transaktionsmodell, sondern auch das verschachtelte Transaktionsmodell an. Die verschachtelte Transaktion bietet die Isolierung von Fehlern und verbessert die Parallelität langlebiger Transaktionen. Probleme bei der Unterstützung verschachtelter Transaktionen sowohl im Objekttransaktionsdienst als auch im Parallelitätskontrolldienst werden erörtert. Wir legen auch den notwendigen Overhead offen, der durch diese beiden Dienste in unserer Implementierung verursacht wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35188-9_18 f805e9952e9248a8964f7dfd9e4b7978;de;;;3.3.;;;Disruptive Technologies Shaping das Gesetz der Zukunft Technologie verändert unser Leben und unsere Wahrnehmung der Realität so schnell, dass wir uns ihrer Auswirkungen auf das Verhältnis von Recht und Gesellschaft oft nicht bewusst sind. Als aufstrebender Bereich ist es ein zentrales Ziel des IT-Rechts, den besten Weg zu finden, verschiedene Spitzentechnologien zu nutzen und gleichzeitig die ständig wachsende Kluft zwischen neuen Technologien und verschiedenen Rechtssystemen zu verringern. Daher befasst sich dieses Kapitel mit der Einführung und Beschreibung mehrerer einschränkender rechtlicher Probleme, die durch neue Technologien und die schnell wachsende und dynamische Natur des Internets verschärft wurden. Aus diesem Kapitel folgt, dass zu erwarten ist, dass disruptive Technologien und Innovationen in Zukunft integrale Bestandteile der Rechtsanalyse sein werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-5038-1_1 1c52f49de2f08129d83004f3335f5270;de;;;3.3.;;;Kognitive Fähigkeiten von Agenten Ziel dieses Kapitels ist es, die kognitiven Fähigkeiten, die auf Agenten und Multiagentensystemen eingesetzt werden, anhand von Beispielen aus den von den Autoren durchgeführten Anwendungen zu beschreiben. Insbesondere werden die folgenden Agentenfähigkeiten überprüft: Problemlösungs-, Gedächtnis-, Entscheidungsfindungs- und Lernfähigkeiten. Diese Fähigkeiten, die den größten Teil der Forschung im Bereich Künstliche Intelligenz während des jahrzehntelangen Umgangs mit isolierten Agenten umfassen, werden überarbeitet, um die Interaktion von Agenten in einer Umgebung mit mehreren Agenten einzubeziehen. Die Ergebnisse der Integration solcher Fähigkeiten in Agenten sind die Verbesserung der Allgemeingültigkeit und Flexibilität der Systeme.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7643-8543-9_3 0fa1eba406c006d2dcedb7a8f30fff75;de;;;1.1.;;;Aktivierungstheoretische ÜberlegungenIn verschiedenen Arbeiten zur Pathogenese des funktionellen kardiovaskulären Syndroms wird eine Disposition angenommen, die eine erhöhte Reaktivität auf Umgebungsänderungen beinhaltet. Diese Disposition wird von den verschiedenen Autoren unterschiedlich definiert. So gehen Delius u. Fahrenberg (1966) davon aus, daß eine Disposition im Sinne der Dysthymie vorliegt, die als psychophysische Dimension bzw. als ein Merkmals- oder Komponentengefüge aufzufassen ist, das Merkmale des Verhaltens and solche der physiologischen Reaktivität und* oder Regulation enthält. Andere Autoren, vor allem im amerikanischen Schrifttum, aber auch Hahn (1965) und Christian et al. (1967), gehen von einer Regulationsschwache des Kreislaufsystems aus, die bewirkt, daß es sehr viel schneller zu Auslenkungen einzelner Kreislaufgrößen kommt und these auch verzogert auf das Ruheniveau zurückgeregelt werden. Hierbei wird die entsprechend angenommene Disposition ausschließlich korperlich definiert, impliziert also keine dispositionelle Kovariation zwischen psychischen und physischen Prozessen. Bei Hahn ist these ausschließlich somatische Definition weniger deutlich artikuliert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-72724-5_4 7c330ddde70de6abb2da3ddcb810ca39;de;;;1.1.;;;Optimierung des IT-Outsourcing-Grades im Kontext von Basel IIBanken sind seit der Einführung von Basel II dazu verpflichtet, operationelle Risiken durch Eigenkapitalunterlegung abzusichern. Dafür ist eine Reihe alternativer „Bemessungsansätze“ vorgesehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-00715-7_4 5853cbe61eb4378f2130218269afe2a9;de;;;1.1.;;;Orientierungen zu Verständnis und Vermittlung einer öffentlichen WissenschaftIm folgenden möchte ich eine Auswahl von Antworten vorstellen, die in den unterschiedlichen systematischen Kontexten möglich sein können. Ich werde mich notwendigerweise auf exemplarische Argumentationen beschränken, die eher als Orientierungen denn als umfassende Antworten dienen können. Mit diesen Beispielen sind also weder ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-89085-6_4 620e6011b3002f0d101be6338d261a22;de;;;3.3.;;;Struktur, Komplexität und Chaos in lebenden Systemen Obwohl die Homöostase der inneren Umgebung in den physiologischen Wissenschaften fast schon axiomatisch ist, ist es offensichtlich, dass Rhythmen auf den Ebenen einer Vielzahl von Körperfunktionen auftreten, die von einigen Zyklen pro Millisekunde für die Zündung des Zentralnervensystems bis zum monatlichen reichen Periode des Menstruationszyklus. Als Beispiel für einen solchen Rhythmus beschreibt diese einführende Übersicht, wie durch eine verzögerte Wirkung des juxtaglomerulären Apparates autarke Schwingungen in der Druck- und Flussregulierung einzelner Nephrone entstehen. Dasselbe Problem wird im Beitrag von Marsh et al. wesentlich ausführlicher behandelt, und einer der Zwecke der vorliegenden Diskussion ist es, über die biologische Bedeutung solcher Kreisläufe zu spekulieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-7847-1_1 34aa0345454a7487efc26727be9f1bc5;de;;;1.1.;;;Rest – zwei Apps arbeiten Hand in HandZwei Anwendungen arbeiten in unterschiedlichen Domänen und können sich erfolgreich ergänzen. Die Chat-Anwendung soll um eine Bezahlfunktion erweitert werden, ohne diese von Grunde auf realisieren zu müssen. Ausgehend von einer bereits implementierten zweiten Anwendung, die einen mobilen Bezahlservice anbietet, soll er in der Chat-Anwendung integriert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-26814-5_11 19d7ad883acc6e4cdf7288d7f287a8ae;de;;;1.1.;;;Entscheidungslogische Fundierung risikoorientierter Konstruktionsvorgaben mit dem lebenszyklusbezogenen SimulationsmodellKennzeichnend für die Lebenszyklusrechnung ist, dass, wie generell in der dynamischen Investitionsrechnung üblich, zur Erfassung der Zeitpräferenz des Entscheidungsträgers mit zeitlich differenzierten ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-29355-0_5 214ef84b40f601f79a825fca614f61c1;de;;;3.3.;;;Software-Framework für Federated Science Instruments Es gibt ein beispielloses Versprechen verbesserter Fähigkeiten für Verbände von führenden Computersystemen und experimentellen Wissenschaftseinrichtungen durch den Einsatz von Softwaretechnologien für einen schnellen und effizienten Betrieb. Diese Verbände versuchen, verschiedene wissenschaftliche Instrumente, sowohl Computer- als auch Experimentalinstrumente, zu vereinen, um wissenschaftliche Benutzer und Betreiber effektiv bei der Ausführung komplexer Arbeitsabläufe zu unterstützen. Das FedScI-Projekt adressiert die Softwareherausforderungen im Zusammenhang mit der Bildung und dem Betrieb föderierter Umgebungen, indem es die jüngsten Fortschritte bei der Containerisierung von Software und der Hardware-Software nutzt. Wir schlagen ein Software-Framework vor, um die Nutzung des Verbands durch wissenschaftliche Nutzer und seine Bereitstellung und den Betrieb durch Einrichtungsanbieter zu rationalisieren. Ein charakteristisches Element unserer Arbeit ist die Unterstützung einer verbesserten Interaktion zwischen experimentellen Geräten wie Strahllinieninstrumenten und traditionelleren Hochleistungsrechenressourcen, einschließlich Rechen-, Netzwerk- und Speichersystemen. Wir stellen Leitprinzipien für das Software-Framework vor und beleuchten Teile einer aktuellen prototypischen Implementierung. Wir beschreiben unseren wissenschaftlichen Anwendungsfall mit Neutronen-Bildgebungsstrahllinien (SNAP/BL-3, Imaging/CG-1D) in den Einrichtungen Spallation Neutronenquelle und High Flux Isotope Reactor im Oak Ridge National Laboratory. Darüber hinaus führen wir Pläne für eine direktere Instrumenteninteraktion innerhalb einer föderierten Umgebung aus, die fortschrittlichere Workflows mit Feedbackschleifen ermöglichen könnte, um die Zeit bis zur Wissenschaft zu verkürzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63393-6_13 36f0bc4245f999f4b1d2b406e2cb851a;de;;;1.1.;;;Gestaltung von SanktionsdesignsIm folgenden werden Strukturen von Wirkungsfunktionen aufgezeigt, mit deren Hilfe Fragen der optimalen Faktorallokation bei der Eindämmung von Eigentumskriminalität in Handelsunternehmen beschrieben werden können. Dabei geht es nicht um eine vollständige Spezifierung der Wirkungsfunktionen mit allen potentiellen Einflußfaktoren. Vielmehr soll die Modellstruktur ökonomische Dimensionen der Bemühungen zur Eindämmung von Delinquenz in Handelsunternehmen aufzeigen, die in der maßgeblich durch rechtswissenschaftliche Beiträge geprägten Diskussion in den Hintergrund getreten sind. Ein ökonomischer Ansatz, der die Komplexität der realen Wirkungsbeziehungen reduziert, liefert elementare Einsichten zur Bedeutung der Substitutionalität von Entscheidungsvariablen, zu Fragen der optimalen Faktorallokation, zur entscheidungstheoretischen Darstellung des Täterkalküls und zu Problemen der Sicherung von Faktoreffizienz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08422-8_4 2ea222022cce57196eac673e7a32c8e2;de;;;1.1.;;;Von der Gestaltpsychologie zur Psychosynergetik: das Paradigma der emergentistischen PsychologieWir haben in den vorangegangenen 3 Kapiteln zeigen können, daß sich die Kriterien der Synergität auf alle menschlichen Tätigkeitsformen anwenden lassen und daß der Grad ihrer Ausprägung auf spezifische Weise mit emotionalem Geschehen verbunden ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-83258-0_8 0afadd38824a6fa52bb592f76de5a773;de;;;3.3.;;;Energieeffizienter Routing-Algorithmus mit softwaredefinierendem Netzwerk für WSNs über ungleiches Clustering Clustering- und Multi-Hop-Routing-Algorithmen verlängern die Lebensdauer von drahtlosen Sensornetzwerken (WSNs) erheblich. Beim Multi-Hop-Routing werden die Knoten in der Nähe der Senke jedoch mit starkem Relay-Verkehr belastet und neigen dazu, ihre Energie sehr schnell zu erschöpfen. Somit entsteht das Energieloch. In diesem Papier schlagen wir ein SDN-basiertes Unequal Clustering Routing (SDUCR)-Protokoll für WSNs vor, das aus einem Centralized Unequal Clustering Algorithmus (CUCA) und einem Connected Graph Based Minimum Energy Consumption (CGMEC) Multi-Hop Routing-Algorithmus besteht. Wir nutzen die zentralisierte Intelligenz von Software Defined Network (SDN), um Clustering und Routing zu implementieren. Unser CUCA wird verwendet, um das Netzwerk in Cluster unterschiedlicher Größe basierend auf Restenergie und Grad der Sensorknoten zu unterteilen. Der CGMEC-Algorithmus erstellt einen Routing-Baum zwischen Clusterköpfen, der die Konnektivität zwischen den Knoten sicherstellt und die Kommunikationskosten aller Knoten ausgleicht. Simulationsergebnisse zeigen, dass unser SDUCR-Protokoll den Energieverbrauch zwischen den Sensorknoten ausgleicht und eine deutliche Verbesserung der Netzwerklebensdauer erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-3969-0_18 16415a1bae49b0d5a24d63772b734184;de;;;1.1.;;;Die Erklärung von KontexteffektenWir sprechen von einem Kontexteffekt, wenn ein unabhängiges Kontextmerkmal in einer signifikanten Beziehung zu einem (davon) abhängigen Individualmerkmal steht, auch wenn andere relevante Individual- und Kontextmerkmale kontrolliert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-83780-6_7 54fa90dc180be09fdbafc23e125f98ae;de;;;3.3.;;;Eine industrielle Umfrage zum Software-Outsourcing in China Die meisten Studien zum Software-Outsourcing konzentrieren sich darauf, wie das Outsourcing aus der Perspektive des Outsourcers, d. h. eines Unternehmens, das einen Unterauftrag erteilt, verwaltet wird. Aus Sicht des Lieferanten, also eines Unterauftragnehmers, liegen nur wenige Studien zum Outsourcing vor. Da immer mehr chinesische Softwareunternehmen Software-Outsourcing-Unteraufträge aus der ganzen Welt erhalten, ist es wichtig zu untersuchen, wie Software-Outsourcing-Projekte in China tatsächlich durchgeführt werden, und mögliche Erweiterungen zu identifizieren. Unsere Studie hat Daten aus einer fragebogenbasierten Umfrage von 53 abgeschlossenen Projekten bei 41 chinesischen Softwareanbietern gesammelt. Die Ergebnisse zeigen, dass: 1) Unterschiede in natürlichen Sprachen möglicherweise kein Hindernis für chinesische Softwareanbieter darstellen. 2) E-Mail wird am häufigsten verwendet, um entwicklungsbezogene Themen zu besprechen, während persönliche Besprechungen hauptsächlich verwendet werden, um Management- und Anforderungsfragen zu besprechen. 3) Hauptgründe für Überstunden bei den chinesischen Zulieferern sind Design- oder Anforderungsänderungen durch die Outsourcer und die anfängliche Unterschätzung des Aufwands durch die Zulieferer.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73460-4_5 2ee49ccb8d0f9a292da55cb100bdecf5;de;;;3.3.;;;Ein Cloud-Server basierend auf I/O-Virtualisierung in Hardware Mit dem Aufkommen von Internetdiensten und Big Data hat Cloud Computing großes Forschungsinteresse geweckt, insbesondere auf Cloud-Servern. Im Hinblick auf die Entwicklung leichter Serverprozessoren, d. h. x86-Single-Chip-Prozessoren und ARM64-Prozessoren, und der High-Performance-Interconnect-Fabric wird in diesem Beitrag ein Ansatz vorgestellt, einen Cloud-Server auf virtualisierten I/O aufzubauen. Sein Vorteil besteht darin, im Vergleich zum bestehenden Verfahren hohe Leistung/Kosten, Leistung/Watt, hohe Dichte und hohe Skalierbarkeit bereitzustellen, um den Anforderungen des Cloud-Computing besser gerecht zu werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-49283-3_13 f23f436df13ee9ce7b11d634e701df6d;de;;;3.3.;;;Mehrschicht-Farbdetektoren Die amorphe Siliziumtechnologie kann vorteilhafterweise verwendet werden, um eine neue Generation von integrierten farbempfindlichen Detektoren zu erreichen. Der hohe Absorptionskoeffizient bietet zusammen mit der einfachen Herstellung von mehrschichtigen Strukturen viele Möglichkeiten für neue Geräte. Die Strukturen machen sich außerdem zwei besondere Eigenschaften von a-Si:H zunutze, nämlich dass es durch Glimmentladung und bei relativ niedriger Temperatur großflächig abgeschieden werden kann. Dieses Kapitel beschreibt die amorphen Silizium-Farbdetektoren zusammen mit ihrer Gerätestruktur und Adressierungsarchitektur. Außerdem wird eine kurze Einführung in verwandte Photodetektoren für die Infrarot- und Ultraviolett-Detektion gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-04141-3_7 9282d03fa54ebdcedf9ae3bc6e59bf24;de;;;1.1.;;;Das Grubenorgan, ein biologisches System zur Abbildung von InfrarotstrahlernThe facial pits of pit vipers are suited for thermal imaging. The difference of radiance between radiator and background necessary for evoking a reaction of the viper is 0.1 mW/cm;-;-;-;https://link.springer.com/article/10.1007/BF00292235 833292d56253d1dc2fdab7476446438e;de;;;1.1.;;;Evaluation des ModellsDie Demonstration und Evaluation des entwickelten Artefakts, in diesem Fall das Reifegradmodell, ist zentraler Bestandteil eines gestaltungsorientierten Forschungsprozesses (Hevner/ Chatterjee 2010, 109, Peffers et al. 2007, 55f.). Ziel der Evaluation ist zu prüfen, inwieweit das entwickelte Artefakt in der Lage ist, das in der Ausgangssituation definierte Problem zu lösen (Riege/Saat/Bucher 2009, 73).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-05523-3_6 074dcab54b1cd111b149458d41c24c2c;de;;;3.3.;;;PAUDIT: Eine verteilte Datenarchitektur für Fitnessdaten Zentralisierte Datenarchitekturen sind die vorherrschenden Architekturen, die heute von Systemen verwendet werden. Dezentrale Datenarchitekturen, die Datenverbindungsnetze verwenden, ermöglichen es Benutzern, private Daten in persönlichen Online-Datenspeichern (POD) zu speichern. Wenn Fitnessdaten in einem POD gespeichert werden, hat der Benutzer die volle Kontrolle über die Daten und kann die Fitnessdaten ändern. Anbieter medizinischer Hilfsmittel, die Fitnessdaten für Leistungsberechnungen verwenden, können Fitnessdaten in bestehenden POD-Architekturen nicht vertrauen. PAUDIT ist ein Architekturmodell, das eine dezentralisierte Datenarchitektur beschreibt, die Änderungen an Zugriffskontrolllisten auf POD-Servern überprüft. Anhand der Auditinformationen können Anbieter von medizinischen Hilfsmitteln überprüfen, ob Benutzer möglicherweise Fitnessdaten geändert haben. PAUDIT beschreibt eine Architektur, die es Anbietern medizinischer Hilfsmittel ermöglicht, die Gültigkeit von Fitnessdaten zu überprüfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-43276-8_4 05ec59c04c88b571a331de8618ae7b23;de;;;3.3.;;;Die Rolle der Kunden und ihre Privatsphäre im IoT-Geschäftskontext Das Internet der Dinge hat unsere Denkweise über Vertriebs- und Kundenbeziehungsmanagement-Strategien revolutioniert. In diesem Zusammenhang wird ein Weltbild, in dem Technologie in praktisch alle Objekte und physischen Räume eingebettet ist, eine zu erwartende Realität sein. Diese Realität eröffnet ungeahnte Möglichkeiten in Bezug auf den Individualisierungsgrad im Verkaufsprozess, sei es in virtuellen Räumen oder in physischen Räumen. Aber auch im Bereich der Sicherheit und insbesondere im Bereich der Privatsphäre der Nutzer stellt das IoT enorme Herausforderungen. In diesem Zusammenhang präsentiert dieser Artikel nach der Analyse einiger der wichtigsten Herausforderungen für das IoT im Datenschutzbereich und der möglichen Auswirkungen des IoT im Geschäftsbereich und insbesondere in den Unterbereichen Vertrieb und Werbung ein konzeptionelles Modell zur Unterstützung der Kundenbefähigung während der Bürger in Bezug auf die Definition und Verwaltung von Datenschutzrichtlinien einen Kontext betrifft, der über die Grenzen der Staatsbürgerschaft hinausgehen und in Szenarien ohne Grenzen angewendet werden kann, wenn die Möglichkeit besteht, Richtlinien und Rechtsvorschriften über dem Land zu definieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72660-7_38 6d50ca37203b1ea06d26dc2b111aca98;de;;;3.3.;;;Untersuchung zur Patentanmeldung in China in dreidimensionaler medizinischer Bildgebungstechnologie Die dreidimensionale medizinische Bildgebungstechnologie ist ein Hightech- und heißes Forschungsgebiet. Die Patentanmeldung ist einer der wichtigsten Indikatoren für den Output industrieller Technologieinnovationen. In diesem Artikel wurden Daten von Patentanmeldungen in der dreidimensionalen medizinischen Bildgebungstechnik von 1968 bis 2011 untersucht, insbesondere Daten von Patentanmeldungen in China. Diese Studie analysierte den Entwicklungstrend der Anzahl der Patentanmeldungen, die Verteilung der Anmelder und die Patentverteilung durch IPCs und bewertete Innovationsmerkmale und -probleme in China bei dreidimensionalen medizinischen Bildgebungsverfahren. Es zeigte sich, dass die weltweiten Patentanmeldungen in den letzten 15 Jahren stetig zunahmen und schnell wuchsen. China befindet sich in einem ähnlichen Trend. Nach der Anzahl der Patentanmeldungen in China sind China, USA, Japan, Deutschland und die Niederlande die Top-5-Anmeldeländer. IPCs weltweiter Patentanmeldungen konzentrierten sich auf die medizinische Diagnose (A61B). IPCs Verteilung von Patentanmeldungen chinesischer Anmelder konzentrierte sich auf die Bildverarbeitung. Chinesische Bewerber kommen eher von Forschungsinstituten. Die kreative Fähigkeit Chinas in diesem Bereich nimmt zu.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29305-4_596 438982596cbe1d7a7c3fe1ffbaecbcd7;de;;;3.3.;;;SecBCS: ein sicheres und datenschutzfreundliches Blockchain-basiertes Crowdsourcing-System Eine robuste und skalierbare Crowd-Management-Infrastruktur ist entscheidend für die Bewältigung betrieblicher Herausforderungen beim Einsatz von Sensoren und Aktoren mit hoher Dichte in einer intelligenten Stadt. Während Crowdsourcing im Crowd-Management weit verbreitet ist, sind konventionelle Lösungen wie Upwork und Amazon Mechanical Turk im Allgemeinen auf eine vertrauenswürdige Drittanbieterplattform angewiesen. In einem solchen zentralisierten Paradigma gibt es mehrere potenzielle Sicherheitsbedenken (z. B. sensible Lecks, Single Point of Failure und unfaire Urteile). Daher besteht ein neuer Trend beim Crowdsourcing darin, Blockchain (eine dezentralisierte Ledger-Technologie) zu nutzen, um einige der bestehenden Einschränkungen zu beheben. In der Literatur wurden einige wenige Blockchain-basierte Crowdsourcing-Systeme (BCSs) mit Anreizmechanismen vorgeschlagen, die jedoch im Allgemeinen nicht im Hinblick auf Sicherheit entwickelt wurden. Daher untersuchen wir die Sicherheits- und Datenschutzanforderungen eines sicheren BCS und schlagen eine konkrete Lösung (d. h. SecBCS) mit einer prototypischen Implementierung auf Basis von JUICE vor.;-;-;-;https://link.springer.com/article/10.1007/s11432-019-9893-2 a2c8089d7205087fb8d2fa747f36967c;de;;;1.1.;;;Grundlagen der TopmanagerperspektiveZiel dieses Kapitels ist es, ein grundlegendes Verständnis über die Bedeutung von Topmanagern und deren persönlichen Eigenschaften für die Marktorientierung von Unternehmen zu schaffen. Berücksichtigung finden neben ausgewählten Arbeiten der Marktorientierung insbesondere Erkenntnisse aus der strategischen Führungsforschung. Das Kapitel beginnt mit einer Definition grundlegender Begriffe in Abschnitt 3.1. Im Anschluss wird die „Upper Echelons“-Theorie vorgestellt (Abschnitt 3.2), deren Aussagen in der theoretischen Fundierung der empirischen Studie verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-04328-5_3 da62fd63f115f82a3f47b88c26117461;de;;;1.1.;;;Ein Interaktives Kompensations- und VerstärkungsmodellDer Begriff des Modells wird in der Wissenschaft in unterschiedlicher Weise gebraucht. Wir wollen uns hier an den “allgemeinen wissenschaftlichen Sprachgebrauch” halten und unter einem Modell ein Objekt M (als Gegenstand, Gegenstandssystem, Zeichensystem, Prozeß o.ä.) verstehen, das zu einem anderem Objekt O (dem Original) bestimmbare Ähnlichkeiten aufweist und dadurch Analogieschlüsse von M auf O erlaubt (Bensch, 1978). In unserem Fall wird es um die modellhcifte Darstellung der Interaktion Massenmedium - Rezipient gehen, also ein modellhafter Prozeß mit bestimmten Randbedingungen dargestellt werden. Nicht gemeint mit unserem Modellbegriff ist jener der Mathematik und Logik. Hier versteht man unter Modell eine Interpretation eines formalen (Axiomen-)Systems (d.h. Ersetzung “uneigentlicher”, formaler Begriffe des Systems, durch “eigentliche” bedeutungshaltige Begriffe), die zu wahren, gültigen Behauptungen führt. Unser Modellbegriff impliziert, daß er im Gegensatz zu Theorien nicht wahr oder falsch sein kann, sondern lediglich brauchbar oder unbrauchbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-89380-2_4 06a6a6fafd7a5962b12d626b8a50fa4b;de;;;1.1.;;;Fachtheoretische Positionierung zum GegenstandDie Lebensbedingungen junger Menschen lassen sich anhand verschiedener Lebensbereiche beschreiben, die sich unter anderem auf bestimmte Lebensformen, auf die Teilnahme an allgemeiner und beruflicher Bildung, auf die Erwerbsbeteiligung sowie auf die soziale und politische Teilhabe der Jugendlichen im Gesellschaftssystem beziehen. Mit der Beschreibung dieser Lebensbedingungen sollen mögliche Handlungsspielräume in der Übergangsphase von der Jugend in den Erwachsenenstatus aufgezeigt werden, über die sich die Heranwachsenden selbst durch die Herausbildung und Manifestierung von Werten und Vorstellungen im gesellschaftlichen Kontext verorten können (vgl. Gille u.a. 2006, S. 9). Es stellt sich die Frage, welche potentiellen Ressourcen für die Gestaltung der eigenen Lebenssituation für die jungen Menschen in der heutigen Gesellschaft bestehen. Obwohl damit ein breites Verständnis von Lebensverhältnissen aufgegriffen wird, können innerhalb dieser theoretischen Erarbeitung nicht sämtliche Aspekte, die für die Jugendlichen heute von Bedeutung sind, berücksichtigt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-91865-5_2 d0eac41148bcca9e850ceecb0932c3dd;de;;;1.1.;;;Ein Interaktives Kompensations- und Vers tärkungsmodellDer Begriff des Modells wird in der Wissenschaft in unterschiedlicher Weise gebraucht. Wir wollen uns hier an den „allgemeinen wissenschaftlichen Sprachgebrauch“ halten und unter e'mem Modell ein Objekt M (als Gegenstand, Gegenstandssystem, Zeichensystem, Prozetß o.ä.) ver- stehen, das zu einem anderem Objekt O (dem Original) bestimmbare Ähnlichkeiten aufweist und dadurch Analogieschlüisse von M auf O er- laubt (Bensch, 1978). In unserem Fall wird es um die modellhafte Darstellung der Interaktion Massenmedium — Rezipient gehen, also ein modellhafter Prozetß mit bestimmten Randbedingungen dargestellt werden. Nicht gemeint mit unserem Modellbegriff ist jener der Mathematik und Logik. Hier versteht man unter Modell eine Interpretation eines formalen (Axiomen-)Systems (d.h. Ersetzung „uneigentlicher“, formaler Begriffe des Systems, durch „eigentliche“ bedeutungshaltige Begriffe), die zu wahren, gffitigen Behauptungen führt. Unser Modellbegriff impliziert, datß er im Gegensatz zu Theorien nicht wahr oder falsch sein kann, sondem lediglich brauchbar oder unbrauchbar. Brauchbar wird ein Modell dann sein, wenn es komplexe Verläiufe in der Realität derart strukturiert und/oder Komplexität solcherart reduziert, datß es den Einbau bestehender und die Formulierung neuer Theorien begiinstigt, die sich dann als hinreichend wahr erweisen können. Damit stellen die in der Folge dargestellten, modellhaften Interaktionen eine Fokussierung auf Ausschnitte der komplexen Realitäit dar und sollen es ermöglichen, bisher unbeobachtete Prozesse transparent zu machen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-90334-7_4 c166badc2891e36b84b80fb06e3495aa;de;;;3.3.;;;Eine auf Mobilgeräten basierende Virtualisierungstechnik für die M2M-Kommunikation in der Cloud-Computing-Sicherheit Verschiedene Computertechnologien mit drahtlosen Sensoren, Internet, PCs und mobilen Geräten kommen zusammen, um eine Maschine-zu-Maschine-Kommunikation (M2M) zu schaffen. Da sich moderne Mobilgeräte immer mehr den Fähigkeiten und der Erweiterbarkeit von Standard-Desktop-Workstations und -Servern annähern, sind auch Mobilgeräte vielen der gleichen Sicherheitsbedrohungen ausgesetzt wie Desktops und Server. Ein Enabler für Sicherheitsprobleme bei mobilen Geräten ist die Virtualisierung, eine etablierte Technologie im Desktop- und Serverbereich. In diesem Papier gehen wir die Sicherheitsherausforderungen an, indem wir eine Virtualisierungstechnik in der M2M-Kommunikation für die Cloud-Computing-Sicherheit vorstellen. Dann dient die Virtualisierungstechnik als Sicherheitskontrollmechanismus für mobile Geräte, der einen starken Schutz gegen die identifizierten mobilen Bedrohungen sowie Leistungseffizienz bietet. Der Ansatz der mobilen Virtualisierung und seine Elemente werden unter Berücksichtigung der bestehenden Einschränkungen mobiler Geräte ausführlich diskutiert. Dieses Whitepaper zielt darauf ab, Bandbreitenressourcen zu verbrauchen, um die CPU-, Arbeitsspeicher- und Energieressourcen auf dem Gerät mithilfe einer extrem leichten Technologie deutlich zu reduzieren. Unser Ergebnis zeigt, dass die Virtualisierungstechnik die mobile Sicherheit verbessert und die Komplexität der Software auf dem Gerät reduziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35264-5_23 be2d0efc210a30a9f90798034ad22f96;de;;;3.3.;;;Methodik zur Anpassung von 802.15.4-Standards an ein Gateway Heutzutage haben die drahtlosen Kommunikationssysteme einen großen Fortschritt in Bezug auf Effizienz, Infrastruktur und Abdeckung erfahren, was das Auftreten neuer Standards ermöglicht hat, die bei der digitalen Verbindung verschiedener Geräte in einem lokalen Netzwerk helfen. Heute gilt das Internet der Dinge (IoT) als die nächste große Chance und Herausforderung für die Internet-Engineering-Community, Benutzer von drahtlosen Technologien, Unternehmen und die Gesellschaft im Allgemeinen. Es gibt mehrere drahtlose Übertragungsstandards wie Wi-Fi, Bluetooth, ZigBee und alle sind für den Betrieb mit geringem Stromverbrauch ausgelegt die Notwendigkeit, den Akku häufig aufzuladen. In diesem Beitrag soll die Implementierung eines Gateways für den IEEE 802.15.4-Standard mit Open-Source-Tools und dem Raspberry Pi 3 Development Board unter Verwendung der agilen Entwicklungsmethodik analysiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9019-1_39 6c9f349e0171acbda78bbe167ec52687;de;;;1.1.;;;Stand der Forschung – Sozialisation, Mobilitätssozialisation und MobilitätsbiografienDa die Lebenslaufperspektive und die Analyse von Sozialisation im Lebenslauf in der Mobilitätsforschung noch relativ neu sind, ist es für das Verständnis und das weitere Vorgehen von wesentlicher Bedeutung, einen methodologischen und theoretischen Rahmen zugeben. Dafür wird zunächst ein historischer Abriss über die theoretischen Perspektiven auf Sozialisation gegeben. Zwar bezieht sich „Lernen“ auf das Erlernen von Kompetenzen und Fähigkeiten, während Sozialisation darüber hinaus Orientierungen und Einstellungen tradiert, dennoch haben Lerntheorien einen wichtigen Beitrag zur Sozialisationsforschung geleistet und werden deswegen im Folgenden mitberücksichtigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-22825-5_2 187bd9c2673af383470db37745b53867;de;;;1.1.;;;Berücksichtigung spezieller Risiken von DirektinvestitionenDirektinvestitionen zeichnen sich gegenüber Inlandsinvestitionen durch eine größere Komplexität der entscheidungsrelevanten Einflugfaktoren aus. Die Art ihrer Berücksichtigung in dynamischen Investitionskalkülen hängt vom Sicherheitsgrad der Erwartungen ab. Sind dem Entscheider alle Daten bekannt oder schätzt er sie auf eine einzige Größe, liegen einwertige Erwartungen bzw. subjektive Gewißheit vor. Mehrwertige oder ungewisse Erwartungen sind durch Vorliegen mehrerer alternativer Datenkonstellationen gekennzeichnete. Gemäß dieser Abgrenzung lassen sich Entscheidungssituationen in den Sicherheitsfall und den Ungewißheitsfall einteilen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-89319-2_4 4f0e2f9e016c547bcb5154daf66584d9;de;;;1.1.;;;Elektronische Fachinformation: Quo vadis?Elektronische Fachinformation hat wie Fachinformation im allgemeinen vielfältige Aspekte. Ihr gemeinsames Band ist in aller Regel die wissenschaftliche oder professionelle Nutzung. Für den Anwender ist die Verfügbarkeit von Fachinformation unabdingbare Voraussetzung beruflicher Tätigkeit. Bislang basierte das System des Entstehens und des Weiterleitens von Fachinformation auf dem Aufbringen der Information auf einen Träger (Papier) und dem körperlichen Transport des Trägers zum Anwender.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-21776-4_32 f022b5c977cab106ce3e303500903185;de;;;1.1.;;;Beeinflusst Angst politische Einstellungen? Eine Analyse der öffentlichen Meinung während des Golfkriegs 1991Der vorliegende Aufsatz geht der Frage nach, welche Wirkungen von kriegsbezogener Angst auf politische Einstellungen während des Golfkriegs 1991 ausgingen. Es kann gezeigt werden, dass Angst die Ablehnung der alliierten Intervention und des Einsatzes deutscher Truppen in der Türkei verstärkte. Angst begünstigte ebenfalls Zustimmung zum Standpunkt der SPD-Opposition sowie indirekt eine kritische Haltung zur Regierungspolitik. Zudem kann eineModeratorwirkung von Angst nachgewiesen werden: Angst sorgte nicht für einen wachsenden Einfluss langfristig stabiler Orientierungen auf die Bewertung von politischen Akteuren, sondern stärkte die Wirkung von kurzfristigen, auf die Haltung politischer Akteure zum Golfkonflikt bezogenen Orientierungen. Die vom Golfkonflikt ausgelöste Angst beeinflusste also die Richtung von politischen Einstellungen und deren Wirkungen.;-;-;-;https://link.springer.com/article/10.1007/s11615-006-0082-2 deebd5796fbd8194636f8096dfc056fb;de;;;3.3.;;;Ein praktisches Schlüsselverwaltungsschema in der Softwareschicht und ihren Anwendungen In der praktischen Anwendung weisen die herkömmlichen Schlüsselverwaltungsschemata auf der Grundlage von Anwendungsschicht-Software oder manipulationssicherer Hardware eine Vielzahl von Nachteilen auf. Wir schlagen eine Idee der Schlüsselverwaltung im Kernelmodus vor und entwerfen ein praktisches Schlüsselverwaltungsschema basierend auf Funktionstreibern. Nach einer umfassenden Analyse kann unser System nicht nur den Bedrohungen durch Viren und Reverse-Engineering widerstehen, sondern auch die Nachteile der Hardware wie hohe Kosten und Schwierigkeiten beim Upgrade überwinden. Darüber hinaus kann auch dem in der Kryptographie lästigen Korruptionsangriff widerstanden werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34531-9_30 f1fede837a01161b2a7c0a2af4c4caac;de;;;1.1.;;;Strategien und Praktiken formativen AssessmentsEs besteht weitgehend Konsens darüber, dass es sich bei formativem Assessment um unterrichtsimmanente Praktiken handelt, die den Fokus auf den Lernprozess legen und dazu beitragen sollen, den Unterricht kontinuierlich an die Bedürfnisse der Schülerinnen und Schüler anzupassen (Filsecker & Kerres, 2012). Dennoch existiert bislang noch keine einheitliche Vorstellung davon, welche konkreten Strategien und Praktiken formatives Assessment auf der Handlungsebene kennzeichnen und wie diese miteinander in Verbindung stehen. Eine Analyse vorliegender Arbeiten zu formativem Assessment und der darin berücksichtigten Assessment-Aktivitäten und Assessment-Strategien erscheint daher notwendig, um formatives Assessment differenzierter konzeptualisieren zu können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-26921-0_3 50f9dfe42a5c271ce3f4d81947fe26d4;de;;;3.3.;;;Ein neuartiges Design von passiven optischen Netzwerken auf der Grundlage von orthogonalem Frequenzmultiplexing Orthogonaler Frequenzmultiplex (OFDM) wurde erfolgreich in der drahtlosen Kommunikation verwendet, und jetzt beginnen die Leute, ihn als eine ausgezeichnete Kandidatentechnik in optischen Zugangsnetzen zu sehen. In diesem Artikel machen wir zunächst einen Vergleich zwischen OFDM-basierten passiven optischen Netzwerken (PON) und traditionellen PONs und überprüfen dann einige frühere Arbeiten zu OFDM PON. Danach stellen wir unser Physical-Layer-Schema vor. Darüber hinaus werden eine Netzwerkarchitektur, ein MAC-Protokoll (Medium Access Control) und drei für die OFDM-Kommunikation optimierte dynamische Bandbreitenzuweisungspläne empfohlen. Schließlich werden Computersimulationsergebnisse gegeben, um die Leistung der drei Zeitpläne zu demonstrieren.;-;-;-;https://link.springer.com/article/10.1007/s11107-011-0357-4 91f3645b628c99c9c8ed125f9919bc15;de;;;1.1.;;;Interaktive Prozesse in der Therapie von PsychosenIn der Praxis ist die Kombination psychotherapeutischer und pharmakotherapeutischer Interventionen bei schizophrenen und affektiven Psychosen seit langem etabliert. Die theoretische und empirische Basis für das Verständnis der dabei ablaufenden interaktiven Prozesse ist bis heute aber eher dürftig geblieben, obwohl sie Voraussetzung für ein Rationale wäre, das Therapiekombinationen zu mehr als Polypragmasie machen und ihre Effektivität optimal zu entfalten helfen könnte. Neuere neurobiologische und neuropsychologische Forschungsergebnisse insbesondere zu schizophrenen Psychosen erlauben die Entwicklung eines heuristischen Modells, aus dem sich sowohl die erfolgversprechendsten therapeutischen Ansatzpunkte wie auch Annahmen über interaktive Prozesse zwischen Pharmakotherapie und Psychotherapie ableiten lassen. Der Stand der empirischen Forschung zeigt, daß Kombinationen von neuroleptischer Medikation mit dem Training sozialer Fertigkeiten oder mit familientherapeutischen Ansätzen bezüglich der psychosozialen Anpassung und der Rückfallprophylaxe als besonders effektiv gelten können und mehr als nur additive Wirkungen hervorzubringen imstande sind. Vorteilhaft scheint auch die Kombination von psychoedukativen Ansätzen mit Niedrigdosierung oder intermittierender Medikation zu sein, wenn dabei mittels einem Monitoring von Warn- und Frühsymptomen (für die englische Übersetzung: early signs) auf eine effektive Frühintervention abgestellt wird. Die empirische Evidenz für therapierelevante interaktive Prozesse ist demgegenüber bei affektiven Psychosen schwach und uneinheitlich, was sowohl eine größere ätiopathogenetische Heterogenität, als auch ein größeres Defizit der entsprechenden Grundlagenforschung widerspiegeln dürfte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-9285-6_14 bb3c36f496872568572dcf3fdcdf4817;de;;;1.1.;;;Theoretische Ansätze der zwischenbetrieblichen ZusammenarbeitDas zuvor präsentierte Kapitel 1 subsumiert neben den abgrenzungsbezogenen und definitorischen Grundlagen auch den aktuellen Forschungsstand verschiedener Forschungsströmungen sowie die daraus abgeleiteten Forschungsdefizite und erkenntnisleitenden Forschungsfragen. Kapitel 2 widmet sich hingegen der theoretischen Fundierung der vorliegenden Untersuchung, indem es zunächst verschiedene Theorien der Institutionenökonomik und der Soziologie in eine ganzheitliche theoretische Untersuchungskonzeption integriert, um anschließend aufzuzeigen, welchen Beitrag diese theoretische Basis für den Untersuchungsgegenstand leisten kann. Im direkt anschließenden Kapitel 3 wird auf der Basis dieser theoretischen Grundlagen die Deduktion der zentralen Forschungshypothesen sowie der Kausalmodelle präsentiert, wobei sich die Hypothesengenerierung und Formulierung sowohl an diesen theoretischen Bezugspunkten als auch an den unterschiedlichen wissenschaftlichen Untersuchungen orientiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-9324-9_2 9114c1f045a00430b2288a0fdea95237;de;;;1.1.;;;Konzeptionalisierung und HypothesenbildungAufbauend auf den theoretischen Grundlagen und dem konzeptionellen Bezugsrahmen der vorliegenden Untersuchung wird im Folgenden das spezifische Untersuchungsmodell zum kommunalen Corporate-Governance-Erfolg öffentlicher GmbHs entwickelt. Hierbei erfolgt die inhaltliche Konkretisierung der theoretisch hergeleiteten Komponenten unter Rückgriff auf das wissenschaftliche Schrifttum und die Ergebnisse der Expertengespräche. Tabelle 29 ordnet das vierte Kapitel in die Untersuchung ein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-23448-5_4 75199a4e0fa32cc0f883e63bedf91e9c;de;;;1.1.;;;Dokument-Architektur und Dokument-Austauschformate Stand der Internationalen NormungNeben der Sprache spielt das Dokument eine zentrale Rolle bei der Übermittlung von Information. An persönlichen Arbeitsplatzcomputern unterstützen in zunehmenden Maße Basiswerkzeuge die Handhabung elektronischer Dokumente im Büro. Büroarbeit besteht meist aus einer Folge von Prozessen, die sich über mehrere Arbeitsplätze und mehrere ihrer Werkzeuge erstrecken. Damit Dokumente zwischen kooperierenden Werkzeugen offener Systeme ausgetauscht werden können, benötigt man als Grundlage ein gemeinsames Verständnis vom Aufbau der Dokumente.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-09043-5_14 1fda2d583e1629d69dcb7e131adbc29a;de;;;1.1.;;;Das Umweltproblem aus der Sicht der Property-Rights-TheorieUnter dem Begriff der Neuen Institutionenökonomik werden verschiedene Forschungsrichtungen subsumiert, denen die Betrachtung von Kooperationsmechanismen sozioökonomischer Austauschbeziehungen gemeinsam ist. ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-12476-4_2 fd9db67840e67c7f402f2bbf329060cd;de;;;3.3.;;;Architektur des interoperablen Datenschutzes in benutzerzentrierten föderierten digitalen Identitätssystemen: Überblick über ein serviceorientiertes Implementierungs-Framework Mit dem Aufkommen der serviceorientierten Wirtschaft, verteilter Systeme und des Cloud Computing wird die Entwicklung einer serviceorientierten Architektur und die Einführung offener Standards zu einem Mittel, um die Interoperabilität zu gewährleisten. Datenschutz könnte eine Schlüsselrolle für den Schutz und die Sicherheit der digitalen Identität spielen. Wir schlagen ein Implementierungs-Framework vor, das Privacy-as-a-Set-of-Services (PaaSS)-Framework, das dem Sicherheitsteam des Informationssystems helfen könnte, Datenschutzanforderungen für die digitale Identität in eine Reihe von Diensten zu implementieren. Der Rahmen basiert auf der Idee, dass die geschäftliche Interoperabilität der digitalen Identität und des Datenschutzes von Beginn des Projekts an berücksichtigt werden sollte, um technische Interoperabilität bereitstellen zu können. Die Geschäftsinteroperabilität ist eine Reihe von Anforderungen, die aus globalen, nationalen und unternehmensspezifischen Datenschutzrichtlinien abgeleitet werden. Die technische Interoperabilität wird jedoch durch die Annahme offener Standards und die Implementierung einer Reihe von Diensten und Dienstschnittstellen geboten, die SOA unterstützen könnten. Das Framework entspricht dem Ansatz der modellgetriebenen Architektur (MDA) und besteht aus fünf Schichten und drei Mapping-Gateways. Inter- und Intra-Layer-Iterationen sind eine Folge des SOA-Bereitstellungslebenszyklus und der Ausrichtung der Strategien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30567-2_14 329981ca82cf7d974b2d506f6884ae73;de;;;3.3.;;;Unterstützung von Real-Life-Anwendungen in hierarchischen Komponentensystemen Die komponentenbasierte Entwicklung hat sich zu einer weithin akzeptierten Programmiertechnik entwickelt. Die derzeitige Situation bei der Verwendung von Komponentensystemen ist jedoch, dass die meisten der weit verbreiteten Systeme flache Systeme sind, während hierarchische Systeme (die fortgeschrittener und ausgefeilter sind) von der Industrie eher ignoriert werden. Unserer Ansicht nach wird die Situation durch eine schlechte Unterstützung von Funktionen verursacht, die zum Erstellen von realen Anwendungen in hierarchischen Komponentensystemen erforderlich sind. In der Arbeit zeigen wir, basierend auf mehreren Fallstudien aus der Praxis, eine Reihe typischer Architekturmuster, die von hierarchischen Komponentensystemen unterstützt werden müssen, und bewerten auch, wie diese Muster von aktuellen Systemen unterstützt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05441-9_10 eed6198b59ddc9e943afcbf96c86e260;de;;;3.3.;;;Entwicklung eines Mechanismus zur Bewertung von Cyber-Risiken in digitalen Technologieprojekten, die in einem Industrieunternehmen umgesetzt werden In dieser Studie wird die Entwicklung eines Mechanismus zur Bewertung von Cyberrisiken bei Investitionsvorhaben zur Digitalisierung von Industrieunternehmen diskutiert. Die Relevanz der Studie wird durch die zunehmende Anfälligkeit von Unternehmen für Cyber-Risiken durch Einführung von Innovationen sowie durch die wachsende Komplexität und Häufigkeit von Cyber-Bedrohungen bestimmt. Die Studie konzentriert sich auf die Beseitigung der in der Literatur beschriebenen methodischen und funktionalen Probleme der Cyber-Risikobewertung. Die Ergebnisse umfassen die Entwicklung eines Konzepts für den Mechanismus und seiner Architektur, das strukturelle und logische Schema des Mechanismus und die Spezifikationen der darin enthaltenen Blöcke. Die theoretische und methodische Grundlage der Forschung bilden die Arbeiten ausländischer und russischer Forscher im Bereich Corporate Finance, Risikomanagement und Cyber ​​Security. Beim Aufbau des Mechanismus wurden Risikokontrollansätze verwendet, um eine untrennbare Verbindung zwischen den Risikofaktoren und den Zielen eines Projekts sicherzustellen. Folgende Werkzeuge wurden verwendet: (1) ein Bow-Tie-Diagramm zur Risikoidentifikation, (2) statistische Datenanalysemethoden, (3) risikoorientierte Budgetierung und Simulationsmodellierung nach der Monte-Carlo-Methode und (4) der „Micromort ” Methode zur Bewertung der Wahrscheinlichkeitsverteilungsparameter. Im Vergleich zu Analoga stellt der Mechanismus einen integrierten Ansatz für das Risikomanagement dar und gewährleistet die Integration und Koordination von Risikomanagementmaßnahmen zwischen dem Projektmanagement und anderen Informationssicherheitsdiensten. Sie ermöglicht es, die Konfidenzintervalle der Kapitalrendite für ein Projekt unter Berücksichtigung von Cyber-Risiken bereits in der Planungsphase zu berechnen sowie den Einflussgrad der wesentlichen Gefahrenquellen zu identifizieren und zu priorisieren, die unter anderem Ergebnis eine umfassende und objektive Bewertung von Cyber-Risiken. Die Berechnungsdaten können von Projektmanagern verwendet werden, um Risikomanagementmaßnahmen zu verbessern. Die Funktionalität des Mechanismus umfasst die Analyse, wie sich einzelne Cyberrisiken auf die Ziele eines Projekts auswirken, die Berücksichtigung von Korrelationen zwischen den Risiken, die Berechnung der erwarteten, unerwarteten und kritischen Schadenhöhe sowie die Prognose bei begrenzten Informationen. Diese Vorteile machen den Risikobewertungsprozess dynamisch, iterativ und reagieren auf Veränderungen in der Umgebung und auf das Auftreten neuer Bedrohungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-60080-8_1 d6ca0db3c5a4a56cc6f735d78b2c3b0b;de;;;3.3.;;;Jagd auf Erdferkel: Kann Softwaresicherheit gemessen werden? Wenn Sie von Grund auf für die Entwicklung von Software verantwortlich sind, kann die Softwaresicherheit durch den Einsatz sicherer Softwareentwicklungsmethoden gefördert werden. Wie können Sie jedoch die Sicherheit einer bestimmten Software messen, die Sie nicht selbst geschrieben haben? Mit anderen Worten, wenn man sich zwei ausführbare Dateien ansieht, was bedeutet „a ist sicherer als b“? Dieses Whitepaper untersucht einige Ansätze zur Messung der Softwaresicherheit und empfiehlt, dass mehr Unternehmen das Building Security In Maturity Model (BSIMM) einsetzen sollten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32498-7_7 6de7b1cdd417c30951227eaabf66a58d;de;;;3.3.;;;Identifizierung der Sequenzspezifitäten von circRNA-bindenden Proteinen basierend auf einer Kapselnetzwerkarchitektur Zirkuläre RNAs (circRNAs) werden in Zellen und Geweben häufig exprimiert und sind an biologischen Prozessen und menschlichen Erkrankungen beteiligt. Neuere Studien haben gezeigt, dass circRNAs mit RNA-bindenden Proteinen (RBPs) interagieren können, was als wichtiger Aspekt bei der Untersuchung der Funktion von circRNAs angesehen wird.;-;-;-;https://link.springer.com/article/10.1186/s12859-020-03942-3 e43d965b2b8433217e5a0f1e68aa2cc8;de;;;3.3.;;;UPM-NoC: Lernbasiertes Framework zur Vorhersage von Leistungsparametern der Mesh-Architektur in On-Chip-Netzwerken Herkömmliche busbasierte On-Chips werden durch paketvermittelte Network-on-Chip (NoC) ersetzt, da eine große Anzahl von Kernen auf einem einzigen Chip enthalten ist. Zyklusgenaue NoC-Simulatoren sind unverzichtbare Werkzeuge in den frühen Phasen der Konstruktion. Simulatoren, die zyklusgenau sind, arbeiten nach und nach, wenn die Architekturgröße von NoC zunimmt. NoC-Architekturen müssen anhand diskreter synthetischer Verkehrsmuster validiert werden. Die Gesamtleistung der NoC-Architektur hängt von Leistungsparametern wie Netzwerklatenz, Paketlatenz, Flit-Latenz und Hop-Anzahl ab. Daher schlagen wir ein Unified Performance Model (UPM) vor, um genaue Messungen der NoC-Leistungsparameter zu liefern. Dieses Framework wird unter Verwendung verschiedener Regressionsalgorithmen des maschinellen Lernens (ML) modelliert, um Leistungsparameter von NoCs unter Berücksichtigung verschiedener synthetischer Verkehrsmuster vorherzusagen. Das UPM-Framework kann verwendet werden, um die Leistungsparameter der Mesh-NoC-Architektur zu analysieren. Die erhaltenen Ergebnisse wurden mit dem weit verbreiteten zyklusgenauen Booksim-Simulator verglichen. Experimente wurden mit variierender Topologiegröße von 2;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0214-9_75 3d256c8ae1c514f43991f3af7ddd51dd;de;;;1.1.;;;Psychosomatische VorgängeDie starke Zunahme psychosomatischer Beschwerden ist schon schlimm genug. Aber noch schlimmer ist es, dass wir viel zu wenig über die psychosomatischen Vorgänge fachgemäß informiert werden. Vor allem mangelt es an klarer Darlegung und Erkenntnissen, wie sich psychosomatische Erkrankungen entwickeln und welchen Ablauf sie genau nehmen. Deshalb gibt es heutzutage viele unklare und falsche Ansichten über die psychosomatischen Vorgänge.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45329-2_3 455b92c2238e5be465870cf0cef9dde3;de;;;1.1.;;;Die Wirkungen der internationalen Markenarchitekturstrategie am AbsatzmarktEine Reihe von Autor/inn/en widmet sich den Vor- und Nachteilen einer internationalen Markenstandardisierung (für Überblicke siehe z. B. Jain 1989, Kelz 1989, Kelz und Block 1993, Yip 1997, Schiele 1999, S. 117ff, Sander 2001, Douglas und Craig 2002, S. 4, Kapferer 2002, Vollert 2002, S. 14f, Steenkamp et al. 2003, p. 53f, Lange 2004, Schuiling und Kapferer 2004, Schuh 2007, S. 278f, Keller 2008).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-8904-8_10 a2d1dae8007debf26bc3d943b4b8b861;de;;;1.1.;;;Von der Kybernetik erster zur Kybernetik zweiter OrdnungDie im vorangegangenen Kapitel entwickelte Computersimulation dürfte von den Leserinnen, denen die in der Überschrift enthaltene Unterscheidung geläufig ist, unschwer als Beispiel für die sogenannte Kybernetik erster Ordnung identifiziert werden. In der Literatur findet sich daneben der Begriff der Kybernetik zweiter Ordnung, was zur Verwirrung Anlaß gibt. Ist damit die neue, die bessere Kybernetik gemeint? Sollte man sich mit der alten, derjenigen erster Ordnung gar nicht mehr beschäftigen? Im Sog schnell vorangetriebener Begriffs— und Ideenproduktion wird ein als Fortführung kybernetischen Denkens imponierender Ausstieg aus kybernetischem Denken leicht gemacht, welches dann — selbst unvollkommen geblieben — seiner vollendeten Form hinterherblickt. Diese Entwicklungen können sich mit der zögerlichen Rezeption kybernetischer Ansätze in weiten Bereichen der Klinischen Psychologie zu einem Problem kombinieren: die einen sind zu schnell, die anderen zu langsam, und man trifft sich nie. Eine Durchsicht klinisch-psychologischer Literatur macht deutlich, daß — anders als etwa in der Allgemeinen Psychologie, in Biologie oder Ethologie — der Einstieg in die kybernetische Theorie— und Modellbildung nur sehr punktuell vollzogen wurde. Wahrscheinlich würden nur die wenigsten Fachvertreterinnen der Auffassung von Bateson (1981) beipflichten, in der er die Kybernetik als den „größten Bissen aus der Frucht vom Baum der Erkenntnis, den die Menschheit in den letzten zweitausend Jahren zu sich genommen hat“, bezeichnet, und schon gar nicht seiner Einschätzung, daß sich „die meisten Bissen aus diesem Apfel ... als ziemlich unverdaulich erwiesen (hätten) — meistens aus kybernetischen Gründen“ (S. 612).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-90554-3_8 435f091ff0ae575dbd48069c7d8a1d44;de;;;1.1.;;;Gut im Studium – gut in der Schule? Zur Vorhersage der Unterrichtsqualität im Schulpraktikum durch Noten im bildungswissenschaftlichen StudiumDer professionellen Wissensbasis von Lehrkräften wird eine hohe Bedeutung für kompetentes Handeln im Unterricht zugeschrieben, das pädagogische Wissen steht hierbei eher mit fachübergreifenden Aspekten der unterrichtlichen Performanz in Zusammenhang. Zur Erfassung dieser Wissensbasis wurden distale Merkmale wie die Anzahl besuchter Kurse oder die Art des Abschlusses verwendet, aktuell werden verstärkt standardisierte Wissenstests entwickelt. Die Berücksichtigung von Noten als forschungsökonomische Operationalisierung stand jedoch bisher nur im US-amerikanischen Raum als Nebenfragestellung im Interesse der Forschung. In der vorliegenden Studie wurde untersucht, ob Noten aus bildungswissenschaftlichen Lehrveranstaltungen in den Kompetenzbereichen Unterrichten, Erziehen und Beurteilen unter Kontrolle der kognitiven Voraussetzungen die Unterrichtsqualität von Lehramtsstudierenden im Praktikum vorhersagen können (;-;-;-;https://link.springer.com/article/10.1007/s42010-017-0001-9 c91bdf83d60186a25bdfb11be7784260;de;;;1.1.;;;Möglichkeiten und Grenzen einer überregionalen psychotherapeutischen BasisdokumentationWenn man eine Reihe von psychotherapeutisch arbeitenden Kliniken besucht, so wird man feststellen: alle haben ähnliche Forschungsintentionen, ähnliche Interessen. Sie fragen z. B., wovon die Verweildauer in ihrer Klinik abhängig ist, wodurch die Indikationen bestimmt werden — oder sie wollen wissen, in welchem Ausmaß die Beschwerden der Patienten durch die Behandlung abgenommen haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-81404-4_8 da0d9d584a3c7fbeb38c70a2841b8607;de;;;3.3.;;;Ein Codewort-basierter Viterbi-Decoder mit geringem Stromverbrauch mit feinkörnigen Fehlererkennungs- und -korrekturtechniken Viterbi-Decoder sind einer der beliebtesten fehlerkorrigierenden Kanaldecoder in drahtlosen Kommunikationsgeräten. Allerdings ist ein Viterbi-Decoder auch hinsichtlich des Stromverbrauchs meist das dominierende Modul bei den mobilen Geräten. Um die überflüssige Codewort-Decodierung zu vermeiden und den Energieverbrauch zu reduzieren, schlägt dieses Papier einen Codewort-basierten Viterbi-Decoder mit geringem Stromverbrauch und seine entsprechende VLSI-Architektur mit den folgenden Vorteilen und Beiträgen vor. Anstelle der segmentbasierten Fehlererkennung (ein Segment besteht aus;-;-;-;https://link.springer.com/article/10.1007/s13369-017-2733-6 cbc420f8fb5b325f1ba9fe220634c2d8;de;;;3.3.;;;Implementierung der implizit neu gestarteten Arnoldi-Methode auf MultiGPU-Architektur mit Anwendung auf Fluiddynamikprobleme Im Beitrag wird die parallele CPU+multiGPU-Implementierung der Implicitly Restarted Arnoldi-Methode (IRA) vorgestellt. Wir konzentrieren uns auf das Problem der Implementierung einer effizienten Methode für großskalige nichtsymmetrische Eigenwertprobleme, die in der linearen Stabilitäts- und Floquet-Theorie-Analyse in fluiddynamischen Problemen auftreten. Wir geben in beiden Fällen kurze Details zum Problem. Wir verwenden und vergleichen verschiedene Methoden, um QR-Verschiebungen mit polynomialer Filterung zu implementieren. Dann führen wir einen Benchmark auf nicht symmetrischen Standardmatrizen durch. Die präsentierten Ergebnisse geben einen Einblick in die beste Wahl der Methode der Polynomfilter. Es stellt sich heraus, dass ein Polynomfilter wesentlich ist, um Berechnungen bei Stabilitätsproblemen der Fluiddynamik zu beschleunigen und die Dimension des Krylov-Raums zu vergrößern. Es sind jedoch einige Kenntnisse über den Spektralradius des Problems erforderlich. Weiterhin untersuchen wir die parallele Effizienz der Methode für Single-GPU- und Multi-GPU-Modi anhand der zuvor betrachteten Probleme. Es wird gezeigt, dass die Implementierung von Givens-Rotationen auf einer GPU für QR-Berechnungen (einer Hessenberg-Matrix) unerlässlich ist, um eine hohe Geschwindigkeit für eine beträchtliche Krylov-Unterraumdimension zu erreichen. Im letzten Teil präsentieren wir einige Ergebnisse zur Anwendung der IRA polynomial gefilterten Methode auf lineare Stabilität und Floquet Analyse für große Strömungsprobleme mit parallelem Effizienzvergleich auf Multi-GPU Architektur.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67035-5_22 71d1b889a3a9fbb80037f34b62f2a44a;de;;;3.3.;;;Vorhersage der Softwarezuverlässigkeit basierend auf einer formalen Anforderungsspezifikation Softwarezuverlässigkeitsmodelle werden meist in der Testphase verwendet, es gibt nur wenige Modelle, die in der frühen Phase der Softwareentwicklung eingesetzt werden. Eine frühzeitige Vorhersage ist jedoch für eine bessere Prognose und ein besseres Management von Risiken sehr wichtig. In diesem Beitrag schlagen wir einen Ansatz zur frühen Vorhersage der Software-Zuverlässigkeit vor, basierend auf Software-Verhaltensanforderungen. Der Hauptunterschied zwischen unserem Ansatz und denen anderer besteht darin, dass wir eine formale Methode namens Viewcharts verwenden, um das Verhalten von Softwaresystemen zu spezifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89985-3_110 b552aa1db0f7333c49895bc2b8b854bc;de;;;1.1.;;;Die Möglichkeiten zur Gewinnung von Strategien bei ausgewählten Entscheidungsmodellen betriebswirtschaftlicher TeilproblemeIm vorangegangenen Abschnitt wurde mit Hilfe des Konzepts der Strategie und der Typisierung betrieblichen Entscheidungsverhaltens zu zeigen versucht, in welchen unterschiedlichen Maße die verschiedenen betriebswirtschaftlichen Entscheidungsmodelle aufgrund ihrer formalen Eigenschaften unabhängig von ihrer materiellen Anwendung einen Beitrag zum Entscheidungsverhalten leisten können. Schon diese auf allgemein verwendete Modelle bezogene Betrachtung mußte sich auf ausgewählte Beispiele beschränken, auch wenn diese einen relativ großen Bereich des betriebswirtschaftlichen Instrumentatiums abdecken. Soll diese Betrachtung noch stärker konkretisiert werden, so sind die auszuwählenden Beispiele erheblich spezifischer zu beschreiben, was die Allgemeingültigkeit der abzuleitenden Aussagen entsprechend einschränkt. Trotzdem soll nachfolgend versucht werden, den Zusammenhang von Entscheidungsproblem und Zielsetzung mit Hilfe des Konzepts der Strategie an ausgewählten Beispielen zu konkretisieren und zu prüfen, welchen Anwendungsbereich als Strategien des Entscheidungsverhaltens verschiedene Aussagen haben, die aus betriebswirtschaftlichen Entscheidungsmodellen oder -theorien abgeleitet werden. Gegen ein derartiges Vorgehen ließe sich einwenden, daß die Auswahl der Beispiele unter den Gesichtspunkten der Eignung für das gewählte Vorgehen erfolgen könnte, indem nur solche Beispiele aufgesucht werden, die für das Konzept der Strategie passen. Die Beispiele sind jedoch nicht als Verifikationsmodelle für dieses Konzept gedacht und brauchen deshalb dem methodologischen Erfordernis des Falsifizierungsversuchs in dieser Hinsicht nicht genüge zu tun, weil das Konzept der Strategie auf andere Weise abgeleitet ist;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-84007-3_5 ceaa38aec1765d0d811d91e5668b3310;de;;;3.3.;;;Unsicherheit beim Softwaretesten Das primäre Ziel der Softwareentwicklung ist es, qualitativ hochwertige Produkte zu niedrigen Kosten zu liefern. Das Testen ist in jeder Entwicklungsphase inhärent, da die Ergebnisse jeder Phase getestet werden müssen, um ein qualitativ besseres Artefakt zu erzeugen, bevor mit der nächsten Entwicklungsphase fortgefahren wird. Softwaretests beschreiben die Diskrepanzen zwischen den Softwareleistungen und den Kundenerwartungen. Der Lebenszyklus von Softwaretests umfasst die Testauswahl, die Testklassifizierung, die Testausführung und die Qualitätseinschätzung. Die Qualität der erbrachten Leistung entspricht möglicherweise nicht immer dem erwarteten Ergebnis oder liegt innerhalb eines wahrscheinlichen Bereichs. Das Testergebnis kann aufgrund unzureichender Techniken zur Schätzung, Auswahl, Klassifizierung und Ausführung von Testfällen fehleranfällig und unsicher sein. Daher ist es erforderlich, Unsicherheiten nach Abschluss jeder Entwicklungsphase zu modellieren. Es werden Mechanismen benötigt, um Unsicherheiten in jedem der Ergebnisse zu beheben, die während des Softwareentwicklungsprozesses produziert werden. Die Unsicherheitsmetriken können bei der Beurteilung des Unsicherheitsgrades helfen. Effektive Modellierungstechniken für Unsicherheit werden in jeder Phase der Entwicklung benötigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-1415-4_4 99e00d16b2024519b15fd8705de19162;de;;;3.3.;;;Verbessertes, auf evolutionärem Computing basierendes Modell der künstlichen Intelligenz für die Schätzung der Wiederverwendbarkeit von Weblösungen-Software Die Sicherstellung des alternden, widerstandsfähigen Softwaredesigns kann von größter Bedeutung sein, um ein fehlerfreies Softwaresystem zu ermöglichen. Insbesondere die Bewertung der Wiederverwendbarkeit der Softwarekomponenten kann ein effizientes Softwaredesign ermöglichen. Die Wahrscheinlichkeit der Alterungsanfälligkeit kann anhand von Schlüssel-OO-SM wie Zusammenhalt, Kopplung und Komplexität einer Softwarekomponente charakterisiert werden. In diesem Artikel wird ein Modell zur Vorhersage der alternden Resilienz von Software für objektorientierte Design-basierte Web of Service (WoS)-Softwaresysteme vorgeschlagen. Diese Arbeit führt eine mehrstufige Optimierung ein, um ein neuartiges Modell zur Vorhersage der Wiederverwendbarkeit zu erreichen. Unter Berücksichtigung von Kopplung, Kohäsion und Komplexität als Software-Eigenschaften, die Alterungsanfälligkeit anzeigen, werden sechs CK-Metriken, WMC, CBO, DIT, LCOM, NOC und RFC aus 100 WoS-Software erhalten. Die extrahierten CK-Metriken werden für eine Min-Max-Normalisierung verarbeitet, die Datenungleichgewichte lindert und somit eine Sättigung während des Lernens vermeidet. Die 10-fache Kreuzvalidierung gefolgt von der Ausreißererkennung soll die Datenqualität für die weitere Merkmalsextraktion verbessern. Um den Rechenaufwand zu reduzieren, wird der RSA-Algorithmus angewendet. Das SoftAudit-Tool wird verwendet, um die Wiederverwendbarkeit jeder Klasse zu schätzen, während binäre ULR-Schätzungen den Schwellenwert (Wiederverwendungsanfälligkeit) berechnen. Durch die Anwendung verschiedener Klassifikationsalgorithmen wie LM, KNN-Algorithmen, ELM und Evolutionary Computing wurde eine angereicherte KNN-Wiederverwendungsanfälligkeitsvorhersage durchgeführt. Die Leistungsbewertung bestätigt, dass das AGA-basierte ANN-Modell andere Techniken übertrifft und daher für eine frühere alterungsbeständige Wiederverwendungsoptimierung für das WoS-Softwaredesign verwendet werden kann.;-;-;-;https://link.springer.com/article/10.1007/s10586-017-1558-0 63adf14cfd29b0ef2ed1ea74b752ba20;de;;;3.3.;;;Die Technologie der Verschachtelung eines regionalen Ozeanmodells in ein globales Modell unter Verwendung einer Computerplattform für massiv parallele Computer CMF Bei der Entwicklung eines regionalen Ozeanzirkulationsmodells stellt sich das Problem, das Modell mit Randbedingungen zu versehen. Es wird ein Algorithmus zur Einwegverschachtelung (Einschluss mit Randbedingungen) für ein lokales Modell einer beliebigen Ozeanregion im Modell des globalen Ozeans vorgeschlagen. Zwei Probleme werden gelöst: (1) Erzeugung eines rechteckigen Gitters des lokalen Modells, (2) Empfangen von Informationen. Der Nesting-Algorithmus wird im Rahmen der Rechenplattform CMF3.0 (Compact Modeling Framework) für massiv parallele Rechner entwickelt. Lokale und globale Modelle funktionieren als Komponenten eines gekoppelten Systems, auf dem CMF3.0 ausgeführt wird. Datenverschachtelungsfunktionen arbeiten als CMF3.0-Softwaredienst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-71255-0_19 ee42294389fd0dfc21d4b3ae4fd101db;de;;;3.3.;;;Anwendung von MDA-Konzepten in einer E-Government-Plattform In diesem Papier wird eine e-Government-Plattform vorgeschlagen, die die Legacy-Integration und die Zusammenarbeit von Diensten während der Entwurfs- und Laufzeit unterstützen soll, um alle Merkmale elektronischer Behördenanwendungen nutzbar zu machen. Technologieunabhängigkeit wird als ein sehr wichtiges Ziel angesehen, das es zu erreichen gilt. Model Driven Architecture und Metamodelle sind einige der Ressourcen, die eine solche Unabhängigkeit ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30078-6_43 46d1171d17f188291b39c9668eccfd5c;de;;;3.3.;;;Eine zweistufige hybride Architektur zur Strukturierung von Wissen für vernünftiges Denken In diesem Kapitel wird eine konnektionistische Architektur zur Strukturierung von Wissen in vagen und kontinuierlichen Domänen vorgeschlagen. Die Architektur ist in Bezug auf die Repräsentation hybrid und besteht aus zwei Ebenen: Eine ist ein Inferenznetzwerk mit Knoten, die Konzepte repräsentieren, und Links, die Regeln verbinden, die Konzepte repräsentieren, und die andere ist eine auf Mikromerkmalen basierende Replik der ersten Ebene. Basierend auf der Interaktion zwischen den Konzeptknoten und Mikromerkmalsknoten in der Architektur werden Rückschlüsse ermöglicht und Wissen, das nicht explizit in einem System codiert ist, kann über eine Mischung aus Ähnlichkeitsvergleich und Regelanwendung abgeleitet werden. Die Architektur ist in der Lage, viele wichtige Desiderate plausibler vernünftiger Argumentation zu berücksichtigen und vernünftige Schlussfolgerungen zu ziehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-585-29599-2_8 1171fc7e5d2a0622592f54da02a3c6cb;de;;;3.3.;;;Verwendung des MOWAHS Characterization Framework zur Entwicklung mobiler Arbeitsanwendungen Dieses Papier beschreibt eine Evaluierung eines Charakterisierungs-Frameworks zur Analyse mobiler Arbeitsszenarien, um entsprechende Softwaresysteme zu erstellen. Das Framework identifiziert Komplexitätsprobleme, die bei der Implementierung eines Systems zu berücksichtigen sind. Das Framework kann auch verwendet werden, um Anforderungen aus einem Szenario zu ermitteln. Drei Forschungsfragen werden in dieser Evaluation untersucht: 1) Kann der Rahmen verwendet werden, um relevante Herausforderungen im endgültigen System zu identifizieren? 2) Kann das Framework verwendet werden, um funktionale Anforderungen für das endgültige System zu identifizieren? und 3) Kann das Framework verwendet werden, um nicht-funktionale Anforderungen für das endgültige System zu identifizieren? Die Evaluierung erfolgte mit Hilfe des Frameworks zur Analyse und Implementierung eines IT-Support-Szenarios. Das Papier beschreibt auch ein Web-Tool für dieses Framework, das den Charakterisierungsprozess vereinfacht. Das Tool führt Konsistenzregeln ein, um eine strengere Charakterisierung der Szenarien zu gewährleisten.;-;-;-;https://link.springer.com/chapter/10.1007/11497455_12 f9673c80f6a6d9656e78080effa0ab8f;de;;;3.3.;;;Auf dem Weg zu einer parallelen Architektur für funktionale Sprachen Wir haben die Arbeiten beschrieben, die in unserem Teilprojekt zu funktionalen Programmierarchitekturen durchgeführt wurden. Theoretische Arbeiten zur Erkennung von Parallelität ermöglichen ein Schema zur sicheren parallelen Bewertung funktionaler Sprachen. Erfahrungen mit COBWEB haben seine Schwachstellen aufgezeigt und zur Identifizierung einiger der gewünschten Eigenschaften eines Multiprozessorsystems zur Unterstützung der parallelen Graphenreduktion geführt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-18203-9_7 20c46abafaafc02a249e803a04f911f2;de;;;3.3.;;;Erkennung und Analyse von OpenStack-Sicherheitslücken OpenStack ist eine beliebte Cloud-Management-Software. Da es sich um Open Source handelt, entscheiden sich viele Unternehmen und Organisationen für OpenStack als ihre Lösung für Cloud Computing. Dieses Dokument konzentriert sich auf OpenStack-Schwachstellen. Eine Vielzahl von Schwachstellen-Scanning-Tools wird verwendet, um Schwachstellen in OpenStack zu erkennen. Der Prozess des Angriffs, der bestimmte Schwachstellen ausnutzt, wird vorgestellt. Außerdem enthält dieses Papier Empfehlungen zur Beseitigung von Schwachstellen und zum Aufbau einer sichereren OpenStack-Plattform.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-48683-2_22 b2d3c08285a7fd221286a360897b12b3;de;;;3.3.;;;SVDec: UAV-Erkennungssystem mit softwaredefiniertem Funk In den letzten Jahren haben mit der zunehmenden Popularität von Drohnen einige nicht standardmäßige Operationen viele Sicherheitsprobleme verursacht, und dieses Phänomen hat sich zunehmend verschärft. Um diese Sicherheitsprobleme zu lösen, ist die Existenz von unbemannten Luftfahrzeug-Detektionssystemen kritisch. Da viele Überwachungssysteme teuer sind, sind kostengünstige Detektionssysteme besonders wichtig. Dieses Papier entwirft ein System, das Drohnen erkennen kann, indem die Signaleigenschaften der Drohnen als Erkennungsstandards verwendet werden. Das System verwendet zunächst Software-Defined Radio (SDR), um drahtlose Signale zu überwachen und zu sammeln, extrahiert dann die Bewegungs- und Vibrationseigenschaften der Drohne und klassifiziert das Signal schließlich durch die gemeinsamen Merkmale des Klassifikators, der das Drohnensignal effektiv von anderen unterscheiden kann Bewegungen. Das System hat eine hohe Genauigkeit für die UAV-Erkennung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8411-4_187 469d412d76327427cd2da69cdf798912;de;;;3.3.;;;Design eines Fahrzeug-Fernüberwachungssystems basierend auf der LoRa-Technologie und der QT-Plattform Aufgrund des rapiden Anstiegs der Anzahl von Stadtfahrzeugen, insbesondere von Elektrofahrrädern und Elektroautos, sind das Versandmanagement und die Sicherheitsfragen von Elektrofahrrädern immer wichtiger und wichtiger geworden. Mit der Entwicklung der IoT-Kommunikationstechnologie weisen traditionelle drahtlose Technologien wie Bluetooth, ZigBee, WiFi und GPRS einige Mängel auf, beispielsweise kurze Kommunikationsentfernungen und einen hohen Stromverbrauch. Die drahtlose LoRa-Kommunikationstechnologie hat jedoch die Vorteile einer langen Kommunikationsentfernung und eines geringen Stromverbrauchs. Daher schlägt dieses Papier das Fernüberwachungs-Fahrzeugsystem für Elektrofahrräder basierend auf der drahtlosen LoRa-Kommunikationstechnologie vor. Das System besteht aus einem Elektrofahrradterminal und einem Fernüberwachungszentrum. Das Terminal für Elektrofahrräder übernimmt die Architekturvereinigung von ARM, GPS und LoRa, um die Erfassung und drahtlose Übertragung von Positionsinformationen von Elektrofahrrädern abzuschließen. Das GPS-Modul liefert die Positionsinformationen, und der ARM überträgt die Standortinformationen per drahtloser LoRa-Kommunikation an das Überwachungszentrum. Das Fernüberwachungszentrum basiert auf QT- und GIS-Technologie, um die Echtzeitanzeige der Elektrofahrräder zu vervollständigen. Die tatsächlichen Testergebnisse zeigen, dass das System die Überwachungsanforderungen erfüllen kann, die Kommunikationsqualität zuverlässig ist, die Kommunikationsentfernung groß ist und in Echtzeit, dynamisch und real dargestellt werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8083-3_40 607c73cb1f44c167429c3e7bb428947e;de;;;3.3.;;;Agile Softwareentwicklung unter System Engineering Bedingungen Dieser Artikel präsentiert und erläutert die Geschichte und den Status agiler Methoden im Kontext einer Software- und Systementwicklungsumgebung. Darüber hinaus diskutieren wir die Voraussetzungen und kritischen Erfolgsfaktoren, wie agile Ansätze entlang eines System-Engineering-Lebenszyklus eingesetzt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38833-0_13 c4ec4ec375f0019ce7b8c1ac0fa21529;de;;;3.3.;;;Analyse der Servicezuverlässigkeit und -verfügbarkeit von verteilten Softwaresystemen unter Berücksichtigung von Malware-Angriffen Verteilte Systeme werden häufig in Branchen eingesetzt, in denen eine hohe Rechenleistung und geringe Kosten erforderlich sind. Eine verteilte Softwarearchitektur ist im verteilten System sehr wichtig. Da die meisten verteilten Systeme jedoch auf einer Netzwerkstruktur basieren, ist verteilte Software sehr anfällig für Malware-Angriffe. Aufgrund der Popularität verteilter Systeme ist es wichtig, die Auswirkungen von Malware-Angriffen auf verteilte Systeme zu untersuchen. In diesem Whitepaper haben wir das Verhalten von Malware-Angriffen anhand eines Markov-Prozessmodells untersucht. Die Zustände des objekthomogenen verteilten Systems können durch Analyse des Markov-Modells abgeleitet werden, mit dem die Dienstzuverlässigkeit und Dienstverfügbarkeit weiter erhalten werden kann. Eine anschauliche Demonstration wird ebenfalls präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10619-4_38 ea34b2fa3ce878b150dceab988fb3b45;de;;;1.1.;;;Lebensstile und sozialpsychologische Handlungstheorien: Perspektiven einer theoretischen Integration im Bereich des umweltbezogenen HandelnsDie empirische Analyse der Einflussfaktoren des umweltbezogenen Verhaltens stellt eine wesentliche Voraussetzung für die Bewertung der Gestaltungsoptionen zur Förderung des Leitbildes einer nachhaltigen Entwicklung dar. Seit den 70er Jahren sind in einer Vielzahl von Studien zum Umweltbewusstsein die personenbezogenen Einflussfaktoren des Umweltverhaltens analysiert worden. Hierbei ist das Konstrukt des Umweltbewusstseins allerdings auf vielfältige Weise empirisch operationalisiert worden, was zu einer geringeren Vergleichbarkeit der Forschungsergebnisse geführt hat. Mittlerweile ist es gelungen, dieses Theoriedefizit der Umweltbewusstseinsforschung (Fuhrer 1995) durch den Rückgriff auf empirisch bewährte Handlungsmodelle aus der Sozialpsychologie deutlich zu verringern. Vor allem die „theory of planned behavior“ (TPB) nach Ajzen (1991) und das NormAktivations-Modell von Schwartz (1977) haben sich hierbei erfolgreich als theoretischer Bezugsrahmen zur Erklärung des umweltbezogenen Verhaltens bewährt. Sowohl die TPB als auch das Norm-Aktivations-Modell verstehen sich hierbei als allgemeine Handlungstheorien, die auf spezifische Verhaltensbereiche angewendet werden können. Während sich der Erklärungsanspruch der TPB ganz allgemein auf bewusstes Entscheidungsverhalten bezieht, fokussiert das Norm-Aktivations-Modell auf Verhaltensbereiche, die durch moralische Normen beeinflusst werden. Insgesamt ist es durch diese handlungstheoretische Fundierung gelungen, das Umweltverhalten als Resultat eines individuellen Prozesses der Informationsverarbeitung und Informationsbewertung zu erklären.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-10620-3_4 c3c47979fe01394fab5d7bebfe127948;de;;;3.3.;;;Multiplexer-basierte Hochgeschwindigkeits-S-Box-Architektur für PRESENT Cipher in FPGA Das Internet der Dinge (IoT) ist die Technologie, die unsere Welt revolutionieren wird. Es ist ein System von miteinander verbundenen Geräten, die mit dem Internet verbunden sind. Es umfasst eine Vielzahl von ressourcenbeschränkten Geräten, Maschinen und Sensoren. Die Aktualisierung des IoT erfordert eine große Anzahl von Geräten wie Sensoren und Aktoren, die viel Strom benötigen, jedoch mit begrenzter Stromversorgung und Fläche. Das Ziel der leichtgewichtigen Kryptographie ist es, Sicherheitslösungen für ressourcenbeschränkte Geräte bereitzustellen. Die herkömmlichen Kryptographiealgorithmen sind langsam, reagieren weniger und benötigen mehr Energie und Speicherplatz im Vergleich zu leichtgewichtigen Algorithmen. Daher orientieren sich die Forscher eher an leichtgewichtigen Algorithmen. In diesem Kapitel wird die Hardwareimplementierung der PRESENT-Chiffre auf einer FPGA-Plattform (Field-Programmable Gate Array) beschrieben. Bei dieser Arbeit ist es unser Ziel, seine Leistung in Bezug auf die Geschwindigkeit zu verbessern und seine Fläche so weit wie möglich zu minimieren. In unserem vorgeschlagenen Design haben wir eine kombinatorische S-Box durch Multiplexer und einige Logikgatter implementiert. In diesem Kapitel werden verschiedene Plattformen zur Implementierung wie Spartan-6, Virtex-5 und Virtex-4 verwendet, wodurch ein hoher Durchsatz pro Slice für die PRESENT-Chiffre sowie höchste Maximalfrequenzen erreicht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7486-3_55 00d65eaf83fd283db3443492f441281e;de;;;3.3.;;;Studie zur Generierung von Armlochkurven basierend auf 3D-Punktwolkendaten In diesem Artikel wird berührungslose Anthropometrie an den weiblichen Körpern durchgeführt, und die 3D-Punktwolkendaten werden von einem 3D-Scanner erhalten, und dann wird die Kragenkurve des weiblichen engen Prototyps durch Datenverarbeitung an Punktwolkenfiguren mit Reverse Engineering erzeugt Software. Die Armlochkurve kann in die vordere und hintere Armlochkurve unterteilt werden, wobei dieses Papier hauptsächlich auf die vordere Armlochkurve basiert. Die charakteristischen Punkte der vorderen Armlochkurve sind die Punkte Schulterpunkt, Achselpunkt und Brustweitenpunkt. Indem man die Querschnitte der obigen Punkte erstellt, erhält man die Tiefe und Breite der vorderen Armlochkurven und nach dem Prinzip der gleichen Tiefe werden drei zusammenhängende Punkte in die vordere Armlochkurve eingefügt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23020-2_77 001a6780d59694a6545b508b723203a3;de;;;3.3.;;;Eine ereignisbasierte Messaging-Architektur für fahrzeugbasierte Internet-of-Things-Plattformen (IoT) Das Internet der Dinge (IoT) hat die Verkehrssysteme revolutioniert, indem es Fahrzeuge miteinander verbindet und so deren Verfolgung sowie die Überwachung der Fahreraktivitäten ermöglicht. Eine solche IoT-Plattform erfordert, dass eine erhebliche Datenmenge vom Bordfahrzeug an die Off-Board-Server gesendet wird, was zu einer hohen Netzwerknutzung beiträgt. Die Daten können in regelmäßigen Abständen oder ereignisbasiert bei relevanten Ereignissen versendet werden. Beim intervallbasierten Ansatz werden die Daten auch dann gesendet, wenn sie nicht melderelevant sind, was zu einer Verschwendung von Netzwerkressourcen führt, z. In diesem Papier untersuchen wir die Möglichkeit, eine ereignisbasierte Architektur zu verwenden, um Daten vom Bordsystem an das Offboard-System zu senden. Die Ergebnisse zeigen, dass unsere ereignisbasierte Architektur die Genauigkeit der im Off-Board-System verfügbaren Daten durch eine sorgfältige Auswahl von Ereignissen verbessert. Darüber hinaus haben wir festgestellt, dass unsere ereignisbasierte Architektur die Häufigkeit des Sendens von Nachrichten, insbesondere während der Autobahnfahrt, erheblich verringert, was zu geringeren durchschnittlichen Datenübertragungsraten führt. Unsere Ergebnisse ermöglichen es einem Kunden, Kompromisse zwischen Genauigkeit und Datenübertragungsraten einzugehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67597-8_4 336fe10bb38f124a768c737c1a2c9554;de;;;3.3.;;;Agentenbasierte dynamische Ausführung von BPEL-Dokumenten Web Services sind die vielversprechendste innovative Lösung, um geschäftliche und technische Hindernisse für das E-Business zu beseitigen. Sie unterstützen eine echte serviceorientierte Architektur, die darauf ausgelegt ist, Geschäftslogik jenseits der Firewall sicher offenzulegen. Da die Dynamik rund um Webdienste zunimmt, besteht ein wachsender Bedarf an effektiven Mechanismen, um die Interaktion zwischen ihnen zu koordinieren. Business Process Execution Language for Web Services (BPEL) ist ein guter Kandidat, da sie die Anforderungen des Unternehmens erfüllt, um diese Interaktion zu ermöglichen. BPEL ist jedoch noch weit davon entfernt, alle Anforderungen an die Zusammensetzung zu erfüllen. In dieser Studie haben wir eine Architektur entwickelt, um die Leistung paralleler Ausführungen in BPEL-Dokumenten zu verbessern. Unsere Architektur ermöglicht mit Hilfe unseres Controller-Agenten die dynamische Ausführung eines statisch entworfenen Flusses in Bezug auf kundendefinierte Probleme und QoS-Parameter sowohl zur Implementierungszeit als auch zur Laufzeit.;-;-;-;https://link.springer.com/chapter/10.1007/11569596_36 1b33599452a495b74d3f10ec11155cc7;de;;;3.3.;;;Multifunktionale In-Memory-Rechenarchitektur mit Single-Ended Disturb-Free 6T SRAM Dieses Papier stellt eine In-Memory-Computation (IMC)-Architektur vor, die einen Full Swing Gate Diffusion Input (FS-GDI) in einem Single-Ended-Störungsfreien 6T-SRAM verwendet. Nicht nur grundlegende boolesche Funktionen (AND, NAND, OR, NOR, XOR2, XOR3, XNOR2) sind vollständig realisiert, sondern auch ein Ripple-Carry Adder (RCA) ist so realisiert, dass IMC ohne ALU (Arithmetic Logic Unit) oder CPU realisierbar ist. FS-GDI behält die Vorteile des ursprünglichen GDI und löst weiter das Problem des verringerten Spannungshubs, führt jedoch zu einer Geschwindigkeitsverschlechterung und einer großen statischen Leistung. Daher wird durch den Einsatz von In-Memory-Computing-Technik der bekannte von-Neumann-Engpass gemildert und die Energieeffizienz verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1289-6_5 48483afa4b6dc4a5e5541b99d72d893a;de;;;3.3.;;;Suche nach neuronaler Architektur unter Verwendung eines evolutionären Mehrzielalgorithmus basierend auf Zerlegung NSGA-Net ist eine beliebte Methode für die Suche nach neuronalen Architekturen (NAS). Es führt während seines Suchverfahrens den verbesserten nicht-dominierten genetischen Sortieralgorithmus (NSGA-II) durch. In diesem Artikel wird eine NAS-Methode vorgeschlagen, die den multi-objektiven evolutionären Algorithmus basierend auf Zerlegung (MOEA/D-Net) verwendet, um die Laufeffizienz des NSGA-Net zu erhöhen. MOEA/D-Net zielt darauf ab, die Anzahl der Gleitkommaoperationen (FLOPs) und die Fehlerrate neuronaler Architekturen durch den multi-objektiven evolutionären Algorithmus basierend auf Dekomposition (MOEA/D) während des Suchprozesses zu minimieren. Es wählt Eltern innerhalb der Nachbarschaft eines Teilproblems aus und führt Multi-Point-Crossover und Mutation durch, um in jeder Generation Nachkommen-Individuen zu erzeugen. Die Versuchsergebnisse des CIFAR-10-Bildklassifizierungsdatensatzes zeigen, dass MOEA/D-Net Architekturnetzwerke mit weniger FLOPs erhält und MOEA/D-Net NSGA-Net in Bezug auf die Betriebseffizienz übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5577-0_11 a0339fdd2e2218f084a71f8eeab4a799;de;;;3.3.;;;Systemarchitektur für C2C-Kommunikation basierend auf Mobile WiMAX In diesem Papier haben wir eine WiMAX-basierte Systemarchitektur für die Car-to-Car-Kommunikation (C2C) betrachtet. Ziel ist es, eine intelligente drahtlose Verkehrsdienstplattform zu entwickeln, die die Kommunikation von Auto zu Auto und von Auto zu Transceiver-Stationen ermöglicht. Herkömmliche WiMAX-Systeme wurden aufgrund ihrer Unterstützung für robuste Sicherheit und Mobilität als Basisplattform analysiert. Wir haben jedoch einige Probleme mit dem System zur Unterstützung der C2C-Kommunikation festgestellt. Als Lösung wurde ein optimierter C2C-Kommunikationsmechanismus mit Nachbarerkennung und optimalem Routenentscheidungsmodul vorgeschlagen. Dieses Modul verwendet verfügbare Informationen in der Nachbarschaft und verursacht keine zusätzlichen Verkehrskosten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87477-5_59 f0be5ad2af8ba06a8d4c112ea78c5a08;de;;;1.1.;;;Emotionen — EvaluationenEmotionales Erleben und Verhalten wird zwar intuitiv vom Einzelnen erfaßt, jedoch ist eine adäquate Definition des psychologischen Phänomens “Emotion” sehr schwer zu realisieren. Denn jeder Versuch, der auf eine solche Realisierung abzielt, ist mit der jeweiligen zugrundegelegten Theorie der Emotionen eng verknüpft. Eine intellektualistische, weitgehend normative Tradition hat einer angemessenen Bewertung der Emotionen lange im Wege gestanden. So wurden Emotionen lange Zeit kaum als selbständiges Forschungsobjekt anerkannt. Die Abgrenzung der Emotionen gegenüber anderen Gegenständen der Psychologie, sowie deren Beziehung zu kognitiven Prozessen erweisen sich als zentrale und bis heute noch offene Probleme. Auch die Bewertung von Emotionen aus funktionaler Sicht, d.h. als Entitäten zur Erfassung der Welt, Steuerung unserer Handlungen und Instrument zur Bewältigung von Konflikten wurde lange neben den kognitiven Mitteln als untergeordnet angesehen. Dies machen G. Lakoff und M. Johnson anhand einer verbreiteten Metapher besonders deutlich. So werden Emotionen mit der Metapher “unten” und Kognition mit der Metapher “oben” beschrieben. Die Metapher “oben” wird aber generall für positiv und “unten” für negativ eingeschätzte Sachverhalte verwendet (Lakoff & Johnson 1980).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-19801-7_4 8edab34dfdad3069cf16f2da7223a801;de;;;3.3.;;;Paralleles Parsing mehrdeutiger Sprachen auf Hypercube-Architekturen In diesem Papier beschreiben wir eine Verallgemeinerung bestehender LALR-Techniken, um das parallele Parsen mehrdeutiger Sprachen auf Hypercube-Architekturen zu ermöglichen. Insbesondere interessiert uns das parallele Parsing natürlicher Sprachen. Die verwendete Technik ist eine „nichtdeterministische“ Version eines Standard-LALR-Parsers, bei der der Parser verzweigt und beide unabhängig verfolgt, wenn ein Verschiebungs-/Reduzierungs- oder Reduzier-/Reduzierungskonflikt erreicht wird. Wir haben einen parallelen Parser-Generator RACC entwickelt, der unter Verwendung von YACC unter Unix entwickelt wird. Durch Angabe einer YACC-ähnlichen Spezifikationsdatei und deren Ausführung über RACC erhält man einen parallelen Parser, der auf den Knoten des NCUBE/10-Hypercubes läuft.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0025007 fffd290eca07300650db82eebb735b79;de;;;3.3.;;;Eine Multi-Filter-BiLSTM-CNN-Architektur für die vietnamesische Stimmungsanalyse Feedback sind Informationen über Reaktionen auf ein Produkt oder die Ausführung einer Aufgabe durch eine Person. Es ist leistungsstark, da es als Leitfaden dient, um Menschen zu helfen, zu erfahren, wie andere ihre Leistung wahrnehmen, und ihnen hilft, Standards zu erfüllen. Diese Arbeit konzentriert sich auf den Einsatz von Natural Language Processing und Deep Learning. Es kombiniert die Vorteile dieser Ansätze, um eine Sentimentanalyse von Schüler- und Kundenfeedback durchzuführen. Darüber hinaus wird auch die Worteinbettung auf das Modell angewendet, um komplementäre Wirksamkeit hinzuzufügen. Die vorläufigen Ergebnisse zeigen, dass die Verwendung von BiLSTM-CNN – das erste zum Erfassen der temporären Informationen der Daten und das zweite zum Extrahieren der lokalen Struktur daraus – andere Algorithmen in Bezug auf die F1-Score-Messung mit 93,55% für die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63119-2_61 4fa826986d4c783ceafd3dc242befc54;de;;;1.1.;;;Behinderung als Differenzkategorie in der quantitativen Einstellungsforschung – eine kritische Auseinandersetzung mit standardisierten MessinstrumentenTrotz des Abbaus spezieller Förderschulen bilden die Diagnosen „Sonderpädagogischer Förderbedarf“ und „Behinderung“ weiterhin prominente Differenzmarker im wissenschaftlichen wie im bildungspolitischen Inklusionsdiskurs. In der quantitativ angelegten Bildungsforschung wird die Kategorie „(mit) Behinderung“ in standardisierten Fragebögen oftmals explizit aufgerufen mit dem Ziel, (schul-)bezogene Einstellungen zu der so bezeichneten Personengruppe zu erfassen. Ein solches forschungsmethodisches Vorgehen impliziert eine eindeutige Differenzierung von Schüler*innen entlang der Zuschreibung einer Behinderung und füllt diese Differenzkategorie, meist durch Items oder Fallbeschreibungen, zugleich mit Inhalt. Im vorliegenden Beitrag geben wir eine Übersicht über entsprechende deutschsprachige Messinstrumente und fragen nach der Perspektive auf Behinderung, die durch die Begriffsverwendung im Erhebungsmaterial selbst und in den jeweiligen Ergebnispublikationen eingenommen wird. Auf dieser Grundlage reflektieren wir anschließend eigene Forschungsprojekte, die sich mit Einstellungen zu und Perspektiven auf Behinderung befassen. In der Diskussion suchen wir nach Möglichkeiten, die Reifizierungsproblematik in der Forschung zu Behinderung – und analog weiteren Differenzkategorien – stärker zu berücksichtigen und entsprechende Konstruktionsprozesse methodenübergreifend zu diskutieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-31066-0_5 76c82967c666edc481a685f6494ea318;de;;;3.3.;;;Convolutional Neural Networks für Bekleidungskategorien Die Klassifizierung von Kleidung ist ein vielversprechendes Forschungsthema. Aufgrund der Einschränkung der manuell entworfenen Funktionen haben die bestehenden Algorithmen das Problem einer geringen Genauigkeit bei der Klassifizierung von Attributen. In diesem Artikel schlagen wir eine neue Methode vor, um Convolutional Deep Learning für die Klassifizierung von Kleidung zu nutzen. Wir haben zunächst eine neue Datenbank eingerichtet, indem wir die Bilder jeder Kategorie über entsprechende Software und manuelle Arbeit aus dem Internet heruntergeladen haben, die Kleidung in 16 Kategorien gemäß dem auf dem Markt üblichen Kleidungsstil unterteilt. Dann entwirft der Artikel die Architektur von Convolutional Neural Networks (CNNs) und lernt adaptiv die Merkmalsdarstellung von Kleidung aus unserem konstruierten Datensatz. Das Experiment verwendet Bag of Words (BOW), Histogram of Oriented Gradient (HOG) + Support Vector Machine (SVM) und HSV (Hue, Saturation, Value) + SVM, um die neue Datenbank zu testen und vergleicht diese Methoden mit unserem CNNs-Modell. Die Ergebnisse zeigen die Überlegenheit unserer CNNs gegenüber den anderen Algorithmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-48570-5_12 7387284fe2c362c6304ac7996dbe020d;de;;;3.3.;;;Die Unified-Service-Theorie In diesem Kapitel wird eine Unified Service Theory (UST) diskutiert, die als grundlegendes Paradigma für Service Operations, Service Management und jetzt Service Science entwickelt wurde. Der grundlegende Zweck der UST besteht darin, die verschiedenen Phänomene, die wir „Dienste“ (d. Die UST schreibt der Service Science Grenzen vor und offenbart eine Vielzahl von Servicethemen, die für Designer, Manager und Forscher von Interesse sind. Obwohl die UST ihren Ursprung aus der Sicht des Geschäftsbetriebs hat, zieht sie einen roten Faden zwischen den verschiedenen Perspektiven in Bezug auf den Service.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-1628-0_7 1f3fd3e357c006b02f9dcd463e24ecf3;de;;;3.3.;;;Sicherheit des IoT mit Blockchain: Grundlagenstudie Das Internet der Dinge hat sich zu einer allgegenwärtigen Technologie entwickelt, die sich als Segen für die Informatik erwiesen hat. Viele Bereiche der Informatik können durch die neuartige Technologie des IoT erweitert werden. Mit dem Aufkommen des IoT entstand die Notwendigkeit einer eindeutigen Identität für jedes IoT-Gerät. Da IoT eine vergleichsweise neue Domäne in der Informatik ist und auch die Technologie eingebetteter Systeme umfasst, besteht die Notwendigkeit, sich auf eine sichere Architektur für IoT zu konzentrieren. Dieses Papier konzentriert sich auf die Verbesserung der Sicherheit im IoT durch die Verschmelzung der Blockchain-Technologie. IoT verfügt derzeit über eine zentralisierte Architektur und weist die Sicherheitsprobleme auf, aber Blockchain ist eine dezentralisierte und verteilte Plattform und die Implementierung von Blockchain im IoT behebt somit viele Sicherheitsbedrohungen und Schwachstellen. Darüber hinaus können auch die Probleme der Datenverzerrung gelöst werden, da die Blockchain kryptografische Algorithmen im Backend enthält. IoT mit integrierter Blockchain kann in Bezug auf Dezentralisierung, Autonomie und Vertrauenswürdigkeit kompetent sein. Die Koordination zwischen Millionen von IoT-Geräten, die auch in Zukunft stark zunehmen wird, lässt sich mit hoher Blockchain-Sicherheit nachvollziehen. Dieses Papier untersucht die Effizienz von Blockchain in IoT-Anwendungen. Zusammen mit diesem Papier werden einige Fallstudien diskutiert, die auf Blockchain-basiertem IoT basieren. Es werden einige Schritte beschrieben, die eine theoretische Idee zum Aufbau einer Blockchain in einem IoT-System vermitteln.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6393-9_33 571c2dc9a7e4a285575805fc3416d5ba;de;;;3.3.;;;Forschungen zu GIS-basierter Logistik-Lehrsoftware Die GIS-Netzwerkanalysefunktion hat sich bei der Lösung der meisten netzwerkbezogenen Probleme als sehr effektiv erwiesen. Räumliche GIS-Analysemodelle wie Pufferanalyse, Überlagerungsanalyse usw. spielen eine sehr wichtige Rolle bei der Kombination verschiedener Logistikmodelle. Die Ausbildung zum Logistiksystem hat den Schülern jedoch aufgrund der fehlenden Visualisierung nicht geholfen, ein solides Konzept für Logistikmodelle aufzubauen. In diesem Beitrag wird eine GIS-basierte Simulationssoftware aufgebaut und ein visueller und direkter Weg zur Logistikstudie bereitgestellt. Die Software könnte in der täglichen Logistikausbildung eingesetzt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23357-9_82 92a37f413a92efbd6136489ece7d5729;de;;;3.3.;;;Dynamische Rekonfiguration und Zugriff auf Services in hierarchischen Komponentenmodellen Dieses Papier befasst sich mit dem unvermeidlichen Problem der dynamischen Rekonfiguration in komponentenbasierten Systemen mit einem hierarchischen Komponentenmodell. Die vorgestellte Lösung basiert darauf, dass (1) mehrere wohldefinierte Muster der dynamischen Rekonfiguration zugelassen werden und (2) ein;-;-;-;https://link.springer.com/chapter/10.1007/11783565_27 d3cb7421c60bed85aa3afd5c64ae7945;de;;;3.3.;;;Handtremor-Erkennung in Videos mit unübersichtlichem Hintergrund mit neuronalen Netzwerk-basierten Ansätzen Mit der zunehmenden Prävalenz neurodegenerativer Erkrankungen, einschließlich der Parkinson-Krankheit, ist die Handtremorerkennung zu einem beliebten Forschungsthema geworden, da sie bei der Diagnose und Verfolgung des Krankheitsverlaufs hilft. Herkömmliche Handtremor-Erkennungsalgorithmen beinhalteten tragbare Sensoren. Ein nicht-invasiver Handtremor-Erkennungsalgorithmus, der Videos als Eingabe verwendet, ist wünschenswert, aber die existierenden videobasierten Algorithmen reagieren empfindlich auf Umgebungsbedingungen. Ein Algorithmus mit der Fähigkeit, Handzittern aus Videos mit einem unübersichtlichen Hintergrund zu erkennen, würde die Verwendung von Videos ermöglichen, die in einer Nicht-Forschungsumgebung aufgenommen wurden. Kliniker und Forscher könnten Videos verwenden, die von Patienten und Teilnehmern in ihrer eigenen häuslichen Umgebung oder in klinischen Standardumgebungen gesammelt wurden. Auf neuronalen Netzwerken basierende maschinelle Lernarchitekturen liefern hochgenaue Klassifizierungsergebnisse in verwandten Bereichen, einschließlich Handgestenerkennung und Körperbewegungserkennungssystemen. Daher haben wir die Genauigkeit fortschrittlicher neuronaler Netzwerkarchitekturen untersucht, um automatisch Handzittern in Videos mit unübersichtlichem Hintergrund zu erkennen. Wir untersuchten Konfigurationen mit unterschiedlichen Funktionssätzen und auf neuronalen Netzwerken basierenden Klassifikationsmodellen. Wir haben die Leistung verschiedener Kombinationen von Merkmalen und Klassifizierungsmodellen verglichen und dann die Kombination ausgewählt, die die höchste Genauigkeit bei der Handtremor-Erkennung bietet. Wir haben die Kreuzvalidierung verwendet, um die Genauigkeit der trainierten Modellvorhersagen zu testen. Die höchste Klassifikationsgenauigkeit für die automatische Erkennung von Tremor (im Vergleich zu Nicht-Tremor) betrug 80,6 % und wurde unter Verwendung des Convolutional Neural Network – Long Short-Term Memory und Funktionen basierend auf Messungen der Frequenz- und Amplitudenänderung erhalten.;-;-;-;https://link.springer.com/article/10.1007/s13755-021-00159-3 271538dc15d093e6dae69358e099209c;de;;;3.3.;;;WLAN-Standards und -Entwicklungen Technologien für drahtlose lokale Netze haben eine wichtige technologische und kommerzielle Entwicklung erfahren. Eine Vielzahl von Standards und eine Vielfalt von Anwendungsbereichen machen es notwendig, mit verschiedenen Technologien zu komponieren, die entweder als parallel oder komplementär betrachtet werden können. In diesem Artikel werden nach der Positionierung der verschiedenen Arten von drahtlosen Netzwerken (;-;-;-;https://link.springer.com/article/10.1007/BF03001020 22f2051bc945a3b5af46127840906e48;de;;;3.3.;;;Ein modellbasierter Testansatz für modellgetriebene Entwicklung und Softwareproduktlinien Diese Arbeit stellt einen modellbasierten Testansatz vor, der in modellgetriebenen Entwicklungs- und Softwareproduktlinienprojekten verwendet werden kann. Der Ansatz verwendet OMG-Standards und definiert Modelltransformationen von Designmodellen zu Testmodellen. Der Ansatz wurde als Framework unter Verwendung vorhandener Modellierungstools im Markt und QVT-Transformationen implementiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23391-3_14 28f7b35142e859bd3480f689a7149eaa;de;;;3.3.;;;5G-Sicherheit: Konzepte und Herausforderungen In naher Zukunft wird die Welt die 5G-Technologie erleben, die viele fortschrittliche Funktionen bieten kann. Da die Menschen ein tieferes Verständnis der mobilen Kommunikation erlangen, erwarten sie auch ein höheres Maß an Privatsphäre und Sicherheit. Kommunikationssicherheit beinhaltet die Zustellung von Inhalten an die vorgesehenen Empfänger, während der unbefugte Zugriff in verständlicher Form durch Abfangjäger verhindert wird. Das Hauptziel dieses Kapitels besteht darin, zu erklären, warum Sicherheit für 5G von grundlegender Bedeutung ist und wie sie sich in Bezug auf Verpflichtungen, Bedrohungen und Lösungen von 2G/3G/4G-Sicherheiten unterscheidet. Wir konzentrieren uns auch auf die Sicherheit der physikalischen Schicht, die die Vertraulichkeit der Daten schützt, indem sie die intrinsische Zufälligkeit des Kommunikationsmediums ausnutzt und die Vorteile der disruptiven Technologien von 5G nutzt. Auch die Standards und Eigenschaften von 5G werden in dem Kapitel diskutiert. Die Designarchitektur des 5G-Netzplans ist enthalten, um die wahrgenommenen Herausforderungen zu bewältigen. Basierend auf dem Wissen der Experten wird die Roadmap zu 5G im Kommunikations-Ökosystem spezifiziert. Es muss Sicherheit geschaffen werden, um Benutzer nicht nur vor den bestehenden Bedrohungen zu schützen, sondern auch um die steigenden und neu auftretenden Bedrohungen zu bewältigen. Neben den Sicherheitsprotokollen gibt es noch viele weitere Konzepte zur Verbesserung der Ausfallsicherheit von 5G-Funkzugangsnetzen. Die 5G-Sicherheit muss einen Quantensprung machen, um den Anforderungen der modernen Gesellschaft gerecht zu werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-03508-2_1 50c38f8ca19bb9769ccd48b22f2ef742;de;;;3.3.;;;Anwenden eines Funktionsgrößenmessverfahrens zur Fehlererkennung in MDD-Umgebungen Heutzutage ist allgemein anerkannt, dass die Messung der funktionalen Größe für die Verwaltung und Kontrolle von Softwareprojekten unerlässlich ist. Um Frühindikatoren für Softwareprojekte zu erhalten, wurden viele Verfahren zur Messung der funktionalen Größe entwickelt, um die funktionale Größe konzeptioneller Modelle zu messen. Dabei gehen die Messverfahren davon aus, dass Modelle keine Fehler aufweisen. Dies ist jedoch eine unrealistische Annahme, da die konzeptionellen Modelle in der Praxis Mängel aufweisen können, die die Implementierung der endgültigen Anwendungen beeinträchtigen können. Dies ist besonders wichtig für Softwareproduktionsprozesse, die auf MDD-Technologie basieren, bei denen die konzeptionellen Modelle Schlüsselartefakte sind, die als Eingaben im Prozess der Codegenerierung verwendet werden. Daher wird in diesem Beitrag dargestellt, wie ein Verfahren zur Messung der funktionalen Größe (das für die Messung von konzeptionellen Modellen einer bestimmten MDD-Umgebung entwickelt wurde) bei der Erkennung von Fehlern in konzeptionellen Modellen helfen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04133-4_5 f1b5df3a5ceb0f65f2314c18b3cb451a;de;;;3.3.;;;Vorhersage gefährdeter Softwarekomponenten mithilfe von Software Network Graph Vulnerability Prediction Models (VPMs) werden verwendet, um anfällige Module vorherzusagen, und mittlerweile wurden viele Software-Sicherheitsmetriken vorgeschlagen. In diesem Whitepaper sagen wir anfällige Komponenten voraus. Basierend auf einem Software-Netzwerkdiagramm definieren wir Komponentenkohäsions- und Kopplungsmetriken, die als Sicherheitsmetriken zum Aufbau des VPM verwendet werden. Um die Vorhersageleistung zu validieren, führen wir eine empirische Studie zu Firefox 3.6 durch. Wir vergleichen die Ergebnisse mit anderen Arbeiten“, zeigt dies, dass unser Modell eine gute Leistung in Bezug auf Genauigkeit, Präzision und Erinnerung aufweist und zeigt, dass die vorgeschlagenen Metriken auch bei der Vorhersage von Schwachstellen wirksam sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-69471-9_21 62425262cd9cd823c4981fac14bd7328;de;;;3.3.;;;Dynamische Methoden der komponentenverbundenen Serviceauswahl basierend auf Trust-Aware Trust-Konzept und Trust-Grad werden in das ForCES-System eingeführt und das Trustaware-Dienstauswahlproblem bei der Zusammensetzung von Komponentendiensten wird diskutiert. Die mathematischen Modelle basierend auf exklusiven Komponenten und gemeinsamen Komponenten werden erstellt. Das dynamische Selektionsproblem der Servicekomposition wird intensiv erforscht. Ein dynamisches Auswahlverfahren CCSSGA basiert auf GA. Das Verfahren befindet sich in der Umgebung eines Dienstes, der einen perfekten Dienst bereitstellt, ohne den Schwellenwert zu überschreiten, und einen Dienst mit Überschreiten des Schwellenwerts ablehnt, oder es befindet sich in der Umgebung einer Dienstgüte, die absinkt, wenn die Aufrufnummer ansteigt. Die CCSSGA hat eine gute Wirkung durch Experimente und Ergebnisanalysen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18129-0_107 4886a6b8e39bfbe3716b73fd477f3dd9;de;;;1.1.;;;Attributionstheorie und soziale ErklärungenWir beginnern dieses Kapitel mit der Darstellung einer höchst aufschlußreichen Untersuchung, die unser Thema illustriert und einen Bezugspunkt darstellt, zu dem wir im Verlauf des Kapitels mehrfach zurückkehren werden. In dieser Studie untersuchte Duncan (1976) die Wahrnehmung und Erklärung der Gewalttätigkeit von Personen gleicher und unterschiedlicher Hautfarbe, indem er seine Versuchsteilnehmer (weiße amerikanische Collegestudenten) bat, sich eine Videoaufzeichnung einer zunehmend aggressiven Auseinandersetzung anzusehen, in deren Verlauf schließlich einer der Beteiligten dem anderen einen Stoß gab. Duncan variierte die Hautfarbe (schwarz/weiß) sowohl des potentiellen „Opfers“ als auch des „Täters“ in dem gezeigten Film.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-09957-5_6 6a03412f69d72a7dd71a99d4e9679b35;de;;;1.1.;;;Gängige SteuerungskonzepteDie Notwendigkeit, gesamtgesellschaftlich verbindlich zu entscheiden, also zu steuern, und die als Steuerungskrise thematisierte Verlegenheit des Staates, nicht steuern zu können, eröffnen in den 60er Jahren einen politikwissenschaftlichen Diskurs über politische Steuerung, der sich in zwei Phasen einteilen läßt Die erste Phase ist dadurch charakterisiert, daß Steuerungsfähigkeit des politischen Systems und Steuerbarkeit der Gesellschaft weiter vorausgesetzt werdea Die damit verbundenen klassischen Steuerungskonzepte werden in diesem Kapitel diskutiert. Die zweite Phase ist dadurch gekennzeichnet, daß man die Steuerungsfähigkeit des politischen Systems und die Steueibarkeit der Gesellschaft problematisiert Entsprechend differenziert feilen dann die Steuerungsthesen aus. Die theoretischen Reflexionen der zweiten Phase der Steuerungsdiskussion werden im dritten Kapitel behandelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-84205-3_2 9f7f12e68b01d979d485b7981ff22756;de;;;1.1.;;;Standortplanung in Verbundgruppen des Einzelhandels — Theoriegrundlagen und Ergebnisse einer empirischen UntersuchungStandortentscheidungen sind im Einzelhandel von besonderer Bedeutung, Struktur und Güte des Standortnetzes sind wesentliche Determinanten des Unternehmenserfolgs. Im Systemwettbewerb zwischen Verbundgruppen, Filialisten und Franchiseunternehmen ist die Qualität der Standorte daher ein wichtiger strategischer Wettbewerbsparameter. Nach einer kurzen theoretischen Einführung in die Methodik und Vorgehensweise der Standortplanung werden die Ergebnisse einer aktuellen empirischen Befragung zur Standortplanung und -beratung in Nonfood-Einzelhandelsverbundgruppen vorgestellt. Neben der Planung von Neustandorten interessierten auch Art und Umfang der laufenden Standortplanung. Im Vergleich zu den Systemwettbewerbern werden Nachteile bzw. Schwächen bei der Standortplanung und -Steuerung erkennbar, eine engere Kooperation zwischen Verbundzentralen und Mitgliedern scheint daher notwendig. Mögliche Ansatzpunkte einer verbesserten Standortplanung werden im Fazit der Untersuchung aufgezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-13250-9_11 3e9e00118ca67b85557b7c3a1977bdee;de;;;3.3.;;;Ein projektbasierter Softwarekurs: Der Mythos der „realen Welt“ Wir diskutieren einen Ansatz für projektbasierte Software-Engineering-Kurse. Erfahrungsbasierte Überlegungen verdeutlichen den Mythos vom realen Umfeld bis hin zum projektbezogenen Studium an der Hochschule. Merkmale realer Projekte werden skizziert und Bedingungen, die sie anwendbar machen, hervorgehoben. Die Erfahrungen mit einem echten projektbasierten Kurs werden kurz beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-9614-7_22 9146aa9f8f5d5b83b11143def37f8041;de;;;3.3.;;;Ein Remote Sensing Application Workflow und seine Implementierung im Remote Sensing Service Grid Node In diesem Artikel beschreiben wir einen Remote Sensing Application Workflow beim Aufbau eines Remote Sensing Information Analysis and Service Grid Node am Institute of Remote Sensing Applications basierend auf der Condor-Plattform. Das Ziel des Node ist es, physisch verteilte Ressourcen im Bereich der Fernerkundung wie Daten, Modelle und Algorithmen sowie im Internet ungenutzte Rechenressourcen sinnvoll zu nutzen. Bei der Implementierung verwenden wir Workflow-Technologie, um den Knoten zu verwalten, Ressourcen zu steuern und traditionelle Algorithmen als Grid-Dienst zu erstellen. Wir verwenden Webservice-Technologie, um mit Spatial Information Grid (SIG) und anderen Grid-Systemen zu kommunizieren. Wir verwenden die JSP-Technologie, um ein unabhängiges Portal bereitzustellen. Abschließend wird der aktuelle Stand dieser laufenden Arbeiten beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/11758501_42 84fb4f836cb20c78698013f73b9d6cca;de;;;3.3.;;;Das Potenzial selbstadaptiver Softwaresysteme in industriellen Steuerungssystemen Neue Generationen industrieller Steuerungssysteme bieten höhere Leistung, sind vernetzt und fernsteuerbar. Diesem Fortschritt folgend, nimmt die Komplexität solcher Systeme durch heterogene Systeme, Hardware und leistungsfähigere Software zu. Dies kann zu einer Zunahme der Unzuverlässigkeit und Unsicherheit führen. Selbstadaptive Softwaresysteme bieten eine Möglichkeit, mit Komplexität umzugehen, indem sie ein Leitsystem überwachen, Anomalien erkennen und das Leitsystem an Probleme anpassen. In Bezug auf solche Verfahren haben industrielle Steuerungssysteme den Vorteil, dass sie weniger dynamisch sind. Die Netzwerktopologie ist fest, Geräte ändern sich selten und die Funktionalität aller Ressourcen ist im Prinzip bekannt. In dieser Arbeit untersuchen wir diesen Vorteil und stellen das Potenzial selbstadaptiver Softwaresysteme vor. Der Kontext der vorgestellten Arbeit sind Steuerungssysteme für Wasserkraftwerke.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-64218-5_12 0dcab8c78e633c9a49756f51e9e91707;de;;;1.1.;;;Theorie des persönlichen Vertrauens und der persönlichen DienstleistungNach einem kurzen Überblick über die historische Entwicklung der Vertrauensthematik werden exemplarisch Beiträge der klassischen und modernen Sozialtheorie vorgestellt, die sich mit der Vertrauensproblematik beschäftigt haben und insbesondere sozialwissenschaftliche Thesen zum Handeln sowie Verhalten vor dem Hintergrund von Situationen, die durch einen gewissen Unsicherheitsfaktor geprägt sind, thematisieren. Im Anschluss daran werden aktuelle Diskussionen in der Sozialtheorie betrachtet, die relevante Erkenntnisse zum persönlichen Vertrauen im Kontext der Moderne enthalten. Gemeinsamkeiten und Unterschiede der Positionen werden herausgearbeitet und Konsequenzen für die Studie abgeleitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-20077-0_2 71d24ec3aa5cfde594ac68f09c1bf787;de;;;1.1.;;;Theoretische und methodische Grundlagen und der ForschungsansatzGiddens selbst nennt seine Theorie eine Sozialtheorie, die eine allgemeine Sozialontologie für sämtliche Sozialwissenschaften darstellen soll. Zusätzlich geht es ihm darum, den Sozialwissenschaften eine Grundlage kategorialer und methodologischer Art zu verschaffen. Sozialtheorie und empirische Forschung stehen in einem Wechselverhältnis: die Sozialtheorie gibt Leitlinien für die empirische Forschung vor, während die empirische Forschung Impulse für die Theorie gibt. Es geht Giddens im Kern um die theoretische Auseinandersetzung mit dem Menschen als Akteur, seinem Bewußtsein und Handeln, den strukturellen Bedingungen und Folgen des Handelns sowie den kulturellen Symbolen und institutionellen Formen, die daraus entstehen (vgl. Giddens in Interview mit Kießling 1988, S. 287, ab sofort zitiert als Kießling). Sein Menschenbild zeigt „vernunftbegabte, zweckgerichtet oder intentional handelnde Subjekte, die prinzipiell wissen, was sie tun“ (Kießling 1988, S. 288). „Wissen“ bezieht sich auf die Inhalte des Tuns, die klar sind, jedoch nur in Kategorien der Alltagssprache zugänglich sind. In diesem Zusammenhang unterscheidet Giddens zwischen drei Ebenen des menschlichen Bewußtseins: ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-09251-3_4 e10b71f70e9d2e1de56a6728e9f23840;de;;;3.3.;;;Nutzung einer infrastrukturlosen Netzwerkarchitektur für Crowd Sourcing und periodische Berichterstellung im Post-Disaster-Szenario Aufgrund der Schäden an der bestehenden Netzinfrastruktur (Internet, GSM etc.) in jedem Post-Katastrophen-Szenario ist es schwierig, den Schaden sowie die Bedürfnisse der in verschiedenen Regionen gefangenen Opfer einzuschätzen. Aufgrund der Krise der Echtzeitkommunikation konnten sowohl die Opfer als auch das Rettungsteam den tatsächlichen Bedarf nicht erfüllen und somit zu einem bestimmten Zeitpunkt nicht über deren Funktionalität entscheiden. Aufgrund des Mangels an zeitnahen echten Lageinformationen ist es für jedes Hilfs- oder Rettungsteam eine große Herausforderung, den genauen Bedarf/Schaden der betroffenen Regionen einzuschätzen. Vielfach wurde beobachtet, dass die Verteilung von Hilfsgütern an verschiedenen Standorten aufgrund von Ad-hoc-Verteilung der Mittel nicht dem tatsächlichen Bedarf entsprach. Dies hatte zur Folge, dass in einigen Gebieten unabhängig von der Einschätzung des tatsächlichen Schadens eine begrenzte Menge an Hilfsgütern verschickt wurde. Um diese Probleme zu lösen, wurde unter Verwendung einer Teilmenge der bestehenden Netzwerkarchitektur ein Adhoc-Multi-Hop-Kommunikationssystem entworfen. Darüber hinaus wurde eine Reihe von Anwendungen entwickelt, mit denen Opfer (mobile Knoten) über eine leichtgewichtige Android-Anwendung zu einem bestimmten Zeitpunkt Situationsinformationen über jede betroffene Region in Bezug auf das Opfer oder den Bedarf generieren können. Die generierten Nachrichten werden bei Kontakt nahtlos an andere mobile Knoten übertragen. Schließlich würden diese Nachrichten in einer Master Storage Box (MSB) abgelegt. Infolgedessen werden die Informationen in MSB mit Hintergrundanwendungen verarbeitet, um Redundanzen und Inkonsistenzen auszulöschen. Eine Reihe von Berichten über den Ressourcenbedarf verschiedener Standorte könnte für eine effektive Bedarfsbewertung und Ressourcenzuweisung durch die Hilfsorganisationen im Frühstadium einer Katastrophe erstellt werden. Die vorgeschlagene Anwendungsgruppe wurde für eine große Menge von Dummy-Crowd-Source-Daten zur Qualitätsbewertung getestet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-6427-2_19 ed973c5bbf027066bd9f6698838f19ac;de;;;3.3.;;;Aspektbasierte Sentimentanalyse mit einer zweistufigen neuronalen Netzwerkarchitektur Das World Wide Web enthält eine Fülle von Informationen in Form von unstrukturierten Texten wie Kundenbewertungen zu Produkten, Veranstaltungen und mehr. Durch die differenzierte Extraktion und Analyse der geäußerten Meinungen in Kundenbewertungen können wertvolle Chancen und Erkenntnisse für Kunden und Unternehmen gewonnen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-46565-4_12 3f4a6865af23501325767c4d6a8aba85;de;;;3.3.;;;Peer-Auswahl in P2P-Service-Overlays anhand geografischer Standortkriterien Peer-to-Peer-Service-Overlay-Netzwerke (P2P SON) sind zunehmend Infrastrukturanbieter für Netzwerkdienste, die es Dienstanbietern ermöglichen, eine flexible Reihe von Diensten kooperativ anzubieten und zu betreiben. In Bezug auf diese Bedingung ist die Auswahl von Peers ein Schlüsselthema für die Verbesserung der Ressourcennutzung, der Serviceleistung und letztendlich der Quality of Experience (QoE) der Endbenutzer. Dieses Papier präsentiert einen Ansatz zur besten Peer-Auswahl in einer dreistufigen P2P-SON-Architektur, die die Aufteilung von Service-Business-Funktionen und Peer-Auswahlfunktionen ermöglicht. Der vorgeschlagene Ansatz für die beste Peer-Auswahl wird durch Simulation bewertet, wobei eine in der Literatur verfügbare geografische Positionierungsmetrik verwendet wird, die reale Verzögerung und Jitter berücksichtigt, die vom CAIDA-Projekt und der kostenlosen Datenbank von MaxMind bereitgestellt werden. Die Simulationsergebnisse zeigen die Konsistenz und gute Leistung des vorgeschlagenen Peer-Selection-Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31075-1_18 6cb0b116e1aafbff13192cb89510cec6;de;;;1.1.;;;Theorie und Gestaltung im Vierten MaschinenzeitalterDas Erste Maschinenzeitalter begann laut Reyner Banham „mit Elektroherden, Staubsaugern, dem Telefon, dem Grammophon und all jenen anderen mechanisierten Hilfsmitteln für ein angenehmes Leben“, die den Alltag der oberen Mittelschicht für immer veränderten. Erst mit den von Banham als Zweites Maschinenzeitalter bezeichneten 1950ern und 1960ern wurden die neuen Technologien — elektronische Geräte und synthetische Chemikalien — breiten Schichten der wohlhabenden Konsumgesellschaft zugänglich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-211-75784-0_2 0db8d86386ff1686d536b430045e9a93;de;;;1.1.;;;Objektorientierte Graphik-Ausgabe für Benutzerschnittstellen-WerkzeugeDie Benutzerschnittstellen hypermedialer Anwendungen umfassen in der Regel einen großen Anteil direkt-manipulativer Interaktionen zur Durchführung navigierender und ändernder Operationen auf graphisch dargestellten Informationen /GlSt-90/. Wichtig sind speziell kontinuierliche Interaktionen wie Verschieben (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-77060-9_44 64af2227f56a038dd360dbb78873b61d;de;;;3.3.;;;Ein agentenbasiertes hybrides intelligentes System für die Finanzinvestitionsplanung Viele komplexe Probleme, einschließlich der Planung von Finanzinvestitionen, erfordern hybride intelligente Systeme, die viele intelligente Techniken integrieren, darunter Expertensysteme, Fuzzy-Logik, neuronale Netze und genetische Algorithmen. Jedoch sind hybride intelligente Systeme aufgrund komplizierter Interaktionen und technischer Inkompatibilitäten schwierig zu entwickeln. Dieses Papier beschreibt ein hybrides intelligentes System für die Finanzanlagenplanung, das aus Agentensicht entwickelt wurde. Dieses System besteht derzeit aus 13 verschiedenen Agenten. Die experimentellen Ergebnisse zeigen, dass alle Agenten im System kooperativ arbeiten können, um eine vernünftige Anlageberatung zu bieten. Das System ist sehr flexibel und robust. Der Erfolg des Systems zeigt, dass Agententechnologien den Aufbau hybrider intelligenter Systeme erheblich erleichtern können.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45683-X_39 f630bb585aa09e29edfb903052215b29;de;;;3.3.;;;Systematisierung des reaktiven Systemdesigns Reaktive Systeme sind eine sehr wichtige Systemklasse für Ingenieurorganisationen. Die Rolle der Software ist heute dominant und ihr Anteil an den Systembaukosten nimmt ständig zu. Trotz intensiver Forschung, die der Entwicklung reaktiver Systeme gewidmet ist, stehen jedoch keine geeigneten Ingenieursprachen, Methoden und Werkzeuge zur Verfügung, wie sie von der konventionellen Ingenieursgemeinschaft ausgelegt werden, um die Technologie zu unterstützen. Wir untersuchen den aktuellen Stand und schlagen einen Weg vor, um geeignete Technologien für die Industrie zu implementieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-49253-4_3 32dde9de5d703e99a8f25307d59bc31d;de;;;1.1.;;;Identifikation mit einer Trainingsumwelt, Zielfokussierung und fußballspezifische Fähigkeiten bei NachwuchsfußballerinnenDer Beitrag untersucht den Zusammenhang von Identifikation mit einer leistungsorientierten Trainingsumwelt, der Zielfokussierung und den fußballerischen Fähigkeiten bei Nachwuchsfußballerinnen. Hierfür wird auf Basis der Zieltheorie von Kruglanski et al. (2002) ein Modell entwickelt, bei dem die fußballspezifischen Fähigkeiten durch die Identifikation mit der Trainingsumwelt und der Zielfokussierung vorhergesagt werden. Die Ergebnisse eines Strukturgleichungs- und eines Mediationsmodells bei 63 Mädchen im Alter von acht bis 14 Jahren aus einer regionalen Talentfördermaßnahme legen nahe, dass die Identifikation mit der Trainingsumwelt, vermittelt über die Zielfokussierung, im Zusammenhang mit den fußballspezifischen Fähigkeiten steht.;-;-;-;https://link.springer.com/article/10.1007/s12662-017-0455-2 45a2436b6a2f5e3307ef0abe145634ec;de;;;1.1.;;;Corporate Foresight AkteureWenngleich Organisationen in den Wirtschaftswissenschaften häufig als Entität betrachtet werden, gilt, dass nicht die Organisation handelndes Subjekt ist, sondern vielmehr die verantwortlichen Akteure Entscheidungen und Handlungen auf organisationaler Ebene herbeiführen. Das Handeln der Organisation ist Resultat des Wahrnehmens, Interpretierens und Agierens der Individuen, insbesondere der strategischen Entscheidungsträger in der Organisation. Dieses Verständnis organisationalen Handelns als Summe individueller Handlungen kann, wie Cunha/Palma/da Costa (2006) konstatieren, ebenfalls auf Corporate Foresight übertragen werden: „[Foresight, Anm. d. Verf.] is […] a net of decisions made by agents“.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-23084-5_3 eed1c67ecd341be0a5c1f94706a489d9;de;;;1.1.;;;Staatsausgaben und Verhaltensökonomik – Zur Psychologie der öffentlichen AusgabentätigkeitIn Kapitel 4 des Buches werden die in der Finanzwissenschaft gängigen Begründungen der Entwicklung der Staatsausgaben im Zeitverlauf ebenso wie die herkömmliche ökonomische Wirkungsanalyse der öffentlichen Ausgaben einer verhaltensökonomischen Betrachtung unterzogen. Dabei kann nicht nur dargelegt werden, dass bereits die bestehenden finanzwissenschaftlichen Erklärungsansätze zum Staatsanteilswachstum in vielfältiger Form auf psychologische Erkenntnisse zurückgreifen. Zudem wird gezeigt, wie perzipierte Vorteile, Dringlichkeitseinschätzungen und Fairnesserwägungen die subjektive Wahrnehmung der Staatsausgaben aus Sicht der Nutznießer öffentlicher Leistungen beeinflussen. Schließlich wird ebenso verdeutlicht, dass die gängige effizienz-, verteilungs- und stabilitätsbezogene Wirkungsanalyse der Ausgabentätigkeit ohne eine zusätzliche verhaltensökonomische Fundierung unvollständig bleibt. Letzteres gilt auch für die Analyse des (haushalts-)politischen Willensbildungsprozesses, der nur unzureichend durch bestehende politökonomische Ansätze erklärt werden kann und daher um eine Betrachtung der psychologischen Bestimmungsfaktoren politischen Verhaltens in der Demokratie - und hier insbesondere des Wählerverhaltens - ergänzt werden muss.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-09913-8_4 f0baace3c6244f9dc2608b9ed8e62b96;de;;;1.1.;;;Neurophysiologie am AchsenorganIm folgenden werden die Basisdaten der Neurophysiologie auf die Physiologie des Bewegungssystems, besonders des Achsenorgans, angewandt. Sie sollen helfen, hinter den Einzeldaten die funktionellen Zusammenhänge zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-74971-1_14 847aba2432cfa9756f448e0f73b4c46a;de;;;1.1.;;;Verhandlungspräferenzen als Gegenstand der VerhandlungsforschungDie Vielschichtigkeit des Verhandlungskonstrukts ist nicht zuletzt verantwortlich dafür, dass sich mit diesem Untersuchungsfeld eine Vielzahl von Disziplinen beschäftigt hat. Beispielhaft seien an dieser Stelle die Wirtschaftswissenschaften, die Psychologie, die Informatik, die Politikwissenschaften sowie die Soziologie erwähnt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-9617-2_3 93ca70982bffac5f82f04794d5b08e64;de;;;1.1.;;;Ansätze und BefundeDieses Kapitel gibt einen Überblick über die verstreut vorliegende Forschung zur Umraumwahrnehmung und zum Umraumgedächtnis. Dargestellt werden Forschungsansätze und Forschungsbefunde zu Fragen der Objektlokalisierung im Umraum, bei der sich der Akteur tatsächlich in der räumlichen Umgebung befindet. Im ersten Schritt wird das Problem der Objektlokalisierung von anderen Problemen der Raumwertverarbeitung unterschieden und wichtige Grundannahmen der Untersuchung von Objektlokalisierungsleistungen im Umraum herausgearbeitet (3.1). Im zweiten und dritten Schritt werden dann Forschungsansätze und Befunde zur Objektlokalisierung beim stationären (3.2) und bewegten Akteur (3.3) zusammengetragen. Im letzten Schritt stehen Ansätze und Befunde zur Objektlokalisierung nach räumlichen Positionswechseln im Mittelpunkt des Interesses (3.4).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-89628-5_3 386c001b1cf2ea2465065460ed780514;de;;;1.1.;;;Über den Verstehensgegenstand in der Sozialen Arbeit. Das erweiterte handlungstheoretische Mehr-Ebenen- Modell (eMEM)Im Kapitel 5 wird mit einem komplexen handlungstheoretischen Modell vom handelnden Menschen der Gegenstand der Verstehensbemühungen Sozialer Arbeit theoretisch beschrieben. Unter Einbezug von sozialer Mikro- und Makroebene, Person und Umwelt, Lebenswelt, Lebenslage und körperliche Ebene werden zentrale Theoriekomponenten zusammengeführt, die im Diskurs der Sozialen Arbeit von großer Bedeutung sind. Hiermit ist der Anspruch verbunden, die bio-psycho-soziale Landschaft zu „kartografieren“, die beim Verstehen verstanden werden muss.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-10075-9_5 64070b358367c1308ca22f1c2457c0f2;de;;;1.1.;;;Investition, Finanzierung und Risiko — operatives Controlling von Leasing-GesellschaftenDie Aufgabe der operativen Steuerung, die nach dem in der vorliegenden Arbeit zugrunde gelegten Controlling-Verständnis auch als „operations management“ bezeichnet werden kann,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-97814-1_4 ba09a7bfd4074c13c7d181dfd31fa2b5;de;;;3.3.;;;EIMAKP: Heterogene Cross-Domain Authenticated Key Agreement Protocols im EIM-System In den letzten Jahren hat sich Instant Messaging (IM) zunehmend zu einer beliebten Kommunikationstechnologie auf der ganzen Welt entwickelt, und das Enterprise Instant Messaging (EIM)-System ist eine der Anwendungen von IM für den Unternehmenseinsatz. Die bestehenden Studien zu EIM-Systemen richten sich auf das Design funktionaler Komponenten und den Kommunikationsprozess, die in der Regel auf der XMPP-Protokollsuite basieren. In diesem Papier wird die Sicherheit von EIM jedoch aus einer anderen Perspektive betrachtet, nämlich dem Problem der Identitätsauthentifizierung und der Schlüsselvereinbarung zwischen Benutzern und Diensten. Mehrere EIM-Systeme basieren auf einer Public-Key-Infrastruktur (PKI), um die hohen Sicherheitsanforderungen von Unternehmen zu erfüllen, während identitätsbasierte Kryptographie (IBC) eine neue Entwicklungsrichtung für EIM-Systeme bietet. Obwohl die meisten EIM-Anwendungen unabhängig in verschiedenen Unternehmen eingesetzt werden, ist der heterogene domänenübergreifende Servicezugriff der Benutzer zu einem unvermeidlichen Trend geworden. Es wurde jedoch noch kein heterogenes domänenübergreifendes Authentifizierungsprotokoll zwischen der PKI-Domäne und der IBC-Domäne vorgeschlagen. Um dieses Problem anzugehen, wird daher in diesem Papier ein neues und detailliertes heterogenes domänenübergreifendes authentifiziertes Schlüsselvereinbarungsschema vorgeschlagen. Durch die Verwendung des PKI-basierten verteilten Vertrauensmodells und der Zugangsberechtigungstickets kann dieses Schema eine Verbindung und nahtlose Authentifizierung zwischen der PKI-Domäne und der IBC-Domäne realisieren. Die Analyse zeigt, dass das vorgeschlagene Schema theoretisch richtig ist und gleichzeitig eine hohe Sicherheit und Effizienz garantiert.;-;-;-;https://link.springer.com/article/10.1007/s13369-017-2447-9 a240c1f385065876d6d3e9ab3e789da8;de;;;1.1.;;;III Grundsätze zur Ermittlung einer angemessenen Informationsgrundlage sowie zur angemessenen Entscheidungsfindung bei unternehmerischen Entscheidungen durch ein Risikomanagement im ökonomischen SinnNach § 91 Abs. 2 AktG hat der Vorstand „geeignete Maßnahmen zu treffen, insbesondere ein Überwachungssystem einzurichten, damit den Fortbestand der Gesellschaft gefährdende Entwicklungen früh erkannt werden.“ Die durch das KonTraG eingeführte Vorschrift in das Aktiengesetz ist als eine „gesetzliche Hervorhebung“ der allgemeinen Pflicht des Vorstands zur Leitung der Gesellschaft gemäß § 76 AktG zu verstehen. Im Speziellen handelt es sich um eine Konkretisierung der Organisationspflichten des Vorstands, deren Missachtung u.a. einen wichtigen Grund für eine fristlose Kündigung darstellen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-11420-6_3 2864b12eb6c9c43af11249d0b5b63945;de;;;1.1.;;;Konzeptualisierung von ArbeitszufriedenheitArbeitszufriedenheit ist eines der zentralen Konstrukte der Arbeits-, Betriebs- und Organisationspsychologie. Bereits 1976 belief sich eine konservative Schätzung der Anzahl von Studien, die sich mit Arbeitszufriedenheit beschäftigten, auf mehr als 3 350 Beiträge (Locke, 1976). Eine Literaturrecherche in PsychINFO lieferte im Jahr 2005 allein auf das Stichwort „job satisfaction“ ca. 14 000 (englischsprachige) Ergebnisse und noch einmal 2 900 deutschsprachige Einträge in Psyndex, bereits die große Anzahl der Publikationen zeugt von einem hohen Interesse an diesem Konzept. Als weiteres Indiz für das hohe Interesse der wissenschaftlichen Forschung an der Arbeitszufriedenheit kann die lange Tradition der Diskussion ins Feld geführt werden: Die Ursprünge der Arbeitszufrieden-heitsforschung können bis in die 30er Jahre zurückverfolgt werden (z.B. Hoppock, 1935, Kornhauser & Sharp, 1932, Roethlisberger, 1941, Roethlisberger & Dickson, 1934, Roethlisberger & Dickson, 1939). Das Interesse an der Arbeitszufriedenheit kulminierte in den 70er und 80er Jahren, in denen schließlich die Arbeitszufriedenheit quasi als Universalkonstrukt zur Erklärung und Beschreibung von unterschiedlichsten Phänomenen im Arbeitsleben missbraucht wurde, aufgrund der Publikationsflut, der partikulären Empirie, der uneindeutigen Befunde und nicht zuletzt aufgrund der Verwendung eines aus der Alltagssprache weit gefassten Begriffs für eine spezielle Forschungstradition raten Six und Kleinbeck (1989) — zwar überspitzt — an, „das Konzept zu ‚verschrotten‘“ (S. 370). Dennoch haben diese Verwerfungen in der Historie dem Interesse des Konzepts keinen Abbruch getan. Das Konzept der Arbeitszufriedenheit hat nichts von seiner Attraktivität verloren - im Gegenteil: In jüngerer Zeit rückt nach überarbeitung der Konzeptualisierung die Arbeitszufriedenheit erneut in den Fokus der Forschung. Symptomatisch ist hierfür bspw. das Themenheft „Arbeitszufriedenheit“ der Zeitschrift ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-9403-1_3 1c4799d437238d72f77ca1c05c3f48a6;de;;;1.1.;;;Das Phänomen Krieg und seine Ursachen gibt einen Überblick über wesentliche Definitionsansätze und Typologien sowie grobe empirische Entwicklungstrends des Krieges. In diesen Kontext nimmt eine konzise Einführung in die Kriegsdefinition(en) Carl von Clausewitz’ als bis heute wertvollstem Referenzpunkt der systematischen Befassung mit dem Krieg eine tragende Funktion ein. Zudem werden verschiedene Ansätze zur theoretischen Erklärung von Kriegen vorgestellt und zentrale Ergebnisse der empirischen Kriegsursachenforschung zusammengefasst, wobei der Literatur entsprechend zwischen staatlichen und nicht-staatlichen bewaffneten Konflikten unterschieden wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-94100-4_2 b49d0b26499a35562293dd06361297d0;de;;;1.1.;;;Zielfunktionsabhängige InformationsverwendungIm folgenden wird auf verschiedene Arten der Verwendung von Informationen eingegangen. Dabei wird das Konzept der instrumentellen, konzeptionellen und symbolischen Informationsverwendung diskutiert und auf die Akteure des Gesundheitswesens übertragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-81796-9_5 59cacd24917516ce19ddcf9d7350b23a;de;;;3.3.;;;Ein komplexitätsskalierbarer, softwarebasierter MPEG-2-Video-Encoder Mit der Entwicklung von Universalprozessoren (GPP) und Videosignalverarbeitungsalgorithmen ist es möglich, einen softwarebasierten Echtzeit-Video-Encoder auf GPP zu implementieren spezialisierter Hardware bis hin zu flexibler Software. In diesem Papier wird die Kodierungsstruktur zuerst eingerichtet, um die Skalierbarkeit der Komplexität zu unterstützen, dann werden viele Hochleistungsalgorithmen für die zeitaufwendigen Schlüsselmodule im Kodierungsprozess verwendet Effizienz und Verarbeitungsparallelität. Andere Programmierverfahren, wie beispielsweise eine Nachschlagetabelle, werden verwendet, um die Rechenkomplexität zu reduzieren. Simulationsergebnisse zeigten, dass diese Ideen nicht nur die globale Leistung der Videocodierung verbessern, sondern auch eine große Flexibilität bei der Komplexitätsregulierung bieten.;-;-;-;https://link.springer.com/article/10.1631/jzus.2004.0572 a0af63de1da65ec53a49be31ab840ee4;de;;;3.3.;;;Evaluierung agentenorientierter Programme: Auf dem Weg zu multiparadigmatischen Metriken Metriken werden zunehmend als wichtige Werkzeuge für Software-Engineering und quantitative Forschung angesehen, aber Metriken für Agenten-Programmiersprachen wurde bisher wenig Aufmerksamkeit geschenkt. In diesem Beitrag werden die ersten Schritte zu multiparadigmenstrukturellen Metriken vorgestellt, die sich nahtlos sowohl auf Agenten als auch auf die objektorientierten Umgebungen, in denen sie sich befinden, anwenden lassen und so die quantitative Bewertung des Designs kompletter Multiagentensysteme ermöglichen. Konkrete paradigmenunabhängige Metriken für Kopplung und Kohäsion werden vorgeschlagen und ihre Verwendung wird an einem Jason-Beispielprogramm demonstriert, das in AgentSpeak und Java geschrieben wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28939-2_4 8a7ee579dd54e0b91f8e74eab6110917;de;;;1.1.;;;Komponenten und MethodenAusgehend von den verschiedenen Systemebenen in Kraftfahrzeugen werden die einzelnen Komponenten mechatronischer Systeme vorgestellt. Dabei stehen Anwendungsgesichtspunkte im Vordergrund, weniger die physikalischen Prinzipien. Abgerundet wird das Kapitel mit der Vorstellung von Methoden zur Fehlererkennung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8348-9573-8_5 c56de5dc93c25be16eac0f7724bac432;de;;;1.1.;;;PrädikatenlogikIn der Mathematik und auch in anderen Wissenschaften wie z.B. der Informatik, hat man häufig mit Individuenbereichen zu tun, in denen gewisse Relationen und Operationen ausgezeichnet sind. Über Eigenschaften solcher Relationen und Funktionen kann man in der Sprache der Aussagenlogik nur teilweise und sehr eingeschränkt reden. Also muß man die sprachlichen Ausdrucksmittel verfeinern um neue Beschreibungsmöglichkeiten zu gewinnen. Dafür sind außer logischen Symbolen auch Variablen für die Individuen des betreffenden Bereichs nötig, sowie Symbole für die in Rede stehenden Relationen und Operationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-91518-4_2 58e439308f2e60dc210b7d2b8b0d78e1;de;;;1.1.;;;Management und VeränderungUm Management aus institutioneller und funktionaler Sicht zu begreifen, werden die Entwicklungsgeschichte und die verschiedenen Impulse betrachtet. Das schließt die Entwicklung von Organisationsmodellen sowie die verschiedenen Managementphilosophien ein. Es erfolgt die Darlegung der Systemtheorie, die auf das Management bezogen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-24110-0_5 b93c4308ad2f545d941e1142ff6b0cf1;de;;;1.1.;;;Notfallteam: Agieren auf AugenhöheNotfälle treten im Klinikalltag immer wieder auf. Dann ist eine strukturierte Kommunikation die Basis für das Arbeiten im Team. Crisis Resource Management (CRM) ist ein Modell, welches die eigenen Handlungen in einer solchen Situation hinterfragt und optimiert, aber auch Teamkommunikation und Zusammenarbeit fördert.;-;-;-;https://link.springer.com/article/10.1007/s00058-016-1916-y e63546b573421bb3612ff97ac399c62a;de;;;3.3.;;;Autonome Agenten für überlebensfähige Sicherheitssysteme Bei autonomen Systemen geht es im Wesentlichen darum, selbstverwaltende Systeme zu schaffen, die auf der biologischen Metapher des unbewusst agierenden autonomen Nervensystems basieren. Die Autonomic-Initiative wurde durch die ständig steigende Komplexität und die Gesamtbetriebskosten des heutigen Systemsystems motiviert. Autonomicity bietet auch Fortschritte in Bezug auf fehlertolerantes Computing und hilft beim Erstellen überlebensfähiger Systeme. Dieses Papier untersucht die relevanten Technologien, einschließlich Agenten für die technische Autonomie und Überlebensfähigkeit in einem sicheren biometrischen Standortsystem.;-;-;-;https://link.springer.com/chapter/10.1007/11596042_125 4ed091ac2f6cadcabadaf7096fc92b76;de;;;3.3.;;;Leistungsoptimierungstechnologie eines weltraumgestützten SAR-Signalprozessors basierend auf FPGA Field Programmable Gate Array (FPGA) integriert eine Vielzahl von Recheneinheiten und IP-Cores, die spezifische Funktionen realisieren können, und besitzt eine hohe Parallelverarbeitungsfähigkeit. Der aktuelle raumgestützte SAR-Echtzeitprozessor (Synthetic Aperture Radar) ermöglicht eine Hochgeschwindigkeitserfassung und Echtzeitverarbeitung von Multimode-Echodaten über FPGA. Daher ist es von großer Bedeutung, den FPGA-Verarbeitungsfluss zu optimieren und die FPGA-Festkomma-Verarbeitungskapazität zu verbessern, um die Leistung des weltraumgestützten SAR-Echtzeit-Bildgebungsprozessors zu verbessern. Als Festkomma-Prozessor muss FPGA die effektiven Daten in der SAR-Signalverarbeitung durch geeignetes Abschneiden so gut wie möglich erhalten, um die Ressourcenbelastung und den Datenspeicherdruck zu vermeiden, die durch die wachsende Bitbreite verursacht werden. Das allgemein angenommene Verfahren mit fester Bitkürzung und das Verfahren zur Parameteraktualisierung auf der Umlaufbahn können die Anwendungsanforderungen der Echtzeitszene nicht erfüllen und können die Anforderungen der Anpassungsfähigkeit und Genauigkeit der SAR-Echtzeit-Bildgebungsverarbeitung nicht erfüllen. Angesichts dieser Situation untersucht dieses Papier die Bittrunkierungstechnologie der FPGA-Bildverarbeitung und schlägt eine adaptive Bittrunkierungstechnologie basierend auf FPGA vor, die die Echtzeitanforderungen des SAR-Signalprozessors erfüllt und dessen Erkennungsleistung und Systemzuverlässigkeit verbessert. . Die Wirksamkeit der Technik wird durch Simulation verifiziert, und die Methode wurde erfolgreich auf die On-Orbit-Validierung von SAR-Signalprozessoren angewendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4102-9_80 b445117b59fe574489266df4b30544d0;de;;;1.1.;;;Genetischer Polymorphismus in der G-Protein-β3-Untereinheit, Adipositas und essentielle HypertonieWir konnten kürzlich einen C825T-Polymorphismus im Gen GNB3 nachweisen, das für die Gβ3-Untereinheit heterotrimerer G-Proteine kodiert. Das 825T-Allel verusacht ein alternatives Spleißen des Gens und die Expression einer funktionell aktiven Deletionsvariante von Gβ3, welche als Gβ3s bezeichnet wird. Eine Genotypisierung bezüglich des C825T-Polymorphismus ermöglicht eine Vorhersage über die Stärke der Aktivierbarkeit von G-Proteinen und nachgeschalteter Zellfunktionen.;-;-;-;https://link.springer.com/article/10.1007/BF03044121 ed90474c0ea6b2ea54787d3603b9dd26;de;;;1.1.;;;Zum Verständnis der Sender-Empfänger-TransaktionDie Massenkommunikationsforschung der USA hat sich bisher hauptsächlich mit Medienwirkungen beschäftigt. Dies ist eine der am wenigsten umstrittenen Feststellungen in dem noch jungen Forschungsgebiet. Wie McQuail (1987), DeFleur & Ball-Rokeach (1989), Chaffee & Hochheimer (1985) sowie andere bereits zeigten, kann ein Großteil der Geschichte des Faches auf die theoretischen Kontroversen im Bereich der Medienwirkungen reduziert werden. Es wurden zwar unterschiedliche Wirkungsarten untersucht, ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-10777-4_12 e97de47f5b1fd4a5c87047ef4b1cd945;de;;;1.1.;;;Texte formatieren — TextverarbeitungFür Mitschülerinnen in der Berufsschule wollen Sie ein Infoblatt über das Thema ”Hypothek und Grundschuld„ besonders ansprechend formatieren. Gestalten Sie den unten angegebenen Text entsprechend den Angaben!;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-90537-6_1 20a5b4b46ef9f74a5880eed3aba7bdfb;de;;;1.1.;;;Informationsquellen und weitere Faktoren in ihrem Einfluss auf die Akzeptanz der Verwaltung: empirische Ergebnisse zu den unabhängigen VariablenNachdem im vorangegangenen Kapitel die abhängige Variable analysiert wurde, muss zur Beantwortung der Forschungsfrage nun eine umfassende Analyse der unabhängigen, erklärenden Variablen von Akzeptanz erfolgen. Die Analyse orientiert sich dabei an der zweiten Teilfrage, wie die Einflussfaktoren (Informationsquellen und weitere Faktoren) auf die Akzeptanz der öffentlichen Verwaltung wirken. Das Kapitel 7 stellt die Ergebnisse und Wirkungsweisen der einzelnen Faktoren zunächst isoliert für jeden Faktor dar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-28376-6_7 42c2322a12c14a98c04e0c1d0a81af91;de;;;3.3.;;;Auf dem Weg zum vertrauten Vertrauensberater In einer zunehmend automatisierten und vernetzten Welt steht der Mensch durch die Einführung maschinenintensiver Kommunikation vor neuen Problemen. Die natürliche menschliche Fähigkeit, durch direkte zwischenmenschliche Kommunikation Vertrauen in andere Menschen einzuschätzen, aufzubauen und zu bewerten, wird erheblich beeinträchtigt, wenn Menschen allein mit Systemen interagieren. Die Entwicklung von Anwendungen, die auf Vertrauen angewiesen sind, wie der elektronische Handel, ist von dieser Tatsache maßgeblich betroffen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44875-6_9 d5d4e49d56560cdd0ef7e111e03d60b9;de;;;1.1.;;;Komplementär-alternativmedizinische Therapieverfahren bei psychischen ErkrankungenUnter dem Sammelbegriff komplementäre und alternative Medizin (CAM) wird eine Vielzahlunterschiedlicher Theorie- und Therapieansätze zusammengefasst, die auf die natürlichen Heil- und Abwehrkräfte der Natur aufbauen und nicht zur konventionellen, wissenschaftlich etablierten Medizin gerechnet werden. Viele Aspekte der CAM erfüllen das Bedürfnis der Patienten ganzheitlich in allen Facetten der Persönlichkeit wahrgenommen und behandelt zu werden. Zu den allgemein anerkannten Naturheilverfahren zählen Lichttherapie, Hydro- und Balneotherapie, Körper- und Bewegungstherapien sowie Entspannungsverfahren. Im Folgenden werden nach einer Übersicht über komplexe außereuropäische und europäische Systeme sowie die Phytotherapie mit Einzelsubstanzen und als einzelne Verfahren ob ihrer Bedeutung die Homöopathie, die Akupunktur, die traditionelle chinesische Medizin (TCM) und Ayurveda näher dargestellt;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-642-45028-0_52-1 147c814d3e89c4d2af7924f3441ff639;de;;;1.1.;;;Schlussbetrachtung: Die Autonomie der SoziologieDie Soziologie legt Wert auf ihre Autonomie. Sie hat ihren eigenen, unverwechselbaren Stil der Beschreibung sozialer Realität, sie bietet oft überraschende und verfremdende Perspektiven, die Alltagsgewissheiten „brechen“ und in ungewohnte Querbeleuchtung setzen. Sie ist nicht „käuflich“, sie identifiziert sich nicht vorschnell mit bestimmten Perspektiven oder Standpunkten, sondern ist immer offen für abweichende Sichtweisen und Verhaltensweisen, Gegenrealitäten und Gegenentwürfe.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-23104-0_5 3a90626fb8488df121b580199bb58f39;de;;;1.1.;;;Modell zur Berücksichtigung einer zukünftigen energetischen ModernisierungAusgehend von dem zuvor gezeigten Zusammenhang der Energieeffizienz und des Immobilienwertes wird innerhalb dieses Kapitels ein Bewertungsmodell für nachhaltige, i. S. energieeffiziente Immobilien entwickelt, das die zukünftige Entwicklung einer energetischen Modernisierung berücksichtigt. Die Ausführungen im vorherigen Kapitel haben gezeigt, dass sich das DCF-Verfahren, trotz der mangelnden Standardisierung, für die Integration der Nachhaltigkeitsaspekte in die Immobilienbewertung anbietet. Allerdings birgt dieses Verfahren, wie die folgenden Ausführungen zeigen, auch Schwächen bei der Bewertung zukünftiger Investition, weshalb nachfolgend das Potenzial einer zukünftigen Entwicklung mit dem Realoptionsansatz, der eine Erweiterung des DCF-Verfahrens darstellt, bewertet wird. Der ausführlichen Begründung der Wahl des Realoptionsansatzes ist die Beschreibung der Grundlagen zur Berücksichtigung der zukünftigen Entwicklung vorangestellt. Aufbauend hierauf wird ein Kausalmodell zur Berücksichtigung einer energetischen Modernisierung bei den Mieteinnahmen sowie dem Immobilienwert entwickelt. Der Vorstellung des Modells sowie einer Beispielrechnung ist eine Einführung des Realoptionsansatzes und dessen Anwendung im Immobilienbereich vorangestellt. Zunächst werden nachfolgend die Grundlagen der Berücksichtigung der zukünftigen Entwicklung „energetische Modernisierung“ erörtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-4533-4_5 cbd2b1e1aa5eac00877f40b33c52b256;de;;;1.1.;;;Entstehung, Entwicklung und Aufgaben der GesundheitswissenschaftenEs ist derzeit noch eine schwierige Aufgabe, das relevante Spektrum gesundheitswis-senschaftlicher Ansätze und Handlungsfelder in einem Beitrag darzustellen. Bereits der Plural im Namen Gesundheitswissenschaften macht deutlich, daß es sich um einen interdisziplinären Ansatz handelt, der das Wissen und die Methodik einer Vielzahl von Wissenschaftsdisziplinen zu integrieren sucht und sich mit einem entsprechend breiten thematischen Spektrum befaßt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-59988-0_2 9382f658a00f3510d9465ce3425568a8;de;;;1.1.;;;Kritik der Forschungslogik einiger empirisch orientierter macro-politischer AnsätzeDiese Arbeit versteht sich als ein Beitrag zur empirischen Politikforschung. Daher konzentrieren sich die folgenden Ausführungen zunächst auf eine immanente Kritik neuerer macro-politischer Ansätze, die in ihrem Selbstverständnis mehr oder weniger empirisch orientiert sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-88728-3_1 9260be49e9421acbb69c27cd1da40559;de;;;1.1.;;;Ikons als wahrnehmungsnahe ZeichenEs ist auf den ersten Blick erstaunlich, dass Eco und Goodman unabhängig voneinander zu einer weitgehend gleich lautenden Kritik der Ikonizität gelangt sind, obwohl sie mit der strukturalistischen Semiotik und der analytischen Philosophie so ganz verschiedenen Denktraditionen entstammen. Bei näherem Hinsehen stellt man aber fest, dass die Übereinstimmung im Gebiet der Ikonizitätstheorie mit gemeinsamen Grundannahmen einhergeht. Beide Autoren argumentieren ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-11775-9_3 3ad18bc9b18ae00c15fa4cbdfb66f1b0;de;;;1.1.;;;Implikationen für das Risikomanagement in Theorie und PraxisWie sich in der theoretischen Analyse im vierten Kapitel zeigte, ist die „reine“ Anwendung der Kapitalmarkttheorie und ausschließliche Berücksichtigung des systematischen Risikos nicht ausreichend, da in diesem Fall die sich aus den aufgezeigten Marktunvollkommenheiten ergebenden Wertlücken unberücksichtigt bleiben. Innerhalb der Marktimperfektionen zeigte die Analyse weiter, dass bei Banken vornehmlich die Insolvenz- und Financial Distress-Kosten eine besondere Relevanz aufweisen. Somit ist es konsequent, neben dem systematischen Risiko diese Kosten zu berücksichtigen und damit zusätzlich das Gesamtrisiko der Bank.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-9961-0_5 a3f4148ce9f72b6332c864c75f59b680;de;;;1.1.;;;Theoretische Konzepte zur Problematik der Aktionär-Manager-Beziehung in der KapitalgesellschaftAusgangspunkt für die Erfassung der Eigentümer-Manager-Beziehung in der Aktiengesellschaft bildet die 1932 von Berle und Means veröffentlichte Studie „The modern Corporation and Private Property“. Berle und Means machten darauf aufmerksam, dass es in der modernen Aktiengesellschaft, der Publikumsaktiengesellschaft mit breit gestreutem Kapital, zu einer Trennung von Eigentum und Leitungsmacht über die Aktivitäten der Gesellschaft;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-89794-7_2 ce197efc5130947b7338ef5c2fe165cd;de;;;3.3.;;;Lebenslanges automatisiertes Testen: Ein kollaboratives Framework zur Überprüfung von Industrieprodukten entlang ihres Lebenszyklus Da immer mehr Intelligenz und hochmoderne Anwendungen eingebettet sind, ist die Notwendigkeit einer genauen Validierung von Industrieprodukten von der frühen Konzeptionsphase bis zur kommerziellen Veröffentlichung von entscheidender Bedeutung. Wir stellen einen neuen Ansatz zur Automatisierung der Validierung kritischer und komplexer Systeme vor, bei dem Testabläufe zunächst sowohl aus der Modellierung des zu testenden Systems als auch der zu prüfenden Eigenschaften abgeleitet und dann entsprechend der Produktentwicklung einfach aktualisiert werden können oder die Nutzungsvoraussetzungen. Bewährt wird der Ansatz in der Validierung hochwertiger Sensorprototypen für die Automobilindustrie, die insbesondere veranschaulicht, wie betriebliche Fragestellungen im Zusammenhang mit dem unterschiedlichen Abstraktionsgrad zwischen textuellen Spezifikationen und effektiven Testroutinen gelöst werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22027-2_8 08d1ba9d90cf448e6d80c1852703cb47;de;;;3.3.;;;Bayesianisches Attractor-Modell mit schnellem/langsamem Pfad für IoT-Netzwerke basierend auf Software-Defined Networking mit Virtual Network Slicing Aus Energie- und Platzgründen ist die Verbindungskapazität in vielen Internet of Things (IoT)-Netzwerken gering, jedoch erzeugen viele IoT-Sensoren, wie beispielsweise hochauflösende Videokameras, riesige Datenmengen, die zu Staus führen können, es sei denn, die Verkehrstechnik ist angewandt. Die Mehrheit der bestehenden Methoden des Network Traffic Engineering erfordert jedoch Traffic-Matrix-Informationen, die in IoT-Netzwerken schwer abzuschätzen sind. Anstatt zu versuchen, die Verkehrsmatrix zu schätzen, identifizieren wir das Verkehrsmuster mithilfe von maschinellem Lernen basierend auf dem Bayes'schen Attraktormodell (BAM) zur Überwachung und Automatisierung von Verkehrstechnik in IoT-Netzwerken, die eine begrenzte Anzahl von Verkehrsmustern aufweisen. Wir schlagen vor, zwei BAMs parallel zu betreiben: ein Fast-Pathway-BAM für eine schnelle, aber niedrige Identifizierungssicherheit und ein Slow-Pathway-BAM für eine langsame, aber hochsichere Identifizierung. Wir zeigen, dass unser Framework eine schnelle und zuverlässige Identifizierung von Verkehrsmustern ermöglicht. Nach dem Identifizieren eines Verkehrsmusters wird eine Netzwerkkonfiguration angewendet, die für das identifizierte Muster durch Verkehrstechnik optimiert wurde, um die maximale Verbindungsauslastung zu minimieren. In der Verkehrstechnik wenden wir Virtual Network Slicing an, das für jeden IoT-Sensortyp ein unabhängiges logisches End-to-End-Netzwerk auf einer gemeinsam genutzten physischen Infrastruktur erstellt. Wir zeigen, dass virtuelles Network Slicing ein feinkörniges Traffic-Engineering in IoT-Netzwerken ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4976-6_6 17895a9bcf79dcc2fad627d334628b6f;de;;;3.3.;;;Software-Selbstanpassung durch künstliche Evolution Moderne verteilter Software-Systeme erreichen eine extrem hohe Komplexitätsstufen, die Komplexität der bekannten technischen Probleme bisher überschreitet. Besonders offene heterogene Multi-Agenten-Systeme, die möglicherweise verbreitet werden kann rund um den Globus, die Interaktion mit verschiedenen wechselnden Web-Services und Web-Technologien zu fordern ausgesetzt, dynamisch und sehr unberechenbar Umgebungen. Traditionelle Steuerbasis der Anpassungsfähigkeit der Handhabung nicht mehr geeignet sein kann, deshalb gibt es eine Tendenz unterschiedliche Anpassungsfähigkeit Modelle für die Erforschung von natürlichen / biologischen Phänomenen inspiriert. In diesem Artikel untersuchen wir Gesamtdesign eines adaptiven Softwaresystem auf einem einfachen Modell der künstlichen Evolution basiert. Wir schlagen vor, ein neues Paradigma für eine Theorie der Selbst Herstellung von selbst adaptiven Softwaresysteme basieren Komplexität in dynamischen Umgebungen Handhabung. Wir haben wesentliche Beweise zu glauben, dass ein Bottom-up-Ansatz, der auf der Eigenproduktion und Selbsterhaltung kann helfen, robustes und flexibleres selbstanpasseSoftwareSysteme zu bauen. Dieses Papier stellt den neuen Rahmen, bietet Analyse einiger Ergebnisse, Auswirkungen und zukünftige Forschungsrichtungen in Richtung auf eine vollständige und in sich geschlossene Theorie der evolvable und Selbst-anpassungsfähiger Software-Systeme.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24688-6_72 b81cb5180f07c60c9ee13754b1626501;de;;;1.1.;;;Erfahrungen aus dem Routineeinsatz des Datenbanklaborsystems LDV 2000Das Laborsystem LDV 2000 wird im Institut für Klinische Chemie und Laboratoriumsmedizin (Zentrallaboratorium) der Medizinischen Einrichtungen der Westfälischen Wilhelms-Universität Münster seit etwa 2 Jahren im Routinebetrieb eingesetzt. Im folgenden sollen die wesentlichen Merkmale des Systems dargestellt und über die Erfahrungen im Routinebetrieb berichtet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82852-2_82 28d30495a3a0a4d7b95fdcf264fde9e9;de;;;1.1.;;;Fremdenfeindliche Gewalttäter berichten: Interviews und Tests„Die haben wir überfallen, dann haben wir einen Türken zusammen geschlagen, und dann drei Jugoslawen und dann noch auf ’ner Party irgend so einen Typ, und dann das Auto zusammengeschlagen und dann ’nen Wachmann überfallen (…) Alles innerhalb von zwei Monaten (…) Sind wir ’rumgefahren und da war ein Platz, wo wir uns normalerweise getroffen haben. Und da war halt ein Türke, na ja, haben wir halt zusammen geschlagen (mit einem Eishokkeyschläger), ohne Grund halt. Weil er halt ein Türke war. War sein Pech. Zur falschen Zeit am falschen Ort“. Das Opfer hatte „Nasenbein- und Jochbeintrümmerfraktur und dann, ’nen Schädelbruch hat er noch gehabt (…) Bei der Tat waren wir zu viert (…) Alkohol, der hat mich halt mehr aggressiv gemacht, aufgeputscht. Und die Musik (…) Die aggressiven Texte, die peitschen ja noch mehr hoch“ (S. 1053f.).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-11372-0_3 b927cac34097313666f8661d69997a39;de;;;1.1.;;;Psychotherapeutische und psychosoziale Interventionen (Modul 4b)In diesem Kapitel werden die Empfehlungen für die psychotherapeutische und psychosoziale Behandlung der Schizophrenie dargestellt. Psychotherapie und psychosoziale Therapien sind neben der Pharmakotherapie wesentliche Aspekte bei der mehrdimensionalen und multiprofessionellen Behandlung von Menschen mit einer Schizophrenie. Im Folgenden werden zunächst psychotherapeutische Verfahren im Sinne einer systematischen Psychotherapie besprochen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-59380-6_6 f8f9772b92c25f86c0a5024ebc9158da;de;;;3.3.;;;Zur Vorhersage der Wartbarkeit für relationale datenbankgestützte Softwareanwendungen: Beweise von Software-Praktikern Die genaue Vorhersage der Wartbarkeit relationaler datenbankgesteuerter Softwareanwendungen kann das Projektmanagement für diese Anwendungen verbessern und somit Softwareorganisationen zugute kommen. Dieses Papier präsentiert einen aktuellen Überblick über den Stand der Praxis bei der Vorhersage der Wartbarkeit für relationale datenbankgesteuerte Softwareanwendungen. Zwölf halbstrukturierte Interviews wurden mit Softwareexperten geführt. Die Ergebnisse liefern sowohl einen Überblick über den aktuellen Stand der Praxis in diesem Bereich als auch eine Liste potenzieller Prädiktoren für die Wartbarkeit von relationalen datenbankgesteuerten Softwareanwendungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17578-7_12 6af5586a6b84955b6cef90a047119198;de;;;1.1.;;;Das theoretische Konzept zur Ausrichtung des UntersuchungsschwerpunktsIm Zuge der Bildungsexpansion der 1960er und 70er Jahre ist ein deutlicher Anstieg der Bildungsbeteiligungsquote insbesondere der Schulübergänge in die weiterführenden Schulen zu verzeichnen. Gleichzeitig hat die Bildungsforschung in verschiedenen Untersuchungen jedoch nachgewiesen, dass einem erheblichen Teil der Kinder der Weg in die weiterführenden Schulen verschlossen bleibt. Mit der Veröffentlichung der Pisa-Studien (Baumert 2001, 2006) ist die Debatte um die Chancengleichheit im Bildungssystem und die Struktur des Schulsystems neu aufgenommen worden. Während bislang Handlungsansätze häufig an einer Defizitperspektive von Merkmalen betroffener Schülerinnen und Schülern, ihrer familiären Umwelt und „Kultur“ ansetzen, rücken „(…) die internationalen Leistungsvergleiche die Notwendigkeit in den Blick, institutionelle Barrieren abzubauen, die dem Lernerfolg im Weg stehen“ (Gomolla 2004). Hinzu kommt der explizite Nachweis über die erheblichen sozialen Disparitäten bei der Bildungsbeteiligung in der gegliederten Sekundarstufe.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-93060-2_3 87654e2df7e3b0743334dc2e6f760cba;de;;;1.1.;;;Der Akteur: Konstruktion und Dekonstruktion einer BeobachtungskategorieDer Beitrag vertritt die These, dass akteurzentrierte und systemtheoretische Zugriffsweisen weniger in einem konkurrierenden als in einem komplementären Verhältnis zueinander stehen, da sie ihr soziologisches Seziermesser auf divergenten Untersuchungsebenen ansetzen. Vor diesem Hintergrund wird zunächst die Konstruktion der Beobachtungskategorie des „Akteurs“ im akteurzentrierten Institutionalismus beleuchtet, bevor die Dekonstruktion individueller und überindividueller Akteure als stabile Handlungseinheiten in der Theorie sozialer Systeme nachgezeichnet wird. Daran anknüpfend werden am Beispiel der durch die Onlinetechnologien angestoßenen Transformationsprozesse die jeweiligen Beobachtungsschwerpunkte und -lücken illustriert. Der Text mündet in einem Plädoyer für ein produktives Nebeneinander beider Perspektiven.;-;-;-;https://link.springer.com/article/10.1007/s11614-017-0277-3 1ae7b87fe58f7f6c685e6c6b432c663e;de;;;1.1.;;;Theoretische Erklärungsansätze zur den MarketingorientierungenDas folgende Kapitel erläutert Ansätze, die der Erklärung der drei Marketingorientierungen dienen und Erkenntnisse für die jeweiligen Determinanten generieren. Die unterschiedlichen Ebenen der Orientierungen lassen es notwendig erscheinen, in dieser Hinsicht verschiedene Fachrichtungen zu beleuchten. Für die Marketingorientierung Marke dienen mit der Dissonanzund Risikotheorie Ansätze, die bisher vor allem im Konsumgüterbereich eine Rolle spielen. Sie liefern jedoch auch für den Industriebereich Erkenntnisse. Die Marketingorientierung Beziehung führt zur Betrachtung sozialpsychologischer Theorien, die sich mit den Entstehungsfaktoren zwischenmenschlicher Beziehungen beschäftigen. Die dritte Orientierung der Leistungsqualität ist eng verknüpft mit der Thematik Zufriedenheit, so dass die Entstehung von Zufriedenheit als Erklärungsansatz dient.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-9419-6_3 bc5cea8a1074944cdc26b97ca58c037d;de;;;1.1.;;;Die Theorie des AnspruchsniveausDie Theorie des Anspruchsniveaus dient in erster Linie zur Erklärung des individuellen Leistungsverhaltens. Sie postuliert, dass die subjektive Beurteilung einer Leistung davon abhängt, in welchem Verhältnis die Leistung zum Anspruchsniveau an die Leistung steht. Das Anspruchsniveau ist demnach ein Referenzpunkt, anhand dessen eine Leistung beurteilt wird. Die Beurteilung einer Leistung wiederum ist ein Einflussfaktor der Entscheidung, eine Handlung fortzuführen oder abzubrechen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-7041-1_3 61d9515e3fdd44c0d6a2c352288c51c4;de;;;3.3.;;;Prädiktiver Modellprototyp zur Diagnose von Brustkrebs mit Big-Data-Technologie Big Data ist die Sammlung von Tausenden von Datensätzen aus verschiedenen Anwendungsquellen wie Social Media, Banking, Vertrieb, Marketing usw. In allen Bereichen werden Big Data-Technologien zur Analyse, Vorverarbeitung, Speicherung und Generierung neuer Muster zum Nutzen von die Organisation. Die Ära der Big-Data-Technologie boomt heute [;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0694-9_43 66616e4f73977ec577650e230a8766f1;de;;;3.3.;;;Definition von Sicherheitsanforderungselementen und deren Prozess zum Sicherheits- und Fortschrittsmanagement Dieses Papier schlägt die Entwicklung von Sicherheitsanforderungselementen und deren Prozess des Profils und des Sicherheitsziels vor (ISO/IEC 15408). In diesem Papier werden die Sicherheitsanforderungselemente und das Fortschrittsmanagement geschätzt, die die Sicherheitsanforderungen und den Fortschritt und seine Probleme verwalten. Bei Projekten in ähnlichen Domänen ist es möglich, Sicherheitsrisikoelemente zu entfernen und den Fortschritt mithilfe von Sicherheitslebenszyklus und Fortschrittsmeilenstein zu verwalten, was den Softwareprozess erheblich verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-37256-1_139 cc2599db256c570e622070a3c426c0fe;de;;;1.1.;;;Konzeptioneller Bezugsrahmen der UntersuchungNach der Erörterung der Grundlagen der Untersuchung und der Vorstellung der Auswertung relevanter Forschungsarbeiten, widmet sich dieses Kapitel dem konzeptionellen Bezugsrahmen. Der konzeptionelle Bezugsrahmen stellt die theoretische Basis der vorliegenden empirischen Untersuchung dar und zeigt die verwendeten Quellen auf, die zur Ableitung der postulierten Zusammenhänge genutzt werden. Tabelle 27 ordnet das dritte Kapitel in die Untersuchung ein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-23448-5_3 1ca5899a0ca16e39863df7531ce45a73;de;;;1.1.;;;Theoriebezüge der Studie und Forschungsstand zum SchülerhabitusDieses Kapitel fasst erstens die grundlegenden theoretischen Bestimmungen der Studie, also die theoretische Heuristik, zusammen. Im Mittelpunkt stehen Annahmen zum (Schüler-)Habitus, zur Transformation bzw. Reproduktion des Habitus sowie adoleszenztheoretische Bestimmungen zur Bedeutung von Jugend als transformatorischer Lebensphase. Zweitens erfolgt ein Überblick über den nationalen und internationalen Forschungsstand zu exklusiven Schulen und ihrer Schülerschaft und deren zentralen Erkenntnissen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-30049-4_2 ffc9a093e97e58753f8e7ee62dc56ecd;de;;;3.3.;;;Einführung eines änderungsresistenten Frameworks für die Entwicklung und Bereitstellung von sich entwickelnden Anwendungen Softwareentwicklung ist eine forschungs- und entwicklungsintensive Tätigkeit, die von menschlicher Kreativität und Skaleneffekten dominiert wird. Die aktuellen Bemühungen konzentrieren sich auf Design Patterns, wiederverwendbare Komponenten und Forward-Engineering-Mechanismen als die richtige nächste Stufe, um den gordischen Knoten der Software zu durchbrechen. Modellgetriebene Entwicklung verbessert die Produktivität durch Einführung formaler Modelle, die von Computern verstanden werden können. Durch diese Modelle werden auch die Probleme der Portabilität, Interoperabilität, Wartung und Dokumentation erfolgreich adressiert. Das im Kontext von Geschäftsanwendungen stärker aufkommende Problem der sich wandelnden Anforderungen erfordert jedoch zusätzlich effiziente Mechanismen, die die Konsistenz zwischen Modell und Code sicherstellen und eine nahtlose und schnelle Anpassung an Änderungen ermöglichen, ohne den Betrieb der eingesetzten Anwendung gravierend zu unterbrechen . In diesem Whitepaper wird ein Framework vorgestellt, das die schnelle Entwicklung und Bereitstellung von sich entwickelnden webbasierten Anwendungen basierend auf einem integrierten Datenbankschema unterstützt. Das vorgeschlagene Framework kann als Erweiterung der Model Driven Architecture betrachtet werden, die auf eine bestimmte Anwendungsfamilie abzielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-70621-2_24 72e1e882a8d2aa1dbff1ce0bfa1f54e4;de;;;1.1.;;;Theorie Sozialer Arbeit aneignen oder lernen?Das vorige Kapitel sollte nicht die skeptische Haltung schüren, Theorie Sozialer Arbeit sei an sich überflüssig und die Beschäftigung mit Theorie Sozialer Arbeit Zeitverschwendung. Ganz im Gegenteil gehen die AutorInnen der vorliegenden Veröffentlichung davon aus, dass Theorie Sozialer Arbeit essentielles Wissen liefert, das für die Soziale Arbeit unverzichtbar ist. Hat man kein solches Wissen, kann man das eigene Handeln nur als Folge von Versuchen und sich daraus ergebenden Irrtümern anlegen. Erst das objektivierte Wissen, das in Theorie zu finden ist, erlaubt abgesicherte und einordenbare Handlungen. Anzumerken war freilich im vorigen Kapitel, dass nicht in allen Veröffentlichungen oder Äußerungen zur Sozialen Arbeit solch abgesichertes Wissen zu finden ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-09714-1_2 0a7c56f34eaa74c28d43ec0f47e9d5de;de;;;1.1.;;;Strategiewahl und PersönlichkeitIn diesem Kapitel „Strategiewahl und Persönlichkeit“ wird schließlich das dritte Risiko diskutiert, das sich bei der Verfolgung des strategischen Konzeptes von Porter im Einzelhandel ergeben und das in der Unternehmensführung verwurzelt sein kann. Porter (1997, S.70) vertritt die Ansicht, daß die beiden Strategiealternativen nur dann konsequent und erfolgreich umgesetzt werden können, wenn sie zu dem Führungsstil und zu der Kultur des Unternehmens passen. Folglich würden die beiden Wettbewerbsstrategien unterschiedliche Managerqualitäten beanspruchen, was bedeutete, daß eine Strategie nur dann mit aller Kraft und erfolgreich durchgeführt werden könnte, wenn sie im Einklang mit der Persönlichkeit des verantwortlichen Managers bzw. mit dem Unternehmensleitbild steht. Diese These soll im folgenden erörtert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-09134-9_5 5c38380372505081c9bcdfacd0c2a794;de;;;1.1.;;;Psychologische Grundlagen des KonsumentenverhaltensWir alle sind Konsumenten und jeder hat bereits einmal einen Liter Milch oder ein Pfund Brot gekauft, eine Versicherung abgeschlossen oder ein Bankkonto eröffnet, ärztlichen Rat eingeholt oder eine Wohnung gemietet, einen Kindergartenplatz in Anspruch genommen oder eine Ferienreise gebucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87571-0_3 6c78ceefb2b730b9ee62d6468d5f601b;de;;;1.1.;;;Klinische GanganalyseDie klinische Ganganalyse verfügt heute über ein gut definiertes Repertoire von unterschiedlich aufwendigen validen und reliablen Untersuchungstechniken, die allesamt durch die rasante Rechner- und Softwareentwicklung rascher auswertbar und somit auch für den gezielten klinischen Gebrauch besser handhabbar sind. Die Fragestellung der Untersuchung definiert den Einsatz der jeweiligen Methoden. Die klinische Ganganalyse kann uns als diagnostisches Instrument Einblicke in die Pathobiomechanik bzw. Pathophysiologie komplexer Gangstörungen geben, deren Verständnis Voraussetzung für die funktionsgerechte Therapiewahl ist. Bei Fragen des Funktionsscreenings nach rekonstruktiven Eingriffen im Sinne der Qualitätskontrolle, zur Festlegung eines Schweregrades einer Funktionsstörung, zum objektiven Vergleich konkurrierender therapeutischer Verfahren, zur Überprüfung eines Rehabilitationserfolges, aber auch zur quantitativen Überprüfung des Effekts von Orthesen, Einlagen und Schuhwerk können einfache ganganalytische Untersuchungen mit standardisiertem Parametersatz für Aussagen genügen, für die kein weiteres klinisches Diagnostikverfahren zur Verfügung steht und die sich in ein klinisches Gesamtkonzept einfügen. ;-;-;-;https://link.springer.com/article/10.1007/s00113-005-0978-0 f2d487dd94916879f39a48393444781c;de;;;1.1.;;;Empirische Ergebnisse zur Erklärung des GründungserfolgsIm vorhergehenden Kapitel konnte gezeigt werden, dass das Gründungsgeschehen über die drei untersuchten Regionen und Zeiten eine beachtliche Konstanz aufweist. Bestehende Abweichungen erklären sich oftmals aus den spezifischen Kontexten der jeweiligen Untersuchungen. Der Vergleich mit neueren Erhebungen deutet zudem bei einigen Charakteristika auf kontinuierliche Entwicklungen in der Zeit hin. In diesem Kapitel wird es um die Frage gehen, ob sich ähnliche Parallelen auch für die Erklärung des Gründungserfolgs finden lassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-19098-3_5 a7157a6fc3ab5e417a09845bb577f6b3;de;;;1.1.;;;Langzeitbehandlung schizophrener Erkrankungen: Konzept, Methoden, StrategienMit der Bezeichnung „Gruppe der Schizophrenien“ hat Bleuler (1911) auf die Heterogenität schizophrener Krankheitsbilder und Verläufe aufmerksam gemacht — in Abgrenzung gegenüber Kraepelin (1919), für den ein defektuöser Verlauf der „Dementia praecox“ gegeben war. Verlaufsergebnisse jahrzehntelanger Katamnesen zeigen (Bleuler et al. 1976, McGlashan 1991), daß der Verlaufsausgang schizophrener Psychosen zwar schlechter als der affektiver Psychosen, aber durchaus variabel ist. Dabei nehmen schizoaffektive Psychosen eine gewisse Mittelstellung ein. Diese Variabilität, die sowohl auf eine ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-6471-6_25 b6f0e3386a069a08d08ea593db123443;de;;;1.1.;;;Rechtspolitische InstitutionenanalyseIn unserer heutigen Welt und unter dem Einfluß demokratischer Ideen glaubt man nicht mehr an die Altehrwürdigkeit des Rechts und hält die Tradition nicht mehr für eine hinreichende Rechtfertigung gesellschaftlicher Einrichtungen. Man ist im Gegenteil davon überzeugt, daß der Mensch seine politische Welt gestalten und umgestalten kann, und daß die rechtlichen Bestimmungen und die gesellschaftlichen Institutionen kritisch geprüft und aufgrund von funktionalen und wertenden Analysen gerechtfertigt werden müssen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-14415-1_13 d48fe80bb6cbdc3c23c5e594cc2a0e48;de;;;3.3.;;;Adaptive dynamische Frequenzskalierung für temperaturempfindliche 3D-Mehrkernprozessoren Die 3D-Integrationstechnologie kann bei der Entwicklung von Mehrkernprozessoren erhebliche Vorteile durch eine reduzierte Verbindungsverzögerung und einen geringen Stromverbrauch bieten. Die 3D-Integrationstechnologie vergrößert jedoch die thermischen Herausforderungen bei Mehrkernprozessoren aufgrund der hohen Leistungsdichte, die durch das vertikale Stapeln mehrerer Schichten verursacht wird. Aus diesem Grund kann die 3D-Multi-Core-Architektur ohne geeignete Lösungen für die thermischen Probleme wie Dynamic Frequency Scaling (DFS) nicht praktikabel sein. In diesem Beitrag wird untersucht, wie die DFS die thermischen Probleme in 3D-Multi-Core-Prozessoren aus Sicht der Funktionseinheiten-Ebene handhabt. Wir schlagen auch eine adaptive DFS-Technik vor, um die thermischen Probleme in 3D-Mehrkernprozessoren zu mildern, indem wir jedem Kern basierend auf der entsprechenden Kühleffizienz unterschiedliche DFS-Stufen zuweisen. Experimentelle Ergebnisse zeigen, dass die vorgeschlagene adaptive DFS-Technik die Spitzentemperatur von 3D-Multi-Core-Prozessoren im Vergleich zur herkömmlichen DFS-Technik um bis zu 10,35 °C reduziert, was zu einer verbesserten Zuverlässigkeit führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31128-4_44 c0cf2eb0a4ee23a52f309b43dfe5fa78;de;;;3.3.;;;Design eines Pattern-Clusters mit zweistufigem Pipelined Systolic Array Die Clusteranalyse ist ein wertvolles Werkzeug in der explorativen Musteranalyse, insbesondere wenn nur sehr wenige Vorinformationen über die Daten verfügbar sind. Bei unüberwachten Mustererkennungs- und Bildsegmentierungsanwendungen spielen Clustering-Techniken eine wichtige Rolle. Die Clustering-Technik mit quadratischem Fehler ist die beliebteste Clustering-Technik. Aufgrund der iterativen Natur des Squared-Error-Clustering erfordert es selbst für eine bescheidene Anzahl von Mustern erhebliche CPU-Zeit. Jüngste Fortschritte in der mikroelektronischen VLSI-Technologie lösten die Idee aus, das Squared-Error-Clustering direkt in Hardware zu implementieren. In diesem Kapitel wird ein zweistufiges Pipeline-Clustering-Array mit systolischen Mustern vorgeschlagen. Die Speicher- und Zugriffsschemata sind so ausgelegt, dass sie einen rhythmischen Datenfluss zwischen Verarbeitungseinheiten ermöglichen. Jede Verarbeitungseinheit ist mit einer Pipeline verbunden, um die Systemleistung weiter zu verbessern. Die Gesamtverarbeitungszeit für jeden Durchlauf der Musterkennzeichnung und Clusterzentrumsaktualisierung wird im Wesentlichen von der Zeit dominiert, die zum einmaligen Abrufen der Mustermatrix erforderlich ist. Detaillierte Architekturkonfiguration und die Bewertung der Systemleistung werden vorgestellt. Die Modularität und Regelmäßigkeit der Systemarchitektur machen sie für die VLSI-Implementierung geeignet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-47523-8_5 a59df49209071e212731fd3d587e8a6b;de;;;3.3.;;;ADL- und Hochleistungsprozessordesign Die Architekturbeschreibungssprache (ADL) kann viele computerbezogene Probleme modellieren und wird häufig im Software- und Hardwaredesign verwendet. Wenn es im Prozessordesign verwendet wird, verwenden viele Institute und Unternehmen ADL als Prozessor-Schnellprototyp-Designsprache und verwenden es, um Prozessorsimulatoren, Testbenches und Compiler-Dienstprogramme zu generieren. Dieses Papier analysiert und vergleicht drei Prozessorbeschreibungssprachen. Wir geben auch die Nachteile moderner ADL beim Einsatz im Hochleistungsprozessordesign an und geben einige Anregungen für die weitere Entwicklung von ADL.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35898-2_8 0082a0a5b3be19a1018183bb66795c33;de;;;3.3.;;;Intelligentes Verkehrsmanagement in Notfallsituationen In diesem Papier werden verschiedene Herausforderungen beschrieben, denen Rettungsfahrzeuge wie Krankenwagen und Feuerwehrwagen in stark frequentierten Zonen und beim Management der Stoßzeiten gegenüberstehen. Jüngste Studien haben gezeigt, dass in diesen stark frequentierten Regionen wie Stadtentwicklungsgebieten die Sterblichkeitsrate durch Zeitverluste erhöht ist. Indien ist ein wachsendes Land und erfordert Aufmerksamkeit für das Verkehrsmanagement, das in vielen anderen entwickelten Ländern ein dringendes Problem darstellt. Um diese Verluste zu reduzieren, haben Forscher die Installation eines intelligenten Verkehrsmanagementsystems vorgeschlagen, das den Fluss dieser Rettungsfahrzeuge in stark frequentierten Bereichen erleichtern könnte. In diesem Papier haben wir eine neuartige Methodik vorgestellt, die Hilfestellung bei freiem Verkehr auf einem von Rettungswagen zugewiesenen Weg bieten könnte. Es werden auch zusätzliche Eigenschaften eingeführt, die die Bewegung durch wenige öffentliche Bereiche wie Mautstellen erleichtern könnten. Weitere Modifikationen können vorgenommen werden, damit wir das Gerät in einer Echtzeitumgebung bereitstellen können. Wir können es sogar in mobilen Geräten implementieren, um die Wartung der Ausrüstung zu reduzieren. Wir werden die obigen Ideen anhand eines Schaltungsmodells bewerten, das Arduino-Gerätekomponenten, Bluetooth-orientierte Schaltungskomponenten und lichtbezogene Schaltungskomponenten umfasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7511-2_49 009062ea24a22ba15134f6eddf19a74e;de;;;3.3.;;;Eine aspektorientierte komponentenbasierte modellgetriebene Entwicklung Dieses Papier konzentriert sich auf die Einbeziehung der Konzepte der Aspekte und der Wiederverwendung von Software in die modellgetriebene Architekturarbeit, um die hochzuverlässigen, anpassungsfähigen Softwareprodukte zeitnah zu entwickeln. Dies wird erreicht, indem das gesamte System in verschiedene unabhängige Komponenten und Aspekte unterteilt wird, um die Wiederverwendung der Komponenten zusammen mit der Einfachheit der getrennten Modellierung der Komponenten zu erleichtern und die Bedenken hervorzuheben, die das weit verbreitete OOP-Paradigma nicht berücksichtigt hat. Es wird auch unterstützt, mehr Wert auf das Design der Software zu legen, als auf die traditionelle Art, mehr Wert auf die Codierung als auf die Modellierung zu legen. Die Identifizierung wiederverwendbarer Komponenten erfolgt nach der hybriden Methodik und die Aspekte werden von den Domänenexperten identifiziert. Zusammen mit den Komponenten werden das PIM und die entwickelten Aspekte in separaten Repositories gespeichert, um bei der Entwicklung anderer Software mit ähnlichen Anforderungen und Grundstruktur verwendet zu werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22203-0_44 feefa9cae04f7ca2e1abfd5936d6cf38;de;;;3.3.;;;Steuerelementeigenschaften in objektorientierten Spezifikationen Verifikation und Validierung werden aufgrund der stärkeren Notwendigkeit, die Qualität zu sichern und zu verbessern, zu den wichtigsten Aktivitäten im Software-Engineering. Die Systemdesigner müssen die Übereinstimmung der Modelle mit den Funktionalitäten eines Zielsystems sowie die Korrektheit, Sicherheit und Zuverlässigkeit seiner Betriebszyklen sicherstellen. Viele formale Methoden wurden gefördert, um solche Aufgaben zu unterstützen, und der Petrinetz-Formalismus scheint eine der relevantesten Methoden zur Bewertung von Kontrolleigenschaften zu sein. Es fehlt jedoch an Strukturierungseinrichtungen, um die Handhabung großer Systeme zu ermöglichen. Ziel dieser Arbeit ist es zu zeigen, dass Petrinetze für einige Leitlinien in übliche objektorientierte Softwaremethoden integriert werden können, um solche Eigenschaften zu bewerten. Daher kann man von Beiträgen sowohl von Objekten als auch von Netzen profitieren, um die Qualität in Systemen zufriedenstellender zu handhaben.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45397-0_22 a2367983fe4b423d9c7d2796c8db94eb;de;;;3.3.;;;Sprachengineering mit MPS lehren An Universitäten wird der Umgang mit Computersprachen meist mit dem Schwerpunkt Compilertheorie gelehrt. In praktischen Anwendungen sind jedoch domänenspezifische Sprachen (DSLs) viel wichtiger. DSLs implementieren modellgetriebene Technologie auf verständliche Weise, da Modelle mit DSLs einfach ausgedrückt werden können. Eine interessante Domäne für DSLs in diesem Zusammenhang ist die Sprachbehandlung selbst, und viele aktuelle Tools für die Sprachbehandlung sind modellgetrieben und basieren auf Metamodellen. Dieses Kapitel verbindet Compilertheorie und Metamodellierung innerhalb eines Universitätskurses zum Umgang mit Sprachen. Der Kurs vermittelt die relevante Theorie und verwendet MPS als praktisches Werkzeug. Wir zeigen, wie MPS im Kurs eingesetzt wird und diskutieren die Eignung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-73758-0_11 9ec65d064a25139fd3fd71024b62d18a;de;;;1.1.;;;Zusammenhänge zwischen den Parametern und den WirkungenMit der Identifikation der neun (Gestaltungs-)Parameter von Investitionskontrollen im Kapitel 3 wurde die erste Säule für eine kausal ausgerichtete, verhaltensorientierte Realtheorie der Investitionskontrolle geschaffen. Die im zurückliegenden Kapitel 5 erfolgte Identifikation von 30 potenziellen direkten Wirkungen einer Investitionskontrolle auf die Basischarakteristika des Kontrollierten und des Kontrolleurs stellt die zweite erforderliche Säule dar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-9446-8_6 79d19ce3597a6f3468ca185967bf01d2;de;;;3.3.;;;In Bearbeitung Homogene objektbindende Struktur für präferenzzonenbasierte Entscheidungsfindung Dieser Beitrag führt in die Erforschung von Entscheidungsunterstützungsmethoden für das Software-Engineering ein. Temperaturregelung zur Sicherstellung der Kühlkette, Auslösung gruppierter Wartungsaufgaben, sensorgestütztes Befüllen und Aussortieren von Flaschen, Schneiden, Positionieren, Montieren und Einsortieren im Hochregallager sind typische Beispiele für Steuerungsentscheidungen in Fabriken. Durch die günstige technologische Innovationsrate stehen in hochkomplexen Maschinenfabriken immense Mengen an Sensoren und Aktoren zur Verfügung. Moderne Produktions- und Qualitätsoptimierung beinhaltet komplexe kooperative, nicht kontextbezogene Steuerbefehle. Um die Energieeffizienz bestehender Steuerungs- und Logistiksysteme zu verbessern und Kontext für neue komplexe Software-Engineering-Lösungen bereitzustellen, sind Struktur, Objekte und umfassende und komprimierte Parameterauswertungen erforderlich. Um die Robustheit und Qualität von Logistiklösungen zu verbessern, haben wir die Idee einer homogenen Objektbindungsstruktur für eine objektzonenbasierte Präferenz entwickelt. Preference integriert Echtzeit-Entscheidungszonen, Energiezonen und einen zonenkomprimierten Anwendungsgradienten zur Selbstorganisation von Sensor-Aktor-Aufgaben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11854-3_36 430dbd7ddd905ffcc0d54a53d8dcdde9;de;;;3.3.;;;Absichten und Upgrades in komponentenbasierten Hochsicherheitssystemen Dieses Kapitel befasst sich mit Herausforderungen für die modellgetriebene Entwicklung eingebetteter Systeme in der industriellen Praxis. Diese wurzeln in der Notwendigkeit einer flexiblen Entwicklung neuer Funktionalitäten zu geringen Entwicklungskosten. Wenn eine Zuverlässigkeitsanforderung hinzugefügt wird, z.B. Unterstützung bei der Sicherstellung von Sicherheitsanforderungen, dann Funktionserweiterungen durch Einstecken einer neuen Komponente oder Modifizieren einer bestehenden Komponente, ohne umfangreiche Sicherheits- und Fehlertoleranztests, ist heute weit von der industriellen Praxis entfernt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-28554-7_13 098fa4a59365d64e7218f300bcfdd2a7;de;;;1.1.;;;Das Optimieren von Neuronalen Netzen für den Einsatz zur Prognose in der ÖkonomieAus der Konstellation--sehr viele Parameter, wenige Pattern--resultiert das Problem des “Overlearning”. Die dadurch entstehenden negativen Auswirkungen können jedoch mit Netzwerk-Komplexitätsreduktionen begrenzt werden. Hier stehen verschiedene Methoden zur Auswahl. Eine Untergruppe der Methoden diktiert Architektur-Veränderungen basierend auf Testvariablen, die nach Trainings-Konvergenz errechnet werden. Eine andere Methode beinhaltet die Ergänzung der zu optimierenden Zielfunktion um komplexitätshemmende Penalty-Terme. Stopp-Training bricht den Trainingvorgang ab, wenn der Fehler basierend auf einer Untermenge der Trainingspattern zunimmt. Es kann gezeigt werden, daß die Trainingsperformance signifikant erhöht werden kann, indem Stopp-Training um dynamische Topologie-Veränderungen und modifizierte Komplexitäts-Penalty-Terme ergänzt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-46948-0_9 65ec8bb0eb57ce379d75d5254356b88c;de;;;1.1.;;;Das KonsumentenverhaltenAngesichts der dem Marketing eigenen Ausrichtung der Unternehmensaktivitäten auf den Absatzmarkt überrascht es nicht, daß das Kaufverhalten von Konsumenten starkes Interesse bei Marketingforschung und -praxis gefunden hat. Eine Auswertung der in den ersten vierzig Jahrgängen des Journal of Marketing (1936–1976) veröffentlichten Artikel zeigte für den Anteil der dem Käuferverhalten gewidmeten Themen eine deutliche Steigerung seit Beginn der 60er Jahre (vgl. Grether 1976). Eine neuere wesentlich breiter angelegte Untersuchung von Helgeson/Kluge/Mager/Taylor (1984) bestätigte diesen Trend.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-82539-1_9 c36e547cdeae3044d6c74cf9a08e35a0;de;;;1.1.;;;Der Konstruktivismus als Ansatz der Globalen Politischen Ökonomie?Die aktuelle Finanzkrise zeigt, dass sich die Dynamiken globaler Finanzmärkte nicht aus dem Blickwinkel individueller Rationalität adäquat rekonstruieren lassen. Vielmehr stellen sich Fragen nach den konstitutiven Regeln und der Strukturprägekraft von Diskursen. Dieser Befund führt zu einem Politikbegriff, der diese Grenzziehungen, internen Dynamiken und Verbindungen, sowie die Sozialität und intersubjektiven Prozesse globaler Finanzmärkte in den Blick nehmen können muss. An dieser Stelle bietet sich der Konstruktivismus an. Ausgehend von dem Problem einer semantischen Kopplung von Sozialität und Politik diskutiert dieser Beitrag die Konturen einer konstruktivistischen GPÖ.;-;-;-;https://link.springer.com/article/10.1007/s12399-013-0368-6 09fb522548fdb384960352cfb032589a;de;;;1.1.;;;Theoretische Grundlagen zur Bildung eines Modells über die Zufriedenheit am Point of SaleNachdem im vorherigen Kapitel die Ausgangssituation für eine Untersuchung von Markenerlebniswelten am PoS dargestellt wurde, erläutert dieses Kapitel die theoretischen Grundlagen der Untersuchung. Das weite Feld der Untersuchungsmöglichkeiten von Markenerlebniswelten am PoS wird für die vorliegende Arbeit auf das Thema der Verkaufsraumatmosphäre begrenzt, um zu erfahren, inwiefern sich diese in der Kundenzufriedenheit und dem daraus resultierenden Verhalten niederschlägt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-91576-0_3 030bac89551ad485cab96611a946094e;de;;;3.3.;;;Privates Händeschütteln Beim privaten Handshaking können Benutzerpaare feststellen, zu welchen (geheimen) Gruppen sie beide gehören. Die Gruppenmitgliedschaft wird für alle anderen geheim gehalten. Privates Handshaking ist eine privatere Form des geheimen Handshakings [BRS+03], da es dem Gruppenadministrator nicht erlaubt, Benutzer zu verfolgen. Wir erweitern die ursprüngliche Definition eines Handshake-Protokolls, um die Mitgliedschaft in mehreren Gruppen gleichzeitig zuzulassen und zu testen. Wir präsentieren einfache und effiziente Protokolle sowohl für den Einzelgruppen- als auch den Mehrfachgruppen-Zugehörigkeitsfall.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73275-4_3 72bb311df06c914558860df6c20f33e2;de;;;3.3.;;;Analyse und Vergleich der Wireless Standards IEEE 802.15.4 und 802.15.6 basierend auf MAC Layer IEEE 802.15.4 und IEEE 802.15.6 sind zwei Arten von Wireless-Area-Network-Standards für Nahbereichskommunikationsanwendungen. IEEE 802.15.4 wird für Wireless Person Area Network (WPAN) vorgeschlagen, das Anwendungen mit niedriger Datenrate, geringem Stromverbrauch und geringen Kosten in kurzer Reichweite bietet. Inzwischen ist IEEE 802.15.6 der erste internationale Standard für Wireless Body Area Network (WBAN), der Knoten auf oder in einem menschlichen Körper verteilt, auch mit geringer Leistung und kurzer Reichweite arbeitet, hauptsächlich Echtzeitüberwachung und menschliche physiologische Daten zur Beurteilung bietet der physiologische Zustand des Menschen. Angesichts vieler Ähnlichkeiten in beiden Standards haben wir in diesem Papier die beiden Standards hauptsächlich aus dem MAC-Rahmenformat, den MAC-Zugriffsmechanismen, analysiert. Darüber hinaus wurden einige Diskussionen über die Unterschiede der Anwendungen in den beiden Standards erläutert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19156-0_2 500e2c3da51e7293d9102e3053079120;de;;;3.3.;;;Eine Studie zu den Auswirkungen der Virtualisierung auf mobile Lernanwendungen in der Private Cloud Echtzeit-Kommunikationsanwendungen, einschließlich mobiler Lernanwendungen, können mit anderen Softwareanwendungen in einer Plattform integriert und in privaten Clouds bereitgestellt werden, um die Investitionsausgaben und die Gesamtkosten für die tägliche Wartung und den für Computerhardware erforderlichen Immobilienbedarf zu senken. Als kritische Komponente privater Clouds kann die Virtualisierung eine Echtzeit-Kommunikationsanwendung, die in virtuellen Maschinen ausgeführt wird, nachteilig beeinflussen, da die Virtualisierungsschicht auf dem physischen Server den System-Overhead erhöht und zum Kapazitätsverlust beiträgt. Die Virtualisierung auf Mobilgeräten kann dazu führen, dass Hardware mit weniger Speicher und weniger Chips ausgeführt wird, wodurch Kosten gesenkt und auch die Energieeffizienz erhöht wird. Es hilft auch bei der Bewältigung von Sicherheitsherausforderungen und reduziert die Kosten für Softwareentwicklung und Portierung. In dieser Studie wird untersucht, wie eine effektive Lernumgebung sowohl für die Universität als auch für die Lernenden geschaffen werden kann, indem Virtualisierung, private Cloud-Technologie und mobile Lernanwendungen integriert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23207-2_17 e61cb08e75b03aec2a43a47799c4c157;de;;;1.1.;;;Messung innerer MarkenbilderInnere Bilder (Imagery) sind mehrdimensionale und multimodale Repräsentationen, die aufgrund ihrer hohen Verhaltenswirksamkeit die Stärke und Qualität von Markenwerten prägen. Für die Markensteuerung stellt sich daher die Frage nach ihrer Messung. In diesem Beitrag werden Eigenschaften und Bedeutung von inneren Bildern dargelegt und sodann Möglichkeiten zur Messung der diversen Aspekte von Imagery aus mehreren Perspektiven vorgestellt und eingeordnet. Es zeigt sich, dass die Zugänge vielfältig sind, in weiten Teilen anspruchsvolle Umsetzungen erfordern und am besten, abhängig vom Untersuchungsfokus, sinnvoll kombiniert angewendet werden sollten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-13342-9_56 3b0ff30a6ebfca0f1af3002850ebb5b4;de;;;1.1.;;;Vorstellungen als Phänomen und als theoretisches KonstruktDie Berücksichtigung von und der Umgang mit „Vorstellungen“ war in der kurzen Zeit der knapp hundertjährigen Geschichte der experimentellen Psychologie großen Schwankungen unterworfen. Sie wurden schon als die zentralen Prozesse oder Bausteine menschlicher Denkvorgänge oder Denkleistungen beschrieben. Auf der anderen Seite sind Vorstellungen beim Beschreiben dessen, was die grundlegende Verantwortung für menschliches Denken übernimmt, auch schon als „irrelevant“ bezeichnet und ausgeklammert oder überhaupt nicht thematisiert worden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-74182-1_2 28f1df95cfdc30d78cd84ace9553ce2e;de;;;3.3.;;;Zeitliche multivariate Netzwerke Im Laufe der Zeit gewachsene Netzwerke oder dynamische Graphen sind seit vielen Jahren für die Bereiche Informationsvisualisierung und Graphenzeichnung von Interesse. Normalerweise entwickelt sich die Struktur des dynamischen Graphen, wenn Scheitelpunkte und Kanten hinzugefügt oder aus dem Graph entfernt werden. In einem multivariaten Szenario spielen jedoch Attribute eine wichtige Rolle und können sich auch im Laufe der Zeit weiterentwickeln. In diesem Kapitel charakterisieren und untersuchen wir Methoden zur Visualisierung von temporalen multivariaten Netzwerken. Wir untersuchen auch zukünftige Anwendungen und Richtungen für diesen aufstrebenden Bereich in den Bereichen Informationsvisualisierung und Diagrammzeichnung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06793-3_8 b4bec0db4f1573330803ab632d872667;de;;;1.1.;;;Auswirkungen von Analogiemodellen auf den Aufbau konzeptuellen Wissens im Sachunterricht der Grundschule – Beispiel StromkreisNaturwissenschaftlicher Unterricht bedarf vielfach konkreter Anschauungsmittel, weil Lerninhalte abstrakt und/oder aufgrund spezifischer Merkmale nicht direkt erfahrbar sind. Durch Analogiemodelle können solche Konkretisierungen erreicht werden. In der vorliegenden Studie wurde mit einem quasi-experimentellen Prä‑, Post- und Follow-up-Design untersucht, inwiefern bei Schülerinnen und Schülern der dritten Jahrgangsstufe (;-;-;-;https://link.springer.com/article/10.1007/s42010-020-00077-5 70b76ba5a673ecc96f63e1dd4dd0acca;de;;;1.1.;;;Journalistische Selektionskriterien und Selektionsentscheidungen. Methodische Implikationen für die Anwendung einer Wert-ErwartungstheorieDass der Rational-Choice-Ansatz in der Journalismusforschung bislang eher zögerlich aufgegriffen wurde (z.B. bei Reinemann 2007), verwundert etwas, da zum Beispiel die Nachrichtenwerttheorie explizit mit Werten von Nachrichten als Selektionskriterien und somit zumindest implizit mit der Maximierung von Aufmerksamkeit argumentiert (Fengler & Ruß-Mohl 2007, 100). Staab (1990, 98 ff.) argumentierte als einer der ersten, dass Nachrichtenfaktoren keine inhärenten Merkmale von Ereignissen und nicht nur konsensbedingte Selektionskriterien im Journalismus sind (Kausalmodell). Er ergänzte die Nachrichtenwerttheorie um eine finale Perspektive. Sie geht davon aus, dass Journalisten aufgrund individueller oder redaktionell vermittelter politischer Einstellungen Nachrichtenfaktoren instrumentalisieren, um Sachverhalte in der Berichterstattung besonders zu betonen oder herunterzuspielen. Das Finalmodell der Nachrichtenwerttheorie wurde bisher nur inhaltsanalytisch geprüft (Staab 1990). Hauptkritikpunkt an diesem Vorgehen ist aber erstens, dass sich Kausal- und Finalwirkung von Nachrichtenfaktoren am Berichterstattungsergebnis nicht unterscheiden lassen (Fretwurst 2008). Und zweitens war die Nachrichtenwerttheorie bisher methodisch zumeist auf Inhaltsanalysen begrenzt, so dass sie strenggenommen keine Selektions-, sondern nur daran anknüpfende Gewichtungsentscheidungen durch Nachrichtenfaktoren erklärte (z.B. Eilders 1997, 34). Zudem wurde das Finalmodell der Nachrichtenwerttheorie bisher nicht handlungstheoretisch fundiert, so dass der Rational-Choice-Ansatz zwei Vorteile hat: Zum einen lassen sich damit individuelle Publikationsentscheidungen von Journalisten auf Basis bestimmter Selektionskriterien (z.B. zugeschriebenen Nachrichtenfaktoren) methodisch befriedigend erklären, zum anderen lassen sie sich in unterschiedliche institutionelle Kontexte wie z.B. Ressorts oder Redaktionen einbetten (z.B. Reinemann 2007).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-93131-9_8 969b4a34c53da8e2661c4ed6ab3f4348;de;;;1.1.;;;„Eye Movement Desensitization and Reprocessing“ (EMDR)EMDR steht für „Eye Movement Desensitization and Reprocessing“ und heißt übersetzt „Desensibilisierung und Neuverarbeitung mit Augenbewegungen“ – obwohl sich für manche Patienten die Bedeutung „;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35068-9_17 13d63dd94f3c9cd5748e53006ec27352;de;;;3.3.;;;Sichere Laufzeitvalidierung von Verhaltensanpassungen in autonomer Software Obwohl die Laufzeitvalidierung und -verifikation entscheidend für die Gewährleistung der Zuverlässigkeit autonomer Software sind, hinkt die Forschung in diesen Bereichen weiterhin anderen Aspekten der Systementwicklung hinterher. Nur wenige Forscher haben sich mit dem Problem des Testens autonomer Software zur Laufzeit befasst, und der aktuelle Stand der Technik befasst sich nur mit der lokalisierten Validierung von selbstadaptiven Änderungen. Solche Ansätze greifen zu kurz, weil sie Fehler, die auf verschiedenen Ebenen des Systems auftreten können, nicht aufdecken können. In diesem Papier beschreiben wir einen Ansatz, der ein systemweites Laufzeittesten von Verhaltensanpassungen in autonomer Software ermöglicht. Unser Ansatz wendet eine abhängigkeitsbasierte Testreihenfolgestrategie zur Laufzeit an, um Integrations- und Regressionstests auf Systemebene in autonomer Software zu erleichtern. Da die Validierung online während des Systembetriebs erfolgt, führen wir Tests als Teil eines sicheren Anpassungsansatzes durch. Um die Machbarkeit unseres Ansatzes zu untersuchen, wenden wir ihn auf eine autonome virtuelle Kommunikationsmaschine an.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23496-5_3 fe93ed2ccd3962027677c2ad768be825;de;;;3.3.;;;Analyse paralleler Algorithmen unter Verwendung von Pipeline-Architekturen in Computer-Vision-Anwendungen In letzter Zeit wurde eine Reihe von maschinellen Bildverarbeitungssystemen erfolgreich unter Verwendung von Pipeline-Architekturen implementiert und verschiedene neue Algorithmen wurden vorgeschlagen. In diesem Beitrag schlagen wir eine Methode zur Analyse sowohl der Zeitkomplexität als auch der Raumkomplexität für Algorithmen vor, die konventionelle Allzweck-Pipeline-Architekturen verwenden. Wir veranschaulichen unsere Methode, indem wir sie auf ein Algorithmusschema für lokale Fensteroperationen anwenden, die eine Eigenschaft erfüllen, die wir als Zerlegbarkeit definieren. Es wird gezeigt, dass das vorgeschlagene Algorithmusschema und seine Analyse frühere veröffentlichte Ergebnisse verallgemeinern. Wir analysieren weiterhin Algorithmen, die Operatoren implementieren, die nicht zerlegbar sind. Insbesondere werden die Komplexitäten mehrerer Median-Typ-Operationen verglichen und die Auswirkungen auf die Wahl des Algorithmus diskutiert. Wir schließen mit Diskussionen über Raum-Zeit-Trade-offs und Implementierungsfragen.;-;-;-;https://link.springer.com/article/10.1007/BF01531178 6d32ffe258c3fb3da46410c5f5d3b242;de;;;3.3.;;;Auf dem Weg zum Referenzmodell für das Sicherheitsrisikomanagement im Internet der Dinge Sicherheit in Internet of Things (IoT)-Systemen ist ein wichtiges Thema. In diesem Papier schlagen wir ein erstes umfassendes Referenzmodell zum Management von Sicherheitsrisiken für die in den IoT-Systemen verwalteten und kontrollierten Informations- und Datenbestände vor. Basierend auf dem Domänenmodell für das Sicherheitsrisikomanagement von Informationssystemen untersuchen wir, wie die im Open Web Application Security Project definierten Schwachstellen und deren Gegenmaßnahmen im IoT-Kontext berücksichtigt werden könnten. Um die Anwendbarkeit des Referenzmodells zu veranschaulichen, analysieren wir, wie gemeldete IoT-Sicherheitsrisiken berücksichtigt werden könnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-97571-9_7 19ff1b33c7d77fc338185a1789df907f;de;;;3.3.;;;Leistungsbewertung für einen Registrierungsdienst mit einer energieeffizienten Cloud-Architektur Cloud Computing ermöglicht es Anwendungsanbietern, Dienste nahtlos zu skalieren und Benutzern eine adaptive Skalierung der Nutzung zu ermöglichen. Cloud-Anbieter bieten immer einen kostenlosen Service an, um anonymere Benutzer anzusprechen. In diesem Beitrag schlagen wir eine auf Schlafmodus basierende Cloud-Architektur vor, bei der ein kostenloser Dienst und ein optionaler Registrierungsdienst auf demselben Server bereitgestellt werden. Bezogen auf den kostenlosen Dienst als ersten Dienst, den Registrierungsdienst als zweiten optionalen Dienst und den Schlafzustand als den Urlaub, etablieren wir mit einem zweiten optionalen Dienst ein asynchrones Mehrfach-Urlaubs-Warteschlangenmodell. Wir konstruieren eine dreidimensionale Markov-Kette, um die stationäre Verteilung des Warteschlangenmodells abzuleiten und die durchschnittliche Reaktionszeit anonymer Benutzer und die Energiesparrate des Systems abzuschätzen. Schließlich liefern wir numerische Ergebnisse, um den Kompromiss zwischen unterschiedlichen Leistungsmaßen zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-93736-6_10 d1ce8244ca14633a4b351eb2630ad811;de;;;1.1.;;;Wahlentscheidung und politische ThemenDem Einfluss von Themen auf die individuelle Wahlentscheidung wird in der empirischen Wahlforschung große Aufmerksamkeit zuteil (vgl. z. B. Schoen/Weins 2005: 226). Wie bereits aufgezeigt, wird dabei mehrheitlich von einem engen Themenbegriff ausgegangen, nach dem Themen als staatliche ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-15777-7_3 7e54d352555c949d6090f061fbb109a2;de;;;1.1.;;;GesellschaftstheorieHabermas knüpft an gesellschaftstheoretische Überlegungen die Hoffnung, sie könnten „als eine Art Brennglas eine fokussierende Kraft entwickeln (..) und einen hellen Scheinwerfer auf unsere Gegenwart richten (..)“. (1985b, S. 192);-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-80457-0_3 58fd28b679c3b9f97afcacf401b285da;de;;;1.1.;;;Das Evolutionär-energetische Informationsmodell (EEIM)Dieses Buch stützt die These, dass semantische Information biologisch ist, dass sie nur im Kontext der Evolution existiert, und dass sie in Form von Energie auftritt. Diese These wird in diesem Kapitel im „Evolutionär-energetischen Informationsmodell (EEIM)“ zusammengefasst und strukturiert. EEIM ist ein neuer Ansatz, semantische Information zu verstehen. Es bildet ein Komplement zur Informationstheorie Shannons.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-50255-6_7 02be6fcf50c639d66ce416a176757843;de;;;1.1.;;;Selbstberichte im AlterAussagen über Alters- oder Generationsunterschiede in Verhalten, Einstellungen und Meinungen basieren in erster Linie auf Selbstberichten aus sozialwissenschaftlichen Umfragen. Mit „Selbstberichten“ sind dabei die Antworten auf eine Serie von Fragen (Fragebogen) oder eine Liste von Items (Skalen) gemeint. In standardisierten Umfragen werden solche Selbstberichte zumeist in geschlossenem Antwortformat erhoben, d.h. die befragte Person kann beispielsweise mit „ja“ oder „nein“ antworten oder einen Skalenpunkt auf einer dargebotenen Ratingskala auswählen. Eine große Anzahl an Forschungsergebnissen zeigt, dass Selbstberichte durch eine Vielzahl von Faktoren beeinflusst sein können. Schon kleine Veränderungen in der Frageformulierung, im Frage-oder Antwortformat oder der Fragereihenfolge können die Antworten substanziell beeinflussen (für einen Überblick vgl. ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-11027-9_4 4eef7590cbcb3b50041e19f93235e1a7;de;;;1.1.;;;Selbstregulation und ihre Relevanz für Klinische Psychologie und PsychotherapieDie Arbeit beschäftigt sich mit den psychologischen Prozessen, die einer Selbstregulation (SR) zugrunde liegen, mit effektiver SR, mit Gründen für ein Scheitern einer SR und der Balance zwischen Anpassung an Realität und Befriedigung zentraler Motive. Auf Unterschiede zwischen SR und Selbstkontrolle wird eingegangen, sowie eine Anwendung des SR-Begriffes auf Psychotherapie. Es wird aufgezeigt, dass viele Therapiemaßnahmen als ein Bemühen zur Wiederherstellung effektiver SR aufgefasst werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-24211-4_2 e432eb6249d486bdf17ce7ace96b27fa;de;;;1.1.;;;Aktivitätsfelder einer Corporate Identity zum Aufbau von ErfolgspotentialenIm Rahmen der vorliegenden Arbeit sollen die Teilbereiche bzw. Aktivitätsfelder der Corporate Identity einer gesonderten Betrachtung unterzogen werden. Dabei handelt es sich insbesondere um die Bereiche Unternehmensphilosophie, Unternehmenskultur, Unternehmensdesign, Unternehmenskommunikation und Unternehmensimage.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-99732-6_5 eb37f62a5a2212218141a37cf25971b4;de;;;3.3.;;;Können Verbraucher Eigentum an ihren personenbezogenen Daten erfahren?Von Fragen des Umfangs und der Unsichtbarkeit bis hin zu Agenten, die mit unseren digitalen Blaupausen umgehen Im Informationszeitalter wird alles nach den Nuggets abgebaut, aus denen es hervorgeht – Daten. Doch wem diese neuen Schätze gehören und gehören sollen, wird noch heiß diskutiert. Da Einzelpersonen häufig als Quelle des Erzes und Unternehmen als Bergleute fungieren, scheinen beide einen Anspruch zu haben. Dieses Kapitel trägt zu dieser Debatte bei, indem es analysiert, ob und wann personenbezogene Daten bei denen, die sie betreffen, ein Gefühl der Eigenverantwortung hervorrufen können. Durch Gegenüberstellung von Erkenntnissen über Erfahrungen und Funktionen von Eigentum mit dem Wesen von Daten und Praktiken in Datenmärkten kommen wir zu dem Schluss, dass ein sehr großer Teil personenbezogener Daten der Logik und den Mechanismen psychologischen Besitzes trotzt. Im Kanon der Gründe für diese Niederlage stehen Fragen der Dateneigenschaften, der Verschleierung von Marktpraktiken und des bloßen Umfangs von Daten im Mittelpunkt. Als Reaktion darauf schlagen wir vor, die grenzenlose Sammlung von Datenpunkten in die singularisierte und greifbare Metapher eines digitalen Bauplans des Selbst zu verdichten. Diese Metapher wird vorgeschlagen, um den Begriff der personenbezogenen Daten zu erfassen. Um den Verbrauchern auch eine effektive Verwaltung ihrer Daten zu ermöglichen, befürworten wir die Einführung einer Praxis, die bei großen Vermögenswerten häufig verwendet wird: die Einrichtung von persönlichen Datenbeauftragten und -managern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-77158-8_6 2b48a3771065581cbfc60cc1a50224b7;de;;;3.3.;;;Design und Analyse eines Distributed Grid Resource Discovery-Protokolls Computational Grids haben sich in den letzten Jahren als neues Paradigma zur Lösung großer komplexer Probleme herausgebildet. Problemraum und Datensatz werden in kleinere Teile aufgeteilt, die parallel über das Gitternetz bearbeitet und nach Fertigstellung wieder zusammengesetzt werden. Normalerweise werden Ressourcen bei einem Ressourcenbroker angemeldet, der alle im Grid verfügbaren Teilnehmer einigermaßen kennt. Das Resource Broker-Schema kann aufgrund der Menge an Rechenleistung und Netzwerkbandbreite, die benötigt wird, um eine neue Sicht auf das Grid zu erhalten, ein Engpass sein. In diesem Papier schlagen wir vor, die Last der Verwaltung der Netzwerkressourcenerkennung auf das Netzwerk selbst zu übertragen: innerhalb der Router. Im vorgeschlagenen Protokoll enthalten die Router Tabellen für Ressourcen, die den Routing-Tabellen ähnlich sind. Diese Ressourcentabellen ordnen IP-Adressen den verfügbaren Computerressourcenwerten zu, die über einen Bewertungsmechanismus bereitgestellt werden. Jeder Ressourcenanbieter wird basierend auf den von ihm bereitgestellten Attributen bewertet, z. Die Ressourcen werden im Grid durch die Discovery-Pakete des Protokolls erkannt, die in die TCP/IP-Pakete gekapselt sind. Das Discovery-Paket besucht die Router und schlägt in den Ressourcentabellen nach, bis eine zufriedenstellende Ressource gefunden wird. Das Protokoll wird durch Simulationen mit fünf verschiedenen Bereitstellungsumgebungen validiert.;-;-;-;https://link.springer.com/article/10.1007/s10586-010-0147-2 45234107ab4ae2de487a449ad8917056;de;;;3.3.;;;MIMO Beamforming-Architektur in Millimeterwellen-Kommunikationssystemen Die jüngste Verkehrsexplosion in drahtlosen Kommunikationssystemen hat große Aufmerksamkeit auf die große Menge des nicht ausgenutzten Spektrums in Millimeterwellen-(mm-Wellen-)Kommunikationssystemen als potenzieller Kandidat für eine zehn- bis hundertmal höhere Kapazität im Vergleich zum aktuellen 4G-Kommunikationssystem gelenkt . Das Entwerfen eines geeigneten Beamforming-Schemas, um den ungünstigen Pfadverlust zu überwinden, ist einer der Schlüsselfaktoren für die Kommunikation im 60-GHz-Frequenzband. Mehrere Antennen in 60 GHz unter Verwendung von Single Input Single Output (SISO) können nur Diversity und Signal-Rausch-Verhältnis (SNR)-Gewinn bieten, daher ist Multiple Input Multiple Output (MIMO) Beamforming unverzichtbar, um den Systemdurchsatz weiter zu erhöhen. In dieser Arbeit schlagen wir einen effizienten MIMO-Beamforming-Algorithmus vor, um die Kanalkapazität für mm-Wellenkanäle zu maximieren. Unsere Forschung konzentriert sich auf die Aufteilung des großen Antennenarrays in;-;-;-;https://link.springer.com/article/10.1007/s11277-017-4625-1 d935aa519ad5c7af6efa23e45c07e3ce;de;;;1.1.;;;Emotionen und ihre Bedeutsamkeit für Conceptual-Change-Prozesse von LehrernIn diesem Kapitel sollen nun zwei Perspektiven eingenommen werden, um die Bedeutsamkeit von Emotionen in der Arbeit an subjektiven Theorien von Lehrern und damit in Professionalisierungsprozessen zu verstehen. Zunächst wird die Sichtweise der praktischen Arbeit dargestellt. Daraufhin werden theoretische Begründungen angestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-04620-0_4 2728ac50f72fc8cfef94fa4e3d522037;de;;;1.1.;;;Ansätze zur Meßbarkeit der BankloyalitätIm bisherigen Verlauf der Arbeit ist, ausgehend von den neueren Entwicklungen des Dienstleistungsmarketing und der Betrachtung verhaltensorientierter Ansätze zur Erklärung des Konsumentenverhaltens, ein Bankkundenverhaltensmodell entwickelt worden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-86493-2_4 3672ceac7d9c9492f02f3d8bdac51d47;de;;;3.3.;;;Videotranskodierung für mobiles digitales Fernsehen Mobiles digitales Fernsehen ist einer der neuen Dienste, die kürzlich von Telekommunikationsbetreibern eingeführt wurden. Aufgrund der gebotenen Personalisierungs- und Interaktionsmöglichkeiten sowie der steigenden Nachfrage nach dieser Art von tragbaren Diensten wird dies zweifellos eine erfolgreiche Technologie in naher Zukunft sein. Multimedia-Inhalte werden im Allgemeinen codiert, indem die erforderliche Speicherkapazität und der Bandbreitenverbrauch reduziert werden, um übertragen zu werden. Um sich an die unterschiedlichen Eigenschaften der Netze und die unterschiedlichen Fähigkeiten der Geräte anzupassen, wurden skalierbare Videocodierungsschemata vorgeschlagen, die eine zeitliche, räumliche und qualitative Skalierbarkeit oder eine Kombination davon bereitstellen. Die meisten vorhandenen Videoinhalte werden mit H.264/AVC komprimiert, einem Single-Layer-Codec, sodass diese Inhalte nicht von den Skalierbarkeitstools profitieren können, da der Bitstream zur Codierungszeit keine intrinsische Skalierbarkeit bietet. Dieses Papier schlägt eine Technik vor, um vom einschichtigen H.264/AVC-Bitstream in einen skalierbaren Bitstream mit zeitlicher Skalierbarkeit zu konvertieren. Bei Anwendung dieses Ansatzes wird eine Reduzierung der Codierungskomplexität um 60 % erreicht, während die Codierungseffizienz beibehalten wird.;-;-;-;https://link.springer.com/article/10.1007/s11235-011-9594-1 042498af99aeb8960cb760799d28cd2f;de;;;3.3.;;;In-situ-Methoden zur Prüfung von Steinmonumenten und die Anwendung zerstörungsfreier Prüfungen der physikalischen Eigenschaften in der Mauerwerksdiagnose Die schnelle In-situ-Diagnostik von Denkmälern ist ein zentrales Thema bei der Erhaltung von Kulturerbestätten. Die Steinmauerdiagnostik zielt darauf ab, den Zustand einer Steinstruktur oder eines Gebäudes zu analysieren, um die Ursachen des Verfalls zu verstehen und eine angemessene Behandlung und optimale Konservierungsmethode oder einen Managementplan für eine denkmalgeschützte Stätte oder ein Gebäude zu finden. Diese Messungen können wertvolle Daten für die Instandhaltung, Restaurierung liefern oder die Grundlage für eine „präventive Konservierung“ bilden. Durch die rasante Entwicklung von Messsystemen und die Anwendung neuer Methoden und Techniken aus anderen Bereichen (z.B. aus der Medizin) auf die Mauerwerksdiagnostik steht heute eine breite Palette von Techniken zur Verfügung. Die neuen Methoden wie tragbare Spektroskopiegeräte (Brunetti 2008 ), tragbare RFA (Thornbush and Viles 2006 ), kombinierte XRD/RFA (Chiari 2008 ), Röntgentomographie (Cnudde et al. 2009 ) oder Light Detection And Ranging Scanner ( LiDAR , Meneely et al. 2008 ) und viele andere Methoden können die Denkmaldiagnostik in Zukunft revolutionieren. Dennoch wird die breite Anwendung einiger dieser neuen Techniken heute durch ihre hohen Kosten behindert und daher werden in der täglichen Praxis einfachere und billigere Werkzeuge und Methoden in der Mauerwerksdiagnostik eingesetzt. In diesem Kapitel werden sowohl diese neuen, teuren Techniken als auch die älteren und im Allgemeinen billigeren Geräte und Methoden der Steinmauerdiagnostik beschrieben, wobei insbesondere die Prüfung physikalischer Parameter im Vordergrund steht.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-2684-2_10 6f827f7a25bd4596b3a5dd47b89cf6fe;de;;;1.1.;;;Stadtgesellschaftliche Probleme und das politisch-administrative SystemForschung, die sich mit der lokalen Ebene, der Beschreibung städtischer Armut und den Formen lokaler Regulation in der nach-fordistischen Stadt auseinandersetzt, ist nichts Neues. Während in den Sozialwissenschaften in den 80er Jahren die Berichterstattung über soziale Entwicklungen in Form von Mikro-und Makrobetrachtungen oder als „Armutsberichte“ im Vordergrund stand (vgl. Schütte / Süß 1988, Süß / Trojan 1992), haben die lokale Politikforschung, Stadtsoziologie und Geographie Stadtentwicklung unter der Prämisse der relativen Autonomie des lokalen Staates oder dem lokalen Korporatismus analysiert und dabei die Regulationsformen in der „postfordistischen“ Stadt ins Zentrum gerückt (Castells 1983, Breckner et al. 1989, Borst et al. 1990, Heinelt / Wollmann 1991, Blanke 1991). Raumplaner hingegen haben ganz pragmatisch die realen Versuche, sozial benachteiligte Quartiere zu stabilisieren, dokumentiert (vgl. zusammenfassend Froessler et al. 1994).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-11415-4_4 7ab976c759102915d281f6c257e039c4;de;;;1.1.;;;Diagnose-Leistungs-Relationen als Wirtschaftlichkeitsindikator ambulanter Versorgung?Das bislang praktizierte Verfahren der Wirtschaftlichkeitsprüfung im ambulanten Bereich ist schon lange ins Gerede gekommen (1). Aus statistischen Erwägungen wird das Durchschnittlichkeitsverfahren kritisiert. Aus methodischen Erwägungen wird kritisiert, daß nur homogenisierte Arztgruppen — nicht aber zugleich Patientengruppen — Orientierungspunkt der Berechnung sind. Aus medizinischen Erwägungen wird kritisiert, daß — nach dem Urteil mancher Sozialgerichte — eine mehr als 50 %ige Überschreitung des Durchschnittswertes als regreßauslösender Nachweis der UnWirtschaftlichkeit angesehen werden kann. Hinter solchen Einzelkriterien steht der allgemeinere Einwand, daß Unwirtschaft-lichkeit und Wirtschaftlichkeit ohne Rückgriff auf Effektivitätsindikatoren qualitativer und/oder quantitativer Art nicht erschlossen werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-81404-4_67 7e472c26d5df6a5a0ed9c95e55d37d81;de;;;1.1.;;;Verhaltenstherapeutische Strategien bei akuten und chronischen Schmerzen — Grundlagen, Prinzipien und AnwendungsfelderIn den letzten 20 Jahren ist ein stetig wachsendes Interesse an der theoretischen und klinisch-therapeutisch orientierten Schmerzforschung zu beobachten. Eine Übersicht bieten Wall u. Melzack (1984), gute deutschsprachige Zusammenfassungen neuerer Ergebnisse und Ansätze finden sich bei Larbig (1982), Keeser et al. (1982), Birbaumer (1986), Zimmermann u. Handwerker (1984) und Miltner u. Larbig (1988).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-74731-1_8 c744e8c020211d937c33b5d2394f5287;de;;;1.1.;;;Der frühe Behaviourismus: Pawlow, Watson, Guthrie und ThorndikeKapitel 1 beschrieb die Gegensätze zwischen Behaviorismus und der kognitiven Psychologie. Die echte Bedeutung einer solchen Unterscheidung beruht wahrscheinlich darauf, daß sie eine einfache Klassifikation der Erklärungen für das menschliche Lernen ermöglicht und es uns dadurch leichter gemacht wird, Lerntheorien zu verstehen, zu behalten und anzuwenden. Wie früher schon erwähnt, entwikkelte sich die Lerntheorie aus zunächst einfachen und ziemlich mechanistischen Ansätzen, um dann in komplexere Richtungen überzugehen. Diese Sequenz ist jedoch nicht unbedingt chronologisch, denn die neueren Positionen sind oft ebenso behavioristisch wie kognitiv. Darüber hinaus haben die kognitiven Ansätze noch nicht klar gezeigt, daß sie die Vorhersage, Erklärung und Kontrolle des menschlichen Verhaltens verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-09577-5_2 d23aaaaac97753956515e40d4baeadc2;de;;;1.1.;;;Multimediales selbstreguliertes Lernen im Lehramtsstudium Sport am Beispiel der Pythagoras 360° Echtzeit-BewegungsanalyseIm folgenden Beitrag werden die Möglichkeiten selbstregulierten Lernens in Bezug zur CognitiveTheoryof Multimedia Learning erörtert. Diese werden beispielhaft am Lehramtsstudium Sport auf Bewegungsphänomene übertragen und mittels der EmbodiedCognition konzeptionell fundiert. Die Regulationsmöglichkeiten des Informationsaufkommens und die Modellierung digitaler Lernumgebungen, welche aus den theoretischen Vorannahmen erwachsenen, werden anhand des Prototyps der Pythagoras 360° Echtzeit-Bewegungsanalyse auf mögliche Anwendungsfelder der Gymnastikausbildung innerhalb des Lehramtsstudiums Sport überführt. Der aktuelle Prototyp der Pythagoras 360° Echtzeit-Bewegungsanalyse unterstützt die Aufzeichnung komplexer dreidimensionaler Bewegungsinformationen. Diese werden in Form hochauflösender Punktewolken gespeichert und ermöglichen eine markerfreie, selbstgesteuerte, Bewegungsanalyse. Im Sinne des selbstbestimmten Lernens eröffnet Pythagoras 360° eine hohe Individualisierung des Lernprozesses. Abschließend werden geplante Weiterentwicklungen wie die Einbindung verschiedener Muskelskelette und eine mögliche Implementierung des Systems in das Lehramtscurriculum skizziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-25524-4_5 eb767ba91310d284409b6bda5b64a710;de;;;1.1.;;;Vom Wissenstransfer zur WissenstransformationDie auf ihre gesellschaftliche Relevanz befragten Sozialwissenschaften haben in der Hochzeit der Reform mehrere Anläufe unternommen, ihr Anwendungsproblem zu lösen. Dabei handelt es sich um Versuche, das „alte“ Theorie-Praxis-Problem selbst zu verwissenschaftlichen und empirisch zu wenden. Geklärt werden sollte, wie das in einem Teilsystem der Gesellschaft, der Wissenschaft, erzeugte Wissen in ein anderes Teilsystem, z. B. in die Schule, übertragen — ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-99842-2_3 60de52025c0e54ff3ce0dac1a84bc380;de;;;1.1.;;;AuswertungsverfahrenVor und neben der computergesteuerten Analyse von Spontan-EEG (z. B. Frequenzanalyse mittels Fast-Fourier-Transformation, s. unten) und EKP (z. B. Mittelung und Hauptkomponentenanalyse, s. unten) ist die visuelle Inspektion von Einzelableitungen sowohl unter dem Aspekt der Überwachung („on-line“) als auch unter dem der Kategorisierung unerläßlich. Besondere Bedeutung kommt der Beurteilung der unverarbeiteten EEG-Kurve, also des Elektroenzephalogramms, im klinischen Bereich zu, wie in Abschn. 1.6 dargelegt wurde. Die Beschreibung typischer Frequenzbänder oder Komplexe im EEG, wie sie in Kap. 1 gegeben wurde, basiert gleichfalls noch oft auf der visuellen Analyse des EEGs. Schließlich liefert die Beobachtung der von unterschiedlichen Elektroden abgeleiteten EEG-Muster (also die Analyse topographischer Merkmale) Informationen über elektrokortikale Prozesse: Die Verteilung der Signale an der Schädeloberfläche erlaubt Rückschlüsse auf die Quelle bzw. Genese dieser Signale (Cooper et al. 1980). Die visuelle Inspektion geht am günstigsten von der Aufzeichnung des EEGs auf Papier aus, die Darstellung kann aber auch über einen Bildschirm (z. B. Oszilloskop) erfolgen. Farbdarstellungen auf Videogeräten erlauben das zeitsynchrone Übereinanderlegen verschiedener Ableitungen und erweisen sich vor allem bei der topographischen Analyse als vorteilhaft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-06459-7_6 8af2efe7840ef31787c223a497284d09;de;;;1.1.;;;Begrenzte LiteralitätWir haben oben darauf hingewiesen, daß keine Textgattung so wie das Drama die Spuren des medienhistorischen Überganges von der Oralität zur Literalität in sich trägt. ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-476-04245-3_3 15e724460f74762b108b214fbfcc5525;de;;;1.1.;;;Menschliche SystemeIn diesem Beitrag beschreiben wir unsere jüngsten theoretischen Überlegungen, unsere klinische Praxis sowie den Weg, der uns zu unserer jetzigen Position geführt hat. Es war ein merkwürdiges Abenteuer, und es hat uns viele Wege gehen lassen. Wir sind auf unserer Reise durch viele ausgezeichnete Ideen angeregt und von zahlreichen innovativen Klinikern beeinflußt worden. Auf diesen Wegen sind wir durch das Denken vieler Forscher, die außerhalb des Bereichs der Familientherapie arbeiten, fasziniert und geleitet worden: durch die chilenischen Biologen Maturana und Varela (1978, 1987), die Konstruktivisten v. Foerster (1981) und v. Glasersfeld (1986), Psychologen wie Kelly (1955) und Gergen (1982, 1985a, 1985b), Philosophen wie Rortry (1972, 1979) und Gadamer (1976), den Soziologen Braten (1987) und viele andere, die wir hier nicht alle aufzählen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-60755-4_13 1d1e52f8b59dc16d42f766afafe72be4;de;;;3.3.;;;Zuverlässigkeitsmodellierung und Bewertung von Software- und Hardwaresystemen Dieses Papier ist ein Versuch, einen konzeptionellen Rahmen für die Modellierung und Bewertung der Zuverlässigkeit und Verfügbarkeit von Computersystemen in Bezug auf physikalische und Entwurfsfehler bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-69698-5_17 935eaab3365db5c1cf2722efa19261da;de;;;3.3.;;;Whisker: Ein Client-Server-Hochleistungs-Multimedia-Forschungssteuerungssystem Wir beschreiben einen ursprünglichen Client-Server-Ansatz zur Verhaltensforschungskontrolle und das Whisker-System, eine spezifische Implementierung dieses Designs. Der Serverprozess steuert verschiedene Arten von Hardware, einschließlich digitaler Ein-/Ausgabegeräte, mehrere grafische Monitore und Touchscreens, Tastaturen, Mäuse und Soundkarten. Es bietet eine Möglichkeit für Client-Programme auf diese Hardware zuzugreifen und mit ihnen über ein einfaches textbasiertes Netzwerkprotokoll zu kommunizieren, das auf dem Standard-Internetprotokoll basiert. Clients zum Implementieren von Verhaltensaufgaben können in jeder netzwerkfähigen Programmiersprache geschrieben sein. Bisherige Anwendungen liegen in der experimentellen Psychologie sowie in der Verhaltens- und kognitiven Neurowissenschaft mit Nagetieren, Menschen, nichtmenschlichen Primaten, Hunden, Schweinen und Vögeln. Dieses System ist flexibel und zuverlässig, weist jedoch potenzielle Nachteile hinsichtlich der Komplexität auf. Das Design, die Funktionen und die Leistung werden beschrieben.;-;-;-;https://link.springer.com/article/10.3758/BRM.42.4.1059 2633af918fb62c0d2b19797c20a5723d;de;;;1.1.;;;Psychologie des StrafverfahrensIm Rahmen von Strafverfahren wird verhandelt, begutachtet, befragt, überzeugt, gelogen und entschieden. Verlauf und Ausgang des Verfahrens haben unmittelbare Bedeutung für die von den beteiligten Parteien empfundene Verfahrensgerechtigkeit. All dies sind Themen der Psychologie des Strafverfahrens: Wahrnehmung, Eindrucksbildung, Persuasion, Glaubwürdigkeits-attribution und die mentalen Prozesse, die richterlichen Entscheidungen, Urteilen und Bewertungen zu Grunde liegen, sind wichtige psychologische Themen, zu denen die sozial- und rechtspsychologische Forschung umfangreiches Wissen bereitstellt, welches allerdings in der juristischen Praxis in der Regel weniger aufgegriffen wird als beispielsweise Befunde der Forschung zur Kriminalprognose oder Schuldfähigkeitsdiagnostik.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7985-1746-2_17 b762e8898a9692b1cacbf00ff9f089e0;de;;;3.3.;;;Eine neuartige Architektur zur Erkennung und Abwehr von flutungsbasierten DDoS-Angriffen Überflutungsbasierte DDoS-Angriffe (Distributed Denial-of-Service) stellen eine sehr ernsthafte Bedrohung für die Stabilität des Internets dar. In diesem Papier schlagen wir eine neuartige globale Verteidigungsarchitektur vor, um das gesamte Internet vor DDoS-Angriffen zu schützen. Diese Architektur umfasst alle drei Teile der Verteidigung während des DDoS-Angriffs: Erkennung, Filterung und Rückverfolgung, und wir verwenden verschiedene Agenten, die in Routern oder Hosts verteilt sind, um diese Aufgaben zu erfüllen. Die Überlegenheit der Architektur, die sie effektiver macht, umfasst: (;-;-;-;https://link.springer.com/chapter/10.1007/11596981_54 560f298fb41661dde307384bae132bf3;de;;;3.3.;;;Brauchen wir eine andere Textsprache für die Feature-Modellierung? Feature Modeling (FM) ist eine wesentliche Aktivität zur Erfassung von Gemeinsamkeiten und Variabilität in Softwareproduktlinien. Die meisten der heutigen FM-Tools sind grafisch und stellen Feature-Modelle als Feature-Diagramme (FDs) dar. Obwohl FDs auf den ersten Blick intuitiv sind, fehlt es ihnen im Allgemeinen an Ausdruckskraft und in der Syntax vage. Um diese Probleme zu überwinden, werden einige Textsprachen mit reicherer Ausdruckskraft und formaler Semantik vorgeschlagen. Aber sind diese Sprachen dem bestehenden Modellierungsansatz überlegen, wie sie angegeben haben, z. B. XML-basierter, der auf Standards basiert und eine große Akzeptanz für andere Anwendungen als FM hat. In diesem Papier erarbeiten wir den XML-basierten textuellen Featuremodellierungsansatz, bewerten ihn aus mehreren Perspektiven und vergleichen ihn mit einer anderen repräsentativen textuellen FM-Sprache – TVL, einer kürzlich veröffentlichten Sprache. Wir demonstrieren die Vor- und Nachteile des XML-basierten Ansatzes und argumentieren, dass der XML-basierte Ansatz immer noch der am weitesten verbreitete und pragmatischste Ansatz für die Übernahme in der Industrie ist, obwohl er einige klare Einschränkungen aufweist, die einer fortgeschritteneren Werkzeugunterstützung zugeführt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30460-6_7 35f24d73539547cb7a6d0e4f3c006069;de;;;1.1.;;;Verteilte Dokumente in offenen NetzenDie Büroautomatisierung in heterogenen Systemen basiert auf internationalen Standards wie ODA und DFR. Diese ermöglichen ein gemeinsames Verständnis von Applikationen über den Inhalt und die Form von Dokumenten beziehungsweise über Operationen auf derartigen Objekten wie den entfernten Zugriff auf Dokumentenspeicher. Viele Anwendungsszenarien motivieren Konzepte und Dienste, die es erlauben, Dokumente auf Netzwerke zu verteilen und auf einzelne Teile der Dokumente entfernt zugreifen zu können. In dieser Hinsicht ist die Funktionalität heutiger Normen unzureichend — diese erlauben nur die Handhabung vollständiger Dokumente und ermöglichen nicht, daß die Verteilung eines Dokuments auf verschiedene Netzwerk-Knoten für Anwendungen transparent gehalten wird. Erfahrungen aus Prototyp-Entwicklungen im Rahmen von europäischen Kooperationsprojekten werden in diesem Beitrag vorgestellt. Für die daraus abgeleiteten notwendigen Erweiterungen der involvierten Normen werden Konzepte vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-77060-9_19 74747fbd1574a24158cb7b70ddc21a9d;de;;;1.1.;;;Mitarbeiterorientierung im QualitätsmanagementIn diesem Kapitel werden spezielle Aspekte der Mitarbeiterorientierung im Qualitätsmanagement behandelt. Hierzu werden zunächst die Bedeutung des Förderns und Einbeziehens von Mitarbeitern sowie der Stellenwert von Motivation und Arbeitszufriedenheit als Stell- und Zielgrößen der Mitarbeiterorientierung verdeutlicht. Nachfolgend werden allgemeine Methoden der Mitarbeiterorientierung (z. B. Führung, Personalentwicklung, Arbeitsgestaltung) sowie spezielle Methoden der Mitarbeiterbeteiligung (z. B. Mitarbeiterbefragungen, Vorschlagswesen, Beauftragtenwesen) in den Kontext des Qualitätsmanagements gesetzt. In Gesundheitseinrichtungen wird die Organisationslogik der Mitarbeiterorientierung in besonderer Weise durch die Professionslogik der Gesundheitsberufe (z. B. Selbstbestimmung, geteilte Entscheidungsvollmachten, Externalisierung beruflicher Identität) mitbestimmt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-25913-6_10 db2d24c6903029a38747ff319ba18af1;de;;;3.3.;;;Eine Deep Convolutional Encoder-Decoder-Architektur für die Segmentierung von retinalen Blutgefäßen In den letzten Jahrzehnten wurden verschiedene Methoden in der medizinischen Bildanalyse eingesetzt. Einige hochmoderne Techniken wie Deep Learning wurden in letzter Zeit auf die medizinische Bildanalyse angewendet. Diese Forschung schlägt die Anwendung von Deep-Learning-Techniken bei der Durchführung der Segmentierung von retinalen Blutgefäßen vor. Die Analyse und Segmentierung von Netzhautgefäßen hat bei der Diagnose und Überwachung einiger Krankheiten geholfen. Krankheiten wie altersbedingte Fovea-Degeneration, diabetische Retinopathie, Glaukom, Bluthochdruck, Arteriosklerose und choroidale Neovaskularisation können durch die Analyse von Netzhautgefäßbildern effektiv behandelt werden. In dieser Arbeit wird eine Deep Convolutional Encoder-Decoder Architektur für die Segmentierung von Netzhautgefäßbildern vorgeschlagen. Das vorgeschlagene Verfahren ist ein Deep-Learning-System, das aus einem Codierer- und Decodierermechanismus besteht, der es ermöglicht, einen niedrig aufgelösten Bildsatz von Netzhautgefäßen durch einen Satz von Faltungsschichten in der Codierereinheit zu analysieren, bevor er zur endgültigen segmentierten Ausgabe an eine Decodierereinheit gesendet wird. Das vorgeschlagene System wurde unter Verwendung einiger Bewertungsmetriken wie Würfelkoeffizient, Jaccard-Index und Durchschnitt der Schnittmenge bewertet. Auch die Bestandsaufnahme wurde durchgeführt. Es konnte gezeigt werden, dass das vorgeschlagene System viele bestehende Verfahren bei der Segmentierung von Netzhautgefäßbildern übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-24308-1_15 3c23528284b83307434f9b007a9887dc;de;;;3.3.;;;Spezifikation von Software-Pipelining mit Petrinetzen Dieses Papier stellt ein flexibles Modell für das Software-Pipelining unter Verwendung der Petrinetze vor. Unsere Technik, genannt Petri Net Pacemaker (PNP), kann mit weniger algorithmischem Aufwand als andere Techniken nahezu optimale Pipelines erstellen. Der Schrittmacher ist eine neuartige Idee, die das zyklische Verhalten von Petrinetzen ausnutzt, um das Problem der Planung von Operationen eines Schleifenkörpers für das Software-Pipelining zu modellieren. Es wird eine Möglichkeit gegeben, die Leistung von Schleifen mit Prädikaten zu verbessern. Die PNP-Technik zeigt auch, wie verschachtelte Schleifen gepipelinet werden können. Ein Vergleich mit einigen der anderen Techniken wird vorgestellt.;-;-;-;https://link.springer.com/article/10.1007/BF02577735 e66833431d2143aee2489f20ce13c1ed;de;;;1.1.;;;Geschlechtsspezifische Unterschiede der Hemisphärenlateralisation bei Schizophrenien?Eine MEG-MRT-StudieIn dieser Magnetenzephalographiestudie wurde die Frage der Hemisphärenlateralisation bei Patienten mit einer Schizophrenie mittels akustisch evozierter neuromagnetischer Felder untersucht und die Charakteristika von Dipolen berechnet, die im Bereich des Gyrus temporalis superior, dem primären Hörkortex, entstehen. Im Gegensatz zu Vorbefunden betrafen die Alterationen weniger die Dipollokalisation als vielmehr die Dipolorientierung. Pathophysiologisch aufschlußreich war, daß die Dipolabweichungen im Vergleich zu Kontrollen bei männlichen Schizophrenen linkshemisphärisch (;-;-;-;https://link.springer.com/article/10.1007/s001150050267 16a8b2e5e9fd710b0218a5238be03537;de;;;1.1.;;;MedienwirkungMedienwirkungsforschung ist ein zentraler Bereich der Kommunikationswissenschaft. Andere Bereiche beziehen sich häufig auf dieses Kernstück. Analysen des Medieninhalts, Untersuchungen der Mediennutzung und Studien zum Journalismus haben zwar durchaus eigene Fragestellungen, die Ergebnisse werden jedoch häufig erst unter Wirkungsgesichtspunkten interessant bzw. werden unter dieser Perspektive interpretiert. Wenn beispielsweise Inhaltsanalysen von Fernsehgewalt (z.B. Groebel/Gleich 1993) zeigen, dass es im deutschen Fernsehen etwa 60 Morde pro Tag gibt, dann ist diese Inhaltsanalyse der Medien natürlich nicht losgelöst zu sehen von der Frage der Wirkung. Gerade bei der heutigen Gewaltdiskussion wird jeder sofort nach der ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-80383-2_7 6989ec34c273648f225900af047429fa;de;;;1.1.;;;TheoriedefiziteWenn Passanten auf der Straße ein Fernsehteam mit Kamera bemerken, dann winken sie, wenn der Politiker sieht, daß die Kamera läuft, spricht er nicht mehr zu den Anwesenden im Saal, sondern formuliert Statements für die Nation. Lang & Lang (1953) nannten solche, in Anwesenheit des Fernsehens zu beobachtende Verhaltensweisen “reziproke Effekte”. Boorstin (1961) benutzt in einem etwas weiteren Sinne den Begriff “Pseudo Events” für Ereignisse, die nur deshalb inszeniert werden, daß die Medien über sie berichten. Die Palette reicht von Pressekonferenzen über publicity-wirksame Skandale bis hin zu Demonstrationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-10777-4_6 6e0b9f3a8aa8e0e33e5499b9d58dc21e;de;;;1.1.;;;Wahn und IntuitionAusgehend vom Wahnproblem und begründet auf einer Analyse rationaler und intuitiver Erkenntnis, unternimmt die vorliegende phänomenologisch-konzeptuelle Arbeit den Versuch einer Wesensbestimmung des Wahns. Intuitive Erkenntnis als Resultat eines holistischen Erkenntnisvorganges beruht auf der Ausbildung polysensorisch-kinästhetischer Grund- oder Wesensbilder (Wesensmatrizes), die ihrerseits in übergreifende Bedeutungssysteme einfließen und ihrem präreflexiv-präverbalen Wiedererkennen vermittels subliminaler Wahrnehmung entsprechender Wesensstrukturen. Ein positiver Abgleich evoziert eine Wesensempfindung als ein präverbales Wissen von etwas als etwas Bestimmten. Gleichzeitig enthält die Wesensempfindung als unmittelbare Eigenbezüglichkeit das Empfinden der objektbedingten Bedeutung des Gegebenen für das Subjekt selbst sowie das Empfinden eines vom Objekt ausgehenden Kraftvektors. Vor diesem Hintergrund läßt sich Wahn als Ausdruck einer Störung im System intuitiv-holistischen Erkennens auffassen, bei der es auf verschiedenen Wegen zur Enthemmung und Aktualisierung von Wesensmatrizes bzw. einzelner umgreifender Bedeutungssysteme kommt. Die hierdurch evozierte Wesensempfindung nennen wir Wahn, deren begriffliche Expressionen Wahnidee. Am Wahn lassen sich alle Eigenschaften einer Wesensempfindung aufweisen, die jedoch ihrer besonderen Intensität entsprechend und der damit verbundenen Entmächtigung der Ratio meist als unvergleichlich erscheinen. Die Herausarbeitung wesentlicher Eigenschaften des Wahns läßt ein Gefüge erkennen, das ein tieferes Verständnis dieses Phänomens erlaubt und gleichermaßen seine Identifizierung wie seine Abgrenzung erleichtert. Bisher wenig verbundene Begriffe wie Wahnstimmung, Beziehungsidee, Bedeutungserlebnis, Wahneinfall und Wahnwahrnehmung erscheinen in einem sinnvollen Zusammenhang.;-;-;-;https://link.springer.com/article/10.1007/s001150050288 7ba25f4d6e79a48c2b88add528a91d72;de;;;1.1.;;;Psychologie des FilmsDie affektive Wirkung bildet ein zentrales Element des Filmerlebens. Auf der Grundlage der kognitiven Filmtheorie wurden verschiedene theoretische Ansätze entwickelt, die die emotionale Erfahrung des Zuschauers bei der Rezeption von Filmen untersuchen und Elemente psychologischer Emotionstheorien in ihre Überlegungen einbeziehen. Der Beitrag stellt diese Ansätze vor und zeigt deren unterschiedliche theoretische Perspektiven auf. Abschließend geht er auf das Themenfeld der Empathie des Rezipienten mit Filmfiguren ein.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-658-09514-7_22-1 ce66ffc5c50133a9b2deabde8a14d782;de;;;1.1.;;;Einsatz von ACID-Transaktionen im Wandel der ZeitDie ACID-Transaktion ist ein starkes Konzept für die Entwicklung von Anwendungen, bei denen die Konsistenz der Daten essentiell ist. Es hat seinen Ursprung in der klassischen Transaktionsverarbeitung der 70er und 80er Jahre des letzten Jahrtausends im Kontext von Datenbanken und Transaktionsmonitoren, insbesondere für stark interaktive und nebenläufige betriebliche Anwendungen. Zunächst etablierte sich das Konzept für Anwendungen, die nur eine einzige, später auch mehrere Datenbanken in lokalen Transaktionen nutzen. Ab Mitte der 80er Jahre entwickelte man das Konzept dann für verteilte Anwendungen mit mehreren Datenbanken oder Message Queuing Systemen (allgemein als Ressourcenmanager bezeichnet) weiter. Es wurde damit allerdings auch weit komplexer und fehleranfälliger. Verteilte Koordinationsprotokolle, auch als Commit-Protokolle bezeichnet, wurden in Middleware-Lösungen integriert. Die Schwächen von Commit-Protokollen wegen der Notwendigkeit der zentralen Koordination erschwerten oft die praktische Nutzung verteilter Transaktionen. Trotzdem versuchte man das Konzept auch für serviceorientierten Architekturen, insbesondere für Webservices zu adaptieren. Umfangreiche Spezifikationen wurden erstellt. In den letzten Jahren ging man im praktischen Einsatz der Transaktionsverarbeitung wieder zurück zu den Wurzeln, wie insbesondere bei Microservice-Architekturen beobachtet werden kann. Aber auch das Saga-Transaktionsmodell wird für Microservice-Architekturen in Erwägung gezogen. Auch der dedizierte Einsatz von ACID-Transaktionen bei stark replizierten Lösungsansätzen insbesondere bei NoSQL-Datenbanken ist aktuell im Kommen.;-;-;-;https://link.springer.com/article/10.1365/s40702-019-00575-w e151264b4b03e1a42c5fd45f73501a27;de;;;1.1.;;;Die Bedeutung der „Contingent Negative Variation“ (CNV) für die AudiometriePrevious proofs of “central processes” in hearing were based on the determination of the late “auditory evoked potentials” (AEP's: 50–300 ms) in EEG. The appearence of AEP's in different sleep stages raises the question, if the AEP actually indicates conscious hearing. Since the discovery of the “Contingent Negative Variation” (CNV), as a potential depending on conscious and cognitive factors, an appropriate “instrument” is available to solve this problem.;-;-;-;https://link.springer.com/article/10.1007/BF00465545 d56537df129f53514ae3218c924e84c9;de;;;1.1.;;;Zur Pharmakotherapie impulsiver Aggression bei antisozialen und psychopathischen StörungenImpulsive Aggression stellt ein häufiges Merkmal bei psychopathischen Störungen dar und kann mit Psychopharmaka behandelt werden. Aus kontrollierten Studien ergeben sich für die folgenden gegen impulsive Aggression eingesetzten Wirkstoffe („anti-impulsive aggressive agent“, AIAA) die stärksten Wirksamkeitsnachweise: Fluoxetin, Phenytoin, Divalproex/Valproat, Carbamazepin/Oxcarbazepin und Lithiumsalz. Diese Übersichtsarbeit beschreibt, ausgehend von einer Risiko-Nutzen-Analyse und der Studienlage in den USA, die Auswahl und den Einsatz eines möglichst gut geeigneten AIAA bei Patienten mit psychopathischer Störung. Dabei werden positive und negative Gesichtspunkte für die Auswahl, die Anwendung sowie mögliche Wirkmechanismen des jeweiligen AIAA umrissen. Des Weiteren werden Möglichkeiten zur Behandlung von impulsiver Aggression bei Patienten erörtert, bei denen ein AIAA keine Besserung gebracht hat.;-;-;-;https://link.springer.com/article/10.1007/s11757-018-0491-2 64e6f22f20b132ca420499fa54eff521;de;;;1.1.;;;Korrelations- und Spektralanalyse von willkürlichen AugenbewegungenHorizontal voluntary eye-movements based on Gaussian random noise inputs are analyzed by way of auto-and crosscorrelation-functions and power spectra. The essential rules in applying these methods are pointed out, and the elimination of instationary trends is demonstrated. It becomes evident by these techniques that eye-tracking-movements can have a higher upper frequency limit than the movements of the corresponding target. On the other hand, they are correlated in a higher degree regarding longer delay-times. The typical delay-time of the system for processing stochastic signals is obtained by cross-correlation. The power spectra of eye-movements reveal two peaks in relation to the spectra of the target which are due to the quick saccadic components of eye-movement.;-;-;-;https://link.springer.com/article/10.1007/BF00272602 ce7bd1065c0a7fcdff4e864c324ab3a0;de;;;1.1.;;;Die Kybernetisch-Systemtheoretische WurzelWie KLIX (1980) hervorhebt, ist die Kybernetik eine typische Querschnittswissenschaft, da deren Inhalt und Gegenstand nicht einheitlich definiert ist. Im weitesten Sinne versteht man darunter die Wissenschaft von den Struktur- und Funktionseigenschaften selbstregulierender und selbstoptimierender Systeme. Wie schon an anderer Stelle hervorgehoben, können sowohl mechanistische als auch organismische Systeme mit einem allgemeinen Begriffsinventar untersucht und beschrieben werden. Das Wort Kybernetik wurde bekanntlich in übertragener Form schon von PLATO verwendet und bezog sich auf die Kunst des Regierens (vgl. BUYTENDIJK 1967).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-91117-9_12 a83a235c5f2f32d6554c464df7165fab;de;;;1.1.;;;Lehrmethoden im technischen UnterrichtUnter dem Begriff „Methode” versteht man, entsprechend seiner Herkunft aus der griechischen Sprache, in der Regel etwa „den Weg zu etwas”. Der Wunsch einen optimalen Weg zu finden, auf dem er seine Adressaten zum angestrebten Vortrags-bzw. Unterrichts-Ziel geleiten kann, bildet das wichtigste Anliegen jedes Vortragenden oder Lehrers.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-6802-8_7 64cbc5b7b3b1d8809a1a0b920a0d4d51;de;;;1.1.;;;Defizite bisheriger TheoriebildungDie Bedeutung der genannten Theorieanleihen für die Umfrageforschung soll nicht in Abrede gestellt werden. Sie sind in der Lage, wichtige Bereiche der Befragung zu erklären und haben so entscheidende Beiträge für die Umfrageforschung geleistet. Sie sind aber nicht in der Lage, ein umfassendes Theoriengebäude für die Befragung zu liefern. Ein wesentlicher Grund dafür liegt in dem Umstand, dass sie bestimmte Dimensionen nicht oder zu wenig berücksichtigen. Dies sind aus unserer Sicht zum einen Raum und Zeit, die allgemein Bedingungen für jede Art von Handeln darstellen, zum anderen sehen wir eine problematische Nichtbeachtung der Befindlichkeit der Befragten, also ihres aktuellen affektiven Zustandes, der die Antwortvergabe und bereits zuvor die Teilnahmebereitschaft beeinflusst. Somit sind Zeit und Raum sowie die Befindlichkeit der beteiligten Personen wesentliche Determinanten der ‚sozialen Situation‘ Befragung. Die Betonung des Interviews als soziale Situation ist zwar nicht neu, erfolgt aus unserer Sicht aber verkürzt und sehr allgemein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-92327-7_3 dface68dee1c64151f2bff87b4740eb4;de;;;1.1.;;;Empathie und MedienempathieEmpathie beschreibt die Fähigkeit und Tendenz einer Person, sich in andere Personen hineinzuversetzen und mit ihnen mitzuempfinden. Das Konstrukt hat seine Wurzeln in der Emotions- und Persönlichkeitspsychologie. In der Kommunikationswissenschaft wird es häufig verwendet, um das (Mit-)Erleben und (Mit-)Empfinden während der Rezeption zu beschreiben. Es stellt sich jedoch die Frage, ob Empathie und Medienempathie nicht verschiedene Konstrukte darstellen, die auch unterschiedliche Messinstrumente erfordern. Diese Frage wird zunächst theoretisch diskutiert, wobei Argumente sowohl für als auch gegen die These übereinstimmender Konstrukte sprechen. Im Anschluss wird in Anlehnung an geprüfte Operationalisierungen von Empathie ein exakt analoges Messinstrument für Medienempathie vorgestellt, das in zwei Studien eingesetzt wird. Der Vergleich der Ergebnisse zeigt Übereinstimmungen und auch deutliche Differenzen, vor allem in Bezug auf Rezeptionsvariablen. Da Medienempathie in der Kommunikationswissenschaft zur Erklärung von Rezeptionseffekten verwendet wird, stellen unterschiedliche Bezüge zu Rezeptionsvariablen ein besonders geeignetes Argument für eine begrenzte Eigenständigkeit des Konstrukts und ein eigenes Messinstrument dar. Das vorliegende, im Rahmen einer Pilotstudie entwickelte Messinstrument wird als vorläufig gültige Operationalisierung vorgeschlagen.;-;-;-;https://link.springer.com/article/10.1007/s11616-009-0038-9 bff72838fc118bf7e31615dae4628c19;de;;;1.1.;;;Positive Entwicklung zwischen hartnäckiger Zielverfolgung und flexibler Zielanpassung: Ein Zwei-Prozess-ModellEs ist ein geläufiger Befund, dass Menschen auch unter äußerlich ungünstigen, belastenden Lebensumständen über ein hohes Maß an Zufriedenheit und Wohlbefinden berichten, und kaum weniger häufig findet sich ein entgegengesetztes Muster, bei dem scheinbar „glückliche“ äußere Umstände mit geringer subjektiver Lebensqualität einhergehen, hiervon war schon die Rede (s. auch Cheng, 2004). Schon die im Allgemeinen nur mäßig hohe Korrelation zwischen subjektiver Lebensqualität und objektiven Indikatoren wie Einkommen, beruflicher Status, Bildung impliziert solche paradoxalen Konstellationen, ohne sie allerdings zu erklären. Wie lassen sich die angesprochenen „Zufriedenheitsparadoxien“ theoretisch auflösen? Durch welche Aktivitäten bzw. Mechanismen schützt sich das Selbst-System gegen Verlusterfahrungen und Einschränkungen, wie sie in allen Phasen der Entwicklung – insbesondere auch im höheren Alter – auftreten können?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8274-2842-4_6 906b3dc7c82a80bd6c6decf8d03126cb;de;;;3.3.;;;: Neue Lösung für machbare rekonfigurierbare MPSoC Dieser Beitrag befasst sich mit der Rekonfiguration eines flexiblen Echtzeit-Network-on-Chip (NoC) in Multiprozessoren System-on-Chip MPSoC Architekturen. Wir gehen davon aus, dass jeder NoC-Knoten aus einem Prozessor und einem Router besteht. Es wird angenommen, dass ein Prozessor aus abhängigen periodischen und aperiodischen Betriebssystemtasks besteht. Das Papier befasst sich mit energiesparenden Anpassungen von MPSoC, wenn dynamische Rekonfigurationen der periodischen und aperiodischen Aufgaben (gemeinsame Ressourcennutzung) zur Laufzeit angewendet werden, um die Leistung zu sparen oder zu verbessern. Die Neukonfiguration ist als jede Operation definiert, die das Hinzufügen-Entfernen-Aktualisieren von periodischen abhängigen OS-(Betriebssystem-)Tasks ermöglicht, die Ressourcen gemeinsam nutzen. Für zwei hinzugefügte abhängige Aufgaben, die unterschiedlichen Prozessoren zugewiesen sind, wird automatisch eine Nachricht auf dem NoC hinzugefügt. Nach einem solchen Szenario können mehrere Echtzeitbeschränkungen verletzt und der Stromverbrauch erhöht werden. Um dieses Problem zu lösen, wird ein neuer Ansatz;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-62569-0_9 da7fd35079af0b8c94bab8e416bbd249;de;;;1.1.;;;Neoformalismus und Kognitive FilmtheorieMit dem von David Bordwell und Kristin Thompson initiierten Neoformalismus/Kognitivismus wird einer der meistverbreiteten filmtheoretischen Ansätze vor dem Hintergrund seines Entstehungskontextes dargestellt. Betrachtet werden nacheinander die theoretischen Grundannahmen und die stilistischen und narratologischen Konzepte der neoformalistischen Filmanalyse sowie das kognitivistische Modell des Filmverstehens und der Filminterpretation. Am Ende werden bekannte Einwände gegen das Paradigma diskutiert und weitere Kritikpunkte formuliert.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-658-09514-7_6-1 d7ad31497a2f57d16acc4bd47f72a89e;de;;;1.1.;;;Grundbegriffe und ThemenfelderIn diesem Abschnitt werden Begriffe und Themenfelder vorgestellt, die als Voraussetzungen für umwelthistorische Analysen und Darstellungen grundlegende Bedeutung haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-48809-6_3 1840cf70097066382f7ad1a0c9b1090b;de;;;1.1.;;;Modelle der Handlungsmotivation zur erfolgreichen EntwicklungWie kann erfolgreiche Entwicklung im Erwachsenenalter, vor allem aber im höheren Lebensalter, gelingen? Diese Frage haben in den vergangenen Jahren insbesondere sozial-motivationale Theorien zu beantworten versucht, von denen wir in diesem Kapitel die wichtigsten vorstellen. Diese fokussieren sich auf die Handlungsmotivation des Menschen und stellen sie in den Kontext der erfolgreichen Interaktion eines Menschen mit seiner sozialen Umwelt. Gilt eine Person als erfolgreich, wenn sie besonders leistungsfähig ist? Oder wenn sie – vielleicht trotz schlechter Leistungen – glücklich ist? Wie lange muss da Glück vorhalten, damit man von erfolgreicher Entwicklung sprechen kann? Wie hoch muss die Leistung sein? In welchem Leistungsbereich? Oder geht es vor allem darum, dass man gesund ist oder sozial gut eingebettet? Geht es darum, bei einem bestimmten Entwicklungsziel anzukommen, oder sollte vor allem der Weg der Entwicklung zählen? Diese Fragen verdeutlichen, wie schwierig es ist, jenseits der eigenen Wertvorstellungen allgemeine Kriterien für eine erfolgreiche Entwicklung zu bestimmen und damit den Rahmen dafür festzulegen, womit wir uns in diesem Kapitel beschäftigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34805-1_11 e97e17339e13dc85c7a9393ffb08818e;de;;;3.3.;;;Datenschutzfreundliche Zugriffskontrolle basierend auf persönlichen Attributen Bei attributbasierten Zugangskontrollsystemen wird der Attributbesitz anstelle der Identität überprüft, bevor ein Zugang zu privaten Diensten oder Bereichen gewährt wird. Dieser Ansatz ermöglicht eine datenschutzfreundlichere Verifizierung der Benutzer, da nur einzelne Attribute (wie Alter, Staatsbürgerschaft oder Ticketbesitz) an Diensteanbieter weitergegeben werden, nicht die vollständige Identität. Leider gibt es nur sehr wenige kryptographische Systeme, die praktische attributbasierte Zugriffskontrollsystemimplementierungen ermöglichen. Das Fehlen kryptografischer Schemata wird dadurch verursacht, dass die gute Balance zwischen Datenschutz und Rechenschaftspflicht nur sehr schwer zu erreichen ist. In diesem Papier werden die erste Implementierung des attributbasierten HM12-Schemas und eine praktische Auswahl seiner Sicherheitsparameter vorgestellt. Das kryptografische Schema wird auf handelsüblicher Hardware implementiert, nämlich auf programmierbaren MultOS-Smartcards und experimentell auf Android-Geräten. Abschließend werden die Ergebnisse unseres Piloteinsatzes des Zutrittskontrollsystems und das erhaltene Nutzerfeedback präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09843-2_1 0758a92636b693c768b69a138d9f0725;de;;;3.3.;;;Nooj Modernisierung der grafischen Benutzeroberflächen Das Vermächtnis von Mainframe-Terminalanwendungen hat im Allgemeinen die Komplexität der Benutzeroberflächen von Desktopanwendungen begrenzt. Nichtsdestotrotz treibt das Erscheinen der neuen Internet-bezogenen Technologien die Migration traditioneller Desktop-Anwendungen ins Web voran, um von den Internet-Technologiediensten zu profitieren. Die Modernisierung der GUI ist jedoch ein neues Gebiet der Softwareentwicklung, das eine gründliche Analyse erfordert, um die wichtigen Eigenschaften und Funktionen der Benutzeroberflächen aufzubauen und zu erhalten. Es bietet Unterstützung bei der Umwandlung der Benutzeroberflächen vorhandener Systeme in neue, die neue Anforderungen erfüllen. In dieser Arbeit haben wir uns auf den architekturgetriebenen Modernisierungs-ADM-Ansatz als beste Lösung für die Evolution des Legacy-Systems konzentriert. Die OMG ADM Task Force definiert eine Reihe von Standards, um die Interoperabilität zwischen Modernisierungstools zu erleichtern. Wir zitieren das Knowledge Discovery Metamodel und das Abstract Syntax Tree Metamodel. Für unsere Arbeit werden uns diese beiden Standards helfen, Designwissen zu erfassen, das für die Konstruktion moderner Nooj-Benutzeroberflächen benötigt wird. Wir präsentieren zusammen mit dieser Arbeit ein Reengineering von Nooj-Anwendungs-GUIs. Wir erklären seinen Migrationsprozess, um die alten Desktop-GUIs in moderne umzuwandeln, die Webtechnologien respektieren. Der Prozess besteht aus einer eingehenden Analyse, die sowohl die strukturellen als auch die Verhaltensaspekte einer GUI betrifft, und ausgeklügelte Reverse Engineering-Algorithmen, die dafür entwickelt werden müssen, damit umzugehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-73420-0_19 329bf136884483d3426a8c288c0bcac5;de;;;1.1.;;;Ziele und Prozesse der Frühaufklärung — Das Managementteilsystem zur Antizipation von Chancen und RisikenAus dem Umweltwandel und einer damit einhergehenden beschleunigten Dynamik und erhöhten Komplexität ergibt sich eine informationeile Unsicherheit bei der Planung. Erkennen, Analyse und Reaktionen auf Umwelt- sowie Unternehmensveränderungen erfolgen deswegen häufig zu spät. Eine Folge ist, daß nicht mehr genügend Zeit zur Verfügung steht, alle Planungsaspekte detailliert zu untersuchen. So sind Reaktionszeiten verkürzt und die Möglichkeiten der Einflußnahme eingeschränkt. Das Erreichen von Unternehmenszielen ist gefährdet, es können Krisen entstehen, die, in letzter Konsequenz, sogar die unternehmerische Existenz bedrohen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08653-6_4 33797addbd9d27da31ab3f75b27e0ec4;de;;;1.1.;;;Fortschritte beim vorsorgenden Hochwasserschutz durch die RaumordnungVorsorgender Hochwasserschutz ist eine gesamtgesellschaftliche Aufgabe. Die Rolle der Raumordnung bei der Flächen- und Verhaltensvorsorge ist inzwischen unbestritten. Aktiv wird die Integration der Hochwasserschutzbelange in die raumordnerische Praxis seit über zehn Jahren zunehmend intensiv vorangetrieben. Der vorliegende Beitrag untersucht, welche konkreten Fortschritte der Raumordnung in Deutschland und auch in der transnationalen Zusammenarbeit sichtbar werden. Ergänzend werden aktuell laufende und weitere zukünftig notwendige Schritte aufgezeigt.;-;-;-;https://link.springer.com/article/10.1007/BF03183035 0e7092e003c9e4ac38934a53ca42904a;de;;;1.1.;;;Praktische Kritik der Verwendung wertmäßiger und pagatorischer Kosten zur PlanungDie Anwendung der pagatorischen Kosten im Entscheidungskalkül erfordert den Ansatz simultaner Entscheidungsprozesse, die sich auf das gesamte Feld unternehmerischer Aktivität erstrecken. Umfaßt das Entscheidungsfeld allein die betrieblichen Aktivitäten, so besteht die Gefahr eines falschen Einsatzes jener Faktoren, die für die betrieblichen und außerbetrieblichen Aktivitäten gleichermaßen zum Einsatz gelangen, wenn pagatorisch bewertet wird. Das betrifft insbesondere den Kapitaleinsatz und die unternehmerische Arbeit, die im wesentlichen für die Verklammerung zwischen dem Betriebs- und dem restlichen Unternehmensmodell sorgen. Dekomponiert der Unternehmer daher sein Unternehmensmodell in zwei isoliert nebeneinanderstehende Entscheidungsfelder, so kann das Unternehmen nicht mehr die im Rahmen des Unternehmensmodells gewinngünstigste Lösung erreichen, wenn das isoliert betrachtete Betriebsmodell für die Entscheidungsfindung von pagatorischen Kosten ausgeht. Die Ursache für das Verfehlen der günstigsten Gesamtlösung ist darin zu sehen, daß die isolierte Planung hinsichtlich der beide Entscheidungsfelder berührenden Faktoren nicht koordiniert ist. Fehlende Koordination wiederum ist auf die nicht berücksichtigten Interdependenzen zwischen den beiden Entscheidungsfeldern zurückzuführen, die durch jene Faktoren entstehen, die in beiden Feldern eingesetzt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-02072-1_6 1f4d09e6fb7139cefd3aa799c4afead4;de;;;3.3.;;;Dynamische, taglose Cache-Kohärenzarchitektur in Chip-Multiprozessor Chip-Multiprozessor-(CMP)-Systeme beruhen auf einem Cache-Kohärenzprotokoll, um die Datenkohärenz zwischen lokalen Caches und dem Hauptspeicher aufrechtzuerhalten. Die verwendeten traditionellen Protokolle basieren entweder auf Datenungültigkeitserklärungen oder auf Datenaktualisierungsrichtlinien. Diese Strategien berücksichtigen jedoch nicht die Änderungen der Datenzugriffsmuster zur Laufzeit. Dieses Papier untersucht ein neuartiges dynamisches Hybrid-Cache-Kohärenzprotokoll mit der kombinierten Verwendung der beiden typischen Protokolle. Um die Funktionsweise des Protokolls automatisch an das Anwendungsverhalten anzupassen, wird auch ein effizienter Protokollalgorithmus vorgestellt. Durch das Aufbewahren einer Kopie aller L1-Tags ersetzt darüber hinaus eine ursprüngliche taglose Struktur, die weniger Fläche kostet, das traditionelle vollständige Bitvektor-Verzeichnis. Die Simulationsergebnisse zeigen merkliche Reduzierungen des gesamten Cache-Bereichs und des Stromverbrauchs mit einer signifikanten Reduzierung der gesamten Ausführungszeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54924-3_19 4ad5cc50d7cb1cc80683832ca8732b77;de;;;3.3.;;;Verbesserung der Zuverlässigkeit beim Softwaretesten – ein agentenbasierter Ansatz für komplexe Systeme Obwohl jedes Paradigma aufgrund seiner Verdienste seinen eigenen Einfluss auf das Gebiet der Softwareentwicklung hat, streben die Forscher weiterhin nach effizienteren und leistungsfähigeren Techniken. Agenten werden als Modell der nächsten Generation für die Entwicklung komplexer, verteilter Systeme befürwortet. Da die agentenorientierte Dekomposition eine effektive Methode zur Partitionierung des Problemraums komplexer Systeme ist, ist sie zu einem Trend in der Softwareentwicklung geworden. Obwohl immer mehr Agentenanwendungen bereitgestellt werden, gibt es keine systematische Analyse, was genau das Agentenparadigma effektiv macht, wann es verwendet werden sollte und welche Arten von Anwendungen es nutzen können. Darüber hinaus würde die qualitative Analyse des agentenbasierten Software-Engineerings einem objektiven Beobachter nicht erlauben, den agentenbasierten Ansatz von anderen Ansätzen im Bereich des Software-Engineerings (einschließlich Softwaretests) zu unterscheiden und zu bevorzugen. Daher kann das Unterscheidungsmerkmal nicht nur qualitative Beschreibungen sein, sondern muss quantitativer Natur sein. Dieses Papier bietet daher eine zeitnahe Zusammenfassung und Erweiterung der Agententheorie im Softwaretesten, die einen auf quantitativer Theorie basierenden Bewertungsrahmen zur Anpassung von Agentenorientiertem Softwaretesten (AOST) an komplexe Systeme beschreibt auf der Grundlage einiger grundlegender operativer Testtechniken in der realen Welt als Versuch zu beschreiben, wie man agentenbasierte Softwaretests praktiziert, die es bisher nicht gegeben hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30561-3_30 bbeb8d7e3b878fb5419f938ea673df42;de;;;3.3.;;;Algorithmen und Architektur zur Verwaltung sich entwickelnder ETL-Workflows ETL-Prozesse sind für das Extrahieren, Transformieren und Laden von Daten aus Datenquellen in ein Data Warehouse verantwortlich. Derzeit birgt die Verwaltung von ETL-Workflows einige Herausforderungen. Erstens verfügt jedes ETL-Tool über ein eigenes Modell zum Spezifizieren von ETL-Prozessen. Dies macht es schwierig, ETL-Prozesse anzugeben, die die Fähigkeiten eines ausgewählten Tools überschreiten, oder zwischen ETL-Tools zu wechseln, ohne den gesamten ETL-Workflow erneut neu entwerfen zu müssen. Zweitens führt eine Änderung der Struktur einer Datenquelle zu nicht mehr ausführbaren ETL-Workflows und führt zu Fehlern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30278-8_51 9b460e9e37f9109cd3d72625c0477c13;de;;;3.3.;;;Ein 9-Gb/s-Viertelrate-4-Tap-Decision-Feedback-Equalizer in 0,18-μm-CMOS-Technologie In diesem Papier wird ein Viertelraten-Entscheidungsrückkopplungsentzerrer (DFE) mit vier Abgriffen vorgeschlagen, der eine neue analoge Abtast- und Weichentscheidungstechnik verwendet. Das vorgeschlagene DFE führt zwei Optimierungen auf der Grundlage des ursprünglichen DFE mit weicher Entscheidung ein. Zunächst wird die Implementierung der Abtast- und Halteschaltung in die Kaskadenübertragungsgatter geändert, um die Takterzeugung zu vereinfachen. Zweitens wird eine 4-Tap-Struktur realisiert, ohne die Hardwarekomplexität zu erhöhen, um die Entzerrungsfähigkeit zu verbessern. Um das DFE zu verifizieren, wird ein vereinfachter Transceiver im UMC 0,18-μm-CMOS-Prozess entworfen und hergestellt, der hauptsächlich aus einem 4-Tap-DFE, einem Taktempfänger und -generator sowie einem 4 zu 1-Multiplexer besteht. Die Messergebnisse zeigen, dass das Viertelraten-4-Tap-DFE 9 Gb/s 2 . entzerren kann;-;-;-;https://link.springer.com/article/10.1007/s10470-014-0404-z bde72a9438c250963926fee2935f398f;de;;;3.3.;;;Ein Software-Ansatz zur Bewertung der Ergonomie von Mensch-Maschine-Schnittstellen Die ergonomische Gestaltung und Bewertung der Mensch-Maschine-Schnittstelle kann sich nicht nur auf die Effizienz der Interaktion, sondern auch auf die Betriebssicherheit auswirken. Daher ist es notwendig, eine effektive Methode zur Bewertung der Mensch-Maschine-Ergonomie zu entwickeln, um das Design der Mensch-Maschine-Ergonomie zu bewerten. In dieser Arbeit wurde ein Bewertungskriterium für die Mensch-Maschine-Schnittstelle vorgeschlagen, das auf der Intensität der visuellen Wahrnehmung und einem Kontrastkriterium für die Bildverarbeitung basiert, und eine Bewertungssoftware erstellt. Die erstellte Software basierte auf Microsoft Visual Studio 2010. Außerdem wurde die Oberfläche der Software in der Programmiersprache C++ geschrieben. Die Software umfasste drei Funktionsmodule: Berechnung des visuellen Wahrnehmungsindex der Schnittstelle, Berechnung des Kontrastverhältnisses der Schnittstelle und das Bewertungsergebnis der Schnittstellenergonomie. Die Simulationsergebnisse legten nahe, dass die erstellte Software zur Bewertung der Mensch-Maschine-Schnittstelle verwendet werden kann und die potenzielle subjektive Beeinflussung des Experimentators bei der traditionellen Bewertung effektiv vermieden werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-8779-1_70 bd618f307ce259597c7a247f7e78e409;de;;;1.1.;;;Zur intuitiven Aufklärung probabilistischer ParadoxienThe importance of paradoxes with regard to the development of mathematics, in particular stochastics, is outlined in part 1. Part 2 deals with the relevance of paradoxes in learning processes, and a connection to Piaget’s equilibration theory is pointed out. Part 3 consists of some general statements regarding intuition and, further, of a list of 5 heuristic strategies which should promote intuitive enlightenment (gathering and making use of experimental data, modifying, finding analogues, sharpening and contrasting, approximating). In the main part 4, three examples of probabilistic paradoxes are discussed in greater detail (Birthday-problem, Drawing-lots-problem, Table-and-chair-problem). The systematic application of the above mentioned strategies is demonstrated.;-;-;-;https://link.springer.com/article/10.1007/BF03339376 b5c67fec92882d679369e8e35c7771e7;de;;;1.1.;;;Der systemische Werkzeugkoffer/systemische Methoden und TechnikenDer systemische Ansatz hat eine Reihe von Methoden und Techniken entwickelt, die auf den in Kap. 2 vorgestellten theoretischen Grundprinzipien sowie auf der in Kap. 3 beschriebenen systemischen Haltung basieren. Wir können hier nur eine kurze Übersicht über diese Methoden und Techniken geben – ausführlichere Einführungen in die systemische Methodik finden sich z. B. bei Schlippe und Schweitzer (2010, 2016) sowie bei Schwing und Fryszer (2015).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-56645-9_10 b32bbf4a49dd6350995fbc60f53729e5;de;;;1.1.;;;Konzeptionelle und theoretische Grundlagen als Erklärungsrahmen für die haptische WahrnehmungswirkungUm aktive oder passive Berührungen überhaupt wahrnehmen zu können, wird der physikalische Kontakt zwischen Körper und Tastobjekt erfasst, gemessen und verarbeitet. Die Grundlage hierfür stellen verschiedene Rezeptoren im Körper dar (vgl. Grunwald 2012, S. 97).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-11962-1_2 df5edc02fc1d7d68a6b20e07b20a3857;de;;;3.3.;;;Panel-Zusammenfassung: Agent-Entwicklungstools Dieses Gremium (und ein entsprechender Bericht) versuchte, den Stand der Technik (oder dessen Fehlen) bei Werkzeugen für die Entwicklung von Agenten und Agentensystemen zu untersuchen. In diesem Zusammenhang umfassen „Tools“ komplette Agentenprogrammierumgebungen, Testbeds, Umgebungssimulatoren, Komponentenbibliotheken und Spezifikationstools. In den letzten Jahren hat sich das Feld von einer Situation, in der fast alle Implementierungen in Allzweck-Programmiersprachen von Grund auf neu erstellt wurden, durch das Erscheinen der ersten allgemein verfügbaren öffentlichen Bibliotheken (zum Beispiel die ehrwürdige Lockeed „KAPI“ (KQML API ) Mitte der 90er Jahre [;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44631-1_23 fb1aa4176f8e930dc79f9c96d9617041;de;;;3.3.;;;Ein kollaboratives Framework für die virtuelle Globus-basierte 3D-Stadtmodellierung Stadtplanung und Stadtmodellierung haben sich im Laufe des letzten Jahrzehnts allmählich von sehr anspruchsvollen Anforderungen in Bezug auf erforderliche Fähigkeiten und unterstützende Informationen zu Aufgaben verlagert, die jetzt durch effiziente, allgemein verfügbare Anwendungen unterstützt werden, und wurden so populär und weitgehend zugänglich. Heutzutage gibt es viele GIS-Systeme, die eine frei navigierbare dreidimensionale Umgebung bieten. Diese Entwicklung von GIS-Systemen hat wiederum zur Anforderung und Erstellung von virtuellen 3D-Modellen des Geländes und der Gebäude geführt. Online-Communitys haben Bibliotheken mit georeferenzierten 3D-Modellen erstellt und über das Internet verteilt. Die Öffentlichkeit wird ermutigt, sich an der Gestaltung von 3D-Szenen zu beteiligen, und viele Unternehmen bieten kostenlose Tools zur Erleichterung der Gestaltung von 3D-Modellen an, die auf Gebäude spezialisiert sind. In diesem Beitrag stellen wir einen kollaborativen Ansatz für die Konstruktion eines Stadtmodells und dessen Umsetzung durch eine prototypische Umgebung unter Verwendung frei verfügbarer Entwurfswerkzeuge vor. Das Prototypsystem umfasst eine kollaborative Datenbank, die von einer webbasierten Schnittstelle unterstützt wird. Benutzer können ihre Modelle erstellen und über das Internet in die gemeinsame Datenbank hochladen, um so kollaborativ ein realistisches 3D-Stadtmodell in einem bestimmten Gebiet zu erstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15690-8_9 17a2179f9fa8f5d521cd77debbc1e0f2;de;;;3.3.;;;Ein skalierbares Echtzeit-Objekterkennungssystem mit Low-Power-HOG-Beschleuniger VLSI Wie in diesem Artikel beschrieben, wird ein Echtzeit-Objekterkennungssystem vorgestellt, das einen Histogram of Oriented Gradients (HOG)-Merkmalsextraktionsbeschleuniger VLSI verwendet. Die VLSI [;-;-;-;https://link.springer.com/article/10.1007/s11265-014-0870-7 98b3666f1206cb495ecf382d5c74cdb2;de;;;3.3.;;;Optimierung und Leistungsanalyse des Zero-Forcing-Decision-Feedback-Detektors für MIMO-Block-Fading-Kanäle mit Leistungssteuerung pro Antenne In Antennensystemen mit mehreren Eingängen und mehreren Ausgängen (MIMO) wird der Zero-Forcing-Decision-Feedback-Detektor (ZF-DFD) verwendet, um Sendesignale zurückzugewinnen. In diesem Papier schlagen wir ein Pro-Antennen-Leistungssteuerungsschema (PAPC) basierend auf ZF-DFD für MIMO-Blockfading-Kanäle vor. Die optimale leistungsgesteuerte ZF-DFD kann die Blockfehlerrate (BLER) minimieren und die untere Grenze der freien Distanz des Kanals im Bereich mit hohem Signal-Rausch-Verhältnis (SNR) unter Einhaltung einer Leistungsbeschränkung maximieren. Darüber hinaus kann der optimal leistungsgeregelte ZF-DFD diese BLER-Leistung ohne Bestellvorgang am Empfänger erreichen. Die Leistungsanalyse zwischen dem konventionellen ZF-DFD ohne Rückkopplung, dem optimal leistungsgeregelten ZF-DFD mit Leistungsrückkopplung und dem ZF-DFD mit vollständiger Rückkopplung der Kanalzustandsinformationen zeigt, dass der optimale ZF-DFD einen Kompromiss zwischen Leistung und Rückkopplungs-Overhead erzielt. Wir vergleichen die Bitfehlerrate (BER) und BLER-Leistung des optimalen ZF-DFD mit anderen Detektoren ohne Leistungsrückkopplung durch Simulation. In Simulationen werden auch die von diesen Detektoren benötigten Ausführungszeiten angegeben, um ihre Komplexität zu vergleichen. Es ist klar, dass das in diesem Papier vorgeschlagene optimale leistungsgesteuerte ZF-DFD eine gute Leistung mit geringem Rückkopplungsaufwand und geringer Komplexität erreichen kann.;-;-;-;https://link.springer.com/article/10.1007/s11277-006-9061-6 39ed4c961a29cf282fcbe1841821679b;de;;;3.3.;;;Ein kollaboratives Framework für die 3D-Kartierung mit unbemannten Luftfahrzeugen Dieser Artikel beschreibt einen Überblick über einen generischen Rahmen für die Zusammenarbeit zwischen Menschen und mehreren heterogenen Robotersystemen, der auf der Verwendung einer formalen Charakterisierung der Delegation als Sprechakt basiert. Das verwendete System enthält einen komplexen Satz integrierter Softwaremodule, die Delegationsmanager für jede Plattform umfassen, eine Aufgabenspezifikationssprache zur Charakterisierung verteilter Aufgaben, einen Aufgabenplaner, ein Modul zur Generierung von Scan-Trajektorien und Regionenpartitionierung für mehrere Agenten sowie eine Systeminfrastruktur, die verwendet wird Instanziieren Sie beliebig viele Robotersysteme und Benutzeroberflächen in einem kollaborativen Team. Die Anwendung konzentriert sich auf die 3D-Rekonstruktion in alpiner Umgebung, die von alpinen Rettungsteams verwendet werden soll. Zwei komplexe UAV-Systeme, die in den Experimenten verwendet wurden, werden beschrieben. Eine vollständig autonome kollaborative Mission, die in den italienischen Alpen unter Verwendung des Frameworks ausgeführt wurde, wird ebenfalls beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-44832-9_7 47552315578910c3baee2da1283908bb;de;;;3.3.;;;Multi-Service-Netzwerke: Ein neuer Ansatz für das End-to-End-Topologiemanagement Die Möglichkeit, unternehmensweite Ansichten Ihrer Dienste, Ressourcen und Netzwerke zu koppeln, ist ein Eckpfeiler von Multi-Service-Netzwerken. Der zur Erfüllung dieser Aufgabe erforderliche Informationsspeicher ist ein wichtiger Baustein bei der Erstellung eines korrekten Überblicks über die Fähigkeiten des Netzwerks und ist daher entscheidend für die Bereitstellung, Aktivierung und Verwaltung von Diensten. Gleichzeitig ist die Erstellung und Aktualisierung des Informationsrepositorys eine sehr anspruchsvolle Aufgabe. Herkömmliche Inventarisierungslösungen sind statisch und spiegeln homogene Netzwerkarchitekturen wider, was zu Problemen der Datenkonsistenz zwischen der verwalteten Domäne und der Ansicht am Verwaltungsknoten führt. Darüber hinaus wird heute kein gemeinsames Datenmodell verwendet, während die tabellarische Erfassung von Bestandsinformationen zwischen verschiedenen Domänen mit den aktuellen Lösungen nur sehr schwer, wenn nicht gar unmöglich ist, was eine durchgängige Sicht auf das Netzwerk sehr schwierig macht erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88653-2_29 935fff27166e4d5e2e28f93cb96eb0e2;de;;;3.3.;;;Blockchain Marketplace – Eine neuartige Übersicht für die Implementierung in Echtzeit Das renommierte Sicherheitskonzept namens Blockchain wird heutzutage überall verwendet. Die Blockchain-Technologie wird nach der Entwicklung der Bitcoin-Technologie von Satoshi Nakamoto in die Welt eingeführt. In letzter Zeit versuchen viele Softwareunternehmen und Online-Marketing-Unternehmen, diese Sicherheitstechnologie zu übernehmen. Außer diesen Sektoren interessieren sich auch andere Domänen wie maschinelles Lernen, IoT, RFID usw. für Blockchain. In diesem Papier wird die Weiterentwicklung der Blockchain-Technologie im Online-Marktsektor diskutiert. Der Arbeitsablauf und die Systemarchitektur der Anwendung werden erläutert sowie die Ergebnisse der Experimente visualisiert. Das Verfahren zum Erstellen einer autonomen Ethereum-Umgebung und Ether wird ebenfalls erklärt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6393-9_23 86a62a044e1f034d1b05d416f94fb6c6;de;;;1.1.;;;Selbst-Schema-Modell für Komplexe StörungenZum Abschluß dieses Buches möchten wir einige klinische Beobachtungen und Forschungsergebnisse vorstellen, die aus der Anwendung der Fallformulierung bei komplexen psychiatrischen Störungen entstanden sind. Außerdem sollen hieraus entwickelte therapeutische Schlußfolgerungen diskutiert werden, die wir als vorläufige Arbeitshypothese zu einem Selbst- Schema-Modell zusammengefaßt haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-6305-4_6 f642afcd812f8d74173440d420956e29;de;;;1.1.;;;Das Trauma der Hirnforschung — Der Einzug der Neurobiologie in die psychoanalytische Traumatologie als Symptom der gesellschaftlichen Naturalisierung des SubjektivenIn der therapeutischen und theoretischen Behandlung von Psychotraumata wird zunehmend auf neurobiologische Konzeptionen zurückgegriffen. Dieser Trend kann als Ausdruck einer allgemeinen institutionellen Tendenz zu einer naturalistischen (de-symbolisierten) Konzeption des Unbewussten der Person gelten. Für das Verständnis dieser Entwicklung sind vor allem psychoanalytisch und tiefenpsychologisch orientierte Ansätze interessant. Das sind sie aus drei Gründen: ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-90321-7_15 3ebc5f9d2c913e2eff806d1d2a9087e7;de;;;1.1.;;;Ausgewählte Ansätze in der RezeptionsforschungWie Hurrelmann bezogen auf die Sozialisationsforschung 1986 anmerkte, wird von der Wissenschaftsgemeinschaft in diesem Forschungsfeld weithin ein neuer Typus von Theorie für notwendig erachtet. Theorien sollten eine große Reichweite und komplexe Strukturen besitzen, darüber hinaus möglichst viel Realitätsnähe aufweisen. Nur mit solchen Theorien wäre dem zunehmenden Wunsch nach einer ganzheitlichen Erfassung der Persönlichkeitsentwicklung nachzukommen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-10486-5_2 c060a09ce24fd9660a6a889e5eaeb756;de;;;1.1.;;;Konsequenzen der Einführung von Finanzinnovationen am Beispiel von Optionen auf AktienDieses Kapitel dient dazu, auf theoretischem Wege zu untersuchen und zu begründen, welche Vorteile die Existenz derivativer Finanzierungsinstrumente bietet. Es werden verschiedene Anhaltspunkte für die These, daß Finanzmärkte durch Finanzinnovationen tendenziell dem Idealzustand der ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08497-6_2 bd9e64e90a0eaf2dc86c95bf544dede9;de;;;3.3.;;;Realistische Simulation des Internets Das Internet ist eine komplexe Ansammlung verschiedener Knoten, die unabhängig voneinander laufen. Die Hard- und Software von Nodes sind sehr vielfältig und diese Elemente machen die Komplexität des Internets aus. Es ist schwierig, dieses Verhalten zu modellieren, daher haben wir StarBED vorgeschlagen und implementiert, ein groß angelegtes Testbed mit allgemeinen PCs und Switches. So haben wir eine Umgebung für Experimente mit realistischen Knoten und Software geschaffen. Wir haben auch SpringOS entworfen und implementiert, eine unterstützende Software zum Durchführen von Experimenten auf StarBED. Mit SpringOS können Benutzer einfach Experimente mit StarBED durchführen. In diesem Artikel beschreiben wir das Design von StarBED und wie man mit SpringOS ein Experiment auf dem StarBED durchführt. Darüber hinaus beschreiben wir das Design von StarBED2, StarBED2 ist ein Testbed für ubiquitäre und Sensornetzwerke basierend auf StarBED.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-49022-7_78 33ac93ae8e1ad528061061f95587d5fc;de;;;3.3.;;;Mit tragbaren Sensoren die Grundlage für die Korrelation des Tagesverhaltens mit der Schlafarchitektur legen Der Beitrag stellt Ergebnisse aus dem SmartSleep-Projekt vor, das darauf abzielt, eine Smartphone-App zu entwickeln, die Benutzern individuelle Ratschläge zur Verhaltensänderung gibt, um ihren Schlaf zu verbessern. Die Ratschläge werden generiert, indem Korrelationen zwischen dem Verhalten während des Tages und der Schlafarchitektur identifiziert werden. Dazu adressierte das Projekt zwei Teilaufgaben: das Erfassen des Tagesverhaltens eines Nutzers und das Erkennen von Schlafstadien im Alltag. Bei der Aktivitätserkennung am Tag wurden die besten Ergebnisse mit einem Beschleunigungssensor am Handgelenk und einem weiteren am Knöchel erzielt (87%). Ein anschließender Glättungsschritt erhöhte die Genauigkeit auf über 90%. Zur Erkennung der Schlafarchitektur haben wir mit verschiedenen Consumer Wearables experimentiert, die wir zusätzlich zu den üblichen PSG-Sensoren in einem Schlaflabor eingesetzt haben. Aus den resultierenden Sensordatenströmen wurden mehrere Schlafphasen-Klassifikatoren gelernt, die in beschriftete Schlafphasen von jeweils 30 s segmentiert waren. Neben handgefertigten Features haben wir mit unüberwachtem Feature-Learning auf Basis des Deep-Learning-Paradigmas experimentiert. Unsere besten Ergebnisse für korrekt klassifizierte Schlafstadien liegen zwischen 86 und 90 % für Wake, REM, N2 und N3, während die beste Erkennungsrate für N1 bei 37 % liegt. Schließlich diskutieren wir ein vorläufiges Design des Algorithmus zur Bestimmung von Korrelationen zwischen dem Tagesverhalten und der Schlafarchitektur.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-93644-4_8 5d6bdfcb846b1e59ee124c4ee59a889e;de;;;1.1.;;;Biophysik der ZelleIn diesem Kapitel wird zunächst auf den Aufbau und auf die morphologische Vielfalt biologischer Zellen eingegangen. Die Darstellung erfolgt in knapper Weise als einleitende Vorbereitung auf spätere, nähere Betrachtungen. Danach folgt eine Beschreibung der physikalischen Eigenschaften von Biomolekülen. Es wird gezeigt, daß es vor allem die elektrischen Eigenschaften sind, welche die Ausbildung molekularer und zellulärer Strukturen begründen. Eine besondere Rolle kommt der räumlichen Verteilung elektrisch aktiver Positionen zu. Sie ist der Träger molekularer Information. Bezüglich der Verarbeitung solcher Information wird die Rolle physikalischer Mechanismen u.a. am Beispiel des Hormonsystems erläutert. In ausführlicherer Weise wird die genetische Informationsverarbeitung behandelt, wobei auch Grundprinzipien gentechnologischer Verfahren dargestellt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-0645-7_1 cc4260dc5b72f7d3fc455d8651c7b9f2;de;;;1.1.;;;Konzeption der quantitativen UntersuchungIn den vorangegangenen Kapiteln stand die Erarbeitung der theoretisch-konzeptionellen Ausgangsbasis dieser Arbeit im Vordergrund. Im Folgenden sollen nun die Ansätze zur Prüfung der aufgestellten Hypothesen beleuchtet werden. Dazu wird vorab auf das Design der empirischen Untersuchung eingegangen (Abschnitt 5.1). Hieran schließen Erläuterungen zur Datenerhebung an (Abschnitt 5.2). In einem letzten Teil folgt die Darstellung der für die Datenauswertung verwendeten Methoden (Abschnitt 5.3).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-00762-1_5 37b05d7473e11cc856b1b2598c646081;de;;;1.1.;;;Energie- und Kosten-Effizienz zwischen Theorie und Praxis: Umsetzung und Management- (mit) SystemEnergieeffizienz ist seit Jahren und Jahrzehnten ein wichtiges Thema der Industrie. Ein wesentlicher Antrieb ist der Anstieg der Energiekosten (vgl. Abb. 15.1).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-04809-9_15 fdad93f387b30845fdaa0aaefb218a5a;de;;;1.1.;;;Theoretische Bezugsgrößen des ModellsUnter dem Konstrukt der beruflichen Leistung wird im Allgemeinen der individuelle Beitrag eines Mitarbeiters zu den Unternehmenszielen verstanden (Marcus, 2011, S. 85). Die Struktur des Konstrukts ist komplex, da die leistungsbezogenen Verhaltensweisen von Mitarbeitern sehr unterschiedlich ausfallen. Eine erste Systematisierung beruflicher Leistung entwickelten Campell, MC Henry & Wise (1990) auf der Grundlage des Datensatzes aus dem ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-06328-3_2 57f3a411918c6d054bed9cb9081cdc3a;de;;;3.3.;;;Softwareanalyse mit Cuckoo Search Die Softwareanalyse umfasst sowohl die Codeabdeckung als auch die Anforderungsabdeckung. Bei der Code-Coverage werden aus dem Kontrollflussgraphen automatische Testsequenzen generiert, um alle Knoten abzudecken. Im Laufe der Jahre war das Hauptproblem beim Softwaretest die Automatisierung des Testprozesses, um die Gesamtkosten des Testens zu senken. Dieser Artikel stellt eine Technik zur vollständigen Softwareanalyse unter Verwendung einer metaheuristischen Optimierungstechnik Cuckoo Search vor. Zu diesem Zweck wird das Konzept der Kuckuckssuche übernommen, bei der die Suche quasi zufällig erfolgt. Bei der Anforderungsabdeckung werden Testsequenzen basierend auf dem Zustandsübergangsdiagramm generiert. Die aus der Kuckuckssuche erhaltene optimale Lösung zeigt, dass sie weitaus effizienter ist als andere metaheuristische Techniken wie Genetischer Algorithmus und Partikelschwarmoptimierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11218-3_23 a7f479ed896328138bc7c12c83f93404;de;;;3.3.;;;Eine visuelle Datenflusssprache für die Bildsegmentierung und -registrierung Experimentatoren in der biomedizinischen Bildverarbeitung verlassen sich auf Softwarebibliotheken, um eine große Anzahl von Standardfilter- und Bildverarbeitungsalgorithmen bereitzustellen. Das Insight Toolkit (ITK) ist eine Open-Source-Bibliothek, die ein vollständiges Framework für eine Reihe von Bildverarbeitungsaufgaben bietet und speziell auf Segmentierungs- und Registrierungsaufgaben für zwei- und dreidimensionale Bilder ausgerichtet ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88655-6_5 a41dd8ee931168bf71791a58c2072ab4;de;;;3.3.;;;ATM in der Praxis: Erfahrungen in LAN- und WAN-Umgebungen In den letzten Monaten wurde die ATM-Technologie als Lösung für den ständig steigenden Bedarf an Bandbreite sowohl in LAN- als auch WAN-Umgebungen gelobt, da sie nicht nur höhere Geschwindigkeiten zu moderaten Kosten bietet, sondern auch die Möglichkeit bietet, Ressourcen bedarfsgerecht zuzuweisen. Es scheint jedoch, dass abgesehen von Experimenten in kleinen Laborumgebungen nur wenige Erfahrungen darüber vorliegen, wie sich ATM – bzw. die verfügbare ATM-Ausrüstung – unter hoher Last verhält.;-;-;-;https://link.springer.com/chapter/10.1007/3540761691_11 0349092c3fd2bce7812d15cc5f17a352;de;;;3.3.;;;Konflikte zwischen Sicherheits- und Datenschutzmaßnahmen im Software Requirements Engineering Die digitale Welt breitet sich rasant in alle Teile der physischen Welt aus und unsere Umwelt wird durch die von uns eingesetzten Technologien geprägt. Bei den meisten dieser Technologien handelt es sich um nutzergenerierte Inhalte durch Surfen, E-Mails, Bloggen, soziale Medien, E-Shopping, Video-Sharing und viele andere Aktivitäten. Unsere Forschung beschäftigt sich mit der Frage, wie insbesondere Technologie und Softwarearchitektur gestaltet werden könnten, um den Weg für mehr Sicherheit und Privatsphäre in digitalen Verfahren und Diensten zu ebnen. Die Forschung behandelt Sicherheit und Privatsphäre als intrinsische Komponente eines Systemdesigns. Der in dieser Studie vorgeschlagene Rahmen umfasst einen breiten Ansatz, indem Sicherheit und Datenschutz ab der Anforderungsphase unter einem einheitlichen Rahmen untersucht werden, der es ermöglicht, die Lücke zwischen Anforderungs- und Implementierungsphasen umfassend zu überbrücken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23276-8_29 441b13473018d0a48de55649b39a1fef;de;;;3.3.;;;Ineinandergreifen, Riffeln und Falten: Untersuchungen in parametrischen Konstruktionen In diesem Beitrag werden drei Projekte vorgestellt, die den Entwurf und die Herstellung von architektonischen Strukturen durch den Einsatz unterschiedlicher parametrischer Software und digitaler Fertigungsmethoden umfassen. Das erste Projekt ist eine flexible Trennwand aus ineinandergreifenden Elementen, die mit einem Laserschneider geformt wurden. Das zweite Projekt ist eine universitäre Ausstellungseinheit, die aus verschiedenen Holzplatten besteht, die durch ein computergesteuertes (CNC) System hergestellt werden. Das dritte Projekt ist ein System aus Metallblechen, die von digitalen Maschinen gefaltet werden, um urbane Verkehrsräume zu schaffen. Die drei Arbeiten entwickeln eine parametrische Programmierung der Geometrie auf der Grundlage bestimmter technischer Faktoren, die das Erkennen von Interaktionsmustern zwischen formalen und konstruktiven Aspekten bei der Definition von Formen durch parametrische Steuerungen ermöglicht. Unterschieden in Materialien und Prozessen stehen Ähnlichkeiten der beteiligten Funktionen und Bedingungen gegenüber, wodurch ein System lokaler, globaler, produktiver und umweltbezogener Parameter entsteht, das ein Repertoire selbstähnlicher Dimensionen und Variationen sowie vielfältige Möglichkeiten der anfänglichen Einrichtung und endgültigen Konfiguration hervorbringt. Es schlägt ein spezifisches Feld der Designforschung vor, das sich auf die Entwicklung differenzierter Komponenten und variabler Architekturkonfigurationen in einer Art offenem parametrischen System konzentriert.;-;-;-;https://link.springer.com/article/10.1007/s00004-011-0051-y 2ad209add141533c838e373797d44202;de;;;1.1.;;;Neue Kommunikations-Konzepte in industriellen LeitsystemenThe use of distributed computer control systems requires real-time behaviour, high reliability and increasingly economical systems. High real-time requirements and large process data volumes make event-driven information processing and transfer necessary. This arises several constraints for system design, for instance data consistency. The demand for economical systems requires the use of cheap standard components, whenever possible. Problems due to conventional use of standardized, connection-oriented communication protocols in event-driven distributed computer control systems are shown. Multicast communication concepts are presented as solutions, using standardized protocols in a problem-specific way. The presented concepts fulfill the necessity of using standard components as well as the specific demands towards distributed computer control systems, avoiding the problems presented.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-90480-5_13 667a8f071e7a7e448c039743f424334c;de;;;1.1.;;;Alltagstheorien über SchülergewaltIm Mittelpunkt dieser Arbeit stehen die Alltagstheorien von LehrerInnen und SchülerInnen über Gewalt in der Schule. Zur besseren Einordnung dieser Forschungsperspektive wird im ersten Teil dieses Kapitels der Forschungsstand kurz referiert. Der knappe Überblick über die Ergebnisse der jüngsten schulischen Gewaltforschung zeigt, dass der Schwerpunkt auf repräsentativen Studien liegt, die eine Bestandsaufnahme der Gewaltbelastung sowie die Identifizierung von Ursachenfaktoren zum Ziel haben. Qualitative Forschungsansätze, insbesondere solche mit alltagstheoretischer Fragestellung, liegen hingegen kaum vor. Dennoch kann in einer ersten Annäherung auch aufgrund repräsentativer Studien etwas über die Sichtweisen von unterschiedlichen schulischen Gruppen gesagt werden. Der zweite Teil des Kapitels befasst sich mit dem Theoriekonzept Alltagstheorien und dessen Relevanz für den schulischen Kontext, um sodann die wenigen vorliegenden Untersuchungsergebnisse zu Alltagstheorien von LehrerInnen und SchülerInnen zu präsentieren. Schließlich wird anhand der vorher aufgezeigten Leerstellen bisheriger Forschung die Fragestellung dieser Arbeit heraus gearbeitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-90305-7_2 5bf13461dbef28bb6ae8aa8a54c1b631;de;;;1.1.;;;Habitusreflexive Beratung im Kontext von Schule als Beitrag zu einer rationalendemokratischen PädagogikDas Reüssieren im deutschen Bildungssystem ist nach wie vor maßgeblich von der sozialen Herkunft abhängig. Schülerinnen und Schüler, die aus bildungsnahen Familien stammen und deshalb auf familiale Bildung zurückgreifen können, haben einen Vorsprung vor denjenigen, die allein auf schulische Bildung angewiesen sind. Dieser Umstand müsste per se nicht zu einer Chancenungleichheit im Bildungswesen führen, würden die in der Familie vermittelten kulturellen Techniken nicht in der Schule bereits vorausgesetzt und als legitime Kultur anerkannt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-25435-3_7 d74d7eebb69ebf885e94a7e5c3323c64;de;;;3.3.;;;Multi-fragmentale Markov-Modelle für die Sicherheitsbewertung von KKW-Leittechniksystemen unter Berücksichtigung der Migration versteckter Fehler Die Informations- und Kontrollsysteme des Kernkraftwerks und anderer sicherheitskritischer Systeme werden als ein Satz von drei unabhängigen Hardwarekanälen einschließlich eines Online-Testsystems betrachtet. Das Design von Informations- und Steuerungssystemen für Kernkraftwerke auf programmierbaren Plattformen ist fest an das V-Modell des Lebenszyklus gebunden. Sicherheit und Verfügbarkeit während des Lebenszyklus werden anhand von Markov- und Multifragmentmodellen bewertet. Das multifragmentale Modell MICS32 enthält einen absorbierenden Zustand bei versteckten Fehlern und ermöglicht die Bewertung von Risiken einer „versteckten“ Nichtverfügbarkeit. Das MICS42-Modell simuliert die „Migration“ von Zuständen mit unerkannten Fehlern in Zustände mit erkannten Fehlern. Diese Modelle beschreiben die Funktionsweise des Systems und die vollständige Beseitigung von Softwarefehlern. Die Ergebnisse der multifragmentalen Modellierung werden verglichen, um die Proof-Test-Periode unter Berücksichtigung der Anforderungen für das SIL3-Level und der Grenzwerte der Wahrscheinlichkeit versteckter Fehler zu bewerten. Multi-Fragment-Modelle sind in der Bewertungsmethode der Implementierungssicherheitsanforderungen von ICS auf programmierbaren Plattformen enthalten. Berücksichtigt wird auch die Informationstechnologie der Entscheidungsunterstützung bei der Bewertung und Steuerung der Umsetzung der Anforderungen an die IKS-Sicherheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-39459-2_14 acbea1e0d0c2401cae5c579a7909e877;de;;;3.3.;;;Empfängerbasierter Verkehrssteuerungsmechanismus zum Schutz von Netzwerken mit geringer Kapazität in einem infrastrukturbasierten drahtlosen Mesh-Netzwerk Infrastrukturbasierte drahtlose Mesh-Netzwerke entwickeln sich zu einer erschwinglichen, robusten, flexiblen und skalierbaren Technologie. Mit dem Aufkommen von Wireless Mesh Networks (WMNs) scheint der Traum, mehrere technologiebasierte Netzwerke zu verbinden, wahr zu werden. Ein vollständig sicheres WMN ist nach wie vor eine Herausforderung für die Forscher. In infrastrukturbasierten WMNs können fast alle Arten von bestehenden drahtlosen Netzwerken wie Wi-Fi, Mobilfunk, WiMAX und Sensor usw. über Wireless Mesh Router (WMRs) verbunden werden. Diese Situation kann zu einem Sicherheitsproblem führen. Einige Knoten können Teil des Netzwerks mit hoher Verarbeitungsleistung, großem Speicher und geringsten Energieproblemen sein, während andere zu einem Netzwerk mit geringer Verarbeitungsleistung, kleinem Speicher und ernsthaften Energiebeschränkungen gehören können. Der spätere Typ der Knoten ist sehr anfällig für gezielte Angriffe. In unserer Forschung haben wir vorgeschlagen, einige Regeln für die WMR festzulegen, um diese Art von gezielten Überschwemmungsangriffen abzuschwächen. Der WMR teilt dann diesen Regelsatz mit anderen WMRs für eine effektive Nutzung von Ressourcen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13365-7_22 cf3070bfad9a1b062a7711e2407bdebd;de;;;3.3.;;;Ein integriertes System für den Wissensaustausch zwischen heterogenen Wissensableitungssystemen Das Lösen von Problemen in einer komplexen Anwendungsdomäne erfordert oft eine nahtlose Integration einiger existierender Wissensableitungssysteme, die unabhängig entwickelt wurden, um Teilprobleme unter Verwendung verschiedener Inferenzschemata zu lösen. Dieses Papier stellt das Design und die Implementierung eines integrierten Wissensableitungssystems (IKDS) vor, das es dem Benutzer ermöglicht, eine globale Datenbank abzufragen, die Daten enthält, die durch die Regeln und Beschränkungen einer Reihe kooperativer heterogener Systeme ableitbar sind. Das globale Wissensrepräsentationsschema, die globale Wissensmanipulationssprache und der globale Wissensverarbeitungsmechanismus von IKDS werden ausführlich beschrieben. Für die globale Wissensrepräsentation werden die dynamischen Aspekte des Wissens wie Ableitungsbeziehungen und restriktive Abhängigkeiten zwischen Datenelementen durch einen Funktionsgraphen modelliert, um die Fähigkeiten (oder das Wissen) der regelbasierten Systeme einheitlich darzustellen, während die üblichen statischen Aspekte wie Daten Items und ihre strukturellen Zusammenhänge werden durch ein objektorientiertes Modell modelliert. Zur Wissensmanipulation werden drei Arten von explorativen Abfragen auf hoher Ebene eingeführt, um es dem Benutzer zu ermöglichen, die globale Wissensbasis abzufragen. Um die besten globalen Antworten auf Abfragen abzuleiten, ermöglicht der globale Wissensverarbeitungsmechanismus die wahllose Ausnutzung der Regeln und Beschränkungen in verschiedenen Komponentensystemen trotz der Inkompatibilitäten in ihren Schlußfolgerungsmechanismen und Interpretationsschemata. In diesem Papier werden mehrere Schlüsselalgorithmen beschrieben, die für den Wissensverarbeitungsmechanismus erforderlich sind. Der Hauptvorteil dieses Integrationsansatzes besteht darin, dass Regeln und Beschränkungen effektiv von heterogenen regelbasierten Systemen geteilt werden können, sodass sie ihre Daten frei austauschen und als Teile eines einzigen Systems arbeiten können. IKDS erreicht die Integration auf Regelebene statt auf Systemebene. Es wurde in C implementiert und läuft in einem Netzwerk von heterogenen Komponentensystemen, die drei unabhängig entwickelte Expertensysteme mit unterschiedlichen Regelformaten und Inferenzmechanismen enthalten.;-;-;-;https://link.springer.com/article/10.1007/BF00118998 bb36aff1bd466410fae4ff1483784e01;de;;;3.3.;;;Ereignisbasierte Modularisierung reaktiver Systeme Es gibt eine Vielzahl komplexer Softwaresysteme mit reaktivem Verhalten. Wie jedes andere Softwaresystem unterliegen auch reaktive Systeme Evolutionsanforderungen. Dieses Papier definiert eine Reihe von Anforderungen, die erfüllt werden müssen, damit die Wiederverwendung von reaktiven Softwaresystemen erhöht werden kann. Eine detaillierte Analyse einer Reihe von repräsentativen Sprachen zeigt, dass diese Anforderungen von den aktuellen Programmiersprachen nicht vollständig erfüllt werden und die Wiederverwendung reaktiver Systeme als solche eine Herausforderung bleibt. Dieses Papier erläutert das Event Composition Model und seine Implementierung der EventReactor-Sprache, die die Anforderungen erfüllen. Anhand eines Beispiels wird die Eignung der EventReactor-Sprache zur Erstellung wiederverwendbarer reaktiver Systeme veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44471-9_16 d98301fa60a12b74047953b22f5a0dae;de;;;3.3.;;;Effektive Entscheidungsfindung in selbstadaptiven Systemen durch Kosten-Nutzen-Analyse zur Laufzeit und Online-Lernen von Anpassungsräumen Selbstadaption ist ein etablierter Ansatz, um mit Unsicherheiten umzugehen, die vor der Bereitstellung eines Systems schwer vorherzusagen sind. Ein selbstadaptives System verwendet eine Feedback-Schleife, die Änderungen verfolgt und das System entsprechend anpasst, um seine Qualitätsziele zu gewährleisten. Es ist jedoch eine Herausforderung, zur Laufzeit effektive Anpassungsentscheidungen zu treffen. In diesem Kapitel behandeln wir zwei Probleme effektiver Entscheidungsfindung in selbstadaptiven Systemen. Erstens konzentriert sich die aktuelle Forschung typischerweise auf den Nutzen, den die Anpassung mit sich bringen kann, ignoriert jedoch die Kosten der Anpassung, die den erwarteten Nutzen zunichte machen können. Um dieses Problem anzugehen, führen wir CB@R (Cost-Benefit analysis @ Runtime) ein, einen neuartigen modellbasierten Ansatz zur Laufzeitentscheidung in selbstadaptiven Systemen, der sowohl den Nutzen als auch die Kosten der Anpassung als erstklassige Bürger in Entscheidungen fällen. Zweitens betrachten wir den Anpassungsraum selbstadaptiver Systeme, d. h. die Menge der zur Auswahl stehenden Anpassungsoptionen. Bei Systemen mit vielen Anpassungsmöglichkeiten ist eine Analyse des gesamten Anpassungsraums aufgrund der Zeit- und Ressourcenbeschränkungen oft nicht machbar. Um dieses Problem anzugehen, präsentieren wir einen Ansatz des maschinellen Lernens, der das Lernen mit der Feedbackschleife integriert, um eine Teilmenge der Anpassungsoptionen auszuwählen, die in der aktuellen Situation gültig sind. Wir evaluieren CB@R und den Lernansatz für eine reale Anwendung im Internet der Dinge (IoT).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-22559-9_17 d9e34d382f02a5c5e30a4ee921c199a1;de;;;3.3.;;;Zur Geräuscherkennung von virtuellen Maschinen Wir entwerfen, implementieren und evaluieren einen praktischen zeitbasierten Ansatz zur Erkennung von Virtual Machine Monitors (VMMs), ohne auf Details der VMM-Implementierung angewiesen zu sein. Die in diesem Papier entwickelten Algorithmen basieren eher auf grundlegenden Eigenschaften von Monitoren für virtuelle Maschinen als auf leicht zu modifizierenden Softwareartefakten. Wir evaluieren unseren Ansatz anhand zweier gängiger VMM-Implementierungen auf Maschinen mit und ohne Hardwareunterstützung für Virtualisierung in einer Reihe von Remote- und lokalen Experimenten. Wir unterscheiden in allen Fällen erfolgreich zwischen virtuellen und realen Maschinen, selbst bei unvollständigen Informationen zur VMM-Implementierung und Hardwarekonfiguration der Zielmaschine.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-68768-1_5 b2158db717d6e3144eaba53612c24f42;de;;;3.3.;;;Eine Architektur, die assoziative Aggregate in applikativen Programmiersprachen effizient aktualisiert Anwendbare (auch funktionale) Programmiersysteme verhindern Nebenwirkungen, einschließlich Zuweisungen an Variablen. Diese Einschränkung hat mehrere Vorteile, einschließlich referenzieller Transparenz und potenzieller paralleler Programmausführung. Ein Hauptnachteil besteht jedoch darin, dass die Wartung von Aggregatdatenstrukturen sehr teuer wird: Wenn der Programmierer ein einzelnes Element in einem Aggregat aktualisiert, müssen viele Implementierungen in Anwendungssprachen das Aggregat vollständig neu kopieren. Dieses Papier löst das Problem der Aggregataktualisierung mit einer Zwei-Ebenen-Architektur: Ein Mikroprogramm verwaltet „assoziative Aggregat“-Datenstrukturen, und ein Hardware-Speicherdesign (die Assoziative Aggregatmaschine) implementiert leistungsstarke Einfüge-, Lösch- und Suchoperationen, die vom Mikroprogramm benötigt werden. Die Assoziative Aggregatmaschine enthält eine lineare Folge von Zellen, die Speicher und kombinatorische Logik umfasst. Jede Zelle ist mit ihrem Vorgänger und Nachfolger verbunden, sodass die Zellenfolge ein Schieberegister bildet, das das Einfügen und Löschen unterstützt. Außerdem führt ein binärer Baum von kombinatorischen Logikknoten eine schnelle assoziative Suche durch die Zellensequenz durch. Die Architektur der Assoziativen Aggregatmaschine ist äußerst regelmäßig und eignet sich gut für die VLSI-Implementierung.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-15975-4_36 74e3fbc0a09975392d72b1145cf57210;de;;;1.1.;;;Zur Abweichungsanalyse im operativen, modellgestützten ControllingGroße Bedeutung im operativen Controlling haben Kennzahlensysteme. Dabei auftretende funktionale Zusammenhänge zwischen den Kennzahlen lassen sich unter Nutzung der Methoden der Abweichungsanalyse analysieren, indem Soll- und Ist-Werte oder Angaben verschiedener zeitlicher Perioden miteinander verglichen werden. Gegenstand dieser Arbeit ist ein Vergleich verschiedener Konzepte der Abweichungsanalyse. Dazu werden Kriterien formuliert, deren Erfüllung für die Nutzung der betreffenden Methoden im Controlling und für eine möglichst einfache und eindeutige Interpretation der Ergebnisse wünschenswert erscheint. Aus der Sicht der Kennzahlensysteme ergeben sich dabei teilweise andere Anforderungen als die in der Kostenrechnung diskutierten Bedingungen. Für die Analyse der zeitlichen Entwicklung wird ein neues Konzept der Abweichungsanalyse entwickelt, das allen geforderten Kriterien genügt.;-;-;-;https://link.springer.com/article/10.1007/BF01539785 d8e8d54a90645460e601a8afa1459034;de;;;1.1.;;;Forschungsstand: Konzepte der Zuschaueraktivität in der FilmrezeptionIch möchte dem Nachstehenden vorausschicken, dass der Vergleich theoretischer Ansätze und empirischer Forschungsprogramme zu einem nicht unwesentlichen Teil immer etwas problematisch ist. Da die entsprechenden Ansätze und Positionen nicht ineinander überführbar sind, sondern gemäß dem bekannten Grundsatz, dass das jeweilige theoriebezogene Beschreibungsvokabular und die entsprechenden Methoden ihren eigenen Gegenstand konstituieren, haben sie auch ihre je eigene Daseinsberechtigung. Insofern kann im Weiteren nur vergleichend untersucht werden, inwieweit die Gegenstandskonstitution der jeweiligen Ansätze dem ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-92124-2_3 11a67b7f703ed308d8f7218fb0d205c0;de;;;3.3.;;;Die Architektur des Ameisen-basierten Clusterings zur Verbesserung der topografischen Kartierung Dieses Papier analysiert den beliebten Ameisen-basierten Clustering-Ansatz von Lumer/Faieta. Die Analyse der Formeln zeigt, dass das ameisenbasierte Clustering stark mit Kohonens Self-Organizing Batch Map zusammenhängt. Bekannte Phänomene, z.B. die Bildung von zu vielen und zu kleinen Clustern kann damit erklärt werden. Weiterhin wird gezeigt, wie die topographische Kartierung von ameisenbasierten Verfahren durch eine modifizierte Fehlerfunktion wesentlich verbessert wird. Dies wird anhand einiger ausgewählter grundlegender Clustering-Probleme demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87527-7_40 53ba50feb1cba642be27a1a6c3ffd0f1;de;;;3.3.;;;"Großmaßstäbliche Vorhersage von Protein-Ubiquitinierungsstellen mithilfe einer multimodalen Tiefenarchitektur Ubiquitinierung, die auch als ""Lysin-Ubiquitinierung"" bezeichnet wird, tritt auf, wenn ein Ubiquitin an Lysin (K)-Reste in Zielproteinen gebunden wird. Als eine der wichtigsten posttranslationalen Modifikationen (PTMs) spielt es nicht nur beim Proteinabbau, sondern auch bei anderen zellulären Funktionen eine bedeutende Rolle. Daher ist die systematische Anatomie des Ubiquitinierungsproteoms ein attraktives und herausforderndes Forschungsthema. Die existierenden Methoden zur Identifizierung von Protein-Ubiquitinierungsstellen können in zwei Arten unterteilt werden: Massenspektrometrie und Computermethoden. Massenspektrometrie-basierte experimentelle Methoden können Ubiquitinierungsstellen von Eukaryoten entdecken, sind aber zeitaufwendig und teuer. Daher ist es vorrangig, Computeransätze zu entwickeln, die Protein-Ubiquitinierungsstellen effektiv und genau identifizieren können.";-;-;-;https://link.springer.com/article/10.1186/s12918-018-0628-0 1153d4e36ce55fe4f876de904fcdf7c8;de;;;3.3.;;;Adaptive Fork-Heuristiken für Spekulationen auf Software-Thread-Ebene Fork-Heuristiken spielen eine Schlüsselrolle bei der Software-Thread-Level-Speculation (TLS). Aktuellen Fork-Heuristiken fehlen entweder echte Informationen über die parallele Ausführungsumgebung, um Gabelpunkte genau zu bewerten und/oder konzentrieren sich auf die Hardware-TLS-Implementierung, die nicht direkt auf Software-TLS angewendet werden kann. Dieses Papier schlägt adaptive Fork-Heuristiken sowie eine Feedback-basierte Auswahltechnik vor, um die Probleme zu überwinden. Adaptive Fork-Heuristiken fügen alle potenziellen Fork/Join-Punkte ein und spekulieren darauf und verlassen sich ausschließlich auf das Laufzeitsystem, um ungeeignete zu deaktivieren. Die rückkopplungsbasierte Auswahl erzeugt parallelisierte Programme mit idealen Geschwindigkeiten unter Verwendung von Protokolldateien, die durch adaptive Heuristiken generiert werden. Experimente von drei wissenschaftlichen Computing-Benchmarks auf einem 64-Kern-Rechner zeigen, dass Feedback-basierte Auswahl und adaptive Heuristiken mehr als 88 % bzw. 50 % Beschleunigung der manuell parallelen Version erreichen. Beim Barnes-Hut-Benchmark ist die feedbackbasierte Auswahl 49 % schneller als die manuell-parallele Version.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55224-3_49 5b20708b7ae32a494ee838a00e039d78;de;;;3.3.;;;Eine Testmethodik für eine offene Software-E-Learning-Plattform In diesem Beitrag wird eine Methodik zum Testen einer offenen Software-E-Learning-Plattform skizziert. Die Methodik umfasst eine Testgenerierungsmethode aus UML-Beschreibungen, insbesondere Sequenz-, Aktivitäts-, Klassendiagramme und Navigationskarten. Die untersuchte E-Learning-Plattform für offene Software ist dotLRN, eine Open-Source-Suite von Webanwendungen und Portal-Frameworks der Enterprise-Klasse zur Unterstützung von Kursmanagement, Online-Communities und Kooperationen. Die in diesem Papier vorgestellten Arbeiten werden im Rahmen des E-LANE-Projekts entwickelt, einer europäischen und lateinamerikanischen Zusammenarbeit zur Schaffung einer offenen softwareintegrierten Plattform für E-Learning.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-8162-6_18 9d3a96abc0d8a583a21519a88c6484ca;de;;;3.3.;;;Funktions- und Architekturauswahl im Deep Feedforward-Netzwerk für die Vorhersage von Rollbewegungs-Zeitreihen Die neuronale Architektur und die Eingabefunktionen sind sehr wichtig, um ein Modell eines künstlichen neuronalen Netzes (ANN) aufzubauen, das eine gute Vorhersage durchführen kann. Die Architektur wird durch mehrere Hyperparameter bestimmt, einschließlich der Anzahl der versteckten Schichten, der Anzahl der Knoten in jeder versteckten Schicht, der Serienlänge und der Aktivierungsfunktion. In dieser Studie präsentieren wir eine Methode zur Durchführung der Merkmalsauswahl und Architekturauswahl von KNN-Modellen für die Zeitreihenvorhersage. Insbesondere untersuchen wir ein Deep-Learning- oder Deep Neural Network (DNN)-Modell, das als Deep Feedforward Network bezeichnet wird, ein KNN-Modell mit mehreren versteckten Schichten. Wir verwenden zwei Ansätze zur Auswahl der Eingaben, nämlich PACF-basierte Eingaben und ARIMA-basierte Eingaben. Drei verwendete Aktivierungsfunktionen sind logistisches Sigmoid, Tanh und ReLU. Der verwendete reale Datensatz sind Zeitreihendaten, die als Rollbewegung einer Floating Production Unit (FPU) bezeichnet werden. Als Modellauswahlkriterium wird der mittlere quadratische Fehler (RMSE) verwendet. Die Ergebnisse zeigen, dass das ARIMA-basierte 3 Hidden-Layer-DNN-Modell mit ReLU-Funktion mit bemerkenswerter Vorhersagegenauigkeit unter anderen Modellen übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3441-2_5 0aa2735597266c6bf3459d62950555ea;de;;;1.1.;;;87. Einführung — Bewertung ärztlicher LeistungThe process of medical activities and its principal elements are described. Ten fields of criteria for the evaluation of medical activities are proposed. Difficulties in the evaluation of medical action are mentioned. The development of appropriate measuring instruments for the evaluation of medical activities is a distinct possibility.;-;-;-;https://link.springer.com/article/10.1007/BF01729545 4ad1210c49210b403c200423bf6e74ad;de;;;1.1.;;;Differential-psychologische Untersuchungen zum VigilanzverhaltenThis paper is concerned with individual differences of vigilance performance in a simple and a complex vigilance task. In both tasks certain aspects of vigilance behavior were correlated with interference in the Color Word Test by Stroop. In the complex vigilance task there was a negative correlation between the probabilities of signal detections and false alarms rates. With regard to the temporal characteristics of vigilance behavior it was found out that subjects with the least decrease of detection rate showed the greatest reduction of their false alarms rate to the beginning of the vigilance task. The results were discussed in the context of the detection model.;-;-;-;https://link.springer.com/article/10.1007/BF00422861 24fa1855de1dbb1d1573d2a38f0cd27f;de;;;1.1.;;;Prognosegegenstand MarkenbekanntheitDie Bedeutung des Konstruktes Markenbekanntheit (brand awareness) als Werbewirkungskriterium und seine Kaufverhaltensrelevanz ergibt sich aus der zugrunde liegenden explorativen Kaufsituation. Kaufentscheidungen für FMCGs werden in aller Regel spontan in der Einkaufsstätte gefällt, da das (finanzielle) Risiko einer falschen Entscheidung gering ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-9459-8_3 d7ade93fdc132a95386950b2f26c00fb;de;;;1.1.;;;Explizites Model Checking: Welche Vorteile bieten Petrinetze?Petrinetze wurden vorgeschlagen, um Schwächen klassischer Automatenmodelle zu beheben. Explizites Model Checking übersetzt jedoch zunächst ein Petrinetz in einen klassischen Automaten. Damit gibt man zunächst die Vorteile von Petrinetzen scheinbar wieder auf. Wir zeigen jedoch, dass die wichtigsten Techniken des expliziten Model Checking besonders effizient sind, wenn sie grundlegende Prinzipien von Petrinetzen berücksichtigen. Dieser Beitrag beschreibt Resultate, die auf praktischen Erfahrungen mit einem petrinetzbasierten Werkzeug zum expliziten Model Checking beruhen. ;-;-;-;https://link.springer.com/article/10.1007/s00287-013-0755-3 8443e7e427f5ef596eedd8aeb5b41b40;de;;;3.3.;;;Eine hybride Architektur basierend auf CNN für die semantische Bildannotation Aufgrund semantischer Lücken sind einige Bildannotationsmodelle für das semantische Lernen nicht ideal. Um die Lücke zwischen modalen Daten zu schließen und die Leistung der Bildannotation zu verbessern, hat sich die automatische Bildannotation zu einem wichtigen Forschungsschwerpunkt entwickelt. In diesem Beitrag wird ein hybrider Ansatz vorgeschlagen, um automatisch semantische Konzepte von Bildern zu lernen, der Deep-CC genannt wird. Zuerst verwenden wir das Convolutional Neural Network für das Merkmalslernen anstelle der traditionellen Methoden des Merkmalslernens. Zweitens werden die Ensembles von Classifier Chains (ECC) basierend auf erhaltenen visuellen Merkmalen für semantisches Lernen trainiert. Das Deep-CC entspricht dem generativen Modell bzw. dem diskriminativen Modell, die individuell trainiert werden. Deep-CC kann nicht nur bessere visuelle Funktionen lernen, sondern integriert auch Korrelationen zwischen Labels, wenn es Bilder klassifiziert. Die experimentellen Ergebnisse zeigen, dass dieser Ansatz für die semantische Annotation von Bildern effektiver und genauer ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48390-0_9 64d6bd45ae31020dfab5932761e77e1c;de;;;3.3.;;;Linux-Kernel-Komprimierung durch Cold Code Swapping Es gibt einen wachsenden Trend, universelle Betriebssysteme wie Linux in eingebetteten Systemen zu verwenden. Frühere Forschungen konzentrierten sich auf die Verwendung von Verdichtungs- und Spezialisierungstechniken, um ein Allzweck-Betriebssystem an die speicherbeschränkte Umgebung der meisten eingebetteten Systeme anzupassen. Es gibt jedoch noch Raum für Verbesserungen: Es hat sich gezeigt, dass selbst nach Anwendung der oben genannten Techniken mehr als 50% des Kernel-Codes im normalen Systembetrieb unausgeführt bleiben. Wir führen eine neue Technik ein, die den Speicherbedarf des Linux-Kernel-Codes durch bedarfsgesteuertes Laden von selten ausgeführtem Code für Systeme reduziert, die virtuellen Speicher unterstützen. In diesem Whitepaper beschreiben wir unseren allgemeinen Ansatz und untersuchen Codeplatzierungsalgorithmen, um die Leistungsauswirkungen des Codeladens zu minimieren. Für eine Fallstudie basierend auf der MediaBench II Benchmark Suite wird eine Codegrößenreduktion von 68 % bei einer Ausführungsgeschwindigkeit von 2,2 % der Ausführungszeit im Systemmodus erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00904-4_10 b81a885a33012a2145bc0e75a347f196;de;;;3.3.;;;PriGen: Auf dem Weg zur automatisierten Übersetzung des Codes von Android-Anwendungen in Datenschutzunterschriften Mobile Anwendungen müssen den Benutzern Datenschutzhinweise geben, wenn sie personenbezogene Daten sammeln oder weitergeben. Das Erstellen konsistenter und prägnanter Datenschutzhinweise kann für Entwickler eine Herausforderung sein. Frühere Arbeiten haben versucht, Entwicklern bei der Erstellung von Datenschutzhinweisen durch einen Fragebogen oder vordefinierte Vorlagen zu helfen. In diesem Papier schlagen wir einen neuartigen Ansatz und ein Framework namens PriGen vor, das diese früheren Arbeiten erweitert. PriGen verwendet statische Analysen, um Codesegmente von Android-Anwendungen zu identifizieren, die personenbezogene Daten verarbeiten (d. h.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-75018-3_9 3627cb24795044b1f4fca8840ec890e8;de;;;3.3.;;;Eine systematische Überprüfungsmessung im Software Engineering: State-of-the-Art in Maßnahmen Die vorliegende Arbeit gibt einen Überblick über den Stand der Technik bei Softwaremaßnahmen anhand einer systematischen Übersicht über die aktuelle Literatur. Heutzutage müssen viele Unternehmen die folgenden Fragen beantworten: Wie messen?, Wann messen und Was messen?. Es wurden viele Anstrengungen unternommen, um zu versuchen, diese Fragen zu beantworten, und dies hat zu einer großen Datenmenge geführt, die manchmal verwirrend und unklar ist. Diese muss richtig aufbereitet und klassifiziert werden, um einen besseren Überblick über die aktuelle Situation zu erhalten. Wir haben eine Ontologie der Messsoftware verwendet, um die Menge an zu klassifizieren und zu setzen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-70621-2_14 a4be3c90beb229688c3881f7cabf5036;de;;;3.3.;;;Eine Architektur zur Informationsfusion und zur Erkennung, Identifizierung und Behandlung von Ausreißern in drahtlosen Sensornetzwerken In den Bereichen Präzisionslandwirtschaft, Umwelttechnik u.a. finden sich häufig Anwendungen, die Sensoren zur Überwachung der Umgebung einsetzen. Beispiele für solche Anwendungen umfassen Schädlingsbekämpfung, Bewässerungsverfahren, Bodenfruchtbarkeitskartierung, Überwachung von Waldgebieten und städtischen Flüssen usw. Als verteilte Infrastrukturen für diese Anwendungen wurden drahtlose Sensornetzwerke (WSNs) vorgeschlagen. Diese Netzwerke produzieren große Datenmengen und verwenden kostengünstige Sensoren. Diese Sensoren weisen jedoch in der Regel eine geringe Zuverlässigkeit auf und erzeugen anomale Daten (Ausreißer), die sich auf die endgültige Qualität der Überwachung auswirken. Diese Bedingungen implizieren die Notwendigkeit, Methoden zur Erkennung und Behandlung von Ausreißern zu verwenden, die den korrekten Betrieb des Netzwerks ermöglichen und das Vertrauen in die überwachten Daten erhöhen. Dieser Artikel schlägt eine Architektur für die Informationsfusion vor, die sich auf Sensoren mit geringer Zuverlässigkeit konzentriert. Die Architektur ist in Techniken zur Erkennung und Behandlung von Ausreißern integriert und wurde anhand von zwei Fallstudien evaluiert. Der erste beinhaltete kostengünstige barometrische Drucksensoren, deren überwachte Daten durch Techniken zur Erkennung von Ausreißern verarbeitet wurden. Beim zweiten handelt es sich um das Großszenario LUCE (Lausanne Urban Canopy Experiment), dessen Datenbank von 84 Sensoren zur Überwachung der Wetterbedingungen gespeist wird. Die Ergebnisse zeigen, dass einige der Low-Level-Fusionsmethoden und Ausreißererkennungstechniken, wenn sie gemäß der vorgeschlagenen Architektur kombiniert und organisiert werden, einen einzelnen zentralisierten, kostenintensiven Sensor ersetzen können, wobei die Zuverlässigkeit der überwachten Daten erhalten bleibt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-61403-8_5 e7d95811bbf07a6c0052b988567c8b0c;de;;;3.3.;;;Technologieübergang: Rate monotone Analyse in realen Systementwicklungen Ein wichtiger Bestandteil jedes erfolgreichen Forschungsprogramms ist die Weitergabe seiner Ergebnisse an die Organisationen und Personen, die Systeme in seinem Bereich entwerfen. In diesem Papier beschreiben wir den Übergang der Rate Monotonic Analysis (RMA)-Technologie in den regulären Einsatz innerhalb der IBM Federal Systems Company.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-88049-0_46 673a44a558e2f8bc60da6d9e211f1f1f;de;;;3.3.;;;Eine flache, konvolutionelle neuronale Netzwerkarchitektur für die Beantwortung von Fragen in offenen Domänen Dieses Papier befasst sich mit dem Problem der Beantwortung einer Frage, indem die beste Antwort aus einer Reihe von Kandidatentextfragmenten ausgewählt wird. Diese Aufgabe erfordert es, die semantische Beziehung zwischen der Frage und den Antworten des Kandidaten zu identifizieren und zu messen. Im Gegensatz zu früheren Lösungen für dieses Problem, die auf tiefen neuronalen Netzen mit Millionen von Parametern basieren, präsentieren wir einen neuartigen Ansatz für konvolutionelle neuronale Netze, der trotz einfacher Architektur in der Lage ist, die semantischen Beziehungen zwischen Begriffen in einer generierten Ähnlichkeitsmatrix zu erfassen. Die Methode wurde systematisch über zwei verschiedene Standarddatensätze evaluiert. Die Ergebnisse zeigen, dass unser Ansatz trotz einer einfacheren und effizienteren Architektur mit modernsten Methoden konkurrenzfähig ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-66562-7_35 8494020049a9228360082fe0b366f688;de;;;3.3.;;;Einsatz von RUP für prozessorientierte Organisationen In diesem Papier diskutieren wir basierend auf einem Vorschlag eines Referenzrahmens für prozessorientierte Softwareentwicklungsorganisationen einige Fragen im Zusammenhang mit der Verwendung der Disziplinen der RUP als Instanzen dieser Prozesse. Die in diesem Papier gemachten Vorschläge wurden auf der Grundlage von Erfahrungen aus realen Projekten konsolidiert. Die jeweiligen Lehren aus zwei dieser Projekte werden berichtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24659-6_25 d748efaa2dc92f8fd689f7af3c8461bd;de;;;3.3.;;;Multizentrische Studie zur quantitativen Computertomographie-Analyse mit einem computergestützten dreidimensionalen System bei Patienten mit idiopathischer Lungenfibrose Bewertung der Machbarkeit einer automatisierten quantitativen Analyse mit einem dreidimensionalen (3D) computergestützten System (d. h. Gaussian Histogram Normalized Correlation, GHNC) von Computertomographie (CT)-Bildern von verschiedenen Scannern.;-;-;-;https://link.springer.com/article/10.1007/s11604-015-0496-0 df230556ac369b4bc16a607d2ab3e006;de;;;3.3.;;;Elastic Net-Anwendung: Fallstudie zur Suche nach Lösungen für den TSP in einer Beowulf-Cluster-Architektur Diese Studie zielt darauf ab, das elastische Durbin-Willshaw-Netz unter Verwendung paralleler Algorithmen anzuwenden, um das Travelling Salesman Problem (TSP) durch eine Beowulf-Clusterarchitektur für Hochleistungsrechnen zu lösen. Die Lösungen für die TSP für die unterschiedliche Anzahl von Städten werden durch die Minimierung der inneren Energie und durch die Maximierung der Entropie im Informationssystem erreicht. Auf diese Weise können Näherungslösungen zum TSP bestimmt werden. Diese Arbeit schlägt einen Rahmen vor, um einen parallelen Algorithmus zum Beowulf-Cluster zu implementieren. Um Lösungen für den TSP zu finden, haben wir mit 5000 Städten mit einem Netz von 12500 Knoten bis hin zu 10000 Städten mit 25000 Knoten gearbeitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-44188-7_9 9ad7b10b6299aba252e2f64b1310fe5c;de;;;3.3.;;;Ultraschmalband-Funktechnologie in dicht bebauten Gebieten Das Internet der Dinge (IoT) ist ein immer wieder erwähntes Phänomen, das eng mit einem schnell wachsenden Low-Power Wide-Area Networks (LPWAN) verbunden ist. Obwohl LPWANs bereits weit verbreitet sind, wurde die Leistung des Kommunikationssystems unter realen Bedingungen wie der Ultra Narrow Band (UNB)-Funktechnologie noch nicht eingehend untersucht. Smart City-Anwendungen des IoT implizieren einen geringen Energieverbrauch, eine hohe Spektrumeffizienz und umfassende Sicherheit, daher sind die Reichweitenbeschränkungen sehr begrenzt und müssen vor Beginn der Bereitstellung überprüft werden. In dieser Arbeit verifizieren die Autoren die UNB-Technologie namens SIGFOX und identifizieren technologische Einschränkungen. Diese Einschränkungen ermöglichen es uns, eine Messmethodik zu formulieren, die Reichweitenmessungen in einem städtischen Gebiet kombiniert, um die Übertragungseigenschaften der SIGFOX-Technologie aufzuzeigen. Die anschließende Evaluierung der Technologie mit Referenz-/kommerziell erhältlicher SIGFOX-Hardware in realen städtischen Gebieten zeigt die Auswirkungen auf mögliche Anwendungen dieser neuartigen UNB-Technologie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-46254-7_54 4a725c9b55759b811863efde3b2fd13f;de;;;3.3.;;;Leistungsmodellierung und Bewertung von Daten-/Sprachdiensten in Mobilfunknetzen Die Leistung auf Anwendungsebene ist ein Schlüssel für die Einführung und den Erfolg von CDMA 2000. Um diese Leistung im Voraus vorherzusagen, wird ein detailliertes End-to-End-Simulationsmodell eines CDMA-Netzwerks erstellt, das Anwendungsverkehrsmerkmale, Netzwerkarchitektur, Netzwerkelemente Details unter Verwendung der vorgeschlagenen Simulationsmethodik. Wir bewerten die vom Benutzer wahrgenommene Anwendungsleistung, wenn ein RAN und ein CN unterschiedliche Transportarchitekturen wie ATM und IP verwenden. Um die vom Benutzer wahrgenommene Qualität des Sprachdienstes zu bewerten, vergleichen wir die Ende-zu-Ende-Paketverzögerung für verschiedene Vocoder-Schemata wie G.711, G.726 (PCM), G.726 (ADPCM) und Vocoder-Bypass-Schema. Nach den Simulationsergebnissen zeigt das Vocoder-Bypass-Szenario eine Leistungsverbesserung von 30 % gegenüber den anderen. Wir vergleichen auch die Qualität des Sprachdienstes mit und ohne DPS-Scheduling-Schema. Wir wissen, dass das DPS-Schema die Sprachverzögerung begrenzt hält, selbst wenn der Dienstverkehr hoch ist. Bei der Datenpaketleistung zeigt HTTP v.1.1 aufgrund des Pipelinings und der persistenten TCP-Verbindung eine bessere Leistung als HTTP v.1.0. Wir können schlussfolgern, dass die IP-Transporttechnologie die bessere Lösung für Umgebungen mit höherer FER ist, da der Paket-Overhead von IP geringer ist als der von ATM für den Web-Browsing-Datenverkehr, während er einen gegenteiligen Effekt gegenüber dem kleinen Sprachpaket in der RAN-Architektur zeigt. Wir zeigen, dass das 3G-1X EV-DO-System eine viel bessere Paketverzögerungsleistung bietet als 3G-1X RTT. Die wichtigste Schlussfolgerung ist, dass die End-to-End-Performance auf Anwendungsebene von verschiedenen Elementen und Schichten des Netzwerks beeinflusst wird und daher in allen Phasen des Entwicklungsprozesses berücksichtigt werden muss.;-;-;-;https://link.springer.com/article/10.1007/s11276-006-9232-0 8faf8d51c846a3224d97ea93c53cb100;de;;;3.3.;;;Ein Zeit-Digital-Wandler mit geringem Stromverbrauch für einen volldigitalen Phasenregelkreis Der Time-to-Digital-Converter (TDC) ist ein Schlüsselblock, der als Phasen-/Frequenzdetektor in einer volldigitalen Phasenregelschleife (ADPLL) verwendet wird. Normalerweise nimmt es einen großen Teil des gesamten Stromverbrauchs von ADPLL ein, bis zu etwa 30 bis 40 %. In diesem Beitrag wird der detaillierte Stromverbrauch verschiedener Komponenten im TDC analysiert. Für den TDC wird ein Power Management Block (PMB) vorgestellt, um seinen Stromverbrauch zu reduzieren. Ein 24-Bit-TDC-Kern mit dem vorgeschlagenen PMB ist in HJTC 0,18 µm CMOS-Technologie implementiert. Simulationsergebnisse zeigen, dass mit unserer vorgeschlagenen Technik eine Leistungsreduzierung von bis zu 84 % erreicht wird.;-;-;-;https://link.springer.com/article/10.1007/s11767-011-0720-8 e8b04ae2c7b63f730566946487905212;de;;;3.3.;;;P2P-basierte Kollisionslösungstechnik für eine effektive Parallelitätssteuerung in einer kollaborativen Entwicklungsumgebung Dieses Papier bietet eine Möglichkeit, die Einschränkungen allgemeiner kollaborativer Softwareentwicklungstools zu überwinden, die das Miteigentum an Ressourcen zwischen Einzelpersonen in einer teamorientierten Entwicklungsumgebung vollständig einschränken. Es bietet auch eine Lösung für Benutzer, Ressourcen gemeinsam zu besitzen und gleichzeitig die Versionskontrolle zu verwalten und Kollisionsprobleme zu lösen, die aufgrund des Miteigentums an Ressourcen auftreten können. Das in diesem Beitrag vorgestellte Tool zur kollaborativen Softwareentwicklung besteht aus der klassischen Client/Server-Struktur mit der P2P-Methode (Peer-to-Peer), die den Informationsaustausch zwischen Einzelpersonen unterstützt. Dieses Tool wurde auf Basis der Open-Source-Software CVS (Concurrent Version System) entwickelt. Die funktionale Effizienz wurde durch den Vergleich mit der Nützlichkeit früher existierender kollaborativer Softwareentwicklungstools bestätigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24106-2_53 7dd42893c50e4030ebc05414a4eb6752;de;;;3.3.;;;Katastrophenrobotik Rettungsroboter wurden seit dem ersten Einsatz beim Einsturz des World Trade Centers am 11. September bei mindestens 28 Katastrophen in sechs Ländern eingesetzt. Alle Arten von Robotern wurden verwendet (Land, See und Luft) und für alle Phasen einer Katastrophe (Prävention, Reaktion und Wiederherstellung). In diesem Kapitel werden die grundlegenden Eigenschaften von Katastrophen und ihre Auswirkungen auf das Roboterdesign behandelt und die bisher tatsächlich bei Katastrophen eingesetzten Roboter beschrieben, mit besonderem Fokus auf Fukushima Daiichi, das ein reichhaltiges Testgelände für die Robotik bietet. Das Kapitel behandelt vielversprechende Roboterdesigns (z. B. Schlangen, Fortbewegung mit Beinen) und Konzepte (z. B. Roboterteams oder -schwärme, Sensornetzwerke) sowie Fortschritte und offene Fragen in der Autonomie. Die Bewertungsmethoden in Benchmarks für Rettungsrobotik werden diskutiert und das Kapitel schließt mit einer Diskussion der grundlegenden Probleme und offenen Fragen der Rettungsrobotik und ihrer Entwicklung von einer interessanten Idee zu einer weit verbreiteten Anwendung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-32552-1_60 ae5ac9e09ca95b238bc6805929ed50ac;de;;;1.1.;;;Integration in Deutschland und KanadaMehr und mehr gewinnt das Thema der Integration internationaler Studierender an Bedeutung. Zwar ist das allgemeine Thema der Integration mit der Zuwanderungsdebatte seit Beginn an verbunden (Unabhängige Kommission Zuwanderung 2001), doch gewinnt es erst durch weitere gesellschaftliche und politische Ereignisse an inhaltlicher Tiefe und Breite, wie durch den Brandbrief der Berliner Rütlischule vom März 2006, die ihre Auflösung forderte, weil sie die Schülergewalt nicht mehr stoppen konnte und darin ein Versagen des multikulturellen Integrationsversuches sah. Diese Ereignisse beförderten die Durchführung von mehreren von der Bundesregierung unter Einbezug von Migrationsexperten, Wissenschaftlern, Migrantenorganisationen und anderen gesellschaftlichen Interessenvertretern einberufenen Integrationsgipfeln, deren Vertreter einen Nationalen Integrationsplan in Expertengruppen bis zum Juli 2007 ausarbeiteten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-04622-4_6 77bf98a5d19a2d45c7c47114017a133c;de;;;1.1.;;;Bestimmungsfaktoren für Mergers & Acquisitions im deutschen Bankensektor auf Grundlage von Theorien der FinanzintermediationIm vorliegenden Kapitel werden mögliche mikroökonomische Bestimmungsfaktoren für Mergers & Acquisitions im Bankensektor aus theoretischen Erklärungsansätzen zur Existenz von Banken abgeleitet. Diese Vorgehensweise wird gewählt, da die wissenschaftliche Literatur zu Mergers & Acquisitions branchenspezifische Charakteristika weitgehend außer Acht lässt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-81085-4_4 e3830dfe5cef6916bda08ba826f22e59;de;;;1.1.;;;Analytische Modelle zur Ermittlung und Prognose der InstandhaltungskostenDie Komplexität der Wirklichkeit zwingt bei der Gewinnung und Verarbeitung von Kosteninformationen zur Modellbildung. Von Modellen spricht man, “wenn es sich um zusammengesetzte Gedankengebilde handelt, die aus der Totalinterdependenz der Wirklichkeit abgegrenzte und überschaubare Teilzusammenhänge ausliefern, um bestehende Abhängigkeitsbeziehungen auf ihre Gesetzmäßigkeit zu untersuchen.”;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-19802-4_4 216a13cc57fa3e9a65a6e2f623da53cd;de;;;1.1.;;;Attribution im LeistungshandelnNachdem wir die verschiedenen attributionstheoretischen Ansätze — von einer einheitlichen Attributionstheorie kann man kaum sprechen — und wichtige Forschungserträge behandelt haben, sollen in diesem Kapitel die Auswirkungen von Attributionen in verschiedenen Handlungsbereichen erörtert werden. Es handelt sich um die Übertragung und Anwendung attributionstheoretischer Ansätze auf motivationspsychologische Probleme. Hier wie in anderen Forschungsfeldern hat sich eine attributionstheoretische Sichtweise als fruchtbar erwiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-08870-8_14 de53ca1a71c7fd50928cfe074ea671c5;de;;;3.3.;;;Automatische Co-Evolution von Modellen mit Rückverfolgbarkeit Model Driven Engineering ermöglicht es, Modelle als Daten zu betrachten und dann als erstklassige Entitäten in dedizierten Transformationssprachen zu verwenden. Dadurch treten in diesem neuen Entwicklungskontext immer wieder Probleme im Zusammenhang mit der Softwareproduktion auf. Ein solches Problem besteht darin, eine Konsistenz zwischen den Modellen während der Ausführung eines Prozesses basierend auf Modellen und Modelltransformationen aufrechtzuerhalten. Wenn einige verwandte Modelle gemeinsam entwickelt werden müssen, was kommt hinzu, wenn unterschiedliche Transformationen separat auf jedes dieser Modelle angewendet werden? Um dies zu verhindern, gehen wir davon aus, dass eines dieser Modelle das Mastermodell ist und schlagen eine automatische Koevolution der anderen Modelle basierend auf der Nachvollziehbarkeit der Haupttransformation vor. Der Beitrag dieses Papiers ist also ein konzeptioneller Rahmen, in dem die notwendigen Transformationen der Rückwirkungen leicht umgesetzt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29578-2_8 374beffb239be7e50c3297dd6d1e3eb7;de;;;1.1.;;;Panik und AgoraphobieBei der Panikstörung treten als charakteristisches Merkmal unerwartete Panikattacken auf. Typisch sind das plötzliche und z. T. als spontan erlebtes Einsetzen unangenehmer Symptome. Die häufigsten wahrgenommenen Symptome während eines Panikanfalls sind Herzrasen, Schwindel/Benommenheit und Atemnot. Im Laufe der Zeit wird immer mehr Angst vor den Attacken entwickelt, sodass es zu Vermeidungsverhalten kommen kann. Panikattacken können auch im Rahmen weiterer Störungen auftreten. Hauptmerkmal der Agoraphobie ist die Angst an Orten oder in Situationen zu sein, von denen eine Flucht schwierig oder peinlich sein könnte. Teilweise können damit Panikanfälle einhergehen. Die Panikstörung und die Agoraphobie gehören zu den häufigsten Angststörungen, zeigen eine hohe Komorbidität mit anderen Angststörungen, depressiven Störungen, somatoformen Störungen und Abhängigkeitsstörungen. Hauptbestandteile der Psychotherapie sind die Psychoedukation, kognitive Interventionen und Expositionen in vivo.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-61814-1_47 36968df320b578e649e922d3b1493dd1;de;;;3.3.;;;Iterative Lösung singulärer Systeme mit Anwendungen Diese Arbeit beschäftigt sich mit der effizienten Lösung singulärer symmetrischer positiv semidefiniter Probleme. Unsere Motivation ergibt sich aus dem Bedürfnis, spezielle Probleme der Geotechnik zu lösen, z.B. um eine Upscaling-Analyse von Geokompositen durchzuführen. In dieser und anderen Anwendungen müssen wir Randprobleme mit reinen Neumann-Randbedingungen lösen. Wir zeigen, dass die stabilisierte PCG-Methode mit verschiedenen Vorkonditionierern eine gute Wahl für Systeme ist, die aus der numerischen Lösung von Neumann-Problemen oder allgemeiner für Probleme mit bekanntem kleindimensionalem Nullraum resultieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55224-3_12 57dc3f2c98cfb475e72dc31b8f475f0d;de;;;1.1.;;;Aufmerksamkeitsbias und Emotionssuppression bei der Borderline-PersönlichkeitsstörungZentrales Merkmal der Borderline-Persönlichkeitsstörung (BPS) ist eine Störung der Emotionsregulation bei insgesamt vorherrschender negativer Affektivität. Daneben existieren Hinweise auf gestörte Aufmerksamkeitsprozesse, die insbesondere in Bereichen der selektiven Aufmerksamkeit während der Präsentation emotionaler Stimuli deutlich werden (negativer Aufmerksamkeitsbias). Ausgehend von der Annahme, dass die Regulation von Emotionen eng mit dem Prozess der Aufmerksamkeitslenkung und –steuerung verknüpft ist, soll in dieser Studie untersucht werden, ob 1) ein negativer Aufmerksamkeitsbias bei der Präsentation von Filmausschnitten mit ängstlichen Gesichtern nachgewiesen werden kann, und ob 2) ein Zusammenhang zwischen dysfunktionalen Strategien zur Emotionsregulation (Suppression des emotionalen Erlebens) und einem negativen Aufmerksamkeitsbias besteht.;-;-;-;https://link.springer.com/article/10.1007/s40211-014-0112-z e88be360ca3667f9860cfb459dcc31e4;de;;;3.3.;;;Ein Vorschlag für ein offenes ubiquitäres Fuzzy-Computing-System für Umgebungsintelligenz Ambient Intelligence (AmI) wird als die Zusammensetzung von drei aufstrebenden Technologien betrachtet: Ubiquitous Computing, Ubiquitous Communication und Intelligent User Interfaces. Das Ziel der Integration der oben genannten Technologien besteht darin, die Interaktion zwischen Menschen und informationstechnischen Geräten durch die Verwendung eines unsichtbaren Netzwerks von allgegenwärtigen Computergeräten zu erweitern, die dynamische Computerökosysteme bilden, die die Anforderungen der Benutzer erfüllen können. Viele Arbeiten lenken die Aufmerksamkeit auf die Interaktion von Benutzern zu Geräten, um einen universellen und sofortigen Zugriff auf verfügbare Inhalte und Dienste zu ermöglichen, die von der Umgebung bereitgestellt werden. Dieses Papier konzentriert sich umgekehrt auf die umgekehrten Interaktionen von Geräten zu Benutzern, um eine Sammlung autonomer Steuerungsdienste zu realisieren, die den menschlichen Aufwand minimieren können. Insbesondere werden wir dank eines hybriden Ansatzes auf Basis von Computational Intelligence-Methoden und Standard-Semantic-Web-Technologien beschreiben, wie ubiquitäre Geräte in der Lage sind, auf transparente Weise das geeignete Set an „intelligenten“ Diensten zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73177-1_1 4c29ed56647d27be8758b68080fa61ab;de;;;1.1.;;;Ballfertigkeiten bei Kindern mit motorischer UngeschicklichkeitDas Ziel der vorliegenden Studie war es, die Ballfertigkeiten bei Kindern mit und ohne motorischer Ungeschicklichkeit (DCD) in einer 1:1-Testsiuation zu untersuchen. Insgesamt nahmen 107 Kinder (48 Mädchen und 59 Jungen) im Alter von 7 bis 11 Jahren an der Untersuchung teil. 45 (42,1%) erfüllten die Kriterien für DCD, 62 (57,9%) erfüllten diese Kriterien nicht. Der motorische Funktionsstatus wurde mit der Movement Assessment Battery (M-ABC) erhoben. Jeder Proband musste 10 Würfe ausführen und 10 Bälle fangen. Der Entwicklungsstand der Wurf- bzw. Fangbewegung wurde anhand von Videoanalysen bestimmt. Kovarianzanalysen ergaben einen signifikanten Haupteffekt für den motorischen Funktionsstatus für alle Entwicklungssequenzen beim Fangen (p<0,05), für die Anzahl der gefangenen Bälle (p<0,001) sowie die Genauigkeit der Würfe (p<0,001). Weiterhin zeigten die Daten, dass Kinder mit DCD einen geringeren Entwicklungsstand im Vergleich zu normal entwickelten Kindern für die Oberarmkomponente (p<0,05), die Ausholbewegung (p<0,10) sowie die Schrittgestaltung zeigen (p<0,05). Die Ergebnisse dieser Studie verdeutlichen, dass Kinder mit motorischer Ungeschicklichkeit in der Kontrolle und Manipulation eines Balles im Vergleich zu jüngeren und gleichaltrigen Peers im Nachteil sind. Ohne maßgeschneiderte Intervention wird es diesen Kindern kaum möglich sein, an typischen Spiel- und Sportaktivitäten teilzunehmen.;-;-;-;https://link.springer.com/article/10.1007/s12662-009-0004-8 d3ea8c7203a51b4835962475405a1041;de;;;1.1.;;;Die Bedeutung von Vorstellungen für das Lehren und LernenDie Einsicht, dass Bildungssysteme auf der Makroebene unterschiedliche Strategien verfolgen, Politische Bildung strukturell und konzeptionell unterschiedlich in der Schule verankert wird, dass darüber hinaus unterschiedliche Strategien für die Gestaltung schulischer Lernumgebungen auf der Mikroebene vorliegen, führt zur Frage, wie Bildungssysteme und schulische Praktiken miteinander zusammenhängen. Zum Verständnis dieser Beziehung erweist sich, wie im Folgenden gezeigt wird, die Theorie des Erziehungswissenschaftlers Helmut Fend (2008a) als nützlich. Demnach etablieren Bildungssysteme unterschiedlich günstig gestaltete schulische Strukturen, die Einfluss auf die individuellen Handlungen der an Bildungsmaßnahmen Beteiligten nehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-33259-4_4 53ab34d53cc2624d0a5eb8c595f406a8;de;;;3.3.;;;Adaptive Konsistenz und Awareness-Unterstützung für verteilte Softwareentwicklung Wir präsentieren ARCADE, ein Konsistenz- und Bewusstseinsmodell für verteilte Softwareentwicklung. In ARCADE werden Updates zu Elementen des Softwareprojekts, die einem Programmierer als wichtig erachtet werden, zeitnah zugesandt. Mit abnehmender Bedeutung eines Elements nimmt auch die Häufigkeit ab, mit der der Programmierer darüber informiert wird. Auf diese Weise sorgt das System für ein selektives, kontinuierliches und fokussiertes Bewusstsein. Dadurch wird die zum Weiterleiten von Ereignissen erforderliche Bandbreite reduziert und das Eindringen durch unwichtige Benachrichtigungen minimiert. In diesem Papier stellen wir das Design von ARCADE sowie eine Bewertung seiner Wirksamkeit vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41030-7_16 3e2b82f4be9ccea3a8be2543610d5e5d;de;;;3.3.;;;Entwicklung einer virtuellen Simulationsumgebung und eines digitalen Zwillings eines autonom fahrenden Lkw für ein Distributionszentrum In diesem Beitrag wird die Entwicklung einer Virtual Simulation Environment (VSE) und eines Digital Twin (DT) eines autonom fahrenden Lkw für ein Distributionszentrum vorgestellt. Während das autonome Fahren auf öffentlichen Straßen noch mit diversen technischen und rechtlichen Herausforderungen konfrontiert ist, gelten innerhalb eines Distributionszentrums, das eng begrenzt ist, einige dieser Einschränkungen nicht. Daher können Verteilzentren die erste Umgebung sein, in der das autonome Fahren von Lkw möglich ist. Ein Distributionszentrum ist eine geschlossene Umgebung ohne oder mit minimalem allgemeinem Verkehr, in der die Lastwagen relativ niedrige Geschwindigkeiten, kurze Bremswege und eine genau bekannte Anordnung haben. Dedizierte Sensoren orten die Lkw. Dieses Papier befasst sich mit den genannten Aspekten des Fahrens in den Verteilzentren und beschreibt die notwendigen Schritte, die für das Design, die Implementierung und den Test eines VSE für ein Verteilzentrum und eines DT eines autonom fahrenden LKWs unternommen werden. Die Entwicklung des VSE basiert auf der Integration eines SysML-Modellierungswerkzeugs – IBM Rhapsody, MATLAB Simulink und Unity Game Engine unter Verwendung eines modellbasierten System-Engineering-Ansatzes. Das Papier präsentiert auch den Test und die Validierung eines Fahrszenarios, das in einem Distributionszentrum verwendet wird, unter Verwendung des TruckLab-Setups der Technischen Universität Eindhoven, Niederlande. Der VSE und der DT zeigten erhebliches Potenzial als Test- und Validierungswerkzeuge für Automobilingenieure, die es ermöglichen, Fahrversuchsszenarien für verschiedene Arten von Zugmaschinen-Anhänger-Kombinationen zu definieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-59155-7_39 1b835230d2ac5a31a98962098082a2ef;de;;;1.1.;;;Störungen der Neurobiochemie und Signaltransduktion als Grundlage psychischer ErkrankungenDie Rolle von Neurotransmittersystemen in der Physiologie der Gehirnfunktionen ist ebenso unbestritten wie deren Beteiligung an pathologischen Veränderungen, die letztlich zu den Symptomen psychischer Krankheiten führen. Neurotransmitterhypothesen psychischer Störungen sind sowohl in der Pathogeneseforschung als auch in der Psychopharmakotherapie Ausgangspunkte der wissenschaftlichen Bemühungen um ein besseres Verständnis der neurobiochemischen Grundlagen psychischer Erkrankungen. Einfache Monotransmitterhypothesen haben adäquateren Gleichgewichtstheorien weichen müssen, die von einer komplizierten Interaktion der verschiedensten Neurotransmitter ausgehen, neuroanatomische Strukturierungen („funktionelle Systeme“) berücksichtigen und auch Effekte in die Überlegungen miteinbeziehen, die über die reine Synapsenwirkung hinausgehen (Signaltransduktoren, Transkriptionsfaktoren etc.). Die Neurotransmittersysteme des Gehirns sind so komplex, dass bislang nur die Grundzüge ihrer Funktionsweisen bekannt sind. Es wäre vermessen anzunehmen, dass aus der Kenntnis dieser Prozesse ein Verständnis der menschlichen Psyche erwachsen könnte. Die Tatsache, dass Störungen der Neurotransmittersysteme eine Grundlage psychischer Erkrankungen darstellen können, darf nicht dazu führen, hierin die alleinige Ursache psychischer Störungen zu erblicken. Ein solcher einseitiger reduktionistischer und simplifizierender Biologismus wird weder im wissenschaftlichen Sinn dem komplexen System der menschlichen Psyche noch im ärztlichen Sinn den Bedürfnissen psychisch kranker Patienten gerecht. Erst in der interdisziplinären Verbindung mit neuroanatomischen, neuropsychologischen und klassisch-klinischen, psychopathologischen Bemühungen können neurobiochemische Hypothesen wie die Neurotransmittertheorien dazu beitragen, psychische Störungen besser zu verstehen und optimierte therapeutische Strategien zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-49295-6_8 e869a1b7e8aa3ebd5a799b68f7f8d1f2;de;;;3.3.;;;Entwurf und Simulation einer Delta-Sigma-Modulator-MASH-Architektur vierter Ordnung Der Delta-Sigma-Modulator wird als Oversampling-ADC verwendet, der den Signaleingang und das Quantisierungsrauschen durch zwei verschiedene Übertragungsfunktionen verarbeitet und somit das Signal und das Rauschen in zwei verschiedene Frequenzbänder trennt. Die resultierende Ausgabe des Modulators wird digital verarbeitet, um das Signal vom Rauschen zu trennen. Die Leistung des ADC kann durch Erhöhen der Ordnung des Modulators verbessert werden, was der Systemstabilität und dem Eingangssignalbereich Beschränkungen auferlegt. Dieses Papier untersucht die Probleme im Zusammenhang mit dem Design eines stabilen MultistAge Noise Shaping Architecture(MASH)-ADC vierter Ordnung unter Verwendung von zwei Delta-Sigma-Modulatoren zweiter Ordnung in Kaskade. Die Architektur erreicht eine Signalübertragungsfunktion zweiter Ordnung (STF) mit einer Rauschformung vierter Ordnung. Der Modulator verwendet einen 32-MHz-Takt, um eine 8-Bit-Abtastsequenz mit einer Abtastrate von 128 kHz zu erhalten. Die resultierende Ausgabe wird von einem digitalen Tiefpassfilter verarbeitet, um das Signal vom Rauschen zu trennen. Der FIR-Filter wird unter Verwendung einer Frequenzabtasttechnik implementiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7486-3_54 5596ec16e8eaf973c1e7e62943353c70;de;;;1.1.;;;„Medizinische Dokumentation und Statistik in der Bundesversicherungsanstalt für Angestellte-Berlin: Dokumentation des Ärztlichen Entlassungsberichts“Die Bundesversicherungsanstalt für Angestellte (BfA) führt im Rahmen ihres gesetzlichen Auftrags zur Gewährung von (Regel-)Leistungen zur med. Rehabilitation u. a. stationäre Heilbehandlungen (HB) wegen allgemeiner Erkrankungen durch, im Jahre 1976 waren es ca. 280.000. Bei jeder HB ist ein Ärztlicher Entlassungsbericht (E-Bericht) zu erstellen. Einige Daten daraus werden EDV-gerecht dokumentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-81404-4_60 74fb5209f5ebcb073d34efb12ae8620c;de;;;1.1.;;;KontinuitätenIm folgenden Teil der Arbeit geht es um die Beschreibung bestimmter Kontinuitäten der modernen Gesellschaft. Es geht darum, die theoretischen Grundlagen zu legen, die für die Klärung unserer empirischen Forschungsfrage notwendig sind. Zum einen erhalten wir auf diese Weise einen (theoretisch induzierten) Einblick in die zentralen Problemgesichtspunkte des Themenfeldes. Zum anderen bieten diese Ausfährungen die Möglichkeit, empirische Sachverhalte später in abstraktere Zusammenhänge einzuordnen und auf ihre Plausibilität hin zu prüfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-91376-6_2 85c4f6cab0c4c812db8de9a8db6297d3;de;;;1.1.;;;Funktionelle Neuroanatomie und PsychiatrieUnter den Psychiatern der Gegenwart gibt es nicht wenige, die Beziehungen psychischer Vorgänge und ihrer Entgleisungen zu Strukturen des Gehirns und ihren pathologischen Veränderungen leugnen möchten. Sie würden die Berechtigung eines neuro-anatomischen und neurobiologischen Kapitels im Rahmen der Psychiatrie der Gegenwart ablehnen. Im folgenden werden überwiegend Einzelbefunde aus der Morphologie des Nervensystems angeführt, die eine solche Beziehung zu psychischen Vorgängen haben. Korrelationen psychischer Vorgänge zu Vorgängen in morphologisch definierbaren Einheiten begegnen aber der grund-sätzlichen Schwierigkeit, daß jeder seelische Vorgang, vor allem der vielschichtige, etwas Ganzheitliches oder Einheitliches ist, während sich der zuzuordnende somatische Vorgang aus zahlreichen Teilprozessen zusammensetzt, welche entscheidend sogar von der Quantität der beteiligten Neurone bestimmt werden. Zudem ist das menschliche Großhirn, welches die am weitesten entwickelten Apparate zur Informationsverarbeitung besitzt, scharf in zwei symmetrische Hemisphären geteilt. Dadurch wird die Diskrepanz zwischen der Struktur der psychischen und derjenigen der somatischen Vorgänge nur unterstrichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-00162-2_3 f9f719224afc53d912f3faa27af8c23f;de;;;1.1.;;;Zur Validität von Geburtsdaten aus GesundheitsämternDie Freie und Hansestadt Hamburg, vertreten durch die Gesundheitsbehörde, sah sich 1984 veranlaßt, die Vorstudie „Auftreten von kindlichen Fehlbildungen als Basis für umweltbezogene Ursachenforschung“ in Auftrag zu geben. Einer der Anlässe für die Konzeption dieser Studie war der am 29. Mai 1984 in der vom Westdeutschen Rundfunk, Köln, verantworteten Magazinsendung „Monitor“ geäußerte Verdacht, daß 8 der in Hamburg beobachteten Fälle von Holoprosenzephalie bei Neugeborenen (Abnorme Gehirn- und Gesichtsbildungen, z.B. Zyklopie (nur eine einzige Augenhöhle), Fehlen der Nase, Fehlen der Gehirnmasse oder — bei leichteren Formen — doppelseitige Lippen-, Kiefer- und Gaumenspalten) auf die Luftbelastung mit 2,3,7,8-Tetrachlor-p-dibenzodioxin („TCDD“), dem bekanntesten Dioxin, zurückzuführen seien. Die örtliche Lage der Firma Boehringer/Inarelheim im Stadtstaat Hamburg, bei deren Produktion von 2,4,5-Trichlorphenoxyessigsäure (2,4,5-T) dieses Dioxin anfällt, lege zumindest die Möglichkeit nahe, daß aufgrund der vorherrschenden Ostwinde vor allem die Region betroffen sein könnte, in der solche sonst eher selten auftretenden Fehlbildungen in der genannten Häufigkeit beobachtet würden. Die internationale Diskussion über das teratogene Risiko durch Dioxine ist nach wie vor zu keinem endgültigen Resultat gekommen (siehe hierzu NEUBERT,D. (1985) und BUNDESÄRZTEKAMMER (1986), die keine Hinweise auf eine Teratonenität beim Menschen von 2,3,7,8-TCDD gefunden haben wollen, andererseits BUFFLER,P.A. (1979 und 1982), BRUZZI,P. (1983) und CONSTABLE,J.D./HATCH,M.C. (1985), die zumindest aufgrund vorliegender epidemiologischer Studien Verdachtsmomente hinsichtlich einer erhöhten Fehlbildunnsinzidenz nach der Dioxin-Exposition diskutieren oder auch KARMAUS,W. (1985), der die Arbeiten von NEUBERT,D. (1985) und BRUZZI, P. (1983) einer kritischen Wertung unterzieht und dabei die Aussagen BRUZZIS als „fehlerfreier“ klassifiziert).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82852-2_20 5e99ca0d4a193874ccab5b87814a8cc4;de;;;1.1.;;;Denken, Urteilen, Kommunizieren: Umfrageverhalten in der Perspektive der Social Cognition ForschungAusgangspunkt von Untersuchungen, die Prinzipien der Social Cognition Forschung auf die Umfragesituation anwenden, ist das Verständnis der Befragungssituation. Befragung wird hier weniger als Messung bestimmter Merkmale des Befragten verstanden, sondern primär als eine spezielle Interaktion, in der ein Fragesteller auf bestimmte Art und Weise von einem Befragten Information über einen interessierenden Sachverhalt bekommen möchte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-78890-1_5 5f285e1f73402bf3b873cd9d7216a1b6;de;;;1.1.;;;Zur Theorie des Marktes für Lebensmittelsicherheit und -kontrolleIm ersten Kapitel wurden die naturwissenschaftlichen Aspekte der Schadstoffe und Schadorganismen in Lebensmitteln dargelegt. Ziel dieses zweiten Kapitels ist es, Lebensmittelsicherheit anhand wirtschaftstheoretischer Überlegungen zu charakterisieren. Es wird insbesondere die Verteilung von Information und der öffentliche und private Charakter des Gutes Lebensmittelsicherheit diskutiert. Außerdem werden die einzelnen Aufgaben der Kontrolle definiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-47007-3_3 45c3a11237a33984cc6dd8e393f3ce0d;de;;;1.1.;;;Dokumentationsarbeitsplatz für die AnästhesieDie Deutsche Gesellschaft für Anästhesie- und Intensivmedizin (DGAI) beschäftigt sich seit geraumer Zeit mit den Themen der Qualitätssicherung und Leistungserfassung in der Anästhesie. Die Verwendung eines elektronischen Anästhesieprotokollierungssystems kann hierzu wichtige Beiträge leisten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-08644-5_36 d768acea552104bbf42b6bf9e748063a;de;;;1.1.;;;Konzeption eines wissensbasierten Simulationssystems zur Unterstützung der Modellbildung und Simulation im UmweltbereichDie Unterstützung der Modellbildung und Simulation im Umweltbereich durch Simulationssoftware ist unbefriedigend. Dieser Bereich stellt hinsichtlich der Flexibilität und der Funktionalität der Software besondere Anforderungen. Ausgehend von diesen Anforderungen wird die Konzeption eines Simulationssystems vorgestellt, in dem auch wissensbasierte Ansätze zur Erhöhung der Flexibilität und Verbesserung des Unterstützungskomforts zur Anwendung kommen. Sie dienen vorrangig zur Bereitstellung von methodischem Modellierungswissen für Benutzer, die über solches Wissen nur in begrenztem Umfang verfügen. Weitere Charakteristika des Systems sind die Unterstützung der graphischen Modellierung sowie der modularen Modellerstellung. Teile des Systems sind prototypisch realisiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-78104-9_20 f619c594060763dfd5a34e93895c0bff;de;;;1.1.;;;Computergestützte Diagnosenverschlüsselung im Universitätsklinikum Göttingen — Zwischenbilanz nach 5 Jahren und Zukunftsplanung —Nach mehr als fünfjährigem Betrieb eines teilautomatisierten Diagnosenverschlüsselungssystems im Universitätsklinikum Göttingen werden hier einige Erfahrungen und Erkenntnisse kritisch dargelegt. Leitlinien für die weitere Entwicklung sind erstens die bessere Einbindung in den Behandlungsprozeß, die zu größerem Nutzen, höherer Motivation der Ärzte und besserer Datenqualität führen soil, und zweitens die Anwendung moderner und international anerkannter Klassifikationen für Diagnosen und Operationen, die Vergleiche und Zusammenarbeit auf lokaler, nationaler und internationaler Ebene ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82158-5_44 9619b86f8fa26b9a22dbaa5966dda139;de;;;1.1.;;;Handlungsanleitung zur Anwendung des MITO-Konfigurationsmanagement-AnsatzesIn diesem Kapitel werden Handlungsanleitungen für die Anwendung und Umsetzung des MITO-Konfigurationsansatzes bei der Neuausrichtung des vorhandenen Businessmodells mit Entwicklung des Organisationszielsystems, des Prozessmodels, des Führungssystems und der Prozessoptimierungs- und -gestaltungskonzepte vorgegeben, die Unterschiede und der Übergang zwischen funktionsorientierter und prozessorientierter Ordnungsstruktursicht werden herausgearbeitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-20662-8_3 8e1abc086ec5682387a9f9719b017d79;de;;;1.1.;;;Literarische Handlungen und ihre BegleitprozesseIm Rahmen der letzten beiden Kapitel wurden die Begriffe ‘Literatur’, ‘Literarizität’ und ‘literarisch’ sowie ‘Wert’, ‘Wertung’, ‘Wertmaßstab’ und ‘Werturteil’ geklärt. Damit wurde das theoretische Fundament jenes deskriptiven Modells literarischer Wertung gelegt, das nun — ausgehend von den vorliegenden Begriffsbestimmungen — schrittweise weiterentwickelt werden soll. Der erste Schritt, den es nun zu vollziehen gilt, besteht darin, ein Konzept dessen einzuführen, was in den bisherigen Ausführungen pauschal als ‘literarisches Leben’ bezeichnet wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-81301-5_4 d290c8ea0f841c5a691009f66080b1d5;de;;;1.1.;;;Toleranz und WissenschaftToleranz in der Wissenschaft? Wozu? Haben wir nicht unseren Methodenkanon, der uns sagt, wie man in der Wissenschaft verfahren soll, wie man zum Beispiel eine Hypothese testen soll, wie man die Güte eines Tests zu bewerten hat und welche Schlüsse man nach vollzogener Auswertung aus dem Ergebnis ziehen kann? Dieser Kanon sagt uns etwa, dass wir eine Hypothese bis auf weiteres beibehalten können, wenn sie den vorgesehenen Test besteht, oder dass wir sie verändern oder verwerfen müssen, wenn sie im Test durchfällt. Beides hat nichts mit Toleranz oder Intoleranz zu tun. Hier hat – so sehen es viele – die Wirklichkeit selbst ein Urteil gefällt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-00116-2_33 33229a098a253200c32ca55b6ca4e5b0;de;;;1.1.;;;Tinnitus aus Sicht des in der Praxis tätigen HNO-ArztesTinnitus, ab einer Dauer von 3 Monaten als chronisch aufzufassen, ist keine eigenständige Krankheit, sondern ein Symptom einer zentralen Informations-Verarbeitungsstörung mit individuell geprägter emotionaler Reaktion. Er kann als chronisch dekompensierter Tinnitus ein für den Betroffenen schwerwiegendes Leiden darstellen und kann auch als subjektive Empfindung Symptom einer objektiven Krankheit sein. Psychische Komponenten spielen oft eine erhebliche Rolle und müssen in die diagnostische Abklärung mit einbezogen werden. Chronischer Tinnitus ist in der Regel therapeutisch nicht zu beeinflussen. Ärztliches Ziel muss es sein, beim Betroffenen eine Habituation zu erreichen und zu festigen, sodass der Tinnitus zwar weiter bestehen bleibt, aber nicht mehr als belastend empfunden wird. Zu den Mitursachen des Tinnitus können Funktionsstörungen der oberen Halswirbelsäule und/oder der Kiefergelenke zählen. Sie sollten nach Möglichkeit beseitigt werden, um zumindest die Habituation zu erleichtern und eine Rezidivneigung zu verringern.;-;-;-;https://link.springer.com/article/10.1007/s00106-004-1208-8 ce57170884d688115fc283532dfecfa5;de;;;1.1.;;;Fokus Gruppe: Lernen lernen in Kooperativen LernumgebungenNachdem das Lernen lernen bislang überwiegend aus der Perspektive des Individuums betrachtet wurde, rückt nun das soziale Geschehen in den Mittelpunkt. Welche Möglichkeiten und Methoden gibt es, um kollektive Lernaktivitäten gezielt zu fördern?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-04986-7_12 e86ec7884764d18b83121ecf00ba5ed0;de;;;1.1.;;;Neurobiologische Grundlagen bipolarer affektiver ErkrankungenDie Neurobiologie bipolarer affektiver Erkrankungen lässt sich in einem Modell mit strukturellen und funktionellen Komponenten beschreiben, das ergänzt wird durch die Bedeutung von Stressoren, Coping-Mechanismen und dispositionellen Faktoren. Es liegen mehr neurobiologische Daten zur depressiven Symptomatik vor als zur Manie, zu Mischbildern oder zum raschen zyklischen Wechsel der beiden klinischen Pole. Strukturelle und funktionelle chronobiologische Auffälligkeiten scheinen eine zentrale Rolle in der Pathophysiologie der Erkrankungen zu spielen. Hirntopographisch sind limbisch-striatal-pallidal-thalamokortikale Verknüpfungen von essenzieller Bedeutung. Die gesamte Kaskade der neuralen Signalvermittlung von Neurotransmittern und Neuromodulatoren über rezeptorgekoppelte intrazelluläre Signaltransduktion bis hin zu nukleärer Genexpression zeigt Auffälligkeiten bei bipolaren affektiven Störungen, wobei nosologisch übergreifende Faktoren wie Suizidalität Einfluss nehmen. Replizierte Daten zu richtungsweisenden neurobiologischen Differenzen bipolarer zu unipolar depressiven Störungen stehen bisher jedoch aus.;-;-;-;https://link.springer.com/article/10.1007/s00115-003-1556-8 e63c10bf5cb07b890ad8d72bcd29a69e;de;;;3.3.;;;Effiziente und genaue Objekterkennung für 3D-Punktwolken im intelligenten visuellen Internet der Dinge Die visuelle Wahrnehmung ist eine Schlüsseltechnologie im Intelligent Visual Internet of Things. Die Erforschung von Objekterkennungsverfahren ist von großer Bedeutung, um die Sicherheit und Effizienz der unbemannten Fahrtechnik und des intelligenten visuellen Internets der Dinge zu verbessern. Die 3D-Punktwolken-Objekterkennung von Deep Learning kann nicht nur das tiefe Netzwerk verwenden, um automatisch Eigenschaften der mehrschichtigen abstrakten Struktur zu lernen, die Berechnungseffizienz und Erkennungsgenauigkeit des Modells zu verbessern, sondern auch eine bessere Leistung beim Umgang mit Objektverdeckung, Abwesenheit und Datensparsität mit erhaltenen hochdimensionalen Punktwolkeninformationen. Allerdings ist die aktuelle Überprüfung von Objekterkennungsmethoden für 3D-Punktwolken basierend auf Deep Learning rar. Um ein umfassenderes Verständnis und Verständnis für die Sicherheits- und Effizienzentwicklung der fahrerlosen Technologie zu vermitteln, wird dieses Papier entsprechend den Hauptdaten des Netzwerkmodells in die monokulare Kamera, das RGB-D-Bild und die LiDAR-Punktwolke unterteilt und weiter gliedert sich nach den verschiedenen Nutzungsmethoden des Modells. Analysieren Sie die Leistung verschiedener Methoden zur Modellerkennung. Dieser Artikel fasst auch aktuelle häufig verwendete 3D-Punktwolken-Datensätze der Objekterkennung zusammen, organisiert und beschreibt Erkennungsmetriken häufig verwendeter 3D-Punktwolken und diskutiert Forschungsherausforderungen und Entwicklungstrends. Die Echtzeitleistung der 3D-Punktwolken-Objekterkennung unter dem intelligenten Vision Internet of Things muss verbessert werden.;-;-;-;https://link.springer.com/article/10.1007/s11042-020-10475-7 8c2c6811a69daf684e68a83e30836832;de;;;3.3.;;;Zerlegung neurologischer multivariater Zeitreihen durch Zustandsraummodellierung Die Zerlegung multivariater Zeitreihendaten in unabhängige Quellkomponenten ist ein wichtiger Bestandteil der Vorverarbeitung und Analyse zeitaufgelöster Daten in den Neurowissenschaften. Wir geben einen kurzen Überblick über die dafür verfügbaren Werkzeuge wie die Faktoranalyse (FA) und die unabhängige Komponentenanalyse (ICA) und zeigen dann, wie die lineare Zustandsraummodellierung, eine Methodik aus der statistischen Zeitreihenanalyse, für denselben Zweck eingesetzt werden kann. Die Zustandsraummodellierung, eine Verallgemeinerung der klassischen ARMA-Modellierung, ist gut geeignet, um die in der zeitlichen Ordnung von Zeitreihendaten kodierten dynamischen Informationen zu nutzen, während diese Informationen für FA und die meisten ICA-Algorithmen unzugänglich bleiben. Dadurch werden viel detailliertere Zerlegungen möglich, und es können sowohl Komponenten mit scharfem Leistungsspektrum wie Alpha-Komponenten, Sinusartefakte oder Schlafspindeln als auch mit breitem Leistungsspektrum wie FMRI-Scanner-Artefakte oder epileptische Spiking-Komponenten getrennt werden , auch ohne vorherige Information. Darüber hinaus werden drei Verallgemeinerungen diskutiert, wobei die erste die Unabhängigkeitsannahme lockert, die zweite die Nichtstationarität der Kovarianz des die Dynamik steuernden Rauschens einführt und die dritte die Nicht-Gaussianität der Daten durch eine nichtlineare Beobachtungsfunktion ermöglicht. Es werden drei Anwendungsbeispiele vorgestellt, eine Elektrokardigramm-Zeitreihe und zwei Elektroenzephalogramm (EEG)-Zeitreihen. Die beiden EEG-Beispiele, beide von Epilepsiepatienten, demonstrieren die Trennung und Entfernung verschiedener Artefakte, darunter Brummgeräusche und FMRI-Scanner-Artefakte, sowie die Identifizierung von Schlafspindeln, epileptischen Herden und spitzen Komponenten. Zum Vergleich werden Zerlegungen gezeigt, die durch zwei ICA-Algorithmen erhalten wurden.;-;-;-;https://link.springer.com/article/10.1007/s11538-010-9563-y f45ad93855e478d7c4716e00cca3bcc9;de;;;1.1.;;;Persönlichkeit und WahlverhaltenDer Beitrag diskutiert die Rolle von Persönlichkeitsmerkmalen und Einstellungen bei der Erklärung politischen Verhaltens. Es werden unterschiedliche Paradigmen der Persönlichkeitsforschung mit ihren Implikationen für die Erklärung von Wählerverhalten dargestellt und diskutiert. Auf dieser Grundlage werden ausgewählte Ansätze der Persönlichkeitsforschung, z.B. „autoritäre Persönlichkeit“, der Dogmatismus-Ansatz, der Konservatismus-Ansatz von Glenn D. Wilson und der Big Five-Ansatz sowie zugehörige Forschungsergebnisse vorgestellt und diskutiert. ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-05164-8_14 c3eced03f73137cb7858f4586104c1c3;de;;;1.1.;;;Zytokine: Klassifikation, Rezeptoren, WirkungsmechanismenDas faszinierende Feld der Zytokinforschung verbindet in bisher kaum bekannter Weise verschiedene medizinische und naturwissenschaftliche Fachrichtungen. Kaum ein anderes Gebiet moderner biowissenschaftlicher Forschung ist so interdisziplinär wie dieses Forschungsgebiet. Die Zytokine befinden sich, wie es Angus W. Thomson bereits vor 10 Jahren im Vorwort zum ersten Handbuch der Zytokine zum Ausdruck gebracht hat, an der vordersten Front der biomedizinischen Forschung. Das Verständnis der außerordentlich komplexen Wirkungsweisen und Interaktionen ist bei weitem noch nicht vollständig. Trotz der Komplexität sind jedoch Grundprinzipien zu erkennen, die in diesem Artikel verdeutlicht werden sollen.;-;-;-;https://link.springer.com/article/10.1007/s001080050720 7244717e646366e2f2254e1d08d70e58;de;;;1.1.;;;Konflikt der Sinne: Wenn visuelle und propriozeptive Rückmeldung nicht übereinstimmenUm ein Ziel zu erreichen, modifizieren wir kontinuierUch unser Verhalten auf der Basis fortlaufender Erfahrungen und Eindrücke (Jeannerod, 1997). Diese Flexibilität unseres Verhaltens ist eine zentrale Komponente höheren Bewußtseins. Das Verfolgen unserer Absichten und das Beobachten der sich daraus ergebenden Konsequenzen ermöglicht es uns, zwischen Ereignissen, die wir selber verursachen, und Ereignissen, die von der Umwelt verursacht auf uns einwirken, zu unterscheiden (Frith, 1992).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-85180-2_22 e27051ba991e75fbe3dfa0730cfa494d;de;;;1.1.;;;Zur Psychophysiologie des Bewußtseins„Bewußtsein — spezifisch menschliche ideelle Widerspiegelung der objektiven Realität vermittels des Zentralnervensystems“ — so ist, wenn man sich auf die Suche nach Begriffsbestimmungen macht, beispielsweise in einem philosophischen Wörterbuch (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-9219-1_11 e5617459a3ed0030885a772766c1cb32;de;;;3.3.;;;Ein auf genetischen Algorithmen basierender Rahmen für die Vorhersage des Softwareaufwands In der Literatur wurden mehrere Vorhersagemodelle vorgeschlagen, die unterschiedliche Techniken verwenden und unterschiedliche Ergebnisse in unterschiedlichen Kontexten erzielen. Der Bedarf an genauen Aufwandsvorhersagen für Projekte ist eines der kritischsten und komplexesten Probleme in der Softwarebranche. Die automatisierte Auswahl und Kombination von Techniken auf alternative Weise könnte die Gesamtgenauigkeit der Vorhersagemodelle verbessern.;-;-;-;https://link.springer.com/article/10.1186/s40411-017-0037-x 6f743ec83e5b58ad8504b73eded43344;de;;;3.3.;;;Persönliche Authentifizierung Der technologische Fortschritt wird immer von praktischen Anwendungen inspiriert und das Aufkommen der automatischen Biometrie-Technologie ist genau in den Anforderungen realer Sicherheitsanwendungen verwurzelt. Ob diese neue Technologie lange halten kann, wird davon abhängen, wie gut sie die Sicherheitsprobleme lösen kann. Obwohl sich die Biometrietechnologie noch in der Entwicklungsphase befindet, wird sie in verschiedenen Anwendungen eingesetzt und einige von ihnen funktionieren gut. Zusammen mit der weit verbreiteten Anwendung der biometrischen Technologie werden dieser aufstrebenden Technologie mehr Gelder und mehr Aufmerksamkeit geschenkt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4519-4_13 4c2620f399685d640d52f0ceb566c136;de;;;3.3.;;;Innenschlaufen automatisch in Silikon einlegen Viele der zeitaufwendigen inneren Schleifen sind von Natur aus regelmäßig und parallel. Dies sind genau die Strukturen, die sich gut für die VLSI-Implementierung eignen. Als Ergebnis werden Subroutinen immer häufiger verwendet, die direkt in Silizium ausgeführt werden können. Bedeutet dies, dass in naher Zukunft viele große Berechnungen effektiv von kleinen Computern durchgeführt werden können, die mit Silizium-Subroutinen ausgestattet sind? Dieser Vortrag präsentiert eine vereinfachte Charakterisierung des Silizium-Subroutinen-Ansatzes und diskutiert systolische Architekturen – eine leistungsstarke Methode zur Implementierung kostengünstiger Silizium-Subroutinen für Berechnungen wie Mustervergleich und Fehlerkorrektur. Auch CAD-Systeme an der CMU, die es uns ermöglicht haben, einige recht komplexe Chips zu entwerfen, wie beispielsweise einen programmierbaren systolischen Chip, werden kurz beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0043449 9038019c622e2001664924320b093546;de;;;3.3.;;;Ein Ansatz zur Entwicklung eines anwendungsabhängigen SPICE-konformen Prozessfähigkeitsmodells Die in den letzten 25 Jahren von der weltweiten Software-Engineering-Community erarbeitete Prozessfähigkeitsmodellierung wurde zu einem Werkzeug zur Systematisierung und Kodifizierung von Wissen und Erfahrungen prozessorientierter Aktivitäten. Dieses Tool wurde entwickelt, um die Vorhersagbarkeit von Aktivitätsergebnissen, d. h. die Prozessfähigkeit, zu verbessern. ISO/IEC 15504 definiert nämlich eine Prozessfähigkeitsdimension und die Anforderungen an jede externe Prozessdefinition als anwendbare Prozessfähigkeitsdimension. Enterprise SPICE definiert ein domänenunabhängiges integriertes Modell für unternehmensweite Bewertungen und entsprechende Verbesserungen. Andererseits enthält jede Anwendungsdomäne anwendungsspezifisches Wissen und Erfahrung, die nicht in Breite und Tiefe durch domänenunabhängige Prozessmodellierung abgedeckt werden. Der Zweck dieses Papiers besteht darin, das Problem der anwendungsabhängigen SPICE-konformen Prozessmodellierung, die mit anwendungsunabhängigen Komponenten integriert ist, anzugehen. Es wird mit den Entwicklerprozessen des Innovations-, Wissens- und Technologietransfer-Prozessmodells innoSPICE illustriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38833-0_6 3d850264dfe289902596d3eb70bb89cd;de;;;3.3.;;;Effektives Risikomanagement von Softwareprojekten (ERM): Eine explorative Literaturübersicht von IEEE- und Scopus-Online-Datenbanken Die Bedeutung und der Reifegrad des Software Engineerings nehmen seit 1968 zu. Die Softwareentwicklung, die unter das Dach des Software Engineering fällt, befindet sich jedoch noch in der Entwicklung. Verschiedene Software-Risikomanagement-Prozessmodelle, Methoden und Techniken wurden von Forschern für die Softwareindustrie vorgestellt, um die Entwicklung von Softwareprojekten erfolgreicher zu gestalten. Viele Softwareprojekte werden jedoch immer noch nicht abgeschlossen. Die verwendeten Modelle sind allgemein gehalten und basieren auf der traditionellen Technik des Risikomanagements. Daher sind effektive Techniken des Risikomanagements (ERM) für die Entwicklung ausgereifter Software erforderlich, um die Erfolgsrate von Softwareprojekten zu erhöhen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-4585-18-7_50 b294e7beb694aa89f9c39442e5602035;de;;;1.1.;;;Physik lernender NetzwerkeSeit etwa 6 Jahren beschäftigen sich weltweit theoretische Physiker mit der Theorie neuronaler Netzwerke. Es geht dabei um die Erforschung der kooperativen Informationsverarbeitung, also um die Frage, ob und wie ein großes Netzwerk von einfachen Einzelteilen und mit einfachen Mechanismen Informationen verarbeiten kann. Es wird untersucht, mit welchen Gesetzmäßigkeiten unendlich große Systeme fehlertolerant und inhalt-adressierbar speichern, selbsttätig lernen und verallgemeinern können. Es zeigte sich, daß man mit Modellen und Methoden der theoretischen Vielteilchenphysik allgemeine mathematische Gesetze zu den Eigenschaften neuronaler Netzwerke erhält.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-77382-2_15 5c6efc1f855c1b622648068a77748bb0;de;;;1.1.;;;Semantische Strukturen und ihre psychische RealitätDie Entdeckung der frühen sprachpsychologischen Studien lag in der Beobachtung der engen Verflechtung bestimmter Wörtern untereinander. Die Art dieser Verflechtung wurde als assoziativ beschrieben oder als taxonomisch im Sinne von Begriffsordnungen gewertet. In der Entwicklung der modernen Sprachwissenschaft kam der Erforschung von Wörtern einer Einzelsprache bei den Studien zum “sprachlichen Feld” besondere Bedeutung zu. Parallel dazu entstanden Forschungen aus der Assoziationspsychologie, in denen “Wortfeld”-Untersuchungen durchgeführt worden sind, die, wie Deese (1962, 166) zeigen konnte, den Begriff “Wortfeld” nicht als bloße Metapher erkennen ließen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-95664-4_6 281c78e4099c991e4dc2849f1a97ed9b;de;;;3.3.;;;Ein Framework für den evolutionären visuellen Softwareanalyseprozess Software-Evolution besteht aus Änderungen, die während der Softwarewartung durchgeführt werden. Eine solche Anhäufung von Änderungen führt zu erheblichen Modifikationen in Softwareprojekten und daher zu einer großen Menge relevanter Fakten, die für das Verständnis und das Verständnis des Softwareprojekts für die Durchführung zusätzlicher Änderungen nützlich sind. In diesem Szenario sind Softwareentwicklungsanalysen und Softwareentwicklungsvisualisierungen entstanden, um Softwareentwicklern und -managern zu helfen. Folglich war die Anwendung visueller Analysen auf die Softwareentwicklung ein wichtiger Fortschritt in den Bemühungen, die Softwarewartungsgemeinschaft zu unterstützen. Dieses Papier definiert Anwendungen von Visual Analytics als evolutionäre visuelle Softwareanalyse und soll Forschern in relevanten Bereichen einen Referenzrahmen bieten, wobei die zentrale Rolle der Benutzer besonders hervorgehoben wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35879-1_53 12ebe913f60f2236d623b702333d34f4;de;;;3.3.;;;Design und Implementierung eines intelligenten Systems zur Personalisierung und genauen Auswahl von mobilen Diensten Drahtlose mobile Dienste sind Computeranwendungen, die auf drahtlosen Handheld-Geräten ausgeführt werden. Solche Anwendungen müssen innerhalb der gewaltigen Einschränkungen der Geräte funktionieren, die Speicher, Verarbeitungsleistung, Eingabefähigkeiten und Anzeigegröße umfassen. Daher ist es wichtig, dass mobile Dienste den Kontext des Benutzers berücksichtigen, die Ressourcennutzung optimieren und den Eingabeaufwand für den Benutzer minimieren. In diesem Whitepaper stellen wir das Design und die Implementierung eines intelligenten Agenten-fähigen Systems zur Personalisierung drahtloser mobiler Dienste und Werbung für Java 2 Micro Edition (J2ME) oder Java ME und Wireless Application Protocol (WAP)-fähige Geräte vor. Wir verwenden Softwareagenten für die Kontextfilterung, da solche autonomen Softwareeinheiten Eigenschaften haben, die mobilen Geräten und der drahtlosen Umgebung zugute kommen können, und den Composite Capability/Preference Profiles (CC/PP)-Standard zum Definieren von Profilen für Benutzerpräferenzen und Gerätefunktionen. Das System beinhaltet die Verwendung künstlicher neuronaler Netze, um adaptiv und iterativ zu lernen, den besten verfügbaren Dienst basierend auf Kontextinformationen auszuwählen. Das System wird anhand praktischer Betriebsszenarien bewertet, sowie empirische Daten und Ergebnisse zeigen eine Erfolgsquote von 87% bei der Auswahl des besten verfügbaren Dienstes.;-;-;-;https://link.springer.com/article/10.1007/s00766-007-0051-3 17c611ecc58f75faaaaef818a2482629;de;;;3.3.;;;Eine Modellimplementierung für Schutzdomänen Es wird ein kombinierter Hardware/Software-Mechanismus vorgestellt, der sehr allgemeine Fähigkeiten zum Schutz und zum kontrollierten Zugriff auf gemeinsam nutzbare Informationsstrukturen unterstützt. Es wird durch symbolische Algorithmen in Bezug auf die dedizierte Modellhardware definiert. Das Modell konzentriert sich auf zwei Schlüsselkonzepte, das der;-;-;-;https://link.springer.com/article/10.1007/BF00986123 39006032977efe153ed30909762a7c19;de;;;3.3.;;;Vergleichsstudie von Roboter-Middleware für Roboteranwendungen Die Entwicklung eines Robotersystems ist eine harte Aufgabe und erfordert spezielle Programmierkenntnisse. Darüber hinaus erfordert die Entwicklung und der Betrieb jedes Robotersystems gemeinsame Aufgaben wie Zustandsmanagement, Kommunikation zwischen Teilen, Synchronisation usw. Zur Unterstützung wurden mehrere Softwareplattformen eingeführt, damit Forscher und Entwickler die neuen Ideen konzentrieren können. Dieses Dokument gibt einen Überblick über verschiedene Roboter-Middleware. Eine streng definierte, robotische Middleware dient dazu, die Kommunikation zwischen verschiedenen Softwarekomponenten zu realisieren. Im weiteren Sinne unterstützen sie den Entwicklungsprozess von Roboteranwendungen. Das Dokument enthält Beschreibungen von Systemen wie Robot Operating System (ROS), RT-Middleware, OPRoS und Orocos. Der Bericht enthält auch einen Vergleich der oben aufgeführten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10783-7_13 dae7c50c729638809c77c2fef5222d01;de;;;3.3.;;;Qualitäts- und Geschäftsangebotsorientierte Auswahl von Webservices für Kompositionen Die Servicekomposition nutzt die vorhandenen Services, um einen neuen Mehrwertservice zur Ausführung des komplexen Geschäftsprozesses zu erstellen. Die Service Discovery findet anhand der Funktionalität die passenden Services (Kandidaten) für die verschiedenen Aufgaben der Komposition. Die Dienstauswahl in der Komposition weist den besten Kandidaten für jede Aufgabe des vorstrukturierten Kompositionsplans basierend auf den nicht-funktionalen Eigenschaften zu. In diesem Papier schlagen wir die Broker-basierte Architektur für die QoS- und geschäftsangebotsbewussten Web-Service-Kompositionen vor. Die Brokerarchitektur erleichtert die Registrierung eines neuen zusammengesetzten Dienstes in drei verschiedenen Registern. Der Broker veröffentlicht Dienstinformationen in der Dienstregistrierung und QoS in der QoS-Registrierung. Die Geschäftsangebote des zusammengesetzten Webdienstes werden in einem separaten Repository namens Business Offer (BO) Registry veröffentlicht. Der Broker nutzt den Mechanismus zur optimalen Zuordnung der Webservices zu den einzelnen Aufgaben der Komposition. Die Zuordnung orientiert sich an den vielfältigen Anforderungen der Composite Service Provider (CSP), die an QoS und Business-Angebote definiert sind. Der Broker berechnet auch die QoS der resultierenden Zusammensetzung und stellt die nützlichen Informationen für den CSP bereit, um seine Geschäftsangebote zu veröffentlichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00405-6_12 d636a2d7a3e7c52641087167016f6b67;de;;;1.1.;;;Modell der politischen Urteilsfähigkeit – eine Dimension der PolitikkompetenzPolitische Urteilskompetenz ist eine für die Demokratie essenzielle Kompetenz, die es im Fachunterricht Politik auszubilden gilt. Bisherige Überlegungen aus der allgemeinen Pädagogik und den Fachdidaktiken sind in ihren Begrifflichkeiten nicht immer trennscharf und entbehren oft einer Präzisierung des Fachwissens.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-07246-9_5 13cd7ac3b1ded45d4f72bbdce4c8a609;de;;;3.3.;;;Bitstream-Decodierung und SEU-induzierte Fehleranalyse in SRAM-basierten FPGAs Rekonfigurierbare SRAM-basierte FPGAs sind in Weltraumanwendungen sehr anfällig für strahlungsinduzierte Single-Event-Upsets (SEUs). Das Bit-Flip im Konfigurationsspeicher von FPGAs kann die Benutzerschaltung dauerhaft ohne richtige Bitstrom-Reparatur verändern, was ein völlig anderes Phänomen als Störungen in herkömmlichen Speichergeräten ist. Es ist wichtig, die Beziehung zwischen einer programmierbaren Ressource und dem entsprechenden Steuerbit zu finden, um die Auswirkungen dieses Effekts zu verstehen. In diesem Papier wird ein Verfahren zum Decodieren des Bitstroms von FPGAs der Xilinx Corporation vorgeschlagen, und dann wird ein Analyseprogramm entwickelt, um die Netzliste eines bestimmten Designs zu analysieren, um den Konfigurationszustand der belegten programmierbaren Logik und der Routings zu erhalten. Danach wird eine SEU-Ausbreitungsregel gemäß dem Ressourcentyp erstellt, um kritische Logikknoten und Pfade zu identifizieren, die die topologische Schaltungsstruktur zerstören könnten. Die dekodierte Beziehung wird in einer Datenbank gespeichert. Die Datenbank wird abgefragt, um die sensiblen Bits eines bestimmten Designs zu erhalten. Das Ergebnis kann verwendet werden, um die Verwundbarkeit des Systems darzustellen und die Ausfallrate des Systems im Orbit vorherzusagen. Das Analysewerkzeug wurde durch Fehlerinjektion und Beschleunigerbestrahlungsexperiment validiert.;-;-;-;https://link.springer.com/article/10.1007/s11432-011-4396-3 d59d73c442d71a9ad620caf1ddfc55c1;de;;;1.1.;;;WerbewirkungsmodelleWerbewirkungsmodelle befassen sich mit der Frage, wie Werbung ihr eigentliches Ziel erreicht. Was also genau ist mit Werbewirkung gemeint? Und unter welchen Bedingungen ist eine bestimmte Werbung wirksam? Zur Beantwortung dieser Fragen werden Werbewirkungsmodelle betrachtet. Sie machen Aussagen darüber, wie und warum Werbebotschaften die Beworbenen erreichen – oder eben nicht erreichen. Die einfachsten Vorstellungen gehen davon aus, dass die Werbung nur geschickt genug gemacht sein muss: Solche Reiz-Reaktions-Modelle stellen den Ausgangspunkt dar. Da zwischen Reiz und Reaktion allerdings diverse Prozesse ablaufen, wurden zunehmend differenzierte Werbewirkungsmodelle formuliert. Aus diesen Modellen lassen sich Gestaltungsempfehlungen ableiten, und sie können die vielfältigen Befunde zur Wirkung einzelner Gestaltungselemente integrieren. Die Darstellung der Werbewirkungsmodelle vermittelt zudem eine Idee davon, auf welchen Ebenen und mit welchen Methoden Werbewirkung vorhergesagt und evaluiert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-43576-2_2 906c597663300685564c72065e20b43e;de;;;1.1.;;;Grundlagen des MarktprozessesDieser Abschnitt beschreibt eine elementare menschliche Tätigkeit — den Austausch. Es wird ein Grundmodell vorgestellt, das den Austausch als eine Menge von Aktivitäten von zwei Parteien sieht, die jeweils etwas geben und nehmen und die sich durch ihre Tätigkeit wechselseitig Nutzen und Kosten bereiten. Die beteiligten Parteien betreiben jeweils einen Austausch, um ein individuelles Problem zu lösen. Dabei werden bestimmte Antriebskräfte wirksam: das Streben nach Vorteilen, die beschränkte Rationalität und der Umgang mit der Unsicherheit. Das ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-57165-7_1 21cd4360245adb56771253aba043a360;de;;;3.3.;;;Das Modell des Statistischen Geographie-Informationssystems in Grid Heutzutage werden viele statistische Geographie-Informationssysteme (SGIS) mit unterschiedlichen Sprachen und Plattformen entwickelt. Die unterschiedliche Herkunft und die unterschiedliche Struktur der statistischen Ressourcen machen es den Nutzern schwer, sie gemeinsam zu nutzen und diese Systeme gegenseitig zu betreiben. Um diese Probleme zu lösen, sollten wir viele Aspekte berücksichtigen, wie z. B. den Betrieb der Datenbank gegenseitig, kompatible Betriebssysteme und den Ausgleich der Internetlast usw. Während die herkömmliche GIS-Technologie diese Probleme nicht perfekt lösen kann, kann das Raster dies gut. Basierend auf der OGSA-Struktur wird ein SGIS-Modell mit Grid-Middleware-Technologie vorgeschlagen. In diesem Papier werden die Merkmale der Infrastruktur erörtert und erläutert, wie dieses Modell die Probleme löst. Dann wird ein konkretes Beispiel vorgeschlagen und sein Implementierungsprozess diskutiert. In Anbetracht mehrerer Schlüsselprobleme, die bei der Konstruktion des Systems gelöst werden müssen, gibt dieses Papier seine Relösungsmittel an. Es weist darauf hin, dass ein auf Rastern basierendes SGIS der beste Weg für digitale statistische Informationen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02342-2_1 c1d69e6969e538ddf6cae7aa1e8cb83f;de;;;3.3.;;;Multi-Node-Planungsalgorithmus basierend auf Clustering-Analyse und Datenpartitionierung in der Notfallmanagement-Cloud Die Echtzeitverarbeitung ist ein zentrales Problem für die Analyse und Verarbeitung von Big Data, insbesondere im Notfallmanagement. Von den führenden Industrieunternehmen stark gefördert, wird Cloud Computing immer beliebter als Werkzeug für das Notfallmanagement, die Notfallmanagement-Cloud. Die optimale Bereitstellung von Cloud-Anwendungen für das Notfallmanagement ist ein anspruchsvolles Forschungsproblem. Das Papier schlägt einen Multi-Node-Scheduling-Algorithmus vor, der auf Clustering-Analyse und Datenpartitionierung in der Notfallmanagement-Cloud basiert. Zunächst teilt die vorgestellte Methode die Cloud-Knoten entsprechend den Kommunikationskosten zwischen verschiedenen Knoten in Cluster auf und wählt dann einen Cluster für die Big-Data-Analysedienste aus. Zweitens wird die Load-Balancing-Theorie verwendet, um Big-Data-Analysen an diese Rechenknoten zu senden, um eine synchronisierte Fertigstellung bei bestmöglicher Leistung zu ermöglichen. Um die Echtzeit der Big-Data-Analyse zu verbessern, präsentiert das Papier schließlich einen spieltheoretischen Multi-Node-Scheduling-Algorithmus, um die optimale Scheduling-Strategie für jeden Scheduling-Knoten zu finden. Experimentelle Ergebnisse zeigen die Effektivität unseres Planungsalgorithmus für Big Data Analytics im Notfallmanagement.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39527-7_18 3d981b6dfbbf50c54e6f3e51c979e8b9;de;;;3.3.;;;Numerische Studie zum gemischten Modell im GOCE-Polar-Gap-Problem Die vom Gravity Field und dem Steady-State Ocean Circulation Explorer (GOCE) erfassten Gravitationsgradienten decken nicht die gesamte Erde ab, da ihre sonnensynchrone Umlaufbahn Datenlücken mit einem Radius von etwa 6,5° in den Polarregionen hinterlässt. Frühere Studien zeigten, dass der Datenverlust in den Polarregionen die Genauigkeit der Koeffizienten niedriger Ordnung (oder nahe der Zonen) des Erdgravitationsmodells verschlechtert, was in der Geodäsie das sogenannte Polarlückenproblem ist. Um eine stabile Lösung für das Erdgravitationsmodell aus den GOCE-Schweregradienten zu finden, werden drei Modelle, nämlich das Gauss-Markov-Modell, das Light Constraint-Modell und das gemischte Modell, mit dem mit dem EGM2008 simulierten Gravitationsgradienten numerisch verglichen und bewertet. Der Vergleich zeigt, dass der Best Linear Uniformly Unbiased Estimation (BLUUE)-Schätzer des gemischten Modells das Polar-Gap-Problem genauso effektiv lösen kann wie das Light-Constraint-Modell, außerdem ist das gemischte Modell rigoroser im Umgang mit den Zusatzinformationen und führt zu a bessere Genauigkeit bei der Bestimmung des globalen Geoids.;-;-;-;https://link.springer.com/article/10.1007/s11806-011-0532-x d176206f7e599eb318ac1cae922e309e;de;;;1.1.;;;Systemgestützte KostenschätzungErstaunlich gute Kostenschätzungen sind möglich, wenn der Fehlerausgleichseffekt genützt und ein objektivierendes Schätzmodell verwendet wird das noch so transparent ist, daβ der erfahrene und aktuell informierte Anwender die berechneten Werte feinkorrigieren kann. Die Hauptprobleme liegen weniger in der Methodik als im Bereich der Datenqualität und der Modellakzeptanz. Sie fallen in den Aufgabenbereich des Controlling, insbesondere aber der Betriebsdatenerfassung und der Arbeitspsychologie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-59047-4_13 1ffdbffdc54dced7b323eed31079170c;de;;;3.3.;;;Programmierung massiv paralleler Architekturen mit sequentiellen objektorientierten Sprachen Die meisten parallelen objektorientierten Sprachen (OOL) verwenden derzeit ein allgemeines Parallelitätsmodell, das auf der Kommunikation sequentieller Prozesse basiert. Dieser Ansatz macht es schwierig, massiv parallele Systeme einfach und effizient zu programmieren. Daher schlagen wir vor, eine andere Form der Parallelität zu verwenden, die als Datenparallelität bekannt ist. Wir beschreiben, wie es sauber und elegant in eine gegebene OOL integriert werden kann, wobei nur bereits vorhandene Konzepte verwendet werden -;-;-;-;https://link.springer.com/chapter/10.1007/3-540-55599-4_97 adc453868211d16ad41c578e5a76c59f;de;;;3.3.;;;IKT-Kompetenzen mit Persönlichkeitstypen in Verbindung bringen IKT-Kompetenzrahmen legen die Definition der Kompetenzen fest, die von IKT-Fachleuten benötigt und eingesetzt werden. Stellenprofile artikulieren Kompetenzen zusammen mit den Bedürfnissen, Zielen und Einschränkungen einer Organisation. Die Entwicklung der Softwareindustrie beeinflusst Persönlichkeitstrends im Beruf. Dieses Work-in-Progress untersucht die Beziehung zwischen Kompetenzen, Profilen und Persönlichkeitstypen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24647-5_24 a627d6c6fc345726ccd1820deb38a2f3;de;;;1.1.;;;Front load costing — produktkosten-management auf basis unvollkommener informationProaktives Produktkostenmanagement setzt in der Konzeptphase der Produktentwicklung an, denn dort besteht noch ein hoher Gestaltungsspielraum. Frühzeitige Konzeptbewertungen werden dadurch erschwert, daß viele technische Randbedingungen und wirtschaftliche Parameter nicht oder nur vage bekannt sind. Durch die systematische Nutzung unvollkommener Information lassen sich Erkenntnisprozesse zeitlich nach vorne verlagern. Ziel der Methodik Front Load Costing (FLC) ist die frühzeitige Bewertung technischer Systeme zur Entscheidungsunterstützung im Spannungsfeld zwischen Zahlungsbereitschaft und Zielkosten. Durch den graphischen Modellierungsansatz wird das Arbeiten in interdisziplinären Teams unterstützt.;-;-;-;https://link.springer.com/article/10.1007/BF03249532 f3baef42ba6a025b291e732dab30eaf0;de;;;1.1.;;;AngstzuständeAngstzustände bzw. Angststörungen sind der Sammelbegriff für mit Angst verbundene psychische und organische Beschwerden. Typisch hierfür sind übermäßige und übertriebene Angstreaktionen, obwohl eine echte äußere Gefahr fehlt. Die Angst war ursprünglich eine natürliche und überlebenswichtige Reaktion auf reale gefährliche Situationen, wie etwa auf ein Mammut in der Steinzeit. Jeder Mensch kennt diese Reaktion. Eine normale ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-60700-8_3 09c899d13c9c5fb0e53d8a7dbcb8a7cb;de;;;1.1.;;;Konzeptualisierung eines Modells zur Erklärung von ComplianceverhaltenZiel der Untersuchung ist es, das Therapietreueverhalten von Patienten in einem ersten Arbeitsschritt zu konzeptualisieren, um die das Verhalten prägenden Determinanten zu bestimmen. In einem zweiten Arbeitsschritt schließt sich die Operationalisierung des konzeptualisierten Untersuchungsmodells an. Im Rahmen der Konzeptualisierung werden zunächst inhaltlich relevante Aspekte und Dimensionen des Complianceverhaltens herausgearbeitet. ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-6334-5_3 080e53a29e761f67e90dc11f9925ff2c;de;;;3.3.;;;Wann sollten Sie mit dem Testen aufhören? Der Testprozess besteht darin, Abweichungen zwischen tatsächlichen und erwarteten Ergebnissen zu erkennen, um qualitativ hochwertige Software zu erstellen. Testen ist notwendig, aber jeden einzelnen Teil der Software zu testen ist nicht machbar. Es sollte einen Schwellenwert geben, um das Testen zu stoppen. In diesem Papier haben wir ein analytisches Schema vorgeschlagen, das Schwellenwerte zum Beenden des Testens bereitstellt, ohne die Qualität der Software zu beeinträchtigen. Durch die Verwendung des vorgeschlagenen Schemas kann der Entwickler leicht ein ausreichendes und ausreichendes Testniveau ermitteln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22577-2_84 766d43dd24cf6a614d0b12762d3a0ab7;de;;;3.3.;;;Softwareentwicklung mit hohem Vertrauen Software entwickelt sich aufgrund sich ändernder Anforderungen, Plattformen und anderer Umweltbelastungen ständig weiter. Moderne Software ist auf Frameworks angewiesen, und wenn sich die Frameworks weiterentwickeln, muss sich auch die Software weiterentwickeln. Andererseits kann die Software aufgrund sich ändernder Anforderungen geändert werden. Daher müssen wir bei der Entwicklung von Software mit hohem Vertrauen sowohl die Framework- als auch die Client-Evolution berücksichtigen, die jeweils zu Fehlern führen und die Softwarequalität reduzieren können. In diesem Artikel stellen wir eine Reihe von Ansätzen vor, um einige Probleme bei der Entwicklung von Software mit hoher Vertrauenswürdigkeit anzugehen. Um die Entwicklung des Frameworks zu unterstützen, schlagen wir insbesondere einen verlaufsbasierten Matching-Ansatz vor, um eine Reihe von Transformationsregeln zwischen verschiedenen APIs zu identifizieren, und eine Transformationssprache zur Unterstützung der automatischen Transformation. Zur Unterstützung der Client-Evolution für Software mit hoher Vertrauenswürdigkeit schlagen wir einen pfadexplorationsbasierten Ansatz vor, um Tests effizient zu generieren, indem Pfade, die für Änderungen zwischen Versionen irrelevant sind, entfernt werden, mehrere abdeckungsbasierte Ansätze zur Optimierung der Testausführung und Ansätze zur Fehlerlokalisierung und Speicherbehebung leckt automatisch. Diese Ansätze ermöglichen eine hochgradig sichere Softwareentwicklung unter verschiedenen Aspekten.;-;-;-;https://link.springer.com/article/10.1007/s11432-016-5572-2 f3b4ce2b88c0fd853aa39459ef671e64;de;;;3.3.;;;Leistungsprinzipien für Trusted Computing mit Intel SGX Cloud-Anbieter, die Software-as-a-Service (SaaS) anbieten, vertrauen Kunden zunehmend, sensible Daten zu speichern. Unternehmen monetarisieren solche personenbezogenen Daten häufig durch Kuration und Analyse, um Kunden personalisierte Anwendungserfahrungen und gezielte Werbung zu bieten. Personenbezogene Daten werden oft von strengen Datenschutz- und Sicherheitsrichtlinien begleitet, die erfordern, dass die Datenverarbeitung durch nicht triviale Durchsetzungsmechanismen geregelt wird. Um die Kosten für das private Hosting der potenziell großen Datenmengen auszugleichen, setzen SaaS-Unternehmen sogar Infrastructure-as-a-Service (IaaS)-Cloud-Anbieter ein, die nicht der direkten Aufsicht der für die Daten verantwortlichen Verwaltungseinheit unterliegen. Intel Software Guard Extensions (SGX) ist eine neue vertrauenswürdige Computertechnologie, die einige dieser Datenschutz- und Sicherheitsbedenken durch die Remote-Bestätigung von Berechnungen mildern kann, wodurch Vertrauen auf Hardware hergestellt wird, die sich außerhalb der administrativen Domäne befindet. Dieses Papier untersucht und demonstriert die zusätzlichen Kosten der Verwendung von SGX und argumentiert weiter, dass beim Entwerfen von Systemsoftware große Sorgfalt walten muss, um Leistungseinbußen zu vermeiden, die durch Trusted Computing entstehen. Wir beschreiben diese Kosten und stellen acht spezifische Prinzipien vor, die Anwendungsautoren befolgen sollten, um die Leistung ihrer vertrauenswürdigen Computersysteme zu steigern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94959-8_1 71d4bcc9c8a8a2b6deebe5aac4712ad1;de;;;3.3.;;;Image Compressed Sensing mit neuronaler Architektursuche Deep-Learning-Verfahren wurden in letzter Zeit weit verbreitet in der Bildkomprimierung (CS) angewendet, die eine signifikante Verbesserung gegenüber herkömmlichen Rekonstruktionsalgorithmen sowohl in der Laufgeschwindigkeit als auch in der Rekonstruktionsqualität erzielen. Es ist jedoch selbst für einen Experten ein zeitaufwendiges Verfahren, ein Hochleistungsnetzwerk für Bild-CS aufgrund verschiedener Kombinationen unterschiedlicher Kernelgröße und Filteranzahl in jeder Schicht effizient zu entwerfen. In diesem Artikel wird ein neuartiges Image-CS-Framework namens NAS-CSNet vorgestellt, das die Vorteile der neuronalen Architektursuchtechnik (NAS) nutzt. Das NAS-CSNet umfasst ein Abtastnetzwerk, ein anfängliches Rekonstruktionsnetzwerk und ein NAS-basiertes Rekonstruktionsnetzwerk, die gemeinsam optimiert werden. Insbesondere wird das Rekonstruktionsnetz automatisch durch Suchen aus dem Suchraum ohne Versuche und Irrtümer durch Experten entworfen. Umfangreiche experimentelle Ergebnisse zeigen, dass unsere vorgeschlagene Methode die wettbewerbsfähige Leistung im Vergleich zu den hochmodernen Deep-Learning-Methoden erreicht und die Rekonstruktionsgenauigkeit numerisch erheblich fördert, was die Wirksamkeit des vorgeschlagenen NAS-CSNet und das Versprechen einer weiteren Verwendung von NAS zeigt im CS-Feld.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0705-9_2 0b4a9ff21582c28498484121f09aa7d9;de;;;3.3.;;;Forschung und Anwendung zur automatischen Generierungstechnologie der JavaScript-Eingabevalidierung Client-Authentifizierung für Webanwendungen erfordern viel Skripterstellung, schlechte Wartbarkeit, dieses Papier folgt den Prinzipien und Methoden des System Engineering, um den Datensatz für die Seitentabelle zu untersuchen, die Anwendung automatisch durch die automatische Generierung von JavaScript-Technologie generiert. Eingabevalidierung im Web basierend auf dem Vergleich, erste Entwürfe, wenn die automatische Produktion „Checker Dictionary“ und „Control Settings Page“ zwei Tabellenstrukturen verwendet, dann das automatische Generieren des Routinenentwurfs, einschließlich des Programmentwurfsprozesses und des Main Validierungsfunktion, führt schließlich die Bestätigung durch das automatische Produktionsbeispiel fort. Die Ergebnisse zeigen, dass die automatisch generierte Eingabevalidierung von JavaScript die technischen Anforderungen an Softwareentwickler zur Verbesserung der Softwareentwicklungsproduktivität reduziert und das traditionelle Softwareentwicklungsmodell verändert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28655-1_94 87bf8b6fe7f7932ac9b06da0b2a33759;de;;;1.1.;;;Einführung in AntriebssystemeTechnische Antriebe werden in Maschinen, Anlagen und Fahrzeugen als Teilsysteme eingesetzt, um die Energie in jeweils geeigneter Form dem „Arbeitsprozess“ zur Verfügung zu stellen und tragen somit dazu bei die gewünschte Gesamtfunktion zu erfüllen. Sie basieren dabei auf der Umformung, Übertragung und Speicherung von Energie. Technische Antriebe werden heutzutage mit wachsender Bedeutung als „Systeme“ betrachtet und als solche entwickelt, wodurch der Begriff „Antriebssysteme“ geprägt ist. Erst die Betrachtung als Antriebssystem ermöglicht die Beurteilung und Berechung der integrierten Komponenten unter Berücksichtigung der statischen und dynamischen Eigenschaften des Gesamtsystems, z.B. eines Kraftfahrzeugs, und der auftretenden Rückkopplungen auf Teilsysteme, z.B. Getriebe, Kupplungen oder Gelenke. Antriebssysteme werden durch ein Zusammenwirken von Mechanik, Sensorik, Aktorik und Informationsverarbeitung realisiert. Unter Mechanik sind in diesem Zusammenhang alle Komponenten zu verstehen, die direkt im eigentlichen Leistungsfluss des Gesamtsystems wirken. Sensoren und Aktoren bestehen im Wesentlichen ebenfalls aus mechanischen Komponenten, bilden damit aber die Schnittstelle zwischen der Mechanik und der Informationsverarbeitung. Mittels der Sensoren lassen sich einzelne Betriebsgrößen als Istwerte erfassen und zur Informationsverarbeitung übermitteln. Die Informationsverarbeitung ermöglicht u.a. den Vergleich vom Istwert mit einem von außen vorgegebenen Sollwert. In Abhängigkeit der Regelungs- oder Steuerungsstrategie können somit die Aktoren mit Stellgrößen angesteuert und dadurch der Leistungsfluss der Mechanik verändert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76654-4_4 a15a5f3cdd4ffd54988a809aaf5c2c41;de;;;1.1.;;;Theorien zur Erklärung des UntersuchungsgegenstandsNachdem im vorangegangenen Teil der Arbeit eine inhaltliche Begriffsklärung und Themenabgrenzung vorgenommen und zuletzt ein Überblick über die bestehende Literatur zum Forschungsthema dieser Arbeit präsentiert wurde, richtet sich der Fokus nun auf theoretische Erklärungbeiträge mit Bezug zur Untersuchung lateraler grenzüberschreitender Technologietransferprojekte in multinationalen Unternehmen. Theorien stellen Wolf (2011) zufolge „Destillate wissenschaftlichen Erkenntnisstrebens“ dar. Sie verkörpern jeweils in sich konsistente Aussagensysteme mit umfassendem Geltungsanspruch. Dieser umfassende Geltungsanspruch kann nur realisiert werden, indem sich Theorien und theoretische Ansätze auf elementare Erklärungen von Sachverhalten zurückziehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-4087-2_3 8a09b261e849fd4e4a6fab553334aa37;de;;;1.1.;;;Jugendkriminalität und Moralentwicklung: Theoretische Analysen und empirische ForschungJugendkriminalität im Zusammenhang mit der moralischen Entwicklung zu diskutieren, ist nichts Neues. “Kriminelle” galten schon immer als “unmoralisch”. Entsprechend ist eines der universellen Sozialisations-ziele die “Ausbildung des Gewissens, das spontane Bedürfnisse kontrollieren und die Notwendigkeit allgemein anerkannter Normen, auch des Strafrechts, zu verinnerlichen hilft” (Kaiser 1981, S. 21). Das Gewissen ist dabei als “selbsttätiges inneres Regulativ zu sehen, das in Erscheinung tritt, wenn es in sozialen Situationen an einer Übereinstimmung des Handelns mit dem Sollen fehlt. Zwar vermag das Gewissen das normgerechte Verhalten nicht unmittelbar zu determinieren, es zeigt jedoch dem Handelnden den “normgerechten” Weg und beeinflußt die jeweilige Entscheidung des Einzelnen in sozialen Handlungssituationen” (Würtenberg/Heinz 1977, S. 430).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-88671-2_11 02f181518a0ea027047fc51812f99a86;de;;;1.1.;;;Das menschliche Verhalten in der BetriebswirtschaftBetriebswirtschaften sind Organisationen und damit spezifische soziale Systeme. Man kann das betriebswirtschaftliche Geschehen nicht adäquat erfassen, wenn man keine klaren Vorstellungen vom menschlichen Verhalten und seinen sozialen Determinanten besitzt. Diesen mehr psychologischen und sozialpsychologischen Aspekten der Betriebswirtschaft wollen wir uns im folgenden zuwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-83799-8_5 69abb93964e4f6aa5875232086f662cd;de;;;1.1.;;;Welche Bedeutung hat die neurobiologische Forschung für die forensische Psychiatrie?There is an increasing number of brain imaging studies revealing structural and functional impairments in antisocial and violent individuals and sex offenders. This review outlines some neurobiological findings on offenders with antisocial personality disorder and sex offenders diagnosed with paedophilia. With regard to these studies the implications of neurobiological research for forensic psychiatry are discussed.;-;-;-;https://link.springer.com/article/10.1007/s11757-007-0040-x f84d5ce7b1eabb955b3f568761f6fd41;de;;;1.1.;;;Die Netzwerkorganisation und der NetzwerkeffektIn den folgenden Abschnitten werden die drei Idealtypen der Organisation ökonomischen Tauschs — Markt, Hierarchie, Netzwerk — besprochen. Es wird argumentiert, dass grundsätzlich alle empirisch beobachtbaren Formen ökonomischer Organisation, d.h. insbesondere auch vermeintliche Hierarchien und Märkte, Netzwerke darstellen. Dies ist der Fall, da einerseits Märkte und Hierarchien in ihrer Reinform nur analytische Kategorien darstellen, welche so in der Realität nicht anzutreffen sind (vgl. Bradach/Eccles 1989: 97–99) sowie andererseits, bei allen Organisationsformen davon auszugehen ist, dass die strukturelle Einbettung der Tauschpartner das Handeln derselben beeinflusst und somit Netzwerkeffekte vorliegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-10887-0_2 a1554b01b0bda2a987d3018a2fdbbd85;de;;;3.3.;;;Ein neues Framework für sichere Cloud-basierte E-Learning-Systeme Die Kombination von Cloud Computing mit E-Learning hat zu einer neuen Form von Systemen geführt, die als Cloud-basierte E-Learning-Systeme bezeichnet werden. Diese Systeme nutzen die Vorteile und Vorteile des Cloud Computing und kombinieren sie mit E-Learning-Systemen. Diese Kombination bietet einige Lösungen, um E-Learning-Systeme effizienter und benutzerfreundlicher zu machen und dazu beizutragen, die besten Bedingungen für die Nutzung von Fernlernsystemen zu bewältigen. Cloud-basierte E-Learning-Systeme bergen jedoch einige Herausforderungen in zwei Hauptachsen: Sicherheit und Speicherung. In diesem Papier schlagen wir eine neue Architektur vor, die darauf abzielt, die Probleme dieser Systeme in Bezug auf Sicherheit und Speicherung zu lösen. Es basiert auf einer neuen Sicherheitsschicht, die für die Kontrolle und Speicherung aller Transaktionen verantwortlich ist, um einen Sicherheitsschlüssel zu generieren und uns die Möglichkeit zu geben, die generierten Daten zu verwenden, um in Zukunft empfohlene Systeme anzubieten. Außerdem wird diese Architektur nach einer Studie vorgeschlagen, die wir durchgeführt haben, um viele Arbeiten in diesem Bereich abzudecken.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6893-4_7 1e7c2b687173c15f02bf42e533ca6af0;de;;;3.3.;;;Bewegungssimulation des menschlichen Arbeiters für die integrierte computergestützte Fertigungsprozesssimulation basierend auf einem Info-Ergonomie-Konzept In diesem Beitrag wird die Modellierung von Arbeitsprozessen und Arbeitssimulation in Fabrikanlagen vorgestellt. Auch ein Konzept für ein Mediator-basiertes Körper-/Bewegungsmodell zur Anwendung in der Info-Ergomomics wird angeboten. Im Fertigungsprozessdesign werden viele Simulationen ausgeführt, um die Effizienz der Arbeit des Konstrukteurs zu verbessern. In vielen Fällen konzentrieren sie sich jedoch darauf, die Leistung von Maschinen zu simulieren und zu bewerten. In der vorliegenden Arbeit werden wir Info-Ergonomie und Arbeitssimulation unter Verwendung von CG vorschlagen. Außerdem betrachten wir es als eine Möglichkeit, alle Daten, die in verschiedenen Anwendungen (CAD/CAM, etc.) während des Konstruktionsprozesses verwendet werden, zu vereinheitlichen und alle Teilsysteme in einer virtuellen Fabrik zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-46140-X_9 73d97c962f524cef6f6d5eadae4fb72c;de;;;3.3.;;;Entwicklungs- und Produktionsprozesse für sichere eingebettete Steuergeräte Sicherheit ist eine wichtige Eigenschaft von SCADA-Systemen, insbesondere im Kontext kritischer Infrastrukturen. In dieser Arbeit konzentrieren wir uns auf verteilte Steuergeräte für Wasserkraftwerke. Für bestimmte Lebenszyklusphasen von verteilten Steuergeräten wie die Entwicklungs- oder Betriebsphase wurde viel Arbeit geleistet. Unser Ziel hier ist es, den gesamten Produktlebenszyklus und die Konsequenzen der Implementierung von Sicherheitsfunktionen für eine einzelne Lebenszyklusphase auf andere Phasen zu berücksichtigen. Insbesondere diskutieren wir das Sicherheitskonzept zur Absicherung unserer Steuergeräte in der Betriebsphase und zeigen, wie sich aus diesen Konzepten zusätzliche Anforderungen für die Entwicklungs- und Produktionsphase ergeben. Wir zeigen, wie wir diesen Anforderungen gerecht werden und fokussieren uns auf einen Produktionsprozess, der die Beauftragung von Geheimnissen wie privaten Schlüsseln bereits während der Herstellungsphase ermöglicht. Wir zeigen, dass dies auch dann sicher und mit vertretbarem Aufwand möglich ist, wenn der Herstellungsprozess von einem Auftragsfertiger abgewickelt wird, der nicht vollständig vom OEM kontrolliert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-44817-6_10 a1f28254edc4d5100a870db1ad8314ec;de;;;3.3.;;;Eine Evolution der Fernhandhabungstechnologie für das indische Nuklearforschungs- und Industrieszenario Die Fernbehandlung ist ein wesentliches Instrument für die Handhabung radioaktiver Stoffe und die Wiederaufbereitung von Kernbrennstoffen. Division of Remote Handling and Robotics, Bhabha Atomic Research Center hat an der Entwicklung von Remote-Handling-Tools für interne Anwendungen gearbeitet. Die Erfahrung in jeder Entwicklung hat zur Entwicklung eines fortschrittlicheren Systems geführt. In diesem Beitrag wird versucht, diese Entwicklung der Fernbehandlungstechnologie als unverzichtbaren Bestandteil der Kernbrennstoffherstellung und -wiederaufarbeitung darzustellen. Das Papier umfasst auch eine mäßig detaillierte Beschreibung der mit der Entwicklung verbundenen Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-2845-8_2 b5b51214f2fd0493a5efbfa3cfa9767a;de;;;3.3.;;;Zur theoriegeleiteten Gestaltung von Kollaborationstechnologien und -prozessen Das Design und der Einsatz von Collaboration-Technologien war bis vor kurzem eher eine Kunst als eine Wissenschaft, hat aber einige solide Erfolge hervorgebracht. Kommerzielle Groupware-Produkte unterstützen mittlerweile Millionen von Kollaborationen pro Jahr. Unter bestimmten Umständen schneiden Teams, die Gruppenunterstützungssysteme verwenden, weitaus besser ab als Gruppen, die dies nicht tun. Doch so beeindruckend die Leistungen auf diesem Gebiet auch sind, wir können es besser machen. Ein rigoroser theoretischer Ansatz bei der Gestaltung von Technologien und Prozessen für die Zusammenarbeit kann uns zu nicht-intuitiven Designentscheidungen führen, die zu Erfolgen führen, die über die mit einem „Hose-of-the-Hosen“-Ansatz hinausgehen. Dieses Papier erklärt die einfache Struktur einer rigorosen wissenschaftlichen Theorie und bietet Beispiele für theoriegeleitete Designentscheidungen, die erhebliche Vorteile brachten. Es unterscheidet dann die rigorose Theorie von mehreren Theorieklassen, die einen intuitiven Reiz haben, aber keine Designentscheidungen beeinflussen können. Anschließend wird argumentiert, dass die Logik des theoriegetriebenen Designansatzes nahelegt, dass der nützlichste Fokus für Forscher im Bereich Collaboration Technology der technologiegestützte Arbeitsprozess und nicht nur die Technologie wäre.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30112-7_1 516c127060b5b71f7c9fb2e005cef73d;de;;;3.3.;;;Ein Framework zum Erstellen benutzerdefinierter Anpassungs-Proxys Dieser Artikel stellt einen Rahmen für die Entwicklung adaptiver Proxys für kontextsensitive mobile Anwendungen vor. Das Framework ist dafür verantwortlich, den aktuellen Kontext der Clients (Gerät und Netzwerk) zu sammeln und die entsprechenden Anpassungen auszulösen. MoCAs;-;-;-;https://link.springer.com/chapter/10.1007/0-387-32015-6_1 fcf966ccbd59e9a41ee2be45a9f1bc99;de;;;3.3.;;;Auf dem Weg zur Fernüberwachung des Gesundheitswesens mit barrierefreier IoT-Technologie: State-of-the-Art, Erkenntnisse und experimentelles Design Studien im Gesundheitswesen bewegen sich in Richtung individualisierter Messung. Es besteht die Notwendigkeit, über die überwachten Bewertungen im Labor/in der Klinik hinauszugehen. Die Bewertung des frei lebenden Längsschnitts kann eine Fülle von Informationen über die Pathologie und das Gewohnheitsverhalten des Patienten liefern, aber Kosten und Komplexität der Ausrüstung waren normalerweise ein Hindernis. Das Fehlen überwachter Bedingungen bei der Bewertung frei lebender Tiere bedeutet, dass diese Studien durch Umweltanalysen ergänzt werden müssen, um den einzelnen Messungen einen Kontext zu geben. In diesem Papier werden kostengünstige und zugängliche Internet of Things (IoT)-Technologien untersucht, um biomedizinische Ingenieure über Möglichkeiten, Arbeitsabläufe und Einschränkungen zu informieren, die sie bieten. Dabei belegen wir ihren Einsatz in der Gesundheitsforschung durch Literatur und Experimente. Da die Hardware erschwinglicher und funktionsreicher wird, steigen die Kosten für Daten. Dies kann für biomedizinische Ingenieure, die nach kostengünstigen Lösungen suchen, einschränkend sein, da die Datenkosten IoT-Ansätze unskalierbar machen können. IoT-Technologien können von biomedizinischen Ingenieuren genutzt werden, aber es ist noch mehr Forschung erforderlich, bevor diese Technologien für Kliniker und medizinisches Fachpersonal alltäglich werden. Es besteht die Hoffnung, dass die Erkenntnisse aus diesem Papier biomedizinische Ingenieure besser in die Lage versetzen, multidisziplinäre Forschungsuntersuchungen zu leiten und zu überwachen.;-;-;-;https://link.springer.com/article/10.1186/s12938-020-00825-9 db25c82b2fea359a5bf151d5867bcd78;de;;;3.3.;;;Formale Modellierungs- und Verifikationsmethode für Sicherheitssoftware basierend auf UML und Z Mit der kontinuierlichen Erweiterung des Anwendungsspektrums von Software und dem häufigen Auftreten von Softwaresicherheitsunfällen ist die Softwaresicherheit in den Mittelpunkt der Aufmerksamkeit gerückt. Dieses Papier schlägt eine formale Modellierungs- und Verifikationsmethode für Sicherheitssoftware vor, die UML verwendet, um die grundlegende Struktur der Software zu organisieren, und die Z-Spezifikation verwendet, um Sicherheitssemantik für das UML-Modell bereitzustellen, um die formale Modellverifikation zu unterstützen. Diese Methode kann die Sicherheit des Softwaredesigns garantieren und gleichzeitig die Komplexität der formalen Modellierung reduzieren. Auf dieser Grundlage wird in diesem Beitrag auch eine Website-Registerfunktion als Fallstudie vorgestellt und die Sicherheitslücken im Systemdesign aufgedeckt, die Effektivität und Praxistauglichkeit dieser Methode wird dann demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34447-3_35 22d9d43f1dd6ef8c65eb8c74d99a1406;de;;;1.1.;;;Lehrerfeedback im individualisierten UnterrichtIndividualisierter Unterricht fordert von Schülern geeignete Strategien zur Steuerung von Lernprozessen. In einer Zeit, die sich durch ständige Entwicklungsprozesse und fortwährend verändernde Umwelten auszeichnet, kommt dem Erwerb dieser Strategien eine grundlegende Bedeutung zu. Demgemäß haben „Mobilisierung, Differenzierung und Säkularisierung […] eine ungeahnte Freisetzung des Individuums bewirkt“ (Albert, 2006, S. 21). Folglich ist der Einzelne im Alltag einer Fülle von Sinnangeboten, Handlungs- und Deutungsmustern ausgesetzt, die ihm immer wieder neue, inhaltliche Auseinandersetzungen abverlangen. Auch die sich dauernd verändernde Arbeitswelt macht die fortlaufende Bereitschaft und Fähigkeit zur Weiterbildung unerlässlich. In diesem Zusammenhang sind sich viele Forscher darüber einig, dass die effektivsten Lerner diejenigen sind, die in der Lage sind, ihre Lernprozesse selbst zu regulieren (Butler & Winne, 1995, Schmitz & Schmidt, 2007, Ziegler et al., 2003).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-05099-3_2 95baa0e5a13485a799a6c30bdf5a14c6;de;;;1.1.;;;Diskussion des ModellsZiel des in den vorigen Kapiteln erarbeiteten Rational-Choice-Modells des Wahlverhaltens ist es, die Wirkungsweise wirtschaftlicher Bestimmungsgründe des Wahlverhaltens zu analysieren und zu erklären. Wie gut kann der Rational-Choice-Ansatz dies leisten? Eine Gegenüberstellung mit dem wichtigsten rivalisierenden Ansatz der Wahlforschung, dem Michigan-Modell, soll diese Frage beantworten helfen. Dabei soll untersucht werden, welche Erklärungen für die Einflüsse wirtschaftlicher Faktoren der sozialpsychologische Ansatz anbietet und wie diese im Vergleich zum Rational-Choice-Ansatz abschneiden. Vor allem das mutmaßliche Defizit an substantieller Erklärungskraft des Parteiidentifikations-Ansatzes dürfte hier negativ zu Buche schlagen. Das sozialpsychologische Modell mag zwar einfach und überschaubar sowie realistisch und empirisch testbar sein, was seinen durchschlagenden Erfolg in der Wahlforschung mit begründet hat und es zu einem praktikablen Instrument gemacht hat. Es fehlt ihm jedoch inhaltliche Erklärungskraft und Verallgemeinerungsfähigkeit in einem Handlungsmodell mit größerem Spektrum als nur Wahlverhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-86881-7_5 e8274f2a5fb2dc46ae23e9eb0865b4af;de;;;3.3.;;;Energieeffizienz eines Dienstleistungsgebäudes: Vergleich zwischen EnergyPlus und Revit Derzeit ist die Energieverbrauchsstudie in Gebäuden sehr wichtig, da sie einer der Tätigkeitsbereiche ist, in denen ein großes Potenzial zur Verbesserung der Energieeffizienz besteht. Auf dem Markt gibt es mehrere Simulationssoftware, und das Ziel dieser Arbeit besteht darin, einen Vergleich zwischen den beiden dynamischen Simulationssoftwares EnergyPlus und Revit bezüglich der Ergebnisse der thermischen Belastungen und des jährlichen Energieverbrauchs eines Servicegebäudes durchzuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58817-5_16 93e0596bf9d8926becac6506b2f9df42;de;;;1.1.;;;ENTWICKLUNG DES THEORETISCHEN MODELLSGemäß dem theoretischen Bezugsrahmen wird in diesem Kapitel zunächst die Führungssituation – also situative Merkmale der Aufgabe – konkretisiert. Nachdem im Kapitel 2.1 die Arten und Ziele von Innovationen generell beschrieben werden und begründet wird, das in dieser Untersuchung Verfahrensinnovationen den Analysegegenstand bilden, werden die situativen Merkmale der Aufgabe durch eine vergleichende Bestandsaufnahme des aktuellen Forschungsstands beschrieben und für die vorliegende Untersuchung spezifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-6009-2_2 ecfcbc1220ba0b51bbffd3a9fd34c249;de;;;1.1.;;;Entwicklung des Theoretischen ModellsGemäß dem theoretischen Bezugsrahmen wird in diesem Kapitel zunächst die Führungssituation — also situative Merkmale der Aufgabe — konkretisiert. Nachdem im Kapitel 2.1 die Arten und Ziele von Innovationen generell beschrieben werden und begründet wird, das in dieser Untersuchung Verfahrensinnovationen den Analysegegenstand bilden, werden die situativen Merkmale der Aufgabe durch eine vergleichende Bestandsaufnahme des aktuellen Forschungsstands beschrieben und für die vorliegende Untersuchung spezifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-10695-1_2 bdced0bf524755fbc289f1f4be77c185;de;;;3.3.;;;Anwendung verhaltensorientierter Robotik auf ein mobiles Sicherheitsgerät Das Paper beschreibt eine industrielle Anwendung verhaltensorientierter Robotik, den sogenannten RoboGuard. Es handelt sich um ein mobiles Sicherheitsgerät, das eng in den bestehenden Überwachungsrahmen integriert ist, der von Quadrox, einem belgischen KMU, entwickelt und vermarktet wird. RoboGuards sind halbautonome mobile Roboter, die Videostreams über drahtlose Intranets zu bestehenden Watchguard-Systemen bereitstellen. Robo-Guards füllen mehrere Marktnischen. Insbesondere sind sie eine ernsthafte Alternative zum Standardansatz der Verwendung von Closed Circuit Television (CCTV) für die Überwachung. Niedrige Produktionskosten und Benutzerfreundlichkeit waren zwei wichtige Designziele für die eigentliche mobile Basis des RoboGuard, die in Anlehnung an das KI-Paradigma der verhaltensorientierten Robotik erreicht wurden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45408-X_2 7bf5f75f6f99429a6100faf3f85a4c7b;de;;;3.3.;;;ArchiMate-Modelle spielen Dieses Papier befasst sich mit der Anwendung eines Gaming-Ansatzes auf die Validierung von ArchiMate-Modellen mit dem Ziel, die Validierung durch Nicht-Architekten über das bloße Lesen des Modells hinaus zu verbessern. Das Spiel bietet einen geführten Prozess zum systematischen Erkunden von ArchiMate-Modellen und zum systematischen Stellen von Fragen dazu. Der Entwicklungsprozess und die Designprinzipien des Spiels werden ebenso besprochen wie die Informationstransformation, die bei der Erstellung eines modellspezifischen Spiels aus einem ArchiMate-Modell erforderlich ist. Das Spiel wurde durch Anwendung in einem kleinen realen Fall evaluiert. Wir diskutieren den Einfluss unseres Ansatzes auf das Modellverständnis der Spieler und die konzeptionellen Vorzüge und Mängel des Spiels.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13051-9_16 a8b1d883f45930df7a90d64331b7e95c;de;;;3.3.;;;Verbesserung des Data Warehousing mit Fuzzy-Technologie Ein Data Warehouse integriert große Mengen extrahierter und zusammengefasster Daten aus mehreren Quellen zur direkten Abfrage und Analyse. Obwohl es Entscheidungsträgern einen einfachen Zugang zu solchen historischen und aggregierten Daten bietet, wurde die wahre Bedeutung der Daten ignoriert. Zum Beispiel: „Ob eine Gesamtverkaufsmenge von 1000 Artikeln auf eine gute oder schlechte Verkaufsleistung hindeutet, ist noch unklar.“ Aus Sicht der Entscheidungsträger ist die Semantik und nicht die rohen Zahlen, die die Bedeutung der Daten vermitteln, sehr wichtig. In diesem Artikel untersuchen wir die Fuzzy-Technologie, um diese Semantik für die in Data Warehousing-Systemen entwickelten Zusammenfassungen und Aggregate bereitzustellen. Es wird eine dreischichtige Datenzusammenfassungsarchitektur vorgeschlagen, nämlich quantitative (numerische) Zusammenfassung, qualitative (kategoriale) Zusammenfassung und Quantorenzusammenfassung. Um die Konstruktion dieser drei Verdichtungsebenen zu erleichtern, werden zwei Operatoren eingeführt. Wir bieten Abfragefunktionen für solche erweiterten Data Warehouses durch Erweiterungen von SQL.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48309-8_82 e5bdab0de1a1ad719b5994bd74e1ef78;de;;;3.3.;;;Eine multidisziplinäre verteilte Simulationsumgebung für das mechatronische Systemdesign, die eine Hardware-in-the-Loop-Simulation basierend auf HLA . ermöglicht Dieses Papier schlägt eine architekturbasierte multidisziplinäre verteilte Simulationsumgebung auf hoher Ebene für den Entwurf mechatronischer Systeme vor. In dem System können kommerzielle Standardsimulatoren über eine Echtzeit-Infrastruktur miteinander kommunizieren, um eine Software-in-the-Loop-Simulation zu realisieren. Darüber hinaus können auch Hardware-Prototypen an einem Teil der verteilten Simulationsumgebung teilnehmen, die uns eine Hardware-in-the-Loop-Simulation ermöglicht. Die Wirksamkeit wurde überprüft, indem die Umgebung auf das mechatronische Systemdesign eines elektrischen Fensterhebers für Kraftfahrzeuge und eines omnidirektionalen elektrischen Rollstuhls angewendet wurde.;-;-;-;https://link.springer.com/article/10.1007/s12008-007-0020-6 9eb3a8b2abfa3fb8d3e0d785b895cf9d;de;;;3.3.;;;Ein Programmier-Framework zur Implementierung eines fehlertoleranten Mechanismus in IoT-Anwendungen Resilienz ist eines der Hauptthemen in der Quality of Service (QoS) von IoT-Anwendungen. In der Zwischenzeit fungiert das IoT-Gerät als kleiner unabhängiger Computer, der auf einem Linux-Betriebssystem läuft, das einige höhere Programmiersprachen unterstützt und eine hohe Erweiterbarkeit bietet, um seine Erweiterung mit einer größeren Anzahl von Peripheriegeräten zu ermöglichen. Daher ermöglicht es Anwendungsentwicklern, fehlertolerante Programmierung durch softwaredefinierte Steuerung auf der Grundlage einiger softwarefehlertoleranter Technologien wie Redundanz und Diversität, Wiederherstellungsblock und Ausnahmebehandlung zu konstruieren. In diesem Papier schlagen wir ein Programmierframework für Anwendungsentwickler vor, um effektiv und effizient fehlertolerante Programmierung auf Anwendungsebene in IoT-Anwendungen zu erstellen. Dieses Framework könnte Anwendungsentwicklern bei der Programmierung robuster Software helfen, damit die Ausfallsicherheit von IoT-Anwendungen verbessert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27137-8_56 3c9e0ad7d461924f62e8b23b07b69c52;de;;;1.1.;;;Unterhaltung und deliberative OffenheitUnterhaltende Medienformate scheinen zugleich Fluch und Segen für die Vermittlung politischer Inhalte zu sein. Im folgenden Kapitel wird betrachtet, welche Rolle Unterhaltungsformate insbesondere bei kontroversen Themen spielen. Es wird näher auf die Transformationsgeschichten eingegangen, da in ihnen das Potential gesehen wird, sich positiv auf deliberative Offenheit auszuwirken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-32435-3_4 b8f9ee30d9eee4ce0b58da9bd5020c1a;de;;;3.3.;;;Datenflussprozessoren . Das gebräuchlichste Rechenmodell (d. h. eine Beschreibung, wie ein Programm zu bewerten ist) ist das von Neumann-Kontrollfluss-Rechenmodell. Dieses Modell geht davon aus, dass ein Programm eine Reihe von adressierbaren Befehlen ist, von denen jeder entweder eine Operation zusammen mit Speicherplätzen der Operanden spezifiziert, oder es spezifiziert eine (un)bedingte Übergabe der Steuerung an einen anderen Befehl. Ein Kontrollfluss-Berechnungsmodell spezifiziert im Wesentlichen den nächsten auszuführenden Befehl in Abhängigkeit davon, was während der Ausführung des aktuellen Befehls passiert ist. Der nächste auszuführende Befehl wird auf den Programmzähler PC gezeigt und von diesem getriggert. Dieser Befehl wird auch dann ausgeführt, wenn einige seiner Operanden noch nicht verfügbar sind (z. B. nicht initialisiert).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-58589-0_2 423ecb46ec020f91b0a761d18cc30a97;de;;;1.1.;;;Zukunftsaspekte der BiosignalverarbeitungDie Entwicklung der medizinischen Datenverarbeitung kann als ein Versuch zur Lösung der durch den Einbruch der Technik in die Medizin entstandenen Informationsprobleme angesehen werden. Betrachtet man die Beziehung Arzt-Patient unter dem Gesichtswinkel der Informationsverarbeitung, so kann sie als Kommunikationskette aufgefaßt werden. Vom Patienten gehen Signale aus, die der Arzt als Nachrichten empfängt und die er aufgrund seines medizinischen Wissens zu medizinisch relevanter Information verarbeitet. Das vom Patienten ausgehende Signal „ich habe immer starke Schmerzen nach dem Essen“ hat für den Laien zunächst nur den Charakter einer Nachricht, der Arzt verarbeitet diese Information „hier könnte ein Magengeschwür vorliegen“, aus der er diagnostische und therapeutische Konsequenzen zieht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-81285-9_15 67db92942b569100bf2233f860dfae0a;de;;;1.1.;;;Technik und Politik: Überlegungen zu einer innovativen Technikgestaltung in partizipativen VerfahrenNicht nur über die Chancen und Risiken sowie die ethische Bewertung der Gentechnik, sondern auch über die nötigen politisch-rechtlichen Konsequenzen gehen die Meinungen weit auseinander. Dabei beschränkt sich die Kritik nicht auf die Inhalte der politischen Entscheidungen, sondern: „Die existierenden Institutionen und Verfahren, in denen solche Entscheidungsprozesse stattfinden, sind selber in den Sog der gesellschaftlichen Kontroversen um Industrialisierung, Technikentwicklung und Umweltschutz geraten. Sie werden von Teilen der Öffentlichkeit und von Fall zu Fall als illegitim, wissenschaftlich fragwürdig und interessenselektiv angesehen“ (Bechmann et al. 1993: 106). Ein Phänomen, das auch für andere Technik-und Umweltkonflikte typisch zu sein scheint, wie z. B. denen um die Kernenergie oder die Höhe von Schadstoff-Grenzwerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-60579-6_8 89076e271cfda6e78e0209e1473a24ff;de;;;3.3.;;;Objektorientierte Programmierung in OpenMusic OpenMusic ist eine visuelle Programmiersprache für Musikkomponisten. Es wurde vom Musical Representation Team des Ircam-Centre Georges Pompidou entworfen und umgesetzt. OpenMusic basiert und implementiert auf CLOS (Common Lisp Object System) [510]. Es zeigt mehrere Originalmerkmale wie Reflexivität, Metaprogrammierungskapazitäten, den Umgang mit der Dualität zwischen Musik- und Rechenzeit und bietet einen Rahmen vordefinierter musikalischer Objekte für den Umgang mit Klang, MIDI und Musiknotation. OpenMusic kombiniert verschiedene Programmiertechniken, z. B. funktionale Programmierung, Constraint-Programmierung und objektorientierte Programmierung. Die objektorientierte Programmierung ist entscheidend mit dem kategorialen Ansatz verbunden. Die Kategorientheorie hilft, Konzepte wie Vererbung, Methoden, Klassen usw. auf originelle Weise zu formalisieren. Weitere Einzelheiten zu dieser Beziehung finden Sie in [306] oder in Abschnitt 9.4.2 dieses Buches.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-8141-8_51 3f3f94f01af42a346f53f8acfc67a137;de;;;1.1.;;;Ausgewählte sprachtheoretische ReflexionenDie bisherigen Ausführungen haben folgendes gezeigt: Die soziologische Rekonstruktion sozialer Systeme ist von der jeweiligen erkenntnistheoretischen Konstruktion abhängig. Der Rekonstruktionsvorschlag Luhmanns, welcher via doppelter Kontingenz die Autogenese und die emergenten Kommunikationszusammenhänge von Sozialfigurationen fokussiert, ist von entscheidender Tragweite. Die Untermauerung eines solchen Theoriegerüstes durch biologische Begriffe erweist sich jedoch —wie dargestellt —als unhaltbar. Zu Recht wurde die bloß metaphorische Bedeutung von biologischen Analogien hervorgehoben. Freilich haben solcherlei Metaphoriken einen Einfluß auf system- und organisationstheoretische Diskurse. Ihr Gegenstand wird selbst in einer sprachlichen respektive vertextlichten Qualität thematisiert. Lyotard und Derrida fassen diesen Konnex auf ihre jeweils eigene Weise. Neben den sozialen Komponenten werden somit, wie Karl Ulrich bezüglich organisationstheoretischer Fragestellungen betont, die „[...] sprachlichen Kreativitätspotentiale [...] zum konstituierenden Medium für die Evolution und Intecration sozialer Systeme.“;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-99225-3_8 cad81bf820e51ee646a4725af3e56432;de;;;1.1.;;;Auswirkungen von Aufmerksamkeitstests unterschiedlicher kognitiver Anforderungen auf die Auslenkung der HRV-ParameterIm Alltag eines Menschen strömt eine Vielzahl von Einflüssen auf jeden ein, doch nur durch eine gerichtete Aufmerksamkeit ist es möglich, seine Aufgaben zu bewältigen. Für die Forschung ist v. a. von Interesse, wie sich verschiedene Anforderungen bei Aufmerksamkeitstests auf physiologische Beanspruchungsreaktionen auswirken.;-;-;-;https://link.springer.com/article/10.1007/s40664-019-00374-6 ae82a394f33e55b41c9aed4684b39c8d;de;;;1.1.;;;400. EDV-gestützte, kooperative Nachsorge des Mammacarcinoms („Mannheimer Modell”)In the Department of Surgery of the Mannheim Clinic, 756 patients have so far been entered in the computer-assisted follow-up program for examinations following breast cancer. Our model for computerassisted cooperative follow-up has allowed collection of patient data in a suitable form for computer processing, back-up for internal communications, preparation of reports for external communications, planning of therapy and schedules, and monitoring and special evaluations.;-;-;-;https://link.springer.com/article/10.1007/BF01276226 7359ab731c59437dc7b07368f5886da3;de;;;1.1.;;;Entscheidungstheorie in der Managementausbildung – Notwendigkeit und GrenzenVor nunmehr über zehn Jahren entstand die Idee, an der Universität Bremen ein interdisziplinäres Lehrprogramm in Zusammenarbeit des Fachbereichs Wirtschaftswissenschaft mit dem Bereich Arbeits und Organisationspsychologie entwickeln zu wollen. Nach anfänglicher Skepsis überwog der Reiz der Herausforderung. Einerseits kann eine solche interdisziplinäre Kooperation als konsequente Umsetzung zentraler Leitbildaspekte der Universität Bremen gelten, in der Interdisziplinarität, forschendes Lernen in Projekten, Praxisorientierung und Verantwortung gegenüber der Gesellschaft wesentliche Eckpfeiler darstellen. Andererseits ermöglicht eine engere Kooperation der Wirtschaftswissenschaft mit dem psychologischen Fachgebiet weitergehende Perspektiven zu eröffnen, insbesondere in Bezug auf die Nutzung psychologischer Ansätze in der Managementausbildung. Diese Querbezüge sind dem Finanzwirtschaftler unter Begriffen wie „Beavioral Finance“ bekannt, und in der „Allgemeinen Betriebswirtschaftslehre“ sind sie in der Führungslehre und nicht zuletzt eben auch in der Entscheidungstheorie ohnehin nicht fremd. Allerdings führt die eigene, im Regelfall oftmals sehr disziplinenorientiere Arbeitsweise nicht immer zu deren konsequenter Beachtung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-91636-1_14 74db5b549ba21da437c2f1369f7ad1be;de;;;1.1.;;;Elemente einer Theorie der FirmaWas ist eine „Firma“? Was ist unter dem Begriff „Markt“ zu verstehen? Warum sind manche erfolgreiche Firmen sehr gross, andere wiederum extrem klein? Wie sollte eine Firma organisatorisch strukturiert sein? Wie lassen sich verschiedene Organisationsstrukturen erklären? Welche Anreizprobleme existieren innerhalb von Firmen? Wie lassen sich diese lösen? Welche Rolle spielt in diesem Zusammenhang die Zuordnung der Eigentumsrechte?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-56065-1_2 b2d44ff1f1bc7ff7aa1b3803090cd89c;de;;;1.1.;;;Das „Professionswissen“ von PädagogenDie Beschäftigung mit professionellem Handeln in pädagogischen Feldern, etwa im Kontext der Evaluierung von Ausbildungs- bzw. Studiengangskonzepten, Stößt an prominenter Stelle auf die Frage nach der ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-09988-8_5 c9f49da9ecb790f03abf7fe43e09fd2e;de;;;1.1.;;;Neue Ansätze der Erfolgsmessung im KommunikationsmanagementDie Kommunikation eines Unternehmens mit seinen Zielgruppen bedarf eines professionellen Managements. Insbesondere ist die Erhebung und Kontrolle des Kommunikationserfolges eine notwendige Grundlage zielorientierter Kommunikation. Unternehmenskommunikation ist erfolgreich, wenn ihre Wirkungen mit ihren vorab definierten Zielen übereinstimmen. Kommunikationswirkungen wiederum setzen in den subjektiven Wahrnehmungen der Zielgruppen an. Erfolgskontrolle sollte daher Erkenntnisse über die Wahrnehmungsprozesse der Kommunikationspartner berücksichtigen. Die Bedeutung solcher Prozesse konnte in einer Studie der Autoren bestätigt werden. Grundsätzlich fügen Kommunikationspartner neue Informationen in bestehende kognitive Strukturen oder Schemata ein. Die Kenntnis solcher Strukturen verbessert Maßnahmen des Kommunikationsmanagements, auch im Bereich der Erfolgskontrolle. Gerade Perception-Modelle, welche zentrale Einflussfaktoren der Unternehmenswahrnehmung durch seine Zielgruppen sowie deren Treiber identifizieren, können einen viel versprechenden Ansatz der Erfolgsmessung darstellen. Die Treiber der Unternehmenswahrnehmung lassen sich demnach im Rahmen des Kommunikationsmanagement mit Ziel-Größen verbinden, welchen im Schritt der Erfolgskontrolle Ist-Größen gegenüber gestellt werden. Basierend auf einem Verständnis der kognitiven Strukturen der Kommunikationspartner können so Wirkungen der Unternehmenskommunikation effizient mit ihren Zielen verglichen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-9663-9_3 bfb332b8025aa2ad8b11ac96c29a5a8e;de;;;1.1.;;;Investitionen als Gegenstand der UnternehmensführungInvestitionen stellen relativ komplexe Phänomene dar, die vielfältige Erscheinungsformen aufweisen. Aus diesem Grund kann der betriebswirtschaftliche Investitionsbegriff;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-08021-4_2 f7d307afb7b07adbfe53388e4dba8aa2;de;;;1.1.;;;Einige logische ProblemeÜber logische Informationsverarbeitung haben wir bislang noch nicht detailliert diskutiert. Wie lassen sich zum Beispiel zwei verwandte Infone miteinander zu einem dritten Infon verknüpfen? Ist dies überhaupt die Art und Weise, wie wir innerhalb unseres Infon-Rahmens die «Logik» betrachten wollen? Zur Beantwortung solcher Fragen bespreche ich nochmals den Grundstandpunkt, der in dieser Arbeit eingenommen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-6239-4_5 18f1faf87eac4ccbcf5547014b77be98;de;;;1.1.;;;Eignung von Anwendern bei radikalen InnovationenGegenstand dieses Kapitels ist die vertiefte Diskussion der Frage, ob Anwender im Innovationsprozess radikaler Innovationen geeignete Partner für Hersteller sind, d.h. produktive Beiträge für die Hersteller-Entwicklung leisten können. Zur Beantwortung dieser Frage sind zunächst mögliche Beiträge und Rollen von Anwendern in Innovationsprozessen zu spezifizieren (Abschnitt I.5.1). Nachfolgend werden kognitive Rahmenbedingungen aufgezeigt, die Einfluss auf die potentielle Rolle von Anwendern bei radikalen Innovationen nehmen. Hierzu werden relevante theoretische Bezüge dargestellt, die Aussagen über kognitive Voraussetzungen und Limitationen von Anwendern im Kontext hochgradiger Innovationen erlauben (Abschnitt I.5.2). Nachfolgend werden empirische Befunde zur Eignung von Anwendern bei radikalen Innovationen beschrieben und verglichen (Abschnitt I.5.3). Abschließend erfolgt die Entwicklung eines Bezugsrahmens für die weitere Untersuchung (Abschnitt I.5.4).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-81734-1_5 d72a2e139389e2a1213af324b4c8bd02;de;;;1.1.;;;Das Ressourcenkonzept in der sozialinterventiven Praxeologie und Systemberatung (1997p)Der Ressourcenbegriff hat in den Human-und Sozialwissenscharten und ihren Anwendungsbereichen: der Supervision, Organisationsentwicklung, Pädagogik, dem Managementtraining, der Psychotherapie, Soziotherapie, Familientherapie, der Systemberatung etc. zunehmend Verbreitung gefunden. Die wachsende Bedeutung gesundheitswissenschaftlicher Perspektiven (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-90723-9_10 9646f0efd3c134339703de1cffb14e49;de;;;1.1.;;;Das Entscheidungsverhalten der MarktteilnehmerKapitalmarkttheoretische Modelle leiten Aussagen über Gesetzmäßigkeiten auf der Marktebene aus Annahmen über das Verhalten idealtypischer “repräsentativer” Marktteilnehmer ab. Die moderne Kapitalmarkttheorie erklärt das Marktgeschehen als Ergebnis rationaler Entscheidungen der Beteiligten. Rationales Verhalten im hier verwendeten Sinne zeichnet sich dadurch aus, daß es mit den Empfehlungen bestimmter präskriptiver Theorien übereinstimmt. Die Grundlagen des im Rahmen der Kapitalmarkttheorie vorausgesetzten Individualverhaltens werden im folgenden zusammengefaßt, um sie anschließend verschiedenen Ansätzen zur Beschreibung des tatsächlichen Verhaltens von Marktteilnehmern gegenüberzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-86634-9_3 43e2e44ecb5ab8d941f66151f5fe9e31;de;;;3.3.;;;Automatisierte Verhandlung mit Multi-Agenten-Systemen in Geschäftsprozessen Dieser Beitrag stellt das Design und die Implementierung eines kollaborativen Multi-Agenten-Systems für automatisierte Verhandlungsprozesse in dynamischen vernetzten Umgebungen vor. Der Fokus liegt auf einem Verhandlungsmechanismus, der auf Unternehmensebene erforderlich ist. Der Mechanismus wird durch Softwareagenten innerhalb einer kollaborativen Arbeitsumgebung im speziellen Fall von gemeldeten Übergangssituationen erreicht. Die automatisierte Verhandlung ist einer der am häufigsten verwendeten Ansätze, um Entscheidungen zu treffen und Streitigkeiten zwischen Recheneinheiten zu verwalten, die zu optimalen Vereinbarungen führen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11313-5_27 7ea6d07bda35af3bf108893b33129bd9;de;;;1.1.;;;Psychopharmakologische Behandlungspraxis in Münchener AltenpflegeheimenDie in Münchener Pflegeheimen an 888 Bewohnern durchgeführte Studie ergab, dass 56,4% Psychopharmaka erhielten und dass Bewohner von Doppelzimmern gegenüber Bewohnern von Einzelzimmern doppelt so häufig Antipsychotika verordnet bekommen. In einer Teilstichprobe von 397 Bewohnern lag die letzte Überprüfung der Verschreibungen von 17,5% der Psychopharmaka mindestens 3 Monate bis teilweise Jahre zurück. 13,6% der Psychopharmaka-Konsumenten erhielten Psychopharmaka, die von älteren Menschen unter Zugrundelegung der amerikanischen Beers-Kriterien grundsätzlich möglichst nicht eingenommen werden sollten.;-;-;-;https://link.springer.com/article/10.1007/s00391-006-0401-7 6a7c7b3e7a25ad73cbb4d46da4fa1228;de;;;1.1.;;;Medien im WahlkampfIn den meisten Verfassungen demokratischer Staaten steht eine ähnliche Formulierung wie in Artikel 20 Abs. 2 des deutschen Grundgesetzes: „Alle Staatsgewalt geht vom Volke aus.“ Die Staatsgewalt übt das Volk in Wahlen und Abstimmungen aus und durch die Organe der Legislative, Exekutive und der Judikative — so steht es ebenfalls im Grundgesetz. Wahlen und Abstimmungen sind die unmittelbaren Formen der politischen Beteiligung der Bürger, aus denen Parlament, Regierung und Rechtsprechung ihre Legitimation als Staatsgewalten ableiten. Durch diese und andere Formen der politischen Partizipation artikulieren die Bürger ihre Bedürfnisse und ihre Ansprüche an die politischen Institutionen und Akteure.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-91830-3_6 b0e787c17f80448f33343d67f49fddba;de;;;1.1.;;;Reproduktion sozialräumlicher Differenzierungen in OpenStreetMap: das Beispiel JerusalemsDer Detailreichtum der Daten von OpenStreetMap ist nicht flächendeckend homogen. Unterschiede in der Datendichte treten nicht nur zwischen großen Regionen, sondern auch auf kleinräumigen Maßstabsebenen auf. Teilweise scheinen diese Differenzen entlang von sozialräumlichen Differenzierungen zu verlaufen. Dieser Beitrag diskutiert am Beispiel der Stadt Jerusalem, wie solche sozialräumlichen Differenzierungen anhand von geostatistischen Methoden empirisch untersucht werden können.;-;-;-;https://link.springer.com/article/10.1007/BF03544143 2e24e07d665f12bb6d77cdfe847f2802;de;;;3.3.;;;Designprobleme beim Lastenausgleich auf Prefetch-basierten DSM-Systemen In den letzten Jahren hat sich die Cluster-Computing-Technologie zu einer kostengünstigen Computing-Infrastruktur entwickelt, da sie Ressourcen von Rechenleistung, Kommunikation und Speicher bündelt. Es gilt auch als sehr attraktive Plattform für kostengünstiges Supercomputing. Software Distributed Shared Memory (DSM) bietet eine bequeme und effektive Lösung für die Programmierung paralleler Anwendungen. Sowohl Seitenfehler als auch die Kommunikation sind jedoch Hauptquellen von Overheads in DSM-Systemen. Die Vorabrufstrategie kann die Datentransportzeit mit der Rechenzeit überlappen und auch Seitenfehler reduzieren. Leider führt es während der Barrieresynchronisation zu einem Lastungleichgewicht. Um solche Unannehmlichkeiten zu lösen, diskutiert dieses Forschungspapier den Lastausgleich für die Barrieresynchronisation in DSM-Systemen. Wir diskutieren, dass es die beste Methode ist, die Schleife zu verlassen, wenn die Hälfte der Hosts das Prefetching beendet hat, und ändern daher den Schwellenwert für das Verlassen der Schleife. Experimente zeigen, dass durch die Integration des Lastausgleichs in DSM-Systeme die Barrieresynchronisation verbessert wurde.;-;-;-;https://link.springer.com/chapter/10.1007/11573937_26 44e0ca090a5d2ca1d0527826ca5418e2;de;;;3.3.;;;Eine Methode zum Ausüben von Wahrscheinlichkeiten für häufiges Pattern-Mining über transaktionale unsichere Datenströme In den letzten Jahren sind mit dem weit verbreiteten Einsatz der neuen Technologien, wie drahtlose Sensornetzwerke, RFID und Datenschutz, große Mengen unsicherer Daten entstanden. Entsprechend den Merkmalen der unsicheren Datenströme, wie unvollständig, voller verrauschter, ungleichmäßiger und veränderlicher, präsentiert dieses Papier einen Wahrscheinlichkeitshäufigkeitsmusterbaum namens PFP-Baum und eine Methode namens PFP-Wachstum, um Wahrscheinlichkeitshäufigkeitsmuster basierend auf wahrscheinlichkeitsgedämpfte Fenster. Zu den Hauptmerkmalen der vorgeschlagenen Methode gehören: (1) die Annahme eines zeitbasierten wahrscheinlichkeitsgedämpften Fenstermodells, um die Genauigkeit der abgebauten häufigen Muster zu verbessern, (2) das Festlegen einer Artikelindextabelle und einer Transaktionsindextabelle, um den Abruf auf dem PFP zu beschleunigen. und (3) Beschneiden des Baums, um die Elemente zu entfernen, die nicht zu häufigen Mustern werden können. Die experimentellen Ergebnisse zeigen, dass die PFP-Wachstumsmethode hinsichtlich Genauigkeit, Verarbeitungszeit und Speicherplatz eine bessere Leistung als die wichtigsten bestehenden Schemata aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23641-9_45 7567f9b96f955e514428e5e308031b2a;de;;;3.3.;;;Kompetente diskrete Wavelet-Transformation mit verteilter arithmetischer Architektur auf FPGA Die diskrete Wavelet-Transformation (DWT) ist ein Filter, bei dem diskrete Abtastwerte bearbeitet werden, um sowohl räumliche als auch Frequenzkomponenten des Eingangssignals in den Filterausgang einzufangen. Es ist ein weit verbreitetes Werkzeug in der Bildverarbeitung für Anwendungen wie die Bildkomprimierung. Es gibt zahlreiche Wavelet-Transformationen, am populärsten die Haar-Transformation, Daubechies-Transformation, Dual-Tree-Komplex-Transformation usw. Ihre Implementierung beinhaltet eine Multiplikationsoperation, die eine hohe Hardwarekomplexität erfordert. Diese Wavelet-Transformationen können auch unter Verwendung einer als verteilte Arithmetik (DA) bezeichneten Technik implementiert werden, die Ressourcen spart, indem Multiplizier- und Akkumulationsbeschleuniger verwendet werden. Aber die generische DA-Architektur verbraucht große LUTs, um diesen Nachteil zu beseitigen, schlägt dieses Papier eine ressourceneffiziente und schnelle alternative Architektur vor, die mit Xilinx Vivado für die Implementierung von Daubechies-Tiefpassfiltern auf FPGAs entwickelt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7486-3_49 bd9f716c88d657b85182dd9eeb1c277f;de;;;1.1.;;;Die kontinuierliche Institutionalisierung von RechtDas Recht in modernen Rechtsstaaten gilt vielen Beobachtern als die Welt des Normativen und der Verlässlichkeit par excellence (L é vy-Bruhl 1970: 24), zumal nachdem Religion und Moral als überragende, allzuständige Sinn- und Werthorizonte und Normensysteme kontingent oder zumindest diffuser geworden sind (vgl. u. a. Bauman 1995, 2000, Beck 1993, Bergmann/Luckmann 1999, Geiger 1987, Giddens 1996, Hoffmann-Riem 2001, Joas 2004, Luckmann 1998, Vossenkuhl/Sellmaier 2001). Die vorliegende Studie hat ergeben, dass es Sinn macht, › das Recht 9 als Verlaufsphänomen zu betrachten: als (über eine Zeit) zwar besonders stabiles, doch zugleich dynamisches soziales Konstrukt. Recht, Gesetze und andere Normen werden in der jeweiligen Praxis sowohl stabilisiert als auch destabilisiert, um zu etwas anderem in Bezug gesetzt werden zu können und zugleich Verbindlichkeit zu gewährleisten (vgl. Luckmann 2002: 110). Der Begriff der › Institutionalisierung 9 ist darauf angelegt, solche Prozesse zu beschreiben. Wenn mit dem qualifizierenden Zusatz » kontinuierlich « der permanent fortlaufende Charakter des fraglichen Prozesses betont wird, so deshalb, weil allzu oft › das Recht 9 lediglich als Institution und damit als Endprodukt einer abgeschlossenen Institutionalisierung behandelt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-91806-8_6 ef02ffd3edd12e1da52c5b3939a366cb;de;;;1.1.;;;Rollen-Commitment und heuristische Kompetenz als zentrale Voraussetzungen zur Bewältigung der Problemlöseanforderung in High-contact-DienstleistungenBisher wurde analysiert, mittels welcher Schritte (Teilzielbildung, Absichtsrangierung und Absichtsbehandlung) ein Dienstleister der Anforderung des Problemlöseprozesses gerecht wird. Nun wird einem weiteren Teil der gestellten Forschungsfrage nachgegangen (siehe S. 3): Welche Charakteristika der Dienstleister als Voraussetzungen für eine Erfüllung des Problemlöseprozesses ›Dienstleistungsqualität‹ anzusehen sind. Wie zu belegen ist, sind es u.a. heuristische Kompetenz und Rollen-Commitment, die erfolgreiche Problemlöseprozesse zu initiieren scheinen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08871-4_5 6511426675f7fcdfbbc53f8a910a777d;de;;;1.1.;;;EnergieeinsparverordnungDas folgende Kapitel erläutert die Relevanz der Energieeinsparverordnung für Baudenkmale. Des Weiteren erfolgt eine Einführung in die Berechnung von notwendigen Kenngrößen. Dazu zählen in erster Linie die Wärmedurchgangskoeffizienten für verschiedene Bauteile. Diese gehen als notwendige Vorrausetzung in das in Kapitel 4.8 beschriebenen Bauteilverfahren und in das in Kapitel 4.9 erläuterte Referenzgebäudeverfahren ein. Abschließend wird ein Einblick in die verschiedenen Formen des Energieausweises gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8348-8205-9_4 6b5599f6e2f664639733b57e9f79eab5;de;;;3.3.;;;Entwerfen eines Geschäftsmodells für einen Cloud-Marktplatz für das Gesundheitswesen Cloud-Plattformen, die Cloud-Dienste im Gesundheitswesen bereitstellen, sollen eine neue Ära in der Gesundheitsbranche einleiten. Allerdings wurden entsprechende Marktplatz-Geschäftsmodelle in diesem Bereich bislang nicht untersucht. Dieses Papier trägt dazu bei, indem es einen ersten Geschäftsmodellentwurf für einen solchen Marktplatz vorstellt. Nach den Prinzipien der Aktionsforschung arbeiten wir eng mit Krankenhausmitarbeitern, Softwareanbietern und Entwicklern zusammen. Basierend auf der vorhandenen Literatur und den Erkenntnissen aus dem TRESOR-Forschungsprojekt zur Einführung von Cloud Computing im Gesundheitswesen erstellen wir mit dem Business Model Canvas ein Geschäftsmodell, das das wesentliche Wertversprechen, die Kundensegmente und die Wertarchitektur des Cloud-Marktplatzes aufzeigt. Darüber hinaus wird das Problem multilateraler Märkte thematisiert, da die Geschäftsmodelle zeigen, wie es verhindert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12718-7_17 9f25d7452c74e45d06a25a85e99870a3;de;;;3.3.;;;Verteilte Simulation von NEPs basierend auf On-Demand Cloud Elastic Computation Networks of Evolutionary Processors (NEP) sind ein bioinspiriertes Rechenmodell, das in der Lage ist, NP-vollständige Probleme auf effiziente Weise zu lösen. Bisher können diese Geräte nur durch Hardware- und Softwaresimulatoren analysiert und ausgeführt werden, die in der Lage sind, die inhärente Parallelität und die Effizienz ihrer Berechnungen zu kapseln. Heutzutage decken Simulatoren für diese Modelle nur viele Softwareanwendungen ab, die unter sequentiellen/parallelen Architekturen über Multicore-Desktop-Computern oder Computerclustern entwickelt wurden. Die meisten von ihnen sind nicht in der Lage, die Größe nicht trivialer Probleme in einer massiv parallelen Umgebung zu bewältigen. Wir halten Cloud Computing für eine interessante und vielversprechende Option, um die Nachteile dieser Lösungen zu überwinden. In diesem Papier schlagen wir eine neuartige parallel verteilte Architektur vor, um NEPs mithilfe von On-Demand-Cloud-Elastic-Computing zu simulieren. Um die Eignung und Skalierbarkeit unserer Architektur mit mehreren Varianten von NEP zu demonstrieren, wird ein flexibler und erweiterbarer Simulator entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19258-1_4 c57c91fa5b5475edc6063ec3fd3fdffa;de;;;1.1.;;;Niklas Luhmanns „Soziologische Aufklärung“. Rekonstruktion eines ErkenntnisprogrammsNiklas Luhmann hat der Soziologie ein Forschungsprogramm anempfohlen, dass dringend auf dessen Fähigkeit angewiesen ist, seine eigenen erkenntniskritischen Voraussetzungen mitzubedenken. Die Arbeit rekonstruiert Luhmanns „Ansatz“ und nimmt dessen Anregungen insoweit auf, als sie einige seiner Grenzen nachzeichnet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-17611-2_2 fad95990a20177670e2953486a3a38a7;de;;;3.3.;;;Jüngste Fortschritte bei vernetzten Kontrollsystemen — Eine Umfrage Vernetzte Steuerungssysteme (NCS) waren als interdisziplinäres Thema in den letzten Jahrzehnten eines der Hauptforschungshighlights und es wurden viele fruchtbare Ergebnisse aus unterschiedlichen Aspekten erzielt. Angesichts dieser wachsenden Forschungstrends ist es wichtig, die neuesten Erkenntnisse und Informationen zu konsolidieren, um mit dem Forschungsbedarf Schritt zu halten. In diesem Beitrag werden die Ergebnisse verschiedener Aspekte von NCSs wie Quantisierung, Schätzung, Fehlererkennung und vernetzte prädiktive Steuerung zusammengefasst. Darüber hinaus werden mit der Entwicklung der Cloud-Technik Cloud-Steuerungssysteme für die Weiterentwicklung von NCS vorgeschlagen.;-;-;-;https://link.springer.com/article/10.1007/s11633-015-0894-x 5ded90410158a22f088a9f276634ecf9;de;;;1.1.;;;Grundlagen der lernenden PotenzialbeurteilungSobald wir einer anderen Person begegnen, beurteilen wir sie auch. Wir haben uns bereits nach wenigen Sekunden ein umfassendes Bild von ihr gemacht und können sagen, ob sie uns sympathisch ist oder nicht. Wenn man uns um eine Begründung bittet, können wir diesen ersten Eindruck häufig an vielen Umständen festmachen, die sich dann zu einem stimmigen Gesamtbild ergänzen. Wir können Aussagen darüber machen, wie qualifiziert diese Person ist, wie intelligent, welche Vorlieben und Interessen sie hat, welcher Einkommensgruppe sie ungefähr zuzuordnen ist und vieles mehr. Es gibt das weitverbreitete Wort des „ersten Eindrucks“, der so gut wie nicht revidierbar sei. Ihm wird mitunter auch eine besondere Urteilsqualität zugestanden, die besagt, dass der erste Eindruck gewissermaßen unverstellt, unmittelbar, ungefiltert und damit auch im messtheoretischen Sinne in hohem Maße valide sei.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68658-3_2 6695fb98442a79164319f80a2fa30157;de;;;1.1.;;;Kompetenzen eines Innovationsmanagers in Zeiten des digitalen Wandels:Der digitale Wandel erfordert einen Wandel des bisherigen Profils eines Innovationsmanagers. Wurde ein Innovationsmanager lange Zeit mit dem Bild des Tüftlers verbunden, so wandelt sich dieses Bild in der heutigen Zeit zu einem Koordinator. Die neuen Aufgaben erfordern neue Kompetenzen, die insbesondere auf die Vernetzung der Industrie abzielen, da sowohl innerhalb eines Unternehmens als auch über die Unternehmensgrenzen hinweg kooperiert wird und zudem Unternehmensprozesse ganzheitlich digital durchgängig werden. Die Analyse von 126 Online-Stellenausschreibungen für Innovationsmanager ergab, dass verschiedene Kompetenzen im Zusammenspiel gefordert werden und verschiedene Aufgaben von Innovationsmanagern erfüllt werden müssen. Beispielsweise werden von Innovationsmanagern in den Stellenausschreibungen nur implizit Computerkompetenzen gefordert und dies immer im Zusammenspiel mit weiteren Kompetenzen, wie Sprach-, mathematischen und naturwissenschaftlich-technischen sowie sozialen Kompetenzen. Von Innovationsmanagern wird in Stellenausschreibungen gefordert, eine Art digitaler Wissensmanager und Generalist zu sein. Die Ergebnisse liefern einen Beitrag zur Diskussion formeller Rollenbilder von Innovationsmanagern.;-;-;-;https://link.springer.com/article/10.1365/s40702-018-0422-x 65ad75a102ba9d9740554135b63c3724;de;;;1.1.;;;Teil III. Empirische Untersuchung und deren ErgebnisseDas vorliegende Kapitel beschäftigt sich mit der empirischen Untersuchung und deren Ergebnissen. Zunächst wird das Design der Untersuchung vorgestellt. Dann werden die Untersuchungsziele genannt und Untersuchungszielgruppen ausgewählt. Es wird über die passenden Forschungsinstrumente diskutiert, die Verfasserin beschreibt die Datenerhebungsmethoden wie Beobachtung, Fragebogenerhebung und Experteninterviews. Sodann werden die Ergebnisse der Pretests aufgezeigt. Im Anschluss daran werden die Datenauswertungsmethoden der empirischen Untersuchung vorgestellt. Abschließend wird über die Probleme während der Datenerhebung diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-08217-8_3 8816d3ebd206fcfc17f5d5fc6a20635b;de;;;3.3.;;;Eine Studie zur WSN-Systemintegration für die globale Echtzeitüberwachung Da drahtlose Sensornetzwerke (WSNs) viele potenzielle Fähigkeiten haben, dem Menschen verschiedene Dienste bereitzustellen, indem sie in der realen Welt verstreute Dinge überwachen, werden sie als eine der wichtigsten Grundlagentechnologien für Ubiquitous Computing angesehen. Bestehende Sensornetzwerksysteme sind jedoch darauf ausgelegt, spezielle Zonen oder regionale Dinge zu beobachten, indem kleinräumige Technologien mit geringem Stromverbrauch und kurzer Reichweite verwendet werden. Die nahtlose Systemintegration im globalen Maßstab steckt mangels grundlegender Integrationstechnologien noch in den Kinderschuhen. In diesem Papier stellen wir einen effektiven Integrationsweg für ein globales Echtzeit-Überwachungssystem vor. Die vorgeschlagene Technologie umfasst Design, Integration und Betriebsstrategien eines IP-WSN-basierten territorialen Überwachungssystems, um Kompatibilität und Interoperabilität sicherzustellen. Wir bieten insbesondere die Standardisierungen von Sensordatenformaten und deren Datenbankschnittstellen an, die eine spontane und systematische Integration zwischen den bestehenden WSN-Systemen ermöglichen. Die vorgeschlagene Technologie wäre ein grundlegendes Element für die praktisch einsetzbaren globalen territorialen Überwachungssysteme.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27207-3_51 d08a096c1df5c0677c9f673d71b90f79;de;;;3.3.;;;Ein Hardware-Software-Design-Framework für verteiltes Mobilfunk-Computing In diesem Artikel beschreiben wir ein neuartiges Hardware-Software-Design-Framework für das Prototyping zellulärer Architekturen in Hardware. Basierend auf einer erweiterbaren Plattform von etwa 200 FPGAs, die als vernetzte Prozessorstruktur konfiguriert sind, wird der Hardwareteil dieses Computer-Frameworks durch eine erweiterbare Bibliothek von Softwarekomponenten unterstützt, die Primitive für eine effiziente Kommunikation zwischen Prozessoren und verteilte Berechnungen bereitstellt. Dieser duale Software-Hardware-Ansatz ermöglicht eine sehr schnelle Erkundung verschiedener Wege zur Lösung von Rechenproblemen mit bioinspirierten Techniken. Um die Validität der Methode zu demonstrieren, präsentieren wir ein Beispiel dafür, wie ein traditionelles paralleles System wie ein zellulärer Automat mit dieser Perspektive modelliert und betrieben werden kann. Darüber hinaus zeigen wir auch, dass die Flexibilität unseres Ansatzes es ermöglicht, nicht nur zelluläre Automaten, sondern jede beliebige Berechnung auf einem zellulären Substrat einfach zu implementieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85857-7_7 d1dab838bb80d78b894e6ff512f7fdd9;de;;;1.1.;;;Das Problem der MediengewaltWarum wird dem Problem so große Aufmerksamkeit zuteil? Ein hinreichendes Verständnis des Problems Der Mediengewalt - und eben auch die spezifische Form seiner Regulation und der dabei auftretenden Schwierigkeiten - kann nur in einem umfassenden gesellschaftsanalytischen Kontext erfolgen. Die zentralen gesellschaftlichen Teilbereiche, in denen einerseits das Wissen über den Problemzusammenhang entsteht und andererseits seine soziale Bewertung zustande kommt, sind die ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-89166-2_2 9709102e23279dcdd309857bf3de0ea1;de;;;1.1.;;;Ein nuklearmedizinisches Rechnersystem zur Erfassung und Auswertung schneller FunktionsabläufeDie Deutsche Forschungsgemeinschaft hat im Rahmen des Göttinger Sonderforschungsbereiches 8 9 „Kardiologie“ Mittel zum Aufbau eines Rechner-systemes für die Entwicklung kardiologischer Untersuchungsverfahren mit einer Gammakamera zur Verfügung gestellt. Der Einsatz dieses Rechner systemes wird im folgenden vorgestellt. Nach einer Einführung in den apparativen Aufbau werden das methodische Vorgehen und der Ablauf der Auswertung bei vier verschiedenen klinischen Untersuchungen dargestellt. Der beschränkte Raum für diesen Bericht läßt weder eine ausführliche datentechnische Darstellung noch eine Vertiefung der Problematik der einzelnen Untersuchungen zu. Deshalb wird versucht, dem Leser im Sinne des Leitthemas des Tagungsbandes einen Eindruck zu vermitteln, welche Bedeutung das Rechnersystem für die zugrunde liegenden Forschungsarbeiten besitzt: Es gewinnt seine Bedeutung durch die Tatsache, daß es Untersuchungen ermöglicht, die sonst nicht mit geringerer Treffsicherheit oder verminderter Aussagefähigkeit durchgeführt werden könnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-81404-4_79 02b41437818fc64efa12bb5ccad589ad;de;;;1.1.;;;Erfahrungen bei der Entwicklung eines EKG-Auswertesystems auf MikrocomputerbasisDas konventionelle Konzept der Computer-EKG-Auswertung, das Pipberger und andere vor mehr als 16 Jahren entwickelten, basierte auf dem Stand der Computertechnologie jener Zeit. Dieses Konzept faßt die Computer-EKG-Auswertung als zweistufigen Prozeß auf, nämlich einerseits die Registrierung der Daten in einer medizinischen Arbeitseinheit und andererseits die Auswertung der Daten in einem Rechenzentrum.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-81404-4_77 9dff827784812ac21eb84901f0c55ae6;de;;;1.1.;;;Exekutive Funktionen bei depressiven PatientenDie Depression ist eine facettenreiche Erkrankung, die zu tief greifenden Einschnitten in fast allen Lebensbereichen führen kann. Alltagsrelevante Symptome sind kognitive Störungen, die zu wesentlichen Beeinträchtigungen und Leistungseinschränkungen führen. Neuropsychologische Untersuchungen zeigen neben Gedächtnisproblemen vor allem Defizite im Bereich exekutiver Funktionen. Bis jetzt existieren nur wenige funktionell-bildgebende Untersuchungen, die mit Hilfe von neuropsychologischen Tests gezielt die neurofunktionellen Mechanismen exekutiver Defizite untersucht haben. Die erhobenen Befunde reichen von einer Minder- bis hin zu einer Mehraktivierung in präfrontalen Arealen als Substrat einer erbrachten exekutiven Leistung. In diesem Beitrag werden die bisherigen Befunde vor dem Hintergrund des Konzepts der Depression als komplexer Störung eines limbisch-kortikalen Regelkreises diskutiert. Dabei zeigt sich, dass eine „einfache“ Hypofrontalität keinen ausreichenden Erklärungsansatz bietet, sondern ein dynamisches Modell notwendig ist, um der gegenwärtigen Datenlage Rechnung zu tragen. Dieses sollte verschiedene depressive Subtypen mit ihren z. T. verschiedenen neurofunktionellen und metabolischen Mustern berücksichtigen.;-;-;-;https://link.springer.com/article/10.1007/s00115-006-2240-6 47f72272dd6cdcdaec5a22a1109291e8;de;;;1.1.;;;Verhaltenstherapie und andere TherapieformenKann Verhaltenstherapie in Anspruch nehmen, sich theoretisch, methodisch oder empirisch durch einheitliche Prinzipien von anderen Therapieformen zu unterscheiden?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79541-4_18 2c31bda4d0e569024b40824b6d073649;de;;;1.1.;;;Lärm und Motivation — vom Problem zur Fragestellung der UntersuchungIn seiner Entwicklungsgeschichte hat sich der Mensch bis vor kurzem nur auf Schalle bis zu einer Intensität von etwa 75 dB (A) einstellen müssen, höhere Schallpegel waren in seiner Umwelt eine Ausnahmeerscheinung von kurzer Dauer. Dies hat sich innerhalb weniger Jahrzehnte in einer Weise geändert, welche man dramatisch nennen darf. Neue Antriebstechniken, sowie Techniken der Kraftanwendung, der Schallübertragung und der elektronischen Verstärkung haben nicht nur Schallquellen hervorgebracht, die Schalle von wesentlich mehr als 75 dB (A) erzeugen, die Erfolge dieser Techniken haben zudem zu einem erhöhten Verkehrsaufkommen, einer Erweiterung der Güterproduktion und einer Verbreitung von akustischen Medien geführt, die zur Folge haben, daß die neuerdings erzeugten stärkeren Schalle mit größerer Häufigkeit auftreten und von längerer Dauer sind. Die Änderung der akustischen Umwelt hat sich offensichtlich schnell vollzogen, eine ausreichende Anpassung des Menschen an seine veränderte Umwelt ist bisher nicht oder zumindest nicht durchgehend festzustellen. Festzustellen ist dagegen eine Fülle von Auffälligkeiten und Beschwernissen, die sich aus der mangelnden Angepaßtheit von Umwelt und menschlichem Organismus ergeben, eine Lärmproblematik im Einzelfall wie für soziale Gruppen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-88761-0_1 1dbaa701a75811dfe9fa51cbc92318ee;de;;;3.3.;;;Ermöglichen der Verbesserung von Softwareprozessen: Eine Untersuchung der Bedeutung organisatorischer Aspekte Diese Promotionsstudie wurde initiiert, um die relative Bedeutung von organisatorischen Fragen bei der Verbesserung von Softwareprozessen zu untersuchen. Es basiert auf einer Pilot-Fallstudie, einer multiplen Fallstudie von zwölf Unternehmen und einer quantitativen Umfrage unter 120 Software-Unternehmen. Die Ergebnisse der Untersuchungen legen nahe, dass der Schlüssel zu erfolgreichem Lernen ein kontinuierliches und gleichzeitiges dialektisches Wechselspiel zwischen dem Wissen, das die Organisation im Laufe der Zeit aufgebaut hat, und dem Wissen der Organisationsmitglieder in ihren jeweiligen Kontexten ist. Die Ergebnisse zeigen auch, dass der Erfolg entscheidend von sechs organisatorischen Faktoren abhängt. Schließlich zeigen die Ergebnisse, dass es wichtige Unterschiede zwischen kleinen und großen Softwareorganisationen gibt, insbesondere in der Art und Weise, wie sie auf instabile und sich ändernde Reizsituationen reagieren.;-;-;-;https://link.springer.com/article/10.1023/A%3A1020535725648 7acd4b71b96b9b1ceef7f007e530497c;de;;;1.1.;;;Erfordernisse zur Integration von Fahrentscheidungen in die urbane GüterverkehrsmodellierungIn der Güterverkehrsmodellierung wird das menschliche Fahrerverhalten nicht verhaltenssensitiv abgebildet. Bisher wurde in Abhängigkeit der Vorgaben des Verladers davon ausgegangen, dass der logistische Akteur (z. B. Spedition, Transportdienstleister) die Logistikplanung vornimmt und an die Fahrer/Fahrerinnen weitergibt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-32266-3_23 6cd620efceb74265faf1866aaeb1bb67;de;;;1.1.;;;Einsatz von Digitalrechnern in der nuklearmedizinischen HerzfunktionsdiagnostikBei nuklearmedizinischen Untersuchungen ist der primäre Informationsträger ein zeit-, orts-und energievariables Kernstrahlungsfeld. Es wird nach Inkorporation radioaktiver Nuklide vom lebenden Körper emittiert. Je nach Wahl der radioaktiven TracerSubstanz sind Abbildungen verschiedener Organsysteme in ihrer Funktion über längere Zeitabschnitte möglich. Die Meßwerterfassung erfolgt von außen ohne störende Eingriffe in das zu untersuchende Organsystem. Die Strahlenbelastung ist in vergleichbaren Fällen häufig niedriger als bei Röntgenuntersu-chungen. Physiologische und pathophysiologische Vorgänge können durch das Tracerprinzip im molekularen Bereich sichtbar gemacht werden. Die Bilder, die die Verteilung von Radioaktivität im menschlichen Körper repräsentieren, heißen Szintigramme. Sie dienen der Erkennung von Form-, Lage-, Größen-und Funktionsanomalien einzelner Organe. Szintigramme werden von Szintigraphiesystemen mit beweglichen und feststehenden Detektoren erzeugt (1, 29). Die moderne Sequenz-und Funktionsszintigraphie beginnt mit der Verarbeitung bildgebender Instrumente mit einem feststehenden Detektor und der parallellaufenden Entwicklung nuklearmedizinischer Auswertesysteme mit Digitalrechner (2, 3, 4, 5, 30).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-81404-4_78 6b1b0f6357adc1603a8d295785c79831;de;;;1.1.;;;Qualitative Studie – Interviews mit Marketingmanagern und BetriebsmarktforschernWie im theoretischen Teil dieser Arbeit festgestellt wurde, kann der MFF eine zentrale Rolle bei der Generierung und Verbreitung von MFI zukommen. Die Bedeutung der MFF bedingt sich vor allem durch ihre Funktion, Marktforschungsprojekte zu initiieren und zu koordinieren, aber auch durch ihre Nähe zu potentiellen Nutzern im Unternehmen und das hier vorhandene spezielle Wissen über den Markt. Über die Wahrnehmung der MFF aus der Perspektive des Marketings und die reale Bedeutung der MFF bei der Generierung und Verbreitung von MFI existiert jedoch nur wenig empirisch gesichertes Wissen. Um diesbezüglich ein besseres Verständnis zu bekommen, soll diese Studie dazu beitragen, mehr über die Funktion und Bedeutung der MFF in den Prozessen der organisationalen Informationsverarbeitung zu erfahren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-07087-8_3 6153ad3e580b11adbc051d1f39d4742d;de;;;1.1.;;;Spezielle Therapiekontrolle in der Transfusionsmedizin — Überprüfung auf Kompatibilität und Konkordanz —Therapiekontrollen können — häufig im nachhinein bei Kollektiven — Bewertungsverfahren oder bei Einzelfällen — während der Therapie — Regelmechanismen sein. Die speziellen Kontrollen in der Transfusionsmedizin sind Prüfvorgänge und müssen nicht selten unter Zeitdruck in jedem Einzelfall vor Therapiebeginn durchgeführt werden. Es sind im Prinzip Abfragen nach Erfülltsein bestimmter Kriterien: Einhalten des Therapieschemas, Identität von bestimmten Blutmerkmalen von Patient und Medikament, Einhaltung festgelegter Laufzeiten. Die in den Stichworten auftauchenden unscharfen Begriffe wie “Kompatibilität” und “Konkordanz” zeigen bereits auf, daß neben einer vollständigen Identität auch Näherungswerte zu berücksichtigen sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82158-5_51 5841675e48078cab1e567a17b3af4471;de;;;1.1.;;;Kommunikationsräume als Räume der IdentitätskonstitutionBis jetzt wurden die Aspekte der Identitätskonstitution mithilfe von medienvermittelten Ressourcen vor dem Hintergrund jugendkultureller Sinnhorizonte betrachtet. Wie schon angedeutet, konstituieren Jugendliche ihre individuellen und Gruppenidentitäten in (medienvermittelten) Kommunikationsräumen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-00358-6_4 acb9e969cad391f645536b1966c5a5c8;de;;;1.1.;;;Chirurgische Entscheidungsfindung: Wechselspiel zwischen Erfahrung und klinischer StudieObwohl die letzte, individuelle Entscheidungsfindung beim Patienten immer beim behandelnden Chirurgen liegt, wurde sie wissenschaftlich bisher wesentlich weniger analysiert als die formale Entscheidungsfindung anhand von Studien. Um dies zu ändern, wurden erstmals verschiedene Formen der individuellen Entscheidungsfindung charakterisiert: 4 Bereiche der Intuition (schnelles logisches Entscheiden, bewußtes und unbewußtes heuristisches Entscheiden mit speziellen Instrumenten, sowie der tiefe Rest der Intuition, der Wissenschaft nicht zugänglich ist) und der Bereich des diskursiven Entscheidens, das logisch im Einzelnen nachvollziehbar ist. Als Methode zur wissenschaftlichen Analyse der individuellen Entscheidung wurde die „think aloud technique” vorgestellt und der Platz der Studien in ihr definiert. Über die Setzung und das heuristische Instrument der Repräsentativität löst sich, ähnlich wie beim induktiven Schluß, das Problem der Übertragbarkeit von Studienergebnissen auf den individuellen Patienten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-48163-5_273 849812345bbd111da744ab3b04fc3026;de;;;1.1.;;;Quantitative untersuchungen zur hörschwelle, adaptation und lautheitsempfindung am gesunden und hörgeschädigten Menschen mittels der „Objektiven Audiometrie”The average of central acoustic responses of awake human beings according to the EEG for purposes of ‘objective audiometry’ shows, if accurately, only a very small dispersion-range of these responses in normal hearing persons. Possibilities of error of the computer-methods are represented in detail. Thus it is scientifically proven that significant differences in audiograms of deaf persons, done with the computer, compared with normal hearing people, can be registered objectively. By using the “power functions” (according to ;-;-;-;https://link.springer.com/article/10.1007/BF00426454 b8e42dbd89dfa9fa0c743b06bcfcd0bb;de;;;1.1.;;;Wie funktioniert Mathematik?Im ersten Kapitel streifen wir durch die verschiedenen Gebiete der heutigen Mathematik, die ihre besondere Form und ihr spezifisches Aussehen bestimmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-58798-0_1 a1dde944a315acabcd26db33b95eb47c;de;;;1.1.;;;Theoretische Grundlagen: Erklärung menschlicher Verhaltensmuster„Auf den ersten Blick läßt die verwirrende Fülle der Sitten und Gebräuche vermuten, die Menschen seien in der Lage, jede beliebige Kulturform mit beliebigen Verhaltensmuster zu erfinden. Doch bei näherem Zusehen stellt sich heraus, daß die Variationen zwar nahezu endlos, die Themen aber zahlenmäßig begrenzt sind und in allen Kulturen Fixpunkte darstellen, um die sich alles dreht. Man kann eine Geschichte auf mannigfache Weise erzählen, aber die Handlung und die Figuren bleiben gleich“ (Tiger und Fox, 1973, 23).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-52392-2_2 cf29b168fe90db5a28b67d1331adc4c6;de;;;1.1.;;;Erscheinungsbild, Erklärungsansätze und TherapieforschungDie Beobachtung,dass extreme Ereignisse extreme Reaktionen verursachen,ist schon alt. So lässt Shakespeare in «Heinrich IV.» Lady Percy zu ihrem Ehemann sagen:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-09391-7_1 53553636e258bd1ad2b578c04363679e;de;;;1.1.;;;Neurobiologie und Kognitionstheorie neuronale Netze als Modelle der Kognition und als maschinelle LernverfahrenIn diesem Abschnitt werden wir nicht wie in den vorangegangenen von biologischen Fakten zu formalen Modellen voranschreiten, sondern wir fangen direkt mit den letzteren an und beziehen diese dann im Laufe der Diskussion auf neurobiologische oder kognitive Sachverhalte. Ein Grund hierfür liegt darin, dass in diesem Bereich die Entwicklung, Untersuchung und Anwendung der entsprechenden formalen Modelle, der sog. neuronalen Netze,  schon ein selbständiges Wissenschaftsgebiet geworden ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-59480-3_9 7999c4414d5cfd067eeff21e83649974;de;;;3.3.;;;Der perfekte Sturm der Neuroimaging-Genetik-Berechnung: Kollision von Petabyte an Daten, Millionen von Hardwaregeräten und Tausenden von Softwaretools Umfang, Vielfalt und Geschwindigkeit biomedizinischer Daten nehmen exponentiell zu und liefern jedes Jahr Petabytes an neuen Neuroimaging- und genetischen Daten. Gleichzeitig werden Zehntausende von Rechenalgorithmen entwickelt und in der Literatur zusammen mit Tausenden von Softwaretools und Diensten beschrieben. Benutzer verlangen einen intuitiven, schnellen und plattformunabhängigen Zugriff auf Daten, Softwaretools und Infrastruktur von Millionen von Hardwaregeräten. Diese Explosion von Informationen, wissenschaftlichen Techniken, Rechenmodellen und technologischen Fortschritten führt zu enormen Herausforderungen bei der Datenanalyse, evidenzbasierten biomedizinischen Inferenz und der Reproduzierbarkeit der Ergebnisse. Die Pipeline-Workflow-Umgebung bietet eine Crowd-basierte verteilte Lösung für die konsistente Verwaltung dieser heterogenen Ressourcen. Die Pipeline ermöglicht es mehreren (lokalen) Clients und (entfernten) Servern, sich zu verbinden, Protokolle auszutauschen, die Ausführung zu steuern, den Status verschiedener Tools oder Hardware zu überwachen und vollständige Protokolle als portable XML-Workflows gemeinsam zu nutzen. In diesem Beitrag demonstrieren wir mehrere fortgeschrittene computergestützte Neuroimaging- und Genetik-Fallstudien sowie End-to-End-Pipeline-Lösungen. Diese werden als grafische Workflow-Protokolle im Rahmen der Analyse von bildgebenden (sMRI, fMRI, DTI), phänotypischen (demografischen, klinischen) und genetischen (SNP) Daten implementiert.;-;-;-;https://link.springer.com/article/10.1007/s11682-013-9248-x 92588f6f0867b7b2040d2196e65b7a36;de;;;3.3.;;;Neue Trends bei adaptiver Middleware und deren Anwendung auf verteilte Echtzeit-Embedded-Systeme Eingebettete Systeme sind in der heutigen Computerwelt weit verbreitet und immer mehr dieser eingebetteten Systeme sind stark verteilt und netzwerkzentriert. Dies fügt der Software, die traditionell mit Ressourcen entwickelt wurde, die statisch und für den schlimmsten Fall bereitgestellt werden, einen zunehmenden Grad an Ressourcenkonflikten, Unvorhersehbarkeit und Dynamik hinzu. Dieses Papier beschreibt die Forschung, die wir in der Entwicklung von Middleware für adaptive QoS-Systeme durchgeführt haben – eine Erweiterung der standardmäßigen Standard-Middleware für verteilte Objekte – und ihre Anwendung auf zwei militärisch verteilte eingebettete Echtzeitsysteme. Diese realen Bewertungen der Technologie motivieren dann zu einer Diskussion über die nächsten Richtungen, in die wir diese Forschung einschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45212-6_3 cb1e9ef18ca083fc4965587f93e917e0;de;;;1.1.;;;Theoretische Grundlegungen von DiagnostikDie pädagogische und die sonderpädagogische Diagnostik sind zwar eigenständig, was ihre Aufgaben, Handlungsfelder und Ziele angeht, basieren aber auf den theoretischen Grundlagen der psychologischen Diagnostik. Sie sind aus der psychologischen Diagnostik heraus entstanden und erhalten ständig weitere Impulse von dort. Manche Autoren tragen diesem Sachverhalt Rechnung, indem sie von der pädagogisch-psychologischen Diagnostik sprechen (Langfeldt und Tent, Pädagogisch-Psychologische Diagnostik. Bd. 2: Anwendungsbereiche und Praxisfelder, Hogrefe, Göttingen, 1999, Schuck, Handbuch der Sonderpädagogischen Psychologie, Hogrefe, Göttingen, 2000). Insofern scheint es lohnenswert, sich zunächst mit den theoretischen Grundlegungen der psychologischen Diagnostik zu beschäftigen, um dann umso klarer die Eigenheiten der pädagogischen bzw. sonderpädagogischen herauszuarbeiten. Diese Parallelität gilt auch für die sozialen und kulturellen Rahmenbedingungen, unter denen sich pädagogische Diagnostik vollzieht. Als Erstes wollen wir uns jedoch die Bedeutung diagnostischer Kompetenzen in Bildung und Erziehung vor Augen führen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-25150-5_1 3c5b7915286d9cc9a0ae0f829effbff3;de;;;1.1.;;;Technik als soziales PhänomenWir haben im vorigen Kapitel geschildert, wie die Technik individuell erlebt wird und haben beim Vergleich des wissenschaftlichen und des technischen Handelns den sozialen Bezug der Technik ausgeklammert. Nun ist aber gerade die Wechselbeziehung zwischen der Technik und den sozialen Strukturen von hervorragender Bedeutung. Die bahnbrechende Arbeit auf dem Gebiete der Kunst, der Wissenschaft oder der Philosophie ist oft das Werk von Einzelnen, ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-83849-0_5 82da0b7aa7f257172fcd13822211218a;de;;;1.1.;;;Referenzmodellierung im E-Business: Prozessorientierte Einführung einer objektorientierten Java-Applikation am Beispiel INTERSHOP enfinitySollen mit der Internettechnologie neue Absatzkanäle erschlossen werden, so erfordert dieses die Einführung bzw. Veränderung von Geschäftsprozessen. Referenzmodelle können für diese Aufgabe vorgedachte Lösungen bereitstellen und so die Anforderungsanalyse und Konzeption beschleunigen und verbessern helfen. Die Referenzmodellierungstechnik muss dabei den Eigenheiten von E-Business-Projekten gerecht werden. Insbesondere ist eine adäquate und effiziente Darstellung der zu integrierenden Front- und Backend-Prozesse zu unterstützen und es gilt, Aspekte der Präsentationssicht, die im Rahmen des Web-Designs eine wichtige Rolle spielen, angemessen zu berücksichtigen. Ausgehend von einer Erläuterung der Rahmenbedingungen der Referenzmodellierung im Internetzeitalter stellt der Beitrag am Beispiel von INTERSHOP enfinity vor, wie eine E-Commerce-Standardsoftware unter Nutzung von Referenzmodellen eingeführt werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-52449-3_10 947390cc256eea4840b389c1c7ea8777;de;;;1.1.;;;Strategien der internationalen MarktbearbeitungIn der Literatur zum Strategischen Management existieren zahlreiche Anslitze, die versuchen, das Vorgehen von Unternehmen aufausliindischen Markten zu erklii.ren. Die in der Volkswirtschaftslebre entwickehen auJieDhandelstheoretiscben Ansiltze wurden durch klassische und neoklassische Denkschulen gepriigt und untersuchen unter Annahme einer vollkommenen Konkurrenz die Vorteilhaftigkeit des internationalen Giiteraustausches bei immobilen Produktionsfaktoren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-13261-3_9 cffa5c4a5010476e10909d769d90b685;de;;;1.1.;;;Persönlichkeitsbildung und SelbstkonzepteDas Selbstkonzept findet als theoretisches Konstrukt vor allem in der pädagogischen Psychologie Anerkennung und dient der Interpretation, Erklärung und Begründung menschlichen Verhaltes. Eine klare Definition des Selbstkonzeptes oder einheitliche Befunde darüber, wie es sich entwickelt und inwiefern es beeinflusst wird (z. B. durch soziale Interaktionen, Rückmeldeprozesse, usw.) liegt bisher aufgrund seiner komplexen Struktur nicht eindeutig vor. Heterogene Ansätze und die synonyme Nutzung auf nationaler sowie internationaler Ebene unterschiedlicher Begriffe wie Selbstbild, Selbstmodell, Selbsteinschätzung oder Selbstbewertung (Moschner, 2001, Stiller & Alfermann, 2005) sowie die vielfach vorherrschende „everybody knows what it is“-Mentalität, erschweren zudem eine bereichs- und fachübergreifende Präzisierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-33717-9_3 9fc699a7e6beeebce18f0baebd7e70e9;de;;;1.1.;;;Ein generisches Kreislaufmodell zur Einbettung von Data-Mining-Analysen in die Geschäftsprozesse von Unternehmen—mit einem Fallbeispiel aus der UnfallversicherungVersicherungsunternehmen verfügen über eine Fülle von Daten, die vielfältige Informationen über das jeweilige Unternehmen, seine Kunden, seine Wettbewerber und das übrige Umfeld enthalten. Data-Mining ermöglicht eine intelligente Informationsgewinnung aus diesen Daten, indem möglichst automatisiert interessante Muster in Datenbeständen erkannt werden. Dabei stellt sich die Frage, wie Versicherungsunternehmen idealerweise mit Data-Mining-Technologien umgehen sollten.;-;-;-;https://link.springer.com/article/10.1007/BF03353446 9f490ec221c737cfe036e91459d15be3;de;;;3.3.;;;Ein Peer-to-Peer-Nachrichtenaustauschschema für große vernetzte virtuelle Umgebungen Dieses Whitepaper stellt eine skalierbare Peer-to-Peer-Kommunikationsarchitektur vor, die für die Unterstützung vernetzter virtueller Umgebungen geeignet ist und keine teuren dedizierten Server oder spezielle Infrastruktur wie Multicasting erfordert. Entitäten richten ein Overlay-Netzwerk basierend auf der Entfernung zwischen den Entitäten ein. Da der Nachrichtenaustausch direkt durch Unicast zwischen den Entitäten des nächsten Nachbarn abgewickelt wird, wird der Kommunikations-Overhead gering gehalten. Die vorgeschlagene Architektur ist hoch skalierbar und geeignet für Online-Anwendungen wie Massively-Multiplayer-Online-Rollenspiele mit Hunderttausenden von Teilnehmern, bei denen der dominierende Faktor, der die Skalierbarkeit und Leistung beeinflusst, der mit dem Austausch von Aktualisierungsnachrichten zwischen Benutzern verbundene Overhead ist.;-;-;-;https://link.springer.com/article/10.1023/B%3ATELS.0000014789.70171.fd ed2695cc5b0011b491515315555adb06;de;;;1.1.;;;Vergleiche und KonsequenzenWir hoffen, mit den zwei Beispielen erfolgreich nachgewiesen zu haben, daß man die Compilation als Programmtransformation auffassen kann. Neben die Dekomposition, auf die wir uns allein konzentriert haben, treten Optimierungs- und Makroexpansionsschritte (siehe 2. für LISP). Dekomposition und Makro-Expansion haben jede für sich die angenehme Eigenschaft der Konfluenz, d. h. sie führen auf das gleiche Resultat, unabhängig davon, in welcher Reihenfolge die Transformationsregeln angewandt werden. Dies ist eine Konsequenz der Konstruktion des Programmtransformationssystems, das für ein vorgegebenes Anwendbarkeitsmuster jeweils nur eine Regel kennt, die paßt und anwendbar ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-08525-7_4 9e2d18f3374584dfe73fff6809166643;de;;;1.1.;;;Emotionale Intelligenz im persönlichen VerkaufVerkäufer stehen während des Großteils ihrer täglichen Arbeitszeit in intensiver Kommunikation mit anderen Menschen. Solch intensive Kommunikation erzeugt physischen, mentalen und emotionalen Stress. Die Tätigkeit des Verkaufens stellt besondere Anforderungen an die damit betrauten Mitarbeiter.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-26472-7_5 013fe89bfa04277ccf6d2f5ac43a25ac;de;;;1.1.;;;KonfliktkommunikationNiklas Luhmann tritt Mitte der sechziger Jahre mit einem ehrgeizigen Forschungsprogramm an. Die berechtigte Kritik an der strukturell-funktionalen Systemtheorie Parsons’ soll in einem Neuansatz berücksichtigt und verarbeitet werden. Dabei schließt Luhmann sich nicht allen gegen die strukturell-funktionale Theorie geäußerten Einwänden an und plädiert für ein Festhalten an einem universalistischen, systemtheoretischen Ansatz. Es fihre, so Luhmann, „nicht weiter, die erkannten Lücken oder Einseitigkeiten der Systemtheorie in eine Gegentheorie umzumünzen: so die Integration durch Konflikt, so die Ordnung durch Wandel zu ersetzen. Auf diese Weise läßt man den Universalitätsanspruch fallen und bezieht vom Gegner das, worüber man sich geärgert hatte: die Einseitigkeit. Die Kritik der strukturell-funktionalen Theorie müßte deshalb versuchen, nicht bei den Mängeln, sondern bei dem Grund dieser Mängel anzusetzen. Nur so ist es möglich, das Ziel einer einheitlichen soziologischen Theorie im Auge zu behalten und die Mittel zur Erreichung dieses Zieles zu verbessern.“ (Luhmann 1970b: 114);-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-95646-0_3 f8a6a82dcc34a493b48e98d9d6d77ffa;de;;;1.1.;;;Soziologie des politischen SystemsFür Forschungen auf dem Gebiete staatlicher Politik und Verwaltung gibt es gegenwärtig keine unbestrittenen theoretischen Grundlagen. Die Zeit, in der die Praktische Philosophie mit Ethik und Naturrecht als selbstevidenten Ausgangspunkten Fragen und Antworten konturierte, ist vorbei. „Macht“ wird als Grundbegriff nur noch zögernd genannt und dann nur für einen partiellen Aspekt des Ganzen. „Staat“ ist eine sehr unbestimmte, analytisch wenig brauchbare Kategorie geblieben mit der Gefahr, daß, ergänzend und verdichtend, Tradition und Vorurteil einfließen. „Government“ leidet an der entgegengesetzten Schwäche, ins Institutionelle und Organisatorische präzisiert und so nicht mehr aus sich heraus verständlich zu sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-96984-2_8 9370df975de8062c5c0ab2704040195f;de;;;1.1.;;;Staats- und RechtstheorieDer Blick auf die wechselhafte Geschichte in Sowjetrußland/Sowjetunion und später anderen Sozialistischen Ländern verspricht für eine Theorie der Rechtsentwicklung einige kreative Theorieelemente aus der Frühzeit sowie ergiebiges Praxismaterial verschiedener Korrelationen sozioökonomischer und rechtlicher Gestaltungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-05136-5_2 a05b9e59408dc4e8d3474ea3b17800e9;de;;;1.1.;;;Paradigmadominanz in der modernen Ökonomik und die Notwendigkeit eines kompetitiven Pluralismus Mit Blick auf die neueren Entwicklungen in der Ökonomik stellt sich die Frage, wie die Forderung nach einem Pluralismus legitimiert werden kann und welche Konturen für diesen Pluralismus in dieser Situation angemessen sind. In Bezugnahme auf die Komplexitätstheorie, dergemäß die Wissenschaft in der modernen Gesellschaft zu einem selbstständigen Subsystem geworden ist, wird dieser Frage nachgegangen. Es wird skizziert, wie die Ökonomik innerhalb dieses Subsystems einen eigenen Standard entwickelt hat. In diesem Standard wird eine sehr spezielle formal-mathematische Fundierung des ökonomietheoretischen Räsonierens einerseits zur Grundlage für dessen größere Konsistenz und andererseits für dessen Abgrenzung von den sozialwissenschaftlichen Nachbardisziplinen gemacht. Entsprechend werden in diesem Beitrag nicht nur die feststellbaren Verdichtungen des neoklassischen Paradigmas fokussiert, sondern ebenso die innerhalb dieses Rahmens erfolgten Variationen herangezogen, um die Behauptungen einer neuerdings stattgefundenen Auflösung des ökonomietheoretischen Mainstreams zu evaluieren. Vor diesem Hintergrund wird anschließend begründet, warum in einer Situation der Paradigmadominanz, speziell die kompetitive Variante des Pluralismus ein angemessenes Postulat darstellt, um die wissenschaftliche Erkenntnisgewinnung auf Dauer sicherzustellen. Ein kurzer Ausblick auf die Entwicklungsaussichten einer pluralistischen Ökonomik schließt die Betrachtung ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-16145-3_1 2cfabe334bfee183f76657f33db1aead;de;;;1.1.;;;Theoretischer Rahmen zur Erklärung von BildungsungleichheitenFür eine ursächliche Erklärung von sozialen Disparitäten beim Bildungserwerb ist einerseits die Verbindung von Mikro- und Makroebene zu berücksichtigen. Anderseits gilt es, die in diesem Zusammenhang wirksamen Mechanismen zu benennen und diese letztlich auch empirisch zu überprüfen. Nachfolgend wird mit Bezugnahme auf die soziologische Rational-Choice-Theorie (SRCT) ein strukturell-individualistisches Handlungsmodell zur Erklärung von Bildungsungleichheiten dargestellt, das strukturelle bzw. kontextuelle Einflussfaktoren auf der Mesoebene sowie handlungsformierende Mechanismen auf der Individualebene (Mikroebene) integriert, welche in ihrem Zusammenspiel die Bildungsentscheidungen und somit die Handlungen von Jugendlichen beeinflussen, und die im Aggregat zu Ungleichheiten in der Bildungsbeteiligung und damit der Beschäftigungschancen auf der Makroebene führen. Das theoretische Modell bildet die Grundlage der Spezifikation der Hypothesen, die in Kapitel 6 empirisch überprüft werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-09096-8_4 70d97396238f3ca186fc8b2c781eea04;de;;;1.1.;;;Unterstützung der Diagnose-Findung mittels Lehrbuch-Wissen in einer DatenbankMit der vollständigen und schnellen Verfügbarkeit von Lehrbuchwissen, unter Berücksichtigung sämtlicher Querverweise, wird sich der Prozess der Diagnosefindung bis hin zur Differentialdiagnose verbessern lassen. Ziel ist daher die bessere Verfügbarkeit umfassenden Lehrbuch-Wissens durch datenverarbeitende Geräte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83520-9_50 791bce3944f22b9fbf219dfb90e8641e;de;;;1.1.;;;Ein neues Verfahren der Datenverarbeitung in Hard-und Software: Suchrechner und AssoziativspeicherIn diesem Referat soll über ein Forschungsvorhaben aus dem Gebiet der Datenbanksysteme berichtet werden. Einige einleitende Bemerkungen sollen zunächst den Problemkreis, auf den sich das Vorhaben bezieht, näher erläutern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-81404-4_56 4543359d6aae5785ae9f254ff47b8a90;de;;;1.1.;;;Bewegung — von außen und von innen gesehenInsgesamt 25 Skilauf-Anfänger wurden durch zwei Untersucher — zumeist in Skikursen — teilweise beobachtet, gefilmt und großenteils fortlaufend über ihre Erfahrungen interviewt. Ähnlich wie durch „lautes Mitdenken“ in der Denkpsychologie sollten Hinweise auf Informationsaufnahme-, -verarbeitungs-, Planungs- und Steuerungsprozesse gewonnen werden. Endziel ist eine (auch für andere Sportarten prototypische) kognitionspsychologisch-handlungstheoretische Analyse des Skilaufens und seiner Veränderungen durch Lernen. Die Auswertung insbesondere der Interviewdaten wirft gewichtige allgemeinere methodologische Probleme auf, die das Zustandekommen von „Erlebensdaten“, ihre theoretische Dignität und ihre Beziehung zu „Verhaltensdaten“ betreffen. Bei Beobachtungsdaten werden verschiedene Weisen ihrer theoretischen Verwendung unterschieden.;-;-;-;https://link.springer.com/article/10.1007/BF03175968 a3b4b7a11de8880e333b35cdac0c9d25;de;;;1.1.;;;Kognitiv-motivationale Schüler*innenprofile und ihre Bedeutung für die Schüler*innenwahrnehmung der Lernunterstützung durch die LehrpersonEs ist eine zentrale Aufgabe von Lehrpersonen, Lernende während des Unterrichts individuell zu unterstützen. Im Hinblick auf die Nutzung von Unterstützungsangeboten spielt es eine entscheidende Rolle, wie diese Unterstützung von Schüler*innen wahrgenommen wird. Empirische Studien zeigen, dass die Wahrnehmung des Unterrichts interindividuell stark variiert. Die Ergebnisse deuten darauf hin, dass diese Variabilität auf unterschiedliche kognitive und affektiv-motivationale Voraussetzungen von Schüler*innen zurückgeführt werden kann. Bisher liegen jedoch kaum differenzielle Untersuchungen zur Schüler*innenwahrnehmung der Lernunterstützung vor, die systematisch Zusammenhänge mit individuellen Voraussetzungen in den Blick nehmen. An dieser Stelle setzt die vorliegende Studie mit dem Ziel an, mittels eines personenzentrierten Ansatzes zu einem besseren Verständnis unterschiedlicher Bedürfnisse hinsichtlich der Lernunterstützung beizutragen. Mittels latenter Profilanalysen wurden die Daten von 633 Mathematikschüler*innen der vierten Jahrgangsstufe ausgewertet. Auf diese Weise konnten vier verschiedene Schüler*innenprofile identifiziert werden: (1) starkes Profil, mit hoch ausgeprägter Selbstwirksamkeit, hoch ausgeprägter intrinsischer Motivation und hoch ausgeprägtem Vorwissen in Mathematik, (2) motiviertes Profil mit hoch ausgeprägter intrinsischer Motivation, durchschnittlicher Selbstwirksamkeit und geringem Vorwissen, (3) unmotiviertes Profil mit geringer Selbstwirksamkeit, geringer intrinsischer Motivation und mittlerem Vorwissen, (4) überfordertes Profil mit niedrigen Werten aller Variablen. Lernende mit starken oder motivierten Profilen nahmen die Lernunterstützung ihrer Lehrperson positiver wahr als Schüler*innen mit überforderten und unmotivierten Profilen. Diese Ergebnisse zeigen deutliche Unterschiede in der individuellen Wahrnehmung von Lernunterstützung und weisen diesbezüglich auf weiteren Forschungsbedarf hin.;-;-;-;https://link.springer.com/article/10.1007/s42010-021-00100-3 f5ed020fb9979756d08e2abe1bbafc33;de;;;1.1.;;;Von lokalen Rationalitäten in Organisationen zu interorganisationalen Kommunikationsbarrieren in Beratungsprojekten – Probleme (inter)- organisationaler Wissensintegration und Ansätze zum Umgang damitIn den vorangegangenen Kapiteln wurde ausführlich dargelegt, dass die Integration des individuellen, spezialisierten Wissens der Klienten und ihrer Berater potenziell nützlich sein kann, um innovative Problemlösungen zu entwickeln. Allerdings ist Wissensintegration -nicht nur in Beratungsprojekten- keine triviale Aufgabe, sondern im Gegenteil mit beträchtlichen Problemen verbunden. Deshalb gilt allgemein die Integration individuellen, spezialisierten Wissens zu neuem Wissen als eines der zentralen Probleme (inter)organisationalen Lernens (Müller- Stewens & Pautzke 1996: 196, Grant 1996a: 114).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-01088-1_4 8341d86dee0f90ecf5366121f784becf;de;;;1.1.;;;Übertragbarkeit existierender DuD-Konzepte und -Maßnahmen großer Betriebe auf die kleinen und mittleren BetriebeIn diesem Kapitel werden die bereits seit Jahren existierenden und in großen Betrieben eingesetzten DuD-Maßnahmen bezüglich ihrer Eignung für den Einsatz in der Datenverarbeitung kleiner und mittlerer Betriebe untersucht. Dabei ist es wenig sinnvoll, sich an der im vorangestellten Kapitel beschriebenen Grundeinteilung der Maßnahmen bzw. den zehn, im BDSG aufgeführten, Kontrollbereichen auszurichten. Im ersten Fall würde es sich lediglich um eine Auflistung der möglichen Sicherungsempfehlungen handeln. Erfolgte die Ausrichtung an den Kontrollbereichen des BDSG, müßten einzelne Maßnahmen, die nicht nur in einem Kontrollbereich einsetzbar sind, mehrfach betrachtet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-93828-2_6 070167ab27ddd6c23817b90002026120;de;;;1.1.;;;Die Erklärungsansätze der ExtremismusforschungEines der Ziele dieser Arbeit ist es, die Wahl einer extrem linken Partei mithilfe eines sparsamen, aber umfassenden Modells zu erklären und dabei kurz- und langfristige Faktoren auf der Angebots- sowie der Nachfrageseite, die für den Erfolg der Partei verantwortlich sind, zu identifizieren. Sowohl die Extremismusals auch die Wahlverhaltensforschung haben eine Vielzahl an Ansätzen zur Erklärung von Einstellungen und Verhalten von Individuen hervorgebracht, die jedoch nicht ohne weiteres integriert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-06496-9_2 e5ef0b9edbd471af4f8a286e9cb18c9a;de;;;1.1.;;;Ein Dauerbrenner im Wissensmanagement: Das Verhältnis von Praxis und TheorieGoethe spielt auf die Diskrepanz zwischen dem Erleben oder Dasein und der Wahrnehmung von Welt als Testfeld für symbolisch verschlüsselte Weltbilder an, aus der das Ignoranzphänomen grundsätzlich entsteht. Davon sind die gesellschaftlich institutionalisierten Felder von Theorie und Praxis zu unterscheiden, in denen das Verhältnis von gedanklichen Entwürfen und aktivem Erleben unterschiedlich gewichtet wird. Praktiker sind demnach als Anwender unter Anforderungen definiert, die disziplinäre Grenzen sprengen und einer eigenen Zeitstruktur folgen, während Theoretiker in Forschungsinstitutionen daran arbeiten, die Phänomene, mit welchen es Praktiker in der Anwendung zu tun bekommen, gründlich und disziplinär penibel getrennt zu untersuchen. Dabei haben sie in ihrer eigenen akademischen Praxis Anforderungen zu erfüllen, die jenen der Praktiker anderer Felder gleichen, während letztere ihrerseits explizite und implizite Theorien entwickeln. Wenn nun Praktiker Theoretikern vorwerfen, an ihrem Bedarf vorbei zu produzieren oder umgekehrt Theorievertreter der Praxis blinden Aktionismus unterstellen, geht es einerseits um Macht- und Statusinteressen und andererseits um Inhalte von Theorien, letzteres allerdings meist verdeckt. Im Spiel verschiedener Interessen hatte bis zur erkenntnistheoretischen Relativierung am Ende des Positivismusstreits die Theorie die Nase vorn, was sich in Ansehen und Bezahlung abstrakt gebildeter gegenüber handwerklich geschulten Arbeitskräften niederschlug. Aktuell hat sich dieses Verhältnis, zumindest auf der Schiene der Legitimität ins Gegenteil verkehrt: Theorie hat ihre Sonderstellung als Subsystem mit eigenem Code und der leitenden Differenz wahr/unwahr offenbar verloren und funktioniert nun nach Marktgesetzen: Gut ist, was gefällt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-9261-7_3 561a8666766c18641dc26dd3121c7333;de;;;1.1.;;;Lassen sich die kindlichen Voraussetzungen für das Lesen und Rechtschreiben schon im Kindergarten bedeutsam verbessern?Es werden verschiedene Beispiele dafür gegeben, dass schon im Vorschulalter Unterschiede in spezifischen sprachlichen Kompetenzen bestimmt werden können, die den Erwerb des Lesens und Rechtschreibens in der Schule vorhersagen. Der phonologischen Bewusstheit, dem sprachlichen Arbeitsgedächtnis und der sprachgebundenen Informationsverarbeitung kommt dabei besondere Bedeutung zu, doch sind auch der Wortschatz und das frühe Sprachverständnis für die Prognose der Schriftsprachkompetenz durchaus relevant, wie zahlreiche nationale und internationale Längsschnittstudien belegt haben. Will man früh erkennbare Defizite junger Kinder in der Sprachverarbeitung beheben, so sind Erfolge insbesondere im Bereich der phonologischen Bewusstheit nachgewiesen worden. Demgegenüber scheinen die Fördermöglichkeiten im Bereich des Arbeitsgedächtnisses und der sprachlichen Informationsverarbeitungsgeschwindigkeit eher begrenzt. Die Problematik der frühen Sprachförderung im Kindergarten wird genauer diskutiert. Während die Trainingsprogramme zur phonologischen Bewusstheit in der einschlägigen erziehungswissenschaftlichen Literatur vielfach deshalb kritisiert werden, weil sie als additive Maßnahmen zu verstehen sind und sich nicht immer leicht in den Kindergartenalltag integrieren lassen, muss andererseits aber auch konstatiert werden, dass eher ganzheitlich und integrierte Sprachfördermaßnahmen ihre Tauglichkeit noch nicht unter Beweis gestellt haben. Es wird auf mögliche Gründe eingegangen, die etwa im Fehlen von geeigneten Fortbildungsmaßnahmen für das pädagogische Fachpersonal und organisatorischen Problemen gesehen werden. Neuere und umfassendere Ansätze in diesem Bereich scheinen dazu geeignet zu sein, diese Probleme zu beheben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-50319-5_3 39f44aa457f05eb6b4471da36f7433a5;de;;;3.3.;;;PadSpace: Ein neues Framework für die Serviceföderation von Webressourcen Endbenutzer benötigen ein einfaches und interaktives Tool für die Entwicklung von Servicekompositionen. Ein PadSpace schlägt eine Erweiterung eines typischen Linda-ähnlichen Koordinationsmodells (Tuplespace) vor, um Mechanismen für die Interaktion zwischen Webanwendungen, Webservices und lokalen funktionalen Ressourcen der Endbenutzer bereitzustellen. Erstens bietet ein PadSpace ein Endbenutzer-Unterstützungswerkzeug zum Verfassen von Webanwendungen, Webdiensten und lokalen visuellen Ressourcen basierend auf der Meme-Medienarchitektur, ohne irgendwelche Programmcodes zu schreiben. Es ermöglicht Endbenutzern, visuelle Komponenten direkt zu bearbeiten und neue zusammengesetzte Komponenten für die Erstellung von Diensten zu erstellen, die Webanwendungen, Webdienste und lokale Funktionsressourcen verwenden. Zweitens stellt ein PadSpace ein tabellenkalkulationsbasiertes Dienstkoordinationstool für Endbenutzer bereit, um mehrere Webanwendungen, Webdienste und lokale Funktionsressourcen zu koordinieren. Schließlich zeigen wir einige neue Anwendungen der Servicekomposition und Serviceorchestrierung.;-;-;-;https://link.springer.com/article/10.1007/s10796-011-9324-y 6649b1a09bb5324b2dd2fd2090f5a343;de;;;3.3.;;;Einschränkungen: Der Kern der Unterstützung der automatisierten Produktkonfiguration von Cyber-Physical Systems Im Zusammenhang mit der Produktlinienentwicklung von Cyber-Physischen Systemen gibt es eine Vielzahl von Einschränkungen, um beispielsweise die Konsistenzprüfung von Designentscheidungen zu unterstützen, die in Hardware- und Softwarekomponenten während der Konfiguration getroffen werden. Eine manuelle Konfiguration ist in diesem Zusammenhang nicht möglich, da die Verwaltung und Manipulation all dieser Einschränkungen in einem realen industriellen Kontext sehr kompliziert ist und daher eine automatisierte Lösung rechtfertigt. Typische Automatisierungsaktivitäten in diesem Zusammenhang sind die automatische Inferenz von Konfigurationswerten, die Optimierung von Konfigurationsschritten und die Konsistenzprüfung. Dazu müssen jedoch relevante Randbedingungen gut spezifiziert und so charakterisiert werden, dass eine automatisierte Konfiguration ermöglicht wird. In diesem Papier klassifizieren und charakterisieren wir Einschränkungen, die spezifiziert werden müssen, um die meisten Schlüsselfunktionen jeder automatisierten Produktkonfigurationslösung zu unterstützen, basierend auf unserer Erfahrung mit der Untersuchung von drei industriellen Produktlinien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41533-3_23 b8078f0201ab7d0c7dd4fabc4ea131f7;de;;;3.3.;;;Stabilisierung und Steigerung der I/O-Leistung für Dateisysteme mit Journaling auf NVMe SSD Viele Journaling-Dateisysteme verwenden derzeit nichtflüchtige Speicher-Express-(NVMe)-Solid-State-Laufwerke (SSDs) als externe Journalgeräte, um die Eingabe- und Ausgabeleistung (I/O) zu verbessern. Bei Microwrite-Workloads, die für viele Anwendungen typisch sind, leiden sie jedoch unter starken I/O-Schwankungen und die NVMe-SSD-Auslastung ist extrem gering. Die experimentellen Ergebnisse zeigen, dass dieses Phänomen hauptsächlich darauf zurückzuführen ist, dass das Zurückschreiben von Daten in Backend-Dateisysteme auf Festplatten viel langsamer ist als das Schreiben von Journalen, was dazu führt, dass das Schreiben von Journalen aufgrund des Zweiphasenmechanismus häufig einfriert. Wir schlagen daher eine Merging-in-Memory (MIM)-Beschleunigungsarchitektur vor, um die I/O-Leistung für solche Journaling-Dateisysteme zu stabilisieren und zu steigern. MIM verwendet eine effiziente Datenstruktur von Hash-Tabellen-basierten multiplen verknüpften Listen im Speicher, die nicht nur zufällige Mikroschreibvorgänge in sequentielle große Blöcke zusammenführt, um Rückschreibvorgänge zu beschleunigen, sondern auch zusätzliche Vorteile in Bezug auf die Reduzierung der Schreibadressierung und Objektöffnung bietet und Schließen. Anhand einer prototypischen Implementierung in Ceph FileStore zeigen wir experimentell, dass MIM nicht nur starke Schwankungen eliminiert, sondern auch die I/O-Operationen pro Sekunde um etwa 1×-12× verbessert und die Schreiblatenz um 75%–98% reduziert.;-;-;-;https://link.springer.com/article/10.1007/s11432-019-2808-x 36a8da8af6d0c3744a045d59978ae50f;de;;;3.3.;;;Eine zustandsbasierte Fitnessfunktion für das evolutionäre Testen objektorientierter Programme Evolutionäres Testen bietet eine solide Grundlage, um die Generierung von Testfällen zu automatisieren, die die festgelegten Kriterien erfüllen. Es handelt sich um einen iterativen Prozess, bei dem Einzelpersonen bewertet und repariert werden, um einen Testfallsatz zu generieren, der die festgelegten Ziele erfüllt. Die Fitnessfunktion spielt eine wichtige Rolle bei der Leistung und Effektivität eines evolutionären Algorithmus, da eine bessere Führung durch die Fitnessfunktion das Tempo des Softwaretests verbessern kann. Obwohl korrekte Auswertung und Anleitung zwei große Herausforderungen für das Design von Fitnessfunktionen darstellen, erfordert in objektorientierten Programmen das Zustandsproblem von Objekten besondere Aufmerksamkeit. In diesem Beitrag schlagen wir eine verbesserte Fitnessfunktion für objektorientierte Programme vor, die nicht nur das Abdeckungsziel, sondern auch den Objektzustand berücksichtigt. Die Bewertung des Objektzustands unabhängig von der Abdeckungsbewertung bietet eine bessere Anleitung zur Lösung des Zustandsproblems von Objekten. Wir schlagen auch eine mehrwertige Fitnessdarstellungsmethode vor, die die Fitness umfassender darstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05441-9_8 104df29fe19acc7ff3d4f4609f7d0688;de;;;3.3.;;;Energieeffizienz für die Hardware-/Software-Partitionierung mit Zeit- und Flächenbeschränkungen auf MPSoC Die Hardware/Software-Partitionierung ist ein entscheidender Schritt im Hardware/Software-Co-Design für energieeffiziente Hochleistungssysteme. Frühere Forschungsbemühungen konzentrierten sich hauptsächlich auf die Einzelprozessorarchitektur. Ihre Methoden können keine qualitativ hochwertigen Lösungen für das Problem der Hardware/Software-Partitionierung für Mehrprozessorsysteme liefern. In diesem Papier schlagen wir zwei Algorithmen für Hardware/Software-Partitionierungsprobleme auf MPSoC vor, um den Stromverbrauch mit Zeit- und Flächenbeschränkungen zu minimieren. Das;-;-;-;https://link.springer.com/article/10.1007/s10766-013-0283-4 d7c2097740416b0dcea2163d5b390f35;de;;;3.3.;;;Ein Multi-Agenten-Ansatz für die optische Inspektionstechnologie Heutige Ansätze in der Qualitätsmess- und Prüftechnik basieren lediglich auf hochspezialisierten Mechanismen und festen Messplänen ohne Anpassungsfähigkeit an unterschiedliche Messbedingungen (z. Gerade bei Nicht-Massenprodukten sind teure, unwirtschaftliche Lösungen die Folge. Unser Ansatz versucht, verschiedene Teilergebnisse zu einer globalen Lösung eines gegebenen Problems zu kombinieren. Selbstorganisierend passen sich diese Teilergebnisse den gegebenen Prüfaufgaben an und optimieren so die Endergebnisse. Diese Strategie nennen wir aktive Exploration. In unserer Arbeit stellen wir einen hierarchischen Multi-Agenten-Ansatz zur optischen Qualitätsmessung vor. Auf einer flexiblen Inspektionsplattform sollen unterschiedliche Produkte mit unterschiedlichen optischen Sensoren und Beleuchtungstechniken auf Qualitätsmängel untersucht werden. Durch ein abgestimmtes Zusammenspiel mechanischer Aktoren kann das Messverfahren flexibel an die aktuelle Situation angepasst werden. Dadurch wird der Einsatzbereich optischer Sensoren erweitert und die Überprüfung optischer und visueller Merkmale (Glanz, Farbe) ermöglicht. Die Vorgehensweise zur Anwendung und Koordination der Sensoren und Aktoren soll nicht explizit im System vorgegeben sein, sondern folgt aus Verhandlungs- und Kooperationsstrategien auf einer höheren Abstraktionsebene.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44533-1_38 759957538c14181cfb4ac74db97b1fe0;de;;;3.3.;;;Parallele Dateisysteme Der Erfolg eines CDI-Grids hängt vom Design seiner Speicherinfrastruktur ab. Wie in Kapitel 7 gezeigt, dreht sich die Verarbeitung in dieser Umgebung um die gleichzeitige Bewegung und Transformation von Daten auf vielen Rechenelementen. Effektive Speicherlösungen kombinieren Hardware und Software, um diese Anforderungen zu erfüllen. Die ausgewählte Speicherhardware muss genügend Rohdurchsatz für die erwarteten Workloads bieten. Typische Speicherhardwarearchitekturen bieten oft auch eine gewisse Redundanz, um ein fehlertolerantes System zu erstellen. Speichersoftware, insbesondere Dateisysteme, muss diese Speicherhardware in einem einzigen logischen Raum organisieren, effiziente Mechanismen für den Zugriff auf diesen Raum bereitstellen und allgemeine Hardwarefehler vor Rechenelementen verbergen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-0176-7_8 c007a964d0374828e70e2d6b850819f0;de;;;3.3.;;;Ein neuartiger Weg zur Bereitstellung dynamischer Anpassungsfähigkeit in P2P-JXTA-Diensten mit aspektorientierter Programmierung Der Bedarf an Anpassungsfähigkeit von Software wächst, teilweise getrieben durch das Aufkommen des autonomen Computings. In vielen Fällen ist es wünschenswert, bestehende Programme mit adaptivem Verhalten zu verbessern, damit sie in dynamischen Umgebungen effektiv ausgeführt werden können. Das Peer-to-Peer (p2p)-Paradigma zieht aufgrund möglicher Leistungs-, Zuverlässigkeits- und Skalierbarkeitsverbesserungen sowohl von der Forschungsgemeinschaft als auch von Softwareingenieuren zunehmende Aufmerksamkeit auf sich. Das P2P-Modell hat viele neue Wege für Forschung und Anwendungen im Bereich verteilter Berechnungen eröffnet, sodass eine Leistungsbewertung unumgänglich ist. In diesem Papier verwenden wir die Aspektorientierte Programmierung (AOP), um eine dynamische Anpassung in bestehenden p2p-JXTA-Diensten zu ermöglichen. Wir schlagen einen Ansatz vor, um dynamische Anpassungsfähigkeit insbesondere in bestehenden p2p JXTA Service Programmen und Aspect Weaving in p2p JXTA unter Verwendung von AOP zu implementieren. Wir haben AspectJ verwendet, eine Java-basierte Sprache, um Aspekte in einem von Eclipse unterstützten Framework zu erstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22540-6_62 944c278ce8d4a81dc88ce79fa051c1f7;de;;;1.1.;;;Theoretische Fundierung der Potenzialdimension von Dienstleistungen auf Basis der SchematheorieDie hohe Komplexität von Dienstleistungen führt dazu, dass Kunden oftmals nicht über die Zeit, das Wissen und die Mittel zur direkten Beurteilung der Dienstleistungsqualität verfügen. Darüber hinaus sind eine Vielzahl von relevanten Informationen für eine Qualitätsbeurteilung nicht zugänglich, so dass vor der Inanspruchnahme einer Dienstleistung Unsicherheit hinsichtlich der Qualität für den Kunden besteht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-9077-8_3 edad4ca77083ae434015c72f81b54f3c;de;;;3.3.;;;Studie zur Generierung von Kragenkurven basierend auf 3D-Punktwolkendaten In diesem Artikel wird berührungslose Anthropometrie an den weiblichen Körpern durchgeführt, und die 3D-Punktwolkendaten werden von einem 3D-Scanner erhalten, und dann wird die Kragenkurve des weiblichen engen Prototyps durch Datenverarbeitung an Punktwolkenfiguren mit Reverse Engineering erzeugt Software. Die Kragenkurve kann in die vordere und hintere Kragenkurve unterteilt werden. Die charakteristischen Punkte der vorderen Kragenkurve sind Punkte des seitlichen Halses und des vorderen Halses und die charakteristischen Punkte der hinteren Kragenkurve sind Punkte des seitlichen Halses und des hinteren Halses. Durch Erstellen der Querschnitte der obigen Punkte erhält man die Tiefe und Breite der vorderen und hinteren Kragenkurven, und nach dem Prinzip der equanten Tiefe werden vier verwandte Punkte in die vordere Kragenkurve eingefügt und drei verwandte Punkte werden in die hintere Kragenkurve.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23020-2_76 99faf10ac48892fa248828dee69d39b8;de;;;3.3.;;;Eine Photogrammetrie-Software als Werkzeug für die Präzisionslandwirtschaft: Eine Fallstudie Traditionell wird Landwirtschaft betrieben, indem Aufgaben wie das Pflanzen oder Ernten nach einem vorgegebenen Zeitplan ausgeführt werden. Das Sammeln von Echtzeitdaten kann Landwirten jedoch helfen, die besten Entscheidungen über das Pflanzen, Düngen und Ernten von Pflanzen zu treffen. Dieser Ansatz wird als Präzisionslandwirtschaft bezeichnet. In diesem Zusammenhang wächst das Interesse an technologischen Werkzeugen zur Anpassung von Pflanzenbewirtschaftungsstrategien. Daher zielt diese Forschung darauf ab, die auf Photogrammetrie basierenden Werkzeuge zur Behandlung von Bildern im landwirtschaftlichen Bereich zu analysieren und zu vergleichen. Darüber hinaus wird eine Fallstudie über das Land des Experimental Research Center der Agrarian University of Ecuador in Mariscal Sucre in Milagro vorgestellt. In dieser Studie werden mehrere Fotos mit einer Drohne aufgenommen und mit einer photogrammetrischen Software analysiert, um ein Orthofoto zu erhalten. Dieses Produkt kann helfen, die relative Biomasseanalyse, Trockenstress, Bewässerungsplanung, Vorhersage der landwirtschaftlichen Produktion, Überwachung der Ernährung, Schädlinge und Krankheiten, die die fotografierten Pflanzen beeinträchtigen, durchzuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67283-0_21 3543ed35c3f5b34cd245410c37e5fde2;de;;;3.3.;;;Agile Softwareentwicklung im großen Maßstab bei der SAP AG In einem andauernden Veränderungsprozess ist es der SAP AG gelungen, die Softwareentwicklungsprozesse von einem wasserfallartigen Ansatz hin zu agilen Methoden zu überführen. Wir skizzieren, wie Scrum eingeführt wurde, um einen schlanken Entwicklungsstil zu implementieren, sowie das gewählte Modell, um Scrum auf große Produktentwicklungsprojekte zu skalieren. Die Änderung betraf etwa 18.000 Entwickler an 12 Standorten weltweit. Dieses Papier ist eine erweiterte und überarbeitete Version einer früheren Veröffentlichung [15]. Es enthält aktuelle Erkenntnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23391-3_15 4b365dfff86c2664bd3c9db588b72890;de;;;1.1.;;;Selbst- und Weltgestaltung bei erhöhter Vulnerabilität – Verletzlichkeit, Resilienz, Reifungsmöglichkeiten, ReifungsgrenzenDas Buch trägt den Titel „Verletzlichkeit und Reife“. Wie im Eingangskapitel deutlich gemacht wurde, ist mit Blick auf die Charakterisierung des hohen Alters eine wichtige Aufgabe darin zu sehen, die Verletzlichkeitsperspektive und die Potenzialperspektive zu integrieren, was bedeutet, sowohl nach den Schwächen als auch nach den Stärken des hohen Alters zu fragen. In diesem Kapitel stehen die möglichen Schwächen im hohen Alter im Zentrum sowie die Frage, welche Möglichkeiten der Prävention und Rehabilitation sich bieten, um diesen vorzubeugen, diese zu lindern bzw. zu kompensieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-50415-4_5 4f879582f87d2284b9e4a642e7417bea;de;;;1.1.;;;Blickbewegungsmessung in der PräferenzforschungPräferenz kann als die Bevorzugung einer Idee, einer Person oder eines Produkts gegen-über anderen Optionen zu einem bestimmten Zeitpunkt verstanden werden (vgl. Helm/Steiner 2008). In frühen Forschungen der Sozialpsychologie wurde Präferenz unter dem Stichwort Einstellungen und deren Erhalt bzw.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-4035-3_10 120be3db935840996305a38df580eac0;de;;;1.1.;;;Information und Kommunikation Begriffliche GrundlegungIn der betriebswirtschaftlichen Literatur wird der Begriff der Information nicht einheitlich gebraucht. Allen Definitionen ist gemein ihre Ausrichtung auf das Wissen des Informationssubjektes. So versteht beispielsweise Kloidt unter Information die „Vermittlung des Wissens, das ein Mitarbeiter im Betrieb haben muß, um auf die betrieblichen Prozesse bezogene richtige Entscheidungen und Willensentschlüsse zu treffen sowie sein Verhalten auf das betriebliche Gesamtinteresse abzustimmen“ ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-99165-2_2 b29902c2e3c82c67d32e657f9dd90a08;de;;;1.1.;;;Lernen, Bildung, Literacy und Scientific LiteracyLernen ist bisher der zentrale Begriff für eine Bewertung der Kinderuni: In allen Kommentaren und Studien wird darauf Bezug genommen (vgl. Kap. 1.1 und Kap. 5.3). Daher wird hier vorab der Lernbegriff näher bestimmt und im Hinblick auf die Brauchbarkeit für die Fragestellung der Arbeit nach dem Sinn der Kinderuni bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-15366-3_2 3e2b916ca0f436250d09db778e4866c3;de;;;3.3.;;;Experimentelle Bewertung von linearen zeitinvarianten Modellen zur Feedback-Leistungsregelung in Echtzeitsystemen In den letzten Jahren ist eine neue Klasse von weichen Echtzeitanwendungen entstanden, die in unvorhersehbaren Umgebungen arbeiten. Typisch für diese Anwendungen ist, dass weder die Ressourcenanforderungen noch die Ankunftsraten von Dienstanforderungen a priori bekannt oder verfügbar sind. Es hat sich gezeigt, dass die Rückkopplungssteuerung sehr effektiv ist, um die spezifizierte Leistung dynamischer Systeme zu unterstützen, die sowohl ressourcenunzureichend sind als auch unvorhersehbare Arbeitsbelastungen aufweisen. Um das Scheduling der Rückkopplungssteuerung effizient nutzen zu können, ist ein Modell erforderlich, das das Verhalten des Systems angemessen beschreibt. In diesem Artikel bewerten wir experimentell die Genauigkeit von vier linearen zeitinvarianten Modellen, die beim Design von Feedback-Reglern verwendet werden. Wir stellen ein Modell (DYN) vor, das zusätzliche Systemdynamiken erfasst, die ein zuvor veröffentlichtes Modell (STA) nicht berücksichtigt. Die Genauigkeit der Modelle wird durch Validierung der Modelle in Bezug auf gemessene Daten aus dem Regelsystem und durch eine Reihe von Experimenten bewertet, bei denen wir die Leistung eines Satzes von Feedback-Steuerungs-Schedulern bewerten, die mit diesen Modellen abgestimmt sind. Aus unseren Auswertungen schließen wir, dass Modelle zweiter Ordnung (z. B. DYN) genauer sind als Modelle erster Ordnung (z. B. STA). Weiterhin zeigen wir, dass Regler, die mit Modellen zweiter Ordnung abgestimmt sind, besser abschneiden als Regler, die mit Modellen erster Ordnung abgestimmt sind.;-;-;-;https://link.springer.com/article/10.1007/s11241-006-9008-8 7c8b1ff17e735d1f35df249666980fcf;de;;;1.1.;;;Zusammenhänge wissenschaftsbezogener Überzeugungen und Lernstrategien mit politischem WissenDer Politikunterricht strebt die kritische Reflexion von wissenschaftlichem Wissen und Überzeugungen an. Bislang fehlt eine Untersuchung dazu, ob und wie sich derartige Überzeugungen auf die Lernraten auswirken. Die Wissensaufnahme wird nach dem theoretischen Modell der Politikkompetenz (Detjen et al., Politikkompetenz – ein Modell, ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-27896-0_10 0faa5424f1d325701ccaf4afe1bc26be;de;;;1.1.;;;TechnologiebewertungDie Technologiebewertung nimmt innerhalb des Technologiemanagementprozesses die Rolle einer Querschnittsfunktion ein. Sie dient dazu, in unterschiedlichen Entscheidungssituationen die notwendige Informationsgrundlage bereitzustellen. Entscheidungen, die eine Technologiebewertung erfordern, treten in allen Phasen des Technologiemanagements auf. Eine hohe Leistungsfähigkeit in der Technologiebewertung bzw. die Fähigkeit zur Auswahl, zur Anwendung und zur Beherrschung der jeweiligen Entscheidungssituation angepassten Bewertungsansätze bildet daher eine wichtige, phasenübergreifende Voraussetzung zur effizienten und effektiven Gestaltung des Technologiemanagements.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12530-0_11 3b7279e9f8585a0b565992d947eb44cb;de;;;1.1.;;;Suche in Volltextdatenbanken mit Unterstützung von HypertextDie Suche nach einschlägigen Artikeln in einer Volltext- bzw. Abstract-Datenbank kann über Anfragen gesteuert werden, die eine Auswahl von Deskriptoren für das gewünschte Themengebiet enthalten. Um bezüglich der in der Datenbank verwendeten Deskriptoren und ihrer Schreibweise sicher zu gehen, werden die Deskriptoren in einem Thesaurus zusammengefaßt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-76981-8_11 e60426ebd8d24f032202c5451f0b0b5c;de;;;1.1.;;;Elemente einer soziologischen Theorie sozialpolitischer InterventionDas herkömmliche Politikverständnis geht mit einer gewissen Selbstverständlichkeit davon aus, daß Politik die Ziele, die sie sich gesteckt hat, auch zu erreichen vermöge, sofern die für die Zielerreichung erforderlichen Mittel tatsächlich aufgewendet werden. Erst seit Anfang der 60er Jahre beginnt sich — zunächst in den USA, seit 1969 auch in der Bundesrepublik — ein neuartiges Politikverständnis durchzusetzen, für das die ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-99962-7_4 97b2ccd9242db35a11d7525a912cd719;de;;;1.1.;;;Grundlagen: Begriffsbestimmung und AbgrenzungDie Entwicklung einer Unternehmung wird durch viele Determinanten beeinflußt. Sie bestehen einerseits aus externen Faktoren, die für die Unternehmenstätigkeit einen von außen bestimmten Aktionsraum darstellen. Andererseits bilden interne Faktoren den Rahmen für die Möglichkeiten, die innerhalb der Unternehmung selbst gegeben sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08991-9_2 4260cb6c143b4cba2cd8e10f66c953b4;de;;;1.1.;;;Ein Prozessmodell der SteuerwahrnehmungDie bisherigen Kapitel zeigen die Vielschichtigkeit der menschlichen Wahrnehmungsund Entscheidungsproblematik, sowohl im Allgemeinen als auch speziell in Bezug auf Steuern. Um die neurologischen und verhaltenswissenschaftlichen Erkenntnisse mit ökonomischen Aspekten zu verknüpfen, wird im Folgenden ein Prozessmodell entwickelt. Das Modell soll nicht der Prognose menschlichen Verhaltens dienen. Vielmehr werden verschiedene Stufen der Wahrnehmung und Entscheidung formal dargestellt. Die bisher gewonnenen Erkenntnisse werden verallgemeinert, sodass sowohl Elemente der Prospect- Theorie als auch Ergebnisse der Analysen der Steuermoral berücksichtigt werden. Dabei wird die Annahme vertreten, dass die Persönlichkeitsmerkmale, welche die Steuermoral determinieren, auch für jede andere Art von Entscheidung, die steuerliche Konsequenzen nach sich zieht, Relevanz haben. Methodisch ist das Modell eine Kombination aus einem Graphen und einem speziellen künstlichen neuronalen Netz. Dadurch ist eine differenzierte Abbildung der externen Umweltstimuli, der Wahrnehmungsverzerrungen sowie der kognitiven Komponenten einer Entscheidungssituation möglich. Entgegen der vorherrschenden wissenschaftlichen Prämisse, ein falsifizierbares, objektiv testbares Modell zu schaffen, ist es die Zielstellung diese Modells, die Subjektivität des menschlichen Wahrnehmungs- und Entscheidungsprozesses abzubilden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-3974-6_6 db6b6187d5b1eae617957b53faf23abc;de;;;1.1.;;;Wie entwickelt sich die kindliche Persönlichkeit? Beiträge zur Diskussion um Vererbung und UmweltDie Entwicklung der kindlichen Persönlichkeit beginnt pränatal und vollzieht sich auf dem Hintergrund eines multifaktoriellen Bedingungsgefüges. Der vorliegende Artikel analysiert die wesentlichen konstituierenden Elemente dieses Gefüges im Lichte des aktuellen Forschungsstandes. Die Bedeutung des Bindungssystems wird für das grundlegende Beziehungsverhalten und für unterschiedliche Verletzlichkeitsmuster von Kindern beschrieben. Ein transaktionales Anlage-Umwelt-Modell berücksichtigt den wechselseitigen Einfluss von kindlicher Disposition und Umwelt. Gravierende exogene Einflüsse können einen massiven Eingriff in das Bedingungsgefüge der regelhaften kindlichen Persönlichkeitsentwicklung bedeuten. In diesem Beitrag werden die Mechanismen erläutert, durch die Traumata eine Desintegration des kindlichen Erlebens herbeiführen und selbst grundlegende psychophysiologische Verhaltensdispositionen verändern können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-56780-3_6 b90dd3895db16f6c572017ab904ef8d9;de;;;1.1.;;;Grundlagen der VertragsgestaltungDer von den drei zentralen bis hierhin bereits gefallenen Begriffen „Kautelarjurisprudenz“, „Rechtsgestaltung“ und „Vertragsgestaltung“ für Sie wohl auf Anhieb am wenigsten eingängige Begriff dürfte derjenige der „Kautelarjurisprudenz“ sein. Beginnend mit diesem möchte ich Ihnen nachfolgend zunächst alle drei Begriffe erläutern, so dass Sie bereits am Ende dieses Abschnittes mit der Definition von „Vertragsgestaltung“ eine erste Vorstellung davon haben, was der Vertragsjurist macht und welchen Problemlagen er hierbei ausgesetzt ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-48431-9_2 c0f6f68230ea3916bd33c0c2cb4ab31d;de;;;1.1.;;;Der sachlich abwägende Wähler: Zum Stellenwert sachlich-rationaler Motive der Wahlentscheidung im Rahmen des Rational-Choice-AnsatzesDie Theorie rationalen Handelns erfreut sich in der zeitgenössischen empirischen Wahlforschung einer großen Beliebtheit. Mit spürbar steigender Tendenz wird bei der Erklärung des individuellen Wahlverhaltens auf die Elemente des Rational-Choice-Ansatzes zurückgegriffen. Diese Entwicklung scheint das von Bennett und Salisbury beobachtete Aufkommen des Rational-Choice-Ansatzes (Bennett und Salisbury 1987) zumindest in der theoretischen Perspektive der empirischen Wahlforschung zu betätigen. Einstweilen wird der sich anbahnende Paradigmenwechsel vom sozialpsychologischen Ansatz der Michigan-Schule zum Rational-Choice-Ansatz für vollzogen erklärt (Kühnel und Fuchs 1998: 317), wenngleich die Entwicklung von anderen Beobachtern mit der nötigen Skepsis beurteilt wird (Roth 1998: 174, Kaase und Klingemann 1998: 9–10). Auch wenn die Angemessenheit der Bezeichnung Paradigmenwechsel für die zu beobachtende Entwicklung in der empirischen Wahlforschung noch nicht abschließend beurteilt werden kann, geben die neueren Anwendungen der Theorie rationalen Handelns doch immerhin Anlaß, ihre Ergebnisse im Hinblick auf einen zu erwartenden Erkenntnisfortschritt in der Erklärung des Wahlverhaltens zu bilanzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-95630-9_20 4235724264cd7e5d9858c77fd2f3c9b5;de;;;1.1.;;;ManagementkonzeptWie weiter oben erwähnt, zeichnet sich ein systemischer bzw. systemtheoretischer Zugang zum Thema Management zuvorderst dadurch aus, dass er das zu managende Objekt, das Unternehmen, als System versteht und konzeptionalisiert. Als System ist ein Unternehmen somit eine aus miteinander vernetzten Elementen gebildete und durch Regeln geordnete Ganzheit, die zur Realisierung eines ihnen gesetzten objektiven (Daseins-)Zwecks existiert, nämlich der Befriedigung ethisch zulässiger menschlicher Bedürfnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-30523-9_3 b57f44b2fd6456b95c41489edb6b8e32;de;;;1.1.;;;Unterstützung der Benutzer von Statistikpaketen, insbesondere Erleichterung der Anwendung von SPSS durch eine MethodenbankumgebungDie zunehmende Bedeutung statistischer Programmsammlungen für die Benutzer des Regionalen Rechenzentrums Erlangen (RRZE) wird durch ständig wachsende Nachfrage nach solchen Rechenleistungen dokumentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-46438-6_14 bec997abf948a629d52583012ab7532b;de;;;1.1.;;;Energiesparendes Bauen und WohnenEnergiesparendes Bauen und Wohnen vermag einen wesentlichen Beitrag zu der aus ökologischen Gründen dringend notwendigen Sparsamkeit beim Umgang mit nicht erneuerbaren Ressourcen und für die ebenso dringend erforderliche Reduktion des Schadstoffausstoßes in die Atmosphäre zu leisten. Für den Planer bedeutet dies, dass das Wissen um nachhaltiges und energiebewusstes Planen und Bauen sehr rasch an Bedeutung gewinnt. In folgendem Artikel wird ein Überblick über die Grundlagen energiesparenden Planens und Bauens und über die sich daraus für den Planungsprozess ergebenden Konsequenzen gegeben.;-;-;-;https://link.springer.com/article/10.1007/BF03053912 0e156d89e87ce7b1c51566ef81fbec89;de;;;1.1.;;;The Dark Side of Sponsoring and Ambushing Mega Sports Events: Is successful communication hampered by too many, too similar, and too ambiguous stimuli?Companies use mega sports events like the Soccer World Cup or the Olympic Games to reach their objectives through event sponsorship, which is defined as an exchange between sponsors and an event, whereby the latter receives a fee and the former obtains rights to associate with the event and to advertise these associations (Cornwell/Maignan 1998). Thereby, the organizers of major events (e.g., FIFA, IOC) frequently try to win a large number of sponsors in order to maximize their profit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-8922-2_4 368855b555819b9ab8681520e3d8cb57;de;;;1.1.;;;Zweiter Paradigmenwechsel: von Materie und Energie zur InformationEine Beschreibung der Wirklichkeit in der Sprache der Informationstheorie – also als (zufällige?!) Aktivierung und Inaktivierung binärer Information – impliziert eine gewisse Rückkehr zum metaphysischen Formprinzip: am Ursprung aller Wirklichkeit ist mit Heisenberg die Form. Was jedoch fehlt, ist eine quantifizierbare Definition komplexer Wirklichkeit i.S. komplexer Aktivierungsmuster jenseits zufälliger Emergenz, negentropischer Information oder statistischer Wahrscheinlichkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46533-2_6 0c5eb16a943f63b570ef9cf69bce8843;de;;;3.3.;;;Mustererkennung für MCNs mit Fuzzy Linear Programming In diesem Beitrag wird ein Data-Mining-System zur Leistungsbewertung für Multimedia-Kommunikationsnetze (MCNs) vorgestellt. In diesem Papier werden zwei wichtige Probleme bei der Leistungsbewertung der MCNs betrachtet. Sie sind: (1) das Optimierungsproblem für den Aufbau des Data-Mining-Systems zur Leistungsbewertung, (2) das Problem der Kategorisierung von Echtzeitdaten entsprechend dem Data-Mining-System mittels Unterteilen der Leistungsdaten in übliche und ungewöhnliche Kategorien. Ein Algorithmus wird verwendet, um Leistungsdaten wie Durchsatzkapazität, Paketweiterleitungsrate und Reaktionszeit zu identifizieren. Es wird eine Software namens PEDM2.0 (Performance Evaluation Data Miner) vorgeschlagen, um die Genauigkeit und Effektivität der Fuzzy-Linear-Programmierung (FLP) im Vergleich zu Entscheidungsbaum-, neuronalen Netz- und linearen Programmiermethoden mit mehreren Kriterien zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/11758549_71 015faa31115b37e9be880b6901fb1905;de;;;3.3.;;;"Ein generisches graphenbasiertes neuronales Architektur-Codierungsschema für prädiktorbasierte NAS Diese Arbeit schlägt ein neuartiges graphenbasiertes neuronales ArchiTecture Encoding Scheme, auch bekannt als GATES, vor, um die prädiktorbasierte neuronale Architektursuche zu verbessern. Anders als bestehende graphenbasierte Schemata modelliert GATES insbesondere die Operationen als Transformation der sich ausbreitenden Informationen, die die tatsächliche Datenverarbeitung der neuronalen Architektur nachahmt. GATES ist eine vernünftigere Modellierung der neuronalen Architekturen und kann Architekturen sowohl aus den Zellensuchräumen ""Operation on Node"" als auch ""Operation on Edge"" konsistent codieren. Experimentelle Ergebnisse zu verschiedenen Suchräumen bestätigen die Wirksamkeit von GATES bei der Verbesserung des Leistungsprädiktors. Darüber hinaus wird, ausgestattet mit dem verbesserten Leistungsprädiktor, die Stichprobeneffizienz des prädiktorbasierten neuronalen Architektursuchflusses (NAS) gesteigert.";-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58601-0_12 a60a8a8748f4843dc35c0e64530cf543;de;;;3.3.;;;Die Struktur eines Compilers für Explicit Wir beschreiben die Struktur eines Kompilierungssystems, das Code für Prozessorarchitekturen generiert, die sowohl explizite als auch implizite parallele Threads unterstützen. Solche Architekturen sind kleine Erweiterungen kürzlich vorgeschlagener spekulativer Prozessoren. Sie können spekulativ Parallelität aus einem sequentiellen Befehlsstrom extrahieren (implizites Threading);-;-;-;https://link.springer.com/chapter/10.1007/3-540-35767-X_22 2524c0f635be8a601bc50be6b402229b;de;;;1.1.;;;Zum Umgang mit Netzkriminellen: Ökonomische Überlegungen zu einem aktuellen ProblemNetzkriminalität und Datendiebstähle sind inzwischen zum festen Bestandteil der modernen Gesellschaft geworden. Jüngst erschütterte die Veröffentlichung persönlicher Daten zahlreicher Politiker das Land. Reflexartig werden härtere Strafen und weitere Eingriffsbefugnisse der Strafverfolgungsbehörden gefordert. Im Gegensatz dazu plädiert die „positive“ Ökonomik dafür, potentiellen Netzkriminellen Anreize zu setzen, ihre Fähigkeiten auf legale Weise einzusetzen. Der vorliegende Beitrag stellt dieses alternative Konzept vor und zeigt, dass die Ökonomik fruchtbare Implikationen für den Umgang mit Netzkriminalität bietet.;-;-;-;https://link.springer.com/article/10.1007/s41025-019-00165-0 86074520affb106fa408c7133bb81e37;de;;;3.3.;;;Effiziente parallele Pufferstruktur und ihr Verwaltungsschema für eine robuste Network-on-Chip (NoC)-Architektur In diesem Papier stellen wir eine verbesserte Network-on-Chip (NoC)-Architektur mit effizienter paralleler Pufferstruktur und ihr Verwaltungsschema vor. Um die Leistung des Basisrouters zu verbessern, um maximalen Durchsatz zu erreichen, werden eine neue parallele Pufferarchitektur und ihr Verwaltungsschema eingeführt. Durch die Verwendung einer anpassbaren Architektur, die einen parallelen Puffer mit jedem eingehenden Port integriert, können die Designkomplexität und deren Nutzung optimiert werden. Durch die Verwendung einer simulationsbasierten Leistungsbewertung und des Vergleichs mit früheren NoC-Architekturen werden seine Effizienz und Überlegenheit bewiesen. Hauptbeiträge dieses Papiers sind der Entwurf der verbesserten Struktur eines parallelen Puffers, der unabhängig von Routing-Algorithmen ist, und sein effizientes Verwaltungsschema für die Network-on-Chip (NoC)-Architektur, die einen minimal adaptiven Routing-Algorithmus anwendet. Als Ergebnis kann die Gesamtmenge der erforderlichen Puffer reduziert werden, um die maximale Leistung zu erhalten. Darüber hinaus wird eine einfache und effiziente Architektur der gesamten NoC-Implementierung bereitgestellt, indem die Arbeitslast zwischen parallelen Puffern und Routerlogiken ausgeglichen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89985-3_12 eb87567cb63e86c6bed51971b74d7d34;de;;;1.1.;;;Zusammenhang zwischen Credit Ratings von Banken und ihrer BörsenbewertungSeit Beginn der Finanzkrise in 2007 stehen die Credit Ratings der Banken unter besonderer Beobachtung. Scheinbar wird nichts mehr befürchtet als wenn eine Bank ihr Investment Grade-Rating verliert. Der Hintergrund ist die Furcht vor gleichgerichteten Verhalten von Gegenparteien im Handel und anderen institutionellen Gläubigern, die besonders sensitiv auf diese Schwelle reagieren. Skyrm (2013), der die Insolvenz von MF Global beschrieb, nennt dies die „Money Noose“, d. h. die Schlinge um den Hals von stark vernetzten Finanzinstitutionen. Seiner Analyse zufolge war die Furcht vor dem Verlust des Investment Grade-Rating für den CEO von MF Global der Anlass, riskantere aber ertragreichere Geschäfte einzugehen. Diese wiederum führten zu erhöhten Liquiditätsbedarf und – nachdem sie bekannt wurden – zu Vertrauensverlusten bei den Gegenparteien, Gläubigern und Anlegern. Letztendlich war dann eine Insolvenz unausweichlich. Aber nicht nur in diesen Fällen von befürchteten Bank Runs darf ein Zusammenhang zwischen Credit Rating und Unternehmenswert vermutet werden. Im vorliegenden Beitrag soll dieser Zusammenhang zwischen Credit Ratings von Finanzinstitutionen und ihrer Börsenbewertung diskutiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-4735-2_9 919a451af3e89f90accbdd25e5ce8324;de;;;1.1.;;;Rational-Choice-Rezeption in der deutschsprachigen SoziologieDie Rational-Choice-Theorie (RCT) in der Soziologie hat eine lange Traditionslinie und viele Urheber. Sie profitiert von Erkenntnissen aus Nachbardisziplinen und hat sich heute in verschiedene Varianten ausdifferenziert. Mit der Akteursperspektive als Ausgangspunkt folgt die RCT dem Programm des ;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-658-07998-7_34-2 843a11d321bdf3f1fccc273b1253f102;de;;;1.1.;;;Früherkennung und Frühintervention der SchizophrenieDie Ergebnisse neuerer Untersuchungen zum Prodromalstadium der Schizophrenie haben wesentliche Erkenntnisse über Möglichkeiten der Früherkennung und Frühintervention erbracht. Die Erkrankung ist mit beträchtlichen sozioökonomischen und sozialen Folgen assoziiert. Die Dauer der unbehandelten Psychose spielt eine wesentliche Rolle im Verlauf der Erkrankung, da eine verzögerte adäquate Behandlung mit einer schlechteren Prognose einhergeht. Bereits im so genannten Prodromalstadium sind soziale, kognitive, affektive und gehirnstrukturelle Veränderung erkennbar. Erste Frühinterventionsstudien deuten auf die Möglichkeit hin, mithilfe indizierter präventiver Intervention, die Übergangsraten bei PatientInnen mit einem erhöhten Risiko für die Entwicklung einer Psychose und bereits manifesten Leistungsdefiziten beträchtlich zu reduzieren. In dieser Übersichtsarbeit werden prodromale Symptome sowie Möglichkeiten der Früherkennung und Frühintervention bei Schizophrenie dargestellt.;-;-;-;https://link.springer.com/article/10.1007/s00115-005-1925-6 6e88cc5869adc51e90fa843bdff3e5dc;de;;;3.3.;;;Hierarchisches Cache-Verzeichnis für CMP Da mehr Prozessorkerne in einem Chip integriert sind und die Funktionsgröße weiter schrumpft, wird die durchschnittliche Zugriffslatenz für entfernte Knoten, die ein verzeichnisbasiertes Kohärenzprotokoll verwenden, höher, was sich stark auf die Systemleistung auswirkt. Frühere Techniken wie Datenreplikation und Datenmigration optimieren die Leistung des anfordernden Kerns, bieten jedoch kaum Verbesserungen für Nachbarknoten. Andere Techniken wie die Optimierung während der Übertragung versuchen, die Latenz auf Kosten eines erhöhten Speichers zu reduzieren. Dieses Papier führt ein hierarchisches Cache-Verzeichnis in CMP (Chip Multiprocessor) ein, das CMP-Kacheln hierarchisch in mehrere Regionen aufteilt und mit Datenreplikation kombiniert. Es wird eine neue Verzeichnisorganisation vorgeschlagen, um den Freigabestatus innerhalb einer Region aufzuzeichnen und der regionalen Heimat zu helfen, den Betrieb effizient abzuschließen. Simulationsergebnisse zeigen, dass bei einem 16-Kern-CMP im Vergleich zu herkömmlichen Verzeichnissen ein hierarchisches Cache-Verzeichnis die durchschnittliche Zugriffslatenz um 9% und den Netzwerkverkehr auf dem Chip um durchschnittlich 34% mit weniger Speicher reduziert. Theoretische Analysen zeigen, dass für ein 2;-;-;-;https://link.springer.com/article/10.1007/s11390-010-9321-5 fedc2b8621fb5258e29445d1c2f219ea;de;;;1.1.;;;Erscheinung, Erklärung und BehandlungZu Beginn des Jahres 1988 sammelten wir über mehrere Wochen alle Schlagzeilen der Süddeutschen Zeitung und der Oberhessischen Presse, in denen der Begriff “Panik” vorkam. Das Ergebnis ist in Abb. 1 dargestellt. Die Abb. demonstriert die unspezifische Verwendung dieses Begriffs in der Presse, die ja den allgemeinen Sprachgebrauch maßgeblich prägt. Es ist demnach wichtig, den Gegenstand unserer Betrachtungen genauer festzulegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-22280-5_2 96a857351ab55389ec71718268c34386;de;;;1.1.;;;GestalttherapieDie „Gestalttherapie“ beginnt bei Fritz Perls, genauer gesagt: bei Dr. med. Friedrich Salomon Perls, geboren in Berlin 1893, gestorben 1970 in Chicago.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-12851-0_11 41aed582c9e10cc1b081583f03041aaf;de;;;1.1.;;;Motivation und EmotionDer Mensch achtet auf bestimmte Ereignisse in der Umwelt, nimmt bestimmte Konstellationen wahr, lernt Zusammenhänge sehen, erinnert sich an Informationen, denkt, löst Probleme, erarbeitet Strategien und handelt nach ihnen falls er dazu motiviert ist. Wenn wir fragen, was uns und andere lebende Organismen funktionieren läßt, dann stellen wir die Frage nach der Motivation.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-08327-7_7 c966c1a6131861d85c7a6da80f8461c0;de;;;1.1.;;;Das Beobachtungssetting der PsychoanalyseDie Mehrperspektivität der theoretischen Konstruktion einer systemtheoretischen Beschreibung der Psyche muss vernetzt sein mit einer Reflexion auf die Mehrperspektivität der Formen wissenschaftlicher Beobachtung psychischer Prozesse. Die theoretische Konstruktion psychischer Systeme muss sich reflexiv auf die eigene Methode der Beobachtung psychischer Prozesse beziehen und sich auch auf einer solchen methodologischen Ebene zu den Formen der Beobachtung der Psyche relationieren, die anderen theoretischen Beschreibungen des Psychischen konstitutiv zugrunde liegen. Denkbar und wissenschaftlich erprobt sind mehrere differente Beobachtungszugriffe auf Psychisches. Bereits verwiesen wurde auf die Beobachtungsform der Introspektion, auf der die Beschreibung von Bewusstseinsprozessen in der Phänomenologie basiert. Dabei zeigte sich, dass der phänomenologische Diskurs über das Bewusstsein, insofern es sich dabei um eine kommunikative Beschreibung handelt, einen spezifischen Beobachtungsunterbaus benötigt: ein besonderes Arrangement sozialer und psychischer Systeme, das es ermöglicht, psychische Selbstbeobachtung in Formen kommunikativer Konstruktion zu übersetzen. Ein ebenfalls auf Prozessen der Selbstbeobachtung rekurrierendes Verfahren ist in der psychologischen Forschung von Hurlburt (1990: 17ff und 1993: 9ff) verwendet worden. Er ließ Probanden über längere Beobachtungszeiträume zu zufällig ausgewählten Zeitpunkten ihr inneres Erleben reflexiv beobachten und in dialogisch-verbaler und in schriftlicher Form möglichst detailliert schildern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-91581-4_5 e98744fb477db683a3f293028547b544;de;;;1.1.;;;Messfehler in der NPE-Forschung — Theoretische Überlegungen und empirische AnhaltspunkteIn Kapitel 3 sollen zunächst einige allgemeine, theoretische Überlegungen zu Arten, Ursachen und Konsequenzen von Messfehlern in der empirischen Sozialforschung angestellt werden (vgl. Abschnitt 3.1.1). Anschließend werden mögliche Ursachen für das Auftreten eines Informant Bias mit Blick auf die NPE-Forschung diskutiert (vgl. Abschnitt 3.1.2). Danach werden die Erkenntnisse aus einer Fallstudie geschildert, in der die zuvor theoretisch diskutierten Ursachen für das Auftreten eines Informant Bias in der NPE-Forschung explorativ untersucht werden (vgl. Abschnitt 3.2). Dem folgt ein Literaturüberblick, der die Behandlung bzw. Nichtbehandlung eines möglichen Informant Bias in der bisherigen empirischen NPE-Forschung schildert. Daraus lassen sich bereits erste Anhaltspunkte für die Existenz eines Informant Bias in den bisherigen Befunden gewinnen (vgl. Abschnitt 3.3). Abschließend erfolgt dann auf Basis der theoretischen Überlegungen, der Ergebnisse der Fallstudie und einer zusammenfassenden Bestandsaufnahme der Messfehlerproblematik in der bisherigen NPE-Forschung die Ableitung der grundsätzlichen Zielsetzungen der vorliegenden Arbeit und die Formulierung der zu testenden Basishypothesen (vgl. Abschnitt 3.4).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-86902-9_3 44817477bb6090b63db73af9f1c02557;de;;;1.1.;;;Qualitative SportpsychologieIm Rahmen der Sportpsychologie, die disziplinär im Schnittfeld von Sportwissenschaft und Psychologie zu verorten ist, wird regelmäßig – wenn auch in quantitativ vergleichsweise geringem Maße – auf einschlägige qualitative Verfahren der Sozialforschung zurückgegriffen. Thematisch fokussieren qualitative Studien aus der Sportpsychologie (noch) primär auf Akteure und Akteurinnen im leistungssportlichen Kontext, vorzugsweise mit Blick auf die Wettkampf- bzw. Trainingspraxis. Fragestellungen richten sich u. a. auf die Bereiche Motivation, Emotion, kognitive Informationsverarbeitung, Bewegungslernen, Stress, Belastung, Entwicklung, Identität und Persönlichkeit. Methodisch werden derzeit hauptsächlich Verfahren verwandt, die primär auf verbale Äußerungen abzielen.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-658-18387-5_69-2 7e8f67eae5b50bfe30d5863b95e54efd;de;;;1.1.;;;Gesetzliche Grundlagen für Smart MeteringDie Einführung von Smart Metering bietet ideale Voraussetzungen, um den Markt der Gebäudeautomation im Neubau-, aber auch insbesondere im Nachrüstbereich zu beleben. Durch Smart Metering werden die Entscheidungen für die Einführung von Gebäudeautomation durch die Darstellung von Energiesparpotenzialen erleichtert. Wie bei vielen Neueinführungen von Technologie wird davon ausgegangen, dass insbesondere der Gesetzgeber durch gesetzliche Grundlagen die Einführung der Technologie des Smart Meterings unterstützt und damit zur Einführung von Gebäudeautomation im Neubau- und Nachrüstbereich anregt. Im Folgenden werden die Endenergieeffizienzrichtlinie der EU, das Energiewirtschaftsgesetzt, die Energieeinsparverordnung, das Energie-Wärme-Gesetz und die Messzählerverordnung auf Anreize zur Einführung von Smart Metering und Gebäudeautomation untersucht und kommentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8348-2032-7_11 70ddda7c23ab3571b82ff7565a809374;de;;;3.3.;;;Realisierung einer Funktionsdomäne innerhalb einer Cloud Dieses Papier beschreibt einen spezifischen Aspekt der Arbeit, die zur Virtualisierung des IT-Serverbestands eines Unternehmens mit einer modernen Geschäftsarchitektur von etwa drei- bis vierhundert Servern geleistet wurde. Dies führt zu einer praktischen Serverumgebung mit derselben Architektur und denselben Servern und integriertem Netzwerk in abstrahierter Form unter Verwendung von Sätzen von HP c7000-Gehäuseeinheiten. Dies wurde durch die Anwendung von Hypervisor-basierten Virtualisierungstechnologien auf Cluster erreicht, die über konstituierende Blades zwischen Sätzen von Gehäuseeinheiten implementiert wurden. Das funktionierende System wird verbessert, indem spezifische Betriebsfunktionen des HP c7000 zusammen mit separaten Virtualisierungstechnologien aktiviert werden, die in einem einzigen kohärenten Designmodell konsolidiert werden, das als virtualisiertes System in ein bis drei Gehäuseeinheiten an einem einzigen Standort implementiert wird. Darüber hinaus wird das System verbessert, indem virtuelles L3-Ethernet über spezifische HP c7000-Chassis-Betriebsfunktionen aktiviert wird, die in einem einzigen kohärenten Designmodus konsolidiert werden. Das System wird nun erweitert, um standortübergreifend zu arbeiten und auch physische sowie virtuelle Systeme (z. B. Server, Appliances, Anwendungen, Netzwerke, Speicher) in derselben Funktionsdomäne zu verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-04519-1_4 a3aedd7001ad76b057dfca0ab8ef4f11;de;;;3.3.;;;Verteilte, verzögerungsempfindliche Aufgaben mit mehreren Perioden in einer zweischichtigen Fahrzeug-Nebel-Computing-Architektur Vehicular Fog Computing (VFC) ist ein neues Paradigma, um das Fog Computing auf konventionelle Fahrzeugnetzwerke auszudehnen. Dennoch ist es aufgrund der hohen Fahrzeugmobilität, der intermittierenden drahtlosen Verbindung und der begrenzten Rechenressourcen eine Herausforderung, verzögerungsempfindliche Task-Offloading in VFC zu verarbeiten. In diesem Papier schlagen wir zunächst eine verteilte VFC-Architektur vor, die verfügbare Ressourcen (d. h. Kommunikations-, Rechen- und Speicherressourcen) von Infrastrukturen und Fahrzeugen aggregiert. Unter Berücksichtigung der Fahrzeugmobilität, der Lebensdauer von Aufgaben und der Fähigkeiten von Fog-Knoten formulieren wir ein Multi-Period-Distributed-Task-Offloading (MPDTO)-Problem, das darauf abzielt, das Systemdienstleistungsverhältnis zu maximieren, indem Aufgaben zu geeigneten Zeiträumen auf die geeigneten Fog-Knoten ausgelagert werden. Dann beweisen wir, dass das MPDTO-Problem NP-schwer ist. Anschließend wird ein iterativer verteilter Algorithmus basierend auf dynamischer Programmierung (IDA_DP) vorgeschlagen, durch den jeder Nebelknoten basierend auf einem dynamischen Programmieralgorithmus die geeigneten Aufgaben auswählt und jedes Client-Fahrzeug den Zielnebelknoten für seine Aufgaben gemäß der Antwortverzögerung bestimmt. Schließlich bauen wir das Simulationsmodell auf und geben eine umfassende Leistungsbewertung, die zeigen, dass IDA_DP die ungefähr optimale Lösung mit geringem Rechenaufwand erhalten kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7670-6_38 7845c5880e9499eeb33dc43f3980d320;de;;;3.3.;;;Hardwarespezifische Auswahl der am schnellsten laufenden Softwarekomponenten Zu den Problemen der Softwareentwicklung gehört insbesondere die Auswahl der am schnellsten laufenden Softwarekomponenten unter den verfügbaren. In der Arbeit wird vorgeschlagen, ein Vorhersagemodell zu entwickeln, das die Laufzeit von Softwarekomponenten abschätzen kann, um dieses Problem zu lösen. Ein solches Modell wird als Funktion von Algorithmusparametern und rechnerischen Systemeigenschaften erstellt. Es wurde auch untersucht, welche dieser Merkmale die repräsentativsten sind. Als Ergebnis dieser Studien wurde ein zweistufiges Schema der Vorhersagemodellentwicklung basierend auf linearen und nichtlinearen maschinellen Lernalgorithmen formuliert. Das Papier präsentiert eine vergleichende Analyse von Laufzeitvorhersageergebnissen zur Lösung mehrerer linearer Algebra-Probleme auf 84 PCs und Servern. Die Verwendung des vorgeschlagenen Ansatzes zeigt einen Fehler von weniger als 22% für im Trainingsdatensatz dargestellte Rechensysteme.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49956-7_28 1aa88ef4c1497c18b7b876fce4ac3c67;de;;;1.1.;;;Ansatz und Ergebnisse der Curriculumforschung für Medizinische Dokumentations-AssistentenIn den vergangenen Jahren hat sich der Bereich der medizinischen Informationsverarbeitung deutlich gewandelt. Die daraus abgeleiteten Funktionen und Tätigkeiten wurden Berufsgruppen und -ebenen zugeordnet, bzw. von diesen als ihr Gebiet in Anspruch genommen. Ein sichtbarer Ausdruck dieser Zuweisung bzw. der Inanspruchnahme ist die Diversifikation von Modellen der kodifizierten Ausbildungsmöglichkeiten in diesem Bereich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-81366-5_31 0e271d9537869b777cd006c483b2759a;de;;;1.1.;;;SelbstbeschreibungUnter „Selbstbeschreibung“ wollen wir die Produktion eines Textes oder funktionaler Äquivalente eines Textes (zum Beispiel indexical expressions wie „wir“ oder „hier“ oder eines Eigennamens) verstehen, mit dem und durch den die Organisation sich selbst identifiziert. Der Text muss nicht als ein gleichsam biblisches, kanonisches Dokument vorliegen, aber was immer die Funktion der Selbstbeschreibung erfüllt, muss gewisse Anforderungen an Selbstreferenz auf der Ebene des Systems erfüllen. Es muss ganz verschiedene Situationen, Anlässe, Umstände durch Identität der Referenz übergreifen und zusammenschließen, muss als zeitbeständig immer „Dasselbe“ bezeichnen, aber zugleich, was Sinngehalte betrifft, flexibel sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-97093-0_14 610e342e5b8ec1f5cd63e417ddafdb3b;de;;;3.3.;;;Leistungsvergleich neuronaler Netztrainingsalgorithmen für die Lastprognose in Smart Grids Die Spannungssteuerung von Verteilungssystemen erfordert eine Lastprognose. Zur Verbesserung der Effizienz und Nachhaltigkeit der automatisierten Steuerung von Smart Power Grids (SPG) sollte das Steuerungssystem des Prozesses ein Teilsystem zur Vorhersage von Zeitreihen - Lastvorhersage als direkt mit der Spannung verbundenen Parameter - enthalten. An die Genauigkeit von kurzfristigen (Tag-Woche-Monat) und betrieblichen (innerhalb des aktuellen Tages) Prognosen gelten höchste Anforderungen, da sie das Management der aktuellen Arbeitsweise der SPG bestimmen. Das Papier beschreibt Prognosemethoden und kommt zu dem Schluss, dass die Verwendung künstlicher neuronaler Netze für dieses Problem vorzuziehen ist. Es zeigt, dass die Partikelschwarmmethode für die komplexen realen Netzwerke schneller und genauer ist als die herkömmliche Backpropagation-Methode. Abschließend wird das verwendete Modell der kurzfristigen Lastprognose (STLF) beschrieben und die Abstimmung aller vorgestellten Modelle vorgenommen. Der Beitrag konzentriert sich auf Trainingsmethoden neuronaler Netze und verwendet dafür den „Backpropagation“-Algorithmus und den „Particle Swarm“-Algorithmus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67229-8_9 056561ac35ce6eaacb44ce8d8d614b12;de;;;1.1.;;;Einleitung: Problemstellung, Gang der Untersuchung und methodologische VorbemerkungenSchon ein Blick auf den Kurszettel in einer Tageszeitung regt zu der Frage an, ob es nicht bestimmte Gesetzmäßigkeiten in Aktienkursverläufen gebe. Heine Neugierde oder auch die direkte Betroffenheit dessen, der Aktien besitzt oder zu kaufen erwägt, können hinter diesem Interesse stehen, Für den Ökonomen kommen zwei Ansatzpunkte hinzu. Als „Volkswirt“ interessiert ihn, welche Rolle die Aktienbörse bei der Allokation von Kapital spielt. Er wird die Regelmäßigkeiten von Kursverläufen zu erkennen versuchen, um daraus ein Urteil abzuleiten, ob die Börse die ihr zugedachte Rolle in der Gesamtwirtschaft auch wirklich spielen kann;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-83615-1_1 c1e32df7708554e92b3c0371ece18530;de;;;3.3.;;;Grundlegende Anforderungen der kryptografischen Algorithmen des IoT: Fallstudie Geräte für das Internet der Dinge (IoT) nehmen in der heutigen Welt rasant zu, aber die Sicherheit von Geräten bleibt ein großes Problem, da der Speicher und die Verarbeitungsleistung dieser Geräte aufgrund ihrer geringeren Größe nicht verfügbar sind. Der Trade-off liegt zwischen Sicherheit und Leistung, d. h. wenn die Sicherheit erhöht wird, was mit hoher Komplexität einhergeht und somit die Leistung beeinträchtigen würde. Auf der anderen Seite wäre eine Leistungssteigerung mit Kosten in Bezug auf die Sicherheit verbunden. Außerdem können IoT-Geräte als Bots verwendet werden, da sie ohne große Sicherheit weltweit zugänglich sind. Die sichersten kryptografischen Algorithmen verbrauchen viele Ressourcen, und im Fall von IoT sind Ressourcen in diesem Umfang nicht verfügbar die Leistung auch nicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7961-5_16 9263c7c4889a5f7c9edb93337e27b483;de;;;3.3.;;;Evolution funktionsorientierter Software: So bleiben Sie auf Kurs und vermeiden die Klippen der Modularität Mit der Zeit veralten Softwaresysteme leicht, wenn sie nicht aktualisiert werden, um den sich ständig ändernden Bedürfnissen ihrer Benutzer gerecht zu werden. Dieser Aktualisierungsprozess ist alles andere als trivial, da jede Funktion nicht unbedingt von einem einzelnen Modul erfasst wird, sondern auf mehrere verschiedene Module verteilt ist. Erschwerend kommt hinzu, dass ein Modul mehrere unterschiedliche Merkmale umfassen kann. Unser Ziel ist es zu messen und zu bewerten, wie einfach es ist, eine Software aufgrund ihrer Modularität zurückzuverfolgen und zu aktualisieren. Modularität ist bekannt als der Grad, in dem die Komponenten eines Systems getrennt und neu kombiniert werden können. Der von uns vorgeschlagene Ansatz basiert auf der Idee, relative im Gegensatz zu absoluten Modularitätsmetriken zu verwenden, die den Abstand zwischen den tatsächlichen Metrikwerten für einen bestimmten Quellcode und ihren Werten messen, die für das ideal modularisierte Gegenstück des Quellcodes erreichbar sind. Der Ansatz, genannt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25579-8_11 174e539d97d683f032858e79c864376e;de;;;3.3.;;;Leistungsbewertung von Parallel Sparse Matrix–Vektorprodukten auf SGI Altix3700 Der vorliegende Beitrag diskutiert skalierbare Implementierungen von Sparse-Matrix-Vektor-Produkten, die für leistungsstarke Lösungen großskaliger linearer Gleichungen entscheidend sind, auf einer cc-NUMA-Maschine SGI Altix3700. Drei Speicherformate für spärliche Matrizen werden bewertet, und Skalierbarkeit wird durch Implementierungen erreicht, die den Seitenzuordnungsmechanismus der NUMA-Maschine berücksichtigen. Einflüsse der Cache-/Speicherbusarchitekturen auf die optimale Wahl des Speicherformats werden untersucht und es werden skalierbare Wandler zwischen Speicherformaten gezeigt, die die Ausnutzung leistungsfähiger Speicherformate erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68555-5_13 0b4f8f52939edf32bf8e7161e6886f96;de;;;1.1.;;;Wege und Irrwege der Planung und Entwicklung eines klinischen KommunikationssystemsNach fast 4-jähriger Entwicklungszeit ging am 1. September 1977 die erste Ausbaustufe des klinischen Kommunikationssystems (KKS), das Ergebnis des vom BMFT geförderten Vorhabens DVM 205 „Aufbau und Erprobung eines Daten-Kommunikationssystem mit on-line Datenerfassung in einem Routine-Krankenhaus“, im Krankenhaus Bethanien in Moers in Betrieb.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-81404-4_6 2aeacb9124fb048ae89d0ca0b3463fa4;de;;;1.1.;;;Erkenntnisgewinnung, Hypothesenbildung und StatistikWissenschaft produziert Erkenntnisse. Wissenschaftliche Erkenntnis dient im abendländischen Kulturkreis heute vielfach als Richtschnur menschlichen Handelns. Die große Bedeutung dieser gesellschaftlichen Funktion erfordert es, den Forschungsprozeß selbst zum Gegenstand wissenschaftlicher Betrachtung zu machen. So ist zu fragen, was man unter Erkenntnis verstehen kann. Hierzu ist herauszuarbeiten, ob und inwiefern sich die Produktion wissenschaftlicher Erkenntnis von der Erkenntnisgewinnung im Alltagsleben unterscheidet. Dies wird an der Rolle von Hypothesen und Statistik in empirischen Forschungsprozessen verdeutlicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-83735-6_1 0f6834b960efdfffab0b26a730b6c845;de;;;1.1.;;;Kommunikation als Methode und als Thema im CoachingKommunikation ist einerseits die zentrale Methode, die im Coaching angewendet wird, und zum anderen ein häufiges Thema, mit dem Klienten Probleme haben und das im Coaching zur Sprache kommt. Für beide Betrachtungsweisen gelten dieselben wissenschaftlichen Erkenntnisse, deren Grundlagen im ersten Teil des Artikels dargelegt und dann anhand bekannter und wenig bekannter Kommunikationsmodelle spezifiziert werden. Die jeweils besonderen Aspekte der beiden Betrachtungsweisen werden anschließend behandelt und mit Beispielen verdeutlicht. Wegen der notwendigen Kürze muss z. T. auf etliche anschließende Artikel hier im Handbuch und anderswo verwiesen werden.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-662-45119-9_32-1 18e0f66baaab33fa16ee9d6550b38dcc;de;;;1.1.;;;Erklärung von Wirkungszusammenhängen kompetenzorientierter Markenkooperationen von EVU im B2B-Bereich und Entwicklung eines ModellsIn den vorherigen Kapiteln wurden das Konzept der Markenkooperation von EVU sowie die grundlegenden Wirkungszusammenhänge und Ziele einer gemeinsamen Inszenierung von Marken vor dem Hintergrund des Markenkompetenzaufbaus diskutiert. Zudem erfolgte eine eingehende Betrachtung der Besonderheiten von B2BKunden als Zielgruppe dieser Strategie des Markenmanagement eines EVU.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-9624-4_3 3701197a6ddb309566a7c29fa1359447;de;;;1.1.;;;Zur differenzierbarkeit akustischer doppelreize in der objektiven audiometrieThe authors have investigated the relationship between slow cortex-potential and subjective sensation. The tests were carried out on people with normal hearing. With monoaurale irritation, when double clicks with an interval of 20 msec applied, a surface-negative wave with a latency of 90–100 msec is showed with 2 peaks. The double impulses could just be differentiated. The results were explained as a confirmation of the close correlation between the subjective sensation of a negative wave and the slow cortex-potential.;-;-;-;https://link.springer.com/article/10.1007/BF00343031 8cf047ddf6428e04c8d58ea322297914;de;;;1.1.;;;‘Entscheidung’ in der soziologischen ForschungBetrachtet man die Verwendung des Entscheidungsbegriffs in der Soziologie, so lassen sich zunächst zwei Perspektiven unterscheiden. Auf der einen Seite wird vor dem Hintergrund des alten Gegensatzes von Freiheit und Determination die Entscheidung des Individuums verhandelt. Im Mittelpunkt des Interesses steht bei Untersuchungen mit einer solchen Ausrichtung die Frage, wie frei ein Individuum in der modernen Gesellschaft sein Leben gestalten kann und wie die damit verbundenen Entscheidungen vonstatten gehen. Auf der anderen Seite wird die Frage nach Entscheidungen von Kollektiven gestellt. Hier treten formale Entscheidungsprozesse zum Beispiel in Organisationen in den Vordergrund. Auch die im Rahmen dieser Untersuchung exemplarisch behandelte Berufswahl, die, mit Blick auf das freie westlich-moderne Individuum vermeintlich ‘Sache’ des Einzelnen ist, kann unter beiden Perspektiven betrachtet werden. Die ‘klassische’ Berufswahlforschung fragt mitunter danach, wie die Einzelnen ihre Berufswahl koordinieren und wie sie letztlich zu welcher Entscheidung gelangen. Richtet sich das Interesse auf kollektives Entscheiden, könnte etwa die Frage nach der politischen Beschlussfindung hinsichtlich der Gestaltung des Systems der Berufe, der Ausbildungsverfahren oder konkret nach der Ausformung der Berufsberatung gestellt werden. In der Diskussion um die Modernisierung moderner Gesellschaften sollten beide Perspektiven eingenommen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-80471-6_3 9a5e9a2029969f2fad3015729673c764;de;;;1.1.;;;Konsumentenverwirrtheit: Ansatzpunkte zur Operationalisierung und zur Berücksichtigung im Marketing-ManagementNahezu jeder Konsumgüterbereich ist heute durch ständige Produktneueinführungen, Produkthomogenisierung und ein Produkt- und Informationsüberangebot gekennzeichnet. Die Folge hiervon ist in vielen Fällen die Verwirrtheit der Konsumenten. Konsumentenverwirrtheit wurde bereits in zahlreichen Märkten und Segmenten identifiziert, wie z. B. im Computer- (vgl. Cahill 1995), Uhren- (vgl. Mitchell & Papavassilliou 1997) und Telekommunikationsmarkt (vgl. Turnbull, Leek & Ying 2000, Nanji & Parsons 1997, Nuki 1997), vor allem aber auch im Bereich der Fast Moving Consumer Goods, bspw. bei Lebensmitteln (vgl. Kapferer 1995a 1995b), Waschmitteln (Harrison 1995) und Handelsmarken (vgl. Loken, Ross & Hinkle 1986, Murphy 1997) sowie im Dienstleistungssektor (vgl. z. B. Berry & Yadav 1997, Ashton 1993, Brierley 1995). Aus Marketingsicht sind die mit Verwirrtheit assoziierten Konsequenzen von Bedeutung. In der Literatur finden sich u. a. Aussagen, die Konsumentenverwirrtheit in Beziehung setzen zu einem Aufschub oder Abbruch von Kaufentscheidungen (vgl. Mitchell & Papavassiliou 1999, S. 327), zu abnehmender Marken- und Geschäftsloyalität (vgl. z. B. Foxman, Muehling & Berger 1990 S. 171), zu negativer Mundwerbung (vgl. z. B. Turnbull, Leek & Ying 2000 S. 157) sowie zu einer Verwirrung anderer Konsumenten (vgl. z. B. Foxman, Berger & Cote 1992 S. 136).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-81694-8_5 6bc16b9bf1a12085c78c8afc3429b712;de;;;1.1.;;;Der Forschungsstand zu Eigenschaften von AnalystenprognosenDie Rezipienten der Analysteneinschätzungen wünschen sich qualitativ hochwertige Informationen und möglichst zutreffende Analystenprognosen und Aktienempfehlungen (Olsen, 1996, S 37). Permanente Fehleinschätzungen und Revisionen können der Glaubwürdigkeit und damit auch der weiteren Karriereentwicklung der Finanzanalysten schaden (Hong und Kubik, 2003, S. 313). Um langfristig Beachtung um Kapitalmarkt zu erhalten, sollten die Analysteneinschätzungen dementsprechend zutreffend sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-21371-8_4 00f416086838e9c1cc4b56544b50ed15;de;;;1.1.;;;Quantitative ÄsthetikEs ist eine weitverbreitete Meinung, daß Ästhetik auf der einen Seite und Mathematik/Naturwissenschaften auf der anderen Seite durchschnittsfremd sind. Der gesunde Menschenverstand sträubt sich gewissermaßen dagegen, eine tiefere Beziehung zwischen einem Gemälde oder einer Symphonie und quantitativen Gesetzen, wie etwa den Maxwellschen Gleichungen, anzuerkennen. Andererseits sind aber Kunstwerke, wie eine Bachfuge, ein Gemälde, ein Bauwerk oder eine Skulptur, vor aller ästhetischer Bedeutung auch physikalische Objekte in ein, zwei oder drei Dimensionen. Damit sind sie auch einer Analyse mit physikalischen Methoden zugänglich. Es wäre natürlich naiv anzunehmen, daß physikalische Charakteristika dieser Objekte wie Länge, Masse, Impuls usw. eine direkte ästhetische Relevanz besäßen. Die Schönheit eines Gemäldes kann nicht anhand seiner Fläche ermittelt werden, auch wenn auf dem Flohmarkt häufig sein Preis danach bemessen wird. Unbestreitbar bestehen aber enge Beziehungen zwischen den Symmetrien, oder besser gesagt den gebrochenen Symmetrien eines künstlerischen Objektes und seiner ästhetischen Beurteilung, wie z.B. ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-85167-3_6 92da004b863dbb33253239951be06e6d;de;;;3.3.;;;Wertmodell für die Überprüfung der Ausrichtung von Unternehmens- und Prozessarchitekturen Die portugiesische Luftwaffe bemüht sich, Probleme im Zusammenhang mit der Unzulänglichkeit von Informationssystemen zu untersuchen, um Managern bei der Erreichung von Geschäftszielen in starren hierarchischen Strukturen zu helfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16419-4_7 c4df8d72a23dbdbb92d56bc8bea92a0b;de;;;1.1.;;;Entwicklung eines Simulationstools zur energetischen, ökologischen und ökonomischen Bewertung von vernetzten Energieversorgungskonzepten für QuartiereIm Rahmen der dezentralen Energieversorgungsplanung ist bislang unklar, welche Technologien das größte Potenzial zur Versorgung von Quartieren bieten. Zur Identifikation geeigneter Versorgungskonzepte bedarf es jedoch zunächst einer Methode, die eine Bewertung sowohl in energetischer als auch in ökologischer und ökonomischer Hinsicht ermöglicht. Das entwickelte Simulationswerkzeug ist auf eine Vielzahl der gegenwärtig im Markt verfügbaren Erzeugungs- und Speichertechnologien zur Strom- und Wärmeversorgung von Gebäuden anwendbar. So können Wärmepumpen, Solarthermie, Heizkessel, Kraft-Wärme-Kopplung, Nahwärmenetze, Fotovoltaik, Batteriespeicher, Elektromobilität und Quartierstromnetze in variablen Kombinationen und Betriebsweisen abgebildet werden. Zur Beschreibung der Energieflüsse innerhalb der Quartiergrenze werden zeitlich hochaufgelöste Lastprofile verwendet, die mithilfe dynamischer Gebäudesimulation berechnet oder mit Clustering-Methoden aus Messdaten abgeleitet wurden. Durch diesen profilbasierten Ansatz können Versorgungsoptionen hinsichtlich der Indikatoren Deckungsanteil, Eigenverbrauch, Treibhauspotenzial und Kapitalwert einfach und praxisnah bewertet werden. Der gewählte Use Case eines Wohnquartiers zeigt, dass ein Versorgungskonzept mit Sole/Wasser-Wärmepumpen und Fotovoltaik gegenwärtig zu empfehlen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-25332-5_22 ffded1b694c47a22039e7d801e0f9155;de;;;1.1.;;;»Funktionale Differenzierung« als Dispositiv moderner GesellschaftenLuhmann besteht darauf, daß eine adäquate Theorie zur Beschreibung der modernen Gesellschaft, die den Titel Gesellschaftstheorie verdient, noch fehlt. Auf diese Lücke hin stellt er die neueren Entwicklungen in der allgemeinen Systemtheorie als die vielversprechendsten Mittel und seine Universaltheorie als daraus resultierende und adäquate soziologische Synthese dar. So kann man sagen, daß diese in der »modernen Gesellschaft« ihren eigentlichen Fluchtpunkt besitzt, und umgekehrt, daß die »moderne Gesellschaft« aus der soziologischen Universaltheorie strukturierende Prinzipien der Beschreibung ihrer Eigenheiten und Entwicklungsperspektiven bezieht, gleichsam als ihre Verkörperung auftritt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-96386-4_4 2985b8d4bca9f09dff3735f6ba319588;de;;;1.1.;;;Lernen für SicherheitKap. 16 behandelt das Lernen in und von Organisationen. Konzepte aus anderen Hochrisikobereichen wie die der „zuverlässigen Organisation“ und der „lernenden Organisation“ könnten auch für die Medizin hilfreich sein, da sie den Denkrahmen für die tägliche Arbeit verändern. Komplexe Organisationen wie Krankenhäuser werden sich aber nicht mit einfachen „Erfolgsrezepten“ und isolierten Maßnahmen verändern lassen. Instrumente wie Incident-Reporting-Systeme und Fallanalysen, Notfalltraining und Skillstraining am Simulator und regelmäßige Teamtrainings sollten integrative Bestandteile übergreifender Konzepte der Organisationsentwicklung sein. Unter den aktuellen ökonomischen Bedingungen ist es wichtiger denn je, dass alle Mitarbeitenden von Krankenhäusern und Rettungsdiensten die Themen Patientensicherheit, Fehlervermeidung und zuverlässiges Handeln auf ihrer persönlichen Agenda haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-60485-4_16 424e3f42a3a91ecdf830c62ce5dabb0c;de;;;1.1.;;;Psychologische IntelligenzforschungIn nicht wenigen Lebensbereichen sind individuelle Unterschiede im Verhalten, in einer Leistung, in Wissen oder Können oft Gegenstand von Vergleich oder gar Wettbewerb: von Schulprüfungen über PISA‐Tests bis hin zu beruflichen Abschlüssen, in Schachspiel oder TV‐Quizsendungen, in Kunstwettbewerben und erst gar im Sport. Allein wenn es um übergreifende psychische Eigenschaften wie Leistungen des Verstandes und intellektuelle Fähigkeiten geht, stehen vorgefasste Anschauungen von Gleichheit einer Anerkennung individueller Unterschiede bisweilen hartnäckig entgegen, auch wenn diese viel größer sind als Unterschiede im körperlichen Aussehen oder Auftreten. Dabei ist gerade Forschung zur menschlichen Intelligenz auch Forschung zu fairem Umgang mit diesen allemal bestehenden erheblichen individuellen Unterschieden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-49912-2_6 9fd7d7db5769b08393cb59ff672b346c;de;;;3.3.;;;Leistungsmodell für einen rekonfigurierbaren Coprozessor Dieses Papier präsentiert ein analytisches Modell für die Leistung eines generischen rekonfigurierbaren Coprozessorsystems (RC). Das System zeichnet sich durch einen Standardprozessor mit einem rekonfigurierbaren Teil aus. Wir beschreiben ein allgemeines Leistungsmodell zur Beschleunigung eines generischen RC-Systems. Wir demonstrieren, wie verschiedene Parameter des Beschleunigungsmodells die Leistung eines rekonfigurierbaren Systems (RS) beeinflussen können. Außerdem implementieren wir unser vorentwickeltes Beschleunigungsmodell für ein System, das das Vorladen der Funktionsblöcke (FB) in die rekonfigurierbare Hardware (RH) ermöglicht. Die Neuentwicklung des Beschleunigungsmodells unter Berücksichtigung des Preloading zeigt einige interessante Ergebnisse, die zur Verbesserung der Leistung von RH mit einem Coprozessor verwendet werden können. Schließlich entwickeln wir ein Leistungsmodell für eine konkrete Anwendung. Die Anwendung zeichnet sich durch eine iterative Hauptschleife aus, in der eine Kernoperation in einem FB definiert werden soll. Unsere Experimente zeigen, dass die minimale und maximale Beschleunigung hauptsächlich von der Wahrscheinlichkeit von Fehltreffern und Treffern für den FB abhängt, der sich in der RH eines Coprozessors befindet. Darüber hinaus zeigen unsere Simulationsergebnisse für anwendungsspezifische Modelle, wie die Abhängigkeitswahrscheinlichkeit die erreichbare Beschleunigung verschlechtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-8741-7_91 a4f1c0ea42685e118c1862870d5e50ce;de;;;3.3.;;;Eine neue Rolle für Design- und Designmanager im „Organizational Design“ von sozial-kreativen Geschäftsmodellen Nachhaltigkeit auf globaler und lokaler Ebene erfordert ständig ein kontextbezogenes Verständnis der Prämisse des Unternehmensverhaltens. Wir enträtseln, dass Design, Designer oder Designmethodik derzeit keine wirkliche Rolle mit „Organisationsdesign“ spielen. Vielmehr werden bereits praktizierte Organisationsentwürfe retrospektiv durch Versuch und Irrtum auf mögliche Veränderung, Anpassung, Optimierung, Mutation – kurz „Evolution“ – analysiert, während die ursprüngliche Erstellung des Systembauplans oder der Architektur nicht hinterfragt wird. Die Anwendung eines solchen Systems zur Herstellung von Nachhaltigkeit bedarf einer erneuten Überprüfung. Das Design einer Organisation ist ein Nebenprodukt von Taktiken und Managementbürokratie in postindustriellen Organisationseinheiten. Die Rolle des Designs ist untergeordnet und bestenfalls ein Rest. In diesem zugegeben abstrakten, wenn auch kritischen und empirisch gestützten Papier wollen wir zeigen, dass (a) eine unternehmerische Perspektive auf Design unter der Prämisse eines nachhaltigen Wandels durch die paradigmatischen und transformativen Wirkungen der Informations- und Informationstechnologie in ihren jüngsten Inkarnationen (insbesondere bei das Aufkommen komplexer informationstechnologieintensiver Unternehmen), und (b) dass das scheinbar problematische Fehlen einer Designtheorie und die Existenz des Unternehmens durch die Einbindung von Designmanagern mit deren mutmaßlicher designmethodischer Fundierung in Einklang gebracht werden können. Wir befürworten ein dreigliedriges System für die Gestaltung, Produktion und Anpassung nachhaltiger Veränderungen: Designmanager gestalten das Unternehmen, Manager betreiben es und Strategen führen und steuern es. Im Streben nach einer nachhaltigen Welt schlagen wir daher – entgegen unserer energieabhängigen Überzeugungen dafür – vor, die anachronistische evolutionäre Speziation des Organisationsdesigns durch eine auf „intelligentes Design“ basierende Perspektive zu ersetzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16402-6_4 40f1210b7f6d9675e93cfa0849f9f4d2;de;;;1.1.;;;Vom Silodenken zum vernetzten Arbeiten: Wie Sie Silos in Ihrem Unternehmen erkennen und erfolgreich gegensteuernUm zu erkennen, in welcher vernetzten und kulturellen Verfassung sich Ihre Organisation befindet, ist eine Status-quo-Bewertung ratsam. In den letzten Jahren fünf Jahren hat sich deutlich gezeigt, dass eine Spreizung stattfand: Unternehmen, die sich organisational deutlich weiterentwickelten und Banken oder auch Finanzdienstleister, die an alten Strukturen festhielten und Veränderungen zu langsam oder gar nicht umsetzten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-28301-8_2 a1c1360d09a25f29bcc42115f1ae4141;de;;;3.3.;;;Vorhersage der SiRNA-Silencing-Wirksamkeit basierend auf einer tiefen Architektur Small interfering RNA (siRNA) kann zur posttranskriptionellen Genregulation verwendet werden, indem gezielte Gene ausgeschaltet werden. In der funktionellen Genomik, biomedizinischen Forschung und Krebstherapie ist das siRNA-Design ein wichtiges Forschungsthema. Es wurden verschiedene Rechenalgorithmen entwickelt, um die effektivste siRNA auszuwählen, wobei die Genauigkeit der Wirksamkeitsvorhersage nicht so zufriedenstellend ist. Viele existierende Berechnungsmethoden basieren auf Feature Engineering, was zu verzerrten und unvollständigen Features führen kann. Deep Learning verwendet nichtlineare Mapping-Operationen, um potenzielle Merkmalsmuster zu erkennen, und wurde als leistungsfähiger als bestehende maschinelle Lernverfahren angesehen.;-;-;-;https://link.springer.com/article/10.1186/s12864-018-5028-8 0ef44e47e3f074228a352222f8bdea02;de;;;3.3.;;;Über das Design eines Roboters mit drei Beinen von Computer Graphics In dieser Arbeit wird hier ein dreibeiniger Roboter vorgeschlagen, und die Bewegung des Roboters wird auf einem Farb-CRT-Bildschirm durch Computergrafik simuliert. Ein Strukturmodell des Roboters in einem Computer wird in Form eines Diagramms dargestellt. Einige Module im Robotermodell wurden implementiert und durch grafische Simulation demonstriert. Darüber hinaus werden einige Probleme an einem fortgeschrittenen Roboter diskutiert und eine Idee für den zukünftigen Roboter vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-68036-9_24 9d9f24139d88abbf697be0eeaf390f0f;de;;;3.3.;;;Ein intelligentes Fehlererkennungs-Wiederherstellungssystem für Multimedia-CSCW basierend auf Situationsbewusstsein: AEDRS Dieses Papier stellt das Design des AEDRS (An Adaptive Error Detection-Recovery System) vor, das auf situationsbezogener Middleware ausgeführt wird. Situationsbewusste Middleware stellt standardisierte Kommunikationsprotokolle bereit, um eine Anwendung mit anderen in sich dynamisch ändernden Situationen zu interagieren. Der Fokus des situationsbewussten Ubiquitous Computing hat in letzter Zeit zugenommen. Ein Beispiel für situationsbezogene Anwendungen ist ein multimediales Bildungssystem. Die Entwicklung von Multimedia-Computern und Kommunikationstechniken hat es ermöglicht, einen Geist von einem Lehrer zu einem Schüler in einer Fernumgebung zu übertragen. Dieses Papier schlägt einen Adaptive Fault Tolerance (AEDRS)-Algorithmus in einem situationsbezogenen Middleware-Framework vor und präsentiert sein Simulationsmodell für AEDRS-basierte Agenten. EDRA bietet mehrere Funktionen und Merkmale, die in der Lage sind, ein multimediales Fernunterrichtssystem zwischen Studenten und Lehrern während der Vorlesung zu entwickeln. AEDRS ist ein System, das zum Erkennen und Beheben von Softwarefehlern basierend auf einer verteilten Multimedia-Lernumgebung wie EDRA unter Verwendung von Softwaretechniken geeignet ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74282-1_57 a80c636bf31b7031378d383bf1cc9d87;de;;;3.3.;;;Datenbewegung im datenintensiven Hochleistungs-Computing Die Kosten für die Ausführung einer Gleitkomma-Operation sinken seit Jahrzehnten mit einer viel höheren Rate als die des Verschiebens von Daten. Bandbreite und Latenz, zwei wichtige Metriken, die die Kosten für das Verschieben von Daten bestimmen, haben sich im Verhältnis zur Prozessorzykluszeit und Ausführungsrate erheblich verschlechtert. Trotz der Beschränkung der Sub-Mikron-Prozessortechnologie und des Endes der Dennard-Skalierung wird sich dieser Trend kurzfristig fortsetzen und die Datenbewegung zu einem leistungsbegrenzenden Faktor und zu einem Problem bei der Energieeffizienz und Energieeffizienz machen. Dies gilt umso mehr im Zusammenhang mit großen und datenintensiven Systemen und Workloads. Dieses Kapitel gibt einen Überblick über die Aspekte des Verschiebens von Daten über ein System, vom Speichersystem über das Computersystem bis hin zur Knoten- und Prozessorebene, mit Fallstudien und Beiträgen von Forschern des San Diego Supercomputer Center, des Oak Ridge National Laboratory , das Pacific Northwest National Laboratory und die University of Delaware.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-33742-5_3 4830fba27b1aa529e037c9433353da94;de;;;3.3.;;;Multilayered Feedforward Neural Network (MLFNN) Architektur als bidirektionaler assoziativer Speicher (BAM) für die Speicherung und den Abruf von Mustern Zwischen zwei gängigen KNN-Architekturen – Feedforward und Feedback, auch bekannt als rekurrent – ​​wurden Feedback-Architekturen aufgrund ihrer Feedback-Verbindungen häufig für Gedächtnis- und Abrufaufgaben verwendet. Aufgrund der inhärent einfacheren Dynamik von FNNs wurden diese Strukturen in der vorliegenden Arbeit für Assoziationsaufgaben untersucht. Als Variation des Standard-BP-Algorithmus wurde ein zweiphasiger BP-Algorithmus vorgeschlagen, um MLFNNs zu trainieren, sich als assoziatives Gedächtnis zu verhalten. Die so gesammelten Ergebnisse zeigen, dass sich MLFNN mit dem vorgeschlagenen Algorithmus als assoziatives Gedächtnis verhält und die Abruffähigkeit für beschädigte Versionen der gespeicherten Muster mit BAM vergleichbar ist, jedoch mit geringerer Zeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8657-1_23 34a49c9525f88a5eee770879cbf3666d;de;;;3.3.;;;DCHD-3T: Frühdiagnose angeborener Herzerkrankungen in WBAN-Cloud mit dreistufiger Netzwerkarchitektur – eine effiziente Lösung Die meisten aktuellen Forschungsarbeiten haben nur die allgemeine Erkennung von Anomalien diskutiert. Diese vorgeschlagene Arbeit zielt darauf ab, einen angeborenen Herzfehler (KHK) bei Neugeborenen zu diagnostizieren. Durch die Überwachung verschiedener physiologischer Parameter bei Neugeborenen wird KHK bei Neugeborenen in einem frühen Stadium erkannt. Die entworfene WBAN-Umgebung ist;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6772-4_47 2e9ed430c17ad397c8df13477c0a5819;de;;;3.3.;;;Sicherheitshinweise in einem virtuellen Bearbeitungsprozess: Der Einsatz von Motion Capture zur Entwicklung einer VR-App für industrielle Sicherheitszwecke Sicherheit in der Industrie ist seit 1950 immer ein wichtiges Thema, die Einhaltung von Sicherheitsstandards kann Unfälle und Unfälle während des gesamten Herstellungsprozesses, beispielsweise beim Betrieb einer Drehmaschine, reduzieren. Andererseits sind die Preise für moderne HMDs (z. B. Oculus, HTC VIVE) gesunken, und die Zahl der Entwickler hat weltweit zugenommen, sodass die virtuelle Realität des letzten Jahrzehnts in einer Vielzahl von Anwendungen verwendet wurde Sektoren. Diese Arbeit zeigt einen Prozessablauf zum Aufbau einer virtuellen Umgebung für die Schulung von Bedienern in Sicherheitsanweisungen für den Drehmaschinenbetrieb, bei dem Motion Capture verwendet wird. Die virtuelle Umgebung entspricht unseren realen Einrichtungen, in denen das Gebäude mithilfe eines Laserscanners modelliert wurde, um die physischen Maße und die Verteilung zu erhalten, die Körperform des Trainers wurde ebenfalls modelliert und ihre Bewegungen wurden erfasst, um die virtuelle Umgebung immersiver zu gestalten Schulung von Bedienern (dh sie sehen die virtuelle Umgebung genauso wie die realen Einrichtungen). Basierend auf den entwickelten Methoden und der Aufnahmebewegung zum Erstellen des Avatars, der den Bedienern beibringt, Sicherheitsanweisungen zu befolgen, stellten wir fest, dass sich die Teilnehmer beim Gehen durch die virtuelle Umgebung tief und wohl fühlten. Sie hörten auch sehr aufmerksam auf die Sicherheitsanweisungen von Avatar des Trainers. Dies lag an der emotionalen Verbindung zwischen dem Trainer und den Teilnehmern, die sich vor dem Test trafen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-62554-2_19 a5f65544ceb94becd660d7eb217cd9f8;de;;;3.3.;;;Eine neuartige Architektur mit mehreren Stützvektoren für die Vorhersage chaotischer Zeitreihen Inspiriert vom sogenannten „Divide-and-Conquer“-Prinzip, das häufig verwendet wird, um ein komplexes Problem durch Aufteilen in einfachere Probleme anzugehen, wird eine zweistufige Architektur mit mehreren Support-Vektor-Maschinen (SVMs) vorgeschlagen, um die Vorhersagegenauigkeit zu verbessern und Generalisierungsleistung für die Vorhersage chaotischer Zeitreihen. Der Fuzzy-C-Means-(FCM)-Clustering-Algorithmus wird in der ersten Stufe verwendet, um den Eingabedatensatz in mehrere Subnetze zu unterteilen. Dann werden in der zweiten Stufe mehrere SVMs, die am besten zu partitionierten Teilmengen passen, durch den Gaußschen Radialbasisfunktionskern und die optimalen freien Parameter der SVMs konstruiert. Alle Modelle werden durch chaotische Mackey-Glass-Zeitreihen ausgewertet und für die Kohlebergwerksgaskonzentration im Experiment verwendet. Die Simulation zeigt, dass die Mehrfach-SVMs eine deutliche Verbesserung der Generalisierungsleistung im Vergleich zum Einzel-SVM-Modell erzielen. Darüber hinaus konvergieren die mehreren SVMs auch schneller und verwenden weniger Unterstützungsvektoren.;-;-;-;https://link.springer.com/chapter/10.1007/11881070_25 e980a6ca8ea3fb70bfde0d408ae020a6;de;;;3.3.;;;Eine neuartige Systemarchitektur für die nationale Integration elektronischer Patientenakten: ein halbzentraler Ansatz Das Ziel eines nationalen Integrationssystems für elektronische Patientenakten besteht darin, elektronische Patientenakten über einen bestimmten Patienten in den Systemen verschiedener Gesundheitsdienstleister zusammenzufassen, um eine vollständige Krankengeschichte des Patienten bereitzustellen. Es verspricht, die beiden wichtigsten Herausforderungen für die Gesundheitssysteme anzugehen: die Verbesserung der Gesundheitsqualität und die Kostenkontrolle. Typische Ansätze für die nationale Integration elektronischer Patientenakten sind eine zentralisierte Architektur und eine verteilte Architektur. Dieses Papier schlägt einen neuen Ansatz für die nationale Integration elektronischer Patientenakten vor, den semi-zentralen Ansatz, eine Zwischenlösung zwischen der zentralisierten Architektur und der verteilten Architektur, die die Vorteile beider Ansätze bietet. Der semi-zentrale Ansatz ist mit einer klar definierten Architektur versehen. Die vom System benötigten Hauptdatenelemente werden definiert und die Hauptsystemmodule, die notwendig sind, um eine effektive und effiziente Funktionalität des Systems zu erreichen, werden entworfen. Best Practices und grundlegende Anforderungen sind von zentraler Bedeutung für die Entwicklung der vorgeschlagenen Architektur. Die vorgeschlagene Architektur wird die Grundlage für den Entwurf der einfachsten und effektivsten Systeme zur landesweiten Integration elektronischer Patientenakten bilden, die die Integrität und Konsistenz über Standorte, Zeit und Systeme hinweg aufrechterhalten und die Herausforderungen der Interoperabilität, Sicherheit und Privatsphäre erfüllen , Wartbarkeit, Mobilität, Verfügbarkeit, Skalierbarkeit und Lastenausgleich.;-;-;-;https://link.springer.com/article/10.1007/s10916-013-9953-4 e753f34ac20f0e448013d5f27f246549;de;;;1.1.;;;Handskizzenentwurf — eine neue Möglichkeit zur Gestaltung der Benutzeroberfläche von CAD-SystemenDie Akzeptanz von CAD-Systemen ist eng mit der Güte ihrer Handhabung verknüpft. Die derzeitige Vorgehensweise beim rechnerunterstützten Konstruieren ist dadurch geprägt, daß der Bearbeiter ein in seiner Vorstellung vorhandenes Konstruktionsobjekt nicht direkt auf ein CAD-System übertragen kann. Er ist i.a. gezwungen, sein mentales Modell gedanklich so zu gliedern und zu segmentieren, daß es mit verfügbaren CAD-Funktionen generierbar ist. Die dabei anzuwendenden Techniken erfordern in der Regel systemtechnisches Verständnis und entsprechen meist nicht der vertrauten Arbeits- und Vorgehensweise beim Konstruieren. Bedingt durch die extrem schnelle Leistungssteigerung von Hardware- und Softwaresystemen unterliegt aber auch das Konstruktionsgeschehen einem strukturellen Wandel und bedarf einer ständigen Anpassung an das Leistungsvermögen von CAD-Systemen. In diesem Spannungsfeld bewegt sich die Diskussion um die Definition und Bereitstellung einer idealen Benutzeroberfläche für CAD-Systeme. Der vorliegende Beitrag beschreibt einen Vorschlag für den Entwurf von CAD-Modellen, der eine sehr starke Affinität zur konventionellen Arbeitsweise mittels Entwurfskizzen besitzt und bereits prototyphaft realisiert wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-74127-2_51 f7d93be2dc1d6f9017dba3fdf1be41d0;de;;;1.1.;;;Empirische Untersuchung zur Messung von KonsumentenverwirrtheitEin zentrales Anliegen dieser Arbeit ist die Erklärung des Konstrukts der KVW und des Zusammenhangs zwischen ihren postulierten Dimensionen und möglichen Verhaltenskonsequenzen. Die theoretische Grundlage und Notwendigkeit einer empirischen Untersuchung ergeben sich aus den aufgezeigten Forschungsdefiziten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-90145-3_5 f3d18276452c98aec9512f9bd5b8538e;de;;;3.3.;;;Verfeinerung des Prüfstands mit verschiedenen Priorisierungstechniken zur Sicherung der Software-Qualität Testentwicklung ist eine teure Technik. Testsuite-Speicherung für die Softwareanwendung, mit der Testfälle aus der Suite für die Softwarepflege verwendet werden können. Wir schlagen vor, einen Specification Analyzer zu entwickeln, der Spezifikationen wie Statement Coverage, Code Coverage für die Generierung effizienter Testfälle aus der Testsuite akzeptiert. Der Spezifikationsanalysator vergleicht die Informationen zu den Techniken wie Präzision, Effizienz, Inklusivität und Allgemeinheit. Das Tool zur Fehlererkennung bietet die minimierte Größe der Testsuite, die die obigen Kriterien erfüllt. Durch die Reduzierung der Testsuitegröße können wir die Ausführungskosten und -zeit, die Validierung und das Management der Testfälle aus der Suite für zukünftige Versionen der Software reduzieren und die Fehlererkennungsfähigkeit durch die Wiederverwendung der verfeinerten Testfälle aufrechterhalten. Die Priorisierungsmethode erhöht die Zeiteffektivität bei der Fehlererkennung. Eine verbesserte Fehlererkennungsrate kann eine schnellere Rückmeldung des zu testenden Systems liefern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25734-6_113 2ddef542fae15e8598248efad307360b;de;;;3.3.;;;Ein Rahmen zur Messung der Ausrichtung zwischen Geschäftsprozessen und Softwaresystemen Der zwischen einem Geschäftsprozess und den unterstützenden Softwaresystemen bestehende Ausrichtungsgrad beeinflusst stark die Leistung einer Geschäftsprozessausführung. Es werden Methoden benötigt, um die Ausrichtung zu messen und einen Geschäftsprozess mit einem unterstützenden Softwaresystem ausgerichtet zu halten, selbst wenn sich eines der beiden entwickelt. Tatsächlich kann jede Änderung, die in den Geschäftsprozessaktivitäten und/oder dem unterstützenden Softwaresystem durchgeführt wird, die Prozessaktivitäten und/oder die Softwaresystemkomponente beeinflussen und daher eine Fehlausrichtung verursachen. Dieses Papier schlägt einen Rahmen vor, der eine Reihe von Metriken umfasst, die das Ausrichtungskonzept mit dem Ziel kodifizieren, es zu messen und Fehlausrichtungen zu erkennen, wenn sie auftreten. Die Anwendung des Frameworks wird an einem Beispiel gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10619-4_26 079c3cb3e3f55c376d09358f15358feb;de;;;3.3.;;;Stromsteuernde Hochgeschwindigkeits-D/A-Wandler für die Kommunikation Moderne integrierte Breitbandkommunikationsschaltungen erfordern als grundlegende Teilschaltungen Digital-Analog-Wandler (DAC), die sowohl hohe Geschwindigkeit als auch hohe Auflösung aufweisen [1]. DACs mit großer Bitzahl, die bei Abtasttaktfrequenzen im Bereich von Hunderten von MHz arbeiten, werden weiterhin benötigt, was eine Datenkonvertierung mit Nyquist-Rate vorschreibt, beispielsweise um digitale Bitströme vor Aufwärtsmischern in zeitkontinuierliche Signale umzuwandeln vor HF-Sendern in drahtlosen Systemen oder zum Antreiben digitaler Kabelkommunikationsmodems. Diese hohen Raten wurden bisher auch von hochauflösenden Displays für Computergrafik und moderne HDTV-Systeme benötigt, für die die Zeitbereichsleistung von größter Bedeutung ist, obwohl die spektralen Leistungsanforderungen für Kommunikations-ICs, in denen DACs zur Synthese verwendet werden, viel strenger sind komplexe Wellenformen, für die eine hohe Leistung im Frequenzbereich erreicht werden muss [2]. Die Entwicklung zukünftiger Mobilkommunikationssysteme (einschließlich sowohl 3G-Endgeräten als auch Basisstationen) sowie die voraussichtliche Verwendung von allgegenwärtigen Kommunikationssystemen werden das Vertrauen in leistungsstarke DAC-Umwandlungsstufen fortsetzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-3724-0_3 7e60b5d57a1de37b5542faa7b540645f;de;;;3.3.;;;Ein neuartiges künstliches neuronales Netzwerk mit räumlicher Architektur basierend auf einem mehrschichtigen Feedforward-Netzwerk mit gegenseitiger Hemmung zwischen versteckten Einheiten Wir schlagen ein räumliches künstliches neuronales Netzwerk (SANN) mit räumlicher Architektur vor, das aus einem mehrschichtigen neuronalen Feedforward-Netzwerk mit versteckten Einheiten besteht. Darüber hinaus wird ein überwachter Lernalgorithmus basierend auf Fehlerrückausbreitung entwickelt. Das vorgeschlagene Netzwerk hat eine überlegene Verallgemeinerungsfähigkeit in Simulationen mit Mustererkennungs- und nichtlinearen Funktionsapproximationsproblemen gezeigt. Und das Experiment zeigte auch, dass SANN in der Lage ist, lokale Minima-Probleme zu vermeiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21105-8_57 54a4a3f8ea512b3b7cb457a3af1f3cc6;de;;;3.3.;;;: Testen von agentenorientiertem Software Engineering in Home Intelligence Ambient Intelligence ist ein interessantes Forschungsanwendungsgebiet für Multi-Agenten-Systeme im Allgemeinen und für agentenorientiertes Software Engineering im Besonderen. In diesem Beitrag konzentrieren wir uns auf die methodische Unterstützung, die agentenorientierte Methoden für solche Systeme bieten können: Wir diskutieren;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11819-7_16 7813ada01f22e9f86c5cf76ebf56873c;de;;;3.3.;;;Kommunikationstechnologie zwischen Unterstationen des Sicherheits- und Stabilitätskontrollsystems basierend auf IEC61850 Die traditionelle Kommunikationstechnologie zwischen Unterstationen des Sicherheits- und Stabilitätskontrollsystems (SSC) weist einige inhärente Mängel auf. Es entspricht nicht dem Trend der aktuellen technologischen Entwicklung und schränkt die Erweiterung und Anwendung von SSC ein. Gemäß der Norm IEC 61850-90-1 wird in diesem Papier eine neue Kommunikationstechnologie zwischen Unterstationen basierend auf IEC61850 in SSC unter Verwendung der intelligenten Prozessschicht GOOSE-Kommunikationstechnologie vorgeschlagen. Die Schlüsseltechnologie der Kommunikationsnetzwerkarchitektur, Kommunikationskapazitätskontrolle, Datenflusskontrolle und Visualisierung der Entkopplungskonfiguration wird gründlich erforscht und das typische Projekt des brasilianischen Belo Monte SSC-Projekts wird vorgestellt. Diese Technologie hat mehrere Vorteile, wie stabile und zuverlässige Kommunikation, Datenübertragungskapazität, Wiederverwendbarkeit und Interoperabilität. Es kann den Bedarf an Informationsaustausch zwischen Umspannwerken decken und repräsentiert die Entwicklungsrichtung der Kommunikationstechnologie von SSC.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9783-7_42 e854dad04316335f3a5a37c555bc272e;de;;;3.3.;;;Bildungs- und Forschungssysteme zur Bewertung der Effizienz paralleler Berechnungen In diesem Papier betrachten wir die Bildungs- und Forschungssysteme, die verwendet werden können, um die Effizienz des parallelen Rechnens zu schätzen. ParaLab ermöglicht das Studium paralleler Berechnungsmethoden. Mit der ParaLib-Bibliothek können wir die parallelen Programmiersprachen und Technologien vergleichen. Das Globalizer Lab-System ist in der Lage, die Effizienz von Algorithmen zur Lösung rechenintensiver globaler Optimierungsprobleme abzuschätzen. Diese Systeme können verschiedene Hochleistungssysteme modellieren, die zu lösenden Probleme formulieren, rechnerische Experimente im Simulationsmodus durchführen und die Ergebnisse analysieren. Entscheidend ist, dass die beschriebenen Systeme eine visuelle Darstellung des parallelen Rechenprozesses unterstützen. In Kombination können diese Systeme nützlich sein, um leistungsstarke Parallelprogramme zu entwickeln, die die Besonderheiten moderner Supercomputing-Systeme berücksichtigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49956-7_22 de0550acbc4353c032021c50f30bc179;de;;;3.3.;;;Forschung zu einer Art Web-basiertem Distributed Forest Remote Sensing Parallel Processing Service Heutzutage verwenden viele Wissenschaftler nur Desktop-EO-Datenverarbeitungssoftware, um ihre spezifischen Algorithmen auszuführen. Diese nützlichen Algorithmen können die schnelle riesige Rechenfläche nicht anpassen und von anderen sinnvoll genutzt werden. Die gemeinsame Nutzung der EO-Algorithmen und die Beseitigung der einsamen Insel der Informationen erfordern neue Informations- und Kommunikationstechnologien wie Software as a Service. Das Ziel dieser Forschung ist die Bereitstellung von webbasierten verteilten Fernerkundungs-Parallelverarbeitungsdiensten für Forstforscher und -pädagogen. Diese Dienste verwenden die SaaS-Konzeption, um eine einheitliche Mensch-Maschine-Schnittstelle für das Hochladen von Benutzerdaten und die schnelle Verbreitung der Ergebnisse im Web bereitzustellen. Die Geo-Computing-Dienste in der HPC-Umgebung werden unter Verwendung der SIRGE-Middleware und der SIGApp-Middleware in eine Grid-basierte Infrastruktur integriert. Der Arbeitsablauf dieses Versuchssystems und einige Serviceergebnisse werden dargestellt und diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22418-8_82 c6814878c2588b18d1e97b9ddb7906fd;de;;;1.1.;;;Gegenwärtige Situation der AS-Planung im GroßunternehmenIm Mittelpunkt von Kapitel 3 steht die Charakterisierung der Situation des Umfeldes und der AS-Planung, wie sie derzeitig in Großunternehmen vorzufinden ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-97753-3_3 e0fedf16f8be9f4537530685666fb8f3;de;;;3.3.;;;DOM/XML-basierte tragbare genetische Darstellung der Morphologie, des Verhaltens und der Kommunikationsfähigkeiten evolvierbarer Agenten Dieser Artikel präsentiert die Ergebnisse unserer Arbeit zur Rolle der genetischen Repräsentation bei der Erleichterung der schnellen Gestaltung eines effizienten Offline-Lernens durch genetische Programmierung (GP). Ein Ansatz, der den weit verbreiteten Standard Document Object Model/Extensible Markup Language (DOM/XML) für die Darstellung genetischer Programme und handelsübliche DOM-Parser mit integrierter Anwendungsprogrammierschnittstelle (API) zu deren Manipulation verwendet wird vorgeschlagen. Dieser Ansatz bedeutet eine signifikante Zeitersparnis bei der normalerweise langsamen Softwareentwicklung von GP und bietet einen generischen Weg, um die Reduzierung des Rechenaufwands zu erleichtern, indem der Suchraum der genetischen Programmierung begrenzt wird, indem nur semantisch korrekte genetische Programme behandelt werden. Das Konzept wird durch stark typisierte genetische Programmierung (STGP) erreicht, bei der die Verwendung des vom W3C empfohlenen Standard-XML-Schemas als generische Methode zur Darstellung und Durchsetzung der Grammatikregeln in STGP vorgeschlagen wird. Die dem vorgeschlagenen Ansatz zugrunde liegenden Ideen werden durch die Implementierung von GP in das sich entwickelnde Sozialverhalten von Agenten bei Problemen bei der Verfolgung von Räubern und Beutetieren bestätigt.;-;-;-;https://link.springer.com/article/10.1007/s10015-004-0288-6 5b3c94b3ec0c693d25e1849a94e586d5;de;;;3.3.;;;Analyse paralleler Implementierungen von Sphärendecodern mit fester Komplexität Sphere-Decoder werden in großem Umfang für die Implementierung von Multiple-Input-Multiple-Output-(MIMO)-Erkennung untersucht. Unter einer großen Anzahl von Sphären-Decodierungsalgorithmen weist der Sphären-Decodierer (FSD) mit fester Komplexität bemerkenswerte Vorteile in Bezug auf konstanten Durchsatz und hohe Flexibilität der parallelen Implementierung auf. In diesem Papier präsentieren wir eine parallele FSD-Architektur mit vier Knoten pro Zyklus mit ausgewogener Leistung und Hardwarekomplexität sowie mehrere Beispiele für die VLSI-Implementierung für verschiedene Modulationsarten und sowohl reale als auch komplexe Signalmodelle. Implementierungsaspekte und Architekturdetails werden analysiert, um eine Perspektive der FSD-Implementierung auf Hardwareebene darzustellen. Daher werden eine Vielzahl von Kompromissen zwischen Leistung und Komplexität bereitgestellt. Die Implementierungsergebnisse zeigen, dass die vorgeschlagene parallele FSD-Architektur hocheffizient und flexibel ist, insbesondere im komplexen Signalmodell.;-;-;-;https://link.springer.com/article/10.1007/s11432-011-4441-2 bcba7b154766347b042a79c73141ab18;de;;;3.3.;;;Asynchrones Layered Interface von Multimedia-SoCs für mehrere ausstehende Transaktionen In diesem Papier wird eine neuartige asynchrone geschichtete Schnittstelle für einen hochleistungsfähigen On-Chip-Bus in einem global asynchronen lokal synchronen (GALS) Stil entworfen. Die vorgeschlagene asynchrone geschichtete Schnittstelle mit verteilten und modularisierten Steuereinheiten unterstützt mehrere herausragende Transaktionen in der Reihenfolge/außerhalb der Reihenfolge, um eine hohe Leistung zu erzielen. In der geschichteten Architektur wird die Erweiterung einer asynchronen geschichteten Schnittstelle, die komplexe Funktionen durchführt, leicht erreicht, ohne die Implementierung der gesamten Busschnittstelle zu wiederholen. Simulationen werden durchgeführt, um die Leistung und den Stromverbrauch des implementierten asynchronen On-Chip-Bus mit der vorgeschlagenen asynchronen geschichteten Schnittstelle zu messen. Simulationsergebnisse zeigen, dass der Durchsatz des asynchronen On-Chip-Busses mit mehreren ausstehenden Out-of-Order-Transaktionen um 30,9 % erhöht wird, während der Stromverbrauchs-Overhead 16,1 % und der Flächen-Overhead 56,8 % im Vergleich zum asynchronen On-Chip-Bus beträgt mit einer einzigen ausstehenden Transaktion.;-;-;-;https://link.springer.com/article/10.1007/s11265-006-0019-4 bffcd12f81a5fdacd3a40403da7edc30;de;;;3.3.;;;Eine heuristische Qubit-Platzierungsstrategie für die Nearest Neighbor Realization in 2D-Architektur In letzter Zeit hat Quantencomputing aufgrund der Vorteile, die es bei der effizienten Lösung einiger Probleme im Vergleich zu konventionellem Computing bietet, große Aufmerksamkeit der Forscher auf sich gezogen. Es gibt jedoch mehrere Designherausforderungen, die für verschiedene Quantentechnologien erfüllt werden müssen, um einen zuverlässigen Quantenbetrieb durchzuführen. Eine solche wesentliche Anforderung erfordert die Aufrechterhaltung der Nachbarschaftsorganisation der arbeitenden Qubits, die als Nächster-Nachbar-(NN-)Beschränkung bezeichnet wird. Dies kann durch das Einfügen von SWAP-Gates behoben werden, das hilft, ein NN-konformes Design zu synthetisieren, indem die Positionen der Qubits ausgetauscht werden. Folglich erhöht sich der Kostenaufwand der Schaltung aufgrund der SWAP-Gate-Einfügung, wenn die Anzahl der Gatter in der Schaltung zunimmt, wodurch sich in letzter Zeit die Nutzung verschiedener Ansätze zur Lösung dieses Problems als wesentlich erwiesen hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-5950-7_49 beb03ef9897a4fc53428479ad530b0a9;de;;;3.3.;;;Computational Physics auf Connection Machine Supercomputern Entwicklungen in Computerarchitekturen verändern die Art und Weise, wie wir Computerphysik betreiben. Datenparallele Programmiersprachen eliminieren unnötige Serialisierung, die die Parallelität in der Natur verdeckt, und ermöglichen es Wissenschaftlern, Computer auf höheren Ebenen zu programmieren. Massiv parallele Hardware-Designs ermöglichen sowohl eine höhere Leistung als auch ein besseres Preis-Leistungs-Verhältnis. In diesem Vortrag werde ich datenparallele Programmierung, Connection Machine (CM;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-84821-6_56 2c93136ca1e1459ca1337a15a85db9f1;de;;;3.3.;;;Neuartige CNN-Architektur für die Erkennung menschlicher Handlungen Die visuelle Inhaltsdarstellung für räumliche und Bewegungsmerkmale ist für viele Videoverarbeitungsanwendungen, einschließlich der Erkennung menschlicher Handlungen, unerlässlich. Die bestehenden Arbeiten verwendeten eine 3D-CNN-Architektur in zwei Strömen, einer für räumliche und einer für Bewegung oder RNN oder LSTM. In den letzten Tagen konzentrierte sich die Forschung darauf, die Fähigkeit von 2D-CNN für die Videodatendarstellung ohne RNN oder LSTM zu nutzen. Daher schlägt dieses Papier eine neuartige CNN-Architektur vor, um die Darstellung von Videosequenzen zu erlernen, indem räumliche Informationen zusammen mit zeitlichen Informationen als Eingabe in einem einzigen Stream zur Klassifizierung von Aktionen in Video bereitgestellt werden. Dies wird erreicht, indem das Intensitätsbild (räumlich) mit dem optischen Fluss (Bewegung) verkettet wird, der durch das vorgeschlagene Netzwerk namens Actionet kodiert wird. Das vorgeschlagene Actionet wurde mit HMDB51-, UCF101- und KTH-Datensätzen experimentiert, die mit einer mittleren Klassifikationsgenauigkeit von 98,82 %, 99,96 % bzw. 81 % eine gute Leistung zeigten. Die Effizienz der Darstellung wurde auch evaluiert, indem die erlernten Funktionen für das Training von Multi-SVM, KNN und ctree verwendet wurden, was ebenfalls gute Ergebnisse lieferte.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8221-9_217 e125dd40188833d8fc7fda9d1efc6c68;de;;;1.1.;;;Prinzipien erfolgreichen Informationsqualitätsmanagements im Lichte von Industrie 4.0Das Internet der Dinge, Industrie 4.0 und Big Data sind in aller Munde. Die Digitalisierung des Lebens schreitet mit großen Schritten voran. Die aktuelle EMC Studie spricht von 200 Mrd. Dingen die vernetzt werden, eine nie dagewesene Datenmenge erzeugen und mit Hilfe von Big Data Analytics zu neuen Erkenntnissen führen sollen, so zumindest die Hoffnung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-30991-6_19 4bcc3e1c5ce0de5dd12d03037b4d169c;de;;;3.3.;;;Design eines Sicherheitsalarmsystems basierend auf der LoRa-Technologie Um die Unzulänglichkeiten der herkömmlichen kabelgebundenen Verkabelung und Bereitstellung, einschließlich komplexer Konstruktion und hoher Kosten, zu überwinden, verwenden die meisten Sicherheitsalarmsysteme derzeit ZigBee, Wi-Fi und andere drahtlose Technologien, deren Kommunikationsentfernung jedoch stark begrenzt ist. Dieses Papier schlägt eine neue Art von drahtlosem Sicherheitsalarmsystem vor, das den LoRa-Hochfrequenzchip der SX1278-Serie verwendet und eine sternförmige Netzwerktopologie verwendet, um die Erfassung und Übertragung von Daten von Alarmmeldern über große Entfernungen zu erreichen. Es erfüllt die Nachfrage nach kostengünstiger, breiter Abdeckung für die Bereitstellung von Alarmnetzwerken. Durch Tests hat dieses drahtlose Sicherheitsalarmsystem die Vorteile einer langen Übertragungsdistanz, niedrigen Kosten, hoher Zuverlässigkeit und bequemer Vernetzung. Es bietet eine wichtige Referenz für Internet-of-Things-Anwendungen, die eine breite drahtlose Netzwerkabdeckung erfordern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-7025-0_29 bf3db4b09626e5ac98cbe875d423aaca;de;;;3.3.;;;Entwicklung eines unterstützenden Tools zur Formalisierung von Softwareanforderungen Die formale Spezifikation dokumentiert präzise das erwartete Verhalten des im Bau befindlichen Systems, was eine solide Grundlage für die Sicherstellung der Softwarequalität und die Erleichterung der Softwarewartung bietet. Die Beschreibung von Softwareanforderungen in formalen Spezifikationen bleibt jedoch eine Herausforderung für Praktiker und wird zu einem der Hindernisse für den breiten Einsatz formaler Methoden in der Industrie. Um dieses Problem zu lösen, beschreibt dieses Papier ein interaktives Werkzeug, das Designer bei der Formalisierung von Softwareanforderungen unterstützt. Es ruft informelle Anforderungen vom Designer ab und generiert automatisch das entsprechende Formalisierungsergebnis. Basierend auf einer in XML-Dateien gespeicherten Wissensdatenbank implementiert das Tool eine Kernengine zur Erstellung einer verständlichen Anleitung. Anhand einer Fallstudie zu einem Bankensystem wird die Wirksamkeit des Tools aufgezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39277-1_5 60402df4171aeb70dde36d1968cb9ec2;de;;;3.3.;;;Concern Metrics für modularitätsorientierte Modernisierungen Ein bekanntes Problem bei Legacy-Systemen ist das Vorhandensein von Querschnittsproblemen in ihrer Architektur, die die Wartungskosten behindern und erhöhen. Eine mögliche Lösung hierfür ist die Durchführung einer modularitätsorientierten Modernisierung mit dem Ziel, das Legacy-Softwaresystem zu restrukturieren, um seine Artefakte (Quellcode, Datenbank, andere) Qualität zu verbessern. Architecture-Driven Modernization (ADM) konzentriert sich auf die Modernisierung von Legacy-Softwaresystemen unter Verwendung der Konzepte der modellgetriebenen Architektur, des Software-Reengineering und der Standard-Metamodelle. Knowledge Discovery Metamodel (KDM) ist ein Standard von ADM, der in der Lage ist, Softwaresysteme mittels zu modernisierender KDM-Instanzen abzubilden. Ein wesentlicher Bestandteil des Modernisierungsprozesses besteht darin, beide KDM-Versionen, die Legacy- und die modernisierte, zu messen. Die Messung von Legacy-KDM-Instanzen ermöglicht es dem Software-Ingenieur, die bestehenden Probleme zu quantifizieren, während die Messung der modernisierten es ermöglicht, zu überprüfen, ob die Probleme gelöst wurden oder nicht. Structured Metrics Metamodel (SMM) ist ein Metamodell, das verwendet werden kann, um Metriken anzugeben, die auf KDM-Instanzen angewendet werden sollen. Obwohl die meisten der bekannten Metriken von SMM unterstützt werden, gibt es jedoch keine Studie, die untersucht, wie SMM verwendet werden könnte, um Bedenken-Metriken zu spezifizieren. Wir stellen vor, wie SMM verwendet werden kann, um Betroffenheitsmetriken zu spezifizieren und ein Werkzeug zur Unterstützung dieses Messprozesses, das die Durchführung von modularitätsorientierten Modernisierungen ermöglicht, um die Qualität des Modernisierungsprozesses sicherzustellen. Darüber hinaus besprechen wir auch einige Herausforderungen, die beim Qualitätsmessungsprozess im ADM-Blueprint zu bewältigen sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29238-6_16 4ef47eca1314d16887e5ada6ab8ee4b7;de;;;3.3.;;;Verwendung von Kompositionsbäumen zum Modellieren und Vergleichen von Softwareprozessen Softwareprozesse, die durch natürliche Sprachen beschrieben werden, sind häufig mehrdeutig und es ist normalerweise schwierig, die Ähnlichkeit und den Unterschied zwischen einem in einem Standard definierten Prozess und seinem in einem anderen Standard definierten Gegenstück zu vergleichen. Dieses Papier schlägt Composition Tree (CT) als grafische Sprache vor, um Softwareprozesse basierend auf ihrem Zweck und den erwarteten Ergebnissen zu modellieren. CT ist eine formale grafische Notation, die ursprünglich für die Modellierung von komponentenbasierten Softwaresystemen entwickelt wurde. Dieser Beitrag zeigt, dass CT eine leistungsfähige Notation sein kann, um auch einen Softwareprozess klar und eindeutig zu beschreiben. Dieses Papier untersucht auch einen Algorithmus, der zwei CT-modellierte Prozesse vergleichen kann und eine intuitive Ansicht bietet, die als Vergleichskompositionsbaum (CCT) bezeichnet wird, um die Unterschiede und Ähnlichkeiten zwischen den beiden Prozessen hervorzuheben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21233-8_1 3b66076cb3ab7a3c57e33368df61654e;de;;;3.3.;;;Kognitive Entscheidungseinheit für autonome Roboter Ein neuartiger Ansatz, Roboter mit menschenähnlichen Fähigkeiten auszustatten, ist die Metapsychologie – die theoretische Grundlage der Psychoanalyse. Wir haben die Metapsychologie als Archetyp für einen Entscheidungsfindungsrahmen verwendet, um einen Roboter zu steuern. Dies wurde kürzlich in Theorie und Simulation erreicht. Beim Umstieg auf eine echte Roboterplattform müssen jedoch zusätzliche Dinge beachtet werden. In diesem Artikel zeigen wir, wie die Lücke zwischen Wahrnehmung, Umweltinteraktion und Entscheidungsfindung geschlossen werden kann, indem diese Themen mit den internen Bedürfnissen eines Agenten unter Verwendung der Konzepte der Metapsychologie geerdet werden. Der Einsatz der gemeinsamen humanoiden Roboterplattform NAO zwang uns, mit komplexen Situationen und gestörten Sensormesswerten umzugehen. Ein implementiertes visuelles Markererkennungssystem hilft bei der Erkennung von Objekten in der Umgebung, die Energiequellen darstellen. Wir zeigen, wie es möglich ist, mit dem psychoanalytisch inspirierten Framework ARS eine reale Anwendung, den Roboter NAO, zu steuern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34781-8_11 49b5d397543edc06135e6a13b53192f8;de;;;3.3.;;;Fahrermüdigkeitserkennung mit hybridem neuronalen Faltungsnetz und langem Kurzzeitgedächtnis Schläfrigkeit und Müdigkeit der Fahrer gehören zu den wesentlichen Ursachen für Autounfälle. Jedes Jahr steigt die Zahl der Toten und Getöteten aufgrund vielfältiger Fragestellungen enorm und erfordert fortan ein intelligentes Verarbeitungssystem zur Unfallvermeidung. In diesem Zusammenhang wird ein effektives Fahrermüdigkeitserkennungssystem vorgeschlagen. Die Hauptherausforderungen sind die Robustheit des Algorithmus gegenüber Variationen des menschlichen Gesichts und die Echtzeit-Verarbeitungsfähigkeit. Die erste Herausforderung in Bezug auf die Gesichtsvariation wurde mit konventioneller Bildverarbeitung und handwerklichen Funktionen von Computer-Vision-Algorithmen gut gemeistert. Variationen wie Gesichtsausdruck, Lichtverhältnisse, Variationen innerhalb der Klasse und Variationen der Pose sind jedoch zusätzliche Probleme, die mit herkömmlichen Methoden nicht angegangen werden konnten. Deep Learning ist eine alternative Lösung, die durch automatisches Lernen von Funktionen eine bessere Leistung bietet. Daher schlug dieses Papier ein neues Konzept zur Handhabung der Echtzeit-Erkennung von Fahrermüdigkeit unter Verwendung des Hybrids aus Convolutional Neural Network (CNN) und Long Short-Term Memory (LSTM) vor. Die Leistung des Systems wurde mit dem öffentlichen Datensatz für schläfrige Fahrer des ACCV 2016-Wettbewerbs getestet. Die Ergebnisse zeigen, dass es die früheren Schemata in der Literatur übertreffen kann.;-;-;-;https://link.springer.com/article/10.1007/s11042-018-6378-6 5729bcdab66bb22113ca9f9be8c9bb4b;de;;;3.3.;;;Ein Ansatz zur Echtzeit-Risikoanalyse für Gefahrguttransporte Die Echtzeit-Risikoanalyse ist der kritische Punkt bei der Überwachung, Warnung und Umleitung von Gefahrguttransporten (HMT). In diesem Beitrag schlagen wir einen Echtzeit-Risikoanalyseansatz basierend auf dem Internet der Dinge (IoT) vor, der das Risiko zu diskreten Zeitpunkten während des gesamten Transportprozesses dynamisch bewertet Überwachung von Daten, die durch IoT-Techniken gesammelt werden. Zur Ermittlung möglicher Unfallfolgen wird Areal Location of Hazardous Atmospheres (ALOHA) verwendet, um die Unfallszenarien zu simulieren und die Einflussbereiche abzuschätzen. Die exponierte Bevölkerung kann mit der Schnittstelle des Intelligenten Verkehrssystems (ITS) berechnet werden. Darüber hinaus bietet unser Ansatz eine genauere Möglichkeit, das HMT-Risiko dynamisch zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29977-3_36 4a6de282c92a8f0a2774b5f02b12125d;de;;;3.3.;;;Datenvorverarbeitung mit intelligenten Agenten Knowledge Discovery in Database zielt darauf ab, die Datenbanken auf aussagekräftige Muster und Informationen zu diesen zu analysieren. Data Mining ist der Prozess in KDD, der Muster und Wissen aus verschiedenen Datenbankquellen oder sogar aus verschiedenen Datenbanken identifiziert. Obwohl Data Mining in der realen Welt eine sehr wichtige Rolle spielt, liefert das Mining von Daten in der Datenbank aufgrund verschiedener realer Probleme wie Dateninkonsistenzen keine korrekten Ergebnisse. Da kommt die Bedeutung der Datenvorverarbeitung, bei der die Inkonsistenzen der Daten beseitigt werden. Dieses Whitepaper bietet das Design und die Entwicklung intelligenter Software, die eine agentenbasierte Datenvorverarbeitungsumgebung verwendet, um die Datenverarbeitungsaktivitäten zu verbessern, was wiederum die Qualität der zu gewinnenden Daten verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35314-7_23 5cd7e16cc1a11621683e78863c4be579;de;;;1.1.;;;Die G8-Reform in Baden-Württemberg: Kompetenzen, Wohlbefinden und Freizeitverhalten vor und nach der ReformDie Konsequenzen der Einführung des achtjährigen Gymnasiums (G8) werden in Politik und Öffentlichkeit kontrovers diskutiert, u. a. weil es lange an belastbaren empirischen Daten mangelte. Der vorliegende Beitrag untersucht die Frage, ob sich Abiturientinnen und Abiturienten aus G8- und G9-Jahrgängen in Baden-Württemberg im Hinblick auf verschiedene Kompetenzbereiche sowie in ihren Selbstberichten zu ihrer schulischen Beanspruchung, ihren gesundheitlichen Beschwerden und in ihrem Freizeitverhalten unterschieden. Die Analysen beruhen auf Daten von vier Kohorten der Zusatzstudie Baden-Württemberg des Nationalen Bildungspanels: der letzte reine G9-Jahrgang (;-;-;-;https://link.springer.com/article/10.1007/s11618-017-0737-3 a6c5dcba3327b9f34b7f4d30b1f5d34d;de;;;1.1.;;;Urteilsbildung und WahnEine Studie zum Urteilsverhalten von wahrhaften, depressiven und gesunden ProbandenDas Phänomen Wahn steht seit jeher im Zentrum des psychiatrischen Interesses. Die in der Vielzahl von Hypothesen zur Wahnentstehung diskutierten Ursachen reichen von Störungen der Wahrnehmung oder des Affektes bis hin zu kognitiven Störungen. In unserer Untersuchung mit 20 wahnhaften, 20 depressiven und 20 gesunden Probanden gingen wir der Frage nach, ob sich zwischen den drei genannten Gruppen Unterschiede im Urteilsverhalten während einer neutralen Testsituation aufzeigen lassen. Unsere Hypothese dabei war, daß wahnhafte Probanden zur Urteilsbildung deutlich weniger Information heranziehen und an ihren einmal gefällten Urteilen rigider festhalten, als dies bei einer gesunden und depressiven Kontrollgruppe der Fall ist. Zur Überprüfung der Hypothesen wurde eine modifizierte Version des “Probabilistic Inference Task” von Philips and Edwards eingesetzt. Zusammenfassend zeigte sich, daß die Gruppe der wahnhaften Probanden zur Entscheidungsfindung signifikant weniger Informationen als die beiden Kontrollgruppen benötigte. Das Urteilsverhalten insgesamt erschien bei den wahnhaften Probanden deutlich impulsiver und weniger auf formallogisch nachvollziehbaren Kriterien beruhend als dies in den beiden anderen Probandengruppen der Fall war.;-;-;-;https://link.springer.com/article/10.1007/s001150050527 22a5d302332cbaeae9fe0137598e3444;de;;;3.3.;;;Die Erforschung und Gestaltung einer intelligenten Überwachungs- und Managementplattform für die Gewässerumgebung von Flüssen und Seen Die Wasserqualität von Flüssen und Seen in China verschlechtert sich und die Eutrophierung der Gewässer verschlimmert sich. Mit Blick auf das Problem der Wasserumweltverschmutzung in diesen Flüssen und Seen wird eine intelligente Überwachungs- und Managementplattform für die Wasserumwelt in Flüssen und Seen vorgeschlagen. Zuerst wird die Gesamtsystemarchitektur der Managementplattform des Internet der Dinge (IOT) für die Wasserumgebung entworfen, und dann werden das Hardwaresystem der Wasserumgebungsüberwachung und das Softwaresystem des Wasserumgebungsmanagements entworfen und implementiert. Dann wird die Hardware-Ausrüstung der Wasserumgebungsüberwachung spezifiziert und das mehrdimensionale Überwachungsschema wird vorgelegt. Anschließend wird die Software des Wasserumweltmanagements vom Web- bzw. APP-Client beschrieben. Die Plattform kann eine starke technische Unterstützung für die Überwachung und Verhinderung der Wasserverschmutzung in Flüssen und Seen bieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9686-2_26 203f22330d0c7353689cbc5f7ef3b55b;de;;;3.3.;;;Smart Reader für sehbehinderte Menschen basierend auf optischer Zeichenerkennung Es gibt Millionen von sehbehinderten Menschen auf der Welt. Laut den Daten der Weltgesundheitsorganisation (WHO) über Sehbehinderungen leben 1,3 Milliarden Menschen mit einer Art Sehbehinderung, während 36 Millionen Menschen vollständig sehbehindert sind. Lesen ist eine der wichtigsten Grundbedürfnisse sehbehinderter Menschen. Zahlreiche Forscher haben daran gearbeitet, einen Mechanismus zu entwickeln, der es Blinden ermöglicht, Hindernisse zu erkennen, Etiketten oder bestimmte Währungen zu lesen und den geschriebenen, getippten oder gedruckten Text zu lesen. Wir haben ein System vorgeschlagen, das Menschen mit Sehbehinderung erleichtert, indem es den Text in ein Sprachsignal basierend auf Himbeer-Pi umwandelt. Ein optisches Zeichenerkennungs-(OCR-)Schema wird für die Erkennung von gedrucktem Text unter Verwendung einer Kamera verwendet. Eingegebene, handgeschriebene Zeichen oder Text werden in maschinencodierten Text umgewandelt. Das vorgeschlagene Verfahren wird auf dem Himbeer-Pi entwickelt, bei dem OCR für einen Bild-zu-Audio-Wandler verwendet wird, der die Ausgabe des Systems ist. Es ist ein intelligentes Echtzeitgerät, das auf OCR basiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5232-8_8 e446579a1b97d93b0ef67f1ac03979be;de;;;1.1.;;;Techniken zur Förderung des Problemlösens in GruppenZielsetzung: Nachdem der Leser mit einigen psychologischen Grundlagen des Problemlösens vertraut gemacht worden ist, soll im folgenden Kapitel versucht werden, ihm einen Überblick über gebräuchliche Techniken des Problemlösens zu vermitteln. Dabei soll der Sinn solcher Verfahren und ihre Beziehung zur psychologischen Theorie klargemacht werden. Nur wer die Möglichkeiten und Grenzen technischer Instrumente kennt, kann sie auch sinnvoll einsetzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-07864-5_2 90925a9411ad9f4606e11b7638c24f66;de;;;1.1.;;;Auf der Suche nach dominanten Wirkungspotentialen bei Medien und RezipientenIm Januar 1945 wurde ich zwanzig Jahre alt, im März bestand ich das Diplomexamen in Psychologie (unter Anrechnung eines Gastsemesters), im April zogen amerikanische Truppen in Erlangen ein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-01167-5_9 b75b9be323daabef135270787ddfce44;de;;;1.1.;;;Beobachtungen der WirtschaftsorganisationDas Interesse an institutionalistischen Theorien ist in den letzten Jahren unter dem Stichwort eines „neuen Institutionalismus“ wiedererwacht. Hinter dem neuen Institutionalismus verbirgt sich allerdings keine ausgearbeitete Theorie, sondern bisher eine Ansammlung heterogener theoretischer Konzepte, Thesen und Klassifikationen, die auf die Bedeutung von Institutionen und/ oder Prozessen der Institutionalisierung aufmerksam machen. Die bemerkenswerte Renaissance institutionalistischer Ansätze scheint weniger auf die Lösung von Theorieproblemen zurückzuführen zu sein, die mit dem „alten Institutionalismus“ verbunden waren (vgl. Willke 1987), sondern auf Bedarfe empirischer Forschung und ihre konzeptionellen Erfordernisse, die durch andere, das heißt „nicht-institutionalistische“ Theorien, offenbar nicht hinreichend abgedeckt werden können. Dabei wird in Diskussionen häufig vom Vorteil des „Meso-Charakters“ institutionalistischer Theorien gesprochen, womit einerseits ein Versagen von „Makro“-Theorien angesprochen (Modernisierungstheorie, Strukturalismus) und andererseits auf die begrenzte Leistungsfähigkeit von „Mikro-Theorien“ (Akteurstheorien) hingewiesen wird. Institutionalistische Theorien scheinen dabei in der Lage, den Dualismus aus Struktur und Handlung (Giddens 1988) zu „vermitteln“, bei genauerem Hinsehen fällt aber auf, daß dieser Dualismus bisher entweder zur einen Seite (etwa: Zucker 1991) oder zur anderen Seite aufgelöst wird (etwa: Friedland/Alford 1991).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-95071-0_4 6082d064d76f298908aab68f99852bc5;de;;;1.1.;;;Die Transaktionskostentheorie und strategische FragestellungenDie bisherigen Ausführungen haben gezeigt, daß strategisches Planen kein Selbstzweck ist, sondern eine dienende Funktion erfüllt, mit der das Unternehmen auf die Zukunft vorbereitet werden soll. Ihren Ausdruck findet eine adäquate Vorbereitung in der Entwicklung und Realisierung von Strategien. Voraussetzung zu ihrer Generierung aber ist die Versorgung mit relevanten Informationen durch die Bereitstellung eines entsprechenden Instrumentariums, wobei die Kostenrechnung durchaus Ansätze zur Verfügung stellt, die eine instrumentelle Unterstützung der strategischen Planung ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-97823-3_5 622c5bd6f2fea912d0e9ca124a8302c8;de;;;1.1.;;;Emotionale Stimmung und Rezeption von FernsehnachrichtenEmpirische Untersuchungen der Wirkung von (politischen) Informationen in den Massenmedien befaßten sich vor allem mit zwei Aspekten (Lowery & De Fleur, 1983): dem potentiellen Einfluß der Medien auf Meinungsbildung und Einstellungswandel sowie ihrem potentiellen Einfluß auf Wissen, Kenntnisse und soziale Wahrnehmung. Historisch betrachtet, kann man zwei Forschungstraditionen unterscheiden (Kepplinger et al., 1991): Untersuchungen affektiver Medienwirkungen einerseits, Analysen kognitiver Effekte andererseits. In beiden Forschungstraditionen herrschten zwei methodische Vorgehensweisen vor, die zum Teil widersprüchliche Ergebnisse produzierten: experimentelle Untersuchungsanlagen sowie Kombinationen von Bevölkerungsbefragungen mit Inhaltsanalysen der Medienberichterstattung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-95654-5_7 fb1c020c5feb11fe98df4e5a46eba474;de;;;3.3.;;;Persönliche Grüße: Personalisierung von Roboteräußerungen basierend auf der Neuheit des beobachteten Verhaltens Eine Herausforderung bei der Entwicklung von dialogorientierten Servicerobotern besteht darin, die Art der individuellen Erkennung und Aufmerksamkeit zu reproduzieren, die ein Mensch bieten kann. Wir glauben, dass Interaktionen warmer und menschlicher erscheinen können, indem Sensoren verwendet werden, um das Verhalten oder Aussehen einer Person im Laufe der Zeit zu beobachten, und den Roboter so programmieren, dass er kommentiert, wenn er ein neues Merkmal beobachtet, wie eine neue Frisur oder ein konsistentes Verhalten. wie jeden Nachmittag besuchen. Um ein System zu schaffen, das in der Lage ist, solche Neuheiten und Typizitäten zu erkennen, haben wir einen Monat lang Trainingsdaten von Kunden in einem Einkaufszentrum gesammelt und Merkmale der Besucherbesuche wie Tageszeit und Gruppengröße aufgezeichnet. Wir haben dann SVM-Klassifikatoren trainiert, um basierend auf den Eingaben eines menschlichen Programmierers jedes Merkmal als neu, typisch oder keines von beiden zu identifizieren, und wir trainierten einen zusätzlichen Klassifikator, um ein geeignetes Thema für eine personalisierte Begrüßung auszuwählen. Ein Äußerungsgenerator wurde entwickelt, um basierend auf dem ausgewählten Thema und den Sensordaten Text für den Roboter zum Sprechen zu generieren. Eine Kreuzvalidierungsanalyse zeigte, dass die geschulten Klassifikatoren menschliche Neuheitsurteile mit 88 % Genauigkeit und die Themenauswahl mit 95 % Genauigkeit genau reproduzieren konnten. Anschließend setzten wir einen teleoperierten Roboter mit diesem System ein, um Kunden drei Wochen lang in einem Einkaufszentrum zu begrüßen, und wir präsentieren beispielhafte Interaktionen und Ergebnisse aus Interviews, die zeigen, dass Kunden die personalisierte Begrüßung des Roboters schätzten und sich mit dem Roboter vertraut fühlten.;-;-;-;https://link.springer.com/article/10.1007/s12369-016-0385-4 7f1aae7c16444d238d77b15025bd55b2;de;;;3.3.;;;Eine Netzbetriebsumgebung für CDI Der Zweck dieses Kapitels besteht darin, zu erörtern, wie eine Grid-Betriebsumgebung für die Aufgaben im Zusammenhang mit der Customer Data Integration (CDI) geeignet ist, und eine logische Organisation eines Grids zu beschreiben, die auf diese Anwendung ausgerichtet ist. Genauer gesagt, erinnern Sie sich an die Einleitung;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-0176-7_7 ea26c1c4abe4f0d3ea4993b071cb39c6;de;;;3.3.;;;Hybrider CPU/GPU-Checkpoint für GPU-basierte heterogene Systeme Fehlertoleranz ist zu einem wichtigen Problem beim Exascale-Computing geworden, insbesondere für die großen heterogenen CPU/GPU-Cluster. Der Leistungs-/Kostenvorteil von GPU-basierten Systemen hängt von ihrer Fähigkeit ab, eine hohe Zuverlässigkeit, Verfügbarkeit und Wartungsfreundlichkeit bereitzustellen. Die traditionellen CPU-basierten Checkpoint-Technologien wurden auf der GPU-Plattform bereitgestellt, aber alle behandeln die GPU als steuerbare und gemeinsam genutzte Einheit zweiter Klasse. Da vorhandene GPU-Checkpoint/Restart-Implementierungen das Checkpointing des internen GPU-Status nicht unterstützen, können die auf der GPU (Kernel) ausgeführten Codes nicht genau wie die CPU-Codes überprüft/wiederhergestellt werden. Alle Checkpoint-Operationen werden außerhalb des Kernels durchgeführt. In diesem Papier schlagen wir eine hybride Checkpoint-Technologie vor, HKC (Hybrid Kernel Checkpoint). HKC kombiniert die PTX-Stub-Inject-Technologie und den dynamischen Bibliotheks-Hijack-Mechanismus, um den internen Zustand eines GPU-Kernels zu speichern/zu speichern. Unsere Bewertung zeigt, dass HKC die Systemzuverlässigkeit von CPU/GPU-Hybridsystemen zu sehr vernünftigen Kosten erhöht und eine höhere Widerstandsfähigkeit aufweist als andere Checkpoint-Schemata.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-53962-6_42 a399a49828880890e109b4c25a898f0f;de;;;3.3.;;;Zuverlässigkeitsanalyse von softwaredefinierten drahtlosen Sensornetzwerken Softwaredefinierte drahtlose Sensornetzwerke (SDWSN), die die Steuerungs- und Datenweiterleitungsfunktionen trennen, wurden vorgeschlagen, um das Managementdilemma herkömmlicher drahtloser Sensornetzwerke (WSN) zu lösen. Diese Technik kann ein dynamisches und zentralisiertes Netzwerkmanagement erreichen. Die Studie zur Reliabilität ist jedoch noch mangelhaft. In diesem Papier wird SDWSN formal mithilfe von Continuous-Time-Markov-Chains (CTMCs) modelliert und seine Zuverlässigkeit mit probabilistischen Modellprüftechniken verifiziert. Die Verifikationsergebnisse sollen Anregungen für zukünftige SDWSN-Designs geben.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-2158-9_6 ecc9f021ff6efccffb29a76ad7a83682;de;;;3.3.;;;Anpassung von COBIT für Quantum Computing Governance Quanten-Computing ist ein neues Paradigma, das die Eigenschaften der Quantenmechanik nutzt Computer und Technologien leistungsfähiger zu erreichen. Quantum-Technologie werden einige Arten von Problemen effizienter als aktuelle Technologie lösen. Jede Organisation, die alle die Kraft der Quanten nutzen will Computing in seiner Branche wettbewerbsfähiger zu sein, muss eine Methode, die es alle Vorteile der Wert nehmen können, dass diese Technologie anbieten können. Dieser Artikel schlägt die Entwicklung eines Rahmens für die Verwaltung und Steuerung von Quantum Computing basiert auf COBIT.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58793-2_22 316d668ec6e9d98d14a5695075e8860b;de;;;3.3.;;;Modellierung von Risiken bei der Auswahl von Open-Source-Softwarekomponenten Die Einführung von Open Source Software (OSS)-Komponenten ist eine Entscheidung, die viele potenzielle Vorteile bietet – wie Kosteneffizienz und Reputation –, aber sogar eine potenziell hohe Anzahl von Risiken mit sich bringt, die von der Unfähigkeit der OSS-Community reichen, die Entwicklung im Laufe der Zeit zu einer schlechten Codequalität. Anders als bei kommerziellen Standardkomponenten können wir uns bei der Risikobewertung bei der Einführung von OSS-Komponenten auf die öffentliche Verfügbarkeit messbarer Informationen über den Komponentencode und die sich entwickelnden Gemeinschaften verlassen. In der vorliegenden Arbeit stellen wir eine Risikobewertungstechnik vor, die konzeptionelle Modellierung verwendet, um die Risiken der Einführung von OSS-Komponenten zu bewerten. Wir wurzeln in der bestehenden Literatur zur OSS-Risikobewertung und validieren sie durch unsere Industriepartner.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12206-9_28 55bda4466eb1fc7b818795bc26eba5de;de;;;3.3.;;;Mikroarchitekturfunktionen für die Malware-Erkennung Da die Vielfalt und Komplexität der Angriffe weiter zunimmt, kann die softwarebasierte Malware-Erkennung einen erheblichen Leistungsaufwand verursachen. Jüngste Arbeiten haben die Machbarkeit der Malware-Erkennung mithilfe von Hardware-Leistungsindikatoren gezeigt. Daher ist die Ausrüstung eines Malware-Detektors zum Sammeln und Analysieren von Mikroarchitekturmerkmalen von CPUs zur Erkennung von Malware zur Laufzeit eine vielversprechende Methode. Im Vergleich zur softwarebasierten Malware-Erkennung reduziert die hardwarebasierte Malware-Erkennung nicht nur die Kosten für die Systemleistung, sondern besitzt auch eine bessere Erkennungskapazität. Hunderte von Mikroarchitekturereignissen können jedoch durch Hardwareleistungszähler (HPCs) überwacht werden, die in vorherrschenden CPUs wie Intel, ARM usw. weit verbreitet sind. In diesem Whitepaper nehmen wir den Intel Ivy Bridge i3-Prozessor als Beispiel und untersuchen die meisten dieser Mikroarchitekturmerkmale. Anstatt sich auf Erfahrung zu verlassen, wird der Lasso-Algorithmus verwendet, um die Dimensionalität des Merkmalsvektors auf 6 Elemente zu reduzieren. Darüber hinaus werden für die ausgewählten Merkmale 4 Klassifikationsmethoden basierend auf überwachtem Lernen angewendet. Wir verbessern die Klassifizierungsgenauigkeitsquote von durchschnittlich 15 %. Die Ergebnisse zeigen, dass die Mikroarchitekturmerkmale dieses Papiers das Verhalten von Malware besser aufdecken können.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-2209-8_5 7f823c5f996c8e0d344389eae0bd36d5;de;;;3.3.;;;QoE-Analyse von Echtzeit-Videostreaming über 4G-LTE für UAV-basierte Überwachungsanwendungen Drohnen, auch als unbemannte Luftfahrzeuge (UAVs) bekannt, spielen eine wichtige Rolle bei der Überwachung an einem entfernten Standort, indem sie Echtzeitvideos mit ihren angeschlossenen Kameras streamen. Für diese Art der Überwachung ist eine gute Architektur erforderlich, die eine Echtzeitüberwachung in bestimmten Bereichen gewährleistet. Da das Streaming-Video für die Überwachung verwendet wird, ist es sehr wichtig, seine Qualität während der Übertragung sicherzustellen, damit der Remote-Client klare Einblicke erhält und bei Bedarf rechtzeitig Maßnahmen ergreifen kann. In diesem Papier haben wir eine 4G-LTE-Architektur vorgeschlagen und die Auswirkungen verschiedener Faktoren in einer solchen Architektur untersucht. Wir haben die vergleichende Analyse zwischen zwei neuesten Codec-Schemata gezeigt, d. h. H.264 und H.265 (HEVC) beim Videostreaming. Unsere Studie ist ein wichtiger Schritt zur Erforschung der Faktoren, die das Echtzeit-Videostreaming beeinflussen und die Quality of Experience (QoE) der Videowiedergabe in einer solchen Architektur verschlechtern. Um die empfangene Videoqualität zu untersuchen, wurden in diesem Papier zwei objektive Metriken berücksichtigt, das Peak-Signal-to-Noise-Ratio (PSNR) und der Structural-Similarity-Index (SSIM). Die Simulationsergebnisse basieren auf dem bekanntesten Netzwerksimulator in der Forschungsgemeinschaft, nämlich NS-3. Die Ergebnisse haben gezeigt, dass H.265 im Vergleich zu H.264 unter anderen Umständen besser funktioniert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5232-8_38 0c39b7051be378a97a0ffff368c6c57f;de;;;3.3.;;;Validierung und Gestaltung einer serviceorientierten Sicht für C2TP: Cloud Computing Tipping Point Model Point Dieses Papier versucht, die aktuellen Forschungsbemühungen im Bereich Cloud Computing zu erweitern, indem es ein Wertmodell für ICT-Organisationen erstellt, um objektiv zu entscheiden, ob sie entweder in Cloud Computing investieren oder weiterhin in Hosting-Optionen vor Ort investieren. Das Modell wird versuchen, die geschäftlichen, finanziellen und technischen Attribute der IKT-Organisationen zu berücksichtigen, um eine ausgewogene Sichtweise zu ermöglichen. Zuvor haben die Autoren dieses Papiers ein Cloud Computing Tipping Point-Modell vorgeschlagen, um diese Forschungslücken zu schließen. Der Autor versucht auch, dem Modell mit Leistungspaket den Austausch von Informationen mit 3 zu ermöglichen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14616-9_41 ce15a38c2b0bd5c54bfe51d4e2f00a16;de;;;1.1.;;;MarktanalyseIm Gegensatz zu Einzelaufträgen oder -projekten ist die Intention bei Produkten, diese an möglichst viele Kunden zu verkaufen, die, abstrakt ausgedrückt, durch den Markt repräsentiert werden. Diesen perfekt zu kennen, ist damit eine der wichtigsten Anforderungen an einen Portfoliomanager und die wesentliche Grundlage seiner Arbeit. Eine Marktanalyse dient vor allem dazu, die Eigenschaften des Unternehmensumfelds in Form von (potenziellen) Kunden, Mitbewerbern, möglichen Partnern, aber auch Einflussfaktoren wie technologische Trends zu bewerten und die richtigen Schlüsse daraus zu ziehen. Eine fundierte Marktanalyse ist daher auch eine wichtige Voraussetzung für den Portfoliomanager, um seine Produktstrategien zu definieren und deren Erfolgschance richtig einzuschätzen. Die Existenz eines Marktes, der zum Geschäftsmodell des Unternehmens passt, ist für den Erfolg des Produktportfolios und somit für die Existenz des Unternehmens Grundvoraussetzung. Das bedeutet aber auch, dass eine falsche Einschätzung des Unternehmensumfeldes und infolgedessen eine suboptimale Strategie und ein inadäquates Geschäftsmodell aller Voraussicht nach nicht zum erwarteten Erfolg führen und mitunter existenzbedrohend sein können, so elaboriert und ausgefeilt diese auch sein mögen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-00260-2_3 a49e19c21c1babbc9b2c7ffb32df7f88;de;;;1.1.;;;Tanzverständnis im Kontext ästhetisch-kultureller BildungDas Feld der kulturellen und ästhetischen Bildung gewinnt seit der Jahrtausendwende immer mehr an Bedeutung. Gerade durch Forschungsarbeiten, die eine theoretische Rahmung der Begriffe, ihrer Deutungsebenen oder Wirkungen auf unterschiedliche Bereiche des menschlichen Wesens aufzeigen, liefern einen enormen Beitrag zum Erkenntnis- und Interessensgewinn an diesen Feldern. An dieser Stelle sei darauf hingewiesen, dass sich Bildungsinhalte nicht nur auf formale Kontexte beziehen, sondern kulturelle Bildung auch innerhalb non-formaler oder informeller Kontexte vorzufinden ist. So gibt es zahlreiche Projektkonzeptionen (z. B. ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-33717-9_2 0ac098bb0955529b706d0cc7a3ac3383;de;;;3.3.;;;Design und Analyse eines zweischichtigen anonymen Kommunikationssystems Es wurde eine neue Architektur für ein skalierbares anonymes Kommunikationssystem (SACS) vorgeschlagen. Die Benutzer wurden in mehrere Untergruppen unterteilt, die von verschiedenen Untermischern verwaltet wurden, und alle Untermischer wurden vom Hauptmischer unter Verwendung eines zweischichtigen Verwaltungsschemas verwaltet. Die Identitätsinformationen der Mitglieder werden auf verschiedene Untermischer verteilt, wodurch jedes Mitglied viel weniger Informationen behält und die Netzwerküberlastung stark reduziert wird. Die Anonymität und der Overhead des neuen Schemas wurden analysiert und mit denen von Crowds verglichen, was zeigt, dass die Speicherkosten und der Netzwerk-Overhead für das neue Schema stark sinken, während die Anonymität nur wenig beeinträchtigt ist. Die Versuchsergebnisse zeigen auch, dass die neue Systemarchitektur gut skalierbar ist. Das Verhältnis der Verwaltungskosten von SACS zu denen von Crowds beträgt etwa 1:25, während der Wert von;-;-;-;https://link.springer.com/article/10.1007/s11771-007-0075-3 0b0d1be5901ae8d3e6ac062b9f55e839;de;;;3.3.;;;Aktionsschemaplanung mit einer neuronalen Architektur: Ein präfrontaler Cortex-Ansatz In diesem Beitrag wird ein Computermodell vorgestellt, das sich mit Verhaltenslernen und -planung mit einem vollständig neuronalen Ansatz befasst. Die modellierte präfrontale Funktionalität ist die Fähigkeit, elementare Handlungsschemata zu planen, um Verhaltensziele zu erreichen. Die Verwendung robuster Kontexterkennung wird ebenso diskutiert wie die Beziehungen zu biologischen Ansichten des präfrontalen Kortex.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-46084-5_45 42ed2c8f9bf4a2a179710f10b0ae7143;de;;;3.3.;;;Vermittlungsdienste in kooperativen verteilten Systemen: Datenschutzbasiertes Modell Mit der enormen Explosion des Internets und der steigenden Nachfrage nach Diensten und Datennetzen werden viele schnell wachsende Forschungswege und Industrien geschaffen und revolutioniert, wie beispielsweise der elektronische Geschäftsverkehr. Ein wichtiger Aspekt kooperativer verteilter Systeme ist die Fähigkeit ihrer Einheiten, ein gewisses Maß an Autorität bei der gemeinsamen Nutzung ihrer Fähigkeiten auszuüben. Dieses Papier stellt eine neuartige agentenbasierte Architektur für fähigkeitsbasierte Integration oder Vermittlungsdienste vor. Die vorgeschlagene Architektur basiert auf mehreren Gestaltungsprinzipien, die sich mit Transparenz, Heterogenität und Autonomie sowie mit Datenschutzfragen befassen. Hier wurde der Datenschutz in Bezug auf drei Attribute behandelt: die Identität, die Fähigkeiten und die Präferenzen der Entität. Ein Maklerdienst wird als Agent mit einer spezifischen Architektur und einem Interaktionsprotokoll modelliert, die geeignet sind, den erforderlichen Datenschutzgrad zu erfüllen. Die vorgeschlagene Architektur wurde für eine verteilte Informationssammlungsanwendung unter Verwendung einer FIPA-Beschwerdeplattform (JADE) implementiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45229-4_42 2f43784f1e86f1690b5ee095ddbbfeda;de;;;3.3.;;;Kulturelle Probleme in der verteilten Softwareentwicklung: Ein Rückblick Der kulturelle Einfluss ist bei der globalen oder verteilten Softwareentwicklung von Bedeutung. Aufgrund kultureller Unterschiede wurde in Fallstudien über Koordinations- und Kooperationsprobleme berichtet, was auch zu einer geringen Qualität der Ergebnisse und einer hohen Fluktuation in der Softwareindustrie führt. Dieses Papier präsentiert einen Literaturüberblick über verteilte Softwareentwicklung (DSD) oder globale Softwareentwicklung (GSD) und kulturelle Fragen. Der Schwerpunkt liegt auf der Hervorhebung der aktuellen Forschung, Beobachtungen sowie Praxisrichtungen in diesen Bereichen. Viele Studien wurden im Bereich Kultur und globale Softwareentwicklung durchgeführt, dennoch wurde der Einfluss der Kultur auf die verteilte Softwareentwicklung in verschiedenen Dimensionen von Forschern weniger beachtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45550-0_45 e97dc20c1ba1db7ba42b997bf6b3a690;de;;;3.3.;;;Servicedifferenzierung in mehrschichtigen Anwendungsarchitekturen Unternehmensnetzwerke wie Back-End-Büros, Rechenzentren oder Webserverfarmen unterstützen mehrere Dienste und sind in der Regel in mehreren Rechenebenen aufgebaut. In Service-Oriented-Architecture (SOA)-Umgebungen wird eine Schicht beispielsweise zum Auslagern der CPU-intensiven XML-Verarbeitung verwendet. Die Geschäftslogik wird dann in einer separaten Ebene implementiert. Die Offload-Schicht wird normalerweise als Cluster von (möglicherweise virtuellen) Middleware-Appliances implementiert. Die Dienstdifferenzierung in Unternehmensnetzwerken befasst sich mit der Verwaltung der Unternehmensnetzwerkressourcen, um die gewünschten Leistungsziele zu erreichen. In diesem Papier definieren und bewerten wir über Simulationen einen Algorithmus, der die Zuweisung von CPU-Zeit in der Appliance-Schicht durch Aktivieren und Deaktivieren von Dienstdomänen im Appliance-Cluster verwaltet. Das Hauptentwurfsziel unseres Algorithmus besteht darin, die Nachteile der gegenwärtigen statischen Lösungen zu überwinden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20116-5_4 1bce053e66cfe666134ac3e257cfe28c;de;;;1.1.;;;Das Konzept der KomplexitätIn dem sog. naturalistischen Forschungsansatz sozialer Phänomene wurde — im Gegensatz zum hermeneutischen Ansatz — wiederholt darauf hingewiesen, daß die Theoriebildung in den Sozialwissenschaften relativ einfach ist im Vergleich zu den Naturwissenschaften gemessen an dem komplexen Charakter des Gegenstandes der ersteren Wissenschaft. In der humanistisch orientierten Wissenschaftstheorie [metascience] ist dies nicht die übliche Sichtweise, vielmehr wurde dort ein Vergleich zwischen Sozial- und Naturwissenschaft im Hinblick auf die Verwendbarkeit gleicher Methoden zurückgewiesen, es wurde dabei betont, daß in den Sozialwissenschaften die Beziehung zwischen Forscher und Forschungsobjekt fundamental verschieden ist von der in den Naturwissenschaften.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-85709-5_5 6f0b8cd604e150ebe876443e1089e632;de;;;1.1.;;;Public Relations unter professionalisierungstheoretischer PerspektiveDie Professionalisierung der Public Relations zählt in Deutschland zu den zentralen Themen der berufspolitischen Agenda. Kennzeichnend für die Professio-nalisierungsbestrebungen der PR ist das verstärkte Bemühen von PR-Wissen-schaftlern, Berufsinhabern und insbesondere der Berufsverbände um ein kon-sensualisiertes Selbstverständnis und Berufsbild, um eine Verwissenschaftlichung des Berufswissens und die Erarbeitung eines Curriculums für die PR-Ausbildung. Professionalisierungsstrategien zielen nicht nur auf die Sicherstellung eines spezifischen PR-Fachwissens, sondern zugleich auf eine öffentliche Anerkennung von Kompetenzen und gesellschaftlichen Funktionen. Denn Fachwissen und Expertise stellen nur eine notwendige, aber keine hinreichende Bedingung für die Professionalisierung von Berufen dar (Daheim 1992: 26). Ohne institutionalisierte öffentliche Anerkennung der Expertenschaft bleiben die typischerweise für Professionen geltenden Statusmerkmale verwehrt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-95623-1_3 cf6e2e4e78ce535bb5a3f3a04f545958;de;;;3.3.;;;Ausführbare visuelle Softwaremodellierung – der ZOOM-Ansatz In diesem Beitrag stellen wir einen neuen ausführbaren visuellen Softwaremodellierungsansatz namens ZOOM (Z-Based Object Oriented Modeling) vor. ZOOM erweitert eine Teilmenge der UML-2-Notationen, indem es UI-Modellierungsnotationen und einen formalen Integrationsmechanismus bereitstellt. ZOOM ermöglicht die Softwaremodellierung mit grafischen und textuellen Ansichten für seine Struktur-, Verhaltens- und Benutzeroberflächenmodelle. Durch ein vordefiniertes Ereignismodell integriert ZOOM diese Modelle und stellt die Laufzeitsemantik sowohl für die Codegenerierung als auch für die Softwareanimation bereit.;-;-;-;https://link.springer.com/article/10.1007/s11219-006-9002-3 daf5f1ec9c8eb232a5d674b385714414;de;;;3.3.;;;Architektur des Unternehmens entlang des Kommunikationsparadigmas mit dem TOGAF Das verborgene Paradigma hinter der Modellierung der Unternehmensfähigkeiten basiert auf der Idee von Ford und Taylor, Aktivitäten zu sequenzieren und die besten Ansätze ihrer Klasse zu verfolgen. Es hat sich einst als geeignet für die Massenproduktion von Gütern erwiesen. Während das Paradigma immer noch die grundlegende Modellierungsannahme für die Gestaltung der Unternehmensfähigkeiten ist, haben sich die ökologischen und sozialen Grundlagen für Unternehmen verändert. Das Geschäft hat sich von der Massenproduktion zu massiven individualisierten Dienstleistungen rund um Waren entwickelt, bei denen Kunden fast jederzeit unvorhergesehene Änderungswünsche stellen können. Die Tatsache, dass solche Ereignisse unvorhergesehen auftreten, bedeutet nicht, dass sie selten auftreten. Die Ausnahme vom Glücksweg ist im Grunde die Routine. Wie die Reaktion auf solche unvorhergesehenen Ereignisse aussieht, zeigt die inflationäre Nutzung von E-Mails, Instant Messages, Telefonen und Meetings. Es scheint, dass Kommunikation im Begriff ist, das neue Paradigma zu werden. Massiv personalisierte Dienstleistungen auf komplexe Produkte zu setzen, erfordert passende architektonische Strukturen. Fords verstecktes Paradigma meistert die daraus resultierende architektonische Komplexität aufgrund des Fehlens des Begriffs „Kommunikation“ nicht. Was Unternehmen beherrschen müssen, ist eine kommunikationsgetriebene Unternehmensarchitektur. Das vorgeschlagene Papier diskutiert eine Methodik zum Erstellen einer Unternehmensarchitektur, die das kommunikationszentrierte Paradigma unter Verwendung des TOGAF-Frameworks fördert. Wir beschreiben, wie die Rolle von Einzelpersonen innerhalb eines Unternehmens und die Kommunikationswege zwischen ihnen genutzt werden, um eine Unternehmensarchitektur zu schaffen, die von Endbenutzern leicht verständlich und akzeptiert wird. Außerdem zeigen wir, wie Architekturplanungen für Business, Anwendung und Daten mit den Konzepten des subjektorientierten Geschäftsprozessmanagements (S-BPM) in schnellen Architekturzyklen durchgeführt werden und so mehr Agilität schaffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06191-7_11 f7f215fcf27c8628d234bee82fff20f9;de;;;3.3.;;;Ermöglichung von Straight-Through-Processing in vollem Umfang mit BPM Die SNS Bank (Niederlande) hat eine strategische Entscheidung getroffen, ihre Kunden durch die vollständige Automatisierung ihrer Geschäftsprozesse online zu unterstützen. Die Möglichkeit, diese Servicekanäle zu automatisieren, wird durch die Anwendung von Business Process Management (BPM)-Techniken auf bestehende Vertriebskanäle erreicht. Sowohl die öffentlich zugänglichen als auch die internen Prozesse werden zu vollwertigen Straight Through Processing (STP)-Diensten umgebaut. Diese extreme Nutzung von Online-STP ist der Auslöser für einen Wandel, der für kosteneffizientes Banking in einer sich ständig turbulenten und sich verändernden Finanzwelt von entscheidender Bedeutung ist. Die Schlüsselelemente zur Umsetzung dieser Ziele sind weiterhin (kostenlose) Open Source Software (FOSS), serviceorientierte Architektur (SOA) und BPM. In diesem Papier werden wir eine industrielle Anwendung vorstellen, die die Bemühungen der SNS Bank beschreibt, den Wandel von traditionellen Bankdienstleistungen zu einer vollwertigen STP- und BPM-gesteuerten Bank zu vollziehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01859-6_2 c1917ea050440c73709daa3433c96220;de;;;1.1.;;;Strategische Führung von Tourismusmarken in vertikalen SystemenDie vorangegangenen Ausführungen zeigen, dass es für die Untersuchung der strategischen Markenführung von Dienstleistungsmarken in vertikalen Systemen und insbesondere Tourismusmarken einen theoretischen Bezugsrahmen zu verwenden gilt, der die Komplexität des strategischen Entscheidungsprozesses auf der einen Seite sowie die Wirkungen markenstrategischer Optionen auf den Konsumenten auf der anderen Seite abzubilden vermag. Insofern sollen im Rahmen der vorliegenden Arbeit zum einen ein entscheidungs-orientierter Ansatz zur Planung, Steuerung und Koordination aller auf den Absatzmarkt gerichteten Massnahmen des Markenmanagement und zum anderen verhaltenswissenschaftliche Erklärungsansätze des Markenwahlverhaltens als konstitutive Elemente des theoretischen Bezugsrahmens herangezogen werden. Als zentrale Themen dieses Kapitels werden daher eine Diskussion des entscheidungsorientierten Bezugsrahmens der strategischen Markenführung als Ausgangspunkt vorgenommen, Ansätze zur Erklärung des Markenwahlverhaltens in vertikalen Systemen diskutiert und kritisch gewürdigt und anschliessend Ansätze der strategischen Markenführung zur Profilierung der Marke in der touristischen Wertschöpfungskette erörtert. Als weitere strategische Stossrichtung wird die vertikale Ausdehnung der Marke über die Wertschöpfungskette charakterisiert und diskutiert und Hypothesen für das Profilierungspotenzial über eine vertikale Ausdehnung abgeleitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-81439-5_3 374c652c2f4d6efa4339a5628095981e;de;;;1.1.;;;Modelle in der RegelungstechnikFür Aufgaben des Entwurfs, der Erprobung und der Überprüfung ist es in der Regelungstechnik wichtig, Informationen über das Verhalten von Prozessen, Reglern und Regelkreisen zu erhalten. Diese Informationen können aus verschiedenen Gründen oftmals nicht direkt aus einer Untersuchung der realen Prozesse und Regler gewonnen werden. Man versucht dann, das reale Verhalten durch eine Simulation nachzubilden. In der Simulation werden die Untersuchungen statt an der realen Anlage an einem Modell durchgeführt, welches die für die regelungstechnischen Aufgabenstellungen wesentlichen Proze;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-84261-0_2 3dff638d1505aa99b151f7d9c89a9705;de;;;3.3.;;;Integration der Fuzzy-Logik-Technik in das fallbasierte Denken zur Verbesserung der Prüfqualität von Software-Anforderungsspezifikationen Der Entwicklungserfolg von Software basiert im Wesentlichen auf der Qualität ihrer Software Requirements Specifications (SRS). Eine Anforderung stellt das Hauptziel dar, das erreicht werden muss, während eine Spezifikation eine vollständige Beschreibung dieses Ziels ist. Die Prüfung des Software Requirements Specification (iSRS)-Systems wird entwickelt, um sicherzustellen, dass die SRS von hoher Qualität sind. In diesem Beitrag wird der Beitrag der Integration einer Fuzzy-Logik-Technik in das Case Base Reasoning (CBR) als Folgerungsrahmen im iSRS-System vorgestellt. Die Fuzzy-Logik-Technik stellt einen Disambiguierungsmechanismus innerhalb der Schritte Abrufen, Wiederverwenden, Überarbeiten und Beibehalten des CBR-Zyklus bereit. Insbesondere wird es als Ähnlichkeitsmessverfahren im Abgleichprozess zwischen den inspizierten SRS-Fällen und den bestehenden SRS-Fällen in der CBR-Fallbasis verwendet. Anschließend werden die Fälle in der Fallbasis in Fälle ohne Übereinstimmung, teilweise Übereinstimmung und vollständige Übereinstimmung klassifiziert und gekennzeichnet. Diese Klassifizierung verbessert die Gesamtbetrachtung und Überprüfung der SRS-Qualität, indem der untersuchte Fall mit den ähnlichsten Fällen der Fallbasis verglichen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-38752-5_39 6ec87001edd7fcb6edc0d0bb3ecebbb0;de;;;1.1.;;;Digitale Innovation: Strategische Erneuerung digital beschleunigenEin wichtiges Gestaltungsfeld der digitalen Organisation ist das des digitalen Innovationsmanagements. Davon auszugehen, dass die digitale Wirtschaft lediglich auf technologischen Innovationen aufbaut, wäre zu kurz gegriffen. Beim Aufbau einer digitalen Organisation spielen verschiedene Innovationsaspekte eine Rolle, beispielsweise kundenzentrierte, organisatorische oder prozessuale Innovationen. Alle diese Formen gründen auf einer neuen Art und Weise, wie digitale Technologie den Alltag in der Organisation beeinflusst. In diesem Kapitel wird geklärt, wie die digitale Innovationsfähigkeit aufgebaut und verankert werden kann. Es geht um die unterschiedlichen Formen von Innovation, deren Merkmale sowie Anwendungsformen im Rahmen eines digitalen Innovationssystems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-28630-9_10 124904356244af6e73686cf3e992d7d5;de;;;1.1.;;;Die Entscheidung über den Verkauf von Wertpapieren unter der Abgeltungssteuer und auf Basis subjektiver ErwartungenMit der Einführung der Abgeltungssteuer auf Kapitalerträge zum 1.1.2009 sind in Deutschland realisierte Kursgewinne bei Wertpapieren unabhängig von der Haltedauer zu versteuern. Diese Gesetzesänderung hat zur Folge, dass die Besteuerung von Kursgewinnen auch für mittel - oder langfristig engagierte Investoren bei der Entscheidung über die Veräußerung von Wertpapieren zu berücksichtigen ist. Wir analysieren optimale und auch starre Strategien im Hinblick auf die Veräußerung von Wertpapieren. Neben der Besteuerung werden auch subjektive Erwartungen des Investors einbezogen. Dabei stellt sich heraus, dass für die Entscheidung über den weiteren Verbleib eines Wertpapiers in seinem Besitz die Höhe des Kursgewinns und dessen Besteuerung zwar relevant sind, die subjektiven Erwartungen jedoch eine viel gewichtigere Rolle spielen. Dies gilt umso mehr, wenn Transaktionskosten und eine Begrenzung der steuerlichen Verlustberechnung einbezogen werden. Die Abschätzung der relativen Bedeutung von Besteuerung und subjektiven Erwartungen erfolgt insbesondere unter Rückgriff auf numerische Berechnungen.;-;-;-;https://link.springer.com/article/10.1007/s11573-011-0460-0 48d4e1b4d7cdd24d748971d81c8c2f9c;de;;;1.1.;;;Pragmatische Verhaltensintegration im Medium sozialer KontextualitätDer folgende Text möchte versuchen, die von Jürgen Markowitz an verstreuten Orten vorgelegten und an disparaten Themen entwickelten soziologischen Analysen zu systematisieren, indem er sie in synoptischer Absicht als Beiträge zu einer Interaktionstheorie ‚in progress‘ interpretiert und rekonstruiert. Markowitz stellt der Soziologie ein Arsenal an Unterscheidungen zur Verfügung, mit dem sich Interaktionen gleichsam mikroskopisch analysieren lassen. Auf diese Weise, auf der Basis einer nach und nach entfalteten Theorie der Interaktion, kann er – und das ist die These meines Textes – das Geschehen der Interpenetration detaillierter, als bislang geschehen, beschreiben, indem er Schritt für Schritt rekonstruiert, wie im Zusammenwirken von psychischen und sozialen Systemen diese jeweils Leistungsanteile der Umwelt wechselseitig für eigene Prozesse selektiv in Anspruch nehmen. Der Begriff der Interpenetration zielt in der Bedeutung, die ihm Niklas Luhmann (1981) in seinem programmatischen Essay ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-90627-0_4 3d20927de67f925c68e1ffdea25f9054;de;;;3.3.;;;Mlogger: Ein automatisches Blogging-System durch mobiles Erfassen des Benutzerverhaltens Kontextbewusstsein ist das führende Merkmal des Pervasive Computing. Blog ist eines der ersten und wichtigsten Elemente im Social Computing. Ein interessantes Thema im aufkommenden, durchdringenden Social-Computing-Paradigma ist das Bloggen mit automatisch verknüpftem Benutzerverhalten. In diesem Beitrag stellen wir Mlogger vor, ein automatisches Blogging-System, das Benutzerverhalten erkennen, erkennen und verfolgen und mit neuen Blogeinträgen verknüpfen kann. Im System werden Sun SPOTs verwendet, um rohe Verhaltensdaten zu erfassen. Ein Back-End-System von Mlogger ist so konzipiert, dass es diese Rohdaten verarbeitet und Informationen zum Benutzerverhalten auf hoher Ebene ableitet, wie z. B. „Was macht der Benutzer und wo, wann und mit wem?“. Verbunden mit den abgeleiteten Informationen kann automatisch ein neuer Eintrag über das Nutzerverhalten erstellt und veröffentlicht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16355-5_49 e432413bcebcfa2e54cdd5d9ebc740dc;de;;;3.3.;;;Lösung zeitaufwändiger globaler Optimierungsprobleme mit dem Globalizer-Softwaresystem In diesem Papier beschreiben wir das Globalizer-Softwaresystem zur Lösung globaler Optimierungsprobleme. Das System implementiert einen Ansatz zum Lösen der globalen Optimierungsprobleme unter Verwendung des mehrstufigen Blockschemas der Dimensionsreduktion, das die Verwendung von Peano-Kurventyp-Entwicklungen und des mehrstufigen Reduktionsschemas kombiniert. Das Schema ermöglicht eine effiziente Parallelisierung der Berechnungen und eine vielfache Erhöhung der Anzahl von Prozessoren, die bei der parallelen Lösung der globalen Optimierungsprobleme verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-71255-0_9 bef374ea41370e375b116b14d3f2ae42;de;;;1.1.;;;Wahrnehmungslernen durch BlickbewegungenKeine willkürlich kontrollierbare Bewegung steht so ausschließlich im Dienste der Wahrnehmung wie die sakkadische Blickbewegung. Während alle übrigen Willkürbewegungen eine aktive Veränderung der Umwelt erlauben, dient die Blickbewegung keinem anderen Zweck, als den Organismus mit visueller Information über die Umwelt zu versorgen. Diesen Zweck erfüllt sie einmal dadurch, daß sie periphere Sinnesinformation beschafft, indem sie das Auge an die Information heranführt. Aber es läßt sich empirisch belegen, daß die Blickmotorik auch darüber informiert, was die retinale Reizung ökologisch bedeutet, d.h. welcher Umweltsachverhalt durch sie spezifiziert wird. Diese Validierung der retinalen Reizung durch sakkadische Blickbewegung ist Gegenstand dieses Beitrages. Wie kann man durch bloße Blickbewegung lernen, die Umwelt valide wahrzunehmen? Zunächst werden wir den Sachverhalt des Wahrnehmungslernens mittels sakkadischer Blickbewegung zu belegen haben. Anschließend wollen wir theoretische Erklärungsmöglichkeiten diskutieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-70747-6_3 9341056aa7a294b802476fadc94097fb;de;;;1.1.;;;Alter(n)s- und Lebensstilforschung – Entwicklung und Perspektiven„Lebensstilsoziologie und soziale Gerontologie haben sich in unterschiedlichen institutionellen Kontexten entwickelt und nehmen weiterhin kaum Kenntnis voneinander“, schrieb Ludwig Amrhein (2008, S. 21) vor mittlerweile mehr als einem Jahrzehnt. Zwar gibt der Autor aus alter(n)ssoziologischer Perspektive wichtige Impulse für eine wissenssoziologische Einbindung von Ideen der Lebensstilforschung für die soziale Gerontologie, eine systematische Verknüpfung zu einer Sozialstrukturanalyse des höheren Alters steht jedoch noch aus. In diesem Kapitel sollen die Grundlagen für eine programmatische Verknüpfung von soziologischer Alter(n)s- und Lebensstilforschung gelegt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-29616-2_2 dcf630852bbdbb478cccb69561363f8b;de;;;3.3.;;;SAINF: Eine Toolbox zum Analysieren der Auswirkungen von punkt-, linien- und polygonartigen Infrastrukturmerkmalen auf die Verteilung punktförmiger nicht-infrastruktureller Merkmale In diesem Artikel wird eine GIS-basierte Toolbox namens SAINF zur Analyse der Auswirkungen von Infrastrukturmerkmalen auf die Verteilung nichtinfrastruktureller Merkmale vorgestellt. Eines der besonderen Merkmale von SAINF ist, dass es nicht nur punktförmige Infrastrukturmerkmale, sondern auch linienartige (z. SAINF analysiert diese Effekte mit der bedingten Nearest Neighbour Distance Methode und dem Kreuz;-;-;-;https://link.springer.com/article/10.1007/s10109-003-0123-y d9d9ec9b49084f37d6dc574b680b4599;de;;;3.3.;;;Echtzeit-Tracking von Menschen und Visualisierung ihrer zukünftigen Schritte in öffentlichen Innenräumen In dieser Arbeit wird ein interaktives Unterhaltungssystem vorgestellt, das die Verfolgung mehrerer Personen mit einer einzigen Kamera verwendet. Das vorgeschlagene System verfolgt zuverlässig Personen in Innenräumen und zeigt ihre vorhergesagten zukünftigen Schritte in Echtzeit vor ihnen an. Das System besteht aus einer Videokamera, einem Computer und einem Projektor. Es gibt drei Hauptmodule: Tracking, Analyse und Visualisierung. Das Tracking-Modul extrahiert Personen als sich bewegende Kleckse unter Verwendung eines adaptiven Hintergrund-Subtraktionsalgorithmus. Dann werden Ort und Orientierung ihrer nächsten Schritte vorhergesagt. Die zukünftigen Schritte werden durch eine schnelle kontinuierliche Anzeige von Fußbildern am vorhergesagten Ort visualisiert, um den natürlichen Schritt einer Person zu simulieren. Um die Leistung zu bewerten, wurde das vorgeschlagene System während einer öffentlichen Kunstausstellung auf einem Flughafen ausgestellt. Die Leute zeigten Überraschung, Aufregung, Neugier. Sie versuchten, die Anzeige der Schritte durch verschiedene Bewegungen zu kontrollieren.;-;-;-;https://link.springer.com/article/10.1007/s11042-010-0691-z b6c7742d64b0dfab6844f3053c4a37de;de;;;1.1.;;;Die Grenzen des Unternehmens — Zur Gestaltung der Leistungstiefe mittels Integration, Kooperation und DesintegrationDie Grenzen des Unternehmens, seine Größe und Dimensionierung werden intensiv diskutiert. Dabei wird oft von dem „grenzenlosen“ Unternehmen gesprochen, obwohl in der anschließenden Darstellung jeweils nur der Wegfall einzelner Grenzen thematisiert wird. Dies ist zwar möglich, doch andere Grenzarten bestehen weiterhin. Ein wirklich vollständig grenzenloses Unternehmen liegt (noch) nicht vor. Zudem muß näher spezifiziert werden, welche verschiedenen Grenzarten bei Unternehmen über-haupt bestehen. Auch bleibt i.d.R. unbeantwortet, ob ein Unternehmen gänzlich ohne Grenzen überhaupt existieren kann und wie dann die internen Prozesse zielgerichtet ablaufen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-05960-8_17 1cd35c14a24776a986ee328767540566;de;;;1.1.;;;Bisherige empirische Studien zu den Bestimmungsgründen eines DerivateeinsatzesDer empirische Gehalt der ökonomischen Theorie eines unternehmerischen Hedging war seit Mitte der 90er Jahre Untersuchungsgegenstand verschiedener Studien. Abschnitt 3.1 beinhaltet eine ausführliche Aufarbeitung und kritische Diskussion der vorliegenden empirischen Studien zu den Bestimmungsgründen eines Derivateeinsatzes von Industrieunternehmen. Empirische Studien zum Derivateeinsatz bei Finanzinstituten wurden hier nicht aufgegriffen,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-89662-9_3 3cfe30824aa2a1888178a215df68b925;de;;;1.1.;;;Was wissen wir heute über die Borderline-Persönlichkeitsstörung? Aktuelles zu Ätiologie, Diagnostik und TherapieDie Borderline-Persönlichkeitsstörung (BPS) gilt als schwerwiegende psychische Störung mit hoher Belastung für Patienten, Familienmitglieder und das Gesundheitssystem. Die letzten Jahre brachten deutliche Fortschritte im Verständnis und in der Therapie der BPS, was zu einer früheren Diagnose und besseren Behandlungsergebnissen geführt hat.;-;-;-;https://link.springer.com/article/10.1007/s00115-021-01140-x bd79056dd408338c0c350870457c59e3;de;;;1.1.;;;Proportionale und antiproportionale TextaufgabenDissertation zur Erlangung des akademischen Grades eines Doktors der Naturwissenschaften des Fachbereichs Mathematik/Informatik der Universität Osnabrück, 27. Juni 1989.;-;-;-;https://link.springer.com/article/10.1007/BF03340100 41aad0017658bbabc669a8a7134463eb;de;;;3.3.;;;Geomatik in Ökosystembewertung und -management Die Entwicklung der Geomatik wurde in den letzten Jahren durch die rasanten Fortschritte in der Computerhardware und -software revolutioniert. Geomatik wurde erfolgreich bei der Bewertung der biologischen Vielfalt, der Kartierung von Feuchtgebieten, der Bewertung der Degradation von Trockengebieten, der Messung von Landoberflächen und Meeresattributen und vielen anderen Anwendungen eingesetzt. Geomatik-Technologien kommen dem Ökosystembewertungs- und -managementprozess in allen Phasen zugute, einschließlich Datensammlung, Datenmanagement, Datenanalyse und -modellierung sowie Präsentation der Ergebnisse. Das Kapitel führt einen Überblick über die Geomatik-Technologien und ihre Anwendung in einem praktischen Rahmen für die Bewertung und das Management von Ökosystemen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03449-2_2 bbbb79d26c59a00eb9a72d2852f57a09;de;;;1.1.;;;Einführende Bemerkungen zu einer Theorie symbolisch generalisierter KommunikationsmedienSeit dem 19. Jahrhundert stützen Arbeiten an einer Gesellschaftstheorie sich auf zwei Fundamente: auf Annahmen über Systembildung und Systemdifferenzierung und auf Annahmen über Evolution. Diese Doppelfundierung ermöglicht Polemiken und Relationierungen. Sie ermöglicht es, den Bestand und die Bedeutung einer gefestigten Ordnung als unentbehrlichen Ausgangspunkt jeder wissenschaftlichen Analyse (auch und gerade von Veränderungen) zu behaupten und andererseits eine Übertreibung system-und strukturtheoretischer Ordnungsbehauptungen im Hinblick auf den sozialen Wandel zurückzuweisen. In polemischer Perspektive kann dann die eigene Position mit einer Zurückweisung der Übertreibung der Gegenposition begründet werden. Daß diese Argumentationstechnik nicht längst ermüdet hat, liegt an den Möglichkeiten der Relationierung, die jene dichotomische Struktur eröffnet. Man kann Thesen über Systembildung und Thesen über Evolution getrennt formulieren und sie sodann zueinander in Beziehung setzen. So heißt es etwa bei Klassikern der Soziologie, daß Evolution mit Hilfe der Darwinschen Mechanismen die Komplexität des Gesellschaftssystems steigere, oder daß Evolution zu zunehmender Systemdifferenzierung und zur Umstellung von segmentärer auf funktionale Differenzierung führe, oder daß Evolution soziale Differenzierung als Schichtengegensatz aufbaue, verstärke, vereinfache und schließlich aufhebe. Die Erkenntnisgewinne stecken hier in Aussagen über Relationen, sie werden durch Techniken der Relationierung unabhängig formulierter Sachverhalte hereingeholt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-12374-3_9 de6fa3ea539dcb2b35078a6d9c20adb7;de;;;1.1.;;;Strategisches Regulierungsmanagement in der anreizregulierten NetzwirtschaftIn vielen Branchen stellen regulatorische Vorgaben eine wesentliche Erfolgsdeterminante für Unternehmen dar. Dies gilt durch den direkten Einfluss auf die erzielbaren Erlöse insbesondere in Netzindustrien, wie etwa den deutschen Strom- und Gasnetzen. Diese waren in den vergangenen Jahren nicht nur einem verstärkten Effizienzdruck ausgesetzt, sondern müssen den durch die „Energiewende” induzierten Herausforderungen, wie einem wachsenden Anteil regenerativer dezentral fluktuierender Einspeisungen und einem stark gestiegenen Investitionsbedarf in die Netzinfrastruktur begegnen. Der vorliegende Beitrag analysiert daher mittels einer empirischen Untersuchung die individuelle Ausgestaltung von Organisation und Aufgaben des an Bedeutung gewinnenden strategischen Regulierungsmanagements sowie dessen Wandlung von der primären Erfüllung einer Informationsfunktion hin zu einem zentralen Steuerungselement im Unternehmen.;-;-;-;https://link.springer.com/article/10.1007/BF03372916 03df6c9879220e530c5c043e214397c3;de;;;1.1.;;;Wie setzen sich angehende Lehrkräfte mit pädagogischen Situationen auseinander? Eine Analyse von Argumentationsstrukturen und genutzten InformationenDie kritische Auseinandersetzung mit pädagogischen Situationen ist eine bildungsrelevante Fähigkeit, die Lehrkräfte ihren Schülerinnen und Schülern vermitteln und die sie selbst im Sinne einer evidenzorientierten Praxis nutzen sollten, um ihre eigenen Entscheidungen in Bezug auf ihr professionelles Handeln zu begründen. Kritisches Denken zeigt sich in der Fähigkeit zu argumentieren und in der Art der genutzten Informationen (z. B. wissenschaftliches Wissen, Erfahrungen). Die Wahrnehmung, Darstellung und argumentative Abwägung verschiedener Positionen und Informationen weist insbesondere auf kritische Denkprozesse hin. In der vorliegenden Studie stellen wir daher die Fragen, (1) ob Lehramtsstudierende bei der schriftlichen und individuellen Auseinandersetzung mit pädagogischen Situationen argumentieren und wenn ja, welche Struktur diese Argumentationen aufweisen, (2) welche Informationen sie bei der Auseinandersetzung mit pädagogischen Situationen nutzen und (3) in welchem Zusammenhang genutzte Informationen mit der Argumentationsstruktur stehen. Wir analysierten 87 schriftliche Auseinandersetzungen von Studierenden im Master of Education, in denen sie eine schulische Situation auswählen, beschreiben und erklären sollten, und werteten diese Einträge mit einem qualitativ-quantifizierenden Vorgehen aus. Es wurden die Argumentationsstruktur (non-argumentation, einseitige Argumentation, zweiseitige Argumentation) sowie die Informationsintegration (intern, extern, intern und extern) mit einem eigens entwickelten Kodierschema untersucht. Die Ergebnisse zeigen, dass Lehramtsstudierende vor allem einseitig argumentieren, ein Viertel der Studierenden integriert verschiedene Positionen im Sinne einer zweiseitigen Argumentation. Zudem nutzen Studierende bei der schriftlichen Auseinandersetzung größtenteils externe Informationen (z. B. Lehrbücher). Die Fähigkeit zweiseitig zu argumentieren steht darüber hinaus in Zusammenhang mit der Informationsintegration. Die Ergebnisse werden kritisch in Hinblick auf die Konsequenzen für die Lehrerbildung diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s11618-020-00970-w c38b58ede00b724f6afa9fda1bc13415;de;;;1.1.;;;Neurologische Komplikationen der HIV-InfektionNach Einführung der modernen hochaktiven antiretroviralen Therapie (HAART) in die Behandlung der HIV („human immunodeficiency virus“) -Infektion im Jahre 1996 kam es zunächst zu einer Abnahme von Prävalenz und Inzidenz neurologischer Komplikationen dieser weltweit verbreiteten Infektionskrankheit. Im Lauf der folgenden Jahre nahm zunächst die Prävalenz, dann aber auch die Inzidenz, insbesondere der HIV-assoziierten Demenz, schrittweise wieder zu.;-;-;-;https://link.springer.com/article/10.1007/s00115-008-2588-x 4c5a946c37910f38910d1e8768ce0cba;de;;;3.3.;;;Gleichungsbasierte objektorientierte Sprachen und Tools EOOLT’2008 war die zweite Ausgabe des ECOOP-EOOLT-Workshops. Der Workshop soll Forscher, die mit verschiedenen gleichungsbasierten objektorientierten (EOO) Modellierungssprachen verbunden sind, und verschiedenen Anwendungsgebieten, die solche Sprachen verwenden, zusammenbringen. Ziel des Workshops ist es, Gemeinsamkeiten zu erkunden und Software-Design-Prinzipien abzuleiten, die zukünftige EOO-Modellierungssprachen robuster, vielseitiger und bei den verschiedenen Interessengruppen allgemein akzeptiert machen können. Auf der EOOLT'2008 kamen Forscher mit unterschiedlichen Hintergründen und Bedürfnissen zusammen, um vierzehn verschiedene Konzeptpapiere zu präsentieren und zu diskutieren, die in die vier Themenbereiche integrierte Systemmodellierungsansätze, Modellierung für mehrere Anwendungen, Modellierungssprachendesign sowie Gleichungsbehandlung, Diagnose und Modellierung gruppiert sind .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02047-6_3 b1a94fd5b178a48de90d98c9a5fc750a;de;;;3.3.;;;Musiknoten mit Wasserzeichen Wasserzeichen ermöglichen das Verbergen von Informationen in digitalen Objekten wie Bildern, Videos, Audiodateien und Textseiten. Versteckte Codes können verwendet werden, um das Eigentum an den digitalen Objekten im Falle einer Überprüfung der Urheberrechtsverletzung nachzuweisen. Die meisten der am häufigsten verwendeten Anwendungen von Wasserzeichen beziehen sich auf Farb- oder S/W-Bilder. In diesem Beitrag wird eine Analyse spezifischer innovativer Techniken zum Versehen von Musikpartituren mit Wasserzeichen vorgestellt. Die Analyse erfolgte auf Basis der von der Nutzergruppe des europäischen Projekts WEDELMUSIC herausgestellten Anforderungen. Die in diesem Papier berichtete Diskussion wurde unter Berücksichtigung der Fähigkeiten von Musikern durchgeführt, Veränderungen in den Notenblättern zu erkennen. Diese Arbeit kann für andere Forscher nützlich sein, die in diesem Bereich arbeiten möchten.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45453-5_83 2272a0c0a53d1e59e42d7cb0d95db4ca;de;;;3.3.;;;Ein nachweisbares Abrechnungsprotokoll auf dem aktuellen UMTS Dieses Papier schlägt eine einfache Methode vor, die UMTS-basierte Telekommunikationsunternehmen mit einem Mechanismus ausstattet, um die Aufzeichnungen auf den Telefonrechnungen von Mobilfunknutzern nachzuweisen. In der Geschichte der Mobilfunkkommunikation haben wir unzählige ungeklärte Streitigkeiten erlebt, bei denen der Mobilfunknutzer mit dem Telekommunikationsunternehmen entweder über die Gesprächszeit oder -dauer oder sogar darüber, ob ein Anruf tatsächlich getätigt wurde oder nicht, uneins ist. In diesem Beitrag wird ein nachweisbares Abrechnungsprotokoll vorgestellt, das Meinungsverschiedenheiten zwischen den beiden Parteien effektiv lösen kann. Ausgestattet mit einer Nicht-Abstreitbarkeits-Funktion ermöglicht das vorgeschlagene Protokoll dem Diensteanbieter, die stichhaltigen Beweise darüber festzuhalten, wann und an welcher Nummer ein Mobiltelefonbenutzer genau angerufen hat, sodass der Mobiltelefonbenutzer nicht gleichzeitig bestreiten kann, Der Mobilfunknutzer erhält auch einen eigenen Anteil an Nachweisen darüber, wann und wie auf die Mobilfunkdienste zugegriffen wurde, damit die Rechnung noch einmal überprüft werden kann, um sicherzustellen, dass nichts schief geht. Und um es noch besser zu machen, dieses neue Protokoll ist perfekt mit dem Standard-UMTS-Protokoll kompatibel und daher problemlos auf die aktuellen Mobilfunkumgebungen anwendbar.;-;-;-;https://link.springer.com/article/10.1007/s11277-009-9818-9 f57d0917eb16205232c51038647dcdae;de;;;1.1.;;;Leistungen und Grenzen der kybernetischen BetrachtungsweiseWir wollen uns abschließend Rechenschaft über den Standort der Kybernetik im Rahmen unseres wissenschaftlichen und philosophischen Denkens geben. Die Kybernetik ist eine junge Wissenschaft, in rascher Entwicklung begriffen, noch stehen keineswegs ihre Anwendungsbereiche alle fest. Auch ihre Begriffe werden nicht immer einheitlich verwendet. Aber ohne Zweifel sind von der Kybernetik auf fast alle Wissenschaften und auch auf die Philosophie nachhaltige Anregungen ausgegangen, so daß bisweilen geradezu von dem Anbruch eines neuen, von der Kybernetik geprägten, Zeitalters gesprochen wird. In dieser Situation ist es wichtig, die Möglichkeiten wie auch die Grenzen dieser neuartigen Disziplin abzuschätzen.Fassen wir zunächst zusammen, was die Kybernetik für die Erkenntnis des Lebendigen geleistet hat. Tabelle 19 bringt einen Vergleich zwischen technischen und biologischen Systemen. Die Gegenüberstellung läßt erkennen, in welchen Fällen es zweckmäßig ist, menschliche Steuerung durch maschinelle zu ersetzen. Die technischen Systeme arbeiten exakter, sie besitzen eine Schaltgeschwindigkeit,die etwa eine Millionmal größer ist, und sie ermüden nicht. Demgegenüber verfügen die biologischen Systeme über sehr viel mehr Schalteinheiten und damit verbunden über eine größere Organisationshöhe und Vielseitigkeit. Diese Konzentrierung von Struktur auf engstem Raum wird durch eine von der Technik nicht erreichte Kleinheit der Schaltelemente ermöglicht. Auch die von der Natur erzielte Ökonomie ist in der Technik nicht realisierbar: Das Gehirn benötigt zu seinem Betrieb 25 W. Eine mit Transistoren ausgerüstete Maschine von gleichem Schaltaufwand hat einen 4000 mal größeren Energiebedarf. — Eine weitere wesentliche Eigenheit der biologischen Systeme ist die Bipolarität der Steuerung, die die Stabilität der Systeme erhöht, und die wir in unserem geistigen Leben als schöpferische Spannung erfahren (s. S. 221, 228). — Bild 76 gibt ein Modell für die Informationsverarbeitung des Menschen, das ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-02006-6_8 853c029c1cb8a96f37d1db51194763df;de;;;1.1.;;;Organisationspsychologie – die Ressource Mensch im FokusBei der Zeitplanung, Schulung und Einführung der Mitarbeiter sowie der Betrachtung unternehmensinterner Prozesse stellt die Einführung von IT-Systemen in Unternehmen eine technische und organisatorische Herausforderung dar. Neben diesen Punkten spielt auch die Mitarbeitermotivation und -führung in die Nutzenerkennung und Verwendung des IT-Systems eine Rolle. Beispielsweise führen unbekannte, schwierige und eventuell als überflüssig angesehene Aufgaben zu einer fehlenden Motivation der Mitarbeiter. Dieses Kapitel erweitert die bisher vorgestellten wissenschaftlichen Ausführungen um eine weitere Betrachtungsweise. Wie die Arbeitsgebiete der Wirtschafts- und Organisationspsychologie andeuten, beeinflusst auch die Psychologie den Berufsalltag von Vorgesetzten und Mitarbeitern. Im Rahmen der Forschungen zur Arbeits- und Organisationspsychologie werden Modelle und Theorien erstellt und in der Praxis angewendet. Grundlegend für diese Teildisziplin sind allgemeine theoretische Modelle aus verschiedensten Bereichen der Psychologie, darunter die kognitive Psychologie. Auf der Grundlage der kognitiven Psychologie sind die Teildisziplinen der Arbeitszufriedenheit und der Motivationspsychologie entstanden, die ebenfalls anhand von Modellen dargestellt werden. Die aufgeführten Erklärungen oder Theorien bieten eine Grundlage für die Rahmengestaltung bei der Einführung eines IT-Systems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-59064-5_5 f79cb215bd4bc0f9b4ba74a368740521;de;;;1.1.;;;Über den Wandel des Begriffs ‘Verstehen’ in Verschiedenen Psychologischen DenkformenIn dieser Arbeit wird der Frage nachgegangen, wie im Rahmen unterschiedlicher psyehologischer Denkformen ‘Verstehen’ auffaßbar ist und wie sich diese Auffassungen von jener unterscheiden, die uns umgangsspraehlich geläufig ist. Die Darlegungen gliedern sich in drei Teile: Im ersten Teil wird die umgangssprachliche Verstehensauffassung expliziert, im zweiten Teil werden vier psychologische Denkansätze charakterisiert (Bewußtseinspsychologie, Verhaltensanalyse, Informationsverarbeitungstheorie, Handlungstheorie), und im dritten Teil werden die diesen gemäßen Verstehensauffassungen dargelegt und mit der umgangssprachlichen Auffassung verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-69992-4_13 f7e8bf7dd3d9f856bfa3a77665a70625;de;;;3.3.;;;Ein effizientes, leichtgewichtiges Shared-Cache-Design für Chip-Multiprozessoren Die großen Arbeitsmengen kommerzieller und wissenschaftlicher Workloads begünstigen ein gemeinsames L2-Cache-Design, das die aggregierte Cache-Kapazität maximiert und Off-Chip-Speicheranforderungen in Chip-Multiprozessoren (CMP) minimiert. Der exponentielle Anstieg der Anzahl der Kerne führt zu einem entsprechenden Anstieg der Speicherkosten des Verzeichnisses, was seine Skalierbarkeit stark einschränkt. Um diese Hürde zu nehmen, ein Roman;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03644-6_3 be8b581e9800b8da271c2a7dcb90d40c;de;;;3.3.;;;Komplexe Systeme verstehen: Was kann uns der sprechende Löwe sagen? Die Wiedergeburt komplexer Systeme in mehreren unterschiedlichen Forschungsbereichen hat neue epistemischen Fragen aufgeworfen. Selbstorganisierende Systeme sowie autonome Roboter neigen dazu, sich nicht nur unvorhersehbar zu verhalten, sondern sind auch extrem schwer zu analysieren. In diesem Beitrag diskutieren wir drei Probleme mit neuronalen Netzen, die für komplexe Systeme im Allgemeinen wichtig sind. Sie beziehen sich auf das richtige Design eines selbstorganisierenden Systems, auf die Rolle des Systemingenieurs und auf die richtige Erklärung des Systemverhaltens. Wir präsentieren eine allgemein anwendbare Lösung, die auf einer „Symbol Grounding“ neuronalen Netzarchitektur basiert. Wir werfen auch einen Blick auf ein implementiertes Netzwerk, das darauf hinweist, dass Erdung in diesem Fall teleologische Begriffe beinhalten muss. Anschließend diskutieren wir die Beziehung dieses Ansatzes zum Messproblem in der Physik und weisen auf Ähnlichkeiten zu bestehenden Positionen in der Philosophie hin. Allerdings ist anzumerken, dass unsere „Lösung“ des Erklärungsproblems als sehr skeptisch zu beurteilen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-79629-6_22 54db3e9f65b8b5ad643cec770b124617;de;;;3.3.;;;Eine eingehende Untersuchung der Zusammenhänge zwischen strukturellen Metriken und Unit-Testbarkeit in objektorientierten Systemen Es besteht die allgemeine Überzeugung, dass strukturelle Eigenschaften von Klassen wichtige Faktoren sind, um ihre Unit-Testbarkeit zu bestimmen. Es wurden jedoch nur wenige empirische Studien durchgeführt, um den tatsächlichen Einfluss struktureller Eigenschaften von Klassen zu untersuchen. In diesem Papier verwenden wir multiple lineare Regression (MLR) und partielle kleinste Quadrate Regression (PLSR), um die Beziehungen zwischen den Metriken, die strukturelle Eigenschaften messen, und der Unit-Testbarkeit einer Klasse zu untersuchen. Die untersuchten strukturellen Metriken decken fünf Eigenschaftsdimensionen ab, darunter Größe, Kohäsion, Kopplung, Vererbung und Komplexität. Unsere Ergebnisse aus Open-Source-Softwaresystemen zeigen, dass: (1) die meisten strukturellen Metriken statistisch mit der Unit-Testbarkeit in einer erwarteten Richtung zusammenhängen, wobei Größe, Komplexität und Kopplungsmetriken die wichtigsten Prädiktoren sind, dass (2) multivariate Regressionsmodelle basierend auf strukturellen Metriken die Unit-Testbarkeit von Klassen nicht genau vorhersagen kann, obwohl sie besser in der Lage sind, die Unit-Testbarkeit von Klassen einzustufen, dass (3) der Übergang von MLR zu PLSR die Fähigkeit zur Einstufung der Unit-Testbarkeit von Klassen erheblich verbessern könnte, aber nicht die Fähigkeit um den Unit-Test-Aufwand von Klassen vorherzusagen.;-;-;-;https://link.springer.com/article/10.1007/s11432-012-4745-x af240882fd5bc30d18650e5d3df1c836;de;;;1.1.;;;Heutige und zukünftige Treibhausgasemissionen nach einer Life-Cycle-Analysis (LCA)In diesem Kapitel werden die THG-Emissionen dargelegt, welche für Automobile mit unterschiedlichen Energieträgern und Antriebstechnologien einhergehen. Die Erhebung der THG-Emissionen erfolgt gemäß der Systematik einerLebenszyklusanalyse (LCA). Die Verwendung von spezifischen THG-Emissionen ist u. a. für Vergleichszwecke vorteilhaft. Spezifische Emissionen werden auch als Emissionsfaktoren bezeichnet. Von besonderer Relevanz ist der Emissionsfaktor von Strom, da sich dieserfür alle elektrischen Antriebstechnologien und strombasierten Kraftstoffe signifikantauf die gesamten THG-Emissionen auswirkt, welche mit diesen Technologien einhergehen. Es wirdein erneuerbarer Strombezug definiert, bei welchem nachweislich keinerlei direkteTHG-Emissionen durch konventionelle Stromerzeugungsanlagen hervorgehen. Zudemwerden bestehende Grünstromprodukte hinsichtlich ihrer Verursachergerechtigkeitbewertet. Letztlich werden die Emissionsfaktorenfür unterschiedliche Strombezugsvarianten abgeleitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-24060-8_3 1472626c17298379f92ec942b96f08a5;de;;;1.1.;;;Der Handlungsbegriff in der modernen SoziologieAlle gesellschaftlichen Prozesse drehen sich — letztlich — um die Reproduktion befriedigender Zustände des alltäglichen Lebens. Die dafür wichtigsten Vorgänge sind die Produktion von Gütern und deren Verteilung über Transaktionen. Bei allen Vorgängen der Produktion und der Transaktion ist das Handeln der Menschen der zentrale Vorgang. Es bildet den dynamischen Kern aller gesellschaftlichen Prozesse und Strukturen, auch wenn man das nicht auf den ersten Blick sieht. Das Handeln ist dabei einerseits stets in eine bestimmte, zuvor entstandene soziale Situation eingebettet, und es hat andererseits auch immer gewisse, über das Handeln hinausgehende Folgen, welche die dann entstehende neue Situation und das darauf folgende Handeln prägen. Die Erklärung gesellschaftlicher Vorgänge erfordert damit immer drei Schritte: die Untersuchung der„Logik der Situation“, der sich die Menschen jeweils gegenüber stehen, die Erklärung ihres Handelns angesichts dieser Umstände über eine„Logik der Selektion“ dieses Handelns, und die Ableitung der durch das Handeln der vielen Individuen erzeugten gesellschaftlichen Folgen über eine „Logik der Aggregation“.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-90401-6_2 aba8ead69ab1a7383b6b20cc2de06430;de;;;1.1.;;;Die kognitive Orientierung der Psychologie seit der 2. Hälfte des 20. JahrhundertsWissenschaftshistoriker tun gut daran, sich bei ihren Analysen nicht allzu weit in die Gegenwart vorzuwagen oder gar prospektive Aussagen zu machen. Um ein ausgewogenes Urteil über Tragfähigkeit und Nachhaltigkeit wissenschaftlicher Entwicklungstrends (Theorien, methodologische Ansätze, Fragestellungen, institutionelle Formen usw.) abgeben zu können, ist ein angemessener zeitlicher Abstand erforderlich. Der Wirtschaftshistoriker J. Kuczynski schlägt mindestens „ein halbes Jahrhundert“ als Distanzmaß vor (Kuczynski, 1975, 12). Allzu leicht läuft man ansonsten Gefahr, kurzlebige modische Neuerungen für bleibende Verdienste zu halten. Ferner ist zu bedenken: Aus einer angemessen weiten zeitlichen Retrospektive kann es durchaus legitim und sinnvoll sein, das, was man ‚innere Logik der Erkenntnisentwicklung’ nennt, zu (re)konstruieren. Für eine prospektive Verlängerung dieser ‚inneren Logik’ in die Zukunft ließe sich indes keine plausible Begründung finden, es sei denn, man würde annehmen, dass die Erkenntnisentwicklung von immer und überall gültigen Gesetzmäßigkeiten geleitet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-92423-6_8 cae225ddceeec606c250117a4b01d6b0;de;;;1.1.;;;Kennzahlensysteme als Instrumente des Publizitäts-ControllingAls weiteres Element der Konzeption des Publizitäts-Controlling ist nach der Bestimmung von Zielen und den dargestellten Gestaltungsdimensionen eine instrumentelle Ebene zu ergänzen. Grundlage für die Ausgestaltung von Instrumenten ist das normative Verständnis von Publizität als zielgerichtetem Agieren im Rahmen der Unternehmensführung. Die Überlegungen zur Instrumentenfindung können daher nicht auf die Ebene der Präskription im Sinne einer Festlegung von Strukturmerkmalen im Rahmen wissenschaftlicher Beobachtungen von Unternehmenspublizität begrenzt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-5521-6_5 9d0cbed50779692eae10c924470370d2;de;;;1.1.;;;Integrative Entrepreneurship-Forschung — Identifikation von Schnittstellen zwischen soziologischer und ökonomischer PerspektiveIn diesem Beitrag werden drei prominente Diskurse der Entrepreneurship-Forschung — 1) der Entrepreneur als Akteur in der Gesellschaft, 2) die Kontextualität des Gegenstandes der Entrepreneurship-Forschung und 3) die Determinanten der Entrepreneurship-Prozesse — auf mögliche Schnittstellen zwischen betriebswirtschaftlicher und soziologischer Perspektive hin untersucht. Die Analyse ergibt eine systematische Zusammenstellung von Forschungsfeldern, die für eine integrierte Bearbeitung besonders attraktiv erscheinen. Die Ergebnisse einer im Herbst 2008 durchgeführten Befragung unter 105 Entrepreneurship-ForschernInnen aus dem deutschsprachigen Raum bestätigen die Relevanz der identifizierten Schnittstellen. Damit wird eine notwendige Vorleistung für die Integration des Feldes geleistet. Die präsentierte Zusammenstellung solcher Schnittstellen bietet in einem ersten Schritt ein Forschungsprogramm für interdisziplinäre (empirische) Folgeforschung. Deren Ergebnisse können — in einem zweiten Schritt — Elemente eines integrativen Ansatzes der Entrepreneurship-Forschung darstellen.;-;-;-;https://link.springer.com/article/10.1007/s11614-009-0031-6 94c53586525d800b2f4b69b67ef938dc;de;;;3.3.;;;Kontrolle einer Produktverarbeitungskette Abbildung 9.1 skizziert eine Produktverarbeitungskette. Dabei handelt es sich um didaktische Geräte, die hauptsächlich von der nationalen Bildung für den Unterricht in Wirtschaftswissenschaften in Vorbereitungsklassen von wettbewerbsorientierten Hochschulen, insbesondere in technischen Fächern (Naturwissenschaften, Physik und Ingenieurwissenschaften) und Ingenieurschulen, übernommen und verwendet werden. Dieses System wurde von der Abteilung Didactic de Festo France entwickelt und vermarktet.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0463-6_9 0a67cc7fe39dc753ffec8faa81380e56;de;;;3.3.;;;Empirische Analyse von Netzwerkmaßnahmen zur Vorhersage von Softwarefehlern mit hohem Schweregrad Netzwerkmessungen sind nützlich, um fehleranfällige Module vorherzusagen. Allerdings haben bestehende Arbeiten Fehler nicht nach ihrer Schwere unterschieden. In der Praxis verursachen Fehler mit hohem Schweregrad ernsthafte Probleme und erfordern weitere Aufmerksamkeit. In dieser Studie haben wir den Nutzen von Netzwerkmessungen bei der Vorhersage der Fehleranfälligkeit mit hohem Schweregrad untersucht. Wir haben Software-Quellcode-Netzwerke für vier Open-Source-Projekte aufgebaut, indem wir die Abhängigkeiten zwischen den Modulen extrahiert haben. Anschließend haben wir die univariate logistische Regression verwendet, um die Zusammenhänge zwischen jedem Netzwerkmaß und der Fehleranfälligkeit auf einem hohen Schweregrad zu untersuchen. Wir haben multivariate Vorhersagemodelle erstellt, um ihre Erklärungsfähigkeit für die Fehleranfälligkeit zu untersuchen, sowie ihre Vorhersagewirksamkeit im Vergleich zu Codemetriken unter Forward-Release- und projektübergreifenden Vorhersagen bewertet. Die Ergebnisse zeigten Folgendes: (1) die meisten Netzwerkkennzahlen sind signifikant mit einer hohen Fehleranfälligkeit verbunden, (2) Netzwerkkennzahlen haben im Allgemeinen vergleichbare Erklärungsfähigkeiten und Vorhersagekraft wie Codemetriken und (3) Netzwerkkennzahlen sind sehr instabil für projektübergreifende Vorhersagen. Diese Ergebnisse zeigen, dass Netzwerkmessungen von praktischem Wert bei der Vorhersage der Fehleranfälligkeit mit hohem Schweregrad sind.;-;-;-;https://link.springer.com/article/10.1007/s11432-015-5426-3 9cfb481f3a1fb5830422fd269bf73783;de;;;3.3.;;;Design und Implementierung eines neuartigen flexiblen Krypto-Coprozessors und seiner Anwendung im Sicherheitsprotokoll Kryptographie ist ein wesentlicher Bestandteil des modernen elektronischen Geschäftsverkehrs. Die Beschleunigung von Sicherheitsprotokollen ist aufgrund der Komplexität von Kryptoalgorithmen eine große Herausforderung bei Allzweckprozessoren. Die ultimative Lösung für dieses Problem wäre ein adaptiver Prozessor, der softwareähnliche Flexibilität mit hardwareähnlicher Leistung bereitstellen kann. Nach der Analyse der Eigenschaften von Sicherheitsprotokollen stellen wir fest, dass die meisten Kryptoalgorithmen auf Funktionsebene zwischen verschiedenen Sicherheitsprotokollen eingesetzt werden, und schlagen eine neuartige flexible Krypto-Koprozessor-Architektur (FC-Koprozessor) vor, die auf rekonfigurierbaren kryptografischen Blöcken (RCBs) beruht, um ein Gleichgewicht zu erreichen zwischen hoher Performance und Flexibilität und implementieren eine flexible Architektur für Sicherheitsprotokolle auf FPGA. Innerhalb der RCBs wird die Pipelining-Technik verwendet, um parallele Daten zu realisieren und die Kosten des Hosts und des Coprozessors zu reduzieren. Wir betrachten mehrere Kryptoalgorithmen als Beispiele, um das Design von RCB im FC-Coprozessor zu veranschaulichen. Schließlich implementieren wir den Prototyp des FC-Coprozessors auf dem Xilinx XC5VLX330 FPGA-Chip. Die Experimentergebnisse zeigen, dass der Coprozessor mit 189 MHz das softwarebasierte Secure Sockets Layer-Protokoll, das auf einer Intel Core i3 530 CPU mit 2,93 GHz läuft, für typische Kryptoalgorithmusblöcke um den Faktor 4,8 übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41635-4_7 3209f304d2380644564cb1aef40d2e1e;de;;;3.3.;;;Mobile Edge Computing-fähiges Blockchain-Framework – eine Umfrage Mobile Edge Computing (MEC) ermöglicht die Erweiterung von Cloud-basierten Diensten auf Edge-Netzwerke, die aus mobilen Basissystemen bestehen. MEC bietet Software- und Hardwareplattformen, um nahtlose und dezentralisierte Datenverwaltungsschemata neben Basissystemen zu integrieren und so die End-to-End-Latenz des Benutzers zu reduzieren. Es ist integraler Bestandteil der Architektur der fünften Generation (5G) und bietet innovative IT-basierte Dienste. MEC erstreckt sich über mehrere maßgebliche Domänen, in denen Vertrauen und Interoperabilität zwischen Knoten ein Hauptanliegen zwischen stromsparenden Sensorknoten sind, wie im Fall von Internet of Things (IoT)-basierten Umgebungen. Die Anforderungen an Vertrauen und Interoperabilität machen ein Blockchain-Framework für die MEC-Plattform anwendbar. Auf solchen Plattformen können Miner rechenintensive Proof-of-Work (PoW)-Rätsel lösen, die mobile Transaktionen als Blöcke zu unveränderlichen Ledgern enthalten, sodass eine erhebliche Menge an CPU-Berechnungen und Energiebeschränkungen verbraucht werden. Dieser Artikel präsentiert einen systematischen Überblick über die MEC-Architektur und stellt ein mobiles Blockchain-Framework vor, das in die MEC-Architektur integriert werden kann, um das Mining-Schema zu erleichtern. Anschließend analysiert der Artikel die Auswirkungen der Integration von Blockchain mit der MEC-Plattform. Abschließend werden abschließende Bemerkungen und zukünftige Arbeiten gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29407-6_57 6e52b5b744b52b2202f2d2cd5038b37f;de;;;3.3.;;;Treppenerkennung basierend auf der Extraktion der längsten ansteigenden Teilfolge von horizontalen Kanten und Fluchtpunkten Die Erkennung des Treppenbereichs aus einem Treppenbild ist sehr wichtig für die autonome Kletternavigation und das Alarmsystem für Jalousien und Sehbehinderte. In diesem Zusammenhang wird in dieser Arbeit ein Framework zur Erkennung von Treppen aus Treppenbildern vorgeschlagen. Zur Erkennung des Treppenbereichs wird eine natürliche Treppeneigenschaft ausgenutzt, dass die Stufen einer Treppe nach ihrer Länge vom oberen zum unteren Ende der Treppe sortiert erscheinen. Basierend auf dieser Idee wird zunächst eine horizontale Kantenerkennung an dem Treppenbild zum Erkennen von Treppenkanten durchgeführt. Im zweiten Schritt werden die längsten horizontalen Kanten aus dem Kantenbild durch Kantenverknüpfung extrahiert. Im dritten Schritt wird der Algorithmus der längsten ansteigenden Teilsequenz (LIS) auf das horizontale Kantenbild angewendet, um die Treppenkante zu extrahieren. Schließlich wird der Fluchtpunkt aus diesen Sätzen von horizontalen Linien berechnet, um die Erkennung des Treppenkandidatenbereichs zu bestätigen. Verschiedene Treppenbilder werden mit einer Vielzahl von Bedingungen verwendet, um den vorgeschlagenen Rahmen zu testen, und die Ergebnisse werden präsentiert, um seine Wirksamkeit zu beweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-00651-2_29 6c435bc2372ffdaeca2b17a3e6f78953;de;;;3.3.;;;Definition und empirische Validierung von Metriken für Software-Prozessmodelle Softwareunternehmen machen sich immer mehr Gedanken über die Verbesserung von Softwareprozessen, wenn sie die Verbesserung der Endprodukte vorantreiben. Einer der Hauptgründe für das wachsende Interesse an Softwaremetriken war die Auffassung, dass Softwaremetriken für die Verbesserung von Softwareprozessen notwendig sind. Messungen sind für das Verständnis, die Definition, das Management und die Kontrolle der Softwareentwicklungs- und Wartungsprozesse unerlässlich und es ist nicht möglich, die verschiedenen Aspekte der Entwicklung quantitativ zu charakterisieren, ohne ein tiefes Verständnis der Softwareentwicklungsaktivitäten und ihrer Zusammenhänge zu haben. In diesem Beitrag wird ein repräsentativer Satz von Metriken für Software-Prozessmodelle vorgestellt, um den Einfluss der Komplexität von Software-Prozessmodellen auf ihre Qualität zu bewerten. Diese Metriken konzentrieren sich auf die Hauptelemente, die in einem Modell von Softwareprozessen enthalten sind, und können die quantitative Grundlage liefern, die erforderlich ist, um die Veränderungen in den Softwareprozessen in Unternehmen mit hohem Reifegrad zu bewerten. Um den praktischen Nutzen der auf Modellebene vorgeschlagenen Metriken zu demonstrieren, wurde ein Experiment durchgeführt, das uns erlaubt hat, einige Schlussfolgerungen über den Einfluss der vorgeschlagenen Metriken auf zwei Teilmerkmale der Wartbarkeit zu ziehen: Verständlichkeit und Modifizierbarkeit, die außerdem die Ergebnisse eines zuvor durchgeführten subjektiven Experiments.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24659-6_11 f58ee3d9d90f5c2f4b76d0509b04bf4c;de;;;3.3.;;;Verteilte Workflow-Service-Komposition basierend auf CTR-Technologie In letzter Zeit wurde WS-BPEL nach und nach zur Grundlage eines Standards für die Beschreibung und Zusammensetzung von Webdiensten. WS-BPEL kann jedoch verteilte Workflow-Dienste nicht effizient beschreiben, da es an besonderer Ausdruckskraft und formaler Semantik mangelt. Dieses Papier stellt eine neuartige Methode zur Modellierung verteilter Workflow-Service-Komposition mit Concurrent TRansaction-Logik (CTR) vor. Die syntaktische Struktur von WS-BPEL und CTR wird analysiert, und es werden neue Regeln zur Abbildung von WS-BPEL in CTR angegeben. Eine Fallstudie wird vorgelegt, um zu zeigen, dass die vorgeschlagene Methode für die Modellierung von Workflow-Business-Services in verteilten Umgebungen geeignet ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18134-4_105 716f7a5394228c192413c8433b6bd219;de;;;3.3.;;;Softwareprozessverbesserung aus menschlicher Sicht Die meisten Ansätze zur Verbesserung von Softwareprozessen konzentrieren sich auf formale Prozessbeschreibungen, in denen Modelle und Standards von Best Practices entwickelt wurden, wobei jedoch der menschliche Faktor vergessen wurde, wodurch eine wichtige Lücke zwischen den beschriebenen Prozessen und den angewendeten Prozessen entsteht. Diese Lücke ist für kleine und mittlere Unternehmen (KMU) von besonderem Wert, denn selbst wenn viele von ihnen motiviert sind, Softwareprozessinitiativen zu implementieren, wissen die meisten nicht, wie sie dies am besten tun sollen. Um KMU bei der Implementierung von Softwareprozessverbesserungen zu unterstützen, stellt dieser Beitrag dar, wie zwei Faktoren entwickelt wurden, indem zwei systematische Reviews durchgeführt wurden. Außerdem enthält das Papier eine lokale Studie zu KMU von Zacatecas. Schließlich zeigt das Papier zwei Vorschläge, die aus der Analyse der beiden systematischen Übersichten und der lokalen Studie abgeleitet wurden: die Charakterisierung zu behandeln und Implementierungsstrategien zu entwickeln und auszuwählen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-05951-8_28 3ec59ed9492484673b500a8ae1c7b78e;de;;;3.3.;;;Vorschlag für eine Entscheidungsunterstützungssoftware für das Design von zellularen Fertigungssystemen mit mehreren Routen Diese Studie präsentiert eine Software zur operativen Entscheidungsunterstützung zur effizienten Lösung von Zellbildungsproblemen mit mehreren Routen. Die Software enthält zwei überarbeitete Algorithmen, die Entscheidungsträgern bei der Auswahl des besten Mobilfunk-Layouts helfen. Bei diesen überarbeiteten Algorithmen handelt es sich um den multiobjektiven genetischen Algorithmus, der zwei verschiedene Skalarisierungsverfahren verwendet, wie z. Aus diesen Algorithmen hat der multiobjektive genetische Algorithmus mit konischer Skalarisierung wichtige Vorteile gegenüber vielen multiobjektiven Ansätzen in der Literatur, um alle effizienten Lösungen für lineare und nichtlineare multiobjektive Modelle erreichen zu können. Diese überarbeiteten Algorithmen und die Entscheidungsunterstützungssoftware wurden an einigen Datensätzen getestet, die von einem Motorenwerk und der Literatur gesammelt wurden. Die Testergebnisse zeigten, dass der überarbeitete multiobjektive genetische Algorithmus mit konischer Skalarisierung in vielen Fällen zu einer besseren Leistung führt als der überarbeitete Fuzzy-c-Means-Algorithmus und die in den Testaufgaben verwendeten Methoden für Probleme mit Multiobjektiven und Mehrfachrouten. Praktiker und Forscher können diese operative Entscheidungsunterstützungssoftware und den multiobjektiven genetischen Algorithmus mit konischer Skalarisierung verwenden, um im Vergleich zu anderen Softwareanwendungen in der Literatur qualitativ hochwertigere zelluläre Layoutlösungen zu erhalten.;-;-;-;https://link.springer.com/article/10.1007/s00170-014-6397-z e16ce7e26944b336aff1334a48bae947;de;;;3.3.;;;Modellierung und Mining von Learnflows Dieser Artikel überträgt Konzepte und Methoden aus der Geschäftsprozessmodellierung und dem Workflow-Management auf den Bereich der Lernflüsse, also Lern- und Lehrprozesse. Zunächst wird gezeigt, dass diese beiden Bereiche viele Gemeinsamkeiten und Ähnlichkeiten aufweisen. Andererseits gibt es aber auch entscheidende Besonderheiten von Lernprozessen, die zusätzlich berücksichtigt werden müssen. Anschließend stellen und diskutieren wir Modellierungssprachen für Lernabläufe, die auf Ideen aus der Workflow-Modellierung basieren. Schließlich entwickeln wir einen Ansatz zur automatischen Generierung von Lernflussmodellen aus Logdateien lernender Systeme durch die Anpassung von Workflow-Mining-Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29072-5_2 4d4f265de20dbaeeb61c51ded0187edb;de;;;3.3.;;;Zuverlässigkeitsanalysemethode zur Unterstützung der Rückverfolgbarkeit mit UML Nicht-funktionale Anforderungen (NFRs) sind in Softwaresystemen sehr wichtig. Zuverlässigkeit ist einer der NFRs und sollte für einen qualitativ hochwertigen Service erfüllt werden. Es werden viele Ansätze zur Zuverlässigkeitsanalyse vorgeschlagen, jedoch weisen sie einige Einschränkungen auf, wie z. In diesem Papier schlagen wir eine Zuverlässigkeitsanalysemethode mit unterstützender Rückverfolgbarkeit unter Verwendung von UML vor. Dieser Ansatz kann Ergebnisse einer Zuverlässigkeitsanalyse liefern und unzuverlässige Teile von UML finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10619-4_12 832d04438ca8ebe6007d6260c5835b22;de;;;3.3.;;;Sicherheit im Hochleistungsrechnen Dieses Papier schlägt eine Lösung für die Anwendung von Sicherheit auf Hochleistungscomputersysteme (HPCS) vor. Sicherheit im High Performance Computing bereitzustellen ist eine anspruchsvolle Aufgabe. Internet, Betriebssysteme und verteilte Umgebungen leiden derzeit unter schlechter Sicherheitsunterstützung und können gängigen Angriffen nicht widerstehen. Das Papier zielt darauf ab, verschiedene Technologien auf unterschiedlichen Sicherheitsebenen auf HPCS anzuwenden. HPCS[2] zielt darauf ab, Hilfe bei komplexen und umfangreichen Berechnungen in einer Umgebung zu erhalten, in der die Arbeit von vielen kommunizierenden Computern an einer einzigen Aufgabe ausgeführt wird, was zu einem erhöhten Sicherheitsgrad führt. Das Papier beabsichtigt, drei Hauptaufgaben zu erfüllen. Erstens unterteilt es die Sicherheit in Ebenen, zweitens behandelt es, wie diese Ebenen auf Architekturen definiert werden und drittens werden die bestehenden Technologien von TCP/IP auf den hier definierten Ebenen vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12214-9_98 348371d3882dd7a91733aec1f9c4ca13;de;;;3.3.;;;Selbstjustierte Technologie für planare Leistungs-MOSFETs Die selbstjustierte Technologie wird durch Computersimulation im Kontext von Leistungs-MOSFET-Schaltern evaluiert. Die Ergebnisse ermöglichen es, die Eingangs- und Ausgangskapazität um das 6- bzw. 12-fache zu reduzieren, ohne dass der Durchlasswiderstand ansteigt. Die niedrigeren Kapazitäten implizieren eine höhere Schaltgeschwindigkeit.;-;-;-;https://link.springer.com/article/10.1023/A%3A1021853617839 7f14160a88c80400fd07cd942901aa73;de;;;3.3.;;;Bauhaus-Internationalismus zur Hochschulstadt-Moderne Ziel dieser Studie ist es, die Einfamilienhäuser von William Hajjar im State College, PA, zu analysieren und mit dem europäischen modernistischen Werk von Walter Gropius und Marcel Breuer in den USA zu vergleichen. Diese Analyse wird unter Verwendung von Formgrammatiken als Berechnungsentwurfsmethodik durchgeführt. Hajjar war Mitglied der Architekturfakultät der Pennsylvania State University, Praktiker am State College und eine einflussreiche Persönlichkeit in der Architekturgeschichte der Region. Formengrammatiken werden speziell verwendet, um die Einflüsse des Bauhauses/der europäischen Moderne auf die Wohnarchitektur von Hajjar zu überprüfen und zu beschreiben. Der Fokus liegt darauf, Hajjars Einfamilien-Architektursprache zu etablieren und sie mit der Architektursprache von Gropius (Gropius-Breuer-Partnerschaft) als Begründer der Bauhaus-Architektur und einem prominenten Praktiker bei der Einführung der europäischen Moderne bei amerikanischen Architekturstudenten Mitte des 20 Jahrhundert wie Hadschar.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-8410-3_30 1705f4c6a9d52549b43f2968ef4da560;de;;;3.3.;;;Theorie und Anwendung der Systemintegration zur Echtzeitüberwachung der Bauqualität von Kernverfüllungsdammverfüllungen Die Theorie und Methode der Systemintegration für die Echtzeitüberwachung der Bauqualität der Kernverfüllung von Dammverfüllungen werden in dieser Arbeit untersucht. Zunächst wird die Wichtigkeitsanalyse von Systemintegrationsfaktoren mit dem analytischen Hierarchieprozess durchgeführt. Anschließend wird gemäß dem Analyseergebnis der Integrationsfaktoren das konzeptionelle Modell der Systemintegration auf der Grundlage von Funktionsintegration, Indexintegration, Technologieintegration und Informationsintegration erstellt, die Indexstruktur der Qualitätskontrolle der Kernschüttung von Dammfüllungen erstellt und Die Methode der Funktionsintegration und der Technologieintegration wird untersucht. Das mathematische Modell der Prozessüberwachung ist nach Überwachungsziel, Prozess und Indizes aufgebaut. Die Forschungsergebnisse wurden beim Baumanagement von Nuozhadu-Kerngesteinsdämmen angewendet, wobei die Systemintegration durch den Aufbau eines geeigneten Überwachungsarbeitsablaufs und einer umfassenden Informationsplattform für den digitalen Damm realisiert wurde.;-;-;-;https://link.springer.com/article/10.1007/s12209-012-1694-9 4d1c5e75c5328dcba0ce06563b3d5904;de;;;3.3.;;;Ansätze zur Fehlerbehandlung bei Dual-Core-Mikrocontrollern in sicherheitskritischen Automobilanwendungen Im Automotive-Bereich nimmt die Zahl sicherheitskritischer Anwendungen zu. Dementsprechend müssen in diesen Anwendungen Anforderungen der neuesten Sicherheitsnormen erfüllt werden. Zu diesen Anforderungen gehört der Nachweis ausreichender Maßnahmen zum Umgang mit permanenten und transienten Hardwarefehlern. Darüber hinaus ist eine Berücksichtigung von Softwarefehlern erforderlich. In dieser Arbeit werden Ansätze auf Basis von Dual-Core-Mikrocontrollern hinsichtlich ihrer Fehlerbehandlungsfähigkeiten untersucht. Deswegen,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88479-8_7 061a8fdca50b81a43b3b4e63e5d6d97e;de;;;3.3.;;;Interaktionsorientierte Programmierung Dieses Papier beschreibt einen neuen Ansatz zur Herstellung robuster Software. Wir motivieren den Ansatz zunächst, indem wir erklären, warum die beiden Hauptziele des Software-Engineerings – korrekte Software und wiederverwendbare Software – vom aktuellen Stand der Softwarepraxis nicht ausreichend berücksichtigt werden. Anschließend beschreiben wir eine Methodik basierend auf aktiven, kooperativen und persistenten Softwarekomponenten, d. h. Agenten, und zeigen, wie die Methodik robuste und wiederverwendbare Software erzeugt. Wir leiten Anforderungen an die Struktur und das Verhalten der Wirkstoffe ab und berichten über Vorversuche zu Anwendungen auf Basis der Methodik. Wir schließen mit einer Roadmap für die Entwicklung der Methodik und Grübeleien über die Anwendungsmöglichkeiten des neuen Rechenparadigmas.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44564-1_2 531b17eff9324f0b1dedbfa9b61265d2;de;;;3.3.;;;Cloud-Speicher und Bioinformatik in einer privaten Cloud-Bereitstellung: Lektionen für datenintensive Forschung Dieses Whitepaper beschreibt die Dienstportabilität für eine private Cloud-Bereitstellung, einschließlich einer detaillierten Fallstudie über Cloud-Speicher und Bioinformatik-Dienste, die als Teil des Cloud Computing Adoption Framework (CCAF) entwickelt wurden. Unser Cloud-Storage-Design und -Bereitstellung basiert auf Storage Area Network (SAN)-Technologien, deren Details Funktionalitäten, technische Implementierung, Architektur und Benutzersupport umfassen. Experimente für Datendienste (Backup-Automatisierung, Datenwiederherstellung und Datenmigration) werden durchgeführt und die Ergebnisse bestätigen, dass die Backup-Automatisierung schnell abgeschlossen ist und für datenintensive Forschung zuverlässig ist. Das Ergebnis der Datenwiederherstellung bestätigt, dass die Ausführungszeit im Verhältnis zur Menge der wiederhergestellten Daten steht, die Fehlerrate jedoch exponentiell ansteigt. Das Ergebnis der Datenmigration bestätigt, dass die Ausführungszeit im Verhältnis zum Plattenvolumen der migrierten Daten steht, aber auch hier steigt die Fehlerrate exponentiell an. Darüber hinaus werden die Vorteile von CCAF anhand mehrerer bioinformatischer Beispiele wie Tumormodellierung, Bildgebung des Gehirns, Insulinmoleküle und Simulationen für die medizinische Ausbildung veranschaulicht. Unsere hier beschriebene Cloud Storage Lösung bietet Kostensenkung, Zeitersparnis und Benutzerfreundlichkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-04519-1_16 93161f9958cd64339a98890eb87428ed;de;;;3.3.;;;Laserbehandlungen in der Plastischen Chirurgie und Dermatologie Das Ziel der Hauterneuerung ist die Verjüngung der Haut durch Stimulation ihres regenerativen Potentials. Die äußere Epidermisschicht wird abgetragen, um die Hautqualität zu verbessern. Sonnenschäden werden beseitigt und altersbedingte Veränderungen bei der Hauterneuerung verbessert. Im Allgemeinen gibt es mehrere Verfahren zur Oberflächenerneuerung: mechanisch, bekannt als Dermabrasion, chemisches Peeling, elektrisch, bekannt als Radiowellenablation und Photoablation, normalerweise als Laserhauterneuerung bezeichnet. Der Unterschied zwischen diesen Verfahren liegt in den unterschiedlichen Ergebnissen, den Nebenwirkungen, der Schwierigkeit der Durchführung und Reproduzierbarkeit. Laser Skin Resurfacing ist ein gut kontrolliertes und präzises Verfahren, das definierte, vorhersehbare Ergebnisse mit weniger Komplikationen zeigt [10,15,40]. Es gibt Laserwellenlängen, die für die Laser-Hauterneuerung geeignet sind. Einer ist das CO;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18979-1_17 a53716f5109d270e242b5ef63ba443aa;de;;;3.3.;;;Vergleich von SETAM mit Security Use Case und Security Misuse Case: Eine Software-Sicherheitsteststudie Als integriertes Modell zur Beschreibung des Anforderungsverhaltens von Softwaresicherheitstests wurde in unserer bisherigen Arbeit ein Software Security Testing Behavior Model, SETAM, vorgeschlagen, das nicht nur mit Sicherheitsfunktionen und latent typischen Missbrauchsverhalten kompatibel ist, sondern auch mit deren Interaktion. In diesem Papier analysieren wir die Unterschiede zwischen SETAM mit Sicherheitsanwendungsfall und Sicherheitsmissbrauchsfall bei verschiedenen Arten von Sicherheitstestanforderungen. Um die Effektivität von SETAM zu veranschaulichen, vergleichen wir diese in einer praktischen Fallstudie anhand der Anzahl der Testfälle und der Anzahl der von ihnen erkannten Fehler. Die Ergebnisse zeigen, dass SETAM die Anwendungsfälle im Durchschnitt um 34,87 % reduzieren konnte und die Anzahl der von SETAM erkannten Fehler im Durchschnitt um 71,67 % gestiegen ist, was bedeutet, dass unser Modell mehr Fehler mit weniger Testfällen für Softwaresicherheitstests erkennen kann.;-;-;-;https://link.springer.com/article/10.1007/s11859-012-0880-x e00b0c62fe2a9427dfb9530fd73a09d0;de;;;3.3.;;;Cloudbasierte kontextbezogene adaptive Systeme für die Unternehmenstransformation Unternehmen sind heute mehr denn je mit einem Umfeld konfrontiert, das von Asynchronität, Komplexität und Unsicherheit geprägt ist. Wir sehen drei große Mängel vieler aktueller Ansätze, um Unternehmen zu ermöglichen, sich unter diesen Bedingungen anzupassen: Die vorgeschlagenen Prozesse und Systeme berücksichtigen oft nicht den gesamten Kontext des Unternehmens, Unternehmen verfolgen immer noch eher bewusste Ansätze, wenn es um Strategie und deren Umsetzung geht, und Entscheidungen sind in ihrer Reichweite und Reichweite begrenzt. Cloud Computing weist besondere Merkmale auf, die diese Mängel beheben. In diesem Papier schlagen wir Cloud-basierte kontextbezogene adaptive Lebenszyklusmodelle, Frameworks und Architekturen vor, die es vernetzten und virtuellen Unternehmen ermöglichen, zu lernen, sich anzupassen und zu transformieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31800-9_1 6ee113ee015a4a00eee3f373fe799915;de;;;3.3.;;;Multi-Agenten-basierter Ansatz zur Botnet-Erkennung in Computersystemen Ein neuer Ansatz für die Botnet-Erkennung basierend auf einem Multi-Agenten-System wird vorgeschlagen. Zur Steigerung der Effizienz der Botnet-Erkennung wurden Multi-Agenten-Systeme eingebunden, die es ermöglichten, Antivirus-Diagnose über die Agentenkommunikation innerhalb des Unternehmensnetzwerks durchzuführen. Die Struktur und die Hauptprinzipien der Funktionsweise antiviraler Wirkstoffe innerhalb eines Multi-Wirkstoff-Systems werden entwickelt. Die Prinzipien der Kommunikation zwischen den Einheiten des Agenten vor und nach dem Angriff auf das Computersystem wurden entwickelt. Es wurde eine neue Technik zur Sensordiagnose im Monitormodus entwickelt, die Fuzzy-Logik verwendet. Es wurde eine neue Technik zur Sensordiagnose im Scannermodus mit der Generierung von Detektoren unter Verwendung des modifizierten negativen Selektionsalgorithmus entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31217-5_19 93cdd581b4106f9838a6f8fe3fa81f28;de;;;1.1.;;;Konsumsoziologie — Eine vergessene DisziplinDie soziologisch orientierte Konsumforschung ist bisher unterentwickelt, Konsum kaum ein Thema empirisch-theoretisch fundierter Auseinandersetzung in der Soziologie. Ausgehend von diesem Defizit skizziert der Autor Entwicklungslinien, zentrale Fragestellungen und Inhalte einer „Konsumsoziologie“.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-89612-4_2 49520f2bd9027826118b10d115962b28;de;;;3.3.;;;Multithreaded LOGFLOW auf KUMP/D Die ausgenutzte Parallelität, die logische Programmiersprachen bieten, wird normalerweise in ODER-Parallelität und UND-Parallelität kategorisiert. Eine weitere Dimension könnte das Funktionalitätsniveau sein, bei dem die Parallelität ausgenutzt wird. In diesem Beitrag wird ein neuartiger Ansatz beschrieben, bei dem die Parallelität auf Thread-Ebene genutzt wird. Das Projekt hat zwei Eckpfeiler. Die Implementierung eines Makro-Datenflussmodells auf einer hybriden Datenfluss/von Neumann-Multithread-Architektur verspricht eine effiziente Hardwareunterstützung. Darüber hinaus ermöglichen Remote-Speicherzugriffe ohne signifikante Leistungseinbußen durch die Nutzung der Merkmale einer Multithread-Architektur eine neue Art der Variablenhandhabung. Hier werden sowohl die MPAM (multithreaded Prolog Abstract Machine) als auch die physikalische Maschine (KUMP/D, auf der das System implementiert werden soll) vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0094933 1a764aff5b8c0cfef0e4afdd98a086ba;de;;;3.3.;;;Ein Anforderungsspezifikations-Framework für die Erfassung und Erfassung von Big Data Die Ad-hoc-Prozesse der Datenerfassung, die von den meisten Unternehmen heutzutage verwendet werden, erweisen sich in einer Welt, die sich mit unendlichen Informationen erweitert, als unzureichend. Dies hat zur Folge, dass Nutzer oft nicht in der Lage sind, relevante Informationen aus groß angelegten Datensammlungen zu erhalten. Die derzeitige Praxis neigt dazu, große Datenmengen zu sammeln, die am häufigsten: (1) große Teile nutzloser Daten enthalten, (2) zu längeren Analysezeiträumen und damit längeren Zeiträumen für Erkenntnisse führen. Die Prämisse dieses Papiers ist, dass Big Data Analytics nur dann erfolgreich sein kann, wenn sie erfasste Daten verarbeiten und wertvolle Informationen liefern können. Daher führt dieses Papier „Big-Data-Szenarien“ in den Bereich der Datenerhebung ein. Es trägt durch die Entwicklung eines konzeptionellen Modells zu einem Paradigmenwechsel der Big-Data-Erhebung bei. In Zeiten der Masseninhaltserstellung unterstützt dieses Modell einen strukturierten Ansatz, um szenariorelevante Informationen aus verschiedenen Domänenkontexten zu sammeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23201-0_2 b7c27951c05710d0002a75f6b7684fab;de;;;1.1.;;;Ökonomische Analyse der Vor- und Nachteile der GesamtkursermittlungAus der Darstellung der grundsätzlichen Ausgestaltungsmöglichkeiten des Börsenhandels ließen sich bereits einige Vor- und Nachteile der alternativen Verfahren ableiten. Dabei wurden jedoch weder einheitliche Beurteilungskriterien herangezogen, noch wurde der Versuch einer zusammenfassenden Bewertung der relativen Vorteilhaftigkeit der Gesamtkursermittlung unternommen. Dies soll nun im folgenden geschehen. Dabei wird zunächst einer Argumentation gefolgt, die an den Gegebenheiten realer Märkte orientiert ist. Modelltheoretische Analysen werden erst im darauffolgenden Kapitel vorgestellt, da sie wegen der Notwendigkeit vereinfachender Annahmen und der formalen Darstellungsweise einen anderen Charakter haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-86730-8_3 c5ab68d7f10f123756d981a153ae70d3;de;;;3.3.;;;Blockchain und verteiltes System In den letzten Jahren hat die Blockchain-Technologie immer mehr Aufmerksamkeit erhalten. Blockchain ist eine Speichertechnologie für öffentliche dezentrale Datenbanken. Das Aufkommen der Blockchain-Technologie ermöglicht es, das Vertrauensproblem von verteilten Systemknoten innerhalb des Weitverkehrsnetzes zu lösen. In diesem Artikel wurden die aktuellen Vor- und Nachteile der Blockchain-Technologie und die Hauptprobleme bei der Entwicklung weiträumiger verteilter Systeme herausgearbeitet. Dieses Papier versucht, die Ideen der Blockchain und des verteilten Systems zu kombinieren und gibt ein vollständiges Designschema der Blockchain zum Aufbau eines verteilten Weitverkehrsnetzwerksystems. Die entworfene Blockchain behält nicht nur die manipulationssicheren und nachvollziehbaren Eigenschaften der bestehenden Blockchain-Technologie, sondern kann auch das Node-Trust-Problem des weiträumig verteilten Systems überwinden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-60029-7_56 e86959faf26bc1cbe140e3a0509230a9;de;;;1.1.;;;Energieeffizientes Bauen – Rahmenbedingungen und NetzwerkeffekteDas energieeffiziente Bauen nimmt eine Schlüsselstellung im Bemühen um die Erreichung der globalen Klimaziele ein. Obwohl es sich hierbei um ein internationales Problem handelt, muss das energieeffiziente Bauen auf regionale Rahmenbedingungen Bezug nehmen. Ein gutes Ergebnis muss technischen, gestalterischen, sozialen, ökologischen und ökonomischen Anforderungen genügen. Die Integration der vielfältigen Expertise in einem Netzwerk kooperierender Projektpartner erfordert darüber hinaus die Einbindung verschiedener Anspruchsgruppen. Die damit notwendige Organisation kooperativer Netzwerke überschreitet daher oftmals den Kompetenzrahmen einzelner Gewerke, die sich aufgrund stetig steigender technologischer Komplexität zunehmend spezialisieren müssen. Energieeffizientes Bauen erfordert daher auf der Seite der Planung und Bauausführung neben der Weiterentwicklung der Fachkompetenz auch die Herausbildung neuer Querschnittskompetenzen. Daher wird die Bereitstellung von Fördermitteln und Förderprogrammen allein nicht ausreichen, um eine flächendeckende Umsetzungen herbeizuführen. Energieeffizientes Bauen erfordert ganzheitliche Bildungsstrategien, die besonders auch die Anspruchsgruppen international kooperierender Netzwerke erreichen. In diesem Zusammenhang kommt den Neuen Medien eine besondere Bedeutung zu.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-8602-3_29 8fe8b85869ef20e30c60ce03a60e6ce9;de;;;3.3.;;;Das dreieckige Lebenszyklusmodell Das Wasserfall-Lebenszyklusmodell leidet unter einer Reihe von Problemen, ist aber trotzdem das am weitesten verbreitete Lebenszyklusmodell. Es wird ein anderer Lebenszyklusansatz vorgeschlagen, der eher den Produktlebenszyklus als den Projektlebenszyklus, die Prioritäten des Qualitätsmanagements anstelle der Prioritäten des Projektmanagements und die Qualitätsansichten anstelle des Projektzeitplans hervorhebt. Ein auf unterschiedlichen Qualitätssichten basierendes Qualitätsmanagement-Tool wird verwendet, um die „Lücken“ zu identifizieren, die zwischen den Bedürfnissen des Benutzers, der Anforderungsspezifikation und dem gelieferten Produkt unweigerlich bestehen. Es folgt eine kurze Diskussion, wie diese „Lücken“ geschlossen werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10392-6_13 4b2c8e8c8a7c2cf922b7d7de35384d40;de;;;1.1.;;;Was verursacht Schizophrenien?Die Suche nach der Ursache von Schizophrenien muss gegenwärtig als eine der größten Herausforderungen der Psychiatrie angesehen werden. Es gibt eine Vielzahl von Faktoren, die ursächlich für diese Krankheit in Frage kommen. Es ist aber bisher nicht gelungen, eine spezifische Störung – sei diese körperlich oder psychologischer bzw. sozialer Art – für die schizophrenen Erkrankungen allein verantwortlich zu machen. Dank intensiver Forschungsarbeit konnten bis heute nur Teilaspekte dieser Erkrankung geklärt werden. Heute wird angenommen, dass bei der Entwicklung schizophrener Krankheitsbilder mehrere Faktoren zusammenspielen. Man geht also von einer multifaktoriellen Entstehung aus (Patel et al. 2014).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-48932-1_4 be58f1ff403df4be14a5927ba95efb5f;de;;;1.1.;;;METHODEN/ANALYSEWERKZEUGENachdem Sie nun die Grundkonzepte kennen gelernt haben, kann die Fallstudienarbeit fast schon beginnen – wären da nicht die hohen Anforderungen an die Strukturierung der Fallstudienlösung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-02856-5_4 4019accc2b8b2b102631170990b6ca71;de;;;1.1.;;;Wie entsteht Reputation? Individuell wahrgenommene kollektive BeurteilungIm vorhergehenden Kapitel wurde herausgearbeitet, dass Image und Reputation beide Ausdruck wahrgenommener Identität eines Dritten sind. Daher wurde im vorherigen Kapitel Identität in den Mittelpunkt der Betrachtung gerückt. Es wurde argumentiert, dass von den verschiedenen Facetten der Identität nur die wesensbezogenen Aspekte für die Reputation relevant sind. Während Image ein generelles Wahrnehmungsbild eines Akteurs ist, sind für die Aggregation zur Reputation nur wesensbezogene Inhalte relevant und während das Image ein Abbild eines Eindrucks darstellt, ist die Reputation ein Urteil.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-07585-9_4 2b0dce11bca58353dd12aec9de33d03e;de;;;1.1.;;;B KAPITALMARKTIn diesem Kapitel steht die Aufnahme und Verarbeitung von Informationen durch den Kapitalmarkt sowie die Einflussfaktoren auf den Marktwert einer Unternehmung im Mittelpunkt. Insgesamt wird die Grundlage des Verständnisses der für die Kapitalmarktkommunikation relevanten Aspekte der Kapitalmarkttheorie gelegt. Im Einzelnen erfolgt zunächst in Abschnitt B.2 die Definition der grundlegenden Begriffe Unternehmen, Wert, Unternehmensbewertung und Kapitalmarkt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-05160-0_2 1b8081369b395d24bb133cc39216afa2;de;;;1.1.;;;Künstliche neuronale Netze und konnektionistische NetzeBereits seit Aristoteles (vgl. Jammer, 1980) wird im allgemeinen davon ausgegangen, daß der Raum dem menschlichen Wahrnehmungsapparat nicht direkt zugänglich ist, sondern über das Wahrnehmen von Objekten, ihrer Eigenschaften und Relationen erschlossen wird. Doch auch die Wahrnehmung von Objekten ist ein konstruktiver Prozeß, der alles andere als trivial ist. Auf der Basis der beiden zweidimensionalen Abbilder auf der Netzhaut der Augen wird dreidimensionale Information extrahiert und gemeinsam mit zuvor gespeicherten Mustern zur Rekonstruktion eines vorhandenen Objekts genutzt. Des weiteren können wir Objekte und die räumlichen Relationen zwischen ihnen mental manipulieren, indem wir uns als kognizierendes System oder die Objekte in unserer Vorstellung bewegen. Einerseits erfüllt ein solcher Prozeß eine Funktion für den Organismus, äußert sich in overtem Verhalten wie Handlungen oder Kommunikation und läßt sich in verschiedene Teilfunktionen dekomponieren, andererseits wird er von komplexen Strukturen im Gehirn implementiert. Als erstes muß daher das Verhältnis zwischen der psychologischen (funktionalen) und der physiologischen (neurostrukturellen) Ebene soweit geklärt werden, daß zumindest für die weiteren Ausführungen eine brauchbare Arbeitsdefinition zur Verfügung steht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08907-0_3 526c6453002fe9014b7857dbfc5f7f6b;de;;;1.1.;;;Modellhafte Abbildung der InformationsproduktionDurch die vorangegangene systematische Analyse der Hauptbestandteile der Informationsproduktion wurden die wesentlichen Merkmale und Bedingungen realer Prozesse zur Informationserzeugung beschrieben. Eines der zentralen Anliegen einer Produktionstheorie und folglich auch der hier zu entwickelnden Theorie der Informationsproduktion ist es nun, die so gewonnenen Erkenntnisse über die Produktionsprozesse auf einer mathematisch-formalen Abstraktionsebene darzustellen. Hierdurch können die abgeleiteten produktionstheoretischen Erkenntnisse auch für in der Einleitung schon erwähnte Zwecke, wie beispielsweise die Entwicklung kostentheoretischer Aussagen oder die Planung und Organisation der Produktionsvorgänge, nutzbar gemacht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-89320-8_4 f82f5686bbead6cc5d847d819a082144;de;;;3.3.;;;Hochgeschwindigkeits- und Ultrahochpräzisions-Nanopositionierung: Ein Ansatz zur Signaltransformation Die Signaltransformation ist eine neuartige Strategie, die bei der Rückkopplungssteuerung verwendet wird, um den Einfluss von Messrauschen auf die Positionierungsgenauigkeit zu reduzieren. Dieses Kapitel befasst sich mit Robustheitsproblemen des Verfahrens in Bezug auf Ausgangsstörungen und Unsicherheit bei der Niederfrequenzverstärkung der Anlage. Die Robustheitsprobleme können durch eine innere Schleife mit integraler Wirkung gelöst werden, bevor die Signaltransformationsabbildungen integriert werden. Feedback-Controller sind für die zweidimensionale Positionierung eines neuartigen piezoelektrischen Rohrs mit 12 Elektroden ausgelegt, das für die Rastersondenmikroskopie verwendet wird. Die Bandbreiten des geschlossenen Regelkreises sind absichtlich begrenzt, um die Standardabweichung des projizierten Rauschens auf etwa 0,1 nm einzustellen. Für Dreieckswellenform-Tracking und eine allgemeine Klasse von Anlagen und Kompensatoren werden notwendige und fast ausreichende Bedingungen für Stabilität und Konvergenz des Tracking-Fehlers abgeleitet. Die Wirksamkeit der vorgeschlagenen Methode in Bezug auf Tracking und robuste Leistung wird durch Simulationen und Experimente gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22173-6_3 c33e6395d1ed404009863e0dc77584d9;de;;;3.3.;;;Arapan-S: eine schnelle und hochpräzise Ganzgenom-Assembly-Software für Viren und kleine Genome Die Genomzusammensetzung gilt als ein herausforderndes Problem in der Computerbiologie und wurde von vielen Forschern intensiv untersucht. Es ist extrem schwierig, einen allgemeinen Assembler zu bauen, der anstelle vieler Contigs die ursprüngliche Sequenz rekonstruieren kann. Wir glauben jedoch, dass das Erstellen spezifischer Assembler zur Lösung bestimmter Fälle viel fruchtbarer ist als das Erstellen allgemeiner Assembler.;-;-;-;https://link.springer.com/article/10.1186/1756-0500-5-243 fbbb4fbad87e151da46005155554ed0a;de;;;3.3.;;;Digital Leadership durch Service Computing: Agilität durch vernetzte System- und Geschäftsarchitekturen Die Digitalisierung zur Unterstützung von Dienstleistungen ist ein sich entwickelndes Phänomen in einer dienstleistungsorientierten Wirtschaft. Während die Initiierung und Einführung der Digitalisierung in Dienstleistungen relativ einfach sein mag, ist die Aneignung von Werten aus einer solchen Digitalisierung schwierig. Die Digitalisierung von Services, dargestellt als Service-Objekte, muss modular und konfigurierbar sein, um die geschäftliche Agilität zu unterstützen, um die Rentabilität zu bewerten und Wert zu schaffen. Während die Modularisierung von Dienstobjekten in der bestehenden Literatur gut etabliert ist, wird ihre Fähigkeit zur Unterstützung der geschäftlichen Agilität in der Literatur nicht untersucht. In dieser Studie schlagen wir ein Konzept der digitalen Führung vor, das Serviceobjekte, repräsentiert in einer Servicesystemarchitektur zur Unterstützung digitaler Services, mit verschiedenen Komponenten einer Geschäftsarchitektur für geschäftliche Agilität in einer sich verändernden Geschäfts- und Technologielandschaft verknüpft. Wir bieten eine Definition von Serviceobjekten zur Darstellung digitaler Services, der damit verbundenen Eigenschaften und wie diese Serviceobjekte zur geschäftlichen Agilität beitragen. Das Konzept wird auf einen Digitalisierungsfall eines Patientenzimmers angewendet, der unter dem Thema eines Serviceroboters operationalisiert wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-45408-5_10 bf786c4f6413adffd1b725f0a4068bbb;de;;;3.3.;;;Ein trajektorienorientiertes fahrbahnbasiertes Straßennetzdatenmodell, Teil 3: Implementierung Dies ist der Abschluss einer dreiteiligen Reihe von Beiträgen, die hauptsächlich die Umsetzungsfragen des CRNM erörtert. Die ersten beiden Artikel der Reihe haben den Modellierungshintergrund bzw. die Methodik vorgestellt. Im letzten Artikel wurde eine Gesamtarchitektur des CRNM vorgeschlagen. Auf der Grundlage der obigen Ausführungen wird ein lineares Referenzverfahren (LRM) zum Bereitstellen von Raumbezügen für Ortspunkte einer Trajektorie entwickelt. Eine Fallstudie wird vorgestellt, um die Anwendung des CRNM zur Modellierung eines Straßennetzes in der realen Welt zu veranschaulichen. Ein umfassendes Fazit der Schriftenreihe wird gegeben.;-;-;-;https://link.springer.com/article/10.1007/BF02826768 fbba0272f7a904c477c1141cc63138de;de;;;3.3.;;;Modularer On-Chip-Multiprozessor für Routing-Anwendungen Simulationsplattformen für die Netzwerkverarbeitung haben immer noch Schwierigkeiten, einen guten Kompromiss zwischen Geschwindigkeit und Genauigkeit zu finden. Dies macht es schwierig, die Ursachen von Performance-Engpässen zu identifizieren: Sind sie durch die Anwendung, die Hardware-Architektur oder durch eine Spezifität des Betriebssystems verursacht? Wir schlagen eine Simulationsmethodik für eine Multiprozessor-Netzwerk-Verarbeitungsplattform vor, die genügend Details enthält, um eine sehr genaue Simulation und Leistungsbewertung zu ermöglichen, während sowohl die Spezifikation als auch die Simulationszeit innerhalb vernünftiger Grenzen gehalten werden. Als Fallstudie zeigen wir, wie ein Modell für eine IPv4-Paket-Routing-Anwendung entwickelt werden kann, das die Leistungs- und Skalierbarkeitsengpässe aufzeigt und damit über Architekturalternativen nachgedacht werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27866-5_113 e12e5a2702f34a30e48c223559020bff;de;;;1.1.;;;Digital Analytics – Strategien im digitalen Geschäft umsetzen und mit KPIs überprüfenDas digitale Geschäft hat den entscheidenden Vorteil, dass sämtliche Interaktionen und Transaktionen von Kunden auf Websites und Apps automatisiert und umfassend getrackt werden können. Daher fallen im Digital Analytics eine Großzahl an Informationen an, die im Digital Business gezielt genutzt werden können. Die Ableitung und Messung von Key Performance Indicators (KPIs) und die datenbasierte Steuerung von Unternehmen werden dabei zunehmend wichtiger und komplexer. Dieser Beitrag zeigt auf, was unter (Digital) Business Analytics zu verstehen ist und mit welchen Daten und Instrumenten des Digital Business die Nutzung und der Erfolg von verschiedenen digitalen Informations-, Kommunikations- und Transaktionskanälen wie Websites, Online Shops und Apps gemessen werden können. Hierzu werden aus Praxissicht des (Digital) Analytics 22 Kategorien an Metriken systematisch hergeleitet und ein bunter Blumenstrauß an KPIs ausführlich diskutiert.;-;-;-;https://link.springer.com/article/10.1365/s40702-016-0226-9 177e4b3ce170f9c7e203d0ec96edb0bf;de;;;1.1.;;;Die organisatorischen Gestaltungsmöglichkeiten des Prozesses simultaner Produktions- und Absatzplanung bei zentralisierter EntscheidungsfindungDas Problem der zweckmäßigsten organisatorischen Bewältigung simultaner Produktions- und Absatzentscheidungen gipfelt in der Frage, wie das „durch technisch-sachliche Beziehungen zwischen den produktiven Faktoren gekennzeichnete Entscheidungsmodell durch die Beziehungen zwischen den Menschen des Unternehmens, die sich in dem Weisungssystem und dem Kommunikationssystem ... niederschlagen“, zu ergänzen ist;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-13055-0_3 0b67ebd92961faea31fa722404e5d6e0;de;;;3.3.;;;Einrichten der Shopping-Plattform basierend auf Layout-Technologie und Animationsmechanismus in WPF WPF ist das Grafiktechnologiesystem der nächsten Generation. Es bietet eine einheitliche Beschreibung und Funktionsweise für UI-, 2D- oder 3D-Grafiken, Dokumente und Medien. In diesem Artikel wurden zunächst die Techniken des Layouts und des Animationsmechanismus in WPF untersucht. Anschließend realisierte es unter Nutzung der Recherche das Layout der ersten Seite im Einkaufssystem und wickelte das Ereignis während der Suche der Nutzer nach Produktinformationen ab. Ziel der Studie ist es, eine Shopping-Plattform mit brillanter Benutzeroberfläche und perfekter Funktion zu entwerfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23357-9_33 75732bed5b2a95f0df1f9ccf5b63e128;de;;;3.3.;;;Ein Wissensmanagement-Ansatz zur Unterstützung von Implementierungsinitiativen zur Softwareprozessverbesserung Der Erfolg von Implementierungsinitiativen zur Softwareprozessverbesserung (SPI) hängt im Wesentlichen von den Strategien ab, die zur Unterstützung der Durchführung solcher Initiativen angewendet werden. Daher ist es wichtig, angemessene SPI-Implementierungsstrategien zu definieren, die darauf abzielen, die Erreichung der Unternehmensziele der Organisation zu erleichtern und den Nutzen von Prozessverbesserungen zu erhöhen. Ziel dieser Arbeit ist es, einen Ansatz zur Unterstützung der Durchführung von SPI-Implementierungsinitiativen vorzustellen. Wir beschreiben auch eine Methodik, die angewendet wird, um Wissen in Bezug auf kritische Erfolgsfaktoren zu erfassen, die SPI-Initiativen beeinflussen. Dieses Wissen wurde verwendet, um effektive SPI-Strategien zu definieren, die darauf abzielen, den Erfolg von SPI-Initiativen zu steigern, die von einer bestimmten SPI-Beratungsorganisation koordiniert werden. Diese Arbeit präsentiert auch die Funktionalitäten einer Reihe von Werkzeugen, die in eine prozesszentrierte Wissensmanagementumgebung namens CORE-KM integriert sind und auf den vorgestellten Ansatz zugeschnitten sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85936-9_15 7493c1f1744dfbd239aa12fac2402575;de;;;1.1.;;;Ausblick: Die Neurowissenschaften als integrative Kraft für die klinische Psychologie und PsychiatrieDie Neuropsychologie und auch die anderen neurowissenschaftlichen Disziplinen (z. B. Verhaltensgenetik, Neuroradiologie, Neuropsychopharmakologie, Neurophysiologie) eröffnen der klinischen Psychologie und der Psychiatrie einen neuen, bislang in dieser Form nicht gekannten Zugang zum Verständnis psychischer Störungen. Die in diesem Buch enthaltenen Beiträge geben einen eindrucksvollen Überblick über die diesbezüglichen technischen, empirischen und theoretischen Entwicklungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-08959-0_23 ce2cf190e20767875146f5f83dc4cc82;de;;;1.1.;;;Einstellungen: Inhalt, Struktur und FunktionenWir alle mögen gewisse Dinge und andere nicht. Die Autoren des Kapitels mögen beispielsweise die Rugbymannschaft von Wales und verabscheuen Leber. Ein Sozialpsychologe würde sagen, dass wir eine positive Einstellung zur Rugbymannschaft von Wales haben und eine negative Einstellung zu Leber. Sozialpsychologen haben sich seit langem dafür interessiert, die interindividuellen Unterschiede bezogen auf Einstellungen zu verstehen und die Gründe dafür aufzudecken, warum Menschen verschiedene Dinge mögen oder nicht. Es war Gordon Allport (1935), der schon vor nahezu 70 Jahren die Behauptung aufstellte, dass der Einstellungsbegriff der unverwechselbarste und unentbehrlichste Begriff in der Sozialpsychologie ist. Noch heute kommt dieser Aussage unverändert Gültigkeit zu, und die Untersuchung von Einstellungen bleibt ein entscheidender Bereich der sozialpsychologischen Forschung und Theorie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71633-4_6 d3d6bbc3db32c24292edd300f26c0076;de;;;1.1.;;;Einleitung Elemente einer Theorie rationaler politischer Akteure (1991/2017)Das Verlangen nach Rationalität im Umgang mit Wirklichkeit verdankt sich zum beträchtlichen Teil der Allgegenwart von Unsicherheit. Das Erleben von Unsicherheit betrifft nicht nur die Möglichkeit von Naturkatastrophen und mancherlei scheinbar zufälligen Ereignissen, sondern ebenso sehr das Denken, Wollen und Tun unserer Mitmenschen, genauer: von autonomen Individuen. Für den Umgang mit „unsicheren“ Naturereignissen wie für die Bearbeitung, Verringerung, im Extremfall auch Beherrschung „menschlicher“ Unsicherheit existiert ein sozialer Mechanismus: die ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-20000-8_1 22da6fa008ab16fefcbf2716501b01da;de;;;1.1.;;;Wirkungen von Preisausschreiben und ihre WirkungDie bisherigen Ausführungen befaßten sich mit dem Komplex der Entscheidungsvariablen und den Ausprägungen bei der Gestaltung von Preisausschreiben. Nachdem die Frage erörtert wurde, ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-48110-9_3 a6bb1220b2b83f47cd110f03d3553b45;de;;;3.3.;;;Erkennung von Softwarediebstahl über Muttermale des gesamten Programmpfads Ein Software-Muttermal ist ein einzigartiges Merkmal eines Programms, das als Software-Diebstahlerkennungstechnik verwendet werden kann. In diesem Beitrag präsentieren und evaluieren wir eine neuartige Muttermaltechnik –;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30144-8_34 d3595cd91aa4235d74e15dcdb9a9e931;de;;;3.3.;;;Ein neuartiges 3780-Punkte-FFT-Prozessorschema für das zeitbereichssynchrone OFDM-System Die 3780-Punkte-FFT ist eine Hauptkomponente des zeitdomänensynchronen OFDM-Systems (TDS-OFDM) und die Schlüsseltechnologie im chinesischen Digital Multimedia/TV Broadcasting-Terrestrial (DMB-T) nationalen Standard. Da 3780 keine Potenz von 2 ist, kann der klassische Radix-2- oder Radix-4-FFT-Algorithmus nicht direkt angewendet werden. Daher werden der Winograd-Fourier-Transformationsalgorithmus (WFTA) und der Good-Thomas-Primfaktoralgorithmus (PFA) verwendet, um den 3780-Punkte-FFT-Prozessor zu implementieren. Die auf WFTA und PFA basierende Struktur weist jedoch eine große Rechenkomplexität auf und erfordert viele DSPs bei der Hardwareimplementierung. In diesem Beitrag wird ein neuartiges 3780-Punkte-FFT-Prozessorschema vorgeschlagen, bei dem eine 60×63 iterative WFTA-Architektur mit unterschiedlichen Mapping-Methoden importiert wird, um die PFA-Architektur zu ersetzen, und ein optimiertes CoOrdinate Rotation Digital Computer (CORDIC)-Modul verwendet wird für die Twiddle-Faktor-Multiplikationen. Im Vergleich zum herkömmlichen Schema reduziert unser vorgeschlagenes 3780-Punkte-FFT-Prozessorschema die Anzahl der Multiplikationen um 45 % auf Kosten einer Erhöhung der Anzahl von Additionen um 1 %. Alle DSPs werden durch das optimierte CORDIC-Modul und ROM ersetzt. Simulationsergebnisse zeigen, dass das vorgeschlagene 3780-Punkte-FFT-Verarbeitungsschema die Anforderungen des DMB-T-Standards erfüllt und eine effiziente Architektur für das TDS-OFDM-System ist.;-;-;-;https://link.springer.com/article/10.1631/jzus.C1100071 e1edaae5f54882cc615481427690cae2;de;;;3.3.;;;Eine Studie zu Big Data Processing Frameworks: Spark und Storm Die heutige Internetwelt erfordert einen Kompromiss zwischen Peta-Byte und Exa-Byte, die in der digitalen Computerwelt erstellt werden, was auf eine enorme Menge unstrukturierter Datensätze zurückzuführen ist, die von verschiedenen sozialen Websites, IOT, Google, Twitter, Yahoo, Umgebungsüberwachung durch Sensoren usw. , ist Big Data (BD). Denn von Sekunde zu Sekunde verdoppelt sich die Volumengröße der Datensätze, aber es fehlt an reibungslosen dynamischen Verarbeitungs-, Analyse- und Skalierbarkeitstechniken. Da wir in den letzten zehn Jahren der Hochgeschwindigkeitsgeschwindigkeit nur noch vorhandene Methoden und gängige Tools zur Verarbeitung von Gigabyte-Daten angewendet und Berechnungen mit riesigen Datenmengen der ganzen Welt durchgeführt haben. Apache Open Free Source Hadoop ist die neueste BD-Waffe, die Zetta-Byte-Dimensionen von Datenbanken durch seine am weitesten entwickelten und beliebtesten Komponenten wie HDFS und Map Reduce (MR) verarbeiten kann, um hervorragende Speicherfunktionen zu erreichen, hervorragende und zuverlässige Verarbeitung von Zetta-Byte-Datensätzen . MR mag bekanntere Software, ein beliebtes Framework für die Behandlung bestehender BD-Probleme mit vollständig paralleler, hochverteilter und höchst skalierbarer Weise. Trotzdem haben Hadoop, Map- und Reduced-Aufgaben weitere Einschränkungen wie schlechte Zuweisung von benutzerdefinierten Ressourcen, Stream-Way-Verarbeitung, geringe Latenz, das Defizit an effizienter Leistung, Unvollkommenheit der Optimierung, der Echtzeittrend von Berechnungen und verschiedene logische Erläuterungen. Wir verfügen über modernste fortschrittliche Rechenverfahren. Dieses Prüfungspapier zeigt, dass Apache das schnellste Spark-Tool, das weltweit neueste und schnellste Tool ist, dass Apache Storm über effiziente Frameworks verfügt, um diese Einschränkungen zu überwinden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9690-9_43 3a83c7cde6403690cc78a4fc7073b3a6;de;;;1.1.;;;Zum Begriff der Öffentlichkeit‚Öffentlichkeit‘ stellt sich als ein verhältnismäßig junger Begriff dar. Hölscher definiert ‚Öffentlichkeit‘ in der Einleitung seiner begriffsgeschichtlichen Untersuchung ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-08280-2_2 7091273d9df673dfb60b5256cdd4f7e5;de;;;1.1.;;;Psychokardiologischer Praxisleitfaden für die ICD-Implantation und LangzeitbetreuungIn der wissenschaftlichen Literatur gibt es nur sehr wenige Berichte über systematische Schulungen oder Informationsangebote nach der Implantation. Wir befinden uns hier erst am Beginn der Forschung und es gibt noch keine ausreichend evaluierten Modelle, die die Grundlage für Empfehlungen sein könnten. Etwa 80% der Betroffenen, der Angehörigen und der Ehepartner zeigen eine gute kognitive Akzeptanz und kommen mit der Situation recht gut zurecht. 20% der Patienten sind in den ersten 12 Monaten nach der Implantation jedoch ängstlich und depressiv. Diese Patienten sollten unbedingt erkannt und ggf. behandelt und unterstützt werden. Deshalb ist es in den Beratungen und bei den Routineterminen wichtig, den Patienten Gesprächsräume zu eröffnen. Nur so können die behandelnden Kardiologen erkennen, ob die Patienten in einem erheblichen Ausmaß psychisch belastet sind. Es empfiehlt sich, unmittelbar nach der Implantation (vor der Entlassung) ein Screening auf Angst und Depression durchzuführen (z. B. HADS) und einen Fragebogen zur Informiertheit und zu offenen Fragen zu verteilen. Dies gäbe nicht nur einen Anhaltspunkt für eine gezielte Gesprächsführung während der Folgetermine im ersten Jahr, sondern ermöglicht es, diesen Patienten ein gesondertes Schulungsprogramm anzubieten, um auf diese Erlebniszustände spezifisch eingehen zu können. Patienten, die mehr als 5 Schocks in 12 Monaten oder mehr als 3 Schocks in ein und derselben Episode erlebt haben, sollten einem psychokardiologischen Konsiliarius vorgestellt werden, damit geprüft werden kann, ob es posttraumatische Störungen gibt. Diese müssen unbedingt behandelt werden, da sie im Allgemeinen nicht spontan remittieren.;-;-;-;https://link.springer.com/article/10.1007/s00399-011-0141-2 a21df4f3ccb2788cdb19accbf5f042de;de;;;3.3.;;;Analyse und Simulation der urbanen Dichte und Untersuchung des Unterschieds zwischen politischen Ambitionen und tatsächlichen Trends in den Niederlanden In diesem Kapitel wird das Potenzial der Geoanalyse zur Charakterisierung der Landnutzungsdynamik in städtischen Gebieten und den umliegenden Stadtrandgebieten untersucht. Es konzentriert sich auf den Unterschied zwischen politischen Ambitionen und der Realität in Bezug auf die Verdichtung von Städten. Die politischen Ambitionen zur Eindämmung der Stadtentwicklung sind in den Niederlanden ehrgeizig, wie aus den vielen lokalen Zielen hervorgeht, die Wohnentwicklung auf bestehende städtische Gebiete zu konzentrieren. Diese Ambitionen werden als Zielanteile des gesamten Nettozuwachses des Wohnungsbestands formuliert, der innerhalb der ausgewiesenen Stadtgebietsgrenzen realisiert werden soll. Nach einer GIS-basierten Analyse der lokalen Veränderungen des Wohnungsbestands zwischen 2000 und 2008 sind wir in der Lage, tatsächliche Intensivierungsanteile und Wohndichten in neu entwickelten Stadtgebieten zu beschreiben. Wir beobachten, dass gerade im ohnehin schon dicht besiedelten Westteil des Landes die realisierten urbanen Intensivierungsanteile unter den vorgegebenen politischen Zielen/Ambitionen liegen. Aus diesen Beobachtungen und szenariobasierten Projektionen des regionalen Wohnungsbestandswachstums können wir den Bedarf an neuem Stadtland im Jahr 2020 ermitteln. Mit einem Landnutzungssimulationsmodell simulieren wir die Stadtentwicklungsprozesse bis 2020 nach zwei Szenarien und zwei politische Alternativen. In der ersten Politikalternative basiert das Wachstum der Wohneinheiten auf politischen Ambitionen, während das Wachstum im zweiten Szenario auf beobachteten Trends im letzten Jahrzehnt basiert. Die Ergebnisse zeigen, dass die aktuellen politischen Ambitionen in Bezug auf das Ausmaß der städtischen Intensivierung erheblich dazu beitragen werden, das erhebliche Stadtwachstum einzudämmen, das im Falle eines Szenarios mit hohem Wirtschafts- und Bevölkerungswachstum prognostiziert wird. Folgt die Stadtentwicklung unvermindert den Trends der Vergangenheit und weist somit relativ geringe urbane Intensivierungsanteile auf, ist mit großflächigen Stadterweiterungen zu rechnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37896-6_7 17bdcda098063851cfd8c85ee199ac80;de;;;1.1.;;;Nutzererleben und BedürfnisseIm Zentrum von Kap. 5 steht der Nutzer, seine Bedürfnisse, seine Emotionen und Wahrnehmungsprozzesse bei der Rezeption von Medien. Diese sind wesentliche Aspekte, um auf den Nutzer abgestimmte Inhalte für AR und VR zu entwickeln. Die Analyse zur Ermittlung der Erfolgsfaktoren für die Content-Herstellung erfolgt aus den Perspektiven der Medienwissenschaften, der Kommunikationswissenschaften und den Kognitionswissenschaften. Ergänzend werden die für die immersiven Medien spezifischen Merkmale Raum und den Körper anhand psychologischer und soziologischer Erkenntnisse in Bezug auf den Nutzer und seine Bedürfnisse herangezogen, um die wesentlichen Kategorien für die Erfolgsfaktoren abzuleiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-60826-5_5 e8f1974b4ba8312c8e6d334c4b804270;de;;;1.1.;;;Intramarkenimagekonfusion als Herausforderung in der AutomobilindustrieBereits der junge Werther, Protagonist in GOETHES Roman „Die Leiden des jungen Werthers“, verstand es, durch seinen für damals auffälligen Kleidungsstil, „gestiefelt, im blauen Frack mit gelber Weste“, seiner Individualität Ausdruck zu verleihen. Dabei nutzte er dieses Auftreten, um sich über den Habitus der Adelsgesellschaft zu brüskieren und vertrat mit seinem Stil die gesellschaftliche Schicht des aufkommenden Bildungsbürgertums. ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-19928-9_1 c92cd917dbe3b37d7d1a115ea466d7b0;de;;;3.3.;;;Business Service Management in einer serviceorientierten, virtualisierten Welt Business Service Management (BSM) gilt heute als eines der wichtigsten Attribute einer umfassenden Systemmanagementlösung. Die Bereitstellung relevanter Informationen für Entscheidungsträger in Unternehmen hat heute für Management-Tool- und Anwendungsanbieter Priorität. Die jüngsten Trends in der Unternehmenssoftware haben Unternehmen die Möglichkeit geboten, durch ihre Softwareinvestitionen höhere Effizienz und Kosteneinsparungen zu erzielen. Darüber hinaus haben diese Gelegenheiten die Entwickler von Systemverwaltungssoftware vor neue Herausforderungen gestellt, um mit dieser dynamischen Umgebung Schritt zu halten. Insbesondere serviceorientierte Architektur (SOA) und Virtualisierung haben einen enormen Einfluss darauf, wie Unternehmen ihre Produktionsumgebungen aufbauen, um diese Effizienz zu nutzen. SOA ermutigt Unternehmen, agilere, rekonfigurierbare und reaktionsschnellere Softwarelösungen zu entwickeln, und Virtualisierung ermöglicht es denselben Unternehmen, Kosteneinsparungen zu erzielen, indem sie die erforderliche Hardwaremenge, eine bessere Nutzung vorhandener Hardware und eine Reduzierung des Energieverbrauchs reduzieren. SOA und Virtualisierung sind heute Mainstream in der Computerumgebung von Unternehmen und Systemverwaltungstools müssen sie in ihrem kompletten Lösungsangebot berücksichtigen. Diese Managementlösungen müssen einem bestimmten Unternehmen einen erheblichen Mehrwert bieten, und SOA und Virtualisierung müssen Bestandteil jeder BSM-Lösung sein. Dieses Whitepaper bietet dem Leser die wichtigsten Zutaten für die Erstellung überzeugender BSM-Lösungen in einem serviceorientierten, virtualisierten Unternehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88708-9_9 a4fa5ff606c4f0abd45e9aff1bd164f8;de;;;1.1.;;;Zum Design von Chatbots zur Förderung nachhaltigen MobilitätsverhaltensNachhaltiges Mobilitätsverhalten, beispielsweise durch das flexible Teilen von Autos oder der Nutzung umweltfreundlicher Alternativen wie E-Scootern oder E-Bikes, gewinnt zunehmend an Bedeutung und erfährt mehr und mehr Beachtung in unserer Gesellschaft (Brendel and Mandrella 2016). Insbesondere in urbanen Räumen stehen den Menschen vielfältige, umweltfreundliche Mobilitätsoptionen zur Verfügung (Willing et al. 2017). Vor diesem Hintergrund können Informationssysteme einen Beitrag dazu leisten, die individuelle Nutzung nachhaltiger Mobilitätsoptionen zu fördern (Flüchter and Wortmann 2014).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-29746-6_41 789920e950d2a7153b530e02e0f8173d;de;;;3.3.;;;Ein dedizierter Hardwarebeschleuniger für die Echtzeitbeschleunigung von YOLOv2 In den letzten Jahren wurden dedizierte Hardwarebeschleuniger für die Beschleunigung des Convolutional Neural Network (CNN) intensiv untersucht. Obwohl viele Studien effiziente Designs für FPGAs für neuronale Netzmodelle zur Bildklassifizierung wie AlexNet und VGG vorgestellt haben, gibt es noch wenige Implementierungen für CNN-basierte Objekterkennungsanwendungen. In diesem Artikel wird ein OpenCL-basierter Hochdurchsatz-FPGA-Beschleuniger für den YOLOv2-Objekterkennungsalgorithmus auf dem Arria-10 GX1150 FPGA vorgestellt. Die vorgeschlagene Hardwarearchitektur verwendet ein skalierbares Pipeline-Design, um ein Eingabebild mit mehreren Auflösungen und einen vollständigen 8-Bit-Festkomma-Datenpfad zu unterstützen, um die Nutzung der Hardware-Ressourcen zu verbessern. Die Layer-Fusion-Technologie, die Faltung, Batch-Normalisierung und Leaky-ReLU vereint, wurde ebenfalls entwickelt, um die Übertragung von Zwischendaten zwischen FPGA und externem Speicher zu vermeiden. Experimentelle Ergebnisse zeigen, dass das endgültige Design einen Spitzendurchsatz von 566 GOP/s bei einer Arbeitsfrequenz von 190 MHz erreicht. Der Beschleuniger kann YOLOv2-Inferenzberechnungen ausführen (;-;-;-;https://link.springer.com/article/10.1007/s11554-020-00977-w 3185f45f56dde61c009fc0fdd03360d5;de;;;3.3.;;;Zur zeitgenössischen denotationalen Mathematik für Computational Intelligence Denotationale Mathematik ist eine Kategorie ausdrucksstarker mathematischer Strukturen, die sich mit mathematischen Entitäten auf hoher Ebene jenseits von Zahlen und Mengen befasst, wie z. B. abstrakte Objekte, komplexe Beziehungen, Verhaltensinformationen, Konzepte, Wissen, Prozesse, Intelligenz und Systeme. Es werden neue Formen der Mathematik gesucht, die zusammenfassend als denotationale Mathematik bezeichnet werden, um mit komplexen mathematischen Einheiten umzugehen, die in der kognitiven Informatik, Computational Intelligence, Software Engineering und Knowledge Engineering entstanden sind. Die Domäne und Architektur der denotationalen Mathematik werden in diesem Beitrag vorgestellt. Drei Paradigmen der denotationalen Mathematik, bekannt als Konzeptalgebra, Systemalgebra und Real-Time Process Algebra (RTPA), werden vorgestellt. Anwendungen der denotationalen Mathematik in der kognitiven Informatik und Computational Intelligence werden ausgearbeitet. Es wird eine Reihe von Fallstudien zur Modellierung iterativer und rekursiver Systemarchitekturen und -verhalten durch RTPA, zur Modellierung von autonomem maschinellem Lernen durch Konzeptalgebra und zur Modellierung von granularem Computing durch Systemalgebra vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87563-5_2 ea067e78cdd08fa33f748dd82bdb850b;de;;;3.3.;;;Breathogenomics: Eine Computerarchitektur für Screening, Frühdiagnose und Genotypisierung von Lungenkrebs Es wird vermutet, dass die Genomsequenzen einiger Gene verschiedene Mutationen tragen, die zur Entstehung und zum Fortschreiten von Lungenkrebs führen. Darüber hinaus ist wissenschaftlich erwiesen, dass bei jeder Ausatmung Chemikalien, sogenannte flüchtige organische Verbindungen (VOCs), aus dem Atem freigesetzt werden. Hunderte solcher VOCs wurden eindeutig aus Atemproben von Lungenkrebspatienten identifiziert, was sie als chemische Biomarker für Lungenkrebs geeignet macht. Basierend auf den vorstehenden wissenschaftlichen Durchbrüchen entwickelten wir;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-56154-7_5 90af9cc225962289a7dccb9bb6ee8f37;de;;;3.3.;;;Leichte Virtualisierung im Cloud Computing für die Forschung Mit dem Fortschritt der Informationstechnologie und der breiten Akzeptanz des Internets ist Cloud Computing zu einer der Wahlmöglichkeiten für Forscher geworden, ihre Anwendungen zu entwickeln. Cloud Computing hat viele Vorteile, insbesondere die Möglichkeit, Ressourcen bedarfsgerecht zuzuweisen, ohne eine spezialisierte Infrastruktur aufbauen oder umfangreiche Wartungsarbeiten durchführen zu müssen. Eines der Probleme, mit denen der Forscher konfrontiert ist, ist jedoch die Verfügbarkeit von Computerwerkzeugen für die Durchführung von Forschungen. Docker ist eine leichtgewichtige Virtualisierung für Entwickler, die zum Erstellen, Ausliefern und Ausführen einer Reihe verteilter Anwendungen verwendet werden kann. In diesem Artikel wird beschrieben, wie Docker innerhalb einer Plattform für Bioinformatik-Computing bereitgestellt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46742-8_40 852fef2402b9e4270f9f7454ae9928d2;de;;;3.3.;;;Crystal MD: Molekulardynamische Simulationssoftware für Metall mit BCC-Struktur Der Materialbestrahlungseffekt spielt in der Materialwissenschaft eine wichtige Rolle. Es ist jedoch das Fehlen einer Hochdurchsatz-Bestrahlungsanlage und eines Evolutions- und Entwicklungsprozesses, die zu einem Mangel an grundlegenden wissenschaftlichen Theorien über das Design von Materialien im atomaren Maßstab und die Entwicklungsleitlinien führen. Hochleistungsrechnen für die Simulation ermöglicht ein tiefes Verständnis von Mikromaterial. In diesem Beitrag wird eine neue Datenstruktur für die parallele Simulation der Entwicklung von Metallmaterialien mit Kristallstruktur unter Strahlungsdefekten vorgeschlagen. Im Vergleich zu LAMMPS und IMD, die zwei beliebte molekulardynamische Simulationsversionen sind, benötigt unsere Methode viel weniger Speicher auf Multi-Core-Clustern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0457-5_23 60d5964092a46ac772322c73dbc1aab2;de;;;3.3.;;;Ein MDA-basiertes Widget-Entwicklungs-Framework Das Papier zielt darauf ab, das sich wiederholende Arbeitsproblem bei der plattformübergreifenden Widget-Entwicklung zu lösen und eine Widget-Entwicklungsumgebung bereitzustellen, die die plattformübergreifende Entwicklung oder die standardübergreifende Entwicklung unterstützen kann. Ein Widget-Entwicklungs-Framework namens Model-driven Widget Development Framework (MWDF) wird vorgeschlagen. Durch die Verwendung von MDA kann der MWDF Entwicklern eine visuelle Programmier- und modellgesteuerte Entwicklungsumgebung bereitstellen, und das generierte Widget kann auf vielen von MWDF unterstützten Plattformen bereitgestellt werden. Zur Veranschaulichung werden die Architektur von MWDF und die Implementierung des modellgetriebenen Entwicklungsmoduls gezeigt, um das Framework zu beschreiben. MWDF abstrahiert das Implement in der Widget-Entwicklung, was dem Entwickler viel Zeit spart und die Erweiterbarkeit des Widgets erhöht.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-7010-6_95 c1fc3690e587d13034f8279c03273cce;de;;;3.3.;;;Lagarto I RISC-V Multi-Core: Forschungsherausforderungen beim Aufbau und der Integration eines Network-on-Chip Aktuelle rechenintensive Anwendungen übersteigen bei weitem die Ressourcen von Single-Core-Prozessoren. Um diesem Problem zu begegnen, sind Mehrkernprozessoren zusammen mit parallelen Rechentechniken zu einer Lösung geworden, um die Rechenleistung zu erhöhen. Ebenso sind Multiprozessoren von grundlegender Bedeutung, um neue Technologien und neue Herausforderungen für wissenschaftliche Anwendungen zu unterstützen. Ein besonderes Ziel des am National Polytechnic Institute of Mexico entwickelten Lagarto-Projekts ist die Schaffung eines Ökosystems von Hochleistungsprozessoren für die Industrie und HPC in Mexiko, das neue Technologien und wissenschaftliche Anwendungen unterstützt. Diese Arbeit präsentiert den ersten Ansatz des Lagarto-Projekts zum Design von Mehrkernprozessoren und die Forschungsherausforderungen zum Aufbau einer Infrastruktur, die es dem Flaggschiff-Kern des Lagarto-Projekts ermöglicht, auf Mehr- und Mehrkernprozessoren zu skalieren. Unter Verwendung der OpenPiton-Plattform mit dem Ariane RISC-V-Kern wurde eine funktionale Kachel erstellt, die einen Lagarto-I-Kern mit Speicherkohärenz integriert, der atomare Anweisungen ausführt, und ein NoC, das die Skalierung des Projekts auf Versionen mit vielen Kernen ermöglicht. Diese Arbeit repräsentiert den Anfangszustand des Designs mexikanischer Multi- und Many-Core-Prozessoren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-38043-4_20 23bdf5946b49d0ed9515f9b7eba8d4b5;de;;;3.3.;;;Entwicklung eines Modell-Softwarepakets für den Laminar-Kühlprozess in der Warmwalzanlage Durch den Einsatz von Computersimulationstechniken bei der Steuerungsauslegung des Laminarkühlprozesses in einem Warmwalzwerk können die Entwicklungskosten bei maximaler Produktionssicherheit deutlich gesenkt werden. Die fallbasierte Modellierungsstrategie wurde vorgeschlagen und in ein Softwarepaket implementiert. Der funktionale Aufbau des Softwarepakets wurde ausführlich besprochen. Die Schnittstellen und Funktionen des Softwarepakets wurden vorgestellt. Die Ergebnisse industrieller Experimente können direkt im Softwarepaket visualisiert werden, was einen genauen und sofortigen Vergleich der Modellvorhersagen mit realen Messungen ermöglicht. Das Softwarepaket bietet die Simulationsplattform für die Erforschung fortgeschrittener Modellierungs- und Regelungsstrategien des laminaren Kühlprozesses in einem Warmwalzwerk.;-;-;-;https://link.springer.com/article/10.1016/S1006-706X%2810%2960094-5 2246472a23a37338249d7613205f5efa;de;;;3.3.;;;Parametrische Softwaremetrik Softwaremetriken liefern aussagekräftige Informationen wie Zuverlässigkeit, Wartbarkeit, um Entwicklern, Architektur und so weiter zu helfen. Es entscheidet auch, welche Art von Informationen benötigt wird, um aus einem vorgegebenen Ziel ein sinnvolles Ergebnis zu erzielen. Softwaremetriken sollten an die Bedürfnisse verschiedener Benutzer angepasst werden. Früher waren Softwaremetriken nicht flexibel, da sie Ergebnisse unterstützten, die sich auf ein bestimmtes Ziel konzentrierten. Um diese Probleme zu beheben, schlagen wir eine neue Softwaremetrik namens Parametrische Softwaremetrik vor. Es kann von Benutzern angepasst werden und unterstützt auch eine Formel, um ein Ergebnis zu erzielen. Benutzer erhalten ein angemessenes Ergebnis, indem sie es anpassen und verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22203-0_23 d7439ad2e1e0581b2bf501bf17563bb2;de;;;3.3.;;;Agenten- und Multi-Agenten-Softwareentwicklung: Modellierung, Programmierung und Verifikation In diesem erweiterten Abstract werde ich kurz meinen Kurs beschreiben, den ich an der DALT International Spring School gehalten habe, die im April 2011 im Wohnzentrum der Universität in Bertinoro, Italien, stattfand. Zuvor muss ich sagen, obwohl dies eigentlich eine Facharbeit sein sollte, war die Teilnahme an dieser Schule die großartigste Erfahrung meiner akademischen Karriere. Ich habe in den letzten zehn Jahren viele Konferenzen und Sommerschulen besucht, und insbesondere alle Sommerschulen waren unglaubliche Erfahrungen, aber keine konnte denen der DALT School in Bertinoro entsprechen. Das Universitätszentrum befindet sich in einer erstaunlichen mittelalterlichen Burg, in der sogar Dante einige Zeit verweilte. Die Burg liegt auf einem Hügel und die Aussicht von der Burg, in der wir auch untergebracht waren, ist einfach atemberaubend. Das Essen war ausgezeichnet und die beteiligten Leute auf allen Ebenen unglaublich freundlich, die Organisation tadellos. Natürlich macht allein die Atmosphäre eine akademische Veranstaltung nicht so unvergesslich. Vielleicht, weil dies die spezifischste Summer School war, die ich je besucht habe, was die behandelten Themen angeht, wodurch die Kurse viel tiefer als sonst gehen konnten, aber sicherlich nicht nur deshalb, sondern auch aufgrund anderer Faktoren wie der besonderen Zusammensetzung der Personen in dieser Schule war das definitiv die technisch produktivste Schule, die ich je besucht habe. Alle Teilnehmer können den Organisatoren nicht genug für die erstaunliche Erfahrung danken, die sie für uns geschaffen haben. Leider ist nichts perfekt. So denkwürdig die Schule auch war, ich werde auch nie vergessen können, wie viel Leid es war, diese extrem steilen Hügel hinaufzusteigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29113-5_15 4ecf41daba61d13947310d857e5417af;de;;;3.3.;;;Entwicklung, Anwendung und zukünftiger Entwicklungstrend der Computersoftwaretechnologie aus der Perspektive der doppelten Höhe Mit der schnellen Entwicklung von Computersoftware-Designtechnologie und Entwicklungswerkzeugen werden der Umfang und die Komplexität von Anwendungssoftware immer größer, was höhere Anforderungen an die Sicherheit und Zuverlässigkeit von Computeranwendungssoftware mit sich bringt. Dieser Artikel befasst sich hauptsächlich mit der Entwicklung und Anwendung der Computersoftwaretechnologie und ihrem zukünftigen Entwicklungstrend unter der doppelten Vision. Der Hostcomputer und der Zielcomputer in diesem Artikel sind über Ethernet verbunden. Aufgrund der Zufälligkeit des Wertes ist der Grenzwert beim Generieren des Testfallsatzes oft nicht garantiert, sodass er gezwungen werden muss, ihn zu generieren. Je nach Voreinstellung des Benutzers wird der Grenzwert zuerst generiert, wenn die Anzahl der von diesem Wert belegten Testfälle größer als 2 ist, und die Testfälle werden nach dem Zufallsprinzip erhalten und dazu addiert. Die Daten zeigen, dass durch die Optimierung der Schnittstellenkonfiguration die Gesamtleistung des Systems im Experiment auf 42,77 % verbessert wird. Die Ergebnisse zeigen, dass die in diesem Papier verfolgte Strategie zur Software-Selbstwiederherstellung den aktuellen Zustand der Software rechtzeitig erkennen und den normalen Betrieb der Software effektiv sicherstellen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-74814-2_18 15229ebc0a7e5fd8aab4c0276905866f;de;;;3.3.;;;Diskussionen über die Teststrategie der Informationssicherheit für das digitale industrielle Leitsystem in Kernkraftwerken Das Leitsystem entscheidet als neuronales Zentrum über Sicherheit und Wirtschaftlichkeit, die Informationssicherheit spielt im Leitsystem eine entscheidende Rolle. Mit der Verschmelzung von Industrialisierung und Information und mit der Entwicklung des digitalen Kernkraftwerks wurde die zunehmende Anzahl allgemeiner Softwaretechnologien einschließlich Netzwerkkommunikation, Betriebssystem usw industrielles Kontrollsystem. Aus der Sicht der Informationssicherheit analysiert dieses Papier die Merkmale des industriellen Steuerungssystems, das in Kernkraftwerken verwendet wird, und erstellt ein Hierarchiemodell von der Unternehmensleitung bis zur Softwareeinheit und bietet dann die Abwehrmethode für wahrscheinliche und potenzielle Eindringlinge auf jeder Ebene. Schließlich fasst dieser Artikel Defense-in-Depth-Systeme von Softwaredesign und -entwicklung bis hin zu Social Engineering zusammen und bietet Referenzen für die Optimierung der Informationssicherheit in industriellen Steuerungssystemen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1876-8_9 1409349b9f2c30f5799ab34af445b40a;de;;;3.3.;;;Testfälle Automatischer Generator (TCAG): Ein Prototyp Vor kurzem wurde die Verwendung von anforderungsbasierten Tests beleuchtet, bei denen anforderungsbasierte Modelle, insbesondere UML-Modelle, verwendet werden, um Modelle zur Generierung von Testfällen vorzuschlagen. In diesem Papier wird ein automatisierter Prototyp namens „Test Cases Automatic Generator“ (TCAG) vorgeschlagen, der eine eingeführte verbesserte Technik zum Generieren von Testfällen mit reduzierter, hybrider Abdeckung und mehreren Testtypen aus Aktivitätsdiagrammen mit minimalem Benutzereingriff implementiert. Nach ihrer Generierung werden die endgültigen Testfälle mit einem der bekannten automatischen Capture-Replay-Tools erfasst und zur Generierung von zusammenfassenden Berichten ausgeführt. Eine Traceability-Matrix namens „Test Cases Traceability Matrix“ (TTM) wird vorgeschlagen und von einem der bekannten Anforderungsmanagement-Tools verwendet, um die endgültig generierten Testfälle auf ihre ursprünglichen Anforderungen zurückzuverfolgen. Es wird eine qualitative und quantitative Bewertung des vorgeschlagenen Prototyps unter verschiedenen Verarbeitungsgeschwindigkeiten vorgenommen, die die verbesserte Leistung gegenüber seinen früheren Versionen und auch gegenüber einem eng verwandten Prototyp zeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35326-0_36 d4f29194b3e566662f807f4303280629;de;;;1.1.;;;Wahn — PsychologieDer Begriff „Wahn“ leitet sich aus verschiedenen indogermanischen und altdeutschen Wortstämmen ab, wobei „wan“ (leer, Vermutung) im Sinne eines falschen Verdachts als wesentliche sprachliche Wurzel gilt. Im allgemeinen Sprachgebrauch ist „Wahn“ im Verb „wähnen“ enthalten, was das Schöpfen eines Verdachtes bzw. eine vermeintliche Erkenntnis zum Ausdruck bringt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71147-6_36 1f9b2e25589e9fcf5bdfa5cb43af62cc;de;;;3.3.;;;Business-IT-Alignment in der Handelserleichterung: Eine Fallstudie Im Informationszeitalter kann kein Unternehmen erfolgreich sein, ohne die Leistungsfähigkeit der IT zu nutzen. Der effektive Einsatz von IT, um Geschäftsziele zu erreichen und Wettbewerbsvorteile zu erzielen, erfordert die Abstimmung der Geschäfts- und IT-Strategien von Unternehmen. Unter Verwendung des Strategic Alignment Maturity-Modells bewertet dieses Papier den Reifegrad der strategischen Ausrichtung des Zollverbrauchsteuerpräventionsdienstes, einer öffentlichen Organisation an vorderster Front, die mit der Handelserleichterung in Ghana beauftragt ist. Der Reifegrad der strategischen Ausrichtung liegt auf Stufe 3, was die Existenz eines etablierten Prozesses zur Nutzung der IT für Effizienz und Effektivität impliziert. Es sind Anstrengungen erforderlich, um die Ausrichtung zu stärken und das Potenzial der IT voll auszuschöpfen, um den Handel in Ghana zu erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16324-1_16 ed5f8c33395e1f9c6330dcb435b048a8;de;;;3.3.;;;Ein Simulationsansatz für die Leistungsvalidierung während des Designs eingebetteter Systeme Aufgrund des Time-to-Market-Drucks ist es sehr wünschenswert, Hardware und Software von eingebetteten Systemen parallel zu entwickeln. Allerdings werden Hard- und Software meist mit sehr unterschiedlichen Methoden entwickelt, sodass die Leistungsbewertung und Validierung des Gesamtsystems keine leichte Aufgabe ist. In diesem Beitrag schlagen wir einen Simulationsansatz vor, um die Lücke zwischen modellgetriebener Softwareentwicklung und simulationsbasiertem Hardwaredesign zu schließen, indem Hardware- und Softwaremodelle in einer SystemC-basierten Simulationsumgebung zusammengeführt werden. Es wurde ein automatisiertes Verfahren etabliert, um aus formalen Modellen Software-Simulationsmodelle zu generieren, während das Hardware-Design ursprünglich in SystemC modelliert wird. Da die Simulationsmodelle mit Timing-Informationen versehen sind, werden Leistungsprobleme in einem Arbeitsgang mit der Systemfunktionalität und nicht in einem dedizierten Ansatz angegangen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88479-8_27 1f5a3357f56fa7994904976e7d0f47d0;de;;;3.3.;;;AMiRESot – Eine neue Roboterfußballliga mit autonomen Miniaturrobotern AMiRESot ist eine neue Roboterfußballliga, die mit kleinen autonomen Miniaturrobotern gespielt wird. Teamgrößen werden mit einem, zwei und drei Robotern pro Team definiert. Das Besondere an der AMiRESot-Liga sind das vollautonome Verhalten der Roboter und ihre geringe Größe. Für die Spiele folgen die Regeln hauptsächlich den FIFA-Gesetzen mit einigen Modifikationen, die für Roboterfußball nützlich sind. Der neue Fußballroboter AMiRESot ist klein (maximal 110 mm Durchmesser), aber ein leistungsstarkes Fahrzeug, ausgestattet mit einem Differentialantrieb. Zur Sensorik sind die Roboter in der Grundausstattung mit Aktiv-Infrarot-Sensoren und einem Farbbildsensor ausgestattet. Für die Informationsverarbeitung stehen ein leistungsfähiger mobiler Prozessor und rekonfigurierbare Hardwareressourcen (FPGA) zur Verfügung. Durch den modularen Aufbau des Roboters kann dieser einfach um zusätzliche Sensor- und Verarbeitungsressourcen erweitert werden. Dieses Papier gibt einen Überblick über die AMiRESot-Regeln und präsentiert Details der neuen Roboterplattform, die für AMiRESot verwendet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03986-7_39 0f47837c2b5fb1f9271fa020c96c3477;de;;;3.3.;;;MPI für die Clint Gb/s-Verbindung Das Clint-Netzwerk bietet eine FPGA-basierte segregierte Architektur mit einem Massenkanal, der von einem Schnellkanal gesteuert wird. Wir berichten in diesem Papier, wie wir, um die MPI-APIs auf diesem Netzwerk effizient zu implementieren, die Schnittstelle zwischen der Sonne „mitgestaltet“ haben;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39924-7_54 bcfdc83aa35751f67878c0d6a01bf829;de;;;3.3.;;;Glomerulus-Klassifizierung mit Convolutional Neural Networks Die Glomerulusklassifikation in Nierengewebesegmente ist ein Schlüsselprozess in der Nephropathologie, um eine korrekte Diagnose von Krankheiten zu erhalten. In diesem Papier beschäftigen wir uns mit der Herausforderung, die Glomerulus-Klassifikation aus digitalisierten Nierendiasegmenten mit einem Deep-Learning-Framework zu automatisieren. Das vorgeschlagene Verfahren wendet die Klassifizierung von Convolutional Neural Networks (CNNs) zwischen zwei Klassen an: Glomerulus und Nicht-Glomerulus, um die Bildsegmente zu erkennen, die zu Glomerulus-Regionen gehören. Wir konfigurieren das CNN mit dem öffentlichen vortrainierten AlexNet-Modell und passen es an unser System an, indem wir aus den aus Trainingsfolien extrahierten Glomerulus- und Nicht-Glomerulus-Regionen lernen. Sobald das Modell trainiert ist, wird die Kennzeichnung durchgeführt, indem die CNN-Klassifizierung auf die zu analysierenden Bildsegmente angewendet wird. Die erhaltenen Ergebnisse zeigen, dass diese Technik für eine korrekte Glomerulus-Klassifizierung geeignet ist, Robustheit zeigt und gleichzeitig falsch positive und falsch negative Detektionen reduziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-60964-5_73 a83984d313baf45760559a4bf81282d6;de;;;3.3.;;;Hintergrund und bisherige Arbeit Die erste Hälfte dieses Kapitels bietet Hintergrundinformationen zu FPGA-Architekturen und beschreibt kurz die für dieses Buch relevanten Vorarbeiten. Die zweite Hälfte des Kapitels beschreibt den CAD-Flow, der verwendet wird, um Schaltungen automatisch in FPGAs abzubilden und deren Geschwindigkeit zu bestimmen, und fasst einige der bisherigen Arbeiten in den relevanten CAD-Bereichen zusammen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5145-4_2 2e4e9e18ebf529ba8e942697e607ea75;de;;;3.3.;;;Bewertung der Software-Agilität: Eine explorative Fallstudie In diesem Beitrag präsentieren wir eine explorative Studie zur Entwicklung eines Software-Agilitäts-Bewertungsmodells, um die Lücke eines strukturierten Bewertungsmodells in diesem Bereich zu schließen. Der Zweck des Modells besteht darin, die Agilität von Organisationen oder Projekten zu bewerten und den Organisationen auf dem kontinuierlichen Verbesserungspfad Fahrpläne bereitzustellen. Das Modell hat zwei Dimensionen mit ähnlicher Struktur wie ISO/IEC 15504: die Agilitätsdimension und die Aspektdimension. Wir führten eine explorative Fallstudie durch, um die Verbesserungsmöglichkeiten des Modellentwurfs zu identifizieren und diskutierten die Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13036-1_18 d331c0deb2e1e592a111eebdbdd51821;de;;;3.3.;;;Sensorische Datenerfassung für die Straßenverkehrsüberwachung: Energieeffizienz, Zuverlässigkeit und Fehlertoleranz Die Überwachung und Steuerung des Fahrzeugverkehrs unter Verwendung eines Straßensensornetzwerks ist aufgrund eines kontinuierlichen Datenstroms über die ressourcenbeschränkten Sensorgeräte eine Herausforderung. Die Verzögerungsempfindlichkeit und Zuverlässigkeit der großen Menge an Anwendungsdaten sowie die Knappheit der Sensorressourcen erfordern ein effizientes Design des Datenerfassungsprotokolls. In diesem Kapitel wurde ein neuartiges baumbasiertes Datenerfassungsschema vorgeschlagen, das die streifenförmige Struktur des Straßennetzes nutzt. Ein effizienter Scheduling-Mechanismus wird implementiert, um sowohl die Abdeckung als auch die kritischen Energieeinsparungen der Sensorknoten sicherzustellen. Die Netzwerkkonnektivität wird durchgehend durch das vorgeschlagene Baumpflegemodul gewährleistet, das die Dynamik des Netzwerks als Ergebnis von Ereignissen beim Beitritt und Verlassen von Sensorknoten behandelt. Es wurde ein Anwendungsnachrichten-Controller entworfen, der mit dem Baumverwaltungsmodul zusammenarbeitet und das kontinuierliche Streaming der Anwendungsdaten handhabt, um keinen Verlust oder keine Redundanz bei der Datenlieferung zu gewährleisten. Die Leistung des vorgeschlagenen Schemas wird anhand der Simulationsergebnisse bewertet und mit anderen Ansätzen für die große Datensammlung in Sensornetzwerken verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09177-8_4 d82d0eaee9ccbd043ca74e10ea627bc2;de;;;1.1.;;;Lehrkräfte als zentrale Einflussgröße des AufgabeneinsatzesDie Forschungsperspektive dieser Arbeit bezogen auf die befragten Lehrkräfte ist schwerpunktmäßig dem Expertenansatz in der Lehrerforschung zuzuordnen (zu den Paradigmen der Lehrerforschung vgl. Bromme/Rheinberg 2006, 299- 307, Brunner et al. 2006a, 55 f.). Aus dieser Perspektive wird gefragt, welche Kompetenzen Lehrkräfte brauchen, um berufliche Anforderungen zu bewältigen, denn es wird;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-92698-8_4 6518b3b43db3269c024c6c6bcf58e322;de;;;1.1.;;;Normative Verständigung im Management: Personale Bindungsmechanismen und Commitments als Kern der Wirtschaftsethik im ManagementOrganisationale Akteure sind individuelle Akteure. Sie arbeiten arbeitsteilig in institutionellen, also in organisatorischen und regelgebundenen Funktionszusammenhängen. Dadurch verliert ihre Tätigkeit jedoch den ganzheitlichen Sinnbezug: Die organisationalen Akteure verstehen die organisatorischen Auswirkungen ihrer Handlungen nicht, sondern orientieren sich lediglich am organisationalen Handlungsbezug, also an der Sinnstruktur ihrer jeweiligen Handlung. Sie müssen ihre Rolle in den Handlungselementen, in denen sie aktiv sind, entsprechend der dort bestehenden Kommunikation weiterführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-17564-1_3 430b3b98f8a2fb97f581080ce58eaebb;de;;;1.1.;;;Theorien zur Entstehung und Erklärung der unterschiedlichen Dominanz von OrganisationsformenZur Beantwortung der Untersuchungsfragestellung, ob und in welchem Maße inklusive Wirtschaftsorganisationen in der Lage sind, sich in von “Firmen” dominierten Marktgesellschaften ökonomisch zu stabilisieren, ohne dabei ihre organisationsspezifische Identität aufzugeben, werden im folgenden wissenschaftliche Theorieangebote daraufhin analysiert, womit sie die Dominanz bzw. Überlegenheit der “Firma” und die entsprechende Verdrängung “alternativer” Organisationsformen begründen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-96412-0_3 8cf5174c994eea7cbf43f97d96a43e69;de;;;1.1.;;;Festlegung der theoretischen BasisAuf Basis der Konstrukte Committed Cost (CC) und Quasirente lassen sich die retrospektiven und prospektiven Bestandteile des Vorteilhaftigkeitskalküls identifizieren und voneinander abgrenzen. Die Analyse der retrospektiven Kosten hat gezeigt, dass die CC aus ökonomischer Sicht keine Entscheidungsrelevanz besitzen, während die Quasirente eine ökonomisch fundierte Abhängigkeit begründen kann. Aus dieser Argumentation heraus erscheint eine differenzierte theoretische Analyse mit dem Ziel der Erklärung der originären Bindungswirkung spezifischer Investitionen einerseits und der derivativen Bindungswirkung andererseits sinnvoll.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-9069-9_3 f2c02bf1f471a6954b83269f60034bbc;de;;;1.1.;;;Risiko und GefahrErst in den letzten Jahren beginnt die Soziologie, sich ernsthafter und umfangreicher mit dem Thema Risiko zu befassen. Den Anlaß dazu findet man sicher nicht in soziologieeigenen Theorieentwicklungen. Das Thema wird wie durch stürmische Winde in die Forschungslandschaft hineingeblasen. Aber es mag auch ein willkommener Anlaß sein, sich von bisherigen Themen abzuwenden, deren man überdrüssig geworden ist (was nicht auf Erfolgen der bisherigen Forschung beruhen muß).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-97005-3_6 0d5df233487df5c24cb9110e7ef32524;de;;;1.1.;;;Sprachentwicklung und GehirnSprachverarbeitung ist eine Leistung des Gehirns. Insofern sind auch der Spracherwerb und die Sprachentwicklung im Kontext entwicklungsbedingter hirnfunktioneller und hirnanatomischer Veränderungen zu betrachten. Mit elektrophysiologischen und funktionell bildgebenden Methoden lassen sich konkrete Verarbeitungsprozesse des Gehirns direkt beobachten sowie in Abhängigkeit von Alter und Sprachentwicklungsstand vergleichen. Dieser direkte Zugang zur Sprachverarbeitung bietet die bedeutsame Möglichkeit, die der Sprachverarbeitung zugrunde liegenden Prozesse sowie die Sprache als neurokognitive Funktion besser zu verstehen. Zugleich lassen sich strukturell-anatomische Aspekte der Hirnentwicklung im Zusammenhang mit Meilensteinen des Spracherwerbs betrachten und damit die entscheidenden Bausteine und Verknüpfungen des Sprachnetzwerks im Gehirn und seiner Entwicklung aufzeigen. In diesem Kapitel werden wichtige Untersuchungsmethoden und die neurokognitiven Grundlagen der Sprachentwicklung eingeführt und deren Bedeutung an einigen wichtigen empirischen Befunden erläutert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-60498-4_4 8e8ea61ed7843e58968cd1ce141c32ce;de;;;1.1.;;;Neurowissenschaft und Verhalten – biologisch-physiologische Grundlagen Kapitel 2 befasst sich sodann mit Aufbau und Funktion des Zentralnervensystems, das eine wesentliche Grundlage zum Verständnis tierischen und menschlichen Verhaltens sowie auch klinisch neuropsychologischer Störungsbilder darstellt. Zu dieser Verhaltensphysiologie gehören auch die genetischen Grundlagen, die später insbesondere in den Kapiteln über Lernen und Gedächtnis wieder aufgegriffen werden. Zugleich bildet das Kapitel die Verknüpfung zu den benachbarten und im Bachelor- bzw. Master-Studiengang gesondert vorgesehenen (neurowissenschaftlichen) Teilgebieten der Biologischen Psychologie und Psychophysiologie;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-53006-1_2 72f5f47fbc658bae05581d2a9064836c;de;;;1.1.;;;Weltgesellschaft, institutionelle Bildung und das SubjektIn den folgenden Abschnitten von Kapitel 1 werden erste grundlegende Perspektiven auf den Forschungsgegenstand entwickelt. Dabei greife ich, ausgehend von einer soziologischen Rahmung mit Bezug auf Ulrich Becks Monographien ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-93053-4_2 28d68c06063cbbf30feda74fc8445b92;de;;;1.1.;;;Fragestellungen und HypothesenKapitel 3 fasst die theoretischen Grundlagen, die für diese Arbeit von Interesse sind, im Modell zusammen. Darauf aufbauend werden die Forschungsfragen abgeleitet sowie die Hypothesen aufgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-30133-0_3 2c09d6a654a76044e90b107bfc01c35f;de;;;1.1.;;;Zweiwertige AussagenlogikIn diesem Kapitel werden die Grundbegriffe der klassischen Aussagenlogik behandelt. Begriffe wie logische Gültigkeit von Formeln, Modelle und die aussagenlogische Folgerungsrelation spielen in allen Gebieten der Logik eine zentrale Rolle. Im vorliegenden Fall sind sie recht einfach handhabbar und sehr geeignet, das Verständnis für die Methodik der abstrakten Logik zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-85796-5_2 a30ffa47c53d4f931635bd15792d743d;de;;;1.1.;;;Das Determinismusproblem in der Nationalökonomie und in der BetriebswirtschaftslehreIn der folgenden Untersuchung wird dem Problem von wissenschaftlichen Voraussagen in der Nationalökonomie und in der Betriebswirtschaftslehre als einer genuin theoretischen Fragestellung nachgegangen, wobei weder eine Beurteilung von ökonometrischen Modellen der empirischen Wirtschaftsforschung aus dem Bereich der Nationalökonomie noch Modellierungsfragen einer quantitativ ausgerichteten Betriebswirtschaftslehre im Vordergrund stehen. Es werden deshalb auch keine Beurteilungen über empirische Erfolge einzelner Verfahren intendiert, noch werden generelle Aussagen über wirtschafts- bzw. unternehmungspolitische Nutzen von Prognosen formuliert. Vielmehr werden Probleme aufgezeigt, denen realwissenschaftliche Erklärungen bei komplexen gesellschaftlichen Sachverhalten ausgesetzt sind, weil die Frage des Erwartungswertes zur Beurteilung von Vorhersagen nicht unabhängig von der basalen Grundlage des wissenschaftlichen Erklärungsmodells vorgenommen werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-87957-8_5 02f75105d32669cc7e8c73c9bea7019b;de;;;1.1.;;;Kooperatives Lernen, fachbezogenes Selbstkonzept und politisches Wissen im Sachunterricht der GrundschuleKooperativen Lernformen wird in Kombination mit einer strukturierten Aufarbeitung und Präsentation der Lerninhalte eine lernförderliche Wirkung bescheinigt. Sie wirken gleichfalls auf das Selbstkonzept, das auf das politische Wissen wirkt. Die Studie mit 384 Viertklässlern untersucht diese Zusammenhänge. Sie kann die allgemein angenommenen Zusammenhänge bestätigen, wenn auch die Effekte eher gering ausfallen. Ein weiteres Ergebnis ist, dass sich durch gezielte unterrichtliche Interventionen ein Wissenszuwachs erreichen lässt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-27896-0_9 e6d6896df7971c0ddb2e3820b1ad3cb9;de;;;3.3.;;;Eine formale Methode zum Testen der Interoperabilität von Protokollen in Echtzeit Interoperabilitätstests sind eine wichtige Technik, um die Qualität der Implementierungen des Netzwerkkommunikationsprotokolls sicherzustellen. Im Internetprotokoll der nächsten Generation sollen Echtzeitanwendungen effektiv unterstützt werden. Allerdings wurden Zeitbeschränkungen in den entsprechenden Studien zum Testen der Protokoll-Interoperabilität nicht berücksichtigt, so dass bestehende Interoperabilitäts-Testmethoden bei Echtzeit-Protokoll-Interoperabilitätstests nur schwer anzuwenden sind. In diesem Papier wird eine formale Methode zum Testen der Interoperabilität von Protokollen in Echtzeit vorgeschlagen. Zunächst wird ein formales Modell CMpTIOA (Communication Multi-Port Timed Input Output Automata) definiert, um das zu testende System (SUT) in Echtzeit-Protokoll-Interoperabilitätstests zu spezifizieren, basierend auf diesem Modell wird dann eine zeitgesteuerte Interoperabilitätsbeziehung definiert. Um diese Beziehung zu überprüfen, wird ein Testgenerierungsverfahren vorgestellt, um einen parametrisierten Testverhaltensbaum aus dem SUT-Modell zu generieren, ein Mechanismus zur Vorausbestimmung der Ausführbarkeit ist auch in das Testgenerierungsverfahren integriert, um das Problem der Zustandsraumexplosion in gewissem Maße zu mildern. Die vorgeschlagene Theorie und Methode werden dann bei Interoperabilitätstests des IPv6 Neighbor Discovery Protokolls angewendet, um die Machbarkeit dieser Methode zu zeigen.;-;-;-;https://link.springer.com/article/10.1007/s11432-008-0153-7 0e6712b7924a8e862f832a5bcbf5c40d;de;;;3.3.;;;Web-HLA und Service-Enabled RTI im Simulation Grid HLA-basierte Simulationen in einer Grid-Umgebung sind mittlerweile zu einem Hauptforschungs-Hotspot in der M&S-Community geworden, aber es gibt viele Unzulänglichkeiten der aktuellen HLA, die in einer Grid-Umgebung ausgeführt wird. Dieses Papier analysiert die Analogien zwischen HLA und OGSA aus Sicht der Softwarearchitektur und weist darauf hin, dass die serviceorientierte Methode in die drei Komponenten von HLA eingeführt werden sollte, um ihre Mängel zu überwinden. Dieses Papier schlägt eine erweiterte laufende Architektur vor, die die HLA mit OGSA integrieren kann und eine servicefähige RTI (SE-RTI) realisiert. Um das Engpassproblem bei der effizienten Realisierung des HLA-Zeitmanagementmechanismus zu bewältigen, schlägt dieses Papier außerdem einen zentralisierten Weg vor, wie der CRC des SE-RTI das Zeitmanagement und die Zuteilung von ÜNB-Ereignissen jeder föderale. Benchmark-Experimente zeigen, dass die Laufgeschwindigkeit von Simulationen im Internet oder WAN richtig verbessert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77600-0_22 75120b44f81f97f38c6d355bfa3be418;de;;;1.1.;;;Was ist Kompetenz?Der Anwendungsbezug des Wortes Kompetenz wird bereits aus dem lateinischen Ursprung competencia (zu etwas geeignet, fähig oder befugt sein) deutlich. Oftmals werden Begriffe wie Qualifikation, Fähigkeit, Ressource usw. dem Kompetenzbegriff gleichgesetzt bzw. als abgrenzende Begriffe verwendet. Generell gilt dabei die Faustregel, dass erst dann Kompetenzen manifest werden, wenn Wissen in Handlungen umgesetzt wird. Ist z. B. von Talenten die Rede, wird damit das Potenzial beschrieben, Kompetenzen zu entwickeln: „Übung macht den Meister.“ Wird von Qualifikation gesprochen, sind fertig ausgeprägte, von dritter Stelle bewertete, bestätigte, beglaubigte oder zertifizierte Fähigkeiten einer Person gemeint (zu den Begriffen siehe Glossar).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-3696-7_2 42be82fb5bc64fda109fe3859f841feb;de;;;3.3.;;;Digitalisierung – Perspektiven für die Konzeptualisierung Digitalisierung ist mehr als die Nutzung digitaler Technologien zur Übertragung von Daten und zur Durchführung von Berechnungen und Aufgaben. Die Digitalisierung umfasst disruptive Auswirkungen digitaler Technologien auf Wirtschaft und Gesellschaft. Um diese Effekte zu erfassen, werden zwei Perspektiven eingeführt, die Produkt- und die Wertschöpfungsperspektive. Aus Produktsicht ermöglicht die Digitalisierung den Übergang von materiellen, statischen Produkten hin zu interaktiven und konfigurierbaren Services. Aus der Wertschöpfungsperspektive ermöglicht die Digitalisierung den Übergang von zentralisierten, isolierten Wertschöpfungsmodellen hin zu bidirektionalen, co-creation-orientierten Ansätzen der Wertschöpfung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-33313-7_20 7a36c940c1767f49df45816499e287c3;de;;;3.3.;;;Android App-gesteuerter Mehrzweckroboter mit 8051 Mikrocontroller Robotik und künstliche Intelligenz sind aus unserem Leben nicht mehr wegzudenken. Vom Turing-Test bis zum Deep Learning haben wir ihre Präsenz und Entwicklung gesehen. Die Geschwindigkeit, mit der die Robotik derzeit voranschreitet, ist so schnell, dass wir bald in einer Welt leben würden, in der intelligente Systeme in die gängigsten Anwendungen eingesickert wären. Es bietet sich daher an, sich mit der Technologie im Laufe des Fortschritts und des Wachstums vertraut zu machen. Es wäre viel besser, wenn die Leute es in jungen Jahren lernen könnten, insbesondere Kinder. Daher haben wir uns entschieden, einen Roboter zu entwickeln, der von Kindern bedient und gesteuert werden kann. Das Ziel unseres Projekts ist es, einen Roboter mit einem 8051-Mikrocontroller zu entwickeln, der mit Bluetooth und einer Android-App verbunden ist. So funktioniert der Roboter: Das Bluetooth-Modul des Roboters interagiert mit der Android-App, um die Anwendung von drei verschiedenen Robotern zu steuern: Line Follower, Button-gesteuerte und sprachgesteuerte Roboter über den Austausch numerischer Daten. Die Benutzeroberfläche wurde benutzerfreundlich gestaltet und ist für Kinder einfach zu bedienen. Dies kann letztendlich dazu dienen, Kinder in die Welt der Robotik einzuführen und ihnen einen Einblick in die Funktionsweise zu geben. Die Zukunft bewegt sich in Richtung eines Zustands, in dem Technologie allgegenwärtig und Wissen vorzuziehen wäre.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9690-9_30 95bd0ba29e6911523b74fa4cfd1aa2b8;de;;;3.3.;;;Modellierung und Verifikation von Veränderungsprozessen im kollaborativen Software Engineering Beim kollaborativen Software-Engineering werden viele Änderungsprozesse, die Änderungsanforderungen implementieren, gleichzeitig von verschiedenen Mitarbeitern ausgeführt. Die Tatsache, dass die Arbeiter jedoch nicht über ausreichende Informationen über die Arbeit der anderen verfügen, und komplizierte Abhängigkeiten zwischen den Artefakten können zu unerwarteten Inkonsistenzen zwischen den Artefakten mit Änderungseffekt führen. Indem wir uns auf die Kontexte der Veränderungen konzentrieren, d. h. die Veränderungsprozesse, die die Veränderungen beinhalten, und nicht nur die gleichzeitigen Veränderungen wie in den vorherigen Arbeiten, haben wir einen Ansatz vorgeschlagen, der den Arbeitern hilft, Inkonsistenzen effektiver zu erkennen und zu lösen [1]. Unser Ansatz besteht darin, eine Change Support Environment (CSE) aufzubauen, die die Veränderungsprozesse explizit als Change Support Worflows (CSWs) darstellt und deren Ausführung basierend auf unseren Inkonsistenzmustern steuert, einschließlich vieler Muster neben den in den vorherigen Arbeiten erwähnten Konfliktmustern. Um die Machbarkeit unseres vorgeschlagenen Ansatzes zu bewerten, stellt dieses Papier ein formales Modell der CSE vor, das farbige Petrinetze (CPN) verwendet, um die Artefakte und sowohl den Datenfluss als auch den Kontrollfluss von CSWs zu modellieren. CPN Tools wird verwendet, um das CPN-Modell von CSE zu bearbeiten, zu simulieren und zu verifizieren, um datenbezogene Anomalien, insbesondere Inkonsistenzmuster, zu erkennen. Im Gegensatz zu früheren Arbeiten zur Workflow-Modellierung kann unsere Methode zur Modellierung von CSWs mit CPN viele Aspekte eines Workflows, einschließlich Datenfluss, Kontrollstruktur und Ausführungszeit, in einem einzigen Modell darstellen. Auch Daten und Wertänderungen von Daten werden explizit dargestellt. Darüber hinaus kann unsere Modellierungs- und Verifikationsmethode auf andere Arten von Workflows angewendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39646-5_2 ba96fb8aca64ffb7ddfbb14decfbd16a;de;;;1.1.;;;Neuronale Grundlagen von AufmerksamkeitDie neuronalen Grundlagen von Aufmerksamkeit werden vor allem mit Methoden der Elektrophysiologie an Primaten und mit bildgebenden Verfahren bei Menschen untersucht. Das neuronale Korrelat von Aufmerksamkeiteinflüssen sind dabei Aktivitätsänderungen sensorischer Neurone aufgrund der Verhaltensrelevanz der von diesen Neuronen kodierten Reize. Aufmerksamkeit kann dabei die Aktivität von Neuronen systematisch und selektiv erhöhen oder erniedrigen und führt dazu, dass die Repräsentation beachteter sensorischer Signale verstärkt und die unbeachteter Signale abgeschwächt wird. Die psychophysische Beobachtung, dass Aufmerksamkeit sowohl räumlich als auch auf Objekte oder deren Eigenschaften ausgerichtet werden kann, spiegelt sich in entsprechenden Beobachtungen in elektrophysiologischen Experimenten und bei Un tersuchungen mit bildgebenden Verfahren wider.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-28449-4_24 94e19e783a6ba322a4f5cfe343553869;de;;;3.3.;;;Verschmelzen von Prozessbewertung und Mitarbeiterkompetenzbewertung in sehr kleinen Unternehmen Die ISO/IEC 29110-Reihe zielt darauf ab, Very Small Entities (VSE) eine Reihe von Standards bereitzustellen, die auf Teilmengen bestehender Standards basieren. Die Prozessfähigkeitsbestimmung scheint für eine VSE im Hinblick auf die Kapitalrendite nicht geeignet zu sein. Unser Ansatz verschiebt den Blickwinkel weg vom Prozess und hin zu den Human Resources. Wir schlagen ein gemischtes Bewertungsmodell unter Verwendung der ISO/IEC 15504 für die Stufe 1 vor, jedoch basierend auf der Kompetenzbewertung für die höheren Stufen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24647-5_17 543a7ac5f033909959ac8c4cc2700e97;de;;;3.3.;;;Forschung und Anwendung zu Darstellungswerkzeugen von Software Detailed Design In der detaillierten Entwurfsphase müssen Sie die realisierte Arithmetik jedes Moduls entscheiden und diese Algorithmen genau ausdrücken. Ziele auf Eigenschaften von Software Detail Design haben zu viel Präsentation, schwer zu wählen und zu beherrschen. Dieser Artikel untersucht primäre Repräsentationswerkzeuge. Auf der Grundlage des Forschungssequenztyps wählen Sie den Typ, die erste Richtertypschleife, die nach dem Richtertypschleife und viele Situationen den Typ auswählen usw Diese 5-Typ-Kontrollstrukturen verwenden Darstellungswerkzeuge, die Darstellungswerkzeuge der Forschung enthalten Flussdiagramme, Kastendiagramme, Problemanalysediagramme und IPO-Diagramme usw. Die Forschungsinhalte dieses Papiers sind Referenz und Leitfaden für das detaillierte Softwaredesign und es hat eine wichtige leitende Bedeutung für Softwaredesigner.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28655-1_95 8ae3531bffeb690c66f9df2efd5905eb;de;;;1.1.;;;Energiekonsumverhalten privater Haushalte und energieeffiziente BestandsentwicklungDas Konsumverhalten privater Haushalte ist ein entscheidender Aspekt der Energiewende in Deutschland. Sie wird maßgeblich durch die Zielsetzung einer nachhaltigen, auf erneuerbaren Ressourcen basierenden Energieversorgung bestimmt und ist nur dann möglich, wenn der Energieverbrauch in einzelnen Sektoren deutlich reduziert wird. Dem Handlungsfeld Wohnen kommt dabei eine wichtige Bedeutung zu.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-11723-8_25 5faddce1198052581c1bc621b50ce44c;de;;;1.1.;;;Kommunikationswirkungen der Stiftung im Rahmen der PR-ArbeitAm Ende des dritten Kapitels wurde festgestellt, dass die Stiftung aus Sicht des Unternehmens grundsätzlich als gesellschaftsorientiertes PR-Instrument geeignet erscheint und damit neben der Spende und dem Sponsoring dem Instrumentenbündel Corporate Giving zugerechnet werden kann. Mit dem Einsatz der Stiftung als PR-Instrument und dem damit verbundenen sozialen und ökologischen Engagement möchte das Unternehmen bei den Zielpersonen bestimmte innere, nicht beobachtbare (kommunikative) und äußere beobachtbare Reaktionen (Zielwirkungen) auslösen (vgl. ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-83464-5_5 b10a25360180ccdf2b294c4400e945ab;de;;;1.1.;;;Evaluation psychiatrischer Versorgung als ein Beitrag zur QualitätssicherungAngestoßen von der jüngeren gesundheitspolitischen Gesetzgebung (Gesundheitsreformgesetz 1989, Personalverordnung Psychiatrie 1991, Gesundheitsstrukturgesetz 1993 und Bundespflegesatzverordnung 1995) boomt im Gesundheitswesen der Bundesrepublik Deutschland seit einiger Zeit die Diskussion über Möglichkeiten der Sicherung und Kontrolle der medizinischen Behandlung und Versorgung der Bürger in ihrer Rolle als Patienten, Klienten oder Nutzer von (ambulanten oder stationären) Leistungen des Gesundheitsversorgungssystems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-92570-1_1 855c14cb0232590e772a095b01b50a7c;de;;;1.1.;;;Defekte in der Ziel- und Steuerungssystematik von BankenDer Volksmund sagt, dass Geld Vertrauenssache sei und befürchtet gar: „Bei Geld hört die Freundschaft auf“. Damit weist er indirekt auch auf die besondere Bedeutung des Vertrauens für die Banken hin, deren Kern eben das Geschäft mit dem Geld ihrer Kunden ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-02942-5_2 807243333817d07b5006d53b14c60e7f;de;;;3.3.;;;Eine empirische Studie zu Entscheidungsfindung, Beteiligung und Empowerment in norwegischen Softwareentwicklungsorganisationen Mit dem Wachstum agiler Softwareentwicklungsmethoden haben wir einen verstärkten Fokus auf die Befähigung von Softwareentwicklern als Mittel zur Verbesserung der Produktivität und Qualität in der Softwareentwicklung gesehen. Auch aus anderen wissensintensiven Branchen sehen wir, dass die Beteiligung an der Entscheidungsfindung nicht nur die Geschäftszufriedenheit, sondern auch die Arbeitszufriedenheit der Arbeitnehmer verbessert. In dieser Studie werden Interviews von vier verschiedenen Arten von Softwareentwicklungsorganisationen in Norwegen gesammelt und analysiert, um einen besseren Einblick in die Entscheidungsfindung in der Softwareentwicklung zu erhalten. Die vier Arten von Organisationen sind a) kleine interne Softwareteams, b) Softwareunternehmen mit undefiniertem Entwicklungsprozess, c) Softwareunternehmen, die einen einheitlichen Prozess verwenden, und d) Softwareunternehmen, die Scrum verwenden. Die Daten bestätigen, dass Erfahrung eine Dimension ist, die die Befähigung eines Entwicklers maßgeblich beeinflusst. Es gibt aber auch deutliche Unterschiede zwischen diesen vier Gruppen darin, an welcher Art von Entscheidungen Entwickler beteiligt sind und in welchem ​​Umfang sie zugelassen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20677-1_18 d5710abbf7dffc8640ee9bfdc13a4fcf;de;;;1.1.;;;Motivationstheoretische Herausforderungen: Ein kontigenztheoretischer AnsatzDer vorangegangene Teil hat den Charakter einer weitestgehend wertfreien Situationanalyse besessen. Auf den Grundlagen einer steuernden und handlungsleitenden Funktion eines Anreizsystems und der damit stets einhergehenden kurz- oder langfristigen Leistungsorientierung sind die basalen Gestaltungsdimensionen eines jeden Anreizsystems vorgestellt worden. Dabei ist bislang offen geblieben, wie die angesprochenen Dimensionen im Einzelfall optimal auszugestalten sind. Eine Voraussetzung hierfür stellt die Kenntnis des menschlichen Motivationsprozesses dar. Erst wenn bekannt ist, wie ein Motivationsprozeß ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08251-4_3 b9a2b8c92e7c0cf381a1c7857324182d;de;;;1.1.;;;Interventionsmöglichkeiten der Introvision bei TinnitusIm Rahmen der vorliegenden Studie wird davon ausgegangen, dass bei der Chronifizierung eines Tinnitus die gleichen introferenten Prozesse wie bei anderen Bewusstseinskonflikten zum Tragen kommen. Im Falle eines Tinnitus ist es das Ohrgeräusch selber, das mit dysfunktionalen Gedanken und darauf basierenden negativen Empfindungen gekoppelt wird. Dies führt dazu, dass einige Kognitionen selektiv ausgeblendet und gehemmt werden, während andere verstärkt in die Aufmerksamkeit rücken (in diesem Fall die Wahrnehmung eines bestimmten Tons). Diese Kognitionen werden durch Kopplung mit zusätzlicher Erregung und Anspannung in der Aufmerksamkeit festgehalten, während gleichzeitig das Weiterlaufen der Informationsverarbeitung blockiert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-19636-7_4 b5bd9848bbfd7850d8e9698b46f67513;de;;;1.1.;;;Theoretischer Rahmen und empirischer Stand der ForschungZiel des folgenden Kapitels ist eine Aufarbeitung des theoretischen Stands der Forschung zu den Bestimmungsgründen der Beziehungsstabilität (2.1). Hieran schließt sich eine Definition sozialer Einbettung von Paarbeziehungen anhand der Theorie der Interaktionsgelegenheiten an (2.2). Die Annahmen der Theorie der Interaktionsgelegenheiten zu Gelegenheitsstrukturen werden anschließend in ein allgemeines Modell der Beziehungsstabilität integriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-14605-4_2 73ffd563ef72d0be808f4a7215903773;de;;;3.3.;;;Resource Discovery zur Unterstützung der allgegenwärtigen kollaborativen Arbeit Die Mehrheit der im Bereich der Diensterkennungsprotokolle vorgeschlagenen Lösungen konzentriert sich hauptsächlich auf die Entwicklung von Einzelbenutzeranwendungen. Folglich sind diesen Anwendungen keine Eingriffe Dritter bekannt, die davon ausgehen, dass niemand eingreift oder beobachtet. Dieses Papier beschreibt ein System zum Auffinden gemeinsam nutzbarer Ressourcen in allgegenwärtigen kollaborativen Umgebungen. Das vorgeschlagene System basiert auf dem Publish/Subscribe-Modell, das es Mitarbeitern ermöglicht: 1) Ressourcen zu veröffentlichen, um sie mit ihren Kollegen zu teilen und 2) sich selbst zu abonnieren, um Informationen über Ressourcen zu erhalten, an denen sie interessiert sind Quellen, wie Benutzeranwendungen, ein Ressourcenlokalisierer und ein Gesichtserkennungsgerät, um die beste verfügbare Ressource für eine bestimmte Anfrage herauszufinden. Die Ressourcenverfügbarkeit wird anhand mehrerer Parameter bestimmt: technische Eigenschaften, Rollen, Nutzungsbeschränkungen und Abhängigkeiten mit anderen Ressourcen in Bezug auf Besitz, Präsenz, Standort und sogar Verfügbarkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22027-2_51 63a7d0401179f73b48faf016771028fe;de;;;3.3.;;;Sybil Secure Architecture für Multicast-Routing-Protokolle für MANETs Der Sybil-Angriff ist eine besonders schädliche Bedrohung für mobile Ad-hoc-Netzwerke, bei denen ein einzelner Knoten unrechtmäßig mehrere Identitäten beansprucht. Ein bösartiger Knoten kann eine beliebige Anzahl zusätzlicher Knotenidentitäten erzeugen, indem er nur ein physisches Gerät verwendet, wodurch die normale Funktion des Netzwerks gestört wird. In diesem Papier wird ein zertifikatbasiertes lokalisiertes Authentifizierungsschema vorgeschlagen, um Sybil-Angriffe zu verhindern. Simulationsergebnisse zeigen, dass die vorgeschlagene Methode den Sybil-Angriff aufrechterhalten und den Systemdurchsatz und damit die Leistung des Netzwerks in erheblichem Maße schützen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22709-7_12 84ff7d3a508eeef7400eebe9fe371c76;de;;;3.3.;;;Internet of Breath (IoB): Integrative Gassensoranwendungen in Innenräumen für Notfallsteuerung und Anwesenheitserkennung In diesem Papier wird ein Entwurfsrahmen für eine neue Art der Internet-of-Things-Technologie vorgeschlagen. Wir verwenden speziell den Begriff Internet-of-Breaths (IoB), ein drahtloses Sensornetzwerk (WSN) zur Verbesserung von Feuerwehr- und Rettungseinsätzen (FRS) mit Echtzeitinformationen über die Luftqualität und die Anwesenheit von Menschen in der Nähe des Feuerstelle. Obwohl IoB in Notfallszenarien nützlich sein kann, wäre IoB ein nützliches Werkzeug, um die Anwesenheit von Menschen in einem begrenzten Bereich zu erkennen. Anhand der Raumgröße und der gemessenen CO2-Konzentration kann er ungefähre Mitarbeiterzahlen abschätzen. Basierend auf den bisherigen Erfahrungen von SafetyNET mit einem erfolgreichen Projekt der Loughborough University UK erweitert IoB die Kapazität des SafetyNET-Sensors um die Möglichkeit der CO2-Konzentrationsmessung als integrativen Ansatz. Mit dieser neuen Sensorfähigkeit können neue Informationen wie die menschliche Belegung gemessen werden. Indem Sie wissen, ob und wie viele Personen sich an einem bestimmten Ort und seinen nahegelegenen Orten aufhalten, können zusätzlich zu Giftgas, Brandschwere usw. zusätzliche Informationen erhalten werden, die den FRS-Operationen sehr helfen. Mit den Informationen zur menschlichen Belegung soll sich die hier vorgeschlagene Forschung auf das Entwerfen und Bauen von Prototypen von Anwendungen konzentrieren, die von der Kenntnis der menschlichen Belegung in Echtzeit über das drahtlose IoB-Sensornetzwerk profitieren können. Die Integration dieser neuen Informationen in bestehende WSN-Daten und -Systeme wird untersucht. In den Aspekten der WSN-Technologie werden Möglichkeiten neuer Anwendungen auf Basis der Personenbelegungserkennung diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-91337-7_32 d2d5d5ec83c03f1c05ad970fc684480c;de;;;1.1.;;;Die Nutzung gestufter Lernhilfen zur Unterstützung des Experimentierprozesses im Biologieunterricht – eine qualitative StudieExperimentieren im Biologieunterricht gilt als komplexer Problemlöseprozess. Die Nutzung gestufter Lernhilfen als Form von Binnendifferenzierung könnte dies unterstützen. In der vorliegenden qualitativen Studie wurde die Verwendung gestufter Lernhilfen beim Experimentieren im Biologieunterricht untersucht. Hierzu wurden Daten von 35 Schüler*innen (;-;-;-;https://link.springer.com/article/10.1007/s40573-021-00126-1 dc2cda0fba12c6df006a63a854066238;de;;;3.3.;;;Der transformative Ansatz für das Datenbank-Engineering Im Bereich des Datenbank-Engineerings sind die Vorzüge von Transformationsansätzen, die aus abstrakten Modellen systematisch korrekte, übersetzbare und effiziente Datenbankstrukturen erzeugen können, längst erkannt. Transformationen, die nachweislich die Korrektheit der Quellspezifikationen bewahren, wurden in praktisch allen Aktivitäten im Zusammenhang mit dem Datenstruktur-Engineering vorgeschlagen: Schemanormalisierung, logisches Design, Schemaintegration, Ableitung von Ansichten, Schemaäquivalenz, Datenkonvertierung, Reverse Engineering, Schemaoptimierung Wrapper-Generation und andere. Dieses Papier behandelt sowohl grundlegende als auch praktische Aspekte von Datenbanktransformationstechniken. Das Konzept der Transformation wird zusammen mit seinen Eigenschaften der Semantik-Erhaltung (oder Reversibilität) entwickelt. Wichtige Aktivitäten des Datenbank-Engineerings werden in Bezug auf Transformationstechniken neu definiert und die Auswirkungen auf die CASE-Technologie diskutiert. Diese Prinzipien werden auf das logische Datenbankdesign und das Datenbank-Reverse Engineering angewendet. Sie werden durch die Verwendung von DB-MAIN veranschaulicht, einer programmierbaren CASE-Umgebung, die ein großes Transformations-Toolkit bietet.;-;-;-;https://link.springer.com/chapter/10.1007/11877028_4 3abdd5178f86c75d170b287337c4ff37;de;;;3.3.;;;Mehrschichtige Layouts für die Visualisierung von Softwaresystemen mit verschachtelten Petrinetzen Moderne Softwaresysteme können groß sein. Sie haben oft eine komplexe Architektur und ein nicht triviales Verhalten. Aus diesem Grund werden unterschiedliche Modellierungstechniken für deren Design und Analyse verwendet. Eine anschauliche Visualisierung einer Systemarchitektur kann eine bessere Analyse erleichtern und nützliche Erkenntnisse liefern. In diesem Beitrag schlagen wir einen Ansatz zur Visualisierung von Softwaresystemmodellen vor. Wir stellen Layer-Layouts vor, die darauf abzielen, die Vorteile von 2D- und 3D-Visualisierungen zu kombinieren. Der Beitrag beschreibt das Konzept von Layer-Layouts und zeigt, wie sie verschiedene Modelleigenschaften in einer einzigen Ansicht darstellen können. Zur Veranschaulichung der Idee wird ein Prototyp-Tool zur Visualisierung von hierarchischen und Multi-Agenten-Softwaresystemmodellen unter Verwendung verschachtelter Petrinetz-Notation gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-71734-0_11 cb410c5dff7c223f65f5e99b043418af;de;;;3.3.;;;Intelligente Werkzeugmaschinenerkennung basierend auf hybriden CNNs- und ELMs-Netzwerken In der modernen Fertigungsindustrie mit Automatisierung und Flexibilität ist das intelligente Werkzeugmaschinenmanagement für die Werkstatt unverzichtbar. In dieser Arbeit haben wir ein neuartiges Werkzeugmaschinenerkennungssystem zur Klassifizierung von 3D-Modellen vorgeschlagen. Eine gemeinsame und standardmäßige 3D-Werkzeugdatenbank wird aufgebaut. Die hybriden Netzwerke von Convolutional Neural Networks (CNNs) und Extreme Learning Machine (ELM) wurden für die auf mehreren Ansichten basierende 3D-Formerkennung entwickelt. Dieses Framework nutzt die kombinierten Vorteile der Deep-CNN-Architektur mit der robusten ELM-Auto-Encoder-Funktionsdarstellung sowie dem schnellen ELM-Klassifikator. Die experimentellen Ergebnisse zeigen, dass es andere Methoden übertrifft, die die manuell spezifizierten 3D-Feature-Deskriptoren verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-23307-5_27 b56ece503fcd4a417a442543a68384c3;de;;;3.3.;;;Fortschritte im Tau Performance System Um die zunehmende Komplexität paralleler und verteilter Systeme und Software zu bewältigen, sind Fortschritte in der Leistungstechnologie hin zu robusteren Tools und breiteren, portableren Implementierungen erforderlich. Dadurch ergeben sich neue Herausforderungen für die Leistungsinstrumentierung, -messung, -analyse und -visualisierung, um den sich wandelnden Anforderungen an die Beobachtung von Leistungsphänomenen und die Verwendung von Leistungsdaten gerecht zu werden. Dieses Papier präsentiert die jüngsten Fortschritte im TAU-Leistungssystem in vier Bereichen, in denen Verbesserungen der Leistungstechnologie wichtig sind: Instrumentensteuerung, Leistungsabbildung, Leistungsinteraktion und -steuerung sowie Leistungsdatenbanken. Im Bereich der Instrumentierungssteuerung beschäftigen wir uns mit dem Entfernen von Instrumenten bei hohem Messaufwand. Unser Ansatz wendet die regelbasierte Analyse von Leistungsdaten in einem iterativen Instrumentierungsprozess an. Die Arbeit an der Leistungszuordnung konzentriert sich auf die Messung der Leistung in Bezug auf dynamische Aufrufpfade, wenn der statische Aufrufgraph vor der Ausführung nicht bestimmt werden kann. Wir beschreiben ein Online-Leistungsdatenzugriffs-, Analyse- und Visualisierungssystem, das die Grundlage eines groß angelegten Leistungsinteraktions- und Steuerungssystems bilden wird. Schließlich beschreiben wir unseren Ansatz zur Verwaltung von Leistungsdaten in einem Datenbank-Framework, das Multi-Experiment-Analyse unterstützt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-0361-3_8 68d5ba465c378e52e3ff5d156755c047;de;;;3.3.;;;Szenarien von 1992 und Konsequenzen für die europäisch-japanische Beziehung Obwohl die Europäische Gemeinschaft (EG) 1958 gegründet wurde und ihre wirtschaftliche Integration seither stetig voranschreitet, hat das Konzept, bis 1992 einen mehr oder weniger einheitlichen Binnenmarkt zu erreichen, zusätzliche Impulse für die weitere Integration gegeben. Der Schwerpunkt der Politiken zur Vollendung des europäischen Binnenmarktes bis 1992 liegt auf der Beseitigung der verbleibenden Binnenmarktschranken der Gemeinschaft. Aber die Verbindung dieser Politik zum Außenhandel ist offensichtlich. Je mehr sich die Gemeinschaft zu einem zusammenhängenden Wirtschaftsblock entwickelt, desto größer ist ihre Fähigkeit, sich gegenüber der Außenwelt einheitlich zu verhalten. Einige haben daher die Befürchtung geäußert, dass die Verwirklichung eines einheitlichen Binnenmarktes im Sinne des Konzepts der „Festung Europa“ zu weiteren externen Barrieren führen könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-75577-4_12 f061591e3cb4ff409d666e408223a6c2;de;;;1.1.;;;Kantenschärfen und Hough-MethodeMit dem Laplace- und dem LoG-Filter werden Kanten in Bildern „geschärft“. Eine vereinfachte Version des Verfahrens ist die Unschärfemaskierung. Kanten werden mit der Zero-crossing-Methode und der Hough-Methode detektiert. Basierend auf der Hough-Transformation wird die explizite Entdeckung und Klassifizierung von linien- und kreisförmigen Kanten erläutert und am praktischen Beispiel demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-22185-0_7 dc8eb82db7ea1a8277f9b7746f6035bd;de;;;3.3.;;;Fünf Perspektiven der fallbasierten Argumentation Dieser Artikel untersucht Case Based Reasoning (CBR) aus fünf verschiedenen Perspektiven: kognitive, prozessorientierte, logische, intelligente und hybride Perspektive. Diese fünf Perspektiven decken den Großteil der CBR-Forschung und -Entwicklung ab und klassifizieren CBR konsequent in fünf Kategorien: Cognitive CBR, Process CBR, Logical CBR, Intelligent CBR und Hybrid CBR. Dieser Artikel betrachtet jede dieser Perspektiven auf CBR aus einer einheitlichen Sicht unter Berücksichtigung entsprechender Grundlagen, Anwendungen und verwandter Themen. Der vorgeschlagene Ansatz kann die Forschung und Entwicklung von CBR und seinen Anwendungen erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85984-0_50 64723e9dd104d141d1eaa7a5dc538aac;de;;;3.3.;;;Softwareverifikation und Validierung grafischer Webdienste in digitalen 3D-Welten Software-Verifikation und -Validierung (SVV) sind wichtige Bestandteile aktueller Software-Engineering-Projekte. Unter den verfügbaren Methoden zur Lösung dieses Problems ist einer der vielversprechendsten Ansätze der auf Petri-Netzen basierende. In diesem Artikel werden einige Fragen bezüglich der Anwendung von Petri-Netzen auf SVV aus einer hybriden mathematisch-rechnerischen Sicht erörtert. Das Papier beschreibt auch a;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10844-0_35 9114b6e1c34df3e07f9f9d39e0f491cf;de;;;3.3.;;;Ein Modelltransformationsansatz für die frühe Leistungs- und Zuverlässigkeitsanalyse komponentenbasierter Systeme Die Übernahme einer „High-Level“-Perspektive beim Design einer komponentenbasierten Anwendung, ohne die spezifischen Merkmale einer zugrunde liegenden unterstützenden Plattform zu berücksichtigen, hat den Vorteil, sich auf die relevanten Architekturaspekte zu konzentrieren und diese auf plattformunabhängige Weise zu diskutieren, ohne dabei unnötige Details, die in den frühesten Entwicklungsstadien nicht einmal bekannt sein könnten. Andererseits müssen viele der Details, die in dieser übergeordneten Perspektive typischerweise vernachlässigt werden, unbedingt berücksichtigt werden, um eine aussagekräftige Bewertung verschiedener architektonischer Entscheidungen zu erhalten von extrafunktionalen Qualitätsattributen wie Leistung oder Zuverlässigkeit. Um diese beiden gegensätzlichen Bedürfnisse in Einklang zu bringen, schlagen wir einen modellbasierten Ansatz vor, dessen Ziel es ist, die Ableitung ausreichend detaillierter Vorhersagemodelle aus High-Level-Modellen komponentenbasierter Systeme zu unterstützen, wobei der Schwerpunkt auf der Vorhersage von Leistung und Zuverlässigkeit liegt. Zu diesem Zweck nutzen wir einen Verfeinerungsmechanismus, der auf der Verwendung von Modelltransformationstechniken basiert.;-;-;-;https://link.springer.com/chapter/10.1007/11783565_19 241d28a8792422003592b604ca6960a4;de;;;3.3.;;;Agentenbasierter Ansatz des Routing-Protokolls, der die Anzahl der Hops minimiert und die Konnektivität von mobilen Endgeräten aufrechterhält, die einen Bereich in den anderen verschieben Ein Ad-hoc-Netzwerk ist eine besondere Art von Netzwerk, bei dem sich alle Knoten zeitlich bewegen. Die Topologie des Netzwerks ändert sich also, wenn sich die Knoten in der Nähe befinden. Ad-hoc-Netzwerke sind in der Regel selbstkonfigurierend, da keine stabile Infrastruktur stattfindet. Die Forschung konzentriert sich auf drahtlose (Ad-Hoc) Mesh-Netzwerke. In diesem Netzwerk sollte jeder Knoten dabei helfen, Pakete benachbarter Knoten unter Verwendung eines Multi-Hop-Routing-Mechanismus weiterzuleiten. Diese Bereitstellung ist erforderlich, um entfernte Zielknoten zu erreichen, um das Problem der toten Kommunikation zu lösen. Diese mehrfachen Verkehrssprünge innerhalb eines drahtlosen Mesh-Netzwerks verursachten ein Dilemma. Es kann den Abdeckungsbereich erweitern, aber der wiederholt weitergeleitete Verkehr wird die Funkressource erschöpfen. Drahtlose Mesh-Netzwerke, die mehrere Hops enthalten, werden zunehmend anfällig für Probleme wie Energieverschlechterung und schnelle Zunahme von Overhead-Paketen. Es wird erwartet, dass die Minimierung von Hop oder Relay dieses Dilemma löst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12179-1_27 9e759055ccaa6eb0e576485eba08ed12;de;;;3.3.;;;Hin zu OpenMP-Ausführung auf Software-Distributed-Shared-Memory-Systemen In diesem Whitepaper untersuchen wir einige der Herausforderungen, die bei der Bereitstellung von Support für OpenMP-Anwendungen auf einem auf Software Distributed Shared Memory (DSM) basierenden Clustersystem bestehen. Wir präsentieren detaillierte Messungen der Leistungsmerkmale realistischer OpenMP-Anwendungen aus den SPEC OMP2001 Benchmarks. Basierend auf diesen Messungen diskutieren wir Anwendungs- und Systemeigenschaften, die die effiziente Ausführung dieser Programme auf einem Software-DSM-System behindern. Wir zeigen die Fallstricke eines naiven Übersetzungsansatzes von OpenMP in die API eines Software-DSM-Systems auf und diskutieren eine Reihe möglicher Techniken zur Programmoptimierung.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-47847-7_42 0ade3cd43d17a3435ad7d080759ab777;de;;;3.3.;;;Implementierung eines universellen Modulators mit CORDIC-Architektur in FPGA Die Implementierung eines universellen Modulators in einem Field Programmable Gate Array (FPGA) ist in vielen Echtzeitanwendungen aufgrund seines hohen Durchsatzes, seiner geringen Kosten und seiner kurzen Markteinführungszeit sehr nützlich. Dieses Papier stellt einen Pipeline-basierten CORDIC-Algorithmus (COordinate Rotation Digital Computer) vor, der in universellen Modulatoren wie Amplitudenmodulator (AM), Frequenzmodulator, Phasenmodulator (PM) verwendet wird. Der CORDIC-Algorithmus konvertiert grundsätzlich die Koordinaten vom Polarmodus in den Rechteckmodus. In Abwesenheit von Multiplikator und Akkumulator in der CORDIC-Architektur kann das digitale Realisierungssystem, das die CORDIC-Architektur verwendet, auf Hardwareebene effizient optimiert werden. Es erfordert nur Addition, Subtraktion, Bitverschiebung und Nachschlagetabelle und daher ist das System energieeffizient geworden und liefert auch genaue Ergebnisse. Das Design wurde in Hardware Description Language (HDL) kodiert und mithilfe der Xilinx ISE Design Suite 14.7 mit Virtex-6-Zielgerät synthetisiert. Das Implementierungsergebnis zeigt, dass das vorgeschlagene System im Vergleich zur vorherigen Architektur ein geringeres Slice-Delay-Produkt aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-8578-0_34 4c1169353c8b77ecf550d5c5f924b28b;de;;;1.1.;;;Vernetzungen und Verortungen — Bemerkungen zur Geschichte des Konzepts Neuronaler RepräsentationWahrnehmung ist physiologisch als eine wie auch immer geartete Abbildung eines Umfeldes im Instrumentarium der Sensorik und der ihrer nachgeordeneten Verrechungsinstanzen zu verstehen. Im einfachsten Falle wäre eine derartige Wahrnehmung ein Abdruck des Außens in diese inneren Strukturen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08006-0_2 49a97bd2455d5d1385e3fd55b3ff7fa8;de;;;1.1.;;;Förderung von unterrichtsbegleitendem Diagnostizieren von Schülervorstellungen durch Video- und TextvignettenFachlich wenig anschlussfähige Schülervorstellungen können den Aufbau fachlich gültiger ökologischer Konzepte im Biologieunterricht beeinträchtigen, wenn Lehrkräfte diese im Unterrichtsverlauf nicht diagnostizieren und angemessen darauf reagieren. Unterrichtsbegleitende Diagnosen von Äußerungen der Schülerinnen und Schüler müssen häufig spontan („on-the-fly“) erfolgen. Es wäre wünschenswert, bereits angehende Lehrkräfte auf diese herausfordernde Aufgabe vorbereiten zu können. In einem experimentellen Prä-Posttest-Design (;-;-;-;https://link.springer.com/article/10.1007/s42010-020-00075-7 5b2e48a97eceb826884eab9f30a0fc5f;de;;;3.3.;;;Virtualisierung des IMS-Kerns und seiner Leistungsanalyse Die aktuelle IP-Multimedia-System (IMS)-Branche steht vor dem Problem, dass die komplizierte Architektur von IMS und die enormen frühen Investitionen in den Netzwerkaufbau dessen Bereitstellung und Serviceinnovation verlangsamt haben. Darüber hinaus verursacht das IMS-Netzwerk auch mehr Rechen- und Netzwerkressourcenverschwendung als das derzeitige Telekommunikationsnetzwerk, da kein existierendes Verfahren verwendet werden kann, um die Kapazität des Datendienstes mit garantierter Dienstgüte (QoS) im IMS-Netzwerk vorherzusagen. Aktuelle Forschung und Praxis gehen davon aus, dass die Virtualisierung des IMS-Kerns und dessen Ausführung in der Cloud eine Möglichkeit zur Lösung dieser Probleme sein kann. Aktuelle Forschungen zeigen jedoch, dass die Virtualisierung mindestens fünfmal längere Antwortverzögerungen für IMS mit sich bringt und die Verwendung unmöglich macht. Wir argumentieren, dass hardwareunterstützte Virtualisierungstechnologie die Leistung virtueller Maschinen verbessern kann und durch eine sorgfältige Abstimmung der Parameter der virtuellen Maschine der durch virtuelle Maschinen verursachte Overhead minimiert werden kann. Wir wählen OpenIMSCore als IMS-Kernnetzwerk, IMS Benchmark SIPp als Traffic-Generator, konzipieren und führen einen Leistungstest durch. Die Ergebnisse zeigen, dass die Ausführung des IMS-Kernnetzwerks auf virtuellen Maschinen vergleichbare Reaktionsverzögerungen aufweist wie die Ausführung auf Bare-Boxen. Es ist möglich, das IMS-Kernnetzwerk zu virtualisieren und in privaten Clouds zu betreiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16050-4_5 4f1f493c92dbafeae5478d3a36224eaa;de;;;3.3.;;;Ermittlung nichtfunktionaler Anforderungen und Einbindung in Klassendiagramme Eine hochwertige Softwarearchitektur sollte sowohl funktionale als auch nicht funktionale Aspekte von Systemen und deren Assoziation berücksichtigen. In der vorhandenen Literatur wurden erhebliche Anstrengungen auf die funktionale Anforderungsanalyse und das Design gerichtet, ungeachtet der nichtfunktionalen Aspekte. Diese Trennung erschwert das Verständnis und die Evolution der Architektur. Dieses Papier schlägt eine Strategie vor, wie nicht-funktionale Anforderungen ermittelt und in die Entwurfsmodelle von Funktionen integriert werden können. Unser Ziel ist es, die Lücke zwischen Funktionalität und Nicht-Funktionalität zu schließen und qualitativ hochwertige Softwaresysteme zu bauen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16327-2_12 3ac2f2cfad8c14a629643a8749a70d77;de;;;3.3.;;;Beschleunigte Objekterkennung für autonomes Fahren in CVIS basierend auf Pruned CNN Architecture Während die Verarbeitungsverzögerung zur Hauptüberlegung für zukünftige Kooperations-Fahrzeuginfrastruktursysteme (CVIS) geworden ist, wurden verschiedene verbesserte Methoden auf der Grundlage von beschnittenen Netzwerken eingehend untersucht. Eine effizientere beschnittene Architektur kann erreicht werden, indem vorherige Informationen wie die Vorhersage von Bewegungsmerkmalen (optischer Fluss usw.) berücksichtigt werden, um eine optimierte Merkmalsberechnung zu erreichen. Unter Berücksichtigung von Rückwärtsausbreitungsverfahren für kontinuierliche Merkmale wird in diesem Artikel ein beschleunigtes Verfahren zum Beschneiden von neuronalen Netzwerken vorgeschlagen, um ein Bereinigen in Echtzeit basierend auf vorherigen Informationen in der CNN-Inferenzzeit zu erreichen. Darüber hinaus kann das vorgeschlagene Verfahren die Informationen von CVIS vollständig nutzen, um das Beschneidungsverhältnis im Merkmalsraum aus dem CVIS-Überwachungsstrom zu maximieren, mit einer signifikanten Verbesserung für den Erinnerungsindex, einen geeigneteren Leistungsbewertungsindex für die Objekterkennung beim autonomen Fahren. Im Vergleich zu einem allgemeinen Erkennungs-Framework, wie YOLOv3 basierend auf Darknet-52, kann mit unserer vorgeschlagenen Methode ein signifikanter Anstieg der Verarbeitungsgeschwindigkeit von mehr als 20 % bei minimalem Verlust des Recall-Index erreicht werden. Gleichzeitig wurde auch die Basis-Recall-Rate um 13,7 % erhöht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1194-0_11 688d41c3bf4c14547305527e81a09d9a;de;;;3.3.;;;Vorschlag für eine Radarerkennungsarchitektur basierend auf der Nutzung wissensbasierter Systeme In diesem Papier schlagen wir eine Radarerkennungstechnik vor, die auf der Nutzung von wissensbasierten Systemen (KBS) basiert. Der vorgeschlagene Detektor heißt Knowledge Based Systems-Adaptive Linear Combined (KBS-ALC). Diese Technik kombiniert das Vorwissen über die Umgebung und die Fähigkeit des adaptiven linearen kombinierten-konstanten Fehlalarmraten-Detektors (ALC-CFAR), die Erkennungsschwelle automatisch an die sich ändernde Umgebung anzupassen, insbesondere bei Vorhandensein von störenden Zielen. Die Simulationsergebnisse zeigen, dass der KBS-ALC-Detektor im Vergleich zum KBS-Dynamic-Detektor in Bezug auf die Detektionsfähigkeit in verschiedenen Situationen, insbesondere bei Vorhandensein von Störobjekten, besser abschneidet. Die vorgeschlagene Architektur wurde auf der Verarbeitungsplatine EZ-KIT-LITE ADSP TS 201 implementiert und die Einschränkungen bei der Echtzeitverarbeitung wurden bewertet und diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6403-1_72 013e49784d72a1619f1068e537b79dce;de;;;3.3.;;;Eine Qualitätsbewertung der präzisen Punktpositionierung innerhalb der Berner GPS Software Version 5.0 Diese Studie untersucht den Genauigkeitsgrad von präzisen Punktpositionierungssystemen, die derzeit in der Berner GPS-Software 5.0 implementiert sind, durch Nulldifferenzbeobachtungen. Die Beziehung zwischen der Genauigkeit von PPP und der Beobachtungsdauer wurde anhand von GPS-Daten einer Untergruppe von IGS-Trackingstationen untersucht, die über 7 Tage in verschiedenen Zeiträumen des Jahres 2007 beobachtet wurden. Zu Beginn werden kurze Übersichten über das Prinzip des PPP-Algorithmus gegeben. Anschließend werden die Ergebnisse mehrerer Verarbeitungsszenarien präsentiert und ihre jeweiligen Genauigkeiten und Konvergenzergebnisse analysiert. Abschließend werden anhand von Standardparametern Genauigkeitsbewertungen von PPP-Lösungen diskutiert. Untersuchungsergebnisse haben gezeigt, dass PPP bei Verwendung geeigneter Verarbeitungsparameter innerhalb weniger Stunden nach der Beobachtung recht einfach eine Genauigkeit im cm-Bereich bietet. Für die Nordkomponente kann in jedem Fall eine schnellere Konvergenz verfügbar sein. Die Ostkomponente erfordert eine Konvergenzperiode, die mehr als doppelt so lang ist wie die der Nordkomponente. Die Ostkomponente liefert nach 2–3 h eine bessere Präzision als die Höhenkomponente. Für die kürzeren Beobachtungszeiträume ist eine zuverlässige und genaue Positionierung mit PPP aufgrund der ungelösten Mehrdeutigkeit nicht möglich. Die Wiederholgenauigkeit und das Präzisionsverhältnis der Positionierung sind sehr gering und für Beobachtungen über einen Zeitraum von 5 Minuten unzuverlässig. Die Mittelwerte der RMS-Fehler betragen etwa 0,25–0,30 m für Nord und Ost und 0,5 m für Aufwärtskomponenten. Eine große Verbesserung kann innerhalb von 30 Minuten erzielt werden, wobei mittlere RMS-Fehler von 0,09 cm, 0,04 m bzw. 0,11 m in Norden, Osten und oben erhalten wurden. Diese Genauigkeit konnte durch 2–8 h Beobachtungen um das Drei- bis Fünffache verbessert werden. Es ist möglich, am Ende der 12-stündigen Beobachtung für alle Koordinatenkomponenten eine Genauigkeit von mm bis cm zu erhalten. Schließlich ergab die 24-Stunden-Datenverarbeitung nacheinander 0,0031, 0,0058 und 0,0088 m RMS-Fehler für die Nord-, Ost- und Aufwärtskomponenten. In all diesen Fällen sind die Nordkomponenten genauer als die Aufwärts- und Ostkomponenten.;-;-;-;https://link.springer.com/article/10.1007/s13369-011-0162-5 3e106eab9792047415d5618ad5d442d0;de;;;3.3.;;;FPGA-basiertes „Intelligent Tap“-Gerät für Echtzeit-Ethernet-Netzwerküberwachung Dieses Dokument beschreibt ein „Intelligent Tap“ – ein Hardwaregerät, das speziell für die Unterstützung der Überwachung von Ethernet-Netzwerken in Echtzeit vorgesehen ist. Die vorgestellte Lösung entstand als Studentenprojekt, das am Institut für Informatik der Schlesischen Technischen Universität mit Unterstützung der Firma Softing AG realisiert wurde. Die Autoren beschreiben die realisierte FPGA-basierte „Intelligent Tap“-Architektur für Echtzeit-Ethernet-Netzwerküberwachungssysteme. Die praktische Geräterealisierung und die Schlussfolgerungen der Machbarkeitsstudie werden ebenfalls vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13861-4_6 a9c406205d93f5cec0de634f35102d2e;de;;;3.3.;;;Analyse der Topologiestruktur eines objektorientierten Softwaresystems basierend auf komplexen Netzwerken Das Verstehen und Messen des groß angelegten objektorientierten Softwaresystems ist ein dringender Bedarf in der Softwareentwicklungspraxis. Die traditionelle Methode kann die strukturelle latente Eigenschaft in moderner Software kaum beschreiben. Da die Theorie der komplexen Netzwerke verwendet wurde, um die Softwarestruktur zu studieren, haben wir viele Softwaresysteme analysiert. Die Analyseergebnisse zeigen, dass die Parameter in komplexen Netzwerken verwendet werden können, um die Eigenschaften der Softwaretopologiestruktur darzustellen. Und dieser Beitrag stellt einige effiziente Messverfahren auf Basis grundlegender Parameter in komplexen Netzwerken vor. Ein Praxisbeispiel wurde beschrieben, um die Wirksamkeit der Methode zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23226-8_66 72a15fc56f2188de7de67e237a672088;de;;;3.3.;;;Laserbasierte Rapid-Prototyping-Prozesse In den gegenwärtigen wettbewerbsorientierten Fertigungsumgebungen stehen die Produktherstellungsindustrien zahlreichen Herausforderungen gegenüber, wie z. Als Reaktion auf diese Herausforderungen konzentrierten sich große Industrie- und Forschungsanstrengungen auf die schnelle Entwicklung von Prototypen, Rapid Tooling und Rapid Manufacturing. Laser werden in verschiedenen Rapid-Prototyping-(RP-)Technologien ausgiebig verwendet. In diesem Kapitel werden die Hintergründe der RP-Prozesse vorgestellt, gefolgt von einer detaillierten Diskussion verschiedener laserbasierter RP-Prozesse.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-72344-0_9 19cf5150715b3483cb93bac6e5fa7b28;de;;;3.3.;;;Sicherheitsforschung zu den Schnittstellen von Informationsgeräten, beschrieben durch XML Gegenwärtig ist das Heimnetzwerk eines der wichtigsten Forschungsgebiete, einer der wichtigen Dienste, die das Heimnetzwerk bereitstellt, sind ferngesteuerte Informationsgeräte im Heimnetzwerk. Der Fernsteuerungsdienst verursacht jedoch verschiedene Sicherheitsbedrohungen. Daher sollte das Heimnetzwerk starke Sicherheitsdienste bereitstellen, insbesondere für die Authentifizierung und Autorisierung von entfernten Benutzern. In diesem Whitepaper stellen wir eine effektive Lösung zur Bereitstellung eines sicheren Remote-Zugriffs in einer Heimnetzwerkumgebung vor. Es verwendet XML, um die Schnittstellen der Informations-Appliances zu beschreiben, die Interoperabilität und Plug-and-Play-Probleme effektiv lösen können. Um den omnidirektionalen Sicherheitsschutz für das Heimnetzwerk bereitzustellen, verwendet Soap zum Einkapseln des XML-Standardnachrichtenformats, kombiniert den verschlüsselten Mechanismus und den Signaturmechanismus von XML, verwendet Authentifizierungs- und Zugriffskontrolltechniken, um die Sicherheit der Fernsteuerung zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35211-9_84 81a9bd81be7a322291d900fcba40f990;de;;;3.3.;;;Verbesserung der Sicherheit der IaaS-Cloud durch brüderliche Sicherheitskooperation zwischen Cloud-Plattform und virtueller Plattform Die IaaS-Cloud bietet Kunden On-Demand-Rechenressourcen wie Massenspeicher, virtuelle Maschinen und Netzwerke. Es wirft jedoch auch einige Sicherheitsprobleme auf, die seine weit verbreitete Einführung behindern könnten. Da IaaS viele Technologien nutzt, erbt es deren Sicherheitsprobleme. Um diese Computerressourcen bereitzustellen und zu verwalten, sind beispielsweise eine Cloud-Plattform und eine virtuelle Plattform unverzichtbar, aber ihre Sicherheitsprobleme verschwinden nicht und bringen sogar einige neue Sicherheitsprobleme mit sich. Zudem sind ihre Schutzmechanismen voneinander unabhängig und nutzen ihre Sicherheitsvorteile nicht aus. Das hinterlässt Sicherheitslücken zwischen ihnen und kann die Sicherheit der gesamten IaaS-Cloud nicht garantieren. In diesem Whitepaper stellen wir die Sicherheitskooperation zwischen Cloud-Plattform und virtueller Plattform vor, um Datenschutz- und Sicherheitsprobleme von IaaS anzugehen und eine sichere IaaS-Cloud basierend auf OpenNebula und Xen aufzubauen. Unser Ansatz nutzt die Sicherheitsvorteile jeder Komponente und vereint sie in einer sicheren IaaS-Cloud.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27051-7_23 15e6df81f7cf7ad5e2fe18a0ceea5814;de;;;3.3.;;;Verwendung eines Expertengremiums zur Validierung des malaysischen KMU-Software-Prozessverbesserungsmodells (MSME-SPI) Dieses Papier stellt die Komponenten eines neu entwickelten malaysischen KMU-Softwareprozessverbesserungsmodells (MSME-SPI) vor, das die Softwareentwicklungsindustrie von KMU bei der Verwaltung und Verbesserung ihrer Softwareprozessfähigkeit bewerten kann. Der MSME-SPI wurde als Reaktion auf die Bedürfnisse von Praktikern entwickelt, die in einer empirischen Studie mit der malaysischen KMU-Softwareentwicklungsindustrie hervorgehoben wurden. Nach der Modellentwicklung ist ein unabhängiges Feedback erforderlich, um zu zeigen, dass das Modell seine Ziele erreicht. Folglich wird die Validierungsphase durchgeführt, indem eine Gruppe von Experten für Softwareprozessverbesserung in die Untersuchung der MSME-SPI-Modellkomponenten einbezogen wird. Außerdem wird die Wirksamkeit des MSME-SPI-Modells durch ein Expertengremium validiert. Drei Kriterien wurden verwendet, um die Wirksamkeit des Modells zu bewerten: Nützlichkeit, Überprüfbarkeit und Struktur. Die Ergebnisse zeigen, dass das Modell mit geringfügigen Modifikationen effektiv von KMU verwendet werden kann. Die Validierungsphase trägt zu einem besseren Verständnis und einer besseren Nutzung des MSME-SPI-Modells durch die Praktiker auf diesem Gebiet bei.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63322-6_72 9ed210313d6b10c0acf6cd9919feb05f;de;;;3.3.;;;Bidirektionale Busarchitektur mit Pipeline für eingebettete Multimedia-SoCs Dieses Papier schlägt eine neuartige Hochleistungs-Busarchitektur für speicherintensive eingebettete Multimedia-SoCs vor. Es verfügt über einen bidirektionalen Bus mit Pipeline für hohe Geschwindigkeit und kleine Fläche. Es hat zwei separate Busse, die als Systembus und Speicherbus bezeichnet werden, wobei speicherintensive IPs mit dem Speicherbus verbunden sind, um die Systembusleistung nicht zu beeinträchtigen. Um den Mangel an Mastern mit niedriger Priorität zu vermeiden, nutzt der vorgeschlagene Bus eine wahrscheinlichkeitsbasierte Entscheidungspolitik, bei der die Entscheidungswahrscheinlichkeit jedes Masters im Verhältnis zu seiner Ausführungszeit bestimmt wird. Um die Übertragungsbandbreite zu erhöhen, nutzt es auch die Buspartitionierung, bei der mehrere Master oft gleichzeitig ohne Mehrschichtstruktur auf ihre Slaves zugreifen. Der vorgeschlagene Bus wird auf Hardwareebene entworfen, implementiert, verifiziert und bewertet. Simulationsergebnisse zeigen, dass der vorgeschlagene Bus die effektive Bandbreite um das 2,8- bis 3,6-fache und die Kommunikationslatenz um das 3,1- bis 4,7-fache im Vergleich zum AMBA-Bus verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/11596356_37 46849ca7b0bc19a26d0f23a6b2ae9e53;de;;;3.3.;;;K-Base: Plattform zum Aufbau der Wissensdatenbank für einen intelligenten Service In letzter Zeit wächst das Interesse an der effektiven Nutzung von Big Data. Es wird auch angenommen, dass die Methoden des maschinellen Lernens entscheidend sind, um effektiv Wissen aus Big Text Data zu extrahieren, wenn sie mit Big Data-Technologien wie MapReduce und Hadoop gekoppelt werden. Bei Aufgaben wie der Wissensextraktion aus großen Textmengen und der Argumentation führt es zu besseren Ergebnissen, wenn gleichzeitig eine maschinelle Lernmethode und Big-Data-Technologien auf das System angewendet werden. In dieser Forschung schlagen wir ein System vor, das eine maschinelle Lernmethode und Big-Data-Technologien verwendet, und vergleichen es in Bezug auf Geschwindigkeit und Genauigkeit mit dem bestehenden System. Es wird erwartet, dass das vorgeschlagene System die Wissensbasis schneller und genauer aufbaut als das bestehende System.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40675-1_42 1d2aed838e23d212853fbfa926dc7ca4;de;;;3.3.;;;Auf dem Weg zur Remote-Richtliniendurchsetzung für den Laufzeitschutz von mobilem Code mithilfe von Trusted Computing Wir präsentieren einen Ansatz zum Schutz von mobilem Code und Agenten zur Laufzeit mithilfe von Trusted Computing (TC)-Technologien. Zu diesem Zweck wird eine „Mobile Policy“ vom Ersteller des mobilen Codes definiert und von der Laufzeitumgebung in einem entfernten Host durchgesetzt, um zu steuern, welche Benutzer den mobilen Code ausführen dürfen und welche Ergebnisse ein Benutzer beobachten kann, je nach Sicherheitseigenschaften des Benutzers. Die Trennung von Richtlinienspezifikation und Implementierungsmechanismus in bestehenden mobilen Computerplattformen wie Java Runtime Environment (JRE) ermöglicht die Implementierung unseres Ansatzes durch den Einsatz aktueller Sicherheitstechnologien. Der Hauptunterschied zwischen unserem Ansatz und bestehenden Laufzeitsicherheitsmodellen besteht darin, dass die in unserem Modell durchgesetzten Richtlinien die Ressourcen der mobilen Anwendungen und nicht die lokalen Systemressourcen schützen sollen. Dies erfordert, dass der Anwendungsersteller der Remote-Laufzeitumgebung vertraut, um den Remote-Benutzer zu authentifizieren und die Richtlinie durchzusetzen. Aufstrebende TC-Technologien, wie sie von der Trusted Computing Group (TCG) spezifiziert werden, stellen die Laufzeitumgebung eines entfernten Hosts sicher.;-;-;-;https://link.springer.com/chapter/10.1007/11908739_13 7bf65416bc4f18bf9d687c8e6550aaf1;de;;;3.3.;;;Klassifikation der Brustmasse mit klassischer neuronaler Netzwerkarchitektur und Support Vector Machine Laut WHO ist Brustkrebs die gefährlichste Krankheit bei Frauen. Es gehört zu den Krankheiten, die am Anfang nicht auffindbar sind. Ungefähr 1 von 8 Frauen leidet an Brustkrebs und führt sogar zur Entfernung der Brust. In diesem Bereich wird ein neuartiges Experiment zur Klassifizierung von Brustkrebs unter Verwendung von Convolutional Neural Network und Fuzzy-System vorgestellt. Eine Kombination aus einem neuronalen Faltungsnetzwerk und einem Fuzzy-System wurde entwickelt, um ähnliche gutartige und bösartige Massen in einer Mammographie-Datenbank basierend auf dem Massenbereich in der Brust zu gruppieren. Die Mammographiebilder werden zur Bildverbesserung und Bildsegmentierung zur Identifizierung des Massenbereichs aufgenommen und die klassische neuronale Netzwerkarchitektur (Alexnet) führt die Merkmalsextraktion durch. Danach folgt ein Fuzzy-System, um herauszufinden, wie viel dichter der bösartige oder gutartige Krebs ist. Eine bekannte klassische neuronale Netzwerkarchitektur AlexNet wird verwendet und ist fein abgestimmt, um ähnliche Klassen zu gruppieren. Die vollständig verbundene (fc) Schicht wird durch eine Support Vector Machine (SVM) ersetzt, um die Klassifikationseffektivität zu verbessern. Die Ergebnisse werden unter Verwendung der folgenden öffentlich zugänglichen Datensätze abgeleitet: (1) digitale Datenbank für Screening-Mammographie (DDSM), (2) kuratierte Untergruppe der Brustbildgebung von DDSM (CBIS-DDSM) und (3) Mammography Image Analysis Society (MIAS). Es wird auch eine Datenerweiterung durchgeführt, um die Trainingsproben zu erhöhen und eine bessere Genauigkeit zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6987-0_36 d6f067f569c4b632c52b20d9d3a9efeb;de;;;3.3.;;;Experimentelles Testen der Gigabit IPSec-konformen Implementierungen von Rijndael und Triple DES mit SLAAC-1V FPGA Accelerator Board In diesem Papier präsentieren wir die Ergebnisse der ersten Phase eines Projekts, das darauf abzielt, eine vollständige Suite kryptografischer IPSec-Transformationen in rekonfigurierbarer Hardware zu implementieren. Vollständige Implementierungen des neuen Advanced Encryption Standards Rijndael und des älteren amerikanischen Bundesstandards Triple DES wurden entwickelt und experimentell mit der SLAAC-1V FPGA-Beschleunigerplatine auf der Grundlage von Xilinx Virtex 1000-Bauelementen getestet. Die experimentellen Taktfrequenzen betrugen 91 MHz für Triple DES und 52 MHz für Rijndael. Dies entspricht einem Durchsatz von 116 Mbit/s für Triple DES und 577, 488 und 423 Mbit/s für Rijndael mit 128-, 192- bzw. 256-Bit-Schlüsseln. Wir demonstrieren auch die Fähigkeit, unsere Schaltung zu verbessern, um die Verschlüsselungs- und Entschlüsselungsdurchsätze von über 1 Gbit/s unabhängig vom gewählten Algorithmus zu bewältigen. Unsere Schätzungen zeigen, dass diese Verschlüsselungs-/Entschlüsselungsschaltung mit Gigabitrate und Doppelalgorithmus in einen Virtex 1000 FPGA passt, der ungefähr 80 % der Fläche beansprucht.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45439-X_15 0912cb2975fda9436dbe189600d8a813;de;;;3.3.;;;Ein datengesteuertes Modell zum Entwerfen von Anwendungen mit Smartcards Die Entwicklung von Smartcard-Anwendungen für den Einsatz in stark verteilten Umgebungen erfordert Konsistenz, um eine zuverlässige Funktionalität zu gewährleisten. Ein wahrscheinlicher Fehlerpunkt tritt an den Grenzen von miteinander verbundenen Anwendungen oder Transaktionen auf. Jeder einzelne Zugriff auf einen Dienst kann als Transaktion zwischen den Partnern des Informationssystems dargestellt werden. Mit dem Fokus auf die Daten als universelles Element zur Erstellung der Transaktion wird ein Konzept von Modulen basierend auf Datenentitäten eingeführt. Das Modul wird zum atomaren Objekt zur Beschreibung der Transaktionen, die die Anwendungsergebnisse beschreiben. Ein wesentlicher Vorteil des datengetriebenen Modells besteht darin, dass eine Korrektheitsanalyse möglich ist, die die Korrektheit der Transaktion und den tatsächlichen Datenfluss über Modulgrenzen hinweg aufzeigt. Das Modell beinhaltet die Beschreibung der Synchronisation der Modulinteraktion und die Möglichkeit des Codeimports.;-;-;-;https://link.springer.com/chapter/10.1007/10721064_29 c6d356dad7c1fa0d915573f94351b670;de;;;3.3.;;;Analyse verfügbarer Mikrocontroller-Computing-Ressourcen für die Anwendung einiger kryptografischer Hash-Funktionen auf verschiedenen Internet-of-Things-Plattformen In den letzten Jahren gab es immer mehr Sicherheitslücken bei IoT-Geräten. Einige Autoren schlagen die Verwendung von Sicherheitsalgorithmen und -methoden vor, die auf Computern zum Schutz verwendet werden, aber in diesem Papier schlagen wir vor, dass einige Hash-Verschlüsselungsalgorithmen in IoT-Anwendungen verwendet werden können, um die Integrität und Authentizität einer Nachricht zu gewährleisten. Es kann verwendet werden, wenn das Risiko des Datenmissbrauchs und der Bedarf an starkem Schutz gering sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-59000-0_13 b110307eda1a5b0e7cdbfd595f52681f;de;;;3.3.;;;Szenariovorschlag und Stakeholder für den Prozess der Softwarezuverlässigkeit basierend auf MFP (Management Focus on Personnel) Dieses Papier soll den MFP-Prozess für die Analyse von Softwareanforderungen vorschlagen. Es gibt viele Schwierigkeitsfaktoren, die das Hervorrufen von Anforderungsproblemen während der Softwareentwicklung verursachen. Außerdem verstehen wir unter Verwendung von Personalfaktoren die damit verbundene Beziehung zwischen Szenario und Stakeholder. Wenn wir das entsprechende Projekt archivieren, können wir die Ursache des Fehlers vorhersagen und uns auf die Fehlerbeseitigung vorbereiten, indem wir den MFP-Prozess verwenden. Dieses Papier schlägt die Struktur des Szenarios und der Stakeholder vor, die die Kundenzufriedenheit in der Phase der Softwareanforderung verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32692-9_54 92923caaebaf8e3f5e3cd2eb5926a83f;de;;;3.3.;;;Hybride Modellarchitekturen zur Verbesserung der Datenklassifizierungsleistung in E-Commerce-Anwendungen Data-Mining-Algorithmen werden verwendet, um große Datenmengen aus verschiedenen Quellen zu analysieren und zu extrahieren. Die Anwendung von Data Mining in E-Commerce-Anwendungen kann helfen, bessere Entscheidungen für neue integrierte Technologien zu treffen. Data Mining bietet Entscheidungsträgern eine Möglichkeit, ihre Entscheidungen effektiver zu gestalten, um Unternehmen zu verbessern. In diesem Papier wird ein Rahmen vorgeschlagen, um die Leistung von Klassifizierungstechniken zu verbessern, die auf einen Datensatz von Online-Einkaufsagenturen angewendet werden, indem der beste hybride Algorithmus namens EMLMT-Algorithmus angewendet wird. Ein weiterer vorgeschlagener Modellrahmen wurde entwickelt, um die Leistung zu verbessern und die Ausführungszeit der Klassifizierungstechniken zu verringern, die auf einen realen Datensatz für ein einfaches Bargeldunternehmen angewendet wurden, indem der beste hybride Algorithmus, der als DBKNN-Algorithmus bezeichnet wird, auf diesen Datensatz angewendet wird. Die durchgeführten experimentellen Ergebnisse der beiden vorgeschlagenen Modellarchitekturen erzielten im Vergleich zu reinen Klassifikationsalgorithmen hohe Raten in Bezug auf Genauigkeit, Präzision, Rückruf, F-Maß und ROC.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36368-0_18 749416667b614025a9efec465a8da4ca;de;;;3.3.;;;Adaptive Task Granularity Strategy für OpenMP3.0 Task Model on Cell Architecture In Anbetracht dessen, dass die beste Strategie zur Steuerung der Aufgabengranularität normalerweise von den Anwendungsmerkmalen abhängt, schlagen wir eine Strategie der adaptiven Aufgabengranularität (AdaptiveTG) vor, die zuerst die Breitenstrategie anwendet, bis alle verfügbaren Threads ausgelastet sind. Und wenn dann ein Thread inaktiv wird, wird die Arbeitsstehltechnik eingeführt, die das Opfer provoziert, eine Aufgabe mit ausreichender Größe am ältesten spawnbaren Punkt zu erstellen. Die Strategie maximiert nicht nur die Aufgabengranularität, sondern löst auch effizient die unausgeglichenen Rechenlasten. Das Experiment wird auf der Zellarchitektur auf einem Satz von Kerneln basierend auf dem Aufgabenmodell durchgeführt. Bewertungen zeigen, dass die adaptiveTG-Technik im Vergleich zu den seriellen Ausführungen Geschwindigkeitsfaktoren von 4,1 bis 7,2 erreicht und für die meisten Anwendungen das Tascell-Framework und die AdaptiveTC-Strategie übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25002-6_56 c4459562bfc993e4b40a3738c2e90d4c;de;;;3.3.;;;Laborcomputerhardware Damit Sie Computer optimal zum Sammeln, Anzeigen und Analysieren Ihrer neuronanatomischen Daten einsetzen können, benötigen Sie ein gewisses Maß an Wissen über Computerhardware und -software. Dieses Kapitel konzentriert sich auf Computerhardware, die elektronische und mechanische Ausrüstung, die zur Durchführung von Laboraufgaben verwendet wird. Kapitel 3 bietet einen Überblick über typische Computerprogramme, die als „Software“ bezeichnet werden und der Hardware ihre Betriebsanweisungen geben. In beiden Kapiteln finden Sie Informationen zu Computern und zugehöriger Laborausrüstung in der von Ihnen gewünschten Detaillierung. Sobald Sie das in diesem Kapitel und in Kapitel 3 vorgestellte Material verstanden haben, sollten Ihre Erwartungen an das, was Computer im Labor für Sie tun können, realistisch sein. Die präsentierten Informationen ermöglichen es Ihnen auch, intelligent mit den Leuten zu sprechen, die Computersysteme für das Labor vermarkten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-5691-2_3 4b305e59274be631a2993a55a95b2c56;de;;;3.3.;;;Anwendungs- und Vorteilsanalyse von Computer-Multimedia-Softwaretechnologie im Mathematikunterricht an Hochschulen In den letzten Jahren, mit der rasanten Entwicklung der Multimedia-Technologie, hat ihr Einfluss viele Bereiche, unter denen der Einfluss auf die Lehre ein wichtiger Aspekt ist, und auch der Lernstil der Schüler hat sich durch ihre Anwendung erheblich verändert. Anhand der Untersuchung einer Universität in unserer Stadt analysiert dieser Beitrag den Anwendungsgrad von Multimedia-Lehre im Mathematikunterricht, die Vorteile und Probleme zwischen Multimedia-Lehre und klassischer Bildung. Den Umfrageergebnissen zufolge interessiert sich knapp die Hälfte der Studierenden 192 (48,9%) nicht für Mathematikkurse, 170 (33,8%) interessieren sich für Mathematikkurse und 30 (7,7%) interessieren sich besonders für Mathematikkurse, 37 (74 .) %) wählen die Lehrer die Kombination der beiden Lehrmethoden im Mathematikunterricht, 10 (20 %) Lehrer wählen den Multimedia-Lehrmodus und nur 6% von ihnen wählen den Multimedia-Lehrmodus Lehrer wählen den traditionellen Unterricht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-74814-2_88 af6a70e2d73d40c16d707edbd2542083;de;;;3.3.;;;Verteiltes Überwachungssystem für Microservices-basierte IoT-Middleware-Systeme Die auf Microservices basierende Architektur ist aufgrund ihrer Vorteile der Agilität und Skalierbarkeit eine vielversprechende Middleware-Architektur des Internets der Dinge. Im Vergleich zur nativen serviceorientierten Architektur (SOA) hat die logische oder physische Verbreitung dieses leichtgewichtigen Middleware-Systems jedoch seine Organisation, Verfolgung und Überwachung erheblich erschwert, was die Effektivität und Leistung weiter beeinträchtigen könnte. Dazu konzipieren, implementieren und evaluieren wir ein neues verteiltes Monitoring-System für Microservices-basierte Middleware des Internet of Things, das als Cloud-natives System ausgelegt ist. Dieses System unterstützt die Kubernetes-Orchestrierung, das Instrument Java und das Spring Cloud-Framework und ist in der Lage, die Leistungsmetriken von allen Hosts und Containern auf effiziente Weise zu erhalten. Darüber hinaus könnte es die durch einen Aufruf vom Anwendungs-Frontend zu jedem Layer-Microservice generierten Traces sammeln, sogar die Protokollierung abrufen und sie schließlich in einem Big-Data-System zur Stream-Verarbeitung oder zur Zuordnung/Reduzierung speichern. Die reale umsetzungsbasierte Evaluierung hat die Wirksamkeit dieses Systemdesigns gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00006-6_43 1ce31eee53743a231fbb761d639753e8;de;;;3.3.;;;Effiziente Aufgabenplanungsalgorithmen für Cloud-Computing-Umgebungen Cloud Computing bezieht sich auf die Nutzung von Computing, Plattform, Software, als Service. Es ist eine Form des Utility Computing, bei der der Kunde nicht die erforderliche Infrastruktur besitzen und nur für das bezahlen muss, was er nutzt. Computing-Ressourcen werden als virtuelle Maschinen bereitgestellt. In einem solchen Szenario spielen Aufgabenplanungsalgorithmen eine wichtige Rolle, wenn es darum geht, die Aufgaben effektiv zu planen, um die Durchlaufzeit zu reduzieren und die Ressourcenauslastung zu verbessern. In diesem Beitrag werden zwei Scheduling-Algorithmen zum Scheduling von Tasks unter Berücksichtigung ihrer Rechenkomplexität und Rechenkapazität der Verarbeitungselemente vorgestellt. Das CloudSim-Toolkit wird zum Experimentieren verwendet. Experimentelle Ergebnisse zeigen, dass die vorgeschlagenen Algorithmen unter hohen Lasten eine gute Leistung zeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22577-2_11 35d1198cdf3e586a5927973e6fab9e17;de;;;3.3.;;;Experimente mit dem sensorraumbasierten Standortbestimmungssystem unter KS-spezifizierter Beleuchtungsintensitätsumgebung Ein in dieser Studie realisierter Sensorraum wurde als Matrixstruktur aus CDS-Sensoren entworfen, die die Koordinaten eines bestimmten Ortes durch Erfassen von Licht erkennen, wenn ein Roboter auf dem CDS-Sensor positioniert ist. Da der CDS-Sensor jedoch lichtspezifisch ist und empfindlich auf die Lichtmenge reagiert, ist es wichtig, das charakteristische Verhalten des CDS-Sensors bei Umgebungsänderungen zu verstehen. Daher wurden in dieser Studie durch Einstellen verschiedener Umgebungen im Sensorraum die Eigenschaften von CDS-Sensordaten unter verschiedenen Umgebungen analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35267-6_29 7ddb2a4f1635d7a04396716ba0a33273;de;;;3.3.;;;F-UNet: Eine modifizierte U-Net-Architektur zur Segmentierung von Schlaganfallläsionen Die Beurteilung, Prognose und Behandlung von Hirninfarkten hängen vollständig von der genauen Lokalisierung und Segmentierung der Schlaganfallläsionen ab. Die 2D- und 3D-Convolutional Neural Networks (CNN) haben sich in jüngster Zeit als nützlich erwiesen, um Hirnschlagläsionen sehr effizient zu erkennen und zu segmentieren. 2D-CNN-Modelle können jedoch die dreidimensionalen räumlich-zeitlichen Merkmale nicht erkennen, während die 3D-CNN-Modelle aufgrund hoher Speicheranforderungen und Hyperparameteranpassungen extrem hohe Rechenressourcen und eine größere Trainingszeit erfordern. Um dieser Herausforderung zu begegnen, schlagen wir in diesem Papier eine neuartige Dimensionsfusionsnetzwerkarchitektur vor, die ähnliche Ergebnisse wie die 3D-Modelle liefern kann, jedoch mit sehr geringen Rechenanforderungen. Wir haben auch eine verbesserte Verlustfunktion für eine schnellere Konvergenz als die Würfelkoeffizientenverlust- und Fokalverlustfunktionen vorgeschlagen. Unser vorgeschlagenes Netzwerk wurde mit dem öffentlich verfügbaren ATLAS-Datensatz getestet. Das Netz und die Verlustfunktion übertrafen sowohl in der Genauigkeit (0,6347;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1086-8_4 d48efad6a006a22fe5d0df02f365b99c;de;;;1.1.;;;Datenanalyse in der KrankenversicherungIn den letzten fünfzig Jahren sind lediglich vier bis sechs mathematische Untersuchungen von allgemeiner Bedeutung auf dem Gebiet der Krankenversicherung erstellt worden. Es ist unverantwortlich, Diskussionen um änderungen in der Krankenversicherung zu führen, ohne minimale mathematisch-statistisch gesicherte Grundzahlen zu besitzen. Die vorliegende Arbeit definiert im allgemeinen die mathematischen Grundlagen in der Krankenversicherung. Ziel des Projektes mit dieser erstmaligen Datenanalyse grösseren Umfangs ist vor allem die Entwicklung von Konzepten für die institutionalisierte, systematische und periodische Auswertung der in der Versicherung anfallenden Daten und deren Erprobung mittels ökonometrischer Modelle. Gleichzeitig sollen auch mittels Methoden zur regelmässigen Gewinnung von Daten aus den verschiedenen gesundheitlichen Versorgungsbereichen die Untersuchungen der Abhängigkeiten der Kostenfaktoren vom medizinischen Angebot, von der Versichertenstruktur und von den Kostenursachen in periodischen Abständen gewährleistet werden. Für die Ergänzung der nicht direkt anfallenden Daten werden kostengünstige Stichprobenkonzepte entwickelt und erprobt. In einzelnen Bereichen sind für die umfassende interdisziplinäre Dateninterpretation allenfalls ergänzende Datenerfassungen mittels Befragungen durchzuführen.;-;-;-;https://link.springer.com/article/10.1007/BF02076322 d87ce9227c9308e30cdd9b01ed58bdc0;de;;;3.3.;;;Von IT-Investitionen in kleinen und mittleren Unternehmen profitieren: Wie beeinflusst das Branchenumfeld die Rendite IT-basierter Fähigkeiten? Dank der Kommodifizierung von Software und dem Aufkommen des Cloud Computing kann die Informationstechnologie (IT) heute weitreichende Auswirkungen auf verschiedene Branchen haben. Kleine und mittlere Unternehmen (KMU) können jedoch bei der Nutzung von IT zur Erweiterung ihrer Fähigkeiten auf mehrere Hindernisse stoßen. Dieser Beitrag untersucht die Diffusionsmuster von IT-basierten Fähigkeiten in KMU und analysiert – aufbauend auf der Ressourcen-basierten Sicht und der Kontingenztheorie –, wie das Branchenumfeld den Einfluss von Fähigkeiten auf die Leistung beeinflusst. Die Daten werden durch eine Umfrage unter 238 Unternehmen in Italien im Jahr 2009 gesammelt. Die Ergebnisse zeigen, dass die Ergebnisse von IT-Investitionen im Zusammenhang mit internen Effizienzverbesserungen stärker verbreitet sind als die Nutzung von IT, die die Fähigkeiten im Zusammenhang mit der externen Ausrichtung des Unternehmens verbessert, als in dynamischeren Branchen niedrigere Rentabilitätsrenditen aus ihren IT-basierten Fähigkeiten erzielen und dass Unternehmen in großzügigeren Branchen überlegene Renditen erzielen, wenn sie ihre Fähigkeitenbasis durch IT bereichern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29166-1_8 582c06a3f5efbba00d5485696a85fb6a;de;;;3.3.;;;Smart City Abfallmanagementsystem mit Internet der Dinge und Cloud Computing Die wahllose Entsorgung fester Abfälle ist in den städtischen Zentren der meisten Entwicklungsländer ein großes Problem und stellt eine ernsthafte Bedrohung für das gesunde Leben der Bürger dar. Der Zugang zu zuverlässigen Daten über den Zustand fester Abfälle an verschiedenen Orten innerhalb der Stadt wird sowohl den lokalen Behörden als auch den Bürgern helfen, die Bedrohung effektiv zu bewältigen. In diesem Beitrag wird ein intelligentes Abfallüberwachungssystem entwickelt, das Internet of Things (IoT) und Cloud-Computing-Technologien verwendet. Der Füllstand des Festmülls in jedem der strategisch über die Gemeinden verteilten Container wird mit Ultraschallsensoren erfasst. Eine Wireless Fidelity (Wi-Fi)-Kommunikationsverbindung wird verwendet, um die Sensordaten an eine IoT-Cloud-Plattform namens ThingSpeak zu übertragen. Je nach Füllstand sendet das System eine entsprechende Benachrichtigungsnachricht (in Form eines Tweets), um die zuständigen Behörden und den/die betroffenen Bürger auf notwendige Maßnahmen aufmerksam zu machen. Auch der Füllstand wird auf ThingSpeak in Echtzeit überwacht. Die Systemleistung zeigt, dass die vorgeschlagene Lösung für ein effizientes Abfallmanagement in intelligenten und vernetzten Gemeinschaften nützlich sein kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-49342-4_58 7b54f9e47a82c607fcd25f6ae77706c3;de;;;3.3.;;;Kleine Unternehmen und Effizienz In der wirtschaftswissenschaftlichen Literatur sind zwei unterschiedliche Ansichten über den Einfluss kleiner Unternehmen auf die wirtschaftliche Effizienz aufgetaucht. Auf der einen Seite steht die traditionelle Sichtweise im Bereich der industriellen Organisation, die kleine Unternehmen als Folge einer zu kleinen Produktion, die zu klein ist, um effizient zu sein, der Wirtschaft übermäßige Kosten auferlegt. Nach dieser traditionellen Ansicht führt der ineffiziente Umfang der Operationen zu geringeren Produktivitätsniveaus für kleine Unternehmen und niedrigeren Löhnen für ihre Arbeiter. Die Verlagerung der Wirtschaftstätigkeit, die in den letzten zwei Jahrzehnten stattfand, weg von großen Konzernen und hin zu neuen und kleinen Firmen, wird als eine Verringerung des Lebensstandards der Amerikaner interpretiert. Die Verlagerung der Beschäftigung von Hochproduktivitäts- und Hochlohnunternehmen hin zu Niedrigproduktivitäts- und Niedriglohnunternehmen (kleinen) reduziert das Wohlergehen der amerikanischen Bevölkerung. Nach dieser traditionellen Sichtweise kleiner Unternehmen sollte jede Politik, die die Wirtschaftstätigkeit von kleinen Unternehmen auf große Konzerne zurückverlagert, gefördert werden, da sie den amerikanischen Lebensstandard erhöhen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5173-7_2 6d09470b6121f078c4a085e7136340eb;de;;;3.3.;;;Integrierte reaktive Fußballagenten Der Roboterfußball-Wettbewerb bietet eine hervorragende Gelegenheit für die Robotikforschung. Insbesondere müssen Roboterspieler in einem Fußballspiel eine visuelle Echtzeiterkennung durchführen, in einem dynamischen Feld navigieren, sich bewegende Objekte verfolgen, mit Teamkollegen zusammenarbeiten und den Ball in die richtige Richtung schlagen. All diese Aufgaben erfordern Roboter, die autonom (fühlend, denkend und handelnd als unabhängige Kreaturen), effizient (funktionieren unter Zeit- und Ressourcenbeschränkungen), kooperativ (miteinander zusammenarbeiten, um Aufgaben zu erfüllen, die die Fähigkeiten des Einzelnen übersteigen) und intelligent (Vernunft) sind Aktionen planen und vielleicht aus Erfahrungen lernen). Um solche integrierten Roboter zu bauen, sollten wir andere Ansätze verfolgen als in anderen Forschungsdisziplinen. Beim RoboCup-Wettbewerb 1997 kämpfte das USC/ISI-Roboterteam namens Dreamteam hart und gewann die Weltmeisterschaft in der mittleren Roboterliga. Diese Roboter haben alle die gleiche allgemeine Architektur und grundlegende Hardware, aber sie haben integrierte Fähigkeiten, um unterschiedliche Rollen (Torwart, Verteidiger oder Stürmer) zu spielen und unterschiedliche Strategien in ihrem Verhalten anzuwenden. Unsere Philosophie beim Bau dieser Roboter besteht darin, sie mit möglichst wenig Raffinesse so robust wie möglich zu machen. Dieses Papier beschreibt unsere Erfahrungen während des Wettbewerbs sowie unsere neuen Verbesserungen des Teams.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48422-1_23 08782e1ff32e70ca750c16e36ca654a1;de;;;1.1.;;;Menschlicher IrrtumPilotenfehler – menschliches Versagen – Bedienungsfehler – Überforderung – Übermüdung – ¼ dies alles sind Begriffe, die wir immer wieder im Zusammenhang mit gefährlichen Vorfällen oder sogar Unfällen hören und lesen. Sie alle sprechen verschiedene Tatsachen an, beleuchten verschiedene Aspekte der Ursache, besagen jedoch, dass ein Mensch bei der Bedienung einer Maschine einen Fehler gemacht hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15167-5_3 3176cb45522261481a9116705559cebb;de;;;1.1.;;;Was ist eigentlich Qualitätssicherung? — DefinitionsversucheWegen der Vielfalt der in Frage kommenden Methoden und der unterschiedlichen Bedingungen bemüht sich die Arbeitsgruppe “Qualitätssicherung in der Medizin” um eine einheitliche Terminologie der Qualitätssicherung. Sie soll dem modisch geprägten Gebrauch der Begriffe Einhalt gebieten, auf die wesentlichen Forderungen der Qualitätssicherung hinweisen und exaktere Bewertungen der unter dem Titel “Qualitätssicherung” laufenden Aktivitäten ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-81938-4_55 f44964d39f81ff92fc50985546728d5b;de;;;1.1.;;;Empirische Untersuchung zur Überprüfung von individueller Selbstführung in ProjektteamsZiel des empirischen Teils der vorliegenden Untersuchung ist es, den aufgestellten Bezugsrahmen großzahlig zu überprüfen. Hierfür werden in Unternehmen eingesetzte Projektteams herangezogen, die aus hoch qualifizierten Teammitgliedern („Wissensarbeitern“) bestehen. Aufgrund dieser Anforderungen wurden Projektteams, die Software entwickeln, als Untersuchungsgegenstand gewählt. Softwareentwicklung kann definiert werden als die Beschäftigung „mit der Neuentwicklung, dem Gebrauch und der Weiterentwicklung von Software-Erzeugnissen.“;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-9544-1_4 6931f85284768ba0d37cb9313d29e08c;de;;;3.3.;;;Softwaresystemdesigns zur Echtzeit-Bildverarbeitung dynamischer Eigenschaften von Schweißbädern In diesem Beitrag wird eine Software zur Bildverarbeitung von Schweißbädern entwickelt, um die Schweißnahtformparameter in verschiedenen Bildern zu messen. Zunächst wurde das visuelle Wahrnehmungssystem nach dem Prinzip der passiven visuellen Bilderfassung aufgebaut. Als nächstes werden die Bildverarbeitungs- und Mustererkennungstechniken besprochen, um eine klare Kontur des Pools zu erhalten und seine Größe zu messen. Um die Effizienz der Software zu belegen, wird schließlich ein Bild des Schweißbads aus einer Aluminiumlegierung verwendet, und die Validierungsergebnisse zeigen, dass diese Techniken praktisch angewendet werden können;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73374-4_36 bfb51de2816766711cc2f96bb9935016;de;;;3.3.;;;Quantitative Analyse des Multi-Recovery-basierten Intrusion Tolerance-Modells Die quantitative Analyse war schon immer ein schwieriges Problem bei der Sicherheitsanalyse von Intrusion-Tolerance-Systemen. In diesem Whitepaper wird ein Intrusion Tolerance-Modell vorgestellt, das auf mehreren Recovery-Mechanismen basiert, und es wird vorgeschlagen, wie die Sicherheitsattribute des Modells quantifiziert werden können. Ein Zustandsübergangsmodell mit Wiederherstellungszuständen beschreibt das dynamische Verhalten des Systems genauer. Da Wiederherstellungsmechanismen einen großen Einfluss auf die Sicherheitsleistung des Systems haben, haben wir die Kostenmodelle für verschiedene Wiederherstellungsmechanismen erstellt. Wir schlagen eine praktikable Sicherheitsmaßnahme basierend auf den mittleren Kosten bis zum Sicherheitsausfall vor, um die Systemkosten während der Wiederherstellungsphase zu bewerten. Die experimentellen Ergebnisse bestätigten die Machbarkeit der vorgeschlagenen Methoden.;-;-;-;https://link.springer.com/article/10.1007/s11859-018-1309-y dc1487cb34ed87505294fbde06fa8cae;de;;;3.3.;;;Eine Übersicht über Wavelet-Softwarepakete Die Wavelet-Analyse bietet sehr leistungsstarke Tools zur Problemlösung zum Analysieren, Kodieren, Komprimieren, Rekonstruieren und Modellieren von Signalen und Bildern. Die Menge an Wavelets-bezogener Software hat sich ständig vervielfacht. Viele Wavelet-Analysetools sind weit verbreitet. Diese Übersicht stellt eine wichtige Übersicht für viele derzeit verfügbare Pakete dar. Ingenieuren und Forschern wird es von großem Nutzen sein, die Toolkits zu nutzen und neue Software zu entwickeln. Auch Einsteiger in das Erlernen von Wavelets können von der Überprüfung eine große Hilfe erhalten. Wenn Sie sich auf einigen der in der Referenz dieses Artikels aufgeführten Internet-Sites umsehen, finden Sie möglicherweise zahlreichere Wavelet-Ressourcen.;-;-;-;https://link.springer.com/article/10.1007/BF03160308 f8b27d07ed32444538393f08d01bc108;de;;;3.3.;;;Eine automatische Methode zum Abrufen von Schuhabdrücken mit neuronalen Codes für kommerzielle Schuhabdruckscanner In diesem Artikel wird eine automatische Schuhabdruck-Retrieval-Methode vorgeschlagen, die in der Forensik verwendet wird. Das vorgeschlagene Verfahren extrahiert Schuhabdruckmerkmale unter Verwendung eines kürzlich gemeldeten Deskriptors namens neuronalen Code. Der erste Schritt der Merkmalsextraktion ist die Rotationskompensation. Dann wird das Schuhabdruckbild in einen oberen Bereich und einen unteren Bereich unterteilt, und es werden zwei neuronale Codes für beide Bereiche erhalten. Anschließend wird ein Matching-Score zwischen Testbild und Referenzbild berechnet. Der Matching-Score ist eine gewichtete Summe der Kosinus-Ähnlichkeiten der neuronalen Codes beider Regionen. Experimentelle Ergebnisse zeigen, dass unsere Methode andere Methoden in einer großen Datenbank übertrifft, die von kommerziellen Schuhabdruckscannern erfasst wird. Durch die Verwendung von PCA kann die Leistung verbessert werden, während die Merkmalsdimension drastisch reduziert wird. Unseres Wissens ist dies die erste Studie, die die von kommerziellen Schuhabdruckscannern gesammelte Datenbank verwendet, und unsere Methode erzielte einen kumulativen Match-Score von 88,7 % unter den Top 10.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7302-1_14 ffe3e4a5ab695b36d172b6f5e4051577;de;;;3.3.;;;Quantencomputing vs. kohärentes Rechnen In diesem Übersichtsartikel vergleichen wir die Leistung zweier Computersysteme: Quantencomputing und Coherent Computing. Kürzlich wurde eine geschichtete Architektur für das Quantencomputing nach Schaltungsmodell diskutiert, die eine Oberflächencode-Quantenfehlerkorrektur verwendet. Unter Verwendung dieser konkreten Hardwareplattform ist es möglich, eine Ressourcenanalyse zur Ausführung des fehlertoleranten Quantencomputings für die Primzahlfaktorierung und molekulare Eigenenergieberechnung bereitzustellen, die von heutigen Computersystemen nicht gelöst werden kann. Ein bestimmtes Quantencomputersystem könnte solche Probleme auf der Zeitskala von 1-10 Tagen lösen, indem es 10 . verwendet;-;-;-;https://link.springer.com/article/10.1007/s00354-012-0403-5 238879b4b46c7ef453680b88e77c0209;de;;;3.3.;;;Quantum Programming Language: Eine systematische Überprüfung des Forschungsthemas und der am häufigsten zitierten Sprachen Die Quantenprogrammierung ist ein aufstrebendes Gebiet, das in den letzten zwei Jahrzehnten aus der multidisziplinären Forschung zum Quantencomputing entwickelt wurde. Quantum Computing verbindet die Idee von Quantenmechanik, Mathematik und Informatik. Dieses Übersichtspapier gibt einen kurzen Überblick über den Stand der Technik im Bereich der Quantenprogrammiersprachen. Dieses Papier konzentriert sich auf aktuelle High-Level-Quantenprogrammiersprachen für Quantencomputer, ihre Funktionen und Vergleiche. Wir hatten in dieser Arbeit keinen verfügbaren Simulator berücksichtigt.;-;-;-;https://link.springer.com/article/10.1007/s11831-019-09372-6 b7f5e88f590c4dcc9871334c653b2b4f;de;;;3.3.;;;AOSE und Organic Computing – Wie können sie voneinander profitieren? Positionspapier Organic Computing ist ein aufstrebendes Forschungsgebiet mit starken Bezügen zu den Ideen und Konzepten agentenbasierter Systeme. In diesem Papier werden wir daher Agentensysteme, organische Computersysteme (sowie autonome Computersysteme) genauer betrachten und Gemeinsamkeiten und Divergenzen zwischen ihnen feststellen. Anschließend schlagen wir eine gemeinsame Sicht auf diese Technologien vor und zeigen, wie sie im Hinblick auf das Software-Engineering voneinander profitieren können.;-;-;-;https://link.springer.com/chapter/10.1007/11568346_13 3a0fb3d7e621f7078496da348a17cd81;de;;;1.1.;;;Die Basisrente: Kohortenabhängige Förderung und optimale VertragsgestaltungSeit 2005 ist das A lterseinkünftegesetz in Kraft, mit dem der Gesetzgeber das Ziel verfolgt, die private kapitalgedeckte Altersvorsorge mit der Basisrente als Ergänzung der umlagefinanzierten staatlichen Altersvorsorge zu stärken. Mit dem neuen Angebot stellt sich aus Perspektive des einzelnen Sparers die Frage, ob die Basisrente generell ein vorteilhafter Bestandteil der privaten Altersvorsorge ist. Die Untersuchung verdeutlicht, dass die Wirkung der Förderung kohortenmäßig starke Unterschiede aufweist und damit der sukzessive Übergang zur nachgelagerten Besteuerung nicht gerecht auf alle Generationen verteilt wird. Durch optimierte Vertragsgestaltung können in Kombination mit einer Anlagealternative beziehungsweise Aufteilung der Sparleistung auf mehrere Verträge vorteilhafte Angebote generiert werden.;-;-;-;https://link.springer.com/article/10.1007/BF03373673 77eaa14b5109e1b486d2df7ff43b4e4c;de;;;3.3.;;;Intelligentes Smart Cloud Computing für Smart Service Die Cloud-Computing-Technologie erregt viel Aufmerksamkeit im IT-Bereich. Die Entwicklungen mit dieser Technologie haben aktiv getan. Das Cloud Computing ist weiter entwickelt als das bestehende Angebot. Das aktuelle Cloud-Computing verfügt also nur über einen Prozess, der auf Benutzeranforderungen reagiert, wenn Benutzer ihre Bedürfnisse fordern. Zur intelligenten Anpassung der Bedürfnisse schlägt dieses Papier ein intelligentes Smart Cloud-Modell vor, das auf 4S/3R basiert. Dieses Modell kann intelligent umgehen, um die Bedürfnisse der Benutzer zu erfüllen, indem das Verhalten der Benutzer erfasst, Schritte zur Prospektion, Erstellung, Bereitstellung und Rendering durchgeführt werden. Dies liegt daran, dass Benutzer immer über mobile Geräte einschließlich Smartphones verfügen, sodass das Benutzerverhalten durch an den Geräten angebrachte Sensoren erfasst wird. Das vorgeschlagene Servicemodell mit intelligentem Smart Cloud Computing wird zeigen, dass personalisierte und maßgeschneiderte Dienste in verschiedenen Bereichen möglich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17625-8_7 ef57ebc621461882f2ad2288ca4befb4;de;;;3.3.;;;Aktivitätsbasierte Softwareschätzung mit Projektstrukturplan Die Softwarekostenschätzung auf Aktivitätsebene ist in Bezug auf die Phasen des Softwareentwicklungslebenszyklus sehr genau als die Makroschätzung, aber das gleiche ist sehr schwer zu erreichen[1]. Der Schwerpunkt der aktivitätsbasierten Schätzung auf Schlüsselaktivitäten sollte nicht ausgelassen werden, und wenn eine Aufwandsabweichung auftritt, ist es möglich, auf einer bestimmten Aktivitätsebene zu verfolgen, anstatt die gesamten Aktivitäten zu beeinflussen[1]. Die aktivitätsbasierte Softwareschätzung basierend auf der Work Break Down-Struktur wurde durch das Sammeln und Analysieren der Daten für 12 Erweiterungen aus dem Anwendungsservice-Wartungsprojekt, die bereits geliefert wurden, erklärt. In diesem Artikel wird erläutert, wie eine genaue Schätzung bei verschiedenen Aktivitäten auf Mikroebene des Softwareentwicklungslebenszyklus (SDLC) erzielt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-6268-1_20 a8ed8426c7cf8efd94e53418a469ee03;de;;;3.3.;;;UIP-Net: Ein Decoder-Encoder-CNN zur Erkennung und Quantifizierung des üblichen interstitiellen Pneumoniae-Musters in Lungen-CT-Scans Ein wichtiger Schritt in der Diagnostik der idiopathischen Lungenfibrose (IPF) ist die Untersuchung von hochauflösenden Computertomographiebildern (HRCT). IPF weist ein typisches radiologisches Muster auf, das als UIP-Muster (Usual Interstitial Pneumoniae) bezeichnet wird und in nicht-invasiven HRCT-Untersuchungen nachgewiesen werden kann, wodurch eine chirurgische Lungenbiopsie vermieden wird. Leider kann die visuelle Erkennung und Quantifizierung des UIP-Musters selbst für erfahrene Radiologen aufgrund der schlechten Inter- und Intra-Reader-Übereinstimmung eine Herausforderung darstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-68763-2_30 4e7be3dd39163f5599d05ce154857c49;de;;;1.1.;;;Die Datenschutz-Grundverordnung – eine kritische SichtSelten hat ein Gesetz oder eine Verordnung in der Informatik und ihren Teildisziplinen wie Medizin‑, Rechts- oder Wirtschaftsinformatik so viele Diskussionen ausgelöst wie die Datenschutz-Grundverordnung (DSGVO).;-;-;-;https://link.springer.com/article/10.1365/s35764-019-0159-5 4b834406d8fdddc50759dfd0bb09044d;de;;;1.1.;;;Anforderungen an die Handelbarkeit von RisikenVor dem Hintergrund konkreter funktionaler und institutioneller Fragestellungen haben sich in der wissenschaftlichen Theorie und der betriebswirtschaftlichen Praxis sporadische Partialansätze zur Erklärung der Handelbarkeit von Risiken herausgebildet. Es sind zum einen Argumentationsrichtungen, die bestehende Marktunvollständigkeiten zu begründen versuchen. Dabei werden die Ursachen einer nicht durchführbaren Handelbarkeit untersucht. Zum anderen existieren drei verschiedene Partialansätze mit Anforderungen an eine Durchführbarkeit der Risikoweitergabe. Bei den Untersuchungen (1) einer Versicherbarkeit von Risiken, (2) einer Verbriefung von Risiken und (3) einer Konstruktion liquider Derivate der Risikoallokation werden einzelne Voraussetzungen zum Handel von Unsicherheit unter spezifischen Rahmenbedingungen betrachtet. Diese einzelnen Erklärungsansätze sind nachfolgend inhaltlich zu skizzieren und in die vorliegende Typologie der Handelbarkeit einzuordnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-07920-0_4 201d879803efbd0c353c36810023d4f4;de;;;1.1.;;;Logik der Situation, Definition der Situation, framing und Logik der Aggregation bei Esser und LuhmannEin Vergleich von Luhmanns und Essers Konzeptionen unter den Gesichtspunkten „Logik und Definition der Situation, framing und Logik der Aggregation“ steht vor dem Problem, dass die Bezugspunkte dem Esser’schen Konzept entlehnt sind und keine auffälligen Äquivalente bei Luhmann finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-90259-3_2 bed8ceeeb2070be92fb2fbeb694c3d64;de;;;3.3.;;;Optimaler Weg zur Fehleridentifikation des maritimen Kommunikationsnetzes im Hintergrund von Big Data Mit der schnellen Entwicklung von Computernetzwerken wurde es erfolgreich in der Schiffskommunikation eingesetzt, was den Informationsaustausch erleichtert. In den letzten Jahren wurden höhere Anforderungen an die Sicherheit, Effizienz und Stabilität des Marine Communication Network (MCN) gestellt, so dass der schnellen Erkennung und Lokalisierung des MCN-Fehlers eine große Bedeutung zukommt und die Fehlererkennung des MCN von großer Bedeutung ist die Grundlage der Fehlerortung, daher war die Entwicklung des MCN-Fehlererkennungsverfahrens mit hervorragender Leistung immer das Ziel der Menschen. Um die Genauigkeit der MCN-Fehlererkennung zu verbessern, wird mit dem Ziel, einige Fehler der aktuellen MCN-Fehlererkennung zu beheben, ein Fehlererkennungsverfahren von MCN basierend auf Big-Data-Analyse vorgeschlagen und die Überlegenheit dieser Methode und die Zuverlässigkeit der Identifizierungsergebnisse werden überprüft durch die spezifischen MCN-Fehleridentifikationsexperimente.;-;-;-;https://link.springer.com/article/10.1007/s12517-020-06397-1 8849c75d4c006ab3db438f0451a50cfd;de;;;3.3.;;;Architekturunabhängige Meta-Optimierung durch Aggressive Tail Splitting Mehrere Optimierungstechniken werden durch Unsicherheiten bezüglich des Kontrollflusses in einem Programm behindert, die im Allgemeinen nicht durch statische Methoden zur Kompilierzeit bestimmt werden können. Wir präsentieren einen neuartigen Ansatz, der darauf abzielt, diese Einschränkung zu mildern, indem alle Kontrollpfade explizit durch ein Schleifennest aufgezählt werden, um so eine breitere und effizientere Verwendung von Standardoptimierungsdurchläufen später zu ermöglichen. Unsere Analyse befasst sich mit der möglichen Explosion der Codegröße, die trotz hoher theoretischer Obergrenzen in der Praxis akzeptabel erscheint, sowie Leistungssteigerungen sowohl für RISC- als auch für CISC-Zielprozessoren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27866-5_42 04ef85a80163432dd3650776dfb4f25a;de;;;3.3.;;;Low-Power Wide Area Networks: Änderungen für Smart Grid Heutzutage wird ein Hybrid von Kommunikationstechnologien, einschließlich einer Vielzahl von drahtgebundenen und drahtlosen Technologien, in Smart Grids verwendet. Jede drahtlose Kommunikationstechnologie hat ihre Vor- und Nachteile. Kurzstreckenverbindungen, hoher Stromverbrauch, hohe Kosten oder eine Mesh-Topologie sind die Hauptmerkmale für drahtlose Technologien. Aufgrund von drahtlosen Verbindungsproblemen in der Mesh-Topologie und einer großen Menge an Infrastruktur, die zum Aufbau eines zuverlässigen Netzwerks erforderlich ist, sind die Kosten für die Bereitstellung von Smart Grid immer noch erstaunlich. Kürzlich hat eine neue drahtlose Technologie Low-Power Wide Area Network (LPWAN) typische drahtlose Verbindungen in Frage gestellt. Es zeichnet sich durch kostengünstige und weitreichende Übertragungstechnologien aus und ermöglicht mit einer einfachen Topologie eine energieeffiziente Kommunikation über sehr große Entfernungen. In diesem Papier stellen wir die neue drahtlose Technologie zur Implementierung der Anwendungen im Smart Grid vor und diskutieren ihre Vorteile sowie die potenziellen Chancen und Herausforderungen, die das Smart Grid mit sich bringen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6508-9_117 476acc328523d06caab5581c24109133;de;;;3.3.;;;Experimentieren mit dem Verständnis von Feature-orientierten und UML-basierten Core Assets Software Product Line Engineering beschäftigt sich hauptsächlich mit der Spezifikation und Entwicklung von Kernressourcen, die genutzt und in spezifische Produktartefakte angepasst werden können. Feature-orientierte und UML-basierte Modellierungsmethoden wurden für die Verwaltung und Unterstützung der Spezifikation von Core-Assets vorgeschlagen. Während diese Methoden in der Literatur zur Entwicklung von Softwareproduktlinien viel Aufmerksamkeit erhalten, wird ihr Vergleich in Bezug auf das Verständnis etwas vernachlässigt. Da diese Arbeit für die frühen Phasen der Entwicklung von Kernanlagen geeignet ist, zielt diese Arbeit darauf ab, vergleichende Analysen durchzuführen und ihre Vorteile und Grenzen im Hinblick auf zwei Hauptakteure zu diskutieren: Entwickler und Produktkunden. Zu diesem Zweck führten wir zwei Experimente durch, um das Verständnis der Kernressourcenspezifikation in funktionsorientiertem CBFM und UML-basiertem ADOM zu untersuchen. Die Ergebnisse zeigten, dass der einzige signifikante Unterschied in Bezug auf das Verständnis zwischen diesen Methoden in der Variabilitätsspezifikation liegt. Entwickler können die Orte, an denen Variabilität auftritt, und die Möglichkeiten zur Realisierung von Variabilität in ADOM besser verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21759-3_34 6a67c503857e06ce7140c8d84bda9ec0;de;;;1.1.;;;Heuristiken als Grundlage menschlicher EntscheidungsprozesseIm Rahmen der Erforschung menschlicher Entscheidungsprozesse dominieren die Erklärungsansätze klassischer Rationalitätsmodelle, die auf der formallogischen Integration aller in einer Situation zur Verfügung stehenden Informationen beruhen (Laux et al. 2012). Auch wenn dabei nicht davon ausgegangen wird, dass Menschen diese Informationsverarbeitung bewusst vollziehen müssen, so wird doch mitunter angenommen, dass zumindest auf unbewusster Ebene neuronale Prozesse ablaufen, die dem rationalen Entscheidungsmodell äquivalent sind (Dawkins 1989).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-16891-9_4 6d62eac6e35819f784eec0127fef3169;de;;;3.3.;;;Eine SaaS-Implementierung eines neuen generischen Crypto-Classifier-Dienstes für sichere Energieeffizienz in Smart Cities Der sichere Fernzugriff auf Daten erscheint mehr und mehr als das Rückgrat für die Bereitstellung neuer fortschrittlicher und kundenspezifischer Funktionalitäten. Die Verbreitung von Social Media und Domotik drängt auf eine neue Art der Allgegenwart, bei der verschiedene Arten von Funktionen überall auf den alltäglichen kleinen Geräten eingesetzt und sogar in unsere Umgebung eingebettet werden. Während wir die Möglichkeiten messen, die solche Fortschritte bei der Verbesserung des Lebensstils der Menschen und beim Erhalt von sofortigen und nützlichen Dienstleistungen bieten, ist es notwendig, die tatsächlichen Auswirkungen auf unsere Privatsphäre zu berücksichtigen. Die kürzlich verabschiedete europäische Norm, die Datenschutz-Grundverordnung, zielt darauf ab, die Regeln für die Verwendung personenbezogener Daten zu kodifizieren. Wir glauben fest an die Notwendigkeit für eine Smart City, solche Datenschutzbestimmungen einzuführen und gleichzeitig von neuen Diensten auf generische und einfache Weise zu profitieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-26633-2_5 78778025317c29866d20ac55f67812b5;de;;;1.1.;;;1 Einführung in die ThematikBei der Betrachtung psychologisch orientierter Therapieansätze zeigt sich eine verwirrende Heterogenität von Standpunkten und Behandlungsprinzipien. Dabei gibt es in den einzelnen psychotherapeutischen Schulen große Unterschiede bezüglich des Ausmaßes, in dem man sich im therapeutischen Handeln auf theoretische Überlegungen, empirische Daten, bzw. auf eine Ansammlung privater klinischer Erfahrung oder auf die Postulate eindrucksvoller Gründerfiguren stützt. Psychologische Therapieansätze sind weder im System der Wissenschaft, der Ausbildung, der Versorgung, noch im Denken und Verständnis der Bevölkerung fest verankert, dies steht in gewissem Kontrast zu medizinischen (apparativen, pharmakologischen ...) Einrichtungen, die einen festen Platz in der Gesellschaft besitzen. Die Unsicherheit von Personen mit psychischen Problemen und die Stellung von Psychotherapeuten im Versorgungssystem hängt u. U. mit den Emotionen zusammen, die die Gesellschaft psychischen „Störungen“ entgegenbringt. Auch wenn wir meinen, das Zeitalter der Dämonologie längst überwunden zu haben, haftet psychischen Störungen immer noch etwas Mystisches, Geheimnisvolles an, das uns in vielen Fällen gefühlsmäßig stark berührt. Innerhalb der Psychotherapie zeigt sich auch eine ausgesprochen problematische Aufsplitterung: Corsini (1983) etwa listet mehr als 250 unterscheidbare Therapierichtungen auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-09850-9_1 f505b06b709e477053135a5f70fa546f;de;;;1.1.;;; Lernen im inklusiven MathematikunterrichtWie das Zitat aufzeigt, ist für Feuser Kooperation ein zentraler Aspekt von Inklusion, um ein Kollektiv, also Gemeinsamkeit, zu erzielen. Dies geht ebenso aus der Begriffsdefinition und den Annahmen in Kapitel 1 zum ‚Gemeinsamen Lernen‘ im inklusiven Mathematikunterricht hervor. So wird aufgrund dieser Definition für die vorliegende Arbeit geschlussfolgert, dass inklusiver Mathematikunterricht ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-30648-9_3 baab6d48d5cdcfff911a0396d27b7ad8;de;;;1.1.;;;Kernkonzepte der Politik und Ökonomie — Lernen als Veränderung mentaler ModelleDie Standarddiskussion stellt für viele Fachdidaktiken eine große Herausforderung dar. Voraussetzung für die Entwicklung von Standards sind Kompetenzmodelle, die empirisch abgesichert verschiedene Niveaus der fach- bzw. domänenspezifischen Leistung unterscheiden. Sie können bestimmt werden, wenn auf der Basis von Forschungsergebnissen Aussagen darüber gemacht werden, wie Personen ihr ökonomisches und politisches Denken organisieren, wie sie ihre Fachkonzepte subjektiv plausibel erzeugen, wie sie durch Veränderung ihrer Wissensstruktur domänenspezifisch lernen. Die Fachdidaktiken sind aufgefordert ihre theoretischen Konzeptionen stärker lernpsychologisch zu fundieren, indem sie sich mit den Problemen des Fachunterrichts beschäftigen. Notwendig sind der Diskurs über Kernkonzepte aus Politikwissenschaft und Ökonomik sowie der Vergleich mit den mentalen Modellen, d. h. den Wissenskonstruktionen der Schülerinnen und Schüler. Die Konzentration auf empirische Forschungsvorhaben ist notwendig um den Ertrag des Politik- und des Wirtschaftsunterrichts zu verbessern. In empirischen Daten gegründete Fachdidaktiken (Grounded Theories) können zur Fortentwicklung der Theoriediskussion beitragen und machen sie anschlussfähig an die Diskurse der empirischen Pädagogik und der Psychologie. Im Folgenden soll deshalb der Stand der empirischen Forschung in der Politikdidaktik und in der Wirtschaftspädagogik zu den mentalen Modellen und zur Entwicklung von Kernkonzepten (konzeptuelle Modelle) dargestellt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-90312-5_8 d00b1951e84f9aa29c5097fe0cce6564;de;;;1.1.;;;Interviewverfahren und biografischer FragebogenIm vorliegenden Kapitel stellen wir Interviewverfahren und biografische Fragebogen als zwei valide Instrumente der beruflichen Eignungsdiagnostik vor. Zu Einstellungsinterviews werden Informationen über deren Verbreitung, Akzeptanz und Güte dargestellt. Ferner werden wesentliche Aspekte herausgearbeitet, die die Qualität von Einstellungsinterviews sichern können, die Rolle des Interviewers näher beleuchtet und strukturierte Interviewformen vorgestellt, um damit Empfehlungen zur Planung, Durchführung und Auswertung der Personalauswahlgespräche abzuleiten. Zu biografischen Fragebogen wird herausgearbeitet, dass diese geeignete Prädiktoren für eine Vielzahl unterschiedlicher Kriterien beruflicher Leistung darstellen und einen inkrementellen Erklärungsbeitrag über andere eignungsdiagnostische Maße hinaus liefern. Es wird gezeigt, dass diese wissenschaftlichen Erkenntnisse jedoch nicht mit den Wahrnehmungen in der Anwendungspraxis übereinstimmen, in der biografische Fragebogen vergleichsweise selten eingesetzt und sowohl von Anwendern als auch Bewerbern weniger gut akzeptiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-14567-5_5 f133ab186ee5a6b1c8e858be6e254468;de;;;1.1.;;;Strukturanalyse organisationaler Ärger-InteraktionenDie allgemeine Zielsetzung dieses Kapitels liegt in der Verknüpfung der bislang gesponnenen Argumentationsfäden begründet. Als Ordnungsraster fungieren die drei Dimensionen der Strukturationstheorie. Die Begründungsarbeit, um von einer ärgerspezifischen Reproduktion ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-90199-6_7 13d52514ea27efa529a496c216e31408;de;;;3.3.;;;Ein Weg zur Implementierung von Best Practices für den Software-Anforderungs-Management-Prozess unter Verwendung einer Multimodell-Umgebung Kontinuierliche Verbesserung ist eines der interessanten Themen für Organisationen, die sich auf dem Weltmarkt positionieren möchten. Softwareentwicklungsorganisationen haben jedoch große Schwierigkeiten, Best Practices für die kontinuierliche Verbesserung zu implementieren. Dieses Papier stellt einen Weg vor, der beschritten werden muss, um die Arbeit der kontinuierlichen Verbesserung in einer Softwareentwicklungsorganisation zu erleichtern, und versucht, Best Practices im Softwareanforderungsmanagementprozess zu implementieren. Der Weg geht von einer Analyse von Softwareprozessverbesserungsmodellen und Standards in Bezug auf Best Practices für die Softwareentwicklung in einer Umgebung mit mehreren Modellen aus. Der Pfad ist mit einer Reihe von Techniken, Tools, Aktivitäten und Ergebnissen strukturiert, die mit identifizierten Best Practices verbunden sind, um die Implementierung von Verbesserungen im Softwareanforderungsmanagementprozess zu erleichtern. Außerdem wird der etablierte Weg als Alternative vorgeschlagen, um die Prozessverbesserung unter Verwendung einer Multimodellumgebung zu erleichtern. Auf diese Weise können ein Gleichgewicht und Beispiele für die Zusammenarbeit zwischen den Best Practices hergestellt werden, unabhängig vom zu implementierenden Modell oder Standard.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58817-5_58 dc415fb435f26831a1ef1c83a65dd5b4;de;;;1.1.;;;Noch immer auf der Suche nach dem heiligen Gral: Wie generisch oder fachspezifisch sind Dimensionen der Unterrichtsqualität?Im vorliegenden Beitrag wird der Versuch unternommen, zentrale Aspekte der elf Positionsbeiträge des vorliegenden Themenheftes „Unterrichtsqualität – fachspezifisch oder generisch? Ein Update zu Perspektiven aus der Fachdidaktik und der allgemeinen Lehr-Lernforschung“ (Heft 2, 2021) im Hinblick auf die Frage nach der Fachspezifität von Dimensionen der Unterrichtsqualität zusammenzufassen und zu diskutieren. Als Grundlage für den Vergleich wird ein Syntheseframework verwendet, zu dem auch die Autor*innen des Themenheftes Stellung genommen haben. Es zeigt sich ein großes Ausmaß an Gemeinsamkeiten zwischen unterschiedlichen Fächern, darüber hinaus auch etliche fachspezifische Ergänzungsvorschläge (u. a. in Bezug auf kognitive Aktivierung und sozio-emotionale Unterstützung). Abschließend werden erste Ideen für eine zukünftige Weiterentwicklung der Frage nach der Fachspezifität im Allgemeinen sowie des Syntheseframeworks im Speziellen vorgeschlagen, die sich auf die Ziele von Unterricht, die Berücksichtigung von Lernprozessen sowie die Verbesserung von Unterrichtsqualität beziehen.;-;-;-;https://link.springer.com/article/10.1007/s42010-021-00119-6 480621fa216e28bf44a1defe6f89bede;de;;;1.1.;;;Bewertungs- und Entscheidungsrelevanz als theoretischer BezugsrahmenIm vorliegenden Kapitel soll die Relevanz der Humankapitalberichterstattung für die Unternehmensbewertung und für Investitionsentscheidungen aufgezeigt werden. Demnach ist in einem ersten Schritt zu klären, ob und inwieweit betriebliches Humankapital als Werttreiber Eingang in Modelle zur Bewertung von Unternehmen findet und inwieweit diese Art von Informationen für Rechnungslegungsadressaten bewertungsrelevant sind (Abschnitt 3.1). In einem zweiten Schritt soll aufgezeigt werden, wie Entscheidungen insbesondere von Kapitalmarktteilnehmern durch humankapitalbezogene Unternehmensinformationen beeinflusst werden (Abschnitt 3.2). Das diesbezüglich heranzuziehende Kriterium liegt in der Entscheidungsnützlichkeit (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-6205-8_3 743aa203361fc6e40c9efa00689ec8ad;de;;;1.1.;;;Von der Bewusstseinspsychologie zu den Kognitions-NeurowissenschaftenIn diesem Kapitel schildern wir die historische Entwicklung der wissenschaftlichen Wahrnehmungspsychologie von ihren Ursprüngen in der Bewusstseinspsychologie des ausgehenden 19. Jahrhunderts, über die Gestaltpsychologie, die ökologische Wahrnehmungstheorie Gibsons und die Kognitionspsychologie, bis zu den gegenwärtig dominierenden Kognitions-Neurowissenschaften. Das Kapitel schließt mit einer Diskussion der aktuell ebenfalls vertretenen evolutionspsychologischen Perspektive in der Wahrnehmungspsychologie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-12912-5_2 6bf4a1e1fd14868e756875b52931dab8;de;;;1.1.;;;Regel-orientierte ProgrammierungIm ersten Kapitel hatten wir drei Programmierstile in ihren Grundzügen dargestellt und ausgeführt, da¿ jeder dieser Stile auf einem charakteristischen Modell der Informationsverarbeitung basiert. Bei diesen Programmierstilen und ihren zugehörigen Verarbeitungsmodellen handelt es sich um:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-71455-9_11 7bd6b220215a6322002d24087361f833;de;;;1.1.;;;Risikowahrnehmung und umweltentlastende Handlungsmuster der Bevölkerung in Hamburg und im UnterelberaumEin öffentliches Bewußtsein über mögliche Reichweiten und Gefahrenpotentiale der Umweltprobleme entwickelte sich in Westeuropa Anfang der siebziger Jahre dieses Jahrhunderts. Die Wachstums- und Modernisierungseuphorie der fünfziger und sechziger Jahre wich der zunehmenden Skepsis, ob ein ungezügeltes Wirtschaftswachstum nicht langfristig zum Kollaps lokaler, regionaler und globaler Ökosysteme führen müsse. Wesentlichen Anteil am internationalen Umdenken hatten die Stockholmer Umweltkonferenz (1972) und die im gleichen Jahr veröffentlichte Studie des Club of Rome „Die Grenzen des Wachstums“ (Meadows et al. 1972). Als Folge dieser inzwischen allseits bekannten Einsichten in globale Begrenzungen der kapitalistischen Akkumulationslogik entstanden in verschiedenen Ländern Bürgerinitiativen und soziale Bewegungen. Sie machten die Umweltprobleme ihrer regionalen Aktionsräume zu einem vielbeachteten Gegenstand der politischen Auseinandersetzung und kritisierten die vorherrschenden Formen und Funktionen von Umwelt-, Stadtentwicklungs- und Regionalpolitik. Ihr Widerstand richtete sich primär gegen solche Projekte, die direkt oder indirekt die Leistungsfähigkeit regionaler und nationaler Ökonomien erhöhen sollten. Beispiele aus dem Unterelberaum sind die Hafenerweiterung in Hamburg und die damit verbundene Aussiedlung von Dörfern oder der Bau des Atomkraftwerks in Brokdorf, die Planungen für die Zwischen- bzw. Endlagerstätten in Gorleben und die Errichtung von Großindustrieanlagen in Stade-Bützfelth und in Brunsbüttel.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-77720-2_4 6da66dae8b35f721802d83e40ca131cc;de;;;3.3.;;;Modellierung, Validierung und Softwareimplementierung von Produktionssystemen mit High-Level-Petrinetzen In diesem Beitrag wird der Entwurf des Koordinations-Subsystems eines Flexiblen Fertigungssystems (FMS) und dessen Integration in das integrierte Leitsystem des FMS diskutiert. Der gewählte Ansatz basiert auf der Verwendung von High-Level-Petri-Netzen (farbige Petri-Netze) für die Subsystemmodellierung, ihre qualitative und quantitative Analyse und ihre Softwareimplementierung. Es wird der Entwurf des Echtzeit-Scheduling-Subsystems als Expertensystem vorgeschlagen. Die Interaktion zwischen dem Koordinations-Subsystem und den lokalen Controllern und dem Scheduling-Subsystem erfolgt unter Verwendung einer Terminologie basierend auf den Farben des Koordinationsmodells.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-84524-6_24 f1c4b085ecdf8f4143e6d80f03a57378;de;;;1.1.;;;Modellvorstellungen zur Bedeutung Ereigniskorrelierter HirnpotentialeSeit Beginn der Erfassung ereigniskorrelierter Potentiale werden diverse Kennwerte mit psychologischen Variablen in Zusammenhang gebracht. Bereits 1969 zählte Sutton eine Menge psychologischer Termini auf, für welche Korrelationen mit ereigniskorrelierten Potentialen berichtet wurden: Angst, Arousal, Aktivierung, Interesse, Konation, Konditionierung, Lernen, Kontingenz, Richtigkeit versus Unrichtigkeit bei Erkennungsaufgaben, Schwierigkeit der Diskrimination, Ablenkung, endogene Reize, Aufregung, Erwartung, Set, Bereitschaft, Habituation, Intention zum Reagieren, Bedeutungsgehalt, Motivation, Neuartigkeit, Orientierung, positive und negative Effekte, selektive Aufmerksamkeit, Bedeutung, Suggestion, Hypnose, symbolischer Bedeutungsgehalt, Aufgabenrelevanz, Unsicherheit, Vorhersagbarkeit, Information, visuelles Wiedererkennen, Müdigkeit und Vigilanz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-75892-8_10 e975e1f4f45eecc7e767951ab0e549a2;de;;;3.3.;;;Minderung von Bedrohungen in einem Unternehmensnetzwerk mit einem Taintcheck-fähigen Honeypot Herkömmliche Netzwerksicherheitstools wie Intrusion Detection Systems (IDS), Intrusion Prevention Systems (IPS), Antivirus, Antispyware und Anti-Malware, die in Firewalls integriert sind, erzeugen viele Fehlalarme, die die Verwaltung von Computernetzwerksystemen umständlich machen. Dieses Papier schlägt einen neuartigen Mechanismus vor, der einen Taintcheck für die dynamische Analyse von Pufferüberlaufangriffen unter Verwendung von synthetischem Exploit und hybridem Honeypot zum Scannen, Erkennen, Identifizieren von Angreifern und zur Signaturgenerierung umfasst. In diesem Rahmen wird die Angriffserkennung von Noah als Vorlage verwendet. Bei Tests erwies sich die Praktikabilität des vorgeschlagenen Frameworks als effektiver als andere herkömmliche Netzwerksicherheitstools, da es Bedrohungen und gemeldete Zero-Day-Angriffe mit weniger Fehlalarmen effektiv und umfassend abwehrt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1465-4_8 921442073560e2b21bdfe8781d14123d;de;;;3.3.;;;Zielgerichtetes Verhalten im Roboterfußball-Teamspiel Team Der jährliche Roboterfußball-Wettbewerb (RoboCup) bietet eine hervorragende Gelegenheit zur Erforschung verteilter Robotersysteme. Eine Roboter-Fußballmannschaft fordert;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45327-X_39 f829446f5e715a31c3b46d773ba63ade;de;;;3.3.;;;Integriertes System zur Verbesserung der Präzisionslandwirtschaft basierend auf IoT Diese Forschung präsentiert einen Vorschlag für ein integriertes System, das sich auf die Verbesserung der Präzisionslandwirtschaft auf der Grundlage von Internet-of-Things-Technologien konzentriert, mit dem Ziel, das Verhalten klimatischer Variablen wie Luftfeuchtigkeit und Temperatur besser zu überwachen und zu bewerten und verschiedene Geräte zu integrieren, so dass Der Benutzer kann diese Aktivitäten aus der Ferne überwachen und Warnungen über die Bedingungen erhalten. Zur Validierung dieses Vorschlags wird ein auf dieser Architektur basierender Prototyp für die Zählung und Überwachung von Luftfeuchtigkeit und Temperatur in einem Rosengewächshaus in der Hacienda La Silvia an der Straße El Triunfo - General Antonio Elizalde Bucay implementiert, die Ergebnisse werden basierend auf der Zeit ausgewertet und Präzision der Daten, die der Prototyp ausgibt, die von einer Desktop-Anwendung gesteuert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-62015-8_10 f68d7113901ed990b40f0606cd3c3c47;de;;;3.3.;;;Mehrschichtige Abwehrmechanismen: Architektur, Implementierung und Demonstration eines Hardware-Immunsystems Die Biologie verwendet zahlreiche Methoden, um den Körper in gutem Zustand zu halten. Wenn eine Verteidigungslinie durchbrochen wird, verwendet die nächste einen anderen Ansatz. Sehr selten werden alle Verteidigungslinien umgangen. Dieses Papier analysiert den Ansatz des Körpers zur Fehlertoleranz mithilfe des Immunsystems und zeigt, wie solche Techniken auf die Hardwarefehlertoleranz angewendet werden können. Es wird eine Fehlererkennungsschicht geschaffen, die von dem Prozess der Selbst-/Nicht-Selbst-Unterscheidung inspiriert ist, der verwendet wird, um bakterielle Infektionen im Körper zu erkennen. Anschließend wird das Immunsystem der Hardware demonstriert, um zu zeigen, wie eine solche Schicht in der Hardware eine Fehlererkennung ermöglichen kann. Die Biologie verwendet zahlreiche Methoden, um den Körper in gutem Zustand zu halten. Wenn eine Verteidigungslinie durchbrochen wird, verwendet die nächste einen anderen Ansatz. Sehr selten werden alle Verteidigungslinien umgangen. Dieses Papier analysiert den Ansatz des Körpers zur Fehlertoleranz mithilfe des Immunsystems und zeigt, wie solche Techniken auf die Hardwarefehlertoleranz angewendet werden können. Es wird eine Fehlererkennungsschicht geschaffen, die von dem Prozess der Selbst-/Nicht-Selbst-Unterscheidung inspiriert ist, der verwendet wird, um bakterielle Infektionen im Körper zu erkennen. Das Hardware-Immunsystem wird dann demonstriert, um zu zeigen, wie eine solche Schicht in der Hardware eine Fehlererkennung bereitstellen kann.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45443-8_12 10773f3767cdab099efccaaa5b15595a;de;;;3.3.;;;Softwarefehlervorhersage mit Kreuzvalidierung Softwarefehler sind gefährlich. Softwaresysteme sind oft für einen Geschäftsbetrieb oder eine Organisation unerlässlich, und Fehler in solchen Systemen führen zu einer Unterbrechung einiger zielgerichteter Aktivitäten (geschäftskritisch). Fehler in sicherheitskritischen Systemen können zu Tod, Verlust von Eigentum oder Umweltschäden führen. Laufzeitfehler sind am schädlichsten, da sie während des Testprozesses nicht immer erkennbar sind. Fehler zu erkennen, bevor sie auftreten, gibt den Konstrukteuren einen kurzen inneren Blick auf mögliche Fehler und deren Häufigkeit. Dies hilft beim fokussierten Testen und spart Zeit bei der Softwareentwicklung. Vorhersagemodelle haben die Fähigkeit, zwischen verschiedenen Mustern zu unterscheiden. Dieser Artikel zeigt die Wirksamkeit der Kreuzvalidierung beim Entwurf und der Entwicklung eines neuronalen Netzes zur Softwarefehlererkennung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5258-8_48 d2f1b42a0662237bc0210b530dc60acb;de;;;3.3.;;;Ein neuer Ansatz zur Anpassung der Braille-Bildschiefe bei der optischen Braille-Erkennung Braille-Erkennung ist die Fähigkeit, Braille-Zellen in Braille-Bildern zu erkennen. Das Ergebnis wird in verschiedenen Anwendungen wie Braille-Übersetzen, Braille-Kopieren usw. verwendet. Die Leistung dieser Anwendungen wird jedoch von einigen Faktoren beeinflusst, wie z. B. der Schrägstellung von Braille-Dokumenten durch das Scannen oder Prägen. In dieser Arbeit haben wir einen neuen Ansatz entwickelt, um die Schiefe von Braille-Bildern anzupassen. Dieser Ansatz wird in drei Schritten zusammengefasst: (1) Ein Braille-Bild wird durch geschätzte Schwellenwerte segmentiert, die sich aus der Beta-Verteilung ergeben, (2) einfache Braille-Zellen werden unter Verwendung morphologischer Operationen erkannt und (3) der Drehwinkel des Braille-Bildes wird geschätzt, indem der Median der Neigungswinkel aller geraden Linien berechnet wird, die durch drei beliebige Punkte von erkannten Braille-Zellen verlaufen. Die vorgeschlagene Methode wird an mehreren Braille-Bildern getestet. Die Ergebnisse zeigten, dass die Methode in der Lage ist, die verzerrten Braille-Bilder genau anzupassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22170-5_63 b2c0b1a274fae39613cb489278d3e138;de;;;1.1.;;;Forschungsmethodisches VorgehenIn diesem Kapitel werden neben den erkenntnistheoretischen Annahmen die forschungsmethodische Haltung, der Untersuchungsplan, die Datenquellen und die einzelnen Auswertungsschritte dargestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08828-8_9 32f735f69a894b1c44bceae90606ba55;de;;;1.1.;;;Nystagmusauswertung am ComputerAutomatic quantitative nystagmus analysis by means of a digital computer primarily gives a lot of data. Analysis then means reducing this amount of numerical data to a few relevant results. Because the diagnostic importance is not known yet for all available nystagmus parameters, this implies the risk of losing essential informations. Therefore, limitations of the number of parameters as well as of the duration of the investigated intervals by the method of analysis have to be avoided. This then allows studying the diagnostic value of new parameters (e.g. of the fast components) or the time course of reaction intensity. From this point of view a method of quantitative nystagmus analysis is described.;-;-;-;https://link.springer.com/article/10.1007/BF00463063 0c206356f607ba931687275666c0e24c;de;;;1.1.;;;Langzeitergebnis nach Ballonangioplastie kruraler ArterienKlinische und statistische Studie zur Erfassung der Faktoren, welche einen signifikanten Einfluss auf die Offenheitsrate, die Beinerhaltungsrate und die Überlebensrate nach PTA von Unterschenkelarterien haben. ;-;-;-;https://link.springer.com/article/10.1007/s00117-016-0079-9 39ebd1a41127ab184bd954cbb34a6fed;de;;;1.1.;;;Der aktive Rezipient — neu besehenDas dynamisch-transaktionale Modell benutzt das theoretische Konzept des “aktiven Rezipienten” in einer besonderen Weise, die es gilt, von anderen Begriffsverwendungen abzugrenzen. Dieser “aktive Rezipient” hat es in der kommunikationswissenschaftlichen Wirkungsforschung aufgrund einer mittlerweile langen Tradition immerhin zu beträchtlichem Ansehen gebracht. Lazarsfeld, Berelson und Gaudet beschrieben ihn erstmals deutlich 1944 bei der Interpretation ihrer berühmten Erie County-Studie (Lazarsfeld, Berelson & Gaudet 1944). Das Publikum weicht offenbar den massiven politischen Beeinflussungsversuchen der Medien geschickt aus. Die bekannteste, differenzierteste und zumindest partiell vielfach empirisch überprüfte Version dieses Paradigmas ist sicherlich Festingers “Theorie der kognitiven Dissonanz” (Festinger 1957). Der Gedanke des aktiv auswählenden Publikums wurde sporadisch auch außerhalb der Konsistenztheorien immer wieder aufgegriffen (Herzog 1944, Arnheim 1944, Wolf & Fiske 1949, Warner & Henry 1948), bis schließlich Ende der fünfziger, Anfang der sechziger Jahre Katz (1959) bzw. Katz & Foulkes (1962) ein theoretisches Konzept entwickelten, das systematisch die Perspektive tauscht und den aktiven Rezipienten in den Mittelpunkt aller Erklärungsversuche stellt. Der souverän auswählende Rezipient bildete das grundlegende Konzept, das dann mit Handlungstheorien bzw. der Theorie des Symbolischen Interaktionismus kombiniert zum “Nutzenansatz” (Renckstorf 1973, 1977) oder “uses and gratifications-approach” (Katz, Gurevitch & Haas 1973) weiterentwikkelt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-10777-4_14 e8cc716402dbc78a2e42be33b8ccc704;de;;;3.3.;;;Buchungsbasiertes Smart Parking Management System Angesichts der wachsenden Zahl von Fahrzeugen in den Metropolen besteht heute ein hoher Bedarf an einem intelligenten Parkraummanagementsystem. Wenn die Leute ihr Ziel erreichen, verursacht die Suche nach einem Parkplatz, um ihr Fahrzeug selbst zu parken, viele Staus auf dem Parkplatz / den Straßen, die ihre kostbare Zeit kosten. Daher besteht ein Bedarf an einem intelligenten Parkmanagementsystem, das die Benutzer mit Informationen über die Verfügbarkeit von freien Parkplätzen am Eingang der von ihnen besuchten Orte wie Einkaufszentren, Organisationen usw. unterstützt, um Staus, Irritationen und Spannungen zu vermeiden. Das vorgeschlagene Lösungssystem in diesem Beitrag versucht, dies zu lösen, indem es die verfügbaren Parkplätze im Parkbereich mithilfe von IoT-Technologien erkennt und diese auf einer Webseite/Anzeige zur freundlichen Referenz des Benutzers anzeigt. Dieses System sieht auch vor, dass die Benutzer den freien Parkplatz kurz nach der Einfahrt in den Parkplatz buchen, löst so den internen Stau auf dem Parkplatz, spart wertvolle Zeit und entlastet die Menschen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7635-0_24 94de0e02d8d35ad946ae74117684510b;de;;;3.3.;;;Swingen mit den Java Foundation Classes Die Java Foundation Classes (JFC) sind ein fortschrittliches Framework von Klassen, das darauf abzielt, die Entwicklung und Bereitstellung von Anwendungen in kommerzieller Qualität zu vereinfachen. Teile des JFC sind bereits in Java 1.1 enthalten – sie beinhalten das neue Delegation Event Model und leichtgewichtige Komponenten. Das Herzstück des JFC ist jedoch Swing;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0607-4_21 c84c319bc35acbfefd801be6bde45f56;de;;;3.3.;;;Convolutional Neural Network-basierte Segmentierung demyelinisierender Plaques in der MRT In diesem Beitrag wird eine neue Architektur von Faltungsneuralnetzwerken vorgeschlagen. Es handelt sich um eine vollständig konvolutionelle Architektur, die es ermöglicht, die Größe des verarbeiteten Bildes konstant zu halten. Dies ermöglicht es folglich, es für Bildsegmentierungsaufgaben anzuwenden, bei denen für ein gegebenes Bild eine Maske erzeugt werden soll, die gesuchte Bereiche darstellt. Ein zusätzlicher Vorteil dieser Architektur ist ihre Fähigkeit, aus kleineren Bildern zu lernen, was die Datenmenge reduziert, die durch das Netzwerk verbreitet werden muss. Das trainierte Netzwerk kann weiterhin auf Bilder jeder Größe angewendet werden. Die vorgeschlagene Methode wurde zur automatischen Lokalisierung von demyelinisierenden Plaques in Kopf-MRT-Sequenzen verwendet. Diese Arbeit war, was hervorzuheben ist, nur dank der vom Radiologen bereitgestellten manuell umrissenen Plaques möglich. Um die Charakteristika des betrachteten Ansatzes darzustellen, wurden drei Architekturen und drei Ergebnisbewertungsmethoden diskutiert und verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94806-5_10 88714d3e93e2dd2e8880dc2dddbe5769;de;;;1.1.;;;Empirische KapitalmarktforschungDie heutige Zeit wird als das ‘Informationszeitalter’ bezeichnet. Es ist durch die digitale Verfügbarkeit und der damit möglichen raschen Verarbeitungsgeschwindigkeit von Informationen gekennzeichnet. Gerade im Bereich der Finanzwirtschaft sind die diversen Kapitalmarktdaten in Hülle und Fülle verfügbar. Das empirische Testen der aus der Theorie gewonnenen Implikationen stellt somit im Vergleich zu anderen Forschungsrichtungen in den Wirtschaftswissenschaften ein eher geringeres Problem dar. Aus der Verfügbarkeit der Informationen hat sich aber auch ein eigener Forschungsschwerpunkt innerhalb der Finanzwirtschaft sozusagen in Eigendynamik entwickelt: die empirische Kapitalmarktforschung. Ihre Bedeutung für die Entwicklung der Kapitalmarkttheorie ist nicht zu unterschätzen. Ist doch gerade die Finanzwirtschaft dadurch gekennzeichnet, daß die theoretische Forschung i.a.R. durch neue empirische Belege befruchtet und angetrieben wird. Die Empirie ist der Theorie sozusagen ständig einen Schritt voraus. Zur Ersichtlichmachung dieser Bedeutung wird im folgenden auch ein geschichtlicher Überblick über die Entwicklung der empirischen Kapitalmarkforschung im 20. Jahrhundert gegeben. Daran anschließend werden die empirisch festgestellten Belege in ihren Grundtendenzen dargestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-86275-4_4 58e4e61e2869287c021c6d54f39c4290;de;;;1.1.;;;Theoretische Modelle zum Verstehen pronominaler KoreferenzbeziehungenIm folgenden werden verschiedene Textrezeptionsmodelle dargestellt und in bezug auf ihre strukturellen und prozeduralen Gemeinsamkeiten und Unterschiede diskutiert. Da es in dieser Untersuchung speziell um die Herstellung pronominaler Koreferenzbeziehungen in aufeinanderfolgenden Äußerungen geht, d. h. um die Verarbeitung syntaktisch ungebundener anaphorischer Pronomen und deren Entwicklung, wird die Präsentation der Textverstehenstheorien auf solche beschränkt, die im Rahmen ihrer Modellbildung explizit auf die Verarbeitung anaphorischer Pronomen eingehen. Das sind vor allem die Modelle von van Dijk und Kintsch (1983), Just und Carpenter (1980, 1987), Sanford und Garrod (1981), Marslen-Wilson und Tyler (1980 a, b, 1982) sowie Strohner (1990). Die theoretischen Annahmen zur pronominalen Verarbeitung beim Textverstehen werden dann im dritten Kapitel im Zusammenhang mit Ergebnissen der experimentellen Forschung erörtert. In Auseinandersetzung mit den theoretischen und empirischen Erkenntnissen aus den Kapiteln zwei und drei werden grundlegende kognitive Strategien der pronominalen Verarbeitung beim Textverstehen für erwachsene Rezipienten entwickelt. Diese Strategien sind eine Funktion der Informationen, die zur pronominalen Verarbeitung zur Verfügung stehen. Was die Bedeutung dieser Strategien für diese Untersuchung angeht, so stellen sie den Versuch dar, diejenigen strukturellen und prozeduralen Bedingungen zu rekonstruieren, die bei Erwachsenen für die pronominale Koreferenzherstellung während des Textverstehens relevant sind. Daneben erfüllen sie aber zugleich auch eine Funktion im Blick auf die Frage nach der Entwicklung der pronominalen Verarbeitung beim Diskursverstehen insofern, als sie den Endzustand bzw. das Ziel dieser Entwicklung charakterisieren. Die Beschreibung der Strategien dient dazu, die in den einzelnen Altersgruppen zu beobachtenden Vorgehensweisen bei der Koreferenzherstellung darzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-94939-4_3 cef7d99f73a192b1a77916ad979edbdd;de;;;1.1.;;;Redaktionelles QualitätsmanagementIn den nächsten Kapiteln werden die theoretischen Grundlagen für die anschließende empirische Untersuchung gelegt. Dieses Kapitel behandelt das redaktionelle Qualitätsmanagement, Kapitel 3 den Videojournalismus. Die anschließende Hypothesenbildung (Kapitel 4) führt beide Teile zusammen und leitet zur empirischen Untersuchung über.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-5585-8_2 58d72007605820a11abbc56e39181f29;de;;;3.3.;;;Erforschung des Online-Lehrsystems von Hochschulen basierend auf Cloud Computing Cloud-Computer mit seiner übergroßen Größe, Vielseitigkeit, hohen Zuverlässigkeit und anderen technischen Eigenschaften und Vorteilen hat eine breite Perspektive für die Anwendung von Technologie im Bildungsbereich eröffnet, die dazu beiträgt, den Widerspruch zwischen der Konstruktion von Lehrmitteln und Anwendungsdienste. Basierend auf dem Servicemodell von Cloud-Computern und der Analyse des Anwendungsbedarfs von Cloud-Computing konstruiert dieser Beitrag systematisch die wissenschaftliche Forschung zum Japanischunterricht usw , das eine wichtige strategische Bedeutung für die Optimierung, Integration, Co-Konstruktion und gemeinsame Nutzung japanischer Lehrressourcen hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-51431-0_60 86a44e2dc2939bed33d4cb2d407ecbf7;de;;;3.3.;;;Das Potenzial von On-Chip-Speichersystemen für zukünftige Vektorarchitekturen Das vorteilhafteste Merkmal moderner Vektorsysteme ist ihre hervorragende Speicherleistung im Vergleich zu skalaren Systemen. Diese Funktion bringt sie zu ihrer dauerhaften Systemleistung bei der Ausführung von realen Anwendungscodes, die in den Bereichen der fortgeschrittenen Wissenschaften und Ingenieurwissenschaften weit verbreitet sind [9],[10],[1]. Allerdings erzeugen die jüngsten Trends in der Halbleitertechnologie einen starken Gegenwind für Vektorsysteme. Dank der historischen Wachstumsrate des On-Chip-Siliziumbudgets, dem sogenannten Mooreschen Gesetz, steigt die Prozessorleistung in Bezug auf Flop/s-Raten bemerkenswert, aber die Speicherleistung kann ihr nicht folgen [2]. Bei Vektorsystemen sinken ihre Byte/Flop-Raten, die das Gleichgewicht zwischen Flop/s-Leistung und Speicherbandbreite zeigen, von 8 B/Flop im Jahr 1998 auf 4 im Jahr 2003 und auf 2 im Jahr 2007 Bandbreite beeinträchtigt die dauerhafte Systemleistung auch bei Vektorsystemen gravierend [3], obwohl ihre absolute Leistung bis zu einem gewissen Grad ansteigt. Die Speicherleistung wird definitiv zu einem der Schlüsselpunkte für das Design zukünftiger hocheffizienter Vektorarchitekturen, um in einer Ära von Mehrkernprozessoren zu überleben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74384-2_18 387b072a40da535d8b6de687666a4e58;de;;;3.3.;;;Plattformübergreifende Anwendungsentwicklung mit AXIOM als agilen modellgetriebenen Ansatz Die Entwicklung und Wartung von plattformübergreifenden mobilen Anwendungen ist teuer. Zwei Ansätze zur Reduzierung dieser Kosten sind Model-Driven Engineering (MDE) und Agile Entwicklung. In diesem Whitepaper stellen wir AXIOM vor, einen modellgetriebenen Ansatz zur Entwicklung plattformübergreifender mobiler Anwendungen, der auch agile Prinzipien unterstützt. Unser Ansatz verwendet eine domänenspezifische Sprache (DSL) zur Definition plattformunabhängiger Modelle (PIM) von mobilen Anwendungen. AXIOM definiert einen mehrphasigen, anpassbaren Transformationsprozess, um plattformunabhängige Modelle in native Anwendungen für mobile Zielplattformen umzuwandeln. Unser Ansatz könnte die Entwicklungszeit und -kosten erheblich reduzieren und gleichzeitig die Qualität mobiler Anwendungen erhöhen. Ein Prototyp-Tool wurde entwickelt, um die Machbarkeit des Ansatzes zu demonstrieren. Die vorläufigen Ergebnisse sind vielversprechend und zeigen deutliche Produktivitätsgewinne in der Entwicklung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45404-2_3 5ccef56bcffffe96fd5512a671fba5ca;de;;;1.1.;;;„Implicit Diagnostics“ — Die Fenster zum Unbewussten öffnenZwischen dem, was Konsumenten sagen und dem, wie sie sich verhalten, besteht häufig eine große Diskrepanz. Verantwortlich sind unbewusste Prozesse, die mit Standardmethoden der Marktforschung nur schwer messbar sind. Nach den Erkenntnissen der Neuropsychologie ist es aber gerade die implizite Ebene, auf der Marketingmaßnahmen ihre Wirkung entfalten. Das Methodenrepertoire muss daher um Verfahren ergänzt werden, die geeignet sind, implizite Wirkungen beim Verbraucher zu messen und zu quantifizieren. Grundlagen und Anwendungspotenzial innovativer Ansätze.;-;-;-;https://link.springer.com/article/10.1007/s11621-008-0104-0 8592826770a37e105a9d9fa8749618ad;de;;;1.1.;;;Qualitätssicherung in der Medizin — Ziele und ForschungsbedarfDie Qualitätssicherung in der Medizin ist sicher kein eigenständiges, in sich abgeschlossenes Forschungsgebiet. Lediglich die Probleme und ihr gedanklicher Lösungsansatz lassen sie als Einheit erscheinen. Dieser aber ist fächerübergreifend und bedient sich u. a. der Methoden der Informationsverarbeitung, Biometrie, Epidemiologie und Gesundheitssystemforschung. Überall dort, wo sich das ärztliche Handeln auf gesichertes medizinisches Wissen stützen kann, läßt sich die Qualität beurteilen und können Maßnahmen zu ihrer Sicherung und — wenn notwendig — Verbesserungen entwickelt und in den ärztlichen Alltag eingeführt werden. Damit sind 2 der Hauptschwierigkeiten ärztlicher Qualitätssicherung aufgezählt: die Definition gesicherten Wissens - benötigt zur Auswahl der Anwendungsfelder und der Messung der Qualität — und die Kontrolle bzw. Intervention eines laufenden Prozesses. Inbesondere im zweiten Punkt unterscheidet sich die Qualitätssicherung von der medizinischen Forschung im üblichen Sinn.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-70910-4_20 19e58f71addba3d5425d9686082bd8ac;de;;;1.1.;;;Knowledge Discovery in Databases im Anwendungskontext ÄnderungsmanagementAuf Basis der bislang dargestellten Resultate wird in diesem Kapitel aufgezeigt, wie das Domänenwissen sowie derzeitige Methoden des KDD zur Analyse von Daten aus dem Änderungsmanagement genutzt werden können. Aus Wissenschaftsperspektive interessant ist, dass in der bisherigen Literatur so gut wie keine empirischen Ergebnisse zu den hier behandelten Fragestellungen veröffentlicht sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-02002-6_5 6a0f7a80af4e8a62865b2781b7e1740d;de;;;1.1.;;;Wirkung emotionaler Erlebnisse im Dienstleistungserstellungsprozess — eine konzeptionelle Analyse zur Integration kognitiver und emotionaler BewertungsprozesseDie Industrienationen — und darunter insbesondere die westlichen — vollziehen einen tief greifenden Veränderungsprozess, der sämtliche gesellschaftlichen Bereiche betrifft (Weinberg 1995, Sp. 607f., Gensicke 1996). Mit Blick auf das Konsumverhalten breiter Bevölkerungsschichten wird dabei auch immer wieder die Erlebnisorientierung beim Konsum hervorgehoben. Diese Erlebnisorientierung ist als Bedürfnis nach emotionaler Anregung beim Individuum zu verstehen, das sich auch in der Suche nach emotionalen Konsumerlebnissen niederschlägt (Kroeber-Riel 1986, S. 1139).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-91284-8_13 0785813f481a54e777c63326cbd8c9a5;de;;;3.3.;;;Techniken für die Synthese adaptiver Grafikanwendungen basierend auf der Variabilitätsmodellierungstechnologie und der Graphentheorie Der rasante Anstieg der Komplexität von Softwaresystemen in den letzten Jahrzehnten führt unweigerlich zu einer Verlagerung der Aufmerksamkeit von Programmiertechniken und Ansätzen hin zu Prinzipien des System Engineering. Da komplexe Softwaresysteme recht teuer sind, wird eine lange Lebensdauer erwartet. Systeme mit verlängerter Lebensdauer sollen sich an Veränderungen in Themengebiet und Umgebung anpassen können und auch zur Einsparung von Humanressourcen beitragen. Das Problem der Lebensdauerverlängerung für interaktive Softwaresysteme, die eine grafische Darstellung von Daten (insbesondere dreidimensionale Grafiken) verwenden, wie beispielsweise virtuelle Simulatoren, Trainingssysteme und andere ähnliche Systeme, ist von aktuellem Interesse. Das Hauptziel besteht darin, Techniken zu entwickeln, die darauf abzielen, die Anpassungsfähigkeit solcher Systeme zu erhöhen. Dies wird eine weitere Prozessentwicklung fortschrittlicherer Designtechnologien für die Software mit einer verlängerten Lebensdauer ermöglichen. Die Hauptherausforderungen der diskutierten Forschung umfassen: (1) einen Überblick über aktuelle Techniken des adaptiven Softwaredesigns zu geben, (2) die Hauptprobleme im Zusammenhang mit der Entwicklung von Computersoftwaresystemen mit verlängerter Lebensdauer zu identifizieren, (3) neue Techniken vorzuschlagen zur Synthese adaptiver Softwaresysteme mit grafischer Datendarstellung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-65551-2_33 32a41cfd4b36a975cdb0bb60426a6376;de;;;1.1.;;;Diversity – diskutieren oder tabuisieren? Eine explorative Studie in IndienIn Ergänzung zu vorliegenden Unterscheidungen innerhalb der Diversity-Forschung wird hier erstmals die Unterscheidung einer tabuisierten von einer nicht-tabuisierten Diversity eingeführt. Die Legitimierung dieser Unterscheidung ergibt sich daraus, dass – so die zentrale Annahme – tabuisierte Diversity mit einer Konfliktverschiebung, nicht-tabuisierte Diversity dagegen mit einer Konflikteskalation einhergeht. Für die Praxis des Managements ist diese Unterscheidung wichtig, um die Risiken des globalen Trends zu mehr Diversity genauer einschätzen zu können. An einer Stichprobe von N = 96 Schulen im Bundesstaat Kerala in Südindien zeigte sich im Sinne der Konflikteskalations-These, dass die nicht-tabuisierte gewerkschaftliche Diversity mit gruppeninternen Spannungen positiv beschleunigt verbunden ist. Im Sinne der Konfliktverschiebungs-These zeigte sich, dass die nicht-tabuisierte gewerkschaftliche Diversity mit gruppeninternen Konflikten besonders eng verbunden ist, wenn zugleich die tabuisierte religiöse Diversity hoch ausgeprägt ist. Zur Erklärung der Befunde wird einerseits auf die Besonderheiten der Stichprobe in Kerala eingegangen. Zur Formulierung von Managementimplikationen wird andererseits präzisiert, in Bezug auf welche Diversity-Arten in Deutschland analoge Konstellationen vorzuliegen scheinen und welche Konsequenzen hieraus für das Management erwachsen.;-;-;-;https://link.springer.com/article/10.1007/s12354-011-0147-z eaeec2de92da250a606c0d2edb8ce991;de;;;1.1.;;;Epidemiologische Methoden in der ArbeitsmedizinDas Spektrum der epidemiologischen Methoden in der Arbeitsmedizin erstreckt sich von der Berechnung deskriptiver Maßzahlen bis hin zur Anwendung multivariater Modelle. Das primäre Ziel einer epidemiologischen Studie in der Arbeitsmedizin ist, die Hypothese zu prüfen, ob von dem Umgang mit einem bestimmten Arbeitsstoff oder von den Arbeitsbedingungen (Exposition) ein gesundheitliches Risiko für die Beschäftigten ausgeht. Unter Risiko versteht man die bedingte Wahrscheinlichkeit, daß eine zu einem Zeitpunkt t;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-00879-9_25 c514e5516f1adcd749898364f5c4fe5e;de;;;1.1.;;;„The phenomenon exhibits its staff as a population“ – Die reflexive Akteurskonzeption der EthnomethodologieDie Ethnomethodologie (EM) beansprucht ohne Frage eine Sonderstellung innerhalb der Soziologie und nimmt diese auch ein: Bis heute distanziert sie sich vehement zu allen existierenden Sozialtheorien und Forschungspraktiken als „inkommensurable Alternative“ (Garfinkel 1996, 2002). Entsprechend werden Ethnomethodologen bisweilen als kaum auf Austausch bedachter Kreis von Außenseitern wahrgenommen. Nich tsdestotrotz hat sie unzweifelhaft wichtige Impulse für die Entwicklung der Soziologie in der zweiten Hälfte des letzten Jahrhunderts gesetzt – oder diese zumindest nachhaltig irritiert – und sich dabei als eigenständiger Zweig etabliert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-93463-1_7 a103f800db36b3b6328c45100fed1261;de;;;1.1.;;;Klimawandel und Gesellschaft. Vom Katastrophen- zum Gestaltungsdiskurs im Horizont der postkarbonen GesellschaftWährend der anthropogene Klimawandel für die Naturwissenschaften einfach ein komplexes Faktum darstellt, bemühen sich die Sozialwissenschaften um eine Rekonstruktion der Art und Weise, wie soziale Systeme und Akteure Klima als soziales Faktum herstellen und verändern. Die Schwierigkeit des gegenseitigen Verständnisses und der – leider noch immer zu seltenen – transdisziplinären Zusammenarbeit zwischen diesen beiden großen Wissenschaftskulturen besteht nicht zuletzt darin, dass viele Naturwissenschaftler in dem spezifisch sozialwissenschaftlichen Zugang zur Klimaproblematik rasch deren „Auflösung“ in allerlei tendenziell als willkürlich und irrelevant eingestufte Idealismen bzw. Nebenfragen verstehen, während viele Sozialwissenschaftler oft an der sozialen „Blindheit“ und politischen „Naivität“ der Naturwissenschaften verzweifeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-92258-4_5 97b1b8dc9c47fee107229ae94207a1ea;de;;;1.1.;;;Abgrenzung des Aktionsfeldes in sachlicher HinsichtDas gesamte unternehmerische Entscheidungsfeld umfaßt eine Fülle in unterschiedlicher Weise miteinander verschlungener Projektmöglichkeiten, deren Einzelaktivitäten und ergebnismäßige Auswirkungen sich über einen zumeist in seinen Grenzen gar nicht absehbaren zukünftigen Zeitraum erstrecken. Die Vorstellung eines Modells, das dieses Entscheidungsfeld in seiner gesamten sachlichen Breite und zeitlichen Tiefe erfaßt, sei als ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-83591-8_4 fccfc6f582b6725d46cc7392c4fd1d47;de;;;1.1.;;;Ansätze der modernen Institutionenökonomik als AnalyserahmenDie Anwendung des Theoriegebietes der modernen Institutionenökonomik hat — wie zu zeigen sein wird — den Vorzug, wichtige Teile der zukünftigen europäischen Währungsordnung differenzierter abzubilden, als es mit Hilfe des herkömmlichen neoklassischen Analyserahmens möglich ist. Denn eine neoklassische Analyse hat vor allem damit zu kämpfen, daß sich ihre Dimensionen hauptsächlich ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-97631-4_5 364be28fe9015fcc08008421aa4e474a;de;;;1.1.;;;Sechste Begegnung mit DEDUC: Folgenabschätzung und Folgenbewertung in der EntwicklungsplanungDie nächste Begegnung mit DEDUC führt zum Umgang mit einem mittelgroßen Modell (ca. 300 Implikationen). An diesem Beispiel soll der Prozeß systematischer Modellkonstruktion gezeigt werden. Die sechste Begegnung mit DEDUC führt uns nach Mexiko, wo in den siebziger Jahren der Aufbau einer Erdölindustrie große Hoffnungen geweckt hatte. Nach der Ölkrise von 1979 und dem Verfall der Ölpreise Anfang der achtziger Jahre muß Mexiko im Rahmen seiner Entwicklungsplanung über den sinnvollsten Einsatz seiner knappen Ressourcen entscheiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-96858-6_13 3374528a9cafd0984c8f8cab84b599c1;de;;;1.1.;;;ProduktionsprogrammplanungDie Produktionsprogrammplanung ist eine rollierende Planung, die periodisch (bspw. monatlich) durchgeführt wird. Die Planungsperioden werden dabei gegenüber der letzten Planung jeweils um eine Periode in die Zukunft fortgeschrieben. Planungshorizont und -genauigkeit können je nach Branche bzw. Fertigungstyp, der zu planenden Erzeugnisse und Komponenten unternehmensspezifisch sehr verschieden sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54288-6_2 9f0e31684a7fdd908d5cbcbfd1daa18a;de;;;1.1.;;;Diskussion der Ergebnisse und Implikationen für Forschung und PraxisIm Folgenden werden (1) die Ergebnisse der Studie zusammengefasst, wird (2) auf Limitationen der Untersuchung eingegangen, um dann (3) die Befunde vor dem Hintergrund der theoretischen Überlegungen zu diskutieren und Implikationen für die Forschung und (4) die Praxis abzuleiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-9731-9_5 17fc0f2a6828fea5ef08d1e96834ef67;de;;;3.3.;;;Programmierung für wissenschaftliches Rechnen auf heterogenen Parallelsystemen im Peta-Maßstab Hochleistungs-Computing-Systeme im Peta-Maßstab werden zunehmend mit heterogenen CPU- und GPU-Knoten gebaut, um eine höhere Energieeffizienz und einen höheren Rechendurchsatz zu erzielen. Diese Systeme bieten zwar beispiellose Möglichkeiten zur Durchführung von Rechenexperimenten von historischer Bedeutung, sind jedoch derzeit schwer zu programmieren. Die Benutzer, die eher Domänenexperten als Computerexperten sind, verwenden lieber Programmiermodelle, die näher an ihren Domänen (z. B. Physik und Biologie) als MPI und OpenMP sind. Dies hat zur Entwicklung einer domänenspezifischen Programmierung geführt, die domänenspezifische Programmierschnittstellen bereitstellt, aber einige leistungskritische Architekturdetails abstrahiert. Basierend auf Erfahrungen im Entwurf von Großrechnersystemen wird in dieser Arbeit ein hybrides Programmier-Framework für wissenschaftliches Rechnen auf heterogenen Architekturen vorgeschlagen. Seine Designphilosophie besteht darin, einen kollaborativen Mechanismus für Domänenexperten und Computerexperten bereitzustellen, damit sowohl domänenspezifisches Wissen als auch leistungskritische Architekturdetails angemessen genutzt werden können. Zwei reale wissenschaftliche Anwendungen wurden auf TH-1A evaluiert, einem heterogenen CPU-GPU-System im Peta-Maßstab, das derzeit der fünftschnellste Supercomputer der Welt ist. Die experimentellen Ergebnisse zeigen, dass das vorgeschlagene Framework gut geeignet ist, um groß angelegte wissenschaftliche Computeranwendungen auf heterogenen CPU/GPU-Systemen im Peta-Maßstab zu entwickeln.;-;-;-;https://link.springer.com/article/10.1007/s11771-013-1602-z ca1a8594db4cadf28485e6f27fe1d7b6;de;;;3.3.;;;Die Architektur und Leistung eines stochastischen kompetitiven evolutionären neuronalen Baumnetzwerks Ein neues dynamisches baumstrukturiertes Netzwerk – der Stochastische Competitive Evolutionary Neural Tree (SCENT) – wird eingeführt. Das Netzwerk ist in der Lage, eine hierarchische Klassifizierung von nicht gekennzeichneten Datensätzen bereitzustellen. Der Hauptvorteil, den SCENT gegenüber anderen hierarchischen Wettbewerbsnetzwerken bietet, ist seine Fähigkeit, die Anzahl und Struktur der Wettbewerbsknoten im Netzwerk selbst zu bestimmen, ohne dass extern festgelegte Parameter erforderlich sind. Das Netzwerk erzeugt stabile klassifikatorische Strukturen, indem es sein Wachstum unter Verwendung lokal berechneter, stochastisch gesteuerter Heuristiken stoppt. Die Leistung des Netzwerks wird analysiert, indem seine Ergebnisse mit denen eines guten nicht-hierarchischen Clusterers und mit drei anderen hierarchischen Clusterern und seinem nicht-stochastischen Vorgänger verglichen werden. Die klassifizierenden Fähigkeiten von SCENT werden durch seine Fähigkeit demonstriert, eine repräsentative hierarchische Struktur zu erstellen, um eine breite Palette von Datensätzen zu klassifizieren.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008364004705 10801ef6f7301759b052244a6d89c238;de;;;3.3.;;;Eine Familie domänenspezifischer Sprachen für die integrierte modulare Avionik Im Bereich der Avionik finden wir komplizierte Softwareproduktlinien, die sowohl durch die Hardware der Flugzeuge als auch durch die Einhaltung strenger Standards eingeschränkt sind. Bestehende Universalsprachen sind kompliziert, da sie keine unnötigen Details auf niedriger Ebene verbergen. Diese Situation führt potenziell zu einem langwierigen Prozess in der Spezifikationsphase und dem Verlust der Kontrolle über die Qualität der Spezifikation selbst und möglicherweise zur Generierung inkonsistenter Produkte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29238-6_17 e63af49857f09280e8c3d0edcf30cae7;de;;;1.1.;;;Zur Frage nach der Natur von Phantomerlebnissen bei angeborener GliedmaßenverstümmelungEs wurden 17 Personen mit angeborener Gliedmaßenstummelbildung (Peromelie) untersucht, von denen nur eine Person phantomartige Erlebnisse angab. In der Weltliteratur sind damit bisher etwa 27 Fälle von Peromeliephantomen bekannt geworden.;-;-;-;https://link.springer.com/article/10.1007/BF00361229 3e79274a3d45c2f529f94173ca6809ee;de;;;3.3.;;;Ein allgemeines Internet-of-Thing-System mit Personenemotionserkennungsfunktion Dieses Papier schlägt ein Internet-der-Dinge-System vor, das die Karte der Emotionen der Menschen auf dem Campus generieren kann. Das System kann die Emotionen einer Person identifizieren, die in einer Schule bleibt. Basierend auf der Bildabruf-, Gesichtserkennungs- und Emotionserkennungsmethode können die Emotionsinformationen abgerufen, in der Datenbank gespeichert und der Benutzer kann die Emotionsinstanz auf dem Campus durch das System abfragen. Die Abfragefunktion wird zu einem bestehenden System zusammengefasst, das die Autoren zuvor vorgeschlagen haben. Die Anwendung des Systems beinhaltet, dass der Professor die Aussage der Studenten beobachtet und den Lehrmodus sowie die Bewertung der Aktivitätsergebnisse anpasst. Einige Systemdemonstrationen werden auch in dem Papier gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9190-3_36 8da32bf3e374cdacc72bc595d42b0eb0;de;;;1.1.;;;Die Sponsoringwirkung in WerbeanzeigenDie Wirkung einer Sponsoringbotschaft hängt von den Umständen ab, in der sie vermittelt und empfangen wird. Beim Sponsoring kann man grundsätzlich drei verschiedene Wirkungszyklen voneinander abgrenzen: die Wirkung direkt beim Ereignis, die Wirkung bei der Berichterstattung durch die Medien und schließlich die Wirkung bei der kommunikativen Ausschöpfung des Ereignisses durch andere Werbeinstrumente (vgl. Baux 1991). In den Kapiteln A 3 und A 4 wurden die Erkenntnisse der Sponsoringforschung zusammengetragen, die sich insbesondere auf die ersten beiden Situationen beziehen, und aus ihnen Implikationen für den dritten Fall abgeleitet. Dieser Teil der Arbeit dient der weiteren Zusammenfuhrung der Sponsoringforschung mit der Wirkungsforschung zur klassischen Werbung. Er schließt mit der Formulierung eines Sponsoringwirkungsmodells der Werbung ab, das im empirischen Teil der Arbeit angewandt werden soll. Ausgangspunkt der Überlegungen ist das ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-9365-2_5 6cbbfeaa432973068a0b086220ea4b43;de;;;1.1.;;;Neuronen und GliazellenIn Kapitel 2 liegt der Fokus auf der Zellbiologie der Neuronen. Diese Grundlagen sind vor allem für Studierende ohne biologische Vorkenntnisse wichtig, stellen aber erfahrungsgemäß für fortgeschrittene Studierende eine hilfreiche Wiederholung dar. Anschließend wenden wir uns den strukturellen Eigenschaften zu, die die Nervenzellen und ihre unterstützenden Zellen so einzigartig machen, und gehen dabei besonders auf den Zusammenhang zwischen Struktur und Funktion ein. Außerdem stellen wir einige Meisterleistungen der Gentechnik vor, mit denen Neurowissenschaftler inzwischen routinemäßig die Funktionen der verschiedenen Typen von Nervenzellen erforschen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-57263-4_2 a83fc2d70bd27c73279abc2f9bd3b4c3;de;;;3.3.;;;Leistungsanalyse eines Cluster-basierten Websystems unter Verwendung der QPN-Modelle Der Beitrag stellt das clusterbasierte Websystem vor, bei dem die Zeitrate der Änderung eines Systemangebots mit der Interaktionszeit der Nutzer mit einem System verglichen wird. Systeme mit sich schnell änderndem Angebot werden in verschiedenen Bereichen einschließlich des elektronischen Handels verwendet, um skalierbare verteilte Systeme aufzubauen. In der Arbeit werden solche Systeme durch Aneinanderreihung von Petri-Netzen modelliert. Das Ziel dieser Arbeit war es, Simulationsmodelle von Internet-Systemen zu entwickeln, indem das Petri-Netz-Modellierungsumgebungswerkzeug zur Leistungsanalyse in eine Warteschlange gestellt wird. Entwickelte Modelle ermöglichen es, ihre Leistung (z. B. Reaktionszeit) zu bewerten. In unserer experimentellen Analyse verwenden wir eine geclusterte Webumgebung mit Apache DayTrader Benchmark als E-Trading-System. Es half, die Parameter für die Simulationsmodelle zu bestimmen und anschließend die Simulationsergebnisse zu verifizieren. Das Papier enthält die ausgewählten Ergebnisse der Modellsimulation. Unser Ansatz prognostiziert die Leistung der gegebenen Anwendung, die auf einer ausgewählten Plattform bereitgestellt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09465-6_25 2c56f3bacdc94cbeea95c2d9c2e54871;de;;;3.3.;;;Studie zum proaktiven Verteidigungsmodell der Netzwerksicherheit basierend auf der Honey Pot-Technologie Um das Design der Netzwerksicherheit, die Angriffe von Hackern und Viren, die bei vielen Netzwerksicherheitsproblemen am meisten Kopfzerbrechen bereitet, zu verbessern, war dies keine gute Lösung, und es gibt einen zunehmenden ernsthaften Trend. Herkömmliche Netzwerksicherheitslösungen sind nicht in der Lage, die dringendsten Bedürfnisse der Menschen zu erfüllen. Sie müssen neue Produkte für die Netzwerksicherheit erforschen und entwickeln. In diesem Papier wird eine Art untersucht, die als Lockvogelsystem für Cyberangriffe, Honeypot- und Honeynet-Technologie verwendet werden kann, und in ein aktives Verteidigungsmodell eingeführt. Entwerfen Sie dann ein neues aktives Verteidigungssystemmodell für die Netzwerksicherheit und erhalten Sie ein spezifisches Design.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34041-3_2 a71b423a889d1130ae1fb5dabec740d2;de;;;3.3.;;;Auf dem Weg zu einer wertorientierten Geschäftsmodellierung auf Basis von Service Brokerage Service Engineering ist ein aufstrebendes interdisziplinäres Fach, das Geschäftsmodelle, Wissensmanagement und Wirtschaftsanalyse querschneidet. Um die Profitziele der Serviceanbieter zu erreichen, muss die Servicesystemmodellierung sowohl die kurz- als auch die langfristige Kundenzufriedenheit berücksichtigen. Die Ideologie des werteorientierten Designs passt gut zu diesem Bedarf. Wir schlagen vor, auf ein wertorientiertes Design hinzuarbeiten, indem wir eine Form von Service-Design-Mustern einführen, die wir nennen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06859-6_15 e086f99d404be3b03aa66b640969fb4e;de;;;3.3.;;;Parallele FEM-Anpassung auf hierarchische Architekturen Das Parallel-FEM-Paket NuscaS ermöglicht es uns, adaptive FEM-Probleme mit unstrukturierten 3D-Netzen auf Parallelcomputern mit verteiltem Speicher wie PC-Clustern zu lösen. In unseren vorherigen Arbeiten wurde eine neue Methode zur Parallelisierung der FEM-Anpassung vorgestellt, die auf der Verwendung der 8-Tetraeder-Längste-Kante-Partition basiert. Dieses Verfahren beruht auf einem dezentralisierten Ansatz und ist im Vergleich zu früheren Implementierungen, die einen zentralisierten Synchronisationsknoten erfordern, besser skalierbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31464-3_20 992400666a308e0f06fbe76f8162b857;de;;;3.3.;;;Softwaredesign für Netzwerküberwachungssystem In diesem Artikel wird Software für ein Netzwerküberwachungssystem der neuen Generation entwickelt, indem die aktuellen Hauptprobleme in Netzwerküberwachungssystemen analysiert werden. Durch die Realisierung der Funktionen des Systems stellt dieses Papier konkrete Implementierungspläne zur automatischen Extraktion von Merkmalserkennung, automatische Förderung von Identifizierungsverfahren und Identifizierungsvorschriften, flexible Breitbandüberwachung, Unterstützung der Reinigung von abreinigbarem Flussmittel und Analyse der Leistung des Netzwerks und entscheidendes Geschäft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34041-3_7 512ceb009b6f708627fc5d826504ee79;de;;;1.1.;;;Interkulturelle Kompetenz in der Sozialen ArbeitIn der Sozialen Arbeit ist das Konzept der interkulturellen Kompetenz mit größerer Skepsis als beispielsweise in der Fremdsprachendidaktik oder Betriebswirtschaftslehre diskutiert worden. Seine Implikationen wurden zunächst kritisch mit bereits in den 70er und 80er Jahren entwickelten Theoremen der interkulturellen und antirassistischen Pädagogik abgeglichen. Der Versuch einer weiteren Ausformulierung und Präzisierung des Konzeptes in Auseinandersetzung mit den daher stammenden Einwänden scheint uns lohnender als die Suche nach Umschreibungen oder Ersatzbegriffen wie dem des „kompetenten Handelns in der Einwanderergesellschaft“ (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-91113-7_6 7077dced8341b4c695fab8390f5534fd;de;;;1.1.;;;Klinische Beurteilungsebenen hirnorganischer Psychosyndrome: Zum Problem einer differenzierten BefunderhebungDie klinische Beurteilung eines Krankheitsbildes und seiner Modifikation unter einer therapeutischen Intervention ist ein synthetischer Akt, der eine Vielzahl von Beobachtungsebenen einbezieht. Formal entsprechen ihm am ehesten Instrumente wie das ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-71539-6_4 de7ba946777faaedf56d81de528f983b;de;;;1.1.;;;Sparsame StrategenIT-Outsourcing klingt nach effektiven Strukturen und niedrigen Kosten. Aber nur langfristig und gut geplante Maßnahmen lassen es nicht zum Bumerang werden. Von Klaus Straub und Martin Zierheim;-;-;-;https://link.springer.com/article/10.1007/BF03223701 08bcd8cbe4e46f898f2f56f2103c4b59;de;;;1.1.;;;Theorien der MassenkommunikationDie aktuelle Diskussion um die Wirkung der Medien insgesamt scheint unentschieden. Der Streit um Informationen, ihre Wertigkeit und ihre Wirkung ist letztlich vielleicht unlösbar, geht es doch um nichts Geringeres als Wahrheit und Macht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-96044-3_2 64a6194305201f0552c75bf6feb42e81;de;;;1.1.;;;Der unentschlossene Europawähler. Die Bedeutung von Mediennutzung und Erwartungen an den Wahlausgang für Unentschlossenheit oder Unsicherheit im individuellen WahlentscheidungsprozessWahlen sind entscheidende Höhepunkte im politischen Geschehen. Der Wahlkampf steigert sich mit dem näher rückenden Wahltag, die Anstrengungen der politischen Akteure nehmen zu, und die Medienberichterstattung intensiviert sich. Gleichzeitig stellt sich den Wählern immer drängender die Frage, wem sie ihre Stimme geben - sie müssen eine Wahlentscheidung treffen. Einige Wähler entscheiden sich erst in der Wahlkabine, andere wiederum wissen schon Monate oder gar länger zuvor, wen sie wählen werden — möglicherweise sogar, bevor die Kandidaten bekannt sind, weil sie ihrer sozialisierten Parteibindung folgen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-80726-7_11 3530ea58176a1c8ff47694739f539fae;de;;;1.1.;;;Motivation und Zielbindung mit Motto-Zielen im CoachingDie Frage, wie Ziele formuliert werden müssen, um handlungswirksam zu werden, ist seit vielen Jahren Gegenstand psychologischer Forschung. Bei vielen Therapieschulen, Beratungs- und Coachingmethoden gehört das Formulieren von Zielen zum festen Handwerkszeug. Eine gängige Lehrmeinung zur Zielformulierung ist, dass Ziele so konkret wie möglich sein müssen, das heißt, werden Ziele zu vage gefasst oder gleichen globalen Absichtserklärungen (beispielsweise ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-49483-7_44 f5f443091d76d655669843f1cbd5158a;de;;;3.3.;;;Verschlüsselung im TECB-Modus: Modellierung, Simulation und Synthese Das Wachstum des Internets als Vehikel für sichere Kommunikation hat dazu geführt, dass der Data Encryption Standard (DES) nicht mehr in der Lage ist, eine hohe Sicherheit für den Datenschutz zu bieten. Triple Data Encryption Standard (3DES) ist eine symmetrische Blockchiffre mit einem 192-Bit-Schlüssel, der vorgeschlagen wird, um DES weiter zu verbessern. Viele Anwendungen sehnen sich nach der Geschwindigkeit einer Hardwareverschlüsselungsimplementierung, während sie versuchen, die Flexibilität und die geringen Kosten einer Softwareimplementierung zu bewahren. In diesem Projekt wurde ein Single-Core-Modul verwendet, um die Verschlüsselung im Triple DES Electronic Code Book (TECB)-Modus zu implementieren, der mit der Hardwarebeschreibungssprache VHDL modelliert wurde. Die Architektur wurde in Altera EPF10K100EFC484-1 und EP20K200EFC672-1X für Leistungsuntersuchungen abgebildet und führte zu einer Verschlüsselungsrate von 102,56 Mbit/s, einer Flächennutzung von 2111 Logikzellen (25 %) und einer höheren maximalen Betriebsfrequenz von 78,59 MHz durch Implementierung auf dem größeren FPGA-Gerät EP20K200EFC672-1X. Es deutete auch darauf hin, dass die 3DES-Hardware 2,4-mal schneller war als ihr Software-Pendant.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77600-0_23 c558649780a1d952515c74b1ff1758e4;de;;;3.3.;;;Priorisierung des Stakeholder-Werts anhand von Metriken Angesichts der Realität von Ressourcenbeschränkungen beinhaltet die Softwareentwicklung immer eine Priorisierung, um festzulegen, was implementiert werden soll. Iterative und inkrementelle Entwicklungsmethoden erhöhen die Notwendigkeit, dynamische Priorisierungen zu unterstützen, um einen hohen Stakeholder-Wert zu identifizieren. In diesem Papier argumentieren wir, dass die aktuellen Priorisierungsmethoden die Daten nicht angemessen für den Stakeholder-Wert strukturieren können. Dieses Problem wird oft dadurch verschlimmert, dass es nicht gelingt, mehrere Standpunkte der Interessengruppen zu berücksichtigen. Wir schlagen eine Erweiterung einer bestehenden Priorisierungsmethode, der Wirkungsabschätzung, vor, um den expliziten Stakeholder-Wert besser zu erfassen und mehrere Stakeholder zu berücksichtigen. Ein wesentliches Merkmal ist die Verwendung absoluter Skalendaten für den Stakeholder-Wert. Wir verwenden eine kleine Fallstudie aus der Industrie, um diesen neuen Ansatz zu bewerten. Unsere Ergebnisse argumentieren, dass es eine bessere Grundlage bietet, um vorrangige Entscheidungen gegenüber den Implementierungsentscheidungen für Anforderungen und Designs zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23391-3_6 8ce6c650f289eb67794918e29a76239c;de;;;1.1.;;;Ereignisstudien zur Messung des TransaktionserfolgsAuf Grund der oben beschriebenen Zielsetzung einer M&A-Transaktion wird in dieser Arbeit die Methode der Ereignisstudie verwendet, um den Erfolg von M&A in der Logistikindustrie zu bewerten. Dieses Kapitel beschreibt die Methodik der Ereignisstudie und ist wie folgt aufgebaut: Kapitel 3.1 gibt eine Übersicht der Ereignisstudie und geht auf die Ermittlung der abnormalen Rendite (AR) als zentrale Messgröße des Transaktionserfolgs ein. Im weiteren Verlauf wird in Kapitel 3.2 die Methodik zur Berechnung der abnormalen Renditen festgelegt, bevor in Kapitel 3.3 erklärt wird, wie sie aggregiert und anschließend (Kapitel 3.4) auf statistische Signifikanz getestet sowie auf Determinanten des Transaktionserfolgs untersucht werden. In Kapitel 3.5 wird dann zum Abschluss Kritik an dem Forschungsansatz geübt und die auf Grund der Kritik notwendigen methodischen Anpassungen für die hier vorliegende Untersuchung dargestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-9980-1_3 9a73a2a37a0c30c3bb8c28adb5e4cc0d;de;;;1.1.;;;Strategische Kulturanalyse: Deutschland, Frankreich und die Transformation der NATO ist seit langem ein Terminus in der Sicherheitspolitik, und der Begriff wurde schon vor zweihundert Jahren von Clausewitz verwendet. Clausewitz meinte damit, dass nicht nur die Truppen, sondern auch die „Moral“ des Gegners ein Angriffsziel seien, und dass darüber hinaus selbst die rational ausgeklügeltsten Kriegsziele und Strategien von Regierungen keinen Wert hätten, wenn sie nicht auch die Gesellschaft mobilisieren könnten. Genau das hänge jedoch vom jeweiligen Nationalcharakter ab, wie das Napoleonische Volksheer, die ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-90229-6_2 d640aaddb5cb7f8ffb6ed826ff274418;de;;;1.1.;;;Die Theorie kognitiver DissonanzDie Theorie der kognitiven Dissonanz ist eine Konsistenztheorie. Darunter wird eine Klasse von Theorien verstanden, die das Streben der Menschen nach Widerspruchsfreiheit erklären. Menschen empfinden Spannungen unterschiedlichster Art als unangenehm, verbunden mit dem Bedürfnis diese Spannung abzubauen. Die Theorie kognitiver Dissonanz ist eine „kognitive Konsistenztheorie“, da es hier um Widersprüche zwischen Kognitionen geht und das Bedürfnis, kognitive Konsistenz herzustellen. Diese Theorie geht ursprünglich auf ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-6314-7_4 149f941bc14e711ed2300dd707e23f22;de;;;3.3.;;;UML-basierter Entwurfsfluss und Partitionierungsmethodik für dynamisch rekonfigurierbare Computersysteme Dynamisch rekonfigurierbare Computersysteme (DRCS) bieten einen Zwischenkompromiß zwischen Flexibilität und Leistung des Computersystementwurfs. Leider hat das Entwerfen von DRCS eine sehr komplexe und gewaltige Aufgabe. Der Mangel an Tools und Design-Flows hält Designer davon ab, die rekonfigurierbare Computertechnologie zu übernehmen. In diesem Artikel wird ein UML-basierter Entwurfsablauf für DRCS vorgeschlagen. Der vorgeschlagene Entwurfsablauf zielt auf die Beschleunigung der Ausführung funktionaler Algorithmen in DRCS und auf die Reduzierung der Komplexität und des zeitaufwendigen Aufwands beim Entwurf von DRCS ab. Das bemerkenswerteste Merkmal des vorgeschlagenen Entwurfsablaufs ist insbesondere eine HW-SW-Partitionierungsmethodik basierend auf dem UML 2.0-Sequenzdiagramm, genannt;-;-;-;https://link.springer.com/chapter/10.1007/11596356_49 f07d22b1ddb35f1413112f8348bfd8e5;de;;;3.3.;;;NEON-Krypto NEON ist ein Vektorbefehlssatz, der in einem Großteil der neuen ARM-basierten Tablets und Smartphones enthalten ist. Dieses Papier zeigt, dass NEON Hochsicherheitskryptografie mit überraschend hohen Geschwindigkeiten unterstützt. Normalerweise kommen Daten mit niedrigeren Geschwindigkeiten an, sodass die CPU Zeit für andere Aufgaben als die Kryptografie hat. In diesem Artikel wird insbesondere erklärt, wie ein einzelner 800-MHz-Cortex-A8-Kern verwendet wird, um die vorhandene NaCl-Suite hochsicherer kryptografischer Grundelemente mit den folgenden Geschwindigkeiten zu berechnen: 5,60 Zyklen pro Byte (1,14 Gbit/s) zum Verschlüsseln mit einem gemeinsamen geheimen Schlüssel, 2,30 Zyklen pro Byte (2,78 Gbit/s) zur Authentifizierung mit einem gemeinsamen geheimen Schlüssel, 527102 Zyklen (1517/Sekunde) zur Berechnung eines gemeinsamen geheimen Schlüssels für einen neuen öffentlichen Schlüssel, 624846 Zyklen (1280/Sekunde) zur Überprüfung einer Signatur und 244655 Zyklen (3269 /Sekunde), um eine Nachricht zu signieren. Diese Geschwindigkeiten verwenden keine geheimen Zweige und keine geheimen Speicheradressen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33027-8_19 c89ec3558caf7dd1238695dd41559db7;de;;;3.3.;;;Softwaresimulation von Aufzügen In diesem Dokument werden die Fahrmodi von Aufzügen simuliert. Die Simulationssoftware basiert auf der Greenfoot-Plattform und der Java-Technologie. Das Design verwandter Klassen wird durch UML-Diagramme beschrieben, die von Enterprise Architect-Tools erstellt werden. Die zugehörigen Methoden und Basisschnittstellen werden von Java programmiert. Das LSS-Modell (Lift Simulation Software) kann für Strategien zur Energieeinsparung von Aufzügen verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35211-9_41 dd425714ebf331fcd4b317227bd8fefe;de;;;1.1.;;;Netzintegration und Ladestrategien der ElektromobilitätIndividual e-mobility will not only change the view of mobility, it will also change the electric energy supply structure as well. A high penetration of electric vehicles leads to simultaneous and overlapping charging processes. If they are uncontrolled, they will in sum result in significant additional load peaks in the grid. This article covers the question of grid-friendly conditions for integration of e-mobility into the energy system. Major topics are an analysis of the user’s behavior and battery demands as well as grid conditions, at locations where charging occurs. Besides uncontrolled charging, the options of charging control and aspects of battery ageing are brought up within this paper.;-;-;-;https://link.springer.com/article/10.1007/s00502-011-0800-3 aab78661fa949fb74e66f47adf78e2c7;de;;;1.1.;;;Hürden zur AnspruchsformulierungVor dem Hintergrund der grundlegenden Ausführungen zur Definition und zur Charakterisierung des Bereichs Pharma-F&E einerseits und zum Lagebericht andererseits ist zu analysieren, welche weiteren Kriterien zur Formulierung eines Anspruchs an die Lageberichterstattung über den Bereich Pharma-F&E zu berücksichtigen sind. Weitere Kriterien ergeben sich aus einer Reihe in der Literatur diskutierter Probleme (Hürden), die bei Formulierung eines konkreten Anspruchs an die Lageberichterstattung, nicht nur zum Bereich Pharma-F&E, zu überwinden sind. Die Hürden sind in ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-6516-5_4 f486678c9198a8daa5770e445fa4d662;de;;;1.1.;;;Führung in OrganisationenKapitel 11 ist der Managementfunktion Führung und damit der Frage nach den Erfolgsbedingungen, Möglichkeiten und Grenzen der direkten sozialen Einflussnahme in Organisationen gewidmet. Das Kapitel folgt und rekonstruiert den Erkenntnisfortschritt, den die Führungsforschung im Hinblick auf die Praxis erfolgreicher Führung und deren theoretischer Erklärung bis heute vollzogen hat und startet mit den eher einfachen und traditionellen Vorstellungen von Führung, wie diese mit den Eigenschafts-, den Führungsstilansätzen und schließlich den situativen Theorien der Führung vorliegen. In diesen Konzepten wird Führung sehr stark mit Blick auf die Person der Führungskraft und deren (situativem) Verhalten versucht zu erklären. Mit der im vierten Abschnitt vorzustellenden attributionstheoretischen Wende und dem Konzept impliziter Führungstheorien wird die Bedeutung derjenigen, auf die Führung ausgeübt wird, für den Führungsprozess immer deutlicher und damit die Einsicht, dass zur Erklärung von Führung nicht nur Führende und Geführte, sondern insbesondere auch das Interaktionsgeschehen zu betrachten gilt. Die darauffolgenden Abschnitte widmen sich den drei zentralen Interaktionstheorien der Führung: dem Einflussprozessmodell, der LMX-Theorie sowie der Identitätstheorie der Führung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-26514-4_11 31daf08bc3a039f6a6a4d1b8a1b67fc2;de;;;1.1.;;;Entwicklung eines Faktormodells für US-AktienfondsZiel dieses Kapitels ist es, ein Mehrfaktorenmodell für amerikanische Anlagefonds der Kategorie US-Aktien zu spezifizieren. Anhand der historischen Returns der Fonds wird versucht, Risikofaktoren zu ermitteln, die möglichst viel der Portfoliorendite, welche nicht auf die Titelselektionsqualität des Fondsmanagements zurückzuführen ist, erklären. Letztlich soll damit eine Basis zur fairen Betrachtung des Fondsmanagements geschaffen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-9852-1_4 3d0b85c8c60a977397741cbf7e8d9341;de;;;3.3.;;;Ein massiv paralleler Keypoint-Erkennungs- und Beschreibungsalgorithmus (MP-KDD) für Hochgeschwindigkeits-Vision-Chips Dieses Papier schlägt einen massiv parallelen Keypoint Detection and Description (MP-KDD)-Algorithmus für den Vision-Chip mit parallelen Array-Prozessoren vor. Der MP-KDD-Algorithmus reduziert den Rechenaufwand weitgehend, indem er alle Gleitkomma- und Multiplikationsoperationen entfernt und gleichzeitig die derzeit populäre Essenz des SIFT- und SURF-Algorithmus bewahrt. Der MP-KDD-Algorithmus kann direkt und effektiv auf die Pixel-Parallel- und Zeilen-Parallel-Array-Prozessoren des Bildverarbeitungschips abgebildet werden. Die Vision-Chip-Architektur wird auch verbessert, um direkten Speicherzugriff (DMA) und Direktzugriff auf Array-Prozessoren zu realisieren, so dass der MP-KDD-Algorithmus effektiver ausgeführt werden kann. Ein FPGA-basierter Vision-Chip-Prototyp wird implementiert, um unseren MP-KDD-Algorithmus zu testen und zu bewerten. Seine Bildverarbeitungsgeschwindigkeit erreicht 600–760 fps mit hoher Genauigkeit für komplexe Bildverarbeitungsanwendungen wie die Szenenerkennung.;-;-;-;https://link.springer.com/article/10.1007/s11432-014-5174-9 1d1c93446aa3796816926526ab3c42c3;de;;;1.1.;;;Sensorische und intellektuelle Entwicklung im Alter: Ergebnisse der Bonner Längsschnittstudie des Alterns (BOLSA)Obwohl sich die Gerontologie durch große Interdisziplinarität auszeichnet (19), und häufig fachübergreifend geforscht wird, gibt es auch heute noch Bereiche, die weitgehend unverbunden nebeneinander stehen. Dies trifft in besonderem Maße für die Entwicklung des Seh- und Hörvermögens einerseits und der intellektuellen Leistungsfähigkeit andererseits zu. Die wenigen Arbeiten, die beispielsweise Zusammenhänge zwischen Sehschärfe und Intelligenz untersuchten, wurden an Erwachsenen und nicht an alten Personen durchgeführt und sind darüber hinaus in ihren Ergebnissen uneindeutig. Neben „Null-Korrelationen“ (20) wurden eher geringe Zusammenhänge gefunden (5, 7).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-87993-7_21 b6203613ad59d323fdc42534c1531ef6;de;;;1.1.;;;Die Bestimmung der Funktionalen Bedeutung Endogener HirnrindenpotentialeWenn Ereigniskorrelierte Hirnrindenpotentiale in der Psychologie oder Psychiatrie als ergänzende Untersuchungsmethode routinemäßig eingesetzt werden sollen, dann muß, wie im letzten Abschnitt bereits angedeutet, ein grundsätzliches Problem gelöst werden: Vorab ist es notwendig, daß die funktionale Bedeutung der einzelnen, als endogen eingeordneten Komponenten verbindlich definiert wird. Die exakte Bestimmung der funktionalen Bedeutung, also die eindeutige Zuordnung einer Teilfunktion der Informationsverarbeitung zu einem solchen hirnelektrischen Phänomen ist Voraussetzung für alle weiteren forschungsstrategischen Schritte. Erst wenn dieses Basisproblem für eine einzelne Komponente gelöst wurde, kann diese als abhängige Variable zur Untersuchung der im vorangegangenen Abschnitt umrissenen Fragen aus der Grundlagen- bzw. der angewandten Forschung genutzt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-68789-1_4 92ad5b3c0d174c7e2a509bfbf5f926fe;de;;;1.1.;;;WerbepsychologieVoraussetzung für ökonomischen Werbeerfolg ist das Kaufverhalten von Konsumenten. Dieses wiederum hängt von einer Vielzahl psychischer Einflussfaktoren ab, konsequenterweise wird in der Werbepsychologie erforscht, welche kognitiven und emotionalen Prozesse bei der Person – ausgehend von der dargebotenen Werbebotschaft – letztendlich zur Kaufentscheidung, zur Kaufabsicht und zum intendierten Kaufverhalten des Konsumenten führen. Hier sind neuere psychologische Forschungsansätze zur Informationsarchitektur des Menschen und zu dort herrschenden Gesetzmäßigkeiten gefragt. Nur solche Ansätze bieten die Gewähr, die Aufnahme und Verarbeitung kommunizierter Werbeinformationen hinreichend präzise vorhersagen und die Werbebotschaften im Hinblick auf die intendierten Wirkungen optimal gestalten zu können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-02541-0_2 e1d88fbc46202161561f0944a76e56ca;de;;;1.1.;;;KörperbildstörungenKörperbildprobleme sind ein Kernsymptom der Essstörungen Anorexia und Bulimia nervosa. So leiden Patienten mit diesen Essstörungen unter ausgeprägten Ängsten vor einer Gewichtszunahme und Störungen in der Art und Weise, wie die Figur und das Gewicht wahrgenommen und bewertet werden. Zudem können das Gewicht und die Figur ausgeprägten Einfluss auf die Selbstbewertung haben. Auch bei der Binge-Eating-Störung können Körperbildstörungen vorkommen, z. B. im Hinblick auf die Bewertung des Körpers und der Figur oder im Hinblick auf affektive Reaktionen gegenüber dem Körper. In dem Beitrag werden Befunde der Grundlagenforschung vorgestellt, die zu einem besseren Verständnis von Körperbildstörungen beitragen können und Implikationen für die Psychotherapie bieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54573-3_18 984fca3c3a25749044d3be0723e45cd3;de;;;3.3.;;;Objekterkennungssoftware mit RGBD-Kinect-Bildern und dem YOLO-Algorithmus für die mobile Roboternavigation Diese Arbeit stellt ein auf dem YOLO-Algorithmus basierendes Bildverarbeitungssystem vor, um statische Objekte zu identifizieren, die Hindernisse im Weg eines mobilen Roboters sein könnten. Um die Objekte und deren Entfernungen zu erkennen, wurde ein Microsoft Kinect Sensor verwendet. Darüber hinaus wurde eine Nvidia Jetson TX2-GPU verwendet, um die Leistung des Bildverarbeitungsalgorithmus zu erhöhen. Unsere experimentellen Ergebnisse zeigen, dass das YOLO-Netzwerk alle vordefinierten Hindernisse, für die es trainiert wurde, mit guter Zuverlässigkeit erkannt hat und die Berechnung der Entfernung unter Verwendung der von Microsoft Kinect zurückgegebenen Tiefeninformationen einen Fehler von unter 3,64% aufwies.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-49342-4_25 e600a06f31ec0ddb2521e97db5299beb;de;;;3.3.;;;Formalisierung neuer Navigationsanforderungen für das Space Shuttle der NASA Wir beschreiben ein kürzlich von der NASA gesponsertes Pilotprojekt, das darauf abzielt, die Wirksamkeit der Verwendung formaler Methoden bei der Analyse der Softwareanforderungen für Space Shuttles zu messen. Mehrere Change Requests (CRs) wurden als vielversprechende Ziele ausgewählt, um die Nützlichkeit formaler Methoden in diesem anspruchsvollen Anwendungsbereich zu demonstrieren. Ein CR zur Erweiterung des Shuttles um neue Navigationsfunktionen, basierend auf der Global Positioning System (GPS)-Technologie, steht im Mittelpunkt dieses Industrieeinsatzberichts. Teile des GPS CR wurden unter Verwendung der Sprache des Prototype Verification System (PVS) von SRI modelliert. Während einer begrenzten Analyse der formalen Spezifikationen wurden zahlreiche Anforderungsprobleme entdeckt. Wir präsentieren eine Zusammenfassung dieser ermutigenden Ergebnisse und Schlussfolgerungen, die wir aus dem Pilotprojekt gezogen haben.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-60973-3_86 52e82e7e67bcfb04ecbb6fcf8530398f;de;;;3.3.;;;Modellieren ethischer Regeln des Lügens mit Answer Set Programming Über die Annahmen und Grundlagen unterschiedlicher ethischer Regeln wurde in der Vergangenheit viel diskutiert. Zum Beispiel ist es gang und gäbe zu sagen, dass ethische Regeln Standardregeln sind, was bedeutet, dass sie Ausnahmen tolerieren. Einige Autoren argumentieren, dass Moral nur in bestimmten Fällen begründet werden kann, während andere die Existenz allgemeiner Prinzipien in Bezug auf ethische Regeln verteidigen. Unser Ziel ist es hier nicht, eine der beiden Positionen zu rechtfertigen, sondern zu versuchen, allgemeine ethische Regeln mit Formalismen der künstlichen Intelligenz zu modellieren und logische Konsequenzen verschiedener ethischer Theorien zu berechnen. Genauer gesagt ist dies ein Versuch zu zeigen, dass Fortschritte in der nicht-monotonen Logik, die das Standarddenken simuliert, einen Weg bieten könnten, unterschiedliche ethische Konzepte zu formalisieren. Aus technischer Sicht nutzt das in dieser Arbeit entwickelte Modell den Formalismus des Answer Set Programming (ASP). Es wird vergleichend auf verschiedene ethische Systeme hinsichtlich ihrer Haltung zum Lügen angewendet. Die Vorteile einer solchen Formalisierung liegen in zweierlei Hinsicht: Erstens, um Ideen und Annahmen zu klären, und zweitens, um mithilfe von Lösern automatisch Konsequenzen verschiedener ethischer Vorstellungen abzuleiten, was bei einem rigorosen Vergleich ethischer Theorien hilfreich sein kann.;-;-;-;https://link.springer.com/article/10.1007/s10676-006-9134-y 81d3f89b2014529c6bda833562187ae5;de;;;3.3.;;;Integration unbegrenzter Softwarekomponenten in harte Echtzeitsysteme Die Integration unbegrenzter Komponenten (d. h. Softwaremodule, die nicht analysiert werden können, um realistische Worst-Case-Ausführungszeiten zu erzielen) in harte Echtzeitanwendungen wurde als ein Schlüsselproblem für die nächste Generation von Echtzeitsystemen erkannt. In diesem Beitrag stellen wir ein Systemmodell vor, das die drei Hauptansätze zur Integration unbeschränkter Komponenten berücksichtigt: Meilensteinmethoden, Siebfunktionen und Mehrfachversionen. Dieses Modell ist machbar, da es von Schedulability-Tests unterstützt wird, die die begrenzten Aufgaben garantieren. Diese Tests sind im Papier definiert. Außerdem ist nur ein einfaches Laufzeitsystem erforderlich, das präventive, prioritätsbasierte Zuteilung verwendet. Der weit verbreitete Einsatz von Techniken wie der ungenauen Berechnung wird nur erfolgen, wenn sie in Standard-Software-Engineering-Methoden integriert werden, wir zeigen daher auch, wie die Techniken in Ada 9X realisiert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-585-26870-5_5 25a73ecc29ddc7f1d79cc157e032b209;de;;;3.3.;;;Ein Plug-in zum Blockieren von Bedrohungen für Open-Source-Lernmanagementsysteme Webbasierte Lernmanagementsysteme sind ebenso wie Webanwendungen Angriffen über das Internet ausgesetzt, die hauptsächlich darauf abzielen, auf eingeschränkte Daten für den illegalen Gebrauch zuzugreifen. Der Schutz vor solchen Bedrohungen wird im Bereich Webanwendungen untersucht und in den letzten Jahren stetig verbessert. Dennoch ist es gerade im Bereich sehr beliebter und einfach zu installierender Webanwendungen wie Content Management Systeme, Blogs und Open Source Learning Management Systeme üblich, ein installiertes System abzuwarten, um Schwachstellen in der Systemsoftware abzuwarten entdeckt und „Patches“ oder neue Systemversionen zur Installation bereitgestellt. Und dies kann auch in Fällen erforderlich sein, in denen keine neue Bedrohungstechnik entdeckt wurde, sondern nur ein anderer Teil der Systemsoftware als „schwach“ für diese Art von Angriff erkannt wurde. Hier geben wir einen Überblick über die gebräuchlichsten „Exploit“-Techniken, die bekanntermaßen verfügbar sind, und beschreiben eine prototypische Methodik, um bestimmte Learning-Management-Systeme (nämlich die Open-Source-Systeme, insbesondere solche auf Basis von PHP-Engines) mit einem stabileren Schutz auszustatten , was es unnötig macht, ein System in Eile zu patchen oder neu zu installieren, nachdem kleinere Schwächen aufgedeckt wurden. Das Plugin für ein System soll die Eingaben filtern, die vom Benutzer über einen Browser gesendet werden, und die Ausführung von Serveraktivitäten auf verdächtige Daten verhindern. Wir testen die Methodik auf Moodle, indem wir ein geeignetes Plug-In erstellen und den Erfolg zur Systemlaufzeit überprüfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13166-0_77 075f093b84446431942696120c9b20ce;de;;;3.3.;;;Steuersystemdesign zur Reduzierung des Rastmoments basierend auf einer sensorlosen Architektur In dieser Arbeit wird eine sensorlose Architektur basierend auf dem Extended Kalman Filter Observer und einem Feedback Linearization Control System vorgeschlagen. Diese Arbeit beweist, dass es auch bei einer sensorlosen Architektur (bei der nur die Messungen der elektrischen dynamischen Größen der Maschine verfügbar sind) möglich ist, von einer zuvor von den Autoren vorgeschlagenen Regelungslösung auszugehen, um das intrinsische Problem des Rastmoments zu reduzieren. Es werden Ergebnisse bezüglich des Trajektorienverfolgungsregelungsproblems auf der Gleichstromkomponente und auf der Rotorachsposition präsentiert. Eine Analyse des Anfangszustands der Rotorachsenposition zeigt, dass die Architektur robust gegenüber Variationen der Startbedingungen des globalen Systems ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37277-4_36 01c6e33f52901c7af463ae9a0cc5cf26;de;;;3.3.;;;Ein Alarmkorrelations-System für heterogene Netzwerke Heterogenes Netzwerkmanagement ist ein herausfordernder Bereich mit zunehmender Bedeutung. Das NetFACT-System bietet eine Plattform für die Korrelation von Alarmen und die Lokalisierung von Fehlern in einem heterogenen Netzwerk. NetFACT verwendet Verwaltungstechniken, die von der zugrunde liegenden Topologie des Netzwerks, den verwendeten Kommunikationsprotokollen und den bereitgestellten Alarmstrukturen unabhängig sind. In diesem Papier geben wir einen Überblick über die Architektur von NetFACT und diskutieren die Funktionen, die das Fehlermanagement in heterogenen Netzwerken ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-1298-5_33 371b0c18ea94caafba16f9e69008ca21;de;;;3.3.;;;Ein effizienter LBP-basierter Deskriptor für Gesichtstiefenbilder zur Geschlechtserkennung mit RGB-D-Gesichtsdaten RGB-D ist eine leistungsstarke Datenquelle, die die ausgerichteten Tiefeninformationen liefert, die ein großes Potenzial zur Verbesserung der Leistung verschiedener Probleme beim Bildverständnis haben, während Local Binary Patterns (LBP) hervorragende Ergebnisse bei der Darstellung von Gesichtern gezeigt haben. In diesem Artikel schlagen wir einen neuen effizienten LBP-basierten Deskriptor vor, nämlich Gradient-LBP (G-LBP), der darauf spezialisiert ist, die von 3DLBP inspirierten Gesichtstiefeninformationen zu kodieren, aber seine inhärenten Nachteile behebt. Der vorgeschlagene Deskriptor wird auf die Aufgabe der Geschlechtserkennung angewendet und zeigt seine Überlegenheit gegenüber 3DLBP in allen experimentellen Setups sowohl in Kinect- als auch in Entfernungsscanner-Datenbanken. Weiterhin ist ein gewichtetes Kombinationsschema des vorgeschlagenen Deskriptors für Tiefenbilder und dem Stand der Technik;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37410-4_12 6ed7d0e2aeff6298d1a06bdb4cf55108;de;;;3.3.;;;Implementierung eines Gebäuderekonstruktionsalgorithmus mit realen LIDAR-Daten Eine zunehmende Verwendung dreidimensionaler Punktwolken für die Gebäuderekonstruktion wird durch die Popularität des Airborne Laser Scanning (ALS) vorangetrieben. Laserscanning-Daten liefern schnelle und genaue Höhenmodelle von Gebäuden, Wäldern und Geländeoberflächen. Obwohl die erfassten Daten X-, Y- und Z-Koordinaten enthalten, ist das Datenvolumen riesig und liefert keine Gebäudeinformationen. Die Herausforderung besteht darin, die Punktwolken in CAD-Modelle umzuwandeln, die vertikale Wände, Dachebenen und Gelände enthalten, die schnell aus jedem 3D-Blickpunkt angezeigt werden können. Mit der Delaunay-Triangulation und ihrem dualen Voronoi-Diagramm wurde eine alternative Methode entwickelt, um Bausteine ​​zu lokalisieren und die Dachkonstruktionen zu identifizieren. Dieses Papier zeigt die Implementierung der Methode mit realen ALS-Daten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68566-1_17 eea9124ad9f89281deaab369a6933bcc;de;;;1.1.;;;Die Entwicklung von KonzeptenShawna , ein Mädchen von acht Monaten, krabbelt ins Schlafzimmer ihres sieben Jahre alten Bruders. Das Zimmer enthält viele Gegenstände: ein Bett, eine Kommode, einen Hund, einen Baseball samt Fanghandschuh, Bücher, Hefte, Schuhe, schmutzige Socken und dergleichen mehr. Für Shawnas Bruder enthält der Raum Möbel, Kleidung, Gedrucktes und Sportsachen. Aber wie sieht der Raum für Shawna aus?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-47028-2_7 b422ab9b0f7d86ac17b742d60c922e33;de;;;3.3.;;;Komponentensynthese aus Leistungsverzeichnissen Korrekte Komponentenmodelle für verteilte, reaktive Systeme sind schwer zu konstruieren. Typischerweise entstehen die von solchen Systemen bereitgestellten Dienste aus der Interaktion und Zusammenarbeit mehrerer Komponenten, wobei jede Komponente im Allgemeinen zu mehreren Diensten beiträgt. Folglich sind Dienste und ihre definierenden Interaktionsmuster Schlüsselelemente im Entwicklungsprozess für verteilte Systeme: Sie enthalten die Querschnittsaspekte der Zusammenarbeit, die auf Komponentenebene nur unzureichend erfasst werden. Typische Modellierungs- und Entwicklungsmethoden und zugehörige Notationen, wie die UML, konzentrieren sich jedoch auf die Spezifikation vollständiger Informationen über Komponenten und nicht auf die Teilansicht von Diensten. In diesem Beitrag geben wir eine präzise Definition des Begriffs Service anhand von Interaktionsmustern. Anhand der CTAS-Fallstudie demonstrieren wir systematische Entwicklungsschritte, die von der Servicespezifikation bis zur Komponentenimplementierung führen, und zeigen auch, wie aus Interaktionsmustern, die Services definieren, automatisch prototypische Zustandsautomaten synthetisiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/11495628_14 89486d676f0988933ea342ece62659ac;de;;;3.3.;;;Komponentenspezifisches Mapping für leistungsarmen Betrieb bei Variation und Alterung Traditionelle Lösungen für Variation und Alterung kosten Energie. Das Hinzufügen statischer Spielräume, um eine hohe Gerätevarianz und eine potenzielle Gerätedegradation zu tolerieren, verhindert eine aggressive Spannungsskalierung, um Energie zu reduzieren. Die Konfiguration nach der Herstellung, wie wir sie bei FPGAs haben, bietet die Möglichkeit, die hohen Kosten statischer Margen zu vermeiden. Anstatt Geräteeigenschaften im schlimmsten Fall anzunehmen, können wir Geräte basierend auf ihren hergestellten oder gealterten Eigenschaften bereitstellen. Dies ermöglicht es uns, die Hochgeschwindigkeits-/Leaky-Geräte je nach Bedarf auf kritischen Pfaden und langsamere/weniger Leckage-Geräte auf unkritischen Pfaden zu platzieren. Als Ergebnis wird es möglich, die Systemzeitgebungsanforderungen bei niedrigeren Spannungen als bei konservativen Spielräumen zu erfüllen. Um diese Konfigurierbarkeit nach der Herstellung zu nutzen, müssen wir die Zuweisung logischer Funktionen zu Ressourcen basierend auf den Ressourceneigenschaften einer bestimmten Komponente anpassen, nachdem diese hergestellt und die Ressourceneigenschaften bestimmt wurden, d. h.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-7418-1_12 5fcb83eba0fdcc077dcf54ded0a2e56f;de;;;3.3.;;;Parallele asynchrone Fokalebenen-Array-Verarbeitung Es wird ein neuer Ansatz für die Brennebenenbearbeitung auf der Grundlage von Bauelementen im Silizium-Injektionsmodus vorgeschlagen. Diese Geräte bieten eine natürliche Grundlage für die parallele asynchrone Bildvorverarbeitung in der Brennebene. Die Einfachheit und die neuartigen Eigenschaften der Vorrichtungen würden es ermöglichen, jedem Pixel einen unabhängigen analogen Verarbeitungskanal zuzuweisen. Eine laminare Architektur, die aus Arrays der Vorrichtungen aufgebaut ist, würde einen zweidimensionalen (2-D) Array-Prozessor mit einem 2-D-Array von Eingängen bilden, das sich direkt hinter dem Fokalebenen-Detektorarray befindet. Ein 2D-Bilddatenstrom würde sich in neuronenartiger asynchroner pulscodierter Form durch den laminaren Prozessor ausbreiten. In der Vorverarbeitungsstufe würde kein Multiplexen, keine Digitalisierung oder serielle Verarbeitung erfolgen. Es wird eine hohe Leistung erwartet, da bereits eine annähernd lineare Impulscodierung für Eingangsströme im Bereich von über sechs Größenordnungen bis hinunter zu einem Pikoampere mit einem Rauschen bezogen auf den Eingang von etwa 10 Femtoampere beobachtet wurde. Sehr niedrige Leistungsanforderungen lassen auf eine Nützlichkeit im Weltraum und in Verbindung mit sehr großen Arrays schließen. Eine multispektrale Verarbeitung ist aufgrund der Kompatibilität mit der kryogenen Umgebung von Hochleistungs-Infrarotdetektoren möglich.;-;-;-;https://link.springer.com/article/10.1007/BF01010810 ee8dccf4be24bc902a8d0323059f29c1;de;;;1.1.;;;Kompositionale konstruierte InformationsmodelleIn Kapitel 4 werden kompositionale komponentenorientierte konstruierte Informationsmodelle eingeführt und damit werden die Grundlagen für systematische Kontextualisierungen und die damit möglich werdende uniforme Mikro- und Makromodellierung erläutert. Dazu wird deutlich gemacht, dass Wissen und Kenntnisse die Voraussetzung dafür sind Informationen und Daten realitätsgetreu zu erfassen und zu modellieren und um valide Abgrenzungen für einen Betrachtungsgegenstand zu erreichen. Sie sind damit nötig, um den „Überblick nicht zu verlieren“ und die in einem Modell zu berücksichtigenden Daten und Informationen so zu modellieren, dass die Komplexität der Modelle beherrschbar bleibt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-33185-6_4 f2465fe4a2de8ddcea97f42eb416cecf;de;;;1.1.;;;Soziale UrteilsbildungsprozesseIm Rahmen der vorliegenden Arbeit wird davon ausgegangen, dass Schülerstereotype existieren und dass die Schülerstereotype im Zusammenhang mit den Kontaktabsichten seitens der Mitschüler stehen. Des Weiteren wird angenommen, dass die Träger der Schülerstereotype auffallend gute oder schlechte soziale Positionen innerhalb ihrer Schulklassen einnehmen. Das vorliegende vierte Kapitel ist den zugrunde liegenden Prozessen der sozialen Urteilsbildung gewidmet, da die sozialen Kontaktabsichten eine Form von sozialen Urteilen darstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-16519-2_4 f105f85c34ce41adbaeb6ea557e44010;de;;;3.3.;;;Informationsübertragungsmodell der virtuellen Maschine basierend auf dem verdeckten Speicherkanal Mit dem Ziel, dass Informationen virtueller Maschinen nicht unvollständig extrahiert werden können, erweitern wir das typische Informationsextraktionsmodell virtueller Maschinen und schlagen einen Wahrnehmungsmechanismus in Virtualisierungssystemen vor, der auf einem verdeckten Speicherkanal basiert, um die Beeinträchtigung der semantischen Lücke zu überwinden. Unter Ausnutzung der Unauffindbarkeit des verdeckten Kanals wird ein sicherer Kanal zwischen Guest und Virtual Machine Monitor eingerichtet, um Daten direkt weiterzugeben. Der Gastcomputer kann mithilfe der VMCALL-Anweisung und des gemeinsam genutzten Speichers die Steuerinformationen des bösartigen Prozesses an den Virtual Machine Monitor weitergeben. Durch das Analysieren kritischer Informationen in der Prozesssteuerungsstruktur kann der Virtual Machine Monitor die schädlichen Prozesse beenden. Die Testergebnisse zeigen, dass der vorgeschlagene Mechanismus die Schadprogramme auf Benutzerebene in der virtuellen Maschine effektiv und verdeckt beseitigen kann. In der Zwischenzeit ist der Performance-Overhead ungefähr der gleiche wie bei anderen Mainstream-Überwachungsmodi.;-;-;-;https://link.springer.com/article/10.1007/s11859-013-0945-5 f7748a8e875ae9c1c49a26f713eb7abf;de;;;3.3.;;;Hindernisse für das Requirements Engineering bei der globalen Softwareentwicklung Die Entwicklung von Software, wenn sich Teammitglieder an weit verteilten geografischen Standorten befinden, stellt Entwickler vor viele Herausforderungen, insbesondere während der Phase des Requirements Engineering (RE). Anhand einer Fallstudie eines großen Softwareentwicklungsprojekts mit Benutzern im Vereinigten Königreich und Softwareentwicklern eines internationalen Softwarehauses mit Sitz in Neuseeland argumentiert der Artikel, dass die globale Nutzung elektronischer Kommunikationsmedien zwar wünschenswert sein kann, um Ressourcen zu sparen, aber soziale und kulturelle Aspekte von RE müssen berücksichtigt werden, damit dauerhafte Kundenbeziehungen aufgebaut und RE-Aktivitäten erreicht werden können. Die Haupthindernisse für den RE-Prozess während der globalen Softwareentwicklung sind Kommunikation, die sich aus Unterschieden in den gemeinsamen Bedeutungen und im Kontext ergibt, die mit Folgendem verbunden sind: Verteilung der Kunden und des Entwicklungsteams, Verteilung des Entwicklungsteams, kulturelle Unterschiede zwischen Kunden und Entwicklung Team und kulturelle Unterschiede innerhalb des Entwicklungsteams.;-;-;-;https://link.springer.com/article/10.1057/palgrave.ejis.3000723 4925aa25bdc6f334b42e2b45f7af5ac5;de;;;3.3.;;;Forschung zum aktiven dynamischen vertrauenswürdigen Migrationsschema für VM-vTPCM Die dynamische Migration von virtuellen Maschinen (VM) ist das Hauptmerkmal der Cloud-Umgebung, und Trusted Computing ist eine der Kerntechnologien zur Lösung der Sicherheitsprobleme der Cloud-Umgebung. Mit Blick auf das Sicherheitsproblem der Migration von VM und Virtual Trusted Root (VTR) in der Cloud-Umgebung wird in diesem Papier ein aktives dynamisches vertrauenswürdiges Migrationsschema untersucht, das auf dem chinesischen Active Immun Trusted Computing (AITC) basiert und Migrationsarchitektur und -protokoll umfasst protocol . Um die Wirksamkeit des Schemas zu validieren, werden Experimente durchgeführt und vielversprechende Leistungen werden in umfassenden Experimentergebnissen gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9409-6_320 36a4b5f452cac596611cedb446d82273;de;;;3.3.;;;Virtualisierung im Bildungswesen: Portable Network Laboratory Ziel der Virtualisierung ist die vollständige Abbildung von physischen Computernetzwerken in Software, um mit logischen Geräten und logischen Netzwerkdiensten arbeiten zu können. Um die traditionelle Lehrmethodik beim Experimentieren zu unterstützen, können die Schüler ein virtuelles und tragbares Labor verwenden, wann und wo immer sie wollen. PNL (Portable Network Laboratory) ist ein Tool für die Bereitstellung einer virtualisierten Umgebung von Computernetzwerken, die es ermöglicht, Client- und Serveranwendungen zu verbinden, zu konfigurieren und zu kommunizieren. Ziel ist es, dem Studenten eine geeignete Umgebung zu bieten, um den ordnungsgemäßen Betrieb der Netzwerkdienste, die er studiert, zu überprüfen. In diesem Beitrag werden die wichtigsten Überlegungen zum Design und der Implementierung von PNL sowie die erzielten Ergebnisse vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-75214-3_9 b2cf32052e501deb705ef6cacccb9542;de;;;1.1.;;;Schlussbetrachtung und Ausblick auf weiteren ForschungsbedarfAusgangspunkt dieser Arbeit war die These, dass von der Aussagefähigkeit und -willigkeit der Auskunftspersonen ein Einfluss auf die Ergebnisgüte von CAVerfahren ausgeht, da die CA-Verfahren hohe Ansprüche an die Auskunftspersonen stellen. Dies gilt in besonderer Weise für die in der CA-Forschung zur Verbesserung der Kaufprognosen in den letzten Jahrzehnten entwickelten Verfahrensvarianten. Durch die Entwicklung von merkmalserweiternden und auswahlabsichtsintegrierenden Verfahren kommt heute eine Vielzahl von CA-Verfahren zum Einsatz, die durch die Aufnahme neuer und zusätzlicher Befragungsschritte immer höhere Ansprüche an die Auskunftsfähigkeit und -willigkeit der Auskunftspersonen stellen. Zudem werden heute die CA meist webbasiert durchgeführt, was die Anforderungen an die Auskunftswilligkeit der Auskunftspersonen weiter steigert. Empirische Ergebnisse zur Validität von merkmalserweiternden CA zeigen dabei, dass die Validität der Verfahren meist unter 50 % liegt. Ursachen für die insgesamt eher geringe Validität merkmalserweiternder Conjoint-Varianten können dabei in der verfahrensbezogenen Herausforderungen in Bezug auf die Auskunftsfähigkeit und -willigkeit der Auskunftspersonen gesehen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-7077-0_7 b0de25226c2826263a28ed9f8a7624df;de;;;1.1.;;;Allgemeiner TeilJeder Fortschritt in der Onkologie bedarf bei der außerordentlichen Komplexität der Krebsproblematik des Erfahrungsaustausches von auf vergleichbarem wissenschaftlichem Niveau und gleichem technischem Entwicklungsstand arbeitenden Gesprächspartnern. Voraussetzung für den Austausch von Erfahrungen ist die einheitliche Erfassung, Verarbeitung und Auswertung vergleichbarer Daten von Krebskranken, möglichst bis zu deren Heilung oder Tod. Die sorgfältige Dokumentation von Tumorerkrankungen und Krankheitsverläufen gehört daher zu den wichtigsten Aufgaben der klinischen Onkologie. Sie ist ein unverzichtbarer Teil der modernen Krebsbehandlung und -nachsorge und die Grundlage für den wissenschaftlichen Fortschritt [24].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-79410-0_1 cabcbf7eb36abebfa06880ef6980d0c8;de;;;1.1.;;;Analyse der Vorschriften zur Bewertung von Finanzinstrumenten nach HGB und IFRSIm HGB wurde der Begriff des Finanzinstruments erstmals im Rahmen des Bankbilanzrichtlinie-Gesetzes in § 340c Abs. 1 Satz 1 HGB verwendet. Demnach haben Banken in der Gewinn- und Verlustrechnung ihre Finanzgeschäfte differenziert nach Geschäften mit Wertpapieren des Handelsbestands, Finanzinstrumenten sowie Devisen und Edelmetallen auszuweisen. Der Gesetzgeber hat die Definition von Finanzinstrumenten bewusst offen gelassen. Mithilfe des unbestimmten Rechtsbegriffs soll die Notwendigkeit der ständigen Anpassung der Definition an die rasante Entwicklung von Finanzinnovationen umgangen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-8912-3_3 6d52f7d888165bcaf12053f4f5022d66;de;;;1.1.;;;Optische BauelementeDa eine sehr große Anzahl von physikalischen Zusammenhängen das Funktionsprinzip für ein optisches Bauelement bilden können, ist es nicht möglich, im vorliegenden Beitrag auf alle einzugehen. Hier wird durch die Konzentration auf Untersuchungen an ultradünnen Halbleiterschichten und Supergittern, die in den letzten Jahren erheblich verstärkt wurden, sowie durch die Einbeziehung quantenmechanischer Überlegungen theoretisch ermittelt, welche optischen Eigenschaften sich für diese Zwecke nutzen lassen /1/.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-01138-6_2 61433cd852d18c6955e89a4eba876b0b;de;;;1.1.;;;Forschungsergebnisse zur PersonalauswahlEinige Vorbemerkungen: Aussagen zur Eignungsdiagnostik betreffen fast immer, wenn nicht ausschließlich, probabilistische und nicht deterministische Zusammenhänge. Das heißt, die gefundenen Zusammenhänge gelten oft oder meist, aber nicht immer. Die Zusammenhänge gelten nur unter sehr speziellen Bedingungen oder nur beim zusätzlichen Auftreten intervenierender Variablen (Moderatorvariablen). Neben Studien, die bestimmte Phänomene offenbaren, gibt es fast immer auch Studien, welche diese Phänomene nicht finden oder sogar gegenteilige Effekte finden. „Mixed results“ oder „conflicting / inconsistent results“ sind wiederkehrende Topoi in den Literaturübersichten und Metaanalysen zur Personalauswahl. Ausnahmslose Wenn-Dann-Aussagen oder vollkommen stetige Je-Desto-Aussagen kommen in der personalen Eignungsdiagnostik also nicht vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-07661-2_6 76537cdd6077d3752feb9e379b959146;de;;;3.3.;;;Müllüberwachungssystem mit IoT für mobile Anwendungen Keine Stadt kann ohne ein intelligentes Abfallmanagementsystem als intelligent bezeichnet werden. In diesem Artikel haben wir eine integrierte Plattform für die Abfallwirtschaft entwickelt, bei der Mülleimer mit einem Netzwerk von Sensoren installiert sind und Echtzeitdaten über den Füllgrad der Mülltonnen übertragen. Ziel dieser Studie ist es, ein effizientes Abfallwirtschaftssystem auf Basis des Internet of Things (IoT) für den mobilen Einsatz zu entwickeln. Wir haben das traditionelle Abfallmanagementsystem Indiens beobachtet und eine Reihe von Problemen mit aktuellen Systemen identifiziert. Sie sind unhygienische Deponien, überfüllte Mülleimer, begrenzte Sammlung, fehlende Lagerung in Sammelfahrzeugen und weniger Bewusstsein für getrennte Abfallsammlung, Recycling und Wiederverwendung. Daher wurde diese Studie als eine Lösung vorgeschlagen, um die oben genannten Probleme zu bewältigen. Diese Studie bietet Hausnutzern, Fahrern von Sammelfahrzeugen und Müllabfuhrbehörden eine Plattform, um mit der Abfallwirtschaft des Landes zu interagieren. Die Idee unseres Projekts war im Grunde, die zuständigen Behörden zu alarmieren, wenn der Mülleimer einer bestimmten Region voll ist und versorgt werden muss. Unser Ziel ist es, alle Mülltonnen der VIT-Universität abzudecken und unser intelligentes System in diese Mülleimer zu installieren, damit sie sofort geleert werden können, um ein Überlaufen von Müll zu vermeiden und die Qualität der Umwelt rund um den Campus zu verbessern. Wir bauen einen Prototyp des oben genannten Systems.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8221-9_112 2d82c0e707bda04e9eea852bdf30010f;de;;;3.3.;;;Ein PHD-Filter-basierter Multitarget-Tracking-Algorithmus für Sensornetzwerke Aufgrund ihrer Anwendungsmöglichkeiten haben Sensornetzwerke in den letzten Jahren viel Aufmerksamkeit erregt. Das in diesem Papier behandelte Problem ist das Multitarget-Tracking in Sensornetzwerken. Um einen Kompromiss zwischen Genauigkeit und Energieverbrauch bei der Verfolgung einer zeitveränderlichen Anzahl von Zielen in Sensornetzwerken zu erzielen, schlagen wir einen energieeffizienten Multiziel-Tracking-Algorithmus vor, der auf dem Wahrscheinlichkeitshypothese-Dichtefilter (PHD) basiert. Wir analysieren zunächst die PHD-Filter-basierte hierarchische Fusionsarchitektur innerhalb eines zweistufigen Fusionsschemas, das jeweils an den Clusterköpfen und der Basisstation des Netzwerks läuft. Unter Verwendung eines prädiktionsbasierten Ansatzes wird ein dynamisches Sensorauswahlschema weiter untersucht. Simulationsergebnisse demonstrieren die Leistungsfähigkeit und Effektivität des vorgeschlagenen Algorithmus in Bezug auf Energieeffizienz und Tracking-Genauigkeit. Es zeigt, dass unser vorgeschlagener Algorithmus ein attraktiver energieeffizienter Ansatz ist, um eine zeitvariable Anzahl von Zielen in Sensornetzwerken zu verfolgen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39649-6_7 01211f9ce71039ea24177cfd9957ad11;de;;;1.1.;;;Kognitive RezeptionsprozesseDie kognitiven Rezeptionsprozesse spielen sich weitgehend auf der Basis des rezeptiven Anteils der kognitiven Repräsentation ab (siehe Kapitel 6). Aufgabe des vorliegenden Kapitels ist es, einige der theoretischen Konzeptualisierungen dieser Prozesse in der Kognitionswissenschaft zu diskutieren und die einzelnen Teilprozesse genauer zu beleuchten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-94240-1_8 af9c63f87f55ec8675663d50fbd9b2b5;de;;;3.3.;;;Eine Softwareumgebung für die gleichzeitige koordinierte Programmierung In diesem Papier stellen wir ConCoord vor: eine Softwareumgebung für die gleichzeitige koordinierte Programmierung. ConCoord trägt in dreierlei Hinsicht zur gleichzeitigen Programmierung bei. Erstens trennt es die Programmierung in Berechnung und Koordination, um die Komplexität der Programmierung zu reduzieren. Ein ConCoord-Programm ist eine dynamische Sammlung von Prozessen zur Berechnung oder Koordination. Berechnungsprozesse kapseln herkömmliche sequentielle Berechnungen. Koordinationsprozesse verwalten die Parallelität und nur diese. Sie handhaben die dynamische Entwicklung der Programmstruktur in Abhängigkeit von Bedingungen der Programmstruktur und des Ausführungszustands von Prozessen. Zweitens zielt ConCoord auf Netzwerke von sequentiellen und parallelen Maschinen ab. Diese Netzwerke unterstützen effizient die Nutzung einer Vielfalt von Nebenläufigkeitskörnern auf ihren unterschiedlichen Architekturen. Um diese Funktion zu nutzen, bietet ConCoord sprachliche Unterstützung für die Nutzung heterogener Parallelität. Drittens war die Wiederverwendung ein Hauptanliegen im Design von ConCoord. In unserer Umgebung können sequentielle Algorithmen innerhalb von Berechnungsprozessen wiederverwendet werden. Das Parallelitätsmanagement von nebenläufigen Algorithmen kann innerhalb von Abstimmungsprozessen wiederverwendet werden. Sowohl Berechnungs- als auch Abstimmungsprozesse können als parametrisierte wiederverwendbare Softwarekomponenten spezifiziert werden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-61052-9_50 5d96d1dd88ad212e4c558228a392b088;de;;;3.3.;;;Design, Verifizierung und Prototyping der nächsten Generation von Desktop-Grid-Middleware Dieses Papier schlägt einen formalen Rahmen für das Design und die Verifikation eines neuen Desktop Grid (DG) Prototyps vor, der derzeit mit Web 2.0-Technologien und nur mit dieser Technologie entwickelt wird. Das Papier ist ein Ansatz zur Entwicklung einer neuen Generation von Desktop-Grid-Middleware, in unserem Fall basierend auf Redis, einem Schlüsselwert-No-SQL-Web 2.0-Tool mit der Fähigkeit zur Verwaltung des asynchronen Publish-Subscribe-Paradigmas. Wir schlagen vor, das Desktop-Grid-Paradigma zu überdenken, das nur auf Konzepten von Web 2.0-Tools basiert. Es unterscheidet sich von früheren Ansätzen, bei denen Softwareschichten vor der Schicht der DG-Middleware erstellt werden mussten. Wir zeigen, dass dies einem Fortschritt bei der Gewinnung von Zeit für die Modellierung und Verifikation, d. h. den Aufbau sicherer Middleware, entspricht. Diese Arbeit schlägt (1) eine Modellierung und Verifizierung eines DG-Protokolls basierend auf dem Publish-Subscribe-Paradigma vor, (2) einen Prototyp einer neuen Generation von DG-Middleware, die wir parallel zur Modellierung entwickeln. Eine Simulation nach einem Prototyp wird auf einem lokalen Cluster durchgeführt und demonstriert, dass unser System betriebsbereit, leicht in Bezug auf Codierungslinien und verwendete Ressourcen ist. Somit bietet es bemerkenswerte Eigenschaften, um DGs auf Tablets und Smartphones zu implementieren, meinen wir auf ressourcenbeschränkten Systemen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30767-6_7 df81e06701967ad304e73a72e08c20bd;de;;;3.3.;;;Prüfung einer Hardwareeinheit eines Kernkraftwerksschutzsystems – dem IEEE 796 Bus Das integrierte Schutzsystem (IPS) soll die Schutzfunktionen der italienischen Kernkraftwerke erfüllen. Das IPS basiert auf einer verteilten Mikroprozessorsystemarchitektur und ist auf hohe Zuverlässigkeit ausgelegt. Die Zuverlässigkeit wird von anderen durch den Einsatz von Redundanz und Funktionsvielfalt sichergestellt. Ausfälle, die trotz Redundanz das System beeinträchtigen können, sind die Common Mode Failures (CMF) (1).;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-3461-0_18 40fc67126bad383335bc8ba496e28c7a;de;;;3.3.;;;Herausforderungen bei der Implementierung eines ESP-Dienstes Obwohl aktive Netzwerkdienste umfassend untersucht wurden, stellt die Aufgabe, diese Dienste und Algorithmen auf tatsächliche Netzwerkhardware abzubilden, eine zusätzliche Reihe von Herausforderungen. Beispielsweise sind High-End-Router und -Switches so konzipiert, dass sie so viele Schnittstellen wie möglich verarbeiten, die Pakete mit Kabelgeschwindigkeit liefern. In einer solchen Umgebung sind dezentrale Verarbeitung, Pipelining und effiziente Synchronisierung entscheidend für eine gute Leistung. Am unteren Ende (z. B. kleine Router/Firewalls für das Heim) stehen Kosten und Flexibilität im Vordergrund, solche Systeme sind oft als Allzweckprozessor mit modularer Software strukturiert. Somit sind die beiden Umgebungen unterschiedlich und haben unterschiedliche Ziele und Zielsetzungen. Wir präsentieren eine Fallstudie, die auf einem repräsentativen aktiven Dienst namens Ephemeral State Processing (ESP) basiert und viele der Probleme beleuchtet, die bei der Zuordnung von Diensten zu realer Hardware auftreten. Wir diskutieren technische Überlegungen für ESP sowohl in Low-End-Einprozessor- als auch in High-End-Netzwerkprozessor-Szenarien und präsentieren Leistungsmessungen aus beiden Implementierungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24715-9_2 663ef2b9d46a22d206e2b08269c1fccd;de;;;3.3.;;;Portierung von Entscheidungsbaumalgorithmen auf Multicore mit FastFlow Die gesamte Computerhardware-Industrie hat Multicores angenommen. Für diese Maschinen reicht die extreme Optimierung sequentieller Algorithmen nicht mehr aus, um die eigentliche Maschinenleistung zu quetschen, die nur über Parallelität auf Thread-Ebene ausgenutzt werden kann. Entscheidungsbaumalgorithmen weisen eine natürliche Nebenläufigkeit auf, die sie für die Parallelisierung geeignet macht. Dieses Papier präsentiert einen Ansatz für;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15880-3_7 5eaa8f4e1e4513b0f8d5af92527793b4;de;;;3.3.;;;Oscar – Verwenden von Byte-Paaren, um Dateityp und Kameramarke von Datenfragmenten zu finden Die Zuordnung des Inhalts fragmentierter Speichermedien ist schwierig, wenn das Dateisystem beschädigt wurde, zumal die aktuellen forensischen Tools für ihre Arbeit auf Metainformationen angewiesen sind. Wenn es möglich wäre, alle Fragmente eines bestimmten Dateityps zu finden, wäre es auch möglich, eine verlorene Datei wiederherzustellen. Ein solches Instrument könnte beispielsweise bei der Jagd nach Kinderpornografie eingesetzt werden. Die Oscar-Methode identifiziert den Dateityp von Datenfragmenten ausschließlich anhand von Statistiken, die aus ihrer Struktur berechnet werden. Die Methode benötigt keine Metadaten, um zu funktionieren. Wir haben bisher die Byte-Häufigkeitsverteilung und die Änderungsrate zwischen aufeinanderfolgenden Bytes als Grundlage für die Statistik verwendet, sowie die 2-Gramm-Häufigkeitsverteilung berechnet, um ein Modell verschiedener Dateitypen zu erstellen. Dieses Papier stellt eine Variante der 2-Gramm-Methode vor, die einen dynamischen Glättungsfaktor verwendet. Auf diese Weise berücksichtigen wir die Datenmenge, die zur Erstellung des Schwerpunkts verwendet wurde. Ein früheres Experiment zur Identifizierung des Dateityps wurde mit .mp3-Dateien erweitert, die eine Erkennungsrate von 76 % mit einer Fehlalarmrate von 0,4 % erreichen. Wir verwenden die Methode auch, um das Kamerahersteller zu identifizieren, mit dem ein .jpg-Bild aus einem Fragment des Bildes aufgenommen wurde. Das Ergebnis zeigt, dass wir einen Bildausschnitt einer Fuji- oder Olympus-Kamera deutlich von einem Bildausschnitt der anderen in unserem Test verwendeten Kameras trennen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84628-750-3_9 dab2a3e6488f5d42606799b33897c3e2;de;;;3.3.;;;Modernisierung des Fahrgastreservierungssystems: das Dilemma der Indian Railways In diesem Lehrfall werden die Herausforderungen diskutiert, denen sich die Technologiemanager der Indian Railways (IR) im aktuellen Szenario einer wiederauflebenden Volkswirtschaft gepaart mit steigenden Kundenerwartungen gegenübersehen. Angesichts des wachsenden Wettbewerbs durch Straßen- und Billigfluggesellschaften, um seine Kunden zu binden, hat IR mit einer Änderung seiner Geschäftsregeln reagiert. Das Eisenbahnministerium erwartet vom Zentrum für Eisenbahninformationssysteme (CRIS) eine schnelle Reaktion, um all diese Änderungen in das Fahrgastreservierungssystem (PRS) aufzunehmen. Das alte, bewährte und zuverlässige PRS, das seit fast zwei Jahrzehnten die Anforderungen der Kunden erfüllt, erweist sich nun als relativ unflexibel, um den sich schnell ändernden Geschäftsanforderungen gerecht zu werden. Obwohl das derzeitige Szenario einer ständigen Notwendigkeit, die Programmierlogik von PRS zu ändern, die Wartung für CRIS-Beamte erschwert hat, haben sie erkannt, dass PRS eine bewährte, bewährte und zuverlässige Technologie ist. Obwohl sie das alte PRS gerne durch ein neues, hochmodernes System ersetzen würden, das ihnen eine größere Wartungsflexibilität bietet, sind die Auswirkungen eines möglichen Ausfalls des neuen Systems viel zu gravierend. Der Fall zeigt das aktuelle Dilemma des Leiters von CRIS, der Dachagentur für die Implementierung von Informationstechnologie (IT) in der IR: ob IR die alte PRS-Technologie mit ihren inhärenten Mängeln weiter verwenden soll oder ob sie das Risiko eingehen und einsteigen für einen Großhandelsersatz durch eine neue, hochmoderne Technologie, die eine größere Wartungsflexibilität bietet?;-;-;-;https://link.springer.com/article/10.1057/palgrave.jit.2000112 d4e7353e66df3b6ab8022f8b5d987235;de;;;3.3.;;;Eine modellprädiktive steuerungsbasierte Architektur für die kooperative Bahnverfolgung mehrerer unbemannter Luftfahrzeuge In diesem Kapitel wird eine prädiktive Steuerungsarchitektur (MPC) mit Stichprobendatenmodell vorgeschlagen, um das dezentralisierte kooperative Pfadverfolgungsproblem (CPF) mehrerer unbemannter Luftfahrzeuge (UAVs) zu lösen. In dem vorgeschlagenen Szenario zur kooperativen Pfadverfolgung, das auf früheren Arbeiten zu CPF aufbaut, müssen mehrere Fahrzeuge vordefinierten Pfaden bei nominalen Geschwindigkeitsprofilen (die pfadabhängig sein können) folgen und gleichzeitig eine gewünschte, möglicherweise zeitvariable geometrische Formation beibehalten Muster. Im vorgeschlagenen Rahmen nutzen wir das Potenzial optimierungsbasierter Regelungsstrategien mit signifikanten Vorteilen bei der expliziten Adressierung von Eingabe- und Zustandsbeschränkungen und der Möglichkeit, sinnvolle Kostenfunktionen zu minimieren. Ein Beispiel, das aus drei Starrflügel-UAVs besteht, die einem bestimmten gewünschten Manöver folgen müssen, veranschaulicht den vorgeschlagenen Rahmen. Wir beleuchten und diskutieren einige Merkmale der Flugbahnen von UAVs.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-26687-9_7 dd10d05115861789470395f060def91a;de;;;3.3.;;;Ein architektonischer Ansatz zur Erstellung von auf Reputation basierenden verteilten Diensten Das Reputationsbasierte Vertrauensmodell (RBT) mit eingebetteten Anreizmechanismen bietet eine genaue quantitative Messung für Dienste, die ihre Partner basierend auf fairen Bewertungen der Benutzer auswählen. Diese Mechanismen regen Dienste an, Bewertungen wahrheitsgetreu anzubieten, ansonsten verlieren sie ihre Gewinne oder erhalten sogar Strafen. Die Nutzung solcher Mechanismen in verteilten Umgebungen ist jedoch aufgrund ihrer zentralisierten Natur eine schwierige Aufgabe. In diesem Papier schlagen wir eine neue Architekturentwicklung vor, die relevante Architekturkomponenten kombiniert, um Vertrauenssysteme hochskalierbar mit der Fähigkeit der Auktionsmechanismen zu machen, Lügen zu verhindern. In dieser Architektur definieren wir ein auktionsbasiertes Trust-Negotiation-Protokoll, das die Interaktionen verteilter Dienste steuert und im verteilten Trust-Framework realisiert. Unsere Architektur skaliert effizient für eine steigende Anzahl von Diensten, die mit dem System interagieren, und bietet gleichzeitig Schutz vor unwahren Anreizen, selbst wenn die Mehrheit der Bewertungen unfair ist. Ein Beispiel für eine Lieferkette wird mit gesammelten empirischen Beweisen entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15114-9_12 36034174b5dea7e4a8865c424757aa27;de;;;1.1.;;;Braindance oder das Hirn der schönen KünsteDer «Braindance» ist ein sehr lebhafter Tanz, getrieben von einem flotten Rhythmus. Im Verlauf der letzten beiden Millionen Jahre wuchs beispielsweise das menschliche Gehirn beinahe auf das Doppelte an (von 700 auf 1400 cm;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-6181-6_9 7a9c1fef77824cb8a55f91322f906b23;de;;;1.1.;;;Gestaltung von Mensch-Maschine-SchnittstellenDie Interaktion zwischen Mensch und Maschine erfolgt über Schnittstellen, die dem Fahrer Informationen liefern und ihm behilflich sein sollen, die Fahraufgabe sicher, effektiv und effizient zu bewältigen. Wie die Gestaltung von Anzeigen und Bedienelementen vorgenommen werden muss und worauf während des Entwicklungsprozesses in Bezug auf die Interaktion zwischen Mensch und Maschine Rücksicht genommen werden muss, soll hier geklärt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-05734-3_34 186aa3656e22c814669bf328eb883ced;de;;;1.1.;;;Entwicklungen und Schwerpunkte der KäuferverhaltensforschungVergleicht man die aktuellen Verhältnisse in der Realität der Marketingpraxis und der wissenschaftlichen Marketingszene, so fällt zumindest ein deutlicher Unterschied ins Auge: In der Marketingwissenschaft sind die „Wachstumsmärkte“ mühelos erkennbar. Als ein derartiger Wachstumssektor gilt seit Jahren die theoretische und insbesondere empirische Beschäftigung mit dem Käuferverhalten. Die Expansion dieses Forschungsgebiets ist in der Tat frappierend: Innerhalb weniger Jahre hat sich die Breite der Thematik und Spezialisierung in den Fragestellungen derart weiterentwickelt, daß es selbst dem Fachmann schwer wird, einen Überblick über den Stand des Wissens zu behalten. Wenn auch nicht zu verkennen ist, daß dieser Prozeß von einem „Ansteckungseffekt“ innerhalb des wissenschaftlichen Lagers getragen wird, so darf man daraus nicht schließen, es handele sich bei dieser Entwicklung um eine bald wieder abklingende Modeerscheinung. Die große Bedeutung einer vertieften empirischen Beschäftigung mit dem Käuferverhalten liegt in der Bereitstellung von Basisinformationen einerseits für die Marketing-, andererseits für die Verbraucherpolitik. Und diese Aufgabe kann keineswegs als schon erfüllt angesehen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-85815-3_1 7226661a298adf1dbb8867b217fa8dc4;de;;;1.1.;;;Lesen in der MutterspracheDie Erforschung des Leseprozesses begann Ende des vorigen Jahrhunderts mit Untersuchungen der Augenbewegungen. Die Augenbewegungen sind als äußere Merkmale die einzigen direkt beobachtbaren Komponenten des Leseprozesses. Cattell stellte 1885 und 1886 Versuche darüber an, wieviel Zeit für die Wahrnehmung von Buchstaben, Wörtern und Sätzen benötigt wird. Erdmann und Dodge (1897) bestätigten das Ergebnis Cattells, daß das Auge die Textzeile nicht in einem gleichmäßigen Rhythmus wahrnimmt, sondern sich während des Lesens in Sprüngen von Fixation zu Fixation bewegt. Dabei wird nur während dieser Ruhepunkte Information aufgenommen (Vgl. Westhoff 1987).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-86226-388-2_2 ed33c20c8697a15d950d71d39e501d45;de;;;1.1.;;;Normen und StandardsNormung ist die planmäßige, durch die interessierten Kreise gemeinschaftlich durchgeführte Vereinheitlichung von materiellen und inmateriellen Gegenständen zum Nutzen der Allgemeinheit (DIN 820).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-70116-0_9 36b3455a5b5bf61984359614bca843ac;de;;;3.3.;;;DevOps-basierte Softwareentwicklung für die Cloud Dieses Papier beschreibt kurz DOSSIER-Cloud, ein laufendes H2020-Projekt, das eine Reihe von Koordinierungs- und Unterstützungsmaßnahmen umsetzt, um die Forschung im Bereich Software Engineering für die Entwicklung verteilter Systeme zu fördern. Dem Aufruf zufolge arbeiten zwei international anerkannte wissenschaftliche Gruppen aus den Niederlanden (Universität Tilburg – UvT) und Italien (Politecnico di Milano – POLIMI) mit der Cyprus University of Technology (CUT) zusammen, um auch den Transfer wissenschaftlicher Erkenntnisse und Expertise zu erleichtern von Best Research Practices von UvT über POLIMI bis CUT und stärken letztendlich das Forschungs- und Wissenschaftsprofil der Partner im jeweiligen Bereich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63161-1_22 6ee886dc0aa391de07073c74920ac80c;de;;;3.3.;;;Eine allgemeine Hardware-Trojaner-Technik, die auf leichtgewichtige Kryptographie mit bitseriellen Strukturen abzielt Leichte Chiffren haben ein breites Anwendungsspektrum wie IoT, fälschungssichere Etiketten und passives RFID, die in den letzten Jahren viel Aufmerksamkeit auf sich gezogen haben. Offensichtlich ist die Fläche die wichtigste Metrik der leichtgewichtigen Kryptographie. Um die chiffrierte Verschlüsselung mit der kleinsten Fläche zu implementieren, wird nach unserem besten Wissen die bitserielle Struktur verwendet. Die Bitserie bietet jedoch einen möglichen Zugriff für den kleinräumigen Hardware-Trojaner, um gleichzeitig Schlüsselinformationen zu stehlen, was leichte Verschlüsselungen anfällig für Trojaner-Angriffe macht. In diesem Whitepaper stellen wir ein allgemeines Hardware-Trojaner-Schema vor, das auf Chiffren basierend auf der bitseriellen Technik abzielt und den geheimen Schlüssel zumindest mit Leichtigkeit durch nur ein Flip-Flop durchsickern kann. Dieses Papier warnt Kryptografie-Designer, die Verschlüsselungen nicht nur basierend auf Designspezifikationen implementieren, ohne die Hardwaresicherheit zu berücksichtigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-21373-2_54 5a4737095f5890205e9dbf7deb9e9537;de;;;1.1.;;;EntscheidungsprämissenUnsicherheitsabsorption dient nicht nur dazu, Unsicherheit zu reduzieren. Wie überall, wie zum Beispiel bei der Evolution von Sprache oder beim Aufbau eines Verkehrsnetzes, kann eine darauf ausgerichtete Reduktion von Komplexität auch dazu benutzt werden, den Aufbau sekundärer Komplexität zu ermöglichen. Im Grunde ist das ja das Prinzip der Bildung von Systemen durch operative Schließung ihrer Grenzen: Die Umwelt wird ausgeschlossen, damit das System auf Grund dieser Reduktion von Komplexität eigene Komplexität aufbauen kann, und die operativ produzierte Außengrenze wird intern durch die Unterscheidung von Selbstreferenz und Fremdreferenz markiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-97093-0_7 2e0e323bbddd04c9ab8fe7915e114908;de;;;1.1.;;;Wem gehören dort?Die beiden vorangehenden Kapitel haben deutlich gemacht, daß „die Zeit, des Weltlaufs Zeugin“, oft erörtert und klug berechnet worden ist. Dieses und das folgende Kapitel legen Zeugnis ab vom Zeitbegriff der Natur- und Geisteswissenschaften unserer Tage.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-6049-9_4 48fe7df7c150d3a435957e164600a9ee;de;;;3.3.;;;Sicheres biometrisch basiertes Authentifizierungsprotokoll für eine öffentliche Netzwerkumgebung Die biometrische Technologie ermöglicht es einem Computersystem, eine Person direkt anhand von körperlichen oder Verhaltensmerkmalen zu identifizieren und zu authentifizieren [1]. Passwörter und Token, die derzeit für Authentifizierungszwecke weit verbreitet sind, authentifizieren eine Person jedoch nicht direkt, wenn eine Person ein Passwort oder Token anbietet, authentifiziert das System nur das präsentierte Passwort oder Token als authentisch, nicht aber die tatsächliche Person, die es präsentiert [2], [8]. Aus diesem Grund wurde viel geforscht, um ein Protokoll zu entwickeln, das es einer Person ermöglicht, einen biometrischen Token sicher zur persönlichen Authentifizierung zu verwenden. Die biometrische Technologie ist eine attraktive Möglichkeit, eine Person zu authentifizieren, da eine direkte Verbindung zwischen der Person und dem biometrischen Token einer Person besteht. Dieses Papier beschreibt ein Protokoll namens BioVault. BioVault gewährleistet den sicheren Transport biometrischer Token über eine unsichere Netzwerkumgebung ohne Verwendung von Verschlüsselungstechnologien. Das BioVault-Protokoll legt auch die Grundlage für biometrisch basierte Verschlüsselung und biometrisch basierte digitale Signaturen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69403-8_28 6d3c3f04736e479fbedf0ae0b471f114;de;;;3.3.;;;Design und Implementierung MoIP Wall-Pad-Plattform für Heimnetzwerk Dieses Papier soll die MoIP-Plattform implementieren, um Video und Audio gleichzeitig zu senden und zu empfangen, indem ein leistungsstarker Dual-Core-Prozessor verwendet wird. Auch wenn das Wall-Pad Schlüsselkomponente eines Heimnetzwerksystems durch die Verwendung eingebetteter Prozessoren freigegeben wird, fehlt es ihm an Leistung in Bezug auf die Multimediaverarbeitung und die Funktion der Videotelefonie, über die Video und Sprache gleichzeitig ausgetauscht werden. Der Hauptgrund könnte sein, dass die derzeit verwendeten eingebetteten Prozessoren nicht genügend Leistung bieten, um sowohl MoIP-Anruffunktionen als auch verschiedene Heimnetzwerkfunktionen gleichzeitig zu unterstützen. Um diese Probleme zu lösen, könnte ein Dual-Prozessor verwendet werden, der jedoch einen weiteren Nachteil der hohen Kosten mit sich bringt. Daher soll diese Studie die Heimautomatisierungsfunktionen und Videotelefoniefunktionen durch die Verwendung eines Dual-Core-Prozessors basierend auf einem ARM 11-Prozessor lösen und das MoIP Wall-Pad implementieren, das die Kosten für Platinendesign und Komponentenkosten senken und die Leistung verbessern kann. Die in diesem Dokument entwickelte und implementierte Plattform verifizierte die Leistung von MoIP, um unter der Situation eines Ethernet-Netzwerks gleichzeitig Video und Sprache auszutauschen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22333-4_40 0d9dfbcd6e971d1e130105ac15e5ac7f;de;;;1.1.;;;Stabilität und Variabilität sportlicher BewegungenSeit Jahrzehnten wird die Problematik zur Stabilität und Variabilität menschlicher Bewegungen erforscht. In diesem Kapitel wird ein Überblick über verschiedene diesbezügliche Theorieansätze der Motorik gegeben. Einen ersten Schwerpunkt stellt die funktionelle Variabilität nach Loosch dar. Indem die Bewegung als ein systemisches Phänomen mit nichtlinearen Prozessen verstanden wird, können Erklärungen für das Auftreten der Bewegungsvariabilität und Methoden für deren Quantifizierung gefunden werden. So gibt es Analogien zwischen aufeinanderfolgenden Bewegungstrajektorien und einem chaotischen Attraktor. Weiterhin wird auf die Grundlagen des differenziellen Lernens eingegangen. Anleitungen zu eigenen Untersuchungen zur Erfassung von Stabilität und Variabilität von Bewegungen vervollständigen das Kapitel.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-57876-6_3 7be3f963f0243042a5db71e269dc7cf8;de;;;1.1.;;;Führung zur Verhaltensänderung›Nach einer 1995 erschienenen Studie von Watson Wyatt zur Unternehmens- und Personalführung, an der sich rund 1900 Topmanager aus Kanada, Frankreich, Deutschland, Japan, Großbritannien und den USA beteiligten, steht die Entwicklung von Führungskräften unter den personalpolitischen Herausforderungen der nächsten fünf Jahre an erster Stelle.‹ (Hauser und Hempler 1995).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-99186-7_5 af16be99450a667f0242f03a20b6cc22;de;;;3.3.;;;Software-Agenten für E-Commerce-Daten-Workflow-Management Software-Agent-Technologie begann eine Schlüsselrolle im E-Commerce-Bereich zu spielen. Agenten werden nun verwendet, um eine durchdringende Technologie für verschiedene Partner im E-Business-Umfeld zu unterstützen, in die verschiedene virtuelle Geschäftsprozesse integriert und erleichtert werden. Agententechnologie wird verwendet, um diese Prozesse zu automatisieren und E-Marktplätze zu verbessern, in denen Verkäufer, Verkäufer und Einzelhändler einen virtuellen Shop für Verbraucher und Käufer bereitstellen, um Artikel online zu kaufen, indem Anforderungen an Softwareagenten delegiert werden. Dieses Papier schlägt einen neuen Rahmen für den Einsatz von Software-Agent-Technologie vor. Das Papier stellt das zugrunde liegende Framework vor, das durch die Verwendung von Agentenkoordination und Zusammenarbeit in einer verteilten Computerumgebung implementiert wird. Die Verwendung eines Agenten-Controller-Musters bietet Robustheit und Skalierbarkeit für den elektronischen Markt. Das Framework ermöglicht die Registrierung mehrerer Verkäufer, während Käufer ihre Anforderungen mithilfe eines mobilen Einkäufers erfüllen, der ihre Anforderungen auf den elektronischen Markt überträgt. Darüber hinaus ist das Framework auf die Erfüllung von E-Business-Transaktionen für Käufer und Verkäufer zugeschnitten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22191-0_8 8e916665f0ccc6254a35bda049d8fa64;de;;;3.3.;;;Touristisches Informationssystem für standortbezogene Dienstleistungen Die mobile Informationsgemeinschaft entwickelt sich schnell, da die Mobilfunktechnologie der dritten Generation entspricht. XML-basiertes GIS wird zum globalen Standard und zur Grundlage. Die kürzlich entwickelte Geography Markup Language (GML) ermöglicht die Integration von standortbasierten GIS-Diensten, Telematik und intelligenten Transportsystemen. In diesem Beitrag schlagen wir ein Tourismusinformationssystem zur Unterstützung des standortbezogenen Dienstes von GIS-Anwendungen vor. Das System implementiert Thin-Client/Server-Technologie für den mobilen Web-Mapping-Dienst. Das System umfasst ein traditionelles GIS-System für Navigationsdienste und Standortfinder-POI-Dienste. Das System zur Standort- und POI-Bestimmung mit Designaspekten wird vorgestellt. Für die Systemprozeduren wird eine experimentelle Benutzerschnittstelle von PDA innerhalb des Systems dargestellt.;-;-;-;https://link.springer.com/chapter/10.1007/11610496_101 6460ef9d9834846e134b300b17bb04fd;de;;;1.1.;;;Aktuelle Schwerpunkte der SchizophrenieforschungDie Verlaufsforschung hat in der Psychiatrie u. a. die folgenden Zielsetzungen: Validierung von Krankheitskonzepten, Beschreibung des Krankheitsverlaufs unter gegebenen Behandlungsbedingungen, Subdifferenzierung von Patientengruppen, Suche nach Verlaufsprädiktoren. An der psychiatrischen Klinik der Universität München bestehen besonders günstige Rahmenbedingungen für Verlaufsuntersuchungen, da routinemäßig ein umfassendes Basis- und Befunddokumentationssystem angewandt wird. Im Rahmen dieses Dokumentationssystems werden u.a. umfangreiche Daten zum psychopathologischen Aufnahme- und Entlassungsbefund mit dem AMDP (Arbeitsgemeinschaft für Methodik und Dokumentation in der Psychiatrie)-System erhoben. Die erhobenen Daten dienen einerseits zur Qualitätskontrolle, können aber natürlich auch wissenschaftlichen Zwecken zugeführt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-57417-7_2 05af552e2e2dcc335278167ad9a39f80;de;;;1.1.;;;Die Anwendungsbereiche der Neuen ISO-Standards der Kommunikationstechnik und Büroautomation— Zeitpläne, Wechselwirkungen, Perspektiven —Die Arbeit weist auf die Serie von internationalen Standards der Informationstechnologie hin, die in Kürze in die Verabschiedungsphase gehen sollen, konkretisiert die dazugehörigen Zeitvorstellungen und erklärt die organisatorische Ursache für diese rege Standardisierungsaktivität. Sie beschränkt sich dabei auf die beiden derzeit wohl virulentesten Bereiche, die neuen Kommunikationstechnologien und die neuen Texttechnologien. In ihrem Schlußteil erläutert sie zunächst die Wechselwirkungen zwischen den Standardisierungsaktivitäten in beiden Bereichen und weist auf einige ökonomische und technische Merkmale dieser schnellen Entwicklung hin, besonderes Gewicht legt sie schließlich auf die Klärung der grundsätzlichen Perspektiven dieser Entwicklung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-68829-4_2 a806163c71317add17afd9753283513c;de;;;1.1.;;;Disparitäten der Krankenhaus-Fatalität nach proximalen Femurfrakturen in der DDR 1989Der aufbereitete und pseudonymisierte Datensatz der Krankenhausabgangsdiagnose-Statistik der DDR wurde hinsichtlich der krankenhausbezogenen Fall-Fatalität für geschlossene proximale Femurfrakturen (ICD-9 820.0, 820.2, 820.8) untersucht. Die Fall-Fatalität von 20,2% nach durchschnittlich 60 Tagen ist im internationalen Vergleich und im Vergleich mit vorhandenen Daten für die alten Bundesländer hoch. Neben dem erwarteten Einfluss des Lebensalters war eine verminderte Sterblichkeit bei transzervikalen (intrakapsulären) Frakturen, bei Frauen und bei Sitz der behandelnden Klinik in Ost-Berlin zu beobachten. Diese nach Alter, Geschlecht, und Frakturtyp adjustierte Reduktion der Sterblichkeit in Ost-Berlin gegenüber den anderen Bezirken der DDR auf ein Drittel erklärt sich am wahrscheinlichsten durch eine bessere medizinische Versorgung in Ost-Berlin als Hauptstadt der DDR. Die bei dieser Modellanalyse beobachteten Disparitäten geben auch einen generellen Hinweis auf den Einfluss des medizinischen Versorgungsniveaus auf die mit dieser bevölkerungsmedizinisch bedeutsamen Erkrankung verbundene Sterblichkeit.;-;-;-;https://link.springer.com/article/10.1007/BF01359228 cb88b5987ae6c7cdafe81796d6375710;de;;;1.1.;;;Neue Informationstechnologien und Mathematikunterricht: ein DilemmaIn connection with a conception of „computer literacy for all middle school pupils” educational policy expects maths didactics to meet certain requirements, it is necessary to examine the legitimacy of these demands. The examination must be based on two criteria: firstly the educational goals of mathematics and secondly the question to what degree the basic skills of computer science, which are to be taught in maths lessons, coincide with these goals. The examination reveals that the educational goals of mathematics at school do not justify the teaching of certain concepts of computer science in maths courses — not even if these should undergo a future-oriented development. On the other hand didactics of mathematics cannot simply reject these demands made by information and communication technology in education. Thus maths didactics finds itself in a dilemma;-;-;-;https://link.springer.com/article/10.1007/BF03339298 25abcdc451b1cf1af138c20d124de0a2;de;;;1.1.;;;Die Wirkung der SponsoringbotschaftIn diesem Kapitel sollen mit Erinnerung und Einstellung die beiden außerökonomischen Werbewirkungskriterien vorgestellt werden, denen in der umfangreichen Literatur zur Sponsoringwirkung die größte Aufmerksamkeit zu Teil wird. Dabei soll zunächst auch ein Überblick über die zahlreichen empirischen Erhebungen zu beiden Themenkomplexen gegeben werden. Außerdem sollen hier die verschiedenen theoretischen Ansätze kritisch diskutiert werden, mit denen insbesondere versucht wird, die Einstellungswirkung des Sponsorings zu erklären. Diese Ansätze berücksichtigen in zunehmendem Maße bewusste kognitive Prozesse, die letztlich auch die Erinnerungswirkungen beeinflussen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-9365-2_4 ac78ff74afb3acb9b44416261419a64c;de;;;3.3.;;;Gesamtwirkung der ionisierenden Strahlung von 2-T SONOS für 130 nm/4 Mb NOR-Flash-Speichertechnologie In diesem Artikel haben wir die Gesamt-Ionisationsdosis (TID)-Strahlungsantwort bis zu 2 Mrad(Si) von Silizium-Oxid-Nitrid-Oxid-Silizium (SONOS)-Speicherzellen und Speicherschaltungen untersucht, die in einem 130-nm-Komplementärmetall- Oxid-Halbleiter (CMOS) SONOS-Technologie. Wir haben die Schwellenspannung (;-;-;-;https://link.springer.com/article/10.1007/s11432-013-4982-7 ae0e4bbbc6870ad68be7c7ab5437037f;de;;;3.3.;;;Klinisches Entscheidungsunterstützungssystem mit elektronischer Patientenakte: Digitalisierung der Pharmaforschung Clinical Decision-Support (CDS)-Systeme sind darauf ausgelegt, wissensintensive Aufgaben zur Unterstützung von Entscheidungsprozessen im medizinischen Bereich und im Gesundheitswesen zu lösen. Darüber hinaus wird erwartet, dass CDS-Systeme den Wirkstoffforschungsprozess in pharmazeutischen Unternehmen fördern und dazu beitragen, während das CDS-System mit der elektronischen Gesundheitsakte (EHR) verbunden werden kann. Aktuelle Lösungen für CDS sind jedoch aufgrund hoher Implementierungskosten und verschiedener komplexer Entscheidungsprobleme des medizinischen Personals nicht über verschiedene Organisationen und Institutionen in Informationsgesellschaften hinweg etabliert. In diesem Papier schlagen wir vor, dass die Referenzarchitektur und das Framework für das CDS-System mit EHR vorgeschlagen und durch den Fall in einem Krankenhaus überprüft werden. Darüber hinaus werden die Herausforderung und die zukünftigen Aktivitäten für diesen Bereich zum Ausdruck gebracht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-8566-7_5 20d925557982e91f96ff109dd812db7a;de;;;3.3.;;;Automatische Synthese und Bereitstellung von intensionalen Kahn-Prozessnetzwerken In diesem Papier stellen wir einen reinen „formalen“ grundlegenden Ansatz für die Entwicklung und Bereitstellung hochsicherer verteilter eingebetteter Systeme, die in geschäftskritischen Anwendungen eingesetzt werden, vor und untersuchen sie theoretisch. Wir schlagen ein einfaches formales verteiltes asynchrones Framework vor, das Kahn Process Networks mit intensionaler Spezifikation erweitert. Genauer gesagt präsentieren wir einen modellgetriebenen Ansatz, der auf einer plattformunabhängigen Sprache und einer intensionalen Spezifikationslogik basiert, die es uns ermöglicht, verteilte Agenten zu synthetisieren, die Interaktionen mit externen Ressourcen asynchron handhaben können, die Durchsetzung von Informationsfluss und Sicherheitsrichtlinien sicherstellen und die Fähigkeit, mit Ressourcenausfällen umzugehen. Unser Ansatz ermöglicht eine schnelle Entwicklung und automatisierte Bereitstellung von formal verifizierten eingebetteten Netzwerksystemen, die Garantien bieten, dass die Anforderungen der Kunden erfüllt und die QoS-Garantien eingehalten werden. Darüber hinaus ermöglicht es die Modellierung (und Programmierung) zuverlässiger verteilter Systeme für Multi-Core-Hosts. Aufgrund dieser Fähigkeit eignet sich unser Framework für Grid-Computing-Systeme der nächsten Generation, bei denen einzelne Multi-Core-Hosts zur Verbesserung der Skalierbarkeit verwendet werden müssen.Angesichts einer intensionalen logischen Spezifikation eines verteilten eingebetteten Systems, die Quality of Service (QoS)-Anforderungen umfasst, wird der in einem Netzwerk verfügbaren Softwareressourcen und Geräte und deren formalen Schnittstellenspezifikationen kann ein deduktives System verteilte erweiterte Kahn-Prozesse und deren Bereitstellungsinformationen automatisch so generieren, dass die Anwendungsanforderungen – einschließlich der QoS-Anforderungen – garantiert erfüllt werden. Die generierten Prozesse verwenden die Eingaben der Sensoren/Messgeräte/Sonden und die Verwaltungsrichtlinien des Kunden, um Echtzeit-Steuerungsentscheidungen für die Verwaltung des Systems zu generieren. Die Prozesse werden automatisch in einem verteilten Netzwerk bereitgestellt, das Sensoren/Messgeräte/Sonden umfasst, die Systemparameter verfolgen, Aktoren, die Geräte steuern, und verschiedene Computer- und Kommunikationselemente wie PDAs usw.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10549-4_10 3f0213bc2a3195a8d9f5f5f7845bb8c2;de;;;1.1.;;;Kommunikative Steuerung als fundamentalrhetorisches ProblemIm Folgenden wird ein rhetoriktheoretischer Bezugsrahmen abgegrenzt, welcher der vorliegenden Arbeit als Referenzmodell dienen soll. Zu diesem Zweck werde ich zunächst die wichtigsten Begriffe der Rhetoriktheorie Tübinger Prägung erläutern und für den Kontext dieser Arbeit definieren. Anschließend werde ich ausgewählte Paradigmen der Rhetorik mit Hilfe des definierten Begriffsarsenals in ihren Grundzügen skizzieren und mit Theoriemodellen angrenzender aktueller Wissenschaftssysteme phänomenologischer, handlungs- und akteurtheoretischer Provenienz anreichern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-11787-0_10 127aac10243cc5ddbd8dd2d5c1e3fe78;de;;;3.3.;;;Condor-G: Ein Computation Management Agent für multi-institutionelle Netze In den letzten Jahren hat die Zahl der verfügbaren Rechen- und Speicherressourcen dramatisch zugenommen. Es gibt jedoch nur wenige Tools, mit denen diese Ressourcen in aggregierter Form effektiv genutzt werden können. Wir präsentieren das Condor-G-System, das Software von Globus und Condor nutzt, um es Benutzern zu ermöglichen, Multi-Domain-Ressourcen zu nutzen, als gehörten sie alle zu einer persönlichen Domain. Wir beschreiben die Struktur von Condor-G und wie es mit Jobmanagement, Ressourcenauswahl, Sicherheit und Fehlertoleranz umgeht. Außerdem präsentieren wir Ergebnisse aus Anwendungsversuchen mit dem Condor-G-System. Wir behaupten, dass Condor-G als universelle Schnittstelle zu Grid-Ressourcen dienen kann, die sowohl von Endbenutzern als auch von Programmentwicklungstools auf höherer Ebene verwendet werden kann.;-;-;-;https://link.springer.com/article/10.1023/A%3A1015617019423 fe776da73cd8e01a899018e371f8b8f5;de;;;3.3.;;;Die Analyse des generischen SIMT-Scheduling-Modells, das aus der GPU extrahiert wurde Um die Leistung des Prozessors zu verbessern, setzen immer mehr Unternehmen in der Industrie die Single Instruction Multi-Threads (SIMT) Scheduling-Technologie in die Prozessorarchitektur ein, die die Multicore-Prozessor-Multi-Thread-Parallelleistung durch Förderung der Prozessorfähigkeit entwickeln kann Multi-Thread-Parallelverarbeitung. Um die Technologie von SIMT zu erforschen und zu entwickeln, extrahiert dieser Artikel ein generisches SIMT-Scheduling-Modell aus der Graphic Processing Unit (GPU), einer Art Prozessor, der im Bereich des Hochleistungsrechnens verwendet wird. Durch die Analyse der Leistung dieses Scheduling-Modells zeigt dieser Artikel die Attribute dieses Modells und kann eine wichtige Referenz für die Verwendung und Optimierung dieses Modells in anderen Prozessoren sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41635-4_2 d7052d562dbd487eb898e5a2d7cc36b4;de;;;3.3.;;;Modellierung und Umsetzung von Industrie 4.0-Szenarien Dieses Papier beschreibt die Anforderungen an eine Modellierungssprache zur Beschreibung und Umsetzung von Industrie 4.0-Systemen. Basierend auf diesen Anforderungen wird PASS (Parallel Activity Specification Schema) als subjektorientierte Modellierungssprache untersucht, ob es diese Anforderungen erfüllen würde. Es wird gezeigt, dass PASS eine problemorientierte Spezifikation von Industrie 4.0-Szenarien basierend auf der Struktur natürlicher Sprachen ermöglicht und PASS-Spezifikationen mit OPC UA umgesetzt werden können. OPC UA ist ein Standard zur Umsetzung von Industrie 4.0-Szenarien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72696-6_4 21e4a0fe2d9c929939f18ecad6fb3240;de;;;3.3.;;;Ein Quotensystem für einen fairen Anteil der Netzwerkressourcen Verbundene Netzwerke von heute bieten eine Vielzahl von Diensten, die sehr unterschiedliche Mengen an Ressourcen verbrauchen. Im Gegensatz zu anderen Computerressourcen wie Festplattenspeicher und Rechenleistung wird die Netzwerkressource jedoch nicht so stark berücksichtigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34890-2_19 8e4bc61a0fbb9ad9ab8c47eed7415d33;de;;;3.3.;;;Eine integrierte Lösung für Laufzeit-Compliance-Governance in SOA Als Reaktion auf die jüngsten Finanzskandale (z. B. im Zusammenhang mit Enron, Fortis, Parmalat) wurden neue Vorschriften zum Schutz der Gesellschaft vor finanziellen und betrieblichen Risiken der Unternehmen eingeführt. Daher müssen Unternehmen sicherstellen, dass ihre Geschäftstätigkeit sowohl diesen neuen als auch bereits bestehenden Vorschriften entspricht. Vorschriften sind nur ein Beispiel für Compliance-Quellen, mit denen moderne Unternehmen täglich zu tun haben. Andere Quellen der Compliance sind Lizenzen von Geschäftspartnern und andere Verträge, interne Richtlinien und internationale Standards. Die Vielfalt der Compliance-Quellen führt zu dem Problem der Compliance-Governance in einer Organisation. In diesem Whitepaper schlagen wir eine integrierte Lösung für die Laufzeit-Compliance-Governance in serviceorientierten Architekturen (SOAs) vor. Wir zeigen, wie die vorgeschlagene Lösung den gesamten Zyklus des Compliance-Managements unterstützt: von der Modellierung von Compliance-Anforderungen in domänenspezifischen Sprachen über deren Überwachung während der Prozessausführung bis hin zur Anzeige von Informationen zum aktuellen Compliance-Status in Dashboards. Wir konzentrieren uns auf den Laufzeitteil der vorgeschlagenen Lösung und beschreiben diesen im Detail. Wir wenden das entwickelte Framework in einer realen Fallstudie aus dem EU-RP7-Projekt COMPAS an, und diese Fallstudie wird im Papier verwendet, um unsere Lösung zu veranschaulichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17358-5_9 4c6d234945e030f876c7d6c2aaebf109;de;;;3.3.;;;Eine Architektur zur Problemlösung mit Diagrammen Bei der Problemlösung wird ein Ziel/Teilziel entweder durch Generieren benötigter Informationen aus aktuellen Informationen gelöst oder weiter in zusätzliche Teilziele zerlegt. Bei der traditionellen Problemlösung werden Ziele, Wissen und Problemzustände alle als Ausdrücke modelliert, die sich aus symbolischen Prädikaten zusammensetzen, und die Informationsgenerierung wird als Regelanwendung basierend auf dem Abgleich von Symbolen modelliert. Bei der Problemlösung mit Diagrammen hingegen steht ein zusätzliches Mittel zur Informationsgenerierung zur Verfügung, nämlich die visuelle Wahrnehmung auf Diagrammen. Ein Teilziel wird opportunistisch gelöst, je nachdem, welche Art der Informationsgenerierung erfolgreich ist. Diagramme sind besonders effektiv, weil bestimmte Arten von Informationen, die mit gegebenen Informationen verbunden sind, explizit als emergente Objekte und emergente Relationen für die visuelle Wahrnehmung zur Verfügung stehen. Wir fügen der traditionellen Problemlösungsarchitektur eine Komponente hinzu, um das Diagramm als Konfiguration von Diagrammobjekten von drei Grundtypen darzustellen,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-25931-2_16 95c8676faae005454a99a545b8943364;de;;;3.3.;;;Definition von Softwareprozessen durch Prozessworkshops: Eine Fallstudie Wir stellen die Anwendung der Prozessworkshop-Methode zur Definition überarbeiteter Arbeitsprozesse in Softwareentwicklungsunternehmen vor. In zwei empirischen Aktionsforschungsstudien untersuchen wir den Einfluss von Unternehmensprämissen und -zielen auf die Durchführung und anschließend auf die Ergebnisse der Methode. Wir kommen zu dem Schluss, dass sowohl Prämissen als auch Ziele die Workshops beeinflussen und schlagen vor, wie der Fokus der Workshops geändert werden sollte, um je nach Kontext bessere Ergebnisse zu erzielen. Wir bekräftigen auch frühere Behauptungen, dass die Prozessworkshops eine gute Arena sind, die Diskussionen und organisationales Lernen fördert, und dass die Teilnahme an den Workshops zu einer höheren Akzeptanz und Nutzung des resultierenden Prozesses führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73460-4_14 e9332d421edffeddc20c662849e8a517;de;;;3.3.;;;Methoden zur Schwachstellenbewertung – Ein Rückblick Dieses Papier gibt einen Überblick über die wichtigsten Beiträge im Bereich der Vulnerabilitätsbewertung ab 1990. Selbst gut verwaltete Netzwerke sind anfällig für Angriffe. Schwachstellen sind Schwachstellen in den Anforderungen, dem Design und der Implementierung, die Angreifer ausnutzen, um das System zu kompromittieren. Forscher haben eine Vielzahl von Methoden vorgeschlagen, wie grafikbasierte Algorithmen zur Generierung von Angriffsbäumen (oder Grafiken), „Black-Box“- und „Whitebox“-Analysen, unter Verwendung von Mobile Ambients, mithilfe von Honepots, verschiedenen Schwachstellen-Tools und ihren Bewertungssystemen und so weiter . Nach der Untersuchung vieler Forschungsarbeiten auf diesem Gebiet wird die Menge der vorhandenen Arbeiten für jede Methode identifiziert und klassifiziert. Insbesondere die graphbasierten Algorithmen selbst sind ein wichtiger Bereich für Forscher. Der Artikel schließt mit einigen Schlussfolgerungen und Ergebnissen, die bei jeder Methode erzielt wurden, sodass sie als Richtlinie für Forscher verwendet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22540-6_1 e1bc94ba646b36cf070a7ecbc8aeb3fa;de;;;3.3.;;;Flow Stealer: Leichter Lastausgleich durch Stehlen von Flows in verteilten SDN-Controllern Software-Defined Networking (SDN) führt zentralisierte Controller ein, um die Netzwerkprogrammierbarkeit drastisch zu erhöhen. Verteilte Steuerungsebenen, in denen mehrere SDN-Controller zusammenarbeiten, um ein Netzwerk zu verwalten, wurden vorgeschlagen, um die Anforderungen großer Netzwerke zu erfüllen, und es wurden verschiedene Arten von Lastausgleichsansätzen vorgeschlagen, um die Arbeitslasten zwischen diesen Controllern auszugleichen. Aktuelle Load-Balancing-Ansätze verwenden im Allgemeinen eine Switch-Migration, die die Zuordnung zwischen Switches und Controllern dynamisch an die Controller-Workloads anpasst. Diese auf Switch-Migration basierenden Ansätze sind aufgrund ihres Overheads und der längeren Erkennungsperioden bei Burst-Datenverkehr mit Herausforderungen konfrontiert. In diesem Whitepaper wird Flow Stealer vorgeschlagen, eine leichtgewichtige Load-Balancing-Methode für verteilte SDN-Controller. Flow Stealer verwendet eine kostengünstige Flow-Stealing-Methode, bei der inaktive Controller Workloads vorübergehend mit überlasteten Controllern teilen, indem sie Flow-Ereignisse von ihnen stehlen. Das Flow-Stealing-Verfahren kann nicht nur schneller auf Änderungen des Netzwerkverkehrs reagieren, sondern auch die Häufigkeit von Switch-Migrationen reduzieren. Darüber hinaus umfasst Flow Stealer sowohl Flow-Stealing als auch Switch-Migration, um sich an Burst-Datenverkehr und langfristige Datenverkehrsänderungen anzupassen. Experimentelle Ergebnisse zeigen, dass Flow Stealer die Arbeitslasten zwischen Controllern effizienter verteilen kann, insbesondere bei Burst-Traffic.;-;-;-;https://link.springer.com/article/10.1007/s11432-016-0333-0 f76edcece4f62a42021943976afbfd94;de;;;3.3.;;;Ein mehrstufiger optimaler Steuerungsansatz für die dynamische Bandbreitenzuweisung in Breitband-ISDN In diesem Papier wird ein neuartiges Schema für die dynamische Zuweisung von Bandbreite auf virtueller Pfadebene in B-ISDNs vorgestellt. Ein Fluidströmungsmodell wird entwickelt, um das zeitvariable mittlere Verhalten eines virtuellen Pfads zu beschreiben und dient als Zustandsvariablenmodell. Ein mehrstufiger optimaler Steuerungsansatz wird in Verbindung mit dem Zustandsmodell verwendet, um einen koordinierten dezentralisierten Algorithmus für die Bandbreitenzuweisung des virtuellen Pfads abzuleiten. Die Integration des Bandbreitencontrollers des virtuellen Pfads in ein hierarchisch organisiertes Netzwerksteuerungsschema ist in die Problemformulierung integriert. Die Leistungsfähigkeit des vorgeschlagenen Schemas wird mittels Simulation bewertet.;-;-;-;https://link.springer.com/article/10.1007/BF02110079 d4e3357f5041bb5fcfd7172c23dc1590;de;;;1.1.;;;Das GAP-Modell der KapazitätWährend im vorangegangenen Kapitel die Konsequenzen verschiedener Kapazitätsausprägungen für den Nachfrager dargestellt wurden, verdient nun die Frage Beachtung, wie ein Urteil über die Kapazität eines Anbieters beim Nachfrager entstehen kann. Zu diesem Zweck bietet es sich an, auf die Erkenntnisse der Qualitätsforschung im Bereich der Dienstleistungen zurückzugreifen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-95254-7_5 995bd6b9e8fe18da0edb54c6a5f1a934;de;;;1.1.;;;Das Zusammenspiel der Informationsquellen und der weiteren Einflussfaktoren auf die AkzeptanzWie entsteht Akzeptanz gegenüber der öffentlichen Verwaltung bzw. unter welchen Voraussetzungen kommt es zu eingeschränkter oder fehlender Akzeptanz? Das vorherige Kapitel hat die einzelnen Einflussfaktoren jeweils isoliert betrachtet und die Ergebnisse der Inhaltsanalyse dargestellt. Eine isolierte Betrachtungsweise ist jedoch nicht hinreichend, um zu erklären, wie Akzeptanz insgesamt entsteht. Vielmehr basiert sie auf multiplen und komplexen Prozessen des Zusammenspiels der verschiedenen Faktoren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-28376-6_8 b0573cfec446842176c81bc5e84d4e7f;de;;;3.3.;;;Probleme beim Design von Tools für die Entwicklung verteilter Softwaresysteme Es werden eine Reihe von Problemen diskutiert, die das Problem des Entwurfs von verteilten Softwaresystemen komplizieren. Diese Probleme treten auf, weil verteiltes Rechnen wesentlich komplexere Rechenstrukturen mit sich bringt, als sie sich aus traditionellen Ansätzen zur Strukturierung prozessbasierter Problemlösungen ergeben. Wir diskutieren die Anforderungen an Tools, die diese zusätzliche Komplexität bewältigen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-46430-0_3 15c4aa5c1746e127079296d42c10ac40;de;;;3.3.;;;Die Verantwortungslücke: Zuschreibung von Verantwortung für die Handlungen lernender Automaten Traditionell wird der Hersteller/Betreiber einer Maschine (moralisch und rechtlich) für die Folgen ihres Betriebs verantwortlich gemacht. Autonome, lernende Maschinen, basierend auf neuronalen Netzen, genetischen Algorithmen und Agentenarchitekturen, schaffen eine neue Situation, in der der Hersteller/Betreiber der Maschine machine;-;-;-;https://link.springer.com/article/10.1007/s10676-004-3422-1 0b199496828c0e32c2b293f034f7a95d;de;;;3.3.;;;Autotuning von PDE-Lösern mit adaptiver Netzverfeinerung auf Shared-Memory-Architekturen Viele multithreaded, gitterbasierte, dynamisch adaptive Solver für partielle Differentialgleichungen müssen permanent Untergitter (Patches) unterschiedlicher und wechselnder Größe durchlaufen. Die parallele Effizienz dieser Durchquerung hängt vom Zusammenspiel der Patchgröße, der verwendeten Architektur, der während der Durchquerung ausgelösten Operationen und der Korngröße, d. h. der Größe der Teilaufgaben, in die das Patch unterteilt wird, ab. Wir schlagen einen Orakelmechanismus vor, der Korngrößen on-the-fly liefert. Es berücksichtigt historische Laufzeitmessungen für verschiedene Patch- und Korngrößen sowie die Operationen des Polygonzugs und liefert angemessene Beschleunigungen. Weder magische Konfigurationseinstellungen noch eine teure Vorabstimmungsphase sind notwendig. Es ist ein Autotuning-Ansatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31464-3_68 1eba644474788d7e3961b15e60bd4d28;de;;;3.3.;;;Ein Komponentenmodell mit Komponenten und Aspekten Dieses Papier stellt AOKell vor, ein Framework für das Engineering komponentenbasierter Systeme. Dieses Framework implementiert das Fractal-Modell, ein hierarchisches und dynamisches Komponentenmodell. Die Neuheit dieses Beitrags liegt in der Präsentation von AOKell, einer Implementierung des Fractal-Modells mit Aspekten. Mit Fractal lassen sich zwei Dimensionen isolieren: die funktionale Dimension, die sich mit der Definition von Anwendungskomponenten befasst, und die Kontrolldimension, die sich mit den technischen Diensten (z. Die Originalität von AOKell besteht darin, erstens einen aspektorientierten Ansatz zur Integration dieser beiden Dimensionen bereitzustellen und zweitens einen komponentenbasierten Ansatz für das Engineering der Steuerungsdimension anzuwenden. Daher ist AOKell ein reflektierendes Komponenten-Framework, in dem Anwendungskomponenten von anderen, sogenannten Kontrollkomponenten verwaltet werden und in dem Aspekte Anwendungskomponenten und Kontrollkomponenten zusammenkleben.;-;-;-;https://link.springer.com/chapter/10.1007/11783565_10 3487e9b30354357d58cae73a12ae4dd2;de;;;3.3.;;;Eine neue Methodik zur Unterstützung von Gruppenentscheidungen für IoT-basierte Notfallreaktionssysteme Ein Notfallreaktionssystem (ERS) kann einer Gemeinde oder Regierung dabei helfen, ihre Fähigkeiten zur Reaktion auf dringende und schwerwiegende Ereignisse zu verbessern. Die Reaktionsfähigkeit und Effektivität eines ERS hängt stark von seinem Datenerfassungs- und -verarbeitungssystem ab, das mit der Informationstechnologie (IT) weiterentwickelt wurde. Mit der rasanten Entwicklung von Sensornetzen und Cloud Computing spielt das aufkommende Internet der Dinge (IoT) tendenziell eine zunehmende Rolle in ERSs die Notfälle auf Basis von Echtzeitdaten. Wenn in einem ERS Gruppenentscheidungen erforderlich sind, besteht eine kritische Herausforderung darin, ein gutes Verständnis massiver und diversifizierter Daten zu erlangen und unter hohem Stress und strengen Zeitbeschränkungen Konsensentscheidungen in der Gruppe zu treffen. Aufgrund der Natur unorganisierter Daten und der Systemkomplexität hängt ein ERS von den Wahrnehmungen und Urteilen von Experten aus verschiedenen Bereichen ab. In diesem Papier wird die Gruppenentscheidung in Notfallsituationen als ein multiples Attributgruppenentscheidungsproblem (MAGDM) formuliert, der Konsens zwischen Experten modelliert und eine neue Methodik vorgeschlagen, um das Verständnis von Notfallplänen mit dem maximierten Konsens bei der Entscheidungsfindung. Bei der Implementierung wird die vorgeschlagene Methodik in Computerprogramme integriert und als Dienst auf dem Server gekapselt. Die Ziele der neuen Methodik sind (i) die umfassende Kenntnis der Gruppe zu auftretenden Szenarien und Reaktionsplänen zu verbessern und (ii) den Konsens für die Entscheidungsfindung mit einem intelligenten Clustering-Algorithmus zu beschleunigen, (iii) die Meinungen der Experten ohne Auswirkungen zu korrigieren die Verlässlichkeit der Entscheidung, wenn aus den Vorentscheidungsschritten kein Konsens erreicht werden kann. Als Clustering-Algorithmus wurde Partitioning Around Medoids (PAM) angewendet, Particle Swarm Optimization (PSO) wird eingesetzt, um Bewertungswerte automatisch anzupassen. Die Methodik wird in einer Fallstudie angewendet, um ihre Wirksamkeit bei der Konvergenz von Gruppenmeinungen und der Förderung des Verständigungskonsens in Notfällen zu veranschaulichen.;-;-;-;https://link.springer.com/article/10.1007/s10796-013-9407-z 7df2a307bcd73774b50bbd51ffd19cc0;de;;;3.3.;;;Modellbasierte Unternehmenssimulation und -analyse Moderne Unternehmen sind komplexe Systeme, die in hochdynamischen Umgebungen arbeiten. Die Reaktionszeit auf die verschiedenen Veränderungstreiber ist kurz und die Kosten für Fehlentscheidungen untragbar hoch. Moderne Unternehmen neigen dazu, in Silos zu existieren, was zu fragmentiertem Wissen führt, wobei nur wenig Unterstützung für die Zusammenstellung der Fragmente zur Verfügung steht. Die derzeitige Praxis stellt eine hohe Belastung für Experten dar, da eine schnelle und umfassende Lösung erforderlich ist. Dieses Papier schlägt einen modellbasierten Ansatz für dieses Problem in Form einer Sprache für die Unternehmenssimulation und -analyse vor, die in der Lage ist, die „Was“, „Wie“ und „Warum“ eines Unternehmens zu integrieren. Eine mögliche Implementierung wird ebenfalls angedeutet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12256-4_1 62eb64dcb7374887320a6e437c2e692a;de;;;3.3.;;;Entwicklung des HPC-Marktes Seit 1993 wird zweimal im Jahr eine Liste der Top 500 Supercomputer-Standorte weltweit erstellt und frei zugänglich gemacht. Die Top500-Liste bietet erstmals eine verlässliche Grundlage für eine fundierte und detaillierte Analyse des Standes des High Performance Computing (HPC). Dieses Papier fasst einige der wichtigsten Beobachtungen über HPC im Zeitraum 1993–1996 zusammen. Insbesondere werden das beobachtete Leistungswachstum, die anhaltende Dominanz des Weltmarktes bei HPC durch die USA, die Marktdurchdringung von handelsüblichen mikroprozessorbasierten Systemen und der zunehmende industrielle Einsatz von Supercomputern gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-5514-4_2 0ab06442f95b6b3c2128e5e5f35746d8;de;;;3.3.;;;Design des Systems für Multimedia-Streaming-Dienste In der heutigen Zeit spielt das Internet eine Schlüsselrolle bei der Übertragung vielfältiger Informationen. Da die Leistungsfähigkeit des Internets zugenommen hat, liegen die übertragenen Informationen in Form von Multimedia-Streams wie Video und Audio vor. In der aktuellen Computer- und Internetumgebung können Multimedia-Streaming-Dienste jedoch aufgrund verschiedener Faktoren wie Internetbandbreite, Rechenleistung usw. nicht reibungslos ausgeführt werden. In diesem Beitrag schlagen wir ein effizientes System aus Hard- und Software im Hinblick auf das Designkonzept und die Systemarchitektur für den Multimedia-Streaming-Dienst vor. Wir präsentieren auch das Implementierungsergebnis für das System.;-;-;-;https://link.springer.com/chapter/10.1007/11596356_86 cec606d5f153a8d8a169b9ef27dd130d;de;;;3.3.;;;Postgraduales E-Learning-Fernstudium zum Thema IT im Bauwesen Der Beitrag stellt ein interuniversitäres Postgraduiertenprogramm zur Informationstechnologie (IT) im Bauwesen vor, das von einem Konsortium europäischer Universitäten angeboten wird. Konzepte, der Entwicklungsprozess, technische Lösungen, Erfahrungen und Pläne zur Weiterentwicklung des Programms werden beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-8739-4_17 81b76027f182458876a6ed1879987b56;de;;;3.3.;;;Auf dem Weg zum autonomen Cloud-Service-Engineering über das Intention-Workflow-Modell In den letzten Jahren hat der Aufstieg und die schnelle Einführung von Cloud Computing als Katalysator für die Forschung in verwandten Bereichen gewirkt: Virtualisierung, verteiltes und serviceorientiertes Computing, um nur einige zu nennen. Während die Cloud-Computing-Technologie schnell reift, bleiben viele der damit verbundenen langjährigen soziotechnischen Herausforderungen, einschließlich der Zuverlässigkeit der Cloud-basierten Dienstzusammensetzung, der Verwaltbarkeit der Dienste und der Interoperabilität, ungelöst. Dies kann argumentiert werden, um die Migration von ernsthaften geschäftskritischen Anwendungen in das Cloud-Modell zu verlangsamen. Dieses Papier berichtet über Fortschritte bei der Entwicklung einer Methode zur Generierung Cloud-basierter Servicekompositionen aus Anforderungsmetadaten. Der Beitrag stellt einen formalen Ansatz vor, der mithilfe von Situation Calculus Serviceanforderungen in ein Intention-Workflow-Modell (IWM) übersetzt. Dieses IWM wird dann verwendet, um eine autonome Cloud-Service-Komposition zu generieren. Der Petshop-Benchmark dient der Veranschaulichung und Bewertung der vorgeschlagenen Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-02414-1_16 36f966210f038d3b0859a795cc46e371;de;;;3.3.;;;Fortschritte bei dreidimensionalen Gittergerüsten aus Titanlegierung, die durch Elektronenstrahlschmelzen für biomedizinische Geräte hergestellt werden: mechanische und biologische Aspekte Wir erläutern hier die Prozess-Struktur-Eigenschafts-Beziehungen in dreidimensionalen (3D) implantierbaren Biomaterialien aus Titanlegierungen, die durch Elektronenstrahlschmelzen (EBM) verarbeitet werden, das auf dem Prinzip der additiven Fertigung basiert. Die herkömmlichen Verfahren zur Verarbeitung biomedizinischer Vorrichtungen, einschließlich Gefriergießen und Sintern, sind aufgrund der Schwierigkeiten bei der Anpassung an der Wirtsstelle und der Unterschiede in der Mikro-/Makrostruktur, mechanischen und physikalischen Eigenschaften mit dem Wirtsgewebe begrenzt. In dieser Hinsicht hat EBM den einzigartigen Vorteil, patientenspezifische komplexe Designs zu verarbeiten, die entweder aus der Computertomographie (CT) der Defektstelle oder durch ein computergestütztes Design (CAD)-Programm gewonnen werden können. Diese Übersicht stellt die Entwicklung und die zugrunde liegenden Gründe vor und fasst sie zusammen, die den 3D-Druck von Gerüsten für die Geweberegeneration motiviert haben. Die Übersicht besteht aus zwei Teilen, um die ultimativen Funktionalitäten zu erhalten. Der erste Teil konzentriert sich auf die Erzielung der ultimativen Funktionalitäten in Bezug auf die mechanischen Eigenschaften von 3D-Gerüsten aus Titanlegierung, die von EBM mit unterschiedlichen Eigenschaften basierend auf Design, Elementarzelle, Verarbeitungsparametern, Scangeschwindigkeit, Porosität und Wärmebehandlung hergestellt werden. Der zweite Teil konzentriert sich auf die Weiterentwicklung der Verbesserung der biologischen Reaktionen dieser 3D-Gerüste und den Einfluss von Oberflächenmodifikationen auf Zell-Material-Interaktionen. Der Überblick schließt mit einer Diskussion über die klinischen Studien dieser porösen 3D-Gerüste, die ihr Potenzial bei der Erfüllung der aktuellen Anforderungen der biomedizinischen Industrie veranschaulichen.;-;-;-;https://link.springer.com/article/10.1007/s40843-017-9134-x c81a01f813eaeca4e5376d0257489d41;de;;;3.3.;;;Low Power Wide Area Network: Technischer Review für drahtlose Sensornetzwerke und ihre Verwendung in Smart Cities-Bereitstellung durch das Internet der Dinge (IoT)-System Die weltweite Kommunikation ändert sich sehr schnell aufgrund von technologischen Fortschritten, bei denen neue und alle Arten von Geräten mit gegenwärtigen und zukünftigen Netzwerken verbunden wurden, die eine Übertragung mit geringer Informationsmenge erfordern, während die Zeit und die Zeiträume, in denen Daten übertragen werden, erhöht werden. Das Szenario ist ideal für Low Power Wide Area Network (LPWAN)-Technologien, die eine effiziente Kommunikation ermöglichen, zuverlässig und mit geringem Stromverbrauch. Diese Arbeit schlägt eine technische Überprüfung unter Verwendung von Simulationssoftware vor, um zu bestimmen, welche LPWAN-Technologie eine realistische Implementierungslösung für drahtlose Sensornetzwerke (WSN) bietet, um intelligente Städte aufzubauen, die eine Vielzahl von mobilen und festen Geräten mit einer Internet of Things (IoT)-Architektur und zuverlässig verbindet Datenübertragung, Protokollbetrieb, Konfiguration der Datenübertragungsrate und Frequenzzuweisung. Alle diese Aufgaben sind Ergebnisse von Netzwerksimulationen, die Benutzerschnittstellenparameter und Simulationsbedingungen ändern und ein genaues Diagrammnetzwerk liefern, wenn es möglich ist, Protokoll, Netzwerktopologie, Datenfluss, Frequenzband, Empfängerempfindlichkeit, Leistungsübertragung und andere zu konfigurieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-42531-9_10 3301d4474ff4963869b07efe86779011;de;;;1.1.;;;Was ist Musikgeschmack? — Erste DefinitionenBisher wurde von „Musikgeschmack“ gesprochen, ohne genau zu sagen, was eigentlich mit diesem Begriff gemeint ist. In Kapitel 1 blieb seine Verwendung im Rahmen der Alltagssprache, wo er die individuellen Vorlieben für und Aversionen gegen ein Musikstück oder ein musikalisches Genre bezeichnete. Umgangssprachliche Dichotomien wie „schön“ und „hässlich“, „gefällt mir“ oder „gefällt mir nicht“, „mit dem kann ich etwas anfangen“ oder „das verstehe ich einfach nicht“ dienten vorerst einmal dazu, den Gegenstand zu umreißen. Die Beschäftigung mit Klassikern der Ästhetik und Psychologie führte zur Einsicht, dass die Wahrnehmung von Musik einerseits auf universellen, andererseits aber auch auf gesellschaftlich und historisch variablen, im Zuge der Sozialisation internalisierten Prinzipien beruht, die in uns Gefühle der Lust oder Unlust hervorrufen. Auf dieser Grundlage fällen wir Urteile über Musik. Wie verhalten sich nun aber Verstand und Gefühl in der Wahrnehmung von Musik zueinander? Und wie werden die zahlreichen musikalischen Erfahrungen zu einer dauerhaften Disposition, zu einer langfristigen Orientierung, die wir schließlich als individuellen Musikgeschmack bezeichnen? Dass es hierbei nicht nur um die kognitive Fähigkeit einer adäquaten Rezeption, also um die Informationsverarbeitung geht (Kapitel 3.1), sondern auch um Fragen der sinnvollen und strategischen Nutzung von Musik (Kapitel 3.2), sollen die folgenden Ausführungen verdeutlichen. Sie führen schließlich zu einer Defmition von Musikgeschmack, der nicht nur auf kognitiven Fähigkeiten beruht, sondern auch auf habitualisierten Strategien: Denn Musik wird zum einen in Hörstrategien als Mittel zur Herstellung psychophysischer Zustände verwendet (Kapitel 3.3), zum anderen aber auch als Ressource in sozialen Strategien, als Mittel der sozialen Integration aber auch der Abgrenzung (Kapitel 3.4).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-10239-7_3 56c930bf221de160342e01553f949bcd;de;;;1.1.;;;Vergleich der TheorienPeter Drucker, Daniel Bell und Manuel Castells zeichnen das Bild einer Gesellschaft, in der das Wachstum der Wirtschaft zunehmend von Innovation und technischer Entwicklung geprägt ist. Wissen, im weitesten Sinne verstanden, wird zur Quelle der Wertschöpfung, die neuen Informations- und Kommunikationstechnologien stehen emblematisch für diese Entwicklung. Die Industriegesellschaft verabschiedet sich in dem Maße, wie ihre Insignien, der klassische Industriearbeiter, der industrielle Konflikt zwischen Arbeit und Kapital und das Organisationsmodell der hierarchischen Bürokratie an Bedeutung verlieren. Die Mehrheit der Beschäftigten ist im Dienstleistungsbereich tätig, in der Berufsstruktur herrschen technische, professionelle und administrative Berufe vor und der Charakter der Arbeit hat sich verändert. Schichtung und Macht erhalten neue Grundlagen und neue Konfliktlinien zeichnen sich ab. Schließlich stellt sich die Frage, ob aus diesem Wandel nicht auch eine Transformation des Kapitalismus resultiert. Soweit das gemeinsame Bild, das die drei diskutierten Ansätze von der Informationsgesellschaft zeichnen. Allerdings beruht diese Gemeinsamkeit nicht auf einer Konvergenz der Ansätze: Die einzelnen Aspekte werden unterschiedlich gedeutet und begründet, auch zeigen sich deutliche Unterschiede im Aufbau der Konzepte, in der Ausrichtung ihrer Argumentation, wie hinsichtlich der Prozesse und Dynamiken, die dem Wandel zugrunde liegen sollen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-93356-6_6 3cd925f6dd14514e99f44840cb7f7095;de;;;1.1.;;;Bewertungsmodell für Technologien innovativer GründungenDas folgende Kapitel wählt die Variablen aus, die die ökonomische Vorteilhaftigkeit von Innovationsprojekten bzw. von innovativen Gründungen bestimmen und die zugleich wesenseigene (intrinsische) Merkmale von Technologiegebieten darstellen. Diese Menge von Merkmalen bildet die in Abschnitt 2 charakterisierte Menge ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-91512-2_4 fa4d912291e77b7376bccf2fc98fb8d2;de;;;3.3.;;;Das Tutelkan SPI Framework für kleine Settings: Ein Methodentransfer-Vehikel Software-Unternehmen zielen darauf ab, ihre Prozesse zu verbessern, um ihre Produktivität, Wettbewerbsfähigkeit und Leistung zu steigern. Obwohl zahlreiche Standards und Modelle vorgeschlagen wurden, ist ihre Übernahme in kleinen Organisationen aufgrund einiger Größenunterschiede und des Mangels an erfahrenen Verfahrenstechnikern schwierig, was sie dazu zwingt, (teure) externe Berater einzustellen. Dieser Artikel beschreibt das Tutelkan SPI Framework, das einen dreifachen Ansatz für dieses Problem vorschlägt: (1) Bereitstellung einer Bibliothek wiederverwendbarer Prozess-Assets, (2) Bereitstellung von Kompositionstools zur Beschreibung der Prozesse kleiner Unternehmen unter Verwendung dieser Assets und (3) systematisch Schulung von Beratern mit Fokus auf kleine Organisationen für diese Bibliothek und dieses Toolset. Das Framework wurde erfolgreich mit mehreren chilenischen Kleinunternehmen erprobt, und die Bibliothek und Tools sind offen und frei verfügbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15666-3_13 b04d43932113976f0f2dde779de6437d;de;;;1.1.;;;Eingrenzung des Untersuchungsgegenstands: kulturelle Einstellungen von KulturtouristenKulturmanagement stellt keine traditionelle wissenschaftliche Disziplin dar, kennzeichnend ist ein interdisziplinär bedingter Theorien- und Methodenpluralismus (vgl. Klein 2011b: 3 f.). Als Bezugsdisziplinen gelten „die Kultur-, Kunst- und Sozialwissenschaften sowie die Betriebs- und Volkswirtschaftswissenschaften“ (Föhl/Glogner 2008: 16), die idealerweise jedoch nicht lose übergestülpt, sondern im Kontext der kulturbetrieblichen Rahmenbedingungen zur Anwendung kommen (vgl. Heinrichs/Klein 2001: 38). Kennzeichnend ist folglich auch die Praxisorientierung des Kulturmanagements.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-05430-4_4 816767404cdd4617a5e47a510ee73000;de;;;1.1.;;;Vom Ich und vom Wir: Das Selbst und die soziale IdentitätIhr Selbstkonzept ermöglicht es Menschen, zu erkennen, wo sie stehen und wer sie sind. Der Austausch mit der sozialen Umwelt stellt eine der wichtigsten Quellen des Selbstkonzepts dar, welche im Kapitel vorgestellt werden. Hierbei geht es um die Selbstwahrnehmung durch Beobachtung des Selbst oder der Reaktionen Anderer, um soziale Vergleiche sowie um soziale Identität und Selbstkategorisierung. Anschließend beschäftigen wir uns damit, wie das „motivierte Selbst“ Menschen in ihrem Verhalten und Denken über sich selbst antreibt („Selbstregulation“). Dabei erörtern wir die Grundbedürfnisse nach Selbstwert, Unsicherheitsreduktion, Kontrolle und Erhaltung des Selbst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-93436-5_5 6c9a818f7300ee8556138b70e43e4ded;de;;;3.3.;;;Eine Fallstudie zur Koordination in der verteilten agilen Softwareentwicklung Globale Softwareentwicklung (GSD) hat als aufstrebendes Paradigma an Popularität gewonnen. Auch Unternehmen zeigen Interesse, agile Ansätze in der verteilten Entwicklung anzuwenden, um die Vorteile beider Ansätze zu vereinen. In ihren radikalsten Formen können Agile und GSD jedoch aufgrund der Koordination der Arbeit an jedem Ende eines planbasierten/agilen Spektrums platziert werden. Wir beschreiben, wie drei GSD-Projekte mit agilen Methoden ihre Arbeit koordinieren. Wir haben festgestellt, dass Vertrauen erforderlich ist, um den Bedarf an Standardisierung und direkter Aufsicht bei der Koordinierung der Arbeit in einem GSD-Projekt zu reduzieren, und dass elektronischer Chat die gegenseitige Anpassung unterstützt. Außerdem mildern Co-Location und Modularisierung Kommunikationsprobleme, ermöglichen Agilität zumindest in einem Teil eines GSD-Projekts und ermöglichen die Implementierung von Scrum of Scrums.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85936-9_17 1693f98a224bd27dd47097cc892fab9a;de;;;1.1.;;;Relativismus und wissenschaftlicher Realismus in der MarketingwissenschaftIn den 1980er und 1990er Jahren hat eine — teilweise scharf geführte — Auseinandersetzung über wissenschaftstheoretische Grundfragen der Marketingwissenschaft in der internationalen Fachdiskussion eine große Rolle gespielt. Dabei ging es um zentrale Aspekte der Erkenntnisgewinnung und der Aussagemöglichkeiten (nicht nur) in der Marketingforschung. Zaltman / Pinson / Angelmar (1973, S. 4) kennzeichnen Wissenschaftstheorie als „Untersuchung, Analyse und Beschreibung;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-8059-5_5 ffcade2181032a4d31898e0c1cc077b5;de;;;1.1.;;;Ideen. Regionen. Organisationen.Im ersten Kapitel wurden die drei Forschungsebenen beschrieben und die damit implizierten theoretischen Perspektiven vorgestellt, aus denen sie abgleitet wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-28406-0_2 c2d6138439b1497534d800fbde2020b9;de;;;1.1.;;;Qualitätssicherung in der Medizin: Ziele und ForschungsbedarfDie Qualitätssicherung in der Medizin ist sicher kein eigenständiges, in sich abge schlossenes Forschungsgebiet. Lediglich die Probleme und ihr gedanklicher Lösungsansatz lassen sie als Einheit erscheinen. Dieser aber ist facherübergreifend und bedient sich u.a. der Methoden der Informationsverarbeitung, Biometrie, Epidemiologie und Gesundheitssystemforschung. Überall dort, wo sich das ärztliche Handeln auf gesichertes medizinisches Wissen stützen kann, läßt sich die Qualität beurteilen und können Maßnahmen zu ihrer Sicherung und — wenn notwendig — Verbesserungen entwickelt und in den ärztlichen Alltag eingeführt werden. Damit sind 2 der Hauptschwierigkeiten ärztlicher Qualitätssicherung aufgezählt: die Definition gesicherten Wissens — benötigt zur Auswahl der Anwendungsfelder und der Messung der Qualität — und die Kontrolle bzw. Intervention eines laufenden Prozesses. Insbesondere im zweiten Punkt unterscheidet sich die Qualitätssicherung von der medizinischen Forschung im üblichen Sinn.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-84312-9_25 1d28007d2e6b0e2d194601cf7a56163b;de;;;1.1.;;;Ein Modell für alle? Das ‚Neue Steuerungsmodell’ im KontextWie im vorausgegangenen Kapitel dargestellt, analysiert die Verwaltungswissenschaft die öffentliche Verwaltung und deren Organisationen vor allem mit Blick auf das politische System. Das gilt auch für die Reformen, die seit Anfang der 1990er Jahre in den Organisationen der deutschen Kommunalverwaltung zu beobachten sind. Die vorliegende Arbeit nimmt hingegen eine andere Perspektive ein. Sie untersucht die Veränderungen aus einem organisationssoziologischen Blickwinkel als organisationalen Wandel. Dabei wird eine Beschreibung aufgegriffen, die in der Verwaltungswissenschaft als Kritik angeführt wird: die Auffassung, dass es sich beim ‚Neuen SteuerungsmodelP um eine bloße Mode welle handelt (vgl. Jann 1997: 92, ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-91421-3_3 2dbde854f0a8e62bf8987fa63b1f5f43;de;;;1.1.;;;Entwicklung eines Modells zur Dienstleistungsbeurteilung am Beispiel der Freien BerufeNachdem die theoretischen Hintergründe zur Ermittlung eines Dienstleistungsurteils sowie einige bereits existierende praktische Methoden dargestellt wurden, soll im Folgenden ein Modell entwickelt werden, das die Beurteilung und Vergleichbarkeit von verschiedenen Dienstleistungsuntemehmen einer Branche ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-81513-2_4 81a89d37932a1042f076b62dc7890b31;de;;;1.1.;;;Verhaltenstherapie bei schizophrenen Psychosen: I. Theoretische und empirische GrundlagenIn diesem ersten Teil des Beitrages über Möglichkeiten verhaltenstherapeutischer Schizophreniebehandlung werden wichtige empirische Forschungsergebnisse und integrierende theoretische Konzeptionen der Schizophrenieforschung dargestellt. Sie ermöglichen ein in Einklang mit wissenschaftlichen Erkenntnissen stehendes Verständnis schizophrener Störungen und konstituieren damit die Basis einer rationalen Therapieplanung. Im einzelnen wird auf definito-rische Merkmale des aktuellen Schizophreniebegriffes, auf Symptome und ihre sub-typologische Relevanz, auf Verlauf und Prognose der Schizophrenien, auf epidemiologische und ätiologische Befunde eingegangen. Im Ätiologiekapitel werden im Sinne einer multifaktoriellen Genese bedeutsame biologische (aus den Bereichen: Genetik, Neurotransmitterstoffwechsel, Hirnorganik und neuronale Entwicklung) und psychologische Faktoren (aus den Bereichen: Informationsverarbeitung, Streß, Coping und Persönlichkeit) diskutiert und anschließend im Kontext moderner Vulnerabilitätsmodelle betrachtet. Schließlich werden Beiträge der modernen empirischen Therapieforschung und ihre Auswirkung auf die Entwicklung des verhaltenstherapeutischen Methodenrepertoires referiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-2290-7_7 3682177bc4390903acd8a4afc8490fe2;de;;;1.1.;;;Pharmakologie der InhalationsanästhetikaWährend Jahrtausenden wurden chirurgische Eingriffe ohne Linderung der damit verbundenen Schmerzen durchgeführt. Schon in prähistorischen Kulturen, wie z. B. in Kenya, hat man Schädeltreponationen, die mehrere Stunden dauerten, ohne Anästhesie durchgefihrt. Später versuchte man mit verschiedenen Drogen, die Patienten in einen „künstlichen“ Schlafzustand zu bringen. In der Odyssee von Homer ist die Verwendung von (wahrscheinlich) in Wein aufgelöstem Opium beschrieben — „um durch Schlaf Sorgen und Ärger zu vermeiden und den Schmerz zu vergessen“. Im ersten Jahrhundert war die Mandragorapflanze von griechischen (Dioscorides) und römischen Ärzten (Galenus) zu diesem Zweck verwendet worden. Die Kompression beider Karotiden war eine andere, von ägyptischen und assyrischen Ärzten praktizierte Methode, um einen kurz dauernden Schlaf während eines chirurgischen Eingriffs zu erreichen. Die alten Scythen und auch die Araber waren die ersten, die eine Form von Inhalationsanästhesie verwendeten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-97553-0_6 8afdf5e1611ff58af74beeff66e06b0e;de;;;1.1.;;;HauptuntersuchungUm die Praktikabilität der Untersuchungsinstrumente zu überprüfen und erste, tentative Ergebnisse zu erhalten, führten wir einen Pretest durch. Mit Ausnahme des Fragebogens zur Erfassung der Verhaltenstendenzen wurden in diesem Pretest sämtliche Elemente unseres Instrumentariums eingesetzt. Auf die an jede Episode angeschlossene Frage an die Professionellen, wie sie sich als nächstes verhalten würden, haben wir im Rahmen des Pretests bewußt verzichtet. Dieser Fragebogen ist der einzige, der so auch in unserer Untersuchung mit den Ehrenamtlichen eingesetzt und von daher schon auf seine Handhabbarkeit hin geprüft wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-01096-8_6 1984eaf20c7db8a7f803f53bbb3a2773;de;;;3.3.;;;Stealth-ACK: Stealth-Übertragungen von NoC-Bestätigungen Network-on-Chip (NoC) ist aufgrund seiner besseren Skalierbarkeit ein vielversprechender Ersatz für die Busarchitektur. Bei NoCs nach dem Stand der Technik enthält jedes Paket mehrere Flits fester Länge, was die Zuweisung von Netzwerkressourcen erleichtert, aber viele ungenutzte Bits einbringt. In diesem Artikel schlagen wir eine neuartige Technik namens Stealth-ACK vor, um das obige Problem effektiv anzugehen. Stealth-ACK nutzt ungenutzte Bits in Head-Flits von Nicht-ACK-Paketen, um ACK-Informationen zu transportieren und heimlich zu übertragen. Solche heimlichen Übertragungen von ACK-Informationen reduzieren effektiv nicht nur die Menge dedizierter ACK-Pakete auf NoC, sondern auch die Anzahl ungenutzter Bits in Head-Flits von Nicht-ACK-Paketen, was die Verschwendung von NoC-Bandbreite erheblich reduziert. Experimentelle Ergebnisse zeigen, dass Stealth-ACK den Durchsatz von 16 × 16 2-D-Mesh-NoC durchschnittlich um 11,9% erhöht und die NoC-Latenz bei Anwendungsspuren von SPLASH-2 durchschnittlich um 34,8% reduziert. Darüber hinaus erfordert Stealth-ACK nur eine triviale Hardware-Modifikation an grundlegenden Router-Architekturen, was einen vernachlässigbaren Stromverbrauch und Flächenkosten mit sich bringt.;-;-;-;https://link.springer.com/article/10.1007/s11432-015-0328-y 845091d3b8fbf5a083ecf7650c0fc585;de;;;3.3.;;;Früher leichtgewichtiges Kryptosystem: Auf dem Weg zum Schutz der Privatsphäre von ressourcenbeschränkten Geräten Die Verwendung von Kryptosystemen wurde aufgrund des erhöhten Bedarfs an Austausch über nicht vertrauenswürdige Medien, insbesondere internetfähige Netzwerke, populär. Auf der Grundlage der Anwendung wurden verschiedene Formen von Kryptosystemen zum Zweck der Authentifizierung, Vertraulichkeit, Integrität und Nichtabstreitbarkeit entwickelt. Kryptosysteme verwenden in verschiedenen Anwendungsbereichen Verschlüsselungsschemata, die Klartext in Geheimtext umwandeln. Die enormen Fortschritte in der Internet of Things (IoT)-Technologie und ressourcenbeschränkten Geräten haben zu einem massiven Einsatz von Sensorgeräten und einem Wachstum von Diensten geführt, die auf leichte Geräte ausgerichtet sind. Obwohl diese Geräte eine Reihe von Diensten unterstützen, erfordern sie starke, leichtgewichtige Verschlüsselungsansätze zum Schutz der Privatsphäre. Bestehende leichtgewichtige Kryptosysteme erfüllen nicht die erwarteten Datenschutzniveaus und Anwendbarkeit in einer aufkommenden Umgebung mit eingeschränkten Ressourcen. Dieses Papier entwickelt ein mathematisches Modell für ein Sooner-Leichtgewichts-Kryptographieschema, das auf reduzierten und gehärteten Chiffretext-Blockgrößen, Hash-Größen und Schlüsselgrößen traditioneller Kryptosysteme und der Public Blockchain-Technologie für allgegenwärtige Systeme basiert. Danach wurde das von der RSA-homomorphen Verschlüsselung angebotene Härtungsverfahren angewendet, um stärkere, sichere und leichtgewichtige AES, RSA und SHA-3 zu erzeugen, um den Austausch nicht vertrauenswürdiger Kanäle zu bewältigen. Der vorgeschlagene Sooner wird zum Zwecke des Datenschutzes zur Übernahme in öffentliche Blockchain-basierte intelligente Systeme und Anwendungen empfohlen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-69143-1_32 860b79a7eb9c14bfa147abb6c2763492;de;;;3.3.;;;Sprachkonzepte Das Hauptziel dieses Kapitels besteht darin, einige wichtige Terminologien und Konzepte von Programmiersprachen zu betrachten. Der erste Teil befasst sich mit Programmiersprachen im Allgemeinen, der zweite mit C# im Besonderen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0075-1_2 100f6d17e40234ff114af712861b1704;de;;;3.3.;;;Neuronale kontrollbasierte Erforschung des endogenen Sicherheitsmodells Mit der Entwicklung der Informationstechnologie wurde die Architektur von Informationssystemen immer komplexer und die Leistung der Endgeräte wurde stärker. Die bestehenden zentralisierten Abwehr- und passiven Abwehrmethoden werden in zukünftigen Netzwerken Probleme wie eine geringe Diensteffizienz und unzureichende Abwehrfähigkeiten verursachen. Dieses Papier schlägt einen endogenen Sicherheitsschutzmechanismus vor, der auf der neuralen Kontrolle des menschlichen Körpers basiert. Der Hauptzweck dieses Papiers besteht darin, von neuronalen Kontrollmechanismen zu lernen und einen autonomen aktiven Abwehrmechanismus aufzubauen, so dass die Sicherheitselemente und Funktionselemente des Systems hochgradig integriert werden können. Dieses Papier bildete zunächst die menschliche Nervensteuerung durch das Studium des menschlichen Nervensteuerungssystems auf das Informationssystem ab. Dann wurde die nervensystemähnliche Steuerungsarchitektur konstruiert und eine aufgabenorientierte Ausführungsarchitektur wurde umgebaut. Im vorgeschlagenen System sind Sicherheitselemente und Funktionselemente in hohem Maße in einem Modell integriert. Die Verifikation auf Basis des prototypischen Systembau-Frameworks zeigt, dass dieses endogene Sicherheitsmodell auf Basis neuronaler Kontrolle die Sicherheit des Informationssystems aufrechterhalten kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-78612-0_20 fa91d2920738a45ccf83253831f9aae1;de;;;3.3.;;;Social Media, Software-Engineering-Kollaborationstools und Leistung des Softwareunternehmens Software Engineering (SE) nutzt wie jeder andere Bereich das Web 2.0. Im Web 2.0 verändert Social Media (SM) die Landschaft des Software Engineering (SE) und hat die Fähigkeit, die Leistung von Software Engineering Organizations (SEO) zu verbessern. Ungeachtet der scheinbar weit verbreiteten Nutzung von Social Media (SM) in SE gibt es immer noch wenig Wissen über die Vorteile oder Risiken der SM-Nutzung sowie darüber, welche SM-Tools verwendet werden könnten, um die Leistung der SE-Organisation zu verbessern, und welchen Einfluss sie haben können die Qualität der Software. Um die Erfolgsquote zu erhöhen, müssen Unternehmen außerdem in der Lage sein, auch Krisensituationen zu nutzen. Die Nutzung von SM in CM scheint jedoch ein wenig erforschtes Thema zu sein, und es besteht ein wachsender Bedarf an einem kompakten Rahmen in diesem Bereich. Darüber hinaus bleibt die wissenschaftliche Forschung zu SM hinsichtlich ihrer zahlreichen Zwecke und späteren Einflüsse auf Organisationen unverständlich. Das gleiche gilt für die SM-Nutzung im CM. Neben SM sind auch SE-Collaboration-Tools eine wichtige Quelle zur Verbesserung der Leistung. Frühere Literatur weist auf die Notwendigkeit von Forschungsarbeiten zur Nutzung von Web 2.0, insbesondere von SM und anderen Kollaborationswerkzeugen, für CM in SEOs hin. Daher bedarf es einer gründlichen Recherche zu diesem Thema. Die vorliegende Forschung zielt darauf ab, die Rolle von Social Media- und Software-Engineering-Collaboration-Tools für ein effektives Krisenmanagement und eine verbesserte Leistung von Softwareorganisationen zu untersuchen. Basierend auf einer umfassenden Literaturrecherche und relevanten Theorien zielt die vorliegende Forschung darauf ab, einen konzeptionellen Rahmen für den Einsatz von SM- und SE-Kollaborationswerkzeugen zur Verbesserung der Leistung von Softwareentwicklungsunternehmen bereitzustellen. Darüber hinaus wird auch die vermittelnde Rolle des Krisenmanagements vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0058-9_18 865530799e865f86acc6d8b390e68e4a;de;;;3.3.;;;Auf dem Weg zur erweiterten Choreographie Choreografen interessieren sich für bereicherte Performances, bei denen virtuelle Aktanten zusammen mit Live-Performern spielen. Augmented Choreography kann als Definition dafür angesehen werden, wie aus der Umgebung generierte Wahrnehmungen zu Befehlen werden, die die Umgebung selbst und insbesondere virtuelle Aktanten beeinflussen. Dieser Beitrag stellt eine modulare und erweiterbare Architektur vor, die die flexible und dynamische Definition von erweiterten Choreografien unterstützt und stellt eine experimentelle Anwendung vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33329-3_2 708946fd79b29e9007cfbfa501db5a52;de;;;3.3.;;;Computerumgebungen für die räumliche Datenanalyse Dieses Whitepaper beschreibt die Funktionalität und Architektur von SpaceStat, der SpaceStat Extension for ArcView und der DynESDA Extension for ArcView. Es vergleicht die Funktionen dieser Pakete mit fünf anderen Softwareimplementierungen für die räumliche Datenanalyse. Es werden einige Ideen zu allgemeinen Anforderungen und zukünftigen Richtungen in Bezug auf Computerumgebungen für die räumliche Datenanalyse formuliert.;-;-;-;https://link.springer.com/article/10.1007/PL00011455 1687de29f7f1b8cab76d2fc6930fb236;de;;;3.3.;;;Entwurf von verteilten Echtzeit-Fertigungssteuerungssystemen mit UML-Kapseln In diesem Papier beschreiben wir einen allgemeinen Ansatz für den Entwurf von Echtzeit-verteilten Fertigungssteuerungssystemen basierend auf dem IEC 61499 (Funktionsblock)-Modell. Wir präsentieren auch zwei orthogonale Methoden zum Konstruieren von Funktionsblöcken unter Verwendung von UML-Kapseln innerhalb eines objektorientierten Frameworks. In der ersten Methodik behandeln wir einen Funktionsblock als einzelne Kapsel, während wir in der zweiten den Funktionsblock als eine Komponente mit mehreren Kapseln modellieren. Der Hauptunterschied zwischen diesen beiden Standpunkten ist die Granularität der Kontrolle, die wir über den Betrieb des Funktionsblocks und seine Position innerhalb der dezentralen Fertigungsumgebung haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0719-4_40 6071f02dde94a2b78afd84836fc6a4ca;de;;;1.1.;;;Die betriebswirtschaftliche Kostenlehre als System von TeiltheorienInformationen über die Höhe und Entwicklung der Kosten kommen in nahezu allen unternehmerischen Entscheidungsprozessen eine zentrale Bedeutung zu. Die Erfassung, Erklärung und Gestaltung des Kostenphänomens stehen deshalb seit jeher im Mittelpunkt wirtschaftstheoretischer und -praktischer Untersuchungen. Die Kostenlehre zählt zu den wesentlichen Bestandteilen der volkswirtschaftlichen und betriebswirtschaftlichen Disziplinen. Trotz weitgehender Übereinstimmung im Erkenntnisobjekt gehen jedoch volkswirtschaftliche und betriebswirtschaftliche Untersuchungen des Kostenproblems von verschiedenen Erkenntniszielen und arteigenen Fragestellungen aus. Die volkswirtschaftliche Kostenlehre befaßt sich in erster Linie mit kostentheoretischen Problemen. Die Kostentheorie bildet dort die Grundlage für die Erklärung und Beeinflussung makroökonomischer Vorgänge. Demgegenüber entwickelt die betriebswirtschaftliche Kostenlehre Aussagensysteme zur Bewältigung der in betrieblichen Entscheidungsprozessen auftretenden Kostenprobleme. Die begriffliche Analyse der Kosten bildet hier die Grundlage für die betriebswirtschaftliche Kostentheorie und die Theorie der Kostenrechnung. Beide Teiltheorien sind gleichermaßen Bestandteil der betriebswirtschaftlichen Kostenlehre.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-04187-0_1 214a40b51c67e57915d86703a10216da;de;;;1.1.;;;Effiziente EnergieanwendungAls einem der vier Endenergieverbrauchssektoren (Industrie, Kleingewerbe, Haushalte, Verkehr) kommt dem Verkehrssektor mit fast 30% Anteil besondere Bedeutung zu. Unabhängig vom speziellen Verkehrsträger oder dessen technischer Realisierung hängt der Verbrauch sowohl von physikalischen als auch von betrieblichen Aspekten ab. Eine Ebene tiefer wird er aber bereits durch Städteplanung und Konsumgewohnheiten festgelegt, die das Mobilitätsverhalten weitgehend vorgeben. Eine Änderung des Mobilitätsverhaltens erfordert eine lange Vorlauf- und Umsetzungszeit, da hierfür ein Konsens zwischen vielen Akteuren notwendig ist. Es bietet aber auch ein großes Reduktionspotential des Energieverbrauchs und damit verbundener Emissionen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55451-3_5 c1179bf81381fbe8e4a3d4237911ab63;de;;;1.1.;;;InstandhaltungUm die verschiedenen Auffassungen und Auslegungen der Grundbegriffe der Instandhaltung zu vereinheitlichen, sind diese durch die DIN 31051 (Dezember 1974) Blatt 1 bzw. durch die Ergänzung dieser Norm (Teil 10, Oktober 1977) festgelegt worden (Bild 8/1).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-06541-9_8 139da898f9a08786f7058be38a199d9d;de;;;1.1.;;;Der Effekt der Präsentationsform auf die Prognosefähigkeit frühzeitiger KonzepttestsDa in den frühen Phasen des Entwicklungsprozesses noch keine realen Prototypen verfügbar sind, muss im Rahmen der frühzeitigen Kundenintegration auf nicht-reale Präsentationsformen (z. B. Texte oder Bilder) zur Darstellung alternativer Produktkonzepte zurückgegriffen werden. Die Auswahl der zum Einsatz kommenden Präsentationsform ist von entscheidender Bedeutung für den Erfolg der Kundenintegrationsmaßnahme. Die vorliegende empirische Untersuchung evaluiert die Eignung von drei nicht-realen Präsentationsformen (Text, Animation und VR) anhand eines theoriebasierten Modells zur Beurteilung innovativer Produktkonzepte. Die zentralen Komponenten des Modells bilden das objektive und subjektive Verständnis der zu integrierenden Kunden für die dargestellten Produktkonzepte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-55152-3_4 7d16cc9b84867123738a5ef8eb80b8da;de;;;1.1.;;;Medienrezeption in GruppenAls Nächstes steht die Medienrezeption in Gruppen im Mittelpunkt. Dabei wird zunächst ihre Bedeutung eingeordnet und ein kurzer Überblick über bisherige Untersuchungen zum Zusammenspiel von Medienrezeption in Gruppen und Vorurteilen gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-23218-4_3 f78d4ec7725147393e67eb06ba95c6c8;de;;;1.1.;;;Datenbanksysteme für die Verwaltung Geometrischer ObjekteGeometrische Objekte spielen eine zentrale Rolle bei der Anwendung von Datenbanksystemen im Ingenieurbereich oder in den Geowissenschaften. Es wird anhand einfacher Beispiele aufgezeigt, daß das Konzept ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-71388-0_38 12bd448cfade3aa9e8e6c1e1bd8708bf;de;;;3.3.;;;KSACI: Eine Handheld-Geräteinfrastruktur für die Agentenkommunikation Die jüngste Entwicklung von Softwareplattformen für Mobiltelefone und Handheld-Computer, wie Java 2 Micro Edition (J2ME), hat die Anwendungsperspektiven in diesem Bereich erweitert. Die Entwickler können nun ihre eigene Software für Handheld-Geräte schreiben, was vor kurzem unmöglich war, da die Plattformen proprietär waren. Unter den unzähligen Anwendungen für diese Geräte sind einige von ihnen sehr komplex und erfordern daher das intelligente Verhalten, das typischerweise von Agenten bereitgestellt wird. Da J2ME jedoch eine sehr junge Plattform ist, gibt es noch keine gut etablierten J2ME-basierten Umgebungen oder Tools für die Agentenentwicklung. In diesem Zusammenhang ist es äußerst hilfreich, Bausteinkomponenten wie deduktive Inferenzmechanismen und Kommunikationssprachen und -protokolle zu entwickeln. In diesem Dokument wird KSACI beschrieben, ein Tool, das eine Kommunikationsinfrastruktur zwischen Agenten bereitstellt, die auf Handheld-Geräten ausgeführt werden. KSACI unterstützt KQML als äußere Sprache und XML als innere Sprache. KSACI erweitert SACI (Simple Agent Communication Infrastructure), eine Java-Open-Source-Kommunikationsinfrastruktur für Desktop-Agenten. Zusammen mit zwei anderen in diesem Buch vorgestellten Arbeiten stellt KSACI eine Pionierleistung bei der Entwicklung solcher Kommunikationswerkzeuge dar. KSACI ist bereits vollständig implementiert und seine vorläufigen Testergebnisse zu Handy-Emulatoren sind ermutigend.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45448-9_32 acb9586ec5d18a9044ce2b6dae08affe;de;;;1.1.;;;Funktionen von Ideologien und subkulturellen Normen im ExtremismusIdeologien bzw. politisch-ideologische Überzeugungssysteme resultieren einerseits aus individuellen Erfahrungswerten und andererseits aus Lernprozessen in einer Deutungsgemeinschaft. Dabei variiert die Verteilung der ideologischen Fragmente und der memetischen Konstruktionen je nach Gruppenrolle und Selbstverständnis der Mitglieder. Extremistische Gruppierungen befinden sich in einem diskursiven Kampf um die Deutungshoheit und um Problemdefinitionen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-23816-2_7 9c782bf28a3e4a97d49201fc6d71a59d;de;;;1.1.;;;Psychische Störungen mit körperlicher Symptomatik sowie chronische somatische Erkrankungen mit psychischer BeteiligungIm Fokus des psychosomatischen Konzepts steht der Mensch mit seiner Erkrankung. Dabei umfasst die psychosoziale Perspektive nicht nur die multifaktorielle Ätiologie (körperliche und seelische Teilaspekte) einer Krankheit, eines gesundheitsschädlichen Verhaltens sowie einer Beeinträchtigung der körperlichen Unversehrtheit im allgemeinen, sondern auch ihre Auswirkungen auf das emotionale Wohlbefinden, auf die soziale Integration, die Leistungsfähigkeit und auf das Bewältigen der altersadäquaten Entwicklungsschritte von Kindern und Jugendlichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19846-5_24 70a059544d6b2aec2dc6eaecb09020f0;de;;;1.1.;;;Wissenschaftstheoretische Hintergründe und Einordnung der ArbeitWie bereits den bisherigen Ausführungen implizit zu entnehmen war, fungiert als Forschungsdisziplin für die gesamte Untersuchung grundsätzlich die Betriebswirtschaftslehre im allgemeinen und die Marketingwissenschaft als deren spezielles Teilgebiet im besonderen. Gleichwohl verlangen die Problemstellung und die angestrebte pluralistische Ausrichtung der Erkenntnisziele eine interdisziplinär offene Blickrichtung, so daß stellenweise auch volkswirtschaftliche und rechtliche Bewertungseinheiten beim Aufspannen des wissenschaftlichen Bezugsrahmens für die Arbeit Berücksichtigung finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-07922-4_2 0ac0d4fa689d259e9cc874e4fee73b56;de;;;3.3.;;;Moving Target Defense zur Verhinderung von SQL-Injection Die Datenbank speichert wichtige Informationen über den Benutzer, die sie zu einem zentralen Bestandteil der Website machen. Daher ist die Datenbankinjektion zu einem ernsthaften Cyberangriff geworden. Herkömmliche Abwehrmaßnahmen gegen Datenbankinjektionen sind passive Abwehrmaßnahmen, die neue Schwachstellen erst erkennen können, wenn sie offengelegt werden. Die in den letzten Jahren entwickelte Methode der Moving Target Defense (MTD) ist ein Durchbruch zur Lösung dieses Problems. Dieses Papier etabliert hauptsächlich das Modell, um die Möglichkeit einer dynamischen Verteidigungsanwendung in der Datenbankinjektionsverteidigung zu überprüfen. In diesem Papier werden zuerst die verwandten Konzepte SQLI und MTD vorgestellt, dann erstellen wir Modelle, um die Angriffsfläche des traditionellen statischen Verteidigungsmodells und des MTD-Modells zu vergleichen. Daraus wird geschlossen, dass das dynamische Verteidigungsmodell unter bestimmten Bedingungen eine kleinere Angriffsfläche hat, was auf eine stärkere Verteidigungsfähigkeit hindeutet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-24268-8_3 f93255ed72d37e63b35643cc6524695a;de;;;3.3.;;;Entwerfen von Peer-to-Peer-Anwendungen: ein agentenorientierter Ansatz Dieses Papier konzentriert sich auf Designfragen, die bei der Entwicklung von Anwendungen des Wissensmanagements (WM) auf der Grundlage der Integration von Peer-to-Peer- und Multi-Agent-Technologien zu bewältigen sind. Die Gründe für den Einsatz dieser Technologien liegen in den Anforderungen des spezifischen WM-Paradigmas, angenommen wurde, die Aspekte betont wie emphasize;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36559-1_9 dccc6fc878c4a057f00159e906311b9c;de;;;3.3.;;;18 Design eines intelligenten Rollstuhls für motorisch behinderte Menschen Durch die rasante Entwicklung von Rehabilitationstechnologien wie Robotik, Künstliche Intelligenz und Informatik wird der Traum von der Überwindung des Handicaps wahr. In diesem Artikel wird ein Design eines intelligenten Rollstuhlsystems vorgestellt, das Behinderten, die Schwierigkeiten beim Fahren eines herkömmlichen Elektrorollstuhls haben, Mobilitätshilfe bieten kann. Zuerst führten wir eine Umfrage durch, um die Anforderungen potenzieller Benutzer zu ermitteln und die Missionen zu definieren, die die Benutzer erfüllen möchten. Nachdem wir die Anforderungen durch Umfrageergebnisse ermittelt haben, präsentieren wir das Hardwaredesign einschließlich Sensorik basierend auf 2D Laser Range Finder (LRF), Softwarearchitektur, die Echtzeitfähigkeit für harte Echtzeitaufgaben von sicherheitskritischen Systemen bietet, und hierarchische Steuerungsarchitektur. Außerdem präsentieren wir ein erstes experimentelles Ergebnis, das am Intelligent Sweet Home und an einem Korridor, beide in KAIST, durchgeführt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/10946978_18 a7f77d899202cce8188e76595c0bed79;de;;;3.3.;;;Parallele Implementierung der konjugierten Gradientenmethode auf Grafikprozessoren GPUs werden heutzutage zu vielversprechenden Multi-/Many-Core-Architekturen für eine Vielzahl anspruchsvoller Anwendungen. Zu den grundlegenden Merkmalen dieser Architekturen gehören die Verwendung einer großen Anzahl relativ einfacher Verarbeitungseinheiten, die nach SIMD-Art arbeiten, sowie hardwareunterstütztes, fortschrittliches Multithreading. Der Einsatz von GPUs in der täglichen Praxis ist jedoch noch begrenzt, hauptsächlich aufgrund der Notwendigkeit einer tiefen Anpassung der implementierten Algorithmen an eine Zielarchitektur. In dieser Arbeit schlagen wir vor, wie eine solche Anpassung durchgeführt werden kann, um eine effiziente parallele Implementierung des Algorithmus konjugierter Gradienten (CG) zu erreichen, der weit verbreitet zum Lösen großer dünn besetzter linearer Gleichungssysteme verwendet wird, die z.B. bei FEM-Problemen. Mit dem Ziel einer effizienten Implementierung der Hauptoperation des CG-Algorithmus, der spärlichen Matrix-Vektor-Multiplikation (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14390-8_14 97c5fcd4e0e67d45acec077568d615af;de;;;3.3.;;;Anpassung von SPICE zur Entwicklung eines Referenzmodells für Building Information Modeling - BIM-CAREM Building Information Modeling (BIM) wird von Architektur-, Ingenieur-, Bau- und Facility Management (AEC/FM)-Unternehmen auf der ganzen Welt aufgrund seiner Vorteile wie der Verbesserung der Zusammenarbeit der Beteiligten in Projekten stark angenommen. Eine effektive Implementierung von BIM in Organisationen erfordert eine Bewertung der bestehenden BIM-Leistungen von AEC/FM-Prozessen. Wir haben ein Referenzmodell für BIM-Fähigkeitsbewertungen basierend auf dem Metamodell der Normenfamilie ISO/IEC 330xx (die neueste Version von SPICE) entwickelt. BIM-CAREM kann verwendet werden, um die BIM-Fähigkeiten der AEC/FM-Prozesse zu identifizieren. Das Modell wurde auf Basis der Expertenreviews und einer explorativen Fallstudie iterativ aktualisiert und anhand von vier erläuternden Fallstudien evaluiert. Die Bewertungsergebnisse zeigten, dass BIM-CAREM in der Lage ist, BIM-Fähigkeiten bestimmter Prozesse zu identifizieren. In diesem Beitrag stellen wir vor, wie wir ISO/IEC 330xx für die Entwicklung von BIM-CAREM genutzt haben, sowie die Iterationen des Modells und beispielhaft eine der erläuternden Fallstudien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00623-5_9 dfb3886ca704908ecfe29068e50c95e9;de;;;3.3.;;;Umsetzbares kollaboratives gemeinsames Betriebsbild in Krisensituationen: Eine umfassende Architektur auf Basis von Social Media-Daten Bisherige Arbeiten zur Social-Media-Verarbeitung während des Krisenmanagements beleuchten ein Paradox: Bürger tauschen umfassend Daten aus dem Krisenfeld aus, während Entscheidungsträger nach Informationen über aufkommende Risiken suchen, denen sie begegnen müssen. Es gibt bereits mehrere Tools, mit denen Sie diese neue wichtige Datenquelle nutzen können. Zu den Entscheidungsträgern gelangten jedoch nur wenige, vor allem, weil sie nach wie vor ressourcenintensiv sind. Daher ist die Frage nach einem Tool, das in der Lage ist, Social Media nahezu in Echtzeit zu verarbeiten, um verwertbare Informationen aus der Praxis zu liefern, noch offen. Basierend auf dem Stand der Technik der Natural Language Processing-Tools und -Systeme, die sich der Nutzung von Social Media-Daten zur Verbesserung des Situationsbewusstseins der Entscheidungsträger widmen, soll in diesem Papier ein Weg beschrieben werden, um ihnen ein erstes umfassendes System zur Verfügung zu stellen, das Asset ist es, die Herausforderung von der Sammlung der Daten über deren Interpretation und Verständnis vollständig zu adressieren und schließlich situative Modelle anzubieten. In diesem Sinne konzentriert sich das Papier auf die gründlichen Details des Geschäfts und die sich daraus ergebenden technischen Herausforderungen, die aufgeworfen werden, sowie auf einen in Arbeit befindlichen Vorschlag, um diese umfassend zu bewältigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-28464-0_14 6e07a5ebb000f54c8c24f25020dd5554;de;;;3.3.;;;FCT: ein vollständig verteiltes kontextsensitives Vertrauensmodell für standortbasierte Dienstempfehlungen Mit der Popularität von standortbasierten Diensten (LBS) wurde eine große Anzahl von Vertrauensmodellen für die LBS-Empfehlung (LBSR) vorgeschlagen. Diese Vertrauensmodelle sind im Wesentlichen zentralisiert, und der vertrauenswürdige Dritte kann mit böswilligen Dienstanbietern kollabieren oder das Problem eines Einzelfehlers verursachen. Diese Arbeit verbessert das klassische Modell der zertifizierten Reputation (CR) und schlägt ein neues, vollständig verteiltes kontextbezogenes Vertrauensmodell (FCT) für LBSR vor. Empfehlungsvorgänge werden direkt von Dienstleistern durchgeführt und der vertrauenswürdige Dritte wird in unserem FCT-Modell nicht mehr benötigt. Außerdem unterstützt unser FCT-Modell aufgrund seiner selbstzertifizierten Eigenschaft auch die Bewegungen von Dienstleistern. Darüber hinaus betrachten wir zur Milderung des Angriffs auf Kollusion und Wertungleichgewicht umfassend vier Arten von Faktorgewichtungen, nämlich Zahlen-, Zeitverfall-, Präferenz- und Kontextgewichte. Schließlich wird ein Szenario mit vollständig verteilten Dienstempfehlungen bereitgestellt und umfassende Experimente und Analysen durchgeführt. Die Ergebnisse zeigen, dass unser FCT-Modell das CR-Modell in Bezug auf die Robustheit gegenüber Collusion Attack und Value Imbalance Attack sowie der Serviceempfehlungsleistung bei der Verbesserung der erfolgreichen Handelsraten ehrlicher Dienstleister und der Reduzierung der Risiken des Handels mit . deutlich übertrifft böswillige Dienstleister.;-;-;-;https://link.springer.com/article/10.1007/s11432-015-9029-y 02b265441b2104698a583e58b710241b;de;;;3.3.;;;Die Anwendung von Software Engineering im Sportmanagementsystem basierend auf Lehrmaterialien Computer-Software-Engineering wird zunehmend in verschiedenen Bereichen verwendet. In diesem Beitrag wurden Software-Engineering-Designmethoden verwendet. Das Sportmanagementsystem wurde auf der Grundlage der Anwendung der Software-Engineering-Theorie und -Methode vorentwickelt. Unter dieser Prämisse wurde das eigentliche Management von Sport- und Systemsoftware entwickelt. Das Design des Datenflussdiagramms war klar und sinnvoll, was in der Softwareentwicklung eine wichtige Rolle gespielt hat. Es hat sich gezeigt, dass das Sportmanagementsystem mit Effizienzdesign und schneller Bearbeitung von Problemen mit Software-Engineering-Methoden perfekt erstellt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23339-5_5 6f48634453d49094c48d7ea015628f26;de;;;3.3.;;;MOSAIC: Eine kohäsive Methode zur Orchestrierung diskreter Analytik in einem verteilten Modell Angesichts der Unabhängigkeit der Analyseentwicklung, der Vielfalt der Datenmodellierung und der Notwendigkeit, Nacharbeiten zu vermeiden, ist es eine Herausforderung, eine HLT-Analysearchitektur zu erreichen, die eine einfache Integration neuer und älterer Analysen unterstützt. Unsere Lösung besteht darin, Eingaben, Artefakte und Ergebnisse aus der Ausführung zu trennen, indem verschiedene Unterkomponenten abgegrenzt werden, darunter ein Eingangsgateway, eine Exekutive, eine analytische Schicht, eine Adapterschicht und ein Datenbus. Mit dieser Designphilosophie ist MOSAIC eine Architektur austauschbarer Unterkomponenten, die entwickelt wurde, um Workflows von lose gekoppelten Analysen zu unterstützen, die durch ein gemeinsames Datenmodell überbrückt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38824-8_22 9d51d023ab10f1b8d636c40a4eab515e;de;;;3.3.;;;Marmot: Eine neuartige Low-Power-Plattform für WSNs Das Paper stellt eine neue Hardwareplattform für drahtlose Sensornetzwerke vor, die auf einem Flash-FPGA aufgebaut ist. Das wichtigste Merkmal von Flash-FPGAs ist ihre Duty-Cycling-Unterstützung, sie können mit Stromspitzen in einer Mikrosekunde aus dem Ruhezustand aufwachen und behalten ihre Konfiguration sowie den Anwendungszustand bei. Darüber hinaus bietet der neue Knoten eine viel bessere Leistung als mikrocontrollerbasierte Knoten. Der zu zahlende Preis ist die gestiegene Komplexität der Anwendungsentwicklung. Die meisten Softwarekomponenten können in C implementiert und auf einem weichen Prozessorkern im FPGA ausgeführt werden, aber die kritischen Komponenten müssen mit VHDL direkt auf der Fabric realisiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14306-9_28 81ca32529da40cb567449a8439c17d5f;de;;;3.3.;;;Cache-Optimierungen von verteiltem Speicher für Software-Streaming-Dienste Software-Streaming ist eine Form von On-Demand-Softwareverteilungsdiensten, was bedeutet, dass ein Programm zur Ausführung nicht auf dem Client installiert werden muss, sondern Teile davon nach Bedarf geliefert werden können. Dieses Papier hat eine Sammlung echter Spuren von Desktop-Anwendungen aus einer Produktionsbereitstellung analysiert und einige Möglichkeiten für das Caching von Daten ausfindig gemacht: Zunächst wurden mehrere lokale Cache-Strategien verglichen und an das Zugriffsmuster der Daten angepasst. Zweitens wird ein spezieller kooperativer Datei-Caching-Mechanismus zwischen Clients und Server(n) entwickelt. Im Detail verwendet der kooperative Caching-Mechanismus die Semantik auf Anwendungsebene, um den Cache-Status für jede Anwendung anstatt für jede Datei zu verfolgen, was den Verwaltungsaufwand erheblich reduziert, während die Hinweisgenauigkeit immer noch hoch ist. Darüber hinaus präsentieren wir DES3, den Distributed Storage für Software-Streaming. Es übernimmt die oben genannten Optimierungen, Tests zeigen, dass DES3 die Serverlast erheblich reduzieren und eine akzeptable Client-Latenzzeit bieten kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03859-9_40 9f22b0205ad0c5622e3bedcdcbc38a3c;de;;;3.3.;;;Automatischer Codegenerator für einen maßgeschneiderten Hochleistungs-Mikroprozessorsimulator In diesem Artikel wird eine Software vorgestellt, die Code generiert, der einen Mikroprozessorsimulator basierend auf vom Benutzer definierten Funktionen implementiert. Die Software empfängt einen Satz von Mikroprozessorarchitekturbeschreibungen, der unter anderem Folgendes umfasst: Anzahl der Kerne, in der ALU auszuführende Operationen, Cache-Speicherdetails und Anzahl der Register. Nach der Konfiguration generiert die Software Java-Code, der den beschriebenen Mikroprozessorsimulator implementiert. Abhängig von den definierten Konfigurationen kann die Software mehr als vierzig verschiedene Codes generieren. Jeder Simulator folgt einer standardmäßigen vierstufigen Pipeline: Abrufen, Decodieren, Ausführen und Speichern. Der Codegenerator wurde als Lernwerkzeug in einem Bachelor-Studiengang mit interessanten Auswirkungen auf den Lernprozess der Studierenden verwendet. Vorläufige Ergebnisse zeigen, dass die Schüler die Funktionsweise eines Mikroprozessors besser verstehen und sich bereit fühlten, neue Mikroprozessorarchitekturen vorzuschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-10448-1_2 6bfb0c72871cdc8d4fb4dbf8728db9d8;de;;;3.3.;;;Zwei-Stream-CNN-Architektur für die Erkennung anomaler Ereignisse in realen Szenarien Die Erkennung anomaler Ereignisse in jedem Überwachungssystem ist zu einem wichtigen Forschungsgebiet geworden, um die Überwachung effektiv und in Echtzeit zu gestalten. In den letzten Jahren sind Deep-Learning-Schemata vorherrschend, um die Erkennungsgenauigkeit zu verbessern. Aufgrund der hohen Rechenkomplexität, die mit Deep-Learning-Architekturen verbunden ist, wird es jedoch zu einer Herausforderung, diese in Echtzeitszenarien zu implementieren. In diesem Papier schlagen wir ein Schema vor, um anomale Ereignisse in Echtzeit-Überwachungsvideos zu erkennen. Es wurde ein Datenbank-Vorverarbeitungsalgorithmus vorgeschlagen, um die räumlichen und zeitlichen Frames in jeder Sekunde zu erfassen, der anschließend in einer Zweistrom-2D-CNN-Architektur zur Merkmalsextraktion und -klassifizierung verwendet wird. Ein Standarddatensatz, UCF-crime, wurde verwendet, um die vorgeschlagene Methode zu validieren. Schließlich wurde eine vergleichende Analyse durchgeführt und festgestellt, dass die Klassifizierungsgenauigkeit und die Fläche unter der Kurve (AUC) des vorgeschlagenen Schemas im Vergleich zu den kürzlich vorgeschlagenen kompetenten Schemata überlegen sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4018-9_31 3f0760beb487e011d22f72ba004b6ff5;de;;;3.3.;;;Identifizieren Sie hierarchische Strukturen aus aufgabenbasierten fMRT-Daten über ein Suchnetz für eine hybride räumlich-zeitliche neuronale Architektur Die hierarchische Organisation der Gehirnfunktion ist ein etabliertes Konzept in den Neurowissenschaften. In letzter Zeit wurden diese hierarchischen Organisationen ausführlich untersucht, wie solche hierarchischen Funktionsnetzwerke im menschlichen Gehirn über eine Vielzahl von Deep-Learning-Modellen aufgebaut sind. Ein Schlüsselproblem, wie die optimale neuronale Architektur (NA), z. B. Hyperparameter, eines tiefen Modells zu bestimmen, wurde jedoch noch nicht gelöst. Um diese Frage zu beantworten, wird in dieser Arbeit ein neuartiges Hybrid Spatiotemporal Neural Architecture Search Net (HS-NASNet) vorgeschlagen, indem gemeinsam Evolutionary Optimizer, Deep Belief Networks (DBN) und Deep LASSO verwendet werden, um die NA vernünftig zu bestimmen und so die latente hierarchische raumzeitliche Merkmale basierend auf den 900 fMRT-Datensätzen des Human Connectome Project (HCP). Kurz gesagt kann dieses HS-NASNet automatisch die globale optimale NA von DBN bei gegebenem Suchraum durchsuchen, und dann kann das optimierte DBN die Gewichte zwischen zwei benachbarten Schichten der optimalen NA extrahieren, die dann als die hierarchischen temporalen Wörterbücher für Deep LASSO behandelt werden die entsprechenden hierarchischen räumlichen Karten zu identifizieren. Unsere Ergebnisse zeigen, dass das optimierte Tiefenmodell eine genaue fMRT-Signalrekonstruktion erreichen und raumzeitliche funktionelle Netzwerke identifizieren kann, die Multiskaleneigenschaften aufweisen, die basierend auf aktuellen neurowissenschaftlichen Erkenntnissen gut charakterisiert und interpretiert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-32248-9_83 547f0abb6bd4e6531602462fcb9febab;de;;;3.3.;;;Ein Android-Datenschutzschema für System-as-Root-Architekturen Derzeit verwenden die meisten neuen Android-Geräte auf dem Markt die System-as-Root-Architektur. Daher ist die Sicherheit personenbezogener Daten unter dieser Architektur für die Mehrheit der Menschen zu einem sehr besorgniserregenden Thema geworden. Was das Problem angeht, schlägt dieses Papier vor, ein sicheres Ökosystem aufzubauen, indem die TF-Karte angepasst wird. Wenn Benutzer mit Datenschutzdaten umgehen, erstellt unser Schema einen abgesicherten Modus basierend auf der TF-Karte und speichert Datenschutzdaten im abgesicherten Modus. Auf diese Weise können Benutzer ihre Datenschutzdaten in den abgesicherten Modi schützen, selbst wenn das Handy von anderen Personen gestohlen wird. Um die Sicherheit des abgesicherten Modus zu veranschaulichen, führt dieses Dokument einige Experimente durch, um den Performance-Overhead zwischen dem normalen Modus und dem abgesicherten Modus zu bewerten. Die Experimente zeigen, dass der Performance-Overhead dieses Schemas angemessen ist und das Risiko des Verlusts sensibler Informationen effektiv reduzieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9031-3_23 499d2ed6e88932cf78fdd72ae65d1eaf;de;;;3.3.;;;Dynamische Merkmale der Vertrauenswürdigkeit von Software und deren evolutionäre Komplexität Die Entwicklung vertrauenswürdiger Software ist zu einem wichtigen Trend und zu einer natürlichen Wahl bei der Entwicklung von Softwaretechnologie und -anwendungen geworden, und die Modellierung der Vertrauenswürdigkeit von Software ist zu einer Voraussetzung und notwendigen Mittel geworden. Um die grundlegenden wissenschaftlichen Probleme der Software-Vertrauenswürdigkeit zu diskutieren und zu erläutern und theoretische Grundlagen für die Software-Vertrauenswürdigkeitsmessung zu schaffen, untersucht dieser Beitrag die evolutionären Gesetze der Software-Vertrauenswürdigkeit und den dynamischen Mechanismus unter dem Einfluss verschiedener interner und externer Faktoren , und schlägt dynamische Modelle für die Vertrauenswürdigkeit von Software vor, so dass die Vertrauenswürdigkeit von Software als die statistischen Eigenschaften des Verhaltens von Softwaresystemen in der dynamischen und offenen Umgebung betrachtet werden kann. Durch die Analyse zweier einfacher Beispiele erklärt der Beitrag die Beziehung zwischen dem evolutionären Grenzverhalten von Software-Vertrauenswürdigkeitsattributen und dynamischen Systemeigenschaften und interpretiert die dynamischen Eigenschaften der Software-Vertrauenswürdigkeit und ihre evolutionäre Komplexität.;-;-;-;https://link.springer.com/article/10.1007/s11432-009-0137-2 b8b19b13f8c1fcbabdacb1866984067b;de;;;3.3.;;;Eine verbesserte U-Net-Architektur für die simultane Arteriolen- und Venulensegmentierung in Fundusbildern Die Segmentierung und Klassifikation von retinalen Arteriolen und Venolen spielt eine wichtige Rolle bei der Diagnose verschiedener Augenerkrankungen und systemischer Erkrankungen. Zu den größten Herausforderungen zählen komplizierte Gefäßstrukturen, inhomogene Beleuchtung und große Hintergrundvariationen zwischen den Probanden. In dieser Studie schlugen wir ein verbessertes vollständig gefaltetes Netzwerk vor, das gleichzeitig Arteriolen und Venolen direkt aus dem Netzhautbild segmentiert. Um gleichzeitig Netzhautarteriolen und -venolen zu segmentieren, haben wir das vollständig gefaltete Netzwerk so konfiguriert, dass ein Echtfarbenbild als Eingabe und mehrere Labels als Ausgabe ermöglicht werden. Eine domänenspezifische Verlustfunktion soll die Leistung verbessern. Die vorgeschlagene Methode wurde ausführlich anhand öffentlicher Datensätze bewertet und mit den neuesten Methoden in der Literatur verglichen. Die Sensitivität und Spezifität der gesamten Gefäßsegmentierung auf DRIVE beträgt 0,870 und 0,980 mit einer Fehlklassifizierungsrate von 23,7% bzw. 9,8% für Arteriole und Venolen. Das vorgeschlagene Verfahren übertrifft die Methoden des Standes der Technik und vermeidet eine mögliche Fehlerfortpflanzung wie bei der Segmentierungs-Klassifikations-Strategie. Die vorgeschlagene Methode birgt großes Potenzial für die Diagnostik und das Screening verschiedener Augenerkrankungen und systemischer Erkrankungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-95921-4_31 a34c0ab98fcedd216fd1ef5ff2f1f75a;de;;;3.3.;;;Effiziente Suche nach evolutionärer neuronaler Architektur (NAS) durch Modular Inheritable Crossover Das neuronale Faltungsnetzwerk ist in der Bildverarbeitung prominent, und in den letzten Jahren wurde eine große Anzahl ausgezeichneter tiefer neuronaler Netzwerke vorgeschlagen. Der handbetätigte Entwurf eines neuronalen Netzes ist jedoch zeitaufwendig, mühsam und herausfordernd. Daher wurden viele neuronale Architektursuchverfahren (NAS) vorgeschlagen, von denen die evolutionären NAS-Verfahren aufgrund der globalen Suchfähigkeit evolutionärer Algorithmen ermutigende Ergebnisse erzielt haben. Dennoch verwenden die meisten evolutionären NAS-Methoden nur Mutationsoperatoren für die Nachkommengenerierung, und die generierten Nachkommennetzwerke können sich stark von ihren Elternnetzwerken unterscheiden. Um diesen Mangel zu beheben, schlagen wir eine effiziente evolutionäre NAS-Methode vor, die einen maßgeschneiderten Crossover-Operator verwendet. Im Gegensatz zu bestehenden Mutationsoperatoren ermöglicht der vorgeschlagene Crossover-Operator dem Nachkommen-Netzwerk, vielversprechende Module von ihren Elternnetzwerken zu erben. Experimentelle Ergebnisse zeigen, dass unsere vorgeschlagene evolutionäre NAS-Methode im Vergleich zu einigen NAS-Methoden nach dem Stand der Technik wettbewerbsfähige Ergebnisse erzielt hat. Darüber hinaus wird die Wirksamkeit unseres vorgeschlagenen modularen vererbbaren Crossover-Operators für die Nachkommenerzeugung validiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3425-6_61 84884053af171dc005c8b69e3618eab9;de;;;1.1.;;;Modernes F&E-ProjektcontrollingDie Beschäftigung mit Forschung und Entwicklung (F&E) aus betriebswirtschaftlicher Sicht (F&E-Management) ist aus der Unternehmenspraxis heraus entstanden und reicht nur wenige Jahre zurück. Das Controlling ist ebenfalls ein Kind der Praxis, die Etablierung begann zunächst in anderen Unternehmensbereichen und hielt zuletzt Einzug in den Funktionsbereich F&E. Kann vor diesem Hintergrund bereits von einem modernen F&E-Controlling gesprochen werden? Sind bestehende Konzepte und Vorgehensweisen bereits veraltet oder gar nicht mehr gültig? Wenn in diesem Beitrag über modernes F&E-Controlling gesprochen werden soll, so kann dies nur heißen, dass die bisherigen Ansätze und Instrumente einer kritischen Betrachtung unterzogen werden und zwar hinsichtlich der sich ständig verändernden Umfeldbedingungen, denen sich Unternehmen stellen müssen, die erfolgreiche Innovationen hervorbringen wollen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-07768-9_7 e2daa5afe698d99fb5ce8a05a0c61d20;de;;;3.3.;;;Konzeption und Umsetzung der Das Papier beschreibt eine Metaobjektarchitektur für verteilte fehlertolerante Systeme. Grundsätzlich ermöglichen Metaobjektprotokolle, dass funktionale Objekte unabhängig von metafunktionalen Eigenschaften sind, die von Metaobjekten implementiert werden. Metaobjekte können somit auf Fehlertoleranz, Sicherheit, Verteilung spezialisiert und fallweise innerhalb der Anwendung verwendet werden. Die Laufzeitunterstützung für Metaobjekte muss grundlegende allgemeine Dienste umfassen, die beim verteilten fehlertoleranten Rechnen erforderlich sind (d. h. atomare Multicast-Protokolle und Gruppenverwaltungseinrichtungen, Erkennungsmechanismen). Standardmäßige Mikrokerne entsprechen der sehr grundlegenden Schicht des Systems. Architekturprobleme, Anwendungsprobleme, Entwicklungsprobleme, experimentelle und Leistungsprobleme werden vorgestellt. Einige Implementierungsdetails und Eigenschaften (Benutzerfreundlichkeit, Wiederverwendbarkeit, Konfigurierbarkeit usw., nämlich Flexibilität) unseres Systems werden ebenfalls besprochen. Heute wurden zwei Prototypen entwickelt, wobei der letzte auf dem Chorus-Mikrokemel basiert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-64359-1_731 beb1c836eeb8aeafe451aaee6b30893c;de;;;3.3.;;;Ein marktbasierter Ansatz zur Lösung ressourcenbeschränkter Aufgabenzuweisungsprobleme in einem Softwareentwicklungsprozess Wir betrachten Softwareentwicklung als wirtschaftliche Aktivität, bei der Güter und Dienstleistungen als ressourcenbeschränktes Aufgabenverteilungsproblem modelliert werden können. Dieses Papier stellt einen marktbasierten Mechanismus vor, um Aufgabenzuweisungsprobleme in einem Softwareentwicklungsprozess zu überwinden. Es schlägt einen Mechanismus mit einem vorgeschriebenen Regelwerk vor, bei dem die Bewertung auf dem Verhalten der Interessengruppen basiert, wie z. B. das Bieten für eine Aufgabe. Ein Ausschreibungsverfahren stellt sicher, dass ein Interessenvertreter, der die Ressource am meisten schätzt, diese für eine begrenzte Anzahl von Malen zugeteilt bekommt. Um das Verhalten der Bieter zu beobachten, initiieren wir einen Ansatz, der mit einem Prozesssimulationsmodell verbunden ist. Unsere vorläufigen Ergebnisse unterstützen die Idee, dass unser Modell nützlich ist, um die wertbasierte Aufgabenzuordnung zu optimieren, einen Marktwert für die Projektressourcen zu schaffen und eine ordnungsgemäße Zuweisung von Projektressourcen speziell bei großen Softwareprojekten zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31199-4_3 3080ecbc9f9764116579f876935f941f;de;;;3.3.;;;Cloud Computing zur Unterstützung der Entwicklung von Massive Multiplayer Online Games In den letzten Jahren erleben wir mit der zunehmenden Popularität von Online-Spielen eine fortschreitende Zunahme der Zahl der über das Internet verfügbaren Massive Multiplayer-Online-Spiele. Angesichts der Skalierbarkeitsanforderungen, die von einer großen Anzahl von Benutzern über einen längeren Zeitraum gestellt werden, stehen Spieleanbieter vor der großen Herausforderung der langfristigen Dimensionierung von IT-Infrastrukturen. Die Risiken sind insbesondere eine Überzuweisung (Verschwendung von Ressourcen und Geld) oder nicht rechtzeitige Upgrades (Verlust von Abonnenten und Einnahmen). um die Bedürfnisse der Benutzer zu befriedigen und gleichzeitig die Wartungskosten zu minimieren. Insofern stellen wir uns eine mittelfristige Zukunft vor, in der die Bereitstellung von Spielen über eine dreistufige Architektur erfolgt: die Benutzer, der Spieleanbieter und der Cloud-Anbieter. Wir glauben, dass viele mittelständische/kleine Spieleanbieter aufgrund der kürzeren Bereitstellungszeit und der geringeren Gesamtbetriebskosten von der On-Demand-Ressourcenzuweisungsinfrastruktur der Cloud profitieren können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24355-4_11 cd2db303e139ad90d806678b07a18f4d;de;;;3.3.;;;Middleware-Infrastrukturen für selbstorganisierende Pervasive Computing-Systeme In diesem Kapitel konzentrieren wir uns auf den Bedarf an innovativen offenen Pervasive-Middleware-Infrastrukturen zur Unterstützung von Selbstorganisation, Selbstanpassung und Weiterentwicklung in verteilten Anwendungen, mit besonderem Augenmerk auf Pervasive-Computing-Szenarien. Wir diskutieren, wie solche Middleware-Infrastrukturen die Grundlage eines von der Natur inspirierten Architekturansatzes für das Systemdesign sein sollten, der die Modellierung und Bereitstellung von Diensten als autonome Individuen in einem Ökosystem aus anderen Diensten, Datenquellen und durchdringenden Geräten ermöglicht, die miteinander interagieren interact . Eine konzeptionelle Referenzarchitektur wird vorgestellt, um die ausgedrückten Konzepte und die Rolle der Middleware darin zu verdeutlichen, und verschiedene mögliche Ansätze zur Verwirklichung der Idee werden untersucht und kritisch analysiert, auch mit Hilfe einer einfachen Fallstudie. Zwei konkrete Beispiele für Middleware-Infrastrukturen – nämlich die TOTA-Middleware (Tuples On The Air), die ein physikalisch inspiriertes Computermodell unterstützt, und die TuCSoN (Tuple Centers over the Network)-Middleware, die ein chemisch inspiriertes Modell unterstützt – werden detailliert beschrieben, zusammen mit Beispielen, die zeigen, wie solche Infrastrukturen nutzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17348-6_13 45ad2b868b248a5526d8c775c0a21740;de;;;3.3.;;;Eine verteilte, mobile drahtlose Infrastruktur für Multimedia-Anwendungen Es wird eine verteilte, mobile Netzwerkinfrastruktur für drahtlose Multimediaanwendungen vorgestellt. Dieses Netzwerk ist nicht durch ein festes Backbone-Netzwerk eingeschränkt, wie es bei herkömmlichen zellularen Systemen der Fall ist. Durch die Verwendung eines Clustering-Algorithmus werden Knoten in Cluster organisiert. Das Zugriffsschema beruht sowohl auf der Zeit-/Code-Aufteilung innerhalb eines Clusters als auch auf der Code-Trennung zwischen den Clustern. Clustering verbessert die räumliche Wiederverwendung von Zeitschlitzen und Codes. Eine TDMA-Struktur bietet Bandbreitengarantie für Echtzeitverkehr. Die Verwendung unterschiedlicher Codes für unterschiedliche Cluster durch geeignete Leistungssteuerungsalgorithmen kann die Kanalkapazität erhöhen. Ein virtuelles Schaltungsschema für schnelle Reservierungen ermöglicht es uns, die Bandbreitengarantie auch auf mobile Umgebungen auszudehnen. Simulationsexperimente bewerten die Leistung des vorgeschlagenen Schemas.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-1353-3_3 49e499fe4a5b005d13a90f6a0f28f902;de;;;1.1.;;;Strategisches Management, strukturationstheoretisch betrachtetSeit nahezu 40 Jahren gibt es innerhalb der (amerikanischen) Managementtheorie und der deutschen Betriebswirtschaftslehre einen eigenständigen Zweig, der sich mit strategischem Management respektive strategischer Planung befaßt. Mit den epoche-machenden Büchern von Chandler (1962), Ansoff (1965) und Learned et al. (1965) setzte ein bis heute nicht versiegender Strom von Veröffentlichungen ein, die sich mit strategischem Management befassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-90403-4_2 91541088ac78edf404a6e8b09a6127b0;de;;;1.1.;;;Geschlecht als Determinante sozialen HandelnsBetrachtet man das Geschlecht als mögliche Determinante sozialen Handelns, bzw. im vorliegenden Fall der Nutzung digitaler Spiele, so muss zunächst ein theoretischer Rahmen für eine geschlechtsbezogene Betrachtung erarbeitet werden. Dies soll im folgenden Kapitel geschehen. Die sozialwissenschaftliche Geschlechterforschung bietet ein breites Spektrum an theoretischen Zugängen zur Bedeutung des Geschlechts auf individueller und gesellschaftlicher Ebene. Bevor diese systematisch analysiert werden können, ist zunächst eine definitorische Abgrenzung verschiedener Begriffskonzeptionen notwendig (4.1). In einem weiteren Schritt wird erarbeitet, warum und unter welchen Bedingungen die Orientierung an Geschlechterrollen das Handeln determiniert (4.2).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-07972-7_4 b6d611599e792c5170c2b75bac2c3874;de;;;1.1.;;;Tätigkeitstheoretischer AnsatzEine theoretische Erfassung der Entwicklung von Erkenntnissystemen setzt eine adäquate Explikation des Systemzusammenhangs voraus. Zur Entfaltung dieses Zusammenhangs wurden in (A.2.) der Begriff der interaktiven Tätigkeit und der Systembegriff als Ausgangsabstraktionen bestimmt. Die Diskussion um den Systembegriff führte zum Begriff des funktionellen und des autopoietischen Systems: beide Begriffe sind für unser Problem von wesentlicher Relevanz, so daß sie im folgenden expliziert werden sollen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-14523-3_10 b0ba52695ceb6c4e8cd93fbca6a2a2f7;de;;;3.3.;;;Aufbau eines selbstorganisierenden autonomen Agenten basierend auf einer mobilen Zelle Dieses Papier schlägt und bewertet ein biologisch inspiriertes autonomes System, das vernetzte Agenten oder Anwendungen autonom, skalierbar und anpassungsfähig macht. Mit dem vorgeschlagenen System wird eine Netzwerkanwendung, die aus einem assoziierten Agenten besteht, durch dezentralisierte Agenten entworfen, die analog zu mobilen Zellen sind, die in biologischen Systemen migrieren können. Jeder Agent hat eine einzigartige Funktionalität für Netzwerksysteme und implementiert biologische Verhaltensweisen wie Migration, Replikation, Reproduktion und Tod. Das vorgeschlagene System ermöglicht es Agenten, ihre Umgebungsumgebungen autonom zu erfassen, um zu bewerten, ob sie sich gut an die erfassten Umgebungsbedingungen anpassen. Empirische Messergebnisse zeigen, dass sich der Agent gut an die dynamischen Umgebungen anpasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27192-2_20 8d35c59de50c6ec37deaf157773db40c;de;;;3.3.;;;Smart Places: Multi-Agentenbasiertes intelligentes mobiles virtuelles Community-Managementsystem Die heutigen Fortschritte in der Mobilgerätetechnologie zielen darauf ab, komplexe Rechensysteme aufzubauen, die ein Höchstmaß an Flexibilität, Dezentralisierung, einfachste Form der Interaktivität und Benutzerfreundlichkeit bieten. Kürzlich die Einführung der agentenorientierten Plattform;-;-;-;https://link.springer.com/article/10.1007/s10489-014-0569-2 dcffdc125666c3054d96c6d3f94347cc;de;;;3.3.;;;Mobile Agenten basierend auf virtuellen Maschinen zum Schutz sensibler Informationen Die Technologie virtueller Maschinen ist der Hauptgrund für die effiziente Bereitstellung von IT-Ressourcen und Infrastrukturdiensten. Das Konzept der mobilen Agenten, ähnlich der VM-Migration, ermöglicht es Softwareagenten, ihre Computerplattform zu ändern. Es scheint wahrscheinlich, beides zu kombinieren, wobei eine VM selbst zu einem mobilen Agenten wird. Derzeit wird die VM-Migration häufig in Rechenzentren oder klassischen Cloud-Ökosystemen verwendet. Diese Arbeit befasst sich mit der Erweiterung auf externe Geräte in lokalen Umgebungen von Endbenutzern als Migrationsziel. Technologieattribute wie starke Isolation, Plattformunabhängigkeit und das ständige Bemühen, eine hybride Migration zwischen heterogenen Computerarchitekturen zu ermöglichen, liefern eine vielversprechende und ausgereifte Basis. Hier geben wir erste Einblicke in diesen Ansatz, realisieren eine Abstraktionsschicht, die die VM-Migration nutzt, um sensible Informationen durch Migration zu separieren und Vorteile wie Isolation und standortbezogene Funktionalität zu nutzen. Wir glauben, dass solche Cloud-Architekturen letztendlich zu einem insgesamt höheren Maß an Sicherheit und Vertrauen führen werden!;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12574-9_9 6ef48408b91663983d6a7f55a005d7a3;de;;;1.1.;;;Konzeptioneller Bezugsrahmen für EinkaufskooperationenFür die Erschließung der Funktionsweise von Einkaufskooperationen und des spezifischen Phänomens „Komplexitätsmanagement in multinationalen Einkaufskooperationen“ werden im nachfolgenden Kapitel zunächst die Grundsätze zur Entwicklung eines Bezugsrahmens erläutert. Die Erläuterungen zur Entwicklung eines Bezugsrahmens beziehen sich darauf, dass im Rahmen der Forschungsanstrengungen zu Organisationen und dem Management von Organisationen, beobachtbare Phänomene (z.B. Strukturen und Prozesse) oder Annahmen, die das Verhalten in und von Organisationen charakterisieren, entdeckt, geordnet, erklärt und ggf. prognostiziert werden müssen. Für die Entwicklung des Bezugsrahmens werden anschließend fünf Forschungsdisziplinen ausgewählt und vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-25284-7_3 a07fa84bd98434eb468a888b02bd20a5;de;;;1.1.;;;Einführung: Entscheidungsprobleme, Entscheidungsmethoden und EntscheidungsmodelleEine Bestgestaltung ökonomischer Entscheidungen ist nur möglich, wenn entsprechende Entscheidungsmethoden zur Lösung aller anstehenden Entscheidungsprob1eme zur Verfügung stehen. Aus diesem Grund geht das Bemühen der Betriebswirtschaftslehre dahin, zur Unterstützung operativer (programmierte Entscheidungen) und politischer Entscheidungen (echte Entscheidungen, unprogrammierte Entscheidungen) neben den deskriptiven Modellen des Entscheidungsverhaltens normative Planungs- oder Entscheidungsmode1le zu entwickeln, die eine Auffindung “optimaler” oder - falls diese nicht erreichbar sind – “befriedigender” Lösungen für Entscheidungsprobleme ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-87440-5_1 c174e359a7369b3ed850c22710766de6;de;;;1.1.;;;Dezentrale Leadership als Intendiertes Verhalten — Applikation der Theorie des Geplanten VerhaltensDie vorliegende Arbeit basiert auf der Annahme, dass die Führungskraft in einer Tochtergesellschaft die zentrale Rolle bei der Etablierung unternehmerischen Führungsverhaltens spielt. Um nicht auf die deterministische Sicht von Eigenschaften und demographischen Variablen der Entscheidungsträger beschränkt zu bleiben, wird der Fokus auf den beabsichtigten, erwartungsgetriebenen und situativen Charakter einer Entscheidung, die Tochtergesellschaft unternehmerisch zu führen, gerichtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-9965-8_5 004e0d90eb667b5686ea309495a07a35;de;;;1.1.;;;Entscheidungsverhalten an WertpapiermärktenUnter einer Entscheidung wird “(...) die bewußte Wahl zwischen mehreren - mindestens zwei - sich bietenden Alternativen zur Erreichung eines Ziels oder mehrerer Ziele” verstanden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08457-0_2 06fa19b5002660ae298292b7128becdc;de;;;1.1.;;;Funktionsgerechte Informationsversorgung des Aufsichtsrats — Von der Negation über die Integration zur Affirmation betriebswirtschaftlicher AnsätzeThis article reviews three studies written by German company-law experts about the supply of information to the supervisory board. The author examines the development of the influence of business research on the guidelines of security law for “good” corporate governance regarding this issue. The analysis of the ongoing theoretical discussion on the supply of information to the supervisory board leads to the result that there is a movement to a convergence of the two tier-system and the one tier-system in respect of the information provided independently from the information by the executive member of the board.;-;-;-;https://link.springer.com/article/10.1007/BF03373664 f6152de5e669e084f9bb366a73922ea9;de;;;1.1.;;;Erscheinungsbasierte statistische Objekterkennung Die automatische Erkennung und Lokalisation von Objekten in digitalen Bildern ist ein wesentlicher Bestandteil vieler praktisch relevanter Anwendungen. In diesem Artikel wird ein erscheinungsbasiertes Verfahren zur Erkennung starrer zwei- oder dreidimensionaler Objekte vorgestellt, dem eine statistische Modellierung zugrundeliegt. Im Gegensatz zu segmentierungsbasierten Verfahren, wie sie vor allem im Bereich der 3D-Objekterkennung eingesetzt werden, ermöglicht der erscheinungsbasierte Ansatz aufgrund der Modellierung der Intensitätswerte oder davon abgeleiteter lokaler Merkmale eines Bildes die Erkennung komplexer Objekte. Die statistische Formulierung der Problemstellung bildet den mathematischen Kontext zur Bestimmung optimaler Lösungen.;-;-;-;https://link.springer.com/article/10.1007/s004500100091 c46212dc8642aecde2acd6a2552c0166;de;;;3.3.;;;BTRON: Ein Überblick BTRON ist eine Betriebssystemarchitektur, die im TRON-Projekt entwickelt wurde. Die BTRON-Spezifikation zielt darauf ab, in den 1990er Jahren Betriebssysteme für Workstations zu etablieren. BTRON-Workstations bieten Benutzerfreundlichkeit und Lernkomfort, effiziente Bedienung für erfahrene Benutzer, Unterstützung für viele Sprachen der Welt einschließlich der Unterstützung vieler Zeichensätze, Datenaustausch zwischen verschiedenen BTRON-Maschinen, konsistentes Datenmodell, einheitliche Mensch-Maschine-Schnittstelle und a Reihe von Funktionen, die es Anwendungsentwicklern leicht machen, Programme zu erstellen, die ähnliche Mensch-Maschine-Schnittstellen verwenden;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-68069-7_7 82639ab726de13e90e095c655d7213da;de;;;3.3.;;;Meta-Berechnungen auf dem CLUSTERIX Grid Im ersten Teil präsentieren wir das Konzept und die Implementierung des National Cluster of Linux System (CLUSTERIX) – einer wirklich verteilten nationalen Computerinfrastruktur mit 12 Standorten (64-Bit-Linux-PC-Cluster) in ganz Polen. Der zweite Teil präsentiert unsere Erfahrungen bei der Anpassung ausgewählter wissenschaftlicher Anwendungen an die standortübergreifende Ausführung als Meta-Anwendungen unter Verwendung der MPICH-G2-Umgebung. Die Leistungsergebnisse von Experimenten bestätigen, dass CLUSTERIX eine effiziente Plattform für die Ausführung von Metaanwendungen sein kann. Bei der Nutzung seiner Rechenleistung muss jedoch die hierarchische Architektur der Infrastruktur berücksichtigt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75755-9_59 e41b1af23c99bc1ebbae738bfcba98ef;de;;;3.3.;;;Ein Ressourcenplanungsalgorithmus basierend auf dem Vertrauensgrad im Cloud Computing Die Cloud-Ressourcenarchitektur wird serverbasiert gemäß den Merkmalen von Cloud Computing vorgestellt. Anschließend wird der Vertrauensgrad für die Ressourcenplanung im Cloud Computing definiert und ein auf dem Vertrauensgrad basierender Ressourcenplanungsalgorithmus präsentiert. Schließlich werden die funktionalen Eigenschaften dieses Scheduling-Algorithmus durch Simulation analysiert, und die Simulationsergebnisse zeigen, dass der auf dem Vertrauensgrad basierende Ressourcen-Scheduling-Algorithmus im Cloud Computing die bessere Stabilität und das geringere Risiko bei der Ausführung von Aufgaben besitzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30460-6_13 c0bd2f6da3953ef0df7b86d0999910c9;de;;;3.3.;;;Theorie der Privatsphärenrechnung und ihre Anwendbarkeit auf neue Technologien Eine der wichtigsten Theorien, die später in der IS-Literatur verwendet und modifiziert werden sollten, ist die Theorie des Datenschutzes. Dieses Kalkül regelt den Entscheidungsprozess von Einzelpersonen, um bestimmte Verhaltensergebnisse vorherzusagen, z. In diesem Papier versuchen wir, die Relevanz der Theorie des Datenschutzkalküls für bestimmte neue Technologien und Plattformen zu analysieren (i) Bring Your Own Device (BYOD) (ii) Internet of Things (IoT). Wir identifizieren einige der wahrgenommenen Datenschutzrisiken und -vorteile dieser neuen Technologien. Die aus dieser Studie gewonnenen Erkenntnisse werden es den Forschern ermöglichen, die Verhaltensabsichten von Organisationen/Personen, diese Technologien bei Vorliegen von Datenschutzrisiken und -vorteilen zu verwenden, weiter zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-45408-5_20 f5d6651ed7f0515b62e23bd86b02100d;de;;;3.3.;;;Von formalen Testzielen zu TTCN-3 zur Verifizierung komplexer ETCS-Softwaresteuerungssysteme Die Entwicklung einer praktischen, aber genauen Software-Methodik zur Gewährleistung der Korrektheit und Sicherheit von Systemen ist immer noch eine große Herausforderung. Bei unbefriedigender Testabdeckung bietet die formale Analyse ein viel höheres Potenzial, Fehler oder Sicherheitslücken während der Entwurfsphase eines Systems zu entdecken. Formale Verifikationsmethoden erfordern jedoch oft einen starken technischen Hintergrund, der ihre Verwendung einschränkt. In diesem Beitrag stellen wir ein auf Testen und Verifizieren basierendes Framework vor, um die Korrektheit und Sicherheit komplexer verteilter Softwaresysteme zu gewährleisten. Durch die Anwendung unserer Methodik erhalten wir ein zuverlässigeres System in Bezug auf Funktionalität, Sicherheit und Robustheit sowie eine Verkürzung der für die Verifizierung erforderlichen Zeit. Um die Anwendbarkeit unserer Lösung zu demonstrieren, haben wir sie an einer realen industriellen Fallstudie, dem European Train Control System (ETCS) [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-52991-8_8 6c80cf3402494d17e73d45a1221c3522;de;;;3.3.;;;Erkennen der Arten von Software-Assets und ihrer Auswirkungen auf die Wiederverwendung von Assets Der frühe Erfolg bei der Wiederverwendung von Software löste eine immense Euphorie aus, die in vielen Veröffentlichungen zum Thema gipfelte. Die dokumentierten Erfolge konnten jedoch nicht mithalten. Einige Kommentatoren forderten sogar das Ende der Wiederverwendung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-56441-4_12 b1fdc18133f435850ab02e42cd6350ef;de;;;1.1.;;;Theoretische Fundierung der KapitalstrukturpolitikIn der vorliegenden Untersuchung werden unter dem Begriff Finanzierung die Änderung des Kapitalumfanges sowie jegliche Änderungen der Kapitalstruktur subsummiert, somit befasst sich der hier verwendete Finanzierungsbegriff ausschließlich mit der Gestaltung der Passivseite. Diese Begriffsdefinition umfasst allerdings neben Kapitalversorgung ausdröcklich auch die Auswirkungen der Finanzierungsentscheidungen auf die Zahlungsmodalitäten, die Kontrollrechte der Kapitalgeber sowie die Sicherheitenstellung des Unternehmens.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-3547-2_2 5d450ce12e4fa898a2d6a886bfe381bc;de;;;1.1.;;;Digitale PolizeiarbeitAus der fortschreitenden Digitalisierung alltäglicher Aktivitäten ergeben sich erhebliche Potenziale, aber auch Herausforderungen für die Polizeiarbeit. Einerseits können elektronische Hilfsmittel die Erfüllung der Aufgaben erheblich erleichtern, andererseits rüsten auch Kriminelle technologisch beständig auf. Die Bekämpfung der Kriminalität dürfte auch im digitalen Zeitalter einem Wettlauf zwischen Hase und Igel ähneln, da die Polizei auf einige Instrumente verzichten muss, die technologisch verfügbar sind, während Straftäter sich jede neue Methode aneignen können und dies auch tatsächlich tun. Besonders umstritten sind u. a. Techniken zur automatisierten Bild- und Videoanalyse sowie die sogenannte vorhersagende Polizeiarbeit, welche zwar die Einsatzplanung unterstützen, aber auch zur Diskriminierung von Personen führen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-23668-7_48 b7ce2a73d60a78a954ca0e30e4717787;de;;;3.3.;;;Forschung zur anwendungsorientierten Pipeline-Integrität basierend auf GIS Mit der Zunahme der vergrabenen Zeit können Fernrohrleitungen leicht beschädigt werden. Daher ist die Sicherheit von Öl- und Gaspipelines ein gesellschaftlicher Schwerpunkt der Gesellschaft und der Pipelineunternehmen. Es ist eine wichtige Aufgabe, die Integritätsbewertungs- und Pipeline-Integritätsmanagementtechniken für Öl und Gas durchzuführen. In dem Artikel wird PioaGIS in Kombination mit der GIS-Technik entworfen und entwickelt, um die Pipeline-Integrität zu verwalten, und die Designprinzipien, die Systemarchitektur, die Systemnetzwerkarchitektur und die Technikroute von PioaGIS werden detailliert vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23226-8_43 95d72504a8736bab5953d171d3f6e000;de;;;3.3.;;;Multi-Agenten-System mit Scrum-Methodik für Software-Prozessmanagement Multi-Agent-Modellierung hat sich in mehreren Disziplinen der Forschung und Entwicklung entwickelt. Bei der Wahl zwischen einem traditionellen und einem agil basierten Softwareentwicklungsprozess haben wir eine Scrum-Methodik vorgeschlagen, die ein Multi-Agenten-System verwendet, um die Anforderungen der Stakeholder zu erfüllen. Der Scrum-Prozess ermöglicht es den wichtigsten Stakeholdern des Projekts, ihre während der Entwicklung ihrer Produkte gewonnenen Erkenntnisse zu speichern. Wir haben Multi-Agent-Modellierung implementiert, um Metadaten, Substantive und Verben zu extrahieren, um ein Team für die Aufgabenverteilung zu strukturieren. Mit Hilfe der Aufgabenverteilung sind wir motiviert, ein System zu konstruieren, das die Entwicklungskosten für ein Projekt mit der Scrum-Methodik schätzt. Wir haben einen Rahmen entwickelt, der eine Teilimplementierung zeigt, die eine Eingabe eines einzelnen SRS-Dokuments benötigt und die erwarteten Ergebnisse liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6052-7_68 fb3ff3e515ae8429af8ae421f91df74b;de;;;1.1.;;;Einführung in das Untersuchungsfeld und Stand der ForschungIn diesem Kapitel wird zunächst das Untersuchungsfeld der Arbeit abgesteckt. Dazu werden die in dieser Arbeit grundlegenden Begriffe MFI und MFF erklärt. Im Anschluss wird die Bedeutung von MFI unter Verwendung von Theorien zu organisationalem Lernen erläutert. Darüber hinaus dient das Kapitel dazu, den Stand der Forschung zu Determinanten und Konsequenzen der Nutzung von MFI aufzuarbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-07087-8_2 0eea40df5a8537b942fd39e58b2fb694;de;;;1.1.;;;Methoden der politischen Entscheidungsanalyse und der politisch-moralischen UrteilsbildungEines der Hauptprobleme der „nachindustriellen Gesellschaft“ (Bell 1975) ist die Produktion und Organisation von Wissen. In manchen Bereichen ist Wissen schon zu einer schnell verderblichen Ware geworden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-07739-8_15 d3b4d73d4b69e18e29d035e7edacfeb4;de;;;1.1.;;;ErwachsenenbildungDer Begriff Erwachsenenbildung ist in der Fachliteratur nicht eindeutig definiert. Es ergeben sich insbesondere Überschneidungen mit dem Begriff Weiterbildung. So finden sich fast identische Definitionen zu den Begriffen Weiterbildung und Erwachsenenbildung;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-09425-8_3 bbcdb583f0123a4e921ef5bdc367c4f9;de;;;3.3.;;;Software-Infrastruktur für e-Government – ​​e-Terminservice E-Termin-Dienste könnten als einfache Lösungen angesehen werden, die erhebliche Vorteile für die Verbesserung der Zugänglichkeit und Effizienz bei der Bereitstellung öffentlicher Dienste bieten, die persönliche Interaktionen erfordern. Angesichts der hohen Zahl von Diensten, die eine Terminvereinbarung in allen Behörden erfordern, ist ein regierungsweiter Ansatz, der einen E-Terminservice als Teil einer Softwareinfrastruktur für E-Government bereitstellt, gegenüber behördenspezifischen Lösungen eindeutig attraktiv. Das Papier präsentiert eine Fallstudie eines One-Stop-E-Terminierungsdienstes, der als Teil einer Software-Infrastruktur für E-Government vorgeschlagen wird. Der Dienst stützt sich auf terminbezogene Informationen, die von einzelnen Behörden verwaltet werden, und ermöglicht es Antragstellern, über das zentrale Regierungsportal nahtlos Termine für Besuche bei Regierungsbehörden oder Zentren mit öffentlichen Dienstleistungen zu vereinbaren. Wir definieren einen generischen Geschäftsprozess, der die Bereitstellung eines One-Stop-E-Terminservices untermauert, schlagen einen Ansatz für die Implementierung jedes der Geschäftsprozessschritte vor und präsentieren eine konkrete Softwarelösung zur Unterstützung des Prozesses. Darüber hinaus wird in dem Papier erörtert, wie die vorgeschlagene Lösung einige der identifizierten Herausforderungen bei der Bereitstellung des Dienstes als Teil einer Softwareinfrastruktur für E-Government angeht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10580-7_20 f32079d701a8732c8a2f90f8d5fdedfa;de;;;1.1.;;;Die Neurophysiologie der BühneDie psychodramatische Vorgehensweise hat erheblich Auswirkungen auf die Informationsverarbeitungsvorgänge des Gehirns, indem sie die Denkvorgänge im Gehirn, die auf internalen Simulationen im Kortex beruhen, durch eine externale Simulation auf der Bühne anreichern. Auf diese Weise wird ein größerer Realitätsbezug hergestellt, denn die im Rollenspiel entstehenden externalen sensorischen Signale durchlaufen im Unterschied zu den rein internalen Vorgängen evolutionär früh entstandene Hirnstrukturen (Stammhirn, Amygdala etc.), welche für die unbewusst ablaufende emotionale Bewertung dieser Signale (Neurozeption) zuständig sind. Umgekehrt erhalten auch die mit Denkprozessen stets verbundenen, normalerweise aber gehemmten efferenten Impulse mit der Bühne eine Möglichkeit, sie in reales Probehandeln umzusetzen.;-;-;-;https://link.springer.com/article/10.1007/s11620-012-0147-8 10c001e00b705f3c395093711a4e6de0;de;;;3.3.;;;Zur Informationsmodellierung zur Unterstützung interoperabler räumlicher Datenbanken Ein wichtiges Forschungsthema in geografischen Datenbanken ist die Interoperabilität, d. h. die Fähigkeit, entfernte Daten und Prozesse transparent in eine offene Umgebung zu integrieren. Dieses Papier befasst sich mit der Frage der Informationsmodellierung für interoperierende geografische Datenbanken. Es befasst sich insbesondere mit dem Thema Austausch von Semantik im Kontext der Informationssysteme. Unser Vorschlag basiert auf den Besonderheiten von Geodaten, nämlich feld- und objektbasierten Ansichten von Räumen und räumlichen Beziehungen, die für die Darstellung von Informationen in einem interoperablen, aber dennoch einheitlichen „System“ entscheidend sind. Ein generisches geographisches Datenmodell, das diese Semantik kapselt und ihren Austausch zwischen entfernten Systemen ohne Mehrdeutigkeiten ermöglicht, wird diskutiert. Wir zeigen an einem Beispiel, wie dieses Modell die Interaktion zwischen heterogenen räumlichen Anwendungsdomänen unterstützt. Diese Forschungsanstrengungen basieren auf (a) den von der OpenGIS-Community formulierten Anforderungen, (b) Ergebnissen aus der Modellierung „klassischer“ interoperabler Anwendungen und (c) einer etablierten Theorie zur Datenbankmodellierung geografischer Anwendungen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-61292-0_12 2b0fdd5029656cfd723d8bed81adba26;de;;;3.3.;;;Interoperabilität dauerhaft machen: Eine 3D-Geodatenbank basierend auf CityGML Virtuelle 3D-Stadtmodelle werden hinsichtlich ihrer räumlichen und thematischen Strukturen immer komplexer. CityGML ist ein OGC-Standard, um Stadtmodelle interoperabel darzustellen und auszutauschen. Da CityGML-Datensätze sehr groß werden und tief strukturierte Objekte enthalten können, erfordert die effiziente Speicherung und Eingabe/Ausgabe von CityGML-Daten sowohl sorgfältig optimierte Datenbankschemata als auch Datenzugriffswerkzeuge. In diesem Beitrag wird eine 3D-Geodatenbank für CityGML vorgestellt. Es wird gezeigt, wie das CityGML-Anwendungsschema optimiert auf ein relationales Schema abgebildet wird. Anschließend wird ein Konzept zur parallelisierten Handhabung von (City)GML-Dateien mittels Multithreading und die Implementierung eines Import- und Exporttools ausführlich erläutert. Abschließend werden die Ergebnisse einer ersten Leistungsbewertung präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87395-2_11 baf7bbd48ebde2f4923ba7413a7ff964;de;;;1.1.;;;Stand der Forschung und Anwendung: KompetenzenDieser Abschnitt befasst sich mit den theoretischen Grundlagen in Bezug auf die Messung bzw. Bewertung von Kompetenzen. Dazu werden in Unterpunkt 2.1 fünf Ansätze aus der aktuellen Lehre, Forschung und Literatur vorgestellt und das Constructive Alignment angesprochen (s. Kap. 2.2). Anschließend werden Möglichkeiten zur systematischen Strukturierung von Ausprägungen von Kompetenzen aufgezeigt (s. Kap. 2.3). In Kapitel 2.4 finden die zuvor betrachteten Methoden und Begrifflichkeiten Anwendung bei der Bestandsaufnahme des Curriculums im SS 2013 und der Erfassung der intendierten Kompetenzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-11970-6_2 9d230fe278349d62b00d0443914fc120;de;;;1.1.;;;Schülerfehler — die Rückseite des SpiegelsSchülerfehler widerspiegeln Probleme der Informationsverarbeitung und des Lernens. So selbstverständlich diese Feststellung erscheint, so sind Fehler zugleich mehr, nämlich — und damit positiv — Fenster auf die Lern- und Denkprozesse von Schülerinnen und Schülern. Daß sich Fenster öffnen und den Blick ins Innere freigeben, bedeutet, daß man sie analysieren und sich mit ihnen auseinandersetzen kann. Daß dies auch getan werden ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-07878-4_12 7e032e2da5d075b717773aea3d4929ef;de;;;1.1.;;;CLIX — Learning-Management-System für Unternehmen, Bildungsdienstleister und HochschulenThis article describes typical situations in which learning management systems are used. Afterwards, it is pointed out which requirements for the architecture of learning management systems result from the examples mentioned. Based on this, the technical and technological system architecture of the learning management system CLIX® is presented. The article is concluded by theses about the evolution of learning management systems.;-;-;-;https://link.springer.com/article/10.1007/BF03250834 ebc3021a40ad8cedc1839980f92013e4;de;;;1.1.;;;Consumer Confusion im stationären HandelEine Vielzahl von Unternehmen sieht sich mit den Problemen und Herausforderungen stagnierender und schrumpfender Märkte konfrontiert. Harrigan stellte in einer Untersuchung schrumpfender Märkte fest, dass sich rund 75% aller Branchen in Westeuropa, Japan und den USA in reifen oder gar rückläufigen Märkten befinden (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-9535-9_5 a5671f16489974540d9e7b85240699d4;de;;;3.3.;;;Ein Framework für die Orchestrierung und Bereitstellung von Cloud-Diensten basierend auf TOSCA und BPMN Cloud Computing ist ein konsolidiertes Paradigma mit hohem Reifegrad, das in der Lage ist, leistungsstarke Computerumgebungen zu handhaben und komplexe Dienste flexibel und skalierbar bereitzustellen. Um auf dem Cloud-Service-Markt wettbewerbsfähig zu sein, besteht eine der Herausforderungen für Cloud-Anbieter darin, die Service-Bereitstellungsaktivitäten durch den Einsatz von Cloud-Orchestrierungstechniken effizient zu automatisieren. Der Fokus dieser Arbeit liegt auf dem Orchestrierungsprozess. Ausgehend von TOSCA, einer bekannten Standardspezifikation zur Darstellung der kompletten Struktur eines Cloud-Service, haben wir einen Orchestrator entwickelt, der in der Lage ist, den Workflow aller zum Aufbau eines solchen Services erforderlichen Aufgaben zu automatisieren. Was unseren Ansatz neu macht, ist die Definition einer Konverterkomponente, die als Eingabe ein TOSCA-Service-Template nimmt und es in ein BPMN-Prozessmodell umwandelt, das bereit ist, an eine Workflow-Engine gespeist zu werden. Die BPMN-Notation wird verwendet, um sowohl den Arbeitsablauf als auch die mit jedem Arbeitsablaufschritt verbundenen Daten darzustellen. Um die Realisierbarkeit des YAML-zu-BPMN-Konvertierungsprozesses zu beweisen, wurde ein Softwareprototyp des Systems entwickelt und mit einem Beispielanwendungsfall getestet, der in dem Papier diskutiert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94959-8_14 5b16d68d7b7bdcea130b0867754ce353;de;;;3.3.;;;Bewertung eines zuverlässigen eingebetteten Systems Zuverlässige verteilte eingebettete Systeme (DDES) spielen eine zunehmende Rolle in modernen Automobildesigns und es besteht ein dringender Bedarf, die Auswirkungen unterschiedlicher Designsystemarchitekturen auf die Systemsicherheit und -zuverlässigkeit zu bewerten. Sowohl die Hardware- als auch die Softwarearchitektur können die Systemzuverlässigkeit beeinträchtigen. Die Bewertung eines zuverlässigen Systems basiert auf einem Fahrzeugsteuerungssystem, das Tests und Bewertungen für verschiedene Systemarchitekturen durchführen soll. Die Evaluierung bettet Fahrzeugsteuerungshardware und Betriebsumgebungen ein. Im Evaluierungsprozess wurden unterschiedliche Softwarearchitekturen wie zeitgetriggert, ereignisgetriggert und hybridgetriggert getestet. Im Beitrag wird ein Überblick über den Simulator gegeben, gefolgt von detaillierten Beschreibungen der eingesetzten Fahrzeug- und Fahrermodelle. Simulationen zeigen, dass diese Modelle mit Hersteller- und Erfahrungsdaten übereinstimmen. Die Leistungsfähigkeit des Bewertungsprozesses wird anhand eines Beispiels anhand eines adaptiven Geschwindigkeitsregelsystems (ACCS) veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74282-1_69 f0444f81174034abeb4f8f8af37d6742;de;;;3.3.;;;Programmieren für Architekten Seit 1980 bietet das Institut für Bauplanung am Fachbereich Architektur der Universität Karlsruhe den Lehrgang „Programmieren für Architekten“ an. Es besteht aus einer zweiwöchigen Kompaktphase, gefolgt von einer Programmierübung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-73576-9_23 5a3ea0d26625eb5617d7b4132cd74fa9;de;;;3.3.;;;Auf dem Weg zur effizienten Multi-Domain-Datenverarbeitung Wirtschaft und Forschung hängen zunehmend von der zeitnahen Analyse großer Datensätze ab, um die Entscheidungsfindung zu unterstützen. Komplexe Analysen beinhalten oft eine Vielzahl von Datentypen und speziellen Verarbeitungsmodellen. Wir glauben, dass das Datenbanksystem der Zukunft Kompilierungstechniken verwenden wird, um spezialisierte und abstrakte High-Level-Programmiermodelle in skalierbare Low-Level-Operationen auf effizienten physischen Datenformaten zu übersetzen. Wir stellen uns derzeit optimierte relationale und lineare Algebra-Sprachen vor, eine flexible Datenflusssprache (eine Sprache, die von den Programmiermodellen beliebter Datenfluss-Engines wie Apache Spark (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-62911-7_3 0f50dd1d08caf07d69bc54f64380f2d1;de;;;3.3.;;;Auf dem Weg zu sozio-chronobiologischen Computermodellen des Menschen Das Testen und Validieren von Ambient Intelligence (AmI)-Diensten durch Living Labs ist nicht immer machbar. Die damit verbundenen Kosten können insbesondere bei einer großen Anzahl von Benutzern unerschwinglich sein. In diesen Fällen ist eine künstliche Gesellschaft erforderlich, um die AmI-Software in einer simulierten Umgebung zu testen. Zahlreiche Methoden befassen sich mit der Modellierung von Agenten, aber dieser Beitrag trägt mit einer Methodik bei, die in der Lage ist, Menschen durch die Verwendung von Agenten zu modellieren,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34654-5_40 67cb30154e0cdacdd214b35c96860774;de;;;3.3.;;;Entwicklung einer wissenschaftlichen Basis für Unternehmensinteroperabilität Interoperabilität ist ein wichtiges Merkmal von Informationssystemen, Organisationen, ihren Prozessen und Daten. Die Erzielung einer automatisierten Zusammenarbeit von Prozessen und Systemen kann zu einer dramatischen Produktivitätssteigerung für Unternehmen jeder Größe führen. Als Ergebnis dieses prognostizierten Vorteils wurde Interoperabilität durch zahlreiche Standardisierungsrahmen, Richtlinien auf Unternehmensebene, Datenschemata und Techniken vorgeschrieben, um das Problem nicht kommunizierender Systeme oder Organisationen anzugehen. Parallel dazu haben die meisten internationalen Software-, Hardware- und Serviceanbieter ihre eigenen Strategien entwickelt, um das Ziel offener, kollaborativer, lose gekoppelter Systeme und Komponenten zu erreichen. Dieser Beitrag geht über die Darstellung der wichtigsten Meilensteine ​​in diesem faszinierenden Streben nach Zusammenarbeit zwischen Menschen, Systemen und Informationen hinaus: Er versucht zu beschreiben, wie sich dieses neue interdisziplinäre Forschungsgebiet mit den erforderlichen Methoden und Werkzeugen in eine lebendige wissenschaftliche Domäne verwandeln kann. Um dies zu erreichen, stellt das Kapitel die Zutaten dieser neuen Domäne vor, schlägt die erforderlichen formalen und systematischen Werkzeuge vor, untersucht ihre Beziehung zu benachbarten wissenschaftlichen Domänen und beschreibt schließlich die nächsten Schritte zur Erreichung des spannenden Ziels, die Grundlagen einer neuen Wissenschaft zu legen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84996-257-5_23 1c3204c2699d7bcfb838a44b320cdf9e;de;;;1.1.;;;Die Krise des industriellen Etatismus und der Zusammenbruch der SowjetunionDer plötzliche Zusammenbruch der Sowjetunion und damit auch das Ende der internationalen kommunistischen Bewegung geben ein historisches Rätsel auf: Warum sahen die sowjetischen Führer in den 1980er Jahren die Dringlichkeit, sich auf einen Neustrukturierungsprozess einzulassen, der so radikal war, dass er am Ende zur Auflösung des sowjetischen Staates führte?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-11272-1_2 122859aac4195aba42151e2d631d4e74;de;;;1.1.;;;Rückblick und ZusammenfassungZiel der vorliegenden Arbeit war die Konzeption eines Systems zur Handlungsunterstützung in den frühen Phasen der Produktentwicklung. Hierzu wurde in zweifacher Hinsicht Neuland betreten wurde: Die Arbeit setzte sich mit den frühen Produktentwicklungsphasen—dem ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-82157-7_15 4fb8e4c2843bca178444a2933ec72b17;de;;;1.1.;;;Controlling-Schwerpunkte prozessorientierter UnternehmenZur Beurteilung von Prozessen werden von Unternehmen unterschiedliche Kriterien herangezogen. Die beschriebene Untersuchung zeigt u.a., dass die Kundenzufriedenheit am häufigsten als Beurteilungskriterium verwendet wird. Oft gebraucht werden auch Prozesskosten und die Prozesszeit.;-;-;-;https://link.springer.com/article/10.1007/BF03249580 b8750d08eceb257362396207adf80857;de;;;1.1.;;;Die Konflikttheorie der Theorie sozialer IdentitätDie Theorie der Sozialen Identität von Henri Tajfel und John Turner (1979, 1986) ist eine sozialpsychologische Theorie intergruppaler Prozesse. Ziel der Theorie ist es, intergruppale Differenzierungsprozesse, die vor allem durch Konflikte zwischen Gruppen gekennzeichnet sind, zu erklären. Der Fokus ist dabei auf das Individuum gerichtet: Warum grenzen Individuen ihre Bezugsgruppe gegen andere Gruppen ab? Warum werten Individuen Fremdgruppen ab?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-95688-0_20 0f4b1ce7a0714ac7c7a922661e7db2f8;de;;;3.3.;;;Richtliniengesteuertes Management für verteilte Systeme Das Trennen der Verwaltungsrichtlinie von den automatisierten Managern, die die Richtlinie interpretieren, erleichtert die dynamische Verhaltensänderung eines verteilten Verwaltungssystems. Dies ermöglicht es, sich an evolutionäre Veränderungen des verwalteten Systems und an neue Anwendungsanforderungen anzupassen. Das Verhalten automatisierter Manager kann durch Ändern der Richtlinie geändert werden, ohne sie erneut implementieren zu müssen – dies ermöglicht die Wiederverwendung der Manager in verschiedenen Umgebungen. Es ist auch nützlich, eine klare Spezifikation der Richtlinien zu haben, die für menschliche Manager in einem Unternehmen gelten. Dieses Papier beschreibt die Arbeit an der Politik, die aus zwei verwandten ESPRIT-finanzierten Projekten hervorgegangen ist, SysMan und IDSM. Zwei Klassen von Richtlinien werden ausgearbeitet – Berechtigungsrichtlinien definieren, was ein Manager tun darf, und Verpflichtungsrichtlinien definieren, was ein Manager tun muss. Richtlinien werden als Objekte spezifiziert, die eine Beziehung zwischen Subjekten (Managern) und Zielen (verwalteten Objekten) definieren. Domänen werden verwendet, um die Objekte zu gruppieren, für die eine Richtlinie gilt. Richtlinienobjekte haben auch Attribute, die die auszuführende Aktion spezifizieren, und Einschränkungen, die die Anwendbarkeit der Richtlinie einschränken. Wir zeigen, wie eine Reihe von Beispielrichtlinien mit diesen Objekten modelliert werden können, und erwähnen kurz Probleme bezüglich der Richtlinienhierarchie und Konflikte zwischen überlappenden Richtlinien.;-;-;-;https://link.springer.com/article/10.1007/BF02283186 c2cee3d596d31b667d5e455fa613e2e2;de;;;1.1.;;;Psychopathologie und Philosophie: Synopsis und AusblickDie Heterogenität der in diesem Band zusammengefaßten Beiträge, die Tatsache, daß es keine „Schulen“ interdisziplinärer Zusammenarbeit zwischen psychopathologisch interessierten Psychiatern und Philosophen gibt, sowie ein Bedürfnis, sowohl das Erreichte zu sichten als auch Problemfelder für die weitere Forschung abzustecken, fordern eine synoptische Zusammenschau geradezu heraus. Dem hierfür zunächst auf besonders allgemeine Grundzüge der Beiträge ausgerichteten Blick kann dabei folgendes nicht entgehen: Obgleich (vielleicht auch gerade weil) die Beiträge „symptomorientiert“ bzw. Psychiatrie-nahe konzipiert sind, tauchen alte Fragen, wie beispielsweise (a) die nach dem psychophysischen Zusammenhang (vgl. die Beiträge von M;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-74133-3_17 671f2c313d06cc4356ffadf489962558;de;;;3.3.;;;Integration der modellprüfenden Architekturanalyse und -validierung in einen realen Softwarelebenszyklus In diesem Artikel beschreiben wir die Verwendung eines auf Modellprüfungen basierenden Tools Charmy in der Marconi Selenia Softwareentwicklungsumgebung. Ziel des Projekts ist die Modellierung und Analyse der Softwarearchitektur eines sich in der Entwicklung befindlichen Softwaresystems. Wir definieren und formalisieren seine Gesamtarchitektur. Durch das Zoomen in relevante Subsysteme sind wir in der Lage, eine Reihe von falschen Verhaltensweisen zu identifizieren. Wir verwenden ein iteratives Verfahren, bei dem sowohl die architektonischen Teilsystemmodelle als auch die zu prüfenden Eigenschaften mehrfach definiert, geprüft und überarbeitet werden können. Die Ergebnisse der Erfahrungen erlauben eine Bewertung des Aufwands für den Einsatz des Analyseframeworks in der betrachteten industriellen Softwareentwicklungsumgebung und eine Einschätzung der Wirksamkeit und Rolle der Architekturanalyse im Softwareentwicklungsprozess. Die Hauptrelevanz dieser Erfahrung liegt in dem Bestreben, den Einsatz von Model-Checking-Techniken reibungslos in einen Standardsoftwarelebenszyklus zu integrieren, insbesondere in Bezug auf die Entdeckung und Definition von Architektureigenschaften.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45236-2_8 9ae8e98d4485038afdf5079ea43c58f6;de;;;1.1.;;;Diagnostik in der GesprächspsychotherapieDie Klientenzentrierte Psychotherapie wurde von Carl Rogers begründet und weiterentwickelt (Rogers, 1942, 1951). Sie geht im wesentlichen davon aus, daß ein Therapeut im therapeutischen Kontext mit einem Klienten die therapeutischen Bedingungen der Kongruenz, Akzeptierung und Empathie realisieren muß, um beim Klienten konstruktive psychische Veränderungen zu bewirken. Im deutschsprachigen Raum wurde die Therapieform von Reinhard Tausch (1973) eingeführt und als ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-6767-0_11 7f0c0ba1622422058859f0da90af3084;de;;;1.1.;;;Projektansatz und VorgehensweiseNeue Erkenntnisse aus dem Wissenstransfer zwischen Bio-/Humanwissenschaften und den technisch/physikalischen Wissenschaften, steigende Anforderungen an die Informationstechnik (IT) sowie zunehmend offensichtliche Defizite heutiger IT-Ansätze bereiten einen günstigen Nährboden für Innovationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-58681-1_2 b9d87d07d0287bd9e6189cb9a2b09a94;de;;;1.1.;;;Identifikation von Lücken auf einem InvestitionsgütermarktEs hat sich für die Innovationsökonomik als wichtig herausgestellt, zwischen den gemeinsamen Bestimmungsgrößen für alle Konkurrenten um gleiche Märkte und den unterschiedlichen Bestimmungsgrößen für die einzelnen Konkurrenten um gleiche Märkte zu unterscheiden. Gemeinsam stellen sich den auf Innovationen an einem Markt hin arbeitenden Unternehmen die wissenschaftlich-technischen Chancen und die aus dem spezifischen Charakter der Technologie herrührenden Aneignungsmöglichkeiten der Innovationsrenten dar. Unter den marktlichen Anreizen sind vor allem das Nachfragewachstum, die Einkommenselastizitäten und die Änderungen der relativen Faktorpreise gleich. Auch die staatliche Wissenschafts-und Technikpolitik und andere Rahmenbedingungen werden von den Innovatoren an einem Markt als ähnlich wahrgenommen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-59027-6_10 fa4998eee3fb6200e29a95ea5e6fcf0e;de;;;3.3.;;;Cricket-Stroke-Erkennung mithilfe von Computer Vision-Methoden Der Druck auf Sportler, im Sportbereich gute Leistungen zu erbringen, ist in den letzten zehn Jahren drastisch gestiegen, und die jüngsten Fälle von Betrug und Doping tragen dazu bei. Um das Spiel weiter zu verbessern, werden Computer-Vision-Methoden verwendet, um bestimmte Aufgaben zu unterstützen, wie z. Dieses Forschungspapier schlägt ein Cricket-Stroke-Erkennungsmodell vor, das auch innerhalb des Cricket-Bereichs beitragen kann. Es werden nämlich vier verschiedene Schlagklassen analysiert:;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1465-4_18 ceacfda0597f87278b13537bd6f831ec;de;;;1.1.;;;Einfluss von Zinsschrankenrisiken auf die Verrechnungsprognose von ZinsvorträgenIm Grundlagenteil der Arbeit wurde bereits dargestellt, dass sowohl § 274 HGB als auch IAS 12 die Aktivierung von Steuerlatenzen für den Zinsvortrag vorsehen. Nach beiden Rechnungslegungswerken erfordert die Aktivierung eine steuerliche Prognoserechnung, die eine verlässliche Grundlage für den Nachweis einer zukünftigen steuerwirksamen Verwertung des Zinsvortrags bilden soll. Zur Erstellung der Prognoserechnung müssen unternehmensinterne und -externe Informationen beschafft, separiert und ausgewertet werden. Allerdings stellen die rechnungslegungsspezifischen Rahmengrundsätze und Einzelvorschriften unterschiedliche Anforderungen an den konkreten Bilanzansatz der aktiven Steuerlatenz. Hieraus ergeben sich explizite und implizite Begrenzungen der betriebswirtschaftlichen Prognose und der auf dieser Grundlage ermittelten Steuerlatenzen. Nachfolgend wird untersucht, nach welchen Prinzipien und Objektivierungskriterien Zinsschrankenrisiken;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-6219-5_12 26eeff57a7e476b06232f217d561bb20;de;;;1.1.;;;Dienstleistungsnetzwerke als KontextEs ist zunächst zu klären, welchem Begriffsverständnis diese Arbeit folgt und welche Typisierung von DLN zugrunde gelegt wird. Anschließend werden DLN in einen systemtheoretischen Rahmen eingebettet, der Implikationen für die spätere Konzeptionalisierung des Qualitätssteuerungsansatzes bietet. Im Weiteren folgt die Betrachtung von DLN aus Sicht der Neuen Institutionenökonomik.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-03555-6_2 08a652048d2c954e22c42ff11cd0a52d;de;;;3.3.;;;Kinematische Analyse der Gesteinsinstabilität in der archäologischen Stätte von Delphi mit innovativen Techniken Die Instandhaltung der archäologischen Stätte von Delphi sowie die Sicherheit von Besuchern und Arbeitgebern stehen in direktem Zusammenhang mit den örtlichen geotechnischen Stabilitätsbedingungen. Daher wurde ein erster Ansatz zum Verständnis möglicher Veränderungen der Hanggeometrie und der Kenntnis der zugrunde liegenden technischen Eigenschaften des Gebirges unternommen, um signifikante Risiken zu minimieren, die mit Hangversagen verbunden sind. Diese Forschung wurde im Rahmen einer Dissertation über das geotechnische Risiko im Zusammenhang mit der Sicherheit archäologischer Stätten durchgeführt. Die Laserscanning-Technologie wird aufgrund ihrer hohen Präzision, Effizienz und Benutzerfreundlichkeit insbesondere bei unzugänglichen Hängen, die nicht manuell kartiert werden können, zunehmend in geotechnischen Vermessungen eingesetzt. In diesem Rahmen wurde an der nördlichen Felsklippe, die das Stadion überragt, eine Pilotvermessung mit LiDAR-Technologie (Light Detection and Ranging) durchgeführt. Ziel dieser Forschung war es, den Felsaufschluss abzubilden, virtuelle 3D-Computermodelle zu erstellen und Diskontinuitätsorientierungsdaten zu sammeln, um die geologische und Diskontinuitätskartierung für eine schnelle Bewertung der Steinschlaganfälligkeit zu erleichtern und eine Vorläuferkartierung der aktuellen Situation in der Forschung zu erstellen Gebiet, das ein typisches Beispiel mit starker Steinschlageinwirkung ist. Detaillierte dreidimensionale Modelle wurden erstellt, um die instabilsten Blöcke zu unterscheiden, die Position der Hauptquellen der Steinschlagquellen zu definieren und die zutage tretenden Materialien und alle gefährdeten Elemente genau zu unterscheiden. Den Ergebnissen zufolge ist Steinschlag die häufigste Form von Erdrutschen sowie die häufigste Versagensart, die wahrscheinlich durch ein seismisches Ereignis ausgelöst wird. Wie bereits bekannt, ist die Hanggeometrie der wichtigste Faktor, der die Flugbahn von Steinschlag steuert. Aus diesem Grund wurden Daten zur Diskontinuitätsorientierung gesammelt und auch deren Abstand und Persistenz auf dem Kalksteinfelsen dargestellt. Zur Untersuchung der bestehenden Stabilitätsbedingungen wird daher die Kinematik der Gesteinsinstabilität vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-12960-6_28 f17cc650c39b11e9c25de2b1b855e2a5;de;;;1.1.;;;Angsttheoretische ÜberlegungenIm vorliegenden Zusarnmenhang interessiert vor alien Dingen, ob eine psychophysische Merkmaldimension bei Patienten mit funktionellen Herz- Kreislauf- Störungen in einern Maße vorliegt, das bei normalen Personen nicht gefunden wird. Eine derartige Dimension wäre definierbar aus mit Fragebogenmethoden erfaßbaren Merkmalen habituellen psychischen Erlebens als Teil einer spezifischen Pers6nlichkeit sowie aus mit physiologischen Methoden erfaBbaren Merkmalen physiologischer Reaktivität.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-72724-5_5 8cbf3b2b71c5820b73e74767a5d8cd52;de;;;1.1.;;;Lösung von mentalen Konflikten und Steigerung von Achtsamkeit in EntscheidungsprozessenSich zu entscheiden bzw. sich Entscheidungen zu stellen bedeutet Handlung zu verrichten und Veränderungen zu erzielen, die unterschiedlich komplex sind. Bei persönlich relevanten Entscheidungen kann sogar möglicherweise eine Veränderung des eigenen Lebens, des Selbstbildes durch neue Erfahrungen und daran gebunden die wahrgenommene Identität und des jeweiligen Umfeldes eintreten. Diese Komplexität von Entscheidungen und Problemlösen wurde und wird in einer langen Forschungstradition aus verschiedensten Perspektiven untersucht. Der vorliegende Beitrag ergänzt diese Perspektiven, indem er ein Modell der Entstehung innerer Konflikte und deren Auflösung heranzieht und auf Entscheidungssituationen anlegt. Es wird untersucht, inwieweit Entscheidungskonflikte durch Prozesse interner Selbstanweisungen entstehen und inwieweit sie durch Gewahrsein und Achtsamkeit reguliert werden können.;-;-;-;https://link.springer.com/article/10.1007/s11612-014-0251-5 a241563303deda723a7e1304f1bd4b47;de;;;1.1.;;;Die Inflationsprognosen der Arbeitsgemeinschaft deutscher wirtschaftswissenschaftlicher Forschungs-institute: Sind sie ≫rational≪?The Inflation Forecasts by the Study Group of German Institutes of Economic Research: Are They “Rational” ? — The article investigates whether the semi-annual inflation forecasts, published jointly by five leading German research institutes since 1966, were “rational.” Tests show that the forecasts were biased, inefficient and inconsistent. The forecasts could have been improved with the information contained in four common macroeconomic variables, available at the time of the forecasts. An efficiency test of the strong form indicates that the institutes underpredicted the impact on inflation of the money supply, real government expenditure and real exports but overpredicted the impact of changes in import prices.;-;-;-;https://link.springer.com/article/10.1007/BF02708821 34b9f651b299494eb3997790079a1f31;de;;;1.1.;;;Die Ermittlung des Planerlöses in der AngebotsphaseDie Erlösplanung hat die Aufgabe, je Projekt die Höhe desjenigen Erlöses zu bestimmen, der unter Berücksichtigung der gegebenen und erwarteten Umweltbedingungen die betriebliche Zielsetzung erfüllt. Der Planerlös ist demnach eine Größe, die das anbietende Unternehmen für angemessen und erreichbar hält.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-87934-9_2 17f1de918bc29ddac67d78453be5fa10;de;;;3.3.;;;CardioModel – Neue Software für die kardiale Elektrophysiologie-Simulation Der Aufstieg der Supercomputing-Technologien während des letzten Jahrzehnts hat bedeutende Fortschritte bei der Erfindung eines persönlich biologisch relevanten Computermodells eines menschlichen Herzens ermöglicht. In diesem Beitrag stellen wir einen neuen Code für die numerische Simulation der kardialen Elektrophysiologie auf Supercomputern vor. Nachdem wir ein persönliches segmentiertes tetraedrisches Gitter des menschlichen Herzens basierend auf einem Tomogramm erstellt haben, lösen wir die Bidomänengleichungen der kardialen Elektrophysiologie mit der Finite-Elemente-Methode und erreichen damit das Ziel, die Aktionspotentialausbreitung im Herzen zu modellieren. Die flexible objektorientierte Architektur der Software ermöglicht es uns, ihre Fähigkeiten durch den Einsatz relevanter Zellmodelle, Vorkonditionierer und numerischer Methoden zur Lösung von SLAEs zu erweitern. Die Ergebnisse der numerischen Modellierung des Herzens unter normalen Bedingungen sowie einer Reihe simulierter Pathologien stimmen gut mit den theoretischen Erwartungen überein. Die Software erreicht eine Skalierungseffizienz von mindestens 75 % auf den 120 Rängen des Lobatschewski-Supercomputers.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-05807-4_17 0eadb329ab738eccf9869ee21f08b287;de;;;1.1.;;; Posttraumatische BelastungsstörungSchon seit Mitte des vorigen Jahrhunderts wurden psychische Störungen, die als Folge schmerzlicher Erinnerungen extrem belastender Ereignisse auftraten, mit der Bezeichnung „Kriegsneurose“oder „Unfallneurose“beschrieben. Eine systematische wissenschaftliche Betrachtung erfolgte erst ab Ende der 60er Jahre durch die Untersuchungen von heimgekehrten Soldaten aus dem Vietnamkrieg und in weitere Folge durch die zunehmende Erforschung der Folgen von Konzentrationslagerhaft. Nicht zuletzt durch die vom Feminismus der 70er Jahre in den USA initiierten Untersuchungen der psychischen Folgen des sexuellen Missbrauchs, von Vergewaltigungen sowie Kindesmisshandlungen wurde die Auseinandersetzung mit diesem Störungsbild vorangetrieben. Die Ergebnisse fanden schließlich 1980 ihren Niederschlag im DSM-III als eigene nosologische Einheit mit der Bezeichnung Posttraumatic Stress Disorder (PTSD). In das ICD-10 wurde sie 1990 als F43 Reaktionen auf schwere Belastungen und Anpassungsstörungen und F43.1 als Posttraumatische Belastungsstörung (PTB) aufgenommen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-3768-0_13 d2167df98a8b561d9f7472c9d8638fd3;de;;;1.1.;;;Moderne, Staat und Internationale Politik: Begründung und FragestellungenDie Umbrüche im internationalen System 1989–1991, aber auch die beinahe explosionsartige Ausweitung neuer Ansätze, Methoden und Theorien in der Disziplin der Internationalen Politik haben in den letzten Jahren das bereits 1987 gefällte Verdikt von Kalevi Holsti, die Disziplin sei „in a state of disarray“;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-90854-0_1 0bba64e6550f544468142e82dec97ba3;de;;;1.1.;;;Die Integration spezialisierten Wissens in Organisationen (Das Thema der intra-organisationalen Wissensintegration gehört zum Gebiet des Organisational Lernens (OL). In diesem Kapitel wird zunächst ein kurzer Abriss der OL-Theorienlandschaft gegeben (Abschnitt 3.1), bei dem ein Schwerpunkt auf den Beiträgen der „March-Schule“ liegt, da ihre zentralen Ideen (insbesondere das Konzept der begrenzten Rationalität) auch für diese Arbeit grundlegend sind. Im Anschluss daran wird die im Kontext der Wissensintegration zentrale Frage nach der Verbindung zwischen der individuellen und der organisationalen Lernebene problematisiert (Abschnitt 3.2). Auf die Frage nach einem solchen „Link“ (Friedman 2001: 398) gibt es zahllose Antworten von Autoren, die sich trotz aller Vielfalt den beiden gegensätzlichen Denkrichtungen des Cross-Learning und des transaktiven organisationalen Lernens zuordnen lassen (Abschnitte 3.2.1 und 3.2.2). Die Problematik des Links und seiner Konzeptualisierung wird eingehend diskutiert, da sie sich analog im ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-81490-6_3 64cdfd0b59453a9204beef01d7cf6edd;de;;;1.1.;;;Der Bewußtseinsbegriff in nichtbehavioristischen PsychologienLange nicht alle Forscher wollten die Psychologie innerhalb der methodischen und terminologischen Grenzen sehen, die ihr von behavioristischer Seite auferlegt wurden. Die behavioristische Sicht fand zwar nie ungeteilte Zustimmung (z. B. Köhler 1917, Tinbergen 1956, Tolman 1932) doch erst in den letzten Jahren setzten sich nichtbehavioristische Strömungen in der Psychologie durch und verdrängten den Behaviorismus weitgehend (Hilgard 1980). Für viele war, wie Neisser es ausdrückte, „… das Menschenbild … zu wichtig, als daß man es den Behavioristen und den Psychoanalytikern überlassen dürfte“ (Neisser 1979, S.18).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-69127-0_4 987471ac3bc15c8cc94dc9eeedcd3538;de;;;3.3.;;;Eine auf Geräte-Middleware basierende Smart Home-Umgebung für die Ambient Health Care Die wachsende ältere Bevölkerung in den entwickelten Ländern ist zunehmend gezwungen, unabhängig zu leben. Sie werden von einer Reihe von Pflegern, Anbietern, Ärzten usw. aus der Ferne überwacht, erinnert, empfohlen und betreut. Auch die Basistechnologien und Geräte wachsen schnell. Erstens wurde der Raum oder das Haus, in dem der Patient lebt, mit einer Vielzahl von vielfältigen, mehrkanaligen, multimedialen und multimodalen Sensoren / Aktoren, Robotern, Displays, Geräten usw. ausgestattet und gesättigt. Eine weitere bemerkenswerte Entwicklung ist das starke Aufkommen von Kommunikationsprotokollen und Konnektivitätslösungen, webfähige Geräte, gerätespezifische und agnostische Dienste. Um diesen unterschiedlichen Teilnehmern zu ermöglichen, sich zu finden, zu korrespondieren und dynamisch und kognitiv zusammenzuarbeiten, um die vorherrschende Situation und Bedürfnisse des Patienten zu verstehen, konzipieren und konstruieren Sie zusammengesetzte Dienstleistungen für patientenzentriert, anspruchsvoll und intelligent. Kurz gesagt, intelligente Umgebungen, in denen die Umgebungsintelligenz die Norm ist, werden mit ruhigen, kognitiven und katalytischen Technologien geschaffen und aufrechterhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29219-4_17 f7bd2acbf3c356102c90f6cbd9a474a5;de;;;3.3.;;;Ein Ansatz zur Kombination von SPICE und SCRUM in Softwareentwicklungsprojekten In diesem Industriepapier wird eine Implementierung eines Softwareentwicklungsprozesses vorgestellt, der die Ideen des agilen SCRUM-Ansatzes sowie die SPICE-Anforderungen berücksichtigt. Mit Hilfe einer Traceability-Matrix werden die Prozessaktivitäten auf die SCRUM- und die SPICE-Praktiken bezogen, um erstens zu überprüfen, ob alle SPICE-Basispraktiken im Prozessdesign berücksichtigt wurden und zweitens in einem Ansatz zur Verknüpfung von SCRUM-Aktivitäten mit SPICE-Praktiken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19860-6_18 d6ad3d427707831bff11d33899f01e3b;de;;;3.3.;;;Methode zur Korrektur der luftgestützten Geometrie für marine Multispektrumdaten ohne Lageinformationen Marine Airborne Multispectrum Scanner (MAMS) an Bord des chinesischen Meeresüberwachungsflugzeugs können zur Vermessung der Meeresumwelt, Ressourcen und Katastrophen verwendet werden und bieten die technische Unterstützung für die hochfrequente, hocheffiziente und hochauflösende Fernerkundungsüberwachung für das Küstenmanagement. MAMS verfügte nicht über die IMU/POS-Ausrüstung, was die Geometriekorrektur vor große Herausforderungen stellte. Ein Verfahren zur Korrektur der luftgestützten Geometrie wird für marine Multispektrumdaten ohne die Lageinformationen eingeführt. Erstens ist es die grobe Geometriekorrektur, die den Roll- und Nickwinkel des Flugzeugs gemäß dem idealen Flugmodell simuliert, der zweite Schritt ist die präzise Geometriekorrektur unter Verwendung der orthogonal projizierten SPOT-Daten als Referenz der Registrierung, basierend auf Maximierung der metrischen Ausrichtungsmethode. Mit der Validierung beträgt der relative Fehler der Grobkorrektur 81,42 m im Vergleich zu den SPOT-Daten und 11,3 m für die präzise Korrektur. Diese Methode liefert die hochpräzisen Lokalisierungsinformationen für die ozeanische Fernerkundung und Anwendung und schafft die Grundlage für die Überwachung der Meeresressourcen und der Umwelt.;-;-;-;https://link.springer.com/article/10.1007/s13131-012-0176-1 d776060baa36e83a479a920aef493970;de;;;3.3.;;;Hardwarebeschleuniger für die Datensortierung Dieses Kapitel widmet sich Sortiernetzen mit regelmäßigen und leicht skalierbaren Strukturen, die es ermöglichen, Daten zu sortieren und eine Reihe ergänzender Probleme zu lösen. Zwei Kernarchitekturen werden diskutiert: (1) iterativ, das auf einem hochparallelen kombinatorischen Sortiernetzwerk mit minimaler Ausbreitungsverzögerung basiert, und (2) Kommunikationszeit, die es ermöglicht, Daten zu verarbeiten, sobald ein neuer Artikel empfangen wird, und somit minimiert Kommunikations-Overhead, der häufig als Hauptengpass bei der Systemleistung bezeichnet wird. Die Architekturen werden in Software (unter Verwendung von Java) modelliert und in FPGA implementiert. Es wird gezeigt, dass das Sortieren eine Grundlage für viele andere Datenverarbeitungstechniken ist, von denen einige bereits in Kap.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20721-2_4 a0317c7aa33b39145a08ac47b11b36ae;de;;;1.1.;;;Situationswahrnehmung und interpersonales Verhalten im KlassenzimmerIm Klassenzimmer finden permanent Wahrnehmungsprozesse statt, ebenso sind zahlreiche Verhaltensweisen beobachtbar. Wahrnehmung und Verhalten werden oft nicht reflektiert, solange keine Störungen in der Interaktion auftreten, sind zahlreiche Automatismen und Handlungsroutinen aktiv.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-97477-8_3 a641509420c87e27c1cc91edec617a19;de;;;1.1.;;;Grundlagen der Nonverbalen KommunikationIn Anbetracht der Vielzahl und Vielfalt relevanter Theorien und Forschungsansätze zur Interaktion und Kommunikation erscheint es nicht verwunderlich, daß bis heute kein einheitlicher Konsens über die Begriffe “Kommunikation“ und “Interaktion” besteht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-52383-0_2 e3e2c0c9266e05e40a71e0e40826144f;de;;;1.1.;;;Rationales Handeln/Rationalität bei Weber und Esset im VergleichDen Vergleich, der im Titel des Aufsatzes angekündigt ist, muss ich mit der Feststellung beginnen, dass Weber mit den Begriffswörtern „rational“, „Rationalität“ usw. durchaus weniger sparsam umgeht als Esser, da er Rationalität nicht nur dem Handeln, sondern auch institutionellen „Ordnungen“, dem Staat, dem Recht, der Musik und anderen „Etwassen“ (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-90259-3_14 653101ebb998fe84dc009a26788a554a;de;;;1.1.;;;Institutionalisierung der erklärenden Soziologie nach 1945Der Wiederaufbau der Soziologie nach dem Ausbluten während des Nationalsozialismus und dem II. Weltkrieg war nicht unwesentlich durch die unterschiedlichen biografischen Erfahrungen bestimmt. Verfolgte und Vertriebene, gebliebene Eliten und diejenigen, die als Schüler und Studenten die Schreckensjahre miterlebt hatten, standen sich gegenüber.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-17776-8_3 36572b5d9e934cd5cdb28e57e9c14fee;de;;;1.1.;;;FL!P Forschendes Lernen im PraxiskontextDas Lehrprojekt FL!P siedelt forschendes Lernen von Lehramtsstudierenden im schulischen Alltag an: Im kooperativen Zusammenwirken von Hochschule und Schule bietet das schulische Umfeld dem selbstständigen wissenschaftlichen Arbeiten der Studierenden ein ertragreiches Forschungsfeld für diagnostische Erkundungen und profitiert gleichzeitig von den gewonnenen Ergebnissen. Neben Einblicken in die Gestaltung dieser Lehrveranstaltungen im Projekt FL!P wird im vorliegenden Beitrag auch auf die Konzeption und auf erste Befunde, hochschuldidaktisch motivierter Studien im assoziierten Forschungsprojekt diagnose:pro eingegangen. Im Mittelpunkt steht dabei die Frage, welche Strategien Studierende in ihrer Tätigkeit des Diagnostizierens einsetzen, wie diese qualitativ differenzierbaren Facetten des Diagnostizierens in einem mathematischen Diagnosegespräch erfasst werden können und was mathematikdidaktische Diagnosestrategien auszeichnet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-10265-4_5 7849cf8db2b9ca2793ca3321bd77c39a;de;;;1.1.;;;Nationale Stereotype als Gegenstand der Literaturwissenschaft. Eine Standortbestimmung»Das Fremde und das Eigene — Probleme und Möglichkeiten interkulturellen Verstehens«, so lautet das Schwerpunktprogramm der Volkswagen-Stiftung, in dessen Rahmen die vorliegende Dokumentation entstanden ist, ein Programm, das in Reaktion auf die stetig wachsende Internationalisierung aller Lebensbereiche für Grundlagenforschung in den Geistes- und Sozialwissenschaften eingerichtet wurde. Im Bereich der Literaturwissenschaft hat Interkulturalität ihren angestammten Ort in der vergleichenden Arbeit der Komparatistik. Grenzüberschreitend, auf ganz unterschiedliche Nationalliteraturen bezogen, thematisiert die Imagologie, ein in jüngerer Zeit zunehmend bedeutsamer Zweig der Vergleichenden Literaturwissenschaft, explizit das Verhältnis von nationalen Stereotypen und Literatur, indem sie nationenbezogene Bilder (Images) in der fremden und der je eigenen Literatur untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-476-02849-5_1 f214548f3ab9bb019bc8f80ac7fb57fa;de;;;1.1.;;;Doppeln und Doppelgänger – Gedanken zur NeurobiologieDer Einsatz des Doppelns und des Doppelgängers gehört mit zu den essentiellen Techniken des Psychodramas. Im folgenden Artikel sollen neurowissenschaftliche Befunde dargestellt werden, um zu verdeutlichen, welche komplexen Mechanismen erforderlich sind, um angemessen zu doppeln. Hierbei werden Befunde zur Empathie, zu den Spiegelneuronen, zur Fähigkeit der ,Theory of Mind‘, der Rolle des Körpers und des ihn umgebenden Raumes sowie der Fähigkeit Szenen zu erkennen im Mittelpunkt dieses Artikels stehen. Außerdem werden Hinweise auf die Rolle der Kreativität gegeben.;-;-;-;https://link.springer.com/article/10.1007/s11620-013-0197-6 f4876fe809608bd2cf406c245451381f;de;;;1.1.;;;Entscheidungstabellentechnik und Normierte Programmierung als Verfahren der computergestützten ProgrammerstellungDie Ausführung von Datenverarbeitungsaufgaben durch einen Computer ist nur unter der Voraussetzung möglich, daß ein Maschinenprogramm bereitgestellt wird, das alle auszuführenden Maschinenbefehle und die Reihenfolge ihrer Ausführung eindeutig beschreibt. Da die Erstellung von Maschinenprogrammen schwierig und zeitaufwendig ist (1), wurde schon relativ früh damit begonnen, die Programmerstellung durch Entwicklung maschinenorientierter symbolischer Programmiersprachen und problemorientierter Programmiersprachen sowie entsprechender Übersetzer zu vereinfachen. Bei Verwendung dieser Programmiersprachen wird der Computer selbst als Hilfsmittel der Erstellung von Maschinenprogrammen eingesetzt, so daß bereits in diesen Fällen von „computergestützter Programmerstellung“ gesprochen werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-87909-7_10 1b2369bebd63fe6c7c3114756e356813;de;;;3.3.;;;Ein effektiver Intrusion Detection-Algorithmus basierend auf verbessertem halbüberwachtem Fuzzy-Clustering Es wird ein Algorithmus zur Einbruchserkennung basierend auf verbessertem evolutionärem halbüberwachtem Fuzzy-Clustering vorgeschlagen, der für Situationen geeignet ist, in denen das Gewinnen gekennzeichneter Daten schwieriger ist als nicht gekennzeichnete Daten in Einbruchserkennungssystemen. Der Algorithmus erfordert nur eine kleine Anzahl von markierten Daten, und eine große Anzahl von unmarkierten Daten und Klassenlabel-Informationen, die von markierten Daten bereitgestellt werden, werden verwendet, um den Evolutionsprozess jeder Fuzzy-Partition auf unmarkierten Daten zu leiten, die die Rolle des Chromosoms spielen. Dieser Algorithmus kann mit Fuzzy-Label umgehen, senkt unruhig lokale Optima und ist für die Implementierung auf paralleler Architektur geeignet. Experimente zeigen, dass der Algorithmus die Klassifizierungsgenauigkeit verbessern kann und eine hohe Erkennungseffizienz aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18134-4_82 9ac90aaaf6b0eb5092e99d45785ee9f1;de;;;3.3.;;;Ein Framework für die Analyse nicht-funktionaler Eigenschaften des AADL-Modells basierend auf PNML Um die verschiedenen nicht-funktionalen Eigenschaften des AADL-Modells (Architecture Analysis and Design Language) zu analysieren, transformieren viele Modelltransformationsprozesse verschiedene AADL-Elemente in verschiedene Petrinetze. Die Zusammenführung dieser Transformationsprozesse in einem einzigen Prozess kann Architekten die gleichzeitige Analyse mehrerer Immobilien erheblich erleichtern. Die Schwierigkeit besteht darin, dass die spezifischen Elemente in bestimmten Petri-Netzen zu unterschiedlichen Transformationsregeln unterschiedlicher Transformationsprozesse führen. Einige Studien transformierten das AADL-Modell in die Petri Net Markup Language (PNML), das Austauschformat verschiedener Arten von Petri-Netzen, um die Vereinheitlichung zu realisieren, unterstützten jedoch nur die Transformation eines Teils der AADL-Architekturmodellelemente. Dieses Papier schlägt einen Rahmen für die Analyse nicht-funktionaler Eigenschaften des AADL-Modells vor, der die Vereinheitlichung verbessert, indem mehr AADL-Elemente unterstützt werden, die in PNML umgewandelt werden. Wir legen die Transformationsregeln fest, die Elemente im AADL-Fehlermodell und Verhaltensmodell auf PNML abbilden. Darüber hinaus wandeln wir AADL-Eigenschaften in werkzeugspezifische Informationen in PNML um, um spezifische Petrinetze zu generieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9409-6_313 5f97bccd4b9a8475a71717944480929f;de;;;3.3.;;;Methodik zur Verbesserung der Effizienz und Cybersicherheit des SCADA-Kommunikationsnetzwerks in EmelNorte-Umspannwerken Dieses Papier präsentiert die Entwicklung und Pilotimplementierung des methodischen Vorschlags zur Verbesserung der Effizienz und Cybersicherheit des SCADA-Kommunikationsnetzes in EmelNorte-Umspannwerken. Dies wird durch die Tatsache begründet, dass der moderne Umspannwerksbetrieb erfordert, dass das SCADA zu einem offenen System wird, das mit anderen Systemen im Zusammenhang mit der Verwaltung und Verwaltung des Energiegeschäfts integriert werden kann. Diese Situation bringt einerseits die Notwendigkeit eines SCADA-Kommunikationsnetzwerks mit sich, das sich durch eine hohe Verfügbarkeit und Effizienz auszeichnen sollte, andererseits könnte die Cybersicherheit von SCADA jedoch gefährdet sein, da das SCADA ein offenes System wird. In diesem Zusammenhang wird eine Entwurfsmethodik zur Verbesserung der Effizienz und Cybersicherheit des SCADA-Kommunikationsnetzwerks entwickelt, indem die Standards IEC-61850 und NERC-CIP-7 als Referenz verwendet werden. Diese Methodik schlägt Entwurfsrichtlinien vor für: (1) LAN-Architekturdesign in Umspannwerken, (2) Verwaltung und Management des SCADA-Kommunikationsnetzes und (3) Cybersicherheit des SCADA-Kommunikationsnetzes. Um die vorgeschlagenen Richtlinien zu validieren, wurden diese im Kommunikationsnetz des Umspannwerks „El Retorno“ implementiert und anschließend die Effizienz und Cybersicherheit bewertet und dem Netzwerk vor der Implementierung gegenübergestellt. Die Ergebnisse zeigen signifikante Leistungsverbesserungen und damit die potenziellen Vorteile der Methodenimplementierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-42531-9_2 e920f693490790d93fa5c3a5f4982d6a;de;;;3.3.;;;DSRC-Technologie in Vehicle-to-Vehicle (V2V) und Vehicle-to-Infrastructure (V2I) IoT-System für Intelligent Transportation System (ITS): Ein Rückblick Intelligent Transportation System (ITS) bestehend aus Vehicle Ad-hoc Networks (VANET) spielt eine wichtige Rolle bei der Gewährleistung einer sichereren Umgebung in Städten für Fahrer und Fußgänger. VANET wurde in zwei Hauptteile unterteilt, nämlich Fahrzeug-zu-Infrastruktur (V2I) zusammen mit Fahrzeug-zu-Fahrzeug (V2V) Kommunikationssystem. Diese Technologie befindet sich noch in der Entwicklung und ist weltweit noch nicht vollständig implementiert. Derzeit ist Dedicated Short Range Communication (DSRC) ein häufig verwendetes Modul für dieses System. Dieses Papier konzentriert sich sowohl auf die neuesten Erkenntnisse von V2V als auch V2I, die von früheren Forschern durchgeführt wurden, und beschreibt den Betrieb von DSRC zusammen mit seiner Architektur, einschließlich SAE J2735, Basic Safety Message (BSM) und verschiedenen Arten von Wireless Access in Vehicular Environment (WAVE), die gekennzeichnet sind als IEEE 802.11p. Interessanterweise (i) hat sich die DSRC-Technologie von der elektronischen Mauterfassungsanwendung zu anderen V2V- und V2I-Anwendungen wie elektronischem Notbremslicht (EEBL), Vorwärtskollisionswarnung (FCW), Kreuzungsfahrassistent (IMA), Linksabbiegeassistent ( LTA) und Do Not Pass Warning (DNPW) (ii) DSRC arbeitet mit unterschiedlichen Standards und Frequenzen, die den jeweiligen Landesvorschriften unterliegen (z. B. ITS-G5A für Europa (5,875–5.905 GHz), USA (5.850–5.925 GHz), Japan (755.5 .) –764,5 MHz) und die meisten anderen Länder (5,855–5,925 GHz)), in denen die Frequenzen am stärksten vom Versorgungsradius betroffen waren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4597-3_10 f950a1a9cd2869b86a02b2f59d71b068;de;;;3.3.;;;Globale Standards und lokale Entwicklung Es werden erhebliche Investitionen in IKT getätigt, um das sozioökonomische Wachstum in Entwicklungsländern zu unterstützen. Als Nebeneffekt davon werden die öffentlichen Gesundheitssektoren in Entwicklungsländern häufig durch die Verbreitung multipler und paralleler Informationssysteme herausgefordert. Investitionen werden getätigt, aber nicht koordiniert. Basierend auf einer Fallstudie von OpenHIE, einer globalen Praxisgemeinschaft, die die Entwicklung von IKT-Standards im Gesundheitswesen und deren Umsetzung in Tansania und den Philippinen unterstützt, diskutieren wir die Beziehung zwischen globalen Standards und lokaler Entwicklung. Wir tun dies, indem wir die von OpenHIE angebotenen globalen Standards als flüssige Standards konzipieren und Standards aus einem Paket der verschiedenen Komponenten zusammensetzen, die notwendig sind, um sie global und lokal relevant zu machen. Theoretisch tragen wir zur Standardisierungsliteratur bei, indem wir das Konzept der Fluidstandards in diesem speziellen Kontext globaler Initiativen zur Verringerung der Fragmentierung von Gesundheitsinformationssystemen lokal in Entwicklungsländern anwenden und erweitern. Wir tragen auch zur Entwicklungsliteratur bei, indem wir exemplarisch und kritisch diskutieren, wie die Fluidität von Normen und die Vernetzung von Normungsprozessen die lokale Entwicklung fördern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-11235-6_10 e31b3a4396784f8ae8bf54252eeccca4;de;;;3.3.;;;Grid Computing für Ubiquitous Computing Environment (GCUCE) Mobilitätsmodell In diesem Papier beschreiben wir GCUCE (Grid Computing for Ubiquitous Computing Environment), das den einheitlichen effizienten ubiquitären Dienst unterstützt, der mit Grid-Dienstmodulen unter Verwendung von Access Grid-Computing interagiert. Außerdem beschreiben wir zwei Mobilitätsmodelle: das Unternehmensmodell und das Automatenmodell. Ersteres konzentriert sich auf die Aspekte der Dienstleistungsnachfrage, und letzteres konzentriert sich auf den Zustandsübergang. Basierend auf diesen Modellen werden wir die Leistungsfähigkeit von GCUCE zeigen, indem wir mehrere Experimente für DOWS (Distributed Object-Oriented Wargame Simulation) auswerten. Die beiden Modelle, bestehend aus dem Unternehmensmodell und dem Automatenmodell des Softwarezustands, schlagen das formale und mathematische Modell der Softwaremobilität in GCUCE vor und liefern die Gesamtansichten und die Richtung der allgegenwärtigen Softwareentwicklung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-9532-0_17 b2ea2405b07774537b0de84a21cdc515;de;;;3.3.;;;Modellgenerierte Schnittstelle zur Modellierung und Anwendung von Entscheidungswissen Automatisierte Argumentationstechniken sind entscheidend für Situationen, in denen eine Vielzahl von heterogenen Argumentationsregeln berücksichtigt werden müssen. Sie ermöglichen es, sowohl die Kohärenz des Systems sicherzustellen als auch den Entscheidungsprozess gerechter und effizienter zu gestalten. Das Nationale Büro für Familienbeihilfe des Großherzogtums Luxemburg ist für die Gewährung von Beihilfen an mehr als 160.000 Personen zuständig, deren Fälle aufgrund der Besonderheiten der lokalen Wirtschaft auf der Grundlage ausländischer Arbeitskräfte und aufgrund der europäischen und bilateralen Abkommen zwischen den , beziehen sich auf unterschiedliche Rechtsvorschriften. In diesem Beitrag wird Cadral vorgestellt, ein in Entwicklung befindliches Entscheidungsunterstützungssystem für die Bearbeitung von Beihilfeanträgen. Das System mischt eine auf der Soar-Forward-Chaining-Architektur basierende Inferenz-Engine mit einem Interpreter für einfach zu schreibende Verhaltensregeln, so dass ein nicht computerspezialisierter Benutzer das System entsprechend der Entwicklung des Gesetzes aktualisieren kann. Die Regeln erfassen die Verwaltungsverfahren, die für die Bearbeitung der Anträge verwendet werden, während Links zu einer Rechtsdatenbank, die in Verbindung mit der Argumentationsverfolgung des Systems verwendet wird, eine rechtliche Begründung der resultierenden Entscheidungen ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14306-9_43 0bd52edcdc1682982b2942639449ce9f;de;;;3.3.;;;CRSM: ein praktisches Crowdsourcing-basiertes Straßenoberflächenüberwachungssystem Die Erkennung von Schlaglöchern und Straßenunebenheiten ist der Schlüssel zur Überwachung des Straßenzustands, was sich auf die Transportsicherheit und den Fahrkomfort auswirkt. Wir schlagen ein Crowdsourcing-basiertes Straßenoberflächenüberwachungssystem vor, einfach genannt;-;-;-;https://link.springer.com/article/10.1007/s11276-015-0996-y b64bb64f812d38ab5b54e650ea74a6cc;de;;;3.3.;;;Aufbau einer hybriden Methode zur Risikoanalyse durch Integration der Fuzzy-Logik und des verbesserten Fuzzy-Clustering-Algorithmus FCM-R Die Risikoanalyse ist ein Problem, das bei Unternehmen besondere Aufmerksamkeit auf sich gezogen hat. Dieses Papier schlägt die Integration der Fuzzy-Logik und des verbesserten Fuzzy-Clustering-Algorithmus FCM-R vor, um eine hybride Methode zur Risikoanalyse aufzubauen. Die Methode hat zwei Stufen. In Stufe 1 wird zunächst die Fuzzy-Logik verwendet, um die Risikostufen von Objekten zu bestimmen. Als nächstes werden die Objekte, deren Risikoniveau größer oder gleich einem gegebenen Schwellenwert ist, für die Analyse in der nächsten Stufe ausgewählt. In Stufe 2 wird der verbesserte Fuzzy-Clustering-Algorithmus FCM-R auf die ausgewählten Objekte angewendet, um die geeignete Anzahl von Clustern zu erzeugen, die basierend auf dem Risikoniveaumaß der Cluster geordnet werden. Hier wählen wir zur Veranschaulichung Objekte zur Risikoanalyse aus, die Kunden im Unternehmen sind. Die vorgeschlagene Methode wurde mit realen Datensätzen experimentiert, um Kundencluster zu generieren, die nach dem Risikomaß von hoch bis niedrig geordnet sind. Die Ergebnisse dienen der Vorhersage des Kundenrisikos und helfen bei der Bereitstellung von Risikomanagementrichtlinien zur Vermeidung von Verlusten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0557-2_88 084f78156bcd22892eb92e0d6fdf1a94;de;;;3.3.;;;Auf dem Weg zum Entwurf eines robusten Intrusion Detection Systems durch eine optimierte Weiterentwicklung neuronaler Netze Die Aufgabe, Netzwerke zu sichern, ist aufgrund ihrer Größe, Komplexität, Vielfalt und dynamischen Situation sehr schwierig. Derzeit ist die Anwendung neuronaler Netze bei der Intrusion Detection ein robuster Ansatz, um die Sicherheit im Netzwerksystem zu gewährleisten. Weiterhin sind neuronale Netze Alternativen zu anderen Ansätzen im Bereich der Intrusion Detection. Das Hauptziel dieser Forschung ist die Präsentation einer adaptiven, flexiblen und optimierten neuronalen Netzwerkarchitektur für Intrusion Detection-Systeme, die das Potenzial bietet, Netzwerkaktivitäten auf robuste Weise zu identifizieren. Die Ergebnisse dieser Arbeit geben Anweisungen zur Verbesserung von Sicherheitsanwendungen wie Intrusion Detection System (IDS), Intrusion Prevention System (IPS), Adaptive Security Alliance (ASA), Checkpoints und Firewalls und weitere Anleitungen für die Sicherheitsimplementierer.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13577-4_53 ac00d6b68c396bb6043ac4bac769b71b;de;;;3.3.;;;Augmented Reality als Methodik zur Entwicklung des Lernens in der Programmierung Das Erlernen des Programmierens ist eine komplizierte Aufgabe und die Schüler scheitern oder verlassen häufig. Es erfordert abstraktes Denken und ein hohes Maß an Affinität und Disziplin. Es erfordert abstraktes Denken und ein hohes Maß an Affinität sowie Disziplin. Grundlage ist es, Studien zu finden, die auf der Entwicklung von Werkzeugen zum Erlernen des Programmierens basieren und eine hohe Aufmerksamkeit der Studierenden auf sich ziehen. Ziel ist es, eine Analyse der Hauptmerkmale, Vor- und Nachteile von Augmented Reality als Lernmethodik für die Programmierung sowie der zu ihrer Entwicklung notwendigen Werkzeuge durchzuführen. Nach der Überprüfung haben wir verschiedene Arten von Anwendungen gefunden, die von Geschäftsanwendungen, Wartungsunterstützung und Gerätemontage bis hin zur Entwicklung kinästhetischer Fähigkeiten reichen. Was die Lernförderung betrifft, so wird diese in verschiedenen Studienrichtungen angewendet, mit sehr wenigen Ergebnissen in der Programmierung. Es soll ein Vorschlag für ein Augmented-Reality-Modell für das Lernen von Programmieren gemacht werden. Sein hohes Bildungspotenzial dient der Unterstützung pädagogischer Aktivitäten und der Entwicklung kognitiver Fähigkeiten. Es gibt jedoch immer noch Probleme, wie die Abhängigkeit eines Geräts von einer Kamera und speziellen Fähigkeiten, die seine ordnungsgemäße Funktion unterstützen. Ein weiteres Hindernis ist, dass der Einsatz von Technologie eine Ablenkung beim Unterrichten einer Klasse sein kann. All dies kann jedoch mit dem Fortschritt der Technik und der Forschung in Bezug auf das Studienfach sicherlich überwunden werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-05532-5_24 a68ddd4aa9cd8581fbbf5b4e8f0e4ec8;de;;;3.3.;;;Ein Objektflussrechner für Datenbankanwendungen In den letzten zwei Jahrzehnten gab es eine beträchtliche Menge an Forschung, die Hardware, Firmware und neuartige Architekturen verwendet, um die erforderliche Effizienz bei der Implementierung von Datenbankverwaltungsfunktionen zu erreichen. Die meisten Bemühungen wurden jedoch auf die Entwicklung von Datenbankcomputern zum Unterstützen eines relativ primitiven Datenmodells, nämlich des relationalen Modells, gerichtet. Dieses Papier stellt das Design und die Leistungsbewertung eines Object Flow Computers (OFC) zur Verarbeitung von Daten vor, die durch ein objektorientiertes Semantisches Assoziationsmodell (OSAM*) modelliert wurden. Der OFC ermöglicht, dass semantische Konstrukte auf hoher Ebene, wie sie von den Benutzern einer großen Daten-/Wissensbasis gesehen werden, direkt von Hardware verarbeitet werden, ohne viele Transformationsebenen in eine Datendarstellung auf niedriger Ebene. Es verwendet eine vertikal fragmentierte Datenspeicherstruktur und eine zweiphasige Verarbeitungsstrategie, um Abfragen zu verarbeiten, um eine unnötige Übertragung großer Datenmengen aus dem Sekundärspeicher und zwischen den Prozessoren zu vermeiden. Außerdem ist für den OFC ein Satz primitiver Operatoren definiert. Je nach Leistungsanforderung können diese Operatoren in Software oder als Spezialprozessoren in Form von VLSI-Chips implementiert werden. Basierend auf diesen primitiven Operatoren kann eine High-Level-Datenbankanforderung zerlegt und parallel ausgeführt werden. Schließlich kombiniert der OFC eine Anzahl bekannter Datenbankverarbeitungstechniken, wie etwa Abfragezerlegung, Pipeline-Modus der Datenverarbeitung und Datenfluss-Steuerungsstrategie. Zusammen mit der Hardware-/Firmware-Unterstützung in Form von Spezialprozessoren bietet das OFC eine integrierte Software-/Hardware-Lösung für das sehr große Datenbankmanagementproblem.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-51324-8_25 ff0bfe952d41902e90264a367291d2f7;de;;;3.3.;;;Eine empirische Bewertung des Convex SPP-1000 Hierarchical Shared Memory Systems Die Cache-Kohärenz in einer skalierbaren parallelen Computerarchitektur erfordert Mechanismen, die über die herkömmlichen Snooping-Ansätze auf Basis eines gemeinsamen Busses hinausgehen, die auf etwa 16 Prozessoren beschränkt sind. Der neue Convex SPP-1000 erreicht Cache-Kohärenz über 128 Prozessoren durch eine zweistufige NUMA-Struktur mit gemeinsam genutztem Speicher, die verzeichnisbasierte und SCI-Protokollmechanismen verwendet. Während die Hardwareunterstützung für die Verwaltung eines gemeinsamen globalen Namensraums Overhead-Kosten minimiert und die Programmierung vereinfacht, können Latenzüberlegungen für Fernzugriffe immer noch dominieren und unter ungünstigen Bedingungen die Skalierbarkeit einschränken. Dieses Papier bietet die erste veröffentlichte Bewertung der hierarchischen Cache-Kohärenzmechanismen von SP-1000 aus der Perspektive der gemessenen Latenz und ihrer Auswirkungen auf grundlegende globale Wie-Steuerungsmechanismen, die Skalierung eines parallelen wissenschaftlichen Codes und die Empfindlichkeit der Cache-Miss-Raten gegenüber der Systemskala. Es wird gezeigt, dass die globale Fernzugriffs-Latenzzeit nur um den Faktor sieben größer ist als die der lokalen Cache-Fehltreffer-Strafe und dass die Skalierung einer anspruchsvollen wissenschaftlichen Anwendung durch die hierarchische Struktur zum Erreichen von Konsistenz über die Systemprozessor-Caches hinweg nicht stark beeinträchtigt wird.;-;-;-;https://link.springer.com/article/10.1007/BF03356755 58397f7907e9817a7a88fcf38f9dc2f1;de;;;3.3.;;;Fortgeschrittene Data Warehousing-Techniken zur Analyse, Interpretation und Entscheidungsunterstützung von wissenschaftlichen Daten F&E-Organisationen, die viele Forschungs- und Entwicklungsprojekte bearbeiten, produzieren eine sehr große Menge an wissenschaftlichen und technischen Daten. Die Analyse und Interpretation dieser Daten ist entscheidend für das richtige Verständnis wissenschaftlicher / technischer Phänomene und die Entdeckung neuer Konzepte. Data Warehousing mit multidimensionaler Sicht und Online Analytics Processing (OLAP) hat sich in den letzten Jahren sowohl in der Wirtschaft als auch in der Wissenschaft großer Beliebtheit erfreut und sind wesentliche Elemente der Entscheidungsunterstützung, Analyse und Interpretation von Daten. Data Warehouses für wissenschaftliche Zwecke stellen die bestehende Data Warehouse-Technologie vor mehrere große Herausforderungen. Dieses Whitepaper bietet einen Überblick über wissenschaftliche Data Warehousing- und OLAP-Technologien, wobei der Schwerpunkt auf deren Data Warehousing-Anforderungen liegt. Die von uns verwendeten Methoden umfassen die effiziente Berechnung von Datenwürfeln durch Integration von MOLAP- und ROLAP-Techniken, die Integration von Datenwürfelmethoden mit Dimensionsrelevanzanalyse und Datendispersionsanalyse zur Konzeptbeschreibung und Datenwürfel-basierten mehrstufigen Assoziation, Klassifikation, Vorhersage und Clustering-Techniken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22555-0_18 17517cdaf4f0f53e0de594a57a6b7d83;de;;;3.3.;;;Strukturerkennung aus massiven räumlichen Datensätzen mit intelligenten Simulationstools Die Extraktion von Strukturen als kommunizierbares Wissen ist ein zentrales Problem der raum-zeitlichen Datenanalyse. Spatial Aggregation ist eine effektive Methode, um Strukturen zu entdecken. Um die rechnerischen Herausforderungen von Anwendungen wie der Wetterdatenanalyse oder der technischen Optimierung zu bewältigen, aggregiert Spatial Aggregation rekursiv lokale Daten zu Beschreibungen höherer Ebene und nutzt die Tatsache, dass diese physikalischen Phänomene aufgrund der Kontinuität als raumzeitlich kohärente „Objekte“ beschrieben werden können und Lokalität in der zugrunde liegenden Physik. Dieses Papier verwendet mehrere Problembereiche – Wetterdateninterpretation, verteilte Steuerungsoptimierung und räumlich-zeitliche Diffusionsreaktionsmusteranalyse –, um zu zeigen, dass intelligente Simulationswerkzeuge, die auf den Prinzipien der räumlichen Aggregation basieren, für wissenschaftliche Entdeckungen und technische Analysen unverzichtbar sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73920-3_8 ec83d6b0f9fd9b62b2f4b635c58aa72a;de;;;3.3.;;;Neuromorphes Computing mit memristiven Geräten Der technologische Fortschritt der letzten Jahrzehnte hat zu tiefgreifenden Veränderungen in unserer Gesellschaft geführt, vom Arbeitsplatz über das Wohnzimmer bis hin zur Art und Weise, wie wir miteinander umgehen. Diese Veränderungen treiben wiederum weitere technologische Entwicklungen voran, da das exponentielle Wachstum von Daten immer mehr Rechenleistung erfordert. Verbesserungen der Rechenkapazität allein durch Geräteskalierung reichen jedoch nicht mehr aus, und neue Materialien, Geräte und Architekturen müssen wahrscheinlich gemeinsam entwickelt werden, um den gegenwärtigen und zukünftigen Rechenbedarf zu decken. Insbesondere Geräte, die gemeinsam angeordnete Speicher- und Recheneigenschaften bieten, wie sie durch Memristor-Geräte und Memristor-basierte Computersysteme repräsentiert werden, haben im letzten Jahrzehnt breites Interesse auf sich gezogen. Neben der enormen Attraktivität bei Datenspeicheranwendungen bieten Memristoren das Potenzial für eine effiziente Hardwarerealisierung neuromorpher Computerarchitekturen, die die Speicher- und Energiewände, denen herkömmliche von Neumann-Computerarchitekturen gegenüberstehen, effektiv adressieren können. In diesem Review bewerten wir den Stand der Technik bei Memristor-Bauelementen und -Systemen und heben das Potenzial und die Herausforderungen der Anwendung solcher Bauelemente und Architekturen in neuromorphen Computeranwendungen hervor. Auch neue Richtungen, die zu allgemeinen, effizienten In-Memory-Computing-Systemen führen können, werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s11432-017-9424-y 26c4aeb4ac084ef2494d7d203fb4920c;de;;;3.3.;;;Datenintegration und Qualitätsanforderungen im Rettungsdienst Die Anforderungen und eine erste Architektur zur Unterstützung der Analyse von Social-Media-Inhalten in Notfallmanagement-Tools werden diskutiert. Der Einsatz von Social Media zur Verbesserung von Notfallkarten und zur Unterstützung der Frühwarnung wird diskutiert und die sich abzeichnenden Anforderungen werden skizziert. Die vorgeschlagene Architektur soll verbesserte Copernicus-Notdienste unterstützen, wie im europäischen Projekt E . vorgeschlagen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-72125-5_17 fb319b01e0773506529dcee367afaa07;de;;;3.3.;;;Eine großräumige elastische Umgebung für wissenschaftliches Rechnen Die relativ neue Einführung von Infrastructure-as-a-Service (IaaS)-Clouds wie Amazon Elastic Compute Cloud (EC2) bietet Benutzern die Möglichkeit, benutzerdefinierte Software-Stacks in virtuellen Maschinen (VMs) über verschiedene Cloud-Anbieter bereitzustellen. Benutzer können IaaS-Clouds nutzen, um elastische Umgebungen zu erstellen, die Rechenleistung und Speicher nach Bedarf auslagern. Darüber hinaus können sich diese Umgebungen dynamisch an die Nachfrage anpassen, indem sie bei steigender Nachfrage hoch- und bei sinkender Nachfrage herunterskaliert werden. In diesem Papier stellen wir eine groß angelegte elastische Umgebung vor, die Cluster-Ressourcen-Manager (z. B. Torque) um IaaS-Ressourcen erweitert. Unsere Lösung lässt sich in einen Open-Source-Elastic Manager, die Elastic Processing Unit (EPU), integrieren und bietet die Möglichkeit, die Umgebung regelmäßig mit einem leichten REST-basierten Rekontextualisierungsbroker zu rekontextualisieren. Wir stellen das Gluster-Dateisystem bereit, um ein gemeinsames Dateisystem für alle Knoten in der Umgebung bereitzustellen. Obwohl unsere Implementierung derzeit nur Torque unterstützt, diskutieren wir auch ausführlich, wie unsere Architektur mit verschiedenen Workflows interagieren kann, einschließlich der MapReduce-Workflows von Hadoop und der Match-Making- und Hochdurchsatz-Funktionen von Condor. Zur Evaluierung demonstrieren wir die Fähigkeit, 256-Knoten-Umgebungen innerhalb einer Sekunde der Rekontextualisierungsphase zu rekontextualisieren, in weniger als 15 Minuten auf über 475 Knoten zu skalieren und parallele E/A von verteilten Knoten zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45404-2_8 4eea83dd9366ba676d76761e9af354eb;de;;;3.3.;;;Orthogonale Variabilitätsmodellierung zur Unterstützung der Multi-Cloud-Anwendungskonfiguration Cloud-Dienstleister profitieren von einer großen Mehrheit der Kunden aufgrund der Variabilität und profitieren von den Gemeinsamkeiten der von ihnen bereitgestellten Cloud-Dienste. In letzter Zeit wurden die Dimensionen der Anwendungskonfiguration aufgrund des Multi-Tenant-, Multi-Device- und Multi-Cloud-Paradigmas drastisch erhöht. Dies stellt die Konfiguration und Anpassung von Cloud-basierter Software in Frage, die aufgrund der intrinsischen Variabilität typischerweise als Service angeboten wird. In diesem Papier stellen wir einen modellgetriebenen Ansatz vor, der auf Variabilitätsmodellen basiert, die aus der Softwareproduktlinien-Community stammen, um solche mehrdimensionalen Variabilitäten in der Cloud zu bewältigen. Wir nutzen orthogonale Variabilitätsmodelle, um mandantenspezifische Konfigurationen und Anpassungen systematisch zu verwalten und zu erstellen. Wir zeigen auch, wie solche Variabilitätsmodelle verwendet werden können, um die bereits bereitgestellten Anwendungsteile zu berücksichtigen, um harmonisierte Bereitstellungen für neue Mandanten in einer Multi-Cloud-Umgebung zu ermöglichen. Der Ansatz berücksichtigt funktionale und nicht-funktionale Anforderungen der Anwendung, um eine Reihe gültiger Multi-Cloud-Konfigurationen bereitzustellen. Wir veranschaulichen unseren Ansatz anhand einer Fallstudie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-14886-1_23 309ee6dfb6f0f7b357976bb831c09403;de;;;3.3.;;;Terahertz-Detektoren und Focal-Plane-Arrays Die Terahertz (THz)-Technologie ist eine der neuen Technologien, die unser Leben verändern werden. Viele attraktive Anwendungen in den Bereichen Sicherheit, Medizin, Biologie, Astronomie und zerstörungsfreie Materialprüfung wurden bereits demonstriert. Die Realisierung von THz-Sendern und -Empfängern stellt jedoch eine Herausforderung dar, da die Frequenzen für konventionelle Elektronik zu hoch und die Photonenenergien für klassische Optiken zu klein sind. Als Ergebnis ist die THz-Strahlung resistent gegen die üblicherweise in diesen gut etablierten Nachbarbändern verwendeten Techniken.;-;-;-;https://link.springer.com/article/10.2478/s11772-011-0033-3 514e510a9ba13d7bfb2a0d072ae8879c;de;;;3.3.;;;Membransysteme und verteiltes Rechnen Dieses Papier präsentiert Membransysteme als geeignetes Modell für verteiltes Rechnen, eine effiziente und natürliche Umgebung, um die grundlegenden verteilten Algorithmen zu präsentieren. Wir unterstützen die Idee, dass P-Systeme ein primäres Modell für verteiltes Rechnen werden können, insbesondere für Message-Passing-Algorithmen. Wir stellen die Kerntheorie, die grundlegenden Algorithmen und Probleme des verteilten Rechnens vor. Wir konzentrieren uns auf ein Beispiel, das ein Immunsystem gegen Virusangriffe beschreibt. Das Beispiel wird mit einer P-Systembibliothek implementiert, die von den Autoren erstellt wurde, um die Hauptfunktionen eines P-Systems zu simulieren, und einem MPI-Programm, das die hochgradig parallelen Funktionen des Modells nutzt. Das Programm verwendet verteilte Anführerwahl- und Synchronisationsalgorithmen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36490-0_12 936e3d6679f5253d6fbcb35f99c698ba;de;;;3.3.;;;Auf dem Weg zur automatischen Leistungsoptimierung für numerische Simulationen im SILC Matrix Computation Framework In diesem Kapitel wird eine Methode zur Leistungsmodellierung für numerische Simulationen im SILC-Matrix-Berechnungs-Framework vorgestellt. Ein Anwendungsprogramm von SILC ist ein Client eines SILC-Servers, der dem Client umgebungs- und sprachunabhängig Zugriff auf Matrixberechnungsbibliotheken ermöglicht. Ziel der vorliegenden Studie ist es, die Leistung eines SILC-Clients zu modellieren, der eine numerische Simulation mit einem parallelen SILC-Server durchführt, der auf einer parallelen Maschine mit gemeinsam genutztem Speicher läuft. Das vorgeschlagene Verfahren verwendet ein einfaches Leistungsmodell, das die Ausführungszeit eines SILC-Clients als Funktion der Anzahl von Threads beschreibt, auf denen ein paralleler SILC-Server läuft. Das erhaltene Leistungsmodell wird dann verwendet, um die optimale Anzahl von Threads für die bestimmte Kombination von SILC-Client und -Server zu bestimmen. Die vorgeschlagene Methode wurde auf drei Anwendungsprogramme in Kombination mit einem OpenMP-basierten parallelen SILC-Server auf SGI Altix 3700 angewendet. Experimentelle Ergebnisse zeigten, dass die vorgeschlagene Methode in den meisten Fällen genaue Schätzungen der Ausführungszeit liefert. Basierend auf der vorgeschlagenen Leistungsmodellierungsmethode wird auch ein automatischer Leistungsabstimmungsmechanismus für numerische Simulationen in SILC vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-6935-4_11 d4398b3cd737ed706384f1eb0a7483a9;de;;;3.3.;;;GUIDED: Smarte Plattform für betreutes Wohnen und soziale Kommunikation für ältere Erwachsene Die alternde Bevölkerung, die zunehmende Inzidenz chronischer Erkrankungen, der technologische Fortschritt und die schnell steigenden Gesundheitskosten treiben die Gesundheitsversorgung von Krankenhäusern und Kindertagesstätten nach Hause. Das EU-Projekt GUIDed AAL konzentriert sich auf die Herausforderung, ältere Erwachsene so lange wie möglich unabhängig und funktionsfähig in ihren eigenen vier Wänden zu halten, indem wichtige Aktivitäten des täglichen Lebens durch IKT-Lösungen erleichtert werden. Über eine modulare und anpassbare Smart-Home-Plattform, ein unterstütztes System und eine Android-Anwendung werden Lösungen und Dienste für betreutes Wohnen angeboten, um den Alltag von Senioren in ihrem eigenen Zuhause und in der Gemeinschaft zu erleichtern. Die Hauptzielbereiche sind Smart Home Control, Verbesserung der Sicherheit zu Hause, Stadtnavigation, Ernährung und Gesundheit sowie Sozialisation/Kommunikation. In diesem Papier stellen wir drei der fünf GUIDed-Dienste vor und berichten über unsere Ergebnisse aus der Evaluierung der High-Fidelity (Hi-Fi)-Papierprototypen für diese Dienste. Die Hi-Fi-Prototypen wurden von älteren Erwachsenen und ihren Betreuern anhand von Fokusgruppen in vier europäischen Ländern, nämlich Österreich, Zypern, Norwegen und Polen, getestet. Die Ergebnisse zeigten, dass alle Benutzer das GUIDed-System als verständlich und einfach zu verwenden empfanden, was angesichts der geringen technologischen Kenntnisse älterer Teilnehmer ein ermutigendes Ergebnis ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-75004-6_10 3ea78cf83975a4433abe29e64923c9ea;de;;;3.3.;;;Ein Framework für skalierbare und kosteneffektive Algorithmen für die Gebäudekomplexität für HEVC Immer mehr Interframe-Technologien werden in den neuesten Videocodierungsstandard HEVC mit dem Ziel übernommen, die Codierungseffizienz zu verbessern, was auch die Codierungskomplexität stark erhöht. Für Anwendungsszenarien mit eingeschränkten und variierenden Rechenressourcen, z.B. tragbaren Geräten oder visueller Echtzeitkommunikation ist eine Verschlechterung der Ratenverzerrungsleistung (R-D) unvermeidlich. Unser Hauptanliegen ist es, die R-D-Leistung mit eingeschränkten und variierenden Rechenressourcen zu maximieren. In diesem Papier werden wir einen neuen Ansatz zum Aufbau eines komplexitätsskalierbaren und kosteneffektiven Rahmenwerks vorstellen, das aus drei Hierarchieebenen besteht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34595-1_35 d0ccbc910d378d15aaaddeb17a914fa1;de;;;3.3.;;;Erforschung des identitätsmetasystembasierten Authentifizierungsmechanismus in SOA Um die Verwirrung der Identitätsbereitstellung und -verwaltung bei der identitätsbasierten Authentifizierung in SOA zu lösen, haben wir einen Authentifizierungsmechanismus basierend auf einem Identitätsmetasystem vorgeschlagen, der für SOA auf der Grundlage einiger Schlüsseltechnologien Forschung zu SOA und Identitätsmetasystemen geeignet ist. Der Authentifizierungsmechanismus verwendet WCF, um SOA zu implementieren und Identität zu übertragen, und verwendet einen WCS-basierten Identitätsbereitstellungsmechanismus, um verschiedene Identitäten zwischen SOA-Diensten zu integrieren. Im Vergleich zu herkömmlichen Authentifizierungsmethoden kann das neue vorgeschlagene Verfahren, das auf einem modifizierten Identitätsmetasystem basiert, eine sichere, erweiterbare und lose gekoppelte Authentifizierungsarchitektur für SOA bereitstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24022-5_9 04923dc73c85d504185af0abe1153e63;de;;;3.3.;;;Anwendung von Computer Aided Design Software in der Innenarchitektur Innenarchitektur ist eine umfassende Disziplin. Mit der Entwicklung verwandter Disziplinen, insbesondere der kontinuierlichen Weiterentwicklung der computergestützten Softwaretechnik und der computerbezogenen Hardwaretechnik, hat der Einsatz computergestützter Software für die Innenarchitektur große Fortschritte gemacht und der Umgang mit Computertechnik. Die bessere Anwendung der entwickelten verwandten Produkte in der Innenarchitektur ist zu einem neuen Forschungsthema geworden. In diesem Artikel wird kurz die aktuelle Situation der computergestützten Innenarchitektur in meinem Land, die Anwendung und Entwicklung gängiger Computersoftware in der Innenarchitektur diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-74811-1_8 786375525e2c5a5cdfdce07aec41813e;de;;;3.3.;;;Phased-Array-Computertomographie mit schmaler Apertur Wir zeigen die Theorie der Computertomographie mit Phased Array mit schmaler Apertur. Da diese Technik auf der Puls-Echo-Methode basiert, ist die Anwendung flexibel. Auch ist es einfach, die dreidimensionale Abbildung durch Verschieben der Zeitverzögerung anzuwenden. Wir entwickeln das experimentelle System basierend auf einem kommerziell erhältlichen elektronischen Sektorscannersystem mit der NAPA-Sonde, die mit einer konkaven akustischen Linse befestigt ist. Die NAPA-Sonde hat 3,5 MHz und 48 Elemente. Das System sammelt innerhalb einer Minute sechzig Projektionen. Wir haben die Experimente mit dem System durchgeführt, um die Spitzen von Nadelzielen und das Gewebe nachahmende Phantom als dichte Streuziele zu rekonstruieren. Folglich zeigen die Ergebnisse die Machbarkeit dieser Technik.;-;-;-;https://link.springer.com/chapter/10.1007/0-306-47107-8_22 6f9f591d48a009ce46a9fa29ad0f20e7;de;;;3.3.;;;Zeitabhängige Optimierung von Assertions in eingebetteter Software Technologieschrumpfung und Sensibilisierung haben zu immer mehr transienten Fehlern in eingebetteten Systemen geführt. Transiente Fehler sind intermittierende und nicht vorhersagbare Fehler, die durch äußere Ereignisse verursacht werden, wie zum Beispiel das Auftreffen energiereicher Teilchen auf die Schaltkreise. Diese Fehler verursachen keine dauerhaften Schäden, können jedoch die laufenden Anwendungen beeinträchtigen. Eine Möglichkeit, die korrekte Ausführung dieser eingebetteten Anwendungen sicherzustellen, besteht darin, das Debuggen und Testen auch nach der Auslieferung der Systeme fortzusetzen, ergänzt durch Wiederherstellungs-/Neustartoptionen. Dabei können die im Entwicklungsprozess zur Designvalidierung weit verbreiteten ausführbaren Assertionen im Endprodukt wieder eingesetzt werden. Auf diese Weise verwendet die Anwendung die Assertion, um sich selbst während der tatsächlichen Ausführung zu überwachen, und lässt nicht zu, dass sich fehlerhaftes Verhalten außerhalb der Spezifikation manifestiert. Diese Art von Fehlertoleranz auf Softwareebene kann eine praktikable Lösung für das Problem der Entwicklung kommerzieller eingebetteter Standardsysteme mit Zuverlässigkeitsanforderungen darstellen. Die Fehlertoleranz auf Softwareebene ist jedoch mit Rechenkosten verbunden, die sich auf zeitbeschränkte Anwendungen auswirken können. Somit sollen die ausführbaren Assertionen an den bestmöglichen Punkten im Anwendungscode eingeführt werden, um Zeitbeschränkungen zu erfüllen und die Fehlererkennungseffizienz zu maximieren. Wir präsentieren einen Ansatz zur Optimierung der Platzierung ausführbarer Assertionen in zeitbeschränkten eingebetteten Anwendungen zur Erkennung von transienten Fehlern. In dieser Arbeit haben Zusicherungen unterschiedliche Eigenschaften, wie z. B. Dichtheit, d. h. Fehlerabdeckung und Leistungsverschlechterung. Unter Berücksichtigung dieser Eigenschaften haben wir eine Optimierungsmethodik entwickelt, die Kandidatenpositionen für Zusicherungen identifiziert und einen Satz optimaler Zusicherungen mit der höchsten Enge bei der geringsten Leistungsverschlechterung auswählt. Der Satz ausgewählter Behauptungen hält garantiert die Echtzeitfristen der eingebetteten Anwendung ein. Experimentelle Ergebnisse haben die Wirksamkeit des vorgeschlagenen Ansatzes gezeigt, der dem Designer eine flexible Infrastruktur für die Analyse zeitbeschränkter eingebetteter Anwendungen und transienter Fehler-orientierter ausführbarer Assertionen bietet.;-;-;-;https://link.springer.com/article/10.1007/s10836-012-5316-1 06b00f394f4146998ede6cd0016d720d;de;;;3.3.;;;Eine empirische Studie zu stochastischen Differentialgleichungsmodellen basierend auf der Bedeutung der Komponenten für Open-Source-Software Netzwerktechnologien werden in einem weiten Bereich immer komplexer. Insbesondere Open-Source-Softwaresysteme, die als Schlüsselkomponenten kritischer Infrastrukturen in der Gesellschaft dienen, werden auch heute noch immer weiter ausgebaut. In diesem Papier schlagen wir einen neuen Ansatz zur Bewertung der Softwarezuverlässigkeit vor, indem wir eine Fusion von neuronalen Netzen und stochastischen Differentialgleichungen basierend auf den Wichtigkeitsstufen der Komponenten erstellen. Außerdem analysieren wir tatsächliche Softwarefehlerzählerdaten, um numerische Beispiele für die Bewertung der Softwarezuverlässigkeit unter Berücksichtigung der Komponentenbedeutungsstufen für eine Open-Source-Software zu zeigen. Darüber hinaus vergleichen wir die Anpassungsgüte der vorgeschlagenen Modelle mit dem herkömmlichen Wachstumsmodell der Softwarezuverlässigkeit für OSS.;-;-;-;https://link.springer.com/article/10.1007/BF03398822 7e38e40ec0263ad956fe25f915190b5a;de;;;3.3.;;;E-Government: Herausforderungen und verpasste Chancen Die E-Government-Systeme sind die größten jemals eingesetzten Softwaresysteme. Sie beeinflussen fast alle Aspekte des Lebens einer Gesellschaft. Die Analyse der von ihnen bereitgestellten Fähigkeiten zeigt, dass E-Government nicht genügend Instrumente für die strategischen Aspekte der Entwicklung von Staaten und Gesellschaften bereitstellt. Beispiele hierfür sind die Steuerung und Optimierung des Bildungssystems, die Krisenvorhersage und -steuerung sowie die Analyse von Verwaltungsabläufen. Sie wird durch die verzögerte Anwendung moderner Softwarearchitekturen und E-Government verstärkt. Wir zeigen, dass die Voraussetzung für jede Lösung dieser Probleme eine angemessene Behandlung der Datenerhebung und eine angemessene Datensicherheitspolitik in E-Government-Systemen ist. Es sollte zu einer Architektur des E-Government mit drei gut entwickelten virtuellen Ebenen führen: Benutzer-, Anwendungs- und Datenebene. Aktuelle Systeme haben fast keine Datenschicht. Voraussetzung dafür ist eine explizite Formulierung messbarer Ziele zu strategischen Aspekten des Einsatzes von E-Government-Systemen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04754-1_49 053045a993f7c64ed6597ff56fe333d1;de;;;3.3.;;;Fortschritte in der drahtlosen Sensorkommunikation und Anwendungen für den Smart Space Die Forschungsfortschritte in der drahtlosen Sensorkommunikation und -anwendung wurden in letzter Zeit umfassend untersucht. Diese Sonderausgabe über Fortschritte in der drahtlosen Sensorkommunikation und Anwendungen für den intelligenten Weltraum bietet qualitativ hochwertige Beiträge zu verwandten theoretischen und praktischen Aspekten der drahtlosen Sensorkommunikation. Wir haben acht Forschungsarbeiten ausgewählt, deren Themen einen starken Bezug zur Funk- und Sensorik haben.;-;-;-;https://link.springer.com/article/10.1007/s11235-011-9545-x d6d75173641164effe256c3767593e80;de;;;3.3.;;;Elementare Übersetzungen: Die Wippen für die Rückverfolgbarkeit zwischen Datenbankschemata Es gibt mehrere neuere Ansätze, die den Einsatz von Modelltransformationen während der Softwareentwicklung nutzen. Die Existenz verschiedener Arten von Modellen auf unterschiedlichen Abstraktionsebenen bringt die Notwendigkeit mit sich, Wissen von einem Modell auf ein anderes zu übertragen. Dieses Framework kann auch im Kontext des Metadatenmanagements für die Datenbankevolution angewendet werden, bei der Transformationen erforderlich sind, um sowohl Schemata von einer Ebene in eine andere zu übersetzen als auch bestehende Schemata zu modifizieren. In diesem Papier stellen wir die Begriffe Übersetzungsregel und Elementarübersetzung vor, die innerhalb einer Vorwärtsdatenbank-Wartungsstrategie verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30466-1_35 c373f4d519c935ff7982264e3a53910d;de;;;3.3.;;;Kombinierte Over-the-Horizon-Kommunikationssysteme Das Kapitel präsentiert die wissenschaftlichen und technischen Prinzipien der Konstruktion neuer hybrider kombinierter Kommunikationssysteme über den Horizont unter Verwendung kleiner Referenzstationen der Troposcatter-Kommunikation, die intellektuelle Aeroplattformen und künstliche Formationen weiterleiten. Diese Prinzipien basieren auf der Verwendung neuer Technologien und softwaredefiniertem und kognitivem Funk, kooperativer Weiterleitung, Maschine-zu-Maschine, effektiver Interaktion auf System-, Hardware- und Anwendungsprotokollebenen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-16770-7_6 09df70d8c361a553455bac882fb1f7a0;de;;;3.3.;;;Monitoring zur digitalen Prozesserhaltung Die digitale Bewahrung ist eine wichtige Herausforderung für die Informationsgesellschaft. Zuverlässige Informations- und Kommunikationstechnologie ist für die meisten Unternehmen von entscheidender Bedeutung und Software-Ausfälle stellen ein erhebliches Risiko dar. Durch den Einsatz von Technologien wie Software as a Service (SaaS) und Internet of Services (IoS) werden Geschäftsprozesse zunehmend durch verteilte, serviceorientierte Systeme unterstützt. Wir schlagen ein Konzept und Methoden zur Erfassung von Kontextinformationen, Ereigniskausalität und Timing für die digitale Erhaltung verteilter Geschäftsprozesse und Dienste vor. Die Architektur leitet sich von einer Architektur zur Überwachung von Sensorsystemen ab. Wir fügen einen Reasoner hinzu, der überprüfen kann, ob Prozesse an explizite Verträge halten und Verhaltensanomalien erkennen, und wir skizzieren, wie ein induktiver Lerner verwendet werden kann, um Anomalien zu erkennen, die nicht durch diese Verträge abgedeckt sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24279-3_22 5707f2c3d83d37abb6526a1e7b448416;de;;;3.3.;;;Verbesserung der Validität und Reliabilität in Längsschnitt-Fallstudien-Zeitplänen Forschende für Managementinformationssysteme stützen sich auf Längsschnittstudien, um eine Vielzahl von Phänomenen wie Systementwicklung, Systemimplementierung und informationssystembezogene organisatorische Veränderungen zu untersuchen. Allerdings wurde dem Verständnis der einzigartigen Validitäts- und Reliabilitätsprobleme im Zusammenhang mit der Zeitachse, die in einer Längsschnitt-Fallstudie entweder explizit oder implizit erforderlich ist, nicht genügend Aufmerksamkeit geschenkt. In diesem Papier behandeln wir drei Formen der Längsschnittvalidität:;-;-;-;https://link.springer.com/article/10.1057/ejis.2011.53 3bebce6a5d3b27c9c87696912fdcceed;de;;;3.3.;;;Unterstützung von Mobile Commerce-Anwendungen mit zuverlässigen drahtlosen Netzwerken Mobile Commerce (M-Commerce) ist eine aufstrebende Disziplin, die Anwendungen, mobile Geräte, Middleware und drahtlose Netzwerke umfasst. Während die meisten bestehenden E-Commerce-Anwendungen so modifiziert werden können, dass sie in einer drahtlosen Umgebung ausgeführt werden, beinhaltet M-Commerce auch viele weitere neue Anwendungen, die nur aufgrund der drahtlosen Infrastruktur möglich werden. Zu diesen Anwendungen gehören mobile Finanzdienstleistungen, benutzer- und standortspezifische mobile Werbung, mobiles Inventarmanagement, drahtloses Business Reengineering und mobile interaktive Spiele. Zusätzlich zu den Einschränkungen bei Geräten und drahtlosen Verbindungen würde der mobile Handel auch durch die Zuverlässigkeit der drahtlosen Infrastruktur beeinträchtigt. Im Gegensatz zu E-Commerce-Anwendungen, die normalerweise auf einer festen Netzwerkinfrastruktur mit ziemlich hoher Zuverlässigkeit (nahezu 100 %) ausgeführt werden, erhalten M-Commerce-Anwendungen möglicherweise keine so hohe Zuverlässigkeit von der bestehenden und neu entstehenden drahtlosen Infrastruktur. Bisher konzentriert sich der Großteil der M-Commerce-Forschung auf Anwendungen, Geräte und Sicherheitsfragen. Wir glauben, dass einige Arbeiten erforderlich sind, um die Zuverlässigkeitsherausforderungen der drahtlosen Infrastruktur anzugehen. In diesem Papier stellen wir (a) die Zuverlässigkeitsprobleme der drahtlosen Infrastruktur, (b) mehrere Architekturen zur Verbesserung der Zuverlässigkeit drahtloser Netzwerke und (c) ein Simulationsmodell und Ergebnisse zur drahtlosen Zuverlässigkeit für M-Commerce vor. Die Ergebnisse zeigen, dass eine signifikante Verbesserung der drahtlosen Zuverlässigkeit für die Unterstützung von M-Commerce-Anwendungen möglich ist.;-;-;-;https://link.springer.com/article/10.1023/A%3A1014578729875 8f1465c7d6211a793de8130973a46465;de;;;3.3.;;;Abstraktion von Operationen in vertrauenswürdigen Komponenten basierend auf OR-Transition Colored Petri Net In diesem Beitrag wird mit einem aktuellen Thema der aktuellen Trusted-Software-Forschung als Hauptinhalt geforscht – der komponentenbasierten Trusted-Software-Konstruktion und ihrer Schlüsseltheorie und -technologie. In diesem Papier analysieren wir basierend auf Eigenschaften vertrauenswürdiger Komponenten die zugehörigen Eigenschaften vertrauenswürdiger Komponenten auf der Grundlage unserer vorgeschlagenen OR-Übergangs-Petrinetz-basierten Komponentenbeschreibungs- und Modellierungsarbeit und schlagen auf dieser Grundlage ein gutartiges Komponentenkonzept vor, und eine Methode zur Abstraktion der Operation in einer vertrauenswürdigen Komponente vorschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-24268-8_40 f0c4022ce1a5fccb29fe145e242bd645;de;;;3.3.;;;Einführung in die Biometrie In diesem Kapitel geben wir einen Gesamteindruck zu biometrischen Technologien und Systemen. In Abschnitt 1.1 wird zunächst der Hintergrund der Biometrie vorgestellt. Nach einigen grundlegenden Konzepten werden in Abschnitt 1.2 Taxonomie und Geschichte der Biometrie beschrieben. Abschnitt 1.3 erörtert das Prinzip und die Leistungsbewertung biometrischer Systeme. Als nächstes werden biometrische Anwendungen kurz betrachtet. Eine ganze Buchperspektive wird schließlich in Abschnitt 1.5 gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4519-4_1 41ad878034e4a362d2cbdc0fa4a3ec1b;de;;;3.3.;;;Testfallgenerierung für nichtdeterministische Echtzeitsysteme Wir untersuchen die Generierung von Testfällen für nichtdeterministische Echtzeitsysteme. Wir definieren eine Klasse von Determinizable Timed Automata (DTA), um das zu testende System zu spezifizieren. Das Prinzip unserer Testmethode besteht aus zwei Schritten. In Schritt 1 drücken wir das Problem in einer Nicht-Echtzeit-Form aus, indem wir einen DTA in einen äquivalenten endlichen Automaten transformieren. Letzteres verwendet zwei zusätzliche Arten von Ereignissen,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24617-6_10 cc6b1ae75bb78fdc2594eaa236503a04;de;;;3.3.;;;PS-SIM: Eine ausführungsgesteuerte Leistungssimulationstechnologie basierend auf Process-Switch Heutzutage verbessert sich die Leistung von großen parallelen Computersystemen kontinuierlich, und der Systemumfang wird extrem groß. Die Leistungsvorhersage ist zu einem wichtigen Ansatz für die Gestaltung, Implementierung und Optimierung von Systemen geworden. Die Simulationsmethode ist die am weitesten verbreitete Leistungsvorhersagetechnologie für große parallele Computersysteme. In diesem Papier haben wir nach Analyse der bestehenden Probleme eine neuartige ausführungsgesteuerte Leistungssimulationstechnologie vorgeschlagen, die auf Prozesswechsel basiert. Wir haben ein Simulationsframework namens PS-SIM entworfen und ein Prototypsystem basierend auf MPICH2 implementiert. Schließlich verifizierten wir den vorgeschlagenen Ansatz durch Experimente. Experimentelle Ergebnisse zeigen, dass der Ansatz eine hohe Genauigkeit und Simulationsleistung aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23324-1_4 0ea8c9c0d7a5d755e4039a7d881d8723;de;;;3.3.;;;Berechtigung und Zugangskontrolle: ABAC Das Ziel von GENI einer breit angelegten Zusammenarbeit an Infrastrukturen, die sich im Besitz unabhängiger und unterschiedlicher Interessengruppen befinden, belastet die aktuellen Zugangskontrollsysteme bis zum Äußersten. Zu den Herausforderungen, die von den aktuellen Systemen nicht gut bewältigt werden, gehören zumindest die Unterstützung für verteiltes Identitäts- und Richtlinienmanagement, Korrektheit und Überprüfbarkeit sowie Zugänglichkeit. Das attributbasierte Zugriffskontrollsystem (ABAC) [1, 2] ist ein attributbasiertes Berechtigungssystem, das Attribute mit einem einfachen Argumentationssystem kombiniert, um eine Berechtigung bereitzustellen, die (1) Delegation und andere Berechtigungsmodelle effizient und skalierbar ausdrückt, (2) bereitstellt Auditing-Informationen, die sowohl die Entscheidung als auch die Begründung enthalten, und (3) mehrere Authentifizierungs-Frameworks als Einstiegspunkte in den Attributraum unterstützen. Das GENI-Projekt hat dieses mächtige theoretische System in eine praxistaugliche Form gebracht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-33769-2_10 2502f7b584fa0f53c4ad97cba807a051;de;;;3.3.;;;Big Data Analytics Framework für Smart Universities-Implementierungen Der Fortschritt bei der Integration zwischen mehreren Hauptbereichen wie Wirtschaft, Mobilität, Umwelt, Menschen, Wohnen und Regierung ist die Etablierung der Smart City. Es ist auch kooperativ, sowohl auf IKT- als auch auf Stadtstudien basierenden Abschnitten. In der Zwischenzeit wurde Big Data in mehreren Bereichen wie Gesundheitswesen, Regierung, E-Commerce und Universitäten angewendet. Darüber hinaus haben die Entwicklung von Internet of Things (IoT)-Technologien in Verbindung mit Big-Data-Fähigkeiten neue Möglichkeiten für die Implementierung von Smart City eröffnet. Darüber hinaus unterstützen Technologien wie Advanced Server und Classroom mit intelligenten Technologien die Universitäten bei ihrer Funktion. Um die Forschungs- und Innovationsabteilung an Universitäten zu verbessern, sind spezifische Ziele, zuverlässiges Personal und effiziente Verfahrensstandards (SOP) erforderlich, um intelligente Universitäten zu werden. Big Data Analytics ist heute an Hochschulen vielversprechend, da sie Zugriff auf große Datenmengen haben, die aus ihren Lehr- und Lernaktivitäten resultieren. Datenanalysen können verwendet werden, um Erkenntnisse zur Verbesserung der Studenten und Mitarbeiter zu liefern, den Lehr- und Lernprozess zu verbessern und die Entscheidungsfindung des Managements zu unterstützen. Es gibt jedoch nur begrenzte Diskussionen darüber, wie Big Data im Bildungsbereich implementiert werden kann, um es intelligenter zu machen, insbesondere in Bezug auf kritische Komponenten für eine erfolgreiche Implementierung intelligenter Universitäten. In diesem Papier beschreiben wir die Smart-City-Komponenten und smart-basierten Anwendungen, die im Kontext von Smart Cities verwendet werden. Die Anwendung von Big Data Analytics zur Unterstützung von Smart Cities wird ebenfalls diskutiert und schließlich wird ein Framework für Big Data Analytics für Smart University vorgeschlagen und die Hauptkomponenten des Frameworks werden auch basierend auf der Überprüfung vorhandener Arbeiten in der Literatur beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20717-5_7 e1e087f470a3f4be44ac246b5bfe05cf;de;;;3.3.;;;Auf dem Weg zur teamorientierten Programmierung Das Versprechen agentenbasierter Systeme führt zur Entwicklung autonomer, heterogener Agenten, die von einer Vielzahl von Forschungs- und Industriegruppen entworfen und über eine Vielzahl von Plattformen und Umgebungen verteilt werden. Teamwork zwischen diesen heterogenen Agenten ist entscheidend, um das volle Potenzial dieser Systeme auszuschöpfen und auf die Anforderungen großer Anwendungen zu skalieren. Leider ist die Entwicklung von robusten, flexiblen Agententeams derzeit äußerst schwierig. Dieses Papier konzentriert sich darauf, den Prozess des Aufbaus solcher Teams unter Verwendung eines vereinfachten, abstrakten Frameworks namens . deutlich zu beschleunigen;-;-;-;https://link.springer.com/chapter/10.1007/10719619_17 cbb50c31a957f00442b750c08477c580;de;;;3.3.;;;Effiziente Switches für Network-on-Chip-basierte Embedded-Systeme System-on-a-Chip (SoC) hat sich mit dem schnellen Fortschritt der Halbleitertechnologie zu einem kostengünstigen Ansatz für das Design eingebetteter Systeme entwickelt. Es ermöglicht Designern, eine Reihe von heterogenen IP-Blöcken basierend auf einer Systemverbindung zusammenzufügen. Die herkömmliche dedizierte Verdrahtung als Systemverbindung weist jedoch viele Nachteile auf, wie beispielsweise eine nicht skalierbare globale Verdrahtungsverzögerung, das Fehlen einer globalen Synchronisation und Fehler aufgrund von Signalintegritätsproblemen. Diese Probleme können durch die Network-on-Chip-(NoC)-Architektur basierend auf regulären On-Chip-Kommunikationsnetzen gemildert werden. In diesem Beitrag stellen wir drei effiziente Schalterdesigns für NoC-Systeme vor, die auf Schaltungsvermittlung basieren. Solche Switch-Designs mit effizienter Pufferverwaltung können dem On-Chip-Netzwerk garantierten Durchsatz und Übertragungslatenzen bieten.;-;-;-;https://link.springer.com/chapter/10.1007/11596356_10 68734dcead41d0db2c5f74e782f13296;de;;;3.3.;;;Planen von parallelen Berechnungen durch Arbeitsraub: Eine Umfrage Work Stealing hat sich als effiziente Technik zum Planen paralleler Berechnungen erwiesen und wird sowohl in der Industrie als auch in der Wissenschaft als Multiprozessor/Multicore-Prozessor-Lastausgleichstechnologie der Wahl immer beliebter. Es wird ein Überblick über das Work Stealing Scheduling aus der Perspektive von Scheduling-Algorithmen, der Optimierung der Algorithmusimplementierung und der prozessorarchitekturorientierten Optimierung gegeben. Die zukünftigen Forschungstrends und Empfehlungen, die durch Theorie, neue Anwendungen und Motive, Architektur und heterogene Plattformen getrieben werden, werden ebenfalls bereitgestellt.;-;-;-;https://link.springer.com/article/10.1007/s10766-016-0484-8 17616a9ae9288e3ad06903ac60fb0407;de;;;3.3.;;;System Engineering-basierte Methodik zum Entwurf rekonfigurierbarer Fertigungssysteme Der Markt zeichnet sich heute durch eine hohe Wettbewerbsfähigkeit und sehr häufige und plötzliche Schwankungen im Produktionskontext aus. Die kritische Überprüfung der bestehenden Fertigungsparadigmen, der Dedicated Manufacturing Lines (DMLs) und der Flexible Manufacturing Systems (FMSs), zeigt, dass diese Systeme die Anforderungen des aktuellen Marktes nicht erfüllen können, diese Anforderungen werden hauptsächlich in Kosten, Qualität und Reaktionsfähigkeit. Daher ist ein neues Herstellungsparadigma erforderlich, das diese Anforderungen erfüllen könnte. Rekonfigurierbares Fertigungssystem oder RMS ist dieses neue Paradigma, es soll reaktiv genug sein, um die plötzlichen Veränderungen auf dem Markt zu bewältigen und gleichzeitig die Qualität der Produkte zu niedrigen Kosten hoch zu halten. Die größte Herausforderung bei RMS ist ihr Design. Die meisten der in der Literatur vorgeschlagenen Methoden behandeln das Problem des RMS-Designs nicht als Ganzes, sondern behandeln nur einen Teil des Problems. Als Beitrag schlagen wir daher in diesem Kapitel eine generische RMS-Entwurfsmethodik basierend auf Systems Engineering (SE) vor. Diese Methodik wird das RMS-Design während des Entwicklungsprozesses unterstützen. Es basiert speziell auf dem Standard ISO/IEC/IEEE15288, dem neuesten Standard in der SE-Disziplin.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-28782-5_3 9954b9aeff7593ad760dc5cc5b1df283;de;;;3.3.;;;Von strengen Anforderungen und Spezifikationen von Benutzerschnittstellen zu Software-Geschäftsanwendungen Softwareanwendungen wurden mit mehreren Programmiersprachen (spezifische Softwarebibliotheken und Frameworks) entwickelt und auf verschiedenen Software- und Hardwareinfrastrukturen bereitgestellt. In diesem Papier wird die ASL-Sprache (kurz für „Application Specification Language“) vorgestellt und diskutiert, die Konstrukte aus zwei früheren Sprachen kombiniert: ITLingo RSL und IFML. ASL-Spezifikationen sind strenge und rigorose Sätze, die es uns ermöglichen, sowohl Anforderungen als auch Aspekte der Benutzerschnittstellen von Softwareanwendungen auf konsistente und integrierte Weise zu definieren. Ähnlich wie RSL und anders als IFML ist ASL eine kontrollierte natürliche Sprache mit einer textuellen konkreten Syntax. Darüber hinaus umfasst der vorgeschlagene Ansatz Modell-zu-Modell- und Modell-zu-Code-Transformationen, die die Qualität und Produktivität sowohl der Anforderungsspezifikation als auch der Entwicklung von Softwareanwendungen erheblich verbessern können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58793-2_37 2c1f26832ab779f54505c952badd00da;de;;;3.3.;;;Domänenspezifische Modellierung mit mobilen Geräten Domain-Specific Languages ​​(DSLs) sind Sprachen, die auf einen bestimmten Anwendungsbereich wie Logistik, Netzwerke oder mobiles App-Design zugeschnitten sind. Sie erfassen die wichtigsten Primitive und Abstraktionen innerhalb einer Domäne, was eine prägnante und natürliche Modellierung von Systemen und Problemen innerhalb dieser Domäne ermöglicht. DSLs werden häufig in Softwareentwicklungsparadigmen wie Model-Driven Engineering verwendet und sind auch ein Mittel, um Endbenutzern die Durchführung einfacher Programmieraufgaben in bestimmten Domänen zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-62569-0_11 2ac0024a651b21d112e8bfd94ffa8ae8;de;;;3.3.;;;Optimierung der Technologie bei der Videocodierung und -decodierung Mit der zunehmenden Komplexität der Videocodierungs- und -decodierungstechnologie bestehen, obwohl die Kompressionskapazität von Video stark verbessert wurde, immer noch große Herausforderungen bei der Erfüllung der Echtzeit-Videocodierungs- und -Decodierungsanforderungen, insbesondere 4K/8K-Echtzeitcodierung und -Decodierung. Um die Echtzeitcodierung und -decodierung effizient zu implementieren, ist es notwendig, die aktuelle Codierungs- und Decodierungstechnologie zu optimieren. Die meisten Optimierungsschemata basieren auf der Idee, vorzeitig zu stoppen und die Anzahl der Kandidaten zu reduzieren. Einige Schemata optimieren den Codec gemäß der Struktur und dem Prinzip der Hardware. In diesem Artikel werden verschiedene Optimierungsmethoden der Quadtree-Partition, Intra- und Inter-Vorhersage und -Transformation sowie einige parallele Pipeline-Optimierungsarchitekturen für die Hardware- und Softwareimplementierung untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4163-6_104 c842185d1218d0263d7331152d715b2b;de;;;3.3.;;;Formalisierung von Nacharbeit in Softwareprozessen Dieses Papier zeigt, wie effektive Programmiersprachen für Softwareprozesse zu einem besseren Verständnis kritischer Softwareprozesse sowie zu einer verbesserten Prozessleistung führen können. In diesem Papier untersuchen wir den häufig erwähnten, aber selten definierten Nacharbeitsprozess. Wir stellen fest, dass Überarbeitung im Allgemeinen als eine wichtige Softwareentwicklungsaktivität verstanden wird, aber beachten Sie, dass sie schlecht definiert und verstanden ist. In diesem Papier verwenden wir das Vehikel der Softwareprozessprogrammierung, um die Natur dieser Art von Prozessen zu erläutern. Dabei zeigen wir, dass eine effektive Sprache (d. h. eine mit entsprechenden semantischen Merkmalen) helfen kann, die Art der Nacharbeit zu erklären, und weckt auch die Hoffnung, dass diese Art von Prozess durch die Ausführung des definierten Prozesses beschleunigt werden kann. Der Beitrag demonstriert die Schlüsselrolle bei der effektiven Überarbeitungsdefinition von semantischen Merkmalen wie Prozeduraufruf, Scoping, Ausnahmeverwaltung und Ressourcenverwaltung, die in Programmiersprachen häufig vorkommen. Anschließend wird ein ehrgeizigeres Forschungsprogramm zu den nützlichsten semantischen Merkmalen der Prozessprogrammiersprache vorgeschlagen. Das Ziel dieser Arbeit sind verbesserte Sprachen, ein besseres Verständnis von Softwareprozessen und eine verbesserte Unterstützung bei der Softwareentwicklung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45189-1_3 270e04728ca3ec9a0068e06905ffed2d;de;;;3.3.;;;Satellitensystemsimulation Das Kapitel beleuchtet Techniken zur Simulation des Verhaltens von Echtzeit- und Nicht-Echtzeit-Satellitensystemen und verdeutlicht mögliche Anwendungsfelder und Motivationen. Kommunikationssysteme und insbesondere Satellitenkomponenten haben ihre Komplexität erhöht. Simulation ist eine Realität, um neue Lösungen zu erforschen, ohne Gefahren und Kosten zu erhöhen: Lange Phasen von Weltraummissionen sind vollständig darauf ausgerichtet, das Verhalten der zu implementierenden Systeme vorherzusagen, und Simulationen sind weit verbreitet. Das Kapitel konzentriert sich auf Methoden zur Bewertung der Effizienz eines Simulators, unterstreicht einige Verkehrsmodelle, die zur Simulation von Kommunikationssystemen geeignet sind, und erläutert spezielle Themen, mit denen die Autoren direkte Erfahrungen haben. Auf die Satellitenumgebung angewendet werden einige Tools vorgestellt: ein auf C-Sprache basierender Nicht-Echtzeit-Softwaresimulator und ein Echtzeitsimulator (Emulator), bei dem reale Maschinen an das Tool angeschlossen werden können, um Verkehrsmodellierung zu vermeiden . Leistungsergebnisse werden berichtet, um die Konzepte des Kapitels besser zu erklären.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-9218-5_7 a9307f5c357494579c646faeacab40e4;de;;;3.3.;;;Schnelle Entwicklung der CNN-Architektur für die Bildklassifizierung Die Leistungsverbesserung des Convolutional Neural Network (CNN) bei der Bildklassifizierung und anderen Anwendungen ist zu einem jährlichen Ereignis geworden. Generell tragen zwei Faktoren zu diesem neidischen Erfolg bei: das Stapeln von mehr Schichten führt zu gigantischen Netzen und der Einsatz anspruchsvollerer Netzarchitekturen, z. Module, Skip-Verbindungen usw. Da diese hochmodernen CNN-Modelle manuell erstellt werden, ist es nicht einfach, das am besten optimierte Modell zu finden. In den letzten Jahren sind evolutionäre und andere von der Natur inspirierte Algorithmen zu menschlichen Konkurrenten beim automatischen Entwurf von CNN und anderen tiefen Netzwerken geworden. Eine Herausforderung für diese Methoden ist jedoch ihr sehr hoher Rechenaufwand. In diesem Kapitel untersuchen wir, ob wir in der klassischen CNN-Architektur ein optimiertes CNN-Modell finden und dies automatisch zu geringeren Kosten tun können. Zu diesem Zweck präsentieren wir einen genetischen Algorithmus zur Optimierung der Anzahl von Blöcken und Schichten und einiger anderer Netzwerk-Hyperparameter in der klassischen CNN-Architektur. Beim Experimentieren mit CIFAR10-, CIFAR100- und SVHN-Datensätzen wurde festgestellt, dass die vorgeschlagenen GA CNN-Modelle entwickelt haben, die mit den anderen besten verfügbaren Modellen konkurrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3685-4_8 d775cfe2580a180bd9fbda814f567039;de;;;3.3.;;;WAAM-Prozess für Metallblockstrukturteile basierend auf gemischter Wärmezufuhr Die additive Fertigung auf Basis des Roboterschweißens wird zur Herstellung von Metallteilen unter Anwendung eines Lichtbogens als Wärmequelle und Draht als Vormaterial verwendet. Das Verfahren wird als additive Fertigung mit Drahtlichtbogen (WAAM) bezeichnet. Der aktuelle WAAM-Prozess weist jedoch aufgrund der Prozesskomplexität und des Fehlens geeigneter Prozessplanungsmethoden eine Einschränkung bei der Herstellung von Blockstrukturbauteilen mit hoher Geometriegenauigkeit und konsistentem Schweißen auf. Darüber hinaus verringern übliche Defekte wie Hohlräume, Lücken und Kollaps die mechanischen Eigenschaften des Endprodukts. Dieses Papier stellt eine neuartige Prozessplanungsmethode vor, die auf einer gemischten Wärmezufuhr (MHI)-Strategie basiert, um Hohlräume und Kollapsdefekte zu minimieren, die bei der Herstellung großer Blockstrukturkomponenten auftreten, während eine hohe Fertigungseffizienz beibehalten wird. Durch die Trennung jeder Schicht in Grenzschichten und Innenschichten wendet das MHI-Verfahren verschiedene Wärmeeintragsbedingungen an verschiedenen Positionen der Schicht an, was den Aufbau defektfreier Komponenten ermöglicht. Die Leistungsfähigkeit dieser Methode wird in einer Validierungsstudie gezeigt, die als Herstellung einer regulären Strukturkomponente betrachtet wird. Um die mechanischen Eigenschaften der abgeschiedenen Probe zu bewerten, werden Härte und Mikrostruktur aufgezeichnet und mit dem konventionellen WAAM-Prozess verglichen. Anschließend wird die MHI-Strategie auf die Herstellung einer großen Blockstrukturkomponente mit einer ähnlichen Struktur wie die Validierungsstudie angewendet. Darüber hinaus wird die Robustheit der vorgeschlagenen MHI-Strategie bei der Herstellung komplexer geometrischer Teile anhand von zwei Fallstudien bewertet. Die Ergebnisse zeigen, dass es mit dieser Strategie gelingt, gleichzeitig eine hohe Produktionseffizienz und -qualität zu erreichen.;-;-;-;https://link.springer.com/article/10.1007/s00170-021-06654-x d2cdbada1eeb67f88a43d869c2d52b60;de;;;3.3.;;;Die aktive Prozessinteraktion mit seiner Umgebung Das Hinzufügen von Programmierbarkeit zum Inneren des Netzwerks stellt eine Infrastruktur für verteilte Anwendungen bereit. Insbesondere erfordern Netzwerkverwaltungs- und -steuerungsanwendungen den Zugriff auf und die Steuerung des Netzwerkgerätezustands. Beispielsweise kann eine Routing-Lastenausgleichsanwendung Zugriff auf die Routing-Tabelle erfordern, und eine Anwendung zur Vermeidung von Überlastung kann Schnittstellenüberlastungsinformationen erfordern. Es gibt grundlegende Probleme, die mit dieser Interaktion verbunden sind. In diesem Papier untersuchen wir die grundlegenden Kompromisse im Zusammenhang mit der Interaktion zwischen einem aktiven Prozess und seiner Umgebung und stellen ABLE++ als Beispielarchitektur vor. Vor allem untersuchen wir zwei Design-Kompromisse, Effizienz vs. Abstraktion und Anwendungsflexibilität vs. Sicherheit. Wir demonstrieren die Vorteile der Architektur, indem wir einen Algorithmus zur Vermeidung von Staus implementieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-40057-5_9 fbc46ad40c3bb0b4ea46bb85f07009d1;de;;;3.3.;;;Design und Implementierung des TCP/IP-Protokoll-Lerntools Das Prinzip der TCP/IP-Protokolle ist für Studierende schwer verständlich. In diesem Papier wird ein Lerntool für das TCP/IP-Protokoll vorgestellt. Durch das Tool werden TCP/IP-Protokolle auf einfache, effektive und verständliche Weise multimedial präsentiert. Auf dieser Basis werden beim Senden oder Empfangen verschiedener TCP/IP-Datenpakete die Prozesse innerhalb des IP-Netzwerks visuell durch die Paketerfassung und -analyse basierend auf Winpcap dargestellt. Die Übungen zeigten, dass das Lernwerkzeug den Schülern helfen kann, das Prinzip der TCP/IP-Protokolle effektiv zu verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14533-9_5 3862a3836102f4e8e083b168dc33a591;de;;;3.3.;;;Dynamische Konfiguration von Konferenzanwendungen mit Pattern-Matching-Multicast Multimedia-Konferenzsysteme sind normalerweise große, komplexe Softwaresysteme. Wir beschreiben eine lokale Steuerungsarchitektur und Kommunikationsprotokolle, die es ermöglichen, Medienagenten, Controller und Hilfsanwendungen wie Medienrekorder und Management-Proxys zu einer einzigen Konferenzanwendung zusammenzufassen. Im Gegensatz zu anderen Systemen kann die Steuerung einer einzelnen Konferenz von mehreren Controllern geteilt werden. Jedes Medium kann von einem oder mehreren unabhängigen Medienagenten gehandhabt werden. Teile des Systems wurden mit einem IP-Multicast-basierten Audiokonferenztool (;-;-;-;https://link.springer.com/chapter/10.1007/BFb0019273 562dba999611be864608b10aac90619b;de;;;3.3.;;;Grid-Technologien zur Unterstützung der B2B-Zusammenarbeit Im Rahmen des europäischen Projekts BEinGRID (FP6) haben die Autoren eine Reihe von Entwurfsmustern definiert, um Softwarekomponenten basierend auf serviceorientierten Grid-Technologien zu entwickeln. Einige dieser Muster wurden verwendet, um Softwarekomponenten einer serviceorientierten Grid-Middleware namens GRASP zu verbessern, die die Autoren im Rahmen eines ehemaligen gleichnamigen europäischen Projekts (RP5) definiert, entworfen und implementiert haben. Die wesentliche Verbesserung von GRASP durch die Anwendung der BEinGRID-Entwurfsmuster ist die Unterstützung bei der Erstellung virtueller Organisationen. Dieses Papier präsentiert die Erfahrungen und Erkenntnisse der Autoren bei der Einführung der GRASP-Middleware zum Aufbau einer Business-to-Business-föderierten Umgebung, die die Zusammenarbeit zwischen Unternehmen unterstützt. Die konkrete Fallstudie bezieht sich auf die Online-Spielanwendungen und die Einführung des Software-as-a-Service-Geschäftsmodells zur Bereitstellung der Spielanwendungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87783-7_49 1e0fc6a3265bc0d720b5d6a9cb4469d2;de;;;3.3.;;;SEGM: Eine neuartige semantische Evidential Grid Map durch die Verschmelzung mehrerer Sensoren Eine Karte, die die Umgebung vollständig ausdrücken kann, ist für intelligente Roboter von großer Bedeutung. Herkömmliche Rasterkarten wie die Belegungsrasterkarte können nur das einfache „frei oder belegt“ ausdrücken. Daher ist es schwierig, den Anforderungen von Aufgaben in einem komplexen Umfeld gerecht zu werden. Dieses Papier schlägt ein Framework namens Semantic Evidential Grid Map (SEGM) vor, um eine semantische evidenzielle Rasterkarte basierend auf der Dempster-Shafer-Evidenztheorie zu generieren, die Laserscanner und Stereokamera kombinieren kann, um eine Karte beim Ausdruck der Umgebung genauer zu machen, ohne etwas zu verlieren Einzelheiten. Als Ergebnis ermöglicht diese Arbeit einen besseren Umgang mit Unsicherheitsinformationen und liefert detailliertere semantische Darstellungen. Es wird für intelligente Roboter oder autonome Fahrzeuge sehr hilfreich sein, Aufgaben wie Lokalisierung, Wahrnehmung und Navigation in einer komplexen Umgebung auszuführen. Die experimentellen Ergebnisse des Datensatzes KITTI CITY zeigen, dass die vorgeschlagene Methode eine detailliertere und genauere Kartendarstellung liefern kann als die herkömmlichen Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-60633-6_13 2f1d4f8da5e82219b404894d4c748036;de;;;3.3.;;;Implementierung eines Green Power Management Algorithmus für virtuelle Maschinen auf Cloud Computing Mit der Entwicklung der elektronischen Behörden und Unternehmen, die Implementierung dieser Dienste erhöht die Nachfrage nach Servern, jedes Jahr eine beträchtliche Anzahl der Beschaffungsserver und Server sind zu alt, um einen besseren Service zu bieten. Jedoch aufgrund der Geschwindigkeit des Servers aus dem Nichts in der Nähe der Steigerungsrate, die kontinuierliche Erweiterung des Servers im Namen unserer Notwendigkeit, mehr Platz, Strom, Klimaanlage, Netzwerk, menschliche und andere Infrastruktur vorzubereiten. Daraus resultieren lange Jahre Kosten, die oft unter dem Kaufpreis des Servers liegen. Und die Bereitstellung dieser Dienste ist tatsächlich recht energieintensiv, insbesondere wenn der Server mit geringer Auslastung läuft, machen die ungenutzten Ressourcen, Verschwendung, die durch die Energieeffizienz von Rechenzentren verursacht wird, den Hauptgrund für die geringe Auslastung. Selbst bei sehr geringer Last, wie etwa 10 % CPU-Auslastung, beträgt der Gesamtstromverbrauch in der Spitze mehr als 50 %. Wenn die Festplatte, das Netzwerk oder eine andere Ressource der Engpass ist, erhöht dies die Verschwendung anderer Ressourcen. Das „Grün“ ist in letzter Zeit ein heißes Schlagwort geworden. Und wir haben das Thema und den vorgeschlagenen Energiemanagement-Ansatz mit Virtualisierungstechnologie ausgerichtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23641-9_24 16b62a63b74f32fee4896cf6ce04eb2a;de;;;3.3.;;;Ein feingranulares Adressierungskonzept für GeoCast GeoCast bietet die Möglichkeit, Nachrichten an alle in einem bestimmten Gebiet zu senden. Bisher war nur die Adressierung größerer zweidimensionaler Bereiche möglich. Für den Einsatz im urbanen Umfeld ist es entscheidend, dass kleine und dreidimensionale Flächen adressiert werden können. GeoCast kann dann beispielsweise verwendet werden, um Vorlesungsnotizen an alle in einem Klassenzimmer zu senden. In diesem Papier beschreiben wir ein feingranulares Adressierungskonzept für GeoCast, das solche Bereiche unterstützt. Darüber hinaus präsentieren wir eine Architektur, die es erlaubt, dieses Adressierungskonzept zusammen mit dem von Navas und Imielinski entwickelten GeoRouting-Ansatz [;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45997-9_9 5c41d18eb7bdd90d4c13dbd25d845caf;de;;;3.3.;;;Testen von selbstheilenden cyber-physischen Systemen unter Unsicherheit mit Reinforcement Learning: eine empirische Studie Selbstheilung wird zu einem wesentlichen Merkmal von Cyber-Physical Systems (CPS). CPSs mit dieser Funktion werden Self-Healing CPSs (SH-CPSs) genannt. SH-CPSs erkennen und beheben Fehler, die durch Hardware- oder Softwarefehler zur Laufzeit verursacht werden, und handhaben Unsicherheiten, die sich aus ihrer Interaktion mit Umgebungen ergeben. Daher ist es wichtig zu testen, ob sich SH-CPSs unter Unsicherheiten noch wie erwartet verhalten können. Durch das Testen eines SH-CPS unter verschiedenen Bedingungen und das Lernen aus den Testergebnissen können Reinforcement-Learning-Algorithmen ihre Testrichtlinien schrittweise optimieren und die Richtlinien anwenden, um Fehler zu erkennen, d. h. Fälle, in denen sich das SH-CPS nicht wie erwartet verhält. Es gibt jedoch keine ausreichenden Beweise, um zu wissen, welche Algorithmen für das verstärkende Lernen die besten Ergebnisse beim Testen des Verhaltens von SH-CPSs einschließlich ihres Selbstheilungsverhaltens unter Unsicherheiten liefern. Zu diesem Zweck führten wir eine empirische Studie durch, um die Leistung von 14 Kombinationen von Verstärkungslernalgorithmen zu bewerten, mit zwei auf Wertfunktionslern basierenden Methoden für Operationsaufrufe und sieben auf Policy-Optimierung basierenden Algorithmen zur Einführung von Unsicherheiten. Experimentelle Ergebnisse zeigen, dass die 14 Kombinationen der Algorithmen eine ähnliche Abdeckung von Systemzuständen und Übergängen erreichten und die Kombination von Q-Learning und Uncertainty Policy Optimization (UPO) die meisten Fehler unter den 14 Kombinationen entdeckte. Im Durchschnitt konnte die Kombination von Q-Learning und UPO zweimal mehr Fehler entdecken als die anderen. In der Zwischenzeit benötigte die Kombination 52 % weniger Zeit, um einen Fehler zu finden. Hinsichtlich der Skalierbarkeit steigen die Zeit- und Platzkosten der auf Wertfunktionslern basierenden Verfahren mit der Anzahl der Zustände und Übergänge des zu testenden Systems. Im Gegensatz dazu hat die Erhöhung der Komplexität des Systems nur geringe Auswirkungen auf Algorithmen, die auf der Policy-Optimierung basieren.;-;-;-;https://link.springer.com/article/10.1007/s10664-021-09941-z 089f1ffa38870932f3ab81fe72815bdc;de;;;3.3.;;;Emotionale Interaktion des virtuellen Charakters in der künstlichen 3D-Gesellschaft In einer intelligenten virtuellen 3D-Umgebung interagieren mehrere virtuelle 3D-Charaktere mit Emotionen und bauen eine künstliche 3D-Gesellschaft auf. Die Modellierung von emotionaler Interaktion ist ein herausforderndes Thema für die virtuelle künstliche Gesellschaft. Die nonverbale Emotionsinteraktion ist eine direkte Kommunikationsmethode für virtuelle Charaktere. Ein kognitives Modell des virtuellen Charakters wird vorgestellt. Ein virtueller 3D-Charakter hat eine kognitive Architektur mit eingebautem Wissen, das Emotionen und die Reaktion auf äußere Reize steuert. Einige neue Konzepte zur nonverbalen sozialen Interaktion werden aufgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/11903697_82 548ed4683ca35911af43f79283b0e205;de;;;3.3.;;;Diskussion über Produktionsfähigkeiten von Multimedia-Kursunterlagen für den Baustoffkurs Multimediale Kursmaterialien werden häufig im Unterrichten von Baustoffkursen verwendet. Es gibt viele Kurssoftware-Software, aber Flash hat seine eigenen einzigartigen Vorteile, die kleiner, interaktiver und animierter sind als andere. Dieses Papier beschreibt hauptsächlich die Fähigkeiten der Multimedia-Kursunterlagen-Faktur: Prozess der Entwicklung der Flash-Kursunterlagen, Fähigkeiten zur Reduzierung des Volumens der Kursunterlagen, Behandlung der Verbindung von Text und Animation, Fähigkeiten der Anwendungsdeformation und Szene. Es kann die Produktionseffizienz und die Qualität von Kursmaterialien erheblich verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24010-2_40 5b481c620ccee4ad7ef36d7013acbd92;de;;;1.1.;;;Personalwirtschaftslehre und ökonomische TheorienDie Frage nach dem Verhältnis von ökonomischer Theorie und Personalwirtschaftslehre ist angesichts von vielfältigen mikroökonomischen Theorieentwicklungen der letzten Jahre zweifellos aktuell. Sie ist zudem auch reizvoll, weil sie einem national und international;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-82430-1_12 46eb8434bbfc09df66912aa7b78fd06a;de;;;3.3.;;;SLA-orientierte Sicherheitsbereitstellung für Cloud Computing Cloud Computing stellt sowohl eine Technologie zur effizienteren Nutzung verteilter Computing-Infrastrukturen als auch ein Geschäftsmodell zur Vermietung von Computing-Diensten und -Ressourcen dar. Es ist eine Chance für Kunden, Kosten zu senken und die Effizienz zu steigern. Darüber hinaus gibt es kleinen und mittleren Unternehmen die Möglichkeit, Dienstleistungen und Technologien zu nutzen, die großen Unternehmen vorbehalten waren, indem sie nur für die verbrauchten Ressourcen bezahlen und unnötige Investitionen vermeiden. Die Möglichkeit, Ressourcen und Dienste dynamisch auf Basis eines Pay-by-Use-Modells zu erwerben und zu nutzen, impliziert eine unglaubliche Flexibilität in der Verwaltung, die sonst oft schwer zu bewältigen ist. In diesem Papier schlagen wir einen Ansatz vor, um SLA-orientierte Cloud-Anwendungen aufzubauen, die es einem Cloud-Anbieter ermöglichen, auf die Sicherheitsbedürfnisse des Kunden zugeschnittene Dienste anzubieten. Insbesondere durch die Verwendung einer Cloud-orientierten API, die aus dem mOSAIC-Projekt abgeleitet wurde, kann der Entwickler Sicherheitsfunktionen implementieren, die vom Cloud-Anbieter im Rahmen seines Service Level Agreements angeboten werden können. Insbesondere konzentrieren wir uns auf die Bereitstellung eines Intrusion Tolerance Service, um die Verfügbarkeit eines Anwendungsdienstes auch dann zu gewährleisten, wenn das Hostsystem angegriffen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-04519-1_15 391308815c5e617bd5ef8021de9e2be5;de;;;3.3.;;;Dynamische Sicherheitsüberwachung und Accounting für virtualisierte Umgebungen In diesem Whitepaper stellen wir den Entwurf einer Architektur für die dynamische Sicherheitsüberwachung und -durchsetzung basierend auf einem Software-Schutzschema für Client-Software vor, die in virtualisierten Umgebungen ausgeführt wird. Überwachungsmechanismen überprüfen zur Laufzeit eine Reihe von richtliniendefinierten Bedingungen, um Bedrohungen oder anomales Verhalten zu erkennen. Die Durchsetzung erfolgt mit sicheren Softwareausführungsmethoden, die den definierten Richtlinien entsprechen. Die vorgestellte Architektur ermöglicht eine Kontextanpassung der unter Verwendung der in PASSIV definierten Sprache definierten Richtlinien. Die automatische Durchsetzung dieser Richtlinien zur Laufzeit ist entscheidend, um echte Sicherheit in virtualisierten Plattformen zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22365-5_22 4532654a47db4261703a556b00b0667d;de;;;3.3.;;;SCA und jABC: Einführung eines serviceorientierten Paradigmas in die Web-Service-Konstruktion Erweiterbarkeit, Flexibilität, einfache Wartbarkeit und langfristige Robustheit sind Kernanforderungen an moderne, hochverteilte Informations- und Rechensysteme. Solche Systeme wiederum weisen eine stetig steigende Komplexität auf. Um diese Ziele zu verfolgen, hat die Softwareentwicklung eine schnelle Entwicklung von Architekturparadigmen erlebt, die auf zunehmend modulare, hierarchische und kompositorische Ansätze abzielen. Objektorientierung, Komponentenorientierung, Middleware-Komponenten, Produktlinien und - neuerdings - Serviceorientierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88479-8_11 1456f4ba6af9e502af0b1dd0fe0594b5;de;;;3.3.;;;Eine Umfrage zur Durchführung von Schwachstellenanalysen in webbasierten Anwendungen Viele Organisationen haben ihre traditionellen Systeme auf webbasierte Anwendungen umgestellt, um mehr Gewinn zu erzielen und gleichzeitig die Effizienz ihrer Aktivitäten wie Kundensupport und Datentransaktionen zu steigern. Webbasierte Anwendungen sind jedoch aufgrund einiger allgemeiner Schwachstellen in der Anwendung zu einem wichtigen Ziel für Angreifer geworden. Die Bewertung des Informationssicherheitsniveaus in einer webbasierten Anwendung ist für viele Unternehmen eine ernsthafte Herausforderung. Einer der wichtigsten Schritte zur Gewährleistung der Sicherheit von Webanwendungen ist die regelmäßige Durchführung von Schwachstellenanalysen. Die Schwachstellenbewertung ist ein Prozess, um nach potenziellen Lücken oder Schwachstellen in einem System zu suchen. Die meisten der aktuellen Bemühungen im Bereich Assessments umfassen die Suche nach bekannten Schwachstellen, die häufig in webbasierten Anwendungen vorhanden sind. Der Prozess der Durchführung von Schwachstellenbewertungen kann verbessert werden, indem die Funktionalität der Anwendung und die Merkmale der natürlichen Schwachstellen verstanden werden. In diesem Papier führen wir eine empirische Studie zur Durchführung von Schwachstellenbewertungen durch, um zu verstehen, wie die Funktionen, Schwachstellen und Aktivitäten aus der Perspektive der Anwendungssicherheit für die Bewertungsprozesse von Nutzen wären.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13461-1_43 98232db606c5298764c2f3010d3c0edd;de;;;3.3.;;;Selbstanpassende Frequenzskalierungsarchitektur für Intrusion Detection System In letzter Zeit werden Intrusion Detection Systems (IDS) im Internet zur Informationssicherheit eingesetzt. Dennoch wird IDS mit dem wachsenden Internetverkehr immer komplizierter und verbraucht viel mehr Energie. Bestehende Studien konzentrieren sich auf das Energiesparen, passen sich aber nicht der Veränderung des Netzverkehrs an. In diesem Artikel schlagen wir eine neue Methode vor, um die Frequenz der Hauptprozessoren von IDS-Geräten basierend auf der Vorhersage des Netzwerkverkehrs automatisch anzupassen. Es berechnet die optimale Operationssequenz der Frequenzskalierung über ein internes Sandbox-Modell, um Energiesparzwecke zu erreichen. Experimente zeigen, dass mit unserer Methode im Allgemeinen 60 % des Stromverbrauchs eingespart werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-47401-3_10 cc71b13a528d2d271915c70256878f54;de;;;3.3.;;;Analyse des Einflusses von LLVM-Codeoptimierungspassagen auf die Softwareleistung Software Die Sensitivitätsanalyse ist ein mathematisches Werkzeug, das die Unsicherheit der Ausgabe eines Modells auf seine verschiedenen Eingabevariablen verteilt. Wir verwenden in dieser Arbeit den Extended Fourier Amplitude Sensitivity Test, um den Einfluss von 54 LLVM-Codeoptimierungsoperatoren auf die Ausführungszeit von neun Benchmark-Softwareprogrammen sorgfältig zu analysieren. Die vorgestellten Experimente umfassen die Durchführung von über 16 Millionen Hinrichtungen. Die Ergebnisse zeigen, dass die verschiedenen LLVM-Transformationen einen geringen direkten Einfluss auf die Ausführungszeit haben, aber aussagekräftig werden, wenn die Transformation in Kombination mit den anderen betrachtet wird (fast 60% durchschnittlicher Einfluss aller Durchläufe auf alle betrachteten Benchmarks). Diese Ergebnisse geben leichte Hinweise auf die anzuwendenden Transformationen zur Optimierung der Software und zeigen die extreme Schwierigkeit des Problems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-91479-4_23 8c4ff50aa36d2f40321e32e799285f37;de;;;3.3.;;;Forschung zur Online-Verarbeitungsplattform für Fernerkundungsbilder auf Basis von Webdiensten Mit der rasanten Entwicklung der Fernerkundungstechnologie wurden immer mehr Anwendungen der Fernerkundungsbildverarbeitung entwickelt. Die meisten Legacy-Anwendungen können jedoch nur auf dem lokalen Host ausgeführt werden. In diesem Whitepaper haben wir einen Ansatz zur Kapselung und Veröffentlichung der Legacy-DLLs basierend auf Webdiensten vorgeschlagen. Über unsere veröffentlichte Plattform können Benutzer jede Art von Bildverarbeitungsergebnissen online erleben und entscheiden, welche für sie am besten geeignet ist. Solange die DLL-Besitzer ihre Anwendungen freigegeben haben, können Endbenutzer Bilddateien auf die Plattform hochladen und die Bildverarbeitung starten. Die Plattform bietet den DLL-Besitzern die Möglichkeit, ihre speziellen Programme zu befürworten und zu demonstrieren, und bietet inzwischen auch mehr und bessere Auswahlmöglichkeiten für Endbenutzer.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39482-9_56 be635832e0862ba8adda397e158a26ca;de;;;3.3.;;;Die Agentenmodellierungssprache (AMOLA) Dieses Papier stellt die Agentenmodellierungssprache (AMOLA) vor. Diese Sprache liefert die Syntax und Semantik zum Erstellen von Modellen von Multiagentensystemen, die die Analyse- und Entwurfsphasen des Softwareentwicklungsprozesses abdecken. Es unterstützt einen modularen Agentenentwurfsansatz und führt die Konzepte der Intra- und Interagentensteuerung ein. Ersteres definiert den Lebenszyklus des Agenten, indem es die verschiedenen Module koordiniert, die seine Fähigkeiten implementieren, während letzteres die Protokolle definiert, die die Koordination der Gesellschaft der Agenten regeln. Die Modellierung der Intra- und Interagentensteuerung basiert auf Statecharts. Die Analysephase baut auf den Konzepten von Fähigkeit und Funktionalität auf. AMOLA beschäftigt sich sowohl mit dem individuellen als auch mit dem gesellschaftlichen Aspekt der Agenten. In diesem Papier konzentrieren wir uns jedoch darauf, nur den Entwicklungsprozess einzelner Agenten zu präsentieren. AMOLA wird von ASEME verwendet, einer allgemeinen Entwicklungsmethodik für Agentensysteme.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85776-1_4 6287a02a4c5180b785e569293bc7e185;de;;;3.3.;;;Drahtlose IoT-basierte Intrusion Detection mit LIDAR im Kontext eines intelligenten Grenzüberwachungssystems Die Überwachung der indischen Grenzen ist für militärisches und paramilitärisches Personal zu einer mühsamen und riskanten Aufgabe geworden, um Eindringlinge zu kontrollieren. Mit den Fortschritten in der drahtlosen IoT-Technologie (Internet of Things) ist es viel einfacher geworden, ein kostengünstiges, automatisches und effizientes System zur Erkennung von Eindringlingen im Rahmen der Überwachung zu entwerfen, zu entwickeln und bereitzustellen. Damit das System für alle Arten von Umgebungen geeignet ist, wurde der Lichterkennungs- und Entfernungssensor (LIDAR) für die Erfassung von Entfernungen mit einer Reichweite von 40 m von der Position eines Objekts entwickelt. Die vom Sensor gesammelten Daten werden auf einem Server überwacht und verwaltet. Software, die für die Analyse von Daten und die Erzeugung von Warnmeldungen erforderlich ist, wird auf dem Server bereitgestellt, der eine zusätzliche Funktion des Systems ist und dem betroffenen Sicherheitspersonal hilft, schnell zu reagieren und die Sicherheit zu aktivieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9282-5_43 e1b98d57fedb532ee83fa43755770f06;de;;;3.3.;;;Listener-gesteuerte dynamische Navigation von VoiceXML-Dokumenten Die nächste Grenze für die Recherche im Web besteht darin, es universell zugänglich zu machen, hauptsächlich über Audio. Die Arbeit in diese Richtung umfasst die Entwicklung von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27817-7_52 8c7a25cac1599479b246512e54c67565;de;;;3.3.;;;Helfen Softwaremodelle auf Basis der UML der Verständlichkeit des Quellcodes? Aggregation von Beweisen aus 12 kontrollierten Experimenten In diesem Beitrag stellen wir die Ergebnisse einer langjährigen Forschung vor, die durchgeführt wurde, um den Beitrag von Softwaremodellen auf Basis der Unified Modeling Language (UML) zur Verständlichkeit von kommentierten Java-Quellcodes zu untersuchen. Wir haben 12 kontrollierte Experimente in verschiedenen experimentellen Kontexten und an verschiedenen Standorten mit Teilnehmern mit unterschiedlichem Fachwissen durchgeführt (d. h. Bachelor-, Master- und Doktoranden sowie Softwarepraktiker aus Italien und Spanien). Aus diesen Experimenten wurden insgesamt 333 Beobachtungen erhalten. Die UML-Modelle in unseren Experimenten wurden in der Analyse- und Entwurfsphase erstellt. Die in der Analysephase erstellten Modelle wurden mit dem Ziel erstellt, die Umgebung, in der die Software arbeiten wird (dh die Problemdomäne), zu abstrahieren, während die in der Entwurfsphase erstellten Modelle mit dem Ziel erstellt wurden, Implementierungsaspekte der Software zu abstrahieren ( dh die Lösungs-/Anwendungsdomäne). Die Verständlichkeit des Quellcodes wurde im Hinblick auf die Richtigkeit des Verständnisses, den Zeitaufwand für die Erledigung der Verständnisaufgaben und die Effizienz bei der Erledigung dieser Aufgaben bewertet. Um den globalen Einfluss von UML-Modellen auf die Quellcode-Verständlichkeit zu untersuchen, haben wir die Ergebnisse der einzelnen Experimente mittels einer Metaanalyse aggregiert. Wir haben uns bemüht, die Heterogenität unserer Experimente bei der Aggregation der daraus gewonnenen Ergebnisse zu berücksichtigen. Die Gesamtergebnisse legen nahe, dass die Verwendung von UML-Modellen die Verständlichkeit des Quellcodes beeinträchtigt, wenn er von Kommentaren beraubt wird. Tatsächlich können Modelle, die in der Analysephase erstellt werden, die Verständlichkeit des Quellcodes verringern und gleichzeitig die Zeit erhöhen, die für die Durchführung von Verständnisaufgaben benötigt wird. Das heißt, das Durchsuchen des Quellcodes und dieser Art von Modellen zusammen wirkt sich negativ auf die Zeit aus, die zum Erledigen von Verständnisaufgaben benötigt wird, ohne sich positiv auf die Verständlichkeit des Quellcodes auszuwirken. Eine plausible Begründung hierfür ist, dass sich die in der Analysephase erstellten UML-Modelle auf die Problemdomäne konzentrieren. Das heißt, Modelle, die in der Analysephase erstellt werden, sagen nichts über den Quellcode aus und es sollte nicht erwartet werden, dass sie der Verständlichkeit in irgendeiner Weise förderlich sind. Andererseits verbessern in der Designphase erstellte UML-Modelle die Verständlichkeit des Quellcodes. Eine mögliche Begründung für dieses Ergebnis ist, dass in der Entwurfsphase erstellte Modelle stärker auf Implementierungsdetails ausgerichtet sind. Somit hatten die Teilnehmer zwar mehr Material zum Lesen und Stöbern, aber dieser Mehraufwand zahlte sich in Form eines verbesserten Verständnisses des Quellcodes aus.;-;-;-;https://link.springer.com/article/10.1007/s10664-017-9591-4 1a9d2784c64e81ef5693bf1dc4fa7620;de;;;3.3.;;;Ubiquitous Chip: Ein regelbasiertes I/O-Steuergerät für Ubiquitous Computing In diesem Papier schlagen wir ein neues Framework für ubiquitäres Computing durch regelbasierte, ereignisgesteuerte I/O (Input/Output) Steuergeräte vor. Unser Ansatz ist flexibel und autonom, da er eine Verhaltensbeschreibungssprache verwendet, die auf ECA-Regeln (Event, Condition, Action) mit einfachen I/O-Steuerungsfunktionen basiert. Wir haben einen Prototyp eines allgegenwärtigen Geräts mit Anschlüssen und mehreren Sensoren implementiert, um die Wirksamkeit unseres Ansatzes zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24646-6_18 fb99059ea5af11855c864a37db436005;de;;;3.3.;;;Ein neuartiges Schaltschema und eine flächensparende Architektur für SAR ADC Es wird eine neuartige flächensparende Architektur und ein energieeffizientes Kondensatorschaltschema für Analog-Digital-Wandler mit sukzessivem Approximationsregister (SAR) vorgeschlagen. In der vorgeschlagenen Architektur entfernt die Seite des höheren Spannungspotentials der Kondensatoranordnung den höchstwertigen Bit-(MSB)-Kondensator. Darüber hinaus erreicht die vorgeschlagene Technik eine Reduzierung der Kondensatorfläche um 81,25% gegenüber dem herkömmlichen SAR. Basierend auf der dritten Referenzspannung;-;-;-;https://link.springer.com/article/10.1007/s10470-017-0924-4 fa0dae185e9ca6cf47b065364a6d76b7;de;;;3.3.;;;Bilaterale Steuerungsarchitekturen für Telerobotik In diesem Kapitel werden in der Literatur bekannte bilaterale (Master-Slave) Steuerungsmethoden und Systemarchitekturen für die Telerobotik vorgestellt und überblickt. Die Diskussion nimmt einen Schwerpunkt auf, der für die nachfolgenden Kapitel am relevantesten ist, siehe [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71364-7_11 1d807da73980c4c0e0ec703a9d9ac5eb;de;;;3.3.;;;Ethische Codes in der digitalen Welt: Vergleiche des proprietären, des offenen/freien und des Cracker-Systems Die digitale Welt bietet verschiedene ethische Rahmen für Einzelpersonen, um ethische Subjekte zu werden. In diesem Beitrag untersuche ich – auf Foucaultsche und Luhmannsche Weise – die Unterschiede zwischen drei Kommunikationssystemen: dem proprietären, dem offenen/freien und dem Cracker-System. Es wird argumentiert, dass alle drei Systeme einen unterschiedlichen Satz ethischer Kodizes bereitstellen, denen man unterworfen werden kann. Die Sprache jedes Systems ist eingeschränkt und sie können sich nicht verstehen, sie betrachten sich lediglich als die Umgebung. Die Systeme erzeugen eine Vielfalt ethischer Codes, da sie digitalen Objekten unterschiedliche Formen geben. Für proprietäre Softwareunternehmen sind digitale Objekte ein Instrument des finanziellen Gewinns. Die Freie Software/Open Source Bewegung betont Transparenz, der Endbenutzer muss den Quellcode einsehen und ändern können. Die Cracker-Szene sieht digitale Objekte anders. Für dieses spezielle System sind nur kopiergeschützte digitale Objekte attraktiv. Der Kopierschutz bindet sein Ziel an die Welt der Materie. Den Schutz zu durchbrechen ist die ultimative Herausforderung und eine Möglichkeit, in der Cracker-Szene Ehre und Status zu erlangen. Ein kopiergeschütztes digitales Objekt ist gleichzeitig ein Paradebeispiel für versteckten Quellcode (das offene/freie System), ein perfektes Artefakt, das man besitzen und verkaufen kann (das proprietäre System) und eine Herausforderung, die es zu knacken gilt (das Cracker-System).;-;-;-;https://link.springer.com/article/10.1007/s10676-006-9130-2 5d3e67febf9c460599a42384f2d2e0ae;de;;;3.3.;;;Dienstprogrammbasierter Bandbreitenzuweisungsalgorithmus für heterogene drahtlose Netzwerke Im drahtlosen Netzwerk der nächsten Generation (NGWN) können sich mobile Benutzer über verschiedene heterogene drahtlose Zugangsnetze wie Mobilfunknetze, drahtloses Metropolitan Area Network (WMAN), drahtloses lokales Netzwerk (WLAN) und Ad-hoc-Netzwerke mit dem Kernnetz verbinden Netzwerk. Von NGWN wird erwartet, dass es mobilen Benutzern auf nahtlose Weise Konnektivität mit hoher Bandbreite mit garantierter Dienstgüte bietet, jedoch erfordert diese gewünschte Funktion eine nahtlose Koordination der heterogenen Funkzugangsnetz-(RAN)-Technologien. In den letzten Jahren wurden einige Forschungen durchgeführt, um Architekturen und Algorithmen für das Funkressourcenmanagement (RRM) für NGWN zu entwerfen, jedoch betonen nur wenige Studien das Problem der gemeinsamen Netzwerkleistungsoptimierung, die ein wesentliches Ziel für ein Szenario der kooperativen Dienstbereitstellung ist. Während einige Autoren außerdem den Wettbewerb zwischen den Dienstanbietern berücksichtigen, werden die QoS-Anforderungen der Benutzer und der Ressourcenwettbewerb innerhalb von Zugangsnetzen nicht vollständig berücksichtigt. In diesem Papier stellen wir eine zusammenarbeitende integrierte Netzwerkarchitektur vor, die für die Überwachung der Statusinformationen verschiedener Funkzugangstechnologien (RATs) und die Ausführung des Ressourcenzuweisungsalgorithmus verantwortlich ist. Innerhalb dieser Architektur wird das Problem der gemeinsamen Bandbreitenzuweisung für heterogene integrierte Netzwerke basierend auf der Nutzenfunktionstheorie und der Konkursspieltheorie formuliert. Das vorgeschlagene Bandbreitenzuweisungsschema umfasst zwei aufeinanderfolgende Stufen, d. h. die Dienstbandbreitenzuweisung und die Benutzerbandbreitenzuweisung. In der Stufe der Dienstbandbreitenzuweisung wird die optimale Bandbreite für verschiedene Arten von Diensten in jedem Netz auf der Grundlage des Kriteriums der gemeinsamen Nutzenmaximierung zugewiesen. In der Stufe der Benutzerbandbreitenzuweisung wird die Dienstbandbreite in jedem Netzwerk gemäß der Insolvenzspieltheorie optimal unter Benutzern in dem Netzwerk zugewiesen. Numerische Ergebnisse zeigen die Effizienz des vorgeschlagenen Algorithmus.;-;-;-;https://link.springer.com/article/10.1007/s11432-013-4789-6 7ca7a4347778f4136961a7f697bcfa9c;de;;;3.3.;;;RF/Wireless-Interconnect: Die nächste Welle der Konnektivität Im Zeitalter der Nanometer-CMOS-Technologie verlassen sich zukünftige VLSI-Systeme aufgrund der strengen Systemanforderungen an Leistung, Leistung und anderer grundlegender physikalischer Einschränkungen (wie mechanische Zuverlässigkeit, thermische Einschränkungen, Gesamtsystemformfaktor usw.) mehr auf ultra- hohe Datenraten (bis zu 100 Gbps/Pin oder 20 Tbps aggregiert), skalierbare, rekonfigurierbare, hochkompakte und zuverlässige Interconnect-Fabric. Um solche Herausforderungen zu meistern, untersuchen wir zunächst die Verwendung von Multiband-HF-/Wireless-Verbindungen, die gleichzeitig über mehrere Frequenzbänder mit geringer Signalübertragung, rekonfigurierbarer Bandbreite und hervorragender mechanischer Flexibilität und Zuverlässigkeit kommunizieren können. Anschließend überprüfen wir die jüngsten Fortschritte bei der HF-/Wireless-Verbindung in vier verschiedenen potenziellen Anwendungsbereichen, darunter Network-on-Chips (NoCs), 3-dimensionale integrierte Schaltungen (3DIC), fortschrittliche Speicherschnittstellen und kontaktlose Ultra-High-Speed-Steckverbinder. Basierend auf diesen Entwicklungen schlagen wir ferner die zukünftige Forschungsrichtung zu zukünftigen Inter- und Intra-VLSI-Verbindungssystemen vor, indem wir die Leistung und den richtigen Kommunikationsbereich für alle drei Arten von Verbindungen vergleichen, einschließlich Kommunikationsdatendurchsatz, Reichweite und Stromverbrauch (pJ /bit) unter den HF/Wireless-Verbindungen, den optischen Verbindungen und dem traditionellen parallel wiederholten Bus.;-;-;-;https://link.springer.com/article/10.1007/s11432-011-4225-8 7a9a72638214e1c37c4e51e88fab9864;de;;;3.3.;;;Die Bausteine ​​der Interaktivität In diesem Kapitel werden wir uns Eigenschaften, Methoden und Ereignisse genauer ansehen – die drei wichtigsten Elemente, die verwendet werden, um zu definieren, wie Klassen in einer Programmierwelt leben und atmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-1812-8_9 a06eadb511f7fb0e93ace27a67053d33;de;;;3.3.;;;Ungefähre Speicherunterstützung für Linux Early Allocators in ARM-Architekturen Approximate Computing ist ein neues Paradigma für energieeffizientes Design, das auf der Idee basiert, digitale Systeme zu entwickeln, die Rechengenauigkeit gegen Energieverbrauch abwägen. Das Paradigma kann auf verschiedene Einheiten angewendet werden (d. h. interne Einheiten der CPU, Gleitkomma-Koprozessoren, Speicher). Betrachtet man das Speichersubsystem, sind Näherungsspeicher physikalische Speicher, in denen Techniken auf Schaltungsebene oder Architekturebene implementiert sind, um Energie auf Kosten von in Bitzellen auftretenden Fehlern zu reduzieren. Die Unterstützung von ungefähren Speichern auf Betriebssystemebene ist erforderlich, um sie effizient zu verwalten und Anwendungen auf Benutzerebene die direkte Verwendung zu ermöglichen, aber ihre Implementierung unterliegt bestimmten Anforderungen und Einschränkungen, die manchmal architekturabhängig sind. In diesem Papier beschreiben wir die Einführung der ungefähren Speicherunterstützung auf ARM-Architekturen, die in eingebetteten Systemen mit geringem Stromverbrauch weit verbreitet sind. Während Linux-Unterstützung für ungefähren Speicher bereits für Hauptzuordner eingeführt wurde, erforderte die Portierung auf ARM-Architekturen die Einführung seiner spezifischen Unterstützung in den frühen Linux-Zuordnungselementen, die eine grundlegende Funktion der Linux-Kernel-Startphase sind, bevor die Hauptzuordnungsfunktionen instanziiert werden .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-11973-7_51 5fc867bcb35f587838a87c788119bd65;de;;;3.3.;;;Softwareentwicklungsmethode basierend auf strukturiertem Code-Management Die Codeverwaltung auf der Grundlage von Dateien weist viele Probleme und Engpässe auf. Dieses Papier stellt die Softwareentwicklungsmethode vor, die auf einer strukturierten Verwaltung von Code basiert. Die strukturierte Verwaltung des Codes reduziert die Quellcodeeinheit von Dateien auf minimalen Einheitscode und erreicht die feine Granularität und Strukturierung. Die Softwareentwicklung auf Basis von Code Structured Management hat in vielerlei Hinsicht offensichtliche Vorteile gezeigt, wie z.B. Verbesserung der persönlichen und kollaborativen Arbeitseffizienz, statistischer Analyse, Rollen- und Autoritätsmanagement usw.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37832-4_15 e1f2aea3ae451033fa0267e417d3cb52;de;;;3.3.;;;Träumt Android mit intelligenten Agenten? In diesem Beitrag wird ein neues Agentenmodell „speziell“ für das aktuelle Android Google SDK vorgestellt, bei dem das Android-Handy als Agentensoftware betrachtet werden kann. Dieses Agentenmodell hat einen eher praktischen als theoretischen Ansatz, da es Abstraktionen verwendet, die es ermöglichen, es auf verschiedenen Systemen zu implementieren. Das Auftreten von Android als offenes System auf Basis von Linux hat neue Erwartungen an die Implementierung von Agenten geweckt. Jetzt können Agenten auf verschiedenen Hardwareplattformen laufen, ein Ansatz, der im Ubiquitous Computing nützlich ist, um intelligente Agenten zu erreichen, die in die Umgebung eingebettet sind, was als die Vision der intelligenten Umgebung angesehen werden kann. Schließlich wurden die vorgeschlagenen Modellabstraktionen, die zum Entwerfen des Android-Agenten verwendet wurden, verwendet, um ein einfaches Beispiel zu implementieren, das die Anwendbarkeit des Vorschlags zeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85863-8_24 d8d8b9d24119d4b386accb31ea59141d;de;;;3.3.;;;Last- und Leistungsausgleichsschema für heterogene Parallelverarbeitung Dynamische Schleifenplanungsverfahren eignen sich zum Ausgleichen paralleler Schleifen auf Mehrprozessormaschinen mit gemeinsam genutztem Speicher. Ihre zentralisierte Natur verursacht jedoch einen Engpass für eine relativ kleine Anzahl von Prozessoren bei der internetbasierten Parallelverarbeitung unter Verwendung von Rechengittern aufgrund der Größenordnungsunterschiede in den Kommunikations-Overheads. Darüber hinaus haben Verbesserungen der grundlegenden Schleifenplanungsverfahren nicht effektiv mit unregelmäßig verteilten Arbeitslasten in parallelen Schleifen umgegangen, die üblicherweise in großen Anwendungen auftreten. In diesem Papier stellen wir eine dezentrale Ausgleichsmethode vor, die versucht, Last und Leistung gleichzeitig für parallele Schleifen auf Rechengittern auszugleichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30497-5_47 505527a46bf6bebed99965d368390fe4;de;;;3.3.;;;Entwerfen sicherer eingebetteter und Cyber-Physischer Systeme mit SysML-Sec Die Einführung von Sicherheitslücken in ein System kann aus Design- oder Implementierungsfehlern resultieren. Sie hat weitreichende Folgen für verbundene eingebettete oder cyber-physische Systeme, einschließlich physischer Schäden. Sicherheitsexperten konzentrieren sich entweder auf das Ermitteln und Ableiten von Sicherheitsmechanismen aus mehr oder weniger explizit definierten Sicherheitsanforderungen oder auf die nachträgliche Bewertung von Schwachstellen, nämlich Pentesting. Bei diesen Ansätzen fehlen jedoch häufig die notwendigen Iterationen zwischen Sicherheitsmaßnahmen und Systemfunktionalitäten in Bezug auf Design und Bereitstellung. Schlimmer noch, sie berücksichtigen im Allgemeinen nicht die Auswirkungen von Sicherheitsproblemen auf die Sicherheit des Systems, wie zum Beispiel die negativen Auswirkungen, die Sicherheitsgegenmaßnahmen aufgrund kostspieliger Berechnungen und Kommunikationslatenzen über die erwarteten Fristen hinaus haben können. SysML-Sec konzentriert sich dank seines modellgetriebenen Ansatzes, der den Austausch zwischen Systemarchitekten, Sicherheitsingenieuren und Sicherheitsexperten fördert, während des gesamten Designs und der Entwicklung auf diese Themen. Dieses Paper diskutiert, wie SysML-Sec verwendet werden kann, um gleichzeitig mit Safety- und Security-Anforderungen umzugehen, und veranschaulicht die Methodik an einem Automotive-Anwendungsfall.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27869-8_17 3f3c9b70c349559a2db2ea7a70720f41;de;;;3.3.;;;Ein kollaboratives Management- und Schulungsmodell für intelligente Schaltsysteme Um die Schulungskosten zu senken und die Effizienz der Nutzung des Smart Switching Systems (SSS) von Umspannwerken zu verbessern, schlägt dieses Papier ein kollaboratives Management- und Schulungsmodell für Smart Switching System im ASP-Modus (Application Service Provider) vor. Das vorgeschlagene Modell erleichtert die Kommunikation zwischen Systemnutzerunternehmen und dem Systemanbieter. Es ermöglicht einem Benutzerunternehmen, das Smart Switching System zu bewerten und seine Ingenieure während des Kaufs und der Bereitstellung des Systems über das Internet zu schulen.;-;-;-;https://link.springer.com/chapter/10.1007/11568421_26 8ec91e470987f8cdd4256afdbad2f07d;de;;;3.3.;;;Identifizieren von Änderungen auf Datenmemberebene für Regressionstests von objektorientierten Programmen Regressionstests sind sowohl in der Test- als auch in der Wartungsphase eine grundlegende Aktivität. Wenn eine Software modifiziert wird, wird es als notwendig erachtet, sicherzustellen, dass die Qualität der Software erhalten bleibt. Ein wichtiges Problem bei Regressionstests besteht darin, die Änderungen zu identifizieren, die das Laufzeitverhalten des Programms ändern können. Beim objektorientierten Paradigma tritt dieses Problem häufig auf, da geringfügige Änderungen im Programm zu einem geänderten Laufzeitverhalten führen können. Änderungen im Datenelement können zu einem geänderten Laufzeitverhalten führen, aber die bisher vorgeschlagenen Techniken konzentrieren sich nicht darauf. In diesem Papier identifizieren wir Änderungen auf Datenmemberebene, die möglicherweise zu Änderungen des Laufzeitverhaltens in objektorientierten Programmen führen können. Wir haben eine Technik für objektorientierte Programme vorgeschlagen, um Änderungen in Datenelementen zu identifizieren. Unsere Technik verwendet erweiterte Kontrollflussdiagramme, um Änderungen in Programmen zu finden, die in der Sprache Java geschrieben sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05441-9_17 efbf4d86cf49f8def404316dcde67c02;de;;;3.3.;;;Dynamische aspektorientierte Programmierung in Java: Die HotWave-Erfahrung Die dynamische Aspektorientierte Programmierung (AOP) ermöglicht die Laufzeitanpassung von Programmen. Es ermöglicht ausgereifte, aspektbasierte Software-Engineering-Tools wie adaptive Profiler oder Debugger, die den Instrumentierungscode als Reaktion auf Benutzerinteraktionen dynamisch ändern. Heutzutage konzentrieren sich viele AOP-Frameworks für Java, insbesondere AspectJ, auf das Aspektverweben zur Build- oder Ladezeit und bieten nur begrenzte Unterstützung für die Programmanpassung durch (Neu-)Weben von Aspekten zur Laufzeit. In diesem Artikel stellen wir HotWave vor, ein auf AspectJ basierendes AOP-Framework für standardmäßige Java Virtual Machines (JVMs). HotWave unterstützt das dynamische (Neu-)Weben von zuvor geladenen Klassen und stellt sicher, dass alle in eine JVM geladenen Klassen (neu) gewebt werden können, einschließlich der Klassen der Standard-Java-Klassenbibliothek. HotWave bietet die Kommunikation zwischen den Ratschlägen, einen Mechanismus, der einen effizienten Datenaustausch zwischen Ratschlägen ermöglicht, die in dieselbe Methode eingebunden sind. Wir erklären das Programmiermodell von HotWave und diskutieren unsere Implementierungstechniken. Als Fallstudie präsentieren wir einen adaptiven, aspektbasierten Profiler, der die Unterscheidungsmerkmale von HotWave nutzt. Eine Leistungsbewertung zeigt, dass HotWave keinen Overhead verursacht, wenn kein Aspekt gewebt wird, und untersucht den Overhead des Laufzeitwebens. Die Dauer des Webens zur Laufzeit kann zwar erheblich sein, aber die Ausführung von gewebtem Code mit HotWave verursacht im Vergleich zur Ausführung von gewebtem Code zur Build- oder Ladezeit keinen zusätzlichen Aufwand.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35551-6_3 318edfce162b4bcc0bbaa23985af1a25;de;;;3.3.;;;Forschung zu Technologien zur Priorisierung von Softwareanforderungen Mit der Ausweitung des Umfangs von Softwareprojekten und der Anzahl der Benutzer wiederholen sich überhöhte Softwareanforderungen und überlagern sich. Es wird immer grundlegender und wichtiger, die Anforderungen mit den Technologien der Software-Anforderungspriorisierung nach ihrer Priorität zu sortieren, um Kosten zu sparen und Anforderungen zu erfüllen. In diesem Papier wurden die Vor- und Nachteile der Technologien der Software-Anforderungspriorisierung basierend auf Sortierung und Suche analysiert, einige wichtige Probleme zusammengefasst und diskutiert, die eine schnelle Lösung erfordern, in Bezug auf Anforderungsclustering und Redundanzbeseitigung, Kundenclustering und Anforderungspriorisierung basierend auf Kundengruppen, das Management der Abhängigkeiten zwischen Anforderungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-43908-1_2 e346464b3232b52fdefea6afb0cba384;de;;;3.3.;;;Optische lokale Netzwerkemulationen über passive optische Ethernet-Netzwerke: Eine Übersicht Als vielversprechende Lösung zur effizienten Realisierung von Fiber to the Home (FTTH) wird das passive optische Ethernet-Netzwerk (EPON) derzeit verbessert, um die gegenseitige Kommunikation zwischen den Kunden zusammen mit der normalen Verkehrsübertragung über eine optische lokale Netzwerkemulation bereitzustellen. Es ist eine neue Forschungsrichtung und soll die normalen EPON-Leistungen verbessern. Der Zweck dieses Artikels besteht darin, die hochmodernen Lösungen zur Emulierung optischer lokaler Netzwerke (OLANs) über EPON zu überprüfen. Wir diskutieren die wichtigsten damit verbundenen Probleme, z. B. Netzwerkarchitektur, Kontrollmechanismen und andere potenzielle Verbesserungen. Wir skizzieren auch Bereiche für zukünftige Forschungen.;-;-;-;https://link.springer.com/article/10.1007/s11432-008-0116-z e13bc80b5582fcb078a4520389c28d0a;de;;;3.3.;;;Allgegenwärtige Anwendungen über vernetzte Femtozellen Die rasante Zunahme der mobilen Datenaktivität hat den Einsatz für die Entwicklung innovativer neuer Technologien und Mobilfunktopologien erhöht, die diesen Anforderungen auf effiziente Weise gerecht werden können. Femtocell scheint ein guter Kandidat zu sein, der möglicherweise eine viel breitere Rolle spielen kann, indem er eine neue Klasse von Multimedia- und Familienkommunikationsdiensten ermöglicht. Dieses Konzept kann bei den Verbrauchern eine große Anziehungskraft haben, da es das Potenzial hat, die Art und Weise zu verändern, wie Menschen mit den beiden wichtigsten Dingen in Verbindung bleiben: ihrer Familie (oder Freunden) und ihren Medien. Dieses neue Paradigma heißt: die Femto-Gruppe oder Femtozone.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-04406-4_27 b05428e362f559056cca3071c2c6d9bc;de;;;3.3.;;;Ein inkrementelles Verifikationsparadigma für eingebettete Systeme Die Komplexität eingebetteter Systeme verbessert sich in den meisten Produktbereichen in vielerlei Hinsicht. Sich ändernde Anforderungen und Unsicherheit in frühen Entwicklungsstadien sind für die Entwicklergemeinschaft von größter Bedeutung, da sie die Komplexität der Systementwicklung erhöhen. Die Verifizierung umfasst alle Aspekte des Systementwicklungsprozesses. Dieses Papier schlägt ein inkrementelles Paradigma vor, das eine frühe Integration einbezieht und die Unsicherheit während der Anfangsphasen der Entwicklung unter sich ändernden Anforderungensbedingungen reduziert. Das Verfahren kann durch ein kaskadiertes V-Modell dargestellt werden. Die Implementierungsprobleme der Verifikationsmethodik werden vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-5427-3_5 edac3ba93efbb45e35ce1c4eca890502;de;;;3.3.;;;Dienste fehlertolerant machen Mit der ständig wachsenden Nutzung des Internets werden Webdienste immer beliebter und ihre Wachstumsrate übertrifft selbst die optimistischsten Vorhersagen. Dienste sind selbstbeschreibende, in sich geschlossene, plattformunabhängige und offen verfügbare Komponenten, die über das Netzwerk interagieren. Sie sind streng nach offenen Spezifikationen und/oder Standards geschrieben und bieten wichtige und oft kritische Funktionen für viele Business-to-Business-Systeme. Ausfälle, die entweder Dienstausfallzeiten verursachen oder zu ungültigen Ergebnissen in solchen Systemen führen, können von einer bloßen Unannehmlichkeit bis hin zu erheblichen Geldstrafen oder sogar zum Verlust von Menschenleben reichen. Bei Anwendungen, bei denen die Erfassung und Steuerung von Maschinen und anderen Geräten über Dienste erfolgt, ist eine hohe Zuverlässigkeit der Dienste eines der wichtigsten Ziele. Derzeit gibt es keine experimentelle Untersuchung, um die Zuverlässigkeit und Verfügbarkeit von Web-Services-Systemen zu bewerten. In diesem Papier identifizieren wir Parameter, die die Zuverlässigkeit von Webdiensten beeinflussen, beschreiben die Methoden zur Verbesserung der Zuverlässigkeit durch räumliche und zeitliche Redundanz und führen eine Reihe von Experimenten durch, um die Verfügbarkeit von Webdiensten zu bewerten. Um die Verfügbarkeit des Webservice zu erhöhen, verwenden wir mehrere Replikationsschemata und vergleichen diese mit einem einzigen Service. Die Webservices werden von einem Replikationsmanager koordiniert. Der Replikationsalgorithmus und die detaillierte Systemkonfiguration werden in diesem Papier beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/11955498_4 43d7a2ed3db697334915109baa4df385;de;;;3.3.;;;Sicherer Mechanismus zum Umgang mit gezielten Angriffen in infrastrukturbasierten drahtlosen Mesh-Netzwerken Infrastrukturbasierte Wireless-Mesh-Netzwerke ermöglichen es, heterogene Arten von Netzwerken gleichzeitig über Wireless-Mesh-Router zu verbinden. Da die Knoten jedes Netzwerks unterschiedliche Rechenleistung, Bandbreite, Energiemenge etc. haben, kann diese Situation zu gezielten Angriffen führen. Ein mit dem Internet verbundener Knoten kann leicht eine Flut über einen Knoten eines Sensornetzwerks erzeugen. Um diese Art von Angriffen zu bewältigen, haben wir in diesem Artikel einen neuen sicheren Authentifizierungsmechanismus eingeführt, der funktioniert, wenn ein Angriffspotenzial erkannt wird. Darüber hinaus haben wir die Knoten des drahtlosen Mesh-Netzwerks autorisiert, Daten gemäß ihrer Kapazität mithilfe von Pull Data Traffic Control-Mechanismen abzurufen. Wir haben diese Lösung erstens auf Mesh-Router angewendet, um gezielte Angriffe zu verhindern, und zweitens haben wir die Lösung auf einen einzelnen Knoten angewendet, der zwischen einem Knoten und einem Mesh-Router liegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13365-7_23 710676fc613dfc5a661297cab7ba1f3a;de;;;3.3.;;;Suche nach neuen Lösungen für Dienste im Verbund offener Verbundsysteme Die Anwendung einer föderierten Umgebung, die auf einem kosteneffektiven föderierten Identitätsmanagementsystem ausgeführt wird, hat sich in größerem Umfang durchgesetzt und würde möglicherweise mehr Unternehmen anziehen, um sie zu übernehmen und zu investieren, wenn wir Sicherheits- und Vertrauensmechanismen verbessern. Die traditionelle zertifikatbasierte Authentifizierung wirft verschiedene Probleme auf, wie zum Beispiel der Fall, dass der öffentliche Teil des Schlüsselpaars vom Angreifer erraten oder berechnet werden kann, er weiter verwendet werden kann, um den Zugriff auf Ressourcen zu maskieren, und zweitens, wenn der private Schlüssel gespeichert wird auf dem Benutzersystem kann durch Viren, Trojanische Pferde usw. kompromittiert werden. Auch fehlt es aktuellen Computerplattformen an Plattform-Vertrauenseinrichtungen, was es schwierig macht, Remote-Plattformen zu vertrauen. In diesem Papier diskutieren wir Bedenken im Zusammenhang mit der Benutzerauthentifizierung, Autorisierung und Vertrauensbildung von föderierten Diensten in Federated Open Systems Interconnection und dem vorgeschlagenen vertrauenswürdigen Plattformmodul geschützten Speicher zum Schutz privater Schlüssel und Plattformattestierungsmechanismen zur Einrichtung zwischen Plattformen (und damit zwischen Systemen). Vertrauen zwischen interagierenden Systemen in einer offenen Umgebung, um diese Probleme zu überwinden. Um unsere Arbeit zu bewerten, haben wir das Trusted Platform Module mit bestehenden Authentifizierungstypen verglichen und zeigen, dass das Trusted Platform Module einen besseren Schutz gegen Angriffe wie Replay, Trojanische Pferde und gefälschte Antivirenangriffe usw. bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22726-4_27 5542b0668d82507b02f537d245bebf31;de;;;3.3.;;;Software Defined Home Network zur Verteilung des SVC-Videos basierend auf den DASH-Prinzipien Mit der Verbreitung von Dynamic Adaptive Streaming über HTTP (DASH)-Systeme trat das Problem im Zusammenhang mit der Ressourcenverwaltung in Endbenutzernetzwerken auf. Der Artikel schlägt eine neue Lösung für die Verteilung von Scalable Video Coding (SVC) Videostreams in Heimnetzwerken vor. Es basiert auf einem Software Defined Network (SDN)-Controller, der basierend auf den Parametern des übertragenen SVC-Videos und dem Nutzungsstatus der Netzwerkressourcen eine dynamische Verkehrsgestaltung ermöglicht. Gleichzeitig wurde davon ausgegangen, dass die vorgeschlagene Lösung mit dem Standard Server and Network Assisted DASH (SAND) kompatibel ist und ihre Implementierung ohne den Einsatz zusätzlicher, dedizierter Hardware möglich ist. Der Artikel präsentiert die Analyse des Einflusses des vorgeschlagenen SDN auf die Verbesserung der SVC-Videoqualität, die von DASH-Clients in einem typischen Heimnetzwerk empfangen wird. Testergebnisse bestätigen die Überlegenheit des vorgeschlagenen Systems gegenüber herkömmlichen Lösungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-59767-6_16 e3bbc57408715facd99ef414ac6ff50a;de;;;3.3.;;;VLSI-Design eines assoziativen Speichers basierend auf verteilter Informationsspeicherung In den letzten zehn Jahren hat das Interesse an der Verwendung künstlicher neuronaler Netze in verschiedenen Anwendungen zugenommen. Einer dieser Anwendungsbereiche, in denen die Analyse der Leistungsfähigkeit eines neuronalen Netzansatzes vergleichsweise weit fortgeschritten ist, ist das assoziative Gedächtnis. Künstliche neuronale Netze (KNN) eignen sich zumindest deshalb gut für die Implementierung assoziativer Erinnerungen, weil die Verarbeitungselemente (künstliche Neuronen) in einem KNN hochparallel arbeiten und somit ein erheblicher Geschwindigkeitsgewinn zu erwarten ist. Diese Parallelität ist einer der Hauptgründe für die Untersuchung neuer Computermodelle, die von neurophysiologischen Verarbeitungsprinzipien inspiriert sind. Die Idee ist, dass Informationen in Form von synaptischen Verbindungen zwischen künstlichen Neuronen gespeichert werden, während die Aktivitäten der Neuronen die gespeicherten Muster darstellen. Somit werden die Informationen über viele Einheiten verteilt gespeichert und nicht irgendwo speziell. Jede Einheit nimmt an der Kodierung mehrerer Informationen (Muster) teil. KNN kombinieren sowohl das Speichern als auch das Verarbeiten von Informationen, während herkömmliche Computer auf sequentiellen Prozessoren basieren, die auf dem Inhalt eines passiven Speichers arbeiten, in dem auf Informationen zugegriffen wird, indem der richtige Platz im Speicher gefunden wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-3994-0_8 e31825d0a19b62783d5903a48e720afd;de;;;3.3.;;;Eine auf Big Data basierende Technologiestudie zum Überwachungssystem für Hochschulwerbung Durch die Analyse und zusammenfassende Analyse des tatsächlichen Bedarfs des universitären Netzwerk-Werbemonitorings wird entsprechend ein auf der Python-Crawler-Technologie basierendes Hochschul-Werbebeobachtungs- und Analysesystem aufgebaut, gefolgt von einer detaillierten Analyse und bedarfsgerechten Gestaltung des Systems . Über die Netzwerk-Diskussionsplattform erhalten Hochschulverwaltungen eine große Menge an Werbedaten zur umfassenden Analyse. Zu den Studienmodulen gehören im Wesentlichen: Publicity-Keyword-Management-Modul, Publicity-Analyse-Modul, Publicity-Ergebnis-Visualisierungs-Modul, Publicity-Report-Modul, etc. Von der Erstellung von Publicity-Keywords bis zur Anzeige von Publicity-Reports bietet das universitäre Werbeüberwachungs- und Analysesystem somit der Hochschulverwaltung mit genauen und effizienten Trends zur Entwicklung der Öffentlichkeitsarbeit, unterstützen die Universitäten dabei, die innere Motivation der Studierenden zu verstehen, und entwickeln die Öffentlichkeit rechtzeitig, um Meinungen vorzubringen, die Managementpolitik der Universitäten anzupassen, das gesunde Wachstum der Studierenden und die stabile Entwicklung Universitäten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-74814-2_20 f897d1c72a837b8fd58ec78e0a58b866;de;;;3.3.;;;Charakterisierung und Optimierung von TPC-C-Workloads auf großen Systemen mit SSD-Arrays Transaction Processing Performance Council Benchmark C (TPC-C) ist der De-facto-Standard zur Bewertung der Leistung von High-End-Computern, auf denen Online-Transaktionsverarbeitungsanwendungen ausgeführt werden. Im Unterschied zu anderen Standard-Benchmarks definiert das Transaction Processing Performance Council lediglich Spezifikationen für den TPC-C-Benchmark, bietet jedoch keine Standardimplementierung für Endnutzer. Aufgrund der Komplexität des TPC-C-Workloads ist es eine anspruchsvolle Aufgabe, die optimale Leistung für die TPC-C-Evaluierung auf einem großen High-End-Computer zu erzielen. In diesem Whitepaper haben wir ein groß angelegtes TPC-C-Evaluierungssystem basierend auf der neuesten TPC-C-Spezifikation mit Solid-State-Drive (SSD)-Speichergeräten entworfen und implementiert. Durch die Analyse der Eigenschaften der TPC-C-Workload schlagen wir eine Reihe von Optimierungsmethoden auf Systemebene vor, um die TPC-C-Leistung zu verbessern. Zuerst schlagen wir einen Ansatz vor, der auf SmallFile-Tabellenraum basiert, um die Testdaten in einer Round-Robin-Methode auf allen Disk-Array-Partitionen zu organisieren. Dies kann die zugrunde liegenden Disk-Arrays voll ausnutzen. Zweitens schlagen wir vor, einen NOOP-basierten Disk-Scheduling-Algorithmus zu verwenden, um die Auslastung der Prozessoren zu reduzieren und die durchschnittliche Ein-/Ausgabe-Servicezeit zu verbessern. Drittens, um die Trefferrate des Lookaside-Puffers für die Systemübersetzung zu verbessern und den Prozessor-Overhead zu reduzieren, nutzen wir die riesige Seitentechnik, um eine große Menge an Speicherressourcen zu verwalten. Schließlich schlagen wir eine ortsbezogene Interrupt-Mapping-Strategie vor, die auf der Asymmetriecharakteristik von nicht gleichförmigen Speicherzugriffssystemen basiert, um die Systemleistung zu verbessern. Mit diesen Optimierungsmethoden haben wir den TPC-C-Test auf zwei großen High-End-Computern mit SSD-Arrays durchgeführt. Die experimentellen Ergebnisse zeigen, dass unsere Methoden die TPC-C-Leistung effektiv verbessern können. Beispielsweise erreichte die Leistung des TPC-C-Tests auf einem Intel Westmere-Server 1,018 Millionen Transaktionen pro Minute.;-;-;-;https://link.springer.com/article/10.1007/s11432-015-5383-x 541ae526d6ddbf492cbbbca16f51af1f;de;;;3.3.;;;Control Plane Reflection-Angriffe in SDNs: Neue Angriffe und Gegenmaßnahmen Software-Defined Networking (SDN) wird weiterhin von Unternehmensrechenzentren bis hin zum Cloud-Computing eingesetzt, wobei verschiedene SDN-fähige Hardware-Switches auf den Markt kommen. In diesem Whitepaper stellen wir Control Plane Reflection Attacks vor, um die begrenzte Verarbeitungsfähigkeit von SDN-fähigen Hardware-Switches auszunutzen. Die Reflection-Angriffe verwenden direkte und indirekte Datenebenenereignisse, um die Steuerungsebene zu zwingen, massive teure Steuerungsnachrichten an SDN-Switches auszugeben. Darüber hinaus schlagen wir eine zweiphasige Angriffsstrategie zum Auslösen von Sondierungen vor, um die Reflexionsangriffe viel effizienter, heimlicher und mächtiger zu machen. Experimente an einem Testbed mit physischen OpenFlow-Switches zeigen, dass die Angriffe zu katastrophalen Ergebnissen führen können, z. Um solche Angriffe abzuwehren, schlagen wir ein neuartiges Abwehr-Framework namens SWGuard vor. Insbesondere erkennt SWGuard Anomalien von Downlink-Nachrichten und priorisiert diese Nachrichten basierend auf einer neuartigen Überwachungsgranularität, d. h. Host-Application-Paar (HAP). Implementierungen und Evaluierungen zeigen, dass SWGuard die Latenz für legitime Hosts und Anwendungen unter Control Plane Reflection Attacks mit nur geringem Overhead effektiv reduzieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00470-5_8 43f0a63170f312b0169f5dfa5b8e2397;de;;;3.3.;;;Gewinner der RoboCup 2012 Rescue Simulation League In der RoboCup Rescue Simulation League besteht die Mission darin, Roboter einzusetzen, um nach einer Katastrophe so viele Opfer wie möglich zu retten. Die Forschungsherausforderung besteht darin, die Roboter als Team zusammenarbeiten zu lassen. In diesem Jahr waren insgesamt 15 Teams aus 8 verschiedenen Ländern an den Wettbewerben aktiv. Dieser Beitrag beleuchtet die Ansätze der Gewinner des virtuellen Roboterwettbewerbs, des Infrastrukturwettbewerbs und des Agentenwettbewerbs.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39250-4_3 f20578e37bf247ecd6e2e7b12a02a19b;de;;;3.3.;;;Verbesserte Architekturen/Bereitstellungen mit Elmo Manuelle Überlegungen zu Refactoring-Kandidaten zur Linderung von Engpässen in serviceorientierten Systemen sind schwierig, selbst wenn High-Level-Architektur-/Bereitstellungsmodelle verwendet werden. Dennoch ist es gängige Praxis in der Industrie. Elmo ist ein Entscheidungsunterstützungstool, das serviceorientierten Architekten und Bereitstellungsingenieuren hilft, Architektur- und Bereitstellungsengpässe in serviceorientierten Systemen zu analysieren und zu refaktorisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-17642-6_36 5b2e4a0800e5aa341aaca4d783f657be;de;;;3.3.;;;Ein Zuverlässigkeitsmodell für das TMR-System Es wurde viel Forschung zur Zuverlässigkeitsbewertung von Computersystemen durchgeführt. Vieles davon ist jedoch nicht weiter als das Studium der Fehlerabdeckung solcher Systeme, wobei der Beziehung zwischen der Fehlerabdeckung und der Gesamtsystemzuverlässigkeit wenig Aufmerksamkeit geschenkt wird. In diesem Beitrag wird ein Markovasches Zuverlässigkeitsmodell für ein Triple-Modular-Redundancy (TMR)-System vorgestellt. Unter vollständiger Berücksichtigung der Auswirkungen von Fehlerabdeckung, Arbeitszeit und konstanter Ausfallrate eines einzelnen Moduls auf die Zuverlässigkeit des Ziel-TMR-Systems wird das Modell basierend auf der schrittweisen Degradationsstrategie erstellt. Durch das Modell wird der Zusammenhang zwischen der Fehlerabdeckung und der Zuverlässigkeit des Systems bestimmt. Darüber hinaus lässt sich die Zuverlässigkeit des Systems mit der eingestellten Fehlerabdeckung jederzeit dynamisch und präzise vorhersagen. Dies wird für die Zuverlässigkeitsbewertung und -verbesserung von großem Nutzen sein und für das Systemdesign und die Wartung hilfreich sein.;-;-;-;https://link.springer.com/article/10.1007/s11633-012-0650-4 731bbfc28ed56ca9d4201f82681baa01;de;;;3.3.;;;Modellgetriebene Simulation für das Performance Engineering von Cloud-Cluster-Architekturen im Kubernetes-Stil Wir schlagen eine Performance-Engineering-Technik für das selbstanpassende Container-Cluster-Management vor, die heute häufig in Cloud-Umgebungen verwendet wird. Wir konzentrieren uns hier auf ein abstraktes Modell, das von Simulationswerkzeugen verwendet werden kann, um eine optimale Konfiguration für ein solches System zu identifizieren, das in der Lage ist, Serviceverbrauchern eine zuverlässige Leistung zu bieten. Ziel des modellbasierten Tools ist es, ein Regelwerk zu identifizieren und zu analysieren, das den Ressourcenbedarf für diese Plattform ausgleichen kann. Wir präsentieren ein ausführbares Modell für eine Simulationsumgebung, mit der Container-Cluster-Architekturen untersucht werden können. Als Ziel haben wir die Cluster-Management-Plattform Kubernetes gewählt. Unsere Modelle spiegeln die aktuelle Kubernetes-Plattform wider, aber wir führen auch ein fortschrittliches Controller-Modell ein, das über die aktuellen Kubernetes-Funktionen hinausgeht. Als Simulationsumgebung verwenden wir das Palladio Eclipse Plugin. Das Ergebnis ist ein funktionierender Simulator, der auf eine konkrete Container-basierte Cluster-Architektur angewendet wird und von Entwicklern verwendet werden kann, um das selbstanpassende Systemverhalten zu verstehen und zu konfigurieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63161-1_1 d36718c35c64ee05e2e1e22f685c0f38;de;;;3.3.;;;Design und Anwendung des Stereovision-Manipulators mit neuartiger Steuerung von Planungsrichtlinien Dieser Hauptzweck dieses Papiers besteht darin, die Effizienz eines Kontrollsystems zu fördern, indem ein Steuerungsdesign für Scheduling-Richtlinien verwendet wird. In diesem System wird die Verwaltung der Eingabe- und Ausgabeinformationen eines Computers in geeigneter Weise durch die Programmsprache gehandhabt. Das Steuerungsdesign der Planungsrichtlinien wird im Tracking-System des Roboterarms verwendet. Der Vorteil dieses Steuerungsdesigns besteht darin, dass jedes gleichzeitig laufende Verfahren aktiviert wird, wenn die vorübergehende Überlastung der Informationseingabe und -ausgabe im Steuerungssystem auftritt. Daher ist die Laufzeit in dem Planungsrichtlinien-Steuerungssystem kürzer als die eines herkömmlichen Steuerungssystems, in dem jede Prozedur zum Ausführen aneinandergereiht ist. In diesem Whitepaper werden Fallstudien zur Einsatzplanung von Polizeikontrollen vorgestellt, die bei der Bildverfolgungs-Sichtkontrolle verwendet werden. Die Ergebnisse zeigen, dass die Geschwindigkeit des Ortungssystems durch den Einsatz der polizeilichen Planungstechnik im Rahmen eines sofortigen Verfahrensplans verbessert werden kann.;-;-;-;https://link.springer.com/article/10.1007/s11042-011-0867-1 799a33d29372b5ed59dcce96f86bdc88;de;;;1.1.;;;Professionelle Handlungskompetenz von LehrpersonenZentrales Anliegen in der Berufsausübung von Lehrpersonen sind Lernziele, die von Schülerinnen und Schülern erreicht werden. Lernprozesse sollten also in Gang gesetzt und individuell unterstützt werden. Hierfür steht das „Kerngeschäft“ des Lehrerberufes, der Unterricht (Tenorth, 2006, S. 585).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-03666-9_4 f83e7ab1e451dda0862f7d1205690e38;de;;;3.3.;;;Soft Computing in der chemischen Industrie: Aktueller Stand der Technik und zukünftige Trends Das Kapitel fasst den aktuellen Stand der Technik bei der Anwendung von Soft-Computing-Lösungen in der chemischen Industrie basierend auf den Erfahrungen von The Dow Chemical Company zusammen und projiziert die zukünftigen Trends in diesem Bereich basierend auf den erwarteten zukünftigen industriellen Anforderungen. Einige Beispiele erfolgreicher industrieller Anwendungen verschiedener Soft-Computing-Techniken werden genannt: automatisierte Betriebsdisziplin, basierend auf Fuzzy-Logik, empirische Emulatoren fundamentaler Modelle, basierend auf neuronalen Netzen, beschleunigte Entwicklung neuer Produkte, basierend auf genetischer Programmierung und fortschrittliche Prozessoptimierung, basierend auf auf Schwarmintelligenz. Die Auswirkungen dieser Anwendungen sind eine signifikante Verbesserung des Prozessbetriebs und eine viel schnellere Modellierung neuer Produkte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73182-5_18 5130bf0f0e6a7a2a2e523750c6a24ba0;de;;;3.3.;;;Food CPS: Ein Überwachungssystem für gesunde Ernährung basierend auf dem Internet der Dinge In diesem Papier wurden die Konnotation und Erweiterung zweier heißer Konzepte mit den Namen „Das Internet der Dinge (IoT)“ und „Lebensmittel Cyber ​​Physical System (CPS)“ erörtert. Durch die Analyse ihrer Entwicklungsverläufe, ihrer Geschichte und ihrer Wechselbeziehungen sowie des Vergleichs ihrer Anwendungen im täglichen Leben sprechen sich die Autoren dafür aus, dass Lebensmittel-CPS als Anwendung des IoT in der menschlichen Ernährung angesehen werden können. Und bauen Sie ein Überwachungssystem für eine gesunde Ernährung auf, das auf dem Internet der Dinge basiert. Vor diesem Hintergrund diskutierten die Autoren die Schlüsseltechnologien zur Implementierung von Food CPS und hofften, einen Hinweis auf die Entwicklung von Menschen zu einer gesunden Ernährung und Food Networking zu geben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38445-5_170 16aa601e235cdea65b04377726266bed;de;;;3.3.;;;Ein dynamisches Schema zur Planung komplexer Aufgaben in Fertigungssystemen basierend auf der Zusammenarbeit von Agenten Die Charakteristik der Planung von Aufgaben in der realen Welt ist ein dynamisches und herausforderndes Thema, da sich die Prozesse und die beteiligten Unternehmen von Zeit zu Zeit ändern können. Damit kleine flexible Unternehmen auf Geschäftsmöglichkeiten reagieren können, muss ein wirksames System entwickelt werden, um eine dynamische Koalition zu erleichtern, die Kernkompetenzen und Ressourcen zu teilen und die unternehmensübergreifende Zusammenarbeit zu unterstützen. Obwohl Multi-Agenten-Systeme (MAS) ein Paradigma für die Modellierung dieser Eigenschaften darstellen, ist die Planung von Aufgaben in MAS aufgrund der damit verbundenen Rechenkomplexität, der verteilten Architektur zur Planung von Aufgaben durch einzelne Agenten und der Abhängigkeit von den Arbeitsabläufen verschiedener Agenten ein komplexes Problem. Ein wichtiges Thema ist die Entwicklung eines Problemlösers, der in MAS angewendet werden kann, um kohärente und konsistente Arbeitsabläufe zu erreichen, die den Kundenauftrag erfüllen können. In diesem Papier schlagen wir eine Lösungsmethodik für die Planung von Workflows in MAS vor. Unsere Lösung kombiniert die Multi-Agenten-Systemarchitektur zur dynamischen Erkennung von Diensten, Workflow- und Aktivitätsmodellen, um die Fähigkeiten von Agenten zu spezifizieren, das Vertragsnetzprotokoll zur Erleichterung der Aushandlung und Koordination von Agenten und Optimierungstheorien zur Optimierung der Kosten für die Erfüllung eines Auftrags. Ein Problemlöser für die Planung von Aufgaben in MAS wurde implementiert. Ein Anwendungsszenario wurde ebenfalls bereitgestellt, um unsere Lösungsmethodik zu verifizieren.;-;-;-;https://link.springer.com/article/10.1007/s10489-014-0521-5 6e47babf017ae67775bc9fd49137e3ae;de;;;3.3.;;;Datenschutz im Internet der Dinge Das Internet der Dinge (IoT) ist die Zukunft des Internets, in der Benutzer, Maschinen und alltägliche Dinge die Fähigkeit haben, ihre Umgebung zu erfassen, zu kommunizieren und mit ihr zu interagieren. IoT verspricht vielfältige Anwendungsmöglichkeiten, um das Leben des Menschen komfortabler, sicherer und die Lebensqualität zu verbessern. Es wird auch als große Geschäftsmöglichkeit für Unternehmen angesehen, basierend auf riesigen Datenmengen, die von vernetzten Dingen gesammelt werden. In den IoT-Anwendungen wie Smart Home, Smart City, Heide und so weiter leben die Dinge mit den Menschen zusammen und gehen mit ihren persönlichen Daten auch mit den privatesten um. Wenn diese Daten ohne ausdrückliche Zustimmung einer Person massiv gesammelt und dem Internet ausgesetzt werden, stellen Dinge auf diese Weise eine Bedrohung für die Privatsphäre dar, die ein universelles Menschenrecht ist. Daher ist die Wahrung der Privatsphäre eines der wichtigsten Themen im IoT. Dieses Papier analysiert den Datenschutz im Kontext des IoT anhand von Fallstudien und schlägt Mechanismen zur Verbesserung der Sicherheit und zum Schutz der Privatsphäre vor. Diese Analyse berücksichtigt auch die wirtschaftlichen Vorteile im Zusammenhang mit der Nutzung von IoT als neue Geschäftsmöglichkeit ohne Offenlegung personenbezogener Daten. Die vorgeschlagenen Lösungen basieren auf Technologien zur Datenanonymität mit Empfehlungen für Benutzer und Entwickler von IoT-Anwendungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-1627-1_13 1c4bfa054979b8f96f9df469d65986a5;de;;;3.3.;;;Hin zu einer unvollständig spezifizierten Prozessunterstützung in SwinDeW – einem Peer-to-Peer-basierten Workflow-System Aufgrund der erhöhten Komplexität und Flexibilität von Prozessen sowie fehlender Modellierungsinformationen werden Workflow-Prozesse vor ihrer Ausführung nicht immer vollständig definiert. Die Unterstützung unvollständig spezifizierter Prozesse, die eine spontane Artikulation von Prozessen erfordern, ist zu einem wünschenswerten Merkmal von Workflow-Management-Systemen geworden. Leider ist dieser Aspekt in der aktuellen Workflow-Forschung eher schwach ausgeprägt. Dieses Papier berichtet über innovative Forschung zur unvollständig spezifizierten Prozessunterstützung, die im Kontext von SwinDeW, einem Peer-to-Peer-basierten dezentralen Workflow-System, durchgeführt wurde. Um die SwinDeW-Architektur und Systemfunktionen nahtlos zur Unterstützung unvollständig spezifizierter Prozesse zu erweitern, wird in diesem Beitrag ein hierarchischer Prozessmodellierungs- und Ausführungsansatz vorgestellt. Dieser Ansatz unterstützt die schrittweise Ausarbeitung unvollständig spezifizierter Prozesse im laufenden Betrieb. Die weitere Ausarbeitung eines Prozesses wird innovativ als wesentliche Schritte zum Prozessziel modelliert und damit als normale Aufgaben ausgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/11568421_33 c216ad116e57c051ddb4e83425fc7c85;de;;;3.3.;;;Technologiegestütztes Lernen für Menschen mit geistigen Behinderungen und Zerebralparese: Die MAS-Plattform Bildung für Schüler mit Behinderungen findet heute in einer Vielzahl von Umgebungen statt, einschließlich einer breiteren Palette von Hilfsmitteln. Infolgedessen bezieht sich einer der interessantesten Anwendungsbereiche des technologiegestützten Lernens auf die Einführung von Lerntechnologien und -designs für Menschen mit Behinderungen. Diesem unaufhaltsamen Trend folgend, präsentiert dieser Beitrag MAS, eine Softwareplattform, die Menschen mit schweren geistigen Behinderungen und zerebraler Lähmung bei ihren Lernprozessen unterstützen soll. MAS bietet als technologiegestützte Lernplattform mehrere Tools, die das Lernen und Überwachen für Menschen mit besonderen Bedürfnissen unterstützen, einschließlich adaptiver Spiele, Datenverarbeitungs- und Überwachungstools. MAS wurde in einer sonderpädagogischen Einrichtung in Madrid, Spanien, installiert und bietet Sonderpädagogen ein Werkzeug zur Verbesserung der Bildungsprozesse der Schüler.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13166-0_2 05335271bf3caa7973c4633e8f8fea9c;de;;;3.3.;;;Saga: Ein kosteneffizientes Dateisystem basierend auf Cloud Storage Service Anbieter von Cloud-Speicherdiensten wie Amazon Simple Storage Service (S3) und Google Storage for Developers bieten kostengünstige und hochverfügbare Speicherressourcen mit einem einfachen nutzungsabhängigen Abrechnungsmodell. Die Kosten für den Betrieb von Speichersystemen auf einem solchen Cloud-Speicherdienst hängen hauptsächlich vom belegten Speicherplatz, der Anzahl der Anfragen und der Menge der Datenübertragung ab. Das traditionelle Design von Speicherstapeln basierend auf Festplattentreibern oder Bändern berücksichtigte die Kosten nicht als Systemmetrik, daher bietet es erheblichen Optimierungsspielraum für das Design von Speichersystemen basierend auf Cloud Storage.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28675-9_13 0d3921221cee3e66f10344eeb8ee51a0;de;;;3.3.;;;Zur Harmonisierung prozess- und produktorientierter Softwarequalitätsansätze Quality Softwareunternehmen müssen derzeit mehr als ein Modell zur Verbesserung von Softwareprozessen gleichzeitig implementieren. Mehrere Multimodell-Initiativen scheinen diese Situation zu unterstützen, und bestehende Vorschläge befassen sich mit der Integration aus der Prozessperspektive, wobei Modelle wie CMMI, ISO 90003, ISO/IEC 12207 und ISO/IEC 15504 berücksichtigt werden Modelle, um Ressourcen zu optimieren und den erwarteten Nutzen zu erzielen. Da das letztendliche Ziel der Prozessverbesserung jedoch die Verbesserung der Softwareproduktqualität ist, ist es auch wichtig, Produktqualitätsmodelle bei Harmonisierungsbemühungen zu berücksichtigen. In diesem Beitrag wird das Ergebnis der Abbildung von Modellen basierend auf beiden (Prozess- und Produkt-)Qualitätsperspektiven präsentiert. Die verwendete Methode wird auch kurz beschrieben und angewendet, um ISO/IEC 25010 auf CMMI-DEV und ISO/IEC 12207 abzubilden. Das Ergebnis zeigt, dass prozessorientierte Verbesserungsmodelle Produktqualitätsmerkmale in den frühen Phasen des Softwareentwicklungslebenszyklus berücksichtigen und dass Initiativen zur Prozessverbesserung können daher von Zielen zur Verbesserung der Produktqualität angetrieben werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31199-4_12 497c9ffed520f7e11c229117b773af13;de;;;3.3.;;;Ein Testbed für die Validierung und Bewertung von Frame Switching Networks Die Paketzusammenstellung am Netzwerkrand ist eine Lösung, um hohe Paketraten in Core-Netzwerk-Switches zu reduzieren. In der Literatur wird dieses Thema aus drei Gründen kontrovers diskutiert: (1) potenzielle negative Auswirkungen der Paketzusammenstellung auf die Verkehrseigenschaften, (2) störende Integration in bestehende Netzwerke und (3) fehlende Unterstützung der Paketzusammenstellung in einer bestehenden Control-Plane-Umgebung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17851-1_6 c76f1c8c829ba7b953d8c9b36fdde821;de;;;3.3.;;;Funktionen von SQL-Datenbanken für mandantenfähige Anwendungen basierend auf Oracle DBMS Der Beitrag stellt verschiedene Architekturaspekte der Datenschicht für die Entwicklung von mandantenfähigen Anwendungen vor. Mandantenfähigkeit ist ein Begriff, der das Anwendungsmodell von Diensten beschreibt, bei denen eine einzelne oder mehrere Instanzen einer Software auf einem Server ausgeführt werden und mehrere Mandanten bedienen. Diese Funktion hat Auswirkungen auf mehrere nicht funktionale Aspekte des Systems wie Sicherheit, Verfügbarkeit, Backup, Wiederherstellung und mehr. Dieser Artikel erläutert die Spezifität dieser Aspekte bei der Erstellung von Multi-Tenant-Anwendungen und zeigt auf, wie verschiedene Architekturen der Datenschicht sie behandeln. An einem Beispiel einer Oracle-Datenbank wurden einige eingebaute Features und Konzepte diskutiert, die hilfreich sein könnten, um die Qualität der genannten nicht-funktionalen Aspekte zu erhöhen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-34099-9_39 cfe1e6fb4b5860506cab69519019d39d;de;;;3.3.;;;Prozessunterstützung für die Anwendungstechnik der Produktlinie Die Ableitung von Produkten aus einer Softwareproduktlinie ist eine zeitaufwändige und teure Tätigkeit. Trotz der Erkenntnis, dass ein effektiver Prozess viele der mit der Produktableitung verbundenen Schwierigkeiten lindern könnte, haben bestehende Ansätze unterschiedliche Reichweiten, betonen verschiedene Aspekte des Ableitungsprozesses und sind häufig zu spezialisiert, um als allgemeine Lösung zu dienen. Als Antwort auf den Bedarf an methodischer Unterstützung haben wir Pro-PD (Prozessmodell zur Produktableitung) entwickelt. Pro-PD wurde iterativ in vier Forschungsphasen unter Einbeziehung akademischer und industrieller Quellen entwickelt und evaluiert. In diesem Beitrag wird am Beispiel der Produktableitungsvorbereitung veranschaulicht, wie Pro-PD systematisch unterstützt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22206-1_17 afae302e343bc884cdf1fce1ca909a65;de;;;3.3.;;;Teilmigration zur Neuarchitektur einer Cloud-nativen monolithischen Anwendung in Microservices und FaaS Das Paradigma der Softwareentwicklung geht von einer monolithischen Architektur zu Microservices und einer serverlosen Architektur über. Die Beibehaltung einer monolithischen Anwendung als eine einzige große Maßstabseinheit ist eine Bedrohung für ihre Agilität, Testbarkeit und Wartbarkeit. Die vollständige Migration einer monolithischen Anwendung auf eine Microservice- oder Serverless-Architektur stellt zusätzliche Herausforderungen. Design und Entwicklung von Microservices sind im Vergleich zu Monolithen komplex und umständlich. Mit zunehmender Anzahl von Microservices wird auch deren Verwaltung zu einer Herausforderung. Die Verwendung serverloser Plattformen kann erhebliche Einsparungen bieten, funktioniert jedoch nicht für alle Arten von Workload-Mustern. Oftmals kann es im Vergleich zu dedizierten Serverbereitstellungen teurer sein, insbesondere wenn die Anwendungsworkload erheblich skaliert. In diesem Whitepaper schlagen wir eine teilweise Migration von monolithischen Anwendungen in Microservices und serverlose Services vor. Zum Zwecke des Refactorings verwenden wir Webzugriffsprotokolldaten der monolith-Anwendung. Unser vorgeschlagenes Architekturmodell basiert auf einem unüberwachten Lernalgorithmus und zielt darauf ab, die Ressourcennutzung und den Durchsatz einer Anwendung zu optimieren, indem die Module mit unterschiedlichen Skalierbarkeits- und Ressourcenanforderungen identifiziert werden. Dies erleichtert die Trennung von Diensten einer Monolith-Anwendung in Monolith-Microservice-Serverless. Wir haben unseren vorgeschlagenen Ansatz auf eine Monolith-Anwendung für Lehrer-Feedback angewendet und die Ergebnisse präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9671-1_9 a03fbf7734591dc31700964a80d28bad;de;;;3.3.;;;Zur Kapselung von Daten in komponentenbasierten Softwaresystemen Ein komponentenbasiertes System besteht aus Komponenten, die durch Konnektoren verbunden sind. Daten können sich in Komponenten und/oder in externen Datenspeichern befinden. Operationen an Daten, wie Zugriff, Aktualisierung und Übertragung, werden während von Komponenten durchgeführter Berechnungen ausgeführt. Typischerweise werden in aktuellen Komponentenmodellen Steuerung, Berechnung und Daten in den Komponenten vermischt, während Steuerung und Daten beide durch die Konnektoren kommuniziert werden. Als Ergebnis sind solche Systeme eng gekoppelt, was die Argumentation erschwert. In diesem Papier schlagen wir einen Ansatz zur Kapselung von Daten vor, indem wir sie von Kontrolle und Berechnung trennen.;-;-;-;https://link.springer.com/chapter/10.1007/11783565_30 65ba98c6095dd2bd306bdbe77e17b5c1;de;;;3.3.;;;Ad-hoc-In-Car-Multimedia-Framework Das Kapitel enthält die Beschreibung der Rahmenarchitektur für Ad-hoc-Pervasive Multimedia-Dienste, die den Anforderungen von Automobilanwendungen gerecht wird. Es umfasst Mechanismen für den Zugriff auf Multimedia-Inhalte als Teil von Kontextinformationen. Es besteht aus Kerndienstkomponenten und wird durch mehrere erweiterte Komponenten ergänzt, die einen verteilten Dienstfreigaberaum umfassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-3517-2_15 240e1c35c04ca9b0357086489516c25f;de;;;3.3.;;;Sicherheitsrisiken von Cloud Computing und seine Entstehung als 5. Utility Service Cloud Computing wird von den großen Cloud-Dienstleistern IT-Unternehmen wie IBM, Google, Yahoo, Amazon und anderen als fünftes Dienstprogramm projiziert, bei dem Kunden Zugang zur Verarbeitung von Anwendungen und/oder Softwareprojekten haben, die eine sehr hohe Verarbeitungsgeschwindigkeit für rechenintensive und riesige Datenkapazität für wissenschaftliche, technische Forschungsprobleme und auch E-Business- und Daten-Content-Netzwerkanwendungen. Diese Dienste für verschiedene Arten von Clients werden unter DASM-Direct Access Service Management bereitgestellt, das auf der Virtualisierung von Hardware, Software und Internet-Kommunikation mit sehr hoher Bandbreite (Web 2.0) basiert. Das Papier gibt einen Überblick über diese Entwicklungen für Cloud Computing und Hardware-/Software-Konfiguration des Cloud-Paradigmas. Das Papier untersucht auch die wesentlichen Aspekte von Sicherheitsrisiken, die von IT-Branchenexperten und Cloud-Clients prognostiziert werden. Das Papier beleuchtet auch die Reaktion des Cloud-Anbieters auf Cloud-Sicherheitsrisiken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13365-7_20 3ae944224cab39252a3ea757b06dd33f;de;;;3.3.;;;Best Practices von Just-in-Time 4.0: Multi-Fallstudien-Analyse Der Zweck dieses Papiers besteht darin, ein besseres Verständnis dafür zu entwickeln, wie I4.0-Technologien schlanke Praktiken für die Just-in-Time-Fertigung verbessern können. Die Beziehung zwischen Lean-Praktiken und I4.0-Technologien wurde in den letzten Jahren untersucht, aber es ist immer noch nicht klar, wie Technologie Lean-Praktiken verbessern oder verändern kann. Die Ergebnisse dieser Arbeit basieren auf einer Literaturrecherche. Die bisherige Forschung liefert nur oberflächliche Rankings der Übereinstimmung zwischen Lean Practices und I4.0-Technologien und beschreibt nicht ausreichend, wie die Technologie zur Schaffung innovativer Lean Practices eingesetzt werden kann. Neun Arten von I4.0-Technologien werden bewertet: Sensoren & Aktoren, Cloud Computing, Big Data & Data Analytics, Integrative Technologies Assistive Technologies, Decision Support Systems Advanced Algorithm, Additive Manufacturing und Advances Vehicles. Es werden technologiebasierte Verbesserungen von Lean-Praktiken innerhalb von drei wichtigen Unterkategorien von Just-in-Time (Continuous Flow, Pull und SMED) vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6318-2_79 c0a11b3fb9ecd8077d23ce621dee3785;de;;;1.1.;;;Die Erfolgssicherung von Marken durch AuthentizitätGOOGLE wird mit der Entwicklung seines Autos ein ernstzunehmender Konkurrent der Automobilmarken. Zugleich muss gefragt werden, ob diese Erweiterung die Marke GOOGLE, die für den Marktführer von Onlinesuchmaschinen steht, stärkt oder sie nicht mehr authentisch erscheinen lassen wird? Die Marke MINI wird hinsichtlich ihrer Angebotserweiterungen durch unterschiedliche Modelle in sozialen Medien oftmals als nicht authentisch empfunden und Liebhaber der Marke proklamieren „das ist doch kein MINI mehr!“.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-22528-5_1 f4a6c1e65c195a6f6c4e97adfeab66b7;de;;;3.3.;;;SDN-Lastvorhersagealgorithmus basierend auf künstlicher Intelligenz 5G/IMT-2020-Netze müssen neue technische Voraussetzungen für die Realisierung neuer Dienste wie taktiles Internet, medizinische Dienste und andere schaffen. Die 5G-Infrastruktur wird auf Software-Defined Networking und Network Function Virtualization basieren, um ein neues Qualitätsniveau bereitzustellen. Im Allgemeinen erfordert eine beträchtliche Anzahl der verfügbaren Internetdienste und -anwendungen genaue Werte von Netzwerkparametern wie Latenz, Jitter, RTT und Bandbreite. Die SDN-basierten Technologien sollten in der Lage sein, dynamische QoS für verschiedene neue Dienste, die eine Zeitbeschränkung darstellen, zu steuern und zu verwalten. Aus diesem Grund muss der SDN-Controller, wie das Hauptelement der Netzwerkinfrastruktur, stabil und vor verschiedenen externen Bedrohungen geschützt sein. Es gibt viele Arbeiten zu dieser Aufgabe. Die meisten dieser Arbeiten zielen auf Stresstests von Hardware- und Softwareteilen ab, auch einer der De-facto-Tests für jeden Controller ist - das Generieren von OpenFlow-„Paket“-Nachrichten von einem speziellen Verkehrsgenerator. Trotzdem kann der Controller im „Life-Modus“ unterschiedlich belastet werden, beispielsweise bei ungleichmäßiger Betriebslast. Wir können nicht im Voraus verschiedene theoretische Modelle der Controller-Last erstellen. In dieser Hinsicht besteht die Notwendigkeit, einen neuen Ansatz für die Überwachung und den Vorhersagealgorithmus zu entwickeln, um vorhergesagte Modelle von OpenFlow-Aktivitäten zu erstellen. Außerdem muss dieser Algorithmus unabhängig von den Hardware-Eigenschaften des Controllers und anderen technischen Besonderheiten der Integration sein. In diesem Papier wurde ein neuartiger Ansatz für die Vorhersage der SDN-Last basierend auf Algorithmen der künstlichen Intelligenz und der vollständigen Überwachung der Aktivitäten von OpenFlow-Kanälen vorgeschlagen. Auch in diesem Papier wurde die Möglichkeit gegeben, die Belastung des Hardwareteils mit Hilfe der OpenFlow-Thread-Analyse vorherzusagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36625-4_3 d365284a80ae52dcffed3dd6dda71760;de;;;3.3.;;;Binärkompatibilität für eingebettete Systeme mit gierigem Subgraph-Mapping Wir schlagen einen neuartigen, leichtgewichtigen Codegenerierungsalgorithmus GSM (Greedy Subgraph Mapping) vor, der kompakten Code mit geringem Overhead unter Verwendung von Many-to-One-Mapping generieren kann. GSM wird in einem dynamischen binären Übersetzungsprototypsystem namens TransARM implementiert und evaluiert. Experimentelle Ergebnisse zeigen, dass GSM einen höherwertigen Zielcode erzeugt als eine herkömmliche Implementierung, was eine durchschnittliche Codeerweiterungsrate nahe 1,3 für die ausgewählten 11 Benchmarks bringt. Darüber hinaus verursacht GSM einen geringfügigen zusätzlichen Overhead und eine vernachlässigbare Verlangsamung der Übersetzung und ermöglicht eine Leistungssteigerung von 10 % für die Ausführung des Zielcodes.;-;-;-;https://link.springer.com/article/10.1007/s11432-014-5089-5 04bf424f74777eecfc71a7a6aa8dd86a;de;;;3.3.;;;Rekonstruktion von Aufgabenlisten aus Android-Anwendungen Die Popularität von Android-Geräten hat Android-Apps zu attraktiven Zielen für Angreifer gemacht. Es wurden einige statische Checker vorgeschlagen, um zu überprüfen, ob eine Android-App für Datenschutzlecks und andere Angriffe anfällig ist. Diese Checker modellieren jedoch die Kontrollflüsse in der App nach den ICC-Ereignissen und ignorieren den eigentlichen Zweck der Interaktion der Benutzer mit mobilen Geräten. Tatsächlich führen Benutzer mit mobilen Apps verschiedene Aufgaben aus, z. Online Einkaufen. Ein Android;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-4154-9_46 c5a7ca0471c5ef713015de248565dec2;de;;;3.3.;;;12–18 GHz Mikrowellen-Frequenzband-Mikrostreifen-Patch-Antennendesign für die Anwendung medizinischer Funkimplantate Die Implantation von medizinischen Funkimplantaten (IMD) in den menschlichen Körper wird immer kleiner, daher werden aufgrund des hohen Miniaturisierungsgrads und einer effizienten drahtlosen Verbindung extrem kleine Antennen gefordert, die Gewinn, Bandbreite, Impedanz und niedrige Kosten erfüllen . Diese Arbeit schlägt eine große Bandbreite von 12 GHz bis 18 GHz Microstrip Patch Antenna vor und beschreibt das Design, die Simulation, die Implementierung und die Messung, um auf den IMDs verwendet zu werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-33229-7_10 c9dba4a4923c6401ea767862fbe930e5;de;;;3.3.;;;In Richtung Randomisierung der Netzwerkkonfiguration für die Verteidigung von beweglichen Zielen In diesem Kapitel wird eine Verteidigungsarchitektur für bewegliche Ziele vorgestellt, die als Mutable Networks oder MUTE bezeichnet wird. MUTE ermöglicht es Netzwerken, ihre Konfigurationen wie IP-Adresse und Routen zufällig und dynamisch zu ändern, während die Anforderungen und die Integrität des Netzwerkbetriebs erhalten bleiben. Das Hauptziel von MUTE besteht darin, die Fähigkeiten des Gegners beim Scannen oder Auffinden von Netzwerkzielen, beim Starten von DoS-Angriffen und beim Erstellen einer Botnet-Struktur zu behindern. Dieses Kapitel stellt die Herausforderungen und Anwendungen der Verteidigung beweglicher Ziele vor und stellt auch einen formalen Ansatz zur Erstellung gültiger Mutationen von Netzwerkkonfigurationen vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-0977-9_9 10fd8182716edb9d35fea9173855061c;de;;;3.3.;;;Elastizitätsstudie: DBrain-Projekt Grid-Cloud-Integration DBrain ist ein kollaboratives Projekt, das multidisziplinäre Bereiche umfasst und in erster Linie darauf abzielt, Informationen und Unterstützung für die Interaktion zwischen Patient und Arzt über Demenz bereitzustellen. Dieses Papier untersucht die Möglichkeit und Machbarkeit der Grid-Implementierung über die Cloud-Infrastruktur, um die aktuellen Ressourcenkapazitäten für zukünftige Erweiterungen zu erweitern und zu verbessern. Das Papier präsentierte eine Studie über die Elastizität der Cloud, um effektive Betriebskosten im Rahmen des DBrain-Projekts zu erzielen. Feinere Details der aktuellen Metrik werden untersucht und für den Elastizitätsindikator erweitert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22191-0_56 5b5de9ea809949308099603f08ad5ebd;de;;;3.3.;;;Auf dem Weg zur marokkanischen virtuellen Universität: Technischer Vorschlag Aufgrund des Corona-Virus (COVID-19) und um Bildung und Schulkontinuität zu gewährleisten, sind Universitäten auf der ganzen Welt, auch marokkanische, aufgrund der Haftentscheidung abrupt und integral auf den Fernunterricht umgestiegen. Leider vollzog sich dieser Übergang abrupt, ohne dass die Hochschulen ausreichend darauf vorbereitet waren. In diesem Zusammenhang werden viele Länder auf der ganzen Welt zu virtuellen Hochschulprojekten motiviert, die es zweifellos ermöglichen werden, einige Einschränkungen im Zusammenhang mit dem Mangel an qualifizierten Arbeitskräften, Kosten- und Zeitbeschränkungen problemlos zu überwinden. Dieses Konzept bietet die gleichen Vorteile wie das E-Learning, jedoch in einer offiziellen Form, die auf eine große Anzahl von Studenten auf der ganzen Welt abzielen kann, wobei der berühmte Slogan „Bildung für alle“ respektiert wird. In diesem Papier werden wir eine marokkanische virtuelle Universitätsarchitektur vorschlagen, gefolgt von einem Überblick über Technologievorschläge, die bei der Implementierung und den Datenbehandlungsschritten helfen könnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6893-4_18 63e00f66066d5ef41496dc6c1a20e3a7;de;;;3.3.;;;Design eines Hochleistungsservers für gängige Computeranwendungen an Bord Analysieren Sie die Vorteile des „Common Computing“-Anwendungsmodells an Bord und analysieren Sie die Anforderungen an das Serverdesign und die Designideen für „Common Computing“ in Kombination mit der Schiffsanwendungsumgebung. Auf dieser Basis stellen Sie das Design der Serverstruktur, der Hardwaretopologie, des Computing Blade und des Cloud-Betriebssystems vor. Schließlich wird ein Leistungstest durchgeführt. Die physische Leistung des Server Compute Blade und die Leistung der virtuellen Maschine des Servers werden getestet und mit dem aktuellen Bordcomputer verglichen. Die Ergebnisse zeigen, dass der Server über eine hervorragende Rechenleistung verfügt und die Leistung der virtuellen Maschine besser ist als die aktueller Bordcomputer. In Bezug auf die Echtzeitleistung entspricht die virtuelle Maschine dem aktuellen Bordcomputer. Die virtuelle Maschine kann die Funktion der physischen Maschine auf Schiffen realisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1850-8_19 67650b2012203c0b163b1acabeb429f4;de;;;3.3.;;;Kostenanalyse des Wiederherstellungsblockschemas und seiner Implementierungsprobleme In diesem Papier wurde eine Kostenanalyse des Rückgewinnungsblockschemas vorgestellt. Diese Studie liefert uns das Auswahlkriterium für Alternativen und die Software-Granularität unter perfekten Akzeptanztests. Zwei Leistungsbewertungsmaße: a) Cost-Reliability-Index (CRI), b) Cost of Failure (COF) werden untersucht und verglichen. CRI ist eine bewegungsbeschränkte Maßnahme als COF. Zur Ergänzung der Analyse wurde eine experimentelle Studie durchgeführt. Die effiziente Platzierung von Wiederherstellungsblöcken und das Design von Alternativen wurde unter Bezugnahme auf Echtzeitanwendungen diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF00996135 2cf9644b9769d6cdc7cb6b7aa937035a;de;;;3.3.;;;Auswirkungen der Telematik auf die Effizienz des städtischen Güterverkehrs Der Bedarf an Telematiklösungen zur Unterstützung des Güterverkehrs und der Verteilung im urbanen Raum ergibt sich vor allem aus der Komplexität der Prozesse in städtischen Verkehrssystemen und den oft widersprüchlichen Erwartungen unterschiedlicher Gruppen von Verkehrsteilnehmern und anderen Akteuren des städtischen Güterverkehrs (Stadtverwaltungen, Anwohner , Händler, Spediteure usw.). Das Hauptziel ist die Optimierung des Güterverkehrs durch Sicherstellung einer ausreichenden Verfügbarkeit der Linien- und Punktverkehrsinfrastruktur bei gleichzeitiger Reduzierung der negativen Auswirkungen des Verkehrssystems auf die Umwelt. Die Nutzbarkeit der Telematik im urbanen Güterverkehr zeigt sich in reduzierten Frachtverteilungskosten sowie in einer gesteigerten Kapazität städtischer Güterverkehrssysteme. Dieses Papier konzentriert sich auf die Schlüsselbereiche des Telematik-Einflusses auf das Funktionieren von städtischen Güterverkehrssystemen sowie deren Einfluss auf die Systemeffizienz. Dazu wurden die ausgewählten Good Practices verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41647-7_7 7e227ae55130d9a260ced37cd2ff974f;de;;;3.3.;;;Überbrückung der Lücke zwischen Simulation und Realität bei der städtischen Suche und Rettung Die Forschungsanstrengungen im Bereich Suche und Rettung in Städten haben in den letzten Jahren enorm zugenommen. In diesem Beitrag veranschaulichen wir eine Simulationssoftware, die als Treffpunkt zwischen den Gemeinschaften von Forschern dienen soll, die sich mit Robotik und Multiagentensystemen befassen. Das vorgeschlagene System ermöglicht die realistische Modellierung von Robotern, Sensoren und Aktoren sowie komplexen unstrukturierten dynamischen Umgebungen. Mehrere heterogene Agenten können gleichzeitig in der Umgebung erzeugt werden. Wir erklären, wie das System um verschiedene Sensoren und Aktoren ergänzt wurde und zeigen, wie eine nahtlose Migration von Code zwischen realen und simulierten Robotern möglich ist. Es werden auch quantitative Ergebnisse präsentiert, die die Validierung der Simulationsgenauigkeit unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74024-7_1 8cde5433c43e02b9c84413ce95a2cc03;de;;;3.3.;;;Dynamische SMP-Cluster in der SoC-Technologie – Auf dem Weg zur massiv parallelen Feinkorn-Numerik Dieses Papier bewertet neue Architekturlösungen für die Datenkommunikation in parallelen Systemen mit gemeinsam genutztem Speicher. Diese Lösungen ermöglichen die Erstellung von rekonfigurierbaren Prozessorclustern zur Laufzeit mit einem sehr effizienten Datenaustausch zwischen den Prozessoren. Es sorgt dafür, dass Daten, die in den Datencache eines Prozessors gebracht werden, der in einen Cluster eintritt, von vielen Prozessoren in dem Cluster transparent abgefangen werden können. Eine direkte Kommunikation zwischen den Prozessorcaches ist möglich, wodurch Standarddatentransaktionen entfallen. Das System bietet gleichzeitige Verbindungen von Prozessoren mit vielen Speichermodulen, was das Potenzial für den parallelen Datenaustausch zwischen Clustern weiter erhöht. Es kommt die System-on-Chip-Technologie zum Einsatz. Spezielle Programmmakrodatenflussgraphen ermöglichen die richtige Strukturierung der Programmausführungssteuerung, einschließlich der Spezifikation der parallelen Ausführung, der Daten-Cache-Operationen, des Umschaltens von Prozessoren zwischen Clustern und des mehrfachen parallelen Lesens von Daten im laufenden Betrieb. Simulationsergebnisse aus der symbolischen Ausführung von Graphen feinkörniger numerischer Algorithmen veranschaulichen die hohe Effizienz und Eignung der vorgeschlagenen Architektur für massiv parallele feinkörnige numerische Berechnungen.;-;-;-;https://link.springer.com/chapter/10.1007/11752578_5 abbf71af28c685e82d86bb4c239c0177;de;;;3.3.;;;Ein Framework für die Leistungsmodellierung, das die kosteneffiziente Bereitstellung mehrerer zusammenarbeitender Instanzen umfasst Die Leistungsbewertung verteilter Systeme ist immer ein kompliziertes Unterfangen, bei dem das Systemverhalten auf mehrere Komponenten verteilt wird, die physisch verteilt sind. Unter Berücksichtigung dieses Konzepts skizzieren wir ein Leistungsmodellierungs-Framework für ein verteiltes System, das einen Transformationsprozess von der UML-Notation auf hoher Ebene zum SRN-Modell vorschlägt und das Modell nach relevanten Leistungsmetriken auflöst. Um die Systemdynamik durch unser vorgeschlagenes Framework zu erfassen, skizzieren wir einen Spezifikationsstil, der sich auf die UML-Zusammenarbeit und -Aktivität als wiederverwendbare Spezifikationsbausteine ​​konzentriert, während das Bereitstellungsdiagramm die physischen Komponenten des Systems und die Zuordnung von Softwareartefakten zu identifizierten Systemkomponenten identifiziert. Die optimale Bereitstellungsabbildung von Softwareartefakten auf die verfügbaren physischen Ressourcen des Systems wird durch Ableiten der Kostenfunktion untersucht. Ein Weg, mit der parallelen Thread-Verarbeitung der Netzwerkknoten durch Definieren der oberen Schranke umzugehen, wird genau erwähnt, um das SRN-Modell zu generieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22170-5_3 719caaace4925f0ed657e507b66c49f4;de;;;3.3.;;;Ein Fall für Dual-Mapping-One-Way-Caches Dieses Papier schlägt eine Dual-Mapping-Funktion für Einweg-Daten-Cache vor, um Cache-Fehltreffer, Rückschreibraten und Zugriffszeit für Single-Core- oder Multi-Core-Rechenprozessoren zu reduzieren. Unsere Simulationsergebnisse zeigen, dass Cache-Misses im Vergleich zu herkömmlichen L1-Caches deutlich reduziert werden. Für diese Simulationen mit den Benchmark-Programmen SPEC95FP und Minne SPEC2000FP wurde der Simple Scalar Simulator verwendet. Darüber hinaus hat er eine einfache Hardware-Komplexität ähnlich der eines 2-Wege-SAC (set-assoziativer Cache). Der vorgeschlagene Cache hat eine gute AMAT (durchschnittliche Speicherzugriffszeit) im Vergleich zu einem 2-Wege-Cache und verwendet auch weniger Ausführungszyklen. Simulationen über CACTI wurden durchgeführt, um auch die Auswirkungen auf die Hardware zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/11682127_10 e5ca349069e0eb4b6608a2559508cd64;de;;;3.3.;;;Eine Studie über Architektur- und Protokolldesigns für NREN Federation und Optimal Path Laut einer Analyse der jüngsten Veränderungen der Werte der Netzwerknutzer und ihres Nutzungsverhaltens sind einfache Webinformationen und unidirektionale Datenübertragungen zurückgegangen. Stattdessen sind die Nutzung von Multimedia, der steigende Bedarf an Sicherheit und Personalisierung und der Bedarf an liberaler Mobilität gestiegen. Es wird prognostiziert, dass dank dieser Veränderungen bestehende Einzeldienste schrittweise in konvergenter Form integriert werden und sich einzelne Netze zu einem integrierten intelligenten Netz entwickeln, das die unterschiedlichen Bedürfnisse der Nutzer erfüllt. Da die optischen Transportnetze immer wichtiger werden und sich der Netzwerkverkehr auf die Kommunikationsnetzkomponenten konzentriert, war es dringend erforderlich, die Überlebensfähigkeit des OTN zu sichern. Daher ist es entscheidend, dem Netzwerkdienstanbieter die gewünschte Konnektivität durch eine optimale Pfadzuweisung zwischen den Netzwerken bereitzustellen. Da die Föderation zwischen internationalen Forschungsnetzwerken wichtig wird und heutzutage versucht wird, eine große Menge an Netzwerkressourcen unter optimalen Bedingungen gemeinsam zu nutzen, war es wichtig, den optimalen Weg zu wählen und Ressourcen durch den Informationsaustausch zwischen mehreren Domänen zu teilen. Unter Berücksichtigung dieser Diversität hat diese Studie daher versucht, Architektur und Protokoll zu untersuchen, um den optimalen Pfad unter Multidomänen auszuwählen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54900-7_39 1d8f5ee9425ec87124821cacf48be84d;de;;;3.3.;;;Grundlegende Systemkonzepte: „Das Richtige“ für die Technologie des 21. Jahrhunderts Das nächste Jahrhundert wird von ehrgeizigen Versuchen geprägt sein, ultragroße Systeme wie globale Kommunikationsnetze mit hoher Bandbreite, flexible Fertigungssysteme mit hoher Autonomie und über große geografische Regionen verteilte Ökosysteme zu entwerfen, zu konstruieren oder zu verwalten. Um mit dieser überwältigenden Komplexität fertig zu werden, sind Systemkonzepte und -prinzipien erforderlich. Fads blinken weiterhin in der Szene und verblassen genauso schnell. Die dauerhaften Fortschritte weisen eine grundlegende Robustheit auf, die mit der systembasierten Methodik vereinbar ist.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-61478-8_65 425f7167df5895f7dfc0e4cf36e47071;de;;;3.3.;;;Eingeschränkte Softwareverteilung für Automobilsysteme Es gibt eine Vielzahl von Algorithmen und Technologien, um die Erforschung des Entwurfsraums für die Softwareverteilung in Bezug auf Echtzeit-, eingebettete, Multiprozessor- und gemischt-kritische Systeme zu bewältigen. Die Automobildomäne kombiniert nicht nur diese Domänen, sondern führt aufgrund verschiedener Designentscheidungen, Standards oder weiterentwickelter Methoden sogar weitere Einschränkungen und Anforderungen ein. Darüber hinaus sind Lösungen überwiegend proprietär, es fehlt oft an Eindeutigkeit, und ausgefeilte Ansätze zur umfassenden Betrachtung von Einschränkungen sind eher selten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30275-7_44 c4b34a7ff1c4ad40b14ef483c41f3c37;de;;;3.3.;;;Domänenzerlegungsstrategien zur Entwicklung paralleler Software zur unstrukturierten Netzgenerierung basierend auf PadMesh Die Netzgenerierung ist ein wichtiger Vorverarbeitungsschritt in der Computational Fluid Dynamics (CFD). Der Maßstab und die Qualität des generierten Netzes haben einen wichtigen Einfluss auf die CFD-Simulationsergebnisse. Um den Anforderungen der groß angelegten unstrukturierten Netzgenerierung gerecht zu werden, wird die Anwendung von PadMesh (einem verteilten und parallelen Netzgenerierungs-Software-Framework basierend auf der C/S-Architektur) bei der Entwicklung von paralleler unstrukturierter Netzgenerierungssoftware untersucht. Es wurden zwei Domänenzerlegungsstrategien vorgeschlagen, nämlich die Regionswachstumsstrategie und die Bounding-Box-Strategie. Drei praktische Konfigurationen wurden verwendet, um die beiden vorgeschlagenen Strategien zu verifizieren. Experimentelle Ergebnisse zeigen, dass die Region-Growing-Strategie Unterdomänen mit gutem Lastausgleich erzeugen kann, während die Bounding-Box-Strategie für die Konfigurationen mit symmetrischen Merkmalen geeignet ist und Unterdomänen mit hohem Lastausgleich und guter Datenlokalität erhalten kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8450-3_21 f05d3568be3e268d9a0fd4d8e1bb45f9;de;;;3.3.;;;Eine Analyse von Techniken und Werkzeugen zur Anforderungserhebung in modellgetriebenen Web-Engineering-Methoden Bisher ist bekannt, dass Requirements Engineering (RE) einer der kritischen Faktoren für den Erfolg von Software ist. In der aktuellen Literatur finden wir mehrere Gründe für diese Behauptung. Eine besondere Phase, die für die Entwicklung einer neuen Softwareanwendung von entscheidender Bedeutung ist, ist die Anforderungserhebung. Trotzdem scheitern die meisten Entwicklungen neuer Software an einer falschen Ermittlungsphase. Es gibt mehrere Vorschläge zur Anforderungserhebung im Software Engineering, aber der aktuelle Softwareentwicklungsmarkt konzentriert sich auf die Entwicklung von Web- und mobilen Anwendungen, insbesondere mit modellgetriebenen Methoden Anwendung im Model-Driven Web Engineering. Dazu haben wir die repräsentativsten Methoden wie NDT, UWE und WebML ausgewählt. Wir haben 189 Publikationen von ACM, IEEE, Science Direct, DBLP und World Wide Web überprüft. Publikationen aus der RE-Literatur wurden unter strikter Berücksichtigung der aktuellen Techniken zur Anforderungserhebung analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-21410-8_40 7870adb49b0d4888474a28b4b39676b0;de;;;3.3.;;;On-Rubble-Robotersysteme für das DDT-Projekt Intelligente Rettungssysteme mit fortschrittlicher Informations- und Robotertechnologie sollen Katastrophenschäden insbesondere in Japan nach dem Hanshin-Awaji-Erdbeben von 1995 mindern. Wichtig ist, dass die für Such- und Rettungsaufgaben entwickelten Roboter auch tatsächlich an einem echten Katastrophenort arbeiten können. Im September 2001 wurden mehrere Roboter für die Such- und Erkennungsoperation im eingestürzten World Trade Center-Gebäude eingesetzt Response) wurde von MEXT (Ministerium für Bildung, Kultur, Sport, Wissenschaft und Technologie, Japan) ins Leben gerufen. Es war ein 5-Jahres-Projekt für 2002-2007. Es zielte auf die Entwicklung notwendiger Technologien zur Minderung der Schäden ab, die durch großflächige Erdbeben vom Ausmaß des Großen Hanshin-Awaji-Erdbebens verursacht werden, die in dicht besiedelten Gebieten in Großstadtregionen wie der Metropolregion Tokio und der Region Keihanshin auftreten. In diesem Beitrag stellen wir die Aktivitäten der Missionseinheit zur Informationssammlung durch mobile Plattformen auf Trümmern vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84882-474-4_6 9d52b4afa45e42a58f69025e5732dcf2;de;;;3.3.;;;Human-Agent-Dialoge zu Gesundheitsthemen – Eine Evaluationsstudie Ein gemeinsames Gespräch zwischen einem älteren Erwachsenen und einer Krankenschwester über gesundheitsbezogene Themen umfasst Themen wie Schlafstörungen, Gründe für nächtliches Gehen, Schmerzzustände usw. Dieser Dialog ergibt sich aus den Denkweisen der beteiligten Menschen, ihren Rollen, Bedürfnissen und Motive, während im Verlauf des Dialogs zwischen den Themen gewechselt wird. Dieses Papier stellt ein Dialogsystem vor, das es einem Menschen ermöglicht, mit einem Softwareagenten in einen Dialog zu treten, um über gesundheitsbezogene Probleme in einer häuslichen Umgebung nachzudenken. Der Zweck dieser Arbeit besteht darin, eine Pilot-Evaluierungsstudie eines Prototypsystems für Mensch-Agenten-Dialoge durchzuführen, das auf einer Reihe semantischer Modelle aufbaut und in eine Webanwendung für ältere Erwachsene integriert ist. Schwerpunkt der Studie war es, qualitative Ergebnisse zu Zweck und Inhalt des agentenbasierten Dialogsystems zu erhalten und eine Methode für den Agenten zu evaluieren, sein Verhalten basierend auf der Wahrnehmung der Angemessenheit von Bewegungen des Agenten zu bewerten. Zu den Teilnehmern gehören fünf Therapeuten und 11 ältere Erwachsene. Die Ergebnisse zeigen das Feedback der Benutzer zum Zweck von Dialogen und zur Angemessenheit von Dialogen, die ihnen während der Interaktion mit dem Softwareagenten präsentiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19033-4_3 3790e7f7b4fa3d007369e0f50f9077b2;de;;;3.3.;;;Systolisches adaptives Beamforming In diesem Kapitel behandeln wir das wichtige Thema adaptives Beamforming oder „Null-Steering“, wie es auf ein adaptives Antennenarray zum Zweck der Rauschunterdrückung angewendet wird. Das Kapitel ist nicht als allgemeine Überprüfung oder Erörterung des Themas in Tutorials gedacht. Sie befasst sich ausschließlich mit der Anwendung systolischer Arrays auf adaptive Strahlformungsnetzwerke basierend auf der Minimierung der kleinsten Quadrate. Die hier beschriebenen Ergebnisse konzentrieren sich auf ein bestimmtes systolisches Array, das erstmals von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-77347-1_5 7a868ee3f46398cc90ff22430b4ecb59;de;;;3.3.;;;Topologiebasierte makroskopische Reaktions- und Steuerungstechnologie für Netzwerksicherheitsereignisse Die groß angelegten Netzwerksicherheitsereignisse werden zu einer großen Bedrohung für das Internet. Wie die Ausbreitung von Netzwerksicherheitsereignissen schnell erkannt und effektiv kontrolliert werden kann, ist zum Forschungsschwerpunkt von Netzwerksicherheitsexperten geworden. Durch die Kombination aktiver Topologiemessungen mit verteilter Anomalieerkennung wird ein groß angelegtes Erkennungs- und Kooperationssystem für Netzwerksicherheitsereignisse vorgeschlagen, das sich auf die makroskopische Alarmanalyse, die Auswahl von Kontrollpunkten, die Erstellung von Kontrollvorschlägen usw Anwendung Wirkung. Das experimentelle Ergebnis bewies, dass es Administratoren die direkten entscheidenden Ratschläge bietet, um eine Überschreitung von Netzwerksicherheitsereignissen zu verhindern.;-;-;-;https://link.springer.com/chapter/10.1007/11596981_83 f23e6f9059cabab38105edbf12671c2b;de;;;3.3.;;;Ein Software-Engineering-Lifecycle-Standard für sehr kleine Unternehmen Die Industrie erkennt an, dass sehr kleine Unternehmen (VSE), die Teile mit Softwarekomponenten entwickeln, für die Wirtschaft sehr wichtig sind. Diese Teile werden oft in Produkte größerer Unternehmen integriert. Wird ein Qualitätsprodukt nicht rechtzeitig und innerhalb des Budgets geliefert, gefährdet dies die Wettbewerbsfähigkeit beider Unternehmen. Eine Möglichkeit, diese Risiken zu mindern, besteht darin, dass alle Lieferanten einer Produktkette anerkannte technische Verfahren anwenden. Viele internationale Standards und Modelle wie ISO/IEC12207 oder CMMI wurden entwickelt, um bewährte Engineering-Praktiken zu erfassen. Diese Standards wurden jedoch nicht für sehr kleine Entwicklungsorganisationen mit weniger als 25 Mitarbeitern entwickelt und sind daher in solchen Situationen nur schwer anzuwenden. Eine ISO/IEC JTC1/SC7-Arbeitsgruppe wurde eingerichtet, um diese Schwierigkeiten durch die Erstellung eines auf VSE zugeschnittenen Softwareentwicklungsstandards zu lösen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85936-9_12 2904c3e1b49d2a9eb701e37a28096dc3;de;;;1.1.;;;Die Auflösung von Schreibblockaden durch Introvision: Ergebnisse einer PilotstudieDie hier vorgestellte Pilotstudie untersucht im Rahmen einer pädagogisch-psychologischen Interventionsstudie die Struktur von Schreibblockaden auf der Grundlage der Theorie subjektiver Imperative. Die Pilotstudie hatte zwei Ziele: (1) zu erproben, ob sich Introvision bei Schreibblockaden anwenden lässt sowie (2) anhand von Fallbeispielen zu analysieren, welche subjektiven Imperative bzw. imperativischen Strukturen Schreibblockaden zugrunde liegen können. Sechs studentische Versuchspersonen (fünf weibliche, eine männliche) wurden individuell mit dem Ziel beraten, Imperierungsprozesse, die das Schreiben behinderten, zu beenden. Die Beratungsgespräche wurden aufgezeichnet und transkribiert, um sie anschließend auf Grundlage des Imperativtheoretischen Textanalyse-Verfahrens Satz für Satz hinsichtlich subjektiver Imperative, Konfliktumgehungsstrategien und Kernimperative auszuwerten. Die Ergebnisse zeigen Schichten von subjektiven Imperativen, beginnend mit Imperativen bezogen auf das Schreiben in der obersten Schicht. Bei allen sechs Versuchspersonen fanden sich in der untersten Schicht Kernimperative, die mit einer Form von Todesangst oder mit ähnlich existenziellen negativen Emotionen gekoppelt waren und sich vermutlich auch auf andere Lebens- und Persönlichkeitsaspekte auswirkten.;-;-;-;https://link.springer.com/article/10.1007/s11612-008-0019-x 63659e22811ee1e19a9a7375519e0961;de;;;3.3.;;;Unterstützung des partiellen Komponentenabgleichs In diesem Papier definieren wir einen formalen Rahmen zur Beschreibung von Komponenten und Lücken oder Löchern (wo Komponenten eingesteckt werden können). Dies basiert auf der Theorie der Schnittstellenautomaten. Das Hauptaugenmerk liegt darauf, ein Bauteil zu definieren, das die Anforderungen einer Bohrung teilweise erfüllt. Ein teilweises Einstecken eines Lochs führt zu anderen Löchern. Die Definition eines partiellen Plug-Ins führt nicht zu einem eindeutigen Satz von Löchern, d. h. die resultierenden Löcher können unterschiedliche Eigenschaften haben. Wir definieren einen Software-Engineering-Prozess, der den formalen Rahmen nutzt, um den Komponentenauswahl- und Einfügeprozess abzuschließen. Der Prozess wird im Hinblick auf die möglichen Interaktionen zwischen einem Komponentenhersteller und einem Kunden, der eine Komponente sucht, definiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30555-2_34 0aa4b9cb4286eca43d3072bf26a6d438;de;;;3.3.;;;Grundlagen der Volumenvisualisierung Dieser Artikel ist ein kurzes Tutorial zu den Grundlagen der Volumenvisualisierung. Die Volumenvisualisierung bietet Mechanismen, um in volumetrische Objekte zu blicken, um das zu sehen, was normalerweise nicht sichtbar ist, und die voluminösen und komplexen Strukturen und ihre Dynamik zu untersuchen, um das zu verstehen, was normalerweise nicht verständlich ist. Es umfasst eine Reihe von Techniken, eine Technologie und eine Nomenklatur und birgt erhebliche Herausforderungen. Dieser Beitrag bietet eine kurze Einführung in die Grundlagen dieser Techniken, die Nomenklatur, Darstellungstechniken, Betrachtungs- und Schattierungstechniken, Volumensynthese, Architekturen zur Volumenvisualisierung und Anwendungen davon.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-68204-2_16 61c530a572c87c7e8667648461900a3c;de;;;3.3.;;;Tools für Parallel Computing: Eine Perspektive der Leistungsbewertung Um parallele Computerumgebungen effektiv nutzen zu können, erwarten Benutzer mittlerweile eine breite Palette von Tools, die die Infrastruktur für parallele Programmierung und Ausführung um Funktionen wie Leistungsbewertung, Debugging, Laufzeitprogrammsteuerung und Programminteraktion erweitern. Die reiche Geschichte der parallelen Werkzeugforschung und -entwicklung spiegelt sowohl grundlegende Probleme bei der gleichzeitigen Verarbeitung als auch eine fortschreitende Entwicklung von Werkzeugimplementierungen wider, die auf aktuelle und zukünftige parallele Rechenziele abzielen. Der Stand der Tools für Parallel Computing wird aus Sicht der Leistungsbewertung diskutiert. Viele der Herausforderungen, die bei parallelen Leistungswerkzeugen auftreten, sind in anderen Werkzeugbereichen üblich. Ich betrachte vier solcher Herausforderungen: Modellierung, Beobachtbarkeit, Diagnose und Störung. Der Bedarf an Werkzeugen wird in parallelen und verteilten Systemen immer vorhanden sein, aber der Schwerpunkt auf der Werkzeugunterstützung kann sich ändern. Die Diskussion wird bewusst auf hohem Niveau geführt, um die vielen wichtigen Ideen aus parallelen Werkzeugprojekten nicht auszuschließen. Vielmehr versuche ich, Standpunkte zu den Herausforderungen darzulegen, von denen ich denke, dass sie bei jedem Design von Leistungswerkzeugen von Bedeutung wären.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-04303-5_7 68b32ac2bf0d80d75c89fa75fa263e9c;de;;;3.3.;;;Automatisiertes Continuous Integration (ACI) Schema basierend auf Jenkins Continuous Integration (CI) steuert im Wesentlichen die Automatisierung von Verbesserungsverfahren oder Entwicklungsprozessen und die Build-/Code-Integration/Testautomatisierung. CI, das sich als eine so große Entwicklungspraxis herausstellt, hat auch gezeigt, wie viel profitabel das Weiterentwicklungsverfahren mit Automatisierung sein kann. Es ist zum Katalysator für Continuous Delivery (CD)-Praktiken geworden und erweitert die Automatisierung durch die gesamte Software-Pipeline, durch Organisation und Produktion. Der beste Weg, um CI schneller und zunehmend produktiver zu machen, besteht darin, den Build- und Testprozess zu automatisieren. Jenkins ist ein CI-Tool, das bei der Automatisierung des gesamten Prozesses hilft, die Arbeit eines Entwicklers verringert und den Fortschritt bei jedem Fortschritt der Softwareentwicklung überprüft. Als erweiterbarer Automatisierungsserver wird Jenkins als Basisserver verwendet oder in das Continuous Delivery Center für jedes Unternehmensprojekt umgewandelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9647-6_72 18c29b11f7fa84077bbd3f93d932015f;de;;;3.3.;;;Review zu flexiblen integrierten Photonik/Elektronik-Geräten und Fertigungsstrategie In den letzten Jahren haben flexible und großintegrierte Elektronik viel mehr Aufmerksamkeit sowohl in der Industrie als auch in der Wissenschaft auf sich gezogen, um die größere Nachfrage nach verpflanzbaren, leichten und tragbaren elektronischen Geräten der nächsten Generation zu befriedigen. Organische Elektronik und dehnbare anorganische Elektronik sind die beiden Hauptzweige der flexiblen Elektronik. Mit den halbleitenden und flexiblen Eigenschaften der organischen Halbleitermaterialien ist die flexible organische Elektronik zu einem Standbein unserer Technologie geworden. Im Vergleich zur organischen Elektronik wird dehnbare und flexible anorganische Elektronik durch mechanisches Design mit anorganischen elektronischen Komponenten auf flexiblen Substraten hergestellt, die dehnbar und flexibel sind, um sehr große Verformungen ohne Leistungseinbußen zu ermöglichen. Dieser Aufsatz fasst die jüngsten Fortschritte bei Herstellungsstrategien wie hydrodynamischer organischer Nanodrahtdruck und tintenstrahlunterstützter Nanotransferdruck flexibler organischer Elektronik sowie Siebdruck, Softlithographie und Transferdruck flexibler anorganischer Elektronik zusammen. Darüber hinaus betrachtet dieser Aufsatz groß angelegte organische und anorganische flexible elektronische Systeme und die zukünftigen Anwendungen flexibler und dehnbarer Elektronik.;-;-;-;https://link.springer.com/article/10.1007/s11432-018-9442-3 248497a285d98bbd4240b2350110e82e;de;;;3.3.;;;Auf dem Weg zu einem praktischen sicheren Framework für den mobilen Codehandel Die Absicherung des mobilen Code-Commerce ist keine leichte Aufgabe. Wir schlagen in diesem Papier einen Rahmen vor, um dieses Problem anzugehen. In einem ersten Schritt analysieren wir die grundsätzlichen Fragestellungen, die angegangen werden müssen. In einem zweiten Schritt listen wir die möglichen Techniken auf, die dafür verwendet werden können. In einem dritten Schritt erstellen wir ein Framework basierend auf der durchgeführten Analyse. Dieser Rahmen wurde implementiert, um seine Gültigkeit zu zeigen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44456-4_13 0a7cecea8f789fe8f7c32fa82e4e31c3;de;;;1.1.;;;Das EEG des Menschen beim Lernen von neuem und bekanntem MaterialThe correlation between the duration of EEG activation after presentation of learning material and the quality of eventual recall was investigated, using auditory learning material of two classes of familiarity. Novel and familiar sentences were presented to the subjects during slow wave EEG sleep. The sentence presentations were followed by EEG activations of varying duration. Recall of each sentence was classified as one of three qualities of recall: Spontaneous recall, Recognition, and No Memory. The durations of EEG activation were compared for the three qualities of recall and the two classes of familiarity. For a given quality of recall, EEG activations were shorter for familiar than for novel sentences. Recall quality of novel and familiar sentences systematically was better with increased duration of EEG activations.;-;-;-;https://link.springer.com/article/10.1007/BF00342820 cff68ede01523b854afa396a4da35aca;de;;;3.3.;;;Verwaltung von integritätserzwungenen virtuellen Anwendungen Die Sicherheit von Virtualisierungsplattformen kann verbessert werden, indem Trusted Computing-Mechanismen angewendet werden, wie beispielsweise die Durchsetzung der Integrität des Hypervisors. In diesem Papier bauen wir auf einer kürzlich vorgeschlagenen Plattform auf, die dieses Vertrauen auf Anwendungen und Dienste ausdehnt. Wir beschreiben einen Prozess, der den vollständig integritätserzwingenden Lebenszyklus einer vertrauenswürdigen virtuellen Anwendung abdeckt. Unsere Architektur ermöglicht Anwendungen den sicheren Übergang zwischen vertrauenswürdigen Zuständen, auch bei Updates des Hypervisors. In unserer prototypischen Umsetzung detaillieren wir auch die technische Umsetzung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22365-5_17 5f8b72f291312fd6c976ebf062896b77;de;;;3.3.;;;Web-Framework zur Entwicklung von Echtzeitanwendungen für den Bildungsbereich SCALE-UP-Klassenzimmer sind so konzipiert, dass sie eine Umgebung für aktives und kollaboratives Lernen bieten. Diese Lehrmethoden sind stark auf die Zusammenarbeit der Studierenden angewiesen und ihre Umsetzung in Lehrveranstaltungen mit einer hohen Studierendenzahl ist eine Herausforderung. Daher ist der Einsatz von Technologie erforderlich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-42147-6_6 9344021cbc58dea8996b549c5294546a;de;;;3.3.;;;Modernisierung des Einführungskurses in Software Engineering Wir beschreiben die Modernisierung eines grundständigen Einführungskurses in Software Engineering, der 2017–2018 (Semester 2) an der Universität von Puerto Rico begann. Wir stellen das institutionelle Umfeld, unsere zugrunde liegende Philosophie und die berücksichtigten Ressourcen vor. Unser Ziel war es, informelle Beschreibungen in jeder Phase durch formale zu ergänzen. Wir beschreiben den überarbeiteten Studiengang, diskutieren Evaluationen des modernisierten Studiengangs in zwei aufeinanderfolgenden Semestern und skizzieren Verbesserungsmöglichkeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-35629-3_7 ba8c08cc41540d62bf88213bccee48f5;de;;;3.3.;;;Verbesserung der Genauigkeit der auf der globalen Feature-Fusion basierenden Bildkategorisierung In diesem Beitrag betrachten wir die Aufgabe, Bilder der Corel-Sammlung in semantische Klassen zu kategorisieren. In unserer früheren Arbeit haben wir gezeigt, dass die Genauigkeit der überwachten Kategorisierung dieser Bilder nach dem neuesten Stand der Technik durch die Fusion einer großen Anzahl globaler Bildmerkmale erheblich verbessert werden kann. In dieser Arbeit behalten wir den allgemeinen Rahmen bei, verbessern aber die Komponenten des Systems: Wir modifizieren den Satz von Bildmerkmalen, um Histogrammmerkmale von Interessenpunkten aufzunehmen, führen eine elementare Merkmalsklassifizierung mit Support Vector Machines (SVM) anstelle einer selbstorganisierenden Karte durch ( SOM) basierten Klassifikatoren und fusionieren die Klassifikationsergebnisse entweder mit einer additiven, multiplikativen oder SVM-basierten Technik. Als Hauptergebnis dieser Arbeit sind wir in der Lage, eine signifikante Verbesserung der Bildkategorisierungsgenauigkeit durch Anwendung dieser generischen State-of-the-Art-Bildinhaltsanalysetechniken zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77051-0_1 d26ae49cf3a862d9836c41900266e3c2;de;;;3.3.;;;Geometrische Modellierung und Analyse von Knochenmikrostrukturen als Grundlage für das Gerüstdesign Knochen bestehen aus hierarchischen Bioverbundmaterialien, die in einer mehrskaligen Strukturgeometrie angeordnet sind. Diese Struktur ist anfällig für verschiedene schädliche Faktoren, die ihren Abbau verursachen können, wie Unfälle, medizinische Eingriffe und Krankheiten. Bildgebende Verfahren können bereits sehr detaillierte Mikromerkmale eines Knochens oder sogar seine vollständige volumetrische Mikrostruktur liefern. Ein dreidimensionales Modell des Knochens kann dann rekonstruiert und analysiert werden. Die aktuelle Technologie kann jedoch beschädigtes Knochengewebe nicht präzise fixieren und kann solche beschädigten Strukturen nur grob annähern, indem Gerüste mit Standardgeometrie verwendet werden. Dieses Papier schlägt eine neue Methode vor, um natürliche Gerüste zu schaffen, die sich je nach Standort, Größe und Form anpassen können. Das Verfahren basiert auf der Konstruktion des Gerüsts als volumetrische 3D-Textur, die das unregelmäßige Texturverhalten seiner Umgebung imitiert. Das Verfahren hat die Fähigkeit, eine glatte und kontinuierliche Struktur gemäß topologischen und geometrischen Merkmalen zu erzeugen. Darüber hinaus fängt die Textur die stochastische und poröse Natur der Knochenmikrostruktur ein. Die resultierende Gerüsttextur wird getestet, indem eine mechanische Analyse auf die neue synthetisierte Struktur angewendet wird, wodurch die mechanischen Eigenschaften des rekonstruierten Knochens kontrolliert werden. Wir glauben, dass unsere Methode dazu beitragen wird, das Design und die Herstellung von Gerüsten für Knochenmikrostrukturen anzupassen. Darüber hinaus können solche Gerüste den Prozess der Rehabilitation beschädigter Knochen erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-1254-6_6 95133f21068ea669e62d3f759e02734b;de;;;1.1.;;;Planung und Betrieb von Informationssicherheits-ManagementsystemenDas Interesse an der Zertifizierungsnorm ISO/IEC 27001 für Informationssicherheitsmanagement systeme ist gro gemäß ISO/IEC 27001:2005 zertifiziert. Die Zahl der Organisationen, die sich das Management der Informationssicherheit zertifizieren ließen, wuchs gegenüber dem Vorjahr um 40 Prozent. Aber der Anteil der Unternehmen und Behörden, die aus ihrem ISMS-Projekt einen stabilen ISMS-Prozess machen, ist leider relativ klein.;-;-;-;https://link.springer.com/article/10.1007/s11623-011-0005-2 b3d025ecb81748bfdda9361e2590f05e;de;;;3.3.;;;Intelligentes Grenzsicherheitssystem mit Internet der Dinge Nationale Sicherheit und Verteidigung sind für ein Land und seine Menschen unglaublich wichtig. Für zunehmende Spannungen in den Grenzgebieten aufgrund ungelöster Konflikte legen die nationalen Sicherheitssysteme derzeit mehr Wert auf die Grenzsicherung, um das Land vor Terroranschlägen, illegalem Grenzübertritt und Infiltration aus den Nachbarländern zu schützen. Um das Sicherheitssystem effizienter zu machen, wird ein Echtzeit-Grenzsicherheitssystem benötigt, das eine 24-Stunden-Überwachung in den Grenzgebieten mit hoher Genauigkeit ermöglicht und den Bedarf an menschlicher Beteiligung durch den Einsatz modernster Sensoren und Aktoren minimiert. Indische Grenzschutzkräfte installieren und übernehmen bereits neuere Technologien in Bezug auf Kameras, Nachtsichtgeräte, Radare usw. Für die effiziente und intelligente Nutzung der gesammelten Daten ist jedoch die Einbeziehung moderner und innovativer Technologien wie dem Internet der Dinge (IoT) sehr notwendig , die bereits angenommen wurde, jedoch in sehr geringem Umfang und in begrenzten Bereichen. Es ist jedoch die zuverlässige Quelle für genaue Daten und bekannt für intelligente und schnelle Entscheidungen, da es eines der Hauptbereiche der Implementierung von Big Data und Analytics ist. So wurde eine intelligente IoT-basierte Lösung zur Sicherung gefährlicher Grenzgebiete mit extremen klimatischen Bedingungen, unterschiedlichen Landformen, Flusslandschaften, unzugänglichen dichten Waldgebieten eingeführt, die für den Einzelnen sehr schwer zu überwachen sind. Dieses Papier „Smart Border Security System using Internet of Things“ schlägt ein kostengünstiges System vor, das verschiedene Sensoren wie den Passiv-Infrarot-Sensor (PIR) und das Kameramodul OV7670 verwendet, um die Bewegung jedes Objekts innerhalb einer Reichweite zu erkennen und Bilder von Eindringlingen aufzunehmen. Das System kann die erfassten Daten auf einen Cloud-Server hochladen, der auch über eine Web- und Desktop-Anwendung in einer Basisstation abgerufen werden kann. Das System kann auch eine Warnung an die Basisstation senden, indem es die erfassten Daten verarbeitet. Außerdem ermöglicht es dem Benutzer, d. h. dem geschulten Sicherheitspersonal, die Kamera zu steuern und Daten von ihr aus der Ferne abzurufen. Durch das vorgeschlagene System ist es möglich, den Eindringling, der den Grenzbereich überquert, sofort zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-66763-4_23 01fcd864bd6b403bac25a33af989df97;de;;;3.3.;;;Teamleistung in agilen Entwicklungsteams: Erkenntnisse aus 18 Fokusgruppen Wie man Teams zu einer guten Leistung bringt, wird in der Softwareentwicklung immer wichtiger, da agile Entwicklungsmethoden die Entwicklung in kleinen Teams vorschreiben. Die Teamleistung wurde in einer Reihe von Forschungsbereichen untersucht, und es gibt viele Modelle dafür, was Teamleistung ermöglicht. Eine zentrale Frage ist dann, wie relevant diese Modelle für agile Entwicklungsteams sind. Dieser Artikel geht der folgenden Forschungsfrage nach: Welche Faktoren nehmen agile Softwarepraktiker wahr, um effektive Teamarbeit zu beeinflussen, durch eine Fokusgruppenstudie mit 92 Teilnehmern in 18 Gruppen. Die wichtigsten Ergebnisse sind, dass das, was agile Praktiker wahrnehmen, die Teamleistung fördert und hemmt, gut mit den Aussagen eines bestehenden forschungsbasierten Modells übereinstimmt. Agile Praktiker scheinen sich jedoch nicht ausreichend auf das Backup-Verhalten zu konzentrieren. Agile Praktiker legen großen Wert auf die physische und technische Infrastruktur des Entwicklungsteams als Ermöglicher der Teamleistung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38314-4_4 013a44077c28ef012606ca7ae688e9aa;de;;;3.3.;;;Modellgetriebene Programmtransformation eines großen Avionik-Frameworks Modellgetriebene Ansätze der Softwareentwicklung in Verbindung mit einer domänenspezifischen Bildsprache helfen dabei, das Wesen eines großen Systems in einer dem Domänenexperten vertrauten Notation zu erfassen. Ausgehend von einem domänenspezifischen Modell auf hoher Ebene ist es möglich, die Konfigurationsmerkmale, die ein System besitzen muss, prägnant zu beschreiben und zusätzlich zu prüfen, ob das Modell die semantischen Eigenschaften der Domäne beibehält. In Bezug auf große Legacy-Anwendungen, die in unterschiedlichen Programmiersprachen geschrieben wurden, besteht das Hauptproblem der Transformation in der Schwierigkeit, die Legacy-Quelle an die sich entwickelnden Funktionen anzupassen, die im entsprechenden Modell spezifiziert sind. Dieses Papier stellt einen Ansatz vor, um modellgetriebene Entwicklung mit einer ausgereiften Programmtransformations-Engine zu vereinen. Das Papier beschreibt eine Technik zur Durchführung einer weit verbreiteten Anpassung von Quellcode aus Transformationsregeln, die aus einer domänenspezifischen Modellierungsumgebung für ein großes Avionik-Framework generiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30175-2_19 ea394c1da200550c530e752ad9bbd94a;de;;;3.3.;;;Angewandte Technologien und Systeme Dieses Kapitel zeigt angewandte Technologien, die Modelle der Computeranatomie (CA) verwenden. Auf klinischen Bildern basierende CA-Systeme unterstützen Ärzte, indem sie nützliche Informationen in Bezug auf diagnostische und therapeutische Verfahren bereitstellen. Solche Systeme umfassen computergestützte Diagnose- und computergestützte Chirurgiesysteme. Ein gründliches Verständnis der Anatomie ist bei der Gestaltung dieser Systeme unerlässlich. Es ist wichtig zu verstehen, wie von einem Computer extrahierte anatomische Informationen verwendet werden. In diesem Kapitel stellen wir Anwendungen der CA in drei Kategorien vor: (a) computergestützte Diagnose, (b) computergestützte Therapie und Intervention und (c) computergestützte Autopsie-Bildgebung. Die technischen Details dieser Anwendungen werden besprochen.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-55976-4_4 35169831b616ff813c248b6a98c782de;de;;;3.3.;;;Eine ILP-Formulierung für die Aufgabenplanung auf heterogenen Chip-Multiprozessoren Eine der Hauptschwierigkeiten bei der Abbildung einer eingebetteten Anwendung auf eine Multiprozessorarchitektur besteht darin, dass es aufgrund verschiedener Einschränkungen mehrere Möglichkeiten für diese Abbildung gibt. In diesem Papier stellen wir ein auf Integer Linear Programming basierendes Framework vor, das eine gegebene Anwendung (dargestellt als Task-Graph) auf eine heterogene Chip-Multiprozessorarchitektur abbildet. Unser Framework kann mit mehreren objektiven Funktionen wie Energie, Leistung und Fehlbarkeit (Gegensatz von Zuverlässigkeit) verwendet werden. Wir verwenden Dynamic Voltage Scaling (DVS), um den Energieverbrauch zu reduzieren, während wir Aufgabenduplizierung verwenden, um die Fehlbarkeit zu minimieren. Unsere experimentellen Ergebnisse zeigen, dass durch die Verwendung von DVS mehr als 50 % Verbesserungen des Energieverbrauchs möglich sind und dass die vollständig aufgabenduplizierten Zeitpläne unter engen Leistungs- und Energiegrenzen erreicht werden können.;-;-;-;https://link.springer.com/chapter/10.1007/11902140_30 90766d14db0042382f55badcb097e609;de;;;3.3.;;;Metrikbasierte Variabilitätsbewertung von Code-Assets Die potenziellen Vorteile der Wiederverwendung von Software motivieren den Einsatz von komponentenbasierter Softwareentwicklung und Softwareproduktlinien. Bei diesen Softwareentwicklungsmethoden werden Software-Assets wiederverwendet. Variabilitätsmanagement ist ein Grundsatz der Wiederverwendung von Software. Variabilität ist die Fähigkeit von Software, Variantenanforderungen zu erfüllen. Die Variabilität als zentraler Akteur bei der Wiederverwendung und ein wichtiges Merkmal wiederverwendbarer Komponenten muss gemessen werden. In diesem Papier erkennen wir diesen Bedarf an und identifizieren Variabilitätsmaße. Variabilitätsimplementierungsmechanismen werden analysiert, gefolgt von Metriken. Die Metriken werden auf Open-Source-Komponentencode angewendet und die Ergebnisse werden durch ein Experiment mit Menschen validiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22203-0_6 0a52901d2a4e12fc2b7f527b5beff8ea;de;;;3.3.;;;Vereinfachtes, ultra-eng gekoppeltes integriertes BDS/INS-Navigationssystem Aufgrund von Vorteilen wie niedrige Kosten, geringe Größe, geringes Gewicht, geringer Stromverbrauch, leistungsstarke Entstörungsfähigkeit und hohe Dynamik werden ultradicht gekoppelte GNSS/MIMU-integrierte Navigationssysteme häufig in Projektil- und präzisionsgelenkten Munitionen eingesetzt. Um die Nichtlinearität der Basisband-Signalverarbeitung und die Komplexität des Navigationsfilters zu überwinden, entwerfen wir in diesem Artikel eine neuartige Architektur für das ultra-engan gekoppelte (UTC) Beidou-Navigationssatellitensystem (BDS)/INS-Integration basierend auf dem BDS B3-Signal , einschließlich der Kombination von Codephasen- und Trägerphasendynamik-Basisband-Vorfiltermodell und den Navigationsfilternavigationsfehlerausbreitungs- und Messmodellen. Um die Taktzustandskomponenten zu eliminieren, d. h. den Empfängertaktversatz und die Taktdrift, werden die aus Basisbandsignalvorfiltern erhaltenen Pseudorange-, Delta-Pseudorange- und Delta-Pseudorange-Ratenreste zwischen zwei Satelliten differenziert. Basierend auf dem BDS/INS-Simulator wird ein Testsystem für das integrierte Navigationssystem UTC BDS/INS entwickelt und die UTC-Leistung bewertet. Es werden einige vorläufige Schlussfolgerungen über die Wirksamkeit des UTC-BDS/INS-Integrationsansatzes gezogen.;-;-;-;https://link.springer.com/article/10.1007/s11432-014-0838-7 118ccccc97aa64f310c454d5ee356cc0;de;;;3.3.;;;Ein Netzwerkalgorithmus für relationale Datenbankoperationen Dieses Papier schlägt einen einheitlichen Netzwerkalgorithmus für relationale Datenbankoperationen vor. Ein beliebtes Shuffle-Exchange-Netzwerk wurde gewählt, um nicht nur relationale Algebra-Operationen, sondern auch Aggregations- und Mengenoperationen zu realisieren. Entwurfsprobleme zum Implementieren der Operationen auf einem Prozessorarray werden ebenfalls vorgestellt. Mikroprogrammierte Prozessoren wurden mit zwei möglichen Netzwerkorganisationen entwickelt, die als „mehrstufig“ bzw. „einstufig“ bezeichnet werden. Zur Evaluierung der Architektur wurde eine Softwaresimulation entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-1679-4_15 b80e66cc7f06f8c2fcf05287925317f9;de;;;3.3.;;;Automatisiertes Testen der Web-Service-Komposition als Service Cloud Computing bringt neue Geschäftsmöglichkeiten und Dienstleistungen auf Infrastruktur-, Plattform- und Softwareebene. Es bietet eine neue Möglichkeit zum Testen von Softwareanwendungen, die als Testing-as-a-Service (TaaS) bekannt ist. TaaS macht die Installation und Wartung von Testumgebungen auf Kundenseite überflüssig und reduziert die Testkosten auf Pay-per-Use-Basis. Die Verfügbarkeit von On-Demand-Testservices ermöglicht es Testern, Cloud-Rohressourcen zur Laufzeit bereitzustellen, wann und wo sie benötigt werden. Dieses Papier befasst sich mit den Vorteilen von TaaS, indem es ein TaaS-fähiges Framework vorschlägt, das Cloud-basierte Testdienste bietet. Das Framework namens Testing as a Service Software Architecture (TASSA) unterstützt das Testen von Webservice-Kompositionen, die mit der Business Process Execution Language for Web Services (WS-BPEL) beschrieben werden. Es besteht aus zwei Hauptkomponenten: (1) TaaS-Funktionalität zur Fehlerinjektion und Abhängigkeitsisolierung der zu testenden Anwendung und (2) grafische Benutzeroberfläche (GUI) für das Design und die Ausführung von Testfällen. Das TASSA-Framework könnte auf einem lokalen Computer installiert oder zum Aufbau eines Cloud-Testlabors auf einer virtuellen Maschine verwendet werden. Die Machbarkeit wird anhand einer Fallstudie an einem beispielhaften Geschäftsprozess aus der Weinindustrie nachgewiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-66302-9_6 4a578978403e0a2c5390da8945266ba9;de;;;3.3.;;;Wirkung von 3D-Druckorthesen auf die Handödemrehabilitation von Schlaganfallpatienten Dieses Papier bietet eine optimierte Rehabilitationsorthese für Handgelenk und Hand, die im 3D-Druck hergestellt wird. An dieser Studie zur Wirkung der Orthese über die 6-wöchige Dauer war eine Studiengruppe von Schlaganfallpatienten mit Handödem beteiligt. Die Wirkung der Orthesen auf das Handödem wurde untersucht, indem vor und nach dem Tragen der Orthesen sieben Schnittgrößen mit einem 3D-Scanner gemessen wurden, darunter die Dicke der Handfläche, der Umfang des Handgelenks, das Interphalangealgelenk des Daumens und das proximale Interphalangeal von vier Fingern . Die Ergebnisse zeigten, dass es vor und nach dem Tragen von Orthesen signifikante Unterschiede in verschiedenen Dimensionen der Hand gab (P ≤ 0,005). Dies deutet darauf hin, dass sich 3D-Druckorthesen positiv auf die Reduzierung von Handödemen auswirken.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6318-2_68 d61b5f4e14e5c6ba44246b3e8ad533e4;de;;;3.3.;;;Socialware für Menschen mit kognitiven Behinderungen Socialware ist ein Multiagentensystem, das soziale Aktivitäten in der symbiotischen Gesellschaft unterstützt. In diesem Kapitel haben wir uns auf die Unterstützung von Menschen mit kognitiven Behinderungen wie Demenz, Aphasie, höherer zerebraler Dysfunktion und Senioren mit kognitivem Verfall konzentriert. Wir schlagen eine allgemeine Socialware-Architektur für Menschen mit Behinderungen als Multiagenten-Systeme vor, die sich aus persönlichen, Kommunikations- und Community-Agenten zusammensetzen. Drei experimentelle Systeme werden vorgestellt: ein vernetztes Erinnerungssystem, ein Gehnavigationssystem mit Fotos und ein Gesprächsunterstützungssystem für Menschen mit Aphasie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16083-7_10 49c8df15962846181e6dad7f65c3063e;de;;;3.3.;;;Verwendung von Blockchain für die Rückverfolgbarkeit in der Arzneimittelversorgungskette Der illegale Handel mit Medikamenten ist ein Problem, das weltweit Menschenleben gefordert hat. Trotz der Bemühungen verschiedener internationaler Institutionen, diese Situation zu stoppen, nehmen die illegalen Verkäufe weiter zu. Der folgende Artikel schlägt den Einsatz der Blockchain-Technologie als Lösung für die Rückverfolgbarkeitsprobleme und den Mangel an Kontrolle im Drogenhandel sowie die Art und Weise vor, wie verschiedene Unternehmen daran teilnehmen würden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-21451-7_46 323a525508b9107daa3ab99162d55a4d;de;;;3.3.;;;Indoor-Lokalisierung basierend auf resonanten oszillierenden Magnetfeldern für AAL-Anwendungen Aufbauend auf dem Grundkonzept eines kostengünstigen, robusten Indoor-Ortungssystems auf Basis von Magnetresonanzkopplung, das wir in früheren Arbeiten vorgestellt haben, beschreiben wir unseren Beitrag zum EVAAL Indoor Location-Wettbewerb. Das physikalische Grundprinzip des Systems macht es äußerst robust, da die Signale kaum durch den menschlichen Körper oder Gegenstände in der Umgebung beeinflusst werden (außer massive Metallgegenstände, die jedoch meist nur lokal Einfluss haben). Über die bisherige Arbeit hinaus geben wir eine detaillierte Beschreibung der Verarbeitungsarchitektur, zeigen, wie das System allein auf Basis des Grundrisses aufgebaut werden kann (keine standortspezifischen Schulungen oder Messungen erforderlich), präsentieren die Softwaretools, die für Systemeinrichtung und -anwendung und bewerten grundrissbasierte Einrichtung unter besonderer Berücksichtigung des Einflusses mehrerer Personen und Änderungen in der Möbelkonfiguration.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41043-7_12 734f618678ff8c8979194d2f2fb65f01;de;;;3.3.;;;Die Struktur und Semantik von Akteursprachen Das Akteurmodell wird als Grundlage für die nebenläufige objektorientierte Programmierung entwickelt. Das Modell sorgt für Nicht-Interferenz von Zustandsänderungen mit mehreren Threads, inhärente Parallelität, Rekonfigurierbarkeit, Kapselung des Namensraums und schwache Fairness. Der Beitrag gibt einen Überblick über die Arbeit in Akteursprachen und lässt sich in zwei Bereiche unterteilen: nämlich formale Aspekte des Akteurmodells und die Struktur von Akteursprachen. Wir bieten eine abstrakte Sicht auf Akteursberechnungen in Form von Ereignisdiagrammen und den Gesetzen des Concurrent Computing. Den Ereignisdiagrammen kann eine Semantik in Bezug auf Potenzbereiche gegeben werden. Anschließend definieren wir die notwendigen Konstrukte in einer minimalen Akteursprache. Dies stellt die Bausteine ​​zum Konstruieren einer reichen Vielfalt von gleichzeitigen Rechenstrukturen bereit. Der zweite Teil des Papiers zeigt, wie diese Strukturen auf höherer Ebene in Bezug auf die Akteur-Primitive aufgebaut sind. Insbesondere veranschaulicht diese Diskussion, wie verzögerte Auswertung, Streams, Fortsetzungen, Funktionen höherer Ordnung und andere Strukturen in Bezug auf Akteursprachen aufgebaut werden können. Wir stellen auch einige Erfahrungen aus der Implementierung von Akteursystemen fest und argumentieren für die möglichen Vorteile, die durch diese Arbeit entdeckt werden. Schließlich diskutieren wir einige neuere Forschungen zur computergestützten Reflexion. Diese Arbeit bietet die Möglichkeit, Kontrolle zu modellieren und die Vererbung als eine vom Programmierer definierte Methode statt als ein vordefiniertes linguistisches Objekt zu behandeln. Die daraus resultierende Flexibilität steht ganz in der Schauspielertradition von Sprachen.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0019439 91b36de067cb32f6668836e6ade3c311;de;;;1.1.;;;Theorie der persuasiven Kommunikation und empirische BefundeDas Studium der Bedingungen und Effekte persuasiver Kommunikation ist als Teilbereich der Wirkungsforschung ein Forschungsschwerpunkt der Kommunikationswissenschaft. In diesem Abschnitt werden theoretische Ansätze persuasiver Kommunikation sowie empirisch gewonnene Erkenntnisse vorgestellt, soweit sich die Konzepte auf Werbung — im Sinne von Massenkommunikation ohne direkte Rückkoppelung — übertragen lassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-97070-1_2 9d8a443e2ea22de1d02aac93befb25fe;de;;;3.3.;;;Software-Energieoptimierung von präemptiven Echtzeit-Tasks durch Minimierung der Cache-bezogenen Präemptionskosten Es wurde ein Versuch unternommen, die Softwareenergie von präemptiven Echtzeit-Tasks zu optimieren, indem die Cache-bezogenen Präemptionskosten minimiert werden, die hauptsächlich aufgrund der Inter-Task-Interferenz im Cache anfallen. Wir haben einen Algorithmus vorgestellt, der ein „optimales“ Task-Layout ausgibt, das die Inter-Task-Interferenz im Cache insgesamt reduziert und somit die Vorkaufskosten jeder Task eines gegebenen Task-Sets reduziert. Wir haben das Ergebnis unseres geschätzten Layouts mit dem des zufälligen Layouts verglichen, das für Benchmark-Beispiele generiert wurde, um die Leistung unseres Algorithmus zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-47847-7_28 6eae7a1b865b6841a1512eae0ac8cd5b;de;;;3.3.;;;Verteiltes Steuerungssystem in mobilen Roboteranwendungen: Allgemeiner Ansatz, Realisierung und Verwendung Dieser Artikel soll eine allgemeine Vorstellung davon vermitteln, wie die Robotersteuerung mit einem verteilten Netzwerk eingebetteter Geräte organisiert wird. Es ist ein Versuch, einfache Konzepte zu formulieren, die den Teammitgliedern eine einfachere Zusammenarbeit während der Entwicklung ermöglichen. Es wird erwartet, dass der vorgeschlagene Ansatz, wenn er richtig beschrieben, verstanden und implementiert wird, eine gute Plattform für die gleichzeitige individuelle Software- und Hardwareentwicklung und für die Ausbildung neuer Teammitglieder bildet. Die Flexibilität eines solchen Ansatzes führt zu einem bequemen modularen Roboterdesign. Die Umsetzung des vorgeschlagenen Ansatzes wird auch mit einer Hardware-Version des Embedded Controller Boards eingeführt, das das „Herz“ und das „Gehirn“ jedes Moduls auf dem Roboter ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27272-1_16 e9b8378bc6a707b936668ebc871254d5;de;;;3.3.;;;RoboStar-Technologie: Modellieren von Unsicherheit in RoboChart mit Wahrscheinlichkeit RoboChart ist eine UML-ähnliche Sprache zur Modellierung autonomer und mobiler Roboter. Es enthält zeitgesteuerte und probabilistische Primitive. In diesem Kapitel diskutieren wir zunächst, warum wir Wahrscheinlichkeit brauchen, indem wir untersuchen, wie wir sie beim Entwerfen von Robotern verwenden. Um unseren Ansatz zu veranschaulichen, konzentrieren wir uns auf die Verifikation probabilistischer Roboteralgorithmen zur Posenschätzung. Wir verifizieren einen Modellanpassungsalgorithmus: Zufallsstichprobenkonsens (Ransac). Dies ist ein beliebter Algorithmus, der für eine Klasse von Partikelfilteralgorithmen repräsentativ ist. Wir analysieren die Aspekte des Algorithmus und zeigen, wie man Eigenschaften modelliert und wie man mit einer Programmlogik stärkere Garantien erhält. Unsere Beiträge sind eine Übersicht über probabilistische Roboteranwendungen und ein Ansatz zur Verifizierung probabilistischer Algorithmen, die mit der RoboStar-Technologie entwickelt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-66494-7_13 08d1e339b0d6c20809b05950d607c390;de;;;3.3.;;;Echtzeit-Implementierung eines 4x4-MIMO-OFDM-Systems für 3GPP-LTE basierend auf einem programmierbaren Prozessor MIMO-OFDM wird derzeit als vielversprechende Technologie für zukünftige Breitband-Funksysteme angesehen. Inzwischen bildet die Detektion von MIMO-OFDM-Systemen eine der intensivsten Aufgaben in der Basisband-Signalverarbeitung. Es wurde eine große Anzahl von Algorithmen für die MIMO-OFDM-Erkennung vorgeschlagen. Dieses Papier untersucht die Echtzeit-Implementierung von MIMO OFDM-Systemen unter Verwendung eines programmierbaren Multi-SIMD-Prozessors (Single Instruction Multiple Data) für softwaredefinierten Funk. Wir analysieren die Recheneigenschaften und die Kosten der wichtigsten Algorithmen von LPF, Symbolsynchronisation, OFDM-Modulation, Kanalschätzung und MIMO-Erkennung eines 4x4-MIMO-OFDM-Systems basierend auf dem 3GPP-LTE R-12-Standard. Die Evaluierungs- und Implementierungsergebnisse zeigen, dass unsere SDR-Architektur ein 300Mbps LTE-System mit 20MHz Bandbreite unterstützt. Schließlich diskutieren wir die Architekturperspektive unseres SDR-Prozessors für zukünftige drahtlose Kommunikationsstandards mit höherem Durchsatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41635-4_4 9fa9efeefdb0109aed8a7653cf15d505;de;;;3.3.;;;Reduzierung der Arbeitsbelastung der Studierenden in einem Software-Engineering-Projektkurs Software-Engineering-Projektkurse sind für Studierende sehr wertvoll, erfordern aber oft viel zu viel Arbeit. In diesem Bericht werden einige Methoden zur Reduzierung der Arbeitsbelastung der Studierenden solcher Kurse unter Beibehaltung der wichtigen Vorteile erörtert.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0043596 25d960a383dabd5a9e6a1926c6159463;de;;;3.3.;;;Leistungsanalyse einer NB-IoT-basierten Smart Lamp-Lösung mit anwendungsfähiger Plattform Das NB-IoT-Netzwerk (Narrow Band Internet of Things) hat sich als geeignet erwiesen, alles mit geringem Energieverbrauch, hoher Parallelität zu geringen Kosten zu verbinden. In diesem Papier haben wir ein NB-IoT-basiertes intelligentes Lampenschema vorgeschlagen, um die Probleme traditioneller Straßenlaternen zu lösen, wie z. Direktzugriff, gestaffelte Spitzenkommunikation und ein vernünftiger Heartbeat-Mechanismus werden vorgeschlagen, um die weiche Kapazität des Systems zu verbessern. Das kommerzielle Projekt zeigt, dass die von uns vorgeschlagene Lösung jede einzelne Lampe effektiv verwalten kann. Die Online-Rate und die Kommunikations-Erfolgsrate entsprechen den Erwartungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-24271-8_28 ad289c24f9a4177f19cf983c03408367;de;;;3.3.;;;Design und Implementierung eines serviceorientierten Learning Resource Grid-Demonstrationssystems Kombiniert die Technologie des serviceorientierten mit Lernressourcenraster, schlug dieses Papier seine Lösung des Demonstrationssystems vor. Zunächst wurde die Architektur des Lerndemonstrationssystems vorgestellt und die Dienste im System diskutiert. Anschließend wurde das Lernressourcenraster-Demonstrationssystem aus der Datenunterstützungsschicht und der Visualisierungsschicht im Detail entworfen. Schließlich zeigte das implementierte System nicht nur den Service-Aufrufprozess visuell, sondern ermöglichte den Lernenden oder Benutzern auch ein tieferes Verständnis von Grid.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20370-1_3 f9859913c9ed12503760fd6f41c8135d;de;;;3.3.;;;Assertionsbasierte Verifizierung für den SpaceCAKE-Multiprozessor – eine Fallstudie Dieses Papier präsentiert eine Fallstudie zur Anwendung von Assertions-basierter Verifikation auf ein Multi-Millionen-Gate-Design der SpaceCAKE-Architektur mit gemeinsamem L2-Cache. Der SpaceCAKE L2-Cache ist hochgradig konfigurierbar und implementiert eine Distributed Shared Memory (DSM)-Architektur. In diesem Papier werden die Probleme erörtert, die bei der funktionalen Verifizierung dieser Architektur auftreten. Eine Reihe von Techniken wird verwendet, um das Design zu verifizieren. Das Papier dient als Fallstudie zur Verifizierung einer solch komplexen Architektur. Eine Beschreibung der verschiedenen Techniken, die verwendet wurden, um diese Architektur zu verifizieren, und eine Bewertung der Verwendung eines umfassenden abdeckungsgesteuerten Verifikationsplans, der die Vorteile der traditionellen Simulationstechniken durch die Verwendung von Zusicherungen nutzt, wird vorgestellt. Wir haben festgestellt, dass die derzeit vom Markt bereitgestellten Tools für einen zusicherungsbasierten statischen Verifikationsansatz mehr Reife benötigen. Durch die Verwendung von Assertionen wurde eine 50%ige Reduzierung der Debug-Zeit erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/11678779_4 c9f4c2f7aff240aaccd495e93225cfe8;de;;;3.3.;;;Eine neue formale Testmethode für vernetzte Softwareintegrationstests In diesem Papier werden Integrationstests für vernetzte Software betrachtet, die durch die Zusammenstellung mehrerer verteilter Komponenten auf interoperable Weise erstellt wird. Bei Verwendung der traditionellen Einzelautomaten-basierten Testansätze leiden wir unter dem zustandskombinatorischen Explosionsproblem. Außerdem sind möglicherweise mehrere generierte Testfälle nicht ausführbar. In diesem Beitrag wurde eine Testmethode vorgeschlagen, die auf dem Automatennetz basiert, das die Erweiterung von Kommunikationsautomaten ist. Der Zustands-/Übergangspfad (S/T-Path) ist definiert, um die Ausführung der zu testenden Software zu beschreiben. Die Testfälle werden konstruiert, indem die atomaren S/T-Pfade und alle ausführbaren Dateien kombiniert werden. Die Testfälle werden aus den lokalen Übergangsstrukturen und dem Interaktionsverfahren zwischen Komponenten berechnet, so dass das zustandskombinatorische Explosionsproblem nicht angetroffen wird. Die Generierung von Testfällen für bestimmte Software und der Nutzen für die Probleme werden diskutiert. Die Ergebnisse zeigen, dass unsere Methode bessere Eigenschaften hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12165-4_37 df3446e0ef9932fd40ace43aa69c23e4;de;;;3.3.;;;Unit-Tests in einer globalen Softwareentwicklungsumgebung Die globale Softwareentwicklung hat viele Herausforderungen. Darunter ist auch die Aufrechterhaltung der Qualität des Codes, der in verteilten Sites entwickelt wird, eine Herausforderung. Eine effektive Möglichkeit, die Qualität des Codes zu kontrollieren, ist der Unit-Test. Es beseitigt Fehler in der frühen Entwicklungsphase und reduziert den Test- und Wartungsaufwand in der späteren Phase des Entwicklungslebenszyklus weiter. In diesem Beitrag wird eine Klassenkomplexitätsmetrik zum Testen der Klasse vorgeschlagen, die in der objektorientierten Programmierung normalerweise als Einheit behandelt wird. Die Anwendbarkeit von Klassenkomplexitätsmetriken für Komponententests wird durch ein Projekt in JAVA gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8527-7_25 c6ce715a919d1bc728aa8fe8941953ce;de;;;3.3.;;;Von Akteuren und nebenläufigen Objekten zur agentenorientierten Programmierung in Heute erleben wir eine grundlegende Wendung von Software hin zu Nebenläufigkeit, Verteilung und Interaktion im Programmieralltag. Dies erfordert die Einführung weiterer Abstraktionsschichten zusätzlich zu den Mainstream-Programmierparadigmen, um die Komplexität, die eine solche Wende mit sich bringt, effektiver anzugehen. Zu diesem Zweck,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44471-9_17 2fb0cae2a2ac1127d8611f24abc73bef;de;;;3.3.;;;Die Eigenschaften des Smart MicroGrid als Objekt der Informationsmodellierung Dieses Papier beschreibt die Funktionen von Smart MicroGrid und erklärt das entsprechende Informationsmodell dieses Systems, das zuvor erstellt wurde. Es wurden Bewertungstechniken für Informationsleistungssysteme und vorhandene Methoden ermittelt, die in Informationssystemen mit Simulationstools zur Klassifizierung angewendet werden können. Dieses Papier vergleicht verschiedene Werkzeuge zur Modellierung, die auf der Nutzung erneuerbarer Energiequellen basieren. Das System muss grundlegende Punkte kombinieren: Bewertung von Energiequellen in der Region, deren Berechnung, Empfehlungen zum Aufbau von Energie Smart Grids auf Mikronetzebene und Modellierung ihrer Arbeit. Unser Ziel ist die Definition bestehender Ansätze, die in zukünftigen Systemen verwendet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11958-8_2 1fa9be0c88a7e1504e4b3642de27458d;de;;;3.3.;;;Vorlagen in der Domänenmodellierung – Eine Umfrage Konzeptionelle Modellierung ist oft stark mit einer grafischen Sprache verbunden. Seit den 80er Jahren werden auch Template-basierte Ansätze vorgeschlagen. Sie erreichten jedoch selten die gleiche Popularität wie grafische Ansätze. Dennoch sind auch vorlagenbasierte Ansätze für die Sammlung und Darstellung von Informationen wichtig. Dieses Kapitel gibt einen Überblick über Ansätze, die Vorlagen verwendet und verwenden. Es wird gezeigt, wie diese Vorlagen verwendet werden und warum ihre Rolle wichtig ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17505-3_2 cf9d06fb4affcf4f5d5dee9d9eea3cc3;de;;;3.3.;;;Kontinuierliches Verbesserungsprozessmodell zur Unterstützung des Aufbaus von Systemdesignumgebungen für das Internet der Dinge Ziel des Artikels ist es, ein Prozessmodell der kontinuierlichen Verbesserung für Designunterstützungssysteme, das Internet der Dinge (IoT) und hergestellte skalierbare Systeme aufzubauen. Das entwickelte Modell basiert auf den Erfahrungen der Autoren aus dem Designprozess von IoT-Knoten. Aus diesem Grund stellt der Artikel sowohl das Forschungsexperiment vor als auch das Ausmaß, in dem dieses Experiment auf die Notwendigkeit hinwies, die Fertigungsumgebung zu gestalten. Um dieses Ziel zu erreichen, ist der Artikel in vier Hauptteile gegliedert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3380-8_37 d28dc79f4a8e6cf98e0e4d5e1d4d2e42;de;;;3.3.;;;Eine vergleichende Untersuchung von aspektorientierten und objektorientierten Implementierungen: Anwendungsfall für ein durchdringendes System Pervasive Computing wird Realität. Einerseits werden sie in einer Vielzahl von kleinen Geräten und Appliances eingesetzt, andererseits müssen sie sich stark ändernden Ausführungskontexten bewusst sein. Anpassung ist das wichtigste Querschnittsthema von Pervasive Computing-Anwendungen. In diesem Papier diskutieren wir unsere Erfahrungen mit der Implementierung einer adaptiven Anzeigeumgebung mit aspektorientierter Programmierung. Wir vergleichen die aspektorientierte Implementierung mit einer eigenständig entwickelten objektorientierten Implementierung der Umgebung. Der Vergleich zeigt, dass ein aspektorientierter Ansatz tatsächlich effektiver ist, Anpassungen wiederverwendbar, wartbar und entwicklungsfähig zu modularisieren. Es reduziert auch die Komplexität der Implementierung in Bezug auf die obigen drei wünschenswerten Attribute. Gleichzeitig stellt unsere Erfahrung einige der bestehenden Vorstellungen über die Granularität von Aspekten innerhalb einer Anwendung in Frage und unterstreicht auch die Notwendigkeit von Entwicklungsrichtlinien und Redewendungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22410-2_15 6bb84df2b2d5a2bc3e21d2cf13233f13;de;;;3.3.;;;Virtualisierung als Motor zur Steigerung der Cloud-Computing-Sicherheit In diesem Whitepaper haben wir Virtualisierung als Motor zur Förderung der Cloud-basierten Sicherheit vorgeschlagen. Cloud Computing ist ein Ansatz für die Bereitstellung von Diensten, während Virtualisierung ein möglicher Dienst ist, der bereitgestellt werden könnte. Virtualisierung ermöglicht eine bessere Sicherheit und ermöglicht einem einzelnen Benutzer den Zugriff auf mehrere physische Geräte. Große Unternehmen mit geringer Ausfalltoleranz und strengen Sicherheitsanforderungen stellen möglicherweise fest, dass Virtualisierung am besten zu ihnen passt. Thin Clients und Software as a Service befreien Benutzer von der Bindung an ihren Computer und ermöglichen ihnen den Zugriff auf ihre Informationen überall, wo sie eine Internetverbindung finden. Virtualisierung ist eine Computertechnologie, die es einem einzelnen Benutzer ermöglicht, auf mehrere physische Geräte zuzugreifen. Es ist ein einzelner Computer, der mehrere Maschinen steuert, oder ein Betriebssystem, das mehrere Computer verwendet, um eine Datenbank zu analysieren. Virtualisierung kann auch zum Ausführen mehrerer Anwendungen auf jedem Server verwendet werden, anstatt nur einer. Es ermöglicht uns, unsere Server zu konsolidieren und mit weniger Hardware mehr zu erreichen. Angesichts des wachsenden Drucks, sich in diese Richtung zu bewegen, schlagen wir Virtualisierung für Cloud-basierte Sicherheit vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22577-2_9 7f2243119a5885caa249a6fa8e957ce6;de;;;3.3.;;;ATLASCAR: Eine Auswahl der Aufgaben und Bedenken für autonome Autos Das ATLASCAR-Projekt startete 2010 als ingenieurwissenschaftliches Projekt an der Universität von Aveiro, Portugal, mit dem Ziel, ein System zur Untersuchung und Verbesserung der autonomen Fahr- und Fahrassistenzfähigkeiten zu entwickeln. Der Schwerpunkt lag sowohl auf der Ingenieursebene, um einen instrumentierten und automatischen Fahrzeugprototyp im realen Maßstab zu entwickeln, als auch auf der Forschungsebene für fortgeschrittene Wahrnehmung und Systemsteuerung unter Verwendung eines reichen Satzes von Sensoren und der zugehörigen Computer- und Softwarearchitektur. Neben den erwarteten Herausforderungen traten neue Fronten auf und es wurden eine Reihe von Bedenken untersucht, die Herausforderungen aufhellten, die sicherlich auch andere Autoren und technologische Akteure, die sich mit autonomen Autos und der Automobilindustrie beschäftigen, weiter antreiben werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-11292-9_18 4322817f6411c3e0bb2b3de563a48c6d;de;;;3.3.;;;Eine Architektur für die schnelle Datenbewegung in der FFP-Maschine Wir schlagen eine Erweiterung der Architektur der FFP-Maschine vor, die eine Speicherverwaltung in O(log n)-Zeit und eine beliebige Datenumordnung in O(log;-;-;-;https://link.springer.com/chapter/10.1007/3-540-15975-4_35 a492dad547e1373a899edfe379c8096f;de;;;3.3.;;;Hierarchische Wettbewerbsnetzarchitektur Die Entwicklung von Hyperschallflugzeugen erfordert ein hohes Maß an Systemintegration. Konstruktionswerkzeuge werden benötigt, um schnelle und genaue Berechnungen komplexer Fluidströmungsmuster zu ermöglichen. Dieses Projekt zeigt, dass neuronale Netze erfolgreich auf die Berechnung der Fluidströmungsverteilung und der Wärmeübertragung in einem sechsbeinigen Wärmetauscherpanel angewendet werden können, das typisch für den für den Einsatz in Hyperschallflugzeugen vorgesehenen Typ ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-3066-6_13 11b1b52e1d7abf6471ecc00ddc7a6263;de;;;3.3.;;;Eine objektorientierte Realisierung von Perceptual Computer Im Kapitel werden Grundkonzepte der Typ-2-Fuzzy-Logik, Rechnen mit Worten und Perceptual Computing vorgestellt. Architektonische Details einer objektorientierten Realisierung einer Softwarebibliothek zur Entwicklung von Wahrnehmungscomputern werden aufgezeigt und erläutert. Dabei werden folgende Themen behandelt: Mathematische Modelle für Datentypen, Klassenhierarchien für Typen und Inferenzoperatoren, Betrieb in Multithread-Umgebung, Vergleich mit einer bestehenden MATLAB-Realisierung und ein kurzes Codebeispiel. Die Einführung einer Klassenhierarchie für Inferenzoperatoren wird durch frühere Arbeiten der Autoren motiviert, die implizierten, dass neuartige gewichtete Mittelwerte durch andere Operatoren ersetzt werden können. Es wird die Entwicklung eines Wahrnehmungscomputers und seine Verwendung zur hierarchischen Entscheidungsfindung beim Lösen bekannter Probleme der Raketensystemauswahl beschrieben. Eingabewerte und produzierte Ergebnisse werden im Kapitel ausführlich dargestellt. Die Ergebnisse stimmen mit Ergebnissen aus der Literatur überein. Es werden Schlussfolgerungen sowie mögliche Richtungen für weitere Forschungs- und Anwendungsarbeiten gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33959-2_9 d3ca5bedd1c491223763316cd2fcfd72;de;;;3.3.;;;Zum Sicherheitsnachweis eines Authentifizierungsprotokolls von Eurocrypt 2011 Dieses Papier diskutiert die Sicherheit eines der von Kiltz et al. vorgeschlagenen Authentifizierungsprotokolle. bei Eurocrypt 2011. Kiltz et al. behauptet, dass das Protokoll gegen aktive Angriffe sicher ist. Sie haben jedoch keine strengen Sicherheitsbeweise vorgelegt und nur erwähnt, dass das System sicher sein würde. In diesem Papier stellen wir ein neues Problem vor, das so schwer ist wie das Problem der Lernparität mit Rauschen und beweisen die aktive Sicherheit des Protokolls unter der Annahme, dass das Problem schwer ist. Durch die Kombination unseres Ergebnisses mit dem von Rizomiliotis und Gritzalis erhalten wir einen vollständigen Nachweis der Man-in-the-Middle (MIM)-Sicherheit des Protokolls.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09843-2_15 8b85de2d7e3a8a04943f2a81ee38c417;de;;;3.3.;;;Mit der BDI-Architektur autonome Charaktere in virtuellen Welten erzeugen In diesem Beitrag schlagen wir die Verwendung des Belief-Desire-Intention (BDI)-Modells für kognitive Agenten zur Implementierung animierter Charaktere vor. Die BDI-Agentenarchitektur wird häufig in dynamischen und komplexen Szenarien verwendet, in denen Agenten möglicherweise unter unvollständigen und falschen Informationen über andere Agenten und die Umgebung handeln müssen. In dieser Arbeit bringen wir ein artikuliertes Modell für die Charakteranimation und einen Interpreter für AgentSpeak(L) zusammen, eine agentenorientierte Programmiersprache, die die BDI-Architektur implementiert. Wir haben eine Schnittstelle entwickelt, die es ermöglicht, das BDI-basierte Agentenschlussfolgerungssystem zur Steuerung des Verhaltens von artikulierten Charakteren in einer virtuellen Umgebung zu verwenden. Dies ist ein vielversprechender Ansatz für die High-Level-Spezifikation komplexer Computeranimationen. Das Papier präsentiert auch eine einfache 3D-Animation, die die Verwendung von BDI-Spezifikationen in unserem Ansatz veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39396-2_32 245f391fd788a059e17f5db2d7504bf9;de;;;3.3.;;;Ein verteiltes Publish/Subscribe-System für große Sensornetzwerke Mit der Entwicklung von Sensor- und drahtlosen Netzwerktechnologien wird erwartet, dass wir in der Lage sein werden, viele Sensordaten von verschiedenen Sensoren auf der ganzen Welt zu sammeln. Durch die Kombination/Aggregation dieser Sensordaten könnten viele nützliche Anwendungen entwickelt werden. Es ist jedoch schwierig, Sensordaten zu aggregieren und die Skalierbarkeit sicherzustellen, da sich in einigen Fällen zu viele Sensordaten auf bestimmte Knoten konzentrieren. Dann fügen wir Datenverarbeitungskomponenten zu inhaltsbasierten Netzwerken hinzu, wobei wir die Aufteilung und Neuzuweisung von Verarbeitungskomponenten berücksichtigen. Inhaltsbasierte Netzwerke stellen ein Publish/Subscribe-System in einer verteilten Umgebung bereit und eignen sich für Benachrichtigungen und Warnungen. Wenn inhaltsbasierte Netzwerke veröffentlichte Daten verarbeiten und aussagekräftige Informationen erzeugen, erweitert dieses System die Anwendungsfelder in ubiquitären Sensorumgebungen. In diesem Papier modellieren wir den Prozess der Sensordatenberechnung und beschreiben, wie Datenverarbeitungskomponenten zu inhaltsbasierten Netzwerken hinzugefügt werden. Im Gegenteil, Datenverarbeitungskomponenten verursachen Konzentrationen von Sensordaten. Wir beschreiben auch den Lastverteilungsmechanismus dieser Komponenten. Leistungsbewertungen unserer Implementierung zeigen, dass der Lastverteilungsmechanismus gut funktioniert und das vorgeschlagene System die Skalierbarkeit durch Hinzufügen von Datenkomponenten sichert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-1415-5_30 db81f6c1551009e4444927e6cc17ba99;de;;;3.3.;;;Modellierung und Analyse des Software-Alterungsprozesses In diesem Papier wird ein Modell für eine erfolgreiche Wartung vorgeschlagen, das darstellen kann, wie sich die Wartbarkeit jedes Softwaremoduls mit zunehmendem Alter ändert. Wir haben festgestellt, dass einige der Metriken, gemessen an einem 20 Jahre alten System, zu unserem Modell passen, d. h. die Werte dieser Metriken scheinen proportional zum Grad der Wartbarkeit zu sein. Wir haben die kritische Linie jeder Metrik beschrieben – ein Wert, der verwendet werden kann, um zu entscheiden, ob ein Modul überarbeitet werden sollte oder nicht. Wir haben auch die Interpretationen beschrieben, wie sich jede Softwaremetrik auf die Wartbarkeit bezieht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45051-1_15 d451654bdcd41e1e8018bfbee97c3180;de;;;3.3.;;;Forschung und Simulation zu Schablonenoberflächenkonstruktion und orthogonaler Krümmungsextraktion In diesem Artikel wird ein Face-to-Fläche-Anpassungsalgorithmus basierend auf orthogonaler Krümmung vorgeschlagen, und dann kann mit Hilfe verwandter Theorien der Differentialgeometrie die Vorlagenoberfläche basierend auf der Arkustangensfunktion konstruiert werden. Dann werden das Verfahren zum Extrahieren der Krümmung bei gleichen Bogenmaschen und das Verfahren zur numerischen Lösung nichtlinearer Gleichungen analysiert. Außerdem wird mit Hilfe von Computersoftwaretechnologie und Computergrafikbibliothekstechnologie zunächst eine Softwaresimulationsplattform aufgebaut, und dann werden die Konstruktion der Arkustangens-Rotationsfläche, die Extraktion der orthogonalen Krümmung und das 3D-Rendering der Schablonenoberfläche und der Anpassungsoberfläche erfolgreich durchgeführt erkannte. Der Betriebseffekt der Softwaresimulationsplattform zeigt, dass der Konstruktionsalgorithmus der Schablonenoberfläche, der Extraktionsalgorithmus orthogonaler Krümmungen und das Verfahren zur numerischen Approximation Schablonenoberflächen effektiv konstruieren und orthogonale Krümmungen genau extrahieren können. Diese Algorithmen können grundlegende technische Unterstützung für die Simulation und experimentelle Verifizierung von Oberflächenanpassungsalgorithmen basierend auf orthogonaler Krümmung bieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34384-1_5 ebbb1d4a29a1af0b51e58c6b6ef0aae2;de;;;3.3.;;;Informationsfusion: Beliebte Ansätze und Anwendungen Informationsfusion ist ein heißes Thema in Computer- und verwandten Bereichen. Es wird häufig im militärischen und zivilen Bereich eingesetzt. In diesem Papier beschreiben wir zunächst Informationsfusionsarchitekturen, um eine Blaupause für Informationsfusionsansätze zu geben. Zweitens überprüfen wir die gängigsten Methoden der Informationsfusion und analysieren deren Vor- und Nachteile. Drittens skizzieren wir ihre bedeutenden Anwendungen. Abschließend werden abschließende Bemerkungen gezogen und ein Ausblick auf die Zukunft gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37832-4_63 b01a2a81b189adf5ff926aced9ce40ba;de;;;3.3.;;;Optimale Ressourcenallokation für dynamischen Produktentwicklungsprozess durch konvexe Optimierung Die Ressourcenallokation ist ein wesentlicher Aspekt einer erfolgreichen Produktentwicklung (PD). In diesem Beitrag formulieren wir das dynamische Ressourcenallokationsproblem des PD-Prozesses als konvexes Optimierungsproblem. Speziell bauen und lösen wir zwei Varianten dieses Problems: das budgetbeschränkte Problem und das leistungsbeschränkte Problem. Wir verwenden die konvexe Optimierung als Rahmen, um große Probleminstanzen mit relativ geringem Rechenaufwand optimal zu lösen. Die Lösungen für beide Probleme zeigen ähnliche Trends bezüglich Ressourcenzuweisungsentscheidungen und Leistungsentwicklung. Darüber hinaus zeigen wir, dass die Produktarchitektur die Ressourcenallokation beeinflusst, was wiederum die Leistung des PD-Prozesses beeinflusst. Durch die Einführung von Zentralitätsmetriken zum Messen der Position der Module und Designregeln innerhalb der Produktarchitektur stellen wir fest, dass Entscheidungen zur Ressourcenzuweisung mit ihren Metriken korrelieren. Diese Ergebnisse liefern einfache, aber wirkungsvolle Führungsrichtlinien für die effiziente Gestaltung und Verwaltung des PD-Prozesses. Schließlich führen wir zur Validierung des Modells und seiner Ergebnisse zwei Design-Fallstudien für einen mechanischen Manipulator und einen Designprozess für das Erscheinungsbild eines Automobils ein und lösen sie.;-;-;-;https://link.springer.com/article/10.1007/s00163-020-00346-5 c9a55b249b7646825042af0df112cb6f;de;;;3.3.;;;Eine massiv parallele Architektur für die genetische Programmierung von linearem Maschinencode Genetische Algorithmen (GA) und Genetische Programmierung (GP) haben sich in den letzten Jahrzehnten als effiziente Werkzeuge für eine Vielzahl von Anwendungen erwiesen. Um jedoch menschliche Wettbewerbsprobleme zu lösen, benötigen sie viel Rechenleistung, insbesondere bei Fitnessberechnungen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45443-8_19 355d9e90b5f62fddbdc32cb73ac52862;de;;;3.3.;;;Forschung zur Vektorisierungstechnologie für unregelmäßigen Datenzugriff Aktuelle Programmvektorisierungsverfahren unterstützen kontinuierliche Speicherzugriffsformen. Es gibt nur wenige Untersuchungen zur Vektorisierung von unregelmäßigen Datenzugriffen. Um die Effizienz der Programmausführung zu verbessern, wird die Vektorisierungstechnologie des unregelmäßigen Datenzugriffs erforscht. Ein Vektorisierungsverfahren für nicht-kontinuierlichen Zugriff und indirekte Array-Indizes wird vorgeschlagen. Dieses Papier entwirft eine Berechnungsmethode für die Leistungssteigerungen der Vektorisierung und analysiert die unterschiedlichen Leistungssteigerungen verschiedener Vektorisierungsmethoden mit nicht kontinuierlichem Zugriff. Schließlich zeigen die experimentellen Ergebnisse, dass dieses Verfahren unregelmäßige Datenzugriffe effektiv vektorisieren und die Effizienz der Programmausführung verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-6442-5_29 6f6418a8236df320ab62ce35d197e22e;de;;;3.3.;;;Vision der 5G-Kommunikation Dieses Papier wurde entwickelt, um dem Leser die grundlegenden Informationen für zukünftige oder nächste Technologiegenerationen vorzustellen. Systeme der vierten Generation werden in wenigen Ländern implementiert und 4G-Systeme sind immer noch hauptsächlich Forschung und Entwicklung und geben einen Überblick über das System der nächsten Generation, z. B. die 5G-Kommunikation. In diesem Papier wird ein Überblick über die Mobilfunknetze der fünften Generation mit Schwerpunkt auf aktuellen und zukünftigen Trends in den Bereichen drahtlose Netzwerke, Multimedia-Technologie, Netzwerkarchitektur und Netzwerkdienste gegeben. Entsprechende Forschungen zur Entwicklung zukünftiger mobiler Systeme wurden hervorgehoben. Beginnend mit Prognosen der 5G-Kommunikation, Architekturmodell der drahtlosen Kommunikation & Vergleich mit der gesamten Generationstechnologie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22577-2_34 8b9938ee161e5b6519c7db9947134ded;de;;;3.3.;;;Ein neuartiges IP-zu-3G-Multimedia-Gateway und seine Anwendungen In diesem Beitrag verwenden wir einfache 3G-Modemkarten, um ein neuartiges Gateway-Bridging-IP-Netzwerk und ein WCDMA-3G-Mobilfunknetzwerk (Wideband Code Division Multiple Access) in Hongkong zu entwerfen und bereitzustellen. Ein vereinfachtes Session Initial Protocol (SIP) wird entwickelt, um das Gateway zusammen mit dem 3G-324M-Protokoll zu implementieren. Im Vergleich zu den existierenden ähnlichen Gateways ist unser Gateway viel besser implementierbar und kostengünstiger. Mit dem vorgeschlagenen Gateway konzipieren und entwickeln wir ein Video Instant Message System (VIMS), das eine direkte Audio- und Videokommunikation von Endgeräten des Internets wie Desktop zu 3G-Mobiltelefonen ermöglicht. Darüber hinaus produzieren und realisieren wir ein Mobile Robotic Car Remote Control System (MRCRCS) basierend auf dem Gateway und VIMS. Im MRCRCS können Personen die Bewegungsrichtung eines Roboterautos mithilfe eines VIMS-Clients oder eines 3G-Mobiltelefons aus der Ferne steuern. Durch eine Reihe praktischer Experimente belegen wir die Leistungsfähigkeit und Robustheit des Gateways und seines Anwendungsschemas.;-;-;-;https://link.springer.com/article/10.1007/s11235-013-9670-9 f43e680cbaee1d5c22b56324073cbbe5;de;;;3.3.;;;Softwaregestützte energieeffiziente und flexible WDM-PON-Zugangsnetze Dieses Papier stellt die Architektur eines grünen und flexiblen WDM-PON-Zugangsnetzes vor. Wir schlagen die Segmentierung einer Breitbandquelle in kleinere Frequenzfenster mit einem Waveshaper-Filter vor. Ein zentraler Controller befiehlt die Konfiguration physikalischer Netzwerkparameter, wie die vom Filter gelieferte optische Bandbreite und das Modulationsformat des im Netzwerk zu transportierenden Dienstes. Für die experimentelle Demonstration wurden verschiedene optische Bandbreiten definiert und in unserem Ansatz zwei Modulationsformate evaluiert. Die Ergebnisse ergaben eine effektive Bandbreite von 3 GHz für optische Bandbreiten unter 1 nm. Breitere optische Durchlassbänder reduzieren die Bandbreite, verbessern jedoch die im Empfänger gemessene Signalqualität aufgrund einer relativ höheren durchschnittlichen optischen Leistung, die im Fotodetektor verfügbar ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00350-0_48 bcf0d1e2adc7112e1c17e68f6518e626;de;;;3.3.;;;Das MERMAID-Projekt Die Tendenz, dass Softwareentwicklungsprojekte über dem Zeitplan und über dem Budget abgeschlossen werden, ist ausführlich dokumentiert [1,2]. Darüber hinaus werden viele Projekte nur dann innerhalb des Budget- und Zeitplans abgeschlossen, wenn der Kunde zustimmt, eingeschränkte Funktionalität zu akzeptieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-78878-9_4 1eccf2f891a0cdf576f924bceaf6cfb7;de;;;3.3.;;;Mobiles Grid-System basierend auf Mobile Agent Mobile Grid ist ein Zweig von Grid, dessen Infrastruktur mobile Geräte umfasst. Das mobile Grid weist im Vergleich zum traditionellen Grid andere Herausforderungen wie Ressourcenbeschränkungen und Benutzerbewegungen auf. Mobile Agent ist eine attraktive Technologie, um diese Herausforderungen zu meistern. In diesem Beitrag stellen wir ein neues mobiles Grid-System vor, das auf dem mobilen Agenten basiert. Dieses Papier beschreibt die Architektur des neuen Systems: Multi-Proxy-basierte mobile Grid-Umgebung mit Standortverwaltung und Nachrichtenübermittlungsmechanismus. Unser System ist leicht genug, um auf mobilen Geräten installiert zu werden. Es bietet auch die physische und logische Mobilität von mobilen Agenten. Wir haben das mobile Grid-System basierend auf Globus Toolkit und ODDUGI Mobile Agent System implementiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17625-8_12 e4101db80fc4d841b0d9cf8fc0d6efb1;de;;;3.3.;;;Auf dem Weg zu einer Methode zur Realisierung nachhaltiger Wettbewerbsvorteile durch Unternehmensanalyse Unternehmen, die im heutigen hochdynamischen Geschäftsumfeld erfolgreich sind, genießen oft den von Barney definierten nachhaltigen Wettbewerbsvorteil (SCA). Während sich die neuere Strategieliteratur auf die Erforschung verschiedener Quellen von SCA konzentriert, stellen wir in diesem Papier eine operative Methode zur Realisierung von SCA durch die Analyse von Geschäftsentitäten vor. Die geschäftsentitätszentrierte Modellierung war in einer Reihe von Projekten ein erfolgreicher Ansatz, um Geschäftsabläufe zu überdenken und zu revolutionieren. Unsere Methode bietet einen Weg von SCA-generierenden Strategien zu Business Operations und Business Entities. Die resultierenden Geschäftsvorgänge können als Prototypen erstellt und analysiert werden, um SCA-Eigenschaften zu validieren. Unser Ansatz nutzt Schlüsselkonstrukte aus dem Business Motivation Model (BMM) von OMG und betont die Analyse von Einflussfaktoren – Faktoren, die die Strategien eines Unternehmens beeinflussen können, die SCA generieren. Darüber hinaus werden diese Strategien verwendet, um Geschäftsvorgänge zu formulieren, die von Geschäftseinheiten definiert werden können. IT-Anwendungen können aus den Geschäftseinheiten mit Hilfe der Model-Driven Architecture generiert werden. Daher bieten diese entdeckten Geschäftsentitäten tatsächlich einen gültigen Rahmen für die Innovation des Geschäftsbetriebs und die Entwicklung von IT-Anwendungen, die zu SCA für das Unternehmen führen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21759-3_16 9628054dd878361d4005dac3153ba2b7;de;;;3.3.;;;BeBot: Eine modulare mobile Miniaturroboterplattform, die Hardware-Rekonfiguration und Multistandard-Kommunikation unterstützt Mobile Roboter werden in der aktuellen Forschung und Lehre immer wichtiger. Besonders kleine Experimente auf dem Tisch ziehen das Interesse auf sich, da sie keine zusätzliche oder spezielle Laborausrüstung benötigen. In diesem Zusammenhang sind Plattformen wünschenswert, die klein, einfach zugänglich und relativ einfach zu programmieren sind. Eine zusätzliche leistungsfähige Informationsverarbeitungseinheit ist vorteilhaft, um die Implementierung von Algorithmen und die Portierung von Software von Desktop-Computern auf die Roboterplattform zu vereinfachen. In diesem Beitrag stellen wir einen neuen vielseitigen Miniaturroboter vor, der ideal für Forschung und Lehre eingesetzt werden kann. Die geringe Baugröße des Roboters von ca. 9 cm Kantenlänge, sein robuster Antrieb und sein modularer Aufbau machen den Roboter zu einem universellen Gerät für Einzel- und Mehrroboterexperimente „auf dem Tisch“. Zur Programmierung und Auswertung kann der Roboter drahtlos über Bluetooth oder WiFi verbunden werden. Das Betriebssystem des Roboters basiert auf dem Standard-Linux-Kernel und der GNU-C-Standardbibliothek. Ein Player/Stage-Modell erleichtert die Softwareentwicklung und das Testen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03986-7_40 9c13930c7d74694c4b453f49bafd9ec7;de;;;3.3.;;;Ein modellbasiertes Framework zum Entwerfen und Debuggen sicherer komponentenbasierter autonomer Systeme Das Erstellen autonomer Anwendungen, bei denen es sich um Systeme handelt, die sich an ihren Ausführungskontext anpassen müssen, erfordert, dass Architekten die Anpassungsregeln kalibrieren und validieren, indem sie ihre Anwendungen in einem realistischen Ausführungskontext ausführen. Leider erlauben es bestehende Werke den Architekten nicht, die Auswirkungen ihrer Regeln zu überwachen und zu visualisieren oder diese Regeln einfach anzupassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02351-4_1 f4e2a9d6b69f498666702b689ce8dbd3;de;;;3.3.;;;Gleich, aber anders: Interoperabilität von Software-Produktlinienvarianten Software Product Lines (SPLs) sind ein etabliertes Forschungsgebiet, das Ansätze bietet, mehrere Varianten eines Softwareprodukts zu beschreiben, indem sie als hochvariables System dargestellt werden. Multi-SPLs (MPLs) sind ein aufstrebendes Forschungsgebiet, das sich mit Ansätzen befasst, um Gruppen von voneinander abhängigen, stark variablen Systemen zu beschreiben, die typischerweise dezentral verwaltet und entwickelt werden. Aktuelle Ansätze bieten keinen Mechanismus, um mehrere Varianten einer Produktlinie innerhalb derselben Anwendung zu verwalten und zu orchestrieren. Die Notwendigkeit eines solchen Mechanismus haben wir in einem Industrieprojekt mit der Deutschen Bahn erfahren, wo wir nicht nur ein hochvariables System modellieren, sondern ein System mit hochvariablen Teilsystemen. Basierend auf MPL-Konzepten und delta-orientierter Programmierung präsentieren wir eine neuartige Lösung für die Designherausforderungen, die sich aus der Verwaltung und Interoperabilität mehrerer Subsysteme mit mehreren Varianten ergeben: wie man Varianten referenziert, wie man Namens- oder Typkonflikte vermeidet und wie man Varianten interoperabel.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98047-8_7 91b7a211affffe9a4932addd222a6770;de;;;3.3.;;;Zyklusgenauer Leistungs- und Leistungssimulator für die Design Space Exploration auf einer Many-Core-Plattform Da die Rechenanforderungen steigen, um die Designanforderungen für rechenintensive Anwendungen zu erfüllen, steigt der Druck, parallele Hochleistungsprozessoren auf einem Chip zu entwickeln. Software-Unterstützungen, die die Nutzung paralleler Rechenleistung dieser Art von Architektur ermöglichen, haben jedoch nicht nachgezogen und sind zu einem wichtigen Stolperstein für viele zukünftige Kernanwendungsentwicklungen geworden. In diesem Whitepaper stellen wir einen zyklusgenauen Simulator für die parallele Programmierung auf einer Many-Core-Plattform vor, der eine schnelle Exploration des Design Space ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23324-1_28 819617ab96895df98b5926b359be3772;de;;;3.3.;;;Untersuchung der Vertrauenskette des Betriebssystems Trust Chain ist eine der Schlüsseltechnologien bei der Entwicklung sicherer Betriebssysteme auf Basis der TC-Technologie. Konstruktionen von Vertrauensketten und Vertrauensmodellen werden analysiert. Zukünftige Arbeiten in dieser Richtung werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05253-8_11 e5ed212fd76b71e8267b782e8c28c5cd;de;;;3.3.;;;Ein skalierbares und adaptives Verzeichnisschema für Hardware-Distributed Shared Memory In einem durch Hardware verteilten gemeinsam genutzten Speicher im Stil von CC-NUMA werden Verzeichnisinformationen, die Standorte von gemeinsam genutzten Prozessoren angeben, für die Cache-Kohärenz verwendet. Die Struktur der Verzeichnisse beeinflusst die Größe der Hardware, die für Kohärenztransaktionen erforderliche Zeit und den Netzwerkverkehr. In diesem Papier schlagen wir ein neues skalierbares Verzeichnisschema vor und evaluieren es.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30102-8_45 e2cd66c0070f77ef721de9682b9713a7;de;;;3.3.;;;3D-resistives RAM-Zellendesign für Speicher der High-Density-Speicherklasse – eine Überprüfung In diesem Artikel geben wir einen umfassenden Überblick über die jüngsten Fortschritte in der ReRAM-Zelltechnologie für die 3D-Integration mit Fokus auf Material-/Geräteebene. Zunächst erwähnen wir kurz die Pionierarbeit an High-Density-Crossbar-ReRAM-Arrays, die den Weg zur 3D-Integration ebneten. Wir diskutieren die beiden wichtigsten vorgeschlagenen 3D-Integrationsschemata – horizontal gestapeltes 3D-ReRAM vs. vertikales 3D-ReRAM und ihre jeweiligen Vor- und Nachteile. Wir folgen mit dem detaillierten Speicherzellendesign an wichtigen Arbeiten in beiden Bereichen, wobei entweder filamentäre oder schnittstellenbegrenzte Schaltmechanismen verwendet werden. Wir diskutieren auch unsere eigenen Beiträge zu HfO;-;-;-;https://link.springer.com/article/10.1007/s11432-016-5566-0 6dbb510b0791fea045af630b73bd2efc;de;;;3.3.;;;Statistische Methoden zur Verarbeitung von Neuroimaging-Daten von zwei verschiedenen Standorten mit einer Down-Syndrom-Populationsanwendung Die Harmonisierung von Magnetresonanztomographie (MRT) und Positronen-Emissions-Tomographie (PET)-Scans aus Multi-Scanner- und Multi-Site-Studien stellt ein herausforderndes Problem dar. Wir haben die Methode Removal of Artificial Voxel Effect by Linear Regression (RAVEL) angewendet, um die T1-MRT-Intensitäten zu normalisieren, die auf zwei verschiedenen Scannern an zwei verschiedenen Standorten im Rahmen der Studie Neurodegeneration in Aging Down Syndrom (NiAD) gesammelt wurden. Die Auswirkungen auf die Ergebnisse der regionalen kortikalen Dicken- und Volumenmessungen von FreeSurfer sowie die auf FreeSurfer basierende regionale Quantifizierung der Ergebnisse des standardisierten Aufnahmewertverhältnisses (SUVR) der Amyloid-PET wurden evaluiert. Ein Neuroradiologe beurteilte visuell die Genauigkeit der FreeSurfer Hippocampus-Segmentierungen mit und ohne Anwendung von RAVEL. Quantitative Ergebnisse zeigten, dass die Anwendung der RAVEL-Intensitätsnormalisierung vor dem Ausführen von FreeSurfer signifikante Auswirkungen auf die Ergebnismessungen des FreeSurfer-Volumens und der Kortikalisdicke hatte. Die visuelle Beurteilung zeigte, dass die Anwendung von RAVEL die Genauigkeit der Hippocampus-Segmentierung von FreeSurfer signifikant verbesserte. Die Normalisierung der RAVEL-Intensität hatte wenig Einfluss auf die PET-SUVR-Messungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-50153-2_28 5b515bc45748b2437f6b10c7480025b9;de;;;3.3.;;;Ein verhaltensbaumbasiertes Modell zur Unterstützung der Analyse des Wissenstransfers in Software-F&E-Teams Software-F&E-Teams benötigen geeignete Formen der Wissensrepräsentation bei der Durchführung von Software-Engineering-Prozessen und -Forschungen. Der Wissenstransfer wird dabei zu einem dynamischen Prozess, da die am Prozess beteiligten Teammitglieder Wissen aus unterschiedlichen Quellen erwerben, kommunizieren und integrieren. In diesem Beitrag wird ein verhaltensbaumbasiertes Modell zur Darstellung von Erkenntnissen aus Forschungs- und Entwicklungsaktivitäten vorgestellt. Durch strukturierte Knoten, die Wissenseinheiten darstellen, ist es möglich, Schlüsselpunkte für neue Herausforderungen, Bedenken, Probleme, Lücken usw Domäne analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-38980-6_27 b1ff60386d2c400b3b807b28c7c41efb;de;;;3.3.;;;Ein hierarchisches dichtes verformbares Modell für die 3D-Gesichtsrekonstruktion vom Schädel Die 3D-Gesichtsrekonstruktion vom Schädel wurde in den letzten zwei Jahrzehnten von Informatikern eingehend untersucht, da sie für die Identifizierung wichtig ist. Die vorherrschenden Methoden konstruieren das 3D-Gesicht aus der Weichteildicke, die an einer Reihe von Orientierungspunkten auf dem Schädel gemessen wird. Die Menge und Position der Landmarken sind für die 3D-Gesichtsrekonstruktion sehr wichtig, jedoch gibt es keinen einheitlichen Standard für die Auswahl der Landmarken. Außerdem ist die Erfassung der Orientierungspunkte am Schädel ohne manuelle Hilfe schwierig. In diesem Artikel wird eine automatische 3D-Gesichtsrekonstruktionsmethode basierend auf einem hierarchischen dichten verformbaren Modell vorgeschlagen. Um das Modell zu konstruieren, werden die Schädel- und Gesichtsproben von einem CT-Scanner erfasst und als dichtes Dreiecksnetz dargestellt. Dann wird ein nicht starrer Registrierungsalgorithmus für dichte Netze präsentiert, um alle Abtastwerte in Punkt-zu-Punkt-Korrespondenz auszurichten. Basierend auf den ausgerichteten Proben wird ein globales deformierbares Modell konstruiert, und drei lokale Modelle werden aus den segmentierten Flecken von Auge, Nase und Mund konstruiert. Für einen gegebenen Schädel werden der Bulbus und lokal verformbare Modelle iterativ damit abgeglichen, und die rekonstruierte Gesichtsoberfläche wird durch Verschmelzen des Bulbus und der lokalen Rekonstruktionsergebnisse erhalten. Um das vorgestellte Verfahren zu validieren, wird eine Messung im Koeffizientenbereich eines gesichtsverformbaren Modells definiert. Die experimentellen Ergebnisse zeigen, dass die vorgeschlagene Methode eine gute Leistung für die 3D-Gesichtsrekonstruktion aus dem Schädel aufweist.;-;-;-;https://link.springer.com/article/10.1007/s11042-012-1005-4 410c4f7c4e5260f1bf82c0ba48adb408;de;;;3.3.;;;Parallelisieren des ISODATA-Algorithmus für die unüberwachte Bildklassifizierung auf der GPU Der Iterative Self-Organizing Data Analysis Technique Algorithm (ISODATA) wird häufig für die unbeaufsichtigte Bildklassifizierung in Fernerkundungsanwendungen verwendet. Obwohl parallelisierte Ansätze untersucht wurden, nutzten frühere Arbeiten hauptsächlich die Leistung von CPU-Clustern. Wir setzen die vielen Kerne in der Graphics Processing Unit (GPU) ein, um die unbeaufsichtigte Bildklassifizierung über die GPU zu beschleunigen. Die vorgeschlagene Lösung ist skalierbar und zufriedenstellend, um die Rechenzeit zu verkürzen, während die Klassifizierungsqualität fast dieselbe ist wie die von ERDAS, einer bekannten Fernerkundungssoftware.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-8745-6_11 0ad55bce38c2f011c319827d0052eb07;de;;;3.3.;;;Integrierte Entwurfsmethode für vorgefertigte Gebäude basierend auf Computer Die Bauwirtschaft ist eine tragende Industrie der Entwicklung unseres Landes, aber sie befindet sich seit langem in einem Zustand hohen Energieverbrauchs und hoher Umweltverschmutzung. Mit der kontinuierlichen Vertiefung des Konzepts der grünen Entwicklung haben sich Plattenbauten nach und nach zu einem Hot Spot in der Baubranche entwickelt. Die Verbesserung des Niveaus des integrierten Projektmanagements auf Basis von Computertechnologie war schon immer ein zentrales Thema bei der Entwicklung von Fertighäusern. Der Zweck dieses Papiers besteht darin, die integrierte Entwurfsmethode von vorgefertigten Gebäuden auf Computerbasis zu untersuchen und einige Leitlinien für die integrierte Entwurfsmethode von vorgefertigten Gebäuden bereitzustellen. Mit Blick auf die Problematik des Fertigteilmanagements analysiert dieser Beitrag den Einsatz von Cloud BIM, Internet of Things und anderen Informationstechnologien im integrierten Fertigteilmanagement, um das integrierte Management der gesamten industriellen Fertigteilkette effektiv zu optimieren . Die Forschungsinhalte liefern eine wichtige Referenz für den Aufbau von unterstützenden Maßnahmen für die integrierte Informationsmanagementplattform und die zukünftige Verbesserung des Bewertungssystems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-74814-2_17 97e6ca8743c48b904d1783c1d6e45589;de;;;3.3.;;;Eine neuartige Methode zum Abrufen von Komponenten basierend auf einem gewichteten Facettenbaum In letzter Zeit hat sich das Computing-Paradigma vom Mainframe- und Desktop-Computing zum Ubiquitous Computing verlagert, dessen Motivation darin besteht, den Benutzern intelligente, personalisierte und umfassende Dienste bereitzustellen. Als Lösung des Ubiquitous Computing hat Active Services vorgeschlagen, solche Dienste nach Bedarf durch Abrufen, Anpassen und Zusammensetzen vorhandener Dienstkomponenten zu generieren. Da die Popularität dieses Paradigmas und damit die Zahl der Dienstkomponenten zunimmt, ist es zu einem grundlegenden und bedeutenden Problem geworden, wie Komponenten effizient abgerufen werden können, um die Benutzeranforderungen maximal zu erfüllen. Aktuelle Dienstkomponenten werden jedoch im Internet verstreut gespeichert und auch nicht in einer einheitlichen Spezifikation klassifiziert, so dass herkömmliche Komponentenauffindungsverfahren oft nicht darin versagen, Komponenten in mehreren unterschiedlichen Repositorys zu suchen und einzuordnen. Um diese Probleme zu lösen, schlägt dieser Beitrag eine neuartige Methode zur Komponentensuche vor, die auf einem gewichteten Facettenbaum basiert. Wir spezifizieren zunächst formal die Komponenten und Benutzeranfragen unter dem Facettenklassifikationsraum in Form von gewichteten Bäumen, entwerfen dann einen Komponentenabrufalgorithmus durch Abgleichen zwischen den Bäumen von Anfrage und Komponente, in dem die Summe der Gewichte aller Blattknoten in Query Tree berechnet und schließlich die übereinstimmenden Komponenten nach Übereinstimmungsgrad geordnet. Die experimentellen Ergebnisse zeigen vielversprechende Ergebnisse in Bezug auf Retrievalgenauigkeit und Effizienz.;-;-;-;https://link.springer.com/article/10.1007/s11227-011-0665-6 f1f883872e15929bde026efda955e5d6;de;;;1.1.;;;Theoretischer Bezugsrahmen zur Erklärung der Genese und des Wachstums von Biotechnologie-RegionenZur Erklärung der Genese und des Wachstums von Biotechnologie-Regionen gibt es bislang keine eigenständige Theorie, die das Phänomen adäquat und komplett umfassend erklärt. In der einschlägigen Literatur zu diesem Themengebiet wird häufig von Ansätzen bzw. Konzepten gesprochen und weniger von Theorien, was zeigt, dass es sich hierbei um ein aktuelles Forschungsgebiet der Wirtschaftsgeographie handelt. Wissenschaftler bemängeln in ihren Arbeiten, dass die theoretischen Konzepte noch nicht in ausreichendem Maße durch repräsentative empirische Untersuchungen belegt worden sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-24318-0_3 0ce893d3a633ae240c5e26db49ddc3f2;de;;;3.3.;;;Die Forschung zum Modell der Sicherheitsüberwachung in der Softwareentwicklung basierend auf dem Ameisenkolonie-Algorithmus Dieses Papier kombiniert die aktuelle Situation der Konstruktion von Software-Engineering und Bausicherheitsrisiko und analysiert die Bedeutung von Software-Engineering-Konstruktionsrisiken und -bewertungen. Um die Sicherheit bei der Konstruktion von Software-Engineering zu gewährleisten, stellt dieser Artikel das Modell der Sicherheitsüberwachung basierend auf dem Ameisenkolonie-Algorithmus vor. Dann realisieren und simulieren Sie dieses Modell und analysieren das Ergebnis. Das Modell kann die Risikobewertung des Projekts quantifizieren und Sicherheitsüberwachungsfunktionen effektiv erfüllen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24097-3_51 2ac2bee99bc10925fa11df6825143a3e;de;;;3.3.;;;Bewertung von Qualitätsmetriken für Softwareprodukte Computergeräte und zugehörige Software bestimmen den Alltag und bilden das Rückgrat sicherheitskritischer Systeme im Bankwesen, im Gesundheitswesen, in der Automobilindustrie und anderen Bereichen. Steigende Systemkomplexität, sich schnell entwickelnde Technologien und Paradigmenwechsel haben die Softwarequalitätsforschung an vorderster Front gehalten. Standards wie ISO 25010 drücken es in Bezug auf Untermerkmale wie Wartbarkeit, Zuverlässigkeit und Sicherheit aus. In einer beträchtlichen Menge an Literatur wird versucht, diese Teilmerkmale mit Software-Metrikwerten zu verknüpfen, mit dem Endziel, ein auf Metriken basierendes Modell der Softwareproduktqualität zu erstellen. Die Forschung identifiziert jedoch auch die wichtigsten bestehenden Barrieren. Darunter erwähnen wir die Vielfalt der Softwareanwendungstypen, Entwicklungsplattformen und Sprachen. Darüber hinaus existieren keine einheitlichen Definitionen, um Softwaremetriken wirklich sprachunabhängig zu machen, und wären bei gegebenen unterschiedlichen Programmiersprachenniveaus schwierig zu implementieren. Dies wird durch die Tatsache verschärft, dass viele bestehende Studien ihre Methodik und ihr Instrumentarium nicht detailliert beschreiben, was Forscher daran hindert, Umfragen zu erstellen, um eine Datenanalyse in größerem Maßstab zu ermöglichen. In unserem Papier schlagen wir eine umfassende Untersuchung von Metrikwerten im Kontext von drei komplexen Open-Source-Anwendungen vor. Wir richten unsere Methodik und Tools an denen der bestehenden Forschung aus und stellen sie detailliert vor, um eine vergleichende Bewertung zu ermöglichen. Wir untersuchen Metrikwerte während der gesamten 18-jährigen Entwicklungsgeschichte unserer Zielanwendungen, um die Längsschnittansicht zu erfassen, die unserer Meinung nach in der vorhandenen Literatur fehlt. Wir identifizieren Metrikabhängigkeiten und prüfen deren Konsistenz über Anwendungen und deren Versionen hinweg. Bei jedem Schritt führen wir eine vergleichende Bewertung mit bestehender Forschung durch und präsentieren unsere Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-40223-5_8 24841a266be7ccf9f5558d64b5996bd7;de;;;3.3.;;;Forschung und Analysen zur instationären Wärmeübertragung der inneren Wärmedämmwand während des Kühltransports mit mehreren Temperaturen Es gibt viele Unterschiede zwischen Mehrtemperatur-Kühlfahrzeugen und gewöhnlichen Fahrzeugen in vielen Aspekten wie Aufbau und Fahrbedingungen, daher die sehr unterschiedlichen Wärmeübertragungseigenschaften und Ansprechkoeffizienten. In dieser Arbeit wurde der instationäre Wärmeübergang des Mehrtemperatur-Kühlfahrzeugs nach der Response-Koeffizienten-Methode untersucht, der instationäre Wärmeübergang von inneren Wärmedämmstoffen im Mehrtemperatur-Kühlfahrzeug rechnerisch berechnet und die Einflüsse verschiedener Termzahlen von Gleichungswurzel, Termzahlen der Antwortkoeffizienten auf die Genauigkeit der Lastberechnung. Es zeigte sich, dass die Genauigkeitsanforderung erfüllt werden konnte, wenn die Wurzel der Gleichung -25 und der Termzahl des Antwortkoeffizienten 30 betrug.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18134-4_4 85f6c8e03e3125bc06b17ae7221a626e;de;;;3.3.;;;Smart Sprint-Methodik für die Entwicklung von Finanzmanagementsystemen Moderne Softwareentwicklungsprojekte nutzen die agilen Methoden, um frühzeitig zuverlässige und stabile Artefakte bereitzustellen. Die Projektplanerstellung dreht sich um die Komplexität von Anwendungsfällen, Technologie-Stack, Testbeds und Validierungen. Darüber hinaus muss der Projektplan im Rahmen agiler Entwicklungsstrategien dem Sprintplaner und den Entwicklern helfen, die für die Entwicklung und Bereitstellung des Produkts erforderlichen Iterationen zu reduzieren. Die agilen Programmierpraktiken neigen jedoch dazu, sich in ein älteres Wasserfallmodell zu übertragen, wenn der Sprintplaner ein Neuling in Bezug auf das Projekt, den Technologiestapel und die Entwicklungspläne ist, was dazu führt, dass die Pipeline zu spät kommt. Daher ist es wichtig, einen Sprintplan futuristisch und intelligent zu erstellen, um das Risiko eines Scheiterns zu reduzieren. Dies ist möglich, wenn die primitiven Codemodule zu Standardprojekten erhoben werden. In diesem Artikel schlagen wir zwei wissensbasierte Pläne vor, um die agile Strategie zu ergänzen, die die Notwendigkeit vermeidet, die jungen Benutzeranforderungen einzufrieren, die intelligenten Prototypen zu nutzen und Sprints zu generieren. Wir schlagen auch eine neue Strategie zum Aufbau von Kapazitäten durch funktionsübergreifendes Fachwissen vor und zeigen sich bei der Neugestaltung von Finanzmanagementsystemen (FMS), die von der Regierung von Andhra Pradesh verwaltet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3338-9_45 290f24ea978a4027d9eec264e16e6e09;de;;;3.3.;;;Auf dem Weg zu handtellergroßen autonomen Hubschraubern Das muFly EU-Projekt begann 2006 mit der Idee, einen autonomen Mikrohubschrauber zu bauen, der in Größe und Gewicht mit einem kleinen Vogel vergleichbar ist. Es wurden mehrere wissenschaftliche und technologische Ziele festgelegt. Dies reichte von der Integration auf Systemebene, hocheffizienter Mikrobetätigung, hochintegrierten Mikro-Vision-Sensoren und IMUs bis hin zu Navigationsalgorithmen mit geringer Rechenleistung. Dieses Papier zeigt, wie die meisten dieser Ziele erreicht wurden, und beschreibt den Ansatz und die Rolle jedes Partners während des gesamten Projekts. Das Papier beschreibt auch die erreichten technologischen Entwicklungen wie den 80 g 17 cm Mikroroboter-Helikopter, den 8 g omnidirektionalen und stationären Laserscanner, die uIMU, die hocheffizienten Mikromotoren, die Hochleistungsbrennstoffzelle und erfolgreiche graphenbasierte Navigationsalgorithmen.;-;-;-;https://link.springer.com/article/10.1007/s10846-010-9483-y a205635e3c38a8891a5cbcbecd88eaf7;de;;;3.3.;;;Green House Management mit intelligenten Sensoren und Internet of Things In dieser Untersuchung wird das Gewächshaus mit dem Internet der Dinge ausgestattet. Zur Überwachung des Pflanzenwachstums im Gewächshaus werden verschiedene Sensoren verwendet. Die Daten werden rund um die Uhr erfasst und in die Cloud gesendet. Auf die Daten kann aus der Ferne zugegriffen und das Wachstum der Pflanzen überwacht werden. Zur Verarbeitung der Daten kommen verschiedene Prozessoren wie Arduino und Raspberry Pi zum Einsatz. Das Wasser wird der Anlage automatisch zugeführt. Die Wasserpumpen werden automatisch gestartet, wenn das Signal vom Feuchtigkeitssensor geliefert wird. Die erforderliche menschliche Kraft wird durch das Internet der Dinge reduziert. Die Gesamtkosten der Produktion werden auf das Internet der Dinge reduziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8221-9_21 d81d2a83cc98dd996dbf8b0e4d95c8b0;de;;;3.3.;;;Auslöser für Konstruktionsfehler zur Verbesserung des Softwareprozesses Diese Forschung soll den empirischen Zusammenhang zwischen Fehlern und deren Ursachen abschätzen. Unter Verwendung der Fehlerursache verstehen wir auch die damit verbundene Beziehung zwischen Fehlern und Designfehlerauslösern. Wenn wir also ein ähnliches Projekt archivieren, können wir Fehler vorhersagen und uns auf die Fehlerbehebung vorbereiten, indem wir den Fehlerauslöser verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24675-6_16 bfb32c89a9c23cf7752e890416a59a63;de;;;3.3.;;;Skalierbare Multi-Agent-Verstärkungs-Lernarchitektur für Semi-MDP-Echtzeit-Strategiespiele Der Aktionswert wird häufig im Multi-Agenten-Verstärkungslernen verwendet. Der Aktionswert lässt sich jedoch nur schwer an Szenarien wie Echtzeit-Strategiespiele anpassen, bei denen die Anzahl der Agenten von Zeit zu Zeit variieren kann. In diesem Papier untersuchen wir Ansätze, den Aktionswert in Systemen zu vermeiden, um Multi-Agenten-Architekturen skalierbarer zu machen. Wir präsentieren eine allgemeine Architektur für Echtzeit-Strategiespiele und entwerfen die globale Belohnungsfunktion, die dazu passen kann. Darüber hinaus schlagen wir in unserer Architektur auch den Algorithmus ohne menschliches Wissen vor, der für Semi-Markov-Entscheidungsprozesse geeignet ist, bei denen Belohnungen erst dann erhalten werden können, wenn Aktionen eine Weile dauern. Um die Leistungsfähigkeit unseres Ansatzes zu evaluieren, werden Experimente zum Mikromanagement an einem vereinfachten Echtzeit-Strategiespiel namens MicroRTS durchgeführt. Das Ergebnis zeigt, dass die trainierte künstliche Intelligenz gegenüber starken Basisrobotern sehr konkurrenzfähig ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7670-6_36 2d8d8d5ce7c1ec986edc90342bb13b95;de;;;3.3.;;;Simulieren böswilliger Benutzer in einem Software-Reputation-System Heutzutage haben Computerbenutzer Probleme, bösartige und legitime Software zu trennen. Herkömmliche Gegenmaßnahmen wie Antiviren-Tools schützen hauptsächlich vor wirklich bösartigen Programmen, kompliziert wird die Situation jedoch durch eine „Grauzone“ fragwürdiger Programme, die schwer zu klassifizieren sind. Wir schlagen daher ein Software-Reputationssystem (SRS) vor, um Computerbenutzern zu helfen, legitime Software von ihren Gegenstücken zu trennen. In diesem Papier simulieren wir die Verwendung eines SRS, um die Auswirkungen böswilliger Benutzer auf das System zu untersuchen. Unsere Ergebnisse zeigen, dass böswillige Benutzer nur geringe Auswirkungen auf das Gesamtsystem haben, wenn sie innerhalb von 10 % der Bevölkerung gehalten werden. Ein koordinierter Angriff auf eine ausgewählte Teilmenge der Anwendungen kann jedoch den Ruf dieser Anwendungen verzerren. Die Ergebnisse zeigen auch, dass es Möglichkeiten gibt, Angriffsversuche frühzeitig zu erkennen. Unsere Schlussfolgerung ist, dass ein SRS als Entscheidungsunterstützungssystem zum Schutz vor fragwürdiger Software verwendet werden könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22339-6_18 e5f5348ab5a8604f73cae1a583157845;de;;;3.3.;;;Auf dem Weg zu leistungsstarken aktiven Netzwerken Netzwerkprozessoren wurden entwickelt, um die Implementierung neuer Netzwerkprotokolle in Hochgeschwindigkeitsroutern zu erleichtern. Eingebettet in Netzwerkschnittstellenkarten ermöglichen sie eine erweiterte Paketverarbeitung mit Link-Speed, wie sie beispielsweise für aktive Netzwerkknoten erforderlich ist. Aktive Netzwerkknoten beginnen mit der Verwendung von Netzwerkprozessoren für die erweiterte Paketverarbeitung in der Nähe der Verbindung. Die Steuerung und Konfiguration von leistungsstarken aktiven Netzwerkknoten mit Netzwerkprozessoren, so dass neue Dienste von der angebotenen zusätzlichen Verarbeitungskapazität profitieren können, ist nicht trivial, da die Komplexität, einen Knoten zu konfigurieren und gleichzeitig ein ausreichendes Abstraktionsniveau bereitzustellen, schwer zu bewältigen ist. In diesem Beitrag stellen wir PromethOS NP vor, eine modulare und flexible Routerarchitektur, die einen Rahmen für die dynamische Diensterweiterung durch Plugins mit integrierter Unterstützung von Netzwerkprozessoren, nämlich dem IBM PowerNP 4GS3-Netzwerkprozessor, bereitstellt. Wir stellen kurz die PowerNP-Architektur vor, um zu zeigen, wie unser aktives Netzwerk-Framework auf diesen Netzwerkprozessor abgebildet wird, und liefern Ergebnisse aus Leistungsmessungen. Aufgrund von Architekturähnlichkeiten von Netzwerkprozessoren glauben wir, dass unsere Überlegungen auch für andere Netzwerkprozessoren gültig sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24715-9_4 6551900877283715cbcc03886988e716;de;;;3.3.;;;Unterstützung der Integration neuer Sicherheitsfunktionen in eingebettete Steuergeräte durch die Digitalisierung der Produktion Sicherheit ist eine wichtige Eigenschaft von Industrial Control Systems (ICS), insbesondere im Kontext kritischer Infrastrukturen. In dieser Arbeit konzentrieren wir uns auf verteilte Steuergeräte für Wasserkraftwerke. Für bestimmte Lebenszyklusphasen von verteilten Steuergeräten wie die Entwicklungs- oder Betriebsphase wurde viel Arbeit geleistet. Unser Ziel hier ist es, den gesamten Produktlebenszyklus und die Konsequenzen der Implementierung von Sicherheitsfunktionen für eine einzelne Lebenszyklusphase auf andere Phasen zu berücksichtigen. Gleichzeitig sind aktuelle Trends wie die Digitalisierung der Produktion ein Enabler für Produktionsprozesserweiterungen, die die Integration solcher Sicherheitsmerkmale während der Betriebsphase eines Steuergeräts unterstützen. Insbesondere schlagen wir ein Sicherheitskonzept vor, das die Sicherstellung der Integrität von Softwarekomponenten und Produktkonfiguration anderer Steuergeräte im selben Netzwerk ermöglicht. Darüber hinaus zeigen wir, wie sich aus diesen Konzepten zusätzliche Anforderungen an die Produktionsstufen ergeben. Wir zeigen, wie wir diesen Anforderungen gerecht werden und konzentrieren uns auf einen Produktionsprozess, indem wir bereits vorgeschlagene Methoden erweitern, die die Beauftragung von Geheimnissen wie privaten Schlüsseln während der Herstellungsphase ermöglichen. Wir erweitern diesen Prozess, indem wir während der Produktion Informationen über die Konfigurationen der tatsächlich produzierten Geräte extrahieren. Basierend auf diesen Informationen können die vorgeschlagenen Sicherheitstechniken ohne erheblichen Overhead für das Bootstrapping integriert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-64218-5_30 347438dcdbeeedbe2cb3dd37d4dd9d17;de;;;3.3.;;;Unidirektionale zyklische Netzwerkarchitektur für verteilte Evolution Die räumliche Verteilung von Individuen in einer Population ist die wichtigste Frage bei verteilten evolutionären Berechnungen. In diesem Papier wird ein neuartiges verteiltes Evolutionsmodell namens UC-Modell vorgeschlagen, bei dem die Netzwerkarchitektur zirkulär ist und die Informationsausbreitung unidirektional und nicht bidirektional ist. Das vorgeschlagene Modell ist im Wesentlichen ein Nachbarschaftsmodell, aber der Kommunikationsmodus zwischen Einzelpersonen ist ziemlich unterschiedlich und die Anzahl der verfügbaren Nachbarschaften ist freier. Als spezifischer Algorithmus für die Modellimplementierung wird der Algorithmus der differentiellen Evolution (DE) in das UC-Modell integriert und ein verteilter evolutionärer Algorithmus namens;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3425-6_32 68118388b2d6c27ca6a0250587fc19a4;de;;;3.3.;;;Die optimale Dispatching-Strategie der Microgrid Group basierend auf einer verteilten kooperativen Architektur Dieses Papier erstellt ein verteiltes Optimierungsbetriebsmodell der Microgrid-Gruppe, um das Problem der Datenschutzsicherheit und des wirtschaftlichen Konflikts zwischen verschiedenen Interessengruppen zu lösen. Zunächst werden die Einflussfaktoren auf die Betriebskosten aus Sicht der internen Ausrüstung und der externen Wirk-/Blindleistungstransaktionen des Microgrids analysiert. Dann nimmt jeder Knoten in der Microgrid-Gruppe die Gesamtbetriebskosten als optimales Ziel, und der PSO-Algorithmus (Particle Swarm Optimization) wird verwendet, um das Modell zu optimieren. Darüber hinaus wird der kollaborative Optimierungsalgorithmus verwendet, um eine Übereinstimmung der jeweiligen Optimierungsergebnisse durch den Austausch von Schlüsselinformationen zwischen verschiedenen Knotenagenten zu erreichen, und die optimale Verteilungsstrategie wird unabhängig erhalten. Schließlich wird das Modell auf das verbesserte 30-Knoten-Microgrid-Gruppensystem angewendet. Die Ergebnisse zeigen, dass das Modell und der Algorithmus die Betriebskosten der Microgrid-Gruppe reduzieren, den maximalen Nutzen des einzelnen Probanden sicherstellen und den optimalen Betrieb des Multi-Microgrid-Systems erreichen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6378-6_2 d43b609f22002c4af3a7e21d6dafbf67;de;;;3.3.;;;Verwenden kontextbezogener Fuzzy-Ansichten zum Abfragen von ungenauen Daten Diese Arbeit beschäftigt sich mit dem Ausdruck von Abfragen mit Fuzzy-Werten und mit der Speicherung und Behandlung von ungenauen Informationen. Dieser Artikel stellt das Konzept der kontextuellen Fuzzy-Ansicht basierend auf der Fuzzy-Logik-Theorie und dem fallbasierten Argumentationssystem vor. Das Konzept der kontextbezogenen Fuzzy-Ansicht bietet;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48309-8_43 6d6ea7b4c233897f0cfc26bb1c40a8cb;de;;;3.3.;;;Gefahrenanalysesystem für Stadtbrände nach Erdbeben basierend auf GIS Die Autoren untersuchen den Aufbau, die Funktionen und die Datenorganisation für das Gefahrenanalysesystem für urbane Erdbeben nach Erdbeben auf der GIS-Plattform. Ein allgemeines Gefährdungsanalysemodell des Brandes nach dem Erdbeben wird vorgestellt. Vor dem Hintergrund des zentralen Bezirks von Shanghai wird ein System zur Gefahrenanalyse des Brandes nach dem Erdbeben und der Hilfsentscheidung gegen Feuer entwickelt.;-;-;-;https://link.springer.com/article/10.1007/s11589-001-0123-2 aae2f382fbbb783531fbf2a09524a437;de;;;3.3.;;;Eine WSDL-Erweiterung für die leistungsorientierte Beschreibung von Webdiensten Webdienste sind die Bausteine ​​des aufkommenden Computerparadigmas, das auf serviceorientierten Architekturen basiert. Ein Webservice ist eine selbstbeschreibende, offene Komponente, die eine schnelle Zusammenstellung verteilter Anwendungen unterstützt. Web-Service-Definitionen werden verwendet, um die Service-Fähigkeiten in Bezug auf die Operationen des Service und die Eingabe- und Ausgabenachrichten für jede Operation zu beschreiben. Solche Definitionen werden in XML unter Verwendung der Web Service Definition Language (WSDL) ausgedrückt. Leider befasst sich eine WSDL-Beschreibung nur mit den funktionalen Aspekten eines Webdienstes, ohne eine nützliche Beschreibung nicht funktionaler oder Dienstqualitätsmerkmale zu enthalten. Dieses Papier befasst sich mit dem Leistungsmerkmal Dienstgüte und stellt eine WSDL-Erweiterung zur Beschreibung der Leistungsmerkmale eines Webdienstes vor. Die Erweiterung erfolgt als Metamodelltransformation nach den von der Model Driven Architecture (MDA) empfohlenen Prinzipien und Standards. Das WSDL-Metamodell wird eingeführt und dann in das P-WSDL-Metamodell (Performance-enabled WSDL) umgewandelt. Die vorgeschlagene P-WSDL-Erweiterung kann effektiv verwendet werden, um Leistungsanforderungen von Webdiensten zu spezifizieren, Leistungsdaten, die auf bestimmten Webdiensten gemessen wurden, zu beschreiben, leistungsorientierte Merkmale bei der Abfrage von Webdienst-Registern hinzuzufügen, um die Ableitung von Leistungsmodellen von Web-Diensten zu erleichtern Dienste und um die automatisierte Zuordnung von WSDL-Dokumenten zu P-WSDL-Dokumenten und von UML-Modellen zu P-WSDL-Webdiensten zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/11569596_40 2017173d805c2b81c01633abcc0457d7;de;;;3.3.;;;Entwurf eines Referenzmodells zur Verbesserung des Sicherheitsprozesses Dieses Papier soll ein Reifegradmodell des Sicherheitsprozesses vorschlagen. Es gibt viele Risikoelemente, die die Sicherheitsanforderungen während der Softwareentwicklung verursachen. Dieses Whitepaper bewertet die Effizienz des Sicherheitslebenszyklus, das Erkennen neuer Risikoelemente und das Entfernungsverhältnis im Lebenszyklus der Sicherheitsanforderungen. Bei ähnlichen Domänenprojekten können wir Sicherheitsrisikoelemente entfernen und sie mithilfe des Sicherheitslebenszyklus vorantreiben, was den Softwareprozess erheblich verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24106-2_49 a38a3ee752ae1df14f6eed2036b8ff9c;de;;;3.3.;;;Interne Netzwerk-Penetrationstests mit kostenlosen/Open-Source-Tools: Netzwerk- und Systemverwaltungsansatz Netzwerksicherheit ist in einer modernen Welt ein wachsendes Anliegen, unabhängig von der Größe oder dem Volumen des Unternehmens. Penetrationstests sind eine der Techniken, die zur Bewertung der Netzwerk- und Systemsicherheit verwendet werden. Es beinhaltet den legalen Versuch, in das Netzwerk einzudringen, um vorhandene Schwachstellen und Exploits zu überprüfen und zu simulieren, was ein echter Hacker tun könnte. Es kann die Sicherheit des Netzwerks erhöhen, indem es nach Exploits und Schwachstellen im System sucht und dann Möglichkeiten zur Minderung der Risiken finden. In diesem Papier wird ein virtuelles Netzwerklabor entworfen und eingerichtet, um den Penetrationstest durchzuführen, indem Angriffe und Eindringen in die Netzwerkinfrastruktur demonstriert werden. Das Betriebssystem Kali Linux wird verwendet, um Penetrationstests durchzuführen. Informationssammlung, Schwachstellenanalyse, Ausnutzung, Berichterstattung werden auch als Teil von Penetrationstests präsentiert, gefolgt von einer Penetrationstest-Methodik. Theoretische Hintergründe zu Penetrationstests wurden ebenfalls diskutiert. Zur Simulation möglicher Angriffe werden Tools zum Sammeln von Informationen (Dmitry, Nmap und Zenmap), Tools zum Scannen von Schwachstellen (Nexpose Community, Nessus, GFI Languard und OpenVAS) und Exploit-Tools (Armitage, Metasploit Framework) verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3143-5_22 76f437eb5c794d6f7fef0295e3d02363;de;;;3.3.;;;VR-Klassenzimmer für interaktives und immersives Lernen mit Bewertung des Verständnisses der Schüler Die virtuelle Klassenzimmerumgebung wird mithilfe von Virtual Reality erstellt, die es mehreren Schülern ermöglicht, wie in einer echten Klasse, jedoch mit einer besseren Lernumgebung, einzusteigen. Konventionelles Lernen ist derzeit im aktuellen Modell des Lehrbuchunterrichts eingeschränkt. Eine interaktive und visuelle Umgebung zum Lernen erhöht die Geschwindigkeit, mit der der Schüler Konzepte begreift. Auch wenn heute viele moderne Online-Lehrmethoden zur Verfügung stehen, kann nicht überprüft werden, ob ein Schüler aufmerksam ist oder nicht. Die Technologie entwickelt sich sehr schnell, und diese Forschung ist eine geeignete Integration zweier moderner Technologien: maschinelles Lernen und virtuelle Realität, um die Qualität der Ausbildung für die Schüler zu verbessern. Es wird eine gemeinsame VR-Umgebung geschaffen, die für das Lernen optimiert ist. Die Schüler können ein Head-Mounted-Display tragen und für sich selbst einen Avatar auswählen, der von anderen Schülern und Lehrern gesehen wird. Die VR-Umgebung wird mit der Unity3D-Software erstellt. Die Schüler müssen außerdem einen EEG-Scanner auf dem Kopf tragen. Die Ausgabe dieses Scanners wird dem Unterteil für maschinelles Lernen zugeführt. Neuronale Netze werden verwendet, um zu erkennen, ob der Schüler aufmerksam ist oder nicht. Wenn ein Schüler nicht aufpasst, wird der Lehrer darüber mit einer Nachricht in der Nähe des Avatars des Schülers informiert. Es hat viele Vorteile gegenüber traditionellen Lerntechniken, wie die Verwendung mehrerer Sinne und Inklusion für behinderte Schüler.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6977-1_11 d43d51bac22b562077385a8a4ccdf4eb;de;;;3.3.;;;Methode zum Beheben von Softwareproduktlinienfehlern Feature-Modelle (FMs) sind von größter Bedeutung bei der Darstellung von Variabilität in der Software Product Line (SPL), indem sie sich auf die Menge gültiger Kombinationen von Features konzentrieren, die ein Softwareprodukt haben kann. Die Qualität von FMs ist einer der Faktoren, die die Qualität von SPL beeinflussen. Es gibt mehrere Arten von Fehlern in FMs, die die Vorteile von SPL reduzieren. FM-Fehler sind zwar ein ausgereiftes Thema, aber noch nicht ganz ausgereift. In diesem Beitrag werden unterschiedliche Studien zu den FM-Fehlern in SPL zusammengefasst und eine regelbasierte Methode zur Behebung dieser Fehler vorgeschlagen und anhand von Fallstudien erläutert. Die Ergebnisse der Auswertung mit FMs bis zu 1000 Features zeigen die Skalierbarkeit und Genauigkeit der gegebenen Methode, was die SPL-Qualität verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-6544-6_24 158c4313e64e22bbd4b89c978b2bbbf2;de;;;3.3.;;;Das Design des Model Checking Agent für das SMS Management System Heutzutage wird der Kurznachrichtendienst (SMS) im Direktvertrieb und im Network Marketing verwendet, das ein Teil des E-Business ist. Viele Systeme integrieren Informationssysteme, die Mobiltelefone als Kommunikationsmedium verwenden, um sicherzustellen, dass Geschäftsprozesse effektiver und förderlicher werden. Ziel des Systems ist es, die Anbindung und Vernetzung im Managementsystem für Direktvertriebsaktivitäten zu verbessern. Da die SMS-Dienste jedoch von den mobilen Benutzern ausgiebig genutzt wurden, traten während der Laufzeit jedes Zustands der E-Business-Prozesse mehrere außergewöhnliche Probleme auf. Folglich wurde der Richtigkeit und Sicherheit der Systemleistung kein Vertrauen geschenkt. Daher schlagen wir in diesem Papier einen Entwurf eines Modellprüfagenten für ein SMS-Verwaltungssystem vor, um dieses Problem zu lösen. Agenten werden zu einer Plattform für die Modellprüfung bei der Abwicklung der Verifizierungs- und Validierungsprozesse im SMS-Managementsystem. Wir haben einen Model Checking Agent als zuverlässiges Werkzeug zur Bewertung des Ausfalls von Protokollen im SMS-Managementsystem entwickelt. Wir haben auch das Vorschlagsmodell analysiert, das zur Qualität von SMS-Nachrichten beigetragen und die Fehlererkennung im E-Business-Prozess erhöht hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78582-8_82 9ea7d2c1a52cb62e1cc39fc1e45f1fc2;de;;;3.3.;;;Agglomeration des Technologieinnovationsnetzwerks der Automobilindustrie mit neuer Energie basierend auf IoT und künstlicher Intelligenz Wir sind in das Zeitalter von Big Data eingetreten. Herkömmliche B2C-Überwachungsplattformen sind bei weitem nicht in der Lage, die Bedürfnisse bestehender Benutzer zu erfüllen, und die Übertragungskosten werden einen unsichtbaren Druck erzeugen. Daten sind die immateriellen Vermögenswerte von New-Energy-Fahrzeugunternehmen. Mit der Zunahme der Benutzernutzung und der Ansammlung von Daten haben immer mehr Menschen begonnen, darüber zu diskutieren, wie der Betrieb von Daten überwacht werden kann, um effektive Daten für Betreiber und Endbenutzer von Fahrzeugen mit neuer Energie bereitzustellen. Aus Sicht der Clustertechnologie werden die Auswirkungen industrieller Innovation und verschiedene Aspekte industrieller Innovation ausführlich erläutert. Der technologische Innovationsprozess von Clustern und Industrieclustern ist ein komplexes System Engineering. Unter den Bedingungen des Interaktionsergebnisses werden verschiedene Elemente von Industrieclustern in einem spezifischen sozialen und wirtschaftlichen Umfeld gebildet, um die Interaktion zu fördern. Zweitens, von der Einsparung von Transaktionskosten bis hin zur Auseinandersetzung mit dem internen Mechanismus der technologischen Innovation von Industrieclustern, analysieren Sie theoretisch die industrielle Wertschöpfungskette des Wissensaustauschs, der ergänzenden Vermögenswerte und des Industriecluster-Wissens und analysieren Sie dann die industrielle Cluster-Innovation. Der technologische Innovationsmechanismus in diesem Papier ist die Netzwerkstruktur, der Anwendungsmechanismus und der Funktionsmechanismus des Innovationsnetzwerks von Industrieclustern. Basierend auf der Spieltheorie, durch die Etablierung eines mikroökonomischen Modells, um den internen Mechanismus des Ripple-Effekts und des Integrationseffekts unter technologischer Innovation zu analysieren und ihn durch Messung des Ripple-Effekts, des Integrationseffekts und der technologischen Innovation des internen Mechanismus zu überprüfen.;-;-;-;https://link.springer.com/article/10.1007/s12652-021-03102-2 4dedcec87df944ebe6a3bc4b1472a2b8;de;;;3.3.;;;Eine Lösung der multidisziplinären kollaborativen Simulation für komplexe Engineering-Systeme in einer verteilten heterogenen Umgebung Dieses Papier präsentiert einen integrierten Ansatz zur multidisziplinären kollaborativen Simulation für komplexe technische Systeme. Das formulierte Paradigma der multidisziplinären kollaborativen Simulation für komplexe Engineering-Systeme wird grundsätzlich analysiert. Ein auf IEEE HLA und Webservices basierendes Framework wird vorgeschlagen, um eine heterogene, verteilte und kollaborative Betriebsumgebung bereitzustellen, in der multidisziplinäre Modellierung, Betriebsmanagement und Nachbearbeitung der kollaborativen Simulation durchgeführt werden. Die Mechanismen multidisziplinärer kollaborativer Modellierung, disziplinärer Modelltransformation und zeitsynchronisierter Simulationsfortschritte werden im Detail untersucht. Ein Prototyp mit den Funktionen multidisziplinäre Modellierung, Laufmanagement und Nachbearbeitung für kollaborative Simulationen wird entwickelt und ein typisches komplexes Engineering-System als Fallstudie ausgewählt, um die Wirksamkeit dieses neuen Ansatzes für kollaborative Simulation zu demonstrieren.;-;-;-;https://link.springer.com/article/10.1007/s11432-009-0153-2 0b346c33774f1c8f4ab0172a1763ed71;de;;;3.3.;;;Eine Technik zur frühen Vorhersage der Softwarezuverlässigkeit basierend auf Designmetriken In den frühen Stadien der Entwicklung ist es schwierig, die Zuverlässigkeit eines Softwareprodukts quantitativ zu beurteilen. In diesem Zusammenhang schlagen wir einen Bottom-up-Ansatz vor, um die Zuverlässigkeit einer objektorientierten Software aus ihren Produktmetriken, die während der Architekturentwurfsphase gesammelt wurden, vorherzusagen. Ein Fehlermodell wird konstruiert, um verschiedene Arten von Fehlern zu kategorisieren, die in den Komponenten des Softwareprodukts auftreten können. Anschließend werden die Produktmetriken, die während der Software-Designphase gesammelt wurden, verwendet, um die erwartete Anzahl von verschiedenen Arten von Fehlern abzuschätzen, die in einer Komponente auftreten können. Schließlich werden diese geschätzten Werte der verschiedenen Fehlerarten verwendet, um die erwarteten Werte der Gesamtzahl der in der Komponente vorhandenen Fehler vorherzusagen. Wir verwenden den geschätzten Fehlergehalt der Komponente und die Anzahl der Tests, die an der Komponente durchgeführt werden, um die Zuverlässigkeit der Komponente vorherzusagen. Wir verwenden einen probabilistischen Ansatz, das Bayesian Belief Network, um die Zuverlässigkeit der Komponenten anhand von Produktmetriken vorherzusagen. Basierend auf vorhergesagten Zuverlässigkeiten und Nutzungshäufigkeiten der Komponenten wird die Zuverlässigkeit eines Systems vorhergesagt. Die Anwendbarkeit unseres vorgeschlagenen Modells wird durch eine Fallstudie veranschaulicht. Darüber hinaus führten wir eine Reihe von Experimenten durch und verglichen unseren Ansatz mit einem in der Literatur beschriebenen etablierten Ansatz, um die Genauigkeit unseres Ansatzes zu untersuchen. Die Analyse der Ergebnisse unserer Experimente legt nahe, dass unser Ansatz ein einigermaßen genaues Ergebnis liefert.;-;-;-;https://link.springer.com/article/10.1007/s13198-011-0078-1 252cd5bb72556c008258179a49a7cb59;de;;;3.3.;;;Geometrie- und Domänenmodellierung für Bauroboter Bauroboter arbeiten in einer Umgebung, die sich stark von der von Fertigungsrobotern unterscheidet. Dieses Umfeld ist weniger strukturiert, komplexer und dynamischer als es in der Fertigung üblich ist. Darüber hinaus sind Bauroboter von Natur aus mobil, da sie damit beschäftigt sind, eine im Vergleich zu ihren Abmessungen große unbewegliche Struktur aufzubauen oder zu warten. Ein weiterer erschwerender Faktor ist die Einzigartigkeit der Aktionen, die ein Bauroboter ausführen muss: Die Anzahl der besonderen Bedingungen, die in Gebäuden vorliegen können, ist groß. Alle diese Unterschiede liefern Argumente für zwei verwandte Fähigkeiten, die von Baurobotern verlangt werden: die Fähigkeit,;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-7404-6_18 d74961eef9a97c7fbfdab03622836453;de;;;3.3.;;;Anforderungen an ein Workflow-System für die Grid-Service-Zusammensetzung In diesem Positionspapier schlagen wir ein Workflow-System der neuen Generation für Grid Services vor. Wir beobachten, dass Grid Computing eine immer wichtigere Anwendungsdomäne in der Informatik geworden ist. Grid-Services – eine neue Technologie auf Basis von Web-Services – werden voraussichtlich zum De-facto-Standard für Grid-Computing. Ähnlich wie bei Webservices wird ein effektiver Mechanismus für die Zusammenstellung von Grid Services benötigt. Bestehende Technologien haben jedoch eine Reihe wichtiger Nachteile: Sie unterstützen die Modularisierung von Querschnittsbelangen, die dynamische Workflow-Anpassung und das High-Performance-Computing nur begrenzt oder gar nicht. Wir schlagen ein Workflow-System der neuen Generation vor, das speziell auf Netzdienste zugeschnitten ist und unter anderem diese Probleme angeht.;-;-;-;https://link.springer.com/chapter/10.1007/11837862_35 7e512d305c486740dc954c0a6b8056fe;de;;;3.3.;;;Ein Rahmen für die Zuverlässigkeitsbewertung von Softwarekomponenten Dieses Papier schlägt einen konzeptionellen Rahmen für die Zuverlässigkeitsbewertung von Softwarekomponenten vor, der die Testfallausführung und die Ausgabebewertung umfasst. Die Bestimmung eines Betriebsprofils und die Bewertung der Testergebnisse sind zwei schwierige und wichtige Probleme, die in einem solchen Rahmen angegangen werden müssen. Die Bestimmung eines Betriebsprofils ist schwierig, da die zukünftige Verwendung der Komponente vorhergesehen werden muss. Für jeden Testfall wird ein erwartetes Ergebnis benötigt, um das Testergebnis zu bewerten, und ein Testorakel wird verwendet, um diese erwarteten Ergebnisse zu generieren. Das Framework kombiniert statistische Tests und Testorakel, die als selbstüberprüfende Versionen der Implementierungen implementiert sind. Das Framework wird anhand von zwei Beispielen veranschaulicht, die ausgewählt wurden, um die Probleme zu identifizieren, die angegangen werden müssen, um eine Toolunterstützung für das Framework bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24774-6_24 0281c157c5d7e85ba2a64dfb043d6fb5;de;;;3.3.;;;Verbesserung des CATS-Frameworks durch Bereitstellung einer asynchronen Bereitstellung für mobile Anwendungen Die in diesem Papier vorgestellte Arbeit konzentriert sich auf die Verwendung des CATS-Frameworks (ein Framework, das der Anpassung und Bereitstellung kontextbewusster Dienste im Verkehrskontext gewidmet ist) auf Anwendungen, die den Benutzer bei Verkehrsaktivitäten unterstützen (z einer Stadt, Parkplatzsuche usw.). Wir präsentieren eine Lösung zum Bereitstellen und Verwenden dieser Dienste, wenn Benutzer keine Verbindung zum WAN haben, indem asynchrone Lösungen auf Basis von Smart Cities-Infrastrukturen verwendet werden. Am Ende dieser Arbeit wurde ein Prototyp entwickelt und evaluiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37974-1_20 c8b15324b154edb7ceb44bcb86f19d70;de;;;3.3.;;;Double Circulation Wear Leveling für PCM-basierte eingebettete Systeme Phase Change Memory (PCM) hat sich mit seinen attraktiven Eigenschaften als vielversprechender Kandidat entwickelt, um DRAM in eingebetteten Systemen zu ersetzen. Die Beständigkeit von PCM schränkt jedoch seine Verwendung in eingebetteten Systemen stark ein. Es kann nur eine begrenzte Anzahl von Schreibvorgängen aufrechterhalten. Um dieses Problem zu lösen, schlagen wir eine einfache, neuartige und effektive Wear-Leveling-Technik namens Double Circulation Wear Leveling (DCWL) vor, um Schreibaktivitäten gleichmäßig auf die PCM-Chips zu verteilen. Die Grundidee besteht darin, den heißen Bereich periodisch über die gesamten PCM-Chips zu verschieben. Wird eine Bewegung des Heißbereichs ausgelöst, bewegen sich mehrere kleine Bereiche im Heißbereich nach rechts. Die experimentellen Ergebnisse zeigen, dass unsere Wear-Leveling-Technik die Lebensdauer von PCM-Chips im Vergleich zu früheren Arbeiten effektiv verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44491-7_15 4a93d4b2cf5bdf190964c9f2d7cf7a68;de;;;3.3.;;;Region Westafrika Westafrika ist eine der Regionen in Subsahara-Afrika und besteht aus 16 Nationen. Dieses Kapitel konzentriert sich auf ausgewählte Länder in Westafrika, insbesondere Ghana und Nigeria, und analysiert deren Erfahrungen mit Prepaid-Stromzählern. Ghana und Nigeria haben Elektrifizierungsraten von 85% bzw. 62%. Die Prepaid-Messung wurde 1995 in Ghana eingeführt, während Nigeria 2005 die Prepaid-Messung einführte. Beide Länder führten die Prepaid-Messung ein, um die Einnahmenerfassung zu verbessern und die finanzielle Integrität zu gewährleisten. Die Hauptherausforderung war unter anderem das Fehlen einer landesweiten Einführung von Prepaid-Zählern und einer instabilen Infrastruktur für das Aufladen von Stromeinheiten. Um dieser Herausforderung zu begegnen und eine flächendeckende Einführung von Prepaid-Zählern zu gewährleisten, werden für beide Länder intelligente Prepaid-Zähler vorgeschlagen, die die Kommunikation zwischen dem Versorger und den Verbrauchern ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71217-4_5 b0e8561b9a3a5c0502b91030b6a339b6;de;;;3.3.;;;Entwicklung eines patientenzentrierten Systems für den sicheren Austausch medizinischer Daten Die Entwicklung patientenzentrierter Gesundheitssysteme, die die intelligente Integration verteilter medizinischer Daten berücksichtigen, ist eine Herausforderung. Dies beinhaltet den Umgang mit zahlreichen architektonischen Abhängigkeiten und Anforderungen als Ergebnis der Verschmelzung einer Vielzahl von Technologien der zukünftigen Generation. Beispiele für neuere Ansätze sind Vorschläge für ein einheitliches Format für Krankenakten zur Erleichterung einer effizienten Gesundheitsversorgung, eine transparente Datenzugriffskontrolle mithilfe von Blockchain-Technologie sowie neue Authentifizierungsmechanismen und Techniken zur Wahrung der Privatsphäre für die Datenanalyse. Das Seren-Projekt schlägt ein innovatives Design für ein Smart-Health-Center-System in einer verteilten Entwicklungsarbeit vor. Das Ziel ist eine umfassende Lösung für die Integration und den Zugriff auf transnationale Krankenakten. Dieses Papier konzentriert sich auf den Architekturentwurfsworkflow als eine Möglichkeit, Artefakte für Entwicklungsiterationen bereitzustellen und zur Modulintegrationsplanung im Softwareentwicklungsprozess beizutragen. Unsere Erfahrung zeigt, dass Systemarchitekten und Entwickler in Datenintegrationsprojekten für die Gesundheitsversorgung von den entworfenen Sichtweisen als Artefakte profitieren können, um Integrationsherausforderungen aufzudecken und Qualitätsmerkmale hervorzuheben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58817-5_44 e9e9b0d0e841ce8a6d77680c36b33ec3;de;;;3.3.;;;Ein integrierter Ansatz zur Erfassung der Semantik von Anforderungskonflikten Konfliktidentifikation ist einer der kritischen Bereiche im Software-Engineering. Es ist sehr wichtig, die Semantik von Konflikten zwischen nichtfunktionalen Anforderungen für Konfliktlösungsaufgaben zu verstehen. In diesem Papier wird ein Rahmen bereitgestellt, um die Natur von Konflikten zwischen nichtfunktionalen Anforderungen zu verstehen, indem die integrierte Analyse von funktionalen Anforderungen, nichtfunktionalen Anforderungen, internen Einschränkungen und externen Einschränkungen verwendet wird. Die Ausgabe des vorgeschlagenen Modells ist ein Konfliktbaum, der Konflikte zwischen nicht-funktionalen Anforderungen von einer Ebene auf eine andere Ebene verfeinert. Schließlich wird eine Fallstudie zum Überwachungs- und Kontrollsystem eines Fertigungsunternehmens diskutiert, um die Natur von Konflikten zwischen nicht-funktionalen Anforderungen zu verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25734-6_148 0f24af270c287044177525b978bcdf22;de;;;3.3.;;;Assurance Cases in der modellgetriebenen Entwicklung der Herzschrittmacher-Software Wir diskutieren die Konstruktion eines Assurance Case für die Schrittmachersoftware. Die Software wird nach einer modellbasierten Technik entwickelt, die die formale Modellierung des Systems, die systematische Codegenerierung aus dem formalen Modell und die Messung des Timing-Verhaltens der Implementierung kombiniert. Wir zeigen, wie die Struktur des Assurance Case unseren Entwicklungsansatz widerspiegelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16561-0_33 9f8bd6d18f9fec72e4f804f21a17d1cd;de;;;3.3.;;;Deep Demosaicing mit ResNet-Bottleneck-Architektur Demosaicing ist ein grundlegender Schritt in einer Kamera-Pipeline, um ein vollständiges RGB-Bild aus den von einem Kamerasensor erfassten Bayer-Daten zu erstellen. Die herkömmlichen Signalverarbeitungsalgorithmen funktionieren bei Bildern mit komplexen Mustern nicht gut, was zu mehreren Artefakten wie Moiré-, Farb- und Zipper-Artefakten führt. Das vorgeschlagene auf Deep Learning basierende Modell entfernt solche Artefakte und erzeugt Bilder von visuell überlegener Qualität. Das Modell schneidet sowohl bei sRGB (Standard-RGB-Farbraum) als auch bei linearen Datensätzen gut ab, ohne dass ein erneutes Training erforderlich ist. Es basiert auf Convolutional Neural Networks (CNNs) und verwendet eine Restarchitektur mit mehreren „Residual Bottleneck Blocks“ mit jeweils 3 CNN-Schichten. Die Verwendung von 1;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4018-9_16 7c640ec9f9ddb53b138aff65cbd4617d;de;;;3.3.;;;DXNet: Eine Encoder-Decoder-Architektur mit XSPP für die semantische Bildsegmentierung in Straßenszenen Die semantische Bildsegmentierung spielt eine entscheidende Rolle bei Aufgaben des Szenenverständnisses. Beim autonomen Fahren verursacht das Fahren des Fahrzeugs die Maßstabsänderungen von Objekten im Straßenbild. Obwohl Multiskalen-Merkmale durch Verketten mehrerer unterschiedlicher atrous-convolved-Merkmale gelernt werden können, ist es aufgrund von Faktoren wie Verdeckung schwierig, Fußgänger mit nur partiellen Merkmalsinformationen genau zu segmentieren. Daher schlagen wir eine Xiphoid Spatial Pyramid Pooling-Methode vor, die mit detaillierten Informationen integriert ist. Während dieses Verfahren die Merkmale mehrerer atrous-convolved verbindet, behält es die Bildebenenmerkmale der Zielgrenzinformationen bei. Basierend auf den obigen Methoden entwerfen wir eine Encoder-Decoder-Architektur namens DXNet. Der Encoder besteht aus einem neuronalen Netzwerk mit tiefer Faltung und zwei XSPP-Modulen, und der Decoder decodiert die erweiterten Funktionen durch Upsampling-Operationen und überspringt die Verbindung, um die Zielgrenze allmählich wiederherzustellen. Wir evaluieren die Wirksamkeit unseres Ansatzes anhand des Cityscapes-Datensatzes. Experimentelle Ergebnisse zeigen, dass unsere Methode bei Okklusion besser abschneidet, und der mittlere Schnittpunkt-über-Union-Score unseres Modells übertrifft einige repräsentative Arbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36802-9_59 c3045797ff469da467dd4ad4bf30330b;de;;;1.1.;;;RationalitätWenn man die Frage stellt, welche Erwartungen Außenstehende an Organisationen richten, so würde jede empirische Untersuchung wohl ergeben, dass eine Förderung oder zumindest eine angemessene Rücksichtnahme auf die eigenen Interessen erwartet wird. Das dürfte für Einzelmenschen als Antragsteller oder als Betroffene, als Kunden oder als Patienten, als Schüler in Schulen oder als Gefangene in Gefängnissen gelten. Es gilt aber auch für das Verhältnis von Organisationen zu Organisationen, etwa der Firmen zu ihren Banken oder der Banken zu den Kredite suchenden Firmen, oder für das Verhältnis der Gewerkschaften zu den Unternehmen oder zum Staat, oder der Krankenhäuser zu den Krankenkassen und umgekehrt. Da Rücksichtnahme auf Interessen schwer zu spezifizieren ist und da enttäuschende Erfahrungen in Einzelfällen nicht ohne weiteres generalisiert werden können, entwickelt sich auf dieser Basis eine Art Vertrauen, oder zumindest belastet Misstrauen die Beziehungen in nahezu unerträglicher Weise, erhöht die Informations- und Kommunikationslasten und wird wohl nur durchgehalten, wenn es keine Alternativen, also keinen Markt gibt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-97093-0_15 da07bca3a1f971df0c24d8c8183f179d;de;;;3.3.;;;Application Runtime Framework für modellgetriebene Entwicklung Modellgetriebene Entwicklung zielt darauf ab, die Komplexität der Softwarekonstruktion zu überwinden, indem es Entwicklern ermöglicht, an den High-Level-Modellen von Softwaresystemen statt an Low-Level-Codes zu arbeiten. Die meisten Studien haben sich auf die Modellabstraktion, den Einsatz von Modellierungssprachen und automatisierte Unterstützungen für die Transformation der Modelle in implementierte Codes konzentriert. Das aktuelle Model-Driven Engineering (MDE) bietet jedoch wenig oder keine Unterstützung für die Systementwicklung (z. B. Plattform, Metamodell). Dieses Papier nimmt die Vision von MDE auf, Modelle weiter in laufende Systeme umzuwandeln. Wir präsentieren ein Framework zur Entwicklung einer MDE-Laufzeitumgebung, das die modellgetriebene Entwicklung von Unternehmensanwendungen unterstützt, um die Modelle automatisch bereitzustellen und die laufenden Anwendungen zu produzieren. Darüber hinaus unterstützt das Framework die Plattformentwicklung, indem es eine Infrastruktur bereitstellt, die robust gegenüber sich ändernden Anforderungen neuer Zielplattformen ist. Die Framework-Architektur, ihre zugrunde liegende Infrastruktur und Mechanismen werden auf einem laufenden Unternehmensanwendungssystem für halbautomatische Preisangebotsgenehmigungsdienste beschrieben und veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27207-3_26 092de33764f4f23a36568d6b58129d7a;de;;;3.3.;;;Trägt die Lean-Inception-Methodik zur Initiierungsphase von Softwareprojekten bei? Diese Arbeit zielt auf eine vergleichende Analyse der Lean-Inception-Methodik und der Scrum-Methodik ab, die in der Initiierungsphase des Embedded-Software-Projekts angewendet wurden, das aus einem kleinen Gewächshaus für den Indoor-Anbau von Salbei besteht, das über eine Mobiltelefonanwendung gesteuert wird. Die Lean Inception Methodik ist eine Kombination aus Lean Startup und Design Thinking, die am Ende des Prozesses schnell das Minimum Viable Product (MVP) erhält. Einige der in diesem Beitrag untersuchten Fragen waren, wie stark die Lean Inception-Methodik in die Agilität der Produktion von MVP eingreift, wie stark sie die Qualität des Endprodukts beeinflusst und die Vorteile dieser Methodik in der Projektinitiierungsphase aufzeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58817-5_53 9088d13610e4cb02541a005b3b776cb9;de;;;3.3.;;;Ein Erdbebenvorhersagesystem für Bangladesch mit Deep Long Short-Term Memory Architecture Erdbeben ist eine Naturkatastrophe, die neben dem Tod vieler Menschen eine der bedeutendsten Ursachen für strukturelle und finanzielle Schäden ist. Die Vorhersage des Erdbebens mindestens einen Monat vor dem Ereignis kann die Zahl der Todesopfer und den finanziellen Verlust verringern. Bangladesch liegt in einer aktiven seismischen Region, in der fast jedes Jahr viele Erdbeben kleiner und mittlerer Magnitude auftreten. Mehrere Wissenschaftler haben vorhergesagt, dass in dieser Region in Kürze ein Erdbeben mit erschreckender Energie droht. In dieser Arbeit haben wir eine auf langem Kurzzeitgedächtnis (LSTM) basierende Architektur für die Erdbebenvorhersage in Bangladesch im folgenden Monat vorgeschlagen. Nach der Abstimmung der Hyperparameter wird eine Architektur aus 2 LSTM-Schichten mit 200 bzw. 100 Neuronen zusammen mit;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6081-5_41 6b2e9947d9bbc302fb186e2fd92d2795;de;;;3.3.;;;Simulieren des Arbeitsgedächtnisses zur Lenkung der visuellen Aufmerksamkeit für die Erfassung von Zielen durch ein computergestütztes kognitives Modell Es gibt zwei gegensätzliche Ansichten darüber, ob das Arbeitsgedächtnis die visuelle Aufmerksamkeit lenken kann. Einige Forscher haben berichtet, dass der Inhalt des Arbeitsgedächtnisses die visuelle Aufmerksamkeit lenkt, um das Ziel effizient zu erfassen. Andere berichteten jedoch, dass sie keine Hinweise auf eine Aufmerksamkeitserfassung durch das Arbeitsgedächtnis finden konnten. In dieser Studie wurde versucht, mit Computersimulation Beweise für den ersten Blick zu finden. Zur Simulation des vereinfachten 4×4 Sudoku-Problemlösens wurden zwei auf zwei Hypothesen basierende Modelle aufgestellt, bei denen gleichzeitig ein fMRI-Experiment (Functional Magnetic Resonance Imaging) durchgeführt wurde. Ein Modell basiert auf der Annahme einer visuellen selektiven Aufmerksamkeit durch das Arbeitsgedächtnis, während das andere auf einer Annahme ohne lenkende zufällige Aufmerksamkeit basiert. Beide Modelle sagen die Reaktionszeit (RT) und die vom Blutsauerstoffgehalt abhängige (BOLD) Reaktion voraus. Die kognitive Kostenanalyse der Vorhersagen zeigt, dass für kein Leitmodell mehr Kosten aufgewendet wurden, was zu mehr Unterschieden zwischen fMRT-Realdaten und Vorhersagen führte, während das andere die Kosten senken und eine gute Fitness erzielen kann. Diese Studie bestätigt die erste Ansicht und zeigt, dass das Arbeitsgedächtnis, das die visuelle Suche nach dem Fangziel leitet, die Intelligenz des menschlichen Gehirns ist, die kognitiven Kosten zu reduzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23235-0_46 900d984f244eae89b8d3f542aab7705c;de;;;3.3.;;;Miniaturisierung mobiler Roboter: Ein Werkzeug zur Untersuchung von Regelalgorithmen Die Interaktion eines autonomen mobilen Roboters mit der realen Welt hängt entscheidend von der Morphologie des Roboters und seiner Umgebung ab. Der Aufbau eines Modells dieser Aspekte ist äußerst komplex, was die Simulation für eine genaue Validierung von Regelalgorithmen unzureichend macht.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0027617 f23738955a47a4182aa5eedff0cce2c4;de;;;3.3.;;;Ein nahtlos selbstkonfigurierendes EtherCAT-Master-Redundanzprotokoll Die ständig steigende Nachfrage nach Systemautonomie in allen Arten von Anwendungen geht einher mit der Notwendigkeit einer erhöhten Fehlertoleranz, um hochzuverlässige Systeme aufzubauen. Die EtherCAT-Technologie ist eine der am weitesten verbreiteten Industrial-Ethernet-Lösungen für die Prozesssteuerung und Automatisierung. EtherCAT bietet zwar einige Fehlertoleranzmechanismen, schützt jedoch ein industrielles Steuerungssystem nicht vor der Fehlfunktion seines Masterknotens. In diesem Beitrag stellen wir ein softwarebasiertes Master-Redundanzprotokoll für EtherCAT vor, das es einem EtherCAT-Netzwerk ermöglicht, sich innerhalb desselben Kommunikationszyklus nahtlos von Master-Knoten-Ausfällen zu erholen. Darüber hinaus lässt sich das Protokoll nahtlos in neue und bestehende Anwendungen integrieren, ohne dass Funktionen neu implementiert werden müssen und ohne Kompatibilitätsprobleme auftreten. Experimentelle Ergebnisse zeigten, dass Kommunikationszyklen im Sub-Millisekunden-Bereich unterstützt werden. Somit bietet das vorgestellte Master-Redundanzprotokoll eine einfach zu bedienende, skalierbare und kostengünstige Lösung zur Erhöhung der Zuverlässigkeit von EtherCAT-Netzwerken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-56441-4_28 71df433f89ed93a47acb4507efb79777;de;;;3.3.;;;Diskriminierendes Modell der BIM-Akzeptanzbereitschaft in einer Bauorganisation Building Information Modeling (BIM) ist ein allgemeiner Begriff für eine Technologie, die Projektinformationen mit objektbasierten 3D-Modellen verknüpft, die während des gesamten Lebenszyklus eines Projekts Daten verwalten, austauschen und zwischen den Projektbeteiligten teilen. Dementsprechend wird erwartet, dass der Schwerpunkt auf BIM auf dem internationalen Baumarkt noch stärker wird und sich auf fortgeschrittene Bauländer wie die Vereinigten Staaten und Europa konzentriert. Auch der koreanische Inlandsmarkt steht aufgrund des Zustroms von Investitionen und des gestiegenen Interesses an der Einführung von BIM und der verpflichtenden Anwendung von BIM vor der Einführung von BIM. Auf dem koreanischen Inlandsmarkt ist die BIM-Einführungsrate hoch, während die BIM-Benutzerkenntnisse gering sind. Außerdem ist der Anteil der Nutzer, die die BIM-Nutzung aufgeben, ziemlich hoch. Dies ist hauptsächlich auf die Einführung von BIM in einer Situation zurückzuführen, in der die Organisationen für die verschiedenen Elemente, die für die Nutzung von BIM erforderlich sind, nicht bereit sind. Dieses Muster führt zu Einschränkungen bei der Erzielung der erwarteten Effekte von BIM und führt zu einer verringerten fortgesetzten Nutzung aufgrund einer Abnahme der BIM-Glaubwürdigkeit. Daher zielt diese Forschung darauf ab, ein Diskriminanzmodell der BIM-Akzeptanzbereitschaft in einer Bauorganisation zu entwickeln, um die Bereitschaft für Elemente zu bewerten, die für die Verwendung von BIM erforderlich sind. Um das vorgeschlagene Modell empirisch zu verifizieren, haben wir 164 ausgefüllte Fragebögen von Bauorganisationen (wie Auftragnehmern, Architekten, Bauleitern und Ingenieuren) abgerufen. Unter Verwendung von SPSS 17.0 führten wir eine Diskriminanzanalyse durch. Das validierte Modell wird das Bewusstsein für die Notwendigkeit schärfen, die BIM-Akzeptanzbereitschaft zu bewerten und die BIM-Akzeptanzbereitschaft vorherzusagen.;-;-;-;https://link.springer.com/article/10.1007/s12205-016-0555-9 8011634a644f199a08704f37d8ae03cb;de;;;3.3.;;;Passendes Modell der Flusstabelle für das softwaredefinierte Internet der Dinge Die Heterogenität der IoT-Geräte erschwert die Verwaltung. Das softwaredefinierte Internet der Dinge (SD-IoT) bietet ein praktikables und praktisches Paradigma für die Gestaltung eines effizienteren und flexibleren IoT. Die passende Strategie in der Flusstabelle von SD-IoT-Switches ist am wichtigsten. In diesem Papier verwenden wir einen Klassifizierungsansatz, um die Struktur von Paketen basierend auf dem Tuple-Space-Lookup-Mechanismus zu analysieren, und schlagen ein passendes Modell der Flusstabelle in SD-IoT-Switches vor, indem wir Pakete basierend auf einer Reihe von Feldern klassifizieren F-OpenFlow genannt. Die experimentellen Ergebnisse zeigen, dass der vorgeschlagene F-OpenFlow die Nutzungsrate und die Anpassungseffizienz der Flusstabelle in SD-IoT-Switches effektiv verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6834-9_5 54fd7a2e57cc97bf163952970015c58b;de;;;3.3.;;;Lehrerunterstützung für theatralische Lernförderung im Lectutainment Lectutainment zielt darauf ab, die Lernmotivation der Studierenden in einer Vorlesung zu steigern. Insbesondere schafft es eine ungewöhnliche Vortragsatmosphäre, indem audiovisuelle Effekte als theatralische Lernunterstützung ausgeführt werden. Eine unterstützende Funktion ist für einen Lehrer notwendig, um audiovisuelle Effekte bereitzustellen. Unsere Grundidee für die Lehrerunterstützungsfunktion besteht darin, in einer Vorlesung Informationen über die Schüler in die Sicht des Lehrers einzublenden. Mit anderen Worten, es soll dem Lehrer ermöglichen, die Schüler mithilfe von Augmented Reality zu durchschauen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31715-6_43 0e6d8e2a43881205041b6eea7e0cfe02;de;;;1.1.;;;Zielplanung des UnternehmenskulturmanagementsUnternehmenskutturen bestehen aus Systemen, die ihrerseits nur durch Systeme verändert werden können. Sieht man ein Unternehmen als Supersystem, so bildet die Planung von Unternehmenskuftur darin ein Subsystem. Als dynamisches Ereignis umfaßt Planung dabei die Teilbereiche Zielplanung, Prozeßplanung und Implementierung. Diese Teilbereiche bilden ihrerseits Subsysteme im Gesamtprozeß des unternehmenskulturellen Planungssystems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-86089-7_3 c56ffe63d2e7ea052d25a796974eb363;de;;;3.3.;;;Die Kontrolle und Messung der Anforderungsstabilität in Softwareprojekten Bei der Entwicklung von Softwareprojekten ist die Anforderungsstabilität ein wichtiger Faktor, der sich auf Erfolg oder Misserfolg von Softwareprojekten bezieht. Dieses Papier hat eine detaillierte Analyse der Faktoren durchgeführt, die die Anforderungsstabilität beeinflussen, schlug die Steuerungsmethode der Anforderungsstabilität vor, konstruierte den Steuerungsprozess der Anforderungsänderung und hat die Forschung zum Maß der Anforderungsstabilität durchgeführt, um den zu verstehenden Zweck zu erreichen den Grad der Anforderungen effektiv ändern, die dadurch verursachten Fehler und Risiken minimieren und den erfolgreichen Abschluss des Softwareprojekts gemäß einem vorgegebenen Kosten-, Zeitplan und Qualität sicherstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23993-9_56 a1ad5628189d3874c533f982c26a78f5;de;;;3.3.;;;Semi-zentraler Name-Routing-Mechanismus für rekonfigurierbare Netzwerke Um die Schwäche der gegenwärtigen Internet-Architektur zu überwinden, wurden in letzter Zeit einige neue Internet-Architekturen vorgeschlagen. Beispiele für diese Architekturen sind Information Centric Networking (ICN), Name Data Networking (NDN), rekonfigurierbares Networking usw. Soweit wir wissen, wurde der effizienteste namensbasierte Routing-Mechanismus, der zu den neuen Architekturen passt, noch nicht gefunden. Dieses Papier schlug ein Semi-Centralized Name Routing (SCNR)-Protokoll für ein rekonfigurierbares Netzwerk vor, um die Routing-Effizienz zu verbessern. Die Ergebnisse dieses Papiers zeigen, dass SCNR eine gute Leistung in ICN aufweist, das als eines der vielen Subnetzwerke in rekonfigurierbaren Netzwerken angesehen werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13326-3_43 f1c8ebc821eb3c6113f79971afa5d7e5;de;;;1.1.;;;Gegenstand der Betriebswirtschaftslehre„Die“ Betriebswirtschaftslehre gibt es nicht. Verschiedene Autoren grenzen den Gegenstand der Betriebswirtschaftslehre sehr unterschiedlich ab. Dabei kann man auf zweierlei Weise vorgehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-58961-4_1 7f535ab4b56a0dea8ea5034cc551ce3b;de;;;3.3.;;;Design und Implementierung von Netzwerkfestplatten Um den Benutzern die Möglichkeit zu geben, Daten an verschiedenen Orten frei auszutauschen, entwirft und realisiert dieser Beitrag ein neues Netzwerk-Festplattensystem namens MyNDS. MyNDS verwendet den C/S-Modus, um seine Struktur zu erstellen. Und Winsock2 wird für Clients verwendet, die mit dem Server kommunizieren. Wenn ein Benutzer auf die im MyNDS-Server gespeicherten Daten zugreift, fängt das MyNDS-Treibermodul die Anforderung ab und interpretiert sie in eine Freigabedatei. Nach dem Abrufen und der Kommunikation mit dem Server analysiert MyNDS die Anforderung und gibt das korrekte Ausführungsergebnis an den Benutzer zurück. Außerdem verwendet MyNDS den MD5-Algorithmus und den RSA-Algorithmus, um die Systemsicherheit zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11197-1_46 ae3c487b1479cfa2cea48996c7f37113;de;;;3.3.;;;Optimales Abfallmanagement in Smart Cities mit dem Internet der Dinge Smart Cities profitieren vom Internet der Dinge (IoT) bei der Optimierung ihrer Dienste. Intelligente Abfallwirtschaftssysteme können erhebliche Einsparungen bei Zeit, Geldkosten, Fahrtdauer und Fahrzeugauslastung ermöglichen. In diesem Papier verwenden wir die IoT-Technologie, um den Zeitplan und die Wege von Abfallsammelfahrzeugen zu bestimmen. Wir diskutieren unsere bisherigen Arbeiten zum Single Truck Routing Algorithmus und entwickeln und simulieren einen zweistufigen heuristischen Algorithmus Multiple Trucks Routing Algorithmus (MITRA), um die ideale Route für die Entsorgungsflotte mit intelligenten Müllcontainern und agentenbasierten Modellen zu ermitteln. Die intelligenten Müllcontainer sind mit Sensoren zur Messung des Abfallaufkommens und einem Controller ausgestattet, um Updates über ein drahtloses Netzwerk an das zentrale Managementsystem zu senden. Unser Ziel ist es, den Abfallsammelprozess zu verbessern, indem die Staus auf den Straßen, die aufgewendete Servicezeit und die Gesamtfahrtdauer reduziert werden. Wir haben den MITRA-Algorithmus entwickelt, der die Timing-Beschränkung auf das Routing-Problem mit kapazitiven Fahrzeugen anwendet. MITRA unterteilt die Metropolregion in eine Reihe von Sektoren, die jeweils eine Reihe von Müllcontainern enthalten. Wir leiten die Routenführung bei der Abfallsammlung, indem wir die Reihenfolge der zu bedienenden Sektoren auswählen und dann einen genetischen Algorithmus anwenden, um die optimale Route zur Bedienung der vollen Müllcontainer in dem Sektor zu berechnen.;-;-;-;https://link.springer.com/article/10.1007/s11277-019-06738-8 0c7e7387d542800a5bea1713d48ab541;de;;;3.3.;;;Ein mobiler Landwirtschaftsroboter mit Vision-basierter Wahrnehmung für die mechanische Unkrautbekämpfung In diesem Beitrag wird ein autonomer mobiler landwirtschaftlicher Roboter für die mechanische Unkrautbekämpfung im Außenbereich vorgestellt. Der Roboter verwendet zwei Vision-Systeme: ein Graustufen-Vision-System, das in der Lage ist, die von den Pflanzen gebildete Reihenstruktur zu erkennen und den Roboter entlang der Reihen zu führen, und ein zweites, farbbasiertes Vision-System, das in der Lage ist, eine einzelne Frucht zu identifizieren unter den Unkrautpflanzen. Dieses Vision-System steuert ein Unkraut-Werkzeug, das das Unkraut innerhalb der Pflanzenreihe entfernt. Das Reihenerkennungssystem basiert auf einem neuartigen Algorithmus und wurde in Feldversuchen im Freien ausgiebig getestet und kann den Roboter mit einer Genauigkeit von ±2 cm führen. Es hat sich gezeigt, dass das Farbsehen für die Einzelpflanzenidentifikation möglich ist, d. h. die Unterscheidung zwischen Nutzpflanzen und Unkräutern. Das Gesamtsystem wurde verifiziert und zeigt, dass die Teilsysteme effektiv zusammenarbeiten können. Ein erster Versuch in einem Gewächshaus zeigte, dass der Roboter in der Lage ist, die Unkrautbekämpfung innerhalb einer Reihe von Kulturen zu verwalten.;-;-;-;https://link.springer.com/article/10.1023/A%3A1015674004201 0b1c608a17f76e40b9cca0859062fe3f;de;;;3.3.;;;Räumliche Veränderung der Chromatinarchitektur durch strukturelle Variationen in menschlichen Genomen auf Populationsebene Die Zahl der berichteten Beispiele für Veränderungen der Chromatinarchitektur, die an der Regulation der Gentranskription und bei Krankheiten beteiligt sind, nimmt zu. Es wurden jedoch keine genomweiten Tests durchgeführt, um die Häufigkeit dieser Ereignisse und ihre Bedeutung im Vergleich zu anderen Faktoren, die die Genomregulation beeinflussen, zu bewerten. Dies ist besonders interessant, da die überwiegende Mehrheit der in Assoziationsstudien identifizierten genetischen Variationen außerhalb von kodierenden Sequenzen lokalisiert sind. Diese Studie versucht, diesen Mangel zu beheben, indem die Auswirkungen genetischer Varianten, die bei Individuen aus 26 menschlichen Populationen und in genomweiten Assoziationsstudien identifiziert wurden, auf die räumliche Organisation des Chromatins analysiert werden.;-;-;-;https://link.springer.com/article/10.1186/s13059-019-1728-x 803a46221dd940809ea45c1c8d5680b7;de;;;3.3.;;;Kosteneffizientes und fehlerresistentes Modell zur Vorhersage der Wiederverwendbarkeit durch Verwendung eines adaptiven, auf genetischen Algorithmen basierenden neuronalen Netzes für Web-of-Service-Anwendungen Der exponentielle Anstieg der Softwaretechnologien und deren Bedeutung hat von der akademischen Industrie verlangt, kostengünstige Softwarelösungen mit gesicherter Servicequalität und Zuverlässigkeit zu gewährleisten. Ein kostengünstiges und fehlerresistentes Softwaredesign ist ein Muss, wo die Entwickler oder Programmierer die Wiederverwendung von Quellen oder Funktionen bevorzugen, um ein kostengünstiges Design zu erreichen. Eine übermäßige Wiederverwendbarkeit macht Software jedoch anfällig für Fehler aufgrund erhöhter Komplexität und Alterungsanfälligkeit. Die unbestreitbare Bewertung der Wiederverwendbarkeit einer Funktionsklasse in Software kann es ermöglichen, unerwartete Fehler oder Ausfälle zu vermeiden. Um dies zu erreichen, ist die Entwicklung eines robusten und effizienten Modells zur Schätzung oder Vorhersage der Wiederverwendbarkeit von größter Bedeutung. Andererseits können die Nachwirkungen von durch übermäßige Wiederverwendbarkeit verursachten Fehlern zu erheblichen Verlusten führen. Daher ist die Bewertung der Kosteneffektivität und Wirksamkeit eines Wiederverwendbarkeitsvorhersagemodells für die Optimierung des Softwaredesigns ein Muss. In diesem Artikel haben wir verschiedene Modelle zur Vorhersage der Wiederverwendbarkeit auf ihre Kosteneffizienz und Vorhersageeffizienz gegenüber objektorientiertem Softwaredesign untersucht. Um zunächst die Wiederverwendbarkeit einer Klasse zu untersuchen, werden drei wichtige objektorientierte Softwaremetriken (OO-SM), Kohäsion, Kopplung und Komplexität der Softwarekomponenten verwendet. Darüber hinaus umfasst unser vorgeschlagenes kosteneffizientes Modell zur Vorhersage der Wiederverwendbarkeit die Min-Max-Normalisierung, die Erkennung von Ausreißern, die Schätzung der Wiederverwendbarkeitsschwelle,;-;-;-;https://link.springer.com/article/10.1007/s10586-018-2359-9 3b09c01748786ffa33cf8ec77f22c710;de;;;1.1.;;;Design der Validierungsstudie, Datenbasis und AnalysemethodenDer vielversprechendste Weg, Befragtenverhalten empirisch zu analysieren, ist, dieses vom erfragten Verhalten isoliert zu erheben. Dies ist bei Validierungsdaten der Fall. Deren Kernmerkmal besteht darin, dass Befragte nach Handlungen gefragt werden, bei denen der wahre Wert der Handlung extern erhoben wurde und somit bekannt ist. Die empirische Analyse solcher Daten stellt ein Hauptanliegen der vorliegenden Arbeit dar. Konkret wurden Personen befragt, die wegen kleinerer krimineller Delikte strafrechtlich verurteilt wurden. Die Zusammensetzung der Stichprobe war hierbei weder den Befragten, noch den Interviewern bekannt (somit handelt es sich um ein Doppelblinddesign). Die „heikle Frage“ und zentrale abhängige Variable der Analysen ist die Antwort der Befragten auf die Frage, ob sie jemals strafrechtlich verurteilt wurden. Die Erhebung der Daten erfolgte durch Face to Face-Interviews (I-PAPI). Ein weiteres Kernmerkmal der Erhebung ist der experimentelle Methodensplit mit Randomisierung, 40 % der Befragten wurde im DQ-Modus befragt, 60 % im RRT-Modus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-19371-7_4 025f9b55fb0ff244e37e23984c9c328a;de;;;3.3.;;;Wissensflüsse in Open-Source-Softwareprojekten: Eine soziale Netzwerkperspektive Die Entwicklung von Software ist eine wissensintensive Tätigkeit, die umfangreiches technisches Wissen und Bewusstsein erfordert. Der abstrakte Teil der Entwicklung sind die sozialen Interaktionen, die den Wissensfluss zwischen den Mitwirkenden vorantreiben, insbesondere bei Open Source Software (OSS). Diese Studie untersuchte den Wissensaustausch und die Verbreitung aus sozialer Perspektive mittels Social Network Analysis (SNA). Wir haben die Probleme und die Historie von drei OSS von GitHub durchsucht und analysiert. Besondere Aufmerksamkeit wurde den sozialen Interaktionen durch Kommentare von Beitragenden zu Rezensionen gewidmet. Unser Ziel ist es, die Verbreitung und Dichte von Wissensflüssen innerhalb von Beitragsnetzwerken zu erklären. Die Ergebnisse zeigen, dass Bewertungsanfragen von den Kernmitarbeitern zu den peripheren Beitragenden fließen und Kommentare zu Bewertungen in einer kontinuierlichen Schleife von den Kernteams zu den Peripheriegeräten und zurück laufen, und die Kernmitarbeiter nutzen ihr Bewusstsein und ihr technisches Wissen, um ihre Bekanntheit durch Spielen zu erhöhen die Rolle von Kommunikationsvermittlern, unterstützt durch Kommentare zu Workitems.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-1627-1_19 0a8a0af51ef1b5cbec780ba9207f35b3;de;;;3.3.;;;Entwicklung eines Informationssystems für Cyberangriffe für das nationale Situationsbewusstsein Systeme der Informations- und Kommunikationstechnologie (IKT) untermauern viele der heutigen gesellschaftlichen Funktionen und die wirtschaftliche Entwicklung. Daher ist der Schutz der IKT-Infrastruktur eines Landes vor absichtlichen Cyberangriffen und unbeabsichtigten Störungen von größter Bedeutung. Die Zusammenarbeit aller Parteien in allen Bereichen des Cyberspace ist der Schlüssel zu effektiven und koordinierten Bemühungen zur Bewältigung von Cyberbedrohungen. Dies ist insbesondere der Fall, da Cyber-Bedrohungen immer ausgefeilter und verbreiteter werden. In diesem Papier stellen wir die grundlegenden Bausteine ​​zur Realisierung eines effizienten Vorfallsreaktionszyklus auf nationaler Ebene vor und schlagen die Gestaltung eines konzeptionellen Rahmens – des Cyber ​​Attack Information System (CAIS) – zur Etablierung eines nationalen Cyber-Situationsbewusstseins vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33161-9_42 db0b5e948fcc35d4a5fa8470bf524814;de;;;1.1.;;;Bewusstsein und der zweigleisige VerstandDas Bewusstsein ist manchmal eine komische Sache. Es beschert uns seltsame Erlebnisse – z. B. kurz vor dem Einschlafen oder Aufwachen – und manchmal fragen wir uns, wer wirklich die Kontrolle ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40782-6_4 07eb81e9e546ba9a243ec1e2dc40f92c;de;;;1.1.;;;Stahlbau 2.0: Selective Blended Learning mit mobilen ElementenIn diesem Kapitel wird das Konzept des Selective Blended Learning am Beispiel der Lehrveranstaltung „Stahlbau“ im Bachelorstudiengang Bauingenieurwesen vorgestellt. Zunächst werden Ziele und Anforderungen an die Studierenden beim Erwerb von Kompetenzen definiert. Anhand einfacher Beispiele werden die Methodik des Selective Blended Learning und dabei eingesetzte Techniken erläutert. Besonderes Augenmerk wird auf das Science Caching in Kombination mit der C4mpUs-App gelegt. Bisherige Erfahrungen und Evaluationsergebnisse werden präsentiert und kritisch reflektiert. Ziel der Ausführungen ist es, den Transfer von einzelnen, mehreren oder allen Elementen dieses neuen didaktischen Konzepts auch in andere Lehrveranstaltungen anzuregen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-22797-5_16 4c5eab7c7df60bd1eada5df30ebe6f76;de;;;3.3.;;;Rolle von Blitz-NOx bei der Ozonbildung: Ein Rückblick Dieser Artikel gibt einen Überblick über die raumzeitliche Verteilung und den Evolutionsmechanismus von Blitzen. Der vorherrschende Mechanismus der Ozonbildung in der oberen Troposphäre sind blitzinduzierte Vorläufer wie Stickoxide (NOx), Kohlenmonoxid (CO) und Kohlenwasserstoffe (HC). Blitzinduziertes NOx (LNOx) ist eine der wichtigsten gewöhnlichen NOx-Quellen in der oberen Atmosphäre, insbesondere in der tropischen Region, aber die genaue Menge ist noch sehr ungewiss. Verschiedene Bodenmessungen, Satellitenbeobachtungen und Modellstudien zum Blitzschlag und zur globalen NOx-Quellrate wurden umfassend untersucht und verglichen, um die Variabilität des geschätzten globalen blitzinduzierten NOx zu ermitteln. Blitze können über die Produktion von Stickoxiden (NO + NO .) das Klima beeinflussen;-;-;-;https://link.springer.com/article/10.1007/s00024-021-02710-5 b40608782f53b5658a6353f3bf2456bd;de;;;3.3.;;;Echtzeit-Synthese eines menschenähnlichen Agenten als Reaktion auf das Bewegtbild des Benutzers Dieses Papier beschreibt ein paralleles Computersystem und einen Softwarealgorithmus für die Echtzeitinteraktion zwischen einem menschlichen Benutzer und einem synthetisierten, menschenähnlichen, bewegten Bild. Der realistische, menschenähnliche Agent auf einem Monitor kann die Handflächenposition und Fingerbewegung (Fingerzeichen) des Benutzers erkennen. Dann verfolgt und starrt sie die Handposition an, um ihren Gesichtsausdruck als Reaktion auf das Fingerzeichen in Echtzeit zu ändern. Von diesem visuellen Softwareagenten (VSA) wird erwartet, dass er eine wichtige Rolle beim Aufbau einer fortschrittlichen Benutzeroberfläche spielt. Wir betrachten diese Art von interaktiven Agenten als;-;-;-;https://link.springer.com/article/10.1007/BF01213477 eb3ef41a6fe2dae8527da780fb4a1246;de;;;3.3.;;;Automatischer Ziegeldachgenerator für orientalisches Architektur-CAD-Design Bei der digitalen Gestaltung orientalischer Holzarchitektur ist das Zeichnen von Dachflächen eine sehr schwierige und aufwendige Aufgabe. Denn das Dach hat eine gewölbte Oberfläche und die Oberfläche besteht im Allgemeinen aus Hunderten von Dachziegeln. Und diese Tatsachen verursachen Modifikationsprobleme. Wenn Designer die Dachfläche neu zeichnen möchten, sollten alle zugehörigen Dachziegel im Detail angepasst werden. Um dieses Problem zu lösen und ein Dach effizient zu entwerfen, schlagen wir eine automatische Dachgenerierungsmethode vor, die in einem 3D-CAD-Programm anwendbar ist. Das automatische Dachgenerierungssystem ist in der Lage, die Dachform nach den Wünschen des Benutzers zu steuern. Die gewölbte Dachfläche wird grob durch die geometrischen Eigenschaften des Hauptrahmens des Hauses bestimmt, aber Details wie Dachkrümmung und LOD (Level of Detail) können vom Benutzer gesteuert werden. Das vorgeschlagene Dachsystem basiert auf dem BIM, so dass es genaue, im Bauprozess hilfreiche Mengen auswerten und informieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27204-2_14 a815684ff02b58dfc899ccf88f2c5110;de;;;1.1.;;;„...dass man nichts zu wählen hat“: Die Kontroverse um den Homo OeconomicusKontrastierung ist ein wirksames Mittel der Darstellung von Differenzen. Die heuristische Funktion einer solchen Vorgehensweise sollte dabei nicht in Vergessenheit geraten. Dies gilt in besonderer Weise für die hier zu behandelnde Thematik, die die Soziologie seit ihren Anfängen beschäftigt hat: das Verhältnis von Individuum und Gesellschaft, das Verhältnis von Intentionalität und normativem Handeln, das Verhältnis von Zweck- und Wertrationalität. Utilitaristische Erklärungen, so lautet ein verbreiteter Vorwurf, seien auf einen individuellen Steuerungsmodus fixiert, der die Umweltfaktoren zu sehr vernachlässige. In der aktuellen Individualisierungsdebatte kehrt diese Kontroverse wieder, wenn die Folgen eines institutionalisierten Individualismus als Desintegrationsphänomene diskutiert werden (vgl. ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-90401-6_4 b97a9515a14c5d0cf2abce6f38615d4a;de;;;3.3.;;;Forschung zu einem auf GIS und VPN basierenden Ersatzüberwachungssystem Mit der Entwicklung der Telekommunikation wird Outsourcing zu einer wichtigen Strategie in der Geschäftsentwicklung, daher ist es wichtig für die Überwachung und Bewertung von Ersatzunternehmen. Da das geografische Informationssystem (GIS) eine räumliche Analysefunktion hat, hat das virtuelle private Netzwerk (VPN) Vorteile in Bezug auf niedrige Kosten, gute Skalierbarkeit, hohe Sicherheit usw. In diesem Artikel wird die Entwicklung eines Ersatzüberwachungssystems mit GIS- und VPN-Technologien untersucht. die Implementierung der Gesamtsystemarchitektur, des Serverdesigns und des Terminaldesigns. Dieses System hat eine starke Wirtschaftlichkeit und Praktikabilität und kann auch das Managementniveau des Ersatzes verbessern, der die Unternehmens- und Servicequalität des Kommunikationsnetzes effektiv aufrechterhält.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-26001-8_73 eeacbe3874d61962fe6324ab23388391;de;;;3.3.;;;Herausforderungen bei der Bereitstellung steuerbarer drahtloser Testbeds Phased-Array-Antennen ermöglichen die Verwendung von Echtzeit-Beamforming und Null-Steering, um die Kontrolle der Signalstärke und Interferenzen in drahtlosen Netzwerken weiter zu verbessern. Das Verständnis des Potenzials dieser Plattform sowohl für Mesh- als auch für Single-Hop-Netzwerke wird immer wichtiger, da intelligente Antennen in aufkommenden Netzwerkstandards auftauchen. Frühere Versuche, nicht standardmäßige Antennenplattformen zu testen, konzentrierten sich typischerweise auf Simulationen, feste (nicht steuerbare) Richtantennenprüfstände und kleine temporäre Setups mit 1 oder 2 Phased-Array-Antennenknoten über eine Spannweite von einigen hundert Metern. In diesem Papier werden die Herausforderungen und die entwickelten Lösungen beim Aufbau von WART vorgestellt, einer permanenten, campusweiten Testumgebung für drahtlose Netzwerke mit Strahlformungsantennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17851-1_19 5c024087a4718785cd6d02c72a504490;de;;;3.3.;;;Autonome Bautechnologie der Gemeinschaft zur Erzielung eines hohen Versicherungsschutzes Im Einzelhandelsgeschäft unter dem sich entwickelnden Markt bitten die Benutzer kontinuierlich darum, die geeigneten Dienste basierend auf ihren Vorlieben und Situationen zu nutzen. Solche Anforderungen können mit dem herkömmlichen zentralisierten System aufgrund der dynamischen Änderungen der Benutzeranforderungen nicht erfüllt werden. Es wurde ein autonomes dezentralisiertes Gemeinschaftssystem (ADCS) vorgeschlagen, um ein System zu realisieren, das solche Anforderungen erfüllt. Das System realisiert Flexibilität, um dynamische Änderungen in der Umgebung zu bewältigen, aber da ADCS ein rein dezentrales System ist, existiert kein System, das das gesamte System überwacht, um die Aktualität zu gewährleisten, was ein wesentlicher Faktor für die Sicherheit ist. In diesem Papier wird Autonomous Construction Technology vorgeschlagen, um die Reaktionszeit zu verbessern, die eine Gemeinschaft integriert und teilt, um die optimale Größe abhängig von den Veränderungen der Umgebung zu erreichen. Die Wirksamkeit wird durch Simulation verifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/11796435_36 50d6234b0f3db4710ccfde2552d3467c;de;;;3.3.;;;Informationsmanagement, Vorschlag für eine Integrationsplattform mit Metadaten Die Weltbevölkerung altert und die Humanressourcen werden allmählich zu knapp, um eine angemessene Versorgung für eine immer älter werdende Bevölkerung aufrechtzuerhalten. Die ältere Bevölkerung benötigt kontinuierliche Pflege, und ihre Angehörigen können diesem Bedarf nicht gerecht werden. Um eine kontinuierliche Versorgung der älteren Bevölkerung zu gewährleisten, werden verschiedene Systeme zur Assistenz und Überwachung erforscht und eingesetzt. Es gibt jedoch keine Plattform, die alle bestehenden Systeme integrieren kann. Dieser Artikel beabsichtigt, eine erste durchgeführte Studie und die daraus resultierende Architektur einer vollständigen Systemintegrationsplattform für Anwendungen vorzustellen, die verschiedene Bereiche des biopsychosozialen Wohlbefindens abdecken. Es hat zum Ziel, gesammelte Daten aus verschiedenen Systemen unter Verwendung von Metadaten zu speichern, um eine Anamnese zu erstellen, die von qualifiziertem Personal eingesehen werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24352-3_38 665478e3200a2f15ac0ec9507b384f91;de;;;3.3.;;;Intelligentes Cyber-Physical System zur Mustererkennung von illegalen 3D-Designs im 3D-Druck Die in diesem Beitrag vorgestellte Methode zum Schutz von geistigem Eigentum (IP) in der automatisierten Fertigung (AM) und in der 3D-Druckindustrie basiert auf einem intelligenten Cyber-Physical-System und der radikalen Verbesserung präventiver und detektiver Kontrollen, um potenzielle Fälle von automatisierten Urheberrechtsverletzung der Herstellung. Der Fokus dieses Papiers liegt nicht auf dem Ökosystem der Verwaltung eines großen Netzwerks physischer 3D-Drucker, sondern auf einer intelligenten Anwendung und Datenanalyse des Datenflusses innerhalb des Ökosystems, um ein Problem des IP-Schutzes und der Herstellung illegaler physischer Objekte zu lösen. In diesem Beitrag konzentrieren wir uns auf den ersten Schritt in diese Richtung – die Mustererkennung illegaler physischer Designs im 3D-Druck und insbesondere die Erkennung von Schusswaffenteilen. Die vorgeschlagene Methode beruht auf mehreren wichtigen Schritten: Normalisierung von 3D-Designs, Metadatenberechnung, Definition typischer illegaler Designs, Erstellung von Mustermatrix, Herausforderung neuer 3D-Designs und Aktualisierung der Mustermatrix. Wir klassifizieren 3D-Designs ohne strikte Differenzierung in lose Gruppen und bilden eine Mustermatrix. Wir verwenden Konformität und Reihenbildung, um die Mustermatrix zu berechnen. Dann führen wir die Analyse der Matrix durch, um illegale 3D-Designs zu finden. Unsere Methode gewährleistet die gleichzeitige Mustererkennung auf mehreren Informationsebenen – von lokalen Mustern bis hin zu globalen. Wir führten Experimente mit 5831 3D-Designs durch und extrahierten 3728 Merkmale. Es dauerte 12 Minuten, um die Mustermatrixberechnung basierend auf den Testdaten durchzuführen. Jede neue 3D-Designdatei-Mustererkennung dauerte 0,32 s auf einer Azure-VM-Instanz mit vier Kernen, 8 GB RAM und 32 GB SSD.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-45183-7_6 4f25810e4ebc6b43c41f9a7c5086cdad;de;;;3.3.;;;Parallele Architekturen für Hochleistungsgrafiksysteme Es wird ein Framework zur Kategorisierung paralleler Anzeigearchitekturen vorgeschlagen, das von „polygon serial“ (ein Prozessor pro Pixel) bis „pixel serial“ (ein Prozessor pro Polygon oder Objekt) reicht. Eine Vielzahl vorgeschlagener Architekturen wird in Bezug auf dieses Framework diskutiert, einschließlich des Pixel-Planes-Systems von Fuchs;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-84574-1_29 a8ac64ab4711a754282b5af583118779;de;;;3.3.;;;Hinderniserkennungsalgorithmus anhand von Bildern mit einer ZED-Kamera mit ROS-Software in einer Drohne Während der Flugbedingungen können sich unbemannte Luftfahrzeuge (UAVs) in Situationen mit hohem Risiko befinden, wie z. Aus diesem Grund ist für UAVs ein intelligentes Pilotsystem erforderlich, das die Erkennung und das Ausweichen von Hindernissen ermöglicht und die Integrität des Systems schützt, ohne die Mission oder den festgelegten Flugplan zu beeinträchtigen. Um dieses intelligente Pilotsystem zu implementieren, wurde ein grundlegendes Element verwendet, eine ZED-Kamera, die ähnlich wie die Augen von Menschen wirkt und in die ROS-Software zur Tiefenerkennung durch einen Hindernisalgorithmus integriert ist. Das Interesse dieser Forschung konzentriert sich auf den Hinderniserkennungsalgorithmus unter Verwendung einer stereoskopischen Kamera, die 3D-Bilder und Software erstellen kann, die zur Entwicklung von Anwendungen für Roboter und Forschungsplattformen beitragen. Nachdem der Erkennungsalgorithmus implementiert war, wurde er in zwei spezifischen Phasen getestet, wobei die erste Phase festgelegt wurde, um die optimale Erkennungsentfernung durch die Festlegung von Entfernungsbereichen zu finden, und eine zweite Phase kontrollierte und unkontrollierte Umgebungen umfasste, um die Algorithmusvalidierung durchzuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71503-8_35 9ff4929de9717f567d98e74ebaa919b2;de;;;3.3.;;;Softwareprozessverbesserung und Roadmapping – Eine Roadmap zur Implementierung von IEC 62304 in Organisationen, die Software für Medizinprodukte entwickeln und warten Maintain Organisationen, die sich mit Software für Medizinprodukte befassen, müssen die Einhaltung einer Reihe von Normen und Vorschriften für Medizinprodukte nachweisen, bevor das Produkt vermarktet werden kann. Ein solcher Standard;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19860-6_3 6e6771ec57d833bc11df51c59aa82672;de;;;1.1.;;;Europäischer Gerichtshof schützt Landkarte als DatenbankDas Urteil des Europäischen Gerichtshofs (EuGH) vom 29.10.2015 wird vorgestellt und seine Bedeutung für die Anbieter und Nutzer kartographischer Darstellungen aufgezeigt. Der EuGH hat entschieden, dass topographische Karten auch in analoger Form die Merkmale einer Datenbank im Sinne der EU-Datenbankschutzrichtlinie 96/9/EG erfüllen. Damit steht fest, dass die Entnahme einzelner geographischer Daten aus vorhandenen Karten zur Weiterverwendung einer Lizenz bedarf. Der Datenbankschutz ergänzt den klassischen Urheberschutz, der sich auf die Darstellung bezieht. Die Grundsatzentscheidung bringt Klarheit nach einem langjährigen Rechtsstreit zwischen Landesvermessungsämtern und Verlagen um die wirtschaftliche Verwertung kartographischer Substanzen. Das Urteil stärkt den Wert kartographischer Leistung, indem es die Landkarte als „menschenlesbaren“ graphischen Informationsspeicher der objektstrukturierten elektronischen Geodatenbank rechtlich gleichstellt.;-;-;-;https://link.springer.com/article/10.1007/BF03545235 d83c43ead9448838615005e0f4be5aea;de;;;3.3.;;;Modeling Loop Unrolling: Ansätze und offene Probleme Das Entrollen von Schleifen spielt eine wichtige Rolle bei der Kompilierung für Reconfigurable Processing Units (RPUs), da es Operatorparallelität aufdeckt und andere Transformationen ermöglicht (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27776-7_24 556cf95bc6ac2b966c20b54e9bcb69d4;de;;;1.1.;;;Die Informationsebene des FinanzierungsmarketingIm vorstehenden Teil dieser Arbeit wurde der Finanzmarkt als unvollkommener Markt klassifiziert, der durch Unsicherheit und unvollkommene Information gekennzeichnet ist. Diese Marktstrukturen beeinflussen sowohl das Verhalten von Geldgeber und Geldnehmer als auch den konkreten Ablauf der Finanzierungsbeziehung. Die Vorgänge auf dem Finanzmarkt bestehen aufgrund der Informationsannahme neben dem Tausch von Finanzierungstiteln gegen Finanzierungsmittel auch aus einer Vielzahl von Informationstransfers. Die Prämisse „unvollkommener Information“ bedingt, daß alle Marktteilnehmer Informationen beschaffen und/oder solche übertragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-97682-6_2 6680ae77f420107cb7d0aceef8a44976;de;;;1.1.;;;Interorganisationaler WissenserwerbNachdem in Kapitel 2 die interorganisationalen Projekte als Betrachtungsgegenstand für die vorliegende Arbeit festgelegt wurden, soll in Kapitel 3 der interorganisationale Wissenserwerb behandelt werden. Um eine Grundlage zu schaffen, wird der interorganisationale Wissenserwerb zunächst definiert. Weiterhin werden die Inhalte des interorganisational zu erwerbenden Wissens unterschieden und die konkrete Messung in der empirischen Studie dargelegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-24661-7_3 a4f2b3250088315bf1734ab52c732a8f;de;;;1.1.;;;AnordnungsproblemeBei Anordnungsproblemen bestehen die Givens aus Elementen, die der Problemloser so anzuordnen hat, daß sie einem bestimmten Kriterium genügen. Ein typisches Beispiel ist das Lösen von Anagrammen. Dabei werden Buchstabenkombinationen vorgegeben, die durch Vertauschen von einem oder mehreren der vorgegebenen Buchstaben ein sinvolles Wort ergeben. Beispiel: L-G-A-R-E, aus dem REGAL oder LAGER wird. Bei solchen Problemen besteht der Lösungsgraph aus allen möglichen Permutationen der n vorgegebenen Buchstaben, also n! möglichen Anordnungen (im Beispiel 5! = 120). Dieser Lösungsraum ist sehr groß - der Problemloser wird also bestimmte Prinzipien anwenden, die es ihm gestatten, einen effizienteren Weg durch den Lösungsbaum zu finden, als dies durch reines Ausprobieren möglich wäre.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-70651-6_4 02a2a52e2b01c47ff9476ff2070a36bc;de;;;1.1.;;;Neurobiologische Grundlagen von PsychotherapieTrotz der in vielen Fällen unschwer zu beobachtenden „körperlichen“ Veränderungen bei Psychotherapiepatienten (z. B. der vegetativen Reaktionen oder des Ausdrucksverhaltens) wurden die psychologischen Interventionsmethoden traditionell nicht als biologische Therapien angesehen. Aus der Perspektive der kognitiven Neurowissenschaft en liegen psychischen Funktionen und Prozessen neuronale Vorgänge zugrunde. Aus dieser Sicht sind und waren psychotherapeutische Behandlungen (zumindest implizit) stets Versuche, dauerhaft e Veränderungen von neuronalen Prozessen und Strukturen zu bewirken, womit sie auch eine biologische Dimension hatten. Rasante technologische Entwicklungen bei den sogenannten bildgebenden Verfahren haben neue Möglichkeiten eröff net, die funktionelle Organisation des Gehirns zu untersuchen. Die Anwendung der funktionellen Bildgebung im Bereich der Psychotherapie erscheint vielversprechend, um die zerebralen Mechanismen und Bedingungen von Wirkungen und Veränderungen im Erleben und Verhalten, aber auch von Therapieversagen zu ergründen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-32779-0_30 75bc5f6fb7c6c877c58ebbf29e92fd60;de;;;1.1.;;;Grundlagen elektrodermaler AktivitätDie Registrierung elektro dermaler Aktivität hat in den Biowissenschaften, insbesondere in der Psychologie, eine so weite Verbreitung gefunden, daß man sie wohl mit Recht als die am häufigsten verwendete Methode zur Erfassung physiologischer Korrelate psychischer Zustände bezeichnen kann. Als Ursache dieser Beliebtheit kommt weniger eine gute theoretische Fundierung in Frage als die Tatsache, daß die elektrodermale Aktivität ohne großen apparativen Aufwand gemessen und ohne besondere Anforderungen an die Verstärkung und damit relativ störungsfrei auch außerhalb eines Labors registriert werden kann. Zudem scheinen die beobachteten Veränderungen dieses Biosignals leicht interpretierbar, da sie in den meisten Fällen schon bei visueller Auswertung ein den vermuteten psychischen Ursachen proportionales Frequenz- und Amplitudenverhalten zeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-06968-4_1 d28dc97b5d51d82bbc1239078bd5c884;de;;;1.1.;;;Genese der Sozialfigur VaterNimmt man die im vorherigen Kapitel ausführlich dargelegten epistemologischen Gedanken der Systemtheorie ernst, dann steht im nächsten Schritt der Rekonstruktion der Sozialfigur Vater die historische und damit evolutionäre Genese dessen im Vordergrund. Schließlich dient die sich geschichtlich etablierte Sozialfigur des Vaters als Grundlage jeder weiteren und damit insbesondere der gegenwärtigen Anschlusskommunikation. Ist sie immerhin der potenzielle Spielraum, der Möglichkeiten des semantisch Sagbaren über den Vater erst eröffnen und bestimmte Möglichkeiten ebenso schließen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-33347-8_2 9177642a1209904379b1013dafcab582;de;;;1.1.;;;Repräsentation von Örtern und RichtungenNachdem in Kapitel 3 die Wahrnehmung von Anordnungen beschrieben wurden, soll in diesem Kapitel genauer auf die Determinanten räumlicher Repräsentation wie die Konfiguration und die Repräsentation von Örtern und Richtungen eingegangen werden. Die Navigationsleistungen, die Menschen vollbringen, wenn sie sich in ihrer räumlichen Umgebung zurechtfinden, sind entscheidend von Ort- und Richtungsrepräsentationen abhängig. Ob Menschen einen bestimmten Weg finden und danach auch wieder zurückfinden, hängt neben der Konfiguration der Anordnung und der Wahrnehmungssituation, wie in Kapitel 3 dargestellt, auch von der Art ab, wie eine Richtung zu einem Ziel ermittelt wird. Hindernisse, die einen zuvor bekannten Weg versperren und zu einem Umweg zwingen, können zusätzlich das Zurechtfinden erschweren und nötigen zur Verrechnung verschiedenster Richtungsänderungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08825-7_4 9c9c0e0f5a704cb10e025892c5232172;de;;;3.3.;;;Hauptmerkmale von MDD-Tools: Eine explorative Studie Software Engineering zielt darauf ab, Methoden und Prozesse für eine effektive und effiziente Softwareentwicklung anzuwenden. Eines der relevantesten Paradigmen zur Erreichung dieses Ziels ist Model-Driven Development (MDD), das den Einsatz von Modellen zur automatischen Generierung von Softwareprodukten befürwortet. Ein wichtiges Thema bei der Entwicklung und Auswahl von MDD-Technologien ist jedoch die fehlende Standardisierung in Bezug auf die Funktionen, die berücksichtigt werden müssen, um die aktuellen Anforderungen der Branche zu unterstützen. Dies behindert den Vergleich bestehender Technologien, da es keinen Anhaltspunkt für die Erstellung neuer MDD-Ansätze mit den entsprechenden unterstützenden Werkzeugen gibt. Als Lösung schlägt dieses Papier eine Reihe von Hauptfunktionen vor, die MDD-Tools unterstützen müssen. Das Set basiert auf verschiedenen in der Literatur anerkannten Eigenschaften und wurde durch eine explorative Studie mit Tool-Herstellern validiert. Wir präsentieren auch eine Analyse, wie acht industrielle MDD-Tools diese Funktionen unterstützen, um die Anwendung unseres Vorschlags zu veranschaulichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25156-1_12 933a077b4ca58ea4a84b8316506d739d;de;;;1.1.;;;Propositionen, bildhafte Repräsentationen und KodierstrategienIn Kapitel 5 und 6 wurde eine Fülle von Befunden referiert, die vorstellungsspezifische Verarbeitungsmerkmale isolieren. Auch auf die Verarbeitung von verbalem Material bezogen kann man schlußfolgern, daß Vorstellungen in den operationalisierten Formen (Bildhaftigkeit des Materials und Vorstellungsinstruktion) charakteristische und eigentümliche Verarbeitungsqualitäten nachsichziehen. Daß diesen empirischen Beobachtungen in einem theoretischen Konstrukt menschlicher Informationsverarbeitung Rechnung getragen werden muß, scheint auf der Hand zu liegen. Wie das geschehen könnte, ist im vorhergehenden Kapitel beschrieben worden. Eine alternative theoretische Lösung liegt in der schon oft angesprochenen Un-terscheidung eines verbalen von einem bildlichen Kode bei der Repräsentation sprachlicher Information. Die Problematik dieses Vorschlags wurde schon an verschiedenen Stellen hervorgehoben. Es lassen sich nun zusätzliche Argumente finden, die bei der Akzeptierung einer solchen Lösung etwas Zurückhaltung gebieten: Da ist zum einen die Tatsache, daß die refe-rierten Befunde fast ausschließlich zeigen, daß die Versuchspersonen eher die interpretierte Bedeutung eines Bildes erinnern als seine physikalisch-visuellen Details. Dies spricht eher für eine theoretische Abbildung in einem konzeptuellen Repräsentationssystem, das Bedeutungseinheiten repräsentiert. Ein weiteres Problem für die Unterscheidung eines bildlichen von einem verbalen Kode ergibt sich aus den in Kapitel 6 dargestellten Konfundierungen von Merkmalen, die man für die bildliche Verarbeitung verantwortlich macht (z.B. eingeschätzte Bildhaftigkeit sprachlichen Materials), mit anderen Merkmalen (z.B. Bedeutungshaltigkeit), denen man ebenfalls Gedächtniseffekte zuschreibt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-74182-1_8 064c7948aa4a76c36700ff9e9c09a0f8;de;;;3.3.;;;Klassifizierung von Architekturstilen mit multinomialer latenter logistischer Regression Die Klassifizierung von Architekturstilen unterscheidet sich von Standardklassifikationsaufgaben aufgrund der reichen Beziehungen zwischen den Klassen zwischen verschiedenen Stilen, wie Neuinterpretation, Wiederbelebung und Territorialität. In diesem Papier verwenden wir Deformable Part-based Models (DPM), um die morphologischen Eigenschaften grundlegender Architekturkomponenten zu erfassen, und schlagen eine multinomiale latente logistische Regression (MLLR) vor, die die probabilistische Analyse einführt und das Mehrklassenproblem in latenten Variablenmodellen angeht. Aufgrund des Mangels an öffentlich verfügbaren Datasets veröffentlichen wir ein neues umfangreiches Dataset für den Architekturstil mit fünfundzwanzig Klassen. Experimente mit diesem Datensatz zeigen, dass MLLR in Kombination mit standardmäßigen globalen Bildmerkmalen die besten Klassifikationsergebnisse erzielt. Wir präsentieren auch interpretierbare probabilistische Erklärungen für die Ergebnisse, wie die Stile einzelner Gebäude und ein Stilbeziehungsnetzwerk, um die Beziehungen zwischen den Klassen zu veranschaulichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10590-1_39 072bef89f7ab543cfdee8124e8ba7624;de;;;3.3.;;;Plattformunabhängige Programmierung datenintensiver Anwendungen mit UML Die Verlagerung des Entwicklungsaufwands auf die Modellebene, wie sie von MDA postuliert wird, bietet die Möglichkeit, eine Reihe von Modellierungskonstrukten zu etablieren, die intuitiver und homogener sind als ihre plattformspezifischen Gegenstücke. In dem Beitrag wird UML mit den spezifischen Anforderungen für datenintensive Anwendungen konfrontiert und schlägt eine nahtlos integrierte plattformunabhängige Sprache mit leistungsstarken Abfragefunktionen vor, die es ermöglichen würde, ein vollständiges Anwendungsverhalten zu spezifizieren. Der Vorschlag zielt auf eine hohe Übereinstimmung mit bestehenden Modellierungsstandards ab – als solcher basiert er auf UML-Verhaltenselementen und auf OCL für Ausdrücke. Die Motivation hinter diesem Ansatz wird dargestellt, die damit verbundenen Herausforderungen diskutiert und die Rolle der Modelllaufzeitimplementierung aufgezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85279-7_9 ab79e9bb3e3dab6528951c195d4bb32c;de;;;3.3.;;;FPGA-Implementierung eines kollaborativen Darstellungsalgorithmus für die hyperspektrale Zielerkennung in Echtzeit Hyperspektrale Bilder enthalten verschiedene Wellenlängenkanäle und die entsprechende Bildverarbeitung erfordert eine Rechenplattform mit hoher Leistung. Die Ziel- und Anomalieerkennung auf hyperspektralen Bildern wurde wegen ihrer Praktikabilität in vielen Echtzeiterkennungsbereichen beunruhigt, während eine breitere Anwendbarkeit durch die Rechenbedingungen und die niedrige Verarbeitungsgeschwindigkeit begrenzt ist. Die feldprogrammierbaren Gate-Arrays (FPGAs) bieten die Möglichkeit einer integrierten hyperspektralen Datenverarbeitung mit hoher Geschwindigkeit, geringem Stromverbrauch, Rekonfigurierbarkeit und Strahlungstoleranz. In diesem Artikel entwickeln wir eine neuartige FPGA-basierte Technik für einen effizienten Echtzeit-Zielerkennungsalgorithmus in hyperspektralen Bildern. Die kollaborative Darstellung ist ein effizienter Zielerkennungsalgorithmus (CRD) in hyperspektralen Bildern, der direkt auf dem Konzept basiert, dass die Zielpixel ungefähr durch ihre spektralen Signaturen dargestellt werden können, während die anderen dies nicht können. Um eine hohe Verarbeitungsgeschwindigkeit auf der FPGAs-Plattform zu erreichen, reduziert der CRD-Algorithmus zuerst die Dimensionalität des hyperspektralen Bildes. Die Sherman-Morrison-Formel wird verwendet, um die Matrixinversion zu berechnen, um die Komplexität des gesamten CRD-Algorithmus zu reduzieren. Die erzielten Ergebnisse zeigen, dass das vorgeschlagene System eine kürzere Verarbeitungszeit des CRD-Algorithmus als bei einer 3,40-GHz-CPU erreichen kann.;-;-;-;https://link.springer.com/article/10.1007/s11554-018-0823-7 9ade1ee8adbf4e23f39fc0e6640fe2c8;de;;;3.3.;;;Ein Fall von Besucher-gegen-Dolmetscher-Muster Wir vergleichen das Visitor-Muster mit dem Interpreter-Muster und untersuchen einen einzelnen Fallbeispiel für die Sprache Java. Wir haben zwei Versionen eines Interpreters für eine Programmiersprache erstellt und verglichen. Die erste Version verwendet das Besuchermuster. Die zweite Version wurde mithilfe eines automatisierten Refactorings erstellt, um die Verwendungen des Visitor-Musters in die Verwendungen des Interpreter-Musters umzuwandeln. Wir vergleichen diese beiden nahezu gleichwertigen Versionen hinsichtlich ihrer Wartungseigenschaften und Ausführungseffizienz. Mit einer maßgeschneiderten experimentellen Forschungsmethode können wir Unterschiede und deren Ursachen aufzeigen. Die Beiträge dieser Arbeit sind, dass sie die Wahl zwischen Besucher und Dolmetscher in einem realistischen Softwareprojekt isoliert und den Unterschied experimentell beobachtbar macht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21952-8_17 5833146ff53f09cdf72886c90f53190f;de;;;3.3.;;;Iterative Kanaldecodierung für PC-basierten Software-Radio-DVB-T-Empfänger Das vorherige Schema modifiziert nur die Eingangspositionen des Viterbi-Decoders, wo der Reed-Solomon-Decoder sicherstellt, dass sie korrekt sind. Obwohl es einfach ist und eine perfekte Bildqualität in statischen Kanälen erzielen kann, leidet es immer noch unter einer Verschlechterung der Bildqualität in mobilen Kanälen. Außerdem schlagen wir vor, den Parameter Q der Metriken der Viterbi-Decoder-Eingangspositionen zu ändern, wo der Reed-Solomon-Decoder sicherstellt, dass sie falsch sind. Q ist als Norm der Kanalzustandsinformation (CSI) definiert, Q = |CSI|;-;-;-;https://link.springer.com/article/10.1007/s11277-012-0580-z 9f8f30ae25d79b8b4a9fdbf374803a66;de;;;3.3.;;;Soft-Decision-Decoderarchitektur mit niedriger Komplexität für BCH-Code im BeiDou-System Um die Leistung der traditionellen Decodierung des BCH-Codes mit harter Entscheidung im BeiDou-Satellitennavigationssystem zu verbessern, wird in diesem Papier eine Decoderarchitektur mit niedriger Komplexität mit weicher Entscheidung entworfen und implementiert. Der entworfene Decoder basiert auf dem syndromgestützten Soft-Decision-Decodieralgorithmus. Ein ungleichmäßiges Quantisierungsschema und eine ROM-Reduktionsstrategie basierend auf zyklischen Eigenschaften werden vorgeschlagen, um die Hardware-Ressourcen zu reduzieren. Simulationsergebnisse zeigen, dass die Leistung des entworfenen Decoders nahe der der optimalen Soft-Decision-Decodierung liegt. Verglichen mit dem herkömmlichen Decoder mit harter Entscheidung ist das Inkrement der Hardwareressourcen sehr klein, was darauf hindeutet, dass der entworfene Decoder in der Praxis eine geeignete Wahl ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-4211-9_37 a382c38a58391769dccbb9ce43211268;de;;;3.3.;;;Eine neuartige Cache-Organisation für gekachelte Chip-Multiprozessoren Erhöhte Gerätedichte und Arbeitssatzgröße führen zu einem Anstieg der Cache-Kapazität, was auf Kosten einer hohen Zugriffslatenz geht. Basierend auf der Eigenschaft gemeinsam genutzter Daten, auf die häufig zugegriffen wird und die wenig Kapazität verbrauchen, wird in dieser Arbeit eine neuartige zweistufige Verzeichnisorganisation vorgeschlagen, um die Cache-Zugriffszeit zu minimieren. In diesem Schema wird ein kleines Fast Directory verwendet, um schnelle Treffer für einen großen Teil der Speicherzugriffe anzubieten. Detaillierte Simulationsergebnisse zeigen, dass dieser Ansatz bei einem 16-Kern-Kachel-Chip-Multiprozessor die durchschnittliche Zugriffslatenz im Vergleich zur allgemeinen Cache-Organisation um 17,9 % reduziert und die Gesamtleistung im Durchschnitt um 13,3% verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03644-6_4 83e092247ee224b42001326d6f8d1bc7;de;;;3.3.;;;Ein Software-Framework für netzbasierte 2D-Simulationen in diskreter Zeit mit lokaler Interaktion Einige Merkmale, die Familien von Naturphänomenen gemeinsam haben, können für den Prozess der Implementierung von Software-Simulationswerkzeugen genutzt werden. Eine Analogie zu dieser Situation ist das Experimentieren in der Fertigung, bei dem die Produkte von Organisationen so entworfen werden, dass es möglich ist, Gemeinsamkeiten in Komponenten und Prozessen auszunutzen. Diese Arbeit zielt darauf ab, Gemeinsamkeiten bei einigen Simulationsproblemen auszunutzen, um ein Software-Framework zu schaffen, das die Wiederverwendung von Code ermöglicht, um den Aufwand bei der Implementierung zu reduzieren. Der vorgeschlagene Rahmen soll die Kernkomponenten für die Simulation unterschiedlicher Phänomene umfassen. Die interessierten Forscher können Teile des Frameworks verwenden und die restlichen Komponenten dann an ihre spezifischen Simulationsprobleme anpassen. Nach dieser Diskussion wird ein Testfall aus früheren Arbeiten im Zusammenhang mit Lavastromsimulationen vorgeschlagen, der experimentelle Ergebnisse zeigt. Es werden einige Richtlinien für die Gestaltung des Frameworks sowie eine Diskussion darüber vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-57972-6_13 6366d17f0073e8fa375d3d0eb0cce39f;de;;;3.3.;;;VLSI-Fuzzy-Prozessor mit kurzer Entscheidungszeit In den letzten Jahren wurden zahlreiche Beispiele für Industrie- und Forschungsanwendungen unter Verwendung von Fuzzy Logic durchgeführt. Genauer gesagt finden Fuzzy-Prozessoren die meisten ihrer Anwendungen in Bereichen der Steuerlogik [1]. Außerdem kann gesagt werden, dass, sobald ein Benutzer einige Fuzzy-Regeln zur Beschreibung eines bestimmten Problems aufgeschrieben hat, ein zugehöriger Fuzzy-Algorithmus erstellt werden kann. Im Allgemeinen kann dieser Fuzzy-Algorithmus entweder in SW- oder HW-Plattformen implementiert werden. Selbst wenn Fuzzy Logic ebenfalls entwickelt wird, um die Verarbeitungszeit zu verkürzen, kann die HW/SW-Implementierung eines Fuzzy-Algorithmus auf kommerziellen Fuzzy-Prozessoren hinsichtlich der Geschwindigkeit keine guten Ergebnisse liefern. Folglich werden hauptsächlich für Hochgeschwindigkeitsanwendungen dedizierte Fuzzy-Prozessoren benötigt. Bei VLSI-Implementierungen [2] haben viele Forscher die Leistung der HW-Prozessoren durch analoge [3], [4], digitale [5]-[9] oder gemischte Lösungen verbessert. Die verschiedenen Ansätze für das Design der VLSI-Fuzzy-Prozessorarchitekturen dienen dazu, einen Kompromiss zwischen Geschwindigkeit, Flexibilität und Layout-Siliziumfläche zu finden. Dies sind genau die Merkmale, die wir beim Design der Architektur des hier vorgestellten Chips untersucht haben. Insbesondere wurden Chipabmessungen, Hochgeschwindigkeits- und Zugehörigkeitsfunktionsformen während des Entwurfsmerkmalsansatzes berücksichtigt. Was die Anwendungsfelder angeht, wurde der Fuzzy-Prozessor für zukünftige Anwendungen in Hochenergiephysik-Experimenten (HEPE) entwickelt, bei denen hohe Verarbeitungsraten ein Teil der globalen Einschränkungen sind. Auf diesem Gebiet kann ein sehr schneller Fuzzy-Prozessor mit 2 Eingängen und 1 Ausgang viele Anwendungen als Co-Prozessor für Probleme der Partikelflugbahnerkennung finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4090-8_9 01a8b97645da83374a8e4560e7a0663b;de;;;3.3.;;;Entwicklung experimenteller Datenverarbeitungs-Workflows basierend auf der Kubernetes-Infrastruktur und dem REANA-Workflow-Management-System In diesem Beitrag stellen wir das Design des Datenverarbeitungsworkflows für wissenschaftliche Experimente vor, die komplizierte mehrstufige Analyseverfahren erfordern. Wir testen es an Datensätzen aus Single Particle Imaging (SPI)-Experimenten. Der Workflow basiert auf Microservice-Architektur, Docker-Containern und der Kubernetes-Plattform. Für die Einrichtung und Verwaltung von Workflows verwenden wir REANA-Software, die mit Kubernetes-Ochestrator kompatibel ist und die Standard-Common Workflow Language (CWL) unterstützt, um komplexe Rechenaufgaben zu beschreiben. Unser Ansatz ermöglicht den einfachen Aufbau von Workflows unterschiedlicher Architektur für eine Vielzahl von Anwendungen. Es ermöglicht die einheitliche Integration heterogener Software sowie das einfache Ändern oder Austauschen von Workflow-Komponenten. Gleichzeitig ermöglicht es eine einfache Skalierung von Berechnungen in einer Cloud-Infrastruktur. Wir zeigen die Anwendbarkeit des entworfenen Schemas und schätzen den Overhead der Plattform-Middleware ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-64616-5_48 a34624b255521baaf47fc3a6805d027e;de;;;3.3.;;;Rastersondenmikroskopie mit hoher Bandbreite im intermittierenden Kontaktmodus mit elektrostatisch betätigten Mikroauslegern Ein kritischer Punkt bei der Rastersondenmikroskopie (SPM) im intermittierenden Kontakt (IC) Modus ist die erreichbare Bandbreite, die aufgrund des hohen Qualitätsfaktors der Cantilever begrenzt ist. Cantilever für SPM im IC-Modus müssen für einen stabilen Betrieb eine hohe Steifigkeit aufweisen, was hohe Qualitätsfaktoren für eine hohe Kraftempfindlichkeit erfordert und somit zu einer langsamen Reaktionszeit führt. Hier präsentieren wir ein IC-SPM-Verfahren, das eine hohe Bandbreite durch den Einsatz elektrostatisch betätigter Cantilever mit geringer Steifigkeit und niedrigem Gütefaktor erreicht. Ein zuverlässiger IC-Betrieb wird erreicht, indem das an den Cantilever angelegte Eingangssignal für eine elektrostatische Betätigung geformt wird. Indem die Schwingungsamplitude klein gehalten wird, ist ein Hochfrequenzbetrieb möglich und die Wechselwirkungskraft der Spitzenprobe wird reduziert, was wiederum die Lebensdauer von Spitze und Probe verlängert. Für die Bildgebung mit hoher Bandbreite wird das Auslenkungssignal des Auslegers bei jedem Schwingungszyklus unter Verwendung einer eingangsbasierten Triggerung direkt abgetastet. Unsere experimentellen Ergebnisse zeigen die Wirksamkeit des vorgeschlagenen Schemas. Insbesondere in Langzeit-Scanning-Experimenten wurde der Spitzendurchmesser über beachtliche 140 m Spitzenweg beibehalten. Da darüber hinaus keine Demodulationselektronik benötigt wird, könnten kompakte SPM-Vorrichtungen unter Verwendung dieses Verfahrens entwickelt werden, einschließlich Vorrichtungen, die große Arrays von Auslegern im Parallelbetrieb für einen hohen Durchsatz verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22173-6_7 320b6de709ee991cee32e9cfb1838786;de;;;3.3.;;;Sprachliche Analogie für Softwareprozessinnovation Es gibt viele nützliche metaphorische Begriffe in der Linguistik, um über Softwareprozessinnovation nachzudenken. Kontinuierlicher evolutionärer Wandel ist das Wesen jedes Softwaresystems. Auch menschliche Sprachen verändern sich im Laufe der Zeit. In diesem Beitrag werden wir einige Konzepte der linguistischen Studien untersuchen, um Probleme der Softwareprozessinnovation anzuwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-43896-1_24 869a61e3675f6692c82078cdb1ed7ada;de;;;3.3.;;;ETL-Humanoid: Ein Forschungsfahrzeug für die Nachahmung von Aktionen mit offenem Ende Die Fähigkeit zur Handlungsnachahmung bildet eine grundlegende Grundlage der höheren menschlichen Intelligenz. In diesem Beitrag analysieren wir zunächst den Begriff der Nachahmung und markieren die wesentlichen Probleme, die der Nachahmung zugrunde liegen, z.B. redundante sensorische und motorische Freiheitsgrade, adaptive Abbildung und starke Verkörperung. Es unterstützt einen synthetischen Ansatz zum Verständnis von Imitationsfähigkeiten, der eine vielseitige humanoide Roboterplattform erfordert. Es wird ein Überblick über unser humanoides Ganzkörper-Robotersystem gegeben, das sich durch seine vielseitigen physikalischen Fähigkeiten und seine vollständig offene Architektur auszeichnet. Dann präsentieren wir unser frühes Experiment zur multimodalen Architektur und Verhaltensimitation mit dem Humanoiden. Es kann kontinuierlich mit Menschen durch visuelle, auditive und Bewegungsmodalitäten in einer unveränderten Alltagsumgebung interagieren. Und wenn sich eine Person um den Roboter kümmert und eine Doppelarmbewegung zeigt, beginnt der Roboter spontan, sie zu kopieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36460-9_5 8794ccbb75dcb69478de397c52e962aa;de;;;3.3.;;;Ein Referenzrahmen zur Förderung der Erstellung von Projekten mit Arduino an den ecuadorianischen Universitäten Das Hochschulmodell hat sich insbesondere auf universitärer Ebene verändert, wo Fernunterricht und Fernlabore für Lehre und Ausbildung integriert wurden. Andererseits ist das Interesse der Bevölkerung an Robotik sowie an der Forschung rund um diese Technologie in den letzten Jahren gestiegen. In diesem Sinne ist Arduino eine Plattform, die Lehrern und Schülern hilft, robotikbasierte Lösungen ohne große Investitionen zu entwickeln, da für ihre Verwendung keine speziellen Robotiklabore erforderlich sind. Unter Berücksichtigung dieser Fakten präsentieren wir in dieser Arbeit einen Referenzrahmen, der die schnelle Entwicklung von Roboterprojekten auf Basis von Arduino ermöglicht. Dieser Rahmen wurde für die Entwicklung mehrerer Projekte verwendet, die multidisziplinäre und reale Probleme lösen. Darüber hinaus wurde dieses Framework unabhängig vom Kompetenzniveau der Studenten in der Robotik verwendet. In Anbetracht der Meinungen der Studierenden zur Verwendung des Frameworks stellten wir fest, dass es den Studierenden half, Lösungen für eine Vielzahl von Problemen auf der Grundlage eines kritischen Denkansatzes bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67283-0_18 07dca73fdb9b0b069c2558c3198c33ea;de;;;1.1.;;;Die Erklärung selbsterfüllender Prophezeiungen im Kontext ethnischer BildungsungleichheitenEmpirische Untersuchungen selbsterfüllender Prophezeiungen finden sich zuhauf. Deren Ergebnisse werden meistens dazu verwendet, um Mechanismen zu identifizieren, die für die Entstehung des Phänomens verantwortlich sein könnten. Im Rahmen der vorliegenden Arbeit wird ein anderes Vorgehen präferiert: Der statistischen Modellierung kausaler Zusammenhänge wird deren theoretische Modellierung vorangestellt. Letztere erfolgt auf der Grundlage eines allgemeinen theoretischen Modells sozialen Handelns und soll der Identifikation ursächlicher Mechanismen dienen. Das Ziel dieser Verfahrensweise besteht darin, ein besseres Verständnis über die Ursachen und Bedingungen des Auftretens von Erwartungseffekten zu erlangen (Goldthorpe 2001). Aus diesem Grund widmet sich das vorliegende Kapitel der theoretischen Erklärung selbsterfüllender Prophezeiungen im Kontext ethnischer Bildungsungleichheiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-19881-7_3 fbcd0bdeebaed4c0410ffe8d8350877c;de;;;1.1.;;;Zur Förderung von Kompetenz im höheren LebensalterAus geselIschaftlicher Perspektive sind die Erhaltung von Kompetenz im Alter, ihre Wiedergewinnung oder Verbesserung vorrangige Ziele der Sozialpolitik. Das belegen aktuelIe Arbeiten am Ersten Altenbericht der Bundesregierung. Ohne Zweifel sind sie auch zentrale Anliegen der einzelnen alternden Person. Methoden zur Förderung von Kompetenz liegen zwar vor, sie sind alIerdings nur spärlich evaluiert. Um die Vielfalt möglicher Zugänge anzudeuten, wird nachfolgend eine umfassende Definition der Kompetenz vorgestellt. Sie berücksichtigt personologische ebenso wie situative Komponenten der Kompetenz und deren Zusammenwirken. Praktische Maßnahmen der Erhaltung, Wiedergewinnung und Verbesserung der Kompetenz — so soll begründet werden — können bei der alternden Person ebenso ansetzen wie bei ihrer Situation und beim Optimieren des Zusammenspiels beider Komponenten. Dabei wird deutlich, daß ein Kompetenzmodell des Alterns den Ausgang für ein produktives Umgehen mit alterskorrelierten Veränderungen erlaubt, seien diese nun Defizite oder Entwicklungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-72448-0_2 e083468d0b3cc939f10e2e4a2e2f7f80;de;;;3.3.;;;Ein Framework für Intrusion Tolerance im Cloud Computing Cloud Computing wurde als Architektur der nächsten Generation und als eines der am schnellsten wachsenden Segmente von IT-Unternehmen angesehen. Unabhängig davon, wie viel in Cloud Intrusion Detection und Prevention investiert wird, bleibt die Cloud-Infrastruktur anfällig für Angriffe. Intrusion Tolerance in Cloud Computing ist ein fehlertoleranter Designansatz zum Schutz der Cloud-Infrastruktur gegen böswillige Angriffe. Um die Zuverlässigkeit zu gewährleisten, präsentieren wir daher ein Framework, indem wir das verfügbare Malicious and Accidental Fault Tolerance for Internet Applications (MAFTIA) Intrusion Tolerance Framework für Abhängigkeiten wie Verfügbarkeit, Authentizität, Zuverlässigkeit, Integrität, Wartbarkeit und Sicherheit gegenüber neuen Cloud Computing-Umgebungen abbilden. Das vorgeschlagene Framework wurde durch die Integration von Intrusion Tolerance via Threshold Cryptography (ITTC)-Mechanismus in die simulierte Cloud-Umgebung validiert. Eine Leistungsanalyse des vorgeschlagenen Rahmens wird ebenfalls durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22726-4_41 0cb58b28a9a7b33c28fee7cfd3985345;de;;;1.1.;;;Interdisziplinäre Sportwissenschaft – der Weg zu einer paradigmatischen BegründungDie Geschichte wie auch die Gegenwart der Sportwissenschaft sind ein überzeugendes Beispiel für Kuhns (1977) Ausgangspunkt, dass jede Wissenschaft auf zwei Pfeilern, einem Paradigma und der Wissenschaftlichen Gemeinschaft, beruht. Beide Pfeiler weisen eine starke gegenseitige Bedingtheit auf: Die sportwissenschaftliche Paradigmendiskussion ist entscheidend durch die Entwicklung der Wissenschaftlichen Gemeinschaft bestimmt worden, und – zumindest in bestimmten Phasen – haben paradigmatische Überlegungen Einfluss auf die Institutionalisierung, also die Realisierung der Wissenschaftlichen Gemeinschaft genommen. Vor diesem Hintergrund erscheint es erforderlich, der differenzierten Analyse der Paradigmendiskussion in der Sportwissenschaft einen Abriss der Entwicklung und der gegenwärtigen Situation der Sportwissenschaft voranzustellen (2).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-00672-3_6 fc49df5576d20cf506ee76e86cfa9927;de;;;1.1.;;;Theoriebildung zur Entwicklung der SpielformenNur Theorien erheben den Anspruch und sind in der Lage, die Sachverhalte der Wirklichkeit und deren Entwicklung, Verlauf und Folgen zu erklären. Theoretisch vertreten wir die Auffassung, dass sämtliche Spielformen beim Kind Ergebnisse synergetischer psychischer Prozesse sind. Deswegen stehen die Übergänge zwischen den Spielformen und deren Inhalte als emergente Strukturen (Systemkomponenten) im Mittelpunkt der Forschung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-46644-4_4 0eef2fe633129ad3205ba126727c7d80;de;;;3.3.;;;Eine Hommage an Martin Wirsing Martin Wirsing wurde am 24.12.1948 an Heiligabend in Bayreuth geboren, einer bayerischen Stadt, die für die alljährlich gefeierten Richard-Wagner-Festspiele bekannt ist. Dort besuchte er die Lerchenbühl-Schule und das Gymnasium „Christian Ernestinum“, wo er dem humanistischen Zweig mit den Schwerpunkten Latein und Altgriechisch folgte. Danach studierte Martin von 1968 bis 1974 Mathematik an der Universität Paris 7 und an der Ludwig-Maximilians-Universität in München. 1971 wurde er Maitrise-en-Sciences Mathematiques an der Universität Paris 7 und erhielt 1974 das Diplom in Mathematik an der LMU München.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-15545-6_1 e0b381c6dd90bfb0800d917160f9da28;de;;;3.3.;;;Bewertung der Auswirkungen von Hugepage auf virtuelle Maschinen Moderne Anwendungen benötigen oft viel Speicher. Herkömmliche 4KB-Seiten führen zu großen Seitentabellen und üben somit einen hohen Druck auf die TLB-Adressübersetzungen aus. Dieser Druck ist in einem virtualisierten System stärker ausgeprägt, das eine zusätzliche Schicht der Adressübersetzung hinzufügt. Page Walks aufgrund von TLB-Fehlschlägen können zu einem erheblichen Leistungsaufwand führen. Ein Versuch, diesen Overhead zu reduzieren, ist die Verwendung von Hugepage. Der Linux-Kernel unterstützt seit 2.6.38 transparente Hugepage, die eine alternative große Seitengröße bietet. Im Allgemeinen zeigt Hugepage eine bessere Leistung bei Adressübersetzungen und Seitentabellenänderungen. In diesem Whitepaper werden zunächst die Auswirkungen von Hugepage auf das native System analysiert und anschließend die Auswirkungen von Hugepage auf verschiedene Ansätze zur Speichervirtualisierung verglichen: hardwareunterstütztes Paging (HAP), Shadow-Paging und Paravirtualisierung. Wir stellen fest, dass die derzeitige Implementierung von transparentem Hugepage ineffizient ist. Es kann nicht den vollen Leistungsvorteil von Hugepages ausschöpfen. Schlimmer noch, die konservative Strategie der transparenten Hugepage kann mit bestehenden Betriebssystemfunktionen in Konflikt geraten, was zu Leistungseinbußen führen kann. Daher schlagen wir eine neue Speicherzuweisungsstrategie vor, Alignment-based Hugepage (ABH), die Hugepage-Zuweisungen fördert. Wir wenden ABH auf verschiedene Paging-Modi in virtualisierten Systemen an. Die Ergebnisse zeigen, dass die neue Zuweisungsstrategie TLB-Fehltreffer und bis zu 90% Page-Walk-Zyklen aufgrund von TLB-Fehlversuchen signifikant reduzieren und somit die Leistung in realen Anwendungen verbessern kann.;-;-;-;https://link.springer.com/article/10.1007/s11432-015-0764-7 071bfc9e460c3e688ecf3872a1b57367;de;;;3.3.;;;Dialog für bewusste Evolution Das Kapitel basiert auf einem in Kürze erscheinenden Buch mit dem Titel Dialogue for the Information Age Democracy. Es konzentriert sich auf die entscheidende Rolle des Dialogs in der evolutionären Führung sozialer Systeme. Es präsentiert Erkenntnisse aus der fundierten theoretischen Forschung, beginnend mit dem Prospekt des Club of Rome über The Predicament of Mankind im Jahr 1970 (http://www.cwaltd.com/pdf/clubrome.pdf). Diese Forschung führte zur Entdeckung eines disziplinierten Dialogparadigmas namens Structured Design Process (SDP). Das SDP eignet sich, um Stakeholder in die Gestaltung ihrer sozialen Systeme im Kontext der eskalierenden Komplexität des Informationszeitalters einzubinden. Das Paradigma basiert auf einer neuen Geometrie des Sprachgebrauchs, Archanesisch genannt, die drei Axiome postuliert: (a) die zunehmende Komplexität der Gestaltung sozialer Systeme, (b) die kognitiven Einschränkungen des Beobachters bei der gleichzeitigen Verarbeitung zu vieler Beobachtungen und (c) die Schwierigkeit, die relative Bedeutung von Beobachtungen zu bestimmen. Diese drei Axiome bilden die Grundlage für die Konstruktion von Terminologie, Methodik und Architektur für das SDP. In diesem Kapitel werde ich mich hauptsächlich auf die Architektur konzentrieren, die aus 35 Komponenten besteht, von denen sechs Gesetze sind, die von Systemdenkern des 20. Jahrhunderts entdeckt wurden. Im Kapitel werden die sechs Gesetze und ihre Wechselwirkungen im Rahmen des strukturierten Dialogs zur Produktion von Sinn und Gemeinschaftsweisheit (DEMOSOPHIA) vorgestellt. Das SDP wird seit zwanzig Jahren angewendet, um nationale, internationale und organisationsübergreifende Designherausforderungen zu adressieren. Die Ergebnisse waren für die Praktiker und Teilnehmer dieser Projekte außerordentlich zufriedenstellend. Außerdem wird eine kurze Geschichte aus der Design-Arena präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-36506-0_15 3d677c41e79fc5c14c60e7eb04842255;de;;;3.3.;;;Ansicht zum Anzeigen von Transformationen in der domänenspezifischen Modellierung Modellbasierte Softwareentwicklungstools sollten benutzerfreundliche Navigationsdienste bereitstellen, mit denen Benutzer verschiedene Modelldetails in Diagrammen durchsuchen (ein-/ausblenden und vergrößern/verkleinern) können. Diese Funktionalität ist entscheidend bei der Entwicklung von Großmodellen. In diesem Beitrag präsentieren wir einen Ansatz zur formalen Definition von Navigationsdiensten basierend auf Transformationen. Wir stellen Ansicht-zu-Ansicht-Transformationen unter Anwendung von ATL vor und präsentieren eine formale Definition des Navigationsdienstes. Wir präsentieren auch einen Prototyp, der den Ansatz implementiert. Der Prototyp fügt GMF Funktionen des Navigationsservice-Designs hinzu und verwendet das KIALLER-Toolset zum Layout der Transformationsergebnisse. Ein grafischer Editor für UML-Klassendiagramme mit 12 Navigationsdiensten, die mit dem Ansatz spezifiziert wurden, wird vorgestellt.;-;-;-;https://link.springer.com/article/10.1134/S0361768815040039 6d0e3930db0615494cba3ba5245416df;de;;;3.3.;;;IT als Treiber für Neugeschäft Diese Forschung konzentriert sich auf die Rolle der Informationstechnologien (IT) als Treiber für die Schaffung neuer Geschäfte. Die Forschungsfrage lautet: „Was sind die wichtigsten Unternehmen, die durch die IT entstehen?“ Die Forschung wurde auf einer qualitativen Methodik durch Dokumentenanalyse und halbstrukturierte Interviews mit IT-Managern von Organisationen unterstützt, die die wichtigsten Wirtschaftssektoren repräsentieren. Die analysierten Technologien waren Internet der Dinge, Cloud-Technologie, Big Data, mobile Technologien sowie künstliche Intelligenz und Robotik. Ein Hauptergebnis dieser Forschung war das neue disruptive Geschäft, das aus dem Einfluss dieser Technologien auf die Märkte hervorgeht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-31232-3_50 97963ece5cf36bfa195951467d5c5c4b;de;;;1.1.;;;Etappen eines Versprechens: Mediation in den USADer Diskursanalyse des deutschsprachigen Mediationsdiskurses soll eine Darstellung der Entwicklung der US-Amerikanischen Mediation vorangestellt werden. Dies ist notwendig, da die Mediation aus den USA nach Deutschland gekommen ist, ein Blick auf ihre dortige ‚Vorgeschichte‘ ist unumgänglich, um die Dynamiken der Mediation in Deutschland zu verstehen. Eine umfassende Geschichte der Mediation zu schreiben steht noch aus. Es ist an dieser Stelle klar herauszustellen, dass dies hier auch nicht nachgeholt werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-20583-6_4 65429351bf590cf8216120b217574bd5;de;;;3.3.;;;Ein semantischer Ansatz zur Shared Resource Discovery Die derzeit verfügbaren Technologien wurden nicht vollständig ausgeschöpft, um Mitarbeiter bei der Durchführung von Aktivitäten zu unterstützen, die als zeit- und arbeitsaufwendig und mühsam angesehen werden, die jedoch nicht weggelassen werden können. Eine Person, die in einer Organisation arbeitet, kann zu keinem Zeitpunkt eine Ressource benötigen, die sie nicht besitzt, aber an einem Ort, der aus mehreren Gebäuden besteht, die voller Ressourcen sind (z. B. Computergeräte, Dateien, Software und sogar Personen), die sie erhalten kann Es ist wirklich schwer für eine solche Person, sie zu finden oder sogar sicher zu sein, ob es eine Ressource oder eine Reihe von ihnen gibt, die ihre Anfrage erfüllen können. Einige Arbeiten wurden bereits vorgeschlagen, um Dienste zu entdecken, aber ihr Fokus liegt hauptsächlich auf Anwendungen, die nach anderen Anwendungen suchen. Daher berücksichtigen diese Vorschläge keine Informationen, die die reale Lebensumgebung charakterisieren, an der menschliche Benutzer beteiligt sind, deren Bedingungen sich ständig ändern (z. B. die Verfügbarkeit einer Person). In diesem Beitrag schlagen wir einen Matchmaking-Dienst vor, der einen semantischen Ansatz für die Ressourcenerkennung in kollaborativen Umgebungen verfolgt, indem wir den Auswirkungen menschlicher Interaktion auf die Verfügbarkeit von Ressourcen besondere Aufmerksamkeit schenken. Der vorgeschlagene Matchmaker wurde als Schlüsseldienst der RAMS-Architektur (Resource Availability Management Service) implementiert, der Benutzern eine umfassende Erfahrung für die Ressourcenerkennung bieten kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10166-8_13 349435ccd11faa61555dc4854de52a72;de;;;3.3.;;;Erhöhung der Routenverfügbarkeit im Internet of Vehicles durch Optimierung der Ameisenkolonie Smart City, in der eine große Anzahl selbstkonfigurierbarer und intelligenter Geräte miteinander kommunizieren, bietet eine Plattform für kollaborative Entscheidungsprozesse, die praktisch jedes andere im Ökosystem vorhandene Gerät betreffen. Das Internet of Vehicles (IoV) bildet einen großen Teil des Ökosystems, das aus mobilen Fahrzeugen besteht, die in der Lage sind, die durch das System fließenden Daten zu generieren, zu speichern und darüber hinaus zu verarbeiten. Die Fahrzeuge kommunizieren kontinuierlich miteinander und mit der externen Umgebung, um Echtzeitinformationen zu sammeln und zu verarbeiten. Diese Zusammenarbeit bietet ein Mittel zum Aufbau optimierter Routing-Entscheidungen, die zu einer Verbesserung der Gesamtüberlastung des Netzwerks führen können. In diesem Papier wenden wir zwei Optimierungsalgorithmen Any Colony und Firefly Optimization auf die von verschiedenen Fahrzeugquellen gesammelten Echtzeitdaten an, um ihnen optimierte und überlastungsfreie Routen bereitzustellen. Es wurden verschiedene Straßenparameter berücksichtigt, die die Auswahl einer bestimmten Route zum Zielort beeinflussen können. Die Ergebnisse des Versuchsaufbaus, durchgeführt mit zwei Open-Source-Simulatoren NS2 und SUMO, zeigen eine überwiegende Verbesserung durch die Reduzierung der durchschnittlichen Fahrzeit der Fahrzeuge im betrachteten Gesamtsystem.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-5780-9_29 4be226d2191846e0269cd03eb49bf186;de;;;3.3.;;;Inferenztopologie verteilter Kameranetzwerke mit mehreren Kameras Dieses Papier schlägt eine Inferenzmethode vor, um die Topologie eines Kameranetzwerks mit überlappenden und nicht überlappenden Sichtfeldern für ein kommerzielles Überwachungssystem zu konstruieren, das mit mehreren Kameras ausgestattet ist. Es bietet autonome Objekterkennung, -verfolgung und -erkennung in städtischen Umgebungen im Innen- oder Außenbereich. Die Topologie des Kameranetzwerks wird aus Objektverfolgungsergebnissen zwischen und innerhalb von FOVs geschätzt. Die Merge-Split-Methode wird für die Objektverdeckung in einer einzelnen Kamera und einen EM-basierten Ansatz zum Extrahieren des genauen Objektmerkmals verwendet, um sich bewegende Personen zu verfolgen und die Objektkorrespondenz über mehrere Kameras hinweg herzustellen. Das Auftreten von sich bewegenden Personen und die Übergangszeit zwischen Ein- und Ausgangszonen wird gemessen, um sich bewegende Personen über blinde Bereiche mehrerer Kameras mit nicht überlappenden Sichtfeldern hinweg zu verfolgen. Unser vorgeschlagenes Verfahren stellt die Kameranetzwerktopologie grafisch als ungerichteten gewichteten Graphen unter Verwendung der Übergangswahrscheinlichkeiten und des 8-direktionalen Kettencodes dar. Die Trainingsphase und der Test wurden mit acht Kameras durchgeführt, um die Leistungsfähigkeit unserer Methode zu bewerten. Die zeitliche Wahrscheinlichkeitsverteilung und der ungerichtete gewichtete Graph werden in den Experimenten gezeigt.;-;-;-;https://link.springer.com/article/10.1007/s11042-012-0997-0 0b635ea60639f6b92b0399f5bfc1f021;de;;;1.1.;;;Alternative durch AnalogieDie Kritik hat gezeigt, daß die überwiegende Zahl jener Arbeiten, die sich mit der systemtheoretischen Beschreibung neuer sozialer Bewegungen beschäftigen, zur Systematisierung durchaus geeignet sind und Anschlußfähigkeiten aufweisen, ob dies nun den Gesellschaftsbezug, die Problembestimmung, die funktionale Zuschreibung, den Systemstatus oder die Umwelt insbesondere dieser Bewegungen betrifft. Zugleich ist aber auch deutlich geworden, daß es besondere Schwierigkeiten bereitet, jede dieser Bestimmungen eindeutig nachzuvollziehen. Geht man etwa von der Systembestimmung der neuen sozialen Bewegungen aus, so bietet gerade die Kombination von Protest und Thema eine interessante Möglichkeit, die Autopoiesis neuer sozialer Bewegungen zu beschreiben, gleiches würde etwa für das Mobilisierungsargument gelten. Gleichwohl bleibt zu fragen, wie nach dieser Form der Generalisierung, die noch Beliebiges zuläßt, die Respezifikation gelingt, da kein Thema zum Protest ausgeschlossen scheint. Selbst der Vorschlag, nur Risikothemen zuzulassen, bleibt solange kontingent, solange nicht ersichtlich wird, welches hier wiederum das spezifische Selektionskriterium darstellt. Andernfalls öffnen selbst Risikothemen nur einen kaum einzuschränkenden Kontingenzraum, der wenig Aufschluß gibt über die ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-05726-0_4 02f94c931ed5b0d44e82fbf155fbb221;de;;;3.3.;;;Intelligentes Gesichtserkennungssystem für Sehbehinderte Dieser Beitrag stellt ein Echtzeitsystem vor, das für Sehbehinderte entwickelt wurde, um sie bei sozialen Interaktionen zu unterstützen. Dieses System implementierte einen Gesichtserkennungsalgorithmus, der, wenn er in ein tragbares Gerät eingebettet ist, dabei hilft, bekannte und unbekannte Gesichter an jedem überfüllten Ort oder an jeder Versammlung zu erkennen. Unser Ziel ist es, einen voll funktionsfähigen tragbaren Assistenten zu bauen, der bekannte Gesichter, Objekte sowie den Text aus Büchern erkennen kann. Dieses System fungiert als drittes Auge für Blinde. Der in diesem Beitrag erläuterte Gesichtserkennungsalgorithmus ist der erste Schritt zu diesem Ansatz. Der Bau eines solchen Prototyps ist eine sehr anspruchsvolle Aufgabe, da die tragbare Kamera aufgrund der Bewegung des Objekts und des Rauschens bei unsicheren Lichtverhältnissen unscharfen Bildern ausgesetzt ist. Daher stellt dieses Papier einen Ansatz vor, der gegen jede Änderung der Beleuchtung widerstandsfähig ist und darauf trainiert ist, die Gesichter aus der Datenbank mit hoher Genauigkeit zu erkennen. Die bei diesem Ansatz verfolgte zweistufige Architektur identifiziert zuerst die Anwesenheit einer Person und wendet dann die Gesichtserkennung an, um ihre Identität zu erkennen. Der Objekterkennungsteil hilft dabei, Objekte wie Bilderrahmen und Poster von einer Person zu unterscheiden und erweist sich somit als zuverlässiger als ein Standard-Gesichtserkennungs-Framework. Für jedes Gesicht wird ein Datensatz mit 1000 Bildern aufgenommen, um das Modell zu trainieren, und das System erreicht eine Erkennungsgenauigkeit von 93,2 % bei einer sehr hohen Bildrate.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1813-9_12 de371521e310ea290454179e15f05d45;de;;;3.3.;;;Autonomer mobiler Robotersimulator – ein Programmierwerkzeug für sensorbasiertes Verhalten Ein autonomer mobiler Roboter muss in sehr komplexen Umgebungen mit Unsicherheiten von Sensoren und Aktoren sein Ziel erreichen. Aufgrund solcher Unsicherheiten muss der Regelalgorithmus des Roboterverhaltens in der Lage sein, verschiedene mögliche Umgebungssituationen und den Roboterstatus zu bewältigen. Um einen solchen Regelalgorithmus des Roboterverhaltens zu entwickeln, muss der Algorithmus unter zahlreichen Bedingungen der Roboterumgebung getestet werden.;-;-;-;https://link.springer.com/article/10.1007/BF00711253 a0d25645c969aba5be932c01f2438755;de;;;3.3.;;;Fortschrittliches Dehnungs-Engineering für modernste nanoskalige CMOS-Technologie Die Einführung und Weiterentwicklung des Strain Engineering war eines der kritischsten Merkmale für die hochmodernen CMOS-Transistoren im Nanobereich. Dieses Papier bietet einen Überblick über die wichtigsten Dehnungs-Engineering-Techniken, die die fortschrittliche CMOS-Transistorarchitektur bemerkenswert verändert haben, darunter eingebettetes SiGe (eSiGe), eingebettetes Si:C (eSi:C), Stress-Memorization-Technik (SMT), Dual Stress Liner (DSL) und Stress-Proximity-Technik (SPT). Das Aufkommen von High-K/Metal-Gate (HKMG) bringt mit seinem Metal Gate Stressor (MGS) und Replacement Gate (RMG) Prozess auch zusätzliche Dehnungsvorteile. Das Strain Engineering entwickelt sich weiter und wird einer der wichtigsten Leistungsträger für die zukünftige Generation von CMOS-Technologien bleiben.;-;-;-;https://link.springer.com/article/10.1007/s11432-011-4224-9 57009f4914af4d201899c814ae5c3868;de;;;3.3.;;;Ins Wasser fallende Steine: Wann und wie man eine ansichtsbasierte relationale Datenbank umstrukturiert Eines der wichtigsten Probleme des Software-Engineerings ist auch heute noch die Pflege von Datenbanken und Anwendungen. Es ist klar, dass jedes Verfahren, das die Auswirkungen von Datenbankänderungen auf Anwendungsprogramme reduzieren kann, für Softwareentwicklungsprozesse wertvoll ist. Wir haben ein solches Verfahren mit Hilfe einer Datenbankentwicklungsarchitektur (MeDEA) vorgeschlagen, die Datenbankansichten verwendet. Durch die Verwendung von Views können Änderungen in der Struktur des Datenbankschemas bis zur absoluten Notwendigkeit verzögert werden. Einige Bedingungen erfordern jedoch Änderungen. In diesem Beitrag stellen wir einen Ansatz zur Erkennung von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15576-5_45 7a2882fc4bf6c6ed5e94f91bece227fd;de;;;3.3.;;;Verbesserung der Schätzungen durch Hybridisierung von CMMI- und Requirement-Engineering-Reifemodellen – eine LEGO-Anwendung Auch wenn die Themen „Messung“ und „Schätzung“ eines der relevantesten Themen für das ordnungsgemäße Management eines Projekts sind, hat es seinen Ursprung neben einem guten Management seiner Anforderungen. Tatsächlich hängt die Schätzung stark von der Qualität der Anforderungserhebung und des Managements ab. Daher sollte das Anforderungsmanagement in jedem Prozessverbesserungsprogramm priorisiert werden, denn je ungenauer die Anforderungserhebung, -analyse und -dimensionierung, desto größer der Fehler in Bezug auf Zeit- und Kostenschätzung. Maturity and Capability Models (MCM) stellen ein gutes Werkzeug und eine gute Erfahrungsbasis dar, um den Status einer Reihe von Prozessen zu bewerten, aber eine innere Grenze jedes Modells ist der Umfang und der Ansatz zur Beschreibung eines bestimmten Problems, und in der Regel sind mehr MCM verfügbar zu einem bestimmten Thema, anders damit umzugehen. Somit kann die Integration von zwei oder mehr Modellen mit einem gemeinsamen Schwerpunkt mehr Informationen und Mehrwert für ein Unternehmen bieten, da die besten Komponenten aus jedem Modell erhalten bleiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45404-2_9 466126c955ccf750ec355ac0efca86de;de;;;3.3.;;;Ein Schema zur Generierung von Pseudozufallssequenzen basierend auf RNS und Permutationspolynomen Pseudozufallsfolge mit langer Periode spielt eine wichtige Rolle in modernen Informationsverarbeitungssystemen. Basierend auf einem Restzahlsystem (RNS) und Permutationspolynomen über endlichen Körpern wird in dieser Arbeit ein Schema zur Erzeugung von Pseudozufallssequenzen vorgeschlagen. Es erweitert mehrere zufällige Sequenzen mit kurzer Periode zu einer pseudo-zufälligen Sequenz mit langer Periode unter Verwendung von RNS. Die Zufallsfolgen mit kurzer Periode werden parallel durch die Iterationen von Permutationspolynomen über endliche Körper erzeugt. Aufgrund des kleinen Dynamikbereichs jeder iterativen Berechnung wird die Bitbreite bei der Hardwareimplementierung reduziert. Als Ergebnis können wir eine Full-Look-Up-Table (LUT)-Architektur verwenden, um eine Hochgeschwindigkeitssequenzausgabe zu erzielen. Die Methoden, um geeignete Permutationspolynome zu finden, um Sequenzen mit langer Periode zu erzeugen, und der Optimierungsalgorithmus der Abbildung des chinesischen Restsatzes (CRT) werden ebenfalls in diesem Artikel vorgeschlagen. Die Periode der erzeugten Pseudozufallsfolge kann 2 . überschreiten;-;-;-;https://link.springer.com/article/10.1007/s11432-017-9279-3 4248fa331112bf4a551e798a677db199;de;;;3.3.;;;Überwachung und Kontrolle der CO2-Emissionen von Fahrzeugen Die Machine-to-Machine-Kommunikation, bekannt als Internet of Things (IoT), ermöglicht es Maschinen, sich über eine Vielzahl von Sensoren und Geräten zu verbinden. So können Rückkopplungen zur Regelung von Energie, Landwirtschaft, Verkehr und Umwelt gewonnen werden. Das IoT bietet nicht nur die Möglichkeit, neue Unternehmen und Investitionen zu gründen, sondern auch die CO2-Emissionen zu reduzieren. Es ermöglicht die Produktion hochautomatisierter und vernetzter Fahrzeuge, die den globalen Automobilmarkt verändern. In Anlehnung an die aktuellen IoT-Trends schlägt dieses Papier eine Lösung für die Echtzeitüberwachung von Fahrzeugen und die Kontrolle der CO2-Emissionen namens EcoLogic vor. Die EcoLogic besteht aus einem Hardwaremodul und mehreren Anwendungen, die Cloud-Dienste bereitstellen. Das Hardwaremodul basiert auf Arduino- und Raspberry Pi-Embedded-Systemen und misst mehrere physikalische Parameter durch Sensoren oder extrahiert diese aus dem Onboard-Diagnosesystem des Fahrzeugs zur weiteren Analyse. Die Cloud-Anwendungen verarbeiten die eingehenden Daten, speichern sie in einer SAP HANA-Datenbank und analysieren sie, um Feedback und Kontrolle der CO2-Emissionen bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-93641-3_11 5c1165cc05287333e7e5cf257cd6b5a3;de;;;1.1.;;;Neurone und ZentralnervensystemeGrundlegende Eigenschaften von Neuronen und Zentralnervensystemen werden in dem nachfolgenden Kapitel nur insoweit dargestellt, wie sie für die Zielsetzung dieses Buches notwendig sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55699-9_2 8b891ce9f69199b7ad45a0834756fd24;de;;;1.1.;;;IT-InfrastrukturDieses Kapitel gibt einen knappen Überblick über die wichtigsten Begriffe und Komponenten der IT-Infrastruktur der Unternehmen. Auf eine vertiefte Auseinandersertzung mit den technischen Details wird verzichtet (vgl. Heinrich/Lehner/Roithmayr 1993).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-57892-2_3 9c7b6b973749f451e2c1a0bc68e650b0;de;;;3.3.;;;Messung der objektorientierten Klassenkohäsion basierend auf komplexen Netzwerken Der Klassenzusammenhalt hat einen unmittelbaren Einfluss auf die Wartbarkeit, Modifizierbarkeit und Verständlichkeit der Software. Hier wurde eine neue Kohäsionsmetrik basierend auf komplexen Netzwerken (CBCN) zum Messen der Konnektivität von Klassenmitgliedern entwickelt, die sich hauptsächlich auf die Berechnung des klassendurchschnittlichen Clustering-Koeffizienten aus Graphen stützt, die Konnektivitätsmuster der verschiedenen Klassenmitglieder darstellen. Darüber hinaus wurde die CBCN-Metrik mit theoretischer Validierung nach vier Eigenschaften (Nichtnegativität und Normalisierung, Null- und Maximalwerte, Monotonie, kohäsive Module) der Klassenkohäsionstheorie bewertet. Basierend auf einem Datenvergleich mit bestehenden siebzehn typischen Klassenkohäsionsmetriken der Klassenkohäsion für ein System war die CBCN-Metrik anderen überlegen. Bei der Anwendung der CBCN-Metrik auf drei Open-Source-Softwaresysteme zur Berechnung der klassendurchschnittlichen Clustering-Koeffizienten stellten wir fest, dass das Verständnis, die Modifikation und die Wartung von Klassen in einem offenen Softwaresystem im Vergleich zu denen anderer wahrscheinlich weniger schwierig sein könnten. Drei offene Softwaresysteme haben Power-Law-Verteilungen für den klassendurchschnittlichen Clustering-Koeffizienten, was das weitere Verständnis der Kohäsionsmetrik basierend auf komplexen Netzwerken ermöglicht.;-;-;-;https://link.springer.com/article/10.1007/s13369-017-2588-x 2815873418f7448147f2ef4b37f1dd29;de;;;3.3.;;;Die Genealogie der Bionik: Ein halbes Jahrhundert auf der Suche nach dynamischer IT Biologisch inspirierte Ansätze zur Gestaltung allgemeiner IT florieren derzeit. Die Erforschung der wissenschaftlichen und historischen Wurzeln der Tendenz dient der Vorbereitung zukünftiger biomimetischer Arbeiten. Dieser Artikel untersucht die Genealogie des zeitgenössischen biologischen Einflusses auf Wissenschaft, Design und Kultur im Allgemeinen, um die Vorzüge der Tendenz und der Lehren zu bestimmen. Es wird argumentiert, dass die Bionik auf ehrlichen wissenschaftlichen und technischen Gründen für das Streben nach dynamischer IT beruht, aber auch auf anderen, eher externen Faktoren, und dass die Bionik das Relevante vom Oberflächlichen unterscheiden sollte. Darüber hinaus wird die Suche nach dynamischen Kapazitäten der IT, die die Nachahmung adaptiver Prozesse bewirken kann, als Geschichte und Daseinsberechtigung der Bionik dargestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27835-1_36 16c97949d01588309e8fc303cfdbf9d9;de;;;1.1.;;;Ludwik Fleck und die »Verehrung der Zahl«Zu Beginn des 20. Jahrhunderts, so beschreibt es zeitgenössisch der polnische Mikrobiologe und Erkenntnistheoretiker Ludwik Fleck (1896–1961), zeichnet sich die moderne (Natur-)Wissenschaft durch eine technische und formelhafte Sprache sowie eine »spezifische Verehrung der Zahl« (Fleck 1935a, S. 189) aus. Korrespondierend dazu, so Fleck (1947, S. 165) in einer späteren Arbeit, beherrschten Statistik und Wahrscheinlichkeitsrechnung die Wissenschaftsdisziplinen von Physik bis Soziologie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-13711-3_1 957076e1ad9417ea8bcb5af188a79f16;de;;;3.3.;;;Der Aufbau einer computergestützten kollaborativen Lernplattform basierend auf Cloud Computing Dieses Papier schlägt eine Methode vor, die auf Cloud-Computing-Technologie basiert, um Container Yard zu machen und leichter über die Netzwerkplattform zu verbreiten, die Workflow-fähige virtuelle Community von CSCW-Praktikern praktiziert. Gegenwärtig gibt es mehrere wichtige Fehler des ESCOLE-Prototyps: kein Kinderraumkonzept, die Starrheit des Event-Management-Service, also kein grafisches Workflow-Modell, Bearbeitung, Einschränkung der Workflow-Duktilität usw. Wir entwickeln eine Produktionsplattform, um diese Probleme zu lösen Bibliotheksquelle (www .libresource.org), eine Open Source verteilte kollaborative Umgebung der Workflow Engine Slides erweitert, und beide werden in unserem Forschungsteam erstellt. Omega +, ein universelles Werkzeug, das auf das Großzügigkeitsmodell des Containerhofs die vier Dimensionen kooperative Lernsituation, Interaktion, Prozess und Wirkung anwendet), bietet grafische Modellierungswerkzeuge, die diese verbesserte Produktionsplattform umfassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29084-8_100 c66db2912fe7a5a07ddcfca1a3efcafd;de;;;1.1.;;;Diagnostik und Förderung ethischer Kompetenz in OrganisationenIn diesem Beitrag soll das Merkmal der ethischen Kompetenz aus personaldiagnostischer Perspektive eingeführt werden. Ethische Kompetenz wird dabei als Oberbegriff für eine ganze Reihe von Prozessen und Merkmalen verwendet, die moralisches Entscheiden und Handeln umfassen. Es werden zunächst relevante moralpsychologische Grundlagen erläutert und einschlägige Modelle moralischen Entscheidens und Handelns skizziert. Anschließend werden Möglichkeiten der Diagnostik ethischer Kompetenz aufgezeigt sowie praktische Implikationen zur Förderung ethischer Kompetenz abgeleitet. In diesem Teil werden die moralischen Kapazitäten der Empathie, Ungerechtigkeitssensibilität, moralischen Achtsamkeit und die Kapazität, positive moralische Emotionen zu empfinden, in den Mittelpunkt der Diskussion gerückt. Der Beitrag schließt mit Handlungsempfehlungen für die Organisationsentwicklung, mit deren Hilfe eine organisationsseitige Förderung ethischer Kompetenz ermöglicht werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-52746-7_7 1c147dfd2f7a27ea08c107b9504ccdb5;de;;;3.3.;;;OpenCache: Verteiltes SDN/NFV-basiertes In-Network Caching as a Service Durch das Caching von Inhalten im Netzwerk können Inhalte am Rand des Netzwerks, näher bei den Benutzern, lokalisiert werden. Dieser Ansatz adressiert die Herausforderung des exponentiell steigenden Videoverkehrs. Wir betrachten OpenCache: ein hochkonfigurierbares, effizientes und transparentes Open-Source-Caching im Netzwerk, das Software Defined Networking (SDN) nutzt, um Last-Mile-Umgebungen zu nutzen. Aufgrund seiner Abhängigkeit von einem zentralisierten OpenCache-Controller und SDN-Controller leidet es jedoch unter drei Problemen: Skalierbarkeit, Zuverlässigkeit und Hochverfügbarkeit. In dieser Arbeit bauen wir auf und erweitern die Fähigkeiten von OpenCache als Caching-Lösung, indem wir Network Functions Virtualization (NFV) und einen verteilten SDN-Controller nutzen. Wir diskutieren die architektonischen Design- und Technologieentscheidungen für die Caching-Plattformverteilung einschließlich der funktionalen Komponenten und beleuchten die Rolle der Virtualisierung, Orchestrierung und Verwaltung der Schlüsselprozesse von Caching-Inhalten und Kontrollfunktionen. Unser Ziel ist es, eine Open-Source-, verteilte In-Network-Caching-Plattform zu entwickeln, die hochverfügbar, zuverlässig und mit automatisierter Elastizität ist, um den zunehmenden VoD-Verkehr schnell und effizient bedienen zu können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36368-0_22 e69c9c45bd8c9c56b98c7ce6c5a2a575;de;;;3.3.;;;Elektronische Regalkennzeichnung: Eine empirische Untersuchung zur Einstellung der Verbraucher zu einer neuen Technologie im Handel Die Supermarktbranche steht unter starkem Druck, effizienter und dennoch serviceorientiert zu sein. Eine Lösung können elektronische Regalkennzeichnungssysteme sein. Diese Studie berichtet über die Ergebnisse einer Sensibilisierungs- und Einstellungsstudie, die mit 261 Supermarktkäufern in Bezug auf die elektronische Regalkennzeichnung durchgeführt wurde. Die Daten deuten darauf hin, dass diese neue Technologie aus finanzieller Sicht und aus Sicht der Verbraucher eine rentable Investition sein kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13159-7_55 b3b568fc4f5372bb3baa999ff8054db6;de;;;3.3.;;;Forschung zur Prozessanpassungstechnologie für eine intelligente Transport-Cloud-Service-Plattform Angesichts der dynamischen Nachfrage des Geschäftsflusses nach der Cloud-Service-Plattform Intelligent Transportation werden die relevanten Technologien wie der Plattform-Workflow-Geschäftsprozess erforscht, die Workflow-Systemarchitektur basierend auf der Cloud-Service-Plattform entworfen und implementiert und die Prozessanpassungslösung für die Cloud-Service-Plattform wird Programm vorgeschlagen. Basierend auf dem Design und der Implementierung eines Workflow-basierten Prozessanpassungsmodells erstellt dieses Programm ein Workflow-basiertes Protokoll mit einer Plattform als Kern. Die Workflow-Engine verwaltet den gesamten Prozessstatus und implementiert die intelligente Planung des Plattform-Workflows. Schließlich wird durch die konkrete Anwendung des Kundenservice-Rufsystems in der Cloud-Plattform die Machbarkeit und Wirksamkeit der vorgeschlagenen Technologie überprüft.;-;-;-;https://link.springer.com/article/10.1007/s10586-018-2555-7 e2f5523fe5fe5669c1f7378dce4e4679;de;;;3.3.;;;Kommunikationsbasierte Technologie für Smart Grid Testbed mit OPNET-Simulationen Smart Grid ist eine Technologie, die eine effiziente Stromnutzung ermöglicht, indem Informationen über den Stromverbrauch und den Zustand der Stromleitung durch die Integration von IKT in Stromnetze gesammelt werden. Da es ihnen oft nicht möglich ist, Experimente direkt in einem Netzwerk durchzuführen oder analytische Modelle für die komplexen Systeme aufzubauen, verlassen sie sich meist auf die Simulationen oder die reduzierten Prüfstände. In den meisten Fällen ist es jedoch sehr unwahrscheinlich, ein Experiment mit reduziertem Maßstab zu entwerfen, das ein groß angelegtes Experiment mit einem angemessenen Maß an Präzision ersetzen kann, da die Ergebnisse des alternativen Experiments falsch sein können und die Fehler möglicherweise nicht auftreten gefunden werden, bis die Protokolle oder die Anwendungen tatsächlich in einem Internet-Netzwerk verwendet werden. Daher haben wir in diesem Papier zunächst eine skalierbare Plattform konstruiert, indem wir die Zigbee- und WiMax-basierten Smart Grid-Umgebungen simuliert haben, die beide vom Jeju Island Smart Grid Institute verwendet wurden, zusammen mit der SPS-basierten Umgebung, die im Ausland zu einem großen Thema werden, mit dem gleichen Szenario wie die physikalischen und Datenverbindungsschichten für den Prüfstand. Als Transportschicht wurde RUDP anstelle von TCP und UDP vorgeschlagen. Die Ergebnisse von Simulationen zeigen, dass RUDP ein geeignetes Transportschichtprotokoll für die zukünftigen Smart Grids sein wird, die IoT-angewandte Systeme unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0557-2_23 35978c7ecec19151c905321680417ddd;de;;;1.1.;;;Ideen und Migrationspolitik: Theoretische GrundlagenUm die Wirkung politischer Ideen in der Migrationspolitik zu erfassen, sind zunächst theoretische Implikationen ideeller Faktoren herauszuarbeiten. Grundsätzlich bilden ideenorientierte Ansätze ein relativ junges Erklärungsparadigma im wissenschaftlichen Repertoire der ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-19538-4_3 c0ad7f108e43205bc2c05117145d3794;de;;;1.1.;;;Historische Entwicklung der Forschung zur Lehrer-Schüler-InteraktionDie Optimierung von Erziehungs- und Unterrichtsprozessen ist seit den Anfängen der Pädagogik und später dann der (Pädagogischen) Psychologie als der jüngeren Wissenschaft immer ein zentrales Thema gewesen. Je nach Zeitgeist bzw. vorherrschendem Welt- und Menschenbild hat es zwar durchaus unterschiedliche Ansichten darüber gegeben, welche Erziehungs- und Unterrichtsziele erreicht werden sollten, das wissenschaftliche Interesse galt aber stets der Frage, wie sich diese Ziele erreichen lassen. Klammert man hierbei die Didaktik als eigenständige Disziplin aus, war und ist die Beziehung zwischen Lehrer und Schüler bzw. Erzieher und Zu-Erziehendem in all ihren Facetten der diesbezüglich zentrale Gegenstand der Unterrichtsforschung. Über die Struktur dieser Beziehung gibt es nun divergierende Auffassungen. Im Rahmen der aktuellen wissenschaftlichen Auseinandersetzung mit der Lehrer-Schüler-Interaktion (bzw. in einem weiteren Sinne dem Unterrichtsgeschehen) lassen sich eine Vielzahl von Forschungsschwerpunkten aufzeigen. Davies (2003) beispielsweise gruppiert die vorliegenden Arbeiten zur Lehrer-Schüler-Beziehung in Grundschulen im Rahmen eines Reviews paradigmatisch und nennt die Attachmentforschung, die Motivationsforschung und die soziokulturelle Forschung als Schwerpunkte (einen systematischen Überblick aktueller Inhaltsfelder im deutschsprachigen Bereich liefert der hier vorliegende Band).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-91104-5_3 c0253d6a2056456c8d85f32080061315;de;;;1.1.;;;Messung kognitiv-psychophysiologischer Korrelate schizophrener MinussymptomatikIn der vorgestellten Untersuchung werden kognitiv-psychophysiologische Leistungsmuster (Ergebnisse einer neuropsychologischen Testbatterie und elektrodermale Aktivierungs-Parameter) in verschiedenen Diagnosegruppen verglichen, im Hinblick auf mögliche kognitiv-psychophysiologische Korrelate schizophrener Minussymptomatik. Verglichen werden Diagnosegruppen, für die das Vorliegen schizophrener Minussymptomatik eher typisch bzw. untypisch ist (mehrfach an Schizophrenie Erkrankte vs. mit schizophrener Symptomatik Ersterkrankte und Patienten mit schizoaffektiver Psychose). Aufgrund der Ergebnisse der neuropsychologischen Testung und der während der Testung erhoben Maße elektrodermaler Aktivierung ließen sich diese Gruppen in einem diskriminanzanalytischen Modell zu 91% trennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-6574-4_21 b8c4294bbf080d9f25c5338270de1042;de;;;3.3.;;;Einfluss der Waldbestandsdichte auf die Schätzung des oberirdischen Biomasse-/Kohlenstoffvorrats unter Verwendung von luftgetragenen und terrestrischen LIDAR-abgeleiteten Baumparametern im tropischen Regenwald, Malaysia Die Waldbestandsdichte in tropischen Regenwäldern ist eine entscheidende funktionelle und strukturelle Variable von Waldökosystemen, in denen oberirdische Biomasse gewonnen werden kann. Derzeit besteht eine wachsende Nachfrage nach luftgestütztem und terrestrischem LIDAR zur Messung von Waldbaumparametern zur genauen Bewertung der Waldbiomasse/des Kohlenstoffbestands, um die Anforderungen des UN-REDD + -Programms zu erfüllen. Obwohl mehrere Studien über oberirdische Biomasse/Kohlenstoffvorräte in tropischen Regenwäldern unter Verwendung von Waldinventarparametern durchgeführt wurden, die von luftgetragenen und terrestrischen LIDAR abgeleitet wurden, wurde keine Untersuchung darüber durchgeführt, wie die Schätzung der oberirdischen Biomasse/Kohlenstoffvorräte unter Verwendung von luftgetragenen und terrestrischen LIDAR-abgeleiteten Parametern ist Betroffen von der Waldbestandsdichte in einem tropischen Regenwald. Daher zielt diese Studie darauf ab, die Stärke der Beziehung zwischen der Waldbestandsdichte und seiner oberirdischen Biomasse zu analysieren und zu untersuchen, die anhand von luftgetragenen und terrestrischen LIDAR-abgeleiteten Baumparametern geschätzt wird. Für die Auswahl der Analyseeinheit wurde ein gezielter Stichprobenansatz gewählt. Die Ergebnisse basieren auf Daten, die von 32 Probeflächen gesammelt wurden, die im Feld gemessen und gescannt wurden. Luftgestütztes LIDAR wurde verwendet, um die Höhe der oberen Baumkronen abzuleiten, während terrestrisches LIDAR verwendet wurde, um die Höhe der unteren Baumkronen und den DBH aller unteren und oberen Baumkronen abzuleiten. Der im Feld gemessene DBH wurde verwendet, um die Waldbestandsdichte zu berechnen und den manuell aus TLS-Punktwolkendaten extrahierten DBH zu validieren. Der manuell aus TLS-Punktwolkendaten abgeleitete DBH wurde verwendet, um die AGB der beprobten Parzellen für die oberen und unteren Baumkronen zu schätzen.;-;-;-;https://link.springer.com/article/10.1186/s40068-019-0155-z 003a584c9ea2f06f3db2ea42e0d17a5d;de;;;3.3.;;;Überwachung, Datenschutz und Ethik von Kommunikationstechnologien zur Fahrzeugsicherheit Jüngste Fortschritte bei drahtlosen Technologien haben zur Entwicklung intelligenter, fahrzeuginterner Sicherheitsanwendungen geführt, die darauf ausgelegt sind, Informationen über die Aktionen von Fahrzeugen in der Nähe, potenzielle Straßengefahren zu teilen und letztendlich gefährliche Szenarien oder bevorstehende Kollisionen vorherzusagen. Diese Technologien zur Fahrzeugsicherheitskommunikation (VSC) beruhen auf der Schaffung autonomer, selbstorganisierender, drahtloser Kommunikationsnetze, die Fahrzeuge mit der straßenseitigen Infrastruktur und untereinander verbinden. Da die technischen Standards und Kommunikationsprotokolle für VSC-Technologien noch entwickelt werden, ergeben sich bestimmte ethische Implikationen dieser neuen Informationstechnologien: In Verbindung mit den vorhergesagten Sicherheitsvorteilen von VSC-Anwendungen besteht eine potenzielle Zunahme der Fähigkeit, einen Fahrer bei seinen täglichen Aktivitäten zu überwachen auf den öffentlichen Straßen. In diesem Beitrag wird untersucht, wie die Einführung von VSC-Technologien die „kontextuelle Integrität“ des personenbezogenen Informationsflusses im Kontext von Autobahnfahrten stören und die „Privatsphäre in der Öffentlichkeit“ bedrohen könnte. Da sich VSC-Technologien und ihre zugehörigen Protokolle und Standards noch in der Entwicklungsphase befinden, wird der Beitrag abschließend zeigen, wie viel Aufmerksamkeit den ethischen Implikationen der verbleibenden Konstruktionsentscheidungen gewidmet werden kann, um Designer von VSC-Technologien zu informieren und zu leiten, um innovative Sicherheitsanwendungen zu entwickeln, die die Öffentlichkeit erhöhen Sicherheit, ohne jedoch den Wert der Privatsphäre in der Öffentlichkeit zu beeinträchtigen.;-;-;-;https://link.springer.com/article/10.1007/s10676-006-0016-0 21648ec817236db0101d9e52b2a10739;de;;;3.3.;;;Auf dem Weg zur Evolution experimenteller Robotik Dieser Beitrag stellt ein japanisches Forschungsprogramm für experimentelle Robotik vor. Teil eins beschreibt ein laufendes interuniversitäres Forschungsprogramm zur intelligenten Robotik. Das dreijährige Forschungsprogramm, das durch ein Stipendium des japanischen Bildungsministeriums unterstützt wird, zielt darauf ab, Mechanismen für die Entstehung von Roboterintelligenz und -autonomie zu untersuchen. Mit einem eng gekoppelten Sensor-Action-Ansatz befasst sich dieses Programm mit den theoretischen Grundlagen der maschinellen Intelligenz und untersucht experimentell autonome Systeme, die in der realen Welt wahrnehmen und verhalten. Teil zwei diskutiert zukünftige Richtungen für die Robotik, einschließlich Fragen, Ansätze und Anwendungen. Der dritte Teil präsentiert die Sicht des Autors auf einen Paradigmenwechsel in der Robotikforschung und skizziert das F&E-Projekt seiner Gruppe, das einen Durchbruch für die Robotik der Zukunft anstrebt.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0112947 3b3db229a1cd2bba7e4580b5bfd0e05f;de;;;3.3.;;;Fuzzy-Hough-Transformations-basierte Methoden zur Extraktion und Messung einzelner Bäume in großvolumigen terrestrischen 3D-LIDAR-Daten Diese Startup-Studie legt nahe, dass genauere und schnellere Methoden der terrestrischen LIDAR-Datenanalyse in der Forstwirtschaft entwickelt werden können, aber für die Validierung dieser Methoden sind neue Benchmark-Datensätze mit den bekannten Ground-Truth-Daten erforderlich. Aus der Literaturübersicht geht hervor, dass die Verbesserung der Verfahren durch die Verwendung neuerer Hough-Transformations-basierter (HT) und anderer robuster Fuzzy-Verfahren zur Datensegmentierung und Baummessungen erreicht werden kann. Die Segmentierung von Bäumen kann durch die Grenzfuzzifizierung der Daten um die Brusthöhe herum erfolgen. Mehrere HT-Varianten mit unterschiedlichen Eigenschaften können verwendet werden, um den Durchmesser auf Brusthöhe zu messen und die Genauigkeiten scheinen besser als die von der kommerziellen Software angebotenen erreichbar zu sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15910-7_30 ebfee1ba1eafcc40fb2d2d9bc9c7719d;de;;;3.3.;;;Schnittstellenlebenszyklusmanagement für Legacy-Systemlandschaft IT-Systeme und deren Kommunikation sind ein wesentlicher Bestandteil moderner Unternehmen. Meistens kommt kein einziges integriertes ERP-System zum Einsatz, sondern heterogene Architekturen. In vielen Fällen gibt es Verbindungen zu Legacy-Systemen, in denen wertvolle Informationen gesperrt sind und eine Menge Kommunikation zwischen den Schnittstellen dieser Systeme und zu anderen Systemen stattfindet. Wir bieten einen neuen Ansatz für den Umgang mit dem Datenfluss in einer Systemlandschaft und versuchen durch dieses Papier zu klären, wie die Kommunikationsstruktur aufgeräumt werden kann, um eine weniger komplexe Landschaft zu liefern und den Wartungsaufwand der Schnittstellen zu reduzieren. Die Kommunikationsstruktur wird als Grafik dargestellt. Später verwenden wir zwei Ansätze, um mit diesem Graphen umzugehen. Der GRIPP-Ansatz beantwortet die Erreichbarkeit eines Knotens von einem anderen Knoten in einem Diagramm, während der Enterprise-Tomograph-Ansatz hilft, das Delta zwischen zwei Diagrammen zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16402-6_43 e327cb6db5d18dadeb20ed3a8a17689f;de;;;3.3.;;;ChaosLAN: Design und Implementierung eines Gigabit-LAN ​​mit chaotischem Routing In den letzten Jahren hat das Chaos Project der University of Washington ein Dutzend Routing-Algorithmen analysiert und simuliert. Es wurden drei neue Routing-Algorithmen erfunden, von denen der chaotische Routing-Algorithmus (auch bekannt als Chaos) der erfolgreichste war. Obwohl der Chaos-Router für das Multicomputer-Routing entwickelt wurde, hat das Projekt in letzter Zeit seine Aufmerksamkeit auf die Anwendung der Chaos-Technologie beim LAN-Switching gerichtet. Die vorliegende Aufgabe besteht darin, ein Gigabit-LAN ​​namens ChaosLAN zu implementieren, das auf einem zentralisierten Switch (Hub) und seriellen Hochgeschwindigkeitsverbindungen zu Workstations basiert. Der Switch selbst ist ein vollständig bestücktes zweidimensionales Torus-Netzwerk von Chaos-Routern. Der Host-Adapter ist die PCI-Pamette-Karte von Digital. Um die Performance von ChaosLAN zu evaluieren, unterstützen wir das Global Memory System (GMS), eine ebenfalls am UW entwickelte Art von verteiltem virtuellen Speicher. Wir beschreiben auch eine Anwendung mit haptischem Rendering in Echtzeit, die in einem chirurgischen Simulator verwendet wird.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-69352-1_21 e7dc262e55aa8cc49c4c0360ac358f1e;de;;;3.3.;;;Design und Implementierung von Prinzipien der Computerorganisation Virtuelles Labor basierend auf Komponenten In diesem Papier wurden das Entwurfsmodell und die Implementierungsmethode von PCOVL (Principles of Computer Organization Virtual Lab) basierend auf der Komponententechnik vorgeschlagen. Das System ist mit Java implementiert, was es unabhängig vom Betriebssystem macht. Im PCOVL-System werden Chip-Instrumente mit Java-Bean-Komponenten entwickelt, so dass sie skalierbar sind und eine gute Leistung bei der Software-Wiederverwendung erzielen. Ein datengesteuerter Trigger-Dispatching-Mechanismus wird vorgestellt, um die Komponenten zu planen und Daten zu übertragen. Die Steuerung der Komponentensynchronisation und -kooperation wird durch das Multithreading-Schema und die Lock-Technik implementiert. In PCOVL können Benutzer Experimente visuell entwerfen, Zustände von Komponenten zufällig zur Laufzeit ändern, experimentelle Phänomene beobachten und schließlich Experimentergebnisse erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89962-4_4 5b154d5bffcd86c6753d10a68cb31901;de;;;3.3.;;;Erkennung von Speicherangriffen von kryptografischen Algorithmen Eingebettete Systeme werden immer komplexer, vernetzter und durch Software funktional erweiterbar, was sie einer Vielzahl von Sicherheitsproblemen aussetzt, die Allzwecksysteme geplagt haben, und daher entsteht ein Bedarf an einem effizienten Überwachungsverfahren. Es gibt verschiedene Sicherheitsangriffe und ein Hauptanliegen sind Speicherangriffe. Jede Änderung des Speicherinhalts des Prozessors ändert den Ausführungsfluss. Um eine sichere Ausführung zu gewährleisten und das Eindringen eines eingebetteten Prozessors zu erkennen, wird in diesem Papier eine effektive Technik zur Überwachung von Eindringlingen vorgeschlagen. Die Technik verwendet eine Laufzeitverifizierung des Programms auf Instruktionsebene. Die Befehlsintegrität wird mit einer Hash-Funktion überprüft. Aufgrund der begrenzten Speicher- und Verarbeitungsfähigkeiten eingebetteter Systeme funktioniert diese Technik innerhalb der Einschränkungen, indem sie sich auf eine effektive Erkennung und einen geringen Overhead konzentriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22540-6_20 9071a6be12967d745b4047a569fed0a5;de;;;3.3.;;;Sichere Bereitstellung und Kommunikation mobiler Agenten in Richtung eines autonomen semantischen Netzes Mit der raschen Ausweitung der Informationstechnologie (unabhängig vom Technologiebereich) werden Zusammenarbeit, Informationsaustausch und verteiltes Rechnen zu unvermeidlichen Phänomenen (d. Da die Komplexität eine treibende Kraft hinter den Verbesserungen ist, werden neue netzwerkzentrierte Infrastrukturen und Lösungen vorgeschlagen, um das Problem anzugehen. Grid ist eine Beispiellösung, die die Situation kostengünstig und effizient handhabt. Es gibt verfügbare gitterbasierte Infrastrukturen, um wissenschaftliche (oder andere) Anwendungen zu lösen, die eine Harmonie zwischen verteilter Hardware, Softwareressourcen und menschlichen Benutzern erfordern. Um eine bessere Ressourcennutzung auf sichere und intelligente Weise zu erreichen, sind skalierbare, zuverlässige und dynamische Infrastrukturen aktuelle Anforderungen. Basierend auf den aktuellen Trends schlagen wir eine sichere, dynamische und intelligente Ressourcenverwaltungs- und Zugriffsmethode vor, die mobile Agenten zusammen mit der Grid-Infrastruktur verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/11964995_28 3c8dbde165869af79883de109e327924;de;;;3.3.;;;Eine Implementierungsmethode für migrierbare verteilte Objekte unter Verwendung einer RPC-Technik, die in die Verwaltung des virtuellen Speichers integriert ist integrated Die Objektabstraktion ist für die Konstruktion verteilter Anwendungen unabdingbar, um die Details von Ausführungseinheiten zu kapseln. Durch die Anwendung einer RPC-Technologie, die in das virtuelle Speichermanagement integriert ist, präsentiert dieses Papier einen neuartigen Ansatz zur Implementierung migrierbarer verteilter Objekte. Die Neuheiten des Ansatzes sind die auf Befehlscodeebene erreichte Transparenz, verteilte dynamische Verfahren und die Anwendbarkeit auf heterogene Umgebungen. Die Transparenz auf Befehlscodeebene führt natürlich zu einer Objektmigration und ermöglicht eine effiziente Manipulation der migrierten Objekte. Die verteilten dynamischen Methoden bieten den Programmierern eine flexible Steuerung der Aktivitäten.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0053067 82a29d48e46f75900d704ae459586b4a;de;;;1.1.;;;Unterhaltung durch das FernsehenFolgendes Kapitel widmet sich dem Phänomen von medialer Unterhaltung. Neben Überlegungen zum Konzept von Vergnügen, wie Roland Barthes dies für das Lesen entwickelt hat, und ausgewählten theoretischen Perspektiven auf Fernsehunterhaltung mit einem Schwerpunkt auf Werner Frühs Theorie dazu wird mediale Unterhaltung in den Kontext von Alltagskultur gestellt und ein Blick auf die Aneignung und Nutzung von Fernsehinhalten sowie auf Fernsehen als Alltagshandeln gegeben. Außerdem wird gezeigt, dass Rezipient_innen Fernseh-Unterhaltung seit Anbeginn des Mediums eingefordert haben und immer auch Unterhaltung als Information nutzen und – mit Blick auf den konkreten Untersuchungsgegenstand – inwiefern Afrika und damit verwandte Themen für Unterhaltungszwecke in westlichen Medien fungieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-25145-1_5 e84cc6e719286c50c11bfda770e177f2;de;;;3.3.;;;Klasseninterne Klassifizierung von Architekturstilen unter Verwendung der Visualisierung von CNN Die Klassifizierung von Baustilen ist aufgrund ihrer zeitlichen klassenübergreifenden Beziehungen zwischen verschiedenen Stilen und der geografischen Variation innerhalb eines Stils eines der schwierigsten Probleme der Architekturgeschichte. Frühere Computerversionsansätze konzentrierten sich hauptsächlich auf die allgemeine Klassifizierung mehrerer Architekturstile basierend auf dem historischen Alter, aber nur sehr wenige Studien haben Deep Learning versucht, um klasseninterne Klassifizierungsprobleme nach geografischen Standorten anzugehen, was die Bedeutung der lokalen Evolution und Anpassung alter Baustil. Daher haben wir gotische Architektur als ein bestimmtes Genre veranschaulicht und einen neuen Datensatz mit gotischer Architektur in drei verschiedenen Ländern geleast: Frankreich, England und Italien. Außerdem ist ein trainiertes Modell aufgrund der Fruchtbarkeit regionaler Parameter und des Mangels an Datensätzen anfällig für Überanpassungen. In diesem Papier schlagen wir einen neuen Ansatz vor, um die klasseninterne Varianz im Sinne ihrer geografischen Lage genau zu klassifizieren: Visualisierung des Convolutional Neural Network. Experimente mit diesem Datensatz zeigen, dass der Ansatz der klasseninternen Klassifikation basierend auf lokalen Merkmalen eine hohe Klassifikationsrate erreicht. Wir präsentieren auch interpretierbare Erklärungen für die Ergebnisse, um architektonische Hinweise auf die klasseninterne Klassifizierung zu veranschaulichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-24274-9_18 8cae779b6a7f022ec60274ea0181ef61;de;;;3.3.;;;Entwicklung von Android-Anwendungen basierend auf UML-Aktivitäten Mit den sich entwickelnden Fähigkeiten von Geräten entwickeln sich mobile Anwendungen zu komplexen reaktiven Systemen. Um diese Komplexität zu bewältigen und die Entwicklungszeit durch erhöhte Wiederverwendung zu verkürzen, schlagen wir einen Engineering-Ansatz vor, der auf UML-Aktivitäten basiert, die wie Bausteine ​​​​zum Erstellen von Anwendungen verwendet werden. Bibliotheken solcher Bausteine ​​stellen Android-spezifische Funktionen zur Verfügung. Die Toolunterstützung bietet eine automatische formale Analyse für Solidität und automatische Implementierung. Darüber hinaus ist der Ansatz leicht erweiterbar, da neue Funktionen durch neue Bausteine ​​bereitgestellt werden können, ohne die Werkzeuge oder die Notation zu ändern. Wir demonstrieren die Methode anhand einer Sprachnachrichtenanwendung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24485-8_14 d1536633c807b44a9e59bff13c255755;de;;;3.3.;;;Anwendung von SOA in sicherheitskritischen eingebetteten Systemen Serviceorientierte Architekturen (SOA) werden in Enterprise-Computing-Anwendungen weit verbreitet verwendet, wobei Webdienste die häufigste Implementierung sind. Der Einsatz von SOA wurde auch für eingebettete Systeme vorgeschlagen, obwohl in der Literatur nur sehr wenig über den Einsatz von SOA für sicherheitskritische eingebettete Systeme zu finden war. In diesem Artikel wird die Verwendung von SOA für die Entwicklung dieser Systemklasse diskutiert. Sicherheitskritische eingebettete Systeme haben spezifische Anforderungen wie hohe Zuverlässigkeit und Echtzeitreaktion, was den Einsatz von SOA anspruchsvoller macht als für Standardanwendungen. Um Konzepte zu verdeutlichen, wird eine Fallstudie zur Avionik für unbemannte Luftfahrzeuge (UAVs) vorgestellt. Dies ist eine komplexe Anwendung, die auf einem von den Autoren vorgeschlagenen Referenzmodell basiert. SOA erweist sich als vielversprechender Ansatz, um Teile dieses Referenzmodells zu implementieren, insbesondere was die Missionen des Flugzeugs betrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24106-2_45 f8338d59d9879f59995807639fa13188;de;;;3.3.;;;Ein Softwaresystem für Notfallmaßnahmen und lokale Wettervorhersagen Jüngste Fortschritte in der Computertechnologie haben Supercomputerleistung für einen kleinen Bruchteil des Preises auf den Desktop gebracht. Viele traditionelle Supercomputeranwendungen haben stark von der Verschiebung vom Bereich des Supercomputerzentrums zu einer direkteren lokalen Kontrolle durch den Endbenutzer profitiert. Zwei der atmosphärischen Anwendungen, die von diesen Fortschritten in der Computertechnologie stark profitieren werden und weiterhin profitieren werden, sind die Bereiche der lokalen Wettervorhersage und Notfallreaktionssysteme.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-1817-4_46 5f2eadf6dff2725e6c2dd963a3b3a164;de;;;3.3.;;;Einsparung des Energieverbrauchs von Multi-Robotern durch mobile Agenten höherer Ordnung Dieses Papier stellt einen Rahmen für die Steuerung intelligenter Roboter vor, die durch Kommunikationsnetzwerke verbunden sind. Dieses Framework bietet neuartige Methoden zur Steuerung koordinierter Systeme unter Verwendung von mobilen Agenten höherer Ordnung. Mobile Agenten höherer Ordnung sind hierarchisch strukturierte Agenten, die andere mobile Agenten enthalten können. Die Kombination aus dem übergeordneten mobilen Agenten und mobilen Multirobotern eröffnet einen neuen Horizont der effizienten Nutzung mobiler Roboterressourcen. Anstelle der physischen Bewegung von Multi-Robotern können mobile Softwareagenten von einem Roboter zum anderen migrieren, um die am besten ausgestatteten und/oder am besten platzierten Roboter für ihre Aufgabe zu finden. Somit bietet das hier vorgestellte Framework eine effiziente Nutzung von Roboterressourcen. In diesem Beitrag konzentrieren wir uns auf die Energieeinsparung. Wir haben die Effizienz durch numerische Experimente nachgewiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72830-6_57 214c05462e361cd17d1beb16f8da56f6;de;;;3.3.;;;Photosystem II: Sauerstoffentwicklung und Chlorophyll eine durch mehrere Blitze induzierte Fluoreszenz Photosystem II (PS II) ist ein lichtabhängiges Wasser: Plastochinon-Oxidoreduktase, ein Enzym, das Lichtenergie nutzt, um Wasser zu oxidieren (unter Freisetzung von Sauerstoff und Protonen) und Plastochinon (unter Aufnahme von Protonen) zu reduzieren. Die komplexe Struktur von PS II mit mehreren Untereinheiten wird benötigt, um den Einfang von Lichtenergie, die Oxidation von Wasser, die Reduktion von Plastochinon, die Bildung eines Transmembran-Protonengradienten zu koppeln und den Photonen-, Elektronen- und Protonenfluss zu regulieren. In diesem Kapitel geben wir zunächst einen Hintergrund zu PS II, da die Fluoreszenz dieses Systems nicht nur viel höher ist als die von PSI, sondern auch empfindlich auf viele photosynthetische Reaktionen reagiert. Wir konzentrieren uns speziell auf Chlorophyll (Chi);-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-3218-9_8 abddfe946fe8222ce3985ca005e308e0;de;;;3.3.;;;Selbstähnlichkeit und Kritikalität in der verteilten Fertigung: Ein Beitrag zur Kontrolle von Produktionsnetzwerken Vernetzte Organisationen, wie die der Distributed Manufacturing, sind Strukturen, die sich grundlegend von hierarchischen Organisationen unterscheiden, da sie auf Schnelligkeit, Neuverknüpfung und Neukonfiguration Wert legen. Zur Steuerung dieser Netzwerke werden alternative Verfahren, abgeleitet aus einem neu eingeführten Kritikalitätsrahmen, skizziert. Für die schnelle und effektive Neuausrichtung von Einheiten und die Neuzuweisung von Ressourcen erweist sich das Prinzip der Selbstähnlichkeit als nützlich für die Beschreibung, Steuerung und Weiterentwicklung von Fertigungsnetzwerken. Darüber hinaus lassen Pilotimplementierungen dieser Elemente, wie beschrieben, effiziente praktische Lösungen erwarten. Auf der Aufgabenebene war es bereits möglich, hochgradig anpassungsfähige Steuerungsaufbauten, basierend auf derselben Philosophie, in einen Industriestandard zu verwandeln. Dieses Kapitel erweitert diese Lösungen auf die anspruchsvollere Netzwerksteuerung auf Ebene der Unternehmenseinheiten und soll zur Entwicklung einer neuen Generation von ERP-Systemen beitragen, die auch die verteilte Fertigung abdeckt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84882-468-3_4 ad13a7772c2109bc6915698291b27902;de;;;3.3.;;;Ein Überblick über die aktuellen Fortschritte im Industrial Internet of Things (IIoT) Industrial IoT ist eine begabte Technologie, die viele industrielle Systeme mit Internet-Konnektivität kombiniert. Wahrnehmungstechniken waren darauf bedacht, durch die Zusammenarbeit mit Intellect-Geräten, in denen hochentwickelte Computer, Big-Data-Analyse und Intelligenz eingesetzt werden, eine deutlich bessere Produkteffizienz zu erzielen und die Produktionskosten zu senken. IIoT ist häufig in Branchen involviert, die mit dem Fertigungssektor verbunden sind, der mit der industriellen IoT-Teilmenge verbunden ist. Funktionierende Entwicklungen im Internet der Dinge sind industrielle Prozesse, Lieferketten, Produkte und Dienstleistungen. Dieser Beitrag untersucht akribisch, was mit IIoT gemeint ist, aktuelle Fortschritte des industriellen Internets mit neuen aufstrebenden Technologien wie IoT, Big Data Analytics, Cloud Computing, Cyber-Physical-Social Systems, künstliche Intelligenz.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4866-0_12 a05a062520efaef2bca9493784dca762;de;;;3.3.;;;Verwendung von FPGA-Schaltungen zum Implementieren und Auswerten von Bildverarbeitungsalgorithmen Das wissenschaftliche und akademische Interesse an Bildverarbeitung und -analyse an autonomen Systemen zur Lösung von Problemen des künstlichen Sehens, wie Objekterkennung, Flugbahnplanung von Robotern etc. ist in den letzten Jahren gewachsen. Andererseits hat die rekonfigurierbare Logik attraktive Eigenschaften, um Anwendungen des künstlichen Sehens auf eingebetteten Systemen zu implementieren. In diesem Zusammenhang zielt dieser Beitrag darauf ab, den Entwurf und die Implementierung einer integralen Umgebung zur Implementierung und Evaluierung von Algorithmen für die digitale Bildverarbeitung und -analyse innerhalb eines FPGAs aufzuzeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21402-8_76 bad6d0188f523e3f10b2b61fd899ff54;de;;;3.3.;;;Eine grafische Modellierungsumgebung zur Generierung von Workflows für das Globus Toolkit Grid Computing zielt darauf ab, Ressourcen in einer heterogen verteilten Umgebung zu verwalten. Das Globus Toolkit bietet eine Reihe von Komponenten, die zum Erstellen von Grid-fähigen Anwendungen verwendet werden können. Derzeit werden Anwendungen typischerweise von Hand erstellt, entweder unter Verwendung eines Satzes von Befehlszeilenschnittstellen oder unter Verwendung eines Satzes von Java-Paketen, die vom Java CoG Kit bereitgestellt werden. Der Zweck dieser Arbeit besteht darin, eine High-Level-Schicht einzuführen, die die Entwicklung von Anwendungen im Globus Toolkit-Kontext abstrahiert und vereinfacht, indem grafische Workflows von Anwendungen mit domänenspezifischen Modellierungstechniken erstellt werden.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-23352-0_5 adda98be397c992795849d8e483e4260;de;;;1.1.;;;Leitsystem für Mittelspannungs-SchaltanlagenIn der vorliegenden Abhandlung wird ein modulares und kostengünstiges Leitsystem für Mittelspannungs-Schaltanlagen vorgestellt. Es ist hierarchisch strukturiert mit den Ebenen Stationsrechner, Datenkonzentrator und Betriebsmittel. Die Bedienung erfolgt über ein vollgrafisches Anlagenbediengerät, dessen Anlagenbilder aus dem Datenmodell der Schaltanlage generiert werden. Weiterer Bestandteil des Leitsystems ist ein mikroprozessorgesteuertes Mehrzweck-Schutzrelais. Es kann durch Austausch von Softwaremoduln die Schutzprinzipien Überstrom-, Distanz- und Transformator-Differentialschutz, sowie die Zusatzfunktionen Erdschlußrichtungserkennung, Betriebsmeßtechnik und Störungsaufzeichnung ausführen.;-;-;-;https://link.springer.com/article/10.1007/BF01451981 005c0c979b568b1c289cef8b1199e313;de;;;3.3.;;;Software-RAID 5 für OLTP-Anwendungen mit häufigen kleinen Schreibvorgängen In diesem Papier schlagen wir ein DDR-SSD-bewusstes Software-RAID-System für OLTP-Anwendungen vor. Das vorgeschlagene Software-RAID verwendet ein protokollierungsbasiertes Verfahren, um die Leistung von Software-RAID 5 zu verbessern. Kleine Schreibvorgänge, die häufig in OLTP-Anwendungen auftreten, sind der Hauptfaktor für die Verschlechterung der Leistung von RAID-Systemen. Mehrere Verfahren für ein Software-RAID-System auf Festplattenbasis werden vorgeschlagen, um die kleinen Schreibprobleme zu lösen. Es ist einfach, die bestehenden Methoden auf ein DDR-SSD-basiertes Software-RAID-System anzuwenden. DDR-SSDs haben jedoch einzigartige Eigenschaften, die sich von Festplatten unterscheiden. Wenn die einzigartigen Eigenschaften beim Design des Software-RAID-Systems sorgfältig berücksichtigt werden, wird seine Gesamtleistung verbessert. In diesem Papier schlagen wir eine Differential-Logging-Methode vor, die die DDR-SSD berücksichtigt, um das kleine Schreibproblem zu lösen. Wir zeigen, dass unsere vorgeschlagene Methode das vorhandene Software-RAID durch Simulationen übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22333-4_62 5709448e1394860f4c4802f754b7def8;de;;;3.3.;;;Eine agentenbasierte Planungsmethode für die verteilte Aufgabenzuweisung In Multiagentensystemen sollten Agenten mit ihren benachbarten Agenten sozial kooperieren, um das Aufgabenverteilungsproblem in offenen und dynamischen Netzwerkumgebungen zu lösen. Dieses Papier schlägt eine agentenbasierte Architektur vor, um verschiedene Aufgaben zu bewältigen, insbesondere konzentrieren wir uns auf die Planung und verteilte Aufgabenzuweisung. Bei dem vorgeschlagenen Ansatz verwendet jeder Agent die Fuzzy-Logik-Technik, um die alternativen Pläne auszuwählen. Wir schlagen auch einen effizienten Aufgabenzuweisungsalgorithmus vor, der Agentenarchitekturen berücksichtigt und es benachbarten Agenten ermöglicht, bei der Ausführung einer Aufgabe sowie den indirekt verbundenen Agenten im System zu helfen. Wir veranschaulichen unseren Gedankengang mit einem Benchmark-Produktionssystem als laufendes Beispiel, um unseren Beitrag besser zu erklären. Eine Reihe von Experimenten wurde durchgeführt, um die Effizienz unseres Planungsansatzes und die Leistungsfähigkeit unserer Methode zur verteilten Aufgabenzuweisung zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29157-0_13 feb9f468b3011dd5457ec8f9582921b4;de;;;3.3.;;;Vorläufig zum mobilen Informationsdienst für Netzwerke Mit der rasanten Entwicklung der Netzwerktechnologie sind mobile Informationsdienste für Netzwerke ein wichtiger Bestandteil des Lebens der Menschen. Dieses Kapitel beschreibt zunächst das Konzept des mobilen Informationsdienstes für Netzwerke und die allgemeine Netzwerkarchitektur. Anschließend führt dieses Kapitel die Klassifikation der mobilen Informationsdienste für Netze ein und listet schließlich die Rollen von Schlüsseltechnologien im mobilen Informationsdienst für Netze nach einer hierarchischen Struktur auf. In diesem Buch werden die Technologien zur Erkennung von Netzwerknachbarn, effizientes Netzwerkrouting, Benutzerassoziationstechnologie und Technologien zur Erkennung von Netzwerkgemeinschaften später erläutert. Nach der Einführung dieser Haupttechnologien stellt dieses Buch mobile Informationsdienstplattformen für Netzwerke und verwandte Anwendungen in den Bereichen intelligenter Verkehr, intelligenter Tourismus und mobiles Bezahlen vor. Der mobile Informationsdienst für Netzwerke umfasst viele Techniken und Methoden. Dieses Buch ist nur eine Zusammenfassung der jüngsten innovativen Arbeiten der Autoren zum Thema Smart City. Wir hoffen, dass mit der Entwicklung der Zeit kontinuierlich neue Technologien entstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4569-6_1 59a5fefd896fa3745255702670794276;de;;;3.3.;;;Implementierung eines Big Data Analytics Tools in einer Hochschule Auf der Suche nach intelligenten Lösungen zur Verbesserung der Hochschullehre stießen wir auf eine Reihe von bereits diskutierten Analysen, die nur noch umgesetzt werden mussten. Wir glauben, dass diese Realität in mehreren Bildungseinrichtungen zu finden ist, mit Papier- oder Miniprojekten, die sich mit Bildungsdaten beschäftigen und positive Auswirkungen auf den Unterricht haben können. Aus diesem Grund haben wir eine Architektur entworfen, die aus mehreren Quellen von Bildungsdaten extrahiert und die Umsetzung einiger dieser gefundenen Projekte unterstützt. Die Ergebnisse zeigen ein wichtiges Instrument, das einen positiven Beitrag zur Lehreinrichtung leisten kann. Effektiv können wir hervorheben, dass die Implementierung eines Vorhersagemodells für Studierende, die von einem Studienabbruch bedroht sind, eine neue analytische Vision mit sich bringen wird. Darüber hinaus spart die Praktikabilität des Systems Managern viel Zeit bei der Erstellung von Analysen des Zustands der Institutionen unter Berücksichtigung der Datenschutzbedenken der manipulierten Daten, unterstützt durch eine sichere Entwicklungsmethodik.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72657-7_20 861d1cea52d8347140044575939a95c0;de;;;3.3.;;;Verbesserung des agilen Softwareentwicklungsprozesses basierend auf Automotive SPICE: Eine Fallstudie Wir beschreiben eine Automotive SPICE-basierte Prozessverbesserung für die fahrzeuginterne Softwareentwicklung mit Scrum. Zunächst klären wir Fragestellungen bei der Anwendung von Automotive SPICE auf die agile Softwareentwicklung unter Berücksichtigung von Forschungstrends und Besonderheiten agiler Methoden und Automotive SPICE. Zweitens beschreiben wir die Strategie und den Ansatz zur Lösung der identifizierten Probleme und zur Förderung der Prozessverbesserung. Drittens beschreiben wir praktische Beispiele für die Implementierung einiger Aspekte von Automotive SPICE unter Berücksichtigung der Merkmale der agilen Softwareentwicklung. Abschließend beschreiben wir die Auswirkungen der Prozessverbesserung und der zukünftigen Arbeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-28005-5_40 ba753acea6c927ab0e7b369721a7477f;de;;;3.3.;;;Prozessgesteuerte integrierte Produktdesignplattform Um ein effektives Prozessmanagement und eine im gesamten Produktentwicklungsprozess verwendete Anwendungsintegration zu realisieren, wurden einige fortschrittliche Techniken oder Methoden vorgeschlagen und erfolgreich im Produktdesign angewendet. In einer verteilten Umgebung wird es jedoch unweigerlich zu einem sehr wichtigen Faktor bei der Produktentwicklung, wie diese Engineering-Tools effektiv auf die richtigen Daten im richtigen Format zur richtigen Zeit zugreifen können. Damit wurde eine flexible integrierte Designplattform zur Prozessintegration etabliert, die aus Repräsentationsschicht, Prozesssteuerungsschicht, Serviceschicht und Repositoryschicht besteht. Basierend auf der Analyse von drei Mustern zum Organisieren von Daten wird ein Kontextdatenmodell eingeführt, das Daten basierend auf Prozessen organisiert. Der Mechanismus der Interaktion zwischen Kontextdatenmodell und Prozesseinheit wird detailliert beschrieben. Das Designmuster Model-View-Controller (MVC) wird in unsere Designplattform übernommen, die das Datenmodell von seinen verschiedenen Ansichten trennt. Webservices werden entwickelt, um die dynamische Datenintegration zwischen Anwendungen zu realisieren. Die auf den Schlüsseltechniken basierende Designplattform wird als Prototyp entwickelt, um das Konzept zu beweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28807-4_39 6cda7c8bc35b2f9688fe852f649a98c4;de;;;1.1.;;;III-6 BeobachtungDas folgende Kapitel behandelt die Methode der Beobachtung. Es wird dargestellt, was unter Beobachtung im wissenschaftlichen Sinn verstanden wird, welche Formen der Beobachtung es gibt, welche Kriterien für eine gute wissenschaftliche Beobachtung gelten und was die wichtigsten Fehlerquellen sind. Abschließend werden Vor- und Nachteile dieser Untersuchungsform diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-19992-4_8 4eb195be3023d233af162558178ca01c;de;;;3.3.;;;Design und Implementierung von Mobile Leadership mit Interactive Multimedia Approach In diesem Beitrag schlagen wir das Design und die Implementierung einer Anwendung von Mobile Leadership mit Interactive Multimedia Approach vor, genannt „m-Leadership“. Diese Anwendung wird verwendet, um indirekte Beratung und Beratung zu ermöglichen, die auf mobilen Geräten, z. Wir verwenden eine Methode, um einen Ansatz zu entwickeln, der eine Kombination aus interaktivem Multimedia und pädagogischer Psychologie ist. Wir kümmern uns auch um Aspekte der Benutzeroberfläche, Interaktivität, Benutzerfreundlichkeit und Stand-alone für diese Anwendung, die auf Mobiltelefonen und Multimedia-basiert läuft. In dieser Anwendung werden vier Multimediakomponenten verwendet: Text, Bilder/Grafiken, Audio/Sprache und Videoanimation. Diese Anwendung wird mit J2ME und dem J2ME Wireless Toolkit implementiert. Diese Anwendung wurde als Ganzes an 30 Schülern der Mittelstufe getestet. Basierend auf dem Test geben die Teilnehmer eine Bewertung ab: 46% ausgezeichnet, 24% gut, 29% ausreichend und 1% schlecht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27204-2_27 f1000d9ff6f39101ff7688892758971f;de;;;3.3.;;;Wissenschaftlicher Workshop 6: Wenn Ambient Intelligence auf Web 2.0 trifft: Nahtlose Lokalisierungstechnologien in Städten Der folgende Beitrag befasst sich mit mehreren Aspekten der Ortungstechnik und des Anwendungsdesigns, um ein lückenloses System für eine Region bestehend aus vielen Gebieten mit unterschiedlichem Charakter bereitzustellen. Ausgehend von einem anschaulichen Motivationsbeispiel werden grundlegende Anforderungen aufgezeigt. Einige Klassifikationen führen zu spezifischen Anforderungen und werden gefolgt von einer Unterscheidung zwischen den primären Bereichstypen Indoor und Outdoor. Abschließend werden zwei Ansätze für gängige Problemstellungen in diesem Bereich vorgestellt – einer zur Datenstrukturierung und -handhabung, ein anderer zur Positionsbestimmung in mehreren Bereichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10607-1_8 f4ec8a5bbd7033a6ff3abe69ddf005c6;de;;;3.3.;;;Ein Hybridmodell für die dynamische Softwareaktualisierung für C Ziel war es, ein Modell für die dynamische Aktualisierung von Software zu entwickeln. Eine Hauptschwierigkeit bei der dynamischen Aktualisierung ist der Ausführungszeit-Overhead, der zum Ausführen des zusätzlichen Codes erforderlich ist, der in die aktualisierbare Version des Programms eingebettet ist. Um das Problem zu lösen, aktiviert das in diesem Dokument vorgeschlagene dynamische Aktualisierungsmodell die aktualisierbare Version, wenn Aktualisierungen bereitstehen. Wenn die Aktualisierung abgeschlossen ist, wird die Ausführung mit einem neu aktualisierten Programm fortgesetzt, in dem kein zusätzlicher Code für die dynamische Aktualisierung vorhanden ist. Da die aktualisierbare Version des Programms zur Laufzeit erstellt wird, erhöht das vorgeschlagene Modell nicht nur die Leistung des Systems, sondern ermöglicht es uns auch, Programme zu aktualisieren, die zuvor ohne dynamische Aktualisierungsbetrachtungen kompiliert und ausgeführt wurden. Unsere experimentellen Ergebnisse zeigen die Anwendbarkeit und Leistungsfähigkeit des vorgeschlagenen Modells.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10619-4_19 98bc4182f6046a3f40feb176cb97eaa5;de;;;3.3.;;;Scan-Matching-Online-Zellzerlegung für die Planung von Versorgungspfaden in einer unbekannten Umgebung In diesem Beitrag wird ein neuartiger sensorbasierter Pfadplanungsalgorithmus vorgestellt, der die vollständige Abdeckung eines unbekannten geradlinigen Arbeitsbereichs für die Aufgabe eines mobilen Roboters garantiert. Der vorgeschlagene Algorithmus unterteilt den Arbeitsbereich des Roboters bei jeder Scanprobe in Zellen. Diese Aufteilung kann als eine genaue Zellzerlegungsmethode klassifiziert werden, die inkrementell Zellzerlegung konstruiert, während der Roboter einen unbekannten Arbeitsbereich abdeckt. Um eine vollständige Abdeckung zu gewährleisten, wird eine geschlossene Kartendarstellung basierend auf einer Merkmalsextraktion vorgeschlagen, die aus einem Satz von Liniensegmenten besteht, die als kritische Kanten bezeichnet werden. Bei diesem Algorithmus werden Zellengrenzen durch erweiterte kritische Kanten gebildet, die die erfassten Teilkonturen von Wänden und Objekten im Arbeitsbereich sind. Der Roboter nutzt einen Laserscanner, um die kritischen Kanten abzutasten. Die Sensormessung wird in jeder Zelle zweimal abgetastet. Der Scanabgleich wird durchgeführt, um Karteninformationen zwischen dem Referenzscan und dem aktuellen Scan zusammenzuführen. Bei jeder Abtastprobe wird eine in zwei Richtungen orientierte geradlinige Zerlegung im Arbeitsbereich erreicht und durch eine geschlossene Kartendarstellung dargestellt. Die Konstruktionsreihenfolge der Zellen ist bei diesem inkrementellen Zellzerlegungsalgorithmus sehr wichtig. Um die nächste Zielzelle aus Kandidatenzellen auszuwählen, prüft der Roboter auf Redundanz in der geplanten Bahn und auf mögliche Positionen der Endpunkte der aktuellen Zelle. Der Schlüsselpunkt des Algorithmus ist das Speichern des abgedeckten Raums, um die nächste Zielzelle aus möglichen Zellen zu definieren. Die Pfaderzeugung innerhalb der definierten Zelle wird bestimmt, um die Anzahl der Windungen zu minimieren, was der Hauptfaktor für die Zeitersparnis während der Abdeckung ist. Daher sollte die lange Begrenzung der Zelle als Hauptweg des Roboters gewählt werden. Dieser Algorithmus wird durch ein Experiment unter der LABVIEW-Umgebung verifiziert.;-;-;-;https://link.springer.com/article/10.1007/s12541-013-0209-5 eda28ef2a5fa05f145dee4a7652fee81;de;;;3.3.;;;Autowaschanlagen-Prototyp mit automatischer Bezahlung mit intelligenten Steuerungssystemen Die täglichen Aktivitäten des Menschen können durch den Einsatz von Technologie verbessert werden. Daher schlagen wir in dieser Arbeit den Entwurf eines zwingenden Systems der automatischen Zahlung vor, um den Kontakt zwischen Menschen zu verhindern und die Übertragung von Viren und Bakterien zu vermeiden. So werden neue geeignete und innovative Werkzeuge geschaffen und auf Geschäftsmodelle für den Industrie- und Dienstleistungssektor angewendet. Nutzung und Integration der Kommunikation zwischen visuellen Programmierplattformen, Telekommunikation (Messaging) und Online-Zahlungen mit einem programmierbaren Automaten, einem HMI und einem Raspberry-Board. Die Ergebnisse zeigen eine robuste Plattform in elektronischer Zahlungstechnologie mit hoher Leistung und hoher Zuverlässigkeit, die das MQTT-Protokoll für die Kommunikation verwendet. Die Ergebnisse zeigen eine Zeit von 2,07 s beim Datenschreiben nach dem Senden des Signals und 0,80 s beim Lesen der SPS-Ausgänge zur Überwachungsseite.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71503-8_18 6dabcfc4369a290f59c79634d3df1af1;de;;;3.3.;;;Ein verteiltes Sperrprotokoll Gleichzeitige Zugriffe auf eine Datei treten häufig in einer verteilten Computerumgebung auf, in der einige wenige an das Netzwerk angeschlossene Server als Datenspeicherpool bezeichnet werden und die Clients physisch über ein Netzwerk wie GigaEthernet oder Fibre Channel mit den Servern verbunden sind. In einer solchen verteilten Computerumgebung besteht eines der Hauptprobleme beim Erzielen einer beträchtlichen E/A-Leistung und Skalierbarkeit darin, ein effizientes Sperrprotokoll aufzubauen. Wir präsentieren ein verteiltes Sperrprotokoll, das es mehreren Client-Knoten ermöglicht, ihre Daten gleichzeitig in verschiedene Datenabschnitte einer Datei zu schreiben, während es gleichzeitig eine konsistente Ansicht der zwischengespeicherten Daten des Clients bietet, und schließen mit einer Bewertung der Leistung unseres Sperrprotokolls auf einem Linux-Cluster .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30497-5_36 aaa491e1f589c9b7df48bcb73b6d0c01;de;;;3.3.;;;Auf dem Weg zu bürgerzentrierten Marktplätzen für Urban Sensed Data Durch die zunehmende Urbanisierung verschärft sich der Wettbewerb um die endlichen Ressourcen der Städte. Um eine hohe Lebensqualität für die Bürger zu erhalten, kann eine effizientere Nutzung dieser Ressourcen angestrebt werden. Eine Möglichkeit, dieses Ziel zu erreichen, ist der Einsatz von Sensornetzwerken, die Echtzeitinformationen über die Bedingungen in einer Stadt sammeln und das Verständnis der Bürger für ihre Umgebung verbessern. Dennoch stellen viele bestehende Sensornetzwerke ihre Daten nur lokal zur Verfügung, sind nicht vernetzt und richten sich statt an den Durchschnittsbürger an Unternehmen und Experten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71906-7_12 d01718faa36ab56f1ffc1411aefe3805;de;;;3.3.;;;Vergleichende Analyse automatischer Methoden zur Messung der Oberfläche von Gewinden von Öl- und Gasrohren In dieser Arbeit wurde eine vergleichende Analyse von Methoden zur Messung komplexer Profiloberflächen wie beispielsweise Gewindeoberflächen durchgeführt. Als Beispiel für komplexe Oberflächen wurden die Gewinde von Öl- und Gasrohren und Kupplungen verwendet. In Zusammenarbeit mit leitenden und einfachen Mitarbeitern wurde eine theoretische und experimentelle Bewertung der Zuverlässigkeit, Leistung und Genauigkeit der geometrischen Messsysteme im Werkstattumfeld vorgenommen. Koordinatenmessmaschine mit Taststift, Profilometer, konoskopischen, konfokalen, interferometrischen und Lasertriangulationsmethoden wurden verwendet, um das Problem der Gewindemessung zu lösen. Die optimale Methode zur Messung der Gewindegeometrie für eine Werkstatt wurde getestet und als Ergebnis der Analyse von Rohren und Kupplungsgewinden identifiziert. Als einzig für die Gewindemessung geeignete Problemlösung wurde das Laser-2D-Triangulationsscanverfahren verifiziert. Die Messergebnisse mit dieser Methode zeigen eine Möglichkeit, die technischen Anforderungen an das Gewinde von Premium-Öl- und Gasrohren zu erfüllen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-39225-3_11 3bd62d2b4ec56002c6f76ca99d531357;de;;;3.3.;;;Charakterisierung von gedrucktem Text zur Identifizierung von Drucktechnologien mithilfe des Algorithmus zur Maximierung der Erwartung Die forensische Analyse gedruckter Dokumente ist eine multiobjektive Aktivität mit intrinsischen Daten als Eingaben, die effiziente Techniken erfordert. Jüngste Trends legen den Bedarf an guten Vorprozessoren und Nachanalysewerkzeugen nahe, die gedruckten Text zur Identifizierung der Drucktechnologie charakterisieren. Jede Drucktechnologie unterscheidet sich in ihrem Verfahren zum Aufbringen von Markierungsmaterial auf das Ziel. Der Artikel konzentriert sich auf häufig verwendete Wörter wie „the“ als Testmuster zur Charakterisierung von gedrucktem Text. Die Neuheit des vorgeschlagenen Algorithmus besteht darin, dass der ausgewählte gedruckte Text als Mischung aus drei Gaußschen Modellen, nämlich Text, Rauschen und Hintergrund, modelliert wird. Die zugehörigen Muster und Merkmale der Modelle werden mit dem Algorithmus der Erwartungsmaximierung (EM) abgeleitet und einige Indizes werden basierend auf diesen Parametern vorgeschlagen. Einer der Indizes namens Print Index (PI) für Text wird für die grundlegende Drucktechnologieunterscheidung verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25725-4_18 2b25030a7a7271189eeff8e86ea4a5b2;de;;;3.3.;;;Ein effizienter Ansatz zur Abwehr verdeckter Speicherkanalangriffe in virtuellen Maschinen nach dem Anti-Erkennungskriterium Verdeckte Kanäle waren ein wirksames Mittel zum Durchsickern vertraulicher Informationen über Sicherheitsdomänen hinweg, und es liegen zahlreiche Studien zu typischen verdeckten Angriffen und Abwehrmaßnahmen vor. Bestehende Bedrohungsbeschränkungslösungen für verdeckte Kanäle basieren auf den Bedrohungsabschätzungskriterien von verdeckten Kanälen, wie beispielsweise Kapazität, Genauigkeit und Kurznachrichten, die beim Bewerten der Informationsübertragungsfähigkeit eines verdeckten (Speicher-)Kanals wirksam sind. Diese Kriterien können jedoch die Schlüsselfaktoren im Kommunikationsprozess, wie gemeinsame Ressourcen und Synchronisation, nicht umfassend widerspiegeln und sind daher nicht in der Lage, die Verborgenheit und Komplexität von zunehmend aufgerüsteten verdeckten Speicherkanälen zu bewerten. Als Lösung wurde das Anti-Erkennungskriterium eingeführt, um diese Beschränkungen der Abdeckungskanäle zu beseitigen. Obwohl sie effektiv sind, verursachen die meisten Techniken zur Bedrohungsbeschränkung unweigerlich einen hohen Performance-Overhead und werden daher unpraktisch. In dieser Arbeit vermeiden wir solche Overheads und präsentieren einen Restriktionsalgorithmus basierend auf dem Anti-Erkennungskriterium, um Bedrohungen, die mit verdeckten Speicherkanälen in virtuellen Maschinen verbunden sind, einzuschränken und gleichzeitig die Ressourceneffizienz der Systeme zu erhalten. Die experimentelle Auswertung zeigt, dass unsere vorgeschlagene Lösung in der Lage ist, verdeckten Speicherkanalangriffen effektiv zu begegnen. Im Vergleich zu Pump, einem bekannten traditionellen Restriktionsalgorithmus, der in praktischen Systemen verwendet wird, reduziert unsere Lösung den Systemaufwand erheblich.;-;-;-;https://link.springer.com/article/10.1007/s11390-019-1979-8 433855986720831422344d7af8ead3cc;de;;;3.3.;;;Ein auf hybrider Vertrauenswahrscheinlichkeit basierendes C-ACO-Modell für große softwaredefinierte Netzwerke Die Verbreitung der drahtlosen Kommunikationsdaten- und Netzwerkarchitekturen macht es schwierig, einen optimalen Pfad aufgrund hoher Rechenzeit- und Speicherbeschränkungen zu finden. Die meisten der herkömmlichen softwaredefinierten Netzwerke (SDN) sind aufgrund von Änderungen der Datengröße und des Kommunikationsbereichs unabhängig von dynamischen Pfadplanungsparametern und der Netzwerktopologie. Außerdem sind diese Modelle in Großsystemen aufgrund des Mangels an Knotenvertrauen und Pfadplanungsprozess nicht effizient. Um diese dynamischen Probleme in softwaredefinierten Netzwerken zu überwinden, wird in diesem Papier ein hybrides dynamisches, auf Vertrauenswahrscheinlichkeit basierendes Pfadplanungsmodell vorgeschlagen, um es für große Netzwerke geeignet zu machen. In diesem Modell wird ein hybrider Cluster-basierter Ant Colony Optimization (C-ACO)-Ansatz mit Node Trustiness integriert, um den bestmöglichen Kommunikationspfad im SDN zu untersuchen. Durch Simulationen wird beobachtet, dass das vorgeschlagene Schema für SDN eine bessere Effizienz liefert als die traditionellen metaheuristischen Ansätze.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-73603-3_5 d479339f4ac4b20932240552cbc7eafe;de;;;3.3.;;;Von BPMN 2.0 zum Aufbau auf einem ESB – Anwendung auf ein Interoperabilitätsproblem Um Interoperabilitätsprobleme auf semantischer Ebene zu lösen, schlagen wir vor, zur Orchestrierung der Geschäftsprozesse beizutragen, um eine Mediation basierend auf Enterprise Service Bus (ESB) zu implementieren. Wir zeigen, wie Sie die kommende Version von . nutzen können;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15961-9_85 7cea9caaa6cc54030ca04697d00d0ac2;de;;;3.3.;;;Eine agile Implementierung innerhalb einer Organisation für Medizinprodukte-Software Drei Umfragen, die über einen Zeitraum von 6 Jahren durchgeführt wurden, zeigten, dass Unternehmen für Medizinprodukte-Software Schwierigkeiten im Bereich des Anforderungsmanagements haben, nämlich die Anpassung an geänderte Anforderungen. Medizingerätesoftware wird traditionell in Übereinstimmung mit einem plangesteuerten Softwareentwicklungslebenszyklus (SDLC) entwickelt. Diese SDLCs sind starr und unflexibel gegenüber Änderungen, sobald die Phase des Anforderungsmanagements abgeschlossen ist. Agile Methoden gewinnen in nicht regulierten Branchen an Bedeutung, aber die Akzeptanz dieser Methoden in regulierten Branchen wie dem Softwarebereich für medizinische Geräte ist noch gering. Diese Studie präsentiert eine Implementierung agiler Methoden in einer in Irland ansässigen Organisation für die Entwicklung von Software für Medizinprodukte. Diese Implementierung beinhaltete die Integration agiler Praktiken mit einem traditionellen plangesteuerten SDLC. Nach Abschluss dieser Implementierung im Rahmen eines Softwareentwicklungsprojekts für Medizinprodukte stellte das Unternehmen Kosteneinsparungen und eine Reduzierung der erforderlichen Nacharbeit bei der Einführung einer Änderung der Anforderungen fest.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13036-1_17 dabc373272afb8ccfd66fcb4f60708c3;de;;;3.3.;;;Kombination von grafischer und formaler Entwicklung offener verteilter Systeme Eine Spezifikation eines Softwaresystems umfasst mehrere Aspekte. Zwei wesentliche Aspekte sind die Bequemlichkeit bei der Spezifikation und die Möglichkeit der formalen Analyse. Diese Aspekte sind zum Teil exklusiv. Dieses Papier beschreibt einen Ansatz zur Spezifikation von Systemen, der beide Aspekte betont, indem er UML mit einer Sprache zur Beschreibung des beobachtbaren Verhaltens von Objektsichtpunkten, OUN, kombiniert. Während sich beide Sprachen auf objektorientierte Konzepte konzentrieren, ergänzen sie sich in dem Sinne, dass eine grafisch und semi-formal ist, während die andere textuell und formal ist. Der Ansatz wird anhand einer Fallstudie demonstriert, die sich auf die Spezifikation einer offenen Kommunikationsinfrastruktur konzentriert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-47884-1_18 fe4fe4422e6b876ab7ecf002bd0ff277;de;;;3.3.;;;Wie sich Network Reverse Engineering von Software Reverse Engineering unterscheidet Software Reverse Engineering hat in den letzten zehn Jahren viele Meilensteine ​​durchlaufen und ist schnell von der Forschung in die Industrie übergegangen. Analog haben Forscher herausgefunden, dass es auch möglich ist, Reverse Engineering auf Computernetzwerke anzuwenden. Das Ziel des Network Reverse Engineering besteht darin, eine lebendige Karte der Netzwerke mit Anmerkungen zu versehen, die die Knotenrolle, Verbindungskonnektivität, Topologiedynamik und Bandbreitennutzung zeigt. Es ist notwendig, aber auch herausfordernd, Reverse Engineering auf Computernetzwerke anzuwenden. Wir präsentieren eine vergleichende Analyse zum Reverse Engineering von Software und Netzwerk aus fünf grundlegenden Perspektiven: Quelle, Analyse, Präsentation, Validierung und Vorhersage. Der Vergleich zeigt, dass sowohl Software- als auch Netzwerkgemeinschaften von den gemeinsamen Bemühungen beim Reverse Engineering profitieren würden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29157-9_4 ffcfd5f3d15bff64ce3a52c4afbc981a;de;;;3.3.;;;Vorhersage der Verzögerung von Problemen mit Fälligkeitsterminen in Softwareprojekten In vielen Softwareprojekten werden zunehmend Issue-Tracking-Systeme (z.B. JIRA) eingesetzt. Ein Problem kann einen Softwarefehler, eine neue Anforderung oder eine User Story oder sogar eine Projektaufgabe darstellen. Eine Frist kann einer Ausgabe auferlegt werden, indem ihr entweder explizit ein Fälligkeitsdatum zugewiesen wird oder sie implizit einer Veröffentlichung zugewiesen wird und die Frist der Veröffentlichung übernommen wird. Dieses Papier präsentiert einen neuartigen Ansatz zur automatisierten Unterstützung von Projektmanagern und anderen Entscheidungsträgern bei der Vorhersage, ob ein Problem möglicherweise verzögert wird. Eine Reihe von Funktionen (im Folgenden als bezeichnet);-;-;-;https://link.springer.com/article/10.1007/s10664-016-9496-7 0a3421f2276efb079cd939fff351e8ae;de;;;3.3.;;;Nachhaltige Smart Cities durch die Linse komplexer interdependenter Infrastrukturen: Panorama und State-of-the-Art Smart Cities werden entwickelt, um moderne Funktionalitäten (z. B. nachhaltige Energiesysteme, intelligente Stromnetze und elektrifizierte Verkehrsnetze) zu ermöglichen und konzentrieren sich auf die Informations- und Kommunikationstechnologien (IKT), um den Betrieb und die Effizienz der zukünftigen Städte zu verbessern. Darüber hinaus wird das Konzept der Smart Cities entwickelt, um intelligente Technologien und Lösungen mit dem vorrangigen Ziel der Verbesserung der Lebensqualität zu integrieren. Die fortschrittlichen Mess-, Steuerungs-, Informations- und Kommunikationstechnologien sind das Rückgrat von Smart Cities, die zum Sammeln und Analysieren der Daten verwendet werden, um energieeffiziente, kosteneffiziente, zuverlässige und sichere Dienste bereitzustellen. Smart Cities konzentrieren sich auf die Koordination zwischen verschiedenen Sektoren, darunter Energie- und Verkehrssysteme, Wasserversorgungsnetze und das Gesundheitswesen, um effizientere Anwendungen zu ermöglichen. Dieses Kapitel zielt darauf ab, einen Überblick über die Smart Cities und den Bedarf an Nachhaltigkeit für die zukünftigen Städte sowie die laufenden Herausforderungen für die Umsetzung von Smart City zu geben. Darüber hinaus wird ein Überblick gegeben, um die voneinander abhängigen Strom- und Verkehrsnetze als eines der Schlüsselelemente zukünftiger Smart Cities zu erläutern. Im Hinblick auf die Anwendungen von Smart Cities sollen über verteilte Sensoren sowie die Steuergeräte immer mehr Informationen aus den Städten und Gemeinden gesammelt werden. Datenschutz- und Sicherheitsprobleme werden aufgrund der Bedenken hinsichtlich des Schutzes der gesammelten Daten und der übertragenen Kontrollsignale gegen das bösartige Verhalten aufkommen. Auch solche Fragen werden in diesem Kapitel behandelt. Obwohl Smart Cities den Bürgern in vielerlei Hinsicht zugute kommen können, bestehen jedoch einige Datenschutz- und Sicherheitsbedenken hinsichtlich möglicher Datenlecks und böswilliger Angriffe. Um die Akzeptanz der hohen Durchdringung von Smart Cities und ihres realen Umsetzungspotenzials zu erhöhen, werden alle vorgestellten Aspekte adressiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98923-5_3 00b8243133c5a1e590e26849826b0713;de;;;3.3.;;;Kupfer(I)-π-Komplexe mit Allylderivaten heterocyclischer Verbindungen: struktureller Überblick über ihr Kristall-Engineering In diesem Aufsatz wurde eine umfassende kristallchemische Analyse von Kupfer(I)-π-Komplexen mit Allylderivaten heterocyclischer Verbindungen durchgeführt. Unter Berücksichtigung der spezifischen Rolle der Cu-(C=C)-Wechselwirkung, des Aufbaus der organischen Liganden, der Basizität und nukleophilen Aktivität ihrer Heteroatome wurde die strukturelle Genese anorganischer Bestandteile von den einfachsten bis zu den kompliziertesten Aggregaten betrachtet sowie Olefin-Cu(I)-π-Komplex-Herstellungsroute.;-;-;-;https://link.springer.com/article/10.2478/s11532-013-0323-3 e122baac754d9c84f1098746d339beff;de;;;1.1.;;;Standardsoftware, Desktop-Integration und Workflow-ManagementUmfassende Business Process Redesign-Projekte scheitern oft in ihrer Umsetzung, weil der Implementierung der Prozesse ins Informationssystem (IS) zu wenig Beachtung geschenkt wird. Es ist tatsächlich ein ehrgeiziges und komplexes Vorhaben, aufgrund eines Business Process Redesigns die administrativen Basisapplikationen in der Unternehmung neu zu entwickeln. Theoretisch wäre dies möglich. Die Zeit stellt den limitierenden Faktor dar. Die Neuentwicklung der administrativen Basisapplikationen beansprucht nebst erheblichen finanziellen Mitteln Information Engineering Know-How und entsprechende Werkzeuge, vor allem Zeit. Für die Neuentwicklung der administrativen Basisapplikationen einer mittleren bis grossen Unternehmung müssen wir zwischen vier und sechs Jahre veranschlagen. Die Gefahr ist sehr gross, dass sich die Prozesse und Strukturen des Unternehmens bis dahin verändert haben, so dass die neuentwickelten administrativen Basisapplikationen bereits wieder veraltet sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-84940-3_13 882d44ebac39358beb7c4f05093481c8;de;;;1.1.;;;Spontanverlauf von kompensierten autonomen SchilddrüsenadenomenThe spontaneous course of 58 patients with compensated autonomous adenoma of the thyroid was followed. Scintigraphic appearance (compensated (CAA) or decompensated (DAA)) was documented and the serum levels of thyroxine (T4), trijodthyronine (T3) and thyroid-stimulating hormone after TSH-stimulating hormone were measured at the beginning of observation and 3,8 years (median) later. During follow-up period, 13 patients (22%) with CAA developed DAA. 9/ 13 patients (15%) had overt hyperthyreoidism with elevated T4 and/or T3 levels, 4/13 patients (7%) had normal thyroid hormone levels. Life table analysis showed a risk for developing hyperthyreoidism of 19% at five years. The size of all adenomata measured scintigraphically was increasing during follow-up, and there was no discrimination of CAA from DAA using this technique. Eight CAA patients received iodinated contrast medium but none develope DAA. In conclusion from these results as well as from the literature, there is no indication for surgery or radioiodine therapy of patients with a CAA, even if there are plans to administer iodinated contrast medium.;-;-;-;https://link.springer.com/article/10.1007/BF01744269 30bfb01ac78f70eeafe8e552f49df3b4;de;;;3.3.;;;Fehlervorhersagemethoden für die Entwicklung eingebetteter Software unter Verwendung hybrider Modelle selbstorganisierender Karten und multipler Regressionsanalysen In dieser Studie etablieren wir Fehlervorhersagemodelle in verschiedenen Stadien der Embedded-Software-Entwicklung mit hybriden Methoden von selbstorganisierenden Karten (SOMs) und multiplen Regressionsanalysen (MRAs). SOMs sind eine Art künstlicher neuronaler Netze, die auf unüberwachtem Lernen beruhen. Ein SOM erzeugt eine niedrigdimensionale, diskretisierte Darstellung des Eingaberaums von Trainingsproben, diese Darstellungen werden Maps genannt. SOMs sind nützlich, um niedrigdimensionale Ansichten hochdimensionaler Daten als mehrdimensionale Skalierungstechnik zu visualisieren. Die Vorteile von SOMs für statistische Anwendungen sind: (1) die Möglichkeit, durch Assoziation und Wiedererinnerung vernünftige Rückschlüsse aus unvollständigen Informationen zu ziehen, (2) Daten visualisieren, (3) umfangreiche Daten zusammenfassen und (4) nichtlineare Modelle erstellen . Wir konzentrieren uns auf den ersten Vorteil, Fehlervorhersagemodelle in verschiedenen Phasen der Embedded-Software-Entwicklung zu erstellen. In einigen Fällen ergibt ein Modell, das nur SOMs verwendet, eine geringere Fehlervorhersagegenauigkeit als ein Modell, das nur MRAs verwendet. Das Gegenteil ist jedoch der Fall. Um die Vorhersagegenauigkeit zu verbessern, kombinieren wir daher beide Modelle. Um unseren Ansatz zu verifizieren, führen wir ein Evaluierungsexperiment durch, das Hybridmodelle mit MRA-Modellen mit dem Welch-t-Test vergleicht. Die Ergebnisse des Vergleichs zeigen, dass die Hybridmodelle hinsichtlich des Mittelwerts der relativen Fehler genauer sind als die MRA-Modelle, da die Fehlermittelwerte der Hybridmodelle statistisch signifikant geringer sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32172-6_15 35f715722452cc1a0466a106b10354ef;de;;;3.3.;;;Eine Untersuchung individueller Persönlichkeitstypen in der Softwareentwicklung Frühere Forschungen – unter Verwendung konventioneller psychometrischer Fragebögen – haben die Bedeutung der Abstimmung kompatibler Persönlichkeitstypen in Softwareentwicklungsteams hervorgehoben. Es existiert jedoch kein dediziertes, robustes Fragebogeninstrument, um die relevanten Persönlichkeitstypen für Praktiker in der Softwareentwicklung aufzudecken. Diese Studie analysiert die Validität und Reliabilität eines 70 Items umfassenden (kontextabhängigen) Fragebogens zur Persönlichkeitsprofilierung, der speziell entwickelt wurde, um Persönlichkeitstypen von Software-Praktikern zu beurteilen. Es wurde ein systematischer Validierungsprozess unter Verwendung eines iterativen Ansatzes zur Fragebogenentwicklung eingesetzt. Die Fragen wurden sowohl mit einer qualitativen Analyse der Interviewdaten als auch auf der Grundlage der Meinungen von Gutachtern entwickelt, die die Items durch eine Reihe von Prüfungen überarbeiteten. Um zu untersuchen, wie stabil die Fragen und reproduzierbar die Ergebnisse sind, haben wir die Test-Retest-Reliabilität des Instruments gemessen und zufriedenstellende Ergebnisse geliefert. Die vorliegende Studie lieferte Belege für die Konstruktvalidität des Instruments. Letztlich zeigte ein erster Vergleich der Ergebnisse des Instruments positive Korrelationen mit den Erkenntnissen, die mit einem bekannten Persönlichkeitsbewertungsinstrument, dem Big-Five-Persönlichkeitsfragebogen, gewonnen wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-43896-1_10 7257ab8ffb5b21d543bc07d154fafbad;de;;;1.1.;;;Wirtschaften als „richtiges“ Handeln: ManagementIn diesem Kapitel geht es um ein ebenfalls altes Paradigma der Wirtschaftswissenschaft, nämlich die Theorie vom „richtigen“ Handeln. Dabei wird das Wort „richtig“ hier verstanden im Sinne von „effizient“ bzw. „geeignet, ein bestimmtes, ökonomisch geprägtes Ziel zu erreichen“.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-04047-5_4 8ded8b303c57f0a51f1521fc101b5941;de;;;1.1.;;;Drei Sichtweisen der WechselkursbestimmungIn der zweiten Hälfte der siebziger Jahre ist eine Vielzahl von Modellen entstanden, deren gemeinsame Zielsetzung die Erklärung der Wechselkursentwicklung ist. Die Bezeichnung dieser Modellgeneration als Finanzmarktansätze deutet die neue Grundidee schon an: Wechselkurse werden wie die Kurse oder Renditen für Finanzaktiva durch das Gleichgewicht auf den Finanzmärkten bestimmt. Damit übernehmen die Finanzmarktansätze für die Untersuchung der Wechselkursentwicklung den Analyseansatz des Bestandsgleichgewichts, wie er zuvor schon von Tobin für die Bestimmung der Ertragsraten auf Finanzaktiva im Rahmen einer geschlossenen Volkswirtschaft entwickelt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-46924-4_2 eec579b137ee07a7cbcac323decc3f54;de;;;3.3.;;;Optimierungsschema basierend auf Parallel-Computing-Technologie Parallel Computing ist eine Hochleistungstechnologie zur Lösung von Problemen. Um die Recheneffizienz zu verbessern, verwenden wir den Prozessor, um mehrere Teile eines Problems gleichzeitig auszuführen. Ausgehend von den aktuellen Fragestellungen im Bereich Parallel Computing hängen sowohl die Datenverarbeitungs-Wiederholrate als auch die Parallel-Rechenzeit von der Zeit des letzten Threads in der Task-Erledigung ab. Dieses Papier wurde geschrieben, um einen Überblick über die existierenden parallelen Computertechniken und -strukturen zu geben und eine Lösung vorzuschlagen, einen fortgeschrittenen Thread oder fortgeschrittenen Prozessor hinzuzufügen, um den Mangel im Bereich des parallelen Computers auszugleichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-6442-5_48 086612ddf435e9fc5d77cc04c8370d35;de;;;1.1.;;;Die Bedeutung des EEG für die MusikpsychologieDie an sich geringen Möglichkeiten, Musikwahrnehmung und Musikerleben naturwissenschaftlich überhaupt zu erforschen, ergeben sich durch Methoden, die zumeist für ganz andere Zwecke entwickelt wurden. Gewöhnlich ist die Aussagekraft der Ergebnisse solcher Methoden eng begrenzt und hängt von den verfügbaren Parametern im Untersuchungsobjekt ab. War die Musikpsychologie vor dem Eindringen naturwissenschaftlicher Denkweise im 19. Jh. fast ausschließlich philosophisch orientiert, so hat sich danach neben einer introspektiv-hermeneutischen auch eine empirisch-experimentelle Richtung entwickelt. In den letzten Jahrzehnten erscheinen immer häufiger auch Arbeiten, die Gehirnvorgänge bei der Verarbeitung von musikalischer Information mit Methoden der kognitiven Psychologie untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-5562-4_9 276d1a9a523421c8ddd6b2985071e360;de;;;1.1.;;;Universale soziale Institutionen Einführung in naturale Grundlagen menschlicher GesellschaftMit der ökologischen Krise der Industriegesellschaft, die seit einigen Jahren ins Bewuβtsein moderner Gesellschaften getreten ist, werden die Wissenschaften zusehends mit der Forderung konfrontiert, zur Klärung der Beziehung des Menschen zur Natur beizutragen. Für die Wissenschaft stellt dies eine unerhörte Herausforderung dar, denn Voraussetzung eines verbesserten Verständnisses dieser Beziehung ist zum einen die präzise Bestimmung dessen, was als Natur gelten kann, zum anderen ist zu prüfen, inwiefern die Kategorien wissenschaftlichen Denkens einem neuen Naturverständnis förderlich sind. Wissenschaftliche Kategorien und Begriffe gewinnen jedoch“einen scharfen Sinn erst im Rahmen eines umfassenden Wissens, letztlich einer Theorie„(Weizsäcker, 1986, S. 11, Küppers, 1986), so daβ eine grundlegende Neubestimmung des Naturbegriffs an erhebliche Fortschritte des Wissens gebunden ist. Leichter faβlich scheint hingegen die Aufgabe, die gesellschaftlichen Auswirkungen neuzeitlicher europäischer Wissenschaft zu bestimmen, denn es dürfte wenig Zweifel daran bestehen, daβ sich sowohl der Wohlstand in den fortgeschrittenen Industrieländern der Wissenschaft und der aus ihr abgeleiteten Technik verdankt, aber auch nolens volens die ökologischen Krisenerscheinungen der jüngsten Vergangenheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-58267-7_2 1ae809411f6210a16d44983af2ef3da2;de;;;1.1.;;;EEG-Quellen im Frequenzbereich bei psychiatrischen Erkrankungen, der Demenz vom Alzheimer Typ und beim gesunden Altern, geschätzt mittels Frequenz-Quellen-Analysen des EEGsDie in der letzten Zeit erworbenen Kenntnisse auf dem Gebiet der Neuro-wissenschaften führen zunehmend zu einem besseren Verständnis der Beziehung zwischen Hirnfunktion und Hirnstruktur. Heute, im Zeitalter der Computer- und Magnetresonanztomographie, die uns die Struktur des Gehirns in vivo bildlich darstellt, ist die Erforschung der Funktion des Gehirns bei Gesunden und bei Kranken und auch die Beziehung der Funktion zur Struktur von besonderer Bedeutung. Zur Untersuchung der Funktion des Gehirns sind uns in der letzten Zeit neue Methoden zur Verfügung gestellt worden, wie z. B. die Positronen-Emissions-Tomograhie (PET), die Single-Photonen-Emissions-Tomographie (SPECT), die regionale Hirndurchblutung (regional Cerebral Blood Flow, rCBF) und die funktionelle Magnetresonanztomographie, die den Gehirnstoffwechsel, die Rezeptorendichte und die Durchblutung des Gehirns messen. Neuere neuroanatomische Methoden brachten uns bisher unbekannte neuronale Verbindungen zwischen scheinbar voneinander getrennten Gehirnstrukturen zur Kenntnis. Zusammen eröffnen uns diese neuen Methoden, wie nie zuvor, Möglichkeiten, Theorien über die Gehirnfunktion und deren Beziehung zur Struktur zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-6889-9_150 344425d6b4c1ceb9ff61791fbd194a58;de;;;1.1.;;;Entwicklung und Validierung des Bedürfnisinventars bei Gedächtnisstörungen (BIG-65)Der Bedarf an einer systematischen Erfassung krankheitskorrelierter Patientenbedürfnisse bei Hirnleistungsstörungen und Demenz zur Auswahl optimaler Behandlungsoptionen steigt zunehmend. Es fehlt jedoch an validen Messinstrumenten, die zur Erfassung krankheitskorrelierter Bedürfnisse auch bei Menschen mit Demenz eingesetzt werden können.;-;-;-;https://link.springer.com/article/10.1007/s00391-012-0375-6 e82dc7db4a0393b548065c40b581efa1;de;;;3.3.;;;Erkennung der Manipulation in der Hand durch Beobachtung des Kontaktzustandsübergangs für die Roboterhandsteuerung Ziel dieser Forschung ist es, ein direktes Lehrsystem für mehrfingerige Roboterhand zu entwickeln, um die von einem menschlichen Bediener demonstrierte In-Hand-Manipulation zu reproduzieren. Ein Erkennungsverfahren durch Beobachten des Kontaktzustandsübergangs auf einer Handflächenoberfläche wird beschrieben, um Primitive der Handmanipulation zu erkennen. Ein dynamisches Programmieren (DP)-Matching wird angewendet, um die Grundelemente zu erkennen. Das direkte Lehrsystem besteht aus einem Objekt mit mehreren Sensoren und einer von unserer Gruppe entwickelten mehrfingerigen Roboterhand „NAIST-Hand“. Am Beispiel einer Barcode-Scan-Aufgabe wird ein Experiment durchgeführt, um die Validität des entwickelten Systems zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14743-2_29 f23f3e972255cc3e61b825da7bdeaf13;de;;;1.1.;;;Wirkungsmodelle und ForschungstraditionenDie 1930er und 1940er Jahre sind in den Vereinigten Staaten die Pionierphase der Medienwirkungsforschung. In den Forschungsberichten ist gleichwohl immer seltener von einfachen Kausalketten und eindeutigen Einflüssen der Medienangebote auf das Einstellungs- und Verhaltensrepertoire der Menschen die Rede. Die in der Einleitung bereits zitierte Arbeit von Joseph T. Klapper ist hierfür ein gutes Beispiel. Bereits im Jahr 1949 hatte dieser Autor einen Forschungsbericht vorgelegt, der unter dem Titel ‚The Effects of Mass Media‘ publiziert wurde. Im Jahr 1960 erschien diese Studie in aktualisierter Form unter dem Titel ‚The Effects of Mass Communication‘.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-93191-3_4 f4accf7898926f1b8a808d20ecece702;de;;;3.3.;;;Hierarchisches CPK-basiertes Trusted Computing Kryptographie-Schema Die PKI-basierte Trusted Computing Platform (TCP) erfordert, dass Plattformbenutzer mehrere Platform Identity Key (PIK)-Zertifikate beantragen, um eine Remote-Bestätigung bereitzustellen, Benutzer müssen die Gebühr für digitale Zertifikate zahlen, was die wirtschaftliche Belastung der Benutzer erhöht und dazu führt, dass es kaum TCP gibt hat wirklich die Kernfunktion des Trusted Computing, der Plattform-Remote-Bestätigung, ausgeführt, so dass die Anwendung von TCP nicht sehr breit ist. Dieses Whitepaper stellt ein Trusted Computing-Kryptografieschema vor, das auf dem Hierarchical Combined Public Key (HCPK) basiert, das das Risiko eines einzelnen Private Key Generators (PKG) reduzieren kann und den Verifizierer TCP direkt ohne Dritte authentifizieren lässt, sodass Plattformbenutzer dies nicht tun müssen zusätzliche digitale Zertifikate anwenden. Dieses Schema kann die Kosten der Benutzer für die Verwendung von TCP reduzieren und die Entwicklung von TCP-Anwendungen fördern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23496-5_11 2e16de5b004082930ebaf7e4e70ae34d;de;;;3.3.;;;Oberflächenrekonstruktionstechnologie aus dichten Streupunkten basierend auf Gitter Um die Geschwindigkeit der Oberflächenrekonstruktion aus dicht gestreuten Punkten zu verbessern und die Anwendungskosten zu reduzieren, beschreibt dieser Artikel eine neue und schnelle Oberflächenrekonstruktionsmethode basierend auf Grid-Computing. Die vorgeschlagene Methode wandelt zunächst großflächige unorganisierte 3D-gescannte Datensätze in geschichtete Datensätze um. Dann wird basierend auf dem Datenparallelmechanismus ein lose gekoppelter paralleler Rekonstruktionsalgorithmus entworfen, wobei der Algorithmus weniger Kommunikation zwischen den Knoten hat, so dass er besser für Grid-Computing geeignet ist. Um einen Lastausgleich im Netz zu realisieren, wird die prioritätspräemptive Scheduling-Strategie basierend auf einem zweistufigen Scheduling-Modell entworfen. Schließlich wird die Grid-Umgebung von Globus Toolkit erstellt und die parallele Rekonstruktion und Visualisierung wird basierend auf mpich-G2 und dem Visualization Toolkit (VTK) erreicht. Dieses Experiment zeigt, dass die Rekonstruktionszeit erheblich reduziert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11842-5_19 0ef3665114f68ec0ad03bd32d531435e;de;;;1.1.;;;Aufmerksamkeitsdefizit-/Hyperaktivitätsstörung (ADHS) im ErwachsenenalterDie Aufmerksamkeitsdefizit-/Hyperaktivitätsstörung (ADHS), die gekennzeichnet ist durch eine situationsübergreifende Störung der Aufmerksamkeit und der Impulskontrolle sowie durch motorische Hyperaktivität, desorganisiertes Verhalten und eine Störung der Affektkontrolle, galt lange Zeit als eine Erkrankung des Kindes- und Jugendalters. Die Prävalenz für diese Altersgruppe wird anhand einer US-Untersuchung an einer repräsentativen Bevölkerungsstichprobe mit 7% angegeben (Bloom u. Dey 2006). Daten aus Langzeitverlaufsstudien, in denen Kinder mit ADHS bis ins Erwachsenenalter beobachtet wurden, konnten zeigen, dass bei ca. 60% der betroffenen Kinder die Symptomatik auch im Erwachsenenalter weiter besteht (Mannuzza et al. 1998). ADHS wird daher inzwischen als eine chronische, lebenslange Störung verstanden. Sie ist eine neurobiologische Störung, bei der genetische Faktoren, eventuell in Kombination mit Gen-Umwelt- Interaktionen, eine maßgebliche Rolle spielen und die mit hirnstrukturellen und neuropsychologischen Veränderungen assoziiert ist. ADHS geht im Erwachsenenalter mit Funktionseinschränkungen in zahlreichen Lebensbereichen einher. Studienergebnisse weisen auf eine hohe Komorbidität mit weiteren psychischen Erkrankungen, v. a. depressive Störungen und Substanzabhängigkeit hin.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03637-8_73 b6dea5e5c60b6e00a5257122fd0a33bd;de;;;3.3.;;;Effiziente Sondenauswahlalgorithmen zur Fehlerdiagnose Die Zunahme der Netzwerknutzung für immer mehr leistungskritische Anwendungen hat zu einer Nachfrage nach Tools geführt, die den Netzwerkzustand mit minimalem Verwaltungsverkehr überwachen können. Adaptive Sondierung hat das Potenzial, effektive Werkzeuge für die End-to-End-Überwachung und Fehlerdiagnose über ein Netzwerk bereitzustellen. Adaptive Sondierungs-basierte Algorithmen passen den Sondensatz an, um Fehler im Netzwerk zu lokalisieren, indem weniger Sonden in gesunden Bereichen und mehr Sonden in die vermuteten Fehlerbereiche gesendet werden. In diesem Beitrag stellen wir adaptive Sondierungswerkzeuge vor, die die Anforderungen erfüllen, um eine effektive und effiziente Lösung zur Fehlerdiagnose für moderne Kommunikationssysteme bereitzustellen. Wir präsentieren eine Systemarchitektur für ein auf adaptiver Sondierung basierendes Fehlerdiagnosetool und schlagen Algorithmen für die Sondenauswahl vor, um eine Fehlererkennung und Fehlerlokalisierung durchzuführen. Wir vergleichen die Leistung und Effizienz der vorgeschlagenen Algorithmen anhand von Simulationsergebnissen.;-;-;-;https://link.springer.com/article/10.1007/s11235-008-9069-1 7b3ff97b4f7b1865d26f43c44b166237;de;;;1.1.;;;Managementrolle: AlleinentscheiderDie Begriffe „entscheiden“ und „managen“ werden häufig synonym gebraucht (vgl. z. B. Simon 1960, S. 1). Dies ist insoweit gerechtfertigt, als Entscheiden der wichtigste Bestandteil einer jeden Managerrolle ist, gleichgültig ob man Management im Sinne einer Institution oder einer Funktion versteht, ob man es mit Personalführung, Unternehmensführung oder dem dispositiven Faktor gleichsetzt (vgl. Staehle 1990, S. 65 f.).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-96347-5_13 5c700810176754092e3ac9da6a24ddc9;de;;;1.1.;;;Die Organisation des Lebendigen: eine Theorie der lebendigen OrganisationDas Ziel dieser Arbeit ist die Darstellung einer Theorie der Organisation lebender Systeme als autonomer Gebilde und einer Theorie der Organisation des Nervensystems als eines geschlossenen Netzwerks interagierender Neuronen, das mit dem lebenden System, zu dessen Verwirklichung es beiträgt, strukturell verkoppelt ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-91090-5_7 5a547e8254852476736c47c192eb7bcb;de;;;1.1.;;;Rekursive DatenmodelleDie Grenzen klassischer Datenbankmodelle zeigen sich insbesondere bei der Modellierung von Realitätsausschnitten mit Objekten, die aus zahlreichen Komponenten aufgebaut sind (etwa in nichtkonventionellen Datenbankanwendungen der Bereiche CAD/CAM, Computer Graphik, Textspeicherung und -Verarbeitung, etc.). Zur adäquaten Modellierung derartiger ‘komplexer Objekte’ warden ‘rekursive Datenmodelle’ vorgeschlagen. Sie ermöglichen eine Definition und Verarbeitung von Datenobjekten, die nicht notwendig gleiche Strukturen, sondern nur noch gleichartige Strukturierungsprinzipien haben müssen. Der Ansatz integriert Erfahrungen aus den Bereichen Programmiersprachen und klassische Datenbankmodelle.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-69297-0_10 8901d44c62a0508522d8c3419a97def3;de;;;1.1.;;;Neue Entwicklungen der Informationstechnik und ihre betriebliche AnwendungDer Weg in die Informationsgesellschaft scheint unaufhaltsam. Informations- und Kommunikationstechnik sind zu einem festen Bestandteil unseres Lebens geworden, und die sich eröffhenden Möglichkeiten sind schier unermeßllich. Die Bereitstellung von Technologien bestimmt für sich alleine jedoch noch keine wirtschaftlichen, gesellschaftlichen und kulturellen Entwicklungen. Hierfür sind der Gebrauch dieser Technologien und die Entwicklung konkreter Anwendungen und Dienste entscheidend. Insbesondere die Art, wie unsere Unternehmen in Zukunft wirtschaften werden, wie sie ihre Marktbeziehungen und internen Abläufe gestalten werden, wird von diesen Entwicklungen grundlegend beeinflußt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-86541-0_15 8d6616ad8b9b64a082cfebeb0eae1985;de;;;1.1.;;;Manager Competence AuditDie Frage danach, was einen guten oder erfolgreichen Manager ausmacht, ist wahrscheinlich so alt wie die Menschheit selbst. In praktisch allen Kulturen, seien sie antik oder (post)modern, „primitiv“ oder „hochentwickelt“, östlich oder westlich, findet man Manager oder Führer, Personen, die Prozesse initiieren und kontrollieren sowie bei Entscheidungen eine besondere Rolle spielen. Und in unserer heutigen Kultur der Organisationen erfüllen wahrscheinlich so viele Menschen wie nie zuvor zumindest teilweise Managementaufgaben. Die Frage, was einen erfolgreichen von einem erfolglosen Manager unterscheidet, ist also ebenso alt wie aktuell, vermutlich aktueller denn je.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-90962-6_5 9f89f74126589224b0d84ecf34d71293;de;;;1.1.;;;Planung der ProdukteigenschaftenProdukteigenschaften sind zentral, da sie die Kaufentscheidung determinieren: Kunden erwerben jene Produkte, von denen sie sich eine Befriedigung ihrer Bedürfnisse versprechen. Die Nutzenevaluation der Individuen — d.h. die Abschätzung, ob und inwieweit ein Produkt die Bedürfnisse zu befriedigen vermag — erfolgt folgerichtig über die Perzeption und Beurteilung dessen Eigenschaften (Herrmann und Huber 2000b).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-90786-8_21 67bfbe67afc88fd3cdf0f117b2dae7b7;de;;;1.1.;;;Untersuchung des kontinuierlichen Handels an der DTBDer kontinuierliche Handel an der DTB ist als elektronischer Auktionsmarkt mit Marketmakern organisiert und ist somit eine Mischform der beiden Grundformen Auktionsmarkt und Händlermarkt. Die Existenz von Marketmakern soll die Möglichkeit eines jederzeitigen Geschäftsabschlusses gewährleisten und Anlegern Sicherheit in bezug auf eine faire Auftragsausführung geben. Marketmaker übernehmen somit eine tragende Rolle für die Qualität des Aktienoptionsmarktes, die anhand der impliziten Transaktionskosten und der Liquidität des Marktes beurteilt werden soll. Dies erfolgt vor dem Hintergrund, daß die DTB eine elektronische Börse ist und daß von diesem Strukturmerkmal spezifische Auswirkungen auf die Marktqualität zu erwarten sind. Die umfangreiche und detaillierte Datenbasis erlaubt es, mit der Marktspanne und der Markttiefe zwei wesentliche Dimensionen der Liquidität zu untersuchen. Desweiteren läßt sich das tägliche Handelsvolumen in die Anzahl der pro Transaktion gehandelten Kontrakte (Transaktionsgröße) und die Anzahl der Transaktionen ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-99832-3_10 8619db2534d3568d877cf7c9e8d0288c;de;;;1.1.;;;Der Typus des Unternehmers in wirtschaftssoziologischer SichtWährend die Wirtschaftsgeschichte dem Wirken unternehmerischer Persönlichkeiten große Aufmerksamkeit widmet, wird die Figur des Unternehmers in der Wirtschaftstheorie nahezu unbeachtet gelassen. Das Kapitel entwickelt eine soziologisch kontextualisierte Analyse des Typus des Unternehmers, die die bei Schumpeter erkennbare Tendenz zur Hypostasierung der individuellen Unternehmerpersönlichkeit vermeidet. Die kreativen Leistungen von Unternehmern und sie sie rahmenden symbolischen und sozialen Inszenierungen werden dabei ebenso berücksichtigt, wie die spezifisch modernen Klassenstrukturen, die die Figur des industriellen Unternehmers erst entstehen lassen. Zugleich wird gezeigt, dass das dem unternehmerischen Handeln zugrunde liegende Aufstiegsstreben eine strukturelle Aufwärtsmobilität auf gesellschaftlicher Ebene zur Folge hat, die dem unternehmerischen Potential nachfolgender Generationen Grenzen setzt („kollektiver Buddenbrooks-Effekt“).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-26227-3_8 429c7cb2eaa9a2b5a464126952aac18e;de;;;1.1.;;;Die kognitive RepräsentationNachdem in Kapitel 4 die kognitive Information und in Kapitel 5 der kognitive Informationsprozessor beschrieben wurden, ist es Aufgabe des vorliegenden Kapitels, Information und Prozessor aufeinander zu beziehen. Wenn ein kognitiver Prozessor Information verarbeitet, entsteht hieraus auf der Grundlage seiner Intentionalität und Situiertheit eine spezifische ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-94240-1_6 605dda62621ee946824bcc6f6bb99a33;de;;;1.1.;;;Standardisierung von börsennotierten GenußscheinenEine bestimmte Verfahrensweise zur Standardisierung von Genußscheinbedingungen existiert nicht. Insgesamt lassen sich drei mögliche Standardisierungsverfahren identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-99628-2_4 6e07086bdf6f8cb616767151e0449ad5;de;;;1.1.;;;Requirements Engineering und Requirements ManagementUm erfolgreich Produkte zu entwickeln ist es notwendig, von Anfang an die Anforderungen der Kunden und Benutzer zu kennen und in die Entwicklung einfließen zu lassen. Dies erfolgt meist bereits vor dem Start einer Entwicklung durch Marktanalysen und Analysen zum Nutzerverhalten. Darauf aufbauend werden im Requirements Engineering die technischen und vielfältigen Verhaltens-, Qualitäts- und Integrationsanforderungen festgehalten und verwaltet, um so bereits frühzeitig die Qualität des Produktes und die Kundenzufriedenheit sicher zu stellen. Wegen steigender Komplexität entwickelter Systeme ist der Nutzen von Methoden und Werkzeugen des Requirements Engineerings klar zu fassen und ihr Einsatz – trotz erhöhten Aufwandes – unumgänglich. Requirements Management führt zu konkreteren Entwicklungszielen, die effektiveres Entwickeln ermöglichen, da Änderungen und Fehler früher erkannt und umgesetzt werden. Dadurch können Verzögerungen zum Ende hin reduziert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-43816-9_3 9090708a3f961ae893b322f5c52718ce;de;;;1.1.;;;Neues aus der HörforschungIn der klinischen Praxis wird das Hörvermögen der Patienten zumeist mittels Tonaudiogramm und Sprachaudiogramm quantifiziert. Die Messung und detaillierte Analyse auditorisch evozierter Hirnstammpotenziale (BERA) bei Hörstörungen geht beim Menschen über die Routinediagnostik in der HNO-Praxis hinaus. In grundlagenwissenschaftlichen Studien werden BERA regelmäßig zur Hörschwellenbestimmung der jeweiligen Tiermodelle eingesetzt. In den letzten Jahren hat die Auswertung der überschwelligen BERA, insbesondere der Welle-I-Amplituden, zur Aufdeckung und zum neuen Verständnis der Synaptopathologie der afferenten Innenohrsynapse und des Hörnervs geführt. Im Tiermodell und beim Menschen sichtbar werden diese Veränderungen an einer Amplitudenreduktion der Welle I der BERA. So konnte nach stattgehabter leichter Lärmbelastung sowie im zunehmenden Alter die den sensorischen Defiziten (Haarzellverlust) vorauseilende neurale Komponente der sensorineuralen Schwerhörigkeit identifiziert werden, nämlich der Verlust von afferenten Synapsen der inneren Haarzelle mit Untergang der zugehörigen Hörnervenfasern. Eben diese Ampitudenreduktion konnte auch bei Patienten mit Tinnitus bei scheinbar normalen Hörvermögen identifiziert werden. Neue funktionelle Magnetresonanztomographiestudien deuten darauf hin, dass das limbische System die Wahrnehmung der Tinnitussensation im Sinne eines endogenen Noise-cancelling-Systems beeinflussen kann und unterstreichen damit die Bedeutung psychotherapeutischer Ansätze bei chronischem Tinnitus.;-;-;-;https://link.springer.com/article/10.1007/s00106-013-2807-z 44f2937081294370310f144f20c289bb;de;;;1.1.;;;Lernkompetenzen als Bildungsstandards — eine Diskussion der UmsetzungsmöglichkeitenIn Deutschland liegt seit 2003 ein Konzept zur Entwicklung nationaler Bildungsstandards vor. Bildungsstandards beziehen sich auf einen bestimmten Lernbereich. Innerhalb der Standards dieser Lernbereiche sollen zudem fächerübergreifende Bildungsziele als Standards berücksichtigt werden. Lernkompetenzen, die in diesem Artikel fokussiert werden. stehen in einer Zusammenstellung möglicher fächerübergreifender Bildungsziele an erster Stelle. Im Gegensatz zur Umsetzung von fachlichen Kompetenzen als Bildungsstandards liegen bislang allerdings keine Vorschläge vor, wie Lernkompetenzen innerhalb der Standards der einzelnen Lernbereiche umgesetzt werden können. Der vorliegende Artikel soll einen Beitrag zur Klärung der Frage leisten, inwiefern dies auf der Basis des vorliegenden Konzepts nationaler Bildungsstandards realisierbar ist. Die Diskussion zwei der zentralsten Punkte des Bildungsstandardskonzepts zeigt. dass sich Lernkompetenzen ohne eine Reformulierung des Referenzrahmens von Bildungsstandards nur partiell als Standards umsetzen lassen. Im letzten Kapitel werden in der Folge Umsetzungsmöglichkeiten zur Etablierung von Lernkompetenzen als Bildungsstandards diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s11618-004-0058-1 d63a81b25e3d64e59db2f0c2c8a363dc;de;;;3.3.;;;Evaluierung von Methoden zur Bewertung von Softwareprozessen – Fallstudie Die Bewertung konkurrierender Software Process Assessment (SPA)-Methoden ist ein wichtiges Thema für Initiativen zur Verbesserung von Softwareprozessen. Obwohl Designer von SPA-Methoden behaupten können, dass sie ihre SPA-Methoden erfolgreich entwickelt und implementiert haben, wurde noch keine Bewertung dieser Ansprüche anhand einer Reihe von Bewertungskriterien dokumentiert. Darüber hinaus würde eine unabhängige Bewertung der derzeit verfügbaren SPA-Methoden auch den Entwicklern dieser Methoden helfen. Dieses Papier präsentiert als Fallstudie die Ergebnisse der Anwendung der vorgeschlagenen Bewertungskriterien auf die MARES SPA-Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21233-8_4 59a78e7f8dd29f7b24ec0709fa794e1c;de;;;3.3.;;;Jenseits des Hütens von Katzen: Abstimmung der quantitativen Technologiebewertung in groß angelegten Forschungsprojekten Ein groß angelegtes Forschungsprojekt mit vielen Forschungs- und Industrieorganisationen, die an einem gemeinsamen Ziel arbeiten, sollte eine ideale Grundlage für fundierte Technologiebewertungen sein. Die Möglichkeit für industrielle Fallstudien in mehreren Umgebungen sollte eine zuverlässige quantitative Bewertung der Leistungsfähigkeit neuer Technologien in verschiedenen realen Umgebungen ermöglichen. Aufgrund vielfältiger Herausforderungen, wie interne Agenden, implizite Einschränkungen und unausgeglichene Ziele, geht die Nutzung dieses Potenzials jedoch über die übliche Herausforderung des Cat-Herds in solchen Projekten hinaus. Basierend auf unseren Erfahrungen aus der Koordination von Technologiebewertungen in mehreren Forschungsprojekten skizziert dieser Beitrag typische Fragestellungen und skizziert einen Ansatz für deren Umgang. Obwohl neu in seiner Zusammensetzung, vereint dieser Ansatz Prinzipien und Techniken, die in früheren Projekten als nützlich angesehen wurden (z. B. organisationsübergreifende Ausrichtung, abstrakte Maßnahmen und internes Baselining). Da wir den Ansatz derzeit in einem großen Forschungsprojekt anwenden, bietet dieser Beitrag darüber hinaus erste Einblicke in seine Anwendbarkeit und Nützlichkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39259-7_9 a5667240125f903a2d483d99b69d9181;de;;;3.3.;;;Federated Query Processing Service in serviceorientierter Business Intelligence Im aktuellen Geschäftsszenario wird der Großteil der Software als Dienste angeboten, die durch Verträge der Dienstanbieter bereitgestellt werden. Der Kunde oder Nutzer zahlt dem Diensteanbieter für die Dauer der Nutzung. Im Prozess der Business Intelligence ist die Datenintegration unumgänglich. Die Datenföderation ist eine Form der Datenintegration, die als Servicer implementiert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19542-6_62 7b8135e580bfe113d00c6d82f63223d4;de;;;3.3.;;;Entwicklung von Softwareanforderungen: Ein Weg zur Verbesserung der Softwarequalität In diesem Papier schlagen wir einen Weg vor, um Softwareentwicklungsorganisationen, die eine kontinuierliche Verbesserung anstreben, bei der Entwicklung hochwertiger Software zu unterstützen. Der Prozessverbesserungspfad wurde durch eine Ähnlichkeitsstudie zwischen Modellen und Standards im Zusammenhang mit der Entwicklung von Softwareanforderungen festgelegt. Diese Studie ermöglicht es uns, Ähnlichkeiten festzustellen und den nützlichsten Aspekt eines oder mehrerer Modelle und Standards zu bestimmen. Die Ähnlichkeiten können Softwareentwicklungsorganisationen dabei unterstützen, einen effizienten Anforderungsentwicklungsprozess zu implementieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-43896-1_17 5fe779da06dd6c5b43d2f1f6bd4e10f6;de;;;3.3.;;;Vergleichende Analyse von Software Development Life Cycle Models (SDLC) Software Engineering umfasst viele Prozesse, von denen das Schreiben von effizienten Codes für die Entwicklung hochwertiger und effektiver Programme einer davon ist. Die Entwicklung qualitativ hochwertiger Software wird durch ein gut artikuliertes Software Development Life Cycle (SDLC)-Modell erreicht. Die Lieferung des Softwareprojekts innerhalb des Zeitplans und des Budgets erfordert eine gründliche Analyse, aus der diese beiden relevanten Fragen beantwortet werden müssen, z. Daher ist die Notwendigkeit eines geeigneten SDLC-Modells für ein Softwareprojekt von hoher Bedeutung. V-Modell ist in Projekten anwendbar, die viel Zeit erfordern und komplex sind. Wenn der Fokus des Projekts mehr auf Qualität als auf schneller Lieferzeit liegt, dann ist V-Modell eine Wahl von SDLC, die in Betracht gezogen werden sollte. Außerdem ist das Wasserfallmodell wünschenswert, wenn die Qualitätskontrolle bei kurzer Projektdauer von Bedeutung ist. Andererseits ist das Spiralmodell wünschenswert, wenn die Erwartungen der Organisation an den Softwareentwicklungsprozess unvorhersehbar sind. Unabhängig von Projektgröße, Lieferzeit und Fachkompetenz spielt die Projektorganisation eine wesentliche Rolle bei der Wahl des SDLC-Modells. Das betrachtete SDLC-Modell muss das Risikoniveau, die Projektdauer und die Kosten, die mit jedem Softwareprojekt verbunden sind, für einen erfolgreichen Abschluss berücksichtigen. Eine vergleichende Analyse der drei untersuchten SDLC-Modelle wurde präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-51965-0_27 d9f80e11ba9361e8e2e36c55f1fb75cd;de;;;1.1.;;;Eine Radikal Konstruktivistische Psychologie der KognitionenNach den oben besprochenen drei gemeinsamen Wurzeln von Psychologie und Radikalem Konstruktivismus sollen solche psychologischen Phänomene untersucht werden, die sich ganz allgemein auf den Menschen als erkenntnisgewinnendes System beziehen. Im folgenden wird versucht, jene Aspekte eines radikal konstruktivistisch-psychologischen Ansatzes herauszuarbeiten, die den “kognitiven Kern” dieses Ansatzes bilden. Die integrative Klammer ist dabei jener Forschungsbereich, der in der Psychologie traditionellerweise unter dem Begriff der Wahrnehmung untersucht wurde. In der Wahrnehmungspsychologie liegt ein Schnittpunkt genuin psychologischer Sachverhalte, die bisher in dieser Arbeit schon unter dem Ganzheits- und Gestaltaspekt, der biologisch und erkenntnistheoretischen bzw. kybernetischen Perspektive betrachtet wurden. Schon KUHN (1962) hat darauf hingewiesen, daß der Wahrnehmung selbst so etwas wie ein Paradigma zugrundeliegt. Er meint im Hinblick auf Resultate der Wahrnehmungspsychologie, daß der Mensch die Welt immer gleichzeitig unter zwei Aspekten sieht: einerseits unter dem Gesichtspunkt, was er gerade sieht, und andererseits auch unter dem Aspekt seiner vorherigen visuell-konzeptionellen Erfahrung (vgl. RICHARDS & V. GLASERSFELD 1987).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-91117-9_16 01bda6ae9e63c347836cf0a2ed054379;de;;;1.1.;;;Staat und PolitikDie nachfolgenden Analysen behandeln Themen der Ideengeschichte im Bereich von Politik. Sie sind jedoch nicht als Disziplingeschichte, nicht als Geschichte oder Vorgeschichte der Politikwissenschaft konzipiert. Ebenso wenig folgen sie dem klassischen Kanon der „wissenssoziologischen“ Ideologiekritik. Sie begnügen sich nicht damit, Ideen auf offensiv oder defensiv gestimmte soziale Schichten, Klassen, Gruppen zu beziehen und sie damit pauschalpsychologisch zu erklären. Erst recht soll eine bloß deskriptive Erzählung des Bedeutungswechsels bestimmter Worte oder Begriffe im Laufe der Geschichte überwunden werden. Weder Fachgeschichte also noch Ideologiekritik, noch scheinbar neutrale Ideengeschichte: welche Möglichkeiten bleiben, wenn man diese bereits gebahnten Wege nicht betreten will?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-11103-0_5 c8f9407476a5aa396a3b853db9fa5f94;de;;;3.3.;;;Fehleranalyse und Trendvorhersage in der Telekommunikation mittels Mustererkennung: Architektur, Fallstudie und Experimente In den letzten Jahren erlebte fast jede Branche, insbesondere Digital, E-Commerce und Telekommunikation, ein exponentielles Datenwachstum. Das Sammeln von Wissen in diesen hochdynamischen Datenbanken und das Auffinden geschlossener Muster zur Analyse moderner Trends stieß in diesem Jahrzehnt auf großes Interesse. Ähnliche Arten von Datenobjekten zu gruppieren oder Regionen zu identifizieren, in denen die Datendichte in einem Datensatz hoch ist und Cluster bilden, ist die Vogelperspektive der Forscher. Data Mining und Business Analytics sind zu einem integralen Bestandteil der Telekommunikationsbranche geworden, um Nutzungsmuster von neuen sowie profilierten Kunden zu extrahieren und sie im Wettbewerbsmarkt zu halten. Die Bereitstellung besserer Dienste ohne Unterbrechung ist ein wesentlicher Aspekt, da dies das Vertrauen der Kunden gewinnt. In diesem Whitepaper haben wir verschiedene Herausforderungen der Branche aufgezeigt und eine einheitliche Architektur für die Telekommunikationsdatenanalyse vorgeschlagen. Es wurden Fallstudien für die Erkennung von Kundennutzungsmustern und die Netzwerkfehleranalyse unter Verwendung von Clustering- und Bi-Clustering-Techniken vorgelegt, um Kunden für Geschäftsvorhersagen zu gruppieren und zu segmentieren sowie fehlerhafte Knoten im Netzwerk zu identifizieren und Netzwerkausfälle vorherzusagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-8578-0_24 71ecfdb089a8cb49107ab20cbdefa5ce;de;;;3.3.;;;Kompakte ASIC-Architekturen für die 512-Bit-Hash-Funktion Whirlpool Für die ISO/IEC 10118-3 Standard-Hashfunktion Whirlpool werden kompakte Hardwarearchitekturen vorgeschlagen. Um die Schaltungsfläche zu reduzieren, ist der 512-Bit-Funktionsblock;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00306-6_3 20bd3be62cf9a2aaeb2a3c69da82568b;de;;;3.3.;;;Verwenden von Structural Holes-Metriken aus Kommunikationsnetzwerken zur Vorhersage von Änderungsabhängigkeiten Das Gesetz von Conway beschreibt, dass Softwaresysteme nach den Kommunikationsstrukturen ihrer Entwickler strukturiert sind. Diese Entwickler, die an einer Funktion arbeiten oder einen Fehler korrigieren, begehen zusammen eine Reihe von Quellcode-Artefakten. Die Analyse dieser Co-Changes ermöglicht es, Änderungsabhängigkeiten zwischen Artefakten zu identifizieren. Beeinflusst durch das Conway-Gesetz nehmen wir an, dass Structural Hole Metrics (SHM) in der Lage sind, starke und schwache Änderungskopplung zu identifizieren. Wir haben SHM verwendet, das aus Kommunikationsnetzwerken berechnet wurde, um gemeinsame Änderungen zwischen Dateien vorherzusagen. Beim Vergleich von SHM mit Prozessmetriken unter Verwendung von sechs bekannten Klassifizierungsalgorithmen, die auf Rails- und Node.js-Projekte angewendet wurden, erreichten wir im besten Fall Rückruf- und Präzisionswerte von fast 80 %. Die Mathews-Korrelationsmetrik wurde verwendet, um zu überprüfen, ob SHM starke und schwache Co-Änderungen identifizieren konnte. Wir haben auch Regeln extrahiert, um mithilfe des Klassifizierungsbaums Einblicke in die Metriken zu erhalten. Nach unserem besten Wissen ist dies die erste Studie, die soziale Aspekte untersucht hat, um Veränderungsabhängigkeiten vorherzusagen, und die erzielten Ergebnisse sind sehr vielversprechend.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10166-8_27 9414eed0fd5995d328143f1e2d30bcce;de;;;3.3.;;;Knowledge Engineering eines intelligenten Vertriebs-Recruiting-Systems mit mehrschichtiger Agentenmethodik In diesem Papier skizzieren wir eine mehrschichtige, verteilte Soft-Computing-Architektur mit mehreren Agenten, die Praktiker und Problemlöser auf vier Ebenen unterstützen soll, nämlich auf der Ebene der verteilten Verarbeitung, der Technologie, der Optimierung und der Problemlösung. Die Architektur wurde bei komplexen Problemen wie Bilderkennung, Web-Mining, Alarmverarbeitung und medizinischer Diagnose eingesetzt. Wir veranschaulichen einige Aspekte der Architektur mit Hilfe der Anwendung e-Sales Recruitment (e-SRS). Eine frühere Version von e-SRS (Expertensystem) ist ebenfalls im kommerziellen Einsatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39592-8_93 4ed2264cbff4b62573234cdb29b6fde5;de;;;3.3.;;;: Ein Werkzeug zur automatischen Komposition von In diesem Beitrag diskutieren wir eine effektive Technik für die automatische Servicezusammenstellung und stellen die prototypische Software vor, die diese implementiert. Insbesondere charakterisieren wir das Verhalten eines Dienstes im Sinne einer endlichen Zustandsmaschine. In diesem Setting diskutieren wir eine auf Erfüllbarkeit basierende Technik in einer Variante der Propositional Dynamic Logic, die das Problem der automatischen Komposition löst. Konkret gegeben;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-31811-8_7 807b0a7894fbe559a76fdad183d92cd7;de;;;3.3.;;;HYFLUR: Wiederherstellung bei Abschaltfehlern in Flash-Speichersystemen mit HYbrid FLUSh Recovery Flash-Speicher hat eine Vielzahl von Vorteilen wie die bessere Leistung im Vergleich zu Festplatten, Stoßfestigkeit, geringe Größe und so weiter. Daher wird der Nutzungsgrad von Flash-Speicher erhöht. Wenn jedoch ein Ausschaltfehler auftritt, können Flash-Speichersysteme Mapping-Informationen verlieren. In diesem Papier schlagen wir daher ein System zur Wiederherstellung nach dem Abschalten vor, das als HYFLUR bezeichnet wird. Wir haben HYFLUR auf das Pagemapping von FTL angewendet und auf einem Plattformboard implementiert und durch mehrere Evaluierungen mit den bestehenden Wiederherstellungsschemata verglichen. Im Vergleich zu bestehenden Recovery-Schemata ist der Overhead von HYFLUR sehr gering.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0557-2_50 0883cff983dab2a19f638fcd75dd48f6;de;;;1.1.;;;Modifizierter Stakeholder-Value-AnsatzNachdem in den vorangegangenen drei Kapiteln verschiedene Verfahren zur Beurteilung der wirtschaftlichen Leistungsfähigkeit dargestellt worden sind, aber letztlich keines dieser Verfahren vollständig befriedigen konnte, soll vor der Formulierung eines neuen, besser geeigneten Verfahrens nun zunächst eine Rekapitulation von ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-99401-1_8 2b03931c24c3ea8598ba01aeae8d2396;de;;;1.1.;;;Simultane produkt- und nachfragerbezogene Marktabgrenzung unter Berücksichtigung des Kaufverhaltens im MobiltelefonmarktDas folgende Kapitel basiert auf den, im zweiten Kapitel dargestellten, theoretischen Fundierungen sowie den im dritten Kapitel erläuterten statistischen Grundlagen. Im Mittelpunkt steht das in Kapitel 2.1 erstellte Ablaufschema einer Marktabgrenzungsstudie, das als Leitfaden für die simultane produkt- und nachfragerbezogene Marktabgrenzung im Markt für Mobiltelefone dient. Nach einer kurzen Erläuterung des Untersuchungsanliegens (Kapitel 4.1) findet die eigentliche Modellentwicklung (Kapitel 4.2) statt. Bevor in Kapitel 4.3 eine mögliche simultane produkt- und nachfragerbezogene Marktabgrenzung an einem Beispiel verdeutlicht wird, gilt es, die Marktabgrenzungsart, die Ausgangsmengen an Nachfragern und Produkten, den betrachteten Markt sowie die Marktabgrenzungsvariable und -methode festzulegen. Aufbauend auf den Ergebnissen der empirischen Untersuchung werden im letzten Unterkapitel Marketing-Implikationen exemplarisch formuliert (Kapitel 4.4).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-07968-2_4 1898507e83fc8bf3145e3436c537ba39;de;;;1.1.;;;Unternehmen und FinanzentscheidungenJeder Coach bringt in sein Coaching ein eigenes Bild von Unternehmen mit. Mein Bild möchte ich hier vorstellen: Es ist subjektiv, es ist dynamisch, und es verändert sich in jedem Coachingprozess ein bisschen. Mir ist wichtig, dass Sie wissen, welche Brille ich aufsetze, wenn ich später über Finanzpsychologie und Finanzcoaching von Unternehmen und den Menschen im Unternehmen spreche.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-53165-5_1 c69097aea73774ba372ee53b5e126e74;de;;;3.3.;;;Drahtlose Kommunikation als Umgestaltungswerkzeug für das Internet der Dinge (IoT) und das Internet der Unterwasserdinge (IoOUT) in Pakistan: Ein technischer und finanzieller Überblick Pakistan ist eine der wachsenden Nationen, insbesondere im Bereich der Informations- und Kommunikationstechnologie (IKT). In den letzten zehn Jahren wurde in allen größeren Städten Pakistans ein starker Anstieg der IKT-Anpassung beobachtet. Dies umfasst unter anderem E-Commerce, Mobiltechnologie, Computerkommunikationsnetze, eingebettete Systeme, Softwareentwicklung usw. Aufgrund der Ressourcenbeschränkungen ist Pakistan kein Hersteller von Technologie, jedoch ein potenzieller Verbraucher von zahlreiche Technologien und deren Produkte. Daher zieht es die meisten Hersteller auf der ganzen Welt an, in das Technologiegeschäft in Pakistan zu investieren. Laut dem Board of Investment (BOI) Pakistan hat das Land in den letzten zehn Jahren mehr als 5,7 Milliarden US-Dollar als ausländische Investitionen allein in den IT- und Telekommunikationssektor erhalten. Darüber hinaus hat es mehr als 140 Millionen Mobilfunkteilnehmer, etwa 45 Millionen 3G/4G-Abonnenten, mehr als 3 Millionen Festnetzteilnehmer und etwa 48 Millionen Breitbandabonnenten [;-;-;-;https://link.springer.com/article/10.1007/s11277-019-06937-3 a58376f2a62ca0f3b3182ea21a1d5b2c;de;;;3.3.;;;MulAV: Mehrstufige und erklärbare Erkennung von Android-Malware mit Data Fusion Mit der Popularisierung von Smartphones hat die Zahl der mobilen Anwendungen stark zugenommen. Allerdings tauchen viele Malware auf und stellen somit eine ernsthafte Bedrohung für die Mobiltelefone der Benutzer dar. Die Erkennung von Malware ist zu einem öffentlichen Problem geworden, das dringend einer Lösung bedarf. In diesem Papier schlagen wir MulAV vor, eine mehrstufige und erklärbare Nachweismethode mit Datenfusion. Unsere Methode erhält Informationen aus mehreren Ebenen (dem APP-Quellcode, Netzwerkverkehr und Geodaten) und kombiniert sie mit der Methode des maschinellen Lernens, um ein Modell zu trainieren, das mobile Malware mit hoher Genauigkeit und wenigen Fehlalarmen identifizieren kann. Das experimentelle Ergebnis zeigt, dass MulAV andere Antiviren-Scanner und -Methoden übertrifft und eine Erkennungsrate von 97,8% mit 0,4% Fehlalarmen erreicht. Darüber hinaus zeigt MulAV zum Vorteil der Benutzer die Erklärung zu jeder Erkennung an und zeigt so relevante Eigenschaften der erkannten Malware auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-05063-4_14 4cbaa957f4873bbb219a5bd4d356f0dd;de;;;3.3.;;;Dynamisch rekonfigurierbares Funk-über-Glasfaser-Netzwerk mit mittlerem Zugangskontrollprotokoll, um Zugreisenden den Netzwerkzugang zu ermöglichen Ein innovatives dynamisch rekonfigurierbares Radio-over-Fiber (RoF)-Netzwerk, das mit einem intelligenten Medium Access Control (MAC)-Protokoll ausgestattet ist, wird vorgeschlagen, um den Zugpassagieren in mobilen Hochgeschwindigkeitsanwendungen Breitbandzugang zu bieten. Die vorgeschlagene RoF-Netzwerkarchitektur basiert auf einer rekonfigurierbaren Kontrollstation und einer Remote Access Unit (RAU), die mit einem festen Filter und einem abstimmbaren Filter ausgestattet ist. Das vorgeschlagene hybride MAC-Protokoll mit Frequenzmultiplex/Zeitmultiplex (FDM/TDMA) realisiert eine Fehlererkennung/-wiederherstellung und eine dynamische Wellenlängenzuweisung zu Fernzugriffseinheiten. Das Simulationsergebnis zeigt, dass die Kontrollstation mit dem vorgeschlagenen MAC-Protokoll Fehler erkennen und wiederherstellen kann und dass die dynamische Wellenlängenzuweisung die Nutzung der Wellenlängenressourcen erhöhen kann, um die Netzwerkleistung aufrechtzuerhalten.;-;-;-;https://link.springer.com/article/10.1007/s11432-012-4667-7 01747aaa56ff66c7fded16d29729b53a;de;;;3.3.;;;Design eines ausnutzbaren automatischen Verifikationssystems für sichere Open-Source-Software Da immer mehr Menschen IT-Produkte verwenden, ist der Anwendungsumfang von Software zusammen mit der Nachfrage danach gestiegen. Neben kommerzialisierter Software wächst auch der Markt für Open-Source-Software rasant. Aber Open-Source-Software wird von denen entwickelt, die kein Expertenwissen in Sachen Sicherheit haben. Dadurch entstehen viele Sicherheitslücken, die für Angriffe ausgenutzt werden. Daher haben wir in diesem Papier den Entwurf eines ausnutzbaren automatischen Verifizierungssystems für sichere Open-Source-Software vorgeschlagen, um diese Probleme anzugehen. Es wird erwartet, dass durch die Verwendung dieses Systems die Zuverlässigkeit der Open-Source-Software, der Entwickler der Open-Source-Software und der verwendenden Unternehmen verbessert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0281-6_40 b231059b2d52977f28ffd3ad36d0e108;de;;;3.3.;;;Unterschiedliche Quellen eines digitalen Bildes einer Rinderblastozyste erzeugen nicht dieselbe Klassifizierung durch eine zuvor trainierte Software, die ein künstliches neuronales Netzwerk verwendet Using Wir entwickeln eine grafische und intuitive Online-Schnittstelle, die mit einem Server verbunden ist, um den Zugang zu Fachleuten weltweit zu erleichtern, die Probleme mit der Klassifizierung von bovinen Blastozysten haben. Die Schnittstelle Blasto3Q (3Q bezieht sich auf die drei Qualitäten des Blastozysten-Gradings) enthält eine Beschreibung von 24 Variablen, die aus dem Bild der Blastozyste extrahiert und von drei künstlichen neuronalen Netzen (ANNs) analysiert werden, die das gleiche geladene Bild klassifizieren. Derselbe Embryo (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-32965-5_8 0b43a291018f9c7fe8e8a406c88f0e8a;de;;;3.3.;;;Analyse von Risikofaktoren, die die Projektkostenüberschreitung beeinflussen Um eine Kostenüberschreitung von Softwareprojekten zu verhindern, ist es effektiv, das Projekt mit einem hohen Kostenüberschreitungsrisiko in der frühen Projektphase vorherzusagen. In diesem Papier klären wir die Risikofaktoren, die die Kostenüberschreitung beeinflussen. Die Risikofaktoren werden durch Fragen wie „Sind die Projektziele des Kunden klar?“ gekennzeichnet. Die Risikofaktoren können als unabhängige Variablen des Kostenüberschreitungsvorhersagemodells verwendet werden. Für die Analyse haben wir die Daten von 290 Projekten verwendet, die in einem Softwareentwicklungsunternehmen gesammelt wurden. Der Datensatz wurde nach Projektstartzeit und Projektgröße stratifiziert, um deren Einfluss zu eliminieren, und Zusammenhänge zwischen Risikofaktoren und Kostenüberschreitung wurden mit dem Korrelationsverhältnis analysiert. Darüber hinaus haben wir Risikofaktoren, die starke und stabile Beziehungen zu Kostenüberschreitungen aufweisen, fokussiert und anhand des auf der Sharpe-Ratio basierenden Index analysiert. Als Ergebnis haben wir einige Risikofaktoren identifiziert, die relativ starke und stabile Beziehungen zu Kostenüberschreitungen aufweisen. Nach der Analyse haben wir durch kollaboratives Filtern experimentell Kostenüberschreitungen vorhergesagt und die Risikofaktoren als unabhängige Variablen verwendet. Das Ergebnis deutet darauf hin, dass Kostenüberschreitungen durch die Risikofaktoren vorhergesagt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32172-6_14 51c475f68104e16d53b636f902aba887;de;;;3.3.;;;Ein vom künstlichen Immunsystem inspirierter multiobjektiver evolutionärer Algorithmus mit Anwendung auf die Erkennung von Angriffen auf verteilte Computernetzwerke Moderne signaturbasierte Intrusion-Detection-Systeme sind reaktiver Natur und speicherbegrenzt. Ihr Betrieb hängt davon ab, dass eine Instanz eines Einbruchs oder Virus identifiziert und in eine Signatur codiert wird, die in der Anomaliedatenbank gespeichert wird, wodurch Computersysteme während dieser Zeit anfällig werden. Außerdem erfordert die maximale Größe einer auf dem Internetprotokoll basierenden Nachricht eine riesige Datenbank, um mögliche Signaturkombinationen zu verwalten. Um diesen Reaktionszyklus innerhalb der Speicherbeschränkungen zu straffen, stellt dieser Artikel ein innovatives künstliches Immunsystem (AIS) vor, das in einen multiobjektiven evolutionären Algorithmus (MOEA) integriert ist;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73922-7_36 4a6d0f543060f75492a4cb052fb03f88;de;;;3.3.;;;SIEM basierend auf Big-Data-Analyse Da das Problem der Informationssicherheit immer ernster wird und viele Daten über die Sicherheit schnell produziert werden, sind die Systeme für das Sicherheitsinformations- und Ereignismanagement (SIEM) mit einer Vielfalt von Big Data-Quellen konfrontiert, so dass es notwendig ist, Big Data-Analysen zu verwenden. Dieses Papier stellt die Architektur und das Prinzip von SIEM-Systemen vor, die die populäre Big-Data-Technologie verwenden. Die Informationssicherheitsdaten werden über Kafka von flume an Flink oder Spark Computing Framework übertragen und über Elastic Research abgerufen. Der K-Means-Algorithmus wird bei der Analyse des anormalen Zustands mit Spark mllib verwendet. Der Bericht über Experimente und Ergebnisse von SIEM zeigt, dass es effiziente Systeme ist, Big Data zu verarbeiten, um Sicherheitsanomalien zu erkennen. Am Ende wird das vollständige Papier zusammengefasst und die zukünftige Arbeit sollte die Verwendung von Stream Computing im SIEM sein, um Informationssicherheitsprobleme in großen Netzwerken mit den kontinuierlich produzierten Informationssicherheitsdaten zu lösen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-68505-2_15 c1c4b0b5b6b20d1d16e9b3d301b7bad0;de;;;3.3.;;;Entwicklung selbstorganisierender Systeme durch richtlinienbasierte selbstorganisierende Multi-Agenten-Systeme Das Entwerfen geeigneter Interaktionsverhalten zwischen Agenten, um die Anforderungen auf Systemebene zu erfüllen, ist ein Schlüsselproblem, wenn Designer selbstorganisierende Systeme entwickeln. Ein solches System wird typischerweise auf iterative Weise entworfen. Dieses Verfahren ist jedoch unzureichend, wenn die Systemanforderungen zur Entwurfszeit unvorhersehbar sind. In diesem Papier schlagen wir einen politikbasierten Ansatz vor, um dieses Problem zu lösen. In unserem Ansatz ist Policy die Abstraktion auf hoher Ebene, um selbstorganisierende Mechanismen zu spezifizieren, sowie der Mediator, um das lokale Interaktionsverhalten von Agenten anzupassen, was es Entwicklern ermöglicht, selbstorganisierende Implementierungsmechanismen zu kapseln und sich an die Veränderungen der Selbstorganisation anzupassen Bedarf. Wir untersuchen auch den entsprechenden Implementierungsansatz auf Basis der Agententechnologie, einschließlich des Richtlinienmanagements und der Implementierung, der entsprechenden Agentenarchitektur. Basierend auf diesen Implementierungstechnologien wird eine laufende Umgebung bereitgestellt, um die Entwicklung eines solchen Systems zu unterstützen. Schließlich wird ein Fall von der Laufumgebung untersucht, um die Wirksamkeit unseres Ansatzes zu veranschaulichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35236-2_50 6575165c11177f2ce13814dd51141663;de;;;3.3.;;;Bausteine ​​mit programmierbarer Gewichtung für analoge VLSI-Neuralnetzwerkprozessoren Obwohl die neuronalen Netzparadigmen das intrinsische Potenzial für parallele Operationen haben, kann ein herkömmlicher Computer es aufgrund der seriellen Hardwarekonfiguration nicht vollständig ausschöpfen. Durch den Ansatz des analogen Schaltungsdesigns kann eine große Anzahl paralleler Funktionseinheiten auf einer kleinen Siliziumfläche realisiert werden. Außerdem können entsprechende Genauigkeitsanforderungen für den neuronalen Betrieb erfüllt werden. Es wurden Komponenten für einen universellen neuronalen Chip entworfen und hergestellt. Der dynamisch angepasste Gewichtswertspeicher bietet programmierbare Funktionen. Mögliche rekonfigurierbare Schemata für einen universellen neuronalen Chip werden ebenfalls vorgestellt. Der Test des neuronalen Chip-Prototyps wurde erfolgreich durchgeführt und ein erwartetes Ergebnis wurde erzielt.;-;-;-;https://link.springer.com/article/10.1007/BF00194906 be6743987ef0c27df21ef2ce38dadd88;de;;;3.3.;;;Testprozessmodelle: Systematische Literaturübersicht Die Qualität von Softwareprodukten wird stark von der Qualität des Prozesses beeinflusst, der sie erzeugt hat, insbesondere der Testprozess trägt zur Produktqualität bei und stellt einen erheblichen Aufwand in Softwareentwicklungsprojekten dar. In diesem Zusammenhang soll in dieser Studie herausgefunden werden, welche Testprozessmodelle von 1990 bis heute in der Softwareindustrie definiert, angepasst oder erweitert wurden. Zu diesem Zweck wurde eine systematische Literaturrecherche nach einschlägigen Leitlinien durchgeführt. Diese Studie hat 23 Testprozessmodelle identifiziert, von denen viele an TMMi und TPI angepasst oder erweitert wurden, die unterschiedliche Architekturen und die neue ISO/IEC 29119 mit einem Architekturansatz haben, der an andere ISO/IEC-Softwareprozessmodelle angepasst ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13036-1_8 6a2ec91b865e94425a9087a66999404f;de;;;3.3.;;;Entwicklung eines intelligenten Aufwandsschätzungsmodells basierend auf Fuzzy-Logik unter Verwendung von Bayes-Netzwerken Ein Genauigkeitsgewinn bei der Softwareschätzung wird von Forschern ständig angestrebt. Gleichzeitig werden neue Techniken und Methoden eingesetzt, um die Fähigkeit zur Intelligenz und Vorhersage in Schätzmodellen zu erhalten. Ziel der Schätzforschung ist heute nicht nur das Erreichen von Genauigkeit, sondern auch die Verschmelzung verschiedener Technologien und die Einführung neuer Faktoren. In diesem Papier raten wir zur Verbesserung einiger bestehender Arbeiten durch Einführung von Mechanismen zur Erhöhung der Genauigkeit. Der Artikel konzentriert sich auf Verfahren zum Abstimmen der Fuzziness-Funktion und des Fuzziness-Werts. Dieses Dokument schlägt eine Forschungsarbeit zur Entwicklung eines intelligenten Bayesschen Netzwerks vor, das unabhängig verwendet werden kann, um den geschätzten Aufwand für die Softwareentwicklung, Unsicherheit, Unschärfe und Aufwandsschätzung zu berechnen. Der Vergleich des relativen Fehlers und des relativen Fehlerfehlers der Größe hilft bei der Auswahl von Parametern der Fuzzy-Funktion, jedoch kann der Prozess n-mal wiederholt werden, um eine geeignete Genauigkeit zu erzielen. Wir präsentieren auch ein Beispiel der Fuzzy-Set-Entwicklung für ISBSG-Datensätze, um die Funktionsweise des vorgeschlagenen Systems zu erarbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27207-3_9 f613f55e07f0a57592a88a2a223cccb0;de;;;1.1.;;;Implikationen der IFRS-Einführung auf die Informationsbasis und Prognosequalität von Finanzanalysten: State of the Art der empirischen KapitalmarktforschungIn jüngster Vergangenheit wurden die IFRS in mehr als 120 Ländern als verbindliche oder freiwillig anwendbare Rechnungslegungsnormen eingeführt. Mit ihrer Kapitalmarkorientierung zielen diese auf eine erhöhte Transparenz, Vergleichbarkeit und Qualität internationaler Finanzberichte ab, um den Anlegerschutz und die Markteffizienz zu verbessern. Der korrespondiere Einführungsprozess wurde bzw. wird von einer Vielzahl von Forschungsarbeiten begleitet und mit diversen ex-ante Analysen kritisch hinterfragt. Innerhalb der empirischen Rechnungslegungsforschung werden im Speziellen die Auswirkungen der IFRS-Einführung auf Finanzanalysten untersucht, da diese fachkundige Nutzer von Rechnungslegungsinformationen sind und ihre Prognosen und Verhaltensempfehlungen zwecks Informationsintermediation öffentlich beobachtbar sind. Der vorliegende Beitrag thematisiert diesen spezifischen Forschungsstrang, indem er zunächst den Prozess der Informationsverarbeitung und -weitergabe durch Finanzanalysten theoretisch einordnet und deren konzeptionelle Bedeutung in der IFRS-Rechnungslegung herausarbeitet. Anschließend wird ein systematischer Überblick über ausgewählte Studien zu den Implikationen der freiwilligen oder verpflichtenden IFRS Anwendung auf den Informationsstand und die Prognosequalität von Finanzanalysten gegeben. Die betrachteten empirischen Arbeiten deuten darauf hin, dass die Einführung der IFRS den Informationsstand und die Schätzpräzision von Finanzanalysten verbessert hat. Aufgrund diverser Limitationen, die bei der Systematisierung der Studien sukzessiv dargestellt werden, kann hier lediglich eine Annährung der IFRS an ihre Ziele schlussgefolgert werden. Demnach besteht ein Bedarf an weiteren wissenschaftlichen Beiträgen, sodass abschließend Anregungen für künftige Forschungsarbeiten gegeben werden.;-;-;-;https://link.springer.com/article/10.1007/s11301-015-0115-2 650a6bed18a6391561af4d6f319ab545;de;;;1.1.;;;Eine empirische Untersuchung zur BruchrechnungIn einer Untersuchung zur Bruchrechnung wurden in klinischen Interviews 24 Hauptschüler des 7. Schuljahres zu Aufgaben aus dem Bereich „Addition von Bruchzahlen“ befragt. Außer den eigenen Voruntersuchungen gaben die Ergebnisse einiger anderer Projekte Anregungen zu diesen Experimenten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-14035-1_2 f49209bfa14c52e549cfd7dc70d55fe6;de;;;1.1.;;;Originäre Motivationstheorien: Motivation als trait- Komponente des LernensInsbesondere das Paradigma der Leistungsmotivationstheorie hat eine Vielzahl von Konzepten hervorgebracht, die zum Teil originär, zum Teil aus der kritischen Auseinandersetzung mit vorausgegangenen Forschungsansätzen entstanden sind. Im Rahmen dieser Arbeit werden Phänomene der schulischen Lernmotivation näher betrachtet und ihr Geltungsbereich vor dem Hintergrund aktueller Lehr-Lern-Forschung und didaktisch-methodischer Gestaltungsmöglichkeiten abgesteckt. Die psychologische Forschung wird dabei unter dem Blickwinkel analysiert, inwieweit sie einen Beitrag zur Beschreibung und Erklärung der motivationalen Bedingungen des Lernens leistet. Dabei wird zwischen motivationalen ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-9304-1_2 ca2dd23ea22c4e4751b443993fae146b;de;;;1.1.;;;Darstellung eines kritischen Verständnisses politischer Bildung„Politische Bildung“ ist eine Sammelbezeichnung für alle geplanten Maßnahmen von gesellschaftlichen Institutionen, Jugendliche und Erwachsene mit den zur Akzeptanz der politisch-gesellschaftlichen Ordnung und mit den zur Teilnahme am politischen Leben notwendigen Voraussetzungen auszustatten. (Vgl. Massing 1999: 185 f.) Politisches Lernen meint allgemein soziale Prozesse, in denen Individuen oder Gruppen aktiv ihr Wissen, ihre Einstellungen und ihre Verhaltensmöglichkeiten in Bezug auf öffentliche Angelegenheiten durch wiederholte Erfahrungen verändern. (Vgl. von Olberg 1999: 203) Politisches Lernen bezeichnet „Lernprozesse, die Politisches zum Gegenstand haben und den Menschen als politisches Wesen (zoon politicon) konstituieren“ (Weißeno 2007: 12).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-15296-3_3 b864c4d8041479dc24dcd3a1187f7040;de;;;3.3.;;;Neue Technologien zur Modellierung der Luftqualität für Hochleistungs-Computing- und Kommunikationsumgebungen Ein Eulersches photochemisches Luftqualitätsmodell (AQM) simuliert atmosphärische Prozesse wie Advektion und Diffusion, Schadstoffemissionen und chemische Reaktionen unter Verwendung eines Rastersystems, das in einem festen Bezugsrahmen, normalerweise der Erdoberfläche, definiert ist. Da der Modellierungsrahmen geeignet ist, viele atmosphärische Prozesse einzubeziehen, die sich auf die Luftqualität auswirken, wurden Eulersche Modelle häufig verwendet, um die Auswirkungen von Emissionskontrollstrategien auf die Luftqualität zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5841-5_52 894f688ad286f8438f75ac0596cbc661;de;;;3.3.;;;Grundbegriffe zu Systemen von Systemen Ein System of System (SoS) entsteht aus der Integration bestehender Systeme (Legacy-Systeme), die normalerweise von verschiedenen Organisationen betrieben werden, und neuer Systeme, die entwickelt wurden, um diese Integration zu nutzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-47590-5_1 573750ee994c1a8e6a8f6d3567f6b26d;de;;;3.3.;;;Ein Rückkopplungsmechanismus basierend auf zufällig unterdrücktem Timer für das ForCES-Protokoll Da die Unzulänglichkeiten geschlossener Netze deutlich werden, werden die Anforderungen an die Offenheit von Netzen der nächsten Generation immer intensiver. Basierend auf der Tatsache, dass zuverlässiges Multicast des ForCES-Protokolls eine bedeutende Rolle bei der Verbesserung der Leistung von ForCES-Router spielt, untersucht dieses Papier die Überlastungssteuerung innerhalb des zuverlässigen Multicast-Prozesses und analysiert Skalierbarkeitsprobleme von zuverlässigem Multicast basierend auf dem ForCES-Protokoll. Außerdem schlägt dieses Papier einen Rückkopplungsmechanismus vor, der auf einem zufällig unterdrückten Zeitgeber basiert, der das Ack-Implosionsproblem effektiv vermeidet, indem ein mathematisches Modell der randomisierten Prozedur des Multicast-Rückkopplungsprozesses analysiert wird. Nach den Ergebnissen des Tests ermöglicht dieser Mechanismus zuverlässiges Multicast, um sich besser an die Instabilität der Netzwerkumgebung anzupassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46578-3_13 e1b2949a60b392e895e13a5c159007e8;de;;;3.3.;;;Datenzugriffstyp-bewusste Ersetzungsrichtlinie für die Cache-Clustering-Organisation von Chip-Multiprozessoren Chip-Multiprozessoren (CMPs) werden zum Trend der Mainstream-Computing-Plattformen. Der Entwurf einer effizienten Speicherhierarchie auf dem Chip ist eine der Hauptherausforderungen in der Computerarchitektur. Tiled Architecture und Non-Uniform Cache Architecture (NUCA) werden in modernen CMPs häufig verwendet. Frühere Bemühungen zur Cache-Ersetzungsrichtlinie gehen normalerweise von einem einheitlichen Last-Level-Cache oder der Ausführung mehrfach programmierter Workloads aus. Allerdings konzentrieren sich nur wenige Untersuchungen auf die Ersetzungspolitik des Cache-Clustering-Schemas, das parallele Workloads ausführt. Das Cache-Clustering-Schema kann die Systemleistung bei paralleler Leistung verbessern, was ein Kompromiss zwischen einer gemeinsam genutzten Cache-Organisation und einer privaten Cache-Organisation ist, die die Cache-Replikation übernimmt. Beim Cache-Clustering-Schema können Cache-Blöcke im Cache der letzten Ebene in acht Typen unterteilt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45293-2_19 5a67ef6279b716e0ef3f85b7991e93f3;de;;;3.3.;;;Über ein einheitliches Konzept für eine neue Generation von Leichtbaurobotern Das Papier skizziert ein Konzept für den Entwurf einer neuen Generation von Leichtbaurobotern unter Verwendung eines integrierten und einheitlichen Ansatzes für alle relevanten Elemente. Vorgestellt wird ein leichter multisensorischer Greifer als kritische Endmasse eines jeden Roboters, der verschiedene redundante Kraft-Momenten-Sensoren, taktile Arrays, 9 Laser-Entfernungsmesser inklusive Scanner und eine winzige Stereokamera enthält. Es wurde ein neuer elektrischer Greiferantrieb entwickelt, dessen Verhältnis Gewicht zu Greifkraft auf einen Verbesserungsfaktor von 5–10 gegenüber bisher bekannten Systemen abzielte. Die gleiche Verbesserungsstufe ist das Konstruktionsziel für ein neues modulares System von Leichtbauarmen, bei dem die Gelenkantriebe in ultraleichte Kohlefaser-Gitterstrukturen integriert sind. Diese Gelenkantriebe – ebenso wie die Greiferantriebe – basieren auf einem kompletten Redesign der Steuerung handelsüblicher Schrittmotoren zu elektronisch kommutierten schnellen und hochdynamischen Gleichstrommotoren und einem neuartigen leichten, kompakten Getriebe mit Untersetzungsraten von 600 und leichter erreichbar.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0042526 462fcdc6e1514503dc22be01fdcd6fd0;de;;;3.3.;;;Skelettoberflächenerzeugung aus volumetrischen Modellen dünner Plattenstrukturen für industrielle Anwendungen Die Computertomographie (CT) ist eine leistungsstarke zerstörungsfreie Messtechnik zur Erstellung von Röntgenquerschnittsbildern von Objekten, aus denen dreidimensionale Volumenmodelle erstellt werden können. In dieser Studie konzentrieren wir uns auf industrielle Anwendungen der Röntgen-CT bei der Analyse dünner Plattenstrukturen und schlagen insbesondere eine Methode vor, um ausreichend genaue Skelettnetze aus einem volumetrischen Modell einer dünnen Plattenstruktur zu generieren. Wir verwenden einen geodätischen Skelettierungsalgorithmus, um Skelettzellen zu extrahieren, die dann konturiert werden können, um eine Skelettoberfläche zu erzeugen. Da die dünne Plattenstruktur Übergänge aufweist, ist die Skelettoberfläche um diese Bereiche nicht vielfältig. Aus diesem Grund wird der Marching Cubes-Algorithmus erweitert, um die Handhabung mehrerer Beschriftungen (Zeichen) zu ermöglichen, um nicht-mannigfaltige Netze zu generieren. Das erzeugte Netz wird durch interpolierendes Mapping so optimiert, dass es durch die Mitte der Platte verläuft. Einige experimentelle Ergebnisse für Industriemuster werden anhand unseres implementierten Prototypsystems gezeigt und es ist bewiesen, dass die Genauigkeit des generierten Netzes für industrielle Anwendungen ausreichend ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73843-5_27 14a77650b146ca3dfc3616ff92443203;de;;;3.3.;;;Eine agentenbasierte soziale Simulationsplattform mit 3D-Darstellung für die berufliche Integration von Menschen mit Behinderungen In diesem Beitrag präsentieren wir das Design und die Implementierung einer neuartigen agentenbasierten Plattform mit 3D-Darstellungen für die Arbeitsintegration. Um die vorgeschlagene Plattform zu bewerten und zu validieren, wird eine Fallstudie in einer realen Arbeitsplatzumgebung modelliert, um architektonische Barrieren zu identifizieren, die die Zugänglichkeit und die Prozesse der Arbeitsplatzumgebung behindern, um die Zugänglichkeit der Umgebung zu verbessern Menschen mit Behinderung. Dabei ist es durch die Einbindung neuartiger Simulationstechniken und -mechanismen möglich, Verbesserungspotenziale zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19629-9_7 ab37cc884b6337e4e5b290e7d7ce6a9c;de;;;3.3.;;;VLSI-Algorithmen und -Architekturen für die komplexe Haushaltstransformation mit Anwendungen zur Array-Verarbeitung Die Householder-Transformation wird aufgrund ihrer überlegenen Recheneffizienz und robusten numerischen Stabilität als wünschenswert unter verschiedenen unitären Transformationen angesehen. Insbesondere übertrifft die Householder-Transformation die Givens-Rotation und die modifizierten Gram-Schmidt-Methoden in der numerischen Stabilität bei Implementierungen mit endlicher Genauigkeit und erfordert weniger arithmetische Operationen. Folglich ist die QR-Zerlegung basierend auf der Householder-Transformation vielversprechend für die VLSI-Implementierung und die moderne Signalverarbeitung mit hohem Durchsatz in Echtzeit. In diesem Beitrag wird eine rekursive komplexe Householder-Transformation (CHT) mit einem schnellen Initialisierungsalgorithmus vorgeschlagen und die zugehörige parallele/pipelined-Architektur betrachtet. Anschließend wird ein CHT-basierter rekursiver Algorithmus der kleinsten Quadrate mit einer schnellen Initialisierung vorgestellt. Die zugehörige systolische Array-Verarbeitungsarchitektur wird ebenfalls berücksichtigt.;-;-;-;https://link.springer.com/article/10.1007/BF00930618 2cd893d39a15752ab1b60a823fc444f4;de;;;3.3.;;;Frühwarninfrastruktur für Erdbeben durch mobile Technologien, Web und Cloud Computing In den letzten Jahren hat die Nutzung von Mobil- und Webtechnologien auf der ganzen Welt einen zunehmenden Einfluss auf die Gesellschaft und den Lebensstil der Menschen, einschließlich verschiedener Orte und sozialer Schichten, erreicht. Ecuador ist ein südamerikanisches Land mit intensiven seismischen und vulkanischen Aktivitäten, in dem die aktuelle Politik und die Notfallpläne nicht optimal sind, was es erforderlich macht, über eine effizientere Lösung nachzudenken, um diese Risiken und Folgen zu mindern. Angesichts der wachsenden Zahl von Benutzern mobiler Geräte, der Reichweite von Mobilfunknetzen und der Kombination des Risikos einer Situation, in der sich viele Länder wie Ecuador gleichen. Dieses Papier legt den Entwurf und die Entwicklung einer Frühwarninfrastruktur durch den Einsatz neuer Technologien wie Cloud Computing, Geolocation, Pervasive Computing und Webdienste fest. Die implementierte Architektur und der bereitgestellte Webservice haben das Ziel, die Evakuierungslogistik und die anschließende Rettungsarbeit nach Eintritt einer Naturkatastrophe zu verbessern. Die erhaltenen Ergebnisse zeigen, dass der Einsatz des Systems die Evakuierung durch das Erreichen eines sicheren Ortes in hohem Maße verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00940-3_18 79e2119094dc06785d6d96d18c87933d;de;;;3.3.;;;Eine flächeneffiziente integrierte Redundanzanalyse für eingebetteten Speicher mit wählbarer 1-D-Redundanz In diesem Beitrag wird ein neuartiger redundanter Mechanismus für eingebettete Dual-Port-SRAMs vorgestellt. Diese Arbeit bezieht sich auf einen 1-D (eindimensionalen) bitorientierten Redundanzalgorithmus zur Erhöhung der Zuverlässigkeit und Ausbeute während der Herstellung von integrierten Speicherschaltungschips, insbesondere auf die effiziente Nutzung des begrenzten Platzes, der für sicherungsaktivierte redundante Schaltungen auf solchen Chips verfügbar ist, und insbesondere, um mehrere fehlerhafte Speicherstellen unter Verwendung eines unabhängigen Redundanzelements pro Untermatrix zu ersetzen und die Anzahl der Defekte anzeigenden Sicherungen zu reduzieren. Auf diese Weise verdoppeln wir den Ertrag und die Reparaturrate mit 0,5% Flächenstrafe.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-47952-1_58 1bc011aef10e3e00335a872f95659136;de;;;3.3.;;;Verbesserung des Softwareprojektmanagements durch Anwendung agiler Methoden: Eine Fallstudie In der Branche ist die Nachfrage nach kundenspezifischer Software ständig und dringend, diese Verantwortung liegt direkt beim institutionellen Softwareanbieter, ob intern oder extern. Es ist üblich zu beobachten, dass Entwicklungsteams Probleme bei der Arbeitsverwaltung und Verzögerungen bei der Projektlieferung und Softwarelieferung mit Qualitätsproblemen während des Softwareentwicklungsprozesses haben. Ziel dieser Studie ist es daher, eine Methodik zur Verbesserung des Softwareentwicklungsmanagements zu implementieren und die Forschungsfrage zu beantworten: Welche Erfolgsfaktoren wurden bei der Implementierung der Methodik gefunden? Die Forschungsstruktur wurde wie folgt aufgebaut: 1) Vergleichende Analyse zwischen agilen Entwicklungsmethoden, die in der Community am häufigsten verwendet werden. 2) Durchführung einer Fallstudie an der Yachay Tech University 3) Bestimmen Sie die kritischen Erfolgsfaktoren bei der Einführung der Methodik. 4) Statistische Analyse der Ergebnisse. Die Ergebnisse der kritischen Erfolgsfaktoren der Fallstudie waren eine Verbesserung der menschlichen Faktoren um 60,50 %, der organisatorischen Faktoren um 50,27 % und der sonstigen Faktoren um 32,32 %.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71503-8_52 0be380c58aa77a59b930b67bbdba923e;de;;;3.3.;;;Crowd-Simulation Dieses Kapitel stellt einige aktuelle Technologien der Crowd-Simulation vor und ist in zwei Teile gegliedert. Zuerst präsentieren und diskutieren wir die wichtigsten existierenden State-of-the-Art-Technologien, die mit dem expliziten Ziel entwickelt wurden, Menschenmengen zu simulieren. Dann stellen wir CrowdSim im Detail vor, eine neue Crowd-Simulationssoftware, die von den Autoren entwickelt wurde. Dies ist keine kommerzielle Software, wurde jedoch in vielen realen Fällen verwendet, sodass wir einige durchgeführte Experimente und unsere Erfahrungen damit in Kap.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-65202-3_3 46d47e4232a4cc579836bfbf1b593fda;de;;;3.3.;;;Cloud-basierte unterstützende Technologien und ein intelligentes Wohnumgebungssystem Dieses Papier beschreibt eine Cloud-basierte Architektur für die Verarbeitung von Daten und die Bereitstellung von Diensten für intelligente Wohnumgebungen und die Unterstützung von unterstützenden Technologien. Basierend auf skalierbaren Cloud-Technologien und optimierten Softwarearchitekturen bietet es eine Infrastruktur für ein erweiterbares Set verschiedener Funktionalitäten. Das Papier beschreibt das Kernverarbeitungsmodul zusammen mit mehreren zugehörigen Proof-of-Concept-Diensten. Es werden mehrere Anwendungsszenarien vorgestellt, darunter ein Sprachnavigationstool für Blinde in einer mobilen App, ein Sprachvideosequenzierungstool für Gehörlose, ein Bildverarbeitungstool für ein Smart Home usw. Es werden Details zu den verwendeten Softwareentwicklungstools und deren Integration in eine funktionale Multiplattform-Anwendung. Leitfäden für zukünftige Arbeiten und Erweiterungen des Systems werden besprochen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16292-8_26 07c71118c4dc24a296ed9b287fc4b8b7;de;;;3.3.;;;Building Platform as a Service für High Performance Computing über ein opportunistisches Cloud Computing Platform as a Service Provider stellen Entwicklungs- und Laufzeitumgebungen für Anwendungen bereit, die in der Cloud gehostet werden. In diesem Whitepaper stellen wir ein Platform-as-a-Service-Modell vor, das auf einer desktopbasierten Cloud-Infrastruktur aufgebaut ist, um Hochleistungs-Computing-Anwendungen zu entwickeln, die ungenutzte Ressourcen opportunistisch nutzen. Wir heben die Schlüsselkonzepte und -funktionen der Plattform sowie ihre Innovation auf einem opportunistischen Computing hervor und präsentieren die Ergebnisse mehrerer Tests, die die Leistung des vorgeschlagenen Modells zeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03859-9_33 dc915b97a3a16d88bad3c6a50965d7b7;de;;;3.3.;;;Anwendung der CORBA-Technologie für die Teleoperation von Wheeler In diesem Beitrag stellen wir die Entwicklung von Wheeeler vor - dem hypermobilen Roboter. Hypermobile Roboter gehören zur Gruppe der hochgelenkigen Roboter, die manchmal als „schlangenartige“ oder schlangenförmige Roboter bezeichnet werden. Wheeler hat 7 von Rädern angetriebene Segmente, die durch Gelenke mit 2 Freiheitsgraden verbunden sind (Abb. 28.1). Von dieser Maschine wird erwartet, dass sie in unwegsamem Gelände arbeitet, Treppen und Gräben überquert, Hindernissen ausweicht oder über sie klettert und auch enge Räume durchquert. Unser Projekt befindet sich in der Simulationsphase und derzeit konzentrieren wir uns auf die Kommunikationsthemen. Obwohl Modellierung und Tests jetzt im Simulator (Webots 5 PRO) durchgeführt werden, wird dieselbe Steuerungssoftware bald mit einem echten Roboter funktionieren. In diesem Artikel stellen wir kurz die aktuelle Version des Modells vor, stellen die sensorische Suite und die Konfiguration der lokalen Controller vor. Im Hauptabschnitt stellen wir die Implementierung der CORBA-Technologie in der Client-Server-Kommunikation vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84628-974-3_28 642144a7d35937398c542dd51924da4a;de;;;3.3.;;;Speicher vs. Speichersoftware und -hardware: Die Landschaft im Wandel Mit aufkommenden Workflows, die sowohl Modellierungs- als auch Simulations-Scale-up-Workloads sowie umfangreiche Datenanalysen und Scale-out-Workloads für maschinelles Lernen umfassen, sind neue Maschinenarchitekturen, die beide gleichzeitig unterstützen können, unerlässlich. Neue Speichertechnologien, wie die von den neuesten Intel-Chips unterstützten persistenten Speichermodule, bieten ein persistentes Speichergerät, auf das über den Speicherbus zugegriffen werden kann. Diese neu verfügbare Technologienische bietet die Möglichkeit, eine Speicher-/Speicherschicht vielseitig einzusetzen. Darüber hinaus ist die Trennung zwischen Arbeitsspeicher und Speicher weniger klar, da herkömmlicher Speicher zur Solid-State-Technologie übergeht. NVMe und andere Hochleistungsspeichergeräte bieten extreme Speicherleistung zu immer erschwinglicheren Preisen, sodass sie sich als langsamer Speicher ausgeben können. Welches dieser Geräte sollte als Arbeitsspeicher betrachtet werden und welcher Speicher variiert je nach Arbeitslast. Die Softwareinfrastruktur zur besseren Unterstützung dieser Hybridtechnologien ist für eine breite Akzeptanz von entscheidender Bedeutung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63393-6_26 e6c4aa8e3f8f6c6ea838ea8f35dbbd38;de;;;3.3.;;;Auf dem Weg zu einer überlebensfähigen Sicherheitsarchitektur für Ad-hoc-Netzwerke Wir präsentieren eine Sicherheitsarchitektur für die Zugangskontrolle in Ad-hoc-Netzwerken mobiler elektronischer Geräte. Ad-hoc-Netzwerke werden bei Bedarf ohne Unterstützung durch bereits vorhandene Infrastrukturen wie zentrale Server, Sicherheitsverbände oder CAs gebildet. Unsere Architektur ist vollständig verteilt und basiert auf Gruppen und Public-Key-Zertifizierung. Das Ziel ist ein überlebensfähiges System, das auch dann gut funktioniert, wenn Netzwerkknoten ausfallen und Verbindungen nur gelegentlich auftreten. Wir identifizieren einige offene Probleme bei der optimalen Nutzung unzuverlässiger Kommunikation für das Sicherheitsmanagement.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45807-7_9 211b5273d65236b9a0b661f9727f5777;de;;;3.3.;;;Das Security-Prozessmodell eingebetteter Systeme Eingebettete Systeme für bestimmte Zwecke erfüllen bestimmte Rollen in verschiedenen Umgebungen. Die Sicherheit eingebetteter Systeme wird zu einem vorrangigen Anliegen, und sobald ein Problem in eingebetteten Systemen auftritt, kann dies zu tödlichen Unfällen führen. Daher brauchen wir Sicherheitsrichtlinien für eingebettete Systeme. Aufgrund der begrenzten Größe und Leistung erfüllen Sicherheitstechniken, die für Unternehmens- und Desktop-Computing entwickelt wurden, jedoch möglicherweise nicht die Anforderungen an eingebettete Anwendungen. In diesem Papier analysieren wir bestehende Sicherheitsrichtlinien und unterteilen bösartige Angriffe in drei Abschnitte und stellen dann das Sicherheitsprozessmodell eingebetteter Systeme vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27180-9_40 48fd51a17ac787a30ac3533855d7b49d;de;;;3.3.;;;Auf dem Weg zu einem digitalen Geschäftsbetriebssystem Mit der immer wichtiger werdenden Rolle von Software in Wirtschaft und Gesellschaft insgesamt veralten die traditionellen Organisationsformen zunehmend. Um wettbewerbsfähig zu bleiben, müssen Unternehmen einen neuen, digitalen Geschäftsbetriebsmechanismus einführen. In diesem Beitrag stellen wir ein solches System vor, das aus vier Dimensionen besteht, d. h. Geschwindigkeit, Daten, Ökosystemen und Ermächtigung, und drei Arbeitsfeldern, d.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-93641-3_14 0c8d22e2a668ddcb8d87f45046724839;de;;;1.1.;;;104a. Die empirische Analyse ärztlichen Handelns —Eine Herausforderung an die ChirurgieThe empirical analysis of medical action is the central challenge for surgery. Components of an empirical science of medical action are the patterns of disease, of services, of the quality of the physician, of resources, and of outcome. Difficulties in developing a model of the process of medical action are discussed.;-;-;-;https://link.springer.com/article/10.1007/BF01292066 e761c114428e7430d2e4a304b014cec9;de;;;1.1.;;;Modellgestützte Rekonstruktion und Simulation des Ergebnisses der Bundestagswahl 2005Dieser Beitrag zielt darauf ab, anhand von theoretischen Modellen und empirischen Daten das Ergebnis der Bundestagswahl am 18. September 2005 zu rekonstruieren. Der Sinn dieser Rekonstruktion liegt erstens darin, das Zustandekommen des Wahlergebnisses durch ein theoretisches Modell zu erklären. Hier wird ein Mikro-Modell der politischen Akteure verwendet, sodass ein Wahlergebnis als ein Phänomen auf der Aggregatebene auf die individuelle Ebene zurückgeführt werden kann. Zudem ermöglicht die Rekonstruktion Simulationen mit verschiedenen Kombinationen der Parameter. So können kontrafaktische Wahlergebnisse in hypothetischen Situationen erzeugt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-90465-8_2 5236358f3fbbe93f942439ae6cfbb617;de;;;1.1.;;;Das Erlernen von Aggression in Familie und PeergroupAggression und Gewalt sind, wie aus den Beiträgen dieses Buches zu ersehen ist, ein gravierendes Problem in unserer Gesellschaft. Die Wurzeln der Aggression im einzelnen Menschen sind in der frühen Kindheit zu suchen. Individuelle Unterschiede in den Ebenen der Aggression bilden sich sehr früh heraus und bleiben während der weiteren Entwicklung des Menschen weitgehend stabil. Es gibt zwar eindeutige Beweise dafür, dass die individuellen Unterschiede in der Aggression zu einem nicht geringen Teil auf angeborene (biologische oder genetische) Faktoren zurückzuführen sind, ebenso überwältigend sind jedoch die Beweise dafür, dass Kinder die Aggression zu einem großen Teil durch die Interaktion mit ihrer Umwelt erlernen. Dieser Beitrag beschäftigt sich mit zwei Bereichen, die für das kindliche Erlernen der Aggression weitgehend verantwortlich sind: die Familie und die Peergroup.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-80376-4_26 04efc0552f1414ca72fe7d256c6d2807;de;;;3.3.;;;Design und Implementierung einer Multi-Agenten-Architektur zur Kommunikation von Verstärkungslernwissen und Verbesserung des Agentenverhaltens Dieses Forschungsprojekt stellt eine Multi-Agenten-Architektur vor, die Reinforcement Learning verwendet. Ziel ist es, ein System zu entwickeln, das es den Agenten ermöglicht, das Wissen seiner Kollegen zu nutzen. Das Wissen über die Umgebung wird aus dem Verstärkungslernalgorithmus Q-Learning gewonnen. Während die Multi-Agenten-Architektur ein Kommunikationsmodell zwischen den Agenten des Systems festlegt. Um das Ziel zu erreichen, nutzt das vorliegende Forschungsprojekt das Q-Lernmerkmal Off-Policy, das eine Bedingung vor dem Einsatz von ε-gierig einbezieht. Diese Bedingung ermöglicht es den Agenten, einen Status nicht zu untersuchen, der bereits von einem anderen Agenten oder von ihm selbst gesendet wurde. In der vorgeschlagenen Multi-Agenten-Architektur arbeiten die Agenten paarweise. Jedes Agentenpaar hat zwei unterschiedliche Verhaltensweisen, die es ihnen ermöglichen, relevante Zustände der Umgebung zu kommunizieren und zu bearbeiten. Die Bedingungen zum Senden der Zustände hängen von der Umgebung ab, insbesondere hängt es von den Umständen ab, unter denen der Agent eine Belohnung von der Umgebung erhält. Die Ergebnisse zeigen, dass die Anzahl der Interaktionen zwischen Agent und Umgebung zur Verbesserung des Verhaltens des Agenten durch die vorgeschlagene Architektur um mehr als 90 % reduziert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-62833-8_32 e5ba3127061cfbb243d18f0fb69e96a0;de;;;3.3.;;;ESAE: Evolutionäre strategiebasierte Architekturentwicklung Obwohl tiefe neuronale Netze (DNNs) in vielen Bereichen eine wichtige Rolle spielen, kann das Architekturdesign von DNNs aufgrund der Schwierigkeit der Eingabedatendarstellung, der großen Anzahl von Parametern und der komplexen Schichtbeziehungen eine Herausforderung darstellen. Um die Hindernisse des Architekturdesigns zu überwinden, haben wir eine neue Methode entwickelt, um die optimale Struktur von DNNs zu generieren, die Evolutionary Strategy-based Architecture Evolution (ESAE) genannt wird und aus einer zweistufigen Darstellung und einem Wahrscheinlichkeitsverteilungslernansatz besteht. Die Bi-Level-Repräsentation kodiert Architekturen auf Gen- und Parameterebene. Der Ansatz des Wahrscheinlichkeitsverteilungslernens stellt die effiziente Konvergenz des Architektursuchprozesses sicher. Durch den Einsatz von Fashion-MNIST und CIFAR-10 wird die Wirksamkeit der vorgeschlagenen ESAS verifiziert. Die weiterentwickelten DNNs, ausgehend von einer trivialen Ausgangsarchitektur mit einer einzigen Faltungsschicht, erreichten auf Fashion-MNIST bzw. im Vergleich zu den bestehenden hochmodernen manuell verschraubten Architekturen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3425-6_16 9ebc648ccc9474d1febe57481ed6ba31;de;;;3.3.;;;Auf dem Weg zur Performance-Visualisierung von Web-Service-basierten Anwendungen In diesem Papier stellen wir einen Ansatz zum Aufbau einer Überwachungsumgebung vor, die der Leistungsvisualisierung für verteilte Anwendungen zugrunde liegt. Unser Fokus liegt darauf, das J-OCM-Monitoring-System und das TAU-Paravis-Performance-Visualisierungs-System zusammenarbeiten zu lassen. J-OCM, basierend auf der J-OMIS-Schnittstelle, bietet Dienste für die Online-Überwachung von verteilten Java-Anwendungen. Das System verwendet J-OCM, um Überwachungsdaten für die verteilte Anwendung bereitzustellen, während TAU-Paravis eine erweiterte Visualisierung der Leistungsdaten bietet. Es ist uns gelungen, J-OCM in TAU/Paravis zu integrieren, indem wir zusätzliche Software entwickelt haben, die den Zugriff auf den Monitor und die Umwandlung von Monitorrohdaten in Leistungsdaten ermöglicht, die mit 3D-Charts dargestellt werden. Am Ende präsentieren wir eine Erweiterung, die Web Service Monitoring in die integrierte Umgebung einführt.;-;-;-;https://link.springer.com/chapter/10.1007/11752578_14 b1ae84f37e15b4aa69561f8132f1bf63;de;;;3.3.;;;Synaptische Elektronik und neuromorphes Computing Um die Rechenarchitektur und die intelligenten Funktionen des menschlichen Gehirns auf Hardware abzubilden, brauchen wir elektronische Geräte, die biologische Synapsen und sogar Neuronen nachbilden können, vorzugsweise auf physischer Ebene. Beginnend mit der Geschichte der neuromorphen Berechnung werden wir in diesem Artikel kurz die Architektur des Gehirns und die für seine Plastizität verantwortlichen Lernmechanismen betrachten. Wir werden auch einige memristive Geräte vorstellen, die zur Implementierung elektronischer Synapsen verwendet wurden, einige wichtige Meilensteine ​​in diesem Forschungsbereich vorstellen und deren Vor- und Nachteile sowie Zukunftsaussichten diskutieren.;-;-;-;https://link.springer.com/article/10.1007/s11432-016-5565-1 8b57c7f414bbb92315054a5d29d8d510;de;;;1.1.;;;Zur Spezifik des Mediums: Der Doppelcharakter des Films als Faktendokument und FiktionDie Beobachtung, dass das Kunstmedium Film gegenüber anderen Künsten eine neuartige Beziehung zur Realität zeigt, wird durch die Einbindung technischer Apparate in den Kommunikationsvorgang erklärt, die einen Eingriff in die Wahrnehmungs- und Informationsverarbeitungsprozesse des Zuschauers Menschen darstellt. Um sich der Spezifik des Mediums zu nähern, wird dessen Rezeption unter zwei komplementären Aspekten gesehen, welche zugleich eine psychologische Sichtweise erleichtern: (1) Als Fakten-Dokument realer Reizangebote lässt ein Filmwerk sich über seine Wahrnehmungsprozesse studieren, so im Rahmen von Embodiment, Geschehenswahrnehmung, implizitem Lernen, Invariantenextraktion, Konzeptbildung bzw. in Bezug auf Transitivität der Stimulation. (2) Als Fiktion zeigt Film hingegen Spiel-Charakter, woraus sich Besonderheiten des Erlebens erklären wie jene der Oszillation von Sinnangeboten aus Realität und Vorstellungswelt, die zur Wirklichkeitsillusion führt, ebenso der Nähe der Darstellung zum Probehandeln, wodurch körperliches Involvement induziert wird, ferner der Steuerung von Emotionen etc.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-32052-2_13 ac7c0a7a7af34765785f5c84941d45ab;de;;;3.3.;;;Ein EPIC-Prozessor mit ausstehenden Funktionseinheiten Der Itanium-Prozessor, eine Implementierung einer Explicitly Parallel Instruction Computing (EPIC)-Architektur, ist ein geordneter Prozessor, der Ergebnisse der Reihe nach abruft, ausführt und an Funktionseinheiten weiterleitet. Die Architektur verlässt sich stark auf den Compiler, um die Parallelität auf Instruction Level (ILP) zu exponieren, um Blockierungen zu vermeiden, die durch die Verarbeitung in der Reihenfolge erzeugt werden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-47847-7_27 defad46ac24a2156e6b40bb90caae560;de;;;1.1.;;;Diskriminierung in der sozialpsychologischen VorurteilsforschungWährend eine genuin soziologische Thematisierung von Diskriminierung auf der Grundlage einer ausgewiesenen theoretischen Gegenstandsbestimmung dessen, was Diskriminierung als soziales Phänomen charakterisiert, in der Bundesrepublik bislang nur in Ansätzen erfolgt, ist die Diskriminierungskategorie in der sozialpsychologischen Vorurteilsforschung fest etabliert. Der fachwissenschaftlich spezifische Zugang zur Diskriminierungsthematik innerhalb der sozialpsychologischen Vorurteilsforschung ist über die disziplinären Grenzen der Psychologie hinausgehend insofern von Bedeutung, als dort formulierte zentrale Theoreme und Ergebnisse im sozialwissenschaftlichen und pädagogischen Diskurs über Fremdenfeindlichkeit, Rassismus und Rechtsextremismus, aber auch in der Migrationssoziologie aufgegriffen und adaptiert werden (s. etwa Heckmann 1992, Terkessidis 1998, Kleinen 2004).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-90733-8_2 a9bce5608f7d1d38aac453d313883e6f;de;;;3.3.;;;Der Aquatic Surface Robot (AnSweR), ein leichtes, kostengünstiges, unbemanntes Mehrzweck-Forschungsschiff Auch wenn es einige Beispiele für aquatische Oberflächenroboter gibt, sind sie im Allgemeinen teuer, relativ groß und schwer und auf maßgeschneiderte Hardware-/Softwarekomponenten zugeschnitten, die einer breiten Öffentlichkeit nicht offen zugänglich sind. In dieser Arbeit wird der Aquatic Surface Robot (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71711-7_21 31f81e4dee6e478cdbf0c91cad60920f;de;;;3.3.;;;Softwarefehlervorhersage basierend auf verbessertem Fuzzy-Clustering Die Vorhersage von fehleranfälligeren Teilen der Softwareprogramme könnte den Softwaretestprozess vereinfachen und hilft effektiv, die Kosten und den Zeitaufwand für die Entwicklung zu reduzieren. Obwohl viele maschinelle Lernverfahren und statistische Techniken weithin vorgeschlagen wurden, um fehleranfällige Module in der Softwarefehlervorhersage zu definieren, muss dieser Bereich jedoch noch mit hoher Genauigkeit und weniger Fehlern erforscht werden. Leider wurden mehrere frühere Verfahren einschließlich künstlicher neuronaler Netze und ihrer Varianten, die verwendet wurden, durch Einschränkungen beeinträchtigt, wie die Unfähigkeit, Unsicherheiten in Software-Messdaten angemessen zu handhaben, was zu geringer Genauigkeit, Instabilität und Inkonsistenz bei der Vorhersage führt. In diesem Papier wird zunächst der Einfluss irrelevanter und inkonsistenter Module auf die Fehlervorhersage verringert, indem ein neues Framework entworfen wird, in dem die Module des gesamten Projekts geclustert werden. Die generierte Ausgabe wird dann an das nächste Modell in der Hybridumgebung weitergegeben, bei dem es sich um ein probabilistisches neuronales Netzwerk (PNN) zum Training und zur Vorhersage handelt. Wir haben vier NASA-Datensätze verwendet, um unsere Ergebnisse auszuwerten. Die Leistungsbewertung in Bezug auf Falsch-Positiv-Rate, Falsch-Negativ-Rate und Gesamtfehler wird berechnet und zeigte eine 30- bis 60-prozentige Verbesserung der Falsch-Negativ-Rate im Vergleich zu anderen gut durchgeführten Trainingsmethoden wie naive Bayes und Random Forest.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07593-8_21 02e6eda4fdd666018854d8a2873820fa;de;;;3.3.;;;Forschung zur Sicherheit von Multi-Access-Edge-Computing-Knotensystemen, die durch Blockchain-Technologie integriert sind Dieses Papier stellt den Anwendungsmodus des Multi-Access Edge Computing Nodes Systems (MECNS) vor und analysiert die Bedürfnisse der Sicherheitsforschung des MECNS. Mit Blick auf die Sicherheitsprobleme des MECNS bei der Anwendung neuer Energiequellen wie Kraftwerks-Grid-Load-Store-System (PPGLSS) etc MECNS mit einem Sicherheitsmechanismus wurde entwickelt. Es basiert auf einem Verschlüsselungsalgorithmus mit öffentlichem und privatem Schlüssel. Das Autorisierungsprotokoll, das Registrierungsprotokoll, das Stornierungsprotokoll und das Adressabfrageprotokoll von ECNs werden vorgeschlagen. Bei diesem Schema werden die Vertraulichkeit und Sicherheit der Kommunikation zwischen ECNs durch SSL realisiert. Und auf dieser Basis wird die Blockchain-Technologie integriert, um einen vertrauenswürdigen Schutzmechanismus für Edge Computing vorzuschlagen. Diese Architektur und zugehörige Protokolle können die Überprüfbarkeit und Nichtabstreitbarkeit von ECN-Aktivitäten sicherstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9746-6_43 5218fa0b38aa3211b67bd4f8baf23a0c;de;;;3.3.;;;Observability Statement Coverage basierend auf dynamischen faktorisierten Use-Definition-Ketten zur funktionalen Verifikation Die Simulation ist nach wie vor die primäre Verifikationsmethode für integrierte Schaltungsentwürfe und aufgrund ihrer Unvollständigkeit für sie unabdingbar. Da die funktionale Komplexität moderner Designs dramatisch zunimmt, ist es notwendig, die Beobachtbarkeit für Abdeckungsmetriken zu berücksichtigen. In diesem Papier erweitern wir faktorisierte Use-Definition-Ketten (FUD-Ketten), eine ausgereifte Datenstruktur in Compilern, von sequentieller Software bis hin zu gleichzeitigem Hardware-Design und schlagen dynamische FUD-Ketten (DFUD-Ketten) vor. Darauf aufbauend präsentieren wir ein Beobachtbarkeitsmodell und einen Algorithmus zur Bewertung der beobachtbarkeitsbasierten Aussageüberdeckung. Diese Technik hat mehrere Vorteile. Erstens könnte es leicht in Compiler oder Simulatoren für Hardwarebeschreibungssprachen integriert werden, da es viele in Compilern verwendete Flussanalysetechniken verwendet. Zweitens kann es mit vielen Kontrollierbarkeitsmetriken kombiniert werden, wie beispielsweise der Aussageüberdeckungsmetrik, da das Beobachtbarkeitsmodell auf Definitionen und Verwendungen von Variablen basiert. Die vorgeschlagene Technik wurde als Prototyp-Tool für Verilog-Designs implementiert und experimentelle Ergebnisse zeigen ihre Vorteile.;-;-;-;https://link.springer.com/article/10.1007/s10836-006-8634-3 985117db689dfcc80d7c3aeb4c5c7283;de;;;3.3.;;;CVLA: Integration mehrerer Analysetechniken in einen benutzerdefinierten Moodle-Bericht Der verstärkte Einsatz von Informationstechnologien bei Bildungsaufgaben führte zu einem hohen Datenvolumen, das genutzt werden kann, um praktische Einblicke in den Lernprozess zu bieten. In diesem Papier haben wir eine Systemarchitektur zur Integration von Lernanalysetechniken in eine Bildungsplattform vorgeschlagen. Um den Ansatz zu testen, wurden drei Analyseszenarien in einen benutzerdefinierten Bericht für unsere auf Moodle basierende Bildungsplattform implementiert. Die Umsetzungsschritte mit ausgewählten Lösungen werden besprochen. Die Bedeutung dieser Forschung liegt im Potenzial dieses Ansatzes zum Aufbau von Analysesystemen, die mehrere Datensätze und Analysetechniken verwenden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24770-0_11 e2638b4cd7f6883d7b12bca555d387fa;de;;;3.3.;;;Partikelfilter zur Standortbestimmung im Ubiquitous Computing: Eine Fallstudie Die Standortschätzung ist ein wichtiger Bestandteil vieler allgegenwärtiger Computersysteme. Partikelfilter sind simulationsbasierte probabilistische Näherungen, die sich in der Robotik-Community als effektiv für die Verfolgung von Roboterpositionen erwiesen haben. Dieses Papier präsentiert eine Fallstudie zur Anwendung von Partikelfiltern zur Standortbestimmung für ubiquitäres Computing. Anhand von Spurenprotokollen eines eingesetzten Multisensor-Ortungssystems zeigen wir, dass Partikelfilter genauso genau sein können wie übliche deterministische Algorithmen. Wir präsentieren auch Leistungsergebnisse, die zeigen, dass Partikelfilter auf Geräten von High-End-Servern bis hin zu Handhelds praktisch sind. Schließlich diskutieren wir die allgemeinen Vorteile der Verwendung probabilistischer Methoden in Ortungssystemen für ubiquitäres Computing, einschließlich der Fähigkeit, Daten von verschiedenen Sensortypen zu fusionieren und Wahrscheinlichkeitsverteilungen für Dienste und Anwendungen auf höherer Ebene bereitzustellen. Basierend auf dieser Fallstudie kommen wir zu dem Schluss, dass Partikelfilter eine gute Wahl sind, um Standortschätzungen für ubiquitäres Computing zu implementieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30119-6_6 8099a3fcbf8790b851d79fe83e4899a1;de;;;3.3.;;;Die Programmiersprache Set@l und ihre Anwendung zur Codierung der Gaußschen Elimination Die Entwicklung neuer heterogener Architekturen für Computersysteme ist eine fortgeschrittene Forschungsrichtung im Bereich der Supercomputertechnik. Gleichzeitig erfordert die Software-Portierung zwischen verschiedenen heterogenen Architekturen aufgrund der architektonischen Beschränkungen der verfügbaren Programmiersprachen eine erhebliche Coderevision. Um dieses Problem zu lösen, schlagen wir Set@l vor, eine neue architekturunabhängige Programmiersprache, die einige Ideen der Programmiersprachen COLAMO und SETL erweitert. In Set@l werden ein Algorithmus und seine Parallelisierung durch getrennte Module des Programms beschrieben. Dies wird durch die Anwendung der mengentheoretischen Codesicht und des aspektorientierten Programmierparadigmas bestimmt. Der Quellcode in Set@l ist architekturunabhängig und stellt die Lösung eines Rechenproblems als mengentheoretisch und relationaler Kalkül spezifizierter Informationsgraph dar. Aspekte passen einen universellen Algorithmus an die Architektur und Konfiguration eines bestimmten Computersystems durch Unterteilung und Klassifizierung von Mengen an. Im Gegensatz zu SETL bietet Set@l unterschiedliche Klassifizierungskriterien für Sammlungen, insbesondere nach der Art der Parallelität. Mengen von unbestimmter Parallelität werden als implizit bezeichnet. In der Arbeit beschreiben wir die Grundlagen der architekturunabhängigen Programmierung in der Sprache Set@l und betrachten ein Beispiel, in dem Set@l zur Codierung der Gaußschen Elimination verwendet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-28163-2_4 941c211c8310d896bc8d0c649d29b776;de;;;3.3.;;;Ein aufstrebendes intelligentes Haus Dieser Beitrag beschreibt ein konzeptionelles Modell von Smart Buildings als Ökosystem schlanker Komponenten. Die Smartness eines Gebäudes sollte eine emergente Eigenschaft vieler interagierender schlanker Komponenten sein und nicht eine vorprogrammierte Koordination von Aktionen. Ein Prototyp eines Smart House für Softwaresimulation und Hardware-Experiment wird vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38974-0_19 e3b20dee3d5d0aff9dd9ed841f73a14e;de;;;3.3.;;;Herausforderungen und Empfehlungen bei der Erhöhung des Realismus von kontrollierten Software-Engineering-Experimenten Ein wichtiges Ziel der meisten empirischen Software-Engineering-Experimente ist der Transfer der Forschungsergebnisse in industrielle Anwendungen. Um die Industrie von der Validität und Anwendbarkeit der Ergebnisse kontrollierter Software-Engineering-Experimente zu überzeugen, sollten die Aufgaben, Themen und Umgebungen so realistisch wie möglich sein. Solche Experimente sind jedoch anspruchsvoller und teurer als Experimente mit Schülern, kleinen Aufgaben und Stift-und-Papier-Umgebungen. Dieses Kapitel beschreibt die Herausforderungen bei der Erhöhung des Realismus kontrollierter Experimente und die Lehren aus den Experimenten, die im Simula Research Laboratory durchgeführt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45143-3_3 28948432e36b5910cd63c8c57caf2b66;de;;;3.3.;;;Laufzeitmodellbasiertes Management verschiedener Cloud-Ressourcen Aufgrund der Vielfalt der Ressourcen und unterschiedlicher Managementanforderungen steht das Cloud-Management vor großen Herausforderungen an Komplexität und Schwierigkeit. Für den Aufbau eines Managementsystems zur Erfüllung einer bestimmten Managementanforderung ist eine Neuentwicklungslösung auf Basis eines bestehenden Systems in der Regel praktikabler als eine Neuentwicklung des Systems. Die Schwierigkeit und der Arbeitsaufwand der Sanierung sind jedoch sehr hoch. In diesem Whitepaper stellen wir einen auf Laufzeitmodellen basierenden Ansatz zur Verwaltung diverser Cloud-Ressourcen vor. Zuerst erstellen wir das Laufzeitmodell jeder Art von Cloud-Ressourcen. Zweitens erstellen wir das zusammengesetzte Laufzeitmodell aller verwalteten Ressourcen durch Modellzusammenführung. Drittens sorgen wir dafür, dass das Cloud-Management durch die Modelltransformation vom zusammengesetzten Modell in die kundenspezifischen Modelle personalisierte Anforderungen erfüllt. Schließlich können alle Verwaltungsaufgaben durch Ausführen von Betriebsprogrammen auf dem angepassten Modell ausgeführt werden. Die Machbarkeit und Effizienz des Ansatzes werden durch eine reale Fallstudie validiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41533-3_35 43665e43b93ca7c6a278aedc2849b575;de;;;1.1.;;;Nationale und europäische Identitäten und politische Unterstützung der Europäischen Union im Kontext der Wirtschafts- und FinanzkriseDie Bürger in der EU wurden seit dem Ausbruch der Finanzkrise Ende 2007 und deren realwirtschaftlichen Folgen mit sich stark wandelnden ökonomischen Bedingungen konfrontiert. Diese Verschlechterung der ökonomischen Lage wurde nicht selten von politischen Eliten mit dem Euro in Verbindung gebracht, weshalb mit Folgen für die EU und ihre politische Unterstützung zu rechnen sein sollte. Vor diesem Hintergrund wird die Frage untersucht, wie die Determinantenmuster der politischen Unterstützung der EU auf die Veränderungen reagiert haben, wobei die Wirkungen nationaler und europäischer Identitäten den Analysefokus bilden. Die Resultate untermauern eine Reihe bekannter Erklärungsmuster. Eindeutige Trends sind im Zeitverlauf der „Euro-Krise“ kaum zu erkennen, wobei die Effekte nationaler Identitäten und Parteisignale im Zeitverlauf an Stärke hinzugewinnen. Die Wirkungen der restlichen Erklärungsfaktoren bleiben kurzfristig gesehen konstant.;-;-;-;https://link.springer.com/article/10.1007/s12286-014-0207-8 f45b04bb62148b377bbc9b6e0a6c91e1;de;;;3.3.;;;Umgang mit Steuerdatenflussdiagrammen für einen eng gekoppelten rekonfigurierbaren Beschleuniger In einem eingebetteten System mit einem Basisprozessor, der mit einem eng gekoppelten Beschleuniger integriert ist, führt das Extrahieren häufig ausgeführter Teile des Codes (heißer Teil) und das Ausführen ihres entsprechenden Datenflussgraphen (DFG) auf dem Beschleuniger zu mehr Geschwindigkeit. In diesem Papier wollen wir unsere Motivationen für den Umgang mit Kontrollanweisungen in DFGs und deren Erweiterung auf Kontroll-DFGs (CDFGs) darstellen. Darüber hinaus werden grundlegende Anforderungen an einen Beschleuniger mit bedingter Ausführungsunterstützung vorgeschlagen. Darüber hinaus werden einige Algorithmen zur zeitlichen Partitionierung von CDFGs unter Berücksichtigung der Architekturspezifikationen des Zielbeschleunigers vorgestellt. Um die Wirksamkeit der vorgeschlagenen Ideen zu zeigen, haben wir sie auf den Beschleuniger eines erweiterbaren Prozessors namens AMBER angewendet. Experimentelle Ergebnisse zeigen die Wirksamkeit der Abdeckung von Kontrollanweisungen und der Verwendung von CDFGs im Vergleich zu DFGs.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72685-2_24 a0c0407448b73fc7fa352d43dea863a5;de;;;3.3.;;;Auf maschinellem Lernen basierende grüne und energieeffiziente Traffic Grooming-Architektur für Mobilfunknetze der nächsten Generation Im Jahr 2015 haben die Vereinten Nationen 17 Ziele für nachhaltige Entwicklung (Sustainable Development Goals, SDG) verabschiedet, um die Armut zu beenden, den Planeten zu retten und bis zum Jahr 2030 Wohlstand für alle zu schaffen. Die universelle Breitbandkonnektivität gilt als ein wesentlicher Faktor, um diese Ziele zu erreichen. Zwischen dem nationalen Bruttoinlandsprodukt (BIP) und der Breitbandverfügbarkeit besteht ein enger Zusammenhang. Der Breitbandzugang birgt großes Potenzial, um in abgelegenen und unterentwickelten Ländern Arbeitsmöglichkeiten zu eröffnen und das Einkommen für arme Menschen zu steigern. Es wird geschätzt, dass noch immer etwa 1,2 Milliarden Menschen nicht mit dem Internet verbunden sind. Der Breitbandbedarf aus diesem Segment sowie der steigende Breitbandbedarf des städtischen Konsums haben das verfügbare Frequenzspektrum unter Druck gesetzt. Die Glasfaserkommunikation hat eine Fülle von Bandbreite. Der Internet Service Provider (ISP) kann das optische Netzwerk in abgelegenen Gebieten aufgrund von Kostenbeschränkungen, Klima, Wetter und hohen Investitionskosten nicht bereitstellen. Daher hat sein drahtloses Gegenstück WiMAX eine kurze Einrichtungszeit und niedrige Bereitstellungskosten. Daher kann durch hybride optische WiMAX-Netzwerke eine universelle Breitbandkonnektivität erreicht werden. Darüber hinaus leiden die oben genannten abgelegenen Gebiete unter einer geringen Infrastruktur und einer unzuverlässigen Stromversorgung. In diesem Papier haben wir alternative Energiequellen verwendet, um das Problem der unzuverlässigen Stromversorgung, insbesondere in den Gebieten, zu mildern. Die vorgeschlagene, auf maschinellem Lernen basierende Vorhersage erneuerbarer Energien hängt vom geografischen Standort des Netzwerkknotens ab. Die prognostizierte erneuerbare Energie kann als Quelle zur Deckung des Verkehrsbedarfs verwendet werden. Die Verkehrsaggregationsverfahren wurden verwendet, um den Verbrauch von Netzwerkressourcen zu minimieren. Die Unvorhersehbarkeit bei der Nutzung erneuerbarer Energien wird durch die Verwendung nicht erneuerbarer Reserveenergie abgeschwächt. Die Simulationsergebnisse zeigen, dass der vorgeschlagene Algorithmus den nicht erneuerbaren Energieverbrauch reduziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5258-8_26 6ce42bb9df2963b5fe8681f33ce8ebc6;de;;;1.1.;;;Instrumentarium der Kosten- und LeistungsrechnungDie Kostenrechnung wird üblicherweise in die drei Teilbereiche Kostenartenrechnung, Kostenstellenrechnung und Kostenträgerrechnung gegliedert (vgl. Abb. 2.1).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79854-5_2 3076dcabf6f9b5d7e12d6e4c9d35bcb6;de;;;1.1.;;;Begriffe und grundlegende ErklärungsansätzeWenn wir einleitend Marktfolger als jene Unternehmen bezeichnet haben, die nach dem Marktpionier in einen Markt eintreten, so wird deutlich, daß die Definition eines Marktfolgers unmittelbar von der Extension des Begriffs “Marktpionier” abhängig ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08729-8_2 08338a7423194d8ddae8de563c6d1400;de;;;3.3.;;;Gateway-Strategien zur Einbettung von Automotive-CAN-Frames in Ethernet-Pakete und umgekehrt Die heutigen Kommunikationsarchitekturen in der Automobilindustrie bestehen aus bis zu fünf speziellen Kommunikationstechnologien mit dedizierten Funktionen, um Hunderte von komfort-, sicherheits- und infotainmentbezogenen verteilten Funktionen miteinander zu verbinden. Zukünftig werden Anzahl und Komplexität solch hochverteilter Funktionen weiter zunehmen und daraus resultierende stärkere Anforderungen an die zugrunde liegenden Kommunikationsarchitekturen resultieren. Ethernet und IP, sowohl standardisiert als auch in anderen Industriebereichen weit verbreitet, könnten eine Lösung für die kommenden Anforderungen sein und die Vielfalt der Kommunikationstechnologien homogenisieren. Dieses Papier konzentriert sich auf ein Transformationskonzept, um ein CAN-basiertes Netzwerk mit einem Ethernet/IP-basierten Netzwerk zu verbinden und umgekehrt. Es hebt mehrere Varianten hervor, die verschiedene Ziele optimieren, wie den Overhead des Protokollheaders oder die Latenz von Nachrichten. Darüber hinaus präsentiert es Messergebnisse für unterschiedliche Netzwerkauslastungen und ein aktuell eingesetztes Automotive-CAN-Subnetzwerk.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19137-4_22 a94d5e9cbeafc413e9c7076473b63365;de;;;1.1.;;;Das interaktionsökonomische Schema der VerhaltenssteuerungDie Steuerung von Verhalten setzt zunächst voraus zu verstehen und zu erklären, warum sich Akteure in beschriebener Art und Weise verhalten. Daraufhin kann erst die Frage gestellt werden, wie das Verhalten der Akteure verändert werden kann und inwieweit die Veränderung eine Verbesserung zu der zuvor gezeigten Verhaltensweise darstellt. Zielsetzung dieses Kapitels ist daher ein theoretisches Fundament zu legen, auf dessen Grundlage solcherart Aussagen möglich sind. Für diese Zielsetzungen wird im Rahmen dieser Arbeit auf die Interaktionsökonomik zurückgegriffen, welche Inhalt des nachfolgenden Kapitels 3 ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-81735-8_3 e24806655a26d3dc844f5e14a14bb1df;de;;;3.3.;;;Zum Aufbau von Cloud IaaS für die VM-Live-Migration mit KVM und OpenNebula Das Ziel dieses Papiers ist der Aufbau einer Cloud-IaaS-Umgebung, die KVM- und OpenNebula-Open-Sourcen integriert, um eine virtuelle Cloud-Umgebung für Benutzer bereitzustellen. Für den Teil der Benutzeroberfläche kann diese Arbeit die Komplexität des Zugriffs auf Cloud-Ressourcen für den Benutzer reduzieren. In diesem Dokument wird eine Webschnittstelle realisiert, die für Benutzer leicht zu verstehen, darauf zugreifen und damit leicht zu bedienen ist. Die experimentellen Ergebnisse zeigen die Leistung virtueller KVM-Maschinen mit Analysen zur Live-Migration virtueller Maschinen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33065-0_24 f778b20e7a9d6437adb931974b1ed04b;de;;;3.3.;;;Mantle: Ein neuartiges DOSN mit freiem Speicher und lokaler Software Wir präsentieren Mantle, ein neuartiges Framework für dezentralisierte Online Social Networks (OSN). Mantle definiert einen datenschutzwahrenden OSN-Kernel und kann beliebige Speichereinrichtungen zum Speichern von Benutzerdaten nutzen. Mantle wurde entwickelt, um die gesamte OSN-spezifische Logik auf Benutzergeräten auszuführen. Es unterstützt die Entwicklung von Drittanwendungen und vermittelt alle Aktionen dieser zum Schutz von Benutzerdaten, Metadaten und Interaktionen. In dieser Arbeit konzentrieren wir uns auf Mantles Interaktions- und Benachrichtigungsmechanismen, die das Publish/Subscribe-Modell verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38227-7_24 bb55621cb3da5965736a8512b0891efd;de;;;1.1.;;;Modelle kognitiver ProzesseUnter 1.3 haben wir einige prinzipielle Überlegungen angestellt zu den Vor- und Nachteilen einer Anwendung von Computersimulationsmodellen der Künstlichen Intelligenzforschung auf die Theoriebildung in der Psychoanalyse. Im folgenden möchten wir diese Gedankengänge konkretisieren und illustrieren. Dabei können wir eine gewisse Redundanz mit der Darstellung in der Indikationsuntersuchung von Leuzinger, 1980 a (S. 187–253) nicht vermeiden, da wir die Kenntnis der beiden Computersimulationsmodelle, auf denen wir unseren eigenen Ansatz aufbauen, nicht als bekannt voraussetzen können. Um die Redundanz aber in Grenzen zu halten, verweisen wir für ein genaueres Verstehen auf unsere ausführliche Zusammenfassung der Modelle (siehe auch Leuzinger, 1984) und die Originallektüre sowie zum detaillierteren Nachschlagen für unsere Leser auf Anhang I/II.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-71736-9_5 b60ad8617dc72c845f309a6f6fc63182;de;;;1.1.;;;Forschungsmethodische HintergründeNachdem im ersten Teil der Arbeit die theoretischen Grundlagen zur frühen mathematischen Bildung im Elementarbereich gelegt und der Stand der Forschung aufgearbeitet wurde, widmet sich dieser Teil der Frage, wie Lernentwicklungen von Kindern im vorschulischen Alter beim Zahlbegriffserwerb erforscht werden können. Die Klärung dieser Frage erfordert methodische und methodologische Überlegungen und daraus resultierende, dem Forschungsgegenstand angemessene Entscheidungen. Zunächst wird das Forschungsdesign der vorliegenden Untersuchung vorgestellt und grundlegende methodische Vorüberlegungen beschrieben (Kapitel 1).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-28882-2_3 857089c7526d44a7aed6f9af39e7c71d;de;;;3.3.;;;Die Studie des niedrigen Stromverbrauchs für ein drahtloses Single-Hop-Sensornetzwerk In diesem Papier wurde die Low-Power-Konfiguration des Single-Hop-WSN-Systems (Wireless Sensor Network) vorgeschlagen. Wenn die HF-Kommunikation an jedem Tag-Knoten während des Betriebs des WSN-Systems erfolgt, ist der Stromverbrauch am größten. Wenn Sie das Netzwerk mit periodischem Ein- und Ausschalten des RF-Kommunikationsmoduls konfigurieren, ist der Stromverbrauch geringer, als wenn das Modul die ganze Zeit ohne Umschalten betrieben wird. Es können jedoch einige Datenauslassungen auftreten, bei denen die Übertragung und der Empfang erfolgen. Daher schlug dieses Papier den Algorithmus für ein Niedrigenergiesystem ohne Datenauslassungen vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24267-0_18 27daee5a8d4bba7b4a0167e80682208e;de;;;3.3.;;;Aktueller Stand und Perspektiven der Blockchain-Technologie Die Entwicklung neuer und immer beliebter werdender digitaler Kryptowährungen wie Bitcoin hat zu einer dezentralisierten neuen Datenstruktur, der Blockchain, geführt. Die Blockchain hat die Merkmale Dezentralisierung, Sicherheit und Vertrauenswürdigkeit, Zeitreihendaten und kollektive Wartung. Das Aufkommen der Blockchain wurde von Regierungsstellen, Technologieunternehmen und Finanzinstituten hoch geschätzt, während der rationale Einsatz der Blockchain-Technologie die Aufmerksamkeit der Gesellschaft geweckt hat. Dieses Papier stellt die Klassifizierung der Blockchain und die Architektur der Blockchain vor. Durch die Analyse der Kernstruktur der Blockchain beschreibt dieses Papier im Detail die Kernprinzipien, die Funktion in jeder Schicht der Blockchain und ihre Beziehung zu Bitcoin. Dieses Papier nähert sich auch dem aktuellen Stand der Entwicklung und Anwendung der Blockchain-Technologie. Auch dieses Papier untersucht die Probleme, die während der Entwicklung der Blockchain angegangen und gelöst werden müssen, und sieht den Trend der Blockchain-Technologie in der zukünftigen Anwendung voraus.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8086-4_63 d22529419ec9e948ec1a98f77d992c4c;de;;;3.3.;;;Eine neue Technologie für die MIMO-Erkennung: Die Die Technologie zur Multiple-Input-Multiple-Output-Erkennung (MIMO) ist eine Art Schlüsseltechnologie für die drahtlose Hochgeschwindigkeitskommunikation, deren Leistung sich direkt auf den Datendurchsatz des gesamten Systems auswirkt. Die Verbesserung der MIMO-Erkennungstechnologie, um die Erkennungsrate und Zuverlässigkeit zu erhöhen sowie die Bitfehlerrate (BER) zu senken, ist zu einem heißen Thema im Bereich der drahtlosen digitalen Kommunikation geworden. Da der ursprüngliche Sphären-Decodierungsalgorithmus (OSDA) eine relativ hohe Rechenkomplexität und eine relativ lange Decodierungszeit hat, stellen wir in diesem Beitrag eine neue Technologie zur MIMO-Erkennung vor: die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44491-7_18 897e6e160612b06da824d26b92a024be;de;;;1.1.;;;Neurobiologische Korrelate der Psychotherapie von ZwangsstörungenDer vorliegende Beitrag beschreibt neben dem Störungsbild und seinen Unterformen (Kontrollzwänge, Waschzwänge mit Infektionsängsten, Horten und Sammeln, Symmetriezwänge und Rituale) die wesentlichen neuropsychologischen Funktionsbeeinträchtigungen sowie die neuronalen Netzwerke, in denen zwangsspezifische Auffälligkeiten gefunden wurden. Es handelt sich dabei um eine Erweiterung frontostriatothalamofrontaler Schaltkreise. Trotz des frühen Starts der neurobiologischen Psychotherapieforschung bei Zwangsstörungen ist die Zahl der Studien bisher noch recht überschaubar. Sie werden beschrieben und auch Perspektiven für eine integrierte neurobiologische und psychologische Prozessforschung aufgezeigt. Zusammen mit Psychotherapie lassen sich in Zukunft das Neurofeedback mit Echtzeit-fMRT und die nichtinvasive Neuromodulation evtl. zu vielversprechenden Kombinationsansätzen ausbauen.;-;-;-;https://link.springer.com/article/10.1007/s00278-012-0904-1 b14ed0bd2a025a905a087f3b8f44e7b6;de;;;1.1.;;;„Irgendwie eine schwierige Entscheidung“Das Konzept der Gesundheitskompetenz („health literacy“) gewann in den vergangenen Jahren an Bedeutung in den Gesundheitswissenschaften. Während sich die verfügbare Forschung hauptsächlich auf die Erwachsenenbevölkerung bezieht, existieren kaum spezifische Erkenntnisse für das Jugendalter.;-;-;-;https://link.springer.com/article/10.1007/s11553-018-0687-5 06b5e7aef67d8c1cb7134b2517ab340f;de;;;1.1.;;;Der Einfluss ausgewählter Werbeelemente bei Investmentfonds auf die Risiko-Rendite-Wahrnehmung privater Anleger: Urteilsheuristiken als ErklärungsansätzeAusgehend von den theoretischen Grundlagen der Behavioral Finance-basierten Werbewirkungsforschung, werden in diesem Kapitel Hypothesen über die Beeinflussung der Risiko-Rendite-Wahrnehmung von Anlegern entwickelt, indem bestimmte Werbeelemente mit Urteilsheuristiken von Anlegern in Verbindung gebracht werden. In Abschnitt 3.1 wird die Wirkung von aufmerksamkeitsstarken Zahlenwerten in der Werbung anhand der Verankerungsheuristik erklärt. In Abschnitt 3.2 wird die Wirkung von Ratings, Performance-Charts und Markenlogos in der Werbung anhand unterschiedlicher Facetten der Repräsentativitätsheuristik verdeuthcht. In Abschnitt 3.3 wird die Wirkung emotionaler Werbeelemente anhand der Affekt-Heuristik nachvollzogen. Anschließend soll in Abschnitt 3.4 mit der Kompetenz der Anleger ein persönlicher Einflussfaktor thematisiert werden, der im Sinne einer moderierenden Variablen die Gültigkeit der vorher entwickelten Hypothesen einschränken könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-91441-5_3 ef8d5ccc86b4e749dc85ddc1d983a299;de;;;1.1.;;;Bindung und geschlechtsspezifische EntwicklungNach der Bindungstheorie von Bowlby entwickelt jeder Mensch im 1. Lebensjahr Bindungen an dauerhafte Pflegepersonen, die phylogenetisch dem Schutz und Überleben von Jungen und Art dienen. Während die Bindung als affektives Band zwischen Säugling und Bezugsperson als umweltstabil gilt, wird die Organisation dieser Bindung als umweltlabil angesehen, da sie von den unterschiedlichen Erfahrungen eines Kindes mit seinen mehr oder weniger feinfühligen Bezugspersonen bestimmt ist. Die Erfahrungen werden in sog. internalen Arbeitsmodellen von Bindung gespeichert. Diese Modelle befähigen das Individuum zur Simulation oder Vorwegnahme der Ereignisse der realen Welt. So kann es sein Verhalten vorausschauend planen und sich durch Wahrnehmungsfokussierung, Interpretation und Antizipation der Umwelt anpassen.;-;-;-;https://link.springer.com/article/10.1007/s00112-003-0703-4 bedc1d31b7ed4a19396989e13062f9c5;de;;;1.1.;;;Kompetenz und KompetenzmanagementDer Kompetenzbegriff wurde in der Vergangenheit von verschiedensten Akteuren* innen, Schulen und Disziplinen aufgegriffen, verwendet und schlussendlich im Diskurs weiterentwickelt. So existieren Auseinandersetzungen mit dem Kompetenzbegriff aus Sichtweise von Organisationen, Arbeitnehmer*innen oder auch ganzen Volkswirtschaften. Gleiches gilt für Ansätze aus verschiedenen wissenschaftlichen Disziplinen wie z. B. den Betriebswissenschaften, der Psychologie, der Soziologie, den Rechtswissenschaften oder der (Berufs-)Pädagogik.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-29253-9_4 9a419ff0a4585641ad64645b6a2de44a;de;;;3.3.;;;Objektorientiertes Design von RTI mit Design Patterns Die HLA (High Level Architecture) wurde im September 2000 als IEEE Standard 1516 genehmigt. RTI (RunTime Infrastructure), die Softwareimplementierung von HLA, besteht aus drei Komponenten: libRTI, FedExec und RTIExec. Dieses Papier beschreibt ihre Eigenschaften. Als wesentlichen Beitrag schlagen wir ein neues Design von RTI-Komponenten unter Verwendung von Design Patterns vor. Das Verständnis von Entwurfsmustern in der Softwareausführung ermöglicht Entwicklern und Designern einen klaren Einblick in die gesamte Softwarearchitektur.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45242-3_35 b20a4bf6c555d038b637d360131c8300;de;;;3.3.;;;Die Anwendung von Konfigurationssoftware und ActiveX-Technologie in einem Hochofen-Material-Auto-Raising-Steuerungssystem Dieses Dokument stellt die Kommunikationsmethode zwischen nicht standardmäßigen Feldinstrumenten und einem übergeordneten Überwachungssystem anhand eines Beispiels der Anwendung von Konfigurationssoftware und ActiveX-Technologie in einem automatischen Hochofenmaterial-Steuerungssystem vor. Es zeigt auch einige aktuelle Probleme, die in der Entwicklung gefunden wurden, und zeigt die realisierten Funktionen. Dieses System ist visuell und einfach und kann die allgemeinen Anforderungen im industriellen Steuerungsprozess erfüllen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3648-5_119 00cf479f7c72f41f8b73b3f584f110c2;de;;;3.3.;;;Grundlagen der digitalen Erhaltung des Kulturerbes Die digitale Erhaltung des Kulturerbes ist eine neue Technologie zur effektiven Erhaltung kultureller Artefakte und Relikte durch moderne Informationstechnologie. Dies hängt mit den Varianten der Informationstechnologie zusammen, einschließlich Computergrafik, Bildverarbeitung und anderen verwandten Teilgebieten. Digital Preservation umfasst hauptsächlich die folgenden vier Bereiche: Modellierung von kulturellen Relikten und antiken Ruinen, Rendering-Techniken, Simulationstechniken und Retrieval-Techniken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28099-3_2 6d0ee6807816f86820859380264c9d8a;de;;;3.3.;;;Ein energieeffizientes Ressourcenallokationssystem für mobile Ad-hoc-Computernetze Aufgrund der jüngsten Fortschritte in den mobilen Computer- und Kommunikationstechnologien entwickeln sich mobile Ad-hoc-Computing-Grids zu einem neuen Computerparadigma, das innovative Anwendungen durch die gemeinsame Nutzung von Computerressourcen zwischen mobilen Geräten ohne vorherige Netzwerkinfrastruktur ermöglicht. Die energieeffiziente Ressourcenzuweisung ist aufgrund der begrenzten Batterielebensdauer mobiler Knoten eines der Schlüsselprobleme in mobilen Ad-hoc-Rechennetzen. Um den Energieverbrauch zu reduzieren, schlagen wir ein hybrides leistungsbasiertes Ressourcenzuweisungsschema für die Zuweisung von voneinander abhängigen Aufgaben an Knoten innerhalb des mobilen Ad-hoc-Rechennetzes vor. Die Grundidee besteht darin, Abhängigkeiten und Aufgabentypen auszunutzen und voneinander abhängige Aufgaben Knoten zuzuweisen, auf die bei minimaler Sendeleistung zugegriffen werden kann. Wir schlagen auch einen leistungsbasierten Algorithmus vor, um eine Gruppe von nächstgelegenen Knoten zu durchsuchen, um eine Reihe von voneinander abhängigen Aufgaben zuzuweisen. Im Vergleich zu herkömmlichen Algorithmen hängt die Komplexität des vorgeschlagenen Algorithmus eher von der Anzahl der Sendeleistungspegel als von der Anzahl der Knoten innerhalb eines Grids ab. Das Schema wird in einer Simulationsumgebung unter Verwendung verschiedener Workloads und Parameter validiert.;-;-;-;https://link.springer.com/article/10.1007/s10723-011-9188-x 0ed259e0c2051f6377fc1730b72a9596;de;;;1.1.;;;Klärungen: Theoretische Fundierung von Interkultureller Erziehung und Bildung sowie ein SystematisierungsvorschlagDer Begriff einer Interkulturellen Erziehung und Bildung verlangt nach einer Klärang des inhärenten Begriffs von Kultur, weil dieser Begriff im allgemeinen wie im fachwissenschaftlichen Sprachgebrauch sehr weit ist und vieldeutig verwendet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-90810-6_3 a822c0a75d85836ab6051faca0aa830e;de;;;3.3.;;;Unit-Tests für domänenspezifische Sprachen Domänenspezifische Sprachen (DSLs) bieten mehrere Vorteile, indem sie Idiome bereitstellen, die den Abstraktionen ähneln, die in einer bestimmten Problemdomäne zu finden sind. Eine Herausforderung besteht jedoch darin, dass die Toolunterstützung für DSLs im Vergleich zu den Fähigkeiten, die in Allzwecksprachen (GPLs) wie Java und C++ angeboten werden, fehlt. Beispielsweise fehlt die Unterstützung für Unit-Tests eines DSL-Programms und Debugger für DSLs sind selten. Dies schränkt die Fähigkeit eines Entwicklers ein, das Vorhandensein von Softwarefehlern zu entdecken und sie in einem DSL-Programm zu lokalisieren. Derzeit sind Softwareentwickler, die eine DSL verwenden, im Allgemeinen gezwungen, ihre DSL-Programme mit verfügbaren GPL-Tools zu testen und zu debuggen, anstatt Tools, die von den Domänenabstraktionen auf DSL-Ebene informiert sind. Dies verringert den Nutzen der DSL-Einführung und minimiert die Vorteile der Arbeit mit höheren Abstraktionen, was die Eignung der Verwendung von DSLs im Entwicklungsprozess in Frage stellen kann. Dieses Whitepaper stellt unsere erste Untersuchung eines Unit-Testing-Frameworks vor, das durch eine wiederverwendbare Abbildung der GPL-Testtool-Funktionalität für bestimmte DSLs angepasst werden kann. Wir stellen Beispiele aus zwei verschiedenen DSL-Kategorien zur Verfügung, die als Fallstudien dienen und die Möglichkeiten einer Unit-Testing-Engine für DSLs demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03034-5_7 bc6f45db81514a5c3d8d56365c0c07cd;de;;;1.1.;;;Qualitative Analyse von Chats und anderer usergenerierter KommunikationMit der fortschreitenden Verbreitung des Web 2.0 wächst auch die Möglichkeit für Internetnutzer, eigene Beiträge auf Webseiten mit unterschiedlichsten Kommunikationsgeräten (PC, Tablet PC, Mobiltelefon etc.) zu publizieren und über diese Beiträge miteinander in Austausch zu treten. Weblogs und YouTube (Schmidt, Kapitel 72 in diesem Band), Facebook (Schrape/Siri, Kapitel 75 in diesem Band) oder Online-Foren sind Beispiele für Internetplattformen, die kollektiv produzierte Informationen, einzelne Berichte und Kommentare oder Diskussionsbeiträge von Nutzern enthalten. Mit dem Ausbau von Instant-Messaging- Diensten über Mobiltelefone breitet sich zudem seit einiger Zeit rasch eine annähernd synchrone Chat-Kommunikation unter den Nutzern aus, vergleichbar mit gängigen Formen des „Plauderns“ oder „Schwatzens“ im Alltag.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-21308-4_74 a6199b3260d9911e51a183d095b7b982;de;;;3.3.;;;Eine Umfrage zur Entwicklung und Bedrohungen der Cyber-Sicherheit: biometrische Authentifizierungslösungen Cybersicherheitsbedrohungen sind ernst, kostspielig und herausfordernd, da sie vielfältig, evolutiv und leicht verbreitet sind. In diesem Kapitel werden diese Probleme, ihre Entwicklung und die verschiedenen von den Forschern bereitgestellten Lösungen beschrieben. Außerdem werden die biometrischen Lösungen für eines der Schlüsselprobleme der Cybersicherheit, nämlich das Eindringen, untersucht, indem robuste Authentifizierungslösungen bereitgestellt werden, die auf den einzigartigen physischen und Verhaltensmerkmale des Benutzers.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-47301-7_15 1df4af51262323f5987cd8ab965c00a4;de;;;1.1.;;;Institutionalisierung der überbetrieblichen VermögensbeteiligungIn der Modellwelt eines vollkommenen Kapitalmarktes, in der alle Marktteilnehmer sämtliche Informationen besitzen und keinerlei Transaktionskosten existieren, sind Kapitalmarktinstitutionen nicht erforderlich, und eine jederzeitige effiziente Allokation der Kapitalressourcen ist gewährleistet. In der Realität treffen die Prämissen eines solchen Marktmodells jedoch nicht zu. Es bestehen vielmehr strukturelle Probleme, welche die Verwendung privater Ersparnisse für Investitionen im Unternehmenssektor hemmen oder verhindern. Zu denken ist insbesondere an Marktzutrittsbarrieren, an ungünstige Rahmenbedingungen zur Produktion von Finanzintermediationsleistungen, an Hemmnisse aufgrund ungleicher Informations- und Machtverteilung und an einengende Anlegerschutzbestimmungen. Probleme dieser Art, die das Erreichen des angesprochenen Ziels der effizienten Haftkapitalallokation beeinträchtigen können, sowie ihre Lösungsmöglichkeiten mit Hilfe von Beteiligungsgesellschaften als Institutionen der überbetrieblichen Vermögensbeteiligung sind Gegenstand dieses Abschnitts.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-48122-2_4 417d8d6c028785f039b0577dd3e3cbd3;de;;;3.3.;;;AUTOMATISCHE PUFFERÜBERLAUFERKENNUNG BASIEREND AUF OPERATION SEMANTIC Pufferüberlauf ist die gefährlichste Angriffsmethode, die ausgenutzt werden kann. Laut Statistik des CERT (Computer Emergency Readiness Team) macht Pufferüberlauf 50% der aktuellen Software-Schwachstellen aus, Tendenz steigend. Unter Berücksichtigung einer Teilmenge der Sprache C und Mini C präsentiert dieses Papier ein abstraktes Maschinenmodell, das eine Pufferüberlauferkennung realisieren kann, die auf der Operationssemantik basiert. Somit kann die Forschung zur Pufferüberlauferkennung auf strikten Beschreibungen der Operationssemantik aufbauen. Damit kann nicht nur die Korrektheit sichergestellt, sondern auch das System einfach realisiert und erweitert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-3953-9_54 24ccd2feb030d121d2e425443d25924b;de;;;1.1.;;;Sozialer Kontext und Zeit: Zur Konstitution der Zeit als HandlungsdimensionDie vorangegangenen kritischen Erörterungen haben gezeigt, daß ein Unternehmenssteuerungskonzept gesucht wird, welches im Prinzip „dynamisch“ verfaßt sein soll und dem Faktor „Zeit“ eine eigenständige konzeptionelle Bedeutung beimißt. Ein solches Konzept nimmt von der Zeit ausgehend seinen Ursprung, es gilt daher, in einem ersten Zugriff eine Vorstellung davon zu entwickeln, was unter dem selbstverständlichen wie undurchsichtigen, eingängigen wie unfaßbaren Begriff der Zeit — bezogen auf den hier interessierenden sozialen Kontext — verstanden werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-96494-6_4 17640b7c6d001357ffe2f62eed733fff;de;;;3.3.;;;Adaptive Sicherheit für automatischen Datenschutz Protection Große industrielle Infrastrukturen sind auf automatische Kontrollsysteme angewiesen, von denen Supervisory Control and Data Acquisition (SCADA)-Systeme den größten Abdeckungsbereich haben. Das SCADA-Konzept entwickelte sich sukzessive von nicht verbundenen Systemen zu Intranet-verbunden (zum Management Information System (MIS)) und heute zu Internet-verbunden (zu ERP-Systemen - Enterprise Resource Planning), vollständig in IT-Netzwerke integriert. Diese Verbindung von IT zu SCADA hat den Vorteil der Verfügbarkeit und einfachen Kontrolle gebracht, aber auch die Sicherheitsbedrohungen, die traditionelle IT-Netzwerke betreffen: Malware-Infektionen, Viren und Datendiebstahl. Die beeindruckende Entwicklung, die von den SCADA-Systemen der letzten Generation vorangetrieben wurde, spiegelt sich in der Übernahme der für die IT-Branche spezifischen Technologie und Softwareprogramme wider, wodurch SCADA-Systeme auch anfälliger für Cyberangriffe sind, da die Netzwerkverbindung eine höhere Anzahl von von Sicherheitslücken, die ausgenutzt werden können. Jedes Kontrollsystem, das über ein lokales Netzwerk mit dem Internet verbunden ist, wird anfällig für Datenlecks, daher müssen Präventionsmaßnahmen ergriffen werden. Zu diesem Zweck wird Data Loss Prevention (DLP) als eine Reihe von Technologien und Produkten definiert, die entwickelt wurden, um den Verlust sensibler Daten des Unternehmens zu verhindern und Verlust. Das Papier stellt das Design und die Implementierung eines Cybersicherheitssystems vor, das Schutz vor beabsichtigtem oder versehentlichem Datenverlust bietet, insbesondere für eine SCADA-System-Fallstudie. Darüber hinaus soll dieses System Verhaltensweisen und spezifische Ereignisse analysieren, um sich an mögliche Bedrohungen anzupassen, bevor sie tatsächlich auftreten, und so eine adaptive Cybersicherheitslösung definieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1209-1_13 6a967e8c0ca0cd7f6845eecdaddf6868;de;;;3.3.;;;Entwicklung eines intelligenten 3D-Objektmodells für die Anwendung der Bauplanung/Simulation in einem Autobahnprojekt Diese Studie schlägt ein intelligentes 3D-Objektmodell im Autobahnbau vor, um eine Vielzahl von Informationen in Autobahnprojekten elektronisch darzustellen, basierend auf dem internationalen Standard ISO 10303. ISO 10303, auch bekannt als STEP (Standard for the Exchange of Product), ist ein offener Standard, und wurde für den Datenaustausch in Bauprojekten der AEC-Industrie verwendet. Motiviert durch den Erfolg aus der Bauindustrie versucht diese Forschung, ein objektbasiertes intelligentes Modell in der 3D-Autobahnmodellierung anzuwenden. Um die Machbarkeit des vorgeschlagenen Ansatzes zu testen, wurde ein Prototyp entwickelt und auf einem Autobahnprojekt in Seoul, Korea, mit einem Team unter der Leitung des Korean Institute of Construction Technology (KICT) getestet. Das vorgeschlagene intelligente 3D-Modell wurde angewendet, um ein 3D-Modell zu erstellen und automatisch Kosten-/Planschätzungen aus dem 3D-Objektmodell abzuleiten. Um ein 3D-Objektmodell im Straßenbau von Autobahnen zu entwickeln, werden in diesem Beitrag verschiedene Optionen wie Industry Foundation Classes (IFCs) und LandXML untersucht und ein umfassendes Objektmodell für Autobahnbauwerke mit verschiedenen Komponenten wie Straßen, einer Brücke und auch einem Tunnel erstellt als topographische Darstellungen, die für die Kosten-/Zeitplanschätzung verwendet werden könnten.;-;-;-;https://link.springer.com/article/10.1007/s12205-015-0463-4 51aa2e5969e9bca2f09a830707a385e7;de;;;3.3.;;;Ein gruppenbasierter Reputationsmechanismus für mobile P2P-Netzwerke Dieses Papier stellt einen gruppenbasierten Reputationsmechanismus und eine verteilte Implementierungsmethode für mobile P2P-Netzwerke vor. Bei dem vorgeschlagenen Mechanismus werden Peers mit ähnlicher Mobilität in eine Gruppe von Gruppen geclustert, in denen es zwei verschiedene Arten von Peers gibt: Mobile- und Power-Peers. Mathematische Analysen und Simulationen zeigen, dass die Einführung von Gruppen die Kommunikationsüberlastung bei der globalen Vertrauensberechnung vermeidet und die Vorteile der Vertrauensbewertung durch die Verwaltung des Vertrauens in den Gruppen erhalten bleiben. Im Vergleich zu den aktuellen p2p-Reputationsmechanismen wird der vorgeschlagene Mechanismus leicht durch das dynamische Ein- und Ausscheiden von Peers beeinflusst. Darüber hinaus ermutigt es neue Kollegen effektiv, sich aktiv und freundlich an den Systemen zu beteiligen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01671-4_37 77c93b357beb801cb1590c46beb60683;de;;;3.3.;;;Trajektorienverfolgung und Fehlererkennungsalgorithmus für fahrerlose Transportsysteme basierend auf mehreren Positionierungsmodulen Dieses Papier präsentiert eine Implementierung und experimentelle Validierung des Trajektorienverfolgungs- und Fehlererkennungsalgorithmus für Sensoren und Aktuatoren von Fahrerlosen Transportsystemen (AGV) basierend auf mehreren Positionierungsmodulen. Zunächst werden die Systembeschreibung und die mathematische Modellierung des AGV-Systems mit Differentialantrieb beschrieben. Zweitens wird eine Trajektorienverfolgungssteuerung basierend auf dem Backstep-Verfahren vorgeschlagen, um die gegebene Trajektorie zu verfolgen. Drittens wird ein auf den mehreren Positionierungsmodulen basierender Fehlererkennungsalgorithmus vorgeschlagen. Das AGV verwendet Encoder, Laserscanner und Lasernavigationssystem, um die Positionsinformationen zu erhalten. Um die Eigenschaften der einzelnen Positionierungsmodule zu verstehen, wird ihre Modellierung erklärt. Das Fehlererkennungsverfahren verwendet zwei oder mehr Positionierungssysteme und vergleicht sie mit Hilfe des erweiterten Kalman-Filters (EKF), um eine unerwartete Abweichung durch einen Fehler zu erkennen. Die paarweisen Differenzen zwischen den von den Sensoren erhaltenen geschätzten Positionen werden als Rest bezeichnet. Beim Auftreten der Fehler ist der Restwert größer als der Schwellenwert. Die Fehlerisolierung wird durch Untersuchung des größten Rückstands erhalten. Um die Leistungsfähigkeit des vorgeschlagenen Algorithmus zu demonstrieren, wird er schließlich auf das AGV-System mit Differenzialantrieb angewendet. Die Simulations- und Versuchsergebnisse zeigen, dass der vorgeschlagene Algorithmus die Fehler erfolgreich erkennt, wenn die Fehler auftreten.;-;-;-;https://link.springer.com/article/10.1007/s12555-014-0294-y 76a0e9c50808462dbc421ed6804fb874;de;;;3.3.;;;SmartNV: Smart Network Virtualization basierend auf SDN Heutzutage müssen virtuelle Netzwerke (VN) einfacher konfiguriert und verwaltet werden. Es gibt bereits viele Arbeiten zum Thema VN-Mapping, aber es gibt immer noch keinen geeigneten Ansatz, der diese Anforderungen erfüllen kann. Derzeit kann kein einzelner Ansatz diese Anforderungen gleichzeitig erfüllen. Software-Defined Networking (SDN) ist ein aufkommendes Netzwerkmuster, das Hoffnung gibt, die Grenzen des aktuellen Netzwerks zu ändern. Einige Forscher verwenden SDN, um mit VN-Problemen wie Flowvisor und Openvirtex umzugehen, aber diese Arbeiten verfügen nur über die Kernvirtualisierungsfunktion der VN-Plattform. In diesem Papier haben wir eine SmartNV-Plattform (Smart Network Virtualization) vorgeschlagen, die unser verbessertes Openvirtex verwendet. Basierend auf unserer SDN-NV-Architektur kann SmartNV Informationen aus der physischen Infrastruktur sammeln und einen geeigneten Zuordnungsalgorithmus auswählen, um das Virtualisierungsschema zu berechnen. Die Evaluierungsexperimente an unserem Prototypsystem können die Anforderungen des NV-basierten SDN erfüllen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0356-1_51 e7fef97cd17fff41365fbaf4f70ad55b;de;;;1.1.;;;Mentale Einkaufszentrenrepräsentationen und Erinnerung der Preis-Leistungs-Verhältnisse von EinkaufszentrenErkenntnisse der Umweltpsychologie zeigen die Bedeutung der Einkaufszentrenumwelt für die Preisimageentstehung. Außerhalb des PoS können die Konsumenten jedoch nicht direkt die Informationsrate und die Orientierungsfreundlichkeit eines Einkaufszentrums erleben, sondern sich nur daran erinnern. Es ist daher zu vermuten, daß eine mentale Repräsentation des Einkaufszentrums, und damit der relevanten Dimensionen der Einkaufszentrenumwelt, als erklärendes Verbindungsglied zwischen der Wahrnehmung der Einkaufszentrenumwelt durch den Konsumenten am PoS und der Erinnerung des Preis-Leistungs-Verhältnisses außerhalb des PoS fungiert. Man kann erwarten, daß die beiden Konstrukte „Informationsrate“ und „Orientierungsfreundlichkeit“ eine wesentliche Rolle im Zusammenhang mit der mentalen Repräsentation von Einkaufszentren spielen. Im folgenden soll deshalb die mentale Repräsentation von Einkaufsstätten, ihre Entstehung und Wirkung im Detail untersucht werden. Zu prüfen ist dabei insbesondere, ob die Einbeziehung mentaler Einkaufszentrenrepräsentationen als intervenierende Variable zu einer Verbesserung der Prognose der Preis-Leistungs-Einschätzung und weiterer Reaktionsvariablen außerhalb des PoS flihrt. Auf diese Weise können Aufschlüsse über die mentalen Prozesse gewonnen werden, die außerhalb des PoS bei der Entscheidung über die Wahl des Einkaufszentrums ablaufen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-81619-1_4 791d7a7c68d8a9792f4db94f8a53475c;de;;;3.3.;;;Verwenden von XML für zusätzlichen Hypertext-Support Unser übergeordnetes Forschungsziel besteht darin, Hypertext-Funktionalität durch das WWW für Hypertext-unbewusste Informationssysteme mit minimalen oder keinen Änderungen an den Informationssystemen bereitzustellen. Informationssysteme generieren ihre Inhalte dynamisch und benötigen daher einige;-;-;-;https://link.springer.com/article/10.1023/A%3A1015502413527 d2c7881c94729a8dd0228b5d8895971e;de;;;3.3.;;;Radiometrische Verbesserungstechniken Die Bildanalyse durch Fotointerpretation wird oft erleichtert, wenn die radiometrische Natur des Bildes verbessert wird, um seine visuelle Wirkung zu verbessern. Spezifische Unterschiede in Vegetation und Bodenarten können beispielsweise durch eine Erhöhung des Kontrasts eines Bildes hervorgehoben werden. Auf ähnliche Weise können feine Unterschiede im Helligkeitswert entweder durch Kontrastmodifikation oder durch Zuweisen ganz anderer Farben zu diesen Ebenen hervorgehoben werden. Das letztere Verfahren ist als Farbdichte-Slicing bekannt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-03978-6_4 b2708255b0b21cc2ed96f33be187aa7d;de;;;3.3.;;;Generatoren für die Synthese der QoS-Anpassung in verteilten Echtzeit-Embedded-Systemen Dieses Papier präsentiert einen modellgetriebenen Ansatz zur Generierung einer Quality-of-Service (QoS)-Anpassung in Distributed Real-Time Embedded (DRE)-Systemen. Der Ansatz beinhaltet die Erstellung von grafischen Modellen auf hoher Ebene, die die QoS-Anpassungsrichtlinien darstellen. Die Modelle werden unter Verwendung einer domänenspezifischen Modellierungssprache konstruiert – der Adaptive Quality Modeling Language. Unter Verwendung des Model-Integrated Computing-Frameworks wurden mehrere Generatoren entwickelt, um Artefakte auf niedriger Ebene für die Simulation und Implementierung der in den Modellen erfassten Anpassungsrichtlinien zu erstellen. Ein Simulationsgenerator-Tool synthetisiert Artefakte für Matlab Simulink/Stateflow® (ein beliebtes kommerzielles Tool) und bietet die Möglichkeit, die QoS-Anpassungsrichtlinie zu simulieren und zu analysieren. Ein Implementierungsgenerator erzeugt Artefakte für Quality Objects, eine beim BBN entwickelte QoS-Anpassungssoftwareinfrastruktur zur Ausführung der QoS-Anpassung in DRE-Systemen. Eine Fallstudie zur Anwendung dieses Ansatzes auf ein unbemanntes Luftfahrzeug - Video-Streaming-Anwendung wird vorgestellt. Dieser Ansatz verfolgt ähnliche Ziele wie die Model-Driven Architecture-Initiative der OMG.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45821-2_15 88bde0f06c6bd5be371377e1411fc6c8;de;;;3.3.;;;Motivierte Menschen für zuverlässige Softwareprodukte Dieses Papier konzentriert sich auf den Software-Ingenieur, im Gegensatz zu einigen Software-Engineering-Disziplinen. Die weltweite Erfahrung des Autors in der Softwareentwicklung hat zu dem Schluss geführt, dass die überwiegende Mehrheit der Probleme, die bei der Entwicklung von Software auftreten, eher menschenorientiert als technologieorientiert sind. Um die Zuverlässigkeit der Software zu verbessern, kann es daher ratsam sein, einige der Probleme der Menschen zu überdenken, da sonst selbst die besten Methoden, Werkzeuge und Techniken keinen Einfluss auf den Softwareentwicklungsprozess haben, um Ergebnisse zu erzielen in höherer Softwarequalität.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35097-4_7 ba6ac5c8a97138aa049ce98f92b2bf5c;de;;;3.3.;;;Anwendung von Simulationssoftware im Mobilkommunikationskurs Mobile Kommunikation ist ein wichtiger Studiengang für die Fachrichtung Nachrichtentechnik. Nach dem Hintergrund der aktuellen 3G-Ära (der dritten Generation) in China entwickelt sich die Mobilkommunikationstechnologie schnell und weist eine Verzögerung beim experimentellen Unterrichten auf. Die Erforschung eines Lehrsystems zur Verbindung von Theorie und Praxis ist sehr wichtig. Daher schlagen wir die Reform des Lehrplaninhalts und der experimentellen Methoden vor, indem wir die Simulationssoftware WCDMA-Simulationssystem verwenden. Es hilft, das mobile System im Computer zu entwerfen und zu analysieren, anstatt das sehr teure Hardwaresystem im Labor aufzubauen. Die experimentelle Lehrsoftware trägt dazu bei, das Lerninteresse der Schüler zu steigern und eine zufriedenstellende Lehrwirkung zu erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_432 0744b320514711e93bc65c5028a41146;de;;;3.3.;;;Aufbau von Wissen in Entwicklungsregeln für das Schaltungsdesign Inspiriert von der biologischen Entwicklung möchten wir eine Schaltkreis-DNA einführen, die für einen bestimmten Schaltkreis-Design-Organismus entwickelt werden kann. Dieser Organismus ist ein Mitglied einer virtuellen EHW-FPGA-Spezies, die auf ein physisches FPGA abgebildet werden kann. Eine regelbasierte Schaltkreis-DNA, wie sie hier verwendet wird, stellt eine Herausforderung dar, geeignete Regeln für die künstliche Entwicklung eines solchen Organismus zu finden. Um sich dieser Herausforderung zu nähern, kann man sagen, dass die Arbeit hierin forschender Natur ist, um nach Entwicklungsregeln für die Entwicklung selbst des einfachsten Organismus zu suchen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36553-2_7 474f59454b16f2302d074d7929ca3a4b;de;;;1.1.;;;Experimentelle Untersuchung an der Computerbörse CATIn diesem Kapitel werden die Ergebnisse der selbst durchgeführten experimentellen Untersuchung präsentiert, die weiteren Aufschluss über die Problematik des Insiderhandels bieten. Eine Besonderheit der eigenen Untersuchung ist, dass es mit Hilfe der Computerbörse CAT nicht nur gelingt, aggregierte Marktdaten im experimentellen Umfeld zu erheben. Durch die Ausgestaltung als Computerbörse kann auch das Verhalten der Händler aufgezeichnet werden und die Wechselwirkung von Marktprozess und Individualverhalten untersucht werden. Es werden Effekte gezeigt, wie sich Insiderinformationen auf das Verhalten der Insider und der Outsider auswirken und inwieweit die Kurse die private Information reflektieren. Weiterhin werden die Effekte beurteilt, die von der Gefahr ausgehen, dass Insider potenziell im Markt sein könnten. Davon getrennt kann festgestellt werden, welche Wirkung von tatsächlich auftretendem Insiderhandel auf das Teilnehmerverhalten und auf den Marktprozess ausgehen. Bevor die Ergebnisse der eigenen Untersuchung dargestellt werden, wird zunächst das Design der Computerbörse CAT, das eine derartige Untersuchung erst ermöglicht, vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-07932-3_6 e81cbc8ddfac2b0ac67588f57e567b61;de;;;1.1.;;;Entwurf einer Gesellschaftstheorie der ZeitDie Herausarbeitung einer tragfähigen und anspruchsvollen Theorie der sozialen Zeit ist mit der Diskussion phänomenologischer, sozialphänomenologischer, handlungstheoretischer und systemtheoretischer Überlegungen weitgehend abgeschlossen. Dazu war es notwendig, aufgrund der herausgearbeiteten Defizite phänomenologischer find pragmatischer Zeittheorien ein Instrumentarium herauszuarbeiten, das an die Erträge sowohl des einen als auch des anderen Ansatzes anzuschließen versteht. Dieses Instrumentarium meine ich, in dem in Anschluß an Niklas Luhmann explizierten systemtheoretischen Konzept sozialer (und psychischer) Zeit ausreichend erläutert zu haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-14447-2_5 45045c0ff2d231a32b1a9739fd69fbef;de;;;1.1.;;;Darstellung der ISM-TechnikZunächst sei folgendes zum Umfang der ISM-Darstellung in dieser Arbeit angemerkt: Da es sich hierbei um den ersten deutschsprachigen State-of-the-Art-Bericht zur ISM-Technik handelt, erscheint es den Autoren gerechtfertigt, eine umfassende und detaillierte ISM-Darstellung wiederzugeben, um auf diese Weise dem Leser, ohne den Zwang, bei jeder den Einführungscharakter überschreitenden Feinheit auf die originären englischsprachigen Texte zurückgreifen zu müssen, einen fundierten Einstieg in die ISM-Technik zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-85762-0_2 73084a9b042090c29388ae4900eb4c34;de;;;1.1.;;;Legitimitätsgrundlagen und Grad der LegitimitätDie Legitimität administrativer Innovationen wird meist als „Schwarz-Weiß-Bild“gesehen. In zahlreichen Arbeiten wird administrativen Innovationen implizit vollständige Legitimität unterstellt, ohne die Frage nach dem Ursprung oder dem Grad der Legitimität zu thematisieren. Dies gilt beispielsweise für Studien, in denen die Einführung bzw. Umsetzung von Total Quality Management;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-82029-7_3 94e55b34e01a84b7283fc6c5846e76e8;de;;;3.3.;;;Design und Implementierung eines professionellen elektronischen Wörterbuchs für die Multimediatechnik ist einer der zweisprachigen Lehrpläne unserer Fakultät und basiert auf Lehrmaterialien in englischer Originalausgabe. Um unseren Schülern zu helfen, die Materialien reibungsloser zu lesen und das darin enthaltene Wissen besser zu verstehen, haben wir ein professionelles elektronisches Wörterbuch entworfen und implementiert. In diesem Wörterbuch konnten die Schüler nicht nur die chinesische Bedeutung eines Vokabulars abfragen, sondern auch die professionelle Bedeutungserklärung und die damit verbundenen professionellen Wissensanweisungen zu diesem Vokabular anzeigen. Darüber hinaus haben wir die Technologie zur Online-Audioaufnahme und -wiedergabe sowie die Eingabe- und Anzeigetechnologie für phonetische Symbole übernommen. Damit die Schüler auch die phonetischen Symbole sehen und sich die Aussprache des Vokabulars anhören können. Und dies wird ihnen sehr helfen, ihr gesprochenes professionelles Englisch zu verbessern. Erstaunlicherweise konnten Lehrer Wortschatzinformationen bequem über die benutzerfreundlichen Benutzeroberflächen des Wörterbuchs verwalten und aktualisieren. Wenn ein Lehrer die Wortschatzinformationen eines anderen zweisprachigen Lehrplans in das Wörterbuch eingibt, wird er bald in das Wörterbuch eines anderen zweisprachigen Lehrplans geändert. In diesem Beitrag wurden die Architektur- und Funktionsmodelle des Wörterbuchs vorgestellt. Auf dieser Grundlage wurde die Realisierung der Online-Audioaufnahme und -wiedergabe sowie der Eingabe und Anzeige von Lautzeichen ausführlich beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24010-2_38 a3e33ef33d326a5c7d400d7eff99087c;de;;;3.3.;;;Studie zur Technologie des medizinischen Bildlesens basierend auf JPEG2000 Parallel zur Entwicklung der Gesundheitsinformatisierung haben viele Krankenhäuser PACS-Systeme zur zentralen Speicherung der medizinischen Untersuchungsbilder von Patienten eingerichtet. Aufgrund der großen Menge an Bilddaten haben herkömmliche Methoden wie C-MOVE langsame Upload- und Download-Geschwindigkeiten. Und sie haben auch Sicherheitsprobleme. Basierend auf der Forschung und Entwicklung der medizinischen Bildgebungsinformatik und des PACS wird ein JPEG2000-basiertes Verfahren nach PACS-Workflow und DICOM-Standard beschrieben. Dieses Verfahren macht die Bildspeicherung, -übertragung und -anzeige parallel, was eine gute Lösung für Aktualitäts- und Sicherheitsprobleme beim Lesen und Betrachten von Bildern bietet.;-;-;-;https://link.springer.com/article/10.3103/S0146411616040052 6676e9854dfc9ece954097a861dea7da;de;;;3.3.;;;Entwicklung und Leistungstests des automatisierten Gebäudeenergiemanagementsystems mit IoT (ABEMS-IoT) Fallstudie: Große Automobilfabrik In diesem Artikel wurde die Entwicklung des automatisierten Gebäudeenergiemanagementsystems mit dem Internet der Dinge (IoT), sogenanntes aBEMS-IoT, vorgestellt und in der Big-Scale Automobile Factory in Thailand implementiert. Das aBEMS-IoT besteht aus drei Teilen, Hardware, die aus intelligenten Sensoren und Steuergeräten besteht, Software, die aus intelligenten Steueralgorithmen besteht, Bericht, mobile Anwendung und Benachrichtigung durch Anwendung LINE, ein Kommunikationssystem verwendet eine drahtlose Lösung (LoRa) . Die Kommunikations- und Steuergeräte sollen eine Plug & Play-Installation ermöglichen und verschiedene Parameter über das Mobiltelefon einstellen. Darüber hinaus verbindet das aBEMS-IoT eine Datenbank und zeigt die Informationen in einer grafischen Oberfläche an. Die Ergebnisse zeigten, dass das aBEMS-IoT, das in der Automobilfabrik installiert wurde, einwandfrei funktioniert und das Geld von 12% einsparen konnte. Dieses System wird die Technologie zur Unterstützung von Demand Response in der Zukunft sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9354-3_10 a1520b835172bf8178a030334f0e66ed;de;;;3.3.;;;BTSDN: BGP-basierte Umstellung der bestehenden Netze auf SDN Derzeit ist die Architektur des Netzwerkgeräts geschlossen. Dies ist schädlich für die Netzwerkinnovation. Software Defined Networking (SDN) (McKeown 2009) entkoppelt die vertikal gekoppelte Architektur und rekonstruiert das Internet als modulare Struktur. Die Idee von SDN wird sowohl von Wissenschaftlern als auch von Industrieforschern weithin akzeptiert und gilt als vielversprechender Weg zur Neugestaltung des Internets. OpenFlow als typische Instanz des SDN wird von vielen Universitäten und Forschungseinrichtungen auf der ganzen Welt eingesetzt. Die Forschung und die Technologien zur Umstellung der bestehenden Netze auf SDN sind jedoch noch nicht ausgereift. Daher nimmt dieses Papier zum Beispiel die Instanz OpenFlow und schlägt eine einfache und praktische Border Gateway Protocol (BGP)-basierte Übergangslösung namens BTSDN vor. BTSDN erforscht die Eigenschaften des OpenFlow-Netzwerks vollständig, schlägt vor, das aktuelle BGP-Protokoll weiterhin zu verwenden, und behält die alten BGP-Grenzrouter bei, um das OpenFlow-Netzwerk mit dem Rest des Internets zu verbinden. Das Experiment am Ende dieser Arbeit verifiziert vorläufig die Machbarkeit von BTSDN.;-;-;-;https://link.springer.com/article/10.1007/s11277-015-3145-0 6fcce9a842290cb690f78a25c3ecfeb8;de;;;3.3.;;;Analyse der Auswirkungen der Bewertung von Anforderungsspezifikationen auf den Softwareentwicklungslebenszyklus Die Entwicklung einer effizienten und qualitativ hochwertigen Software Requirements Specification (SRS) basiert auf der Bewertung von Softwarequalitätsmerkmalen wie Vollständigkeit, Konsistenz, Machbarkeit und Testbarkeit. Diese Eigenschaften oder Attribute liefern einigermaßen genaue Vorhersagen über systemfreie Bias-Anforderungen und versteckte Annahmen und begrenzen ein nachfolgendes Redesign. Darüber hinaus geben sie realistische Einschätzungen zu Kosten, Risiken und dem Zeitpunkt des Produkts. Dieses Papier zielt darauf ab, mögliche Regeln und Methoden zur Messung der SRS-Qualität zu identifizieren, um den Ingenieuren zu helfen, die Qualität ihrer SRS zu verbessern. Die Auswirkungen dieser Regeln und Methoden auf den Softwareentwicklungslebenszyklus werden ebenfalls untersucht. In diesem Beitrag wurden einige Methoden der SRS-Qualitätsbewertung aus der Literatur analysiert und es wird auch vorgestellt, wie der Einfluss dieser SRS-Qualitätsbewertungsmethoden auf den Softwareentwicklungslebenszyklus gemessen werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58817-5_46 a5ef56a0490e211b9bc54e83461eff2d;de;;;1.1.;;;Gesundheitsförderliche ArbeitsgestaltungAus sozialwissenschaftlicher Perspektive ist die Organisation der Pflege ein Ergebnis sozialer Konstellationen und politischer Entscheidungsprozesse, das vor dem Hintergrund der Systemdynamik des Krankenhauses und des übergeordneten Gesundheitssystems gesehen und analysiert werden muß. Dabei geht es vor allem um die Art und Weise, wie institutionelle Strukturen, unterschiedliche Subgruppen und systemische Akteure, Interessenkollisionen, Ziel- und Konfliktfelder definiert, bestimmt oder idealiter ausgehandelt werden. Es geht weiter darum, wie individuelle Wünsche, Bedürfnisse und Ziele der Mitarbeiter mit den Zielen, Rahmenbedingungen und ökonomischen Grenzen der Organisation vereinbart oder amalgamiert werden können. Der „Subjektivität“des Menschen in komplex vernetzten hochtechnisierten Behandlungsketten innerhalb der Systemdynamik „moderner“Behandlungsformen kommt eine neue Bedeutung zu.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-79382-0_5 24f79ce23f60774d0d08c69363c2e299;de;;;1.1.;;;Welche neuropsychologischen Funktionen können die neuen Antipsychotika verbessern helfen?Neurokognitive Defizite stellen ein zentrales Merkmal schizophrener Störungen dar. Sie treten bereits in frühen Krankheitsstadien auf und sind weitgehend unabhängig von der Chronizität der Erkrankung, der antipsychotischen Medikation oder Positivsymptomen. Generell wird davon ausgegangen, dass schizophrene Patienten Defizite in verschiedensten neurokognitiven Domänen aufweisen, und zwar in erster Linie in den Bereichen Aufmerksamkeit, Exekutivfunktionen, Gedächtnis und Feinmotorik. Trotz ihrer Wirksamkeit in der Reduktion psychotischer Symptome zeigen konventionelle Antipsychotika lediglich einen minimalen Effekt hinsichtlich der Verringerung von neurokognitiven Defiziten. Im Vergleich dazu scheint die diesbezügliche Wirkung von neueren Antipsychotika unterschiedlich und vielversprechend zu sein. Insgesamt führen jedoch auch diese Substanzen nicht zu einer Normalisierung der neurokognitiven Defizite, und vergleichende Aussagen über eine diesbezügliche Überlegenheit eines neuen Antipsychotikums über ein anderes sind im Moment nur bedingt möglich.;-;-;-;https://link.springer.com/article/10.1007/s11326-007-0037-2 684835d7c470a88efc459f5d64e1d798;de;;;3.3.;;;Modellierungsmethoden für Pharmakoökonomie und Health Technology Assessment Dieses Papier bietet einen Überblick und eine Anleitung, wann, warum und wie verschiedene Simulationsmodellierungsmethoden im Gesundheitswesen ausgewählt und verwendet werden sollten. Was Simulation ist und warum sie für die Behandlung von Gesundheitsproblemen notwendig ist, wird diskutiert. Darüber hinaus werden Schlüsselkriterien für die Auswahl einer geeigneten Methode (Projekttyp, Bevölkerungsauflösung, Interaktivität, Umgang mit Zeit und Raum, Ressourcenbeschränkungen, Autonomie und Einbettung von Wissen) behandelt. Schlüsselkonzepte für jede Methode, von den einfachsten zu den komplexesten Methoden, werden ausführlich behandelt.;-;-;-;https://link.springer.com/article/10.2165/00019053-200826020-00004 be980948f46343ffd70a0282dda8d9c2;de;;;1.1.;;;Spieltheorie, Dynamik und InteraktionIn diesem Teil der Arbeit werden zwei Problembereiche der untersuchten Positionierungsmodelle in den Mittelpunkt der Betrachtung gestellt: Den Modellen fehlt eine dynamische Formulierung und die lokalen Interaktionen werden nur unzureichend berücksichtigt. In den gleichgewichtsanalytischen Modellen beziehen die Entscheider die Strategien aller anderen Wettbewerber in ihr Kalkül ein. Insofern wird auf eine globale Interaktion aller Marktteilnehmer abgehoben, die entsprechend hohe Anforderungen an die Informationsbeschaffungsund Informationsverarbeitungskapazitäten der Spieler stellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-97803-5_3 a424347193d09fd936dd22452a6dcf47;de;;;1.1.;;;Die Nutzungsdauer langlebiger Gebrauchsgüter als Objekt wirtschaftswissenschaftlicher ErkenntnisGlobale und regionale Herausforderungen an die Unternehmen induzieren stets ökonomische und gesellschaftliche Strukturänderungen und fordern vom Management die Bewältigung immer neuer, strategischer Probleme. So zwingen beispielsweise der weltwirtschaftliche Strukturwandel, Veränderungen der internationalen Arbeitsteilung, Instabilitäten des wirtschaftlichen Wachstums und der Beschäftigung, steigende Rohstoff-, Arbeits- und Energiekosten, wachsendes Sozial- und Umweltbewußtsein u.a.m. zu Anpassungen bei der betrieblichen Leistungserstellung. Bei zunehmender nationaler und internationaler Konkurrenz resultieren daraus in technologieorientierten Industrien Veränderungen in den Produktionssortimenten und bei den Produktionsprozessen. Die innovative Nutzung von Technologien zur Produktion von “intelligenten” Produkten wird dadurch forciert. Innovationen um ihrer selbst willen, also aus Freude an ingeniöser Perfektion, sind aber keine geeignete Strategie zur Lösung der erwachsenen Probleme.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-14598-1_1 7a08c62a21c4a62741a8dd5e758dbef3;de;;;1.1.;;;Sinn: Operativität und TypikIn diesem Kapitel stehen wesentliche Fragestellungen und Begriffe einer operativ-ereignisorientierten Epistemologie der Organisation im Vordergrund. Die Darstellungslogik führt vom thematischen Aufhänger „Organisation und Wissen“ zu den verschiedenen theoretischen Perspektiven. Der Wissensbegriff hat im Organisationsdiskurs der letzten Jahren sowohl im Rahmen populär und praktisch orientierter Management- und Organisationslehren als auch in wissenschaftlichen Reflexionen stark an Popularität gewonnen und fungiert dabei als ein Kompaktbegriff, der die Beschreibung unterschiedlicher Form- und Funktionsaspekte von Organisationen neu konturiert. Sowohl organisationsinterne als auch organisationsexterne Aktivitäten und Verhältnisse werden als Wissensphänomene beschrieben und Organisationen insgesamt als kulturelle und sozial-diversifizierte Gebilde begriffen. Die thematische Diskussion ermöglicht es, relevante Fragestellungen, Begriffe und theoretische Desiderate einer sinntheoretischen Organisationsanalyse zu identifizieren und zu adressieren, in denen es um operative Modi der Sinnbewegung und typisierende Strukturen der Sinnfestlegung geht. Als begriffliche Vorschläge für die Bestimmung dieser Ereignis-Struktur-Relation werden Kognition und Schema, soziale Kognitionen und Kultur, Handlungspraxis und Regel sowie Kommunikation und Semantik erörtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-17649-5_2 3050ba255e0f10efbe51428fe2cb6e78;de;;;1.1.;;;Die Notwendigkeit der Literatur: Wellershoffs essayistisches und theoretisches Werk“Ich will etwas schreiben können, das ganz und gar notwendig ist, notwendig wie ein Haus oder ein Glas Wein am Abend, nein, natürlich noch notwendiger.” (Peter Handke, ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-19800-0_2 7227f5ebf0451461147f205b02f48702;de;;;1.1.;;;Grundlagen der Top-down-Innovation aus TopmanagerperspektiveDas zweite Kapitel legt die theoretisch-konzeptionellen Grundlagen für die Auseinandersetzung mit den ersten beiden Forschungsfragen (vgl. Abschnitt 1.3), die sich mit den Einflussmöglichkeiten von Topmanagern auf die Unternehmensinnovativität befassen. Die zentralen Ziele dieses Kapitels bestehen somit darin, ein einheitliches Verständnis der für diese Arbeit relevanten Phänomene zu entwickeln, die bisherigen Erkenntnisse der Forschung zu diesen Phänomenen aufzuarbeiten und eine theoretische Fundierung für die Untersuchung der Forschungsfragen zu legen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-06841-7_2 5e022eb6b342d7f5012f916669df36b1;de;;;1.1.;;;Neurobiologische Ursachen und psychosoziale Bedingungen individueller GewaltDie Anwendung körperlicher individueller oder kollektiver Gewalt ist ein überwiegend männliches Phänomen, dem ein komplexes Bedingungsgefüge neurobiologischer und psychosozialer Faktoren zugrunde liegt. Dieses Thema spielte in der psychiatrischen Fachliteratur bislang kaum eine Rolle, was verwundert, obwohl die Folgen allseits unübersehbar sind und Aggression ebenso zu den basalen menschlichen Emotionen gehört wie Angst, Depression oder Euphorie.;-;-;-;https://link.springer.com/article/10.1007/s00115-012-3610-x 381421261dd647d988a69e8abb23d2e5;de;;;1.1.;;;Berührungslose Augen- und BlickbewegungsmessungFür die Untersuchung ergonomischer Fragestellungen bietet sich der Einsatz berührungsloser Blickerfassungssysteme an. Am FKIE wird zurzeit das System SmartEye Pro verwendet, um Kopfstellung, Blickrichtung und Bewegungen des Augenlides von Probanden in Echtzeit zu erfassen. In zwei Vorstudien wurden die Auswirkung verschiedener Kalibrierungseinstellungen auf die Trackingqualität und die Qualität der Messung von Sakkaden und Fixationen evaluiert. Es zeigte sich, dass das System geeignet ist, statistische Aussagen in Bezug auf Blickbewegungen und Lidschlussverhalten zu generieren. Jedoch ist die Bestimmung von Sakkaden- und Fixationsparametern nur eingeschränkt möglich. Unter Berücksichtigung dieser Restriktionen wird das System zurzeit in einem Verbundforschungsprojekt mit der Deutschen Sporthochschule Köln und dem Zentralen Institut des Sanitätsdienstes der Bundeswehr Koblenz zur Erfassung der psycho-physiologische Leistungsfähigkeit von Soldaten verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78331-2_21 cb038dd686b79542f4e14be5b2704643;de;;;1.1.;;;Diagnostische Instrumente, Therapieplanung und TherapieverlaufskontrolleBei der Behandlung und Rehabilitation von schizophren Erkrankten fällt auf, dass nur bei wenigen Patienten hinreichend ausgearbeitete Fallkonzeptionen durchgeführt werden. Unter einer Fallkonzeption sind zu verstehen: die systematische und möglichst standardisierte Ressourcen- und Problembeschreibung (Was kann die betroffene Person gut? Welches sind ihre Alltagsprobleme?), Diagnoseerhebung (z. B. Testdiagnostik, Psychopathologie), Anamnese und eine daraus konsequent abgeleitete kurz‑, mittel- und langfristige Behandlungsplanung. Eine gute und sorgfältig durchgeführte Fallkonzeption hilft den Therapeuten, frühere Fehler zu vermeiden und eine durch „Versuch und Irrtum“ gekennzeichnete Vorgehensweise bei der Behandlungs- und Rehabilitationsplanung zu minimieren. Beispielsweise kann eine genaue Rückverfolgung medikamentöser oder soziotherapeutischer Interventionen verhindern, dass ein Patient, der vor fünf Jahren einmal Medikament xy oder Arbeitstherapie yz erfolglos erhielt, heute erneut mit dieser Behandlungsform konfrontiert wird. Es ist auch nicht sinnvoll, einem Patienten eine INT-Gruppe zu verordnen, ohne vorher seine Probleme und Ressourcen im neurokognitiven und/oder sozialkognitiven Bereich zu evaluieren und ohne einen Besuch der INT-Gruppe in eine umfangreiche Behandlungs- und Rehabilitationsplanung einzubetten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21440-0_4 1559b393f69fb8b61a17012c036fe8eb;de;;;1.1.;;;Mikroanalyse in der PolitikwissenschaftDie Politikwissenschaft sucht und findet ihre Gegenstände meist auf der Makroebene. Dort studiert sie Parlamente und Regierungen, ganze Regierungssysteme und internationale Regime. Oft begibt sie sich auch auf die Mesoebene, wo sie sich Parteien,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-85132-1_9 ec55f4b47087fb97a243e8ce0eee6b44;de;;;1.1.;;;Konzeptionelle AbgrenzungKundenbeziehungsmanagement wird oft als eigenständige Managementphilosophie dargestellt, die auf Kunden und die zugehörigen Kundenbeziehungen fokussiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-3754-4_2 f68603b966c84300a6f947976ebd30ec;de;;;1.1.;;;Bewertung der strategischen Option des 4PL-Providing: Struktur und konzeptionelle ÜberlegungenZiel dieses Kapitels ist es, im Rahmen einer konzeptionellen Strategiediskussion strukturelle Grundlagen für die Bewertung der strategischen Option des 4PL-Providing aus der Sicht des Kontraktlogistikdienstleisters zu erarbeiten. Im Rahmen konzeptioneller Überlegungen werden erste Thesen generiert, die Aussagen über das Erfolgspotential von 4PL-Providing beinhalten und Basis sind für die sich in Kapitel 4 anschließenden explorativ-empirischen Untersuchungen. Hierzu ist das folgende Kapitel in zwei Hauptabschnitte untergliedert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-9184-9_3 6180e3c6e0049fa709dcca694167b9d0;de;;;1.1.;;;Axiomatische GrundlagenDer Beweis einer mathematischen Aussage besteht darin, dass man sie mithilfe logischer Schlüsse auf bereits bewiesene Aussagen zurückführt. Dabei stößt man schließlich auf „grundlegende“ Aussagen, die man ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-48774-7_5 861e04faad1c5f4c410eaf197f8205f2;de;;;1.1.;;;Das ErklärungsmodellHandeln ist schon nach Max Weber (1980: §1) mit einem subjektiven Sinn verbunden. Es dient der Lösung von Problemen, die sich aus der fortwährend notwendigen Existenzsicherung ergeben. So ist auch generatives Handeln weder willkürlich noch unstrukturiert, sondern zielgerichtet mit Blick auf eine optimale Realisierung von Bedürfnissen. Unter dieser Maßgabe rückt die Instrumentalität von Kindern in den Mittelpunkt: Was können sie für die elterliche Bedürfnisbefriedigung leisten? An Hand des Konzeptes des Wertes von Kindern werden zentrale Bedeutungsinhalte von Kindern herausgearbeitet, die nicht etwa neu sind, sondern bereits mit unterschiedlichen Etikettierungen thematisiert, allerdings nie in einen theoretisch begründeten Gesamtzusammenhang gestellt wurden: Die Bedeutung von Kindern lässt sich auf den Dimensionen Komfort, soziale Wertschätzung sowie Affekt & Stimulation beschreiben, wobei ihre Position keineswegs immer nur im Nutzenbereich liegen muss. Es werden Gründe die ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-90979-0_5 227abab014cbbc81105bfffdaff26a83;de;;;3.3.;;;Die Verwendung von Fuzzy-Logik in der Produktfamilienentwicklung: Literaturübersicht und Möglichkeiten and In den letzten Jahren wurden eine Reihe von Schlüsselthemen im Zusammenhang mit dem Produktfamiliendesign angegangen und es wurde viel daran gearbeitet, es zu verbessern. Dabei wurden viele verschiedene Werkzeuge eingesetzt, wie zum Beispiel Massenanpassung, Modularität, verzögerte Differenzierung, Kommunalität, Plattformen, Produktfamilien und so weiter. Der Zweck dieses Papiers besteht darin, zu analysieren, wie Fuzzy-Logik angewendet wurde und wie sie dazu beitragen kann, den gesamten Prozess der Produktfamilienentwicklung zu verbessern. Angesichts ihrer leistungsstarken Fähigkeit, Aspekte darzustellen, die binäre Variablen nicht darstellen können, zeigen wir, wie Fuzzy-Logik verwendet wurde, um Vorteile zu erzielen, indem die vagen Parameter in Bezug auf den menschlichen Charakter in verschiedenen Prozessen berücksichtigt werden. Unser Ziel ist es, zum Verständnis und zur Verbesserung des Produktfamilienentwicklungsprozesses beizutragen, indem wir wesentliche Anwendungen der Fuzzy-Logik identifizieren. Es wird ein erweiterter Überblick über den Entwicklungsprozess von Produktfamilien gegeben, und auch diese Arbeit beleuchtet die Rolle der Fuzzy-Logik darin. Vierzehn Fuzzy-Logik-Tools und dreizehn Themen in den Produktfamilien-Entwicklungsprozess werden identifiziert und als Framework zusammengefasst, um die Rolle der Fuzzy-Logik zu analysieren und gleichzeitig weitere Anwendungsmöglichkeiten zu identifizieren.;-;-;-;https://link.springer.com/article/10.1007/s10845-010-0465-5 df4b4c7d24ff029069f06533456da31e;de;;;3.3.;;;Informationstechnologie zur Erkennung von Botnets basierend auf ihrem Verhalten im Corporate Area Network Es wird eine neue Informationstechnologie zur Botnet-Erkennung basierend auf der Analyse des Verhaltens der Botnets im Corporate Area Network vorgeschlagen. Bei der Botnet-Erkennung werden zwei Methoden kombiniert: die Analyse auf Netzwerkebene und auf Hostebene. Ein Ansatz ermöglicht es, das Verhalten der Software im Host zu analysieren, was auf das mögliche Vorhandensein von Bots direkt im Host hinweisen und Schadsoftware identifizieren kann, ein anderer beinhaltet die Überwachung und Analyse des DNS-Verkehrs, die Rückschlüsse auf Infektionen von Netzwerkhosts mit Bot des Botnets. Basierend auf dieser Informationstechnologie wurde ein effektives Botnet-Erkennungstool BotGRABBER entwickelt. Es ist in der Lage Bots zu erkennen, die solche Umgehungstechniken wie das zyklische IP-Mapping, „Domain Flux“, „Fast Flux“, DNS-Tunneling verwenden. Die Nutzung des entwickelten Systems ermöglicht es, infizierte Hosts durch Bots der Botnets mit hoher Effizienz zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-59767-6_14 73fa7bb28907a781c344d4e2c7452e77;de;;;3.3.;;;Überlegungen zum Design von Parallel Programming Frameworks Da die parallele Programmierung viel komplexer und schwieriger ist als die sequentielle Programmierung, ist es schwieriger, die gleiche Softwarequalität in einem parallelen Kontext zu erreichen. Parallele Programmiermodelle auf hoher Ebene könnten, wenn sie als Software-Frameworks implementiert werden, die Produktivität und Zuverlässigkeit erhöhen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-70006-5_7 c2eef01714922219c2556f6b501a5fa9;de;;;3.3.;;;HPC-Software zur massiven Analyse der parallelen Effizienz von Anwendungen Effizienz ist eine der größten Schwächen moderner Supercomputer. Die geringe Effizienz von Benutzeranwendungen ist einer der Hauptgründe dafür. Es gibt viele Softwaretools zum Analysieren und Verbessern der Leistung von parallelen Anwendungen. Benutzer von Supercomputern verfügen jedoch oft nicht über ausreichende Kenntnisse und Fähigkeiten, um diese Werkzeuge in ihrem speziellen Fall richtig anzuwenden. Außerdem wissen Benutzer oft nicht, dass ihre Anwendungen ineffizient arbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-28163-2_1 859ce11bfd986cc71983441d64101abc;de;;;1.1.;;;Methode: Erhebungs- und AuswertungsinstrumenteDas Kapitel ist in vier Teile gegliedert: Zunächst wird die Wahl des Delphi-Verfahrens begründet, indem die wichtigsten Merkmale und die Herkunft des Verfahrens beschrieben werden und die Eignung des Verfahrens für die Ziele dieser Arbeit diskutiert wird. In einem zweiten Abschnitt wird die untersuchte Stichprobe beschrieben, ein dritter beschreibt anschließend das genaue Vorgehen bei der Untersuchung, das leicht von dem typischen Delphi-Verfahren abweicht. Das Kapitel wird von der Beschreibung der Auswertungsinstru-mente abgeschlossen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-90562-8_7 fe8aee3b22511bc50a9be6938f631a32;de;;;3.3.;;;Sprachdesign und -implementierung durch die Kombination von Embedding und Parsing Language Embedding ist eine Methode, um eine neue Sprache im Rahmen einer bestehenden Programmiersprache zu implementieren. Diese Methode ist dafür bekannt, den Entwicklungsprozess im Vergleich zu eigenständigen Sprachen mit klassischer Compiler-Technologie zu beschleunigen. Andererseits sind eingebettete Sprachen für den Endbenutzer möglicherweise nicht so praktisch wie eigenständige Sprachen mit eigener konkreter Syntax. Dieses Papier beschreibt eine Methode, die die Flexibilität der Spracheinbettung in der experimentellen Phase des Sprachdesignprozesses nutzt, dann, sobald die Sprachmerkmale ausgereift genug sind, eine konkrete Syntax hinzufügt und die Sprache in eine eigenständige Sprache verwandelt. Erkenntnisse aus einem Projekt, das in der Industrie-Hochschulkooperation durchgeführt wurde und die vorgestellte Methode anwenden, werden diskutiert. Basierend auf diesen Ergebnissen wird ein Kostenmodell erstellt, mit dem der potenzielle Nutzen dieser Methode für zukünftige Sprachdesignprojekte abgeschätzt werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44920-2_9 d8b2fd7b5cb6c8761765514c504292a2;de;;;3.3.;;;Leistungsmanagement in geclusterten Edge-Architekturen mit Particle Swarm Optimization In jüngster Zeit werden verteilte Rechenkapazitäten an den Rand des Internets gebracht, was es Internet-of-Things-Anwendungen ermöglicht, Berechnungen umso lokaler und in der Folge produktiver zu verarbeiten, und dies hat einen ganz anderen Geräteumfang und Nutzen gebracht. Dieses Instrument kann Die wichtigsten charakterisierenden Highlights der Edge-Verarbeitung sind niedrige Latenz, Standorterkennung, weite geografische Verteilung, Vielseitigkeit, Unterstützung für unzählige Knoten usw. Wir möchten die Latenz und Verzögerung bei Edge-basierten Strukturen wahrscheinlich begrenzen. Wir konzentrieren uns auf ein fortschrittliches kompositorisches Setting, das Kommunikations- und Verarbeitungsverzögerungen sowie den Verwaltungsaufwand trotz einer realen Anforderungsausführungszeit in einer betrieblichen Effizienzsituation berücksichtigt. Unser Design basiert auf Multi-Cluster-Edge-Layer mit nahegelegenen autonomen Edge-Knoten-Clustern. Wir werden behaupten, dass die Partikelschwarmoptimierung als biomotivierter Optimierungsansatz ein perfekter Kandidat für das verteilte IoT-Lastenhandling in selbstverwalteten Edge-Clustern ist. Durch den Entwurf eines Controllers und die Verwendung eines Partikelschwarm-Optimierungsalgorithmus zeigen wir, dass Verzögerung und End-to-End-Latenz reduziert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72369-9_10 832d98a354df8e65f3c51fc09a905c58;de;;;1.1.;;;Methodischer Rahmen der UntersuchungVor dem Hintergrand der empirisch zu bearbeitenden Fragestellung nach der Relevanz einer expliziten Reflexion und Berücksichtigung von Alltagsphantasien innerhalb von Vermittlungsprozessen wird der methodische Rahmen der vorliegenden Arbeit durch eine Vielzahl unterschiedlicher Erhebungs- und Auswertungsverfahren bestimmt. Dabei bot sich eine Kombination von qualitativen und quantitativen Forschungsmethoden an: Das Spektrum der Erhebungsmethoden reicht von Fragebögen über Wissenstests und Gruppendiskussionen bis hin zu einer unterrichtsbegleitend eingesetzten Projektmappe (bzw. Lerntagebuch). Die einzelnen Erhebungsinstrumente sowie die methodischen Vorgehensweisen werden im Folgenden getrennt für die Vor- und Haupterhebung dargestellt und näher erläutert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-90704-8_6 b7f83c89a60692d8f32d2037cdc8c7e6;de;;;3.3.;;;Schwachstellen in Fog/Edge Computing aus architektonischer Sicht In letzter Zeit generiert das aufkommende IoT-Paradigma eine enorme Menge heterogener Daten, die von digitalen Geräten in Netzwerke ausgelagert werden. Die Heterogenität dieser großen IoT-Daten erfordert, dass die Netzwerke ihre Rechenleistung von der Cloud bis zum Edge erweitern, um ein neues Fog/Edge-Computing (FEC)-System zu realisieren. Das FEC-System stellt den Benutzergeräten entsprechend den Dienstanforderungen mehrere zufriedenstellende Niveaus in Bezug auf Leistung, Latenz, Sicherheit usw. bereit. Da sich das FEC-System zwischen der Cloud und den Benutzergeräten befindet, führt dieser ergänzende Teil mehrere Schwachstellen an den Nord- und Südschnittstellen sowie zwischen internen FEC-Komponenten ein. Dieses Kapitel analysiert offene Sicherheits- und Datenschutzprobleme in FEC aus architektonischer Sicht. Zunächst wird ein umfassender Überblick über Computational Cloudization gegeben, der zu einer hierarchischen Computing-Architektur im Netzwerk führt. Darauf aufbauend werden Schwachstellen innerhalb jedes Architekturmodells, wie intrinsische FEC, die Standard-Referenz-FEC-Architektur, FEC-Virtualisierung und FEC-Integration in das 5G-Netzwerk, detailliert diskutiert. Abschließend fassen wir das Kapitel im letzten Abschnitt zusammen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-57328-7_8 d4e1783c3d9185790d61af0a7c178155;de;;;3.3.;;;Urban Analytics im Crowd Management im Kontext von Hajj Das effiziente Management von überfüllten Veranstaltungen bleibt eine Herausforderung, hauptsächlich aufgrund mehrerer Faktoren, die Infrastruktur, Massendynamik und Servicebereitstellung umfassen. Trotz wiederholter Katastrophen wie Massenstürmen, Bränden und Unruhen, die zu vielen Situationen führen, die die persönliche Sicherheit von Menschenmengen ernsthaft gefährden, gibt es keine universellen Kriterien und Standards für die Kontrolle und das Management von Menschenmengen. Die Pilgerfahrt Hadsch ist die fünfte Säule des Islam. Jedes Jahr versammeln sich Muslime auf der ganzen Welt in Mekka, Saudi-Arabien, um eine Reihe von Ritualen und Gebeten durchzuführen. In diesem Artikel beschreiben wir Massenanalysen bei der Untersuchung von Pilgermassen, die am jährlichen muslimischen Ritual des Haddsch teilnehmen. Für die Massenanalyse im Hadsch wurden Technologielösungen vorgeschlagen. Diese Lösungen reichen von unbemannten Luftfahrzeugen (UAVs) bis hin zu Mobile Crowd Sensing and Computing (MCSC). Wir beschreiben Trends und Herausforderungen in der Urban Analytics für Crowd Monitoring und Management im Hadsch.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-39910-2_23 635c317341f2a36e8afe06729833b867;de;;;3.3.;;;Bekämpfung von Infektionskrankheiten: Dynamik und Informatik Das Verständnis der Dynamik einer Infektionskrankheit ist der Schlüssel für die Entwicklung wirksamer Kontrollstrategien aus der Perspektive der öffentlichen Gesundheit. Es gibt zwei Ansätze zur Modellierung der Dynamik von Epidemien, nämlich (1) dynamische mathematische Modellierung und (2) Inzidenzdatenmodellierung. Neuere mathematische Modelle sind hilfreich, um die Ausbreitung (Übertragung) der Infektionskrankheiten zu verstehen. Inzidenzdaten zeigen nach und nach die Zahl der anfälligen Personen, die sich zu infektiösen Personen entwickeln, wenn sie mit den infizierten Personen in Kontakt kommen. Somit können die Inzidenzdaten die Dynamik beschreiben, die zum Langzeitverhalten führt. Diese Modelle unterscheiden sich von dynamischen mathematischen Modellen insofern, als die letztere Klasse der Modelle mit den Phänomenen der Epidemien validiert werden muss. In den letzten Jahren entstand ein relativ neuer Wissenschaftszweig, der als Informatik bekannt ist und sich auf die Informationsverarbeitung und Entscheidungsfindung bezieht, und dieses Wissen wird häufig verwendet, um die Dynamik realer Prozesse wie Epidemien vorherzusagen. In diesem Kapitel entwickeln wir Designstrategien für die Kontrolle einfacher Epidemien nach diesen beiden Ansätzen. Wir schlagen ein realistisches mathematisches Modell zur Bekämpfung von Infektionskrankheiten vor, das die gegenseitige Beeinflussung der interagierenden Populationen berücksichtigt. Eine neue Architektur basierend auf einer kürzlich entwickelten neuen Klasse von neuronalen Netzwerken, die als kooperative und unterstützende neuronale Netzwerke bekannt sind, wird verwendet, um eine realistischere Schätzung der Ausbreitungsrate der Infektionskrankheit zu erhalten, die ein wichtiges Anliegen der Feldwissenschaftler ist. Weiterhin wird eine neuronale Netzwerkarchitektur entwickelt, um die Parameter des mathematischen Modells vorherzusagen. Die Anwendung dieser Architektur auf die vorliegende Studie beinhaltet eine Vorverarbeitung der Eingangsdaten, was eine effiziente Schätzung der Ausbreitungsgeschwindigkeit der Epidemie ermöglicht. Es wird beobachtet, dass das vorgeschlagene neue neuronale Netzwerk ein einfaches neuronales Feed-Forward-Netzwerk und eine polynomiale Regression übertrifft. Darüber hinaus erstellen wir anhand von Inzidenzdaten ein mathematisches Modell, das einer logistischen Regressionsmethode folgt. Die Anwendung der Informatik zur Untersuchung der Dynamik von Infektionskrankheiten hat zu einem neuen Verständnis der Krankheit im Hinblick auf die Gestaltung wirksamer Kontrollmechanismen aus der Perspektive der öffentlichen Gesundheit geführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-9224-5_1 4e4994d7cc056d2dd27abb5bc946e019;de;;;3.3.;;;Ort! Ort! Ort! Der Beitrag des Architekten zum IoT für das Gesundheitswesen Dieses Papier zielt darauf ab, die IoT-Community von Wissenschaftlern und technischen Forschern in die Konzepte einzuführen, die für BIM und den architektonischen Entwurfsprozess in großen Gesundheitsprojekten integral sind. Dieses Papier stellt insbesondere das Potenzial von BIM-Datenbanksystemen als primäre Quellen für Gebäudeinformationen und Standortdaten für IoT-Systeme vor und macht Vorschläge für weitere Studien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19656-5_24 b9528f292b8c4735bf189792c2144d08;de;;;3.3.;;;Hardwareimplementierung von Operationen der relationalen Algebra Das relationale Datenbankmodell, das von Codd in [1, 2, 3, 4, 5] eingeführt wurde, hat in den letzten Jahren große Aufmerksamkeit erfahren. Die Vorteile des relationalen Datenmodells in Bezug auf Einfachheit, Symmetrie des Zugriffs und Datenunabhängigkeit werden zunehmend anerkannt. Ein weiteres Merkmal des relationalen Modells besteht darin, dass die Datenbank durch hochrangige, nichtprozedurale Datenbearbeitungssprachen manipuliert werden kann [6,7]. Das vielleicht wichtigste Merkmal des relationalen Datenbankmodells ist, dass es auf starken theoretischen Grundlagen basiert [8]. Dies ermöglicht ein effizientes Design von Datenbankschemata. Dies wird im Allgemeinen mit der Normalisierungstheorie [5, 9] erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82937-6_15 63964b8aac261af5cfc5dac34bdffd49;de;;;3.3.;;;Flexible Architektur selbstorganisierender Karten für sich ändernde Umgebungen Katastrophale Interferenz ist ein bekanntes Problem von Lernalgorithmen in künstlichen neuronalen Netzen (KNN), bei denen das KNN nützliches Wissen vergisst, während es aus neuen Daten lernt. Außerdem muss die Struktur der meisten neuronalen Modelle im Voraus ausgewählt werden.;-;-;-;https://link.springer.com/chapter/10.1007/11578079_67 8667ce61c3b08dc01b905f25547cafe6;de;;;1.1.;;;Entscheidungsfindung mit Big Data – Einsatz fortschrittlicher Visualisierungsmöglichkeiten zur Komplexitätsbeherrschung betriebswirtschaftlicher Sachverhalte im UnternehmenBig Data löst derzeit eine Managementrevolution aus. Die Umstellung einer Organisation auf Big Data bringt enorme Herausforderungen mit sich. Dabei sind sowohl das Tempo der Datenerzeugung als auch die Mengen und Strukturen relevant. Den Unternehmen liegen die Daten zum größten Teil poly-strukturiert, semi-strukturiert oder weitestgehend unstrukturiert vor. Für die Lösung komplexer Aufgaben, für die vermeintlich zu viele Informationen zur Verfügung stehen, kann es zu Engpässen in der menschlichen Verarbeitungskapazität kommen. In Big Data liegt hier großes Potenzial, das es zu erkennen und auszuschöpfen gilt, um die Entscheidungsqualität zu erhöhen. Fortschrittliche Visualisierungsformen können unter Berücksichtigung wahrnehmungspsychologischer Erkenntnisse dazu beitragen, Big Data visuell so aufzubereiten und darzustellen, dass diese sowohl zu Analyse- als auch zu Präsentationszwecken entscheidungsunterstützend genutzt und in ihrer Komplexität beherrscht werden können. Gerade in der Analyse liegt hier enormes Potenzial, das Unternehmen nutzen können, um sich Wettbewerbsvorteile zu sichern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-01284-7_14 372a62c4bd6643882f9861142bd24ac7;de;;;3.3.;;;Indoor-WIFI-Lokalisierung auf eingebetteten Systemen Lokalisierung ist in letzter Zeit für das Ubiquitous Computing immer wichtiger geworden. Die meisten eingebetteten Geräte erfordern standortbasierte Dienste für Überwachungs- und Verfolgungszwecke. Typischerweise können die von diesen Geräten bereitgestellten Ortungsdienste unter Verwendung eines globalen Positionsbestimmungssystems (GPS) erreicht werden. Obwohl GPS die absolute Position basierend auf einem Satellitensystem anzeigen kann, haben mehrere Studien seine Ungenauigkeit beim Einsatz in Innenräumen aufgrund der Signalverschlechterung durch Hindernisse und Gebäudestrukturen gezeigt. In diesem Artikel haben wir ein Testbed entwickelt, das Indoor-Positionierungsdienste basierend auf der Multi-Lateration-Technik bereitstellt. Die empirischen Ergebnisse haben gezeigt, dass ein geeignetes Indoor-Ausbreitungsmodell die Positionierungsgenauigkeit verbessern kann, mehrere Ausbreitungsmodelle wurden untersucht und statistische Modelle für eine ortsspezifische Umgebung vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46578-3_8 45838175f381bff90b261368d2bb2a2a;de;;;3.3.;;;Strategien zur Service-Komposition in P2P-Netzwerken In letzter Zeit hat der Fortschritt serviceorientierter Architekturen und Peer-to-Peer-Netze zur Schaffung von serviceorientierten Peer-to-Peer-Netzen geführt, die einen verteilten und dezentralisierten Dienstemarkt ermöglichen. Neben der Nutzung einzelner Dienste unterstützt dieser Markt die Zusammenführung von Diensten zu neuen Diensten, einen Prozess namens Service Composition. Es wird jedoch argumentiert, dass dieser Prozess derzeit nur von spezialisierten Kollegen, sogenannten Service Composer, durchgeführt werden kann. Dieses Papier beschreibt den neuen Markt, der von diesen Service Composer geschaffen wurde, und modelliert mathematisch die Bausteine, die für eine solche Service-Komposition erforderlich sind. Ein entwickelter allgemeiner Algorithmus zur Dienstzusammensetzung kann unabhängig von Lösungen für semantische Schwierigkeiten und Schnittstellenanpassungsprobleme der Dienstzusammensetzung verwendet werden. In einem Szenario für den Kauf eines verteilten Rechendienstes werden simulierte Strategien nach ihrer Skalierbarkeit und dem damit verbundenen Marktnutzen bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75993-5_6 6ed54fa2a5acefe4c94a852b2658105e;de;;;3.3.;;;Testen von mobilen Agenten Für die kommenden Jahre ist eine deutliche Zunahme der Nutzung von Softwaresystemen mit mobilem Code zu prognostizieren. Diese Systeme führen zu neuen Entwicklungsproblemen im Vergleich zu aktuellen verteilten Systemen. Insbesondere muss beim Testen solcher Systeme die Mobilität der getesteten Prozesse berücksichtigt werden, was es schwierig macht, Kontaktpunkte zwischen Testen und getesteten Prozessen aufrechtzuerhalten. Wir schlagen eine Lösung vor, die auf der Simulation der Umgebung mobiler Prozesse basiert. Um einen solchen Simulator zu entwickeln, müssen wir die Begriffe verschiedener Plattformen abstrahieren, die die Ausführung mobiler Prozesse ermöglichen, indem wir eine gemeinsame API zwischen diesen Plattformen und unserem Simulator bereitstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35497-2_7 dcf549e62ee0a2b34c329b69974f1088;de;;;1.1.;;;Technik, Akteure, Handeln und SkripteUm das Wirken von Überwachungstechnik wie Profiling und die jeweilige Einflussverteilung der Akteure in Profiling-Konstellationen analytisch differenziert betrachten zu können, werde ich in diesem Kapitel als erstes auf die Beantwortung der Frage nach der Handlungsträgerschaft von Technik eingehen (Kann Technik menschliches Handeln aktiv beeinflussen?), um mich dann der Frage nach der Differenzierung unterschiedlicher Arten von Technik in Bezug auf die Handlungsträgerschaft zu widmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-16969-5_3 895690c6f9781f98e7486b8ed7c5da75;de;;;1.1.;;;Neuere Methoden in der MarktforschungIn den letzten zehn Jahren hat sich das Denken und Handeln in Wirtschaftsforschung und -praxis grundsätzlich gewandelt. Planung, Organisation und Kontrolle erfolgen in einer Wirtschaft des Überflusses nicht mehr primär produktionsorientiert, sondern mehr marktorientiert. Diese Tatsache ist größtenteils zurückzuführen auf bestimmte Sättigungserscheinungen in vielen Konsumgüterbereichen, auf das zunehmende Verbraucherbewußtsein, die daraus resultierenden Forderungen nach höherer Lebensqualität und nicht zuletzt auf die ständig zunehmende Verschärfung der Wettbewerbssituation.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-67616-1_31 cb9ac146cf628ce13cc33dbfd15bbaea;de;;;3.3.;;;Modellierung der Dynamik des Einführungsprozesses der Unternehmensarchitektur In den letzten Jahren hat Enterprise Architecture (EA) zunehmende Aufmerksamkeit in Industrie und Wissenschaft erfahren. EA kann als formale Beschreibung des aktuellen und zukünftigen Zustands bzw. der zukünftigen Zustände der Organisation sowie als verwalteter Wechsel zwischen diesen Zuständen definiert werden. Durch die Einführung von EA können Unternehmen eine Reihe von Vorteilen wie bessere Entscheidungsfindung, höhere Einnahmen und Kostensenkung sowie die Ausrichtung von Geschäft und IT erzielen. Trotz der Vorteile ist EA in Organisationen nicht weit verbreitet. Einer der Gründe dafür ist, dass sich die Adoption als schwierig erwiesen hat. In diesem Beitrag wird ein Modell zur Erklärung der komplexen Dynamik der EA-Einführung vorgestellt. Das Modell des Widerstands während des EA-Adoptionsprozesses (REAP) basiert auf ausgewählter EA-Literatur und auf allgemeiner Literatur zu organisatorischen Veränderungen und Widerstand gegen Veränderungen. Das Modell führt neue Beziehungen zwischen der strategischen Ebene von EA, den daraus resultierenden organisatorischen Veränderungen und den Widerstandsquellen während der Planungs- und Durchführungsphase der Einführung ein. REAP wird empirisch anhand von Daten validiert, die aus einem EA-Pilotprojekt gesammelt wurden, das an 11 finnischen Hochschuleinrichtungen durchgeführt wurde. Die Validierung ergab, dass der größte Teil des Widerstands bei der Einführung auf mangelnde EA-Kenntnisse zurückzuführen war. Durch die Verwendung des REAP-Modells können Unternehmen den Widerstand der Organisation während der EA-Einführung antizipieren und sich darauf vorbereiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-29133-8_28 d1d5bbc479283a7502b83bea7de7e0b7;de;;;3.3.;;;Forschung zum angewandten Lehrmuster der universitären Unterrichtsgestaltung im Hauptfach Architektur Dieser Artikel untersucht Eigenschaften und Perspektiven angewandter Technikmuster bei der Gestaltung des Unterrichts im Hauptfach Architektur im Hinblick auf gegenwärtige Situationen der Gesellschaft. Es werden auch Strategien zur Festlegung von Unterrichtszielen, zur Organisation von Unterrichtsschritten usw. erörtert und Vorschläge dazu gemacht, wie die Schüler mehr Unterrichtstechniken erhalten und ihnen Möglichkeiten zur Ausbildung im Unterricht geboten werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24022-5_18 792938d30aa1f0b902addd8fab724d23;de;;;3.3.;;;Pfadkonzepte für eine rekonfigurierbare bitserielle synchrone Architektur Dieses Papier entwickelt Pfadkonzepte für die Ausführung verschiedener Algorithmen auf einer rekonfigurierbaren Architektur. Neue Architekturkonzepte erfordern eine permanente Evaluation solcher Erweiterungen, auch mit Validierung von Fallstudien. Die kürzlich patentierte synchrone bitserielle Pipeline-Architektur, die wir in diesem Artikel untersuchen, umfasst synchrone und systematische bitserielle Verarbeitung ohne zentrale Kontrollinstanz. Es zielt auf zukünftige Hochgeschwindigkeitsanwendungen aufgrund des Verzichts auf lange Drähte ab. Die Anwendungsspezifität der Basisversion der Architektur kann durch sogenannte Router überwunden werden, wodurch ein rekonfigurierbares System erreicht wird. Dieses Papier konzentriert sich auf die Schwierigkeit, diese Router zu konzipieren, und schlägt verschiedene Variationen für die Implementierung vor. Als Anwendungsbeispiel für die Rekonfigurierbarkeit der Architektur dient die Fallstudie, die eine kombinierte Version des FDCT/IDCT-Algorithmus umfasst. Das Beispiel – beide Algorithmen in einem Betreibernetz zu implementieren – erweitert den Anwendungsbereich der Architektur deutlich.;-;-;-;https://link.springer.com/chapter/10.1007/11596356_46 58ed7336ecc68d5db47bb9bdb8068e40;de;;;3.3.;;;Entwicklung der Art Intelligence Teaching Design Platform basierend auf der Network Information Technology Die Netzwerk-Lehrplattform ist für eine Hochschule ein wichtiges Mittel, um eine umfassende Lehrinformatisierung zu erreichen. Es ist ein Plattformsystem, das entwickelt wurde, um die Software des digitalen Schulcampusnetzwerks und seiner Softwareverwaltungsplattform zu verbessern. Durch die Analyse untersucht der Autor die Implementierungsmerkmale der kunstpädagogischen Aktivitäten, die Lehrevaluation und andere theoretische Grundlagen, die erforderlich sind, um eine Lehrplattform aus den neuen Curriculumstandards aufzubauen. Der Autor konzentriert sich insbesondere auf die Analyse der Motivationsstrategien und der Lehrstrategien und fasst die spezifischen Umsetzungsmethoden der Motivationsstrategien und der Lehrstrategien zusammen, die für die Implementierung der Lehrplattform geeignet sind. Es ist eine nützliche Untersuchung für das Lehrdesign der nicht-kognitiven Faktoren, die unser Lernen beeinflussen, und bietet eine solide theoretische Grundlage für den Aufbau der künstlerischen intelligenten Netzwerk-Lehrplattform.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3250-4_197 08108ac59caeaf234a70032980599f20;de;;;3.3.;;;Eine Methode zur Analyse von Softwarefehlern basierend auf den Feature-Attributsätzen von Mining-Ausreißern Fehleranalyse ist ein heißes Thema im Bereich Softwaresicherheit. In diesem Papier werden die Konzepte der verbesserten euklidischen Distanz und des Featureattributsatzes definiert. Ein neuartiger Algorithmus MOFASIED für den Merkmalsattributsatz von Mining-Ausreißern basierend auf einer verbesserten euklidischen Distanz wird vorgestellt. Der hochdimensionale Raum ist in einige Unterräume unterteilt. Die Ausreißermenge wird durch Verwendung der Definition des verbesserten euklidischen Abstands in jedem Unterraum erhalten. Außerdem werden die entsprechenden Merkmalsattributsätze der Ausreißer gewonnen. Die Ausreißer werden durch die Attributmengen formalisiert. Gemäß der Idee der anomaly-based Intrusion Detection Research wird ein Softwarefehleranalyseverfahren SFAMOFAS basierend auf dem Featureattributsatz von Mining-Ausreißern vorgeschlagen. Die Merkmalsattribute der Ausreißer können abgebaut werden, um die Softwarefehlerfunktion zu leiten. Experimentelle Ergebnisse zeigen, dass MOFASIED hinsichtlich Leistungstest und Zeitaufwand besser ist als der entfernungsbasierte Ausreißer-Mining-Algorithmus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04875-3_43 2ba336c3b9d425e8445272aefeed1016;de;;;3.3.;;;Aspektorientierte Modellierung und Verifikation mit Finite State Machines Aspektorientierte Programmierung modularisiert Querschnittsthemen in Aspekte mit den Ratschlägen, die an den angegebenen Punkten der Programmausführung aufgerufen werden. Aspekte können auf schädliche Weise verwendet werden, die gewünschte Eigenschaften ungültig macht und sogar die konzeptionelle Integrität von Programmen zerstört. Um die Qualität eines aspektorientierten Systems sicherzustellen, ist eine rigorose Analyse und Gestaltung von Aspekten sehr wünschenswert. In diesem Beitrag stellen wir einen Ansatz zur aspektorientierten Modellierung und Verifikation mit endlichen Automaten vor. Unser Ansatz bietet explizite Notationen (z. B. Pointcut, Advice und Aspect) zur Erfassung übergreifender Bedenken und inkrementeller Modifikationsanforderungen in Bezug auf Klassenzustandsmodelle. Zu Verifikationszwecken setzen wir die Aspektmodelle und Klassenmodelle in einem aspektorientierten Modell durch einen Webmechanismus zusammen. Anschließend transformieren wir die gewebten Modelle und die von den Aspekten nicht betroffenen Klassenmodelle in FSP (Finite State Processes), die vom LTSA (Labeled Transition System Analyzer) Model Checker gegen die gewünschten Systemeigenschaften geprüft werden. Wir haben unseren Ansatz auf die Modellierung und Verifikation von drei aspektorientierten Systemen angewendet. Um die Wirksamkeit der Verifikation weiter zu bewerten, haben wir eine Vielzahl von fehlerhaften Aspektmodellen erstellt und diese gegen die Systemanforderungen verifiziert. Die Ergebnisse zeigen, dass die Verifikation alle fehlerhaften Modelle aufgedeckt hat. Dies deutet darauf hin, dass unser Ansatz bei der Qualitätssicherung von aspektorientierten Zustandsmodellen effektiv ist. Daher kann unser Ansatz zur Modellprüfung der zustandsbasierten Spezifikation des aspektorientierten Designs verwendet werden und einige Systemdesignprobleme aufdecken, bevor das System implementiert wird.;-;-;-;https://link.springer.com/article/10.1007/s11390-009-9269-5 a24dbb657e25b6ee9a2f710477f05181;de;;;1.1.;;;Computergestützte TelefoninterviewsMit der CATI-Methode werden Daten computergestützt, zentralisiert, standardisiert und qualitätsgesichert telefonisch erhoben. Die Stichprobe wird automatisch abgearbeitet, der Fragebogen automatisch Frage für Frage präsentiert. Die Anwendungsbereiche der CATI-Methodik sind vielfältig. Sie ist, verglichen mit traditionellen Erhebungsverfahren flexibel und effizient, die Durchführung von Befragungen ist ergonomisch, eine separate Datenerfassung entfällt. Die bereits während der Erfassung überprüfbaren Daten stehen sofort für die Auswertung zur Verfügung. Es kann davon ausgegangen werden, dass im Rahmen einer international zunehmend standardisierten Gesundheitsberichterstattung telefonische Primärdatenerhebungen eine zunehmend zentrale Rolle spielen werden. Bei der Planung computergestützter Telefoninterviews muss berücksichtigt werden, dass neben einer nicht zu unterschätzenden Vorbereitungsphase und den Faktoren Arbeit und Kapital auch der Produktionsfaktor Erfahrung und die gut funktionierende Zusammenarbeit eines motivierten multidisziplinären Teams einkalkuliert werden muss.;-;-;-;https://link.springer.com/article/10.1007/BF02962633 083cadac40b44b451bb4cab08072cc46;de;;;3.3.;;;Praktischer Software-Engineering-Capstone-Kurs – Rahmen für große, offene Projekte für Doktorandenteams Für Studierende stellt das Capstone-Projekt den Abschluss ihres Studiums dar und ist in der Regel einer der letzten Meilensteine ​​vor dem Abschluss. Die Teilnahme an einem Schlusssteinprojekt kann aus verschiedenen Gründen eine inspirierende Lernmöglichkeit oder ein Kampf sein, aber auch eine sehr lehrreiche Lernerfahrung. Während des IT-Capstone-Projekts üben und entwickeln die Studierenden ihre beruflichen Fähigkeiten, um im Team eine Lösung für ein komplexes, unklar definiertes reales Problem zu entwerfen und zu implementieren. Dieses Papier reflektiert die Organisation von IT-Capstone-Projekten in Informatik und Software-Engineering-Masterstudiengängen in einem chinesisch-finnischen Setup, wobei die Projekte in einem Rahmen durchgeführt werden, der von einem Capstone-Projektkurs bereitgestellt wird. Wir beschreiben den Kursrahmen und diskutieren die Herausforderungen beim Finden und Bereitstellen von schlecht definierten Herausforderungen mit sinnvollem realem Bezug zu Projektthemen. Basierend auf unseren Beobachtungen, ergänzt durch das Feedback der Studierenden, schlagen wir auch Bereiche für die zukünftige Entwicklung vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-21151-6_16 b4c1f8a2d6c968890ee41aa3a409daa6;de;;;1.1.;;;Public Relations aus sozialpsychologischer SichtDie Psychologie als die Wissenschaft vom Erleben und Verhalten des Menschen kann selbstverständlich neben anderen Disziplinen auch beansprucht werden, wenn es darum geht, Gegenstände der Public Relations (PR) als angewandter Wissenschaft zu verstehen, zu erklären und vorherzusagen. Mit Blick auf die » öffentlichen Beziehungen « ist davon auszugehen, dass die psychologische Teildisziplin » ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-18917-8_5 116f3a6a7e430c6a2793f9f91404e35e;de;;;3.3.;;;Effizientes Supply Chain Management durch Federation-basierte Integration von Legacy ERP-Systemen Die Entwicklung von SCM-Systemen ist eine schwierige Aktivität, da sie die Integration kritischer Geschäftsabläufe sowohl innerhalb als auch zwischen den beteiligten Unternehmen beinhaltet. Die inhärente Schwierigkeit des Problems wird durch die geschäftliche Einschränkung (die in der realen Welt fast immer gilt) verschärft, dass die von einzelnen Unternehmen im Laufe der Jahre getätigten Investitionen erhalten bleiben müssen. Dies entspricht großen Designbeschränkungen, da SCM-Systeme um die bereits bestehenden ICT-Infrastrukturen der einzelnen Unternehmen herum aufgebaut werden müssen und – was auch wichtig ist – ohne die lokalen Richtlinien zu beeinträchtigen. Wir schlagen einen föderativen Ansatz zur nahtlosen und effektiven Integration von Legacy-Unternehmensinformationssystemen in ein einheitliches SCM-System vor. Die vorgeschlagene Lösung wird mit einer Kombination aus Open Source BPM- und ERP-Produkten implementiert und in Bezug auf einen realen Anwendungsfall aus einer Forschungsaktivität (nämlich: dem GLOB-ID-Projekt) validiert, die von akademischen und industriellen Parteien gemeinsam durchgeführt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22689-7_29 bd1c098e8ec91f542d48dfacfa54e0d2;de;;;3.3.;;;Vergleichende Analyse zwischen webdienstorientierten Standards: SOAP, REST und GRAPHQL Die Nutzung von Webservices hat zugenommen und ist heute die am weitesten verbreitete Implementierung. Der wichtigste Teil eines Webentwicklungsprojekts ist die Wahl der richtigen Tools für die Anwendungsentwicklung, diese Entscheidung beeinflusst maßgeblich die Anforderungen an die Implementierung von Lösungen für diese Dienste. Die vergleichende Analyse zwischen SOAP-, REST- und GraphQL-Webservices zielt darauf ab, die Effektivität der Datenübertragungsfähigkeiten zu bewerten. Die verwendeten Methoden waren eine systematische Zuordnung, um die für den Vergleich zu verwendenden Metriken wie Reaktionszeit und Leistung zu definieren. Es wurde eine Testumgebung implementiert, beginnend mit der Entwicklung einer Webanwendung mit jeder der zu evaluierenden Technologien und in verschiedenen Programmiersprachen. Anschließend wurde die Leistung von Webservices mit den definierten Metriken und Tools getestet. In experimentellen Tests haben wir festgestellt, dass GraphQL eine schnellere Reaktionszeit und eine bessere Leistung hat als Webdienste, die auf SOAP und REST basieren. Das Ergebnis des Vergleichs kann Entwicklern helfen, die optimale und geeignete Technologie basierend auf der Leistung von Webservices und anderen Metriken, die einen wesentlichen Aspekt wie die Softwarequalität beeinflussen, auszuwählen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-42517-3_22 6f154e2e8d4994333071f1fd5bfcf099;de;;;3.3.;;;Langlebige, skalierbare drahtlose Sensornetzwerke (LES-WSN) mit weitreichenden Funkgeräten für umweltfreundliche Kommunikation Es werden zwei bahnbrechende Innovationen vorgestellt, die das Potenzial haben, eine erschwingliche Green Communications (GC)-Klasse zu ermöglichen: groß angelegte, kostengünstige Überwachung von Umwelt und bedrohten Arten mit einer Generation neuer unbeaufsichtigter, langlebiger drahtloser Sensoren. Wir beschreiben zunächst, warum bestehende Lösungen auf Basis von Kurzstreckenfunkgeräten dieses wichtige GC-Regime nicht ansprechen können und wie die vorgeschlagenen LES-WSN-Innovationen, nämlich Langstreckenfunkgeräte und zweistufige (ein Funkgerät) Architektur, kostengünstig sind flächendeckende Umweltüberwachung Realität. Durch die Verwendung einer hohen Sendeleistung reduzieren Funkgeräte mit großer Reichweite die Gesamtsystemkosten drastisch, wenn sie große Gebiete abdecken. Durch die Kombination der neuesten Long-Term Evolution-Wellenform mit dieser Funkhardware mit hoher Sendeleistung erreichen wir gleichzeitig eine hohe Kommunikationsreichweite und eine hohe Datenrate (2+Mbps) bei extrem hoher Batterieeffizienz. Die zweistufige Ein-Funk-Architektur ermöglicht nur eine kleine Anzahl von Knoten, die Sensordaten weiterzuleiten, wodurch eine große Anzahl von Sensorknoten von der Last der Weiterleitung entlastet wird. Darüber hinaus entfällt das häufige und periodische Aufwachen von Sensorknoten, wodurch mobile Sensoren für die Überwachung gefährdeter Arten ermöglicht werden. Mehrere neue GC-Anwendungen, die durch das vorgeschlagene LES-WSN-Paradigma möglich werden, werden zusammen mit Feldversuchsergebnissen beschrieben, die die behaupteten Vorteile bestätigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22179-8_21 94a00e3ba7f7211ac11edd23519881c0;de;;;3.3.;;;Weibliche Führung in Softwareprojekten – ein vorläufiges Ergebnis zu Führungsstil und Projektkontextfaktoren Frauen haben sich in vielen teambasierten Situationen als effektive Führungskräfte erwiesen. Es ist jedoch auch allgemein bekannt, dass Frauen in Ingenieurs- und Technologiebereichen unterrepräsentiert sind, was zu unnötigen Anstrengungen und mangelnder Vielfalt in Berufsorganisationen führt. Obwohl es viele Studien zu Gender und Leadership gibt, gibt es kaum Forschungen, die sich auf ingenieursspezifische Aktivitäten konzentrieren. Um auf diese Lücke zu reagieren, haben wir die Erfahrungen weiblicher Führungskräfte in Softwareentwicklungsprojekten und mögliche Kontextfaktoren untersucht, die die Effektivität der Führung beeinflussen. Die Studie wurde als Längsschnitt-Mehrfachfallstudie durchgeführt. Die Daten wurden aus Umfragen, Interviews, Beobachtungen und Projektberichten erhoben. In dieser Arbeit haben wir einige vorläufige Ergebnisse in Bezug auf den Führungsstil, die Teamwahrnehmung von Führung und Team-Aufgaben-Kontextfaktoren berichtet. Wir fanden eine starke Korrelation zwischen wahrgenommener Teamführung und Aufgabenmanagement. Wir beobachteten auch einen möglichen Zusammenhang zwischen einem menschenorientierten Führungsansatz in Szenarien mit geringer Kundenbeteiligung und einem aufgabenorientierten Führungsansatz in Situationen mit hoher Kundenbeteiligung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-65208-5_11 033d6e211b3702c6ffe1c3331a19adf6;de;;;3.3.;;;: Vergleich verschiedener Funktionen Cloud Computing verändert grundlegend die Erwartungen, wie und wann Computing-, Speicher- und Netzwerkressourcen zugewiesen, verwaltet, konsumiert und Benutzern die weltweite Nutzung von Diensten ermöglicht werden sollten. Aufgrund der leistungsstarken Rechen- und Speicherkapazität, der hohen Verfügbarkeit und Sicherheit, der einfachen Zugänglichkeit und Anpassungsfähigkeit, der zuverlässigen Skalierbarkeit und Interoperabilität ist kosten- und zeiteffizientes Cloud-Computing das Wichtigste für die aktuelle schnell wachsende Geschäftswelt. Ein Kunde, eine Organisation oder ein Handel, der eine neue Cloud-Umgebung einführt, kann eine gut geeignete Infrastruktur, Plattform, Software und Netzwerkressource für jedes Unternehmen auswählen, wobei jedes einzelne über einige exklusive Funktionen verfügt. In diesem Papier haben wir eine umfassende Klassifikation zur Beschreibung der Cloud-Computing-Architektur erstellt. Nach dieser Klassifizierung ist es einfach, einen bestimmten Cloud-Dienst aus mehreren bestehenden Cloud-Computing-Diensten auszuwählen, die von verschiedenen Projekten weltweit entwickelt wurden, wie z die verschiedenen Aspekte des Cloud Computing, sondern auch die Identifizierung einiger Bereiche für weitere Forschungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22603-8_22 074411b2d7fd8aaf14e15cb7689f4447;de;;;3.3.;;;Implementierung von Embedded Cores-basierten digitalen Geräten in JBits Java Simulation Environment Dieses Papier schlägt eine Testdesignarchitektur vor, die für den integrierten Selbsttest (BIST) von eingebetteten Kernen-basierten digitalen Schaltungen unter Verwendung eines rekonfigurierbaren Geräts geeignet ist. In der Arbeit wurden ein Sample Circuit Under Test (CUT) und der zugehörige Space Compressor in Java realisiert, heruntergeladen und dann zur Laufzeit in einer in JBits geschriebenen Simulationsumgebung getestet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30561-3_33 0d9b526dbd0327b0ac670cdf676723d9;de;;;3.3.;;;Parallele Software zur Simulation nichtlinearer Prozesse in technischen Mikrosystemen Die moderne Phase der Industrieentwicklung ist durch die Einführung von Nanotechnologien in die Produktion gekennzeichnet. Daher werden wissenschaftliche Untersuchungen verschiedener technologischer Prozesse und Einrichtungen auf verschiedenen Detaillierungsebenen bis hin zur atomaren Realität. Zu den möglichen Ansätzen hat sich die Multiskalenmodellierung von Mikrosystemen entwickelt, die die Methoden der Kontinuumsmechanik und der Molekulardynamik kombiniert. Dieser Bericht stellt Elemente der Supercomputer-Technologie und -Software vor, die es uns ermöglichen, einige Probleme der Nanotechnologien innerhalb des gewählten Ansatzes zu lösen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-55669-7_15 f3bdf2b4924dc5be4565df73bc555e1a;de;;;1.1.;;;EVW und Kognitive NeurowissenschaftMeine beiden letzten Bücher (2012, 2014) sind der Forschung in der kognitiven Neurowissenschaft aus den letzten 4-5 Jahren gewidmet. In diesem Kapitel möchte ich einen allgemeinen Überblick zur kognitiven Neurowissenschaft (einer Teildisziplin der Kognitionswissenschaft) geben und im Anschluss daran einige wesentliche Themen in diesem Bereich analysieren: Lokalisierung (Differenzierung – Integration im Gehirn), das Bindungsproblem und die multisensorische Integration sowie die ‘Optimismus vs. Skeptizismus’-Debatte in der kognitiven Neurowissenschaft als Wissenschaft. Im Schlussabschnitt dieses Kapitels wird deutlich werden, dass die kognitive Neurowissenschaft keine wirkliche Wissenschaft, sondern eine Pseudowissenschaft ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-10575-4_7 284582cab834672c73b6fc1a112f4607;de;;;1.1.;;;Anspruch und Antwort: Personzentrierte Psychotherapie als Begegnung von Person zu PersonDie von Rogers 1957 als notwendig und hinreichend postulierten Bedingungen für Persönlichkeitsentwicklung bilden das Fundament eines anthropologischen und therapietheoretischen wie -praktischen Paradigmenwechsels in der Psychotherapie. Die Basis dafür stellt eine ethische Position dar, die den Menschen als Person, d. h. in der unüberholbaren Dialektik von Selbstständigkeit und Beziehungs-angewiesenheit, versteht. Psychotherapie bedeutet demnach das Ergreifen der Verantwortlichkeit aus dem Angesprochenwerden von einem prinzipiell Anderen und dem in der jeweiligen Gegenwart daraus erwachsenden kairotischen Anspruch, die Aktualisierung des vorhandenen Potentials durch personale Begegnung zu fördern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-6733-5_3 94bd0963b68423aac4c4ed781a1d614a;de;;;1.1.;;;Management im Zeichen der Digitalisierung: Moderne Unternehmensführung abseits von Moden und IdeologienDigitalisierung ist ein Begriff, der derzeit sowohl in der Gesellschaft als auch in Unternehmen hohe Aufmerksamkeit besitzt. Insbesondere in Unternehmen taucht Digitalisierung als Quelle neuer Marktchancen und als Begründung der Notwendigkeit tief gehender Veränderungen fast schon täglich auf. Bei derartigen Entwicklungen stellt sich die Frage, inwieweit Digitalisierung als modischer „Hype“ zu sehen ist. Die starke Verflechtung von Organisationen und Gesellschaft führt dazu, dass auch der Einfluss der Digitalisierung auf die Gesellschaft von Relevanz für diese Fragen ist. Außerdem stellt sich die Frage, ob es sich bei den propagierten „agilen“ Veränderungsansätzen zur Anpassung von Organisationen an die Herausforderung der Digitalisierung um Modeerscheinungen handelt. Der wechselseitige Einfluss von Gesellschaft und Organisationen im Zusammenhang mit Digitalisierung wird durch die Analysen in dieser Arbeit bestätigt. Dabei wird Digitalisierung ein hohes Chancen-, aber auch Risikopotenzial sowohl für die Gesellschaft als auch für die Unternehmen zugeschrieben. Außerdem ist die Schlussfolgerung der vorliegenden Arbeit, dass die derzeitigen agilen Veränderungsansätze, die vorgeben Organisationen fit für die digitale Welt zu machen, auf zu einfachen Grundannahmen basieren und dadurch zu sehr an der Oberfläche bleiben, um wirklich eine Antwort auf die digitalen Herausforderungen zu sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-24493-4_6 066a9582d2164fe71519beb62847353d;de;;;1.1.;;;Historische und systematische Voraussetzungen einer Sozialpsychologie der WerteDas Thema der vorliegenden Arbeit ist die Sozialpsychologie individueller und kollektiver Werthaltungen. Auf der Grundlage von vorhandenen Theorieansätzen, die sich unmittelbar oder mittelbar auf das Wertproblem beziehen, soll eine Konzeption entwickelt werden, mit der die Bedeutung von Werthaltungen für den Kommunikations- und Interaktionsprozeß und ihre Stellung im Persönlichkeitssystem bestimmt werden kann. Der Anlaß für diese theoretische Untersuchung ist die Diskussion über Wertwandlungsprozesse, die im Anschluß an Ingleharts These von der “stillen Revolution” (1977) in den Sozialwissenschaften geführt wird. Viele der konzeptuellen Probleme, die in der Diskussion um den Wertwandel sichtbar geworden sind, verweisen auf die Notwendigkeit einer umfassenden sozialpsychologischen Analyse. Im folgenden soll zunächst der Anlaß, sodann der Hintergrund und das Ziel der Untersuchung genauer umrissen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-97244-6_2 f70d5ef4641f63bf8b689f7b739a927c;de;;;1.1.;;;Kooperation als strategisches Element regionaler TourismusentwicklungDer Beitrag befasst sich mit der Kooperation unterschiedlicher Akteure im Rahmen regionaler touristischer Entwicklungsprozesse. Dabei wird zunächst — differenziert nach Nutzen, Aufgabenfeldern und Hemmnissen — die Bedeutung touristischer Zusammenarbeit dargestellt. Im weiteren Verlauf werden die Erfolgsfaktoren der Zusammenarbeit bei der touristischen Entwicklung aufgezeigt, wobei die Felder „Aufgabenstellung, „Gremienarchitektur”, „Kooperationspartner” und „Selbststeuerung im Kooperationsprozess” thematisiert werden. Nach einem kurzen Exkurs zur Bedeutung der Zusammenarbeit vor dem Hintergrund der Nachhaltigkeit wird schließlich eine Reihe von Folgerungen für die touristische Praxis abgeleitet.;-;-;-;https://link.springer.com/article/10.1007/BF03183903 156e8764a6ea3e5436876d45404ced35;de;;;1.1.;;;Latente Steuern und Earnings ManagementDer Steueraufwand in der externen Rechnungslegung kann einerseits selbst zum Earnings Management genutzt werden, andererseits besitzt dieser Indikatorwirkung für bilanzpolitische Beeinflussung anderer Bilanzierungssachverhalte und für das Ausmaß des Steuermanagements. Die empirische Forschungsliteratur konnte erheblichen Informationsnutzen einzelner Komponenten des Steueraufwands für externe Abschlussadressaten identifizieren, welcher zumindest in der deutschsprachigen Literatur zur Bilanzanalyse bisweilen unterschätzt wird. Der vorliegende Beitrag stellt den Stand der Forschung dar und zieht Schlussfolgerungen für die Praxis der Bilanzanalyse und künftige Forschungsarbeiten in diesem Gebiet.;-;-;-;https://link.springer.com/article/10.1007/s11573-012-0626-4 d0eeca5bac6da610bfa5d3cce7e23e99;de;;;1.1.;;;Algorithmen bei der AbfrageDieses Kapitel fasst die Algorithmen für den Vergleich und die Suche von Zeichenketten während der Abfrage zusammen. Am Ende des Kapitels sind noch einige Bemerkungen zur Arbeit mit Bit-Ketten angefügt. Die Beschreibung der Algorithmen enthalt einige Details auf Bit oder Byte-Ebene, die jedoch durch den Algorithmic bedingt und nicht von einem bestimmten System abhangig sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-93174-0_8 4023bf5b0246de705edb3ba20cbbf732;de;;;1.1.;;;Theoretischer Analyserahmen zum WissensmanagementGegenstand dieses Kapitels ist die Entwicklung eines theoretischen Analyserasters zum Wissensmanagement. Dazu wird zunächst das Management von Wissen in das Forschungsfeld des Strategischen Managements eingeordnet, und anschließend die Grundlagen menschlicher Erkenntniserlangung erarbeitet. Dieser Analyseprozess liefert das dieser Arbeit zugrunde liegende Verständnis von Wissen. Weiter werden für diese Arbeit wichtige Wissensformen voneinander abgegrenzt, was schließlich zu der Frage führt, wie individuelles Wissen in das Wissen eines Kollektivs transformiert werden kann. Die zuvor erarbeiteten Grundlagen von Wissen und dem Management dieser Ressource ergänzen die Betrachtungen der Wissensmanagementprozesse von Probst et al. Dieses Modell fungiert im Weiteren als Orientierungsraster für die Entwicklung der späteren Expertenfragebögen und gibt eine Systematisierung für die Ausarbeitung des Gestaltungsmodells in Kapitel 7. Eine Analyse der Erfolgsfaktoren des Wissensmanagements rundet das Kapitel 3 ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-81451-7_3 0a76ec4c6b2355ada8b964bd43124be1;de;;;1.1.;;;Kulturelle Diversität als ForschungsgegenstandUm sich kultureller Diversität nähern zu können, ist es zunächst notwendig, den dieser Arbeit zu Grunde liegenden Diversitätsbegriff zu definieren. Der Ursprung für das Wort Diversität findet sich im englischsprachigen Begriff ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-26009-5_2 c6bf84024f0a31e1239ce195880cb9ce;de;;;1.1.;;;Hirnorganische Psychosyndrome und Leistungspsychometrie im höheren LebensalterDie experimentelle gerontopsychologische Forschung ist derzeit wesentlich durch die Entwicklung geeigneter Versuchspläne und psychodiagnostischer Verfahren zur Gewinnung von Kenntnissen über den Prozeß des Alterns und seine therapeutische Beeinflussung gekennzeichnet. Dieses Bemühen setzt standardisierte Bedingungen voraus. Die Herstellung dieser Bedingungen durch Testverfahren, deren theoretische Begründung und deren theoriegeleiteter Einsatz wird als ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-70354-6_4 57c59df31f70e65fca7b379c74e2ccba;de;;;1.1.;;;Alltagsrationalität in der Nachrichtenrezeption. Ein Modell zur Wahrnehmung und Verarbeitung von NachrichteninhaltenDer Text ist die überarbeitete Fassung der Habilitationsschrift von Hans-Bernd Brosius. Der Autor entwickelt ein Modell zur Nachrichtenrezeption und -wirkung und überprüft die Modellannahmen in insgesamt zehn Teilstudien mit experimenteller Untersuchungsanlage. Ausgangspunkt ist die Abgrenzung vom Modell wissenschaftlicher Rationalität, das von einer vollständigen und unvoreingenommenen Verarbeitung von Nachrichteninhalten und einer rationalen Urteilsbildung aufgrund der Gesamtheit der präsentierten Informationen und Argumente ausgeht. Die einzelnen Studien überprüfen unterschiedliche Modellbestandteile, etwa den Einfluss emotionaler Bilder, von Fallbeispielen oder der Strukturierung (des Framings) eines Themas auf die Erinnerungsleistung, Relevanzurteile oder die Abschätzung von Mehrheitsverhältnissen durch die Versuchspersonen. Dabei zeigt sich, dass den variierten Merkmalen ein stärkerer Einfluss darauf zukommt, ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-09923-7_25 4e9edbe0189ae8851a0bb80bc1a56a82;de;;;1.1.;;;Hermeneutik und GrammatikDie Hermeneutik als Lehre vom Verstehen sinnhaltiger Texte bzw. als Theorie und Praxis der Interpretation ist mit der Grammatik auf mehrfache Weise eng verschränkt. Historisch und genetisch gehören die Begriffe ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-476-03252-2_11 6186c3b8f024047ce77beb10d76f5b56;de;;;1.1.;;;Die Erklärungsmacht sozialer Präferenzen für Vertragsgestaltung und Verhaltensweisen im FranchisingTraditionell wurde Franchising in der Vertragstheorie vor allem als Vertriebssystem verstanden, mit dessen Hilfe Motivations- und Beobachtbarkeitsproblemen begegnet wird, indem gezielte materielle Anreize gesetzt werden, die im alleinigen Eigeninteresse angestrebt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-9623-3_2 d7e2ea852baf7227a13fe4b32d502ac1;de;;;1.1.;;;Ausgewählte Ergebnisse Für die Marketing-AnwendungIn Kapitel D wurde eine Eingrenzung des Untersuchungsumfangs vorgenommen sowie methodische Überlegungen behandelt. In diesem Kapitel geht es nun darum, ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-85767-5_5 998dd8b47f9671b4e3fc592d132ee624;de;;;1.1.;;;Projektentwicklung und ImmobilienmanagementIn diesem Kapitel werden zunächst Projektentwicklungsmodelle und 15 Module der Projektentwicklung von der Marktrecherche für eine Projektidee bis zur Entscheidungsvorlage vorgestellt. Es folgen Ausführungen zu Wirtschaftlichkeitsberechnungen mit finanzmathematischen Grundlagen, statischen und dynamischen Investitionsrechenverfahren sowie Nutzen-Kosten-Untersuchungen. Im Unterkapitel Real Estate Management nehmen u. a. das Portfoliomanagement und die Due Diligence von Immobilienbeständen breiteren Raum ein. Den Abschluss bildet die Immobilienbewertung mit Erläuterung der Wertbegriffe, Darstellung des Vergleichs-, Ertrags- und Sachwertverfahrens und einigen Hinweisen zum Sachverständigen- und Gutachterausschusswesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-27916-5_9 c57a301480cf6550582e5d36fa600053;de;;;1.1.;;;Innovationsfeld: Energieeffiziente GerätenutzungMit dem Energieverbrauch informationstechnischer Geräte sind über die Strombereitstellung erhebliche Emissionen verknüpft, die teilweise über den mit der Herstellung verbundenen Emissionen liegen. Aus Nachhaltigkeitssicht ist ein möglichst minimaler Energieverbrauch während der Nutzungsphase von Elektronikprodukten erforderlich. Dies gilt sowohl für den eigentlichen Betrieb als auch für Bereitschafts- und Stillstandsverluste.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-58892-1_8 71f4bef8d0ac24cf91892b34f03a524b;de;;;1.1.;;;Cloud Industrialisierung – ein Cloud Operations Ansatz für OrganisationenDer Aufbau eines möglichst effizienten und effektiven Cloud Operations Ansatzes ist ein aktuelles Thema in Organisationen, die sich auf dem Weg in die Cloud befinden. Gleichzeitig existieren bis heute nur wenige wissenschaftliche Studien, welche den optimalen Aufbau von Cloud Operations in Organisationen untersuchen. Diese Studie versucht diese Forschungslücke zu schließen, indem auf Basis einer qualitativen Fallstudie der Aufbau von Cloud Operations Ansätzen in einer weltweit tätigen Organisation untersucht. Im Rahmen der Fallstudie werden erste Ansätze in Bezug auf Cloud Operations Organisation, Prozesse und technologische Lösungen identifiziert, analysiert und gleichzeitig in einen Zusammenhang gebracht. Auf Basis dieser Ergebnisse zeigt die Studie zukünftige Forschungsschwerpunkte im Bereich Cloud Operations auf und bietet erste Anhaltspunkte für die Praxis.;-;-;-;https://link.springer.com/article/10.1365/s40702-020-00683-y d93190c7cd4b5e52372274d494296184;de;;;1.1.;;;Einbeziehung des Unternehmensumfeldes in die FortschrittsquantifizierungIn privatwirtschaftlich orientierten bzw. marktgesteuerten Wirtschaftssystemen kann davon ausgegangen werden, daß der Nutzung von Technologien und der Gestaltung des Technologieeinsatzes eine weitgehend ökonomisch-rationale Orientierung zugrunde liegt. Der gesamte Technologieeinsatz unterliegt der unternehmerisch geprägten Entscheidung. Damit wird unterstellt, daß innerhalb der langfristigen unternehmerischen Technologienutzung vorrangig ein maximaler Gesamtgewinn erzielt werden soll. Die vollständige und richtige Erfassung einer Umweltsituation bis hin zur Reaktion der am Markt agierenden Mitbewerber ist für die Zielerreichung Voraussetzung. Alle in den bisherigen Abschnitten behandelten Determinanten ökonomischer Technologiewerte sind interne, d.h. rein betriebswirtschaftliche Bestimmungsfaktoren eines technischen Fortschrittes. Die Aussagefähigkeit der Lösung unternehmensspezifischer Planungs- und Fortschrittsquantifizierungsprobleme wird hierdurch eingeschränkt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-87918-9_7 570867d4591112dc7a3042e2743ef8af;de;;;1.1.;;;Konstruktion von Referenzmodellierungssprachen Ein Ordnungsrahmen zur Spezifikation von Adaptionsmechanismen für InformationsmodelleConstruction of Reference Modeling Languages — A Framework for the Specification of Adaptation Mechanisms for Conceptual Information Models Reference modeling languages differ from each other as they use different model types (such as process or data models) and as they provide different mechanisms that allow an adaptation of the reference model to specific contexts. The developer of the reference modeling language has to decide which adaptation technique he wants to use (e. g. configuration, aggregation, instantiation, specialization or analogy construction) and which of these techniques he wants to integrate into the language specification. In this paper, these adaptation techniques are compared, and reference solutions for the specification of extended reference modeling languages are proposed. The introduced solutions are structured by a methodical framework that assigns modeling examples and meta-models as well as meta-meta-models to the different adaptation techniques. Based on this framework, possible combinations of configurative adaptation mechanisms with aggregative, instantiation based, specialization based and analogy construction based mechanisms are discussed.;-;-;-;https://link.springer.com/article/10.1007/BF03250942 c0c2c695687aa4677fbc2c91251a6777;de;;;1.1.;;;Koordinationsfunktion des controlling und organisationDie koordinationsorientierten Controllingauffassungen erklären fundamentale Problemfelder der Organisation zum eigenen Gegenstandsbereich. An der Eigenständigkeit eines so verstandenen Controlling innerhalb der Betriebswirtschaftslehre sind daher Zweifel anzumelden.;-;-;-;https://link.springer.com/article/10.1007/BF03249563 662ef498e16b2cc8ea11ee4491dbf8f1;de;;;1.1.;;;Anforderungen an die OrganisationDamit werden für das Erkennen der Anforderungen aus Wertschöpfungspartnerschaften an die Organisation des Herstellers deren Instrumente zur zentralen Grundlage der Untersuchung. Aufgabenverknüpfung und Neuordnung der Aufgabenteilung verändern die Transaktionsbeziehung zwischen Hersteller und Wertschöpfungspartner, woraus sich neue Anforderungen an die Koordination ergeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-81059-5_3 560eda49f1b37ccdf2b013f0fe10299c;de;;;1.1.;;;Das sozialwissenschaftliche ErklärungsmodellZiel der Arbeit ist die ursächliche Erklärung von kreativen Handlungen auf der Grundlage vorliegender Theorien der Kreativität. Dieses Vorgehen erfordert zunächst eine allgemeine wissenschaftstheoretische Verortung und die Klärung der Begriffe „Theorie“ und „Erklärung“, da sie in der weiteren Argumentation eine zentrale Stellung einnehmen. Im Anschluss daran wird das sozialwissenschaftliche Erklärungsmodell ausführlich referiert und der Ausschnitt herausgearbeitet, der für das weitere Vorgehen von besonderer Bedeutung ist. Das Erklärungsmodell wird als Teil des ökonomischen Forschungsprogramms in den Sozialwissenschaften dargestellt. Es erfolgt eine erste Annäherung an den Zusammenhang zwischen sozialer Struktur und kreativer Handlung. Abschließend wird auf Möglichkeiten des Modells eingegangen, (Theorie-)Wissen aus anderen disziplinären Kontexten zu integrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-92340-6_3 1716faaeb0a3efc2297ab07850d463dd;de;;;1.1.;;;Sprache und InformationEine Theorie des qualitativen Folgerns über Kommunikation ist die Voraussetzung für ein System der Verarbeitung natürlicher Sprache. Das in diesem Buch dargestellte System des qualitativen Folgerns betrifft vornehmlich Aspekte der Kommunikation und Information, wie sie in der natürlichen Sprache vorkommen. In diesem Sinne handelt es sich um ein „natürliches“ Modell.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-9162-7_1 f4f0af66c4dcef8bd535fa47564657b0;de;;;1.1.;;;Methodische Konzeptionen der empirischen StudienAus den vorherigen Kapiteln wird ersichtlich, dass Freizeit einen Lebensbereich mit hohem Mobilitätsbedarf darstellt und auch nur in Kombination mit Fortbewegungsoptionen das eigentliche Potenzial der Freizeit als Raum der individuellen Bedürfnisbefriedigung, verwirklicht werden kann. Virtuell zur Verfügung stehende Handlungsspielräume können nur in Verbindung mit deren räumlicher Erreichbarkeit als realistische Wahlmöglichkeiten bezeichnet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-08126-3_5 85796f4336415a07ce362d96b6d17bb8;de;;;1.1.;;;Temperament in der klinischen Psychologie, Psychiatrie und PsychotherapieDie klinische Relevanz des Temperaments zeigt sich in unterschiedlichen Bereichen. Dies gilt beispielsweise für den Zusammenhang mit seelischer Gesundheit, körperlichen Erkrankungen und psychischen Störungen sowie deren Diagnose und Therapie. Dysfunktionale und störungsrelevante Temperamentsdimensionen lassen sich durch Psychotherapie und Psychopharmakotherapie verändern. Am Beispiel verschiedener psychotherapeutischer Richtungen wird der Stellenwert des Temperaments für Theoriebildung und Therapiepraxis deutlich. Die Konsequenzen für die klinische Praxis werden am Beispiel des ängstlichen Temperaments sowie zweier Kasuistiken dargestellt. Es schließen sich Überlegungen für zukünftige Forschungsfelder bzw. -themen einer auf das Temperament fokussierten Psychotherapieforschung an.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39505-5_8 fbbcc88bbf499cd54485f72217e9a7e9;de;;;1.1.;;;Trauma und Psychose – Teil 2Epidemiologische Studien eignen sich in besonderer Weise, den potentiellen Zusammenhang von frühkindlichen Traumatisierungen und nachfolgender psychotischer Symptombildung zu untersuchen. Als primäres Outcome-Kriterium fungiert bei diesem Ansatz die Prävalenz von nicht-klinischen psychotischen Symptomen bei traumaexponierten Personen im Vergleich zu nicht traumatisierten Kontrollgruppen aus der Allgemeinbevölkerung. Mittlerweile existiert eine Fülle von methodisch guten epidemiologischen Studien, die diesen Zusammenhang für Populationen in der Kindheit, in der Adoleszenz und im Erwachsenenalter überzeugend belegen. Im Anschluss hieran stellen sich einerseits Fragen, über welche psychologischen, psychosozialen und neurobiologischen Mechanismen ein erhöhtes Psychoserisiko früher Traumatisierungen vermittelt werden kann, und andererseits Fragen, welche Faktoren den Übergang dieser mehrheitlich subklinischen psychotischen Symptome in klinisch relevante Formen psychotischer Störungen bestimmen. Sowohl theoretische Modelle als auch empirische Daten aus ersten Studien werden dargestellt.;-;-;-;https://link.springer.com/article/10.1007/s40211-012-0031-9 22f67be0d8b0c3aa9980b9f2ca795ab3;de;;;1.1.;;;Sozialer Wandel durch Positives RechtGesellschaft und Recht hängen auf mehr als eine Weise zusammen. Bisher haben uns im wesentlichen zwei Perspektiven geleitet: Wir haben nach der Funktion des Rechts für das soziale System der Gesellschaft gefragt, und wir haben die Art und Weise, in der diese Funktion erfüllt wird, in Beziehung gesetzt zu verschiedenartigen Gesellschaftsstrukturen, die sich im Prozeß gesellschaftlicher Evolution nacheinander herausgebildet haben. In dieser globalen Betrachtungsweise wurde die Evolution des Gesellschaftssystems als Auslöser sozialen Wandels gesehen und die Veränderungen im Rechtsgefüge als Begleiterscheinung, die durch Umstrukturierungen des Gesellschaftssystems, vor allem seines Differenzierungsmodus, ermöglicht werden und zugleich wichtige institutionelle Errungenschaften des Evolutionsprozesses stabilisieren helfen. In evolutionärer Perspektive ist Recht als unaufgebbares Element der Gesellschaftsstruktur immer Bewirktes und Wirkendes zugleich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-95699-6_6 89f64e7b9c519224b9e6ddcd58880e5e;de;;;1.1.;;;Der „emotional turn“ in den IB: Plädoyer für eine theoretische Überwindung methodischer EngführungEmotionen spielen bei menschlichen Entscheidungen meist eine größere Rolle als rationale Überlegungen. Die Dominanz der emotionalen Seite hat in der Politikwissenschaft bisher wenig Widerhall gefunden, da die Beeinflussung politischer Entscheidungen durch Emotionen nur schwer zu belegen ist. In der herkömmlichen Methodik bildet das rationale Menschenbild die ;-;-;-;https://link.springer.com/article/10.1007/s12399-012-0288-x 78b68972977f522ab651a0884bdcc4d3;de;;;1.1.;;;Das integrative Heidelberger Prozessmodell für Beratung - Umgang mit Komplexität und UnsicherheitDas im Folgenden vorgestellte Konzept zielt auf eine allgemeine systemische Theorie für Beratung von Personen, Teams und Organisationen. Es basiert auf drei zentralen Elementen: Erstens wird das Konzept des phasenorientierten komplexen Problemlösens in Anlehnung an Dörner (1994, 2016) genutzt zur Definition aufgabenbezogener Anforderungen im Beratungsprozess. Zweitens wird die Theorie der Selbstorganisation, die Synergetik, mit den darauf bezogenen generischen Prinzipien (vgl. Haken und Schiepek 2010) zugrunde gelegt. Letztere unterstützen die erfolgreiche Bearbeitung des Veränderungsprozesses zwischen Beratenden und Ratsuchenden im Sinne eher sozialbezogener Wirkprinzipien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-29906-4_30 9306dd2f3a06659eadc80dc196f52da6;de;;;1.1.;;;Motivation und Einordnung des „Akteursmodells“: Überlegungen zur Integration von Anreizen und Kognition in der betriebswirtschaftlichen ForschungIm Windschatten der momentan zunehmend an Einfluss gewinnenden Behavioral-Economics- Forschung wird gegenwärtig in der betriebswirtschaftlichen Forschung wieder vermehrt eine breitere verhaltenswissenschaftliche Perspektive eingenommen. Neben reinen Anreizproblemen werden damit zunehmend auch Phänomene betrachtet, die auf die begrenzten kognitiven Fähigkeiten ökonomischer Akteure zurückgeführt werden können. Parallel hierzu wurde als ein Forschungsschwerpunkt des Lehrstuhls für Controlling und Telekommunikation an der WHU in den letzten Jahren ein spezifisches Führungsverständnis entwickelt, dessen Kernbaustein ein auf ähnlichen Ideen basierendes Akteursmodell2 darstellt. Dieses nimmt Begrenzungen im Können und Wollen als grundlegenden Ausgangspunkt. Aktuell gilt es, die am Lehrstuhl entwickelten Ideen in die allgemeinen theoretischen Entwicklungen einzuordnen und die bestehenden Arbeiten zu konsolidieren. Dies ist das Ziel dieses Beitrags.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-6398-7_3 79d662ef9085bd00ccaec1beea96a03d;de;;;1.1.;;;Theoretische Forschungsansätze zur Erklärung der Wirkungsweise und des Erfolgs von EventmarketingDie nachfolgenden theoretischen Ansätze sind als ausgewählte theoretische Zugänge zu denken, mit deren Hilfe das kommunikationspolitische Instrument des Eventmarketing in seiner interaktiven Struktur zu fassen versucht werden könnte. Die Auswahl der Forschungsansätze orientiert sich dabei an einer Individual- und einer Sozialperspektive, vor deren Hintergrund Interaktionsprozesse erklärt werden können;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08486-0_5 e157bd9b417ef71a704b276e353467c2;de;;;1.1.;;;Texte formulieren — TextbearbeitungDas häufigste schriftliche Kommunikationsmittel ist immer noch der Brief. Versuche den Schriftverkehr auf Papier einzudämmen, sind bisher nicht gelungen. Selbst große Unternehmen, die sämtliche Daten auf Datenspeichern festhalten, lagern die ”Papierunterlagen„ weiterhin in ihren Archiven.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-90537-6_2 586fa5a26030de458ef8c2cc21ba46ab;de;;;1.1.;;;Digitale Datenverarbeitung und SignalanalyseBeim derzeitigen Stand der Technik erfolgt nicht nur die Versuchssteuerung und Digitalisierung, sondern auch die Datenaufbereitung, Auswertung (sowohl Frequenzanalysen wie auch die Analyse gemittelter Potentiale), Kennwertbildung und statistische Analyse mit dem Computer. Seit einigen Jahren werden zwar Komplettsysteme (Reizdarbietung und Auswertung bis zur Kurvendarstellung) angeboten, allerdings meistens auf Kosten der Flexibilität, welche vor allem bei komplexeren Auswerteverfahren, wie z.B. von Kennlinien (Trimmel, 1988b), oder bei umfangreicheren Datenstrukturen und deren Analyse notwendig ist (z.B. 3 Gruppen, 4 Versuchsbedingungen, 5 Antwortkategorien, 3 Ableitungen und eine Reihe von Kennwerten, wie z.B. bei Groll-Knapp, Wurst, Wess & Trimmel, 1988). Letzlich ist man meistens an bestimmte implementierte Verfahren gebunden (z.B. die EOG-Korrektur, sofern sie überhaupt mitberücksichtigt ist), welche sich meistens nicht oder zumindest nicht leicht verändern lassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-75892-8_4 784aed3a07bb37a19c01928c634fcc12;de;;;1.1.;;;Theorie der Prozesshaftigkeit Teil II: Begriffe aus den Theorien zur fiktiven FigurEine intrapersonelle Wandlung stellt ein dynamisches Geschehen dar. Es ist daher anzunehmen, dass dieser erzählerisch-inhaltliche Vorgang über gestalterische Elemente einer Figurenkonstruktion visualisiert ist, die von formalen Entwicklungsund Veränderungsprozessen gekennzeichnet sind. Zur Beantwortung der Fragestellung gilt es, das figurenbezogene filmgestalterische Datenmaterial auf darin aufgebaute Strukturen zu untersuchen, die von Prozesshaftigkeit gekennzeichnet sind. Im nun Folgenden werden diejenigen theoretischen Begriffe und Kategorien aus den Theorien zur Figur herausgestellt, deren Begriffsdefinitionen und zugrunde liegende abstrakte Denkfiguren bereits ein Verständnis von Prozesshaftigkeit als Gestaltungsphänomen beinhalten. Mit diesen ausgewählten Theoriebegriffen und methodischen Instrumentarien lassen sich die Gestaltungsmuster erforschen, welche für die Visualisierung einer charakterlichen Wandlung eingesetzt werden. Ebenso kann herausgearbeitet werden, ob in den Visualisierungsmustern der Figur und ihrer charakterlichen Entwicklung die Etablierung prozesshafter Strukturen besonders auffällig ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-92734-3_3 aad2ed5f0397f2b3bbc053bcf2c1defa;de;;;1.1.;;;Modell zur primären und sekundären Metastasierung beim Mammakarzinom und dessen klinische Bedeutung Mit einer adjuvanten lokoregionären Bestrahlung nach radikaler Operation wird ein Überlebensvorteil für Patientinnen mit Brustkrebs erzielt. Er beginnt verzögert nach Primärtherapie und erreicht nach 15 Jahren ca. 10%. Welche Zusammenhänge könnten eine solche Langzeitwirkung erklären?;-;-;-;https://link.springer.com/article/10.1007/PL00002353 57aa316223828e51bd529b6cf8aafd0b;de;;;1.1.;;;Das System der Massenmedien in der Theorie selbstreferentieller SystemeZur wissenschaftstheoretischen Fundierung, auf Grund derer das Phänomen des Selbstbezugs im Fernsehen nachfolgend weiterbearbeitet werden kann, bietet sich eine Auseinandersetzung mit Gedanken und Konzepten neuerer Systemtheorie, der Theorie selbstreferentieller Systeme, geradezu an.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-97668-0_3 b567b0ec70fdb2b168fc12533e3d93f4;de;;;1.1.;;;Modelle der kognitiven Verarbeitung und Repräsentation musikalischer StrukturenBereits Kurth (1931) hat ansatzweise das Programm formuliert, das die Musikpsychologie gegenwärtig aufzugreifen bèginnt: “Die Musikpsychologie muß zur Theorie greifen, ähnlich wie man aus der Grammatik eine Psychologie der Sprache rekonstruieren kann“ (Kurth, 1931). Hiermit weist er der Musiktheorie eine Funktion für die Musikpsychologie zu, die der der Linguistik für die Sprachpsychologie vergleichbar ist: Strukturbeschreibungen der Musiktheorie sollten Eingang finden in die Bildung von Hypothesen zu strukturellen Aspekten der Verarbeitung beim Hören von Musik, und Aufgabe der experimentellen Musikpsychologie wäre es, die Nützlichkeit solcher Hypothesen im Rahmen einer Theorie der Verarbeitung und Repräsentation musikalischer Strukturen zu beurteilen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-70747-6_5 34ba5216d508afa0e6a69e8deb03e6db;de;;;1.1.;;;Attributionstheorien und Suche nach Ursachen sozialer EreignisseDieses Kapitel befasst sich mit Attributionstheorien. Das sind Denkmodelle, die erklären, wie Menschen Ursachen sozialer Ereignisse, des eigenen Verhaltens und des Handelns ihrer Mitmenschen ergründen. Attributionstheorien stammen vom Sozialpsychologen Fritz Heider (1896–1988). Er deckte die allgemeine menschliche Tendenz auf, herauszufinden, warum Menschen ein bestimmtes Verhalten an den Tag legen. Auf dieses ‚warum‘ wollen Menschen unbedingt eine Antwort. Das hilft, Gefühle von Unsicherheit zu überwinden. Insbesondere in Situationen, die unklar und unerwartet sind, bemühen sich Menschen, die Ursachen (Kausalitäten) zu verstehen. Dabei kombinieren sie Informationen aus früheren Erfahrungen und gegenwärtigen Ereignissen und suchen gleichzeitig nach Verallgemeinerungsmöglichkeiten. Dieses Phänomen nennt sich Kovariationsprinzip (Kelley ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-62922-2_3 c7fea384b04224cb66e02750ad919a95;de;;;1.1.;;;Musikalische Symbolisation und WeltverhältnisDie Frage nach Musik und Erkenntnis fällt zusammen mit der Frage nach (musikalischen) Symbolen in ihrer Funktion für den Verstehensprozeß von Welt und Selbst. Vor dem Hintergrund der syntaktischen und semantischen Welt-»Erzeugungs«-Weisen von Symbolsystemen zeichnet sich jetzt eine genauere Kontur des Verhältnisses von Kognition und Symbol ab. Das Folgende faßt die Eigenschaften dieses Verhältnisses zusammen, um damit zugleich eine systematische Basis für die kommenden Argumentationsschritte zu legen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-476-04294-1_6 bb16e158234cab13ea938c2bf65988b9;de;;;1.1.;;;Das Verhalten der Wechselkurse ausgewählter WährungenIn diesem Kapitel soll das Zeitreihenverhalten der Kassa- und Terminkurse empirisch untersucht und die Verteilung der Wechsel-kursänderungen analysiert werden. Obwohl wir weiter oben gesehen 1 haben, daß auf Grund verschiedener theoretischer Argumente a priori nicht angenommen werden kann, daß die Wechselkurse in effizienten Devisenmärkten einem Random Walk bzw. einem Martingal folgen, I wollen wir hier diese Modelle gewissermaßen als Nullhypothese verwenden, mit der das Zeitreihenverhalten der beobachteten 1 Wechselkurse verglichen werden soll. Wir halten dieses Vorgehen schon deshalb für gerechtfertigt, weil diese Modelle in der theoretisch und empirisch orientierten Literatur über das Verhal- 1 ten spekulativer Preise eine vergleichsweise große Rolle gespielt und sich vor allem zur Beschreibung des Verhaltens von Aktien-kursen als gute Approximation erwiesen haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-69250-5_5 df030878caf29e24926a1b37641c79d0;de;;;1.1.;;;Familientherapie und SystemtheorieMit dem nun folgenden Kapitel wenden wir uns der eigentlichen Thematik dieses Buches zu, die sich um die beiden Fragen kristallisiert: (1) Kann die familientherapeutische Vorgehensweise sich in ihrer theoretischen Fundierung an die Systemtheorie anlehnen? (2) Lassen sich als gemeinsamer Nenner verschiedener familientherapeutischer Ansätze systemtheoretische Axiome formulieren? Zum Versuch der Beantwortung dieser Fragen greife ich zunächst auf Grundlagen der Systemtheorie zurück (Abschnitt 2.1.). Daran anschließend diskutiere ich die generelle Problematik der Übertragung einer systemtheoretischen Begrifflichkeit aus den Naturwissenschaften auf die Sozialwissenschaften (2.2.). Im dritten Abschnitt dieses Kapitels beschäftige ich mich ausführlich mit der Übernahme systemtheoretischen Grundlagenwissens durch Familientherapietheoretiker (2.3.). Im Anschluß daran entwerfe ich diejenigen Leitlinien, die mir zur Begründung einer systemtheoretisch orientierten Familientherapietheorie und Familientherapieforschung als essentiell erscheinen (2.4.). Abschnitt 2.5. bietet eine Kurzzusammenfassung der Ergebnisse von Kapitel 2.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82615-3_3 f2594b66a96a259d902c41e431d82e16;de;;;1.1.;;;Sektion MethodenDie Leseliste der Sektion Methoden verweist auf wenige zentrale Werke, die dem einführenden Studium dienen sollen. Weiterführende Literatur findet sich dort. Das Gebiet der Methoden der Empirischen Sozialforschung ist jedoch in raschem Wandel, sodaß es sich dringend empfiehlt sich via Information Retrieval Systemen oder über das IZ Sozialwissenschaften auch über den neuesten Stand der Zeitschriftenliteratur auf dem laufenden zu halten. Zu den Retrievalwerkzeugen gehört u.a. der Social Science Citation Index und die Spezialdatenbank SMR.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-98587-3_12 e9adeefb46a333588b2cff9117e30384;de;;;1.1.;;;Vergleich verschiedener Paradigmen für die fMRT zur Bestimmung der Hemisphärendominanz für sprachliche FunktionenDie funktionelle Magnetresonanztomographie (fMRT) ermöglicht es, bei sprachlichen Prozessen involvierte Hirnregionen nichtinvasiv zu lokalisieren. Für die klinische Anwendung ist die Kenntnis des Einflusses der verwendeten Sprachaufgaben auf die in der fMRT dargestellte Aktivierung von entscheidender Bedeutung.;-;-;-;https://link.springer.com/article/10.1007/BF03043431 21d09dcf32a30804f55807ddc18d2bca;de;;;1.1.;;;Determinanten des Risikoverhaltens bei IndividualentscheidungenBei der Darstellung der Entscheidungsdeterminanten wird eine Systematisierung in situative, personale und soziale Einflußgrößen gewählt. Es bedarf keiner besonderen Erwähnung, daß eine derartige Einteilung Abgrenzungsprobleme aufwirft;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-13637-8_8 4fc2852b7299e2156761842734570cf6;de;;;1.1.;;;Konzeptionelle Grundlagen und ForschungsstandIm Folgenden werden zunächst Grundlagen des allgemeinen Markenmanagement behandelt, die für das Verständnis der Corporate Brand bzw. des Corporate Brand Management von Bedeutung sind. Auf Grund der Vielzahl sowohl an allgemeiner Markenliteratur als auch Literatur zum Corporate Brand Management existieren viele unterschiedliche Auffassungen und Abgrenzungen der relevanten Begriffe. So sieht es die Autorin der vorliegenden Arbeit als notwendig an, in einem ersten Schritt ein in sich stimmiges Basisverständis dieser Begriffe zu schaffen. Die nachfolgenden Ausführungen gelten für Marken im Allgemeinen. Wird demnach unspezifisch von der „Marke“ gesprochen, gilt dies für jegliche Form von Marken und so auch für die Corporate Brand. Hierauf basierend werden daher an späterer Stelle lediglich die Besonderheiten von Corporate Brands im Allgemeinen — im Sinne einer spezifischen Markenerscheinungsform — sowie im internationalen Kontext betrachtet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-9684-8_2 c20540b62a64f1680aa760c17ae7c55f;de;;;1.1.;;;Kritische Kriminologie und SystemtheorieMan kann die gesamte Problematik nach der gesellschaftlichen Relevanz des (Straf-)Rechts von zwei Seiten angehen, zum einen die Frage nach den Ursachen von Kriminalität (oder auch Abweichung) stellen und aus dieser individualisierenden Perspektive heraus das Recht nach möglichen Limitierungen absuchen. Diese Variante der Problembearbeitung soll hier nicht mein Schwerpunkt sein, weil die Frage auf einem anderen gerade nicht individualisierenden Feld gestellt werden muß, wie am Ende des Beitrags deutlich werden wird.’ Die andere Alternative ist daher, eine eher makroperspektivisch zu nennende Sicht einzunehmen und von hier aus die gesellschaftliche Relevanz des Rechts zu beantworten. Wenn man für einen systemtheoretischen Standpunkt optiert, so erscheint die klassische Unterscheidung Mikro/Makro jedoch mehr als fragwürdig, so daß ich eigentlich keine von beiden Alternativen wähle, es sei denn andere können eine gewisse Nähe zu dieser klassischen Distinktion erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-95639-2_3 6eb2cf7bedf9b3177fef661ee13590a6;de;;;1.1.;;;Vielfalt und Wandel in MehrebenensystemenIn diesem Kapitel werden inhaltliche Fragen sozialwissenschaftlicher Mehrebenensystem-Modellbildung weiter in den Vordergrund rücken. Zugleich werden die im Kapitel 2 ausgeführten Ansätze, nunmehr besonders bezogen auf das qualitative Studium komplexer dynamischer Systeme, weiter fortgeführt. Zum Nachweis der sozialwissenschaftlichen Brauchbarkeit der Mehrebenensystem-Modellierung gehört die Verteidigung des Konzepts der asymmetrischen Beziehung zwischen Systemen verschiedener Ebenen einer Hierarchiedimension. Die Behauptung, daß solche Beziehungen real bedeutsam sind, ist nicht unmittelbar klar. Oberflächlich betrachtet scheint sie sogar im Widerspruch zu beobachtbaren Phänomenen des sozialen Wandels und der sozialen Vielfalt zu stehen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-83848-3_4 5d079bec81655217524d5a06440af893;de;;;1.1.;;;Rechnergestützte Methoden zum Entwurf und zur Bewertung von Mensch-Maschine-SystemenIm Verlauf technischer Entwicklungsarbeiten greifen Ingenieure zunehmend auf rechnergestützte Methoden zurück (Computer Aided Design), um Entwicklungsziele wie Sicherheit, Wirtschaftlichkeit und Zuverlässigkeit in einer frühen Phase des Entwicklungsprozesses abzuschätzen und sicherzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-93339-4_18 c9c162e1c53c872af793265106c0a49f;de;;;1.1.;;;Cognitive Behavioral Analysis System of Psychotherapy (CBASP)CBASP ist eine Methode der Verhaltenstherapie, die spezifisch für die Behandlung von erwachsenen Patienten mit einer chronischen depressiven Störung entwickelt wurde. McCullough, der Urheber der Methode, hat über Jahrzehnte (Vorarbeiten gehen in die 70er-Jahre zurück) dieses Behandlungsprogramm entwickelt und als Therapiemanual publiziert (McCullough, 2006).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16197-1_71 c75357158fc30420fbc22110e0a17cc0;de;;;1.1.;;;CRM im Spannungsfeld zwischen Theorie und praktischer UmsetzungDie Anforderung an Unternehmen, ihre Aktivitäten an ihren Kunden auszurichten, hat seit der Jahrtausendwende unter dem Begriff Customer Relationship Management (CRM) Einzug in die Marketing-Theorie gehalten. Über die organisatorische, prozessuale und inhaltliche Verankerung des CRM im Unternehmen wurde seitdem ein umfangreicher Erkenntnisschatz aufgebaut. Doch was ist davon tatsächlich in der Unternehmenspraxis angekommen? In einer Befragung von Marketing-Entscheidern hat das Siegfried Vögele Institut den aktuellen Umsetzungsstand des CRM in deutschen Unternehmen untersucht und den theoretischen Empfehlungen gegenüber gestellt. Insbesondere bei der Kundenbewertung, dem Multi-Channel-Management und dem CRM-Controlling klaffen zwischen Theorie und Praxis noch große Umsetzungslücken. Um die größten Lücken zu schließen, sollten Unternehmen eine Standortbestimmung durchführen und auf dieser Basis die zu ergreifenden Maßnahmen priorisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-05232-4_7 2f6d362757e716d7b14d39415ae50681;de;;;1.1.;;;Die soziale Dimension von WertenIm folgenden wird eine Konzeption entwickelt, mit der die Stellung von Werten im sozialen Kontext präzisiert werden kann. Daß dabei auf Teile der Gesellschaftstheorie des französischen Soziologen Emile Durkheim zurückgegriffen wird, hat folgende Gründe: Erstens hat Durkheim mit dem Begriff der kollektiven Vorstellung einen Begriff geprägt, der für die Konzeption einer sozialen Sozialpsychologie, von zentraler Bedeutung ist. Zweitens hat sich Durkheim unmittelbar mit dem Problem des Werturteils beschäftigt und dabei versucht, die begrifflichen Merkmale von Werturteilen aus soziologischer Perspektive zu kommentieren und zu erklären. Drittens kann Durk-heims Denkweise selbst als sozialpsychologisch bezeichnet werden, sofern er immer die systematischen Beziehungen von ego, alter, Objekt und allgemeiner Regel im Auge behält.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-97244-6_6 aab98b8f860fc8d8eb6d95e1e3e74e3e;de;;;1.1.;;;Wie gelingt gemeinsames Lernen in asynchronen Lernumgebungen?Im Pflegebereich ist eine kontinuierliche Fort- und Weiterbildung wichtig, wobei zunehmend auch online-gestützte Angebote entstehen. Studieren in online-gestützten Lernsettings bietet eine Reihe von Vorteilen wie die Zeit- und Ortsunabhängigkeit des Lernens. Dem gegenüber steht die Herausforderung, auch in virtuellen Lernumgebungen und damit verbundenen asynchronen Lernsettings soziale Interaktionen und gemeinsames Lernen zu fördern. Entsprechende Angebote müssen daher sorgfältig entworfen werden.;-;-;-;https://link.springer.com/article/10.1007/s41906-017-0133-x 45c97679d09cce75fc8c66ca251ceebe;de;;;1.1.;;;Ist bereits die präattentive Wahrnehmung Schizophrener gestört?Wahrnehmung und Aufmerksamkeit sind eng miteinander verknüpft, so daß Veränderungen des einen Vorgangs scheinbar notwendig den anderen beeinflussen. Gezielte Aufmerksamkeit gestattet es uns, einen Teil des Wahrnehmungsfeldes herauszugreifen und damit gleichsam zu „beleuchten“ wie ein Scheinwerfer die Bühne, wobei der Rest des Feldes unbeachtet bleibt (vgl. Treisman u. Gelade 1980, Hurlbert u. Poggio 1985).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-77086-9_54 aacdaf5d5df764a54395d7f7d7a9bb9f;de;;;1.1.;;;Die Inter-Nation Simulation und neuere Theorien internationaler BeziehungenGegenstand dieses Aufsatzes ist es, die Inter-Nation Simulation (INS), die von Harold Guetzkow und seinen Kollegen an der Northwestern University entwickelt worden ist und inzwischen von einer Reihe von Universitäten überall in den USA angewendet wird, mit verbalen Theorien internationaler Beziehungen zu vergleichen. Es geht hier nicht um eine Erörterung der methodologischen Grundlagen von Simulationsmodellen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-00203-1_7 57c4e81f28448d0c8c6745d256612ccd;de;;;1.1.;;;Methodischer RahmenAufbauend auf den im vorhergehenden Abschnitt formulierten Forschungsfragen werden in diesem Kapitel die methodischen Grundlagen der empirischen Untersuchung beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-32242-7_6 f5b4e8be4ba9a8bd6336666385f55e47;de;;;1.1.;;;Transaktionskostenanalytische Modellierung der internationalen Markteintrittsentscheidung von KMU in ChinaEin Markteintrittsmodell muss wesentliche Determinanten der internationalen Markteintrittsentscheidung integrieren. Es kann nicht alle Einflussfaktoren berücksichtigen (vgl. auch Anderson-Coughlan 1987, 72, PlaBarber 2001, 457). Bei der Verwendung einer Vielzahl von Variablen sieht Söllner (2008, 365) zudem das Problem, dass der Fokus verloren geht und eindeutige und klare Empfehlungen für das Management in einem geringeren Ausmaß möglich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-4440-5_3 fc72d8b40c9be678b9b47e933e4c00ee;de;;;1.1.;;;Videotex im Kontext der Computer Graphik StandardsDurch den nationalen und internationalen Erfolg des Graphischen Kernsystems (GKS) /ISO 7942 - 85/DIN 66 252/ wurde ein Bewuβtseinswandel in der internationalen Computer Graphik Öffentlichkeit vollzogen. Was man früher als unmöglich erachtete, ist plötzlich in den Bereich des unmittelbar erreichbaren gerückt. Dies hat insbesondere auch das Gewicht der Graphik innerhalb der Normungsgremien erhöht. Nach GKS erfolgt eine zügige Weiterarbeit an Folge- und Ergänzungsnormen. Im folgenden will ich versuchen, einen kurzen Überblick darüber zu geben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-71378-1_9 664e64f4f97f253d784d6395ffd30567;de;;;1.1.;;;Lernen mit dem ComputerDie vorliegende Untersuchung widmet sich der Frage, welchen Einfluss Computeranimationen auf die Raumvorstellungsentwicklung bei Grundschülern haben können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-03547-1_2 36beb525c46aa11c5077657c34754741;de;;;1.1.;;;Interpretation und Aussagewert mehrdimensionaler Einstellungsmodelle im MarketingIm Rahmen einer entscheidungsorientierten Marketing-Theorie werden Prognose- und Entscheidungsmodelle entwickelt, die letztendlich dem Zweck dienen sollen, Entscheidungen von Marketing-Managern über den Einsatz der Marketing-Instrumente zu unterstützen. Modelle des Käuferverhaltens sind dabei für die Planung des Marketing-Mix von entscheidender Bedeutung (vgl. dazu z. B. Schulz 1972, Kroeber-Riel 1975).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-85815-3_7 6c3d980be9bb9d615d66b4d2863519ee;de;;;1.1.;;;“Grundstörungen”: Modelle der ÄtiopathogeneseDie Frage nach dem, was der Wahn “eigentlich” ist, wurde und wird nicht selten dadurch zu beantworten versucht, daß man auf seine Genese verweist. “Meist wurde die Entstehung und das Wesen des Wahns durcheinandergeworfen”, bemerkt ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-74722-9_4 2f27a7b73b3d50ab13d002eb73da966c;de;;;1.1.;;;Theoretisch-konzeptionelle Basis zur Untersuchung der Kapital-marktreaktionen auf die Benennung internationaler Top-ManagerDie Ausführungen in Kapitel 2 veranschaulichen, welcher Personenkreis zum Top- Management-Team eines Unternehmens zählt, in welchen Dimensionen sich die Internationalität eines Individuums manifestieren kann, welche Kennzahlen den finanziellen Erfolg eines Unternehmens widerspiegeln und was unter dem Begriff „Internationalität der Unternehmensaktivitäten“ verstanden werden kann. Theoretisch fundierte Aussagen zu den Wirkungszusammenhängen zwischen diesen einzelnen Konstrukten wurden bislang jedoch noch nicht formuliert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-00762-1_4 bbf6b1e41bafd5b563fe543eed000db4;de;;;1.1.;;;Politpsychologische Bemerkungen zur LegitimationskriseÜber unsere Form und die Ebenen politisch bedeutsamer Willensbildung wird im Rahmen des Geltungsbereichs dieser Regeln einerseits kritisch diskutiert: es handle sich nur um „formale Demokratie“, insofern den politischen Entscheidungsprozessen wichtige Bereiche gesellschaftlichen Lebens, das ist insbesondere die Wirtschaft, gemäß liberalem Verständnis entzogen bleiben. Demokratisierung, heißt es, müsse inhaltlich vor-anschreiten. Selbstbestimmung als politisches Programm könne nicht vor dem Halt machen, was unser Leben so grundlegend okkupiert: vor der gesellschaftlich in spezifi-scher Weise, nämlich kapitalistisch organisierter Ausbeutung der Natur. Die Verselb- ständigung der Organisationsstrukturen dessen, was man früher einmal vermittels Poli-tischer Ökonomie zu begreifen versuchte, aber auch die staatlichen Strukturen sollen denen, welche sie hervorbringen, nicht mehr als Heteronomes gegenüberstehen. Viel-mehr wäre kapitalistische Naturausbeutung so zu verändern, daß nicht nur die alten liberalen Übel zyklischer Krisen und deren neuere gezähmte Formen wieder zur Verfü- gung stehen. Darüberhinaus sollen die Wunden menschlicher Herrschaft über Naturüberhaupt geheilt werden: Herrschaft, die mit ihrer Ausdehnung über Natur auch gegenüber Menschen eine immer größer werdende Rolle zu spielen begann, soll aus menschlichen Verhältnissen verbannt werden. Dies ist das (z. B. von Marcuse formu-lierte) Maximalprogramm, in welchem die Vorstellung von Revolution als einer radikalen Erneuerung der gesellschaftlichen Verhältnisse fortlebt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-88717-7_6 0f2ba8fdc8d248fd2a0d31d3af2e1927;de;;;1.1.;;;Dezentrale Rechnerversorgung Eines InformatikinstitutsDas Institut für Informatik der Technischen Universität München sieht sich einer stark wachsenden Zahl von Studenten gegenüber. Um auch unter diesen veränderten Bedingungen eine solide Informatik-, insbesondere Programmierausbildung anbieten zu können, ist eine ausreichende Rechenkapazität notwendig. Dieser Rechenbedarf wird heute überwiegend durch ca. 90 untereinander vernetzte MARS Arbeitsplatzrechner gedeckt. Dieses Papier berichtet über Hintergründe und Randbedingungen für die Entwicklung von MARS und über mittlerweile mit dem Rechnerverbund gewonnene Betriebserfahrungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-70286-0_3 5c68e5ca4cf12bac5fb547e50ad646eb;de;;;1.1.;;;Mehrschichtige NetzeDie Kombination verschiedener Schichtarten bringt uns neue Funktionen des Gesamtnetzes, die mit einer Schicht vorher nicht möglich waren. Diese Funktionen lassen sich mit dem Begriff der ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-93994-4_5 12759f0677d7554600dba89d05d53b5f;de;;;1.1.;;;Grundelemente einer Theorie gesamtgesellschaftlicher SteuerungIn den vorangegangenen Kapiteln sind die normativen, philosophischen und metatheoretischen Annahmen einer Sprache gesamtgesellschaftlichen Handelns untersucht worden, im folgenden wenden wir uns den Grundelementen einer spezifischen Theorie des Makrohandelns, der Theorie gesamtgesellschaftlicher Steuerung, zu. Die hier vorgebrachten Bemerkungen versuchen zwei Schlüsselfragen zu beantworten: Wer sind die Träger und Regulatoren gesellschaftlichen Handelns, und welche Beziehungen existieren zwischen ihnen?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-83534-5_5 7ee47bd6eecc961dfdc3bdaa231dfad6;de;;;1.1.;;;MOOCs in der WirtschaftsinformatikDer vorliegende Beitrag erklärt den Begriff der MOOCs, arbeitet deren Merkmale heraus und liefert einen Überblick über Angebote, Geschäftsmodelle und Leistungsnachweise. Untersucht wird, inwieweit die Wirtschaftsinformatik von der Bewegung betroffen ist und ob Interessierte und Studierende sich auf diese Weise auf Hochschulniveau aus- und weiterbilden können. Es besteht, wie sich herauskristallisiert, ein schmales, aber nützliches Angebot, als mögliche Ergänzung zum bisherigen Unterricht.;-;-;-;https://link.springer.com/article/10.1365/s40702-014-0103-3 fa258d504a1dc0ffed58eb24a7be57c4;de;;;1.1.;;;Ableitung eines Erfolgszusammenhanges aus der konzeptionellen und empirischen LiteraturIm vorangegangenen Kapitel 7 wurde der Erfolgseinfluss der Kundenorientierung bei hochgradigen Innovationen auf der Basis des ressourcenbasierten Ansatzes und der Ressourcenabhängigkeitsperspektive theoretisch abgeleitet. Von Theorien zu unterscheiden sind konzeptionelle und empirische Beiträge. Im Folgenden wird zunächst ein Überblick zu relevanten Befunden im Kontext der Kundenorientierung aus der ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-9483-3_8 f5c59c87831677e4a3914b18ccb1e1ff;de;;;1.1.;;;EDIF: Eine Methode zum Transfer von StromlaufsymbolenEs wird ein CAE/CAD-Konzept vorgestellt, das die schnelle, fehlerfreie und systemneutrale Erstellung von Stromlaufsymbolen, basierend auf zentralen Bibliotheken, erlaubt. Den Datenaustausch mit CAE/CAD-Systemen leisten die auf das betreffende System abgestimmten Postprozessoren. Mit der Integration eines EDIF-Generators Anfang 1988 steht nun auch eine Standardschnittstelle zur Verfügung. Über erste Erfahrungen bei deren Installation und Anpassung an ein CAE/CAD-System wird berichtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-74135-7_24 db98e71076cfe8745bd8d247c104aecf;de;;;1.1.;;;Einleitung und theoretische FundierungDer Grundgedanke des Marketing, die konsequente Orientierung am Markt, genauer gesagt an den Marktpartnern, hat in nahezu allen Bereichen des Wirtschaftslebens Eingang gefunden. Betrachtet man die klassische Dreiteilung in Konsumgüter-, Investitionsgüter- und Dienstleistungsmarketing, so sind insbesondere die Marktbeziehungen auf den Gütermärkten unter Marketinggesichtspunkten wissenschaftlich weitestgehend analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-97682-6_1 99ceb1372d844da82349daa53935ae02;de;;;1.1.;;;Übertragbarkeit der Sanierungsmaßnahmen auf ZhejiangZiele nachhaltiger Sanierungsprojekte sind in Deutschland, mit ökologischen Maßnahmen Energie einzusparen und zu gewinnen, Wasser zu recyceln und einzusparen, die ökologische Qualität der Gebäude und der Innenraumluft durch den richtigen Einsatz von Baustoffen zu erhöhen, Abfall zu minimieren und die Attraktivität der Wohnung auf Dauer zu steigern. Für die nachhaltige Wohngebäudesanierung in China werden in der Zukunft vor allem drei Elemente von besonderer Wichtigkeit sein: Behaglichkeit, Ökologie und Ökonomie (s. Abbildung 6-1). Aufgrund des zu erwartenden steigenden Lebensstandards in China legt diese Arbeit ihren Fokus auf die Verbesserung des Komforts bei einer gleichzeitigen Eindämmung des wachsenden Ressourcenverbrauchs.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-09755-4_6 fac7627fddb79ceb75aa51a26c4f16f2;de;;;1.1.;;;Expertenwissen und LaienwissenAlle Kommunikation, auch die zwischen Ärzten und Patienten und ganz all gemein die zwischen Experten und Laien setzt als conditio sine qua non einen Grundbestand an gemeinsamem Wissen voraus. Ohne zumindest unterstellbare gemeinsame und damit anschlußfahige Wissensbestände sind Kommunikation und Verständigung unmöglich (vgl. Hahn 1989, speziell zur Rolle von Experten bei öffentlicher Kommunikation vgl. Neidhardt 1994a).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-89004-7_5 7875e940f584db6c24502692737cd60a;de;;;1.1.;;;Elemente einer systemtheoretischen Betrachtung des StoffwechselsThe discussion of general formal properties of metabolizing systems reveals the justification of applying tentatively General Systems Theory as a most general background. Whereas set-theoretical and graph-theoretical considerations, because of their very abstract nature, are obviously not well suited, the application of the theory of compartmented systems, elaborated on the basis of network or linear systems theories, seems to be useful. In metabolic studies physical models in the sense of computers operating as simulators are indispensable tools for research. A comparison between cybernetic and kinetic models demonstrates the many links and similarities rather than contrasts existing between them. Some epistemological problems are also included in the extended discussion of the concepts of information and energy, basical for these models.;-;-;-;https://link.springer.com/article/10.1007/BF01611609 5d2b79567999bcfce1d2e043aa4e7869;de;;;1.1.;;;Biologische Grundlagen der Therapie schizophrener PsychosenUm die Bedeutung der biologischen Therapie, die im wesentlichen eine Pharmakotherapie ist, richtig einschätzen zu können, muß man von einer pathogenetischen Annahme ausgehen: Nach heutiger Auffassung ist die Schizophrenie eine episodische Störung auf der Basis einer lebenslänglich bestehenden Disposition (Vulnerabilität). Sie chronifiziert nur dann, wenn ungünstige exogene Momente hinzutreten. Auslöser der akuten Episode ist oft ein emotionaler Streß. Diese Vorstellung der Krankheitsentwicklung nimmt an, daß biologische Faktoren hauptsächlich in der akuten Phase wirksam sind. Vermutlich handelt es sich dabei um eine Disfunktion des limbischen Systems, die eine verstärkte Empfindlichkeit für Diskrepanzen zwischen Erwartung und Wahrnehmung zur Folge hat und sich klinisch als kognitive Störung manifestiert. Die bereits bestehenden Annahmen eines Komparators im septo-hippocampalen System, der Erwartung und Wahrnehmung vergleicht, und zweier alternativer Wege der Informations­verarbeitung erlauben, eine erweiterte Dopaminhypothese der Schizo­phrenie zu formulieren, die viele klinische Beobachtungen berücksichtigt. Aus dieser Dopaminhypothese ergeben sich für die Therapie, ihre Dauer, den Einsatz von Neuroleptika und die ambulante und prophylaktische Behandlung eine Reihe von Konsequenzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-9159-0_9 7a0a5a8e06f752bd9ad80b4f7af4de6d;de;;;1.1.;;;Regionalisierung als Beitrag zur Nachhaltigkeit im Bereich der industriellen ProduktionIm Bereich der industriellen Produktion besitzen Konzepte der Regionalisierung von Wirtschaftsaktivitäten, beispielsweise auf Grund der Möglichkeit zur Schließung von Stoffkreisläufen, große Potenziale zur Unterstützung einer nachhaltigen, gesamtwirtschaftlichen Entwicklung, finden dort jedoch kaum Berücksichtigung.;-;-;-;https://link.springer.com/article/10.1007/BF03182940 e07ea57ba9b4ed5408fb76b0beeaebb9;de;;;1.1.;;;Leistungs- und bedarfsorientierte Bewertung des Personalbestandes im Klinikum der Universität KielKrankenhäuser sind personalintensive Einrichtungen. Es können bis zu 75 % der Kosten des Krankenhausbetriebes auf Personalkosten entfallen (5). Eine im Auftrag des Sozialministeriums des Landes Schleswig-Holstein durchgeführte Ermittlung des Personalbedarfs für den stationären Bereich im Klinikum der Universität Kiel gab uns die Anregung zur Überprüfung der verwendeten Bemessungsgrundlage.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-81404-4_22 9932808eb734a36118913b595186234b;de;;;1.1.;;;Muster des Gesundheitsverhaltens und ihre Determinanten—Ergebnisse des Bern-Münchner LebensstilpanelsEine Studie zu gesundheitsrelevanten Lebensstilen bei 55-65jährigen Münchnerinnen und Münchnern wurde mit einem unabhängigen Paralleldatensatz aus Bern verglichen. Die acht gesundheitsbezogenen Verhaltensmuster, die in der Münchner Stichprobe clusteranalytisch identifiziert wurden, fanden sich auch im Berner Datensatz wieder. Dagegen unterschieden sich die Ergebnisse multipler logistischer Regressionen zur Analyse möglicher Determinanten der Verhaltensmuster zwischen den Datensätzen teilweise erheblich. Übereinstimmungen bezüglich der Einflussgrössen in beiden Stichproben fanden sich für die soziodemographischen Merkmale Geschlecht, Berufsprestige, soziale Unterstützung durch Freunde und für das Merkmal Achten auf regelmässige Mahlzeiten. Andere Variablen zeigten entweder nur in einer der beiden Stichproben bedeutsame Effekte oder unterschieden sich in ihrer Einflussrichtung.;-;-;-;https://link.springer.com/article/10.1007/BF01300272 1c2954d77fe1a57b44fcbd80d7dd557f;de;;;1.1.;;;Dimensionen der Qualität komplexer DienstleistungenAuf der Basis der im ersten Teil vorzunehmenden Abgrenzung komplexer Dienstleistungen von einfach strukturierten sollen im zweiten Teil konzeptionelle Ansätze zur Operationalisierung der Qualität von Dienstleistungen daraufhin diskutiert werden, inwieweit sie auch auf komplexe Dienstleistungen übertragbar sind. Nach einer vergleichenden Beurteilung dieser Ansätze soll im dritten Teil zunächst das empirisch fundierte Modell von ZEITHAML, BERRY und PARASURAMAN vorgestellt und dem speziell für komplexe Dienstleistungen entwickelten Teilleistungsmodell gegenübergestellt werden. Im Anschluß werden beide Modellansätze ebenfalls auf der Basis der Dimensionen komplexer Dienstleistungen beurteilt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-97706-9_2 0afae0216cb3efe478fb498a58cd6c13;de;;;1.1.;;;Analyse der Entscheidungsrelevanz von ManagementprognosenEreignisstudien haben sich in der empirischen Kapitalmarktforschung als State of the Art zur Untersuchung der Entscheidungsrelevanz bestimmter Informationsereignisse im Hinblick auf den Börsenwert eines Unternehmens etabliert. Die bis heute verwendete Methodik geht im Wesentlichen auf die späten 1960er Jahre, konkret auf die Arbeiten von ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-05906-4_5 c45001f3d1ef49270dfb899219cf3c74;de;;;1.1.;;;Eine Entwurfsmethode für portierbare Netz-Betriebssystem-KomponentenDieser Bericht behandelt eine Methode zur Entwicklung betriebssystemnaher Software mit einheitlicher Anwenderschnittstelle in unterschiedlichen Betriebssystem-Umgebungen. Netz-Betriebssysteme sind spezielle Vertreter dieses Softwaretyps zur Verwaltung globaler Betriebsmittel eines Rechnernetzes. Ihre im Netz verteilten Komponenten kooperieren unter Verwendung der Dienste der lokalen Betriebssysteme. Die für die Kooperation erforderlichen Kommunikationsdienste werden dabei z.B. durch ein Message-Passing-Subsystem bereitgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-71655-3_54 3bfcc18c96ffa7bc0217258251e77715;de;;;1.1.;;;Dynamische Aspekte der Theorie der RegulierungUnter ökonomischen Gesichtspunkten besteht das Ziel dieser Arbeit darin, die zeitliche Entwicklung eines Angebotsmonopols mit entsprechender Marktmacht zu untersuchen. Als Korrekturinstanz wird dem Monopolisten eine Regulierungsbehörde gegenübergestellt, die die Aufgabe hat, den gesellschaftlichen Wohlstand zu maximieren. Dabei wird das besondere Augenmerk auf eine theoretische Analyse gelegt, die sich auf die dynamischen Aspekte der Regulierung konzentriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-89654-4_1 a4d12ead0070f988c9463eb8e589469a;de;;;1.1.;;;Zielinformationen durch BilanzstrukturenDie Frage, inwieweit sich Finanzierungsregeln dazu eignen, unternehmerische Zielsetzungen gemäß dem Grad der Zielerreichung abzubilden, braucht nicht für den ganzen, immer umfangreicher werdenden Katalog vermuteter und tatsächlich verfolgter Ziele erörtert zu werden. Das Problem ist vielmehr nach den Aussageintentionen der Finanzierungsregeln und den Zielbeziehungen einzuengen: Die Ungültigkeit von Finanzierungsregeln läßt sich deduktiv nicht daraus ableiten, daß man ihr Verhältnis zu Zielen prüft, auf die sich die Aussageintentionen bilanzstruktureller Normen nicht beziehen. Innerhalb einer Menge möglicherweise relevanter Zielsetzungen ist aufgrund der Zielbeziehungen zu klären, ob logische Ableitbarkeitsverhältnisse zwischen den Zielen bestehen oder ob Mittel-Zweck-Relationen vorliegen, deren konkrete Ausprägungen innerhalb des Entscheidungsfeldes empirisch zu untersuchen sind (1).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-98748-8_2 9f52ebb7eac2a1327534ef47c9832cc0;de;;;1.1.;;;Fremdenfeindlichkeit — ein schwieriges KapitelSie fühlen sich nicht wohl und suchen einen Arzt auf. Eigentlich können Sie Arztbesuche nicht leiden, und zu Ihrem körperlichen Unwohlsein gesellt sich Unsicherheit und schlechte Laune. Mit dem Ihnen allzu bekannten Satz „Es wird noch ein wenig dauern“ werden Sie in das Wartezimmer gebeten. Es ist gerade noch ein Platz frei. Sie zählen die Anwesenden und errechnen sich eine Wartezeit von über einer Stunde. Sie verschränken die Arme und blicken mißmutig zum Fenster hinaus. Gerade als Sie beginnen, über den vergeudeten Tag nachzudenken, versucht die ältere Dame neben Ihnen, Sie in ein Gespräch zu verwickeln. „Das wird heute wohl noch länger dauern“, meint sie, „länger noch als am letzten Montag!“ Sie verspüren nicht die geringste Lust zu Konversation, nicken dennoch ein paarmal höflich und blicken dann wieder gelangweilt aus dem Fenster. Am liebsten würden Sie weit weggehen. Nach einer gut zweistündigen Wartezeit teilt Ihnen Ihr Arzt schließlich mit, daß er für Sie eine mehrtägige Spritzenkur vorsehe.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-94938-7_2 785236508f0e6c95ace788dd991ef03f;de;;;1.1.;;;Die Berechnung von Verallgemeinerten Quadraturformeln vom Gausschen Typus, eine OptimierungsaufgabeDie gewöhnlichen Quadraturformeln vom Gausschen Typus geben die Lösung eines Optimierungsproblems. Diese Formeln sind oft sehr zweckmäßig, wenn man Integrale abschätzen will, wo der Integrand gut mit einem Polynom approximiert werden kann. Wir werden zeigen, wie ähnliche Formeln hergestellt werden können, wenn man den Integrand mit Linearkombinationen von Elementen eines willkürlichen Cebyševsystems approximieren muß. Diese Formeln führen auch zur Lösung einer Reihe von Optimierungsproblemen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-5971-4_6 908c66bc436f53e7b4fc8445ef5386d3;de;;;1.1.;;;Managementrolle: LernenderDas Stichwort vom „lebenslangen Lernen“ charakterisiert hinreichend die Rollenerwartung, mit der insbesondere Führungskräfte bereits seit langem konfrontiert sind und vermutlich zunehmend mehr konfrontiert werden. Der Umstand, daß Unternehmungen speziell Führungskräfte (und deutlich weniger die nachgeordneten Mitarbeiter) an Weiterbildungsveranstalungen teilnehmen lassen (Gebert/ Steinkamp 1990), zeigt, daß die Praxis dieser Rollenerwartung bereits weitgehend zu entsprechen versucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-96347-5_17 f4e7b451de342e85f667405c46713730;de;;;1.1.;;;Die Leistungsfähigkeit unterschiedlicher Methoden der Organisationsforschung – am Beispiel der Erforschung von EntscheidungsprozessenIm Zentrum der Analyse steht die Frage, welche Methoden relativ zu anderen geeignet sind, wesentliche Aspekte von Entscheidungsprozessen in und von Organisationen zu erforschen. Nach einer Einführung in die Bedeutung der Analyse von betrieblichen Entscheidungsprozessen werden Kriterien zur Beurteilung von Methoden entwickelt. Anschließend erfolgt eine Bewertung der Methoden Interview, schriftliche Befragung, Beobachtung und Dokumentenanalyse anhand dieser Kriterien. Es wird u. a. argumentiert, dass es auf das Forschungsziel ankommt, um zu entscheiden, welche Methoden geeignet sind, und dass kaum allen Kriterien gleichzeitig entsprochen werden kann. Notwendig als Voraussetzungen für eine kritische Prüfung und Diskussion von Untersuchungen sind eine größtmögliche Transparenz auch in methodischer Hinsicht und eine Verbindung von mehreren Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-08713-5_4 472e0def47768efc385408093bece248;de;;;1.1.;;;Allgemeinpsychologische Untersuchungen zum VigilanzverhaltenIn a 2×2×2-design the effects of “number of dials,” “number of irrelevant stimuli” and “kind of motivation” were combined. It was found out, that probabilities of missed signals and false alarms increased with spatial uncertainty. The number of irrelevant stimuli, which were of equal sensory modality as the relevant stimuli, had no influence either on detection probability or on false alarms rate.;-;-;-;https://link.springer.com/article/10.1007/BF00424980 dcb27fa668c9d0046665355337983c8f;de;;;1.1.;;;Ein theoretischer und empirischer Überblick über die Entwicklung von Stereotypen und ihre Konsequenzen im SchulkontextIm folgenden Kapitel wird ein Überblick über aktuelle psychologische Forschungsliteratur zur Entwicklung von Stereotypen im Kindes- und Jugendalter und ihren Konsequenzen im Schulkontext gegeben. Dabei werden zunächst die zentralen Begriffe definiert. Dann wird ein Überblick über drei zentrale Theorien zur Entstehung von Stereotypen bei Kindern gegeben. Im Anschluss wird ausführlich dargestellt in welchem Alter Kinder beginnen, soziale Kategorien und damit zusammenhängende Eigenschaften (Stereotype) zu verstehen und anzuwenden. Ausgehend von der Entwicklung von Stereotypen bei Kindern und Erwachsenen wird dann auf die Konsequenzen von Stereotypen im schulischen Kontext eingegangen. Dabei werden besonders die negativen Konsequenzen von Stereotypen auf die akademische Leistung, das Zugehörigkeitsgefühl zur Schule und die akademische und soziale Motivation dargestellt. Abschließend wird basierend auf aktuellen Forschungsergebnissen diskutiert, wie Stereotype und ihr (negativer) Einfluss im Schulkontext reduziert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-27275-3_1 9f9f26b487ed3bb5c04837dd7dd11ba6;de;;;1.1.;;;Fuzzy Retrieval in fallbasierten entscheidungsunterstützenden SystemenIn der Arbeit wird gezeigt, wie mit Hilfe der Theorie der unscharfen Mengen geeignete Angebote aus Datenbanken bestimmt werden können. Zur Berechnung wird jedes der einzelnen Entscheidungskriterien durch den Kunden eingeschätzt. Seine Präferenzen werden in Zugehörigkeitsfunktionen umgesetzt. Ein geeignetes Angebot erhält man nun durch Maximierung einer Funktion, die sich als Komposition der einzelnen Zugehörigkeitsfunktionen ergibt. Für diese Verknüpfung schlagen wir den Werners-Operator vor, da er;-;-;-;https://link.springer.com/article/10.1007/BF01539769 d1b793147859caca95caa20d4d8d4dfe;de;;;1.1.;;;Grundlagen der Bindungstheorie und BindungsforschungEs wäre vermessen, einen vollständigen Überblick über die vielschichtigen Facetten geben zu wollen, die mit dem Bindungskonstrukt und der Bindungsforschung und ihren zahlreichen wissenschaftlichen Bezugstheorien sowie den inzwischen kaum noch überschaubaren Einzelbefunden verbunden sind. In diesem Kapitel werden daher lediglich diejenigen zentralen historischen und aktuellen Entwicklungslinien der nunmehr über 50jährigen Bindungstheorie und Bindungsforschung nachgezeichnet, die für eine Bogenbrückenkonstruktion des Bindungskonstrukts mit sozio-kulturellen Faktoren zur Unterstützung einer komplexen Reflexionsentwicklung im Kindesalter von besonderer Bedeutung sind. Dazu gehören ultimate Betrachtungsweisen aus der Anthropologie (Punkt 2.1), entwicklungspsychologische Modifikationen und Weiterentwicklungen bezüglich der proximaten, interpersonellen Einflüsse auf Bindungsbeziehungen (Punkt 2.2) sowie aktuelle neurologische Befunde als der ‚modernsten’ Sprache der Bindungstheorie und -forschung (Punkt 2.3). Ziel dieses Kapitels ist es, den Grundstein für einen erweiterten Blickwinkel auf Bindungen in außerfamiliären Zusammenhängen zu legen, um darauf aufbauend deren kognitionspsychologische Implikationen für pädagogische Handlungskontexte herausarbeiten bzw. ausdifferenzieren zu können. Da der Kern der vorliegenden Arbeit in der Auseinandersetzung mit den proximaten, interpersonellen Konsequenzen des Bindungsparadigmas liegt, wird die entwicklungspsychologische Perspektive auf dieses Zusammenspiel den Schwerpunkt des zweiten Kapitels bilden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-19243-7_2 429cc84d72be8e75ff808a9779cf56f2;de;;;1.1.;;;Das Aneignungskonzept aus kritisch-realistischer PerspektiveDie Anstrengungen der Medienforschung beschäftigen sich seit über 100 Jahren mit der Frage, wie und aus welchen Gründen unterschiedliche Menschen Massenmedien auf unterschiedliche Weise nutzen, und welche Bedeutungen dabei entstehen und ob und wie diese nachhaltig die Identität und das soziale Handeln Einzelner oder ganzer Gesellschaften beeinflussen. Einigkeit herrscht inzwischen einerseits bezüglich der Annahme, dass Medien eine bedeutende Rolle für die Sozialisation, also die Entwicklungsprozesse von Individuen, Gruppen und Gesellschaften spielen (Hoffmann / Mikos 2007). Andererseits hat sich auch die Überzeugung durchgesetzt, dass diese Mediensozialisation als aktiver Prozess betrachtet werden muss, im Zuge dessen Individuen intentional handeln und selbstgesteuert mediale Erfahrungen anstreben. Darüber hinaus zeigen die sozialkonstruktivistischen Ausführungen des ersten Kapitels, die inzwischen auch innerhalb der Medienpädagogik breit geteilte Auffassung, dass jeder Rezipient bei der Wahrnehmung von Medieninhalten ein eigenes Kommunikat konstruiert und dass das Verstehen von Medienangeboten sowohl eine subjektive, wie auch eine soziale Komponente hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-92427-4_3 5b7e176c264fed3c1ea2b898bc19618d;de;;;1.1.;;;Anlage der empirischen UntersuchungZiel dieses Kapitels ist es, ein Design festzulegen, das es erlaubt, die Frage, wie deutsche Unternehmen im Rahmen ihres Kommunikationsmanagements mit dem Personalisierungsphänomen umgehen, möglichst umfassend zu beantworten. Dabei gilt es auch, die Erhebungsmethoden, die im sozialwissenschaftlichen Methodenspektrum enthalten sind, sinnvoll und gemäß der Natur der benötigten Daten auszuwählen, wozu sie einer methodologischen Reflexion unterzogen werden. Ebenso werden die Gütekriterien qualitativer sozialwissenschaftlicher Forschung in Bezug auf die geplante Erhebung reflektiert. Die Dokumentation der Erhebung bildet dann Abschluss des Kapitels.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-08124-9_6 40da635f46a9716958ae711616a99246;de;;;1.1.;;;Über das Forschungsgebiet IT-OutsourcingDer Umgang mit Daten, Information und Wissen ist in zahlreichen Unternehmen ein kritischer Erfolgsfaktor. Um die Handhabung zu erleichtern, haben sich Systeme der Datenverarbeitung zur inner- und zwischenbetrieblichen Informationsdrehscheibe entwickelt. Inzwischen weisen beinahe alle Mitarbeiter und Prozesse eines Unternehmens Berührungspunkte zu Informations- und Kommunikationssystemen auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-00715-7_1 c32489511767245da6eeb2008afbb6e4;de;;;1.1.;;;Cluster, Netzwerke & Business Ecosystems im internationalen KontextErfolgreiche Geschäftsmodelle im Ausland erfordern Kontextwissen – dies bedingt Zugang zu lokalen Experten durch Netzwerke – Netzwerke erfordern Zeit, Geld und Passion. Deshalb sollten vor allem KMUs diese Investments miteinander tätigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-13636-9_8 7370c61b625c1977491bbc9c019e156d;de;;;1.1.;;;Seelische Entwicklung und ihre Störungen„Entwicklung“ ist eine umfassende Bezeichnung für zunehmende funktionelle und morphologische Differenzierung in einem bestimmten Zeitabschnitt.,,Reifung“ (Maturation) beinhaltet eine bestimmte Richtung der Entwicklung. Entwicklung und Reifung erfolgen nach einem genetischen Plan. Sie sind aber nie unabhängig von äußeren Faktoren, von Umwelteinflüssen. Beide Momente — Genetik und Umwelt — haben also an Entwicklungsprozessen wesentlichen Anteil, wobei der Schwerpunkt je nach Altersstufe unterschiedlich ist. Dem Zusammenwirken von Anlage und Umwelt trägt die Konvergenzhypothese von William Stern Rechnung: ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-12660-8_22 9594a8110e78ebe74d4d26866c3ba99e;de;;;1.1.;;;Kapitel: Gatekeeper-Regulierung bei Connected-TVNachdem die Digitalisierung die technische Limitiertheit der Rundfunkfrequenzen obsolet werden ließ und damit einen Anstieg der Anbietervielfalt auslöste, scheint die Connected-TV-Entwicklung „das Fernsehen“ auf den ersten Blick noch vielfältiger zu machen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-27301-9_4 e88ab82223e27b43afe452b857c82f06;de;;;1.1.;;;Theoretische Betrachtungen zum Nachtragsmanagement der KommunikationSoziologische Theoretikerinnen und Theoretiker haben sich seit jeher – mehr oder weniger explizit – mit den Erscheinungsformen und Effekten der Kommunikation beschäftigt. Charles Horton Cooley (1864-1929) gilt mithin als der erste Soziologe, der den anspruchsvollen Versuch unternahm, die Soziologie ganz unmittelbar als eine Wissenschaft (von) der menschlichen Kommunikation zu begründen (vgl. Schützeichel 2004: 87). Im Rahmen des Nachdenkens über die Bedeutung von Kommunikation für die Entstehung sozialer Ordnung hat vor allem immer wieder das Verhältnis von Kommunikation und Handeln Kopfzerbrechen bereitet. Bis heute gibt es keine Lesart, die in der soziologischen Community übergreifend Geltung beanspruchen könnte. Einerseits wird Handeln als Basiskomponente des Sozialen definiert und der Begriff des „Handelns“ dem der „Kommunikation“ als Grundbegriff vorgezogen (vgl. historisch Weber 1922/1972, in anderer Perspektive Parsons 1949/1963 und gegenwärtig Esser 1996), andererseits wird ebenso davon ausgegangen, dass Kommunikationen die Letztelemente des Sozialen, und Handlungen lediglich das Resultat kommunikativer Zuschreibungen, d.h. soziale Konstruktionen sind (vgl. Luhmann 1984, Schneider 1994 sowie Bormann 2005 und Vogd 2005).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-91653-8_3 72031477006fac76fdf43eeea5587b22;de;;;1.1.;;;Die ökologischen Beziehungen stoffwechselnder Systeme vom Standpunkt der RegelungstheorieAn attempt has been made to classify the patterns of change that occur in metabolizing biological systems under the influence of environmental changes. It was found useful to distinguish between three types of changes: a) control: the system responds to environmental changes by analogous changes of one or several of its variables. b) homoeostasis: the system responds to environmental changes by activation of compensating mechanisms which tend to minimize the deviation of the system from a given state. c) “switching” phenomena: the system responds to environmental changes by the activation of new processes which cause the system to move from one state into another state. — It is emphasized that the presently known mechanisms of cellular regulation (regulation of gene activity, end-product inhibition, enzymatic regulation) in combination with nervous and hormonal factors suffice to suggest a few, albeit crude, models for the explanation of adaptive phenomena in organisms. To improve these models the interactions between components of living systems as well as the transmission and integration of information on the cellular level will have to be studied in more detail.;-;-;-;https://link.springer.com/article/10.1007/BF01610049 85806aa14d82a6ec2c07865f066ee545;de;;;1.1.;;;Personorientierte Förderung mathematischer BegabungenIm vorliegenden Kapitel werden die pädagogischen und didaktischen Grundlagen für Konzepte zur personorientierten Begabungsförderung im Mathematikunterricht und zur personorientierten Begabungsförderung in der Schulentwicklung, ausgehend von der Mathematik, gelegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-26115-3_2 9a0fa631d3d2b43050c401b74705f165;de;;;1.1.;;;Das nozizeptive SystemDen Begriff Nozizeptor (von lat. „nocere“, schaden) hat vor fast 100 Jahren der Oxforder Physiologe Sir Charles Sherrington (Nobelpries für Medizin 1932) für solche sensorischen Hervenendigungen eingeführt, die Reize erfassen, welche die Integrität des Körpers bedrohen (Sherrington 1906). Schmerz wird vom Betroffenem mit Gewebeschädigung assoziiert, selbst wenn er nicht durch akute Gewebeschädigung verursacht ist. Das belegt sehr schön das Eingangszitat dieses Kapitels, sozusagen die „amtliche“ Definition des Schmerzes durch die Nomenklaturkommission der ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-58385-8_2 428306dc516079dc835a896436f66a7e;de;;;1.1.;;;Das Phänomen der QualitätQualität erweist sich als komplexes Phänomen. Je nach Verständnis und Perspektive der Betrachtung ergibt sich eine qualitativ verschiedene Interpretation. Wie kann das mehrdeutige Qualitätsphänomen angegangen werden? Bereits die Wortherkunft von „Qualität” zeigt die Ambivalenz des Begr1ffs. Der lateinische Wortstamm „qualis”, fragt nach der Art und Weise der Beschaffenheit. „Qualitas” bezieht sich sowohl auf die Eigenschaft bzw. Beschaffenheit wie auf ein Verhältnis zu Dingen oder Prozessen. Qualität scheint demnach substantielle und prozessuale Dimensionen in sich zu tragen. Doch kommt Objekten eine eindeutig bestimmbare qualitative Substanz zu? Kann es so etwas wie ein „Wesen” der Qualität geben? Ist Qualität das, was ein Subjekt den Objekten bewußt zuweist? Oder ist Qualität ein präreflexives und vorgängiges Ereignis aus dem erst „Subjekt” und „Objekt”, subjektives Qualitätserleben und objektive Qualitätsmerkmale emergieren? Kann Qualität metaphysisch festgelegt werden oder entzieht sie sich in ihrem dynamischen Ereignen jeglicher Definition? Wie kann Qualität methodisch bestimmt werden? Wie sind für das fraglichen Qualtätsereignis mögliche Bezüge auf die (zwischen-)leiblichen und sprachlichen Dimensionen des Dienstleistungsgeschehen zu denken?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08852-3_6 60d7d2fa294ee55cf87e8ca61f5fb73e;de;;;1.1.;;;Bezugsrahmen und Ableitung der HypothesenIn den bisherigen Ausführungen dieser Arbeit wurde erläutert, welche Theorien und Modelle zur Erklärung der Verarbeitung und Wirkung von werblichen Kommunikationsmaßnahmen im Allgemeinen und zur Erklärung dieser über die Zeit im Speziellen herangezogen werden können. Um die Forschungsfragen, die dieser Arbeit zugrunde liegen, beantworten zu können, wird in diesem Kapitel ein Bezugsrahmen zur Ableitung der Hypothesen, die danach im nächsten Kapitel empirisch überprüft werden, auf Basis der angeführten Theorien und Modelle zur Erklärung von Werbewirkung geschaffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-15089-1_5 640e10afc646d4b6d0f1d2acb149bc89;de;;;1.1.;;;Schlußbemerkungen und Implikationen für zukünftige ForschungsanstrengungenZiel der vorliegenden Arbeit war es, ein Modell der Entstehung von Kundenzufriedenheit unter Berücksichtigung der Tiefe der Informationsverarbeitung bzw. des Einflusses des Involvement zu entwickeln. Es wurde der Versuch gemacht, eine bestehende Lücke in der Zufriedenheitsforschung zu schließen. In den bisher vorgeschlagenen Modellen der Entstehung vonKundenzufriedenheit wurde nicht berücksichtigt, welchen Einfluß das Involvement und damit die Tiefe der Informationsverarbeitung auf die Entstehung von Kundenzufriedenheit haben. Vielmehr wurde davon ausgegangen, daß der Kunde ein aktiver, rationaler Informationsverarbeiter sei und bereit wäre, unter hohem kognitiven Aufwand umfassende Beurteilungen während des Prozesses der Entstehung von Kundenzufriedenheit durchzuführen. Diese Prämisse gilt aber nur in jenen Fällen, in denen Kunden auch motiviert und fähig sind, sich kognitiv in so hohem Maße anzustrengen, daß Entscheidungs- und Informationsverarbeitungsprozesse so intensiv ablaufen, wie es in einzelnen Modellen abgebildet ist. Damit erklären diese Modelle nur einen kleinen Teil der Realität. Nur vereinzelte Arbeiten beschäftigen sich mit den Zusammenhängen zwischen Kundenzufriedenheit und Involvement und auch diese vermögen kein umfassendes Bild von den Auswirkungen des Involvement auf den Entstehungsprozeß der Kundenzufriedenheit zu geben, da immer nur einzelne Aspekte analysiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-95236-3_6 f07a012415c541a5afbd6d2dc68eb941;de;;;1.1.;;;Modelle zur psychischen Gesundheit im ArbeitskontextAus den dargestellten Veränderungen in der Produktionsorganisation und den daraus abgeleiteten gegenseitigen, teils ambivalenten Anforderungen der schlanken Produktion und ihrer Mitarbeiter stellt sich für die Wissenschaft die Frage, welche gesundheitlichen Risiken hieraus entstehen und wie diese im Rahmen der betrieblichen Arbeits- und Organisationsgestaltung eliminiert bzw. abgemildert werden können. Hierfür ist jedoch zunächst zu klären, wie Gesundheit und Krankheit definiert sind und wie sich das aktuelle Gesundheitsverständnis entwickelt hat. Daher werden nach den einleitenden Begriffsbestimmungen verschiedene Konzepte und Theorien zur psychischen Gesundheit und Krankheit näher erläutert und im Anschluss das Konzept der betrieblichen Gesundheitsförderung als Instrument im Arbeitskontext vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-32284-7_4 2efdc711c9d3c2afba490ba2020f1bb4;de;;;1.1.;;;Methylphenidatbehandlung bei Erwachsenen mit Aufmerksamkeitsdefizit-/HyperaktivitätsstörungIn der vorgestellten Studie wurde die Wirksamkeit von unretardiertem Methylphenidat (MPH) bei der Behandlung von Erwachsenen mit Aufmerksamkeitsdefizit-/Hyperaktivitätsstörung (ADHS) unter Berücksichtigung des Störungssubtyps entsprechend den DSM-IV-Kriterien und aktueller psychiatrischer Komorbidität untersucht. In einem offenen, unkontrollierten Design wurden 47 Patienten (18–59 Jahre, n=27 kombinierter Typ, n=20 unaufmerksamer Typ) während 7 Wochen mit durchschnittlich 0,5 mg MPH/kg/Körpergewicht behandelt, 39 Patienten beendeten die Studie. Patienten mit kombiniertem und unaufmerksamem Typ sprachen sowohl hinsichtlich klinischer Symptomatik (sehr gute/gute Symptomreduktion kombinierter Typ: 73,9%, unaufmerksamer Typ: 66,7%) als auch hinsichtlich der erfassten neuropsychologischen Parameter (Daueraufmerksamkeit, Wahrnehmungstempo, Aufmerksamkeitsteilung) vergleichbar gut auf die Behandlung an. Patienten mit ADHS und aktueller psychiatrischer Komorbidität (n=16) wiesen im Vergleich zu Patienten mit ADHS ohne weitere psychiatrische Komorbidität (n=23) trotz signifikant höherer MPH-Dosis [0,56 (±0,17) mg/kg vs. 0,46 (±0,13) mg/kg, p=0,004] bei Studienende noch signifikant mehr ADHS-Symptomatik auf [T2-Gesamtwert Brown Attention Deficit Disorder Scales (BADDS) ADHS mit psychiatrischer Komorbidität 66,2 (±15,5), ADHS ohne psychiatrische Komorbidität 51,7 (±13,7), p=0,04]. Patienten mit ADHS und klinisch relevanter depressiver Symptomatik (Beck-Depressionsinventar ≥18), profitierten signifikant weniger von der Behandlung als Patienten ohne komorbide depressive Symptomatik [T2-BADDS-Gesamtwert ADHS mit depressiver Symptomatik 70,7 (±15,9), ADHS ohne depressive Symptomatik 48,1 (±21,2)., p=0,001].;-;-;-;https://link.springer.com/article/10.1007/s00115-006-2068-0 8ab0641f30bfb0c4a096c1016f73b8b6;de;;;1.1.;;;Psychologische Aspekte nachhaltiger Mobilität: Struktur und Dynamik von Einstellungen zu MobilitätsinnovationenTechnologische und soziale Innovationen scheinen derzeit viele Perspektiven für eine Transformation des Mobilitätssektors hin zu mehr Nachhaltigkeit zu eröffnen. Ob und wie sich das menschliche Mobilitätsverhalten den neuen Möglichkeiten anpasst, ist allerdings eine offene Frage, die psychologischer Forschung bedarf. Wir stellen in unserem Beitrag eine neue Theorie der Mobilitätseinstellungen vor, die Ansätze zur emotionalen Kohärenz menschlicher Entscheidungen aus der Kognitionswissenschaft mit soziologischen Theorien der Informationsdiffusion in sozialen Netzwerken kombiniert. Daten aus einer aktuellen, groß angelegten empirischen Studie zeigen, dass die emotionale Verankerung des Autos mit Verbrennungsmotor im individuellen Privatbesitz immer noch groß ist. Für die erfolgreiche Verbreitung innovativer und nachhaltiger Mobilitätskonzepte in der Gesellschaft wird entscheidend sein, ob neben technologischen Entwicklungen auch eine breite Transformation von Einstellungen in der Bevölkerung erreicht werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-19965-4_17 7d5272df1fd1abee076c12df3e6df492;de;;;1.1.;;;Grundlagen methodischen Vorgehens in der ProduktentwicklungProduktenwicklung bedeutet, dass neue Lösungen erarbeitet werden müssen. Das Vorgehen des einzelnen Entwicklers oder eines Teams lässt sich dabei aus verschiedenen Perspektiven beschreiben. Nachfolgend wird das Vorgehen als Problemlösung, Informationsverarbeitung, Iteration oder als Koevolution von Problem und Lösung dargestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-57303-7_3 6a2b95c8f9f998587c9dae17c8daf6ca;de;;;1.1.;;;Evolutorische Ökonomik und KonsumgüterWie in Kapitel 2 ersichtlich wurde, gibt es durchaus eine Reihe von Eigenschaften, die die evolutorische Ökonomik als eigenständigen Forschungsansatz beschreiben. Andererseits sind gerade im Rahmen der evolutorischen Ökonomik für spezifische Probleme ebenso spezifische Problemlösungsstrategien zu suchen, denn evolutorische Ökonomik erkennt, wie gezeigt, die Unterschiedlichkeit der verschiedenen Phänomene im wirtschaftlichen Geschehen an. Statt fertige, geschlossene Theorien anzuwenden, wird somit eher heuristisch gearbeitet und auf verschiedene Theorieelemente der Wirtschafts- und Sozialwissenschaften zurückgegriffen. Hierin besteht einer der wesentlichen Unterschiede zur neoklassischen Ökonomik, die bekanntlicherweise alle theoretischen Probleme nach der Vorstellung vollständig rational handelnder Akteure löst, deren als unabhängig voneinander angenommenes Verhalten stets zu irgendwelchen gleichgewichtigen Zuständen führt. Evolutorische Ökonomik betrachtet dementgegen die in der Realität anzutreffenden Unterschiede verschiedener Rationalitätstypen und variiert sie je nachdem, wie die betrachtete Situation, Person oder Personengruppe geartet ist. Die Gleichgewichtsvorstellung der Neoklassik wird mit dem Anerkenntnis der Tatsache, daß Wirtschaften selbst nichts statisches, sondern ein zutiefst evolutorisches, endogen erzeugtem Wandel unterliegendes Phänomen ist, überwunden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-01589-6_6 6953648c2116d70aa7f195a721f8a1d3;de;;;1.1.;;;„Hybride Wertschöpfung“ - vom Industrieproduzenten zum Lösungsanbieter -ein State-of-the-Art BerichtDer vorliegende Beitrag liefert einen überblick über den Status-Quo der wissenschaftlichen und praxeologischen Diskussion zur Integration von Produkt und Dienstleistung im Rahmen einer Hybriden Wertschöpfung. Ausgangspunkt der Betrachtung ist die zunehmende praktische Relevanz kundenindividueller Lösungsangebote im Businessto-Business-Bereich. Mit Hybrider Wertschöpfung versuchen aktuell viele Unternehmen, sich einem zunehmend verschärften Wettbewerb und damit einem drohenden Margenverfall zu entziehen. Die erfolgreiche Umsetzung komplexer Lösungsangebote aus Sachund Dienstleistungen erfordert jedoch ein strategisches Umdenken des Anbieters und die Herausbildung neuer Fähigkeiten und Prozesse. Das Management Hybrider Wertschöpfung stellt deshalb viele Unternehmen im B2B-Bereich vor große Probleme und der erhoffte Erfolg im Lösungsgeschäft bleibt häufig aus. Vor diesem Hintergrund liefert der vorliegende Beitrag einen State-of-the-Art Bericht über den Stand der wissenschaftlichen Forschung zur Hybriden Wertschöpfung. Basierend auf einem Literatur-überblick wird die Relevanz Hybrider Wertschöpfung in Wissenschaft und Praxis aufgezeigt und theoretisch fundiert. Neben definitorischen Grundlagen werden theoretische Bezugspunkte zu existierenden Forschungsströmungen ausgeführt und verschiedene Ausprägungen Hybrider Wertschöpfung anhand aktueller Forschungsergebnisse vorgestellt.;-;-;-;https://link.springer.com/article/10.1007/BF03373006 863139c4719c4400ae71936b231cd084;de;;;1.1.;;;Zusammenfassung der Theorie des GruppenhandelnsIn einem der empirischen Projekte, die wir im Rahmen der handlungstheoretisch geleiteten Forschungsarbeiten durchführten, beobachteten wir systematisch Videoaufnahmen von Paaren junger Leute, die der Aufgabe nachgingen, ein Spielzimmer für Vorschulkinder einzurichten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-28927-0_3 aa70cbad9c9405391b59328eb17ced7a;de;;;1.1.;;;Anlage einer allgemeinen Handlungstheorie und handlungstheoretisches KonzeptDem zentralen An liegen der Arbeit folgend, werden in diesem Kapitel einige prinzipielle Überlegungen zu einer handlungstheoretischen Basis der nachfolgenden Erörterungen vorgestellt. Den hier favorisierten Ansatz bildet das Modell „rationalen Handelns“. Zunächst erfolgt die Einordnung der Theorie in ein allgemeines Grundmodell soziologischer Erklärung;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-11281-5_2 60b760647bf9bdb73743fa1441c26cb8;de;;;1.1.;;;Zweck – Herrschaft – System„Das Bürokratiemodell Max Webers ist ein vertrauter und bewährter Erkenntnisbesitz unserer Organisationsforschung. Und auch die Einsicht, daß die Rationalisierung des öffentlichen Lebens sich unaufhaltsam und auf allen Gebieten durch bürokratische Verwaltung vollzieht, hat sich durchgesetzt. Sie bedarf keiner Empfehlung mehr. (…) Die Auseinandersetzung mit Max Weber wird weder in der Detailforschung noch im geschichtlichen Rückblick auf Person und Werk lebendig bleiben. Einer großen Aussage kann man nur von ihren Denkvoraussetzungen her gerecht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-22503-2_11 19f72e4b8aca4e30a7c080be61234822;de;;;1.1.;;;Emotionale WerbungDieser Beitrag behandelt die Bedeutung von Emotionen für die Werbewirkung. Es geht um Emotionen, die entweder durch die Werbung erzeugt werden oder durch das Programm, in dem die Werbung platziert wird. Die ersten beiden Abschnitte haben eine Klassifikation von Werbung und Definitionen der Begriffe Emotion, Gefühl und Stimmung zum Inhalt. Anschließend wird beschrieben, welche Emotionen als Reaktionen auf Werbung identifiziert werden konnten und wie sie gemessen werden. Dann werden 2 Arten emotionaler Reaktionen beschrieben sowie 4 Modelle, die erklären, wie Emotionen auf die beworbenen Marken übertragen werden. Es folgt ein Überblick über die Forschung zur Wirkung spezifischer Emotionen, und der letzte Abschnitt widmet sich dem Einfluss progammvermittelter Gefühle auf Einstellungen zur Werbung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71637-2_6 e1741328afd0dfde0a8c1718ec8cbbdc;de;;;1.1.;;;Theoretisch-konzeptionelle Analyse der Akzeptanz von PreismodellenIn vielen der relevanten Arbeiten zur Bestimmung optimaler Preise für Systemgüter auf Grundlage des Preisverhaltens der Nachfrager werden mikroökonomische Grundlagen des Nutzungs- und Preismodellwahlverhaltens herangezogen, die auf den Annahmen der neoklassischen mikroökonomischen Haushaltstheorie basieren. Das zentrale Anliegen der als „klassisch“ bezeichneten Herangehensweise ist die Erklärung der Preisbildung auf unterschiedlichen Produkt- und Faktormärkten. Dazu wird das Preisverhalten der Nachfrager in Form von Modellen analysiert. Um in diesen Modellen zu preispolitisch relevanten Gesetzmäßigkeiten zu gelangen, unterstellt die klassische Preistheorie eine Reihe von Verhaltensprämissen. Eine fundamentale Annahme besteht darin, dass Nachfrager nutzenmaximierende, vollständig rational handelnde Individuen darstellen, die über vollkommene Informationen bspw. über die Preise und die Qualität aller am Markt angebotenen Produkte verfügen und ihr Nachfrageverhalten mit unendlicher Reaktionsgeschwindigkeit an Veränderungen des Angebots anpassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-8313-8_3 24e492db138b37208f235e73f8d624f5;de;;;1.1.;;;Möglichkeiten des konstruktiven Umgangs mit Widerstand in erwachsenendidaktischen VeranstaltungenWiderstand in erwachsenendidaktischen Veranstaltungen kann als offene oder verdeckte Ablehnung von Lern-bzw. Veränderungsangeboten aufgefasst werden. Nach einer kritischen Beleuchtung des Widerstandsbegriffs werden mögliche Ursachen für Widerstand diskutiert. Widerstände können unter anderem mit Zielen oder Inhalten einer Veranstaltung zusammenhängen oder aber ihre Ursache auf der Beziehungsebene haben. Ausgehend von der Annahme, dass Menschen potenziell rational und reflexiv agieren und dieses Potenzial in jedem Fall gefördert werden soll, wird aufgezeigt, wie Lernumgebungen gestaltet werden können, um Widerständen von Lernenden einen angemessenen Rahmen zu geben. Neben dem Gebot, Widerstände zu akzeptieren, werden kommunikative Mittel aus dem Bereich systemischer und lösungsorientierter Ansätze empfohlen.;-;-;-;https://link.springer.com/article/10.1007/s11612-003-0014-1 0b0dabfaac7c6c4168a827974768acce;de;;;1.1.;;;Ein gedächtnispsychologischer Ansatz zur Erklärung des Geschäftswahlverhaltens des KonsumentenAufbauend auf gedächtnispsychologischen Ansätzen wird ein Zwei-Stufen-Modell zur Erklärung der Geschäftswahl vorgestellt. Die Konsumenten konzentrieren sich zuerst auf eine spezifische Einkaufsaufgabe, in der einige wenige Nutzen von Geschäftsalternativen für sie relevant sind. Zu den relevanten Nutzen wird in einem zweiten Schritt automatisch ein Geschäftsname aus dem Gedächtnis abgerufen. Nach einer theoretischen Fundierung des Modells werden Hypothesen formuliert, die mit Hilfe einer empirischen Untersuchung von 401 Haushalten überprüft werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-05654-6_18 e6a0e1e540d2658ee98265b788ab15e5;de;;;1.1.;;;Methodologische Begründung einer qualitativ ausgerichteten Forschungskonzeption der KundenzufriedenheitsanalyseDie Marketingforschung ist definiert als das systematische Suchen, Sammeln, Aufbereiten und Interpretieren von Informationen, die sich auf alle Probleme des Marketings von Leistungsbündeln beziehen. Die Marktforschung integriert zudem die Beschaffungsmärkte, indem sie alle relevanten Märkte systematisch nach deren Potential hinterfragt, Umsätze hervorzubringen. Für beide Ansatzpunkte besteht demnach die Funktion, Risiken und Chancen in Marketing-Entscheidungsprozessen zu offenbaren und diese dadurch auf eine rationale Grundlage zu stellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08243-9_2 8daee37d5515b8a4157348da7ff616d5;de;;;1.1.;;;Warum Daten graphisch aufbereiten?Graphische Darstellungen quantitativer Informationen haben von Anfang an eine zentrale Rolle in der Entwicklung der neuzeitlichen Natur- und Sozialwissenschaften gespielt. Statistische Graphiken entsprangen damit bereits frühesten Bemühungen, systematisch gesammelte Daten genauer zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-86226-326-4_2 ff9ea9c023924409469ba49942d07324;de;;;1.1.;;;Integrationskarte: Theoretische GrundlagenDie Sammlung von Wissen und die Suche nach Erkenntnis ist wohl eines der ältesten Bedürfnisse menschlichen Strebens. Aus unseren Erlebnissen und Eindrücken versuchen wir, Beschreibungen und Erklärungen aufzustellen, die uns eine Strukturierung und Vorhersage der wahrgenommenen Welt ermöglichen. Kennzeichnend für wissenschaftliche Erklärungsversuche sind Aussagen, in denen Beobachtungen zueinander in zeitliche, räumliche oder andersartige Beziehungen gesetzt werden. Solche Aussagen haben meist die Form von ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-84995-4_29 01ca7692799cf19ebba4545ed72059a9;de;;;1.1.;;;Institutionelle Regeln und PreiseDie bisherigen Ausführungen zur Wirkung von kulturellen Prägungen und Netzwerkeffekten auf Aktienkurse werden, entsprechend der in 4.2 vorgenommenen Dreiteilung, nun mit dem Einfluss von institutionellen Regeln komplettiert. Institutionen sind theoretisch dabei als phänotypische Konkretisierungen eines kulturellen Codes zu interpretieren, die sich in Normen, regelmäßigen Handlungsmustern und ökonomischen Strukturen einer Volks-wirtschaft niederschlagen (4.2.3 & 4.4). Darunter fallen in der Güterwirtschaft vornehmlich formelle Regeln, in erster Linie also allgemeingültige staatliche Vorschriften und Gesetze (Fligstein 2001). Davon zu unterscheiden sind informelle Regeln. Beim Handel mit Wertpapieren sind dies in erster Linie Strategien zum Kauf und Verkauf von Aktien, die die Logik der Informationsverarbeitung und damit die Preisbewertung entscheidend mitbestimmen. Damit handelt es sich weniger um Handlungsrestriktionen, wie bei den formellen Regeln, als vielmehr um erfolgreiche Leitbilder zur Erzielung eines Gewinns am Markt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-09122-4_7 3adc31e2190898c7ed8f051f41ddb0b4;de;;;1.1.;;;Zur Validität von WF-MentoDas Work-Factor-Mento-System ist das bisher einzige, in Deutschland bekannt gewordene System vorbestimmter Zeiten, das als Methode den Anspruch erhebt, “geistige Vorgange” analysieren zu können. Als Weiterentwicklung des WF- Standardelementes “geistige Vorgänge” sollen mit diesem System bestimmte Informationsverarbeitungsleistungen in Arbeitssystemen im Ist- und Planungszustand in so bezeichnete Mento-Elemente zergliedert werden können, denen unter Berücksichtigung ihrer Einflußgrößen vorbestimmte Zeiten zugeordnet werden. Wie bei den herkömmlichen Verfahren der Systeme vorbestimmter Zeiten werden durch Addition von Elementarzeiten Zeitverbräuche für informatorische Arbeitsvorgänge ermittelt (vgl. 1, 2).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-93339-4_25 720a18ce9b2b74228335878e925450f2;de;;;1.1.;;;Modellierung des Informationsabrufs in mentalen KartenMein Ziel ist es, den Priming-Prozeß, das Vorwärmen von Information, als Abruf assoziierter Rauminformation zu beschreiben und die dabei entstehenden Reaktionsgeschwindigkeiten als Geschwindigkeitsfeld einer Strömung aufzufassen. Für den allgemeinen Fall wurde Priming bereits in den Abschnitten 3.2.2 und 3.2.3 ausfuhrlich diskutiert. Räumliche Priming-Befunde und Modelle wurden in den Abschnitten 4.3.1 und 4.3.2 vorgestellt. Ein Priming-Prozeß findet statt, wenn man sich an eine zuvor gesehene Anordnung erinnert bzw. sich diese vorstellt. Ausgelöst wird er z.B. dadurch, daß man einen Gegenstand wahrnimmt, der in der Anordnung, an die man sich dann erinnert, ebenfalls vorkam. Oder aber man blickt von einer Anhöhe auf eine räumliche Anordnung, die einer anderen recht ähnlich ist. Eine weitere Möglichkeit ist, daß man beispielsweise an eine außergewöhnliche Kreuzung gelangt, die man so schon einmal gesehen hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-81334-3_5 7ef0d8af7f185bdf74cc4066a8367904;de;;;1.1.;;;Einsatz von Mixture Conjoint-Modellen zur Messung der WerbewirkungAdvertising effectiveness has regularly been measured by means of audience attention, brand knowledge or attitudes towards the advertisement or the advertised brand. While these measurements are certainly influenced by advertising, they are not closely related to the advertiser’s objective to increase sales and profits. In this paper extensions of Mixture-Conjoint-Methods are applied to measure the impact of informative and emotional advertising media to the preference structures of consumers with heterogeneous involvement and a priori knowledge about the product category. The results verify essential statements proposed by the relevant literature. The models used in this paper can readily be applied to advertising pretests.;-;-;-;https://link.springer.com/article/10.1007/BF03372761 35c8475948daf043108cab870275b139;de;;;1.1.;;;Einführung. Zur Methodologie wissenschaftlicher ForschungsprogrammeDer nachfolgende Einleitungsaufsatz führt die Möglichkeit eines mikrofundierenden Erklärungsprogramms vor Augen und untersucht die Frage, inwieweit ein solches Vorhaben im Rahmen einer für alle (sozialwissenschaftlichen) Theorielager gemeinsamem „Methodologie wissenschaftlicher Forschungsprogramme“ untergebracht werden kann. Leitidee ist dabei der Nachweis, dass zumal der soziologischen Theoriebildung ein Vorgehen empfohlen werden kann, das die üblichen „paradigmatischen“ Streitereien unterbindet bzw. neu deutet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-17611-2_1 a5acc33eb9de353ccd7988c0e3f12b09;de;;;1.1.;;;Das AnalyserasterAusgehend von der vorangegangenen Diskussion zu Kompetenzerfassung und den sich daraus ergebenen Konsequenzen hinsichtlich der Erfassung wird in diesem Kapitel ein Raster zur Analyse verschiedener Kompetenzerfassungsverfahren entwickelt. Dieses hat die Merkmale von Kompetenz zu berücksichtigen und soll ermöglichen, verschiedene Kompetenzerhebungsverfahren, anhand von zentralen Kategorien vergleichend darzustellen. Innerhalb der Kategorien sind Kriterien zu erarbeiten, nach denen die einzelnen Verfahren beschreibbar sind. Eine Analyse von Verfahren anhand eines solchen Rasters hilft bei der Auswahl von geeigneten Verfahren für bestimmte Ziele. Gleichzeitig werden Spezifikationen für Verwendungszwecke als auch die Grenzen der jeweiligen Verfahren deutlich. Vor dem Hintergrund der Vielzahl unterschiedlicher Erfassungsverfahren bietet das Raster eine wichtige Orientierungs- und Selektionsfunktion bei der Auswahl und Anwendung von Kompetenzerfassungsverfahren. Dabei ist allerdings anzumerken, dass mit dem entwickelten Raster nur die Verfahren und nicht die mit diesem erzielten Ergebnisse analysiert werden (vgl. 1).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-90444-3_6 d80bc8e82c8cafe9c0bad1df2a9271d2;de;;;1.1.;;;Zur Methodik der StudieDie Frage, wie stark ein sozialwissenschaftlicher Forschungsprozess durch explizit formulierte Theorien angeleitet und strukturiert werden muss, soll bzw. darf, stellt gleichsam die ‘Gretchenfrage’ der Sozialwissenschaften dar: laufend diskutiert, Kontroversen anstachelnd, aber möglicherweise nie abschließend geklärt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-92242-3_2 75d30866056c005215eeb377b9b9893e;de;;;1.1.;;;Entwicklung über die Lebensspanne: EntwicklungsprozesseDie Perspektive, dass Entwicklung sich über die gesamte Lebensspanne der Menschen erstreckt (und nicht nur in bestimmten – frühen – Abschnitten stattfindet), eröffnet den Blick auf Arten von Entwicklungsprozessen, die in klassischen Theorien selten behandelt werden. Erst wenn eine Reihe von Voraussetzungen erfüllt sind, können Menschen auf ihre eigene Entwicklung selbst intentional Einfluss nehmen. Auch dann spielen Rahmenbedingungen eine Rolle, aber zugleich auch eigene Entwicklungsziele. Diese aktionale Entwicklungsperspektive lenkt den Blick nicht nur auf die Entwicklung des Selbst, sondern macht zugleich darauf aufmerksam, dass Entwicklungsprozesse Stabilität erzeugen (sichern) können: Im mittleren und höheren Erwachsenenalter wird der Umgang mit Blockaden und Verlusten ein wichtiger Teil der Entwicklungsregulation. Dies legt nahe, dass die Lösung von Problemen ein möglicher gemeinsamer Nenner von Entwicklungsprozessen sein könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-93432-7_5 fd2cb6602996593a01d4193554d57225;de;;;1.1.;;;Konsequenzen für ManagementsystemeIm vorherigen Kapitel haben wir verschiedene Modelle zu Sozialtechniken vorgestellt und diese Modelle mit Anwendungsbeispielen verdeutlicht. In diesem Kapitel wollen wir einige der Modelle auf bestehende Managementsysteme anwenden, um besser zu verstehen, was sie bewirken können und was nicht. Außerdem werfen wir mittels „fluider Organisationen“ ein neues Licht auf die „klassischen“ Dilemmata Projekt-Linie und virtuelles Team. Hierbei haben wir nicht den Anspruch, diese Themen mit Hilfe der obigen Modelle erschöpfend zu behandeln, was auch sicherlich nicht gelingen dürfte. Jedoch haben wir den Anspruch, mittels der ausgewählten Modelle und deren Anwendung im jeweiligen Thema eine neue Perspektive zu öffnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-47746-5_5 4649a197121e2aca42f5acc69844b9da;de;;;1.1.;;;Didaktische Transposition — eine „Fallstudie” anhand des Geometrie-UnterrichtsThe paper starts with a global description of the “didactical transposition” as a way to theorize on Mathematics learning and teaching. The general description is confronted to the transposition of elementary geometrical knowledge from scholarly knowledge via knowledge to be taught to taught knowledge in order to learn about the problems and potentials of the concept “didactical transposition”. Conclusive remarks center on strengths and weaknesses of the didactical theory.;-;-;-;https://link.springer.com/article/10.1007/BF03338780 d3c1d2e6fba7083bdc4f3200cc665a4b;de;;;1.1.;;;Analyse des Anwendungsbereiches InnovationsprozeßBereits seit Schumpeter steht fest, daß wirtschaftliches Wachstum eines Unternehmens nur durch zielgerichtete Innovationen gesichert werden kann. Dabei umfassen solche Innovationen wesentlich mehr, als nur die zumeist angenommenen technischen Veränderungen in Produkten und/oder Herstellungsverfahren. So gehören bspw. auch organisatorische Veränderungen, die Anwendung neuer Marketinginstrumente, die Bearbeitung neuer Märkte, die Entwicklung und Durchsetzung einheitlicher Corporate Identity Konzepte sowie die Anwendung moderner Informations-und Kommunikationstechnologien zu den Innovationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-09274-2_3 646faaa68b08701428bd3f7511b14bf4;de;;;1.1.;;;Wechselkursprognose: Fehlerkorrekturmodelle im Vergleich mit Neuronalen NetzenIn diesem Beitrag werden zwei Schwerpunkte herausgearbeitet: (I) Zum einen wird eine Kointegrationsanalyse zum Zwecke einer Fehlerkorrekturdarstellung zur Erklärung des DM/US-Dollarwechselkurses für den Zeitraum Januar 1986 bis Juni 1994 durchgeführt. Aufbauend auf der Kaufkraftparitätentheorie sowie den monetären Modellen wird die Engle-Granger Technik dem Johansen-Verfahren gegenübergestellt. (II) Bei der Schätzung des Fehlerkorrekturmodells kommen sowohl Neuronale Netze als auch die herkömmliche Kleinst-Quadratc Methode zum Einsatz. Die Prognosen beider Methoden werden für den Zeitraum Januar 1991 bis Juni 1994 einem out-of-sample Vergleich unterzogen. Beide Methoden dominieren die naive Prognose hinsichtlich der annualisierten Rendite. Andererseits sind die Unterschiede zwischen der linearen Regression und dem entsprechenden Neuronalen Netz gering.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-61489-7_5 9ac941a7254d0d901833eb7f42c0cbca;de;;;1.1.;;;Der methodische AnsatzIn diesem Kapitel sollen zunächst die methodischen Zugänge, die die Nachrichtenwirkungsforschung bisher eingeschlagen hat, um das Verstehen und Behalten von Nachrichten zu untersuchen, beschrieben und diskutiert werden. Auf der Grundlage dieser kritischen Erörterung soll der methodische Ansatz, der dem empirischen Teil dieser Arbeit zugrundeliegt und sich auf das Modell der Alltagsrationalität des Rezipienten stützt, entwickelt und skizziert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-09247-6_4 5b1e47efd1e093c345facef03cc1d5c2;de;;;1.1.;;;Sportwissenschaftliche GrundlagenDie Sportwissenschaft untersucht Fragen rund um Sport und Bewegung auf der Basis verschiedener Wissenschaftsdisziplinen. Zu dieser „Querschnittswissenschaft“ zählen die Teildisziplinen Sportmedizin, Trainingswissenschaft, Bewegungswissenschaft, Biomechanik, Sportpsychologie, Sportpädagogik, Sportsoziologie und Sportgeschichte. Sportwissenschaftliche Fragestellungen beziehen sich auf die sehr vielfältigen Erscheinungsweisen von Sport und Bewegung, z. B. auf Leistungssport, Freizeit- und Breitensport, Gesundheitssport, Rehabilitationssport, Schulsport oder Sport mit Älteren. Diese Erscheinungsformen lassen sich sowohl nach Funktionen (z. B. Leistung vs. Gesundheit), Zielgruppen (z. B. Kinder vs. Ältere) oder Settings (z. B. Verein vs. Klinik) unterscheiden. In Kap. 7 werden einige Grundlagen der Teildisziplinen Sportmedizin, Bewegungswissenschaft, Trainingswissenschaft und Sportpsychologie vorgestellt und Bezüge zu sportlichem Training und Bewegungsinterventionen bei Personen mit psychischen Störungen benannt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46537-0_7 4da40e5bde968595a018946df89401f2;de;;;1.1.;;;Zum Bedarf an Methodenvielfalt im Bereich der Entscheidungsunterstützenden SimulationBereits Anfang der 70er Jahre legten M. Mesarovic et al (1970) den sogenannten Mehrebenensystemansatz vor, eine Konzeption, die insbesondere von E. Jantsch (1974) für die Planungsmethodik bzw. allgemeine Erklärungsversuche aufgegriffen wurde. In dieser Konzeption wird davon ausgegangen, daß gerade im Umfeld sozio-ökonomischer Systeme - aber nicht nur dort - die Methodik sich auf einen heterogenen Gegenstandsbereich einlassen muß, und daß es hierbei nicht angebracht ist, nur physikalis- tische Erklärungs- und Darstellungsmuster zu berücksichtigen. Die Konzeption sieht vor, daß Systeme durch unterschiedliche Ebenen mit unterschiedlichen Charakteristika modelliert werden, Ebenen, die untereinander in Kommunikations- und Austauschbeziehungen stehen, die ansonsten aber als weitgehend autark angesehen werden können. Neben einer „physikalischen“ werden z. B. eine „Entscheidungsebene“ und eine „Normenebene“ berücksichtigt. Während auf der Ebene physikalischer Vorgänge Masse- und Energietransfers eine Rolle spielen sind die Vorgänge auf den anderen Ebenen symbolgesteuerte bzw. informationsverarbeitende.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-69706-7_103 aec67892d2e8c4cc60fd2bb1158410ab;de;;;1.1.;;;Strategisches Personalmanagement — des Kaisers neue Kleider? Kritische Anmerkungen zum derzeitigen DiskussionsstandDer Beitrag geht der Frage nach, ob „Strategisches Personalmanagement“ mehr als eine wissenschaftliche Modeerscheinung ist. Ausgehend von einer am Strategiebegriff ansetzenden Problematisierung wird gezeigt, daß es aufgrund des speziellen Problemgegenstandes strukturelle Unterschiede zwischen zielbewußtem, langfristig und umfassend angelegtem Personalmanagement und dem Konzept „Strategischer Unternehmensführung“ gibt. Auch das „traditionelle“ (als systematischer Planungsbereich begriffene) Personalmanagement beinhaltet „strategische Substanz“. Die (künftigen) Aufgabenfelder für die Personalwirtschaft als wissenschaftliche Disziplin, die als „strategisch“ besonders bedeutsam gelten können, werden kurz umrissen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-00805-8_2 b4d404b1e0c0c4eb7c58df1851e3eaab;de;;;1.1.;;;Werbeplanung in Theorie und PraxisFür drei bedeutsame Felder der Werbeplanung, der Zielplanung, der Werbebudgetierung und der Mediaselektion wird zum einen dargelegt, welche informations- und modellgestützte Konzepte aus theoretischer Sicht vorgeschlagen werden, zum anderen wird das tatsachliche Planungsverhalten in der Werbepraxis anhand empirischer Ergebnisse beschrieben. Auf der Basis einer Konfrontation theoretischer Konzepte und praktischer Verhaltensweisen werden Empfehlungen gemacht, die sich sowohl an den Theoretiker als auch an den Praktiker der Werbung richten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-73778-7_82 6e2dc436ee591f75bcaf01af3aeacd34;de;;;1.1.;;;Traditionen und Ansätze der JournalismusforschungInnerhalb des vergleichsweise jungen Fachs der Publizistik- und Kommunikationswissenschaft bildet die Journalismusforschung eine Teildisziplin, deren Aufschwung erst mit dem zunehmenden Aufkommen empirischer Studien in der zweiten Hälfte der 60er und der ersten Hälfte der 70er Jahre markiert ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-80463-1_3 52f931c0eff6f250a348a834b36cd106;de;;;1.1.;;;Marktorientierung von Pflegeeinrichtungen: Analyse der Organisationskultur durch TypologienIm Rahmen der Operationalisierung von Organisationskultur werden in Kap. 5 Typologien vorgestellt, die einen Ansatz und eine Orientierung bieten, um Grundannahmen, Einstellungen und Verhaltensweisen von Personen zu interpretieren und zuzuordnen. Entsprechend der Zielsetzung des Buches wird bei der Beschreibung der Kulturtypen darauf eingegangen, ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-05657-5_5 a6bf3fd71267c195877030b1e175e4e8;de;;;1.1.;;;Multi-Media-Dokumente in BreitbandnetzenDas vorliegende Papier analysiert Anforderungen an Multi-Media-Dokumente (MMD) hinsichtlich ihrer Verarbeitung in offenen Rechnernetzen. Da in einem MMD zum einen als ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-74276-7_3 2cd79d05e527f5805f11b9d6710e6e92;de;;;1.1.;;;Ziel- und KontrollgrößenZiel des folgenden Kapitels ist es, das Marketingcontrolling von Einzelhandelsbetrieben durch verhaltenswissenschaftliche Überlegungen bei der Auswahl von Zielbzw. Kontrollgrößen zu unterstützen und Möglichkeiten zur Operationalisierung und Messung der relevanten verhaltenstheoretischen Konstrukte aufzuzeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08725-0_2 a03dfb2ecf5efb5ec318d7317f307527;de;;;1.1.;;;Management und ManagerkompetenzenWas bedeutet es, ein Manager zu sein? Welche Eigenschaften machen einen guten Manager aus? Aufgrund individueller Vielfältigkeit gibt es keinen Idealtyp des Managers. Erfolgreiche Manager in der Praxis können sowohl flink und flexibel als auch stur und starrsinnig sein, sowohl bescheiden als auch eitel und selbstbewusst wirken. Wer sich für die Managerkarriere entscheidet, muss ohne fertige Rezepte aufgrund persönlicher Fähigkeiten, Fertigkeiten und Erfahrungen seinen eigenen Managementstil finden. Entscheidungen treffen und Verantwortung übernehmen, planen und kontrollieren, führen und organisieren — diese und viele weitere Tätigkeiten gehören zu den Manageraufgaben. Diese Aufgaben variieren je nach Branche und Größe des Unternehmens, nach der Position und Funktionen des Managers, haben aber eins gemeinsam: Manager arbeiten mit Menschen. Allgemein versteht man unter Management andere zum Erreichen gemeinsamer Ziele zu bewegen. Zum Beispiel, nach U. Holzbaur;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-94562-4_1 39d968306fac276d9ef6b49d7684ed9c;de;;;1.1.;;;Experiment und Orientierung: Frühe Systeme der in vitro ProteinbiosyntheseThe history of what we call molecular biology today is not just the story of DNA. Molecular biology emerged from and was supported by a multiplicity of widely scattered, differently embedded, and loosely, if at all connected experimental systems for characterizing living beings to the level of biologically relevant macromolecules. By implementing different modes of technical analysis, these systems created a new space of representation in which the central concepts of molecular biology gradually became articulated. The paper describes the establishment of the rat liver;-;-;-;https://link.springer.com/article/10.1007/BF02914124 a77833afcd1b8781884b8b450f3f688e;de;;;1.1.;;;Automatische EKG-Auswertung in BevölkerungsstudienAls einfaches und doch aussagekräftiges Verfahren zur Diagnostik kardialer Erkrankungen hat das Elektrokardiogramm weite Verbreitung gefunden. Es liefert Informationen über die Herzfrequenz, den Rhythmus, den allgemeinen Zustand des Myokards und eignet sich zur Erkennung von Manifestationen ischämischer Erkrankungen. Darüber hinaus kann mit bestimmten EKG-Anomalien (Risikoindikatoren) das Risiko künftiger kardialer Ereignisse beschrieben werden. Für Bevölkerungsstudien gewinnt die Verfügbarkeit einer standardisierten EKG-Befundung durch ein validiertes Instrumentarium Computer-EKG-Auswertung besondere Bedeutung, da mit der Konstanz der Vermessungs- und Befundkriterien dieses Verfahrens eine wichtige Forderung der Epidemiologie erfüllt wird. Am Beispiel der Münchener Blutdruckstudie II (MBS II) werden Anwendungsmöglichkeiten der automatischen EKG-Auswertung im Rahmen einer Bevölkerungsstudie gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82158-5_27 476995da570fcb84bb8a064596a9c58a;de;;;1.1.;;;Theorien von Governance in MehrebenensystemenMehrebenensysteme und Mehrebenenpolitik sind Gegenstand verschiedener Theorien und Forschungsbereiche. Da wir uns im Folgenden mit Governance in Mehrebenensystemen befassen, sind nur solche Theorien relevant, die Aussagen über die Zusammenhänge zwischen institutionellen Strukturen, Interaktionen und Politikergebnissen enthalten. Aus ihnen sollen Erkenntnisse darüber gewonnen werden, ob und wie in Mehrebenensystemen effektive und demokratische Politik möglich ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-91536-4_3 3f1ae8d98a30a99b159e116c773388cb;de;;;1.1.;;;Urbane Probleme, stadtsoziologische Theorien und städtische PlanungAuf die physische Zerstörung deutscher Städte im Zweiten Weltkrieg folgte in der Bundesrepublik eine Phase des raschen Wiederaufbaus der Innenstädte — eine Leistung, die das Vertrauen der Bevölkerung in die Leistungsfähigkeit des neuen Staates förderte. Diese offensichtlichen Erfolge ließen bei den Architekten, Stadtplanern und politisch Verantwortlichen eine Gewißheit der technologischen Machbarkeit und Planbarkeit städtischen Lebens entstehen, die auch noch die sich anschließende Phase des Neubaus von Stadtrandvierteln und Trabantenstädten bestimmte. Neben dieser „Wiederaufbaumentalität“ — basierend auf konkreten individuellen Bedürfnissen nach Wohnraum und einer abgrenzbaren Privatsphäre — traten vorerst Interessen von Planern und Wissenschaftlern in den Hintergrund, wie sich Stadtteile langfristig entwickeln und welche besonderen Eigenschaften ältere Stadtteile aufweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-97485-3_2 7d8f97e99875d9abe7b55953b9f8bf6a;de;;;1.1.;;;Zurück zu den Grundlagen: PersuasionDie Untersuchung von Einstellungen und Einstellungsänderungen ist in der Sozialpsychologie, aber auch der Kommunikationswissenschaft, bereits seit Anfang des 20. Jahrhunderts, insbesondere im Kontext der Persuasionsforschung, eines der zentralen Forschungsinteressen (Allport, 1935, Jonas, 2007, Pürer, 2003). Beispielhaft seien hier die Yale-Studien unter der Führung von Hovland zu nennen, in denen systematisch die Einflüsse verschiedener Attribute des Inhalts, der Rezipienten, Sender und situativen Bedingungen auf Einstellungseffekte von rhetorischen Botschaften untersucht wurden (Hovland, Janis, & Kelley, 1953). Im Kontext dieser Arbeit sind die Erkenntnisse der Persuasionsforschung aus zwei Gründen relevant.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-20445-7_3 adfaf1a1b3864483c2768ca068af999e;de;;;1.1.;;;InnovationswirtschaftDie Entwicklung von Industriebetrieben wird durch zahlreiche marktliche, technologische und organisatorische Veränderungen geprägt. Weisen diese Änderungen einen hohen Neuigkeitswert auf, spricht man von Innovationen. Entstehung, Überleben und Erfolg des Industriebetriebs sind in einer Wettbewerbswirtschaft ohne Innovationen nicht denkbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-87161-9_8 101addd730718cf7a7816594718043c6;de;;;1.1.;;;Stand des subretinalen ImplantatprojektsDie Entwicklung einer subretinalen Sehprothese ist in einem Stadium, wo Implantationen bei Patienten unmittelbar bevorstehen. Subretinale Sehprothesen sollen durch ortsaufgelöste elektrische Stimulation degenerierte Photorezeptoren bei Krankheiten wie Retinitis pigmentosa und des altersassoziierten Makulaerkrankung ersetzen. Hierzu werden Mikrophotodioden-Arrays zwischen Netzhaut und retinales Pigmentepithel implantiert. In den letzten Jahren wurden von unserer Gruppe zahlreiche Beweise der prinzipiellen Machbarkeit geliefert. So zeigte sich zum Einen in Untersuchungen an verschiedenen Tiermodellen, dass durch subretinale elektrische Stimulation im visuellen Kortex ein geordneter Seheindruck entstehen kann, die mögliche Sehschärfe wird auf etwa 0,25° Sehwinkel geschätzt. Zum Anderen zeigten histologische Langzeituntersuchungen, dass die Netzhaut über einem subretinalen Implantat intakt und das Implantat über diese Zeit funktionsfähig bleibt. Die operativen Zugänge konnten auch für komplexe Implantate erfolgreich etabliert werden.;-;-;-;https://link.springer.com/article/10.1007/s00347-005-1258-7 b584e33e3264595f099e6828768e46ff;de;;;1.1.;;;Die (In)Kompatibilität von Individualität und Gruppenbildung in Minoritäts-Majoritäts-KontextenIm letzten Kapitel wurde die Frage beantwortet, was Personen überhaupt unter ihrer eigenen Individualität verstehen, nämlich Individualität im Sinne von Unterscheidung von anderen Personen zum einen und Individualität im Sinne von Unabhängigkeit von anderen Personen zum anderen. Nun kann sich der Frage zugewendet werden, ob sich Gruppen finden lassen, die diese beiden Formen der Individualität wahren bzw. sogar stärken können und welcher psychologische Mechanismus dieser Wahrung zugrunde liegt. Allgemeiner formuliert werden Gruppen(mitgliedschaften) gesucht, die zusätzlich zum kollektiven Selbst auch noch das individuelle Selbst als ein unabhängiges oder als ein distinktes Individuum erlauben. Eine Antwort wird im Rahmen der vorliegenden Arbeit vornehmlich in Minoritäts-Majoritäts-Kontexten gegeben. Diese Kontexte sind aus mehreren Gründen besonders relevant. Zum einen sind viele reale Intergruppensituationen durch bedeutsame Größenasymmetrien gekennzeichnet (Farley, 1982, Simon, Aufderheide & Kampmeier, 2001, Tajfel, 1981). Darüber hinaus ist Größe oder Anzahl eine wichtige Dimension, auf der sich das Individuum und die Gruppe voneinander unterscheiden. Das Individuum kann als eine Gruppe mit nur einem Mitglied angesehen werden, wohingegen die Gruppe das Individuum in dem Sinne transzendiert, als daß sie inklusiver ist. Forschung mit Gruppen, die sich auf der Größendimension voneinander unterscheiden, sollte daher besonderen Aufschluß über das Verhältnis von Individualisierung und Gruppenbildung, oder allgemeiner, über das Verhältnis von Individuum und Gruppe geben können. Schließlich lassen sich in Minoritäts-Majoritäts-Kontexten bereits einige Hinweise dafür finden, daß eine Wahrung oder gar Bestärkung der eigenen Individualität möglich ist (siehe unten).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08054-1_7 5ff9fd750e0f2fcdbe24409dffdba272;de;;;1.1.;;;Kunststoff — Biowerkstoff in der MedizinDer heutige Stand der Medizin wäre ohne Kunststoffe, die die größte Gruppe unter den medizintechnischen Ersatzwerkstoffen darstellen, nicht zu erreichen gewesen. Materialneuentwicklungen und Modifikationen bekannter Polymere erschließen ständig neue Anwendungsgebiete oder lösen veraltete Werkstoffe in klassischen Applikationen ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-08644-5_24 71a8b086d3348fd5bbf2c004b31ff3de;de;;;1.1.;;;Ergebnisse der Untersuchung zur VertriebsdifferenzierungAnhand der vorangegangenen Kapitel lassen sich nun die als verlässlich und valide spezifizierten Messmodelle im Rahmen der postulierten Hypothesen überprüfen. Um die Komplexität der Kausalmodelle zu reduzieren und die Aussagekraft der Arbeit zu erhöhen, wurde pro Geschäftstyp die ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-04866-2_6 96851513543771e1e81e3a7ce9b8a875;de;;;1.1.;;;Einfluss des Rauchens auf weitere Organsysteme•Neben den vor allem am Herz-Kreislauf-System und Respirationstrakt auftretenden Raucherschäden sind auch die Nierenveränderungen, insbesondere bei Diabetikern, als gravierende Beeinträchtigung der Gesundheit zu bedenken. ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73309-6_8 c0669953fbfaec9c2f17f0506a10fe6e;de;;;1.1.;;;Der Einfluß von Stimmungen auf kognitive ProzesseIm vorliegenden Kapitel wird zunächst der Stimmungskongruenzeffekt (SKE) als zentrales Thema dieser Arbeit näher erläutert. Es wird das Modell von Bower (1981) in Abschnitt 2.1 skizziert, das die Grundlage für eine Vielzahl empirischer Studien zum Einfluß von Emotion auf kognitive Prozesse lieferte. Bevor dann eine Reihe neuerer Studien zum Stimmungskongruenzeffekt für frühe Informationsverarbeitungsstufen detaillierter dargestellt wird, werden einige methodische Probleme empirischer Untersuchungen aufgrund der Erfassung und Induktion von Emotionen und Stimmungen diskutiert. Da der von Bower zugrundegelegte Ansatz eine Reihe von widersprüchlichen Ergebnissen nicht hinreichend erklären kann und zudem sein primär kognitiver Ansatz nicht mehr dem heutigen Kenntnisstand der Emotionstheorien entspricht, werden in einem Exkurs einige grundlegende Annahmen über die Funktionsweise eines affektiven Systems diskutiert (2.3). Abschließend wird ein Modell affektiver Modulation speziell für positive und depressive Stimmung vorgestellt, das den allgemeinen empirischen Befunden besser gerecht werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-91656-3_2 23b4c04e1f9616544066df345dbe93fb;de;;;1.1.;;;Psychosexuelle und soziale EntwicklungDas erste Unterkapitel behandelt wichtige Themen der psychosexuellen Entwicklung im Jugendalter. Zuerst werden ausgewählte Aspekte der körperlichen Entwicklung zwischen Grundschule und Sekundarstufe dargestellt. Darauf aufbauend werden einige Konsequenzen der psychosexuellen Entwicklung im Jugendalter beschrieben. Der nächste Abschnitt beschreibt die Herausforderungen, vor denen Schülerinnen und Schülermit vom Durchschnitt abweichender sexueller Orientierung oder geschlechtlicher Identität stehen. Das Unterkapitel schließt mit einem Überblick über Theorien der Entwicklung sexueller Orientierungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-55754-9_13 381b056247cceac355a9857f2c880b28;de;;;1.1.;;;Das Anbieter- und Nachfragerverhalten auf MärktenGegenstand des Teils 2 ist das Verhalten von Anbietern und Nachfragern auf Märkten. Zunächst werden Märkte allgemein charakterisiert, verschiedene Arten von Märkten werden dargestellt, außerdem wird untersucht, in welcher Weise Märkte abgegrenzt werden können. Im Anschluß hieran werden die grundsätzUch möglichen einzelbetrieblichen bzw. kooperativen Verhaltensweisen der Anbieter, die wirtschafts-friedlicher bzw. -feindlicher Natur sein können, beschrieben. Schließlich wird das Verhalten von Nachfragern analysiert. Konsumenten, privatwirtschaftliche Handels- und Industriebetriebe sowie öffentliche Nachfrager werden im einzelnen betrachtet. Im Zusammenhang mit dem Konsumentenverhalten wird ein Überblick über die wesentlichen Modelle des Käuferverhaltens gegeben, jeweils wird auch die Aussagefähigkeit der einzelnen Käuferverhaltensmodelle für das Marketing erörtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-97248-5_2 53c79fc2e4a46b905be9772193d8fc88;de;;;1.1.;;;Ärger als Alltagsemotion – Theoretische Ansätze aus der EmotionsforschungÄrger und Wut zählen zu den recht gut erforschten Emotionen. Mit Ärger hat sich insbesondere die Psychologie beschäftigt, einige Arbeiten stammen aus anderen Disziplinen wie etwa der Soziologie. Entsprechend dieser Forschungslage greife ich vorrangig auf die psychologische Forschungstradition zurück;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-91689-7_4 b9a41f6f7cbc23c7117d18bed4f118fc;de;;;1.1.;;;Politikdidaktik als WissenschaftsdisziplinDie aktuellen Debatten über die Kompetenzorientierung in der Politikdidaktik werden mit normativen Argumenten auf der einen, mit wissenschaftstheoretischen sowie forschungsmethodischen auf der anderen Seite geführt. Ziel des Beitrags ist es, die Argumente zu strukturieren und dabei die Wissenschaftsdisziplin aus aktueller Perspektive vorzustellen. In diesem Sinne wird in diesem Beitrag zunächst an die Zielsetzung politischer Bildung und die Philosophie des Faches erinnert. Sie erlauben es, die Zusammenhänge von Theorie und Forschung im Folgenden genauer zu fassen. Dazu wird zunächst die Entwicklung einer politikdidaktischen Theorie mit Blick auf die empirische Forschung vorgestellt. Es wird dargestellt, was unter einer politikdidaktischen Theorie verstanden werden kann. Daran schließt sich die Beschreibung einiger Fragestellungen und Formate der empirischen politikdidaktischen Forschung an. Anschließend werden einige ausgewählte Forschungsarbeiten (meist Dissertationen) in ihren Ergebnissen und methodischem Vorgehen vorgestellt. Dabei wird insbesondere auf das Verhältnis von Empirie und Theorie eingegangen, um die Entwicklungsphasen herauszuarbeiten. Eine Zusammenfassung der Argumentation schließt den Beitrag ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-18892-4_2 855454cfd07a1ba38ade6e9094470c50;de;;;1.1.;;;Selbstorganisationstheorie und die (Forschung über die) Führung internationaler Unternehmen29 Jahre sind nunmehr vergangen, seit unser hochverehrter, bisweilen nicht unireffend als „Außenminister der deutschen Betriebswirtschaftslehre“ charakterisierter akademischer Lehrer Professor Dr. Klaus Macharzina seine Dissertation über die Bedeutung und Konzipierung der Interaktionstheorie für die betriebswirtschaftliche Organisationsforschung vorgelegt hat (vgl. Macharzina 1970). In ihren zentralen Passagen präsentiert sich diese als eine programmatische Schrift, in welcher überlebensrelevante Kernprobleme der damaligen Organisationsforschung herausgearbeitet und Ansätze zur Überwindung der durch diese Probleme induzierten Krisensituation identifiziert werden. Die von Macharzina diagnostizierten Schwächen der Organisationsforschung der ausgehenden sechziger Jahre sind erheblich. So wird u. a ein Mangel an Teamforschung der betroffenen Fachvertreter diagnostiziert (vgl. Macharzina 1970, 12), eine unzureichende erklärungs- bzw. prognosebezogene Aussagefähigkeit verfügbarer Theorien festgestellt (vgl. Macharzina 1970, 16), ein von mechanistischen Funktionsprinzipien dominiertes Organisationsverständnis erkannt (vgl. Macharzina 1970, 17), eine unpräzise Verortung des Erkenntnisobjekts kritisiert (vgl. Macharzina 1970, 19), ein Nebeneinander statt eines Miteinanders verschiedener Teiltheorien aufgezeigt (vgl. Macharzina 1970, 12) und eine Verwässerung bzw. Verfälschung von Teildisziplinen aufgrund einer Pluri-statt Interdisziplinarität festgestellt (vgl. Macharzina 1970, 20). Als geradezu zwangsläufige Konsequenz dieser Schwächen weist Macharzina auf ein generelles Theoriendilemma hin (vgl. Macharzina 1970, 15), welches einen Desintegrationszustand der organisationsrelevanten Forschungsrichtungen sowie eine Uneinheitlichkeit der modernen Organisationstheorie bewirkt (vgl. Macharzina 1970, 12).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-07840-1_12 911f40a7265673b5cff940e72943c764;de;;;1.1.;;;Kooperation und KommunikationDem Bereich Kooperation und Kommunikation wird in der aktuellen Diskussion über fächerübergreifende Kompetenzen eine hohe Bedeutung beigemessen. So wird häufig argumentiert, dass aufgrund der zunehmenden Heterogenität sozialer Umwelten und der steigenden Verbreitung von Teamarbeit soziale Kompetenzen für eine erfolgreiche Lebensführung immer wichtiger werden (Bungard, 1990, Seyfried, 1995). Entsprechend fanden Didi u.a. (1993), dass in der berufspädagogischen Literatur das Konzept der Schlüsselqualifikation am häufigsten im Sinne von Kommunikationsfähigkeit und am zweithäufigsten im Sinne von Kooperationsfähigkeit verwendet wird, und eine Analyse von knapp 4.000 Stellenanzeigen ergab, dass Kommunikations- und Teamfähigkeit zu den überfachlichen Qualifikationen gehören, die Arbeitgeber am häufigsten von zukünftigen Mitarbeiterinnen und Mitarbeitern erwarten (Dietzen, 1999).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-83412-6_9 27f74be11c9511aff99d127ed174c4c9;de;;;1.1.;;;Die Kapazität des phonetischen Speichers des Arbeitsgedächtnisses als ‚auditive Präsenzzeit‘ und ihr Einfluß auf die Reproduktion von ZeitmusternDie meisten Menschen sind in der Lage, einen loirzen Rhythmus direkt nach seiner Darbietung nachzuklopfen oder eine unbekaimte Melodie von wenigen Tönen Dauer nachzusingen. Auch das sofortige Nachsprechen eines dreisilbigen Wortes ist eine leichte Aufgabe, selbst wenn es sich bei dem Wort um einen noch nie gehörten Fachbegriff handelt. Wie kann akustische Information kurzzeitig so zuverlässig gespeichert werden? Werden einzelne aufeinanderfolgende Klatigbausteine einerseits und ihre Abfolge andererseits bewußt enkodiert? Die subjektive Leichtigkeit entsprechender Aufgaben legt eher nahe, daß die Verarbeitungsprozesse größtenteils automatisch ablaufen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-85180-2_27 2eb13ed195a4921abbac7902b3769d47;de;;;1.1.;;;Authentische Führung in ExtremsituationenDer vorliegende Beitrag widmet sich authentischer Führung in Extremsituationen, denen sich Einsatzorganisationen regelmäßig ausgesetzt sehen. Nach einer kritischen Einführung in die Theorie der authentischen Führung werden konkrete Vorschläge zu deren Weiterentwicklung angeführt. Diesbezüglich werden vor allem Führungssituationen in Einsatzorganisationen betrachtet, die sich durch hohe Risiken und Unsicherheit auszeichnen. Unter Einbezug von Banduras Konzept des sozialen Handelns wird schließlich die Erklärungskraft der authentischen Führungstheorie erweitert und deren Potential für Einsatzorganisationen verdeutlicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-28921-8_6 c4e9f1be820e0802dcec60d9c3b81f0f;de;;;1.1.;;;Psychodiagnostische Möglichkeiten der Projektionstachistoskopie bei HirngeschädigtenNach Untersuchung cerebral geschädigter Patienten mit dem Projektionstachistoskop unter Verwendung von Bildmaterial wird geprüft, ob sich unser Verfahren als objektives psychodiagnostisches Mittel eignet. Die Ergebnisse an 309 Probanden (Hirngesunde, schwer und leicht Hirngeschädigte) zeigen, daß die Projektionstachistoskopie wesentliche Hilfen bei der psychodiagnostischen Untersuchung Hirngeschädigter zu leisten vermag und eine wertvolle Ergänzung des neurologischen Befundes sein kann. Als besonders ergiebig hat sich dabei die Figur-Grund-Differenzierung erwiesen. Es erscheint lohnenswert, das tachistoskopische Experiment zu einer standardisierten Methode auszubauen.;-;-;-;https://link.springer.com/article/10.1007/BF00343110 702c8174046e59438619a36b80071c90;de;;;1.1.;;;Empirische Untersuchung zur Urlaubsstimmung, deren Verlauf und deren UrsachenDie Ziele der empirischen Untersuchung bestehen darin, touristischen Leistungsanbietern Erkenntnisse über den Einfluss der Stimmung von Urlaubern zur Optimierung ihres Angebots an die Hand zu geben. Hierüber liegen bislang keine Forschungsergebnisse vor. Schwerpunkte der Studie stellen, wie bereits in Gliederungspunkt 1.2. erwähnt, die Erfassung der von Probanden im Urlaub empfundenen Stimmung und der für diese relevanten Ursachen dar. Auch während des Urlaubs stattfindende Stimmungsschwankungen sind von Interesse. Ein weiterer Fokus der Untersuchung liegt auf der Ermittlung der Wirkung der im Urlaub empfundenen Stimmung auf ausgewählte Faktoren. Die zu den aufgeführten Themenkomplexen formulierten Hypothesen werden einer Prüfung unterzogen. Abschließend gilt es mit Hilfe cluster-analytischer Verfahren verschiedene Urlaubertypen zu identifizieren und diese zu charakterisieren. Die gewonnenen Erkenntnisse sollen letztlich auch dazu dienen, das wissenschaftliche Fundament für eine Stimmungsorientierung der Tourismusbranche zu schaffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08723-6_5 1437740c7b1df87817913df31ed7b8fa;de;;;1.1.;;;F Bewertung der Untersuchungsbefunde aus der Perspektive von Wissenschaft und PraxisDen Ausgangspunkt der vorliegenden Untersuchung bildete der Forschungsbedarf in Bezug auf verschiedene Facetten des Konstruktes Reputation, um hieraus Erkenntnisse für das erfolgreiche Management des elementaren Erfolgstreibers „Reputation“ zu erhalten. Im Kern der Arbeit standen dabei die parallele Beantwortung der Fragen bei zwei Stakeholdergruppen und insbesondere die Übertragung der Reputation zwischen diesen. Bevor aus den im vorherigen Abschnitt dargestellten empirischen Befunden Handlungsempfehlungen für die Forschung und Praxis abgeleitet werden, gilt es, die wesentlichen Grenzen der Arbeit zu diskutieren. Nur durch das Aufdecken der Limitationen (Kap. F1) können die gewonnenen Erkenntnisse sinnvoll in praxisrelevante Handlungsleitlinien transferiert werden (Kap. F2). Außerdem bilden die Restriktionen der vorliegenden Arbeit gleichzeitig Anknüpfungspunkte für die zukünftige Forschung (Kap. F3).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-09485-0_6 c299b93f173adb4d2349eea25124234d;de;;;1.1.;;;Messung von Anlegerpräferenzen mittels Conjoint-AnalyseIm vorangestellten Kapitel 3 wurde die Wichtigkeit der Erfassung der Kundenbedürfnisse herausgestellt. Ein nachfragegerechtes Leistungsangebot sollte sich an den Präferenzen der Anleger orientieren und auf einer nutzenbasierten Kundensegmentierung fußen. Vor einer Operationalisierung dieses Ansatzes gilt es, die verwendeten Begriffe zu definieren und voneinander abzugrenzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-9207-5_4 d6058442e8c9a5fca171b2271d7d8c92;de;;;1.1.;;;Die Entscheidung als ProzeßEntscheidungsprobleme ergeben sich daraus, daß die verfügbaren Ressourcen zur Bedürfnisbefriedigung mit den Bedürfnissen in Einklang gebracht werden müssen (1). Aufgrund der Seinsbedingungen sind weder alle Ressourcen frei verfügbar, noch alle Bedürfnisse mit den verfügbaren Ressourcen zu befriedigen. Hieraus ergibt sich zwangsläufig die Notwendigkeit, zwischen verschiedenen Handlungsmöglichkeiten zu wählen. Mit diesen Problemen befassen sich die Entscheidungstheorien im allgemeinen (2) und die Wirtschaftswissenschaften im besonderen (3).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-88016-1_2 bc41f52a9d6a960ab57637707a4f1638;de;;;1.1.;;;Praktikable Methoden zur Beurteilung der NarkosetiefeDie Möglichkeit, daß ein Patient während einer Operation aus einer Allgemeinanästhesie erwacht und gar Operationsschmerz oder andere chirurgische Manipulationen wahrnehmen und postoperativ erinnern kann, muß Patienten und Anästhesisten in äußerste Beunruhigung versetzen. Es ist von daher wenig verwunderlich, daß Anästhesisten schon lange auf der Suche nach objektiven Kriterien sind, die zentrale Anästhetikaeffekte, intraoperative Wachzustände und die sogenannte Narkosetiefe anzeigen. Die wichtigsten Methoden sind: Der PRST-Score, ein Score, der aus Veränderungen autonomer vegetativer Funktionen, wie Blutdruck, Herzfrequenz, Schweißsekretion und Tränenfluß errechnet wird. Die sogenannte isolierte Unterarmtechnik, die es dem Patienten gestattet, sich während einer Narkose zu bewegen und einfachen Kommandos Folge zu leisten, auch wenn Muskelrelaxantien verwendet werden. Das spontane oder verarbeitete Elektroenzephalogramm, das die spontane neuronale Aktivität kortikaler oder kortexnaher Neuronen widerspiegelt und die akustisch evozierten Potentiale, welche die spezifische Antwort des Gehirns auf einen definierten akustischen Sinnesreiz darstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-80367-3_4 c4e8cb4801b427f02f192ef91b46802c;de;;;1.1.;;;Bedeutung und Messung der Qualität des KundenserviceDie Qualität des Kundenservice bildet die wichtigste Voraussetzung für seinen erfolgreichen Einsatz im Rahmen einer Präferenzstrategie für das gesamte Leistungsprogramm eines Anbieters. Bevor Ansätze zur Steuerung oder Verbesserung der Qualität angesprochen werden können, ist es erforderlich, die Qualität zu operationalisieren. Das bedeutet, daß durch Angabe von Inhalten und Wirkungsbeziehungen sowie Meßverfahren ihre Kernelemente verdeutlicht werden. Die Möglichkeiten zur Bestimmung und Messung der Qualität werden in Abschnitt 5. dieser Arbeit wichtige Werkzeuge für das Qualitätsmanagement bilden, insbesondere im Rahmen der Zielsetzung und Kontrolle.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-97708-3_4 8116da07d43157bc81b341ed204977c7;de;;;1.1.;;;Das EDV-System in der Rehabilitation der Bundesversicherungsanstalt für Angestellte — BerlinDer vorliegende Beitrag soll die Aufgabenstellung der Bundesversicherungsanstalt für Angestellte in Berlin (BfA) als Rehabilitationsträger umreißen und eine Übersicht über das daraus abzuleitende EDV-System geben. Er soll als Grundlage für weitere Beschreibungen über EDV-gestützte Teilsysteme und Verfahren in der Rehabilitation der BfA dienen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-81404-4_59 acb675366a3f880ed370fa8949893882;de;;;1.1.;;;Didaktisch-methodische Umsetzung des Qualifizierungsziels »Ganzheitliche Arbeitsgestaltungskompetenz«Das Qualifizierungsziel »Ganzheitliche Arbeitsgestaltungskompetenz« unterscheidet sich grundlegend von partiellen Qualifizierungszielen, wie dem Beherrschen einer bestimmten Programmiersprache. Dieser Unterschied besteht einerseits bezüglich der Komplexität, andererseits bezüglich des Verhältnisses zur bisherigen Qualifizierungspraxis, zu den Qualifizierungszielen und der Unterrichtsgestaltung. Ganzheitliche Arbeitsgestaltungskompetenz kann nicht der bisherigen Qualifizierungspraxis angefügt werden, sie kann auch nicht vorhandene Qualifizierungsziele ersetzen, so wie eine neue Programmiersprache beispielsweise an die Stelle einer veralteten Programmiersprache tritt. Die Umsetzung des Qualifizierungsziels »Ganzheitliche Arbeitsgestaltungskompetenz« erfordert eine Umgestaltung der gesamten, vorhandenen Qualifizierungspraxis. Wir sprechen daher auch von einem Paradigmenwechsel in der Qualifizierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-94749-9_4 29657484d54a61d4f3c3dbe4f6ae6eac;de;;;1.1.;;;Forschungsstand „Angewandte Verständlichkeit“Verständlichkeit wird in verschiedenen Disziplinen aufgenommen, wobei hier vor allem sprachwissenschaftliche und psychologische Ansätze berücksichtigt werden. Diese werden in einem weiteren Schritt im interdisziplinären Modell der angewandten Verständlichkeit zusammengeführt. Das Modell enthält einerseits die sprachwissenschaftlichen Stufen von Leserlichkeit (Wahrnehmbarkeit), Lesbarkeit (Stil) und Verständlichkeit in engerem Sinne (Anknüpfbarkeit von neuem Wissen an bestehendes Vorwissen) und sozialpsychologische Faktoren wie Verarbeitungsmotivation und Einstellung. Das Modell wurde in verschiedenen Studien bereits auf seine Aussagekraft hin getestet. Auch diese Ergebnisse werden im Folgenden präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-22360-1_3 7e2810c25f202f4dfc2bd26646a6c310;de;;;1.1.;;;Struktur der Projektfinanzierung als effizientes Kooperationsdesign für Supply Chain NetzwerkeIn der bisherigen Analyse der Interdependenz zwischen leistungswirtschaftlicher und finanzwirtschaftlicher Ebene im Supply Chain Netzwerk der Automobilindustrie wurde deutlich, dass Verhaltensrisiken, die letztlich die Kapitalbereitstellung beeinflussen und diese vor Herausforderungen stellen, eine bedeutende Risikoklasse darstellen. Bevor dezidiert auf den Lösungsansatz der Projektfinanzierung als Finanzierungstechnologie im Netzwerk eingegangen wird, soll nachfolgend der traditionelle Unternehmensfinanzierungsansatz näher betrachtet werden und hinsichtlich der impliziten Annahmen und der Auswirkungen auf die Netzwerkstrukturen analysiert werden. Es gilt dabei die impliziten Annahmen über das Finanzierungsobjekt Unternehmung herauszuarbeiten und mit den zuvor charakterisierten Netzwerkstrukturen zu vergleichen. Damit sollen die Herausforderungen in der Finanzierung solcher Netzwerkstrukturen und die Limitationen des traditionellen unternehmensbezogenen Finanzierungsansatzes, die gleichermaßen Anforderungen an den intendierten Lösungsansatz der Projektfinanzierung darstellen, reflektiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-9730-2_4 506fdb9efc7552f40d0ef5ca0351ccec;de;;;1.1.;;;Weltwahrnehmung und ErkenntnisSo selbstverständlich es ist, dass sich Lebewesen in ihrer Umgebung orientieren können und dass sie diese Fähigkeit immer weiter optimieren, so erstaunlich ist es auch. Selbstverständlich, weil sonst kein Existieren möglich wäre, und erstaunlich, weil diese Fähigkeit auf der intensiven Auswertung von Umgebungsinformationen beruht. Diese Orientierungsfähigkeit ist sehr komplex. Wir werfen einen Blick auf die erkenntnistheoretischen Einsichten, die zu der Wahrnehmung der Welt und anderer Lebewesen gereift sind. Die umfasst auch einen kleinen philosophischen Diskurs und eine Vertiefung der biologischen Erkenntnistheorie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-50255-6_6 86e59cbca9c3282ae713d2e455106dcf;de;;;1.1.;;;Begriffs- und Wortbedeutungsentwicklung: Theoretische, methodische und inhaltliche FragestellungenDie Erforschung von Begriffs- und Wortbedeutungsentwicklungen hat seit ihren Anfängen, insbesondere aber in den letzten fünfzehn Jahren, eine Vielfalt von Theorie- und Modellvorstellungen hervorgebracht (vgl. z.B. Wannenmacher & Seiler, 1981, 1983a), die sich insofern einander genähert haben, als sie die Bedeutung von Wörtern wesentlich durch Rückgriff auf ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-70489-5_1 50527eaa460c0271441cab0704768cf7;de;;;1.1.;;;Geschäftsmodelle im Internet der DingeDas Internet der Dinge (Internet of Things, IoT), das physische Produkte und digitale Services zu hybriden Lösungen verschmelzen lässt, verspricht völlig neue Möglichkeiten. Die Erfahrung, dass eine neue Technologie nicht zwingend wirtschaftlichen Erfolg nach sich zieht, hemmt jedoch viele Unternehmen. Sie sind unsicher, wie sie IoT-Technologie wirtschaftlich nutzenbringend einsetzen könnten. Vor diesem Hintergrund ist es das Ziel des vorliegenden Beitrags, die Entwicklung von Geschäftsmodellen im IoT zu reflektieren und fundierte Hilfestellung für deren Gestaltung zu bieten. Auf Basis einer Untersuchung der Rolle von IT in Geschäftsmodellen werden dazu konkrete Bausteine und Muster von Geschäftsmodellen für das IoT entwickelt. Für die zentralen Herausforderungen bei der Umsetzung solcher Geschäftsmodelle werden ausserdem erste Lösungsansätze aufgezeigt.;-;-;-;https://link.springer.com/article/10.1007/BF03373027 1c797496a4030e4ae9c0893cc3eeab6c;de;;;1.1.;;;Deprivationsforschung und PsychiatrieInnerhalb einer Vielzahl von leider oft mit variierender Bedeutung gebrauchten Termini nimmt der aus dem angelsächsischen Sprachbereich stammende Begriff ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-67416-7_11 1517e65ac572b56550ed97b74424f113;de;;;1.1.;;;Ablaufsicherung und Abstimmkontrolle Von Batch-LäufenFür eine große Versicherungsgruppe in Hamburg wurde ein DV-System zur maschinellen Ablaufsicherung und Abstimmkontrolle konzipiert und realisiert. Die Prüfregeln sind dabei aus der Anwendung herausgelöst und auf eine externe Datei ausgelagert. Alle maschinell durchgeführten Prüfungen eines Batch-Systems werden der Arbeitsnachbereitung in einem zusammenhängenden Protokoll angezeigt. Solche inhaltlichen Vergleiche von Daten sind job-und systemübergreifend möglich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-70286-0_14 ff354d23e290a675fbe1d725908bea45;de;;;1.1.;;;Soziale KognitionenWieso kann man nach einem Fußballspiel hitzige Diskussionen zwischen den Fans der beiden Mannschaften beobachten, die so klingen, als hätten diese nicht ein und dasselbe Fußballspiel, sondern zwei völlig unterschiedliche Partien gesehen? Wie entscheidet ein Handballspieler während eines Spiels, wohin er den Ball wirft? Unterscheiden sich erfolgreiche und weniger erfolgreiche Sportler darin, auf welche Ursache sie einen sportlichen Erfolg zurückführen? Dieses Kapitel beschäftigt sich mit der Frage, wie Menschen sich selbst und ihre soziale Umwelt „konstruieren“. Es stehen also kognitive Prozesse im Vordergrund, die sich entweder mit sozialen Inhalten beschäftigen oder die durch die Präsenz anderer Individuen beeinflusst werden. Aus der Vielzahl der sozialen Kognitionen werden beispielhaft Urteils- und Entscheidungsprozesse sowie Attributionsprozesse herausgegriffen. In Bezug auf Urteils- und Entscheidungsprozesse werden Urteilsheuristiken (z. B. Simulationsheuristik, Take-the-First-Heuristik) und ihre Bedeutung für sportliches Handeln dargestellt. Für die Attributionsprozesse erfolgt ein kurzer Überblick über theoretische Ansätze, die Effekte von Attributionen sowie Verzerrungen im Attributionsprozess.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-50389-8_11 e7f3c03323ef05140f5aa86da682a18b;de;;;1.1.;;;Ursachen der psychosomatischen ErkrankungenOft hört man, dass die Ursachen für psychosomatische Erkrankungen nur Einbildung oder negative Gedanken wären. Tatsächlich handelt es sich um viele in der Tiefe liegende Kernprobleme, wie z. B. Trennung von Natur und Mensch, Verlernung des Lebens im Einklang mit der Natur, Total-Abschwächung der in der Mitte stehenden Zentren, Vernachlässigung der Identität der Natur-Menschen, Aufspaltung des ganzheitlichen Gehirns durch Spezialisierung, begrenzte Aktivität in der Großhirnrinde, verringerte Großheit, Denervierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45329-2_4 0c585ddc1967bb10038d3b22e0a6b490;de;;;1.1.;;;Modellbasierte Organisations- und Informationssystemgestaltung unter Verwendung der R/3-ReferenzmodelleDie Einführung der Standardsoftware R/3 wird derzeit von vielen Unternehmen — im Sinne eines Business Reengineering — zum Anlaß für eine Restrukturierung betrieblicher Abläufe genommen. Ein wesentliches Ziel ist dabei die Kongruenz zwischen Organisations- und Informationssystemgestaltung. Hierzu bedarf es allerdings einer hinreichenden Operationalisierung der oftmals unternehmensphilosophischen Managementkonzepte, für die Informationsmodelle besonders geeignet erscheinen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-83724-0_2 2de7870c1c3e87cf5f7be7a9efc6b8d5;de;;;1.1.;;;Multimedia-DatenbanksystemeDie vorangegangenen Kapitel dienten vor allem zur Klärung der Frage, was Multimedia auf Rechensystemen alles bedeuten kann und welche Systeme es bereits gibt, die mit Multimedia arbeiten. Bislang stellen solche Multimedia-Systeme Einzellösungen dar, die nur schlecht erweiterbar sind und sich nicht mit den Systemen der klassischen Datenverarbeitung integrieren lassen. Deshalb ist langfristig eine Modularisierung anzustreben, in der Basisdienste herausgebildet und als Bausteine allen Anwendungen verfügbar gemacht werden. Wir konzentrieren uns auf einen dieser Bausteine, der für alle Fragen der Speicherung und des Wiederauffindens von Information in den unterschiedlichsten Medien zuständig sein soll. Dabei sollen die Lehren und Techniken aus der Entwicklung von Datenbankverwaltungssystemen (DBVS) berücksichtigt werden, so daß eine neue Art von DBVS, eben ein Multimedia-DBVS entsteht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-94661-4_6 4300862a53ec57db968bf296ad0fe82b;de;;;1.1.;;;Luhmanns „Politik der Gesellschaft“ — individuell-strukturalistisch reformuliert. Skizze eines TheorievergleichsNiklas Luhmanns Theorie sozialer Systeme ist eine der am stärksten diskutierten und gleichzeitig heftig kritisierten gesellschaftstheoretischen Konzeptionen im deutschsprachigen Raum. Sie ist überdies von dem ehrgeizigen Anspruch getragen, mit ihrem Analysepotential, was die Komplexität moderner Gesellschaft angeht, konkurrierende Theorien zu übertreffen (vgl. Luhmann 1997, S. 413, 1990, S. 282 f.). Es erscheint daher sinnvoll, eine theorievergleichende Analyse vorzunehmen, bei der Luhmanns Theorie der Politik einer alternativen gesellschaftstheoretischen Konzeption gegenübergestellt wird, deren sozialtheoretische Basis der individuell-strukturalistische Ansatz innerhalb der Rational Choice-Theorie bildet (vgl. Esser 1993, Kunz 1996, Burth 1999).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-80403-7_19 bfd4a48b70925bdb04c814acfabde525;de;;;1.1.;;;Sozialtechniken der BeeinflussungBeeinflussung erfolgt ständig im persönlichen und beruflichen Bereich. Sie wird als Technik angewendet und untersucht. In diesem Sinne ist Beeinflussung eine Sozialtechnik. „Sozialtechnik“ ist ein polarisierender Begriff. Befürworter dieser Vorgehensweise und Kritiker stehen sich unversöhnlich gegenüber. In den Diskussionen werden die Möglichkeiten der sozialtechnischen Beeinflussung sowohl über- als auch unterschätzt. Eine sachliche Beurteilung ist am ehesten möglich, wenn man die theoretischen Grundlagen der Sozialtechnologie analysiert. Darauf wird nach der Einführung in Kapitel zwei dieses Beitrages eingegangen. Vor diesem Hintergrund wird im Hauptkapitel eine Übersicht über die Sozialtechniken der Beeinflussung gebracht. Im Mittelpunkt stehen die Instrumente der Beeinflussung. Ihre psychologischen Grundlagen und Wirkungen werden exemplarisch erläutert. Außerdem wird auf die Rahmenbedingungen der Beeinflussung eingegangen, da sie erhebliche Bedeutung für den Beeinflussungserfolg haben. Im abschließenden Kapitel des Beitrages werden moralische Aspekte der Beeinflussung diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08638-3_1 705e5f3e4df67bc2244bab4549a15a1f;de;;;1.1.;;;SchlußdiskussionZu Beginn der vorliegenden Arbeit wurde die Befragung als genuine sozialwissenschaftliche Methode der Beobachtungsmethode gegenübergestellt. Aus der Sicht der sozialwissenschaftlichen Theorie der Befragung wird dieser der Vorteil zugesprochen, per Introspektion einen unmittelbaren Zugang zur tatsächlichen Ausprägung des interessierenden Merkmals, zum „wahren Wert“ zu ermöglichen, vorausgesetzt, der Befragte ist motiviert, diesen Wert mitzuteilen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-78890-1_6 930e31d1c6bb992ea3aaaf8d6fd20152;de;;;1.1.;;;300. Das Modell der Qualitätssicherung chirurgischer Arbeit in Nordrhein-WestfalenAfter three preceding pilot studies, in 1982 the quality assurance program of surgical care was offered to all hospitals in Nordrhein-Westfalia.180 hospitals participated voluntarily. They filled in questionnaires for all patients with cholecystitis, inguinal hernia, or fractured neck of femur. For the purpose of an external assistance in internal quality assurance the questionnaires were evaluated jointly to produce statistical reports, lists of complications, and profiles. These statistics permit each hospital a determination of its position compared to all other hospitals and support the recognition of hospital specific problems. Due to the guaranteed anonymity the drawing of conclusions is left to the self-responsibility of the hospitals.;-;-;-;https://link.springer.com/article/10.1007/BF01276125 b00f158c13f1bf4229b6bccb86477afc;de;;;1.1.;;;Policy-Forschung zwischen Anpassung und EigenständigkeitDaß die Sozialwissenschaften in nicht unbeträchtlichem Ausmaß Themenkonjunkturen folgen, ist keine eben neue Erkenntnis (vgl. zuletzt Ruß-Mohl 1981). Dies gilt auch und gerade für die Politikwissenschaft, die wie wenige andere Disziplinen in den vergangenen zwei Jahrzehnten einer Reihe eigen- wie fremdinduzierter Entwicklungen unterworfen war, die sie einerseits als anpassungsfähige Disziplin auswiesen, sie andererseits aber auch dem Vorwurf der Substanzlosigkeit und der “paradigmatischen Beliebigkeit” aussetzten. So vorschnell solche Urteile auch formuliert sein mögen, sie verweisen auf ein Dilemma, mit dem die Politikwissenschaft seit längerem konfrontiert ist: in ihren Begrifflichkeiten nur schwer faßbar, in ihren Arbeitsschwerpunkten nicht frei von wissenschaftlichen “Moden”, durch eine Vielzahl theoretischer wie empirisch-analytischer und methodischer Zugänge gekennzeichnet. Eine gleichsam eklektische Disziplin also, ohne festumrissenen Gegenstand, ohne “typische” Fragestellung, ohne “etablierte” Methodik (vgl. Hesse, 1982, S. 27)?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-90082-1_3 5a65e986ff4148ceb16cc0c388deafec;de;;;1.1.;;;Empirische Untersuchungen zum Zusammenhang von Vergütungsanreizen und BilanzpolitikDie folgenden empirischen Untersuchungen betrachten Unternehmen, die zu ihrem jeweiligen Bilanzstichtag in den Jahren 2005 bis 2007 in den Aktienindizes DAX, MDAX, SDAX und TecDAX notierten. Dieser Zeitraum wurde gewählt, da aufgrund des Artikels 4 der Verordnung Nr. 1606/2002 des Europäischen Parlaments und des daraufhin eingeführten § 315a HGB alle deutschen börsennotierten Kapitalgesellschaften seit 2005 verpflichtet sind, ihren Konzernabschluss nach IAS/IFRS aufzustellen. Da vor dem 01.01.2005 gem. § 292 a. F. ein Wahlrecht zur Anwendung internationaler Rechnungslegungsstandards bestand, besteht für die Geschäftsjahre 2004 und früher ein Pluralismus hinsichtlich der Rechnungslegungsvorschriften, der einen Vergleich zwischen den einzelnen Gesellschaften erschwert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-6607-0_4 4324dd796ea348caaf94581b7c057eea;de;;;1.1.;;;Evolutorische Ökonomik und VerhaltenswissenschaftNeben der Frage nach der Beziehung zwischen der Theorie nicht-linearer stochastischer Prozesse und der evolutorischen Ökonomik hat die Diskussion um eine mögliche Einbeziehung sozial- und insbesondere verhaltenswissenschaftlicher Aspekte die evolutorisch-ökonomische Debatte geprägt. So ist zwar bei nahezu allen der evolutorischen Ökonomik zuzurechnenden Autoren eine mehr oder weniger starke Einbindung verhaltenswissenschaftlicher Theorien zu beobachten, über Ausmaß und Art herrscht jedoch weitgehend Uneinigkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-01589-6_5 b57adb2a1d1eb2451fe745a0ae51c81f;de;;;1.1.;;;Psychische ProzesseDie ersten Forscher, die sich empirisch damit auseinandergesetzt haben, wie man die Kultivierung psychologisch erklÄren kann, waren Hawkins et al. (1987) und Potter (1988b, 1991a, 1991c). Kapitel 3 stellte dies bereits eingehend dar, weshalb ihre Annahmen und Befunde an dieser Stelle nur knapp rekapituliert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-90845-8_6 07d5c01571d8a02fbcf95bfe7352e1ff;de;;;1.1.;;;Supply Chain-Beziehungen als ForschungsobjektDas Ziel dieser Arbeit, einen Rahmen zur Führung von Supply Chain-Beziehungen zu entwickeln, erfordert ein genaues Verständnis der Lieferanten-Abnehmer-Schnittstellen innerhalb der Supply Chains. Dieser Abschnitt befasst sich daher schwerpunktmäßig mit der;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-4003-2_3 c9129615d420b463e50d07420895b1bc;de;;;1.1.;;;Der Mensch als Teil der Innovation – Eine „Service Canvas“ als anwendungsorientierter BezugsrahmenUm personennahen Dienstleistungen (PD) weiterzuentwickeln und in ihrem Umfeld soziale und technische Innovationen zu generieren, ist ein kundenwertorientierter Ansatz im Zusammenspiel mit dem Einsatz neuer Technologien von Bedeutung. Anhand einer aus der Theorie verschiedener Wissenschaften hergeleiteten Betrachtung werden hierfür relevante Einflussfaktoren identifiziert. Die ‚Service Canvas‘ stellt im Ergebnis einen anwendungsorientierten Bezugsrahmen dar, der sowohl die Potenziale der Digitalisierung berücksichtig, als auch den Menschen als Teil der Innovation einbezieht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-30168-2_2 1ed95f42147210e32fcacc9dd152fa30;de;;;1.1.;;;Prozeß-Erlebnisorientierte Psychotherapie – Ein Überblick: Teil 2Die Prozeß-erlebnisorientierte Psychotherapie ist eine neohumanistische Behandlungsform, in der versucht wird, eine kreative Verbindung zwischen einer eher klientzentrierten, echten, wertschätzenden und empathischen Beziehung und einem eher aktiven, aufgabenorientierten und prozeß-direktiven Stil der Gestalt-Psychotherapie herzustellen. Diese Therapieform ist wissenschaftlich fundiert (im Sinne von Grawe 1997). Ihre Krankheitslehre wurde durch Beiträge aus der modernen psychologischen Theorie ergänzt. Die Behandlung umfaßt eine Reihe wesentlicher therapeutischer Aufgaben, die charakterisiert sind durch spezifische Hinweise oder Zeichen auf Klientenseite, Lösungsstufen, verschiedene Schritte, die ein Klient auf dem Weg zur Lösung der Aufgaben durchläuft und therapeutische Interventionen, die den Klienten auf diesem Weg unterstützen. In diesem zweiten Teil der Übersicht werden spezifische therapeutische Aufgaben beschrieben. Schließlich werden praktische Implikationen diskutiert und Ergebnisse zum Therapieeffekt berichtet.;-;-;-;https://link.springer.com/article/10.1007/s002780050189 7d2c1caa35e27937a249ad1e85bf5942;de;;;1.1.;;;Forschungsrahmen: Theoretische GrundlagenAus den vorangegangenen Erörterungen ist abzuleiten, daß das Problem der Unterrepräsentanz von Frauen im Management in einen Zusammenhang mit der Human Resource Perspektive eines Personalmanagements zu bringen ist. Aus dieser Verknüpfung entsteht der theoretische Bezugsrahmen der vorliegenden Arbeit, der im folgenden aufgezeigt wird. Dieser Bezugsrahmen bietet die Grundlage für eine explorative empirische Untersuchung, die den Erklärungszusammenhang präzisiert. Diese Vorgehens weise ist in eine methodologische Strömung einzuordnen, die Bezugsrahmen und sogenannte ’Frameworks’ als Methode und Ziel einer betriebswirtschaftlichen Forschung betrachtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-91340-1_2 49b673ec6b767d89764995fff7fc3c97;de;;;1.1.;;;virtual work / virtual product — Skizze einer Theorie der Arbeit in modernen UmgebungenSeit wir wissen, daß uns die Arbeit nicht ausgeht, sondern sich lediglich ihre Form wandelt, fehlt es nicht an Anregungen zu einer Formanalyse „der Arbeit“ in der Informationsgesellschaft, allerdings ist bisher noch keine systematische Attitüde solcher Anstrengungen zu erkennen. Der folgende Artikel ist eine Skizze zu einer solchen Systematisierung. Er versucht - „un essay“ - die altabendländische Topik zu verlassen, die uns hindert, die neue Welt der Arbeit in der unvoreingenommenen Radikalität zu betrachten, die die Informationsgesellschaft von uns auch anderweitig fordert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-83311-2_10 4f8e6f497f88dce13683789778d73f5d;de;;;1.1.;;;Taktisch-operative Entscheidungsunterstützung durch Methoden des Revenue ManagementsBei der taktisch-operativen Entscheidungsunterstützung der Auftragsannahme bei kundenindividueller Produktion erfolgt eine auftragsanonyme Allokation der vorhandenen Ressourcen. Dies ist bei dem Vorliegen von kundenindividuell hergestellten Produkten lediglich für solche Anwendungsbereiche relevant, bei denen mehrere Distributionsmöglichkeiten der Produkte mit unter Umständen unterschiedlicher Fristigkeit bestehen. In diesem Fall ist eine antizipative Allokation der Produktionsressourcen, mit dem Ziel der Entscheidungsunterstützung des Vertriebs der Produkte, notwendig. Solche unterschiedlichen Distributionsmöglichkeiten liegen zum Beispiel in der betrachteten Eisen und Stahl erzeugenden Industrie, in der die Produkte mit Hilfe der Distributionskanäle spezialisierter Direktmarkt (mit üblichen Vertragslaufzeiten von einem Jahr) und Stahl Service Center (mit einer Vertragslaufzeit von einem Quartal) vertrieben werden, vor. Auch eine geographische Aufteilung der Absatzmärkte kann eine der eigentlichen Verkaufsentscheidung vorgelagerte auftragsanonyme Allokation notwendig machen. Eine solche taktisch-operative Allokation resultiert in Kontingente (die ATP-Menge, vgl. Abschnitt 4.2.2.1) für verschiedene Segmente, die zu einer sich anschlieβenden Steuerung der operativen Verkaufsentscheidungen verwendet werden. Die auftragsanonym arbeitenden ATP-Systeme stellen hierzu feste Allokationsregeln und Methoden der deterministischen mathematischen Optimierung zur Verfügung, die die Entscheidung auf der Basis von Erwartungswerten der Nachfrage durchführen. Die in Abschnitt 3.4 vorgesteliten Methoden der Preis-Mengen-Steuerung basieren ihre Allokationsentscheidung auf Marginalanalysen, die auf einer umfassenderen Informationsverarbeitung der Prognose basieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-9434-5_5 6ce0e8a19c4bacfc7865118cb1b010b1;de;;;1.1.;;;Konzept des organisatorischen LernensIn diesem dritten Kapitel wird im Gliederungspunkt II.3.1. der Begriff des organisatorischen Lernens herausgearbeitet. Daraufhin gilt es in II.3.2. zu beantworten, wodurch Lernprozesse ausgelöst werden. Die Fähigkeiten einer lernenden Organisation sind Gegenstand von II.3.3. Eine Systematisierung dieser Fähigkeiten mittels drei Lernniveaus findet sich im anschließenden Gliederungspunkt II.3.4. Aufbauend auf der Darstellung verschiedener Modelle zum Lernen in II.3.5. erfolgt dann die Ableitung eines eigenen Lernansatzes in II.3.6. Die Zusammenfassung der Erkenntnisse im Gliederungspunkt II.3.7. bildet den Abschluß des konzeptionellen Bezugsrahmens.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08307-8_7 a0c7a94cb64efac9f758035ed8400bf0;de;;;1.1.;;;Übersicht: Weitere Methoden der GruppenpsychotherapieforschungDie in diesem Handbuch ausführlicher dargestellten Methoden zur Erfassung von Prozeß und Ergebnis gruppentherapeutischer Behandlungen stellen eine Auswahl von Verfahren dar, die sich zum einen danach richtete, ob die Methoden sich in diesem Feld bewährt haben bzw. bewähren könnten, zum anderen danach, ob sie im deutschen Sprachraum bereits angewandt wurden bzw. ob deutschsprachigen Versionen vorliegen. Wie in der Psychotherapieforschung ganz allgemein, gibt es natürlich auch im Bereich der Gruppentherapieforschung eine Fülle weiterer Methoden, die — vor allem im angloamerikanischen Sprachraum;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-10786-6_25 9dfa7a941c7f469f0a8a07f80fd24042;de;;;1.1.;;;Ein modulares Programmsystem zur Überprüfung der Reliabilität der psychopathologischen Befunderhebung im Routinebetrieb einer psychiatrischen UniversitätsklinikIn medizinischen Routinedokumentationssystemen wird vielfach über der Freude an den Möglichkeiten, große Merkmalsmengen zu dokumentieren, die Frage der Qualität der erhobenen Daten außer acht gelassen. Die Mehrzahl der an einer psychiatrischen Klinik anfallenden Daten sind in dieser Hinsicht besonders problematisch, weil sie ausschließlich aus ärztlichen Urteilen, Meinungen und Interpretationen des Verhaltens von Patienten resultieren (Katschnig & Poustka, 1976). Die Varianzquellen psychiatrischer Beurteilungen sind nicht ohne weiteres voneinander abgrenzbar, im Gegensatz zur Messung physiologischer Größen, deren Varianz sich meist klar trennen läßt in den Fehler des Meßinstrumentes und die Schwankungsbreite der gemessenen Dimension, wobei störende Umfeldparameter konstant gehalten oder zumindest in ihrem Einfluß abgeschätzt werden können. Der Psychiater ist aber erstens mit seiner Explorationstechnik und seinem ärztlichen Urteilsvermögen im Verhalten nicht annähernd so konsistent wie z. B. ein Blutdruckapparat, zweitens ist die gemessene Größe — in diesem Fall der Ausprägungsgrad der Symptome eines Patienten — keine wohldefinierte Erscheinung wie der Blutdruck, und drittens finden gegenseitige Beeinflussungen von Arzt und Patient während der Exploration statt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-81404-4_55 20a7e5bac1c297045383add3a326a45c;de;;;1.1.;;;Störungen des SozialverhaltensStörungen des Sozialverhaltens stehen mehr als andere Erlebens- und Verhaltensprobleme von Kindern und Jugendlichen im Blickpunkt der Öffentlichkeit. Beinahe täglich wird in den Massenmedien über Gewalttaten und andere Delikte junger Menschen berichtet. Wenn in spektakulären Einzelfällen Jugendliche ihre Mitschüler und Lehrer erschießen, ältere Menschen im öffentlichen Raum fast zu Tode treten oder als sog. Intensivtäter eine Vielzahl von Delikten begehen, beschäftigt sich die Gesellschaft intensiv mit diesen Ereignissen. Oft kommt es zu unmittelbaren politischen Reaktionen. Dabei geht es nur teilweise um die Therapie und Prävention der Verhaltensprobleme, es überwiegt der Ruf nach Bestrafung und nach dem Schutz der Allgemeinheit. Die Probleme des Sozialverhaltens betreffen vielfältige gesellschaftliche Bereiche, die von der Familien-, Schul- und Sozialpolitik bis zur Kriminal- und Migrationspolitik reichen. Ein Beispiel ist der unter dem Pseudonym „Mehmet“ bundesweit bekannt gewordene Fall des Muhlis A.: Natürlich ist dieser Fall besonders gravierend und wegen seiner ausländerrechtlichen Aspekte besonders bekannt geworden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79545-2_28 31488358b80341abebf42325c8dd1663;de;;;1.1.;;;Möglichkeiten und Grenzen Einer Diagnosespezifischen Statistik der Abgeschlossenen Stationären Behandlungsfälle am Beispiel der „Stationären Morbidität“ der DDRIm Jahre 1968 ist in der DDR die 8. Revision der Internationalen Klassifikation der Krankheiten, Verletzungen und Todesursachen (ICD) eingeführt worden. Gleichzeitig wurde die Totalerfassung aller abge­schlossenen stationären Behandlungsfälle gesetzlich geregelt. Dazu wurde ein allgemeiner dokumentationsgerechter Krankenblattrandstrei­fen verbindlich, der für jeden abgeschlossenen stationären Behand­lungsfall einer Fachabteilung auszufüllen ist, der in einem Kranken­haus des staatlichen Gesundheitswesens sowie einer konfessionellen oder privaten Einrichtung behandelt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82852-2_40 48dd4224f53799a57354783b353a9bad;de;;;1.1.;;;EDV-Anwendungen in der LungenfunktionsdiagnostikEs wird ein Multiuser-EDV-System für das Lungenfunktionslabor vorgestellt, das für die klinische Routine entwickelt worden ist und sich in den letzten fünf Jahren im täglichen Betrieb bewährt hat. Benutzt wird ein Minirechner der PDP11-Serie unter dem Multiuser Multitasking Realtime Betriebssystem RSX-11M (Fa. Digital Equipment). Die Software ist zu fast 100% in FORTRAN, nur wenige Programme, wie z.B. Driver, sind in MACRO-11 Assembler realisiert. Das System unterstützt zwei Labors online mit eigenem Analog/Digital-Wandler, in denen Echtzeit-messungen durchgeführt werden. Die Analogsignale werden mit einem 12-Bit A/D-Wandler digitalisiert, wobei die Abtastrate je nach Meßprogramm 50 bis 200 Hz beträgt und bis zu 16 Kanäle gleichzeitig abgefragt werden. Weiter können bis zu 13 Labors offline zur Patienten- und Meßdateneingabe und zur Ergebnisausgabe angeschlossen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83520-9_67 334347a5cf8a7941e8894eab0135b76f;de;;;1.1.;;;Modifizierbares Programmsystem für Arbeitsplatzcomputer zur Datenerfassung bei Klinischen Studien auf der Basis von Dbase IIIDie Sammlung und Auswertung von Daten für klinische Studien erfordert immer häufiger den Einsatz von Arbeitsplatzcomputern. Auch wenn heute Programme zur Datenverarbeitung mit hohem Bedienungskomfort zur Verfügung stehen, so sind doch noch eingehende Einführungen für den Benutzer erforderlich. Die Daten klinischer Studien stellen meist besondere Anforderungen an Datenschutzmaßnahmen. Darüberhinaus werden für Datenerfassungsaufgaben gleichartige Programmtools benötig. Weiterhin erscheint es wünschenswert einmal erhobene Daten in gewissem Umfang über eine Studie hinaus verfügbar zu halten. Bei „Eigenprogrammierung“ durch die Studienteilnehmer lassen sich ein einheitliches Datenerfassungskonzept sowie die erforderlichen Datenschutzmaßnahmen nur schwer durchsetzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82852-2_37 41992349d97cf49ebdb52d7ce4f19e2b;de;;;1.1.;;;Patientenüberwachung mit Mikrorechnern — Ein neuer Weg des Monitoring?Längst ist man über das Stadium hinaus, indem Stethoskop, Blutdruckmanschette und Thermometer die einzigen Werkzeuge bei der Feststellung des Momentanzustandes eines kritisch kranken Patienten waren. Monitoring bedeutet heute den Einsatz modernster elektronischer Hilfsmittel der Monitore in der Patientenüberwachung (7, 3), wobei nun auch der Mikrorechner in den Bereich des Monitoring Einzug gehalten hat. Unter einem Mikrorechner sei im folgenden ein frei programmierbarer Kleinstcomputer verstanden, der aufgrund seiner hardware-und softwaremäßigen Ausrüstung in der Lage ist, komplexe Echtzeitfunktionen wie Patientenüberwachung wahrzunehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-81404-4_75 49983898cc88dfa88cb5f3d477fecd1e;de;;;1.1.;;;Validierung von TNM-Befunden aus der Sicht des PathologenVornehmstes Ziel der klinischen Krebsforschung ist die Verbesserung der Therapie und das Streben nach besseren Langzeitergebnissen der Behandlung. Dieses Ziel kann nur erreicht werden, wenn bei jedem Patienten klinische und pathologische Ausgangsbefunde, Therapie und weiterer Verlauf sorgfältig dokumentiert und damit die Voraussetzungen einer späteren statistischen Analyse geschaffen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82158-5_20 904f3ec0a98fc407a217c0eeb03bbbe1;de;;;1.1.;;;Der Unternehmer in der ökonomischen TheorieDer Unternehmer spielt in der ökonomischen Theorie eine wichtige, aber keine zentrale Rolle. Dies überrascht insofern, als dem Unternehmer intuitiv eine zentrale Funktion in der Wirtschaft zugewiesen wird. Das erste Kapitel wird sich daher mit der Geschichte und der Entwicklung der Unternehmerfunktion in der Ökonomie auseinandersetzen. Trotz der rund 200jährigen Tradition der wirtschaftswissenschaftlichen Diskussion muß die Funktion des Unternehmers in der Ökonomie als vernachlässigt bezeichnet werden. So schreibt Casson (1990, S. xiii): “Entrepreneurship is an important and, until fairly recently, sadly neglected subject. The literature is extremely diffuse.” Und Blanchflower/Oswald (1990, S. 22) nennen die Unternehmerrolle schlicht “the most elusive and least understood form of economic behavior”.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08456-3_1 3b429b2a1d133f3d9dbcea8bb5542296;de;;;1.1.;;;Stationäre Traumatherapie: Traumaexposition oder Traumalimitation?In dieser Arbeit werden die konzeptuellen Überlegungen bei der Planung einer stationären Behandlungseinheit für Patientinnen und Patienten mit Realtraumatisierung und deren Umsetzung beschrieben. Die unterschiedlichen Modellvorstellungen zur Traumadynamik und Ätiopathologie des posttraumatischen Streßsyndroms (PTSD) wirken sich strukturgebend auf die Realisierung sehr differenter Konzepte stationärer Traumatherapie aus. Der Einsatz von Konzentrativer Bewegungstherapie (KBT) und Gestaltungstherapie in unserem konflikt- und lösungsorientierten analytischen Konzept läßt den scheinbaren Widerspruch von Traumaexposition und Traumalimitation in den Hintergrund treten und eröffnet einen „Übergangsraum” (Winnicott) kreativer Arbeit mit den Patienten. Die Anwendung der KBT bei der Überführung der traumatischen Körpererinnerungen mittels Symbolisierungsarbeit im vorsprachlichen Bereich hin zu einem narrativen Erinnerungsskript wird an Fallbeispielen illustriert.;-;-;-;https://link.springer.com/article/10.1007/s002780050205 635505db313c7510cd29723ab3af18c2;de;;;1.1.;;;Veränderungsprozesse pädagogischer Institutionen in der PraxisIm Folgenden werden drei Fallbeispiele vorgestellt und im Rahmen der bisherigen Ausführungen erörtert. Es handelt sich hierbei um eine Betrachtung von Veränderungsprozessen in drei pädagogischen Institutionen aus den Bereichen Jugendhilfe und Schule. Die drei Institutionen wurden vom Arbeitsbereich Empirische Erziehungswissenschaft der Freien Universität Berlin evaluiert. Die Evaluation wurde in je zwei Phasen durchgeführt, um dortige Organisationsentwicklungsprozesse zu unterstützen. Einerseits sollten Ansatzpunkte für Organisationsentwicklungsprozesse gefunden und andererseits Veränderungsprozesse zwischen den beiden Untersuchungsphasen erfasst werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-91044-4_6 a22c057dc99c895140c70fb8bfa5f4f1;de;;;1.1.;;;Sozialisatorische Interaktion und soziales VerstehenDas grundlegende Bezugsproblem des Verhältnisses von Interaktionismus und Konstruktivismus läßt sich dem bisherigen Gang der Untersuchungen folgend in zwei Teilprobleme gliedern: Das erste Teilproblem stellt die Subjekt-Objekt-Differenzierung dar, die ausgehend von der Erklärungsstrategie des genetischen Strukturalismus Piagets und erweitert um die Befunde zu den sozial-interaktiven Bedingungen der Subjektbildung rekonstruiert wurde. Das zweite Teilproblem bildet die Frage der Konstitution regelgeleiteter Handlungen in den Prozessen sozialisatorischer Interaktion, die von den Subjekten interiorisiert werden. Die Schwierigkeiten dieser Frage und die Möglichkeiten konstitutionstheoretischer Fortschritte können entlang ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-91795-5_5 7e7cf7c4d1ae72f856c1f0c0d13e4fae;de;;;1.1.;;;Persönlichkeitseigenschaften in der AnästhesiologieKriterien zur Auswahl Medizinstudierender werden derzeit viel diskutiert. Neben dem Erwerb theoretischer Kenntnisse und praktischer Fertigkeiten sind für die Ausübung des ärztlichen Berufes bestimmte Persönlichkeitseigenschaften erforderlich. Diese sind jedoch bislang kaum untersucht worden. Mit einer beispielhaften Anforderungsanalyse für den Fachbereich Anästhesiologie soll der Anstoß für eine umfassendere Anforderungsanalyse für den ärztlichen Beruf gegeben werden.;-;-;-;https://link.springer.com/article/10.1007/s00101-020-00845-z 831ba66c7771c267caac45a9181fad5f;de;;;1.1.;;;Texte machenIn Kapitel 1 wurden Praktiken des Soziologie-Schreibens bei Garfinkel, Bourdieu und Luhmann als Objekte-der-Analyse in Existenz gebracht und für das Vorhaben eben dieser Arbeit relevant gemacht. Es hatte sich gezeigt, dass das erste Kapitel für die praktischen Zwecke verfertigt wurde, eine Vorwortmodulation zu fabrizieren, die das Formulieren von Vorworten als ‛eine solche textuale Praxis“ (Krey 2011: 13) zugleich zu erforschen und zu performieren sucht. Ich möchte in den folgenden zwei Kapiteln meines Berichtes den Fokus etwas verschieben und weniger einzelne Textabschnitte, die als genau-dieser-Abschnittgenau-dieses-Textes, z.B. als ‛Vorworte“, lesbar gemacht sind, in ihrem spezifischen Sosein, wie es in und mit der Analyse erscheint, in den Blick zu nehmen, vielmehr soll es darum gehen, einzelne Praktiken des Verfertigens soziologischer Texte vertieft zu untersuchen, die einen Text zu einem Text-über-das-Soziale machen, ihn als einen Bericht über Faktisches darstellen und seinen Autor als berechtigten Sprecher markieren. In und mit Textstück (20) wird eine ‛study policy“ formuliert, an der ich die Analysen der folgenden zwei Kapitel orientieren möchte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-92849-4_2 d3c7fd7d69d95ac777cfdf5cadc2ccdc;de;;;1.1.;;;Interne Repräsentationen — Über die „Welt“ generierungseigenschaften des Nervengewebes. Prolegomena zu einer NeurosemantikWas bedeutet Wahrnehmung anderes als die Repräsentation des Zustandes der Außenwelt im kognitiven Apparat eines Wahrnehmenden? Das Hirn ist der kognitive Apparat des Menschen. Wahrnehmung wäre also als außenreizinduzierte Veränderung im Erregungsgefüge dieses Organes zu zeichnen (Florey und Breidbach 1993). Fraglich ist allerdings, inwieweit das Konzept der Repräsentation eine zureichende Charakterisierung dieser außenreizinduzierten Erregungsveränderung ermöglicht (Vergl. Breidbach, dieses Buch).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08006-0_8 12815f654aac48ed9ca2d8f625c75b05;de;;;1.1.;;;„Conceptual Change“ als Basis gesundheitsbezogener Wissenskonstruktionen bei Kindern und JugendlichenAktuell nehmen Maßnahmen der Gesundheitsbildung nur selten Bezug auf die zugrunde liegenden subjektiven Vorstellungen der Lernenden. Das in diesem Kontext erworbene Wissen ist zumeist träge und findet über die Interventionen hinaus kaum Anwendung.;-;-;-;https://link.springer.com/article/10.1007/s11553-015-0487-0 50e9e47470eba9f8292ff5580986eb45;de;;;1.1.;;;Quantitative Versuche über die Prägnanz von PunktmusternThe intention of the paper is to describe “Prägnanz”-phenomena in terms of information theory. Two different concepts for the application of informational variables to perceptual processes are discriminated. For several reasons, ;-;-;-;https://link.springer.com/article/10.1007/BF00421755 d56f291aed4e7021358d999c5785b959;de;;;1.1.;;;Grundlagen zur Zustandsraumdarstellung dynamischer SystemeJede wirkungsvolle Beschreibung der Arbeitsweise physikalischer und technischer Systeme erfolgt durch eine geeignete mathematische Systemrepräsentation. Wir nennen solche mathematischen Beziehungen auch ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-93004-1_1 44b7e1022648e02ed677edb982c608c2;de;;;1.1.;;;Diagnostische KompetenzDas Kapitel 2 fokussiert die diagnostische Kompetenz einer Lehrkraft und soll dazu beitragen, die bisherige Forschung und deren Erkenntnisse besser zu verstehen. Daher gibt der Abschnitt 2.1 zunächst einen Einblick in die begriffliche Entwicklung der diagnostischen Kompetenz – von der Gleichsetzung mit der Urteilsakkuratheit über die Berücksichtigung der zugrundeliegenden Wissensbasis durch das Konzept der diagnostischen Expertise bis hin zur Erweiterung des diagnostischen Kompetenzbegriffes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-32286-1_2 4d628986f746449176ade93a491747aa;de;;;1.1.;;;Assoziatives ProgrammierenEin wesentliches Problem der logischen Informationsverarbeitung ist die sog. Kategori-sierung von Objekten, d. h. die Einteilung von Objekten in Arten, Typen, Klassen usw. in Abhängigkeit von ihren Eigenschaften und Kennzeichen. Mit Hilfe der Werte dieser Kennzeichen kann man neue Informationen über die Objekte in der Maschine speichern oder Informationen in der Maschine suchen. Als Beispiele solcher oder ähnlicher Probleme können die Berechnung und Planung der materiell-technischen Versorgung, das Kaderwesen, die bibliographische Suche, die Bearbeitung und Speicherung wissenschaftlicher Informationen, die maschinelle medizinische Diagnostik (von Krankheiten) usw. dienen. Für eine effektive Lösung muß die Arbeit der Speichergeräte der Maschinen speziell organisiert sein, und es muß möglich sein, Informationen nicht nur von Adressen, sondern auch in Abhängigkeit von Kennzeichen zu suchen. Dabei gibt es zwei Hauptwege einer solchen maschinellen Speicherung. Sie werden beide als ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-96743-5_3 8130dae4e04c6f985d7400c0b970a94d;de;;;1.1.;;;Einfluss von Vorgesetzten, Tätigkeit, Arbeitsbedingungen und variabler Besoldung auf die Motivation von Mitarbeitern im öffentlichen DienstZiel des Beitrages ist die Untersuchung der Motivation von Mitarbeitern im öffentlichen Dienst und der Beeinflussung dieser Motivation durch die vier Einflussfaktoren „Vorgesetzter“, „Tätigkeit“, „Arbeitsbedingungen“ sowie „variable Besoldung“. In einer empirischen Studie wird anhand eines reinen Pfadmodells untersucht, wie diese vier Einflussfaktoren auf die Motivation wirken. Dabei werden insbesondere die komplexen Interdependenzen der Einflussfaktoren berücksichtigt. Die Ergebnisse der empirischen Untersuchung deuten darauf hin, dass der Einflussfaktor „Tätigkeit“ für eine höhere Motivation entscheidend ist. Die Einflussfaktoren „Vorgesetzter“, „Arbeitsbedingungen“ und „variable Besoldung“ besitzen demgegenüber nur eine schwache positive Wirkung auf die Motivation. Der Einflussfaktor „Vorgesetzter“ hat zwar nur einen geringen positiven Einfluss auf die Motivation, wirkt aber entscheidend auf die Tätigkeitszufriedenheit und beeinflusst die Zufriedenheit mit der variablen Besoldung sehr stark.;-;-;-;https://link.springer.com/article/10.1007/s11573-012-0592-x 703b7d371685c6d1324c2c7781191d73;de;;;1.1.;;;Communications Technology for Mass-Based Office SystemsMass-based office systems are likely to become the most important applications of modern PC and telecommunications technology. CSS is likely to become a particularly important system of this kind — due to the intentions associated with it and the functionality provided by it. CSS has been defined by the Commission of the European Communities primarily for its own use, but it is generally available for a low distribution fee. The Commission’s main contractor for the realization of CSS is ICL/European Institutions, the latter subcontracted TELES, which performed the complete design and implementation of a highly portable CSS machine.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-70836-7_11 4de12753ca35bdc1c6a7ed3f353d3cbb;de;;;1.1.;;;Erwerb und Anwendung von Strukturwissen: Effekte auf das Lernen und den Transfer bei der SystemsteuerungWelche Bedeutung dem Wissen über die Beziehungen zwischen den Variablen eines dynamischen Systems für die erfolgreiche Bearbeitung von Steuerungsproblemen zukommt, ist empirisch noch nicht ausreichend geklärt. In Korrelationsstudien konnte zwar gezeigt werden, daß Problemlöser, die gute Steuerleistungen erzielen, über mehr Strukturwissen verfügen als wenig erfolgreiche Problemlöser (Beckmann, 1994, Funke, 1992, Müller, 1993), doch liegen auch widersprechende Befünde vor. So waren in manchen Studien Wissen und Steuerleistung nicht oder sogar negativ korreliert (Berry & Broadbent, 1984, 1987, 1988). Aus den in ihrer Forschungsgruppe beobachteten Dissoziationen zwischen dem Wissen und der Leistung folgerten Berry und Broadbent (1988), daß das Strukturwissen beim Erlemen der Systemsteuerung keine wesentliche Rolle spielt. Erst beim Transfer, also dami, wenn Problemloser mit einem bekannten System unter geänderten Bedingungen arbeiten, ist eine enge Beziehung zwischen dem Steuererfolg und dem Strukturwissen zu erwarten (Broadbent, 1992).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-85180-2_19 f11dcf99a9349721bf165e2b260e4d8d;de;;;1.1.;;;Die Theorie des Planens — Klavierspielen ohne Klavier?Die Moderationsmethode begleitet seit ihrem Anbeginn die Reform- und Innovations-Bemühungen der Bundesverwaltung. Ihre Schöpfer — das Quickborner Team und später Metaplan — haben sich dabei weniger mit den damals noch prioritär gesehenen institutionellen Fragen der Strukturreform der 60/70er Jahre befreunden können. Dafür haben sie sich um so mehr über ihre Philosophie partizipativer qualifizierter Teamarbeit und ihren methodischen Ansätzen dafür eingesetzt, dem Personalkörper im öffentlichen Sektor Einstellungen und Verhaltensweisen zur Steigerung der Leistungswirksamkeit des Wohlfahrtsstaates der 70/80er Jahre zu vermitteln, und zwar mit innovativen ziel- sowie prozeßorientierten Perspektiven. Ihr Anliegen war vor allem, durch ihre methodischen Angebote wie zum Beispiel des „interaktionellen Lernens“ Schlüsselkräfte und Multiplikatoren als Entscheider für den inzwischen mehr auf interne wie externe Interaktion und Kommunikation angelegten Staat im fortwährenden Wandel bis in die 80/90er Jahre vorzubereiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-86746-9_11 a1070bbd7981c35c6b3acc71d5c15055;de;;;1.1.;;;Das problemorientierte KrankenblattDas problemorientierte Krankenblatt ist in USA, wie ich bei verschiedenen Reisen zum Studium der Organisationsformen ärztlicher Praxen in USA feststellen konnte, ein durchaus geläufiges und geschätztes Dokumentationsverfahren. Seit den sechziger Jahren haben die Arbeiten und Gedanken von L.L. Weed in die ärztliche Alltagsarbeit in Hospital, Klinik und Praxis Eingang gefunden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82158-5_40 210b9296ad072ff35ea4e43ba83a4578;de;;;1.1.;;;Was trägt eine Befunddokumentation eines Großklinikums zu epidemiologischen Fragestellungen bei? Unsinn undifferenzierter UntersuchungenIch hatte leider keine Gelegenheit, gestern den Festvortrag von Prof. Koller zu hören und weiß somit nicht, welche Antwort er auf die Frage „Sind klinische und epidemiologische Großstudien künftig noch vertretbar?“ gegeben hat, ich gehe aber davon aus, daß er nicht zu dem Ergebnis gekommen ist, daß epidemiologische Untersuchungen überflüssig geworden sind. Die Frage nach der Vertretbarkeit deutet vielmehr darauf hin, daß solche Großstudien u. U. als ein ökonomisches Problem angesehen werden. In diesem Zusammenhang ist auch die von uns herausgegriffene Fragestellung einzuordnen: „Was trägt eine Befunddokumentation eines Großklinikums zu epidemiologischen Fragestellungen bei? -Unsinn undifferenzierter Untersuchungen“, denn es ist zweifelsfrei, daß die adäquate Vorgehensweise für epidemiologische Fragestellungen die prospektive Reihenuntersuchung ist, also ein Verfahren, bei dem die Bevölkerung (eventuell in einer Stichprobe) auf die Häufigkeit des Vorhandenseins bzw. Neuauftretens bestimmter Krankheiten untersucht wird, um somit Angaben zu Prävalenz bzw. Inzidenz machen zu können. Aus den Unterschieden in den Auftretenshäufigkeiten bei einzelnen Bevölkerungsgruppen kann dann versucht werden, auf Faktoren zu schließen, die das Entstehen von bestimmten Krankheiten fördern bzw. verhindern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-81404-4_49 666e6b19ebe3cd789d43ce49cbc07f73;de;;;1.1.;;;„Rechnergestützte Patientenüberwachung“In meinem Vortrag über rechnergestützte Intensivüberwachung möchte ich in der Kürze der zur Verfügung stehenden Zeit auf einige mir wesentlich erscheinende Bereiche eingehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-81404-4_43 46c1b3e520752904a05673bf16720b7b;de;;;1.1.;;;Konzeptionelle Überlegungen zur Markenidentität von StädtenIn den Kapiteln 1.1.1 und 2.1.1 wurde die grundsätzliche Anwendbarkeit des Markenkonzepts auf Städte gezeigt. Es ist naheliegend, dass das Thema Städte als Marken in der Disziplin Stadtmarketing behandelt wird bzw. behandelt werden sollte. Unter den Begriff Stadtmarketing wird in der Praxis eine Vielzahl völlig unterschiedlicher Konzepte und Projekte gefasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-02873-2_3 3c1e9dced7e7a5df2e355f2fe9995c97;de;;;1.1.;;;Säuglingssterblichkeit und Lebenserwartung: Ein Vergleich ausgewählter Statistiken für Länder der Europäischen Region der WHO (EURO)Die Arbeit hat zum Ziel, die Säuglingssterblichkeit der europäischen Länder in den 70er und den 80er Jahren und deren zeitliche Entwicklung über diesen Zeitraum hinweg zu untersuchen und einige Gedanken zu deren Beziehung zur Lebenserwartung bei der Geburt zu äußern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83520-9_2 6dbaf32d15b874a3a9138b6c904282a3;de;;;1.1.;;;Evidenzbasierte Suchtprävention aus systemtheoretischer PerspektiveDie Suchtprävention sieht sich wie andere Handlungsfelder einem zunehmenden Anspruch ausgesetzt, sich im Sinne der Evidenzbasierung auf das verfügbare wissenschaftliche Wissen zu beziehen und die Wirkung ihrer Maßnahmen zu belegen. In diesem Text wird die evidenzbasierte Suchtprävention aus der Perspektive der soziologischen Systemtheorie und einer davon abgeleiteten systemischen Theorie präventiver Maßnahmen beschrieben. Die Analyse zeigt, wie komplex die Entstehungsbedingungen von Sucht sind und welch schwierigen Interventionsbedingungen die Suchtprävention ausgesetzt ist. Gleichzeitig bietet sie zusätzliche Erklärungen für den immer wieder beklagten Umstand, dass nur die wenigsten suchtpräventiven Maßnahmen auf ihre Wirkung untersucht werden. Schließlich legt die Analyse sowohl der Suchtpräventionspraxis als auch der Forschung nahe, in Hinblick auf die jeweils eigenen Möglichkeiten sowohl eine gewisse Bescheidenheit als auch ein auf den erreichten Fortschritten gründendes Selbstbewusstsein zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45152-6_5 7a533e7a5d9a7baf7c60241c673a5fad;de;;;1.1.;;;Zentralisierung oder Dezentralisierung der Datenverarbeitung im Krankenhaus aus der Sicht des BenutzersDie technologische Entwicklung der elektronischen Datenverarbeitung hat zu einem Überdenken des Konzepts der zentralen Verarbeitung geführt. „Dezentralisierung“ ist das Konzept der Stunde, Zentralisierung ist überholt, benutzerfeindlich, unwirtschaftlich und wird auch nur noch von wenigen verkalkten Mainframern vertreten. Diese Behauptungen werden natürlich nicht bewiesen — zumindest mir ist diesbezüglich keine vergleichende Kosten-/Nutzenanalyse im Gesundheitswesen bekannt. Eine Beweisführung ist aber auch gar nicht nötig — man weiß eben, daß dem heute so ist. Neue Schlagwörter sind entstanden: distributed processing, intelligence-and databases — verteilte Verarbeitung, Intelligenz und Datenbanken, Netze von Mini-und Microprocessoren, intelligente Terminals, Terminalnetze.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-81404-4_58 e0f0360b3b2dacf313c9fedb59475d04;de;;;1.1.;;;Service-Learning in der praktischen Umsetzung: Projekt-Seminare an der Universität BayreuthIm Tätigkeitsbericht 2018 des Arbeitsbereichs „Marketing und Services“ an der Universität Bayreuth findet sich ein kurzer Überblick zu dem Lehrangebot „Service Learning Seminare mit nationalen Praxispartnern“. Mit dem vorliegenden Beitrag möchte der Verfasser, der diese Projekt-Seminare als Dozent im Auftrag von Prof. Dr. Herbert Woratschek (Rechts- und Wirtschaftswissenschaftliche Fakultät, Lehrstuhl für Marketing & Dienstleistungsmanagement) durchführt, eine detaillierte Beschreibung dieses Lehr- und Lernangebots für Studierende an der Universität Bayreuth vorlegen. Zielsetzung dieses Beitrags ist es, in deskriptiver Form eine bestehende Konkretisierung von „Service-Learning“ in sowohl didaktischer als auch fachlich-methodischer Sicht in die „Hochschullehre“ einzuordnen und dabei zu dokumentieren, wie Service-Learning seit dem Sommersemester 2010 an der Universität Bayreuth durch Projekt-Seminare umgesetzt wird. Beschrieben wird dabei auch, mit welchen Wissensgebieten das Fachgebiet Projektmanagement als spezielle Betriebswirtschaftslehre vermittelt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-28672-9_41 b123ce3d2be6f3ac056f3ed4b72547a3;de;;;1.1.;;;Zervixkarzinom und zytologischer Befund — Gesetzliche Früherkennung 1984Für den Bereich der KV Bayerns wurden die Daten der Screeninguntersuchungen auf Zervixkarzinom ausgewertet, Die Abhängigkeit der zytologischen und histologischen Befunde vom Alter der Probandin und von zurückliegenden Untersuchungsintervall wurde dargestellt. Es wurde geprüft, ob bestimmte einzelne oder kombinierte Anamnesemerkmale eine Eingrenzung des Risikokollektivs in histologischer Hinsicht erlauben. Die Vorhersagegenauigkeit der zytologischen Befunde im Hinblick auf das histo-pathologische Ergebnis wurde mit Hilfe der Mantel-Haenszel Odds-Ratio beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83520-9_34 3be45b5f84ca44bd985ac8381467909b;de;;;1.1.;;;Unterschiedliche Entwicklung von Inzidenz und Mortalität bei Krebskrankheiten des Mastdarms, des Hodens und der BlaseWenn die Inzidenz einer Krebskrankheit einen anderen Trend aufweist als die Mortalität, so können daraus Hinweise abgeleitet werden auf Änderungen in Diagnostik, in Therapie, auf Erfolge von präventiven Maβnahmen aber auch auf Veränderungen in der Krebsgefährdung. Voraussetzung ist, daβ die Ursachen nicht in der Messung der Inzidenz selbst liegen. Am Beispiel der Krebskrankheiten des Mastdarms, des Hodens und der Harnblase, für die solche unterschiedlichen Trends gefunden werden, wird hier der Versuch einer Erklärung unternommen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83520-9_30 b5588683df7d594010abb78dd3be6e16;de;;;1.1.;;;Zeitlicher Verlauf Der Herzinfarktsterblichkeit Während der Akutphase (28 Tage) - Ergebnisse des MONICA-Augsburg-Myokardinfarkt-Registers 1985 -Das Augsburger Herzinfarktregister hat die Aufgabe, über einen Zeitraum von 10 Jahren alle Herzinfarkterkrankungs- und -sterbefälle bei den 25–74jährigen Einwohnern der Stadt Augsburg und der angrenzenden Landkreise Augsburg und Aichach-Friedberg zu erfassen. Die Studienbevölkerung umfaßt rd. 156.000 Männer und 171.000 Frauen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83520-9_22 d4ec9f627862e0b26e68f580f418eea0;de;;;1.1.;;;Merkmale eines Modells zur Erklärung politischer Partizipation von Menschen mit MigrationshintergrundBeeinflussen migrantenspezifische Merkmale die politische Beteiligung von Personen mit Migrationshintergrund? Um diese empirische Frage zu beantworten, muss ein Erklärungsmodell entwickelt werden, das Folgendes leistet: Es muss allgemeine Faktoren berücksichtigen, die für die Erklärung politischer Aktivität zentral sind. Es muss migrantenspezifische Faktoren enthalten, die klar von den allgemeinen Faktoren zu unterscheiden sind. Und es muss in der Lage sein, mikroanalytische Mechanismen zu benennen, die das Zusammenspiel migrantenspezifischer und allgemeiner Faktoren theoretisch fundiert und empirisch adäquat abbilden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-30415-7_4 3615cede1de26580c68aabc2cab93acc;de;;;1.1.;;;LerntätigkeitDie uns interessierenden allgemeinen Charakterisierungen des Lernbegriffs setzen Lernen mit der Entwicklung von autopoietischen Systemen in Beziehung, so z. B. KLIX (1976), der mit ‘Lernen’ jede umgebungsbezogene Verhaltensänderung bezeichnet, die als Folge einer systemeigenen Informationsverarbeitung eintritt, oder JANTSCH, der ‘Lernen’ mit “Koevolution erfahrungsbildender Systeme” identifiziert. Ein allgemeiner Begriff des Lernens wäre damit im systemtheoretischen Rahmen unter Heranziehung des Begriffs der pragmatischen Information und des Entwicklungsbegriffs zu explizieren bzw. definieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-14523-3_11 cdd1f9a10ea84b51f946f8212ad872c2;de;;;1.1.;;;Konzeptualisierung der MarkenbeziehungsqualitätWie in Abschnitt 2.2.3 dargestellt, existiert Uneinigkeit über die inhaltliche Spezifikation des Konstrukts der Markenbeziehungsqualität. Infolgedessen besteht ein wesentliches Forschungsziel der vorliegenden Arbeit darin, einen Konzeptualisierungsansatz zum Konstrukt der Markenbeziehungsqualität zu erarbeiten, der die Defizite bisheriger Ansätze zu überwinden vermag.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-8488-3_3 bd85ac799ef9652adb6e6cd2b621db5e;de;;;1.1.;;;Wissen und Denken: Eine problematische BeziehungEin wesentliches Ziel der kognitiven Psychologie besteht darin zu erklären, wie Menschen erkennen und handeln, welche Determinanten der Steuerung und Regulation des Verhaltens und Erlebens zugrunde liegen. Mit “Kognition” wird die grundlegende Eigenschaft von Lebewesen bezeichnet, nicht nur in einem energetischen, sondern auch in einem informationellen Aus tausch mit der Umwelt zu stehen. Die gemeinsame Leistung der als “kognitiv” bezeichneten Prozesse und Strukturen besteht in der “Herausbildung, Speicherung und Verwendung einer inneren Repräsentation, oder — wenn der Ausdruck nicht im Sinne einer naiv-realistischen ‘Bildertheorie’ mißverstanden wird — eines inneren Abbildes der uns umgebenden Welt” (Scheerer, 1978, S. 2f), eines semantischen Modells erster Ordnung also (Stachowiak, 1973). “Informationsverarbeitung” bezeichnet in abkürzender Weise die Genese, Struktur, Dynamik und Nutzung innerer Repräsentationen des “Kognitiven Systems Mensch”. Die alltagssprachlich nicht allzu unklar erscheinenden Worte “Denken”, “Wissen”, “Wahrnehmung”, “Gedächtnis” usw. legen nahe, daß das “Kognitive System Mensch” völlig unproblematisch in distinkte mentale Einheiten zerlegt werden kann. Allerdings ist es bis heute nicht gelungen, eine Art Periodensystem psychischer Elemente aufzustellen, im Gegenteil wird sogar die Erstellung eines solchen Systems als nicht mehr realisierbar oder erstrebenswert angesehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08225-5_1 47a12dc9ba8db8be6330bff7fcf0d05a;de;;;1.1.;;;Die Lehre von den Unternehmerfunktionen als Leitbild der betriebswirtschaftstheoretischen Analyse des Management zentraler DienstleistungsbereicheAus wissenschaftlicher Sicht ist die theoretische Untermauerung der Überlegungen zu zentralen Dienstleistungsbereichen im besonderen, aber auch zur „Neuen Dezentralisation“ im allgemeinen, bislang weitgehend unzureichend und unbefriedigend.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-09155-4_3 1a6dc71332122b4146cba550d2b7bb71;de;;;1.1.;;;Denk- und Gefühlswelt des Schulkindes — kognitive Fähigkeiten, Selbstkonzept und AngstMit der Einschulung wird der Lebensraum eines Kindes, der bis zu diesem Zeitpunkt durch die familiäre Umwelt geprägt war, um einen weiteren wichtigen Lebensbereich erweitert. Denn die Schule beeinflußt nicht nur die Leistungsentwicklung des Kindes, sondern auch dessen soziale Entwicklung und die Persönlichkeitsentwicklung in entscheidendem Ausmaß (Oerter, 1995, Pekrun, 1994, Pekrun und Helmke, 1993). Die hohe Bedeutung der Schule für Kind und Eltern ist einerseits dadurch bedingt, daß schulischer Erfolg versus Mißerfolg entscheidend ist für weitere Ausbildungen und damit für die Berufslaufbahn, andererseits ist die Relevanz der Schule auch durch den hohen Zeitanteil erklärbar, den sie im Alltagsleben einnimmt und durch die soziale Integration in eine Gruppe Gleichaltriger (Peers). Somit lassen sich Entwicklungsverläufe im Schulkindalter nicht unabhängig vom Schulbesuch darstellen und verstehen (Oerter, 1995).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-6168-5_3 ddb6ba8fe3325db2f2b0d40d137c8a5d;de;;;1.1.;;;Wie kommt man Wahlentscheidungen auf die Spur?In der Wahlforschung geht man inzwischen davon aus, dass Wähler über ein sehr umfangreiches Repertoire an unterschiedlich aufwendigen Verarbeitungsstrategien verfügen, um politische Entscheidungen zu treffen (Lau 2003, Lau & Redlawsk 2006, Ottati 2001). Unser Gehirn gleicht also mehr einem geistigen „Werkzeugkasten“ (Gigerenzer 2001, Gigerenzer & Todd 1999), das für jedes Problem ein passendes Werkzeug parat hat, als einem universellen Rechencomputer. Wie kann man aber herausfinden, welche Strategie jemand anwendet, wenn er Wahlentscheidungen trifft?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-93200-2_4 2f1bb491f29545be36cb531823b78b38;de;;;1.1.;;;Universitätsstudium und berufliches Handeln. Eine historisch-soziologische Skizze zur Entstehung des „Theorie-Praxis-Problems“Das Verhältnis zwischen Theorie und Praxis gilt als problembehaftet. Dabei ist unterstellt, dass die akademische Lehre ein theoretisches Wissen vermitteln soll, welches sich, mittelbar oder unmittelbar, in berufliche Praxis übertragen lässt. Die Frage nach dem Zustandekommen sowie der Institutionalisierung einer solchen Anwendungserwartung steht im Mittelpunkt unseres Beitrags, welcher versucht, die faktischen Diskrepanzen zu erklären, denen sich die Anwendungsorientierung immer wieder gegenübersieht. Das Aufkommen dieser Orientierung soll mit Blick auf die Entstehung und den historischen Wandel der Universität sowie der sich damit verändernden Außenbeziehungen untersucht werden. Im Beitrag wird dieser Wandel von der Entstehung bis zur Etablierung der modernen Forschungsuniversität aus historisch-soziologischer Perspektive skizziert. Im Mittelpunkt des Interesses stehen die sozialen Grundlagen der Formierung universitärer Studienprogramme und die sukzessiven Kopplungen zwischen Universitäten und denjenigen Bereichen der Gesellschaft, die das Absolvieren von Studienprogrammen schließlich mit der heute gültigen Zuschreibung beruflicher Handlungsfähigkeiten und beruflicher Zuständigkeiten verknüpfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-23244-3_10 1e4ccd2b73823580e022950266b8db7e;de;;;1.1.;;;Grundlagen der Erhebung von PräferenzurteilenNormative Nutzenmodelle bilden die Grundlage für empirische Anwendungen des Nutzenkonzeptes. Insbesondere ist die Entstehung und Verbreitung der in dieser Arbeit vertieften Methode der Conjoint-Analyse nur im Kontext zu der ihr vorangegangenen Theorieentwicklung sowie zu deren Operationalisierungen zu verstehen. Daher wird im Nachfolgenden zur Darstellung der Grundlagen ein kurzer historischer Abriss der in verschiedenen Forschungsrichtungen vertretenden Nutzenkonzepte vorgenommen (Abb. 2.1). Hiermit wird dem interdisziplinären Charakter der Nutzenforschung Rechnung getragen, bei dem Konzepte in unterschiedlichen Disziplinen teils parallel, teils aufeinander aufbauend zur Theorieentwicklung sowie zur Gestaltung praktischer Anwendungen beigetragen haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-81981-9_2 0452547bf3a1c08fcb20112b60a4eabb;de;;;1.1.;;;Biologie ist eine breite und komplexe NaturwissenschaftDie Biologie ist eine Naturwissenschaft und beschäftigt sich folglich mit einem Phänomen, das es auch ohne das Wirken des Menschen gäbe. Sie versucht, durch Beobachtungen, Messungen und Experimente möglichst grundlegende Gesetzmäßigkeiten zu finden und ihre Ergebnisse mit möglichst allgemeingültigen Theorien zu erklären.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-61270-5_1 0be8772b7513e0a6db2c325e1cc7c690;de;;;1.1.;;;Aufmerksamkeitsdefizit-Hyperaktivitäts-Syndrom im GrundschulalterIm vorliegenden Beitrag wird die Frage nach den kognitiven und neuropsychologischen Prozessen, die der mit einem Aufmerksamkeitsdefizit-Hyperaktivitäts-Syndrom (ADHS) einhergehenden Verhaltensproblematik zugrunde liegen, behandelt. Entsprechende Befunde können wichtige Informationen für den diagnostischen Prozess liefern. Um die kognitiven und exekutiven Defizite der ADHS zu erfassen, werden v. a. im englischen Sprachraum Tests angewendet, die auf der PASS-Theorie (PASS: „planning, attention, simultaneous, successive“) basieren. Indem sie dynamische kognitive Prozesse erfasst, zeigt sich die Theorie sensibel bezüglich der spezifischen kognitiven Probleme und exekutiven Defizite von Kindern, die unter einer ADHS leiden. Die auf der PASS-Theorie basierende K-CAB (Kaufman-Computerized Assessment Battery) wird hinsichtlich ihres Informationsgewinns für die Diagnostik von ADHS diskutiert. Dabei konnte schlussfolgernd festgestellt werden, dass sich eine neuropsychologische Testbatterie wie die K-CAB eignet, globale Auffälligkeiten wie verlangsamte Reaktionszeiten oder große Reaktionszeitschwankungen zu erfassen. Aufgrund dieser Parameter dürfen aber keine Rückschlüsse auf spezifische kognitive Fähigkeiten oder Verhaltensweisen gezogen werden.;-;-;-;https://link.springer.com/article/10.1007/s00112-011-2499-y 501074949bde8e3b52e73f8fe47dc56e;de;;;1.1.;;;„Theorie und Praxis“ in der Lehrerinnen- und LehrerausbildungIm Rahmen der Überlegungen zur Optimierung der Ausbildungsprozesse stehen Professionalisierungsprozesse angehender Lehrerinnen und Lehrer zur Diskussion. Dies setzt voraus, dass es sich beim Lehrberuf um eine Profession handelt. Profession, in Abgrenzung zu den Begrifflichkeiten von „Arbeit“ und „Beruf“, wird nach Radtke (2000) durch drei Merkmale bestimmt, die alle erfüllt sein müssen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-29071-9_4 8c17c9437541d4c9f50a1ba3ff997636;de;;;1.1.;;;Kritische Darstellung von N. Luhmanns Theorie ’Sozialer Systeme‘ bei Konzentration auf die Theorie der symbolisch generalisierten KommunikationsmedienIn der Überschrift dieses Kapitels verweist der Begriff der „Konzentration“ auf die doppelte Notwendigkeit der kontingen-ten Selektion bei der Rezeption und der Verarbeitung von Luhmanns Theorie ’Sozialer Systeme‘. Der jeglicher menschlicher Kommunikation per se gegebene Zusammenhang der doppelten Kontingenz;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-91667-9_5 3fde16a18e41981d1cf5924de56bc378;de;;;1.1.;;;Effiziente Märkte und Random Walk-Modell des WechselkursesDas methodische Fundament insbesondere der gegenwärtig diskutierten monetären Varianten der Wechselkurserklärung ist die Asset-Pricing-Theorie, die von Frenkel und Mussa entwickelt wurde ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08774-8_2 aea43478dc7d6c03d1f8d4b1e3498c58;de;;;1.1.;;;Unternehmensspaltung — Motive und AktienmarktreaktionenA new German Company Reorganization Act (Umwandlungsgesetz 1995) favours restructuring by spin-offs and sell-offs. Referring to the theory of incomplete contracts the paper deals with the conditions under which these kinds of restructuring make economic sense. It is argued that costs of organizational failures and of market control are responsible for abnormal market return effects. Empirical evidence is delivered by an international sample of spin-offs and sell-offs as well as the prominent spin-off case of ;-;-;-;https://link.springer.com/article/10.1007/BF03371534 bf526ce47863dddfb08249330226ff55;de;;;1.1.;;;Die Bereitstellung der Entscheidungsrelevanten Ausgangsgrößen durch Beschaffung und Analyse Externer und Interner InformationenDem entscheidungsorientierten Ansatz folgend, wollen wir zunächst die Beschaffung und Analyse der marketingrelevanten Informationen untersuchen. Die ausreichende Versorgung der Entscheidungsträger bildet eine unabdingbare Voraussetzung für eine fundierte Entscheidungsfmdung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-89338-3_2 c16e11f01c386f8e7115ca258e675545;de;;;1.1.;;;Ansatzpunkte für produktionstheoretisch fundierte GestaltungsmöglichkeitenWährend mit den vorangegangenen Ausführungen das Ziel verfolgt wurde, eine allgemeine Modellierung von Dienstleistungen mit integrativem Anspruch zu skizzieren, ist es Aufgabe der weiteren Ausführungen, Anwendungsmöglichkeiten zur Gestaltung von Dienstleistungen in systematischer Weise aufzuzeigen. Hierzu bietet es sich an, auf die Strukturierung der Dienstleistungsproduktion in Vor- und Endkombination zurückzugreifen, wobei im Rahmen der Endkombination zwischen den Teilprozessen Dienstleistungsvereinbarung und Dienstleistungserstellung unterschieden wird. Als weitere Strukturierungskriterien können die Dimensionen der Leistungen (Potential, Prozeß, Ergebnis) und die Beteiligung der Nachfrager- und Anbieterseite an den einzelnen Teilprozessen (autonome und interaktive Aktionen) herangezogen werden. Aus der Kombination dieser Aspekte ergeben sich dann die in Abbildung 24 dargestellten Strukturen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-09792-1_4 c9f01ae9256f42e3f2ead512f1730dd3;de;;;1.1.;;;Durch „Anker“ verzerrte Urteile und ErinnerungenIn einer Demonstration des Ankereffekts gaben Tversky mid Kahneman (1974) ihren Versuchspersonen durch ein Glücksrad generierte Zufallszahlen vor. Die Person sollte dann entscheiden, ob der Prozentsatz der afrikanischen Nationen in der UN größer oder kleiner als diese Zahl sei. Dann sollte die Person eine exakte Schätzung abgeben. Die angeblichen Zufallszahlen waren hier jedoch stets 10 oder 65. Bei einer Vorgabe von 10 schätzten Personen im Mittel 25%, bei einer Vorgabe von 65 dagegen 45%. Neben seiner erstaimlichen Robustheit — der Effekt wurde in vielen Zusammenhängen geftmden (s. Pohl, 1995b) — besitzt der Ankereffekt drei besondere Eigenschaften: (a) Auch irrelevante Informationen (wie im obigen Beispiel zufällige Zahlen) können wirksam sein, (b) Personen verneinen in der Regel jeglichen Einfluß dieser Zahlen auf üir Urteil, und (c) der Effekt ist intentional — auch nach Aufklärung und entsprechenden Instruktionen — kaum zu beeinflussen (s. Pohl & Hell, 1996).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-85180-2_8 12e86f0d702040c6eac68cca95e12b9f;de;;;1.1.;;;Traditionelle Grundformen der Integration von Individuum und OrganisationIm Weiteren werden wir herkömmliche, grundsätzliche Formen der Beziehung bzw. „Integration“ von Individuum und Organisation betrachten. Diese Rekonstruktion soll helfen, verstehen zu lernen, wie in bisherigen organisationswissenschaftlichen Ansätzen und Orientierungen das Verhältnis beider zueinander gedacht und konzipiert wurde, aber auch welche Probleme damit einhergingen. Das Organisations-phänomen ist allerdings außerordentlich vielgestaltig. Es lässt sich aus höchst unterschiedlichen Perspektiven betrachten und hat so die Entstehung ganz verschieden-artiger Sichtweisen von Organisattion ermöglicht (vgl. auch Morgan 1997, S. 16). Vor diesem Hintergrund überrascht es nicht, dass sich damit zusammenhängend in der langen Auseinandersetzung über dieses Phänomen ganz verschiedene Verständnisse über das Verhältnis von Individuum und Organisation entwickelt haben. Historisch betrachtet gab es viele Versuche zu einer Integration von Individuum und Organisation zu kommen. Deshalb können wir hier nur einige ausgewählte, aber besonders einflussreiche Verknüpfungsformen darstellen und diskutieren. Wir wollen dazu nachfolgend vier traditionelle Grundformen voneinander abgrenzen und anhand einzelner, bestimmter organisationstheoretischer Positionen exemplarisch beleuchten. Dazu werden wir auch die mit den Prinzipien korrespondierenden theoretischen Ansätze detailliert darstellen und würdigen. Eine besondere Rolle spielt dabei ihr jeweiliger zeitgeschichtlicher Hintergrund, den wir ebenso näher beleuchten wollen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-91110-6_3 2960d7ee25c94aefb9c1d6892a917721;de;;;1.1.;;;Verkaufspsychologische Frameworks und Methoden zur unterbewussten AnspracheIn diesem Kapitel stelle ich Ihnen unbewusste Verhaltensmuster vor, die Kaufentscheidungen häufig elementar mitprägen. Im Folgenden finden Sie meine persönliche Auswahl an Methoden, die in vielen Fällen Erfolge mit sich bringen. Mein Ziel ist weniger, die wissenschaftliche Forschung zu den Prinzipien zu erläutern, sondern Sie mit praxisnahen Anwendungsbeispielen zum Mitmachen zu animieren. Haben Sie nach der Lektüre des Kapitels Lust auf mehr davon, kann ich Ihnen das Buch „PsyConversion“ von Philipp Spreer (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-29313-0_5 2ed37da58bd7d9e0d2649e5a1423c4b7;de;;;1.1.;;;Vergleich Mehrerer Neuerer Ansätze zur Behandlung von Residualeffekten in Crossover-StudienBeim Vergleich von zwei Therapien A und B zur Behandlung chronischer Krankheiten wird als Versuchsplan häufig ein 2x2-Crossover-Design (CO-Design) verwendet. Die Vor- und Nachteile dieses Designs gegenüber dem Parallelgruppendesign werden z. B. von Brown (1980) ausführlich erörtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83520-9_56 a1afbf00d4fc898eb81ee4c9f25a73cc;de;;;1.1.;;;Zur Komplexität von Entscheidungssituationen„Die meisten Entscheidungstheorien lassen sich leiten durch die Frage nach der Richtigkeit der Entscheidung. Ein Urteil über die Richtigkeit der Entscheidung kann auf sehr verschiedene Weise gebildet werden, immer erfordert es als Urteilskomponenten aber Urteile über Kausalitäten und Urteile über Werte. Sowohl Ursachen und Wirkungen als auch Werte sind in realen Entscheidungssituationen in großer Zahl und Verschiedenartigkeit gegeben. Kausalstrukturen und Wertstrukturen sind zudem in sich interdependent, so daß die Relevanz jedes Einzelitems davon abhängt, ob andere gegeben sind bzw. angenommen werden. Dazu kommt die Interdependenz zwischen Kausalitäten und Werten. Entscheidungssituationen erweisen sich daher, wenn man sie auf die Bedingungen der Möglichkeit richtiger Entscheidungen hin analysiert, immer als überaus komplex. Diese Komplexität überfordert das Orientierungs- und Selektionsvermögen des einzelnen. Daher kann ihm Rationalität nicht ohne weiteres zugemutet werden, wenn man unter Rationalität richtiges Entscheiden versteht. Richtiges Verhalten ist für den einzelnen nur möglich, wenn ihm die Entscheidung im wesentlichen abgenommen wird.“;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-23210-8_7 ea5a98ba9000ced07f005d06733af9bc;de;;;1.1.;;;Führt das Mapping ereigniskorrelierter Potentiale bei endogenen Psychosen zum besseren Verständnis kognitiver Störungen?Auf der Basis klinischer und psychophysiologischer Untersuchungen kristallisierte sich in jüngerer Zeit das Konzept der Störung der Informationsverarbeitung in Form gestörter Filterfunktionen als Erklärungsmodell insbesondere für schizophrene Erkrankungen heraus (Nuechterlein u. Dawson 1984). Kognitive Störungen, d.h. vor allem bestimmte qualitative Veränderungen der Wahrnehmung und des Denkens, befinden sich seither im Zentrum des Interesses, da sie in diesem theoretischen Rahmen als direkte Folgen des Krankheitsprozesses angesehen werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-77086-9_39 e52bcaf58f357bfdcc0e2d60a53d1468;de;;;1.1.;;;Methoden und Instrumente des Risikomanagements bei PPP-Projekten Im Folgenden soll in einem ersten Schritt aufgezeigt werden, welche Aufgaben das Risikomanagement erfüllt und wie der Risikomanagementprozess aussieht. Daran anschließend wird erörtert, in welchen Phasen des Beschaffungsprozesses das Risikomanagement zu erfolgen hat. Die Darstellung orientiert sich dabei an den Ausführungen der vorliegenden PPP-Leitfäden des Bundesministeriums für Verkehrs-, Bau- und Wohnungswesen und der Finanzministerkonferenz der Länder.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01073-6_4 e96da764836cd9607a790a796e206324;de;;;1.1.;;;Das konzeptionelle Gefüge der BildpädagogikDieses Kapitel geht über das hinaus, was Neurath mit seiner Bildpädagogik selbst angedacht hat. Zwar hat er ihre Theoretisierung in vielerlei Hinsicht nahegelegt, sie aber nie selbst geleistet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16316-1_4 8cb198a834553dcbdd3a7a3b27f9370f;de;;;1.1.;;;Einteilung der ÜberwachungsparameterEs steht eine Vielzahl von unterschiedlichen Gerätesystemen und Meßparametern für die apparative Patientenüberwachung zur Verfügung. Aus diesem Angebot ist es weitgehend möglich, eine optimierte und an die Verhältnisse angepaßte Meßparameterkombination festzulegen. Nicht jedes Monitoring erfordert einen hohen apparativen und somit kostenintensiven Aufwand.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-08644-5_27 511414ff92ebb9baa379a79e2e84b6e6;de;;;1.1.;;;Theorien und Modelle der Paarbeziehung—Warum gehen die meisten Menschen Ehen oder aridere Formen einer engen Paarbeziehung ein? —Warum wählen sie dabei bestimmte Partner und nicht andere? —Warum sind viele Paare mit ihrer Beziehung relativ zufrieden und halten oft lebenslang an ihr fest? —Warum trennen sich andere Paare nach mehr oder weniger langer Zeit wieder? —Warum lassen sich die meisten Menschen nach dem Scheitern einer Beziehung auf eine neue ein? —Warum gehört eine befriedigende Ehe nach wie vor zu den zentralen Lebenszielen der meisten Menschen? Derartige Fragen werden in Theorien und Modellen der Paar-beziehung beantwortet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55590-9_3 e23c73981818756f56b2fa82d833176b;de;;;1.1.;;;Konzeption des Einflussfaktorensystems der Wirkung und Ursachen der Aussagefähigkeit und -willigkeitDie Informationsverarbeitungstheorie war mehrfach Ausgangspunkt der Verfahrensentwicklung im Rahmen der CA-Forschung. Im Vordergrund stand dabei, wie Individuen die Entscheidungen in realen komplexen Kaufsituationen treffen, jedoch nicht, wie diese in Befragungssituationen getroffen werden. Die empirischen Ergebnisse zur Aussagefähigkeit und -willigkeit bzw. deren Ursachen sowie die theoretische Untersuchung der Aussagefähigkeit und -willigkeit haben dabei jedoch gezeigt, dass die Art und Weise der Informationsverarbeitung in einer realen und in einer hypothetischen Situation, wie dies eine Befragung meist darstellt, nicht immer deckungsgleich sind. Dies liegt u. a. an der Tatsache, dass Befragungen im Gegensatz zur realen Kaufsituation i. d. R. „low cost“-Situationen darstellen, in denen sich die Auskunftspersonen nur geringen Kosten gegenübersehen, wenn sie aufgrund von zu geringem kognitivem Einsatz im Rahmen der Entscheidungsfindung, falsche Angaben machen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-7077-0_4 9d5fc0d764faccb14bc646dd7768de27;de;;;1.1.;;;„Integrierter EDV-Einsatz in der Chirurgie“Ausgehend von einem multifunktionellen Krankenblattformular, das gleichzeitig als Krankenblatt, Epikrise, Arztbrief und Dokumentationsbogen dient, ermöglicht das Programmpaket MEDDOK eine patientenbegleitende Dokumentation von Diagnose, Komplikation und Therapie. Beim Dikatat des Arztbriefes werden gleichzeitig zumindestens die Hauptdiagnose, bis zu 5 weitere Diagnosen oder Komplikationen und bis zu 6 Therapien festgelegt. über Entlassungslisten erfolgt die Vollständigkeitskontrolle über die medizinische Dokumentation ebenso wie über die Anlage des Krankenblattes und den Ausgang des Arztbriefes. Als Schlüsselsysteme für die Diagnosen und Komplikationen dient ein 5-stelliger Schlüssel, basierend auf der 5. Revision der ICD, der im Gegensatz zur 3-stelligen der 9. Revision eine ausreichende Differenzierung der Diagnosen und Komplikationen zuläßt. Die Verschlüsselung der Therapie erfolgt an Hand eines 6-stelligen Fascettenschlüssels, der eine ausreichende Differenzierung zuläßt und Ausgangspunkt für jede Leistungsstatistik einschließlich operateurbezogener Op.-Kataloge darstellt. Das Dokumentationsmodul enthält eine Vielzahl von Standard-auswertungen, wobei die Auflistung hinsichtlich der Auflage der Bundespflegesatzverordnung sowie die Umsetzung in den gesetzlich geforderten dreistelligen Schlüssel vom System automatisch erfolgt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82852-2_146 5abd53ca2fcc522762bf01b99b813b63;de;;;1.1.;;;Entwicklungspsychologische Aspekte von DelinquenzAggressives Verhalten bei Kindern und Jugendlichen ist meist ein vorübergehendes Phänomen. Hauptsächlich tritt es unproblematisch als entwicklungsphysiologisches Verhalten auf. Bei einem kleinen Teil von Kindern zeigt sich früh eine pathologische Entwicklung mit einem hohen Risiko für Delinquenz und sozialer Desintegration. Bindungsaspekte, Temperamentsfaktoren, bestimmte psychiatrische Störungen, aber auch soziale Faktoren sowie insbesondere der elterliche Erziehungsstil haben Einfluss auf die Ausbildung von Aggressivität und Delinquenz. Bestimmte Formen aggressiven Verhaltens, wie proaktive Aggression, prädisponieren eher zu längerfristigen Problemen. Psychopathie, Empathiedefizite und gleichgültig-unemotionale Persönlichkeitszüge sind Befunde, die gehäuft bei delinquenten Jugendlichen zu finden sind, wenngleich die Datenlage zur tatsächlichen Bedeutung der einzelnen Faktoren noch nicht konsistent ist.;-;-;-;https://link.springer.com/article/10.1007/s11757-012-0169-0 103027f9ef34ca1adef15320bc624293;de;;;1.1.;;;Stand der Forschung in Bezug auf die Aussagefähigkeit und -willigkeit von AuskunftspersonenConjoint-Verfahren stellen die am häufigsten eingesetzten multivariaten Analysemethoden in der Marktforschung dar. Ursächlich hierfür ist die Tatsache, dass sich mit diesen Verfahren multiattributive Präferenz- und Nutzenstrukturen von Nachfragern auf Individualniveau abbilden lassen. Bei CA-Befragungen müssen Auskunftspersonen hierzu implizite Abwägungsprozesse zwischen unterschiedlichen Merkmalsausprägungen und Alternativen durchführen, die hohe (kognitive) Ansprüche an die Auskunftspersonen stellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-7077-0_2 24fdb82c874060434e555867c7112ec6;de;;;1.1.;;;Messung einer emotionalen DienstleistungsqualitätAufbauend auf dem in Abschnitt C 3 entwickelten Operationalisierungsansatz stellt sich die Problematik der Überführung der theoretisch determinierten Überlegungen in ein praktisch verwendbares Meßmodell für die Dienstleistungsqualität. Im folgenden Abschnitt der Arbeit geht es dementsprechend darum, einen Meßansatz zu finden, der eine valide Erhebung der kognitiven und emotionalen Qualitätsdimension ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08453-2_4 8865539fe738a2771aa81f74511508ce;de;;;1.1.;;;Perspektiven der sozialpsychologischen Behandlung der VorurteilsproblematikVor einem direkten Eingehen auf die entsprechenden Teildisziplinen der Sozialpsychologie empfiehlt sich der Versuch, den Stellenwert der psychologischen Vorurteilsforschung in systematischer Absicht zu bestimmen. Dazu stellt sich erneut die bisher nur für die Konzeption der AP explizit entfaltete Frage: Wodurch ist die Psychologisierung der Vorurteilsproblematik charakterisiert und warum muß sie als illegitime „Verdrängung der soziologischen Problembasis“ (Wolf) gelten? Sucht man diese Frage zu beantworten, erweitert sie sich rasch zu der allgemeineren (und neutraleren): Was sind die spezifischen, von einer thematisch wie immer ausgerichteten Soziologie nicht zu erbringenden Leistungen für die Erklärung von Vorurteilen bzw. von Vorurteilshaftigkeit und wo liegen die strukturellen Grenzen dieser Erklärungsleistungen? Beide Fragen setzen natürlich die Auffassung einer relativen Eigenständigkeit beider Fächer voraus, setzen, negativ formuliert, also voraus, daß man sich weder mit der allgemeinen und die Probleme des wechselseitigen Verhältnisses eher verdeckenden Feststellung zufrieden gibt, Psychologie und Soziologie seien als Verhaltenswissenschaften voneinander nicht zu trennen bzw. gingen bruchlos ineinander über, noch den von Homans und anderen unternommenen Versuch einer Reduktion der Soziologie auf die Psychologie für möglich und sinnvoll hält.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-83800-1_6 00a4682b2ce40b70493d42493861ad73;de;;;1.1.;;;Grundlagen und GrundbegriffeIm Gegensatz zum betrieblichen Finanz- und Rechnungswesen, welches auf eine Tradition von über 400 Jahren zurückblicken kann und trotz shcon recht ausgereiften Methoden such heute noch kontinuierlich weiterentwickelt wird, ist die Diskussion um Umweltdaten eine noch reativ junge Disziplin. Mit dem konzept der ökologischen Buchhaltung,welches sich an die finanzielle Buchhaltung anlehnt, wurde von Müller-Wenk;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-09059-5_2 48ce1e407d9569ce44df351ebceae448;de;;;1.1.;;;Dokumentaustausch in einer Multi Vendor-UmgebungDokumente sind die wesentlichen Informationsträger in einer Büroumgebung. Die Information eines Dokuments besteht zum einen aus der sprachlichen Information, dem Gehalt eines Dokuments, zum anderen aus der schriftlichen Form eines Dokuments, der Gestalt. Die Gestalt eines Dokuments wird wesentlich durch die Schrift bestimmt, die sich anhand bestimmter Merkmale charakterisieren läßt. Dokumente werden zwischen verschiedenen Personen, auf dem elektronischen Weg über Rechnernetze, und zwischen verschiedenen Bürodiensten, wie z. B. Ablage und elektronische Post, übertragen. Für den Dokumentaustausch ergeben sich damit neue Anforderungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-75177-6_26 6f9d72c31f7d123ad9ef1dfb56251e0f;de;;;1.1.;;;Ökonomische Institutionenanalyse — Konzeptionelle Grundlagen, Varianten, Methodik, Beiträge zur Erklärung und Gestaltung der OrganisationDie theoretische Auseinandersetzung mit dem Erkenntnisinstrument ökonomische Institutionenanalyse beginnt man meines Erachtens am besten mit einer Diskussion der konzeptionellen Grundlagen der ökonomischen Theorie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08399-3_2 23480665c9729034e8c1acf0320664dc;de;;;1.1.;;;Zur Bedeutung von Zielvorstellungen bei betriebswirtschaftlichen EntscheidungsproblememIn die Definition des betriebswirtschaftlichen Entscheidungsbegriffs war als ein konstituierendes Merkmal das Vorhandensein von Zielvorstellungen beim Entscheidungsträger aufgenommen worden, ohne daß diese näher spezifiziert worden waren;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-84007-3_3 de323ef1ef4e89a91034754c119a8372;de;;;1.1.;;;Theoretische Grundlagen I: EmotionsforschungIm Rahmen dieser Untersuchung erfolgte die Beschäftigung mit dem Themenkomplex „Emotionen“ vor dem Hintergrund eines bestimmten thematischen und methodischen Kontextes. Da dieser Kontext vorgab, welche Teilgebiete der umfangreichen Emotionsforschung hier im Wesentlichen von Interesse sind, umreiße ich im Folgenden thesenartig die zentralen Merkmale der vorliegenden Untersuchung. Die Auswahl der in diesem Kapitel zum Gegenstand der Emotionen dargestellten Theorien und empirischen Befunde wird dabei anhand des explizierten Forschungskontextes und -schwerpunktes begründet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-91877-8_2 21a2e153eaf86577dca3a1e0e5c1f787;de;;;1.1.;;;Innovation in Schulen – Theorieansätze und Forschungsbefunde zur SchulentwicklungIm folgenden Beitrag werden theoretisch-konzeptionelle Grundüberlegungen zu Innovationsprozessen in Schulen – basierend auf empirischen Forschungserkenntnissen – angestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-19701-2_2 f5286a4c0ac4e966fc74dc7a84a397be;de;;;1.1.;;;Seltene Nebenwirkungen bei variabel langer ExpositionsdauerFür das Modell einer Fall-Kontroll-Studie wird eine stetige Version vorgeschlagen. Diese Version erlaubt Aussagen für kurzzeitige Expositionsdauern, ohne daß mit der Dauer auch das Risiko gegen Null geht. Aussagen für variabel lange Expositionsdauer erfordern zusätzliche Inferenzstrategien, die sich aus dem hier vorgeschlagenen Ansatz direkt ableiten lassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83520-9_38 6cb4189e841b45e5f7dc059a64d874c3;de;;;1.1.;;;Lerntheoretische GrundlagenMediendidaktik, Lerntheorie, Unterrichtstechnologie, neues Lernen u.a.m. sind Schlagworte, die auch im Sport Einzug hielten und für Unbehagen sorgen. Man wirft der Unterrichtstechnologie etwa vor, dass sie die Lehrer überflüssig mache und so den Unterricht entmenschliche. Einige böse Kritiker unserer Schule meinen, dass mit Medien lediglich erreicht werden könne, dass passive Schüler vor einem Videogerät statt vor einem Lehrer sitzen (Abb. 1).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-6718-4_2 b15380665461678c79c0ded11edefdcf;de;;;1.1.;;;Methodik zur Bestimmung von FunktionskostenFunktionskosten spielen eine zentrale Rolle bei der kostenorientierten Produktentwicklung. Im Kapitel 2 sind vier Funktionskostenkategorien aus der Literatur heraus-gearbeitet worden, die eine betriebswirtschaftliche Bedeutung ausweisen. Zu diesen gehören die anteiligen Funktionskosten, die in dieser Arbeit als Funktionskosten der Kategorie 1 bezeichnet werden, sowie die Funktionskosten der Kategorien 3, 4 und 5, wobei bisher weitestgehend unklar ist, ob diese Funktionskosten miteinander in Beziehung stehen, wie sie mathematisch ausgedrückt werden können und welche Methode zu ihrer Bestimmung angewendet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-81824-9_3 febac66718bccfbe6e1989d728611130;de;;;1.1.;;;Reform und InformationVerwaltungsreform ist ein altes, wenig neues Thema — mehr der praktischen Verwaltungspolitik als der Wissenschaft. Hilfeersuchen, die hin und wieder aus der praktischen Verwaltung an die Wissenschaft gerichtet warden;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-07662-9_11 811cc91c815c9823173e063db7ec1fca;de;;;1.1.;;;Zentralseitige Datenmanagementlösung für den IntensivbereichDie heutige Intensivmedizin erfordert moderne und zukunftsweisende Kommunikations- und Informationstechnologien. Zahlreiche klinische Informationen und Patientendaten müssen gesammelt und zusammengebracht werden, um eine erfolgreiche Therapieentscheidung zu ermöglichen. Die Anforderung, alle therapierelevanten Daten an der Bettseite verfügbar zu machen, ist ohne ein computerunterstütztes System kaum zu erfüllen. Die ideale Lösung ist deshalb, ein System neben dem Monitor an der Bettseite zu haben (sog. bett-seitiges System), das diese Daten bereitstellt. Solche Systeme werden heute von wenigen Herstellern, die über das notwendige Know-how verfügen, angeboten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-08644-5_35 18ea89bc4c2607849bbc541459e3063d;de;;;1.1.;;;Theoretische Rahmung der UntersuchungDiskurstheorie und Diskursanalyse sind eng mit dem Namen des Philosophen Michel Foucault (1926-1984) verbunden, ein in Anschluss an ihn verstandener Diskursbegriff kann formuliert werden als „;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-19243-3_2 242bc598034e33312796c03e8087dc24;de;;;1.1.;;;„Wir sind besser als die anderen“Der Beitrag wendet die sozialpsychologische Forschung zur Theorie des sozialen Vergleiches auf Medieninhalte an. Ausgangspunkt ist der als „Optimistic Bias“ bekannte Befund, dass Menschen sich selbst tendenziell besser bewerten als andere, selbst wenn es dafür keine Grundlage in der Realität gibt. Dieses Phänomen findet sich auch in sozialen Gruppen. In Kleingruppen wird ein solcher Optimistic Bias auf dem Wege der interpersonalen Kommunikation etabliert und verbreitet, er kommt der Identifikation der Individuen mit der Gruppe und damit letztlich der Gruppenstabilität zugute. Der Beitrag unterstellt, dass sich dieses Phänomen auch auf größere soziale Gruppen wie Religionsgemeinschaften, Ethnien oder soziale Schichten übertragen lässt. Hier müsste die kommunikative Verbreitung des Optimistic Bias allerdings im Rahmen der medienvermittelten Kommunikation geschehen. Es wird ein theoretisches Modell vorgestellt, das die Verbindung von Medieninhalten, deren individuelle Rezeption und Verarbeitung sowie die Rückwirkungen dieser Verarbeitung auf die soziale Struktur berücksichtigt. Anschließend werden erste empirische Belege für die Auffindbarkeit von Optimistic-Bias-Darstellungen in der Medienberichterstattung vorgestellt und die daraus resultierenden Probleme und Fragestellungen für zukünftige Forschungsarbeiten diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s11616-011-0130-9 d6c33e524cd9a468e5d0c0da7ad80f56;de;;;1.1.;;;Erfolgsfaktoren der Sponsoringumsetzung und -aktivierung aus der KonsumentenwirkungsperspektiveDas vorliegende Kapitel zur empirischen Erforschung der Erfolgsfaktoren der Sponsoringumsetzung und -aktivierung aus der Konsumentenwirkungsperspektive nimmt den nachfolgenden Gang der Untersuchung. Zunächst erfolgt die Darlegung der theoretischen Grundlagen, um einen notwendigen theoretischen Erklärungsrahmen zur Wirkungsweise von Aktivierungsmaßnahmen im Sponsoring aufzubauen. Im Anschluss hieran wird ein Untersuchungsansatz zur Bestimmung der Erfolgsfaktoren der Sponsoringumsetzung und -aktivierung aus der Konsumentenwirkungsperspektive entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-24519-1_6 b3ab8e201a0ceb4c538ef80b4cb3edcd;de;;;1.1.;;;Theorien zum Umgang mit KomplexitätDas Vorhaben, ein theoretisch fundiertes Interpretationsraster für den empirisch beobachtbaren Umgang mit komplexen Verwaltungsaufgaben zu entwickeln, erfordert neben der Durchsicht vorhandener theoretischer Ansätze auch Kriterien, nach denen die spezifische Brauchbarkeit dieser Ansätze beurteilt werden kann. Diese Kriterien können nur aus der grundlegenden Zielsetzung des gesamten Arbeitsvorhabens abgeleitet werden. Eine solche Ableitung wird deshalb an den Beginn dieses Kapitels gestellt, in welchem dann das theoretische Material für die Konstruktion des angestrebten Interpretationsrasters erarbeitet wird. Vorab sind dazu noch einige Ausführungen zur Arbeitssituation von Führungskräften der mittleren Organisationsebene erforderlich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-94232-6_3 83ef00d0292caabe24b46ea0a47a9219;de;;;1.1.;;;Grundlagen der OptionspreisbildungIm folgenden werden einige Grundlagen für die Bewertung von Optionen dargestellt. Dabei geht es vor allem darum, das Optionsgeschäft zu charakterisieren sowie auf Einflußgrößen auf den Optionspreis einzugehen, die für die Optionsbewertung wichtig sind. Zur Abgrenzung sei erwähnt, daß hier nicht auf reine Optionsmarktaspekte wie den Optionsmarkt selbst, Eigenheiten von Optionsmärkten, Funktionsweise des Ablaufs und der Abwicklung von Optionsgeschäften, usw. eingegangen werden soll, da dies in diesem Rahmen zu weit führen würde. Die Sichtweise ist wesentlich auf die Bewertung ausgerichtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-99780-8_4 15ff33ff883ad08b06c917f32cd3f2ca;de;;;1.1.;;;Psychoanalyse und Neurowissenschaften: Zur Entwicklung der NeuropsychoanalyseDie Entwicklung einer Theorie des Unbewussten und die Anfänge des Dialogs zwischen der Psychoanalyse und den Neurowissenschaften, ausgehend von Freuds Entwurf einer Psychologie, werden dargestellt. Der Stellenwert des Unbewussten und der unbewussten Fantasie in der modernen Psychoanalyse wird aufgezeigt. Die Verknüpfungen mit neurowissenschaftlichen Forschungsstrategien und Konzepten der „cognitive neuroscience“ zur unbewussten Informationsverarbeitung werden diskutiert. In dieser historischen Rückschau auf die Entwicklung einer „Theorie des Unbewussten“ und deren Modifikationen wird deren Aktualität deutlich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-47765-6_4 d847f20ad8a2634a8b0015d817811cf5;de;;;1.1.;;;Die Wirkung von Einflußfaktoren im ProduktbeurteilungsprozeßIn älteren Studien erfolgte die Analyse des Beurteilungsverhaltens rein deskriptiv, ohne Berücksichtigung von Einflußfaktoren. Der Übergang zur explikativen Forschung ist im folgenden an drei Feldern exemplarisch zu belegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-51469-2_3 2455d819b988b5e373478aeaf5882014;de;;;1.1.;;;Historischer RückblickDie Idee, menschliche Intelligenz sei eine angeborene Eigenschaft interindividuell unterschiedlicher neuronaler Effizienz des zentralen Nervensystems und könne daher mittels einfacher sensorischer und sensomotorischer Aufgaben gemessen werden, kann auf Francis Galton zurückgeführt werden. Um eine so definierte Intelligenz zu „messen“, entwickelte Galton (1883, 1908) eine Reihe von Tests, mit denen er ab Mitte der 80er Jahre des vorigen Jahrhunderts einige tausend Personen testete, die neugierig genug waren, sich für „three pence“ in seinem „Anthropometrischen Laboratorium“ testen zu lassen. Die Ergebnisse waren jedoch enttäuschend: Einfache Reaktionszeiten (RZ) oder sensorische Fähigkeiten zeigten keine Zusammenhänge mit anderen, unabhängigen Anzeichen von Begabung oder Bildung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-9432-4_2 38dd9acd112200a78014623db735e64d;de;;;1.1.;;;Grundlagen der ClustertheorieSeit Porter in den 1990er Jahren das Clusterkonzept vorgestellt hat, ist dieses sowohl in Wirtschaft und Wissenschaft äußerst populär geworden. Dies hängt u. a. damit zusammen, dass das Konzept vor dem Hintergrund der sich steigernden Globalisierung, Innovationspotenziale und Wettbewerbsfähigkeit von Unternehmen innerhalb von Regionen betont. Cluster (dt. Schwarm, Traube) sind in diesem Zusammenhang regionale Netzwerke, die Unternehmen und weitere Organisationen (z. B. Forschungseinrichtungen, Verbände, Behörden, Dienstleister) einer Wertschöpfungskette miteinander verbinden und Wettbewerbsvorteile und Innovationen für diese Unternehmen fördern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-26690-5_2 a9b9b6ddade63e506b9dec8c975353d7;de;;;1.1.;;;Die Ereignisstudie als Methode zur empirischen Untersuchung des Informationsgehalts von Credit RatingsUm empirisch zu untersuchen, ob Credit Ratings aus Sicht der Marktteilnehmer am deutschen Aktienmarkt einen Informationsgehalt besitzen, wird in der vorliegenden Studie die Methode der Ereignisstudie herangezogen. Die Ereignisstudie, englisch Event-Study, ist die am weitesten verbreitete Methode zur empirischen Überprüfung, ob ein ökonomisches Ereignis eine Auswirkung auf den Marktwert des Eigenkapitals besitzt. Die Methode geht in ihrer Grundstruktur auf Fama/Fisher/Jensen/Roll (1969) zurück und wurde in den 1980er Jahren zum heute noch gängigen Verfahren weiterentwickelt. Die Ereignisstudie basiert auf der grundlegenden Annahme der Rationalität der Marktteilnehmer und setzt damit voraus, dass diese alle verfügbaren Informationen ohne Zeitverzögerung in ihren Erwartungen berücksichtigen. Ein den Firmenwert beeinflussendes Ereignis hat somit eine sofortige Auswirkung auf die Finanzmarktpreise und bei diesen ist im zeitlichen Umfeld des Ereignisses eine vom unter normalen Umständen zu erwartenden Maß abweichende Veränderung feststellbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-6853-1_4 4ba7969cf88d45eaa63d442c851334c0;de;;;1.1.;;;Der Einfluss von Stress auf Prozesse beim diagnostischen Urteilen – eine Eye Tracking-Studie mit mathematischen TextaufgabenIn realen Unterrichtssituationen diagnostizieren Lehrkräfte aufgrund enormer Interaktionsdichten sowie hoch komplexer Unterrichtssituationen unter psychischer Anspannung wie Stress. Durch Stress können kognitive Kapazitäten gebunden werden, was Prozesse beim Diagnostizieren, wie die Wahrnehmung und die Interpretation von Aufgabenschwierigkeiten, beeinträchtigen kann.;-;-;-;https://link.springer.com/article/10.1007/s42010-020-00078-4 184bc0803d5e3c62d3f4fde5c1cf3bcf;de;;;1.1.;;;Risikokommunikation als Gegenstand wissenschaftlicher ForschungHazard-Kommunikation zielt auf Warnungen ab. Sie ist einfach in dem Sinne, dass sie–im Gegensatz zur Risikokommunikation–kein Verständnis von Wahrscheinlichkeiten und Unsicherheiten voraussetzt, jedenfalls dann, wenn keine Zweifel darüber bestehen, dass ein Schädigungspotenzial vorliegt. Das Verständnis des Hazards ist hierbei nur dann von Bedeutung, wenn es für das erwünschte Vermeidungsverhalten bedeutsam ist. Das heißt, man muss erkennen können, was bestimmte Warnsignale bedeuten. Im Alltagsleben finden sich dazu zahlreiche Beispiele: Wer etwa auf der Zigarettenpackung den Warnhinweis liest „Rauchen gefährdet Ihre Gesundheit“ muss allein diesen Satz verstehen. Ob Rauchen auch gefährlicher ist als das Trinken von Alkohol, spielt erst einmal keine Rolle. Und in welchem Ausmaß das Rauchen von 20 Zigaretten pro Tag die Gesundheit mehr schädigt als das Rauchen von 5 Zigaretten täglich ist auch untergeordnet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-92175-4_7 4b595b7fbd7d3bbc12653c1fae5f6c3f;de;;;1.1.;;;Operationalisierung von „Beschäftigungsfähigkeit“ – ein methodischer Beitrag zur Entwicklung eines MesskonzeptsDer Begriff der Beschäftigungsfähigkeit gewinnt in arbeitsmarktpolitischen Diskussionen und Programmen zunehmend an Bedeutung. Dennoch ist bislang kein empirisches Konzept verfügbar, auf das sich die Arbeitsmarktforschung zur Operationalisierung dieser Zielkategorie beziehen könnte. Der vorliegende Artikel stellt die Ergebnisse einer Methodenstudie vor, die zur Entwicklung eines solchen Messkonzepts im Rahmen der Begleitforschung zur Grundsicherung für Arbeitsuchende (SGB II) durchgeführt worden ist. Basierend auf der telefonischen Befragung von Arbeitslosen aus den beiden Rechtskreisen SGB II und SGB III werden mittels Hauptkomponentenanalysen sechs potenzielle Dimensionen von Beschäftigungsfähigkeit ermittelt und mit Probit-Schätzungen auf ihre Integrationsrelevanz getestet. Das Ergebnis ist ein kompaktes Indikatorenset, auf das zukünftig zur empirischen Beschreibung relevanter Komponenten von Beschäftigungsfähigkeit zurückgegriffen werden kann. Werden diese eher „weichen“ Indikatoren zusätzlich zu den üblichen beobachtbaren Persönlichkeitsmerkmalen wie Alter, Qualifikationsniveau und Arbeitslosigkeitsdauer einbezogen, erhöht sich die Erklärungskraft der Schätzmodelle bezüglich der Integrationswahrscheinlichkeit deutlich.;-;-;-;https://link.springer.com/article/10.1007/s12651-009-0005-y c1afba08b61c2539482828fa334a1009;de;;;1.1.;;;„Die Kunst, die Zukunft zu erfinden“ — Theoretische Erkenntnisse und empirische Befunde zum Einsatz des Corporate Foresight in deutschen GroßunternehmenStudien zur Zukunftsforschung von Unternehmen befassen sich bislang nur einseitig mit Prognoseverfahren, obgleich für die Durchführung der Zukunftsforschung weitere managementspezifische Fragestellungen von Bedeutung sind. Beklagt wird von der Praxis u.a. ein Mangel an Wissen über eine zweckmäßige organisatorische Verankerung der Zukunftsforschung, deren prozessuale Ausgestaltung, den zu wählenden Prognosehorizont und die inhaltliche Ausrichtung der Analysen. Dieser Beitrag wendet sich den offenen Fragen zu und gewährt auf Basis einer qualitativen Untersuchung bei deutschen Großunternehmen erste empirische Einblicke in die weitgehend intransparente Praxis der Zukunftsforschung. Dabei wird der im angloamerikanischen Raum gebräuchliche Terminus „Corporate Foresight“ verwendet, um bereits begrifflich den über die Prognoseverfahren hinausgehenden Anspruch zu verdeutlichen. Die Befunde werden unter Einbezug aktueller Erkenntnisse aus der Theorie zum strategischen Management und zum Innovationsmanagement diskutiert. Wie die Ergebnisse zu erkennen geben, schöpfen die Unternehmen den Gestaltungsspielraum und das Potenzial der Zukunftsforschung noch nicht aus. Drei typische Muster des Corporate Foresight deuten sich an. Empfehlungen für die Ausgestaltung des Corporate Foresight runden den Beitrag ab.;-;-;-;https://link.springer.com/article/10.1007/BF03371688 3c7f16fd08cc1682f909e86f4a98861c;de;;;1.1.;;;Heuristische Lösungsverfahren Versuch einer BegriffsklärungIm folgenden Beitrag wird der Versuch unternommen, den Begriff „heuristisches Lösungsverfahren“ zu präzisieren. Es werden drei konstituierende und drei akzessorische Merkmale herausgearbeitet. Schließlich werden einige ausgewählte heuristische Verfahren auf ihre charakteristischen Eigenschaften hin untersucht.;-;-;-;https://link.springer.com/article/10.1007/BF01999748 3471a1d0a79b489a75f715c10c7dbd1e;de;;;1.1.;;;Responder vs. Non-Responder Ein Mass für die Effektivität einer Behandlung?In der Literatur zur Evaluation von Chemotherapien ist es weitverbreiteter Brauch, eine bessere Überlebenszeit bei Respondern der Therapie, d.h. Patienten mit Tumor-Remission, gegenüber Non-Respondern als ‘Beweis’ für eine Effektivität der Behandlung anzuführen — insbesondere wenn entsprechende statistische Tests ein signifikantes Ergebnis liefern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83520-9_15 0b1d8638556c45adf553e465c6bae815;de;;;1.1.;;;Zwei-Prozess-Modelle der Unterhaltungsforschung für die Analyse der Rezeption politischer TalkshowsDie Unterhaltungsforschung hat seit den 1990er Jahren ein enormes Wachstum und im Zuge dessen verschiedene definitorische Transformationen und theoretische Weiterentwicklungen erfahren. Zum aktuellen Stand lassen sich zwei zentrale, definitorisch voneinander getrennte, Bereiche identifizieren. Der eine Bereich beschäftigt sich mit der hedonischen Unterhaltungserfahrung (engl.: hedonic entertainment), der andere mit der eudaimonischen Unterhaltungserfahrung (engl.: eudaimonic, z. T. auch non-hedonic entertainment).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-11522-7_3 6c9c83897c04e2e270d14f724839f931;de;;;1.1.;;;Das Ganze ist mehr als die Summe seiner Teile: Interdisziplinäre Erklärungsansätze der Verarbeitung und Wirkung audiovisueller KommunikationIn der audiovisuellen Kommunikation erfolgen Wahrnehmung und Verarbeitung von Informationen in zwei Modalitäten, der visuellen und der auditiven. Mit der Frage, wie die kognitive Verarbeitung und die Speicherung der Informationen beider Modalitäten vonstatten gehen, befasst sich die Kognitionspsychologie (vgl. Wessels 1994, Anderson 2007, Solso 2005). Die Sozialwissenschaft fokussiert vor allem die Wirkungsunterschiede beider Modalitäten (vgl. Holicki 1993, 54).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-93497-6_4 dcd62f73d8b8c44cf2a3249e08f631c5;de;;;1.1.;;;Adäquationsproze\ und Entscheidungsproblem“Adäquation” bezeichnet den Versuch, Begriffe genau zu beschreiben. Da nur Symbole und ihre Definition mitgeteilt werden können, wird die Sinndeutung statistischer Fachbegriffe beim Dialog zwischen Substanzwissenschaft und Statistik ebenso zum Problem wie die Kennzeichnung des Informationsbedarfs. Bei klassischer Adäquation wird analog zur statistischen Entscheidungstheorie unterstellt, der Entscheidende sei in der Lage, seinen Informationsbedarf vollständig zu beschreiben. Die Vollständigkeitsannahme wird aufgegeben. Möglichkeiten verbesserter Begriffsklärung im kommunikativen Verbund zwisschen Statistiker und Fachwissenschaftler werden ebenso erörtert wie eine ‘Bayessche’ Verbesserung von a priori Definitionen durch überraschende (unlikely) statistische Ergebnisse. Die Grenze für vertretbare Informationskosten und Adäquation zieht das besondere Risiko des übergeordneten Entscheidungs-problems.;-;-;-;https://link.springer.com/article/10.1007/BF02932815 f9fde4238373f94c55312448fb172002;de;;;1.1.;;;Adaptive MustererkennungNach einigen Vorbemerkungen über die allgemeine Aufgabe, die Geschichte und die verschiedenen Formen der Mustererkennung wird letztere dem Flaskämperschen Parallelismus von Sach- und Zahlenlogik gegenübergestellt. Beobachtungen sind Beschreibungen empirischer Objekte im Sinne eines empirischen Systems, das “fast-isomorph” einem mathematischen System ist. Eine Unschärferelation (verallgemeinerte Heisenbergsche Unschärferelation) besteht zwischen Systemidentifikation und Mustererkennung. Muster sind stets unscharf und partiell. Dem entspricht die adaptive Mustererkennung, nämlich die Reduktion der Unbestimmtheit durch Ausbeutung aller verfügbaren Informationen mittels des Konzepts der LPI (lineare partielle Information) und die Überwindung des jeweiligen Ungewißheitsrestes durch Orientierung an den Konsequenzen fehlerhafter Mustererkennung mittels des MaxE;-;-;-;https://link.springer.com/article/10.1007/BF02932769 2da9fb8023db0cc33ae5843dd856d660;de;;;1.1.;;;Die schizoaffektive Störung: Validität und ReliabilitätSince Kraepelin separated the two functional psychoses known today as bipolar disorder and schizophrenia into two categories, a fact known as the Kraepelin dichotomy, an ongoing controversial discussion is questioning the validity of this construct. Critique is founded on the fact that many patients exerting symptoms of both nosologies may not be classified in one or the other. The discussion about a third big psychotic functional category culminating in the diagnosis of schizoaffective disorder is also conducted controversially. Schizoaffective disorder seems to be an invalid diagnosis as symptoms of schizophrenia and bipolar disorder are overlapping to such an extend that there is no space left for a third categorial diagnosis. Therefore schizoaffective disorder exerts a low interrater reliability. In addition there is no stability of the diagnosis schizoaffective disorder over time. For those patients that may not be allocated unequivocally to either one of the diagnoses schizophrenia or bipolar disorder, the current task force for the DSM V wants to broaden the concept of schizophrenia by adding affective symptoms, such as depression or mania, to schizophrenia. Another option is seen in adding dimensional characteristics to this population. This might enhance validity and reliability of our nosologies and will guarantee scientific communication in the future. In either case the diagnosis schizoaffective disorder will become obsolete. Anyway: Future diagnostic criteria, because of the currently still existing lack of scientific evidence, will be partly based on conventions reflecting the influence of lobby groups with diverging interests.;-;-;-;https://link.springer.com/article/10.1007/s11326-010-0089-6 4d0fea086b5a8f8dda1c9f85b4d7410f;de;;;1.1.;;;Theoretische Grundlagen und Herleitung des UntersuchungsgegenstandesIn der Marketingliteratur unterliegt dem Begriff Marke divergierende Definitionen. Sowohl in der Wissenschaft als auch in der Praxis stellen Experten ihre eigene Definition auf oder ändern Nuancen einer bestehenden Definition. Etymologisch betrachtet, lässt sich das Wort Marke einerseits auf die Bedeutung des „Zeichens“ zurückführen, wie aus dem mittelhochdeutschen „;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-22528-5_2 a83c8f2ececc487762dfde7cbc499d85;de;;;1.1.;;;— EDV für die Arztpraxis — Entscheidungshilfe oder VerwaltungsrationalisierungDas Zentralinstitut für die kassenärzliche Versorgung in der Bundesrepublik Deutschland hat sich seit seiner Gründung im Jahr 1973 mit Rationalisierungsfragen in der ambulanten Medizin auseinandergesetzt. Die Schriftenreihe des Zentralinstituts spiegelt die Entwicklung wider: 1974 erschien eine erste Bestandsaufnahme zu den Möglichkeiten und Grenzen der EDV. Es folgten Veröffentlichungen über neue Organisationsformen in Gruppenpraxen und Laborgemeinschaften. In diesem Jahr schließlich legte das Zentralinstitut mit der „Strukturanalyse allgemeinärztlicher Praxen“ das Ergebnis einer wissenschaftlich fundierten Organisationsanalyse vor — bedauerlicherweise zu spät, um die ersten EDV-Konzepte grundlegend zu beeinflussen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-81404-4_66 a63cb918ba452cfa909506af037666ca;de;;;1.1.;;;Die antike Rhetorik im Spiegel der Verhaltenswissenschaft am Beispiel der Institutio OratoriaeDie antike Rhetorik wird als wissenschaftlicher Ursprung der modernen Persuasionsforschung angesehen. In diesem Beitrag werden die Erkenntnisse der antiken Rhetorik anhand ausgewählter Beispiele aus der Institutionis Oratoriae des römischen Rhetoriklehrers Quintilian im Spiegel der heutigen Erkenntnisse der Verhaltens- und Kommunikationswissenschaft gewürdigt. Viele Aspekte der Rhetorik Quintilians sind bemerkenswert. So waren bereits vor 2000 Jahren die Bedeutung der emotionalen Beeinflussung und die Bedeutung von Bildern für die Gedächtnisleistung bekannt, und diese Erkenntnisse sind in die Praxis der Redner stark eingeflossen. Quintilians Rhetorik ist konsequent pragmatisch, d.h. situativ, aber auch mit ganzheitlichen Elementen versehen, und Beeinflussung wird nicht moralisierend gesehen, sondern als hohe rhetorische Kunst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08638-3_2 46e9d32e62e902afa117a8a910dd4924;de;;;1.1.;;;Die Qualität der Diagnosenstatistik nach der neuen BundespflegesatzverordnungDie Auswertungsmöglichkeiten einer Diagnosendokumentation und die Aussagefähigkeit einer darauf beruhenden Diagnosenstatistik hängen wesentlich von der Qualität der dabei benutzten Dokumentations- und Verschlüsselungsverfahren ab. Auch die seit 01 .01 .1986 von den Krankenhäusern zu führende Diagnosenstatistik nach der neuen Bundespflegesatzverordnung (1) ist gerade von einem Universitätsklinikum auf ihre Fehlerhäufigkeiten, -arten und -ursachen zu untersuchen, um Maßnahmen zur Qualitätssteigerung der Diagnosenstatistik und Angaben zu den Grenzen der Nutzungsmöglichkeiten zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83520-9_6 cd4d94ec89778b872c27c169001739cb;de;;;1.1.;;;Rassistische Effekte trotz antirassistischer Selbstkontrolle?Die interaktive Praxis, die sich zu einem bestimmten Zeitpunkt in den antirassistischen Gruppen beobachten lässt, kann zugleich als Ergebnis langjähriger symbolischer Kämpfe interpretiert werden. Im letzten Kapitel ging es in erster Linie um kurzfristige, unmittelbar in der nachfolgenden Interaktion beobachtbare Effekte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-93342-9_5 f10518aed2575111fe0c003bd526ed5d;de;;;1.1.;;;Verhaltenswissenschaftliche PreisforschungDie verhaltenswissenschaftliche Preisforschung stellt eine Ergänzung der klassischen mikroökonomischen Preistheorie dar. Letztgenannte geht von vollkommener Information und rationalem Verhalten der Konsumenten aus, deren Kaufverhalten ausschließlich dem Prinzip der Nutzenmaximierung folgt (Homburg & Krohmer, 2011, S. 675). Die mikroökonomische Preistheorie beschränkt sich im Sinne der klassisch behavioristischen Forschung auf stochastische Modelle, die auf die Erklärung von Zusammenhängen zwischen direkt beobachtbaren Stimuli, wie z.B. dem Preis, und ebenfalls direkt beobachtbaren Verhaltensreaktionen der Nachfrager abzielen (Eschweiler, 2006, S. 35).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-08274-1_3 62a58c43de127b6462a38d647802590f;de;;;1.1.;;;Kartographie als Instrument in der EpidemiologieKarten erreichen die beabsichtigte Wirkung beim Leser nur, wenn sie sich an bestimmte graphische Regeln halten. Ziel einer Karte ist nicht die Darstellung von Tabellenwerten, sondern das Aufzeigen von räumlichen Mustern und die Visualisierung von Trennlinien. Nach Diskussion einzelner methodischer Probleme (Informationsverzerrung, Klassenbildung, Farbanwendung) werden die Leitgedanken für den neuen Schweizer Krebsatlas dargelegt. Unter sich vergleichbare Karten, die den wesentlichen Charakter der Datenverteilung wiedergeben, verlangen nach einer klassenlosen Darstellung. Diese Methode erlaubt die Kombination von geographischen Karten mit Graphiken (9 Städte, 5 «Sprachregionen», 7 Gemeindegrössenklassen und 12 sozioökonomische Regionstypen). Signifikanzen werden leicht lesbar integriert. Weil im Atlas durchwegs ein einheitlicher Wertemassstab gilt, sind Karten und Graphiken sowohl einzeln als auch im Quervergleich lesbar. Beziehungen werden aufgedeckt, die bei einer herkömmlichen Karte nicht zum Ausdruck kommen.;-;-;-;https://link.springer.com/article/10.1007/BF02098370 defe92d56aacc9f303c0d51990de17ff;de;;;1.1.;;;Fragebogenzentrierte ForschungansätzeDie Forschungsrichtung, die man unter diesem Label zusammenfassen kann, beschäftigt sich hauptsächlich mit den Wirkungen bestimmter Frageformulierungen und formaler Eigenschaften der Fragen bzw. des ganzen Fragebogens auf die Antwort des Befragten. Sie stützte sich zunächst auf ein heute veraltetes S-R-Modell;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-93600-4_2 be08b27ab873ea1649f96148b840e647;de;;;1.1.;;;Einführung in die allgemeine Entscheidungs-theorieDie Entscheidungstheorie läßt sich von ihren Zielsetzungen her in drei Forschungsrich-tungen aufteilen, nämlich in die deduktive Forschung der Entscheidungslogik (vgl. Abschnitt 1.1), die empirische Forschung der deskriptiven Entscheidungstheorie (vgl. Abschnitt 1.2) und die mathematisch orientierte Forschung der statistischen Entscheidungstheorie. Auf die statistische Entscheidungstheorie wird hier nicht eingegangen, da sie der Statistik zuzurechnen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-58198-4_1 f5806d414db84d213642c438d82ac3ee;de;;;1.1.;;;Anforderungen an den KundendienstDie intensive Beschäftigung mit dem Kundendienstbegriff seit den 60er Jahren hat zu zahlreichen Definitionen geführt, die nicht nur seinen Wandel über die Zeit verdeutlichen, sondern auch wesentlich voneinander abweichen [FRISCH 89, S. 116 f.]. Folgende Abbildung zeigt die Dimensionen des Begriffs, um anschließend die für diese Arbeit verwendete Definition einordnen zu können. Die Grundlage für die gewählte Definition bilden die in Abb. 2-1 weiß hinterlegten Begriffe (zur ausführlichen Darstellung der Begriffsentwicklung vgl. [MUSER 88, S. 7 ff.]).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-95395-7_2 3374371801c26a9054c8e01d3368cad9;de;;;1.1.;;;Zum Zusammenspiel zwischen schulischem Selbstkonzept, Lernfreude, Konzentration und Schulleistungen im GrundschulalterBasierend auf der Kontroll-Wert-Theorie (Pekrun, Educational Psychology Review 18:315–341, 2006), die vor dem Hintergrund des Erwartungs-mal-Wert-Modells (Eccles, Achievement and achievement motivation, W. H. Freeman, San Francisco, S. 87–134, 1983) entstanden ist, untersucht die vorliegende Fragebogenstudie die Zusammenhänge zwischen dem schulischen Selbstkonzept, der Lernfreude, der Konzentration und den Schulleistungen von 178 Grundschulkindern der vierten Jahrgangsstufe. Ziel ist es, die direkten und indirekten Zusammenhänge zwischen den drei Konstrukten und den Schulleistungen in Strukturgleichungsmodellen zu überprüfen. Die Ergebnisse zeigen in allen Modellen direkte Beziehungen zwischen Selbstkonzept und Schulleistungen, Selbstkonzept und Lernfreude, Selbstkonzept und Konzentration sowie Lernfreude und Konzentration. Dagegen liegen keine direkten Beziehungen zwischen Konzentration und Schulleistungen sowie Lernfreude und Schulleistungen vor. Die Lernfreude stellt zudem einen signifikanten Mediator zwischen dem Selbstkonzept und der Konzentration dar.;-;-;-;https://link.springer.com/article/10.1007/s35834-016-0147-2 0d7dacf05f3b1c83321f602a06fcfea3;de;;;1.1.;;;Relevanz und theoretisch-begriffliche Grundlagen der EntscheidungszufriedenheitNachfiageorientierte Untemehmungen versuchen ihren Kunden Leistungen anzubieten, die als zufiiedenstellender empfunden werden als die der Konkurrenz. Entsprechend werden heute Wertschöpfungsstrukturen an der Kundenzuftiedenheit ausgerichtet sowie strategische Zielsetzungen, Marketing-Pläne oder Mitarbeiter-Incentives auf Basis des Konstrukts formuliert (Foumier und Mick 1999: 5). Zahlreiche Forschungsarbeiten und empirische Untersuchungen widmen sich der Frage, wodurch Kundenzufriedenheit und -unzufriedenheit ausgelöst wird und wie diese untemehmerische Zielgröße gesteuert werden kann (vgl. zusammenfassend Yi 199 1, Oliver 1997). Dabei konzentrieren sich die Bemtihungen auf die Zufriedenheit des Kunden mit einer bezogenen Leistung. In der verhaltenswissenschaftlichen Forschung gibt es jedoch Belege dafür, daß Individuen nicht nur das Ergebnis, sondem such das Erlebnis eines Entscheidungsprozesses als zufrieden-oder unzufriedenstellend empfinden (u. a. Fitzsimons, Greenleaf und Lehmann 1997, Zhang und Fitzsimons 1999, Higgins et al. 2003). Danach ist der Kaufentscheidungs-und Konsumprozeß als ganzes zu betrachten und das gedankliche Abwägen zwischen Altemativen bei der Konzeptualisierung der Kundenzufriedenheit mit einzubeziehen. Vorliegende Arbeit will Licht in diese noch wenig betrachtete Zufriedenheitsdimension bringen. Einleitend führen die folgenden Abschnitte in die Betrachtung von Entscheidungs-und Konsumzufriedenheit ein und legen das inhaltliche und forschungsmethodische Vorgehen sowie die begrifflichen Grundlagen der Untersuchung dar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-9011-8_1 bdfe2bbe89cd7fb0d08c99a4178347f4;de;;;1.1.;;;Wéhlerorientierte Positionierung von Politikern — Ergebnisse einer Untersuchung in Europa auf der Basis der Conjoint-AnalyseZahlreiche Beobachter stimmen darin überein, daß in den westlichen Demokratien ein Prozeß der fortschreitenden „Amerikanisierung“ von Wahlkémpfen stattfindet. Unter anderem zwei Aspekte gelten als zentrale Momente „amerikanisierter“ Wahlkémpfe: Personalisierung und „Szientifizierung“. „Personalisierung“ meint die zunehmende Konzentration der Wahlkampagnen auf die Spitzenkandidaten der Parteien. Die „Verwissenschaftlichung“ von Wahlkémpfen bezieht sich auf den Bedeutungsgewinn von Medienberatern, Umfragespezialisten und Werbefachleuten in den Planungsstében, welche die Wahlkampagnen der Parteien konzipieren und umsetzen. Ein Denkansatz, der vor diesem Hintergrund bei der Analyse der politischen Ausgangslage und der Konzipierung darauf abgestimmter Kampagneninstrumente im Rahmen von Wahlkémpfen immer wichtiger wird, ist das „Politische Marketing“. Es handelt sich dabei um einen Ansatz zur politischen Situationsanalyse durch Erforschung der Wéhlerpréferenzen und ein darauf abgestimmtes Instrumentarium der Kampagnenplanung. In diesem Beitrag richtet sich das Augenmerk auf die Erfassung von Préferenzen der Wéhler gegenüber Spitzenkandidaten. Anhand einer exemplarischen Analyse wird illustriert, wie die Orientierungen der Wéhler gegenüber politischen Kandidaten aus der Perspektive des Marketing untersucht werden können.;-;-;-;https://link.springer.com/article/10.1007/BF03033945 ee7acf7288774aea8ed172d7e988d701;de;;;1.1.;;;Aufbau, Arbeitsweise und Programmierung digitaler Rechner als Werkzeuge der nicht-numerischen DatenverarbeitungWir werden uns im folgenden mit einer besonderen Klasse von Ziffernrechenmaschinen, den sogenannten Rechenautomaten, beschäftigen. Diese Geräte wurden ursprünglich zur Durchführung numerischer Rechnungen erdacht und gebaut. Erst später fanden sie aufgrund besonderer Eigenschaften Verwendung für die Lösung nicht-numerischer Aufgaben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-8202-4_2 a5cac0ee1f41cb6b42e871a052cb0139;de;;;1.1.;;;Die ISO 27701 und das SDM-V2 im Lichte der Umsetzung der DSGVODieser Artikel gibt einen kurzen Einblick in die Standards und zeigt auf, welche Hilfestellung manim Datenschutz als Praktiker von ihnen erwarten darf.;-;-;-;https://link.springer.com/article/10.1007/s11623-020-1344-7 99e2f092aa35c41d8d1c9d1ad96c8a08;de;;;1.1.;;;Methoden und DurchführungZunächst werden die Fragestellung und die Hypothesen vorgestellt, woran sich eine Beschreibung des Untersuchungsplans und der untersuchten Stichprobe anschließt. Im Folgenden werden die Erhebungsinstrumente dargestellt. Zum Abschluss dieses Kapitels folgt eine Erläuterung der statistischen Methoden, die bei der Auswertung der gewonnenen Daten zum Einsatz gekommen sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-07394-7_8 0dec5dc2f7d5746f9cb1e091f553987f;de;;;1.1.;;;Problemspezifische Beurteilung entscheidungstheoretischer MethodenAufgrund der hohen wettbewerbsstrategischen Bedeutung einer erfolgreichen SE-Umsetzung soll die Bewertung und Auswahl Entwicklungszeit-reduzierender Maßnahmen auf der Basis ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08817-2_6 4ae7d231fd4e51f8eb72496cba29c11e;de;;;1.1.;;;Positions- und performanzbasierte Sachfragenorientierungen und Wahlentscheidung: Eine theoretische und empirische Analyse aus Anlaß der Bundestagswahl 1994In welchem Ausmaß ist die Wahlentscheidung an Sachfragen orientiert, und welche Sachfragen stehen im Mittelpunkt der Entscheidung? Die erste Frage ist vor allem unter der Perspektive der Erklärung des Wahlverhaltens bedeutsam, die zweite eher aus demokratietheoretischer Perspektive nach dem inhaltlichen Auftrag, der mit der Wahlentscheidung verbunden ist. Die Mehrzahl der zu diesen beiden Fragen vorgelegten Analysen der einzelnen Bundestagswahlen trägt dem Sachverhalt nicht Rechnung, daß zwei unterschiedliche Typen von Sachfragen existieren, die jeweils mit unterschiedlichen Implikationen hinsichtlich der Interpretation der individuellen Wahlentscheidung und des kollektiven Wahlergebnisses verknüpft sind: auf der einen Seite ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-07812-8_7 8adc0a671b76a12aa59e7340473fdeb4;de;;;1.1.;;;Darstellung eines Gedächtnismodells zur Analyse von WerbewirkungenWahrgenommene Informationen werden unterschiedlich lange gespeichert. Eine Telefonnummer wird z. B. schnell vergessen, wenn sie nicht häufig benötigt wird. Das entspricht unseren Erfordernissen. Dagegen möchten wir Adressen, Namen, Sachverhalte usw., die zu späteren Zeitpunkten benötigt werden, langfristig speichern. Das gelingt uns allerdings nicht immer. Der individuelle ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-86418-5_2 964cf28d291f656c9847727495956b45;de;;;1.1.;;;Ist die Borderline-Persönlichkeitsstörung eine komplexe posttraumatische Störung? Zum Stand der ForschungAusgehend von der hohen Prävalenz traumatisierender Erfahrungen in der Vorgeschichte von PatientInnen mit Borderline-Persönlichkeitsstörung (BPD) geht diese Übersicht der Frage nach, inwieweit die BPD als eine Form traumaassoziierter Störungen aufgefasst werden kann. Außer klinisch-phänomenologischen Überschneidungen mit den Konzepten der komplexen posttraumatischen Belastungsstörung (PTSD) und der “disorders of extreme stress not otherwise specified (DESNOS)” konvergieren auch Befunde zum Langzeitverlauf und Befunde zu möglichen Vulnerabilitätsfaktoren. Unter Berücksichtigung der allgemeinen Stressforschung und ähnlicher neuropsychologischer Defizite bei BPD und PTSD sprechen darüber hinaus erste psychoendokrinologische und bildgebende Studien für eine z. T. gemeinsame Pathogenese. Eine pathogenetische Spezifität einzelner ätiologischer Faktoren scheint nicht zu bestehen, die Annahme eines Diathese-Stress-Modells der BDP mit Traumatisierung als notwendige, aber nicht hinreichende ätiologische Bedingung scheint aber gerechtfertigt. Die weitere Forschung wird belegen müssen, ob die BPD als komplexe und chronisch verlaufende Form einer früh einsetzenden posttraumatischen Belastungsstörung nach multiplen und chronischen Traumatisierungen in Kindheit und/oder Jugend eingeordnet werden sollte.;-;-;-;https://link.springer.com/article/10.1007/s00115-002-1296-1 acb8f674cb5e8a21bacd1005b287c8b2;de;;;1.1.;;;Planung und Einsatz von Arbeitsplatzcomputern zur Unterstützung der OP-Organisation und OP-BerichtschreibungAktuelle Transparenz, Dokumentation und Organisation eines größeren Operationsbereiches erfordern EDV-technische Hilfe. Das Konzept sieht weitgehende Unterstützungen der OP-Planung, der Ressourcenauslastung und der Information und Dokumentation vor. Die Realisierung erfolgt schrittweise unter Einsatz von vernetzten Arbeitsplatzcanputern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83520-9_68 c47b2e3f91094f75e43e9a36858a597c;de;;;1.1.;;;Unterrichtsbezogene Überzeugungen und handlungsleitende Kognitionen von LehrpersonenDie hier vorgestellte Studie untersucht den Zusammenhang zwischen unterrichtsbezogenen und handlungsleitenden Kognitionen anhand einer Stichprobe von 20 deutschen und 18 schweizerischen Mathematiklehrpersonen. Die untersuchten unterrichtsbezogenen Überzeugungen fokussieren auf das konstruktivistische und das rezeptive Lehr-Lernverständnis der Lehrpersonen, die spezifischen Kognitionen auf das konkrete didaktische Handeln in einer Unterrichtseinheit zur Einführung in die Satzgruppe des Pythagoras. In früheren Untersuchungen zeigte sich, dass sich deutsche Lehrpersonen konstruktivistischer als schweizerische Lehrkräfte einschätzten, ihren Unterricht aber eher als fragend-entwickelnd beschrieben. Ausgehend von diesem Befund werden in der Untersuchung deutsche und schweizerische Lehrpersonen hinsichtlich ihrer Überzeugungen und handlungsleitenden Kognitionen vergleichend untersucht. In einem zweiten Schritt wird nach Zusammenhängen zwischen beiden Facetten professionellen Lehrerwissens gefragt. Die Ergebnisse verweisen darauf, dass sich die deutschen Mathematiklehrpersonen in ihren Überzeugungen stärker als jene in der Schweiz an einem konstruktivistischen Verständnis von Lehr-Lernprozessen orientieren, dieses sich aber sowohl bei deutschen als auch bei schweizerischen Lehrpersonen kaum in den handlungsleitenden Kognitionen widerspiegelt. Als Erklärung für diese geringe Korrespondenz zwischen unterrichtsbezogenen Überzeugungen und handlungsleitenden Kognitionen kommen u.a. belastende Rahmenbedingungen und eine geringe Selbstwirksamkeit der Lehrpersonen in Frage. Daher werden in einem dritten Schritt Zusammenhänge zwischen unterrichtsbezogenen Überzeugungen und handlungsleitenden Kognitionen unter Kontrolle belastender Rahmenbedingungen und der Selbstwirksamkeit der Lehrpersonen untersucht. Dabei zeigen sich, allerdings in erster Linie nur bei schweizerischen Lehrpersonen, einige erwartungskonforme systematische Zusammenhänge zwischen konstruktivistischen Überzeugungen und handlungsleitenden Kognitionen.;-;-;-;https://link.springer.com/article/10.1007/s11618-006-0168-z ac83246a69d40a0498ed0cedd130853b;de;;;1.1.;;;UnsicherheitsabsorptionUm eine Alternative entscheiden, um ihre eine, aber nicht ihre andere Variante bezeichnen zu können, braucht eine Entscheidung Information. Es muss außer der Alternative also noch etwas anderes geben, das sich als Auswahl aus einem markierten oder unmarkierten Bereich von Möglichkeiten präsentiert — eben einen Unterschied, der einen Unterschied macht, nämlich dazu beiträgt, die Entscheidung zu entscheiden. Aber auch das Umgekehrte gilt: Die Entscheidung erzeugt das Moment der Überraschung, das als Information kommuniziert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-97093-0_6 7e1dee58bb76bf16d30733b861d90530;de;;;1.1.;;;Wertschaffung durch M&A-Transaktionen im europäischen Bankensektor — eine empirische BetrachtungNachdem in Kapitel 2 neben den definitorischen Grundlagen der Status der Konsolidierung dargestellt und wesentliche Treiber und Hemmnisse einer erwarteten weitergehenden paneuropäischen Konsolidierung dargestellt wurden sowie in Kapitel 3 ein Überblick über die verschiedenen Ansätze/Methoden der Erfolgsforschung und ihre Ergebnisse gegeben wurde, hat das Kapitel 4 hierauf aufbauend die bereits angesprochene großzahlige empirische Analyse des Erfolgs europäischer Bankentransaktionen zum Ziel. Maßstab für den Erfolg oder Misserfolg einer Transaktion ist hierbei (entsprechend der bereits in Kapitel 3.2.1 dargestellten Definition) der ökonomische Erfolg aus Sicht der Aktionäre — gemessen an der Veränderung des Anteilsbesitzes der Aktionäre, dem Shareholder Value.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-5478-3_4 e64d2d6dd5af50e8f82457fadec0ffcb;de;;;1.1.;;;Die Selektivität von Sinn. Übet die Sinnkonzeptionen und Sinnformen des Strukturtheoretischen Individualismus und der Systemtheorie und ihre methodologischen Prämissen und ImplikationenEin Beitrag, der sich mit „Sinn“ befasst und dabei vergleichend verschiedene Konzeptionen analysieren soll, ist gut beraten, sich auf zwei Vorbetrachtungen einzulassen. Eine erste Vorbetrachtung muss dem soziologischen Konzept „Sinn“ gelten. „Sinn“ ist vielleicht der Zentralbegriff der Soziologie schlechthin. Ob es nun um Handeln und Erleben, um Kommunikationen und Interaktionen, um soziale Differenzierungen, kulturelle Welten oder Gesellschaftsformationen geht — auf all diesen Wegen von den Mikroebenen bis in Makrobereiche hinein wird die soziale und die soziologische Bestimmung der sozialen Phänomene in allererster Linie über den Sinnbegriff vorgenommen. Die soziale Welt ist, wie dies Alfred Schütz (1932) prägnant formulierte, eine sinnhaft aufgebaute Welt. Man darf aber nicht davon ausgehen, dass „Sinn“ und „Bedeutung“ dieses Ausdrucks fest umrissen sind. „Sinn“ gehört zu den nom adisierenden Ausdrücken, die in unterschiedlichsten Sprachspielen eine tragende Rolle spielen können und dabei eine hohe Affektionskraft entwickeln. Je nach Bindungsform verändert dieser Ausdruck seine Semantik beträchtlich, was dazu führt, dass diese im Laufe der Soziologiegeschichte beträchtlich an Extension zu-, aber ebenso beträchtlich an Intension abgenommen hat. Es ist nicht übertrieben zu sagen, dass die Karriere von „Sinn“ in der Soziologie auf seine zahlreichen Äquivokationen zurückzuführen ist. In einer ersten Vorbemerkung wird also in groben Zügen die soziologische Semantik des Sinnbegriffs skizziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-90259-3_6 6dbffd7ff651f1e10815cfbac0f32987;de;;;1.1.;;;ATLAS-PfleSaurus: Ein objektorientiertes System zur Unterstützung der ThesauruspflegeATLAS-PfleSaurus ist ein objektorientiertes System zur Unterstützung der Erstellung und Weiterentwicklung von (Teil)-Thesauri, das insbesondere übersichtliche Darstellungen von Thesauri und den redaktionellen Charakter der Thesauruspflege berücksichtigt. Die Systementwicklung wird in partizipativem Rahmen durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-76981-8_5 c50cf73da5d0bc63b74054a91d59f0a3;de;;;1.1.;;;Konzeption des speziellen Entscheidungsunterstützungssystems SEMCAIPNachdem in Kapitel 2 ein allgemeiner Überblick über Entscheidungsunterstützungssysteme gegeben wurde, sollen im Folgenden die speziellen Komponenten des in dieser Arbeit entwickelten Systems behandelt und konkretisiert werden. Abb. 5.1 zeigt zunächst die für die Realisierung der Komponenten eingesetzten Systeme:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-9871-2_5 5b0e91f900397c12156c6f37d5631255;de;;;1.1.;;;Aufbau eines Datenbanksystems nach dem Relationenmodell für die medizinische AnwendungWir sind zur Zeit dabei, ein relationales Datenbanksystem für die medizinische Anwendung aufzubauen. Wir haben diesen in der medizinischen Datenverarbeitung noch kaum beschrittenen Weg eingeschlagen, um dadurch einige prinzipielle Verbesserungen zu ermöglichen, die uns aufgrund von Erfahrungen mit unseren im Routinebetrieb laufenden Datenverwaltungssystemen wünschenswert erschienen. Diese sind im wesentlichen die einfache Erweiterbarkeit, die bessere Anpassung an die Arbeitsweise der Benutzer und die Möglichkeit, einfach Integritäts-und Konsistenzkriterien zu definieren. Das wesentliche Mittel dazu ist eine flexible nichtprozedurale Datenbanksprache, die vom Benutzer keine Kenntnisse mehr über Zugriffspfade und SpeicherStrukturen verlangt. Außerdem könnten mit Hilfe der Datenbanksprache virtuelle Datenstrukturen definiert werden, die es ermöglichen, verschiedenen Benutzern dieselben Daten in verschiedenen — ihren jeweiligen Problemstellungen und Betrachtungsweisen angepaßten — Strukturen anzubieten. Diese Eigenschaften werden anhand einiger Beispiele demonstriert. Als Basis unseres Datenbanksystems dient das kommerziell erhältliche System ADABAS. Das Datenbanksystem ist komplett implementiert. Für die Datenbanksprache liegt ein detaillierter Entwurf vor, der schon zu einem Teil implementiert ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-81404-4_32 695bbbf2023e40357aedfe08c3b2de9c;de;;;1.1.;;;Graphentheoretische Probleme und Methoden — ein Überblick über neuere Entwicklungen (Übersichtsvortrag)Die Graphentheorie gilt gemeinhin als ein nützliches Instrument zur Beschreibung und Analyse von Systemen, zwischen deren Elementen gewisse Beziehungen bestehen, deren inhaltliche Ausgestaltung außerordentlich vielfältig sein kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-99748-8_16 56cceb156d03c0817a0c2eb5d2af3c68;de;;;1.1.;;;Entstehung, Begrifflichkeiten und Konzepte des KompetenzmanagementsDie ausführliche Ausarbeitung soziologischer Erklärungsmuster diente dem Zweck, dem Leser das vorliegende Grundverständnis zum professionellen Handeln von Kommunikationsverantwortlichen zu verdeutlichen. Vor dieser Schablone wird im Folgenden die Idee des Kompetenzmanagements als Steuerungsinstrument der Kommunikationsfunktion entwickelt. Es wird sich zeigen, dass das Kompetenzmanagement imstande ist, die legitimierende Selbstdarstellung zu verstärken, das Akzeptanzklima zu fördern, Identitätsarbeit zu verrichten, professionellen Habitus zu verbreiten sowie Rollenkonflikte sicht- und aushandelbar zu machen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-21712-9_4 8e07ba281e55c5041ba88d10b78a2bcf;de;;;1.1.;;;Unterscheidungsgesichtspunkte und MethodenFür das Verständnis der Ergebnisse zum Dauererleben ist ein Eingehen auf methodische Gesichtspunkte unerläßlich. Über lange Zeit wurde unzureichend berücksichtigt, daß die Verwendung unterschiedlicher Beurteilungsmethoden ebenso wie verfahrensmäßige Unterschiede zu (scheinbar) widersprüchlichen Ergebnissen führen können. Es stellt einen wesentlichen Fortschritt der letzten 20 Jahre dar, daß die Bedeutung methodischer Einflüsse klarer herausgearbeitet wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-78281-7_2 8a6e454cde940bbd5b61f28ebcd3eae2;de;;;1.1.;;;Politik und Ethik im Selbstverständnis der PolitikwissenschaftIm letzten Kapitel habe ich die politikwissenschaftliche Policy-Forschung in vier Kategorien eingeteilt und untersucht, in welcher Beziehung Politikwissenschaft und Praxis stehen, das heißt, welchen praktischen Beitrag verschiedene politikwissenschaftliche Ansätze für das Politikmanagement leisten können. Von den untersuchten Ansätzen weisen vor allem die ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-29065-8_2 7104f2c03480b58acf603a61f6b55613;de;;;1.1.;;;Marken und MarkenemotionenBevor in Kapitel C ein theoretischer Bezugsrahmen entwickelt wird und darauf aufbauend die Modellkonzeption erfolgt, sollen die Untersuchungs- und Analyseobjekte dieser Arbeit – ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-8476-0_2 32294fa94c552cd2209523c4970b1edd;de;;;1.1.;;;Problematische Annahmen und Methodologien psychologischer EmotionsforschungDie Analyse im zweiten Kapitel hat gezeigt, daß eine Reihe von Annahmen, die auf unserem vorwissenschaftlichen Emotionsverständnis beruhen, für ein wissenschaftliches Forschungskonzept problematisch und hinderlich sind und deshalb nicht übemommen werden sollten. Im nun folgenden dritten Kapitel möchte ich zeigen, daß nicht nur die Alltagspsychologie, sondern auch Theorien der aktuellen wissenschaftlichen Emotionsforschung einige Unstimmigkeiten aufweisen. Denn obwohl die Psychologie viele interessante theoretische Ansätze und empirische Ergebnisse zum Thema Emotionen erarbeitet hat, zeigt sich bei genauer Betrachtung doch, daß viele implizite und explizite Annahmen dieser Ansätze und Studien ein nicht unerhebliches Potential an Problemen verschiedenster Art in sich bergen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-91681-5_4 97213da80cda79365293e778abb92138;de;;;1.1.;;;Ökonomik und VerhaltenswissenschaftVersuche, die Ökonomik mit den Verhaltenswissenschaften — bzw. der Psychologie — zu verbinden, zu ergänzen oder von dieser Warte aus zu kritisieren, sind so alt wie die Wissenschaft Ökonomik selbst, nicht zuletzt weil beide Disziplinen ursprünglich eine Einheit bildeten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-01589-6_4 73f363d450997514dbc917f532470e61;de;;;1.1.;;;Führung in Projekten – Nichts ist praktischer als gute TheorienKopsch widmet sich der Arbeitsform Projekt als einer gängigen Organisationsstruktur grenzüberschreitender Zusammenarbeit. Da diese Arbeitsform einerseits immer wichtiger wird, in der praktischen Durchführung aber andererseits zu einer Menge von Reibungspunkten führt und dadurch ihr Erfolg immer wieder gefährdet ist, geht er der Frage nach, ob die Soziologie Instrumente zur Verfügung stellen kann, um Projekte erfolgreicher gestalten zu können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-01262-5_9 fca0d246d273103ff1864a173ca940b0;de;;;1.1.;;;Viel Beweisen, kaum Rechnen? Gestaltungsmerkmale mathematischer Übungsaufgaben im StudiumÜbungsaufgaben erfüllen im Mathematikstudium zentrale Funktionen. Allerdings ist bisher kaum systematisch untersucht, welche Gestaltungsmerkmale sie aufweisen und welche Ziele Dozierende mit ihren Übungsaufgaben verfolgen. In einem kontrastierenden Ansatz wurden 277 Übungsaufgaben aus vier Lehrveranstaltungen hinsichtlich ihrer Gestaltungsmerkmale untersucht und klassifiziert. Ergänzend wurden in einer Interviewstudie die zugehörigen Lernziele der Dozierenden ermittelt und mit den Ergebnissen verglichen. Es zeigt sich, dass es systematische Lücken gibt, sodass sich nicht alle Lernziele gleichermaßen in den Aufgaben spiegeln. Auf Basis der Ergebnisse werden Vorschläge für die Gestaltung von Aufgaben formuliert.;-;-;-;https://link.springer.com/article/10.1007/s00591-020-00274-4 a8536c4aa976a386e200d6a6821040df;de;;;1.1.;;;Prolog: Zur sozialen Konstruktion von Beschäftigungsrollen — die Theorien von Marx, Weber, Durkheim und Parsons vor dem Hintergrund der aktuellen DebatteEine Anfang der 60er Jahre verfasste und viel beachtete Abhandlung von Harold L. Wilensky unter der fragenden Überschrift „The Professionalization of Everyone?“ endete mit der nüchternen Feststellung: „The idea that all occupations move toward professional authority ... is a bit of sociological romance.“;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-80671-0_1 79bccb9ea7c6ae640056f35fb9ba2901;de;;;1.1.;;;Empfang gestörter Signale durch den schwachelektrischen Fisch Gnathonemus petersiiA short description of the transmitting and receiving organ of Gnathonemus petersii is followed by results of experiments carried out to measure the sensitivity of the receptors for external signals (communication) and for distortions of the own electric field (active object location) with and without additive noise. Possible principles of reception are synchronous, asynchronous and threshold receivers, further experiments indicate the threshold receiver to be the most probable structure. Treating the active object location as a problem of statistical communication theory yields for small disturbances to a generalized cross-correlator, which in this case behaves like a threshold receiver.;-;-;-;https://link.springer.com/article/10.1007/BF00272559 b6702d3e7d6b34b736d307c20f614126;de;;;1.1.;;;Zur Erfolgsrelevanz von Teamgröße und Diversität: Eine Analyse am Beispiel von Führungsteams in der LuftfahrtindustrieDie effektive Nutzung von Erfolgspotenzialen bestimmt die Wettbewerbsfähigkeit von Supply Chains und Unternehmen in der Logistikindustrie. Neben klassischen Erfolgsbereichen wie beispielsweise Kosten und Flexibilität (Kersten, von See, & Wichmann, 2015, Kersten & Singer, 2011), müssen Unternehmen – insbesondere mit Blick auf die Herausforderungen der Digitalisierung (Kersten, von See, & Indorf, 2018) – Risiken kontrollieren (Kersten, Schröder, Feser, & Klotzbach, 2013, Kersten, Schröder, Singer, & Feser, 2012), kontinuierliche Verbesserungen realisieren (Kersten & Ehni, 2015), ihre (Geschäfts-)Prozesse optimieren (Kersten, Klotzbach, & Petersen, 2014) und Innovationen generieren (Kersten, Seidel, & Wagenstetter, 2012). All diesen Herausforderungen stehen auch die Führungsteams in der Luftfahrtindustrie gegenüber.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-25412-4_35 dd65e45e5503b3d53aca16c73381e87e;de;;;1.1.;;;Anforderungen und Modelle des QualitätsmanagementsIn diesem Kapitel geht es um die Auseinandersetzung mit Anforderungen, die an das (einrichtungsinterne) Qualitätsmanagement gestellt werden. In ihrer einfachsten Form werden Anforderungen als Kriterienlisten oder Anforderungskataloge formuliert. Im ersten Teil dieses Kapitels werden die von der Gesetzgebung bzw. untergesetzlichen Normsetzung für einzelne Versorgungsbereiche definierten Anforderungen in ihren Grundzügen vorgestellt. Komplexere, inhalts- und prozesstheoretische Qualitätsmanagementmodelle mit hoher Relevanz für das Gesundheitswesen werden dann im zweiten Teil dieses Kapitels behandelt und vergleichend gegenübergestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-25913-6_4 31fa0d0cdab947a4c6ed48a61a7f7b18;de;;;1.1.;;;Computerunterstützte Bestimmung des Schweregrades bei chronischer BronchitisIm Auftrag und in Zusammenarbeit mit der Bundesversicherungsanstalt für Angestellte (BfA), Berlin, wurde ein Verfahren zur computerunterstützten Bestimmung des Schweregrades bei chronischer Bronchitis erarbeitet. Die standardisierte Klassifizierung erfolgte unter Berücksichtigung der medizinischen Möglichkeiten in den Rehabilitationskliniken der BfA. Unsere Schweregradbestimmung gilt für die erwerbsfähige Bevölkerung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-81404-4_61 75c25c8228b19e85a53ff9faf8315d05;de;;;1.1.;;;SYMBIOS, ein PC-gestütztes Dokumentations- und Kontrollsystem für die experimentelle Medizin in SYMPHONY (R)Das SYMBIOS-System wurde zur Unterstützung der Planung, Durchführung, Verlaufskon­trolle und Dokumentation klinisch-pharmakologischer Studien (Phase I der Präparate­entwicklungen) aufgebaut und entstand auf Basis von Erfahrungen aus den Notwendig­keiten des „Studienalltags“ und den besonderen Anforderungen der Phase-I-Studien. Wesentlich ist dabei neben präziser Planung, die vor allem reibungslose Meß- und Beobachtungsabläufe ermöglichen muß, in der Durchführungsphase die unverzügliche Datenaufbereitung und deskriptive Übersicht, um für die Verlaufskontrolle und ggf. notwendige Entscheidungen (z.B. Abbruch) eine ausreichende Wissensbasis zur Verfü­gung zu haben. Die Dokumentation, die allein die Rekonstruktion der Studie erlaubt, muß den wissenschaftlichen wie -in der Industrie- registrierungsbehördlichen Anforderungen gewachsen sein und in Klarheit, Übersichtlichkeit und Einheitlichkeit einem hohen Standard gerecht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82852-2_124 aa0fa2b775ecbe1212530aa322aaf7e4;de;;;1.1.;;;Die Rolle von Farbinformationen in Theorien der kognitiven Verarbeitung von ObjektinformationenGegenstand dieses Teils der vorliegenden Arbeit sind Theorien und Modellvorstellungen zum Erkennen und Benennen von Objekten, in denen sich vor allem mit den an die Erstellung bzw. Aktivierung einer internen Objektrepräsentation anschließenden Verarbeitungsprozessen auseinandergesetzt wird. Da man sich in diesem Forschungsbereich nur selten speziell mit der Rolle von Farbinformationen bei der kognitiven Verarbeitung von Objektinformationen beschäftigt, erfolgt eine allgemeine Einführung in die Diskussion, der an geeigneter Stelle Erläuterungen bezüglich der konzeptuellen Verarbeitung von Farbinformationen beigefügt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-95433-6_4 a749213cb02745ba490761408f41859a;de;;;1.1.;;;Methodik, Politikdidaktik, politische BildungIn einer neueren Schrift zum Diskussionsstand über die politische Bildung heißt es: „Bei der Sichtung einschlägiger Buchveröffentlichungen zur Didaktik des politischen Unterrichts der letzten Jahre fällt auf, daß sich nur relativ wenige Autoren den Fragen der Methoden ... als zentralen Untersuchungsgegenständen widmeten.“;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-89371-0_1 2bd559c1819c1c0f74d248e91ccfacdf;de;;;1.1.;;;Problemlösen als kulturelles Phänomen oder: ist es egal, welche Versuchspersonen wir untersuchen?Das Nachdenken über die empirische Basis der Forschung scheint in der Kognitionswissenschaft keine besonders hohe Priorität zu besitzen. Von 51 Artikeln in den aktuellen Heften der Zeitschriften „Cognitive Science“ (Band 19, 20) und „Kognitionswissenschaft“ (Band 5, 6) berichten lediglich 17 eigene empirische Untersuchungen, davon sind zwölf Arbeiten gruppenstatistisch angelegt, elf berichten die Daten von Studenten (meist der Psychologie, eine Arbeit ohne Angabe), von fünf Einzelfallanalysen basieren immerhin noch zwei auf Beobachtungen an Studenten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-85180-2_10 728cbabd486ebca90c85b77ae484b1c9;de;;;1.1.;;;Erfahrung beim Einsatz eines bundeseinheitlichen Softwaresystems im Rahmen der Krankenhausverwaltung eines großen UniversitätsklinikumsDurch das Krankenhausfinanzierungsgesetz in Verbindung mit der Bundes-pflegesatzverordnung sind die Krankenhäuser in der Bundesrepublik Deutschland verpflichtet, zum 1.1.1978 die kaufmännische Buchführung anzuwenden. Diese Verpflichtung beinhaltet neben der eigentlichen Finanzbuchhaltung -also die Debitoren-und Kreditorenbuchhaltung -auch die Betriebsabrechnung, die Gewinn-und Verlustrechnung, die Kostenstellen-, Kostenarten-, Kostenträger-und innerbetriebliche Leistungsverrechnung sowie die Anlagen-und Lagerbuchhaltung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-81404-4_29 3edcd87316def67c415f3a1f897af2f6;de;;;1.1.;;;Computergestützte Diagnose bei der oberen GastrointestinalblutungComputerunterstützte Diagnosesysteme sind heute auf vielen Gebieten der Medizin etabliert [21]. Dabei liegt der Vorteil dieser Systeme nicht in der Erstellung von den Arzt ersetzenden Computerdiagnosen, sondern in der Bereitstellung eines sinnvollen Hilfsmittels zur Verbesserung der Diagnosestellung durch den Kliniker. Unter dem Einfluß computerunterstützter Diagnosesysteme hat sich dabei die traditionelle Betrachtungsweise von Diagnose als intuitiver Kunst — basierend auf persönlicher Erfahrung und Textbuchwissen — geändert in eine mehr statistische Betrachtungsweise von Diagnose — basierend auf Wahrscheinlichkeiten [5]. Dadurch erhält die Zuverlässigkeit, d.h. die Verlässlichkeit der Zahlenwerte der diagnostischen Wahrscheinlichkeiten, einen erheblich größeren Stellenwert [11,12]. Für den Bereich der oberen Gastrointestinalblutung haben wir ein computerunterstütztes Diagnosesystem entwickelt, ausgewertet und auf diesen Aspekt hin untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82158-5_31 b04a3e6f7578beef20caf04faf7557c0;de;;;1.1.;;;Soziologie als Theorie sozialer SystemeAls Fach der Lehre und Forschung hat die Soziologie sich einrichten können. Als wissenschaftliche Disziplin ist sie noch ziemlich undiszipliniert. Gewisse „Trends“ lassen sich in Zweitanalysen vorliegender Publikationen herausheben. Aber es fehlt an einer übergreifenden theoretischen Gesamtkonzeption, die versuchte, die Einheit des Faches widerzuspiegeln. Selbst Ansprüche in dieser Richtung werden nur von wenigen Forschern und nur zögernd angemeldet — und dann bleibt es zumeist bei der Anmeldung. Lediglich die Systemtheorie, die behauptet, Soziologie sei die Wissenschaft von den sozialen Systemen — dies und nichts anderes —, begann, ihre Auffassung auszuarbeiten, und erwarb damit eine kritikfähige Gestalt. Sie zog damit auch Kritik auf sich, sehr viel berechtigte Kritik, die ihren Universalitätsanspruch in Frage stellt. Diese Kritik an der vorliegenden Konzeption, vor allem also die Kritik am Werk von ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-96984-2_6 6d94c636f3db848d5811498bff54597a;de;;;1.1.;;;Finanzierungstheoretische Entwicklungstendenzen und PerspektivenTechnologieorientierte Unternehmensgründungen sind in innovativen, noch instabilen Branchen tätige Firmen, die im Gegensatz zu etablierten, auf klassischen Märkten agierenden Unternehmen keinen langjährigen „track-record“ aufweisen können. Sie zeichnen sich durch ein stark ausgeprägtes Chancen/Risiko-Verhältnis aus. Da der wahre wirtschaftliche Wert dieser Gesellschaften maßgeblich auf ihren Produktideen basiert, verkörpern Unternehmensgründer und Know-how-Träger eines der wichtigsten Assets im Unternehmen. Regelmäßig sind die Gründer auch alleinige Eigentümer dieser kleinen High-Tech Firmen, halten jedoch zumindest die Mehrheit der Unternehmensanteile. Für die hier getroffene Abgrenzung ist entscheidend, daß es im Unternehmen nicht zur Separation von Entscheidungskompetenz und Residualansprüchen kommt — mithin auf die Spezialisierung der beiden Eigentumsfunktionen verzichtet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-81569-9_2 2a7ccba6ffb8419847d77fbf1d32248d;de;;;1.1.;;;Sehfunktion und BilddarbietungThis paper attempts to survey some important facets of visual function as related to optical and electro-optical image display. It is demonstrated that there are many problems associated with the observer-display interface which can, however, be approached from the present understanding of early image processing carried out by the visual system.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82572-9_6 2d2b50f361a3d855311e8270c30d6b2e;de;;;1.1.;;;Know-how und Know-why: Plädoyer für die Stärkung der Theorievermittlung im Studium der LandschaftsarchitekturStärker denn je steht das Studium der Landschaftsarchitektur heute im Spannungsfeld zwischen den Anforderungen einer akademischen Disziplin und einer bauenden Profession. Der Stellenwert der Theorievermittlung innerhalb dieses Studiums bleibt vage, und Theorie und Entwurf werden in der Regel als getrennte Sphären behandelt und sehr unterschiedlich gewichtet – mit großem Abstand zugunsten des Entwerfens. Im Beitrag wird diskutiert, warum die Theorievermittlung einen unverzichtbaren Bestandteil der universitären Ausbildung von Landschaftsarchitekten darstellt. Die Argumentation gründet auf drei Pfeilern: der erreichten Komplexität und hohen Dynamik der gesellschaftlichen Rahmenbedingungen heutiger Planungspraxis, wesentlichen Merkmalen der Disziplin und der besonderen Handlungsweise von Landschaftsarchitekten sowie der genuinen Aufgabe der Universitäten, ihre Absolventen zum Promovieren zu befähigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-18838-2_3 f0515149e8405daff2e60dd7d178f743;de;;;1.1.;;;Wertrationalität und das Modell der Frame-SelektionNach Max Weber ist wertrationales Handeln dadurch gekennzeichnet, dass ein Akteur sein Handeln konsequent planvoll an bewusst herausgearbeiteten Werten ausrichtet, ohne andere Folgen in Betracht zu ziehen. Im Beitrag wird dieser Handlungstyp im Rahmen des Modells der Frame-Selektion rekonstruiert. Das Modell erweist sich als geeignet, Webers Vorstellungen einer Wertreflexion und rationalen Eigenwertorientierung als Spezialfälle einer umfassenderen Handlungstheorie zu integrieren. Dadurch werden auch Verbindungen zu den Arbeiten anderer Theoretiker wie Raymond Boudon oder Jürgen Habermas deutlich. Ausgehend davon wird argumentiert, dass das Modell der Frame-Selektion dazu verwendet werden kann, Webers makrosoziologische Konzepte der Wertsphären und Lebensordnungen handlungstheoretisch zu fundieren. Der Beitrag schließt mit Anmerkungen zum Verhältnis zwischen dem weberianischen Forschungsprogramm und dem Ansatz der erklärenden Soziologie.;-;-;-;https://link.springer.com/article/10.1007/s11577-007-0027-9 24c03c2464094ace3b3fb541b876a676;de;;;1.1.;;;Der Einsatz von Mikrocomputern im Unterricht „Biomathematik für Mediziner“ und „Medizinische Informatik“ als Teilgebiet des ÖkologiekursesDie Ausstattung von Kliniken und Arztpraxen mit Mikrocomputern ist in den letzten Jahren nahezu sprunghaft vorangeschritten. In wenigen Jahren wird es nur noch vereinzelt Ärzte geben, die nicht selbst unmittelbaren Kontakt zur EDV haben. Bevor die Generation derjenigen das Medizinische Staatsexamen ablegt, die bereits auf der Schule den Umgang mit Computern erlernt haben, ist es erforderlich, EDV bezogene Ausbildung in das medizinische Curriculum zu integrieren. Hierfür bieten sich die auf unserem Fachgebiet durchzuführenden praktischen Übungen “Biomathematik für Mediziner” und “Medizinische Informatik” im Rahmen des ökologischen Kurses an.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83520-9_64 059a6659f98a110c6f0b1d8b2a100dc9;de;;;1.1.;;;Die multipersonelle Konstruktion von WirklichkeitAuf dem Weg zu einer Vernetzung von metatheoretisch verankerten, theoretisch fundierten Aussagen des kontextuellen Rahmens multipersoneller Entscheidungsprozesse zu einer kohärenten Entscheidungsmethodik konnte hergeleitet werden, daß in einer Ist-Analyse im Spannungsfeld von auslösenden und ausgelösten Prozessen eine infinite Entität (= Problemsituation) in eine finite Gestalt (= Modell) transformiert wird, die letztlich eine Selbstbeschreibung des Erkenntnissubjektes darstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-89173-0_10 f0cbc5ead63b90bab8118fc14c0e8eba;de;;;1.1.;;;Analyse bestehender Ansätze der UnternehmensmodellierungDie Entwicklung des Informationsmodells, welches die Aufgabe hat, Informationen für die systematische Transformation von Unternehmen zu liefern, ist nur dann sinnvoll, wenn bestehende Ansätze der Unternehmensmodellierung und von diesen entwickelte Unternehmensmodelle dieses Ziel nicht sinnvoll erfüllen können. Im Folgenden werden daher bestehende Ansätze auf ihre Anwendbarkeit untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-00676-1_3 9a4a60bf50760cd96f8d6956f753ef94;de;;;1.1.;;;Software-definierte Plattformen: Eigenschaften, Integrationsanforderungen und Praxiserfahrungen in produzierenden UnternehmenDatenbasierte Services rücken durch die Vernetzung zunehmend in den Fokus von Unternehmen. Für produzierende Unternehmen jeder Größe ist es immanent, die eigenen Daten stärker zu nutzen. Durch ein historisches Wachstum des Unternehmens sind IT-Lösungen oftmals über das Unternehmen verteilt und Daten werden mehrfach gehalten. Mithilfe des Konzepts eines digitalen Schattens können die aufgezeigten Herausforderungen gelöst werden. Dessen Umsetzung erfolgt über software-definierte Plattformen. Diese ermöglichen ein Abbild der relevanten Unternehmensdaten und schaffen Transparenz über aktuelle und vergangene Ereignisse. Unter Nutzung von Datenanalyseverfahren und Visualisierungssystemen tragen sie zur Entscheidungsunterstützung im Unternehmen bei.;-;-;-;https://link.springer.com/article/10.1365/s40702-017-0386-2 426cbb7a80f806eaffbe97e57c54ddf5;de;;;1.1.;;;Die Einstellung der Bürgerinnen und Bürger zur öffentlichen Verwaltung aus theoretischer PerspektiveAls zu erklärende Variable steht die Akzeptanz mitsamt den Einstellungen der Bürger gegenüber der Verwaltung im Mittelpunkt des Forschungsinteresses dieser Arbeit. Häufig wird in politikwissenschaftlichen bzw. allgemein sozialwissenschaftlichen Publikationen zur Einstellung jedoch nicht näher auf das dem Begriff zu Grunde liegende Konzept eingegangen: Einstellung wird dann beispielsweise mit dem Antwortverhalten in standardisierten Fragebögen gleichgesetzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-28376-6_4 9d93c2382c0044ded5ebc2963c4c61bc;de;;;1.1.;;;Expertise und GedächtnisZu den stabilsten Befunde der kognitiven Psychologie gehören die außergewöhnlichen Gedächtnisleistungen von Experten für Informationen, die aus ihrem Expertisebereich stammen, selbst wenn diese Informationen nur für sehr kurze Zeit, beispielsweise für ein paar Sekunden, dargeboten werden. Dies ist zwar eine triviale Feststellung, wenn es bei der zu trainierenden Fähigkeit um das Gedächtnis selbst geht, wie etwa bei der Anwendung von Mnemotechniken. Doch selbst dann, wenn beim Expertiseerwerb keine Verbesserung des Kurzzeitgedächtnisses angestrebt wird, wie beispielsweise beim Spielen von Regelspielen oder beim Computerprogrammieren, sind solche außergewöhnlichen Gedächtnisleistungen zu beobachten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-12111-4_4 01c53850b8f68859364fac44a1311981;de;;;1.1.;;;Zeitstrukturen, Zeiterfahrung. Kritische Diskussion theoretischer KonzepteIn der folgenden Auseinandersetzung mit sozialwissenschaftlichen Theorien über Zeit werden ihre zentralen Thesen herausgearbeitet, um in der Konfrontation mit Gegenargumenten ihre Leistungen und Defizite bei der Erklärung von Zeit zu verstehen. Die Diskussion mündet in eine erste zusammenfassende, systematisierende und ergänzende Formulierung eigener Thesen über die Alltagsorganisation sozialer Zeit von Individuen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-11845-9_3 d9b40a7bd620d6b52db1d2977c9293ef;de;;;1.1.;;;Erfolgsfaktoren der ApplikationsintegrationIn this paper success factors for application integration are identified. Furthermore, the factors are confirmed using structural equation modeling. Success is measured using five goal indicators: quality of process support, business satisfaction, application integration costs, architectural flexibility and time-to-market. All factors discussed — architecture management, business-IT alignment, organization of integration, integration methodology, service oriented architecture, consolidation of applications, standardization and technical quality of integration infrastructures — show positive impact on application integration success. Since no dominant factor could be identified, a balanced implementation of all success factors is recommended.;-;-;-;https://link.springer.com/article/10.1007/BF03254913 bd3b4dc8aea8ac1e0cdde06a9a2ae270;de;;;1.1.;;;Ansatzmöglichkeiten zur Prognose von Rohstoffpreisen und Devisenkursen zum Zwecke des HedgingsNeben der Wahl der richtigen Hedging-Instrumente zur Sicherung gegen nachteilige Wirkungen von Rohstoffpreis- und Devisenkursveränderungen ist die Entscheidung über den Einsatzzeitpunkt dieser Instrumente von zentraler Bedeutung für den Erfolg einer Sicherungsmaßnahme. Deshalb sollte vor der Entscheidung über die Durchführung eines Hedgings zunächst die künftige Preis- und Kursentwicklung prognostiziert werden. Daran anschließend läßt sich auf Basis dieser Prognose eine Entscheidung über die Notwendigkeit einer Sicherung treffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-46921-3_4 3d289652e3bfb2d161095a94a39d0f87;de;;;1.1.;;;Typologisierung komplexer Dienstleistungsbündel zur Operationalisierung der TeilleistungswahrnehmungDie mit der Kennzeichnung touristischer Dienstleistungsbündel dargelegte Besonderheit der der erstellungsorientierten Austauschbeziehungen unterschiedlicher Anbieter und damit die Notwendigkeit der Teilleistungsintegration verdeutlicht,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-81662-7_2 daff74cba4a9de44b0d0443edbd86904;de;;;1.1.;;;Methodologische AspekteDie Aufgabenstellung dieser Arbeit ist es, den diachronen Anstieg der Scheidungszahlen im Laufe der letzten Jahrzehnte zu erklären. Im vorangehenden Kapitel wurden ausführlich die bestehenden theoretischen Ansätze zur Erklärung der ehelichen Instabilität und der Scheidung vorgestellt. Dabei wurden verschiedene Kritikpunkte der bisherigen Überlegungen — und damit auch Forderungen an die hier zu leistende Erklärung — deutlich. Einerseits fehlt den eher (struktur-) funktionalistischen Ansätzen die theoretisch überzeugende Anbindung ihrer Überlegungen an einen erklärenden Mechanismus. Insofern läßt sich von einer wirklichen Erklärung durch funktionali-stische Argumente gar nicht sprechen. Andererseits liefern mikrotheoretisch fundierte Arbeiten zwar einen nomologischen Kern, hier ist jedoch die Anbindung des Theoriekerns an makrostrukturelle, soziologische Größen über — auch empirisch prüfbare — Brückenhypothesen noch relativ oberflächlich. Zudem stellt sich hier die Frage, inwieweit der mikrotheoretische Kern in der Lage ist, als Basis der Erklärung — gerade im Bereich der Familie — zu dienen. Oben wurde bereits daraufhingewiesen, daß ein rein neoklassisches Modell eigentlich davon ausgehen müßte, daß Beziehungen nur kurz, erratisch und wechselhaft sind. Dies entspricht jedoch — zumindest weitgehend — nicht der empirischen Realität.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08936-0_4 7f255c1baed2863d8d8eac53d16484b5;de;;;1.1.;;;Die Ergebnisse der empirischen Analyse zum SicherheitsverhaltenBevor die unter Kap. II.12. diskutierten Hypothesen auf ihre empirische Relevanz überprüft werden können, sind zunächst Voruntersuchungen notwendig. Diese sind einerseits methodischer Art und durch LISREL als Auswertungsverfahren begründet. Andererseits werden erste grundlegende verhaltenswissenschaftliche Untersuchungen durchgeführt, die die im Anschluß daran vorgesehene Analyse und Interpretation der Hypothesen unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-48206-9_3 35b942798057b09df568ca0e6db5f1ac;de;;;1.1.;;;Statistische überlegungen über den Erforderlichen Umfang einer Studie zum Vergleich Zweier Früherkennungstests. Numerische Resultate für Schnelltests auf Occultes Blut im StuhlWir gehen davon aus, daß für die Früherkennung eines Karzinoms zwei alternative Testverfahren zur Verfügung stehen. Im Rahmen eines Feldversuches sollen bei einer Gruppe asymptomatischer Personen beide Testverfahren angewandt werden (intraindividueller Vergleich). Bei allen Personen mit mindestens einem positiven Testergebnis erfolge eine Abklärungsdiagnostik, welche den wahren Zustand der Person feststellt. Auf der Grundlage der gewonnenen Daten sollen die beiden Testverfahren statistisch verglichen werden. Dieser Beitrag beschäftigt sich mit der Frage des erforderlichen Umfanges einer solchen Studie. Konkrete numerische Ergebnisse wurden für das Beispiel des Schnelltests auf okkultes Blut im Stuhl errechnet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83520-9_31 c4a818c6761ea380810ac6430c22ed93;de;;;1.1.;;;Empfängerbezogene Perspektive: Wirkungen und Wirkungsmöglichkeiten der Werbebotschaft auf die VersicherungskonsumentenAufgrund der verfolgten Beeinflussungsabsicht soll die Werbebotschaft idealerweise so gestaltet werden, dass sie neben der Ingangsetzung kognitiver Informationsverarbeitungsprozesse auch die Modifikation psychischer Variablen in Gang setzt. Die Werbebotschaft steht somit im Zentrum werbestrategischen Handelns. Welche Wirkung Werbung nun tatsächlich erzielen kann, kann nur untersucht werden, wenn zunächst die Ei;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-97848-6_6 32927ebd00f74bf3e901df0eb2201d20;de;;;1.1.;;;Struktur der medizinischen BasisdatenDie medizinische Basisdokumentation kann sich nicht mit der Aufzählung der medizinischen Basisdaten eines Patienten begnügen. Sie muß zugleich die Relationen, die zwischen und innerhalb der medizinischen Daten bestehen, berücksichtigen. Dies bedeutet für die Basisdokumentation eine erhebliche zusätzliche Belastung bei der Erfassung, Speicherung und Wiedergewinnung der Daten, wobei die gängigen Datenbanksysteme der komplizierten Struktur der medizinischen Basisdaten nur mit erheblichem Zusatzaufwand seitens des Benutzers gerecht werden. Die Vorteile des Einbezugs der Relationen in die Basisdokumentation liegen in verbesserter Datenprüfung, verständlicherer Ausgabe der Daten eines Patienten und gezielterer Auswertungsmöglichkeit bei multivariater Betrachtungsweise.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82158-5_37 a6fcf3aae08cbddb7a0473dcc41aed16;de;;;1.1.;;;Einführung in die Themen- und ProblemstellungVor dem Hintergrund eines zunehmenden Verdrängungswettbewerbs in nationalen Märkten, fortschreitender Homogenisierung der Produkte, wachsender internationaler und globaler Massenmärkte sowie der gestiegenen Ansprüche der Kunden an Produkte, müssen Unternehmen neue Möglichkeiten finden, wie sie zukünftig auf den Güter- und Dienstleistungsmärkten erfolgreich sein können. Die Identifizierung und Bearbeitung von Marktnischen wird dabei oft als Allheilmittel in gesättigten Märkten angesehen. Dies macht sich auch in der steigenden Anzahl an Fachveröffentlichungen zum Thema Nischenmarketing bemerkbar. Hervorzuheben sind dabei Stahr (1995);-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08306-1_1 26514e439a2f9e96261037cc31ecc040;de;;;1.1.;;;Verhaltenswissenschaftliche Fundierung der UntersuchungUm im Wettbewerb bestehen zu können, müssen Unternehmen ein in den Augen der Konsumenten überlegenes Leistungsangebot entwickeln. „Wettbewerb ist somit ein Suchprozess, der darauf gerichtet ist, durch Generierung neuer Lösungen vorhandene oder latente Bedürfnisse umfassender (besser, preisgünstiger, schneller, nachhaltiger) zu befriedigen (Effektivitätsposition), um daraus einen eigenen ökonomischen Vorteil zu ziehen (Effizienzposition). Ein Unternehmen, das in der Lage ist, beide Positionen gleichzeitig in einem Geschäftsfeld zu verwirklichen, verfügt über einen komparativen Konkur-renzvorteil (KKV) in diesem Geschäftsfeld.“ Ein Unternehmen steht im Rahmen des strategischen Marketing, das hier nach Backhaus, Schneider (2007) als das Management von KKV verstanden werden soll, also vor der Aufgabe, eine Balance zwischen der „Nachfragerseite“ (Effektivität) und der „Anbieterseite“ (Effizienz) zu schaffen. Backhaus, Voeth (2007) sehen in der Nachfrager- bzw. Kundenorientierung eine Vorbedingung für die Erzielung von Gewinnen. In (verhaltenswissenschaftlichen) Studien wird daher immer wieder die Kundenperspektive näher beleuchtet und analysiert, wie bestimmte Marketing-Maßnahmen auf die Wahrnehmung von Konsumenten wirken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-8035-9_3 d9df8e6a3ea1d301606575435c540921;de;;;1.1.;;;Konzentration auf das Kerngeschäft: Ökonomisches RationalDie Strategie der Konzentration auf das Kerngeschäft wird im Rahmen der vorliegenden Arbeit sowohl aufgrund ihrer empirischen Ergebnisse in Deutschland als auch aufgrund ihres ökonomischen Rationals hin untersucht. Zur Überprüfung des ökonomischen Rationals werden im folgenden drei theoretische Konzepte herangezogen, vor deren Hintergrund eine strategische Beurteilung und Einordnung von Kerngeschäftsstrategien vorgenommen wird. Diese sind neben dem aus dem Shareholder Value-Konzept hervorgegangenen Corporate Focus die Principal-Agent-Theorie und die Rendite-Risiko-Konzepte der modernen Kapitalmarkttheorie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08002-2_3 c083e7d1b22794e16c10a77b1fa2d008;de;;;1.1.;;;Psychotherapeutische Behandlungsansätze bei PsychosenZur Behandlung von psychotischen Störungen wird in vielen Leitlinien – neben der medikamentösen Therapie – Psychotherapie empfohlen. In der aktuellen Leitlinie der Deutschen Gesellschaft für Psychologie wurde die Wirksamkeit folgender psychotherapeutischer Verfahren bewertet: psychodynamische Therapie, Gesprächspsychotherapie, kognitive Verhaltenstherapie (KVT, einschließlich der Dritte-Welle-Verfahren), Psychoedukation, verschiedene Fertigkeitentrainings und Familieninterventionen. Alle werden im Folgenden vorgestellt, und ihre empirische Evidenz im Hinblick auf verschiedene Zielvariablen wird beleuchtet. Therapieverfahren mit überzeugender Evidenzbasis sind die KVT zur Reduktion der Symptomatik und psychoedukative Familieninterventionen mit Fertigkeitentrainings zur Verringerung der Rückfallwahrscheinlichkeit. Konkrete Empfehlungen zur Indikationsstellung werden abgeleitet und das therapeutische Vorgehen anhand von Beispielen konkretisiert.;-;-;-;https://link.springer.com/article/10.1007/s00278-018-0293-1 8ac2707bcee5dd957bc1bc1d79a26808;de;;;1.1.;;;Theoretische Grundlagen und empirischer HintergrundIn diesem Teil der Arbeit werden theoretische Grundlagen und Befunde aus Untersuchungen zur inklusiven Beschulung fokussiert. Dabei werden neben einem historischen Abriss zum Umgang mit Menschen mit sonderpädagogischem Förderbedarf verschiedene Paradigmen von der Extinktion zur Inklusion dargestellt. Zum einen wird der Frage nachgegangen, wie und aus welchen Gründen sich der inklusive Gedanke in Schulen etabliert hat, zum anderen sollen die Bedeutung und Rolle von Lehrpersonen für den inklusiven Unterricht herausgearbeitet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-26175-7_2 6914d5d2792c5e3a57a17031ccff6fbb;de;;;1.1.;;;Umsetzungserfahrungen gesetzlicher Krankenkassen mit der Balanced Scorecard: Ein Ergebnisbericht der Gründe, Vorgehensweise und ProblemeDie Methode der Balanced Scorecard (BSC) findet großen Anklang im Management von Unternehmen und neuerdings auch bei gesetzlichen Krankenkassen. Für letztere fehlen bislang empirische Untersuchungen zu deren BSC-Umsetzungsprozess. Der vorliegende Beitrag untersucht auf Basis von 13 leitfadengestützten Expertengesprächen die Gründe, Vorgehensweise und Probleme der BSC-Einführung in gesetzlichen Krankenkassen. Ferner wird ein in der Literatur gängiges Modell zur BSC-Implementierung einer Überprüfung unterzogen. Die Ergebnisse zeigen kassenspezifische Abweichungen und Besonderheiten der Gründe, Vorgehensweise und Probleme der BSC-Implementierung, weisen aber auch Überschneidungen mit anderen Modellen bzw. Studien auf. Die vorliegende Studie kann als Leitfaden für Krankenversicherungen und weitere Organisationen, die die BSC einführen wollen, dienen.;-;-;-;https://link.springer.com/article/10.1007/BF03353539 8e14168f2a0d31108bcc990c5868d234;de;;;1.1.;;;Empirische Untersuchung der Bewertungsergebnisse des Black-Scholes-Modells für DAX-Optionen bei Verwendung verschiedener VolatilitätsschätzerIm folgenden werden die Bewertungsergebnisse des Black-Scholes-Modells bei Verwendung verschiedener Volatilitätsschätzer mit empirisch beobachteten Abschlußkursen von DTB-DAX-Optionen verglichen. Ziel ist es, dadurch besonders treffsichere Volatilitätsschätzer zu identifizieren. Eine solche Untersuchung ist in der Literatur bisher nicht dokumentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08196-8_3 3bf4d40fc3a0eb29127a4c49d82c75d1;de;;;1.1.;;;Empirische Befunde zum Einfluss persönlicher und medial vermittelter ErfahrungIm vorherigen Kapitel wurde aufgezeigt, was persönliche und medial vermittelte Erfahrungen begrenzt und welche möglichen Formen der Überschneidungen dieser Erfahrungen es gibt. In der kommunikationswissenschaftlichen Forschung wurde persönliche Erfahrung vor allem als intervenierende Variable im Medienwirkungsprozess mit einbezogen. Dies betrifft die Erforschung von Agenda-Setting, Kultivierungsforschung und der Wissenskluft-Hypothese.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-15579-7_3 fca0b20634529ee09b83cef641263aa6;de;;;1.1.;;;Adaptive Nachbarschaftsschätzer bei Zuordnungsregeln mit qualitativen DatenZuordnungsregeln im Bereich qualitativer Daten werden hauptsächlich unter Restriktionen an die zugrundeliegenden Verteilungen konstruiert (z.B. Log-Lineares-Modell, Lancaster-Modell). Vielfach wird auch für diese Problemstellung die lineare Dis- kriminanz-Funktion benutzt. Derartige Restriktionen besitzen den Nachteil, daß ein Einfluß auf die Zuordnungsregeln nur über die Voraussetzungen an die Wahrscheinlichkeitsverteilung (z.B. Log-Lineares-Modell 2. Ordnung oder multivariate Normalverteitung) möglich ist. Die sich hiermit ergebenden Zuordnungsregeln sind im allgemeinen nicht konsistent.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82158-5_32 7ca34fe9f57777335c1a68968ae3bdb4;de;;;1.1.;;;Machine Language TranslationMit der maschinellen Sprachübersetzung (MT) bezweckt man eine massenweise Hochgeschwindigkeitsübersetzung von einer Sprache in eine oder mehrere andere Sprachen. Die gegenwärtigen, in vielen Teilen der Welt feststellbaren Bemühungen, den Übersetzungsvorgang zu mechanisieren, sind das natürliche Ergebnis des Zusammentreffens einer hochentwickelten Technologie und einer weit vorgeschrittenen Sprachwissenschaft. Der Enderfolg wird von der Zusammenarbeit beider abhängen, doch ist in diesem frühen Stadium die Aufgabe in erster Linie eine sprachwissenschaftliche. Sobald die sprachwissenschaftlichen Probleme einmal gelöst sind, werden die Ingenieure wissen, wie die betreffenden technischen Probleme zu lösen sind. MT wird für die menschliche Kultur und Zivilisation von noch größerer Bedeutung sein als die Erfindung der Buchdruckerkunst, die zwar die Verbreitung von Wissen unter den Mitgliedern derselben Sprachgemeinschaft ungemein beschleunigte, sich aber innerhalb der Sprachgrenzen hielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-96260-7_11 b4281442180e9a14e084f8b8c29a27f1;de;;;1.1.;;;Naturverständnis und MenschenbildWir sind am Ende unserer Reise durch die Grundprobleme der Philosophie des Geistes, das Methodenarsenal der Naturwissenschaften, die Befunde, Experimente und mechanistischen Erklärungen der Hirnforschung sowie die Erklärungsleistungen und Erklärungslücken der kognitiven Neurowissenschaft angelangt. Zu welchen Einsichten hat uns diese Reise geführt? Zwingen uns die Ergebnisse der neueren Hirnforschung dazu, unser Selbstverständnis als vernünftige Lebewesen mit einem freien Willen komplett zu revidieren?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25098-9_8 86a54f2f845073e098ce0bb755e69e46;de;;;1.1.;;;Mitarbeiter-Performance im Servicekontakt —'Modellierung und Messung mittels Mystery Shopping im TourismusVor dem Hintergrund eines dynamischen und sich zunehmend verschärfenden Wettbewerbs im Dienstleistungssektor werden Markt- und Kundenorientierung verstärkt als zentrale Erfolgsfaktoren im Wettbewerb betrachtet (Hermann 1995, S. 237ff). Demzufolge herrscht sowohl in der Theorie als auch in der Praxis weitgehend Einigkeit darüber, dass die Qualität des Leistungsangebotes und die Kundenzufriedenheit den Erfolg eines Unternehmens nachhaltig beeinflussen (Matzler/Stahl 2000, S. 627).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-9105-8_9 de1f79879dc4ca2a8eadc42d9ae3bd1a;de;;;1.1.;;;Die Verwendung von Gütertestinformationen im KonsumentenbereichDie Bereitstellung zuverlässiger Preis- und Qualitätsinformationen ist im Konsumgüterbereich immer dringlicher geworden. Die Vielfalt der angebotenen Güter, die steigende Bedeutung technisch komplexer Produkte, die häufige und ständige Produktänderung, die zumeist unterschiedlichen Preise bei vergleichbaren Angeboten und die eingeschränkte Beratungsfunktion beim Selbstbedienungseinzelhandel machen es dem Verbraucher zunehmend schwer, eine ausreichende ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-85815-3_4 cd7fa766e06ead1d0ec0e968fdaddab1;de;;;1.1.;;;Informationsaustausch und StrukturevolutionNachdem im Abschnitt 3.1.1 die Relevanz des Informationsverarbeitungsdenkens in der Management und Organisationswissenschaft aufgezeigt und in Abschnitt 3.2 der mehrdimensionale Informationsfluss innerhalb der Matrixstruktur erlautert wurde, soil im nachfolgend dargestellten Forschungsschwerpunkt zum einen der Informationsfluss zwischen den oberen drei Hierarchieebenen in Bezug auf Art und Intensitat spezifiziert werden. Zum anderen erfolgteine Untersuchung der Strukturevolution von Matrixstrukturen. Diesbeziiglich wird der Wirkungszusammenhang zwischen der Intensitat des Informationssaustausches und der Ausbildung einer Matrixstruktur untersucht;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-9271-6_8 0e2b8d9341eab91b69155942ced4c583;de;;;1.1.;;;System und InformationDie Informationstheorie ist als Technik des Verschlüsselns wie Entzifferns geheimer Nachrichten und zum Zweck der Ökonomisierung von Nachrichtenübertragungen über größere Distanzen entstanden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-95633-0_6 70d499e91bef3f980051339ca3cc9f20;de;;;1.1.;;;Gedankenexperiment – Die Theorie des Krieges von ClausewitzClausewitz beginnt seine Theorie mit einer allgemeinen Definition des Krieges: „Der Krieg ist also ein Akt der Gewalt, um den Gegner zur Erfüllung unseres Willens zu zwingen“ (1980: 191-192).28 Demzufolge dient Krieg zunächst einmal dazu, einen Gegner dazu zu bringen etwas zu tun, was er eigentlich nicht tun wollte bzw. etwas zu unterlassen, was er eigentlich gern getan hätte. Das heißt also, Krieg ist, ganz allgemein ausgedrückt, ein Mittel zur Machtausübung.29 Die Machtausübung durch Krieg unterscheidet sich von anderen Formen der Machtausübung dadurch, dass im Krieg physische Gewalt gegen den Gegner ausgeübt wird, um ihn zur Erfüllung des eigenen Willens zu zwingen. Diese Explikation ordnet sich der von Weber (vgl. Fn. 29) unter, indem man die Gewalt als spezielle „Chance“ ansieht, „den eigenen Willen auch gegen Widerstreben durchzusetzen.“ Eine weitere Besonderheit ist, dass sich der Gegner im Krieg diese Gewalt nicht einfach gefallen lässt, sondern dass er sich mit Gewalt wehrt. Es entsteht ein Kampf, durch den die Gegner in eine besondere Form der sozialen Beziehung zueinander treten (Weber 1972: 20). Schließlich ist Krieg kein Kampf zwischen zwei Menschen, sondern ein Kampf zwischen Kollektiven. Da der Zweikampf jedoch sein Element ist und bleibt, schlägt Clausewitz vor, sich den Krieg als gigantischen Ringkampf vorzustellen (1980: 191-192).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-92730-5_3 ce34a149b0c31dcbf8511e2af118b69a;de;;;1.1.;;;EDV-gestützte klinische Dokumentation in einer nuklearmedizinischen AbteilungDie Nuklearmedizin ist ein relativ junges, methodenorientiertes Fach. In den 70er Jahren kam es zu einem starken Anstieg der Untersuchungszahlen, in Göttingen von 1970 bis 1978 auf das 6,5-fache (Abb. 1). Seither war ein weiteres Wachstum jedoch nicht mehr zu verzeichnen. Damit scheint a prima vista eine Sättigung bei der klinischen Nutzung nuklearmedizinischer Methoden eingetreten zu sein. Die Verhältnisse sind jedoch komplizierter, denn das Spektrum der angewandten nuklearmedizinischen Untersuchungen war in den letzten Jahren einem starken Wandel unterworfen. Gleichzeitig kam es auch zu Veränderungen der Indikationen zu nuklearmedizinischen Untersuchungen sowie der Prävalenz pathologischer szintigraphischer Befunde. Eine frühzeitige Erfassung und eine Klärung der Ursachen hierfür sind für die Nuklearmedizin und deren Nutzer gleichermaßen von Bedeutung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82158-5_41 8850172ec6299b150bfb85e1433b58fc;de;;;1.1.;;;LösungsfundierungEs läßt sich eine theoretische Lösungsfundierung herleiten, die eine Bestätigung der erspielten Problemlösung darstellt. Dabei können abstrakt die Idee der Verfremdung sowie konkret Analogien, Modelle und Metaphern als geeignete Abstraktionen für eine tentative Lösungssuche bzw. Entscheidungsfindung identifiziert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08229-3_4 32bf8ccbf52578bdaacb6b92a1f19b67;de;;;1.1.;;;Qualität der MeßkonstruktionIn Abschnitt 2.2.2 wurden mit der Qualität der Meßkonstruktion, der Verankerung im Unternehmen und der Weiterentwicklung drei zur Charakterisierung von Performance Measurement-Systemen wesentliche Elemente abgegrenzt. Im ersten der drei Kapitel, die sich mit diesen Elementen auseinandersetzen, wird darauf eingegangen, welche Informationen in einem Performance Measurement-System verarbeitet werden und in welcher Form diese Informationen erhoben werden. Im Abschnitt 5.1 wird dabei der Frage nachgegangen, welche Sachverhalte und Gegebenheiten grundsätzlich für eine Betrachtung in einem Performance Measurement-System in Betracht kommen (= Meßobjekte). Da nicht alle potentiellen Meßobjekte für jedes Unternehmen von Interesse sind, wird anschließend analysiert, welche Meßobjekte aus der Menge aller denkbaren Meßobjekte für ein bestimmtes Unternehmen von Bedeutung sind. Diesen relevanten Meßobjekten ist schließlich die Intensität, mit der sie im Performance Measurement-System betrachtet werden, gegenüberzustellen. Die Untersuchung von Meßobjekten wird mit einer Analyse strategischer Aspekte (Abschnitt 5.2) und der zwischen Meßobjekten bestehenden Beziehungen (Abschnitt 5.3) abgeschlossen. Abschnitt 5.4 setzt sich damit auseinander, in welcher Form die Meßobjekte durch Indikatoren operationalisiert werden. Abschließend wird in Abschnitt 5.5 ein Modell entwickelt, das die Auswahl von Meßobjekten eines Performance Measurement-Systems durch die Eigenschaften ihrer Operationalisierung erklärt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08089-3_5 dfaecf2986c49180a2bcdc3f8eb71aba;de;;;1.1.;;;Gestaltung von Arbeitsplätzen zum Einsatz von BildschirmenDie Bereitschaft der Unternehmen und der darin beschäftigten Mitarbeiter sich moderner Kommunikations-Mittel zu bedienen hat in den letzten 3 Jahren den entscheidenden Durchbruch erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82852-2_104 69db852983f739b2c436d0ec030f3ba5;de;;;1.1.;;;Grundlagen: Zur Metatheorie der politischen AnthropologieDie Frage nach der Natur des Menschen war zu allen Zeiten auf das Engste mit dem Nachdenken über gute politische Ordnung und die Ausgestaltung gesellschaftlichen Zusammenlebens verbunden. Die Theoriegebäude der bedeutendsten Klassiker der politischen Ideengeschichte – von Platon und Aristoteles über Hobbes, Locke, Rousseau, Kant, Hume, Mill, Smith, Marx und Kant bis hin zu Nussbaum, Höffe, Taylor, Honneth, Hayek, Habermas u. v. m. – waren stets auf anthropologische Prämissen oder zumindest Reflexionen zur menschlichen Natur gegründet. Auch in der zeitgenössischen Politikwissenschaft gelten Menschenbilder als theoriekonstruktiv überaus wichtige Prämissen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-25056-0_2 cbbeee2ef14ac1f1ed94a4dc6ed61314;de;;;1.1.;;;Der ”levels of processing”-AnsatzIn diesem Kapitel geht es uns darum, die bislang im Mittelpunkt des Interesses stehenden Konzepte”Organisation” bzw.”imagery” unter dem Blickwinkel einer generellen Konzeption des Gedächtnisses, dem sog.”levels of processing” (lop)-Ansatz, zu betrachten und miteinander zu verknüpfen. Unter 4.1. sollen die Grundzüge einer lop-Konzeption erörtert werden. In welcher Weise das”imagery”-Konstrukt mit dem lop-Ansatz in Verbindung gebracht werden kann, soil unter 4.2. untersucht werden. Ein ähnliches Ziel wird im Abschnitt 4.3. verfolgt, wenn wir eine Einordnung des Konstrukts”Organisation” in das lop-Konzept versuchen wollen. Unter 4.4. schlieβlich sollen die unter 4.2. und 4.3. vorgenommenen Integrationsversuche in einem Orientierungsrahmen zusammengefaβt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-72345-2_4 0c4cea04da896a822137084184d69e90;de;;;1.1.;;;eSCORE: Der Angebotsprozess Hybrider IT-ProdukteAus der Literaturanalyse ergeben sich für die einzelnen Phasen im Vorgehensmodell Ansätze und Methoden, die als Best-Practice zur Abbildung der identifizierten Anforderungen übernommen werden sollten. Besonders die SCORE-Methode eignet sich in Verbindung mit der Idee des Property Driven Development (Botta 2007) und dem Requirements Engineering-Ansatz von Husen (2007) als Grundlage für das neu zu entwickelnde Vorgehensmodell, da hier viele der identifizierten Anforderungen aus der Anforderungsanalyse berücksichtigt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-3735-3_6 dfce86a831bd26ebec4ca950680369ab;de;;;1.1.;;;Wachstumsmodelle mit stochastischen DifferentialgleichungenDifferentialgleichungen — deterministische wie stochastische — sind geeignet, Wachstumsprozesse approximativ zu beschreiben. Beim deterministischen Ansatz bleiben jedoch zufällige Fluktuationen, die einen Einfluß auf das Populationswachstum haben, unberNcksichtigt. Daher sind Unterschiede im qualitativen Verhalten von deterministischen und stochastischen Modellen zu erwarten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82158-5_60 1eb4e6aee5059f97a1f880abd9c42491;de;;;1.1.;;;Zur Aufwandsabschätzung bei der Entwicklung eines IndexierungswörterbuchesFür die automatische Indexierung mit einem vorgegebenen Deskriptorensystem wird ein Wörterbuch benötigt, das möglichst viele Fachausdrücke des Anwendungsgebietes durch Relationen mit Deskriptoren verbindet. Werden die in einem solchen Indexierungswörterbuch erfaßten Relationen aus der Verarbeitung von Texten gewonnen, so ergibt sich eine Beziehung zwischen der Anzahl der Texte und der Größe und Leistungsfähigkeit des Wörterbuches. Die Beschreibung derartiger Beziehungen ist besonders vor Beginn der Entwicklung eines automatischen Indexierungssystems von großem Interesse. H. Hüther hat sich in mehreren Arbeiten mit diesem Problem beschäftigt und verschiedene Schätzverfahren theoretisch hergeleitet. Für eines der von ihm vorgeschlagenen Schätzverfahren zur Abschätzung der Größe eines Indexie-rungswörterbuches in Abhängigkeit von der Anzahl der zugrundeliegenden Texte werden im vorliegenden Beitrag die Leistungsfähigkeit und die Anwendbarkeit untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-76981-8_3 b9d0bec4d6fbb3b2bd6a5f4be3b1fd47;de;;;1.1.;;;Methodik Diagnostischer StudienZiel diagnostischer Studien ist es, die Voraussetzungen für die Indikation einer oder mehrerer diagnostischer Massnahmen zu definieren und den möglichen Informationsgewinn zu quantifizieren, der bei indizierter Anwendung dieser Massnahmen resultieren kann (1,2).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83520-9_48 bc932645a7bac10f6c4795a47cd0c8e8;de;;;1.1.;;;IL — Eine Interpretative Sprache für Interaktive Datenbankanwendungen Über BildschirmmaskenMit der fortschreitenden Nutzung von Computern in der Krankenversorgung, Forschung und Lehre im Klinikum der CAU Kiel ist der Bedarf an Anwendungsprogrammen vor allem zur interaktiven Datenverarbeitung stark gestiegen. Damit ist eine Vergrößerung des Benutzerkreises durch im Umgang mit EDV-Systemen ungeübte Benutzer verbunden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82852-2_99 43bf8e268232c714d8640eba960f713b;de;;;1.1.;;;Extraktion von Augenvordergrund — Parametern aus einfachen ScheimpflugaufnahmenDie Scheimpflugfotografie ist eine, eigentlich recht einfache, Aufnahmetechnik zur Erfassung der vorderen Augenabschnitte, wobei man ein vertikales Schnittbild durch Linse, Vorderkammer und Cornea erhält (Bild 1).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82852-2_76 e7e29252e4401ca31ac800e622c06a46;de;;;1.1.;;;Beschwerdeverhalten als Kundenmerkmal: eine persönlichkeitstheoretische PerspektiveLässt sich das Beschwerdeverhalten in das mehrdimensionale Modell des Kundenwerts einbeziehen? Zu dem Konstrukt „Kundenwert“ zählen sinnvollerweise nur kundenindividuell variable, zeitlich stabile und exogene, d.h. vom Unternehmen nicht direkt beeinflussbare Beiträge eines Abnehmers. Beschwerdeverhalten lässt sich demzufolge nur dann in den Kundenwert integrieren, wenn man es durch ein messbares Merkmal abbilden kann, welches diese drei Kriterien erfüllt. Erkenntnisse der Persönlichkeitspsychologie und insbesondere der dort geführten sog. Person-Situation Debatte regen dazu an, die weitere Diskussion nicht in erster Linie auf Beschwerdeverhalten, sondern auf ein dahinter liegendes, in der Persönlichkeit verankertes Konstrukt zu fokussieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-9557-1_4 8eb51252cc7d57471e304e2649989538;de;;;1.1.;;;Anstelle einer Bucheinleitung: Komponenten-Theorie kreativen Lernens und Fallstudien – Brücken zwischen Theorie und Praxis oder über den sportlichen Umgang mit didaktischen HerausforderungenEs war ein Experiment und so gingen wir, die beiden Herausgeber dieses Bandes es auch an. Wir wollten das kreative Format eines Seminars in Verbindung mit einer anschließenden Fallstudienpublikation verwirklichen und dies mit Teilnehmern, die bis dahin – wie dies an deutschen Hochschulen noch sehr häufig der Fall ist – noch nie eine vollständige Fallstudienanalyse durchgeführt, geschweige denn eine eigene Fallstudie geschrieben haben. Zudem wollten wir, dass die Fallstudien sich thematisch mit „Kreativität im Sport“ auseinandersetzen und dazu im Seminar eine fundierte Einführung in das Thema „Kreativität“ geben. Wir hatten allerdings auch den Anspruch, nicht nur die anwendungsorientierte Seite des Themas zu vermitteln, sondern auch eine einer akademischen Institution gerechte theoretische Grundlage aus geeigneten Modellen und Theorien der Kreativität zu geben. Und zu guter Letzt: Für all dies hatten wir nur einen einzigen Tag. Es war also eine echte didaktische Herausforderung und genau diese suchten wir.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-16183-5_1 6cdb0c65179ea58b00255ec9e9d70a44;de;;;1.1.;;;Lernansätze und Lerntypologien als Beschreibungs- und ErklärungsbasisZur Gestaltung eines professionellen Lernmanagements wird, wie bereits zu Beginn der Arbeit dargestellt (Kapitel 1), in den beiden vorangehenden Kapiteln der ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-9586-1_4 58ee43255e4c88eef9ffd8c50b42851b;de;;;1.1.;;;Theoretische und zeitlich-historische GrundlagenWie der Begriff „Organisationales Lernen“ augenscheinlich vermuten lässt, wird organisationaler Wandel durch dort stattfindende Lernprozesse erklärt und damit ein individuelles Phänomen auf Organisationen übertragen. Durch verschiedenste Charakteristika der Auseinandersetzung mit organisationalem Lernen (vgl. Berthoin Antal 1998) wird deren Darstellung allerdings nicht unerheblich erschwert, was auf verschiedene Ursachen zurückzuführen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-93198-2_2 674eb0426649e0c4aa0b78da226f8104;de;;;1.1.;;;Die Kapitalflussrechnung in der Unternehmensbewertung: Bewertungskalkül und GestaltungshinweiseDie Anwendeng der Discounted Cashflow-Methode erfordert die sachgerechte Definition und Ermittlung der Cashflows und Kapitalkosten. Beide sind voneinander abhängig und sind in einem integrierten Modell abzuleiten. Durch das neu eingeführte Halbeinkünfteverfahren stellt sich in Deutschland die Notwendigkeit, die dabei geänderten steuerlichen Bedingungen in das Bewertungskalkül einzubeziehen. Dieser Beitrag präsentiert daher die adäquate Definition und Ermittlung der Free Cashflows anhand einer Kapitalflussrechnung. Dabei werden gleichzeitig Gestaltungshinweise für die Standardsetter gegeben, um die Kapitalflussrechnung als Instrument einer wertorientierten Informationsvermittlung zu verbessern.;-;-;-;https://link.springer.com/article/10.1007/BF02825646 c2e691df62ef3d832c3382310d3edb2a;de;;;1.1.;;;Methoden zur Analyse von ArzneimittelrisikenDie Planung und Auswertung von Arzneimittelstudien nach der Zulassung gewinnt immer mehr an gesundheitspolitischer Bedeutung und rückt deutlicher in das Blickfeld methodischen Interesses. Erst kürzlich haben Victor und andere (1991) die methodischen Prinzipien der Planung und Auswertung von Phase IV-Studien systematisch analysiert. Ein wichtiger Teilaspekt ist die epidemiologische Bewertung der Arzneimittelsicherheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-51151-6_7 b576cf4103b47f0cee655fab6591c7c4;de;;;1.1.;;;Komplexität als Determinante der Qualitätswahrnehmung von DienstleistungenWhile a lot has been written about the perception of service quality, the majority of publications have focused on the dimensions of service quality, whereas the determinants of quality perception have not received much attention. This article investigates the effects of perceived service complexity as an important determinant of perceived quality. Based on theoretical foundations, a causal model is developed to explore the relationships between these two constructs. Evidence suggests that perceived complexity accounts for significant changes in quality perception. The second issue addressed is the effect of perceived service quality on customer loyalty, the empirical study confirms the strong link between these variables.;-;-;-;https://link.springer.com/article/10.1007/BF03372656 8d6245ff2bdd25fcdc8f427a85726570;de;;;1.1.;;;Kognitionspsychologische Beschreibung filmischer Strukturen: Das PKS-ModellVorgestellt wird ein vom Autor entwickeltes kognitionspsychologisches Deskriptionsmodell filmischer Reizangebote, das im Unterschied zu den bisherigen Ansätzen, die sich allein an bewusst erlebte Filmstrukturen hielten, auch solche erfasst, die unterhalb der Bewusstheitsschwelle aufgenommen werden. Strukturen konkreter Filme lassen sich hypothetisch einem phasischen Prozess von Informationsverarbeitung zuordnen, in dem drei Stufen kognitiver Schemabildung klar unterscheidbar sind. Sie können als (1) perzeptions-geleitete, (2) konzept-geleitete oder (3) stereotypen-geleitete Filmstrukturen gesehen werden. Das PKS-Modell leitet seine Bezeichnung von den Initialen der drei Strukturtypen ab. Das Rezeptions- Verhalten dieser Strukturtypen, das zwischen (1) vorbewusster, (2) bewusster und (3) unbewusster Aufnahme durch den Zuschauer variiert, kann anhand mehrerer Merkmale empirisch belegt werden, wodurch eine differenziertere Analyse ihrer gestalterischen Wirkungseffekte ermöglicht wird. Die Einführung in das PKS-Modell geschieht anhand unterschiedlich gestalteter Beispielsequenzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-32052-2_3 df8e9ed38ce5f43205971b9920a68d68;de;;;1.1.;;;Modelladäquanz empirischer PräferenzurteileDie normative Entscheidungstheorie basiert auf der Grundannahme, dass zwei logisch äquivalente Beurteilungsaufgaben zu demselben, als Präferenz artikulierten Nutzenurteil führen. Diese Bedingung wird Präferenzinvarianz;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-81981-9_6 812bc212e431a4f7758750554fa539b4;de;;;1.1.;;;Muster sozialer Interaktion in Gruppen — ForschungsstandSoziale Interaktion in Gruppen ist Gegenstand mehrerer Disziplinen, vor allem der Sozialpsychologie, der Klinischen Psychologie und der Kommunikationsforschung. Der vorliegende Disziplin-übergreifende Überblick zum Stand der Forschung hat seinen Schwerpunkt auf der Interaktions;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-91680-8_3 5e1788989e59a0d0fb2fc0aa48b8e977;de;;;1.1.;;;Psycholinguistische Theorien zur Verarbeitung morphologischer StrukturenIm folgenden Kapitel sollen Befunde und Theorien der psycholinguistischen Forschung zum Einfluß von morphologischen Strukturen auf die visuelle Worterkennung dargestellt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-83243-6_3 7f5d956f3175eb8391b0f3ee20d993cb;de;;;1.1.;;;Optimale Entscheidungen: Anspruch, Wirklichkeit und KompetenzEin Ereignis katastrophalen Ausmaßes, eine Tierseuche, ein mutierter Krankenhauskeim, ein Lebensmittelskandal… fiktive Erfindungen, die in der Realität aber immer wieder anzutreffen sind (z.B. H1N1-Virus, Maul- und Klauenseuche, Dioxin-Skandal, Gammelfleisch-Skandal, BSE-Krise, etc., vgl. Fischer, 2016, Tierseuche: Hasenpest bedroht Regental rund um Cham, ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-16738-7_1 f83713bce3ad735a8b466c49e501738f;de;;;1.1.;;;Der Gehalt mentaler RepräsentationenDas im vorangegangenen Kapitel skizzierte Bild der einzelnen Schritte, die auf dem Wege der Formulierung einer Instantiierungserklärung menschlicher mentaler (kognitiver) Fähigkeiten getan werden müssen, hat sich als in einer entscheidenden Hinsicht ergänzungsbedürftig herausgestellt: Wenn die Gehalte der repräsentationalen Zustände des kognitiven Systems — im Gegensatz zu den Gehalten funktionaler Computerzustände — nicht als durch einen Interpreten festgelegt und daher interpretationsrelativ angesehen werden können, sondern unabhängig von der Durchführung und dem Erfolg möglicher interpretativer funktionaler Analysen kognitiver Fähigkeiten Bestand haben, kann eine vollständige Instantiierungserklärung solcher Fähigkeiten nur dann entwickelt werden, wenn gezeigt worden ist, welche Faktoren für die Existenz dieser objektiv bestehenden Gehalte systeminterner Zustände verantwortlich sind (vgl. Abschnitt 1.5.). Benötigt wird eine ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-75622-1_3 51d11d0c275abd1d02d6943ca8244feb;de;;;1.1.;;;Bestandsaufnahme der Portfoliotheorie und der Asset-AllocationKapitel 2 dient der Erarbeitung des Status quo der Portfolio Theorie und der angrenzenden Disziplinen. Kapitel 2.1 definiert allgemein gültige Definitionen im Portfoliomanagement. Letzteres kann als „Gesamtheit aller Aufgaben, welche im Zusammenhang mit Kapitalanlageentscheidungen zu lösen und durchzuführen sind” verstanden werden. Im Anschluss definiert und kategorisiert Kapitel 2.2 Extremsituationen. Daraufhin stellt Kapitel 2.3 die Portfolio- und Kapitalmarkttheorie unter Berücksichtigung der Extremwertmodellierung und der Behavioral Finance Aspekte vor. Asset-Allocation und die Methoden der Portfoliorisikomessung werden anschließend in Kapitel 2.4 erarbeitet. Kapitel 2.5 fasst als Fazit der Erhebung des Status quo die theoretischen Elemente für die Modellierung von Korrelationen in Extremsituationen zusammen. Ziel dieses Kapitels ist es, die im weiteren Verlauf deser Ausarbeitung benötigten theoretischen Aspekte aufzuarbeiten und den Grundstein für das eigene Modell zu legen. Wert wird hierbei auf Aussagen zur Diversifikation gelegt. Modelle zur Schätzung von Rendite und Risiko einzelner isolierter Assets sind nicht Gegenstand dieses Kapitels, da die zentralen Fragestellungen sich nicht auf die Assets als solches, sondern auf die Wechselwirkungen zwischen ihnen beziehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-6186-0_2 30439ba359c4600bbfb54e554cb150c7;de;;;1.1.;;;Ökonomische VerhaltensmodelleDie Diskussion um ein für die Wirtschaftswissenschaften geeignetes Verhaltensmodell zieht sich durch viele Jahrzehnte ökonomischer Forschung. Alfred Marshall (1920) leitete sein Werk „Principles of Economics“ mit den Worten ein: “Political Economy or Economics is a study of mankind in the ordinary business of life, it examines that part of individual and social action which is most closely connected with the attainment and with the use of the material requisites of wellbeing. Thus is on the one side a study of wealth, and on the other, and more important side, a part of the study of man. For man’s character has been moulded by his everyday work, and the material resources which he thereby procures, more than by any other influence unless it be that of his religious ideals.”;-;-;-;https://link.springer.com/chapter/10.1007/978-3-211-92664-2_1 3f2734f18b15e31eadc32edc9fe2c328;de;;;1.1.;;;Konzipierung der eigenen StudieEin zentraler Kritikpunkt an den vorliegenden Studien zum Arbeitsverhalten von Managern ist — dies dürfte auch in den vorausgegangen Ausführungen deutlich geworden sein — ihre als tendenziell theoretisch orientierunglos zu bezeichnende empirische Forschung (Martinko/Gardner 1985, Hales 1986, Whitley 1989, Fondas 1989, Fondas/Stewart 1994). Nur bei wenigen Studien lassen sich zugrundeliegende forschungsleitende theoretische Bezugsrahmen oder Modelle erkennen (so beispielsweise bei Stewart 1976a, 1982a, Mintzberg 1973, Kotter 1982). Theoretische Bezugsrahmen und Modelle entsprechen von ihrer logischen Konsistenz und Operationalität nicht den Maßstäben, die an eine erfahrungswissenschaftliche Theorie gelegt werden (Kubicek 1977, 17f.). Es handelt sich vielmehr um Erklärungsskizzen, in denen komplexe Prozesse oder Wechselbeziehungen zwischen Variablen so konzeptionalisiert werden, daß die Komplexität in eine einfachere, verständlichere Form übersetzt wird (Hales 1981, S.114). Solche theoretischen Bezugsrahmen spielen aufgrund der “chronischen Unreife” der sozialwissenschaftlichen Forschung im allgemeinen und der Managementforschung im besonderen eine wichtige Rolle (Staehle 1991a, Schirmer 1992, siehe allgemeiner hierzu Whitley 1984). Diese “chronische Unreife” weist mehrere Ursachen auf. So liegt ein Hauptproblem betriebswirtschaftlicher Forschung darin, daß die meisten Forscher den Objektbereich, den sie behandeln wollen, gegenwärtig noch viel zu wenig kennen, um sinnvolle und realistische Hypothesen aufstellen zu können (Kubicek 1977, S.10). Diese Situation kann auch für die Forschung zum Arbeitsverhalten von Managern konstatiert werden. Ein weiteres Problem — so Giddens (1988, S.46) — ist, daß das Wissen und die Überzeugungen der Akteure über die Umstände ihres eigenen Handelns einen instabilen Charakter aufweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-91302-9_3 174e8bdf9f3b4e6416cbdbd072e64418;de;;;1.1.;;;Das Lebenserwartungsdefizit als Mass zur Beurteilung der Lebensverkürzenden Wirkung von TumorerkrankungenDie Überlebenszeitanalyse (survival analysis) hat in den letzten Jahren als biometrisches Verfahren zunehmend an Bedeutung gewonnen. Das gilt besonders für die prognostische Beurteilung von Tumorerkrankungen, dazu ist die oft benutzte (und oft falsch berechnete) Größe „Fünf-Jahres-Überlebenszeit“ jedoch nur sehr schlecht geeignet. Die Überlebenszeitanalyse verfügt über zahlreiche differenzierte Verfahren, die auch in den bekannten Statistik-Programmpaketen (z.B. SAS, SPSS, BMDP) implementiert sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83520-9_32 408ec13e1c861a90cc8b4d7ef02f17d5;de;;;1.1.;;;Methodische Zugänge: Wie Erfasst Man Das Konstrukt Androgynie?Ausgehend von dem geflügelten Wort, daß alles, was existiert, auch in einer bestimmten Quantität vorkommt, und daher auch meßbar ist, hat Anne Constantinople (1973) in einem vielbeachteten Aufsatz über die bis dahin 40jährige Geschichte der Messung von Maskulinität/Femininität die Frage gestellt, ob sich dieser Spruch auch umdrehen läßt: daß etwas, das nicht gemessen werden kann, auch nicht existiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-84026-4_2 80ab8efdc6b663da680fe329f5d61db4;de;;;1.1.;;;Zur Nutzung von ControllinginformationenAuf der Basis einer Bestandsaufnahme und kritischen Analyse der Literatur wird eine umfassende Typologie der Nutzung von Controllinginformationen entwickelt. Die abgeleiteten Nutzungsarten werden im zweiten Teil des Beitrags operationalisiert und auf der Basis einer großzahligen empirischen Erhebung zur Nutzung von Controllinginformationen durch Geschäftsführer und Vorstände deutscher Industrieunternehmen auf Reliabilität und Validität geprüft. Die Qualität der entwickelten Messinstrumente kann als zufriedenstellend bezeichnet werden.;-;-;-;https://link.springer.com/article/10.1007/BF03401246 11d67f750443d3aa155fc2cc7ec1afa1;de;;;1.1.;;;Fehlender Einsatz neuer Methoden in der ProduktentwicklungDieses Kapitel erläutert zunächst Begriffe, Ziele und Vorgehensweisen zur Entwicklung von methodischen Unterstützungen für die Produktentwicklung und betrachtet die Organisation, Entwicklungsprozesse und Einflüsse auf die Produktentwicklung im Unternehmen. Danach werden auf Basis der Literatur Anforderungen an Methoden zusammengetragen und Gründe aufseiten der Forschung und der Unternehmen diskutiert, die den Einsatz neuer Produktentwicklungsmethoden in der Praxis erschweren. Abschließend wird von der Problemstellung der Handlungsbedarf dieser Arbeit abgeleitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-63707-4_2 84cbd3f68c73ec83f0fb233ede265fca;de;;;1.1.;;;Bewertung der Effizenz und Effektivität medizinisch-technischer GeräteDie Ziele der wesentlich Beteiligten im Gesundheitswesen sind auch hinsichtlich der Effizienz und Effektivität medizinisch-technischer Geräte nicht kongruent. Die Steuerungsinstrumente sind entweder global fiskalistisch (Konzertierte Aktion im Gesundheitswesen) konzipiert oder bemühen sich aus Vergangenheitswerten, die Kapazitäten einzelner Leistungsbereiche zu beeinflussen (1)(2). Eine output-orientierte Bewertung, bezogen auf den Gesundheitszustand der Bevölkerung, erfolgt nicht (3)(4).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83520-9_45 fb8a3e40faeb1dcf5347a19f56dbee4f;de;;;1.1.;;;Statistische Analyse von Bremer Survey-Daten zur Zielgruppenanalyse und Bewertung präventiver Angebote im Rahmen der Deutschen Herz-Kreislauf-Präventionsstudie (DHP)Die Deutsche Herz-Kreislauf-Präventionsstudie (DHP) ist eine multizentrische epidemiologische Gemeindeinterventionsstudie zur primären Prävention ischämischer Herzkrankheiten und Schlaganfall (1). Ihr Ziel ist die Reduktion der altersspezifischen Mortalität dieser Krankheiten (ICD - 9: 410 414, 430 – 438, Männer und Frauen im Alter von 25 – 69 Jahren) um mindestens 8%. Eingebettet in ein Konzept der Veränderung von Lebensweisen und der Forderung von Gesundheit werden in einem Zeitraum von 7 Jahren die für diese Krankheiten bekannten spezifischen Risikofaktoren: Rauchen, Bluthochdruck, Hypercholesterinämie, Übergewicht und Bewegungsmangel verändert. Entsprechend dem „Wellenkonzept“ geschieht dies durch unterschiedliche Schwerpunktsetzungen in der präventiven Arbeit. Im ersten Jahr (1985) wurde mit der Ernährungsintervention begonnen, daran schloß sich im nächsten Jahr die Bewegungs - und Blutdruckintervention an. Im Jahre 1987 wurde mit der Intervention bezüglich Rauchen begonnen. Das Evaluationskonzept beinhaltet das Monitoring der Mortalität, die Durchführung von Gesundheitssurveys vor Beginn der Intervention (1984), in der Mitte (1988) und am Ende der Studie (1991). Ein breites Prozessevaluationskonzept begleitet den Studienverlauf. Hier sollen die strukturellen Veränderungen erfaßt werden (soziostrukturelle Begleitforschung (2) und Angebotsanalyse (5)), Bekanntheitsgrad der Maßnahmen (Mediensurvey, Telefoninterviews) und Teilnahmemotive und-verhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83520-9_23 3d3757d204546861e232206b4b06b173;de;;;1.1.;;;Zu Piagets Stufen des Gerechtigkeitsurteils zurück? Am Piaget-Ansatz orientierte KritikPiagets psychologische Forschungsarbeiten greifen weit über den Bereich der Moralent-wicklung hinaus, orientiert vor allem an der Theorie Baldwins beschäftigte sich dieser Wissenschaftler seit den 1920er Jahren mit einer Vielzahl von Entwicklungsbereichen. Piagets Theorie der Genese logisch-kausaler Kognitionen ist mittlerweile scharfer Kritik ausgesetzt. Gegenwärtig sind Theorien der Informationsverarbeitung (z.B. Klahr, Siegler), neopiagetianische Theorien (z.B. Case, Demetriou, Fischer, Halford), Theorien des Kernwissens (z.B. Carey, Gelman, Siegler, Spelke, Wellman) und an der Position von Wygotski orientierte Theorien (z.B. Cole, Rogoff, Tomasello) einflussreich (vgl. P. H. Miller 1993, Sodian 2008). In der Forschung zur sozialen Entwicklung finden biologische Theorien (z.B. Bjorklund), sozial-kognitive Lerntheorien (z.B. Bandura), Theorien der Informationsverarbeitung (z.B. Dodge), Bereichstheorien bzw. Theorien des Kernwissens (z.B. Wellman), sozialökologische Theorien (z.B. Bronfenbrenner), an Wygotski anküpfende Theorien (z.B. Tomasello) und kulturpsychologische Theorien (z.B. Shweder) große Resonanz (vgl. Bischof-Köhler 2011, Parke/Clarke-Stewart 2011).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-93049-7_3 4ea7346e260a511ed86ce2bcf361269e;de;;;1.1.;;;GerechtigkeitIn diesem Kapitel wird die Basistheorie der vorliegenden Dissertation dargelegt. Nach der begrifflichen Bestimmung des Gerechtigkeitsbegriffs im vorangegangenen Kapitel folgen zunächst die inhaltliche Abgrenzung und die Bestimmung der Bezeichnung „organisationale Gerechtigkeit“ und der dazugehörigen Dimensionen. Das sich daran anschließende Unterkapitel gibt den aktuellen Forschungsstand zu Gerechtigkeit und Entlohnung in Tabellenform wieder. Abschließend werden unterschiedliche Gerechtigkeitsprinzipien, die bei der Vergütungsfestlegung zur Anwendung kommen, erläutert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-07430-2_3 6bc6f0921c3b21093e3144dfe0b1ae6b;de;;;1.1.;;;Ein Bildverarbeitungssystem zur Analyse von Gel-ElektrophoresenIn vielen medizinischen und biologischen Forschungslabors — wie z.B. im Deutschen Krebsforschungszentrum (DKFZ) — werden Autoradiographien und Photographien von Polyacrylamid (PAGE)- oder Agarose (AGE)- Gel-Elektrophoresen hergestellt. Diese können zur Bestimmung des Molekulargewichts von Polypeptiden oder DNA- Fragmenten und so zur Bestimmung ihrer relativen Ordnung untereinander benutzt werden. Die Auswertungen dieser Bilder werden üblicherweise manuell durchgeführt. Das ist nicht nur zeitaufwendig, sondern liefert auch ungenaue Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82158-5_54 aee9fc18ce1980d2a75bc590f9a71fbc;de;;;1.1.;;;Aggression: Eine sozialpsychologische PerspektiveAggression wird im sozialpsychologischen Sprachgebrauch als Verhalten mit Schädigungsabsicht definiert und als eine negative Form des sozialen Verhaltens klassifiziert. Der vorliegende Beitrag präsentiert einflussreiche Theorien zur Erklärung von Aggression als interpersonalem Verhalten und diskutiert verschiedene dispositionale und situative Einflussfaktoren, die die Auftretenswahrscheinlichkeit aggressiven Verhaltens erhöhen. Er versucht aus sozialpsychologischer Sicht Antworten auf die Frage zu geben, welche Personen besonders anfällig für aggressives Verhalten sind und welche Merkmale der Situation die Schwelle für aggressives Verhalten herabsetzen. Hierzu werden aktuelle empirische Ergebnisse der sozialpsychologischen Aggressionsforschung herangezogen. Abschließend werden Ansatzpunkte für eine interdisziplinäre Anthropologie aggressiven Verhaltens skizziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-07410-4_1 8e4edf277df21f522e4c9fdecc0b191b;de;;;1.1.;;;Nutzen und Einsatz des Storytellings in der internen Unternehmenskommunikation: Eine Fallstudie am Beispiel der „Pharma“Bei der Suche nach einer richtigen empirischen Herangehensweise an die Forschungsfrage „Welchen Nutzen bringt Storytelling für die interne Kommunikation, und wie wird der Einsatz dieser Methode von Mitarbeitern beurteilt?“ kann der Weg unmöglich „am Ort des Geschehens“ – also an einem das Storytelling einsetzenden Unternehmen – vorbeiführen. Dies und die der Arbeit zugrundeliegenden theoretischen Positionen des (Re-)Konstruktivismus, des symbolischen Interaktionismus und der Phänomenologie sowie die daraus resultierenden Ansichten, dass zum einen jede Erkenntnis subjektgebunden ist, und dass zum anderen soziale Wirklichkeit nicht unabhängig von Zeit und Raum begriffen werden kann, erklären, warum die Art und Weise der „Felduntersuchung“ nur auf eine kontextbezogene, also qualitative Forschungsmethode fallen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-19137-5_6 7337e3d7710ae5c789ec40f51b9724d4;de;;;1.1.;;;TNM-Validierung beim Magenkarzinom im Rahmen einer multizentrischen interdisziplinären Studie: Über die Schwierigkeiten der Kliniker, die Befunderhebung zuverlässiger zu gestaltenDas TNM-System zur Klassifikation der malignen Tumoren wurde von P. DENOIX in den Jahren 1943–1952 entwickelt [5]. Die T-,N- und M-Kategorien stellen quantifizierte Ausdehnungsbefunde von Tumor (T), Lymphknoten (N) und Metastasen (M) dar. Der entscheidende Vorteil der TNM-Klassifikation liegt darin, daß die Tumorkategorien getrennt klassifiziert werden können und damit ihr Einfluß auf die Prognose unabhängig gewichtet werden kann [1].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82158-5_21 4db167ad5e306632179984c8e0f609ba;de;;;1.1.;;;Experimente zur binären Klassifikation von Mustern durch den MenschenThe human visual system is investigated using two types of experiments. In the first type, pairs of characters of different fonts are presented with superimposed additive gaussian noise. The error rates are obtained as a function of the signal-to-noise ratio. By comparison with the error rates of the optimal system it may be concluded, that the human system is suboptimal, that no filtering process is involved, and that there is a nonlinearity which depends on the signal-to-noise ratio. Those fonts are recognized best, which one would expect according to the optimal system. In the second type of experiments, pairs of handprinted characters are presented. It turns out that these characters are recognized by humans about as well as by an approximately optimal system. Again, those pairs of characters are recognized best, which one would expect according to the approximately optimal system.;-;-;-;https://link.springer.com/article/10.1007/BF00267764 f4fe4698816719f1404172a03acfd0c9;de;;;1.1.;;;Klassifikation, befundorientierte Speicherung und Informationsgewinnung mit IATROSDas Informations-Aufbereitende Text-Retrieval-Orientierte System IATROS wird vorgestellt. Oberstes Ziel ist das (Wieder-)Gewinnen von Informationen. Dies kommt sowohl den Belangen des Patienten als auch der medizinischen Forschung zugute und dient außerdem Planungszwecken und der Patientenverwaltung. Dazu werden die Daten nach den jeweiligen Wünschen des Benutzers maschinell aufbereitet. Verarbeitet werden sowohl Code als auch Klartext. Die Aufbereitung der Daten umfaßt die Schritte Selektion, Transformation, Standardisierung, Invertierung und Dokumentation. Bei der Aufbereitung der Daten und bei der eigentlichen Recherche wird in der Regel ein Thesaurus verwendet. Daraus ergibt sich, daß die Ärzte bei der Befundniederlegung oder Recherche nicht dieselben, standardisierten Begriffe gebrauchen müssen, sondern Ihre individuelle Sprache beibehalten können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82158-5_38 4b8f965f1a14a991250a14ad367ed440;de;;;1.1.;;;Stand der betriebswirtschaftlichen InsolvenzforschungIm vorherigen Kapitel wurden die insolvenzrechtlichen Rahmenbedingungen dargestellt und vor dem Hintergrund des reformierten Insolvenzrechts die Notwendigkeit einer stärker betriebswirtschaftlichen Perspektive eingefordert. Dabei wurde das rechtswissenschaftliche Ordnungs- und Vollstreckungsverständnis insbesondere um den Aspekt eines ressourcenorientierten Substanzerhalts erweitert. Es wurde dargelegt, dass eine solche Sichtweise eng mit der Offenlegung und Beseitigung der leistungswirtschaftlichen Insolvenzursachen, genauer der Fehlentwicklungen in der Vergangenheit des Unternehmens, zusammenhängt. Für die empirische Studie dieser Arbeit, die eben eine Prozessbetrachtung bezweckt und organisationales Beharrungsvermögen als Auslöser bzw. zugrunde liegenden Mechanismus für diese Fehlentwicklung aufzudecken versucht, sollen die Erkenntnisse der betriebswirtschaftlichen Forschung über die Ursachen von Insolvenzen als Bezugspunkt dienen. Im nun folgenden Kapitel wird daher zunächst der Stand der klassischen Insolvenzursachenforschung umfassend dargestellt. Hierzu werden sowohl in der Literatur maßgebliche theoretische Erklärungsansätze für Insolvenzen als auch die Erkenntnisse der empirischen Ursachenforschung rekonstruiert und kritisch diskutiert. Im Sinne einer Bestandsaufnahme sollen inhaltlich relevante Bestimmungsfaktoren, d. h. wesentliche und gemeinhin anerkannte Ursachenbereiche, dargelegt und Defizite im Hinblick auf deren Erklärungsgehalt bestimmt werden. Grundlegend kann vorab festgestellt werden, dass trotz der fortwährend hohen Anzahl an Insolvenzfällen das Thema „Insolvenz“ eine vergleichsweise geringe wissenschaftliche Beachtung erfährt. Hinsichtlich der Insolvenzverursachung existieren bislang weder eine geschlossene Theorie, noch einschlägige, widerspruchsfreie empirische Untersuchungen, sodass der Erklärungsgehalt wie auch mögliche Gestaltungsempfehlungen der verschiedenen Ansätze durch die weitgehend partielle und häufig enorm vereinfachte Betrachtungsweise begrenzt bleiben. Darüber hinaus werden bislang insbesondere die Hintergründe des Prozessverlaufs, d. h. vorgelagerte Entwicklungsprozesse, die einen Einblick in die Entwicklung der Ressourcenpotenziale zu geben vermögen, oder auch Verstärkungstendenzen, die aus dem Zusammenwirken der Einzelursachen im Entwicklungsverlauf resultieren, ausgeblendet bzw. vernachlässigt. Zwar erscheinen die bisherigen Ansätze zur Erklärung von Insolvenzen – sowohl empirischer als auch theoretischer Art – insgesamt nicht geeignet, das Phänomen der Verursachung von Insolvenz in adäquater Weise zu fassen. Gleichsam kann jedoch aus den Erkenntnissen einiger neuerer betriebswirtschaftlicher Ansätze aus angrenzenden Forschungsgebieten eine Reihe anschlussfähiger konzeptioneller Erweiterungen gewonnen werden. Diesen organisationstheoretischen Ansätzen soll daher mehr Gewicht einräumt werden. So weisen einerseits Ansätze aus der angloamerikanischen Forschungstradition zum „organizational decline“ bzw. „organizational failure“ eine inhaltliche Nähe zur Insolvenzthematik auf, sie widmen sich bestimmten (dys-)funktionalen organisationalen (Rigiditäts-) Mustern sowie Governance-Strukturen und betrachten die Auswirkungen rückläufiger Entwicklungsprozesse von Organisationen im Allgemeinen. Der Niedergang von Organisationen wird hierbei primär anhand deren Anpassungs- bzw. Reaktionsfähigkeit angesichts auftretender Umweltveränderungen erklärt. Andererseits wird die Theorie der Pfadabhängigkeit vorgestellt, mit deren Hilfe extreme Erscheinungsformen organisationaler Rigiditäten beschrieben werden können. Die Theorie der Pfadabhängigkeit hat in den letzten Jahren die Organisations- und Strategieforschung bereichert und ermöglicht eine noch stärkere prozessuale Perspektive auf die Entstehung und Verfestigung von dysfunktionalen organisationalen Mustern. Wie zu zeigen sein wird, greifen diese Erweiterungen die aufgezeigten Defizite der bisherigen Insolvenzforschung auf und leiten schließlich zu dem konzeptionellen Bezugsrahmen über, der die Grundlage für den empirischen Teil dieser Arbeit bildet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-6146-4_4 4fb9954a4b1d990aad2ca6245761ae22;de;;;1.1.;;;Schriftspracherwerb funktionaler Analphabeten unter kognitionstheoretischem AspektDas Bedeutungsspektrum, in dem die Begriffe ‚Kognition‘ und ‚kognitiv‘ vorkommen, ist sehr weit: ‚Kognitiv‘ wird in zusammengesetzten Ausdrücken wie z.B. ‚kognitive Psychologie‘ oder ‚kognitive Theorie‘ zur Charakterisierung eines theoretisch-methodischen Ansatzes („cognitive approach“) verwandt, der Ausdruck ‚Kognition‘ wird vielfach ohne Präzisierung seiner Intension bzw. Extension gebraucht (vgl. auch Moroz 1972, S. 178), so daß inflationäre Tendenzen hinsichtlich der Verwendungshäufigkeit und des Bedeutungsumfangs zu beobachten sind. Bisweilen deckt der Terminus ‚kognitive Prozesse‘ nahezu den gesamten Bereich der Allgemeinen und der Differentiellen Psychologie ab (vgl. exemplar. Harper et al. 1964), bisweilen wiederum bezeichnet er hauptsächlich die Phänomene ‚Perzeption‘, ‚Imagination‘ und verwandte Kategorien (vgl. exemplar. Neisser 1967/1974). Konsens besteht in der Literatur allenfalls in der Auffassung, daß die Untersuchung von Prozessen der Begriffsbildung für die Analyse kognitiver Strukturen und Funktionen paradigmatisch ist (vgl. auch Seidenstücker/Groeben 1971). Schließlich geht die Tendenz dahin, ‚Kognition‘ durch Pluralbildungen wie ‚kognitive Prozesse‘ oder ‚kognitive Funktionen‘ bzw. ‚kognitive Strukturen‘ zu ersetzen, durch Begriffe also, die neben dem gemeinsamen Zweck die Vielfalt prozessualer Strukturen und Funktionen akzentuieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-99561-2_4 6f0f172d1f10ac98a5684cc91c25c597;de;;;1.1.;;;Lateralität und KonnektivitätObwohl funktionelle Asymmetrien des Gehirns bereits in der Mitte des 19. Jahrhunderts beschrieben wurden, verstehen wir die Ursachen und Mechanismen der Hemisphärenspezialisierung (Lateralisierung) bisher nur unzureichend. Dieses Kapitel gibt einen Überblick, wie Fragen der Lateralisierung mit Hilfe der fMRT untersucht werden können und welche Vorteile die fMRT gegenüber anderen Verfahren bietet. Des Weiteren ist Hemisphärenspezialisierung eng mit Fragen zur Konnektivität des Hirns verzahnt. Zum einen wäre die Lateralisierung von Funktionen nutzlos ohne die Möglichkeit, die Funktion beider Hemisphären zu integrieren, zum anderen gibt es eine zunehmende Zahl von Befunden, die die Natur der funktionellen Hemisphätenunterschiede über Konnektivitätsunterschiede beschreiben. Aus diesen Gründen werden Lateralisierung und Konnektivität in diesem Kapitel zusammen behandelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68558-6_23 b33a8d39cc4433bdf39d3a85fbce1357;de;;;1.1.;;;Hierarchische Begriffsstrukturierung — negative und positive ErfahrungenDie Eingabedaten einer Beobachtungseinheit können in der Weise aufbereitet werden, daß über den Deskriptoren der aufbereiteten Daten ein Wald (= nichtzusammenhängende Baumstrukturen) definiert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-81404-4_63 17b3e378002fb437054fc881164cd317;de;;;1.1.;;;Einbindung eines PACS in ein existierendes Krankenhaus-InformationssystemIn der medizinischen Diagnostik hat die Anzahl digitaler bildgebender Verfahren, wie z. B. Computertomographie (CT), Kernspintomographie (MR) und Ultraschall (US), stetig zugenommen. Zur Befundung bzw. Diagnose werden immer mehr Bilder an immer mehr Stellen benötigt. Sie müssen in geeigneten Archiven vorgehalten werden, aus denen sie in möglichst kurzer Zugriffszeit abgerufen werden können. Die Realisierung der Bildspeicherung, Bildarchivierung und Bildkommunikation wird daher mehr und mehr Kardinalfrage einer sinnvollen Koordinierung der Methoden im Rahmen einer rationellen Krankenversorgung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83520-9_75 8dc4d9a188c49f7ca6ccd7190982a49b;de;;;1.1.;;;Theoretischer Rahmen — Einbindung olfaktorischer Reize in die MarkenkommunikationDie Menschen suchen heute vermehrt nach Erlebnissen. Vergnügen und Genuss haben einen selbstständigen Stellenwert neben der Nützlichkeit bekommen (vgl. Opaschowski, 1997, S. 67). Konsumiert wird nicht mehr nur um des Konsums willen, sondern es geht vielmehr darum, den Konsum mit Erlebnissen zu verknüpfen, die das Leben anreichern und einen persönlich weiterbringen (vgl. Opaschowski, 1990, S. 127, 2004, S. 55). Erlebnisorientierte Menschen sind dabei besonders zugänglich über ihre Sinnesorgane (vgl. Weinberg, 1992, S. 5). Kroeber-Riel (1993) merkte schon früh an: „Der erlebnisorientierte Konsument ist auf dem Vormarsch“ (Kroeber-Riel, 1993, S. 27).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-9431-4_2 971b44e89bada341d662df4cb68aa8c7;de;;;1.1.;;;Entwicklung eines Modells zur Erklärung und Vorhersage des Kaufverhaltens bei Functional Food-InnovationenBeschäftigt man sich mit der Frage, anhand welcher Variablen das menschliche Verhaltens vorhergesagt werden kann, so stößt man in der sozialpsychologischen Literatur und Forschung schnell auf das Konstrukt der Einstellung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-81111-0_3 0a46033d0d81d85344f8684ac7b96614;de;;;1.1.;;;Psychologische Bindungsneigungen als Voraussetzung erfolgreicher MarkenbeziehungenKonsumenten entwickeln nur zu wenigen Marken intensive emotionale Bindungen, obwohl sie mit unzähligen Marken interagieren und sich bei vielen Produkten markentreu verhalten (vgl. Smit/Bronner/Tolboom, 2007, S. 627, Thomson/MacInnis/Park, 2005, S. 77). Allerdings ist die Frage, was Unternehmen tun können, um emotionale Markenbeziehungen zu etablieren, noch relativ unklar. Vor diesem Hintergrund sind die Entstehungsbedingungen und Merkmale langlebiger Markenbeziehungen und die mit ihnen verbundenen Emotionen und Gefühle in das Zentrum des Interesses von Marketingforschung und -praxis gerückt (vgl. Fournier, 1998, Paulssen/Fournier, 2007, Thomson/MacInnis/Park, 2005). In diesem Kontext wird das Augenmerk auf ein neues Konstrukt in der Konsumentenforschung gesetzt: Das ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-8369-5_3 ba706f908510031bc6288780b704c60e;de;;;1.1.;;;Erarbeitung des ForschungsvorgehensZiel der Arbeit ist es, Konsequenzen und Gestaltungsempfehlungen für das IM abzuleiten und zu bestätigen. Um diese herleiten zu können, bespricht der folgende Abschnitt die wissenschaftliche Positionierung der Arbeit und erarbeitet den einhergehenden methodischen Gesamtaufbau.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-27196-1_3 639fb3fdcc463250ad355878b6e26135;de;;;1.1.;;;Probleme der Forschung und FörderungDie Einführung der Informationstechnologie und die Verwendung von datenverarbeitenden Verfahren in die Medizin erfolgte in stürmischen Ansätzen und mit großen Erwartungshaltungen. Die Kostenintensität der Projekte bedingte bald die Notwendigkeit der Rechtfertigung der Aufwendungen. Auf der anderen Seite boten sich die neuartigen Verfahren an, Lösungen für Entscheidungsprobleme auf allen Gebieten der Gesundheitsversorgung und -planung zu liefern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-81404-4_82 578bec61b4542a295a8b1f616b681010;de;;;1.1.;;;Das ‘Elaboration Likelihood Model’ — ein Beitrag zum dynamisch-transaktionalen Ansatz?Im vorangegangenen Kapitel hat sich gezeigt, daß das ‘ELM’ eine eigenständige, transklassische Evidenz besitzt: Es übernimmt die Axiome, aber präzisiert die Wirkungsaussagen des Involvement-Konstrukts. Vor allem leistet es das ‘ELM’, ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-07803-6_8 2fba642efa5bbc8fd5a2043921503f77;de;;;1.1.;;;I CRM – Einflussfaktoren und theoretische GrundlagenEin klares, umfassendes Verständnis von CRM ist grundlegende Voraussetzung für eine ganzheitliche Analyse der Bedeutung und der Rollen, d. h. der Aufgaben und Funktionen, der Mitarbeiter im CRM.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-05991-0_1 276f748a8a568a4dfbc8c0c34f462adb;de;;;1.1.;;;Soziologische Emotionskonzepte und ihre ProblemeDie Soziologie der Emotionen steht nicht nur vor der Herausforderung, einen analytischen Theorierahmen zu entwickeln, mit Hilfe dessen Emotionen und ihre Bedeutung für soziales Handeln und soziale Beziehungen analysiert werden können, sondern auch vor dem Problem, der Komplexität der Emotionen gerecht zu werden, denn ‘Emotionen’ stellen einen vielgestaltigen, heterogenen, nur in funktionaler Hinsicht identifizierbaren Phänomenbereich dar. In der Soziologie wie auch allgemein in der Emotionsforschung liegt jedoch mitunter ein reduktives, einseitiges, sich auf Alltagsbegriffe stützendes Verständnis von Emotionen vor. Dadurch kann das Verhältnis von Emotionalität und Sozialität nur unterkomplex erfasst werden. In diesem Beitrag wird eine modulare Theorie vorgestellt, die die verschiedenen Ebenen von Emotionen in Gestalt von Basisemotionen und kognitiven Emotionen integrieren und dadurch unterschiedliche Formen der sozialen und kulturellen Beeinflussbarkeit von Emotionen identifizieren kann. Am Beispiel der Theorie des Strukturtheoretischen Individualismus von Hartmut Esser wird untersucht, wie eine solche modulare Theorie analytisch gehaltvoll in einen soziologischen Theorierahmen integriert werden kann.;-;-;-;https://link.springer.com/article/10.1007/s11614-008-0019-7 95e2aa98c7bfcb383bf7245656ef583a;de;;;1.1.;;;Bestimmungsgründe der Verweildauer von Patienten in Akutkrankenhäusern Analyse der Krankenhausdiagnosenstatistik Schleswig-HolsteinIn der Bundesrepublik Deutschland werden häufig zu hohe Verweildauern in Akutkrankenhäusern kritisiert. Als möglicher Referenzstandard werden die Verhältnisse in den USA angeführt. Dort liegt die Verweildauer fast 50 v. H. unter der von bundesdeutschen Akutkrankenhäusern. Entsprechende Schlußfolgerungen über das Ausmaß von „Fehlbelegungen“ und „unwirtschaftlicher“ Leistungserbringung beruhen meistens auf der vergleichenden Analyse von Abteilungs- oder Betriebskennziffern. Um jedoch eine differenziertere Beschreibung der Nutzung von Krankenhauskapazitäten etwa für bedarfsplanerische Ziele zu liefern, ist eine fallbezogene Analyse von Verweildauern notwendig.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83520-9_8 5a318a2d03cdac94a080e88094e84c47;de;;;1.1.;;;Psycholinguistische Modelle der SprachverarbeitungDie Geschichte der Psycholinguistik hat gezeigt, daß verzerrende Reduktionen bei der Beschreibung der Sprachverarbeitung am ehesten dann vermieden werden können, wenn sowohl Aspekte der Architektur als auch der Dynamik und der Entstehung des Sprachverarbeitungssystems in gleicher Weise berücksichtigt werden. Zudem ist in den letzten Jahren immer deutlicher geworden, daß neben der individuellen Ebene auch die Ebene der kommunikativen Einbettung des Sprachverarbeitungssystems berücksichtigt werden muß, um die Charakteristika menschlicher Sprachverarbeitung adäquat erfassen zu können. Die Erfahrungen in der Psycholinguistik können bei der Konstituierung der Klinischen Linguistik genutzt werden, um Fehlentwicklungen von vornherein zu vermeiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-85869-6_2 d0d082bf32c0f36c2734b71c53edf9fe;de;;;1.1.;;;Der InformationsverarbeitungsansatzAus der im I. Kapitel erhobenen Forderung nach einer verhaltenswissenschaftlichen Orientierung der Preisforschung ergibt sich die Konsequenz, daß zur Untersuchung der Probleme der Preiswahrnehmung von Konsumenten insbesondere Erkenntnisse aus den Bereichen Psychologie und Sozialpsychologie herangezogen werden müssen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-48109-3_2 d04663ab54a13a6cf6f71b87fa779343;de;;;1.1.;;;Theoretischer Rahmen und deduktiver Schluss im AllgemeinenAufgrund von Theoriepluralismus sind in der politikwissenschaftlichen Literatur ver-schiedene Ansätze zur Erklärung des politischen Wahlverhaltens existent. Im Rahmen der deutschen explikativen Wahlforschung haben sich dennoch mit dem soziologischen, sozialpsychologischen und den ökonomischen Strang drei konkurrierende Erklärungsansätze durchsetzen können. Diese werden unter die traditionellen Erklärungsansätze des politischen Wahlverhaltens subsummiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-28362-9_2 5487ac4d98b4dd791c1d53f7667fce58;de;;;1.1.;;;Die computergestützte Planung des Patientendurchlaufs für eine medizinische LeistungsstelleTerminbuchungsSysteme werden in medizinischen Leistungsstellen nicht zuletzt deswegen eingesetzt, um bei möglichst hoher Auslastung der personellen und apperativen Kapazitäten die Patienten-Wartezeiten möglichst kurz zu halten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-81404-4_48 41b92257b5ddf01342d57d2abd121b77;de;;;1.1.;;;Ein verhaltensorientierter Ansatz zur Erklärung des Entscheidungsverhaltens an einem WertpapiermarktDie begrenzte menschliche Informationsverarbeitungskapazität führt dazu, daß Entscheidungsträger komplexe Probleme vereinfachen, um sie in den Bereich ihrer intellektuellen Fähigkeiten zu bringen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08457-0_4 331e29dc81e30dcdae3c8bd65aec5271;de;;;1.1.;;;Supercomputer als Mehrprozessoranlage — Erfahrungen und ErgebnisseDie Erstellung von Wettervorhersagen mittels Rechenanlagen ist einerseits gekennzeichnet durch die Größe des Problems, welches den Einsatz der jeweils leistungsstärksten Anlage bisher rechtfertigte, und andererseits durch den zeitkritischen Charakter der Ergebnisse, welche nur von Wert sind, wenn die Zeit für die Vorhersage geringer ist als der Vorhersagezeitraum. Diese beiden Aspekte der numerischen Wettervorhersage haben dazu geführt, daß die großen meteorologischen Vorhersagezentren die jeweils leistungsstärkste, kommerziell verfügbare Rechenanlage anschafften und dann größte Anstrengungen unternahmen, die Rechenleistung für das ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-70286-0_20 61f283e85326be2af8ffbf0f207b3248;de;;;1.1.;;;Welche Anforderungen muß eine funktionalistische Theorie mentaler Bilder erfüllen ?Die Fähigkeit, sich etwas bildlich vorzustellen, wird von uns als etwas Selbstverständliches in Anspruch genommen. Wenn zum Beispiel jemand nach der Anzahl der Fenster gefragt wird, die sich an der Frontseite seines Wohnhauses befinden, dann kann die betreffende Person diese Frage beantworten, indem sie sich die Frontseite bildlich vorstellt und die Anzahl der Fenster durch Abzählen vom Vorstellungsbild ermittelt. Die Redeweise, daß jemand ein Vorstellungsbild von etwas hat, ist unkontrovers, solange sie ontologisch uninterpretiert bleibt und nicht mehr bedeutet, als daß sich eine Person eine Sache bildlich vorstellt. Kontroversen über die Möglichkeit und die Natur mentaler Bilder setzen erst an dem Punkt ein, an dem die Rede von Vorstellungsbildern wörtlich genommen und so verstanden wird, daß im Geist der vorstellenden Person bildhafte Repräsentationen existieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-92417-9_19 5cfeda810622e17efa6a27b60ff7791f;de;;;1.1.;;;Emotionale KommunikationDer Consumer Insight wird im Rahmen dieser Arbeit als Basis für die Kommunikationsentwicklung betrachtet. Der Fokus liegt dabei auf der spezifischen Ausprägung der emotionalen Kommunikation, die in Wissenschaft und Praxis besondere Relevanz erlangt hat. Angesichts der aktuellen Rahmenbedingungen der Markenführung wird die Vermittlung ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-9521-2_4 35007f86abd767f0cee4b4fb7f8c199c;de;;;1.1.;;;Aufklärung der Funktion unbekannter Proteine durch SpektralanalyseFür die Untersuchung von Sequenzverwandtschaften, die auf einen evolutionären oder funktionellen Zusammenhang verschiedener Proteine deuten, gibt es mehrere Gründe. Einerseits ist es sehr wahrscheinlich, daß die überwiegende Mehrheit aller heute bekannten Proteine (und insbesondere Enzyme) sich aus einer kleinen Zahl von Urproteinen entwickelt haben (durch Gen-Duplikationen und Mutationen). Es besteht daher begründete Hoffnung, daß man durch systematische Vergleiche von Aminosäure-Sequenzpaaren die Abstammungsreihenfolge der Proteine ebenso rekonstruieren kann, wie die Stammbäume von Organismen durch Varianten „desselben“ Proteins aufgestellt werden können. Vergleiche dieser Art können aber auch zur Aufklärung der Funktion neu bestimmter Genprodukte beitragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82852-2_31 e2ebb35720636d75216f4a290e3d393f;de;;;1.1.;;;Psychophysiologie des TraumsTräume sind das Resultat des Denkens während der Nacht (Aristoteles). Träume sind also, wie andere Denkinhalte auch, das Resultat der Informationsverarbeitung im Hirn (s. z. B. Antrobus 1978, Koukkou u. Lehmann 1980) und bestehen aus neu aufgenommener Information und aus früher gespeicherter Information, mit gewissen kognitiven Strategien bearbeitet. Offenbar ist das Denken während der Nacht anders als das Denken während des Tages, denn wir identifizieren nach dem Aufwachen ein Traumerlebnis als Traum und verwechseln Träume im Normalfall nicht mit Erfahrungen und Denken während des Tages. Die experimentelle Schlafforschung hat zwar gefunden, daß beim Wecken aus dem Schlafe öfters Träume erinnert werden, die dem Tagesdenken ähnlich sind (s. Foulkes 1978). Eine Theorie der Traumentstehung muß jedoch insbesondere das Entstehen derjenigen Träume erklären, die als solche von der Person erkannt werden auf Grund ihrer klassischen Charakteristika: nichtadaptive Realitätsferne, Bizarrität, Diskontinuität, Visualisierung und nicht zuletzt Schwererinnerlichkeit. Andererseits sind Träume nicht einfach durch allfällige Besonderheiten der Systemfunktion in den sog. REM;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-06548-8_6 9c4816e9ae0acc55db7eb3d57cf3b83a;de;;;1.1.;;;Visualisierungstechniken in Entscheidungsproblemen bei mehrfacher ZielsetzungIn diesem Beitrag werden Ansätze zur graphischen Darstellung von Elementen von Entscheidungsproblemen bei mehrfacher Zielsetzung vorgestellt. Dabei wird nach den Betrachtungsebenen des Problems zwischen der Darstellung von Entscheidungsvariablen, von Attributwerten sowie von ordinalen und kardinalen Präferenzaussagen unterschieden. Neben der Darstellung der einzelnen Ansätze wird auch auf den damit verbundenen Rechenaufwand sowie mögliche Interpretationsprobleme eingegangen.;-;-;-;https://link.springer.com/article/10.1007/BF01720313 3eedf23348528c3bf9bb19c5e53a2496;de;;;1.1.;;;Psychophysiologische Untersuchungen bei forensisch relevanten Störungen am Beispiel der PsychopathiePsychopathy – measured with the Psychopathy-Checklist-Revised (PCL-R) – is, according to Hare [21], a personality disorder which is denoted by deviated, interpersonal and emotional characteristics (PCL-R-Factor 1) like affect flatness, deficiency in guilt, remorse and impulsive-antisocial behaviour (PCL-R-Factor 2). Psychophysiological measures like the skin conductance response (SCR), heart rate and the startle response are used to obtain objective, not manipulable measures, which can not be obtained by self-ratings or behaviour observations.;-;-;-;https://link.springer.com/article/10.1007/s11757-007-0042-8 9530127ed23049785177aa48b7b3b474;de;;;1.1.;;;Entwicklung eines Modells zur Erklärung des PrognoseverhaltensWissenschaftliche Modelle dienen als „gedankliche Mittel zum Zweck der geistigen Beherrschung des empirisch gegebenen“. Die Modellierung ermöglicht also die Reproduktion real erfahrbarer oder wahrnehmbarer Problemzusammenhänge durch die Erklärung der in einer bestimmten Situation geltenden Ursache-Wirkungs-Beziehungen. Um zur Lösung spezifischer Probleme beizutragen, ist der Versuch einer vollständigen Abbildung nicht zweckmäßig. Daher muss die Komplexität realer Phänomene auf wenige wesentliche Bestandteile reduziert werden. Dies gilt ebenfalls für die in dieser Arbeit im Zentrum stehende Ökonomik.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-6839-5_3 b941b319e25b7f96a4ff5047d52c1309;de;;;1.1.;;;Zum Diskurs um die Konstruktion und Dekonstruktion von Geschlecht: Sozialpsychologische und soziologische PerspektivenDer Begriff „Geschlecht“ begegnet uns in unserem Alltag häufig nur, wenn wir beim Ausfüllen eines Formulars mit der Frage konfrontiert werden: Welches Geschlecht haben Sie? Hier gibt es in aller Regel zwei Antwortmöglichkeiten: Weiblich/Männlich bzw. Frau/Mann. Ohne in hohem Maße sozial auffällig zu werden, kann man diese Frage nicht mit „Vielleicht“, „Weiß nicht genau“ oder „Beides“ beantworten. Auch sollte man es vermeiden, über die Bedeutung des Begriffs Geschlecht an dieser Stelle weiter nachzudenken. Die Fragen, was hier eigentlich gemeint ist, das biologische oder das soziale Geschlecht oder vielleicht das Identitätsgefühl, und, ob diese Einordnung in gleicher Weise auf die neben mir sitzende Person zu übertragen ist, sollten in dem Moment des Formularausfüllens nicht überhand gewinnen. Ist das Formular ausgefüllt und verlassen wir die Behörde, das Krankenhaus oder Gericht, können wir uns in aller Ruhe dieser Frage widmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-80679-6_2 c5fbc5fa18602ba78450088fc4324791;de;;;1.1.;;;Ursachen und was sie erklärenDer neuronale Determinismus behauptet, dass die neuronalen Aktivitäten des Gehirns unsere mentalen Leistungen vollständig determinieren, weil alles, was wir bewusst erleben, durch das physische Gehirngeschehen verursacht ist. Diese starke These lädt dem Kausalbegriff eine große metaphysische Bürde auf. Dies ist Grund genug zu prüfen, was er in den wissenschaftlichen Erklärungen der Hirnforschung leisten kann – und was nicht! Leider ist der Kausalbegriff kein klares Konzept. In der Philosophie oder in der Physik ist er nicht weniger schillernd als in der kognitiven Neurowissenschaft. Insofern sei es den Hirnforschern verziehen, wenn sie ihn nicht sehr präzise benutzen. Unverzeihlich ist es meines Erachtens allerdings, so starke metaphysische Schlussfolgerungen aus diesem unklaren Begriff zu ziehen, wie es in der aktuellen Debatte um Hirnforschung und Willensfreiheit geschieht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25098-9_6 aae57765bdec0f956a894ee8fff1f1d7;de;;;1.1.;;;Methoden zur Identifizierung von entscheidungsrelevanten Eigenschaften und AusprägungenIm Folgenden sollen die wichtigsten Methoden zur Ermittlung von relevanten Eigenschaften vorgestellt und entsprechend ihrer Eignung bewertet werden. Ziel der folgenden Präsentation verschiedener Methoden zur Bestimmung von Eigenschaften ist nicht die detaillierte Beschreibung der Vorgehensweisen oder Auswertungsmöglichkeiten, vielmehr sollen die Verfahren entsprechend ihrer ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-9593-9_5 74430db314bd506a294a20cb648d38ae;de;;;1.1.;;;Die Relevanz von Unternehmensreputation für unternehmerisches HandelnMarketingaktivitäten auf Ebene des Gesamtunternehmens oder allgemein auf höheren Aggregationsstufen als die bislang betrachtete Einzelmarkenebene wird als eines der interessantesten aktuellen Forschungsfelder der Marketingwissenschaft beschrjeben (vgl. ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-9314-0_3 2169d5f4fe69d295de5dc52ef39f41a4;de;;;1.1.;;;Business Process Maturity Model (BPMM): Konzeption, Anwendung und NutzenpotenzialeReifegradmodelle zum Prozessmanagement ermöglichen insbesondere dem Management von Zielorganisationen strategische Aussagen zu Entwicklungsstand und - perspektiven. Sie unterstützen damit primär die Prozessverantwortlichen für ein unternehmensweites und - übergreifendes Geschäftsprozessmanagement, da diese in besonderem Maße mit Fragestellungen der Komplexitätsbeherrschung konfrontiert sind. Der Beitrag skizziert die Struktur und Inhalte des Business Process Maturity Model (BPMM), das zwischenzeitlich von der Object Management Group (OMG) als herstellerunabhängiger (Industrie- )Standard erarbeitet wurde und in einer ersten Version vorliegt. Aufgrund der strategischen Bedeutung und der pragmatischen Vorgehensweise bei der Entwicklung des Modells ist zukünftig eine hohe Nutzerakzeptanz zu erwarten, zumal das Outsourcing ganzer Geschäftsprozesse (Business Process Outsourcing) und die Notwendigkeit einer Standardisierung im Prozessmanagement an Bedeutung gewinnen.;-;-;-;https://link.springer.com/article/10.1007/BF03340339 baea0f02cc8e6632ac10e95e5f708820;de;;;1.1.;;;System-Netzwerk-Architektur (SNA)In großen EDV-Abteilungen werden heute unterschiedlichste Datenfernverarbeitungsanwendungen betrieben. Die stufenweise Implementierung dieser Anwendungen führte systemseitig zum Einsatz einer Vielzahl unterschiedlichster Methoden der Informationssteuerung, wobei vorgefertigte Programmprodukte an eine spezielle Informationssteuerungs-methode fest gebunden sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-81404-4_45 59d53e29b91ab2bbdb98b78bbf102559;de;;;1.1.;;;Benzodiazepine und AmnesieBenzodiazepine gehören zu den meist verschriebenen psychotropen Arzneimitteln überhaupt und werden seit mehr als 25 Jahren zur Behandlung von Angstzuständen, Schlafstörungen, der Epilepsie sowie zur Vermeidung von präoperativem Streß und gegen Muskelverspannungen eingesetzt. Kurz nach Einführung von Diazepam als Prämedikation in der Anästhesie wurde über die ausgeprägte Amnesie vor allem nach intravenöser Gabe berichtet (10, 12). Obwohl bei operativen Eingriffen von Arzt und Patient durchaus erwünscht, ist die benzodiazepininduzierte Amnesie in anderen Anwendungsbereichen wie der anxiolytischen Behandlung und der Therapie von Schlafstörungen als unerwünschte Begleiterscheinung anzusehen. Es gilt als gesichert, daß zu den wesentlichen Nebenwirkungen der Benzodiazepine auf der kognitiven Ebene Gedächtnisstörungen zählen. Neben dem verständlichen Wunsch, den Mechanismus zu verstehen, wuchs das wissenschaftliche Interesse, als sich herausstellte, daß Benzodiazepinwirkungen auf das Gedächtnis in wesentlichen Eigenschaften organisch bedingten Amnesien gleichen (78).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-05253-1_5 ee6e8590578f24d6f9388bf27eb8d8d2;de;;;1.1.;;;Normen und Begriffe der NachrichtenverarbeitungDie „Deutschen Normen“ werden vom Deutschen Normenausschuß e. V. (DNA), der seinen Sitz in Berlin hat, unter dem Zeichen DIN veröffentlicht. Die fachliche Arbeit wird von ehrenamtlichen Mitarbeitern in zahlreichen Fachnormenausschüssen geleistet, darunter dem Fachnormenausschuß Informationsverarbeitung (FNI). Die elektrotechnische Normung obliegt der Deutschen Elektrotechnischen Kommission Fachnormenausschuß Elektrotechnik im DNA gemeinsam mit Vorschriftenausschuß des VDE. Gerade auf dem Gebiet der Informationsverarbeitung ist es unerläßlich, die Normen international abzustimmen. Das geschieht in der ISO (International Organization for Standardization) und in der IEC (International Electrotechnical Commission). Hier bestehen u. a. die Technischen Komitees ISO/ TC 97 „Computers and Information Processing“ und IEC/TC 66 „Electronic Measuring Equipment“.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-65584-5_2 0e24faa6a761759d432a1dcfae4d52e5;de;;;1.1.;;;Kritische BewertungAuf der Basis einer empirischen Betrachtung und einer institutionenökonomischen Analyse wurde ein methodisch fundiertes Organisationsdesign für das kommunale Information Management abgeleitet. In drei Fallstudien wurde exemplarisch die Implementierung des Organisationsdesigns gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08633-8_6 40627c3ba5a1e75548369910624ddfc8;de;;;1.1.;;;Räumliche Strukturierungsweisen bei Grundschulkindern zu Bildern von Würfelkonfigurationen — Augenbewegungen als Indikatoren für mentale ProzesseAnhand einer Aufgabenstellung zum Erkennen räumlicher Beziehungen wird räumliches Strukturierungsvermögen von Grundschülern exemplarisch untersucht. Dazu werden Prozesse der visuellen Informationsaufnahme und -Verarbeitung von Grundschulkindern bei der Bestimmung der Anzahl an Würfeln in zweidimensionalen Schrägbildern von verschiedenen Würfelkonfigurationen mit Hilfe der Augenbewegungsregistrierung aufgezeichnet. Diese fur die Mathematikdidaktik neuartige Methode wird durch Re-Interviews ergänzt. Auf diese Weise werden anhand von Fallstudien individuelle Strategien der räumlichen Strukturierung von zweidimensional dargestellten Würfelkonfigurationen aufgezeigt, die sowohl auf unterschiedlich entwickeltem räumlichen Vorstellungsvermögen wie auch auf Kompetenz zur Anzahlerfassung basieren.;-;-;-;https://link.springer.com/article/10.1007/BF03338945 df55a396c8b35c0342df2fea117b76d9;de;;;1.1.;;;Digitale Bildverarbeitung in der Kardiovaskulären RadiologieDigitale Bildverarbeitungsmethoden finden seit 1980 zunehmend Anwendung bei angiographischen Untersuchungen. Im Rahmen der kardiologischen Diagnostik werden besonders hohe Ansprüche an die Bildaufnahmefrequenz und den digitalen Speicherbedarf für Bildszenen von etwa 10 Sekunden Dauer gestellt. Kommerzielle Systeme bieten heute eine Datenverarbeitungsrate von etwa 7.5 Mill. Bildpunkten pro Sekunde. Bei Verwendung einer Bildmatrix mit 512 × 512 Bildpunkten beträgt die Aufnahmefrequenz 25 Bilder/Sek. Sofern diese räumliche Auflösung den diagnostischen Ansprüchen nicht genügt, ist die Verwendung einer 1024 × 1024 Bildmatrix möglich, womit jedoch eine erhebliche Einbuße der Bildfrequenz verbunden ist (7 Bilder/Sek.).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82852-2_72 c8a1927692f1348f26fb2220eaf2c098;de;;;1.1.;;;Verständnis von Kundenwünschen seitens der Verkäufer — eine empirische AnalyseDie Grundidee des Marketingkonzeptes liegt in der Befriedigung von Kundenbedürfnissen und -wünschen. Von daher muss es eine der Zielsetzungen des Marketing sein, eben diese sowohl gegenwärtige als auch zukünftige Kundenbedürfnisse und -wünsche zunächst zu ermitteln und sodann mit entsprechenden Produkten zu befriedigen (Kotler/Bliemel 1999, Levitt 1983, Meffert/Bruhn 1981, Simonson 1993). Die Ermittlung der Kundenwünsche kann dabei unter Einsatz verschiedener Verfahren und Methoden der Marktforschung erfolgen. Eine weitere Möglichkeit, sich den Kundenwünschen zu nähern, bietet der persönliche Verkauf.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-91284-8_5 1321ce4fe62ccb9f2447bf19d7dcfd44;de;;;1.1.;;;Wer Wind sät, wird Sturm erntenDer vorliegende Beitrag nimmt eine theorienvergleichende empirische Analyse der intergenerationalen Transmission von Gewalt vor. Es werden die Selbstkontrolltheorie (Gottfredson und Hirschi 1990) und die soziale Lerntheorie (Bandura 1979a, b) herangezogen, um zu klären, aufgrund welcher Mechanismen das Erleben von elterlicher Gewalt in der Kindheit die Anwendung von Gewalt im Jugendalter begünstigt. Als Grundlage der Studie dienen Daten einer Befragung von Neuntklässlern an allgemeinbildenden Schulen in Dortmund und Stuttgart (n = 4583), die durch das Kriminologische Forschungsinstitut Niedersachsen (KFN) im Jahr 2005 erhoben wurden. Die Datenanalyse erfolgt anhand von linearen Strukturgleichungsmodellen. Die Ergebnisse zeigen, dass die Transmission von Gewalt zu einem überwiegenden Teil auf Lernprozesse und zu einem geringeren Teil auf eine Schwächung der Selbstkontrolle von Jugendlichen zurückgeführt werden kann. Im empirischen Theorienvergleich erweist sich die Erklärung der sozialen Lerntheorie als der Selbstkontrolltheorie überlegen. Die Implikationen dieser Befunde für die weitere Theorieentwicklung werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s11577-010-0127-9 2de580d4fe1c23293b739bab40246078;de;;;1.1.;;;Customer Relationship Management: Bildung und Umsetzung eines KundenwertmodellsIn einem wettbewerbsgeprägten Marktumfeld müssen auch Versicherungskunden von einem Profitabilitätswinkel aus betrachtet werden, d.h., es wird eine Gesamtbewertung der Kunden verlangt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04321-5_18 fed7c66b30616fc2686f79e4bed245f7;de;;;1.1.;;;Temporalinformation bei der TextrezeptionIn der vorliegenden Arbeit wird das Verstehen komplexer Temporalsätze online im Textzusammenhang untersucht. Es sollen empirische Erkenntnisse gewonnen werden, die zum einen den inhaltlichen Bereich der Verarbeitung temporaler Information betreffen, die jedoch darüber hinaus für den Prozeß des Textverstehens generell aussagekräftig sind. Entsprechend dieser Zielsetzung werden im theoretischen Teil der Arbeit sowohl die spezifische Thematik der Verarbeitung von Temporalinformation als auch generellere, den Textrezeptionsprozeß betreffende Fragen behandelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-97041-1_2 f34b92a5b590a2e35b98e5e38551fed1;de;;;1.1.;;;Möglichkeiten und Probleme bei der Anonymisierung personenidentifizierender Angaben in der epidemiologischen ForschungEpidemiologische Krankheitsregister sind wichtige und grundlegende Instrumente der epidemiologischen Forschung. Insbesondere die bevölkerungsbezogenen Krebsregister leisten ihren Beitrag zur Epidemiologie der Krebserkrankungen, (vgl. PARKIN/WAGNER/MUIR (Hrsg.) 1985). Die zuverlässige Schätzung von Inzidenzen und Prävalenzen in Zeit, Raum und speziellen Populationen sowie die Unterstützung der ätiologischen Forschung, z.B. im Rahmen von Fall-Kontroll- oder Kohortenstudien, gehören zu den wichtigsten Aufgaben epidemiologischer Register.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83520-9_11 326cf91a13a8510ba2fbf204390a9a7f;de;;;1.1.;;;Optionsmanagement in F&E: Eine FallstudieBenefits of incremental investments in R&D and new business initiatives are strongly future oriented and, therefore, coincide with large uncertainty. Market launch after the embryonic stages only takes place when conditions are favorable and is blown off when circumstances are poor. Such conditional investments lead to the problem of a complex economic evaluation for which the conventional methods of evaluation are inadequate. In this article, the authors elaborate on the options approach as derived from an analogy with financial options on stocks which offers a possible solution to this problem. The article originates in a current research project in the field of multimedia concerning the development of Optical Tape Recording at Philips Electronics. First, it is shown how a given set of numbers can be interpreted differently in an option-type analysis versus a conventional discounted cash flow analysis. All other things being equal, an option valuationadjustment to traditional capital budgeting leads to a fundamentally different conclusion.Second, the link between option valuation and strategy analysis is discussedand elaborated on.;-;-;-;https://link.springer.com/article/10.1007/BF03371607 5e0c73c8e8cd1dd108974f27bdca4dc7;de;;;1.1.;;;Die Struktur biologischer TheorienIm letzten Kapitel wurden zwei Sorten biologischer Modelle vorgestellt. Sind auch die Modellsorten voneinander unabhängig, in der Anwendung zeigen sich wichtige Verbindungen: Dasselbe Phänomen, beispielsweise derselbe Regelkreis, kann sowohl konservativ als auch nicht-konservativ beschrieben werden, d.h. physikalistisch und funktional. Und tatsächlich wird diese Möglichkeit sehr häufig genutzt: Durch konservative Modelle werden häufig genau die Prozesse physikalistisch beschrieben, die in einem nicht-konservativen Modell bereits funktional beschrieben sind, oft unter explizitem Bezug auf letzteres. In den Originalarbeiten aus Tabelle 1.2. (S. 9) lassen sich leicht Beispiele finden, in denen angekündigt wird, den (konservativen) Mechanismus eines (nicht-konservativen) Signalprozesses zu untersuchen: „To investigate the mechanism of the Toll signaling ...“ („Toll“ ist ein transmembranständiger Rezeptor in der Fruchtfliege ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18592-2_8 198dbaebcb351fed869e407670b4441e;de;;;1.1.;;;Die Bedeutung institutionalistischer Ansätze für das Verständnis von Organisations- und Managementprozessen in multinationalen UnternehmenEs ist auffällig, dass sich die sozialwissenschaftlich orientierte Organisationsforschung nur sehr wenig und theoretisch recht einseitig mit Multinationalen Unternehmen (MNU) als Organisationen beschäftigt. Organisationstheoretische Erklärungsmodelle, die das Verhalten in und von Organisationen jenseits technischer und ökonomischer Unternehmensumwelten erklären, sind daher eher rar und erst seit kurzem in einschlägigen Forschungsarbeiten zu finden. Ziel dieses Beitrages ist, die jüngere und vorwiegend englischsprachige Diskussion über den Einfluss von Institutionen und unterschiedlichen lokalen Rationalitäten auf Organisations- und Managementprozesse in MNU aufzuarbeiten. Im Folgenden werden die Grundlagen, wesentlichen Ansätze, Kernaussagen und Konsequenzen des europäischen und amerikanischen Institutionalismus dargestellt. Insbesondere wird der Beitrag die Bedeutung, aber auch Grenzen dieser beiden Ansätze für die Analyse von Veränderungsprozessen in Multinationalen Unternehmen skizzieren und evaluieren. Im Vergleich zum noch dominanten „evolutionären Paradigma“ in der internationalen Managementforschung wird hier das alternative Erklärungspotenzial von sozialwissenschaftlichen Institutionentheorien herausgestellt und anhand von vier verschiedenen Aspekten diskutiert: dem Einfluss des Heimatlandes, der Macht und der Autonomie von Tochtergesellschaften sowie der Entstehung transnationaler sozialer Räume.;-;-;-;https://link.springer.com/article/10.1007/BF03204587 b1320fafb9b3711779821c7de99786a0;de;;;1.1.;;;Sicherheit der DatenverarbeitungDie Anschläge auf verschiedene Rechenzentren haben gezeigt, daß DV-Anlagen (aber auch Kommunikationsanlagen), in denen für das Unternehmen wichtige Daten bearbeitet werden, nach wie vor Zielscheiben für gewalttätige/kriminelle Aktionen sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-70286-0_18 3dfd225d47fea7927af17a1cdb8fec8f;de;;;1.1.;;;Simulation des StraßenverkehrsDie Zunahme des Straßenverkehrs bewirkte in den letzten Jahren, daß in vielen Großstädten das Straßennetz den Anforderungen nicht mehr genügt. Eine Reihe von Publikationen hat sich, nicht zuletzt aus diesem Grunde, mit Verkehrsfragen beschäftigt. Sie untersuchen vor allem den Verkehrsablauf an Straßenkreuzungen, den kritischen Elementen eines Straßennetzes, die die Leistungsfähigkeit und die Kapazität eines ganzen Straßensystems bestimmen. Die Wartezeit eines Fahrzeuges und die Länge einer Fahrzeugschlange, die sich z. B. vor einer Rot anzeigenden Ampel bildet, sind die wesentlichen Größen, die untersucht werden müssen. Der Verkehrsingenieur hat das Ziel, diese Wartezeiten durch geeignete Maßnahmen, z. B. durch optimale Steuerung von Verkehrsampeln;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-8202-4_9 61fb95fbf95c30e92f6cb2984e73b29d;de;;;1.1.;;;Akkommodation bei Anaphernresolution?Beim menschlichen Sprachverstehen gibt es viele Beispiele für Verstehensprozesse, die mit den (bekannten) Semantiktheorien schwer oder gar nicht zu erfassen sind. David Lewis zeigte 1979 in seinem Aufsatz ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-85180-2_5 6f03f897d7bd21be69c4bbc948d76e04;de;;;1.1.;;;Anomalien in der handlungstheoretischen Erklärung sozialer ProzesseAnomalien als Beobachtungen von realen Phänomenen, die nicht mit den theoretischen Annahmen und Erwartungen übereinstimmen, lassen sich in einer handlungstheoretischen Erklärung sozialer Prozesse nach gegebenem Kenntnisstand mehrfach verorten. Erstens können sich Anomalien auf die grundlegenden Annahmen zur Handlungswahl, ihrer Realisation und den direkt vorgelagerten Prozeß der Informationsverarbeitung, das individuelle Entscheidungskalkül, beziehen. Zweitens können Anomalien im Rahmen der Spezifikation handlungsleitender Prädiktoren, insbesondere bei der Verknüpfung situativer Bedingungen mit den subjektiven Repräsentationen, auftreten. Schließlich können bestimmte Anomalien beim Transformationsschritt von der Mikro- zur Makroebene eine Rolle spielen. Der Beitrag konzentiert sich auf die beiden zuerst genannten Aspekte und diskutiert typische Annahmen traditioneller soziologischer und ökonomischer Ansätze. Ihre offensichtliche empirische Inkonsistenz läßt sich auf die situationslogische Anwendung der Theorien zurückführen, die ihren Rückhalt in den Empfehlungen Poppers zur Logik sozialwissenschaftlicher Erklärungen findet. Diese sind allerdings mit einer erfahrungswissenschaftlich begründeten Sozial- und Handlungswissenschaft kaum vereinbar. Soll dennoch dieser Rahmen nicht verlassen werden, ist man auf Ausweichargumentationen angewiesen, über deren Berechtigung zu diskutieren ist. Kritikleitend ist die Vorstellung, daß die Fehler einer Theorie vor allem im Lichte einer Alternative sichtbar werden und auf diese Weise falsifikatorisches Gewicht gewinnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-09271-1_5 478db89998b816074d5e2282ccf8db2d;de;;;1.1.;;;Routing Algorithmen in Datennetzen — eine vergleichende SimulationsstudieDas routing Problem stellt sich mit besonderer Schärfe bei paketvermittelten Datennetzen. Die weitestverbreiteten routing Algorithmen werden einem simulativen Vergleichstest unterzogen, der sowohl unterschiedliche Verkehrsstrukturen als auch Netzstörungen umfaßt. Adaptive Verfahren dominieren vor allem bei hoher Netzlast und Störungsfällen. Hierbei lassen sich durch paketlängenabhängige routing Entscheidungen sowie gezielten Informationsaustausch im Fehlerfall zusätzliche Verbesserungen erreichen. Im Falle von multi packet messages kann fixed routing ebenfalls keine Vorteile verbuchen. Vielmehr erlaubt das von uns vorgeschlagene adaptive Verfahren bessere performance in Verbindung mit einer weniger restriktiven flow control.;-;-;-;https://link.springer.com/article/10.1007/BF01721100 0e576bba503e1bd4fa889c7b68606529;de;;;1.1.;;;Einzelprozeßbezogenes InnovationsmanagementIm vorangegangen Kapitel wurde die Hypothese aufgestellt, daß „maßgeschneiderte“ einzelprozeßbezogene organisatorische Gebilde notwendig sind, um neben dualen und ambidextren Lösungsmodellen das Instrumentarium des bankbetrieblichen Innovationsmanagements zu vervollständigen. Bevor die einzelnen Aspekte solcher Gebilde analysiert werden, ist die Frage zu stellen, inwieweit es überhaupt möglich ist, verallgemeinernde Aussagen über einzelprozeßbezogene Gestaltungs optionen zu treffen. Grund zur Skepsis gegenüber allgemeinen Rezepturen besteht aufgrund zweier Eigenschaften bankbetrieblicher Innovationsprozesse, nämlich ihrer inhaltlichen Unbestimmtheit und ihrer Vielgestaltigkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08145-6_5 10accfa64f66952c2ee52da3af670797;de;;;1.1.;;;Gefallen der Werbung und Einstellung zur MarkeIn diesem Beitrag wird zunächst die Rolle des Gefallens von Werbung für die Einstellung gegenüber Low Involvement-Produkten erörtert. Es werden die wesentlichen Argumente in der Literatur zugunsten von gefallender Werbung und von missfallender Werbung dargelegt. In sieben Fallstudien wurde die These überprüft, dass gefallende Werbung gegenüber missfallender Werbung Vorteile hinsichtlich der erzielbaren Werbewirkung aufweist. Die empirischen Befunde in dieser Studie stützen diese These. Basierend auf diesen Ergebnissen wird Anbietern von Low Involvement-Produkten empfohlen, neben anderen wichtigen Gesichtspunkten auch darauf zu achten, dass die Werbung den relevanten Werbezielgruppen gefällt, und dies auch durch Werbemittel-Pretests zu überprüfen.;-;-;-;https://link.springer.com/article/10.1007/BF03036351 55b4e288e621c322c3d80a5fc5ae1560;de;;;1.1.;;;Clusteranalyse — Überblick und neuere EntwicklungenDieser Artikel gibt einen Überblick über die mathematischen Methoden der Clusteranalyse. Er berichtet über Algorithmen zur Konstruktion von homogenen Objektklassen, über Verfahren zur Bewertung von Klassifikationen sowie über praktische Anwendungsfälle.;-;-;-;https://link.springer.com/article/10.1007/BF01719499 8b6c4bbc7e2e0db836704c359837e54b;de;;;1.1.;;;Theoretische Grundlagen der Eindrucksbildung des Verkäufers im VerkaufsprozeßUnter Eindrucksbildung wird allgemein der Aufbau einer inneren Repräsentation anderer Menschen, eines Bildes ihrer Eigenschaften, Fähigkeiten und Einstellungen verstanden, die ein Ergebnis der Wahrnehmung der betreffenden Person sind (Zimbardo 1995, S. 701). Im Gegensatz zur Wahrnehmung physikalischer Eigenschaften von Objekten, deren Reizmerkmale der direkten Wahrnehmung zugänglich sind, ist die Wahrnehmung von Personen komplexer (Jahnke 1975), denn Persönlichkeitseigenschaften als hypothetische Konstrukte können nicht direkt beobachtet bzw. objektiv wahrgenommen und beurteilt werden. Sie müssen mit Hilfe der Wahrnehmung von beobachtbaren Eigenschaften in einem internen Schlußfolgerungsprozeß des Erkennens und Beurteilens erst konstruiert werden (Stroebe et al. 1996, S. 146).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08684-0_4 4a8c44756545fe18ddcdab7a8e9c760d;de;;;1.1.;;;Motivation und Handlungskontrolle: Ohne guten Willen geht es nichtAls ich Anfang der 70er Jahre meinen ersten Versuch machte, das motivationstheoretische Paradigma um eine mir wichtig erscheinende Prozeßkomponente zu erweitern (Kühl, 1972), wagte ich noch nicht, diesen bislang vernach-lässigten Prozeßaspekt mit dem Begriff „Wille“ zu bezeichnen, obwohl es mir genau um die psychischen Abschirmvorgänge ging, die in der früheren deutschen Willenspsychologie so intensiv untersucht worden waren (Ach, 1905, 1910). Der Begriff Wille war in der experimentalpsychologischen Tradition zum Tabuwort geworden und mußte oft unter unscheinbaren Decknahmen ein Schattendasein in Nachbardisziplinen führen. Dafür gab es viele Gründe. Zwar hatte bereits Ach (1910) mit seiner Unterscheidung zwischen der „positive“ und der „negativen“ Definition der Willensfreiheit eine klare Grundlage für die Abgrenzung des Gegenstandes der experimentellen Willenspsychologie von dem philosophisch stark belasteten Willensbegriff geleistet. Trotzdem könnte man meinen, daß es den Philosophen gelungen war, den Psychologen Angst vor der experimentellen Analyse des Willens einzujagen. Diese Angst konnte sich natürlich auch deshalb ungehindert ausbreiten, weil sich die Experimen- talpsychologen inzwischen selbst eine Philosophie zugelegt hatten, die auch durchaus unschuldiger anmutende Konzepte aus der Psychologie verbannen wollte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-71763-5_8 caf17a4fcab826b06add1912be0f27af;de;;;1.1.;;;Verhaltenswissenschaftliche Evaluierung des Pervasive GamesWährend sich die Kapitel 2 bis 4 primär mit der designwissenschaftlichen Entwicklung einer innovativen Lernmethode befassen, steht im Folgenden die verhaltenswissenschaftliche Evaluierung des Pervasive Games „Digitale Ökonomie“ im Mittelpunkt. Dazu werden in diesen Kapitel eine Reihe hypothetischer Konstrukte eingeführt mit denen die Wirkungen des Pervasive Games in einer adäquaten Weise beschrieben werden können. Neben der Operationalisierung der Wirkungskonstrukte wird in diesem Kapitel auch ein detailliertes Hypothesenmodell aufgestellt, das durch den am Ende des Kapitels beschriebenen Messablauf verifiziert werden soll.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-9691-6_5 9d4f795d0540c0c0879ccd951a308b43;de;;;1.1.;;;Anomalien in der Entscheidungstheorie. Empirische Evidenz und KonsequenzenDer Beitrag befaßt sich mit empirischen Gegenevidenzen zur klassischen Erwartungsnutzentheorie, die im Bereich der (sozial-)psychologischen und mikroökonomischen Forschung aufgedeckt wurden. Der Überblick über die wichtigsten Anomalien zeigt, daß grundlegende Annahmen der Theorie der rationalen Wahl als empirisch widerlegt zu betrachten sind. Hinsichtlich dieser Ergebnisse liegen unterschiedliche Reaktionen vor, auf die der Beitrag Bezug nimmt. Letztlich scheint eine Preisgabe der unrealistischen Annahmen über die Akteurspräferenzen unerläßlich zu sein, um der subjektiven Wahrnehmung von Alternativen und den Bedingungen des Entscheidens unter Unsicherheit und Risiko zu entsprechen. Damit gewinnen Überlegungen zur Anpassung des Entscheidungsmodells an die beobachteten Präferenzmuster, zu alternativen Entscheidungsregeln sowie zur Erweiterung der Theorie um subjektive und psychologische Elemente an zentraler Bedeutung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-09271-1_6 120e82a21205cedcd990045e32d22422;de;;;1.1.;;;Zentrale Entwicklungen in der Theoriebildung und Forschung zur Aufmerksamkeit in der PsychologieIm folgenden Kapitel geben wir eine kurze Übersicht über zentrale Entwicklungen in der psychologischen Aufmerksamkeitsforschung. Wir beginnen mit einer Begriffsbestimmung. Hier halten wir fest, dass Aufmerksamkeit keine Widerspiegelung einer einheitlichen Ursache sein muss: Aufmerksamkeit ist ein deskriptiver Terminus für verschiedene Formen der Selektivität psychischer Prozesse. Diese Selektivität kann je nach Aufgabe unterschiedliche Ursachen haben. Ausgehend von dieser Begriffsbestimmung schildern wir kurz die wichtigste Methode der psychologischen Aufmerksamkeitsforschung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-19381-6_18 a6d1e89e3764f3fa3a5ace5975f5c2de;de;;;1.1.;;;Wie wirken „Subkulturen der Gewalt“? Das Zusammenspiel von Internalisierung und Verbreitung gewaltlegitimierender Normen in der Erklärung von JugendgewaltSowohl die Internalisierung als auch die soziale Verbreitung gewaltlegitimierender Normen sind empirisch mit Gewalthandeln verknüpft. Die genauen handlungstheoretischen Prozesse, über die gewaltlegitimierende Normen handlungsleitend werden, sind jedoch bislang nicht geklärt. Ausgehend von sozialpsychologischer, ethnologischer und soziologischer Forschung zu gewalttätigen Subkulturen werden zum einen die Befolgung internalisierter Normen und zum anderen Statusabwägungen als relevante handlungsleitende Prozesse identifiziert und mit Hilfe des Modells der Frame-Selektion in ein allgemeines handlungstheoretisches Modell integriert. Zum Test der abgeleiteten Hypothesen werden Daten zu Gewaltintentionen und Responsezeiten eines faktoriellen Surveys analysiert, die im Rahmen einer Schülerbefragung (;-;-;-;https://link.springer.com/article/10.1007/s11577-016-0369-2 c5ee352f8248b9f87a56ea114498ba4d;de;;;1.1.;;;Wirkungszusammenhänge auf der KonsumentenseiteAls einer der wesentlichen Bestandteile einer Gesamtkonzeption der Variantenvielfalt steht im Folgenden die Konsumentenseite im Fokus der Betrachtung. Dabei geht es um die Analyse der Wahrnehmung und Beurteilung von Variantenvielfalt durch Konsumenten, die in der im letzten Kapitel gezeigten Gesamtdarstellung (vgl. Abb. 5-7) auf der linken Seite abgebildet ist. Anhand des Kaufentscheidungsprozesses werden unterschiedliche Einflussfaktoren der Wahrnehmung von Variantenvielfalt diskutiert. Auch in diesem Kapitel wird – der dieser Arbeit zugrunde liegenden Definition entsprechend – neben der Anzahl insbesondere der Grad der Unterschiedlichkeit von Varianten durchgängig berücksichtigt. Die Wahrnehmung dieser Aspekte der Variantenvielfalt erfolgt anhand der Merkmale und Ausprägungen von Produktvarianten. Die Ergebnisse der Analyse der Wirkungsbeziehungen auf der Konsumentenseite sollen schließlich die Grundlage bilden für die Ableitung des zu entwickelnden Variantenangebots durch Unternehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-4200-5_6 289eef69f6a397ff1c0fd3e785ee7120;de;;;1.1.;;;Standardisierung im ÜberblickIm folgenden wird ein Überblick über die Aktivitäten der Standardisierungsgremien gegeben, die sich mit der Erarbeitung von Standards beschäftigen, die für Mitteilungssysteme relevant sind. Es werden die wichtigsten Standardisierungsgremien, ihre Organisationsform und die vorliegenden Normen, Entwürfe und Empfehlungen im einzelnen vorgestellt. Im Anschluß daran wird ein kurzer Überblick über die Kooperation zwischen den verschiedenen Gremien gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-83106-4_2 261c4ea10cb759d9e79eef349334af35;de;;;1.1.;;;Soziale Kategorisierung, Stereotype und VorurteileDieses Kapitel befasst sich mit der Frage, wie Menschen die Information über ihre Mitmenschen organisieren. Menschen werden hier als Mitglieder von Gruppen – Kategorien – betrachtet, und zwar nach gemeinsamen Merkmalen, die bei ihnen jeweils beobachtet oder ihnen zugeschrieben werden. Dieser Prozess, im Zuge dessen die Komplexität von Informationen des sozialen Kontexts reduziert wird, heißt Kategorisierung. Man nimmt an, dass die Mitglieder einer Kategorie identisches Verhalten und gleiche Eigenschaften ausweisen. In unserem Bewusstsein bilden sich stereotype Muster, die aktiviert werden, sobald wir Mitgliedern einer bestimmten Kategorie begegnen. Sind die stereotypen Muster negativ und rufen sie emotionale Ablehnung oder sogar Aggressionen gegenüber den vorurteilsbehafteten Personen hervor, sprechen wir von Vorurteilen. Vorurteile werden überwiegend automatisch, ohne bewusste Kontrolle, aktiviert. Nur in bestimmten Situationen können solche Automatismen kontrolliert und korrigiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-62922-2_4 7c52572895e2ea9dda8b0ed6539d4f1c;de;;;1.1.;;;Der Einfluß von Naftidrofuryl (Dusodril) auf die schallgeschädigten Summenaktionspotentiale des Hörnerven beim MeerschweinchenUnder the effect of Naftidofuryl and white noise, the amplitudes of the compound action potentials of the acoustic nerve are significantly higher than those of the white noise damaged without Naftidrofuryl during the recovery time.;-;-;-;https://link.springer.com/article/10.1007/BF00458986 5279e492031e4fddaec1e47791b41f84;de;;;1.1.;;;Politisierung durch Zwang?In Reaktion auf sinkende Beteiligungsraten bei Wahlen besteht in der internationalen politikwissenschaftlichen Forschung ein anhaltender Diskurs zu den Wirkungsweisen der Einführung einer Wahlpflicht. Neben der durch eine Wahlpflicht induzierten Steigerung der Wahlbeteiligung und dem Rückgang der sozial-selektiven Beteiligungszusammenhänge werden förderliche Eigenschaften für die politische Bildung und Involvierung der Bürger angenommen („spill-over-Effekt“). Es wird eine Auswertung der Literatur zur Wahlpflicht vorgenommen, welche in Anlehnung an die Hypothesen von Arend Lijphart, zentrale Forschungsbefunde zu den Wirkungseffekten zweiter Ordnung der Wahlpflicht zusammenfasst. Der Diskurs zur Wahlpflicht erscheint sehr stark von theoretischen Abhandlungen geprägt und weist Forschungslücken in der Untersuchung der Wirkungseffekte einer Wahlpflicht auf. In der Abhandlung wird erstmals auf Basis eines großen Datensatzes (;-;-;-;https://link.springer.com/article/10.1007/s41358-020-00217-4 15fa16a826dd43f69c72c95d5ec41cf7;de;;;1.1.;;;Altersverteilungen bei einem eindimensionalen räumlichen Verzweigungsprozeß mit ShiftDas Zellerneuerungssystem der Dünndarmkrypte und seine räumliche Struktur, insbesondere die Abhängigkeit verschiedener Zellparameter von der Lage der Zellen im System, ist ein in der biologischen Literatur intensiv behandeltes Thema. Insbesondere über positionsabhängige Mitose- und Syntheseraten und ihre zeitliche Entwicklung liegt reichhaltiges Datenmaterial vor [1,4,8].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82158-5_63 f9e5741da610e81e372f969d6b863b3b;de;;;1.1.;;;Zielkonflikte im therapeutischen ProzeßDer therapeutische Prozeß läßt sich aus der Sicht aller gängigen Therapierichtungen als Problemlösungsprozeß verstehen, bei dem ein unerwünschter Ausgangszustand (Probleme der Patienten) mit Hilfe geeigneter Strategien und Interventionen in einen gewünschten Zielzustand überfuhrt werden soll (Bartling et al, 1980).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08176-0_1 3c1a3bc7c50a080ee611dc03a3d3a0dc;de;;;1.1.;;;Theorien des sozialen Handelns: Symbolischer Interaktionismus, phänomenologische Soziologie und EthnomethodologieDer Positivismus der modernen amerikanischen Soziologie (Systemtheorie, Funktionalismus) brachte mehrere Gegenströmungen hervor: eine negativistische Kritik der Moderne, etwa Riesmans (1950) oder Marcuses (1964, vgl. Kap. 6.2.), und eine interpretative Soziologie, mit ihrer Betonung der „Subjektivität“ des Handelnden, der Zeitgebundenheit von Handlung und Erfahrung. Die Kritik der Trennung von Wissenschaft und Praxis in der positivistischen Soziologie wird im Aufdecken der politischen Prämissen des Umgangs mit Abweichung und sozialen Problemen demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-9309-9_4 1786f678270d8ce169f6d500997110f2;de;;;1.1.;;;Modelle zur Zeitdauerdiskrimination: Ein neuer Zugang ihrer ÜberprüfbarkeitEinen großen heuristischen Wert in der Zeitwahmehmung besitzen innere Uhren, die auf einem neuronalen Pulsprozeß basieren (z.B. Killeen & Fetterman, 1988). Creehnan (1962) formulierte erstmals ein solches neuronales Zählermodell für die Diskrimination kurzer Zeitdauern. Dabei nahm er an, daß während der Darbietung eines Intervalls, dessen Dauer t beurteilt werden soll, ein neuronaler Taktgeber Pulse erzeugt. Die Anzahl ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-85180-2_28 86452a8e5212111782f5d2909b8685ed;de;;;1.1.;;;C Theoriebasierte Modellentwicklung zur Analyse einer Determinante und mehrerer Konsequenzen der distributiven, prozessualen, informationellen und interpersonellen Fairness in der stationären PatientenversorgungDas folgende Kapitel dient zur theoriebasierten Herleitung eines Modells, das auch einer empirischen Überprüfung zugänglich ist. Rückblickend auf die Literaturübersicht in Kapitel A2 wird statuiert, dass sowohl auf theoretischer als auch empirischer Ebene eine Auseinandersetzung mit den Fairnessdimensionen in der Beziehung zwischen Unternehmen und externen Stakeholdern – und im Speziellen im Krankenhaus-Patientenbzw. Krankenhaus-Einweiser-Verhältnis – nur rudimentär vorliegt. Bis heute beschränken sich die Studien mit Blick auf die Beziehung zum Kunden oder Intermediär auf die Preisfairness und die Bearbeitung von Reklamationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-12091-7_3 9c7b462b15835115b58f364832913be4;de;;;1.1.;;;Aufmerksamkeit und exekutive Funktionen bei Patienten mit Adipositas per magnaAufmerksamkeit und Temperament werden bei 41 Adipösen mit psychiatrischer Komorbidität mit 45 Kontrollpersonen verglichen. Erfasst werden Netzwerke der Aufmerksamkeit mit dem Aufmerksamkeitsnetzwerktest: Alerting (Fähigkeit, einen wachen Zustand herzustellen und zu erhalten), Orientierung (Fähigkeit, einen Stimulus aufzusuchen) und exekutive Aufmerksamkeit (Fähigkeit zur Konflikterkennung und -lösung). Entsprechend den Hypothesen zeigen Adipöse gegenüber Kontrollpersonen verminderte exekutive Aufmerksamkeit und willentliche Kontrolle sowie eine vermehrte negative Affektivität. Die Arbeit zeigt Verbindungen zwischen der Theorie der Aufmerksamkeitsnetzwerke und kognitiven Mechanismen der Selbstregulation auf und eröffnet damit neue Forschungsperspektiven für das Verständnis psychiatrischer Erkrankungen.;-;-;-;https://link.springer.com/article/10.1007/s00115-005-1951-4 d6091a2841924fec206999104a402e06;de;;;1.1.;;;Determinanten und Akkuratheit von Schülerurteilen über sprachliche Fähigkeiten von Mitschüler(inne)n im Deutschen und den Herkunftssprachen Türkisch und RussischModellen der Sprachaneignung zufolge sind für die die Entwicklung sprachlicher Fähigkeiten auch die sprachlichen Fähigkeiten von wichtigen Interaktionspartnern (z. B. Peers) bedeutsam. Da objektive Kompetenzmaße von Interaktionspartnern selten verfügbar sind, könnten alternativ Fremdeinschätzungen der sprachlichen Fähigkeiten erhoben werden. Im Beitrag wurden daher Schülerurteile über sprachliche Fähigkeiten von Mitschüler(inne)n im Deutschen und den Herkunftssprachen Türkisch und Russisch als potentielle Indikatoren tatsächlicher Sprachfähigkeiten untersucht. Mit Hilfe von Mehrebenenmodellen wurde analysiert, welchen Einflussfaktoren die Fremdeinschätzungen unterlagen, wie akkurat diese ausfielen und unter welchen Bedingungen akkuratere Einschätzungen gelangen. In allen Sprachen ergaben sich moderate Zusammenhänge zwischen den Fremdeinschätzungen und objektiven Leistungsmaßen, wobei die Urteilsakkuratheit insbesondere von Merkmalen auf der Beziehungsebene zur eigeschätzten Person (gemeinsamer Unterricht, geteilter Sprachhintergrund, Beziehungsqualität) moderiert wurde. Im Deutschen zeigten sich negative leistungsbezogene Vorurteile gegenüber Jugendlichen mit türkischer und russischer Herkunftssprache. Die Ergebnisse werden in Bezug auf Möglichkeiten und Grenzen von Fremdeinschätzungen sprachlicher Fähigkeiten sowie auf Konsequenzen leistungsbezogener Vorurteile diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s11618-020-00972-8 03c6dc27e11ed4efb54a76903340baef;de;;;1.1.;;;Kognitive sozialpsychologische Theorien in ihrer Bedeutung für das Konsumgüter-MarketingDie Theorie der kognitiven Dissonanz ist durchaus als eine der bedeutendsten Theorien der Sozialpsychologie zu bezeichnen. Sie wurde in ihrer ursprünglichen Fassung 1957 von Leon Festinger vorgestellt und inzwischen mehrfach reformuliert. Trotz ihrer hohen Bedeutung findet sie nach Ansicht der Verfasser relativ selten Berücksichtigung in der Marktkommunikation, obwohl die direkte Relevanz gegeben ist. Im folgenden wird die Theorie in ihren wesentlichen Strukturen dargestellt. Dabei wird vornehmlich auf die wesentliche Reformulierung von Irle (1975, S. 310–346) sowie auf die weiteren neueren Darstellungen von Irle (1978) und Frey, Irle, Möntmann, Kumpf, Ochsmann und Sauer (1982) eingegangen. Im Anschluß daran werden für das Marketing relevante Aspekte aufgezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-93621-0_3 8f70226ef2a65383f82e1da7146c451c;de;;;1.1.;;;Placebo — das universelle MedikamentPlacebo — die Herkunft vom Lateinischen ‘placere’ ist sicher, die Bedeutung ungewiß: ‘placere’ im Sinne von gefällig sein, nicht von gefallen. Im Oxford Dictionary findet sich die erste medizinische Definition von 1811: ‘a medicine given more to please than to benefit the patient’, 1953 heißt es leicht abgewandelt: ‘a medicine to humour, rather than cure, the patient’. Beides trifft nur teilweise zu, denn die Anwendung von Placebos in der Therapie bringt dem Patienten Nutzen, andererseits dient der Einsatz zur Kontrolle eines therapeutischen Versuches nicht dazu, dem Patienten gefällig zu sein. Auch andere Definitionen des Placebo-Begriffs zeigen, wie schwierig es ist, diese doppelte Funktion der Prüfung und der Behandlung zu charakterisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82158-5_1 38c36f8125d1a5455999274c4a4a0fdd;de;;;1.1.;;;Die Praxis der TheorieTheorien pflegen sich als fertig zu präsentieren — bescheiden im Anspruch und hypothetisch im Charakter, aber doch als Objekte, die stehen, als Aussagen, die gemacht sind, diskutiert werden können und sich während der Diskussion nicht unversehens verändern. Diese Objektivität der Theorie ist Voraussetzung ihrer Prüfung, ihrer Annahme oder Ablehnung. Ihr gegenüber ist es unangemessen, auf die Herkunft der Theorie, auf ihre Entstehungsgeschichte, auf den sozialen oder politischen Standort oder auf die Wirkungsabsichten ihres Verfassers zu verweisen. Dieser Hinweis liefert keinerlei Anhaltspunkte für die Wahrheit oder Falschheit der Theorie. Er formuliert nur eine mehr oder minder interessante neue Theorie, die sich ebenfalls als fertig präsentieren muß, bescheiden im Anspruch, hypothetisch im Charakter...;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-96984-2_12 8b55644937ce1b21ffe6a158d00114eb;de;;;1.1.;;;Soziale Kompetenz in multilingualen GrundschulklassenDas Konstrukt der sozialen Kompetenz ist durch Vielgestaltigkeit, Altersabhängigkeit der Inhaltsbereiche und Situationsspezifität sozial kompetenter Verhaltensergebnisse gekennzeichnet. Mit der Studie KEIMS wird das Ziel verfolgt, Bildungswirkungen von Schule in Form schulfachlicher und sozialer Kompetenzen von Grundschulkindern unter Berücksichtigung der Multilingualität in den Klassenzimmern zu untersuchen. Damit verbunden ist eine Konstruktentwicklung zu sozialen Kompetenzaspekten. Es werden Ergebnisse des ersten Messzeitpunkts berichtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-90075-9_3 9044156914b2407996a1ffe0f2367a44;de;;;1.1.;;;Diagnostic and Prognostic Decision-Making Systems: A Survey of Recent Developments in the United StatesOver a decade ago, D. J.CROFT [1] wrote a review article, asking ‘Is Computerized Diagnosis Possible?’. His sentiments were echoed in a 1977 editorial by R.B. FRIEDMAN and D.H. GUSTAFSON [2] stating: ‘Successful applications in many other areas have been reported but the overall impact of computers on health care delivery has been less than was expected as recently as 5 years ago’. There are still no major successes to report in the realm of computerized diagnosis, but progress has been made. Two ‘second-generation’ artificial intelligence programs for medical diagnosis — ABEL and CADUCEUS — are reviewed below. Both are in the early stages of development. At this time, the prognosis for computerization remains unclear.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82158-5_3 da6f80aab25e6693b4298e1c3c8ec223;de;;;1.1.;;;Unternehmerische Chancen als Feld der GründungsforschungSchon lange wird betont, dass es sich bei der Gründung neuer Unternehmen um ein komplexes Phänomen mit vielen unterschiedlichen Einflussfaktoren handelt (vgl. Gartner 1985). Hierbei wird die Identifikation einer Geschäftschance häufig als entscheidende Phase sowie Wegbereiter im Gründungsprozess dargestellt (Lumpkin, Lichtenstein 2005, Park 2005).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-01665-4_3 05ff8d089508a1f30a2ba9c34bee1dbc;de;;;1.1.;;;Sprachen in statistischen AuswertungssystemenIm folgenden möchte ich versuchen, eine grobe Übersicht über die zur Zeit vorhandenen Sprachtypen in statistischen Anwendungssystemen zu geben. Diese Sprachtypen werden dann anhand einiger Kriterien bewertet und diskutiert. Auf konkrete Beispiele von Sprachkonstrukten bestimmter statistischer Auswertungssysteme habe ich bewußt verzichtet: Man findet sie in ausreichender Form bereits in der Literatur. Verwiesen sei hier besonders auf das Buch von FRANCIS [3] und auf das Beiheft 5 des Statistical Software Newsletters (insb. GRÜNBERG, [4], HAUX, [6], SCHIENMANN, [14]. Die verwendete Terminologie ist erläutert in HAUX [7]. Die Literaturangaben zu den hier erwähnten statistischen Anwendungssystemen stehen — falls sie hier nicht aufgeführt sind — in FRANCIS [3].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82158-5_78 2d0b4d0cbd9a45d7284c3700d9257f80;de;;;1.1.;;;Graphische Modelle bedingter Wahrscheinlichkeiten im empirisch-didaktischen VergleichTraining programs for conditional probabilities based on the graphic models tree diagram, inverted tree diagram and unit square are investigated with respect to their ability to overcome students’ misconceptions in this field. Theoretical considerations from viewpoint of cognitive psychology lead to the main hypotheses that 1. graphic visualization makes the understanding of conditional probabilities easier, and 2. the unit square is superior to the other two graphic models as it not only supports the access to the event space but also visualizes geometrically the size of probabilities. Both hypotheses can be confirmed in two experiments. These results are in sharp contrast to didactic reality, particularly textbooks which, if at all, use the tree diagram representation.;-;-;-;https://link.springer.com/article/10.1007/BF03338820 56f99c7cdf63feaf28c3c859d7f7394d;de;;;1.1.;;;S M A Scholz-Medis ArzneimittelinformationssystemEin wichtiger Teil der Gesundheitsversorgung ist die Therapie mit Medikamenten. Dazu sind Informationen sowohl im ambulanten und stationären Bereich der Patientenversorgung als auch im Bereich der allgemeinen Medikamentenversorgung (Apotheke) notwendig. Die Information und das Wissen über Arzneimittel wachsen kontinuierlich an und sind mit konventionellen Mitteln wie z.B. Buch und Mikrofiche nicht mehr ausreichend handhab- und vermittelbar. Daher ist es notwendig, Methoden der Informationsverarbeitung einzusetzen, um das vorhandene Wissen zugänglich zu machen und damit die Arzneimittelversorgung der Bevölkerung qualitativ zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82852-2_133 08bd31c21a59c166ae6911c86866591e;de;;;1.1.;;;Politische Kommunikation — Publizistik- und kommunikationswissenschaftliche PerspektivenBeiträge der Publizistik- und Kommunikationswissenschaft zum Thema „politische Kommunikation“ gibt es so lange wie das Fach selbst. Wenn wir davon ausgehen, dass es als eigene wissenschaftliche Disziplin im ersten Drittel dieses Jahrhunderts in Europa und den USA entsteht, dann fällt auf, wie eng bereits diese Etablierung mit „politischen“ Fragestellungen verknüpft ist. Sie heißen etwa: Aufwelche Weise lenkt die Presse unseren Blick auf Gegenstände der öffentlichen Diskussion (vgl. schon Lippmann 1922)? Wird die Tageszeitung ihrer „Sprechsaal“-, ihrer Forums-Funktion für die öffentliche Meinung gerecht (Groth 1928)? Welchen Einfluss haben die Massenmedien auf Wahlen (vgl. vor allem Lazarsfeld/Berelson/Gaudet 1944)?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-80348-1_6 602b3d6ec14f21b4e0593a3eac0d2377;de;;;1.1.;;;Soziale LerntheorienLernen bringt Entwicklung. Daher werden seit mehreren Jahrzehnten viele entwicklungspsychologische Ansätze durch lerntheoretische Perspektiven ergänzt, die besagen, dass die aktive Auseinandersetzung des Kindes mit der Umwelt einer der wichtigsten Katalysatoren seiner Entwicklung ist und Lernprozesse beinhaltet. Darüber hinaus haben sich jedoch auch eigenständige Entwicklungsmodelle über soziales Lernen entwickelt, die auf die individuellen und alltäglichen Erfahrungen des Menschen in seiner Umwelt Bezug nehmen. Diese sozialen Lern- und Entwicklungstheorien wurden aus grundsätzlichen, philosophisch und historisch geprägten Betrachtungen über die menschliche Existenz und Entwicklung hergeleitet. Daher beginnt das vorliegende Kapitel zunächst mit den philosophischen Grundlagen ausgewählter Lerntheorien. Im weiteren Verlauf werden diese Lerntheorien dann erläutert und mit empirischen Studien beispielhaft untermauert. Schließlich erörtern wir, wie die klassischen Ansätze sozialen Lernens ergänzt und erweitert wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34805-1_13 3551745d3c43c111e4333d8131f462da;de;;;1.1.;;;Elemente einer Theorie der FührungFührung wurde im ersten Teil als ein Prozeß der zielorientierten Verhaltensbeeinflussung definiert (vgl. S. 38). Dieser Begriffsfassung liegt eine umfassende Berücksichtigung jener Vorgänge und Handlungen zugrunde, die bei Versuchen der Verhaltensbeeinflussung anzutreffen sind. Es werden sowohl geplante wechselseitige Beeinflussungen als auch ungeplante Beziehungen zwischen den beteiligten Menschen berücksichtigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-82921-4_4 94cb5037e2aac4be24e1ef54a3185cd8;de;;;1.1.;;;Reaktionen der Konsumenten auf die ProduktqualitätIn diesem Kapitel werden die Reaktionen der Konsumenten auf die Produktqualität erläutert sowie Methoden aufgezeigt, mit denen diese Reaktionen gemessen werden können (siehe Abb. 4–1). Unter Reaktion auf die Produktqualität wird in der vorliegenden Arbeit jedes Verhalten eines Konsumenten gegenüber der Beschaffenheit eines Produktes verstanden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08734-2_4 68f9ee9a21300a45b81e2a6bc52c83bf;de;;;1.1.;;;Rational Choice-Theorie in der KultursoziologieDer vorliegende Beitrag zielt darauf ab zu zeigen, dass die Theorie des rationalen Handelns (RCT) – entgegen weit verbreiteter Einschätzungen – in einem engen Verhältnis mit kultursoziologischen Fragestellungen steht. Grundlage dieses Unterfangens ist eine Definition von Kultur als Verteilung von deskriptiven und evaluativen Überzeugungen in der Bevölkerung, deren individuelle mentale Repräsentationen es ermöglichen, Objekte in der Welt mit Sinn bzw. Bedeutung zu versehen. Da die RCT darauf ausgerichtet ist, soziales Handeln im Allgemeinen unter Rückgriff auf individuelle Ziele (Präferenzen), Handlungseinschränkungen (Restriktionen) und Erwartungen über Handlungsfolgen zu erklären, müssen diese Elemente bei der Anwendung auf einen konkreten Erklärungsgegenstand durch die evaluativen (Präferenzen) bzw. deskriptiven (Restriktionen, Erwartungen) Überzeugungen von sozio-kulturell eingebetteten Akteuren spezifiziert werden. Insofern spielen kulturelle Phänomene innerhalb der RCT eine zentrale Rolle als Antezedenzbedingung des Handelns. Dies ist besonders der Fall, wenn man die Situationsgebundenheit menschlichen Handelns im Modell der Frame-Selektion – als realistische Modifikation der RCT – explizit modelliert und zusätzlich deskriptive Überzeugungen von Situationsdefinitionen (Frames) und evaluative Überzeugungen von Handlungsvorschriften (Skripte) miteinbezieht. Darüber hinaus können kulturelle Phänomene auch als Explananda von Handlungen im Sinne der RCT verstanden werden, wenn man das Erlernen und Anpassen von deskriptiven und evaluativen Überzeugungen als Entscheidung konzeptualisiert.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-658-08001-3_5-1 c814048bad40e752a37001391c4fd203;de;;;1.1.;;;Psychologische TemperamentstheorienDie experimentalpsychologisch fundierte osteuropäische sowie britische Temperamentsforschung prägt wesentlich unsere heutige Auffassung von Temperament. In den USA etablierte sich eine eigenständige theoretische wie empirische Temperamentsforschung. Die von dort ausgehende Persönlichkeitstheorie wie -forschung („Big-Five“-Modell) basiert auf Eysencks Temperamentsdimensionen. In einem Exkurs werden die grundlegenden Temperamentstheorien der Entwicklungspsychologie vorgestellt, hierbei wird ihr theoretischer Bezug zu den Temperamentstheorien des Erwachsenenalters ersichtlich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39505-5_4 f6e195025625e246396ac10f7835e312;de;;;1.1.;;;Eigenschaften diskreter OrtsfilterProperties of discrete spatial filters are investigated. By introducing rectangular or oblique coordinates it is possible to design filters in a quadratic or hexagonal raster. The design of low-pass, high-pass and band-pass filters is shown. Their properties are evaluated by computing an example, different filters are compared. It is possible to design arbitrary filters, however, there are limitations due to quantization error and approximation of filters by a necessarily finite (and small) number of elements.;-;-;-;https://link.springer.com/article/10.1007/BF00272565 4ab86bb549e53f59eadf0dc1432aee9e;de;;;1.1.;;;Evaluation — theoretische Überlegungen zur ForschungsprozeßgestaltungMit den Darstellungen zu Fragen der Entfaltung organisational Lernens und der Systementwicklung im vorangegangenen Kapitel sind die Überlegungen zur theoretischen Fundierung einer Gestaltung der Strategieentwicklungskonzeption einerseits und der inhaltlichen Zielrichtung der Fallstudie andererseits abgeschlossen. Die Erkenntnisse finden zum einen als präskriptive Gestaltungsrichtlinien und zum anderen als Leitorientierungen für eine Einordnung der Ergebnisse der Fallstudie Verwendung. In diesem und dem nachfolgenden Kapitel stehen Fragen der Gestaltung des Forschungsprozesses im Mittelpunkt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08555-3_6 5878086585038a16aa932a586d7202f0;de;;;1.1.;;;Konzeption der UntersuchungsmodelleIn diesem Abschnitt wird die erste Forschungsfrage der Arbeit adressiert. Ziel ist die Systematisierung und anschließende Darstellung sowie Bewertung von Messansätzen der Markenrelevanz. Diese dient als Basis für die abschließende Konzeption eines methodisch fundierten Ansatzes zur Ermittlung der Markenrelevanz (Messmodell). Abbildung 9 zeigt eine Systematik potentieller Messansätze der Markenrelevanz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-9428-8_3 bcc0543f63ee9a8f04f90362012a1315;de;;;1.1.;;;Grundlagen der InformationsproduktionstheorieIn dieser Arbeit wird ohne Zweifel am häufigsten der Begriff “Information” verwendet. Dieser Ausdruck findet in sehr unterschiedlichen wissenschaftlichen Disziplinen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-89320-8_2 6c30da480228707202ac466085c8a275;de;;;1.1.;;;Meinungsbildung und Meinungsänderung zur Sicherheitspolitik unter dem Einfluß politischer Ereignisse. Eine Panel-Untersuchung über Stabilität und Veränderung von Meinungen zur SicherheitspolitikEs gibt in der politischen Kommunikation mehrere Beispiele dafür, daß Themen über Jahre hinweg konstant in ihrer Nichtbeachtung, sozusagen im eingefrorenen Zustand, verweilen, daß sie dann aber mit einer jähen Vehemenz in der öffentlichen Diskussion auftreten und in heftigen Kontroversen zwischen gesellschaftlichen Gruppen mit verschiedenen Meinungen gehandelt werden. Über viele Jahre hinweg war seitens der Bundeswehr z.B. die Klage zu hören, sie fände in den Massenmedien zu wenig Beachtung. Diese Klage über eine negative Normalität oder Selbstverständlichkeit der Bundeswehr dürfte heute in militärischen Kreisen eher einer wehmütigen Erinnerung gewichen sein: so intensiv wird man wohl nicht in der öffentlichen Diskussion gestanden haben wollen. Das Umschlagen des öffentlichen Interesses ist relativ genau zu datieren, es lag im Winter 1979/80. Der Auslöser dieses Aufmerksamkeitsschubes bestand aber nicht in dem heute heftig diskutierten NATO-Doppelbeschluß vom 12.12.1979, sondern eher in der sowjetischen Intervention in Afghanistan in der Nachweihnachtszeit 1979, was damals als Medienereignis sehr stark hervortrat. Dieser Bericht;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-84083-7_4 de873e5d0532e43723e5a71be0ce4890;de;;;1.1.;;;Nutzerzentrierte Dienstleistungsinnovation durch digitales Design Thinking – Herausforderung und Potenziale für Wissenschaft und PraxisIn diesem Beitrag wird die systematische Recherche und Analyse des Design-Thinking-Prozesses aufgezeigt und eine Methodendatenbank mit über 400 identifizierten Methoden präsentiert. Dabei werden die spezifischen Eigenschaften von Methoden, die für Dienstleistungsinnovationen geeignet sind, dargelegt. So entsteht eine verfeinerte Methoden-Datenbank, die als Handbuch für Design Thinking für Dienstleistungen eingesetzt werden kann. Daraufhin werden Anforderungen zur Digitalisierung der Methoden definiert, um im finalen Schritt eine Methodendatenbank für ein digitales Design Thinking zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-22424-0_4 6fd809a2db537bb53c350ca61bc7041d;de;;;1.1.;;;Einstellungen: Struktur, Messung und FunktionDas Konzept der Einstellung „gehört wahrscheinlich zu den bedeutendsten und unentbehrlichsten Konstrukten in der zeitgenössischen amerikanischen Sozialpsychologie“ (Allport 1954, S. 43). Dies trifft nicht nur auf die Sozialpsychologie Amerikas Mitte der 5oer Jahre zu, sondern gilt in gleichem Maße auch für die gegenwärtige Sozialpsychologie (z. B. Eagly u. Chaiken 1993, Olson u. Zanna 1993).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-09956-8_8 2bd3358ce39bf73a6bc19a22eb6e1715;de;;;1.1.;;;Beste Kombinationen von Analysemethoden zur Identifikation toxischer SubstanzenIm Routinebetrieb eines toxikologischen Laboratoriums ist für eine vorgegebene Substanz (“Gift”) aufgrund einer oder mehrerer Analysemethoden („Systeme“, z.B. Dünnschichtchromatographie oder Gaschromatographie) zu entscheiden, welche Substanz tatsächlich vorliegt. Seien S;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82158-5_35 7b39f682602e1944258079e4e3638c88;de;;;1.1.;;;Zur Wertigkeit neuropsychologischer Kurztests in der Epileptologie Aufgrund der Häufigkeit kognitiver Defizite bei Patienten mit therapierefraktärer Epilepsie und deren Bedeutung für die Lebensqualität der Betroffenen wurde in dieser Studie untersucht, ob kognitive Defizite bei dieser Patientengruppe durch die Kombination zweier Bedside-Tests ressourcenschonend erfasst werden können. 40 Patienten mit therapierefraktärer Epilepsie wurden am Tag nach der Aufnahme auf eine neuropsychiatrische Epilepsiestation mit einer Screening-Batterie von 45 min Dauer und am Folgetag mit den beiden Bedside-Tests untersucht. Die Kombination der beiden Bedside-Tests erreichte im Vergleich zur Screening-Batterie eine Sensitivität von 50% bei einer Spezifität von 100%. Eine Verschärfung der Auswertekriterien in den Bedside-Tests führte zu einem Abfall der Spezifität auf 50%. Ein adäquater Ersatz der Screening-Batterie durch die Bedside-Tests erscheint daher nicht möglich.;-;-;-;https://link.springer.com/article/10.1007/s00115-004-1777-5 3cb1637001adfba09773ab9f72d3d106;de;;;1.1.;;;„Made in?“ – Eine Metaanalyse multidimensionaler Country-of-Origin EffekteDiese Studie untersucht die Auswirkungen von Herkunftslandinformationen von Produkten auf Qualitätswahrnehmungen, Einstellungen und Kaufabsichten von Konsumenten mittels einer differenzierten Metaanalyse, die insgesamt 67 Studien mit 327 Effektstärken integriert. Die Ergebnisse zeigen einen mittleren bis hohen signifikanten Country-of-Origin (COO)-Effekt. Nach der Globalisierungswelle zeigt sich ein verringerter COO-Effekt. Die differenzierte Betrachtung multidimensionaler Effekte zeigt einen vergleichsweise hohen Effekt des Country-of-Brand. Zusätzlich konnten zwei neue Moderatoren identifiziert werden. Erstens messen Studien, die auf Studentenstichproben basieren, höhere COO-Effekte. Zweitens fallen die Ergebnisse in Experimenten geringer aus, wenn hybride Produkte untersucht werden.;-;-;-;https://link.springer.com/article/10.1007/s41471-016-0002-0 894077e5f116c936cc67c817808c1a7f;de;;;1.1.;;;Funktionsprüfungen und Störungen des GeruchssinnesFirstly the review deals with the olfactometry after discussing the olfactory and trigeminal sensitivity of the sense of smell. The term olfactometry will be newly fixed concerning the present problems of odor analysis. Under clinical aspects the methods of subjective olfactometry are discussed and valued. Olfactory tests basing on registering several psychosomatic reflexes (e.g. cardial and/or respiratory frequencies) cannot be described as “objective”. Rather methods are objective which record poststimulatory electrophysiological events at different steps of olfactory pathways. The electric response olfactometry representing a cortical evoked so-called twin-potential containing equivalents for trigeminal and olfactory sense activity starts to demonstrate its efficiency. At least a complete test of olfactory function today includes the rhinomanometry for recording ability in nasal odor transport capacity.;-;-;-;https://link.springer.com/article/10.1007/BF00453708 c04531a6df0edde5586bab05708aec0f;de;;;1.1.;;;Resümee und theoretische IntegrationFür den Versuch einer theoretischen Integration der bestehenden Befundlage zu Zusammenhängen zwischen psychometrischer Intelligenz und Leistungen in elementaren kognitiven Aufgaben sollen zunächst noch einmal die wesentlichen Ergebnisse und Phänomene der Mental-speed-Forschung resümiert werden (in Klammern sind jeweils Verweise auf die Kapitel bzw. Abschnitte angegeben, in denen sich eine ausführliche Darstellung befindet).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-9432-4_8 f237192c1ea59ec47ff421dfe4b74528;de;;;1.1.;;;Kognitive Antezedenzien von WillkürhandlungenDie Frage nach kognitiven Antezedenzien von Willkürhandlungen zielt auf einen Bereich, in dem sich kognitionspsychologische Probleme mit Themen der Motivations- und Willensforschung treffen. In der Kognitionspsychologie - je-denfalls in einigen ihrer gegenwärtigen Strömungen — zeichnet sich seit einigen Jahren die Einsicht ab, daß kognitive Prozesse sich nicht angemessen verstehen lassen, solange der Rahmen des Handelns unberücksichtigt bleibt, in dem sie sich abspielen (z.B. Allport, 1987, MacKay, 1985, Neisser, 1976, Neumann, 1980, 1985a, Prinz, 1983, von Hofsten, 1985). Die Einbeziehung intentionaler Momente ist aus unserer Perspektive für die Kognitionspsychologie eine wichtige Ergänzung. Ob Entsprechendes für eine kognitionspsychologische Erweiterung der Volitionsforschung gilt, können andere besser beurteilen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-71763-5_12 564a4d227dc5a31905d3b042eec8da4b;de;;;1.1.;;;C Theoriegeleitete Modellentwicklung zur Analyse der wahrgenommenen Dienstleistungsqualität als Determinante der Kundenloyalität gegenüber kooperierenden DienstleistungsanbieternGegenstand dieses Kapitels ist die theoriegeleitete Entwicklung eines Forschungsmodells, welches die Fragestellungen aus Kap. A.2 einer systematischen Analyse zugänglich macht. Dazu ist eine Auswahl geeigneter Theorien zu treffen, mit Hilfe derer das angestrebte Modell begründet und formuliert werden kann (Kap. C.1). Zudem ist eine exakte Spezifikation und Operationalisierung der beiden zentralen betrachteten Konstrukte wahrgenommene Dienstleistungsqualität (Kap. C.2) und Patientenloyalität (Kap. C.3) erforderlich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-05602-5_3 1d7d7d1e30d55ac77f329e1bcb88804a;de;;;1.1.;;;Integrierte Telekommunikation und Dezentralisierung in der WirtschaftTrotz vielfältiger wissenschaftlicher und öffentlicher Diskussionen steht die Analyse des Zusammenspiels zwischen neuen kommunikationstechnischen Potentialen einerseits und den menschlichen Verhaltensweisen in Wirtschaft, Verwaltung und Privatsphäre andererseits noch am Anfang. Dementsprechend unsicher müssen Prognosen ausfallen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-95465-8_31 115f2288afc8fccf20e97d17558bff02;de;;;1.1.;;;Imagery-Forschung als Bereich der KommunikationsforschungDie Imagery-Forschung besitzt mittlerweile eine umfangreiche Forschungstradition in der Werbewirkungsforschung. Es erscheint daher interessant, die Theorien, die diese Forschungsrichtung lieferte, in einer State-of-the-Art-Abhandlung zu würdigen. Wir stellen die theoretischen Grundlagen, die in der diesbezüglichen Forschung erarbeitet worden sind, dar. Es zeigt sich, dass mittlerweile ein stark differenziertes Geflecht an Beziehungen thematisiert wird, welches auf einen weit entwickelten Stand der theoretischen Forschung hindeutet. Die Abhandlung schließt mit einem Modell, welches die in der Literatur erörterten Beziehungen einschließt. An dieser Stelle ist es allerdings nicht möglich, auch darauf einzugehen, inwieweit sich die darin enthaltenen Annahmen bereits bestätigen ließen. Betrachtet man den Stand der empirischen Forschung zu diesem Thema, so fällt auf, dass die experimentelle Prüfung der Thesen noch weit hinter dieser Theorie zurückgeblieben ist. Insofern ist das entwickelte Modell eine Idee für die Kommunikationsforschung, über die es sich lohnt, in der Zukunft genauer nachzudenken. Im Folgenden wird zunächst der Begriff Imagery abgegrenzt. Anschließend wird dargestellt, welche Strategien diskutiert werden, um mentale Images auszulösen. Im Weiteren werden die so genannten Availability-, Valence- und Resource-Matching-Hypothesen vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-89480-9_6 60dada65b0b31e640ffdee9504a74e3d;de;;;1.1.;;;Untersuchungsmethodik der EreignisstudieIn diesem Kapitel wird die Untersuchungsmethodik für die empirischen Untersuchungen in den nächsten beiden Kapiteln vorgestellt. Hierzu werden zunächst der wissenschaftliche Ursprung und der grundsätzliche Aufbau einer Ereignisstudie erläutert. Daraufhin werden die wichtigsten methodischen Ausgestaltungsmöglichkeiten sowie die relevanten statistischen Testverfahren zum Nachweis abnormaler Renditen erklärt. Zum Schluss wird die Untersuchungsmethodik der Ereignisstudie einer kritischen Betrachtung unterzogen. Hierzu werden mögliche Problembereiche einer Ereignisstudie aufgezeigt und mögliche Lösungsansätze diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-5543-8_4 6d48ca23b79f01d05e093adfc5fb615e;de;;;1.1.;;;Management und Organisation: Wirklichkeiten im Lichte von System-Umwelt-DifferenzenFür die Entwicklung eines Ansatzes zum interkulturellen Management in dieser Arbeit gehe ich im theoretischen Sinne, wie schon angedeutet, von der Vorstellung einer Innenbetrachtung von Organisationen und in einem weiteren Schritt von einem ‘innerweltlich’ geformten Einbezug der Außenwelt von Organisationen aus. Man könnte auch sagen, daß eine Interaktionssichtweise zugrundegelegt wird, deren theoretischer Ausgang von der Vorstellung genommen wird, daß Organisationen nicht einfach von außen betrachtet werden können, sondern deren Ordnungsmuster sich aus den Prozessen des Anpassens von Selbst- und Fremdbildern zwischen zwei Systemen ergeben. Diese Interaktionsichtweise geht also davon aus, daß organisatorische Ordnungsmuster sich auf der Grundlage ihrer jeweils systembedingt und historisch veranlaßten System-Umwelt-Differenzen bilden. Daher werden in diesem Kapitel zunächst die theoretischen Grundlagen ‘eher’ aus dem Inneren eines Systems heraus entwickelt, um dann in Kapitel IV. in einem weiteren Schritt die bei interkultureller Betrachtung notwendige Innen-Außen-Differenzierung und darauf aufbauender Interaktionen theoretisch erörtern zu können. Dieses ist sogesehen der erste Schritt eines konsequent auf Selbstreferenz und Au-topoiesis aufbauenden Organisationsselbstverständnisses. Selbstreferenz und Autopoiesis schließen an den in II.4. formulierten Ansprüchen an, die auf eine Berücksichtigung der beiden herausgestellten Grundprinzipien des interkulturellen Managements (‘kulturelle Identität’ und ‘Dynamik’) zielen. System-Umwelt-Differenzen werden hierbei im Sinne des in II.4.2. formulierten Leitbildes als theoretische Argumentationsgrundlage fur an beide Grundprinzipien ankoppelnde interkulturelle Interaktionen von Organisationen aufgefaßt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08470-9_4 78b4bacf212c53103bf057fd77aa26ff;de;;;1.1.;;;Kognitive Störungen bei unipolarer DepressionGedächtnisstörungen sind ein häufiges Symptom in der nervenärztlichen, neurologischen und psychiatrischen Praxis. Kognitive Störungen im Rahmen einer depressiven Episode verursachen subjektives Leiden sowie Schwierigkeiten in der Therapie und bei der psychosozialen Reintegration. Die depressionsassoziierte kognitive Symptomatik ist durch eine stimmungskongruente Verzerrung der Informationsverarbeitung sowie durch kognitive Leistungsdefizite gekennzeichnet. Ein differenzialdiagnostisch relevantes Profil neuropsychologischer Störungen, das für Depressionen spezifisch wäre, wurde bisher nicht identifiziert. Allerdings wurden insbesondere Störungen der Exekutivfunktionen sowie des deklarativen Gedächtnisses wiederholt beobachtet. Der zeitliche Verlauf der kognitiven Defizite nach Remission der affektiven Symptomatik ist nicht vollständig geklärt, abhängig vom Zeitpunkt der Verlaufsuntersuchung können die Patienten noch ausgeprägte kognitive Defizite aufweisen. In diesem Beitrag soll das aktuelle Wissen zu kognitiven Störungen bei unipolarer Depression einschließlich ihrer Pathophysiologie sowie entsprechende Behandlungsoptionen dargestellt werden.;-;-;-;https://link.springer.com/article/10.1007/s00115-014-4219-z 486bad962b2f083040f2d96f6e426510;de;;;1.1.;;;Neuronale Netze für ein marktorientiertes ManagementUnternehmen stehen in allen Bereichen vor neuen Herausforderungen, die neue Anforderungen an das Informationsmanagement stellen. Dies betrifft sowohl Datenmanagementelemente (z.B. Aufbau und Realisation von Data Warehouse-Konzepten) als auch insbesondere den Einsatz leistungsfähiger Methoden, die einen Beitrag dazu leisten, aus immer größeren Datenmengen tatsächlich relevante Informationen herausfiltern zu können. Im Zusammenhang mit der zunehmenden Komplexität und Dynamik von Markt und Gesellschaft sind zugleich höhere Anforderungen an derartige Methoden zu stellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-10897-9_2 3446be0471dba8b1aa7b2accc29f18b6;de;;;1.1.;;;IT-Multisourcing-Entscheidungen mit Methoden des PortfoliomanagementsImmer mehr Unternehmen erweitern ihre IT-Sourcing-Strategien von Singlesourcing zu Multi-sourcing, um mithilfe einer optimierten Kombination von Anbietern ihre Unternehmensziele besser zu erreichen. Dieser Beitrag überträgt existierende Methoden aus dem Finanzmanagement auf die IT-Multisourcing-Problemstellung, um sich der Frage anzunähern, welche Sourcing-Anbieter zur Durchführung eines IT-Projekts herangezogen werden sollen. Somit ergänzt das Vorgehen das bestehende IT-Projektmanagement um einen quantitativen Aspekt, der zusätzlich zur qualitativen Analyse herangezogen werden kann.;-;-;-;https://link.springer.com/article/10.1007/BF03340820 572f8f19ca64d74aed6876c03d0132dd;de;;;1.1.;;;Neuere systemtheoretische EntwicklungenAufbauend auf den Erkenntnissen der Quantenmechanik aus den 20er Jahren, in denen der leere Raum verbannt wird und an dessen Stelle eine Anhäufung virtueller Energie gesetzt wird, entwickelten sich in jüngster Zeit verschiedene neuere systemtheoretische Konzepte, die die vertraute Sicht auf das Wesen der physikalischen Realität noch mehr verändern. Stellen die Grundcharakteristika von Materie und materiellen Objekten (Trägheit, Masse und Gravitation) Produkte einer Wechselwirkung von geladenen Teilchen mit dem Quantenvakuum;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-97506-5_8 7feb688cbe63249c608e0a4b0df11dbd;de;;;1.1.;;;Phänomenologisches Konstellationsmodell der DienstleistungsinteraktionAus den bisherigen Betrachtungen heraus wird im folgenden ein zusammenhängendes phänomenologisches Konstellationsmodell der Dienstleistungsinteraktion entworfen. Ein konstellatives Modellieren erlaubt das Zusammendenken verschiedener situierter Konfigurationsaspekte des lebensweltlichen Interaktionsprozesses. Der Vorteil eines solchen Denkens in komplexen Konstellation bzw. prozessualen Konfigurationen ist es, zu einer Wirklichkeitsform voller lebensweltlicher Konkretion von Bedeutung zu kommen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08852-3_5 81c6055a9d8bbc0880dbc72f49ddcd14;de;;;1.1.;;;Effekte von Ketamin auf die ZNS-FunktionDiese Übersicht faßt die zentralnervösen Rezeptorinteraktionen von Ketamin-Razemat bzw. seinen Enantiomeren sowie typische Veränderungen elektrophysiologischer Untersuchungsmethoden (EEG, evozierte Potentiale) zusammen. Die wichtigsten Wirkungen von Ketamin werden über eine nichtkompetitive Blockade des N-Methyl- D-Aspartat-Rezeptors vermittelt. Darüber hinaus gibt es direkte und indirekte Hinweise auf eine Besetzung weiterer Rezeptoren (GABA-, nikotinische Azetylcholin-, Opioid-Rezeptoren, spannungsabhängige Ionenkanäle), deren Bedeutung für das Zustandekommen der dissoziativen Anästhesie durch Ketamin noch diskutiert wird. Als eigentlicher Wirkort des Ketamin werden thalamokortikale Projektionssysteme sowie das limbische System einschließlich des Hippokampus angesehen. Die typischen EEG-Veränderungen nach Ketamin-Razemat beim Menschen sind dosisabhängige Leistungszunahmen des Theta- (und Delta-) Bandes sowie eine Aktivierung höherer Frequenzen (Beta). Das S-(+)-Enantiomer scheint in äquipotenter Dosierung identische EEG-Veränderungen zu induzieren. Das R-(−)-Ketamin ist allerdings nicht imstande, die EEG-Aktivität in einem ähnlichen Ausmaß zu supprimieren wie das Razemat oder S-(+)-Ketamin. Vor allem ältere Untersuchungen postulieren prokonvulsive Effekte des Ketamin. Demgegenüber konnten neuere Studien antikonvulsive und neuroprotektive Wirkungen für Ketamin zeigen. Der kortikale Primärkomplex der somatosensorisch evozierten Potentiale (SEP) wurde beim Menschen von niedrigen Ketamindosen nicht beeinträchtigt. Höhere Dosen führten zu einer Amplitudenzunahme bei unveränderten Latenzen. Eine Beeinträchtigung akustisch evozierter Potentiale (AEP) kurzer Latenz tritt nicht in nennenswertem Umfang auf. Im Gegensatz zu vielen anderen Anästhetika ließen sich AEP mittlerer Latenz nach Ketamin-Razemat und S-(+)-Ketamin unverändert ableiten. Dies wurde als Indiz für eine unzureichende Ausschaltung akustischer Wahrnehmung während Ketaminanästhesie gedeutet. Motorisch evozierte Potentiale nach elektrischer oder magnetischer Stimulation wurden durch Ketamin nicht wesentlich beeinflußt. Die analgetische Komponente der Ketaminwirkung ließ sich mittels schmerzkorrelierter SEP quantifizieren. Die Amplitudenabnahme dieser SEP korrelierte mit subjektiven Schmerzangaben von Probanden.;-;-;-;https://link.springer.com/article/10.1007/PL00002460 3c97b6bca70e67000c8bb57adf8fe33b;de;;;1.1.;;;Dynamisierung strategischer Planungsinstrumente mit Hilfe multimodaler AnalysemodelleDen anwendungsorientierten Hintergrund der Arbeit bildet die Konzeption eines computergestützten Analysesystems zur Unterstützung der strategischen Marketingplanung. Das Konzept ist hauptsächlich darauf ausgerichtet eine Reihe verschiedener Planungsinstrumente bereitzustellen, eine Dynamisierung der Instrumente durch Fortschreibung von Analysen durchzuführen und durch die Integration multivariater Analyseverfahren die Beziehungen und Abhängigkeiten innerhalb der erhobenen Daten zu analysieren und darzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-95893-9_19 325f78206587e563946eb6cd89610ba7;de;;;1.1.;;;Nutzung von Social Media in der mittelständischen UnternehmenspraxisDie Nutzung von Social Media in der mittelständischen Unternehmenspraxis wurde ergänzend zur theoretischen Perspektive im Rahmen einer empirischen Erhebung analysiert. Hierbei lag der Fokus sowohl auf der aktuellen Nutzung als auch insbesondere auf den zukünftigen Nutzungspotenzialen von Social Media im Unternehmenskontext. Eine tragende Rolle spielte dabei auch die grundsätzliche Kompatibilität von Social Media mit den Charakteristika mittelständischer Unternehmen. Darüber hinaus wurden im Rahmen der durchgeführten Untersuchung Ansätze für eine Effektivitäts- und Effizienzbewertung von Social Media eruiert. Bevor in Abschnitt 5.3 die zentralen Ergebnisse der empirischen Erhebung dargestellt werden, erfolgen in Abschnitt 5.1 die Darlegung der Untersuchungskonzeption sowie in Abschnitt 5.2 eine Charakterisierung der an der empirischen Studie beteiligten Unternehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-05600-1_5 20a953a238efc7a84fce0df6880890dc;de;;;1.1.;;;Hirnstrukturelle Veränderungen bei Patienten mit schizophrenen PsychosenVon der fokalen Pathologie zur NetzwerkstörungDie Schizophrenie ist eine Hirnerkrankung und durch eine heterogene klinische Symptomatik geprägt. Entsprechend finden sich auch vielfältige hirnstrukturelle Veränderungen, die sich aber bisher nicht eindeutig auf die Symptome beziehen lassen. Solche hirnstrukturellen Veränderungen mit z. T. bereits bekannten Funktionseinschränkungen lassen sich insbesondere im frontalen und temporalen Kortex nachweisen und korrelieren häufig gut mit dem Krankheitsverlauf. Ätiologisch steht dabei eine entwicklungsbiologische Hypothese im Vordergrund, wonach entwicklungsbedingte, hirnstrukturell erfassbare Gehirnveränderungen, insbesondere des Kortex, für den späteren Erwerb einer Schizophrenie prädestinieren. Ob zusätzlich neurodegenerative Komponenten nachgewiesen werden können, ist z. Z. noch offen. Dabei wird zunehmend deutlich, dass es sich nicht um Abweichungen in einer Hirnregion, sondern um verteilt gelegene Veränderungen handelt. Aktuell ist die Hypothese einer fronto-temporo-limbischen Netzwerkstörung und die Annahme einer lokalen Dyskonnektivität in der neuronalen Netzwerkarchitektur des heteromodalen Assoziationskortex leitend. Aktuelle Forschungsschwerpunkte betreffen daher die Überprüfung der Hypothese einer Konnektivitätsstörung, die auf einer makroskopischen Ebene mit funktionell bildgebenden Verfahren und auf einer mikroskopischen Ebene mit Untersuchungen zur neuronalen Zytoarchitektur verfolgt werden kann.;-;-;-;https://link.springer.com/article/10.1007/s001150050761 71102712f66c8a7696549992e4a3bb4b;de;;;1.1.;;;C Theoriegeleitete Modellentwicklung zur Analyse der stakeholderspezifischen Reputation und inter-stakeholder TransfermechanismenIm Zentrum dieses Kapitels steht die theoriegeleitete Entwicklung eines Untersuchungsmodells, das in der Lage ist, die in Kapitel A formulierten Forschungsfragen zu beantworten. Als Voraussetzung für eine eingehende Auseinandersetzung mit den Transferbeziehungen von Reputation zwischen mehreren Stakeholdergruppen gilt es, das Konstrukt Reputation exakt zu spezifizieren (Kap. C1). Diese Arbeit stützt ihre Untersuchung auf diverse Theorien, sodass eine Überprüfung etwaiger Interdependenzen zwischen diesen zwingend notwendig ist, um mögliche widersprüchliche Erklärungsansätze ausschließen zu können (Kap. C2). Im Anschluss widmet sich Kapitel C3 der unumgänglichen Unterteilung des Krankenhauses in distinkte Organisationseinheiten vor dem Hintergrund der formulierten Forschungsziele.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-09485-0_3 aa8071b6fbe88b33b9af74558cabd4ed;de;;;1.1.;;;Das EEG bei den idiopathischenfokalen Epilepsien—wann behandeln?Idiopathic focal epilepsies are categorized as benignepilepsies. This term is somewhat misleading because even thoughseizures and EEG changes disappear in puberty, psychomotordisabilities can remain severely affected. In particularPseudo-Lennox syndrome, Landau Kleffner syndrome and CSWS areassociated with considerable impairment of speech and mentaldevelopment as well as a regressive course which is thought tobe related to the extent of the EEG changes.;-;-;-;https://link.springer.com/article/10.1007/s10309-004-0050-z b78c94610071fe7bac53f86599f5ea20;de;;;1.1.;;;Wahrgenommenes Risiko und Komplexität der Beurteilungssituation als Determinanten der QualitätsbeurteilungAbgesehen von Impuls- und Gewohnheitskäufen stellt das Qualitätsurteil über ein Produkt das Ergebnis einer bewußten Bewertung im Rahmen von Kaufentscheidungsprozessen dar. Der Bewertungsvorgang besteht ebenso wie der Kaufentscheidungsprozeß aus einer Abfolge von Konfliktzuständen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-85815-3_10 1e4978774a694daf04d15f0389edd07f;de;;;2.4.;;;Peptid-Bildgebung Rezeptoren sind hochaffine Bindungsproteine, die auf spezifische Liganden mit einem definierten physiologischen Ereignis reagieren. Veränderungen in der Wechselwirkung eines Liganden mit seinem Rezeptor wurden bei einer Vielzahl von menschlichen Erkrankungen wie Diabetes und Hyperlipoproteinämie durchgeführt. In den letzten zehn Jahren wurde eine umfangreiche Dokumentation mit rezeptorvermittelter Bildgebung vorgelegt. Radiotracer und nuklearmedizinische Technologien werden verwendet, um viele Krebsarten im Frühstadium durch Erkennung tumorspezifischer Eigenschaften zu erkennen. Unter Tausenden möglicher Kandidaten sind jedoch nur wenige Radioliganden in der Klinik angekommen und im Alltag nützlich. In den letzten drei Jahrzehnten haben sich solche Radioliganden aus monoklonalen Antikörpern, bei denen es sich um große Proteine ​​handelt, über F(ab’) entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-06590-7_9 c00f23c20347b440b26c5987d401c46b;de;;;2.4.;;;Holographische und Spurstärkemodelle von Probeneffekten in der Aufgabe zur Objekterkennung Es werden zwei Modelle beschrieben, die in der Lage sind, Latenzvorhersagen in der Itemerkennungsaufgabe basierend auf der Sequenz und dem Timing von Proben zu generieren. Es wird gezeigt, dass gleiche positive und negative Steigungen möglich sind, wenn die durchschnittliche Anzahl von Proben pro Item mit der Listenlänge zunimmt, dass jedoch, wenn keine Probe stattfindet, die positive Steigung voraussichtlich wesentlich steiler ist als die negative. Außerdem werden serielle Positionseffekte für die verschiedenen Probenstrategien analysiert, die beobachtet werden, wenn Probanden aufgefordert werden, laut zu proben.;-;-;-;https://link.springer.com/article/10.3758/BF03213163 e09caa76c9e9ef887c9705c87f47d3cf;de;;;2.4.;;;Vergleich der Extraktion von Zeit- und Frequenzbereichsmerkmalen für die Erkennung von Motorbildern Der Bereich Brain Computer Interface hat in den letzten Jahren die Zahl der Anwendungen erhöht, um die Lebensqualität von Verletzten zu verbessern. Trotz der Fortschritte auf diesem Gebiet werden verschiedene Strategien analysiert, um zu spezifischen Problemen der Hauptanwendungen beizutragen. Der vorliegende Vorschlag zeigt einen Vergleich zwischen der Verwendung des Zeit- oder Frequenzbereichs zur Merkmalsextraktion in motorischen Bildern der oberen Gliedmaßen. Vier maschinelle Lerntechniken wie K-Nearest Neighbor, Support Vector Machine, Neural Networks und Random Forest wurden trainiert, um motorische Bilder aus EEG-Signalen zu erkennen. Der Vergleich für die Merkmalsextraktion und die verwendeten Erkennungsmodelle wurden analysiert, um die beste Wahl in einer Anwendung für die geschlossene Faust in der Hand für zwei Szenarien gemäß einer Zwei- oder Dreiklassenklassifizierung zu finden. Die Ergebnisse erreichten eine Genauigkeit von mehr als 90% für beide Domänenansätze im Fall der zwei Klassen. Bei der Erkennung der drei Klassen fielen die Ergebnisse auf 87% in der Genauigkeit aus. Im Allgemeinen ist der Frequenzbereich für die Merkmalsextraktion vorzuziehen und der KNN-Klassifikator war die beste Strategie für die vorliegende Studie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-69774-7_6 e0bcd57e0a13d9f095b9de27bf2e0b0a;de;;;2.4.;;;Erweiterung des Approximationsraums und seine Anwendung bei der Attributreduktion Zunächst wird der Begriff des Komplements einer Überdeckung eingeführt und dann darauf aufbauend der Komplementraum und der erweiterte Raum eines überdeckenden Näherungsraums definiert. Es ist bewiesen, dass ein überdeckender Näherungsraum die gleichen überdeckenden unteren und oberen Näherungen erzeugt wie sein Komplementärraum und erweiterter Raum, wenn die Überdeckung zu einer Trennwand degeneriert ist. Darüber hinaus erzeugt der erweiterte Raum eines überdeckenden Näherungsraums oft eine größere überdeckende untere Näherung oder eine kleinere überdeckende obere Näherung als er selbst. Durch Erweitern jeder Abdeckung in einem Abdeckungsentscheidungssystem wird die Klassifizierungsfähigkeit jeder Abdeckung verbessert. Somit wird ein heuristischer Reduktionsalgorithmus entwickelt, um einige Überdeckungen in einem Überdeckungsentscheidungssystem zu eliminieren, ohne die Klassifikationsfähigkeit des Entscheidungssystems zu verringern. Theoretische Analysen und beispielhafte Darstellungen zeigen, dass dieser Algorithmus eine kürzere Reduktion erreichen kann als andere Algorithmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16248-0_27 877fe5e206cb711a018a33615b0e1038;de;;;2.4.;;;Toleranzbasierte Multigranulationsrohsätze in unvollständigen Systemen Gegenwärtig sind wir auf den Begriff der Multigranulation aufmerksam geworden. In diesem Beitrag wird die Multigranulationstechnik in unvollständige Informationssysteme eingeführt. Sowohl Toleranzbeziehungen als auch maximal konsistente Blöcke werden verwendet, um Multigranulations-Rohsätze zu konstruieren. Es werden nicht nur die grundlegenden Eigenschaften dieser Modelle untersucht, sondern auch die Beziehungen zwischen verschiedenen Multigranulations-Rough-Sets untersucht. Es wird gezeigt, dass durch die Verwendung maximal konsistenter Blöcke die größere untere Näherung und die gleiche obere Näherung wie aus Toleranzrelationen erhalten werden kann. Ein solches Ergebnis stimmt mit dem eines Einzelgranulations-Frameworks überein.;-;-;-;https://link.springer.com/article/10.1007/s11704-014-3141-7 e38c2fee6f6db857dc870184646b6abe;de;;;2.4.;;;SeaTouch: Eine haptische und auditive maritime Umgebung für die nicht visuelle kognitive Kartierung blinder Segler Navigieren besteht darin, egozentrische und allozentrische räumliche Bezugssysteme zu koordinieren. Virtuelle Umgebungen haben Forschern in der räumlichen Gemeinschaft Werkzeuge zur Verfügung gestellt, um das Lernen von Raum zu untersuchen. Die Frage des Transfers zwischen virtuellen und realen Situationen ist nicht trivial. Eine zentrale Frage ist die Rolle von Referenzsystemen bei der Vermittlung des räumlichen Wissenstransfers in die äußere Umgebung sowie die Wirkung unterschiedlicher Sinnesmodalitäten, auf die in simulierten und realen Welten zugegriffen wird. Dies fordert die Fähigkeit blinder Menschen heraus, virtuelle Realität zu nutzen, um eine Szene ohne Grafiken zu erkunden. Das vorliegende Experiment beinhaltet eine haptische und auditive maritime virtuelle Umgebung. Bei Triangulationsaufgaben messen wir systematische Fehler und erste Ergebnisse zeigen die Fähigkeit, Konfigurationswissen zu erlernen und ohne Vision darin zu navigieren. Die Versuchspersonen schienen den Vorteil zu nutzen, sich in einer egozentrischen „haptischen“ Sicht in der virtuellen Umgebung zu verlieren, um ihre Leistungen in der realen Umgebung zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03832-7_13 751e438c3a83dc0a0352d1bb60f27cd3;de;;;2.4.;;;Schnelle Merkmalsextrahierer für Palmprint Biometrics In diesem Artikel schlagen wir vor, schnelle Merkmalsextrahierer für kontaktlose biometrische Handabdrucksysteme für mobile Geräte zu verwenden. Wir präsentieren Methoden zur Extraktion von Texturmerkmalen, die auf Boxfunktionen, PCA und Matching Pursuit-Algorithmus basieren. Solche Methoden sollten effektiv und rechnerisch robust sein, um auf mobilen Geräten einsetzbar zu sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27245-5_16 8484eb682c773f2ed8796fd02e90b958;de;;;2.4.;;;Die Rolle der Datenspeicherung beim Design tragbarer Expertensysteme Wearable-Technologien verändern die Forschung in den Forschungsfeldern Software und Knowledge Engineering. Insbesondere haben Expertensysteme die Möglichkeit, Wissensbasen zu verwalten, die sich entsprechend den von Positionssensoren, Bewegungssensoren usw. gesammelten Echtzeitdaten ändern. Diese Gelegenheit bringt eine Reihe von Herausforderungen mit sich, von der Rolle von Netzwerktechnologien, um eine zuverlässige Verbindung zwischen Anwendungen und Sensoren zu ermöglichen, bis hin zur Definition von Funktionen und Methoden zur Bewertung der Qualität und Zuverlässigkeit der gesammelten Daten. In diesem Beitrag befassen wir uns mit dem letzten Punkt und präsentieren aktuelle Überlegungen zum Begriff der tragbaren Umgebung. Es wird eine Architektur für die zuverlässige Datenerfassung im IoT-Kontext vorgeschlagen, zusammen mit ersten Experimenten, die durchgeführt wurden, um ihre Wirksamkeit bei der Verbesserung der Datenqualität von Anwendungen zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71903-6_36 5d9baac094ae7306bc96e64879109361;de;;;2.4.;;;Robustes Hybrid-Controller-Design für Batch-Prozesse mit Zeitverzögerung und seine Anwendung in industriellen Prozessen Um die Stabilität des Regelsystems zu gewährleisten und eine effiziente Produktion in der Industrie zu realisieren, wird ein neues Entwurfsverfahren für zweidimensionale (2D) Regler für mehrphasige Batchprozesse mit Zeitverzögerung und Störungen vorgeschlagen. Der Batch-Prozess wird zuerst in ein äquivalentes, aber anders dimensioniertes 2D-FM-geschaltetes System umgewandelt. Basierend auf dem 2D-Systemrahmen sind dann ausreichende Bedingungen einer durch lineare Matrixungleichungen (LMIs) ausgedrückten Reglerexistenz für das stabilisierende System durch die Methode der durchschnittlichen Verweilzeit gegeben. Inzwischen wird ein robustes hybrides 2D-Controller-Design vorgeschlagen, das erweiterte Informationen enthält, und die untere Grenze der minimalen Laufzeit jedes Subsystems wird genau berechnet. Die konstruktiven Vorteile des Reglers hängen von der Größe der Zeitverzögerung ab, so dass er eine gewisse Robustheit besitzt. Gleichzeitig kann das System unter Berücksichtigung der exponentiellen Stabilität eine schnellere Konvergenzrate aufweisen. Darüber hinaus hat die Einführung von erweiterten Informationen die Regelleistung des Systems in gewissem Maße verbessert. Der Erwerb von Mindestzeiten in verschiedenen Phasen fördert eine gewisse Produktionseffizienz und reduziert somit den Energieverbrauch. Schließlich wurde ein Injektionsverfahren in einem industriellen Produktionsprozess als Beispiel genommen, um die Wirksamkeit des vorgeschlagenen Verfahrens zu überprüfen.;-;-;-;https://link.springer.com/article/10.1007/s12555-019-0103-8 759567eb8fe98627acb12ef5715b066d;de;;;2.4.;;;Exponentielle Stabilität impulsiver stochastischer Fuzzy-zellulärer neuronaler Netze mit gemischten Verzögerungen und Reaktions-Diffusions-Termen In dieser Arbeit wird das Problem der mittleren quadratischen exponentiellen Stabilität für eine Klasse impulsiver stochastischer Fuzzy-zellulärer neuronaler Netze mit verteilten Verzögerungen und Reaktions-Diffusions-Termen untersucht. Durch die Verwendung der Eigenschaften von M-Kegel, Eigenraum des Spektralradius nichtnegativer Matrizen, Lyapunov-Funktional, Itô-Formel und Ungleichungstechniken werden mehrere neue hinreichende Bedingungen erhalten, die die mittlere quadratische exponentielle Stabilität seiner Gleichgewichtslösung garantieren. Die abgeleiteten Ergebnisse sind weniger konservativ als die kürzlich in Wang und Xu vorgestellten Ergebnisse (Chaos Solitons Fractals 42:2713–2721,;-;-;-;https://link.springer.com/article/10.1007/s00521-012-1040-0 a6942901844cf096c798e6414bb84c2e;de;;;2.4.;;;Kontinuierliche variable Quantenkommunikation mit hellen verschränkten optischen Strahlen In diesem Artikel stellen wir kurz die grundlegenden Konzepte und Protokolle der Quantenkommunikation mit kontinuierlicher Variabler vor und fassen dann die experimentellen Untersuchungen unserer Gruppe auf diesem Gebiet zusammen. Die Hauptmerkmale der in unseren Experimenten verwendeten Quantenkommunikationssysteme sind: (1) die hellen verschränkten optischen Strahlen mit den antikorrelierten Amplitudenquadraturen und den korrelierten Phasenquadraturen, die als Verschränkungsressourcen dienen und (2) die Bell-State-Direktdetektionssysteme werden verwendet in den Messungen von Quantenverschränkung und übertragenen Signalen anstelle der normalerweise symmetrischen Homodyn-Detektoren.;-;-;-;https://link.springer.com/article/10.1007/s11467-006-0049-1 fa25a48d864b73144f86c59894278491;de;;;2.4.;;;Astrodynamischer Weltraumtest der Relativitätstheorie mit optischen Geräten I (ASTROD I) – Ein Vorschlag für eine grundlegende Physik-Mission der Klasse M für Cosmic Vision 2015–2025 ASTROD I ist eine geplante interplanetare Weltraummission mit mehreren Zielen. Die Hauptziele sind: die allgemeine Relativitätstheorie mit einer Verbesserung der Empfindlichkeit von mehr als drei Größenordnungen zu testen, unser Verständnis der Gravitation zu verbessern und die Entwicklung einer neuen Quantengravitationstheorie zu unterstützen, Schlüsselparameter des Sonnensystems mit erhöhter Genauigkeit zu messen, die Sonnenphysik voranzutreiben und unser Wissen über das Sonnensystem, und die zeitliche Änderungsrate der Gravitationskonstante mit einer Verbesserung um eine Größenordnung und die anomale Pionierbeschleunigung zu messen, wodurch dunkle Materie und dunkle Energie gravitativ untersucht werden. Es ist ein internationales Projekt mit bedeutenden Beiträgen aus Europa und China und ist als erstes einer Reihe von ASTROD-Missionen vorgesehen. ASTROD I wird aus einem Raumschiff bestehen, das ein Teleskop, vier Laser, zwei Ereignis-Timer und eine Uhr trägt. Zwischen dem Raumfahrzeug in einer Sonnenumlaufbahn und den Weltraumlaserstationen auf der Erde wird eine Zweiwege-Laserpulsentfernung mit zwei Wellenlängen verwendet, um die ASTROD I-Ziele zu erreichen. Eine zweite Mission, ASTROD (ASTROD II), ist als Drei-Raumsonden-Mission vorgesehen, die die Allgemeine Relativitätstheorie auf 1 ppb testen, die Erkennung von solaren g-Moden ermöglichen, den solaren Lense-Thirring-Effekt auf 10 ppm messen und Gravitationswellen bei Frequenzen unterhalb der LISA-Bandbreite. In der dritten Phase (ASTROD III oder Super-ASTROD) könnten größere Umlaufbahnen implementiert werden, um das äußere Sonnensystem zu kartieren und ursprüngliche Gravitationswellen bei Frequenzen unterhalb der ASTROD II-Bandbreite zu untersuchen.;-;-;-;https://link.springer.com/article/10.1007/s10686-008-9131-8 70daeb60d14c4504bf73651183f3e369;de;;;2.4.;;;Verteilte Darstellungen, einfache wiederkehrende Netzwerke und grammatikalische Struktur Unter Verwendung einer Vorhersageaufgabe wird ein einfaches rekurrentes Netzwerk (SRN) auf Mehrklauselsätze trainiert, die mehrfach eingebettete Relativsätze enthalten. Eine Hauptkomponentenanalyse der versteckten Einheitsaktivierungsmuster zeigt, dass das Netzwerk die Aufgabe löst, indem es komplexe verteilte Darstellungen entwickelt, die die relevanten grammatikalischen Beziehungen und die hierarchische Konstituentenstruktur kodieren. Unterschiede zwischen den SRN-Zustandsdarstellungen und dem traditionelleren Pushdown-Store werden im letzten Abschnitt erörtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4008-3_5 98437d96c4c8d5693438f258419dd6dd;de;;;2.4.;;;Online-Überwachungs- und Diagnosesystem für die Überwachung von Kernkraftwerken Das von der niederländischen Energieforschungsstiftung konzipierte und eingerichtete Online-Überwachungs- und Diagnosesystem für das Kernkraftwerk Borssele (KKW) ist seit einem Jahrzehnt ununterbrochen in Betrieb. Das System ist in Form von Multi-Processing, Multi-Tasking aufgebaut und bietet Echtzeit-Ausführungen zur Überwachung, Berechnung von Reaktorparametern, Datenbankbildung für Expertensysteme und frühzeitige Information über mögliche Störungen durch anlagenweite Überwachungsmöglichkeiten [1-5]. Während eines Jahrzehnts des Betriebs wird das System parallel zu den technologischen Entwicklungen, insbesondere in der Computer- und Echtzeit-Computing-Technologie, aktualisiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-88049-0_30 fac3efcdce8855476e21f7300fd4a66d;de;;;2.4.;;;Die Evolution der schnellen Elektronik Dieser Beitrag analysiert den Prozess von der Schwangerschaft bis zur Reife der schnellen Elektronik, beschreibt die drei Ebenen der Entwicklung der schnellen Elektronik, dh Anwendung, Technik und Theorie, und fasst die Fortschritte bei der Simulation elektromagnetischer Felder, Geschwindigkeits-Parallel-Sampling und Untersuchung von Zeit-Jitter. Auch Anwendungsergebnisse der schnellen Elektronik in der Volkswirtschaft und nationalen wissenschaftlichen Großprojekten werden vorgestellt.;-;-;-;https://link.springer.com/article/10.1007/s11434-010-3175-7 7c8c952ed575c6e74c3c0b96ade4b10e;de;;;2.4.;;;Semantisch adressierbare Kodierung In diesem Beitrag wird ein automatischer Erfassungsprozess vorgestellt, um die semantische Bedeutung der Wörter zu erfassen. Dieser Prozess erhält die Darstellungsvektoren für Wortstammwörter durch iteratives Verbessern der Vektoren unter Verwendung eines trainierten Elman-Netzwerks [4]. Experimente, die an einem Korpus aus Shakespeares Schriften durchgeführt wurden, zeigen seine linguistischen Analyse- und Kategorisierungsfähigkeiten.;-;-;-;https://link.springer.com/chapter/10.1007/11893028_21 ea96bd2db4cc0250011e34654ae4d02d;de;;;2.4.;;;Synthese eines neuronalen Netzklassifikators für die Einstufung von hepatozellulären Karzinomen basierend auf triphasischen CT-Bildern Computer Aided Decision (CAD)-Systeme, die auf medizinischer Bildgebung basieren, könnten Radiologen bei der Einstufung von hepatozellulären Karzinomen (HCC) mithilfe von Computertomographie (CT)-Bildern unterstützen, um zu vermeiden, dass der Patient medizinischen invasiven Verfahren wie Biopsien unterzogen wird. Die Individuation und Charakterisierung von Regions of Interest (ROIs), die Läsionen enthalten, ist eine wichtige Phase, die eine einfachere Klassifizierung zwischen zwei Klassen von HCCs ermöglicht. Für die Individuation von läsionierten ROIs sind zwei Phasen erforderlich: eine Leberisolierung in jeder CT-Schicht und eine Läsionssegmentierung. Letztendlich werden alle individuellen ROIs durch morphologische Merkmale beschrieben und schließlich wird ein Feed-Forward-überwachtes künstliches neuronales Netz (ANN) verwendet, um sie zu klassifizieren. Tests ergaben, dass die KNN-Topologien, die durch eine evolutionäre Strategie gefunden wurden, eine hohe Verallgemeinerung der mittleren Leistungsindizes unabhängig von angewendetem Training, Validierung und Testsätzen zeigten, gute Leistungen in Bezug auf Genauigkeit und Sensitivität zeigten, was eine korrekte Einstufung von HCC-Läsionen ermöglichte.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-4859-3_32 6d27a866cb95b642799d9be8b1f94223;de;;;2.4.;;;Virtueller Mensch: 30 Jahre Forschung, was nun? In diesem Beitrag stellen wir Forschungsergebnisse und zukünftige Herausforderungen bei der Schaffung realistischer und glaubwürdiger virtueller Menschen vor. Um diese Modellierungsziele zu erreichen, ist eine realistische Echtzeitdarstellung unerlässlich, aber wir brauchen auch interaktive und einfühlsame virtuelle Menschen, um die virtuellen Welten zu bevölkern. Drei Ebenen der Modellierung sollten in Betracht gezogen werden, um diese glaubwürdigen virtuellen Menschen zu schaffen: 1) realistische Erscheinungsbildmodellierung, 2) realistische, glatte und flexible Bewegungsmodellierung und 3) realistische Verhaltensmodellierung auf hoher Ebene. Zunächst werden die Probleme der Schaffung virtueller Menschen mit einem besseren Skelett und realistischen deformierbaren Körpern veranschaulicht. Um ein glaubwürdiges Verhalten zu vermitteln, werden Herausforderungen an die Erzeugung flexibler Bewegungen und komplexer Verhaltensweisen virtueller Menschen in ihrer Umgebung unter Verwendung einer realistischen Wahrnehmung der Umgebung gestellt. Interaktivität und Gruppenverhalten sind auch wichtige Parameter, um glaubwürdige virtuelle Menschen zu schaffen, die Schwierigkeiten haben, eine glaubwürdige Beziehung zwischen realen und virtuellen Menschen basierend auf Emotionen und Persönlichkeit herzustellen und realistisches und glaubwürdiges Verhalten von Gruppen und Menschenmengen zu simulieren. Schließlich werden Probleme bei der Erzeugung realistischer virtueller bekleideter und behaarter Menschen vorgestellt.;-;-;-;https://link.springer.com/article/10.1007/s00371-005-0363-6 0489dcabf49d637e4a7e4f7d243dd175;de;;;2.4.;;;7. Synchronisierung der dritten Harmonischen In diesem Kapitel wird die Synchronisation der Typ-I-Schleife zweiter Ordnung bei der dritten Harmonischen der VCO-Mittenfrequenz untersucht. Da die Synchronisation bei der dritten Harmonischen auf die parametrische Wirkung des DFC zurückzuführen ist, verhindert das Vorhandensein des LPF seine Manifestation erheblich. Daher wäre die Untersuchung dieser Art der Synchronisation nicht besonders interessant, wenn sie nicht wesentlich zum Verständnis des Einfangeffekts und des Einflusses der Anfangsbedingungen beitragen würde. Aus diesem Grund geht die Untersuchung der Synchronisation der dritten Harmonischen der Untersuchung der Hauptsynchronisation voraus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39990-2_7 eec9431a8094496b6e6bba020cff4c12;de;;;2.4.;;;Ein Rahmen für die gemeinsame Bewertung und Reduzierung von bildgebenden Artefakten durch automatische Texturanalyse und Gesamtvariationsoptimierung zur Verbesserung der Quantifizierung perivaskulärer Räume in der Magnetresonanztomographie Perivaskuläre Räume sind flüssigkeitsgefüllte röhrenförmige Räume, die dem Verlauf der zerebralen Durchdringung von Gefäßen folgen, von denen angenommen wird, dass sie ein wichtiger Teil der Durchblutung und des glymphatischen Drainagesystems des Gehirns sind. Ihre Vergrößerung und Häufigkeit wurden im Zusammenhang mit Erkrankungen der kleinen Gefäße des Gehirns gefunden. Daher ist ihre Quantifizierung wesentlich, um ihren Zusammenhang mit neurologischen Erkrankungen zu ermitteln. Frühere Arbeiten auf diesem Gebiet haben visuelle Bewertungsskalen zur Beurteilung des Vorhandenseins von perivaskulären Räumen entworfen und Segmentierungstechniken vorgeschlagen, um Boden- und Deckeneffekte qualitativer visueller Skalen, Verarbeitungszeiten und Variabilität zwischen Beobachtern zu reduzieren. Ihre Anwendung hängt jedoch von der Erfassungsqualität ab. In diesem Papier schlagen wir einen Rahmen zur Verbesserung der Quantifizierung perivaskulärer Räume vor, der sowohl Texturanalysen als auch Gesamtvariationsfilterung verwendet. Texturmerkmale wurden berücksichtigt, um die Bildqualität zu bewerten und automatisch zu bestimmen, ob eine Filterung erforderlich ist. Wir haben unsere Arbeit anhand von Daten einer Kohorte von Patienten mit leichtem Schlaganfall getestet (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-52791-4_14 a0605b5bf6c7d5071b50c9b32d755326;de;;;2.4.;;;Fuzzy-Intervall-Inferenz unter Verwendung des Checklisten-Paradigmas und BK-relationalen Produkten Auf vielwertiger Logik basierendes Intervallschlussfolgern spielt eine zunehmend wichtige Rolle in Fuzzy- und anderen vielwertigen Erweiterungen der zweiwertigen (klaren) Logik. Es wird oft übersehen, dass die Argumentation der vielwertigen Logik (MVL) eine reichere Inferenzregelbasis hat als die klare (d. h. klassische zweiwertige) Logik. In der Tat einige Regeln, die in der klaren Logik (die punktbasiert ist) nicht möglich sind;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-3440-8_12 74a153d8c217b25de5076191fbd0f316;de;;;2.4.;;;Ensembles für Normal- und Oberflächenrekonstruktionen Die Mehrzahl der existierenden Techniken zur Oberflächenrekonstruktion und das damit eng verwandte Problem der Normalschätzung sind deterministisch. Ihre Hauptvorteile sind die Schnelligkeit und bei einigermaßen guten Vorleistungen die hohe Qualität der rekonstruierten Oberflächen. Dennoch kann ihre deterministische Natur sie daran hindern, unvollständige Daten mit Rauschen und Ausreißern effektiv zu handhaben. In unserer vorherigen Arbeit [1] haben wir eine statistische Technik namens . angewendet;-;-;-;https://link.springer.com/chapter/10.1007/11802914_2 216d9400bd6bbdaaaf609985a900c6fc;de;;;2.4.;;;Urbane Anwendungen Die in diesem Kapitel berichteten experimentellen Ergebnisse befassen sich mit der Anwendung von (hochauflösenden) SAR-Daten (Synthetic Aperture Radar) zur Gewinnung wertvoller Informationen für die Überwachung urbaner Umgebungen in Raum und Zeit. Die vollständige Polarimetrie ist für die Klassifizierung besonders nützlich, da sie die Erkennung von bebauten Gebieten und die Unterscheidung zwischen ihren verschiedenen Typen ermöglicht, indem die Variation der polarimetrischen Rückstreuung mit der Ausrichtung, Form und Verteilung von Gebäuden und Häusern sowie Straßenmustern ausgenutzt wird. Andererseits können polarimetrische SAR-Daten, die in interferometrischer Konfiguration erfasst wurden, für 3D-Rendering durch Kohärenzoptimierungstechniken kombiniert werden. Wenn mehrere Basislinien verfügbar sind, kann eine direkte tomographische Bildgebung verwendet werden, und die Polarimetrie erhöht sowohl die Trennleistung als auch die Reaktion jedes Streuers. Schließlich findet die Polarimetrie auch Anwendung in der Differentialinterferometrie zur Überwachung von Setzungen, indem beispielsweise sowohl die Anzahl der Auflösungszellen, in denen die Schätzung zuverlässig ist, als auch die Qualität dieser Schätzungen verbessert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-56504-6_5 0460fd241eefca62c76d74eda7a7e910;de;;;2.4.;;;Bioinformatik und Nanotechnologien: Nanomedizin In diesem Kapitel konzentrieren wir uns auf die bioinformatischen Strategien zur Übersetzung genomweiter Expressionsanalysen in klinisch nützliche Krebsmarker mit einem spezifischen Fokus auf Brustkrebs mit einem Blick auf neue diagnostische Geräte aus dem Bereich der Nanobiotechnologie und die Herausforderungen im Zusammenhang mit Hochdurchsatz Datenintegration, Analyse und Bewertung aus mehreren Quellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30574-0_32 b5a2e38b8d7d11f7e9c464daacbc5d7e;de;;;2.4.;;;Kommunikationssicherheit für Leitsysteme in Smart Grid Als Beispiel für ein Kontrollsystem können Überwachungskontroll- und Datenerfassungssysteme relativ einfach sein, wie eines, das die Umgebungsbedingungen eines kleinen Bürogebäudes überwacht, oder unglaublich komplex, wie ein System, das die gesamte Aktivität in einem Kernkraftwerk überwacht die Aktivität eines kommunalen Wassersystems. SCADA-Systeme sind im Wesentlichen Prozessleitsysteme, die entwickelt wurden, um Systeme wie Verkehrssteuerung, Stromnetzmanagement, Abfallverarbeitung usw. zu automatisieren. Die Verbindung von SCADA mit dem Internet kann viele Vorteile in Bezug auf Steuerung, Datenanzeige und -erzeugung bieten. Auch SCADA-Infrastrukturen wie Strom können Teil eines Smart Grid sein. Die Verbindung von SCADA mit einem öffentlichen Netzwerk kann viele Sicherheitsprobleme mit sich bringen. Um die Sicherheitsprobleme zu lösen, wird eine SCADA-Kommunikationssicherheitslösung vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17610-4_33 668a960677c3d1c84694f66d1cd49de5;de;;;2.4.;;;Räumliches Gedächtnis und räumliche Orientierung Die Navigation durch einen erinnerten Raum hängt entscheidend von der Fähigkeit ab, in Bezug auf die erinnerte Umgebung orientiert zu bleiben und sich nach dem Verlorengehen neu zu orientieren. Dieses Kapitel beschreibt die Rolle des räumlichen Langzeitgedächtnisses, des sensomotorischen räumlichen Gedächtnisses und der Pfadintegration bei der Bestimmung der räumlichen Orientierung. Die hier vorgestellten Experimente heben die Referenzrichtungsstruktur des langfristigen räumlichen Gedächtnisses hervor und legen nahe, dass die Selbstposition und Orientierung während der Fortbewegung in Bezug auf diese Referenzrichtungen aktualisiert werden. Diese Ergebnisse zeigen, dass eine vollständige Darstellung der räumlichen Orientierung ein gründlicheres Verständnis der Interaktion zwischen dem langfristigen räumlichen Gedächtnis, dem sensomotorischen räumlichen Gedächtnis und der Pfadintegration erfordert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87601-4_5 133379b48a68a5180ce53e82198024d2;de;;;2.4.;;;Multivariate räumlich-zeitliche serielle Datenvorverarbeitung von geringer Qualität Bei der Akkumulation von raumzeitlichen Daten werden die Probleme geringer Qualität multivariater raumzeitlicher Daten deutlich und bestehen hauptsächlich aus zahlreichen fehlenden Daten, hohem Rauschen der Zeitreihen und großen unterschiedlichen räumlichen Maßstäben von raumzeitlichen Daten. Mit Blick auf die Probleme mit geringer Qualität multivariater räumlich-zeitlicher Reihen schlagen wir drei Methoden vor, um sie zu verarbeiten, erstens mit einem verbesserten nicht-lokalen Mittelwert-Algorithmus (NLM) und einer Methode der nichtlinearen Regressionsanalyse, um eine unvollständige Datenimputation zu erreichen, zweitens mit dem NLM-Algorithmus um Gaußsches weißes Rauschen in Zeitreihen zu behandeln, drittens die Verwendung der Gaußschen Pyramidenmethode zum Zoomen der räumlichen Skala für multivariate räumliche Daten. Außerdem vergleichen wir mit traditionellen Methoden, die quantitative Bewertungsindizes verwenden, um die Leistung zu messen, einschließlich K-Nearest und Wavelet-Schwellenwert. Die experimentellen Simulationen zeigen, dass die Interpolationsgenauigkeit der beiden vorgeschlagenen Algorithmen höher ist als die des K-Nearest-Neighbor-Algorithmus und die Wirkung der Rauschunterdrückung unter Verwendung des NLM-Algorithmus offensichtlich besser ist als die des Wavelet-Schwellenwertverfahrens. Die Versuchsergebnisse zeigen ferner, dass die Gauss-Pyramiden-Methode effektiv eine räumliche Transformation von multivariaten räumlichen Daten erreicht und die lokalen Detaileigenschaften räumlicher Daten mit einem besseren visuellen Ausdruckseffekt beibehält.;-;-;-;https://link.springer.com/article/10.1007/s10586-017-1453-8 ae6e2d7027d9f3275a6d71c6909833e1;de;;;2.4.;;;Benutzermodellierung in Hilfesystemen Die User Modeling-Komponente einer Shell zum Aufbau von Intelligent Help Systems (IHS) wird beschrieben. Ein IHS hilft Benutzern interaktiver Computerprogramme bei der Erfüllung ihrer Aufgaben und in diesem Kontext beim Verständnis der spezifischen Anwendung. Wie andere intelligente Tutorsysteme müssen IHSs das Wissen der Benutzer über die Zieldomäne modellieren, d. h. eine konkrete Anwendung. Dieses User Model in EUROHELP als Datenstruktur ist nichts Besonderes: ein Overlay der Domain Representation, ergänzt um eine Bug Library. Der Schwerpunkt der Arbeit liegt auf der Pflege des Modells durch die;-;-;-;https://link.springer.com/chapter/10.1007/BFb0020879 233899c5f02ee91ceef0becd74d0cbfd;de;;;2.4.;;;Aktives Lernen zur logistischen Regression: eine Evaluation Welche aktiven Lernmethoden können eine gute Leistung beim Erlernen von binären und mehrkategorialen logistischen Regressionsklassifikatoren erwarten? Die Beantwortung dieser Frage ist ein natürlicher erster Schritt, um robuste Lösungen für aktives Lernen für eine Vielzahl von exponentiellen Modellen bereitzustellen, einschließlich maximaler Entropie, verallgemeinerter linearer, log-linearer und bedingter Zufallsfeldmodelle. Für das logistische Regressionsmodell leiten wir die Varianzreduktionsmethode, die in experimentellen Designkreisen bekannt ist, als „;-;-;-;https://link.springer.com/article/10.1007/s10994-007-5019-5 d3c4bc486f43a38f7d54b6547c90f1fb;de;;;2.4.;;;MIGSOM: Ein SOM-Algorithmus für groß angelegte hyperlinke Dokumente, inspiriert von neuronaler Migration Die SOM (Self Organizing Map), einer der beliebtesten unüberwachten Algorithmen für maschinelles Lernen, bildet hochdimensionale Vektoren in niedrigdimensionale Daten (normalerweise eine zweidimensionale Karte) ab. Der SOM ist aufgrund seiner Fähigkeit, eine große Anzahl von Datensätzen zu verarbeiten, weithin als „skalierbarer“ Algorithmus bekannt. Sie ist jedoch nur wirksam, wenn die Vektoren klein und dicht sind. Obwohl eine Reihe von Studien zur Skalierbarkeit des SOM durchgeführt wurden, bleiben technische Probleme bezüglich Skalierbarkeit und Leistung für spärliche hochdimensionale Daten wie Hyperlink-Dokumente bestehen. In diesem Beitrag stellen wir vor;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-05810-8_6 b7861f3b99f2bd8b0c2919723ba3ce37;de;;;2.4.;;;Anreicherung von Trajektorien mit semantischen Daten für eine tiefere Analyse der extrahierten Muster Das geografische Informationssystem (GIS) speichert verschiedene Arten von Daten, die aus verschiedenen Quellen in unterschiedlichem Format gesammelt wurden. So generieren Geodatenbanken Tag für Tag eine riesige Menge an Daten aus Satellitenbildern und mobilen Sensoren wie GPS, unter diesen Daten finden wir einerseits räumliche Merkmale und geografische Daten und andererseits Trajektorien, die von mehreren sich bewegenden Objekten in einem bestimmten Zeitraum durchsucht wurden Zeit. Das Zusammenführen dieser Datentypen führt zu semantischen Trajektoriendaten. Das Anreichern von Trajektorien mit semantischen geografischen Informationen erleichtert Abfragen, Analysen und das Mining von Daten von sich bewegenden Objekten. Daher beweist die Anwendung von Mining-Techniken auf semantische Trajektorien weiterhin Erfolgsgeschichten bei der Entdeckung nützlicher und nicht-trivialer Verhaltensmuster von sich bewegenden Objekten. Das Ziel dieses Papiers ist es, einen Überblick über die Entdeckung von semantischen Trajektorien und Geodaten-Mining-Ansätzen für geografische Informationssysteme zu geben. Basierend auf der Analyse verschiedener Literatur schlägt dieses Papier ein Konzept einer mehrschichtigen Systemarchitektur für die Konstruktion von Rohtrajektorien, Trajektorienanreicherung und semantisches Trajektorien-Mining vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-52941-7_21 e212697c5d820d55265bca5a9625874a;de;;;2.4.;;;Die Rolle der MT bei der Mitose Die Erforschung der MT war von Anfang an mit der der Mitose verbunden, noch bevor die Identifizierung von Spindel-„Fasern“ als MT und die Rolle von MT in akzessorischen Strukturen wie den Zentriolen offensichtlich wurde. Die frühesten Arbeiten zur Zytotoxizität von Colchicin [175] illustrierten die mitotischen Veränderungen (Kap. 1), und die moderne Colchicinforschung war das Ergebnis von Arbeiten zu mitotischen Giften [52, 137]. Die Bedeutung der Colchicin-Vergiftung der Mitose überschattet für viele Jahre die grundsätzlicheren Probleme, die erst nach der Reinigung von Tubulin und dem Nachweis der spezifischen Bindung von Colchicin an dieses Protein eine Antwort finden konnten (vgl. Kap. 2 und 5). Spindelgifte spielen seit fast vierzig Jahren eine bedeutende Rolle bei der Erforschung des mitotischen Wachstums, der Zytogenetik und der Produktion polyploider oder amphidiploider Pflanzen. Diese Aspekte der „angewandten“ Forschung zur Mitose mit Spindelgiften werden hier nicht berücksichtigt und dieses Kapitel beschränkt sich auf die grundsätzlichen Probleme der Rolle der MT bei mitotischen Bewegungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-96436-7_12 85d82b89724d3181724ab5caded73786;de;;;2.4.;;;Modellierung und Doppler-Messung von Röntgenpulsaren Im Allgemeinen führt der durch die Geschwindigkeit des Detektors verursachte Doppler zu einer Verzerrung des integrierten Profils des Röntgenpulsars, im Gegenteil, wenn die Verzerrung zur Messung des Dopplers verwendet werden kann, ist die Geschwindigkeit des Detektors leicht zu bestimmen gelöst. Vor diesem Hintergrund wurde die Korrelation der periodischen Fehler aus dem Doppler und dem integrierten Profil analysiert, dann basierend auf dem Poisson-Verteilungsmodell des Röntgenpulsars ein neues Signalmodell und das Konzept der Profilentropie definiert . Weiterhin wurde der direkt kumulierte Verlauf des Signals mit dem Doppler als Parameter modelliert und anschließend der Doppler mittels optimaler Methode gelöst. Gleichzeitig wurde die Leistungsfähigkeit der auf dieser Methode basierenden Phasenmessung untersucht. Die Analyse zeigt, dass dieses Verfahren den periodischen Fehler aufgrund der diskreten Abtastung beseitigen kann und eine kontinuierliche Phasenschätzung erhalten kann. Die Versuchsüberprüfung zeigt die Konsistenz von Theorie und Versuch.;-;-;-;https://link.springer.com/article/10.1007/s11433-011-4338-5 798a606578d80b59dd4f62f84361d603;de;;;2.4.;;;Forschung zum Testsystem der umfassenden Leistung von Automobilkupplungen basierend auf einem virtuellen Instrument Um die Betriebsleistung der Kupplung und die zugehörigen Eigenschaften genau und vollständig zu erhalten, wurde die umfassende Leistungserfassungsplattform für Automobilkupplungen entwickelt. Der Betriebszustand der verschiedenen Kupplungsmodelle konnte simuliert werden und eine Vielzahl von Spezifikationen konnte die umfassende Leistung der Kupplung mit einem einzigen Gerät getestet werden. Aufgrund des großen Stördrehmoments und der hohen Anforderungen an die Regelgenauigkeit wurde für die Drehzahlregelung ein Fuzzy-PID-Regelalgorithmus vorgeschlagen. Basierend auf der virtuellen Instrumententechnologie der National Instruments Corporation werden die Schnittstellen- und Datenerfassungsprogramme entwickelt. Die Ergebnisse von Simulation und Experiment zeigen, dass die Genauigkeit und Effizienz verbessert wurden und das Testsystem stabil und glaubwürdig arbeitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21411-0_60 86f2eb5d9466075830103e397eb9c4ad;de;;;2.4.;;;Verfahren zur Fahrerzustandserkennung für Sicherheitsfahrzeuge mittels Mustererkennung Die Entwicklung präventiver Sicherheitsvorrichtungen für Fahrzeuge wird voraussichtlich die Zahl der Verkehrsunfälle reduzieren. Die fahrerzustandsadaptive Fahrunterstützungssicherheitsfunktion kann eine der Lösungen für die Herausforderungen sein, das Risiko, in den Verkehrsunfall verwickelt zu werden, zu verringern. In der vorherigen Studie wurde Ablenkung durch die Einführung der Internet-Umfrage als einer der anormalen Zustände eines Fahrers identifiziert. Diese Studie reproduzierte die kognitive Ablenkung des Fahrers auf einem Fahrsimulator, indem kognitive Belastungen auferlegt wurden, die aus Arithmetik und Konversation bestanden. Zur Klassifikation des Ablenkungszustandes des Fahrers wurden als Erkennungsmerkmale visuelle Merkmale wie Blickrichtung und Kopforientierung, Pupillendurchmesser und Herzfrequenz aus dem EKG herangezogen. Diese Studie konzentrierte sich darauf, die beste Klassifizierungsleistung der Ablenkung des Fahrers zu erzielen, indem AdaBoost, die SVM und die verlustbasierte Fehlerkorrektur-Ausgabecodierung (LD-ECOC) als Klassifizierungsalgorithmus verwendet wurden. LD-ECOC hat das Potenzial, die Klassifikationsfähigkeit der psychosomatischen Zustände des Fahrers weiter zu verbessern. Schließlich schlug diese Studie vor, dass die fahrerzustandsadaptive Fahrunterstützungssicherheitsfunktion der nächsten Generation auf die kooperative Fahrzeug-Infrastruktur-Sicherheitsfunktion erweiterbar ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11289-3_20 7aad013c40bfe09a31843dde4d493429;de;;;2.4.;;;Vergleich der Einflussfaktoren auf CCD und WFI sind Nutzlasten im sichtbaren Licht- und nahen Infrarotbereich auf CBERS-Satelliten und wurden nicht weit verbreitet eingesetzt, insbesondere WFI. Dieser Artikel untersucht hauptsächlich das Potenzial der Anwendung dieser beiden Sensoren im Vegetationsmonitoring und analysiert die Einflüsse der radiometrischen Kalibrierung, der Atmosphärenbedingungen und der Sonnenbeobachtungsgeometrie usw. auf;-;-;-;https://link.springer.com/article/10.1007/BF03039428 d63d49afd79d001470a3f133ef23d693;de;;;2.4.;;;Forest Health Monitoring mit hyperspektralen Fernerkundungstechniken Hyperspektrale Fernerkundung ist ein praktisches Werkzeug für die Überwachung des Waldzustands. Diese Studie konzentriert sich auf das Waldgesundheitsmonitoring mit hyperspektralen Satellitendaten und validiert es mit Baumspektraldaten. Im Untersuchungsgebiet haben zunehmende Bergbau- und anthropogene Aktivitäten innerhalb und in der Nähe von Waldgebieten die Waldgesundheit gefährdet. All dies erfordert eine Bewertung der Waldgesundheit in der Umgebung der Minen. Wir haben zwei Methoden für die Waldgesundheitsbewertung verwendet: eine ist ein auf VIs (Vegetationsindizes) basierendes Modell und eine andere ist die Baumspektralanalyse. Für die Waldgesundheitsklassifizierung auf der Grundlage von Spektraldaten wurde die Methode der überwachten Klassifikation (SAM) verwendet. Die Ergebnisse zeigten, dass sich in der hügeligen Seite des Untersuchungsgebietes ein gesunder Waldanteil befand, während sich neben den Minen ein ungesunder Abschnitt befand. Das datenbasierte VIs-Modell von Hyperion zeigt eine bessere Genauigkeit als andere spektralbasierte Methoden. Außerdem wurde festgestellt, dass die auf Hyperspektraldaten basierende Waldgesundheitsklassifizierung eine höhere Genauigkeit liefert als multispektrale Daten. Schließlich wurden die Ergebnisse der Waldgesundheit durch Spektraldaten von Bodenbäumen gerechtfertigt. Diese Arbeit bietet einen wirksamen Leitfaden für die Waldplanung und -bewirtschaftung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-56542-8_10 83d91b7fafd9ad84c826c3433d792c32;de;;;2.4.;;;Drahtloses Herzfrequenz-Überwachungssystem zur RSS-basierten Positionsbestimmung in GSM Aufgrund der Unsicherheit über den Aufenthaltsort des Patienten wird der Ausbruch einer Herz-Kreislauf-Erkrankung (CVD) zu unnötigen Verzögerungen bei der Rettung führen. Wir präsentieren ein ermutigendes System, das in Echtzeit arbeitet, um die Herzfrequenzdaten zu überwachen. Der Standort des mobilen Endgeräts (MT) kann mit geringeren Kosten basierend auf dem RSS-Positionierungsansatz in GSM erhalten werden. Je nach Priorität werden Standortinformationen zusammen mit Herzfrequenzdaten an die Überwachungszentrale gesendet. Da der Cardio-Drehzahlmesser, klein und zum Tragen geeignet, im Vorschlag drahtlos mit dem MT verbunden ist. Es bietet Benutzern Komfort, wenn sie nach draußen gehen. Durch die automatische Erinnerung und die Zusammenarbeit mit der Notfallzentrale kann das System bei der Rettung von Patienten wertvolle Zeit sparen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_330 5369717ec6eb69c24a82d712a879fb6a;de;;;2.4.;;;Wirkung von biologisch abbaubaren Chelatliganden auf die Fe-Aufnahme und das Wachstum mariner Mikroalgen Eisen (Fe) ist ein wichtiger Nährstoff für Phytoplankton. Die geringe Löslichkeit von Fe in oxischen Wässern kann ein wachstumslimitierender Faktor für Phytoplankton sein. Synthetische Aminopolycarboxylate (APCs) wie Ethylendiamintetraessigsäure (EDTA) und Diethylentriaminpentaessigsäure (DTPA) werden häufig als Fe-Komplexbildner für die Mikroalgenkultur verwendet. Das Vorhandensein dieser nicht gebrauchsfertigen biologisch abbaubaren APC;-;-;-;https://link.springer.com/article/10.1007/s10811-018-1462-x 80b151104c5f5b1e5e7308a5c7974c4b;de;;;2.4.;;;Design eines optischen Regentropfenspektrometers basierend auf einem eingebetteten Mikrocontroller Die Verteilung der Regentropfenspektren spielt eine wichtige Rolle bei der Bodenerosion, der Niederschlagsintensität, der Niederschlagsart usw. Die herkömmliche Messung der Größenverteilung von Regentropfen basiert auf Filterpapier, das keine schnelle und genaue Beobachtung in Echtzeit erreichen kann. Dieses Papier schlägt ein optisches Regentropfenspektrometer vor, das auf einem eingebetteten Mikrocontroller basiert. Ein eingebetteter Mikrocontroller wird als Kontrollzentrum des Systems eingerichtet, kombiniert mit optischer Erkennungstechnologie, Hochgeschwindigkeits-Signalerfassungstechnologie, digitaler Signalverarbeitungstechnologie und eingebetteter Software-Designtechnologie, um eine Online-Beobachtung der Regentropfengröße und Fallgeschwindigkeit zu realisieren, die Spektralverteilung zu berechnen, Verteilungszahlen ziehen. Anhand der Regentropfengrößenverteilung werden Niederschlagsintensität und Niederschlag berechnet. Die Forschungsproduktion ist auch die Grundlage für zukünftige Forschungen zur Bestimmung von Niederschlagsarten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24999-0_51 aaba0da8b821ddce42089a501df2dc78;de;;;2.4.;;;Entwurfs- und Anwendungsanalyse des globalen Abdeckungssatellitensystems für die Weltraumluftfahrt ATM-Informationssammlung Dieses Papier analysiert zunächst die aktuelle Situation und den Bedarf der aktuellen Flugsicherungsüberwachung und führt dann zur Notwendigkeit des Aufbaus des Satellitensystems für die Luftverkehrsmanagement-Informationssammlung der Raumfahrt. In Kombination mit den Anforderungen der aktuellen Flugverkehrsmanagementüberwachung werden die Konstruktionsbeschränkungen bezüglich des Satellitensystems für die Sammlung von Flugverkehrsmanagementinformationen für die Raumfahrt analysiert. Daher wird ein Walker-Satellitenkonstellationssystem entworfen, das aus 81 Mikro-/Nano-Satelliten besteht. Mit dem numerischen Simulationstool STK können wir die Erde zu 100% abdecken und die maximale Abdeckungszeit beträgt nicht mehr als 40 Sekunden. Schließlich werden die zukünftigen Anwendungsaussichten des Systems unter Berücksichtigung der Fähigkeit des Satellitensystems zur Erfassung von Flugverkehrsmanagement-Informationen in der Weltraumluftfahrt diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-4403-8_23 e445c71e5fa7c49f626da7dda94b93e6;de;;;2.4.;;;3D-Operations-Situs-Rekonstruktion mit Time-of-Flight-Satellitenkameras mit photogeometrischer Datenfusion Minimalinvasive Verfahren gewinnen in der modernen Chirurgie zunehmend an Bedeutung. Navigation und Orientierung sind wichtige Themen bei diesen Eingriffen, da herkömmliche Endoskope nur ein eingeschränktes Sichtfeld abdecken. Wir schlagen den Einsatz einer Time-of-Flight (ToF) Satellitenkamera im Zenit des Pneumoperitoneums vor, um den Operationssitus zu vermessen. Aufgrund des eingeschränkten Sichtfelds schlagen wir eine Fusion verschiedener 3D-Ansichten vor, um den Situs unter Verwendung der photometrischen und geometrischen Informationen des ToF-Sensors zu rekonstruieren. Wir konnten den gesamten Bauch mit einem mittleren absoluten Netz-zu-Netz-Fehler von weniger als 5 mm im Vergleich zu CT-Ground-Truth-Daten bei einer Bildfrequenz von 3 Hz rekonstruieren. Das Gerüst wurde anhand realer Daten einer Miniatur-ToF-Kamera in einer offenen Schweinestudie und zur quantitativen Auswertung mit einem realistischen menschlichen Phantom evaluiert. Mit dem vorgeschlagenen Ansatz zur Operationssitusrekonstruktion verbessern wir die Orientierung und Navigation des Operateurs und erhöhen damit die Sicherheit und beschleunigen chirurgische Eingriffe.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40811-3_45 17e9836f36230bad782b46200e73c98a;de;;;2.4.;;;Multimediale Datenbanktechniken zur Unterstützung medizinischer Diagnoseprozesse Technologische Fähigkeiten im Bereich der medizinischen Bildgebung tragen zur zunehmenden Verwendung der Bildanalyse in diagnostischen medizinischen Systemen bei. Medizinische Bildgebung ist eine der wichtigsten Informationsquellen für medizinisches Fachpersonal. Dies liegt vor allem daran, dass die Schlussfolgerungen der Ärzte aus dieser Form der Datendarstellung im Vergleich zu den numerischen Daten sehr genau sind. Die Eigenschaften von Multimediainhalten erfordern geeignete Datenbanklösungen, die Themen von Multimediadatenbanktechniken sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39881-0_26 398638ed761495f648fb0e48c40e15b5;de;;;2.4.;;;Untersuchung des Einflusses verschiedener Faktoren auf die Simulation von Mikrowellenstrahlungsbildern für die mondbasierte Erdbeobachtung Erdbeobachtungstechnologien sind wichtig, um raumbezogene Informationen auf der Erdoberfläche zu erhalten und werden in vielen Disziplinen wie der Ressourcenvermessung, Umweltüberwachung und Evolutionsstudien weit verbreitet eingesetzt. Es ist jedoch eine Herausforderung für bestehende Erdbeobachtungsplattformen, diese Art von Daten aufgrund von Beschränkungen in der Orbitalhöhe und im Sichtfeld schnell auf globaler Ebene zu erfassen, daher ist die Entwicklung einer fortschrittlichen Plattform für die Erdbeobachtung wünschenswert. Als natürlicher Satellit der Erde könnte die Platzierung verschiedener Sensoren auf dem Mond möglicherweise umfassende, kontinuierliche und langfristige Beobachtungen der Erde ermöglichen. Dies ist ein relativ neues Konzept, und die Studie befindet sich noch im Vorstadium, wobei derzeit keine tatsächlichen mondbasierten Erdbeobachtungsdaten verfügbar sind. Um die Eigenschaften der mondbasierten Mikrowellenstrahlung zu verstehen, wurden mehrere physikalische Faktoren untersucht, die die Mikrowellenstrahlungsabbildung potenziell beeinflussen, z. B. Zeitzonenkorrektur, relative Bewegung von Erde-Mond, atmosphärischer Strahlungstransfer und die Wirkung der Ionosphäre. Basierend auf einer umfassenden Analyse dieser Faktoren wurden die mondbasierten Mikrowellen-Helligkeitstemperaturbilder mit weltraumgestützten Temperaturdaten simuliert. Die Ergebnisse zeigen, dass die Zeitzonenkorrektur sicherstellt, dass die Simulationsbilder zur koordinierten Weltzeit (UTC) erhalten werden können und dass die relative Bewegung von Erde-Mond die Positionen der Nadir- und Mond-basierten Bildgebung beeinflusst. Der Einfluss der Atmosphäre auf die mondbasierte Beobachtung hängt von verschiedenen Parametern wie Luftdruck, Temperatur, Feuchtigkeit, Wasserdampf, Kohlendioxid, Sauerstoff, Betrachtungszenitwinkel und Mikrowellenfrequenz ab. Diese Faktoren wirken sich auf die atmosphärische Transmission und die Ausbreitung von Aufwärts- und Abwärtsstrahlung aus. Wenn sich Mikrowellen durch die Ionosphäre ausbreiten, hängt die Dämpfung von der Frequenz und dem Betrachtungszenitwinkel ab. Basierend auf ersten Studien legen die Simulationsergebnisse nahe, dass die mondbasierte Mikrowellenstrahlungsabbildung realistisch und praktikabel ist.;-;-;-;https://link.springer.com/article/10.1007/s11707-019-0785-5 faf4be27c051139c52352eb62b44f1bc;de;;;2.4.;;;Klassifikatorsysteme und das Animationsproblem Dieser Beitrag charakterisiert und untersucht aus der Perspektive des maschinellen Lernens und insbesondere von Klassifikatorsystemen das Lernproblem, mit dem Tiere und autonome Roboter (hier zusammenfassend;-;-;-;https://link.springer.com/article/10.1007/BF00058679 37fc967d54e748141e3c77a7150ed498;de;;;2.4.;;;Zufallskorrelationsbasierter Empfänger für Impulsfunkkommunikation in UWB-Kanälen Impulsfunk ist ein Ultrabreitbandsystem mit geringer Komplexität, das für hochdispersive Mehrwegekanäle geeignet ist. In diesem Papier schlagen wir einen auf Zufallskorrelationen basierenden Empfänger für Impulsfunkkommunikationen vor. Der vorgeschlagene Empfänger korreliert die empfangenen Pilotsymbole mit den zufällig generierten Basisfunktionen gemäß Kanalstatistiken und bildet die Erkennungsschablone durch Kombinieren mehrerer Basisfunktionen, die größere Korrelationskoeffizienten mit den Pilotsymbolen haben. Der vorgeschlagene Empfänger demoduliert das empfangene Signal unter Verwendung einer Symbolratenabtastung. Computersimulationsergebnisse haben gezeigt, dass der vorgeschlagene Empfänger den herkömmlichen korrelatorbasierten Empfänger, korrelatorbasierten kompressionssensorbasierten Empfänger, gewichteten Energiedetektor und Autokorrelationsempfänger übertrifft.;-;-;-;https://link.springer.com/article/10.1007/s11277-014-1838-4 5cee42b72954f3f6b8e04c830db71783;de;;;2.4.;;;Streamflow-Reaktion auf schrumpfende Gletscher unter sich änderndem Klima im Lidder Valley, Kaschmir-Himalaya Die Studie untersuchte die Reaktion der Strömung auf die schrumpfende Kryosphäre unter sich änderndem Klima im Lidder-Tal, Upper Indus Basin (UIB), Kaschmir-Himalaya. Wir haben eine Kombination aus multitemporalen Satellitendaten und topografischen Karten verwendet, um die Veränderungen von Fläche, Länge und Volumen der Gletscher von 1962 bis 2013 zu bewerten;-;-;-;https://link.springer.com/article/10.1007/s11629-017-4474-0 5c7d65f084a92a3e0140cbe4b8d5cead;de;;;2.4.;;;Weighted Steiner Connected Dominating Set und seine Anwendung auf das Multicast-Routing in drahtlosen MANETs In diesem Beitrag schlagen wir zunächst drei auf zentralisierten Lernautomaten basierende heuristische Algorithmen zur Approximation einer nahezu optimalen Lösung des minimalgewichtigen Steiner Connected Dominating Set (WSCDS) Problems vor. Das Finden der Steiner-verbundenen dominierenden Menge des Netzwerkgraphen ist ein vielversprechender Ansatz für das Multicast-Routing in drahtlosen Ad-hoc-Netzwerken. Daher präsentieren wir eine verteilte Implementierung des in diesem Papier vorgeschlagenen letzten Approximationsalgorithmus (Algorithmus III) für das Multicast-Routing in drahtlosen mobilen Ad-hoc-Netzwerken. Die vorgeschlagenen WSCDS-Algorithmen werden mit den bekannten existierenden Algorithmen verglichen und die erhaltenen Ergebnisse zeigen, dass Algorithmus III die anderen sowohl in Bezug auf die dominierende Satzgröße als auch die Laufzeit übertrifft. Unsere Simulationsexperimente zeigen auch die Überlegenheit des vorgeschlagenen Multicast-Routing-Algorithmus gegenüber den besten bisherigen Methoden in Bezug auf Paketzustellungsverhältnis, Multicast-Routenlebensdauer und Ende-zu-Ende-Verzögerung.;-;-;-;https://link.springer.com/article/10.1007/s11277-010-9936-4 04bbb4961b7a0d888af366ed8d995eda;de;;;2.4.;;;Suchen von Bildern mit ähnlichen Lichtverhältnissen in großen Fotosammlungen Wenn wir Bilder von Außenaufnahmen betrachten, sind viele der wahrgenommenen Informationen auf die Lichtverhältnisse zurückzuführen. In diesen Szenen interagieren die Sonnenstrahlen mit der Atmosphäre und erzeugen eine globale Beleuchtung, die die Art und Weise bestimmt, wie wir Objekte in der Welt wahrnehmen. In letzter Zeit wurde damit begonnen, den Himmel als Hauptkomponente der Beleuchtungsstärke im Computer Vision zu erforschen. Einige dieser Studien könnten als farbbasierte Algorithmen klassifiziert werden, während andere in die physikbasierte Kategorie fallen. Die meisten gehen jedoch davon aus, dass die photometrischen und geometrischen Kameraparameter konstant sind oder zumindest bestimmt werden könnten. Diese Arbeit stellt eine einfache und effektive Methode vor, um Bilder mit ähnlichen Lichtverhältnissen zu finden. Diese Methode basiert auf einem Gaußschen Mischungsmodell von Himmelspixeln, dargestellt durch ein 3D-Histogramm im;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10268-4_6 c9863131df30520973228a9d2c29ef06;de;;;2.4.;;;Iriserkennung basierend auf einer neuartigen Variation lokaler Binärmuster In diesem Artikel wird ein effizientes Verfahren basierend auf einer neuartigen Variation des lokalen Binärmusters (LBP), des durchschnittlichen lokalen Binärmusters (ALBP), für die Iriserkennung vorgeschlagen, das weniger empfindlich auf die Histogrammentzerrung und die Parameterauswahl reagiert und eine geringe Rechenkomplexität aufweist . Das zentrale Pixel und seine Umgebung sind die entscheidenden Elemente, die an der grundlegenden LBP beteiligt sind. ALBP legt großen Wert auf die Bedeutung des zentralen Pixels, während sich fast alle anderen Varianten von LBP auf die Auswahl der Nachbarschaft konzentrieren. Vier Kandidaten für die Modifikation des mittleren Pixels werden gewählt bzw. validiert. Im vorgeschlagenen Rahmen wird die gültige Irisregion zuerst lokalisiert und dann in ein einheitliches Rechteck normiert. Dann wird die normalisierte Iris in mehrere Unterbilder zerhackt und der ALBP-Operator wird auf jedes Unterbild angewendet, um ein individuelles Histogrammmerkmal zu erhalten. Jedes Histogrammmerkmal wird dann verkettet, um einen globalen Irismerkmalsvektor zu bilden. Nearest Neighbour Classifier und Support Vector Machine werden verwendet, um die Erkennungsleistung zu validieren. Experimentelle Ergebnisse zu CASIA-IrisV4 (einschließlich CASIA-Iris-Interval und CASIA-Iris-Thousand) und der UBIRIS.V1-Datenbank zeigen, dass unsere Methode eine wettbewerbsfähige Erkennungsleistung erreicht (die optimale Erkennungsrate;-;-;-;https://link.springer.com/article/10.1007/s00371-014-1023-5 fb0d62f31005949fd926b4447b4102e5;de;;;2.4.;;;Lichtstreutechniken bei der Untersuchung von Photoreaktionen Photoreaktionen von Mikroorganismen, insbesondere von Flagellated Algen, auf Lichtschwankungen werden als phobische Reaktionen bezeichnet. Typische phobische Reaktionen sind das Anhalten und der Richtungswechsel von;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-5988-3_8 ac4ed50c73c361ded608628d1d32a8ba;de;;;2.4.;;;Synchronisationsalgorithmus mit APA Pilot Pulse Sequence für UWB Kommunikationssystem Die Ultrabreitband-Kommunikationssynchronisation ist aufgrund ihrer ultrakurzen Pulsform und ihrer Übertragungen mit geringer Leistung eine wichtige und herausfordernde Arbeit. In diesem Papier wird die Methode der Verwendung von APA als Pilotsequenzen vorgeschlagen. Der Empfänger verwendet den Korrelator, der der gepulsten Pilotsequenz entspricht, die Synchronisation von Empfänger und Sender kann durch den Spitzenwert des Korrelators erreicht werden. Die theoretische Analyse stimmt mit den Simulationsergebnissen überein. Die Synchronisationsleistung von APA-Pilotsequenzen und zufälligen Pilotsequenzen in AWGN und Mehrwegekanal wird verglichen. Simulationsergebnisse zeigen, dass APA-Pilotsequenzen in Bezug auf die Synchronisationsleistung zufälligen Pilotsequenzen überlegen sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24999-0_20 10a1c60baae73c7be565d920af092147;de;;;2.4.;;;Anwendungen und zukünftige Forschungsrichtungen Unsicherheit ist bei Problemen der Entscheidungsfindung und Datenanalyse von Natur aus vorhanden. Und die Rolle von Soft-Sets bei der Modellierung dieser ist bereits bekannt und es gibt viele solcher Fälle in der Literatur. In diesem Kapitel diskutieren wir verschiedene Anwendungen von Soft Sets in vielen realen Problemen wie Entscheidungsfindung, Parameterreduktion, Spieltheorie und Datenfüllung in unvollständigen Informationssystemen. Wir schließen das Kapitel ab, indem wir auf den aktuellen Stand der Arbeit in diesem Bereich hinweisen und einige fruchtbare Bereiche für weitere Studien in theoretischen und praktischen Aspekten von Soft Sets angeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-57654-7_6 7a9d17de906cb11f10182277fbc944fd;de;;;2.4.;;;Neuartige multistatische adaptive Mikrowellen-Bildgebungsverfahren zur Früherkennung von Brustkrebs Multistatische adaptive Mikrowellen-Bildgebungsverfahren (MAMI) werden vorgestellt und zur Früherkennung von Brustkrebs verglichen. Aufgrund des signifikanten Kontrasts zwischen den dielektrischen Eigenschaften von normalem und bösartigem Brustgewebe hat die Entwicklung von Mikrowellen-Bildgebungsverfahren zur Früherkennung von Brustkrebs in letzter Zeit großes Interesse geweckt. MAMI ist eine der Mikrowellen-Bildgebungsmodalitäten und verwendet mehrere Antennen, die abwechselnd Ultrabreitband-Impulse (UWB) senden, während alle Antennen zum Empfang der reflektierten Signale verwendet werden. MAMI kann als Spezialfall des Multi-Input-Multi-Output-(MIMO)-Radars betrachtet werden, wobei die mehreren gesendeten Wellenformen entweder UWB-Impulse oder Nullen sind. Da die von verschiedenen Antennen gesendeten UWB-Impulse zeitlich versetzt sind, sind die mehreren gesendeten Wellenformen orthogonal zueinander. Die Herausforderung bei der Mikrowellen-Bildgebung besteht darin, die Auflösung zu verbessern und starke Interferenzen zu unterdrücken, die durch die Brusthaut, die Brustwarze usw. verursacht werden. Die hier untersuchten MAMI-Methoden verwenden den datenadaptiven robusten Capon Beamformer (RCB), um eine hohe Auflösung und Störunterdrückung zu erreichen. Wir demonstrieren die Wirksamkeit unserer vorgeschlagenen Methoden zur Brustkrebserkennung anhand von numerischen Beispielen mit Daten, die mit der Finite-Differenz-Zeitbereichsmethode basierend auf einem realistischen 3D-Brustmodell simuliert wurden.;-;-;-;https://link.springer.com/article/10.1155/ASP/2006/91961 9d1aa434d4e4b095ae2735487c10321b;de;;;2.4.;;;Der Einsatz von Fernerkundung und GIS im nachhaltigen Management tropischer Küstenökosysteme Die nachhaltige Nutzung und Bewirtschaftung wichtiger tropischer Küstenökosysteme (Mangrovenwälder, Seegraswiesen und Korallenriffe) kann nicht ohne das Verständnis der direkten und indirekten Auswirkungen des Menschen erfolgen. Die Widerstandsfähigkeit und Erholungsfähigkeit des Ökosystems nach solchen Auswirkungen muss bestimmt werden. Auch die Wirksamkeit von Minderungsmaßnahmen muss berücksichtigt werden. Fernerkundung und geografische Informationssysteme (GIS) sind ausgezeichnete Werkzeuge für solche Studien. Dieses Papier gibt einen Überblick über den Stand der Technik und Anwendung dieser Instrumente in tropischen Küstengebieten und veranschaulicht ihre Bedeutung für die nachhaltige Entwicklung. Es beleuchtet eine ausgewählte Anzahl von Fernerkundungs-Fallstudien zu Landbedeckungsmustern, Populationsstruktur und -dynamik sowie Bestandsmerkmalen aus Südostasien, Afrika und Südamerika, mit besonderem Schwerpunkt auf Mangroven. Darüber hinaus wird gezeigt, wie Fernerkundungstechnologie und andere wissenschaftliche Instrumente in Langzeitstudien, sowohl retrospektiv als auch prädiktiv, integriert werden können, um eine Verschlechterung zu antizipieren und frühzeitig Gegenmaßnahmen zu ergreifen. Das Papier hebt auch die Leitlinien für ein nachhaltiges Management hervor, die sich aus Fernerkundungs- und GIS-Studien ergeben können, und identifiziert bestehende Lücken und Forschungsprioritäten.;-;-;-;https://link.springer.com/article/10.1023/A%3A1020887204285 6317ee0c35d6ff1bb1baae3dc3156272;de;;;2.4.;;;Beobachten des Lemmatisierungseffekts bei der LSA-Kohärenz und der Verständlichkeitseinstufung von Lernerzusammenfassungen Die aktuelle Arbeit in der Lernerevaluation von Intelligent Tutoring Systems (ITS) bewegt sich in Richtung einer ergebnisoffenen Diagnose von Bildungsinhalten. Eine der Hauptschwierigkeiten dieses Ansatzes besteht darin, natürliche Sprache automatisch verstehen zu können. Unsere Arbeit ist darauf ausgerichtet, eine automatische Auswertung von Lernerzusammenfassungen auf Baskisch zu erstellen. Daher ergeben sich neben dem Sprachverständnis auch Schwierigkeiten aus der baskischen Morphologie selbst. In dieser Arbeit wird die Latent Semantic Analysis (LSA) verwendet, um das Verstehen in einer Sprache zu modellieren, in der sich die Lemmatisierung als hochsignifikant erwiesen hat. Diese Arbeit testet den Einfluss der Korpuslemmatisierung bei der Durchführung des automatischen Verständnisses und der Kohärenzbewertung. Zusammenfassungen, die von menschlichen Richtern in Kohärenz und Verständnis bewertet wurden, wurden gegen LSA-basierte Messungen aus lemmatisierten und nicht-lemmatisierten Korpora getestet. Nach der Lemmatisierung wurde die Menge der LSA-bekannten Einzelterme auf 56% der ursprünglichen Anzahl reduziert. Infolgedessen entsprechen die LSA-Grade fast den menschlichen Maßen, sodass keine signifikanten Unterschiede zwischen den lemmatisierten und nicht lemmatisierten Ansätzen entstehen.;-;-;-;https://link.springer.com/chapter/10.1007/11774303_59 f791ad0816e816f16b881360fefec9f2;de;;;2.4.;;;Organisationsanreiz getrieben durch Modellierung des Kooperationsverhaltens in agentenbasierten komplexen Netzwerken Anders als ein Interaktionsmodell traditioneller organisationaler Anreize und individueller Verhaltensweisen integriert die Forschung das Konzept des „kognitiven Bias“ in ein Entscheidungsfindungsmodell des Kooperationsverhaltens von Mitarbeitern im Rahmen der Organisationsreform von Geschäftsbanken auf der Grundlage sozialer Dynamiken und erstellt ein Modell des Kooperationsverhaltens von Mitarbeitern unter verschiedenen organisatorischen Anreizen sowie Variationsmerkmale des Kooperationsverhaltens der Mitarbeiter. Forschungsergebnisse zeigen, dass bei der organisatorischen Veränderung von Geschäftsbanken Anreizmaßnahmen und Kommunikationsformen stufenweise differenziert behandelt werden sollen, um eine ausgewogene Verteilung der Ressourcen und eine Wirkungsmaximierung zu erreichen. In der Anfangsphase der Reform soll die Stärkung des Kernpersonalmanagements betont und deren Diffusionseffekte positiv genutzt werden. Auf diese Weise kann der Fortschritt der Organisationsreform von der mikroskopischen Ebene aus gefördert werden.;-;-;-;https://link.springer.com/article/10.1007/s12652-019-01517-6 82c851d3c8b595fa2a8e231506bc0e64;de;;;2.4.;;;Hindernisse in der computergestützten Diagnose Ziel der computergestützten Diagnostik ist die Verbesserung des klinischen Urteilsvermögens. Wir sind davon überzeugt, dass die Genauigkeit medizinischer Entscheidungen verbessert werden kann, eine Meinung, die von mehreren Autoren untermauert wurde. Garland (berichtet in 1) fand eine Genauigkeit von 44% für Myokardinfarkt, Van der Does und Lubsen (2) 47% für dieselbe Krankheit. Prutting (3) fand bei 100 Autopsien in Frankreich einen durchschnittlichen Fehler bei der Diagnose einer Lungenembolie von 56%f und eine diagnostische Gesamtgenauigkeit von 55,4%. In unserer Studie fanden wir eine Gesamtgenauigkeit von etwa 50 % für Hausärzte und etwa 70 % für Allgemeinmediziner.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-93355-4_12 b69090af192dce6fb76cbd131e9d09a2;de;;;2.4.;;;Datenintegration in computerverteilte Systeme In diesem Artikel analysiert der Autor ein Problem der Datenintegration in einem computerverteilten System. Der Informationsaustausch zwischen den verschiedenen Ebenen der integrierten Unternehmenspyramide ist im Hinblick auf eine effiziente Unternehmensarbeit von grundlegender Bedeutung. Kommunikation und Datenaustausch zwischen den Ebenen sind nicht immer gleich, da unterschiedliche Netzwerkprotokollnutzung, Kommunikationsmedium, Systemreaktionszeit usw. erforderlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13861-4_18 e41a5ff6563bc380dbedd8afd3192037;de;;;2.4.;;;Ein Vergleich von unbeaufsichtigten Methoden, um Farben mit Wörtern zu verbinden Farben spielen eine sehr wichtige Rolle für unsere Wahrnehmung der Welt. Wir assoziieren Farben oft mit verschiedenen Konzepten auf verschiedenen Bewusstseinsebenen und diese Assoziationen können für viele Bereiche wie Bildung und Werbung relevant sein. Nach unserem besten Wissen gibt es jedoch keine systematischen Ansätze, um die automatische Entwicklung von Ressourcen zu unterstützen, die diese Art von Wissen kodieren. In diesem Artikel schlagen wir drei Computermethoden vor, die auf Bildanalyse, Sprachmodellen und latenter semantischer Analyse basieren, um Wörter automatisch Farben zuzuordnen. Wir vergleichen diese Methoden mit einem Goldstandard, der über Crowd-Sourcing gewonnen wurde. Die Ergebnisse zeigen, dass jede Methode effektiv verschiedene Aspekte von Wort-Farb-Assoziationen erfasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24571-8_5 1f256714a3f3a198eae1d2bbd44725df;de;;;2.4.;;;Verbesserung der Simulationseffizienz beim 5-Achs-Fräsen durch Verwendung eines erweiterten Octrees und einer impliziten Formel eines generalisierten Fräsers Dieses Papier präsentiert ein Advanced Octree (AO-Rep)-Modell und eine implizite Formel eines generalisierten Fräsermodells für die 5-Achsen-Frässimulation. Erstens ist das Hauptideal des AO-Rep-Modells der Aufbau einer hierarchischen Struktur und die Darstellung von Volumenkörpern. Das AO-Rep-Modell verwendet einen Oktree, um nicht verwandte Voxel auszusondern, und erzeugt ein Voxelmodell mit kleinem Maßstab in grauen Oktanten, wenn ein Schneidegerät diese Oktanten schneidet. Verwenden einer vereinfachten Schnittpunktberechnung zwischen einem Würfel und Dreiecken in;-;-;-;https://link.springer.com/article/10.1007/s11424-013-3176-0 f92dcafb690c850eb687c8de142d4c2b;de;;;2.4.;;;Temperatur- und Feuchtigkeitserkennung der Logistiklagerumgebung basierend auf 6LoWPAN Dieses Papier nimmt die Logistik-Lagerumgebung als Beispiel und baut ein Temperatur- und Feuchtigkeitserfassungssystem basierend auf dem drahtlosen 6LoWPAN-Sensornetzwerk auf. Es simuliert und analysiert die Situation des Routings beim Verschieben der Knoten. Schließlich schließt es den eigentlichen Umgebungstest ab. Das Ergebnis zeigt, dass das System die Verbindung und den Datenaustausch zwischen dem drahtlosen Sensornetzwerk und dem IPv6-Netzwerk vervollständigt und eine Echtzeit-Erfassung von Temperatur und Luftfeuchtigkeit in Logistikumgebungen realisiert. Das System ist stabil und effizient.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8944-2_63 db1afc76ed77870c5181dc47887eec8e;de;;;2.4.;;;Circadiane Rhythmik: Ist die „biologische Uhr“ Hardware oder Software? Das Bewusstsein für den Einfluss äußerer Rhythmen wie Jahreszeiten, Gezeiten und Sonnentag auf Organismen, Pflanzen und Tiere einschließlich des Menschen geht auf die frühe Entstehung der menschlichen Kultur zurück (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55819-1_13 f7239eb8bbfa8e705e40361aa38ae92b;de;;;2.4.;;;Lernen, Agenten und formale Sprachen: Linguistische Anwendungen interdisziplinärer Felder Dieses Papier konzentriert sich auf drei Bereiche: maschinelles Lernen, Agententechnologien und formale Sprachtheorie. Unser Ziel ist es zu zeigen, wie die Wechselbeziehung zwischen Agenten, Lernen und formalen Sprachen zur Lösung eines herausfordernden Problems beitragen kann: der Erklärung, wie natürliche Sprache erworben und verarbeitet wird. Linguistische Beiträge zur Schnittstelle zwischen maschinellem Lernen und formaler Sprachtheorie – durch das Gebiet der grammatischen Inferenz – werden besprochen. Agentenbasierte formale Sprachmodelle als Kolonien, Grammatiksysteme und Öko-Grammatiksysteme wurden auf verschiedene Probleme der natürlichen Sprache angewendet. Wir überprüfen die relevantesten Anwendungen dieser Modelle.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19629-9_5 e99448f96a27168050919104de75dcf9;de;;;2.4.;;;Offline-Erkennung von P300 in BCI-Speller-Systemen Das Papier präsentiert einen Rahmen für die Offline-Analyse des P300-Speller-Systems unter Verwendung von Seed-k-Means-basierten Ensemble-SVM. Aufgrund der Verwendung kleiner Datensätze für das Training von Klassifikatoren verschlechtert sich die Leistung. Das vorgeschlagene Framework konzentriert sich auf den semi-überwachten Clustering-Ansatz zum Trainieren des SVM-Klassifikators mit großen Datenmengen. Die normalisierten gegenseitigen Informationen (NMI) wurden für die Clustervalidierung verwendet, die maximal 88 Cluster auf einem 10-fachen Kreuzvalidierungsdatensatz ergibt, wobei NMI ungefähr gleich 1 ist für den Wettbewerb Brain-Computer Interface (BCI) III. Die experimentellen Ergebnisse zeigen den Anstieg des SNR-Werts und erzielen bessere Genauigkeitsergebnisse als lineare, polynomiale oder rbf-Kernel-SVM.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13728-5_8 80f0d9cbf2c7c837461fd65a202fa1e7;de;;;2.4.;;;Topographischer korrekturbasierter Abruf des Blattflächenindexes in Berggebieten Der Blattflächenindex (LAI) ist ein Schlüsselparameter in der Vegetationsanalyse und -bewirtschaftung, insbesondere für Berggebiete. Der genaue Abruf von LAI auf der Grundlage von Fernerkundungsdaten ist dringend erforderlich. In einer Studie im Forstzentrum Dayekou im Einzugsgebiet Heihe in der Provinz Gansu haben wir den LAI anhand topografischer Korrekturen eines SPOT-5 bestimmt. Die große Variation im Berggelände erforderte eine Vorverarbeitung des SPOT-5-Bildes, außer wenn Orthokorrektur, Strahlungskalibrierung und atmosphärische Korrektur verwendet wurden. Diese erforderten die Erfassung des Oberflächenreflexionsvermögens und mehrerer Vegetationsindizes und die Verknüpfung mit im Feld gemessenen LAI-Werten. Statistische Regressionsmodelle wurden verwendet, um LAI und Vegetationsindizes zu verknüpfen. Als optimales Modell unter Berücksichtigung der R- und R2-Werte wurde das quadratische Polynommodell zwischen LAI und SAVI (L=0.35) ermittelt. Eine zweite Gruppe von LAI-Daten wurde reserviert, um das Abrufergebnis zu validieren. Das Modell wurde angewendet, um eine Verteilungskarte von LAI im Gebiet zu erstellen. Der Vergleich mit einem unkorrigierten SPOT-5-Bild zeigte, dass eine topographische Korrektur zur Bestimmung des LAI in Berggebieten notwendig ist.;-;-;-;https://link.springer.com/article/10.1007/s11629-012-2248-2 24d97d2718bc6e84432ed96400989f2f;de;;;2.4.;;;Bewertung von UAV- und GNSS-basierten DEMs für das Erdbauvolumen Die Planung und der Bau von Straßen ist ein komplexer und zeitaufwändiger Prozess. Eine der wichtigsten Komponenten in diesem Prozess ist die Schätzung der Erdarbeiten. Die Auflösung von DEM, die häufig in der Straßenplanungsphase verwendet wird, wirkt sich direkt auf den Erfolg der Erdbauschätzung und die Baukosten aus. Im Rahmen dieser Studie wurden die Fähigkeiten zweier verschiedener Datenerfassungssysteme (UAV und GNSS) für die DEM-Erzeugung verglichen. In der Studie wurden zwei Sätze von DEMs auf dem Campusgelände der Technischen Universität Bursa Kestel mit sowohl UAV- als auch GNSS-basierten Methoden hergestellt. Dann wurden die Abtrags- und Füllvolumina mit der Berücksichtigung von UAV-basiertem DEM und GNSS-basiertem DEM in Abhängigkeit von der Referenzebene für drei verschiedene Straßen verglichen. Laut NRTK-GNSS-basierten Vermessungsergebnissen wurde die Punktdichte mit 35 Punkten/ha ermittelt, während die UAV-basierte Vermessungspunktdichte mit;-;-;-;https://link.springer.com/article/10.1007/s13369-017-2811-9 5155b0edae01dbd9399751b20ef4d84f;de;;;2.4.;;;Bioimpedanzidentifikation der Fingerkuppenhaut zur Verbesserung der elektrotaktilen Präferenz Forschungen in der Rehabilitationstechnik haben gezeigt, dass Elektroden taktile Empfindungen mit geeigneten elektrischen Signalen erzeugen können, um die mehreren taktilen Rezeptoren zu stimulieren, die sich unter der Haut der Fingerkuppe befinden. Zahlreiche äquivalente Haut-Elektroden-Schnittstellen wurden modelliert, um die elektrischen Eigenschaften der Haut zu charakterisieren, jedoch ändern sich die Werte dieser Schaltungsmodelle ständig, sowohl aufgrund der Nichtlinearität, die mit der menschlichen Fingerkuppenhaut verbunden ist, als auch aufgrund individueller Benutzerunterschiede. Dadurch kann nicht für jeden Benutzer eine hinsichtlich Strom- oder Spannungshöhe für taktile Empfindungen geeignete Elektrostimulation gewährleistet werden. Ein Identifizierungsverfahren ist dann erforderlich, um die Parameter des Haut-Elektroden-Schnittstellenschaltungsmodells zu charakterisieren, um die Wiedergabekonsistenz und den Komfort für jeden Benutzer unabhängig vom Hautzustand zu verbessern. In diesem Beitrag stellen wir ein speziell angefertigtes elektrotaktiles Anzeigeterminal vor und stellen dann unter Verwendung dieses Anzeigeterminals zur Datenerfassung ein Online-Identifikationsschema zur Bestimmung der Bioimpedanzparameter des bekannten Cole-Cole-Schaltungsmodells für die Haut-Elektroden-Schnittstelle. Hierfür wird ein modifizierter iterativer Ansatz nach der Methode der kleinsten Quadrate nach Kalman verwendet, der darauf beruht, nur Eintor-Rechteckwellen-Stimulationsspannungen zu messen. Die Wiederholbarkeit und Zuverlässigkeit des Identifizierungsschemas werden getestet, indem die Widerstands-Kondensator-(RC)-Last-Bioimpedanznetzwerke verschiedener Benutzer sowohl mit einem trockenen als auch mit einem leicht feuchten Zeigefinger über mehrere Identifizierungsversuche hinweg identifiziert werden. Darüber hinaus wird aufgrund der unvermeidlichen Variation der Parameter über mehrere Messungen die Wiederholbarkeit mehrerer berechneter RC-Modelle (trocken und nass) weiter bewertet. Die Bedeutung unserer Arbeit besteht darin, dass sie die taktile Wiedergabeleistung von elektrischen Stimulationssystemen (elektrotaktilen) erheblich verbessert und der Entwicklung elektrotaktiler rehabilitativer Robotergeräte und Mensch-Roboter-Schnittstellen zugute kommt.;-;-;-;https://link.springer.com/article/10.1007/s41315-016-0010-6 e40e171bf2d68006acc60e51b0780820;de;;;2.4.;;;Unüberwachtes und wissensfreies Lernen von Compound Splits und Periphrasen In einem zweiten Schritt durchsuchen wir das Korpus nach Periphrasen, also einer Neuformulierung der (Einzelwort-)Komposition mit den Teilen und sehr häufig vorkommenden Wörtern (meist Präpositionen oder Determinatoren). Dieser Schritt schließt unechte Kandidatenaufteilungen auf Kosten des Rückrufs aus. Um den Recall noch einmal zu steigern, trainieren wir einen trie-basierten Klassifikator, der es auch erlaubt, mehrteilige Verbindungen iterativ aufzuspalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78135-6_11 13e560f80fdfba3e5196cf603013eeab;de;;;2.4.;;;Entwicklung eines archäologischen Vorhersagemodells für das Management von Militärland Military Es wurde ein Rahmen für ein archäologisches Vorhersagemodell entwickelt, das auf nachgewiesenen Beziehungen zwischen mehreren geologischen Variablen (z. B. Topographie, Geochronologie, Gesteinsart, Geomorphologie) für 81 zuvor identifizierte kulturelle Ressourcenstandorte in verschiedenen Wüstengebieten basiert. Die Ergebnisse zeigten, dass die nützlichsten Variablen der Lagerstättentyp, die Lage im Piemont, die geometrische Form, das Alter der Lagerstätte, das Oberflächenalter, der Wüstenbelag, der Oberflächenhorizont und der stärkste Untergrundhorizont sind. Herkömmliche Quellen für geologische und Bodendaten, die den meisten militärischen Einrichtungen zur Verfügung stehen, haben eine geringe Auflösung oder sind unvollständig. Schnelle und kostengünstige Methoden zur Sammlung dieser Daten in Wüstengebieten werden benötigt, um archäologische Vorhersagemodelle voranzutreiben und zu implementieren. Das neue Modell wurde ursprünglich auf Wüstengelände im US Army National Training Center in Fort Irwin, Kalifornien, angewendet, hat jedoch das Potenzial für die Anwendung auf Militärgelände im gesamten Südwesten der USA, wo bis zu 80 % der Bestände nicht inventarisiert wurden kulturellen Ressourcen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-3105-2_20 46d0bb788390ff63d18c43d0b56ba3a1;de;;;2.4.;;;Praktische Aspekte der Fuzzy-Regel-Interpolation Die Zahl der Anwendungen der Fuzzy Rule Interpolation (FRI) in Engineering-Aufgaben ist im Vergleich zu den klassischen Fuzzy Reasoning-Methoden noch unbedeutend. Das Hauptziel dieses Papiers ist es, die Vorteile der direkten (eingebetteten) Anwendbarkeit der Fuzzy-Regelinterpolation und der damit verbundenen spärlichen regelbasierten Wissensrepräsentation durch anschauliche Beispiele in recht unterschiedlichen Bereichen hervorzuheben. Als Voraussetzung für eine spärliche regelbasierte Anwendung in Fuzzy-Systemen haben die FRI-Verfahren den Vorteil, vernünftige (interpolierte) Schlussfolgerungen zu liefern, selbst wenn keine der bestehenden Regeln mit der aktuellen Beobachtung übereinstimmt. Trotz der klassischen Fuzzy-Argumentation-Methoden ermöglicht dieses Merkmal FRI-Systemen eine Wissensrepräsentation, die ähnlich wie Expertensysteme aufgebaut ist und nur auf der Definition von Kardinalregeln aufgebaut ist. Andererseits können die diskret definierten Regeln dank des Fuzzy-Konzepts, der Fuzzy-Mengensymboldarstellung und der Fuzzy-Argumentation auf kontinuierliche Universen und kontinuierliche Zustände einwirken. Nach einer kurzen Diskussion der FRI-Methoden stellt der Beitrag vier eingebettete FRI-Anwendungsbeispiele regelbasierter Wissensrepräsentation auf kontinuierliche Domänenprobleme vor, die aus der Arbeit unserer Forschungsgruppe der letzten 15 Jahre ausgewählt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-05945-7_11 5ed3dfc4a61673a4a27368314f28c9b6;de;;;2.4.;;;Identifizierung von vier Hub-Genen als vielversprechende Biomarker zur Bewertung der Prognose von Eierstockkrebs in silico Eierstockkrebs (OvCa) ist eine der tödlichsten Krebserkrankungen bei Frauen weltweit. Angesichts der steigenden Zahl von Personen, bei denen OvCa diagnostiziert wird, die tödlich endet, ist es dringend erforderlich, die potenziellen Mechanismen der OvCa-Onkogenese und -Entwicklung und verwandter Biomarker weiter zu erforschen.;-;-;-;https://link.springer.com/article/10.1186/s12935-020-01361-1 d8e32fafe4df50c75adae30510372f62;de;;;2.4.;;;Anwendung der Monte-Carlo-Berechnungsmethode basierend auf einem speziellen Graphen in der medizinischen Bildgebung Mit der rasanten Entwicklung der medizinischen Bildgebungstechnologie und der Informationstechnologie werden die digitalen medizinischen Bilderfassungsgeräte ständig aktualisiert, insbesondere der Aufstieg der Protonen-Medizintechnologie, die höhere Anforderungen an die Bildgebungstechnologie für menschliche kranke Zellen stellt. In diesem Beitrag wurden auf der Grundlage der Bilddaten des Großapertur-CT die Monte-Carlo-Berechnung und die Analyse von kantenunscharfen Elektronendichtebildern durchgeführt, um eine genaue Diagnose zu erreichen und eine neue Methode für eine effiziente pathologische Behandlung bereitzustellen. In diesem Artikel wurde eine vorläufige Studie und Analyse zur Anwendung der Monte-Carlo-Methode in der radiochirurgischen Behandlungsplanung durchgeführt. Die Monte-Carlo-Methode, die als Stichproben- oder statistische Testmethoden bekannt ist, kann den tatsächlichen physikalischen Prozess, die Problemlösung und die tatsächliche in guter Übereinstimmung wirklich simulieren. Es können sehr erfolgreiche Ergebnisse sein. In Kombination mit der Bildverarbeitungsmethode führt diese Arbeit die Erkennungsmethoden der Bildvorverarbeitung, Bildsegmentierung, Merkmalsextraktion, Klassifizierung und Erkennung des Läsionsbereichs des menschlichen Körpers durch, um die effektive Erkennung des speziellen Läsionsbildbereichs zu realisieren. Experimentelle Ergebnisse zeigen, dass der Rand des Läsionsbereichs durch Bildsegmentierung, Konturextraktion und Monte-Carlo-Berechnung erhalten wurde. Als Eingabe wurden Partikelrauminformationen verwendet. Basierend auf der Monte-Carlo-Methode wird die im Raum absorbierte Dosis im Phantom verteilt analysiert. Durch den Einsatz der computergestützten Leberkrebs-Diagnosetechnologie werden der Arbeitsdruck und die Arbeitsintensität des Arztes reduziert, die Arbeitseffizienz des Arztes verbessert, die Genauigkeit der Diagnose verbessert, das Krankenhaus viele Kosten eingespart und die Belastung des Patienten verringert. Daher hat die Erforschung der computergestützten Diagnostik einen wichtigen Stellenwert und Anwendungswert.;-;-;-;https://link.springer.com/article/10.1007/s10586-018-2332-7 c4a076b8b0e8b90023bbdc12853f7949;de;;;2.4.;;;Heartbeat-Biometrie für die menschliche Authentifizierung Automatisierte Sicherheit ist eines der Hauptanliegen der modernen Zeit. Sichere und zuverlässige Authentifizierungssysteme sind sehr gefragt. Ein biometrisches Merkmal wie das Elektrokardiogramm (EKG) einer Person ist einzigartig und sicher. In diesem Papier schlagen wir eine Authentifizierungstechnik vor, die auf der Radon-Transformation basiert. Hier wird die EKG-Welle als Bild betrachtet und die Radon-Transformation wird auf dieses Bild angewendet. Auf das Radon-Bild wird ein standardisierter euklidischer Abstand angewendet, um einen Merkmalsvektor zu erhalten. Der Korrelationskoeffizient zwischen solchen zwei Merkmalsvektoren wird berechnet, um eine Person zu authentifizieren. Das Verhältnis der falschen Akzeptanz des vorgeschlagenen Systems beträgt 2,19 % und das Verhältnis der falschen Ablehnung beträgt 0,128%. Als Vorarbeit haben wir zwei weitere Ansätze entwickelt, die auf statistischen Merkmalen einer EKG-Welle basieren. Das Ergebnis der vorgeschlagenen Technik wird mit diesen beiden Ansätzen und auch mit anderen Alternativen des Standes der Technik verglichen.;-;-;-;https://link.springer.com/article/10.1007/s11760-011-0252-6 1ed440153006239d88d79e12f00aa664;de;;;2.4.;;;Bewegungserkennung mit Horn-Schunck Optical Flow Dieses System ist so konzipiert, dass es Bewegungen in einer Menschenmenge unter Verwendung eines der optischen Flussalgorithmen, der Horn-Schunck-Methode, erkennt. Durch Ausführen einiger geeigneter Merkmalsextraktionstechniken ermöglicht dieses System, bessere Ergebnisse bei der Erkennung von Bewegungen und der Bestimmung der Geschwindigkeit dieser Bewegung zu erzielen, um das menschliche Verhalten basierend auf seinen Geschwindigkeiten zu analysieren. Diese Forschung funktioniert in der Lage, menschlichen Beobachtern zu helfen, Videos zu überwachen, die von Closed-Circuit-Fernsehsystemen (CCTVs) aufgenommen wurden, die in der Region of Interest (ROI) angeschlossen sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35594-3_29 333b5f593e5fa2785b1b48cce2bbc8ce;de;;;2.4.;;;Stetigkeitsanalyse von Mittel-Zweck-Konzeptpfaden und Problemketten basierend auf Konzeptgittern und Ähnlichkeitsmessungen Die formale Konzeptanalyse hat viel Potenzial zur Unterstützung des personalisierten Lernens gezeigt. Dieser Beitrag ist motiviert durch mehrere Anwendungsszenarien von Konzeptgittern zur Unterstützung des Mathematikunterrichts. Ziel der Arbeit ist es, ein Schema zur Gestaltung von Problemketten auf der Grundlage von Konzeptgittern zu entwickeln und Bewertungsmethoden zur Stetigkeit der entsprechenden Lernprozesse bereitzustellen. Insbesondere wird ein Modell entwickelt, um die Sensitivität der Umwandlung von Anstrengung bei Problemen in Wirksamkeit bei Wissen/Fähigkeiten zu untersuchen. Dann wird der Begriff der aufeinanderfolgenden Pfade eingeführt, um Mittel-Zweck-Ketten von Lernzuständen zu beschreiben. Zur Stetigkeit der entsprechenden Lernprozesse werden Bewertungsmethoden entwickelt und Datenexperimente unter Aspekten Problemaufwand, Wirksamkeit auf Wissen/Fähigkeiten und Konversionssensitivität durchgeführt. Darüber hinaus wird der Begriff der konzeptionellen Pfade eingeführt, um personalisierte Lernstrategien zu beschreiben. Anschließend wird ein Schema zum Entwurf von Problemketten basierend auf konzeptionellen Pfaden und Ähnlichkeitsmessungen gegeben. Schließlich wird eine Methode zur Bewertung der Stetigkeit von Problemketten vorgeschlagen, bei der die lineare Regressionsanalyse für Problemketten genutzt wird.;-;-;-;https://link.springer.com/article/10.1007/s13042-021-01309-5 6a3fadc99aaa763e6ec2468dc0d654de;de;;;2.4.;;;Biologische Assays für die molekulare Kodierung erworbener Informationen Es gab drei experimentelle Hauptansätze für das Problem der molekularen Mechanismen bei der Verarbeitung der erworbenen Informationen. Der erste von Hydén (1959) initiierte Ansatz ist der Versuch, mit chemischen und physikalischen Methoden nachzuweisen, dass die Informationsaufnahme und -fixierung mit chemischen Veränderungen im Gehirn einhergeht (siehe Übersichten von Booth, 1967, 1970). Der zweite Ansatz hat gezeigt, dass eine Störung der Synthese von RNA und Protein die Fixierung erworbener Informationen beeinträchtigen kann (wie von Cohen, 1970 beschrieben). Die Ergebnisse beider Methoden konvergieren zu dem Schluss, dass die Informationsverarbeitung mit einem erhöhten Umsatz von RNA und Proteinen im Gehirn einhergeht und dass dieser Anstieg eine wesentliche Voraussetzung für die Fixierung von Informationen ist. Einige der Ergebnisse deuten auch auf die Möglichkeit qualitativer RNA- und Proteinveränderungen hin, aber die genaue Natur dieser Veränderungen wäre mit den derzeit verfügbaren Techniken praktisch unmöglich zu bestimmen. Jedoch können neuere Versuche mit immunologischen Verfahren (Janković et al., 1968) und mit DNA-RNA-Hybridisierungstechniken (Machlus und Gaito, 1969) vielversprechende Hinweise bieten. Der einzige Beweis für die tatsächliche molekulare Kodierung von Informationen im Nervensystem wurde bisher durch den dritten Ansatz erbracht, der Gegenstand dieses Kapitels ist. Dieses Verfahren besteht darin, die chemischen Korrelate der Informationsverarbeitung durch biologische Assays und nicht durch chemische oder physikalische Mittel oder physikalische Mittel zu detektieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-6042-1_6 663ff4ece0744d3ea89ac5131ef30688;de;;;2.4.;;;Quantitative Bewertung über den gesamten Softwareentwicklungslebenszyklus basierend auf der Evidenztheorie Das Papier stellt eine Methode zur quantitativen vertrauenswürdigen Bewertung von Software über den gesamten Lebenszyklus der Softwareentwicklung vor. Bauen Sie zuerst ein hierarchisches Bewertungsmodell mit der Zerlegung vertrauenswürdiger Software auf allen Stufen auf und entwerfen Sie geeignete quantitative oder qualitative Metriken, dann nutzen Sie die Wissensentdeckung in Datenbanktechniken, um die Gewichte aller vertrauenswürdigen Softwaremerkmale zu erhalten Vorbehandlung und Begründung einer Vielzahl von Multityp-Messdaten. Das Beispiel aus dem Ingenieurwesen zeigt, dass es die Objektivität und Genauigkeit der Bewertungsergebnisse effektiv verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39482-9_41 fea18e8a1b35422423a798863f194b77;de;;;2.4.;;;Leistungen konventioneller Fusionsmethoden, die für die Beobachtung von Binnengewässern mit GF-1-Bild bewertet wurden Die Satellitenfernerkundung von Binnengewässern erfordert eine hohe räumliche Auflösung und eine schmale spektrale Multibandauflösung, was die Fusion zwischen panchromatischen (PAN) und multispektralen (MS) Bildern besonders wichtig macht. Nimmt man den Daquekou-Abschnitt des Qiantang-Flusses als Beobachtungsziel, vier konventionelle Fusionsmethoden, die in der Satellitenbildverarbeitung weithin akzeptiert sind, darunter Pan Sharpening (PS), Hauptkomponentenanalyse (PCA), Gram-Schmidt (GS) und Wavelet-Fusion (WF .) ), werden verwendet, um MS- und PAN-Bilder von GF-1 zu fusionieren. Die Ergebnisse der Anwendung subjektiver und objektiver Bewertungsmethoden zeigen, dass GS am besten abschneidet, gefolgt von PCA, WF und PS in absteigender Reihenfolge. Die Existenz einer großen Fläche des Wasserkörpers ist ein dominanter Faktor, der sich auf die Fusionsleistung auswirkt. Die Fähigkeit, räumliche und spektrale Informationen zu speichern, ist ein wichtiger Faktor, der die Fusionsleistung verschiedener Fusionsverfahren beeinflusst. Der grundlegende Unterschied bei der Erfassung von Reflektivitätsinformationen zwischen Wasser und Land ist der Grund für das Scheitern konventioneller Fusionsmethoden für die Landbeobachtung wie der PS, die in Gegenwart des großen Wasserkörpers verwendet werden. Es wird empfohlen, die Anwendung konventioneller Fusionsmethoden im Beobachtungsgewässer als Hauptziel mit Vorsicht zu genießen. Die Leistung der Fusionsmethoden muss neu bewertet werden, wenn der großräumige Wasserkörper im Fernerkundungsbild vorhanden ist oder wenn die Forschung auf die Beobachtung des Wasserkörpers abzielt.;-;-;-;https://link.springer.com/article/10.1007/s13131-019-1382-x c7a9e51c2cb101799d61544fb06c89a1;de;;;2.4.;;;Beschränkt die Generierung der abhängigen T-Way-Testsuite mithilfe der Harmony-Suchstrategie In letzter Zeit haben viele neue Forscher die Einführung eines auf künstlicher Intelligenz basierenden Algorithmus für die Konstruktion von Strategien zur Generierung von t-Weg-Testsuiten in Betracht gezogen (wobei t die Interaktionsstärken angibt). Obwohl nützlich, haben die meisten bestehenden KI-basierten Strategien das Problem der Beschränkungen nicht ausreichend behandelt oder nicht einmal damit experimentiert. Hier ist es für eine bestimmte interessierende KI-basierte Strategie wünschenswert, die Menge der unmöglichen oder verbotenen Kombinationen automatisch aus der endgültigen T-Weg-generierten Suite auszuschließen. Dieses Papier beschreibt unsere Erfahrung im Umgang mit Einschränkungen innerhalb einer auf dem Harmony Search Algorithm basierenden Strategie, genannt HSS. Unsere Erfahrung mit HSS ist ermutigend, da wir insgesamt wettbewerbsfähige Testgrößen erreicht haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32541-0_1 efabcf200cbb509e817e327d118eb358;de;;;2.4.;;;Regionale Unterschiede der Geo-Grenzstädte in China und den umliegenden Ländern Da die Verbesserung des internationalen Status und die Umsetzung der Nachbardiplomatie Chinas, der Entwicklung von Grenzregionen und der Sicherheit von Grenzstädten sowie deren räumlicher Struktur und regionalen Unterschieden mehr Aufmerksamkeit in akademischen Kreisen geschenkt wird. Ausgehend von den interdisziplinären Perspektiven der Stadtgeographie, Regionalökonomie und Geopolitik untersucht dieser Beitrag die regionalen Unterschiede von Grenzgeostädten in China und den umliegenden Ländern mit Hilfe von Fernerkundungsdatenerfassung und ArcGIS-Raumanalyse. Drei Hauptergebnisse werden wie folgt gefunden: (1) Die Grenz-Geostädte in China und den umliegenden Ländern sind in fünf geografische Regionen unterteilt: Geo-Städte im Südchinesischen Meer, Geo-Städte in Südostasien, Geo-Städte in Südasien, Geo-Städte in Zentralasien und Geo-Städte in Nordostasien. (2) Im räumlichen Struktursystem der chinesischen Grenz-Geo-Städte ist die Bedeutung von Geo-Städten in fünf großen Regionen ziemlich unterschiedlich. In Bezug auf Sicherheit und wirtschaftliche Entwicklung stehen Geo-Städte in Nordostasien, Geo-Städte im Südchinesischen Meer, Geo-Städte in Zentralasien, Geo-Städte in Südasien, Geo-Städte in Südostasien im Vordergrund Asien. (3) Betrachtet man Chinas Geo-Setting für die Entwicklung von Grenzgeostädten, ist die Ostregion deutlich besser als die Westregion und die Nordregion etwas besser als die Südregion.;-;-;-;https://link.springer.com/article/10.1007/s11442-018-1477-x 879867a0ec00a82f8ff22ca5258b6999;de;;;2.4.;;;Mining positives und negatives Wissen in klinischen Datenbanken basierend auf einem groben Set-Modell Eines der wichtigsten Probleme bei Regelinduktionsverfahren ist, dass extrahierte Regeln teilweise Informationen über Entscheidungsprozesse von Experten darstellen, was die Regelinterpretation durch Domänenexperten erschwert. Um dieses Problem zu lösen, werden die Merkmale des medizinischen Denkens diskutiert, positive und negative Regeln eingeführt, die die Regeln medizinischer Experten modellieren. Dann werden zur Induktion positiver und negativer Regeln zwei Suchalgorithmen bereitgestellt. Die vorgeschlagene Regelinduktionsmethode wurde in medizinischen Datenbanken evaluiert, deren experimentelle Ergebnisse zeigen, dass induzierte Regeln das Expertenwissen korrekt repräsentierten und mehrere interessante Muster entdeckt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44794-6_38 5a765c709253414a484ed760d3c4b2a6;de;;;2.4.;;;Ein Datenmodell für die Intensivpflege Das Papier beschreibt ein Modell klinischer Managementdaten in einer typischen allgemeinen Intensivstation, das als generische Datenbankspezifikation für fortgeschrittene Computersysteme der Intensivstation gedacht ist. Das Datenmodell wurde im Rahmen des INFORM-Projekts entwickelt. Das INFORM-Projekt wird zusammengefasst und die Relevanz des Datenmodells für die Projektziele diskutiert. Eine objektorientierte Erweiterung der Entity-Relationship-Diagramm-Methodik wird vorgestellt. Die Methodik wird unter Bezugnahme auf einige spezifische Aspekte des Datenmodells veranschaulicht, darunter: die wichtigsten klinischen Entitäten, die Klassifizierung von Daten zum Patientenzustand und das homogene Patientengruppensystem. Es wird vermutet, dass ein solches Modell zum besseren Verständnis der Daten im System, zum besseren Design zukünftiger Intensiv-Computersysteme und zur Festlegung von Standards für medizinische Daten beitragen wird.;-;-;-;https://link.springer.com/article/10.1007/BF01738895 abd6bb55ab1e0c6ca5008c13b7f15e65;de;;;2.4.;;;Multidimensionaler Rangreduktionsschätzer für parametrische MIMO-Kanalmodelle Es wird eine neuartige algebraische Methode zur simultanen Schätzung von MIMO-Kanalparametern aus Kanalsondenmessungen entwickelt. Wir betrachten ein parametrisches Mehrwegeausbreitungsmodell mit;-;-;-;https://link.springer.com/article/10.1155/S1110865704401036 f20048864e19c12ec97c8035b89422c9;de;;;2.4.;;;Abbildung des städtischen natürlichen Belüftungspotenzials durch hydrologische Simulation Städtische Windumgebungen sind eng mit der Luftverschmutzung und dem menschlichen Komfort im Freien verbunden. Das Urban Natural Ventilation Potential (NVP) ist ein wichtiger Faktor bei der Stadtplanung und -gestaltung. Für Lüftungsstudien auf urbaner Ebene können jedoch weder numerische Simulationen auf Makroebene (d. h. WRF, MM5 usw.) noch Simulationen der numerischen Strömungssimulation (CFD) auf Mikroskala effiziente Analysen durchführen. Basierend auf der Ähnlichkeit zwischen Wasser- und Luftströmen wird in diesem Papier ein effizienter Ansatz vorgeschlagen, um den städtischen NVP abzubilden. Durch die Integration des urbanen Geländemodells, des urbanen Formmodells und des vorherrschenden Winddruckmodells wird ein digitales Höhenmodell der Luftströmung (AF-DEM), das den Strömungswiderstand darstellt und für eine hydrologische Simulation verwendet werden kann, generiert und zur Bewertung der städtische Luftströmungsmuster unter verschiedenen Gelände-, Stadtform- und Umgebungswindbedingungen. Ziel war es, eine Simulationsplattform zu entwickeln, die die Verteilung von natürlichem Lüftungskorridor und NVP effizient vorhersagen kann. Das durch die Simulation berechnete Bachnetz wird als potenzielle Lüftungskorridore innerhalb der Stadt betrachtet und ein aus dem Abdeckungsgrad der Windkorridore (CRW) berechneter Index zur Bewertung des relativen NVP vorgeschlagen. Am Fallbeispiel Nanjing werden 8 AF-DEMs basierend auf verschiedenen Windrichtungen und Windgeschwindigkeiten generiert und die entsprechenden Lüftungskorridorkarten erstellt. Die Ergebnisse stimmen gut mit den empirischen Erkenntnissen überein, die darauf hindeuten, dass das hydrologische Modell, obwohl eine rudimentäre Annäherung an die tatsächlichen Luftströme, den natürlichen Belüftungskorridor aufdecken und den relativen NVP charakterisieren konnte. Darüber hinaus ist die Implementierung dieser neuartigen Methode einfach und bequem und hat ein großes Anwendungspotenzial und einen hohen Wert in der Stadtplanung und -verwaltung.;-;-;-;https://link.springer.com/article/10.1007/s12273-020-0755-6 8e7640b5183fa6be099c379f744166f4;de;;;2.4.;;;Kontextuelle Graphen-Plattform als Grundlage für den Entwurf eines kontextbasierten intelligenten Assistentensystems Die Komplexität der Aufgaben und Probleme bei der Verwaltung von Datenbanken erfordert die Entwicklung von Werkzeugen zur Unterstützung von Datenbankexperten. So ist beispielsweise im Bereich der Datenbankadministration bei Problemen häufig der Datenbankadministrator (DBA) der erste Schuldige. Die meisten DBAs arbeiten im Brandbekämpfungsmodus und haben wenig Möglichkeiten, vorauszuplanen oder proaktiv zu sein. Sie müssen ständig bereit sein, Fehler anhand einer Vielzahl von Verfahren zu analysieren und zu beheben. Darüber hinaus passen sie diese Verfahren ständig neu an und entwickeln Praktiken, um eine Vielzahl spezifischer Situationen zu bewältigen, die sich durch einige wenige kontextuelle Elemente von der allgemeinen Situation unterscheiden. Diese Praktiken müssen sich mit diesen kontextuellen Elementen auseinandersetzen, um das vorliegende Problem zu lösen. In diesem Beitrag wird vorgeschlagen, den Formalismus „Contextual Graphs“ zu verwenden, um bestehende Verfahren der Datenbankverwaltung zu verbessern. Bisher wird diese Verbesserung von einem DBA durch Praktiken erreicht, die Verfahren an den Kontext anpassen, in dem Aufgaben ausgeführt werden sollen und die Vorfälle auftreten. Diese Arbeit präsentiert eine neue Version der kontextuellen Graphenplattform als Grundlage für den Entwurf und die Implementierung eines kontextbasierten intelligenten Assistentensystems zur Unterstützung von Datenbankadministratoren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40972-1_20 9beb9e1c160643d5d7c660035cf41318;de;;;2.4.;;;Analyse datengetriebener Parameter in spieltheoretischen Grobmengen Das spieltheoretische Rough-Set-Modell (GTRS) bietet einen alternativen Ansatz zur Ableitung von probabilistischen Rough-Set-Regionen. Während andere Modelle entweder auf vom Benutzer bereitgestellten Parametern oder auf Kostenvorstellungen für das fragliche Datum beruhen, lernt das GTRS-Modell diese Parameter durch einen spieltheoretischen Prozess. Die Parameter können die Form von Wahrscheinlichkeiten haben, die die grob eingestellten Bereichsgrenzen bestimmen, oder sie können durch Klassifikationsmaße ersetzt werden, deren Werte den aktuellen Zustand des Klassifikationssystems repräsentieren. In diesem Artikel analysieren wir den Zusammenhang zwischen den berechneten Parametern und den gelernten Werten der Verlustfunktionen. Wir demonstrieren die Wirksamkeit des spieltheoretischen Rough-Set-Modells bei der Durchführung von Datenanalysen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24425-4_59 9867d54c791fc642fc6f619d6c8b675a;de;;;2.4.;;;Entscheidungsfindung mit probabilistischen Entscheidungstabellen Der Artikel befasst sich mit der Entscheidungsfindung mit Vorhersagemodellen, die aus Daten gewonnen werden, die als probabilistische Entscheidungstabellen bezeichnet werden. Die in diesem Artikel vorgestellte Methodik probabilistischer Entscheidungstabellen leitet sich aus der Theorie der Grobmengen ab. Bei dieser Methodik wird die wahrscheinlichkeitstheoretische Erweiterung der ursprünglichen Grobsatztheorie verwendet, die als Modell mit variabler Präzision von Grobmengen bezeichnet wird. Die Theorie der groben Mengen wird angewendet, um in Daten auftretende Abhängigkeiten von Interesse zu identifizieren. Die identifizierten Abhängigkeiten werden in Form einer Entscheidungstabelle dargestellt, die anschließend mit grobmengenbasierten Methoden analysiert und optimiert wird. Das ursprüngliche Modell von Grobmengen beschränkt sich auf die Analyse funktionaler oder partieller funktionaler Abhängigkeiten. Das variable Präzisionsmodell von Grobsätzen kann auch verwendet werden, um probabilistische Abhängigkeiten zu identifizieren, was die Konstruktion probabilistischer Vorhersagemodelle ermöglicht. Der Schwerpunkt der Arbeit liegt auf dem Entscheidungsfindungsaspekt des vorgestellten Ansatzes, insbesondere auf der Festlegung der Parameter des Modells und auf Entscheidungsstrategien, um den erwarteten Gewinn aus den Entscheidungen zu maximieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-48061-7_57 d7e629639fd8e311de2676ea08c1e97e;de;;;2.4.;;;Fortschrittlicher CDMA für drahtlose Kommunikation In diesem Beitrag werden einige ausgewählte Themen behandelt, die derzeit Gegenstand umfangreicher Forschung für Anwendungen in zukünftigen Code-Division-Multiple-Access (CDMA)-Netzwerken sind. Die Präsentation konzentriert sich auf Kapazitätsaspekte von fortgeschrittenen CDMA-Systemen, die Mehrbenutzerempfänger verwenden. Es wird ein umfassender Überblick über die Multiuser-Demodulationstheorie und -techniken gegeben. Besonderes Augenmerk liegt auf optimalen, suboptimalen linearen Entzerrer- und Interferenzunterdrückungs-Mehrbenutzerempfängern. Auch zukünftige Trends in der praktischen Systementwicklung werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-2604-6_20 f37fd5a58510e84483e6de5e4df751d1;de;;;2.4.;;;Verbesserung intelligenter Umgebungen mit Wissensökosystemen Dieses Papier stellt eine verteilte kognitive Architektur vor, die für Ambient Intelligence-Anwendungen geeignet ist. Die Schlüsselidee besteht darin, einen intelligenten Raum als Ökosystem zu modellieren, das aus künstlichen Einheiten besteht, die zusammenarbeiten, um eine intelligente Multisensor-Datenfusion von numerischen und symbolischen Informationen durchzuführen. Die mit der Wissensrepräsentation verbundene Semantik kann verwendet werden, um intelligente Systeme oder menschliche Supervisoren zu unterstützen, Entscheidungen gemäß Situationen und Ereignissen zu treffen, die innerhalb des intelligenten Raums auftreten. Es werden experimentelle Ergebnisse präsentiert, die zeigen, wie dieser Ansatz erfolgreich auf intelligente Umgebungen für ältere und behinderte Menschen angewendet wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74829-8_82 b3befc308128b1162d95b8e4586ed52f;de;;;2.4.;;;Untersuchung zur Verbreitung von Pistazien in den Bergregionen des Nordostens des Iran durch ALOS Der Iran unterstützt fünf verschiedene Vegetationszonen. Eine davon ist die iranisch-touranische Zone, die sich im Nordosten des Iran befindet. Diese Vegetationszone umfasst trockenes und halbtrockenes Land und seine Fläche beträgt etwa 3,5 Millionen hm;-;-;-;https://link.springer.com/article/10.1007/s11703-011-1108-0 4de9699e04f9ff70833a6f4eaeb7548c;de;;;2.4.;;;Entdeckung von klinischem Wissen in Krankenhausinformationssystemen: Zwei Fallstudien Seit den frühen 1980er Jahren speichert das rasante Wachstum der Krankenhausinformationssysteme die große Menge an Laboruntersuchungen als Datenbanken. Es ist daher zu erwarten, dass Methoden der Wissensentdeckung und des Data Mining (KDD) interessante Muster aus Datenbanken als Wiederverwendung gespeicherter Daten finden und für die medizinische Forschung und Praxis wichtig sein werden, da der Mensch mit einer so großen Datenmenge nicht umgehen kann. Allerdings gibt es noch wenige empirische Ansätze, die das Ganze diskutieren, es gibt noch wenige empirische Ansätze, die den gesamten Data-Mining-Prozess aus Sicht medizinischer Daten diskutieren. Diese empirische Studie zeigt, dass die Vorverarbeitung und Datenprojektion die zeitaufwendigsten Prozesse sind, die noch nicht in der Data-Mining-Forschung diskutiert wurden und dass die Anwendung von Regelinduktionsmethoden viel einfacher ist als die Vorverarbeitung.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-39963-1_60 26a039192ad9ad52cd35223e472b10f9;de;;;2.4.;;;Das künstliche Hormonsystem – eine organische Middleware für die selbstorganisierende Echtzeit-Aufgabenzuweisung In diesem Artikel wird ein künstliches Hormonsystem zur vollständig dezentralen Realisierung einer selbstorganisierenden Aufgabenverteilung vorgestellt. Wir zeigen enge Obergrenzen für das Echtzeitverhalten von Selbstkonfiguration und Selbstheilung. Wir präsentieren auch Stabilitätskriterien und eine in reinem ANSI C codierte AHS-Implementierung zusammen mit einigen realen Szenario-Testreihen und -Ergebnissen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-0130-0_24 382d95cd5f13034ac99eb2cc81fa41d9;de;;;2.4.;;;Extrahieren von Communities in Netzwerken basierend auf funktionalen Eigenschaften von Knoten Wir adressieren das Problem, die Gruppen funktional ähnlicher Knoten aus einem Netzwerk zu extrahieren. Als funktionale Eigenschaften von Knoten konzentrieren wir uns auf hierarchische Ebenen, relative Standorte und/oder Rollen in Bezug auf die anderen Knoten. Für dieses Problem schlagen wir eine neue Methode vor, um funktionale Gemeinschaften aus einem gegebenen Netzwerk zu extrahieren. In unseren Experimenten mit verschiedenen Arten von synthetischen und realen Netzwerken bewerten wir die Eigenschaften von funktionellen Gemeinschaften, die mit unserer vorgeschlagenen Methode extrahiert wurden. Aus unseren experimentellen Ergebnissen haben wir bestätigt, dass unsere Methode funktionale Gemeinschaften extrahieren kann, von denen jede aus Knoten mit funktional ähnlichen Eigenschaften besteht, und diese Gemeinschaften unterscheiden sich wesentlich von denen, die mit der Newman-Clustering-Methode erhalten werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32541-0_28 a27c610a0a99a2c5a884e6af8b789231;de;;;2.4.;;;Datengetriebene Theorieverfeinerung mit KBDistAl Wissensbasierte künstliche neuronale Netze bieten einen attraktiven Ansatz, unvollständige Wissensbasen oder Domänentheorien durch einen Prozess der datengesteuerten Theorieverfeinerung zu erweitern oder zu modifizieren. Wir präsentieren einen effizienten Algorithmus zur datengesteuerten Wissensentdeckung und Theorieverfeinerung mit;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48412-4_28 9b0708af0e633e75af000e8b5c8d1b44;de;;;2.4.;;;Schätzung der Netzwerkstruktur aus anonymen egozentrischen Informationen Wir beschäftigen uns mit dem Problem, die gesamte Struktur eines tatsächlichen sozialen Netzwerks von Menschen nur aus ihren beiden Arten anonymer egozentrischer Informationen abzuschätzen, persönliche Attribute wie das Geschlecht und relationale wie die Anzahl der weiblichen und männlichen Freunde, die als Antworten auf Fragebögen in eine Sozialumfrage. Aus diesen Attributwerten können wir den Grad jedes Knotens, der der Anzahl der Freunde jeder Person entspricht, zusammen mit einigen makroskopischen Informationen über das Netzwerk, wie dem Verhältnis der Verbindungen zwischen weiblichen und männlichen Knoten zur Gesamtzahl der Verbindungen, erhalten , als Mischmatrizen. Allerdings können wir die tatsächlichen Verbindungen zwischen zwei Knoten nur aus diesen beobachteten Mischmatrizen nicht direkt erkennen. Daher schlagen wir ein neues Verfahren zum Schätzen der gesamten Struktur des versteckten Netzwerks vor, indem wir die Kullback-Leibler-Divergenz zwischen jedem Paar der beobachteten und geschätzten Mischmatrizen unter den Einschränkungen bezüglich des Grades jedes Knotens minimieren. In unseren Experimenten mit drei Arten von Netzwerken zeigen wir, dass die vorgeschlagene Methode im Vergleich zu einer zufälligen Basislinie, der willkürliche Verknüpfungen unter den Gradbeschränkungen zugewiesen werden, viel bessere Schätzergebnisse liefern kann, insbesondere für die Fälle von hoch assortativ, wo jeder Knoten eine Tendenz, sich mit Knoten mit den gleichen Attributwerten zu verbinden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13332-4_19 8c115f4f9025d17ac97a9f0f018f66a1;de;;;2.4.;;;Bildverarbeitungsverfahren zur automatischen Verfolgung der Bindenaht beim Plasma-Roboterschweißen Für die automatische Steuerung beim Plasmaschweißen (PAW) muss die Schweißsituation teilweise in Echtzeit beobachtet werden. Die Schweißqualität von PAW hängt jedoch von der Leistung des Tracking-Ergebnisses ab. Um Lücken in der Schweißnaht zu bestimmen, haben wir daher ein Bildverarbeitungsverfahren entwickelt, das die Schweißnaht automatisch verfolgt. Da die Plasmaelektrode im Brenner versenkt ist, ist eine visuelle Beurteilung durch das menschliche Auge schwierig. Dieses Verfahren ersetzt das menschliche Sehen durch eine sichtbare automatische Profilkontrolle, die den Plasmabrenner während des Schweißprozesses exakt einlernt. Das Bildverarbeitungsverfahren zur automatischen Verfolgung verwendet einen hybriden Optimierungsprozess mit Template-Matching, der kleine Teile eines Schweißcharakteristikbildes identifiziert, die mit dem Template-Bild übereinstimmen. Im Allgemeinen bietet der Template-Matching eine teilweise Qualitätskontrolle. In besonderen Fällen werden der Schweißspalt und seine Begrenzung durch ein Grenzerkennungsverfahren effektiv erkannt und veränderliche Lücken, die in der Echtzeitverfolgung erkannt werden, werden analysiert, um eine hohe Schweißqualität sicherzustellen. In Verifikationsversuchen zeigte unser Verfahren eine effiziente Schweißarbeit und reduzierte effektiv die falsche Brennerführung.;-;-;-;https://link.springer.com/article/10.1007/s00170-015-8311-8 9af900186e5f7f36642695fb9072a242;de;;;2.4.;;;Bildanalyse im Maßstab zum Auffinden der Verbindungen zwischen Struktur und Biologie Bilddaten wachsen in rasantem Tempo, sei es aus den kontinuierlichen Uploads auf Videoportalen, Foto-Sharing-Plattformen, neuen Satelliten oder auch medizinischen Daten. Das Volumen ist in weniger als einem Jahrzehnt von mehreren zehn Gigabyte auf Exabyte pro Jahr angewachsen. Tief in diese Datensätze eingebettet sind detaillierte Informationen über Modetrends, Naturkatastrophen, landwirtschaftliche Produktion oder drohende Gesundheitsrisiken. Die große Mehrheit der statistischen Analyse und Datenwissenschaft wird an Zahlen entweder als Individuen oder als Sequenzen durchgeführt. Bilder passen jedoch nicht genau in die Standardparadigmen und haben zu „Friedhöfen“ großer stagnierender Bildspeichersysteme geführt, die völlig unabhängig von den anderen gesammelten Standardinformationen sind. In diesem Kapitel werden wir die Grundkonzepte der quantitativen Bildanalyse vorstellen und zeigen, wie solche Arbeiten im biomedizinischen Kontext genutzt werden können, um Erbinformationen (Genomsequenzen) mit der Gesundheit oder Qualität von Knochen zu verknüpfen. Da Vererbungsstudien viel einfacher durchzuführen sind, wenn man die Zucht kontrollieren kann, werden die Studien an Mäusen durchgeführt, bei denen Inzucht und Kreuzung möglich sind. Darüber hinaus weisen Mäuse und Menschen eine große Anzahl genetischer und biomechanischer Ähnlichkeiten auf, sodass viele der Ergebnisse übertragbar sind (Ackert-Bicknell et al. gemeinsame genetische Karte der Maus, Journal of Bone and Mineral Research 25(8):1808–1820, 2010).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-11821-1_23 a15221e28371c69321bdcea3eb3eef57;de;;;2.4.;;;Genetisches Lernen durch Simulation: Eine Untersuchung in der Werkstattplanung Dieser Artikel befasst sich mit dem automatisierten Lernen von Strategien für die Echtzeitplanung in dynamischen Fabrikumgebungen. Ein Simulationsmodell der Werkstatt liefert kontinuierliche Eingaben für ein auf genetischen Algorithmen basierendes Lernsystem. Learning wird verwendet, um die Wissensdatenbanken intelligenter Disponenten in der Einrichtung des Floorshops zu aktualisieren. Die Leistung des lernenden Systems wird mit der von allgemein verwendeten Dispatching-Regeln verglichen und experimentelle Ergebnisse werden für eine zweistufige Flowline und für eine allgemeinere Jobshop-Umgebung präsentiert.;-;-;-;https://link.springer.com/article/10.1023/A%3A1018989730961 c1e377df1f0757b913e04ab5d294581c;de;;;2.4.;;;Multi-Objekt-Spektrometer mit Mikrospiegel-Array Wir haben ein Multi-Objekt-Spektrometer mit Mikrospiegel-Array als rekonfigurierbare Eintrittsöffnung entwickelt und gebaut. Im interaktiven Modus ermöglicht das Instrument die Aufnahme sowohl des Hyperspektrums der untersuchten Region als Ganzes als auch von Spektrensätzen beliebig spezifizierter Fragmente. Dabei wird eine spektrale Auflösung von 0,8 nm oder besser in den Teilbereichen 400–670 nm und 650–900 nm bereitgestellt, Aperturverhältnis des Spektroskopiekanals mindestens 1:5. Die analytischen Eigenschaften des Gerätes ermöglichen die Lösung verschiedenster Probleme der modernen Mehrobjektspektroskopie und Hyperspektroskopie.;-;-;-;https://link.springer.com/article/10.1007/s10812-010-9328-2 037264cbd8c267955ae3ae8278507c40;de;;;2.4.;;;Extraktion geometrischer Merkmale in 3D-Umgebungen für Servicerobotik-Anwendungen Die Modellierung von Umgebungen mit 3D-Feature-basierten Darstellungen ist eine Herausforderung in der aktuellen mobilen Robotik. Für die Anwendbarkeit auf die Navigation sind schnelle und robuste Algorithmen erforderlich. Wir präsentieren eine originelle und effektive Segmentierungsmethode, die Computer-Vision-Techniken und die Residuen der Ebenenanpassung als Messungen verwendet, um ein Entfernungsbild aus 3D-Daten zu generieren, die von einem Laserscanner erfasst wurden. Die extrahierten Punkte jeder Region werden mittels der Methode der kleinsten Quadrate in ebene Flächen, Kugeln und Zylinder umgewandelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87656-4_55 c8e73b91567ec3c298c3c93345738d44;de;;;2.4.;;;Formationsbildung und Kollisionsvermeidung für eine Flotte von NAOs basierend auf optischem Sensor mit lokalen Positionen und minimaler Kommunikation Das Multi-Roboter-System hat sich aufgrund der geringen Anforderungen an die Genauigkeit der Sensoren, der hohen Zuverlässigkeit und der hohen Effizienz zu einem Hotspot der Forschung entwickelt. Um alle Roboter zusammenzufassen, ist die Formationssteuerung ein entscheidendes Problem. In diesem Papier schlagen wir eine lokale positionsbasierte Methode vor, um Trajektorien zu planen und ein Pyramidenmuster für eine Flotte von NAOs in einer hindernisfreien Umgebung zu erstellen, indem wir uns auf die positionsbasierte Methode beziehen und eine;-;-;-;https://link.springer.com/article/10.1007/s11432-018-9681-3 20f2f71767b70eae6492f159e4f110b9;de;;;2.4.;;;Optimales Pilotendesign für Frequenzoffsets und Kanalschätzung in OFDM-modulierten Einzelfrequenznetzen Optimales Pilotdesign und -platzierung sowohl für die Frequenzoffsets als auch für die Kanalschätzung in einem orthogonalen Frequenzmultiplex-modulierten Einzelfrequenznetzwerk werden behandelt. Im Gegensatz zu den herkömmlichen Algorithmen auf der Grundlage eines Frequenzbereichsfilters kann der vorgeschlagene Pilot jedes Senders immer am Empfänger demoduliert werden, selbst wenn die empfangenen Piloten mehrerer Sender vollständig überlappen. Obwohl die Kanalzustandsinformationen beim Entwerfen des vorgeschlagenen Piloten für die Trägerfrequenz-Offset-(CFO)-Schätzung benötigt werden, ist die Leistung der vorgeschlagenen CFO-Schätzung robust gegenüber dem Kanalschätzungsfehler. Der optimale Pilot sowie der Kanalschätzer der kleinsten Quadrate (LS) werden ebenfalls vorgeschlagen, und der Pilot für die Kanalschätzung ist immer ein konstanter Modul. Ein gemeinsames Schema für Frequenzversatz und Kanalschätzung wird ebenfalls vorgeschlagen, und die Sender können ihre Piloten in den aufeinanderfolgenden Übertragungen unter Verwendung der Rückkopplung der Bewertungsergebnisse in der vorherigen Übertragung adaptiv optimieren. Simulationsergebnisse demonstrieren die Leistung des vorgeschlagenen Algorithmus in Bezug auf Frequenzversatz und Kanalschätzungsgenauigkeiten. Da an jedem Empfänger mehrere Kopien derselben Information empfangen werden können, können einige Kombinationstechnologien, wie z. Numerische Ergebnisse zeigen, dass in einem Szenario mit zwei Sendern mit einem Signal-Rausch-Verhältnis von 20 dB die Bitfehlerrate (BER) von 1,5 × 10;-;-;-;https://link.springer.com/article/10.1007/s11432-014-5062-3 bb340a6acb9b5a779218f7af7d9560cc;de;;;2.4.;;;Ankerbasiertes Manifold-Binärmuster zur Fingervenenerkennung Diese Arbeit schlägt eine neuartige Lernmethode binärer lokaler Merkmale zur Erkennung der Fingervene vor. Die in lokalen Merkmalen zur Bilderkennung existierenden Lernverfahren beabsichtigen, die Datenvarianz zu maximieren, quantitative Fehler zu reduzieren, die Kontextinformationen innerhalb jedes Binärcodes auszunutzen oder die Etiketteninformationen zu verwenden, die alle die lokale Mannigfaltigkeitsstruktur der Originaldaten ignorieren. Die Mannigfaltigkeitsstruktur spielt tatsächlich eine sehr wichtige Rolle beim Lernen von Binärcode, aber die Konstruktion einer Ähnlichkeitsmatrix für große Datensätze erfordert viel Rechen- und Speicherkosten. Die Studie versucht, eine Karte zu lernen, die die vielfältige Struktur zwischen den Originaldaten und den gelernten Binärcodes für großräumige Situationen bewahren kann. Um dieses Ziel zu erreichen, stellen wir eine Lernmethode vor, die ein ankerbasiertes Mannigfaltigkeitsmuster (AMBP) zur Fingervenenerkennung verwendet. Insbesondere extrahieren wir zuerst die Pixeldifferenzvektoren (PDVs) in den lokalen Patches, indem wir die Unterschiede zwischen jedem Pixel und seinen Nachbarn berechnen. Zweitens konstruieren wir einen asymmetrischen Graphen, auf dem jeder Datenpunkt eine Linearkombination seiner;-;-;-;https://link.springer.com/article/10.1007/s11432-018-9651-8 b6b78c9c962729c25390ccbc7cea56f5;de;;;2.4.;;;Innovation der nächsten Generation und Entwicklung eines intelligenten Transportsystems in China Als integrierte Anwendung fortschrittlicher Technologien wie Informationstechnologie, Systemsteuerungstechnologie und künstlicher Intelligenz im Verkehrsbereich gilt das intelligente Verkehrssystem (ITS) als effiziente und effektive Lösung zur Linderung von Verkehrsproblemen, die in mehreren Ländern auftreten um die Welt. In diesem Beitrag wird die Entwicklungsgeschichte des ITS in China dargestellt und die Probleme und Herausforderungen des ITS in China im neuen Normalzustand anschaulich dargestellt. Anschließend werden drei neue Anforderungen an die ITS-Entwicklung in China identifiziert und sechs Entwicklungstrends und -richtungen vorgeschlagen. Durch die erfolgreiche Anwendung der oben genannten Richtlinien wird erwartet, dass in China eine Innovation und Entwicklung der nächsten Generation von ITS realisiert wird, die die Trends der Urbanisierung, Motorisierung und Informationisierung fördert und unterstützt, die zu grundlegenden Veränderungen in der Entwicklung der chinesischen Gesellschaft führen und Wirtschaft.;-;-;-;https://link.springer.com/article/10.1007/s11432-017-9182-x 88f2633275e7cb1372db2fbffaeb24b8;de;;;2.4.;;;Experimente zu chaotischer Synchronisation und Informationsübertragung: Ein unscharfes entspanntes H Dieses Papier befasst sich mit dem Problem der Synchronisation einer Klasse von chaotischen Oszillatoren unter Verwendung von Techniken, die einem kürzlich vorgeschlagenen Steuerungsdesign auf der Grundlage der Takagi-Sugeno (TS) Fuzzy-Modellierung entlehnt sind. Um eine bessere Synchronisation zu erreichen, wird diese TS-Fuzzy-Modellierung mit dem robusten H;-;-;-;https://link.springer.com/article/10.1007/s00034-007-4001-0 cb1397220f996f533cda1b61c193e262;de;;;2.4.;;;Protonen-Magnetresonanz-Spektroskopie bei Substanzgebrauchsstörungen: jüngste Fortschritte und zukünftige klinische Anwendungen Die Protonen-Magnetresonanz-Spektroskopie (1H-MRS) wird heute weithin in der klinischen Forschung zur Messung von Verbindungen oder Metaboliten in vivo verwendet, insbesondere bei neuropsychiatrischen Erkrankungen/Störungen. In letzter Zeit gibt es viele Studien zu Substanzgebrauchsstörungen, die 1H-MRS verwenden, um den Mechanismus von Gehirnmetaboliten zu untersuchen. Es zeigt sich, dass die Metabolitenspiegel bei Substanzkonsumenten im Vergleich zu gesunden Kontrollpersonen verändert sind. Darüber hinaus beziehen sich diese Veränderungen auch auf Verhaltensindizes und belegen die Auswirkungen auf die neuronale Gesundheit, den Energiestoffwechsel und den Membranumsatz. 1H-MRS ist jedoch noch keine ausgereifte Erkennungstechnologie und weist noch viele Herausforderungen bei der Anwendung im Bereich neuropsychiatrischer Störungen auf. Die Einstellung der Testparameter und die Inkonsistenz der Ergebnisse verschiedener Studien quälen die Kliniker und Techniker immer noch. Dieser Artikel soll einen Überblick über die grundlegenden Theorien und Methoden der 1H-MRS und die Literatur über Metabolitenveränderungen in der Substanzabhängigkeit sowie die damit verbundene neuropsychologische Leistung geben. Abschließend werden wir die kommenden Herausforderungen und mögliche zukünftige Richtungen in diesem Bereich diskutieren.;-;-;-;https://link.springer.com/article/10.1007/s11432-019-2818-5 9e81ff0ba1ac3376e33c09e694d5812a;de;;;2.4.;;;Anwendung eines schnellen faktorisierten Rückprojektionsalgorithmus für hochauflösende luftgestützte SAR-Bildgebung mit hohem Schielen Bei der Squinted-Synthetic-Aperture-Radar-(SAR-)Bildgebung erfordert die Entfernungs-Azimut-Kopplung eine präzise Entfernungszellen-Migrationskorrektur (RCMC). Darüber hinaus wird die Bewegungskompensation (MOCO) für hochauflösende luftgestützte SAR mit zunehmendem Schielwinkel kompliziert, wodurch die Leistung von Bildgebungsalgorithmen im Doppler-Bereich verschlechtert wird. Andererseits werden SAR-Bildgebungsansätze mit Zeitbereichsrückprojektion (BP) als optimale Lösungen für die Durchführung einer präzisen Bildfokussierung und MOCO angesehen. Unter den aktuellen BP-Algorithmen ist der Algorithmus der schnellen faktorisierten Rückprojektion (FFBP) einer der wichtigsten Vertreter, um auf effiziente Weise hochauflösende Bilder zu erzielen. In diesem Artikel werden das Prinzip und die Anwendungen des FFBP-Algorithmus durch die Ableitung der Azimut-Impulsantwortfunktion (AIRF) des resultierenden Bildes untersucht. Das Phänomen der durch Bewegungsfehler im BP-Bild induzierten Spektrumsverschiebung wird dargestellt und analysiert. Basierend auf rigorosen mathematischen Ableitungen wird ein modifizierter FFBP-Algorithmus vorgeschlagen, um eine nahtlose Integration mit Bewegungskompensation und genauen Bildern von hochauflösendem, hochgekniffenem luftgestütztem SAR zu ermöglichen. Realdatenergebnisse bestätigen die Wirksamkeit der vorgeschlagenen Ansätze.;-;-;-;https://link.springer.com/article/10.1007/s11432-015-0927-3 14808fca8924ef36911575aacc1b8b97;de;;;2.4.;;;Analyse der richtigen oder falschen Kollisionsrate ohne Profiling: Vollautomatischer Angriff auf Kollisionsfehler In CHES 2010 wird eine Fehlerempfindlichkeitsanalyse (FSA) auf einem Advanced Encryption Standard (AES)-Hardwareschaltkreis basierend auf der S-Box-Setup-Zeit vorgeschlagen, die durch Einfügen von Taktimpulsen erfasst wird. Bald darauf wurden einige Verbesserungen der FSA vorgestellt, wie zum Beispiel Kollisions-Timing-Eigenschaften von Moradi et al. Die Erfassung von Zeitsteuerungseigenschaften erfordert jedoch aufgrund der sehr allmählichen Abnahme des Taktimpulszyklus und der hohen Anforderungen an Einrichtzeitabtastwerte ein komplexes Verfahren. In HOST 2015 haben Wang et al. präsentierten einen Template-basierten Angriff mit richtiger oder falscher Kollisionsrate, um die Effizienz von FSA zu verbessern, aber seine Profilerstellungs- und Klartextauswahlverfahren erforderten zu viele Verschlüsselungen. In diesem Papier fixieren wir nur einen bestimmten Takt-Glitch-Zyklus und nehmen die richtige oder falsche Kollisionsrate als Kollisionsunterscheidungsmerkmal. Der gesamte Prozess ist also ein Non-Profiling-Kollisionsangriff, der ohne massive Vorberechnungen und Interaktionen zwischen PC und Signalgenerator automatisch ausgeführt werden kann. Den Experimenten zufolge reichen 256 Verschlüsselungen aus, um genau zu entscheiden, ob zwei Klartextbytes eine S-Box-Kollision auslösen können. Verglichen mit der bestehenden Leistungsanalyse und FSA-basierten Angriffen auf AES-Hardware kostet es vernachlässigbar Zeit (ca. Darüber hinaus zeigt unsere Studie, dass das Signal-Rausch-Verhältnis bei FSA-basierten Angriffen viel höher ist als bei leistungsbasierten Angriffen.;-;-;-;https://link.springer.com/article/10.1007/s11432-016-0616-4 20c1ab88aff1791d3bf09c2a79d0e269;de;;;2.4.;;;Segmentierung von mit Hämatoxylin-Eosin gefärbten histopathologischen Bildern von Brustkrebs basierend auf pixelweisen SVM-Klassifikatoren Die Hämatoxylin-Eosin (HE)-Färbung ist die routinemäßige diagnostische Methode für Brustkrebs (BC), und große Mengen an HE-gefärbten histopathologischen Bildern stehen zur Analyse zur Verfügung. Es ist im Entstehen, Computermethoden zu entwickeln, um diese Bilder effizient und objektiv zu analysieren, mit dem Ziel, potenziell bessere diagnostische und prognostische Informationen für BC bereitzustellen. Diese Arbeit konzentriert sich auf die Analyse unserer hauseigenen HE-gefärbten histopathologischen Bilder von Brustkrebsgewebe. Da Tumornester (TNs) und morphologische Merkmale des Stromas das biologische Verhalten des invasiven duktalen Karzinoms (IDC) der Brust widerspiegeln können, ist eine genaue Segmentierung von TNs und des Stromas der erste Schritt zur nachfolgenden quantitativen Analyse. Wir schlagen zunächst eine Methode vor, die auf dem pixelweisen Support Vector Machine (SVM)-Klassifikator zur Segmentierung von TNs und des Stromas basiert, dann extrahieren wir vier morphologische Merkmale, die sich auf die TNs beziehen, aus den Bildern und untersuchen ihre Beziehungen zur 8-jährigen Krankheitsfreiheit der Patienten Überleben (8-DFS). Das Bewertungsergebnis zeigt, dass die klassifikationsbasierte Segmentierungsmethode in der Lage ist, zwischen TNs und Stroma mit einer Genauigkeit von 87,1% und einer Präzision von 80,2% zu unterscheiden, was darauf hindeutet, dass die vorgeschlagene Methode vielversprechend ist, HE-gefärbte IDC-Histopathologiebilder zu segmentieren. Die Kaplan-Meier-Überlebenskurven zeigen, dass drei morphologische Merkmale (Anzahl der TNs, Gesamtumfang und durchschnittliche Fläche der TNs) in den Bildern statistische Korrelationen mit 8-DFS der Patienten aufweisen, was veranschaulicht, dass die segmentierten Bilder helfen können, neue morphologische Faktoren in IDC-TNs für die Vorhersage der BC-Prognose.;-;-;-;https://link.springer.com/article/10.1007/s11432-014-5277-3 e165378ed8d28f3e52df1133e26a622e;de;;;2.4.;;;6–100 GHz Forschungsfortschritt und Herausforderungen aus Kanalperspektive für die fünfte Generation (5G) und die zukünftige drahtlose Kommunikation Hochfrequenz ist eine wertvolle Ressource für drahtlose Kommunikationssysteme. Das Hochfrequenzband von 6 GHz bis 100 GHz, in dem kontinuierliche und breite Spektren existieren, verspricht, bis 2020 den hohen Frequenzbedarf von Mobilfunksystemen der fünften Generation (5G) zu decken. Bis heute haben viele Gruppen aus Wissenschaft und Industrie industry trugen zur Entwicklung von Ansätzen zur Zuweisung und Nutzung von Frequenzressourcen von 6 GHz bis 100 GHz für 5G und zukünftige drahtlose Kommunikationssysteme bei. In diesem Papier stellen wir die weltweiten Bemühungen zur Zuweisung potenzieller Frequenzbänder und den Fortschritt von Feldversuchen von 6 GHz bis 100 GHz für 5G vor. Aus der Kanalperspektive fassen wir Forschungsfortschritte und Herausforderungen zusammen, einschließlich Kanalmessplattformen und Kanalparameteranalyse, die beide wichtig sind, um die inhärenten Kanaleigenschaften zu extrahieren und ein Hochfrequenzband für 5G und zukünftige drahtlose Kommunikationssysteme zu nutzen.;-;-;-;https://link.springer.com/article/10.1007/s11432-016-9144-x c889f551ae1d4a54e821218e98f7fd1f;de;;;2.4.;;;Generierung dichter und superauflösender ISAR-Bilder durch Kombination von Bandbreitenextrapolation und Kompressionsmessung Die sich in jüngster Zeit entwickelnde Compressive Sensing (CS)-Theorie zeigt, dass es möglich ist, aus sehr begrenzten Messungen eine präzise Wiederherstellung eines spärlichen Signals zu erhalten, was einen neuen Weg für die Datenerfassung und Signalverarbeitung bietet, da Natursignale normalerweise ein gewisses Maß an spärlicher Dichte aufweisen. In diesem Artikel präsentieren wir einen Algorithmus für die Bildgebung mit inverser Radar mit synthetischer Apertur (ISAR) mit Superauflösung durch die Kombination von CS und Bandbreitenextrapolation (BWE). Bei der ISAR-Bildgebung wird das Rückstreufeld des Ziels normalerweise von einigen wenigen starken Streuzentren beigetragen, deren Anzahl viel geringer ist als die der Bildpixel. Somit ist CS intuitiv zum Konstruieren von superaufgelösten ISAR-Bildern geeignet. Gemäß der CS-Theorie hängt die Anzahl der extrahierten dominierenden Streuer von der Signallänge ab, was darauf hinweist, dass es schwierig ist, ein dichtes ISAR-Bild robust durch CS zu erzeugen, wenn nur begrenzte Daten verfügbar sind, und dass einige Signalkomponenten dazu neigen, zu verlieren. Um diese Einschränkung zu mildern, wird BWE mit CS-Bildgebung kombiniert, um den Freiheitsgrad des Signals zu erhöhen und gleichzeitig seine Kohärenz zu bewahren. Anschließend wird eine verfeinerte CS-basierte Formation zur Verbesserung der ISAR-Bildauflösung entwickelt. Sowohl reale als auch simulierte Datenexperimente werden durchgeführt, um den vorgeschlagenen Ansatz zu bewerten, und ein Beispiel für die Verwendung dieser Technik demonstriert die verbesserte Bildauflösung bei der Anwendung der manövrierenden Zielbildgebung.;-;-;-;https://link.springer.com/article/10.1007/s11432-011-4298-4 605e82cff22d82d7914fc4be6ff47bed;de;;;2.4.;;;Ein EKG-Verarbeitungsalgorithmus mit geringer Komplexität basierend auf der Haar-Wavelet-Transformation für tragbare Gesundheitsgeräte Dieses Papier stellt einen einfachen Elektrokardiogramm (EKG)-Verarbeitungsalgorithmus für tragbare Gesundheitsgeräte vor. Dieser Algorithmus besteht aus der Haar-Wavelet-Transformation (HWT), der Modulus-Maxima-Paar-Erkennung (MMPD) und der Peak-Position-Modifikation (PPM). Um die Rechenkomplexität zu verringern, wird eine neuartige No-Multiplier-Struktur eingeführt, um HWT zu implementieren. In der MMPD wird der HWT-Koeffizient auf der Skala 24 verarbeitet, um Kandidatenspitzenpositionen des EKG zu finden. Das PPM wurde entwickelt, um die Zeitverschiebung in digitalen Prozessen zu korrigieren und die Position von Spitzen genau zu bestimmen. Es werden einige neue Verfahren vorgeschlagen, um die Entstörungsleistung bei MMPD und PPM zu verbessern. Ausgewertet von der MIT-BIH-Arrhythmie-Datenbank beträgt die Sensitivität (Se) der QRS-Erkennung 99,53 % und die positive Vorhersage (Pr) der QRS-Erkennung 99,70 %. Die QT-Datenbank wurde ausgewählt, um diesen Algorithmus vollständig zu validieren, um die EKG-Kurve vollständig abzugrenzen. Der mittlere µ und die Standardabweichung;-;-;-;https://link.springer.com/article/10.1007/s11432-014-5199-0 e4373009815cecfcb5c7be1eb75727ab;de;;;2.4.;;;Ein einheitliches Level-Set-Framework, das Parameter-Prioritäten für die Segmentierung medizinischer Bilder verwendet Die Bildsegmentierung spielt in vielen medizinischen Bildgebungssystemen eine wichtige Rolle, bleibt jedoch unter komplexen Umständen ein offenes Problem. Eine der Hauptschwierigkeiten ist die Intensitätsinhomogenität in einem Bild. Um dieses Problem anzugehen, führen wir zunächst einen regionenbasierten Level-Set-Segmentierungsrahmen ein, um die traditionellen globalen und lokalen Methoden zu vereinen. Wir schlagen dann zwei neue Parameterpriorwerte vor, d. h. die Regularisierung lokaler Ordnung und die interaktive Regularisierung, und verwenden sie dann als Beschränkungen der objektiven Energiefunktion. Die objektive Energiefunktion wird schließlich über einen Level-Set-Evolutionsprozess minimiert, um eine Bildsegmentierung zu erreichen. Umfangreiche Experimente zeigen, dass der vorgeschlagene Ansatz signifikante Verbesserungen sowohl in Bezug auf Genauigkeit als auch Effizienz gegenüber den Methoden des Standes der Technik erzielt hat.;-;-;-;https://link.springer.com/article/10.1007/s11432-012-4683-7 db3cabf90c40471a5004d01029a6f2a4;de;;;2.4.;;;Grobe Sets und Neurowissenschaften Fast genau 10 Jahre sind seit der Veröffentlichung des Neurocomputing Special Volume on Rough-Neuro Computing und fast 8 Jahre seit dem Erscheinen des wegweisenden Buches „Rough-Neural Computing“ vergangen. Rough-Neuro (oder Neural) Computing (RNC) verallgemeinert traditionelle künstliche neuronale Netze, indem es die Konzepte der Informationsgranularität und des Rechnens mit Wörtern einbezieht. Es bietet solide theoretische Grundlagen für die Hybridisierung von Neural Computing mit der Theorie der Grobmengen sowie der Grobmerologie und hat viele interessante praktische Anwendungen. Während sich die RNC-Paradigmen direkt oder indirekt weitgehend aus dem Bereich der Neurowissenschaften schöpfen, gibt es interessanterweise nicht viele Anwendungen der Theorie der groben Mengen (in Form von RNC oder anderweitig), um Probleme in diesem Bereich zu lösen. Dies ist etwas überraschend, da viele Probleme in den Neurowissenschaften von Natur aus vage und/oder schlecht definiert sind und möglicherweise erheblich von der Fähigkeit der groben Sets profitieren könnten, mit ungenauen Daten umzugehen, und die vorgeschlagenen Anwendungen waren sehr erfolgreich. In diesem Kapitel beschreiben wir einige Beispiele für die bestehenden Anwendungen der Theorie der Grobmengen (und ihrer Hybridisierungen) auf dem Gebiet der Neurowissenschaften und ihrer klinischen „Schwester“, der Neurologie. Wir bieten auch eine Diskussion über andere potenzielle Anwendungen von Rough-Sets in diesen Bereichen. Schließlich spekulieren wir darüber, wie die mit Hilfe von groben Sets gewonnenen neuen Erkenntnisse im Bereich der Neurowissenschaften dazu beitragen können, RNC zu verbessern und so die Schleife zwischen den beiden Bereichen zu schließen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30341-8_26 8b9eebdc12a4ce7a5df4f7ef80f1b850;de;;;2.4.;;;Ununterscheidbarkeitsbeziehung für kontinuierliche Attribute: Anwendung in der Bilderkennung Das Papier präsentiert eine Anwendung von groben Sätzen in einem Problem, das für den kontinuierlichen Merkmalsraum definiert ist, der von einem hybriden Hochgeschwindigkeits-Mustererkennungssystem verwendet wird. Der Merkmalsextraktionsteil dieses Systems ist als holographischer Ring-Wedge-Detektor auf Basis eines Binärgitters aufgebaut. Ein solcher Feature Extractor kann optimiert werden und wir verwenden zu diesem Zweck die automatische Wissenserfassung und -verarbeitung. Merkmale aus dem optimierten Extraktor werden dann unter Verwendung eines probabilistischen neuronalen Netzklassifizierers klassifiziert. Die von einem der Autoren in früheren Arbeiten vorgeschlagene Methodik wurde hier durch die Anwendung einer modifizierten Ununterscheidbarkeitsbeziehung weiter verbessert. Eine modifizierte Version dieser Beziehung ermöglicht die natürliche Anwendung einer groben Wissensdarstellung diskreten Typs auf Probleme, die im kontinuierlichen Raum definiert sind. Wir präsentieren eine Anwendung der modifizierten Ununterscheidbarkeitsbeziehung im Bereich der Bilderkennung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73451-2_76 47e4d0ed8b15f12c514fd78c8859762d;de;;;2.4.;;;Winkelgeschwindigkeitsschätzung unter Verwendung von Eigenschaften von Sternspuren, die von einem Sternsensor für Raumfahrzeuge erhalten wurden Es wurden viele Studien zur Winkelgeschwindigkeitsschätzung unter Verwendung von Sternsensoren durchgeführt, und eine ziemlich gute Leistung wird erreicht, wenn das Raumfahrzeug in Umgebungen mit geringer Dynamik arbeitet. Wenn sich das Raumfahrzeug jedoch mit einer großen Winkelgeschwindigkeit dreht, wird das Sternbild unscharf, was es schwierig macht, Sternschwerpunkte zu identifizieren und zu erkennen, was wiederum die Genauigkeit der Winkelgeschwindigkeitsschätzung verringert. Um das Problem der Winkelgeschwindigkeitsschätzung in hochdynamischen Situationen zu lösen, untersucht diese Forschung daher eine Methode zur Winkelgeschwindigkeitsschätzung unter Verwendung unscharfer Sternbilder. Die Längen- und Endpunktkoordinaten von Sternspuren, die aus diesen verschwommenen Sternbildern gewonnen werden, werden für eine Reihe von Prozessen verwendet, die die Vorverarbeitung von verschwommenen Sternbildern, die Bestimmung von Start- und Endpunkten, das Ausdünnen und Auswählen von Sternspuren und die Berechnung umfassen von Spurlängen. Simulationen zeigen, dass die Effektivität des vorgeschlagenen Verfahrens in hochdynamischen Situationen und die Winkelgeschwindigkeitsschätzungsfehler bei konstanter und sinusförmiger Variation um mindestens 66% bzw.;-;-;-;https://link.springer.com/article/10.1007/s11432-019-2824-y 7ea0da4b1c29dcc111c73821667131de;de;;;2.4.;;;Ein Rückblick auf Forschungsthemen der Roboter-WM-Fußballforschung RoboCup: Heute und morgen RoboCup ist ein zunehmend erfolgreicher Versuch, die vollständige Integration von Robotik und KI-Forschung zu fördern. Das herausragendste Merkmal von RoboCup ist, dass es den Forschern die Möglichkeit bietet, ihre Forschungsergebnisse als eine Form des Wettbewerbs in einer sich dynamisch verändernden feindlichen Umgebung zu demonstrieren, die als internationale Standardspieldefinition definiert ist und in der die Bandbreite der Forschungsfragen der intelligenten Robotik natürlich beteiligt. Dieser Artikel beschreibt, was wir aus den vergangenen RoboCup-Aktivitäten gelernt haben, hauptsächlich aus dem ersten und zweiten RoboCup, und gibt einen Überblick über die zukünftigen Perspektiven des RoboCup im nächsten Jahrhundert.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0119415 a18e99b4b446db61d929a0e5e774b96d;de;;;2.4.;;;Eine neuartige löschbare Iris-Template-Generierung basierend auf dem Salting-Ansatz Die Iris wurde sowohl theoretisch als auch empirisch als eine der leistungsfähigsten Biometrien in Bezug auf die Erkennungsleistung anerkannt. Herkömmliche ungeschützte biometrische Iris-Erkennungssysteme sind jedoch sehr anfällig für zahlreiche Datenschutz- und Sicherheitsangriffe. Es wurden mehrere Verfahren vorgeschlagen, um löschbare Iris-Schablonen zu erzeugen, die zur Erkennung verwendet werden können, jedoch erreichen diese Schablonen eine geringere Erkennungsgenauigkeit im Vergleich zu herkömmlichen ungeschützten Iris-Schablonen. In diesem Artikel wird ein neues löschbares Iriserkennungsschema basierend auf dem Salting-Ansatz vorgestellt. Es hängt davon ab, den ursprünglichen binären Iriscode mit einem synthetischen Muster unter Verwendung der XOR-Operation zu mischen. Dieses Schema garantiert ein hohes Maß an Datenschutz/Sicherheitserhaltung, ohne die Leistungsgenauigkeit im Vergleich zu den ungeschützten traditionellen Iriserkennungsschemata zu beeinträchtigen. Umfangreiche Experimente an verschiedenen Iris-Bilddatenbanken zeigen eine ähnliche Genauigkeit wie die der ursprünglichen Gegenstücke. Daher ist die Robustheit gegenüber mehreren großen Datenschutz-/Sicherheitsangriffen gewährleistet.;-;-;-;https://link.springer.com/article/10.1007/s11042-020-08663-6 590ac79a45063ff61512836904d35bee;de;;;2.4.;;;Multikriterielle Methodik basierend auf dem Mehrheitsprinzip zur kollektiven Identifizierung des wertvollen Wissens eines Unternehmens Die Notwendigkeit, in Unternehmen produziertes und genutztes Wissen zu formalisieren, hat in den letzten Jahren stark zugenommen. Unternehmen werden sich der Bedeutung des immateriellen Kapitals ihrer Mitarbeiter bewusst, das ihrer Erfahrung und ihrem angesammelten Wissen über die Tätigkeit des Unternehmens entspricht. Die Aufrechterhaltung dieses Kapitals ist ein wirksames Mittel, um das Leistungsniveau des Unternehmens zu verbessern. In diesem Beitrag präsentieren wir eine Methodik zur Induktion eines Satzes kollektiver Entscheidungsregeln, die eine verallgemeinerte Beschreibung der bevorzugten Informationen einer Gruppe von Entscheidungsträgern darstellen, die an einem multikriteriellen Klassifizierungsproblem beteiligt sind, um das entscheidende Wissen eines Unternehmens zu identifizieren, das kapitalisiert werden soll.;-;-;-;https://link.springer.com/article/10.1057/kmrp.2012.35 99665d054db4472b001738fb4a418f55;de;;;2.4.;;;Smart City-Überwachung im Nebel-Computing Das Internet und das Internet der Dinge (IoT) machen das Konzept der Smart City zu einem realisierbaren und attraktiven Angebot. Effiziente Informationsabstraktion und schnelle Entscheidungsfindung, die wichtigsten Bestandteile des Situational Awareness (SAW), sind aufgrund der überwältigenden Menge an dynamischen Daten und der engen Beschränkungen der Verarbeitungszeit immer noch komplex. Bei vielen städtischen Überwachungsaufgaben kann die leistungsstarke Cloud-Technologie die enge Latenztoleranz nicht erfüllen, da die Server weit von der Sensing-Plattform entfernt verteilt sind, d. h. in Notfallsituationen keine garantierte Verbindung besteht. Daher müssen Datenverarbeitung, Informationsfusion und Entscheidungsfindung vor Ort (d. h. in der Nähe der Datenerfassungsorte) durchgeführt werden. Fog Computing, eine kürzlich vorgeschlagene Erweiterung von Cloud Computing, ermöglicht Vor-Ort-Computing, ohne Jobs in eine Remote-Cloud zu migrieren. In diesem Kapitel stellen wir zunächst die Motivationen und Definitionen von Smart Cities sowie die bestehenden Herausforderungen vor. Anschließend werden die Konzepte und Vorteile von Fog Computing diskutiert. Darüber hinaus untersuchen wir die Machbarkeit von Fog Computing für die Echtzeit-Stadtüberwachung anhand einer Fallstudie zur Erkennung von Geschwindigkeitsüberschreitungen. Mit einer Drohne zur Überwachung der sich bewegenden Fahrzeuge wird ein Prototyp für Fog Computing entwickelt. Die Ergebnisse bestätigen die Wirksamkeit unseres Fog Computing-basierten Ansatzes für unterbrechungsfreie städtische Überwachungsaufgaben vor Ort, online.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-45145-9_9 162a088d9a248b3605f486632e7d8bd0;de;;;2.4.;;;Auf Sinc-Interpolation basierendes Verfahren zur Kompensation von ionosphärischen Dispersionseffekten auf BOC-Signale mit hoher Hilfsträgerrate Binary Offset Carrier (BOC)-Signale mit hoher Subcarrier-Rate wie AltBOC(15,10) und cos-BOC(15,2.5) wurden für die nächste Generation des Global Navigation Satellite Systems (GNSS) übernommen, um die zugewiesenen Spektrum. Jedoch sind die beiden Hauptkeulen der BOC-Signale im Frequenzspektrum enorm getrennt und die Gruppenlaufzeit der beiden Keulen wird aufgrund der ionosphärischen Dispersion stark gestreut. Die Signale erleiden eine extrem starke Verzerrung, die durch die Gruppenverzögerungsdispersion verursacht wird, einschließlich Wellenformwelligkeiten, Leistungsverlusten und Asymmetrien der Korrelationsfunktion. In diesem Artikel wird ein neuartiges Verfahren zur Kompensation der ionosphärischen Dispersion auf der Grundlage der Sinc-Interpolation im Zeitbereich vorgeschlagen, um die Verzerrung der BOC-Signale zu beseitigen. Zunächst wird das Zeitbereichsmodell des BOC-Signals unter der dispersiven Ionosphäre entwickelt. Anschließend werden modellbasiert die beiden Signalhauptkeulen durch Sinc-Interpolation so ausgerichtet, dass die ionosphärischen Dispersionseffekte nahezu abgemildert werden. Am Beispiel des Galileo E5 AltBOC(15,10) Signals wird die Leistungsfähigkeit der vorgeschlagenen Methode durch Simulation und Test bewertet. Die Ergebnisse zeigen, dass das vorgeschlagene Verfahren in der Lage ist, die ionosphärische Dispersion mit weniger Rechenaufwand im Vergleich zu bestehenden Verfahren effektiver zu kompensieren.;-;-;-;https://link.springer.com/article/10.1007/s11432-016-5555-3 3ef0de2ea5f5b6783f9432700404bc29;de;;;2.4.;;;Fuzzy Performance Indicators zur Steuerung von Fertigungsprozessen Diese Studie zeigt eine Anwendung der Fuzzy-Subset-Theorie mit dem Ziel, das qualitative, ungenaue und/oder unsichere Wissen im Fertigungskontext zu berücksichtigen. Der Fokus liegt insbesondere auf den Bewertungsaspekten der industriellen Prozesse und Aktivitäten. Diese Bewertung bezieht sich auf die Ergebnisse der verschiedenen Aktivitäten oder Prozesse und besteht darin, sie mit den zugewiesenen Zielen zu vergleichen. Eine Möglichkeit, diesen Vergleich durchzuführen, sind Leistungsindikatoren. Übliche Indikatoren behandeln nur genaue und numerische Daten, während die Ziele ungenau, subjektiv oder schrittweise definiert und die Maßnahmen unsicher ausgedrückt werden können. Durch die Verwendung des Fuzzy-, des possibilistischen und des probabilistischen Formalismus behandeln die vorgeschlagenen Indikatoren sowohl numerische als auch symbolische Daten und liefern entweder ein Leistungsmaß oder eine Leistungsbewertung. Darüber hinaus bewerten die vorgeschlagenen Indikatoren, immer im Gegensatz zur üblichen Bewertung, eine relative Leistung, einerseits im Hinblick auf die Zielsetzung und andererseits auf die realen Bedingungen der betrachteten Verordnungen. Während sich die absolute Leistung auf das Effizienzmaß bezieht, ist die relative Leistung für die Steuerung der Prozesse nützlich. Die Bewertung dieser Leistungen basiert auch auf einigen unscharfen Erweiterungen allgemeiner Konzepte von Korrespondenz, Nähe, Distanz ... Diese Ideen werden auf einige Probleme angewendet, die in einem Skiproduktionsprozess auftreten. Diese Produktion beinhaltet zunächst eine Montageaktivität, deren Leistung von vielen Parametern bestimmt wird, und am Ende der Produktion eine Aktivität zur Qualitätskontrolle, die von menschlichen Bedienern auf der Grundlage subjektiver Merkmale durchgeführt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-1885-7_14 f094781ccf96349e597a8ea61e3903b5;de;;;2.4.;;;Triangulationsbasierte Ebenenextraktion für 3D-Punktwolken Die Verarbeitung von Punktwolken zur Extraktion von semantischem Wissen spielt in modernen mobilen Roboteranwendungen eine entscheidende Rolle. In dieser Arbeit untersuchen wir Ebenenextraktionsmethoden, die nicht auf zusätzliche Punktmerkmale wie Normalen angewiesen sind, sondern auf zufällige Triangulation, um eine schnelle Segmentierung zu ermöglichen. Wenn es in diesem Zusammenhang um eine Implementierung geht, stellt sich typischerweise folgende Frage:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33509-9_21 d474a17ea43a1ac5c92e1178659b0ad7;de;;;2.4.;;;Ein neuer Wafer-Prealigner Als wichtiger Bestandteil der Fotoätzanlage verwendet der Wafer-Prealigner ein mechanisches oder optisches Ausrichtungsverfahren, um Zeit zu sparen und die Qualität der Herstellung zu gewährleisten. In diesem Beitrag wird ein neuer Wafer-Prealigner vorgeschlagen, der auf der Methode der Massenzentrumsberechnung basiert. Das Massenzentrum wird von einem Reflexionslasersensor aus der radialen Richtung des Wafers gemessen, und die Position wird durch die Kerbwinkelerkennung unter Verwendung des Eindringlasersensors gemessen. Ein dynamisches Fehlerkompensationsverfahren wird angewendet, um den Rundlauf und das Taumeln des Drehtisches zu eliminieren, die Auswirkungen auf die Messung des Massenzentrums des Wafers haben. Die Genauigkeit wird durch zwei Schritte verbessert: Zum einen erfolgt eine Grobausrichtung durch Justieren des Massenzentrums, zum anderen erfolgt eine präzise Ausrichtung durch Ausrichten der Kerbe des Wafers. Experimente zeigen, dass die Genauigkeit des Wafer-Prealigners die Systemanforderung erfüllt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73374-4_59 4ab759a4172406da2230abcb8efb9741;de;;;2.4.;;;Multiagentenbasiertes integriertes Framework für das klasseninterne Testen von objektorientierter Software Die Hauptmerkmale des objektorientierten Paradigmas führen zur Entwicklung eines komplexen und kompositorischen Testrahmens für objektorientierte Software. Agententechnologien erleichtern das Softwaretesten aufgrund ihrer hohen Unabhängigkeit und parallelen Aktivierung. Dieses Papier präsentiert einen Multi-Agenten-basierten Ansatz zur Verbesserung der Definition für Klassentests im objektorientierten Paradigma. Das integrierte Framework wurde auf zwei bestehenden Testtechniken aufgebaut, nämlich Mutationstests und Capability Testing. In beiden Fällen erfolgt die Prüfung auf Autonomous Unit Level (AUL) und Inter-Procedural Level (IPL). Mutation Based Testing-Agent und Capability Assessment Testing-Agent wurden für die Durchführung von AUL-Tests und Method Interaction Testing-Agent für die Durchführung von IPL-Tests entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39737-3_123 59fa17581b6e2991b7cb2c0eddae88c0;de;;;2.4.;;;Uplink-Übertragungsdesign für überfüllte korrelierte zellfreie massive MIMO-OFDM-Systeme In zellfreien Massive Multiple-Input Multiple-Output (MIMO) Orthogonal Frequency Division Multiplexing (OFDM)-Systemen werden Benutzergeräte (UEs) von vielen verteilten Zugangspunkten (APs) bedient, wo Kanäle aufgrund endlicher Winkelverzögerungsspreizung korreliert sind in realistischen Umgebungen mit drahtloser Ausbreitung im Freien. Unterdessen wächst die Zahl der UEs für eine zukünftige voll vernetzte Gesellschaft schnell. In diesem Papier konzentrieren wir uns auf das Uplink-Übertragungsdesign in überfüllten korrelierten zellfreien massiven MIMO-OFDM-Systemen mit einer begrenzten Anzahl von orthogonalen Piloten. Für die Pilotübertragungsphase identifizieren wir aktive UEs basierend auf nicht-orthogonalen Pilot-Phasenverschiebungs-Sprungmustern und nicht-orthogonalen einstellbaren Phasenverschiebungs-Piloten (APSP). Wir leiten einen geschlossenen Ausdruck des mittleren quadratischen Fehlers der Kanalschätzung (MSE-CE) ab und erhalten eine optimale Bedingung zum Minimieren von MSE-CE. Gemäß dieser Bedingung wird das APSP-Satzzuweisungsschema vorgeschlagen. Darüber hinaus wird für die Datenübertragung der Max-Min-Leistungssteuerungsalgorithmus entwickelt, um die untere Grenze der minimalen spektralen Effizienz (SE) unter aktiven UEs zu maximieren. Simulationsergebnisse zeigen signifikante Leistungssteigerungen in Bezug auf MSE-CE für das vorgeschlagene APSP-Set-Zuweisungsschema. Das vorgeschlagene Leistungssteuerungsschema kann die minimale SE unter aktiven UEs weiter verbessern. Daher sind sie entscheidend für überfüllte korrelierte zellfreie massive MIMO-OFDM-Systeme.;-;-;-;https://link.springer.com/article/10.1007/s11432-020-3103-3 d9faab408fb150c3991f335892853fde;de;;;2.4.;;;Fortschrittliche Technologie des hochauflösenden Radars: Zielerkennung, Verfolgung, Bildgebung und Erkennung In den letzten Jahren wurden die Leistungen der Radarauflösung, Abdeckung und Erfassungsgenauigkeit durch die Verwendung von Ultrabreitband-, synthetischer Apertur- und digitaler Signalverarbeitungstechnologien erheblich verbessert. Hochauflösende Radare (HRRs) verwenden Breitbandsignale und synthetische Aperturen, um die Entfernung bzw. die Winkelauflösung der Verfolgung zu verbessern. Außerdem erzeugen sie ein-, zwei- und sogar dreidimensionale hochauflösende Bilder mit den Merkmalsinformationen von Zielen, aus denen die Ziele genau klassifiziert und identifiziert werden können. Fortschrittliche Signalverarbeitungsalgorithmen in HRRs erhalten wichtige Informationen wie Entfernungs-Doppler-Bildgebung, phasenabgeleitete Entfernungsmessung und Mikrobewegungsfunktionen. Die Vorteile und Anwendungen von HRRs werden jedoch durch Faktoren wie das reduzierte Signal-Rausch-Verhältnis (SNR) von Multi-Scatter-Point-Targets, verringerte Tracking-Genauigkeit von Multi-Scatter-Point-Targets, hohe Anforderungen an die Bewegungskompensation und niedrige Sensibilität der Zielhaltung. Dieses Papier konzentriert sich auf diese Probleme und führt systematisch die neuartigen Technologien von HRRs ein und diskutiert die Probleme und Lösungen, die für die Erkennung, Verfolgung, Bildgebung und Erkennung relevant sind. Schließlich werden die neuesten Fortschritte und repräsentative Ergebnisse der HRR-basierten Forschung überprüft und die zukünftige Entwicklung von HRR vorgeschlagen.;-;-;-;https://link.springer.com/article/10.1007/s11432-018-9811-0 fffb90dea409ee2baf9eae6c1b8befcc;de;;;2.4.;;;Forschung zu Innovation in der Musiklehre basierend auf Big Data Auf diese Weise können Menschen die Natur von Big Data und die Beziehung zwischen diesen Dingen eingehend analysieren. Unter dieser Bedingung, da Big Data weit verbreitet ist, erweitert sich der Anwendungsbereich und findet allmählich Eingang in den Musikunterricht. Derzeit ist es ein Problem, darüber nachzudenken, wie Innovationen im Musikunterricht vor dem Hintergrund von Big Data realisiert werden können. Auch hierzu soll in diesem Beitrag geforscht werden und das Grundkonzept von Big Data, die positive Rolle der Lehre und die aktuelle Situation der Musiklehre (die bestehenden Probleme der Musiklehre, d. h. das Big-Data-Musiklehrsystem und Die Lehrpläne richten sich nach der aktuellen Situation.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-74814-2_104 030f2a0d4b7d015ad01389038ac51842;de;;;2.4.;;;Emotionserkennung aus Sprache mit Multi-Classifier-Systemen und RBF-Ensembles Diese Arbeit gibt einen detaillierten Überblick über verwandte Arbeiten zur Emotionserkennungsaufgabe. Es werden gängige Definitionen für Emotionen gegeben und bekannte Themen wie kulturelle Abhängigkeiten erläutert. Darüber hinaus werden Kennzeichnungsfragen beispielhaft erläutert und vergleichbare Erkennungsexperimente und Datensammlungen vorgestellt, um einen Überblick über den Stand der Technik zu geben. Es wird ein Vergleich möglicher Datenerfassungsmethoden, wie der Aufzeichnung von gespieltem emotionalem Material, induzierten emotionalen Daten, die in Wizard-of-Oz-Szenarien aufgezeichnet wurden, sowie realen Emotionen bereitgestellt. Ein vollständiges Szenario mit automatischer Emotionserkennung, das eine mögliche Methode zur Erfassung emotionaler Daten, ein menschliches Wahrnehmungsexperiment zum Datenqualitäts-Benchmarking, die Extraktion häufig verwendeter Merkmale und Erkennungsexperimente mit Multi-Classifier-Systemen und RBF-Ensembles umfasst, ist enthalten. Mit RBF-Ensembles, die einfach zu implementieren und schnell trainierbar sind, wurden leistungsnahe Ergebnisse erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75398-8_3 3d8d9a3a10f4f5498b0072ad01b0db71;de;;;2.4.;;;Komplexe Steuerungssysteme: Beispielanwendungen In letzter Zeit entwickeln sich intensiv Anwendungen von Steuerungs- und Robotiksystemen. Spezielle Steuerungssysteme, d. h. Roboter, sind für den Einsatz in menschenfeindlicher oder schädlicher Umgebung konzipiert. Mögliche Einsatzgebiete von Robotern sind sich ständig wiederholende Aufgaben oder Jobs, die große körperliche Kraft erfordern. Ein Roboter kann auch als Assistent eines Menschen (z.B. Roboterassistent für einen Chirurgen) oder in sogenannten Telerobotic-Systemen, die menschliche Hände „ausstrecken“, eingesetzt werden. Die dynamischste Entwicklung findet in der mobilen Robotik statt. Bei manchen Aufgaben sollten sich Roboter ähnlich wie Menschen oder Tiere bewegen – sie werden Laufroboter genannt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84628-405-2_21 ccaa9f77dfbeb2dec69a59c58c0a36e1;de;;;2.4.;;;Anpassung durch Interaktionsmodellierung in pädagogischen Hypermedien Das Poster beschreibt MMforTED, ein adaptives pädagogisches Hypermedia-System, das den Erwerb mehrerer Konzeptualisierungen unterstützt, die zum Nachdenken über technische Artefakte aus verschiedenen Perspektiven verwendet werden können. Die Anpassung erfolgt durch eine Weiter-Schaltfläche, die den Lernenden zur besten Seite führt, die als nächstes gelesen werden soll (direkte Führung). Die Entscheidung, welche Seite die beste ist, wird getroffen, indem die Eigenschaften des Interaktionsverlaufs des Schülers bis zu einem bestimmten Zeitpunkt analysiert werden und die nächste Seite aufgrund der gebotenen möglichen Interaktionen ausgewählt wird.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-47952-X_88 ff9f5f9b3f61b9965483b0eb8c2f8fb5;de;;;2.4.;;;Zerebrale Aktivierungsbereiche in Bezug auf die Wort- und Satzproduktion von frühen und späten koreanisch-englischen Zweisprachigen: Ereignisbezogene fMRT-Studie Diese Studie wurde durchgeführt, um die Hirnareale zu untersuchen, die mit der Wort- und Satzproduktion zusammenhängen, die in der ereignisbezogenen fMRT gezeigt werden. Die aktuelle Studie hat insbesondere die Absicht, den Unterschied zwischen der Verarbeitung von Mutter- und Fremdsprachen durch frühe und späte koreanisch-englische Zweisprachige aufzuklären. Es wurden zwei Experimente durchgeführt, um die Bereiche zu bestätigen, die sich auf jede Ebene der Wort- und Satzerzeugung beziehen. Die experimentellen Aufgaben umfassen Bildbenennungs- und Satzbildungsaufgaben, bei denen die Probanden gebeten wurden, das Bild zu benennen und einen Satz zur Beschreibung des Bildes auf Koreanisch oder Englisch zu bilden. Bei der Durchführung der Aufgabe wurden ereignisbezogene Aktivierungsbereiche bestätigt. Die Ergebnisse zeigten, dass der Gyrus inferior frontalis (IFG, BA 44, 45) sowohl bei frühen als auch bei späten koreanisch-englischen Zweisprachigen aktiviert wurde. Allerdings waren die Aktivierungsbereiche im englischsprachigen Zustand im Vergleich zum koreanisch präsentierten Zustand als Muttersprache reduziert. Darüber hinaus weisen die späten koreanisch-englischen Zweisprachigen im Vergleich zu den Aktivierungsgebieten im englischsprachigen Zustand als Fremdsprache mehr Aktivierung auf als die frühen. Diese Ergebnisse legten nahe, dass die unterschiedliche Erwerbszeit der Fremdsprache zu einer unterschiedlichen zerebralen Aktivierung führen könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30499-9_47 86ddab6bd0d495067a5ec11c249b6198;de;;;2.4.;;;Beleuchtungsinvariante visuelle Odometrie mit Lidar-Intensitätsbild und Posen-Interpolation Jüngste Studien haben gezeigt, dass Bilder, die aus Lidar-Reflexionsinformationen erstellt wurden, im Vergleich zu herkömmlichen passiven Stereokamerabildern eine überlegene Robustheit gegenüber Beleuchtungsänderungen in Außenumgebungen aufweisen. Darüber hinaus kann für visuelle Navigationsverfahren, die ursprünglich mit Stereovision entwickelt wurden, wie die visuelle Odometrie (VO) und das visuelle Teach-and-Repeat (VT&R), das scannende Lidar als direkter Ersatz für den passiven Sensor dienen. Dies führt zu Systemen, die die Effizienz der spärlichen, auf das Aussehen basierenden Techniken beibehalten und gleichzeitig die Abhängigkeit von angemessenen/konsistenten Beleuchtungsbedingungen überwinden, die bei herkömmlichen Kameras erforderlich sind. Aufgrund der Scannatur des Lidars und Annahmen in früheren Implementierungen leiden jedoch während der kontinuierlichen Fahrzeugbewegung erfasste Daten unter geometrischen Bewegungsverzerrungen und können anschließend selbst über kurze Distanzen (z. . In diesem Artikel wird die in früheren Systemen getroffene Annahme des Messzeitpunkts erneut aufgegriffen und ein Rahmen zur VO-Schätzung von Rahmen zu Rahmen vorgeschlagen, der auf einem neuartigen Poseninterpolationsschema basiert, das explizit die genaue Erfassungszeit jeder Merkmalsmessung berücksichtigt. In diesem Beitrag präsentieren wir die vielversprechenden vorläufigen Ergebnisse unserer neuen Methode unter Verwendung von Daten aus einem Lidar-Simulator und experimentellen Daten, die aus einer planetarischen analogen Umgebung mit einem echten Scanning-Laser-Entfernungsmesser gesammelt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40686-7_22 96bb710fbcef5660384afc01802c6186;de;;;2.4.;;;Design der Echtzeit-Datenübertragung von unbemannten Gammaspektrometern für Luftfahrzeuge Die Gammaspektroskopie mit unbemannten Luftfahrzeugen ist eine wichtige Methode zur Durchführung von nuklearen Notfall- und schnellen geologischen Prospektionen, und der Entwurf einer Echtzeit-Datenübertragung ist eine zentrale technische Schwierigkeit. In diesem Artikel wurden vier 2L großvolumige NaI(TL)-Gammaspektrometer entwickelt, um die Empfindlichkeit der Bodendetektion zu verbessern. GPS-Sekundenpulse werden zur Zeitsynchronisation verwendet und als Zeitstempelmarkierungen zu den gemessenen Energiespektrumsdaten hinzugefügt. Die Spektralliniendaten werden unter dem TCP/IP-Übertragungsprotokoll an den fliegenden Industriecomputer übertragen, und die Spektralliniendaten werden zusammen mit anderen Informationen gepackt, und dann wird der LZMA-Kompressionsalgorithmus verwendet, um das Volumen der gepackten Daten zu reduzieren. Die verpackten Daten und das hochauflösende HDMI-Bild werden über die digitale Übertragungs- und Übertragungsmaschine an den Boden gesendet. Das selbstgeschriebene RTCP-Übertragungsprotokoll wird im Übertragungsprozess verwendet, um die Zuverlässigkeit und Echtzeitleistung der Daten zu gewährleisten. Schließlich werden die Liniendarstellung und die Radionuklidanalyse auf der bodenempfangenden Seite realisiert, wodurch die Zeitgenauigkeit und die Echtzeitleistung der Fernübertragung sichergestellt werden. Das in diesem Artikel entwickelte und entwickelte Echtzeit-Datenübertragungsverfahren kann in großem Umfang auf UAV-Strahlungsmessungen angewendet werden, wodurch das Problem der Echtzeitübertragung von Strahlungsmessdaten gelöst werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5073-7_7 98aa8d296a40c027ffa7663439ec7be2;de;;;2.4.;;;Entwicklung und Einsatz von Expertensystemen und neuronalen Netzen in der Medizin: Ein Überblick über Vorteile und Herausforderungen Die Kompliziertheit klinischer Entscheidungen rechtfertigt den Einsatz von Informationssystemen wie künstlicher Intelligenz (z. B. Expertensysteme und neuronale Netze), um bessere Entscheidungen zu treffen, jedoch steht die Anwendung dieser Systeme im medizinischen Bereich vor einigen Herausforderungen. Unser Ziel war es, die Anwendungen dieser Systeme im medizinischen Bereich zu überprüfen und über solche Herausforderungen zu diskutieren. Nach einer kurzen Einführung in Expertensysteme und neuronale Netze anhand einiger Beispiele werden die Herausforderungen dieser Systeme im medizinischen Bereich diskutiert. Wir haben festgestellt, dass die Anwendungen von Expertensystemen und künstlichen neuronalen Netzen im medizinischen Bereich zugenommen haben. Diese Systeme haben viele Vorteile gezeigt, wie zum Beispiel die Nutzung von Expertenwissen, das Gewinnen seltener Erkenntnisse, mehr Zeit für die Beurteilung der Entscheidung, konsistentere Entscheidungen und kürzere Entscheidungswege. Trotz all dieser Vorteile gibt es Herausforderungen bei der Entwicklung und Nutzung solcher Systeme wie Wartung, erforderliche Experten, Eingabe von Patientendaten in das System, Probleme bei der Wissensgewinnung, Probleme bei der Modellierung von medizinischem Wissen, Bewertung und Validierung der Systemleistung, falsche Empfehlungen und Verantwortung, begrenzte Domänen solcher Systeme und die Notwendigkeit, solche Systeme in die routinemäßigen Arbeitsabläufe zu integrieren. Wir kamen zu dem Schluss, dass Expertensysteme und neuronale Netze erfolgreich in der Medizin eingesetzt werden können, jedoch gibt es viele Bedenken und Fragen, die durch zukünftige Studien und Diskussionen beantwortet werden müssen.;-;-;-;https://link.springer.com/article/10.1007/s10916-014-0110-5 ae786aaedc8561bebd74555d383beb08;de;;;2.4.;;;Compressive Sensing-basiertes Energieverbrauchsmodell für Datenerfassungstechniken in drahtlosen Sensornetzwerken Drahtlose Sensornetzwerke (WSNs) haben heutzutage viele Anwendungen in einer Vielzahl von Themen gefunden. Das Hauptziel von WSNs besteht darin, Umweltphänomene zu messen und Lesedaten in Multi-Hop-Pfade an die Senke zu senden. Die wichtigste Herausforderung bei WSNs besteht darin, den Energieverbrauch in den Sensorknoten zu minimieren und die Netzwerklebensdauer zu erhöhen. Eine der effektivsten Techniken zur Reduzierung des Energieverbrauchs in WSNs ist das Compression Sensing (CS), das kürzlich von den Forschern in Betracht gezogen wurde. CS reduziert den Energieverbrauch des Netzwerks, indem es die Anzahl und Größe der übertragenen Datenpakete über das Netzwerk reduziert. Andererseits ist es zur Bewältigung der Herausforderung des Energieverbrauchs im Netz notwendig, die Energieverbrauchsressourcen des Netzes zu identifizieren und zu analysieren. Zwar wurden im WSN viele Modelle für die Energieverbrauchsanalyse vorgeschlagen, aber diese Modelle basierten nicht auf der CS-Technik. Daher haben wir in dieser Arbeit ein vollständiges Modell für die Energieverbrauchsanalyse in verschiedenen CS-basierten Datenerfassungstechniken in WSNs vorgeschlagen. Dieses Modell kann sehr effektiv bei der Optimierung des Energieverbrauchs sein, wenn eine CS-basierte Datenerfassungstechnik für WSN entwickelt wird.;-;-;-;https://link.springer.com/article/10.1007/s11235-020-00748-9 a49e9c314ba0cd518891a5c5e65d7d08;de;;;2.4.;;;Schätzung der 3D-Position von Menschen, die eine reflektierende Weste tragen, mit einem einzigen Kamerasystem Dieses Kapitel präsentiert eine neuartige mögliche Lösung für die Personenerkennung und die Schätzung ihrer 3D-Position in herausfordernden, gemeinsam genutzten Umgebungen. Bei sicherheitskritischen Anwendungen in industriellen Umgebungen gehen wir davon aus, dass Menschen reflektierende Westen tragen. Um diese Westen zu erkennen und von anderen reflektierenden Materialien zu unterscheiden, schlagen wir einen Ansatz vor, der auf einer einzigen Kamera basiert, die mit einem IR-Blitz ausgestattet ist. Die Kamera nimmt in kurzer Folge Bildpaare auf, eines mit und eines ohne IR-Blitz. Die ein Paar bildenden Bilder werden dann durch Merkmalsverfolgung miteinander in Beziehung gesetzt, was es ermöglicht, Merkmale zu verwerfen, für die der relative Intensitätsunterschied klein ist und von denen angenommen wird, dass sie nicht zu einer reflektierenden Weste gehören. Als nächstes wird die lokale Nachbarschaft der verbleibenden Features weiter analysiert. Zunächst wird ein Random-Forest-Klassifizierer verwendet, um zwischen Merkmalen, die durch eine reflektierende Weste verursacht werden, und Merkmalen, die durch einige andere reflektierende Materialien verursacht werden, zu unterscheiden. Zweitens wird der Abstand zwischen der Kamera und den Weste-Features unter Verwendung eines Random-Forest-Regressors geschätzt. Das vorgeschlagene System wurde in einem Indoor- und zwei anspruchsvollen Outdoor-Szenarien evaluiert. Unsere Ergebnisse zeigen eine sehr gute Klassifikationsleistung und eine bemerkenswert genaue Entfernungsschätzung, insbesondere in Kombination mit dem SURF-Deskriptor, selbst bei direkter Sonneneinstrahlung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40686-7_10 6a9ca79943682dfe24acd3a33c192858;de;;;2.4.;;;Psychische Erkrankungen bei geistig Behinderten: Diagnose- und Behandlungsprobleme Treatment Die Koexistenz von psychischer Retardierung und psychischer Erkrankung bei ein und demselben Individuum stellt sowohl in der Diagnostik als auch in der Behandlung besondere Herausforderungen an die Fachkräfte der Psychiatrie. Geistig behinderte/psychisch Kranke sind eine komplexe Gruppe von Personen, deren Bedürfnisse oft schlecht erkannt werden und die in erfolglosen Bemühungen um Hilfe oft von Dienststelle zu Dienststelle weitergeleitet werden. Diese Herausforderungen werden durch die jüngste nationale Deinstitutionalisierungsbewegung verschärft, die sich auf die Integration geistig behinderter Kinder und Erwachsener in die Hauptströmungen des Familien- und Gemeinschaftslebens konzentriert hat. Da die komplexeren Menschen mit geistiger Behinderung in gemeindebasierten Programmen betreut werden, sehen sich Psychiater zunehmend mit der Herausforderung konfrontiert, ihren Bedürfnissen im Zusammenfluss von Familie und Gemeindeleben gerecht zu werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-3758-7_10 bfa15e1dbd9985454a3abeac0626abcd;de;;;2.4.;;;Multispektrale und hyperspektrale bilderbasierte Analyse der Vorhersage von Landnutzungs- / Landbedeckungsänderungen: eine umfassende Überprüfung Forschung auf dem Gebiet der Fernerkundung zieht die Aufmerksamkeit von Forschern auf der ganzen Welt auf sich. Aus verschiedenen Fernerkundungsanwendungen wird das Problem der Landnutzungs-/Landbedeckungsänderungsanalyse seit mehr als vier Jahrzehnten als die kritische Forschung angesehen. Die Forscher hatten die neuen innovativen Lösungsansätze entdeckt, um die Landnutzungs-/Landbedeckungsänderung in einer bestimmten Region zu analysieren. Die multispektralen und hyperspektralen Satellitenbilder spielen eine wesentliche Rolle bei der Analyse von Umweltveränderungen. In diesem Papier werden viele Algorithmen diskutiert, die von Forschern zur Analyse der Landnutzungs-/Landbedeckungsänderung entwickelt und verwendet wurden. Ziel dieses Übersichtsartikels ist es, detaillierte Analysen zu durchgeführten Landnutzungs-/Landbedeckungsänderungen im Bereich der Fernerkundung bereitzustellen. Das Hauptmotiv besteht darin, den zukünftigen Forschern den Ablauf des Analyseprozesses der Landnutzungs- / Landbedeckungsänderung nahe zu bringen und jede Methode anschaulich darzustellen. Die Ergebnisse dieses Landnutzungs-/Landbedeckungsproblems helfen hauptsächlich dem Landressourcenmanagement, Stadtplanern und anderen Regierungsbeamten auf der ganzen Welt beim Schutz der Landressource und ihrer Natur für zukünftige Bedürfnisse.;-;-;-;https://link.springer.com/article/10.1007/s11042-020-09531-z 0643bb3ef221811d786a9d3d775a1726;de;;;2.4.;;;Einkommensungleichheit, Finanzströme und politische Institution: Subsahara-Afrikanisches Finanznetzwerk Mithilfe von Kreditverträgen auf Firmenebene generieren wir aggregierte Messgrößen für finanzielle Verbindungen und untersuchen, wie sich diese Indizes auf die Einkommensungleichheit in Ländern südlich der Sahara (SSA) beziehen. Die Ergebnisse zeigen, dass mehr Verbundenheit für diese Volkswirtschaften nicht förderlich ist, wie der Grad- und die Eigenvektorindizes zeigen. Die Betweenness-Zentralität verschlimmert die Einkommensungleichheit, so dass der Akt der Vermittlung bei der Bereitstellung von Finanzierungen nachteilig für die Netto- und Markteinkommensungleichheiten bleibt. Der unabhängige Zugang zu Finanzmitteln hat keine signifikanten Auswirkungen auf die Einkommensungleichheit. Auch wenn der Einfluss politischer Instabilität berücksichtigt wird, zeigen die Ergebnisse, dass finanzielle Verbundenheit bei der Verringerung der Einkommensungleichheit von Vorteil ist.;-;-;-;https://link.springer.com/article/10.1007/s00181-019-01634-3 ff1bf627224538dcbc9a6139072a294a;de;;;2.4.;;;Kontrastmittel: Magnetische Resonanz Auch wenn der Kontrast der intrinsischen Magnetresonanztomographie (MRT) viel flexibler ist als bei anderen klinischen Bildgebungsverfahren, erfordert die Diagnose mehrerer Pathologien die Beteiligung von Kontrastmitteln (CAs), die den Unterschied zwischen normalem und erkranktem Gewebe durch Modifikation ihrer intrinsischen Parameter. MR-CAs sind;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72718-7_7 2af72279274a9a3d1b980f1c7292c05d;de;;;2.4.;;;Angeborene Anomalien der Wirbelsäule Die Kenntnis sowohl der normalen Embryologie als auch der anatomischen Befunde angeborener Läsionen ermöglicht ein besseres Verständnis des Zeitpunkts und des Entwicklungsstadiums, in dem der normale Entwicklungsablauf unterbrochen wird, was zu angeborenen Fehlbildungen führt. Obwohl dieses Wissen noch begrenzt ist, kann das Bekannte genutzt werden, um eine genauere Klassifizierung von Rückenmarksfehlbildungen zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-1152-5_33 e656b9a79a28bfb3bdf00b302e878b37;de;;;2.4.;;;Bereitschaft zu robotergestützten Interventionen Seit vielen Jahren werden Roboter in der Fertigung eingesetzt, um eine Vielzahl von heiklen Aufgaben auszuführen. Ihre Anwendung wird nun auf andere Bereiche wie die Biologie, häusliche Anwendungen und insbesondere die Medizin verallgemeinert, in denen sie einen wesentlichen Beitrag leisten werden. Diese Entwicklung ergibt sich aus den Fortschritten auf dem Gebiet der Robotik und den jüngsten Veränderungen in medizinischen und chirurgischen Techniken, nämlich Entwicklungen in der medizinischen Bildgebung und einem neuen Wunsch nach minimal-invasiven Eingriffen. Diese aufkommende Kombination aus hochpräzisen Robotermanipulatoren, neuen medizinischen Diagnosetechniken und effizienter minimal-invasiver Chirurgie ist noch nicht perfektioniert. Nach einer kurzen Diskussion über modernste Robotersysteme, die in der Urologie eingesetzt werden, diskutiert dieser Artikel neue Herausforderungen der minimalinvasiven Roboterchirurgie. Es wird ein computerintegrierter Ansatz vorgestellt, der darauf abzielt, die Effizienz solcher Interventionen durch bessere Vorbereitung zu steigern. Dieser Ansatz wird durch eine Fallstudie zur menschlichen Nephrektomie und einen kardialen Tierversuch veranschaulicht.;-;-;-;https://link.springer.com/article/10.1007/s11934-003-0035-x d63dae6010727b2a5c6b6b40c84a4e62;de;;;2.4.;;;Europäische Strategien für neue Materialien: Eine globale Sicht Die Strategie von Unternehmen und Behörden, die in der Vergangenheit zu sehr geneigt waren, nur in Bezug auf die Informationsrevolution zu denken, erkennt heute voll und ganz an, dass die Entwicklung neuer Materialien einen großen Einfluss auf die Gesellschaft haben wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-78855-0_5 615b0c5f7a9ed6f9b0c0cf737c102280;de;;;2.4.;;;Bewertung der Reproduzierbarkeit und Ähnlichkeit von Massen- und Intensitätsdaten in komplexen Spektren – Anwendungen auf Tubulin Wir präsentieren einen Datenverarbeitungsansatz basierend auf dem spektralen Punktprodukt zur Bewertung der spektralen Ähnlichkeit und Reproduzierbarkeit. Die Methode führt 95-%-Konfidenzintervalle für das spektrale Punktprodukt ein, um die Stärke der spektralen Korrelation zu bewerten gemeinsam. Diese Maße der spektralen Ähnlichkeit ermöglichen die rekursive Erzeugung eines Konsensusspektrums, das die konsistentesten Merkmale aus statistisch ähnlichen Replikationsspektren enthält. Die Verwendung des Spektralpunktprodukts und der 95-%-Konfidenzintervalle zwischen Konsensusspektren von verschiedenen Proben ergibt die Ähnlichkeit zwischen diesen Proben. Die Anwendung des Datenanalyseschemas auf Replikate von Hirntubulin-CNBr-Peptiden ermöglicht einen robusten Vergleich der Tubulin-Isotyp-Expression und der posttranslationalen Modifikationsmuster in Ratten- und Kuhhirnen.;-;-;-;https://link.springer.com/article/10.1016/j.jasms.2007.11.012 aac588b11fca0b1ead5a34e4faee1280;de;;;2.4.;;;Unternehmensprofitabilität und Lieferkette Wie bei jeder anderen Geschäftstätigkeit besteht der Zweck der Logistikfunktion darin, an der Erzielung von Umsätzen (und Gewinnen) zu partizipieren, verursacht dabei jedoch Kosten. Logistikaktivitäten sollten einen Mehrwert für Ressourcen schaffen: Typischerweise besteht der Mehrwert der Logistikfunktion darin, den Kunden Produkte/Dienstleistungen zu günstigen Zeiten und an geeigneten Orten zugänglich zu machen. Dies haben wir in den ersten Kapiteln festgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-24841-4_4 634503dbded34bac13293946532fce1a;de;;;2.4.;;;Zeitaufgelöste FT-EPR-Studie zur Photoreduktion von Durochinon durch Triethylamin in Methanol Mit zeitaufgelöster Fourier-Transform-EPR-Spektroskopie wurde die Photoreduktion von Durochinon durch Triethylamin in Methanollösung untersucht. Es wurde festgestellt, dass das spinpolarisierte (CIDEP) Durochinon-Triplett durch Elektronentransfer von Triethylamin unter Bildung eines Durochinon-Radikalanions und eines Amin-Radikalkations und durch Wasserstofftransfer vom Lösungsmittel unter Bildung eines Durosemichinon-Radikals bzw. eines Hydroxymethyl-Radikals deaktiviert wird. Alle Radikale werden unter verschiedenen Bedingungen beobachtet und sind durch den Triplettmechanismus und teilweise durch ST . spinpolarisiert;-;-;-;https://link.springer.com/article/10.1163/156856700X00570 ef06edf016b2ee29f567fb664c0c30d4;de;;;2.4.;;;Muskel-Skelett-Tumoren Sarkome sind eine heterogene Gruppe von Tumoren, die aus mesenchymalen Geweben stammen. Schätzungen der American Cancer Society zufolge werden 1998 etwa 9.400 neue Fälle diagnostiziert, darunter 7.000 Fälle von Weichteilsarkomen und 2.400 Fälle von Knochentumoren [1]. Weichteilsarkome sind extrem seltene Tumoren, stellen 0,7 % der malignen Erkrankungen im Erwachsenenalter dar [1], treten häufiger bei Kindern auf und werden als 6,5 % aller Krebserkrankungen bei Kindern unter 15 Jahren angegeben. Weichteilsarkome sind die fünfthäufigste Krebstodesursache in dieser Altersgruppe, und in den USA werden 1998 voraussichtlich 4.300 Todesfälle durch diese Krankheit auftreten [1]. Knochensarkome machen 0,2 % aller primären Krebserkrankungen bei Erwachsenen und etwa 5 % der malignen Erkrankungen im Kindesalter aus, 1400 Todesfälle werden in den USA 1998 durch Knochensarkome verursacht [1].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-59879-1_16 1090c949d39a8bd7cb5ebdb98a9ac92b;de;;;2.4.;;;Grundlegende Navigation, Führung und Steuerung eines unbemannten Oberflächenfahrzeugs In diesem Artikel wird das Navigations-, Leit- und Kontrollsystem (NGC) eines unbemannten Oberflächenfahrzeugs (USV) anhand erweiterter Seeversuche mit dem Prototyp des autonomen Katamarans Charlie diskutiert. Insbesondere demonstrieren Experimente die Wirksamkeit eines erweiterten Kalman-Filters und einfacher PID-Steuerungs- und Steuergesetze sowohl für die Präzision als auch für den Stromverbrauch, um grundlegende Steueraufgaben wie Auto-Kurs, Auto-Geschwindigkeit und Geradeausfahrt mit einem USV auszuführen, das nur mit GPS und Kompass.;-;-;-;https://link.springer.com/article/10.1007/s10514-008-9100-0 bc59b830896a29181fc45448ec38d1d6;de;;;2.4.;;;Multimodale Bildgebung bei pädiatrischen Atemwegserkrankungen: Indikation und Technik Angeborene und erworbene Anomalien der Atemwege stellen eine relativ häufige, wenn auch diagnostische und therapeutische Herausforderung dar, selbst für die erfahrensten Ärzte in speziellen Zentren. Atemwegsfehlbildungen umfassen ein breites Spektrum von Erkrankungen des Kehlkopfes, der Luftröhre und der Bronchien, der Speiseröhre und der mediastinalen Gefäße. Diese Entwicklungsläsionen sind oft isoliert, aber die Assoziation von zwei oder mehr Anomalien ist nicht selten. Von der traditionellen Röntgenaufnahme des Brustkorbs bis hin zu den neuesten Anwendungen der optischen Kohärenztomographie stellen nicht- oder mini-invasive Diagnosetechniken nützliche Werkzeuge dar, um invasive Verfahren zu integrieren. Umfassende Kenntnisse über die Eigenschaften jedes diagnostischen Tests sind für seine sinnvolle Anwendung zwingend erforderlich. Das Ziel unserer Arbeit ist es, die klinischen Indikationen für die Bildgebung der Atemwegserkrankung bei pädiatrischen Patienten zu analysieren und die diagnostischen Techniken zu beschreiben. Nur durch eine enge Interaktion zwischen allen an der Diagnose und Behandlung von pädiatrischen Atemwegen beteiligten Operateuren, wie es im multidisziplinären Airway Team geschieht, ist die nicht- oder mini-invasive Bildgebung effektiv.;-;-;-;https://link.springer.com/article/10.1007/s11547-017-0737-7 d324e27fb1cf5931e17c08a9a85f76bf;de;;;2.4.;;;Produktentwicklung Die Entwicklung neuer Produkte ist eine der großen Herausforderungen für die Vermarktung von Finanzdienstleistungen. Der intensive Wettbewerb, Deregulierung, drastische Umweltveränderungen und technologische Entwicklungen auf den Finanzmärkten haben zur Einführung innovativerer Produktentwicklungssysteme geführt. Im Vergleich zu den anderen drei Hauptelementen des Marketing-Mix (Preis, Promotion und Ort oder Vertrieb) ist die Produktentwicklung relativ kostengünstiger und flexibler umzusetzen. Promotion und Werbung im Allgemeinen sind sehr kostspielig und erfordern langfristige Investitionsbudgets, der Vertrieb ist sicherlich eine langfristige Entscheidung und erfordert auch große Investitionen in Immobilien und/oder Computer- und Vertriebssysteme, die Preisgestaltung ist bei Finanzdienstleistungen nicht so flexibel es ist in Sachgütersektoren oder Industrien. Daher ist die Produktentwicklung eines der kostengünstigsten und flexibelsten Marketing-Mix-Elemente, die es gibt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-24475-1_4 cb0b66aba2a30d6c39129b769135d091;de;;;2.4.;;;Die Hochburg des Nationalstaats: Strafverfolgungsbehörden In diesem Kapitel werden wir die Durchsetzung über die gesetzliche Abschlussprüfung und Gerichtsverfahren hinaus erörtern. Dabei handelt es sich um polizeiliche Vorkehrungen in Form systematischer und institutionalisierter Überprüfungen zuvor geprüfter Finanzinformationen, die von einer oder mehreren Stellen durchgeführt werden. Diese Durchsetzungsmechanismen sind ein zusätzlicher Schutz in der Finanzberichterstattung. Während sich Prüfungen und Gerichtsverfahren auf einzelne Finanzberichte beziehen, richten sich Polizeimaßnahmen an die Allgemeinheit. Abschlüsse, die von den Abschlussprüfern freigegeben wurden, werden im Rahmen von polizeilichen Maßnahmen erneut geprüft, um vom Abschlussprüfer übersehene oder möglicherweise geduldete Betrugsfälle aufzudecken. Nachprüfungen können bei Verdacht angeordnet werden oder unabhängig von der mutmaßlichen Qualität der Gutachten erfolgen. Der erste Ansatz wird allgemein als reaktiv bezeichnet, der zweite als proaktiv. Ein solcher zusätzlicher Mechanismus wurde erstmals im goldenen Zeitalter des Nationalstaats von der US-amerikanischen Börsenaufsicht SEC eingeführt, während in Europa erst kürzlich ähnliche Regelungen aufgekommen sind. Als institutioneller Teil der Kapitalmarktaufsicht haben sich die Durchsetzungssysteme in Deutschland, Großbritannien und den USA sehr heterogen entwickelt: Während das US-System auf eine starke öffentliche Behörde angewiesen ist, haben die erstgenannten Länder weitere private Stellen gegründet, die eng mit der öffentliche Sektor.;-;-;-;https://link.springer.com/chapter/10.1057/9780230582866_7 ba0a818f81b8c481e328b716f529796b;de;;;2.4.;;;Die unternehmensinterne Wassermann Supply Chain Philosophie Dieses Kapitel veranschaulicht, wie unsere Philosophie auf Ihr Unternehmen angewendet werden kann, um sichere Prozesse und Termine zu erreichen sowie das ertragsstarke Potenzial Ihrer Unternehmensorganisation zu realisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-56726-1_3 5aec27c47c635be8cd0c3a0c9f32ad30;de;;;2.4.;;;Die nächste Generation der Markenmessung Dieses Papier fasst die wichtigsten Punkte der Debatte über die Markenbewertung zusammen, kritisiert die bisherigen Fortschritte und blickt auf die nächste Generation der Markenmessung.;-;-;-;https://link.springer.com/article/10.1057/bm.1998.33 a72f438bdf656b5c85565072b48e5de1;de;;;2.4.;;;Niederdruck-Plasmabehandlung von CFK-Substraten zur Epoxid-Klebe-Verklebung: eine Untersuchung der Wirkung verschiedener Prozessgase Diese Arbeit berichtet über eine systematische und quantitative Bewertung der Auswirkungen verschiedener Vakuum-Kalt-Plasma-Behandlungen auf die Hafteigenschaften von kohlenstofffaserverstärkten Polymer (CFK)-Substraten. Insbesondere wurde die Oberflächenaktivierung der CFK-Substrate unter Verwendung mehrerer Kombinationen von Belichtungszeit, Plasmaleistung und Prozessgas (Luft, O;-;-;-;https://link.springer.com/article/10.1007/s00170-019-03350-9 10c7e913f56e63098ac02537c6cba4bc;de;;;2.4.;;;Die Wirkung einer Keimbahnmutation im APC-Gen auf β-Catenin in humanen embryonalen Stammzellen Die meisten Fälle von Darmkrebs (CRC) werden durch Inaktivierungsmutationen im APC-Gen ausgelöst, das ein negativer Regulator des Wnt-β-Catenin-Signalwegs ist. Patienten mit familiärer adenomatöser Polyposis (FAP) erben eine Keimbahnmutation in einem APC-Allel, und der Verlust des zweiten Allels führt zur Entwicklung von Polypen, die bösartig werden, wenn sie nicht entfernt werden. Es ist nicht vollständig geklärt, welche molekularen Mechanismen durch APC-Verlust aktiviert werden und wann der Verlust des zweiten APC-Allels eintritt.;-;-;-;https://link.springer.com/article/10.1186/s12885-016-2809-9 b3d4b38618f046a1ec0e02dbc8a05e3d;de;;;2.4.;;;Art der Aphasie und Lokalisation der Läsionen Wir untersuchten eine Reihe von 33 Kindern mit erworbener Aphasie, um die Beziehung zwischen der Art der Aphasie und der Läsionsstelle zu bestimmen. Es waren 17 Rüden und 16 Hündinnen. Das Erkrankungsalter lag zwischen 1,8 und 15 Jahren. Die Ätiologie war variabel (14 Traumata, 13 vaskuläre, 4 infektiöse und 2 Tumore). Mutismus war in der akuten Phase, insbesondere bei vaskulären und traumatischen Fällen, sehr häufig und ging überwiegend mit frontalen oder subkortikalen Läsionen einher. Wir fanden alle Arten von Aphasie, die bei Erwachsenen beschrieben wurden, aber jüngere Kinder hatten überwiegend nicht fließende Formen. Die Lokalisation der Läsionen stand in gleicher Weise wie bei Erwachsenen im Zusammenhang mit Sprachfluss, gestörtem Verständnis und Art der Aphasie. Diese Studie legt nahe, dass die intrahemisphärische Spezialisierung für Sprache früh im Leben etabliert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-3582-5_12 76e73b212ae11fcd853f0e61ebc17e3b;de;;;2.4.;;;Vergangene Katastrophen In den Teilen I und II haben wir uns mit der Natur von Finanzkatastrophen und der Reihe von Risikomanagementinstrumenten und -techniken befasst, die für das Risikomanagement verfügbar sind. Wir haben auch festgestellt, dass der theoretische Rahmen für das Risikomanagement nicht immer wie beabsichtigt funktioniert – schon allein deshalb, weil wir uns mit Ereignissen beschäftigen, die weit weg von der komfortablen Welt normalverteilter Ereignisse sind.;-;-;-;https://link.springer.com/chapter/10.1057/9780230243323_6 f8e3fee02a19fc94f516f91cd0dc17a7;de;;;2.4.;;;Der Kampf zwischen privat und öffentlich: Der Fall der Börsen Kapitalmärkte sind heute ein wesentlicher Bestandteil einer starken Wirtschaft. Sie erleichtern die Bildung und Allokation von Kapital, das für das Wirtschaftswachstum notwendig ist (Healy und Palepu 2001). Kapitalmärkte funktionieren nur dann gut, wenn sie mit Informationen handeln können. Diese Informationen können als Insiderinformationen oder als Offenlegung an den Markt gelangen. Die Nutzung von Insiderinformationen, insbesondere Wissen einer Teilmenge von Eigentümern und Managern, verschafft manchen Käufern und Verkäufern einen Vorteil: Informierte Insider können Wissen, das sie nur aufgrund ihrer privilegierten Stellung im Unternehmen erhalten haben, auf Kosten von außenstehenden Aktionären ausnutzen. Die Offenlegung, die gleichzeitige Weitergabe von Informationen an alle Marktteilnehmer, verhindert diese unerwarteten Gewinne. Damit die Märkte für Außenstehende attraktiv werden, spielen obligatorische und freiwillige Offenlegungen eine wichtige Rolle bei der Stärkung der Aktienmärkte.;-;-;-;https://link.springer.com/chapter/10.1057/9780230582866_5 7a2ca94367855f2e870e6e23647d0247;de;;;2.4.;;;Lösungen für offene Fragen für nicht-U-förmiges Lernen mit Gedächtniseinschränkungen Eine U-Form tritt auf, wenn ein Lernender zuerst ein Zielkonzept lernt, dann verlernt und schließlich wieder lernt. Im Rahmen der Induktiven Inferenz haben bisherige Ergebnisse beispielsweise gezeigt, dass U-Formen für das erklärende Lernen unnötig sind, aber für verhaltenskorrektes Lernen notwendig sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16108-7_24 0d6051f1eb559fed414644c440d9ec64;de;;;2.4.;;;Variationen des U-förmigen Lernens Die Arbeit beschäftigt sich mit folgendem Problem: Ist eine Rückkehr zu falschen Vermutungen notwendig, um die volle Lernfähigkeit zu erlangen? Die Rückkehr zu falschen Vermutungen ergänzt das Paradigma von;-;-;-;https://link.springer.com/chapter/10.1007/11503415_26 ee1a90569ac388e46543e95e72fc4fd4;de;;;2.4.;;;Optimale Leistung des Wasserkraftwerks basierend auf der groben Mengenlehre Im optimalen Speicherbetrieb gibt es große Mengen an unsicheren und unvollkommenen Faktoren in den Zuflüssen. Die Rough-Set-Theorie, die im Umgang mit unscharfen und unvollkommenen Problemen durchaus Feinheit ist, ist ein mächtiges Werkzeug in Data Mining, Knowledge Discovery und künstlicher Intelligenz. Im Vergleich zu allgemeinen optimierten Ergebnissen, die nur durch Wasserstand und Zufluss des Reservoirs in der aktuellen Zeit bestimmt werden, ist die auf Rough Set basierende Regel von größerer Flexibilität und elektrischer Energie, aufgrund derer Informationen aus der Entscheidung impliziert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25781-0_10 3a6eb8785bd375d6641db491ede1f5b1;de;;;2.4.;;;Realistische Simulation der Mikrostruktur des Brustgewebes in Software-Anthropomorphen Phantomen Anthropomorphe Brustphantome wurden in virtuellen klinischen Studien zur präklinischen Validierung von Brustbildgebungssystemen verwendet. Die Qualität der virtuellen Studie hängt weitgehend von der Realitätsnähe der simulierten Brustanatomie ab. Unser Phantomdesign konzentrierte sich auf die Simulation großer und mesoskaliger anatomischer Strukturen, einschließlich der Brustkontur, der Haut und der Matrix von Coopers Bändern und Gewebekompartimenten. Der Realismus eines solchen Designs wurde in vergleichenden Studien von Phantom- und klinischen Leistungsspektren und der Parenchymtextur bestätigt. Wir präsentieren eine neuartige Methode zur Simulation der hierarchischen Organisation von Brustgewebe-Unterkompartimenten, die in detaillierten histologischen Bildern zu sehen ist. Die Unterteilung führt in Brustphantome eine Mikrostruktur ein, was zu einem verbesserten Realismus der Phantombilder führt. Die qualitative Validierung von Phantomen mit simulierter Mikrostruktur wird in diesem Beitrag diskutiert, die quantitative Validierung läuft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07887-8_49 1a964087855700d9353ec6e2d26e931d;de;;;2.4.;;;Formalismen mit ORM-Modellen visualisieren Bei der Entwicklung theoretischer Frameworks stellen Forscher häufig formale Textnotationen als Teil einer entwickelten Theorie grafisch dar. Dies kann zu Bereicherungen und neuen Erkenntnissen bezüglich einer Theorie führen. Eine Möglichkeit zur grafischen Darstellung von Formalismen ist die Verwendung von Modellierungssprachen wie ORM. Dieser Beitrag befasst sich mit der Technik der Visualisierung von Formalismen unter Verwendung von ORM-Modellen und zeigt die Vorteile der grafischen Darstellung eines formalen theoretischen Rahmens. Eine Anwendung des bereits erfolgreich praktizierten Ansatzes wird ausgearbeitet. Diese Anwendung betrifft einen theoretischen Rahmen bestehend aus wissensintensiven Aufgabeneigenschaften und zeigt, wie der Ansatz zur Visualisierung von Formalismen mit ORM umgesetzt werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76888-3_93 e0c5b48f59685a5ee6374d065c59f864;de;;;2.4.;;;Implementierung kapazitiver Sonden für Ultra-Hochpräzisionsmaschine zur Zylindrizitätsmessung mit Nanometergenauigkeit Kapazitive Sonden werden häufig auf neuen Ultrahochpräzisionsmaschinen verwendet, um Messungen mit einer Unsicherheit von wenigen Nanometern durchzuführen, insbesondere bei Zylindrizitätsmessgeräten. Aus diesem Grund muss ihre in-situ-Kalibrierung unter Verwendung einer bestimmten Struktur durchgeführt werden. Daher wurde ein vorläufiger Hochpräzisionsaufbau entworfen und hergestellt, um das Verhalten und die Implementierung der kapazitiven Sonden zu untersuchen. Sowohl die Anzahl als auch die Positionen der kapazitiven Sonden in der Anordnung werden dargestellt und detailliert, um zu begründen, wie sie die homogenen Wärmeausdehnungseffekte minimieren. Der Versuchsaufbau ermöglicht die Validierung des in-situ-Kalibrierprinzips der kapazitiven Sonden im Hinblick auf die Laserinterferometer. Die aufgezeichneten Restfehler betragen ca. 2 nm über den 80 µm-Verfahrbereich. Der Effekt eines Querversatzes der kapazitiven Sonde von der Mantellinie des Zylinders wurde sowohl experimentell als auch theoretisch untersucht und zeigt eine gute Übereinstimmung.;-;-;-;https://link.springer.com/article/10.1007/s12541-015-0116-z c525fe1fdf97bf187bbae65db51653c1;de;;;2.4.;;;CBR-basierte Wissensentdeckung zu Ergebnissen des evolutionären Designs von Logikschaltungen Der automatisierte Entwurf von Schaltungen ist eine lebenswichtige Aufgabe, die aufgrund des Konflikts zwischen immer größer werdenden Maßstäben und Komplexitäten von Schaltungen und dem langsamen Erwerb von relevantem Wissen immer anspruchsvoller wird. Evolutionäres Schaltungsdesign (EDC) in Kombination mit Data Mining ist ein vielversprechender Weg, das Problem zu lösen. Um die EDC hinsichtlich Effizienz, Skalierbarkeit und Optimierungsfähigkeit zu verbessern, wird eine neuartige Technik entwickelt. Es verfügt über einen adaptiven genetischen Algorithmus mit mehreren Zielen und Interaktionen zwischen EDC und Data Mining. Die vorgeschlagene Methode wird durch die Experimente an arithmetischen Schaltungen validiert und zeigt viele spannende Ergebnisse, insbesondere einige neue Erkenntnisse aus den EDC-Daten.;-;-;-;https://link.springer.com/chapter/10.1007/11811305_96 1b1317de2422c93430271c48ed751c1b;de;;;2.4.;;;Ein fortschrittlicher Algorithmus für die beleuchtungsbasierte Synchronisation von High-Speed-Vision-Sensoren in dynamischen Szenen Um Bilder dynamischer Szenen aus mehreren Blickwinkeln gleichzeitig zu erfassen, sollte die Erfassungszeit von Vision-Sensoren synchronisiert werden. In diesem Papier wird ein fortschrittliches beleuchtungsbasiertes Synchronisationsverfahren vorgeschlagen und bewertet, das aus dem Phasenregelkreis (PLL) abgeleitet ist. Um die Abhängigkeit des Systemverhaltens von der Amplitude der Beleuchtung zu beseitigen, die durch sich bewegende Objekte oder die Positionsbeziehung von Beleuchtung und Objekten beeinflusst werden kann, wird der Rückkopplungsbetrag des PLL-Systems pro Frame durch die geschätzte Amplitude des Referenzsignals normiert um auch in hochdynamischen Szenen eine stabile Synchronisation zu erzeugen. Sowohl simulierte Ergebnisse als auch reale Experimente zeigten eine erfolgreiche Synchronisation, dass ein Vision-Sensor mit einer Bildrate von 1.000 Hz erfolgreich sowohl mit direkter als auch mit indirekter Beleuchtung mit nur 28-;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16587-0_35 b9e63b8289fc53f9324e613c26ae999d;de;;;2.4.;;;Einige Ergebnisse zur automatischen Photometrie fotografischer Chromosphärenbilder Es werden die Ergebnisse einer explorativen Arbeit zur Verwendung eines computergesteuerten Hochgeschwindigkeitsflugflecks zur quantitativen Photometrie von solaren Hα-Bildern vorgestellt. Die verwendete Methode wird kurz erläutert und auf das Studium der photometrischen Struktur und Entwicklung einiger aktiver Bereiche der Chromosphäre angewendet. Evolutive Kurven und Isophoten für die Plagen vom 27. Oktober 1969 (McMath 10381 und 10385) werden vorgestellt.;-;-;-;https://link.springer.com/article/10.1007/BF00167549 0bf6aabae6eccbec1134c983f754b9bb;de;;;2.4.;;;Extraktion von Regeln aus der Datenbank für koronare Herzkrankheiten unter Verwendung automatisch definierter Gruppen Ein Großteil der Forschung zum Extrahieren von Regeln aus einer großen Datenmenge konzentrierte sich auf die Extraktion einer allgemeinen Regel, die so viele Daten wie möglich erfüllt. Auch im Gesundheitswesen, wo das Leben von Menschen auf dem Spiel steht, sind die Ausnahmeregelungen für seltene Fälle wichtig. In diesem Papier beschreiben wir den Wissenserwerb aus Daten, die solche multiplen Regeln enthalten. Wir sind der Ansicht, dass ein Ansatz mit mehreren Agenten effektiv ist, um mehrere Regeln zu extrahieren. Um diesen Ansatz zu verwirklichen, schlagen wir eine neue Methode vor, die eine verbesserte Methode der genetischen Programmierung verwendet, Automatically Defined Groups (ADG). Durch die Verwendung dieser Methode wird das Clustering von Daten durchgeführt, indem Rollen zwischen Agenten geteilt werden, und jeder Agent übernimmt die Regelextraktion in den zugewiesenen Daten. Als Ergebnis werden alle Regeln durch Multi-Agenten-Kooperation extrahiert. Wir haben diese Methode auf Datenbanken für koronare Herzkrankheiten angewendet und die Wirksamkeit dieser Methode gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30133-2_145 75dd6847c7745a9240ad35e2b8be5e4c;de;;;2.4.;;;Jüngste Trends im grenzüberschreitenden Bankgeschäft In diesem Kapitel werden eine Reihe neuer Trends im europäischen grenzüberschreitenden Bankgeschäft aufgezeigt. Die Autoren unterscheiden zunächst zwei Hauptmodi des internationalen Bankgeschäfts: das grenzüberschreitende gegenüber dem multinationalen Bankgeschäft. Cross-Border Banking liegt vor, wenn eine Bank in Land A einem Kreditnehmer in Land B direkt Kredite verleiht Zweigniederlassung oder Tochtergesellschaft) in Land B. Das Kapitel beschreibt, welche Länder stärker auf Cross-Border Banking und welche auf multinationales Banking setzen und bewertet, wie sich beide Formen der Bankenintegration während der jüngsten Krisen entwickelt haben. Der Rest des Kapitels konzentriert sich dann auf Trends in den Finanzierungsstrukturen europäischer Banken, die Herkunftsländer des grenzüberschreitenden und multinationalen Bankgeschäfts und das jüngste Wachstum der Märkte für Unternehmensanleihen in Europa als Alternative zu Bankkrediten.;-;-;-;https://link.springer.com/chapter/10.1057/978-1-137-52144-6_18 3ca7e987fadc960071a36f7ad33c78db;de;;;2.4.;;;Analyse der Entwicklung britischer Märkte und Finanzintermediäre Das britische Finanzsystem hat seit den frühen 1980er Jahren rasante strukturelle Veränderungen durchgemacht. Viele evolutionäre Kräfte haben diese Entwicklungen geleitet. Das volatile Marktumfeld in dieser Ära, gepaart mit dem gestiegenen Wettbewerbsbewusstsein der Finanzinstitute und dem weltweiten Trend zur Deregulierung der Finanzsysteme, führten zu einer neuen „Dynamik“ an den britischen Finanzmärkten. Die Hauptaspekte dieser Entwicklungen werden in diesem Kapitel diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-21153-1_2 3b12a2451981c00e19ab70c7cff734bd;de;;;2.4.;;;Getreideproduktionstrends in Russland, der Ukraine und Kasachstan: Neue Chancen in einer zunehmend instabilen Welt? Die Getreideproduktion in den Ländern der ehemaligen UdSSR ist in den letzten zwei Jahrzehnten stark zurückgegangen und hat erst vor kurzem begonnen, sich zu erholen. Im Kontext der aktuellen Wirtschafts- und Nahrungsmittelpreiskrise könnten Russland, die Ukraine und Kasachstan eine Chance bieten, wieder auf dem globalen Agrarmarkt aufzutauchen, wenn es ihnen gelingt, ihre Produktivität zu steigern. Die Zukunft ihrer Landwirtschaft hängt jedoch stark von einer Kombination interner und externer Faktoren ab, wie etwa institutionelle Veränderungen, Landnutzungsänderungen, Klimaschwankungen und -änderungen sowie globale Wirtschaftstrends. Die Zukunft der Getreideproduktion in dieser Region dürfte in den nächsten Jahrzehnten einen erheblichen Einfluss auf die globale und regionale Ernährungssicherheit haben.;-;-;-;https://link.springer.com/article/10.1007/s11707-012-0318-y 59929b3f55e736edaf5e302a658ad34b;de;;;2.4.;;;Algorithmus zur Erkennung des gemeinsamen Zustands und seine Anwendung in drahtlosen UWB-Kommunikationssystemen In diesem Papier wird ein neuartiges Konzept des gemeinsamen Zustands von Eingabe und Ausgabe von Encodern vorgeschlagen. Darauf basierend wird ein rekursiver Algorithmus vorgeschlagen, der die Multisymbol-Differenzerkennung als Kriterium der maximalen Wahrscheinlichkeit implementiert. Simulationsergebnisse zeigen, dass seine Leistung sich an die theoretische Grenze der Multisymbol-Differenzerkennung annähern kann, ohne die Komplexität pro Symbol zu erhöhen, und dass es in praktischen Systemen effektiv ist. Es ist auch ein optimaler Algorithmus, um die Probleme des Schätzens der Zustandsfolge des endlichen Markov-Prozesses zu lösen, die in gedächtnislosem Rauschen beobachtet wird.;-;-;-;https://link.springer.com/article/10.1007/s11432-007-0060-3 41ab64b04b1dac766c9ceb41f2ee7143;de;;;2.4.;;;Zusammensetzung von Gehölzen in einem dynamischen Wald-Wald-Savanne-Mosaik in Uganda: Implikationen für Schutz und Management Wald-Wald-Savanne-Mosaiken sind ein gemeinsames Merkmal der ostafrikanischen Landschaft. Um die in solchen Landschaften vorkommenden Gehölze zu erhalten, müssen die Artenmuster und die sie erhaltenden Faktoren verstanden werden. Wir untersuchten die Verteilung der Gehölze in einem Wald-Wald-Savanne-Mosaik im Budongo Forest Reserve, Uganda. Die vorhandenen Vegetationsgradienten wurden anhand von Daten von insgesamt 591 Parzellen von 400 bzw. 500 m² analysiert;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-5208-8_23 64f943078f500dae5c2415178eeda864;de;;;2.4.;;;Ein lokaler Graph-Clustering-Algorithmus zur Entdeckung von Teilzielen beim Reinforcement Learning Reinforcement Learning untersucht das Problem des Lernens durch Interaktion mit der unbekannten Umgebung. Effizientes Lernen bei großen Problemen und komplexen Aufgaben erfordert eine Zerlegung der ursprünglichen komplexen Aufgabe in einfache und kleinere Teilaufgaben. In diesem Beitrag wird ein lokaler Graph-Clustering-Algorithmus zum Auffinden von Teilzielen dargestellt. Der Hauptvorteil des vorgeschlagenen Algorithmus besteht darin, dass nur die lokalen Informationen des Graphen berücksichtigt werden, um den Agentenzustandsraum zu gruppieren. Die vom Algorithmus entdeckten Teilziele werden dann verwendet, um Fähigkeiten zu generieren. Experimentelle Ergebnisse zeigen, dass der vorgeschlagene Subziel-Discovery-Algorithmus einen dramatischen Einfluss auf die Lernleistung hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17604-3_5 9e8c44c47efca28f7cacf4fce1c53233;de;;;2.4.;;;Die Erforschung von 3D-Stromnetzen basierend auf Big Data Die visuellen Grafiken können die versteckten Beziehungen zwischen verschiedenen Daten nach Farbe, Ort und topologischer Struktur widerspiegeln. Dieses Papier schlägt ein 3D-Stromnetz-Framework vor, indem Big Data- und 3D-Visualisierungstechnologien integriert werden, um eine flexible, mehrdimensionale, dynamische und panoramische Anzeige von Stromdaten zu erreichen. Das vorgeschlagene Framework besteht aus Datenerfassung, Datenanalyse und Mining sowie einem 3D-Visualisierungsmodul. Wir haben die 3D-Methode aus Modellierungs-, Management- und Visualisierungstechniken detailliert beschrieben und die Modellierungselemente aus Geodaten, elektrischen Grafikdaten, elektrischen Attributdaten und Data-Mining-Ergebnisdatensätzen analysiert. Schließlich geben wir zwei Szenarien des 3D-Stromversorgungssystems. Die meisten der in diesem Dokument verwendeten Tools sind Open-Source-Software. Dies kann die Systemstabilität gewährleisten, flexibel und einfach für die Verwaltung großer verteilter Datenressourcen zu verwenden sein und eine doppelte Systementwicklung vermeiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2384-3_9 b285a9cf02f2f34c9104c12f319045d9;de;;;2.4.;;;Der Beitrag der Fernerkundung zur Beobachtung, Überwachung und zum Schutz der Umwelt Wenn man heute für die Umwelt spricht, ist es notwendig, die partiellen, fragmentierenden und (auch wenn die Absichten gut sind) irreführende malerische Überlegungen wegzulassen, die, ob absichtlich oder nicht, die historischen, sozialen, wirtschaftlichen, kulturellen, politischen und entwicklungspolitischen Aspekte außer Acht lassen Umstände, durch die und aus denen dies bestimmt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1443-3_11 84b9a60b39234c543a67f2cf1fc5fc9f;de;;;2.4.;;;Ein Erdbebenüberwachungssystem von LoRa Dynamic Networking basierend auf AODV In den letzten Jahren kommt es immer häufiger zu Erdbebenkatastrophen, die große Verluste an Leben und Eigentum von Menschen zur Folge haben. Um das Erdbeben besser bewerten und vorhersagen zu können, ist es von großer Bedeutung, ein System zu entwickeln, das die seismischen Daten effektiv sammeln kann, wenn ein Erdbeben auftritt. Die drahtlose LoRa-Kommunikation hat die Vorteile eines geringen Stromverbrauchs, einer langen Kommunikationsentfernung und einer starken Entstörungsfähigkeit. In diesem Artikel wird das LoRa-Netzwerk verwendet, um die vom seismischen Sensor gesammelten Daten auf die LoRa-Basisstation hochzuladen. Dann werden die Daten über 4G an den Cloud-Server gesendet und schließlich von der Arbeitsplattform empfangen. Angesichts der Knotenschäden während des Erdbebens wird das AODV-Protokoll verwendet, um die Übertragung der Erfassungsdaten in Form einer dynamischen Vernetzung sicherzustellen. Das Ergebnis zeigt, dass das auf dem AODV-Protokoll basierende Überwachungssystem des seismischen Überwachungssystems des LoRa-Netzwerks stabil läuft und zuverlässige seismische Daten erhalten kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8411-4_84 4ea042e230ab86f7c1bfd45563757cbe;de;;;2.4.;;;Änderungen der elektrokardiographischen Signale während des Trainings im Simulator für laparoskopische Chirurgie: Ein vorläufiger Bericht Ziel dieser Arbeit ist es, physiologische Charakteristika des Lernprozesses bei Assistenzärzten zu identifizieren. Als explorativer Ansatz sind wir daran interessiert, statistisch signifikante Veränderungen in elektrokardiographischen (EKG)-Signalen zu bestimmen, die aufgezeichnet wurden, während eine Gruppe von elf Assistenzärzten im ersten Jahr der Allgemeinchirurgie drei grundlegende Aufgaben des laparoskopischen Simulators LapSim® der virtuellen Realität (VR) durchführte. Diese Signale wurden verarbeitet und die Herzfrequenz (HF) wurde berechnet, um sie zusammen mit der Gesamtpunktzahl für jede Übung zu analysieren. Die statistische Analyse wurde mittels Varianzanalyse durchgeführt, die die Auswirkungen der Trainingseinheit, der Schwierigkeit der Aufgabe und des Geschlechts der Teilnehmer auf Herzfrequenz und Leistung zeigt. Unsere vorläufigen experimentellen Ergebnisse zeigen, dass sich die Punktzahl in den Aufgaben mit der Trainingseinheit verbessert, wobei es bei den Frauen zu signifikanten Veränderungen kommt. Die HR-Analyse zeigte, dass sie mit der Komplexität der Aufgabe zunimmt. Außerdem zeigte der Einfluss des Geschlechts auf die HR, dass es in der männlichen Gruppe signifikante Veränderungen mit der Schwierigkeit der Aufgabe und eine Abnahme mit der Trainingseinheit in der mittleren Schwierigkeitsstufe gab.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00353-1_25 8e825245ac2eefbec8d12e34beb548ea;de;;;2.4.;;;Ein automatisierter Ansatz zur konnektivitätsbasierten Partitionierung von Gehirnstrukturen Wir präsentieren einen automatisierten Ansatz für das Problem der konnektivitätsbasierten Partitionierung von Gehirnstrukturen mittels Diffusionsbildgebung. Fasern der weißen Substanz verbinden verschiedene Bereiche des Gehirns und ermöglichen es ihnen, miteinander zu interagieren. Die Diffusions-Tensor-MRT misst die Orientierung von Fasern der weißen Substanz;-;-;-;https://link.springer.com/chapter/10.1007/11566465_21 d2713dd1daafbc20fe6c3c28164471f7;de;;;2.4.;;;Eine empirische Studie zum Einsatz von Standardkomponenten in Industrieprojekten Der Einsatz von OTS-Komponenten (Off-The-Shelf) in Softwareprojekten wird in der IT-Branche immer beliebter. Nachdem sich Projektmanager für OTS-Komponenten entschieden haben, können sie sich entscheiden, COTS-Komponenten (Commercial-Off-The-Shelf) oder OSS-Komponenten (Open Source Software) zu verwenden, anstatt diese selbst zu bauen. Dieses Papier beschreibt eine empirische Studie, warum Projektentscheidungsträger COTS-Komponenten anstelle von OSS-Komponenten verwenden oder umgekehrt. Die Studie wurde in Form einer internationalen Umfrage zu Motivation und Risiken der Verwendung von OTS-Komponenten durchgeführt, die in Norwegen, Italien und Deutschland durchgeführt wurde. Wir haben derzeit Daten zu 71 Projekten gesammelt, die nur COTS-Komponenten verwenden, und 39 Projekten, die nur OSS-Komponenten verwenden, und 5, die sowohl COTS- als auch OSS-Komponenten verwenden. Die Ergebnisse zeigen, dass sowohl COTS- als auch OSS-Komponenten in kleinen, mittleren und großen Softwarehäusern und IT-Beratungsunternehmen eingesetzt wurden. Das gesamte Softwaresystem deckt auch mehrere Anwendungsdomänen ab. Sowohl COTS als auch OSS sollten zu einer kürzeren Markteinführungszeit, geringerem Entwicklungsaufwand und dem Einsatz neuester Technologien beitragen. COTS-Benutzer glauben jedoch, dass die COTS-Komponente eine gute Qualität und technischen Support bieten sollte und dem Markttrend folgen wird. OSS-Benutzer kümmern sich mehr um das freie Eigentum und die Offenheit des Quellcodes. Projekte mit COTS-Komponenten hatten größere Schwierigkeiten, den Auswahlaufwand abzuschätzen, Änderungen der Kundenanforderungen zu folgen und die negativen Auswirkungen der Komponente auf die Systemsicherheit zu kontrollieren. Auf der anderen Seite hatten OSS-Benutzer größere Schwierigkeiten, den Ruf des Supports von OSS-Komponentenanbietern zu erlangen.;-;-;-;https://link.springer.com/chapter/10.1007/11497455_7 3c7873f4efb1396f868b739142c7e51a;de;;;2.4.;;;Thermoanalytische Studie zu Staub bei der Edelstahlherstellung Ein thermogravimetrischer Analysator (TGA) wurde verwendet, um das thermische Verhalten von Staub bei der Edelstahlherstellung zu bestimmen, und FTIR wurde verwendet, um die Bestandteile des Abgases zu erkennen. Die TGA-Ergebnisse zeigen, dass in dem thermischen Prozess drei Massenverlust/-zunahme-Stufen existieren. Der Massenverlust des Staubes in der ersten Stufe resultiert aus der Verdunstung von Feuchtigkeit und der Reaktion zwischen dissoziiertem Kohlenstoff und Metalloxiden im Staub. Die Verdunstung von Feuchtigkeit im Staub erfolgt bei 90–350 °C und die Bildung von Kohlendioxid erfolgt bei 250–470 °C. Der Massengewinn des Staubes in der zweiten Stufe resultiert aus der Oxidation von Metallen im Staub durch den Sauerstoff bei 470–950 °C. Die dritte Stufe ist ein langsamer Massenverlustprozess, und einige Metalle im Staub werden in dieser Stufe in die Atmosphäre verdampft. Die Verdampfung von Metallen erfolgt hauptsächlich bei 900–1200 °C und der Staub wird bei hohen Temperaturen über 1200 °C gesintert.;-;-;-;https://link.springer.com/article/10.1007/s11771-003-0028-4 1a4672760ed527068b7dd60f42774714;de;;;2.4.;;;Visual Computing zur Erkennung von Blast- und Braunfleckenkrankheiten in Reisblättern Die automatische Diagnose von Reiskrankheiten ist ein wachsendes Forschungsgebiet in der E-Landwirtschaft. Es erhöht die Produktivität mit einer nachhaltigen Umwelt. Die Erkennung von Krankheiten im Primärstadium ist für den Landwirt eine mühsame Arbeit. Sie identifizieren die Krankheiten aus Erfahrung und wenden Pestizide in festgelegten Mengen an, die die Umwelt zusätzlich belasten. Manchmal kann die persönliche Voreingenommenheit eines Landwirts wie Müdigkeit und Sehkraft zu einer falschen Identifizierung der Krankheit führen. Um diese Herausforderungen zu meistern, wird ein automatisiertes computergestütztes System zur Erkennung von Reiskrankheiten entwickelt. Als Fallbeispiel werden die Brown Spot- und Blast-Reis-Krankheiten betrachtet. Die Bilder werden analysiert, um Textur-, Form-, Farb- und Intensitätsverteilungsmerkmale zu extrahieren, um das Krankheitsmuster zu bewerten. Zunächst werden Blatt und Stängel der Reispflanzen identifiziert, um die infizierte Region zu erkennen. Dann werden gesunde und infizierte Blätter identifiziert und schließlich Krankheiten aus den infizierten Blättern mit einer Genauigkeit von 81,81 % im IBK-Klassifikator erkannt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0829-5_56 2f697cf6060964c38ab1278e6ff4e0bf;de;;;2.4.;;;Ein einheitliches räumlich-zeitliches Beschreibungsmodell der Umgebung für intelligente Fahrzeuge Durch die Verschmelzung verschiedener externer Sensoren wie LiDAR und Kamera können intelligente Fahrzeuge in Echtzeit detailliert über ihre Umgebung informiert werden. Die Eigenschaften jedes Sensortyps bestimmen seine Spezifität in den Rohdaten, was zu Inkonsistenz von Inhalt, Präzision, Reichweite und Timing führt, was letztendlich die Komplexität der Umgebungsbeschreibungen und die effektive Informationsextraktion für weitere Anwendungen erhöht. Um die Umgebung effizient zu beschreiben, sowie die Vielfalt der notwendigen Informationen zu erhalten, schlagen wir ein von spezifischen Sensoren unabhängiges einheitliches Beschreibungsmodell zur intelligenten Fahrzeugumgebungswahrnehmung vor, das 3D-Positionen, Semantik und Zeit enthält. Die räumlich-zeitliche Beziehung zwischen verschiedenen Arten von gesammelten Daten wird hergestellt, um alle Elemente in demselben System auszudrücken. Als mögliches Implementierungsschema nutzen wir die Vorteile von LiDAR-Punktwolken und Farbbildern, um die Positionen und Semantik der Umgebungskomponenten zu erfassen. Die semantische Segmentierung basierend auf Convolutional Neural Networks (CNN) bietet eine reichhaltige Semantik für das Modell, die auch durch die Fusion von LiDAR-Punktwolken verbessert werden könnte. Wir validieren die Wirksamkeit unseres vorgeschlagenen Modells anhand des KITTI-Datensatzes und unserer eigenen erhobenen Daten und weisen qualitative Ergebnisse auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7945-5_41 ac42dcc9284c4ed62be02c87b4608a04;de;;;2.4.;;;Analyse der Segmentierung und Identifizierung von Vierkant-Sechskant-Rundlochmuttern mit Sobel und Canny Edge Detector Im bestehenden Echtzeit-Automobilgeschäft ist es schwierig, ein Objekt zu verfolgen und seine Anwesenheit zu identifizieren. Der Fehler kann aufgrund seines Fehlens oder einer falschen Übereinstimmung der Form als seine Identität auftreten. Um dies zu überwinden, schlagen wir ein Verfahren vor, das zur automatischen Identifizierung von Fahrzeugmuttern basierend auf dem Eingabebild verwendet werden kann, das eine Mutter mit Vierkant-, Sechskant-, Rundkopf- und Stiftschraubenform enthält. Die Anwendung funktioniert sogar bei klarer Sicht auf die Mutter oder auf der Oberfläche der Mutter hinzugefügte Elemente wie Schlamm, Geräusche, Farbe usw. Für den Identifizierungsprozess wurde die Datenbank so konzipiert, dass sie verschiedene Formen für eine ausgewählte Anzahl von Nussformen speichert. Durch Anwenden eines Medianfilters während der Vorverarbeitungsphase segmentierten und identifizierten der Sobel-Kantendetektor und der Canny-Kantendetektor die erfassten Bilder durch Identifizieren der Kanten, um die Form der Eingabe zu ermitteln. Bei den durchgeführten Experimenten ergibt sich die Methode mit einer Genauigkeit von 86,1875%;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9187-3_24 4e03e0b3b994aabb1a6d0dc38d5be976;de;;;2.4.;;;Funktionen des Kerns der Sehbahn (NICHT). Wir untersuchten die Rolle des Kerns des Tractus opticus (NOT) bei der Anpassung der Verstärkung des vestibulookulären Winkelreflexes (aVOR) bei Rhesus- und Cynomolgus-Affen anhand von Läsionen und vorübergehender Inaktivierung mit Muscimol. Die aVOR-Verstärkung wurde adaptiv durch erzwungene Sinusrotation (0,25 Hz, 60°/s) in einer selbststationären visuellen Umgebung, d. h. einer visuellen Umgebung, die sich mit der Person bewegt, oder durch das Tragen von 0,5-fach-Verkleinerungsgläsern bei natürlichen Kopfbewegungen reduziert. Die aVOR-Gewinne sanken nach 2 h um 20–30 % und nach 4 h um etwa 30 %. Muscimol-Injektionen verursachten einen Verlust der Anpassung der kontraversiven Augengeschwindigkeiten, die durch die aVOR induziert wurden, und ihre Zunahmen kehrten umgehend auf oder über die vorher angepassten Werte zurück. Die vom aVOR erzeugten Zuwächse der angepassten ipsiversiven und vertikalen Augengeschwindigkeiten wurden durch Muscimol-Injektionen nicht beeinflusst. Läsionen von NOT reduzierten oder beseitigten signifikant die Fähigkeit der Tiere, die Verstärkung kontraversiver aVOR-induzierter Augengeschwindigkeiten anzupassen, und die Affen waren nicht in der Lage, diese kontraversiven Augengeschwindigkeiten in einer selbststationären Umgebung zu unterdrücken. Die Läsionen beeinflussten die ipsiversiven aVOR-induzierten Augengeschwindigkeiten nicht und die Tiere waren immer noch in der Lage, sie zu unterdrücken. Läsionen von NOT wirkten sich auch auf die nicht angepassten oder standardmäßigen aVOR-Gewinne aus. Nach unilateralen NOT-Läsionen war die Zunahme der ipsiversiven aVOR-induzierten Augengeschwindigkeit reduziert, während die Zunahme der kontraversiven aVOR-induzierten Augengeschwindigkeit entweder unbeeinflusst oder leicht erhöht war. In Übereinstimmung damit reduzierten Muscimol-Injektionen in das NOT von nicht adaptierten Affen die Zunahme der ipsiversiven leicht und erhöhten die Zunahme der kontraversiven Augengeschwindigkeit um etwa 8–10%. Wir schließen daraus, dass jedes NOT ipsiversive Netzhautschlupfinformationen über die durch die aVOR induzierte Bewegung der visuellen Umgebung relativ zum Kopf verarbeitet. Bei Vorliegen einer visuellen Umgebungsbewegung wird das Netzhautschlupfsignal unterdrückt, was zu adaptiven Änderungen der Verstärkung aVOR-induzierter kontraverser horizontaler Augengeschwindigkeiten führt. NOT spielt auch eine Rolle bei der Kontrolle und Aufrechterhaltung des aktuellen Zustands der aVOR-Gewinne. Somit spielt es eine einzigartige Rolle bei der Erzeugung und Unterstützung der Anpassung der Verstärkung des horizontalen aVOR, die wahrscheinlich für die Stabilisierung des Blicks während der Kopfbewegung wichtig ist. Für diese Anpassung sind vermutlich Wege durch die untere Olive wichtig.;-;-;-;https://link.springer.com/article/10.1007/s002219900303 8806cb54bf668096c07630af1283c538;de;;;2.4.;;;Klatsch in Hülle und Fülle: Ein verkörperter Gesprächsagent zum Sammeln und Teilen von Pop-Trivia aus dem Web Dieses Papier stellt einen neuartigen Ansatz für eine selbstlernende Agentin vor, die neues Wissen aus dem Web sammelt und lernt und ihr Wissen über Dialoge mit den Benutzern austauscht. Die Anwendungsdomäne ist Klatsch über Prominente in der Musikwelt. Der Agent kann sich informieren und das erworbene Wissen aktualisieren, indem er das Web beobachtet. Fans von Musikern können nach Klatschinformationen über Stars, Bands oder mit ihnen verwandte Personen und Gruppen fragen. Dieser Agent basiert auf Technologien zur Informationsextraktion, Web-Mining, Fragebeantwortung und Dialogsystem. Die minimal überwachte maschinelle Lernmethode zur Relationsextraktion gibt dem Agenten die Möglichkeit, ständig Wissen aus dem Web zu lernen und zu aktualisieren. Die extrahierten Relationen werden strukturiert und miteinander verknüpft. Data Mining wird auf die gelernten Daten angewendet, um das soziale Netzwerk zwischen den Künstlern und verwandten Personen zu induzieren. Die wissensintensive Fragebeantwortungstechnologie, die durch domänenspezifische Inferenz und aktives Gedächtnis erweitert wird, ermöglicht dem Agenten durch Verwendung natürlicher Sprachverarbeitung lebendige und interaktive Gespräche mit Benutzern zu führen. Benutzer können ihre Fragen innerhalb der Klatschdatendomäne frei formulieren und auf unterschiedliche Weise auf die Antworten zugreifen: Textantwort, graphische Visualisierung der zugehörigen Konzepte und Sprachausgabe.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11819-7_13 8b8334c0dccdc1cf3ab96b80a49a1b35;de;;;2.4.;;;Erstellen eines Japanisch-Chinesisch-Wörterbuchs mit Kanji/Hanzi-Konvertierung Ein neues zweisprachiges Wörterbuch kann erstellt werden, indem zwei vorhandene zweisprachige Wörterbücher verwendet werden, beispielsweise Japanisch-Englisch und Englisch-Chinesisch, um ein Japanisch-Chinesisch-Wörterbuch zu erstellen. Japanisch und Chinesisch sind jedoch nähere Sprachen als Englisch, es sollte einen direkteren Weg geben, dies zu tun. Da viele japanische Wörter aus Kanji bestehen, die im Chinesischen Hanzi ähneln, versuchen wir, ein Wörterbuch für Kanji-Wörter durch einfache Umwandlung von Kanji in Hanzi zu erstellen. Unsere Umfrage zeigt, dass etwa 2/3 der Substantive und Verbalwörter im Japanischen Kanji-Wörter sind und mehr als 1/3 davon direkt ins Chinesische übersetzt werden können. Die Konvertierungsgenauigkeit beträgt 97%. Außerdem finden wir Übersetzungskandidaten für 24% der japanischen Wörter mit Englisch als Pivotsprache mit einer Genauigkeit von 77%. Durch Hinzufügen der Kanji/Hanzi-Konvertierungsmethode erhöhen wir die Kandidaten um 9% auf 33% mit Kandidaten von besserer Qualität.;-;-;-;https://link.springer.com/chapter/10.1007/11562214_59 4019b7628b900013e7aa573859676bd2;de;;;2.4.;;;Fusion von Handbiometrie auf Funktionsebene zur persönlichen Verifizierung basierend auf Kernel PCA Dieser Beitrag stellt eine neuartige Methode der Feature-Level-Fusion (FLF) vor, die auf der Kernel-Prinzip-Komponentenanalyse (KPCA) basiert. Die vorgeschlagene Methode wird auf die Fusion von Handbiometrie angewendet, einschließlich Handabdruck, Handform und Knöchelabdruck, und wir nennen die neue Funktion „handmetrisch“. Für verschiedene Arten von Abtastwerten wird ein Polynomkernel verwendet, um die Kernelmatrizen zu erzeugen, die die Beziehung zwischen ihnen anzeigen. Während diese Kernelmatrizen durch Fusionsoperatoren fusioniert werden und Hauptkomponenten extrahiert werden, wird der handmetrische Merkmalsraum etabliert und eine nichtlineare Fusionsprojektion auf Merkmalsebene könnte implementiert werden. Die experimentellen Ergebnisse belegen, dass die Methode für die Merkmalsfusion effizient ist und mehr Identitätsinformationen zur Überprüfung speichern könnte.;-;-;-;https://link.springer.com/chapter/10.1007/11608288_99 34b115bdc1e0b8b41a7dc106be67b384;de;;;2.4.;;;TLS-Vermessung und FE-Modellierung der Vasari-Kuppel der Basilica dell’Umiltà (Italien). Ein interdisziplinärer Ansatz zur Erhaltung von CH Dieser Beitrag stellt einen interdisziplinären Ansatz zur Identifizierung und Bewertung historischer Gebäude vor, der terrestrische Laserscanning (TLS)-Vermessung und numerische Finite-Elemente (FE)-Modellierung kombiniert. Die statische Analyse eines historischen Gebäudes erfordert die Entwicklung einer zusammenhängenden Reihe von Operationen, die darauf abzielen, eine zufriedenstellende Kenntnis des Gebäudes zu erhalten, wobei in der Regel In-situ-Untersuchungen zusammen mit fortgeschrittenen Computeranalysen durchgeführt werden. In diesem Prozess spielt die geometrische und topografische Vermessung eine zentrale Rolle und daher ermöglicht die Möglichkeit, große Mengen an Geodaten schnell zu erfassen (und jede Art von Informationen georeferenzieren), effektive Geometrie- und Überwachungsdaten bereitzustellen, die anschließend für strukturelle Analysen. Insofern kann der Austausch zwischen Geoinformatik und Ingenieurwissenschaften als Herausforderung im Bereich der Erhaltung/Erhaltung des kulturellen Erbes (CH) angesehen werden. Einerseits wirkt sich die Genauigkeit der gemessenen Daten tatsächlich direkt auf den Entscheidungs- und Analyseprozess aus. Andererseits unterstützt die Verschmelzung digitaler Dokumentationstechnologien mit innovativen Rechentechniken die Schaffung eines inter-/transdisziplinären Kooperationsmodells zur nachhaltigen Erhaltung von CH. Diese Fragen werden hier anhand einer beispielhaften Fallstudie behandelt: der Kuppel der Basilica dell’Umiltà in Pistoia (Italien), die Mitte des 16. Jahrhunderts von Giorgio Vasari entworfen und realisiert wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-12957-6_34 8ce854baa9619ce1286bec3de4d36d46;de;;;2.4.;;;Systemdesign für einen verbesserten SPIDER-Imager Der segmentierte planare Abbildungsdetektor für elektrooptische Aufklärung (SPIDER) basierend auf interferometrischer Abbildung kann die Masse und das Volumen des Systems stark reduzieren, während die gleiche Auflösung wie bei herkömmlichen optischen Abbildungssystemen beibehalten wird. Jedoch kann das System nur im Einzelwellenlängen-Betriebsmodus sicherstellen, dass die abgetastete Frequenz ein ganzzahliges Vielfaches der Grundfrequenz ist. Unter diesen Umständen ist die Abbildungsqualität des Systems aufgrund der niedrigen radialen Abtastrate des Spektrums des Systems und der fehlenden Nullfrequenz schlecht. Um dieses Problem zu lösen, wird ein verbessertes Schema des SPIDER-Systems mit Interferenzarmen mit abwechselnd ungerad-gerade-verteilter Linsenanzahl vorgeschlagen, wobei inzwischen seine spezifische Linsenanordnung und der Anpassungsmodus angegeben sind. Das vorgeschlagene Schema kann die Nullfrequenz abtasten und die radiale Abtastrate des Spektrums des Systems effektiv verbessern. Gleichzeitig hat es den Vorteil einer starken Vielseitigkeit, fast keine Erhöhung der Hardwarekosten und keine Einbußen beim Sichtfeld. Durch Computersimulation wird gezeigt, dass das verbesserte SPIDER-System bei gleicher Anzahl von Interferenzarmen bessere Abbildungsergebnisse erzielen kann als das herkömmliche SPIDER-System.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3947-3_18 ae54ae6b6fb1e6bf7e2bf8a59209d7db;de;;;2.4.;;;Imputationsmethoden bei fehlenden Verkehrsdaten: Eine Literaturübersicht Die fehlenden Verkehrsdaten haben die weitere Forschung, wie die Verkehrsflussvorhersage, stark erschwert und gestört, was die Beurteilung der Verkehrsbehörden über den realen Verkehrszustand des Straßennetzes und die neuen Steuerungsstrategien beeinflusst. Es ist sehr wichtig, die Imputationsverfahren mit guter Leistung auszuwählen, um die Integrität und Wirksamkeit der Verkehrsdaten aufrechtzuerhalten. Eine große Anzahl von Literaturen hat viele Methoden entwickelt, um fehlende Verkehrsdaten zu reparieren, jedoch fehlt es an einem systematischen Vergleich dieser Methoden und einem Überblick über den Stand der Entwicklung von Imputationsmethoden. In diesem Beitrag werden umfangreiche Forschungen zu Imputationsmethoden aussortiert und synthetisiert, der Mechanismus fehlender Verkehrsdaten analysiert und verschiedene Algorithmen zur Reparatur fehlender Daten systematisch überprüft, einige Herausforderungen und mögliche Lösungsansätze aufgezeigt. Der Zweck besteht darin, ein Strukturdiagramm der aktuellen Wiederherstellungstechnologie für fehlende Verkehrsdaten bereitzustellen, die Vor- und Nachteile dieser Methoden klar aufzuzeigen und den Forschern zu helfen, die unvollständigen Verkehrsdaten besser zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5577-0_53 ff2e3759b6cd5ff963c6abaa02f08069;de;;;2.4.;;;Leicht kontextsensitive Sprachen mit multidimensionaler Ersetzbarkeit aus positiven Daten lernen Vor kurzem haben Clark und Eyraud (2007) gezeigt, dass substituierbare kontextfreie Sprachen, die einen Aspekt natürlicher Sprachphänomene erfassen, im Grenzbereich aus positiven Daten effizient identifizierbar sind. In Verallgemeinerung ihrer Arbeit präsentiert dieses Papier einen Polynomialzeit-Lernalgorithmus für neue Unterklassen von leicht kontextsensitiven Sprachen mit Varianten der Ersetzbarkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04414-4_24 71d764ab1b0b458cdb740847275b9a91;de;;;2.4.;;;Empirische Bewertung von Unähnlichkeitsmaßen für Zeitreihen-Multiskalen-Matching Dieser Beitrag berichtet über die Ergebnisse der empirischen Evaluierung des Unähnlichkeitsmaßes für das Zeitreihen-Multiskalen-Matching. Um grundlegende Eigenschaften des Unähnlichkeitsmaßes zu untersuchen, führten wir eine quantitative Analyse der induzierten Unähnlichkeiten mit einfachen Sinuswellen und ihren Varianten durch und verglichen sie mit Unähnlichkeiten, die durch dynamisches Time Warping erhalten wurden. Die Ergebnisse zeigten, dass Unterschiede in Amplitude, Phase und Trends jeweils durch die Terme Drehwinkel, Phase und Gradient erfasst wurden, obwohl sie auch Schwächen in der Linearität zeigten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39592-8_64 e41544cfc5fd5a5043f077ccc3d8ff40;de;;;2.4.;;;Konsistenzmaß mehrerer Klassifikatoren für die Landbedeckungsklassifizierung durch Fernerkundungsbild Heutzutage werden mehrere Klassifikationssysteme häufig für die Klassifizierung der Landbedeckung durch Fernerkundungsbilder verwendet. Die Leistung von kombinierten Klassifikatoren hängt eng mit der Auswahl der Mitgliedsklassifikatoren zusammen, daher ist es notwendig, die Vielfalt und Konsistenz der Mitgliedsklassifikatoren zu analysieren. In unserer Studie werden Konsistenzmaße auf drei Ebenen untersucht und getestet: allgemeines Konsistenzmaß, binäres Priormaß und Konsistenz von Fehlern. Bei der Landbedeckungsklassifizierung durch fernerfasste Klassifikatoren können wir durch die Integration verschiedener Konsistenzkriterien optimale Mitgliedsklassifikatoren auswählen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02326-2_40 90d0cc551cb146ce0a3acbd2c154fca2;de;;;2.4.;;;Erkennung von Sicherheitsfäden im Passport mit verbessertem Vorlagenabgleich In den letzten Jahren wurde dem Reisepass immer mehr Aufmerksamkeit geschenkt. Passport ist nicht nur eine Bescheinigung der Passinhaber, sondern beinhaltet auch die internationale Anti-Terror-Situation. Der Pass-Sicherheitsfaden wird als Sicherheitsmerkmal, das am direktesten und am leichtesten zu identifizieren ist, im Allgemeinen von nationalen Pässen verwendet. Bei den Passherstellern ist die derzeitige Inspektionsmethode des Passsicherheitsfadens jedoch die manuelle Inspektion. Computer Vision kann in diesem Aspekt für die automatische Inspektion durch einige Systeme oder Maschinen angewendet werden. Dieses Papier schlägt vor, dass ein speziell angefertigtes Computer-Vision-System das reflektierte Licht verwenden kann, um Bilder zu sammeln und den vergrabenen Sicherheitsfaden mit relativ hoher Genauigkeit zu erkennen. Nach der Analyse kann die Erkennung des Sicherheitsfadens als eine Klasse der Objekterkennung angesehen werden. Aufgrund des wunderschönen Seitenmusters um den Sicherheitsfaden im Reisepass können die meisten Objekterkennungsalgorithmen diese Aufgabe nicht erfüllen. Unter Berücksichtigung sowohl der Genauigkeit als auch der Erkennungsgeschwindigkeit entwickeln wir in dieser Arbeit einen verbesserten Algorithmus, der auf dem traditionellen SURF-Operator basiert, um eine Sicherheitslinienerkennung im Reisepass zu erreichen. Nach der Verifizierung an einem Probensatz mit 134 Proben hat dieser Ansatz eine gewisse Fähigkeit, den Sicherheitsfaden mit einer Genauigkeit von 84,33 % zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8108-8_8 c0c23bdecf0e182a0e980489e0fe3858;de;;;2.4.;;;Erkennung verzerrter Sportvideo-Highlights durch attributbasierte Tweets-Analyse Wir schlagen eine Methode vor, um verzerrte Highlights in einem ausgestrahlten Sportvideo anhand von Zuschauerattributen aus einer großen Anzahl von Tweets zu erkennen. In letzter Zeit wird Twitter häufig verwendet, um in Echtzeit Play-by-Play-Kommentare zu Fernsehprogrammen, insbesondere zu Sportspielen, abzugeben. Dieser Trend ermöglicht es uns, das Interesse der Zuschauer in einer großen Masse effektiv zu wecken. Um solche Tweets zur Highlight-Erkennung in übertragenen Sportvideos zu nutzen, führt das vorgeschlagene Verfahren zunächst eine Attributanalyse der von jedem Benutzer ausgegebenen Tweets durch, um zu klassifizieren, welches Team er/sie unterstützt. Es erkennt dann voreingenommene Highlights, indem es sich auf die Anzahl der Tweets bezieht, die von Zuschauern mit einem bestimmten Attribut gesendet wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35728-2_35 f9de27b26dfca361a0ff6adaf5a5d5b7;de;;;2.4.;;;Verluste von Ökosystemleistungen im Taihu-Seebecken von 1979 bis 2010 Das Taihu-Seebecken, ein an der Ostküste erschlossenes Gebiet, ist eine der am schnellsten wachsenden Metropolregionen Chinas. Ökosystemleistungen im Taihu-Seebecken wurden übernutzt und gefährdet. Auf Basis von Landnutzungs- und Landbedeckungsänderungsdaten (LUCC) aus den Jahren 1979, 1984, 2000 und 2010 in Verbindung mit den adjustierten Ökosystemleistungswerten (ESV) wurden Veränderungen der ESV detailliert analysiert. Die Ergebnisse zeigten, dass LUCC zu einem erheblichen Rückgang des Gesamt-ESV von 3,92 Milliarden US-Dollar im Jahr 1979 auf 2,98 Milliarden US-Dollar im Jahr 2010 führte. Der ESV von Ackerland sank von 1,64 Milliarden US-Dollar im Jahr 1979 auf 1,34 Milliarden US-Dollar im Jahr 2010, was einer Reduzierung um 20,28 % entspricht. Der ESV der Wasserflächen sank von 1,08 Milliarden US-Dollar im Jahr 1979 auf 0,36 Milliarden US-Dollar im Jahr 2010, was einer Verringerung um 65,62 % hauptsächlich aufgrund einer Abnahme der Wasserqualität entspricht. Bei der jährlichen Veränderungsrate zeigten Acker- und Wasserflächen einen anhaltenden Abwärtstrend. Räumlich wurden ESV-Rückgänge hauptsächlich in Suzhou, Wuxi, Changzhou und Shanghai beobachtet, wahrscheinlich aufgrund einer Kombination aus wirtschaftlichem Fortschritt, Bevölkerungswachstum und schneller Urbanisierung. Die Forschungsergebnisse können eine nützliche Referenz für politische Entscheidungsträger sein, um den ESV-Rückgang einzudämmen.;-;-;-;https://link.springer.com/article/10.1007/s11707-016-0612-1 3f00e21405e67f67e2d70a429fabe2e2;de;;;2.4.;;;Eine Tracking-Registrierungsmethode für Augmented Reality basierend auf multimodalem Template-Matching und Punktwolken Um die Mängel zu überwinden, bei denen der Oberfläche des Objekts ausreichende Texturmerkmale fehlen und der Algorithmus die Echtzeitanforderungen von Augmented Reality nicht erfüllen kann, wird ein markerloses Augmented-Reality-Tracking-Registrierungsverfahren basierend auf multimodalem Template-Matching und Punktwolken vorgeschlagen. Das Verfahren passt zuerst das lineare parallele multimodale LineMod-Vorlagenvergleichsverfahren mit Skaleninvarianz an, um das texturlose Ziel zu identifizieren und das Referenzbild als das Schlüsselbild zu erhalten, das der aktuellen Perspektive am ähnlichsten ist. Dann können wir die anfängliche Pose der Kamera erhalten und das Problem der Neuinitialisierung aufgrund einer Unterbrechung der Verfolgungsregistrierung lösen. Mithilfe eines punktwolkenbasierten Verfahrens wird die genaue Pose der Kamera in Echtzeit berechnet. Um das Problem zu lösen, dass der traditionelle iterative Algorithmus des nächsten Punktes (ICP) die Echtzeitanforderungen des Systems nicht erfüllen kann, wird der Kd-Baum (k-dimensionaler Baum) unter der Grafikverarbeitungseinheit (GPU) verwendet, um das Teil zu ersetzen die nächsten Punkte im ursprünglichen ICP-Algorithmus zu finden, um die Geschwindigkeit der Verfolgungsregistrierung zu verbessern. Gleichzeitig wird der Random-Sample-Consensus-Algorithmus (RANSAC) verwendet, um die Fehlerpunktpaare zu entfernen, um die Genauigkeit des Algorithmus zu verbessern. Die Ergebnisse zeigen, dass das vorgeschlagene Tracking-Registrierungsverfahren eine gute Echtzeitleistung und Robustheit aufweist.;-;-;-;https://link.springer.com/article/10.1007/s11633-020-1265-9 95aedeee2afd201648e9b6e4021b9832;de;;;2.4.;;;Bronchoskop-Tracking basierend auf der Bildregistrierung unter Verwendung mehrerer anfänglicher Startpunkte, die durch die Bewegungsvorhersage geschätzt wurden In diesem Artikel wird eine Methode zur Verfolgung eines Bronchoskops basierend auf Bewegungsvorhersage und Bildregistrierung von mehreren anfänglichen Ausgangspunkten als Funktion eines Bronchoskop-Navigationssystems vorgestellt. Wir versuchen, die Leistung des Bronchoskop-Trackings basierend auf der Bildregistrierung unter Verwendung mehrerer anfänglicher Schätzungen zu verbessern, die mithilfe der Bewegungsvorhersage geschätzt werden. Dieses Verfahren verfolgt im Wesentlichen eine bronchoskopische Kamera durch Bildregistrierung zwischen realen bronchoskopischen Bildern und virtuellen, die aus CT-Bildern abgeleitet wurden, die vor den bronchoskopischen Untersuchungen aufgenommen wurden. Als erste Vermutung für die Bildregistrierung verwenden wir mehrere Ausgangspunkte, um zu vermeiden, dass in lokale Minima geraten wird. Diese anfänglichen Schätzungen werden unter Verwendung der Bewegungsvorhersageergebnisse berechnet, die aus der Ausgabe des Kalman-Filters erhalten wurden. Wir haben die vorgeschlagene Methode auf neun Paare von Röntgen-CT-Bildern und echten bronchoskopischen Videobildern angewendet. Die experimentellen Ergebnisse zeigten eine signifikante Leistung bei der kontinuierlichen Verfolgung ohne Verwendung von Positionssensoren.;-;-;-;https://link.springer.com/chapter/10.1007/11866763_79 45bc1057080deba0f01afcb149323220;de;;;2.4.;;;Die Anwendung eines durch Partikelschwarm optimierten Wavelet-Neuralnetzwerks bei der Lokalisierung von Schallemissionsquellen Bei der Verwendung von Schallemission (AE) zur Lokalisierung der Reibstoßquelle rotierender Maschinen ist es schwierig, eine genaue Quellenlokalisierung für die Auswirkungen von starkem Rauschen und Wellenformverzerrung zu erreichen. Ein neuronaler Netzwerkalgorithmus wurde vorgestellt, um die AE-Quelle zu lokalisieren. Im Allgemeinen ist das neuronale BP-Wavelet-Netzwerk (WNN) ein lokaler Suchalgorithmus, der leicht in ein lokales Minimum fällt, sodass die Wahrscheinlichkeit einer erfolgreichen Suche gering ist. Als verbesserte Möglichkeit wurde der PSO-Algorithmus (Particle Swarm Optimizer) vorgeschlagen, um die Parameter des WNN zu trainieren. Die Daten des Lokalisierungsexperiments der Reibungsaufprall-AE-Signale wurden von einem rotierenden Prüfstand abgetastet. Die Ergebnisse zeigen, dass der PSO-Algorithmus effektiv ist und die Lokalisierung mit der richtigen Struktur des Netzwerks und den Eingabeparametern genau ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10684-2_82 4dc6d724f87906f291685a66441e68d7;de;;;2.4.;;;Ein stromstehlendes Identifizierungsverfahren basierend auf einem Ausreißer-Algorithmus Um das Stromdiebstahlverhalten von Power-Usern effektiver zu erkennen und die Interessen von Unternehmen und legitimen Nutzern zu schützen. Basierend auf der Analyse des Mangels an gegenwärtiger Anwendung von Anti-Diebstahl-Technologie und in Verbindung mit den verschiedenen gängigen Methoden des Diebstahls, kombiniert mit den unterschiedlichen Daten zwischen normaler Elektrizität und anormaler Elektrizität, die von den Stromsammelsystemen der meisten Energieversorgungsunternehmen gesammelt wird . Es wird ein neues Verfahren zur Identifizierung von Stromstehlen vorgeschlagen, das auf einem Ausreißeralgorithmus basiert. Die Hauptanwendung des Ausreißeralgorithmus basiert auf dem Distanzausreißeralgorithmus. Basierend auf der Analyse des entfernungsbasierten Ausreißeralgorithmus wird der Algorithmus von MATLAB basierend auf den anderen Daten simuliert. Die Validität und Verlässlichkeit des Algorithmus wird nach Durchführung des Feldaudits analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3648-5_178 4387dc650212cf8175c5e2afc7ad6495;de;;;2.4.;;;Ein Hybridmodell zur Diagnose einer schweren Aortenstenose bei asymptomatischen Patienten mittels Phonokardiogramm Diese Studie präsentiert einen Screening-Algorithmus für schwere Aortenstenose (AS), basierend auf einer Verarbeitungsmethode für phonokardiographische (PCG) Signale. Das Verarbeitungsverfahren verwendet ein Hybridmodell, das aus einem Hidden-Markov-Modell und einer Support-Vektor-Maschine besteht. Das Verfahren profitiert von einer Vorverarbeitungsphase für ein verbessertes Lernen. Die Leistungsfähigkeit der Methode wird anhand von PCG-Signalen von 50 Personen, die an das Echokardiographie-Labor des Universitätsklinikums Linköping überwiesen wurden, statistisch ausgewertet. Bei allen Personen wurde gemäß den echokardiographischen Messungen ein Grad von AS diagnostiziert, von leicht bis schwer. Die Patientengruppe besteht aus 26 Personen mit schwerer AS, die restlichen 24 Patienten bilden die Kontrollgruppe. Die Leistungsfähigkeit des Verfahrens wird durch wiederholte zufällige Teilstichproben statistisch bewertet. Die Ergebnisse zeigten ein 95-%-Konfidenzintervall von (80,5-82,8%) / (77,8-80,8%) für die Genauigkeit/Sensitivität, was eine akzeptable Leistung für den Einsatz als Entscheidungsunterstützungssystem im primären Gesundheitszentrum darstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19387-8_245 742cf45db7584cb573e13fe5a8ada75c;de;;;2.4.;;;Eine Variante des identitätsbasierten Identifizierungsschemas von Schnorr mit enger Reduktion Mit der Rückspultechnik von Reset Lemma kann die identitätsbasierte Identifizierung von Schnorr (IBI) als sicher gegen Identitätswechsel bei passiven Angriffen und aktiven und gleichzeitigen Angriffen nachgewiesen werden, wenn das Problem des diskreten Logarithmus und das Problem des diskreten Logarithmus noch einmal im Zufalls-Orakel-Modell schwierig sind beziehungsweise. Die Sicherheitsreduzierung ist jedoch nicht eng. In diesem Papier schlagen wir eine Variante des Schnorr IBI-Schemas vor und liefern einen direkten Beweis mit starker Sicherheitsreduktion. Insbesondere zeigen wir, dass sich das vorgeschlagene Schema mit nur drei zusätzlichen Elementen in den Systemparametern als sicher gegen Identitätswechsel bei passiven Angriffen und aktiven und gleichzeitigen Angriffen erweisen kann, wenn das Diffie-Hellman-Entscheidungsproblem im zufälligen Orakelmodell schwierig ist. Diese Prüftechnik kann auch auf andere IBI-Schemata angewendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27142-7_42 21a7a267a71be7f629fced0e68768791;de;;;2.4.;;;Ein kognitiver Systemprozessansatz: ELT-Pädagogik für ein hybrides Kommunikationsmodell Ein Großteil der westlichen Unterrichtsansätze fördert aktive Lernstrategien, die Lernende zu kritischem und kreativem Denken beeinflussen und dadurch Denkfähigkeiten höherer Ordnung vermitteln. Kognitivismus oder Kognitive Theorie, ein Studienbereich, der mit Denkfähigkeiten verbunden ist, versucht, den Prozess zu verstehen, der in den Köpfen der Lernenden abläuft, der das Sprachenlernen und seine Verwendung umfasst. Im Gegensatz zu der behavioristischen Vorstellung, dass Sprache automatisch durch Wiederholung und Verstärkung gelernt wird, betrachtet der kognitive Ansatz sie als einen bewussten und kontrollierten Denkprozess, der Verständnis und Argumentation beinhaltet. Mit dem Aufkommen von Künstlicher Intelligenz und IoT [Internet der Dinge] ist der Tag nicht mehr weit, an dem Menschen bekannte Schnittstellenkanäle überschreiten, um auf Maschinen zu reagieren und über eine sprachgestützte Schnittstelle zu kommunizieren. Dieser Artikel ist eine Studie über die Notwendigkeit, die Zweitsprachenpädagogik neu auszurichten, um dieser futuristischen Realität gerecht zu werden und einen Rahmen zu entwerfen, um einen besseren Spracherwerb zu fördern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8221-9_247 530ae62a3c430f59bd4248d4b2baef7a;de;;;2.4.;;;Digital Forensic Readiness im IoT – Ein Risikobewertungsmodell Mit der zunehmenden Akzeptanz von IoT-Geräten sind sie zu einer wichtigen Quelle für digitale Beweise geworden und könnten ein wichtiger Bestandteil von Ermittlungen sowohl für Unternehmen als auch für Strafverfolgungsbehörden sein. Es gibt jedoch einige aktuelle Herausforderungen, wie z. B. die Identifizierung von Geräten, welche Daten ein Beweis sein könnten (falls das Gerät welche speichert) und Datenschutz. Aus diesem Grund ist die Bereitschaft zur digitalen Forensik in diesen Ökosystemen unerlässlich. Es ist ein wichtiger Bestandteil sowohl der Risikobewertung als auch der Vorbereitung auf Eventualitäten. Die Geräte, ihr Potenzial und die Vorgehensweise im Falle eines Vorfalls oder Angriffs müssen vorherbestimmt sein. In diesem Papier schlagen wir ein Risikobewertungsmodell zur Vorbereitung der forensischen Analyse im IoT vor, das wir Forensics Readiness in IoT Implementation (FRIoTI) genannt haben, um die genannten Herausforderungen zu meistern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71711-7_5 5c6020603d51cd0c8996b1811cad6d75;de;;;2.4.;;;Ein neuartiger geodätischer entfernungsbasierter Clustering-Ansatz zur Abgrenzung von Grenzen sich berührender Zellen In diesem Beitrag schlagen wir einen neuartigen geodätischen entfernungsbasierten Clustering-Ansatz vor, um Grenzen sich berührender Zellen abzugrenzen. Insbesondere wird zunächst die Riemannsche Metrik verwendet, um die räumliche Distanz- und Intensitätsvariation zu integrieren. Dann wird der Abstand zwischen zwei beliebigen gegebenen Pixeln unter dieser Metrik als der geodätische Abstand auf Fortpflanzungsweg berechnet, und der K-Means-ähnliche Algorithmus wird beim Clustern basierend auf dem Fortpflanzungsabstand eingesetzt. Die vorgeschlagene Methode wurde validiert, um die berührenden Epithelzellbilder der Madin-Darby Canine Kidney (MDCK) zu segmentieren, um ihre N-Ras-Protein-Expressionsmuster innerhalb einzelner Zellen zu messen. Die experimentellen Ergebnisse und Vergleiche zeigen die Vorteile des vorgeschlagenen Verfahrens in Bezug auf massive Zellsegmentierung und Robustheit gegenüber der anfänglichen Seed-Selektion, variierenden Intensitätskontrasten und hohen Zelldichten in Mikroskopiebildern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39068-5_39 2e9f8c64ab0b4d63a6e9b4584fe69454;de;;;2.4.;;;Digitale Signalverarbeitungstechnologie des DVOR-Navigationssignals Um das Navigationssystem der Zivilluftfahrt zu digitalisieren und zu miniaturisieren, wird eine digitale Signalverarbeitungstechnologie vorgeschlagen, bei der der Doppler-VHF-Omnidirektionalbereich (DVOR) angewendet wird, um die Verarbeitungsgeschwindigkeit und die Leistung der Empfängerdaten zu verbessern. Dieses Papier stellt das Grundprinzip des DVOR-Signals und das Grundprinzip und die Realisierungsmethode der digitalen Signalverarbeitungstechnologie vor. Schließlich haben wir das Design der digitalen Signaldemodulation, Filterung und Vergleichsphase von LabVIEW 2016 abgeschlossen, damit das DVOR-Messsystem Informationen wie die Peilung anzeigen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6504-1_37 7747ce0f08c6e6bf43c311e3701d70ac;de;;;2.4.;;;Entwicklung einer bildbasierten Krankheitsskala der Phomfäule bei Kartoffelkonsum Die frühzeitige Erkennung von Krankheiten der Pflanze ist ein Schlüssel, um die wichtigsten Krankheiten durch minimale Anwendung chemischer Pestizide zu verhindern. In Westbengalen entwickelt sich die Phomfäule jetzt zu einer neuen, gefürchteten Kartoffelkrankheit. Die Phomafäule ist mit der Entwicklung zahlreicher Flecken auf den Flugblättern verbunden, wodurch die grüne Photosynthesefläche reduziert wird, was zu großen Verlusten bei der Kartoffelknollenproduktion führt. Die Krankheitsbewertungsskala zur Schweregradanalyse wurde für diese Krankheit bisher nicht entwickelt. In diesem Artikel wurde eine bildbasierte Bewertungsskala für die Phomfäule-Krankheit entwickelt, bei der;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7031-5_24 1182cbc0997c0082bdc5b910245e1d3d;de;;;2.4.;;;Beleuchtungsinvariantes Hintergrundmodell mit einer Mischung aus Gauß- und SURF-Funktionen Das Mixture of Gaussians (MoG) ist eine häufig verwendete Methode zur Vordergrund-Hintergrund-Trennung. In diesem Papier schlagen wir einen Online-Lernrahmen vor, der es dem MoG-Algorithmus ermöglicht, seine lokalisierten Parameter schnell anzupassen. Unsere Hauptbeiträge sind: lokale Parameteranpassungen, eine rückkopplungsbasierte Aktualisierungsmethode für gestoppte Objekte und hierarchische SURF-Funktionen, die auf Geisterabgleich basierende und lokale Beleuchtungsunterdrückungsverfahren basieren. Das vorgeschlagene Modell wird gründlich getestet und mit mehreren früheren Modellen des BMC-Datensatzes verglichen und hat erhebliche Leistungsverbesserungen gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37410-4_27 5e44754f17d85455a711c21c69c14bed;de;;;2.4.;;;Datenbankanwendung zur Visualisierung von Prozessdaten Ein Informationssystem zur Visualisierung der unterirdischen Kohlevergasung (UCG) wurde entwickelt. Das Hauptziel des Systems besteht darin, Mittel für ein besseres Verständnis und eine bessere Kontrolle des Prozesses bereitzustellen. Das System verwendet hauptsächlich Daten, die während der numerischen Simulation des UCG-Prozesses generiert werden. Darüber hinaus ist das System in der Lage, Georadar-Messdaten, die während in-situ-Prozessen gesammelt wurden, zu speichern und zu visualisieren. Entwicklungssoftware besteht aus drei Modulen: der Datenerfassung, der Datenvorverarbeitung und der Datenvisualisierung. Alle Module kommunizieren über eine Datenbank, den zentralen Punkt in der Systemarchitektur. Daten aus Modellierung oder Messungen werden im Rohformat in der Datenbank gespeichert. Anschließend wandelt das Vorverarbeitungsmodul sie zu Visualisierungszwecken um. Das Visualisierungsmodul zeigt dem Benutzer vorverarbeitete Daten mittels 3D-Grafik an. Die Visualisierung ist dynamisch (visualisierte Datenänderungen im Laufe der Zeit) und ermöglicht die Beobachtung mehrerer Eigenschaften des Prozesses - Gaskonzentration, Entwicklung der Vergasungskaverne usw. Die Software wurde unter Verwendung des .NET-Frameworks und der XNA Game Studio 4.0-Bibliothek entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06932-6_52 aece92983e2fbc945dfe90564e6a6770;de;;;2.4.;;;Neuronaler Kantendetektor – eine gute Nachahmung eines herkömmlichen, aber robuster gegen Rauschen Dieses Papier beschreibt einen neuen Kantendetektor, der ein neuronales Mehrschichtnetzwerk verwendet, das als neuronaler Kantendetektor (NED) bezeichnet wird, und seine Fähigkeit zur Kantenerkennung gegen Rauschen. Der NED ist ein überwachter Kantendetektor: Der NED erwirbt durch Training die Funktion eines gewünschten Kantendetektors. Die Experimente zur Erfassung der Funktionen der herkömmlichen Kantendetektoren wurden durchgeführt. Die experimentellen Ergebnisse haben gezeigt, dass die NED eine gute Nachahmung für die herkömmlichen Kantendetektoren ist, außerdem robuster gegen Rauschen: Die NED kann ähnliche Kanten erkennen wie die vom herkömmlichen Kantendetektor erkannten, die NED ist robuster gegen Rauschen als das Original .;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45723-2_36 845eb0e5096d6c3100970c7f97613c83;de;;;2.4.;;;Szenenverständnis basierend auf Ton- und Textinformationen für einen Kochunterstützungsroboter Wir adressieren ein geräuschrobustes „auditives Szenenverständnis“ für einen Roboter, der durch das Extrahieren von 6W-Informationen (Was, Wann, Wo, Wer, Warum, Wie) über die Umgebung definiert wird. Obwohl ein solcher Roboter auf dem Gebiet des Roboter-Vorsprechens untersucht wurde, waren nur die ersten vier Ws außer „Warum“ und „Wie“ im Geltungsbereich. Daher konzentriert sich dieser Beitrag hauptsächlich auf die Extraktion von „Wie“-Informationen, insbesondere von Kochszenen, um einen Kochunterstützungsroboter zu realisieren. In diesem Fall wird „Wie“-Information als Kochvorgang betrachtet, wir konstruieren eine klangbasierte Kochvorgangserkennung basierend auf zwei Modellen. Eines ist ein herkömmliches statistisches Modell, das Gaussian Mixture Model (GMM), das für ein akustisches Modell verwendet wird, um ein Kochgeräuschereignis wie Rühren, Schneiden usw. zu erkennen. Das andere ist ein hierarchisches Hidden-Markov-Modell (HHMM), das für ein Rezeptmodell verwendet wird, um eine Folge von Kochereignissen, d. h. einen Kochvorgang, zu erkennen. Wir haben ein prototypisches System zur Kochrezept- und Verfahrenserkennung aufgebaut. Vorläufige Ergebnisse zeigten, dass das vorgeschlagene GMM-HHMM-basierte System ein herkömmliches GMM-HMM-basiertes System in Bezug auf die Geräuschrobustheit bei der Kochrezepterkennung übertraf und unser System in der Lage war, die Fehlerkennung von Kochgeräuschereignissen mithilfe des Rezeptmodells bei der Kochvorgangserkennung zu korrigieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19066-2_64 457d0e94ae897bab92b11544b36ced35;de;;;2.4.;;;Verfahren zur schnellen Generierung von Fuzzy-Regeln und ihre Anwendung auf die Flussoptimierung im Prozess der Stoffumwandlung Ein Verfahren zur schnellen Generierung von Fuzzy-Regeln zur Entscheidungsfindung bei der Flussoptimierung wurde vorgeschlagen, um das linguistische Wissen aus numerischen Daten im Prozess der Materieumwandlung zu extrahieren. Die unscharfen Wenn-Dann-Regeln mit konsequenter reeller Zahl wurden aus numerischen Daten extrahiert, und es wurde ein linguistisches Darstellungsverfahren zum Ableiten linguistischer Regeln aus unscharfen Wenn-Dann-Regeln mit folgenden reellen Zahlen entwickelt. Die linguistische Repräsentation bestand aus zwei linguistischen Variablen mit dem Grad der Sicherheit und der Speicherstruktur der Regelbasis wurde beschrieben. Die Simulationsergebnisse zeigen, dass das Verfahren weder das zeitaufwendige iterative Lernverfahren noch die komplizierten Regelgenerierungsmechanismen beinhaltet und komplexe Systeme annähern kann. Das Verfahren wurde angewendet, um die Flussmittelmenge des Kupferumwandlungsofens im Prozess der Stoffumwandlung zu bestimmen. Das reale Ergebnis zeigt, dass der Massenanteil von Cu in der Schlacke um 0,5% reduziert wird.;-;-;-;https://link.springer.com/article/10.1007/s11771-006-0118-1 4f4c33af6425644cfcdeb1e691aefa99;de;;;2.4.;;;R-Lambda-Modell-basierte CTU-Level-Ratensteuerung für Intra-Frames in HEVC Beim High Efficiency Video Coding (HEVC) ist die Codierungseffizienz von Intra-Frames viel geringer als die von Inter-Frames. Wenn die den Intra-Frames zugewiesenen Bits nicht ausreichen, um ihre Qualität zu verbessern, tritt die Qualitätsschwankung zwischen Intra-Frames und ihren benachbarten Inter-Frames auf. Wenn jedoch Intra-Frames zu viele Bits zugewiesen werden, können die anderen Frames Bit-Aushungern erleiden, was zu einer Qualitätsverschlechterung einiger anderer Frames führt. Wir schlagen eine R-Lambda-Modell-basierte Ratensteuerung auf CTU-Ebene vor, um die rekonstruierte Qualität von Intra-Frames mit weniger Bits zu verbessern. CTUs im Intra-Frame werden gemäß ihren Bewegungsvektoren und Komplexität in drei Regionen klassifiziert. Die den CTUs zugeordneten Bits, die zu verschiedenen Regionen gehören, werden angepasst und das R-Lambda-Modell wird verwendet, um die QPs zu berechnen. Experimentelle Ergebnisse zeigen, dass die vorgeschlagene Ratensteuerung die Bitkosten durch Intraframes effizient reduzieren und die Qualitätsschwankungen zwischen Intraframes und anderen unterdrücken kann, verglichen mit der Ratensteuerung durch das R-Lambda-Modell, das in HM10.0 verwendet wird.;-;-;-;https://link.springer.com/article/10.1007/s11042-017-5507-y 6b7f8b5b167e40397c8cdaed6e0d4993;de;;;2.4.;;;Personenidentifikation mit Knuckleprint In diesem Beitrag wird eine neuartige biometrische Definition als „Knöchelabdruck“ vorgestellt. Das Linienmerkmal des Fingerknöchelabdrucks mit seiner Verteilung im Finger (das als Standortmerkmal definiert ist) wird extrahiert, um eine Person zu identifizieren. Um die Identifikationsleistung zu verbessern, wird ein hierarchisches Klassifizierungsverfahren verwendet, um das Standortmerkmal und das Linienmerkmal in verschiedene Ebenen zu klassifizieren. Obwohl dies der erste Versuch zur Identifizierung von Fingerabdrücken ist, erreicht die Genauigkeitsrate in der Datenbank mit 1.432 Bildproben 96,88 %, was bezeugt, dass Fingerabdrücke als biometrische Daten zuverlässig sind und die Wirksamkeit und Robustheit der Funktionen demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30548-4_78 07c0c90ddb8b4ed6f02f7490c837a028;de;;;2.4.;;;Städtische Standortmodelle: Genau, detailliert, schnell und kostengünstig Dreidimensionale Computermodelle von urbanen Räumen sind in photogrammetrischen Kreisen das neueste Diskussionsthema, obwohl die Erstellung solcher Modelle längst zum Standardangebot von photogrammetrischen Datenanbietern gehört. Erste „Killeranwendungen“ solcher Daten waren in Verteidigungsorganisationen, um militärische Operationen in urbanem Gelände (MOUT) zu unterstützen, und in der Telekommunikationsindustrie bei der Optimierung bestimmter Kommunikationsnetze, die auf Sichtlinienanalysen in städtischen Umgebungen angewiesen sind. Andere Anwendungen hinken diesen bahnbrechenden Anforderungen hinterher.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4321-9_11 352cb35604904071e3a3da166a7a2089;de;;;2.4.;;;Full-View-Abdeckungsalgorithmus in Kamerasensornetzwerken mit zufälliger Bereitstellung Die Vollsichtabdeckung stellt sicher, dass die positiven Bilder von Zielen erhalten werden. In bestehenden Arbeiten konzentrieren sich die Themen nur darauf, ob eine Region vollständig abgedeckt ist oder nicht, die zu viele Knoten benötigt und weniger flexibel für die Änderung der Überwachungsumgebung ist. Daher wird in diesem Papier die vollständige Abdeckung der Ziele hervorgehoben. Zunächst leiten wir den optimalen Beobachtungswinkel zwischen der Erfassungsrichtung der Knoten und dem Vektor der Zieloberfläche ab. Wir beweisen auch, dass die Vollbildabdeckung ein NPC-Problem ist. Dann werden der zentralisierte und der verteilte Algorithmus vorgeschlagen, um die Anzahl der vollständig erfassten Ziele zu maximieren, indem die Erfassungsrichtungen einiger Sensoren im Netzwerk geplant werden. Simulationsergebnisse zeigen, dass die lokale Anpassung der Richtungsknoten die Vollsichtabdeckung für die global überwachten Objekte im Zustand zufälliger Bereitstellung erhöht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36252-1_26 05a8ba17288b9d4d52850984febeeaee;de;;;2.4.;;;Wahrnehmungsrepräsentation und Argumentation In der Kognitionswissenschaft wird das Denken häufig als ein Prozess angesehen, der auf abstrakten Satzdarstellungen operiert. Diese Sichtweise impliziert eine Trennung des Denkens von der Sinneswahrnehmung. Folglich ist das Studium der Wahrnehmung relativ unabhängig vom Studium der verschiedenen Denkstrategien des Menschen vorangegangen. In diesem Beitrag argumentieren wir, dass es viele Situationen mit gesundem Menschenverstand gibt, in denen menschliches Denken eng mit Wahrnehmung verbunden ist, insbesondere mit wahrnehmungsbezogen repräsentiertem Erfahrungswissen. Diese Art der Argumentation wird als Wahrnehmungsdenken bezeichnet. Wir erklären das perzeptuelle Denken in Bezug auf erfahrungsgemäß erworbene perzeptuelle Inferenzregeln und diskutieren kurz, wie dies mit einem früheren Vorschlag über Repräsentationen zusammenhängt, die der visuellen Wahrnehmung und Bildsprache zugrunde liegen [5]. Abschließend werden die Implikationen dieser Haltung diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-2836-4_4 c58a6f00e1fd4c7de25b6a44c50aff6c;de;;;2.4.;;;Methode zur Erkennung und Klassifizierung von Schienenoberflächendefekten basierend auf Deep Forest Das Hauptziel dieser Studie ist es, eine geeignete Methode vorzuschlagen, um die Erkennungskosten von Orbitalfehlern zu reduzieren, die Effizienz der Fehlererkennung zu verbessern und eine effektive Bewertung des Schienenzustands durch die Kombination von UAV-Bilderfassung und digitaler Bildverarbeitungstechnologien zu erzielen. Die Eigenschaften der vom UAV gesammelten Bilder unter Verwendung der vorgeschlagenen geeigneten Methode, um mit den Defekten umzugehen, wobei die Hough-Transformation und die horizontale Projektionsmethode verwendet werden, um den Schienenbereich zu extrahieren. Im Prozess der Bildverbesserung für Schienenbilder wird ein verbessertes lokal normalisiertes Bildverbesserungsverfahren vorgeschlagen, und ein Fehlersegmentierungsverfahren basierend auf einem maximalen Entropieschwellenwert wird für die Fehlersegmentierung verwendet. Entsprechend der Berechnung und Extraktion von Fehlermerkmalen wird ein Klassifikationsmodell basierend auf der Deep-Forest-Methode vorgeschlagen, um die beiden Fehlerarten Abplatzung und Riss zu klassifizieren. Die Ergebnisse zeigen, dass das vorgeschlagene Verfahren die Schienenoberflächenfehler in einer kleinen Stichprobe genau und effektiv klassifizieren kann und einen gewissen praktischen Referenzwert hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2866-8_48 b5979063485f66ff69cfcb333d5dfbc0;de;;;2.4.;;;Stromleitungs-Kurzschlussfehler-Orientierungssystem basierend auf einem drahtlosen Sensornetzwerk Der Artikel stellt die Vorteile und Merkmale des drahtlosen Sensornetzwerks vor, das bei der Lokalisierung von Stromleitungskurzschlussfehlern verwendet wird, und stellt den Plan zur Lokalisierung von Stromleitungskurzschlussfehlern vor, der basierend auf dem drahtlosen Sensornetzwerk auch die Topologie des drahtlosen Sensornotiz und des drahtlosen Designs entwirft Sensornetzwerk.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35211-9_91 2f5cc151a834c8de27812aac1e6b96f4;de;;;2.4.;;;Nicht-invasive drahtlose Biosensorik In Gesundheitssystemen werden zunehmend drahtlose Sensortechnologien eingesetzt, um den Datenkommunikationsfluss zwischen Patienten und klinischen Experten zu verbessern. Dies ist besonders wichtig für Patienten, die sich an abgelegenen Orten befinden oder mit Mobilitätseinschränkungen konfrontiert sind. Um die Vorteile der drahtlosen Kommunikation voll auszuschöpfen, sind Biosensoren erforderlich, die Daten über die Gesundheit des Benutzers sammeln, möglicherweise integriert in ein persönliches drahtloses Sensornetzwerk. Mit diesem Ziel vor Augen wird eine drahtlose Lösung beschrieben, die ein innovatives drahtloses Herzfrequenzgerät sowie Benutzerschnittstellentechnologien zur Ermöglichung einer Echtzeit-Datenvisualisierung auf mobilen Geräten durch Patienten und medizinische Experten präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27707-3_7 e3122204898b68035702e8825b751025;de;;;2.4.;;;Biometrische Techniken zur Gesichtserkennung: Analyse und Überprüfung and Biometrie ist die Untersuchung von Methoden zur Identifizierung einer Person basierend auf einem oder mehreren intrinsischen körperlichen oder Verhaltensmerkmalen. Nach jahrzehntelangen Forschungsaktivitäten hat die Biometrie sowohl in der praktischen Technologie als auch in der theoretischen Entdeckung große Fortschritte gemacht, um den steigenden Bedarf an biometrischen Anwendungen zu decken. Dieses Papier zeigt eine detaillierte Berichterstattung über die Forschungsprobleme mit ihren Lösungen in der Gesichtserkennungsbiometrie. Die Beiträge stellen auch die Pionierleistungen und aktuellen Ergebnisse vor, mit besonderem Fokus auf praktische Fragen der Systementwicklung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-01778-5_47 ffe9382e9c74b628d1e0d6f6fab348ca;de;;;2.4.;;;Spiralmodell für die digitale forensische Untersuchung Digitale Forensik ist die wissenschaftliche Analyse digitaler Kriminalität. Es ist analog zur physischen Tatortuntersuchung, die in der Regel darin besteht, Beweise zu sammeln, an einem geeigneten Ort aufzubewahren, zu dokumentieren, eine Hypothese für den Tatort zu erstellen, um die Situation zu analysieren, und sie vor Gericht zur Zuständigkeit vorzulegen. Aber im Umgang mit digitalen Dingen braucht es einen geeigneten Rahmen, der für alle Tatorte und für alle digitalen Geräte wie Mobiltelefone und Computer usw. anwendbar sein sollte. Dieses Papier schlägt einen Rahmen vor, der auf dem Spiralmodell der Softwareentwicklung basiert, die aus einem Risikoanalysefaktor bestehen, der auch Flexibilität bietet, damit alle Nachteile früherer Methoden überwunden werden können. Der größte Vorteil dieser Methode ist ihre Fähigkeit, aufgrund ihrer agilen Funktionsweise und ihres spiralförmigen Verhaltens die nächste Phase nach dem Ergebnis der vorherigen Phase zu planen, um die Untersuchung so schnell wie möglich durchzuführen. Es umfasst alle Phasen in Form verschiedener Iterationen. Daher schlug dieses Papier ein generisches Framework vor, um digitale Forensik reibungslos und ohne jegliche Nachteile durchzuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-6898-0_26 1ada191b4f098f12a74fe8fe1235d2f0;de;;;2.4.;;;Beziehungen zwischen reaktiven Sauerstoffspezies und Raman-Spektralvariationen von mesenchymalen Stammzellen der menschlichen Nabelschnur mit unterschiedlicher Lebensfähigkeit In dieser Studie wurden die Spiegel der reaktiven Sauerstoffspezies (ROS) in mesenchymalen Stammzellen der menschlichen Nabelschnur (hUC-MSCs) mit unterschiedlicher Zelllebensfähigkeit durch ROS-Sondenfluoreszenz gemessen. Es zeigt sich, dass die zeitliche Änderung des ROS-Niveaus (Lebensfähigkeit, Rückgang) durch eine rationale Funktion beschrieben werden kann, deren Integration die relativen Ertragsschwankungen von ROS in verschiedenen Zeiträumen berechnen kann. Die relativen Intensitätsvariationen des charakteristischen Raman-Peaks bei 1342, 877 und 744 cm;-;-;-;https://link.springer.com/article/10.1134/S1054660X1111003X 6f6a387c2e7e063f553d04569f36e373;de;;;2.4.;;;Simultane Ensemble-Generierung und Hyperparameter-Optimierung für die Regression Die Entwicklung fortgeschrittener Hyperparameter-Optimierungsalgorithmen unter Verwendung von z.B. Bayes'sche Optimierung hat eine Abkehr vom Hand-Tuning ermutigt. Dieser Trend ist in erster Linie bei Klassifikationsaufgaben zu beobachten, während der Regression weniger Aufmerksamkeit geschenkt wurde. In diesem Papier entwickeln wir eine Methode zur gleichzeitigen Abstimmung von Hyperparametern und zur Generierung eines Ensembles, indem Parameter in einem Ensemble-Kontext explizit optimiert werden. Traditionell verwendete Klassifikationstechniken werden an Regressionsprobleme angepasst und wir untersuchen die Verwendung robusterer Verlustfunktionen. Darüber hinaus schlagen wir Methoden zur dynamischen Ermittlung der Ensemblegröße und zur Gewichtung der einzelnen Modelle vor. Die Leistung wird anhand von drei Basislernern und 16 Datensätzen bewertet. Wir zeigen, dass unsere Algorithmen durchweg einzelne optimierte Modelle übertreffen und die Leistung moderner Ensemble-Generierungstechniken übertreffen oder der Leistung entsprechen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-76892-2_9 bd5be2bba8aaa8af41f1426c955cc6ed;de;;;2.4.;;;Bedeutung von Magnetresonanz-Bilddetails in spärlicher Darstellung basierend auf Superauflösung Diverse Einschränkungen bei der Bilderfassungsumgebung begrenzen oft die Auflösung in Querrichtung des Magnetresonanz-(MR)-Bildvolumens, was nicht den Anforderungen isotroper 3D-MR-Bilder bei einer genauen medizinischen Diagnose entspricht. Dieses Papier schlägt einen Algorithmus vor, um isotrope 3D-MR-Bilder aus anisotropen 2D-Mehrschichtvolumen wiederherzustellen, indem die MR-Details erhalten bleiben, die in der medizinischen Diagnose eine wichtige Rolle spielen. Die MR-Bilddetails werden unter Verwendung von Wörterbüchern aufbewahrt, die anhand von feinen bis groben Patch-Details gelernt werden, die aus verschiedenen Skalen des MR-Bildes extrahiert wurden. Gelernte Wörterbücher bieten Detailinformationen zum Wiederherstellen von MR-Patch-Details. Darüber hinaus wird eine Einschränkung verwendet, um Kanten innerhalb des wiederhergestellten MR-Bildes durch Minimieren der Energiekosten zu bewahren. Hier wird die Einschränkung adaptiv entsprechend der dominanten Kantenorientierung des Bildes gewichtet, um die Details entlang verschiedener Orientierungen effektiv zu bewahren. Experimentelle Ergebnisse belegen die Fähigkeit unseres Ansatzes, MR-Bilddetails zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-60964-5_53 21f1ac10ea5a6440b93faacdabb848f0;de;;;2.4.;;;Robuste Objektverfolgung für Hardwaresysteme mit begrenzten Ressourcen Hardware-Systeme mit begrenzten Ressourcen erzeugen in vielen realen Robot-Vision-Anwendungen oft LFR-Videos (Low Frame Rate). Die meisten existierenden Ansätze behandeln die LFR-Videoverfolgung als ein abruptes Bewegungsverfolgungsproblem. Bei LFR-Video-Tracking-Anwendungen verursacht LFR jedoch nicht nur abrupte Bewegungen und auch große Änderungen des Aussehens von Objekten, da die Posen und Beleuchtung der Objekte von einem Frame zum nächsten großen Änderungen unterliegen können. Dies erschwert die LFR-Videoverfolgung zusätzlich. In diesem Papier schlagen wir ein robustes und allgemeines Tracking-System für LFR-Videos vor. Das Tracking-System besteht aus vier Hauptteilen: Dominant-Farbraum-basierte Objektdarstellung, Cross-Bin-Ratio-basiertes Ähnlichkeitsmaß, Annealed PSO (Particle Swarm Optimization)-basierte Suche, integrale Abbildung von Modellparametern. Die ersten beiden Teile werden kombiniert, um eine gute Lösung für die Aussehensänderungen bereitzustellen, und die abrupte Bewegung wird durch die Suche auf Basis von getempertem PSO effektiv erfasst. Darüber hinaus wird ein integrales Bild von Modellparametern erstellt, das eine Nachschlagetabelle zur Auswertung bereitstellt, und dies reduziert die Rechenlast erheblich. Experimentelle Ergebnisse zeigen, dass das vorgeschlagene Tracking-System die durch LFR verursachten Schwierigkeiten effektiv bewältigen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25489-5_9 8dd2e4210324f88199e561832a338d51;de;;;2.4.;;;Analyse der Rundtour-Aktivität basierend auf GPS-Log In diesem Beitrag schlagen wir eine Analysemethode der Rundreiseaktivität basierend auf GPS-Log vor, um eine geeignete Tourismusförderung für das aktuelle Tourismusumfeld zu realisieren. Bei dieser Untersuchung konzentrieren wir uns insbesondere auf Rundreisen mit Mietwagen, da die Zahl der Mietwagennutzer in Japan schnell ansteigt. Das vorgeschlagene Verfahren setzt grundlegende Aktivitätsinformationen voraus, die die Informationen über Ziele und Bewegungen auf der Rundtour basierend auf dem GPS-Protokoll umfassen. Die Analyse der Rundreiseaktivität erfolgt auf Basis der erfassten Basisaktivitätsinformationen. In der vorgeschlagenen Methode werden das touristische Attraktivitätsniveau jeder Stadt und die wichtigsten Tourrouten für Rundreisen auf der Grundlage eines stochastischen Modells analysiert. Wir bestätigen die Wirksamkeit der vorgeschlagenen Methode durch das Experiment mit GPS-Protokollen, die von echten Touristen gesammelt wurden, die eine Rundreise in Hokkaido, Japan, durchführen. Darüber hinaus analysieren wir die Rundreiseaktivitäten in Hokkaido und besprechen das Analyseergebnis.;-;-;-;https://link.springer.com/chapter/10.1007/3-211-32710-X_16 3e50975c0ad335dbdb9e8447f5eae651;de;;;2.4.;;;Half-Sweep-Bildgebung für Tiefe durch Defokussierung Depth from Defocus (DFD) ist eine Technik, um die Szenentiefe aus der Defokussierung in Bildern wiederherzustellen. DFD umfasst normalerweise zwei unterschiedlich fokussierte Bilder (nahfokussiert und fernfokussiert) und berechnet die Größe der Tiefenunschärfe in den aufgenommenen Bildern. In den letzten Jahren wurde die Technik der codierten Apertur verwendet, bei der ein spezielles Muster für die Apertur verwendet wird, um die Punktverteilungsfunktion (PSF) zu konstruieren, um die Genauigkeit der DFD-Schätzung zu verbessern. Die codierte Apertur opfert jedoch ein einfallendes Licht und verliert ein SNR der aufgenommenen Bilder, das für die genaue Schätzung benötigt wird. In diesem Artikel schlagen wir eine neue computergestützte Bildgebung vor, die als Half-Sweep-Bildgebung bezeichnet wird. Half-Sweep-Imaging entwickelt PSFs zur Verbesserung von DFD und Aufrechterhaltung des SNR der aufgenommenen Bilder. Wir haben den Vorteil der Bildgebung im Vergleich zu konventionellem DFD und codierter Apertur in Experimenten bestätigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25367-6_30 a35494f74fe412f6a9dcb8b0f2fe0c23;de;;;2.4.;;;Ein robuster Ansatz zum Fingerabdruck-Matching: Wachstum und Verschmelzung lokaler Strukturen Dieses Papier schlug einen robusten Ansatz zum Abgleichen von Fingerabdrücken vor, der auf dem Wachsen und Verschmelzen lokaler Strukturen basiert. Zuerst erhalten wir Kandidaten von Minutien-Dreiecken, die kleinste lokale Struktur in unserem Ansatz, und dann wachsen alle Kandidaten von Minutien-Strukturen zu größeren lokalen Strukturen (wir nennen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74549-5_15 389ea1522dd8c386a853ab37965dd7e4;de;;;2.4.;;;Ein allgemeiner Rahmen für die Ereigniserkennung von Social Media Die Verfügbarkeit genauer und/oder aktueller Massendaten kann die Entwicklung innovativer Ansätze zur Bewertung raumzeitlicher Prozesse anregen. Es ist jedoch eine Herausforderung, aussagekräftige Informationen aus diesen Sammlungen von benutzergenerierten Daten zu extrahieren. Ereigniserkennung ist ein interessantes Konzept im Zeitalter des Web 2.0 und des allgegenwärtigen Internets. Verschiedene existierende Ereigniserkennungsalgorithmen teilen sich ein sehr einfaches, aber leistungsstarkes Architekturmodell, Pipes-&-Filters. Anhand dieses Modells entwickelten die Autoren dieser Studie ein generisches und erweiterbares Programmier-Framework, um aus heterogenen und unstrukturierten Online-Datenströmen sinnvolle Muster zu finden. Das Framework unterstützt Forscher mit Adaptern zu verschiedenen Social-Media-Plattformen, optionalen Vorverarbeitungsschritten. Seine grafische Benutzeroberfläche unterstützt den Benutzer mit einer interaktiven grafischen Umgebung bei der Einstellung von Parametern und der Auswertung der Ergebnisse durch Karten, 3D-Visualisierung und verschiedene Diagramme. Das Framework wurde erfolgreich auf Flicker- und Instagram-Plattformen für verschiedene Zeiträume und Orte getestet, um latente Ereignisse zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19950-4_6 f559ad2fee9f168c77c7b451ce88e3fd;de;;;2.4.;;;Steifheit des menschlichen Arms und Gleichgewichtspunkt-Trajektorie während der Bewegung mit mehreren Gelenken Mit einem neu entwickelten Hochleistungs-Manipulandum und einem neuen Schätzalgorithmus haben wir die Steifigkeitsparameter des menschlichen Mehrgelenkarms während Mehrgelenkpunkt-zu-Punkt-Bewegungen auf einer horizontalen Ebene gemessen. Dieses Manipulandum ermöglicht es uns, den Arm des Probanden innerhalb einer kurzen Zeit während der Bewegung ausreichend zu stören. Armsteifigkeitsparameter wurden unter Verwendung eines neuen Algorithmus zuverlässig geschätzt, bei dem alle unbekannten strukturellen Parameter unabhängig von der Armhaltung geschätzt werden konnten (d. h. konstante Werte unter jeder Armhaltung). Die Armsteifigkeit bei Querbewegung war deutlich größer als bei entsprechender Haltung, jedoch nicht bei Längsbewegung. Obwohl die Verhältnisse von Ellbogen-, Schulter- und Doppelgelenksteifigkeit zeitlich variiert wurden, änderte sich die Orientierung der Steifigkeitsellipsen während der Bewegung nicht wesentlich. Gleichgewichtspunkt-Trajektorien, die aus gemessenen Steifigkeitsparametern und tatsächlichen Trajektorien vorhergesagt wurden, waren im kartesischen Raum leicht sinusförmig gekrümmt und ihre Geschwindigkeitsprofile unterschieden sich stark von den Geschwindigkeitsprofilen der tatsächlichen Handtrajektorien. Dieses Ergebnis widerspricht der Hypothese, dass das Gehirn die Dynamik bei der Bewegungssteuerung in Abhängigkeit vom neuromuskulären Servomechanismus nicht berücksichtigt, sondern impliziert, dass das Gehirn einige interne Modelle von kontrollierten Objekten erwerben muss.;-;-;-;https://link.springer.com/article/10.1007/s004220050329 2eab787ef6ff459a30736c036815dce3;de;;;2.4.;;;Ein Schusswaffen-Identifikationssystem basierend auf einem neuronalen Netzwerk In diesem Beitrag wird ein System zur Identifizierung von Schusswaffen basierend auf einem neuronalen Netz der Self-Organizing Feature Map (SOFM) vorgeschlagen. Wir konzentrieren uns auf die Patronenhülsenidentifikation des Randfeuermechanismus. Experimente zeigen, dass das vorgeschlagene Modell durch die Integration des neuronalen SOFM-Netzes und der Entscheidungsstrategie eine hohe Leistung und Robustheit aufweist. Auch dieses Modell wird einen wesentlichen Beitrag zur Weiterverarbeitung leisten, wie beispielsweise zur effizienteren und genaueren Identifizierung von Patronenhülsen durch Kombination mit mehr Merkmalen auf Patronenhülsenbildern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24581-0_27 13f7b0e15407cc3db1c4f44ccca8759d;de;;;2.4.;;;Erkennung von verteilten häufigen Elementen bei unsicheren Daten Die Erkennung häufiger Elemente ist eine der wertvollen Techniken in vielen Anwendungen, wie z. B. Netzwerküberwachung, Erkennung von Netzwerkeindringlingen, Erkennung von Wurmviren usw. Diese Technik wurde in deterministischen Datenbanken gut untersucht. Es ist jedoch eine neue Aufgabe für aufkommende unsichere Datenbanken, insbesondere in verteilten Umgebungen. In diesem Beitrag wird eine neue Definition von häufigen Items zu unsicheren Daten definiert. Basierend auf der Definition wird ein polynomialer Algorithmus vorgeschlagen, der die Anfragen in einer zentralen Umgebung effizient beantworten kann. Darüber hinaus entwirft diese Arbeit die kommunikationseffizienten Algorithmen zum Abrufen der Top-k-Elemente mit der größten Wahrscheinlichkeit von verteilten Standorten. Die Algorithmen berechnen die obere Grenze jeder Übertragungsrunde und filtern die Daten so weit wie möglich, die keine Chance haben, das Abfrageergebnis zu beeinflussen. Umfangreiche Experimente zeigen, dass die Algorithmen die Abfragen korrekt verarbeiten und den Kommunikationsaufwand mit verschiedenen Datensätzen effizient reduzieren können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17316-5_48 1a8a0cb516aa6062ed51057b8c2004d7;de;;;2.4.;;;Eine neuartige Demenz-Diagnosestrategie zur arteriellen Spinmarkierung von Magnetresonanzbildern über pixelweise Teilvolumenkorrektur und Rangordnung Das Arterial Spin Labeling (ASL) ist eine aufkommende Magnetresonanztomographie-Technik, die erst seit den letzten Jahren zunehmend Aufmerksamkeit in der Demenzdiagnostik erregt. ASL ist in der Lage, eine direkte und quantitative Messung des zerebralen Blutflusses (CBF) von gescannten Patienten bereitzustellen, so dass eine Hirnatrophie von Demenzpatienten durch gemessene niedrige CBF in bestimmten Gehirnregionen durch ASL aufgedeckt werden kann. Partielle Volumeneffekte (PVE), die hauptsächlich durch Signalkreuzkontamination aufgrund von Pixelheterogenität und begrenzter räumlicher Auflösung von ASL verursacht werden, verhindern jedoch oft eine genaue Messung von CBF. Eine ungenaue CBF ist anfällig dafür, in die Irre zu führen und anschließend sogar die Diagnoseergebnisse der Demenzerkrankung zu verschlechtern. In dieser Arbeit wird erstmals eine neuartige Diagnosestrategie für Demenzerkrankungen basierend auf ASL vorgeschlagen. Die Diagnosestrategie besteht aus zwei Schritten: 1) Durchführen einer pixelweisen PVE-Korrektur auf originalen ASL-Bildern und 2) Vorhersage des Schweregrads der Demenzerkrankung basierend auf korrigierten ASL-Bildern mittels Ranking. Umfangreiche Experimente und umfassende statistische Analysen werden durchgeführt, um die Überlegenheit der neuen Strategie gegenüber mehreren bestehenden zu demonstrieren. Aus statistischer Sicht werden vielversprechende Ergebnisse berichtet.;-;-;-;https://link.springer.com/article/10.1007/s11042-014-2395-2 764201731e862e957dc556f6d6099e11;de;;;2.4.;;;Russische Erfahrung in der Anwendung von Concept Maps im Bildungswesen Der Beitrag beschreibt die Erfahrungen russischer Forscher und Lehrer mit der Verwendung von Concept Maps im Unterricht. Konzeptkarten werden von russischen Wissenschaftlern als Instrument zur Bewertung der Informationsbeschaffung und als Lerntechnik angesehen. Die Hauptziele der Anwendung von CM im Lernprozess werden in der Arbeit definiert. Es werden einzelne Fälle der Verwendung von Concept Maps und deren Kombination mit anderen Lehrmethoden beschrieben, um die besten Lernergebnisse der Schüler zu erzielen. Ein differenzierter Ansatz bei der Auswahl verschiedener Arten von CM als Bewertungsinstrument für das Wissen der Studierenden steht im Vordergrund. Die Probleme, mit denen Lehrkräfte bei der Verwendung von Concept Maps konfrontiert sind, werden zusammengefasst und hervorgehoben. Das Entwicklungspotenzial von CM als Lerntechnik und als Gestaltung des konzeptionellen Rahmens der Studierenden wird diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-45501-3_12 935132e5415b734754b859e77213cac0;de;;;2.4.;;;Intelligente optimale Steuerung im Seltenerd-Gegenstrom-Extraktionsprozess Entsprechend den Problemen bei der Online-Messung und der automatischen Steuerung des Komponentengehalts im Seltenerd-Gegenstrom-Extraktionsprozess werden weiche Sensorstrategien basierend auf der Mechanismusmodellierung des Extraktionsprozesses und neuronaler Netzwerktechnologie vorgeschlagen. Auf dieser Basis wird die intelligente optimale Regelstrategie durch die Kombination der Technologien basierend auf Softsensor und CBR (Case-based Reasoning) für den Extraktionsprozess bereitgestellt. Die Anwendung dieses Systems auf einen HAB-Yttrium-Extraktionsprozess ist erfolgreich und es werden eine optimale Steuerung, ein optimaler Betrieb und bemerkenswerte Vorteile realisiert.;-;-;-;https://link.springer.com/chapter/10.1007/11539117_33 7baace484a4fc44de16275fc2b9956f7;de;;;2.4.;;;Optimierte Rekonstruktion von Fasern der weißen Substanz durch Kombination von Diffusion und funktioneller MRT Die diffusionsgewichtete MRT (DWI) ist ein primäres Werkzeug zur Kartierung der strukturellen Konnektivität von Trakten der weißen Substanz im menschlichen Gehirn. In letzter Zeit kann die Faserrekonstruktion durch die Kombination von Diffusion und funktioneller MRT (fMRT) verbessert werden, um den optimalen Pfad zu erhalten. In diesem Artikel haben wir einen optimierten Rekonstruktionsalgorithmus für weiße Substanzfasern vorgeschlagen, der Diffusions- und funktionelle MRT-Signale in der weißen Substanz verwendet, um funktionelle aktive Pfade unter spezifischen neuralen Aktivitäten zu verfolgen. Die experimentellen Ergebnisse zeigten, dass die von uns vorgeschlagene Methode zur Rekonstruktion des funktionellen Faserbündels der weißen Substanz verwendet werden kann, die zuverlässiger und robuster ist als die bestehende Methode der Faserrekonstruktion.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-24274-9_41 a0c997806baf4dad1ae7dc40b8cf498d;de;;;2.4.;;;Nutzung der globalen Dynamikstruktur der humanoiden Ganzkörperbewegung - Den „Knack“ der Roll-and-Rise-Bewegung bekommen Die Geschicklichkeit menschlichen Verhaltens ergibt sich aus der Fähigkeit, sogenannte „Knacks“ oder die wesentlichen Bezugssysteme (Koordinaten im Phasenraum) für eine erfolgreiche Steuerung unter unbekannten Störungen zu entdecken und auszunutzen. Diese Strategie unterscheidet sich von der herkömmlichen Robotersteuerung dadurch, dass sie die Phasenraum-Trajektorie nur teilweise spezifiziert/steuert, das System in eine gewünschte natürliche Dynamik bringt und es die Arbeit erledigen lässt. Als erstes Beispiel für eine solche Strategie untersuchten wir eine „Roll-and-Rise“-Bewegung, eine volldynamische Ganzkörperbewegung mit unvorhersehbaren Störungen aufgrund mehrfacher Bodenkontakte. Durch eine systematische Suche im Phasenraum werden die „Knacks“ der Bewegung identifiziert und analysiert. Es wird ein erfolgreiches Experiment mit einem humanoiden Ganzkörperroboter in Erwachsenengröße vorgestellt, der innerhalb von 2 Sekunden von einer flachliegenden Haltung in eine geduckte Haltung aufsteigt.;-;-;-;https://link.springer.com/chapter/10.1007/11008941_41 afb7d2c81898516216c85660ba214d71;de;;;2.4.;;;Myo-To-Speech - Entwicklung von Fuzzy-Neural Network-Vorhersage von Sprachäußerungen aus myoelektrischen Signalen Eine Stimmrehabilitation ist nach mehreren Erkrankungen erforderlich, wenn die Stimmfähigkeit einer Person durch chirurgische Eingriffe oder Entfernung von Stimmorganen (z des Gehirns (zB Dysarthrie bei der Parkinson-Krankheit). Ein neuartiger Ansatz zur Stimmrehabilitation besteht darin, die phonetische Kontrollsequenz des Stimmerzeugungsapparates (Kehlkopf, Zunge usw.) vorherzusagen, indem man Schlussfolgerungen auf der Grundlage von myoelektrischen (EMG) Signalen zieht, die von einem Satz von Kontaktelektroden erfasst und an die Halsbereich einer Person mit bedeutender phonatorischer Veränderung (zB laryngektomiert) und intakter neuraler Kontrolle. Das Inferenzparadigma basiert auf einem EFuNN (Evolving Fuzzy Neural Network), das darauf trainiert wurde, das abgetastete EMG-Signal zu verwenden, um das Phonem vorherzusagen, das der motorischen Steuerung der sublingualen Muskelbewegungen entspricht, die zur Phonationszeit überwacht werden. Ein Phonem-zu-Sprache-Synthesizer erzeugt eine Audioausgabe entsprechend der Äußerung, die das Subjekt versucht hat auszusprechen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98204-5_13 bfdb64fd01d09fa251a8e6821ff50587;de;;;2.4.;;;Japanisch-Lernunterstützung für Chinesisch-Japanisch-Übersetzung Wenn chinesische Studenten Japanisch lernen, fällt es ihnen manchmal schwer, die japanische Grammatik richtig zu verstehen, weil Chinesisch und Japanisch dieselben chinesischen Schriftzeichen auf unterschiedliche Weise verwenden. Unsere Forschung konzentriert sich auf die Übungen der Studierenden, chinesische Sätze ins Japanische zu übersetzen, und befähigt die Studierenden, sich anhand übersetzter Sätze korrektes Wissen anzueignen. Um dieses Ziel zu erreichen, ist unser Chinesisch-Japanisch-Übersetzungsprozess in drei Schritte unterteilt: Übersetzung von Wörtern, Reihenfolge der Wörter und Hinzufügen von funktionalen Ausdrücken, um den Satz zu vervollständigen. Das System vergleicht übersetzte Sätze, die von Schülern geschrieben wurden, mit der im System voreingestellten richtigen Antwort und gibt an, in welchem ​​Schritt Schüler sich möglicherweise irren könnten. Dann gibt das System ein Ergebnis der Bewertung des übersetzten Satzes mit der Erklärung der falschen Übersetzung aus. Experimentelle Ergebnisse zeigten, dass unser System bei der Erkennung von Fehlern, insbesondere von Wortfehlern und japanischen Funktionsausdrücken, effektiv war.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23854-3_61 a860097c6b23fbb1be151871c1b2f697;de;;;2.4.;;;Erkennung von Wärmeverschmutzung durch Kraftwerke an Chinas Ostküste mit Fernerkundungsdaten Die Beschleunigung des Industrialisierungsprozesses in China hat den Strombedarf erhöht und einen Boom im Kraftwerksbau ausgelöst, insbesondere entlang der Ostküste Chinas, wo die Wirtschaft früh aussteigt und sich schnell entwickelt. Die von den thermischen und nuklearen Kraftwerken erzeugten Wärmefahnen, Restchlor, Nuklide und andere Verschmutzungen haben Auswirkungen auf die Öko-Umwelt der Küsten. Um die thermische Verschmutzung der Kraftwerke in der Yueqing Bay an der Ostküste zu überwachen, wird in dieser Untersuchung die Verteilung der Meeresoberflächentemperatur (SST) um die Kraftwerke herum mithilfe der SST-Abfragemethoden ermittelt, die für Landsat Enhanced Thematic Mapper Plus ( ETM+), HJ-1B Infrarotsensor (IRS) und Terra moderate Resolution Imaging Spectroradiometer (MODIS) Daten. Der Vergleich der SST-Abrufergebnisse vor und nach dem Betrieb der Kraftwerke zeigt, dass die Gesamtfläche des Meerwassers, die von der Wärmeableitung der beiden Kraftwerke in der Yueqing Bay betroffen ist, etwa 17,95 km² beträgt;-;-;-;https://link.springer.com/article/10.1007/s00477-016-1293-8 e41d895d23704308de82d0b537ff68f6;de;;;2.4.;;;Robustes diskriminantes Korrelationsfilter-basiertes Schweißnahtverfolgungssystem In den letzten Jahren werden passive Vision-basierte Verfahren im Schweißnahtverfolgungssystem aufgrund ihrer höheren Genauigkeit und Robustheit gegenüber verschiedenen Störungen immer beliebter. In diesem Beitrag stellen wir ein neuartiges robustes Schweißnahtverfolgungssystem vor, das auf passivem Sehen basiert. Ein robuster diskriminativer Korrelationsfilter wird vorgeschlagen, um die Naht genau zu lokalisieren, indem Schweißnahtbilder und Hintergrundbilder als positive bzw. negative Proben verwendet werden. Darüber hinaus wird eine neue Online-Aktualisierungsfilterstrategie vorgeschlagen, um den Effekt unterschiedlicher Beleuchtung oder sich ändernder Struktur und Erscheinung zu reduzieren. Der zweiskalige Suchfenstermodus und die schnelle Fourier-Transformation werden kombiniert, um die Geschwindigkeit und Präzision der Schweißnahtverfolgung zu erhöhen. Die umfangreichen experimentellen Ergebnisse zeigen, dass das vorgeschlagene Verfahren einfach und schnell ist und auch seine Genauigkeit bei der Verfolgung von Schweißnähten hoch ist. Das vorgeschlagene System wurde erfolgreich auf industrielle Produktionslinien angewendet.;-;-;-;https://link.springer.com/article/10.1007/s00170-018-2254-9 34c3677a89a35b82ffaacbc66427be04;de;;;2.4.;;;Aufgabenauswahl basierend auf der Vorhersage der Mitarbeiterleistung beim Gamified Crowdsourcing In diesem Beitrag wird eine Methode zur Auswahl von Aufgaben im gamifizierten Crowdsourcing vorgestellt. Die Wissenssammlung ist wichtig für den Aufbau einer hochwertigen Wissensdatenbank. Der Prozess der Wissenssammlung ist in unserem Wortsuchassistentensystem ausgerichtet, in dem Wissen als Tripel präsentiert wird. Es werden vier Arten von Quizfragen vorgestellt, die verwendet werden können, um Wissen von vielen Gelegenheitsnutzern zu sammeln. Die Quizze sind Variationen eines Lückenfüllformats, bei dem der Benutzer eine Information durch Ausfüllen der Lücken im Quiz bereitstellt. Um Wissen effizient zu sammeln, auch wenn das erforderliche Wissen auf viele Benutzer verteilt ist, wird ein Vorhersageverfahren eingeführt, um ein Quiz auszuwählen, das für einen bestimmten Benutzer am besten geeignet ist. Die Simulationsergebnisse zeigen das Potenzial der vorgeschlagenen Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-2994-5_6 741f12ebd2f752a8e81791e66db2cd11;de;;;2.4.;;;Eine umfassende Untersuchung der Sklerabiometrie: ein neuartiger Datensatz und eine Leistungsstudie Der Bereich der Augenbiometrie gehört zu den beliebtesten Zweigen der biometrischen Erkennungstechnologie. Dieser Bereich wurde lange Zeit von der Iriserkennungsforschung dominiert, während andere Augenmodalitäten wie die periokulare Region oder das Gefäßsystem der Sklera in der Literatur deutlich weniger beachtet wurden. Folglich sind okuläre Modalitäten jenseits der Iris nicht gut untersucht und ihre Eigenschaften sind heute noch nicht so gut verstanden. Während der jüngste Bedarf an sichereren Authentifizierungssystemen das Interesse an konkurrierenden Augenmodalitäten erheblich gesteigert hat, werden Fortschritte in diesen Bereichen immer noch durch den Mangel an öffentlich verfügbaren Datensätzen gebremst, die eine gezieltere Erforschung spezifischer Augenmerkmale neben der Iris ermöglichen würden. In diesem Artikel wollen wir diese Lücke für den Fall der Sklerabiometrie schließen und einen neuartigen Datensatz vorstellen, der für die Erforschung der Augenbiometrie und vor allem für die Erforschung der Vaskulatur der Sklera entwickelt wurde. Unser Datensatz mit dem Namen Sklera Blood Vessels, Periocular and Iris (SBVPI) ist unseres Wissens der erste öffentlich zugängliche Datensatz, der speziell für die Forschung zur Sklerabiometrie entwickelt wurde. Der Datensatz enthält hochwertige RGB-Augenbilder, aufgenommen im sichtbaren Spektrum, von 55 Probanden. Im Gegensatz zu konkurrierenden Datensätzen enthält es manuelle Markierungen verschiedener Augenregionen wie Iris, Pupille, Augenwinkel oder Wimpern und eine detaillierte pixelweise Annotation des gesamten Sklera-Gefäßsystems für eine Teilmenge der Bilder. Darüber hinaus werden die Datensätze mit Geschlechts- und Altersbezeichnungen geliefert. Die einzigartigen Eigenschaften des Datensatzes ermöglichen es uns, Aspekte der Sklerabiometrie-Technologie zu untersuchen, die bisher in der Literatur nicht untersucht wurden (z. B. Gefäßsegmentierungstechniken) sowie Fragen, die für praktische Erkennungssysteme von zentraler Bedeutung sind. Daher präsentieren wir in diesem Artikel neben dem SBVPI-Datensatz auch eine umfassende Untersuchung der Sklerabiometrie und der wichtigsten Kovariaten, die die Leistung von Sklerasegmentierungs- und Erkennungstechniken beeinflussen, wie Geschlecht, Alter, Blickrichtung oder Bildauflösung. Unsere Experimente zeigen nicht nur den Nutzen des neu eingeführten Datensatzes, sondern tragen auch zu einem besseren Verständnis der Sklerabiometrie im Allgemeinen bei.;-;-;-;https://link.springer.com/article/10.1007/s00521-020-04782-1 30de8fcb13f7dfa3331bcd24eebaebaf;de;;;2.4.;;;Schnelle dreiphasige Erkennung von Gewebedefekten In der Textilindustrie ist die Stofffehlerprüfung ein sehr wichtiger Schritt zur Sicherstellung der Stoffqualität. Gegenwärtig können die meisten Verfahren die Defekte für Volltonfarbe mit den unterscheidbaren Defekten erkennen, sie sind jedoch für kleine Defekte nicht sehr effizient, insbesondere für Defekte, die einen geringen Unterschied zum Hintergrund aufweisen. In diesem Papier schlagen wir eine Dreiphasenmethode, Mittelwertfilter, Faltungsoperator kombiniert mit Varianz (MCV), zur Erkennung von Stofffehlern vor. Bei einem Fabric-Bild verwenden wir zuerst den Mittelwertfilter, um das Rauschen zu unterdrücken, und dann wird der Faltungsoperator angewendet, um das Bild zu verbessern. Basierend auf dem verbesserten Bild teilen wir es in viele Patches auf. Für einen gegebenen Patch berechnen wir seine Varianz und verwenden dann die Schwellenwertbildung, um zu entscheiden, ob der Patch frei von Defekten ist oder nicht. Schließlich wird aus diesen verarbeiteten Patches ein Defektbild synthetisiert. Experimentelle Ergebnisse belegen die Wirksamkeit des vorgeschlagenen MCV-Algorithmus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00015-8_26 bc0f2fd986a066cb5c7c5134bd9c8f40;de;;;2.4.;;;Klassifikation motorischer Bildaufgaben für Elektrokortikogramm-basierte Gehirn-Computer-Schnittstelle In der vorliegenden Studie schlagen wir ein neues Schema für die motorische Bildgebung (MI)-Klassifikation von Mehrkanal-Elektrokortikogramm (ECoG)-Aufzeichnungen von Patienten mit medizinisch nicht behandelbarer fokaler Epilepsie vor.;-;-;-;https://link.springer.com/article/10.1007/s13534-014-0128-0 a6fe53509cbb2edd6e77d2c4603fc80f;de;;;2.4.;;;Analytischer Vergleich konventioneller und MCDF-Operationen in der Bildverarbeitung Modified Conjugate Directional Filtering (MCDF), ein neues Verfahren, das 2002 von Guo und Watson für die digitale Daten- und Bildverarbeitung vorgeschlagen wurde, bietet die Möglichkeit, nicht nur direktional gefilterte Ergebnisse in konjugierten Richtungen in ein Bild zu integrieren, das die maximalen linearen Merkmale in diesen Konjugierten zeigt Anweisungen, sondern auch die weitere Manipulation der Ergebnisse mit einer Reihe vordefinierter MCDF-Operationen für verschiedene Zwecke. Obwohl eine Reihe von Fällen verwendet wurden, um die Nützlichkeit mehrerer vorgeschlagener MCDF-Vorgänge zu testen, und die Ergebnisse „visuell“ besser sind als bei einigen herkömmlichen Methoden, wurden jedoch keine quantifizierten analytischen Vergleiche zur Wirksamkeit gegenüber herkömmlichen Methoden erhalten. In diesem Beitrag skizzieren wir zunächst ein FFT-basiertes Schema für analytische Vergleiche zwischen den Ergebnissen aus der Verwendung konventioneller und MCDF-Operationen und wenden dieses Schema dann auf ein Luftbild einer Stadtansicht an, um Vergleiche zwischen richtungsgefiltertem und MCDF anzustellen (add2 ) Bilder. Der Vergleich bestätigt, dass die MCDF(add2)-Operation tatsächlich besser abschneidet als die konventionelle Richtungsfilterung in der Bildverarbeitung, was die Informationsintegration und das Zurückhalten niederfrequenter Komponenten angeht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24768-5_103 f9811a4efdd68fa7885cb381dbb60893;de;;;2.4.;;;Piezoelektrischer Impulsdiagnosewandler mit 9x9-Sensorarrays und Impulssignalverarbeitung Zweck: Vorschlag der Herstellung von Pulswandlern eines 9x9-Sensorarrays und der Strategien zum Sammeln von Pulsmustern und Untersuchung dieser Muster mit Fourier-Analyse. An jedem Standort werden 9 Sensorsonden vorhanden sein, um Pulsinformationen von 27 Standorten der gesamten Pulsholographie zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23235-0_69 e5355b060a6ecac5da72019aceca5dba;de;;;2.4.;;;Optische Reaktionen, die nach lokaler Stimulation in neostriatalen Schnittpräparaten von Ratten aufgezeichnet wurden: Wirkungen von GABA- und Glutamat-Antagonisten und Dopamin-Agonisten Die Wirkungen von GABA- und Glutamat-Antagonisten sowie Dopamin-Agonisten und -Antagonisten auf die optische Reaktion neostriataler (Str)-Schnitte auf lokale elektrische Stimulation wurden unter Verwendung eines spannungsempfindlichen Farbstoffs und eines Hochgeschwindigkeits-Bildsensors untersucht. Eine einzelne lokale Stimulation, die auf die Str-Schichten angewendet wurde, rief optische Reaktionen hervor, die 40–80 ms andauerten und sich in jede Richtung bis zu etwa 1,5 mm ausbreiteten. Die Badanwendung von Bicucullinmethodid erhöhte die Intensität und Dauer der optischen Reaktionen, während ihre räumlichen Reaktionsmuster unverändert blieben. Die Badanwendung von 6-Cyano-7-nitrochinoxalin-2,3-dion (CNQX) reduzierte den späten Teil der Reaktionen, der etwa 4 ms nach der Stimulation auftrat, stark, aber der frühe Teil der Reaktionen wurde durch CNQX nicht beeinflusst. Der frühe Teil der Reaktion wurde durch die Anwendung von Tetrodotoxin eliminiert. Badanwendung von;-;-;-;https://link.springer.com/article/10.1007/BF00241114 8f598e4f7f362af91018213f87f1516f;de;;;2.4.;;;Ein hybrider intelligenter Algorithmus für das Vehicle Routing mit Zeitfenstern Vehicle Routing Problems (VRP) treten in vielen realen Anwendungen in Transport und Logistik auf. Dieses Papier betrachtet Vehicle Routing Modelle mit Zeitfenstern und ihren hybriden intelligenten Algorithmus. Das Vehicle Routing Problem with Time Window (VRPTW) ist ein NP-vollständiges Optimierungsproblem. Das Ziel von VRPTW besteht darin, eine Flotte von Fahrzeugen mit spezifischer Kapazität einzusetzen, um eine Reihe von Kunden mit festen Bedarfs- und Zeitfensterbeschränkungen zu bedienen. Zur Lösung dieses Problems wird ein hybrider intelligenter Algorithmus basierend auf einem dynamischen Sweep- und Ameisenkoloniealgorithmus (DSACA-VRPTW) vorgeschlagen. Erstens könnte die Lösung jeder Ameise durch einen dynamischen Sweep-Algorithmus verbessert werden. Dann wird dafür eine neue verbesserte Ameisenkolonie-Technik vorgeschlagen. Schließlich werden Solomons Benchmark-Instanzen (VRPTW 100-Kunde) auf den Algorithmus getestet und zeigen, dass die DSACA in der Lage ist, Lösungen für VRPTW zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87442-3_7 6c86fff33bd558492f9ef990238b56df;de;;;2.4.;;;Forschung zu den kompromittierenden elektromagnetischen Emanationen der PS/2-Tastatur Computertastaturen werden häufig verwendet, um vertrauliche Daten einzugeben. Tastaturen, die elektronische Komponenten enthalten, emittieren elektromagnetische Wellen, die Informationen zu Tastenanschlägen enthüllen und zu Informationssicherheitsproblemen führen können. Konzentrieren Sie sich auf die hauptsächlich verwendete PS/2-Tastatur, wird ein repräsentativer Steuerkreis analysiert, um die empfindlichen Signale zu finden, die elektromagnetische Abstrahlungen verursachen. Das PS/2-Protokoll ist so gestaltet, dass es die potenzielle kompromittierende Quelle lokalisieren kann. Weitere Untersuchungen werden durchgeführt, um herauszufinden, wie die elektromagnetischen Emissionen den Tastenanschlag und die Eigenschaften der kompromittierenden Emanationen der PS/2-Tastatur beeinträchtigen. Ein Experiment wird entworfen und durchgeführt, um die Forschungsergebnisse zu überprüfen und einen Weg zur Lösung des Sicherheitsproblems zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31698-2_4 3b37ced3ec1b14d714b58a3febaac745;de;;;2.4.;;;Eine nächstbeste Ansichtsmethode basierend auf Selbstokklusionsinformationen in Tiefenbildern für sich bewegende Objekte Die Bestimmung der nächstbesten Sicht einer Kamera für sich bewegende Objekte findet breite Anwendung in dynamischen Objektszenarien, wie beispielsweise unbemannten Fluggeräten und automatischer Erkennung. Die größte Herausforderung dieses Problems besteht darin, die nächstbeste Ansicht zu bestimmen, während sich das visuelle Objekt bewegt. In dieser Arbeit wird ein neuartiges Next-Best-View-Verfahren basierend auf Selbstokklusionsinformationen in Tiefenbildern von bewegten Objekten vorgeschlagen. Zuerst wird ein Tiefenbild eines sich bewegenden Objekts erfasst und eine Selbstokklusionsdetektion wird in dem erfassten Bild verwendet. Auf dieser Grundlage werden die Selbstokklusionsregionen durch die Verwendung von Raumvierecksunterteilungen modelliert. Zweitens wird gemäß dem Modellierungsergebnis ein Verfahren basierend auf der Idee der mittleren Verschiebung vorgeschlagen, um das Ergebnis der Selbstokklusionsvermeidung entsprechend dem aktuellen Objekt zu berechnen. Drittens wird das zweite Tiefenbild des sich bewegenden Objekts erfasst und die Merkmalspunkte in zwei Bildern werden erfasst und abgeglichen, dann wird die 3D-Bewegungsschätzung durch die 3D-Koordinaten der abgeglichenen Merkmalspunkte ausgeführt. Schließlich wird die nächstbeste Ansicht bestimmt, indem das Ergebnis der Selbstokklusionsvermeidung und der 3D-Bewegungsschätzung kombiniert wird. Experimentelle Ergebnisse bestätigen, dass die vorgeschlagene Methode durchführbar ist und eine relativ hohe Echtzeitleistung aufweist.;-;-;-;https://link.springer.com/article/10.1007/s11042-018-5822-y a4513ee0219936b74a1f8efcd36c715e;de;;;2.4.;;;Studie zur Validität der autofluoreszenzbasierten Detektion beginnender okklusaler Karies in vitro im Vergleich zu DIAGNOdent pen Es wurde die Validität der laserinduzierten Fluoreszenzspektroskopie für die Früherkennung von Okklusalkaries bei Bestrahlung mit einem 403-nm-Diodenlaser im Vergleich zum kommerziellen DIAGNOdent pen untersucht. Der quantitative Bewertungsparameter basierend auf dem Fluoreszenzintensitätsflächenverhältnis verschiedener Banden F(440–480 nm)/F(540–700 nm) wurde gebildet. Und die lineare Korrelationsanalyse zwischen dem Fluoreszenzergebnis und dem entsprechenden DIAGNOdent-Messwert wird durchgeführt, um;-;-;-;https://link.springer.com/article/10.1134/S1054660X12030310 41910910b881c293bf38be1a66d50213;de;;;2.4.;;;Hierarchischer Hardware-/Software-Algorithmus für die Rekonstruktion von Objekten in mehreren Ansichten durch 3D-Punktwolkenabgleich Match Das Abgleichen oder Registrieren von 3D-Punktwolken ist ein Problem, das in einer Vielzahl von Forschungsbereichen mit Anwendungen von der Rekonstruktion des Erbes bis zur Qualitätskontrolle von Präzisionsteilen in industriellen Umgebungen auftritt. Das zentrale Problem in diesem Forschungsgebiet besteht darin, zwei Punktwolken, die in der Regel verschiedene Teile desselben Objekts darstellen, zu empfangen und die bestmögliche starre Ausrichtung zwischen ihnen zu finden. Datenrauschen, ein unterschiedlicher Überlappungsgrad und unterschiedliche Datenerfassungsgeräte machen dies zu einem komplexen Problem mit hohem Rechenaufwand. Dieses Problem wird manchmal durch Hinzufügen von Hardware zum Scansystem behoben, aber diese Hardware ist häufig teuer und sperrig. Wir stellen einen Algorithmus vor, der billige, weit verbreitete (Smartphone-)Sensoren verwendet, um zusätzliche Informationen während der Datenerfassung zu erhalten. Diese Informationen ermöglichen dann eine schnelle Softwareregistrierung. Der erste derartige hybride Hardware-Software-Ansatz wurde in [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-12209-6_9 8b438c3132c535a4208f3256319e6797;de;;;2.4.;;;Forschung zur schnellen Richtungsschätzung und Anzeigemethode von Fernfeldsignalen Bei der Array-Signalverarbeitung ist die Ankunftsrichtung (DOA) ein sehr wichtiger Parameter. Es kann verwendet werden, um den räumlichen Parameter oder den Quellort von Signalen zu schätzen, daher wurde es von Wissenschaftlern eingehend untersucht und wurde in der Radarerkennung, im Unterwasserbetrieb und in der mobilen Kommunikation weit verbreitet. In dieser Veröffentlichung werden ein System zur Schätzung und Anzeige eines Array-Signal-DOA vorgeschlagen. Es verwendet den schnellen Beamforming-Algorithmus, einen verbesserten Algorithmus, der auf dem MVDR-Algorithmus basiert. Durch Vergleichen der Ausgangsleistung verschiedener Positionen kann der Ankunftswinkel des Signals am Array erhalten werden. Das System kann die grundlegenden Parameter wie die Anzahl der Sensoren, die Abtastfrequenz, die Parameter des Filters, die Übertragungsgeschwindigkeit der Schallwelle usw. manuell einstellen. Dann werden die Wellenformeigenschaften des Zeit- und Frequenzbereichs des ursprünglichen Erfassungssignals und des gefilterten Signals intuitiv angezeigt, und gleichzeitig wird die Echtzeit-Wellenform des Signals angezeigt. Durch theoretische Analysen und Simulationsexperimente können wir feststellen, dass der zugehörige Algorithmus in diesem System nicht nur für Mikrofonarrays geeignet ist, sondern auch die Anwendungsanforderungen der Radarüberwachung, des Unterwasserbetriebs und anderer Bereiche erfüllen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6504-1_150 c0cbd4faa79c8e991063b51e9be2dd2c;de;;;2.4.;;;Ein Minicomputernetzwerk für diverse Betriebssysteme und Sprachen Minicomputernetzwerke sind als Verfahren zur kosteneffektiven gemeinsamen Nutzung von Systemressourcen (Daten, Programme, Peripheriegeräte usw.) vorgeschlagen worden. Das größte Hindernis für die Realisierung solcher Netzwerke liegt in der Vielfalt der heute verwendeten Betriebssysteme, Sprachen und Ein-/Ausgabekonventionen. Es wird ein Ansatz beschrieben, der die automatische gemeinsame Nutzung von Daten und Ressourcen zwischen einer Vielzahl von Betriebsumgebungen ermöglicht, die mehrere Sprachen unterstützen.;-;-;-;https://link.springer.com/article/10.1007/BF02222469 2705f381e105d3c513ff1cd9af24f022;de;;;2.4.;;;Mustererkennung von balinesischen Schnitzmotiven mittels lernender Vektorquantisierung (LVQ) Bali ist ein weltweites Tourismusziel mit seiner kulturellen Einzigartigkeit, eines der balinesischen Kulturprodukte, das gepflegt werden muss, ist die Kunst der balinesischen Schnitzereien in traditionellen Gebäuden und Sakralbauten, um die Kultur zu erben, die es braucht, um eine Verwaltung, Dokumentation und Verbreitung von Informationen Technik nutzen. Digitale Bildverarbeitung und Mustererkennung können verwendet werden, um Kunst und Kultur zu bewahren, die Technologie kann verwendet werden, um Bilder in bestimmte Klassen einzuteilen. Die balinesische Schnitzerei ist eine der Schnitzereien, die viele Variationen haben. Wenn diese Schnitzereien analysiert werden, ist eine geeignete Methode für den Merkmalsextraktionsprozess erforderlich, um besondere Merkmale im Bild zu erzeugen. So lassen sie sich gut erkennen und einordnen und liefern Informationen, die zum Erhalt Balis beitragen. Das Ziel dieser Forschung ist es, die richtige Merkmalsextraktionsmethode zu finden, um Bali-Schnitzmusterbilder basierend auf der Genauigkeit der HOG-Merkmalsextraktionsmethode mit PCA zu erkennen und zu klassifizieren, die mit LVQ trainiert wurde. Die Ergebnisse der Testdaten erhalten die beste Genauigkeit von HOG ist 90% mit Zellengröße 32 × 32 und Blockgröße 2 × 2, PCA erzielt 23,67% mit Schwellenwert 0,01 und 0,001, von Trainingseingabe mit Lernrate = 0,001 und Epoche = 1000 .;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7242-0_4 dce7608b20be9067a39db8deb6a96729;de;;;2.4.;;;Elastisch adaptive verformbare Modelle Wir präsentieren eine neuartige Technik zur automatischen Anpassung der elastischen Parameter eines deformierbaren Modells innerhalb eines Kalman-Filter-Frameworks für Anwendungen zur Formschätzung. Die Neuheit der Technik besteht darin, dass die elastischen Parameter des Modells nicht konstant sind, sondern zeitlich variieren. Das Modell für die elastische Parametervariation hängt vom lokalen Anpassungsfehler und der Änderungsrate des Anpassungsfehlers ab. Durch die Erweiterung der Zustandsgleichungen eines erweiterten Kalman-Filters um diese zusätzlichen Variablen und die Berücksichtigung des Rauschens in den Daten können wir die Qualität der Formschätzung deutlich verbessern. Daher werden die elastischen Parameter des Modells immer auf den gleichen Wert initialisiert und anschließend in Abhängigkeit von den Daten und der Rauschverteilung modifiziert. Darüber hinaus zeigen wir, wie diese Technik parallelisiert werden kann, um ihre Effizienz zu steigern. Wir präsentieren mehrere Experimente, um die Wirksamkeit unserer Methode zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-61123-1_169 1f3754767deb293a3c7d2050fa112ea2;de;;;2.4.;;;Klassifizierung des Gesundheitszustands eines kugelförmigen Tanks unter Verwendung eines Hybridpakets mit Funktionen und k-nächster Nachbar Die Merkmalsanalyse spielt eine wichtige Rolle bei der Bestimmung der verschiedenen Gesundheitszustände mechanischer Gefäße. Um ein Gleichgewicht zwischen der traditionellen Merkmalsextraktion und dem automatisierten Merkmalsauswahlprozess zu erreichen, wird in diesem Artikel ein Hybrid-Beutel mit Merkmalen (HBoF) für die Klassifizierung des Gesundheitszustands von Kugeltanks entwickelt. Die vorgeschlagene HBoF setzt sich zusammen aus (a) den akustischen Emissionsmerkmalen (AE) und (b) den zeit- und frequenzbasierten statistischen Merkmalen. Ein Wrapper-basierter Feature-Selektor-Algorithmus, Boruta, wird angewendet, um das intrinsischste Feature-Set aus HBoF zu extrahieren. Die selektive Merkmalsmatrix wird an den K-Nächster-Nachbar-(k-NN)-Klassifizierer übergeben, um zwischen einem normalen Zustand (NC) und einem fehlerhaften Zustand (FC) zu unterscheiden. Experimentelle Ergebnisse zeigen, dass der vorgeschlagene Ansatz für alle Arbeitsbedingungen eine durchschnittliche Genauigkeit von 100 % liefert. Das vorgeschlagene Verfahren übertrifft die bisherigen Ansätze des Standes der Technik, indem es eine um mindestens 19% höhere Klassifikationsgenauigkeit erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9343-7_32 7770b97c4e7576e853cc1072cb8fbad3;de;;;2.4.;;;Forschung zu Stewardship-Intensive Digital Procedure System Ausgehend von einem Druckwasserreaktor wird in diesem Beitrag ein verwaltungsintensives digitales Verfahrenssystem (SIDPS) entwickelt, das auf den Gesamtbetriebsanforderungen von Kernkraftwerken (KKW), den Konstruktionsprinzipien des KKW-Verfahrens und den Prinzipien Human Factors Engineering. Die Anwendung des Systems hat theoretische Bedeutung und praktischen Wert und kann einen Beitrag zur Verbesserung der Betriebssicherheit leisten. Das System stellt direkt ein wirksames Werkzeug zur Unterstützung der Entscheidungsfindung von KKW-Verfahren zur Verfügung, löst einige Probleme, die in den aktuellen digitalen Verfahren von KKWs bestehen, und liefert auch Ideen und Methoden zur Realisierung computergestützter Verfahren in anderen Bereichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1876-8_17 11400dca9e2e53f6e63f8dfa7463c68e;de;;;2.4.;;;Merkmalsextraktion und -klassifizierung der MIT-BIH-Arrhythmie-Datenbank Die Arrhythmie-Datenbank des MIT-BIH ist ein öffentlich zugänglicher Datensatz, der Standarduntersuchungsmaterial zur Erkennung von Herzrhythmusstörungen bereitstellt. Seit 1980 wird es zu Zwecken der Grundlagenforschung und der Entwicklung von Medizinprodukten zum Herzrhythmus und verwandten Erkrankungen eingesetzt. Das Ziel beim Aufbau der Datenbank besteht darin, einen automatisierten Arrhythmie-Detektor zu schaffen, der die Vielfalt des Signals ausliest und darauf basierend eine automatisierte Herzdiagnose durchgeführt werden kann. Die unterschiedlichen Komplexitäten des Elektrokardiogramms, wie die Vielfalt der Wellenform des Herzschlags und des entsprechenden Herzschlags, und die mystifizierende Kraft der Artefakte und des Rauschens kombinieren, um die Untersuchung des Signals schwierig zu konstruieren. Daher ist die Automatisierung der Aufzeichnung des Elektrokardiogramm-(EKG)-Signals naheliegend und es gibt verschiedene öffentlich zugängliche Datenbanken, die das aufgezeichnete EKG-Signal für die zukünftige medizinische Verwendung enthalten. Die MIT-BIH-Arrhythmie-Datenbank wird hauptsächlich für medizinische und Forschungszwecke zur Erkennung und Analyse verschiedener Herzrhythmusstörungen verwendet. Diese Datenbank versucht, eine vollautomatische Umgebung bereitzustellen, um genaue Informationen zur Erkennung von ventrikulären Arrhythmien bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0829-5_41 d032140ddf76d0edbd0e504dd38eed6b;de;;;2.4.;;;Forschung zu einem einheitlichen Identitätsauthentifizierungssystem für ein Versandkontrollsystem der neuen Generation Entsprechend den Eigenschaften des Mensch-Maschine-Cloud-Terminals im Versandkontrollsystem der neuen Generation entwirft dieses Papier ein einheitliches Identitätsauthentifizierungssystem, indem das vorhandene digitale Versandzertifikatsystem, die Gesichtserkennung und andere Identitätsauthentifizierungsmethoden kombiniert werden, wodurch die Zuverlässigkeit von effectively effektiv verbessert wird lokale Identitätsauthentifizierung. Außerdem wurde ein Identitätsetikett basierend auf dem nationalen Geheimalgorithmus entworfen. Wenn ein Benutzer domänenübergreifend auf ein entferntes Geschäftssystem zugreift, kann das Identitätsetikett an das entfernte Geschäftssystem gesendet werden, um seine Identität nachzuweisen. Es ist nicht mehr erforderlich, erneut eine komplexe Identitätsauthentifizierung durchzuführen, was das Problem der Identitätsauthentifizierung lokaler Benutzer im Weitverkehrsnetz löst und eine Weitverkehrsidentitätsauthentifizierung für Benutzer über das gesamte Netzwerk hinweg erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9779-0_72 2483b1cf096f896f53b1d188f7e3037d;de;;;2.4.;;;Eine Serverauswahlmethode basierend auf Kommunikationsverzögerung und Kommunikationshäufigkeit zwischen Benutzern für vernetzte virtuelle Umgebungen Da sich in Net-VEs ein Benutzer im virtuellen Raum bewegt und mit anderen Benutzern interagiert, muss das Net-VE-System zusätzlich zum Zustand eines Netzwerks und eines Servers die Position des Benutzers im virtuellen Raum berücksichtigen. In diesem Papier schlagen wir ein neues Serverauswahlverfahren vor, das die Server aus Sicht der Kommunikationsverzögerung bezüglich der Position in einem Netzwerk und der Kommunikationsfrequenz bezüglich der Position im virtuellen Raum auswählen kann. Unsere vorgeschlagene Methode sammelt Benutzer mit hoher Kommunikationsfrequenz als eine Gruppe und ermöglicht es Benutzern der Gruppe, sich mit demselben Server zu verbinden. Außerdem wird ein Server, zu dem Benutzer eine Verbindung herstellen, basierend auf der Kommunikationsverzögerung vom Benutzer in einer Gruppe zum Server ausgewählt. Somit kann unser Net-VE-System Server auswählen, auf denen Benutzer schnell Updates austauschen können.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36184-7_13 29c7cce517203d7d994ae2ecdbb2fe9a;de;;;2.4.;;;SPICE in der Praxis: Erfolg für große Infrastrukturprojekte mit ISO/IEC 15504 Teil 6 Seit 2005 ändert die niederländische Infrastrukturbehörde Rijkswaterstaat (RWS) die Ausschreibung großer Infrastrukturaufträge weg von traditionellen Projekten hin zu PPP-Projekten (Public Private Partnership). Bei solchen PPP-Projekten muss ein Unternehmen/ein Konsortium die Planung, den Bau, die Finanzierung und die Wartung großer Infrastrukturarbeiten übernehmen. Diese Projekte sind anspruchsvoll und erfordern ein ausgereiftes Managementsystem. Um den Reifegrad dieser Managementsysteme zu überprüfen, fordert RWS häufige externe unabhängige Bewertungen nach ISO/IEC 15504 Teil 6, Systems Engineering an und definiert harte Roadmaps zur Prozessverbesserung, die zu Projektbeginn Prozessfähigkeiten erfordern, die aufgrund von die Struktur des Fähigkeitsmodells. Dieses Papier erläutert das Problem und mögliche Lösungen dieses Problems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67383-7_31 822f35e6d35f246105738b239c18fa8f;de;;;2.4.;;;Fuzzy Mathematical Programming: Ein einheitlicher Ansatz basierend auf Fuzzy-Beziehungen Fuzzy Mathematische Programmierprobleme (FMP) bilden eine Unterklasse von Entscheidungsfindungsproblemen, bei denen Präferenzen zwischen Alternativen mittels einer Zielfunktion(en) beschrieben werden, die auf der Menge von Alternativen definiert sind. Die Formulierung eines FMP-Problems in Verbindung mit dem klassischen MP-Problem wird vorgestellt. Dann werden das Konzept einer zulässigen Lösung und der optimalen Lösung des FMP-Problems definiert. Diese Konzepte basieren auf generalisierten Gleichheits- und Ungleichheits-Fuzzy-Beziehungen. Unter anderem zeigen wir, dass die Klasse aller MP-Probleme mit (knackigen) Parametern natürlich in die Klasse der FMP-Probleme mit Fuzzy-Parametern eingebettet werden kann. Wir zeigen auch, dass die zulässigen und optimalen Lösungen, die unscharfe Mengen sind, unter einigen milden Annahmen konvex sind.;-;-;-;https://link.springer.com/article/10.1023/A%3A1020978428453 8d59c150894d07ee78e387b244ce0c23;de;;;2.4.;;;Täglicher räumlicher Fußabdruck von Pendlern der Metropolregion Warschau (Polen) im Lichte freiwilliger geografischer Informationen und gemeinsamer Faktoren der Zersiedelung. Eine Pilot Studie Die Zersiedelung der Städte wirkt sich direkt auf die Länge des Pendelns aus. Die Erfassung von Pendlerdaten basiert auf theoretischen (deduktiven) Ansätzen, begrenzten einzelnen kleinen Beobachtungsstichproben oder indirekten Phänomenen wie z.B. Fernerkundungs-Nachtlichtdatenbilder. Volunteered Geographic Information (VGI) ermöglicht einen tieferen Einblick in den täglichen räumlichen Fußabdruck des Pendelns und steht im Zusammenhang mit der Zersiedelung. Die bei der Erhebung von VGI-Daten gewonnenen Daten zeigen einige neue Aspekte räumlicher Phänomene, die zusätzlich analysiert werden können. VGI-Daten zu räumlichen Phänomenen beinhalten sowohl Geotagging als auch Zeitstempel der Erfassung, die wiederum indirekt Rückschlüsse auf räumliche und zeitliche Bewegungen von Personen ermöglichen. Die Analyse der verfügbaren räumlichen und zeitlichen VGI-Daten im Kontext der nationalen Vermessung erworbener Ressourcen (INSPIRE) und der Konfrontation mit dem Modellierungsansatz des Pendelns ist Gegenstand einer Pilotstudie des funktionalen Stadtgebiets Warschau. Die Ergebnisse sind vielversprechend, unter anderem aufgrund der Verallgemeinerung von großvolumigen realen Datenbeobachtungen im Gegensatz zu früher verwendeten theoretischen Modellierungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58811-3_26 e5bebe81cdda5a94ea640b9f1e8b2a5f;de;;;2.4.;;;Effiziente Planungsstrategie für die Datenerfassung in verzögerungstoleranten drahtlosen Sensornetzwerken mit einer mobilen Senke Drahtlose Sensornetzwerke auf Basis von Mobile Sink (MS) können das Problem der Netzwerküberlastung und des Energielochs erheblich lindern, führen jedoch aufgrund der Einschränkung der Bewegungsgeschwindigkeit zu großen Verzögerungen und führen aufgrund der begrenzten Kommunikationszeit zu Datenverlust. In diesem Papier wird ein netzbasiertes effizientes Scheduling- und Datenerfassungsschema (GES-DGS) vorgeschlagen, um die gesammelte Datenmenge zu maximieren und gleichzeitig den Energieverbrauch innerhalb der Verzögerung der Netztoleranz zu reduzieren. Die Hauptherausforderungen unseres Programms bestehen darin, die Flugbahn und die Aufenthaltszeiten von MS zu optimieren und die erfassten Daten auf energieeffiziente Weise an MS zu liefern. Um die obigen Probleme zu lösen, teilen wir zuerst das Überwachungsfeld in mehrere Gitter auf und konstruieren den Sprunggradienten jedes Gitters. Zweitens entwerfen wir eine heuristische Rendezvous-Punkt-Auswahlstrategie, um die Trajektorie von MS zu bestimmen und ein Routing-Protokoll basierend auf Hops und Energie zu entwickeln. Mit umfangreichen Simulationen zeigen wir, dass das GES-DGS-Schema nicht nur die Netzwerklebensdauer im Vergleich zu MS-basierten Datenerfassungsschemata signifikant verlängert, sondern sich auch proaktiv an die Änderungen der Verzögerung in bestimmten Anwendungen anpasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-5907-1_2 360dcacc49de437a822fab5c1225a48a;de;;;2.4.;;;Gabor-Deskriptoren für die Luftbildklassifizierung Die Menge an Fernerkundungsbildern, die verfügbar geworden ist, übersteigt bei weitem die Möglichkeit einer manuellen Analyse. Eine der wichtigsten Aufgaben bei der Analyse von Fernerkundungsbildern ist die Landnutzungsklassifizierung. Diese Aufgabe kann als semantische Klassifizierung von Fernerkundungsbildern umformuliert werden. In diesem Beitrag evaluieren wir Klassifikatoren zur semantischen Klassifizierung von Luftbildern. Die ausgewerteten Klassifikatoren basieren auf Gabor- und Gist-Deskriptoren, die sich seit langem in Bildklassifizierungsaufgaben etabliert haben. Wir verwenden Support-Vektor-Maschinen und schlagen einen Kernel vor, der sich gut für die Verwendung mit Gabor-Deskriptoren eignet. Diese einfachen Klassifikatoren erreichen bei zwei Datensätzen eine korrekte Klassifizierungsrate von etwa 90%. Aus diesen Ergebnissen folgt, dass bei der Luftbildklassifizierung einfache Klassifikatoren Ergebnisse liefern, die mit komplexeren Ansätzen vergleichbar sind, und die Suche nach fortschrittlicheren Lösungen sollte dies weiterhin im Auge behalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20267-4_6 edaf6d1ee2b37bff96bf0882a785a49d;de;;;2.4.;;;Ein neuer Ansatz zur Extraktion symbolischer Klassifikationsregeln basierend auf SVM Es gibt noch zwei Schlüsselprobleme, die bei der Extraktion von Klassifikationsregeln gelöst werden müssen, d. h. wie Attribute ausgewählt und kontinuierliche Attribute effektiv diskretisiert werden. Der Mangel an effizienten heuristischen Informationen ist der grundlegende Grund, der die Leistung aktuell verwendeter Ansätze beeinflusst. In diesem Beitrag wird ein neues Maß zur Bestimmung des Wichtigkeitsniveaus der Attribute basierend auf der trainierten SVM vorgeschlagen, das sowohl für kontinuierliche Attribute als auch für diskrete Attribute geeignet ist. Basierend auf dieser neuen Maßnahme wird ein neuer Ansatz zur Regelextraktion aus trainierten SVM- und Klassifikationsproblemen mit kontinuierlichen Attributen vorgeschlagen. Die Leistungsfähigkeit des neuen Ansatzes wird durch mehrere Rechenfälle demonstriert. Die experimentellen Ergebnisse belegen, dass der vorgeschlagene Ansatz die Gültigkeit der extrahierten Regeln im Vergleich zu anderen Ansätzen zur Regelextraktion deutlich verbessern kann, insbesondere bei komplizierten Klassifikationsproblemen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36668-3_29 615cffb93803b3bc8374fb7464fe3d90;de;;;2.4.;;;Iterative Schätzung und Entzerrung für SCCP über doppelt selektive Kanäle In zeitvariablen Kanälen wird die Symbolwiederherstellung für Systeme mit zyklischem Einzelträger-Präfix (SCCP) kompliziert, weil die Orthogonalität der Kanalfrequenzantwort-(CFR)-Matrix zerstört wird. Als Reaktion darauf schlagen wir einen Block-Turbo-Entzerrungsalgorithmus im Zeitbereich für SCCP vor, um Kanalzeitschwankungen zu bewältigen. Insbesondere wird die Bandstruktur der Kanalzeitantwort-(CTR)-Matrix ausgenutzt, um die Rechenkomplexität der Matrixinversion zu reduzieren. Um dieses Entzerrungsschema zu verwenden, müssen genaue Kanalzustandsinformationen (CSI) verfügbar sein. Dementsprechend präsentieren wir ein zweifach selektives Kanalschätzungsverfahren für SCCP-Blockübertragungen mit Hilfe eines Karhunen-Loeve-Basiserweiterungsmodells (KL-BEM). Bei diesem Verfahren werden die Kanalschätzungen zuerst unter Verwendung des zyklischen Präfixes (CP) jedes Blocks erhalten und dann weiter verfeinert durch Verwendung eines auf Erwartungsmaximierung (EM) basierenden iterativen Algorithmus. Die Kombination des iterativen Schätzers mit dem vorgeschlagenen Entzerrer führt natürlich zu einem doppelt iterativen Empfänger, dessen Leistung nachweislich der Leistung mit perfektem CSI nahe kommt.;-;-;-;https://link.springer.com/article/10.1007/s11277-011-0278-7 030b1a26ae32ee8208602f14d2488da6;de;;;2.4.;;;UAVs und UAV-Schwärme für zivile Anwendungen: Kommunikation und Bildverarbeitung im SCIADRO-Projekt Der Einsatz unbemannter Flugsysteme wird sowohl in der Forschung als auch in der Industrie immer häufiger eingesetzt. Heutzutage ist der Einsatz einzelner unbemannter Fluggeräte durchaus etabliert und mehrere Produkte stehen den Verbrauchern bereits zur Verfügung, während Schwärme noch Gegenstand von Forschung und Entwicklung sind. Diese Arbeit beschreibt die Ziele eines Forschungsprojekts, nämlich;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-76571-6_12 a849f971d80b97517688b1f97adcc2b4;de;;;2.4.;;;Schadensabschätzung aus Hinweisen auf Bildveränderungen Dieses Papier schlägt einen Schadensabschätzungsalgorithmus aus Hinweisen auf Bildänderungen vor. Wir erhalten die Merkmalskarte des Schadensbereichs, indem wir die Haar-Merkmalsmatrix und die LBP-Merkmalsmatrix durch zwei Bilder vor und nach der Änderung vergleichen. Wir verwenden dann die Offset-Vergleichsmethode für Fusionsvergleichsergebnisse verschiedener Migrationen. Schließlich erhalten wir eine genaue Ortung der Schadenserkennung durch Gauß-Filter und Bildmorphologieverarbeitung. Experimentelle Ergebnisse zeigen, dass der Algorithmus den Bildschadensbereich effektiv genau erkennen kann und nicht zu empfindlich auf Licht- und Farbtemperaturänderungen reagiert. Darüber hinaus muss dieses Verfahren keine unterschiedlichen Schadenserkennungs- und Bewertungsmodelle für verschiedene Ziele erstellen und kann sich an eine Vielzahl von Bedingungen der Schadenserkennung anpassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-61833-3_43 0d8edbed8b1f3d942f28fdaf24935475;de;;;2.4.;;;Globale exponentielle Antisynchronisation gekoppelter memristiver chaotischer neuronaler Netze mit zeitvariablen Verzögerungen Dieser Artikel untersucht das Problem der globalen exponentiellen Antisynchronisation einer Klasse memristiver chaotischer neuronaler Netze mit zeitvariablen Verzögerungen. Zunächst wird ein memrsitives neuronales Netz modelliert. Unter Berücksichtigung der zustandsabhängigen Eigenschaften des Memristors bietet ein neues Fuzzy-Modell mit parallel verteilter Kompensation (PDC) eine neue Möglichkeit, die komplizierten memristiven neuronalen Netze mit nur zwei Subsystemen zu analysieren. Und bei gepackten Schaltungen ist die Steuerung von der Leistung des Systems abhängig. Ein anschauliches Beispiel wird ebenfalls vorgestellt, um die Wirksamkeit der Ergebnisse zu zeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25393-0_22 d9150685e8eb1a59680da77cd368481e;de;;;2.4.;;;Zweistufige kombinierte Interferenzklassifizierung und -erkennung auf neuronaler Netzbasis für einen GNSS-Empfänger In der komplexen Kriegsumgebung, die auf globalen Navigationssatellitensystemen (GNSS) basiert, würden Unterdrückungsinterferenzen und Spoofing-Interferenzen vom Feind kombiniert verwendet. Somit könnte die Schwierigkeit der Interferenzerkennung und -erkennung im Empfänger aufgrund des unsicheren Auftretens dieser beiden Kategorien angreifender Signale erheblich zunehmen. Um dieses Problem zu lösen, wird ein zweistufiges Interferenzklassifizierungs- und -erkennungsschema auf der Grundlage eines BP (Back Propagation) neuronalen Netzwerks für das kombinierte Interferenzszenario mit Unterdrückungsinterferenz und Spoofing vorgeschlagen. Beide Netzwerke verwenden ein dreischichtiges, vollständig verbundenes neuronales Netzwerk, um Klassifizierungsentscheidungen zu realisieren. Das Erkennungsmodul der ersten Stufe verwendet neun charakteristische Parameter, die aus dem Zeit-, Frequenz- und Leistungsbereich der digitalen Zwischenfrequenz-(ZF)-Signale extrahiert werden, die in ein neuronales BP-Netz eingespeist werden, um sechs typische Unterdrückungsstörungen wie Single Tone Interference ( STI), Multi-Tone Interference (MTI), Linear Frequency Modulation Interference (LFMI), Pulse Interference (PI), BPSK Narrowband Interference (BPSKNBI) und BPSK Wideband Interference (BPSK WBI). Da jedoch die Spoofing-Interferenz eine ähnliche Struktur wie das echte Satellitensignal aufweist, wird das Erkennungsmodul der zweiten Stufe eingeführt, um das Spoofing-Signal vom echten Satellitensignal zu unterscheiden, indem elf neue charakteristische Parameter verwendet werden, die aus dem zweidimensionalen Array-Ausgang durch die Erfassung extrahiert wurden Verarbeitung eines Empfängers. Die Testergebnisse zeigen, dass das vorgeschlagene Schema eine Art Unterdrückungsstörung oder ein zufällig aufgetretenes Spoofing-Signal schneller und genauer erkennen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3715-8_56 cff04f0342d524365120bd1aee3ec003;de;;;2.4.;;;Innovation, Forschung und Entwicklung sowie Unternehmenswachstum in der Robotik: Japan und die Vereinigten Staaten Die Robotik wird von Ökonomen, Technologen, Managern und Regierungsbeamten als eine Schlüsseltechnologie des späten 20.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-95597-6_11 68bd6bcf6e863b7bc49326eccacf88bd;de;;;2.4.;;;Ultrabreitband-FMCW-ISAR-Bildgebung mit großem Rotationswinkel basierend auf Block-Sparse Recovery Ultrabreitband-Frequenzmoduliertes Dauerstrichradar (FMCW) kann eine hohe Auflösung erreichen. In Kombination mit der Technik der inversen synthetischen Apertur kann eine hohe Azimutauflösung unter einem großen Drehwinkel realisiert werden. Jedoch schränkt das Entfernungs-Azimut-Kopplungsproblem die Abbildungsleistung des inversen Radars mit synthetischer Apertur (ISAR) ernsthaft ein. Basierend auf dem Turntable-Modell werden traditionelle Matchfilter-basierte Range-Doppler-Algorithmen (RDAs) und der Rückprojektionsalgorithmus (BPA) untersucht. Um die Nebenkeuleneffekte herkömmlicher Algorithmen zu eliminieren, wird Compressed Sensing (CS) bevorzugt. Unter Berücksichtigung der Blockstruktur eines Signals mit hoher Auflösung wird ein adaptiver Anpassungsverfolgungsalgorithmus (BSAMP) mit Blocksparsity vorgeschlagen. Durch Anpassen von Verfolgung und Zurückverfolgung kann ein Signal mit unbekannter Sparsity durch iteratives Aktualisieren des Unterstützungssatzes genau wiederhergestellt werden. Schließlich werden mehrere Experimente durchgeführt. Im Vergleich zu anderen Algorithmen zeigen die Ergebnisse aus der Verarbeitung der Simulationsdaten, einige einfache Ziele und ein komplexes Ziel die Wirksamkeit und Überlegenheit des vorgeschlagenen Algorithmus.;-;-;-;https://link.springer.com/article/10.1631/FITEE.1601310 30e8ff130b8fe3d7ea7adc4f22373b1f;de;;;2.4.;;;Kontextbezogene Empfehlungen für Gruppen Empfehlungssystemen wurde große Aufmerksamkeit geschenkt, wobei sich die meisten der vorgeschlagenen Methoden auf Empfehlungen für einzelne Benutzer konzentrieren. Neuerdings gibt es auch Ansätze, die entweder auf gruppen- oder kontextbezogene Empfehlungen abzielen. In diesem Beitrag beschäftigen wir uns mit dem Problem der;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33999-8_11 c309868661f44f7d520a3a71bd4a6f60;de;;;2.4.;;;Beständige Homologie zur Analyse von 3D-Gesichtern und zur Beurteilung der Körpergewichtszunahme In diesem Artikel analysieren wir Muster in der Variation der Gesichtsform aufgrund von Gewichtszunahme. Wir schlagen die Verwendung von persistenten Homologiedeskriptoren vor, um geometrische und topologische Informationen über die Konfiguration von anthropometrischen 3D-Gesichtskennzeichen zu erhalten. Auf diese Weise läuft die Bewertung von Gesichtsveränderungen auf den Vergleich der Deskriptoren hinaus, die auf 3D-Gesichtsscans zu verschiedenen Zeiten berechnet wurden. Durch Anwendung von Dimensionsreduktionstechniken auf die Unähnlichkeitsmatrix von Deskriptoren erhalten wir einen Raum, in dem jedes Gesicht ein Punkt ist und Variationen der Gesichtsform werden als Trajektorien in diesem Raum codiert. Unsere Ergebnisse zeigen, dass eine anhaltende Homologie in der Lage ist, Merkmale zu identifizieren, die gut mit Übergewicht in Zusammenhang stehen, und kann bei der Beurteilung individueller Gewichtstrends helfen. Die Forschung wurde im Rahmen des europäischen Projekts SEMEOTICONS durchgeführt, das eine multisensorische Plattform entwickelt hat, die Gesichtszeichen eines kardiometabolischen Risikos im Laufe der Zeit erkennt und überwacht.;-;-;-;https://link.springer.com/article/10.1007/s00371-016-1344-7 5e8106a0ae443b01de268ccb0d08f402;de;;;2.4.;;;Modellierung zur Registrierung von aus der Ferne erfassten Bildern, wenn Referenzkontrollpunkte Fehler enthalten Referenzkontrollpunkte (RCPs), die bei der Erstellung des Regressionsmodells bei der Registrierung oder geometrischen Korrektur von Fernerkundungsbildern verwendet werden, werden im Allgemeinen als „perfekt“ angenommen. Das heißt, die RCPs als erklärende Variablen in der Regressionsgleichung sind genau und die Koordinaten ihrer Positionen weisen keine Fehler auf. Daher wurde die Schätzfunktion der gewöhnlichen kleinsten Quadrate (OLS) ausgiebig auf die Registrierung oder geometrische Korrektur von fernerfassten Daten angewendet. Diese Annahme ist in der Praxis jedoch oft ungültig, da RCPs immer Fehler enthalten. Darüber hinaus sind die Fehler tatsächlich eine der Hauptquellen, die die Genauigkeit der geometrischen Korrektur eines unkorrigierten Bildes verringern. In dieser Situation ist der OLS-Schätzer verzerrt. Er kann nicht mit Fehlern erklärende Variablen verarbeiten und kann Fehler nicht angemessen von den RCPs an das korrigierte Bild weitergeben. Daher ist es wichtig, neue praktikable Methoden zu entwickeln, um ein solches Problem zu überwinden. Dieses Papier stellt einen konsistenten angepassten kleinsten Quadrate (CALS) Schätzer vor und schlägt einen entspannten konsistenten angepassten kleinsten Quadrat (RCALS) Schätzer vor, wobei letzterer allgemeiner und flexibler ist, für geometrische Korrektur oder Registrierung. Diese Schätzer haben eine gute Fähigkeit, in den RCPs enthaltene Fehler zu korrigieren und Fehler der RCPs mit und ohne vorherige Information angemessen an das korrigierte Bild weiterzugeben. Das Ziel der CALS- und vorgeschlagenen RCALS-Schätzer besteht darin, die Genauigkeit der Messwerte durch Abschwächung der Messfehler zu verbessern. Die konzeptionellen Argumente werden durch reale Fernerkundungsdaten untermauert. Im Vergleich zum OLS-Schätzer bieten die CALS- und RCALS-Schätzer eine überlegene Gesamtleistung bei der Schätzung der Regressionskoeffizienten und der Varianz von Messfehlern.;-;-;-;https://link.springer.com/article/10.1007/s11430-006-0739-0 dcb36474ea85185311a877a87aa4ad4c;de;;;2.4.;;;Funktionsauswahl für die Vokalerkennung basierend auf Oberflächenelektromyographie, abgeleitet mit Mehrkanalelektrodengitter In diesem Beitrag wird untersucht, wie die Merkmalsauswahl die Genauigkeit der Vokalerkennung beeinflusst, basierend auf Oberflächenelektromyographie (sEMG), die mit einem Elektrodengitter abgeleitet wurde, das aus dicht beabstandeten Multielektroden besteht. In früheren Studien zur sEMG-basierten automatischen Spracherkennung (sEMG-ASR) wurden Scheibenelektroden oder Parallelstabelektroden verwendet und empirisch lokalisiert. Um jedoch in dieser Studie keine Informationen über die Sprache zu verpassen, wurde ein Elektrodengitter verwendet, um sEMG aus der submentalen Region während der Produktion von fünf japanischen Vokalen zu messen. Für die Merkmalsauswahl haben wir auf die erhaltenen Daten eine Sparse-Diskriminanz-Analyse (SDA) angewendet, die einige redundante Signale enthalten kann. Es wurde gezeigt, dass eine Komprimierung der Merkmalsauswahl auf ein Zehntel oder ein Zwanzigstel der Gesamtmerkmale ohne steile Abnahme der Erkennungsgenauigkeit erreicht werden konnte. Die Kombination aus dichter Messung basierend auf dem Elektrodenraster und Merkmalsauswahl basierend auf SDA ist ein effektiver Ansatz für die Forschung zu sEMG-ASR.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31919-8_31 cc79ebf6859c41f460f6a1a83fd45bd2;de;;;2.4.;;;Umsetzung großer tabellarischer Datenstrukturen mit Anwendungen in die physische Datenbankorganisation Anhand der Ergebnisse in Teil I wird die Organisation der physikalischen Datenstrukturen relationaler Datenbanken mit ihren manipulativen Aspekten diskutiert. Der Ansatz basiert auf der;-;-;-;https://link.springer.com/article/10.1007/BF00264474 f96af96ae48dacf61dea34ad85ce26a5;de;;;2.4.;;;Selbsteinschätzung der Nachbarschaftsdichte für mobile drahtlose Knoten In diesem Beitrag schlagen wir eine Methode vor, um die Knotendichte für Fußgänger und/oder Fahrzeuge mit Informationsterminals zu schätzen. Die Methode ermöglicht es uns, intelligente umgebungsbewusste Dienste mit hochdynamischer Bewegung von Knoten bereitzustellen, wie z. Bei der vorgeschlagenen Methode soll jeder Knoten seine Position ungefähr kennen (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02830-4_15 e3e1307389754b48ca132b62f20370ab;de;;;2.4.;;;Ein hierarchischer nichtlinearer Diskriminanzklassifikator, trainiert durch einen evolutionären Algorithmus Diese Arbeit baut auf unseren beiden früheren Veröffentlichungen auf, in denen wir eine Methode zum Trainieren nichtlinearer Diskriminanzklassifizierer für 4-Merkmal-Datensätze entwickelt haben. In diesem Papier wurde die Methode so formalisiert, dass sie eine beliebige Anzahl von Funktionen enthält. Ein hierarchischer nichtlinearer Diskriminanzklassifizierer erstellt Modelle unter Verwendung eines eingeschränkten Musters von Merkmalskombinationen. Das Modell ist viel ausdrucksstärker als zum Beispiel naives Bayes, das überhaupt keine Merkmalskombinationen berücksichtigt, und das Modell ist viel sparsamer und skalierbarer als zum Beispiel uneingeschränkte genetische Programmierung, die keine Merkmalskombinationen ausschließt. Die Methode kann für Expertensysteme zur Wissensgewinnung und Entscheidungsfindung verwendet werden, da sie ein 100% genaues Modell aus dem Datensatz abrufen kann. Das Verfahren kann auch zur Klassifizierung von ungesehenen Daten verwendet werden. Die Methode wurde an gängigen Testdatensätzen im UCI-Repository getestet. Es werden zwei Ansätze vorgestellt, um ein erlerntes Modell auf den Testsatz anzuwenden. Die erste Methode besteht in der Anwendung eines einzelnen exakten hierarchischen Modells auf die Testmenge, eine andere Methode ist die Anwendung einer gewichteten Summe von Modellen, die in jeder Hierarchie vorhanden sind. Die Ergebnisse dieses Ansatzes zu den hier untersuchten Datensätzen sind mit den Ergebnissen in der neueren Literatur sehr konkurrenzfähig.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-96292-4_22 6c7a4fb9e06743b88f8edac17fdd1bb0;de;;;2.4.;;;Virtuelle Testgeländesimulation in der Praxis für Fahrzeughaltbarkeit und Fahrkomfortleistung In diesem Beitrag wird ein Verfahren der virtuellen Prüffeldsimulation in der Praxis für Fahrzeughaltbarkeit und Fahrverhalten vorgestellt. Digitale Straßenmodelle einschließlich der Haltbarkeit und Fahreigenschaften von Straßen werden durch 3D-Laserscanning auf Testgelände erstellt. Dann wird ein dynamisches Mehrkörpermodell mit hoher Genauigkeit unter Verwendung vollständiger Fahrzeugdesignparameter erstellt. Inzwischen ist FTire aufgrund seiner bekannten Fähigkeit, dynamische Probleme mit mittleren und hohen Frequenzen zu bewältigen, in den Bau des Gesamtfahrzeugmodells integriert. Basierend auf der Erfassung der Straßenlastdaten werden Fahrersteuerungsprogramme entwickelt, um das MBD-Modell mit derselben Strecke und Geschwindigkeit wie das Testfahrzeug fahren zu lassen, und dann werden VPG-Simulation und -Validierung durchgeführt. Im Vergleich mit Testergebnissen geben Simulationsergebnisse eine gute Vorhersage über Radmittenkräfte, Federwege, Dämpferkräfte usw. Daher bietet die VPG-Simulationstechnologie ein leistungsstarkes Werkzeug, um die Anforderungen der Fahrzeughaltbarkeits- und Fahrkomfortanalyse zu erfüllen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7945-5_9 e1b90fb54eb5c0cb666c3b9fbbb0565e;de;;;2.4.;;;Diskriminierende Computergrafikbilder und natürliche Bilder mit dem Hidden-Markov-Baum-Modell Menschen können mit der Rendering-Technologie von Computergrafiken hoch fotorealistische Bilder erstellen. Es ist für das menschliche Auge schwierig, diese Bilder von echten Fotobildern zu unterscheiden. Wenn es sich bei einem Bild um fotorealistische Grafiken handelt, ist es sehr wahrscheinlich, dass der Inhalt des Bildes von Menschen gemacht wurde und seine Zuverlässigkeit gering wird. Dieses Forschungsfeld gehört zur passiv-blinden Bildauthentifizierung. Auch die Identifizierung von Computergrafikbildern ist ein wichtiges Problem bei der Bildklassifizierung. In diesem Artikel schlagen wir vor, HMT (hidden Markov tree) zu verwenden, um natürliche Bilder und Computergrafikbilder zu klassifizieren. Aus HMT-Modellparametern wird eine Reihe von Merkmalen abgeleitet und ihre Wirkung experimentell verifiziert. Die durchschnittliche Genauigkeit beträgt bis zu 84,6%.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18405-5_3 4341ad4849ee09508ac2bdde350de24e;de;;;2.4.;;;Das solarbetriebene unbemannte Oberflächenfahrzeug von IAP durchquert aktiv das Zentrum des Taifuns Sinlaku (2020) Das vom USV-Team des Instituts für Physik der Atmosphäre entwickelte solarbetriebene unbemannte Oberflächenfahrzeug (USV) ist ein robustes, langlebiges und autonomes Navigationsschiff, das für die Sammlung von weitreichenden, kontinuierlichen, Echtzeit-, meteorologischen und ozeanographische Messungen, insbesondere unter extremen Seebedingungen (Seegang 6–7). Diese solarbetriebenen USVs absolvierten einen langfristigen kontinuierlichen Navigationsbeobachtungstest über 26 Tage. Während dieser Zeit koordinierten sie Doppel-USV-Beobachtungen und navigierten aktiv in den Weg des Taifun Sinlaku (2020), bevor sie während des USV South China Sea Taifun Observation Experiments 2020 Daten in unmittelbarer Nähe seines Zentrums sammelten. Detaillierte, zeitlich hochaufgelöste (1 min) Echtzeit-Beobachtungen des USV auf dem Taifun wurden erstmals für die operative Taifun-Vorhersage und -Warnung verwendet. Als mobile meteorologische und ozeanografische Beobachtungsstation, die eine zuverlässige, automatisierte Bereitstellung, Datenerfassung und Übertragung ermöglicht, können solche solarbetriebenen USVs herkömmliche Beobachtungsplattformen ersetzen, um wertvolle Echtzeitdaten für Forschung, Vorhersage und Frühwarnungen für potenzielle marine meteorologische Katastrophen.;-;-;-;https://link.springer.com/article/10.1007/s00376-021-1006-1 c77af220399d9e28e85cb100d33f9b01;de;;;2.4.;;;Gesichtserkennung mit einer Nur-Gesichts-Datenbank: Ein neuer Ansatz In diesem Papier wird ein grob-zu-fein, LDA-basiertes Gesichtserkennungssystem vorgeschlagen. Durch sorgfältige Implementierung haben wir festgestellt, dass die von zwei modernen Gesichtserkennungssystemen[1,2] verwendeten Datenbanken falsch waren, da sie fälschlicherweise einige Nicht-Gesichtsteile für die Gesichtserkennung verwenden. Daher wird in dem vorgeschlagenen System eine Nur-Gesichts-Datenbank verwendet. Da sich die Gesichtsorgane auf einem menschlichen Gesicht von Person zu Person nur geringfügig unterscheiden, ist der Prozess der Entscheidungsgrenzenbestimmung bei diesem System schwieriger als bei herkömmlichen Ansätzen. Um das oben erwähnte Mehrdeutigkeitsproblem zu vermeiden, schlagen wir daher vor, eine nächste Teilmenge von Datenbankstichproben abzurufen, anstatt eine einzelne Stichprobe abzurufen. Das vorgeschlagene Gesichtserkennungssystem hat mehrere Vorteile. Erstens ist das System in der Lage, mit einer sehr großen Datenbasis umzugehen und kann somit eine Grundlage für eine effiziente Suche bieten. Zweitens kann das System aufgrund seiner Konstruktionsweise die Defokussierungs- und Rauschprobleme bewältigen. Drittens ist das System schneller als der Autokorrelation plus LDA-Ansatz [1] und der PCA plus LDA-Ansatz [2], von denen angenommen wird, dass sie zwei Statistiken sind -basierte, hochmoderne Gesichtserkennungssysteme. Experimentelle Ergebnisse belegen, dass die vorgeschlagene Methode in Bezug auf Effizienz und Genauigkeit den herkömmlichen Methoden überlegen ist.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-63931-4_285 4b2eef6edd286871753c148cc198953d;de;;;2.4.;;;Ein schneller Algorithmus für GNSS-R-reflektierte Signale basierend auf dynamischer Phasenkompensation und DBZP Die Signale von Global Navigation Satellite Systems (GNSS) bieten eine weltweite Abdeckung und wurden ursprünglich für die passive Navigation entwickelt. Die Verwendung von GNSS-Signalen für Fernerkundungsanwendungen hat jedoch in den letzten Jahrzehnten das Interesse der wissenschaftlichen Gemeinschaft geweckt. Normalerweise werden die GNSS-R-Signale in eine Delay-Doppler Map (DDM) verarbeitet, eine Darstellung der Leistung der Korrelation des empfangenen Signals mit einem lokalen Replik-GNSS-Signal für einen Bereich von Codeverzögerungs- und Dopplerverschiebungswerten. Dies ist das gleiche Verfahren, das für die direkte Signalerfassung verwendet wird. Da die Leistung reflektierter GNSS-Signale sehr gering ist, wird eine lange Integrationszeit benötigt, um eine bessere Beobachtungsqualität zu erzielen. Da sich die Integrationszeit verlängerte, kann der Codefrequenzfehler des lokalen Repliksignals und des reflektierten Signals nicht ignoriert werden. In dieser Arbeit stellen wir eine Methode vor, die darauf abzielt, eine präzise DDM-Erzeugung durch Signalverarbeitung unter Verwendung des modifizierten zirkulären Korrelationsalgorithmus Double Block Zero Padding (DBZP) und der Codephasendrift-Vorkompensationsmethode durchzuführen. Dieses Verfahren unterdrückt effektiv den Verlust aufgrund von Codephasen-Fehlanpassung, insbesondere bei Langzeitintegration und unter Umständen mit hoher Codefrequenz. Die Analyse zeigt, dass die Rechenlast des vorgeschlagenen Algorithmus 1/9.11 beträgt, die der traditionellen zirkulären Korrelationsmethode. Experimente zeigen, dass der integrierte GNSS-R-Empfänger eine Echtzeit-DDM-Verarbeitung für BDS B1I- und GPS-L1C/A-Signale durchführen kann. Die Genauigkeit der Signalverarbeitung erfüllt die Anforderungen des Windfeld-Wiedergewinnungsprozesses. Dieses Signalverarbeitungssystem unterstützt effektiv die Entwicklung von Chinas erstem GNSS-R-Satellitensystem zur Meeresoberflächen-Windfeldüberwachung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3715-8_23 22e206b6a66626b82d1cd01f64592e09;de;;;2.4.;;;Erlernen von Fuzzy-Regel-basierten Meta-Schedulern für Grid Computing mit Differential Evolution Differential Grid Computing hat sich als Infrastruktur der nächsten Generation für anspruchsvolle Computeranwendungen entwickelt, die auf der Zusammenarbeit und Koordination einer großen Menge verteilter Ressourcen basiert. Die Notwendigkeit, die QoS-Anforderungen sowohl von Benutzern als auch von Netzwerkadministratoren in solch sich stark verändernden Umgebungen zu erfüllen, erfordert die Berücksichtigung adaptiver Planungsstrategien, die mit inhärenter Dynamik und Unsicherheit umgehen. In diesem Beitrag wird ein auf Fuzzy Rule-Based Systems basierender Meta-Scheduler für das Scheduling im Grid-Computing vorgeschlagen. Darüber hinaus wird eine neue Lernstrategie, inspiriert vom stochastischen Optimierungsalgorithmus Differentielle Evolution (DE), für die Entwicklung von Expertensystemwissen oder Regelbasen integriert. Simulationsergebnisse zeigen, dass der Wissenserwerbsprozess in Bezug auf das Konvergenzverhalten und das Endergebnis im Vergleich zu anderen evolutionären Strategien, dem genetischen Pittsburgh-Ansatz, verbessert ist. Außerdem wird die Fuzzy-Meta-Scheduler-Leistung mit anderen erweiterten Scheduling-Strategien, EASY-Backfilling, in verschiedenen Kriterien verglichen, wie z;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14055-6_79 b22868c0b3883173d86f3afa712f9eef;de;;;2.4.;;;Implizite Kognition und das Verstehen unbeobachteter menschlicher Geisteszustände durch Maschinen Der Mensch kann durch implizites Erkennen und Lernen unbewusst abstraktes und komplexes Wissen aus den angetroffenen Umweltreizen entwickeln. In diesem Beitrag untersuchen wir, ob eine Maschine eine solche unbeobachtete Fähigkeit erkennen und etablieren kann. Mit einer mobilen App für das Gewichtsverlustmanagement zur Behandlung von Fettleibigkeit als Kontext zeigen wir, dass die Maschine das Auftreten menschlicher impliziter Kognition erkennen und die Dynamik der unbeobachteten Geisteszustände einzelner Benutzer im Laufe der Zeit identifizieren kann. Unsere empirischen Tests zeigen, dass nicht alle App-Benutzer implizite Kognition und Lernen betreiben. Ein starkes Bedürfnis nach Gewichtsverlust hilft, implizite Kognition und Lernen zu entwickeln. Das Auftreten von implizitem Lernen fördert einen aktivierten Geisteszustand, und Benutzer im aktivierten Zustand erhöhen ihre täglichen Schritte um 57,82 % im Vergleich zu denen im inaktivierten Zustand, wenn sie den Gesundheitsvorschlägen in der App folgen. Darüber hinaus stimuliert eine einfache Erinnerung auf dem Startbildschirm an die Überprüfung der Gesundheitsvorschläge in der App, die auf Benutzer im inaktivierten Zustand abzielt, das implizite Lernen und erhöht deren Wahrscheinlichkeit und Zeitdauer im aktivierten Zustand um 29% bzw. 38,9%. Infolgedessen hat sich die Generierung optimaler Gesundheitsinterventionen auf der Grundlage des Benutzerbewusstseins in der mobilen App als sehr effektiv erwiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1398-5_12 bee22f07ce312dd5410b314a9f45dd67;de;;;2.4.;;;Vi-RTM: Visualisierung von drahtlosen Sensornetzwerken für Telemedizin-Fernüberwachungssysteme Telemedizinische Fernüberwachungssysteme (RTMS) auf Basis eines drahtlosen Sensornetzwerks geben Patienten mehr Bewegungsfreiheit. Allerdings befinden sich in diesen Systemen zahlreiche Biosensoren an verschiedenen Körperteilen. Daher ist es ein schwieriges Problem, wie diese Sensoren kooperativ zu handhaben sind. Die Visualisierung eines drahtlosen Sensornetzwerks für RTMS ist ein nützliches Werkzeug, um dieses Problem zu lösen. Dieses Papier präsentiert einen Rahmen für die Visualisierung der drahtlosen Sensornetzwerke für ein telemedizinisches Fernüberwachungssystem namens Vi-RTM. Unser Ziel ist es, die Sensoren durch den Einsatz effektiver Visualisierungsalgorithmen in einer sehr komfortablen Form zu verwalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_361 59fdd2108d915c0892464a5a572528f4;de;;;2.4.;;;Automatische Erkennung des Navigationspfads für Ernteroboter basierend auf Machine Vision Ein Algorithmus zur Generierung eines Navigationspfads im Obstgarten für Ernteroboter basierend auf maschinellem Sehen wurde vorgestellt. Entsprechend den Merkmalen von Obstgartenbildern wurde eine horizontale Projektionsmethode angewendet, um den Hauptstammbereich dynamisch zu erkennen. Durch das Scannen der Stammbereiche wurden Grenzübergänge zwischen Baum und Erde erkannt und diese Punkte auf beiden Seiten in zwei Cluster unterteilt. Unter Rückgriff auf die Methode der kleinsten Quadrate wurden zwei Grenzlinien extrahiert. Die zentralen Cluster wurden durch die beiden Linien gewonnen und diese gerade Linie wurde als Navigationspfad angesehen. Das Simulationsergebnis von Matlab zeigt, dass der Algorithmus den Navigationspfad in einer komplexen Obstgartenumgebung effektiv extrahieren konnte, und die korrekte Erkennungsrate betrug 91,7%. Das Verfahren hat sich als stabil und zuverlässig erwiesen, und die Abweichungsrate des Simulationsnavigationswinkels gegenüber dem künstlichen Erkennungswinkel beträgt etwa 2%.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18333-1_19 60ad47174c4c330b78b63d14866e4824;de;;;2.4.;;;Rückruforientierte Bewertungsmetriken für die konsistente Übersetzung japanischer Rechtssätze Wir schlagen neue Bewertungsmetriken für gesetzliche Sätze vor, die aus dem Japanischen ins Englische übersetzt wurden. Da die Übersetzungsvielfalt inakzeptabel ist und Konsistenz bei juristischen Übersetzungen von entscheidender Bedeutung ist, wurde eine neue Metrik namens CIEL vorgeschlagen, die die Konsistenz der Übersetzung bewertet. Diese Metrik basiert auf Präzision mit einer Rückrufstrategie. Da wir jedoch der Meinung sind, dass erinnerungsorientierte Metriken für eine konsistente Bewertung besser geeignet sind, schlagen wir erinnerungsorientierte Metriken vor, um die Konsistenz juristischer Übersetzungen zu bewerten und ihre Leistung durch Vergleich mit anderen Metriken zu veranschaulichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32090-3_13 fe1b18ef8303bf1b30490f64b00f8bb5;de;;;2.4.;;;Ein bioinspirierter Ansatz zur WLAN-basierten Indoor-Lokalisierung In diesem Beitrag wird das Problem der Indoor-Lokalisierung mit einem bioinspirierten Ansatz untersucht. Der vorgeschlagene Ansatz beruht auf der Verwendung von WiFi-Netzwerken, die heutzutage als in allen Innenräumen verfügbare Ware angesehen werden können. WiFi-Signale werden verwendet, um Schätzungen der Entfernung zwischen einem intelligenten Gerät, dessen Position geschätzt werden muss, und den festen Zugangspunkten des Netzwerks zu erhalten, von denen angenommen wird, dass sie sich an bekannten Positionen befinden. Sobald eine gegebene Anzahl von Reichweitenschätzungen von jedem verfügbaren Zugangspunkt erfasst wurde, werden geeignete Reichweitenmittelwerte durchgeführt, um den vorgeschlagenen Lokalisierungsalgorithmus zu speisen. Gemäß dem vorgeschlagenen Ansatz wird die Lokalisierung in Form eines Optimierungsproblems formuliert, das mit einem von der Partikelschwarmoptimierung inspirierten Algorithmus gelöst wird. Ein solcher Algorithmus wurde in ein Zusatzmodul von JADE integriert, das auf dem Smart Device ausgeführt werden soll, dessen Position geschätzt werden soll und das in relevanten Indoor-Szenarien getestet wurde. Experimentelle Ergebnisse in getesteten Szenarien werden im letzten Teil des Papiers gezeigt, um die Leistung des vorgeschlagenen bioinspirierten Lokalisierungsalgorithmus zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-21733-4_8 d02a63819cee9d6764de875d7adb964c;de;;;2.4.;;;Benutzeranforderungen verstehen und profilieren, um das konzeptionelle Design eines integrierten Landüberwachungssystems zu unterstützen Der Erwerb und die Organisation von Wissens- und Informationselementen kann nicht nur für das Verständnis, sondern auch für die Beseitigung, Reduzierung und Kontrolle von Komplexität und Unsicherheit unerlässlich sein. Eine Integration von Werkzeugen unterschiedlicher Disziplinen könnte vor allem in „neuen“ Situationen systematisch helfen, einen abgestimmten Rahmen zur Problemformulierung aufzubauen. In Bezug auf ein Industrieprojekt wurde eine Anwendung entwickelt, um Profile der potentiellen Nutzer eines innovativen Systems und ihrer Anforderungen vorzuschlagen und formal Modelle zu entwickeln, die Analyse, Entscheidung und Handeln ausrichten können. Einige Elemente und Ergebnisse dieser integrierten Anwendung von „weichen“ und „harten“ Entscheidungshilfen werden hier als Schritte eines organisatorischen Lernzyklus vorgeschlagen, der ein grundlegendes Element jedes Innovationsprozesses ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31715-6_9 c03f4f3f0d42d9e7470a04912e87d3a8;de;;;2.4.;;;Videobasierte Fußballerkennung in schwierigen Situationen Das Interesse an videobasierten Systemen zur Erfassung und Analyse von Spieler- und Balldaten von Fußballspielen nimmt in mehreren Bereichen wie Medien und Berufsausbildung zu. Folglich werden Verfolgungssysteme für die Live-Erfassung quantitativer Bewegungsdaten weit verbreitet verwendet. Für Schulungszwecke ist das Interesse an solchen Systemen besonders groß, jedoch sind die Anforderungen an die Genauigkeit der Daten sehr hoch. Aktuelle Systeme erreichen durch die starke Interaktion der Bediener eine zufriedenstellende Präzision. Um den Automatisierungsgrad bei gleichbleibend hoher Präzision zu erhöhen, werden robustere Trackingsysteme benötigt. Allerdings geht diese Nachfrage aus Kostengründen, Stadioninfrastruktur, Medienrechten etc. mit einem zunehmenden Trend zu eigenständigen, mobilen und kostengünstigen Fußball-Tracking-Systemen einher. Als Konsequenz muss die Live-Datenerfassung ausschließlich mit ein paar Kameras, damit es in der Regel nur wenige Perspektiven auf die Spieler und den Ball gibt. Zudem stehen in vielen Fällen nur Bilder mit niedriger Auflösung zur Verfügung. Die Bilder mit niedriger Auflösung verschärfen das Problem der Erkennung und Verfolgung des Fußballs stark. Abgesehen von der Herausforderung, die durch das Aussehen des Balls entsteht, erschweren Situationen, in denen der Ball von den Spielern verdeckt wird, die Erkennung des Balls. Je geringer die Anzahl der Kameras ist, desto geringer ist in der Regel die Anzahl der verfügbaren Perspektiven – und desto schwieriger ist es, präzise Bewegungsdaten zu sammeln. In diesem Artikel wird ein Ansatz zur Erkennung von Fußballspielen vorgestellt, der auf schwierige Situationen wie verschlossene Fälle anwendbar ist. Es verarbeitet Bilder mit niedriger Auflösung von einzelnen statischen Kamerasystemen und kann z.B. zur Rekonstruktion der Ballflugbahn. Die Leistung des Ansatzes wird anhand eines Datensatzes eines Bundesligaspiels analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-17548-5_2 123d8742272398a44bbb2815a3cc5ce0;de;;;2.4.;;;Eine Forschung über eine Methode zur Konflikterfassung in der Softwareevolution Softwareevolution ist eine wichtige Forschungsrichtung und ein Forschungsschwerpunkt im Bereich Software Engineering. Während des Prozesses der dynamischen Evolution von Software ist das Vorhandensein von Konflikten zwischen evolutionären Komponenten und Originalkomponenten einer der Schlüsselfaktoren, die bestimmen, ob der dynamische Evolutionsprozess korrigiert wird oder nicht. Um dieses Problem zu lösen, wird eine Ressourcenmanagementmethode eingeführt und das Konzept der Ressource im Softwareentwicklungsprozess neu definiert. Entsprechend den unterschiedlichen Mustern der verwendeten Ressourcen werden Sequenz-, Selektions- und Konfliktbeziehungsmodelle zwischen Komponenten definiert. Und schließlich ein Konflikterfassungsalgorithmus, mit dem die an den Konfliktbeziehungen beteiligten Komponenten auf Basis des Regressmanagements erfasst werden. Die Ergebnisse dieses Papiers legen eine theoretische Grundlage für die Aufrechterhaltung der Konsistenz vor und nach der Evolution und die Sicherstellung der Korrektheit der dynamischen Evolution.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-14680-1_58 2c52705be6d02abfeba1775c90e8470e;de;;;2.4.;;;Modale Parameteridentifikation Forschung der Antriebswelle von Nutzfahrzeugen basierend auf experimenteller und simulierter Hybridmodellierung Mit dem Ziel des Geräuschproblems des Beschleunigungszustands, der durch die Schwingung der Antriebswelle eines Nutzfahrzeugs verursacht wird, wurde die Modalanalyse in dieser Arbeit basierend auf der Eigenfrequenz niedriger Ordnung und der Eigenfrequenz durchgeführt. Der Modalforschungsprozess gliedert sich in zwei Teile, nämlich Simulationsmodalforschung und experimentelle Modalforschung. Basierend auf der Methode der Finite-Elemente-Analyse wurde ein effektives Finite-Elemente-Modell erstellt, um das freie Modal zu simulieren. In der Zwischenzeit wurde das Gummiseil verwendet, um die Antriebswelle anzuheben, um ihren Zustand der freien Beschränkung zu simulieren. Kombiniert mit dem LMS-Test. Labortestsystem, der Modaltest der Antriebswelle wurde im Hammerverfahren durchgeführt. Die Ergebnisse der Testmodalanalyse wurden mit den Simulationsergebnissen verglichen, dann wurde das Finite-Elemente-Modell erneut optimiert. Während des Optimierungsprozesses des Finite-Elemente-Modells wurde die Optimierungsmethode des Finite-Elemente-Modells basierend auf Dehnungsmodus und genetischem Algorithmus berücksichtigt. Durch Vergleich und Analyse der Differenz zwischen den Test- und Simulationsergebnissen wurden die Eigenfrequenzen und kritischen Drehzahlen verschiedener Ordnungen der Antriebswelle genauer ermittelt. Und die Forschungsergebnisse liefern eine theoretische Referenz für die NVH-Auslegung der Antriebswelle.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7945-5_63 3fa725cc33f044adfafad4a822488cbd;de;;;2.4.;;;Automatisches Zählsystem für rote Blutkörperchen basierend auf pychographischer Fouriermikroskopie Die Zählung der roten Blutkörperchen (RBC) ist von großer medizinischer Bedeutung bei der klinischen Untersuchung. Üblicherweise wird die Zellzählungsaufgabe durch eine mikroskopische Untersuchung abgeschlossen, die eine hohe Auflösung erfordert. Dieses Papier schlägt ein automatisches Zählsystem roter Blutkörperchen auf der Grundlage von Fourier-Ptychographie-Mikroskopie (FPM) vor und schätzt die Erythrozytenzahl über ein Convolutional Neural Network (CNN). Das Zählnetzwerk basiert auf einem Regressionsmodell, das ein VGG-16-Netzwerk kombiniert mit einem Feature-Pyramiden-Netzwerk (FPN) verwendet. Die experimentellen Ergebnisse zeigen, dass der mittlere absolute prozentuale Fehler (MAPE) unseres Zählnetzwerks 0,86% erreichen kann, was eine hohe Genauigkeit bedeutet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8411-4_119 baf24a093f443783b2a5cea492e48e8b;de;;;2.4.;;;Analyse für den Einsatz von Routing-Panels in der Evakuierung In diesem Beitrag wird eine Evakuierungsunterstützungsmethode basierend auf Leittafeln vorgeschlagen und diese Methode mittels Computersimulation analytisch bewertet. Für diese Simulation wird das Multi-Agenten-Paradigma als unsere grundlegende Modellierungssicht übernommen. Bei dieser Modellierung konzentrieren wir uns auf das Verhalten von Agenten, die durch Routing-Panels instruktiv gefördert werden. Daraus ergeben sich zwei charakteristische Vorschläge: Zum einen können auf kritischen Abschnitten aufgestellte Leitplanken, in denen nach der Monte-Carlo-Methode abgeschätzt wurde, die schnelle und sichere Evakuierung unterstützen, zum anderen, dass die Routenfindung durch Globale Katastropheninformationen sind besser als die der lokalen Katastropheninformationen.;-;-;-;https://link.springer.com/chapter/10.1007/11893004_142 80b8e50d5b584c72591870d2f7ffc5e7;de;;;2.4.;;;Ein abgestuftes Adressierungsschema basierend auf einem Floating-Cloud-Internetworking-Modell Die Skalierbarkeit beim Inter-Domain-Routing wird immer anstrengender, da die Größe der Routing-Tabellen sehr schnell wächst. In diesem Whitepaper stellen wir ein abgestuftes Adressierungsschema vor, das über ein Floating Cloud Tiered-Internetworking-Modell implementiert werden soll, das tierbasierte Aggregation verwendet, um die Routing-Skalierbarkeit zu berücksichtigen. Eine Analyse des HD-Verhältnisses des Adressierungsschemas und seiner möglichen Implementierung im AT&T-Netzwerk wird vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17679-1_34 3a35be9f7c683c694a4fe48741eff69c;de;;;2.4.;;;Digitale Ausgangskompensation für präzise Frequenzübertragung über kommerzielle Glasfaserverbindungen Ein ultrahochpräzises und langzeitstabiles Frequenzübertragungssystem über 120 km kommerzielle Glasfaserverbindung wurde vorgeschlagen und experimentell demonstriert. Dieses System basiert auf einer digitalen Ausgangskompensationstechnik, um Phasenschwankungen während des Frequenzübertragungsprozesses zu unterdrücken. Als optischer Sender dient ein modengekoppelter Erbium-dotierter Faserlaser, der von einem Wasserstoff-Maser angetrieben wird. Darüber hinaus ist ein dichtes Wellenlängenmultiplexsystem in der Lage, Vorwärts- und Rückwärtssignale unter Ausschluss des Reflexionseffekts zu trennen. Die ultimativen fraktionalen Frequenzinstabilitäten für das frequenzverteilte Langstreckensystem betragen bis zu 3,14 × 10;-;-;-;https://link.springer.com/article/10.1007/s11801-018-7220-0 ba17c115452b8f58ebb13b6e8a3dbc28;de;;;2.4.;;;Integrierte intelligente Kontrollmethode des Koksofenkollektordrucks Basierend auf der datengetriebenen Modellierungstheorie wird die integrierte Modellierung und intelligente Regelungsmethode des Koksofenkollektordrucks im Papier durchgeführt. Das System umfasst das Regressions-Vorhersagemodell des Koksofen-Globalkollektordrucks basierend auf Support Vector Machine (SVM), den subtraktiven Clustering-Algorithmus basierend auf Betriebsmusterextraktion und Migrations-Neukonfigurationsstrategie und den selbstabstimmenden PID-Entkopplungsregler basierend auf der verbesserten Glühwürmchenschwarmoptimierung GSO) Algorithmus des Koksofenkollektordrucks. Simulationsergebnisse und industrielle Anwendungsversuche zeigen deutlich die Machbarkeit und Wirksamkeit von Regelverfahren und erfüllen die Echtzeitregelanforderungen des Koksofenkollektordrucksystems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39068-5_30 1926dcfa77a2acfd9140348716222096;de;;;2.4.;;;Halbautomatisches System zur Erstellung von Storys in einer allgegenwärtigen Sensorumgebung Dieses Papier schlägt ein Agentensystem vor, das halbautomatisch Geschichten über tägliche Ereignisse erstellt, die von allgegenwärtigen Sensoren erkannt und in einem Weblog veröffentlicht werden. Der Story-Flow wird aus der Interaktion zwischen den Bewohnern des Sensorraums und einem symbiotischen Agenten generiert. Der Agent hinterfragt die kausalen Beziehungen zwischen den täglichen Ereignissen, um den Fluss der Geschichte zu schaffen. Vorläufige experimentelle Ergebnisse zeigen, dass die von unserem System erstellten Geschichten den Benutzern helfen, die täglichen Ereignisse zu verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05408-2_13 69987d96aae45b8a8b71d818267ef6b8;de;;;2.4.;;;Frequenzanalysen des Liquorflusses im Cine-MRT bei Normaldruckhydrozephalus Unser Ziel war es, die Fließdynamik des intrakraniellen Liquor (CSF) beim Normaldruckhydrozephalus (NPH) zu klären. Frequenzanalysen des Liquorflusses, gemessen mit Phasenkontrast-Cine-MRT, wurden durchgeführt. Die Liquorflussspektren im Aquädukt wurden bei Patienten (;-;-;-;https://link.springer.com/article/10.1007/s00330-002-1697-3 dcb19bc4bfbf3a58e14119236da5d874;de;;;2.4.;;;Zustandsüberwachung von PV-Wind-Systemen mit Stockwell Transform Dieses Papier befasst sich mit der Fehler- und Anomalitätsanalyse in PV-Arrays und überwacht den netzgebundenen Hybrid-Mikronetzstrom. Zum einen wurde ein Hybridsystem in die Software eingebaut und ein Serienfehlerlichtbogen eingefügt. Der Mikronetzstrom wurde mit Hilfe der statistischen Parameterüberwachung auf der Grundlage der Stockwell-Transformation aufgezeichnet und analysiert, und für die Fehleranalyse im System wurden optimierte Parameter ausgewählt. Abhängig von der Variation der statistischen Parameterwerte wurden Merkmale extrahiert. Am Ende wurde eine Logik für die Auffälligkeitsbewertung im System mit praktischer Validierung der Arbeit anhand von Felddaten vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5546-6_23 87742d127ecb86a5bcdba9ef4643e807;de;;;2.4.;;;ROS-ELM: Eine robuste Online-Sequential-Extreme-Learning-Maschine für Big-Data-Analysen In diesem Beitrag wird eine robuste Online-Sequential-Extreme-Learning-Maschine (ROS-ELM) vorgeschlagen. Es basiert auf dem ursprünglichen OS-ELM mit einem adaptiven selektiven Ensemble-Framework. In diesem Beitrag werden zwei neue Erkenntnisse vorgeschlagen. Zunächst wird ein neuartiger selektiver Ensemble-Algorithmus vorgeschlagen, der als PSOSEN (Particle Swarm Optimization Selective Ensemble) bezeichnet wird. Beachten Sie, dass PSOSEN eine allgemeine selektive Ensemble-Methode ist, die auf alle Lernalgorithmen anwendbar ist, einschließlich Batch-Lernen und Online-Lernen. Zweitens wurde ein adaptives selektives Ensemble-Framework für Online-Lernen entwickelt, um die Robustheit und Komplexität des Algorithmus auszugleichen. Es werden Experimente zu Regressions- und Klassifizierungsproblemen mit UCI-Datensätzen durchgeführt. Vergleiche zwischen OS-ELM, einfachem Ensemble OS-ELM (EOS-ELM) und dem vorgeschlagenen ROS-ELM zeigen empirisch, dass ROS-ELM die Robustheit und Stabilität deutlich verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-14063-6_28 cde17543f92d84da69da4e29291a412d;de;;;2.4.;;;Ein grober satzbasierter Assoziationsregelansatz, der bei der Untersuchung des Getränkeproduktspektrums implementiert wurde Bei der Klassifizierung von Items danach, ob sie mehr oder weniger charakteristische Merkmale aufweisen, wird die verwendete Skala als Ordinalskala bezeichnet. Das Hauptmerkmal der Ordinalskala ist, dass die Kategorien eine logische oder geordnete Beziehung zueinander haben. Daher ist die Datenverarbeitung im Ordnungsmaßstab in der Marketing-, Zufriedenheits- und Einstellungsforschung sehr verbreitet. Diese Studie schlägt eine neue Data-Mining-Methode vor, die eine grobe satzbasierte Assoziationsregel verwendet, um ordinale Skalendaten zu analysieren, die in der Lage sind, mit Unsicherheiten im Datenklassifizierungs-/Sortierprozess umzugehen. Die Einführung von groben Regeln wird als Methode zum Umgang mit Datenunsicherheit vorgestellt, während gleichzeitig prädiktive Wenn-Dann-Regeln erstellt werden, die Datenwerte für den Getränkemarkt in Taiwan verallgemeinern. Die empirische Auswertung zeigt, dass die vorgeschlagene Rough Set Associational Rule (RSAR) in Kombination mit der Rough-Set-Theorie bestehenden Methoden der Datenklassifizierung überlegen ist und die Probleme im Zusammenhang mit ordinalen Skalendaten zur Untersuchung eines Getränkeproduktspektrums effektiver angehen kann.;-;-;-;https://link.springer.com/article/10.1007/s10489-013-0465-1 ced4fabbc09d98f2e7db4bb6d2fb04ac;de;;;2.4.;;;Paradigmenwechsel in der Remote Eye Gaze Tracking-Forschung: Highlights vergangener und jüngster Fortschritte In den letzten zwei Jahrzehnten haben Forscher das Potenzial der Verwendung von Blickdaten für verschiedene Aufgaben in allen Bereichen menschlicher Bemühungen demonstriert. Vor diesem Hintergrund wurden Remote Eye Gaze Tracking Systems (REGTs) mit der Präsentation mehrerer Hardware- und Softwaremodule für die Point-of-Gaze-(POG)-Schätzungsaufgabe populär. Dieser Beitrag stellt einen Paradigmenwechsel in der REGT-Forschung von der Vergangenheit zu den jüngsten Fortschritten vor. Unsere Ergebnisse und Diskussionen konzentrieren sich auf Hardware, Software und Anwendungsbereiche von REGTs, von denen wir hoffen, dass sie aktuellen und zukünftigen Forschern auf diesem Gebiet zugutekommen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63128-4_14 60b45557a2f42d11f031c2a93495ab4d;de;;;2.4.;;;Automatisches Screening und Klassifikation von Fundusbildern bei diabetischer Retinopathie Ein Augenscreening ist für die Früherkennung und Behandlung der diabetischen Retinopathie unerlässlich. Dieser Beitrag stellt ein automatisches Screening-System für diabetische Retinopathie vor, das im Bereich der Netzhautophthalmologie verwendet werden soll. Der Artikel untersucht zunächst die bestehenden Systeme und Anwendungen im Zusammenhang mit Screening- und Nachweismethoden für diabetische Retinopathie, über die zuvor in der Literatur berichtet wurde. Das vorgeschlagene ophthalmologische Entscheidungsunterstützungssystem besteht aus einer automatischen Erfassung, Durchmusterung und Klassifizierung von Fundusbildern der diabetischen Retinopathie, die bei der Erkennung und Behandlung der diabetischen Retinopathie helfen. Das entwickelte System besteht aus vier Hauptteilen, nämlich der Bildaufnahme, der Bildvorverarbeitung, der Merkmalsextraktion und der Klassifikation unter Verwendung mehrerer maschineller Lerntechniken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11071-4_11 fbfdc816c8139a331be321010735c885;de;;;2.4.;;;Taktile Sensing-basiertes Steuerungssystem für geschickte Robotermanipulation Objektmanipulation ist eine entscheidende Aufgabe in der Robotik. Dieses Kapitel stellt ein Präzisionssteuerungsschema eines humanoiden Roboterarms mit mehreren Fingern vor, der auf taktilen Sensorinformationen basiert, um Objektmanipulationsaufgaben auszuführen. Wir haben ein neuartiges optisches dreiachsiges taktiles Sensorsystem entwickelt, das an den Fingerspitzen eines humanoiden Roboters angebracht ist, um seine Fähigkeit zu verbessern, Objekte zu erkennen und zu manipulieren. Dieser taktile Sensor kann Normal- und Scherkräfte erfassen. Es wird eine Trajektoriengenerierung basierend auf kinematischen Lösungen an Arm und Fingern, kombiniert mit einer Steuerungsstruktur und einem Erfassungsprinzip einer taktilen Sensorik, vorgestellt. Experimente zur Objektmanipulation werden mit harten und weichen Objekten durchgeführt. Experimentelle Ergebnisse zeigten, dass das vorgeschlagene Steuerungsschema dem Fingersystem ermöglicht, Wechselwirkungen mit geringer Kraft basierend auf taktilen Sensorinformationen zu erkennen, um die Objektoberfläche zu erfassen und sie zu manipulieren, ohne das Objekt oder die Sensorelemente zu beschädigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-8919-0_15 26951bd79ea1e3038515cfdf34196ea1;de;;;2.4.;;;Wavelet-Zerlegungsfunktion Parallele Fusion durch Quaternion Euklidischer Product Distance Matching Score zur Überprüfung der Fingertextur Parallele Fusion ist eine vielversprechende Fusionsmethode im Bereich der Feature-Level-Fusion. Im Gegensatz zur herkömmlichen 2-Feature-Parallelfusion mit komplexer Darstellung ist die 4-Feature-Parallelfusion aufgrund mangelnder mathematischer Bedeutung schwierig darzustellen. Um dieses Problem zu lösen, schlägt dieser Beitrag eine vernünftige Interpretation durch die Einführung von Quaternion vor. Zunächst definiert dieses Papier eine neuartige ROI-Extraktionsmethode, um mehr Informationen aus Mittelfingerbildern zu erhalten. Nach paralleler Fusion, deren Merkmale durch 2D-Wavelets-Zerlegungskoeffizienten aus demselben Pixel extrahiert werden, die 4 separaten Unterbildern entsprechen, Quaternion-Euklidische-Produkt-Distanz (QEPD), eine Distanz zwischen dem Modulusquadrat des Vorlagenquaternions und dem Modulus des Quaternion-Euklidischen Produkts (QEP) des Testers , als Matching-Score, durchgeführt. Die Bewertungen unterscheiden effektiv zwischen echter und betrügerischer Fingertextur nach Schwellenwert. Schließlich erreicht das experimentelle Ergebnis eine vernünftige Erkennungsrate, jedoch mit hoher Geschwindigkeit. Durch einen Vergleich mit Handabdruck-QEPD übertrifft die Erkennungsleistung dieser Fingertextur-QEPD die des Handabdrucks.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10238-7_12 51ba5d3822fe96aef13c52c83173d4f5;de;;;2.4.;;;Assistive E-Health-Plattform für die permanente Überwachung Chronische Krankheiten wie Herzkrankheiten, Schlaganfall, chronische Atemwegserkrankungen und Diabetes sind die Haupttodesursachen weltweit. Dieses Papier zielt darauf ab, eine kostengünstige, sichere medizinische Plattform für mobile und Desktop-Betriebssysteme vorzustellen, um Vitalparameter zu überwachen, Benachrichtigungen zu erhalten, wenn die vordefinierten Grenzwerte außerhalb des zulässigen Bereichs liegen, und um den Gesundheitszustand eines Patienten vorherzusagen. Dieses System verarbeitet medizinische Daten effektiv, indem es die Parametertrends mit dem Ist-Zustand des Patienten korreliert, um dessen Gesundheitsentwicklung zu antizipieren. Zweck der Plattform ist es, aktuelle Informationen über chronische Erkrankungen anzubieten, um die Sicherheit der Patienten und eine adäquate Behandlung dauerhaft zu gewährleisten. In einem systemischen Ansatz ist dieses Kapitel eine Ergänzung zu einer Veröffentlichung, die im Workshop der 8th International Conference on Pervasive Computing Technologies for Healthcare (PervasiveHealth ‘14) vorgestellt wurde [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-48645-0_4 093f4136c834ea50b40b71833bec888c;de;;;2.4.;;;Ein verbesserter SVM-Klassifikator für die Klassifizierung medizinischer Bilder Support Vector Machine (SVM) hat eine hohe Klassifikationsgenauigkeit und gute Fähigkeiten zur Fehlertoleranz und Generalisierung. Der Ansatz der Rough Set Theory (RST) hat die Vorteile, mit großen Datenmengen umzugehen und redundante Informationen zu eliminieren. In diesem Artikel verbinden wir den SVM-Klassifikator mit RST, die wir als Improved Support Vector Machine (ISVM) bezeichnen, um die digitale Mammographie zu klassifizieren. Die experimentellen Ergebnisse zeigen, dass dieser ISVM-Klassifikator eine Genauigkeit von 96,56% erreichen kann, was etwa 3,42 % höher ist als bei Verwendung von SVM, und die Fehlererkennungsraten liegen im Durchschnitt nahe bei 100%.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73451-2_80 13e57862dd1f1c6d6cecd33835a9fcae;de;;;2.4.;;;Neues MR-bildgeführtes chirurgisches Robotersystem in Echtzeit für die minimalinvasive Präzisionschirurgie Es sollte die Nützlichkeit eines neu entwickelten Magnetresonanz (MR) bildgeführten chirurgischen Robotersystems für die minimalinvasive laparoskopische Chirurgie untersucht werden;-;-;-;https://link.springer.com/article/10.1007/s11548-007-0146-9 527e297ad919906d3345e4939c6c6176;de;;;2.4.;;;Forschung zur Fuzzy-Control-Strategie für den intelligenten Heckschutz von Automobilen Der Zweck dieser Arbeit ist die Entwicklung eines automatischen Anti-Auffahr-Kollisionswarnsystems (ARCWS) mit Duel-Cored-Technik. ARCWS nutzt die Informationstechnologie und das Fuzzy-System, setzt STM32 als zentrale Steuerung ein und entwickelt DSP als Datenverarbeitung. Der Beitrag stellt die Arbeitstheorie, den inneren Aufbau und die Rolle der einzelnen Modularbeiten vor. ARCWS kann den Fahrern eine frühere Warnung und einen Bremsassistenten zur Verfügung stellen, um die Fahrsicherheit zu verbessern. Daher hätte ARCWS mit seiner neuartigen Struktur und einfachen Bedienung einen guten praktischen Wert und eine günstige Popularisierungsaussicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3753-0_17 1a5b1e98d2abd00b306f70f867075de7;de;;;2.4.;;;Dominic: Ein domänenunabhängiges Programm für Maschinenbaudesign Dominic ist ein Programm, das eine domänenunabhängige Struktur zur Lösung von Konstruktionsproblemen im Maschinenbau implementiert. Bei einem Problem konstruiert Dominic ein erstes Design und verbessert es iterativ, indem es Wissen über die abhängige Beziehung zwischen den Designzielen und den Designvariablen verwendet. In diesem Papier beschreiben wir Dominics Architektur und demonstrieren und analysieren ihre Leistung bei zwei Klassen von Problemen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-21626-2_25 6419ca1ec3e5b2c29357921e135f0514;de;;;2.4.;;;Automatisierte Nomenklatur von Bronchialästen aus CT-Bildern und ihre Anwendung auf die Biopsiepfadplanung in der virtuellen Bronchoskopie Wir schlagen einen neuartigen anatomischen Markierungsalgorithmus für Bronchialäste vor, die aus CT-Bildern extrahiert wurden. Dieses Verfahren verwendet mehrere Verzweigungsmodelle für die anatomische Markierung. Beim eigentlichen Kennzeichnungsprozess wählt das Verfahren an jedem Verzweigungspunkt die besten Kandidatenmodelle aus. Auch für den rechten Oberlappen wird ein spezielles Kennzeichnungsverfahren vorgeschlagen. Als Anwendung der automatisierten Nomenklatur von Bronchialästen nutzten wir anatomische Markierungsergebnisse zur Unterstützung der Biopsieplanung. Wenn ein Benutzer einen Zielpunkt um verdächtige Regionen auf der Anzeige eines virtuellen Bronchoskopie-(VB)-Systems eingibt, wird der Weg zur gewünschten Position als eine Folge anatomischer Namen von Zweigen angezeigt. Wir haben die vorgeschlagene Methode auf 25 Fälle von CT-Bildern angewendet. Die Etikettiergenauigkeit betrug ca. 90 %. Auch die Pfade zu gewünschten Positionen wurden unter Verwendung anatomischer Namen in VB generiert.;-;-;-;https://link.springer.com/chapter/10.1007/11566489_105 e3056725387df4486b4ac650d13701cc;de;;;2.4.;;;Ein heuristischer Algorithmus zur Attributreduktion basierend auf der Unterscheidbarkeit und Äquivalenz durch Attribute Attribute In diesem Beitrag betrachten wir eine heuristische Methode zur partiellen Berechnung relativer Reduktionen mit besserer Bewertung durch das von den Autoren vorgeschlagene Bewertungskriterium. Unter Berücksichtigung der Unterscheidbarkeit und Äquivalenz von Elementen in Bezug auf Werte von Bedingungsattributen, die in relativen Reduktionen vorkommen, führen wir ein Bewertungskriterium von Bedingungsattributen ein und betrachten eine heuristische Methode zur Berechnung einer relativen Reduktion mit besserer Bewertung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04820-3_32 bd020a8739ff42f3e3db0d3fef296259;de;;;2.4.;;;Entwicklung eines navigationsbasierten CAD-Systems für Colon Wir schlagen ein navigationsbasiertes computergestütztes Diagnosesystem (CAD) für den Dickdarm vor. Bei der Diagnose des Dickdarms mittels virtueller Koloskopie (VC) stellt ein Arzt eine Diagnose durch Navigieren (Durchfliegen) des Dickdarms. Allerdings müssen die Blickpunkte und Blickrichtungen oft geändert werden, da der Dickdarm ein sehr langes und gewundenes Organ mit vielen Falten ist. Dies ist eine zeitaufwendige Aufgabe für Ärzte. Wir schlagen ein neues vor;-;-;-;https://link.springer.com/chapter/10.1007/11566465_86 b14862cd2ffc130ad68e68ef8d33d952;de;;;2.4.;;;Bildanalyse zur Erkennung fehlerhafter Spots aus Microarray-Bildern Microarrays ermöglichen die gleichzeitige Überwachung von Tausenden von Genen. Bevor jedoch ein Maß für die Genaktivität eines Organismus erhalten wird, müssen viele Schritte des fehleranfälligen manuellen und automatisierten Prozesses durchgeführt werden. Ohne Qualitätskontrolle können die resultierenden Maßnahmen statt Schätzungen der Genaktivität auf Rauschen oder systematische Variation zurückzuführen sein. Wir gehen das Problem an, Spots von geringer Qualität aus den Microarray-Bildern zu erkennen, um zu verhindern, dass sie in die nachfolgende Analyse eintreten. Wir extrahieren Merkmale, die die räumlichen Eigenschaften der Spots auf dem Microarray-Bild beschreiben, und trainieren einen Klassifikator unter Verwendung eines Satzes markierter Spots. Wir bewerten die Ergebnisse für die Klassifizierung einzelner Spots mittels ROC-Analyse und für eine Compound-Klassifizierung anhand einer nicht symmetrischen Kostenstruktur auf Fehlklassifizierungen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36182-0_23 a7e79f4fee4388969cb3c1211bec5673;de;;;2.4.;;;Operationsroboter und dreidimensionale Displays für die computergestützte Chirurgie Die Chirurgie im 21. Jahrhundert wird fortschrittliche Technologien wie chirurgische Roboter, dreidimensionale medizinische Bildgebung, Computergrafik, Computersimulationstechnologie und andere verwenden. Die dreidimensionale medizinische Bildgebung für chirurgische Eingriffe bietet Chirurgen ein fortschrittliches Sehvermögen. Ein chirurgischer Roboter bietet Chirurgen eine fortschrittliche Hand, aber er ist keine Maschine, die dieselbe Aktion wie ein Chirurg mit Scheren oder Skalpellen ausführen kann. Vor kurzem wurden in Japan zwei neue Systeme entwickelt: ein fortschrittliches Bildverarbeitungssystem namens Integrale Videografie (IV), das ein dreidimensionales Vollfarbvideobild im realen dreidimensionalen Raum projizieren kann, und ein neuartiges robotisches endoskopisches System mit zwei Keilprismen an der Spitze, die einen weiten Bereich beobachten kann, ohne das Endoskop zu bewegen oder zu verbiegen. Als fortschrittliche Hand wurden in Japan auch ein hochsicherer Navigationsroboter des Laparoskops und ein Zangenmanipulator mit einem Biegemechanismus entwickelt. Das fortschrittliche Sehvermögen und die Hände, die Chirurgen zur Verfügung stehen, schaffen im 21.;-;-;-;https://link.springer.com/chapter/10.1007/4-431-27173-2_2 575f1fcd5c627ac32c0a1e3fccbb26f1;de;;;2.4.;;;Spracherkennung im Auto mit verteilten Mikrofonen In diesem Beitrag beschreiben wir eine Methode zur Mehrkanal-Rauschspracherkennung, die sich während der Fahrt an verschiedene Geräuschsituationen im Auto anpassen kann. Unsere vorgeschlagene Technik ermöglicht es uns, das logarithmische Spektrum der Sprache an einem Mikrofon mit naher Stimme basierend auf der multiplen Regression der logarithmischen Spektren (MRLS) von verrauschten Signalen zu schätzen, die von einem Satz verteilter Mikrofone erfasst werden. Durch Clustering der räumlichen Geräuschverteilungen unter verschiedenen Fahrbedingungen werden die Regressionsgewichte für MRLS effektiv an die Fahrbedingungen angepasst. Die experimentelle Auswertung zeigt eine durchschnittliche Reduzierung der Fehlerrate von 43 % bei der isolierten Worterkennung unter 15 verschiedenen Fahrbedingungen.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-22979-5_19 1a9a2b5b61ba232580045dce3a0c89f3;de;;;2.4.;;;Luftbeobachtungen von Meereis und Schmelzteichen in der Nähe des Nordpols während CHINARE2010 Eine Luftaufnahme wurde verwendet, um Validierungsdaten über Meereis in der Nähe des Nordpols zu liefern, wo die meisten polarumlaufenden Satelliten nicht abdecken können. Diese Art von Daten kann auch als Ergänzung für fehlende Daten und zur Reduzierung der Unsicherheit der Dateninterpolation verwendet werden. Die Luftbilder werden in der Nähe des Nordpols analysiert, die während der chinesischen nationalen Arktis-Forschungsexpedition im Sommer 2010 (CHINARE2010) gesammelt wurden. Das Ergebnis zeigt, dass der durchschnittliche Anteil des offenen Wassers vom Eislager bei ca. 87°N bis zum Nordpol zunimmt, was zu einer Abnahme des Meereises führt. Die durchschnittliche Meereiskonzentration beträgt für die beiden Flüge (16. und 19. August 2010) nur 62,0 %. Die aus den Flächenverhältnissen zwischen schneebedecktem Eis, Schmelzteich und Wasser geschätzte durchschnittliche Albedo (0,42) ist etwas niedriger als die 0,49 von HOTRAX 2005. Die Daten vom 19. August 2010 zeigen, dass die Albedo gegenüber dem Eislager bei etwa 87° . abnimmt N zum Nordpol, hauptsächlich aufgrund der Abnahme des Anteils von schneebedecktem Eis und der Zunahme des Anteils von Schmelzteich und offenem Wasser. Die Eiskonzentration aus den Luftbildern und AMSR-E-Bildern (The Advanced Microwave Scanning Radiometer-Earth Observing System) bei 87,0°–87,5°N zeigt ähnliche räumliche Muster, obwohl die AMSR-E-Konzentration etwa 18,0% (im Durchschnitt) höher ist als Luftbilder. Dies ist auf die 6,25 km Auflösung von AMSR-E zurückzuführen, die Schmelzteiche/untergetauchtes Eis nicht von Eis trennen kann und die kleinen Leitungen zwischen den Schollen nicht erkennen kann. Somit würden die Luftbilder eine wichtige Rolle bei der Bereitstellung hochauflösender unabhängiger Schätzungen der Eiskonzentration und des Anteils der Schmelzteichbedeckung spielen, um weltraumgestützte Fernerkundungsprodukte in der Nähe des Nordpols zu validieren und/oder zu ergänzen.;-;-;-;https://link.springer.com/article/10.1007/s13131-017-0994-2 b30ecf031654012589dc99e277ff84ad;de;;;2.4.;;;Einfluss der Korpusgröße auf die Sprecherverifizierung Ziel dieser Arbeit ist es, den Einfluss der Größe des Sprachkorpus auf die Sprechererkennungsleistung zu überprüfen. Die erhaltenen Ergebnisse für den TIMIT-Korpus werden mit den Ergebnissen verglichen, die für eine kleinere Datenbank ROBOT erhalten wurden. Zusätzlich wurde der Einfluss von Feature-Dimensionalität und -Größe des Lautsprechermodells getestet. Die erzielten Ergebnisse zeigen, dass die besten Ergebnisse für MFCC-Merkmale erzielt werden können. Das Niedrigste;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19419-6_23 5304e56bff915f3f5902acd296608eea;de;;;2.4.;;;Verfolgen Sie die Geschwindigkeitssteuerung eines Unterwasser-Bergbauroboters vom Raupentyp durch Flachwassertest Das Konzept des kontinuierlichen Abbaus von Manganknollen schlägt drei Unteroperationen im gesamten Bergbau vor: Sammeln, Heben, Behandlung an Bord. Die Kombination aus drei Komponenten könnte durch einen selbstfahrenden Meeresboden-Bergbauroboter, eine flexible Leitung und einen Puffer, eine Hebepumpe und ein Rohr sowie eine Bergbauplattform geformt werden. Insbesondere der selbstfahrende Roboter, der die Abbauwege auf dem Meeresboden verfolgt, ist der Schlüssel zum kontinuierlichen Abbau. In diesem Artikel wird die Spurgeschwindigkeitssteuerung von ferngesteuerten Bergbaurobotern erörtert, die eine grundlegende und unverzichtbare Voraussetzung für die Spurverfolgung ist. Die Spurgeschwindigkeitsregelung wird durch den PI-Regler aus Gain-Tuning-Formeln basierend auf der Modellidentifikation realisiert. Um die Beschaffenheit des Nachführsystems zu untersuchen, wird zunächst ein Labortest durchgeführt, bei dem der Roboter an einem Laufkran in der Luft hängt. Als nächstes wird die Übertragungsfunktion des Verfolgungssystems durch die Open-Loop-Antwort und die Closed-Loop-Antwort identifiziert. Durch bekannte Abstimmungsformeln basierend auf den identifizierten Systemparametern werden PI-Verstärkungen abgestimmt. Schließlich wird unter den abgestimmten PI-Verstärkungen diejenige mit der besten Leistung als Spurgeschwindigkeitsregler eingestellt.;-;-;-;https://link.springer.com/article/10.1007/s12206-012-0810-2 08433f462b6c3f93b92a1c6fbc81812c;de;;;2.4.;;;Mehrphasen-MPCA-Modellierung und -Anwendung basierend auf einer verbesserten Phasentrennmethode Hinsichtlich der Mehrphasencharakteristik von Batch-Prozessen wird in dieser Arbeit eine neue Phasentrennmethode entwickelt. Das Verfahren realisiert eine dreistufige Unterphasentrennung des Chargenprozesses unter Verwendung der beibehaltenen Hauptkomponentenanzahl, Beladungsmatrizen und Hauptkomponentenmatrizen, die die Merkmalsvariation des Prozesses angemessen widerspiegeln können. Im Einklang mit den verschiedenen Merkmalen und Klassifizierungsschritten wurde die automatische Erkennung von „Graten“ und Übergangsphasen erläutert. Das vorgeschlagene Verfahren kann die stabilen Phasen und Übergangsphasen im Batchprozess direkt trennen und hochpräzise Übergangsphasenmodelle ableiten. Basierend auf der vorgeschlagenen Methode wird die MPCA-Modellierung und Online-Überwachung im Spritzgießprozess angewendet. Die experimentellen Ergebnisse haben die Wirksamkeit der vorgeschlagenen Methode bestätigt.;-;-;-;https://link.springer.com/article/10.1007/s12555-012-0608-x a29d0499277010d4abae61986af1c908;de;;;2.4.;;;Unterbrechungstheorie zur Verbesserung der Arbeitseffizienz durch Argumentationsworkflow Corporation wird nach der Strategie betrieben, ein Unternehmen nachhaltig wachsen zu lassen. Die Arbeiter, die Angestellte und Manager sind, führen mehrere Aufgaben gleichzeitig aus, basierend auf dem Workflow, der auf ihrer Erfahrung und ihrem Wissen reflektiert wird. Die Aufgaben eines solchen Workflows beeinflussen sich aufgrund des Aufrufs eines Interrupts interaktiv. Wenn sich mehrere Workflows überschneiden, wird die Kontinuität der aktiven Aufgabe unterbrochen. Die bewertete Unterbrechung ruft je nach Kontext der Aufgaben positive oder negative Auswirkungen hervor. In diesem Papier diskutieren wir die Attribute der Aufgabenunterbrechung, um eine Hilfestellung bei der Wiederaufnahme oder Aufrechterhaltung (d.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31087-4_53 18c0c7ad8f3d3a34dd8a7eadff10612f;de;;;2.4.;;;Ein Modell des Unterstützungstools für den stillschweigenden Wissenstransfer: CKnow-Board Dieser Artikel befasst sich mit der Entwicklung eines speziellen Tools zur Unterstützung des stillschweigenden Wissenstransfers für Unternehmen. Die fünf Hauptkomponenten dieses Tools sind formuliert: (1) Implizite Wissensquellenidentifizierung, (2) Implizite Wissensquellenbestimmung unter Verwendung des FAHP (Fuzzy Analytic Hierarchy Process), (3) Impliziter Wissenserwerb, (4) Implizite Wissenstransformation, ( 5) Ein stillschweigendes Wissenstransfergremium. Das vorgeschlagene Tool ermöglicht die Identifizierung von implizitem Wissen in einem Unternehmen und die Umwandlung verschiedener Arten von Wissen in die Form von explizitem Wissen, das in das Tacit Knowledge Transfer Board aufgenommen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-46254-7_3 bd87b52d7d97c960c3bd5a3a9dc70c57;de;;;2.4.;;;Schnelle QR-Code-Bildverarbeitung und -erkennung In diesem Artikel haben wir uns darauf konzentriert, wie die Erkennungsrate des QR-Codes in eingebetteten Systemen gewöhnlicher CMOS-Kameras verbessert werden kann, und haben eine effiziente Vorverarbeitungs- und Erkennungsmethode für QR-Code-Bilder mit komplexem Hintergrund oder ungleichmäßiger Beleuchtung sowie einen Bildbinarisierungsalgorithmus vorgeschlagen basierend auf Bildblöcken. Darüber hinaus können QR-Code-Bilder, die geometrische Verzerrungen oder Drehungen aufweisen, mit unserer perspektivischen Transformationsmatrix, die aus den Suchmustern und dem Ausrichtungsmuster von QR Code erstellt wird, schnell korrigiert werden. Experimente auf der eingebetteten WinCE-Plattform zeigen, dass unsere Bildvorverarbeitungs- und Erkennungsmethoden die Erkennungsrate verbessern und die Geschwindigkeit der QR-Code-Decodierung beschleunigen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32427-7_42 46cd2af76d2f74de1e77e8c647095f28;de;;;2.4.;;;Emotionserkennung von Benutzern in virtuellen Szenen basierend auf physiologischen Merkmalen In Virtual Reality (VR)-Szenen ist das auf Computern basierende „affektive Computing“ zum Erkennen, Verstehen und Ausdrücken von Emotionen ein heißes Forschungsthema im Bereich der Emotionserkennung. Diese Studie zielte darauf ab, die komplexe Vielfalt menschlicher Emotionen durch den Entwurf und die Konstruktion virtueller Szenen zur Erfassung von elektrischen Hautsignalen (EDA), Pulssignalen (PPG), elektrokardiographischen Signalen (EKG) und Elektromyographiesignalen (EMG) zu adressieren. Die positive und negative Affektskala (PANAS) und die Merkmalsauswahl des Max-Min-Ant-Systems wurden angewendet, um die nichtlinearen Merkmale und das Emotionserkennungsmodell für die virtuellen Szenen geeignet zu machen. Dieses Modell hatte eine hohe Genauigkeit bei der Emotionserkennung in virtuellen Szenen und bessere experimentelle Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0503-1_33 09f945c8ab792c7619330669a639fc15;de;;;2.4.;;;Präzise 3D-Rekonstruktion aus einem einzigen Bild Die 3D-Objektrekonstruktion aus Einzelbildern hat umfangreiche multimediale Anwendungen. Die meisten der existierenden verwandten Verfahren stellen nur grobe 3D-Objekte wieder her und die Objekte müssen oft miteinander verbunden werden. In diesem Artikel schlagen wir eine neuartige Methode vor, die einen Satz von Hilfsreferenzgittern verwendet, um 3D-Objekte aus einem einzelnen unkalibrierten Bild präzise zu rekonstruieren. In unserem System zeichnet der Benutzer zunächst die Strichzeichnungen der Objekte. Dann ist die Anfangsbrennweite;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37447-0_21 881cb3ce7168fe3a4dd06aa9b28ce35d;de;;;2.4.;;;Multi-Skalen-Funktionsbasierte automatische Erkennung der Zeichenintegrität des Bildschirms Die Erkennung der Bildschirmzeichenintegrität ist ein unverzichtbarer Bestandteil für die Produktion von Smart Meter. Im Vergleich zur manuellen Erkennung hat die automatische Erkennung einen klaren Vorteil in Bezug auf Effizienz und Kosten. Derzeitige automatische Erkennungsverfahren hängen jedoch stark von der Genauigkeit der Zeichensegmentierung ab. In diesem Fall neigt die Bildqualität, z. B. Neigung, Rauschen und ungleichmäßige Intensität des Bildschirms dazu, die Erfassungsgenauigkeit stark zu beeinflussen. Um dieses Problem zu mildern, schlägt dieses Papier ein auf mehreren Skalenmerkmalen basierendes automatisches Erkennungsverfahren vor. Die Hauptidee dieser Methode besteht darin, nach den Zeichen im Bildschirmbild zu suchen, basierend auf den Multiskalenmerkmalen, die mit jedem Zeichen übereinstimmen. Daher können wir die Zeichenintegrität ohne Segmentierung bestimmen. Darüber hinaus wird die Auswirkung der Bildschirmbildqualität effektiv vermieden. Experimente am Bildschirm eines echten Messgeräts zeigen die Wirksamkeit des vorgeschlagenen Verfahrens.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-0893-2_59 3fa7b30961e4ebe2f71df3faa23ecd66;de;;;2.4.;;;Ein schichtübergreifendes Framework für gemeinsames Routing und Ressourcenmanagement in drahtlosen Mesh-Netzwerken mit mehreren Funkinfrastrukturen In diesem Papier schlagen wir ein schichtübergreifendes Framework für gemeinsames Routing und Ressourcenmanagement für drahtlose Mesh-Netzwerke (WMNs) mit mehreren Funkinfrastrukturen vor. WMNs entwickeln sich als vielversprechende drahtlose Backhaul-Technologie, um verschiedene Arten von Netzwerken mit dem Internet zu verbinden. Multi-Channel Multiple-Radio-Fähigkeiten von Mesh-Routern in WMNs erzielen eine hohe Leistung, führen jedoch zu Interferenzen und können die QoS verschlechtern. Somit ist der Entwurf von Cross-Layer-Routing-Metriken zur Verbesserung der QoS zu einem wichtigen Forschungsthema geworden. Die in der Literatur vorgeschlagenen Routing-Metriken schätzen die Verzögerung und Interferenz nicht kollektiv und genau und es fehlt das analytische Modell in ihrem Design. Daher entwerfen wir eine neue Routing-Metrik namens Interferenz- und Verzögerungs-Aware (IDA)-Metrik basierend auf einem analytischen Modell. IDA schätzt die Verzögerung unter Verwendung von Konkurrenz sowie Übertragungsverzögerung und Inter-Flow-Interferenz unter Verwendung der Kombination von logischem und physischem Modell. Darüber hinaus verwenden Routing-Protokolle den pro-flow-basierten Scheduling-Mechanismus für die Schnittstellen-Scheduling, was eine Verzögerung für den Multimedia-Verkehr mit sich bringt. Zu diesem Zweck schlagen wir ein schichtübergreifendes Framework vor, indem wir eine paketbasierte Planung mehrerer Schnittstellen unter Verwendung der von der IDA-Metrik gesammelten Statistiken durchführen. Wir implementieren ein Cross-Layer-Framework im Optimized Link State Routing Protocol unter Verwendung von NS2. Die Ergebnisse zeigen, dass die IDA-Routing-Metrik in Bezug auf Durchsatz und Verzögerung im Vergleich zu störungsbewusstem Routing (iAWARE), konkurrenzbewusster Übertragungszeit (CATT) und Metrik für Interferenz und Kanaldiversität (MIND) besser abschneidet. Darüber hinaus bietet das IDA-basierte Framework für gemeinsames Routing und Interface-Scheduling Verzögerungsgarantien im Vergleich zu dem in der Literatur beschriebenen CATT-basierten Framework.;-;-;-;https://link.springer.com/article/10.1007/s13369-016-2291-3 0b7c783da3435e40642d3cceb7079b99;de;;;2.4.;;;Energiesparendes Steuerungssystem des Strahlpumpenaggregats basierend auf radialem Basisfunktionsnetzwerk Angesichts der Tatsache, dass der Energiesparprozess für Strahlpumpeneinheiten ein kompliziertes und nichtlineares System ist, ist es sehr schwierig, ein Prozessmodell zu finden, um es zu beschreiben. Das radiale Basisfunktionsnetzwerk (RBFNN) hat die Fähigkeit eines starken nichtlinearen Funktionsansatzes und adaptiven Lernens und hat auch die Eigenschaft einer schnellen Konvergenz. In diesem Beitrag wird ein intelligentes, energiesparendes Steuerungssystem für Strahlpumpen auf Basis von RBFNN vorgestellt. Wir konstruieren die Struktur von RBFNN und verwenden den K-Nearest Neighbor-Algorithmus und die Methode der kleinsten Quadrate, um das Netzwerk zu trainieren. Die Parameter des energiesparenden Steuerprozesses der Strahlpumpeinheit werden mit mehreren Sensoren gemessen, und dann kann das System den Arbeitszustand der Strahlpumpeinheit in Echtzeit steuern. Das System wird in der Ölrückgewinnungsanlage eingesetzt. Die experimentellen Ergebnisse belegen, dass dieses System machbar und effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87442-3_105 a873483b48563fba626492fc3dabfb2b;de;;;2.4.;;;Leistungsanalyse einer mehrstufigen Kreiselpumpe in einem Organic Rankine Cycle (ORC)-System unter verschiedenen Kondensationsbedingungen In einem Organic Rankine Cycle (ORC)-System spielt die Arbeitsflüssigkeitspumpe eine wichtige Rolle für die Systemleistung. Dieser Artikel konzentrierte sich auf die Betriebseigenschaften einer mehrstufigen Kreiselpumpe bei verschiedenen Drehzahlen und Kondensationsbedingungen. Die experimentelle Untersuchung wurde durchgeführt, um den Einfluss der Pumpenleistung durch das ORC-System unter besonderer Berücksichtigung der tatsächlichen Nettoleistung, des thermischen Wirkungsgrades sowie des Rückarbeitsverhältnisses (;-;-;-;https://link.springer.com/article/10.1007/s11630-019-1069-9 43d3aac306b6c8c00f9babca1a4b66e7;de;;;2.4.;;;Bewegungserkennung des Patienten basierend auf dem SOM-Entscheidungsbaum Die Bewegungserkennung des Patienten ist heutzutage im Bereich des Gesundheitswesens und des medizinischen Dienstes sehr beliebt. Durch die Analyse der Daten von verschiedenen Sensoren innerhalb des Netzwerks können wir die Aktivitäten einer Person abschätzen. Die Analysearbeit wird normalerweise von einem Klassifikator erledigt, der jede Bewegung in eine Kategorie mit ähnlichen Bewegungen einordnen kann. Self-Organizing Map (SOM) ist eine Art Algorithmus, mit dem Daten ohne Anleitung in verschiedene Kategorien eingeordnet werden können. Der Entscheidungsbaum ist ein ausgereiftes Werkzeug zur Klassifizierung. In diesem Papier schlagen wir eine neue Art von Klassifikationsverfahren mit Daten aus BAN namens SOM-Decision Tree vor. Erstens verwenden wir SOM auf jedem der Sensorknoten, um Bewegungen in verschiedene Klassen einzuteilen, sodass Bewegungen in verschiedenen Klassen von diesem Sensor unterschieden werden können. Zweitens wird ein Entscheidungsbaum konstruiert, um jede Art von Bewegungen von anderen Bewegungen zu unterscheiden. Schließlich kann jede Aktion desselben Patienten durch Abfrage durch den Entscheidungsbaum erkannt werden. Nach unserem Experiment ist dieser Algorithmus machbar und ziemlich effizient.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39701-1_22 80cacce54f7e7d8e999a099c3ca4794c;de;;;2.4.;;;Trajektorienbildung der Armbewegung durch ein kaskadenförmiges neuronales Netzmodell basierend auf dem Kriterium der minimalen Drehmomentänderung Wir schlugen vor, dass die Trajektorie, die von den Armen eines menschlichen Subjekts verfolgt wird, dazu neigt, das Zeitintegral des Quadrats der Änderungsrate des Drehmoments zu minimieren (Uno et al. 1987). Dieses Modell der minimalen Drehmomentänderung prognostizierte und reproduzierte die Bewegungsdaten des Menschen recht gut (Uno et al. 1989). Hier schlagen wir ein neuronales Netzmodell für die Trajektorienbildung basierend auf dem Kriterium der minimalen Drehmomentänderung vor. Grundideen der Informationsdarstellung und des Algorithmus sind;-;-;-;https://link.springer.com/article/10.1007/BF00201442 68146fcfcee336c1edf6228d1af85894;de;;;2.4.;;;Ein Design des Handy-Datenschutzes basierend auf Blockchain Dieses Papier stellt eine Plattformentwicklungs- und Implementierungsmethode vor, die auf Blockchain basiert, um die Privatsphäre von Mobiltelefonen zu schützen. Es wird auf kollektive Wartung, Programmierbarkeit, Sicherheit und Zuverlässigkeit sowie auf die Anforderungen des Schutzes der Privatsphäre angewendet. Die Plattform besteht aus Herstellerknoten, Marktknoten, Mobilfunkknoten und Benutzerknoten, die durch eine Sterntopologie-Konstruktion verbunden sind. Alle Knoten umfassen ein Datensammlungsmodul, ein Datenspeichermodul, ein Zielerkennungsmodul und ein Datenanwendungsmodul, das dem Veröffentlichungs-/Abonniermodus entspricht. Jeder Knoten entspricht einer verteilten Speicherdatenbank zum Speichern verschiedener Transaktionsdaten. Das Datenspeichermodul realisiert die Kommunikation zwischen den Knoten und vervollständigt den Aufbau einer Mobiltelefonschutzplattform. Diese Methode kann die Probleme lösen, z. B. die richtige Nutzung durch Flashen von Root, das Durchsickern von Benutzerinformationen usw. Schließlich geben wir das Anwendungsszenario der Handyschutzplattform an, mit dem Ziel, den Datenschutz in der Blockchain zu realisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00015-8_48 01f9958e6fc993b5f200abdca639dfce;de;;;2.4.;;;Fragenanalyse für ein Community-basiertes vietnamesisches Frageantwortsystem Dieses Papier beschreibt den Ansatz zur Analyse von Fragen in unserem Community-basierten vietnamesischen Frageantwortsystem (VnCQAs), in dem wir uns auf zwei Teilaufgaben konzentrieren: Fragenklassifizierung und Schlüsselwortidentifikation. Die Fragenklassifizierung verwendet die Ansätze des maschinellen Lernens mit einem Merkmal, das ein Maß für die Ähnlichkeit zwischen zwei Fragen darstellt, während die Schlüsselwortidentifikation die Abhängigkeitsbaum-basierten Merkmale verwendet. Vielversprechend sind experimentelle Ergebnisse, bei denen die Fragenklassifizierung eine Genauigkeit von 95,7% und die Keyword-Identifikation eine Genauigkeit von 85,8% erreicht. Darüber hinaus tragen diese beiden Teilaufgaben dazu bei, die Genauigkeit beim Auffinden ähnlicher Fragen in unseren VnCQAs um 6,75% zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11680-8_51 f9455a1db9ade911634285779c90e3d9;de;;;2.4.;;;Design eines drahtlosen Multi-Node-Netzwerksystems auf Lunar Derzeit konzentriert sich die Forschung zur Mondkommunikation hauptsächlich auf die Analyse und Erforschung der Kommunikationsknotenebene und der Verbindungsebene. Es gibt nur wenige Studien über drahtlose Breitbandnetzwerke und -protokolle mit mehreren Geräten. Der bestehende Punkt-zu-Punkt-Kommunikationsmechanismus stellt Multi-Device-Missionen auf dem Mond vor Herausforderungen. Angesichts der immer komplexer werdenden Missionsanforderungen der Monderkundung und der wissenschaftlichen Forschungsstation ist es dringend erforderlich, ein effizientes drahtloses Breitbandkommunikationssystem mit mehreren Knoten aufzubauen, um die reibungslose Durchführung der Folgemissionen der Monderkundung zu gewährleisten. Es analysiert und vergleicht die aktuellen drahtlosen Kommunikationsprotokolltechnologien, studiert die fremden Mondprotokollschemata und präsentiert das Design der geräteübergreifenden drahtlosen Breitbandnetzwerkarchitektur des Mondes. Es konzentriert sich auf das Design eines Netzwerkprotokollsystems, das mit dem bestehenden Erde-Mond-Kommunikationsprotokollsystem kompatibel ist und die drahtlose Breitbandkommunikation zwischen mehreren Geräten unterstützt. Durch die Forschung in diesem Papier können wir die effiziente Verbindung mehrerer Geräte realisieren und die technische Grundlage für den Aufbau der Breitband-Wireless-Netzwerkinfrastruktur auf Mond schaffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9409-6_206 c7303bb3053ba74e6f0ec0665c961947;de;;;2.4.;;;Strategien für Fußmassageroboter zur Positionierung der Pelma-Akupunkturpunkte mit modellprädiktiver und Echtzeitoptimierung Es ist einer der kritischen Faktoren für einen Massageroboter, den Akupunkturpunkt genau zu finden und zu positionieren, um die Krankheiten zu heilen. Basierend auf einer großen Anzahl von Offline-Beispieldaten wird auch chinesisches medizinisches Erfahrungswissen eingeführt, um das Vorhersagemodell zu erstellen. Für die Roboterpositionierung werden sowohl die Verschreibung durch den Massagetherapeuten als auch die Erfindung des Robotermechanismus berücksichtigt. Die Methode der kleinsten Quadrate ist einfach, benutzerfreundlich und hocheffizient. Auch die Echtzeitberechnung ist sehr effektiv. Es wird ein Modellierungsverfahren für die Roboterpositionierung basierend auf der Methode der kleinsten Quadrate vorgeschlagen. Die Wissensberatung ist für die Berechnung der Akupunkturpunktposition eingestellt. Der Roboter muss die Merkmalspunkte eines zu massierenden Fußes bekommen. Die Abtastdaten der Fußkontur werden in stückweise Kurvenanpassung unterteilt. Qlearning wird verwendet, um die Roboterpositionierung zu optimieren, da sie modellfrei sind. Das Kleinhirnmodell CMAC (Cerebellar Model Articulation Controller) ist in die Funktionsapproximation des Q-Lernens integriert. Das lernende System wird belohnt, indem man sich auf die Stärken des instrumentalen Signals bezieht. Durch die direkte Darstellung wird das Modell des menschlichen Pelma-Akupunkturpunktes mit den Vektorvariablen und der formalen Computersprache ausgedrückt. Durch die Berechnung des Vorhersagemodells berechnet der Roboter die ungefähre Position des Akupunkturpunktes. In der Zwischenzeit übernimmt Q learning die Online-Anpassung für eine genaue Standortbestimmung. Diese Strategien sorgen dafür, dass der Roboter den Pelma-Akupunkturpunkt mit wenig Echtzeit-Berechnung und -Speicherung automatisch sucht und positioniert. Die Idee dieses Papiers gibt auch einen Forschungsanlass für die Entwicklung der chinesischen medizinischen Standardisierung.;-;-;-;https://link.springer.com/article/10.1007/s12555-014-0273-3 9d54a128d8507f16fd16c600e6f44dd8;de;;;2.4.;;;Forschung zur Optimierung zur Nutzung des Personenzugbestandes bestehender Bahnen Die effektive Nutzung des Personenzugbestands ist der Schlüssel zur Verwirklichung des Eisenbahnverkehrsplans und zur Senkung der Betriebskosten. Dieser Beitrag untersucht die Nutzung des Personenzugbestandes bestehender Bahnen und schlägt ein festes Aufteilungsmodell vor, das durch die Zugbestandsklasse und die Tragfähigkeit verschiedener Zugpaare basierend auf dem Zugbetriebsplan eingeschränkt wird. Durch Begrenzung der Anzahl verbundener Zugpaare wird dieses Problem in ein Maximum-Matching-Problem allgemeiner Graphen transformiert und von Lingo12 gelöst. Das optimale Ergebnis zeigt, dass die in diesem Papier vorgeschlagene Optimierungsmethode die Voroptimierungsarbeit vor der Erstellung des Zugarbeitsdiagramms leisten und die Menge und Kosten von Zugbeständen effizient reduzieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-04582-1_18 cdc72d18be82b1cbad7bad4ec854b09b;de;;;2.4.;;;Robuste Ego-Noise-Unterdrückung eines Roboters Dieses Papier beschreibt eine Architektur, die einen Roboter um die Fähigkeit erweitern kann, eine automatische Spracherkennung durchzuführen, selbst wenn sich der Roboter bewegt. Das System besteht aus drei Blöcken: (1) einem Mehrkanal-Rauschunterdrückungsblock, der aufeinanderfolgende Stufen der auf Mikrofonarrays basierenden Schalllokalisierung, geometrischen Quellentrennung und Nachfilterung umfasst, (2) einem einkanaligen Vorlagensubtraktionsblock und (3) ein Spracherkennungsblock. In dieser Arbeit untersuchen wir in Block (3) speziell einen auf der fehlenden Merkmalstheorie basierenden automatischen Spracherkennungsansatz (MFT-ASR), der spektrotemporale Elemente verwendet, die aus (1) und (2) abgeleitet werden, um die Zuverlässigkeit der Audiofunktionen und zum Generieren von Masken, die unzuverlässige Sprachfunktionen filtern. Wir evaluieren die vorgeschlagene Technik an einem Roboter anhand von Wortfehlerraten. Darüber hinaus präsentieren wir eine detaillierte Analyse der Erkennungsgenauigkeit, um optimale Parameter zu bestimmen. Die vorgeschlagene MFT-ASR-Implementierung erreicht eine signifikant höhere Erkennungsleistung im Vergleich zu den Leistungen von sowohl Einkanal- als auch Mehrkanal-Rauschunterdrückungsverfahren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13022-9_7 37fcdc2d7e381d235593bba060865898;de;;;2.4.;;;Eine intuitive Art, unsere Welt zu beschreiben: Ein Microblog LBS Visualisierungssystem Mit Hilfe von LBS, das von einigen sozialen Netzwerkdienstanbietern bereitgestellt wird, können Menschen Wissen erwerben und die Welt um sie herum bequemer wahrnehmen. Aufgrund des Widerspruchs einer großen Anzahl von POI-Knoten und des begrenzten Anzeigeraums ist es jedoch für eine bessere Benutzererfahrung wichtig, einen besseren Layoutalgorithmus zur Visualisierung der POI-Knoten zu finden. Dieses Papier stellt einen neuen Layout-Algorithmus namens Virtual Layout-Algorithmus vor, der das Problem der ungleichmäßigen Verteilung der POI-Knoten lösen und eine bessere Darstellung der Geoinformationen ermöglichen kann. Wir haben auch ein Microblog-LBS-Visualisierungssystem implementiert, das aus einem Virtual Layout-Algorithmus, einer stilisierten Karte und einem Standortreferenzrahmen besteht, um die Leistung des vorgeschlagenen Algorithmus zu überprüfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07731-4_11 c2b7066e2b79565a7b5d9de1e16eb843;de;;;2.4.;;;Adaptives Geodatenverarbeitungssystem (ASDPS) Um die lokale Selbstrelevanz in Geodatensätzen aufzudecken, ist die Verwendung der räumlichen Domänenverarbeitung der bessere Ansatz. Bei der Verarbeitung im räumlichen Bereich muss jedoch jeder Verarbeitungsalgorithmus als separates Programm implementiert und eingehalten werden. Eine Sammlung von Programmen, die verschiedene Verarbeitungsalgorithmen implementieren, kann als Softwarepaket organisiert werden. Bei der Verwendung dieses Pakets für die Mehrfachverarbeitung müssen die ausgewählten Unterprogramme oder Methoden der Reihe nach ausgeführt werden. Um dem Paket eine neue Methode oder Subroutine hinzuzufügen, muss das gesamte Paket erneut kompiliert werden. Dieses Papier schlägt ein neues Spatial-Domain-Verarbeitungssystem vor, das nicht nur als einzigartige Benutzeroberfläche sowohl für die Auswahl beliebiger implementierter Methoden als auch für die Definition neuer Methoden ohne Neukompilierung implementiert werden kann, sondern auch die parallele Verarbeitung in einer Multi-Threaded-Computing-Umgebung unterstützt. Das neue Spatial-Domain-Verarbeitungssystem (als ASDPS bezeichnet), das auf einem Array-Datenvorprozessor und einem neuronenähnlichen Controller basiert, unterstützt die parallele Verarbeitung in einer Multithread-Computerumgebung. Es lässt auch die Implementierung offen für eine einzigartige Benutzerschnittstelle, die so gestaltet werden kann, dass nicht nur implementierte Methoden einfach ausgewählt werden können, sondern auch jede neue Methode leicht übernommen werden kann, indem dem Prozess ohne Neukompilierung neue Gewichtungen zugewiesen werden. Die Verwendung dieses neuen Systems in der magnetischen Datenverarbeitung in diesem Beitrag zeigt, dass dieses neue System bei der Verarbeitung und Interpretation räumlicher Daten sehr nützlich ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30133-2_56 ba3bed9a84efb7cff4c2ca04169bc673;de;;;2.4.;;;Entwicklung einer multifunktionalen Laserpointer-Maus durch Bildverarbeitung Ein Beam-Projektor wird heutzutage im Volksmund für eine Präsentation verwendet. Um einen lokalen Bereich des projizierten Bildes hervorzuheben, wird dabei ein Laserpointer verwendet. Simple Wireless Presenter hat nur eingeschränkte Funktionen einer Computermaus (Zeigegerät) wie „Gehe zur nächsten Folie“ oder „Zurück zur vorherigen Folie“ in einer bestimmten Anwendung, z. B. MS-PowerPoint, mit Wireless-Kanal andere Kontrollen durchführen, zB Ausführen oder Beenden einer Anwendung und Maximieren oder Minimieren eines Fensters usw. während der Präsentation. Das Hauptziel dieser Arbeit ist die Implementierung einer drahtlosen multifunktionalen Laserpointer-Maus, die die gleichen Funktionen wie eine Computermaus hat. Um die Position des Laserflecks in der Projektoranzeige zu erhalten, ist eine Bildverarbeitung erforderlich, um den Laserfleck im Kamerabild zu erkennen. Außerdem ist eine Transformation der Punktposition in Computeranzeigekoordinaten erforderlich, um Computersteuerungen auf der Computeranzeige auszuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27204-2_35 6b2724d8c51c27858fedbe941bc8cdf1;de;;;2.4.;;;Ein Mixture of Wisharts (MOW)-Modell für die Multifaserrekonstruktion Die diffusionsgewichtete Magnetresonanztomographie (DW-MRI) ist ein nichtinvasives Bildgebungsverfahren, mit dem die neurale Gewebearchitektur in vivo im mikroskopischen Maßstab untersucht werden kann. Durch die Gewinnung quantitativer Daten über die Bewegung von Wassermolekülen, die natürlicherweise im Gehirngewebe als Teil des physikalischen Diffusionsprozesses auftreten, kann die DW-MRT verwendet werden, um die Faserwege in der weißen Substanz des Gehirns zu kartieren. Die Schätzung der lokalen komplexen Architektur in Gegenwart von Intra-Voxel-Heterogenität, die durch mehrere Faserpfade verursacht wird, ist von großer Bedeutung und erfordert ausgefeilte Modellierungstechniken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88378-4_3 73a36752f7b4979a3c589deef205e521;de;;;2.4.;;;Featureerhaltende Netzvereinfachung mit Feature-sensitiver Metrik Wir präsentieren eine neue Methode zur merkmalserhaltenden Netzvereinfachung basierend auf einer merkmalssensitiven (FS) Metrik. Der bisherige Ansatz auf der Grundlage eines quadratischen Fehlers wird auf einen hochdimensionalen FS-Raum erweitert, um den geometrischen Abstand zusammen mit der normalen Abweichung zu messen. Da die Normalenrichtung eines Oberflächenpunktes eindeutig durch die Position im euklidischen Raum bestimmt wird, verwenden wir ein zweistufiges lineares Optimierungsschema, um den eingeschränkten optimalen Zielpunkt effizient abzuleiten. Wir demonstrieren, dass unser Algorithmus Features unter den globalen geometrischen Eigenschaften präziser bewahren kann und natürlich mehr dreieckige Patches auf den Feature-Regionen ohne spezielle Feature-Erkennungsverfahren während des Vereinfachungsprozesses beibehalten kann. Unter Ausnutzung des Blow-up-Phänomens im FS-Raum entwerfen wir ein Fehlergewicht, das geeignetere Ergebnisse liefern kann. Wir zeigen auch, dass der Hausdorff-Abstand während der FS-Vereinfachung deutlich reduziert wird;-;-;-;https://link.springer.com/article/10.1007/s11390-010-9348-7 87f7605a425d55aa0e58a9bb22bcfe3c;de;;;2.4.;;;Hybrid-Bronchoskop-Tracking mit einem magnetischen Tracking-Sensor und Bildregistrierung In diesem Artikel schlagen wir eine Hybridmethode zur Verfolgung eines Bronchoskops vor, die eine Kombination aus magnetischer Sensorverfolgung und Bildregistrierung verwendet. Die Position eines im Arbeitskanal des Bronchoskops platzierten Magnetsensors wird durch ein magnetisches Trackingsystem bereitgestellt. Aufgrund der Atembewegung liefert der Magnetsensor nur die ungefähre Position und Orientierung des Bronchoskops im Koordinatensystem eines vor der Untersuchung aufgenommenen CT-Bildes. Die Sensorposition und -orientierung dient als Ausgangspunkt für eine intensitätsbasierte Registrierung zwischen realen bronchoskopischen Videobildern und virtuellen bronchoskopischen Bildern, die aus dem CT-Bild generiert wurden. Die Ausgabetransformation des Bildregistrierungsprozesses ist die Position und Ausrichtung des Bronchoskops im CT-Bild. Wir testeten die vorgeschlagene Methode mit einem Bronchialphantommodell. Es wurde eine virtuelle Atembewegung erzeugt, um die Atembewegung zu simulieren. Das vorgeschlagene Hybridverfahren verfolgte das Bronchoskop erfolgreich mit einer Frequenz von ungefähr 1 Hz.;-;-;-;https://link.springer.com/chapter/10.1007/11566489_67 2750ba5bd8bf0d9455496e51b5d8316a;de;;;2.4.;;;Auswertung von Strömungen in mittlerer Tiefe von NCEP-Reanalysedaten im tropischen Pazifik unter Verwendung von ARGO-Schwimmerpositionsinformationen Das globale Projekt des Array for Real-time Geostrophic Oceanography (ARGO) bietet eine einzigartige Möglichkeit, die absolute Geschwindigkeit in mittleren Tiefen der Weltmeere zu beobachten. Insgesamt 1597 Geschwindigkeitsvektoren bei 1000 (2000) db im tropischen Pazifik, die aus den ARGO-Floatpositionsinformationen im Zeitraum November 2001 bis Oktober 2004 abgeleitet wurden, werden verwendet, um die Zwischenströmungen der National Centers for Environmental Prediction Reanalysis zu bewerten. Um zuverlässige Geschwindigkeitsinformationen aus ARGO-Float-Trajektorienpunkten abzuleiten, wird ein strenges Qualitätskontrollschema angewendet, und dank eines Korrekturverfahrens zum Reduzieren des Driftfehlers auf der Oberfläche beim Erhalten der Geschwindigkeitsvektoren betragen ihre relativen Fehler weniger als 25%. Basierend auf den Vergleichen aus den quantitativen Geschwindigkeitsvektoren und aus den raumzeitlichen Durchschnittsströmungen zeigen sich einige erhebliche Diskrepanzen. Der erste ist, dass die Geschwindigkeiten der Reanalyse in mittleren Tiefen außer in der Nähe des Äquators relativ zu den von den Schwimmern beobachteten Geschwindigkeiten unterschätzt werden. Der durchschnittliche Geschwindigkeitsunterschied zwischen NCEP- und ARGO-Werten reicht von etwa -2,3 cm;-;-;-;https://link.springer.com/article/10.1007/BF02918711 5cb27f5d8d3981dae4fd1d84e13fa75b;de;;;2.4.;;;Empirische Studie zum Zusammenhang zwischen impliziter Wissensbildung und der Entwicklung von Kernkompetenz In den letzten Jahren ist nach Ansicht vieler Wissenschaftler die Kernkompetenz im Wesentlichen das implizite Wissen. Hat die stillschweigende Wissensgenerierung dann einen Einfluss auf die Entwicklung der Kernkompetenz? Die aktuelle Literatur basiert auf einer qualitativen Analyse anstelle einer quantitativen Analyse. In diesem Beitrag wird auf der Grundlage der Fragebogenbefragungen von Hunderten von Führungskräften hauptsächlich aus Shanghai, Zhejiang, Peking und Jiangxi die empirische Studie zum Zusammenhang zwischen impliziter Wissensbildung und der Entwicklung von Kernkompetenzen durchgeführt. Das Ergebnis zeigt, dass die stillschweigende Wissensgenerierung einen signifikanten Einfluss auf die Entwicklung der Kernkompetenz hat. Schließlich werden den Unternehmen einige Vorschläge zur stillschweigenden Wissensgenerierung gemacht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23220-6_66 46b07e006f776213f73f7329dcd03754;de;;;2.4.;;;Eine automatische Erkennungsmethode basierend auf SNMP und C4.5 in einem überregionalen vernetzten Stromsystem Die überregionale Vernetzung verbindet das Stromnetz mit dem Management-Informationssystem oder mit dem Internet und untergräbt die Eigenschaften des Stromüberwachungssystems und des externen Netzes. Das Aussetzen der Kernressourcen des ursprünglich in der isolierten Umgebung eingesetzten Stromversorgungssystems gegenüber dem externen Netz birgt große Risiken für den sicheren und stabilen Betrieb des Systems. Angesichts der Schwere versteckter Informationssicherheitsrisiken in überregionalen Netzen schlägt dieses Papier eine automatische Erkennungsmethode basierend auf dem SNMP- und C4.5-Algorithmus für den überregionalen Netzverbund vor. Es untersucht hauptsächlich die Bedingungen der Systemnetzwerkverbindung. Basierend auf der gesamten Ausrüstung des Systems erkennt es die Netzwerkverbindung jedes Geräts im System vollständig und realisiert schließlich die automatische Erkennung und Frühwarnung der bereichsübergreifenden Verbindung des Systems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-14680-1_80 9c8ce58c85de9cb1281d75cc31c0a98f;de;;;2.4.;;;Automatisches Einfügen von Zeilenvorschub zur Verbesserung der Lesbarkeit des Vorlesungsprotokolls Die Entwicklung eines Untertitelungssystems, das das Echtzeit-Verstehen von monologer Sprache wie Vorträgen und Kommentaren unterstützt, ist erforderlich. Da ein Satz in Monologen dazu neigt, lang zu sein, wird jeder Satz oft in mehreren Zeilen auf dem Bildschirm angezeigt und wird unlesbar. In diesem Fall ist es notwendig, Zeilenumbrüche in einen Text einzufügen, damit der Text leicht lesbar wird. Dieses Papier schlägt eine Technik zum Einfügen von Zeilenumbrüchen in einen japanischen gesprochenen Monologsatz als elementare Technik vor, um die lesbaren Untertitel zu erzeugen. Unsere Methode fügt Zeilenvorschübe in einen Satz ein, indem die Regeln basierend auf Morphemen, Abhängigkeiten und Klauselgrenzen angewendet werden. Wir haben die Regeln erstellt, indem wir den Korpus, der mit Linefeeds kommentiert ist, umständlich untersucht haben. Ein Experiment mit dem japanischen Monolog-Korpus hat die Wirksamkeit unserer Regeln gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02937-0_46 405b73d5260f3809c73e401f8bb38ad8;de;;;2.4.;;;3D-Rekonstruktion von Pflanzen unter Freilandbedingungen mit bildbasierter Computer Vision Die 3D-Rekonstruktion von Pflanzen unter Freilandbedingungen ist eine anspruchsvolle Aufgabe für Anwendungen wie die Pflanzen-Phänotypisierung, die nicht-invasive Methoden erfordert. Mit der Verfügbarkeit neuer Sensoren und Rekonstruktionstechniken verbessert sich die 3D-Rekonstruktion schnell. Für Forscher sind Sensoren jedoch immer noch teuer. In diesem Beitrag schlagen wir einen kostengünstigen bildbasierten 3D-Rekonstruktionsansatz vor, der mit handelsüblichen Kameras erreicht werden kann. Dieser Ansatz basiert auf der Struktur-aus-Bewegung-Methode. Wir haben diesen Ansatz in MATLAB implementiert und Meshlab wird für die weitere Verarbeitung verwendet, um ein exaktes 3D-Modell zu erhalten. Wir haben auch die Auswirkungen verschiedener ungünstiger Außenszenarien untersucht, die die Qualität des 3D-Modells beeinträchtigen, wie z. B. die Bewegung von Pflanzen aufgrund von starkem Wind, drastische Änderungen der Lichtverhältnisse während der Aufnahme der Bilder. Wir haben die erforderliche Anzahl von Bildern reduziert, um ein präzises 3D-Modell zu erhalten. Diese Methode liefert genaue Ergebnisse und ist eine schnelle Plattform für die nicht-invasive Pflanzen-Phänotypisierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9187-3_25 10e279ca7ca9db4e486d190b6e52cbd3;de;;;2.4.;;;Auswirkungen unterschiedlicher Kaltluftexpositionsintensitäten auf das Risiko von Herz-Kreislauf-Erkrankungen bei gesunden und hypertensiven Ratten Verwendet wurden 10 Wochen alte männliche Wistar-Ratten (systolischer Blutdruck 106–116 mmHg, Körpergewicht 300–320 g) und spontan hypertensive Ratten (systolischer Blutdruck 160–176 mmHg, Körpergewicht 210,9–244,9 g) als gesunde und hypertensive Probanden, um die Auswirkungen unterschiedlich starker Kaltluftexposition in einer Klimakammerbox zu bestimmen. Die drei Kaltluftstufen waren Kaltluft I [Mindesttemperatur (TMIN) 6,4 °C, ↓∆T;-;-;-;https://link.springer.com/article/10.1007/s00484-013-0641-3 e8ee530517760d6ec39e4d8d94d85afd;de;;;2.4.;;;Boosting-basierter Fuzzy-Rough-Musterklassifikator Es wird ein neuartiger Klassifikationsalgorithmus vorgeschlagen, der auf den Grobsatzkonzepten der Fuzzy-Unter- und Ober-Approximationen basiert. Der Algorithmus wandelt jeden quantitativen Wert eines Merkmals unter Verwendung von Zugehörigkeitsfunktionen in Fuzzy-Sätze linguistischer Terme um und berechnet die unteren und oberen Fuzzy-Approximationen. Die Zugehörigkeitsfunktionen werden aus Clusterpunkten erzeugt, die durch das subtraktive Clustering-Verfahren erzeugt wurden. Es werden ein bestimmter Regelsatz basierend auf einer Fuzzy-Unternäherung und ein möglicher Regelsatz basierend auf einer Fuzzy-Obernäherung erzeugt. Zur Generierung der möglichen Regeln wird ein genetischer Algorithmus verwendet, der auf iterativem Regellernen in Kombination mit einer Boosting-Technik basiert. Der vorgeschlagene Klassifikator wird mit drei bekannten Datensätzen aus dem UCI Machine Learning Repository getestet und mit relevanten Klassifizierungsmethoden verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15810-0_39 505b14acd73325778d137884937ba264;de;;;2.4.;;;Quantitative Risikoanalyse für Datenspeichersysteme In IT-Systemen ist die quantitative Risikoanalyse eine Methode zur Bewertung von Sicherheitsrisiken, die als Teil des Risikomanagementprozesses verwendet wird, der wiederum Teil der Sicherheitspolitik ist. Der Hauptvorteil der Methode (im Vergleich zu anderen Techniken) ist ihre Genauigkeit – ein besserer Ausgangspunkt für die Definition von Sicherheitsrichtlinien. Offensichtlich hängt die Genauigkeit direkt mit der Zuverlässigkeit der Eingabedaten zusammen. Das grundlegende Problem des Verfahrens bezieht sich auf die Erfassung von Eingabedaten, die zur Durchführung der Analyse erforderlich sind. Die Daten sollten vollständig und zuverlässig sein. Der Hauptzweck des Papiers besteht darin, einen umfassenden Datensatz zu definieren, der für die quantitative Risikoanalyse von Datenspeichersystemen (einschließlich Magnetplatten und Festkörperplatten) erforderlich ist, und die Vertrauenswürdigkeit der Daten zu diskutieren. Ein solcher umfassender Datensatz sollte Daten in Bezug auf Speichertechnologie, Merkmale von Speicherprozessen (z. Einige der Parameter sind dynamisch, sie ändern sich mit der Zeit, sie hängen mit den Umgebungsbedingungen zusammen. Im zweiten Teil des Beitrags werden verschiedene Quellen, verschiedene Mittel der Datenerhebung sowie Diskussionen über die Vertrauenswürdigkeit und Verlässlichkeit der erfassten Daten vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38865-1_14 5c44800e7d38c2108982020d98a27cb9;de;;;2.4.;;;Ein berührungsloses und uneingeschränktes Überwachungssystem für die Schlafgesundheit Klinisch wird die Polysomnographie (PSG) verwendet, um die Schlafqualität durch Überwachung verschiedener Parameter wie Elektroenzephalogramm (EEG), Elektrokardiogramm (EKG), Elektrookulographie (EOG), Elektromyographie (EMG), Puls, Sauerstoffsättigung und Atemfrequenz zu beurteilen. Um diese Parameter zu beurteilen, benötigt PSG jedoch eine Vielzahl von Sensoren, die direkten Kontakt mit dem Körper des Patienten haben müssen, was die Schlafqualität des Patienten während des Tests beeinträchtigen kann. Daher kann die Verwendung von PSG zur Beurteilung der Schlafqualität zu ungültigen und ungenauen Ergebnissen führen. Um diese Lücke zu schließen, schlägt dieses Papier ein System zur Überwachung der Schlafgesundheit vor, das keine Einschränkungen hat und den Schlaf nicht beeinträchtigt. Bei dieser Methode wird ein Ballistokardiogramm (BCG) aufgrund eines Ausstoßes erfasst, indem ein piezoelektrischer Filmsensor unter ein Schlafkissen gelegt wird und drei Indikatoren ausgewertet werden: Herzfrequenzvariabilität (HRV), Atmung und Körperbewegungen. Das EKG und das BCG von 10 Probanden wurden synchron erfasst, während die Probanden flach lagen. Insbesondere wurden Netzleitungsinterferenzen durch adaptive digitale Filterung mit einem minimalen mittleren Quadrat eliminiert. Ein gepaarter t-Test ergab, dass es keine signifikanten Unterschiede zwischen BCG- und Standard-EKG-Signalen im Zeitbereich, Frequenzbereich und nichtlinearen Parametern der HRV gab. Atmung und Körperbewegung wurden aus dem BCG extrahiert, um die Schlafapnoe und die nächtlichen Zubettgehzeiten effektiv zu überwachen. Im Vergleich zu anderen berührungslosen Überwachungsmethoden wie Beschleunigungssensoren, Koppelelektroden, Doppler-Radar und Kamera ist das in diesem Papier vorgestellte System überlegen, da es eine hohe Signalqualität, starke Entstörungsfähigkeit und niedrige Kosten aufweist. Außerdem stört es den normalen Schlaf nicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37429-7_6 a23ddeb020205e251f1a8f05a57de3df;de;;;2.4.;;;Fuzzy-Zugriffsschema mit mehreren Attributen in heterogenen drahtlosen Netzwerken Viele Forschungen konzentrieren sich auf Zugangsauswahlschemata basierend auf Entscheidungsmatrix in HWN (Heterogeneous Wireless Network). Da sich die Entscheidungsmatrizen mit dem sich ständig ändernden Netzwerk nicht dynamisch ändern, lösen sie den Widerspruch zwischen der Algorithmuskomplexität und der Terminalprozesskapazität nicht auf. In diesem Beitrag schlagen wir eine effiziente Zugangsauswahllösung FMADA (Fuzzy Multiple Attribute Decision Access) vor. Unser Hauptbeitrag besteht darin, dass wir einige geeignete Nutzenfunktionen gemäß verschiedenen Eigenschaften der Entscheidungsfaktoren und ein adaptives Filterverfahren verwenden, um eine dynamische Entscheidungsmatrix in HWN zu prognostizieren und zu formulieren. Durch die Optimierung verbessert es die Genauigkeit der Normalisierung von Netzwerkparametern, verringert die Belastung der Prozessfähigkeit und stärkt die Algorithmusstabilität der Zugriffsauswahl. Darüber hinaus baut das Papier eine Demonstrationsplattform für die HWN-Zugangsauswahl basierend auf dem Mini2440-Entwicklungsboard auf, um die Leistung zu überprüfen. Die Ergebnisse zeigen, dass es entsprechend der Art der Dienste, der Präferenz des Benutzers und des tatsächlichen Netzwerkstatus vernünftig und effizient auf das optimale Netzwerk zugreifen kann.;-;-;-;https://link.springer.com/article/10.1007/s11042-016-4132-5 0ce82db1c7dd9db834aa920613ebcd24;de;;;2.4.;;;Auswahl energieeffizienter verteilter Relais basierend auf statistischen Kanalstatusinformationen In diesem Beitrag werden verteilte Relaisauswahlalgorithmen basierend auf statistischen Channel State Information (CSI) im Amplify-and-Forward-Modus vorgeschlagen, um die Energieeffizienz zu maximieren. Bei der begrenzten CSI wird ein Kompromiss zwischen dem Gesamtstromverbrauch und der Zielausfallwahrscheinlichkeit an der Quelle eingegangen. Eine Weiterleitungsschwelle wird durch Minimieren der durchschnittlichen Sendeleistung erhalten. Jedes Relais entscheidet individuell, ob es an der Weiterleitung der Quellsignale gemäß der Weiterleitungsschwelle teilnimmt. Zunächst wird ein DMRS-Algorithmus (Distributed Multiple Relay Selection) vorgeschlagen, bei dem alle Kandidatenrelais die Möglichkeit haben, die Quellsignale zu übertragen und der Schwellenwert durch numerische Suche ermittelt wird. Anschließend wird ein Distributed Single Relay Selection (DSRS)-Algorithmus mit geringer Komplexität unter der Annahme untersucht, dass nur ein Relais die Signale weiterleitet. Simulationsergebnisse zeigen, dass die vorgeschlagenen Algorithmen einen signifikanten Leistungsgewinn in Bezug auf die Energieeffizienz gegenüber den bestehenden AF-Modus-Relaisauswahlalgorithmen bieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30493-4_38 b9de349b480c041ef6579b0fca36cada;de;;;2.4.;;;Sichere und effiziente Übertragung von Fingerabdruckbildern für eingebettete Prozessoren In diesem Artikel schlagen wir ein sicheres und effizientes Protokoll vor, um Fingerabdruckbilder von einem Fingerabdrucksensor an einen Client zu übertragen, indem die Eigenschaften von Fingerabdruckbildern ausgenutzt werden. Um die Integrität/Vertraulichkeit der übertragenen Fingerabdruckbilder zu gewährleisten, wird ein Standard-Verschlüsselungsalgorithmus verwendet. Da der Fingerabdrucksensor jedoch rechnerisch begrenzt ist, kann ein solcher Verschlüsselungsalgorithmus möglicherweise nicht in Echtzeit auf die vollständigen Fingerabdruckbilder angewendet werden. Um den Rechenaufwand für den ressourcenbeschränkten Sensor zu reduzieren, wenden wir den Verschlüsselungsalgorithmus aus Gründen der Integrität auf eine Nonce und aus Gründen der Vertraulichkeit auf eine bestimmte Bitebene jedes Pixels des Fingerabdruckbildes an. Experimentelle Ergebnisse zeigen, dass die Integrität/Vertraulichkeit der Fingerabdruckbilder ohne jegliches Austreten der Ridge-Informationen garantiert werden kann. Außerdem kann die bildbasierte selektive Bitplane-Verschlüsselung in Echtzeit auf eingebetteten Prozessoren durchgeführt werden.;-;-;-;https://link.springer.com/chapter/10.1007/11559573_134 ff91abdacace13016c13215bcb5eee2c;de;;;2.4.;;;Softwaredesign des Indoor Robot Motion Controller Systems Design des Softwareprogramms für das Indoor-Roboter-Bewegungssteuerungssystem, der Softwareteil umfasst das Initialisierungsprogramm des Mikrocontrollers, die Verwendung des PID-Steuerungsalgorithmus zur Steuerung der Geschwindigkeit, durch die PWM zum Ändern des Arbeitszyklus für die Motorsteuerung, die Verwendung der Kamera bei der Bildaufnahme Modul und andere Aspekte des Inhalts. Für einen kompletten Controller sind die Software-Verbesserungen und -Innovationen auch sehr wichtige Inhalte.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3250-4_70 7f57afdda8ede5447dbfad035f006ed4;de;;;2.4.;;;Robuste Erkennung verschwommener Handabdrücke über das Fast-Vese-Osher-Modell In diesem Artikel schlagen wir ein neues System zur Erkennung von Handabdrücken vor, das das schnelle Vese-Osher-Zerlegungsmodell verwendet, um die verschwommenen Handabdruckbilder zu verarbeiten. Zunächst wird ein Gaußsches Defokussierungsdegradationsmodell (GDDM) vorgeschlagen, um die Strukturschicht und die Texturschicht von unscharfen Handabdruckbildern unter Verwendung des schnellen Vese-Osher-Zerlegungsmodells zu extrahieren, und die Strukturschicht hat sich als stabiler und robuster erwiesen als die Texturschicht für Erkennung von Handabdrücken. Zweitens wird ein neuartiger Algorithmus basierend auf gewichteter Robustheit mit Histogramm des orientierten Gradienten (WRHOG) vorgeschlagen, um robuste Merkmale aus der Strukturschicht von unscharfen Handabdruckbildern zu extrahieren, die das Problem der Translation und Rotation weitgehend lösen können. Schließlich wird der normalisierte Korrelationskoeffizient (NCC) verwendet, um die Ähnlichkeit von Handabdruckmerkmalen für das neue Erkennungssystem zu messen. Umfangreiche Experimente an der PolyU Handabdruckdatenbank und der unscharfen PolyU Handabdruckdatenbank bestätigen die Wirksamkeit des vorgeschlagenen Erkennungssystems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45261-5_24 669f6eb3c024669e7abe2f159db14b1e;de;;;2.4.;;;Relaisgebundene Einzelaktor-Auswahlalgorithmen für drahtlose Sensor- und Aktornetzwerke Drahtlose Sensor- und Aktornetzwerke (WSANs) bestehen aus einer großen Anzahl von Sensoren und einer kleinen Anzahl von (mobilen) ressourcenreichen Akteuren. Sensoren sammeln Informationen über das physikalische Phänomen, während Akteure Entscheidungen treffen und dann geeignete Aktionen in der Umgebung durchführen. Echtzeit und Netzwerklebensdauer sind wichtige Faktoren von WSANs. In diesem Papier wird daher zuerst ein Single-Aktor-Auswahlproblem für WSANs anhand von Echtzeit- und Relay Bound-Beschränkungen der Knoten behandelt, und dann wird eine Programmierung mit mehreren Zielen bereitgestellt. Danach werden zwei Näherungsalgorithmen, Global Relay-Bounded und MIN-MAX Hops (GRBMMH) und Distributed Relay-Bounded und MIN-MAX Hops (DRBMMH), vorgestellt. Bei der Leistungsbewertung werden diese Algorithmen mit den Algorithmen MECT (Minimum Energy Cost Tree) und MPLCT (Minimum Path Length Cost Tree) verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/11881223_51 f181a9a417923e134d497c42c5b34ab9;de;;;2.4.;;;Eye-Tracking-Datenanalyse während kognitiver Aufgaben Diese Arbeit untersucht den Einsatz von Eye-Tracking als Methode zur Analyse der mentalen Anstrengung bei kognitiven Aufgaben. Ausgehend von einer trivialen Aufgabe des Zählens von Objekten soll in dieser Arbeit eine Studie über die Reaktionen des Nervensystems durch visuelle Reize auf das kognitive System vorgelegt werden. Unsere experimentellen Ergebnisse zeigen, dass es einen Zusammenhang zwischen der kognitiven Belastung und der Variation des Pupillendurchmessers gibt, was die Idee untermauert, dass die Pupille ein sensibler Indikator für geistige Anstrengung ist. Wir glauben, dass die Messung des Pupillendurchmessers als Leistungsbeschreibung bei kognitiven Aufgaben verwendet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36636-0_15 a2278248edf9dadafeb2b4e264afcacb;de;;;2.4.;;;Downlink-bewusste Datenplanung mit Verzögerungsgarantien in ressourcenbegrenzten Leo-Satellitennetzwerken In den letzten Jahren hat die Datenplanung in Satellitennetzen viel Aufmerksamkeit auf sich gezogen. Die Knoten im Satellitennetzwerk ändern sich dynamisch, und es gibt keine kontinuierliche Konnektivität zwischen den Knoten. Aufgrund der intermittierenden Verbindung zwischen den Satelliten basiert die Datenübertragung auf einem Speicherübertragsmodus. In einem solchen Netzwerk führt dies unweigerlich zu einer Übertragungsverzögerung. Es ist eine Herausforderung, eine große Menge von Beobachtungsdaten mit Verzögerungsgarantien in ressourcenbegrenzten Satellitennetzen zu planen. In diesem Papier schlagen wir einen Downlink-bewussten Datenplanungsalgorithmus vor, der auf einer Dekompositionsstrategie des Rolling-Horizon-Mechanismus basiert. Die Datenflüsse mit Terminen werden Bodenstationen geordnet über machbare Routen während jedes Gleithorizonts zugewiesen. Unter Berücksichtigung der Probleme der zeitveränderlichen Knotenzentralität und der Downlink-Kapazität wird eine Link-Metrik bereitgestellt, um das Problem des Downlink-Kontaktkonflikts zu lösen. Dann wird ein heuristischer Routingalgorithmus verwendet, um einen Intersatellitenverbindungskontakt zu entwerfen. Weitere Simulationsergebnisse demonstrieren die Wirksamkeit der vorgeschlagenen Algorithmen bei der Verbesserung des Netzgewinns bei gleichzeitiger Sicherstellung des Übertragungsverzögerungsbedarfs.;-;-;-;https://link.springer.com/article/10.1007/s12083-021-01128-z e018801440827824f42c147d712cd759;de;;;2.4.;;;RBF-Neuralnetzwerk-basierte Temperaturfehlerkompensation für faseroptische Gyroskope In diesem Artikel wird ein Temperaturfehlerkompensationsschema für ein faseroptisches Gyroskop (FOG) basierend auf einem neuronalen Netzwerk mit radialer Basisfunktion (RBF) vorgeschlagen. Durch die Verwendung der Datenvorverarbeitung und des Orthogonal Least Square (OLS)-Lernverfahrens wird die Trainingsleistung des Netzwerks verbessert und die Überanpassung des Netzwerks verhindert. Die experimentellen Ergebnisse veranschaulichen, dass die vorgeschlagene Methode eine Leistungsverbesserung von 15–40% im Vergleich zum herkömmlichen linearen Regressionsmodell aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8411-4_214 4a0179b077bc61a7302431cbaa630afe;de;;;2.4.;;;Einige aktuelle Trends bei der Verarbeitung natürlicher Sprache In diesem Beitrag beschreibe ich einige Aspekte des Natural Language Processing (NLP), insbesondere einige aktuelle Trends. Diese Themen betreffen einige neue Wege der Grammatik- und Parsingforschung sowie statistische Ansätze für NLP, einen relativ neuen Trend im NLP.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-585-35958-8_26 637754a09914626f65d66b6804b018d9;de;;;2.4.;;;Hybrider Fusions- und Interpolationsalgorithmus mit Nahinfrarot-Bild Digitalkameras auf Siliziumbasis können Informationen im sichtbaren und nahen Infrarot (NIR) aufzeichnen, wobei das sichtbare Vollfarbbild (RGB) aus der Farbfilterarray-(CFA)-Interpolation wiederhergestellt werden muss. In diesem Papier schlagen wir einen einheitlichen Rahmen für die CFA-Interpolation und die Kombination von sichtbaren/NIR-Bildern vor. Um ein Farbbild hoher Qualität zu erhalten, wird die traditionelle Farbinterpolation aus CFA-Rohdaten bei jedem Pixel verbessert, die durch das entsprechende monochromatische NIR-Bild in der Gradientendifferenz eingeschränkt wird. Die Experimente zeigen die Wirksamkeit dieses hybriden Schemas, um gemeinsame Farb- und NIR-Informationen in Echtzeit zu erfassen, und zeigen, dass dieser hybride Prozess im Vergleich zur getrennten Behandlung von Interpolation und Fusion ein besseres Farbbild erzeugen kann.;-;-;-;https://link.springer.com/article/10.1007/s11704-014-4230-3 c75ee40d647fab0357062e22d5fdbbf8;de;;;2.4.;;;Überwachung von Gletscher- und Übergletscherseen aus dem Weltraum in Mt. Qomolangma-Region des Himalaya auf dem tibetischen Plateau in China Aufgrund der großen Anzahl und Abgelegenheit wurden Satellitendaten, einschließlich Mikrowellendaten und optische Bilder, häufig bei alpinen Gletschervermessungen verwendet. Unter Verwendung von Fernerkundungs- und Geographical Information System (GIS)-Techniken präsentiert der Artikel die Ergebnisse einer multitemporalen Satelliten-Gletscherausdehnungskartierung und Gletscheränderungen nach Gletschergrößen im Mt. Qomolangma-Region an den Nordhängen des mittleren Himalaya über dem tibetischen Plateau. Die Gletscher in dieser Region haben sich in den letzten 35 Jahren sowohl zurückgezogen als auch vorgedrungen, wobei der Rückzug dominiert. Das Gletscherrückzugsgebiet war 3,23 km² groß;-;-;-;https://link.springer.com/article/10.1007/s11629-009-1016-4 fa80b506feecfb5c1c30734033e16856;de;;;2.4.;;;Fuzzy-Identitätsbasiertes Identifizierungsschema Wir präsentieren eine neue Art der identitätsbasierten Identifizierung (IBI), nämlich die Fuzzy Identity-Based Identification (FIBI). FIBI ist eine Erweiterung des traditionellen IBI, bei der die Identität (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10580-7_18 0ffb53dbab6f29e9d621fa69b8d71c7a;de;;;2.4.;;;Die Diskussion und Anwendung der Computer-Boot-Technologie Dieses Papier stellt hauptsächlich den Computer-Boot-Prozess und die Anwendung der Boot-Technologie vor. Es behandelt zunächst alle Schritte des Bootvorgangs, mit denen der Computer gestartet wird, und betont insbesondere die Boottechnologie und die Geräte im Prozess. Zweitens werden zwei gängige Boot-Methoden vorgestellt, USB und Netzwerk, und deren Arbeitsprinzip erklärt. Schließlich stellt der Autor das Verfahren zum Booten der vielen Computer über USB und Netzwerk vor, insbesondere wie die Funktion von Markencomputern in die Personalcomputer integriert werden kann, in denen die Personalcomputer die gleiche Netzwerkfunktion haben können.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-2386-6_177 01f4c7875d1a055d8f26523471f0a99b;de;;;2.4.;;;Eine neuartige Gesichtsabdruck-Spoof-Erkennung mithilfe von Farbstreuungsmessungen im HSI-Raum Die Erkennung von Gesichtsfälschungen ist in letzter Zeit ein Thema von Interesse in der Forschung. Hier wird ein neuartiger Ansatz zur Erkennung von Gesichtsfälschungen vorgestellt, der Druckfälschungen adressiert. Die Neuheit liegt in unterschiedlichen Merkmalen, die aus Streuungs- und Varianzmessungen im HSI-Farbraum abgeleitet werden. Die volumetrischen Maße um die konvexe Hülle und die geometrische Beschreibung haben kompakte und effektive Merkmale ergeben. Es funktioniert auch gut mit natürlich verfügbaren Erfassungsgeräten. Die Spoof-Erkennungsrate ist hoch signifikant und funktioniert auch über datenbankübergreifende Protokolle gut.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1086-8_43 d494e2eda28ebeab7610003e32214cea;de;;;2.4.;;;Forschung zur Fehlerdiagnose basierend auf künstlichen neuronalen Netzen Gemäß Klassifikationsrahmen des klassischen neuronalen Netzes, des zeitgenössischen neuronalen Netzes und des Soft Computing, die grundlegenden Konzepte des neuronalen Feedforward-Netzes (MLP, BP und RBF), des neuronalen Feedback-Netzes (Hopfield, Boltzmann, Neuronales Netz (SOM, ART, CPN), Deep und Extreme Neural Network (Deep Learning, Extreme Learning), das Novel Neural Network (SVM, PNN) und Soft Computing Neuronale Netze in Kombination mit verschiedenen Methoden werden vorgestellt und der Forschungsfortschritt typische Anwendungen des neuronalen Netzes in der Fehlerdiagnose werden aufgezeigt. Auch die bestehenden Probleme und zukünftige Entwicklungsrichtungen der Fehlerdiagnose werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6508-9_10 afc367906abd04391ce837db157c0b51;de;;;2.4.;;;Natürliche und anthropogene Veränderungen der Mangrovenverteilung im Pioneer River Estuary (QLD, Australien) Wir analysierten eine Zeitreihe von Luftaufnahmen und Landsat-Satellitenbildern der Pioneer River-Mündung (in der Nähe von Mackay, Queensland, Australien), um sowohl natürliche als auch anthropogene Veränderungen im Gebiet der Mangroven zu dokumentieren, die zwischen 1948 und 2002 zur Filterung des Flussabflusses zur Verfügung standen. Über 54 Jahre , gab es einen Nettoverlust von 137 ha (22%) an Gezeitenmangroven in vier aufeinanderfolgenden Perioden, die durch unterschiedliche Antriebsmechanismen gekennzeichnet waren: (1) geringe Nettoveränderung (1948–1962), (2) Nettogewinn durch schnelle Mangrovenexpansion ( 1962–1972), (3) Nettoverlust durch Rodung und Gezeitenisolation (1972–1991) und (4) Nettoverlust durch ein schweres artspezifisches Absterben, das über 50% der verbleibenden Mangrovenbedeckung betrifft (1991–2002). Die manuelle Digitalisierung von Luftbildern war für die Kartierung von Veränderungen in den Grenzen der Mangrovenverteilung genau, aber diese Technik unterschätzte den Gesamtverlust aufgrund des Absterbens. Regionen des Mangrovensterbens wurden identifiziert und genauer und effizienter kartiert, nachdem der Normalized Difference Vegetation Index (NDVI) auf Landsat Thematic Mapper-Satellitenbilder angewendet und dann die Änderungen des Index im Laufe der Zeit überwacht wurden. Diese Fernerkundungstechniken zur Kartierung und Überwachung von Mangrovenveränderungen sind wichtig, um die Schädigung von Lebensräumen sowohl räumlich als auch zeitlich zu identifizieren, um der Wiederherstellung für das Management von Mündungs- und angrenzenden Meeresökosystemen Priorität einzuräumen.;-;-;-;https://link.springer.com/article/10.1007/s11273-006-9011-9 3924e5b2670637026f68cb019458f952;de;;;2.4.;;;Vorstellung von MDPSD, einem multimodalen Datensatz zur Erkennung von psychischem Stress Wie wir alle wissen, kann Langzeitstress schwerwiegende Auswirkungen auf die menschliche Gesundheit haben, was kontinuierliche und automatische Stressüberwachungssysteme erfordert. Allerdings fehlt es in der Affective Computing-Forschung an gängigen Standarddatensätzen zur psychologischen Stresserkennung. Daher präsentieren wir einen multimodalen Datensatz zur Erkennung von menschlichem Stress (MDPSD). Es wurde ein Setup für die synchronisierte Aufzeichnung von Gesichtsvideos, Photoplethysmographie (PPG) und elektrodermalen Aktivitätsdaten (EDA) eingerichtet. 120 Teilnehmer unterschiedlichen Geschlechts und Alters wurden von Universitäten rekrutiert, um an dem Experiment teilzunehmen. Das Datenerhebungsexperiment war in acht Sitzungen unterteilt, die vier verschiedene Arten von psychologischen Stressreizen beinhalteten: den klassischen Stroop Color-Word Test, den Rotation Letter Test, den Stroop Number-Size Test und den Kraepelin Test. Die Teilnehmer führten den Test jeder Sitzung nach Bedarf durch und gaben uns dann den Selbstbewertungsstress jeder Sitzung als unser Datenlabel zurück. Um den Nutzen des Datensatzes zu demonstrieren, präsentieren wir eine Analyse der Korrelationen zwischen den Selbsteinschätzungen der Teilnehmer und ihren physiologischen Reaktionen. Stress wird mithilfe bekannter physiologischer Signalmerkmale und standardmäßiger maschineller Lernmethoden erkannt, um eine Basislinie für den Datensatz zu erstellen. Darüber hinaus erreichte die Genauigkeit der binären Stresserkennung 82,60 % und die der dreistufigen Stresserkennung 61,04 %.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0705-9_5 43296266fba9dc8c48ed31626cb8c995;de;;;2.4.;;;Berührungslose Erkennung der menschlichen Herzfrequenz mit Kinect Die berührungslose Erfassung der Herzfrequenz wurde von Forschern aus sehr unterschiedlichen Bereichen untersucht. Die geringe Messgenauigkeit führt jedoch zu Schwierigkeiten beim Methodeneinsatz. In diesem Beitrag wird das Prinzip der Herzschlagerkennung vorgestellt. Es wird ein Erkennungsschema unter Verwendung von Kinect vorgeschlagen. Darüber hinaus wurde der auf dem JADE-Algorithmus basierende Signalverarbeitungsansatz entwickelt, um die Störflecken in gemischten Signalen effizient zu entfernen, und ermöglicht eine genaue Transformation durch Z-Score-Normalisierung. Aufgrund der in dieser Arbeit vorgestellten Signifikanz beträgt der Erkennungsfehler 1,79%, wenn er mit dem vorgeschlagenen Algorithmus verarbeitet wird. Experimentelle Ergebnisse werden statistisch ausgewertet, was sie zu einer vielversprechenden Grundlage für die Realisierung der Herzfrequenzerkennung macht.;-;-;-;https://link.springer.com/article/10.1007/s10586-018-1716-z 88d2f4d932e67860ecb67b28f02dd825;de;;;2.4.;;;Bandbreitenoptimierungsverfahren für unkritische Datenübertragung in Echtzeit-Kommunikationssystemen Manufacturing Execution Systems (MES) benötigen Kommunikationsdienste, die einen einfachen Zugriff auf die in industriellen Steuerungssystemen verarbeiteten Informationen ermöglichen. Moderne verteilte Steuerungssysteme basieren auf den Normen IEC 61131 und IEC 61158. Diese Situation führt zu einem Engpass in der Kommunikation zwischen Leit- und MES-Systemen. Dieser Beitrag befasst sich mit dem Problem der Erfassung großer Datenblöcke zwischen dem verteilten Steuerungssystem und MES. Besonderes Augenmerk haben die Autoren auf die Kommunikation Master-SPS – Stations-SPS gelegt, die in einem verteilten Steuerungssystem realisiert wird. Dabei wurde die begrenzte Bandbreite des bestehenden Feldbusnetzes genutzt. Der vorgestellte Ansatz wurde entwickelt, um den Datenerfassungsprozess in einem bestehenden verteilten Steuerungssystem zu unterstützen, das in der Automobilproduktion verwendet wird. Die betrachteten MES-Funktionen beziehen sich auf die Energieeffizienzanalyse auf Maschinen- und Produktionslinienebene. Der Standard OPC UA (IEC 62541) wurde bei der Schätzung der Größe großer Datenblöcke berücksichtigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38865-1_20 1335aaa5de3e842b449d0162ea5f795f;de;;;2.4.;;;Überkomplette Analyse von fMRT-Daten im Ruhezustand Die unabhängige Komponentenanalyse (ICA) ist weit verbreitet, um Gehirnnetzwerke aus fMRT-Daten aufzudecken. Da die ICA-Methode auf einem vollständigen linearen Modell basiert, funktioniert sie möglicherweise nicht gut für die fMRT-Daten mit sehr wenigen Zeitpunkten. Lewicki und Sejnowski (Neural Comput 12:337–365, 2000 [;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0207-6_44 e282ce40a18cb82d3aa89641046369b2;de;;;2.4.;;;Verstehen der Dynamik des EEG, das unter verschiedenen Geruchsstimulationen im Gehirn erzeugt wird Das Gehirn ist das stärkste Organ des Menschen, verwaltet das zentrale Nervensystem, interpretiert und verarbeitet die von den fünf Sinnesorganen empfangenen Informationen. Das Elektroenzephalogramm (EEG) ist eine elektrophysiologische Methode, um die elektrische Bewegung der Gehirnsignale insbesondere von der Kopfhaut zu überwachen und auszulesen. Olfaction ist eine Chemorezeption, die durch das sensorische Geruchssystem einen Geruchseindruck erzeugt. Dieses Papier zielt darauf ab, das Verhalten des menschlichen Geruchssystems gegenüber natürlichen und künstlichen Aromen durch eine Sequenz von Vorverarbeitung und Schätzung der spektralen Leistungsdichte (PSD) nach der Welch-Methode zu analysieren. Um die Aktivierung verschiedener Frequenzbänder unter dem Einfluss von Geruchsstoffen zu verstehen, wurde eine Power-Plot-Analyse durchgeführt. Multiskalige Entropie- und Fraktale Dimension-Ansätze wurden auf die vorverarbeiteten Daten angewendet, um die nichtlineare Dynamik des durch verschiedene Geruchsstoffe stimulierten EEG zu untersuchen und zu vergleichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0425-6_20 aadaaec86872eaec1b7b690b1c3442a3;de;;;2.4.;;;Aufbau einer Datenbank paralleler Phrasen in Chinesisch und Arabisch Parallel Corpora sind eine Basisressource für die Forschung im zwei- und mehrsprachigen Natural Language Process (NLP), der vergleichenden Linguistik und der translationalen Studien. Die Grundeinheit der Semantik in der natürlichen Sprache ist der Satz mit fester Form und Bedeutung. Phrasal Alignment ist eine sehr wichtige Anwendung für einen parallelen Korpus. Das aktuelle Papier verfolgt eine „Analyze-Analyze-Match“-Strategie, um aus einem parallelen Korpus von Chinesisch und Arabisch Phrasen für die Ausrichtung auszuwählen. Eine ausgerichtete Phrasendatenbank wird aufgebaut und die verbalen Phrasen werden zwischen Chinesisch und Arabisch verglichen. Verbale Phrasen im Arabischen haben normalerweise drei Kategorien: Verb + Nominalphrase, Verb + Präpositionalphrase und Partikel + Verb. Bei Ausrichtung auf chinesische Phrasen entspricht jede Kategorie arabischer Verbphrasen einer Reihe von Phrasenkategorien, einschließlich Verbphrasen sowie Nominalphrasen und Präpositionalphrasen. Die aus den ausgerichteten arabischen und chinesischen Redewendungen abgeleiteten translationalen Beispiele und Regeln können eine wichtige unterstützende Rolle in translationalen Studien und der vergleichenden Linguistikforschung spielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-73573-3_49 79120f2357e0c6e314947166979061c6;de;;;2.4.;;;Eine Echtzeitmethode zur Fernerkennung eines Ziels basierend auf dem Farbmittelwert und der Abweichung Dieses Papier stellt eine neue halbautomatische Methode vor, um ein Ziel in Echtzeit aus der Ferne zu segmentieren. Ziel ist eine schnelle Unterscheidung und Erkennung auf Basis der RGB-Farbraumanalyse. Zunächst wird ein Pixel des gewünschten Ziels manuell ausgewählt und anhand des Wiegens verschiedener interessierender Umgebungsbereiche bewertet (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-05532-5_27 757d36e212e2e0d157b8105f41b8059e;de;;;2.4.;;;Ein Verfahren zur Vorverarbeitung von Vibrationssignalen für Hydraulikpumpen basierend auf ILCD Fusion Die Vorverarbeitung der Vibrationssignale der Hydraulikpumpe ist die Grundlage für die Fehlervorhersage. Das Vibrationssignal-Vorverarbeitungsverfahren basierend auf ILCD-Fusion wird vorgeschlagen, um das Problem zu lösen, dass das Vibrationssignal nichtlinear ist und die Merkmalsinformationen schwach sind. Erstens werden die hochfrequenten Harmonischen mit ILCD kombiniert, um Mehrkanal-Vibrationssignale zu zerlegen, und es können ISC-Komponenten erreicht werden. Zweitens werden die sensiblen Faktoren als Bewertungsindizes definiert und die sensiblen Komponenten, die die Fehlermerkmalsinformationen enthalten, werden gescreent und gewichtet fusioniert. Das rekonstruierte Signal wird erhalten, um das Rauschen und andere Interferenzkomponenten zu reduzieren und die Fehlermerkmalsinformationen effektiv zu extrahieren. Schließlich wird die Wirksamkeit dieser Methode durch die Messung des Schwingungssignals der Hydraulikpumpe überprüft.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6504-1_38 38ff1ee45191776357de7b2d45a8de38;de;;;2.4.;;;Modulteilung für funktionelle Gehirnnetzwerke durch Nutzung der Betweenness-Effizienz Traditionelle Forschungen gehen davon aus, dass funktionelle Netzwerke des Gehirns während des gesamten Scanvorgangs der funktionellen Magnetresonanztomographie (fMRT) im Ruhezustand statisch sind. Es ist jedoch nicht schwer, die dynamischen Interaktionsmuster von Gehirnregionen zu ignorieren, die sich im Laufe der Zeit grundlegend ändern. In dieser Studie nehmen wir die interne Gewichtsinformation des Gehirnfunktionsnetzwerks als Berechnungsbedingung für die Modulteilung für Gehirnfunktionsnetzwerke. Das Konzept der Betweenness-Effizienz wird zunächst vorgeschlagen, um den Girvan-Newman (GN)-Algorithmus für ein besseres Modulteilungsergebnis zu verbessern, und die maximale Modularität wird als Kriterium verwendet, um die Gehirnfunktionsnetzwerkmodule von normalen Probanden zu klassifizieren. Die Wirkung des verbesserten Verfahrens wird durch Kontrollieren von Subjekten, Parametern, Umgebung und anderen Bedingungen verifiziert. Dann wurde die verbesserte Methode verwendet, um die Module in funktionellen Netzwerken des Gehirns normaler Probanden zu trennen, und die Vorlage wurde verwendet, um das funktionelle Netzwerk von Alzheimer-Patienten (AD) und Patienten mit leichter kognitiver Beeinträchtigung (MCI) aufzuteilen. Die kürzeste Weglänge jedes Moduls wird berechnet und die experimentellen Ergebnisse werden mit dem ursprünglichen GN und dem von Newman verbesserten gewichteten GN-Algorithmus verglichen. Die experimentellen Ergebnisse zeigen, dass die maximale Modularität des verbesserten Verfahrens höher ist, während der Teilungseffekt unter den gleichen Bedingungen besser ist. Inzwischen stimmt die Schlussfolgerung mit den vorliegenden Forschungsergebnissen überein, wenn die vorgeschlagene Methode auf die Analyse der kürzesten Weglänge anwendbar ist. Diese Ergebnisse veranschaulichen den Standpunkt, dass die vorgeschlagene Methode der Modulteilung bei der Analyse der modularen Struktur von Gehirnfunktionsnetzwerken durchführbar ist.;-;-;-;https://link.springer.com/article/10.1007/s11042-018-7125-8 7c53f3b2e3150ae6d84a794a8baf83ba;de;;;2.4.;;;Modellierung von Unsicherheiten im fortgeschrittenen Wissensmanagement Der Umgang mit und das Management von Wissen ist ein schwieriges und komplexes Unterfangen. eine breite Palette fortschrittlicher Technologien muss herangezogen werden, um Unterstützung für Wissensanforderungen bereitzustellen, die vom Erwerb, der Modellierung, (Wieder-)Verwendung, dem Abruf, der Veröffentlichung und der Pflege von Wissen reichen. Wissensingenieure tauschen Ideen aus, kommunizieren, planen, handeln oder argumentieren oft in Situationen, in denen Fakten unbekannt sind und die zugrunde liegende natürliche Sprache unsicher oder vage ist. Sie haben keinen Zugriff auf die gesamte Umgebung, um jede Situation zu bewerten. Auch Bedingungen sind unbekannt, unvollständig oder nur grob zusammengefasst. In diesem Beitrag werden Anwendungen der Wissensrepräsentation als formale grafische Sprache im Detail untersucht. exempli gratia, bayessche Netze sind grafische Modelle zur Darstellung von Wissen unter Unsicherheitsbedingungen. Dieser Netzwerktyp modelliert die quantitative Stärke der Verbindungen zwischen Variablen, wodurch probabilistische Annahmen über sie automatisch aktualisiert werden, wenn neue Informationen verfügbar werden. Anwendungen in verschiedenen Bereichen wie dem Maschinenbau werden beispielhaft dargestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19032-2_2 7633234e1c8988b538832bf6336af0ee;de;;;2.4.;;;Ein Partikelschwarm-Optimierungsalgorithmus für neuronale Netze zur Erkennung von Maisblattkrankheiten Die neuronalen Netze haben eine Bedeutung bei der Erkennung von Pflanzenkrankheiten, haben jedoch den Nachteil einer langsamen Konvergenzgeschwindigkeit und eines Mangels an lokalem Optimum. Um die Maisblattkrankheiten durch maschinelles Sehen genauer zu identifizieren, schlagen wir einen verbesserten Partikelschwarm-Optimierungsalgorithmus für neuronale Netze vor. Mit dem Algorithmus wird die Eigenschaft des neuronalen Netzes verbessert. Es bestätigt angemessen Schwellenwert und Verbindungsgewicht des neuronalen Netzes und verbessert die Fähigkeit, Probleme bei der Bilderkennung zu lösen. Schließlich zeigt ein Beispiel der Emluation, dass das neuronale Netzwerkmodell auf Basis von Pso deutlich besser erkennt als ohne Optimierung. Die Modellgenauigkeit wurde bis zu einem gewissen Grad verbessert, um den tatsächlichen Bedürfnissen der Erkennung von Maisblattkrankheiten gerecht zu werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19620-6_56 18164f35992379b94fd1462169503a50;de;;;2.4.;;;Bildverarbeitungsbasierte Überwachung der Vegetationsbedeckung und deren Kategorisierung mithilfe von differentiellen Satellitenbildern für das Wassereinzugsgebiet des Urmodi-Flusses im Bezirk Satara, Maharashtra, Indien Die schnelle und präzise Überwachung der Vegetationsdecke war schon immer eine Herausforderung für die Aufrechterhaltung der Genauigkeit über einen großen Bereich. Auf der Fernerkundung (RS) basierende Satellitenbilder haben wesentlich zur Überwachung der Vegetations- und Landbedeckungskategorisierung beigetragen. Da die Vegetation in engem Zusammenhang mit der Bodenablösung und deren Sedimentation steht, ist insbesondere im Einzugsgebiet von Talsperren und Stauseen eine regelmäßige Überwachung der Vegetation unabdingbar. In dieser Studie wurden Vegetationskarten durch bildgebende Verarbeitung von Satellitenbildern erstellt. Mit Hilfe von Vegetationsindex (VI) basierenden Karten konnten wir die Vegetationsphänologie im Einzugsgebiet studieren. Der Normalized Difference Vegetation Index (NDVI), Soil Adjusted Vegetation Index (SAVI) und Enhanced Vegetation Index (EVI) wurden unter Verwendung der Spektralbänder von Landsat 8- und Sentinel 2 A-Satellitendaten ermittelt. Die Klassen wurden in keine Vegetationsbedeckung (<0,1), geringe Vegetationsbedeckung (0,1–0,3), mäßige Vegetationsbedeckung (0,3–0,4), hohe Vegetationsbedeckung (>0,4) eingeteilt. Die Fläche unter jeder Kategorie wurde mit Vektordateien berechnet. Außerdem wurde die Beziehung zwischen den Pixelwerten von Landsat 8 und Sentinel 2 analysiert, indem die räumliche Auflösung von Landsat 8-Karten herunterskaliert wurde. Der Pixelwert von zwei satellitengestützten NDVI und SAVI zeigt das gleiche R;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9187-3_29 a31e485ab614ab4e581713f4af1c3679;de;;;2.4.;;;Ein binärer Klassifikationsansatz zur Identifizierung und Qualifizierung von Elektroden Kleine und mittlere Unternehmen (KMU) mit einem Geschäftsmodell, ihre Produkte und Dienstleistungen an andere KMUs zu verkaufen, das als Business-to-Business (B2B)-Modell bezeichnet wird, sind ständig auf der Suche nach neuen Geschäftsmöglichkeiten und Leads. Ihr Identifizierungs- und Qualifizierungsprozess für Interessenten und Leads ist größtenteils manuell und hängt stark von der menschlichen Intuition und den kognitiven Fähigkeiten ab. Die von Vertriebs- und Marketingteams verwendeten Kriterien zur Identifizierung und Qualifizierung von Leads sind durch die kostenlose und öffentliche Verfügbarkeit von Lead-Informationen begrenzt. Diese Unternehmen können sich die Anschaffungs- und Lizenzkosten herkömmlicher Tools für das Customer Relationship Management (CRM) oder Software-as-a-Service nicht leisten. Auch das geringe Datenvolumen und der begrenzte Satz von Attributen rechtfertigen die Investition in solche Tools nicht. Dieses technische Papier schlägt einen Rahmen vor, um den Lead-Identifikations- und -Qualifizierungsprozess durch die Kombination einer Reihe von Automatisierungsskripten und Datenanalyse- und maschinellen Lernmodellen zu automatisieren. Der vorgeschlagene Rahmen besteht aus (a) der Erfassung, Bereinigung und Vorverarbeitung von Verkaufsdaten, (b) der Datenspeicherung, (c) der Anwendung einer Klassifizierung auf gespeicherte Verkaufsdaten und (d) der Vorhersage der Klasse der unsichtbaren Verkaufsdaten basierend auf dem erworbenen Wissen während dem Training. Das Papier präsentiert eine vergleichende Studie von fünf branchenüblichen Klassifikations- und Regressionsalgorithmen und schlägt auch eine Reihe von Zwei-Klassen-Klassifikationsalgorithmen vor, die auf den Ergebnissen von Experimenten basieren, die mit Datensätzen mit geringem und hohem Volumen durchgeführt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1423-0_30 dbeb5eb51b25aa49771058fe9e6028aa;de;;;2.4.;;;Frequenz- und entfernungsabhängige Beziehung zwischen ereignisbezogener EEG-Aktivität und BOLD-Antworten in einem auditiven Stroop-Paradigma Der genaue Zusammenhang zwischen Elektroenzephalogramm (EEG) und Blutoxygenierungsspiegel-abhängigen (BOLD) Reaktionen in funktionellen Magnetresonanztomographie (fMRT)-Aufzeichnungen ist insbesondere für ereignisbezogene kognitive Paradigmen noch offen. Hier haben wir untersucht, wie die Beziehung zwischen ereignisbezogenen Leistungsänderungen im EEG (ERPC) und BOLD-Antworten für die typischen EEG-Frequenzbänder und in Abhängigkeit von der Entfernung zwischen dem fMRT-Voxel und der EEG-Aufzeichnungsstelle variiert. Als kognitive Aufgabe wählten wir ein auditives Stroop-Experiment. Wir beobachteten, dass für kleine Entfernungen ereignisbezogene BOLD-Antworten im Gammaband positiv mit ERPC korrelierten, ebenso wie im Gegensatz zu früheren Studien im Alphaband. BOLD-Antworten korrelierten negativ mit der EEG-Leistung im Delta-Bereich für Regionen in der Nähe der EEG-Aufzeichnungsstelle.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0207-6_79 f535f54319baad83f973874fac572c63;de;;;2.4.;;;Ein neuartiger robuster adaptiver Regler für das EAF-Elektrodenreglersystem basierend auf der Näherungsmodellmethode Das Elektrodenreglersystem ist ein komplexes System mit vielen Variablen, starker Kopplung und starker Nichtlinearität, während konventionelle Regelverfahren wie das Proportional-Integral-Derivat (PID) die Anforderungen nicht erfüllen können. Ein robuster adaptiver neuronaler Netzwerkcontroller (RANNC) für ein Elektrodenreglersystem wurde vorgeschlagen. Künstliche neuronale Netze wurden eingerichtet, um die Systemdynamik zu erlernen. Das nichtlineare Regelgesetz wurde direkt basierend auf einem Input-Output-Approximationsverfahren über die Taylor-Entwicklung abgeleitet, wodurch eine komplexe Regelentwicklung und aufwändige Berechnungen vermieden werden. Die Stabilität des Closed-Loop-Systems wurde nach der Lyapunov-Methode ermittelt. Der relative Prozentsatz der aktuellen Fluktuation beträgt weniger als ±8 % und die Heizrate beträgt bis zu 6,32 °C/min, wenn der vorgeschlagene Regler verwendet wird. Die Versuchsergebnisse zeigen, dass das vorgeschlagene Regelschema besser ist als der inverse neuronale Netzregler (INNC) und der PID-Regler (PIDC).;-;-;-;https://link.springer.com/article/10.1007/s11771-012-1259-z 7501044a8d74ca5bb8bb911c268280cd;de;;;2.4.;;;Integration von Bilddaten mit hoher spektraler und hoher räumlicher Auflösung für eine genaue Zielerkennung Diese Studie hat versucht, ein fusioniertes Bild zu erzeugen, das feine spektrale Eigenschaften von hyperspektralen Daten und größere räumliche Details von multispektralen Daten umfasst. N-FINDR wurde verwendet, um reine Endmitglieder aus hyperspektralen Daten zu extrahieren. Die projizierte Methodik in dieser Studie hat Spektralbänder von Endelementen in den grünen, roten und infraroten Bereichen von hyperspektralen Daten in die entsprechenden Wellenlängenbereiche in multispektralen Daten neu abgetastet. Die Häufigkeit dieser Endelemente in multispektralen Bildern wurde durch Linear Spectral Unmixing von multispektralen Daten geschätzt, wobei die neu abgetasteten Endelemente als Eingabe verwendet werden. Neue fusionierte Pixel werden erzeugt, nachdem das lineare Modell auf hyperspektrale Daten mit den geschätzten Häufigkeiten angewendet wurde. Das fusionierte Bild enthält räumliche und spektrale Details multispektraler bzw. hyperspektraler Daten, die eine genauere Zielidentifikation ermöglichen. Die normalisierte Kreuzkorrelation von verschmolzenen Bildpixeln hat eine Korrelation von mehr als 80% mit hyperspektralen Spektren gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-6427-2_15 aef3c894f33af36ac9d544a55b24b78e;de;;;2.4.;;;SKKU Hand-Arm-System: Hardware und Kontrollschema In dieser Arbeit stellen wir das SKKU Hand Arm System I (SKKU-HAS-I) vor, das sich auf das Hardwaredesign und das Steuerungsschema der Arm- und Handsysteme konzentriert. Für das Roboterarmsystem wird eine Antriebsmoduleinheit entworfen und die Arbeitsraumanalyse für den Arm durchgeführt. Ein auf Virtual Spring Damper basierender Controller wird für die Aufgabe der Steuerung auf das Armsystem angewendet. Das Design der Roboterhand basiert auf der Nachahmung der menschlichen Hand und wir führen einen Optimierungsprozess für drei verschiedene Designmaßnahmen, Schnittvolumen des Arbeitsbereichs, Handhabbarkeit und Gegenwinkel durch. Die entwickelte Roboterhand ist mit verschiedenen Sensoren für die Kontaktinformationen ausgestattet. Zur Bewertung der entwickelten Roboterhand werden experimentelle Ergebnisse bereitgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94568-2_7 7e151d764c87f888b940d0845d84a429;de;;;2.4.;;;Eigenschaften eines neuen optischen taktilen Sensors für interaktive Roboterfinger In diesem Beitrag ging es um die Entwicklung eines neuen taktilen Sensors basierend auf einer optischen und bildverarbeitenden Analyse. Es wurde aus einem Silikonkautschuk hergestellt und nach der Form eines Fingers gestaltet. Der mittlere Teil des Sensors ist eine hohle „Kuppel“, auf deren Innenfläche ein Gitter markiert ist. Ein digitaler Kraftmesser wird verwendet, um einen präzisen Kraftwert zu liefern, der den taktilen Sensor bei einer ausgewählten Verschiebung verformt. Ein optisches Fiberskop wird verwendet, um das Verformungsbild aus dem Inneren der Silikonkuppel zu „sehen“, und das Bild wird von einer CCD-Kamera erfasst und für die weitere Verarbeitung mit einem zu entwickelnden Bildverarbeitungsalgorithmus gespeichert. In diesem Beitrag wird die experimentelle Untersuchung zur Analyse der Charakteristik des Sensors hervorgehoben, die das Linearitätsverhalten, den Hystereseverlust und die Verformungen des vorgeschlagenen taktilen Sensors umfasst.;-;-;-;https://link.springer.com/article/10.1007/s12369-011-0129-4 65a2cf62dec3732dc1eed31d58b49f31;de;;;2.4.;;;Bewertung der elektromagnetischen Tracking-Genauigkeit für endoskopischen Ultraschall Endoskopischer Ultraschall (EUS) ist ein minimal-invasives Bildgebungsverfahren, das aufgrund des kleinen Sichtfelds und der Unsicherheit in der Endoskopposition technisch schwierig durchzuführen sein kann. Elektromagnetisches (EM) Tracking entwickelt sich zu einer wichtigen Technologie zur Führung endoskopischer Eingriffe und zum Training in der Endotherapie, indem Informationen über die Endoskopposition durch Fusion mit präoperativen Bildern bereitgestellt werden. Die Genauigkeit der EM-Verfolgung könnte jedoch durch den endoskopischen Ultraschallwandler beeinträchtigt werden. In dieser Arbeit quantifizieren wir die Präzision und Genauigkeit von EM-Tracking-Sensoren, die bei ein- und ausgeschaltetem Ultraschallwandler in den Arbeitskanal eines flexiblen Endoskops eingeführt werden. Es wurde festgestellt, dass das EUS-Gerät einen geringen (kein signifikanten) Einfluss auf die statische Tracking-Genauigkeit hatte, obwohl der Jitter signifikant zunahm. Während einer dynamischen Erfassung wurde eine signifikante Änderung des gemessenen Abstands zwischen Sensoren festgestellt, die in einer festen Geometrie angeordnet sind. Zusammenfassend wurde festgestellt, dass die EM-Tracking-Genauigkeit durch das flexible Endoskop nicht signifikant beeinflusst wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-54057-3_4 3e641b14384d1f92bcf9a95908b9d224;de;;;2.4.;;;Adaptive Partikelzuordnung für multifokale visuelle Aufmerksamkeit basierend auf Partikelfilterung Bei einer Flut von visuellen Eingaben ist es Computern in der Regel unmöglich, alle möglichen Interpretationen basierend auf bestimmten visuellen Daten zu untersuchen. Trotz dieser Rechenschwierigkeiten führen Menschen robust eine genaue visuelle Verarbeitung durch. Einer der wichtigsten Schlüssel in der visuellen Verarbeitung des Menschen ist die Aufmerksamkeitskontrolle.;-;-;-;https://link.springer.com/article/10.1007/s10015-008-0610-9 cfee60ede59291a663e5952f8f2c3fa5;de;;;2.4.;;;Tiefe Sklera-Segmentierung und -Erkennung In diesem Kapitel behandeln wir das Problem der biometrischen Identitätserkennung aus dem Gefäßsystem der menschlichen Lederhaut. Insbesondere konzentrieren wir uns auf die anspruchsvolle Aufgabe der Multi-View-Sklera-Erkennung, bei der sich der sichtbare Teil des Sklera-Gefäßsystems aufgrund unterschiedlicher Blickrichtungen (oder Blickrichtungen) von Bild zu Bild ändert. Wir schlagen eine Komplettlösung für diese Aufgabe basierend auf Convolutional Neural Networks (CNNs) vor und leisten mehrere Beiträge, die zu einer hochmodernen Erkennungsleistung führen, dh: (i) wir entwickeln eine kaskadierte CNN-Baugruppe, die robust segmentieren kann das Sklera-Gefäßsystem aus den Eingabebildern unabhängig von der Blickrichtung, und (ii) präsentieren wir ScleraNET, ein CNN-Modell, das auf Multitask-Weise trainiert wurde (Kombination von Verlusten in Bezug auf Identität und Blickrichtungserkennung), das die Extraktion diskriminativer Gefäße ermöglicht allows Deskriptoren, die für Identitätsrückschlüsse verwendet werden können. Um die vorgeschlagenen Beiträge zu bewerten, stellen wir auch einen neuen Datensatz von Augenbildern vor, genannt die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-27731-4_13 3958ceb952c30132bb481930fc84aea3;de;;;2.4.;;;Digitale Technologien für das Lesen und Verstehen von Texten auf Englisch: Ein praktischer Ansatz mit Kahoot Dieses Papier präsentiert die Analyse einer vorgeschlagenen multimodalen Praxis, die Lesen und Textverständnis in Englisch durch einen auf der Website Voice of America (VOA) verfügbaren Text kombiniert mit einem digitalen Spiel unter Verwendung der Kahoot-Anwendung kombiniert. Die Praxis wurde in zwei Klassen des Jovem Aprendiz-Projekts an der Universität Feevale mit insgesamt 43 Teilnehmern durchgeführt. Außerdem wurden Analysekategorien definiert und ein halbstrukturiertes Interview mit der für das Englischfach zuständigen Lehrkraft und der Anwendung im Unterricht durchgeführt. Der Inhalt des Interviews wurde mit der Inhaltsanalyse von Bardin analysiert. Aus der Inhaltsanalyse des halbstrukturierten Interviews wird innerhalb der vorab festgelegten Kategorien erwogen, dass multimodale Ressourcen und digitale Spiele mit den Unterrichtspraktiken verbunden werden können, um die Schüler zu motivieren und in den Lernprozess einzubinden. Es wird auch festgestellt, dass der Einsatz von Technologien im Klassenzimmer das Lernen effektiver machen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-95522-3_7 0378d856609ec160b5c1b8593baae53c;de;;;2.4.;;;Eine Übersicht über die Online-Signaturprüfung Die Unterschrift ist ein allgemein akzeptiertes biometrisches Merkmal zur individuellen Identifizierung. Die Online-Signatur hat sich in den letzten Jahrzehnten durchgesetzt, da sie dynamische Merkmale ausnutzt, die herkömmliche Offline-Signaturen nicht beibehalten. Dieser Beitrag gibt einen Überblick über die Forschungen der letzten Jahre zur Online-Signaturprüfung und listet einige der Arbeiten auf, die vielversprechende Ergebnisse liefern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25449-9_18 7220719eee0d4ab45f2a1a3594f86cb9;de;;;2.4.;;;Reduzierung des Nachrichten-Overheads von AODV durch Verwendung der Linkverfügbarkeitsvorhersage Eine hohe Protokolleffizienz zu erreichen ist eines der Hauptziele bei der Entwicklung von Routing-Protokollen für mobile Ad-hoc-Netzwerke (MANETs), da eine hohe Protokolleffizienz einen geringen zusätzlichen Steuerungsaufwand und Stromkosten mit sich bringt, die aufgrund der übernommenen Bandbreite und leistungsbeschränkte Charakteristik. In diesem Beitrag wird ein AODV-Verbesserungsprotokoll mit dem Hello-Nachrichtenmechanismus basierend auf der Vorhersage der Verfügbarkeit von drahtlosen Verbindungen vorgestellt. Die Simulationsergebnisse zeigen, dass das verbesserte AODV die Leistung in Bezug auf Latenz und Protokolleffizienz im Vergleich zum Standard-AODV mit dem periodischen Hello-Message-Broadcast-Mechanismus stark verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77024-4_12 eeffe77a7f98e9b1d373369391484fbb;de;;;2.4.;;;Auswirkungsanalyse von Umgebungsfaktoren auf die iterative Berechnung des Secondary Grid Division (ICSGD)-Lokalisierungsschemas für drahtlose Sensornetzwerke Das Lokalisierungsschema ist ein grundlegendes und wesentliches Thema für drahtlose Sensornetzwerke (WSNs). Die iterative Berechnung des Lokalisierungsschemas der sekundären Netzaufteilung (ICSGD) könnte die Inkonsistenz zwischen Berechnungsmenge und Standortgenauigkeit lösen. Die Leistung des Lokalisierungsschemas wurde in einer Reihe von Simulationen bewertet, die unter Verwendung der MATLAB-Software durchgeführt und mit dem Grid Division Localization Scheme (GDLS) verglichen wurden. Die Simulationsergebnisse zeigten, dass das Schema das GDLS in Bezug auf eine höhere Standortgenauigkeit und einen geringeren Standortwert übertraf.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27945-4_5 52ac3d6e6989b8122dcb5617ba3e2540;de;;;2.4.;;;Charakterisierung von Küstenströmungen im südlichen Ostchinesischen Meer im Sommer und Herbst Strömungseigenschaften und vertikale Variationen im Sommer und Herbst im südlichen Ostchinesischen Meer wurden durch Messung von Strömungsprofil-, Gezeiten-, Wind- und Wellendaten für 90 Tage vom 28. Juli bis 25. Oktober 2015 untersucht. Unsere Ergebnisse sind: (1) Die Strömung war hauptsächlich eine (im Uhrzeigersinn) rotierende Strömung mit reziproken Strömungseigenschaften, und vertikal waren die Stromrichtungen im gesamten vertikalen Profil gleich. (2) Die horizontale Strömungsgeschwindigkeit war im August (Sommer) mit einer Durchschnittsgeschwindigkeit von 51,8 cm/s am stärksten. Die durchschnittlichen Strömungsgeschwindigkeiten während der Springflut waren im August am höchsten und im September mit 59,9 bzw. 42,8 cm/s am schwächsten. (3) Es bestehen erhebliche Unterschiede bei den durchschnittlichen Strömungsgeschwindigkeiten in verschiedenen Schichten und Jahreszeiten. Die höchsten durchschnittlichen Strömungsgeschwindigkeiten wurden in den mittleren bis oberen Schichten im August und in den mittleren bis unteren Schichten im September und Oktober gefunden. (4) Die Restströmungsgeschwindigkeit war im August am höchsten, als sie 12,5–47,1 cm/s betrug, während die vertikale Durchschnittsströmungsgeschwindigkeit 34,3 cm/s betrug. Die tiefengemittelten Differenzstromgeschwindigkeiten im September und Oktober betrugen nur 50 % derjenigen im August, und die Differenzstromrichtung drehte sich allmählich gegen den Uhrzeigersinn von den unteren zu den oberirdischen Schichten. (5) Taifunwellen hatten einen wesentlichen Einfluss auf die Strömungen und betrafen sogar die mittleren und unteren Wasserschichten in Tiefen >70,0 m. Unsere Ergebnisse zeigten, dass die Strömungen durch das dynamische Zusammenspiel des Taiwan-Warmstroms, des Eindringens des Kuroshio-Stroms auf den Festlandsockel und Monsunänderungen kontrolliert werden.;-;-;-;https://link.springer.com/article/10.1007/s13131-020-1538-8 0ef84a6e43fa5f10db072163441f8322;de;;;2.4.;;;Zeichnen menschlicher Ahnentafeln Das in diesem Dokument beschriebene MEGADATS-Stammbaum-Plotsystem wurde entwickelt, um einen menschlichen Stammbaum auf einem Grafikgerät wie einem Stiftplotter anzuzeigen. Der Plot-Algorithmus, der bei Plattenlesevorgängen die Ordnung n hat, wobei n die Anzahl der Individuen ist, wird vorgestellt. Es werden Beispielplots gegeben, einschließlich einer Familie mit mehreren Paaren und mehreren ursprünglichen Elternpaaren.;-;-;-;https://link.springer.com/article/10.1007/BF00996195 4eba6369956bba73084c896098944677;de;;;2.4.;;;Analyse von Zeitreihendaten mit dem groben Set Die grobe Mengentheorie wurde 1982 von Z. Pawlak vorgeschlagen. Diese Theorie hat eine hohe Fähigkeit, Wissen basierend auf Entscheidungsregeln aus einer Datenbank, einer Webbasis, einer Menge usw. zu ermitteln. Die Entscheidungsregel wird auch häufig für die Datenanalyse verwendet. In dieser Arbeit wird die Entscheidungsregel verwendet, um auf ein unbekanntes Objekt zu schließen. Das heißt, die Grobmengentheorie wird auf die Analyse von wirtschaftlichen Zeitreihendaten angewendet. Ein im Papier gezeigtes Beispiel zeigt, wie man Wissen aus Zeitreihendaten gewinnt. Am Ende schlagen wir seine Anwendung auf Vorhersagen vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23024-5_13 2a1f7ce758be7ed5ce427a3c14fd2bf2;de;;;2.4.;;;Analyse der Kontraktilität der Skelettmuskulatur mit intelligenten SEMG-basierten Socken Die Oberflächenelektromyographie spielt zunehmend eine wichtige Rolle für Prävention, Diagnose und Rehabilitation im Gesundheitswesen. In diesem Zusammenhang scheint die kontinuierliche Überwachung der von den Muskeln erzeugten elektrischen Potentiale wirksam zu sein, um abnormale Ereignisse zu erkennen. Die jüngsten Fortschritte in der Oberflächen-Elektromyographie-Technologie haben die Entwicklung von wenig invasiven und zuverlässigen tragbaren Geräten ermöglicht. Diese Geräte fördern eine Langzeitüberwachung, sind jedoch oft sehr teuer und nicht einfach entsprechend zu positionieren. Darüber hinaus verwenden sie vorgelierte Einwegelektroden, die Hautrötungen verursachen können. Um diese Probleme zu überwinden, wurde in dieser Arbeit ein Prototyp neuer intelligenter Socken realisiert, der wiederverwendbare und hoch biokompatible Hybridpolymerelektrolyte implementiert. Diese Elektroden bieten eine komfortable Langzeitüberwachung der unteren Extremitäten und vermeiden eine schwierige tägliche Neupositionierung durch den Benutzer. Die realisierten Socken sind leicht und integriert alle elektronischen Komponenten für die Vorbearbeitung und die drahtlose Datenübertragung. Die Gastrocnemius-Tibialis-Muskeln wurden aufgrund ihrer Relevanz für die Beurteilung altersbedingter Gangveränderungen, Sarkopenie-Pathologie, Haltungsanomalien, Sturzrisiko etc System wurde als ein Fall von Studie betrachtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63107-9_4 e456f8dd86b2b7070322f79775cb66f0;de;;;2.4.;;;Biometrie-basiertes Samenextraktionsschema für multiquadratisch-basiertes Post-Quanten-Computing PQC (Post-Quantum Cryptography) entwickelt sich rasant, um eine stabile und zuverlässige quantenresistente Kryptografie in der gesamten Branche bereitzustellen. Wie die bestehende Kryptografie mit öffentlichem Schlüssel verhindert sie nicht, dass ein Dritter den geheimen Schlüssel verwendet, wenn der Dritte den geheimen Schlüssel durch Täuschung, nicht autorisierte gemeinsame Nutzung oder nicht autorisierte Proxys erhält. Die effektivste Alternative, um eine solche illegale Nutzung zu verhindern, ist der Einsatz biometrischer Daten. In diesem Papier schlagen wir ein biometrisch-basiertes Samenextraktionsschema vor, indem wir PCA (Principal Component Analysis)-basiertes CI (Konfidenzintervall) als Merkmalsextraktionsmethode anwenden. Der Bio-Seed kann ein guter Helfer sein, um einen biometrischen geheimen Schlüssel in PQC wie Rainbow zu generieren. Hilfreich ist es, die Verwendung des geheimen Schlüssels durch einen unbefugten Dritten durch biometrische Erkennung zu verhindern sowie einen kürzeren geheimen Schlüssel zu generieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9343-7_25 5b9056729604fe186ffea0293ea3925f;de;;;2.4.;;;Cluster-basiertes Routing-Protokoll für mobiles Ad-hoc-Netzwerk Mobile Ad-hoc-Netzwerke bestehen aus drahtlosen Hosts, die ohne Unterstützung einer festen Infrastruktur miteinander kommunizieren. Bei großen Netzwerken ist eine flache Struktur möglicherweise nicht die effizienteste Organisation für das Routing. Zu diesem Zweck wurden viele Clustering-Schemata vorgeschlagen, die das MANET in einer Hierarchie organisieren, um die Effizienz des Routings zu verbessern. In diesem Beitrag haben wir einen kurzen Überblick über den Stand der Technik von Routing-Topologien für mobile Ad-hoc-Netzwerke gegeben und versuchen, ein Schema vorzustellen, das zu einer Clusterbildung führt, die die Ressourcen des MANET effizient nutzt. Das vorgeschlagene Cluster Based Mobility Considered Routing Protocol erreicht eine effiziente Kommunikation zwischen MANET und erreicht Skalierbarkeit in großen Netzwerken unter Verwendung der Clustering-Technik. Der neue Algorithmus berücksichtigt den Mobilitätsfaktor beim Routing und ebenso wird der Rechenaufwand verringert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17857-3_4 d3df55746df93a31c685c911ea964748;de;;;2.4.;;;Acht Aspekte von Maßnahmen in Verbesserungsplänen Die Planung von Prozessverbesserungen und das Management von Änderungen im Allgemeinen sind hochkomplexe und anspruchsvolle Tätigkeiten. Um einen Überblick über empfohlene Maßnahmen in solchen Plänen zu erhalten, haben wir eine umfassende Literatur zur Änderungsstrategie untersucht. Für jeden Autor haben wir seine wichtigsten Handlungsempfehlungen extrahiert. Das Ergebnis war eine Liste von Handlungsempfehlungen mit 233 Empfehlungen. Durch analytische Einführung haben wir acht allgemeine Aspekte identifiziert, die Manager, Prozessberater und Change Agents bei der Planung und Durchführung von Änderungen und Prozessverbesserungen berücksichtigen sollten. In diesem Beitrag stellen wir die acht Aspekte vor und diskutieren sie. Wir geben einige Überlegungen, wie diese Aspekte als Inspiration oder als Checkliste bei der Gestaltung von Aktionsplänen in praktischen Change-Management-Situationen verwendet werden können. Schließlich beziehen wir die acht Aspekte auf die Werte und Prinzipien des SPI-Manifests und die Richtlinien zur Prozessverbesserung in ISO/IEC 33014.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-97925-0_12 4841165ce4a2e73f3c8612197664c699;de;;;2.4.;;;Zeit- und Frequenzübertragung der Satelliten-Zweiwege-Trägerphase und deren Fehleranalyse Gegenwärtig kann die Coderate der Zweiwege-Satelliten-Zeit- und Frequenzübertragung (TWSTFT) bis zu 20 MChi p/s erreichen, was es für die Genauigkeit von TWSTFT auf der Grundlage der Code-Pseudoentfernungsmessung schwierig macht, die Nanosekunden-Ordnung zu durchbrechen. Die Trägerfrequenz ist hundertmal schneller als die Coderate. Die Anwendung der Trägerphasenmessung im TWSTFT-System ist ein wirksames Verfahren zur Verbesserung der Genauigkeit der Zeit- und Frequenzübertragung. In diesem Beitrag werden die Schwierigkeiten des auf der Trägerphasenmessung basierenden TWSTFT-Verfahrens diskutiert und die Auswirkungen verschiedener Fehlerquellen auf die Zeitübertragungsgenauigkeit nachdrücklich untersucht und entsprechende Korrekturverfahren angegeben. Der Einflussbereich jeder Fehlerquelle wird durch Simulation erhalten, so dass die Fehlerquellen, die beim Hochgenauigkeitsvergleich und dem vereinfachten Beobachtungsmodell der Zweiwege-Satelliten-Zeit- und Frequenzübertragung basierend auf der Trägerphasenmessung berücksichtigt werden müssen, gegeben sind .;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3250-4_211 5aa50930e87de7097c88617c5d9814cd;de;;;2.4.;;;Das Framework des SCADA-Systems basierend auf Cloud Computing Das SCADA-System (Supervisory Control and Data Acquisition) ist ein Computersteuerungssystem, das auf Aufsicht basiert. Das SCADA-System ist für die Öl- und Gaspipelinetechnik sehr wichtig. Cloud Computing verändert grundlegend die Erwartungen, wie und wann Computing-, Speicher- und Netzwerkressourcen zugewiesen, verwaltet und genutzt werden sollten. Um die Ressourcenauslastung, Zuverlässigkeit und Verfügbarkeit des SCADA-Systems für Öl- und Gaspipelines zu erhöhen, wird in dem Papier das SCADA-System basierend auf Cloud Computing vorgeschlagen. Dieses Papier stellt den Systemrahmen des SCADA-Systems basierend auf Cloud-Computing und die Realisierungsdetails über die private Cloud-Plattform des SCADA-Systems vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-05506-0_15 025ba19cfc8e6b21114a32fc2646c76c;de;;;2.4.;;;Octree-Unterteilung mit koplanarem Kriterium für hierarchische Punktvereinfachung Diese Studie präsentiert einen neuartigen schnellen und effektiven Punktvereinfachungsalgorithmus basierend auf Punktwolken ohne Verwendung von Normal- oder Konnektivitätsinformationen. Abgetastete Punkte werden basierend auf Formvariationen durch eine Octree-Datenstruktur, eine innere Punktverteilung eines Clusters, geclustert, um zu beurteilen, ob diese Punkte mit den koplanaren Eigenschaften korrelieren. Dementsprechend wird der relevante Punkt aus jedem koplanaren Cluster ausgewählt. Die relevanten Punkte werden zu einem Dreiecksnetz rekonstruiert und die Fehlerrate bleibt innerhalb eines bestimmten Toleranzniveaus, was die Anzahl der für die Rekonstruktion erforderlichen Berechnungen erheblich reduziert. Das hierarchische Dreiecksnetz basierend auf der Octree-Datenstruktur wird präsentiert. Diese Studie präsentiert hierarchische Vereinfachung und hierarchisches Rendering für das rekonstruierte Modell, um den Benutzeranforderungen gerecht zu werden, und erzeugt ein einheitliches oder merkmalssensitives vereinfachtes Modell, das schnelle weitere netzbasierte Anwendungen, insbesondere den Detaillierungsgrad, erleichtert.;-;-;-;https://link.springer.com/chapter/10.1007/11949534_6 997c3cc3edac080f0e48957ad86a8eea;de;;;2.4.;;;Forschung zu hochauflösendem Radarbild mit synthetischer Apertur für unterschiedliche Antennenstrahlausrichtung Wichtig für die Anwendung des hochauflösenden SAR-Bildes sind die genaue Phase und Amplitude. Die Strahlausrichtung der luftgestützten Radarantenne mit synthetischer Apertur variiert aufgrund der Instabilität der Plattform. Der Einfluss der unterschiedlichen Antennenausrichtung auf das hochauflösende SAR-Bild wird analysiert. Ein SAR-Signalmodell wird basierend auf der Beziehung der Strahlausrichtung und der Verstärkung des Echos erstellt. Die Verzerrung der Phase und der Amplitude des Bildes wird für zwei Fälle diskutiert. Abschließend werden die Simulationsergebnisse zur Bewertung der Entwicklung in diesem Beitrag bereitgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3947-3_33 1404a01d5acd96e18d52242eb48a6506;de;;;2.4.;;;Ein robuster PCA-Algorithmus zum Erstellen von Darstellungen aus Panoramabildern Die erscheinungsbasierte Modellierung von Objekten und Szenen mittels PCA wurde bei vielen Erkennungsaufgaben erfolgreich angewendet. Robuste Verfahren, die die Erkennungsstufe weniger anfällig für Ausreißer, Okklusionen und variierende Beleuchtung gemacht haben, haben den Anwendungsbereich weiter erweitert. Es wurde jedoch viel weniger Forschung betrieben, um Robustheit in der Lernphase zu erreichen. In diesem Artikel schlagen wir ein neuartiges robustes PCA-Verfahren vor, um eine konsistente Unterraumdarstellung bei Vorhandensein von außerhalb liegenden Pixeln in den Trainingsbildern zu erhalten. Das Verfahren basiert auf dem EM-Algorithmus zur Schätzung von Hauptunterräumen bei fehlenden Daten. Indem wir die Randpunkte als fehlende Pixel behandeln, erhalten wir eine robuste PCA-Darstellung. Wir zeigen experimentell, dass die vorgeschlagene Methode effizient ist. Darüber hinaus wenden wir die Methode auf eine Reihe von Panoramabildern an, um eine Darstellung zu erstellen, die eine Überwachung und eine ansichtsbasierte mobile Roboterlokalisierung ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-47979-1_51 2a90931a8295b3358ab79ebc8a31eb47;de;;;2.4.;;;Ein PTS-PGATS-basierter Ansatz für datenintensives Scheduling in Datengrids Grid Computing ist die Kombination von Computerressourcen in einer lose gekoppelten, heterogenen und geografisch verteilten Umgebung. Grid-Daten sind die Daten, die beim Grid-Computing verwendet werden, das aus groß angelegten datenintensiven Anwendungen besteht, die riesige Datenmengen produzieren und verbrauchen, die auf eine große Anzahl von Maschinen verteilt sind. Data Grid Computing setzt sich aus Sätzen unabhängiger Aufgaben zusammen, von denen jede massive verteilte Datensätze erfordert, die jeweils auf unterschiedliche Ressourcen repliziert werden können. Um die Fertigstellungszeit der Anwendung zu verkürzen und die Leistung des Grids zu verbessern, sollten geeignete Rechenressourcen ausgewählt werden, um die Aufgaben auszuführen, und geeignete Speicherressourcen ausgewählt werden, um die von den Aufgaben benötigten Dateien bereitzustellen. Das Problem lässt sich also in zwei Teilprobleme aufteilen: Auswahl von Speicherressourcen und Zuweisung von Aufgaben zu Rechenressourcen. Dieses Papier schlägt einen Scheduler vor, der in drei Teile unterteilt ist, die parallel laufen können und sowohl eine parallele Tabu-Suche als auch einen parallelen genetischen Algorithmus verwenden. Schließlich wird der vorgeschlagene Algorithmus bewertet, indem er mit anderen verwandten Algorithmen verglichen wird, die darauf abzielen, die Makespan zu minimieren. Simulationsergebnisse zeigen, dass der vorgeschlagene Ansatz eine gute Wahl für die Planung großer Datengrid-Anwendungen sein kann.;-;-;-;https://link.springer.com/article/10.1007/s11704-011-0970-5 5725a519e4e24f6faf01f5c9de02e207;de;;;2.4.;;;Automatische Referenzauswahl für die quantitative Interpretation der EEG-Komponenten: Kreuzspektrumanalyse basierend auf bipolarem EEG Als wichtiges Instrument zur Untersuchung von Hirnerkrankungen wurde ein automatisches Elektroenzephalographie-(EEG)-Interpretationssystem entwickelt. In dieser Studie wurde eine automatische Referenzauswahltechnik entwickelt, um die geeignete Ableitung für die Interpretation der EEG-Komponenten zu erhalten. Das Kreuzspektrum des bipolaren EEG wurde verwendet, um die Phasenumkehr zwischen den EEG-Kanälen zu erkennen, die die Kopfhaut bedecken. Die geeignete Referenz wurde basierend auf der erkannten Phasenumkehr automatisch ausgewählt. Schließlich wurde eine referentielle Ableitung konstruiert. Die Verteilung der EEG-Komponenten wurde basierend auf der konstruierten referentiellen Ableitung analysiert, um die Wirksamkeit der ausgewählten Referenz für die quantitative EEG-Komponenteninterpretation zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16527-6_12 1a21759a8920bec339f62cfa057fe927;de;;;2.4.;;;Emulation eines Photovoltaikmoduls unter Verwendung eines nichtlinearen Impedanzreglers vom Wiener-Typ zur Verfolgung des Betriebspunkts Dieses Papier schlägt ein Steuerverfahren vor, um einer kostengünstigen programmierbaren Gleichstromquelle die Funktion der Solarpanel-Emulation (SPE) bereitzustellen. Die vorgeschlagene Steuerung basiert auf dem Fehler zwischen der Messung des Leitwerts, der am Ausgang des SPE angeschlossen ist, und dem Leitwert, der bei der Bewertung der I-V-Charakteristik des Panelmodells erhalten wird. Das Funktionsprinzip besteht darin, dass der Ausgang des Controllers den Wert der Spannung ändert, die in die W-Lambert-Funktion eingeführt wird, um den entsprechenden Strom zu erhalten, der die Regulierung des gemessenen Leitwerts erzwingt. In diesem Beitrag wird ein Regler vorgeschlagen, der aus einer nichtlinearen statischen Verstärkung und einem herkömmlichen PI-Regler besteht. Die Controller-Architektur konfiguriert eine Wiener-Systemstruktur, die die stabile Konvergenz der realen SPE-Variablen zu den durch das Modell definierten Werten gewährleistet. Es werden Simulationsergebnisse präsentiert, bei denen die dynamische Leistung des Systems für Einstrahlungs- und Lastschwankungen bewertet wird. Die SPE-Methode wird unter Verwendung einfacher Mess- und Konditionierungsschaltungen implementiert, die über eine Datenerfassungskarte mit einer in LabVIEW entwickelten Anwendung interagieren. Diese Implementierung bietet eine Komplettlösung, die in Forschung und industrieller Entwicklung hoch anwendbar ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-66963-2_43 9186e020d2c97472fde6a8b5e2b05276;de;;;2.4.;;;Ein sich selbst organisierendes, sich selbst anpassendes Zellsystem Inspiriert von den jüngsten Fortschritten in der Evolutionsbiologie haben wir ein selbstorganisierendes, sich selbst anpassendes Zellsystem für Multitasking-Lernen entwickelt. Das Hauptziel unseres Projekts ist es, ein Framework zu entwerfen und zu prototypisieren, das den automatisierten und autonomen Aufbau komplexer Softwaresysteme ermöglicht. Die derzeitige Umsetzung besteht aus spezialisierten Programmen, die ihre lokalen Nachbarn anrufen (mit ihnen zusammenarbeiten). Die Beziehungen zwischen den Programmen bauen sich in einer symbiotischen Weise selbst auf.;-;-;-;https://link.springer.com/chapter/10.1007/11553090_14 1a088297c441b7a0596b633f2b0e8de0;de;;;2.4.;;;Multiorgan-Segmentierung basierend auf einem räumlich unterteilten probabilistischen Atlas aus 3D-CT-Bildern des Abdomens In diesem Beitrag wird eine automatisierte Multiorgan-Segmentierungsmethode für 3D-CT-Bilder des Abdomens vorgestellt, die auf einem räumlich unterteilten Wahrscheinlichkeitsatlanten basiert. Die meisten bisherigen Methoden zur Segmentierung von abdominalen Organen sind unwirksam, um die großen Unterschiede zwischen den Patienten in der Organform und -position in lokalen Bereichen zu bewältigen. In diesem Artikel schlagen wir eine automatisierte Multiorgan-Segmentierungsmethode basierend auf einem räumlich unterteilten Wahrscheinlichkeitsatlas vor und lösen dieses Problem durch die Einführung eines hierarchischen Wahrscheinlichkeitsatlas. Der Algorithmus besteht aus einer Bildraumteilung und einem Multiskalen-Gewichtungsschema. Der generierte räumlich unterteilte probabilistische Atlas reduziert effizient die intersubjektive Varianz in Organform und -position entweder in globalen oder lokalen Regionen. Unsere vorgeschlagene Methode wurde unter Verwendung von 100 Abdomen-CT-Volumen mit manuell verfolgten Ground-Truth-Daten evaluiert. Experimentelle Ergebnisse zeigten, dass es Leber, Milz, Bauchspeicheldrüse und Nieren mit Dice-Ähnlichkeitsindizes von 95,1%, 91,4%, 69,1% bzw. 90,1% segmentieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40763-5_21 726bf2c60b8c71a1af3af39de262ff75;de;;;2.4.;;;Ein Rahmen für das Lernen aus der Beobachtung mit Primitiven Dieses Papier beschreibt eine Methode, um Aufgabenprimitive aus der Beobachtung zu lernen. Es wurde ein Rahmen entwickelt, der es einem Agenten ermöglicht, beobachtete Daten zu verwenden, um anfänglich einen vordefinierten Satz von Aufgabenprimitiven und die Bedingungen, unter denen sie verwendet werden, zu lernen. Es ist auch ein Verfahren enthalten, mit dem der Agent seine Leistung während des Betriebs in der Umgebung erhöht. Daten, die gesammelt werden, während ein Mensch eine Aufgabe ausführt, werden in kleine Teile der Aufgabe geparst, die als Primitive bezeichnet werden. Für jedes Grundelement werden Module erzeugt, die die Bewegungen codieren, die während der Ausführung des Grundelements erforderlich sind und wann und wo die Grundelemente ausgeführt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45135-8_20 9c808f037bddc76ba0d00dabf47d60fd;de;;;2.4.;;;Entwurf eines Sicherheitsüberwachungssystems für die Cloud-Plattform zur Energieverteilungssteuerung Gegenwärtig hat Cloud Computing als strategisch aufstrebende Industrie in China die Entwicklung der Informatisierung stark gefördert. Obwohl der Cloud-Aufbau der State Grid Corporation of China stetig voranschreitet, gibt es keinen wirksamen Sicherheitsschutz angesichts von illegalem Zugriff, Entkommen virtueller Maschinen, Rückverfolgbarkeit abnormaler Vorgänge usw entwickelt, um die umfassende Echtzeitüberwachung von Sicherheitsereignissen der Cloud-Plattform von Hosts, virtuellen Maschinen und Cloud-Management-Software zu erreichen, Sicherheitsbedrohungen mit Frühwarnungen rechtzeitig zu erkennen und den Betrieb der Cloud-Plattform in Sicherheit zu gewährleisten, durch die Untersuchung und Überwachung -tiefgehende Forschung zur Sicherheitsüberwachungstechnologie von Schlüsselkomponenten der Cloud-Plattform.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9779-0_71 8bf85457df114e07408de128386d98e8;de;;;2.4.;;;Forschung zur Stabilität des Plantardrucks unter normalen Gehbedingungen Der plantare Druck der Identitätserkennung im Bereich der Mustererkennung hat eine gewisse Anwendung. Nur jeder Plantardruck ist stabil, personalisiert, die Plantardruckidentifikation ist wissenschaftlich, aber das Stabilitätsproblem des Plantardrucks wurde nicht verifiziert. In der Praxis der öffentlichen Sicherheit können Fußabdrücke zur persönlichen Identifizierung werden, aber es gibt keine zugrunde liegenden wissenschaftlichen Grundlagen als theoretische Unterstützung. Die gesammelten Daten durch Computerprogrammierung zu verarbeiten, um die Daten des Plantardrucks einer normalen Person nachzuweisen, ist grundsätzlich stabil. Verwenden Sie die MATLAB-Software, um die Spitzendatentabelle des dynamischen Plantardrucks durchzuführen, die vom FOOTSCAN-System zur Messung und Analyse des Plantardrucks erfasst wurde, und verwenden Sie einen statistischen Korrelationsalgorithmus, um die Stabilität des Plantardrucks quantitativ zu analysieren. Die Merkmalspunktvarianz des Plantardrucks ist grundsätzlich stabil. Die Stabilität der Plantardruckdaten ist unter normalen menschlichen Gehbedingungen besser, so dass sie zum Studium und zur Anwendung der Plantardruckdaten verwendet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-3002-4_20 c9d19fc15d19cc436cf9b8c34bfc3a7b;de;;;2.4.;;;Generierung von gefälschten Irisbildern mit CycleGAN Mit der Entwicklung der biometrischen Erkennungstechnologie wird die Identifizierung von Benutzern durch biometrische Informationen wie Iris, Fingerabdruck und Handflächenabdruck in vielen Bereichen angewendet. Im Fall der Iris wurden in der Iriserkennungsphase verschiedene Verfahren zur Erkennung und Erkennung von gefälschter Iris untersucht. Aufgrund des Fehlens von gefälschten Irisdaten wurden jedoch Untersuchungen zur Erkennung gefälschter Iris unter Verwendung der gedruckten Ausgabe oder der künstlichen Iris durchgeführt. In diesem Beitrag werden gefälschte Irisbilder für die Erforschung der Erkennung von gefälschter Iris mit CycleGAN erzeugt. Das CycleGAN-Modell hat gelernt, Einschränkungen gegenüber bestehenden Generationsmodellen zu reduzieren und Verzerrungen in Wahrscheinlichkeitsverteilungen mithilfe der bidirektionalen LossFunction zu vermeiden. In dem Experiment wurde die CASIA Iris Image Database Version 4.0 verwendet und die Daten wurden für die Erkennung von gefälschter Iris durch Erstellen einer gefälschten Iris gewonnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9343-7_70 b50b9a723fdc7e09456732d51c8eda67;de;;;2.4.;;;Eine Studie zur Fehlererkennung und -diagnose für SPS-gesteuerte Fertigungssysteme Betriebsstörungen zu erkennen und für Wartungspersonal zu diagnostizieren ist eine schwierige Sache. In SPS-gesteuerten flexiblen Fertigungssystemen gibt es kein inhärentes automatisches Fehlererkennungsmodul in der Steuerung selbst, daher müssen zusätzliche Diagnosemodule entwickelt werden. Entwickelte Fehlersuch- und Diagnosemodule in Abhängigkeit von Messdaten der Inspektionsmaschinen und Sensordaten. In dieser Arbeit wird ein Fehlererkennungs- und Diagnosemodul beschrieben, das auf internen SPS-Programmsignaldaten basiert, die über den OPC-Server erfasst werden. Die beobachteten oder Echtzeit-SPS-Signaldaten werden mit normalen SPS-Signaldaten verglichen, um mögliche Fehler oder Abweichungen zu ermitteln. Das Datenerfassungsverfahren und die verwendeten Techniken wurden in diesem Beitrag erläutert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34381-0_43 4e3a0c3c63fedf5eb0b6575a2d47f760;de;;;2.4.;;;Probabilistisch-topologische Kalibrierung weit verteilter Kameranetzwerke Wir schlagen eine Methode zur Schätzung der Topologie verteilter Kameras vor, die nützliche Informationen für die Verfolgung mehrerer Ziele in einem weiten Bereich ohne Objektidentifikation in den Sichtfeldern (FOVs) der Kameras liefern kann. Bei unserer Methode erkennt jede Kamera zunächst unabhängig voneinander Objekte in ihren beobachteten Bildern, um die Positionen/Zeiten zu erhalten, an denen/wenn die Objekte in ihr Sichtfeld eintreten/austreten. Alle erhaltenen Daten werden vorläufig mit allen anderen erfassten Daten gepaart, bevor die Daten beobachtet werden. Eine Transitzeit zwischen den einzelnen gepaarten Daten und ihren;-;-;-;https://link.springer.com/article/10.1007/s00138-006-0045-z a7cbd0786cd3979015ddcf6e5eb6ebd9;de;;;2.4.;;;Ein multispektraler Bildkantenerkennungsalgorithmus basierend auf verbessertem Canny Operator Der herkömmliche Canny-Operator führt eine Kantenerkennung durch, die künstlich in die Varianz der Gaußschen Filterung eingreifen muss, und die Wahl der Varianz beeinflusst die Kantenbeibehaltung und Entrauschungseffekte. Beim Herausfiltern des Rauschens gehen viele Kantendetails verloren. Mit Blick auf die Mängel des traditionellen Canny-Algorithmus schlägt dieser Artikel einen verbesserten Canny-Algorithmus zur Kantenerkennung vor. Nach der Gaußschen Filterung des multispektralen Bildes wird die gemischte und verbesserte Operation an dem multispektralen Bild durchgeführt. Dieser Vorgang filtert das Rauschen heraus und behält die wichtigen Kantendetailinformationen bei. Außerdem werden, wenn das Gradienten-Amplitudenbild erhalten wird, mehr Kanteninformationen erhalten, indem die Größe des Sobel-Operators geändert wird. Die Kantendetails des durch diese Operation verarbeiteten multispektralen Bildes sind reichlicher und die Detektion ist genauer. Das multispektrale Bild wird dann einer nicht-maximalen Unterdrückung und einer Doppelschwellenwertverarbeitung unterzogen. Experimente zeigen, dass der in diesem Artikel vorgeschlagene Algorithmus im Vergleich zum traditionellen Canny-Kanten-Erkennungseffekt die Wirkung der Kantenverbindung und der Pseudo-Kantenentfernung stark verbessert hat und die objektive Bewertung und der visuelle Effekt erheblich verbessert wurden als zuvor.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9409-6_155 fd1386ad394d1b34003a74dd5cf2b31d;de;;;2.4.;;;Experimentelle Analyse eines neuronalen Systems: Zwei Modellierungsansätze Das neuronale Netzhautsystem des Welses, das zeitliche Variationen der Lichtintensität in das horizontale Zellpotential umwandelt, wird experimentell analysiert und mit zwei unterschiedlichen Methoden modelliert. Die erste Methode besteht darin, das System mit gaußscher weißrauschmodulierter Lichtintensität zu testen und anschließend ein mathematisches Modell im Sinne einer Wiener-Funktionsreihe abzuleiten. Das zweite Verfahren beinhaltet das Testen des Systems durch Schritt- und Sinuswellen-Stimuli und das Postulieren eines Satzes von nichtlinearen Differentialgleichungen, die entworfen sind, um diese Stimulus-Antwort-Daten anzupassen. Bei diesem letzteren Ansatz beschreiben die Differentialgleichungen das üblicherweise angenommene dynamische Verhalten der Komponenten-Subsysteme wie Photorezeptor- und horizontale Zellmembranen hinsichtlich der Eigenschaften von Membranwiderstand und Kapazität. Es zeigt sich, dass das Systemverhalten bestimmte „Kleinsignal“-Nichtlinearitäten wie dynamische Asymmetrie in der Antwort sowie bestimmte „Großsignal“-Nichtlinearitäten aufweist. Die beiden Modellierungsansätze und die resultierenden Modelle werden verglichen und es zeigt sich, dass das aus dem White-Noise-Experiment abgeleitete Funktionsmodell, obwohl es nicht versucht, die zugrunde liegende Systemstruktur zu beschreiben, wie es die Differentialgleichung tut, im Allgemeinen zufriedenstellender Ergebnisse hinsichtlich des Input-Output-Verhaltens des Systems. Es wird vorgeschlagen, dass eine Kombination der beiden Ansätze bei der Modellierung eines bestimmten Systems sehr fruchtbar sein könnte.;-;-;-;https://link.springer.com/article/10.1007/BF00270756 9654c7230fc2e9983286ccd6dcdb25a7;de;;;2.4.;;;Vorhersage der Elementausbeute im Pfannenofen basierend auf verbessertem GA-ANFIS Die traditionellen Vorhersagemethoden der Elementausbeute können in Erfahrungsmethoden und datengesteuerte Methoden unterteilt werden. In der Praxis zeigt sich jedoch, dass die Erfahrungsformeln nur unter bestimmten Bedingungen funktionieren und die Beispieldaten, die zur Erstellung datengetriebener Modelle verwendet werden, immer unzureichend sind. Um dieses Problem zu lösen, wird ein kombiniertes Verfahren aus genetischem Algorithmus (GA) und adaptivem Neuro-Fuzzy-Inferenzsystem (ANFIS) vorgeschlagen und auf die Vorhersage der Elementausbeute im Pfannenofen (LF) angewendet. Um die übermäßige Abhängigkeit von Daten in datengetriebenen Verfahren loszuwerden und als Ergänzung unzureichender Stichproben zu wirken, werden Schmelzerfahrungen unter Verwendung der verbesserten ANFIS-Methode als fuzzy empirische Regeln in das Vorhersagemodell integriert. Um die Kombination von Fuzzy-Regeln zu erleichtern, wird ein auf GA basierendes Merkmalkonstruktionsverfahren verwendet, um die Eingabedimension zu reduzieren, und die Auswahloperation in GA wird verbessert, um die Konvergenzrate zu beschleunigen und ein Einfangen in lokalen Optima zu vermeiden. Die experimentellen und praktischen Testergebnisse zeigen, dass die vorgeschlagene Methode genauer ist als andere Vorhersagemethoden.;-;-;-;https://link.springer.com/article/10.1007/s11771-012-1305-x 005c8144480de8d5a0dbb4a7e6a90df4;de;;;2.4.;;;Design und Demonstration eines Foveated Imaging Systems mit reflektivem Spatial Light Modulator In diesem Artikel wurde ein foveated-Abbildungssystem mit einem reflektierenden Flüssigkristall-Raumlichtmodulator (SLM) entwickelt. Um das Konzept der Foveated Imaging zu demonstrieren, haben wir mit der Software Code V simuliert und einen Laborprototyp aufgebaut. Das Ergebnis des Experiments zeigt, dass ein SLM verwendet werden kann, um die Aberration der interessierenden Region (ROI) zu korrigieren, während die Auflösung anderer Bereiche noch sehr gering war. Das System mit variabler Auflösung war im Vergleich zum herkömmlichen hochauflösenden System relativ einfach und kann offensichtlich die Datenübertragungsmenge reduzieren. Solche Systeme werden eine breite Anwendungsperspektive auf verschiedenen Gebieten haben.;-;-;-;https://link.springer.com/article/10.1007/s12200-016-0548-9 96717f6a6193848b7c81d30e9678b985;de;;;2.4.;;;Ein auf Gehirncomputerschnittstellen basierendes visuelles Tastatursystem mit SSVEP und Elektrookulogramm Diese Studie zielt darauf ab, ein stationäres visuell evoziertes Potenzial (SSVEP) basierend auf Bildschirmtastatur/Rechtschreibersystem zusammen mit der Integration von Elektrookulogramm (EOG) zu entwickeln. Die Charaktere/Ziele wurden unter Verwendung der flackernden visuellen Stimuli mit quadratischem Schachbrettmuster entworfen. In dieser Studie wurden 23 Charaktere zufällig ausgewählt und ihre entsprechenden visuellen Reize wurden mit fünf Frequenzen (6, 6,667, 7,5, 8,57 und 10 Hz) entworfen. Das Tastaturlayout wurde in neun Regionen unterteilt und jede Region wurde anhand der Blickinformationen des Probanden mit Hilfe von EOG-Daten identifiziert. Die Informationen aus dem EOG wurden verwendet, um den Bereich auf der visuellen Tastatur/Anzeige zu lokalisieren, in den die Person schaut. Die Regionsidentifikation hilft dabei, die gleichen frequenzbewerteten visuellen Reize mehr als einmal auf dem Tastaturlayout zu verwenden. In dieser vorgeschlagenen Studie wurden durch die Integration von EOG mit dem SSVEP-Tastatursystem mehr Ziele mit einer geringeren Anzahl von visuellen Reizfrequenzen entworfen. Der Multi-Threshold-Algorithmus und die Methode des erweiterten multivariaten Synchronisationsindex (EMSI) wurden für die Blickerkennung bzw. Zehn gesunde Probanden wurden für die Validierung des vorgeschlagenen visuellen Tastatursystems rekrutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4301-2_6 9700d880ea946726f8aa8a0afe0f63d8;de;;;2.4.;;;Tragbares Überwachungsgerät für die Schwimmleistungsanalyse BIOSWIM (Body Interface System basierend auf Wearable Integration Monitoring) ist ein gemeinsames multidisziplinäres Projekt, an dem mehrere portugiesische F&E-Teams beteiligt sind. Es sucht eine umfassende Überwachungslösung für physiologische und biomechanische Signale eines Schwimmers unter normalen Trainingsbedingungen, sowohl im als auch außerhalb des Wassers. Als biomechanische Datenverarbeitungseinheit des Systems wurde eine Wearable Inertial Monitoring Unit (WIMU) entwickelt. Die Vorversion der WIMU verfügt über ein handelsübliches Mikrocontroller- und Transceiver-Set sowie einen triaxialen Beschleunigungsmesser und ein biaxiales Gyroskop als Sensoren. Tests im und außerhalb des Wassers haben vielversprechende Daten geliefert und zu Designänderungen beigetragen. Dabei wurden auch Beiträge von Sportlern, Trainern und Ärzten berücksichtigt. Zukünftige Arbeiten umfassen die Integration der WIMU in das komplette BIOSWIM-Badeanzugsystem, ergänzt durch wirklich integrierte EMG- und EKG-Textilsensoren und eine chemische Überwachungseinheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29752-6_7 f7e2c782e0f515f5e792bdef8592006c;de;;;2.4.;;;Farbkorrekturverfahren für Digitalkameras basierend auf Polynomregression mit variablem Exponenten Abhängig von der Ansprechgleichmäßigkeit photoelektrischer Sensoren weisen die aufgenommenen Rohbilder immer ernsthafte Chrominanzverzerrungen auf. So bestimmen Sie die Abbildungsmatrix zwischen;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6504-1_15 e0b8d0617ab96f8d18b36615904d9c26;de;;;2.4.;;;Ein autonomes kamera-/kartengestütztes Smartphone-basiertes PNS Um ein tragbares und zuverlässiges Indoor-Fußgängernavigationssystem (PNS) zu bauen, sind Signalverfügbarkeit, Kosten, Stromverbrauch und Genauigkeit die wichtigsten Aspekte, die berücksichtigt und bewertet werden müssen. Unter Berücksichtigung aller oben genannten Aspekte wird in dieser Studie ein völlig autarkes und kostengünstiges kamera-/kartengestütztes Smartphone-basiertes Indoor-Fußgängernavigationssystem vorgeschlagen. Anders als beim traditionellen Indoor-Navigationssystem werden in dieser Forschung nur Smartphone-eingebettete Sensoren, d. Um die räumlichen Informationen in Innenräumen effektiv zu nutzen, wird ein Wandkreuzverfahren vorgeschlagen, um dem Positionierungssystem durch einen neuartigen Kaskadenstrukturalgorithmus Karteninformationen für Innenräume hinzuzufügen. Darüber hinaus wird ein Kartenerfassungsverfahren auf der Grundlage einer kostengünstigen Liniensegmenterkennung (LSD) verwendet, um die Innenraumkarteninformationen zu erhalten. Ein nichtlinearer Partikelfilter wird angewendet, um den Kartenunterstützungsprozess für die Navigationslösungen zu implementieren. Die vorgeschlagene Methode wurde durch reale Experimente in verschiedenen Szenarien getestet und verifiziert. Diese Forschung hat sowohl für die Industrie als auch für den akademischen Bereich einen wichtigen theoretischen und praktischen Wert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-7751-8_25 ecda494fd56f0d2a9252fe6ddcb6dc58;de;;;2.4.;;;Anwendung der bilderkennungsbasierten automatischen Hyphenerkennung bei pilzlicher Keratitis Der Zweck dieser Studie ist es, die Genauigkeit von zwei Methoden bei der Diagnose von Pilzkeratitis zu bewerten, wobei eine Methode die automatische Hyphenerkennung basierend auf Bilderkennung ist und die andere Methode der Hornhautabstrich ist. Wir evaluieren die Sensitivität und Spezifität der Methode bei der Diagnose einer pilzlichen Keratitis, einer automatischen Hyphenerkennung auf Basis von Bilderkennung. Wir analysieren die Konsistenz klinischer Symptome und die Hyphendichte und führen die Quantifizierung mit der Methode der automatischen Hyphenerkennung auf Basis der Bilderkennung durch. In unsere Studie wurden 56 Fälle mit Pilzkeratitis (nur einzelnes Auge) und 23 Fälle mit bakterieller Keratitis eingeschlossen. Alle Fälle wurden vor Beginn der medizinischen Behandlung routinemäßig mit Spaltlampenbiomikroskopie, Hornhautabstrichuntersuchung, Mikroorganismenkultur und der Bewertung von konfokalen Mikroskopiebildern in vivo untersucht. Dann erkennen wir die Hyphenbilder der konfokalen In-vivo-Mikroskopie, indem wir die automatische Hyphenerkennung basierend auf Bilderkennung verwenden, um ihre Empfindlichkeit und Spezifität zu bewerten und mit der Methode des Hornhautabstrichs zu vergleichen. Der nächste Schritt besteht darin, den Dichteindex zu verwenden, um den Schweregrad der Infektion zu beurteilen und dann die Korrelation mit den klinischen Symptomen der Patienten zu finden und die Konsistenz zwischen ihnen zu bewerten. Die Genauigkeit dieser Technologie war der Hornhautabstrichuntersuchung überlegen (p < 0,05). Die Sensitivität der Technologie der automatischen Hyphenerkennung der Bilderkennung betrug 89,29 % und die Spezifität 95,65 %. Die Fläche unter der ROC-Kurve betrug 0,946. Der Korrelationskoeffizient zwischen der Graduierung des Schweregrads bei der Pilzkeratitis durch die automatische Hyphenerkennung anhand der Bilderkennung und der klinischen Einstufung beträgt 0,87. Die Technologie der automatischen Hyphenerkennung basierend auf Bilderkennung war mit hoher Sensitivität und Spezifität in der Lage, Pilzkeratitis zu identifizieren, was besser ist als die Methode der Hornhautabstrichuntersuchung. Diese Technologie hat im Vergleich zur herkömmlichen künstlichen Identifizierung von Hornhautbildern mit konfokalen Mikroskopen den Vorteil, dass sie genau und stabil ist und nicht auf menschliches Fachwissen angewiesen ist. Es war am nützlichsten für die medizinischen Experten, die mit Pilzkeratitis nicht vertraut sind. Die Technologie der automatischen Hyphenerkennung basierend auf Bilderkennung kann die Hyphendichte quantifizieren und diese Eigenschaft einstufen. Da es nicht invasiv ist, kann es rechtzeitig, genau, objektiv und quantitativ ein Bewertungskriterium für Pilzkeratitis liefern.;-;-;-;https://link.springer.com/article/10.1007/s13246-017-0613-8 b3ca782eafd310a6b7cee130e68c0942;de;;;2.4.;;;Selbststabilisierendes menschenähnliches Bewegungssteuerungs-Framework für Humanoide mit neuronalen Oszillatoren Wir schlagen eine effiziente und leistungsstarke Alternative zur Anpassung menschlicher Bewegungen an humanoide Roboter vor, die die Stabilität der Zweibeiner erhalten. Um eine stabile und robuste Ganzkörperbewegung humanoider Roboter zu erreichen, entwerfen wir einen biologisch inspirierten Steuerungsrahmen basierend auf neuronalen Oszillatoren. Entrainments neuronaler Oszillatoren spielen eine Schlüsselrolle bei der Anpassung des Nervensystems an die Eigenfrequenz der interagierenden Umgebungen, die in Verbindung mit virtuellen Komponenten überlegene Eigenschaften aufweisen. Das gekoppelte System ermöglicht es einem instabilen System, sich entsprechend Umgebungsänderungen stabil zu bewegen. Daher kann die Eigenschaft des gekoppelten Systems genutzt werden, um die zweibeinige Stabilität humanoider Roboter aufrechtzuerhalten. Ebenfalls darauf aufbauend wird ein marionettenartiges Bewegungsumwandlungsverfahren entwickelt, um erfasste Bewegungen an einen humanoiden Roboter anzupassen, da zwischen einem Roboter und einem Menschen unterschiedliche dynamische und kinematische Fähigkeiten bestehen. Dann wird in diesem Artikel diskutiert, wie man menschliche Bewegungen mit einem humanoiden Roboter stabil zeigen kann. Wir verifizieren, dass ein echter humanoider Roboter die zweibeinige Stabilität erfolgreich aufrechterhalten kann, indem er erfasste Ganzkörperbewegungen aus verschiedenen Simulationen und Experimenten zeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04070-2_57 48be19a88f6c6a73dd8e477d3585b99c;de;;;2.4.;;;Design eines Echtzeit-Übertragungssystems für TV- und Radar-integrierte Videos Für die Übertragung und Wiedergabe von Aufzeichnungen von Fernseh- und Radarvideos mit großem Datenvolumen auf Schiffen sind die Systemarchitektur und universelle Videoverarbeitungseinheiten des Videoübertragungssystems ausgelegt. Videos werden für die Komprimierung und Pipeline-Übertragung synchron geschnitten, um die Übertragungsverzögerung zu reduzieren. Basierend auf der Multi-Core-DSP-Parallelverarbeitung werden die TV- und Radarvideos durch einen verbesserten H.264- bzw. JPEG-Algorithmus komprimiert. Die gemessene typische TV-Video-äquivalente Übertragungsverzögerung beträgt 15,6 ms, und die typische Radar-Video-äquivalente Übertragungsverzögerung beträgt weniger als 17,88 ms.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3753-0_82 27cf60c7abbb584f3ff2f15e84ef8863;de;;;2.4.;;;Designs von differentiellen Raum-Zeit- und Raum-Frequenz-kodierten OFDM-Schemata Die einfachen differentiellen Designs von sowohl raumzeitcodiertem OFDM (STC-OFDM) als auch raumfrequenzcodiertem OFDM (SFC-OFDM) werden eingeführt, wenn weder der Sender noch der Empfänger über die Kanalzustandsinformationen verfügen. In den differentiellen STC-OFDM (DSTC-OFDM) und den differentiellen SFC-OFDM (DSFC-OFDM) Systemen werden die Blockdifferentialcodierungen in der Zeitdimension bzw. der Frequenzdimension übernommen. Wir geben die detaillierte Beschreibung und theoretische Analyse der beiden Schemata. Die Effektivität beim Erreichen der Senderdiversität wird durch Simulationen sowohl in langsamen als auch in schnellen Fading-Umgebungen veranschaulicht. Durch Ausnutzung der Eigenschaften der OFDM-Rahmenstruktur wird die Rechenkomplexität der eingeführten Schemata stark reduziert.;-;-;-;https://link.springer.com/article/10.1007/s11277-008-9505-2 3b563894eaaa72907759f5b5ca063f04;de;;;2.4.;;;Forschung zu einem auf maschinellem Sehen basierenden Zählsystem für Zigarettenfilterstangen Die traditionelle Methode zur Online-Erkennung von Zigarettenfilterstiftpackungen ist die manuelle Probenahme, die eine geringe Effizienz und hohe Arbeitskosten hat und nicht alle Produkte erkennen kann. Daher ist es notwendig, eine Reihe von Bildverarbeitungssystemen [;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-6370-1_51 73665e4bc4eefa5b68fa943fabb6f05a;de;;;2.4.;;;Chinesische neue Worterkennung: Ein latentes Unterscheidungsmodell mit globalen Merkmalen Chinesische neue Wörter sind bei der chinesischen Verarbeitung natürlicher Sprache besonders problematisch. Mit der schnellen Entwicklung des Internets und der Informationsexplosion ist es unmöglich, ein komplettes Systemlexikon für Anwendungen in der chinesischen Sprachverarbeitung zu bekommen, da ständig neue Wörter aus Wörterbüchern erstellt werden. Die Verfahren zur Identifizierung neuer Wörter und POS-Tagging sind in der Regel getrennt und die Funktionen lexikalischer Informationen können nicht vollständig genutzt werden. Ein latent diskriminatives Modell, das die Stärken von Latent Dynamic Conditional Random Field (LDCRF) und Semi-CRF kombiniert, wird vorgeschlagen, um neue Wörter zusammen mit ihrem POS synchron zu erkennen, unabhängig von den Arten neuer Wörter aus chinesischem Text, ohne vorsegmentiert zu werden. Im Gegensatz zu Semi-CRF wird im vorgeschlagenen latenten diskriminativen Modell LDCRF angewendet, um Kandidatenentitäten zu erzeugen, was die Trainingsgeschwindigkeit beschleunigt und die Rechenkosten verringert. Die Komplexität des vorgeschlagenen versteckten Semi-CRF könnte weiter angepasst werden, indem die Anzahl der versteckten Variablen und die Anzahl der Kandidatenentitäten aus den Nbest Outputs des LDCRF-Modells abgestimmt werden. Für das Modelltraining und das Testen wird ein Rahmen zur Generierung neuer Wörter vorgeschlagen, bei dem die Definitionen und Verteilungen neuer Wörter denen im realen Text entsprechen. Das globale Feature namens „Global Fragment Features“ zur Identifizierung neuer Wörter wird übernommen. Wir haben unser Modell am Korpus von SIGHAN-6 getestet. Experimentelle Ergebnisse zeigen, dass das vorgeschlagene Verfahren in der Lage ist, selbst niederfrequente neue Wörter zusammen mit ihren POS-Tags mit zufriedenstellenden Ergebnissen zu erkennen. Das vorgeschlagene Modell ist konkurrenzfähig mit den modernsten Modellen.;-;-;-;https://link.springer.com/article/10.1007/s11390-011-9411-z 07b8b89ca974883ca6b2c5711a94d02e;de;;;2.4.;;;Sattelpunktbasierte Trennung von berührten Objekten im 2D-Bild Bei vielen Bildanalyse- und -verarbeitungsproblemen ist die Unterscheidung der Größe und Form jedes einzelnen Objekts in einem in einem Bild projizierten Aggregatstapel eine wichtige Praxis. Es ist relativ einfach, diese Merkmale unter den bereits voneinander getrennten Objekten zu unterscheiden. Die Probleme werden zweifellos komplexer und schwieriger, wenn die Objekte berührt oder/und überlagert werden. Dieser Brief stellt einen Algorithmus vor, der verwendet werden kann, um die Berührungen und Überlappungen zu trennen, die in den Objekten in einem 2D-Bild vorhanden sind. Der Ansatz besteht darin, zuerst das Graustufenbild in sein entsprechendes binäres Bild umzuwandeln und dann unter Verwendung der Erosionsoperationen in das topographische 3-D-Bild. Eine Schablone (oder Maske) wird konstruiert, um die topographische Oberfläche nach dem Sattelpunkt zu durchsuchen, aus dem die Segmentierungsorientierung bestimmt wird, gefolgt von der gewünschten Trennoperation. Der Algorithmus wird an einem realen Bild getestet und das Laufergebnis ist ausreichend zufriedenstellend und ermutigend.;-;-;-;https://link.springer.com/article/10.1007/s11767-005-0119-5 16142eece00022172a3499a12060ea9e;de;;;2.4.;;;Ein verteiltes drahtloses Sensornetzwerk für die Online-Überwachung der Wasserqualität Es wird eine Anwendung eines verteilten drahtlosen Sensornetzwerks für die Online-Überwachung der Wasserqualität vorgeschlagen. In diesem Beitrag werden Architektur, Hardware- und Softwaredesign des Systems vorgestellt. Ein benutzerfreundliches WUI und HUI wurden entwickelt, um es den Benutzern zu ermöglichen, die gemessenen Wasserparameter in Echtzeit über das Internet per PC oder entfernten intelligenten mobilen Geräten zu überwachen. Mehrere vorläufige Testergebnisse zur Bewertung der Zuverlässigkeit und Wirksamkeit des Systems werden ebenfalls diskutiert. Die Arbeit in diesem Papier widmet sich der Bereitstellung einer praktikablen Lösung für das Problem der Überwachung der Wasserverschmutzung mit Vorteilen wie geringen Kosten, Echtzeit, einfacher Installation und Wartung usw.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46981-1_64 94d9304480c86878f515994a1422da05;de;;;2.4.;;;Ein Überblick über die jüngsten Fortschritte bei der Ohrerkennung Die Ohrerkennung hat sich in den letzten Jahren zu einem schnell wachsenden Forschungsgebiet entwickelt. Dieser Beitrag gibt einen aktuellen Überblick über Forschungsarbeiten zur Ohrerkennung basierend auf 3D-Daten und 2D-Ohrbildern. Zur Ohrerkennung in 3D werden aktuelle Arbeiten zur 3D-Merkmalsextraktion und zum Modellabgleich vorgestellt und diskutiert. Für die 3D-Ohrerkennung basierend auf 2D-Bildern wird hauptsächlich die 3D-Ohrmodellrekonstruktion diskutiert. Zur Ohrerkennung in 2D werden die wichtigsten Forschungsarbeiten zur Ohrerkennung, Ohrmerkmalsextraktion und -klassifizierung vorgestellt und diskutiert. Einige mögliche zukünftige Forschungsinteressen werden am Ende vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25449-9_32 a59627deea06e1fca6b3c6e2ecf64dd9;de;;;2.4.;;;Entwicklung eines Multiply-Magnetfeldgenerators in Kombination mit einer Living Cell Workstation Mit der Entwicklung der Gesellschaft achten die Menschen immer mehr auf ihre Gesundheit. Der Untersuchung der Wirkung von Magnetfeldern auf das Leben wird immer mehr Aufmerksamkeit gewidmet. In dieser Arbeit wird vorgeschlagen, eine Vielzahl von Magnetfelderzeugungsvorrichtungen wie ein gleichförmiges Magnetfeld, ein rotierendes Magnetfeld und ein schwingendes Magnetfeld an der Arbeitsstation für lebende Zellen hinzuzufügen, um die langfristigen Auswirkungen verschiedener Magnetfelder auf lebende Zellen zu untersuchen. Der Maximalwert der entwickelten Magnetfeldstärke kann 10 mT erreichen, die Frequenz des rotierenden und schwingenden Magnetfelds kann 100 Hz betragen und die höhere Frequenz kann erreicht werden, wenn die Magnetfeldstärke verringert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8450-3_72 841c65101f890c6b1823eaa4802f8a88;de;;;2.4.;;;Eine neue Methode zur Auswahl von Temperaturkanälen basierend auf der Singulärspektrumanalyse zum Abrufen atmosphärischer Temperaturprofile von FY-4A/GIIRS Hyperspektrale Daten haben einen wichtigen Forschungs- und Anwendungswert in den Bereichen Meteorologie und Fernerkundung. Mit dem Ziel, das Abrufen von atmosphärischen Temperaturprofilen zu verbessern, skizziert dieser Artikel eine neuartige Temperaturkanalauswahlmethode basierend auf der singulären Spektrumanalyse (SSA) für den Geostationary Interferometric Infrared Sounder (GIIRS), der das erste Infrarot-Echolot ist, das in einer geostationären Umlaufbahn arbeitet. Das Verfahren besitzt nicht nur die Einfachheit und Schnelligkeit des Hauptkomponentenanalyseverfahrens, sondern auch die Interpretierbarkeit des herkömmlichen Kanalauswahlverfahrens. Die neuartige SSA-Methode wird verwendet, um das von GIIRS beobachtete Infrarot-Helligkeits-Temperaturspektrum (700-1130 cm;-;-;-;https://link.springer.com/article/10.1007/s00376-020-9249-9 b98da1366c57bcd31aeb4bfca4e6d561;de;;;2.4.;;;Ein leichtes und sicheres Framework für hybride Cloud-basierte EHR-Systeme In letzter Zeit wurden Cloud-basierte elektronische Gesundheitsaktensysteme entwickelt und werden in der Gesundheitsbranche verwendet. Trotz der verschiedenen Vorteile der Technologie sind Sicherheit, Vertrauen und Datenschutz ein wichtiges Anliegen. In diesem Whitepaper stellen wir einen sicheren und erschwinglichen Rahmen für die EHR-Speicherung vor, der die Eigenschaften der Hybrid Cloud bei der Datensicherung nutzt und zusätzlich zum Aufbau eines stromsparenden Back-End-Clusters, der mit kostengünstigen Single Board Computern (SBC) konstruiert wird. Wir beschreiben die Anforderungen an ein sicheres Cloud-basiertes EHR-Framework und präsentieren die Systemarchitektur basierend auf dem Publisher/Subscriber-Modell. Das Framework wird auf einem Hadoop-basierten Cloud-Cluster mit SBCs als Knoten entwickelt und getestet. Die Effizienz des Frameworks wird in Bezug auf die Reaktionszeit für verschiedene Größen von Datenblöcken mit EHRs gemessen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94180-6_20 a24e81c4322f6c3768ec3c4636b7c9e2;de;;;2.4.;;;sEMG-basierte Handgestenklassifikation mit transientem Signal Die Oberflächenelektromyographie (sEMG) kann mit der Verbesserung der Signaldecodierungstechnologie ein neuartiges Steuerungsverfahren für die Mensch-Maschine-Schnittstelle (HMI) bereitstellen. Die sEMG-basierte Handgestenerkennung ist der Schlüsselbestandteil der HMI-Steuerungsstrategie. Allerdings behindern instabile und komplexe Alltagsszenarien die Weiterentwicklung der sEMG-basierten Regelungsstrategie. In diesem Papier konzentrieren wir uns auf den Teil der Datenvorverarbeitung. Drei verschiedene Signalsegmente wurden extrahiert, einschließlich der transienten Signalsegmente zwischen Gesten, Standardsignalsegmenten und stationären Signalsegmenten, die kleiner als das Standardsegment sind. Durch die Einrichtung mehrerer Experimente zur Analyse und Bewertung der Klassifikationsleistung mit diesen transienten Informationen. Unsere Forschung ergab, dass transiente Signalsegmente effektivere Informationen widerspiegeln können als die stationären Signale in Szenen zwischen Subjekten. Es gewann mehr Klassifizierungsgenauigkeit und Stabilität. Darüber hinaus schneidet es auch in anderen zwei Szenen in zehn Handgestenerkennung in Intra-Session und Inter-Session besser ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4932-2_29 051201b53788ac64248be52799d4bc2c;de;;;2.4.;;;Die vielen Facetten der Ursache-Wirkungs-Beziehung Dieses Kapitel bietet einen umfassenden Überblick über die Ursache-Wirkungs-Beziehung, wobei besonderes Gewicht darauf gelegt wird, wie die Beziehung im Text ausgedrückt wird. Philosophen beschäftigen sich seit Jahrhunderten mit dem Begriff der Kausalität. Forscher der Sozialpsychologie haben herausgefunden, dass der menschliche Geist über einen sehr komplexen Mechanismus verfügt, um die Ursache für ein Ereignis zu identifizieren und zuzuordnen. Auch die Ableitung von Ursache-Wirkungs-Beziehungen zwischen Ereignissen und Aussagen hat sich als wichtiger Bestandteil des Lese- und Textverständnisses erwiesen, insbesondere für narrative Texte. Obwohl viele der Ursache-Wirkungs-Beziehungen im Text impliziert sind und vom Leser abgeleitet werden müssen, gibt es auch eine Vielzahl von sprachlichen Ausdrücken, um Ursache und Wirkung explizit anzugeben. Darüber hinaus wurde festgestellt, dass bestimmte Wörter eine „kausale Valenz“ haben – sie verleiten den Leser dazu, auf bestimmte Weise Ursachen zuzuschreiben. Ursache-Wirkungs-Beziehungen können auch in verschiedene Typen unterteilt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-0073-3_4 d40a08af3bc94994a7ce56991320871d;de;;;2.4.;;;Ein Ereigniserkennungsdienst für räumlich-zeitliche Anwendungen Sense-and-Response-Anwendungen bilden eine wichtige Klasse von Pervasive-Computing-Anwendungen, die Domänen wie Fahrerdienste, Außendienstautomatisierung und Notfalldienste bedienen. Die zunehmende Allgegenwart vernetzter Datenquellen wie Sensoren, Mobiltelefone, Online-Dienste, Datenbanken und Datenfeeds bietet neue Möglichkeiten für die zeitnahe Nutzung der heterogenen und in großen Mengen verfügbaren Daten. Wenn diese Datenquellen in die physische Welt eingebettet sind, wird ihr Standort, der sich möglicherweise im Laufe der Zeit ändert, zu einem wichtigen Bestandteil des Kontexts. Geschäftsanwendungen werden auf vielfältige Weise, flexibel und skalierbar auf die Rohdaten aus diesen Quellen reagieren wollen. Wir führen einen Dienst zur räumlich-zeitlichen Ereigniserkennung ein, der darauf abzielt, die Kosten für Anwendungsanbieter zu senken, indem eine Infrastruktur ermöglicht wird, die von vielen Anwendungen und Abonnenten geteilt wird. Es bietet ein raum-zeitliches Programmier-Framework auf hoher Ebene, das es Anwendungsentwicklern ermöglicht, Anwendungen basierend auf dem Sense-and-Reaktion-Modell einfacher zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/11935148_3 3fc5d5d8791ee837a66fb0a02f5407a7;de;;;2.4.;;;Die Rolle adaptiver und assoziativer Schaltungen in zukünftigen Computerdesigns Die Computer der fünften Generation wurden im Wesentlichen um Wissensdatenbanken herum entwickelt. Ursprünglich sollten sie natürliche Daten wie Sprache und Bilder akzeptieren, diese Funktionen wurden jedoch inzwischen aufgegeben. Einige Ansichten zu Computern der sechsten und späteren Generation wurden ebenfalls bereits präsentiert. Letztere sollen noch „natürlicher“ sein. Sicherlich haben die Computer der fünften Generation eine sehr traditionelle Logikprogrammierung angewendet, aber was könnte die Alternative sein? Welche neuen Funktionen können aus den Prinzipien des „neuralen Computers“ entstehen? In diesem Vortrag werden einige Detailfragen dieser Art erläutert. Auch einige allgemeinere Problemfelder und Motivationen für deren Umgang werden beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83740-1_1 eb704fb4139ededc57a1298b4f9f4ad2;de;;;2.4.;;;Marked-Watershed-Algorithmus kombiniert mit morphologischer Vorverarbeitung basierend auf der Segmentierung anhaftender Sporen Die Anthracnose ist eine der schwerwiegendsten Krankheiten in der Wachstumsphase der Mango. Um rechtzeitig vorbeugende Maßnahmen zu ergreifen, ist es unabdingbar, genaue Statistiken über die Verteilungsdichte von Milzbrandsporen auf dem Betrieb zu berechnen, der Herausforderungen in der genauen Instanzsegmentierung anhaftender Sporen hat. Basierend auf dem traditionellen Wasserscheiden-Algorithmus, der das Bild als morphologische Topographie behandelt und das Bild segmentiert, indem die niedrigsten und höchsten Punkte der Topographie gefunden werden, haben wir den markierten Wasserscheiden-Algorithmus in Kombination mit morphologischer Vorverarbeitung vorgeschlagen, um die Segmentierung anhaftender Sporen zu realisieren. Zunächst werden die Sporenbilder mit einer Morphologietechnik vorverarbeitet. Dann werden die Gradientenwerte der Sporenbilder berechnet. Die Segmentierung der Sporen erfolgt im Verlaufsbild durch den Wasserscheiden-Algorithmus mit Vordergrund- und Hintergrundmarkierung. Das experimentelle Ergebnis zeigt, dass unser Vorschlag eine bessere Segmentierungsleistung für adhärente Sporen aufweist als die morphologische Methode und die Levelset-Evolution.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9409-6_157 16b2d40c68bf799222d6abc4aa8d3dfb;de;;;2.4.;;;Verwendung von GMOSTNet zur Baumerkennung unter komplexer Beleuchtung und morphologischer Okklusion Bäume sind ein wesentlicher Bestandteil des Ökosystems der Forstwirtschaft. In der Forstarbeit wird die präzise Erfassung baummorphologischer Parameter und Eigenschaften durch komplexe Beleuchtung und Baummorphologie beeinflusst. Um eine Reihe unschätzbarer Probleme, wie Ertragsminderung, ökologische Schäden und Zerstörung, die durch ungenaue Erfassung von Baumstandortinformationen verursacht werden, zu minimieren, schlägt dieser Beitrag eine Bodenbaumerkennungsmethode GMOSTNet vor. Basierend auf den vier Baumartentypen im GMOST-Datensatz und Faster R-CNN extrahierte es die Merkmale der Bäume, generierte Kandidatenregionen, Klassifizierungen und andere Operationen. Durch die Reduzierung des Einflusses von Beleuchtungs- und Okklusionsfaktoren während des Experimentierens wurden detailliertere Informationen des Eingangsbildes erhalten. In der Zwischenzeit wurden die Abweichung und Nähe des Vorschlags hinsichtlich falscher Erkennungen durch unangemessene Annäherungen angepasst. Die experimentellen Ergebnisse zeigten, dass sich der AP-Wert der vier Baumarten nach der Verwendung von GMOSTNet verbessert und die Gesamtgenauigkeit von ursprünglich 87,25 % auf 93,25 % ansteigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7981-3_36 5479397faadde55daf1511b83757f07a;de;;;2.4.;;;Compressed Sensing in Boden-Ultra-Breitband-Signalen Dieses Papier untersuchte das Compressed Sensing (CS) von Ultrabreitband (UWB) Bodenechosignalen. Wenn CS bei der Übertragung von UWB-Signalen verwendet wird, kann die Abtastrate effektiv reduziert und spärliche Signale aus weniger Beobachtungen rekonstruiert werden. Daher ist es von großer Bedeutung, wie CS in UWB-Bodenechosignale angewendet wird. Der vorgeschlagene Ansatz zeigt, dass UWB-Signale durch Linearkombinationen vieler Atome aus einem geeigneten Wörterbuch ausgedrückt werden können. In diesem Papier werden ein Wörterbuch zur K-Singulärwertzerlegung (KSVD) und drei Arten von Gaussian-Impulswörterbüchern entworfen, und die Wahrscheinlichkeit einer erfolgreichen Rekonstruktion kann 0,95 erreichen. Es wird gezeigt, dass das Gaußsche Ableitungswörterbuch erster Ordnung das am besten geeignete ist, der mittlere quadratische Fehler (RMSE) von UWB-Signalen und Rekonstruktionssignalen ist kleiner als 0,12.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6504-1_93 7373026cc79fc6de7a2d4942ddf9388b;de;;;2.4.;;;Von ICESat/GLAS abgeleitete Änderungen des Wasserstands des Hulun-Sees, Innere Mongolei, von 2003 bis 2009 Der Hulun-See ist der größte Süßwassersee in der nördlichen Inneren Mongolei und selbst geringfügige Änderungen seines Niveaus können große Auswirkungen auf die Ökologie des Sees und der Umgebung haben. In dieser Studie haben wir hochpräzise Höhendaten für den Zeitraum von 2003 bis 2009 verwendet, die mit dem Geoscience Laser Altimetry System (GLAS) an Bord des Ice, Cloud, and land Elevation Satellite (ICESat) gemessen wurden, um jährliche und saisonale Wasserstandsschwankungen zu bewerten des Hulun-Sees. Die Höhendaten von 32 Satellitenspuren wurden mit dem RANdom SAmple Consensus Algorithmus (RANSAC) verarbeitet, um Höhenausreißer zu beseitigen, und anschließend wurde der Normalized Difference Water Index (NDWI) verwendet, um die Fläche des Sees abzugrenzen. Von 2003 bis 2009 zog sich die Uferlinie des Hulun-Sees nach Westen zurück, was besonders im südlichen Teil des Sees bemerkenswert war. Es gab nur einen geringen Rückgang des Wasserstands von 530,72 m auf 529,22 m im Zeitraum 2003–2009, eine durchschnittliche Rate von 0,08 m/Jahr. Die Fläche des Sees verringerte sich um 49,52 km;-;-;-;https://link.springer.com/article/10.1007/s11707-017-0666-8 37d0148f075b59ee3f20890b896da4f6;de;;;2.4.;;;Entrainment-verstärkter neuronaler Oszillator für rhythmische Bewegungssteuerung Wir schlagen ein neues neuronales Oszillatormodell vor, um rhythmische Bewegungen von Roboterarmen zu erreichen, die eine verbesserte Mitnahmeeigenschaft aufweisen. Es ist bekannt, dass neuronale Oszillatornetzwerke rhythmische Befehle effizient und robust unter der sich ändernden Aufgabenumgebung erzeugen könnten. Wenn jedoch ein quasi-periodisches oder nicht-periodisches Signal in den neuronalen Oszillator eingegeben wird, kann selbst der am weitesten verbreitete neuronale Oszillator (MNO) von Matsuoka nicht von dem Signal mitgerissen werden. Daher sind die meisten existierenden neuronalen Oszillatormodelle nur auf eine bestimmte Situation anwendbar, und wenn sie mit den Gelenken von Roboterarmen gekoppelt sind, sind sie möglicherweise nicht in der Lage, menschenähnliche rhythmische Bewegungen zu erzielen. In diesem Papier führen wir Simulationen der Drehung einer Kurbel durch einen zweigliedrigen planaren Arm durch, dessen Gelenke mit dem vorgeschlagenen entrainment-enhanced neuronalen Oszillator (EENO) gekoppelt sind. Konkret demonstrieren wir die Exzellenz von EENO und vergleichen sie mit der von MNO, indem wir deren Parameter basierend auf simuliertem Annealing (SA) optimieren. Darüber hinaus zeigen wir eine beeindruckende Fähigkeit der Selbstadaption von EENO, die es dem planaren Arm ermöglicht, adaptive Veränderungen von einer kreisförmigen Bewegung in eine elliptische Bewegung vorzunehmen. Nach Kenntnis der Autoren scheint diese Studie der erste Versuch zu sein, den oszillatorgekoppelten Roboterarm in die Lage zu versetzen, eine gewünschte Trajektorie in Interaktion mit der Umgebung zu verfolgen.;-;-;-;https://link.springer.com/article/10.1007/s11370-008-0031-6 693ddedd076a075b887b1e6992434d47;de;;;2.4.;;;Schnelle Ray-Space-Interpolation mit Tiefendiskontinuitätserhaltung für Free Viewpoint-Videosystem Die Ray-Space-Darstellung ist die Haupttechnologie, um ein Videosystem mit freiem Blickwinkel mit komplizierten Szenen zu realisieren. Die Strahlrauminterpolation ist eines der zu lösenden Schlüsselprobleme. In diesem Artikel wird ein neues schnelles Strahlrauminterpolationsverfahren vorgeschlagen, das Tiefendiskontinuität bewahren kann. Diskontinuitätsmerkmale von Strahlraumdaten werden zuerst unter Verwendung einer adaptiven Schwelle extrahiert, dann wird eine Kreuzprüfoperation zwischen benachbarten Epipolarlinien ausgeführt, um die extrahierten Merkmalspunkte zu verfeinern. Danach werden Strahlrichtungen von Merkmalspunkten bestimmt, und eine Strahlrauminterpolation wird in den durch Merkmalspunkte segmentierten Regionen implementiert. Experimentelle Ergebnisse zeigen, dass die vorgeschlagene Methode viel höhere;-;-;-;https://link.springer.com/chapter/10.1007/11581772_36 40c640e777afc558d2bc396e6b37651a;de;;;2.4.;;;Ein Literaturüberblick über aktuelle sehkraftbasierte Sturzerkennungsmethoden Stürze, insbesondere bei älteren Menschen, sind ein ernstes Problem. Mit der Zunahme der Zahl der Kernfamilien werden ältere Menschen sehr oft allein zu Hause gelassen. Persönliche Betreuung ist nicht immer bezahlbar. In solchen Fällen kann sich ein im Haus installiertes automatisches Sturzerkennungssystem als sehr nützlich erweisen. Vor allem in den letzten fünf Jahren wurde auf diesem Gebiet viel geforscht und eine Vielzahl von Arbeiten veröffentlicht. In diesem Beitrag haben wir den aktuellen Stand der Forschung auf diesem Gebiet und die Mängel, die es zu überwinden gilt, umfassend zusammengefasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4932-8_46 43612ce267775ffa9656d3ad8af24db0;de;;;2.4.;;;Fahrerassistenzsysteme zur Bewertung von Schläfrigkeit: Eine Vorstudie In diesem Beitrag wird versucht, einen umfassenden Überblick darüber zu geben, was getan wird, um die in einem Fahrzeug zu verwendenden Schläfrigkeitsbewertungen zu automatisieren. Das Papier analysiert die Beweise für die Nützlichkeit der derzeit in Geräten zur Erkennung von Schläfrigkeit verwendeten Maßnahmen, die nicht invasiv sind und ausschließlich auf der Augenaktivität basieren. Ihr Zusammenhang mit Schläfrigkeit und Leistungsfähigkeit wird beschrieben und allgemeine Probleme und Fallstricke im Zusammenhang mit ihrem praktischen Einsatz in Personenkraftwagen werden aufgezeigt. Es simuliert auch ein nicht aufdringliches Müdigkeitserkennungssystem, das die Kernerkennungstechnik mehrerer untersuchter Geräte ist, um zu verstehen, wie alle Komponenten des Systems in Echtzeit reagieren. Eine Bewertungstabelle, die bei der zukünftigen Automatisierung der Schläfrigkeitsbewertung hilft, ist ebenfalls enthalten, basierend auf der Analyse der Schläfrigkeit, die aus aufgezeichneten Videos beobachtet wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00909-9_40 26477992d97bcbcc255bb95ab4f9314d;de;;;2.4.;;;Elektrophysiologischer Herzsimulator mit skizzenhafter 3D-Modellierung Wir präsentieren einen elektrophysiologischen Herzsimulator, der mit einer skizzenhaften 3D-Modellierungsschnittstelle ausgestattet ist. Es war mühsam und zeitaufwendig, die Herzform für die Verwendung im Simulator zu erstellen. In dieser Studie haben wir einen neuen Simulator entwickelt, der mit einer skizzenbasierten 3D-Modellierungsschnittstelle für die Formtransformation kombiniert wird. Wir haben auch eine halbautomatische Methode entwickelt, um Arbeit für die Vorverarbeitung der Simulation zu sparen. Die skizzenhafte 3D-Modellierungsschnittstelle erhöht die Möglichkeiten der Computersimulation.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-30962-8_10 7daee533b649a2730826dabf0e9147e2;de;;;2.4.;;;Globale Navigation in dynamischen Umgebungen mit fallbasierter Argumentation Dieser Artikel stellt eine globale Navigationsstrategie für autonome mobile Roboter in großräumigen unsicheren Umgebungen vor. Ziel dieses Ansatzes ist es, Kollisionsrisiken und Zeitverzögerungen durch Anpassung an die Veränderungen in einer dynamischen Umgebung zu minimieren. Das Thema Hindernisvermeidung wird auf globaler Ebene angegangen. Es konzentriert sich auf eine Navigationsstrategie, die verhindert, dass der Roboter Situationen begegnet, in denen er Hindernissen ausweichen muss. Um die teilweise bekannte Umgebung zu modellieren, wird eine gitterbasierte Karte verwendet. Es wird ein modifizierter Wellentransformationsalgorithmus beschrieben, der mehrere alternative Pfade vom Start zum Ziel findet. Fallbasiertes Denken wird verwendet, um aus früheren Erfahrungen zu lernen und sich an die Veränderungen in der Umgebung anzupassen. Das Lernen und Anpassen durch fallbasiertes Denken ermöglicht es dem Roboter, Routen zu wählen, die weniger riskant sind und schneller zum Ziel führen. Die experimentellen Ergebnisse zeigen, dass die Verwendung von fallbasierter Argumentation die Leistung des Roboters in einer schwierigen unsicheren Umgebung erheblich erhöht. Der Roboter lernt, vorhersehbarere Aktionen durchzuführen, das Kollisionsrisiko und die Verfahrzeit sowie die zurückgelegten Entfernungen zu minimieren.;-;-;-;https://link.springer.com/article/10.1023/A%3A1020979520454 785fb1200a8af3bc85ef355fa03b4628;de;;;2.4.;;;Charakterisierung der regionalen Lungenmechanik aus seriellen MRT-Daten Wir beschreiben eine Methode zur Quantifizierung der Lungenbewegung aus der Registrierung aufeinanderfolgender Bilder in seriellen MR-Aufnahmen während der normalen Atmung. Die MR-Quantifizierung der Lungenbewegung ermöglicht die In-vivo-Beurteilung der Parenchymmechanik innerhalb der Lunge, um die Krankheitsdiagnose oder die Behandlungsüberwachung zu unterstützen. Insbesondere erhalten wir Schätzungen der Lungenbewegung durch Summieren der normalisierten Kreuzkorrelation über die Lungenbilder, um entsprechende Positionen zwischen den Bildern zu identifizieren. Die normalisierte Korrelation ist robust gegenüber linearen Intensitätsverzerrungen bei der Bildaufnahme, die als Folge von Änderungen der durchschnittlichen Protonendichte aufgrund von Änderungen des Lungenvolumens während des Atemzyklus auftreten können. Die geschätzten Bewegungen entsprechen Verformungen eines elastischen Körpers und spiegeln in erster Näherung das wahre physikalische Verhalten des Lungenparenchyms wider. Die Methode wird an einer seriellen MRT-Studie der Lunge validiert, für die Atemanhaltebilder eines gesunden Probanden in verschiedenen Phasen des Atemzyklus aufgenommen wurden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45786-0_94 810483f2e6d0dde796071ec71e3eb1f1;de;;;2.4.;;;Ausrichtungsbasierte Übersetzungseinheit für die simultane Japanisch-Englische gesprochene Dialogübersetzung In letzter Zeit wurde die Entwicklung von Simultanübersetzungssystemen gewünscht. In keiner früheren Studie wurde jedoch die geeignete Übersetzungseinheit für ein Simultanübersetzungssystem vorgeschlagen. In diesem Beitrag schlagen wir eine Übersetzungseinheit für die simultane Übersetzung von gesprochenen Japanisch-Englisch-Dialogen vor. Die vorgeschlagene Einheit wird basierend auf der Wortausrichtung zwischen einem Ausgangssatz und seiner Übersetzung definiert. Der Vorteil der Verwendung der vorgeschlagenen Einheit besteht darin, dass ein Übersetzungssystem eine Eingabe basierend auf jeder Übersetzungseinheit unabhängig übersetzen kann. Um zu bestätigen, dass eine solche Übersetzungseinheit für die Simultanübersetzung wirksam ist, haben wir die Übersetzungseinheit hinsichtlich der Länge und der Erkennbarkeit bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23190-2_3 a3849612646604d42bcf23b49699a5a4;de;;;2.4.;;;Tiefenunterstütztes Inpainting zur Disokklusionsrestauration von Multi-View-Bildern mit Tiefenbild-basiertem Rendering Ein neuer Algorithmus wird vorgeschlagen, um Disokklusionsregionen in Tiefenbild-basierten Rendering (DIBR) verzerrten Bildern wiederherzustellen. Aktuelle Lösungen umfassen Layered Depth Image (LDI), Vorfilterverfahren und Nachbearbeitungsverfahren. Die LDI ist kompliziert, und die Vorfilterung von Tiefenbildern verursacht bei starker Grundlinienverzerrung merkliche geometrische Verzerrungen. Dieser Beitrag stellt eine tiefengestützte Inpainting-Methode vor, die die Vorzüge des Inpainting-Algorithmus von Criminisi erbt. Das vorgeschlagene Verfahren zeichnet sich durch die Einbeziehung eines Tiefenhinweises in die Texturschätzung aus. Der Algorithmus handhabt die Tiefenmehrdeutigkeit effizient, indem er größere Lagrange-Multiplikatoren von Füllpunkten näher an der Warping-Position im Vergleich zu den umgebenden vorhandenen Punkten bestraft. Wir führen morphologische Operationen an Tiefenbildern durch, um die Konvergenz des Algorithmus zu beschleunigen, und wenden eine Luma-First-Strategie an, um uns an verschiedene Farbabtastformate anzupassen. Experimente an einer Test-Mehrfachansichtssequenz zeigten, dass unser Verfahren bei der Wiederherstellung verzerrter Bilder hinsichtlich Tiefendifferenzierung und geometrischer Loyalität überlegen ist. Außerdem sind die Statistiken des Spitzen-Signal-Rausch-Verhältnisses (PSNR) für Nicht-Loch-Regionen und Gesamtbildvergleiche beide günstig mit denen, die durch Techniken des Standes der Technik erhalten werden.;-;-;-;https://link.springer.com/article/10.1631/jzus.A0820806 fde7860be89c21663ae5e4bef25fbedf;de;;;2.4.;;;Integriertes Multimedia-Verständnis für ubiquitäre Intelligenz basierend auf mentaler bildgesteuerter semantischer Theorie Eine ideale ubiquitäre Computerumgebung kann ein Netzwerksystem aus solchen intelligenten und menschenfreundlichen Robotern sein, die niemals vor Menschen erscheinen, außer wenn sie benötigt werden. In diesem Beitrag wird das verteilte intelligente Roboternetzwerk (DIRN) als eine Art drahtloser Sensor- und Aktornetzwerke (WSAN) vorgeschlagen, die aus einem Gehirnknoten und zahlreichen Sensor- und Aktorknoten mit benutzerfreundlichen Schnittstellen bestehen. Um gut abgestimmte DIRNs zu realisieren, ist es sehr wichtig, eine systematisch berechenbare Wissensrepräsentationssprache universell für alle Gerätetypen sowie effiziente Netzwerktechnologien zu entwickeln. Als Kandidat hierfür ist die multimediale Beschreibungssprache;-;-;-;https://link.springer.com/chapter/10.1007/11596042_56 ba7f5da4b089dc7e32a520e5be4cf892;de;;;2.4.;;;Vorurteile für die Referenzpotentialbestimmung gegenüber der quantitativen EEG-Interpretation: Amplitudenverteilung und Ohrläppchenaktivierung Dieser Beitrag stellt eine automatische Technik der geeigneten Referenzpotentialauswahl für die quantitative EEG-Interpretation vor. Die 16-Kanal-EEG-Aufzeichnung unter monopolarer Ableitung wird analysiert. Für die Überprüfung der Amplitudenverteilung und der Ohrläppchenaktivierung sind zwei Vorbeurteilungen definiert. Nach Vorurteilen wird das EEG in mehrere Fälle eingeteilt, darunter diffuser Fall, nicht diffundierter Fall und Artefaktkontamination. Aufgrund der Fälle wird ein automatisches Referenzauswahlverfahren angewendet, um geeignete Referenzpotenziale herauszufinden. Schließlich wird die anhand des erhaltenen Referenzpotentials konstruierte referentielle Ableitung für die weitere EEG-Rhythmusanalyse ausgewertet. Die vorgestellte Technik kann den interessierenden EEG-Rhythmus hervorheben, was für die quantitative EEG-Interpretation sowohl durch visuelle Inspektion als auch durch automatische Auswertung nützlich ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29305-4_164 d0c7c0dd88233d7a83752a36c4df1b2c;de;;;2.4.;;;Hyperspektrale Bildgebung in Kombination mit Machine Learning-Klassifikatoren für die Beurteilung des diabetischen Ulcus cruris – eine Fallstudie Diabetische Fußgeschwüre sind eine schwerwiegende Komplikation von Diabetes mit großen Auswirkungen auf das Leben des Patienten. Die Beurteilung, welches Geschwür spontan abheilt, ist von größter Bedeutung. Um diese Aufgabe zu erfüllen, wurde in letzter Zeit die hyperspektrale Bildgebung verwendet, da sie Daten über die Wunde selbst und das umgebende Gewebe extrahieren kann. Die Klassifizierung hyperspektraler Daten bleibt jedoch eines der beliebtesten Themen im Bereich der hyperspektralen Bildgebung. In den letzten Jahrzehnten wurde als Antwort auf dieses hyperspektrale Datenklassifikationsproblem eine große Anzahl von unüberwachten und überwachten Verfahren vorgeschlagen. Ziel dieser Studie war es, eine geeignete Klassifikationsmethode zu identifizieren, die bei Applikationen am diabetischen Fuß möglichst genau zwischen normalen und pathologischen biologischen Geweben in einem hyperspektralen Bild unterscheiden kann. Die Leistungsfähigkeit von vier verschiedenen Machine-Learning-Ansätzen einschließlich Minimum Distance Technique (MD), Spectral Angle Mapper (SAM), Spectral Information Divergenence (SID) und Support Vector Machine (SVM) wurde untersucht und durch Analyse ihrer Konfusionsmatrizen verglichen. Die Ergebnisanalyse der Klassifikationen ergab, dass der SVM-Ansatz die MD-, SAM- und SID-Ansätze übertroffen hat. Die Gesamtgenauigkeit und der Kappa-Koeffizient für SVM betrugen 95,54 % bzw. 0,9404, während für die anderen drei Ansätze (MD, SAM und SID) diese statistischen Parameter 69,43 %/0,6031, 79,77 %/0,7349 bzw. 72,41 %/0,6464 betrugen. Zusammenfassend lässt sich sagen, dass die SVM die Charakterisierung des diabetischen Fußulkus mithilfe von Hyperspektralbildern effektiv klassifizieren und verbessern konnte, indem das zuverlässigste Verhältnis zwischen verschiedenen Gewebearten, die in den endgültigen Karten mit möglichem prognostischem Wert dargestellt sind, erstellt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-39343-4_7 ebab310a4ac44731bdc24769038ec86b;de;;;2.4.;;;Altersunabhängige Gesichtserkennungstechnik mit Gesichtsgeometrie Während sich Gesichtserkennungssysteme als empfindlich gegenüber Faktoren wie Beleuchtung und Pose erwiesen haben, muss ihre Empfindlichkeit gegenüber den Auswirkungen der Gesichtsalterung noch untersucht werden. Der FRVT-Bericht (Face Recognition Vendor Test) schätzt eine Leistungsminderung um etwa 5 % für jedes Jahr Altersunterschied. Diese Forschungsstudie schlug ein geometrisches Modell vor, das auf mehreren dreieckigen Merkmalen basiert, um die Herausforderung von Gesichtsaltersschwankungen zu bewältigen, die den Prozess der Gesichtserkennung beeinflussen. Das System soll in Echtzeitanwendungen dienen, bei denen die Testbilder normalerweise in zufälligen Maßstäben aufgenommen werden, die möglicherweise nicht den gleichen Maßstab wie das Sondenbild haben, zusammen mit Ausrichtung, Beleuchtung, Beleuchtung und Posenvariationen. Mehrere mathematische Gleichungen wurden entwickelt und bei der Bildung unterschiedlicher Themencluster verwendet. Diese Cluster enthalten die Ergebnisse der Anwendung der entwickelten mathematischen Modelle über die FGNET-Gesichtsalterungsdatenbank.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40567-9_8 b0d586c90df6a31070dca30536572051;de;;;2.4.;;;Ich kann es an der Art und Weise erkennen, wie Sie Ihren Weg nutzen: Echtzeit-Klassifizierung der Wegfindungsleistung Orientierungsaktivitäten sind oft schwierig, insbesondere für Menschen mit geringen räumlichen Fähigkeiten. Wenn Orientierungshilfen individuelle Unterschiede bei der Navigation berücksichtigen können, können gezielte Hilfestellungen die Orientierungsleistung verbessern. Um dies zu ermöglichen, muss zunächst die Leistung von Wegfindern klassifiziert werden. Diese Arbeit schlägt eine neuartige Methode vor, die eine probabilistische Bewertungsfunktion verwendet, um die Wegfindungsleistung zu klassifizieren, indem nur Informationen verwendet werden, die während der Routendurchquerung in Echtzeit verfügbar sind. Trainingsdaten für den Klassifikator wurden algorithmisch als Routen generiert, die verschiedene Ebenen der Orientierungsleistung repräsentieren. Dieser Ansatz wurde durch eine empirische Studie getestet, in der Menschen mit unterschiedlichen Fähigkeiten von einem Start zum Ziel gingen. Die Ergebnisse zeigen, dass die Leistung von Wegfindern zuverlässig in zwei Gruppen eingeteilt werden kann – gut und schlecht – und dass diese Klassifizierung nur anhand der während der Routendurchquerung verfügbaren Informationen erfolgen kann. Unsere Ergebnisse legen nahe, dass die Umweltstruktur eine wichtige Rolle bei der Routenwahl von Wegweisern spielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23196-4_6 32b50b1e320314df8e9db3988e115d87;de;;;2.4.;;;Oberflächenrekonstruktion aus mehreren Ansichten mit scheinbaren Konturen und Oberflächenstruktur Wir beschreiben einen neuartigen Ansatz zur Rekonstruktion der kompletten Oberfläche eines Objekts aus mehreren Ansichten, wobei die Kamera das Objekt umkreist. Der Ansatz kombiniert die Informationen, die von der sichtbaren Kontur verfügbar sind, mit den Informationen, die von der abgebildeten Oberflächentextur verfügbar sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4321-9_2 fa33a75a6ec792f5137888a46984ea96;de;;;2.4.;;;Integration von Vision und Entscheidungsfindung in ein autonomes Luftfahrzeug zur Verkehrsüberwachung In diesem Beitrag stellen wir ein System vor, das Computer Vision und Entscheidungsfindung in ein autonomes Luftfahrzeug integriert, das Verkehrsüberwachungsaufgaben übernimmt. Die Hauptfaktoren, die die Integration von Vision und Entscheidungsfindung zu einem herausfordernden Problem machen, sind: die qualitativ unterschiedliche Art von Informationen auf der Entscheidungs- und Visionsebene, die Notwendigkeit der Integration dynamisch gewonnener Informationen mit a priori Wissen, z.B. GIS-Informationen und die Notwendigkeit einer engen Rückmeldung und Anleitung des Vision-Moduls durch das Entscheidungsfindungsmodul. Angesichts der komplexen Interaktion zwischen dem Vision-Modul und dem Entscheidungsfindungsmodul schlagen wir die Einführung einer Zwischenstruktur namens Scene Information Manager vor und beschreiben deren Struktur und Funktionalität.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-49256-9_14 7de5c356e99a01347cd2e98533c1a324;de;;;2.4.;;;Beispielhafte Funktionalitäten des intelligenten Systems zur Unterstützung des stillschweigenden Wissenstransfers für ein IT-Unternehmen Dieser Artikel zielt darauf ab, den Nutzungsablauf des intelligenten Systems zur stillschweigenden Wissenstransfer-Unterstützung für ein IT-Unternehmen darzustellen. Die folgenden beispielhaften Funktionalitäten dieses Systems werden beschrieben: C1-F1: Auswahl der Prozesse, die von einem Mitarbeiter durchgeführt werden, C1-F2: Ermittlung des Wissens der Mitarbeiter und C2-F2: Bestimmung der Gewichtung jeder Komponente des Personalnutzens Funktion mit der FAHP-Methode. Die vorgestellten Funktionalitäten ermöglichen die Auswahl der Mitarbeiter mit den entsprechenden Fähigkeiten als wichtigste Quelle für implizites Wissen innerhalb eines Unternehmens und den Erwerb des Wissens von ihnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67642-5_3 f44fe7fa20989fcb04c43c1b1336d536;de;;;2.4.;;;Vergleich von Eckendetektoren für rotierende Objekte, die Aufgabe entsprechen Das Papier enthält Tests von Eckendetektoren, die beim Auffinden charakteristischer Punkte auf sich drehenden 3D-Objekten angewendet werden. Fünf verschiedene Algorithmen werden vorgestellt, beginnend mit dem historischen Moravec-Detektor bis hin zu den neuesten, wie SUSAN und Trajkovic.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29347-4_53 475250c5ae6ec05e1302a5d96ac8b5fe;de;;;2.4.;;;Personalisierte Empfehlung zum Englischlernen basierend auf Knowledge Graph und Graph Convolutional Network Mit der rasanten Entwicklung der Bildung ist eine Vielzahl von Online-Lernplattformen entstanden. Obwohl sie den Studierenden den Komfort bieten, können sie den Studierenden keine detaillierten personalisierten Dienste anbieten. Um dieses Problem zu lösen, schlagen wir in diesem Artikel eine Methode vor, um die Empfehlung des Englischlernens basierend auf einem Wissensgraphen und einem Graphenfaltungsnetzwerk zu personalisieren. Zunächst konstruieren wir einen Wissensgraphen, der eine große Anzahl von Englischübungen für die Junior High School enthält, die nach Wissenspunkten klassifiziert sind. Zweitens wird ein neuronales Graphenfaltungsnetz verwendet, um einen personalisierten Wissensgraphen für jeden Schüler zu erzeugen. Schließlich bietet es den Schülern detaillierte personalisierte Dienste, indem es einen personalisierten Lernpfad generiert. Die experimentellen Ergebnisse belegen die Wirksamkeit unserer Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-78612-0_13 7357d834c354ef9cfacc6469a7ee4e4c;de;;;2.4.;;;Wimpernentfernung mit Lichtfeldkamera zur Iriserkennung Wimpernokklusionen stellen große Schwierigkeiten beim Segmentierungs- und Merkmalscodierungsprozess der Iriserkennung dar und wirken sich daher stark auf die Erkennungsrate aus. Herkömmliche Methoden zur Wimpernentfernung zielen darauf ab, die Wimpernregionen aus dem 2D-Irisbild auszuschließen, wodurch viele wertvolle Informationen über die Iristextur verschwendet werden. In diesem Papier wollen wir die verdeckten Irismuster für eine robustere Iriserkennung rekonstruieren. Zu diesem Zweck wird ein neuartiges Abbildungssystem, die auf Mikrolinsen basierende Lichtfeldkamera, verwendet, um das Irisbild zu erfassen. Neben seiner Fähigkeit, die Schärfentiefe neu zu fokussieren und zu erweitern, untersuchen wir in dieser Arbeit seine weitere Eigenschaft, nämlich das Durchsehen der Okklusionen. Und wir schlagen vor, verdeckte Irismuster mithilfe von Statistiken von Makropixeln zu rekonstruieren. Um die vorgeschlagene Methode zu validieren, erfassen wir eine einzigartige Lichtfeld-Iris-Datenbank und implementieren Iris-Erkennungsexperimente mit unseren vorgeschlagenen Methoden. Sowohl die Erkennung als auch die visuellen Ergebnisse bestätigen die Wirksamkeit unserer vorgeschlagenen Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12484-1_36 12cb12fa68103a56c64fb2cf45f11699;de;;;2.4.;;;Eine Harris Corner Detector-Implementierung in SoC-FPGA für Visual SLAM Der vorliegende Beitrag diskutiert die Implementierung des Eckendetektoralgorithmus von Harris und Stephen, optimiert für eine eingebettete System-on-a-Chip (SOC)-Plattform, die einen Multicore-ARM-Prozessor und FPGA-Fabric in einem einzigen Chip, dem Xilinx Zynq-7000, integriert. Der Algorithmus ist als Hardware-Coprozessor auf dem FPGA-Teil des SoC implementiert. Insgesamt wird der SoC als Stereo-Vision-Vorverarbeitungsmodul verwendet, um Tiefeninformationen aus den Features abzurufen, um 3D-Landmark-Punkte für Visual SLAM zu erstellen, die Feature-Extraktion zu beschleunigen und diesen hochgradig parallelisierbaren Prozess vom eingebetteten Hauptprozessor zu entlasten. Die Optimierungen der Hardwareimplementierung des Algorithmus berücksichtigen die Besonderheiten des SoC, wie die Einhaltung seiner I/O-Anforderungen und die Einschränkungen des FPGAs hinsichtlich der Menge der für die Hardwaresynthese verfügbaren logischen Elemente. Außerdem werden in dem Artikel Optimierungen vorgestellt, die durchgeführt wurden, um die Ausführungszeit des Algorithmus in Hardware zu verkürzen, wie z. B. Parallelisierung und Einführung einer Pipeline. Beim Vergleich der Ausführungszeit des Algorithmus im Hardware-Coprozessor mit dem Algorithmus, der in der Software im Dual-Core-ARM-Prozessor läuft, wurde eine Beschleunigung von 1,77 erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-47247-8_4 8e55cad11b0a5c0291d5feb3b2ba3540;de;;;2.4.;;;Extraktion und Analyse hoher Emissionsbedingungen von schweren Dieselfahrzeugen basierend auf realen Straßenfahrbedingungen Um eine Methode zur Beurteilung des Bordemissionsniveaus von schweren Dieselfahrzeugen zu untersuchen und das Emissionsniveau von schweren Dieselfahrzeugen zu untersuchen, haben wir in diesem Artikel das Datenerfassungsterminal des OBD-Systems verwendet, um fünf schwere Nutzfahrzeuge zu transportieren Fahrzeuge im realen Fahrbetrieb zum Thema „Forschung und Anwendung von Schlüsseltechnologien zur Emissionsüberwachung im realen Betrieb von schweren Dieselfahrzeugen“. Durch die Erhebung der Daten und die Konsultation des Beijing Local Standards, des China VI Standards für schwere Dieselfahrzeuge und der Methode der Fahrzykluskonstruktion wurden die AME (Averaging Window Method), die NTE (Not-To-Exceed)-Methode und die Short-Trip-Methode verwendet, um jeweils die gesammelten Datensegmente analysieren. Vergleicht man die mit drei Methoden gewonnenen Segmentdaten und den Anteil der Segmente, die den Grenzwert überschreiten, wird geschlussfolgert, dass die Kurzstreckenmethode die Betriebssegmente mit Emissionen über dem Grenzwert effektiv extrahieren kann. Eine weitere Analyse der Kurzstrecken von 5 grenzwertigen Fahrzeugen zeigte, dass VSP im Vergleich zu Fahrzeuggeschwindigkeit und -beschleunigung grenzwertüberschreitende Fahrzeugemissionen im Fahrbetrieb besser erkennen kann und sich VSP der Abgasüberschreitungssegmente auf die Bereich von 0–2,5 kW/Tonne. Die Dauer von Segmenten mit hoher Emission lag hauptsächlich innerhalb von 300 s, und der Leerlaufanteil von Segmenten mit hoher Emission konzentrierte sich auf 0–5 %, der Beschleunigungsanteil von mehr als 80 % Segmenten lag innerhalb von 22 %, und das Verteilungsgesetz des Verzögerungsanteils und ein einheitliches Verhältnis war nicht ersichtlich. Die Durchschnittsgeschwindigkeit der Segmente mit hoher Emission verteilt sich hauptsächlich auf niedrige und mittlere Geschwindigkeiten und die Segmente mit hoher Emission auf eine maximale Beschleunigung von 1–1,3 m/s;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7945-5_27 4880b29aac5e661b04ec4b0d76edc320;de;;;2.4.;;;Cloud Grazing Management- und Entscheidungssystem basierend auf WebGIS Um den Informationsstand der Tierhaltung zu verbessern und die Probleme der unangemessenen Nutzung von Grünlandressourcen zu lösen, wurde diese Studie auf der 3S-Technologie basiert und die Vorteile der GIS-Informationsverarbeitung und Cloud Computing-Ressourcen voll ausgeschöpft. Es wurde ein Cloud-Beweidungsmanagement- und Entscheidungssystem basierend auf WebGIS entwickelt. Das System nahm den Mainstream-Webbrowser als Client-Plattform. Die Funktionen der Anzeige der Echtzeitposition der Herde, der Abfrage der historischen Trajektorie, der Überwachung des Grünlandwachstums und der Einschätzung der Situation der Grünlandnutzung wurden durch das System erreicht. Auf der Serverseite wurde die Spatial-Management-Technologie der Spatial-Data-Engine ArcSDE und SQL Server 2012 zum Speichern von Daten verwendet. Als Webserver wurde Tomcat 7.0 und als GIS-Server ArcGIS Server 10.3 verwendet. Die Automatisierung der Datenverarbeitung wurde durch den Aufruf des ArcPy-Pakets über ein Python-Skript realisiert. Die Ergebnisse wurden automatisch auf dem ArcGIS-Server zur Client-Anzeige veröffentlicht. Das System kann Viehzüchtern und Weidewirtschaftsabteilungen Entscheidungsgrundlagen für die Bewirtschaftung von Weiden und Grünland bieten. Es ermöglicht Viehzüchtern, vernünftige und effektive Weidepläne zu erstellen, um eine ausgewogene Nutzung der Grünlandressourcen zu erreichen und die nachhaltige Entwicklung der Weidetierhaltung zu fördern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-48513-9_34 9101084ce183812f7446d0864eab1511;de;;;2.4.;;;Druckdaten und Multi-Material-Ansatz zum Design von Prothesen Dieses Papier befasst sich mit dem Design und der Herstellung von medizinischen Geräten, wie z. B. Prothesen der unteren Gliedmaßen, die kostengünstige industrielle Technologien integrieren. Insbesondere richtet sie das Augenmerk auf die passgenaue Komponente einer Unterschenkelprothese, d. h. den Schaft, also die Schnittstelle zum Stumpf. Der betrachtete Prozess beginnt mit der 3D-Rekonstruktion der Extremität des Patienten und endet mit der Herstellung des Schafts mit einem 3D-Drucker unter Verwendung eines Multimaterial-Ansatzes. Der Prozess umfasst drei Schritte: 3D-Modellierung, Tests (sowohl experimentell als auch numerisch) und Fertigung. Für jeden Schritt werden übernommene Lösungen und Werkzeuge beschrieben. Abschließend werden vor allem Rückschlüsse auf die Herausforderung des Multimaterial-3D-Drucks des Sockels gezogen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-69694-2_4 1de5bc7bc216232bd6f2ef1c91d5a563;de;;;2.4.;;;Prozessübergangsnetzwerke: Ein formales Werkzeug zur grafischen Wissensrepräsentation Eine formale Definition von Process Transition Networks (PTNs), die kürzlich von Sandewall [San90] eingeführt wurde, wird vorgestellt. PTNs können als grafische Sprache verwendet werden, um komplexe qualitative Prozesse zu beschreiben, die selbst mit Hilfe kausaler Abhängigkeiten nur schwer quantitativ auszudrücken sind. Die formale Definition der Sprache basiert auf der Graphentheorie und weist starke Ähnlichkeiten mit der Petrinetztheorie auf. PTNs werden zunächst informell eingeführt, gefolgt von syntaktischen und semantischen Spezifikationen. Die Beziehung zwischen PTNs und Petri-Netzen wird betrachtet und gezeigt, dass PTNs zwar nicht mehr Expressivität als Petri-Netze haben, aber ihre Flexibilität als Darstellungssprache für komplexe Prozesse ihre Existenz rechtfertigt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-54563-8_83 e40236eca7b1f3f917c0d15009fa94fe;de;;;2.4.;;;Diskussion zum Aufbau des Curriculums „Sensorik und Detektionstechnik“ Die Theorie der Sensorik und Detektionstechnik spielt als professioneller Grundkurs eine führende Rolle im Bereich der industriellen Fertigung und wissenschaftlichen Forschung. In Anbetracht der starken Kombination verschiedener Fächer sowie der Probleme, die im traditionellen Unterrichtsmodell auftreten, stellt der Artikel neue Unterrichtsmethoden vor allem in Bezug auf das Unterrichtsmodell und deren Umsetzung vor und es wurden gute Unterrichtsergebnisse in der praktischen Lehre erzielt Arbeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30223-7_11 77008ffaf16dfa28562261cac654569e;de;;;2.4.;;;Raumakustischer Qualitätsindikator und eine kostengünstige Messlösung Derzeit haben die meisten Klassenzimmer ihre akustischen Eigenschaften bei der Planung und Konstruktion nicht vollständig berücksichtigt. Einige Klassenzimmer haben eine schlechte akustische Umgebungsqualität, was sich nachteilig auf das Hörerlebnis der Schüler auswirkt. Dieses Papier schlägt einen akustischen Qualitätsindikator vor, um die akustischen Eigenschaften in einem Klassenzimmer zu beschreiben, und bietet einen vollständigen Satz von Methoden zur Berechnung der Nachhallzeit und des vorgeschlagenen akustischen Qualitätsindikators. Auf dieser Basis wird ein kostengünstiges und anwenderfreundliches akustisches Qualitätsbewertungssystem entwickelt. Durch das vorgeschlagene System können die Nachhallzeit im Klassenzimmer und der akustische Qualitätsindikator im Klassenzimmer bequem und effektiv gemessen werden. Außerdem wird das System in drei typischen Klassenzimmern evaluiert, um die Wirksamkeit des vorgeschlagenen Systems zu überprüfen. Die vorgeschlagene Lösung bietet ein bequemes und kostengünstiges technisches Mittel zur Bewertung der akustischen Qualität von Klassenzimmern und hat eine breite Perspektive für die Förderung und Anwendung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-75793-9_79 42d051e4e67e83f0ffd8bf6e15bd501c;de;;;2.4.;;;Erforschung der Generierung und Visualisierung virtueller 3D-Szenen basierend auf Bildern In letzter Zeit bietet die Virtual-Reality-Technologie einen neuen Weg zur Visualisierung räumlicher Informationen, sie ist zu einem beliebten Forschungsthema auf dem Gebiet der Computergrafik, der visuellen Computer- und Bildverarbeitung und anderer Bereiche geworden. In diesem Kapitel werden zunächst die bildbasierten Modellierungs- und Rendering-Techniken (bezeichnet IBMR) und die detaillierte Analyse plenoptischer Funktionen diskutiert, die die technische Theoriebasis von IBMR beschreiben. Und dann werden im aktuellen Inland die drei typischen Methoden der virtuellen 3D-Szenengenerierung basierend auf Panorama, konzentrischen Mosaiken und Lichtfeld untersucht. Schließlich gibt das Kapitel die Prinzipien der Erzeugung virtueller 3D-Szenen und Prozesse auf der Grundlage von Panorama an, wobei diese Prozesse Projektionstransformation, Bildregistrierung, Bildfusion und inverse Reprojektionstransformation umfassen. Da die oben untersuchten technischen Methoden das Panorama schnell und effizient erzeugen können und einen reibungslosen Übergang zwischen kohärenten Bildern erzielen können, wurden sie erfolgreich auf die Ökotourismus-Site Hainan virtueller Panoramasichtungsschau angewendet. Diese Methode hat bessere visuelle Effekte und Anwendung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03449-2_34 f8fb06657e1ce91e2c2d04b6fc0cb671;de;;;2.4.;;;Forschung zur Technologie zur Überwachung der autonomen Integrität von Empfängern basierend auf dem GNSS-Basisbandsignal Mit den steigenden Anforderungen an die Satellitennavigations- und Ortungstechnik rückt die Erkennung und Identifizierung fehlerhafter Satelliten in den Fokus. Daher schlägt dieses Papier einen Algorithmus zur autonomen Integritätsüberwachung des Empfängers vor, der auf dem ursprünglichen Navigationssignal basiert, um die Erkennung und Beseitigung fehlerhafter Satelliten zu realisieren. Diese Methode drückt erstens das Signal-Rausch-Verhältnis des Kanals unter Verwendung des ursprünglichen Navigationssignals aus, zweitens konstruieren Sie eine neue Kovarianzmatrix unter Verwendung des Signal-Rausch-Verhältnisses und der Kanalbandbreite, verwenden Sie dann die Kovarianzmatrix, um die PVT-Kovarianzmatrix abzuleiten, schließlich die Erkennung und Identifizierung des fehlerhaften Satelliten erfolgt. Tests zeigen, dass das Verfahren den Einfluss von geringfügigem Rauschen empfindlicher erkennen kann. Daher wendet das Verfahren nicht nur das ursprüngliche Navigationssignal auf die Integritätsüberwachung an, sondern verbessert auch die Empfindlichkeit der Integritätsüberwachung, wodurch ihre Leistung erheblich verbessert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-7759-4_19 c28693d2c0c5c75ee8feb090086d8aab;de;;;2.4.;;;Verstecken biometrischer Daten für eine sichere Übertragung In diesem Papier beschreiben wir biometrische Wasserzeichentechniken zur sicheren Benutzerverifizierung auf dem entfernten, multimodalen biometrischen System, die sowohl Fingerabdruck- als auch Gesichtsinformationen verwenden, und vergleichen ihre Auswirkungen auf die Verifizierungsgenauigkeit quantitativ. Um biometrische Daten mit Wasserzeichentechniken zu verbergen, betrachten wir zunächst zwei mögliche Szenarien. In Szenario 1 verwenden wir ein Fingerabdruckbild als Titelbild und verstecken Gesichtszüge darin. Im Gegensatz dazu verstecken wir im Szenario 2 Fingerabdruckmerkmale in einem Gesichtsbild. Aufgrund der experimentellen Ergebnisse bestätigen wir, dass Szenario 2 dem Szenario 1 hinsichtlich der Verifizierungsgenauigkeit des mit Wasserzeichen versehenen Bildes überlegen ist.;-;-;-;https://link.springer.com/chapter/10.1007/11553939_147 ba872da2313736654962e739ab9a4dc2;de;;;2.4.;;;Beurteilung der Haltungskontrolle bei Multipler Sklerose durch Diffusionsanalyse an Kinect-Skelettdaten Multiple Sklerose (MS) ist eine Erkrankung des zentralen Nervensystems, die allgemein als nicht reversibler Degenerationsprozess bekannt ist, der sowohl junge Erwachsene als auch ältere Menschen betrifft. Eine solche Krankheit beeinträchtigt die Gleichgewichtsfunktion des Haltungskontrollsystems, das erforderlich ist, um lebenswichtige Aufgaben wie das Gehen oder das Halten einer aufrechten Position auszuführen. Um die mit MS verbundenen Langzeitfolgen zu mildern, führen Ärzte therapeutische Eingriffe an Patienten durch, um ihre motorischen Fähigkeiten bestmöglich zu erhalten. Um die Wirksamkeit therapeutischer Interventionen zu bewerten, werden repräsentative Messungen oder Scores verwendet, um den Ist-Zustand jedes Patienten zu beurteilen. Diese Arbeit präsentiert einen explorativen Ansatz zur Bereitstellung quantitativer mediolateraler und anteroposteriorer Gleichgewichtsdeskriptoren bei MS durch Diffusionsanalyse von Gleichgewichtsdaten, die mit einem kostengünstigen Computersystem unter Verwendung eines Kinect-Geräts erfasst wurden. Die erhaltenen Ergebnisse wurden mit einer Teilmenge von Übungen der Berg Balance Scale verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-66963-2_55 5ffd808d592ba2ac61d69df220ccd225;de;;;2.4.;;;Erfassungsleistung von ionischen Polymer-Metall-Nanokomposit-Sensoren mit Druck- und Metallelektrolyten für Energy Harvesting-Anwendungen Flexible ionische Polymer-Metall-Verbundsensoren sind im Vergleich zu dem spröden anorganischen piezoelektrischen Material zum Erfassen der Pulsrate des menschlichen Körpers und zur Unterwasser-Energiegewinnungsanwendung erwünscht. Die vorliegende Studie berichtet über die Sensorleistung von ionischem Polymer-Metall-Nanokomposit (IPMNC) unter Verwendung einer mit Platin (Pt) beschichteten ionischen Membran aus Polyvinylidenfluorid (PVDF) (PVDF)/Polyvinylpyrrolidon (PVP)/Polystyrolsulfonsäure (PSSA). Die Pt-Elektrode wurde unter Verwendung eines stromlosen Abscheidungsverfahrens auf einer ionischen PVDF/PVP/PSSA-Membran angebracht. Das einfache Lösungsmittelgussverfahren wurde verwendet, um die ionische PVDF/PVP/PSSA-Membran herzustellen. Der auf PVDF/PVP/PSSA basierende IPMNC erzeugte eine Messspannung von 0,65 V bei einer Kraftanwendung von 0,6 N. Unser IPMNC-Sensor erzeugt Messsignale mit verschiedenen Metallelektrolyten und erzeugt das höchste Messsignal von 0,56 V beim Eintauchen der IPMNC-Probe in 1,5 N NaCl. Die Daten wurden mit einem Datenerfassungssystem (DAS) erhalten, das aus einer IPMNC-Probe auf einer Leiterplatte besteht, die mit einem Verstärker, einem Analog-Digital-Wandler und einem Arduino Uno-Board verbunden war. Das DAS war mit einem Computer verbunden, um Daten zu erhalten. Unser vorgeschlagener IPMNC-Sensor kann auf Drucksensoren und tragbare Technologien zur Energieerzeugung angewendet werden. Unser IPMNC kann auch zum Nachweis von Metallionen in Wasser und zur Stromerzeugung aus dem Medium Wasser nützlich sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5341-7_63 087e405bf2cf82d8da4e11df7fbd5bd0;de;;;2.4.;;;Das Design und die Entwicklung eines FM-Lokalisierungsalgorithmus basierend auf dem KNN-Modell Durch den Vergleich der bei der Indoor-Positionierung im In- und Ausland verwendeten Funksignale wurde festgestellt, dass FM-Rundfunk bestimmte Vorteile bei der Indoor-Positionierung hat, und durch den Lokalisierungsalgorithmus im In- und Ausland wird der Positions-Fingerabdruck-Lokalisierungsalgorithmus basierend auf FM-Signalmerkmalen vorgeschlagen. und der umfassende Vergleichsklassifikationsalgorithmus wird verwendet. Schließlich wird geschlussfolgert, dass die Genauigkeit der Methode zur Lokalisierung von FM-Signalmerkmalen in 90% der Fälle 1,5 m erreichen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8411-4_271 1fa8c66e55fbc9565688cab6742b2f1b;de;;;2.4.;;;Die Kosten der Redundanz in verteilten Echtzeitsystemen im stationären Zustand Der Beitrag stellt Überlegungen zur Einführung des Begriffs „Kosten der Redundanz“ vor und zeigt allgemeine Annahmen auf, die eine Definition dieses Begriffs und seine quantitative Bestimmung ermöglichen. Die „Kosten der Redundanz“ gelten in diesem Fall jedoch nicht für den finanziellen Aufwand, sondern nur für den Zeitverlust (zeitliche Kosten), der mit dem Einsatz von Redundanz in industriellen Echtzeit-Verteilten Systemen verbunden ist. Mehrere Computersystemarchitekturen werden unter dem Gesichtspunkt dieser zeitlichen Redundanzkosten analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13861-4_11 994f295b803e36aa51192f8a87090f3c;de;;;2.4.;;;MTRA: Ein VPN-Bereitstellungsalgorithmus nach dem Online-Schlauchmodell Virtual Private Networks (VPNs) bieten Kunden eine sichere und überschaubare Kommunikationsumgebung. Die Zuweisung von Bandbreite für VPNs zur Erfüllung der Kundenanforderungen ist heute eines der wichtigsten Forschungsthemen im Bereich Traffic Engineering. Ein VPN-Ressourcenbereitstellungsmodell namens model;-;-;-;https://link.springer.com/article/10.1007/s11235-006-6724-2 757ab66386a3eff42463804839e7684e;de;;;2.4.;;;ASIC-basierter LVDT-Signalkonditionierer für hochgenaue Messungen In diesem Beitrag wird ein neuartiges Signalkonditionierungssystem auf der Grundlage von anwendungsspezifischen integrierten Schaltungen (ASIC) für die Regelung eines linearen variablen Differentialtransformators (LVDT) für Sensorschnittstellenanwendungen vorgestellt. Die LVDTs werden zur Messung der linearen Verschiebung in Industrie-, Militär-, Luft- und Raumfahrt-, Unterwasser-, Bohrloch-, Kernkraft- und Prozesssteuerungsanwendungen verwendet. Die Signalkonditionierung wird durch eine ASIC-basierte digitale Signalverarbeitungseinheit erreicht. Die existierenden kommerziell erhältlichen integrierten Schaltkreise (ICs) für die LVDT-Signalkonditionierung sind größtenteils analog und für die Verarbeitung sind zusätzliche externe Schaltungen erforderlich. Das vorgeschlagene System ist eine digitale Implementierung des LVDT-Signalkonditionierers mit einer besseren Dynamik und Linearität durch Closed-Loop-Steuerung. Ein einzigartiges Merkmal dieses ASIC ist die Verwendung einer synchronen Demodulationstechnik unter Verwendung von ADC-Abtastung, wodurch die Komplexität herkömmlicher AM-Demodulationsschaltungen reduziert wird. Einer der Hauptvorteile der digitalen Implementierung besteht darin, dass das System durch externe Überwachungssteuerung umkonfiguriert werden kann. In dieser Implementierung wird dies durch eine universelle asynchrone Empfänger-Sender-(UART)-Schnittstelle ermöglicht. Dadurch eignet sich das System für ein breites Anwendungsspektrum. Die Funktionalität des Systems wurde durch eine Verilog-Implementierung auf ARTIX-7 Field Programmable Gate Array (FPGA) verifiziert. Das ASIC-Design ist in SCL-180-nm-Technologie mit einer Fläche von 1 mm x 1 mm implementiert und die Leistungsausnutzung beträgt 285;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9767-8_33 2bcefadfa7b5346f723956648700a569;de;;;2.4.;;;Virtuelles Pneumoperitoneum zur Erstellung virtueller laparoskopischer Ansichten basierend auf volumetrischer Verformung Dieser Artikel beschreibt eine Methode zur Erzeugung eines virtuellen Pneumoperitoneums basierend auf volumetrischer Deformation und ihre Anwendung auf die virtuelle Laparoskopie. Die laparoskopische Chirurgie wird heute weithin als minimal-invasive Operation durchgeführt. Da ein Laparoskop einen sehr engen Sichtbereich hat, schränkt dies den Sichtbereich des Chirurgen ein. Das Anfertigen von Ansichten, dass die Bauchdecke praktisch angehoben ist (virtuelles Pneumoperitoneum), ist für die intraoperative chirurgische Navigation oder die präoperative Operationsplanung sehr hilfreich. Wir verformen originale 3-D-CT-Bilder des Abdomens so, dass die Bauchdecke praktisch angehoben ist. Der gesamte Prozess besteht aus fünf Hauptschritten: (a) Extraktion der Bauchdecke, (b) elastische Modellierung, (c) elastische Verformung des Modells, (d) Verformung des Originalbildes und (e) Rendering virtueller laparoskopischer Bilder. Aus dem deformierten Bild werden dann virtuelle laparoskopische Bilder erzeugt. Wir haben die Methode auf drei Fälle von 3-D-CT-Bildern des Abdomens angewendet. Aus den experimentellen Ergebnissen bestätigten wir, dass die Bauchdecke durch das vorgeschlagene Verfahren angemessen angehoben wurde. Laparoskopische Ansichten waren für die intraoperative chirurgische Navigation als zusätzliche Ansichten eines Chirurgen oder zur präoperativen Operationsplanung sehr hilfreich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30136-3_69 6f7be1c2b459683ae755c02a12e17d05;de;;;2.4.;;;Hybrid-Energiespeicher-Trolley-Systemkonfiguration Optimierungsmethode unter Berücksichtigung der Gesamtlebenszykluskosten des gesamten Fahrzeugs Um die Parameter des Hybrid-Energiespeichersystems (HESS) basierend auf den typischen Arbeitsbedingungen des Trolleys zu konfigurieren, wird ein passendes Optimierungsverfahren des Hybrid-Energiespeicher-Trolleysystems unter Berücksichtigung der gesamten Lebenszykluskosten des Gesamtfahrzeugs vorgeschlagen. Das Verfahren etabliert ein multizielorientiertes und mehrfach eingeschränktes Konfigurationsoptimierungsmodell mit den niedrigsten Lebenszykluskosten (LCC) und dem kleinsten Volumen als Zielfunktion des Energiespeichersystems. Die Aufzählungsmethode wird verwendet, um das Modell mit mehreren Zielen und mehreren Nebenbedingungen zu lösen, um die Pareto-Grenze zu erhalten. Das empfohlene Schema mit akzeptablem Volumen und Wirtschaftlichkeit wird angegeben. Die Simulationsergebnisse zeigen, dass das konfigurierte Hybridsystem die Designanforderungen erfüllen kann. Nach der Optimierung sinken die Energiesystemkosten während des gesamten Fahrzeuglebenszyklus von 3,85 Millionen Yuan auf weniger als 1,5 Millionen Yuan, was einen wichtigen Referenzwert für die Konstruktion und den Betrieb der Hybrid-Energiespeicher-Straßenbahn darstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2862-0_29 97893c569e6033054c80be318419edd7;de;;;2.4.;;;Eine Online-Berechnungs-Datenerzeugungstechnologie für das Stromnetz, das in einen großen Windpark integriert ist Die großflächige Integration von Windparks führt zu einem komplexeren Stabilitätsmodus. Online-Sicherheits- und Stabilitätsanalysen sind erforderlich, um die neue Energieaufnahmekapazität und die Betriebseffizienz des Stromnetzes zu verbessern. Es wird eine Technologie zur Erzeugung von Online-Berechnungsdaten vorgeschlagen, um die dynamischen Eigenschaften von Windparks genau zu simulieren. Der Betriebszustand des Niederspannungsnetzes wird durch die Fusion von Echtzeitdaten aus mehreren Quellen aus Zustandsschätzung, SCADA und Sicherheits- und Stabilitätskontrollsystem identifiziert, um Betriebsmodusdaten zu bilden, die in Windparkcluster integriert sind. Das Korrekturmodell der räumlich-zeitlichen Korrelationsmessung wird verwendet, um schlechte Messdaten zu identifizieren und zu korrigieren, die von der Zustandsschätzung nicht behandelt werden. Die Clustering-Methode basierend auf dem Analytic Hierarchy Process (AHP) wird verwendet, um ein dynamisches Ersatzmodell von Windparks basierend auf statischen Eigenschaften und Betriebszuständen von Windkraftanlagen zu erhalten. Schließlich wurde die Wirksamkeit der Methode durch die Fälle des tatsächlichen Stromnetzes überprüft.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9746-6_50 cc84cde8cc929098fb2271dea5284330;de;;;2.4.;;;Forschung zum präzisen Management der landwirtschaftlichen Saison basierend auf Big Data Um das wissenschaftliche Management von Salz-Alkali-Land und das genaue Management der landwirtschaftlichen Produktion zu stärken, wurde eine wissenschaftliche Data Governance-Plattform für Salz-Alkali-Land entwickelt. Basierend auf der Datenakkumulation der Big-Data-Plattform wurde der Zusammenhang zwischen Weizenwachstum und Meteorologie als Forschungsgegenstand genommen. Dreizehn Variablen, darunter Atmosphärendruck, Temperatur, Licht und Niederschlag, wurden für die Korrelationsanalyse aus meteorologischen Oberflächendaten extrahiert und Temperatur, Niederschlag und Sonnenschein als charakteristische Variablen ausgewählt kategorisiert: akkumulierte Temperatur, Sonnenstunden und Temperatur. Schließlich werden die drei Indikatoren mit Monaten kombiniert, um ein Modell der landwirtschaftlichen Jahreszeit und des Wetters basierend auf Apriori zu erstellen. Die Ergebnisse zeigen, dass bei der Beurteilung der Anbausaison mit dem Monat als Index die Genauigkeit des Modells zwischen 78,81 und 100 % liegt. Wenn die Temperatur oder die akkumulierte Temperatur als Index zur Beurteilung der Winterweizenanbauzeit verwendet wird, liegt die Genauigkeit des Modells über 90%. Dies zeigt, dass eine genaue Analyse der landwirtschaftlichen Saison durch eine Big-Data-Korrelationsanalyse erreicht werden kann, die technische Unterstützung für die rechtzeitige Einführung der landwirtschaftlichen Produktion bietet.;-;-;-;https://link.springer.com/article/10.1186/s13638-018-1161-y df4073cbf9b3aff6cefe2f8c9e2b51cb;de;;;2.4.;;;Ein sequentielles dynamisches Mehrklassenmodell und rekursive Filterung durch Variational Bayesian Methods Die sich im Laufe der Zeit entwickelnde adaptive Klassifikation ist eine wichtige Lernaufgabe, die in vielen Anwendungen auftritt. In diesem Beitrag wird ein sequentielles dynamisches Mehrklassenmodell (SDMM) zur Darstellung der adaptiven Mehrklassenlernaufgabe vorgeschlagen, das auf dem polychotomen Antwortmodell und der dynamischen logistischen Regression basiert. Mehrere Zustandsketten im SDMM werden durch die beobachtbaren Labels und Merkmalsvektoren gekoppelt. Jede Zustandskette wird als ein Markov-Prozess erster Ordnung mit zeitvariablen Kovarianzparametern zur Charakterisierung des nichtstationären Erzeugungsprozesses von sequentiellen Labels modelliert. Zur Entwicklung effizienter Inferenzverfahren gemäß der beliebten Datenerweiterungsstrategie werden erweiterte Hilfsvariablen eingeführt. Zur rekursiven Schätzung der dynamischen Zustandsvariablen und der erweiterten Hilfsvariablen werden Variations-Bayes-Verfahren angewendet. Entsprechend den Ergebnissen rekursiver Filterverfahren unter Verwendung von Mean-Field-Approximationsformen werden One-Step-Ahead-Prognosen durch Marginalisierung der Zustandsvariablen berechnet. Experimentergebnisse basierend auf synthetischen und realen Daten zeigen, dass das vorgeschlagene Modell die nicht-sequentiellen statischen Methoden für die adaptiven Lernprobleme mit mehreren Klassen mit fehlenden Labels deutlich übertrifft. Ermutigende Ergebnisse wurden erzielt, indem gut bekannte Mehrklassen-Datenstromalgorithmen umfasst wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20841-6_25 60d7d586958f6d2a3524ea0b48d2a09a;de;;;2.4.;;;Im Hintergrund integriertes volumetrisches Modell für die patientenspezifische chirurgische Simulation: ein segmentierungsfreies, modellierungsfreies Framework Die patientenspezifische Operationssimulation stellt sowohl praktische als auch technische Herausforderungen. Wir schlagen ein segmentierungsfreies, modellierungsfreies Framework vor, das medizinische volumetrische Modelle für eine intuitive Volumendeformation und -manipulation in der patientenspezifischen chirurgischen Simulation erstellt.;-;-;-;https://link.springer.com/article/10.1007/s11548-010-0456-1 6f5d707346f426c08889aac58e065b3e;de;;;2.4.;;;Automatische Erkennung der topografischen Verteilung von EEG-Rhythmen durch iterative Anpassung des gemittelten Referenzpotentials Die Interpretation des Elektroenzephalogramms (EEG) ist wichtig für die Untersuchung von Hirnerkrankungen. In dieser Studie wurde eine automatische Technik entwickelt, um die topographische Verteilung von EEG-Rhythmen zu erkennen. Um die topographische Verteilung zu erhalten, wurde die Amplitude des EEG-Rhythmus anhand der referentiellen Ableitung analysiert, wobei das Referenzpotential iterativ angepasst wurde. Das Ergebnis der automatischen Erkennung der topographischen Verteilung war hilfreich, um die für die automatische EEG-Interpretation interessanten EEG-Rhythmen hervorzuheben. Die entwickelte Technik hat Anwendungsbedeutung für reale Kliniken.;-;-;-;https://link.springer.com/article/10.1007/s10015-011-0928-6 251cf67097b630dba5135dad29052bb5;de;;;2.4.;;;Methoden zur Quantifizierung der Informationsstruktur sensorischer und motorischer Daten Verkörperte Agenten (Organismen und Roboter) befinden sich in bestimmten Umgebungen, die von ihren Sensoren abgetastet werden und in denen sie motorische Aktivitäten ausführen. Ihre Steuerungsarchitekturen oder Nervensysteme kümmern sich um sensorische Stimulationsströme und verarbeiten diese und erzeugen schließlich Sequenzen motorischer Aktionen, die wiederum die Auswahl von Informationen beeinflussen. Somit werden sensorischer Input und motorische Aktivität kontinuierlich und dynamisch mit der Umgebung gekoppelt. In diesem Artikel schlagen wir vor, dass die Fähigkeit verkörperter Agenten, ihren sensorischen Input aktiv zu strukturieren und statistische Gesetzmäßigkeiten zu erzeugen, eine wichtige funktionale Begründung für die dynamische Kopplung zwischen sensorischen und motorischen Systemen darstellt. Statistische Regelmäßigkeiten in den multimodalen sensorischen Daten, die an das Gehirn weitergegeben werden, sind entscheidend für die Ermöglichung geeigneter Entwicklungsprozesse, wahrnehmungsbezogener Kategorisierung, Anpassung und Lernen. Um die Informationsstruktur sensorischer und motorischer Daten zu charakterisieren, stellen wir eine Reihe von uni- und multivariaten statistischen Maßen (verfügbar in einer begleitenden Matlab-Toolbox) vor und veranschaulichen sie. Wir zeigen, wie solche Messungen verwendet werden können, um die Informationsstruktur in sensorischen und motorischen Kanälen eines Roboters zu quantifizieren, der zu salienzbasiertem Aufmerksamkeitsverhalten fähig ist, und diskutieren ihre potenzielle Bedeutung für das Verständnis der sensomotorischen Koordination in Organismen und für das Roboterdesign.;-;-;-;https://link.springer.com/article/10.1385/NI%3A3%3A3%3A243 5a73c89a06e225789283fc0f6ec45776;de;;;2.4.;;;Ein Wavelet-basiertes Gesichtserkennungssystem mit partiellen Informationen Dieses Papier zielt darauf ab, einen teilbasierten Merkmalsextraktor zu integrieren, nämlich nicht negative Matrixfaktorisierung (NMF), lokale NMF und räumlich begrenzte NMF im Wavelet-Frequenzbereich. Die Wavelet-Transformation mit ihrer angenäherten Zerlegung wird verwendet, um das Rauschen zu reduzieren und eine Darstellung im Niederfrequenzbereich zu erzeugen, wodurch die Gesichtsbilder unempfindlich gegenüber Gesichtsausdruck und kleiner Okklusion werden. 75 % der Vollgesichtsbilder werden für Schulungen und Tests verwendet, da sie ausreichende Informationen enthalten, wie in einer früheren Studie berichtet. Unsere Experimente zu;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17277-9_44 a6af5a8c05980cbc5b11ba0a93dd04d0;de;;;2.4.;;;Datenimputation in EEG-Signalen zur Identifizierung von Gehirnabdrücken Elektroenzephalogramm (EEG)-Signale haben ein sehr niedriges Signal-Rausch-Verhältnis, können daher leicht beeinflusst werden und ändern sich innerhalb von Millisekunden. Normalerweise sollten Versuche mit übermäßigen Körperbewegungen oder anderen Arten von Artefakten mit einer Amplitude von mehr als 100 µV verworfen werden, um die Rauschflecken zu reduzieren. Es ist nicht ratsam, die betroffenen Funktionen zu verwerfen. Daher ist die Imputation fehlender Werte wesentlich, um unvollständige Daten zu vermeiden, die die Rechenleistung der Modellierung verschlechtern können. Daher schlägt dieses Papier ein Ähnlichkeits-Matching-Verfahren vor, um die fehlenden Werte in den EEG-Studien zu ersetzen. Die Grundidee der Imputation fehlender Werte basiert auf dem Ähnlichkeitsmaß zwischen den Versuchen. Die Versuche mit der höchsten Ähnlichkeit werden verwendet, um die fehlenden Werte für die zugehörigen EEG-Kanäle zu ersetzen. Statistische Auswertung und Klassifikationsauswertung werden verwendet, um die Zuverlässigkeit des vorgeschlagenen Ähnlichkeitsvergleichsverfahrens zu bewerten. Zur statistischen Auswertung werden Mittelwert, Varianz und Standardabweichung verwendet. Für die Klassifizierungsbewertung wird der Datensatz für die Brainprint-Identifizierung unter Verwendung des Incremental Fuzzy-Rough Nearest Neighbor (IncFRNN) klassifiziert. Die statistische Auswertung hat gezeigt, dass die vorgeschlagene Methode der Ähnlichkeitsvergleichs-Imputation vielversprechend ist, wenn die fehlenden Werte nicht aus denselben Kanälen stammen. Die Klassifikationsergebnisse erzielten mit 98,19 % Genauigkeit und 0,998 AUC die hervorragende Leistung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3648-5_31 18b86c45dc8c969959076bd63bf6681a;de;;;2.4.;;;Design und Implementierung eines Fuzzy Logic Controllers auf MPSoC FPGA für Rohrbündelwärmetauscher In diesem Beitrag wird das Design eines Fuzzy-Logic-Controllers (FLC) auf einem System-on-Chip-Field Programmable Gate Array (SoC FPGA) für Shell and Tube Heat Exchanger (STHE) beschrieben. STHE ist über eine Datenerfassungskarte (DAQ) mit einem Compact Reconfigurable Input Output (CRIO)-basierten FPGA verbunden. Für das Design von Controller-on-Chip wird CRIO-9101 von National Instruments (NI) mit FLC-Code rekonfiguriert. Die Anbindung erfolgt über ein analoges Ein-/Ausgabegerät von NI, das in den Mikrocontroller NI CRIO-9012 und das FPGA-Modul NI CRIO-9101 eingebettet ist. Zur Echtzeitsteuerung der Prozessanlage wird ein grafisches Programm mit CRIO-basiertem FPGA entwickelt. FPGA fungiert als eigenständiger Prozessor anstelle eines PCs zur Steuerung des STHE. Der auf FPGA ausgelegte Fuzzy-Logic-Controller wird bei der Echtzeit-Temperaturregelung von STHE mit Benchmark-Controllern verglichen. Es wird gezeigt, dass der vorgeschlagene Controller den herkömmlichen Controller übertraf.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9419-5_2 7f9a831ad63c8692c43d3353652fe891;de;;;2.4.;;;Vergleich der optischen Parameter von Hohlkathodenröhren im pulsperiodischen und kontinuierlichen Anregungsmodus excitation Die Betriebsbedingungen von Hohlkathodenrohren wurden analysiert und die Parameter der gepulsten Betriebsweise auf Basis physikalischer Prinzipien bestimmt. Die umfassende Bewertung der elektrischen und Emissionseigenschaften ermöglicht es, die Eigenschaften von im Pulsbetrieb arbeitenden Hohlkathodenröhren zu optimieren, um den maximalen Wert des Signal-Rausch-Verhältnisses zu erreichen.;-;-;-;https://link.springer.com/article/10.1007/s10786-005-0026-x 198c3f9b9f6113c25e4d8ae53cdeaef0;de;;;2.4.;;;Design und Entwicklung des Temperaturverarbeitungsmoduls im intelligenten Terminal des Internets der Dinge Dieses Papier zielt auf die Anforderungen des gemeinsamen Temperaturverarbeitungsmoduls im Anwendungssystem des Internets der Dinge ab. Die peripheren Ressourcen des Mikrocontrollers selbst sind relativ umfangreich und umfassen hauptsächlich die Schnittstellenanwendung und die Verwendung gewöhnlicher E/A. Der Kern des Mikrocontrollers dient als zentrales Steuerungshirn. Alle Arten von peripheren Sensoren werden verwendet, um Informationen zu sammeln, alle Arten von peripheren Schaltercontrollern werden verwendet, um das Schaltsignal zu steuern, alle Arten von Anzeigegeräten werden verwendet, um die Anzeigefunktion zu realisieren, und ein Ein-Chip-Mikrocomputer wird verwendet, um das zu berechnen und zu verarbeiten Informationen, um die Gesamtfunktion dieses Designs zu vervollständigen. Insbesondere verwendet dieses Design einen Einzelchip-Mikrocomputer, einen Temperatursensor, eine Taste, einen Summer, einen Anzeigebildschirm und andere Vorrichtungen, die auf einem 51 Einzelchip-Mikrocomputer-Temperaturdatenerfassungsfunktionsdesign basieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8411-4_273 5577c7c05dcc1ab4c2532de3de60141c;de;;;2.4.;;;Rollstuhlkontrollsystem basierend auf Elektromyographie Um Menschen mit körperlichen Behinderungen und Mobilitätsproblemen das Leben angenehmer und bequemer zu machen, entwickelt dieser Beitrag ein Rollstuhl-Operationssystem basierend auf Elektromyogramm. Dieses Design extrahiert vier verschiedene Gesten des menschlichen Körpers, um die vier Bewegungen des Rollstuhls zu steuern, nämlich vorwärts, rückwärts, links und rechts. Um die Sicherheit des Benutzers zu gewährleisten, verwendet dieses Design einen Ultraschall-Abstandssensor, um den Straßenzustand zu erkennen, Hindernissen rechtzeitig auszuweichen und den Rollstuhl sicher vorwärts zu bewegen. Dieses Design umfasst hauptsächlich die Erfassung, Analyse, Klassifizierung und Identifizierung von EMG-Signalen, drahtlose Übertragung, EMG-Signalverarbeitung, Rollstuhlsteuerungssystem, Sicherheitssteuerungssystem usw. Dieses Design hat die Vorteile einer einfachen Bedienung, hoher Sicherheit, eines stabilen Signals und einer starken Entstörung , etc.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-04585-2_41 fa2ae6db1fe58d6c16495e1418afc7fa;de;;;2.4.;;;Weiche Maskengenerierung mit fehlenden Funktionen für Roboter-Auditing Dieses Papier beschreibt eine Verbesserung der automatischen Spracherkennung (ASR) für Roboter-Auditing durch Einführung der Missing Feature Theory (MFT) basierend auf Soft Missing Feature Masks (MFM), um eine natürliche Mensch-Roboter-Interaktion zu realisieren. In einer alltäglichen Umgebung erfassen die Mikrofone eines Roboters neben den Äußerungen des Benutzers verschiedene Geräusche. Obwohl die Trennung von Schallquellen eine effektive Möglichkeit ist, die Äußerungen des Benutzers zu verbessern, führt sie unweigerlich zu Fehlern aufgrund von Reflexion und Nachhall. MFT ist in der Lage, mit diesen Fehlern umzugehen. Zuerst werden MFMs basierend auf der Zuverlässigkeit von Zeit-Frequenz-Komponenten erzeugt. Dann gewichtet ASR die Zeit-Frequenz-Komponenten gemäß den MFMs. Wir schlagen eine neue Methode vor, um automatisch weiche MFMs zu generieren, die aus kontinuierlichen Werten von 0 bis 1 basierend auf einer Sigmoidfunktion bestehen. Die vorgeschlagene MFM-Generation wurde für HRP-2 mit HARK, unserer Open-Source-Roboter-Audit-Software, implementiert. Vorläufige Ergebnisse zeigen, dass das weiche MFM ein hartes (binäres) MFM bei der Erkennung von drei gleichzeitigen Äußerungen übertraf. In einer Mensch-Roboter-Interaktionsaufgabe wurden die Intervallbegrenzungen zwischen zwei benachbarten Lautsprechern von 60 Grad auf 30 Grad reduziert, indem weiche MFMs verwendet wurden.;-;-;-;https://link.springer.com/article/10.2478/s13230-010-0005-1 38040f2bad9ef3867d3caa2cdc21b7d2;de;;;2.4.;;;Eine Vergleichsstudie zur Auswahl optimaler Skalenkombinationen in verallgemeinerten Multiskalen-Entscheidungstabellen Der traditionelle Grobsatzansatz wird hauptsächlich verwendet, um Regeln aus einer Entscheidungstabelle zu entwirren, in der Objekte einen eindeutigen Attributwert besitzen können. In einem realen Datensatz werden Objekte für die gleichen Attribute normalerweise in unterschiedlichen Maßstäben gemessen. Das Hauptziel dieser Arbeit ist es, optimale Skalenkombinationen in verallgemeinerten Multiskalen-Entscheidungstabellen zu untersuchen. Eine generalisierte Multiskalen-Informationstabelle ist ein Attribut-Werte-System, in dem verschiedene Attribute auf unterschiedlichen Skalenebenen gemessen werden. Mit dem Ziel, Wissensrepräsentation und Wissenserwerb in inkonsistenten generalisierten Multiskalen-Entscheidungstabellen zu untersuchen, führen wir zunächst den Begriff der Skalenkombinationen in einer generalisierten Multiskalen-Informationstabelle ein. Anschließend formulieren wir Informationsgranulate mit unterschiedlichen Skalenkombinationen in multiskaligen Informationssystemen und diskutieren deren Zusammenhänge. Darüber hinaus definieren wir untere und obere Approximationen von Mengen mit unterschiedlichen Skalenkombinationen und untersuchen ihre Eigenschaften. Schließlich untersuchen wir optimale Skalenkombinationen in inkonsistenten verallgemeinerten Multiskalen-Entscheidungstabellen. Wir klären Beziehungen zwischen verschiedenen Konzepten optimaler Skalenkombinationen in inkonsistenten verallgemeinerten Multiskalen-Entscheidungstabellen.;-;-;-;https://link.springer.com/article/10.1007/s13042-019-00954-1 daee6bff2655542baa8bd577f7e0e9c5;de;;;2.4.;;;Oberflächenenergiebilanz anhand von Satellitendaten für den Wasserhaushalt eines traditionellen Bewässerungs-Feuchtgebietssystems im SW Iran Ein Wasserhaushalt eines großen traditionellen Bewässerungsgebiets und eines flussabwärts angrenzenden Feuchtgebiets wurde mit dem Oberflächenenergiebilanzansatz (SEB) basierend auf Satellitendaten ermittelt, um die tatsächliche Verdunstung sowohl des bewässerten Gebiets als auch des Feuchtgebiets zu vier verschiedenen Zeitpunkten in a . zu berechnen Trockenjahr und Informationen zu zwei weiteren Bildern. Der Beitrag der Kapillarströmung durch den flachen Grundwasserspiegel wurde durch Auswertung der tatsächlichen Evapotranspirationswerte angrenzender Weidegebiete und nicht überschwemmter Feuchtgebiete geschätzt. Diese Werte wurden verwendet, um die Gesamtevapotranspiration in eine Komponente der Bodenfeuchtigkeitsänderung aufgrund des kapillaren Aufstiegs und in eine Komponente, die der Zufuhr von Flusswasser zuzuschreiben ist, aufzuteilen. Die einzigen Felddaten, die für die geschätzte monatliche Wasserbilanz verwendet wurden, waren Lufttemperatur, Windgeschwindigkeit und Wasserzufluss, da Niederschlag und Abfluss im Jahr 2000 vernachlässigt werden konnten. die Verteilung von Wasser an die Bewässerung und das Feuchtgebiet und zeigte den Zusammenhang zwischen überschwemmtem Feuchtgebiet und Abfluss.;-;-;-;https://link.springer.com/article/10.1007/s10795-005-4348-4 70c9a4fb341a798d3fc79a970a71dfb9;de;;;2.4.;;;Blinde Schätzung des Trägerfrequenz-Offsets für OFDM-Systeme auf Basis von Constant-Modulus-Signalisierung: Algorithmus-, Identifizierbarkeits- und Leistungsanalyse Die Schätzung des Trägerfrequenz-Offsets (CFO) ist für Übertragungen auf der Grundlage von orthogonalem Frequenzmultiplex (OFDM) kritisch. In diesem Beitrag stellen wir einen blinden CFO-Schätzer mit geringer Komplexität für OFDM-Systeme mit Constant-Modulus (CM)-Signalisierung vor. Es werden sowohl Single-Input-Single-Output- (SISO) als auch Multiple-Input-Multiple-Output-(MIMO)-Systeme berücksichtigt. Basierend auf der Annahme, dass der Kanal während der Schätzung konstant bleibt, beweisen wir, dass der CFO eindeutig und genau geschätzt werden kann, indem die Leistungsdifferenz der empfangenen Daten auf denselben Unterträgern zwischen zwei aufeinanderfolgenden OFDM-Symbolen minimiert wird, wodurch das Identifizierbarkeitsproblem sichergestellt ist. Inspiriert von der sinusförmigen Kostenfunktion wird die Kurvenanpassung verwendet, um unseren Algorithmus zu vereinfachen. Die Leistungsanalyse zeigt, dass der vorgeschlagene Schätzer asymptotisch unverzerrt ist und der mittlere quadratische Fehler (MSE) keine Fehleruntergrenze aufweist. Wir zeigen, dass dieses Blindschema auch auf ein MIMO-System angewendet werden kann. Numerische Simulationen zeigen, dass der vorgeschlagene Schätzer im Vergleich zu bestehenden Blindverfahren eine hervorragende Leistung bietet.;-;-;-;https://link.springer.com/article/10.1631/jzus.C0910150 0d651744b795e6d3aab09952f29af545;de;;;2.4.;;;Fusion-Kontextmodell basierend auf Benutzerszenario für Smart Service Heutzutage werden Smartphones im täglichen Leben ständig und wiederholt verwendet. Darüber hinaus können Smartphones mit verschiedenen Sensoren ausgestattet werden. Diese Funktionen nutzen die Funktionen des Smartphones. Die gesammelten Informationen werden zum Szenario abhängig von Zeit, Ort, Aktion basierend auf dem Fusion-Prozess gemacht. Dieses Papier schlägt ein Dienstempfehlungsmodell vor, das auf einem Benutzerszenario basiert, das Fusionskontextbewusstsein verwendet. Die Szenarien können helfen, die Situation eines Benutzers vorherzusagen und die Dienste im Voraus bereitzustellen. Auch Inhaltskategorien sowie der Inhaltstyp werden je nach Szenario bestimmt. Das Szenario ist eine Methode zur Bereitstellung des besten Dienstes sowie eine Grundlage für die Situation des Benutzers. Mit dieser Methode ein neues Servicemodell mit Kontextbewusstsein vorzuschlagen, ist das Ziel dieses Papiers.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27180-9_62 c259dc00b1ef7fecce5a69b7d5aeaa05;de;;;2.4.;;;Automatisierte Generierung neuer Konzepte aus dem allgemeinen Gameplaying In diesem Artikel schlagen wir Algorithmen vor, um explizite Konzepte aus allgemeinen Spielen zu extrahieren, und diese Konzepte sind nützlich, um die Semantik von Spielen zu verstehen, die das allgemeine Spiel als Forschungsbereich verwenden. General Game Playing ist eine Forschungsdomäne, um Spieler zu erfinden, die in der Lage sind, allgemeine Spiele ohne menschliches Eingreifen zu spielen. Es gibt viele Ansätze für das allgemeine Gameplay, zum Beispiel UCT, neuronale Netze und simulationsbasierte Ansätze. In diesen Ansätzen wird über den erfolgreichen Wissenserwerb berichtet. Generiertes Wissen ist jedoch in herkömmlichen Methoden nicht explizit. Wir extrahieren explizite Konzepte aus heuristischen Funktionen, die wir mit einem simulationsbasierten Ansatz erhalten. Konzepte zum Verständnis der Semantik von Tic-Tac-Toe werden durch unseren Ansatz generiert. Diese Konzepte sind auch verfügbar, um die Semantik von Connect Four zu verstehen. Wir schließen daraus, dass unser Ansatz auf allgemeine Spiele anwendbar ist und in der Lage ist, explizite Konzepte zu extrahieren, die von Menschen verstanden werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-05428-5_6 56f809fa9d69d4cc9d376910eca5cc86;de;;;2.4.;;;Studie zum Nachweis des Kartoffelstärkegehalts durch die Methode der optimalen hyperspektralen charakteristischen Wellenlänge In diesem Artikel wurde unter Verwendung der hyperspektralen Bildgebungstechnologie in Kombination mit einem Algorithmus zur Optimierung von Merkmalen die Methode zur schnellen Erkennung des Kartoffelstärkegehalts untersucht. Die spektrale Vorbehandlung verwendet 10 Methoden wie De-Trend und erste Ableitung, zweite Ableitung und so weiter. Durch vergleichende Analyse wird festgestellt, dass die Kombination aus De-Trend und erster Ableitung die beste ist. Die Spektraldaten, die durch die De-Trend-Methode kombiniert mit der Methode der ersten Ableitung vorverarbeitet wurden, wurden verwendet, um die charakteristischen Wellenlängenvariablen durch vier Algorithmen zu optimieren: Competitive Adaptive Reweighted Sampling (CARS), Random-Frog (RF), Iterative Reserved Information Variable (IRIV), und Intervall-Kombinationsoptimierung (ICO). Für die ausgewählten Kenngrößen wurden nacheinander die partiellen Regressionsmodelle der kleinsten Quadrate CARS-PLS, RF-PLS, IRIV-PLS und ICO-PLS erstellt. Die Ergebnisse zeigen, dass die Anzahl der durch den ICO-Algorithmus optimierten charakteristischen Wellenlängenvariablen mindestens 16 beträgt, die Vorhersagegenauigkeit des ICO-PLS-Modells die höchste ist, die bestimmenden Koeffizienten des Vorhersagesatzes 0,8255 betragen und der Fehler 0,1697 beträgt. Der ICO-Algorithmus ist ein neuer Algorithmus zur Verbesserung der Genauigkeit des Vorhersagemodells der Spektralerkennung. Es bietet theoretische Methoden und technische Unterstützung für die Untersuchung der Erkennungsgenauigkeit des Kartoffelstärkegehalts.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6318-2_22 5f8df26eba50741d9c062dfc2a4903e8;de;;;2.4.;;;Unüberwachte visuelle Hüllenrekonstruktion eines dichten Datensatzes In diesem Beitrag wird eine Methode zur Rekonstruktion eines Objekts Visual Hull (VH) vorgestellt. Eine Bildsequenz eines sich bewegenden Objekts unter unterschiedlichen Lichtverhältnissen wird erfasst und analysiert. Bei dieser Analyse werden Informationen aus mehreren Domänen (Raum, Zeit und Beleuchtung) basierend auf einem MRF-Framework zusammengeführt. Der Vorteil des vorgeschlagenen Verfahrens besteht darin, dass es ermöglicht, eine Annäherung an ein 3D-Objektmodell ohne Annahmen über das Aussehen oder die Geometrie des Objekts zu erhalten. Realdatenexperimente zeigen, dass der vorgeschlagene Ansatz eine robuste VH-Rekonstruktion einer Vielzahl von anspruchsvollen Objekten wie einem transparenten Weinglas oder einer Glühbirne ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25117-2_16 a10b3b59516b1532a217d9d5ac32c04d;de;;;2.4.;;;Risikobasierte Modelle des Angreiferverhaltens in der Cybersicherheit Auch wenn die Abhängigkeit von Netzwerken der Informations- und Kommunikationstechnologie weiter wächst und ihre potenziellen Sicherheitslücken zu einer größeren Bedrohung werden, ist sehr wenig über die Menschen bekannt, die Cyberangriffe verüben – was sind ihre Strategien, Ressourcen und Motivationen? Wir präsentieren ein neues Framework zur Modellierung solcher Cyber-Angreifer. Mithilfe von beobachtbaren Informationen (d. h. Netzwerkwarnungen, Sicherheitsimplementierungen, Systemprotokolle) können wir Angreifer anhand des Risikos charakterisieren, das sie eingehen möchten, und sie basierend auf ihrem Können abgrenzen. Diese Klassifizierungen können die Entscheidungsfindung und Ressourcenzuweisung erleichtern, um Cybersicherheitsvorfällen entgegenzuwirken. Wir betrachten zwei spezifische Modelle des Angreiferrisikos und diskutieren empirische Ergebnisse einer prototypischen Implementierung dieses Modellierungs-Frameworks mit realen Netzwerkdaten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37210-0_57 af23f7ec0706693b0eca22f82fcd0349;de;;;2.4.;;;Mehrsprachige Sprachsteuerung für endoskopische Verfahren In diesem Beitrag wird eine Lösung vorgestellt, um den Arbeitsablauf aktueller endoskopischer Untersuchungen zu verbessern. Diese Untersuchungen erfordern komplexe Verfahren, wie z. B. das Betätigen von Knöpfen mit beiden Händen und das gleichzeitige Drücken eines Fußpedals, um einfache Aufgaben wie die Aufnahme von Bildern für die posteriore Analyse durchzuführen. Zusätzlich zu diesem Nachteil friert das Aufnehmen von Frames das Video ein. Das entwickelte Softwaremodul wurde in die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19656-5_33 a615f15e494972f22e58a4b456b96ff5;de;;;2.4.;;;Untersuchung und Analyse des Frage-Antwort-Verhaltens von Lehrern im Englischunterricht an Hochschulen In Anlehnung an die Methode der natürlichen Untersuchung wählt die Arbeit als Beispiel Videos von exquisiten Kursen auf nationaler Ebene von sechs verschiedenen Universitäten aus. Es analysiert und diskutiert die Daten in vier Aspekten: Initiierung der Befragung, Warten auf die Antwort, Verteilung der Antwort, Antwort der Antwort. Das Ergebnis der Forschung zeigt, dass ein effektives Frage-Antwort-Verhalten in der Lehre hilfreich ist, um die Studierenden zur Teilnahme an den kommunikativen Aktivitäten zu ermutigen und zu lenken und dem Spracherwerb zuträglich ist. Das vorliegende Papier zieht einige Implikationen für Lehrer, um die Fähigkeiten des Frage-Antwort-Verhaltens im Englischunterricht an Colleges zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23023-3_16 55de98cfb4c68a29818a4f36c70b19c9;de;;;2.4.;;;Ausbalancieren der Geschäftsperspektiven in der Anforderungsanalyse In modernen Organisationen entspricht die Entwicklung eines Informationssystems den strategischen Bedürfnissen des Unternehmens. Als solche muss es gleichzeitig an Software und Unternehmenszielen ausgerichtet werden. Die Erfassung seiner Anforderungen ist eine komplexe Aufgabe, da es mit einer Vielzahl unterschiedlicher und möglicherweise widersprüchlicher Bedürfnisse zurechtkommt. In diesem Papier schlagen wir einen neuen konzeptionellen Rahmen für die Modellierung und Validierung von Anforderungen vor, der auf der Theorie der Wirtschafts- und Geschäftsstrategie basiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14819-4_4 cba9cc85b0d9f91e474c17517f73ad7b;de;;;2.4.;;;Zusammensetzung von Holzarten in einem dynamischen Wald-Wald-Savanne-Mosaik in Uganda: Implikationen für Schutz und Management Wald-Wald-Savanne-Mosaiken sind ein gemeinsames Merkmal in der ostafrikanischen Landschaft. Um die in solchen Landschaften vorkommenden Gehölze zu erhalten, müssen die Artenmuster und die sie erhaltenden Faktoren verstanden werden. Wir untersuchten die Verbreitung von Gehölzen in einem Wald-Wald-Savanne-Mosaik im Budongo Forest Reserve, Uganda. Die vorhandenen Vegetationsgradienten wurden anhand von Daten von insgesamt 591 Parzellen von 400 bzw. 500 m² analysiert;-;-;-;https://link.springer.com/article/10.1007/s10531-005-1876-z cf29a76b38c312e349e7dfe493128f55;de;;;2.4.;;;Fahrzeugverfolgung mit der High Dynamic Range-Technologie Die Fähigkeiten der Fahrzeugverfolgungssysteme, die auf der Datenerfassung von einer einzigen Kamera mit einer linearen Verarbeitungscharakteristik basieren, sind durch den Bereich der zu einem bestimmten Zeitpunkt erfassten Lichtstrahlung begrenzt. Unter Berücksichtigung der Tatsache, dass unterschiedliche Fahrzeuge, die auf einem einzelnen Videobild vorhanden sind, sowohl unter- als auch überbelichtet sein können (insbesondere bei stark reflektierenden Oberflächen im Sonnenlicht), sind ihre Unterscheidungsmöglichkeiten begrenzt. Der Beitrag stellt eine Methode zur Fahrzeugverfolgung mit gleichzeitiger Aufnahme von Videobildern mit unterschiedlichen Belichtungsparametern vor. Neben der Änderung einer Einzelkamerabelichtung ist insbesondere für weit entfernte Objekte auch eine Doppelkameravariante möglich, bei der die Verschiebung beider gleichzeitig aufgenommener Bilder vernachlässigbar ist. Das vorgeschlagene Verfahren verwendet eine modifizierte Track-Before-Detect-Technik mit zusätzlicher Datenfusion, um die High-Definition-Range-Bilder zu erhalten, die für die Verfolgung von Fahrzeugen verwendet werden, die auf den Bildern als Objekte mit unterschiedlicher Helligkeit und Größe dargestellt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24660-9_20 48664fa4d38917063edb55d684bdb53f;de;;;2.4.;;;Auktionen, Evolution und Multi-Agent-Lernen Seit einigen Jahren arbeiten wir auf das Ziel hin, Auktionsmechanismen automatisch zu erstellen, indem wir eine Reihe von Techniken des evolutionären und multiagenten Lernens verwenden. Dieser Beitrag gibt einen Überblick über diese Arbeit. Der Beitrag stellt Ergebnisse aus mehreren von uns durchgeführten Experimenten vor und versucht, diese in den Kontext der Gesamtaufgabe zu stellen, mit der wir uns beschäftigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77949-0_14 4e7281403a62ce05de2f6e5505967d50;de;;;2.4.;;;Olive Dreams of Elephants: Spielbasiertes Lernen für die Schulreife und Vorkompetenz bei kleinen Kindern Die Schulreife bleibt eine große Herausforderung im Bildungssystem der Vereinigten Staaten. Die Forschung zeigt durchweg signifikante Unterschiede bei den Vorkompetenzen und dem Spracherwerb, basierend auf der sozioökonomischen Klasse, die sich innerhalb der ersten 18 Monate der Kindheit herausbildet. Gleichzeitig nimmt auch bei sehr kleinen Kindern der Zugang zu Mediengeräten wie Smartphones und Tablets zu. Neue Richtlinien legen nahe, dass Personen ab zwei Jahren diese Art von Geräten bis zu zwei Stunden am Tag sicher verwenden können. Effektive pädagogische Interventionen für Vorschulkinder wurden unter Verwendung einer Vielzahl von Medien entwickelt, einschließlich Computerspielen, was darauf hindeutet, dass frühere Interventionen sowohl möglich als auch effektiv sein können. Wir beginnen mit einem kritischen Kontext, der die Bedeutung des frühkindlichen Spracherwerbs für zwei- bis dreijährige Kinder berücksichtigt. Dann präsentieren wir einen Science-Fiction-Prototyp, der die Möglichkeiten eines ausgeklügelten Systems zur Verbesserung der Schulreife und der Bildungs- und Wirtschaftschancen erforscht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-41769-1_13 382b2bb239a60094b1c00e8aa1bc9778;de;;;2.4.;;;Phasen-Mehrwegerkennung und ihre Auswirkung auf die Positionierung basierend auf Multi-GNSS Der Mehrwegeeffekt ist eine der Hauptfehlerquellen der Positionierung des Globalen Satellitennavigationssystems (GNSS). Aufgrund der Komplexität des Mehrwegeeffekts im Zeit- und Raumbereich kann der Fehler jedoch selbst bei der Verbesserung mehrerer Systeme durch herkömmliche Verfahren nicht beseitigt werden. Nichtsdestotrotz wird der Mehrwegeeffekt unterschiedliche Auswirkungen auf Trägerphasenbeobachtungen bei unterschiedlichen Frequenzen haben, und das Träger-Rausch-Leistungsdichte-Verhältnis (C/N0) kann diesen Effekt widerspiegeln. Basierend auf dieser Grundidee haben Wissenschaftler zwei Arten von Mehrwegeerkennungsverfahren vorgeschlagen: das Referenzfunktionsverfahren und das Doppelstatistikverfahren. Es gibt erhebliche Unterschiede zwischen den Konstellationen und dem Signal verschiedener Systeme, es ist notwendig, die unterschiedlichen Ergebnisse der Zuverlässigkeit jedes Systems zu demonstrieren und dann die Durchführbarkeit der Verwendung des Phasen-Mehrwege-Erfassungsverfahrens zur Verbesserung der Positionierungsgenauigkeit zu untersuchen. Die experimentellen Ergebnisse zeigen, dass nach Korrektur zweier Methoden die Positioniergenauigkeit deutlich verbessert ist und die Verbesserung in N- und E-Richtung relativ schwach ist, aber die Verbesserung in U-Richtung ist besonders deutlich: die Genauigkeit der Referenzfunktionsmethode Korrektur um 56,00 % erhöht und die Verbesserung der doppelten statistischen Methode Korrektur beträgt 63,19 %. Gleichzeitig können diese beiden Methoden nicht nur auf den statischen, sondern auch auf den dynamischen Echtzeitbereich angewendet werden, was eine neue Idee für die Untersuchung von Phasen-Mehrwege bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3711-0_27 cc645a41fc636979d7e5fdc2904277bc;de;;;2.4.;;;Entwicklung von durch dielektrische Verluste dominierten elektromagnetischen Mustern in magnetischen Absorbern für verbesserte Mikrowellenabsorptionsleistungen Als wachsendes Kriterium für Absorptionsmaterialien für elektromagnetische Wellen (EMW) ziehen magnetische Materialien im Mikro-/Nano-Maßstab aufgrund ihrer einzigartigen Eigenschaften im Vergleich zu sperrigen Absorbern immer mehr Aufmerksamkeit auf sich. Im Allgemeinen variiert die komplexe Permeabilität von magnetischen Absorbern im Mikro-/Nano-Maßstab in einem relativ engen Bereich, was auch immer für die Speicherung von magnetischer Energie oder die Ableitung von magnetischer Energie gilt. Wenn ja, ist noch unklar, wie sich die kleine Variation der Permeabilität auf die endgültigen Leistungen auswirkt. Hier wird eine Strategie der Regulierung elektromagnetischer Parameter für magnetische Materialien angewendet, um den Verlustbeitrag in magnetischen Absorbern im Mikro-/Nanobereich zu verstehen. Nach der Analyse der Entwicklung elektromagnetischer Karten von zehn Ferrosoferrioxid-Proben kann festgestellt werden, dass der Verlustbeitrag der Permeabilität für magnetische Materialien trotz seiner bedeutenden Rolle bei der Bestimmung der Impedanzanpassungseigenschaften geringer ist als der der Permittivität. Zusammenfassend untersucht diese Arbeit erstmals systematisch den Verlustbeitrag in mikro-/nanomagnetischen Absorbern, der für die Auslegung und Optimierung der Mikrowellenabsorptionseigenschaften magnetischer Absorber von großer Bedeutung ist.;-;-;-;https://link.springer.com/article/10.1007/s12274-021-3327-x d8168289e63c79b8ef67b79c7612ac66;de;;;2.4.;;;Ein hybrider SAE- und CNN-Klassifikator für die motorische Bildgebung EEG-Klassifizierung Die Erforschung der EEG-Klassifikation ist von großer Bedeutung für die Anwendung und Entwicklung von Gehirn-Computer-Schnittstellen. Die Realisierung der Gehirn-Computer-Schnittstelle hängt von der guten Genauigkeit und Robustheit der EEG-Klassifikation ab. Da die elektrische Kapazität des Gehirns anfällig für Störungen durch Rauschen und andere Signalquellen (EMG, EEG, EKG usw.) ist, ist es schwierig, die Genauigkeit des EEG-Klassifikators zu verbessern und hat eine sehr geringe Generalisierungsfähigkeit. Zur Merkmalsextraktion und Klassifikation von motorischen Bildelektroenzephalogramm-(EEG)-Signalen wird eine neuartige Methode vorgeschlagen, die auf Sparse Autoencoder (SAE) und Convolutional Neural Network (CNN) basiert. Die Leistungsfähigkeit der vorgeschlagenen Methode wird mit realen EEG-Signalen von verschiedenen Probanden bewertet. Die experimentellen Ergebnisse zeigen, dass die Netzwerkstruktur bessere Klassifizierungsergebnisse erzielen kann als andere Klassifizierungsalgorithmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-91189-2_26 6391ec82a6c60878d0690d6f3c79cc55;de;;;2.4.;;;Ein neuer Fuzzy-basierter Entscheidungsalgorithmus zur Entfernung von Impulsrauschen mit hoher Dichte Dieser Artikel schlägt einen neuen effizienten Fuzzy-basierten Entscheidungsalgorithmus (FBDA) für die Wiederherstellung von Bildern vor, die mit hoher Dichte an Impulsrauschen verfälscht sind. FBDA ist ein Fuzzy-basierter Median-Switching-Filter, bei dem die Filterung nur auf beschädigte Pixel im Bild angewendet wird, während die unverfälschten Pixel unverändert bleiben. Der vorgeschlagene Algorithmus berechnet das Differenzmaß für jedes Pixel basierend auf dem zentralen Pixel (beschädigten Pixel) in einem ausgewählten Fenster und berechnet dann den Zugehörigkeitswert für jedes Pixel basierend auf der höchsten Differenz. Der Algorithmus eliminiert dann diejenigen Pixel aus dem Fenster mit sehr hohen und sehr niedrigen Zugehörigkeitswerten, die das Impulsrauschen darstellen könnten. Der Medianfilter wird dann auf die verbleibenden Pixel im Fenster angewendet, um den wiederhergestellten Wert für die aktuelle Pixelposition zu erhalten. Der vorgeschlagene Algorithmus liefert hervorragende Ergebnisse im Vergleich zu herkömmlichen Methoden wie dem Standard-Medianfilter (SMF) sowie einigen fortgeschrittenen Techniken wie adaptive Medianfiltern (AMF), effizienter entscheidungsbasierter Algorithmus (EDBA), verbesserter effizienter entscheidungsbasierter Algorithmus (IDBA .). ) und einen grenzdiskriminativen Rauschdetektions-(BDND)-Umschalt-Medianfilter. Die Effizienz des vorgeschlagenen Algorithmus wird anhand verschiedener Standardbilder bewertet. Aus experimentellen Analysen wurde festgestellt, dass FBDA sowohl in Bezug auf quantitative Messgrößen wie PSNR, SSIM, IEF als auch qualitative Messgrößen wie den Image Quality Index (IQI) bessere Ergebnisse liefert.;-;-;-;https://link.springer.com/article/10.1007/s11760-010-0186-4 a2d2c22ae2b23632f0b21ceb844bf6d5;de;;;2.4.;;;Design der Aktion eines Roboterarms, um den Mechanismus des Bewusstseins eines Tieres zu imitieren Wir versuchen, ein System zu entwickeln, das es einem Benutzer ermöglicht, Roboter eine intellektuelle Handlung ausführen zu lassen, die sich heilend und freundlich anfühlt. Basierend auf dem Entwicklungsprozess des Handelns und Bewusstseins von Tieren haben wir ein Strukturmodell konstruiert, das Bewusstsein und Handeln hierarchisch verbindet, eine Bewertungsfunktion zur Handlungsauswahl aufgebaut und eine Software zur Steuerung der Aktion eines Roboters entwickelt. Diese Software heißt Consciousness-Based Architecture (CBA). Unser Ziel ist es dabei, Benutzer und Roboter so eng wie möglich zu verbinden und eine reibungslose Kommunikation zwischen ihnen zu ermöglichen, indem wir ein emotionales System entwickeln, das das Bewusstsein wahrnimmt. In unserem System ist der Finger des Roboterarms mit einer kleinen Webkamera ausgestattet, die es dem Arm ermöglicht, externe Informationen zu erkennen, sodass der Roboter verschiedene Aktionen auswählen kann, die bestimmten Faktoren in der äußeren Umgebung entsprechen. Darüber hinaus stellt das von uns gebaute System durch die Verwendung des Aktuators des Roboterarms eine Korrespondenz zwischen den internen Zuständen des Roboters, wie dem Grad des Drehwinkels, und der Außentemperatur her. In der vorliegenden Studie wurde ein Motivationsmodell, das die äußere Umgebung und die inneren Zustände berücksichtigt, in die CBA eingebaut und das Verhalten des Roboterarms verifiziert.;-;-;-;https://link.springer.com/article/10.1007/s10015-010-0869-5 b25e5d863f3f626dc7883177beb5ee5f;de;;;2.4.;;;Zeitliche Einschränkungen für die Objektmigration und Verhaltensmodellierung mit farbigen Petrinetzen In Datenbanken, die auf einem objektorientierten Datenmodell mit mehreren Aspekten basieren, das es ermöglicht, mehrere Aspekte einer realen Entität darzustellen und dynamisch zu erfassen/zu verlieren, tritt die Objektmigration (OM) auf, die die Mitgliedschaftsbeziehungen zwischen einem Objekt und Klassen aktualisiert, die Eigenschaften des Objekts verändern sich während seiner Lebensdauer. Um ein Objekt in OM konsistent zu halten, führt dieses Dokument zeitliche Konsistenzbeschränkungen ein, wie z. B. zeitliche Übergangsbeschränkungen und zeitliche Multiplizitätsbeschränkungen, indem OM-Konsistenzbeschränkungen für Snapshot-Datenbanken erweitert werden. Zu diesem Zweck wird jedem Aspekt eines Objekts ein Zeitintervall angehängt, um seine Dauer in der realen Welt darzustellen. Dann werden zeitliche Übergangsbeschränkungen durch Übergangsregeln mit Bedingungen dargestellt, die sich auf zeitliche Intervalle beziehen. Zusätzlich werden zeitliche Multiplizitätsbeschränkungen durch Objektschemata dargestellt. Darüber hinaus schlägt das Papier eine OM-Verhaltensmodellierung unter Verwendung von Colored Petri Nets (CPN) basierend auf zeitlichen Konsistenzbeschränkungen vor.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45393-8_7 071f6e35f207a74c57609caa94cb34d5;de;;;2.4.;;;Einige Fragen der Logistik bei holonischen Produktionssystemen Der Beitrag fasst die logistischen Grundlagen holonischer Produktionssysteme (HPSs) zusammen. Es skizziert die aus logistischer Sicht wesentlichen Merkmale von HPSs und die Anforderungen, die für ein gegebenes holonisches System zu erfüllen sind, und skizziert die Steuerung des Logistiksystems für ein HPS. Das Papier beschreibt auch die logistischen Aufgaben eines gemeinsamen Servicezentrums, seinen Betriebsbereich und die erzielbaren Vorteile im Zuge seiner Anwendung. Der zweite Teil des Beitrags beschäftigt sich mit einigen Optimierungsproblemen der Einkaufslogistik. Schließlich weist das Papier auf die Einsparungen durch Optimierung der Einkaufslogistik hin.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008859711052 3a545abe68eaf59ddd9002b3037013d7;de;;;2.4.;;;Bau- und kletterbasiertes visuelles Navigations-Framework für selbstfahrende Autos Dieses Papier schlägt eine visuelle Navigationsstrategie für selbstfahrende Autos vor, die auf einer Straße mit konstanter Breite fahren. Die Aufgabe besteht darin, ein Straßenbild mit Informationen aus mehreren Elementen zu verarbeiten, um den Weg zu planen und die Grundlage für Beschleunigung und Verzögerung bereitzustellen. Gängige Straßenelemente sind Gerade, Kurve, Rampe und Kreuzung. Wir schlagen ein neuartiges Navigationsframework (BCVN) vor, das die visuelle Navigationsaufgabe explizit in Navigationslinienextraktion, Abweichungsberechnung und Krümmungsberechnung zerlegt. Die Kernidee der Navigationslinienextraktion ist Building-Climbing. Bauen ist das Bauen von Fundamenten mit einer kleinen Anzahl aufeinanderfolgender Punkte. Klettern ist das Besteigen von Punkten auf der Grundlage der Fundamente. Bauen und Klettern werden beide auf der Suche nach bilateralen Kanten verwendet. Die Abweichungsberechnung verwendet die Methode der dynamischen Gewichtung für selbstfahrende Autos, um die Lenkung zu steuern. Die Krümmungsberechnung dient dazu, einen geeigneten Wert für ein selbstfahrendes Auto zu erhalten, um eine Beschleunigungs- und Verzögerungssteuerung zu erreichen. Wir verwenden den Algorithmus der kleinsten Quadrate, um die Suche nach bilateralen Kanten und die Berechnung der Krümmung zu unterstützen. Wir beschreiben unsere Echtzeit-Implementierung des BCVN-Frameworks, der Methode des dynamischen Gewichts und des Building-Climbing. Wir testen die Strategie auf der Plattform für selbstfahrende Autos, die eine starke Anpassungsfähigkeit und hohe Effizienz aufweist.;-;-;-;https://link.springer.com/article/10.1007/s11036-017-0976-9 3bf53ebe59a340624abbffefa8ede743;de;;;2.4.;;;Detaillierte Daten des Stauexperiments Wir zeigen detaillierte Daten von zwei Stauversuchen auf einem Rundkurs. In den Versuchen entsteht spontan ein Stau ohne Engpässe. Wir haben die Natur des Potenzgesetzes in Zeitreihen mit durchschnittlicher Geschwindigkeit gefunden und auch festgestellt, dass die homogene Strömung mit großer Geschwindigkeit vorübergehend erzeugt wird, bevor ein Staucluster gebildet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77074-9_41 3ff5cfdbdfb8ced7da5bf2a7805a51fc;de;;;2.4.;;;Unterscheidungsmerkmale im Real-Life-Engineering verfolgen Echtzeit-Tracking-Filterung und Differenzierungsschätzung von Signalen werden üblicherweise in der Rückkopplungssteuerung, der Fehlererkennung und -isolierung und vielen anderen Gebieten verwendet. In früheren Arbeiten haben wir den zeitoptimalen steuerungsbasierten Tracking-Differentiator detailliert vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9384-0_7 8f6d1276f6d8b68fd04db83b41abb586;de;;;2.4.;;;Design von Quadrotor Automatic Tracking UAV basierend auf OpenMV Der 32-Bit-Mikrocontroller TM4C123G von TI wird in diesem Design als zentraler Steuerungschip verwendet. Die vom OpenMV-Bildverarbeitungsmodul erfassten Daten werden vom kaskadenförmigen PID-Regelalgorithmus in Kombination mit dem Dynamikmodell der Drohne berechnet und verarbeitet. In dieser Arbeit wird die Lage und Steuerung des Quadrotor-UAV untersucht. Es entsteht ein intelligentes Fahrzeug mit den Eigenschaften Umgebungswahrnehmung, automatische Verfolgung, Entscheidungsfindung und autonomes Fliegen, das die Designanforderungen erfüllt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8599-9_21 3f1e4d5b3c3e5df538de2ea3acf93bbc;de;;;2.4.;;;Restrukturierung grober Sets für Fuzzy Random Data der Creative City Evaluation In diesem Beitrag stellen wir die Restrukturierungsmethode grober Sets zur Analyse von Fuzzy-Zufallsdaten vor, die viele Experten kreativer Städte bewerten. Normalerweise ist es schwierig, die Situation zu klären, in der Zufälligkeit und Unschärfe gleichzeitig existieren. In diesem Beitrag wird eine Methode vorgestellt, die auf Fuzzy-Zufallsvariablen basiert, um einen groben Satz neu zu strukturieren. Die Algorithmen der groben Menge werden verwendet, um zu unterscheiden, ob eine Untermenge in die Objektmenge eingeordnet werden kann oder nicht, basierend auf dem Konfidenzintervall. Der Erwartungswert-Ansatz wird auch angewendet, um den Fuzzy-Wert mit Wahrscheinlichkeit in einen skalaren Wert umzurechnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11960-6_48 63408ca39dc58fc6c2d18651b3157adb;de;;;2.4.;;;Emotionsschätzsystem basierend auf dem Satzmuster des Auftretens von Emotionen Der Ansatz der Emotionsschätzung aus dem konventionellen Text diente hauptsächlich der Schätzung des oberflächlichen Emotionsausdrucks. Emotionen können jedoch in der Äußerung des Menschen enthalten sein, auch wenn Emotionsausdrücke nicht darin enthalten sind. In diesem Artikel haben wir einen Emotionsschätzungsalgorithmus für Konversationssätze vorgeschlagen. Wir haben 1616 Satzmustern die Regeln des Auftretens von Emotionen gegeben. Darüber hinaus haben wir ein Wörterbuch entwickelt, das aus emotionalen Wörtern und emotionalen Redewendungen besteht. Das vorgeschlagene Verfahren kann Emotionen in einem Satz schätzen, indem es das Satzmuster des Auftretens von Emotionen und die Regel abgleicht. Darüber hinaus können wir zwei oder mehr Emotionen in den Satz aufnehmen, indem wir den Emotionsparameter berechnen. Wir haben das Experimentsystem basierend auf der vorgeschlagenen Methode zur Auswertung konstruiert. Wir analysierten Weblog-Daten mit 253 Sätzen des Systems und führten das Experiment durch, um die Genauigkeit der Emotionsschätzung zu bewerten. Als Ergebnis haben wir eine Schätzgenauigkeit von ca. 60 % erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-37275-2_113 8d1c0fdf19c59ed000260bd7355a2891;de;;;2.4.;;;Expertensysteme mit Fuzzy-Logik Wir zeigen, wie die von L.A. Zadeh entwickelte Theorie des approximativen Denkens ein natürliches Format für die Darstellung des Wissens und die Durchführung der Schlussfolgerungen in regelbasierten Expertensystemen bietet. Wir erweitern die Darstellungsfähigkeit dieser Systeme, indem wir eine neue Struktur für die Aufnahme von Regeln bereitstellen, die nur die Erfüllung einer Teilmenge der vorausgehenden Bedingungen erfordern. Dies wird durch die Verwendung von Fuzzy-Quantoren erreicht. Wir stellen auch eine Methodik für die Einbeziehung einer Form von Unsicherheit in die Expertensysteme bereit, die mit der den Daten- und Produktionsregeln zugeschriebenen Überzeugung verbunden ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-3640-6_2 96abdc383d86b5dcf5cf2266c101a821;de;;;2.4.;;;Eine Methode zur Änderung von Informationen, die aus einem TM-Fernerkundungsbild aus der Uran-Minenbasis extrahiert wurden Die spektralen Eigenschaften sind je nach Mineralstoff unterschiedlich, daher beziehen sich die Alterationsinformationen von Fernerkundungsbildern auf die geologischen Strukturmerkmale des Mineralstoffs. Die Extraktion von Alterationsinformationen aus Fernerkundungsbildern, die dazu beitragen, zu bestätigen, was aus geologischer Struktur und metallogenem Material im Grabungsgebiet besteht, und wie die Alterationsinformationen extrahiert werden, ist für die Prospektion von entscheidender Bedeutung. Dieses Papier schlug eine Methode vor, um die Alterationsinformationen der Uranmine zu extrahieren. In unserer Methode wurden die geologische Struktur von Uran und Ferndaten im Detail analysiert, dann mit der Bandverhältnismethode und der Hauptkomponentenanalyse (PCA) zu einem TM-Fernerkundungsbild, das um den negativen Effekt zu eliminieren, da die Änderungsinformationen durch den Vegetationsindex hybridisiert sind, die letzte Verbesserung der Änderungsinformationen von Enhydrit auf einem Fernerkundungsbild. Unser Experiment zeigt, dass die abnorme Alteration auf der nordwestlichen porphyroklastischen Lava und im Norden des westlichen im JiangXi Provence XiangShan Uranerzfeld durch hydrothermalen Wasserglimmer verursacht wurde, der wichtige Auswirkungen auf die Uransuche hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39479-9_60 768fd260ee5960b660c44d59b432af3b;de;;;2.4.;;;Ein verbesserter Zustandskohärenz-Transformationsalgorithmus für die Ortung von Doppelmikrofonen mit mehreren Quellen Dieses Papier schlägt eine neue Kernelfunktion in der Zustandskohärenztransformation vor, um eine Mehrfachzeitdifferenz-Ankunftsschätzung durchzuführen, um die Ortsauflösung bei der blinden Quellentrennung im Frequenzbereich zu erhöhen. Die jeder Quelle zugeordnete Zustandskohärenztransformation verallgemeinert den GCC für mehrere Quellen und erzeugt Hüllkurven mit klaren Spitzen, die den TDOAs mit maximaler Wahrscheinlichkeit entsprechen. Die Gewichtszuweisung der Kernelfunktion ist jedoch für Mikrofone mit kleinem Abstand unangemessen. Wir schlagen eine verbesserte Kernelfunktion vor, um die Auflösung kleiner Werte zu verbessern, was bedeutet, dass kleineren Werten ein größeres Gewicht zugewiesen wird. Experimentelle Ergebnisse zeigen, dass der vorgeschlagene Ansatz die Trennung von vier Sprechern unter Verwendung sehr kurzer Äußerungen in einer stark nachhallenden Umgebung selbst mit Mikrofonen mit geringem Abstand von 2 cm ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6504-1_130 a034b6eedb7bdfab94688a11cc45f224;de;;;2.4.;;;Informationstheoretische Methoden zur diffusionsgewichteten MRT-Analyse Konzepte aus der Informationstheorie werden seit mehreren Jahrzehnten in der Bildverarbeitung, Computer Vision und medizinischen Bildanalyse weit verbreitet. Die am weitesten verbreiteten Konzepte sind die der KL-Divergenz, der minimalen Beschreibungslänge (MDL) usw. Diese Konzepte wurden im Volksmund für die Bildregistrierung, Segmentierung, Klassifizierung usw. verwendet Center for Vision, Graphics & Medical Imaging an der University of Florida, das Konzepte aus der Informationstheorie aufgreift und sie zur Analyse von diffusionsgewichteten Magnetresonanzdaten (DW-MRI) anwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00826-9_15 ff83d9d304c8c159d1bd5b8938a5f6a9;de;;;2.4.;;;Zonierung des Grundwasserpotenzials für basaltische Wassereinzugsgebiete mit Hilfe von Satellitenfernerkundungsdaten und GIS-Techniken Dieses Papier fasst die Ergebnisse der Kartierung der Grundwasserpotenzialzonen im Bharangi-Flussbecken, Thane-Distrikt, Maharastra, Indien, unter Verwendung des Analytical Hierarchal Process-Modells von Satty mit Hilfe von GIS-Tools und Fernerkundungsdaten zusammen. Um die Ziele zu erreichen, wurden Fernerkundungsdaten verwendet, um Lineamente, Verwerfungen und Entwässerungsmuster zu extrahieren, die die Grundwasserquellen zum Grundwasserleiter beeinflussen. Die digital bearbeiteten Satellitenbilder wurden anschließend in einem GIS mit Zusatzdaten wie Topographie (Gefälle, Entwässerung), Geologie (Lithotypen und Lineamente), Hydrogeomorphologie kombiniert und mit GIS und Bildverarbeitungstools zu einer räumlichen Datenbank aufgebaut. In dieser Studie wurden sechs thematische Layer für die Grundwasserpotenzialanalyse verwendet. Das Gewicht jeder thematischen Schicht wurde bestimmt und die Grundwasserpotenzialindizes wurden anhand der Grundwasserbedingungen berechnet. Die vorliegende Studie hat die Fähigkeiten von Fernerkundungs- und GIS-Techniken bei der Abgrenzung verschiedener Grundwasserpotentialzonen für Basaltbecken aus hartem Gestein gezeigt.;-;-;-;https://link.springer.com/article/10.2478/v10085-009-0008-5 ece1f0a18f075150ab2a54cd005866a3;de;;;2.4.;;;Ein Wärmebildsystem mit großem Betrachtungswinkel, das die Drehung des optischen Pfads nutzt Es wird ein Weitwinkel-Fern-Infrarot-(FIR)-System vorgestellt, das auf dem Verfahren der Rotation des optischen Pfads basiert. Das System integriert eine FIR-Kamera und einen rotierenden goldbesprühten Spiegel, der von einem Schrittmotor gesteuert wird. Die FIR-Kamera nimmt die Bildsequenz vom rotierenden Spiegel im Echtzeitmonitor auf. Währenddessen wird die Geschwindigkeit der Pixelbewegung auf der FIR-Abbildungsebene analysiert, um die schnellste Datenerfassung ohne Bewegungsunschärfe zu erhalten. Außerdem wird der Sichtbereich des vorgeschlagenen Systems berücksichtigt. Anschließend wurde der Prototyp gemäß den Ergebnissen der Simulation entworfen. Die Experimentdaten haben die Theorie der Bewegungsunschärfe bestätigt. Diese Wärmebildtechnik ist komplexlos, nicht-invasiv und für viele Bereiche durchführbar, die das automatische Temperaturerfassungsmodul beinhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73374-4_11 6d4e6863861f0feb9fcb5c15169d767d;de;;;2.4.;;;Ein Hybridmodell basierend auf zellulären Automaten und Fuzzy-Logik zur Simulation der Populationsdynamik Gegenwärtig können neue Fortschritte bei der Generierung von Computermodellen zur Verbesserung von Aufgaben in verschiedenen Forschungsbereichen eingesetzt werden. Die hybriden Rechenmodelle können als neue Fortschritte in der Wissenschaft angesehen werden. In der vorliegenden Arbeit wurde ein Hybridmodell auf der Grundlage eines zellulären Automaten und einer Fuzzy-Logik vorgeschlagen, um die Dynamik einer nach Alter strukturierten Population in Raum und Zeit zu simulieren, wobei die Veränderungen der Biomasseniveaus durch a . induziert werden stochastische Variation der Umgebung. Das Modell kann als Rechenwerkzeug im Bereich der Biologie verwendet werden, um die Veränderungen, die in der Population kontinuierlich auftreten, zu beschreiben und zu quantifizieren, wobei nicht nur ihre Größe und Struktur bekannt ist, sondern auch die Form und Intensität, in der sie sich verändert und erneuert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-70812-4_11 465ef0cef5d260a9d1a6d38e844560c7;de;;;2.4.;;;Grobe Sets in Anwendungen der Medizininformatik Grobe Sets bieten einen effektiven Ansatz zur Verwaltung von Unsicherheiten und können für Aufgaben wie Datenabhängigkeitsanalyse, Merkmalsidentifizierung, Dimensionsreduktion und Musterklassifizierung verwendet werden. Da diese Aufgaben in vielen medizinischen Anwendungen üblich sind, ist es nur natürlich, dass Rough Sets trotz ihrer relativen „Jugend“ im Vergleich zu anderen Techniken eine geeignete Methode für solche Anwendungen darstellen. In diesem Beitrag geben wir eine kurze Zusammenfassung über die Verwendung von Grobsätzen im Bereich der Medizininformatik, wobei wir uns auf Anwendungen der medizinischen Bildsegmentierung, Musterklassifizierung und computergestützten medizinischen Entscheidungsfindung konzentrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89619-7_3 d401e8b53b021e47f4cbfc958275d718;de;;;2.4.;;;Personalisierte mehrstufige Entscheidungsunterstützung im Reverse Logistics Management Die Reverse Logistics hat als profitable und nachhaltige Geschäftsstrategie zunehmend an Bedeutung gewonnen. Da eine Reverse-Logistics-Kette starke interne und externe Verknüpfungen aufweist, wird das Management einer Reverse-Logistics-Kette insbesondere mit dem Wachstum von E-Commerce-Anwendungen zu einem Bereich von organisatorischem Wettbewerbsvorteil. Das effektive Management einer Reverse-Logistics-Kette beinhaltet immer eine Frage der Entscheidungsoptimierung, bei der unsichere Informationen, individuelle Situationen, mehrere Kriterien und ein dynamisches Umfeld berücksichtigt werden müssen. Dieses Papier befasst sich mit der Notwendigkeit, Reverse-Logistik-Manager bei der Auswahl einer optimalen Alternative für die Warenrückgabe im Rahmen ihrer Geschäftsziele zu unterstützen. Durch die Analyse der Merkmale der Reverse-Logistik-Kette schlägt dieses Papier ein personalisiertes mehrstufiges Entscheidungsunterstützungsmodell für das Reverse-Logistik-Management vor. Es präsentiert dann einen personalisierten Fuzzy-Multikriterium-Entscheidungsfindungsansatz, um Managern zu helfen, die Reverse-Logistik in einem unsicheren und dynamischen System zu führen und zu kontrollieren.;-;-;-;https://link.springer.com/chapter/10.1007/11004011_15 d37997bc1526781dc47f1081e7e32c89;de;;;2.4.;;;Formalisierung der fallbasierten Inferenz mit Fuzzy-Regeln Ähnlichkeitsbasierte Fuzzy-Regeln werden als grundlegendes Werkzeug zur Modellierung und Formalisierung des Inferenzteils der Case Based Reasoning Methodik im Rahmen des approximativen Schließens beschrieben. Wir diskutieren verschiedene Arten von Regeln zur Kodierung des heuristischen Argumentationsprinzips, das der fallbasierten Problemlösung zugrunde liegt, was zu unterschiedlichen Ansätzen für die fallbasierte Inferenz führt. Die Verwendung von Modifikatoren in Fuzzy-Regeln wird vorgeschlagen, um grundlegende Ähnlichkeitsbeziehungen anzupassen und damit die Hypothese des fallbasierten Denkens auszudrücken, die im Inferenzprozess verwendet werden soll. Darüber hinaus wird die Idee angesprochen, Fälle auf der Grundlage der Qualität der von ihnen bereitgestellten Informationen zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0687-6_3 be7d1ec00f441acd29e0cca3c73a8f0d;de;;;2.4.;;;Spektrale Verdünnung: Verknüpfung von ökologischer Variabilität und Pflanzenvielfalt Artenverdünnungskurven werden seit langem verwendet, um die erwartete Artenzahl als Funktion des Probenahmeaufwands abzuschätzen, und sie stellen ein leistungsfähiges Werkzeug zur Quantifizierung der Vielfalt eines Gebiets von der lokalen (α-Diversität) bis zur regionalen Skala (β- und γ-Diversität ). Dennoch stellt die Probenahme von Arten auf der Grundlage von Standardpflanzeninventaren einen kostenintensiven Ansatz dar. Aus dieser Sicht können aus der Ferne erfasste Informationen direkt zur Vorhersage artenreicher Standorte verwendet werden. In diesem Artikel stellen wir die spektrale Verdünnung, d. h. die Verdünnung von Reflexionswerten, die aus Satellitenbildern abgeleitet werden, als effektive Methode zur Vorhersage von Standorten mit biologischer Vielfalt vor. Wir haben diesen Ansatz in zehn biogeografischen Subregionen in der Schweiz getestet. Die Pflanzenartendaten wurden aus dem Schweizer Programm „Biodiversitätsmonitoring“ (BDM) abgeleitet, das den Artenreichtum der Schweiz auf Landschaftsebene durch eine systematische Stichprobe von 520 Quadraten von 1 km x 1 km repräsentiert. Sieben Landsat ETM+ Bilder, die das gesamte Untersuchungsgebiet abdecken, wurden aufgenommen. Spezies und spektrale Verdünnung wurden erstellt und die Ergebnisse wurden mit dem Pearson-Korrelationskoeffizienten unter Berücksichtigung mehrerer Probenahmebemühungen (gemessen anhand der Anzahl der beprobten Quadrate) verglichen. Die lokale a-Diversität zeigte ein ähnliches Muster unter Berücksichtigung der zehn biogeografischen Subregionen, während die β- und γ-Diversität aufgrund der höheren ökologischen (und spektralen) Variabilität höhere Werte für Regionen im Alpenbogen und niedrigere Werte für Plateauregionen und Juragebirge zeigte der ehemaligen Gebiete. Positive Korrelationen zwischen Arten und Spektralreichtumswerten waren hingegen erst signifikant, wenn eine bestimmte Fläche angesammelt wurde, was auf eine Skalenabhängigkeit der Anpassung von Satelliten- und Artdaten hindeutet. In diesem Beitrag stellen wir die spektrale Verdünnung als effektives Werkzeug zur Quantifizierung der Diversität auf verschiedenen räumlichen Skalen vor. Selbstverständlich sollten die erzielten Ergebnisse eher als Planungshilfe für die Felduntersuchungen angesehen werden, als sie zu ersetzen. Wir schlagen vor, weltweit verfügbare Fernerkundungsinformationen als Treiber für Designstrategien für Feldproben zu verwenden.;-;-;-;https://link.springer.com/article/10.1556/ComEc.9.2008.2.5 b35829de219c7b1822ea4dfeba43b091;de;;;2.4.;;;Schneelinien- und Schneedeckenüberwachung mit hoher räumlicher Auflösung in einem gebirgigen Flusseinzugsgebiet basierend auf einer Zeitrafferkamera im Tagesmaßstab Schneelinienänderungen und Schneedeckenverteilungsmuster sind in steilen Alpenbecken der Qilian-Bergregion noch wenig verstanden, da schnelle Änderungen der Schneedecke aufgrund ihrer kurzen Zeitskala mit aktuellen Messmethoden nicht beobachtet werden können. Um dieses Problem der täglichen Schneelinien- und Schneedeckenbeobachtungen anzugehen, wurden eine bodengestützte EOS 7D-Kamera und vier digitale Infrarot-Jagdvideokameras (LTL5210A) rund um das Hulugou-Flussbecken (HRB) in den Qilian-Bergen entlang des nordöstlichen Randes des tibetischen Plateaus installiert (38°15′54″N, 99°52′53″E) im September 2011. Die mit der EOS 7D-Kamera aufgenommenen Bilder wurden georeferenziert und die Daten von vier LIL5210A-Kameras und Schneehöhensensoren wurden verwendet, um die Schneedeckenschätzung zu unterstützen. Die Ergebnisse zeigten, dass die Zeitraffer-Fotografie für die Überwachung von Schneegrenze und Schneedecke in Bergregionen sehr nützlich und präzise sein kann. Die Entwicklung von Schneegrenze und Schneedecke in diesem Becken kann im Tagesmaßstab genau erfasst werden. In HRB wird die Schneedecke hauptsächlich nach Oktober festgestellt, und die maximale Schneedecke trat im Februar und März auf. Der stetige Anstieg der Schneegrenze und Abnahme der Schneedecke trat ab Mitte März auf. Dieser Schmelzprozess ist stark mit einer Erhöhung der Lufttemperatur verbunden.;-;-;-;https://link.springer.com/article/10.1007/s11629-013-2842-y 14eddc0a742c02418bb025c62b9ff88b;de;;;2.4.;;;PRTSM: Auf Mustererkennung basierender Zeitreihenmodellierer In diesem Beitrag wird ein neuer Ansatz unter Verwendung von Mustererkennungstechniken für die Zeitreihenmodellierung vorgeschlagen, was bedeutet, dass eine Zeitreihe in eines der autoregressiven gleitenden Durchschnittmodelle identifiziert wird. Sein Hauptrezept besteht darin, dass Muster aus einer Zeitreihe abgeleitet und über einen Begriff des Mustervergleichs in ein geeignetes Modell eingeordnet werden. Das Muster wird aus erweiterten Stichproben-Autokorrelationen der Zeitreihen erhalten. Die verwendeten Mustererkennungstechniken sind Lern- und Entscheidungsbaumklassifizierer. Lernen wird in Kombination mit linearen Diskriminanten verwendet, deren Ziel es ist, ein Muster von einem anderen zu unterscheiden. Der Entscheidungsbaumklassifizierer unterteilt Entscheidungsprozeduren, die an der Zeitreihenmodellierung beteiligt sind, in einfachere und lokale Entscheidungen an jedem Knoten eines Entscheidungsbaums. Um eine komplexe Baumsuche zu erleichtern, wird ein wissensbasierter Ansatz verwendet. Um die Idee zu implementieren, wird ein Schema eines Entscheidungsunterstützungssystems verwendet, um ein Prototypsystem namens PRTSM (Pattern Recognition-based Time Series Modeler) zu entwickeln. Experimentelle Ergebnisse mit mehreren Beispielen zeigen, dass ein auf Mustererkennung basierender Ansatz eine vielversprechende Lösung für die Zeitreihenmodellierung liefern kann.;-;-;-;https://link.springer.com/article/10.1007/BF00436512 1af0972c4ae33efcaa4e5d8750d2096b;de;;;2.4.;;;Intervalltyp-2-Fuzzy-Zellmodell, angewendet auf die durch Umgebungsvariationen induzierte Dynamik einer uni-spezifischen Population Als Teil der Forschung über die Anwendbarkeit des Fuzzy Cellular Models (FCM) zur Simulation komplexer dynamischer Ökosysteme präsentiert dieser Artikel ein Interval Type-2 Fuzzy Cellular Model (IT2-FCM), das auf die Dynamik einer unispezifischen Population angewendet wird. In der Ökologie ist bekannt, dass in der Dynamik der gesamten Bevölkerung die Reproduktions-, Sterblichkeits- und Auswanderungsraten keine Konstanten sind und ihre Variabilität durch eine Kombination von Umweltfaktoren induziert wird. Alle Arten von Populationen, die an einem bestimmten Ort zusammenleben, und die physischen Faktoren, mit denen sie interagieren, bilden eine Gemeinschaft. Jede Population oder physikalischer Faktor innerhalb derselben Gemeinschaft hat ihre eigene Dynamik, die auch Unsicherheit durch kombinierte Effekte mit anderen Umweltfaktoren innerhalb derselben Gemeinschaft darstellt. In unserem Modell wird diese Unsicherheit durch Intervall-Typ-2-Fuzzy-Sets repräsentiert, mit dem Ziel zu zeigen, ob die durch die Dynamik der Population beschriebenen Trajektorien eine bessere Stabilität in Zeit und Raum aufweisen. Die Validierung des Modells erfolgte in einem vergleichenden Rahmen unter Verwendung der Ergebnisse einer anderen Untersuchung, bei der ein FCM verwendet wurde, um die Dynamik einer Population zu beschreiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04516-5_2 eebc405d8aac3a7f3ec225c0626931cc;de;;;2.4.;;;Ein probabilistischer grober Ansatz zur Regelerkennung Die grobe Mengenlehre ist ein relativ neues Werkzeug, das sich mit der Unbestimmtheit und Unsicherheit der Entscheidungsfindung befasst. In diesem Beitrag schlagen wir einen neuen groben Algorithmus vor, um Dimensionen zu reduzieren und Regeln von Informationssystemen mit Hilfe von Expertensystemen zu extrahieren. In diesem Papier wird ein probabilistischer grober Ansatz vorgestellt, um die Güteregeln der Transformatorbewertung zu ermitteln, wenn ein Fehlersymptom des Transformators fehlt. Der Kern des Ansatzes ist ein weiches Hybrid-Induktionssystem namens Generalized Distribution Table and Rough Set System (GDT-RS) zum Auffinden von Klassifizierungsregeln. Das System basiert auf einer Kombination aus Generalized Distribution Table (GDT) und den Rough Set-Methoden. Mit jeder Entscheidungsregel sind zwei bedingte Wahrscheinlichkeiten verbunden, nämlich der Gewissheitsfaktor und der Überdeckungsfaktor. Die probabilistischen Eigenschaften der Entscheidungsregeln werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20975-8_7 960783a9ed215d36740720cfb30946b1;de;;;2.4.;;;Diagnostische Genauigkeit der virtuellen kontrastverstärkten Dual-Energy-CT zur Diagnose eines Nebennierenadenoms: Eine systematische Übersicht und Metaanalyse Vergleich der diagnostischen Genauigkeit von Dual-Energy (DE) virtueller Nicht-Kontrast-Computertomographie (vNCT) mit Nicht-Kontrast-CT (NCT) für die Diagnose von Nebennierenadenomen.;-;-;-;https://link.springer.com/article/10.1007/s00330-017-4785-0 38825d15a09ad2ea589168c5e071d16f;de;;;2.4.;;;Matrix- und Tensor-basierte Approximation von 3D-Gesichtsanimationen von Low-Cost-Range-Sensoren Dreidimensionale Animationen werden oft in Form einer Sequenz von 3D-Meshs dargestellt, auch dynamische Animation oder Temporally Coherent Mesh Sequence (TCMS) genannt. Die weit verbreitete Verfügbarkeit erschwinglicher Entfernungssensoren macht die Erfassung solcher Daten einfach, ihr enormes Volumen erschwert jedoch sowohl die Speicherung als auch die Weiterverarbeitung. Eine der möglichen Lösungen besteht darin, die Daten mithilfe einer Matrix- oder Tensorzerlegung anzunähern. Die Qualität der Animation kann sich jedoch auf beide Ansätze unterschiedlich auswirken. In dieser Arbeit verwenden wir Microsoft Kinect™, um Sequenzen von menschlichen Gesichtsmodellen zu erstellen und den Näherungsfehler zu vergleichen, der aus Modellierungsanimationen mit Hauptkomponentenanalyse (PCA) und Singularwertzerlegung höherer Ordnung (HOSVD) erhalten wurde. Wir konzentrieren uns auf Verzerrungen, die durch die Rekonstruktion von Daten aus ihrer verkürzten Faktorisierung eingeführt werden. Wir zeigen, dass HOSVD zwar PCA in Bezug auf den Näherungsfehler übertreffen kann, aber durch Verzerrungen in Animationsdaten erheblich beeinflusst werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00840-6_26 cfde1e9ac307eef20a01b34c1578e6f9;de;;;2.4.;;;Obere und untere Wahrscheinlichkeit von Fuzzy-Ereignissen, die durch eine Fuzzy-Mengenwertabbildung induziert werden In diesem Papier untersuchen wir grobe Set-Approximationen in Fuzzy- und Random-Umgebungen. Eine Fuzzy-Satzwertabbildung definiert ein Paar oberer und unterer grober Fuzzy-Approximationen. Eigenschaften von Fuzzy-Approximationsoperatoren werden untersucht und die scharfen Darstellungen von Fuzzy-Approximationsoperatoren werden präsentiert. Eine unscharfe Zufallsvariable aus einem Universum;-;-;-;https://link.springer.com/chapter/10.1007/11548669_36 daa86b543a3be4c3f9340eb2bccd587a;de;;;2.4.;;;Adaptive dekorrelierende Detektoren für CDMA-Systeme Die Multi-User-Erkennung ermöglicht die effiziente Nutzung der Bandbreite in Code-Division-Multiple-Access-(CDMA)-Kanälen durch Minderung von Nah-Fern-Effekten und Mehrfachzugriffs-Rauschbeschränkungen. Aufgrund seiner inhärenten Rausch- und Mehrwegeimmunität wird CDMA-Mehrfachzugriff als eine Plattform für persönliche Kommunikationssysteme (PCS) betrachtet. Mit zunehmender Verbreitung von CDMA-basierten digitalen Kommunikationsnetzen wird die Notwendigkeit, die Anwesenheit eines neuen Benutzers zu bestimmen und das Wissen dieses neuen Benutzers in das Erkennungsschema zu integrieren, wichtiger. Der Dekorrelationsdetektor ist ein linearer Mehrbenutzerdetektor, der hinsichtlich des Nah-Fern-Widerstands asymptotisch optimal ist, jedoch wird die Leistung des Dekorrelators in Gegenwart eines neuen unbekannten Benutzers stark verschlechtert. Adaptive Dekorrelatoren werden konstruiert, die einen bestehenden herkömmlichen Dekorrelator adaptiv erweitern, um einen neuen aktiven Benutzer zusätzlich zu bestehenden Benutzern zu demodulieren. Es werden mehrere auf Wahrscheinlichkeitsverhältnissen basierende Schemata verwendet. Es wird sowohl synchrone als auch asynchrone Kommunikation untersucht.;-;-;-;https://link.springer.com/article/10.1007/BF01099344 02904014dee3a232807b5d0473e614fb;de;;;2.4.;;;Ein dynamisches Maßstab-Raum-Paradigma Wir präsentieren einen neuartigen mathematischen, physikalischen und logischen Rahmen zur Beschreibung eines Eingangsbildes der Dynamik physikalischer Felder, insbesondere der optischen Felddynamik. Unser Rahmen muss unter einer bestimmten Eichgruppe invariant sein, d. h. einer Gruppe oder einem Satz von Transformationen, die mit den Symmetrien dieser physikalischen Felddynamiken übereinstimmen, die Renormierungsgruppen umhüllen. Es muss eine möglichst prägnante Feldbeschreibung im Sinne eines vollständigen und irreduziblen Satzes von Äquivalenzen oder Invarianten liefern. Darüber hinaus sollte es robust gegenüber Rauschen sein, dh unauflösbare Störungen (Morphismen) der physikalischen Felddynamik, die unterhalb einer bestimmten dynamischen Skala vorhanden sind und möglicherweise nicht von der Eichgruppe abgedeckt werden, haben keinen Einfluss auf Lyapunov oder strukturelle Stabilitätsmessungen, ausgedrückt in Äquivalenzen über dieser Dynamik Skala. Die zugehörige dynamische Skalensymmetrie umfasst dann einen eichinvarianten Ähnlichkeitsoperator, mit dem ähnlich präparierte Ensembles der physikalischen Felddynamik sondiert und nach partiellen Äquivalenzen gesucht werden, die auf höheren Skalen entstehen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1012282305022 805796f296ca2c8d22394f7897c6ad36;de;;;2.4.;;;Europäische Cybersicherheitsforschung und das SerIoT-Projekt Dieses Papier gibt einen kurzen Überblick über einige aktuelle Forschungsarbeiten zur Cybersicherheit in Europa, die von der Europäischen Kommission in Bereichen wie Mobiltelefonie, vernetzte Gesundheitssysteme und das Internet der Dinge finanziert wurden. Anschließend skizzieren wir die Ziele des 2018 gestarteten SerIoT-Projekts, um die Sicherheitsbedürfnisse von Bereichen wie Smart Cities, Smart Transportation Systems, Supply Chains und Industrial Informatics zu erfüllen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00840-6_19 ae8dbbc2ddf53ff4d53d50ac20f9069f;de;;;2.4.;;;In-vivo- versus In-vitro-Screening oder Selektion auf katalytische Aktivität in Enzymen und Abzymen Die jüngste Entwicklung katalytischer Antikörper und die Einführung neuer Techniken zur Erzeugung riesiger Bibliotheken von Zufallsmutanten existierender Enzyme haben den Bedarf an leistungsfähigen Werkzeugen geschaffen, um in großen Zellpopulationen diejenigen zu finden, die die katalytisch aktivsten Proteine ​​produzieren. Um dieses Ziel zu erreichen, wurden mehrere Ansätze entwickelt und angewendet. Die Screening-Techniken zielen darauf ab, die Klone, die aktive Enzyme oder Abzyme produzieren, leicht nachzuweisen, die Selektionstechniken sind darauf ausgelegt, diese Klone aus Mischungen zu extrahieren. Diese Techniken wurden sowohl in vivo als auch in vitro angewendet. Diese Übersicht beschreibt die Vorteile und Einschränkungen der verschiedenen Methoden in Bezug auf Benutzerfreundlichkeit, Sensibilität und Komfort beim Umgang mit großen Bibliotheken. Beispiele werden analysiert und vorläufige Regeln vorgeschlagen. Diese Techniken erweisen sich als sehr leistungsfähig, um die Beziehung zwischen Struktur und Funktion zu untersuchen und die Eigenschaften von Enzymen zu verändern.;-;-;-;https://link.springer.com/article/10.1007/BF02821543 b85e66efd0a7899cc07f78bc0f99f94b;de;;;2.4.;;;Echtzeit-Implementierungssteuerung für Multi-Source-Energiesysteme Dieses Papier beschreibt die erste Phase eines laufenden Projekts, das sich mit der Multi-Source-Energiemanagementstrategie befasst. In dieser Arbeit wird ein kombiniertes System untersucht, das elektrische Energie aus Photovoltaik (PV)-Energie, Windenergie und aus einer Batterie erzeugt. Das Design, die Analyse und die Implementierung des Windenergie-Teils werden vollständig mit einem digitalen Signalprozessor (DSP) dSPACE DS1104 auf Basis eines Echtzeit-Datenerfassungssteuerungssystems (DAC) durchgeführt. In diesem Beitrag werden die verschiedenen Teile der Windumwandlungskette mit ihren Regelsystemen vorgestellt, die Simulations- und Versuchsergebnisse diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27509-8_44 827bf0d97cc563574cf01f11cce72543;de;;;2.4.;;;Ein konnektionistischer Ansatz zur Regelverfeinerung Ein neuartiger Ansatz zur Regelverfeinerung basierend auf Konnektionismus wird vorgestellt. Dieser Ansatz ist in der Lage, das Löschen von Regeln, das Hinzufügen von Regeln, das Ändern der Regelqualität und das Modifizieren von Regelstärken durchzuführen. Der grundlegende Algorithmus wird als Consistent-Shift-Algorithmus bezeichnet. Seine Grundlage für die Identifizierung falscher Verbindungen ist, dass falsche Verbindungen während des Trainings mit korrekten Stichproben oft eine größere inkonsistente Gewichtsverlagerung erfahren als die richtigen. Durch die richtige Anpassung der Erkennungsschwelle würden falsche Verbindungen aufgedeckt, die dann gelöscht oder geändert werden können. Das Löschen von falschen Verbindungen und das Hinzufügen von korrekten Verbindungen führen dann zu verschiedenen Formen der eben erwähnten Regelverfeinerung. Die Tragfähigkeit dieses Ansatzes ist empirisch belegt.;-;-;-;https://link.springer.com/article/10.1007/BF00058577 b738945e9e9bd468dba549676ab58380;de;;;2.4.;;;Forschung zur Sprengstoffdetektion am CEA: Towards Operational Use CEA, ein bedeutender Akteur in Forschung, Entwicklung und Innovation, hat umfangreiches Fachwissen in einer Reihe von Themen entwickelt, die heute in der globalen Sicherheitsforschung von zentraler Bedeutung sind. So entwickelt CEA beispielsweise die Erforschung neuer Technologien zum Aufspüren von Sprengstoffen. Dieser Artikel gibt einen Überblick über die wichtigsten Aktivitäten zur Detektion und Identifizierung von Massen- oder Spurensprengstoffen. Das Dokument konzentriert sich auf Projekte mit hohem TRL, die darauf abzielen, Demonstratoren zum Testen in realen Konfigurationen zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33161-9_59 cc692bf0ef6c68ebf1af5310e33fe8fb;de;;;2.4.;;;Entwurf des Drehzahlreglers der Hauptmaschine des Schiffes basierend auf einer fachmännischen Technik zur aktiven Störungsunterdrückung Die Anwendung des mathematischen Modells der nichtlinearen Schiffshauptmotorsteuerung und der Wellenstörungen auf den Entwurf des elektronischen Reglers und die Berücksichtigung der Unsicherheit der Modellparameter und der Eigenschaften des Servosystems führt dazu, dass das Modell die unübertroffene Unsicherheit entsprechend aufweist. Um die Schwierigkeit zu lösen, wird eine nichtlineare Regelstrategie zur aktiven Störungsunterdrückung vorgeschlagen, und das Expertensystem wird verwendet, um Parameter von ADRC online zu modifizieren, die die adaptive Kapazität des ADRC verbessern. Es wird ein ADRC-Controller mit genetischem Algorithmus für Schiffshauptmaschinen entwickelt. Die Simulationsergebnisse der Geschwindigkeitsverfolgung und -haltung der Schiffshauptmaschine (ME) zeigen, dass der Regler gute Anpassungsfähigkeiten an die Nichtlinearität des Systems und eine starke Robustheit gegenüber Parameterstörungen des Schiffes und Umweltstörungen aufweist. Und die Geschwindigkeitsumschaltung ist schnell und glatt, wodurch eine hochgenaue Schiffs-ME-Geschwindigkeitssteuerung erreicht wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23321-0_73 9f55be016288a66226b8a48b78697095;de;;;2.4.;;;Weltraumkamera-Fokussierungsprognose basierend auf dem RBF-Netzwerk Wenn sich die Umgebungstemperatur einer Weltraumkamera ändert, führen die Biegung von Strukturkomponenten und die Verzerrung der optischen Komponenten zu einer Änderung der Brennweite und Bildqualität. Das radiale Basisfunktions-(RBF)-Netzwerk wird verwendet, um die komplexe nichtlineare Beziehung zwischen der Fokalisierungsquantität, der Bildqualität, dem Temperaturniveau und der axialen Temperaturdifferenz einer Weltraumkamera anzunähern. Nachdem das RBF-Netzwerk mit thermo-optischen Experimentdaten trainiert wurde, könnten Temperaturniveau und axiale Temperaturdifferenz in das Netzwerk eingegeben werden, um einen kälteren Wert der besten Bildposition zu erhalten. Auf diese Weise können fokussierte Vorhersagen unter verschiedenen Temperaturen realisiert werden. Die Ergebnisse des Fokussierungs-Prognose-Experiments bestätigen diese Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04962-0_23 a1bd3a1b2e16d4317ef5fdad2333f5c0;de;;;2.4.;;;Design des DTRS-Viewers mit kommerziellen Flugsimulatoren In diesem Whitepaper befassen wir uns mit der Entwicklung und Implementierung von grafischer Viewer-Software für DTRS (Data Transfer and Recording System)[1] in Flugzeugsystemen. Da eine Viewer-Software für DTRS herstellerabhängig implementiert werden soll, dauert es typischerweise lange, diese sequentiell zu entwickeln und zu validieren. Um das obige Problem zu lösen, schlagen wir in diesem Papier vor, wie man einen verifizierten kommerziellen Flugsimulator für den DTRS-Viewer verwendet. Dazu werden Komponenten zur Datenextraktion, -analyse und -übertragung definiert und konzipiert. Außerdem werden interaktive Schnittstellen zwischen ihnen koordiniert. Finllay, experimentelle Ergebnisse zeigen, dass erweiterte Komponenten sehr gut funktionieren und der aktuelle Simulator mit weniger Entwicklungsaufwand ein guter Kandidat für DTRS-Viewer ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35600-1_22 6ff3ccfa2e3e6a4b724393c226f8db71;de;;;2.4.;;;Quickbird Remote Sensing Bildrauschunterdrückung mit Ridgelet Transform Die Bildrauschunterdrückung ist der erste Vorverarbeitungsschritt beim Analysieren und Verstehen von Bildern und ist entscheidend, um qualitativ hochwertige Bildprodukte zu erhalten. QuickBird, eingeführt am 18. Oktober 2001, hat eine räumliche Auflösung von 0,61 m im panchromatischen Modus und kann in verschiedenen Bereichen und Anwendungen eingesetzt werden. Es wird jedoch während des Erfassungs- und Übertragungsvorgangs unweigerlich durch Rauschen beeinträchtigt. Um die hohen räumlichen Auflösungsinformationen der QuickBird-Bilder zu nutzen, schlug dieses Papier daher ein Verfahren vor, um das Rauschen in QuickBird-Bildern basierend auf der Ridgelet-Transformation zu entfernen. Experimentelle Ergebnisse zeigen, dass die Ridgelet-Transformation das Rauschen in QuickBird-Bildern im Vergleich zu anderen Methoden effektiv entfernt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34240-0_51 70564d15d5f15d7175fdee679e48b6c2;de;;;2.4.;;;MMM: Klassifikation von Schizophrenie durch multimodale Multi-Atlas-Feature-Repräsentation und Multi-Kernel-Learning Schizophrenie (SZ) ist eine komplexe neuropsychiatrische Erkrankung, die das tägliche Leben der Patienten stark beeinträchtigt. Daher ist eine genaue Diagnose von SZ für die Patientenversorgung unerlässlich. Mehrere Marker der T1-gewichteten Magnetresonanztomographie (MRT) und Diffusionstensor-Bildgebung (DTI) (z. B. kortikale Dicke (CT), mittlere Diffusivität (MD)) für SZ wurden unter Verwendung einiger vorhandener Hirnatlanten identifiziert und erfolgreich eingesetzt um Patienten mit SZ von gesunden Kontrollen (HCs) zu unterscheiden. Derzeit werden diese Marker hauptsächlich separat verwendet. Somit wurde das volle Potenzial von T1-gewichteten MRT-Bildern und DTI-Bildern für die SZ-Diagnostik möglicherweise noch nicht umfassend genutzt. Darüber hinaus kann die Extraktion dieser Marker basierend auf einem einzelnen Gehirnatlas möglicherweise noch nicht das volle Potenzial dieser Bilder ausschöpfen. Daher schlagen wir in dieser Studie eine multimodale Multi-Atlas-Feature-Repräsentation und eine Multi-Kernel-Lernmethode (MMM) zur Durchführung der SZ/HC-Klassifizierung vor. Zunächst extrahieren wir 8 Feature-Sets aus T1-gewichteten MRT-Bildern und DTI-Bildern über 4 vorhandene Hirnatlanten und 4 Marker. Dann wird ein zweistufiges Merkmalsauswahlverfahren vorgeschlagen, um die diskriminierendsten Merkmale jedes Merkmalssatzes für die SZ/HC-Klassifizierung auszuwählen. Schließlich wird ein auf mehreren Merkmalssätzen basierendes Mehrkern-SVM-Lernverfahren (MFMK-SVM) vorgeschlagen, um alle Merkmalssätze für die SZ/HC-Klassifizierung zu kombinieren. Experimentelle Ergebnisse zeigen, dass unsere vorgeschlagene Methode eine Genauigkeit von 91,28 achieve erreicht;-;-;-;https://link.springer.com/article/10.1007/s11042-017-5470-7 c986d6614e8fadd124f032975e376e8b;de;;;2.4.;;;Paralleler Algorithmus für Einwegwellengleichungsbasierte Migration für die seismische Bildgebung Die seismische Bildgebung ist die letzte Stufe der seismischen Verarbeitung, die es ermöglicht, die innere Untergrundstruktur zu rekonstruieren. Dieses Verfahren ist eines der zeitaufwendigsten und erfordert enorme Rechenressourcen, um qualitativ hochwertige amplitudenerhaltende Bilder zu erhalten. In diesem Beitrag stellen wir einen parallelen Algorithmus der seismischen Bildgebung vor, der auf der Lösung der Einwegwellengleichung basiert. Der Algorithmus beinhaltet eine Parallelisierung des Datenflusses aufgrund der Verarbeitung mehrerer Quellen/Empfänger-Paare. Die Wellenfeldextrapolation wird mit pseudospektralen Methoden durchgeführt und durch qFFT angewendet - jeder Datensatz wird von einem einzigen MPI-Prozess verarbeitet. Common-Offset-Vektorbilder werden unter Verwendung aller Lösungen aus allen Datensätzen konstruiert, also durch All-to-All-MPI-Kommunikation.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-05807-4_11 3c5264aa9cc9ec40f6cf473bb72cc63a;de;;;2.4.;;;Das Design und die Realisierung des Systems zeigt die Zuginformationen basierend auf MCU Industrielle Produktionsprozesssteuerung ist die Durchflussmessung und Instrumentierung großes Feld, Durchfluss und Temperatur, Druck und Ort für die Prozesssteuerung von insgesamt vier Parametern, Personen durch diese Parameter auf den Produktionsprozess zur Überwachung und Steuerung. Die richtige Messung und Einstellung des Flüssigkeitsstroms soll den sicheren und wirtschaftlichen Betriebsprozess gewährleisten, die Produktqualität verbessern und den Materialverbrauch reduzieren, den wirtschaftlichen Nutzen verbessern und die wissenschaftliche Managementgrundlage verwirklichen. Durchfluss der Detektion und Kontrolle in der chemischen, elektrischen Energie, Metallurgie, Erdöl, etc. breite Anwendung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3648-5_153 4f5a7c9a5ff677211f5ee94ae81bd5d8;de;;;2.4.;;;Beleuchtungskompensation und -normalisierung mit Low-Rank-Zerlegung multispektraler Bilder in der Dermatologie Beim Versuch, die Oberflächenfarbe aus einem Bild wiederherzustellen, ist es wichtig, den Beleuchtungsbeitrag pro Pixel zu modellieren. In dieser Arbeit stellen wir einen neuartigen Ansatz zur Beleuchtungskompensation mit multispektralen Bilddaten vor. Dies erfolgt mittels einer niederrangigen Zerlegung repräsentativer Spektralbänder mit Vorkenntnis der Reflexionsspektren der abgebildeten Oberfläche. Experimentelle Ergebnisse an synthetischen Daten sowie an Bildern realer Läsionen, die an der Universitätsklinik aufgenommen wurden, zeigen, dass die vorgeschlagene Methode den Kontrast zwischen Läsion und Hintergrund signifikant verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19992-4_48 61c37f72f8e22a96328aa66576c10110;de;;;2.4.;;;Der De-Nosing-Algorithmus des EKG-Signals basierend auf Wavelet-Paket Über die Hardwareerfassung wird immer Rauschen mit kardioelektrischem Signal vermischt, was die Diagnose des Patienten erschwert. Die Wavelet-Transformation kann regionale Signale gut analysieren und ein gutes Ergebnis bei der Trennung von Signal und Rauschen erzielen, indem ihre Unterschiede sowohl im Zeit- als auch im Frequenzbereich ausgenutzt werden. Die Wavelet-Zerlegung konzentriert sich jedoch auf den angenäherten Koeffizientenvektor, was zu einem Verlust von ursprünglichen Merkmalen im Zeitbereich während des Entrauschungs-Vorprozesses führt, während die Zerlegung in Richtung niedrigerer Frequenz fortgesetzt wird. Die Wavelet-Pakettransformation wird vorgeschlagen, um das niedrige Frequenzauflösungsverhältnis der Wavelet-Zerlegung im Hochfrequenzabschnitt und das schwache Zeitauflösungsverhältnis im Niederfrequenzabschnitt zu überwinden. Es ist eine ausgefeiltere Methode zur Signalanalyse und verbessert das Auflösungsverhältnis sowohl im Zeit- als auch im Frequenzbereich. Dieses Papier präsentiert hauptsächlich die Anwendung der Wavelet-Pakettransformation bei der Entrauschung von kardioelektrischen Signalen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34595-1_7 5c87a35e11ede07c465460b3fc4c72fb;de;;;2.4.;;;Recherche zu lexikalischen Elementen Präsentation basierend auf konzeptioneller Metapher mit Entwicklung von Informationen Diese Forschung zielt darauf ab, zu testen, ob die Präsentation metaphorischer Verbindungen zwischen Wortsinnen signifikant effektiv ist, um das Gedächtnis von Nicht-Englisch-Majors an neue Wörter zu verbessern. Drei Experimente wurden nach dem Pilotunterricht und einem Vorwand durchgeführt, in denen zwei Bedeutungen jedes Wortes (insgesamt 30 Wörter) durch den vorgeschlagenen Ansatz und den traditionellen Ansatz dem EG bzw verzögerter Test nach jedem Experiment. Anschließend wurde ein Interview zur Praktikabilität und Interessantheit der Vokabellernmethode geführt. Qualitative Analysen (spss15.0 wurde verwendet) zeigen, dass es einen signifikanten Unterschied zwischen den t-Test-Mittelwerten von EG und denen von CG gibt. Die Ergebnisse des Interviews zeigen, dass die meisten Probanden in der EG den vorgeschlagenen Ansatz für machbar und interessenmotivierend halten, da die Metapher ihnen Anhaltspunkte für die Worterinnerung bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23339-5_65 e6406cdd698868721f97bd9c41e3eeba;de;;;2.4.;;;Forschung und Implementierung von Embedded Remote Measurement and Control System basierend auf Industrial Ethernet Dieses Papier erforscht hauptsächlich eingebettete Datenerfassungssysteme und industrielle Ethernet-Kommunikationssysteme von Geräten und diskutiert das Design und die Implementierung von eingebetteten entfernten Mess- und Steuersystemen auf Basis von Industrial Ethernet. Mit der Experimentierplattform MagicARM2410 als Hardware-Plattform und Embedded Linux als Software-Plattform realisiert dieser Beitrag ein eingebettetes Fernmess- und Steuerungssystem auf Basis von Modbus/TCP Industrial Ethernet. Das System erfüllt die notwendigen Überwachungs- und Steuerungsaufgaben sowie die Modbus/TCP-Kommunikation basierend auf dem Netzwerkmodul von Qt. Es kann auch Daten von Client und Server auf einer benutzerfreundlichen grafischen Benutzeroberfläche basierend auf Qt dynamisch aktualisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35211-9_56 3f5a4667a674f1a82d3bbce67f150c59;de;;;2.4.;;;Erkennung, Klassifizierung und Schneiden von Obst und Gemüse mit dem Tensorflow-Algorithmus In diesem Beitrag werden automatische Obst- und Gemüseerkennungs- und Zerkleinerungsmechanismen vorgestellt. Ziel dieser Arbeit ist es, die Zeit zum Schneiden von Obst und Gemüse in einer Großküche zu verkürzen. Dieser Mechanismus besteht aus zwei Teilen. Der erste Teil des Systems basiert auf der Bildverarbeitung, die darin besteht, ein Bild des Objekts aufzunehmen, es mit den in der Datenbank gespeicherten Bildern zu vergleichen und die Objekte zu identifizieren. Dazu wird der Tensor-Flow-Algorithmus verwendet und die erhaltene Genauigkeit beträgt mehr als 90%. Der zweite Teil des Projekts ist die Trennung der Früchte/Gemüse und das Schneiden je nach Bedarf.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5258-8_66 1c98dd86d15291042795984c9a6435ff;de;;;2.4.;;;Segmentierung von Grünschnittbildern basierend auf Superpixel-Blöcken und Entscheidungsbaum Bei der Segmentierung von Grünpflanzen verwenden wir in der Regel Grünindizes wie Excess Green Index (ExG), Combined Indices 2 (COM2), Modified Excess Green Index (MExG) etc., die als effiziente Methoden gelten. Sie können jedoch unter komplexen Umweltbedingungen nicht genau grüne Pflanzen extrahieren. Insbesondere können sie grüne Pflanzen nicht von komplexen Bodenhintergründen segmentieren, wie z. Um die aktuellen Mängel bei der Segmentierung von grünen Pflanzen zu beheben, stellt dieser Artikel eine neue Methode zur Segmentierung von Pflanzen vor, um konkurrenzfähigere grüne Pflanzen zu extrahieren. Zuerst teilt ein Vorverarbeitungsverfahren die Zuschneidebilder in Superpixel-Blöcke unter Verwendung des Simple Linear Iterative Clustering (SLIC)-Algorithmus, dann werden diese Superpixel-Blöcke in drei Klassen unter Verwendung des Klassifikations- und Regressionsbaums (CART) basierend auf einem dimensional(7-D) bietet Vektoren, die in diesem Papier konstruiert wurden: nur Zuschneideblöcke (OC-Block), nur Hintergrundblöcke (OB-Blöcke) und CBE-Blöcke, in denen Zuschnitt und Hintergrund beide koexistieren. Schließlich werden CBE-Blöcke verarbeitet, indem der Vorteil von ExG genutzt wird, um darin grüne Ernten zu erzielen. Experimentelle Ergebnisse zeigen, dass der in diesem Artikel vorgeschlagene Algorithmus die grünen Pflanzen vom Bodenhintergrund selbst unter relativ komplexen Feldbedingungen mit;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-57881-7_1 0a77e9ad0e8b517ee3a2ff092c69cb16;de;;;2.4.;;;Ein tragbares Testsystem für das Management von Bewässerungssystemen Basierend auf dem C8051F-Mikrocontroller und dem Rtx51tny-Betriebssystem wurde eine Gruppe von tragbaren Bewässerungserkennungsgeräten entwickelt, um die Anforderungen der wassersparenden Bewässerung für die im Karsthangbereich angebauten Pflanzen zu erfüllen, bei denen es schnelle Änderungen und enorme Unterschiede gibt des regionalen Klimas. Das Gerät bietet Vorteile wie einfache Bedienung, leichtes Tragen, geringe Kosten, drahtlose Steuerung usw. Durch den Einsatz des Gerätes können die Komplementaritäten zwischen manueller Steuerung und automatischer Steuerung integriert werden. Das Management des Personals, das am Bewässerungssteuerungssystem gemäß den Umgebungsbedingungen beteiligt ist, verbessert die Ausführungseffizienz der wassersparenden Bewässerung und erzielt den Ernteertrag. Der Test hatte bewiesen, dass das Gerät stabil und glaubwürdig ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19853-3_61 c1e52b53d8078cee85c96db4cdd0a70c;de;;;2.4.;;;Design eines 1,2 V, 10-Bit, 60–360 MHz Time-Interleaved Pipelined ADC ADCs mit einer Auflösung von 8 bis 12 Bit und Abtastraten von mehreren Hundert Mega-Samples-per-Sekunde (MS/s) fanden in verschiedenen Arten von Breitbandanwendungen zunehmende Bedeutung, wie in drahtlosen Transceivern, medizinischer Bildgebung, Videosignalverarbeitung , Datenerfassung und Instrumentierung. Sehr oft sind die Einschränkungen beim Erreichen solcher Geschwindigkeitsbereiche der ADC-Spezifikationen einer der gesamten Systemengpässe. Die Möglichkeit, rekonfigurierbare Geschwindigkeits-/Leistungsoptionen in einem einzigen ADC-Design zu haben, ist auch für verschiedene Anwendungen wichtig, die unterschiedliche Geschwindigkeiten erfordern, wie in Multistandard-Transceivern oder in verschiedenen Videos mit unterschiedlichen Auflösungen und Bildwiederholfrequenzen. Diese Eigenschaft erlaubt es, einen guten Kompromiss in Bezug auf Geschwindigkeit pro Leistung über verschiedene Geschwindigkeitsanforderungen zu erzielen [1].;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-9710-1_5 9e414c2f6cf69695c9a374a0b5fa524c;de;;;2.4.;;;Gesichtsausdruckserkennung basierend auf Dual-Feature-Fusion und verbessertem Random Forest-Klassifikator Die Gesichtsausdruckserkennung (FER) ist ein wichtiges Mittel für Maschinen, um die Veränderungen im Gesichtsausdruck des Menschen zu verstehen. Die Ausdruckserkennung unter Verwendung von einmodalen Gesichtsbildern, wie beispielsweise Graustufen, kann unter Beleuchtungsänderungen und dem Fehlen detaillierter ausdrucksbezogener Informationen leiden. In dieser Studie werden multimodale Gesichtsbilder wie Gesichtsgrauskala, Tiefe und lokales Binärmuster (LBP) verwendet, um sechs grundlegende Gesichtsausdrücke zu erkennen, nämlich Glück, Traurigkeit, Wut, Ekel, Angst und Überraschung. Gesichtstiefenbilder werden anfänglich für eine robuste Gesichtserkennung verwendet. Das tiefe geometrische Merkmal wird mit Hilfe von Tiefeninformationen durch Punktverschiebung und Winkelvariation in Gesichtsmarkenpunkten dargestellt. Das lokale Erscheinungsbild-Merkmal, das durch Verketten von LBP-Histogrammen von ausdrucksprominenten Flecken erhalten wird, wird verwendet, um diejenigen Ausdrucksänderungen zu erkennen, die nur durch die geometrischen Änderungen schwer zu erfassen sind. Danach wird ein verbesserter Zufallswaldklassifikator basierend auf einer Merkmalsauswahl verwendet, um verschiedene Gesichtsausdrücke zu erkennen. Ergebnisse vergleichender Auswertungen in Benchmarking-Datensätzen zeigen, dass die vorgeschlagene Methode mehrere hochmoderne FER-Ansätze übertrifft, die auf handgefertigten Merkmalen basieren. Die Leistungsfähigkeit des vorgeschlagenen Verfahrens ist mit der des populären FER-Ansatzes auf der Grundlage von Faltungsneuralen vergleichbar, jedoch mit weniger Anforderungen an Trainingsdaten und einer leistungsstarken Hardwareplattform.;-;-;-;https://link.springer.com/article/10.1007/s11042-017-5489-9 c98ed101fda62482493160a497f2e8e6;de;;;2.4.;;;Die Anwendung der Big-Data-Technologie in der Leistungssportforschung Mit dem Beginn des Big-Data-Zeitalters wird eine neue These aufgestellt, wie das Leistungssportsystem der Zeitentwicklung entsprechen sollte. Basierend auf der Analyse der Bedeutung der Big-Data-Technologie im Leistungssport stellt dieser Beitrag einen auf Big-Data-Analysen basierenden Leistungssport-Analyserahmen vor. An konkreten Beispielen werden Chancen und Herausforderungen des Leistungssports im Zeitalter von Big Data aufgezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-0896-3_46 2eda9a2b9d2b9137581f24f40e4ce5a7;de;;;2.4.;;;Merkmalsextraktion und Klassifikation des VAG-Signals des menschlichen Knies zur Frühdiagnose von Chondromalazie Patella Chondromalacia Patella ist eine Erkrankung, die oft nicht diagnostiziert oder als Osteoarthritis fehldiagnostiziert wird. Die Diagnose von Chondromalazie ist schwierig und erfordert CT-Scans zur korrekten Bestätigung. Eine frühzeitige Erkennung von Chondromalazie kann weitere Knorpelschäden verhindern. Dieses Papier zielt darauf ab, verschiedene VAG-Signale von verschiedenen Personen zu erfassen und zu verarbeiten, um festzustellen, ob VAG-Signale zur Erkennung von Kniepathologien und -zuständen wie Chondromalazie Patella verwendet werden können. In diesem Artikel dreht sich unsere Hauptdiskussion um die Charakterisierung von Signalmerkmalen eines Piezosensors, der an der Kniescheibe angebracht ist. Es wurden deutliche Unterschiede zwischen der Zeitbereichskorrelation der extrahierten Merkmale der VAG-Signale zwischen Probanden mit Knieschmerzen, solchen mit berichteten Kniepathologien und gesunden Probanden beobachtet. VAG-Signale könnten daher bei der Früherkennung von Chondromalazie-Patella und anderen Kniepathologien von entscheidender Bedeutung sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8221-9_273 9087cafe01a60086ba872294a24a6c16;de;;;2.4.;;;Kontinuierliche Fernüberwachung von COPD-Patienten – Begründung und Erläuterung der Anforderungen und eine Übersicht über die verfügbaren Technologien Die Fernüberwachung von Patienten sollte die Sterblichkeitsraten senken, die Versorgung verbessern und die Kosten senken. Wir präsentieren einen Überblick über die verfügbaren Technologien zur Fernüberwachung von Patienten mit chronisch obstruktiver Lungenerkrankung (COPD) zusammen mit den wichtigsten medizinischen Informationen zu COPD in einer für Ingenieure angepassten Sprache. Unser Ziel ist es, die Lücke zwischen der technischen und der medizinischen Welt zu schließen und die zukünftige Forschung auf diesem Gebiet zu erleichtern und zu motivieren. Wir präsentieren auch eine Begründung, Motivation und Erklärung, wie die wichtigsten Parameter für COPD-Patienten überwacht werden können, sowie Hinweise auf die verbleibenden Herausforderungen. Darüber hinaus schlagen und begründen wir die Bedeutung von Elektrokardiogrammen (EKGs) und dem arteriellen Kohlendioxid-Partialdruck (PaCO;-;-;-;https://link.springer.com/article/10.1007/s11517-018-1798-z dc1a885cb6586e67ec490200851472fd;de;;;2.4.;;;Landsenkungen in Villahermosa Tabasco Mexiko mit Radarinterferometrie Landsenkung ist ein geologisches Phänomen, das aus dem allmählichen Absinken der Erdkruste besteht und die städtische Infrastruktur und die Bevölkerung schädigen kann. Dieses Phänomen wird unter anderem durch die Übernutzung von Grundwasserleitern und die übermäßige Förderung von Kohlenwasserstoffen verursacht. Die Technik der synthetischen Apertur-Differential-Radar-Interferometrie (DInSAR) wird seit den späten 1990er Jahren verwendet, um Deformationen am Boden zu erkennen, einschließlich der Senkung in einer höheren räumlichen und zeitlichen Abdeckung im Vergleich zu traditionellen Methoden wie geodätischen, instrumentellen, GPS mit einer Empfindlichkeit von mm/Jahr . Die Stadt Villahermosa, Tabasco, konzentriert 512 Ölquellen auf einer Fläche von 10 km²;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-59872-3_2 7fb17bfb2d5d85b9a76b23ffbbb8d40a;de;;;2.4.;;;Analysieren komplexer NPs auf Französisch Dieser Artikel wird über ein Experiment berichten, bei dem wir die Verarbeitung von Inselbeschränkungen in Französisch untersucht haben, insbesondere Konstruktionen mit der komplexen NP-Beschränkung. Wir haben auch eine alternative Erklärung zu den Ergebnissen der Lückenlokalisierung untersucht, die auf dem Begriff des „potenziellen Endes des Satzes“ basiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1980-3_3 c47fdc78e2ff407006341557140a1ba7;de;;;2.4.;;;Design und Experiment eines adaptiven aktiven Vibrationskontrollsystems für Flugzeugrahmen Hyperschallflugzeuge mit hoher Geschwindigkeit und Supermanövrierfähigkeit sind zu einem Hot Spot in der aktuellen Forschung zu Nahraumflugzeugen geworden. Um die Vibrationen des Flugzeugs während des laufenden Prozesses zu unterdrücken, wird in diesem Beitrag ein aktives Vibrationskontrollsystem für Flugzeugrahmen basierend auf dem adaptiven Filteralgorithmus entwickelt. Zu Beginn wird ein adaptiver Filteralgorithmus vorgestellt – Filter-x Least Mean Square (FXLMS)-Algorithmus. Anschließend werden die Hardwarekonfiguration und die Softwareentwicklung im Detail vorgestellt. Inzwischen wird die piezoelektrische Smart-Struktur zum Erfassen und Ansteuern verwendet. Das in diesem Experiment entworfene Mess- und Steuersystem hat 8 Eingangskanäle und 8 Ausgangskanäle, die in der Lage sind, Offline-Identifikation, Online-Identifikation und Echtzeitsteuerung zu verarbeiten. Durch die Wahl sinnvoller Parameter und die logische Verteilung der Kanäle wird eine adaptive aktive Schwingungskontrolle auferlegt. Schließlich verifiziert die experimentelle Leistung die Durchführbarkeit des FXLMS-Algorithmus und die Gültigkeit des entworfenen Kontrollsystems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34381-0_23 c12698cbe92fdd6937ae628c9e40936c;de;;;2.4.;;;Rechtsrisikoanalyse in Bezug auf geistiges Eigentum in einer kollaborativen virtuellen Engineering-Organisation Die Einrichtung und der Betrieb einer virtuellen Organisation bringt eine Reihe von Herausforderungen aus vielen verschiedenen Perspektiven mit sich, einschließlich sozioökonomischer, organisatorischer, rechtlicher und rechnerischer Fragen. Dieses Papier konzentriert sich auf die rechtlichen Aspekte mit besonderem Blick auf rechtliche Risiken in Bezug auf geistige Eigentumsrechte. Eine rechtliche Risikoanalyse kann entweder auf abstrakten juristischen Argumenten basieren oder sich auf die Geschäftsrealität und die spezifischen Ausprägungen der virtuellen Organisation konzentrieren. Dieser Beitrag folgt dem letztgenannten Ansatz und präsentiert ausgewählte Ergebnisse einer rechtlichen Risikoanalyse eines Geschäftsszenarios im Bereich Collaborative Engineering. Die rechtliche Risikoanalyse wurde in Zusammenarbeit von Rechtsanwälten und anderen Fachleuten durchgeführt, um das Zusammenspiel verschiedener rechtlicher und nicht-rechtlicher Aspekte aufzuzeigen. Grafische Risiko- und Behandlungsmodelle wurden verwendet, um Kommunikationsbarrieren zwischen Experten in diesem multidisziplinären Umfeld abzubauen.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-29360-4_54 4bf22320d20a4924a782cb0c828445be;de;;;2.4.;;;Automatisierte Unterscheidung von Gangmustern basierend auf sEMG-Erkennung Ein allgemeines Schema zur automatischen Unterscheidung von Gangmustern basierend auf der Erkennung von Oberflächenelektromyogrammen der unteren Gliedmaßen wird vorgeschlagen, um drei verschiedene Gelände und sechs verschiedene Bewegungsmuster zu klassifizieren. Um die Wirksamkeit verschiedener Merkmalsextraktionsverfahren zu überprüfen, werden Zeit-Frequenz-Merkmale wie RMS und MF, Wavelet-Varianz und Matrix-Singularitätswert verwendet, um die sEMG-Signale unter verschiedenen Bedingungen zu verarbeiten. SVM wird verwendet, um Gangmuster basierend auf den ausgewählten Merkmalen zu unterscheiden. Vergleichsergebnisse zeigen, dass ein Merkmalsextraktionsverfahren basierend auf dem Matrix-Singularitätswert bessere Ergebnisse erzielen kann und ein Klassifikationsgenauigkeitsverhältnis von über 92,5 % erreicht werden kann. Das experimentelle Ergebnis zeigt die Rationalität und Wirksamkeit der vorgeschlagenen Methoden zur Merkmalsextraktion und Musterklassifizierung. Das vorgeschlagene Schema weist ein großes Potenzial bei der Anwendung der Unterstützung der unteren Gliedmaßen auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38466-0_71 9fb35c1498bb951c6a52b71f180be787;de;;;2.4.;;;Online-Überwachungssystem für die Unterhaltungsausrüstung basierend auf dem drahtlosen Sensornetzwerk ZigBee Vergnügungsparks sind die beliebtesten Unterhaltungsorte der Kinder. Daher ist die Sicherheit der Ausrüstung sehr wichtig. Aufgrund des rückständigen Managements vieler Vergnügungsparks kann der Fehler von Vergnügungseinrichtungen jedoch nicht im Voraus vorhergesagt werden, und wenn ein Fehler auftritt, kommt es manchmal zu Opfern. Um dieses Problem zu lösen, wurde in diesem Beitrag das Online-Überwachungssystem der Unterhaltungsausrüstung basierend auf dem drahtlosen Sensornetzwerk ZigBee vorgeschlagen. Außerdem werden die Gesamtarchitektur des Systems, die Zusammensetzung der Hardware und die Entwurfsmethode des Softwaremoduls erörtert. Die Gesamtarchitektur des Netzwerks ist eine Baumstruktur, die aus Hostcomputer, Koordinator, Routern und Terminals besteht. Der Host-Computer ist für die Verwaltung und Überwachung des Betriebszustands der Ausrüstung verantwortlich, analysiert und verarbeitet die Informationen der Ausrüstungszustände aus dem Feld, sagt den Ausrüstungsfehler voraus und kann auch den Alarm und die Vorschläge ausgeben, wenn der Fehler auftritt. Die experimentellen Ergebnisse zeigen, dass die Implementierung des Systems machbar ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5879-5_16 34e87859a58943c11756ab69e5f67af4;de;;;2.4.;;;Ein paralleles Bildverschlüsselungsverfahren basierend auf Compression Sensing Kürzlich wurden auf Kompressionserfassung basierende Verschlüsselungsverfahren vorgeschlagen, die Abtastung, Kompression und Verschlüsselung miteinander kombinieren. Da jedoch die quantisierten Messdaten, die aus der linearen Dimensionsreduktionsprojektion erhalten werden, direkt als das verschlüsselte Bild dienen, widerstehen die existierenden Verschlüsselungsverfahren auf Kompressionssensorbasis nicht dem Angriff des gewählten Klartexts. Um die Sicherheit zu erhöhen, wurde eine Blockchiffrenstruktur bestehend aus Scrambling, Mixing, S-Box und Chaotic-Gitter-XOR entwickelt, um die quantisierten Messdaten weiter zu verschlüsseln. Insbesondere arbeitet das vorgeschlagene Verfahren effizient in der Parallelrechnerumgebung. Darüber hinaus tauscht eine Kommunikationseinheit Daten zwischen den mehreren Prozessoren ohne Kollision aus. Diese kollisionsfreie Eigenschaft entspricht einer optimalen Diffusion. Die experimentellen Ergebnisse zeigen, dass das vorgeschlagene Verschlüsselungsverfahren nicht nur die bemerkenswerte Verwirrung, Diffusion und Sensitivität erreicht, sondern auch die bestehenden parallelen Bildverschlüsselungsverfahren in Bezug auf Komprimierbarkeit und Verschlüsselungsgeschwindigkeit übertrifft.;-;-;-;https://link.springer.com/article/10.1007/s11042-012-1337-0 b1734bf90fdc4b3c634eb385c70aedf4;de;;;2.4.;;;Integriertes Computerforensik-Untersuchungsprozessmodell (ICFIPM) für Ermittlungen in Computerkriminalität Im Gegensatz zu traditionellen Straftaten, für die es tief verwurzelte Standards, Verfahren und Modelle gibt, auf die sich Gerichte verlassen können, gibt es für die digitale Forensik keine formalen Standards, Verfahren oder Modelle, auf die sich Gerichte berufen können. Zwar gibt es bereits eine Reihe verschiedener digitaler Ermittlungsprozessmodelle, diese sind jedoch eher Ad-hoc-Verfahren. Damit der Fall vor Gericht obsiegen kann, müssen die Verfahren zur Beschaffung digitaler Beweismittel und der verwendeten Terminologie gründlich und in der digitalen Forensik-Community allgemein akzeptiert sein. Das vorgeschlagene neuartige Prozessmodell zielt sowohl auf die praktischen Anforderungen digitaler Forensiker als auch auf die Bedürfnisse von Gerichten nach einem formalen computergestützten Ermittlungsprozessmodell ab, mit dem die digitalen Beweismittel forensisch einwandfrei verarbeitet werden können. Darüber hinaus beschreibt das vorgeschlagene Modell im Gegensatz zu den bestehenden Modellen, die sich auf einen Aspekt des Prozesses konzentrieren, den gesamten Lebenszyklus einer digitalen forensischen Untersuchung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23276-8_8 9c45e52cbbff49b4b1fb35cce83a01f3;de;;;2.4.;;;Wiederherstellung der Intensitätsgleichförmigkeit von Bi-Kontrast-MRT-Daten mit Bayes-Kookkurrenz-Coring Die Rekonstruktion im MRT geht von einem einheitlichen Hochfrequenzfeld aus. Dies wird jedoch verletzt, was zu anatomisch belanglosen Intensitätsungleichmäßigkeiten führt. Ein anatomischer Bereich kann mit mehreren Kontrasten abgebildet werden, die zu unterschiedlichen Ungleichmäßigkeiten führen. Es wird ein Verfahren zur Wiederherstellung der gemeinsamen Intensitätsgleichförmigkeit von zwei solchen Bildern vorgestellt. Die Wirkung der Intensitätsverzerrung auf die Auto-Ko-Auftritts-Statistik jedes Bildes sowie auf die gemeinsame Ko-Auftritt-Statistik der beiden Bilder wird modelliert. Ihre nicht-stationäre Dekonvolution liefert Bayes'sche Kernschätzungen der Bilder. Weitere Einschränkungen für Glätte, Stabilität und Gültigkeit der Ungleichmäßigkeitsschätzungen werden ebenfalls auferlegt. Die Wirksamkeit und Genauigkeit der Methode wurde sowohl mit BrainWeb-Phantombildern als auch mit echten anatomischen Daten des Gehirns von 29 Parkinson-Patienten umfassend nachgewiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-60964-5_54 de111731b569072a0ed8de4cc651b2be;de;;;2.4.;;;Vokabellernstrategien in einer computergestützten Sprachlernumgebung In diesem Artikel wird versucht, das Gesamtmuster von Vokabellernstrategien zu untersuchen, die von englischen Hauptfächern in der Umgebung des computergestützten Sprachenlernens (CALL) angewendet werden. Es neigt auch dazu herauszufinden, welche Strategien mit den Leistungen der Schüler bei der Englischprüfung korrelieren. Darüber hinaus wird über Independent-Sample eine Vergleichsstudie zu Überzeugungen und VLS in CALL-Umgebungen durchgeführt, die von High- und Low-Achievern angenommen wurden;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_311 99d602fdcbce8ec62e5b18e3579b0455;de;;;2.4.;;;Eine angewandte Forschung zum Erfahrungslernen im Englischunterricht an Hochschulen basierend auf Netzwerkressourcen Erfahrungslernen ist der Prozess, bei dem Wissen durch die Transformation von Erfahrungen entsteht. EL-basiertes Englischlernen ist von Natur aus autonomes Lernen, das in sechs Phasen unterteilt werden kann: Erleben, Teilen, Reflektieren, Theoretisieren, Anwenden und Bewerten. Dieses Papier untersucht die effektiven Lernstrategien, die in jeder Phase angewendet werden, und untersucht den angemessenen Einsatz dieser Strategien. In diesem Papier wird auch darauf hingewiesen, dass strategiebasierter Unterricht und Training für Lernende erforderlich sind, um autonomes Englisch-Lernen auf El-Basis durchzuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23339-5_76 572fb7a813f5e37280fa43135c1826a8;de;;;2.4.;;;Klassifizierung und Clustering von infizierten Blattpflanzen mit dem K-Means-Algorithmus Die Identifizierung der Pflanzenblattbilder wird eine Schlüsselrolle spielen, um große Ertrags- und Produktionsverluste in landwirtschaftlichen Betrieben zu verhindern. Unter Blattkrankheiten versteht man die wissenschaftliche Untersuchung von Krankheiten in Pflanzenblättern, die durch infektiöse Organismen und physiologische Bedingungen verursacht werden. In der Landwirtschaft ist es sehr wichtig, den Gesundheitszustand zu verfolgen und Krankheiten von Pflanzenblättern im Frühstadium zu erkennen. Die manuelle Identifizierung von Pflanzenblattkrankheiten ist sehr schwierig, da es viel Arbeit erfordert, und nur das Fachwissen wird in der Lage sein, die Pflanzenkrankheit zu identifizieren. Daher bevorzugen wir vor allem die Bildverarbeitung, um Blattkrankheiten zu erkennen. Die Erkennung von Krankheiten umfasst mehrere Schritte wie Bildaufnahme, Bildvorverarbeitung, Bildsegmentierung, Merkmalsextraktion und auch Kategorisierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-9059-2_41 45c45fe3744c1291fb105f337e6d19e0;de;;;2.4.;;;Computermodelle der Sprache für das Brain-Style-Computing Das menschliche Gehirn besteht aus einem neuronalen System als Hardware und einem Sprachsystem als Software. Es gibt daher zwei Ansätze, um das menschliche Gehirn zu erschaffen. Während der hardwarezentrierte Ansatz auf Computational Neuroscience basiert, ist es möglich, den softwarezentrierten Ansatz auf die Linguistik zu stützen.;-;-;-;https://link.springer.com/chapter/10.1007/11681960_2 8792a53852305890fc54544f07044850;de;;;2.4.;;;Das Nahtverfolgungssystem für das Unterpulverschweißen Der Aufbau und das Prinzip der Nahtführung beim Unterpulverschweißen wurden in diesem Beitrag vorgestellt. Die Methode der Nahterkennung mit Computer Vision wurde vor allem beim Wechsel des Umgebungslichts erforscht. Ein intelligentes Steuerungssystem zur Nahtverfolgung wurde durch den Einsatz eines selbstmodulierten Fuzzy-Steuerungssatzes realisiert. Das System wurde bei der Herstellung von spiralförmig unterpulvergeschweißten Rohren für das Außenschweißen getestet und die ersten Ergebnisse wurden erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-44415-2_9 dd1247394ed2cb2b070d0e156001b18f;de;;;2.4.;;;Logikprogrammierung für Agenten Prolog ist eine der bekanntesten logischen Programmiersprachen und eignet sich zur Implementierung einer Inferenz-Engine für Agenten. Prolog berücksichtigt jedoch nicht die dynamische Natur von Agenten wie Wissenserwerb und Aktionsausführung. Dies stellt ein Problem dar, da der Agent möglicherweise in einer dynamischen Umgebung arbeitet, in der unerwartete Dinge passieren können. Um eine Prolog-ähnliche Prozedur als Inferenzmaschine eines Agenten zu verwenden, sollte die Prozedur in der Lage sein, die Berechnung, falls erforderlich, nach dem Aktualisieren des Programms oder Ausführen einer Aktion zu ändern. Wir führen ein neues Prolog-ähnliches Verfahren ein, das Planung, Maßnahmenausführung, Programmaktualisierungen und Planänderungen integriert. Unser neues Verfahren berechnet Pläne durch Entführung. Während oder nach einer Berechnung kann es ein Programm aktualisieren, indem es dem Programm eine Regel hinzufügt oder eine Regel aus dem Programm löscht. Nach der Aktualisierung des Programms ändert es die Berechnung, schneidet ungültige Pläne ab und fügt neue gültige Pläne hinzu. Wir verwenden die Technik des dynamischen SLDNF (DSLDNF) [;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45683-X_63 467152756bc8d311968af722ab80c9d4;de;;;2.4.;;;Ein Life-Ansatz für die Koevolution von Raubtieren und Beutetieren mit Körperverhalten: Körper zuerst oder Verhalten zuerst? Wir präsentieren die Ergebnisse der Morphologie-Verhalten-Räuber-Beute-Koevolution in einer physikalisch simulierten 3D-Umgebung. Die Morphologie und das Verhalten virtueller Raubtiere und Beutetiere werden mithilfe eines genetischen Algorithmus und zufälliger Einzelbegegnungen in einer gemeinsamen Umgebung entwickelt. Wir analysieren die evolutionäre Dynamik auf der Grundlage einer quantitativen Charakterisierung von Morphologie und Verhalten. Konkret stellen und beantworten wir die Frage: Was geht dem anderen voraus, Morphologie oder Verhalten, während der evolutionären Erwerbung von Räuber- und Beutestrategien?;-;-;-;https://link.springer.com/article/10.1007/s10015-013-0096-y 3cc9df6c3807a5be573f798ec2ee1baf;de;;;2.4.;;;Strukturanalyse der menschlichen Form zur Modellierung und Erkennung Die strukturelle Analyse der menschlichen Form ist keine triviale Aufgabe. Dieser Beitrag stellt eine neuartige Methode für eine strukturelle menschliche Formanalyse zur Modellierung und Erkennung unter Verwendung von aus 3D-Daten berechneten 3D-Gangsignaturen vor. Die 3D-Daten werden von einem triangulationsbasierten Projektor-Kamera-System gewonnen. Zunächst werden 3D-Strukturdaten der menschlichen Form erfasst, die aus repräsentativen Posen zusammengesetzt sind, die während des Gangzyklus eines gehenden Menschen auftreten. Durch Interpolation von Gelenkpositionen werden statische und dynamische Gangmerkmale zur Modellierung und Erkennung erhalten. Letztendlich wird eine strukturelle menschliche Formanalyse erreicht. Repräsentative Ergebnisse zeigen, dass die vorgeschlagene auf 3D-Gangsignaturen basierende Biometrie gültige Ergebnisse auf realen 3D-Daten liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44415-3_29 b650a777ffb6ebde71e48c71a6db1bcc;de;;;2.4.;;;Waldbrandfrüherkennung mit stromsparenden drahtlosen Sensornetzwerken Früherkennung und präventive Maßnahmen sind das wichtigste Mittel, um Schäden und Verluste an natürlichen und menschlichen Ressourcen zu minimieren. Die durch Brände verursachten Katastrophen erfordern jedoch eine sofortige Reaktion. Die in diesem Papier vorgestellte Arbeit beschreibt einen Vorschlag für eine kurzfristige Risikobewertung von Waldbränden, um die Reaktionszeit der Einsatzkräfte und die bestehenden Systeme zur Verhütung, Erkennung und Überwachung von Waldbränden zu verbessern. Um dies zu erreichen, wird die Einführung und Implementierung von drahtlosen Sensornetzwerken eine Echtzeit-Umgebungsüberwachung dynamischer Waldbrandrisikofaktoren ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-53187-4_76 f4aefdf7e2d2f0672498421f4da9fa05;de;;;2.4.;;;Implementieren von NRDR mit OO Database Management System (OODBMS) Zu den Beweggründen für die Verwendung eines Datenbankmanagementsystems (DBMS) zum Aufbau eines Wissensdatenbanksystems (KBS) gehört die fehlende Fähigkeit von KBS, große Regelsätze zu verwalten, den gleichzeitigen Zugriff zu kontrollieren und mehrere Wissensdatenbanken gleichzeitig zu verwalten. In der Arbeit bauen wir einen KBS mit einem Datenbankmanagementsystem DBMS für seine Schemaentwicklungsfähigkeit auf. Wir nutzen diese Fähigkeit eines objektorientierten DBMS (OODBMS), um die Konsistenz einer inkrementell erstellten Wissensdatenbank (KB) zu verwalten.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45683-X_73 6ded288152d122169bf112733197a6f0;de;;;2.4.;;;Wissensmanagement und eLearning in der beruflichen Entwicklung Der rasant wachsende Einsatz von Technologie im Bildungswesen verändert die Art und Weise, wie Wissen produziert, gespeichert und verteilt wird. Online-Bildung ist bereits als der Weg der Zukunft akzeptiert, Wissen kann über Zeit und Raum verteilt werden. Wissensmanagementtechniken können verwendet werden, um dieses Wissen zu erfassen, zu organisieren und bereitzustellen, und Managementsysteme können verwendet werden, um die relevantesten Informationen schnell zu identifizieren und sie zu verteilen, um spezifische Anforderungen zu erfüllen. In diesem Beitrag werden die grundlegenden Konzepte von Wissensmanagement und eLearning beleuchtet. Es wird eine Diskussion darüber präsentiert, wie Wissensmanagement und eLearning integriert und für eine effektive Online-Aus- und Weiterbildung genutzt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87783-7_22 3ad5ba485e4e7a8c48a22ee8d4167559;de;;;2.4.;;;Quantitative Analyse der funktionellen Konnektivität zwischen präfrontalem Kortex und Striatum bei Affen Die Belohnungsvorhersage ist für das Lernverhalten und den Entscheidungsprozess im Gehirn unerlässlich. Es ist bekannt, dass die Neuronen sowohl im präfrontalen Kortex (PFC) als auch im Striatum an der Kodierung von Belohnungsinformationen beteiligt sind und das Zusammenspiel zwischen PFC und Striatum eine wichtige Rolle bei kognitiven Prozessen spielt. Es bleibt jedoch schwer fassbar, wie die Interaktion zwischen PFC und Striatum in Belohnungsbedingungen moduliert wird. Um dieses Problem zu untersuchen, wurden die lokalen Feldpotentiale (LFPs) gleichzeitig im lateralen PFC und im Striatum eines männlichen Affen aufgezeichnet, während die sequentielle Paired-Assoziation-Aufgabe mit dem asymmetrischen Belohnungsschema durchgeführt wurde. Die nichtlineare Interdependenz (NLI), ein Maß für die generalisierte Synchronität, die sowohl die Kopplungsstärke als auch die Kopplungsrichtung charakterisiert, wurde verwendet, um die Stärke der bidirektionalen funktionellen Konnektivität zwischen PFC und Striatum zu quantifizieren. Die Ergebnisse legen nahe, dass PFC eine starke bidirektionale Kopplung mit dem Striatum aufweist und die Interaktion im Beta-Frequenzband eine wichtige Rolle bei der Regulierung des Verhaltens von Affen bei der Belohnungsvorhersage spielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8854-4_44 cb36ac9b2186840cf31d14ae9bafa8e9;de;;;2.4.;;;Die Erforschung und Anwendung von IT-Raumüberwachungssystemen in Kernkraftwerken Mit dem Ziel, das Fehlen einer Echtzeitüberwachung des Kernenergiegeschäftsproblems zu lösen und den Betriebszustand der Ressourcen zu kontrollieren, wurde ein vierschichtiges Modell des Überwachungssystems entwickelt. In Übereinstimmung mit dem Computerraum, der Systemausrüstung, der Sicherheitsausrüstung, der Netzwerkausrüstung und dem Anwendungssystem der Spezialisierung realisiert es die zentrale Überwachung und integrierte Anzeige der abhängigen Elemente des Servicesystems des Kernkraftwerks. Das Design und die Anwendung des Überwachungssystems können eine Menge Geräteüberwachung und Betriebsüberwachungsindex bereitstellen. Mit dem Ziel, die rechtzeitige Erkennungsrate und den laufenden Trend von Fehlern erheblich zu verbessern und die Gefahrenereignisse vorherzusagen, konzentriert sich dieses Dokument auf die Verbesserung der Zuverlässigkeit und Wartungsfreundlichkeit der Überwachungszentrale und bietet einen umfassenden zentralisierten Steuerungsmodus für die Zukunft der Überwachungszentrale für elektrische Anlagen Energieversorgungsunternehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-7010-6_126 764964f54cc9e9cc61d4b6b8b370bd3e;de;;;2.4.;;;Silent Duration Handling für Trajectory Mining Räumlich-zeitliche Daten haben ein enormes Potenzial als Informations- und Wissensquelle. Eines der Forschungsthemen in der räumlich-zeitlichen Datenanalyse ist die Suche nach häufigen Trajektorienmustern, die darauf abzielen, Bewegungsmuster von Objekten zu analysieren. Trajectory Mining ist jedoch aufgrund des Lärms und der Einschränkungen der Datenerfassungstechnologie eine herausfordernde Aktivität. Die gesammelten Trajektoriendaten weisen im Allgemeinen ein räumliches oder zeitliches Bias-Problem auf, von denen eines das Vorhandensein einer „stillen Dauer“ oder die Nichtverfügbarkeit von Daten für ein sich bewegendes Objekt in einem bestimmten Zeitraum ist. Dies kann passieren, weil die Daten verloren gehen oder aufgrund einer bestimmten Stichprobenstrategie. Das Phänomen der stillen Dauer, das bei räumlich-zeitlichen Daten auftritt, folgt oft auf Datenschäden, daher hat der durchgeführte Data-Mining-Prozess kein echtes Wissen oder keine echten Muster erzeugt. In dieser Studie wird die Methode der linearen Interpolation verwendet, um Datenschäden zu beheben, die durch den fehlenden Wert während der stillen Dauer verursacht werden. Lineare Interpolation ist eine Methode, die versteckte Werte suchen oder erzeugen kann. Dieser Prozess wurde in der Vorverarbeitungsphase durchgeführt, um vollständige und saubere Daten zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30577-2_60 97aa157d9b1fad49faf46cf02135966f;de;;;2.4.;;;Erkennung menschlicher Aktivitäten basierend auf mehreren Kinekten Die Aktivitätserkennung ist eine wichtige Komponente für die Ambient Assisted Living-Systeme, die eine Heimüberwachung und Unterstützung für ältere Menschen oder Patienten mit Risikofaktoren durchführen. In diesem Papier wird ein Prototypsystem zur Aktivitätserkennung vorgestellt, das Informationen verwendet, die von vier Kinects bereitgestellt werden. Zuerst wird die Haltung der beaufsichtigten Person anhand eines Regelsatzes erkannt, der mit dem ID3-Algorithmus erstellt wurde und auf ein Skelett angewendet wird, das durch Zusammenführen der Skelette mehrerer Kinects erhalten wurde. Gleichzeitig wird die Interaktion des Nutzers mit den Objekten aus dem Haus bestimmt. Danach werden tägliche Aktivitäten mit Hidden-Markov-Modellen identifiziert, in denen die erkannten Körperhaltungen und die Objektinteraktionen beobachtbare Zustände sind. Der Vorteil der Zusammenführung der von mehreren Kinects erhaltenen Informationen zusammen mit der Erkennung der Interaktion zwischen dem Benutzer und relevanten Objekten aus dem Raum besteht in der Erhöhung der Genauigkeit der erkannten Aktivitäten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41043-7_5 d73d0840fa4bd0f109b3eedc59801cdb;de;;;2.4.;;;Sarkasmus-Erkennung mit merkmalsvarianten Lernmodellen Die Stimmungsanalyse ist das Textklassifizierungstool, das eine Stimmung, Nachricht, Emotion, Einstellung analysiert und sagt, ob die Stimmung positiv, negativ oder neutral ist. Die größte Herausforderung bei der Sentimentanalyse ist das Vorhandensein von Sarkasmus in der Nachricht. Sarkasmus ist eine Art von Gefühl, das verbal durch Augenrollen und tonalen Stress ausgedrückt wird. Es besteht aus Wörtern, die das Gegenteil von dem bedeuten, was der Benutzer vermitteln möchte, um lustig zu sein oder Irritationen zu zeigen. Die Zahl der aktiven Online-Nutzer und ihrer Bewertungen auf Websites ist groß, sodass sie selbst für Menschen schwer zu erkennen sind. Um eine fehlerfreie Stimmungsanalyse zu erzielen, ist es daher unerlässlich, dass Maschinen sie genau erkennen. Das Papier schlägt die Verwendung von drei verschiedenen Klassen von Merkmalen vor, um Computern zu helfen, Sarkasmus einigermaßen gut zu erkennen. In diesem Artikel beabsichtigen wir, eine Reihe von Computertechniken wie Support Vector Machine, Decision Trees, Logistic Regression, Random Forest, K-Nearest Neighbors und Neural Networks zur Sarkasmus-Erkennung in sozialen Medien zu implementieren und empirisch zu analysieren. Die Experimente wurden mit drei Datensätzen durchgeführt, d. h. dem SemEval 2015-Twitter-Benchmark-Datensatz, zufälligen Tweets, die mit der Streaming-API gesammelt wurden, und einem öffentlich verfügbaren Datensatz von Reddit-Posts. Die Datensätze liefern interessante Einblicke, wie verschiedene Formen von Social Media das Werkzeug des Sarkasmus unterschiedlich einsetzen. Die ausgewerteten Ergebnisse basierten auf den Leistungsmaßen wie Präzision, Erinnerung, Genauigkeit und F-Score. Unter allen hatten Twitter-Datensätze die höchste Genauigkeit von etwa 91% bis 92% erreicht, während der Reddit-Datensatz eine Spitzengenauigkeit von 80% erreicht hatte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30577-2_61 07920ed75c07ecd95f1173eb90a2ab89;de;;;2.4.;;;Intelligentes Steuerungssystem für den automatischen Erdungsdraht-Betriebsroboter der Umspannstation Dieses Papier schlägt ein intelligentes Steuerungssystem für die Entwicklung eines automatischen Erdungsdraht-Arbeitsroboters für Umspannwerke vor. Das System besteht aus zwei Teilen: Roboter-Bewegungssteuerungs-Subsystem und Roboter-Visual-Servo-Subsystem. Das System realisiert einen autonomen Steueralgorithmus des Roboterbetriebsprozesses durch die Roboter-Vision-Servotechnologie, die den Stereo-Vision-Algorithmus mit dem Algorithmus zur Geräteverfolgung kombiniert. Der Objektverfolgungsalgorithmus und der Kalman-Filteralgorithmus werden verwendet, um den Ausrüstungsbereich zu extrahieren und zu verfolgen, und der binokulare Stereovisionsalgorithmus wird verwendet, um die dreidimensionalen Informationen der Ausrüstung genau zu erhalten, und die Positionsinformationen werden an das Robotersteuerungssystem zurückgegeben , das ein Servosteuersystem bildet. Das System kann den unbemannten Betrieb von Live-Arbeiten in der unbeaufsichtigten Situation realisieren und den Automatisierungsgrad und die Arbeitseffizienz des Betriebs verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9298-7_22 f1c266424ac8eca4eb3e536ddd2b6a10;de;;;2.4.;;;Eine 3D-Rekonstruktionsmethode mit Farbwiedergabe aus Multiband- und Multi-View-Bildern Der Zweck der digitalen Archivierung ist die genaue Wiedergabe von authentifizierten Inhalten in Bezug auf Farbe und Form. In diesem Beitrag wird ein neuartiges 3D-Rekonstruktionsverfahren mit Farbreproduktion aus Multiband- und Multi-View-Bildern vorgeschlagen. Das vorgeschlagene Verfahren besteht aus 5 Schritten: (i) Merkmalsverfolgung von Multiband- und Multi-View-Bildern, (ii) spärliche 3D-Rekonstruktion mit Structure from Motion (SfM), (iii) Netzgenerierung aus den spärlichen 3D-Punktwolken, ( iv) dichte 3D-Rekonstruktion und (v) Farbwiedergabe. Wir erstellen mit Kimono Multiband- und Multi-View-Bilddatensätze japanischer Puppen zur quantitativen Leistungsbewertung. Durch eine Reihe von Experimenten mit unseren Datensätzen bestätigen wir, dass unsere vorgeschlagene Methode im Vergleich zu herkömmlichen Methoden eine effiziente Leistung bei der Rekonstruktion eines hochwertigen 3D-Modells aus Multiband- und Multi-View-Bildern aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-54427-4_18 74ad5f4ab28adffb3192792caa28e40d;de;;;2.4.;;;Trendvorhersage des Verschleißfehlers von Windgenerator-Hochgeschwindigkeitsgetrieben durch eine Fusion der UICA- und PE-Methode Der große Windgenerator arbeitet unter den wechselnden Betriebsbedingungen seit Jahren, im Allgemeinen sind die Fehlerkennwerte der rotierenden Komponenten basierend auf dem Energiemodus mit anderen Geräuschen gekoppelt, so dass der Fehlerverlauf nicht genau vorhergesagt werden kann. Mit dem Verschleißfehler des schnelllaufenden Getriebes der Windkraftanlage als Forschungsgegenstand wird in diesem Beitrag das Trendvorhersageverfahren des Verschleißfehlers des schnelllaufenden Getriebes basierend auf der Fusion von Ultra-Complete Independent Component Analysis (UICA) vorgeschlagen. und Parameterschätzung (PE), konstruiert das ultra-vollständige Analysemodell, trennt die ähnlichen Quellsignale mehr als Mischsignale unter Verwendung des UICA und findet nützliche Komponenten mit den Merkmalen des reinen ähnlichen Fehlerquellensignals als Basis. Basierend auf der Ähnlichkeit zwischen dem ähnlichen Fehlerquellensignal und dem Fehlerquellensignal schätzt dieses Papier den Wertebereich der Vergrößerungszeit ähnlicher Formen unter Verwendung des PE, identifiziert die Abbildung zwischen dem kontinuierlichen und einseitig variierenden Vergrößerungszeitbereich und der rotierenden Komponente Fehlergrad, erstellt den Fehlergrad-Beurteilungsstandard und bestimmt und sagt den Fehlergrad und den Fehlertrend basierend auf dem Energieänderungstrenddiagramm des Gesamtlebenszyklus-Fehlerquellensignals des Hochgeschwindigkeitsgetriebes voraus. Das obige Verfahren wird verwendet, um die Verschleißfehlerdaten des Hochgeschwindigkeitsgetriebes zu verarbeiten. Die Ergebnisse zeigen, dass das obige Verfahren eine offensichtliche Wirkung bei der Verarbeitung von plötzlichen Zyklussignalen hat, so dass es zeigt, dass dieses Verfahren einen gewissen technischen Anwendungswert hat und einen Hinweis auf die Lösung des Problems liefert, dass die Anzahl der unabhängigen Schwingungsquellen größer ist als die der Mischsignale in der Schwingungsanalyse.;-;-;-;https://link.springer.com/article/10.1007/s10586-017-0733-7 e6f7d1904de95dba01a14ff3564640da;de;;;2.4.;;;Stuxnet-Schwachstellenanalyse von SCADA-Systemen Der Stuxnet-Virus ist eine erstmals entdeckte Malware, die im Juni 2010 ein Kernkraftwerk beschädigte und über Schwachstellen nur das Siemens Supervisory Control and Data Acquisition (SCADA)-System angreift. Durch die statische umgekehrte und dynamische Analyse von Stuxnet-Malware-Dateien haben wir die Sicherheitslücke MS10-046 (CVE-2010-2772), die Sicherheitslücke MS10-061 (CVE-2010-2729) im Druckspoolerdienst und MS10-073 (CVE- 2010-2743) Sicherheitsanfälligkeit bezüglich Erhöhung von Berechtigungen im Tastaturlayout. Das Papier illustrierte interne Details und die von Stuxnet implementierten Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35211-9_81 a62aafa599adef4fe54e9c4a81e19535;de;;;2.4.;;;Computersimulationsforschung des Prozesses der Erkennung chinesischer Schriftzeichen Die Erkennung chinesischer Schriftzeichen ist ein wichtiges Gebiet der Kognitionswissenschaft. Daher wurde der Erforschung der Erkennung chinesischer Schriftzeichen mehr Aufmerksamkeit geschenkt. Und eine effektive Methode ist die Computersimulation. In diesem Beitrag wird ein Modell vorgeschlagen, das die Clusterbildung chinesischer Schriftzeichen und die Aufteilung von Komponenten basierend auf einer selbstorganisierenden Karte simuliert. Mit anderen Worten, es kann die Beziehung zwischen chinesischen Schriftzeichen und den Komponenten erforschen. Dies ist der wichtige Forschungsinhalt der chinesischen Schriftzeichenerkennung. Die Ergebnisse dieser Simulation legen nahe, dass das Modell in der Lage ist, einige empirische Ergebnisse zu berücksichtigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74282-1_109 e05868f80122be99b87ec1cdb91a0394;de;;;2.4.;;;Die Rolle der perkutanen Tibianervenstimulation (PTNS) bei der Behandlung der chronischen Analfissur: eine systematische Übersicht Diese Studie wurde entwickelt, um die aktuelle Evidenz zur Rolle der perkutanen Tibianervenstimulation (PTNS) bei der Behandlung der chronischen Analfissur (CAF) zusammenzufassen.;-;-;-;https://link.springer.com/article/10.1007/s00384-021-03976-w 13e4fbdb7e6764938e9b478b4a7ebff7;de;;;2.4.;;;Zur Leistungsanalyse optischer Flussalgorithmen In den letzten dreißig Jahren wurden buchstäblich Tausende von Artikeln über optische Flussalgorithmen veröffentlicht. Nur eine kleine Teilmenge der vorgeschlagenen Algorithmen wurde hinsichtlich ihrer Leistungsfähigkeit analysiert. Diese Auswertungen basierten auf Black-Box-Tests, die hauptsächlich Aussagen über die durchschnittliche Genauigkeit von Testsequenzen mit Ground Truth lieferten. Es gibt keine theoretisch fundierte Begründung dafür, warum dieser Ansatz die Eigenschaften von optischen Flussalgorithmen sinnvoll und/oder erschöpfend beschreibt. In der Praxis werden Designentscheidungen oft nach unmotivierten Kriterien oder durch Versuch und Irrtum getroffen. Dieser Artikel ist ein Positionspapier, das aktuelle Methoden der Leistungsanalyse hinterfragt. Ohne empirische Ergebnisse diskutieren wir strengere und theoretisch fundiertere Ansätze, die es Wissenschaftlern und Ingenieuren gleichermaßen ermöglichen könnten, ausreichend motivierte Designentscheidungen für eine bestimmte Bewegungsschätzungsaufgabe zu treffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34091-8_15 0ced306484e36b8ea399da27f364229b;de;;;2.4.;;;Objekterkennungsverfahren von mobilen Manipulatoren basierend auf Multisensor-Informationsfusion Mobile Manipulatoren haben in letzter Zeit viel Interesse geweckt. In diesem Artikel wird eine Objekterkennungsmethode für mobile Manipulatorsysteme vorgestellt, die auf Multisensor-Informationsfusion basiert. Zunächst wurde die Fusionsmethode von visuellen und Ultraschallinformationen auf die Lokalisierung des Endeffektors angewendet. Und basierend auf dem Ultraschall-Array der mobilen Plattform wurde eine Fuzzy-Steuerungsmethode angewendet, um ihre Hindernisvermeidungsbewegung zu erreichen. Die visuelle Objekterkennungs- und Lokalisierungsmethode konzentriert sich auf die Bildvorverarbeitung, einschließlich der: Graubehandlung, Wahl des Schwellenwerts, Binarisierung, Erosion, Dilatation und Gruppenfarben-Up-Methode. Diese Transformationen können ein klares Bild erzeugen, das vom Steuercomputer leicht erkannt werden könnte. Es wird eine Entwurfsmethodik für die momentinvariante Erkennung basierend auf der Objekterkennung vorgeschlagen. Experimentelle Ergebnisse belegen die Gültigkeit des Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88513-9_117 700cd15ef377e8b39606e0817a22a9ec;de;;;2.4.;;;Mobile Roboter und intelligente Umgebungen Dieser Beitrag befasst sich mit einer Wissensrepräsentationsarchitektur für verteilte Systeme. Ziel ist es, einen gemeinsamen Rahmen für den Umgang mit einem „intelligenten Raum“ zu schaffen, d. h. einem Ökosystem aus künstlichen Einheiten, die zusammenarbeiten, um eine intelligente Multi-Source-Datenfusion durchzuführen. Diese Informationen werden verwendet, um das Verhalten von mobilen Robotern und intelligenten Geräten zu koordinieren. Die experimentellen Ergebnisse diskutieren dieses Zusammenspiel im Hinblick auf die Erfüllung komplexer Serviceaufgaben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74782-6_69 2e33db23c04d4e75af8ec237c8ee7093;de;;;2.4.;;;Entwicklung eines Leerlaufdrehzahlmotormodells unter Verwendung von Zylinderinnendruckdaten und eines Leerlaufdrehzahlreglers für einen Ottomotor mit Saugrohreinspritzung mit kleinem Hubraum Ein Leerlaufdrehzahl-Motormodell wurde vorgeschlagen und für die Entwicklung eines Leerlaufdrehzahlreglers für einen 125-cm³-Zweirad-Ottomotor mit Fremdzündung verwendet. Das Verfahren verwendet den gemessenen angezeigten mittleren effektiven Druck (IMEP) bei verschiedenen Geschwindigkeiten bei konstanter Kraftstoffmenge und Drosselklappenstellung, die durch Variieren des Zündzeitpunkts erhalten werden. Im Leerlauf entspricht IMEP dem Reibmitteldruck. Ein Verzögerungstest wurde durchgeführt, um das Trägheitsmoment des Motors zu bestimmen. Mit diesen Daten wurde ein Modell zur Simulation der Leerlaufdrehzahlschwankungen bei unbekannten Drehmomentstörungen entwickelt. Dieses Modell wurde erfolgreich auf die Entwicklung eines Leerlaufdrehzahlreglers basierend auf dem Zündzeitpunkt angewendet. Die Steuerung wurde dann auf einer dSPACE Micro Autobox am eigentlichen Motor implementiert. Die aus dem Modell erhaltenen Proportional-Differential-Integral-(PID)-Reglerparameter stimmen ziemlich gut mit den experimentellen Werten überein, was die Nützlichkeit des entwickelten Leerlaufdrehzahlmodells anzeigt. Schließlich wurde der optimierte Leerlaufregelalgorithmus in ein eigens für Zweiradanwendungen entwickeltes, kostengünstiges Motormanagementsystem (EMS) eingebettet und erfolgreich demonstriert.;-;-;-;https://link.springer.com/article/10.1007/s12239-011-0002-3 9ab19bee5fceca5b79ea3afde71b0cc6;de;;;2.4.;;;Neue Herausforderungen für das F&E-Management Die Konzepte, mit denen wir über F&E nachdenken, müssen im Kontext der heutigen Geschäftstätigkeit, der Umstrukturierung von Industrien und der Organisation von F&E-Aktivitäten aufgefrischt und neu interpretiert werden, um neue Anforderungen zu erfüllen und neue Möglichkeiten zu fördern. Die Verbindungen zwischen Geschäftsstrategie, Technologiestrategie und F&E- und Innovationsstrategie sind nicht festgelegt. Innovative Unternehmen können die Dynamik dieser Beziehungen nutzen.;-;-;-;https://link.springer.com/chapter/10.1057/9780230512771_13 368b0b3b910edfe1ea63c8cd7d2a7481;de;;;2.4.;;;Einige aktuelle Ergebnisse beim U-förmigen Lernen U-förmiges Lernen befasst sich damit, dass ein Lernender zuerst die richtige Hypothese hat, sie dann in eine falsche Hypothese ändert und dann die richtige Hypothese wieder lernt. Dieses Phänomen wurde von Psychologen in verschiedenen Studien zur Entwicklung von Kindern beobachtet. In diesem Umfragegespräch werden wir einige aktuelle Ergebnisse zum U-förmigen Lernen und verwandten Kriterien diskutieren.;-;-;-;https://link.springer.com/chapter/10.1007/11750321_40 a5b139a5433e1ebe3a67f9855080cfdc;de;;;2.4.;;;Forschung zum robotergesteuerten Lichtbogenschweißen eines Fünf-Port-Steckverbinders Die Unsicherheitsfaktoren des Schweißprozesses, wie Schweißverzug, Wechselkanten in den Schweißnähten und die variable Größe des Spaltes, würden sich direkt auf das Aussehen und die Qualität der Schweißnaht auswirken. Für das Roboter-Lichtbogenschweißen eines Fünf-Port-Steckverbinders ist es erforderlich, ein Schweißqualitätskontrollsystem aufzubauen, das die Nahtverfolgung und Schweißbildungskontrolle realisieren kann. Das System erfasst die visuellen Signale und die Spannungssignale, um eine dreidimensionale Nahtverfolgung zu realisieren. Darüber hinaus stabilisiert es die Form des Schweißbades unter den Bedingungen des unterschiedlichen Spaltes und der Wechselkante.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19959-2_14 fe556598b11e221286c301b22cf5dd75;de;;;2.4.;;;Automatisierte Ermittlung von Entscheidungsregelketten mit groben Sets und medizinischem Diagnosemodell Eines der wichtigsten Probleme von Regelinduktionsmethoden ist, dass sie keine Regeln extrahieren können, die Entscheidungsprozesse von Experten plausibel darstellen. Einerseits induzieren Regelinduktionsverfahren probabilistische Regeln, deren Beschreibungslänge im Vergleich zu den Expertenregeln zu kurz ist. Andererseits erzeugt die Konstruktion von Bayes-Netzen zu lange Regeln. In diesem Beitrag werden die Eigenschaften von Expertenregeln genauer untersucht und ein neuer Ansatz zur Extraktion plausibler Regeln vorgestellt, der aus den folgenden drei Verfahren besteht. Zunächst wird die Charakterisierung von Entscheidungsattributen (gegebenen Klassen) aus Datenbanken extrahiert und die Klassen werden hinsichtlich der Charakterisierung in mehrere Gruppen eingeteilt. Dann werden zwei Arten von Unterregeln, Charakterisierungsregeln für jede Gruppe und Unterscheidungsregeln für jede Klasse in der Gruppe induziert. Schließlich werden diese beiden Teile für jedes Entscheidungsattribut in eine Regel integriert. Die vorgeschlagene Methode wurde auf einer medizinischen Datenbank evaluiert, deren experimentelle Ergebnisse zeigen, dass induzierte Regeln Entscheidungsprozesse von Experten korrekt abbilden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48050-1_36 de91f6db79e03210107b5042dc545265;de;;;2.4.;;;Extraktion von 3D-Bäumen ohne Blätter aus Bildsequenzen über einen generativen statistischen Ansatz In diesem Beitrag schlagen wir einen generativen statistischen Ansatz zur dreidimensionalen (3D) Extraktion der Verzweigungsstruktur von Laubbäumen ohne Laub aus städtischen Bildsequenzen vor. Die Bäume werden mittels L-Systemen generativ in 3D modelliert. Ein statistischer Ansatz, nämlich Markov Chain Monte Carlo – MCMC wird zusammen mit Kreuzkorrelation zur Extraktion verwendet. Dadurch überwinden wir die Komplexität und Unsicherheit des Extrahierens und Anpassens von Zweigen in mehreren Bildern aufgrund von schwachem Kontrast, Hintergrundechos und insbesondere der unterschiedlichen Reihenfolge von Zweigen bei der Projektion in verschiedene Bilder. Erste Ergebnisse zeigen das Potenzial des Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74936-3_39 25e68d08efb360c0730a37a08302c220;de;;;2.4.;;;Fuzzy-Logic-Anwendungen im Design von zellularen Fertigungssystemen Das zellulare Fertigungssystem (CMS) basiert auf der Group Technology-Philosophie, bei der ähnliche Produkte mit betrieblichen Ähnlichkeiten in derselben Produktionseinheit, der sogenannten „Zelle“, hergestellt werden, um die Rüstzeiten, Fertigungsdurchlaufzeiten und den Einarbeitungsprozess zu verkürzen. Die Fuzzy-Set-Theorie wurde verwendet, um die Unsicherheit im wirklichen Leben während des CMS-Designs zu berücksichtigen. Die hierfür verwendeten Ansätze umfassen Hard-Computing-Verfahren und Soft-Computing-Verfahren. Erstere berücksichtigen die Unsicherheit nicht und die Parameter sind deterministisch. Letzteres (Fuzzy-Set-Theorie) soll jedoch die Unbestimmtheit durch die Parameter widerspiegeln und wird mit den Soft-Computing-Methoden in Verbindung gebracht. Ein effektives CMS-Design erfordert die gleichzeitige Berücksichtigung realer Aspekte des Systems, die normalerweise unsicher und schwer zu messen sind. Zum Beispiel sind Teilebedarf, Kosten des Interzellflusses, Maschinenkaufkosten usw. ungenau, was die Verwendung von Soft-Computing-Techniken erfordert. Der Zweck dieser Studie besteht im Wesentlichen darin, die Fuzzy-Techniken, insbesondere das Fuzzy-Clustering und die Fuzzy-Programmierung, die für das CMS-Design verwendet wurden, und ihre bisherigen Anwendungen zusammenzufassen und Hinweise für zukünftige Forschungen zu geben.;-;-;-;https://link.springer.com/chapter/10.2991/978-94-91216-77-0_24 6dcc48d7fd62a9fce7e70433d0826fcf;de;;;2.4.;;;Fuzzy-Sets und Wissensdarstellung Dieses Papier bietet einen Überblick über einige der Probleme bei der Verwendung von Fuzzy-Sets für die Wissensrepräsentation in Computersystemen. Da eine Fuzzy-Menge vollständig durch ihre Zugehörigkeitsfunktion bestimmt wird, beziehen sich die Hauptprobleme bei der Fuzzy-Wissensdarstellung darauf, wie Zugehörigkeitsfunktionen am besten bestimmt werden. Eine Reihe von Methoden werden diskutiert. Ein alternativer Ansatz besteht jedoch darin, Fuzzy-Sets vom Typ 2 zu verwenden. Typ-2-Fuzzy-Sets ermöglichen linguistische Zugehörigkeitsgrade, wobei die Grade selbst Typ-1-Fuzzy-Sets sind. Dieses Papier untersucht zwei Möglichkeiten, wie Typ-2-Mengen Wissen darstellen können, und argumentiert, dass Typ-2-Fuzzy-Sets eine leistungsfähige Alternative zur Typ-1-Wissensrepräsentation darstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-1859-8_4 f6f61e14470001702550f6a45d20059b;de;;;2.4.;;;Modellbasierte Generierung realistischer 3D-Ganzkörper-Avatare aus unkalibrierten Multi-View-Fotos In der heutigen Welt des schnellen technologischen Fortschritts finden wir eine steigende Nachfrage nach kostengünstigen Systemen, die in der Lage sind, schnell und einfach realistische Avatare für den Einsatz in Virtual Reality (VR)-Anwendungen zu generieren. Avatare können beispielsweise das Immersionserlebnis von Benutzern in Videospielen verbessern und den Unterricht in virtuellen Klassenzimmern erleichtern. Daher präsentieren wir hier eine neuartige modellbasierte Technik, die in der Lage ist, in Echtzeit personalisierte Ganzkörper-3D-Avatare aus orthogonalen Fotografien zu generieren. Das vorgeschlagene Verfahren verwendet ein statistisches Modell der menschlichen 3D-Form und ein statistisches 2D-Formmodell mit mehreren Ansichten seiner entsprechenden Silhouetten. Unsere Technik ist automatisch, erfordert minimale Benutzereingriffe und benötigt keine kalibrierte Kamera. Jede Komponente unserer vorgeschlagenen Technik wird umfassend evaluiert und validiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44654-6_35 0aa99b74df66edf82bf803ec92f89bbb;de;;;2.4.;;;Der Schlüssel zur Getreidemengenerkennung im Schüttgutlager Gemäß den Anforderungen der Getreidemengenerkennung im Schüttgutlager nehmen wir das Szenenvideo als identifiziertes Objekt, um die Objektgrenze aus dem Ergebnis der iterativen Analyse der Kantenerkennungsdifferenz zu erhalten. Durch Verwendung eines iterativen Bereichsschwellenwerts des Gradientenoperators, der eng an identifizierte Zielüberträge angepasst ist, um den zweiten Extrakt der Bildcharakteristik auszuführen und dann eine rechteckige Benchmark-Beurteilung unter Verwendung der Zugehörigkeitsfunktionen der Fuzzy-Erkennung durchzuführen, übernehmen wir den von Visual C++ realisierten Erkennungsalgorithmus. Und die experimentellen Ergebnisse zeigen, dass dieser Erkennungsalgorithmus die Entstörung, die Robustheit und die Erkennungsgenauigkeit und -wirkung effektiv verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-77251-6_59 3de289ee847d1652f16c9114c1758d17;de;;;2.4.;;;Lidar-Intensität zur verbesserten Erkennung von Überschwemmungen unterhalb der Baumkronen Die Hydrologie von Feuchtgebieten ist ein wichtiger Faktor, der die Funktion und Ausdehnung von Feuchtgebieten steuert, und sollte daher ein wesentlicher Bestandteil jedes Feuchtgebietskartierungsprogramms sein. Die umfassende Hydrologie bewaldeter Feuchtgebiete war mit herkömmlichen Fernerkundungsmethoden nur schwer zu untersuchen. Airborne Light Detection and Ranging (LiDAR) ist eine neue und sich schnell entwickelnde Technologie. LiDAR-Daten wurden hauptsächlich verwendet, um Informationen über die Höhe abzuleiten. Die Intensität (Amplitude) des Signals hat jedoch das Potenzial, die Fähigkeit zur Fernüberwachung von Überschwemmungen – einer wichtigen Komponente der Feuchtgebietshydrologie – erheblich zu verbessern. Ein Vergleich zwischen LiDAR-Intensitätsdaten, die während der maximalen hydrologischen Expression gesammelt wurden, und detaillierten;-;-;-;https://link.springer.com/article/10.1672/08-197.1 46908d463f65a6dfa2019b075471e8ef;de;;;2.4.;;;Strichsegmentierung in Infrarotreflektogrammen Ein Algorithmus zur automatischen Segmentierung von Strichen in Unterzeichnungen – dem Grundkonzept des Künstlers – in antiken Tafelbildern wird vorgestellt. Der Zweck der Strichanalyse ist die Bestimmung des Zeichenwerkzeugs, mit dem das Gemälde entworfen wird. Diese Informationen ermöglichen eine wesentliche Unterstützung für eine systematische stilistische Herangehensweise bei der Analyse von Gemälden. Bisher wurde diese Analyse nur mit bloßem Auge durchgeführt, und die eingeschränkte optische Merkfähigkeit des Menschen erschwerte den Vergleich verschiedener Unterzeichnungen in Bezug auf Zeichenwerkzeuge und Stricheigenschaften. Die Strichsegmentierung beim Malen bezieht sich auf die Extraktion und Erkennung von Handschriften, daher werden ähnliche Techniken zum Segmentieren der Striche aus dem Hintergrund verwendet, die Grenzinformationen enthalten. Im Anschluss an die Segmentierung erfolgt die Annäherung der Strichbegrenzung durch ein geschlossenes Polygon auf Basis aktiver Konturen. Die Ergebnisse der entwickelten Algorithmen werden sowohl für Testtafeln als auch für echte Reflektogramme präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45103-X_149 793b26696802b3605a27eb998265a1f4;de;;;2.4.;;;Erforschung der Wissensreduktion basierend auf neuer bedingter Entropie Obwohl die Wissensreduktion für eine Entscheidungstabelle basierend auf der Unterscheidbarkeitsfunktion weit verbreitet bei der Datenklassifizierung verwendet werden kann, sind auch viele Nachteile erforderlich, um die Wissensakquisition detailliert zu diskutieren. Um sie zu verbessern, wurde zunächst das Konzept einer vereinfachten Entscheidungstabelle zum Entfernen redundanter Daten vorgeschlagen. Auf Basis von Wissensgranulation und bedingter Informationsentropie wurde dann durch die Trennung der konsistenten Objekte von die inkonsistenten Objekte. Darüber hinaus wurden viele Vorschläge und Eigenschaften für die Reduktion mit einer Ungleichung vorgeschlagen und eine vollständige Methode zur Wissensreduktion implementiert. Schließlich zeigen die experimentellen Ergebnisse mit UCI-Datensätzen, dass die vorgeschlagene Methode der Wissensreduktion eine effektive Technik für den Umgang mit komplexen Datensätzen ist und die Struktur vereinfachen und die Effizienz der Datenklassifizierung verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02962-2_18 509e004a1308f3985ae09e08c5fda444;de;;;2.4.;;;Grammatikinduktion durch MDL-basierte Verteilungsklassifikation Dieses Kapitel beschreibt unsere Grammatikeinführungsarbeit nach dem Prinzip der Mindestbeschreibungslänge (MDL). Wir beginnen mit einem diagnostischen Vergleich zwischen einem grundlegenden Best-First-MDL-Induktionsalgorithmus und einem Pseudoinduktionsprozess, der Probleme im Zusammenhang mit dem bestehenden MDL-basierten Grammatikinduktionsansatz aufdeckt. Darauf aufbauend präsentieren wir einen neuartigen zweistufigen Grammatikinduktionsalgorithmus, der ein lokales Minimumproblem im Basisalgorithmus überwindet, indem die linken Seiten der induzierten Grammatikregeln mit einer Seed-Grammatik geclustert werden. Erste experimentelle Ergebnisse zeigen, dass die resultierende Induktionskurve die traditionelle MDL-basierte Grammatikinduktion deutlich übertrifft und im diagnostischen Vergleich dem Idealfall sehr nahe kommt. Darüber hinaus induziert der neue Algorithmus Grammatikregeln mit hoher Präzision. Schließlich diskutieren wir unsere zukünftigen Forschungsrichtungen, um sowohl die Erinnerung als auch die Präzision des Algorithmus zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-2295-6_14 98b83f91f50f6ef57f5f44b56fa57d29;de;;;2.4.;;;Unterstützung der TECAB-Transplantation durch CT-basierte Analyse von Koronararterien Verkalkte Koronararterien können schwere Herzprobleme verursachen und einen Herzwandinfarkt auslösen. Eine etablierte Behandlungsmethode ist die Bypass-Operation. Die Verwendung eines Telemanipulationssystems ermöglicht die Durchführung dieser Operation als vollständig endoskopische Koronararterienbypass-(TECAB)-Transplantation. Diese relativ neue Methode verengt den Blick des Operateurs und erlaubt keine Palpation des Gefäßes, um Verkalkungen (harte Plaques) zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/11494621_14 7fbece2f8b0d45854fee3d8c81a4d5fa;de;;;2.4.;;;Automatische Registrierung von hochauflösenden Satellitenbildern mithilfe von LIDAR-Intensitätsdaten Wir schlagen eine Methode zur automatischen Registrierung von hochauflösenden Satellitenbildern unter Verwendung von LIDAR-Intensitätsdaten vor. Als Alternative zu Bodenkontrollpunkten erzeugen wir zunächst ein Referenzbild mit LIDAR-Intensitätsdaten, das es uns ermöglicht, den GCP-Erfassungsprozess automatisch durchzuführen. Als nächstes wird der vorgeschlagene automatische Abgleich auf die Ziel- und Referenzbilder angewendet. Beim Matching-Prozess werden Bildchips als Registrierungsprimitive verwendet und ihre Kanteninformationen werden als Primärinformationen für Ähnlichkeitsmessungen verwendet. Basierend auf diesen Grundsätzen wurde das gesamte Registrierungsverfahren so entwickelt, dass es automatisch und unkompliziert ist. Um die Machbarkeit der entwickelten Methode zu testen, haben wir ein Experiment mit multimodalen und multitemporalen realen Datensätzen entworfen: ein Stereopaar von IKONOS-2-Bildern, ein Quickbird-Bild und LIDAR-Daten. Die experimentellen Ergebnisse zeigen, dass die Genauigkeit für praktische Anwendungen akzeptabel ist. Die Ergebnisse dieser Studie sollen den Weg für die Entwicklung einer automatischen und allgemein anwendbaren Registrierungsmethode von hochauflösenden Satellitenbildern unter Verwendung von LIDAR-Intensitätsdaten ebnen.;-;-;-;https://link.springer.com/article/10.1007/s12205-011-1175-z aea5101e377fb64518444d20ada0fee4;de;;;2.4.;;;Wissensbasierte überwachte Fuzzy-Klassifizierung: Eine Anwendung für die Bildverarbeitung In diesem Beitrag interessieren wir uns für die Darstellung und Behandlung von Ungenauigkeit und Unsicherheit, um einen originellen Ansatz für approximatives Denken vorzuschlagen. Diese Arbeit hat eine praktische Anwendung in der überwachten Lernmustererkennung. Produktionsregeln, deren Schlussfolgerungen von Glaubensgraden begleitet werden, werden durch überwachtes Lernen aus einem Trainingssatz erlangt. Das vorgeschlagene Lernverfahren ist multifeatured, es erlaubt die mögliche Vorhersagekraft einer gleichzeitig betrachteten Feature-Konjunktion zu berücksichtigen. Andererseits ermöglicht die Merkmalsraumpartition eine unscharfe Darstellung der Merkmale und die Integration von Datenungenauigkeiten. Diese Unsicherheit wird sowohl in der Lernphase als auch in der Anerkennungsphase gemanagt. Um mehr Flexibilität einzuführen und das Randproblem aufgrund der Manipulationen von Zugehörigkeitsfunktionen von Fuzzy-Mengen zu überwinden, schlagen wir vor, ein kontextorientiertes approximatives Denken zu verwenden. Zu diesem Zweck führen wir einen ausreichenden Abstand ein, um benachbarte Fakten zu vergleichen. Dieser Abstand, die Ungenauigkeit der Messung, kombiniert mit der Unsicherheit von Klassifikationsentscheidungen, die durch Wahrscheinlichkeitsgrade dargestellt werden, treibt die ungefähre Inferenz.;-;-;-;https://link.springer.com/article/10.1023/A%3A1016753214357 2a8ec4125c942ba1b44fffcead738c7e;de;;;2.4.;;;Ratgeber für Lexika zu endlichen Wandlern Sprachsoftwareanwendungen treffen auf neue Wörter, z. B. Akronyme, Fachterminologie, Namen oder Zusammensetzungen solcher Wörter. Um einem Lexikon neue Wörter hinzuzufügen, müssen wir ihr Flexionsparadigma angeben. Wir präsentieren eine neue allgemein anwendbare Methode zur Erstellung eines Eintragsgenerators, d. h. eines Paradigmenrateners, für endliche Wandlerlexika. Da ein Rater dazu neigt, zahlreiche Vorschläge zu machen, ist es wichtig, dass die richtigen Vorschläge unter den ersten Kandidaten sind. Wir beweisen einige formale Eigenschaften der Methode und evaluieren sie an finnischen, englischen und schwedischen Full-Scale-Transducer-Lexika. Wir verwenden die Open Source;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00382-0_13 a39b46f3bad7df2e931606cbe840350a;de;;;2.4.;;;Dynamische Simulation des Schwappens auf Trommelniveau des Abhitzedampferzeugers Das Schwappen auf Trommelniveau ist die neueste Entdeckung bei der Anwendung von Abhitzedampferzeugern (HRSG) im kombinierten Zyklus und zeigt einen gewissen negativen Einfluss auf die Regelung des Trommelniveaus. Um die Trommelpegelregelung zu verbessern, wurden Einflussfaktoren auf das Trommelpegelschwappen untersucht. Zunächst wurden Drum-Submodule mit der Methode des Modularization Modeling entwickelt, dann auch das Modell des Drum Level Sloshing. Auf dem Versuchsstand wurden Versuche durchgeführt und das Modell anhand der erhaltenen Versuchsergebnisse validiert. Basierend auf dem Modell wurde eine dynamische Simulation durchgeführt, um ein 3D-Diagramm des Trommelpegelschwappens zu erhalten, der einen anschaulichen Vorgang des Trommelpegelschwappens zeigt. Der Einfluss von Speisewasserdurchsatz, Frischdampfdurchsatz und Heizmenge auf das Schwappen der Trommel wurde analysiert. Die Simulationsergebnisse zeigen, dass die Signale mit einer Frequenz von mehr als 0,05 Hz die des Schwappens der Trommelebene sind, die Signale mit einer Frequenz von 0,0–0,05 Hz die der Trendtrommel und der „Falschwasserstand“ und die Variation des Speisewasserflusses Durchsätze, Frischdampfvolumenströme und Heizmengen können die Schwapphäufigkeit in der Trommel verändern, dh die Schwapphäufigkeit nimmt mit steigendem Speisewasservolumenstrom oder mit abnehmendem Frischdampfvolumenstrom und der Heizmenge zu . Diese Forschungsarbeit ist von grundlegender Bedeutung, um das Signal-Rausch-Verhältnis des Schlagzeugpegelsignals und die präzise Steuerung des Schlagzeugpegels zu verbessern.;-;-;-;https://link.springer.com/article/10.1007/s11771-013-1502-2 4c01020e12d96b4df7eb726fe0663088;de;;;2.4.;;;Fuzzy inhomogene Markov-Systeme In diesem Beitrag wird die Theorie der Fuzzy-Logik und des Fuzzy-Argumentation mit der Theorie der Markov-Systeme kombiniert und erstmals das Konzept eines Fuzzy-inhomogenen Markov-Systems vorgestellt. Dies ist ein Versuch, mit der Unsicherheit umzugehen, die bei der Schätzung der Übergangswahrscheinlichkeiten und der Eingabewahrscheinlichkeiten in Markov-Systemen eingeführt wird. Das asymptotische Verhalten des Fuzzy-Markov-Systems und seine asymptotische Variabilität wird betrachtet und in geschlossener analytischer Form angegeben. Darüber hinaus werden die asymptotisch erreichbaren Strukturen des Systems unter einigen realistischen Annahmen auch in geschlossener analytischer Form geschätzt. Die Bedeutung dieses Ergebnisses liegt darin, dass in den meisten Fällen die traditionellen Methoden zur Schätzung der Wahrscheinlichkeiten aufgrund fehlender Daten und Messfehlern nicht verwendet werden können. Die Einführung von Fuzzy-Logik in Markov-Systeme stellt ein mächtiges Werkzeug dar, um das symbolische Wissen der Systemexperten zu nutzen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1016164915513 44948787a8e161309b0db240d112c32f;de;;;2.4.;;;Wissensbasierter Ansatz zur Abstraktion von hierarchischer und Netzwerkschema-Semantik Semantische Bedeutungen gehen im bestehenden Schema verloren, sobald das konzeptionelle Modell in ein logisches Modell abgebildet wurde. Um die semantischen Bedeutungen des logischen Schemas zum Zwecke der Schemaübersetzung, der Schemaintegration oder eines besseren Verständnisses des bestehenden Systems wiederzuerlangen, müssen wir die semantischen Bedeutungen vom logischen Schema abstrahieren. Es ist jedoch eine Benutzereingabe erforderlich, um die Domänenintegrität und die Beziehungsintegrität aus den vorhandenen Daten wiederherzustellen. Ein wissensbasiertes System kann den Benutzer bei der Bestätigung des übersetzten erweiterten Entity-Relationship-(EER)-Modells unterstützen, indem die heuristischen Integritätsregeln wie Fanset-Integrität, funktionale Abhängigkeiten und Einschlussabhängigkeiten in den Übersetzungsprozess durchgesetzt werden. Das resultierende konzeptionelle Modell erfüllt die heuristischen Regelanforderungen des bestehenden hierarchischen oder Netzwerkschemas. Obwohl es viele mögliche EER-Modelle gibt, die aus einem bekannten logischen Schema konstruiert werden können, entspricht das übersetzte EER-Modell den Erwartungen des Benutzers.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0024391 5e709ed166eabc8d709e8d90cb2f55d1;de;;;2.4.;;;Zur automatisierten Entdeckung wissenschaftlicher Theorien Dieser Artikel fasst aktuelle Forschungsergebnisse zu Anwendungen der Computerlerntheorie auf Probleme zusammen, die reiche Systeme der Wissensrepräsentation beinhalten, insbesondere Logik erster Ordnung und Erweiterungen davon.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-585-27366-2_10 2606b2e9f66481ef1e75ae5a171fbd3a;de;;;2.4.;;;Partitionierte inkrementelle Evolution von Hardware mit genetischer Programmierung In dem Bemühen, evolutionäre Berechnungstechniken zu ermöglichen, Lösungen für große und komplexe Hardwaresysteme zu entdecken, wurden Techniken entwickelt, um das anfängliche Problem in kleinere Teilaufgaben zu zerlegen. Insbesondere wurde ein Dekompositionsansatz beschrieben, der auf einer Partitionierung der Schaltungstestvektoren basiert, jedoch seine Grenzen hat. Um dies anzugehen, haben wir die Partitionierungsmethode mit einem sich schrittweise weiterentwickelnden Ansatz der genetischen Programmierung kombiniert. Das Ergebnis, das als Partitioned Incremental Evolution of HARDware (PIE-HARD) bezeichnet wird, weist eine deutlich bessere Lösungsfindungsleistung auf als andere Ansätze.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78671-9_8 699d06f345f6521b685015b513b7a4fb;de;;;2.4.;;;Bewertung der Situationsbewusstseinseffekte für intelligente Verteilnetze unter dem neuartigen Design des Indikatorenrahmens und der hybriden Gewichtungsmethode Als Schlüsselanwendung von Smart-Grid-Technologien wird erwartet, dass das Smart Distribution Network (SDN) eine hohe Gerätevielfalt und Komplexität der Betriebsmuster aufweist. Situational Awareness (SA), das darauf abzielt, eine kritische Sichtbarkeit des SDN zu gewährleisten, wird eine signifikante Sicherheit für einen stabilen SDN-Betrieb ermöglichen. Das Fehlen einer systematischen Bewertung durch die drei Stufen Wahrnehmung, Umfassend und Vorhersage kann jedoch verhindern, dass die SA-Technik effektiv die Leistung erreicht, die zum Überwachen und Reagieren auf Ereignisse in SDN erforderlich ist. Um die Durchführbarkeit und Wirksamkeit der SA-Technik für das SDN zu analysieren, wird in diesem Papier ein umfassender Bewertungsrahmen mit spezifischen Leistungsindikatoren und systematischen Gewichtungsmethoden vorgeschlagen. Außerdem, um den Indikatorrahmen zu implementieren und gleichzeitig die Schlüsselprobleme der Mehrdeutigkeit der Bewertung durch menschliche Experten und des Mangels an Daten in bestimmten SDN-Bereichen anzugehen, eine verbesserte intervallbasierte analytische Hierarchie, eine prozessbasierte subjektive Gewichtung und eine auf mehreren Zielen basierende, auf Programmiermethoden basierende objektive Gewichtung wurden entwickelt, um die Leistung von SDN SA zu bewerten. Darüber hinaus wird eine Fallstudie in einem realen Vertriebsnetz von Tianjin, China, durchgeführt, deren Ergebnisse die Praktikabilität und Wirksamkeit der vorgeschlagenen SA-Technik für die SDN-Betriebssicherheit bestätigen.;-;-;-;https://link.springer.com/article/10.1007/s11708-020-0703-2 129d2c46cde71432d5e77f89e3dcbf0d;de;;;2.4.;;;Unterscheidung von Blindgängern von Clutter durch lineare genetische Programmierung Wir haben Linear Genetic Programming (LGP) verwendet, um zu untersuchen, inwieweit automatisierte Lerntechniken verwendet werden können, um die Unterscheidung nach Blindgängern (UXO) von nicht-invasiven elektromagnetischen Sensoren Protem-47 und Geonics EM61 zu verbessern. Wir kommen zu folgendem Schluss: (1) Selbst nachdem Geophysiker die EM61-Signale analysiert und die Anomalien nach der Wahrscheinlichkeit geordnet haben, dass jedes UXO enthält, konnte unser LGP-Tool die Unterscheidung zwischen UXO und Schrott erheblich verbessern – bereits vorhandene Techniken erfordern 62 % mehr Grabungen Löcher, um alle UXO in einem Bereich zu lokalisieren, als LGP-abgeleitete Modelle, (2) LGP kann die Diskriminierung verbessern, obwohl es an einer sehr kleinen Anzahl von Beispielen von UXO trainiert wird, und (3) LGP kann die UXO-Diskriminierung bei Datensätzen verbessern, die ein hohes . enthalten -Geräuschpegel und wenig Vorverarbeitung.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-28111-8_4 a9a8374176bb0db6f05112680f7ee408;de;;;2.4.;;;Studie über eine Rechentechnik, die für die echte 3D-Modellierung komplexer geologischer Körper geeignet ist Echte 3D-Volumenkörpermodellierung komplexer geologischer Körper steht immer noch vor vielen Schwierigkeiten. In diesem Artikel wird eine neue Technik der echten 3D-Volumenmodellierung behandelt, die die Anwendung der interaktiven 2D- und 3D-Schnittsektionstechnologie zur Überarbeitung von Streupunktaggregaten umfasst, das Mittel der Zweikörper-3D-Datenstruktur (verbesserte B-Rep-3D-Volumendatenstruktur). Daten zu organisieren und die Vektorschertechnologie für die Modellierung zu verwenden. Basierend auf solchen Techniken wurde ein echtes 3D-Volumenmodell eines großen Wasserkraft-Engineering-Projekts in Südchina erstellt, das als intuitive Plattform für technische Vermessung, Konstruktion und Konstruktion dient. Aufgrund seiner breiten Anwendung bei vielen Projekten kann es als sinnvolle und effektive Methode zur 3D-Modellierung komplexer geologischer Körper angesehen werden.;-;-;-;https://link.springer.com/article/10.1007/s12594-013-0189-1 16196d4f0ef8a6cd6c7d46fe23e22359;de;;;2.4.;;;Entwicklung eines Bildverarbeitungssystems im Splendid Squid Grading Die Qualitätsprüfung von kommerziellen Tintenfischen ist ein arbeitsintensiver Prozess. Diese Studie schlägt einen Ansatz zur Entwicklung eines Computer-Vision-Systems zur Größen- und Artenklassifizierung von Tintenfischen vor. Beide Arten wurden durch Unterscheidung der Mantelformen unterschieden. Ein Multi Layer Perceptron (MLP) mit einem Backpropagation-Algorithmus wurde verwendet, um Tintenfischproben auf vordefinierte Größen basierend auf einem Standard des National Bureau of Agricultural Commodity and Food Standards (ACFS) zu sortieren. Aus Tintenfischbildern extrahierte Merkmale wie Fläche, Umfang und Länge des Tintenfischmantels wurden als Parameter für das Netzwerk verwendet. Unterschiede zwischen den Arten könnten durch das Verhältnis von Länge und Breite des Tintenfischmantels unterschieden werden. Die Ergebnisse zeigten, dass mit dem in dieser Studie vorgeschlagenen Ansatz eine Klassifikationsgenauigkeit von ungefähr 90 erreicht werden konnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37371-8_21 c942cab752cc62582522f328a7fd58c3;de;;;2.4.;;;Ein Neuro-Fuzzy-Netzwerk mit Verstärkungslernalgorithmen für das Schwarmlernen In diesem Beitrag wird ein internes Modell autonomer mobiler Roboter (Agenten) vorgeschlagen. Ein Fuzzy-Netz vom TSK-Typ wird als Klassifikator von Umgebungsinformationen, d. h. dem Zustand eines Agenten, verwendet, und Verstärkungslernverfahren wie Q-Learning, Sarsa-Learning werden verwendet, um mehrere Agenten dazu zu bringen, adaptives Verhalten zu erwerben. Zielorientiertes Explorationsproblem wurde simuliert, um die Wirksamkeit der vorgeschlagenen Methoden zu bestätigen, und die Ergebnisse zeigten, dass die neuen Lernmethoden effizienter sind als die akteurskritische Methode, die in unserer vorherigen Arbeit vorgeschlagen wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27326-1_14 3804ffe0a91ef1772e21660e0ba0e0f6;de;;;2.4.;;;Biometrisches Kryptosystem mit Online-Signaturen Biometrische Kryptosysteme kombinieren Kryptographie und Biometrie, um von den Stärken beider Bereiche zu profitieren. Während die Kryptographie in solchen Systemen hohe und einstellbare Sicherheitsstufen bietet, bringt die Biometrie die Unbestreitbarkeit und macht es überflüssig, sich Passwörter zu merken oder Token usw Tresorschema von Jules et al. Das Fuzzy-Vault-Schema gibt einen zuvor gespeicherten Schlüssel frei, wenn die zur Überprüfung vorgelegten biometrischen Daten mit der zuvor gespeicherten, in einem Tresor versteckten Vorlage übereinstimmen. Die Online-Signatur einer Person ist eine verhaltensbiometrische Methode, die als formaler Weg zur Genehmigung von Dokumenten, Banktransaktionen usw. weithin akzeptiert wird. Als solche kann die biometrische Schlüsselfreigabe mit Online-Signaturen viele Anwendungsbereiche haben.;-;-;-;https://link.springer.com/chapter/10.1007/11902140_102 d7a629770540b3e885cf6cf2c5227888;de;;;2.4.;;;Diagnose des Gaswegs bei stationären Zweiwellen-Gasturbinenmotoren mit Fuzzy-Logik Unser Ziel war es, ein auf Fuzzy-Logik (FL) basierendes industrielles Gasweg-Diagnoseverfahren für Zweiwellen-Gasturbinen basierend auf Gasweg-Messabweichungen zu entwickeln. Im Gegensatz zu den meisten verfügbaren FL-basierten Diagnosetechniken konzentrierte sich das vorgeschlagene Verfahren auf eine quantitative Analyse sowohl von Einzel- als auch von Mehrfachkomponentenfehlern. Die zur Demonstration und Verifizierung der Methode erforderlichen Daten wurden aus einem Simulationsprogramm generiert, das so abgestimmt war, dass es einen GE LM2500-Motor darstellt, der in einer bestehenden Öl- und Gasanlage läuft, unter Berücksichtigung der beiden häufigsten Ursachen für Motorverschleiß, Verschmutzung und Erosion. Gaußsches Rauschen wird den Daten überlagert, um die Messunsicherheit zu berücksichtigen. Schließlich wurde die Fehlerisolierung und Quantifizierungseffektivität der vorgeschlagenen Methode für Ein-, Zwei- und Dreikomponentenfehlerszenarien getestet. Die Testergebnisse zeigen, dass die implantierten Einzel-, Doppel- und Dreikomponentenfehlerfallmuster mit einer durchschnittlichen Erfolgsrate von 96 %, 92 % und 89 % isoliert und mit einer durchschnittlichen Genauigkeit von 83 %, 80 % bzw.;-;-;-;https://link.springer.com/article/10.1007/s12206-017-1053-9 0e4656546e42f5a8cc70a6861a00c3ca;de;;;2.4.;;;Experimentelle Analyse des Einflusses der Schaltanzeige auf den Kraftstoffverbrauch des Fahrzeugs Um den Einfluss der Schaltanzeige auf den Kraftstoffverbrauch zu analysieren, wurde eine Reihe von Tests zum Einfluss der Schaltanzeige auf den Kraftstoffverbrauch auf Grundlage der EU-Vorschriften entworfen und die spezifischen Tests und Analysen durchgeführt. Gemäß der Prüfmethode der EU-Vorschriften werden die Fahrzeuggeschwindigkeit von Schaltpunkten erfasst, die Motordrehzahl und Fahrzeuggeschwindigkeit über das OBD-II-Datenerfassungsmodul gelesen und die Kraftstoffverbrauchsdaten vom Kraftstoffverbrauchsmesser erfasst. Der Kraftstoffverbrauch nach GSI-Empfehlung und Normalbedingungen wird berechnet. Die Kraftstoffeinsparungsrate beträgt 1,63% bei Verwendung der GSI-Empfehlung zum Schaltpunkt. Die Ergebnisse zeigen, dass GSI bei normalen Fahrzeugen einen günstigen Kraftstoffeinspareffekt hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-15740-1_115 68ccec779160e29cf89c6f7c82c0cd68;de;;;2.4.;;;ACME, eine telerobotische aktive Messeinrichtung Wir entwickeln eine Robotermessanlage, die es sehr einfach macht, „reality-based“ Modelle zu bauen, d.h. Rechenmodelle von existierenden, physikalischen Objekten basierend auf tatsächlichen Messungen. Dazu gehören nicht nur Formmodelle, sondern auch Reflexionsvermögen, Kontaktkräfte und Schall. Solche realistischen Modelle sind in vielen Anwendungen von entscheidender Bedeutung, darunter Telerobotik, virtuelle Realität, computergestützte Medizin, Computeranimation, Computerspiele und Trainingssimulatoren.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0119417 14b7ffca4492b6b5400ded802b49fbdf;de;;;2.4.;;;Lichtquelle Um ein aktives Beleuchtungssystem aufzubauen, ist die Auswahl und Konfiguration der Lichtquellen entscheidend. In diesem Kapitel kategorisieren wir vorhandene Lichtquellen nach mehreren Kriterien und erläutern die Prinzipien und Mechanismen der Lichtemission sowie photometrische und geometrische Merkmale einiger typischer Lichtquellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-56577-0_4 8798f71acb7913d4077e2c770b07a965;de;;;2.4.;;;Emotionsbewusste Empfehlungssysteme – ein Rahmen und eine Fallstudie Neuere Arbeiten haben eine Erhöhung der Genauigkeit bei Empfehlungssystemen gezeigt, die emotionale Etiketten verwenden. In diesem Beitrag schlagen wir einen Rahmen für emotionsbewusste Empfehlungssysteme vor und präsentieren einen Überblick über die Ergebnisse solcher Empfehlungssysteme. Wir präsentieren einen konsumkettenbasierten Rahmen und vergleichen drei Kennzeichnungsmethoden innerhalb eines Empfehlungssystems für Bilder: (i) generische Kennzeichnung, (ii) explizite affektive Kennzeichnung und (iii) implizite affektive Kennzeichnung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37169-1_14 b8d5764a75a380e696c341c25dbd9c32;de;;;2.4.;;;Das Erlernen grundlegender Kategorien durch Tauben: Der Prototypeffekt, die Aufmerksamkeit und die Auswirkungen der Kategorisierung Tauben wurden trainiert, zusammengesetzte Gesichter aus zwei Kategorien zu klassifizieren, die durch Nachahmung der Struktur von Kategorien der Grundebene erstellt wurden, wobei jedes Gesicht aus einer gegenstandsspezifischen Komponente und einer gemeinsamen Komponentendiagnose für seine Kategorie besteht. Die Klassifikationsgenauigkeit stieg mit zunehmendem Anteil gemeinsamer Komponenten, ungeachtet bekannter und neuartiger artikelspezifischer Komponenten, wobei die beste Unterscheidung bei ungeübten Originalflächen auftritt, die als gemeinsame Komponenten verwendet werden. Eine Kontrollbedingung ohne Kategorisierung deutete darauf hin, dass die Kategorisierung zu einer Äquivalenz für artikelspezifische Komponenten und einer Unterscheidungskraft für Prototypengrade führt. Wenn einige artikelspezifische Komponenten von Exemplaren der gegensätzlichen Kategorien geteilt wurden, wurden diejenigen, die sich nicht zwischen den Kategorien überschnitten, zu den effektiven Hinweisen für die Antworten der Tauben. Implikationen dieser Ergebnisse werden im Kontext aktueller Kategorisierungs- und assoziativer Lerntheorien diskutiert.;-;-;-;https://link.springer.com/article/10.3758/s13420-011-0028-4 0518eb6553ecee7b165e906c7b70a705;de;;;2.4.;;;Interferometrische und tomographische SAR Zweifellos ist eine der interessanteren Anwendungen von Radarbildern mit synthetischer Apertur, die in den letzten zwei Jahrzehnten entstanden sind, die topografische Kartierung unter Verwendung von Interferometrie. Da der Phasenwinkel des rückgestreuten Signals für ein gegebenes Pixel verfügbar ist und die Phase leicht gemessen werden kann, ist es möglich, die Phasendifferenzen von zwei verschiedenen Bildern derselben Region zu vergleichen und aus diesem Vergleich die relativen Positionen der Pixel in drei Dimensionen: Breitengrad, Längengrad und Höhe oder deren Äquivalente. In diesem Kapitel zeigen wir, wie das geht und wie die Interferometrie auch zur Änderungserkennung verwendet werden kann. Das grundlegende Konzept wird erweitert, um zu zeigen, wie ein tomographisches Verfahren implementiert werden kann, bei dem das vertikale Detail innerhalb einer bodenauflösenden Zelle aufgelöst werden kann. Die für interferometrische Anwendungen verwendete Radargeometrie ist ein Spezialfall des in Kap. 7.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02020-9_6 8db7af3b9913fb02a47487e6c229cd3e;de;;;2.4.;;;Dynamische Überwachung von Wasser in einem Arbeitsbrustboden mit 2D Electrical Resistivity Tomography (ERT) Das Dach und der Boden eines wasserreichen Gebiets können mit der traditionellen zweidimensionalen (2D) elektrischen Widerstandstomographie (ERT) untersucht werden, aber diese Methode kann nicht auf eine wasserreiche innere Ortsbrust angewendet werden. In dieser Arbeit wurde der spezifische Widerstand einer inneren Ortsbrust mit 2D-ERT durch Verlegen von Elektroden und Kabeln in zwei benachbarten Fahrbahnen und mit einem äquatorialen Dipolgerät bestimmt. Der Wassereinbruchsprozess des Goaf-Bodens im Untersuchungsgebiet wurde mit vorimplantierten Elektroden und Kabeln an der Vorderseite der Abbaufront überwacht und anhand der aufbereiteten Ergebnisse von vier erfassten Datensätzen analysiert. Der Ort des Wassereinbruchs vom Boden wurde anhand der Änderung des spezifischen Widerstands des Bodens und der hydrologischen Variationen am Beobachtungsloch bestimmt, die die Grundlage für das Stoppen des Wassereinbruchs lieferten.;-;-;-;https://link.springer.com/article/10.1007/s10230-017-0483-z b8255cc1edcb8bbf934e797ea444fb52;de;;;2.4.;;;Anwendung eines verbesserten Datenstrom-Clustering-Algorithmus in einem Intrusion Detection System Mit der kontinuierlichen Entwicklung der Computernetzwerktechnologie mangelt es traditionellen Intrusion Detection-Systemen an guter Anpassungsfähigkeit. Mit dem Ziel, das traditionelle Intrusion Detection-System nur schwer an den steigenden Datenbedarf für Echtzeit-Verarbeitungsfunktionen anzupassen, schlägt dieses Papier einen Clustering-Algorithmus basierend auf Sliding Window-Datenströmen vor, auf dem wir das IDS-Netzwerksicherheitsverteidigungsmodell aufbauen. Die Versuchsergebnisse zeigen, dass das Modell in der Lage ist, sich an die Anforderungen der Hochgeschwindigkeits-Netzwerk-Einbruchserkennung anzupassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-5041-1_99 162a0d622eb3cff5ba6c5c3abdcbc9c0;de;;;2.4.;;;Tele-Mikrochirurgie: Analyse und Tele-Mikro-Blutgefäß-Nahtexperiment Dieses Papier beschreibt die Analyse der tatsächlichen mikrochirurgischen Operation, um die Spezifikationen eines telemikrochirurgischen Systems zu bestimmen. Das implementierte System zur Verbindung von Mikro-Blutgefäßen besteht aus mehreren Mikro-Operationspunkt-Slave-Manipulatoren, Makro-Rotationskraft-Feedback-freien Master-Manipulatoren und einem Vision-System, das aus einem Mikroskop mit festem Blickwinkel und einem beweglichen Monitorsystem besteht. Die Parameter des Bildverarbeitungssystems können in Übereinstimmung mit dem Systemverständnis der Absicht des Bedieners gesteuert werden, indem die Haltungsänderung des Bedieners überwacht wird. Die experimentellen Ergebnisse zeigten die Wirksamkeit des entwickelten Systems. Im Experiment wurde ein Blutgefäß einer Ratte mit einem Durchmesser von weniger als 1 mm mit einer Nadel mit einem Krümmungsradius von 2 mm erfolgreich vernäht.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0112984 997da9b88f490a353b86cf77e4052b0f;de;;;2.4.;;;Auf dem Weg zu einem Programmierparadigma für Steuerungssysteme mit hoher existentieller Autonomie Systeme, die in dynamischen, komplexen Umgebungen betrieben werden sollen – ohne Eingreifen ihrer Designer oder erhebliche Mengen an domänenabhängigen Informationen, die zur Entwurfszeit bereitgestellt werden – müssen mit ausreichend;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39521-5_9 ba29d5d55761b7b3a86122af435ac1e2;de;;;2.4.;;;Experimentelle Verifizierung der Übertragung menschlicher Fähigkeiten auf Entgratroboter In diesem Beitrag wird eine neue adaptive Steuerung für Entgratroboter vorgestellt. Das Design des Kontrollsystems basiert vollständig auf einem Modell der menschlichen Fähigkeiten. Mit dem Human Skill Model können die Leistungsfähigkeiten eines menschlichen Experten erworben und auf Robotersteuerungssysteme übertragen werden, die es Robotern ermöglichen, menschliche Fähigkeiten bei der Durchführung von Entgrataufgaben nachzuahmen. Das menschliche Kompetenzmodell umfasst eine Werkzeugmanipulationsstrategie, ein Prozesswahrnehmungsmodell und assoziative Erinnerungen. Die Werkzeugmanipulationsstrategie beschreibt die dynamische Interaktion zwischen dem vom menschlichen Experten gehaltenen Werkzeug und der Umgebung. Lehrdaten aus menschlichen Demonstrationsbewegungen zeigen, dass der menschliche Experte seine Werkzeugmanipulationsstrategie in Bezug auf die variierenden Prozessbedingungen ändert. Das Prozessmodell, das die Prozessbedingungen charakterisiert, bietet eine Möglichkeit, Variationen der Prozessbedingungen zu erkennen. Die assoziativen Erinnerungen, repräsentiert durch Abbildungsfunktionen, spiegeln wider, wie ein menschlicher Experte seine Werkzeugsteuerungsstrategie in Bezug auf sich ändernde Prozessbedingungen modifiziert. Diese Abbildungsfunktionen können unter Verwendung von menschlichen Lehrdaten identifiziert werden. Die Konsistenz der Abbildung und die Übertragbarkeit menschlicher Fähigkeiten werden anhand der Lipschitz-Bedingung analysiert. Eine Robotersteuerung wird basierend auf dem menschlichen Fähigkeitsmodell konstruiert, das assoziative Erinnerungen umfasst, die aus menschlichen Lehrdaten abgeleitet werden. Die Steuerung ist auf einem Roboter mit Direktantrieb implementiert. Die Versuchsergebnisse zeigen, dass sich der Roboter dem Entgratprozess sehr ähnlich wie ein menschlicher Experte anpassen kann.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0036131 0460aa0535fb42f1a431fa95eebfad18;de;;;2.4.;;;Die Rolle der Drohnenfotografie bei der Stadtkartierung Seit dem Urbanisierungsbau beschleunigt sich die Entwicklung der Urbanisierung. Einige Abteilungen haben einen größeren Bedarf an großmaßstäblichen topografischen Karten und sie haben höhere Anforderungen an die Aktualität der Kartierung. Einige kleine Aktualisierungen der Kartendaten müssen manuell durchgeführt werden. Die Arbeitseffizienz wird weitgehend reduziert und die Arbeitsintensität erhöht. Mit der Entwicklung von Wissenschaft und Technologie entwickelt sich die Drohnentechnologie allmählich weiter. Die Drohnen-Luftfotogrammetrietechnologie verwendet hauptsächlich Licht in geringer Höhe und kleine Drohnenfernerkundungssysteme, um die Kartierung von Städten abzuschließen. Es hat die Vorteile hoher Auflösung, Flexibilität und Wetterbeständigkeit und ist einfach zu bedienen und mobil. Starker Sex. Darüber hinaus verringert die Anwendung der Drohnen-Luftfotogrammetrie-Technologie beim Zeichnen von Stadtplänen nicht nur die Schwierigkeit der manuellen Berechnung, sondern verbessert auch die Berechnungsgenauigkeit und Arbeitseffizienz erheblich und bietet eine echte und wissenschaftliche Grundlage für die Stadtplan-Zeichnungsdaten . Der Zweck dieses Artikels ist es, die Rolle der Drohnenfotografie bei der Stadtkartierung zu untersuchen und zu überprüfen. Dieser Artikel führt ein Simulationsexperiment an einer Kleinstadt durch, bei dem Lufttriangulation, Neigungsmessung und andere für die Drohnenfotografie geeignete Technologien verwendet werden. Nach der Datenverarbeitung wird ein dreidimensionales Modell erstellt und mit tatsächlichen Daten verglichen, um die Drohne zu erhalten. Die Fototechnologie kann auf Schlussfolgerungen wie das Zeichnen von Stadtplänen angewendet werden und beweist, dass sie die Produktionseffizienz der Datenerfassung erheblich verbessern und die Arbeitsintensität von Feldvermessern reduzieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-51556-0_50 4a7d75168cf769060914f0b42977fa71;de;;;2.4.;;;Adaptive Hypermedia leicht gemacht mit HTML/XML-Stylesheet-Selektoren Eine einfache Erweiterung wird vorgeschlagen, um HTML und XML durch Anpassungen zu erweitern. Es besteht darin, die Pfadselektoren von Stylesheet-Sprachen wie CSS und XSLT zum Ausdrücken von Inhalten und zur Navigationsanpassung zu verwenden. Die erforderlichen Erweiterungen einer Pfadauswahlsprache sind minimal, einige zusätzliche Konstrukte genügen. Der Prozessor der Sprache kann nahezu unverändert beibehalten werden, es werden keine neuen Algorithmen benötigt. Darüber hinaus wird vorgeschlagen, XML zum Ausdrücken von Benutzermodelldaten wie Browserverlauf, Browserumgebung (wie Gerät, Zeit usw.) und Anwendungsdaten (wie Benutzerleistungen bei Übungen) zu verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-47952-X_63 0c29d8a6cdddac519d7ca81072d8e0ef;de;;;2.4.;;;Prosodische Anpassung beim Sprachenlernen Prosodische Phänomene wie Intonation, Rhythmus und Akzentuierung bilden die Grundlage für das Verstehen und den Erwerb von Sprache. Sie werden verwendet, um den Informationsaustausch im Diskurs zu unterstützen (z. B. wichtige Informationen in einer Äußerung zu markieren), aber auch um das Verhältnis zwischen den Gesprächspartnern zu regulieren, beispielsweise um Affekte zu zeigen oder Gruppenzugehörigkeit anzuzeigen. In unserem Beitrag fassen wir aktuelle experimentelle Erkenntnisse im Bereich der prosodischen Adaptation zusammen und stellen eine Verbindung zum Erstspracherwerb und Zweitsprachenlernen her. Die Ergebnisse der zitierten Studien zeigen, dass prosodische Anpassung eine Reihe von kommunikativen Funktionen erfüllen kann und sowohl als Ergebnis eines automatischen Prozesses zur Unterstützung der Sprachverarbeitung als auch als Mechanismus der sozialen Signalisierung angesehen werden kann. Im letzten Teil der Arbeit diskutieren wir die Implikationen der experimentellen Ergebnisse für Methoden, die das Prosodie-Lernen von L2-Sprechern unterstützen sollen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-3883-6_6 e1fc8d575bce930163f1650684ed4d54;de;;;2.4.;;;Effiziente großmaßstäbliche mobile 3D-Kartierung und Oberflächenrekonstruktion einer unterirdischen Mine Die Kartierung großer unterirdischer Umgebungen wie Minen, Tunnel und Höhlen ist in der Regel ein zeitaufwändiges und herausforderndes Unterfangen. Im April 2011 wurden Forscher des CSIRO beauftragt, die Northparkes-Mine in New South Wales, Australien, zu kartieren. Die Minenbetreiber benötigten ein lokal genaues 3D-Oberflächenmodell, um festzustellen, ob und wie einige Großgeräte durch das Gefälle bewegt werden können. Bestehende Techniken, die auf Stativen montierte terrestrische 3D-Scanner verwenden, beruhen auf genau vermessenen Sensorpositionen und sind relativ teuer, zeitaufwendig und ineffizient. Mobile Kartierungslösungen haben das Potenzial, einen Raum effizienter und vollständiger zu kartieren, jedoch sind bestehende kommerzielle Systeme auf ein GPS-Signal und Navigations- oder taktische Inertialsysteme angewiesen. Eine bei CSIRO entwickelte 3D-SLAM-Lösung, bestehend aus einem rotierenden 2D-Lidar und einer industrietauglichen MEMS-IMU, wurde für diese spezielle Anwendung maßgeschneidert. Das System wurde für die Montage auf einem Baustellenfahrzeug entwickelt, das kontinuierlich Daten bei typischen Minenfahrgeschwindigkeiten erfasst, ohne den Minenbetrieb zu unterbrechen. Das eingesetzte System kartierte in weniger als zwei Stunden über 17 km Minentunnel, was zu einem dichten und genauen georeferenzierten 3D-Oberflächenmodell führte, das umgehend an die Minenbetreiber geliefert wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40686-7_32 99fd91e086547ee7ed1b173a534b25b9;de;;;2.4.;;;Erleichterung des Verständnisses von Online-Lernkursen mit Adaptivität Der Wissenserwerb mit Texten wird als ein Prozess des Aufbaus eines mentalen Modells des spezifischen Themas angenommen. Für Leser mit mehr Vorkenntnissen ist der Aufbau eines genauen mentalen Modells einfacher, da sie keine neue Struktur aufbauen müssen. Leser mit geringeren oder keinen Vorkenntnissen können ein unzureichendes mentales Modell eines Themas erstellen. In einer Hypertext-Lernumgebung könnte dies durch mehrere adaptive Funktionen verhindert werden, die den Benutzer mit zusätzlichen Informationen unterstützen. Wir planen, die Effektivität und Effizienz solcher adaptiver Funktionen in einem Online-Kurs zu untersuchen, indem wir das erworbene Domänenwissen des Benutzers, die Zufriedenheit des Benutzers und das Erreichen der Ziele des Benutzers bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44963-9_63 060aef9763a7adbf09d736e8be9eda78;de;;;2.4.;;;Eine Methode zur Intentionsschätzung für die Mensch-Roboter-Interaktion Die Dynamik des menschlichen Handgelenks spielt eine wichtige Rolle in der Mensch-Roboter-Interaktion. In diesem Beitrag entwickeln wir eine neuartige Methode, um die Bewegung des menschlichen Handgelenks zu klassifizieren und sein Steifigkeitsprofil zu erkennen. In der vorgeschlagenen Methode wird ein integriertes Framework aus linearer Diskriminanzanalyse und extremer Lernmaschine entwickelt, um die Intention des Handgelenks zu bewerten. Insbesondere wird eine lineare Diskriminanzanalyse verwendet, um Gesten des Handgelenks zu klassifizieren. Basierend auf dem Ergebnis der Klassifikation wird ein extremes Lernverfahren verwendet, um ein Regressionsmodell der Steifigkeit zu erstellen. Die experimentellen Ergebnisse belegen die Wirksamkeit des vorgeschlagenen Verfahrens.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29933-0_6 a71ee36de321df09d4a12a51fe8d2c85;de;;;2.4.;;;Entwicklung von Fuzzy Neural Networks für die Geruchserkennung In diesem Beitrag wird die Verwendung von Evolving Fuzzy Neural Networks als Mustererkennungssystem zur Geruchserkennung in einer künstlichen Nase vorgestellt. Bei der Klassifizierung von Gasen aus der Erdölindustrie erzielt die vorgestellte Methode bessere Ergebnisse (mittlerer Klassifizierungsfehler von 0,88%) als die von Multi-Layer Perceptron (13,88%) und Time Delay Neural Networks (10,54%).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30499-9_147 388734401d3597ee45fb8d15a1188e9c;de;;;2.4.;;;Ein graphengrammatischer Ansatz zur Abbildung zwischen Abhängigkeitsbäumen und topologischen Modellen Die Bestimmung der Wortstellung in Sprachen mit freier Wortstellung wird als Herausforderung für NLG angesehen. In diesem Papier schlagen wir einen einfachen Ansatz vor, um die entsprechenden grammatikalisch korrekten Varianten eines Satzes zu erhalten, indem eine Abhängigkeitsstruktur als Eingabe verwendet wird. Wir beschreiben eine Linearisierungsgrammatik basierend auf einer Graphengrammatik, die es ermöglicht, ein topologisches Modell unter Verwendung ungeordneter konstituierender Strukturen und Vorrangbeziehungen abzurufen. Der Graphgrammatik-Formalismus ist völlig sprachunabhängig und nur die Grammatik hängt von der Sprache ab. Die Grammatikregeln können automatisch aus einem Korpus bezogen werden, der mit Phrasenstrukturen und Abhängigkeitsstrukturen annotiert ist. Die Annotation der Abhängigkeitsstrukturen wird durch Strukturübersetzung aus der Annotation der Phrasenstruktur abgerufen. Wir schließen mit der Beschreibung einer Grammatik und der Bewertung des Formalismus anhand eines großen Korpus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30211-7_67 0138b8f3b59df7cb2b8f6f18d9102544;de;;;2.4.;;;Profilerstellung von Fahrern basierend auf fahrerabhängigen Fahrzeugfahrfunktionen Diese Arbeit befasst sich mit dem Problem der Profilerstellung von Fahrern basierend auf ihren Fahreigenschaften. Eine speziell angefertigte Hardware, die mit einem Softwaretool integriert ist, wird verwendet, um Daten von mehreren Fahrern aufzuzeichnen. Die aufgezeichneten Daten werden dann mit Clustering-Techniken profiliert.;-;-;-;https://link.springer.com/article/10.1007/s10489-015-0722-6 50bd66a018a058015e1ab956776ae40c;de;;;2.4.;;;Evaluation alternativer Sensoren für ein Landsat-basiertes Monitoringprogramm In Australien werden Landsat-Bilder derzeit in einer Reihe von regionalen und nationalen Überwachungsprojekten verwendet, um Karten der Ausdehnung und Veränderung der Fläche der mehrjährigen Vegetation bereitzustellen. Sie liefern grundlegende Informationen für Naturschutz, Landmanagement und Modellierung des Kohlenstoffflusses und der Wassernutzung. Angesichts der sich abzeichnenden Lücke in der Kontinuität der Landsat-Daten ist es an der Zeit, die Probleme bei der Verwendung von Daten anderer Sensoren zur Fortsetzung dieser Überwachungsprogramme zu berücksichtigen. Im Kontext des Landbedeckungsänderungsprogramms des australischen Department of Climate Change beschreibt dieses Papier die Probleme und quantifiziert die Auswirkungen der Verwendung von Spot-4- und Landsat-7-SLC-off-Bildern anstelle der aktuellen Landsat-5-Bilder. Die untersuchten Probleme bei der Datenvorverarbeitung umfassen Orthokorrektur, Kalibrierung und Geländebeleuchtungskorrektur. Überlappende Bildersätze aus drei verschiedenen geografischen Regionen wurden verarbeitet, um logistische und technische Probleme zu bewerten. Die Fähigkeit, zwischen Interessenklassen zu unterscheiden, wird im Rahmen des Waldmonitorings berücksichtigt. Die Genauigkeit der Änderungsprodukte aus der Mixed-Sensor-Zeitreihenanalyse wird ebenfalls diskutiert. Sowohl die Genauigkeit der Produkte aus jedem Bearbeitungsschritt als auch die Kosten in Bezug auf Bearbeitungszeit und Komplexität werden überprüft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-93962-7_7 57286d67aa66d8422e515768814d8280;de;;;2.4.;;;Multi-Segment Direct Inject nano-ESI-LTQ-FT-ICR-MS/MS zur Proteinidentifizierung Protein Umkehrphasen-Hochleistungsflüssigkeitschromatographie (HPLC) mit Schnittstelle zur Elektrospray-Tandem-Massenspektrometrie (MS/MS) wird häufig zur Identifizierung von Peptiden aus proteolytisch gespaltenen Proteinen, die in eine Polyacrylamid-Gelmatrix eingebettet sind, sowie für das Metabolomik-Screening verwendet. HPLC-Trennungen sind zeitaufwendig (30-60 min im Durchschnitt), teuer (Säulen und mobile Phasenreagenzien) und bergen das Risiko einer Säulenverschleppung zwischen den Proben. Die Verwendung einer chipbasierten Nano-ESI-Plattform (Advion NanoMate) basierend auf austauschbaren Nanospitzen zur Probeneinführung verhindert eine Kreuzkontamination der Probe, bietet eine unveränderliche Probenmatrix und verbessert die Sprühstabilität bei gleichzeitiger Erhöhung der Reproduzierbarkeit. Neuere Arbeiten haben die direkte Infusions-Nano-ESI-MS/MS etabliert, die den NanoMate für die Proteinidentifizierung von Gelspots basierend auf Vollbereichs-MS-Scans mit datenabhängiger MS/MS verwendet. Bei einem Vollbereichsscan kann eine diskontinuierliche Ionenunterdrückung aufgrund der Probenmatrix die Identifizierung mutmaßlicher interessierender Massenmerkmale sowohl in den proteomischen als auch in den metabolomischen Arbeitsabläufen beeinträchtigen. In der aktuellen Studie wird eine Erweiterung einer etablierten Direktinjektions-Nano-ESI-MS/MS-Methode beschrieben, die die Massenfilterfähigkeit einer Ionenfalle zur Ionenpakettrennung in vier schmale Massenbereiche (50 amu Überlappung) mit segmentspezifischer . nutzt dynamische datenabhängige Peak-Inklusion für MS/MS-Fragmentierung (Gesamtaufnahmezeit von 3 Minuten). Der Vergleich dieser Methode mit einem traditionelleren nanoLC-MS/MS-basierten Protokoll unter Verwendung der Aufspaltung von Lösungsmittel/Probenstrom, um einen Nanoflow zu erzielen, zeigte vergleichbare Ergebnisse für die Proteinidentifizierung aus Polyacrylamid-Gelmatrizen. Zu den Vorteilen dieser Methode gehören die vollständige Automatisierung, das Fehlen von Kreuzkontaminationen, geringe Kosten und ein hoher Durchsatz.;-;-;-;https://link.springer.com/article/10.1186/1477-5956-9-38 3df0079416d25b72e0741856d7997c29;de;;;2.4.;;;Transformation der Cybersicherheitsposition in der IT-Telekommunikation: Eine Fallstudie eines Telekommunikationsbetreibers Unternehmen sind mit ausgeklügelten und fortgeschrittenen persistenten Bedrohungen (Advanced Persistent Threats, APT) konfrontiert, die auf sensible Informationsressourcen abzielen. Jede Form von Cyber-Präsenz kann typischerweise von Gegnern angegriffen werden, und die Motive solcher Angriffe sind kontextabhängig. Darüber hinaus sind Benutzer und Organisationen anfällig für Softwareschwachstellen, Fehlkonfigurationen, veraltete Systeme und verschiedene andere systemische Mängel, die genutzt werden können, um Unternehmensressourcen zu gefährden und einen ersten Fuß in einem Unternehmensnetzwerk zu gewinnen. Ziel des Papiers ist es, eine flexible und insgesamt umfassende Organisationsstrategie zur Abwehr der massiven Zunahme von Cyberangriffen zu entwickeln, um die strategischen Geschäftsziele einer Organisation zu schützen und die Ausrichtung zwischen Geschäftszielen und Sicherheit zu wahren. Darüber hinaus reflektiert dieses Papier die Arbeit mehrerer Teams innerhalb der ausgewählten Fallstudienorganisation zur Verbesserung der Cybersicherheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-68534-8_28 f0dec95437eb20051854fea58071ae2f;de;;;2.4.;;;Caspase-3 fördert die Apoptose in Bauchspeicheldrüsenkrebszellen nach Behandlung mit Gemcitabin Bauchspeicheldrüsenkrebs bleibt eine hoch chemoresistente Malignität. Gemcitabin, das wirksamste verfügbare Mittel der ersten Wahl, wirkt, indem es die Zellreplikation unterbricht. Caspasen gehören zu einer Familie von Proteasen, die als Schlüsselkomponenten der apoptotischen Todesmaschinerie fungieren. Wir untersuchten die Mechanismen, durch die Gemcitabin die Proliferation blockiert und ob es Apoptose in Bauchspeicheldrüsenkrebszellen induzieren kann. Ruhende Bauchspeicheldrüsenkrebszellen (BxPC-3) wurden mit oder ohne Gemcitabin, PS-341 (26S-Proteasom-Inhibitor) oder beidem zur Proliferation stimuliert (10 % fetales Kälberserum). Die Proliferation wurde durch MTT-Assay und die Apoptose durch Propidium-Jod-Färbung gemessen. Um die Aktivierung der apoptotischen regulatorischen Zellproteine ​​zu bestimmen, wurden Caspase-3 und die Spaltung der Poly(ADP-Ribose)-Polymerase (PARP) in ihr 85-kDa-Fragment durch Western-Blotting untersucht. Gemcitabin hemmte selbst in niedrigen Dosen (10 µmol/L) die Zellproliferation signifikant, während PS-341 (10 nmol/L) keine Wirkung hatte. Bei kombinierter Behandlung verstärkt PS-341 die antiproliferative Wirkung von Gemcitabin (;-;-;-;https://link.springer.com/article/10.1016/j.gassur.2004.09.054 543486098ed73d49d55a75b8af1ff586;de;;;2.4.;;;Paramagnetische Elektronenresonanz: Prinzipien und Anwendungen der Katalyse Elektronen-paramagnetische Resonanz(EPR)-Techniken sind in der Katalyse weit verbreitet, um paramagnetische Spezies zu untersuchen, die per Definition ein oder mehrere ungepaarte Elektronen enthalten. Diese Spezies, seien es katalytisch aktive Zentren oder Zwischenprodukte, können sich sowohl auf der Katalysatoroberfläche als auch in der Gasphase befinden. In einigen Fällen wurden Massenspezies aufgrund ihrer Relevanz für die Katalyse untersucht. Diese Techniken werden derzeit routinemäßig in Forschungslaboratorien verwendet, insbesondere in solchen, die sich mit Katalyse befassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-9589-9_6 42fd455727f437ffa1f73358d252e281;de;;;2.4.;;;Immunszintigraphie beim Nachweis von Tuberkulose mit radioaktiv markiertem Antikörperfragment gegen Die Immunszintigraphie mit radioaktiv markierten monoklonalen Antikörpern wird häufig zum Nachweis solider Tumoren eingesetzt, es wurden jedoch nur wenige Studien zur spezifischen In-vivo-Lokalisierung eines Entzündungsprozesses durchgeführt. Der Zweck dieser Studie war es, die Nachweisbarkeit tuberkulöser Herde unter Verwendung dieser Methode mit radioaktiv markiertem Calmette-Guérin (BCG)-spezifischem F(ab′) zu untersuchen.;-;-;-;https://link.springer.com/article/10.1007/BF00180861 b5879488ae09ad5276c5b88ee1752e7a;de;;;2.4.;;;Radionuklid-Bildgebung von atherosklerotischen Läsionen Die koronare Herzkrankheit ist das wichtigste kardiovaskuläre Gesundheitsproblem des letzten Jahrhunderts [1,2] und droht auch im 21. Jahrhundert die Hauptursache für Morbidität und Mortalität zu sein, sowohl in Entwicklungs- und Industrieländern als auch bei Männern und Frauen . Die Behandlung der koronaren Herzkrankheit basiert traditionell auf der Beurteilung des Schweregrads der Stenose des Gefäßlumens [3]. Obwohl der Grad der luminalen Beeinträchtigung durch die Plaque die Schwere der anginalen Symptome bestimmen kann, sagt er nicht die Ergebnisse wie die Wahrscheinlichkeit der Entwicklung akuter Koronarsyndrome einschließlich des plötzlichen Herztodes voraus. Begrenzte Erfolge wurden durch den Einsatz von Angioskopie und intravaskulärem Ultraschall oder neuerdings mit optischer Kohärenztomographie und MRT bei der Beurteilung der Plaquemorphologie erzielt [4–7]. Geeignete Targeting-Strategien mit Radionuklid-Bildgebungsverfahren könnten die vorherrschende Zellpopulation und Biochemie der atherosklerotischen Plaque identifizieren und helfen, die Wahrscheinlichkeit klinischer Ereignisse vorherzusagen [8].;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-6496-6_13 a3096e029c367e4569da199cf125b495;de;;;2.4.;;;Fingerprinting-Methoden zur Annäherung an multitrophe Interaktionen zwischen Mikroflora- und Mikrofauna-Gemeinschaften im Boden Die Bodenfunktion und die Reaktion der Biota auf externe Störungen wie organischen Eintrag basieren auf multitrophen Interaktionen zwischen einer Vielzahl von Organismen. Die verschiedenen Komponenten der Bodenmikroflora und Mikrofauna werden jedoch in ökologischen Studien selten behandelt. Wir haben einen molekularen Ansatz entwickelt, der auf der Analyse des terminalen Restriktionsfragmentlängenpolymorphismus (T-RFLP) basiert, um die Gemeinschaftsstrukturen von Protozoen und Nematoden zusammen mit Bakterien und Pilzen zu beurteilen, die dieselbe Bodenumgebung teilen. Zwei Böden wurden durch einen spezifischen Fingerabdruck für jede der vier Organismengruppen charakterisiert, was das Potenzial aller T-RFLP-Verfahren zur Differenzierung der Gemeinschaftsstrukturen zeigt. Die Reaktion der Bodenbiota auf organische Einträge wurde mithilfe von T-RFLP-Fingerabdrücken zusammen mit physiologischen Profilen von Bakteriengemeinschaften und globalen mikrobiellen Aktivitäten und Dichten untersucht. Obwohl der Einfluss von Kompost oder Dünger auf die Bodenbiota aus den gemessenen globalen Parametern nur geringfügig erkennbar war, war er aus den Analysen auf Gemeindeebene ersichtlich. Die verschiedenen Bestandteile der Bodenbiota wurden jedoch je nach Organismengruppe und Boden-Organik-Kombination unterschiedlich stark verändert. Das Potenzial der T-RFLP-Strategie, gleichzeitig verschiedene biotische Gruppen aus demselben Boden-DNA-Extrakt zu analysieren, wird die systematischere Integration eukaryontischer Organismen in ökologische Studien erleichtern, um multitrophe Interaktionen zwischen Mikroflora und Mikrofauna in Bezug auf Bodenprozesse zu untersuchen.;-;-;-;https://link.springer.com/article/10.1007/s00374-008-0287-1 1731319026df7d9fdbd3d64d3e1c3e74;de;;;2.4.;;;Modelle zur Verkehrszuordnung zu Verkehrsnetzen Modelle zur Verkehrszuordnung zu Verkehrsnetzen simulieren das Zusammenspiel von Angebot und Nachfrage in Verkehrssystemen. Diese Modelle ermöglichen die Berechnung von Leistungskennzahlen und Nutzerströmen für jedes Angebotselement (Netzverbindung), die sich aus den Ursprungs-Ziel-Nachfrageströmen, dem Pfadwahlverhalten und den wechselseitigen Wechselwirkungen zwischen Angebot und Nachfrage ergeben. Zuweisungsmodelle kombinieren die in den vorangegangenen Kapiteln beschriebenen Angebots- und Nachfragemodelle, weshalb sie auch als Nachfrage-Angebots-Interaktionsmodelle bezeichnet werden. Tatsächlich hängen, wie in Kapitel 4 gezeigt, Pfadwahlen und -ströme von den generalisierten Pfadkosten ab, außerdem werden die Nachfrageströme im Allgemeinen von den Pfadkosten in Wahldimensionen wie Verkehrsmittel und Ziel beeinflusst. Außerdem können, wie in Kapitel 2 dargestellt, Leistungskennzahlen und -kosten von Strecken und Pfaden von Verkehrsströmen aufgrund von Überlastung abhängen. Es besteht daher eine zirkuläre Abhängigkeit zwischen Nachfrage, Flüssen und Kosten, die in Zuordnungsmodellen abgebildet wird, wie in Abb. 5.1.1 zu sehen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-6873-2_5 f5ffd963d7f0b2498674296e12383bc2;de;;;2.4.;;;Concanavalin A: Eine Einführung Im letzten Viertel des 19. Jahrhunderts und zu Beginn des 20. Jahrhunderts suchten Bakteriologen nach Agglutininen, die als antibakterielle Mittel eingesetzt werden könnten. Field und Teague (1907) beispielsweise arbeiteten mit Typhus-Agglutininen. Kolmer (1923) arbeitete mit verschiedenen anderen Typen antibakterieller Agglutinine. Sumner und seine Mitarbeiter waren die erste Gruppe, die ein Agglutinin in relativ reiner Form isolierten (1936a). Sie konnten ein Lektin aus der Jackbohne kristallisieren;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-0949-9_1 4530eec1c9b529ceee7031fc603432ec;de;;;2.4.;;;Traditionelle und hochwirksame probiotische Präparate für die orale Bakteriotherapie Die aktuelle Forschung verbessert weiterhin die Behandlungsoptionen, die Klinikern für die orale Bakteriotherapie zur Verfügung stehen. Vor kurzem hat ein besseres Verständnis der Rolle der endogenen Verdauungsmikroflora ein neues Interesse am Potenzial der oralen Bakteriotherapie für die Behandlung eines breiten Spektrums von gastrointestinalen und systemischen Erkrankungen geweckt. Mehrere Behandlungsstrategien für die orale Bakteriotherapie sind bereits in klinische Studien eingetreten und es ist zu hoffen, dass einige dieser Strategien in naher Zukunft allgemein verfügbar werden.;-;-;-;https://link.springer.com/article/10.2165/00063030-199912060-00005 22b5f32fead124d3f2144c005f7c6e17;de;;;2.4.;;;Chemisch empfindliche Feldeffekttransistoren Der manchmal ungerechtfertigte, aber dennoch immer präsente Informationsbedarf stimuliert weiterhin die Entwicklung neuer Sensoren und Detektoren. Eine der neueren Ergänzungen zum Arsenal dieser Geräte ist der chemisch empfindliche Feldeffekttransistor (;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-3776-8_3 c1f554b7e83ac6d64e0892e47bc2f7c5;de;;;2.4.;;;Gibt es so etwas wie Legasthenie? Unter Lesespezialisten gibt es seit vielen Jahren eine Kontroverse, ob sich die Entwicklungsdyslexie qualitativ von anderen Formen der Lesebehinderung unterscheidet, weil sich leseschwache Leser, unabhängig von den damit verbundenen Etiketten, symptomatisch (d. h. in der Leseleistung) ähneln. Aus diesem Grund ist es schwierig, a priori Kriterien auf der Grundlage von Symptomen festzulegen, um Legasthenie zu erkennen und mit anderen Formen der Lesebehinderung zu vergleichen. Eine mögliche Lösung für diese Sackgasse besteht darin, festzustellen, ob sich schlechte Leser in der Ätiologie ihrer Lesebehinderung unterscheiden, und wenn ja, dann zu prüfen, ob eine Gruppe von schlechten Lesern der traditionellen Definition von Legasthenie entspricht. Diese Strategie wurde in der vorliegenden Studie verfolgt. In dieser Arbeit wurde die Hypothese aufgestellt, dass sich die Ätiologie der Legasthenie von der anderer Formen der Lesebehinderung unterscheidet, da sich die Komponenten, die bei Legasthenie und anderen Formen der Lesebehinderung gestört sind, unterscheiden. Studien haben gezeigt, dass die beiden Komponenten, die einen großen Anteil der Varianz beim Lesen ausmachen, das Dekodieren und das Verstehen sind. Frühere Studien weisen auch darauf hin, dass legasthene Kinder einen Mangel an Entschlüsselungsfähigkeiten, jedoch nicht unbedingt im Verständnis haben. In dieser Studie wurden lesebehinderte Kinder aufgrund ihres Hörverständnisses in zwei Gruppen eingeteilt. Kinder, deren Hörverständnis auf oder über der Klasse lag, wurden in eine Gruppe eingeordnet, leseschwache Leser mit untergeordnetem Hörverständnis in die zweite Gruppe. Beide Gruppen waren jedoch hinsichtlich des Leseverständnisses gleichgestellt. Den beiden Gruppen und einer Kontrollgruppe von normalen Lesern wurde eine Reihe von Aufgaben verabreicht, die darauf abzielten, die Effizienz der Lesekomponenten zu bewerten. Es wurde festgestellt, dass schwache Leser mit normalem Hörverständnis bei Aufgaben, die eine Graphem-Phonem-Umwandlung (Komponente I, Dekodierung) beinhalteten, mangelhaft waren. Bei Tests mit Aufgaben, bei denen die Decodierungsanforderungen minimiert wurden, war ihr Leseverständnis mit dem von normalen Lesern vergleichbar. Im Gegensatz dazu war die Gruppe mit einem unterdurchschnittlichen Hörverständnis schlecht in Bezug auf das Leseverständnis, selbst wenn die Decodierungsanforderungen minimal waren. Mit Ausnahme von sehr wenigen Kindern verfügte diese Gruppe auch über ausreichende Entschlüsselungsfähigkeiten. Da schlechte Leser mit normalem Hörverständnis einen durchschnittlichen oder überdurchschnittlichen IQ hatten, entsprechen sie der traditionellen Definition von Legasthenie. Schlechte Leser mit unterdurchschnittlichem Hörverstehen hatten einen unterdurchschnittlichen IQ und konnten als „allgemeines Rückwärtslesen“ betrachtet werden. Daraus wurde der Schluss gezogen, dass sich die Ätiologie der Entwicklungsdyslexie von der der allgemeinen Leserückständigkeit unterscheidet.;-;-;-;https://link.springer.com/article/10.1007/BF02648247 1523ee5ed0b6185073dd4ebf682e669a;de;;;2.4.;;;Nagy neu entdecken: Was ist mit der Kontexttherapie passiert? Ivan Boszormenyi-Nagy, Begründer und führender Befürworter der kontextuellen Familientherapie, beschäftigt sich seit mehr als 40 Jahren mit Beziehungsethik. In den 1980er Jahren gab es eine starke Verbreitung kontextbezogener Publikationen. Das große Interesse an der Annäherung schien seinen Höhepunkt zu erreichen und dann leise abzuebben. Was ist mit der Kontexttherapie passiert? Warum hat die kontextuelle Therapie ihren Platz unter den anderen weit verbreiteten und anerkannten therapeutischen Modellen nicht eingenommen? In diesem Artikel werden diese Fragen anhand einer Übersicht über die familientherapeutische Literatur behandelt.;-;-;-;https://link.springer.com/article/10.1007/BF00892224 e561acc940a120d3a0469baa11465888;de;;;2.4.;;;Reduzierung der Verdunstung aus Wasserreservoirs in Trockengebieten mit Monolayern: algerische Erfahrung Die extrem hohe Verdunstungsrate von Wasseroberflächen in ariden und semiariden Gebieten reduziert die optimale Nutzung von Wasserreservoirs stark. In Algerien, das zu 80 % ein arides Land ist, sind die Wasserressourcen aufgrund der geringen jährlichen Niederschläge knapp und erneuerbar. Angesichts der Bedeutung einer optimalen Nutzung erneuerbarer Wasserressourcen werden etwa 70 Talsperren mit einer Kapazität von 7,4 Mrd. m²;-;-;-;https://link.springer.com/article/10.1134/S009780781802015X d2cd31add36dc18012c9bffc922a8ab3;de;;;2.4.;;;Emissionszeitskala von Lichtteilchen im System Xe+Sn bei 50 AMeV. Eine Sonde für dynamische Emission? Die Korrelationsfunktionen von Protonen und Deuteronen wurden sowohl mit der Auswahl der Stoßparameter als auch der Emissionsquellen untersucht. Die Zusammenhänge des Systems;-;-;-;https://link.springer.com/article/10.1007/PL00013604 88c280e4c47ac7ccc7edc7f709a41ec2;de;;;2.4.;;;Die Proliferation der Vorläuferzellen von Granulationsneuronen wird durch NFIX und Intersektin 1 während der postnatalen Entwicklung des Kleinhirns reguliert Granula-Neuronen des Kleinhirns sind der zahlreichste neuronale Subtyp im Zentralnervensystem. Innerhalb des sich entwickelnden Kleinhirns stammen diese Neuronen aus einer Population von Vorläuferzellen, die sich in der äußeren Körnerschicht der Kleinhirnanlage befinden, nämlich den Kleinhirnkörnchenneuronenvorläufern (GNPs). Die rechtzeitige Proliferation und Differenzierung dieser Vorläuferzellen, die bei Nagetieren überwiegend in der postnatalen Phase stattfindet, wird streng kontrolliert, um die normale Morphogenese des Kleinhirns sicherzustellen. Trotzdem bleibt unser Verständnis der Faktoren, die vermitteln, wie die BSP-Differenzierung gesteuert wird, begrenzt. Hier zeigen wir, dass der Transkriptionsfaktor Nuclear Factor I X (NFIX) eine wichtige Rolle in diesem Prozess spielt. Mäuse fehlen;-;-;-;https://link.springer.com/article/10.1007/s00429-018-1801-3 fc4bd95f717698e603a71dfa79fdcd40;de;;;2.4.;;;Umgang mit kontinuierlichen Daten bei der Top-Down-Induktion von Regeln erster Ordnung Der Umgang mit numerischen Informationen ist eine der wichtigsten Forschungsfragen für die praktische Anwendung lernender Systeme erster Ordnung. Diese Arbeit beschäftigt sich mit dem Problem, Klassifikationsregeln erster Ordnung sowohl aus numerischen als auch aus symbolischen Daten zu induzieren. Wir schlagen einen Spezialisierungsoperator vor, der kontinuierliche Daten während des Lernprozesses diskretisiert. Die heuristische Funktion, die verwendet wird, um zwischen verschiedenen Diskretisierungen auszuwählen, erfüllt eine Eigenschaft, die gewinnbringend ausgenutzt werden kann, um die Effizienz des Spezialisierungsoperators zu verbessern. Der Operator wurde auf dem Gebiet des Dokumentenverständnisses implementiert und am besten getestet.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-63576-9_93 8e2aa44b03871241a25c12545995c16d;de;;;2.4.;;;Kristalle für die Photonik Die Perspektiven der Verwendung von Kristallen in der Photonik werden diskutiert. Das Hauptaugenmerk gilt einem der aktuellen Probleme der Photonik – der Schaffung von Laserstrahlungsquellen mit bestimmten Wellenlängen. Aktuelle Fortschritte bei der Entwicklung von Kristallen für durchstimmbare Laser sowie zur Transformation des Strahlungsspektrums mittels stimulierter Raman-Streuung werden diskutiert.;-;-;-;https://link.springer.com/article/10.1134/1.1529955 ea1f275a14eaa38fb1d198e2d8817553;de;;;2.4.;;;Turbulenzen in niedrigen Höhen. Zusammenfassung der Ergebnisse der Lo-Locat-Phasen I und II Die Betriebsgeschwindigkeit und die strukturelle Flexibilität von Flugzeugen sind im Laufe der Jahre weiter gestiegen, da große Fortschritte bei der Leistungsverbesserung erzielt wurden. Mit dieser Entwicklung ist die Rolle atmosphärischer Turbulenzen zu einem bedeutenden Aspekt im Flugzeugdesign geworden. Flugzeuge der älteren Generation mussten aufgrund ihrer relativ geringen Geschwindigkeiten hauptsächlich mit der geringen Leistung und hohen Turbulenzfrequenzen fertig werden. Die hohen Geschwindigkeiten moderner Flugzeuge führen dazu, dass ihre Ansprechfrequenzen mit der hohen Leistung und niedrigeren Turbulenzfrequenzen übereinstimmen. Es scheint, dass zukünftige Flugzeuge auf Turbulenzen mit sehr niedrigen Frequenzen ansprechen werden, wo in der Vergangenheit wenig über Turbulenzleistungseigenschaften bekannt war. Die detaillierte Definition des Turbulenzverhaltens in diesem Bereich ist daher relevant geworden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-5615-6_12 e17787b85d54ed75d7afc5c3e2a62eaa;de;;;2.4.;;;Live Cell Imaging der meiotischen Chromosomendynamik in Hefe Die Rekombination in der ersten meiotischen Prophase wird durch endogene Brüche in doppelsträngiger DNA (DSBs) initiiert, die während einer Zeit auftritt, in der Chromosomen umgebaut und proteinhaltige Kerne (Achsen) entlang ihrer Länge zusammengesetzt werden. DSBs sind maßgeblich an der Homologenerkennung beteiligt und liegen den Crossovers zugrunde, die sich zwischen den elterlichen Chromosomen bilden, um die Genom-Haploidisierung während der folgenden zwei aufeinanderfolgenden meiotischen Teilungen sicherzustellen. Fortschritte in der Fluoreszenzmikroskopie und Gentechnik von GFP-markierten Fusionsproteinen haben es ermöglicht, das Verhalten ganzer Chromosomen und bestimmter Unterregionen in lebenden Zellen der Hefe zu beobachten;-;-;-;https://link.springer.com/protocol/10.1007/978-1-61779-129-1_31 5a7aa4eb3ef5f08e9ebbca5db0b25c25;de;;;2.4.;;;RBC-Bestandsverwaltungssystem basierend auf dem XGBoost-Modell Es ist schwierig, den Erythrozytenverbrauch genau vorherzusagen. Dieses Papier zielt darauf ab, Big Data zu verwenden, um ein XGBoost-Modell zu erstellen, um den Trend von RBC genau zu verstehen und die Nachfrage rechtzeitig vorherzusagen. XGBoost, das Machine-Learning-Algorithmen unter dem Gradient Boosting-Framework implementiert, kann ein paralleles Tree-Boosting bereitstellen. Die tägliche RBC-Nutzung und der Bestand (Mai 2014–September 2017) wurden untersucht und Regeln für die RBC-Nutzung analysiert. Alle Daten wurden in Trainingssets und Testsets unterteilt. Ein XGBoost-Modell wurde erstellt, um die zukünftige RBC-Nachfrage für Laufzeiten von einem Tag bis zu einer Woche vorherzusagen. Darüber hinaus wurde der Alarmbereich zum vorhergesagten Wert hinzugefügt, um den Bedarf an Erythrozyten bei Notfallpatienten und chirurgischen Unfällen sicherzustellen. Die Lücke zwischen RBC-Nutzung und Inventar schwankte und hatte keine offensichtliche Regel. Der maximale Restbestand einer bestimmten Blutgruppe betrug bis zu 700 Einheiten an einem Tag, während der minimale fast 0 Einheiten betrug. Beim Vergleich von MAE (mittlerer absoluter Fehler):A:10.69, B:11.19, O:10.93 bzw. AB:5.91 zeigte sich, dass das XGBoost-Modell einen Vorhersagevorteil gegenüber anderen Ansätzen nach dem Stand der Technik hat. Es zeigte sich, dass das Modell dem Trend der täglichen RBC-Nutzung entsprechen könnte. Ein Alarmbereich könnte den Bedarf von Notfallpatienten oder chirurgischen Unfällen verwalten. Das Modell wurde entwickelt, um die Erythrozytennachfrage vorherzusagen, und der Alarmbereich des Erythrozyteninventars wurde entwickelt, um die Sicherheit des Inventarmanagements zu erhöhen.;-;-;-;https://link.springer.com/article/10.1007/s12288-020-01333-5 d876bb19c72e23d5a353f47a9dd8c0a6;de;;;5.3.;;;Elemente der Theorie topologischer Gruppen In diesem Kapitel leiten wir das zu Beginn des ersten Kapitels beschriebene Programm ein: Wir definieren und untersuchen nämlich die Struktur topologischer Gruppen. Bestimmte verfeinerte Ergebnisse der Strukturtheorie müssen auf Kapitel 5 verschoben werden, wo das mächtige analytische Werkzeug der Darstellungstheorie zur Verfügung gestellt wird. Es scheint angebracht, gleich zu Beginn das zu tun, was man mit bloßen Händen machen kann, und das werden wir jetzt tun. Abschnitt 10 enthält die Beschreibung einiger spezieller topologischer Gruppen, die für die spätere Verwendung wichtig sind, der Rest des Kapitels befasst sich mit strukturellen Eigenschaften der einen oder anderen Klasse von topologischen Gruppen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-8638-2_2 82e007d6fcd8436293a0a67f4d82f42f;de;;;5.3.;;;Stein-Räume M, für die O(M) isomorph zu einem Potenzreihenraum ist Räume analytischer Funktionen bilden ein anregendes Beispiel in der Theorie der nuklearen Fréchet-Räume. Zum Beispiel die Arbeiten der russischen Schule über das Problem, eine gemeinsame Basis für den Raum analytischer Funktionen auf einem offenen Gebiet und einer darin enthaltenen geschlossenen Menge zu finden [16],[39],[36] und einige Ideen von Kolmogorov bezüglich der Räume analytischer Funktionen [59] hat die Einführung linearer topologischer Invarianten für Fréchet-Räume wie die diametrale Dimension ([60],[22]) (später generalisierte Mitiagin-Invarianten [126]) und die Untersuchung der Quasi-Äquivalenz der Basis in nuklearen Fréchet-Räumen [35].;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-2456-7_8 cb914154cf14ee0ff6725bcb2728c2ec;de;;;5.3.;;;Kohärente Strukturen in turbulenten Jets Die Existenz großräumiger kohärenter Strukturen in Scherströmungen wurde inzwischen durch eine überwältigende Zahl experimenteller Beobachtungen bestätigt. Die früheren Arbeiten von Browand und Weidman (1976), Brown und Roshko (1974), Crow und Champagne (1971) und Winant und Browand (1974) zeigten, dass die sich entwickelnde Strömung sowohl in axialsymmetrischen Jets als auch in zweidimensionalen Scherschichten dominiert wird von großräumige, wellenartig kohärente Strukturen. Später wurden kohärente Strukturen in anderen Konfigurationen beobachtet, wie z. Diese Beobachtungen deuten darauf hin, dass die Struktur als Instabilitätswelle auf der Scherschicht beginnt, deren Amplitude ein Maximum erreicht und dann stromabwärts allmählich abklingt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-2744-2_6 370020d19fbddd3588a52b3b579d9a78;de;;;2.4.;;;Aktivierung multimodaler Areale in der menschlichen Großhirnrinde als Reaktion auf biologische Bewegungsgeräusche Die funktionelle Magnetresonanztomographie (fMRT) wurde verwendet, um die Aktivierung der multimodalen Bereiche in der Großhirnrinde – supramarginale und anguläre Gyri, Precuneus und mittlerer temporaler visueller Kortex (MT/V5) – als Reaktion auf die Bewegung biologisch signifikanter Geräusche (menschliche Schritte) zu untersuchen ). Die Probanden hörten während 45 s Annäherungs- oder Rückzugsgeräusche, und eine solche Stimulation sollte eine auditive Anpassung an die biologische Bewegung hervorrufen. Hörbedingungen wechselten mit stimulationsfreier Kontrolle. Um die Aktivität in den interessierenden Regionen aufzudecken, wurden die Zeiträume vor und während der Stimulation verglichen. Die stabilste und voluminöseste Aktivierung wurde im supramarginalen und angulären Gyri festgestellt, die für alle Schrittgeräuscharten registriert wurde – Annäherung, Rückzug und Schritte. Das Hören menschlicher Annäherungsschritte aktivierte den Precuneus-Bereich, wobei das Volumen der Aktivierungscluster zwischen den Probanden erheblich variierte. Im MT/V5-Bereich wurde bei 5 von 21 Probanden eine Aktivierung festgestellt. Die Beteiligung der getesteten multimodalen kortikalen Areale an der Analyse biologischer Bewegungen wird diskutiert.;-;-;-;https://link.springer.com/article/10.1134/S0022093018050046 96105bdb4a52a57376fbd7e76c051eb5;de;;;2.4.;;;Online-Abruf, Verarbeitung und Visualisierung von Primaten-Konnektivitätsdaten aus der CoCoMac-Datenbank Konnektivität ist der Schlüssel zum Verständnis verteilter und kooperativer Gehirnfunktionen. Detaillierte und umfassende Daten zur groß angelegten Konnektivität zwischen Primaten-Gehirnbereichen wurden systematisch aus veröffentlichten Berichten über experimentelle Nachverfolgungsstudien zusammengestellt. Obwohl der Großteil der Daten für den Online-Abruf leicht zugänglich gemacht wurde, schränken die Vielzahl der Brain Maps und die präzisen Anforderungen an die anatomische Namensgebung den intuitiven Zugriff auf die Daten ein. Die Qualität des Datenabrufs kann verbessert werden, indem ein kleiner Satz von Konventionen bei der Datendarstellung beachtet wird. Standardisierte Schnittstellen eröffnen weitere Möglichkeiten zum automatisierten Suchen und Abrufen, zur flexiblen Visualisierung von Daten und zur Interoperabilität mit anderen Datenbanken. Dieser Artikel bietet eine Diskussion und Beispiele in Text und Bild zu den Fähigkeiten der Online-Schnittstelle zur CoCoMac-Datenbank der Primatenkonnektivität. Diese dienen dazu, mögliche Verwirrungs- und Fehlerquellen aufzuzeigen und die automatisierte Verknüpfung mit anderen neuroinformatischen Ressourcen zu demonstrieren, die die Auswahl und Verarbeitung von Konnektivitätsdaten erleichtern, beispielsweise für die computergestützte Modellierung und Interpretation von funktionellen Bildgebungsstudien.;-;-;-;https://link.springer.com/article/10.1385/NI%3A2%3A2%3A127 5eb0bac1087c0eb55034c14d822688f9;de;;;2.4.;;;Zellgedächtnis und Krebs – Die Geschichte der Gene der Trithorax- und Polycomb-Gruppe Die meisten Zellen eines erwachsenen Organismus besitzen den gleichen DNA-Gehalt und das gleiche Genkomplement, dennoch können wir beim Erwachsenen viele verschiedene Zelltypen erkennen. Entwicklung ist der Prozess, durch den die Zellen des Embryos nach und nach ihr erwachsenes Schicksal und ihre Position erlangen. Das genetische Netzwerk, das diese Prozesse steuert, beginnt sich immer schneller zu entwirren, aber ein Schlüsselbereich wird immer noch etwas vernachlässigt – nämlich das entwicklungsbezogene Zellgedächtnis, der Prozess, mit dem Zellen ihre Ontogenese aufzeichnen. Ein wesentlicher Bestandteil des Phänotyps von Krebszellen kann durch die Deregulierung von Genen erklärt werden, deren normale Rolle darin besteht, die Teilung, Differenzierung und Migration embryonaler Zellen während der Entwicklung zu kontrollieren. Es sollte daher nicht überraschen, dass Gene, die während der Entwicklung an Zellgedächtnisprozessen beteiligt sind, auch an Krankheiten beteiligt sind. In diesem Review skizzieren wir, was über die Proteingruppe Polycomb und Trithorax als Kandidatengene für den Gedächtnisprozess bekannt ist, sowohl in Bezug auf die grundlegenden Funktionen als auch die Rolle von Anomalien in diesen Genen, die zu Krebs führen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1006333610078 d16afa93501e905e35db7b50fcc5dac6;de;;;5.3.;;;Instationäre Probleme Instationäre Gleichungen sind in der Regel komplizierter als stationäre. Sie haben viele Anwendungen in verschiedenen Bereichen der Wissenschaft und Technik. Bei der Konstruktion numerischer Algorithmen muss man sich sowohl mit räumlichen als auch mit zeitlichen Variablen auseinandersetzen. Wesentlich komplizierter ist die Frage, einen Korrektor für eine Näherungslösung auf einer Folge von Netzen zu finden. Dennoch sind in einer Vielzahl von Fällen solche Korrektoren zu finden. Diese Fragen werden uns nun beschäftigen. In diesem Buch werden wir weder Schemata höherer Ordnung behandeln, die eine andere Methode verwenden, noch werden wir andere Algorithmen diskutieren, obwohl sie ebenfalls erfolgreiche Ergebnisse liefern. Der Leser wird zur weiteren Diskussion auf [4, 131, 51, 87, 112, 114, 42, 146] verwiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-8224-9_6 2fe1a60ffb9ec684336c48e455a4b769;de;;;5.3.;;;Dynamik abelscher Higgs-Wirbel im nahen Bogomolny-Regime Das Ziel dieser Arbeit ist eine analytische Diskussion der Dynamik der abelschen Higgs-Multiwirbel, deren Existenz von Taubes bewiesen wurde ([JT82]). Für einen bestimmten Wert eines Parameters der Theorie, , der als Higgs-Selbstkopplungskonstante bezeichnet wird, gibt es keine Kraft zwischen zwei Wirbeln und es existieren statische Konfigurationen, die Wirbeln entsprechen, die an jedem Punkt in der Ebene zentriert sind. Dies ist als Bogomolny-Regime bekannt. Wir werden einige formale asymptotische Entwicklungen entwickeln, um die Dynamik dieser Multiwirbel für λ nahe diesem kritischen Wert zu beschreiben, aber nicht gleich diesem. Wir werden dann die Gültigkeit dieser asymptotischen Entwicklungen beweisen. Diese Erweiterungen ermöglichen es uns, ein endlichdimensionales Hamilton-System anzugeben, das die Wirbeldynamik beschreibt. Der Konfigurationsraum dieses Systems ist der „Moduliraum“ – der Raum der Lösungen der statischen Gleichungen Modulo Eichäquivalenz. Der Term der kinetischen Energie im Hamilton-Operator ergibt sich aus der natürlichen Metrik auf dem Modulraum, gegeben durch;-;-;-;https://link.springer.com/article/10.1007/BF02100485 bd2835ba41259aec192ddc9160d52cce;de;;;5.3.;;;Ein Hinweis zu Integraldarstellungen linearer Operatoren In diesem Papier beschreiben wir Familien dieser beschränkten linearen Operatoren, die gleichzeitig unitär äquivalent zu Integraloperatoren mit glatten Carleman-Kernen sind. Der Singleton-Fall des Hauptergebnisses impliziert, dass jeder Integraloperator unitär äquivalent zu einem Integraloperator mit glattem Carleman-Kern ist.;-;-;-;https://link.springer.com/article/10.1007/BF01225530 2869d06bba8eb60dbd0254c04a2f0de5;de;;;5.3.;;;Transformationsmethoden Ziel dieses Kapitels ist es, die in der angewandten Mathematik am häufigsten vorkommenden Integraltransformationen vorzustellen und typische Anwendungen anhand von Beispielen zu veranschaulichen. Die Behandlung erhebt keinen Anspruch auf Vollständigkeit und ist auch nicht besonders motiviert, obwohl wir häufig ein bestimmtes Randwertproblem oder eine Integralgleichung verwenden, um eine bestimmte Transformation oder Technik einzuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-1423-3_11 b68652c47aa1565a6b85afce91c1e343;de;;;2.4.;;;Turbulente Strömungsfeld- und Frontpositionsstatistiken in V-förmiger vorgemischter Flamme mit und ohne Einschluss Vorgemischten turbulenten Flammen wurde in den letzten Jahren sowohl aus experimenteller als auch aus theoretischer Sicht viel Aufmerksamkeit geschenkt. Unser Verständnis der wechselseitigen Wechselwirkung von Verbrennung und Turbulenz ist jedoch aufgrund der Vielzahl der an einem solchen Problem beteiligten Mechanismen noch unvollständig.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-9631-4_9 205e7ac5fb5b94ca8f7e649f3888908c;de;;;2.4.;;;Spontane zerebrale Hypothermie nach schwerer Kopfverletzung: Zusammenhang mit Gehirnchemie und zerebrovaskulären Parametern Sekundäre ischämische Ereignisse sind eine der Hauptursachen für ein schlechtes Outcome bei Patienten mit schwerem Schädel-Hirn-Trauma (SHT). Mehrere klinische Studien, in denen verschiedene neuroprotektive Verbindungen getestet wurden, haben bisher keine neuen Therapien ermöglicht. Nichtsdestotrotz haben mehrere Studien mit Hypothermie Beweise für einen Nutzen gezeigt, und die neuesten Ergebnisse einer multizentrischen Hypothermie-Studie in den USA werden erwartet. Inzwischen wird Hypothermie in vielen neurochirurgischen Zentren auf der ganzen Welt und insbesondere in Japan eingesetzt. Daher analysierten wir retrospektiv Patienten mit SHT mit einem Glascow Coma Scale (GCS)-Score von 8 oder weniger. Wir untersuchten die Gehirntemperatur mit einem Multiparametersensor, die Gehirnchemie mit Mikrodialyse, den Hirndruck (ICP) mit einer Ventrikulostomie und den zerebralen Blutfluss (CBF) mit stabilem Xenon-CT. Die Patienten wurden retrospektiv entsprechend ihrer Hirntemperatur in vier Temperaturkohorten eingeteilt. Patienten mit spontaner Hypothermie (Tbr < 36°C) unterschieden sich signifikant von den anderen Kohorten. Der mittlere ICP (P < 0,01), der zerebrale Perfusionsdruck (CPP) (P < 0,001) und Glutamat P < 0,0004) waren signifikant höher, während der CBF (P < 0,05) und die Hirnglukose niedriger waren. Ein negativer Unterschied zwischen Gehirntemperatur und Rektaltemperatur (Trect) (ΔTbr-Trect) korrelierte mit einem schlechten Ergebnis, wie es bei Patienten mit spontaner Hypothermie des Gehirns und Patienten mit therapeutischer Kühlung beobachtet wurde. Bei der Überwachung schwer hirnverletzter Patienten sind eine spontane Hypothermie des Gehirns und ein negativer Temperaturunterschied zwischen Gehirn und Rektum (ΔTbr-Trect) ein Indikator für ein schlechtes Ergebnis und eine Störung der Gehirnchemie (Glutamat, Laktat, Glukose) und CBF.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-66882-4_8 b66d98c4b2edb280ddb7bb3f37689b86;de;;;2.4.;;;Lipidbiosynthese und ihre Regulation in Cyanobakterien Nach der Endosymbiose-Theorie werden Cyanobakterien als Vorfahren der Chloroplasten angenommen. Sie sind Gram-negativ und führen über zwei Photosysteme eine sauerstoffhaltige Photosynthese durch, die den Photosystemen in den Chloroplasten eukaryontischer Pflanzen ähneln. Die Membranen von Cyanobakterien enthalten vier Hauptglycerolipide, von denen drei Glycolipide sind, nämlich Monogalactosyldiacylglycerol (MGDG), Digalactosyldiacylglycerol (DGDG) und Sulfoquinovosyldiacylglycerol (SQDG), und eines davon ist das Phospholipid Phosphatidylglycerol (PGDG). Die Lipidzusammensetzung von Cyanobakterienmembranen ähnelt der von Chloroplastenmembranen und insbesondere der von Thylakoidmembranen und unterscheidet sich von der der Membranen der meisten Bakterien, die Phospholipide als Hauptglycerolipide enthalten. Die Fettsäurezusammensetzung der Membranlipide von Cyanobakterien unterscheidet sich zwischen den Stämmen, und Cyanobakterien können hinsichtlich ihrer Fettsäuren in vier Gruppen eingeteilt werden. Unter den ungesättigten Fettsäuren wurden in Cyanobakterien einfach bis vierfach ungesättigte Fettsäuren gefunden. Bei einer begrenzten Anzahl von Cyanobakterien ähnelt die Fettsäurezusammensetzung der von Chloroplastenmembranen. Die Biosynthese von Membranlipiden in Cyanobakterien wird seit den 1980er Jahren in vivo durch Tracer-Experimente mit radioaktiv markierten Verbindungen untersucht. Die Charakterisierung und molekulare Identifizierung der an der Biosynthese von Lipiden beteiligten Enzyme musste jedoch die Klonierung der Gene für diese Enzyme abwarten, da die meisten dieser Enzyme membrangebunden sind und ihre Solubilisierung und anschließende Reinigung daher relativ schwierig ist. Gene für die Desaturasen von Cyanobakterien, die Doppelbindungen in an Membranlipide gebundene Fettsäuren einführen, wurden Anfang der 1990er Jahre nach Identifizierung der;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-2863-1_8 e3b159d85816d781d75ca0edf4ab897c;de;;;5.3.;;;Elementare Prädikatenlogik Die elementare Prädikatenlogik (erster Ordnung) ist ein Kind vieler Eltern. Mindestens drei verschiedene Denkergruppen trugen mit drei ganz unterschiedlichen Motiven zu seiner Konzeption bei. Vielleicht gab ihm die Mischung Hybridstärke. Aber was auch immer der Grund sein mag, die Logik erster Ordnung ist sowohl der einfachste, mächtigste als auch der am besten anwendbare Zweig der modernen Logik.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-7066-3_1 2dbccd26b5c126375d4109c108c8cf1e;de;;;2.4.;;;Hohe Anfälligkeit für Photoinhibierung junger Blätter tropischer Waldbäume Die Photoinhibition der Photosynthese wurde in jungen (aber fast vollständig entfalteten) und reifen Blättern der Blätterdachsonne mehrerer tropischer Waldbaumarten untersucht, beide unter kontrollierten Bedingungen (Exposition der abgelösten Blätter gegenüber etwa 1,8 mmol Photonen·m;-;-;-;https://link.springer.com/article/10.1007/BF00191564 94a771cd8108a966e7544caecd84172b;de;;;2.4.;;;Und was ist mit der fetalen Audition? Die Frage, ob der Fötus (oder sogar für bestimmte Sinnesarten das Neugeborene) sieht, hört, schmeckt und fühlt, wird seit vielen Jahren diskutiert, aber erst seit kurzem wird zu diesem Thema tatsächlich experimentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-3784-3_6 9f49ee3c1735ec14272acb14824e48c3;de;;;5.3.;;;Die Ethik des Entertainment Computing Dieses Papier untersucht eine Reihe von Fragen, die sich auf die Entwicklung von Entertainment Computing (EC) und der häuslichen Umgebung beziehen. Der Verbrauch von EG steht in engem Zusammenhang mit den Bemühungen der Unternehmen, es zu vermarkten. Gleichzeitig gibt es viele verschiedene Faktoren, die die Lebensqualität der einzelnen Verbraucher, die an der Unterhaltung teilnehmen, beeinflussen. Es gibt eine Reihe ungelöster Konflikte, die von den Anbietern von EC-Software und den Herstellern von Hardware derzeit nicht beantwortet werden. Diese Konflikte werden untersucht und die Ethik eines Beispielszenarios wird diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/11558651_46 7a6c0905e755d34f8a4a75e8160cf402;de;;;5.3.;;;Exergames für ältere Menschen in umgebungsunterstützten Wohnumgebungen Umgebungen mit Ambient Assisted Living (AAL) bieten eine Lösung für die Herausforderungen des demografischen Wandels, indem sie ältere und chronisch kranke Menschen in ihrem eigenen häuslichen Umfeld unterstützen. Ernsthafte und durchdringende Spiele können die Einstellung der Menschen verändern und ein gesundes Verhalten fördern. Beide Konzepte werden jedoch selten kombiniert und die Integration beider Konzepte ist unzureichend erforscht. Wir präsentieren eine Anwenderstudie (n = 64) eines Exergames für AAL-Umgebungen mit den Forschungsschwerpunkten Performance und Akzeptanz. Das Alter ist der vorherrschende Faktor für die Leistung, während die Nutzungsabsicht von der Spielhäufigkeit bestimmt wird. Weder die technische Selbstwirksamkeit noch das Alter hatten einen wesentlichen Einfluss auf diese Maßnahmen. Die Interaktion mit dem Spiel hatte jedoch einen erheblichen positiven Effekt auf die wahrgenommene Gesundheit und Schmerzen der Teilnehmer. Die Studie zeigt, dass Exergames in AAL-Umgebungen eine praktikable Lösung sind, um die Autonomie und Unabhängigkeit der Menschen in einer alternden Gesellschaft zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19656-5_21 af249f09ab02ea23ec45170f398c4432;de;;;5.3.;;;Finite-Elemente-Modellierung eines vibrierenden Touchscreens, der durch Piezo-Patches für haptisches Feedback betätigt wird Ziel unserer Arbeit ist es, einen Touchscreen zu entwickeln, der dem Benutzer vibrotaktiles haptisches Feedback über auf seiner Oberfläche angebrachte Piezo-Patches anzeigt. Eine der Herausforderungen im Design ist die Auswahl geeigneter Randbedingungen und der Piezo-Konfigurationen (Ort und Orientierung) auf dem Bildschirm, um eine optimale Performance innerhalb der Grenzen der menschlichen haptischen Wahrnehmung zu erreichen. Um die Kompromisse in unserem Design zu untersuchen, haben wir in ABAQUS ein Finite-Elemente-Modell des Bildschirms und vier an seiner Oberfläche angebrachte Piezoaktoren entwickelt. Das Modell nutzt das bekannte Hookesche Gesetz zwischen Spannung und Dehnung erweitert durch piezoelektrische Kopplung. Nach Auswahl der geeigneten Randbedingung für den Bildschirm basierend auf dem Bereich der Vibrationsfrequenzen, die von einem menschlichen Finger erfasst werden können, wird die optimale Konfiguration für die Piezo-Patches durch Maximieren der Vibrationsamplitude des Bildschirms für eine auf jeden Piezo-Patch aufgebrachte Mikro-Coulomb-Ladung bestimmt . Die Ergebnisse unserer Studie legen nahe, dass die Piezo-Patches in der Nähe der eingespannten Seiten des Bildschirms platziert werden sollten, an denen die Randbedingungen angewendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31401-8_5 24abfb47a0b365cc3ac9c13ce0584e44;de;;;2.4.;;;Transport in Algenzellen Die Verwendung von Riesenalgenzellen war für die jüngsten Fortschritte in unserem Verständnis des Mechanismus des Transports von gelösten Stoffen und Wasser in Pflanzen sehr wichtig. Diese Forschung hat Riesenalgenzellen als geeignetes Material für die Untersuchung von Membraneigenschaften angesehen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-66227-0_6 186f8761b7c2781433ae532ec8d8d1ef;de;;;5.3.;;;Analyse von Mausbewegungen und Körperreaktionen in Fernunterrichtsumgebungen Virtueller Unterricht wird häufig als Unterrichtsstrategie eingesetzt, um dynamische Lernprozesse zu fördern. Das Ziel der vorliegenden Studie war es, den Zusammenhang zwischen der Mausnutzung in Verbindung mit den körperlichen Reaktionen der Benutzer und dem Engagement-Gefühl während des virtuellen Unterrichts zu untersuchen. Zehn Teilnehmer wurden rekrutiert und für zwei Aktivitäten eingereicht: eine Videolektion und eine Diashow sowie Fragebögen zu den Inhalten und Qualitätsaspekten der Lektionen. Die Daten wurden mit einem Smartphone-Beschleunigungsmesser und einem Maus-Tracker (entwickelt aus einer Google Chrome-Browsererweiterung) gesammelt. Ein Zusammenhang zwischen dem Maustracker und den Erfahrungsfragebögen der Nutzer wurde beobachtet, ein Zusammenhang zwischen der Anzahl der Mausbewegungen sowie der Anzahl der Klicks bei den Items hinderlich/ableitend. Außerdem wurde ein Zusammenhang zwischen der Anzahl der Klicks und dem Item leicht/schwierig gefunden. Zwischen den Unterrichtsstunden wurden keine signifikanten Unterschiede festgestellt, schließlich kamen wir zu dem Schluss, dass die Verwendung der Mausbewegungen ein Engagement-Indikator während einer virtuellen Stunde zwischen Männern und Frauen sein könnte. Es ist jedoch wichtig darauf hinzuweisen, dass das vorgeschlagene Experimentskript und seine Ressourcen überprüft und umstrukturiert werden müssen, um eine höhere Datengenauigkeit zu gewährleisten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-66562-7_43 c87d8363ab642742470b86ada8432bd4;de;;;2.4.;;;"Optimale Aktualisierungsrate für NLMS in 3GPP WCDMA-Basisstation-Basisbandempfänger In dieser Anmerkung untersuchen wir die SINR-Leistung des iterativen Strahlformungsalgorithmus Normalized Mean Least Square (NLMS) als Funktion der Aktualisierungsrate. ""Aktualisierungsrate"" bezieht sich hier auf die Aktualisierungsrate der Antennengewichte, die verwendet werden, um das kombinierte Signal zu bilden, das zur Demodulation verwendet wird. Im Allgemeinen gilt: Je schneller die Aktualisierungsrate, desto besser die Leistung, jedoch auf Kosten einer erhöhten Rechenleistung. Wir zeigen, dass für 3G-Breitband-CDMA-Systeme die Aktualisierungsrate der Antennengewichtung viel langsamer sein kann als die Steuersymbolrate, ohne die Systemleistung zu beeinträchtigen.";-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-05592-2_31 6195374ee7636d872bfe221cfab57ca3;de;;;5.3.;;;HoloTabletop: ein interaktives holografisches Tischsystem mit anamorphotischer Illusion HoloTabletop ist ein kostengünstiges holografisches interaktives Tabletop-System. Dieses System analysiert die Kopfposition und Blickposition des Benutzers in Echtzeit und berechnet das entsprechende anamorphotische Illusionsbild. Das anamorphotische Illusionsbild wird auf einem horizontal angeordneten 2D-Monitor angezeigt, bietet dem Benutzer jedoch Stereosehen. Der Benutzer kann die virtuellen 3D-Objekte anzeigen und mit ihnen interagieren, ohne eine spezielle Brille oder Geräte zu tragen. Die experimentellen Ergebnisse und Benutzerstudien bestätigen, dass das vorgeschlagene HoloTabletop-System eine hervorragende Stereosicht bietet, während den menschlichen Augen keine visuelle Ermüdung zugefügt wird. Dieses System ist eine großartige Lösung für viele interaktive Anwendungen wie 3D-Brettspiele und das Durchsuchen von Stereokarten.;-;-;-;https://link.springer.com/article/10.1007/s11042-016-3531-y 6fee28df6e7d283d07801a91a9ed8742;de;;;2.4.;;;Mobilität internationaler Studierender, Gender-Dimension und Krise Die Migration von Universitätsstudenten, die häufig gleichbedeutend mit Mobilität von Hochqualifizierten ist, war auch während des gegenwärtigen Wirtschaftsabschwungs die größte Migrationskategorie nach Großbritannien. Ein sehr wettbewerbsfähiger Bildungssektor, der Teil einer global integrierten Wirtschaft ist, steht im Widerspruch zur aktuellen britischen Einwanderungspolitik, die darauf abzielt, die Studentenmigration zu reduzieren.;-;-;-;https://link.springer.com/chapter/10.1057/9781137467119_8 80048b0643d23c9571019a8f3136cd5c;de;;;2.4.;;;Experimentelle Aspekte der Reibungsforschung auf der Makroskala Die ersten Untersuchungen zur Gleitreibung wurden durch technische Probleme wie das Stapeln von Schiffen und das Bremsen von Wagenrädern veranlasst. Experimente wurden zuerst an den Objekten selbst durchgeführt und später durch den Bau von Repliken, die bequemer verwaltet werden konnten. Konzepte für frühe Reibungsmessgeräte werden Leonardo da Vinci zugeschrieben, der seine Entwürfe für verschiedene Schlitten, Rollen, Lager und schiefe Ebenen in der Zeit von 1452-1519 dokumentierte [Dowson (1979)]. Neuere Arbeiten haben von der Entwicklung von Sensoren profitiert, die Reibungskräfte mit hoher Präzision und Genauigkeit messen und aufzeichnen können. Aber selbst angesichts solcher Fortschritte werden Reibungskoeffizienten normalerweise immer noch mit nur einer oder zwei signifikanten Zahlen angegeben. Zusätzliche Messungen des fraktionalen Verhaltens sind jetzt leicht verfügbar. Diese werden später besprochen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0736-8_17 20186a84b7a8890b3a5817dee7b8e475;de;;;2.4.;;;Innere Filtereffekte, Probenküvetten und deren Geometrie in der Fluoreszenzspektrometrie Unter allgemein verwendeten experimentellen Bedingungen nimmt das beobachtete Fluoreszenzsignal einer Lösung relativ zur Konzentration des Fluorophors im Allgemeinen ab, wenn die Lösung zunehmend konzentriert wird. Die Abnahme ist teilweise auf eine Abschwächung des Anregungsstrahls in Bereichen der Lösung vor dem Punkt, von dem die Fluoreszenz durch das Detektionssystem gesammelt wird, und auf Absorption der emittierten Fluoreszenz innerhalb der Lösung zurückzuführen. Der Effekt ist der;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-5902-6_5 18bbe12d39ffdcb4b26a5e6047914f22;de;;;2.4.;;;Mineralische Ernährung Tomaten wachsen mäßig gut über eine Reihe von Ebenen jedes Nährstoffs. Die Manipulation der Nährstoffversorgung ist jedoch unerlässlich, um die für eine profitable Produktion erforderlichen hohen Erträge an qualitativ hochwertigen Früchten zu erzielen. Während der Nährstoffgehalt für Wachstum und Ertrag nie weniger als völlig ausreichend sein darf, übersteigt der für eine gute Fruchtqualität erforderliche Kaliumgehalt den für einen maximalen Ertrag erforderlichen bei weitem.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-3137-4_7 7537ef220f19d4a67df00ced60b59fc7;de;;;5.3.;;;Zur Nützlichkeit von teilweise markierten Daten zur Klassifizierung von Microarray-Daten Microarrays sind Standardwerkzeuge zur gleichzeitigen Messung von Tausenden von Genexpressionsniveaus. Sie werden häufig bei der Klassifizierung von Tumorgeweben verwendet. In diesem Fall besteht ein gesammelter Satz von Stichproben oft nur aus einigen Dutzend Datenpunkten. Gemeinsame Ansätze zur Klassifizierung solcher Daten werden überwacht. Sie verwenden ausschließlich kategorisierte Daten zum Trainieren eines Klassifikationsmodells. Beschränkt auf eine kleine Anzahl von Stichproben sind diese Algorithmen von Überanpassung betroffen und haben oft keine gute Generalisierungsleistung. Eine implizite Annahme überwachter Methoden ist, dass nur gekennzeichnete Trainingsstichproben existieren. Diese Annahme trifft nicht immer zu. In medizinischen Studien stehen oft zusätzliche unmarkierte Proben zur Verfügung, die für einige Zeit nicht kategorisiert werden können (z. Alternative Klassifikationsansätze, wie halbüberwachte oder transduktive Algorithmen, können diese teilweise gekennzeichneten Daten nutzen. Hier untersuchen wir empirisch fünf semi-überwachte und transduktive Algorithmen als „frühe Vorhersagewerkzeuge“ für unvollständig gekennzeichnete Datensätze hoher Dimensionalität und niedriger Kardinalität. Unser experimenteller Aufbau besteht aus Kreuzvalidierungsexperimenten mit unterschiedlichen Verhältnissen von markierten zu unmarkierten Beispielen. Interessanterweise wird die beste Kreuzvalidierungsleistung nicht immer für vollständig gekennzeichnete Daten erreicht, sondern eher für teilweise gekennzeichnete Datensätze, was den starken Einfluss von Kennzeichnungsinformationen auf den Klassifizierungsprozess selbst im linear trennbaren Fall anzeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28258-4_11 7028af14a29089c0099394271aba0c47;de;;;5.3.;;;Das Internet: die erste Inkarnation der Datenautobahn Das Internet gehörte ursprünglich der amerikanischen Regierung. Zuerst wurde es vom Verteidigungsministerium gesponsert und bediente den Kommunikationsbedarf, dann wurde es das Netzwerk amerikanischer Universitäten und der Forschungsgemeinschaft unter der Schirmherrschaft der National Science Foundation. Heute ist das Internet eine weltumspannende Genossenschaftsstruktur, die von der Internet Society (ISOC) beaufsichtigt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-14175-3_8 46dc9ba4b52f9e3367bddc53b0243bca;de;;;5.3.;;;DataSheets: Eine tabellenbasierte Datenflusssprache Wir sind von Daten umgeben, einer riesigen Menge an Daten, die einen zunehmenden Bedarf an Kombination und Analyse mit sich bringt, um Informationen zu extrahieren und Wissen zu generieren. Nicht nur bei großen Softwareunternehmen mit erfahrenen Programmierern, von Wissenschaftlern bis hin zu Bloggern, erforderlich, verlangen viele Endbenutzer-Programmierer derzeit Datenverwaltungstools, um Informationen nach eigenem Ermessen zu generieren. Da Daten jedoch in der Regel auf mehrere Quellen verteilt sind, müssen sie integriert werden, und leider steht dieser Prozess nur professionellen Entwicklern zur Verfügung. In diesem Papier schlagen wir DataSheets vor, einen neuartigen Ansatz, um die Datenflussspezifikation zugänglich und ihre Darstellung für Endbenutzerprogrammierer verständlich zu machen. Dieser Ansatz besteht aus einer tabellenkalkulationsbasierten Datenflusssprache, die in einem serviceorientierten Kompositions-Framework getestet und bewertet wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45005-1_53 505a91069d2a650b4b6ee4d5056a9b0f;de;;;5.3.;;;Verbinden von Personen über den virtuellen Assistenten auf Google Assistant Technologie ist heute eine wichtige treibende Kraft in unserem Leben. Social Media Plattformen wie Facebook, Twitter, Whatsapp, Hike etc. haben die Welt im Sturm erobert und sind aus dem Leben nicht mehr wegzudenken. Google Assistant (GA) ist ein auf künstlicher Intelligenz (KI) basierender virtueller Assistent, der von Google entwickelt wurde. Anfangs fehlte dem GA die Funktion, mit zufälligen Personen zu chatten. In diesem Forschungspapier geht es darum, eine solche Funktion für GA zu entwickeln, indem eine „Aktion bei Google“ erstellt wird. Action on Google ist eine benutzerdefinierte Anwendung, die Google Assistant Funktionen hinzufügt. Diese Anwendung (mit dem Namen Chat Hub) verbindet zwei zufällig online verfügbare Personen. Die Leute können nach ihrem Interessengebiet chatten. Da GA in alle Android-Geräte integriert ist, steigt die Abonnentenzahl jeden Tag erheblich. Die Chat-Funktion wurde am 3. Oktober 2018 in GA eingeführt. Das Ziel der Entwicklung einer solchen Funktion ist es, GA benutzerfreundlicher zu machen und den Menschen zu helfen, indem es hilft, andere mit ähnlichen Interessen zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30577-2_35 b767744298074cd49f6dd3a62a90c305;de;;;5.3.;;;Über Triangulationen Triangulationen in 2D und 3D sind ein notwendiger Bestandteil vieler Anwendungen. Dieser Beitrag gibt einen kurzen Überblick über die wichtigsten Triangulationen, die in der Computergrafik und der Computergeometrie verwendet werden, konzentriert sich dann auf Delaunay- und gierige Triangulationen in 2D und 3D und stellt ihre wichtigsten Eigenschaften und Algorithmen vor. Anschließend werden drei Anwendungen aus den Bereichen Computergrafik und Bildverarbeitung vorgestellt und Ergebnisse diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24709-8_58 316e01631c5a27b1fbc44fc1f3a211df;de;;;2.4.;;;An Integraloperatoren und deren Anwendungen angepasste bioorthogonale Wavelets Zuerst konstruieren wir biorthogonale Wavelets, die an einige Integraloperatoren angepasst sind, deren Darstellungsmatrizen durch die bioorthogonalen Wavelets blockdiagonale sind. Die Konstruktionsmethode wird auf das Riesz-Potential, die erste Ableitung der Hilbert-Transformation sowie die Abel-Transformation angewendet. Wir zeigen auch, dass die Hilbert-Transformation und die Differentialoperatoren ungerader Ordnung, deren Blockdiagonaldarstellungsmatrizen mit dieser Methode nicht konstruiert werden können, in eine Summe von Operatoren zerlegt werden können, auf die unsere Methode anwendbar ist. Diese Zerlegung ergibt einen numerischen Löser für diese Operatoren, dessen Anzahl der Operationen O(n) ist.;-;-;-;https://link.springer.com/article/10.1007/BF03167267 aa663c65e2642910f15d2666db5e9fe4;de;;;2.4.;;;Molekularer Nachweis von Erreger-DNA in Zecken (Acari: Ixodidae): Eine Übersicht Zecken spielen in der Human- und Veterinärmedizin eine wichtige Rolle, insbesondere aufgrund ihrer Fähigkeit, ein breites Spektrum pathogener Mikroorganismen protozoalen, rickettsialen, bakteriellen und viralen Ursprungs zu übertragen. Krankheitserreger in Zecken können durch konventionelle Methoden wie indirekte Immunfluoreszenz, Isolierung in Zellkultur oder durch histologische Färbetechniken identifiziert werden. Das Aufkommen der Polymerase-Kettenreaktion (PCR) hat jedoch zu enormen Verbesserungen beim spezifischen und sensitiven Nachweis von Krankheitserreger-DNA in Zecken geführt. In diesem Beitrag wird die Literatur zu DNA-Extraktionsmethoden, PCR-Protokollen, Primern und Sonden, die zum erfolgreichen Nachweis und zur Identifizierung von Krankheitserregern in Zecken verwendet werden, kritisch überprüft. Einige Empfehlungen werden auch gegen Ende der Überprüfung gegeben.;-;-;-;https://link.springer.com/article/10.1023/A%3A1006313803979 0961f25f5452c8da8b1a402da7174186;de;;;5.3.;;;Anpassung von Geschäftsprozessmodellen in Echtzeit: Der Einfluss von Domänenwissen auf die Lesestrategie Durch die Verwendung von Tausenden von oft sehr komplexen Prozessmodellen ist es von großem wirtschaftlichen Nutzen, diese sofort für ihren Zweck nutzbar zu machen. Um die Usability zu maximieren, müssen Prozessmodelle intuitiv und leicht verständlich sein. Mit anderen Worten, die Verarbeitung der in den Prozessmodellen enthaltenen Informationen muss einen erfolgreichen Abschluss der Aufgabe ermöglichen, für die das Modell verwendet wird. In letzter Zeit haben die Forschungsbemühungen zu den Auswirkungen von Benutzermerkmalen auf die Verständlichkeit zugenommen. Aktuelle Limitationen schaffen jedoch vielversprechende Forschungsmöglichkeiten, insbesondere im Hinblick auf den Einsatz realistischer Prozessmodelle und direkter Datenerhebungstechniken. Diese Arbeit wird zum bestehenden Wissensschatz beitragen, indem Domänenwissen als grundlegendes Benutzermerkmal untersucht und Eye-Tracking als direkte Datenerfassungsmethode unter Verwendung realistischer, komplexer Prozessmodelle verwendet wird. Das Endziel dieser Forschung ist es, eine automatische Prozessmodell-Anpassungstechnik vorzuschlagen, mit dem Ziel, das Verständnis eines Benutzers und damit seine Leistung zu verbessern. Bisher hat eine Pilotstudie die Existenz unterschiedlicher Lesestrategien aufgezeigt, die die Tragfähigkeit der vorgeschlagenen zukünftigen Arbeit belegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-73805-5_30 0169b995ef8209cc4ab7b67eab829ba4;de;;;5.3.;;;Implementierung eines responsiven Webseitenlayouts basierend auf Media Query und Flexible Box Model Derzeit gibt es verschiedene Arten von mobilen Endgeräten auf dem Markt, auch deren Bildschirmauflösungen variieren stark. Wie man Webseiten an unterschiedliche Bildschirmauflösungen anpasst und den Benutzern ein besseres Surferlebnis bietet, ist ein Problem des Webseiten-Layouts, das dringend gelöst werden muss. Dieser Beitrag analysiert und erarbeitet die derzeit gebräuchlichen Methoden zur Lösung des Problems der Webseitenanpassung und ihrer bestehenden Mängel. Um diese Mängel zu beheben, haben wir dann einen neuartigen Modus des responsiven Webseiten-Layouts vorgeschlagen, der die Media-Query-Technologie und das flexible Box-Modell verwendet, um das Problem der Webseiten-Selbstanpassung zu lösen und seine Durchführbarkeit und Wirksamkeit durch die Praxis zu überprüfen, die auf dieser Modus.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3663-8_61 04a0c33b16c520ec78137ca0964bf6f4;de;;;5.3.;;;Dynamik des Allergenabbaus in Lebensmitteln Um objektive Methoden zum Nachweis potenzieller Allergene in aus Hülsenfrüchten gewonnenen Lebensmitteln zu entwickeln, konzentrierte sich diese Studie auf die Verfahren der Gelchromatographie oder Elektrophorese, die zur Überwachung von Proteinfraktionen und deren Derivaten nach technologischer Behandlung durch enzymatische Hydrolyse zur Verringerung allergischer Reaktionen verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-03720-1_43 a28078d4423820fd93f9563c3ae7bb19;de;;;5.3.;;;Auswirkungen einer hypobaren Hypoxie auf die interzelluläre Kopplung von Glomuszellen Eine längere Exposition gegenüber einem hypobaren Medium induziert tiefgreifende Auswirkungen auf das Glomus caroticum, wie in vielen Studien berichtet. Unter diesen erwähnen wir Hyperplasie und Hypertrophie von Glomuszellen, eine erhöhte Transmittersekretion und eine Zunahme von Connexin Cx43, das gekoppelte Glomuszellen verbindet (Poncet;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-9280-2_72 ae53f267f6ccfb2a744c951346543364;de;;;5.3.;;;Glycerylethermonooxygenase [EC 1.14.16.5]: Stöchiometrie und Hemmung Glycerylethermonooxygenase ist ein mikrosomales Enzym, das das α-Kohlenstoffatom der Fettseitenkette von Glycerylethern langkettiger Fettalkohole hydroxyliert. Die Reaktion erfordert Sauerstoff und einen Tetrahydropterin-Cofaktor. Es handelt sich um eine Mischfunktionsoxidase und analog zur Phenylalaninhydroxylase die in Schema . gezeigte Reaktion;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-2960-6_18 10df1bab8003a7d536b8378eb38e1ab6;de;;;5.3.;;;Reaktion von 2,6-Di-tert-butyl-p-benzochinondiazid mit Alkyl- und Arylaminomagnesiumhalogeniden Die Umsetzung von 2,6-Di-tert-butyl-p-benzochinondiazid mit Dialkyl- und Arylaminomagnesiumhalogeniden führt zur Bildung von 1-Hydroxyphenyl-3-substituierten Triazenen.;-;-;-;https://link.springer.com/article/10.1007/BF00906540 3cddcbc69e62e38887df3203fdba5757;de;;;5.3.;;;Eine einfache Synthese von 4-Amino-6-methyl-1,1,1-trifluor(trichlor)hepta-3,5-dien-2-onen und 2,2-Dimethyl-6-trifluormethyl-2,3-dihydro- 4-Pyridon Behandlung von 2,2-Dimethyl-6-trifluor(trichlor)methyl-2,3-dihydro-4-pyronen mit Ammoniak ergibt 4-Amino-1,1,1-trifluor(trichlor)-6-methylhepta-3,5 -dien-2-one. Unter ähnlichen Bedingungen 1,1,1-Trifluor-2-hydroxy-6-methylhepta-2,5-dien-4-on und 6-chlor-1,1,1-trifluor-2-hydroxy-6-methylhept-2 -en-4-on cyclisieren zu 2,2-Dimethyl-6-trifluormethyl-2,3-dihydro-4-pyridon.;-;-;-;https://link.springer.com/article/10.1007/BF02495272 fc744cc6cb1d8d0b7cc99cd7d9c6fed1;de;;;5.3.;;;Funktionelle Eigenschaften von „Baumwollprotein“. I. Emulgierende Eigenschaften von Gossypulin: Einfluss der Proteinstruktur und des Vorhandenseins von Gossypol und Phytat Proben von Gossypulin mit unterschiedlichen Denaturierungsgraden des Proteinmoleküls und unterschiedlichen Konzentrationen von Gossypol und Phytat wurden durch chemische Modifikation gewonnen. Es wurde festgestellt, dass eine Änderung der Konformation des Proteins, die seine Sekundärstruktur nicht beeinflusst, zu einer leichten Erhöhung seiner emulgierenden Aktivität führt. Die Anwesenheit von Gossypol und Phytat beeinflusst die emulgierenden Eigenschaften und erschwert die Bestimmung des Beitrags der Proteinstruktur.;-;-;-;https://link.springer.com/article/10.1007/BF00598308 15051753398c8c7c16a42cac39423a2f;de;;;5.3.;;;Thermodynamische Studien zur Komplexbildung von Actinylionen, extrahiert mit TBP aus Salz- und Salpetersäure Die mit der Extraktion von U/VI/, Np/VI/ und Pu/VI/ durch TBP einhergehenden Änderungen der freien Energie, Enthalpie und Entropie wurden durch die Methode der Extraktionschromatographie bestimmt. Die erhaltenen Ergebnisse zeigen eine Komplexierung der äußeren Kugel.;-;-;-;https://link.springer.com/article/10.1007/BF02170469 8deadcd4faf458721ac3ee7c8f8f5583;de;;;5.3.;;;HCL-Oxidation von hochdosiertem Arsen-implantiertem Silizium Die thermische Oxidation von hochdosiertem Arsen implantiertem p-Typ <100> Silizium wurde durchgeführt, um das Schneepflügen mit Arsen zu untersuchen. Bei einer Oxidationstemperatur von 1050 °C wurden Blasenmusterbildung und lokale Oxidverbiegung (Hügel) in Bezug auf die Arsenkonzentration in Silizium sowie eine HCl-Umgebung beobachtet. Bei einer Oxidationstemperatur von 950 °C für eine Atmosphäre mit einer HCl-Umgebung wurde eine Oxidablösung beobachtet. Außerdem wurde eine Anomalie in der Temperaturabhängigkeit der Oxidationsrate unabhängig von einer HCl-Umgebung gefunden.;-;-;-;https://link.springer.com/article/10.1557/PROC-54-567 ba94b6995d8cdd3a2437490928d7678f;de;;;5.3.;;;Eine Untersuchung der Bildungsreaktionen von Amiden der 2-Benzthiazolylsulfensäure aus N-Chloraminen und 2-Mercaptobenzthiazon Es wurde der Mechanismus der Reaktion zwischen N-Chloraminen und 2-Mercaptobenzthiazol in Wasser und in inerten Lösungsmitteln untersucht. Es wurde gezeigt, dass in Wasser und Alkohol neben der Bildung von Sulfenamiden eine Oxidationsreaktion von 2-Mercaptobenzthiazol durch hypochlorige Säure zum Disulfid erfolgt.;-;-;-;https://link.springer.com/article/10.1007/BF00475432 925262c32a64a2f09114d1afc85db7fa;de;;;5.3.;;;CiteSeer: Vergangenheit, Gegenwart und Zukunft CiteSeer, eine digitale Bibliothek für Informatik, war ein radikaler Schritt für den Zugang und die Analyse wissenschaftlicher Dokumente. Mit fast 600.000 Dokumenten hat es über eine Million Seitenaufrufe pro Tag und ist damit eine der beliebtesten Dokumentenzugriffs-Engines in der Computer- und Informationswissenschaft. CiteSeer ist auch portabel und wurde auf eBusiness (eBizSearch) und neuerdings auf akademische Geschäftsdokumente (SMEALSearch) erweitert. CiteSeer basiert im Wesentlichen auf zwei Funktionen: dem aktiven Erfassen neuer Dokumente und dem automatischen Tagging und Verknüpfen von Metadateninformationen, die in der syntaktischen Struktur eines akademischen Dokuments enthalten sind. Wir diskutieren Methoden zur Bereitstellung neuer markierter Metadaten und anderer Datenressourcen wie Institutionen und Anerkennungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24681-7_2 1429a938a7c2c2ecf07dbf8d4b7d1831;de;;;2.4.;;;Mikromechanische Untersuchungen mitotischer Chromosomen Mitotische Chromosomen reagieren elastisch auf Kräfte im Nanonewton-Bereich, eine wichtige Eigenschaft für die Transduktion von Stress, der als mechanische Regulationssignale während der Zellteilung verwendet wird. Die Chromosomenelastizität ist nicht nur biologisch wichtig, sondern kann auch als Werkzeug zur Untersuchung der Chromatinfaltung verwendet werden. Dieser Artikel gibt einen Überblick über Experimente, die die Dehnungs- und Biegesteifigkeit von mitotischen Chromosomen untersuchen, sowie Experimente, bei denen Änderungen der Chromosomenelastizität aufgrund chemischer und enzymatischer Behandlungen verwendet wurden, um die Konnektivität von Chromatin innerhalb der Chromosomen zu analysieren. Experimente mit Nukleasen weisen darauf hin, dass Nicht-DNA-Elemente, die mitotisches Chromatin einschränken, voneinander isoliert werden müssen, was zu dem Schluss führt, dass mitotische Chromosomen eine Chromatin-„Netzwerk“- oder „Gel“-Organisation aufweisen, wobei Chromatinabschnitte zwischen „vernetzenden“ Punkten aufgereiht sind. Die noch ungeklärten Fragen der Identität der mutmaßlichen Chromatin-Crosslinker und ihrer Organisation innerhalb mitotischer Chromosomen werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s10577-008-1233-7 54c041a294f1300c888b6159d0649fa8;de;;;2.4.;;;Die thomistische Unterscheidung zwischen primären und sekundären Naturgesetzen, wie sie in der Summa Theologica . zu finden ist In Kapitel III konzentrierten wir unsere Aufmerksamkeit auf die Lehre von den primären und sekundären Naturgesetzen, wie sie in den frühen Schriften von S. Thomas vorkamen – den;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-9388-7_4 877e5a432a337404ca01a46eeadf9979;de;;;5.3.;;;Dienste, Aussehen und psychologische Faktoren in intelligenten Home Service Robots In dieser Studie wurde eine Fragebogenumfrage durchgeführt, um die Anforderungen und Präferenzen in Bezug auf die Dienste und das Erscheinungsbild von Heimservicerobotern zu untersuchen. Und die psychologischen Faktoren der menschlichen Roboterinteraktion, einschließlich Sympathie, Aufrichtigkeit, Vertrauen und Privatsphäre, wurden untersucht und diskutiert. Die vorläufigen Ergebnisse zeigen, dass die Funktionen Hausarbeit, Sicherheit und Notfallerkennung von 267 Teilnehmern sehr erwartet und bevorzugt wurden. Während die sozialen und pflegerischen/pflegerischen Funktionen nicht wie erwartet bevorzugt wurden. Die Teilnehmer mochten mittelgroße Roboter ohne zu viele Gesichtszüge. Hände und Arme, die die menschliche Reichweite erweiterten, wurden mehr geschätzt als Beine und Räder, die die menschliche Bewegung ersetzen. Die Teilnehmer schätzten auch die Schnittstelle von Reaktion und Information, wie zum Beispiel der Körperbildschirm am Roboter. Die psychologischen Faktoren Sympathie, Aufrichtigkeit, Vertrauen und Privatsphäre korrelierten signifikant miteinander und waren auch mit der Präferenz des Roboterauftritts verbunden. Diese Studie erstellt ein klares Profil der Benutzererwartungen an zukünftige intelligente Serviceroboter für Zuhause.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-40093-8_60 f4cbb47bcb7519ef21ebb530e5dbb89b;de;;;5.3.;;;Crowd-Cloud-Fenster in die Vergangenheit: Aufbau einer Fotodatenbank für AR-Ausstellungen vor Ort durch Crowdsourcing In diesem Papier schlagen wir ein Crowdsourcing-System vor, das eine Datenbank für AR-Inhalte (Augmented Reality) durch Benutzergenerierung für AR-Ausstellungen vor Ort erstellt, die auf persönlichen mobilen Geräten ausgeführt werden. Die AR-Ausstellungssysteme überlagern an den fotografierten Orten Bilder aus der Vergangenheit mit der gegenwärtigen Szene. Sie benötigen Standortinformationen von früheren Bildern und aktuellen Bildern, die am selben Ort im selben Winkel aufgenommen wurden. Bisher mussten Systemdesigner die Inhalte selbst aufbereiten, da die Schätzung der fotografierten Positionen eine nicht automatisierte Aufgabe war. Dies ist ein Grund, warum es nur eine begrenzte Anzahl von Inhalten gab. Wir lösen dieses Problem, indem wir ein System implementieren, bei dem viele Benutzer einfach an der Erstellung von Inhalten teilnehmen können. Benutzer können notwendige Informationen für AR-Inhalte nur posten, indem sie Fotos aufnehmen, wenn die aktuelle Szene mit dem halbtransparenten früheren Bild übereinstimmt. Durch Experimente und Workshops haben wir festgestellt, dass unser System viele interessante und akzeptable Seiten hat. Zum Beispiel bietet unsere Anwendung für die Suche nach den fotografierten Positionen den Benutzern Unterhaltung wie bei Spielen. Obwohl seine Benutzeroberfläche und sein benutzermotivierendes Design mehr Raffinesse erfordern, könnte unser System gut funktionieren und wertvolle benutzergenerierte Inhalte sammeln, um ein umfassenderes AR-Erlebnis zu bieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-40397-7_30 916ac5b90ee7a5afb995bd1db8cd17ff;de;;;5.3.;;;Grundlagen der affinen Geometrie Geometrisch betrachtet werden Kurven und Flächen normalerweise als Punktmengen mit einigen besonderen Eigenschaften betrachtet, die in einem aus „Punkten“ bestehenden Raum leben. Typischerweise interessiert man sich auch für geometrische Eigenschaften, die unter bestimmten Transformationen invariant sind, beispielsweise Translationen, Rotationen, Projektionen usw. Man könnte den Raum von Punkten als Vektorraum modellieren, was jedoch aus mehreren Gründen nicht sehr zufriedenstellend ist. Ein Grund dafür ist, dass der dem Nullvektor (0) entsprechende Punkt, Ursprung genannt, eine besondere Rolle spielt, wenn es wirklich keinen Grund gibt, einen privilegierten Ursprung zu haben. Ein weiterer Grund ist, dass bestimmte Begriffe wie Parallelität umständlich gehandhabt werden. Aber der tiefere Grund ist, dass Vektorräume und affine Räume wirklich unterschiedliche Geometrien haben. Die geometrischen Eigenschaften eines Vektorraums sind invariant unter der Gruppe bijektiver linearer Abbildungen, während die geometrischen Eigenschaften eines affinen Raums unter der Gruppe bijektiver affiner Abbildungen invariant sind und diese beiden Gruppen nicht isomorph sind. Grob gesagt gibt es mehr affine Karten als lineare Karten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0137-0_2 f31b768588d2579357329ffe121b8413;de;;;5.3.;;;Grundlagen der Differentialgeometrie von Flächen Der Zweck dieses Kapitels ist es, dem Leser einige grundlegende Konzepte der Differentialgeometrie von Oberflächen vorzustellen. Unser Ziel ist eher bescheiden: Wir möchten einfach die Konzepte einführen, die zum Verständnis der Begriffe Gaußsche Krümmung, mittlere Krümmung, Hauptkrümmungen und geodätische Linien erforderlich sind. Fast das gesamte in diesem Kapitel präsentierte Material basiert auf Vorlesungen von Eugenio Calabi in einem im Herbst 1994 angebotenen Oberstufenkurs für Differentialgeometrie. Die meisten der in diesem Kurs behandelten Themen wurden mit Ausnahme einer Präsentation des globalen Gauss -Theorem von Bonnet-Hopf, einiges Material über spezielle Koordinatensysteme und Theorem von Hilbert über Oberflächen konstanter negativer Krümmung;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0137-0_16 abab121c2d83cc76637b3a24b84e9d94;de;;;5.3.;;;Akzeptanz von Fahrzeugwarnfunktionen durch ältere Fahrer und Einfluss des Fahrerlebnisses Warnfunktionen in Fahrzeugen können für ältere Fahrer sehr nützlich sein, um Unfälle aufgrund von Gefahren einer Situation zu vermeiden. Diese Studie untersuchte die Akzeptanz von Fahrzeugwarnfunktionen bei älteren Fahrern und den Einfluss des Fahrerlebnisses. Die Ergebnisse zeigten, dass die wahrgenommene Bedeutung von Warnungen zur äußeren Umgebung im Allgemeinen signifikant höher ist als die wahrgenommene Bedeutung von Warnungen zum Fahrzeugstatus und Warnungen zum Fahrerzustand für ältere Fahrer. Das Fahrerlebnis beeinflusst jedoch maßgeblich die wahrgenommene Bedeutung von Warnfunktionen. Mit zunehmendem Fahrerlebnis nimmt sowohl die wahrgenommene Bedeutung von externen Umgebungswarnungen als auch die wahrgenommene Bedeutung von Fahrzeugstatuswarnungen deutlich ab. Die wahrgenommene Bedeutung von Fahrerzustands-Warnfunktionen nimmt nicht ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-40093-8_59 64c55252afdabf48e4500eb8ec5e5d0b;de;;;5.3.;;;HTML5-basierte Tools Management Mobile Application die Implementierung in der WeChat Public Platform Derzeit für die Popularität der plattformübergreifenden Entwicklungstechnologie, die in der Entwicklung mobiler Anwendungen verwendet wird, und die Verbreitung der Unternehmens- und Einzelnutzung der öffentlichen WeChat-Plattform. In diesem Artikel wird ein hybrides Entwicklungsmodell für mobile Anwendungen verwendet, die plattformübergreifende Entwicklungstechnologie für mobile Anwendungen analysiert und die Funktionen und Merkmale der öffentlichen WeChat-Plattform verwendet, um den Aufbau plattformübergreifender mobiler Anwendungen basierend auf HTML5, JavaScript und anderen Sprachen vorzuschlagen Schema, das den nativen Browser-Kernel der öffentlichen Plattform von WeChat verwendet, entwirft und implementiert ein Tool-Management-System für Kraftwerksunternehmen und optimiert die Geschwindigkeit des Ladens von Anwendungswebseiten, um die Machbarkeit und Realität der Lösung zu überprüfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3663-8_47 d3a890173512ba63028b8a5e456193a4;de;;;2.4.;;;Vergleich und Implementierung von Rauschunterdrückungsalgorithmen in einem Hörgerät Bei einem Hörgerät ist das Signal-Rausch-Verhältnis (SNR) des Ausgangssignals ein wichtiges Merkmal. Es gibt Verfahren zur Reduzierung des in der Sprache enthaltenen Rauschens, mit denen bessere Ergebnisse der durchgeführten Verarbeitung erzielt werden können. In dieser Arbeit wird eine Reihe von Sprachfilterungsmethoden untersucht und verglichen, um die beste Wahl für diesen Zweck zu bestimmen. Es werden vier Basislinienverfahren untersucht, die (falls erforderlich) einen von dieser Anwendung entwickelten Rauschleistungsschätzer verwenden. Schließlich werden eine Reihe von Implementierungen sowohl in MATLAB als auch in einem kostengünstigen Hörgerät basierend auf dem dsPIC33EP256MU806 von Microchip durchgeführt. Eine Reihe von objektiven Experimenten und experimentellen Maßnahmen werden entwickelt, um die Leistung des Systems zu überprüfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13117-7_151 5b45b59d0e083df032bdf70ed63fed92;de;;;2.4.;;;Behandlung von Fieber bei Krebspatienten mit erworbener Neutropenie In den letzten Jahrzehnten haben wesentliche Fortschritte bei immunsuppressiven und zytotoxischen chemotherapeutischen Behandlungen mit mehreren Medikamenten die Prognose der meisten Krebspatienten erheblich verbessert. Infektiöse Komplikationen aufgrund erworbener Neutropenie sind jedoch zu einem wichtigen medizinischen Problem geworden, das häufig eine intensivmedizinische Behandlung erfordert. Die Infektionen können tödlich sein, wenn beim ersten Anzeichen einer Infektion keine empirische Breitbandbehandlung eingeleitet wird. Obwohl dies mittlerweile als gängige Praxis gilt, hat die Auswahl und Bewertung der Wirksamkeit von Antibiotika seit fast 25 Jahren erhebliche Kontroversen ausgelöst. Nach einem Überblick über einige Besonderheiten der Infektion bei neutropenischen Patienten werden in diesem Papier die Optionen diskutiert und ein umfassender Algorithmus für den Spezialisten für nicht infektiöse Erkrankungen vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-72038-3_30 a6f1df5d86c07adabd5ce26c1ca7a83b;de;;;2.4.;;;Auswirkung von Leckagen in Dämmen und Versuche zur Leckageerkennung mit geophysikalischen Mitteln Über einen Zeitraum von 3,5 Jahren wurde ein Forschungsprojekt durchgeführt, das sich mit der Hydraulik von Leckagen in Dammabdichtungen und mit geophysikalischen Methoden zu deren Erkennung und Lokalisierung befasste. Hauptgegenstand der Untersuchungen war ein großer Modelldamm (H=3,5 m, L=20 m, V=600 m;-;-;-;https://link.springer.com/chapter/10.1007/BFb0011627 c81ba57dd219931dad9311c7a01c213c;de;;;2.4.;;;Kunst, Authentizität und Aneignung Es wird oft behauptet, dass Künstler einer Kultur (Außenseiter) Stile, Geschichten, Motive und andere künstlerische Inhalte, die im Kontext einer anderen Kultur entwickelt wurden, nicht erfolgreich einsetzen können. Ich nenne diesen Vorschlag die These der ästhetischen Behinderung und argumentiere dagegen. Kulturelle Aneignung kann zu Werken von hohem ästhetischem Wert führen.;-;-;-;https://link.springer.com/article/10.1007/s11466-006-0019-2 b14351b2cf37628390d8a02de4c5ef0c;de;;;2.4.;;;Wissen ist Wissen ist Wissen? Die Beziehung zwischen persönlichen und wissenschaftlichen Epistemologien In diesem Beitrag untersuchen wir domänenübergreifendes versus domänenspezifisches wissenschaftliches epistemologisches Verständnis. Die Forschung über die Beziehungen zwischen solchen Verständnissen zeigt gemischte Ergebnisse. Die Unklarheiten können sich aus den verwendeten Instrumenten ergeben. Im Gegensatz zu den meisten Studien haben wir Instrumente aus den Traditionen der personal- und wissenschaftserkenntnistheoretischen Forschung kombiniert. Schüler der Klassen 6 bis 9 einer wissenschaftsorientierten Schule absolvierten Anpassungen des Epistemological Thinking Assessment (ETA) (Kuhn, Cheney & Weinstock, 2000) und der Ansichten der Wissenschaft-Technologie-Gesellschaft (VOSTS) (Aikenhead & Ryan, 1992 ) Instrumente. Auch die Regelschüler der Klassen 7 und 9 absolvierten die ETA. Die Entwicklungsmuster der ETA zeigten sich wie erwartet in beiden Schulen. Die Sichtweisen der naturwissenschaftlich orientierten Studierenden auf das Wissen im sozialen und physischen Bereich erscheinen jedoch differenzierter und differenzierter. Ihre Leistung auf den VOSTS tendierte zu höheren Werten, wenn auch niedriger als erwartet. Es gab keinen signifikanten Zusammenhang zwischen der Leistung auf der ETA und auf der VOSTS. Die Ergebnisse schlagen domänenspezifische Aspekte des epistemologischen Verständnisses und der Entwicklung vor.;-;-;-;https://link.springer.com/article/10.1080/14926150509556664 070fd84df1635d70bdac236e359658f7;de;;;2.4.;;;Algen oder Protozoen: Phylogenetische Position von Euglenophyten und Dinoflagellaten, abgeleitet aus mitochondrialen Sequenzen Die Chloroplasten von Euglenophyten und Dinoflagellaten wurden als Überreste endosymbiotischer Algen vermutet, die während des Evolutionsprozesses erworben wurden. Die evolutionären Positionen dieser Organismen sind jedoch noch nicht eindeutig, und sie wurden vorläufig sowohl als Algen als auch als Protozoen klassifiziert. Ein repräsentatives Gen des mitochondrialen Genoms, die Cytochromoxidase-Untereinheit I (;-;-;-;https://link.springer.com/article/10.1007/PL00006233 79e65f5cefec4e1247a14758d28d50ff;de;;;2.4.;;;Biosynthese von Vasopressin und Neurophysinen Vasopressin (VP) ist ein Produkt von magnozellulären Neuronen im vorderen Hypothalamus, von denen die meisten Axone haben, die im Neurallappen enden. Das VP-Gen wird wahrscheinlich auch von Neuronen in anderen Hirnloci exprimiert (Caffe und Van Leeuwen, 1983, Sofroniew, 1983, Caffe;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-8129-1_4 840cd2192c3851891cb55bd1a015a12f;de;;;2.4.;;;Tintenfisch-Grundlagen DC-supraleitende Quanteninterferenzgeräte (SQUIDs) mit zwei widerstandsüberbrückten Tunnelübergängen werden routinemäßig aus dünnen Filmen mit niedriger Übergangstemperatur (T;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-5674-5_1 1a2366b01f3f77c3586ed4281bb111ef;de;;;2.4.;;;Eine kombinierte molekulare Modellierung und CIDNP-Studie von Ähnlichkeiten im Muster der Ligandenbindung in Säugetier- und Vogel-Galectinen Es wurde gezeigt, dass Galectine (Galactose-bindende Lektine) aus Bakterien, Pflanzen und Tieren Tyrosin- oder Tryptophan-Reste besitzen, die hydrophobe Kontakte mit ihren Liganden in den Bindungsstellen bilden. Derzeit sind nur die Röntgenstrukturen von zwei Galectinen aus menschlichem und Rindergewebe bekannt. In der vorliegenden Studie haben wir Röntgendaten von Rinderherz-Galectin-1 als Vorlage für die Homologiemodellierung einer Reihe von Galectinen aus Säugetier- und Vogelgewebe verwendet. Aus dem Vergleich der Modellstrukturen kann die Konservierung eines Tryptophans und mindestens eines Histidins in der Bindungstasche beobachtet werden.;-;-;-;https://link.springer.com/article/10.1007/s008940050046 a7bab8d400cf23ba040f2ddb9b191ed6;de;;;2.4.;;;Nichtlineare kritische Schicht in der instationären Grenzschicht, induziert auf einer flachen Platte durch Wakes Der Aufsatz berichtet über Ergebnisse experimenteller Untersuchungen der Wechselwirkung zwischen Nachlauf und Grenzschicht im Übergangsbereich auf einer ebenen Platte in einem Windkanal mit geringer Turbulenz, Tu≤0,0008. Die Korrelationsanalyse von Geschwindigkeitsschwankungen über die induzierte Grenzschicht hat einen Bereich aufgezeigt, in dem eine Phasenverschiebung externer Störungen stattfindet. Die spektrale Analyse der Geschwindigkeitsfluktuationen zeigte auch eine starke Dämpfung der Nachlaufharmonischen in diesem Bereich. Die Region existiert für Werte der Reynolds-Zahl Re;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-5040-8_2 ff011f7630b6c26716051b92582bbc01;de;;;2.4.;;;Ein mathematischer Rahmen für induktives Denken Das Ziel dieser Arbeit ist es, eine mathematische Struktur zu entwickeln und zu beschreiben, die reich genug ist, um einen angemessenen Rahmen für induktives Denken zu bieten. Es ist hier nicht unsere Absicht, ein bestimmtes Inferenzverfahren zu vertreten, sondern wir schlagen einen mathematischen Rahmen vor, innerhalb dessen die Möglichkeiten mit einem Minimum an Vorurteilen formal untersucht werden können. Insbesondere werden wir uns in diesem Rahmen eine Verallgemeinerung des Bayes'schen Inferenzverfahrens ansehen. Bei der Konstruktion dieses Systems entstehen ganz natürlich und harmonisch vier der Hauptarten von Wahrscheinlichkeiten. Als Konsequenz wird die übliche mathematische Darstellung des Konditionierungsbegriffs in eine Reihe von Konditionierungskonzepten aufgelöst. Obwohl dieses Übermaß an Konditionierungsoperationen viele mathematische Probleme schafft, bietet es auch die Maschinerie, um viele der verwirrenden Probleme zu lösen, die mit Inferenz verbunden sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-1438-0_11 b2dfccbcc7ad450f07e83d41e1b85dfb;de;;;2.4.;;;Kontrolle der geschickten Hand durch Erkennung von EMG-Signalen durch Kombination von Entscheidungsbaum und sequentiellem Klassifikator Das Papier präsentiert ein Konzept der Bioprothesensteuerung durch die Erkennung der Absicht des Benutzers. Die Menge der elementaren Aktionen wurde definiert. Wir gehen davon aus, dass jede Prothesenoperation aus einer bestimmten Abfolge elementarer Aktionen besteht. Ein Beispiel für Prothesenoperationen, die zu einem Entscheidungsbaum zusammengesetzt werden können, wird ebenfalls vorgestellt. Als Klassifikator wird das mehrstufige Erkennungssystem vorgeschlagen, das sequentielle und Entscheidungsbaum-Klassifikatoren kombiniert und seine Entscheidungen auf Basis der EMG-Signalanalyse trifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75175-5_86 9e7a31d114b831bf2018854c4ddb8633;de;;;2.4.;;;Rekursive Schätzalgorithmen für lineare Modelle mit Satzzugehörigkeitsfehler In diesem Kapitel werden einige der neueren Algorithmen zur sequentiellen Parameteridentifikation im Zusammenhang mit unbekannten, aber begrenzten Messfehlern behandelt, wenn die Modellausgabe in den Parametern linear ist. Die Eigenschaften der verschiedenen Algorithmen werden analysiert und verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-9545-5_6 25895ac1d62c5247b048ae3a8439c7e1;de;;;2.4.;;;Untersuchung von frühen und fortgeschrittenen Stadien bei Eierstockkrebs mit Humanplasma durch Differentialscanningkalorimetrie und Massenspektrometrie Eierstockkrebs wird aufgrund der asymptomatischen Natur der Krankheit und der Schwierigkeiten bei der Diagnose des frühen Stadiums des Krebses mit hoher Sterblichkeit erkannt. Die vorliegende Studie untersucht den Einsatz von Differential Scanning Calorimetry (DSC) bei der Differenzierung der Schwere von Eierstockkrebs von gesunden Frauen. 47 erkrankte Frauen wurden hinsichtlich klinischer Relevanz und Schwere in vier Stadien eingeteilt. Die Stadien I–II wurden als Frühstadien und die Stadien III–IV als fortgeschrittene Stadien angesehen. Die beiden mittleren Übergangstemperaturen (;-;-;-;https://link.springer.com/article/10.1007/s12272-016-0722-z 3e3da2c8fb3c8fa93d06e826eff25131;de;;;2.4.;;;Der mehrkernige NMR-Ansatz für Peptide Der Zweck dieses Kapitels besteht darin, die Anwendung der NMR-Spektroskopie bei Konformationsstudien von Peptiden zu veranschaulichen. Wir werden nur kurze Erläuterungen zu den Prinzipien und Techniken der NMR-Datengewinnung geben, da zahlreiche Lehrbücher und Fachartikel zu den Methoden dieser Spektroskopie vorliegen (Pople;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-6537-6_5 31e005e65e6ab3efe62867f16806c01e;de;;;2.4.;;;Behandlung von Erkrankungen des Nervensystems Das Nervensystem, das die Aktivitäten des Körpers steuert, besteht aus dem Gehirn, dem Rückenmark und einem komplexen Nervensystem. Die vom Nervensystem gesteuerten Organe und Aktivitäten des Körpers sind: (1);-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-38180-9_11 eba6fbb279dfa3ebc63e63285855510b;de;;;2.4.;;;Mikrometeorologische Methoden zur Messung gasförmiger Stickstoffverluste im Feld Während seit vielen Jahren erkannt wurde, dass der Gastransfer ein wichtiger Pfad im terrestrischen N-Zyklus ist, werden erst in jüngster Zeit direkte Feldmessungen des Austauschs stickstoffhaltiger Gase zwischen Böden, Pflanzen und der Atmosphäre durchgeführt. Es wurden drei allgemeine Methoden verwendet: solche, die die Diffusionstheorie zur Berechnung des Gastransports im Bodenprofil verwenden, Einschlussverfahren, bei denen die Flussdichte des Gases an der Boden- oder Wasseroberfläche aus Änderungen der Gaskonzentration in einem über der Oberfläche und mikrometeorologische Techniken, bei denen die vertikale Flussdichte des Gases in der freien Luft über der Oberfläche gemessen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1662-8_5 35179edd0c5d92def9a3dc9fc764411d;de;;;2.4.;;;Dreidimensionale generalisierte widerstandsfähige Anpassung und der Vergleich von kleinsten Quadraten und widerstandsfähigen Resten Die Resistenz-Fit-Methoden zum Überlagern von Konfigurationen von Landmarken werden auf dreidimensionale Daten erweitert. Es werden Algorithmen zum Anpassen einer Konfiguration an eine andere und zum Anpassen einer Stichprobe von Konfigurationen an eine iterativ geschätzte Konsensuskonfiguration beschrieben. Darüber hinaus werden verschiedene Themen rund um den praktischen Einsatz der Überlagerungsverfahren behandelt. Zu diesen Themen gehören fehlende Daten, die Visualisierung von Ergebnissen sowie die Darstellung und Interpretation affiner Komponenten. Schließlich wird ein Beispiel vorgestellt, wie verschiedene grafische Vergleiche von Resistenzanpassung und kleinsten Quadraten (Procrustes)-Residuen verwendet werden, um Teilmengen von Landmarken zu identifizieren, die zu lokalisierten Formunterschieden beitragen. Diese Verfahren weisen nachweislich auf erhebliche lokale Variationen im hinteren Bereich des Panzers bestimmter individueller Gelbbauch-Schieberschildkröten hin.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-9083-2_15 fa0b3758f86d302699b1f8d05f761843;de;;;2.4.;;;Abfluss und dreidimensionale Ausbreitung des Rheinwassers in der niederländischen Küstenzone Die Wasserqualität der niederländischen Küstenzone hängt maßgeblich vom Eintrag von Schadstoffen durch den Rhein und der Wechselwirkung zwischen Fluss- und Meerwasser nach seiner Mündung in die Nordsee durch die Rotterdamer Wasserstraße und Haringvliet ab. Für ein angemessenes Küstenzonenmanagement reichen die derzeitigen Kenntnisse über Ausmaße, Auswirkungen und relative Bedeutung der an dieser Interaktion beteiligten hydrodynamischen Prozesse nicht aus. Daher wird ein Beobachtungsprogramm in einem Gebiet durchgeführt, das sich von der Flussmündung bis etwa 50 km in Richtung des Restabflusses (also nach Nordosten) erstreckt. Dieses Kapitel präsentiert erste Ergebnisse und versucht die Beobachtungen im Hinblick auf physikalische Prozesse zu interpretieren. Aus den Daten werden charakteristische Skalierungsfaktoren abgeleitet. Diese werden verwendet, um die wichtigsten dynamischen Bilanzen für verschiedene Teilregionen der Küstenzone zu erstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-73691-9_5 d35b04c039f6e35183c80327efbb97da;de;;;2.4.;;;Intersektorale Anpassung und die Dynamik von Löhnen und Beschäftigungsmöglichkeiten Intersektorale Anpassung und die Dynamik von Löhnen und Beschöftigungsmöglichkeiten. - Dieser Aufsatz untersucht mit Hilfe eines einfachen ZweiSektoren-Modells sterben Dynamik der Anpassung auf dem Arbeitsmarkt, und zwar insbesondere sterben Art, in der sterben entscheidenden Parameter des Modells zusammenwirken, um sowohl auf kurze als auch auf lange Sicht sterben Reaktion der Wirtschaft auf Störungen der Güter- und Faktormärkte zu bestimmen. Die Strukturparameter, sterben in der Studie darstellen werden, umfassen den Grad der intersektoralen Faktormobilität, die Schnelligkeit der Lohnanpassungen in expandierenden und schrumpfenden Sektoren sowie die Bedeutung der intersektoralen Lohnunterschiede im Verhältnis zum Risiko, arbeitslos zu bleiben, für den Entzumschluß Ortswechsel.;-;-;-;https://link.springer.com/article/10.1007/BF02706660 e3c785600c9ec5605f77b94b312964c7;de;;;2.4.;;;Angiografische Filmsubtraktion mit einem Laserdigitalisierer und Computerverarbeitung Die digitale Subtraktionsangiographie wurde in den letzten zehn Jahren als unschätzbares klinisches Werkzeug akzeptiert, jedoch wird die filmbasierte Angiographie immer noch routinemäßig durchgeführt, wenn Angiogramme mit hoher Auflösung oder großem Sichtfeld benötigt werden. Es wird eine Technik vorgestellt, bei der zwei Filme aus einer angiographischen Sequenz unter Verwendung eines hochauflösenden Laserdigitalisierers digitalisiert werden und die digitalisierten Bilder ausgerichtet, subtrahiert und unter Verwendung des Computers angezeigt werden. Um einigen Arten von Patientenbewegungen Rechnung zu tragen, wird ein Bildverzerrungsalgorithmus vorgestellt und im Detail diskutiert. Der Warping-Algorithmus ist stückweise linear, wobei Dreiecksbereiche zum Warping verwendet werden, was zu einer globalen nichtlinearen Transformation über Dreieckselemente führt. Ein Algorithmus, der eine optimale Dreiecksauswahl beschreibt, wird ebenfalls diskutiert. Die Ergebnisse zeigen, dass mit der vorgeschlagenen Technik Subtraktionsbilder von ausgezeichneter Qualität erzeugt werden können, und legen nahe, dass in einigen Situationen digitalisierte Subtraktionsfilme gegenüber konventioneller Filmsubtraktion bevorzugt werden können.;-;-;-;https://link.springer.com/article/10.1007/BF03178078 18047e6a678b97f4d0de08f5108669cc;de;;;2.4.;;;Darmerkrankungen Der Magen-Darm-Trakt (GI) ist das größte lymphoide Organ des menschlichen Körpers und daher können jegliche Defekte in der zellulären und/oder humoralen Immunantwort ein Hinweis auf eine starke Disposition gegenüber einer Vielzahl von enterischen Viren, Bakterien, Protozoen und Pilzen sein Krankheitserreger (1). Die Identifizierung von Darmpathogenen im Magen-Darm-Trakt war besonders wichtig bei Patienten mit AIDS, bei denen die HIV-induzierte Immunschwäche die Möglichkeit opportunistischer Infektionen stark erhöht (2).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-60327-297-1_9 e8b855ce45a553f4ab211fc5b5790aae;de;;;2.4.;;;Antennensysteme von Rotalgen: Phycobilisomen mit Photosystem ll und Chlorophyllkomplexe mit Photosystem I Rotalgen haben zwei Arten von lichtsammelnden Antennen: das Phycobilisom, das direkt mit den Reaktionszentren von Photosystem II verbunden ist, und einen LHC I-Komplex, der mit den Reaktionszentren von PS I verbunden ist. Die Struktur der Rotalgen-Phycobilisomen ähnelt denen von Cyanobakterien, mit einem zentralen Allophycocyanin-Kern, umgeben von Phycocyanin und Phycoerythrin an der Peripherie. Bei vielen Rotweinen ist die Phycobilisomgröße hauptsächlich aufgrund eines höheren Phycoerythringehalts größer. Die Anwesenheit von LHC I kann als erheblicher Fortschritt bei der Erweiterung der Lichtabsorptionskapazität in photosynthetischen Eukaryoten angesehen werden, eine Ausnahme besteht bei den Glaukozystophyten, bei denen noch keine LHC-Komplexe gefunden wurden. Chlorophyll;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-2087-8_10 b89334444c9e58eccb88984934f7f6d2;de;;;2.4.;;;Wachstum und Differenzierung neuronaler Zellen in definierten Medien Die anatomische, physiologische und biochemische Komplexität des Nervensystems von Säugetieren ist größer als die in anderen Geweben und stellt eine gewaltige Barriere für die Aufklärung der zellulären und molekularen Mechanismen dar, die an der Entwicklung dieser Systeme beteiligt sind. Es gibt nicht nur eine Fülle komplexer zellulärer Phänotypen, sondern auch die Interaktionen von Nervenzellen sind äußerst komplex. Ein Ansatz für dieses Problem besteht darin, Kulturmethoden zu verwenden, um experimentelle Variablen zu vereinfachen und zu kontrollieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2473-7_1 46273b7f1a7e04309c38fe7e4a68b2f4;de;;;2.4.;;;Junge Walhaie, Rhincodon typus, ernähren sich von einer Copepodenblüte in der Nähe von La Paz, Mexiko Sieben kleine (3,2 bis 5,2 m Gesamtlänge) Walhaie wurden am 1. 2. November 1993. Die Haie wurden vom Boot und von Schnorchlern im Wasser fotografiert und auf Video aufgenommen. Bei aktiver Fütterung drehte der Hai seinen Kopf hin und her, ein Teil des Kopfes wurde aus dem Wasser gehoben und das Maul 7 bis 28 Mal pro Minute geöffnet und geschlossen (x=17, N=13). Diese Saugzüge wurden mit dem Öffnen und Schließen der Kiemenschlitze synchronisiert. Dieses Fressverhalten trat nur in den fleckigen Bereichen von dicht bewölktem Wasser auf, eine 10 bis 30 cm dicke Schicht an der Oberfläche mit einer immensen Konzentration an Copepoden, von denen 95 % als Acartia clausi identifiziert wurden. Auch Remoras, die die Walhaie begleiten, ernährten sich von der Planktonblüte.;-;-;-;https://link.springer.com/article/10.1023/A%3A1007312310127 56d654f415a24e6422d632aeed76fe96;de;;;2.4.;;;Peptidoglycan-Biosynthese Kein anderer medizinischer Fortschritt hatte eine größere heilsame Wirkung auf die öffentliche Gesundheit als die Entdeckung von Antibiotika. Wirklich die Wundermittel des 20. Jahrhunderts, Antibiotika wie Penicillin, Streptomycin und Erythromycin, ermöglichten es Ärzten, antike bakterielle Geißeln wie Tuberkulose (TB) und Syphillis zu heilen und Komplikationen durch bakterielle Infektionen vorzubeugen (Russel und Chopra, 1990). Im Jahr 1969 erklärte der US Surgeon General zuversichtlich, dass die mikrobielle Bedrohung durch eine Antibiotikatherapie neutralisiert wurde, dass es an der Zeit sei, „das Buch über Infektionskrankheiten zu schließen“ (Fisher, 1994). Nach 30 Jahren scheint der Kommentar des Surgeon General etwas voreilig zu sein. Die aktuelle Krise der Antibiotikaresistenz ist nun eine ernstzunehmende Nachricht, die in Zeitungen sensationell behandelt und in der wissenschaftlichen und medizinischen Literatur mit statistischer Kälte behandelt wird. Gegen praktisch jedes bekannte Antibiotikum gibt es Resistenzen. Sehr beängstigend sind die Organismen, wie Methicillin-resistent;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4897-3_11 7ddeb496c15e872a930178b687af099a;de;;;5.3.;;;Ein intelligentes Tastatur-Framework zur Verbesserung der Computerzugänglichkeit für Menschen mit Behinderungen Die Texteingabe am Computer kann voller Geräusche sein – zum Beispiel machen Computertastaturbenutzer unweigerlich Tippfehler und ihr Tippstrom impliziert alle Selbstkorrekturaktionen der Benutzer. Diese können einen großen negativen Einfluss auf die Zugänglichkeit und Benutzerfreundlichkeit von Anwendungen haben. Diese Forschung entwickelt ein originelles Hybrid-Framework für intelligente Tastaturen, das verwendet werden kann, um den Tippstrom der Benutzer zu analysieren und dementsprechend Tippfehler zu korrigieren und die Tippabsicht der Benutzer vorherzusagen. Ein erweiterbarer N-Gramm-Vorhersagealgorithmus (Focused Time-Delay Neural Network, FTDNN) wurde entwickelt, um aus dem Tippverlauf der Benutzer zu lernen und eine Vorhersage und Korrektur der Texteingabe basierend auf historischen Tippdaten zu erstellen. Die Ergebnisse zeigen, dass FTDNN ein effizientes Werkzeug zur Modellierung des Typisierungsstroms ist. Außerdem zeigen die Computersimulationsergebnisse, dass das vorgeschlagene Framework besser funktioniert als die Verwendung einer herkömmlichen Tastatur.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23957-1_43 90bc1953b40bbfc7766763a4a469a28f;de;;;5.3.;;;Einfluss von Zeitdruck auf Arbeitseffizienz und kognitives Urteilsvermögen Es ist oft notwendig, unter Zeitdruck zu arbeiten. Frühere Studien berichteten, dass ein angemessenes Maß an Zeitdruck die Leistung verbessern kann. Sie verrieten jedoch nicht, welche Art von Druck ausgeübt werden sollte. Diese Studie untersuchte die Fähigkeit von Probanden, unter Zeitdruck und unterschiedlichem Druck zu arbeiten. Wir untersuchten Arbeitseffizienz, kognitives Urteilsvermögen und den Einfluss von Zeitdruck auf die Gehirnaktivität mit Hilfe eines Elektrokardiogramms (EKG) und funktioneller Nahinfrarotspektroskopie (NIRS). In diesem Experiment haben wir vier Arten von Zeitdruck verwendet. Wir haben bei den Leistungstests jede Art von Zeitdruck auf die Probanden ausgeübt. Bei allen Leistungstests waren die Ergebnisse beim auditiven Zeitdruck besser als bei keinem Zeitdruck. Zusammenfassend stellten wir fest, dass die Probanden bei der Arbeit unter auditivem Zeitdruck bessere Leistungen erbrachten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-41691-5_25 57ffc93f1065b1275436aec64cb9d1f4;de;;;2.4.;;;Autoradiographische Studien von beta-adrenergen Rezeptoren Viele Informationen über die Eigenschaften, Funktionen und Regulation von beta-adrenergen Rezeptoren stammen aus Studien, bei denen entweder ganze Organe oder homogenisierte oder lösliche Präparate aus Organen verwendet wurden (Wolfe et al., 1977, Lefkowitz et al., 1984, Wolfe and Molinoff, 1988). Diese Arten von Experimenten haben zu unserem derzeitigen Verständnis geführt, wie diese Rezeptoren funktionell an die Adenylatcyclase gekoppelt sind und wie Gewebe entweder auf eine Zunahme oder Abnahme der Rezeptorstimulation reagieren (oft durch Änderung der Anzahl oder Eigenschaften der Rezeptoren). Diese Arten von Studien liefern jedoch keine Informationen über die Lokalisierung von Rezeptoren, außer auf einem relativ großen anatomischen Maßstab, wo üblicherweise ganze Gewebe (z. B. Großhirnrinde, Herz usw.) verwendet werden, um Rezeptoren zu untersuchen. Außerdem erfordern Studien, bei denen die Bindung von Radioliganden an homogenisierte Gewebepräparate verwendet wird, relativ große Gewebemengen. Als Reaktion auf diese Art von Problemen wurde die Methodik der Rezeptorlokalisierung unter Verwendung autoradiographischer Techniken entwickelt. Die Autoradiographie ist ein weiter unten im Detail beschriebenes Verfahren zum Lokalisieren und Quantifizieren von Neurotransmitter-Rezeptoren in dünnen Gewebeschnitten. Kurz gesagt beinhaltet die Autoradiographie die Inkubation von auf einem Objektträger angebrachten Gewebeschnitten mit einem Radioliganden, der hoffentlich nur an den interessierenden Rezeptor bindet, in diesem Fall beta-adrenerge Rezeptoren. Nach der Inkubation werden die markierten Schnitte einer Filmemulsion ausgesetzt, die für die gebundene Radioaktivität empfindlich ist. Die belichtete Filmemulsion wird dann verarbeitet, was dazu führt, dass Silberkörner dort entwickelt werden, wo der Radioligand aufgebracht wurde. Es können Korrelationen gefunden werden, die die Dichte der Silberkörner in der Filmemulsion mit der genauen Menge an Radioaktivität in Beziehung setzen, die an eine bestimmte Menge an Gewebeschnitten mit einem Radioliganden gebunden ist, der hoffentlich nur an den interessierenden Rezeptor bindet, in diesem Fall beta-adrenerg Rezeptoren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-0463-3_6 123dcbaf19d6fd69488c116fdff70f1c;de;;;2.4.;;;Charakterisierung kultivierbarer luftgetragener Bakterien und ihres antimikrobiellen Resistenzmusters in französischen Melkständen Das Hauptziel dieser vorläufigen Studie war die Quantifizierung von Partikeln in der Luft und die Charakterisierung der dominanten kultivierbaren Bakterienarten sowie einiger Gram-positiver Arten und ihres Antibiotikaresistenzmusters aus Umweltproben, die innerhalb und außerhalb eines Melkstands entnommen wurden. Die Probenahme erfolgte über 2 Tage zu verschiedenen Jahreszeiten. Der kleine lebensfähige Feinstaub < 10 µm (Bioaerosole) und die kultivierbaren Bakterien erreichten ihre höchsten Konzentrationen im Melkstand. Die Mehrzahl der luftgetragenen Bakterien im Melkstand gehörte zu den Gattungen;-;-;-;https://link.springer.com/article/10.1007/s11356-020-11974-8 a33bada913990112e56214dfc947a5b0;de;;;2.4.;;;Ein neues Aufnahmegerät zur Messung der Bewegungsaktivität von Mäusen. Experimentelle Beobachtungen zu seiner Verwendung Die Zuverlässigkeit eines neuen Geräts zur Bewertung der Wirkungen einiger zentral stimulierender und dämpfender Medikamente auf die lokomotorische Aktivität von Mäusen wurde untersucht. Die lokomotorische Aktivität von normalen Mäusen, von Mäusen, die mit Chlorpromazin (i.p.), Diazepam (p.o.), Methylphenidat (s.c.),;-;-;-;https://link.springer.com/article/10.1007/BF00421940 77ab53ea880fcf898ad8846ab9dfd4fe;de;;;2.4.;;;Temperaturgradienten und präbiologische Evolution Der thermodiffusive Transport von Spurenelementen, die in lebenden Organismen eine wichtige Rolle spielen, wie Molybdän, Nickel, Kupfer und Vanadium, wurde in einem nichtisothermen Zweiphasensystem aus einer flüssigen Lösung und Geleeschichten untersucht. Unsere Absicht war es, die Auswirkungen von Temperaturgradienten auf die präbiologische Evolution nachzuahmen. Es wurden Bedingungen gefunden, ähnlich denen, die wahrscheinlich während der Entwicklung früher Eobionten herrschten, unter denen alle getesteten Elemente in der erhitzten Gelee konzentriert waren.;-;-;-;https://link.springer.com/article/10.1007/BF02797395 1150a6504c782820728245aabb10ba41;de;;;2.4.;;;Reizspezifische Synchronisationen im visuellen Kortex: Verknüpfung lokaler Merkmale zu globalen Zahlen? Die Merkmalsverknüpfung zwischen mehreren kortikalen Karten im visuellen System erfordert flexible Mechanismen, um mit der immensen Variabilität natürlicher Szenen fertig zu werden. Wir haben vor kurzem reizspezifische dynamische Interaktionen zwischen Zellverbänden im primären visuellen Kortex von Katzen entdeckt, die als;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-84301-3_9 f85a181abee248457bc3b113fd965485;de;;;2.4.;;;Quantitative Analyse der infantilen Harnleiter-Becken-Übergangsobstruktion durch diuretische Renographie Die durch Ultraschall nachgewiesene infantile Hydronephrose stellt ein klinisches Dilemma bei der Behandlung der Erkrankung dar. Dieser Artikel berichtet über eine retrospektive Studie zur Bewertung der infantilen Hydronephrose aufgrund einer vermuteten Obstruktion des ureteropelvinen Übergangs (UPJ) mittels standardisierter diuretischer Renographie und spekuliert über ihren Nutzen für die quantitative Beurteilung und Behandlung dieser Erkrankung. Zwischen November 1992 und Juli 1999 wurden 43 Patienten, bei denen die Krankheit in ihrer fetalen oder infantilen Periode festgestellt wurde, in diese Studie aufgenommen. Standardisierte Diuretika-Renogramme wurden mit;-;-;-;https://link.springer.com/article/10.1007/BF02988603 9ad326ab392dfc451585c0bdec03170d;de;;;2.4.;;;Beschränkungsbasiertes System zur Unterstützung der Aufzugskonstruktion Wir beschreiben ein Designunterstützungssystem für die Konfiguration von Aufzügen nach Kundenspezifikation. Die Wissensbasis des Systems besteht aus verschiedenen Designattributen und Constraints, die ein Constraint-Netzwerk bilden. Basierend auf dieser Wissensbasis werden Werte von Attributen aus den vom Kunden angeforderten Spezifikationen durch Verwendung von Constraint-Propagation abgeleitet. Nach der Untersuchung des Aufzugsentwurfsprozesses erwiesen sich folgende Funktionen als unverzichtbar für die Realisierung eines praxisgerechten Entwurfsunterstützungssystems: 1) Modifikation des Constraint-Netzwerks während des Entwurfsprozesses bei Modelländerungen, 2) Steuerung der Richtung der Constraint-Ausbreitung, 3 ) Verwendung von Vorgabebeschränkungen, 4) Beschränkung der Beschränkungen und 5) Anleitung zu Gegenmaßnahmen, die von erfahrenen Designern in der Know-how-Datenbank gespeichert sind, wenn während des Inferenzprozesses ein Konflikt auftritt. Die Wirksamkeit dieses Systems wurde durch Anwendung auf die Aufzugskonstruktion bewertet, und die Konstruktionszeit wurde für einen typischen Auftrag von 4–8 Stunden auf 30 Minuten reduziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34879-7_22 407ffc40020ff22d35920cf31429e469;de;;;2.4.;;;Bimanuelle Koordination und die Anfänge der Sprache Der Zweck dieses Papiers besteht darin, eine besondere evolutionäre Perspektive auf die Beziehung zwischen manueller Organisation und Sprache vorzuschlagen und die Entwicklung der manuellen Funktion und Sprache aus dieser Perspektive zu betrachten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-08023-6_14 4b1c0404f764382f6f9483d680c1cd85;de;;;2.4.;;;Magnetische Nanopartikel als Kontrastmittel in der MRT: Relaxometrische Charakterisierung Die Magnetresonanztomographie (MRT) hat sich in den letzten Jahrzehnten mit exponentieller Geschwindigkeit entwickelt, und die Entwicklung von Kontrastmitteln zur Verbesserung der Visualisierung von Organen folgte dem gleichen Trend. Inzwischen sind magnetische Nanopartikel, die in der MRT entweder „positiven“ oder „negativen“ Kontrast erzeugen, eine der wichtigsten biomedizinischen Anwendungen der Nanotechnologie. Tatsächlich sind superparamagnetische Eisenoxid-Nanopartikel als negative Kontrastmittel für;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-52780-1_15 ed735c894092a01f8d38d17b8ce7a39f;de;;;2.4.;;;Komplexe I in der Grünen Linie In Landpflanzen und Grünalgen wurden Mitochondrien und Chloroplasten sequentiell durch primäre endosymbiotische Ereignisse mit einem α-Proteobakterium bzw. einem Cyanobakterium erworben. Die innere Membran der Mitochondrien beherbergt die Enzymkomplexe der Atmungskette, der größte davon ist die Rotenon-sensitive NADH:Ubichinon-Oxidoreduktase bzw -Kette, die von Cyanobakterien geerbt wird, treibt Elektronen von NAD(P)H zu Sauerstoff. In den meisten Pflanzen und Algen besteht es aus einem Homolog des Bakterienkomplexes I (NAD(P)H:Plastochinon (PQ)-Oxidoreduktase) und einer PQ-Oxidase (PTOX). Dieses Kapitel widmet sich daher den Ähnlichkeiten und Besonderheiten des pflanzlichen Mitochondrienkomplexes I im Vergleich zu dem gut untersuchten Enzym in Säugetieren und Pilzen sowie der Struktur und Rolle eines Komplex-I-Homologs in Chloroplasten.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-4138-6_11 045e18c51314d37b3dde79b824e5fa3f;de;;;2.4.;;;Einsamkeit und Glück An einem warmen Sommersonntag des Jahres 1892 isst Tony Buddenbrook, der inzwischen zwei Ehen hinter sich hat, mit ihrem Bruder Thomas und ihrer Schwägerin in ihrem prächtigen neuen Heim in der Fischergrube zu Abend. Nach dem Abendessen sitzen die drei zusammen um einen großen Tisch unter der Gaslampe. Die beiden Damen sind mit ihrer Handarbeit beschäftigt, während der Senator seinen täglichen Kampf mit der Zeitung ausfecht, die er – wie vor ihm sein Großvater – geschmacklos und langweilig findet. Die Fenster sind geöffnet und gelegentlich durchdringen entfernte Geräusche die Stille der Wohnstraße. Dann kommt ein Trupp Matrosen vorbei, die Arme verschränkt, rauchend und singend. Sie kommen aus einer etwas anrüchigeren Hafenkneipe und suchen in ihrer ausgelassenen Stimmung eine noch anrüchigere. Dann verstummen ihre heiseren Stimmen...;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-4776-9_2 7155bdbb5b23510753aa295987784f71;de;;;2.4.;;;Polyamine in Weinrebe Polyamine (PAs) sind kleine aliphatische Amine mit zwei oder mehr Amingruppen, sie sind in allen lebenden Organismen allgegenwärtig. Die wichtigsten in Pflanzen natürlich vorkommenden PAs sind die Diamine Diaminopropan (Dap) und Putrescin (Put), das Triamin Spermidin (Spd) und das Tetramin Spermin (Spm) (Abb. 5.1). Die kationische Natur von PAs (sie sind bei physiologischem pH stark protoniert) erklärt die elektrostatische Bindung;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-2308-4_5 9041892b0674a7a51f4e977483477440;de;;;2.4.;;;Simultane endoluminale Sonographie und Manometrie zur Beurteilung des Analsphinkterkomplexes bei gesunden Probanden Der Zweck dieser Studie war es, simultane Analmanometrie und Hochfrequenzendoluminal-Ultraschall (EUS) zu verwenden, um die Beziehung zwischen dem analen Ruhedruck und der Querschnittsfläche des inneren und äußeren Analsphinkters zu bestimmen und Ultraschallwandler. Ruhedruck und Querschnittsfläche der Sphinkter wurden über den gesamten Analsphinkterkomplex erzeugt. Die Länge des inneren Analsphinkters (IAS) war sonographisch (27 ± 5 mm) signifikant geringer als die Länge der Hochdruckzone (HPZ) laut Manometrie (44 ± 8 mm, P < 0,001). Die maximale IAS-Querschnittsfläche (CSA) trat 10 ± 6 mm proximal zum maximalen Ruhedruck auf. Der Ruheanaldruck korrelierte mit einem CSA des externen Analsphinkters (EAS) (r = 0,77), jedoch nicht mit einem IAS-CSA (r = –0,17). Die Summe aus EAS CSA und IAS CSA korrelierte stark mit dem Ruhedruck (r = 0,85). Zusammenfassend lässt sich sagen, dass der IAS kürzer ist als der HPZ, mit einem signifikanten Abstand zwischen dem maximalen IAS-CSA und dem maximalen Ruhedruck. Die Summe der IAS- und EAS-CSAs, aber nicht die des IAS allein, korrelierte mit dem Ruhedruck. Somit legt diese Studie nahe, dass das EAS zusätzlich zum IAS zum analen Ruhedruck beiträgt.;-;-;-;https://link.springer.com/article/10.1023/A%3A1026605409557 4cb9723774bc685debff77d929daf438;de;;;2.4.;;;Die Wasser- und Nährstoffdynamik in Oberflächenwurzeln und -böden wird durch kurzfristige Überschwemmungen phreatophytischer Pflanzen in einer hyperariden Wüste nicht verändert Über die Mechanismen, die Gehölze verwenden, um wichtige Ressourcen wie Wasser und Nährstoffe in hyperariden Umgebungen zu gewinnen, ist wenig bekannt. Für phreatophytische Pflanzen sind tiefe Wurzeln notwendig, um den Grundwasserspiegel zu erreichen, aber da die meisten Nährstoffe in vielen Wüstenökosystemen in den oberen Bodenschichten gespeichert werden, können auch lebensfähige Flachwurzeln für die Nährstoffaufnahme notwendig sein. Wir versuchten, die Wechselwirkung zwischen Wasser- und Nährstoffaufnahme aus Bodenhorizonten besser zu verstehen, die sich in der relativen Häufigkeit dieser Ressourcen unterscheiden. Zu diesem Zweck haben wir den Wasser- und Nährstoffzustand der Pflanzen vor und nach der Flutbewässerung bei vier phreatophytischen mehrjährigen Pflanzenarten in der abgelegenen hyperariden Wüste Taklamakan im Westen Chinas überwacht. Saftfluss in den Wurzeln von fünf Pflanzen der mehrjährigen Wüstenart;-;-;-;https://link.springer.com/article/10.1007/s11104-005-0498-2 2ab970638d1ba92724271382b54c85bb;de;;;2.4.;;;Pflanzenwurzelsekrete und ihre Interaktionen mit Nachbarn Die Biologie der Rhizosphäre auf molekularer Ebene hat sich seit dem letzten Jahrzehnt dramatisch weiterentwickelt. Die kontinuierliche Zufuhr von Kohlenstoffverbindungen aus Pflanzenwurzeln führt zu komplexen Interaktionen zwischen Rhizosphären-Organismen, einschließlich Interaktionen zwischen Mikroben und Pflanzen und zwischen Pflanzen mit anderen Pflanzen derselben oder unterschiedlicher Art. Die Wurzelexsudation ist Teil des Rhizodepositionsprozesses, der eine Hauptquelle für organischen Bodenkohlenstoff ist, der von Pflanzenwurzeln freigesetzt wird, was eindeutig einen erheblichen Kohlenstoffpreis für die Pflanze darstellt. Wurzelexsudate spielen auch eine Rolle bei der Verfügbarkeit von Bodennährstoffen, indem sie die Bodenchemie und bodenbiologische Prozesse verändern. Verschiedene Studien haben gezeigt, dass der von Pflanzenwurzeln umgebene Rhizosphärenboden häufiger an Mikroben vorkommt als der Nichtrhizosphärenboden. Daher müssen die wichtigsten Reaktionen bei der Interaktion zwischen Pflanzen und Mikroben in dieser begrenzten Zone erfolgen. Pflanzen reagieren auf die Anwesenheit von Mikroben, indem sie eine Mischung aus sekundären Pflanzenstoffen, flüchtigen Stoffen und hochmolekularen Verbindungen freisetzen. Bodenmikroben hingegen modulieren die Sekretion von Wurzelexsudaten, um das Pflanzenwachstum und die Krankheitsresistenz positiv zu regulieren. Mehrere negative Wechselwirkungen werden durch Wurzelexsudate vermittelt, darunter antimikrobielle, Biofilm-Inhibitoren und Quorum-Sensing-Mimetika, um bodenbürtige Krankheitserreger zu verhindern. Es ist notwendig, diese multitrophen Interaktionen der Rhizosphäre unter realistischen Feldbedingungen zu verstehen, um das Pflanzenwachstum auf Arten- und Gemeinschaftsebene zu verbessern. Darüber hinaus sollten Studien unter Feldbedingungen durchgeführt werden, um die Interaktionen des Rhizosphärenkomplexes in Monokulturen und Polykulturen zu verstehen. Dies wird dazu beitragen, die Dynamik der Interaktionen und deren Auswirkungen auf den Erfolg der Pflanze in Monokulturen und in Polykulturen zu verstehen. Die Kombination von Techniken und die kontinuierliche Entwicklung neuer Techniken im Bereich der Rhizosphärenbiologie gepaart mit einem systemischen Ansatz wird es uns ermöglichen, diese komplexen Wechselwirkungen teilweise unter Feldbedingungen aufzuklären.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23047-9_1 3d83e1cd8b4f41ea89880049570d02d2;de;;;2.4.;;;Dynamik schlanker Wirbel nahe der Wand in einer turbulenten Grenzschicht Inzwischen ist bekannt, dass der verstärkte Widerstand und die Wärmeübertragung turbulenter Grenzschichten von schlanken Längswirbeln in Wandnähe dominiert werden. Trotz ihrer immensen praktischen Bedeutung sind Geometrie und Dynamik von wandnahen Wirbeln wenig verstanden und oft umstritten. Um neue Einblicke in die wandnahe Dynamik zu gewinnen, schulen wir;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-5042-2_13 028e9e9fccb1105870b0e597a0b32b37;de;;;2.4.;;;Elektromyographische Untersuchungen der Syrinx bei Papageien (Aves, Psittacidae) Das Stimmorgan (Syrinx) eines Vogels kann entweder nur äußere Muskeln oder sowohl äußere als auch innere Muskeln enthalten. Erstere entstehen und setzen an der Trachea ein und wirken nur indirekt auf die Syrinx ein, letztere entstehen auch auf der Trachea, setzen aber direkt auf Spritzenelemente ein. Es wird allgemein angenommen, dass die Spritzenmuskeln die Modulation der Geräusche der Vögel beeinflussen können und dass die intrinsischen Muskeln eng mit einer solchen Funktion verbunden sind. Die genauen Rollen der beiden Muskelgruppen wurden jedoch nicht direkt beobachtet.;-;-;-;https://link.springer.com/article/10.1007/BF00312067 e93fa0e990f9aceb92694efc25898379;de;;;2.4.;;;Ein Überblick über die molekulare Genetik Sir Archibald Garrod kam Anfang des 20. Jahrhunderts zu dem Schluss, dass die Veranlagung für Krankheiten von der chemischen Zusammensetzung jedes Einzelnen abhängt (1). Beadle beschrieb später das Ein-Gen-Ein-Enzym-Konzept, das die genetische Kontrolle biochemischer Prozesse betonte und die Theorie aufstellte, dass Mutationen in einem bestimmten Gen zu einer fehlerhaften biochemischen Reaktion führen würden;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-2588-9_10 52fd31b2ecfee61c6cffb822fc0833e0;de;;;2.4.;;;Implizite Assoziationsreaktionen, die von Wörtern in Paaren von nicht verwandten Wörtern erzeugt werden Der Zweck dieser Studie war zu bestimmen, ob implizite Assoziationsreaktionen (IARs) auf einzelne Wörter auftreten, die als Paare für assoziatives Lernen präsentiert werden. Das Auftreten von IARs wurde durch einen JA-NEIN-Erkennungstest bestimmt, und IARs für Wörter, die einzeln zum Studium präsentiert wurden, lieferten eine Basislinie. Unter allen Bedingungen traten falsche Erkennungen von angenommenen IARs auf, die Größenordnung war für Wörter, die als Paare präsentiert wurden, wie für dieselben Wörter, die einzeln präsentiert wurden, äquivalent. Es wurden keine Hinweise darauf gefunden, dass während der Testphase IARs auftraten.;-;-;-;https://link.springer.com/article/10.3758/BF03212933 e44225f6c6116e00c04b928998f89add;de;;;2.4.;;;Moderne Wissenschaft: Experiment Wir haben einen langen Weg zurückgelegt, von der Festlegung der natürlichen Grundlagen der Erkenntnis im Allgemeinen und der menschlichen Erkenntnis im Besonderen bis hin zur Darstellung der menschlichen Lebensweise, in der die Umwandlung der menschlichen Erkenntnis in die Form moderner Wissenschaft stattgefunden hat. Tatsächlich haben wir den Kreis geschlossen, da wir an dieser Stelle die im ersten Kapitel erzählte Geschichte über den großen Kompromiss des 17.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-9036-0_12 62ceebb3faa91826bc7866eec617956a;de;;;2.4.;;;Rechtswahl Vertragsklauseln, die besagen, dass „[D]hier Vertrag dem Recht des Staates von … unterliegt und in Übereinstimmung mit diesem ausgelegt wird“ werden sowohl in nationalen als auch in internationalen Verträgen immer häufiger verwendet. Rechtswahlklauseln ermöglichen es den Parteien, das Recht einer bestimmten Gerichtsbarkeit für die Auslegung und Durchsetzung ihrer Rechte und Pflichten aus dem Vertrag zu wählen. Allgemeiner bezieht sich der Begriff „Rechtswahl“ auf die ausdrückliche, stillschweigende oder stillschweigende Wahl des anwendbaren Rechts und auf die Regeln, die bestimmen, inwieweit Personen effektiv das Recht einer bestimmten Gerichtsbarkeit auf ihre Beziehung anwenden können.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-1-349-74173-1_51 fa04110dee6dc9f6ad84f8435b8ddfb5;de;;;5.3.;;;Analyse des Wetterinformationssystems in statistischer und grober Sichtweise Das Auffinden von Entscheidungsregeln in der Wettervorhersage ist neben der Verwendung mathematischer oder statistischer Modelle und Wettersatellitendaten ein wichtiges Thema. Es wird in diesem Beitrag eine Methode zur Analyse von Wetterinformationssystemen auf der Grundlage grober Argumentation und statistischer Verfahren zur Unterstützung der Wettervorhersage behandelt. Zunächst werden einige Wahrscheinlichkeitsverteilungen von Wetterattributen verifiziert und für Partitionsattributwertebereiche unter Verwendung von Perzentilen gleicher Wahrscheinlichkeit verwendet. Die solaren Begriffe aus traditioneller ostasiatischer Sicht werden verwendet, um Typen von Entscheidungswetterattributen im Wetterinformationssystem zu bestimmen. Als nächstes wird ein solches Informationssystem analysiert, um einen Satz von Entscheidungsregeln zu erstellen. Nach Überprüfung und Verifizierung des gesammelten Wetterdatensatzes wird gezeigt, dass die Analysemethode von erheblicher Effizienz ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10774-5_9 9b170ff6820d896a7673f334729c6352;de;;;5.3.;;;Ein alternativer Ansatz für nichtlineare Optimalsteuerungsprobleme basierend auf der Methode der Momente Wir schlagen eine alternative Methode zur effektiven Berechnung der Lösung von nichtlinearen Optimalsteuerungsproblemen mit fester Endzeit vor, wenn sie in Lagrange-, Bolza- oder Mayer-Formen gegeben sind. Dieses Verfahren funktioniert gut, wenn die Nichtlinearitäten in der Kontrollvariablen als Polynome ausgedrückt werden können. Das Wesentliche dieses Vorschlags ist die Transformation eines nichtlinearen, nichtkonvexen Optimalsteuerungsproblems in ein äquivalentes Optimalsteuerungsproblem mit linearer und konvexer Struktur. Das Verfahren basiert auf der globalen Optimierung von Polynomen nach der Momentenmethode. Mit dieser Methode können wir entweder die Existenz oder das Fehlen von Minimierern feststellen. Außerdem können wir verallgemeinerte Lösungen berechnen, wenn dem ursprünglichen Problem keine Minimierer fehlen. Wir stellen auch die numerischen Schemata vor, um mehrere Beispiele aus Wissenschaft und Technik zu lösen.;-;-;-;https://link.springer.com/article/10.1007/s10589-007-9032-1 585038f8b2e99c7f0d8a393a44b1ec48;de;;;5.3.;;;Grobe Mereologie als Bindeglied zwischen Grob- und Fuzzy-Set-Theorien. Eine Umfrage In diesem Artikel diskutieren wir grobe Einschlüsse, die in Rough Mereology – einem von Polkowski und Skowron eingeführten Paradigma für approximatives Denken – als Grundlage für gängige Modelle für grobe und unscharfe Mengentheorien definiert sind. Wir rechtfertigen den Standpunkt, dass Toleranz (oder Ähnlichkeit) das gemeinsame Motiv beider Theorien ist. Dazu zeigen wir in Abschn. 6, dass grobe Einschlüsse (die eine Hierarchie von Toleranzbeziehungen darstellen) grobe mengentheoretische Approximationen sowie Partitionen und Äquivalenzrelationen im Sinne der Fuzzy-Set-Theorie induzieren. Zuvor fügen wir in Abschn. 3. Wir diskutieren auch Granulierungsmechanismen basierend auf groben Einschlüssen mit einem Überblick über Anwendungen auf grobes-fuzzy-neurocomputing und Computing mit Worten in den Abschn. 4 und 5.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27778-1_13 0c6fc7d20e844757c8a8a6ae220db91f;de;;;5.3.;;;Leistungsstabilisierung von Fermentationsprozessen: Ein binärer Steuerungsansatz Es werden zwei Arten von kontinuierlichen Fermentationsverfahren zur Produktbildung betrachtet. Die Prozesse werden durch drei nichtlineare Differentialgleichungen mit unsicheren Parametern beschrieben. Es wird ein binäres Kontrolldesign für diese Prozesse vorgeschlagen. Die asymptotischen Ausgangsstabilisierungsprobleme sind gelöst. Das Kontrolldesign erfolgt unter direkter Nutzung von nichtlinearen Modellen und mikrobiologischem Expertenwissen. Die gute Systemrobustheit gegenüber Parameterunsicherheiten und externen Störungen wird durch Simulationsuntersuchungen nachgewiesen.;-;-;-;https://link.springer.com/article/10.1007/s004499900127 d7f23871dbc67a77e47bfb82733163a0;de;;;5.3.;;;Das ACL2-Limousinensatz-Beweissystem Der ACL2 Sedan Theorem Prover (ACL2s) ist ein Eclipse-Plug-In, das eine moderne integrierte Entwicklungsumgebung bietet, mehrere Interaktionsmodi unterstützt, eine leistungsstarke Terminierungsanalyse-Engine bietet und vollautomatische Fehlersuchmethoden basierend auf einer synergistischen Kombination von Theorem enthält Prüfung und stichprobenartige Prüfung. ACL2s ist öffentlich verfügbar und Open Source. Es wurde auch in mehreren Abschnitten eines obligatorischen Erstsemesterkurses an der Northeastern University verwendet, um über 200 Studenten beizubringen, wie man über Programme nachdenkt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19835-9_27 f795c6fd0decf30ca8a26ca14b1d4c5d;de;;;5.3.;;;Ein gewichteter Algorithmus zum Markieren relationaler Datenbanken mit Wasserzeichen Ein gewichteter Algorithmus zum Markieren von relationalen Datenbanken mit Wasserzeichen zum Urheberrechtsschutz wird vorgestellt. Die Möglichkeit, ein Attribut mit einem Wasserzeichen zu versehen, wird entsprechend seiner vom Eigentümer der Datenbank festgelegten Gewichtung zugewiesen. Eine Einweg-Hash-Funktion und ein geheimer Schlüssel, der nur dem Eigentümer der Daten bekannt ist, werden verwendet, um Tupel und Bits zum Markieren auszuwählen. Durch Zuweisen einer hohen Gewichtung zu signifikanten Attributen stellt das Schema sicher, dass wichtige Attribute mehr Chancen haben, markiert zu werden als weniger wichtige. Experimentelle Ergebnisse zeigen, dass das vorgeschlagene Schema robust gegenüber verschiedenen Angriffsformen ist und eine perfekte Immunität gegen Teilmengenangriffe aufweist.;-;-;-;https://link.springer.com/article/10.1007/s11859-006-0204-0 66f6ffbc593e149199bc137de73193c3;de;;;5.3.;;;Entwicklung eines universellen Human-Interface-Geräts vom Mobiltelefontyp für medizinische Informationssysteme Human Interface Device vom Typ Mobiltelefon wird als Versuchsproduktion entwickelt. Das vorgeschlagene Gerät ist für alle medizinischen Mitarbeiter wie ein universelles Design konzipiert. Die Form des Geräts ähnelt der eines Mobiltelefons. Das Gerät besteht aus einigen Schaltern und einem PIC-Computer. Der PIC-Computer wird verwendet, um Tastencodes zu übersetzen. Die ID-Informationen sind im ROM in der Geräteschaltung beschrieben. Das Gerät kann über die USB-Schnittstelle mit dem PC verbunden werden. Im Gerät befinden sich unter der Zehnertastatur für das Handy mehrere kleine Schalter. Der Bediener kann einige Zeichen wie bei einem Mobiltelefon eingeben. Die Bedienung der Zeicheneingabe durch dieses Gerät ist für das gesamte medizinische Personal einfach, da die Anzahl der Tasten des Geräts weniger als 20 beträgt. Die Tastenbelegung optionaler Funktionen kann ähnlich wie bei einem privaten Mobiltelefon geändert werden. Die Anpassung an verschiedene Mobiltelefontypen ist möglich, um das Steuerprogramm der Übersetzung anzupassen. Eingabedaten werden von einem PIC-Computer in einen geeigneten Typcode übersetzt, der ein ähnlicher Tastaturcode ist. Der kleine PIC-Computer wird in das Gerät eingesetzt. Durch die Verwendung des Geräts wird die Benutzeridentifikation abgeschlossen, wenn der USB-Stecker eingesteckt wird. Das Gerät ist für das Windows-Plug-and-Play-System ausgelegt. Ein System wie HIS kann den Bedienernamen und die Eigenschaften anhand der ID-Informationen im Gerät erkennen. Das Gewicht des neuen Gerätes beträgt ca. 80g. Es ist handlich genug, um es im medizinischen Umfeld zu verwenden. Wenn der USB-Anschluss in der Nähe des Terminals vorbereitet wird, ist eine einfache Bedienung wie bei einem Mobiltelefon für alle medizinischen Mitarbeiter wie Krankenschwester und Arzt möglich. Die Realisierung des Systems ist einfach, da die meisten heutigen HIS-Terminals über mehrere USB-Anschlüsse verfügen. Die Kosten können auf ca. geschätzt werden. 15 – 20 US$ oder EUR.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36841-0_955 a5a69c4e852e87a0881ec2bdc7f26ad8;de;;;2.4.;;;Koordination redundanter Manipulatoren: Reduzierung der Freiheitsgrade Der menschliche Arm verfügt über eine Vielzahl von Freiheitsgraden, die den Arm für einige einfache motorische Aufgaben zu einem überflüssigen Manipulator machen. Trotz dieser relativ vielen Freiheitsgrade wird eine bestimmte Bewegung auf die gleiche Weise recht reproduzierbar ausgeführt. Um die zugrundeliegenden Mechanismen zur Reduzierung von Freiheitsgraden zu untersuchen, haben wir Zeigebewegungen im 3D-Raum und Bewegungen des Arms in einer horizontalen Ebene gegen eine externe Last untersucht. Die Position und Orientierung des Arms wurde während der Zeigebewegungen gemessen. Zusätzlich wurden die Oberflächen-EMG (Elektromyogramm) Aktivität und die Aktivität der motorischen Einheiten in der menschlichen Armmuskulatur während isometrischer Kontraktionen und während Bewegungen gegen eine elastische Belastung gemessen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0870-9_21 ca4598edf0a2bfb3e681c16df0750b4b;de;;;2.4.;;;Blitzerkennung auf der Venus: eine kritische Überprüfung Angebliche Entdeckungen und Nicht-Erkennungen von Blitzen und damit verbundenen elektromagnetischen Emissionen auf der Venus sind qualitativ widersprüchlich. Motiviert durch den Beginn der Beobachtungen der Raumsonde Akatsuki und durch Studien zukünftiger Missionen überprüfen wir hier die Beobachtungen von Raumfahrzeugen und bodengestützten Beobachtungen der letzten 40 Jahre kritisch, um die widersprüchlichen Berichte mit einer minimalen Anzahl von Annahmen in Einklang zu bringen. Dazu gehört die Heranziehung alternativer Interpretationen einzelner Berichte, die sich an Sensitivitätsschwellen, Kontrollen und anderen objektiven Maßstäben der Beobachtungsintegrität orientieren. Der überzeugendste Beweis ist in der Tat der erste, die sehr niederfrequenten (VLF) Radioemissionen, die von allen vier Veneras 11–13-Landern unter den Wolken aufgezeichnet wurden erhebliche Unterschiede zwischen den verschiedenen Profilen. Es wird der Schluss gezogen, dass eine Art häufiger elektrischer Aktivität durch das Überwiegen von Beobachtungen gestützt wird, die optischen Emissionen jedoch nicht mit dem terrestrischen Aktivitätsniveau übereinstimmen. Die Aktivität der Venus kann wie die der Erde eine starke zeitliche und/oder räumliche Variabilität aufweisen, was in Verbindung mit der relativ kurzen akkumulierten Beobachtungszeit für optische Messungen zu qualitativen Diskrepanzen zwischen den Beobachtungsberichten führen kann. Wir stellen eine Reihe von bisher unberücksichtigten Beobachtungen fest und skizzieren einige Überlegungen für zukünftige Beobachtungen.;-;-;-;https://link.springer.com/article/10.1186/s40645-018-0181-x 61baf5105961e6c7f161be14d4ee6e11;de;;;2.4.;;;Kardiale Elektrophysiologie und das Ei Die Anwendung quantitativer (ingenieurtechnischer) Methoden in der Elektrophysiologie ist umfangreich, ihre Frühgeschichte wurde mit Studien am Herzen entwickelt. Als elektrischer Generator kann das Herz durch einen einzelnen Dipol (mit unterschiedlicher Größe und Ausrichtung während des Herzzyklus) angenähert werden. Seine Signalstärke ist deutlich größer als bei anderen bioelektrischen Quellen, typisch sind Körperoberflächensignale von etwa 5 mV. Die Einfachheit des Modells, die relative Leichtigkeit der Messung und die anerkannte Bedeutung von Herzerkrankungen als eine der Hauptursachen für Morbidität und Mortalität in der westlichen Welt erregten daher schon früh die Aufmerksamkeit von (quantitativen) Physiologen, Ingenieuren, Physikern und Mathematikern. Tatsächlich treibt dieses Interesse auch heute noch die Spitzenforschung an, die auf immer komplexeren und genaueren elektrophysiologischen Modellen basiert. Dieses Kapitel soll den Leser in die zugrunde liegenden Grundlagen einführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-3152-1_9 c5686977b2624105a90e1abded6563a7;de;;;5.3.;;;Präklinische Neuropharmakologie von drei stickstoffhaltigen heterozyklischen Benzopyranen, die aus dem Cannabinoid-Kern abgeleitet sind Die jahrhundertelange Folklore, die Cannabis medizinische Eigenschaften in den Bereichen Schmerzlinderung, Sedierung, Verdauungsprobleme und Stimmungsaufhellung zuschreibt (Snyder, 1971, Li, 1974), gipfelte in dem jüngsten Anstieg des wissenschaftlichen Interesses an dokumentierten Beweisen für die therapeutische Wirksamkeit Es wird angenommen, dass es in der Cannabinoid-Klasse von Verbindungen liegt. Delta-1-trans-Tetrahydrocannabinol (Delta-1-THC), eines der wichtigsten Cannabinoide von Interesse in;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-4286-1_32 886c2586961a1673988056cb1afa1096;de;;;5.3.;;;Produktion monoklonaler Antikörper gegen Ionenkanal-assoziierte Proteine ​​mit geringer Häufigkeit in neuronalem Gewebe Der spannungssensitive Calciumkanal ist für die Regulierung der intrazellulären Calciumkonzentration unverzichtbar. Mehrere Typen von Calciumkanälen können durch elektrophysiologische und pharmakologische Eigenschaften unterschieden werden (Bean, 1989, Hess, 1990). Ein Dihydropyridin (DHP)-empfindlicher L-Typ-Calciumkanal wurde aus transversalen Tubuli der Skelettmuskulatur von Kaninchen gereinigt und besteht aus;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-2239-0_9 019bcce16fd992b2f642a700e549f546;de;;;5.3.;;;Umsatzbewertung basierend auf groben Überlegungen Die Bewertung der Haushaltseinnahmen ist ein wichtiges Thema bei der Planung der Wirtschaftspolitik, insbesondere bei der Erzielung von Gewinnen durch Finanzinvestitionen. In diesem Beitrag wird eine Methode zur Bewertung der Umsatzeffizienz unter Verwendung der Methodik des Grobsatzes – einer Technik für das Data Mining – und der Informationsentropie – einer Messung der durchschnittlichen Informationsmenge in einem Informationssystem – behandelt. Das vorgeschlagene Verfahren reduziert zunächst überflüssige Datenquellen und extrahiert dann wichtige Entscheidungsregeln aus dem Datensatz. Mit dieser Methode können Organisationen des Wirtschaftsmanagements und der Unternehmensführung die Wirtschaftspolitik und Geschäftsstrategien bewerten und bestimmen, welche Einnahmequellen effizient sind und investiert werden müssen. Durch das Testen der gesammelten Datensätze wird gezeigt, dass die vorgeschlagene Methode machbar ist und in der Praxis weiterentwickelt werden muss.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-05503-9_16 605cd1ae80a48783b1d124f6a17b9d65;de;;;5.3.;;;Die Lanthanoide 1794 gewann J. Gadolin Yttriumoxid, unreines Yttriumoxid, aus dem heute als Gadolinit bekannten Mineral, während Berzelius und Klaproth 1803 die erste Cerverbindung isolierten. Spätere Forschungen im folgenden Jahrhundert zeigten, dass Yttrium erstens eine Mischung aus den Oxiden von Yttrium, Erbium und Terbium war und dass Cerit aus den Oxiden von Lanthan und Cer bestand (Mosander, 1839–43), zweitens, dass das Original the „Erbiumoxid“ enthielt tatsächlich Erbium, Holmium, Thulium und Ytterbium (Cleve, Marignac, 1878–80). In ähnlicher Weise wurde Mosanders Trennung von „Didymium“ von Lanthan später durch seine Trennung in Samarium, Europium, Neodym und Praseodym in den Schatten gestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-11904-2_2 b1bc5f25f44fd9f809f929a213515dc1;de;;;5.3.;;;Stickstoff- und Schwefelverbindungen Die gasförmigen Verbindungen von Schwefel und Stickstoff, die bei Untersuchungen zur Luftverschmutzung von Interesse sind, lassen sich in drei chemische Hauptgruppen einteilen – Oxide, Hydride und organische Verbindungen von Schwefel und Stickstoff.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-4083-3_6 39ec9480251f30f0dda385a5c41fb2da;de;;;5.3.;;;Memetische Algorithmen für die parallele Codeoptimierung Die Ermittlung der optimalen Anzahl von Prozessoren und der Verteilung von Daten auf Parallelcomputern mit verteiltem Speicher für einen bestimmten Algorithmus ist eine anspruchsvolle Aufgabe. Ein memetischer Algorithmus (MA) wird hier vorgeschlagen, um die beste Anzahl von Prozessoren und das beste Datenverteilungsverfahren zu finden, das für jede Stufe eines parallelen Programms zu verwenden ist. Der stationäre memetische Algorithmus wird mit dem transgenerationalen memetischen Algorithmus unter Verwendung verschiedener Crossover-Operatoren und Bergsteigermethoden verglichen. Ein selbstadaptiver MA wird ebenfalls implementiert, basierend auf einer Multimeme-Strategie. Alle Experimente werden an rechenintensiven, kommunikationsintensiven und gemischten Probleminstanzen durchgeführt. Der MA führt erfolgreich für die veranschaulichenden Probleminstanzen durch.;-;-;-;https://link.springer.com/article/10.1007/s10766-006-0026-x 24d79b6816d3ba1e3eaf7106ee51b971;de;;;5.3.;;;Kapillarbeschichtungen für die Proteinanalyse Die Proteinanalyse ist für die Biotechnologie-, Pharma- und Lebensmittelindustrie sehr wichtig geworden. Analytische Techniken, die eine schnelle, automatisierte Analyse ermöglichen, aber dennoch eine hochauflösende Trennung von Proteinen aus verschiedenen Quellen wie Plasma, Blut und Impfstoffprodukten ermöglichen, sind sehr gefragt. Chromatographie und Elektrophorese sind weiterhin die bevorzugten Mittel zur Analyse von Proteinen. Kapillarelektrophorese (CE), ein Mikroformat der Elektrophorese, wurde erfolgreich zur Trennung verschiedener Proteine ​​verwendet. Ein Hauptproblem bei der CE-Analyse von Proteinen unter Verwendung einer Quarzglaskapillare ist die Wechselwirkung von basischen Analyten, wie Proteinen, mit exponierten Oberflächensilanolgruppen an der Kapillarwand. Diese Wechselwirkung führt zu Effizienzverlusten und nicht reproduzierbaren Trennungen. Mehrere Gruppen haben an der Bewertung von Proteinwechselwirkungen mit der Siliciumdioxidoberfläche gearbeitet und über mathematische Modelle und Computersimulationen dieser Wechselwirkungen berichtet;-;-;-;https://link.springer.com/chapter/10.1007/978-1-59259-120-6_3 a14205470ea9a9bb153dc387fe01e5df;de;;;5.3.;;;Biochemische Wege in Parasiten Der eindeutige Nachweis eines Stoffwechselweges erfordert die Erfüllung einer Reihe von Kriterien. Alle vorgeschlagenen Enzyme des Stoffwechselwegs müssen im Gewebe, im richtigen Zellkompartiment und mit ausreichender Aktivität vorhanden sein, um die beobachteten Flussraten zu berücksichtigen. Wenn markierte Substrate hinzugefügt werden, sollten die Zwischenmetaboliten in der richtigen Reihenfolge und an den erwarteten Positionen markiert werden. Schließlich sollte die spezifische Hemmung eines oder mehrerer der Zwischenenzyme zu einer Verringerung der Gesamtflussratenakkumulation von stromaufwärts gelegenen Metaboliten führen. Diese Bedingungen sind selten, wenn überhaupt, erfüllt, und allzu oft wird der Nachweis eines oder zweier Schlüsselenzyme als ausreichend angesehen, um das Vorhandensein eines vollständigen Stoffwechselwegs anzuzeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-60345-7_1 206f6123c4c2bc05214ff31203785b80;de;;;2.4.;;;Status und Physik des Fermilab TEVATRON Das erste supraleitende Protonen-Synchrotron wurde 1983 in Betrieb genommen. Seitdem wurden umfangreiche Fixtarget- und Kollisionsstrahlanlagen hinzugefügt, um das TEVATRON zu schaffen. Hier beschreiben wir das Festziel-Physikprogramm, das größtenteils aus den großen Läufen von 800 GeV in den Jahren 1985 und 1987 stammt;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-0965-6_11 697aaf9bd3166976cede5757a21de95c;de;;;5.3.;;;Vorhersage des thermodynamischen Verhaltens von wässriger Kieselsäure in wässrigen komplexen Lösungen bei verschiedenen Temperaturen Experimentelle Löslichkeiten von amorpher Kieselsäure in mehreren wässrigen Elektrolytlösungen und in wässrigen Lösungen organischer Verbindungen sowie theoretische Betrachtungen zu Hohlraumbildung, Elektrostriktionskollaps, Ionensolvatation und lang- und kurzreichweitiger Wechselwirkung der solvatisierten Ionen untereinander ermöglichen partielle überschüssige freie Energie und der Aktivitätskoeffizient von wässrigem Siliciumdioxid. Es wird gezeigt, dass bei nicht dissoziierten organischen Verbindungen Wasserlösungen die Variation von log;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-4013-0_28 6cf992e7b1afbbfcb9d5992014c34665;de;;;5.3.;;;Reduktive Spaltung von 4,5-Cycloalkanoisoxazolinen Es wurden verschiedene Varianten der reduktiven Spaltung von 4,5-Cycloalkanoisoxazolinen unter Einfluss von Raney-Nickel in Gegenwart von Säuren untersucht. Die Zusammensetzungen, Strukturen und Eigenschaften der Reaktionsprodukte werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF00633180 46649d30621fd63800048a3cdd6e3e3b;de;;;5.3.;;;Flechtenstoffe Die Flechtenstoffe sind die besonderen Inhaltsstoffe von Flechten, die symbiotische Organismen aus Algen und Pilzen sind. Die hier zu diskutierenden Flechtenstoffe sind die den Flechten eigenen Verbindungen mit niedrigem Molekulargewicht, die Polysaccharide wie Lichenin und Isolichenin werden von W . diskutiert;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-94878-7_9 0dd7a3b615f0dd696ecb7852dbc86142;de;;;5.3.;;;Oligosaccharid-Profiling von Keratansulfat Keratansulfat (KS) wurde zunächst aus Rinderhornhaut isoliert (1) und anschließend auch aus dem Nucleus pulposus der menschlichen Bandscheibe extrahiert (2). Seitdem wurden KS-Ketten aus einer Reihe von Geweben extrahiert und folgende KS-haltige Proteoglykane identifiziert: Aggrecan (3) aus Knorpel, Lumican (4) aus Hornhaut, zwei weitere korneale KS-Proteoglykane (PGs) mit Core Proteingrößen von 37 kDa und 25 kDa (5), Fibromodulin (6) aus verschiedenen Geweben, Abakan (7), Claustrin (8), Phosphacan (9) und Neurocan (10) aus dem Gehirn, SV2 (11) aus synaptischen Vesikeln etc Darüber hinaus wurden andere Moleküle, die eng mit KS verwandt sind, charakterisiert, beispielsweise solche aus der Zona pellucida (12).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-7388-8_9 e99ca53e2364db6ed99c22c203c60974;de;;;5.3.;;;Taurin in der Netzhaut Seit den ursprünglichen Beobachtungen von Kubícěk und Dolének (1958) haben viele Menschen die Dominanz von Taurin im Netzhautgewebe einer Reihe von Arten bestätigt. Es gibt jedoch erhebliche Unterschiede bei den berichteten Konzentrationen, beispielsweise liegen die Werte für die Netzhaut der Ratte zwischen 10 und 90;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-8093-8_13 8f790164a37ef210898478254cdf5e1e;de;;;5.3.;;;Fehlermöglichkeiten und Mechanismen Computer sind ein wesentlicher Bestandteil unseres Arbeitsalltags. Maschinenbau, Fertigung, Bankwesen, Gesundheit, Bildung, Luftfahrt, Verteidigung und die Regierung hängen alle von einer Vielzahl von Funktionen ab, die von Computern ausgeführt werden. Für das reibungslose Funktionieren dieser Aktivitäten ist es unerlässlich, dass Computersysteme den Dienst auf Abruf, ohne Unterbrechung, Tag für Tag und unter allen Arten von Betriebsumgebungen bereitstellen. Einige dieser Serviceanforderungen sind kritisch, z. B. in einem Krankenhaus, oder können die nationale Sicherheit betreffen, wo Computer rund um die Uhr nach feindlichen Eindringlingen Ausschau halten. Unabhängig von den ausgeführten Funktionen ist ein hohes Maß an Vertrauen in den Betrieb eines Computers erforderlich.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-6029-6_6 bffc12ee2b0c6fd448014d43a105026c;de;;;5.3.;;;Die IGLO-Methode: Ab-initio-Berechnung und Interpretation chemischer NMR-Verschiebungen und magnetischer Suszeptibilitäten Im ersten Teil wird die Theorie der Moleküle in einem Magnetfeld unter besonderer Berücksichtigung chemischer Verschiebungen besprochen. Auf die zentrale Rolle der Stromdichte wird hingewiesen. Das Eichursprungsproblem und seine Lösung mit der IGLO-Methode wird erläutert. Es werden verschiedene Methoden zur Berechnung chemischer Verschiebungen verglichen und die IGLO-Methode sowohl in der Berechnung als auch in der Ergebnisinterpretation ausführlich vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-75932-1_3 10c98f744a11e529af0cf33cdc1cd7e9;de;;;5.3.;;;Naphthochinone Etwa 200 neue Naphthochinone wurden im letzten Jahrzehnt aus Pflanzen, Tieren und Mikroorganismen isoliert, und während früher Seeigel die einzige marine Quelle dieser Pigmente waren, sind sie heute in Hydroiden, Algen, Schwämmen und marinen Pilzen bekannt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-1551-0_2 4e1f7ff3f1628b3eb71856455830e97d;de;;;2.4.;;;: Chemische Ökologie der Rädertierchen Einer der Hauptkanäle des sensorischen Inputs für Zooplankton sind chemische Signale. Ein Großteil des Zooplankton-Verhaltens wird durch chemische Reize ausgelöst, darunter Nahrungsaufnahme, Räuberabwehr, Paarung und Migration. Chemisch reguliertes Zooplankton-Verhalten beeinflusst Ökosystemprozesse in größerem Maßstab wie Beweidung, Rekrutierung und Sekundärproduktion. Das Wissen darüber, wie Chemikalien Informationen über Standort, Nahrungsqualität, Artgenossen, Konkurrenten und Räuber übermitteln, ist entscheidend für das Verständnis der Funktion aquatischer Ökosysteme. In diesem Artikel werden die verhaltensbezogenen Beweise dafür untersucht, dass planktonische Rädertierchen auf eine Vielzahl chemischer Reize reagieren. Obwohl eine Vielzahl von Verhaltensweisen von Rädertierchen durch chemische Signale reguliert wird, wurden wenig Fortschritte bei der Isolierung und Charakterisierung dieser Reize gemacht. Wenn die Gewässerökologie zu einer prädiktiven Wissenschaft werden soll, ist die Kenntnis der Mechanismen erforderlich, die die beobachteten Wechselwirkungen verursachen. Chemische Signale müssen isoliert, gereinigt und charakterisiert werden, und ihre kausale Rolle bei der Regulierung von Populations- und Gemeinschaftsprozessen muss nachgewiesen werden. Rotiferen haben chemosensorische Neuronen in ihrer Korona und Elektronenmikroskopie hat chemorezeptive Poren in der vorderen Haut mehrerer Arten entdeckt. Einige Rädertierchen verwenden diese Chemorezeptoren, um Nahrungspartikel anhand der Aromen auf der Zelloberfläche zu unterscheiden. In;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4782-8_34 11f2cfbb2f53f0007fe593741678e672;de;;;5.3.;;;Biologische Eigenschaften ausgewählter fluorhaltiger organischer Verbindungen Die meisten der in diesem Kapitel besprochenen Verbindungen sind entweder aromatisch oder heterocyclisch. Aliphatische Verbindungen wurden bereits in Band XX/1 dieses Handbuchs beschrieben, z.B. von M;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-99973-4_7 bf94a93090cdbc8ab774317e59cf3843;de;;;5.3.;;;LRC Sousou: A Lyrics Retrieval System Das Abrufen von Songtexten ist eine der häufig verwendeten Abruffunktionen von Suchmaschinen. In den bestehenden Liedtext-Wiedergewinnungssystemen werden jedoch vielfältige Informationsanforderungen vernachlässigt. In diesem Beitrag wird ein Liedtextabrufsystem namens LRC Sousou vorgestellt, bei dem fehlerhafte Zeichen automatisch korrigiert werden, die gemischten Abfragen von chinesischen Wörtern und Pinyin unterstützt werden und auch englische Phonemabfragen effektiv durchgeführt werden. Die Technologien der natürlichen Sprachverarbeitung, des Informationsabrufs und des maschinellen Lernalgorithmus werden auf unser Liedtextabrufsystem angewendet, um die Praktikabilität und Effizienz der Liedtextsuche zu verbessern und die Benutzererfahrung zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46248-5_57 656e7e4f8c4bb78c47fe82bbe2677b5f;de;;;5.3.;;;Situationsbezogene Koordination im Multi-Agent-Filtering-Framework Um eine akzeptable Qualität von Filterdiensten unter Echtzeitbedingungen zu erhalten, muss ein Kompromiss zwischen Ergebnisrelevanz und Antwortzeit berücksichtigt werden. Das Ignorieren der Ressourcenverfügbarkeit ist ein großer Nachteil für viele bestehende Systeme, die versuchen, die Qualität durch verschiedene Synergien zwischen Filterstrategien zu steigern. Das Wesen der vorgeschlagenen Lösung zum Kombinieren von Filterstrategien liegt in einem umfassenden situationsbezogenen Koordinationsmechanismus, der sich um die aktuelle Ressourcenverwendbarkeit kümmert. Die Anwendbarkeit der vorgestellten Koordination zwischen Filterstrategien wird in einem System veranschaulicht, das als intelligenter persönlicher Informationsassistent (PIA) dient. Experimentelle Ergebnisse zeigen, dass lang anhaltende Filterjobs mit einer Dauer von über 1000 Sekunden mit einer akzeptablen Abnahme des empfangenen Feedback-Werts innerhalb von 3% eliminiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30182-0_49 f328f283e49238c45cb8a7ca8fcf13d9;de;;;5.3.;;;Molekulare Charakterisierung von Interleukin 2 aus Tumorzelllinien und T-Zell-Hybridomen Als Labor, das sich intensiv mit der molekularen Charakterisierung und dem Wirkmechanismus des T-Zell-Wachstumsfaktors (jetzt als Interleukin 2, IL-2) bezeichnet hat, wandten wir uns zunächst bösartigen Zelllinien und T-Zell-Hybridomen als Rohölquellen zu konditioniertes Medium, aus dem IL-2 gereinigt werden soll. Unsere Hoffnung von einem solchen Ansatz war, zelluläre Quellen von IL-2 aufzudecken, die ein konditioniertes Medium mit höherem Titer erzeugen würden, als es durch herkömmliche Protokolle erhalten werden könnte, die eine Mitogenstimulation von entweder Milzzellen oder peripheren Blutleukozyten beinhalten. Wir entschieden uns, die IL-2-Produktion sowohl in Fällen zu untersuchen, in denen mutmaßliche Produzentenzellen auf konstitutive Lymphokinproduktion getestet wurden, als auch in Kulturen, die Mitogene (PHA, Con-A, Kermesbeere, Lipopolysaccharid) und/oder Phorbolester enthalten. Da andere Forscher bereits zuvor gezeigt hatten, dass einige Maus-Lymphome erst nach Lektin-Triggerung Lymphokine produzierten (I), hielten wir eine Suche ausschließlich nach konstitutiven IL-2-Produzentenzellen in Bezug auf ihre Erfolgschancen für zu eingeschränkt. Im Folgenden sind die Ergebnisse unserer ersten Studien zusammen mit experimentellen Beweisen zusammengefasst, die unsere jüngsten Fortschritte bei der biochemischen Charakterisierung von IL-2 detailliert beschreiben. Eine solche Charakterisierung wurde durch unsere Entwicklung eines anderen Hybridoms (von B-Zell-Ursprung) weiter verbessert, dessen monoklonales Immunglobulin mit einer auf dem IL-2-Molekül vorhandenen Determinante reagiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-68586-6_24 5d4d5fe15c9a05070c8b11d61f10ff2d;de;;;5.3.;;;Epiminierung von Olefinen mit 3,3-Pentamethylenoxaziridin – Eine einstufige Synthese von Aziridine 3,3-Pentamethylenoxaziridin, das durch Behandlung von Cyclohexanon mit Ammoniak und Natriumhypochlorit oder Hydroxylamin-O-sulfonsäure leicht zugänglich ist, reagiert mit Olefinen unter Übertragung der NH-Gruppe zu Aziridine. Aziridine wurden aus Styrol, ring- oder seitenkettensubstituierten Styrolen, Norbornen und Acrylnitril in 20–70 % Ausbeute erhalten. Cyclohexen wird doppelt aminiert, um N-Aminoaziridin zu ergeben. Durch Umlagerung entstehen aus Phenylacetylen und Diphenylacetylen Nitrile.;-;-;-;https://link.springer.com/article/10.1007/BF00474323 872bff23a0d2a1f4c2266376cb005b33;de;;;5.3.;;;Organisches Chloraluminat Umgebungstemperatur geschmolzene Salze Die Chemie in einer Klasse organischer Chloraluminate bei Umgebungstemperatur wird beschrieben. Der Schwerpunkt liegt auf elektrochemischen Untersuchungen und beschäftigt sich vor allem mit den Systemen N-(1-Butyl)-Pyridiniumchlorid oder 1-Methyl-3-ethylimidazoliumchlorid gemischt mit Aluminiumchlorid. Die in diesen Lösungsmitteln bestehenden Gleichgewichte werden beschrieben und die Definitionen von sauren, basischen und neutralen Schmelzen werden hervorgehoben. Beispiele, die die Variation der Elektrochemie mit dem Säure-Base-Charakter des Lösungsmittels zeigen, werden hervorgehoben. Bestimmte gelöste Stoffe zeigen keine Änderung in der Elektrochemie mit Acidität, andere zeigen tiefgreifende Veränderungen, und diese werden als Wechselwirkungen der gelösten Stoffe mit dem Lösungsmittel interpretiert. Sowohl anorganische als auch organische gelöste Stoffe werden berücksichtigt, und neuere Arbeiten zu elektroaktiven Polymeren in geschmolzenen Salzsystemen werden beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-3863-2_16 80f7d910cc7f562d909269161bd58823;de;;;5.3.;;;Schnelle thermische Oxidation und Nitrierung Sowohl bei ULSI als auch bei VLSI wurden die Größen der MOS-Transistoren auf Gate-Breiten im Submikrometer- und Mikrometerbereich skaliert, so dass die erforderlichen Abmessungen der Gatedielektrikumsfilme typischerweise weniger als 200 betragen. Die schnelle thermische Verarbeitung (RTP) dünner Dielektrika ist daher zu einem Thema von großem Interesse geworden, um gute elektrische Eigenschaften mit einem reduzierten thermischen Budget für die Herstellung dieser Schaltungen zu erreichen. Dies hatte besondere Auswirkungen bei der Herstellung von Speichervorrichtungen, bei denen eine sehr hohe Packungsdichte erforderlich ist. Zum Beispiel dynamische Direktzugriffsspeicher (DRAMs) [1], elektrisch programmierbarer Nur-Lese-Speicher (EPROM) [2], elektrisch löschbarer programmierbarer Nur-Lese-Speicher (EEPROM) [3] und mehr als 64-Mbit-Random-Access-Speicher (RAM). Das Vorhandensein von Oxidladung wird durch die Schwellenspannungsverschiebungen und Leckströme deutlich demonstriert. Diese Effekte werden stärker, wenn die Dicke des Gate-Oxids abnimmt und die Gate-Kapazität zunimmt. In EEPROMs kann der Fowler-Nordheim (FN) Tunnelstrom, der zum Laden und Entladen des Gates der Speicherzelle verwendet wird, die Gatedielektrikumseigenschaften durch eingefangene Ladungen im Gatedielektrikum langsam verschlechtern. Die resultierende Verschiebung der Schwellenspannung und die Erhöhung des Leckstroms verringert die Zeit, die ein Informationsbit in der Speicherzelle gehalten wird, was zu einem elektrischen Ausfall der Vorrichtung führt. Ein zweiter Vorteil von RTP besteht darin, Stickstoff in das Dielektrikum einzubauen, um das Eindringen von Bor zu reduzieren, das auftritt, wenn p;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-1804-8_6 39634dafc814be710ae3a31f7cad7f78;de;;;5.3.;;;Strahlenuntersuchung und Radionuklidanalyse von radioaktiven Plumes aus dem ehemaligen Atomtestgelände Semipalatinsk Die radioaktiven Produkte (RPs), die in den Bereichen atmosphärischer Nukleartests auf dem Gebiet des Experimentalfeldes und in den Bereichen des radioaktiven Niederschlags vorhanden sind, führen zu einer komplizierten Strahlungssituation auf dem Semipalatinsk Test Site (STS), die sich im Laufe der Zeit entwickelt hat. Aufgrund ihrer Erzeugung variieren die RPs von einigen Mikrometern bis 10 cm. Pulverförmige Fraktionen radioaktiver Produkte können aufgrund ihrer Größe vom Wind resuspendiert und weit weg vom Entstehungsort transportiert werden. Die Bereiche mit a;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4116-1_11 2b2fc25c71ee25286c98055835e6c320;de;;;5.3.;;;Identifizierung von Acetylcholin und verwandten Estern biologischen Ursprungs Obwohl Acetylcholin (ACh) zweifelsfrei als Transmittersubstanz an bestimmten cholinergen Nervenendigungen nachgewiesen wurde, gibt es mehrere Tatsachen, die uns davor warnen, dieser Verbindung eine zu exklusive Rolle zuzuschreiben. Erstens wird in Analogie zu anderen Transmittern (z. B. den Katecholaminen) die Transmitterrolle wahrscheinlich eher von einer Gruppe verwandter Substanzen als von einer einzelnen Verbindung übernommen. Zweitens kommt ACh in nicht-nervösem Gewebe vor und ist in der Natur so weit verbreitet, dass eine nicht-nervöse Funktion dafür vermuten lässt. Drittens sind mehrere andere Carbonsäureester von Cholin mit verwandten oder gegensätzlichen pharmakologischen Eigenschaften bekannt, die in der Natur vorkommen. Obwohl ihre Anwesenheit im Nervengewebe bisher nicht eindeutig nachgewiesen wurde, kann dieses Gewebe zweifellos Homologe von ACh . synthetisieren;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-99875-1_1 ce6c0d9041f603482be25c99d81b7851;de;;;2.4.;;;Molekularbiologie von Extremophilen Die Molekularbiologie von Extremophilen hat in letzter Zeit großes Interesse geweckt, sowohl im Hinblick auf die Zellanpassung an extreme Umweltbedingungen als auch die Entwicklung manipulativer genetischer Techniken. Obwohl molekulargenetische Techniken erfolgreich auf Halophile und Methanogene angewendet wurden, ist ihre Verwendung mit Hyperthermophilen durch die extremen Wachstumsbedingungen, die diese Organismen erfordern, begrenzt. Viele Informationen über die thermophilen Archaea wurden durch die Untersuchung der Schlüsselenzyme gewonnen, die an grundlegenden Zellprozessen wie Transkription und Replikation beteiligt sind, sowie durch Klonen, Sequenzvergleich und heterologe Expression von Strukturgenen. Die Entwicklung viraler Vektoren und Systeme für Transformation, Mutantenproduktion und Screening wird eine verstärkte genetische Manipulation dieser Organismen ermöglichen.;-;-;-;https://link.springer.com/article/10.1007/BF00339137 b89d8cfb15eced82fcec0ab08a3a1f20;de;;;2.4.;;;Faktoren im Zusammenhang mit der Zerfallskapazität der Braunfäule Braunfäule-Basidiomyceten sind weltweit eine der Hauptursachen für Fäulnis und Zersetzung von Holz und Holzprodukten. Die mit Braunfäule verbundene schnelle Depolymerisation von Zellulose führt zu gravierenden Festigkeitsverlusten des Holzes früh im Fäulnisprozess (Cowling, 1961), Braunfäule verursachen somit in kürzerer Zeit mehr Schäden als die häufigeren Weißfäule. Das Wissen über die Physiologie und Biochemie der Braunfäule hinkt dem der Weißfäule hinterher. Ein besseres Verständnis der Mechanismen der Braunfäule könnte spezifische Stoffwechselwege identifizieren, die für die Fäulnisentwicklung notwendig sind, und die Grundlage für zukünftige Bekämpfungsstrategien bilden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-9453-3_23 dca9a7771e9bf7918bd2f67cef28efb1;de;;;5.3.;;;Die Synthese von 6-(N-Arylamino)-7-chlor-5,8-chinolindion-Derivaten zur Bewertung der antimykotischen Aktivität Eine Reihe von 6-(N-Arylamino)-7-chlor-5,8-chinolindion-Derivaten wurde zur Bewertung der antimykotischen Aktivitäten neu synthetisiert. 5-Amino-8-hydroxy-chinolin (II) wurde mit KClO . behandelt;-;-;-;https://link.springer.com/article/10.1007/BF02974248 99546c7c59b56609403f16a1dc07d630;de;;;2.4.;;;Eine virtuelle Mehrkörper- und Finite-Elemente-Analyseumgebung im Bereich der Luft- und Raumfahrt-Crashsicherheit Ein wichtiges Konzept bei der Crash-Analyse ist, wie der Kontakt/Aufprall behandelt oder modelliert wird. Eine Methode zur Vorhersage des Aufprallverhaltens mechanischer Mehrkörpersysteme besteht darin, die lokalen Verformungen sowie die Kontaktkräfte als kontinuierlich zu behandeln. Die Anwendung dieser Methode erfordert die Kenntnis der Variation der Kontakt- und Reibungskräfte. Kontaktkraftmodelle, einschließlich nichtlinearer viskoelastischer, Hertz-basierter und viskoplastischer Modelle, werden vorgestellt. Anschließend werden computergestützte Analysetools beschrieben, die typischerweise bei Untersuchungen der Flugzeugabsturzsicherheit verwendet werden. Anschließend wird eine Methodik für den gesamten Designzyklus von der Flugzeugzelle über die Kabine, den Sitz, das Rückhalte- und das Ausstiegssystem vorgestellt. Die Methodik umfasst eine Kombination aus Mehrkörpermodellierung und nichtlinearer Finite-Elemente-Analyse der Flugzeugzelle, des Sitzes und des Insassen sowie Komponententests in frühen Entwurfsphasen und Schlitten- und/oder Vollmaßstabstests in späteren Phasen der Entwurfsbewertung. Zur effektiven Systemvisualisierung und zum besseren Verständnis der Interaktion zwischen den verschiedenen Subsystemen wird ein Virtual Reality (VR)-System eingesetzt. Es werden Beispiele für die Anwendung dieser Methodik für einige der aktuellen Crashsicherheitsprobleme vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0203-5_10 dcd97ea0ed016a5fee32e8d74417cb74;de;;;5.3.;;;Aluminiumaufnahme und aluminiuminduzierte Hemmung des schnellen Wurzelwachstums von Reiskeimlingen Aluminium (Al) hemmt das Wurzelwachstum in sauren Böden, der Wirkungsort von Al bleibt jedoch unklar. Wir untersuchten, ob die Rate der Al-Akkumulation mit der Al-induzierten Hemmung des schnellen Wurzelwachstums in Reissämlingen korreliert (;-;-;-;https://link.springer.com/article/10.1007/BF03031024 9c70347a3bdc140d620cd3721500c854;de;;;5.3.;;;Stimulation von Phospholipasen A Unter den Enzymen, die posttranslationale Modifikationen von Proteinen katalysieren, wurden Transglutaminasen (TG, EC 2.3.2.13) aus enzymologischer Sicht umfassend charakterisiert (1–4). Dennoch ist die physiologische(n) Rolle(n) dieser Enzyme, insbesondere der intrazellulären TGs, noch wenig verstanden. TGs sind eine Klasse von Enzymen, die ein Ca . katalysieren;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0651-1_7 e34270e5c6f8a4ead96a68807980b8a6;de;;;5.3.;;;Reinigung, Charakterisierung und Immunoassay von Streifenbarsch ( Der Eidottervorläufer, Vitellogenin (VTG), wurde aus Blutplasma von Streifenbarsch durch Chromatographie an Hydroxylapatit oder DEAE-Agarose gereinigt. Den Fischen wurde zuerst Östradiol-17β (E;-;-;-;https://link.springer.com/article/10.1007/BF00004320 7ad362f1210f102d525de7e0e100435d;de;;;2.4.;;;Millisekunden-Timer in Maschinensprache für den Mikroprozessor Z-80 Zwei Millisekunden-Timer der Maschinensprache Z-80 für das Modell III TRS-80 werden vorgestellt und beschrieben: MSEC DELAY TIMER und MSEC LATENCY TIMER. Der Latenztimer kann bei Tastatureingaben (Taste loslassen oder drücken) verwendet werden und kann auch so ausgelegt sein, dass er auf ein Signal an einem der E/A-Ports des Computers reagiert. Die Assemblersprachenprogramme können für andere Z-80-basierte Computer überarbeitet werden. Kalibrierungsverfahren werden beschrieben und ein Beispielprogramm für ein Zweifeld-Tachistoskop wird vorgestellt.;-;-;-;https://link.springer.com/article/10.3758/BF03203698 a832df2021b4b4e72e082d27d3a140bd;de;;;5.3.;;;Lysosomale Elastase: Wirkung auf mechanische und biochemische Eigenschaften von normalem Knorpel, Hemmung durch polysulfoniertes Glykosaminoglykan und Bindung an Chondrozyten Die rheumatische Gelenkzerstörung beginnt meist mit der Destabilisierung des Knorpels. Lysosomale Elastase ist ein Kandidat für einen Effektor dieses Prozesses, da dieses Enzym an der Stelle der Knorpelerosion durch rheumatoides Synovialgewebe gefunden wird. Um diese Hypothese zu beweisen, haben wir die mechanische Stabilität des Knorpels während der Behandlung mit diesem Enzym in vitro untersucht. Zu diesem Zweck wurde eine Eindruckapparatur verwendet und biochemische sowie mikroskopische Techniken wurden verwendet, um die so erhaltenen Ergebnisse zu ergänzen.;-;-;-;https://link.springer.com/article/10.1007/BF00541157 f3a33782142b881e9c43436cb0f02f26;de;;;2.4.;;;Emotionserregung durch Musik: Der Einfluss des Notenwertes Dieser Artikel basiert auf der Annahme, dass Musik die Stimmung des Hörers verändern kann. Der Vorschlag untersucht die Veränderungen der emotionalen Zustände der Teilnehmer, indem sie verschiedene Auditions hören. Auf diese Weise kann die Frage beantwortet werden, ob Musik in der Lage ist, beim Hörer positive und negative Emotionen auszulösen. Die vorliegende Forschung konzentriert sich auf den musikalischen Parameter Notenwert durch seine vier Grundkomponenten des Parameters Notenwert, nämlich Schlag, Rhythmus, harmonischer Rhythmus und rhythmische Begleitung, um die individuellen Vorlieben der Hörer zu erkennen. Die ersten Ergebnisse belegen, dass der Einfluss des Beats in der Musik auf das Auslösen von Emotionen von der Persönlichkeit jedes Teilnehmers in Bezug auf Neurotizismus und Extraversion abhängt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-18914-7_51 7485ec85ad2ff0c8bac7934bf727b5c9;de;;;2.4.;;;Eine empirische Untersuchung des Zusammenhangs zwischen Preis und Qualität von Konsumgütern in der Europäischen Wirtschaftsgemeinschaft und den USA (1968 bis 1984) Diese Studie untersucht die Beziehung zwischen Preis und Qualität in vier Konsumgüterkategorien auf zwei großen Weltmärkten. Die in die Analyse einbezogenen Produktkategorien Haushaltsgeräte, Haushaltswaren, Unterhaltungselektronik und Fotoausrüstung haben in beiden Marktbereichen eine deutliche Zunahme des internationalen Wettbewerbs erfahren. Die Ergebnisse der Studie mit rund 25.000 Marken zeigen, dass die beiden Marktgebiete ähnliche Preis-Leistungs-Verhältnisse aufweisen. Das zweite Ziel der Studie untersuchte den Zusammenhang zwischen Preisvariation und Preisniveau anhand des Preis-Qualitäts-Zusammenhangs.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-17046-6_86 a591ce88fd81b4e620436c1b870590cc;de;;;2.4.;;;Photoperiodismus bei Insekten und anderen Tieren Viele Tiere, insbesondere diejenigen, die in höheren Breiten leben, verwenden Informationen aus der Tageslänge (oder Nachtlänge), um jahreszeitlich angemessene Verhaltens- und Entwicklungsstrategien zu regulieren. Die häufigsten sind das Einsetzen der Überwinterungsdiapause bei den Insekten und saisonale Brutstrategien bei vielen Tiergruppen. Dieses Kapitel untersucht die Rolle von Licht in diesen Prozessen: den photorezeptiven „Eingangsweg“ zur photoperiodischen Uhr, ob diese Uhr eine Funktion des zirkadianen Systems ist, seine Beziehung zu offensichtlichen zirkadianen Verhaltensrhythmen und bei Insekten seine endokrine Produktion zur Diapause oder kontinuierliche Sommerentwicklung. Wichtige Modelle für die photoperiodische Uhr werden beschrieben und bewertet, insbesondere ob scheinbar sanduhrartige Reaktionen eine deutliche nicht-zirkadiane Uhr darstellen oder nur eine Variante eines zirkadianen Mechanismus, bei dem einzelne Oszillatoren über längere Zeiträume von Dunkelheit. Schließlich werden einige neuere Entwicklungen bei der Aufklärung der Molekulargenetik der photoperiodischen Reaktion beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-72655-7_15 bbd1fc42552d36933c9867f86bb0bfbe;de;;;2.4.;;;Numerische und experimentelle Modellierung thermischer Fehler in einem 5-Achs-CNC-Bearbeitungszentrum Diese Arbeit zielt auf die Etablierung einer Methodik zur Modellierung und Analyse der thermischen Fehler eines fünfachsigen CNC-Bearbeitungszentrums aus einem geschätzten Temperaturfeld ab, um schließlich einen Algorithmus für künstliche neuronale Netze (ANN) zu modellieren, um den thermischen Fehler mit Robustheit genau vorherzusagen. Das thermoelastische Verhalten des Bearbeitungszentrums wurde durch zwei verschiedene Ansätze modelliert: experimentelles (oder datengesteuertes) Modell und numerisches (oder physikalisches) Modell. Das thermische Verhalten der Maschine wurde zunächst mit der Finite-Elemente-Methode (FEM) basierend auf der Theorie der Reibungswärme und Konvektionswärme modelliert und mit den verschiedenen experimentell erhöhten Temperaturfeldern unter Verwendung von Temperatursensoren und Wärmebildgebung validiert. Die wichtigsten Teilsysteme der Maschine wurden zunächst validiert, wie Kugelgewindetrieb, Linearführungen und Spindel, was die Validierung des thermischen Verhaltens der gesamten Maschine für fünf verschiedene Arbeitszyklen ermöglichte und einen maximalen Fehler von weniger als 8% beim Vergleich der numerischen Ergebnisse mit den Versuchsergebnissen. Die Komponenten der thermischen Fehler in;-;-;-;https://link.springer.com/article/10.1007/s00170-018-1595-8 166106ef03cdd2d332bca02129c7fdf4;de;;;2.4.;;;Mykorrhiza-basierte Phytostabilisierung von Zn-Pb-Tailings: Lehren aus dem Bergwerk Trzebionka (Südpolen) Das Kapitel fasst die Forschungen zur Rolle von Mykorrhiza bei der Phytostabilisierung von schwermetallreichen Tailings aus den Industriestandorten ZG Trzebionka (Südpolen) zusammen. Das abgelagerte Substrat ist schwer phytosaniert. So verschwinden zum Beispiel Pflanzen, die konventionell an solchen Orten eingeführt wurden, relativ schnell, während diejenigen, die während der natürlichen Sukzession auftauchen, sie ersetzen. Eine richtig entwickelte Mykorrhiza-Symbiose verbessert das Überleben von Pflanzen in solchen metallreichen Gebieten, indem sie sowohl die Nährstoffaufnahme als auch die Wasserbeziehungen verbessert. Darüber hinaus wurde festgestellt, dass Mykorrhizapilze auch eine wichtige Rolle bei der Schwermetallentgiftung und der Vegetationsbildung spielen. Bestimmte Pilzstämme, die aus alten Zinkabfällen isoliert wurden, verringern auch die Aufnahme von Schwermetallen durch Pflanzen, die auf metallreichen Substraten wachsen, und begrenzen so das Risiko, dass diese Elemente in die Nahrungskette gelangen. Aus dem Gebiet isolierte Mykorrhizapilze erwiesen sich als wirksamer bei der Verbesserung des Pflanzenwachstums als solche aus nicht verschmutztem Gebiet. Daher hängt die Wirksamkeit der Bioremediationstechniken von der geeigneten Auswahl sowohl der Pflanzen- als auch der Pilzpartner ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23327-2_16 d44ac3b510368b5bda9e59d52fd9b199;de;;;5.3.;;;Enhanced Living Environments (ELE): Ein Paradigma basierend auf der Integration von Industrie 4.0 und Gesellschaft 5.0 Kontexten mit Ambient Assisted Living (AAL) Enhanced Living Environments (ELE) sind eine Art Paradigma für Leben, Wohlbefinden und soziale Inklusion. Die Verbesserung einer Umgebung impliziert die Entwicklung von Prozessen, die basierend auf den Bedürfnissen und Bedingungen der Menschen entsprechende Anpassungen vornehmen, damit bei der Interaktion das Gefühl von Komfort und Sicherheit entsteht. Die Konnotation von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72567-9_12 a774af7dc9b9f1209604c2f92841a368;de;;;5.3.;;;Synthese von 2-Acyl-4-hydroxycyclohexan-1,3-dionen — Kairomone und Schutzstoffe einiger Insekten Die Synthese einiger Derivate von β-Triketonen basierend auf einem neuen Synthon - 4-Hydroxycyclohexan-1,3-dion - wird beschrieben. Unter Verwendung des vorgeschlagenen Schemas wurde 4-Hydroxy-2-(octadec-9Z,12Z-dienoyl)cyclohexan-1,3-dion, ein Kairomon einiger Lepidoptera-Arten, erhalten.;-;-;-;https://link.springer.com/article/10.1007/BF00630001 df8ea85e64c6d8b35b10ff06f4d41c8c;de;;;2.4.;;;Eine frühe Exposition gegenüber einem L2 sagt ein gutes L1- sowie ein gutes L2-Schreiben voraus Neuere Forschungen zeigen, dass Zweisprachige mit relativ fortgeschrittenen Fähigkeiten tendenziell kognitive Vorteile gegenüber ihren einsprachigen Altersgenossen haben (Bialystok, 1992, Hakuta, 1986, Ransdell, Arecco & Levy, 2001). Die in diesem Kapitel beschriebene Forschung konzentriert sich auf die Beziehung zwischen dem Alter der ersten Exposition gegenüber einer L2 und der Entwicklung höherer kognitiver Fähigkeiten, wie z. B. Fähigkeiten, die beim Schreiben von L1 und L2 verwendet werden. Spanisch-Englisch-, Estnisch-Englisch- und Polnisch-Englisch-Zweisprachige wurden nach dem Alter ihrer ersten L2-Exposition in zwei Gruppen eingeteilt. Teilnehmer der frühen L2-Gruppe wurden erstmals vor dem Alter von zwölf Jahren einem L2 ausgesetzt. Die späte L2-Gruppe bestand aus Teilnehmern, die im Alter von zwölf oder älter einem L2 ausgesetzt waren. Beide Gruppen verfassten zwei 10-minütige Essays in einem ausgewogenen Design. Ein Aufsatz war in L1 und der andere in L2 (Englisch). Verglichen mit der späten L2-Gruppe produzierte die frühe L2-Gruppe eine bessere Schreibqualität mit mehr Flüssigkeit sowohl in L1 als auch in L2. Eine Erklärung für die beobachteten Unterschiede ist, dass die Teilnehmer der frühen L2-Expositionsgruppe möglicherweise einfach in ihren Englischkenntnissen fortgeschrittener sind. Eine zweite Möglichkeit besteht darin, dass eine frühe Exposition gegenüber einem L2 die allgemeinen kognitiven Fähigkeiten verbessert. Die vorliegenden Ergebnisse, dass eine frühe Exposition gegenüber einer L2 mit einer besseren L1 sowie einer besseren L2-Schreibflüssigkeit und -qualität korreliert, deuten auf eine Unterstützung für die Verbesserung der allgemeinen kognitiven sowie sprachlichen Fähigkeiten hin.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0363-6_6 4535cc21eb93a2355cec1a4bfa9f1ef7;de;;;2.4.;;;Bead-basierte Suspension Arrays zum Nachweis und zur Identifizierung von Atemwegsviren Die klinischen Anzeichen und Symptome vieler Infektionskrankheiten sind oft zu unspezifisch, um zwischen den Erregern zu unterscheiden, und daher erfordert eine endgültige Diagnose spezifische Labortests für alle vermuteten Krankheitserreger. Insbesondere Atemwegsinfektionen können durch zahlreiche unterschiedliche virale, bakterielle und pilzliche Pathogene verursacht werden, die klinisch nicht unterscheidbar sind. Auch beim Menschen gehören Atemwegsinfektionen zu den häufigsten Infektionen mit ca. 6-9 Episoden pro Jahr bei Kindern und 2-4 Episoden pro Jahr bei Erwachsenen [1]. Diese Infektionen verursachen eine beträchtliche Morbidität und Mortalität sowie hohe Gesundheitskosten im Zusammenhang mit Arztbesuchen, Krankenhausaufenthalten, Behandlungen und Abwesenheiten von Arbeit und Schule. Eine frühzeitige Diagnose des ätiologischen Agens bei einer Atemwegsinfektion ermöglicht eine wirksame antimikrobielle Therapie und eine angemessene Behandlung der Krankheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-3970-7_42 9f952f06ba63fa01f7671b728a1690c7;de;;;2.4.;;;Die Experten zeigen Ihnen, wie es geht: Eine Fallstudie In diesem letzten Teil V bringen wir ein Expertengremium zusammen, um eine hypothetische Fallstudie anzugehen, die viele, wenn nicht alle der wichtigsten Herausforderungen verkörpert, denen Gesundheitsorganisationen heute gegenüberstehen. Hier trifft Theorie auf Praxis und der Leser kann beobachten, wie diese Experten die heutigen Probleme der realen Welt lösen. Wir beginnen mit einer detaillierten Darstellung der Fakten und Probleme und gehen dann dazu über, alternative Lösungsmöglichkeiten zu identifizieren und auszuwählen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-1357-1_7 a4672c08a6cfdf198379c1bda42230d3;de;;;5.3.;;;Metrische Räume Unser Ziel in diesem Kapitel ist es zu zeigen, dass die meisten der in den vorherigen Kapiteln eingeführten Konzepte für die Menge ℝ der reellen Zahlen auf beliebige abstrakte;-;-;-;https://link.springer.com/chapter/10.1007/978-0-8176-8232-3_5 2193d36e64da52a2b90b6c23a63e0b37;de;;;5.3.;;;Grundkonzepte der Differentialgeometrie Wenden wir uns dem Thema Geometrie zu. Unsere erste Bekanntschaft mit Geometrie geht auf die Schulzeit zurück. Die Schulgeometrie (die Geometrie der alten Griechen) untersucht die verschiedenen metrischen Eigenschaften der einfachsten geometrischen Figuren, dh findet im Wesentlichen Beziehungen zwischen Längen und Winkeln in Dreiecken und anderen Vielecken. Solche Zusammenhänge bilden die Grundlage für die Berechnung der Oberflächen und Volumen von Festkörpern. Wir möchten darauf hinweisen, dass die zentralen Konzepte der Schulgeometrie die folgenden sind: die Länge einer Geraden (oder einer Kurve) und der Winkel zwischen zwei sich schneidenden Geraden (oder Kurven). Der Winkel wurde immer im Schnittpunkt dieser Linien gemessen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-7895-0_1 aa74f1f8d2cb31ffbc16c6fca0e15271;de;;;5.3.;;;Multivariate Verteilungen In der Wahrscheinlichkeitstheorie bezieht sich das Wort „Experiment“ auf jeden Prozess, der für einen bestimmten Beobachter nicht deterministisch ist. Die Unsicherheit des Beobachters kann auf die Art des Prozesses, den Wissensstand des Beobachters oder beides zurückzuführen sein. Das Studium der Wahrscheinlichkeitstheorie befasst sich mit der Analyse von Abstraktionen oder Modellen tatsächlicher physikalischer Experimente. Die Formulierung eines Modells erfordert eine genaue Angabe eines angemessenen Universums möglicher Ergebnisse. Ein anderer Begriff für Universum ist Sample Space. Das Universum (oder Probenraum) ist eine grundlegende (d. h. elementare), sich gegenseitig ausschließende und kollektiv erschöpfende Auflistung aller möglichen Ergebnisse eines Experimentmodells. Das heißt, ein Musterraum besteht aus Mitgliedern, die EEE sind (was für;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-5386-4_5 c9d0eeebd03d4bc6bd506590de665d9a;de;;;2.4.;;;Längsschnittstudie zur Produktion und zellulären Reaktion auf Interleukin-2 bei Patienten mit systemischem Lupus erythematocus Interleukin-2 (IL-2) hat sich als defektes Element der Immunregulation bei systemischem Lupus erythematodes (SLE) erwiesen. Ihr zeitlicher Verlauf ist jedoch unbekannt. Wir untersuchten seine Produktion und zelluläre Reaktion in den peripheren Blutzellen von 30 SLE-Patienten und 12 gesunden Probanden. Darüber hinaus untersuchten wir die spontane und durch Lipopolysaccharide (LPS) induzierte Produktion von IL-1, die bei unbehandelten SLE-Patienten erhöht bzw. gesenkt wurden. Die Patienten wurden zu Beginn untersucht, wenn sie noch unbehandelt waren, und nach 1, 2, 6, 12, 18 und 24 Monaten. Zu Beginn hatten 18 eine aktive Erkrankung und 12 befanden sich in Remission. Die verminderte proliferative Reaktion von T-Zellen auf IL-2 und die mangelhafte Produktion von IL-1 nach LPS-Induktion wurden nach 6-monatiger Behandlung normal, während die Expression von hochaffinen IL-2-Rezeptoren 18 Monate brauchte, um sich normal zu machen und die mangelhafte Produktion von IL-2 dauerte 2 Jahre. Trotz klinischer Remission hielt die verminderte Fähigkeit der T-Zellen, IL-2 zu absorbieren, 2 Jahre lang an. Die Wirkung verschiedener Prednison-Dosierungen auf die gemessenen Variablen wurde bewertet. Bei mittleren Dosen von Prednison (20–45 mg) beobachteten wir die größte Verbesserung der IL-2-Produktion und der IL-1-Produktion nach LPS-Stimulation. Höhere Prednison-Dosen reduzierten auch die spontane Produktion von IL-1 und führten zu einer Erhöhung der Expression von CD25+-Zellen. Die Zugabe niedriger Dosen zytotoxischer Medikamente (orales Cyclophosphamid oder Azathioprin) führte zu einer Verbesserung der Aufnahmefähigkeit von IL-2 und einer Verringerung der spontanen IL-1-Produktion. Unsere Daten legen nahe, dass bei SLE der Defekt bei der Verwertung von IL-2 durch T-Zellen tiefer ist als bei seiner Produktion und dass dies durch die spontane Produktion von IL-1 beeinflusst wird, was darauf hindeutet, dass eine in vivo-Aktivierung von Monozyten auch in Remission.;-;-;-;https://link.springer.com/article/10.1007/BF00262709 37258cbc85f1241d69e8076824b1f9c9;de;;;2.4.;;;QTL-Kartierung flüchtiger Verbindungen in reifen Äpfeln, nachgewiesen durch Protonentransferreaktion-Massenspektrometrie Die Verfügbarkeit genetischer Kopplungskarten ermöglicht den Nachweis und die Analyse von QTLs, die zu Qualitätsmerkmalen des Genotyps beitragen. Die Protonentransfer-Reaktions-Massenspektrometrie (PTR-MS), eine relativ neue spektrometrische Technik, wurde angewendet, um die Headspace-Zusammensetzung der flüchtigen organischen Verbindungen (VOCs) zu messen, die von Apfelfrucht-Genotypen der Nachkommen „Fiesta“ × „Discovery“ emittiert werden. Fruchtproben wurden durch ihre auf die Gesamtfläche normierten PTR-MS-Spektren charakterisiert. Es wurde eine QTL-Analyse für alle PTR-MS-Peaks durchgeführt und 10 genomische Regionen mit den Peaks bei . assoziiert;-;-;-;https://link.springer.com/article/10.1007/s10681-005-1645-9 2e96d4db54680dcd056abce4950eb221;de;;;2.4.;;;Einige Aspekte der sensomotorischen Steuerung und Anpassung beim Menschen Die Steuerung der menschlichen Bewegung und räumlichen Orientierung ist besonders komplex. Der Körper ist mehrfach gelenkig, und wenn der Rumpf und die Gliedmaßen ihre Orientierung in Bezug auf den Gravitationskraftvektor ändern, ändern sich auch die Kräfte, die erforderlich sind, um eine Gliedmaße um einen bestimmten Winkel zu bewegen. Ein einfaches Beispiel hierfür ist das Vor- und Zurückbewegen des Unterarms um gleiche Winkelabstände in einer vertikalen und dann in einer horizontalen Ebene. Auch wenn sich die motorischen Befehle, die zur Erzielung der „gleichen Bewegung“ in beiden Fällen erforderlich sind, aufgrund der Last- und Orientierungsänderungen unterscheiden, erfährt man dennoch, wenn nicht ermüdet, einen geringen oder keinen Unterschied im Kraftaufwand, der zur Ausführung der Bewegungen erforderlich ist. Das bedeutet, dass das skelettmuskuläre System so „kalibriert“ ist, dass Körperbewegungen eines bestimmten Ausmaßes trotz oft radikaler Unterschiede der tatsächlichen Kräfte als äquivalente scheinbare Kraft wahrgenommen werden. Eine solche Kalibrierung ist nur durch eine kontinuierliche Überwachung der relativen Konfiguration und Orientierung des Körpers in Bezug auf das Trägersubstrat und den Gravitoinertialkraftvektor möglich. Tatsächlich sind, wie Mach (1897) schon vor langer Zeit betonte, die Augen eigentlich die einzigen beweglichen Körperteile, die durch Innervationssequenzen gesteuert werden können, die unabhängig von der Körperorientierung die gleichen Bewegungen bewirken.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-9197-9_5 912e489beb3aedde2a253074a90e4f6d;de;;;2.4.;;;Der Beitrag der Längsschnittforschung zur Erforschung der Frauenarmut Ziel dieses Artikels ist es, einige der zentralen konzeptionellen und methodischen Fragen zu diskutieren, die angegangen werden müssen, wenn wir Armut gendersensibel untersuchen wollen. Der Zusammenhang zwischen Frauen und Armut ist komplex und daher sehr schwer aufzuzeigen: Die überproportionale Verwundbarkeit von Frauen ergibt sich aus dem Zusammenspiel wirtschaftlicher Benachteiligungen auf dem Arbeitsmarkt, in häuslichen Verhältnissen und in den Sozialsystemen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1004605021961 24469c94510cc55a29e2079e647bfe2a;de;;;2.4.;;;Eisen-Neurotoxizität bei der Parkinson-Krankheit Eisen spielt eine wesentliche Rolle bei der Entwicklung früher kognitiver Funktionen und bei der Aufrechterhaltung neuronaler Funktionen im reifen Gehirn, daher verfügen Neuronen über schnelle Mechanismen, um eine leicht verfügbare Eisenversorgung sicherzustellen. Eisen ist jedoch ein intrinsischer Erzeuger von reaktiven Sauerstoffspezies (ROS), und erhöhte Eisenspiegel fördern die Neurotoxizität aufgrund der Bildung von Hydroxylradikalen, des Glutathionverbrauchs, der Proteinaggregation, der Lipidperoxidation und der Nukleinsäuremodifikation. In diesem Kapitel werden die Komponenten der Eisenhomöostase und die Mechanismen diskutiert, durch die die Eisenhomöostase bei der Parkinson-Krankheit (PD) verloren geht. Insbesondere wird die Bedeutung endogener Toxine wie Aminochrom als Mediator der mitochondrialen Dysfunktion und von Hepcidin als Mediator von Entzündungsreizen diskutiert. Es wird ein Modell vorgeschlagen, das eine positive Rückkopplungsschleife zwischen Veränderungen des Eisen-, Glutathion- und ROS-Spiegels beschreibt, die mit dem Zelltod endet.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-1-4614-5836-4_11 33e994c5d6a568e3db59d09a47d82145;de;;;2.4.;;;Mesenchymale Stammzellen als Regulatoren der Karzinogenese Mesenchymale Stammzellen (MSCs) sind adulte Stammzellen, die aus verschiedenen Körperteilen, einschließlich Knochenmark, Fettgewebe und Zahngewebe, isoliert wurden, gut charakterisiert und in Anwendungen der regenerativen Medizin verwendet wurden. Das vielversprechende Potenzial von MSCs macht sie zu großartigen Kandidaten bei vielen Erkrankungen. In der Literatur ist bekannt, dass MSCs mit Krebszellen interagieren und den Karzinogeneseprozess in verschiedenen Stadien regulieren. Die doppelte Rolle von MSCs bei der Krebsprogression sollte auf physiologischer und molekularer Ebene klar identifiziert werden, um das klinische Potenzial bei der Krebsbehandlung zu identifizieren. Die fördernde oder unterdrückende Rolle von MSCs bei Krebs wird durch verschiedene Wachstumsfaktoren, Zytokine und Chemokine kontrolliert, die die Zellproliferation, Angiogenese und Metastasierung beeinflussen. Obwohl viele Studien durchgeführt wurden, um die Wechselwirkungen zwischen MSC und Krebszellen zu untersuchen, ist noch unklar, wie MSCs mit Krebszellen und der Tumormikroumgebung kommunizieren. Weitere Studien sind erforderlich, um sezernierte Faktoren und parakrine Wirkungen, die Tumorstromaumgebung, molekulare Regulatoren und nachgeschaltete Signalwege zu untersuchen, die an der MSC-Krebs-Interaktionsschleife beteiligt sind. MSC-Typ, Krebsart und stadienspezifische Veränderungen des phänotypischen und transkriptomischen Profils sollten im Detail identifiziert werden, um die klinische Anwendung von MSCs bei Krebs entweder als Ziel oder als Werkzeug zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/5584_2018_311 3f8e7f2183a1ce6deb8f9dcec848b407;de;;;2.4.;;;Neuromodulation von Bewusstseinsstörungen Einige Patienten können nach traumatischen und anderen Hirnverletzungen einen veränderten Bewusstseinszustand (Koma, vegetativer Zustand, minimaler Bewusstseinszustand) entwickeln. Während die Ursache ihres veränderten Bewusstseins in den meisten Fällen gut dokumentiert sein kann, müssen die genauen zugrunde liegenden Mechanismen, die das veränderte Bewusstsein und seine Behandlung vermitteln, noch entdeckt werden. Es wurden mehrere Hypothesen aufgestellt, wie das Bewusstsein verbessert werden kann, alle basieren auf dem Prinzip, dass ein verletztes Gehirn seine gestörten Bereiche wieder verbinden muss. Um diesem Bedarf gerecht zu werden, können verschiedene Neuromodulationstherapien (unter Verwendung invasiver und nichtinvasiver Stimulation) diesem Zweck dienen. Invasive Therapien verwenden chronische Elektroden zur Stimulation, während nichtinvasive Therapien transkranielle Magnetstimulation (TMS), transkranielle Gleichstromstimulation (tDCS) und somatosensitive Stimulation (SSS) verwenden. Der Zweck dieses Kapitels besteht darin, den Fortschritt dieser therapeutischen Methoden kritisch zu analysieren und zu überprüfen, was noch zur Verbesserung der beeinträchtigten Bewusstseinszustände erforderlich ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-28612-9_13 35febfa5124978dcef3ce4f9fbf2ffac;de;;;5.3.;;;Grenzschichten in planetaren Atmosphären In großräumigen Luftströmungen, nahe der Oberfläche eines Planeten, führt die kombinierte Wirkung von Druckgradient, turbulenter Reibung und Corioliskraft zur Bildung der atmosphärischen Grenzschicht. Im Gegensatz zu den meisten Grenzschichten, die in der Aerodynamik behandelt werden, ist die atmosphärische Grenzschicht durch den Einfluss der Corioliskraft (d. Somit ist die atmosphärische Grenzschicht eine turbulente Grenzschicht in einem rotierenden geschichteten Fluid.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-2599-7_4 dd000bc4444cf6dffd889df4b8bd0355;de;;;2.4.;;;Mitotischer Index und Größe symbiotischer Algen in Karibischen Riffkorallen Größe und Häufigkeit der Teilung wurden für Zooxanthellen von neun skleraktinischen Korallenarten bestimmt, die im Februar 1983 in Discovery Bay, Jamaika, aus vier Tiefen über einen bathymetrischen Bereich von 51 m gesammelt wurden. Die mittleren Durchmesser der Zooxanthellen lagen im Bereich von 6,4 bis 12,6 µm. Kleine Zooxanthellen wurden gefunden inella;-;-;-;https://link.springer.com/article/10.1007/BF00301979 5e8d4471684badf62fc5db14a770a50c;de;;;2.4.;;;Modellierung der Entwicklung von Sicherheitsfällen – Beispiele aus dem Bereich des Flugverkehrsmanagements Um die ATM (Air Traffic Management) 2000+ Strategie realistisch und kosteneffizient umzusetzen, werden Systeme verschiedener Anbieter zu einer vollständigen Funktions- und Betriebsumgebung verbunden, die Bodensegmente und Luft- und Raumfahrt umfasst. Die Industrie wird so früh wie möglich in den Lebenszyklus von ATM-Projekten eingebunden. EUROCONTROL verwaltet die Prozesse, die die Definition und Validierung neuer ATM-Lösungen beinhalten, unter Verwendung von Branchenkompetenzen (z. In der Praxis werden durch Sicherheitsanalysen Systemdesignmodelle (von Dritten erstellt) angepasst und wiederverwendet. Technische, organisatorische und kostenbedingte Gründe bestimmen oft diese Wahl, obwohl Bemessungsmodelle für die Sicherheitsanalyse ungeeignet sind. Dieses Papier befasst sich mit evolutionären Aspekten bei der Beurteilung der Sicherheit von ATM-Systemen. Das Hauptziel besteht darin, ein Modell hervorzuheben, das speziell auf die Unterstützung der evolutionären Sicherheitsanalyse ausgerichtet ist. Die systematische Erstellung von Sicherheitsanalysen (Modellen) wird die Kosten für die Durchführung von Sicherheitsanalysen senken, indem die Wiederverwendung in zukünftigen ATM-Projekten unterstützt wird.;-;-;-;https://link.springer.com/chapter/10.1007/11751113_7 b2dae6346ab47b3628522d8e73250b00;de;;;5.3.;;;Diagnostik solarer und astrophysikalischer Plasmen in Abhängigkeit von Autoionisationsphänomenen Dieses Kapitel zeigt Atomphysikern, wie nützlich Berechnungen mit Autoionisationseffekten für Astrophysiker sind. Die Berechnungen sind wichtig, wenn sie in spektroskopische Diagnosewerkzeuge integriert werden, die verwendet werden, um physikalische Bedingungen in astrophysikalischen Plasmen zu bestimmen. Die Diskussion hier beschränkt sich auf die Interpretation von Spektrallinienintensitäten bei ultravioletten und kürzeren Wellenlängen, und daher liegt der entsprechende Schwerpunkt auf Berechnungen mit hochionisierten Atomen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-4877-1_6 3accf31314a8c5f9ba704570abcccf4f;de;;;2.4.;;;Labortechniken für Transmissions-Röntgentopographie Die Transmissionstopographie ist ein leistungsfähiges Werkzeug zur Untersuchung von Defekten in Kristallen, und es wurden einige nützliche Übersichten veröffentlicht [1–3] Green [4] und Hartmann [5] lieferten detaillierte Übersichten über die kürzlich entwickelten Techniken der direkten Betrachtung von Defekten. Daher soll in diesem Artikel eher die eigene Erfahrung des Autors mit der Transmissionstopographie dargestellt werden als eine allgemeine Übersicht, um Überschneidungen mit den obigen Übersichtsarbeiten zu vermeiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-1126-4_15 f3d9fe70eb7c3eaf7b450e8ba7f3ee14;de;;;2.4.;;;Anwendung künstlicher Intelligenz zur Risikoanalyse für bewaldete Ökosysteme Waldökosysteme unterliegen einer Vielzahl natürlicher und anthropogener Störungen, die eine Strafe aus den Werten der menschlichen Bevölkerung ziehen. Solche Wertverluste (unerwünschte Auswirkungen) in Verbindung mit deren Eintrittswahrscheinlichkeiten stellen Risiken dar. Die Bewertung oder Vorhersage von Risiken für verschiedene Ereignisse ist eine wichtige Hilfestellung für die Waldbewirtschaftung. Techniken der künstlichen Intelligenz (KI) wurden aufgrund ihrer Fähigkeit, mit Unsicherheit, Unbestimmtheit, unvollständigen und ungenauen Spezifikationen, Intuition und qualitativen Informationen umzugehen, in der Risikoanalyse angewendet. Dieses Papier untersucht wissensbasierte Systeme, Fuzzy-Logik, künstliche neuronale Netze und Bayessche Glaubensnetze und ihre Anwendung auf die Risikoanalyse im Kontext bewaldeter Ökosysteme. Behandelte Störungen sind: Feuer, Insekten/Krankheiten, meteorologische und anthropogene. Insekten-/Krankheitsanwendungen verwenden ausschließlich wissensbasierte Systemmethoden, während meteorologische Anwendungen ausschließlich künstliche neuronale Netze verwenden. Bayessche Glaubensnetzwerkanwendungen sind fast nicht existent, obwohl sie viele theoretische und praktische Vorteile besitzen. Eingebettete Systeme, die neben traditionellen Methoden KI verwenden, sind nicht unerwartet weit verbreitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-2905-5_3 e3601b7bde935e0550bb6c38321e3b65;de;;;2.4.;;;Bestimmung des Spannungszustands aus fokalen Mechanismen mikroseismischer Ereignisse, die während der hydraulischen Injektion am Standort Hijiori Hot Dry Rock induziert wurden Der Spannungszustand am heißen Trockengesteinsstandort Hijiori wurde basierend auf der Inversion von fokalen Mechanismen mikroseismischer Ereignisse, die während hydraulischer Injektionsexperimente induziert wurden, geschätzt. Das am besten angepasste Spannungsmodell, das durch die gleichzeitige Umkehrung von 58 fokalen Mechanismen seismischer Ereignisse erhalten wurde, zeigt, dass die maximale Hauptspannung;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-8179-1_21 758ac2e3b6ff54ca0454b0648a1710a1;de;;;2.4.;;;Strukturelle Veränderungen in humanen Fibroblasten-Wachstumsfaktorrezeptoren bei der Karzinogenese Der Fibroblasten-Wachstumsfaktor (FGF) spielt eine wichtige Rolle bei der menschlichen Embryogenese, Angiogenese, Zellproliferation und Differenzierung. Die Karzinogenese wird von einer abweichenden konstitutiven Aktivierung von FGF-Rezeptoren (FGFRs) begleitet, die aus einer Missense-Mutation im;-;-;-;https://link.springer.com/article/10.1134/S0006297918080059 fda7e4a6e614b45a2dd35d091962559b;de;;;5.3.;;;Störungen von Lösungsmengen linearer Systeme Dieses Kapitel ist der Analyse von Stabilität und Störungen des zulässigen Kriteriumssatzes (FCS) gewidmet. Dieses Problem ist extrem wichtig, da die Daten in realen Anwendungen meist bis zu einem gewissen Grad gestört sind. Es ist erforderlich, dass die resultierenden Störungen eines FCS nicht zu erheblich sind. Mit anderen Worten, ein FCS muss kontinuierlich von den Datenstörungen abhängig sein. Dieses Kapitel befasst sich mit der Abschätzung solcher Störungen im linearen Fall. Das Problem wird auf die Schätzung von Störungen der zulässigen Entscheidungsmenge reduziert, die durch ein System linearer Ungleichungen und Gleichungen gegeben ist. Genauer gesagt wird der Abstand zwischen zwei Sätzen, dem ursprünglichen Satz und dem gestörten Satz, geschätzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-8851-5_9 bec1e70eeb7786a3caba709479928d8c;de;;;2.4.;;;Lungenaufnahme von Von zirkulierenden biogenen Aminen ist bekannt, dass sie von der Säugerlunge beseitigt werden. Ihre Lungenaufnahme gilt als Indikator für die Integrität des Lungenendothels. Leider ist ihre Verwendung als Marker für die Stoffwechselfunktion der Lunge in der Humanpathologie aufgrund ihrer biologischen Wirkung und der Art der radioaktiven Markierung ausgeschlossen (;-;-;-;https://link.springer.com/article/10.1007/BF00253443 c199ae8bf10b8cc590edd757cd2f8f16;de;;;2.4.;;;Zwei neue Gene Die Deaktivierung von Makrophagenfunktionen spielt eine wichtige Rolle bei menschlichen Infektions- und Entzündungskrankheiten. In dieser Studie wurde Differential-Display-RT-PCR verwendet, um die Genexpression menschlicher mononukleärer Phagozyten zu analysieren, die mit Interleukin (IL)-4, IL-10 und Dexamethason (DEX) deaktiviert wurden, in Abwesenheit und Vorliegen einer Infektion mit;-;-;-;https://link.springer.com/article/10.1007/s002510100306 77be85c5183919a00a0e87edc4e9693f;de;;;2.4.;;;Schlussfolgerungen und Auswirkungen In dieser Studie wurden die Rolle und Verantwortlichkeiten institutioneller Anleger entlang des Research-Modells untersucht. Das Researchmodell besteht aus sechs Schlüsselvariablen, die die Einfluss- und Überwachungsfunktion institutioneller Anleger auf die Corporate Governance deutscher börsennotierter Unternehmen erklären. Die Überwachungsfunktion wird durch die Aufsicht des Verwaltungsrats, die Nominierung des Verwaltungsrats und die Verbesserung des Unternehmenswertes definiert. Die beeinflussende Rolle wird durch die Variablen Empfehlungen an das Unternehmen definiert, die Änderungen in der Unternehmensstrategie und der Ausübung der institutionellen Macht bewirken. Die zentrale Forschungsfrage lautet: „Welche Rolle spielen institutionelle Investoren in der Corporate Governance?“;-;-;-;https://link.springer.com/chapter/10.1057/9781137327031_7 9016a120b4787e22a4d2a78889f817e1;de;;;2.4.;;;Der Mechanismus und die Entwicklung des Kriechens beim Trocknen von Roteiche Das Ziel dieser Forschung war es, das Ausmaß des mechanosorptiven und viskoelastischen Kriechens zu Beginn der Trocknung zu bestimmen und den Zusammenhang des Kriechens mit Feuchtigkeitsänderung und Belastungsniveau zu untersuchen. Alle Messungen wurden in tangentialer Richtung senkrecht zur Maserung mit Roteiche (Quercus sp.);-;-;-;https://link.springer.com/article/10.1007/BF02610711 fc4efbc083bfd9e9c50c96c8327e193d;de;;;2.4.;;;Lumineszenzanalyse von Aktiniden: Instrumentierung, Anwendungen, Quantifizierung, zukünftige Trends und Qualitätssicherung Seit der Entdeckung des Urans hat die Wirkung von Aktiniden in unserem Alltag dramatisch zugenommen, erstens durch die natürlich vorkommenden Elemente Th, Pa und U (die zuerst hauptsächlich als Farbpigmente oder zur Krebsbehandlung verwendet wurden) und zweitens durch die künstlichen , hergestellt in allen Schritten des Kernkraftprozesses (meist Pu, Np, Am und Cm). Angesichts des enormen Problems, sichere und nachhaltige Energie bereitzustellen, um den schnell steigenden Weltbedarf zu decken, wird die Kernenergie eines der Hauptanliegen dieses Jahrhunderts sein. Es ist daher von enormer Bedeutung, die damit verbundenen Probleme anzugehen, die mit der Sanierung alter Bergbau- und Mühlenstandorte, der Kontrolle spaltbarer Produkte während des gesamten nuklearen Stromproduktionszyklus und schließlich der langfristigen Entsorgung der anfallenden Abfälle zusammenhängen. Quantifizierung und Qualitätssicherung sind in diesem Bereich und im öffentlichen Interesse von größter Bedeutung. Aufgrund der radioaktiven Eigenschaften von Aktiniden sind diese Ziele jedoch noch schwieriger als bei anderen stabileren Elementen. Andere zu lösende Probleme beziehen sich hauptsächlich auf die Komplexität des chemischen Verhaltens von Actiniden, die zahlreiche Oxidationsstufen, eine starke Hydrolyseneigung und für die kurzlebigen (meist Elemente über Cm) Handhabungsprobleme aufweisen. Darüber hinaus schränkt der Konzentrationsbereich dieser Elemente in der Umwelt (hauptsächlich als Folge von Bergbau, Mahlen, Atombombentests und Unfällen) den Einsatz von Speziationstechniken ein, die sicher, schnell, zuverlässig und sehr empfindlich sein müssen . Glücklicherweise zeigen einige wichtige Aktiniden Lumineszenz, die sowohl zur Bestimmung komplexer Stabilitäten als auch zum direkten Nachweis der gebildeten Spezies in verschiedenen Umgebungen über einen weiten Konzentrationsbereich verwendet werden kann, von Ultraspuren über chemisch verwendbare Konzentrationen bis hin zu Aufbereitungsbedingungen .;-;-;-;https://link.springer.com/chapter/10.1007/4243_2008_050 abfe8f63ba263bfc7e44a343c13250ac;de;;;5.3.;;;Evolutionäres Verhalten induzierter Diskontinuitäten hinter eindimensionalen Stoßwellen in nichtlinearen elastischen Materialien Die maßgebende Differentialgleichung induzierter Diskontinuitäten hinter eindimensionalen Stoßwellen in nichtlinearen elastischen Materialien wurde abgeleitet. Diese Gleichung hängt insbesondere von der Stoßamplitude selbst ab. Daher hängt seine Lösung von der Lösung der maßgebenden Gleichung der Stoßamplituden ab, die wiederum von den induzierten Unstetigkeiten abhängen. Im Spezialfall der Näherung erster Ordnung wird gezeigt, dass eine kritische Stoßamplitude;-;-;-;https://link.springer.com/article/10.1007/BF00041424 c843991e248e1a8227f914b24b07d5de;de;;;5.3.;;;Verwalten von Multitask-Dialogen mit Hilfe einer statistischen Dialogverwaltungstechnik Eine der anspruchsvollsten Aufgaben bei der Entwicklung eines Dialogsystems besteht darin, die nächste Systemreaktion unter Berücksichtigung der Benutzeraktionen und der Dialoghistorie zu entscheiden, was die grundlegende Verantwortung für das Dialogmanagement ist. In dieser Arbeit wird eine statistische Dialogverwaltungstechnik vorgeschlagen, um den Aufwand und die Zeit zu reduzieren, die zum Entwerfen des Dialogmanagers erforderlich sind. Diese Technik ermöglicht nicht nur eine einfache Anpassung an neue Domänen, sondern auch die Bewältigung der unterschiedlichen Teilaufgaben, für die das Dialogsystem konzipiert wurde. Die praktische Anwendung der vorgeschlagenen Technik zur Entwicklung eines Dialogsystems für einen Reiseplanungsbereich zeigt, dass die Verwendung aufgabenspezifischer Dialogmodelle die Qualität und Anzahl erfolgreicher Interaktionen mit dem System im Vergleich zur Entwicklung eines einzigen Dialogmodells für die gesamte Domain.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9323-9_6 b2d5d98547a4b811342d015983379dab;de;;;2.4.;;;Verarbeitungs- und Vulkanisationstests In diesem Kapitel werden wir die Aufmerksamkeit auf die Testverfahren und Instrumente lenken, die verwendet werden, um zwei der kritischsten Eigenschaften von Gummi und Gummimischungen zu messen:;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-7823-9_4 00fea3dad9140d28f94ef23e650b32c5;de;;;2.4.;;;Vollständige Modellierung der elektromagnetischen Streuung durch eine Dipolwolke In diesem Beitrag werden Untersuchungen zur Radarreflektivität einer Dipolwolke beschrieben. Es werden zwei Methoden der analytischen Berechnung diskutiert, die eine Beschreibung des von einem Dipol gestreuten Feldes ermöglichen, und einige ungefähre Ausdrücke des durchschnittlichen Radarquerschnitts (rcs) einer Wolke werden erstellt. Eine feine Analyse der Beugungsphänomene und eine Leistungsbewertung ermöglichen es, die verschiedenen elektromagnetischen Störungen (Stör- und Kopplungseffekte) zu isolieren und die Dämpfung des einfallenden Feldes in der Wolke, d. Eine mit etwa hundert Elementen getestete statistische Mittelungssoftware zeigt, dass der Abschirmungseffekt die einzige elektromagnetische Ursache ist, die den durchschnittlichen rcs einer Wolke spürbar begrenzt. Eine schnellere Berechnungstechnik ermöglicht es dann, ihren Einfluss auf einige Wolken in realer Größe zu spezifizieren.;-;-;-;https://link.springer.com/article/10.1007/BF02995740 ae575e6aac7135f34b45a60a22279c56;de;;;2.4.;;;Die klinische Relevanz von Lymphozyten-Oberflächenmarkern bei akuter lymphatischer Leukämie bei Erwachsenen Die immunologische Klassifikation auf der Grundlage von Lymphozyten-Oberflächenmarkern der Leukämiezellen ist bei akuter lymphatischer Leukämie im Kindesalter weit verbreitet [1–3]. Mehrere Studien weisen auf die klinische Bedeutung einer solchen Klassifikation hin. Es liegen jedoch relativ wenige Daten zur immunologischen Klassifikation der erwachsenen ALL vor. Dieser Artikel fasst den aktuellen Wissensstand über den klinischen Nutzen der Klassifikation der adulten ALL nach dem immunologischen Phänotyp der neoplastischen Zelle, wie durch Oberflächenmarker definiert, zusammen. Die wichtigsten Immunologieklassen, die bei der erwachsenen ALL identifiziert wurden, werden zuerst beschrieben. Anschließend werden die biologischen und klinischen Eigenschaften der wichtigsten Immunologieklassen vorgestellt. Schließlich werden die therapeutischen und prognostischen Implikationen dieser Klassen betrachtet. Die Daten in diesem Artikel stammen aus drei Hauptquellen: der veröffentlichten Literatur, der Reihe der University of Minnesota und dem Third International Workshop on Chromosomen in Leukemia.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-7433-3_9 8c73674a6d705174702b506d88e1fe07;de;;;2.4.;;;Genexpression bei Lungenkrebs Lungenkrebs ist die häufigste tödliche bösartige Erkrankung sowohl bei Männern als auch bei Frauen in den Industrieländern, an denen jährlich über 40.000 Menschen in Großbritannien sterben [1]. Die Diagnose dieser Erkrankung ist in der Regel mit einer Prognose einer Überlebensrate von weniger als 5 % verbunden. Der größte Risikofaktor für Lungenkrebs ist das Rauchen von Zigaretten. Neben dem Rauchen sind andere Umwelt- und Berufsexpositionen wie aromatische Kohlenwasserstoffe, Radon, Asbest, Nickel, Arsen und Chrom wichtige Determinanten des Lungenkrebsrisikos. Obwohl Lungenkrebs durch Eliminierung dieser Expositionen weitgehend vermeidbar ist, wird diese Krankheit auf absehbare Zeit ein großes Problem für die öffentliche Gesundheit darstellen, da Ex-Raucher weiterhin ein deutlich erhöhtes Risiko haben, an Lungenkrebs zu erkranken. Darüber hinaus wird erwartet, dass die Inzidenz von Todesfällen durch Lungenkrebs, die nicht mit dem Rauchen zusammenhängen, in den nächsten 20 Jahren weiter ansteigen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-8784-7_9 d2ebe8a36154b93cf07d7e031fa4e7a1;de;;;2.4.;;;Morphosyntaktische Variation und syntaktische Konstruktionen in der tschechischen Nominaldeklination: Korpushäufigkeit und muttersprachliche Urteile Daten aus dem Tschechischen Nationalkorpus und eine groß angelegte Erhebung von Akzeptanzurteilen werden verwendet, um den Umfang der morphosyntaktischen Variation in zwei Fällen (Genitiv Singular und Lokativ Singular) eines tschechischen Deklinationsmusters zu untersuchen. Es wird gezeigt, dass die syntaktische Konstruktion, in der eine Form gefunden wird, eine signifikante Wechselwirkung mit ihrer Häufigkeit im Korpus und mit ihrer Akzeptanzbewertung hat. Wir schlussfolgern, dass das Muster der Akzeptanzpräferenzen die Verankerungshypothese und allgemein emergente Sprachansätze unterstützt.;-;-;-;https://link.springer.com/article/10.1007/s11185-011-9083-x 9f2848addd7c28924578ca4018be5891;de;;;5.3.;;;GRAF-Passwort für eine sicherere Benutzerauthentifizierung Derzeit gibt es viele Authentifizierungsschemata. Einige von ihnen basieren auf den physischen und Verhaltenseigenschaften des Benutzers, und einige andere Authentifizierungsschemata basieren auf dem Wissen des Benutzers wie Text- und Grafikpasswörtern. Darüber hinaus gibt es einige andere wichtige Authentifizierungsschemata, die auf Ihrem Besitz basieren, z. B. Smartcards. Das GRAF-Passwort ist ein Authentifizierungsschema, das auf einer virtuellen Umgebung basiert, indem es als Reaktion auf Aktionen hinzugefügt wird, die an einem Objekt ausgeführt werden. Daher wird der resultierende Passwortraum im Vergleich zu allen existierenden Authentifizierungsschemata sehr groß.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36321-4_4 1b409b63e86af6388fa4a1f00edd0388;de;;;5.3.;;;Auf dem Ohsawa-Takegoshi-Manivel Eines der Ziele dieser Arbeit ist es, auf verschiedene Weise die Stärke der grundlegenden Werkzeuge zu demonstrieren, die Pierre Lelong für das Studium der Komplexen Analysis und der analytischen oder algebraischen Geometrie eingeführt hat. Wir geben zunächst eine ausführliche Vorstellung des Ohsawa-Takegoshi;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-8436-5_3 1f5b28209f323e7472c0be11c51a565e;de;;;5.3.;;;Menschliches Verhaltensverständnis für Robotik Menschliches Verhalten ist komplex, aber nach individuellen und sozialen Gesichtspunkten strukturiert. Robotersysteme, die mit Menschen in unkontrollierten Umgebungen interagieren, benötigen Fähigkeiten, um menschliches Verhalten korrekt zu interpretieren, vorherzusagen und darauf zu reagieren. In diesem Beitrag werden die wissenschaftlichen, technologischen und anwendungsbezogenen Herausforderungen diskutiert, die sich aus der gegenseitigen Interaktion von Robotik und computergestütztem Verständnis des menschlichen Verhaltens ergeben. Wir liefern einen kurzen Überblick über das Gebiet, um einen kontextuellen Rahmen zu schaffen und die neuesten Forschungen auf diesem Gebiet zu beschreiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34014-7_1 ef0ffb843912cefdb1d643b282f78064;de;;;5.3.;;;Erstellen von persönlichen Reiseführern aus Diskursplänen Dieses Papier beschreibt ein System, das auf individuelle Bedürfnisse zugeschnittene Reiseführer liefert. Dies geschieht durch die Integration eines Diskursplaners mit einem System zum Abfragen des Webs und zum Generieren synthetisierter Webseiten unter Verwendung von Dokumentvorschriften. Wir zeigen exemplarisch, wie ein Nutzermodell zu einem persönlichen Reiseführer führen kann und wie dieser in verschiedenen Medien aussehen könnte. Wir beschreiben kurz die Untersuchungen, die wir durchführen, um den Nutzen solcher Ansätze zu bestimmen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44595-1_54 9b89bf1ca6916665db700d81e5c56bdc;de;;;2.4.;;;Rezidivierende Harnwegsinfektionen bei Frauen: Klinische Studie mit Cephradin als Prophylaxe Cephradin 250 mg nachts über 12 Monate wurde als prophylaktische Maßnahme 33 weiblichen Patienten mit einem Durchschnittsalter von 41,6 Jahren verabreicht, die in den vorangegangenen 12 Monaten zwischen drei und 24 (Median = 7) Episoden von Häufigkeit und/oder Dysurie in der Vorgeschichte hatten . Bei einer solchen Behandlung betrug der mittlere Zeitraum zwischen den symptomatischen Anfällen 300 Tage, während die Anfälle vor der Behandlung mit einer mittleren Häufigkeit von 60,3 Tagen auftraten. So verlängerte prophylaktisches Cephradin das Intervall zwischen den Attacken um das Fünffache. In insgesamt 9002 Behandlungstagen traten nur fünf Bakteriurien-Durchbruchinfektionen auf. 27 % der Patienten berichteten von „wahrscheinlich“ oder „möglicherweise“ behandlungsbedingten Nebenwirkungen. Daher scheint Cephradin genauso wirksam und besser verträglich zu sein als makrokristallines Nitrofurantoin, das derzeit das Mittel der Wahl zur Prophylaxe von wiederkehrenden Harnwegsinfektionen ist.;-;-;-;https://link.springer.com/article/10.1007/BF01647735 5f2eb8c046fb3da5e2ddda8cb2fe63e0;de;;;2.4.;;;Neue Ansätze für die Nanotheranostik: Polyfunktionelle magnetische Nanopartikel, die durch Nichterhitzen eines niederfrequenten Magnetfelds aktiviert werden, biochemisches System mit molekularer Lokalität und Selektivität In dieser Arbeit wurde ein neuartiger Ansatz zur magnetischen Nanotheranostik basierend auf der Aktivierung magnetischer Nanopartikel (MNPs) mit einem nicht erwärmenden niederfrequenten Magnetfeld beschrieben. Elektromagnetische biomedizinische Technologien, die in niederfrequenten, nicht heizenden und hochfrequenten heizenden Magnetfeldern eingesetzt werden, wurden kurz überprüft und verglichen. Es hat sich gezeigt, dass die Aktivierung von MNPs mit nicht erwärmenden Magnetfeldern mehrere Vorteile gegenüber der Aktivierung mit erwärmenden Magnetfeldern hat, nämlich einen universelleren Charakter und eine bessere Penetrationsfähigkeit in Gewebe, einfache Dosierung und Kontrolle, höhere Lokalität und Sicherheit, molekulare Selektivität und geringere Kosten. Eine Kombination von von uns entwickelten und patentierten Verfahren kann eine technologische Plattform für niederfrequente magnetische Theranostiken der neuen Generation bilden, die deutlich effektiver ist und mehr Möglichkeiten bietet als die konventionelle Radiofrequenz-Theranostik.;-;-;-;https://link.springer.com/article/10.1134/S1995078018030060 c8080ab849aa36b379d0e33fdfad56c5;de;;;2.4.;;;Kognitive Pädagogik oder ein streng nominalistischer Ansatz in der Pädagogik Wie wichtig sind Sprachabweichungen und Sprachstörungen im Bildungsprozess? Haben wir es hier mit etwas Marginalem im Bildungsprozess zu tun oder sind wir eher unmittelbar mittendrin? Mit anderen Worten: Ist die Betrachtung von Sprachabweichungen und -störungen ein Phänomen, das am Rande des gesamten Bildungsprozesses liegt? Die Antwort auf diese Frage wird bestimmen, wie man mit Sprachabweichungen und ihrer Behandlung umgeht. Betrachtet man es als Randerscheinung, so ist Sprachabweichung nur eine Angelegenheit, die a) für einige wenige Spezialisten relevant ist, die als oder mit Logopäden dem abweichenden Kind helfen müssen, wenn seine Abweichung sehr groß oder hinderlich wird, oder b) es ist Sache der Allgemeinpädagoge, wenn er Freizeit hat oder seine globalen Ziele verwirklicht hat oder als Verschnaufpause, um sich mit der Sprache seiner Patienten, seiner Kinder, zu beschäftigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-1574-3_4 ef96162fd22dc3ebf7162a60438aa710;de;;;5.3.;;;SafeRoute: Ein Beispiel für Multisensoring-Tracking für ältere Menschen, die Mobiltelefone mit Umgebungsintelligenz verwenden Neue Technologien sind zu einer wichtigen Unterstützung für die Überwachung älterer Menschen im Freien durch ihre Betreuer geworden. Smartphones, die mit einer Vielzahl leistungsstarker Sensoren ausgestattet waren, ermöglichten die allgegenwärtige Erkennung menschlicher Aktivitäten auf mobilen Plattformen zu geringen Kosten. Ambient Intelligence (AmI) ist ein aufstrebender Bereich, der nützliche Mechanismen bereitstellt, die es ermöglichen, ältere Menschen durch opportunistische Sensorik mit Smartphones zu verfolgen. Dieses Papier zielt darauf ab, die zweite Version von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19033-4_17 9eb58374148246d92b83d7953d4960b9;de;;;5.3.;;;Die Turn-, Stretching- und Boxtechnik: Ein Schritt in die richtige Richtung Dieses Papier beschreibt eine Kombination von drei grafischen Verfahren zum Rendern eines 3D-Avatars für einen intelligenten virtuellen Agenten (IVA) auf einem 2D-Display, das die wahrgenommene;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33197-8_37 a4d6db05bd26f6d29248864fd40ec5aa;de;;;5.3.;;;Ein szenariozentrierter Ansatz zur Emotionsprofilierung basierend auf der EEG-Signalverarbeitung In diesem Beitrag wird untersucht, wie der Einsatz physiologischer Wahrnehmungen zur Messung menschlicher Emotionen die Welt in Bereichen wie Bildung, Mensch-Roboter-Schnittstellen, Bewerbungen, Interaktion mit Freunden, Liebesfindung und letztendlich Leben verändern wird. Eine besonders interessante Frage bezieht sich beispielsweise auf die Emotionen der Menschen in Bezug auf eine „gute“ Arbeitsleistung durch die Einführung automatisierter Systeme, die versuchen, die von Maschinen zu erledigenden Aufgaben gegenüber denen von Menschen zu erledigenden Aufgaben auszubalancieren und so die Gesamtleistung zu verbessern. In solchen Fällen müssten wir prüfen, ob das emotionale Verhalten, das Menschen zeigen, wichtige Schlüssel zum Aufbau erfolgreicherer und produktiverer Systeme ist und ob das Entfernen von Emotionen kontraproduktiv ist. Außerdem überlegen wir, ob die Erdung von Mensch-Computer-Schnittstellen im reichen und komplexen emotionalen Leben der Menschen zu effektiveren und produktiveren Systemen führen kann? In diesem Beitrag werden solche Probleme anhand eines szenariozentrierten Designansatzes namens Science-Fiction-Prototyping untersucht, der darauf abzielt, das Design solcher emotionsbasierten Systeme etwas genauer zu beleuchten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-02242-6_26 72634be36ff96c16de8d471c343da880;de;;;5.3.;;;Nullsummenspiele für zeitdiskrete Systeme basierend auf modellfreiem ADP In diesem Kapitel werden Nullsummenspiele für zeitdiskrete Systeme auf Basis des modellfreien ADP-Verfahrens untersucht. Zuerst wird über den iterativen ADP-Algorithmus ein effektives datenbasiertes optimales Steuerschema entwickelt, um den optimalen Controller einer Klasse von zeitdiskreten Nullsummenspielen für 2-D-Systeme vom Roesser-Typ zu finden. Da die exakten Modelle vieler 2-D-Systeme nicht inhärent erhalten werden können, wird erwartet, dass das iterative ADP-Verfahren die Anforderung exakter Systemmodelle vermeidet. Zweitens wird ein datenbasierter optimaler Output-Feedback-Controller zum Lösen der Nullsummenspiele einer Klasse von zeitdiskreten Systemen entwickelt, dessen Vorzug darin besteht, dass nicht nur Kenntnisse des Systemmodells, sondern auch keine Informationen über das System erforderlich sind Zustände. Die theoretische Analyse und eine Simulationsstudie zeigen die Validität der vorgestellten Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-4757-2_8 02db2d9ba60fe809e1435a462e1bbde5;de;;;2.4.;;;Wasserstoff in amorphem Ni-Zr: Druckkonzentrationsisothermen, Platzbesetzung und Bindungsenergien Es werden Messungen von Druckkonzentrations-(p-c)-Isothermen von Wasserstoff in einer Vielzahl von amorphen Ni-Zr-Legierungen vorgestellt. Die Messungen werden durch eine Analyse von Wasserstoffzentren in computergenerierten amorphen Clustern ergänzt. Die Bindungsenergie dieser Stellen wurde unter Verwendung einer Theorie des effektiven Mediums berechnet. Das zufällige Auffüllen dieser Stellen in der Reihenfolge abnehmender Bindungsenergie mit einem Ausschluss des nächsten Nachbarn führt zu einem chemischen Potential in Übereinstimmung mit dem, was aus den (p-c)-Isothermen gefunden wird. Im erforderlichen Druckbereich eines Wasserstoffspeichers (1–10 atm) besetzt der Wasserstoff Zwischengitterplätze, die von 3Zr, 1Ni-Atomen oder 2Zr, 2Ni-Atomen umgeben sind.;-;-;-;https://link.springer.com/article/10.1557/JMR.1986.0765 e3e771446d30cc5ff37e89a301445d03;de;;;2.4.;;;Membranverhalten bei Trockenheit und ihre physiologische Bedeutung In den letzten zehn Jahren wurden zahlreiche Anstrengungen unternommen, um den Mechanismus der Austrocknungstoleranz bei Pflanzen und Tieren zu verstehen, insbesondere bei solchen, die die als Anhydrobiose bekannte extreme Dehydration aufweisen (Crowe und Clegg 1978, Leopold, 1986). Die Forschung hat sich auf folgende Bereiche konzentriert: Stoffwechselveränderungen bei Trockenstress, insbesondere Kohlenhydrate, Biochemie und Biophysik von Membranlipiden, Veränderungen der DNA/RNA- und Proteinsynthese, hormonelle Regulation der Austrocknungstoleranz sowie weitere angewandte Aspekte wie der Einfluss Umweltfaktoren während der Samen- und Pollenrehydration.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0617-7_7 4840dba7f3cbaec11ff51f12b5c09544;de;;;5.3.;;;Design des Wave Rider basierend auf der Shock-Fitting-Methode Das Design von Waveridern zieht derzeit immer mehr Aufmerksamkeit auf sich und ist von besonderem Interesse für Hyperschallanwendungen. Der Artikel importiert Shock Fitting Methods, um die dreidimensionale Hyperschallströmung zu berechnen, um Stoßwellen präzise zu erfassen. Die Wahl des stoßerzeugenden Körpers ist sehr wichtig, da er das Stoßströmungsfeld beeinflusst. Es kann einstufig oder mehrstufig sein. In dieser Arbeit wird der stoßerzeugende Körper mit Doppelkegel vorgestellt, um Auftrieb/Widerstand und das Druckzentrum des Wellenreiters zu modifizieren. Entsprechend der Beschränkung des Verhältnisses von Länge zu Breite wird die Stoßfläche geschnitten und dann wird die Außenlinie der Wellenreitfläche bestimmt. Unter Berufung auf die technische Anwendung wird die leeseitige Oberfläche entworfen. Die Ergebnisse zeigen, dass Auftrieb/Widerstand des technischen Wellenreiters relativ höher ist als bei gewöhnlichen Fahrzeugen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3305-7_101 53c247c403e1b7d52f8c99f8d90eed99;de;;;5.3.;;;Verbesserung der Robustheit der Schultergestenerkennung mit der Kinect V2-Methode für Echtzeitbewegungen Die Bestätigung von Schulterbewegungen ist ein wichtiger Punkt in der Mensch-PC-Kollaboration. Ungeachtet dessen ist ein großer Teil der gegenwärtigen Strategien verworren und langwierig, was die Verwendung von Handbewegungs-Bestätigungsbedingungen progressiv einschränkt. In diesem Artikel schlagen wir eine auf Informationskombinationen basierende Bestätigung der Schulterbewegung vor, die durch die Verschmelzung von Tiefendaten und Skelettinformationen demonstriert wird. Angesichts der genauen Aufteilung und nach Kinect V2 kann das funktionierende System eine fortlaufende Ausführung erreichen, die schneller ist als ein Teil der besten Techniken seiner Klasse. Die dynamische Regionssegmentierung wird präsentiert. Diese Arbeit beschäftigt sich mit der Erkennung von Schulterbewegungen. Dies garantiert den Einsatz in verschiedenen zertifizierbaren Mensch-PC-Kooperationen und verbessert die Nutzung in Echtzeit ohne jegliche Entfernungseinschränkung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9690-9_4 1c6b77011bd40eda7e42e4b0e62569de;de;;;5.3.;;;Intelligente Computeranwendungen basierend auf Eye Gaze: Ihre Rolle bei der medizinischen Bildinterpretation Die visuelle Aufmerksamkeit des Menschen ist eingeschränkt, was zu Fehlern bei der Inspektion von medizinischen Bildanzeigen führt. Computer Aided Diagnosis (CAD) wird manchmal verwendet, um Fehler bei der Überwachung zu reduzieren. Es wird eine neue Anwendung im intelligenten Computing vorgeschlagen, um die Effizienz von CAD basierend auf einer gezielten Bildverarbeitung basierend auf dem Wissen darüber zu verbessern, wohin ein Betrachter in einem Bild schaut. Der Bereich der medizinischen Bildgebung und des Brustscreenings wird verwendet, um ein Beispiel für den Ansatz zu bieten und zu zeigen, wie er zur Verbesserung der aktuellen radiologischen diagnostischen Leistung verwendet werden könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14831-6_43 0081d698450cb035f307d05707d80fd1;de;;;5.3.;;;Forschung zur digitalen Campuslandschaftsmodellierung der ostchinesischen Jiaotong University In diesem Artikel haben wir die East China Jiaotong University als Fall ausgewählt, um die digitale Campus-3D-Landschaftsmodellierungstechnologie zu untersuchen. Mit der GIS- und Virtual-Reality-Technologie und Google SketchUp erstellen wir ein digitales 3D-Campuslandschaftsmodell und eine Datenbank mit Designattributen. Diese Studie legte den Grundstein für die weitere Erforschung des digitalen Campus der East Jiaotong University.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45025-9_11 f439f441d4fcfa5cd0da0cee4575d256;de;;;5.3.;;;Intelligente Diagnose von anormalen Arbeitsbedingungen im Koksofenheizprozess durch fallbasierte Argumentation Um die Fehlerquote des Koksofenheizprozesses zu reduzieren, wird basierend auf der Analyse des Fehlermechanismus und der fallbasierten Argumentation (CBR) ein intelligentes Diagnosemodell für abnormale Arbeitsbedingungen für den Koksofenheizprozess vorgeschlagen. Die Wahrscheinlichkeit des typischen Fehlers und deren Bedienungsführung wird mit Hilfe der Case-Based- Reasoning-Technologie gewonnen. Die Wissensrepräsentation von Case und die Struktur von Case-based werden untersucht, und die Algorithmen des Retrievals, des Lernens und der Wiederverwendung werden diskutiert. Das vorgeschlagene Diagnosesystem für abnormale Arbeitsbedingungen wird erfolgreich auf den Koksofenheizprozess angewendet, die Fehlerquoten während des Produktionsprozesses werden verringert und der nachgewiesene Vorteil wird erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19853-3_35 c7a24e682b5b5d018c6a3a0066905de2;de;;;5.3.;;;Erhöhte Wertschätzung der Benutzer von sphärischen Videos durch Finger-Touch-Interaktion In diesem Manuskript stellen wir ein System vor, um sphärische Videos auf mobilen Geräten zu schätzen, indem eine Benutzeroberfläche verwendet wird, die es Benutzern ermöglicht, Videos per Fingerberührung abzuspielen. Bei herkömmlichen Virtual Reality (VR)-Medien, die Schnittstellen wie eine Wiedergabeschaltfläche und eine Suchleiste für Videos verwenden, beenden Benutzer das Ansehen der Videos, bevor sie den gesamten Inhalt anzeigen. Frühere Systeme konnten das Interesse der Benutzer an Inhalten nicht effektiv wecken, da es sich um passive Medien handelt, die weniger Interaktion erfordern. In unserem vorgeschlagenen System können Benutzer virtuelle Objekte interaktiv berühren und manipulieren, wodurch die Benutzerbewertung erhöht und ein signifikantes VR-Erlebnis erreicht wird. Wir haben unser vorgeschlagenes Interface evaluiert, indem wir ein demonstratives Experiment in einer realen Ausstellung durchgeführt haben. Die Ergebnisse zeigten, dass die Benutzer mit unserer vorgeschlagenen Schnittstelle mehr Videoframes scrollten als mit herkömmlichen Schnittstellen. Bei herkömmlichen Schnittstellensystemen stoppten viele Benutzer ihre Erfahrung mitten in der Wiedergabe, bevor das Video endete, und 37 % der Benutzer spielten das Video zu Ende. Mit unserer vorgeschlagenen Benutzeroberfläche haben sich jedoch 71 % der Benutzer das gesamte Video angesehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-40349-6_53 376f0e2aafd4fab3b3c07a96ecbccbdd;de;;;5.3.;;;Gesichts- und Handgestenerkennung zur sicheren Steuerung von Geräten Kürzlich wurde die Anwendung von Handerkennung und Gesichtserkennung in intelligenten Geräten installiert und ausgeführt, um einigen Anforderungen des menschlichen Lebens gerecht zu werden. Bei der Erkennung gibt es jedoch noch Schwierigkeiten wie Beleuchtung, komplexer Hintergrund und Geschwindigkeit im Echtzeitmodus. In diesem Beitrag schlagen wir eine Gesichts- und Handgestenerkennung zur sicheren Steuerung von Geräten vor. Gesichts- und Handgestenerkennung werden kombiniert, um elektrische Geräte zu sichern und zu steuern. Die Kombination zwischen Gesichts- und Handgestenerkennung weist noch einige Herausforderungen auf, wie z. B. gleiche Form und gleiche Hautfarbe zwischen Hand und Gesicht usw. Das Hauptziel dieser Studie ist es, die Erkennungsfähigkeit mit einer hervorragenden Genauigkeitsrate zu verbessern und die Prozessgeschwindigkeit in der richtigen Reihenfolge zu beschleunigen um den Echtzeitmodus in einigen Anwendungssystemen zu erfüllen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-04792-4_44 c7af52f119311076d3407226560b4157;de;;;5.3.;;;Auf dem Weg zu einer operationalen Definition von Verfahrensrhetorik Die Identifizierung der Merkmale, die zur Effektivität eines Spiels als Lernwerkzeug beitragen, ist eine Schlüsselaufgabe der spielbasierten Lernforschung. Befürworter prozeduraler Rhetorik behaupten, dass die Repräsentation durch regelbasierte Systeme entscheidend für die Effektivität von Serious Games ist. Diese Behauptung wurde jedoch in der empirischen Forschung nie gründlich überprüft. Eine Möglichkeit, die Wirkung von Verfahrensrhetorik zu testen, ist die Wertschöpfungsforschung. Dieser Ansatz wurde erfolgreich in Studien zu multimedialen Lernmaterialien sowie zu Serious Games angewendet. Dennoch stellt der Ansatz der Wertschöpfungsforschung bei der Verfahrensrhetorik erhebliche Herausforderungen. Diese Herausforderungen ergeben sich aus der komplexen Beziehung zwischen prozeduraler Repräsentation und anderen Spielelementen und Kommunikationsmodi. Ziel dieses Beitrags ist es, diese Herausforderungen durch die Operationalisierung der prozeduralen Rhetorik zu bewältigen. Wir schlagen ein Analyseverfahren vor, das auf multimodalen Analysemethoden in Kombination mit bestehenden Spielanalyse-Frameworks basiert. Wir veranschaulichen dieses Vorgehen anhand einer Beispielanalyse des Spiels;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-34350-7_15 0ebed855c7f2af1d0a84c832e1d91c4c;de;;;5.3.;;;Nasenlokalisierung basierend auf Unterklassen-Diskriminanzanalyse Die Nasenlokalisierung ist wichtig für die Gesichtserkennung, die Erkennung der Gesichtspose, die 3D-Gesichtsrekonstruktion usw. In dieser Arbeit wird eine neuartige Methode zur Nasenlokalisierung vorgeschlagen. Unsere Methode umfasst zwei auf der Unterklassen-Diskriminanzanalyse (SDA) basierende Schritte. Im ersten Schritt wird die Nase aus dem gesamten Gesichtsbild lokalisiert und einige zufällig ausgewählte Bildfelder werden als Negativproben für das Training des SDA-Klassifikators verwendet. Der zweite Schritt verfeinert die Nasenposition, indem einige Nasenkontextfelder als negative Abtastwerte verwendet werden. Das vorgeschlagene Verfahren erkennt die Nase aus dem gesamten Gesichtsbild und es werden keine Vorkenntnisse über das Layout von Gesichtskomponenten auf einem Gesicht verwendet. Experimentelle Ergebnisse zu AR-Bildern zeigen, dass die vorgeschlagene Methode die Nase aus Gesichtsbildern genau lokalisieren kann und robust gegenüber Beleuchtungs- und Gesichtsausdrucksänderungen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31837-5_34 dd22224b8ae78473e4206214b1d13dfb;de;;;5.3.;;;Bewertung von Systemen zur Erkennung menschlicher Aktivitäten für AAL-Umgebungen Das Hauptziel des EvAAL Activity Recognition Tracks besteht darin, eine der Säulen des Ambient Assisted Living (AAL) zu bewerten: Human Activity Recognition (AR). In dieser Ausgabe nahmen 4 Teams aus den Vereinigten Staaten, Irland, Spanien und Japan am Wettbewerb teil. Die Ergebnisse zeigen, dass auf Beschleunigungsmessern basierende Lösungen aufgrund ihrer geringen Größe und ihrer Integration in komplexe Geräte wie Mobiltelefone oder elastische Trageriemen vielversprechend sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37419-7_10 c1d19511532834e356423aeca16f4929;de;;;5.3.;;;Bewertung eines künstlichen neuronalen Netzes bei der Klassifizierung des menschlichen Geschlechts basierend auf Geruch Biometrie ist eine fortschrittliche Methode der Personenerkennung, da sie eine direktere und explizitere Verbindung zu Menschen herstellt als Passwörter, da die Biometrie messbare physiologische und Verhaltensmerkmale einer Person verwendet. In diesem Papier wird ein Rahmen für die Anerkennung des Geschlechts vorgeschlagen, der auf menschlichem Geruch basiert. 20 Proben menschlichen Geruchs von Männern und Frauen werden gesammelt und nur 16 von 198 flüchtigen organischen Verbindungen (VOCs) werden mithilfe des Chi-Quadrat-Tests und der Entropie für die Geschlechtserkennung und -klassifizierung mithilfe künstlicher neuronaler Netze ausgewählt. In diesem Papier wurden mehrere verschiedene neuronale Netzwerkaktivierungsfunktionen getestet (z. B. Levenberg-Marquardt-Backpropagation, Gradient Descent Backpropagation und Resilient Backpropagation) und mehrere verschiedene neuronale Netzwerktopologien werden auch mit einer Vielzahl von versteckten Schichten und einer Anzahl von Neuronen getestet. Es wurde auch festgestellt, dass mit 2 versteckten Schichten mit einer größeren Anzahl von Neuronen in den versteckten Schichten (16 und 16 Neuronen in der versteckten Schicht) eine höhere Leistungsgenauigkeit erzielt werden konnte. Der beste Lernalgorithmus, der in der Arbeit zur Geschlechtserkennung angewendet werden kann, ist der Gradient Descent-Lernalgorithmus. Es ist auch bemerkenswert, dass 8 von 9 Fällen, in denen alle männlichen Proben richtig erkannt oder klassifiziert werden können, verglichen mit den 3 von 9 Fällen, in denen alle weiblichen Proben korrekt erkannt oder klassifiziert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8276-4_31 f430083dfdc03f19c3e445084b8ee2e4;de;;;5.3.;;;Die Rolle der Ambient Intelligence in zukünftigen Beleuchtungssystemen – Zusammenfassung des Workshops LED-basierte Beleuchtungssysteme haben im Bereich der künstlichen Beleuchtung radikal neue Möglichkeiten eröffnet. Aufgrund ihrer geringen Größe kann die LED in Leuchten, Materialien und sogar in die Bausubstanz eines Gebäudes oder einer Umgebung positioniert oder eingebettet werden. In einer einzigen Leuchte oder einem Raum können Hunderte von LEDs verwendet werden, die auch unterschiedliche Lichtleistungseigenschaften aufweisen können. Der Lichtschalter muss daher in vielen Situationen durch intelligente Steuerungen und intelligente Umgebungen, die kontextsensitiv und auf die Menschen in der Umgebung reagieren, erweitert oder vollständig ersetzt werden. Künftige Beleuchtungssysteme werden Teil der Ambient Intelligence (AmI). In diesem Workshop haben wir untersucht, wie die Vision und Prinzipien des AmI-Paradigmas auf zukünftige Beleuchtungssysteme angewendet werden können, die in der Lage sind, eine Vielzahl von funktionalen, dekorativen und Umgebungslichteffekten zu erzeugen. Dieses Papier fasst die Beiträge des Workshop-Papiers und die Ergebnisse unserer Diskussion zu den wichtigsten Design- und Forschungsherausforderungen für den Bereich der interaktiven Umgebungsbeleuchtungssysteme zusammen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31479-7_5 3d0b57f7b6a646e14765b687ef00c1cd;de;;;5.3.;;;Interaktive Bewegungsmodellierung und Parametrisierung durch direkte Demonstration Während interaktive virtuelle Menschen in Bildung, Ausbildung und therapeutischen Anwendungen weit verbreitet sind, bleibt die Erstellung von Animationen, die sowohl realistisch als auch in Bezug auf ein gegebenes Szenario parametrisiert sind, eine komplexe und zeitaufwendige Aufgabe. Um diese Situation zu verbessern, schlagen wir ein Framework vor, das auf der direkten Demonstration und Parametrisierung von Bewegungen basiert. Der vorgestellte Ansatz adressiert drei wichtige Aspekte des Problems in integrierter Weise: (1) Unser Framework basiert auf einer interaktiven Echtzeit-Motion-Capture-Schnittstelle, die ungeübten Animatoren die Möglichkeit gibt, realistische Bewegungen und Gesten des Oberkörpers direkt zu modellieren Demonstration, (2) unsere Schnittstelle berücksichtigt auch die interaktive Definition von geclusterten Beispielbewegungen, um die interessierenden Variationen für eine gegebene modellierte Bewegung gut darzustellen, und (3) wir präsentieren auch eine;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15892-6_9 e87c2875240e1099fc1a9b1dba9adba3;de;;;2.4.;;;"Modulation der menschlichen Geschwindigkeitsspeicherung, die während intermittierend beleuchteter optokinetischer Stimulation abgetastet wurde Wenn ein stationäres menschliches Subjekt plötzlich einer optokinetischen Vollfeldstimulation mit konstanter Geschwindigkeit ausgesetzt wird, nähert sich die Augengeschwindigkeit in langsamer Phase schnell der Reizgeschwindigkeit ohne den allmählichen Aufbau (""Geschwindigkeitsspeicherung""), der bei anderen Spezies leicht zu beobachten ist. Nach dem Erlöschen der Beleuchtung wird das Vorhandensein einer Geschwindigkeitsspeicherung durch das Fortbestehen einer allmählich abnehmenden Komponente des optokinetischen Nachnystagmus (OKAN) suggeriert. In der Vergangenheit war die Charakterisierung der Modulation der Geschwindigkeitsspeicherung mühsam. Es wird nun gezeigt, dass eine solche Modulation durch periodisches „Sampling“ von OKAN mit „intermittierend beleuchteten“ optokinetischen Stimuli (Hell-an: 9,7 s, Dunkelheit: 2 s) charakterisiert werden kann. Sechs Probanden betrachteten eine intermittierend beleuchtete optokinetische Trommel, die sich mit einem Rechteckwellen-Winkelgeschwindigkeitsprofil von 60 Grad/s Spitzenamplitude und einer Frequenz von 0,01 Hz drehte. Die resultierende Modulation der Geschwindigkeitsspeicherung war ungefähr exponentiell mit der Zeitkonstante,";-;-;-;https://link.springer.com/article/10.1007/BF00261342 e0d5bca253ddc77ee1d8c2f9b71e29da;de;;;5.3.;;;Ein Rahmen für lineare TV-Empfehlungen durch Nutzung von implizitem Feedback Das Problem bei der Empfehlung von Sendungen/Programmen im linearen Fernsehen ist das Fehlen expliziter Bewertungen durch den Benutzer. Im Gegensatz zu Video-on-Demand und anderen Online-Medien-Streaming-Diensten, bei denen explizite Bewertungen vom Benutzer angefordert werden können, unterstützt das lineare Fernsehen keine solche Option. Wir müssen uns nur auf die verfügbaren Daten der Set-Top-Box verlassen, um geeignete Empfehlungen für die linearen TV-Zuschauer zu generieren. Die Set-Top-Box-Daten enthalten typischerweise die Anzahl der Ansichten (Häufigkeit) einer bestimmten Show durch einen Benutzer sowie die Dauer dieser Ansicht. In diesem Beitrag versuchen wir, das implizit verfügbare Feedback aus den Details der linearen TV-Zuschauer zu nutzen, um explizite Bewertungen zu generieren, die dann in die bestehenden hochmodernen Empfehlungsalgorithmen eingespeist werden können, um den Nutzern geeignete Empfehlungen zu geben. In dieser Arbeit weisen wir sowohl der Häufigkeit als auch der Dauer jedes Interaktionspaars zwischen Benutzer und Show eine unterschiedliche Gewichtung zu, im Gegensatz zum traditionellen Ansatz, bei dem entweder die Häufigkeit oder die Dauer einzeln betrachtet werden. Abschließend vergleichen wir die Ergebnisse der verschiedenen Empfehlungsalgorithmen, um die Effektivität unseres vorgeschlagenen Ansatzes zu begründen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2622-6_16 c90be78fecc66baadc797558b0d61bcc;de;;;2.4.;;;Elektrische Aktivität der Brustmuskulatur beim Gleit- und Schlagflug bei der Silbermöwe ( Elektromyographische Aufnahmen der Brustmuskeln der Silbermöwe während des Fluges zeigten, dass mit dem Gleitflug nur eine sehr geringe Muskelaktivität verbunden ist. Die integrierten Gleitpotenziale konnten jedoch durch die Belastung des Vogels ganz erheblich gesteigert werden. Die Muskelaktivität beim Gleit- und Schlagflug entspricht dem bekannten Energiebedarf für diese 2 Flugarten.;-;-;-;https://link.springer.com/article/10.1007/BF01939668 b2660c70d280217670754c21f881d559;de;;;2.4.;;;Saisonal schwankende Ressourcen und zeitliche Variabilität interspezifischer Konkurrenz Der Einfluss der saisonalen Verfügbarkeit zweier kritischer Ressourcen (Nahrung und Substrate, aus denen die Nahrung geerntet wurde) auf die interspezifische Konkurrenz zwischen gestreiften Strandbarschen (;-;-;-;https://link.springer.com/article/10.1007/BF00399030 a3433c866858347370c98bf6c1a08cf3;de;;;2.4.;;;Unterstützung bei niedrigem Tidalvolumendruck versus kontrollierte Beatmung bei früher experimenteller Sepsis bei Schweinen Beim mittelschweren akuten Atemnotsyndrom (ARDS) unterstützen mehrere Studien den Einsatz von assistierten Spontanatmungsmodi. Allerdings konzentrieren sich nur begrenzte Daten auf die Anwendung bei systemischer Sepsis und sich entwickelnder Lungenschädigung. Die vorliegende Studie untersucht die Auswirkungen einer sofortigen Einleitung einer druckunterstützten Beatmung (PSV) in einem Modell des Sepsis-induzierten ARDS.;-;-;-;https://link.springer.com/article/10.1186/s12931-014-0101-6 051b3ec318c9b4b6cf3daa9673656b82;de;;;5.3.;;;Skelettbasierte Aktionserkennung mit dichtem räumlichem zeitlichem Graphennetzwerk Die Skelettinformationen des menschlichen Körpers können wichtige Informationen für die Erkennung menschlicher Handlungen liefern. Auf dem Gebiet der skelettbasierten Aktionserkennung hat The Graph Convolutional Network bemerkenswerte Ergebnisse erzielt. Die Klassifizierungsmethoden können jedoch realistische und komplexe Handlungen wie den Leistungssport nicht vollständig verstehen. Wir schlagen ein neues räumlich-zeitliches Graphenfaltungsnetzwerk namens DSTG-Net vor. DSTG-Net optimiert das ursprüngliche Graph-Faltungsnetzwerk unter Verwendung des Merkmals der dichten Struktur. Unser Modell wird an zwei realistischen und komplexen Datensätzen, FSD-10 und Video-Emotion, getestet und seine Wirksamkeit wird validiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63823-8_23 9f078815b4e2537f2e0805be59eacff4;de;;;5.3.;;;Design des Steuerungssystems für die Verarbeitungsanlage für Bewehrungsstäbe Um die Knappheit zu überwinden, die sowohl bei halbautomatischen als auch manuell arbeitenden Vorrichtungen zur Fadenverarbeitung im In- und Ausland bestand, wird eine Technologie zur automatischen Fadenverarbeitung entwickelt. Es besteht aus der Technologie des elektrischen Antriebs, des hydraulischen Getriebes und der SPS-Steuerung, die die automatische Verarbeitungsfadentechnologie vom Laden des Materials über die Materialzufuhr bis zum Verarbeitungsfaden realisiert. Ipc, als oberer Computer, wird für die Mensch-Maschine-Interaktion und die Verarbeitung von Informationsspeichern verwendet. Die drahtlose Kommunikation zwischen ipc und SPS wird über einen drahtlosen Router realisiert. Die Schlussfolgerung ist, dass es die Produktionseffizienz verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5879-5_20 fd05b1909f6e23ec7f7ff9757ef38055;de;;;5.3.;;;Multifunktions-Sicherheitsassistenzsystem für den Fahrer Mit der steigenden Zahl von Kraftfahrzeugen folgt die Problematik der Verkehrsunfälle. Die Umfrage zeigt, dass Müdigkeit beim Fahren und Herzkrankheiten zu wichtigen Ursachen für Verkehrssicherheitsunfälle geworden sind. Neben der Echtzeitüberwachung der physiologischen Gesundheit des Fahrers verwendet das Design auch das Elektrokardiogramm und die Griffstärkesignale, um den Ermüdungszustand des Fahrers zu bestimmen. Basierend auf den wichtigen physiologischen Informationen, die im Elektrokardiogrammsignal enthalten sind, und auf der Grundlage der Zeitbereichs- und Zeit-Frequenzbereichs-Merkmalstransformation des Griffkraftsignals wurden die Ermüdungseigenschaften analysiert. Das Design verwendet STM32 als Steuerungskern, die Lenkradabdeckung als Medium und eingebaute Elektrodenchips und Drucksensoren, um Echtzeit-EKG-Signale zu sammeln, um die physiologische Gesundheit des Fahrers zu bestimmen, gleichzeitig das EKG-Signal und das Griffsignal werden gleichzeitig analysiert und die Ermüdung des Fahrers wird analysiert. Die Echtzeitüberwachung des Grades gewährleistet die Genauigkeit und Stabilität des Systems. Darüber hinaus ist das Bluetooth-Modul mit dem Mobiltelefonterminal verbunden, um die drahtlose Kommunikationsfunktion zu realisieren, und das Terminal überwacht verschiedene Indikatoren des Körpers des Fahrers und des Ermüdungsgrades in Echtzeit. Wenn sich der Körper plötzlich ändert, wird die Gefahrenstufe vorhergesagt und die Stimme erinnert den Fahrer daran, und wenn die Gefahrenstufe hoch ist, lokalisiert der Satellit die Position genau und übermittelt sie rechtzeitig an die Familie und das Krankenhaus, was zum Auffinden und rechtzeitige Rettung. Wenn sich der Fahrer müde oder schläfrig fühlt, erinnert oder weckt das Mobiltelefon den Fahrer per Sprache, um die Mensch-Computer-Interaktionsfunktion zu realisieren und das Auftreten von Verkehrsunfällen zu verhindern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8411-4_129 c977c8cb786d7bb0151219b2ad6874dc;de;;;5.3.;;;Grammatik lernen in begrenzten Welten In diesem Positionspapier argumentieren wir, dass moderne maschinelle Lernansätze nicht angemessen darauf eingehen, wie Grammatik und gesunder Menschenverstand erlernt werden sollten. Modernste Sprachmodelle erzielen beeindruckende Ergebnisse in einer Reihe von spezialisierten Aufgaben, aber es fehlt ihnen das zugrunde liegende Weltverständnis. Wir plädieren für Experimente mit der Verwendung abstrakter, begrenzter Weltumgebungen, in denen Agenten interagieren, wobei der Schwerpunkt auf dem Lernen von Weltmodellen liegt. Agenten werden dazu veranlasst, die Grammatik zu lernen, die zum Navigieren in der Umgebung erforderlich ist, daher wird ihre Grammatik in dieser abstrahierten Welt geerdet. Wir glauben, dass diese fundierte Grammatik daher eine realistischere, interpretierbare und menschenähnliche Form des gesunden Menschenverstands ermöglichen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8395-7_27 f70ddb114fb6d357c5defd5012593c74;de;;;5.3.;;;Eine Spracherkennungstechnik, die MFCC mit DWT in isolierten Hindi-Wörtern verwendet Die menschliche Spracherkennung ist in der Tat eine anspruchsvolle Aufgabe, bei der mehrere von verschiedenen Personen gesprochene Wörter analysiert und für die Interaktion zwischen Mensch und Maschine synthetisiert werden könnten. Es ermöglicht uns, einen Rahmen zum Verständnis der Variabilität verschiedener Phoneme aufzubauen, der angewendet werden kann, um das Wort einer Person zu identifizieren. Wir erstellen ein Hindi-Spracharchiv von 5 Personen, in dem fünf Wörter 10 Mal für fünf verschiedene Personen gesprochen wurden. Es wurde ein Versuch unternommen, die Korrektheit der Spracherkennungstechnik von isolierten 5 verschiedenen Hindi-Wörtern zu untersuchen. Wir wenden eine diskrete Wavelet-Transformation an, um die Frequenzkoeffizienten des raumzeitlichen Sprachsignals in Bezug auf die Zeit zu extrahieren. Die als Merkmalsvektor betrachteten Mel-Sekunden-Frequenz-Cepstralkoeffizienten (MFCC) werden durch Anwenden der DWT-Zerlegung auf akkumulierende Sprachsignale erhalten. Eine Merkmalsextraktionstechnik, die Hauptkomponentenanalyse (PCA), wird auf den MFCC-Merkmalsraum angewendet, um die Dimensionalität des Merkmalsvektors zu reduzieren. Wir wenden einen auf dem Mindestabstand basierenden Klassifikator zum Vergleichen eines unbekannten Testsprachsignals unter allen Trainingssätzen von Hindi-Wörtern an. Die Erkennung isolierter Hindi-Wörter wird unter zwei Bedingungen ausgenutzt, wie zum Beispiel beim Anwenden von DWT und ohne DWT-Zerlegungstechnik. In diesem Beitrag wird eine vergleichende Analyse verschiedener Methoden durchgeführt. Unter allen Methoden haben wir festgestellt, dass MFCC mit DWT-Zerlegung im Vergleich zu anderen Techniken eine höhere Erkennungsgenauigkeit bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-81-322-1665-0_70 d1d5b791f0143d8ccaff030902896636;de;;;5.3.;;;Entwicklung eines Echtzeit-Registersystems für Druckmaschinen basierend auf Die grundlegende Zusammensetzung und das Funktionsprinzip von Farbregistersystemen für Druckmaschinen wurden untersucht. Basierend auf einer eingehenden Analyse der Eigenschaften des Registersystems im In- und Ausland wurde ein Echtzeit-Überwachungssystem für die Registrierungssteuerung von Druckmaschinen basierend auf einem Multitask-Echtzeitbetriebssystem vorgeschlagen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23214-5_59 390f5fe32e1041fb714c05623831e84a;de;;;2.4.;;;Dynamische Nutzung taktiler afferenter Signale zur Kontrolle der geschickten Manipulation Während der Objektmanipulation wählt und aktiviert der Mensch neuronale Aktionsprogramme, die während der ontogenetischen Entwicklung erworben wurden. Ein grundlegendes Problem beim Verständnis der Steuerung geschickter Manipulation besteht darin zu lernen, wie Menschen sensorische Informationen verwenden, um die Ausgabe dieser neuronalen Programme so anzupassen, dass die Fingerspitzenaktionen den Anforderungen entsprechen, die durch die physikalischen Eigenschaften des manipulierten Objekts, z. , Glätte, Form und Massenverteilung. Obwohl visuell basierte Identifikationsprozesse zu Vorhersagen erforderlicher Fingerspitzenaktionen beitragen, liefern die digitalen taktilen Sensoren kritische Informationen für die Kontrolle der Fingerspitzenkräfte. Der vorliegende Bericht befasst sich mit den taktilen afferenten Signalen der Ziffern während der Manipulation und konzentriert sich auf einige spezifische Probleme, mit denen der neuronale Controller umgehen muss, um taktile Informationen zu nutzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-0713-0_45 04a950f1b89a80c190287670cd95e912;de;;;2.4.;;;Rekombinationsaktivierende Gene, Transposition und das Lymphoid-spezifische kombinatorische Immunsystem: eine gemeinsame evolutionäre Verbindung Zu den Merkmalen, die das adaptive Immunsystem des Gnathostoms (Kieferwirbeltiere) vom Immunsystem des Agnathans (Kieferlose Fische) unterscheiden, die beide vor über 500 Millionen Jahren von einem gemeinsamen Vorfahren (MYA) abwichen, gehört das Vorhandensein somatisch neu anordnender Antigenrezeptoren , Ig, T-Zell-Rezeptoren, TCR, neuer Antigen-Rezeptor, NAR) über rekombinationsaktivierende Moleküle (Ragl und 2) und spezifische Antigen-präsentierende Moleküle (MHC-Klasse I und II:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-59674-2_6 d20d6e8721fc3cbafac43a4e1e071cb5;de;;;2.4.;;;Mineralische Ernährung: Nährstoffquellen für Landpflanzen außerhalb der Pedosphäre Regen muss seit Beginn der Besiedelung der Landoberfläche durch Pflanzen eine Nährstoffquelle gewesen sein. Sowohl im Wasser als auch in den Salzen der Ozeane gibt es globale Kreisläufe, es dauert etwa 80 Millionen Jahre, um das Meersalz mittels Sprays und Aerosolen über die Ränder der Kontinente zu transportieren (HOLMES 1937) und 5000 Jahre bis das Meerwasser transportieren. Neben dem Ozean können chemische Umwandlungen von Stickstoff in der Atmosphäre und geologische Umwälzungen wie Vulkane eine Vielzahl von Pflanzennährstoffen in gasförmiger, gelöster und partikulärer Form bereitstellen. Die Geschwindigkeiten, mit denen diese Nährstoffe auf der Landoberfläche abgelagert werden, sind sehr variabel und hängen vom Klima und der vorherrschenden Windrichtung ab. Allenfalls können sie jedoch nur sehr langsame Pflanzenwachstumsraten unterstützen. Pflanzengemeinschaften, wie z. B. aufgezogen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-71668-3_5 178aa4348b84a6f8bc35a33544a57bdf;de;;;2.4.;;;Vom Nutzen zum Schaden. Glutamat und fortgeschrittene Glykationsendprodukte im Alzheimer-Gehirn Das glutamaterge System ist das am weitesten verbreitete Neurotransmittersystem im Gehirn von Säugetieren. Es ist mit dem acetylcholinergen Neurotransmittersystem verbunden, um den glutamatergen/aspartatergen-acetylcholinergen Kreislauf zu bilden, der die morphobiochemische Grundlage für Lernen, Gedächtnis und Kognition ist, unterstützt durch den glutamatergen N-Methyl-D-Aspartat-Rezeptor, der eine langfristige Potenzierung als grundlegende molekulare Mechanismen dieser geistigen Fähigkeiten. Glutamat und Acetylcholin als Liganden der beiden Neurotransmittersysteme sind Produkte des neuronalen Glukosestoffwechsels wie auch für fortgeschrittene Glykationsendprodukte (AGEs), die Marker für geschädigte und/oder gealterte Proteine ​​sind.;-;-;-;https://link.springer.com/article/10.1007/s00702-006-0591-6 328714d17b910269a871ed71d0b96786;de;;;2.4.;;;Huntington-Krankheit Die Huntington-Krankheit (HD) ist eine familiäre und seltene erbliche neurologische Erkrankung mit einer Prävalenz von 5–8 Fällen pro 100.000 weltweit. Dies macht die Huntington-Krankheit zur häufigsten erblichen neurodegenerativen Erkrankung (Fahn, 2005). Die Huntington-Krankheit wird autosomal-dominant von den Eltern an das Kind weitergegeben. Jedes Kind eines Huntington-Elternteils hat eine 50-prozentige Chance, Huntington zu erben. Beide Geschlechter sind gleichermaßen betroffen. Es gehört zu den ersten erblichen genetischen Erkrankungen, für die jetzt ein genauer Test verfügbar ist. Der Krankheitskomplex wird George Huntington zugeschrieben, der 1872 die klinischen und neurologischen Manifestationen beschrieb. Die neuronale Degeneration verursacht unkontrollierte und abnormale Körperbewegungen, die als Chorea bezeichnet werden, mentale Dysfunktion, Persönlichkeitsveränderungen und emotionale Störungen. Neuropathologisch ist die Huntington-Krankheit mit dem Tod von GABAergen mittelgroßen stacheligen Projektionsneuronen im Nucleus caudatus und mit Neuronen in anderen Hirnregionen verbunden. Das Huntington-Gen, Huntingtin (htt), befindet sich auf dem kurzen Arm von Chromosom 4, enthält den N-terminalen 18 Aminosäuren-kodierenden offenen Leserahmen, gefolgt von einer erweiterten CAG-Trinukleotid-Wiederholung, die für die variable Länge des Polyglutamintrakts kodiert, und große C -terminale Region (> 3.100 Aminosäuren). Die Länge der HD-CAG-Wiederholungen ist die primäre Determinante für das Alter, in dem klinische Symptome auftreten (Persichetti et al., 1994). Obwohl allgemein bekannt ist, dass der HD-Polyglutamattrakt bei einer Reihe von getesteten Spezies zur Bildung intrazellulärer Einschlüsse im Zytoplasma und/oder Kern führt, war die Korrelation des Einschlusses mit der Neurotoxizität äußerst unterschiedlich. Die erhöhte Anzahl von Glutamin wird jedoch von der Neigung des htt-Proteins voller Länge zur Fehlfaltung und Aggregation begleitet, daher gehört die Huntington-Krankheit zur Klasse der Protein-Fehlfaltungs-/Aggregationsstörungen. Frühe Huntington-Symptome werden in den Vierzigern einer Person gesehen, können aber in jedem Alter auftreten. Zu den Symptomen gehören Stimmungsschwankungen, Depressionen, Reizbarkeit, Schwierigkeiten beim Lernen und Erinnern sowie bei der Entscheidungsfindung. Mit fortschreitender Krankheit wird die Konzentration schwierig und die täglichen Aufgaben der Selbsterhaltung sind so gut wie weg, auch Menschen haben Schwierigkeiten beim Füttern und Schlucken. Der Tod bei der Huntington-Krankheit tritt in der Regel etwa 15 Jahre nach Beginn der Motorik aufgrund von Komplikationen der Erkrankung wie einer Aspirationspneumonie auf. Für Personen, bei denen ein Risiko besteht, das Huntington-Gen zu tragen, stehen präsymptomische Tests zur Verfügung. Es ist keine Behandlung bekannt, die den Krankheitsverlauf verändert, aber die Symptome können behandelt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-72573-4_28 899f57853f4c1a9ff55b7131c2d898ee;de;;;2.4.;;;Hitzestressreaktion und Hitzestress-Transkriptionsfaktoren Die Expression von Hitzeschockprotein (HSP)-kodierenden Genen wird durch Hitzestress-Transkriptionsfaktoren (Hsfs) kontrolliert. Sie sind im gesamten eukaryotischen Königreich strukturell und funktionell konserviert. Neben der DNA-Bindungsdomäne mit dem für die DNA-Erkennung essentiellen Helix-Turn-Helix-Motiv wurden drei funktionelle Teile in der C-terminalen Aktivatordomäne charakterisiert: (i) die HR-A/B-Region ist für Oligomerisierung und Aktivität verantwortlich Kontrolle, (ii) das Kernlokalisierungssignal (NLS), das von einem Cluster basischer Aminosäurereste gebildet wird, das für den Kernimport erforderlich und ausreichend ist, und (iii) kurze C-terminale Peptidmotive mit einem zentralen Trp-Rest (AHA-Elemente). Diese drei Teile sind für die Aktivatorfunktion unverzichtbar. Eine Besonderheit von Pflanzen ist die durch Hitzeschock induzierbare Neusynthese von Hsfs. In Tomaten wird HsfA1 konstitutiv exprimiert, während Hsfs A2 und B1 selbst Hitzeschock-induzierbare Proteine ​​sind. Wir verwendeten Hsf-Knockout-Hefestämme und transiente Reporterassays in Tabakprotoplasten zur funktionellen Analyse von Hsf-kodierenden cDNA-Klonen und von diesen abgeleiteten Mutanten. HsfA2, das in Tomatenzellkulturen erst nach Hitzeschock-Induktion exprimiert wird, neigt dazu, zusammen mit anderen HSPs große zytoplasmatische Aggregate zu bilden (Hitzestress-Granula). Im transienten Expressionsassay ist sein relativ geringes Aktivatorpotential offensichtlich auf den ineffizienten Kernimport zurückzuführen. Die intramolekulare Abschirmung der NLS kann jedoch entweder durch Deletion eines kurzen C-terminalen Fragments oder durch Coexpression mit HsfA1 aufgehoben werden, die mit HsfA2 Hetero-Oligomere bildet.;-;-;-;https://link.springer.com/article/10.1007/BF02936124 cc257b373d008aadf888e2193e71f2ee;de;;;5.3.;;;Räumlich-zeitlicher Kontextverfolgungsalgorithmus basierend auf dem Master-Slave-Speicherraummodell Der Verfolgungsalgorithmus des räumlich-zeitlichen Kontexts (STC) hat die Vorteile einer hohen Verfolgungsgenauigkeit und -geschwindigkeit, kann jedoch die Zielvorlage unter komplexen Hintergrund- und Interferenzbedingungen falsch aktualisieren. In diesem Beitrag wird ein räumlich-zeitlicher Kontextverfolgungsalgorithmus basierend auf einem Master-Slave-Speicherraummodell vorgeschlagen. Der Algorithmus führt den Speichermechanismus des Human Visual Systems (HVS) in den Vorlagenaktualisierungsprozess des STC-Algorithmus ein und bildet eine speicherbasierte Aktualisierungsstrategie durch Konstruieren der Master- und Slave-Speicherbereiche. Inzwischen wird ein Verfahren zum Bestimmen des Zielortes aus mehreren Spitzenpunkten der Ausprägung vorgeschlagen. Experimentelle Ergebnisse zeigen, dass der vorgeschlagene Algorithmus eine vergleichsweise hohe Genauigkeit und Robustheit im Falle eines verdeckten Ziels, Lageänderungen, fehlendem und erscheinendem Ziel und Beleuchtungsänderungen usw. aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1702-6_21 99d73637f60ead9340faa75856193c80;de;;;5.3.;;;Die Zukunft intelligenter ubiquitärer Computersysteme Viele allgegenwärtige Systeme und Technologien wurden bereits entwickelt. Das Ziel von Ubiquitous Computing ist bekanntlich das Wohlergehen des Lebens. Es gibt vier verschiedene Aspekte, um Ubiquitous Computing zu erreichen, nämlich innerhalb des Computerparadigmas, des technischen Prinzips, des Anwendungsbereichs und des Anwendungsraums. Heutzutage ist die ubiquitäre Stadt (U-Stadt) die am meisten anwendbare Domäne der Welt. Daher wird der Vortrag hauptsächlich einen Überblick über die U-City-Idee und die bekannten Ubiquitous Computing-Systeme sowie neue Trends in diesem Bereich vorstellen und diskutieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27245-5_1 7ccf4cdb5c880b60f637c43d406d161c;de;;;5.3.;;;Forschung zu einer interaktiven Simulationsexperimentplattform und einem Remote-Simulationssystem in einer Webumgebung Dieser Beitrag stellt eine Methode der experimentellen Lehrreform von Universitäten und Hochschulen vor, die eine interaktive Simulationsexperimentplattform mit der Simulationssoftware MATLAB etabliert. Die Plattform verwendet eine visuelle Mensch-Maschine-Schnittstelle, die viel Programmier- und Debugging-Arbeit vermeidet und die Lernbegeisterung der Schüler steigert. Gleichzeitig implementiert es Remote-Simulation basierend auf JAVA in einer Web-Umgebung, die für den Netzwerkunterricht geeignet ist und die Flexibilität und Praktikabilität der Simulationsexperimentplattform verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-2098-8_8 0eda1d50454317278f06148c63bad9e9;de;;;2.4.;;;Angeborenen Herzfehler Grundlegend für die erfolgreiche chirurgische Behandlung angeborener Herzfehler ist eine genaue präoperative Diagnose. Dies wird durch einen offenen Geist erreicht, der Kenntnisse über die auftretenden Erkrankungen, eine gründliche klinische Untersuchung und die intelligente Interpretation geeigneter Spezialuntersuchungen beinhaltet. Der Einfachheit halber werden angeborene Läsionen häufig nach Vorliegen oder Fehlen von Zyanose unterteilt, wobei auch anerkannt wird, dass es eine wichtige Zwischengruppe von Zuständen gibt, bei denen Zyanose bei körperlicher Anstrengung oder Anstrengung intermittierend auftreten kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-1470-3_6 cd4b330eecb9160adf74ab6581e32085;de;;;2.4.;;;Bipolare Störung Das Konzept der manisch-depressiven Erkrankung des 19. Jahrhunderts wurde Mitte des 20. Jahrhunderts in die verschiedenen Syndrome der bipolaren Störung (BPD) und der wiederkehrenden schweren Depression unterteilt. BPD ist eine episodische Erkrankung, die durch akute depressive, manische oder gemischte Zustände unterschiedlicher Häufigkeit, Dauer und Schwere und oft mit psychotischen Merkmalen mit Intervallen vollständiger oder teilweiser Erholung gekennzeichnet ist. Moderne Diagnosesysteme erkennen drei Formen:;-;-;-;https://link.springer.com/chapter/10.1385/1-59259-856-0%3A205 92606206519241ba640e3b49e11d6678;de;;;2.4.;;;Oligopolistische Unsicherheit und optimales Bieten im öffentlichen Beschaffungswesen: Ein subjektiver Wahrscheinlichkeitsansatz Kenneth Arrows frühes und anhaltendes Interesse an der Ökonomie von Risiko und Ungewissheit und seine Beiträge zu der von ihr inspirierten Literatur waren entscheidend für die Entwicklungen, die das Feld in den letzten 20 Jahren geprägt haben. Eine erneute Lektüre des;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-07239-2_21 e6d46802ba26b81b11efde3f7308664b;de;;;2.4.;;;Langzeitdynamik von Vegetationsindizes in dunklen Nadelwäldern nach Störung der sibirischen Falter Diese Studie betrachtet die langfristige Dynamik der Vegetationsindizes, die aus Landsat-Bildern des Zeitraums von 1989 bis 2014 abgeleitet wurden. Das Massensterben und die Zerstörung von Wäldern durch sibirische Motten ereigneten sich in der dunklen Nadel-Taiga in den Jahren 1994-1996. Die Bilder haben sowohl veränderte (gestörte) als auch Hintergrundbedingungen des Waldes abgedeckt. Die Fallstudie des Waldmassivs befindet sich im Modellgebiet der Region Angara Taiga in Ostsibirien (Krasnojarsk). Die Werte der spektralen Helligkeit von Satellitenbildern werden durch erzeugte Indexbilder von;-;-;-;https://link.springer.com/article/10.1134/S1995425516070118 46dffef9b609127473f5e05e1ee77fcf;de;;;2.4.;;;Lineare Systeme und Filter In diesem Kapitel werden wir die Definition eines linearen Systems einführen und seine Wirkung auf Signale detailliert entwickeln. Anhand dieser Konzepte werden dann spezielle lineare Systeme untersucht, die ausdrücklich darauf ausgelegt sind, ihr Eingangssignal so zu verändern, dass nur Signale bestimmter Frequenzen unverändert durch sie hindurchgehen, während alle anderen Frequenzen stark gedämpft werden. Solche Systeme werden Filter genannt. Der tatsächliche Aufbau von Filtern wird jedoch nicht erörtert. Die Ergebnisse dieses Kapitels haben weitreichende Auswirkungen darauf, wie wichtig es ist, bestimmte Eigenschaften jeder einzelnen elektrischen und mechanischen Komponente eines Instrumentensystems im Voraus zu kennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-95638-6_3 a6325772785a298ec14efd8abc605187;de;;;2.4.;;;Pharmakokinetik von Pancuronium bei Patienten, die sich einer Koronararterienoperation mit und ohne niedrig dosiertem Dopamin unterziehen Pancuronium wird häufig in der Koronararterienchirurgie verwendet, aber seine Pharmakokinetik bei diesen Patienten ist noch unbekannt. Es ist möglich, dass Dopamin, das zur Vorbeugung einer durch die Operation induzierten Nierenfunktionsstörung verabreicht wird, die Elimination von Pancuronium fördern kann. Daher wurde die Pharmakokinetik einer Pancuronium-Bolusdosis in 2 Gruppen von Patienten mit Koronararterienchirurgie mit und ohne Dopamin 2 µg/kg/min, verabreicht während und nach einem kardiopulmonalen Bypass, untersucht. Dopamin in der verabreichten Dosis hatte keinen Einfluss auf die systemische Hämodynamik. Die pharmakokinetischen Variablen in beiden Gruppen unterschieden sich nicht von denen, die in einer früheren Studie an gesunden normothermen Patienten gefunden wurden. Die gesamte renale Clearance wurde aufgrund der Post-Bypass-Rebound-Hyperperfusion in der Kontrollgruppe nicht durch Dopamin beeinflusst. Es zeigte sich, dass Pancuronium einer beträchtlichen tubulären Reabsorption unterliegt und seine Elimination während einer Hypothermie verstärkt wurde. Dopamin erhöht die Pancuronium-Elimination durch eine Erhöhung der glomerulären Filtrationsrate. Die Dopamin-induzierte Abnahme der tubulären Reabsorption gelöster Stoffe förderte die Elimination von Pancuronium nicht.;-;-;-;https://link.springer.com/article/10.2165/00003088-199019060-00005 afdc8404fc64389b18f6635df291a238;de;;;2.4.;;;Neutronenradiographie im Rikkyo Triga-II-Reaktor Im Reaktortank des Rikkyo 100 kW TRIGA-II ist ein vertikal divergierender Kollimator installiert. Die Konfiguration des Kollimators und die Strahlcharakteristik werden zusammengefasst. Die Empfindlichkeits- und Strahlreinheitsindikatoren nach ASTM E545-81 haben gezeigt, dass der Kollimator der Kategorie I entspricht. Die inhärente Unschärfe für die Kombination des 25-pm-Gd-Bildschirms und des KODAK-SR-Films wird experimentell bestimmt und beträgt 48,0 ± 0,5 µm. Eine Anwendung ist für die Inspektion von Formhohlräumen in Vergasern gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-3871-7_20 50cb2a3399dca758e32e082d0c1f4738;de;;;2.4.;;;Adhäsion von Bakterien an Mundgewebe Das Mundmilieu enthält viele Arten von Bakterien, darunter sowohl gramnegative als auch grampositive Kokken, Bazillen und Spirochäten. In der Mundhöhle können mehr als 300 verschiedene Bakterienarten vorkommen. Einige davon lassen sich leicht kultivieren und identifizieren, während andere nur schwer kultiviert werden können. Einige sind möglicherweise überhaupt nicht kultiviert. Aus ökologischer Sicht ist das Mundmilieu für manche Bakterien eine perfekte Nische. Häufig werden die im Mundmilieu angetroffenen Bakterien nirgendwo im Körper gefunden. Im Mund werden Bakterien durch die turbulente Wirkung von Speichel, antibakteriellen Proteinen im Speichel wie Lysozym und Lactoferrin, Immunglobulinen, Produkten anderer Mikroorganismen und Nahrungsbestandteilen herausgefordert. Einige dieser Faktoren beeinflussen adhärente Reaktionen, deren Einzelheiten weiter unten diskutiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-6435-1_8 036b8b713888a2d664c2e9cc1c563066;de;;;2.4.;;;Parzellierung des frontalen Kortex des Neuweltaffen Die umfangreichste Entwicklung während der Evolution des Primatengehirns betrifft den Kortex des Frontallappens, insbesondere seine präfrontale Region. Die Verteilung der Neurotransmitterrezeptoren in diesem Teil des Kortex von Neuweltaffen ist unbekannt. Die jeweiligen Verteilungen von acht verschiedenen Rezeptoren für die Transmitter;-;-;-;https://link.springer.com/article/10.1007/BF00186741 7a7901763fbc0ade9761a4cb582055e2;de;;;2.4.;;;Phosphonatverwertung durch Bakterien in Gegenwart alternativer Phosphorquellen Batch- und kontinuierliche Kulturexperimente wurden durchgeführt, um die Wirkung von Orthophosphat und p-Nitrophenylphosphat auf die Nutzung verschiedener Phosphonate als P-Quelle durch Bakterien zu untersuchen. Detaillierte Tests mit Methylphosphonat als Modellphosphonat und dem Phosphonat-abbauenden;-;-;-;https://link.springer.com/article/10.1007/BF00117050 8a03e311f42b5812baf7a685f7063320;de;;;2.4.;;;Statistische Analyse der bidirektionalen Inkonsistenz von Rechtschreibung und Laut im Französischen Neuere Studien legen nahe, dass die visuelle Wortwahrnehmung nicht nur von der „traditionellen“ Feedforward-Inkonsistenz (Rechtschreibung → Phonologie) sondern auch von deren Feedback-Inkonsistenz (Phonologie → Rechtschreibung) beeinflusst wird. Die vorliegende Studie präsentiert eine statistische Analyse der bidirektionalen Inkonsistenz für alle französischen einsilbigen Wörter. Wir zeigen, dass Französisch von der Rechtschreibung zur Phonologie relativ konsistent ist, aber von der Phonologie zur Rechtschreibung sehr inkonsistent. Die Anhänge B und C listen a priori und bedingte Wahrscheinlichkeiten für alle inkonsistenten Abbildungen auf und bieten somit ein wertvolles Werkzeug zur Kontrolle, Auswahl und Konstruktion von Stimulusmaterialien für die psycholinguistische und neuropsychologische Forschung. Solche groß angelegten statistischen Analysen über die Struktur einer Sprache sind entscheidend für die Entwicklung von Inkonsistenzmetriken, die Generierung von Hypothesen für die sprachübergreifende Forschung und den Aufbau computergestützter Lesemodelle.;-;-;-;https://link.springer.com/article/10.3758/BF03200539 94148f0c550cb2000d4a57c53c8ed37b;de;;;2.4.;;;Eine konzeptionelle und grafische Methode zur Konvergenz von Verhaltensbeobachtungsdaten mehrerer Subjekte zu einem einzigen Prozessindikator Typischerweise wird in der Beobachtungsforschung jedem Verhalten eines Probanden ein Code zugeordnet, der theoretisch relevante und kontextsensitive Ereignisse repräsentiert. Diese diskreten Verhaltenshandlungen werden dann aneinandergereiht, um einen Prozess zu bezeichnen. Bei mehreren Interaktionspartnern hat der Ermittler zwei Möglichkeiten: die Subjekt-Interdependenz ignorieren und so analysieren, als ob die Datenstrings diskret wären, oder die Strings als voneinander abhängig behandeln und einen zusammenfassenden Index erstellen, der die kombinierten Codes über die Subjekte hinweg darstellt. Dieser Artikel veranschaulicht eine Methode zum Kombinieren einzelner Verhaltensindikatoren innerhalb von Subjekten zu verhaltensspezifischen Domänen und zum anschließenden Konglomerieren der unterschiedlichen Domänenstrings über Subjekte hinweg, so dass das Aggregat den beobachteten Prozess widerspiegelt. Diese Aggregation wird durch einen Koordinationsindex repräsentiert, der entweder als interagierende Disparität oder Kohärenz ausgedrückt wird. Außerdem werden Animations- und Visualisierungsmethoden vorgestellt, die veranschaulichen, wie soziale Prozesse mithilfe des Koordinationsindex oder der einzelnen Domänenwerte modelliert werden können.;-;-;-;https://link.springer.com/article/10.3758/BF03200794 1ef1385beb23b93e052b20ecea1e28b9;de;;;2.4.;;;Die Dos and Don’ts des Coachings: Wichtige Lektionen, die ich als Executive Coach gelernt habe Schon früh in meiner beruflichen Tätigkeit als Executive Coach wurde ich vom VP Human Resources eines großen US-amerikanischen Handelsunternehmens kontaktiert. Dieses Unternehmen hatte gerade ein in Frankreich ansässiges Familienunternehmen im Bekleidungsgeschäft übernommen und einen französischen professionellen Manager mit langjähriger Erfahrung in der Luxusgüterindustrie als neuen CEO eingestellt. Bis vor kurzem wurde das Geschäft von zwei Brüdern (den Hauptaktionären) sehr patriarchalisch geführt. Die VP HR sagte mir, dass sie daran interessiert sei, dass der neue CEO dem Familienunternehmen dabei hilft, einen nahtlosen Übergang zu einem professionellen Management zu schaffen. Sie war besorgt, dass dieser Übergangsprozess gut verlaufen sollte, und hatte dem CEO (den ich David nennen werde) vorgeschlagen, einen Executive Coach zu engagieren, der ihn während der ersten sechs Monate seiner Tätigkeit bei der Umstellung unterstützt. Sie war auch der Meinung, dass David Hilfe brauchte, um seinen Führungsstil an die neue Situation anzupassen, und drückte ihre Besorgnis darüber aus, dass sein eher „französischer“ autokratischer Stil mit der partizipativeren, demokratischen Kultur der neuen Eigentümer zusammenpasst. Sie fügte hinzu, dass die Zentrale eine Phase des Aufruhrs durchlebte, da der alte CEO kurz vor dem Ruhestand stand und ein Rennen um seinen Nachfolger stattfand. Die Vizepräsidentin erklärte, dass sie meinen Namen von einem Bekannten in den USA bekommen habe, der sich für mich als die richtige Person für den Auftrag empfand. Ich erinnere mich, wie geschmeichelt mir das war: Ich war relativ neu im Coaching. Diese Aufgabe wäre meine wichtigste Herausforderung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-137-56161-9_9 ef901474e4d0a94a867b8eb7412dec64;de;;;2.4.;;;Evolution der Signaltransduktion durch Gen- und Genomduplikation bei Fischen Fische besitzen mehr Gene, die Rezeptor-Tyrosin-Kinasen aus der Familie der epidermalen Wachstumsfaktor-Rezeptoren (EGFR) kodieren, als andere Organismen. Drei der vier Gene, die in höheren Wirbeltieren vorhanden sind, wurden zu Beginn der Evolution der Strahlenflosser-Linie dupliziert, möglicherweise als Folge einer Verdoppelung des gesamten Genoms. Beim Fisch Xiphophorus, einem viel jüngeren lokalen Ereignis der Genverdopplung des;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0263-9_14 f7f6f9888916b9fa5b647b1fbbcc1ab6;de;;;2.4.;;;Aggregations- und Nahrungssucheverhalten von Wirbelkäfern (Gyrinidae) Der Wirbelkäfer aggregiert tagsüber zu dichten Ein- und Mehrartengruppen („Floß“) von Hunderten oder Tausenden von Individuen. An der 22 km langen Küstenlinie des Itasca-Sees im Norden von Minnesota waren diese Ansammlungen im Durchschnitt 0,8 km voneinander entfernt und wurden normalerweise Tag für Tag an denselben Orten gefunden.;-;-;-;https://link.springer.com/article/10.1007/BF00299362 a1129daf696c71de8ba7d8fb32083f1a;de;;;2.4.;;;Mikrohabitatpräferenzen der benthischen Fauna in einem Waldbach Schätzungen der Anzahl, Biomasse und Diversität benthischer Makroinvertebraten wurden vierteljährlich über einen Zeitraum von zwei Jahren vorgenommen, um die Präferenzen von Mikrohabitaten zu untersuchen. Obwohl die Biomasse der meisten Taxa zwischen den Probenahmezeitpunkten signifikant unterschiedlich war, schienen auch physikalische Faktoren bei der Bestimmung der Häufigkeit vieler Taxa wichtig zu sein. Optimale Tiefe, Geschwindigkeit, Substrattyp und Turbulenz wurden für die wichtigsten Taxa bestimmt. Als optimale Bedingungen für Vielfalt erschienen 34 cm Tiefe, 60 cm s;-;-;-;https://link.springer.com/article/10.1007/BF00006748 83dff6b8885a017eaa6a823f53404831;de;;;2.4.;;;Nicht-narkotische Analgetika Aspirin und verwandte nicht-narkotische Analgetika wie Paracetamol (Acetaminophen) sind in fast jedem „westlichen“ Haushalt vorhanden und werden so häufig verwendet, dass sie in der Öffentlichkeit oft nicht als Drogen angesehen werden. Obwohl die toxischen Wirkungen von Überdosierungen von Medizinern und verwandten Berufen allgemein anerkannt sind, sind die möglichen Nebenwirkungen einer wiederholten Dosierung innerhalb des allgemein empfohlenen therapeutischen Bereichs nicht. Dies gilt insbesondere während der Schwangerschaft, wo die relative allgemeine Sicherheit der Wirkstoffe von den möglichen subtilen, aber potenziell weitreichenden Auswirkungen auf den Fötus überschattet wird. Die Marketingwerbung, insbesondere über kürzlich eingeführte verwandte Wirkstoffe, hat diese weniger offensichtlichen, aber dennoch potenziell tödlichen Nebenwirkungen manchmal nicht berücksichtigt. Es ist jetzt wahrscheinlich, dass die meisten Frauen während der Schwangerschaft Aspirin und/oder Paracetamol einnehmen und die früheren Zahlen unterschätzt werden.;-;-;-;https://link.springer.com/article/10.2165/00003495-198600324-00012 81fb5b50cd2142ad6c0b4c82cbfc3902;de;;;2.4.;;;Zur Begründung von Rechten Der Begriff der Rechte, lange Zeit ein fester Bestandteil des politischen Denkens, erlebt seit dem Zweiten Weltkrieg ein Revival und wird von Philosophen erneut kritisch hinterfragt. In der Tat wurden in den rund zehn Jahren von 1966 bis heute ungewöhnlich viele wichtige rechtstheoretische Studien durchgeführt. Dieses philosophische Interesse geht einher mit einem wachsenden Bewusstsein für Rechte und ihren problematischen Charakter sowohl in der nationalen politischen Arena als auch in der Welt der internationalen Angelegenheiten. Beobachten Sie die verschiedenen Menschenrechtsbewegungen der sechziger und siebziger Jahre und die Verabschiedung von Bürgerrechtsgesetzen mit begleitender gerichtlicher und bürokratischer Überwachung auf der nationalen Seite, international hatten wir die beiden Vereinten Nationen;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-3948-7_7 5b6a5e451b9fc4255a7bea5155a72062;de;;;5.3.;;;Gesichtsausdruckserkennung basierend auf Merkmalsblock und lokalem Binärmuster Die automatische Gesichtsausdruckserkennung (FER) spielte in den letzten Jahren für ihre vielfältigen Anwendungsmöglichkeiten eine immer wichtigere Rolle. Als eine der herausfordernden Aufgaben in intelligenten Systemen gibt es also noch viele Fragen, die gründlich erforscht werden müssen. Unter Berücksichtigung der Bedeutung von Augen und Mund für die FER und der herausragenden Leistung von Local Binary Pattern (LBP) zum Extrahieren lokaler Texturen wird ein Darstellungsmodell für Gesichtsausdrücke basierend auf Merkmalsblöcken und LBP-Deskriptoren vorgeschlagen. Die Strategien zum Erhalten von Merkmalsblöcken und zum Extrahieren von LBP-Merkmalen werden im Detail analysiert und das Erkennungsexperiment wird durchgeführt. Das experimentelle Ergebnis zeigt, dass dieser Algorithmus eine gute Leistung aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45049-9_72 26bb22fdeb9a9b89f594600f78050039;de;;;2.4.;;;Religion: Alternativen zur technokratischen und neoliberalen Entwicklung? Trotz seiner Krisen und Anfechtungen scheint das marktbasierte Entwicklungsmodell seine globale Hegemonie gegenüber anderen „häretischen“ Entwicklungsmodellen zu behaupten. Die diskursiven Praktiken und analytischen Kategorien, die das Denk- und Ausdrucksfähige nach dieser Marktnorm konstruieren, befinden sich daher in einem Prozess der Neuausrichtung. Dies ist bei einer bestimmten Form des türkischen politischen Islam der Fall, der sich unter einem homogenisierenden Banner in letzter Zeit bemerkenswert „aufgeweicht“ hat. Dieses Kapitel bietet einen empirischen Überblick über die Ausrichtung des politischen Islam in der Türkei auf den neoliberalen Entwicklungsansatz. Aus der Sicht des gemäßigten Islam ist Entwicklung gleichbedeutend mit einem allmählichen Eintritt in das moderne Marktzeitalter, angepasst an einige moralische Imperative. Dieses Kapitel beleuchtet den Aufstieg eines wohltätigen Sozialmodells und beleuchtet die vielen Widersprüche zwischen wirtschaftlicher Entwicklung und moralischer Entwicklung, mit besonderem Augenmerk auf die von der gemäßigten islamischen Partei Adalet ve Kalkınma Partisi (AKP) befürwortete Entwicklungsform.;-;-;-;https://link.springer.com/chapter/10.1057/9781137329387_11 1d5a848a26567732a1ace7ef7fa072a9;de;;;2.4.;;;Einführung in die digitale Bildverarbeitung Bilder sind neben Tönen eines der wichtigsten Kommunikationsmittel des Menschen. Neuere Bemühungen erweitern diese Kommunikation sogar auf Maschinen. Bildverarbeitung ist das Ensemble von Methoden, die diesen Vorgang einfacher, effizienter und angenehmer machen. Dies ist eine wichtige Hilfestellung für den Menschen, der seine Neugier und den damit verbundenen Anspruch befriedigen kann. Sind wir uns nicht alle der Freude bewusst, die wir haben, zum Beispiel das Bild zu finden, das in der Vergangenheit ein glückliches Ereignis eingefroren hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-76286-4_6 e595f9a15632d1333c56f6747d46b812;de;;;2.4.;;;Fokus als kontextueller Priming-Mechanismus beim Lesen In zwei Experimenten haben wir festgestellt, dass Leser empfindlich auf Manipulationen des syntaktisch markierten Fokus reagieren und dass Fokus ein effektiver kontextueller Priming-Mechanismus auf Nachrichtenebene ist. Fokusveränderungen führten zu Veränderungen der Satzkontexteffekte auf die nachfolgende Zieltextverarbeitung. Dies wurde in der Latenzzeit zur Benennung des Zielwortes (Experiment 1) und in der anfänglichen Blickzeit auf das Ziel beim stillen Lesen (Experiment 2) gezeigt. Experiment 2 zeigte auch direkte Auswirkungen auf die fokussierten Items, da die Leser weniger Regressionen machten und insgesamt weniger Zeit mit einem fokussierten Wort verbrachten, als wenn es nicht fokussiert war. Es wurden jedoch keine anfänglichen Auswirkungen auf die Verarbeitungszeit auf das fokussierte Wort gefunden.;-;-;-;https://link.springer.com/article/10.3758/BF03201203 f35f621ed44e16b0928d990897566d9a;de;;;2.4.;;;Neuheitserkennung Dieses Kapitel befasst sich mit der Frage nach einer „Nutzlast“ für einen lernenden und navigierenden Roboter: Vorausgesetzt, der Roboter ist in der Lage, Assoziationen von Wahrnehmung und motorischer Reaktion zu lernen (Kapitel 4) und eine Umgebung zu erkunden, zu kartieren und Wege darin zu planen (Kapitel). 5), wie könnte der Roboter diese Fähigkeiten sinnvoll nutzen?;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0025-6_6 b76cac2e559af6b4400f4a0e0165817e;de;;;2.4.;;;Charakterisierung eines Gas/Flüssig-Mikroreaktors, der Mikroblasensäule: Bestimmung der spezifischen Grenzfläche Die Mikroblasensäule [1] war eines der ersten mikrostrukturierten Geräte, das speziell für die Gas-/Flüssigkeitsverarbeitung konzipiert wurde. In kurzer Zeit wurde die experimentelle Leistungsfähigkeit dieses Mikroreaktors für die Fluorierung von Toluol mit elementarem Fluor als Anwendungsbeispiel mit industrieller Relevanz demonstriert. Das Verständnis grundlegender Reaktoreigenschaften musste jedoch auf nachfolgende, detailliertere Untersuchungen verschoben werden. Ziel der in diesem Artikel beschriebenen Arbeiten ist es in diesem Zusammenhang, spezifische Grenzflächen als Hauptparameter der Reaktorleistung zu bestimmen und auf dieser Basis ein erstes Reaktormodell für Gas-Flüssig-Reaktionen in der Mikroblasensäule zu entwickeln. Dieses Reaktormodell ermöglicht dann die richtige Vorhersage geeigneter Kandidatenreaktionen für die Verarbeitung in diesem Mikroreaktor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-56763-6_22 fc8ecba435c2cb80969c83e2ff027fcb;de;;;2.4.;;;Kontrolle von erinnerten Greifsequenzen bei Affen Motorische und prämotorische Kortex-Feuermuster von 307 einzelnen Neuronen wurden aufgezeichnet, während Affen schnelle Sequenzen von drei erreichenden Bewegungen zu erinnerten Zielknöpfen machten, die im zweidimensionalen Raum angeordnet waren. Ein primäres Ziel war es, gerichtet abgestimmte Reaktionen für jede der drei Bewegungsperioden während 12 Bewegungssequenzen zu untersuchen und zu vergleichen, die den direktionalen Raum vor dem Affen gleichmäßig abtasteten. Die Mehrheit der Neuronen zeigte maximale Reaktionen bei Bewegungen in eine Vorzugsrichtung mit kleineren Zunahmen bei Bewegungen nahe der Vorzugsrichtung. Diese Antworten zeigten für 72 % der untersuchten Neuronen eine statistisch signifikante Regressionsanpassung an eine Kosinusfunktion. Vergleiche zwischen den für die erste, zweite und dritte Bewegungsperiode getrennt berechneten Stimmrichtungen legten nahe, dass die bevorzugte Richtung über eine schnell ausgeführte Reihe von Bewegungen hinweg nahezu konstant war, obwohl diese Bewegungen an unterschiedlichen Ausgangspunkten im Raum begannen. Obwohl direktional abgestimmte Neuronen nur grob auf eine bestimmte Bewegungsrichtung abgestimmt waren, trug das neuronale Ensemble genaue Richtungsinformationen. Ein Populationsvektor, der durch Summieren von Vektorbeiträgen aus der gesamten Population von abgestimmten Neuronen berechnet wurde, sagte die Bewegungsrichtung mit einer mittleren Genauigkeit von 20° vorher. Dieser Populationscode machte konsistente Vorhersagen für jede der 36 untersuchten Bewegungen mit einem einzigen Satz von Populationsparametern. Die meisten der verbleibenden Neuronen (24%), die während der Bewegung nicht abgestimmt wurden, zeigten signifikante Aktivitätsänderungen während anderer Aspekte der Aufgabenausführung. Einige nicht abgestimmte Neuronen wiesen ungerichtete Zunahmen auf, die während der Bewegung aufrechterhalten wurden, während andere während der drei Bewegungsperioden identische phasische Ausbrüche zeigten. Diese nicht abgestimmten Neuronen können die Stabilisierung von Schulter, Rumpf und Unterarm während der Bewegung oder Unterarmbewegungen während des Drückens von Knöpfen steuern.;-;-;-;https://link.springer.com/article/10.1007/BF00227940 c976111052bfe9e69be8e1f862d91372;de;;;2.4.;;;Big Data für prädiktive Analysen in hochsensiblen Gesundheitseinstellungen Die automatisierte Datenerfassung ist heute im Gesundheitswesen verbreiteter denn je. Elektronische Patientenaktensysteme (EHRs) und Echtzeitdaten von medizinischen Geräten und Laborgeräten, Bildgebung und Patientendemografie haben die Fähigkeit zur genauen Überwachung, Diagnose und Verabreichung von Therapien an Patienten erheblich verbessert. Dieses Kapitel konzentriert sich auf die Verwendung von Daten für das stationäre Versorgungsmanagement in hochakutisierten Räumen wie Operationssälen (OPs), Intensivstationen (ICUs) und Notaufnahmen (EDs). Darüber hinaus werden verschiedene Arten mathematischer Techniken und Ansätze zur Identifizierung von Risikopatienten sowie die Identifizierung und Herausforderungen im Zusammenhang mit der Ausgabe von Alarmsignalen an überwachten Patienten diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-93061-9_4 941d7bff7990aa9288cc104bb5fefbf5;de;;;2.4.;;;Identifizierung heterogener anisotroper Eigenschaften bei zerebralen Aneurysmen: ein punktueller Ansatz Die traditionellen Ansätze, heterogene Eigenschaften in einer Weichteilstruktur mittels optimierungsbasierter inverser Methoden abzuschätzen, stoßen aufgrund der großen Anzahl gleichzeitig zu bestimmender Unbekannter oft auf Schwierigkeiten. Dieser Artikel schlägt eine neue Methode zur Identifizierung der heterogenen anisotropen nichtlinearen elastischen Eigenschaften in zerebralen Aneurysmen vor. Bei diesem Verfahren werden die lokalen Eigenschaften direkt aus den punktuellen Spannungs-Dehnungs-Daten bestimmt, wodurch eine gleichzeitige Optimierung der Eigenschaftswerte an allen Punkten/Bereichen im Aneurysma vermieden wird. Die für eine punktuelle Identifizierung benötigten Spannungsverteilungen werden mit einem inversen elastostatischen Verfahren berechnet, ohne die jeweiligen Materialeigenschaften zu berücksichtigen. Dieses Paradigma wird numerisch durch simulierte Inflationstests an einem bildbasierten zerebralen Aneurysmasack getestet. Das Wandgewebe wird als achtlagiges Laminat modelliert, dessen konstitutives Verhalten durch eine anisotrope hyperelastische Dehnungsenergiefunktion mit vier Parametern beschrieben wird. Es wird angenommen, dass sich die Parameter im Sack kontinuierlich ändern. Deformierte Konfigurationen, die aus der Vorwärts-Finite-Elemente-Analyse erzeugt wurden, werden als Eingabe verwendet, um die Parameterverteilungen invers festzulegen. Die skizzierte und die zugeordnete Verteilung stimmen hervorragend überein. Eine Vorwärtsverifikation wird durchgeführt, indem die aus den skizzierten und den zugewiesenen Materialparametern erhaltenen Verschiebungslösungen bei einem anderen Druck verglichen werden. Die Abweichungen der Knotenverschiebungen liegen im größten Teil des Sacks innerhalb von 0,2%. Die Studie hebt einige Besonderheiten der vorgeschlagenen Methode hervor und zeigt die Machbarkeit der Identifizierung der distributiven anisotropen nichtlinearen Eigenschaften in zerebralen Aneurysmen auf Organebene.;-;-;-;https://link.springer.com/article/10.1007/s10237-010-0225-7 7a33fc04502bbdaeb8ab878c37e13d0c;de;;;2.4.;;;Die Poesie der Seele in Aktion: Metapher und Bewusstsein in hat sich als James' letztes Werk einen Namen gemacht. Sein letzter vollständiger Roman wurde 1904 erstmals veröffentlicht, mehr als elf Jahre vor seinem Tod. James produzierte anschließend mehrere Bände mit Kurzgeschichten, Theaterstücken, drei Bände mit Autobiographien, Reiseberichten, darunter;-;-;-;https://link.springer.com/chapter/10.1007/978-1-137-10758-9_6 c77c62332cebca3de38b387d32d66709;de;;;2.4.;;;Kohlenstoffmaterialien aus technischen Ligninen: Jüngste Fortschritte Lignin, ein wesentlicher Bestandteil lignozellulosehaltiger Biomasse, wird bei der Zellstoffherstellung in enormen Mengen erzeugt. Es ist auch ein wichtiges Nebenprodukt von Biokraftstoffen der zweiten Generation. Die effektive Nutzung von Lignin ist entscheidend für die beschleunigte Entwicklung der fortschrittlichen Zellulose-Bioraffinerie. Die geringen Kosten und die Verfügbarkeit von Lignin machen es zu einem attraktiven Vorläufer für die Herstellung einer Reihe von Kohlenstoffmaterialien, einschließlich Aktivkohle, Aktivkohlefasern (CF), struktureller CF, graphitischer Kohlenstoff oder Ruß, die für den Umweltschutz als Katalysatoren verwendet werden könnten Energiespeicheranwendungen oder als Verstärkungskomponenten in fortschrittlichen Verbundwerkstoffen. Technische Lignine sind hinsichtlich Molekulargewicht, Struktur, chemischer Reaktivität und chemischer Zusammensetzung sehr unterschiedlich, was auf die unterschiedliche Herkunft des Lignins und die verschiedenen Methoden der Ligninisolierung zurückzuführen ist. Die inhärente Heterogenität von Lignin ist das Haupthindernis für die Herstellung von Hochleistungs-CF. Obwohl CF auf Ligninbasis in Bezug auf die mechanischen Eigenschaften immer noch nicht mit CF auf Polyacrylnitril-Basis konkurriert, eröffnen sie dennoch neue Märkte durch hohe Verfügbarkeit und niedrige Produktionskosten. Alternativ könnte technisches Lignin zur Herstellung von Kohlenstoffadsorbentien verwendet werden, die sehr hohe Oberflächen und Porenvolumina aufweisen, die mit den besten kommerziellen Aktivkohlen vergleichbar sind. Diese porösen Kohlenstoffe eignen sich zur Reinigung von Gas und wässrigen Medien von organischen Schadstoffen oder zur Adsorption von Schwermetallionen aus wässrigen Lösungen. Sie könnten auch als Katalysatoren oder Elektroden in elektrochemischen Anwendungen verwendet werden.;-;-;-;https://link.springer.com/article/10.1007/s41061-018-0210-7 e0ab38105507d8eb60e19759346c8c40;de;;;2.4.;;;Negativer Kontrast als Funktion des Herunterschaltens der Saccharosekonzentration bei durstigen Ratten In Experiment I erhielten durstige Ratten zuerst 1,50 ml einer 4%igen oder 16%igen Saccharoselösung und später 25 ml derselben Lösung wie zuvor. Die Kontrollpersonen erhielten durchgehend 25 cc der entsprechenden Lösung. In Experiment II wurden die Versuchspersonen von 1,75 ml 8% auf 0,20 ml der gleichen Lösung umgestellt, aber alle Versuchspersonen erhielten später 1,75 ml Saccharose als Belohnung. In keinem der Experimente wurde ein zuverlässiger negativer Kontrasteffekt erhalten. In Experiment II wurde jedoch ein signifikanter positiver Kontrast-ähnlicher Effekt erhalten. Die Ergebnisse wurden im Hinblick auf die älteren Theorien von Crespi und Helson sowie die neue Theorie von Capaldi diskutiert, die alle drei eher eine relative als eine absolute Sichtweise der Verstärkung betonen.;-;-;-;https://link.springer.com/article/10.3758/BF03333278 353d520970afd32b1eeaff5dac3e5b49;de;;;2.4.;;;Thermografischer Nachweis von Ermüdungsschäden an Reaktordruckbehälterstählen (RPV) Eine IR (IR)-Thermografietechnik wurde als zerstörungsfreie Bewertungstechnik angewendet, um den Ermüdungsschaden von Reaktordruckbehälter-(RPV)-Stählen während 20 Hz- und 1000 Hz-Ermüdungstests zu untersuchen. Es wurden fünf Stufen des Temperaturprofils beobachtet: ein anfänglicher Anstieg der durchschnittlichen Probentemperatur, ein Temperaturabfallbereich, ein Gleichgewichts-(stationärer) Temperaturbereich, ein abrupter Temperaturanstieg und ein Temperaturabfall nach dem Probenversagen. Der Zusammenhang zwischen Temperatur, Spannungs-Dehnungs-Zustand und Ermüdungsverhalten wird diskutiert. Sowohl thermodynamische als auch Wärmeübertragungstheorien werden angewendet, um die beobachteten Temperaturschwankungen während der Ermüdung zu modellieren. Aus den beobachteten Temperaturprofilen wurde der Spannungs-Dehnungs-Zustand des Materials rückberechnet. Die vorhergesagten und gemessenen Temperaturentwicklungen und das mechanische Verhalten während der Ermüdung stimmen gut überein. Die Thermographie scheint eine nützliche Methode zur Untersuchung des Spannungs-Dehnungs-Verhaltens bei Ermüdung zu sein.;-;-;-;https://link.springer.com/article/10.1361/105994903770343213 f5fc2fe9a0eaf694aefa53401ddc0890;de;;;2.4.;;;Katabolische lineare Plasmide Katabolische Gencluster, die auf linearen Plasmiden vom Invertron-Typ lokalisiert sind, tragen signifikant zur Fähigkeit von Actinobakterien bei, ein breites Spektrum organischer Verbindungen abzubauen. Besonders in;-;-;-;https://link.springer.com/chapter/10.1007/7171_2007_091 d707b725424cede82fe73f608fd3bc1d;de;;;5.3.;;;Die Erkundung persönlicher Assistenten Dieses Papier präsentiert eine Perspektive der Verwendung persönlicher Assistenten in personalisierten Systemen, insbesondere hinsichtlich des Verständnisses des Benutzermodells und der Generierung geeigneter Anpassungen und Reaktionen. Das Papier diskutiert die Verwendung eines persönlichen Assistenten als Dateneingabequelle und die erwarteten Stereotypen basierend auf der Denkweise. Dies ist der Rahmen für die Untersuchung eines benutzerzentrierten Designansatzes zum Aufbau des intelligenten personalisierten Systems.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-47952-X_94 c4c2673af0fdd0b3301d921764b609a9;de;;;2.4.;;;Licht- und Elektronenmikroskopie Mycoplasma-like organisms (MLO) sind erst seit vierzehn Jahren als Pathogene von Pflanzen und Insekten anerkannt (Kapitel 2), und die Literatur, die die Anwendung von Licht- und Elektronenmikroskopie zu ihrer Untersuchung beschreibt, ist bereits beachtlich. Die meisten Beiträge stützten sich nur auf die einfache Transmissionselektronenmikroskopie von ultradünnen Schnitten, um den Zusammenhang von MLO mit Pflanzen mit Krankheitssymptomen zu bestätigen (siehe Kapitel 3). Vielleicht, weil das Studium der MLO noch in den Kinderschuhen steckt, haben nur wenige der spezialisierteren Techniken den Status von „Standardmethoden“ erreicht. Daher enthält dieses Kapitel Verweise auf einige Methoden, die nicht „erprobt“ sind, aber dennoch für die Entwicklung und den breiteren Einsatz in Betracht gezogen werden sollten.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-1164-3_4 250a2736a54ca7c55d01d04f28b06c17;de;;;5.3.;;;Die Zukunft von Social Media im Marketing Soziale Medien ermöglichen es Menschen, frei mit anderen zu interagieren und bieten Vermarktern mehrere Möglichkeiten, Verbraucher zu erreichen und mit ihnen in Kontakt zu treten. Angesichts der zahlreichen Auswirkungen von Social Media auf Einzelpersonen und Unternehmen konzentrieren sich die Autoren in diesem Artikel darauf, wo ihrer Meinung nach die Zukunft von Social Media bei marketingbezogenen Themen und Problemen liegt. Basierend auf akademischer Forschung, Diskussionen mit Branchenführern und populärem Diskurs identifizieren die Autoren neun Themen, die nach vorhergesagter bevorstehender Zukunft (dh der unmittelbaren, nahen und fernen Zukunft) geordnet sind, von denen sie glauben, dass sie die Zukunft der sozialen Medien durch drei Objektive: Verbraucher, Industrie und öffentliche Ordnung. Innerhalb jedes Themas beschreiben die Autoren die digitale Landschaft, präsentieren und diskutieren ihre Vorhersagen und identifizieren relevante zukünftige Forschungsrichtungen für Wissenschaftler und Praktiker.;-;-;-;https://link.springer.com/article/10.1007/s11747-019-00695-1 a937bf9a5f3462c60046554611a67585;de;;;5.3.;;;Wie krank ist die Online-Gesundheitsversorgung? Ein Überblick über die Barrierefreiheitsstufen der Websites der Gesundheitseinrichtungen der Iberischen Halbinsel Der gegenwärtige Drang, das Internet sowohl für soziale als auch für berufliche Aufgaben zu nutzen, zusammen mit der Existenz von über 80 Millionen europäischen Bürgern mit irgendeiner Art von Behinderung, führten zur Notwendigkeit eines barrierefreien Webs [1]. Angesichts der ebenfalls zunehmenden Nachfrage nach gesundheitsbezogenen Informationen im Internet und der Annahme, dass Gesundheitseinrichtungen die Ersteller dieser Art von Informationen sind, wurde eine Forschungsstudie entwickelt, um die Zugänglichkeit der iberischen Gesundheitseinrichtungen zu bewerten. Aus dieser Studie, die ACESSWEB als Bewertungsplattform verwendete, konnte festgestellt werden, dass keine der bewerteten Websites WCAG 2.0-konform war und dass trotz der schlechten Ergebnisse spanische Websites mehr Bedenken hinsichtlich der Barrierefreiheit aufwiesen als portugiesische. Daher ist die Situation kritisch und es müssen erhebliche Anstrengungen unternommen werden, um Bürgern mit Behinderungen den Zugang zu den dringend benötigten gesundheitsbezogenen Informationen zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-31307-8_41 3bd61764498021f2353b9e3dd3962486;de;;;5.3.;;;Der Projektfall: Eine westafrikanische digitale Universität Dieses Papier ist ein Projektfallbericht einer geplanten West African Digital University, die auf der Grundlage mehrerer Forschungsergebnisse begann, die sich auf drei westafrikanische Länder konzentrierten, hauptsächlich auf den Export von E-Bildung durch E-Learning-Umgebungen, was als ein Weg diskutiert wurde Verbesserung der Lernkultur, des Designs und der Benutzerfreundlichkeit des webbasierten Lernens afrikanischer Studenten. Hauptziel und Ziel dieser digitalen Hochschule ist es, zu möglichen Lösungen für Probleme der Hochschulbildung in Entwicklungsländern, insbesondere den Ländern südlich der Sahara, durch die Bereitstellung von Export-E-Education für westafrikanische Bürger beizutragen. Die West African Digital University würde in der Praxis die Köpfe der Studierenden entwickeln und das Bewusstsein für Frieden und Toleranz schärfen, um die westafrikanische Region zu integrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-54687-2_17 4544ffbd05e36c4b793e3273f06479c8;de;;;5.3.;;;Einführung in die Navigation Menschen suchen routinemäßig nach Navigationshilfe, um den Weg von einem Ort zum anderen zu finden. Insbesondere die Kenntnis des aktuellen Standorts und das Finden von Wegen, um an einen anderen Ort in unbekannten geografischen Gebieten zu gelangen (z. Seit Jahrtausenden baut der Mensch Geräte zur Navigationshilfe, denn zuverlässige Orientierung ist für jeden wichtig. Frühe Navigationsgeräte basierten auf den fortschrittlichen Technologien der Zeit, die im Prinzip hauptsächlich mechanisch waren und nicht auf Karten basierten. Als die Technologien weiter fortgeschritten und neue Technologien auftauchten, wurden neue Navigationsgeräte entwickelt. Aktuelle Navigationsgeräte verfügen über eine Reihe neuer und fortschrittlicher Technologien, die auf elektronischen Prinzipien und Karten basieren. Von den fortschrittlichen Technologien, die die Grundlage für Navigationsgeräte bilden, hat das Global Positioning System (GPS) den größten Einfluss auf die zunehmende Popularität von Navigationssystemen. Navigationstechnik für den Outdoor-Einsatz lässt sich in vier Generationen einteilen. Navigationstechnik für den Innenbereich hat eine kürzere Lebensdauer und lässt sich in zwei Generationen einteilen. Es gibt Unterschiede zwischen der Navigation im Freien und in Innenräumen, einschließlich der Anforderungen an die Navigationsunterstützung und der Arten von Technologien und Karten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-7741-0_1 af2ae29a727fb5d98647f668dee2c65a;de;;;5.3.;;;Forschung zur Datenvisualisierung in verschiedenen Szenarien Mit der Entwicklung der Informatik ist das Zeitalter von Big Data angebrochen. Angesichts der neuen Ära und der neuen Herausforderungen konnten die traditionellen analytischen Methoden von Problemen in verschiedenen Bereichen den Anforderungen nicht gerecht werden. Datenvisualisierung ist eine sich schnell entwickelnde Disziplin, sie hat erhebliche Vorteile bei der Analyse von Problemen, sodass die Datenvisualisierung im Zeitalter von Big Data glänzt. Da den Menschen die Bereiche Energie und Umwelt sehr am Herzen liegen, haben wir uns entschieden, Datenvisualisierungsstudien in zwei Bereichen durchzuführen, Energie und Umwelt. Entsprechend den unterschiedlichen Eigenschaften von Daten in verschiedenen Bereichen schlagen wir gezielte Datenvisualisierungsprozesse vor und entwerfen Datenvisualisierungslösungen. Bei Energiedaten verfolgen wir den Prozess der Datenverarbeitung, des Visualisierungsdesigns und der Datenvisualisierung. Nach dem Prinzip der hohen Effizienz und Intuitivität fügen wir unserem Design eine Zeitleiste und eine Kombination verschiedener Diagramme hinzu und zeigen schließlich eine dynamische Wirkung. Wir schlagen auch ein mehrdimensionales visuelles Mapping-Visualisierungsschema vor. Das Schema kann die visuellen Ergebnisse verfeinern und bereichern. Bei Umweltdaten verfolgen wir den Prozess der Zielanalyse, Datenverarbeitung, Visualisierung und Analyse, die Arbeit zeigt die Bedeutung der Visualisierung bei der Informationsanalyse und Entscheidungsfindung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-15127-0_24 b6b1773968a723392bda612a4c498add;de;;;5.3.;;;Dekomposition von SQuaRE – basierte Anforderungen für die Bedürfnisse von SOA-Anwendungen Die Qualität wird als sehr wichtiger Aspekt von Softwareanwendungen wahrgenommen. Es existiert ein von IT- und Geschäftsfachleuten allgemein akzeptiertes SQuaRE-Modell, das verwendet wird, um die Qualitätsanforderungen an Anwendungen auszudrücken. Heutzutage werden viele Anwendungen nach dem SOA-Paradigma entwickelt und nutzen wiederverwendbare Komponenten, z. B. Webservices. Daher besteht die Notwendigkeit, die auf der Anwendungsebene ausgedrückten Qualitätsanforderungen auf die Ebene der Komponenten zu zerlegen, die zur Erstellung der Anwendung verwendet werden. Das Problem bei einer solchen Zerlegung ist zweifach. Zunächst ist ein Qualitätsmodell für Webservices und SOA-basierte Anwendungen noch in Arbeit und keiner der vorgeschlagenen Ansätze wurde als Standard akzeptiert. Das zweite Problem hängt mit der nutzerorientierten Wahrnehmung des SQuaRE-Modells und der technischen Perspektive von WS zusammen. In diesem Artikel zeigen wir, wie im SQuaRE-Modell definierte Anforderungen auf QoS-Attribute von Webdiensten abgebildet werden können. Wir treten dafür ein, dass die ontologische Darstellung von Qualitätsmodellen ein gemeinsames Verständnis der Attribute ermöglicht und die Zerlegung von Geschäftsanforderungen in rein technische Anforderungen erleichtert. Dennoch scheint aufgrund der unterschiedlichen Wahrnehmung eine vollständige Automatisierung dieses Prozesses unmöglich zu sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-9532-0_7 658f1519c5c2479251fb38218dfcf6b0;de;;;5.3.;;;Steigerung der Konversionsraten durch Eye Tracking, TAM, A/B-Tests: Eine Fallstudie Online-Händler stehen permanent vor der Frage, wie sie die Konversionsraten ihrer Shops (z.B. den Anteil der Visits, die mit einem Kauf enden) steigern können. Erfolgreich scheinen Shops zu sein, bei denen Landingpages Aufmerksamkeit und Interesse wecken sowie schnell zu interessanten Angeboten gelangen. Während jedoch viele Layout- und Navigationsverbesserungen im Allgemeinen vernünftig klingen, führen nur wenige davon zu erhöhten Conversions beim Online-Gehen. In diesem Whitepaper diskutieren wir, wie Eye-Tracking, Technology Acceptance Modeling (TAM) und A/B-Tests dabei helfen können, sie zu optimieren, bevor sie online gehen. Zur Demonstration dient die Verbesserung der Navigationsmenüposition auf Landingpages eines großen europäischen Online-Modeshops. Der gesamte Prozess von der Ideengenerierung bis zur Integration wird besprochen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2700-5_21 b313ab17b4d827a15b3a488f52e500e3;de;;;2.4.;;;Biologische Robustheit in komplexen Wirt-Pathogen-Systemen Infektionskrankheiten sind nach wie vor die Todesursache Nummer eins beim Menschen. Auch in Industrieländern stellen Infektionskrankheiten nach wie vor eine große Gesundheitsgefahr dar. Dieser Artikel untersucht einen konzeptionellen Rahmen zum Verständnis von Infektionskrankheiten im Kontext der komplexen Dynamik zwischen Mikrobe und Wirt und untersucht theoretische Strategien für Antiinfektiva. Die zentrale Säule dieses konzeptionellen Rahmens ist, dass biologische Robustheit eine grundlegende Eigenschaft von Systemen ist, die eng mit der Evolution symbiotischer Wirt-Pathogen-Systeme verknüpft ist. Es gibt spezifische architektonische Merkmale solcher robusten und dennoch entwicklungsfähigen Systeme und interpretierbare Kompromisse zwischen Robustheit, Fragilität, Ressourcenbedarf und Leistung. Dieses Konzept gilt gleichermaßen für Mikroben und Wirte. Krankheitserreger haben sich entwickelt, um den Wirt mit verschiedenen Strategien sowie effektiven Fluchtmechanismen auszubeuten. Modulare Pathogenitätsinseln (PAI) aus horizontalem Gentransfer, hochvariable Oberflächenmoleküle und eine Reihe anderer Gegenmaßnahmen erhöhen die Robustheit eines Pathogens gegen Angriffe des Wirtsimmunsystems. Der Wirt hat ebenfalls komplexe Abwehrmechanismen entwickelt, um sich gegen pathogene Bedrohungen zu schützen, aber das Immunsystem des Wirts beinhaltet mehrere Kompromisse, die von Pathogenen ausgenutzt werden können und unerwünschte Entzündungsreaktionen induzieren. Aufgrund der Komplexität der Dynamik, die sich aus der Interaktion mehrerer Mikroben und eines Wirts ergibt, erfordern wirksame Gegenmaßnahmen ein tiefes Verständnis der Systemdynamik sowie detaillierte molekulare Mechanismen der beteiligten Prozesse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7643-7567-6_10 0541e99de8cca28647832b0d904300b0;de;;;5.3.;;;Fallbasierte Argumentation zu E-Community-Wissen Dieses Papier stellt MKM vor, ein Meta-Wissensmodell zur Verwaltung der Wissenszuverlässigkeit, um ein CBR-System so zu erweitern, dass es mit teilweise zuverlässigem, nicht fachkundigem Wissen aus dem Web argumentieren kann. Die Wissenszuverlässigkeit wird aus der Sicht des Entscheidungsträgers betrachtet, der das CBR-System verwendet. Es wird durch das MKM-Modell erfasst, das Begriffe wie Glaube, Vertrauen, Reputation und Qualität sowie deren Beziehungen und Regeln zur Bewertung der Zuverlässigkeit von Wissen umfasst. Wir beschreiben sowohl das Modell als auch den damit verbundenen Ansatz zur Erweiterung von CBR. Bei einem Problem, das für einen bestimmten Benutzer zu lösen ist, wird die Zuverlässigkeitsschätzung verwendet, um Wissen mit hoher Zuverlässigkeit zu filtern und die vom CBR-System erzeugten Ergebnisse zu ordnen, um die Qualität der Ergebnisse sicherzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39056-2_8 30e9b8ea9f6d92d428b6a7f8f31457c5;de;;;5.3.;;;Modellbasierte Steuerung mit Interaktionsvorhersage für humangekoppelte untere Exoskelettsysteme Der Sensitivity Amplification Control (SAC)-Algorithmus wurde erstmals in der Augmentationsanwendung des Berkeley Lower Extremity Exoskeleton (BLEEX) vorgeschlagen. Da der SAC-Algorithmus die Komplexität des Exoskelettsystems stark reduzieren kann, wird er häufig in Anwendungen zur menschlichen Augmentation verwendet. Dennoch hängt die Leistung des SAC-Algorithmus von der Genauigkeit der dynamischen Modellparameter ab. In diesem Artikel schlagen wir eine neuartige modellbasierte Steuerung mit Interaction Predicting (MIP)-Strategie vor, um die Abhängigkeit vom genauen dynamischen Modell des Exoskeletts zu verringern. Das MIP besteht aus einem Interaktionsprädiktor und einem modellbasierten Controller. Der Interaktionsprädiktor kann Bewegungstrajektorien des Piloten vorhersagen und den Piloten ersetzen, um das Exoskelett durch ein Impedanzmodell zu treiben. Bei der vorgeschlagenen Strategie verstärkt der modellbasierte Controller nicht nur die vom Interaktionsprädiktor initiierten Kräfte, sondern noch wichtiger die vom Piloten auferlegten Kräfte, um die Fehler zwischen der prädiktiven Bewegungsbahn und der beabsichtigten Bewegungsbahn des Piloten zu korrigieren. Anschauliche Simulationen und experimentelle Ergebnisse werden präsentiert, um die Effizienz der vorgeschlagenen Strategie zu demonstrieren. Darüber hinaus werden auch Vergleiche mit traditionellen modellbasierten Regelalgorithmen vorgestellt, um die Effizienz und Überlegenheit der vorgeschlagenen Regelstrategie zur Verringerung der Abhängigkeit von dynamischen Modellen zu demonstrieren.;-;-;-;https://link.springer.com/article/10.1007/s10846-020-01200-5 9d746bda2fff02aa08577b5dcfc91932;de;;;5.3.;;;Evaluierung des WordTree-Systems mit motorisch behinderten Benutzern In diesem Artikel schlagen wir eine neuartige Interaktionstechnik vor, die mit einer Vorhersageliste verwendet werden kann. Unser Ziel ist es, den Einsatz dieser Hilfsmittel zu optimieren. Eine Vorhersageliste wird im Allgemeinen verwendet, um den Aufwand zu reduzieren, indem eine Liste von Kandidatenwörtern präsentiert wird, die das Präfix des Benutzers fortsetzen können. Diese Technik hat jedoch einen Nachteil: Manchmal wird das Wort, das der Benutzer schreiben möchte, nicht in der Liste angezeigt. Der Benutzer muss seine Eingabe manuell fortsetzen. Unsere Technik ermöglicht es dem Benutzer, auf einen beliebigen Buchstaben in einem Wort der Liste zu klicken, sodass die Teilzeichenfolge dieses Buchstabens in den Text eingefügt wird. Wir präsentieren auch die Experimente, die durchgeführt wurden, um unser System mit der klassischen Liste zu vergleichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14100-3_17 cd0bd74526fa7c8ceaff2eab6d7da3b3;de;;;5.3.;;;Ein humanisiertes E-Learning-System für Mandarin basierend auf Pervasive Computing Dieses Whitepaper stellt das Design und die Implementierung eines Anwendungssystems vor, bei dem Pervasive Computing im Mandarin e-Learning verwendet wird. Zunächst wird eine kurze Einführung in die laufenden Veränderungen im Bereich des Pervasive Computing und insbesondere des E-Learning gegeben, gefolgt von einem E-Learning-Framework mit Anwendungsserver und Enterprise-Server, der die personalisierten Lernservices an die Lernenden verteilt, damit die Lernenden die obtain Lernressource oder personalisierter Lernführer interaktiv. Seine Design- und Implementierungsfragen werden ausführlich besprochen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69736-7_9 5284dedbbbebd5235901f9b436322280;de;;;5.3.;;;Virtuelle 3D-Welten als Fusion von Immersing-, Visualisierungs-, Aufnahme- und Wiedergabetechnologien In diesem Kapitel werden virtuelle 3D-Welten als Fusion von Technologien für ernsthafte Anwendungen diskutiert. Eine Vielzahl neuer Trends auf dem Gebiet und originelle Erkenntnisse werden diskutiert und mit Methoden und Features veranschaulicht. Das Ziel dieses Kapitels ist es, zu bewerten und vorzustellen, welche Vorteile erzielt werden können, wenn solche Trends und Funktionen unter einer einzigen Plattform vereint werden. Zu den spezifischen Trends, die in diesem Kapitel behandelt werden, gehören ein verstärktes Eintauchen in Virtual-Reality-Geräte, eine Vereinfachung der Steuerung mit Joysticks und mobilen Geräten, die Arbeit mit großen Mengen an Multimedia-Inhalten und das Aufzeichnen von Aktivitäten mit virtuellen Aufnahmen. Die Diskussion wird durch die Literaturrecherche und Bewertung der für die virtuelle Welt der vAcademia entwickelten Funktionen unterstützt. Ein besonderer Fokus des Kapitels liegt auf der Diskussion, wie die neuen Eigenschaften virtueller 3D-Welten deren Effizienz für ernsthafte Anwendungen steigern, neue Nutzungsszenarien ermöglichen und die User Experience verbessern können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-14645-4_7 96b473937ecd98f1a864274870c6a2b5;de;;;5.3.;;;Forschung zu Berührung als Interaktionsmittel in der digitalen Kunst Dieser Beitrag untersucht Berührung als Medium des kreativen Ausdrucks in der digitalen Kunst. Wichtig für diese Arbeit ist die haptische Interaktion, die über eine physikalische Schnittstelle erfolgt. Berührung ist nicht nur eine taktile Empfindung, sondern auch eine Möglichkeit, eine Umgebung zu erkunden, indem sensorische Informationen wie Druck und Temperatur kombiniert werden. Daher kann die Schöpfung eines Künstlers durch die empfangenen sensorischen Informationen vom Betrachter verstanden werden. Das Hauptaugenmerk der Arbeit liegt auf dem Tastsinn und es wird unserem Verständnis helfen, die folgenden vier Kunstwerke und entsprechenden Technologien zu untersuchen. Die ausgewählten Arbeiten beinhalten sowohl visuelle als auch akustische Interaktionen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35236-2_23 16dcd5425a7170976bf3daff2586aca3;de;;;5.3.;;;Quantifizierung der Auswirkungen von Standards beim Hosten von Robotersimulationen in der Cloud Cloud Computing hat die Fähigkeit, die Simulation zu transformieren, indem es den Zugriff auf die Berechnung aus der Ferne ermöglicht. Die Transformationen sind jedoch nicht ohne Kosten. Die in der Robotik erforderlichen physikbasierten Simulationen sind zeitabhängig und angesichts der Komplexität der Betriebsumgebungen gibt es viele Gründe für einen Robotiker, sich Sorgen zu machen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39209-2_42 09d73c15166723d51a66a15b334d075f;de;;;2.4.;;;Psychologie sollte das Paradoxe ehren: Die Macht der Schwäche Wir leben in einer gewalttätigen Welt, in unseren Häusern, auf den Straßen, über internationale Grenzen hinweg, in unseren technostrategischen Bunkern. Gleichzeitig konsumieren wir einen erfolgreich vermarkteten Wohlfühl-Lifestyle, der die psychische Betäubung bietet, um unseren kostbaren Komfort inmitten dieser Gewalt zu schützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-4458-5_9 a609f3060562bd9fbfa929d16daefcef;de;;;2.4.;;;Struktur des Periodensystems. Grundzustände der Elemente Es ist eines der Ziele der Atomphysik, die Anordnung und die Eigenschaften der chemischen Elemente im Periodensystem zu verstehen. Die empirisch ermittelten physikalischen und chemischen Eigenschaften der Atome und ihre Abhängigkeit von der Ordnungszahl;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-97014-6_19 e96e257a55ff4e36073aca2cfd26d54c;de;;;2.4.;;;Expression und prognostische Rolle von SKIP beim humanen Mammakarzinom Ski-interagierendes Protein (SKIP) ist ein nuklearer Hormonrezeptor-wechselwirkender Cofaktor, der mit dem Proto-Onkogen Ski interagiert, eine Reihe von Signalwegen moduliert, die an der Kontrolle der Zellproliferation und -differenzierung beteiligt sind, und eine entscheidende Rolle bei der Onkogenese spielen kann. In der vorliegenden Studie wurden zur Untersuchung der potenziellen Rolle von SKIP bei Brustkrebs Expressionsmuster, Interaktion und die Korrelation mit klinischen/prognostischen Faktoren von SKIP und Ki-67 bei Patientinnen mit Brustkrebs untersucht. Immunhistochemie und Western-Blot-Analyse wurden für SKIP in 85 Brustkarzinomproben durchgeführt. Die Daten wurden mit klinisch-pathologischen Merkmalen korreliert. Die univariaten und multivariaten Überlebensanalysen wurden ebenfalls durchgeführt, um ihre prognostische Signifikanz zu bestimmen. Wir fanden, dass SKIP im Brustkarzinom im Vergleich zu den angrenzenden normalen Geweben überexprimiert wurde. Eine hohe Expression von SKIP war positiv mit dem histologischen Grad (;-;-;-;https://link.springer.com/article/10.1007/s10735-013-9546-z 833677fe3f87e3f689a5518649a7c30f;de;;;2.4.;;;Die Europäische Weltraumforschungsorganisation Ende 1970 hatte die Europäische Weltraumforschungsorganisation einen Wendepunkt erreicht. Die Organisation hatte zweifellos ihre Reife in den Technologie- und Managementaspekten eines gemeinsamen Weltraumprogramms unter Beweis gestellt, es war ihr gelungen, der europäischen Industrie durch die Schaffung einer einheitlichen zentralen Verwaltung von Industrieaufträgen eine Führungsrolle zu geben, und vier Satelliten waren erfolgreich gestartet, alle entworfen und in Europa gebaut. Es herrschte ein Geist des gegenseitigen Vertrauens und des guten Willens mit der europäischen wissenschaftlichen Gemeinschaft, und die technologische Erfolgsrate von Höhenforschungsraketen, die ein Maß für den Service ist, den die ESRO den Experimentatoren bietet, hatte 1970 85% erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-1218-3_23 06cbb859eb37396fb906b9f685f66764;de;;;2.4.;;;Laser-Doppler-Systeme In diesem Kapitel wird die richtige Auswahl, Auslegung und Einstellung eines Laser-Doppler-Systems für eine, zwei oder drei Geschwindigkeitskomponenten diskutiert. Dies erfordert unter anderem;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-05165-8_7 241fc1a27842b8755474fa8a90023510;de;;;5.3.;;;Über Modellbewertung, Bedeutungsindizes und Interaktionswerte in der Grobmengenanalyse Wie bei den meisten Datenmodellen verwendet „Computing with Words“ einen Methodenmix, um seine Ziele zu erreichen, einschließlich mehrerer Messindizes. In diesem Kapitel diskutieren wir einige Vorschläge für solche Indizes im Rahmen der Grobmengenanalyse und stellen einige neue vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18859-6_10 fa813d326c777761d2eb2cf8fa39cda8;de;;;5.3.;;;Entwicklung von Silverlight- und JavaScript-Anwendungen Microsoft SharePoint Foundation 2010 bietet Entwicklern das Clientobjektmodell für den Zugriff auf SharePoint über eine Remoteclientanwendung. Das Clientobjektmodell ist für Silverlight- und JavaScript-Anwendungen verfügbar. In diesem Kapitel erstellen Sie eine Anwendung in jeder dieser Technologien. Sie werden Lösungen erstellen und bereitstellen, die auf die Bücherliste zugreifen, die in diesem Abschnitt verwendet wurde, diesmal mithilfe des Clientobjektmodells.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-4075-4_11 a5b41060754b6437babe6de3d19c22a9;de;;;2.4.;;;Zur Rolle von Zelloberflächenkohlenhydraten und ihren bindenden Proteinen (Lectinen) bei der Tumormetastasierung Diese Übersicht konzentriert sich auf die jüngsten Fortschritte bei der Untersuchung der Rolle von Kohlehydraten auf der Zelloberfläche bei der Tumormetastasierung. Es fasst auch die Ergebnisse umfangreicher Studien zu endogenen Lektinen, ihrer Struktur, Kohlenhydratspezifität und biologischen Funktionen zusammen, wobei der Schwerpunkt auf der Bedeutung von Lektin-Zelloberflächen-Kohlenhydrat-Wechselwirkungen in einem metastatischen Prozess liegt. Zahlreiche Daten zeigen, dass die maligne Transformation mit verschiedenen und komplexen Veränderungen im Glykosylierungsprozess verbunden ist. Einige dieser Veränderungen könnten für Tumorzellen einen selektiven Vorteil während ihrer Progression zu einem invasiveren und metastatischeren Phänotyp bieten. Die Zellglycosylierung hängt von der Expression und Funktion verschiedener Glycosyltransferasen und Glycosidasen ab. Kürzlich hat die Transfektion von Genen, die verschiedene Glysosyltransferasen-Gene in Sense- und Antisense-Orientierung kodieren, dazu beigetragen, direkte Beweise dafür zu liefern, dass Veränderungen in den Kohlehydraten der Zelloberfläche für das metastatische Verhalten von Tumorzellen wichtig sind. Kohlehydrate auf der Zelloberfläche beeinflussen die Interaktionen von Tumorzellen mit normalen Zellen oder mit der extrazellulären Matrix während der metastatischen Ausbreitung und des Wachstums. Diese Wechselwirkungen können über die Kohlenhydrate der Tumorzellen und deren Bindungsproteine, den sogenannten endogenen Lektinen, vermittelt werden. Die Familie der entdeckten endogenen Lektine wächst rasant. Die Zahl der C-Typ-Lectine hat 50 erreicht und es wurden mindestens 10 Galectine identifiziert. Die biologische Bedeutung der endogenen Lektine und ihre mögliche Rolle beim Tumorwachstum und der Metastasenbildung hat begonnen, sich zu enträtseln. Einige Lektine erkennen die „fremden“ Muster von Kohlehydraten auf der Zelloberfläche, die von Mikroorganismen und Tumorzellen exprimiert werden, und spielen eine Rolle bei der angeborenen und adaptiven Immunität. Es wurde gezeigt, dass Lektine das Überleben von Tumorzellen, die Adhäsion an das Endothel oder die extrazelluläre Matrix sowie die Tumorvaskularisierung und andere Prozesse beeinflussen, die für die Metastasierung und das Wachstum entscheidend sind.;-;-;-;https://link.springer.com/article/10.1023/A%3A1015535427597 daddf5fe06ca46f0ea8e9d1c5846b642;de;;;5.3.;;;Steuerung und Untersuchung des Verhaltens von zellulären Automaten durch interaktive Inversion und Visualisierung des Suchraums Ein interaktiver genetischer Algorithmus (IGA) bietet ein Mittel zur Optimierung der Eingabeparameter, die das Verhalten eines zellulären Automaten (CA) steuern. Das Ergebnis sind eine oder mehrere Kombinationen von Parametern, die es der CA ermöglichen, geologische Muster von Fluidströmungen und chemischen Reaktionen in zerklüfteten Medien zu reproduzieren.;-;-;-;https://link.springer.com/article/10.1007/BF03037492 5f802858ef581cda6c2f9422c5bf94ee;de;;;2.4.;;;Experimentelle Untersuchung der dreidimensionalen Grenzschicht auf einer rotierenden Scheibe Das Geschwindigkeitsfeld über einer großen rotierenden Scheibe wurde mit Drucksonden und Hitzdraht-Anemometern untersucht. Das Strömungsfeld besteht aufgrund einer durch Zentrifugalkräfte verursachten Querströmung aus einer dreidimensionalen Grenzschicht. Die mittlere Strömung sowohl im laminaren als auch im turbulenten Bereich lässt sich gut mit früheren Studien an „unendlichen“ glatten rotierenden Scheiben vergleichen, und alle sechs Reynolds-Spannungen und die zehn Tripelprodukte wurden mit etablierten Kreuzdraht-Anemometrietechniken gemessen. Ausgewählte Ergebnisse werden mit früheren dreidimensionalen Grenzschichtmessungen verglichen und einige wichtige Unterschiede festgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-77674-8_27 2b122666740f8d966fb86f2448a5d8fb;de;;;2.4.;;;Kontrolle der kryptischen Transkription in Eukaryoten In den letzten Jahren hat die Entwicklung großtechnischer Technologien unser Konzept der genomweiten Transkriptionskontrolle radikal verändert, indem eine unerwartet hohe Komplexität des eukaryotischen Transkriptoms aufgedeckt wurde. In Organismen, die von Hefe bis zum Menschen reichen, wurde eine beträchtliche Anzahl neuer kleiner RNA-Spezies in Regionen entdeckt, von denen zuvor angenommen wurde, dass sie mit hohen Transkriptionsniveaus inkompatibel sind. Interessanterweise scheinen diese Transkripte, die vom Exosom schnell abgebaut werden, frei von jeglichem Kodierungspotential zu sein und können die Folge unerwünschter Transkriptionsereignisse sein. Es entsteht jedoch zunehmend die Vorstellung, dass ein wichtiger Teil dieser RNAs Nebenprodukte der regulatorischen Transkription darstellen. In diesem Kapitel diskutieren wir die jüngsten Fortschritte in unserem Verständnis der Form des eukaryotischen Transkriptoms. Wir konzentrieren uns auch auf die molekularen Mechanismen, die Zellen nutzen, um zu verhindern, dass kryptische Transkripte die Expression proteinkodierender Gene stören. Schließlich fassen wir Daten aus verschiedenen Systemen zusammen, die darauf hindeuten, dass solche RNAs eine kritische Rolle bei der Regulation der Genexpression sowie der Evolution von Genomen spielen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-7841-7_10 6c442e8e4bff484ab474dfdd76c4b7b2;de;;;2.4.;;;Insulin: Biochemische und physiologische Aspekte Insulin ist seit mehr als einem halben Jahrhundert das am intensivsten untersuchte Säugetierhormon. Diese Situation rührt teilweise von seiner Rolle als das herausragende anabole Hormon bei Säugetieren her. Die Bemühungen, die Physiologie und Biochemie dieses Peptids zu verstehen, folgen einer reichen wissenschaftlichen Geschichte, die aus seiner Studie stammt. Der Nachweis von von Mering und Minkowski 1889, dass die Pankreatektomie beim Hund zu einem dem Diabetes mellitus ähnlichen Syndrom führte;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-0400-5_5 42bd0ff3a918f86537ab303322697db1;de;;;2.4.;;;Können wir mehr tun, um genaue Nukleardaten zu erhalten? Wir fragen, ob effektivere Methoden verwendet werden können, um die Diskrepanzen zu verringern, die oft zwischen einzelnen Messungen von Neutronenkerndaten bestehen bleiben. Vor diesem Hintergrund verfolgen wir die historische Entwicklung einiger ausgewählter Messungen, um zu sehen, welche Lehren aus der Vergangenheit gezogen werden können. Es werden mehrere häufige systematische Fehlerquellen genannt. Diese sind seit vielen Jahren qualitativ anerkannt, aber dennoch weiterhin die wahrscheinlichsten Ursachen für Abweichungen. Die Experimentatoren waren einfach nicht gründlich genug, um eine angemessene Behandlung dieser systematischen Effekte zu demonstrieren. Wir schlagen mehrere verbesserte Verfahren für zukünftige Messungen vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-7099-1_225 f13892a9a4661b154257e7a7eb2368f0;de;;;5.3.;;;Komplexe Analyse des EEG-Signals für biometrische Klassifikationszwecke Ziel dieses Artikels ist es, die potenzielle Nutzung komplexer EEG-Signale im modernen Informationszeitalter zu klären. Brain Computer Interface (BCI) repräsentiert die Verbindung von Gehirnwellen mit Ausgabegeräten über eine Schnittstelle.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07401-6_45 5d4392dee90afc5279f8b44a0912fdb7;de;;;2.4.;;;Nanosekundenpulsfluorimetrie von Proteinen Während des letzten Jahrzehnts haben sich Untersuchungen von Proteinen unter Verwendung von Nanosekunden-Puls-Fluoreszenzspektroskopie verbreitet. Dies ist zum großen Teil das Ergebnis von Fortschritten in der Instrumentierung und der Verfügbarkeit kommerzieller Nanosekunden-Spektrofluorimeter sowie der Entwicklung vieler neuer Fluoreszenzsonden. Methodisch lassen sich diese Studien in zwei Hauptkategorien unterteilen: (1) Lebensdauermessungen, die in diesem Kapitel behandelt werden, und (2) zeitaufgelöste Fluoreszenzanisotropie, das Thema des nächsten Kapitels. Die Anwendung der lebensdaueraufgelösten Emissionsspektroskopie steckt noch in den Kinderschuhen und in der Literatur finden sich nur sehr wenige Studien. Vom Standpunkt der Instrumentierung sind Anisotropiemessungen ähnlich wie Lebensdauermessungen, wobei bei ersteren der Abfall der Polarisation gemessen wird, während bei letzteren der Abfall der Gesamtfluoreszenz gemessen wird. Die Informationen, die aus diesen beiden Arten von Messungen gewonnen werden, sind sehr unterschiedlich. Lebensdauerexperimente geben Aufschluss über die dynamischen Eigenschaften der fluoreszierenden Einheit selbst, während Anisotropiemessungen Informationen über die Form und hydrodynamischen Eigenschaften der Proteine ​​liefern, an die die fluoreszierende Einheit gebunden ist. Eine erschöpfende Literaturrecherche wurde nicht versucht, vielmehr werden in diesem Kapitel repräsentative Ergebnisse beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-9334-8_3 996ab153df472b30ae8f5787f83fa91c;de;;;2.4.;;;Identifizierungsanalyse von Systemen mit verteilten Parametern unter Verwendung der Kalman-Filter-Boundary-Element-Methode Der Zweck dieser Studie ist es, einen neuen Ansatz vorzuschlagen, der auf der Randelementmethode basiert, um die Identifikationsprobleme der partiellen Differentialgleichungen zu lösen, die Feldgleichungen der Probleme sind. In diesem Ansatz wird die Boundary-Element-Methode in Verbindung mit der Kalman-Filtertheorie entwickelt, die im Bereich der optimalen Regelung dynamischer Systeme effektiv eingesetzt wird. Die Genauigkeit und Effizienz des vorgeschlagenen Verfahrens, das als Kalman-Filter-Boundary-Elemente-Methode bezeichnet wird, wird anhand der numerischen Beispiele untersucht. Sie sind: 1) Identifizierung der konzentrierten Wärmequelle im stationären Wärmeleitungsfeld und 2) Identifizierung von Materialeigenschaften und Abschätzung unbekannter Grenzwerte im zweidimensionalen isotropen Elastostatikfeld.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-52439-4_34 52ae293e5ea5a272394b1333efc8ea30;de;;;2.4.;;;Kontrolle der intramarrow B-Zell-Genese durch von Stromalzellen abgeleitete Moleküle Ein bemerkenswerter Fortschritt wurde bei der Untersuchung der B-Zell-Genese erzielt, seit Whitlock und Witte über ein Langzeitkultursystem von Knochenmark-B-Zellen berichtet haben (Whitlock und Witte 1982). Obwohl noch einige weitere Stromazellmoleküle kloniert werden müssen, bevor man schließen kann, dass wir alle Moleküle kennen, die an der B-Zellgenese im Knochenmark beteiligt sind, ist das Grundgerüst der molekularen Voraussetzungen für die B-Zell-Genese weitgehend verstanden. Als Ergebnis dieses Fortschritts wurde eine Reihe von Methoden entwickelt, die Stromazelllinien und rekombinante Zytokine verwenden, um die B-Zell-Genese zu kontrollieren;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-77633-5_4 bf72f8ac0070127e7fb845651f526afd;de;;;2.4.;;;Die globale Verteilung von Methan in der Troposphäre Methan wurde in Luftproben gemessen, die in ungefähr wöchentlichen Abständen an 23 weltweit verteilten Standorten im kooperativen Probennahmenetzwerk von NOAA/GMCC entnommen wurden. Die Standorte reichen in Breitengraden von 90° S bis 76° N, und von den meisten berichten wir 2 Jahre Daten ab Anfang 1983. Alle Messungen wurden durch Gaschromatographie mit einem Flammenionisationsdetektor im NOAA/GMCC-Labor in Boulder durchgeführt , Colorado. Alle Luftproben wurden auf einen einzigen sekundären Methan-in-Luft-Standard bezogen, um ein hohes Maß an interner Konsistenz der Daten zu gewährleisten. Die Genauigkeit der Messungen wird aus Wiederholungsbestimmungen an jeder Probe auf 0,2% geschätzt. Die Breitenverteilung von Methan und die jahreszeitliche Variation dieser Verteilung in der marinen Grenzschicht wurden sehr detailliert definiert, einschließlich einer bemerkenswerten Gleichförmigkeit der Hintergrundmengen von Methan auf der Südhalbkugel. Wir berichten zum ersten Mal über die Beobachtung eines vollständigen saisonalen Methanzyklus am Südpol. Zwischen einem Meeresspiegel und einem Standort in großer Höhe auf Hawaii wird ein signifikanter vertikaler Gradient beobachtet. Die global gemittelten Hintergrundkonzentrationen in der marinen Grenzschicht wurden für den 2-Jahres-Zeitraum Mai 1983-April 1985 einschließlich berechnet, woraus wir einen durchschnittlichen Anstieg von 12,8 ppb pro Jahr oder 0,78 % pro Jahr bezogen auf die global gemittelte Konzentration finden (1625 ppb) in der Mitte dieses Zeitraums. Wir präsentieren Beweise dafür, dass sich die Wachstumsrate von Methan verlangsamt hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-3909-7_21 812369d2b926f4b7f2ded19bcf641105;de;;;2.4.;;;Hochauflösende Elektronenwechselwirkungsstudien mit Atomen, Molekülen, Biomolekülen und Clustern Ionisation und Anlagerung durch Elektronen sind zwei der grundlegendsten unelastischen Elektronenstoßprozesse. Elektronenstoß-Ionisations-/Anlagerungsprozesse sind auch in vielen praktischen Anwendungen wie der Niedertemperatur-Plasmaverarbeitung, Fusionskantenplasmen, planetarischen Atmosphären, Strahlungschemie und chemischen Analysen wichtig. Bei der experimentellen und theoretischen Beschreibung von elektronengetriebenen Ionisations- und Anlagerungsprozessen an atomaren und molekularen Targets wurden im letzten Jahrzehnt erhebliche Fortschritte erzielt, beispielsweise bei der quantitativen Bestimmung von Gesamt- und Teilelektronenstoß-Ionisationsquerschnitten. Dennoch ist über die Feinheiten dieser Wechselwirkung, die vor allem aus experimentellen Studien stammen muss, wenig bekannt, da Experimente die Verfügbarkeit von Elektronenstrahlen hoher Qualität hinsichtlich der Elektronenenergieauflösung und -genauigkeit erfordern.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-27567-3_15 a25ba28789db1070b7687c041c92b0f6;de;;;2.4.;;;Adhäsionsmechanismen bei Lebermetastasen Die Leber ist ein wichtiges Zielorgan für die Metastasenbildung vieler Tumorarten, einschließlich des Lungenkarzinoms (1). Ziel der vorliegenden Studie ist die Aufklärung von Mechanismen, die den Interaktionen zwischen Tumorzellen und Leberzellen zugrunde liegen, die zum Einbau einer Tumorzelle in Lebergewebe und damit zur Bildung eines metastasierten Tumors führen. Der Ansatz bestand darin, erstens die Invasion von Tumorzellen in die intakte Leber sowohl in vivo als auch perfundiert in situ elektronenmikroskopisch zu beobachten, zweitens Leberzellen zu isolieren und die in vivo beobachteten Wechselwirkungen durch Zugabe von Zellen zu Kurzzeitkulturen dieser Leberzellen und drittens durch Störung der in vitro-Interaktionen hauptsächlich durch Antikörper, die entweder gegen die Tumorzellen oder die Leberzellen gerichtet sind. Die in vivo-Studien zeigten, dass der Invasionsmechanismus für verschiedene Tumorzelltypen qualitativ vergleichbar war, obwohl große quantitative Unterschiede insbesondere zwischen diffus infiltrierenden Lymphomzellen einerseits und Tumorzelltypen, die zu nodulären Metastasen. Im Gegensatz dazu zeigten die In-vitro-Experimente deutlich, dass die Mechanismen auf molekularer Ebene ziemlich unterschiedlich waren, insbesondere für Lymphome im Vergleich zu Karzinomzellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-5036-8_15 3437cdf9d20935270f163a4dd2798209;de;;;2.4.;;;"Unerwünschte Arzneimittelwirkungen, Transkriptionsfaktoren und Transkriptomik Es wird derzeit angenommen, dass die meisten idiosynkratischen unerwünschten Arzneimittelwirkungen aufgrund einer enzymatischen Modifikation der Stammarzneistoffstruktur entstehen, um reaktive chemische Zwischenprodukte zu erzeugen. Es gibt jedoch nur sehr wenige direkte Hinweise, die die Bildung eines reaktiven Metaboliten mit einer bestimmten idiosynkratischen Nebenwirkung in Verbindung bringen können. Weitere Studien sind erforderlich, um die Beziehung zwischen der metabolischen Bioaktivierung, der Induktion von oxidativem Stress und den besonderen Signalwegen, die der biologischen Reaktion zugrunde liegen, zu verstehen. Insbesondere ein Verständnis der frühen Prozesse der zellulären Signalübertragung und der Abwehrmanifestationen nach einem oxidativen Insult kann dazu beitragen, das Endergebnis, d. h. Erholung oder Toxizität, zu bestimmen. Eine Stressreaktion wird eingeleitet, wenn die Reduktionskapazität einer Zelle oder eines spezialisierten Kompartiments innerhalb einer Zelle beeinträchtigt wird. Dies könnte durch die Erschöpfung der ersten zellulären Abwehr wie Glutathion oder Ascorbat oder durch die Oxidation kritischer Sulfhydrylgruppen auf der Oberfläche redoxempfindlicher Proteine ​​erfolgen. Nach dem Nachweis aktiviert die Zelle die Expression von Genen, die an der antioxidativen Reaktion beteiligt sind. Dieses ""Einschalten"" der Genexpression wird durch Transkriptionsfaktoren durchgeführt, die für spezifische Gruppen von Genen kodieren, die das bestimmte Transkriptionsreaktionselement innerhalb der Promotorregion des Gens enthalten. Durch das Profiling von Transkriptionsfaktoren und die anschließende genetische Regulation nach oxidativem Angriff oder Exposition gegenüber reaktiven chemischen Spezies werden wir einen Einblick in die zugrunde liegenden biologischen Wege gewinnen. Mithilfe dieser Informationen können wir Bereiche für eine potenzielle therapeutische Modulation identifizieren sowie detailliertere und prädiktive Toxizitäts-Fingerabdrücke für informative Entscheidungen während des Arzneimittelentwicklungsprozesses erhalten.";-;-;-;https://link.springer.com/article/10.1007/s00580-003-0475-1 8cbea42bfe62271f47e6338d46fbe096;de;;;2.4.;;;Bioremediation von mit Arsen . kontaminiertem Boden Die menschlich-industrielle Tätigkeit verursacht einen bemerkenswerten Anstieg der Umweltkonzentrationen von Arsen (As) mit möglichen Auswirkungen auf die Gesundheit von Pflanzen und Tieren und kann zu schweren Verlusten der biologischen Vielfalt führen. Dieses Metalloid ist über die Nahrungskette bioakkumulativ und wird in hohem Maße mit verschiedenen Krebsarten in Verbindung gebracht. Um die inhärenten Nachteile physikalisch-chemischer Entfernungsverfahren zu überwinden, wurden biologische Behandlungen als angemessene und kostengünstige Sanierungsalternativen für die As-Verschmutzung entwickelt. Ein Interesse ergibt sich aus den Endophyten, die in der Wirtspflanze leben und auf ihre pflanzenwachstumsfördernden Eigenschaften, Produktion bioaktiver Moleküle, biologische Kontrollprozesse und As-Entgiftung untersucht wurden. Die Integration von Bioremediation mit mehreren Omic-Technologien bietet darüber hinaus innovative Ansätze zur Handhabung von As-Remediation. Das Ziel dieser Übersicht ist es, die neuesten Erkenntnisse, Fortschritte und Anwendungen in der Bioentfernung von Arsen aufzuzeigen. Wir werden uns auf die folgenden Punkte konzentrieren: (1) Gesundheit von Mensch und Umwelt, (2) biologische Instrumente zur Sanierung mit Schwerpunkt auf Pflanzen-Mikrobiom-Interaktionen und Omic-Technologien, (3) Fortschritte in der As-Artenanalyse und (4) als Biosensorensensor .;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9117-0_14 ab38a4c28ff733f5f496562176a52d1f;de;;;2.4.;;;Zusammensetzung, Verbreitung und Gesundheitsrisiken von Bioaerosolen in Kläranlagen: Eine Übersicht Bioaerosole sind definiert als luftgetragene Partikel (0,05–100 μn Größe) biologischen Ursprungs. Sie gelten als potenziell gesundheitsschädlich, da sie Krankheitserreger wie Bakterien, Pilze und Viren enthalten können. Diese Übersicht fasst die neuesten Forschungsergebnisse zu den Gesundheitsrisiken von Bioaerosolen zusammen, die aus Kläranlagen emittiert werden, um die Kontrolle solcher Bioaerosole zu verbessern. Die Konzentration und Größenverteilung von ARA-Bioaerosolen, ihre wichtigsten Emissionsquellen, Zusammensetzung und Gesundheitsrisiken sowie Überlegungen für zukünftige Forschung werden diskutiert. Die wichtigsten Themen und Erkenntnisse in der Literatur lauten wie folgt: Die wichtigsten Emissionsquellen von Kläranlagen-Bioaerosolen sind Siebräume, Schlammentwässerungsräume und Belebungsbecken, die Bioaerosolkonzentrationen in Sieb- und Schlammentwässerungsräumen sind höher als im Freien. Bioaerosole in Kläranlagen enthalten eine Vielzahl potenziell pathogener Bakterien, Pilze, Antibiotikaresistenzgene, Viren, Endotoxine und toxische Metalle (loide). Diese potenziell krankheitserregenden Stoffe verbreiten sich mit den Bioaerosolen und bergen somit Gesundheitsrisiken für Arbeiter und Anwohner in und um die Kläranlage. Als Hauptexpositionsweg wurde die Inhalation identifiziert, und Kinder haben ein höheres Risiko dafür als Erwachsene. Zukünftige Studien sollten neu auftretende Schadstoffe identifizieren, Gesundheitsrisikobewertungen erstellen und Präventions- und Kontrollsysteme entwickeln.;-;-;-;https://link.springer.com/article/10.1007/s11783-020-1330-1 f4063331039c6d8af891827e69d52215;de;;;2.4.;;;Warum in Herden füttern? In diesem Buch geht es einerseits um drei Vogelarten, die sich auf einigen Feldern in Nottinghamshire ernähren. In einem anderen geht es um das Zusammenspiel von Ökologie, Sozialverhalten und Prädation. Dass eine Untersuchung der ersteren zu Schlussfolgerungen über die letztere führen kann, spiegelt die jüngste dramatische Zunahme unseres Verständnisses der Evolution des Verhaltens von Tieren wider, die aus einer Integration von Ideen aus der Populationsbiologie, Evolutionstheorie und Ethologie resultiert. Die Verhaltensökologie, wie der neue synthetische Ansatz bekannt geworden ist, versucht die Evolution des Verhaltens im Hinblick auf die Zwänge und Möglichkeiten zu interpretieren, die die Ökologie eines Tieres bietet. Es geht davon aus, dass Verhaltensvariationen eine genetische Grundlage haben und dass die natürliche Selektion der Hauptfaktor für das unterschiedliche Überleben von Varianten ist. Diese einfache Annahme erlaubt präzise, ​​quantitative Fragen zur Verhaltensentwicklung in einem bestimmten Kontext: Wie viele Beutearten sollte ein Raubtier nehmen? Mit wie vielen Artgenossen soll er sich assoziieren? Wie lange sollte ein Männchen ein Weibchen umwerben, bevor es versucht zu kopulieren? Die Antworten werden in Form von Veränderungen des Reproduktionspotenzials des Tieres als Folge seiner Auswahl aus einer Reihe möglicher Alternativen formuliert. Die Stärke dieses Ansatzes liegt in seiner breiten Anwendbarkeit. Dieselben Annahmen und Analysemethoden liegen der Untersuchung der Eltern-Nachkommen-Beziehungen bei Pavianen und der Beutewahl durch futtersuchende Wasserschiffer zugrunde.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-4864-8_1 196f354f7e49bcb7269af2e73c1106eb;de;;;5.3.;;;Synthese von Programmen in Computational Logic Seit den Anfängen der Programmierung und des automatisierten Denkens haben Forscher Methoden entwickelt, um aus ihren Spezifikationen systematisch Programme zu konstruieren. Vor allem im letzten Jahrzehnt gab es eine Flut von Aktivitäten, darunter das Aufkommen von Fachkonferenzen wie LOPSTR, die sich mit der Synthese von Programmen in der Computerlogik befassen. In diesem Beitrag analysieren und vergleichen wir drei moderne Methoden zur Synthese rekursiver Programme in der Computerlogik. Die drei Ansätze sind konstruktive/deduktive Synthese, schemagesteuerte Synthese und induktive Synthese. Unser Vergleich erfolgt auf systematische Weise, wobei wir für jeden Ansatz die wichtigsten Ideen beschreiben und ein gemeinsames Laufbeispiel synthetisieren. Dabei erkunden wir die Synergien zwischen den Ansätzen, die unserer Meinung nach notwendig sind, um in den nächsten zehn Jahren in diesem Bereich Fortschritte zu erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-25951-0_2 86792dc8f5b4ee92674355c8c08c8919;de;;;2.4.;;;Verhaltensgenetik aus Interaktionssicht Das allmähliche Aufkommen der Verhaltensgenetik als Feld legitimer Forschung hat tiefgreifende Auswirkungen auf das Gebiet der Entwicklungspsychologie. Die Auswirkung war nicht, die Fragen der Entwicklungspsychologen zu ändern. Verhaltensgenetiker können auch nicht behaupten, definitive Antworten auf diese Fragen gegeben zu haben. Es ist vielmehr so, dass Probleme bezüglich der relativen Auswirkungen genetischer und umweltbedingter Faktoren auf die Verhaltensentwicklung, die bisher empirisch nicht erforschbar schienen, mit einem hohen Maß an fokussierter Aufmerksamkeit und fundiertem Fachwissen angegangen werden. Die zunehmende Legitimität der Verhaltensgenetik als methodisch tragfähige Disziplin hat es Psychologen ermöglicht, Fragen zu stellen, die im Kontext einer behavioristischen Psychologie oft nicht erlaubt waren. Aufgrund einiger sehr realer Probleme, die jedem Versuch, die Auswirkungen genetischer und umweltbedingter Faktoren auf die Verhaltensentwicklung zu spezifizieren, innewohnen, wurde das gesamte Thema häufig durch die Bestätigung der Unmöglichkeit des Unterfangens umgangen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-3997-7_8 ed703c787ccfba577bb7d8187e461380;de;;;2.4.;;;Verhaltensökologie und Netzhautzelltopographie Die Netzhaut von Wirbeltieren ist eine Erweiterung des Gehirns, eine Hemisphäre aus neuralem Gewebe, auf der ein Bild einer bestimmten visuellen Umgebung einer Spezies abgebildet wird. Jeder Punkt im Sehraum wird von einem entsprechenden Punkt auf der neuralen Netzhaut umgeben, die wiederum retinotopisch auf die Sehzentren des Gehirns abgebildet wird. Lichtenergie oder das „optische Bild“ wird von den Photorezeptoren in elektrische Energie oder ein „neurales Bild“ umgewandelt und über eine Reihe von Interneuronen (bipolare, amakrine und horizontale Zellen) erreichen diese Signale die Ganglienzellen, die jeweils ein Axon besitzen possess Übertragung von Informationen über den Sehnerv an das zentrale Nervensystem. Obwohl die Verarbeitung auf der Ebene der Photorezeptoren das neuronale Bild nicht unbedingt ändern muss, sind es die Ganglienzellen, die letztendlich die Wahrnehmung der Umgebung einer Spezies durch die zentrale nervöses System.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-0619-3_17 4c03f41712989be9be6d797b19e04f9b;de;;;2.4.;;;Zellzyklusanalyse in der äußeren granulären Schicht der Ratte, bewertet durch mehrere Bromdesoxyuridin-Immunoperoxidase-Färbeprotokolle Ein wichtiger Schritt in der Immunhistochemie von Bromdesoxyuridin (BrdU) ist die Produktion von einzelsträngiger DNA, um das eingebaute BrdU für die Antikörper zugänglich zu machen. Dieser Artikel untersucht die Wirkung verschiedener DNA-Denaturierungsvorbehandlungen (DNase I, Natriumcitratpuffer, Endonuklease Eco RI und Exonuklease III und HCl-Hydrolyse) auf den Nachweis von BrdU. Wir fanden, dass alle Verfahren, die bei der teilweisen Denaturierung von DNA verwendet wurden, eine gute nukleäre Immunfärbung mit einer akzeptablen Gewebeintegrität kombinierten. Wir beobachteten auch, dass diese immunhistochemischen Protokolle ein räumliches Muster in der Verteilung von DNA-synthetisierenden Zellen innerhalb der äußeren Granularschicht (EGL) des Kleinhirns von 10 Tage alten Ratten zeigten, was uns erlaubte, den Anteil der S-Phase-Zellen abzuschätzen. Unsere Ergebnisse zeigen, dass der Nachweis von BrdU-gefärbten Zellen durch die unterschiedlichen histologischen Verfahren beeinflusst wird, die bei einem solchen Nachweis verwendet werden. Da außerdem die Dauer und Phasen des Zellzyklus in EGL-Neuroblasten gemäß der BrdU-Detektion geschätzt werden, kann eine Auswirkung auf diese Detektion die Messung des Zellzyklus ungenau machen. Die vorliegende Arbeit zeigt, dass DNase I und Citratpuffer unter geeigneten Bedingungen gute Alternativen zur Säuredenaturierung sein können. Sie sind jedoch weniger empfindlich als autoradiographische Techniken, die;-;-;-;https://link.springer.com/article/10.1007/s00418-017-1593-1 7d738e8b77ae80db9a2abddf7fe68a09;de;;;2.4.;;;Charakterisierung von zwei verschiedenen HKT1-ähnlichen Kaliumtransportern aus Eucalyptus camaldulensis Kalium ist ein essentieller Makronährstoff in höheren Pflanzen. Es spielt eine wichtige physiologische Rolle bei Stomabewegungen, Osmoregulation, Enzymaktivierung und Zellexpansion. Der Kaliumbedarf kann erheblich sein, insbesondere wenn die betreffende Pflanze;-;-;-;https://link.springer.com/article/10.1023/A%3A1006496402463 37ba2ffa283b7ef36e3810d581695c53;de;;;2.4.;;;Bewertung der funktionellen hemisphärischen Asymmetrie in einer visuellen Sprachaufgabe mit MEG Wir verwendeten Magnetenzephalographie (MEG), um den Grad der hemisphärischen Aktivierung bei elf normalen Rechtshändern ohne neurologische Störungen oder Lernbehinderungen in der Vorgeschichte während der Durchführung von Wort- und Gesichtserkennungsaufgaben zu bestimmen. Die neuromagnetische Aktivität wurde unter Verwendung eines Ganzkopfsystems aufgezeichnet, und die Quellen der aufgezeichneten Magnetfelder wurden als einzelne äquivalente Stromdipole modelliert. Die frühe (<200 ms) zerebrale Aktivierung, definiert durch die Anzahl der Dipole, die durch den Datenanpassungsalgorithmus identifiziert wurden, wurde während beider Aufgaben wie erwartet im okzipitalen Kortex lokalisiert. Während der Sprachaufgabe war das Ausmaß der späteren (>200 msec) zerebralen Aktivierung in der linken Hemisphäre bei fast allen Probanden etwa doppelt so groß, einschließlich temporaler und temporoparietaler Bereiche. Im Gegensatz dazu war die entsprechende Aktivierung während der Gesichtserkennungsaufgabe meistens symmetrisch über die beiden Hinterhauptslappen, wobei auch der posterior-inferiore Aspekt des rechten Temporallappens mit einbezogen wurde. Unsere Ergebnisse legen nahe, dass die MEG eine geeignete Methode zur Beurteilung der nichtinvasiven hemisphärischen Spezialisierung für Sprache ist.;-;-;-;https://link.springer.com/article/10.1023/A%3A1022270620396 1991539864eab1c39f44f47c2148a38e;de;;;2.4.;;;Mesenchymale Einflüsse auf die Entwicklung der Adenohypophyse bei der Ratte Vergleichende Studien zur Entwicklung der Adenohypophyse wurden unter Verwendung des von Rathke's Pouch (RP) abgeleiteten Modellsystems durchgeführt. Rathke's Pouch mit assoziiertem Mesenchym und ventralem Hypothalamus wurde mikrochirurgisch aus 15 Tage alten fötalen Ratten isoliert und in eine milde Trypsinlösung gegeben. Drei Varianten von Spendergewebe wurden isoliert und unter die Nierenkapsel erwachsener Wirte transplantiert: A) reines Pouchepithel, B) Pouchepithel plus Mesenchym und C) Pouchepithel mit Mesenchym und ventralem Hypothalamus. Nach 30 Tagen wurden die Transplantate isoliert und für die Licht- und Elektronenmikroskopie verarbeitet. Zelltypen wurden durch Immunfärbung sowie durch morphologische Kriterien charakterisiert. In Gruppe A dominierten gut differenzierte Mammotrophe die Transplantate, von denen viele hypertrophiert waren mit weit dilatiertem endoplasmatischen Retikulum und Golgi-Säckchen. Mammotrophe, häufig mit mitotischen Figuren, wurden gleichmäßig über die Transplantate verteilt. Somatotrope und Gonadotrope waren in Gruppe A weder reichlich noch gut differenziert, aber in den Gruppen B und C sowohl reichlich als auch stärker differenziert. Sowohl Somatotrope als auch Gonadotrope waren typischerweise an den Rändern des Transplantats neben den Bindegewebsräumen lokalisiert. In den Gruppen B und C waren gut differenzierte Mammotrophe vorhanden, obwohl es weniger hypertrophierte Mammotrophe gab als in Gruppe A, und die Immunreaktion auf Prolaktin war schwächer als in Gruppe A.;-;-;-;https://link.springer.com/article/10.1007/BF00214627 542b055fab810cc8831529dbab65bf00;de;;;2.4.;;;Molekulare Mechanismen, die die frühe Entwicklung des Wirbeltiernervensystems regulieren Das Nervensystem der Wirbeltiere entsteht aus einem pseudostratifizierten Epithel, der Neuralplatte, die aus dem dorsalen Ektoderm des Embryos gebildet wird. Die Entwicklung des Nervensystems ist durch eine Reihe morphologischer Ereignisse gekennzeichnet, die zunächst die Induktion von „Neuralgewebe“ und dann die Musterung und Verfeinerung des Zellschicksals innerhalb dieses Nervengewebes beinhalten. Das Endergebnis dieser morphogenetischen Ereignisse ist die Erzeugung topologisch definierter Neuronenklassen mit jeweils unterschiedlichen Verbindungsmustern und Neurotransmitter-Phänotypen, zusammen mit verschiedenen Gliazelltypen und anderen akzessorischen Zellen wie den Ependymalzellen, die die Hirnhäute auskleiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-60445-4_5 6daaba265a5ef2bcea78ffeeb0b325fe;de;;;2.4.;;;Lese- und Sprachprobleme als Ausdruck einer spezifischen Sprachbehinderung Der Punkt, den wir hier hervorheben möchten, ist die Beziehung zwischen 1) Verzögerung bei der Sprachentwicklung (dh „motorische Sprachverzögerung“), 2) Verzögerung bei der Entwicklung klarer, ausgereifter, gut artikulierter Sprache (dh anhaltender „Infantilismus“ der Sprache), 3) Stottern und 4) spezifische Lesebehinderung. Unsere klinische Erfahrung hat uns gelehrt, dass der Late Talker und/oder derjenige, der auf Babysprache verharrt, selbst dazu neigt, eine Leseschwäche zu haben oder sogar stottert. Wenn er selbst keine dieser Komplikationen hat, zeigt die Familienanamnese normalerweise das Auftreten einer oder aller dieser Behinderungen innerhalb des großen Familienkreises sowie bei den Geschwistern des Patienten. Das wiederholte Wiederauftreten dieser verschiedenen Sprachbehinderungssyndrome innerhalb derselben Familiengruppe weist auf die Existenz einer genetischen Beziehung hin;-;-;-;https://link.springer.com/article/10.1007/BF02928412 fda45fcfb505251d07936d0ea14baa31;de;;;5.3.;;;Trennung korrelierter astrophysikalischer Quellen unter Verwendung von Kovarianzmatrizen mit mehreren Lag-Daten Dieses Papier schlägt eine neue Strategie vor, um wechselseitig korrelierte astrophysikalische Quellen zu trennen. Diese Strategie basiert auf Statistiken zweiter Ordnung und nutzt Vorinformationen über die mögliche Struktur der Mischmatrix. Im Gegensatz zu ICA-Blind-Separation-Ansätzen, bei denen die Quellen als voneinander unabhängig angenommen werden und kein Vorwissen über die Mischmatrix vorausgesetzt wird, ermöglicht unsere Strategie eine Lockerung der Unabhängigkeitsannahme und führt die Trennung sogar von signifikant korrelierten Quellen durch. Neben der Mischmatrix ist unsere Strategie auch in der Lage, die Quellkovarianzfunktionen mit mehreren Lags auszuwerten. Nachdem die Mischungsparameter identifiziert wurden, kann außerdem eine einfache Dekonvolution verwendet werden, um die Wahrscheinlichkeitsdichtefunktionen der Quellprozesse abzuschätzen. Um unseren Algorithmus zu vergleichen, haben wir eine Datenbank verwendet, die die von den Instrumenten erwartete simuliert, die an Bord der ESA betrieben werden;-;-;-;https://link.springer.com/article/10.1155/ASP.2005.2400 b1d0f227a1847fb9f592cd2995356a6d;de;;;2.4.;;;Gemischte Unternehmen in Indien Dieses Kapitel besteht aus einer abstrakten beschreibenden Darstellung gemischter Unternehmen in Indien, die inländisches privates Kapital einbeziehen. Im nächsten Kapitel werden öffentlich-private Mischungen mit westlicher Geschäftstätigkeit behandelt. Dieses Kapitel wird solche Fakten darlegen, die über Indiens inländische Mischungen leicht zugänglich sind, und interpretative Kommentare von Beobachtern und Analysten aufzeichnen, die für das Thema relevant sind. Es gibt drei Hauptunterteilungen, die in dem Kapitel verwendet werden. Die erste und zweite befassen sich mit Mischungen in den Bundesstaaten Indiens vor und nach dem Zweiten Weltkrieg. Der dritte Teil befasst sich mit gemischten Unternehmen, an denen die Zentralregierung beteiligt ist. Obwohl in der Exposition sachliche Beschreibungen vorherrschen, werden auch interpretative Materialien wie Umfragekommentare aufgezeichnet. Tabelle IV und V im Anhang fassen einen Großteil des hier präsentierten Materials zusammen. Außerdem wird eine Zusammenfassung geliefert, die auf einige der ungewöhnlichen Merkmale der Entwicklung aufmerksam macht.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-0713-4_6 07dfb1aa9b8aa269b5bc3370342d8bc1;de;;;5.3.;;;Die modellbasierte dynamische Handhaltungserkennung mit genetischem Algorithmus Dieses Papier schlägt ein neues Handhaltungserkennungssystem vor, das genetische Algorithmen anwendet, um eine effiziente 3D-Handmodellanpassungsmethode zu entwickeln. Die 3D-Handmodell-Anpassungsmethode besteht aus (1) dem Finden der geschlossenen inversen Kinematiklösung, (2) der Definition der Ausrichtungsmessfunktion für den Handgelenkanpassungsprozess und (3) der Anwendung eines genetischen Algorithmus zur Entwicklung der dynamischen Handhaltung Identifizierungsprozess. Im Gegensatz zu den herkömmlichen rechenintensiven Handmodell-Anpassungsverfahren entwickeln wir einen Offline-Trainingsprozess zum Finden der geschlossenen inversen Kinematik-Lösungsfunktionen und einen schnellen modellbasierten Handhaltungserkennungsprozess. In den Experimenten werden wir veranschaulichen, dass unser Handhaltungserkennungssystem sehr effektiv ist.;-;-;-;https://link.springer.com/article/10.1007/s001380050095 5343c44d3b44fa6b6609ce5f2c8b6ce8;de;;;5.3.;;;Eine Studie über verschiedene Dimensionsreduktionstechniken, die in der allgemeinen Formanalyse angewendet werden Applied Das Papier präsentiert ausgewählte Techniken zur Reduzierung der numerischen Dimensionalität von Daten und deren Anwendung, um die Größe von Merkmalsvektoren zu reduzieren, die in einer beispielhaften General Shape Analysis (GSA)-Aufgabe verwendet werden. Die Brauchbarkeit der Anwendung reduzierter Merkmalsvektoren wurde experimentell unter Verwendung von drei Fourier-Transformations-basierten Formdeskriptoren und drei Datenreduktionsansätzen getestet. Ziel der Experimente war es zu untersuchen, welcher Datenreduktionsansatz der beste ist, d. h. den höchsten prozentualen Effektivitätswert ergibt, während eine minimale Größe des Merkmalsvektors beibehalten wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-15147-2_16 b3a02152f343c8c3114d5ffb673c574b;de;;;5.3.;;;FuzEmotion als rückwärtsgerichtetes Kansei-Engineering-Tool Kansei Engineering, auch bekannt als Kansei Ergonomie oder Emotional Engineering, zielt darauf ab, das Gefühl und die Anforderungen des Kunden zu analysieren und in die Produktfunktion und das Produktdesign einzubeziehen. Kansei wurde Ende der 1970er Jahre gegründet und gilt heute als eine der wichtigsten verbraucherorientierten Technologien für die Entwicklung neuer Produkte. Dieses Papier beschrieb ein System namens FuzEmotion zum Zweck der Bewertung der Kansei-Aspekte eines Produkts unter Berücksichtigung von Designmerkmalen eines Produkts. Fuzzy-Logik wird verwendet, um Kansei-Wörter darzustellen und Fuzzy-Eingaben zu verarbeiten. Das System wurde erfolgreich implementiert, um die Geschlechtsneigung eines Mobiltelefons zu ermitteln. Berücksichtigt werden die wichtigsten Parameter eines Mobiltelefons, d. h. Länge, Breite, Dicke und Masse. Das System kann die Geschlechtsneigung eines Mobiltelefons mit einer Genauigkeit von bis zu 76 % anzeigen. Diese basiert auf einem Set von 92 Handymustern der fünf großen Handyhersteller.;-;-;-;https://link.springer.com/article/10.1007/s11633-012-0611-y 5a01c1862d33b012ae2ada44f32eb1d1;de;;;5.3.;;;Eine Mixed-Mode-Mensch-Maschine-Schnittstelle zur interaktiven Problemlösung Im Rahmen der Problemlösungsanwendung können die multimedialen Umgebungen von wissenschaftlichen und technischen Arbeitsplätzen genutzt werden, um ein effektives hohes Maß an Zusammenarbeit zwischen dem Experten und dem Problemlöser zu realisieren. In diesem Beitrag bauen wir einen Rahmen für den Entwurf und die Entwicklung einer intelligenten Mensch-Maschine-Schnittstelle auf, die die Werkzeuge von Multimedia-Arbeitsplätzen (3D-Grafik, Animation, Kombination von Sprache und Ton) zur Realisierung einer analogen und synthetischen Darstellung der komplexen Zustände integriert des Auflösungsverfahrens. Eine solche Schnittstelle kann eine visuelle Präsentation komplexer Konzepte und als Folge eine interaktive Online-Bewertung und -Manipulation von Suchstrategien des Lösungsprozesses bereitstellen. Es wird ein dreischichtiges Schema der Schnittstellenarchitektur vorgestellt und verschiedene Aspekte der Abbildungen zwischen Schichten werden diskutiert. Ein experimenteller Prototyp der vorgeschlagenen Schnittstelle auf der APOLLO 10000 Workstation wird am IASI im Rahmen des laufenden EEC-Projekts PONTIFEX entwickelt. Darüber hinaus werden an der Universität Rom Experimente zu synthetischen und analogen Darstellungen durchgeführt und somit eine neue Methode des perzeptiven Experimentierens entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-75903-1_4 b84df975b5fac79a6faa6c75a5d330a4;de;;;5.3.;;;Eine auf Biphase-Bayesian basierende Methode zur Emotionserkennung aus sprechender Stimme Dieses Papier schlägt eine Bayesian-basierte Methode der Emotionserkennung aus sprechender Stimme vor. Die Entwicklung eines Unterhaltungsroboters und die freudige Kommunikation zwischen Mensch und Roboter haben uns die Motivation für eine Computermethode gegeben, mit der Roboter die Emotionen seines Dialogisten aus seiner sprechenden Stimme erkennen können. Die Methode basiert auf den Bayesschen Netzwerken, die die Abhängigkeit und ihre Stärke zwischen der Äußerung des Dialogisten und seiner Emotion darstellen, indem eine Bayessche Modellierung für prosodische Merkmalsgrößen verwendet wird, die aus emotional ausdrucksstarken Sprachdaten extrahiert werden. In diesem Papier schlagen wir eine biphasische Inferenzmethode vor, die Bayes-Netzwerke verwendet. Diese Inferenzmethode hat zwei Schritte: im ersten Schritt die Emotionsauswahl zu reduzieren und im zweiten Schritt aus einer geringen Auswahl zuverlässig auf eine bestimmte Emotion zu schließen. Der Artikel berichtet auch über einige empirische Argumentationsleistungen dieser Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85567-5_7 ab3ecfb2676a1964ba7222fc353da1d5;de;;;5.3.;;;Lernen: Von Interaktivität zu Kooperation In Intelligent Tutoring Systems (ITS) ist das Studentenmodell einer der schwierigsten Teile des Programms. Das Schülermodell repräsentiert den aktuellen Wissensstand des Schülers. Anstelle eines Studentenmodells bauen wir ein Partnermodell. In diesem Artikel werden wir das Kooperationsparadigma für computergestütztes Lernen diskutieren. In Intelligenten Kooperativen Systemen (IKS) arbeiten Studierende und System partnerschaftlich an Problemlösungsaufgaben. Die Anforderungen für ICS sind: komplementäre Fähigkeiten oder Informationen, gemischte Kontrolle, gemischte Initiative und gemeinsames Ziel zwischen Schüler und System. Die Vorteile des kooperativen Ansatzes als Lernprinzip werden diskutiert. Einige Implikationen für die Darstellung und Implementierung der Interaktionskomponente in ICS werden untersucht. Es werden Beispiele aus einem Forschungsprojekt angeführt, das sich mit der Entwicklung eines Rahmens zur Interpretation des kommunikativen Handelns bei kooperativer Problemlösung beschäftigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-79149-9_8 5a256bd569a18b49a1699b79b71cfb9f;de;;;5.3.;;;Einschränkungshierarchien Einschränkungen ermöglichen es Programmierern und Benutzern, eine Beziehung, die gepflegt werden soll, deklarativ anzugeben, anstatt dass sie selbst Prozeduren schreiben müssen, um die Beziehung zu pflegen. Sie sind daher in Anwendungen wie Programmiersprachen, Benutzeroberflächen-Toolkits und Simulationspaketen nützlich. In vielen Situationen ist es wünschenswert, beides angeben zu können;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-85983-0_4 356ed48ec89e8c778cec86ec501f6387;de;;;5.3.;;;Sprachliche und nichtsprachliche Abbiegerichtungskonzepte In diesem Beitrag wird die Konzeptualisierung von Abbiegerichtungen entlang befahrener Routen diskutiert. Uns interessiert vor allem der Einfluss, den Sprache auf die Konzeptualisierung von Abbiegerichtungen hat. Es werden zwei Experimente vorgestellt, die die Art und Weise, wie Personen gruppieren, in Ähnlichkeitsklassen kontrastieren, wenn sie erwarten, die Wendungen verbal zu benennen, im Vergleich dazu, wenn sie dies nicht tun. Uns interessiert insbesondere die Rolle, die Hauptachsen wie die senkrechte linke und rechte Achse spielen – sind es Sektorengrenzen oder zentrale Prototypen oder haben sie zwei Funktionen: Grenze und Prototyp? Unsere Ergebnisse stützen a) die Feststellung, dass sich sprachliche und nichtlinguistische Kategorisierungen unterscheiden und b) dass Prototypen in sprachlichen Aufgaben zusätzlich als Grenzen in nichtlinguistischen Aufgaben dienen, also eine Doppelfunktion erfüllen. Abschließend diskutieren wir Implikationen für kognitive Modelle von Lernumgebungslayouts und für Routenführungssysteme in verschiedenen Modalitäten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74788-8_22 cc74258bc2fd2c0a855a23c274324f5a;de;;;5.3.;;;Ein dynamischer formularbasierter Datenvisualisierer für semantische Abfragesprachen Den meisten Datenbankverwaltungssystemen fehlt es an geeigneten Werkzeugen, um das Abfrageergebnis auf anspruchsvolle Weise zu handhaben. Im Allgemeinen ist die Ausgabe einer Abfrage eine Tabelle mit Tupeln, die eine flache, langweilige (und manchmal verwirrende) Darstellung von Daten bietet. In diesem Papier stellen wir einen dynamischen formularbasierten Datenvisualisierer vor, dessen Hauptziel darin besteht, die Abfrageausgabe so zu verwalten, dass die oben genannten Probleme gelöst werden. Die Visualiser-Strategien basieren auf der Hypothese, dass beim Durchführen einer (SQL-)Abfrage für einen Satz relationaler Tabellen eine Beschreibung der Datenbank auf hoher Ebene durch das Entity-Relationship-Modell verfügbar ist. Die Kardinalität der an der Abfrage beteiligten Beziehungen wird ausgenutzt, um die Tupelattribute in homogene Teilmengen zu clustern und sinnlose Wiederholungen von Werten geeignet zu handhaben. Auf diese Weise werden die Daten dem Benutzer kompakter und verständlicher präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-3818-1_14 ba55e6de2276981b720a16283cef0625;de;;;2.4.;;;Infektionen des zentralen Nervensystems beim kompromittierten Wirt Meningitis und andere Arten von Infektionen des Zentralnervensystems (ZNS) werden bei immungeschwächten Patienten normalerweise durch andere Organismen verursacht als in der Allgemeinbevölkerung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-6642-7_7 95319132a2a4492468bc3c1125f1955b;de;;;5.3.;;;Design und Implementierung eines neuartigen Augenblickerkennungssystems basierend auf dem Skleralbereich für MND-Patienten mit Videoverarbeitung In dieser modernen Ära von Wissenschaft und Technik gibt es mehrere Innovationen zugunsten von Behinderten und Kranken. Forschungsorganisationen weltweit sind bestrebt, neue Methoden zu finden, um dieser Gruppe der Gesellschaft zu helfen, sich frei zu unterhalten, sich zu bewegen und auch die Vorteile zu genießen, die andere tun. In diesem Beitrag konzentrieren wir uns darauf, Menschen zu helfen, die an einer solchen tödlichen Krankheit leiden – der Motoneuron-Krankheit (MND), bei der ein Patient die Kontrolle über seine vollständige Mobilität verliert und nur noch okulographische Bewegungen ausführen kann. Durch die Verwendung dieser okulographischen Bewegungen, die allgemein als Augenblick eines Individuums bekannt sind, können mehrere alltägliche Aktivitäten allein durch die Bewegung der Augen gesteuert werden. In diesem Artikel wird ein neuartiges und kostengünstiges Setup zur Erfassung des Augenblicks einer Person diskutiert. Das Papier erarbeitet auch eine neue Methodik zur Identifizierung des Augenblicks unter Verwendung der skleralen Eigenschaften des Auges und ist auch immun gegen Variationen des Hintergrunds und der Kopfneigung. Alle Algorithmen wurden auf der MATLAB 2011b-Plattform entwickelt und es wurde eine Gesamtgenauigkeit von 95 % für Versuche erreicht, die über einen großen Testfallsatz für verschiedene Blicke in verschiedene Richtungen durchgeführt wurden. Auch ein Vergleich mit der beliebten Viola-Jones-Methode zeigt, dass der in diesem Beitrag vorgestellte Algorithmus mehr als 3,8 mal schneller ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11218-3_51 20331252321fee3975619a5bd4ee7cbd;de;;;5.3.;;;Antizipation und das Künstliche: Ästhetik, Ethik und synthetisches Leben Wenn Komplexität eine notwendige, aber nicht hinreichende Voraussetzung für die Existenz und den Ausdruck des Lebendigen ist, ist Antizipation das charakteristische Merkmal des Lebendigen. Antizipation ist sogar auf Existenzebenen am Werk, auf denen wir uns nicht auf Intelligenz beziehen können. Die Aussicht, ästhetische Artefakte und ethische Konstrukte mit Relevanz für eine Welt, in der das Natürliche und das Künstliche nebeneinander existieren, künstlich zu erzeugen, kann nicht als weiteres Produkt des wissenschaftlichen und technologischen Fortschritts subsumiert werden. Jenseits des Künstlichen beschwört das Synthetische das Verständnis von Ästhetik und Ethik nicht mehr aus der Perspektive des;-;-;-;https://link.springer.com/article/10.1007/s00146-009-0243-0 e68dc981f09727ee31315e1c1f49e42a;de;;;2.4.;;;Vegetative Abgrenzung der küstennahen Salzwiesengrenzen Gesetze, die den Schutz von Feuchtgebieten vorschreiben, in Verbindung mit dem aktuellen Druck, diese in andere Nutzungen umzuwandeln, betonen die Notwendigkeit, eine Feuchtgebiet-Hochland-Grenze genau zu bestimmen Set aus 295 Quadraten entlang von 22 Transekten zwischen Sumpf- und Hochlandgebieten in 13 salzhaltigen Feuchtgebieten zwischen den Gezeiten in Oregon und Washington. Die Methoden des Mehrfachvorkommens, des gemeinsamen Vorkommens und der Fünf-Prozent-Methode erforderten eine Klassifizierung der Pflanzenarten in Salzwiesen, Hochland und Nicht-Indikator-, Cluster- und Ähnlichkeitsmethoden erforderten keine anfängliche Klassifizierung Eine enge Übereinstimmung der durch die sechs Methoden bestimmten Feuchtgebiet-Hochland-Grenzen legt nahe, dass Vorklassifizierung von Pflanzen und Erhebung von Pflanzenbedeckungsdaten sind möglicherweise nicht erforderlich, um die Grenze zu bestimmen;-;-;-;https://link.springer.com/article/10.1007/BF01867124 f8e0dc3bf06c5d939db159bfbf859168;de;;;2.4.;;;Die Entwicklung und Anwendung von Leitlinien zum EQ von Analyseinstrumenten: Hochleistungsflüssigkeitschromatographie Dieses Papier beschreibt die Entwicklung und Anwendung von Leitlinien zum EQ (EQ) von Hochleistungsflüssigkeitschromatographiegeräten. EQ ist ein formaler Prozess, der dokumentierte Beweise dafür liefert, dass ein Instrument für seinen beabsichtigten Zweck geeignet ist und in einem seiner Verwendung entsprechenden Wartungs- und Kalibrierungszustand gehalten wird.;-;-;-;https://link.springer.com/article/10.1007/s007690050312 4441f7b0605389b5ce9f394f41f470c1;de;;;2.4.;;;Dynamische Reaktionen, nachdem der Rotor auf ein neues aktives Aufsetzlager mit aktiver Eliminierung des Spiels fällt drops Es wird ein neuartiges aktives Aufsetzlagersystem (TDB) vorgeschlagen, das mit einer Zentriervorrichtung integriert ist, um das Schutzspiel nach dem Fallen des Rotors in einem aktiven Magnetlagersystem (AMB) zu beseitigen. Auf der Grundlage der Theorie des starren Rotors wird ein Rotordynamikmodell erstellt. Ein Kollisionsmodell zwischen Stützfuß und Außenring des Kugellagers und ein Echtzeitmodell der elastischen Stützkraft des Kugellagers werden auf der Grundlage der Hertz-Kontakttheorie erstellt. Das dynamische Modell des neuen Typs TDB wird auf Basis der Schwingungstheorie erstellt. Unter Verwendung dieser etablierten theoretischen Modelle werden die dynamischen Reaktionen nach dem Fallen des Rotors auf den neuen TDB simuliert und mit den Reaktionen nach dem Fallen des Rotors auf den traditionellen TDB verglichen. Auf einer AMB-Testplattform werden entsprechende Experimente durchgeführt, um die Simulationsergebnisse zu verifizieren. Die Ergebnisse zeigen, dass der vorgeschlagene neue TDB das Schutzspiel nach dem Fallenlassen des Rotors schnell eliminieren und somit die nachfolgenden Rotorvibrationen und Stöße effektiv reduzieren kann.;-;-;-;https://link.springer.com/article/10.1007/s12206-020-0503-y 20224d897ba1f49625328cb1b061fe9d;de;;;2.4.;;;Doppelte Ganzzell-Patch-Clamp-Charakterisierung von Gap Junctional-Kanälen in isolierten Epidermiszellpaaren von Insekten Doppel-Ganzzell-Patch-Clamp-Methoden wurden verwendet, um die Leitfähigkeit der Junctionalmembran in epidermalen Zellpaaren zu charakterisieren, die aus der präpupalen Hülle des Mehlkäfers isoliert wurden;-;-;-;https://link.springer.com/article/10.1007/BF00231442 040ba76340e67e83a1c52df4ed1027b6;de;;;5.3.;;;Robustes Echtzeit-Tracking für die visuelle Überwachung Dieses Papier beschreibt ein Echtzeit-Mehrkamera-Überwachungssystem, das auf eine Reihe von Anwendungsdomänen angewendet werden kann. Dieses integrierte System wurde entwickelt, um überfüllte Szenen zu beobachten und verfügt über Mechanismen zur Verbesserung der Verfolgung von Objekten, die sich in unmittelbarer Nähe befinden. Die in diesem Dokument beschriebenen vier Komponentenmodule sind (i) Bewegungserkennung unter Verwendung eines geschichteten Hintergrundmodells, (ii) Objektverfolgung basierend auf lokaler Erscheinung, (iii) hierarchische Objekterkennung und (iv) fusionierte Multisensor-Objektverfolgung unter Verwendung mehrerer Merkmale und geometrischer Einschränkungen. Dieser integrierte Ansatz zur Verfolgung komplexer Szenen wird anhand einer Reihe repräsentativer realer Szenarien validiert, um zu zeigen, dass eine robuste Echtzeitanalyse durchgeführt werden kann.;-;-;-;https://link.springer.com/article/10.1155/2007/96568 20c15515d48ef54df75e4b5893c6408b;de;;;2.4.;;;Verzweigen: Konstruieren der Antennen von Das Studium der Glykobiologie in den 1970er und 1980er Jahren wurde von der Bestimmung von Oligosaccharidstrukturen und der Suche nach Enzymquellen, die sie herstellen könnten, dominiert. Die Vielfalt der später entdeckten Oligosaccharidstrukturen führte unweigerlich zu den klassischen Fragen der the;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4939-0_5 ffbff15d167f4569c9bf7f3c875f9fdb;de;;;5.3.;;;Design drahtloser Sensornetzwerke: von der Theorie zur Anwendung Drahtlose Sensornetzwerke (WSNs) haben einen dramatischen Einfluss auf die Art und Weise, wie die Umgebung überwacht wird. In diesem Artikel wurden viele grundlegende Designprobleme von WSNs zusammengefasst, angefangen bei der Abdeckung und der Konnektivität. Da Batterien die Sensorknoten mit Energie versorgen, werden effektive Möglichkeiten zur Energieeinsparung in Betracht gezogen. Es wurden auch die Vorteile der Anordnung von Sensoren in einem regelmäßigen Muster diskutiert und verschiedene Kompromisse für viele mögliche Wege der gesicherten Kommunikation in einem WSN zusammengefasst. Die Herausforderungen beim Einsatz von WSN zur Überwachung der CO-Emissionen werden kurz behandelt. Schließlich wird der Einsatz von Sensoren bei der automatischen Generierung von Musik basierend auf den Bewegungen von Tänzern veranschaulicht.;-;-;-;https://link.springer.com/article/10.2478/s13537-011-0007-z 1b98be084e956d64221baa25c3e54b45;de;;;5.3.;;;Modellbasierte Konfliktlösung in der Service-Internationalisierung – ein partizipativer Ansatz Die Internationalisierung von Serviceprozessen bei international agierenden Serviceprovidern erfordert von Servicemanagern, das Potenzial international standardisierter Serviceprozesse und die lokalen Bedürfnisse einzelner Tochtergesellschaften in Einklang zu bringen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-6104-4_11 48e26f2666d55a12cd1261958ffc3eaa;de;;;5.3.;;;Ein verbessertes räumliches Histogramm und Partikelfilter-Gesichtsverfolgung Da ein räumliches Histogramm mit gleichmäßiger Unterteilung die Daten nicht in relativ konzentrierte Bereiche fein unterteilen kann, kann es menschliche Gesichter nicht genau verfolgen. Es wird ein neues Face-Tracking-Verfahren vorgeschlagen, das ein verbessertes räumliches Histogramm mit Partikelfilter kombiniert. Bei diesem Verfahren wird eine ungleichmäßige Teilung vorgeschlagen. Histogrammdaten in relativ konzentrierten Bereichen können fein unterteilt werden und Histogrammdaten in relativ spärlichen Bereichen können grob unterteilt werden. Gleichzeitig wird ein neues Resampling-Verfahren vorgeschlagen, um den Partikelabbau und die Partikelverarmung zu lösen. Wenn viele doppelte Partikel vorkommen, behalten Sie ein Partikel bei, entfernen Sie andere Partikel. Um sicherzustellen, dass die Gesamtzahl der Partikel N beträgt, müssen Partikel zufällig in der Nähe der Partikel mit einem großen Gewicht ausgewählt werden. Experimente zeigen, dass seine Tracking-Leistung sehr gut ist, wenn die Zielfarbe der Szenenfarbe ähnelt und teilweise oder vollständig verdeckt wird, oder in komplexen nichtlinearen, nicht-gaußschen Situationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12286-1_26 94e2bbe79252d44acfb9832b3e1ab685;de;;;5.3.;;;Basierend auf Force-Directed Algorithms-Methode für die Metagraph-Visualisierung Dieser Artikel beschreibt die Methode zur automatischen Metagraphenvisualisierung basierend auf den Prinzipien kraftgerichteter Algorithmen. Es werden die Kriterien definiert, unter denen das endgültige Bild für Benutzer verständlich ist und einem vorgegebenen Metagraphen entspricht. Dieser Ansatz definiert den Satz von Regeln für Kräfte zwischen Metagraphknoten in Abhängigkeit von den Typen der Knoten, zwischen denen die Kräfte wirken. Das Analogon des Venn-Diagramms wird verwendet, um die Metagraphenknoten zu visualisieren. Die Methode wurde an zufälligen Metagraphen mit bis zu 60 Vertices und bis zu 25 Metavertices getestet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-15147-2_30 de5143d68d5ce664b4b380b21edce842;de;;;2.4.;;;In-vivo-Visualisierung des Eintritts von Nanopartikeln in Gewebe des zentralen Nervensystems Da die potenzielle Neurotoxizität von Nanopartikeln ein wichtiges Thema ist, ist die Charakterisierung des Eintritts von Nanopartikeln in das Gehirn unerlässlich. Hier beschreiben wir eine in vivo konfokale Neuroimaging-Methode (ICON) zur Visualisierung des Eintritts von fluoreszierenden Partikeln in das Parenchym des Zentralnervensystems (ZNS) bei lebenden Tieren unter Verwendung der Netzhaut als Modell. Ratten erhielten intravenöse Injektionen von fluoreszenzmarkierten Polybutylcyanoacrylat-Nanopartikeln, die durch ein Standard-Miniemulsionspolymerisationsverfahren synthetisiert worden waren. Wir führten Live-Aufnahmen mit ICON von vor und bis zu 9 Tagen nach der Partikelinjektion durch und machten Mikroaufnahmen der Netzhaut. Darüber hinaus wurde eine selektive retrograde Markierung der retinalen Ganglienzellen durch stereotaktische Injektion eines Fluoreszenzfarbstoffs in den Colliculus superior erreicht. Mit ICON beobachteten wir die vaskuläre Kinetik von Nanopartikeln (Einwaschen innerhalb von Sekunden), ihren Durchgang zum Netzhautparenchym (innerhalb von Minuten) und ihre Verteilung (hauptsächlich zellulär) unter in vivo-Bedingungen. Zum Nachweis von Zellverlust – der für die Bewertung toxischer Effekte wichtig ist – haben wir in einem anderen Experiment die selektiv markierten Netzhautneuronen semiquantitativ analysiert. Unsere Ergebnisse legen nahe, dass der Farbstoff per se nicht zum neuronalen Tod führt. Mit ICON ist es möglich, die Kinetik von Nanopartikeln in der Netzhaut als Modell der Blut-Hirn-Schranke zu untersuchen. Bildgebungsdaten können innerhalb von Sekunden nach der Injektion erfasst werden, und das langfristige Schicksal der zellulären Aufnahme kann viele Tage lang verfolgt werden, um die zelluläre/extrazelluläre Verteilung der Nanopartikel zu untersuchen. ICON ist somit ein effektives und sinnvolles Werkzeug zur Untersuchung von Nanopartikel/ZNS-Wechselwirkungen.;-;-;-;https://link.springer.com/article/10.1007/s00204-012-0832-4 c36722b84df80c581487e9a06be8101e;de;;;2.4.;;;Charakterisierung eines neuartigen Bakteriocin-kodierenden Plasmids, das in klinischen Isolaten von Staphylococcus aureus gefunden wurde In drei klinischen Isolaten von Staphylococcus aureus, die in verschiedenen Krankenhäusern in Rio de Janeiro gewonnen wurden, wurden Plasmide gefunden, die die Bakteriocinproduktion und Immunität gegen seine Wirkung spezifizieren. Es wurde festgestellt, dass diese Plasmide (pRJ28, pRJ29 und pRJ30) von 8,0 kb beim Verdau mit mehreren Enzymen identische Restriktionsfragmentmuster erzeugen, obwohl die Bandbreite der für das jeweilige Bakteriocin empfindlichen Stämme zwischen den Produzentenstämmen variierte, wenn verschiedene grampositive Bakterien verwendet wurden als Indikatoren. pRJ29 wurde dann zur weiteren Charakterisierung ausgewählt, um es mit pRJ6 und pRJ9 zu vergleichen, zwei kleine Bakteriocin-kodierende Plasmide, die zuvor in aus Nahrungsmitteln isolierten Stämmen beschrieben wurden. Es wurde festgestellt, dass pRJ29 für ein Bakteriocin mit chemischen Eigenschaften (Empfindlichkeit gegenüber Proteasen, Hitzebeständigkeit, Aktivität unter Anaerobiose und geschätztes Molekulargewicht) ähnlich denen von pRJ6-kodiertem Bakteriocin kodiert, was ihm Kreuzimmunität verleiht. Seine Restriktionskarte unterschied sich jedoch von denen von pRJ6 und pRJ9. Diese Studien zusammen mit Hybridisierungs-, Inkompatibilitäts- und Mobilisierungsanalysen unter Verwendung eines mit Tn917-lac markierten Derivats von pRJ29 legen nahe, dass pRJ29 ein Mosaik aus genetischen Determinanten von pRJ6 und pRJ9 ist und dass IS 257 nicht an den Rekombinationsereignissen beteiligt war, die zu Anstieg auf pRJ29.;-;-;-;https://link.springer.com/article/10.1023/A%3A1001878821709 5deecdf800a9f0cd3585fb1425dda906;de;;;5.3.;;;Handschrift: Merkmalskorrelationsanalyse für biometrische Hashes Im Anwendungsbereich des elektronischen Handels kann die biometrische Authentifizierung eine mögliche Lösung für das Problem der Schlüsselverwaltung bieten. Neben serverbasierten Ansätzen erscheinen Verfahren zur direkten Ableitung digitaler Schlüssel aus biometrischen Maßen vorteilhaft. In diesem Artikel analysieren wir einen unserer kürzlich veröffentlichten spezifischen Algorithmen dieser Kategorie, der auf der Verhaltensbiometrie der Handschrift basiert, dem biometrischen Hash. Unser Interesse besteht darin, zu untersuchen, inwieweit jeder der zugrunde liegenden Merkmalsparameter zur gesamten intrapersonalen Stabilität und zum interpersonellen Werteraum beiträgt. Wir werden die verwandten Arbeiten zur Merkmalsbewertung kurz diskutieren und eine neue Methodik vorstellen, die auf drei Komponenten basiert: der intrapersonalen Streuung (Abweichung), der interpersonalen Entropie und der Korrelation zwischen beiden Maßen. Die Bewertung der Technik wird anhand von zwei Datensätzen unterschiedlicher Größe vorgestellt. Die vorgestellte Methode ermöglicht die Ermittlung von Auswirkungen der Parametrisierung des biometrischen Systems, die Schätzung von Wertraumgrenzen und den Vergleich mit anderen Merkmalsauswahlansätzen.;-;-;-;https://link.springer.com/article/10.1155/S1110865704309248 0857c1e5a4c98f334d888435b5b7302b;de;;;5.3.;;;Spezialbrillen – Projektionsdisplays für neurologische Untersuchungen Ziel dieser Arbeit war es, einen „Entwurf und Bau von Spezialbrillen für die neurologische Untersuchung“ zu beschreiben. Die Grundlage dieser Arbeit ist eine Analyse und Konstruktion von Spezialbrillen unter Verwendung der grundlegenden verfügbaren Teile und Herstellung mit dem Ziel, eine experimentelle Maschinerie mit der Möglichkeit der Augenbewegungsforschung zu schaffen. Die Motivation für diese Arbeit besteht darin, ein System zu implementieren, das primäre 2D- und 3D-HMD-Projektionsdisplays (Head-Mounted Display) zur Augenstimulation verwendet. Das Ergebnis ist eine Reihe von experimentellen Modellen, die Spezialbrillen beschreiben, die verwendet werden, um die vorgeschlagene Lösung der Augenbewegung zu überprüfen und die dynamische Position des Kopfes im 3D-Raum zu messen. Ein modifizierter Starburst-Algorithmus für die Pupille des Erkennungszentrums und eine kalibrierte Szene für wiederholte Messungen wurden verwendet, um Augenbewegungen zu erkennen. Methode basierend auf Infrarot- und sichtbarem Lichtspektrum. Erstellte spezialisierte Projektionsdisplays für neurologische Untersuchungen können Messungen bei verschiedenen Lichtverhältnissen und Stimulationen mit Messung der dynamischen Position des Kopfes basierend auf programmierter Software durchführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89208-3_25 9e6ec164ef18fa6c4811f5c3e1b57b7c;de;;;2.4.;;;Psychoanalytische Psychotherapie bei stark gestörten Borderline-Patienten: Beobachtungen zur Supervisionsgruppe der Psychotherapeuten Die Autoren beschreiben die Rolle einer Supervisionsgruppe von Psychotherapeuten innerhalb eines breiteren therapeutischen Feldes für stark gestörte Borderline-Patienten. Die Gruppe konzentriert sich auf die Übertragung und Gegenübertragung, gesehen nach Rackers Unterscheidung zwischen konkordanten und komplementären Identifikationen. Die Implikationen der Prävalenz der komplementären Identifikationen gegenüber den konkordanten Identifikationen der Therapeuten mit ihren Patienten und die daraus resultierende Regression zu primitiven Abwehrmechanismen können durch die integrative Funktion der Gruppe als Empfänger (1) einer Vielzahl von Informationen über den Patienten ( 2) des Versuchs des Therapeuten, zu verstehen und zu synthetisieren, und (3) der Gegenübertragungsreaktionen des Therapeuten auf seinen Patienten. Die großen Diskrepanzen zwischen den unterschiedlichen Vorstellungen von der psychischen Welt der Borderline-Patienten und der jeweils anzuwendenden Therapietechnik werden ebenso diskutiert wie die Art und Weise, wie die Gruppe die Informationen filtert und den therapeutischen Gedanken integriert. Man könnte also sagen, dass in der „stationären“ Phase der Einzelpsychotherapie die Psychotherapeutengruppe für den Patienten und die Behandlung in einem synthetisierenden Kontext fungiert, indem sie dem Therapeuten einen Integrationsraum für seine abgespaltener Teil von Selbst- und Objektrepräsentationen, den der Therapeut für seinen Patienten nutzt.;-;-;-;https://link.springer.com/article/10.1007/s11231-005-3622-4 73c9f512acfc7423126225a8eb2e3de1;de;;;2.4.;;;Gibt es das beste Stimulationsprotokoll? Es ist bedauerlich, dass wir keinen Alfred Tennyson haben, um unsere Bemühungen zu beschreiben, aber wir halten uns für moderne Ritter, da auch wir einen Heiligen Gral in Form eines universellen Stimulationsprotokolls suchen, das für alle Patienten gelten kann und viele befruchtungsfähige Eizellen produzieren kann und eine Schwangerschafts- und termingerechte Entbindungsrate, die besser ist als die natürliche Fruchtbarkeit. Gibt es eine solche heilige Anregung? Der Hauptzweck dieser Übung besteht darin, diese Frage im Zusammenhang mit der Stimulation mit Gonadotropinen zu untersuchen, dem Thema, das mir vom Organisationskomitee zugewiesen wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0645-0_1 59491d12e720a9b34dbf66dc9b382666;de;;;5.3.;;;Dynamische Datendarstellungen für die räumlich-zeitliche Datenvisualisierung Räumlich-zeitliche Berechnung kann als eine spezifische Berechnung angesehen werden, um räumliche Merkmale in physischen oder virtuellen Räumen gleichzeitig in diskreten oder kontinuierlichen und asynchronen Zeitschritten zu verknüpfen. Mit der Zunahme zeitlicher und räumlicher digitaler Datensätze hat sich die Bedeutung der zeitlichen, räumlichen und räumlich-zeitlichen Aggregationsberechnung in einer erheblichen Anzahl von Disziplinen widergespiegelt. Wir entwickeln ein graphengrammatikbasiertes visuelles System mit räumlich-zeitlichen relationalen Grammatiken. Die theoretischen Grundlagen werden für Denkaufgaben durch die künstliche Intelligenz und dynamische räumliche Interaktion entwickelt. Wir wenden die Raum-Zeit-Computing-Theorie an, um dynamische Datenvisualisierungen mit Interaktionen zu verarbeiten. Die dynamische visuelle Analyse wurde entwickelt, um die Daten in einige Kombinationsbegriffe umzuwandeln, die wir leichter verstehen können. Die Präsentationsalgorithmen können ein interaktives Streaming-Medium auf dem Bildschirm erzeugen. Wir können Bewegung auch als Anzeigetechnik verwenden, um Daten darzustellen, die entweder statisch oder dynamisch sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-3187-8_63 62b988d69e2295c07895ae6b062b4a44;de;;;2.4.;;;Mehrphasige Bandscheibenmechanik: Theorie und Anwendung Die menschliche Wirbelsäule ist die flexible Stützstruktur unseres Körpers. Seine geometrische Form ist ein Ergebnis der menschlichen Evolutionsgeschichte, wobei insbesondere der Lendenwirbelsäulenbereich (L1–L5) am stärksten von Beschwerden durch mechanische Belastungen gefährdet ist. Dabei sind die Bandscheiben (IVD) zwischen den Wirbelkörpern die anfälligsten Elemente, da diese avaskulären Strukturen die Flexibilität bereitstellen müssen. Es ist allgemein anerkannt, dass die IVD oft der Auslöser für Rückenschmerzen sind. Im Rahmen der biomechanischen Forschung ist es daher wichtig, ein Modell für die menschliche Lendenwirbelsäule mit besonderem Fokus auf die IVD zu entwickeln.;-;-;-;https://link.springer.com/article/10.1007/s11831-012-9073-1 e63085011fedef1fc3b0a0b8d0e4ab29;de;;;5.3.;;;Spezifikation und Analyse von Echtzeitsystemen mit PARAGON Dieses Papier beschreibt eine Methodik zur Spezifikation und Analyse von verteilten Echtzeitsystemen unter Verwendung des Toolsets PARAGON. PARAGON basiert auf dem Communicating Shared Resources Paradigma, das es ermöglicht, ein Echtzeitsystem als eine Reihe von kommunizierenden Prozessen zu modellieren, die um gemeinsam genutzte Ressourcen konkurrieren. PARAGON unterstützt sowohl visuelle als auch textuelle Sprachen zur Beschreibung von Echtzeitsystemen. Es bietet eine automatische Analyse basierend auf der Zustandsraumerkundung sowie eine benutzergesteuerte Simulation. Unsere Erfahrung mit dem Einsatz von PARAGON in mehreren Fallstudien führte zu einer Methodik, die Entwurfsmuster und Abstraktionsheuristiken sowie einen Gesamtprozess umfasst. Dieses Papier gibt einen kurzen Überblick über das Paradigma der Kommunikation gemeinsamer Ressourcen und sein Toolset PARAGON, einschließlich der textuellen und visuellen Spezifikationssprachen. Das Papier beschreibt dann unsere Methodik mit besonderem Schwerpunkt auf Heuristiken, die in PARAGON verwendet werden können, um den Zustandsraum zu reduzieren. Zur Veranschaulichung der Methodik verwenden wir Beispiele aus einer realen Systemfallstudie.;-;-;-;https://link.springer.com/article/10.1023/A%3A1018938205540 70e98795d57d0078d7684f4445d68de8;de;;;5.3.;;;Testen von Landmark-Identification-Theorien in virtuellen Umgebungen Orientierungspunkte sind grundlegende Elemente für Menschen, um eine Umgebung zu lernen. Menschen verwenden diese Orientierungspunkte, um ihre Routenbeschreibungen zu bereichern (z. B. beim Ankern von Bewegungen an Entscheidungspunkten). In den letzten Jahren wurden mehrere Theorien zur automatischen Landmarkenerkennung und -auswahl vorgeschlagen. In diesem Artikel werden diese Theorien bewertet, indem die Landmarken, die durch die automatische Landmarkenauswahl identifiziert wurden, mit Landmarkenentscheidungen und Verhaltensmerkmalen von menschlichen Teilnehmern verglichen werden, die sich in einer virtuellen Umgebung bewegen. Dieser Vergleich von automatischer Auswahl und menschlichem Verhalten wird unser Verständnis von Theorien zur automatischen Landmarkenerkennung verbessern und eine Gewichtung von Methoden für Navigationsdienste erleichtern, um menschenähnlichere Routenbeschreibungen zu generieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14749-4_8 5240a07d3e126f7d0de40788d91b55dc;de;;;5.3.;;;Eine adaptive Rechtschreibprüfung basierend auf PS3M: Verbesserung der Cluster von Ersatzwörtern In diesem Beitrag stellt der Autor ein neues Ähnlichkeitsmaß für Zeichenketten auf Basis von S3M vor, das er erweitert, um neben Zeichensatz und -folge auch deren Position zu berücksichtigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-93905-4_61 f323a9f1dd4ab02e4a773cc707d027eb;de;;;5.3.;;;Modellierung der Illokutionsstruktur: Kombination empirischer Studien mit formaler Modellanalyse In diesem Beitrag greifen wir das Thema Dialoggrammatiken auf illokutionärer Kraftebene erneut auf und präsentieren einen neuen Ansatz zur formalen Modellierung, Bewertung und zum Vergleich dieser Modelle auf Basis rekursiver Übergangsnetzwerke. Durch den Einsatz geeigneter Werkzeuge können solche endlichen Grammatiken formal analysiert und gegen empirisch erhobene Korpora validiert werden. Zur Veranschaulichung unseres Ansatzes zeigen wir: (a) die Konstruktion von Mensch-Mensch-Dialoggrammatiken auf der Grundlage kürzlich erhobener natürlichsprachlicher Dialoge in Joint-Task-Situationen und (b) die Auswertung und den Vergleich dieser Dialoggrammatiken mit formalen Methoden. Diese Arbeit bietet eine neuartige Grundlage für die Entwicklung und Evaluierung von Dialoggrammatiken sowie für das Engineering von korpusspezifischen Dialogmanagern, deren Angemessenheit überprüft werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12116-6_28 31d426404132855829f41f796f0cfe96;de;;;2.4.;;;Eine neuartige, zellspezifische Attenuierung einer Herpes-Simplex-Virus-Typ-1-Infektion in vivo Wir haben eine zellspezifische Abschwächung des Herpes-Simplex-Virus Typ 1 Stamm 17syn+ in vivo beobachtet, die vom Zelltyp abhängig war, der zum Züchten des Virus verwendet wurde. Eine direkte Hornhautinfektion von Kaninchen mit in Vero-Zellen vermehrtem 17syn+ verursachte bei 60 % (6 von 10) eine schwere Erkrankung des Zentralnervensystems (ZNS), die sich durch Krampfanfälle und/oder Lähmung bemerkbar machte. Alle neurologisch beeinträchtigten Kaninchen starben. Im Gegensatz dazu führte eine Infektion von Kaninchen mit 17syn+, das in BHK-21-Zellen vermehrt wurde, zu Anfällen und verlief bei 10 % (1 von 10) tödlich. Die zellspezifische Abschwächung eines 17syn+ trat nach einem Wachstumszyklus in BHK-21-Zellen auf. Um zu bestimmen, ob die verringerte Virulenz des BHK-21-Zell-gewachsenen Virus mit einer weniger schweren ZNS-Entzündungsreaktion korrelierte, wurden ZNS-Gewebe von Kaninchen, die mit 17syn+ infiziert waren, das in Vero- und BHK-21-Zellen gezüchtet wurde, verglichen. Histopathologische Analysen zeigten keine Unterschiede in der Lage oder Schwere der entzündlichen Läsionen von Kaninchen, die mit einem Virus infiziert waren, das in einem der beiden Zelltypen gezüchtet wurde. Die Virus-induzierte Hornhauterkrankung war weniger abhängig vom Zelltyp, der zur Vermehrung des Virus verwendet wurde, da es keine signifikanten Unterschiede in der Art oder Schwere der beobachteten Hornhautläsionen gab. Mögliche Erklärungen basierend auf Unterschieden zwischen Vero- und BHK-21-Zellen werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s004010000281 04fccca6b27288d81d173790d0774778;de;;;2.4.;;;Mikrobielles Wachstum und Wirkung: Implikationen für die passive Bioremediation von sauren Minendrainagen Aufgrund der variablen Umweltbeschaffenheit des Grubenwassers sind verschiedene Bakterienarten bei der Erzeugung von saurem Grubenwasser (AMD) und in der Bioremediationsbehandlungstechnologie wichtig. Der enzymatische Metalltransport und die Metallumwandlung ermöglichen es Bakterien, in metallreichen Umgebungen zu überleben und Metalle zu oxidieren, zu reduzieren und auszuscheiden. Beispielsweise ermöglichen die Enzyme Cr(VI)-Reduktase und Cytochrom-c3-Hydrogenase;-;-;-;https://link.springer.com/article/10.1007/s10230-006-0138-y a83c8ac34bf2459d8eacf44bc99451dd;de;;;2.4.;;;50+ Jahre Proteinfaltung Die Fähigkeit von Proteinen, ihre räumlichen Strukturen spontan zu bilden, ist ein seit langem bestehendes Rätsel in der Molekularbiologie. Experimentell gemessene Geschwindigkeiten der spontanen Faltung von globulären Proteinen mit einer einzigen Domäne reichen von Mikrosekunden bis zu Stunden: Der Unterschied – 10-11 Größenordnungen – ist der gleiche wie zwischen der Lebensdauer einer Mücke und dem Alter des Universums. Diese Übersicht (basierend auf der Literatur und einigen persönlichen Erinnerungen) beschreibt einen kurvenreichen Weg zum Verständnis der spontanen Faltung der Proteinstruktur. Das Hauptaugenmerk gilt der Landschaft der freien Energie der Konformationen einer Proteinkette – insbesondere der Barriere, die ihren ungefalteten (U) und den nativ gefalteten (N) Zustand trennt – und physikalische Theorien der Überschreitungsraten dieser Barriere beide Richtungen: von U nach N und von N nach U. Es wird gezeigt, dass Theorien dieser beiden Prozesse im Wesentlichen zum gleichen Ergebnis kommen und den beobachteten Bereich der Faltungs- und Entfaltungsgeschwindigkeiten für globuläre Einzeldomänenproteine ​​skizzieren. Darüber hinaus sagen sie die maximale Größe von Proteindomänen voraus, die sich ausschließlich unter thermodynamischer (und nicht kinetischer) Kontrolle falten, und erklären die beobachtete maximale Größe „faltbarer“ Proteindomänen.;-;-;-;https://link.springer.com/article/10.1134/S000629791814002X 174b9f67c77c5a16a8697b1b81542532;de;;;2.4.;;;Trennung audiovisueller Sprachquellen: Ein neuer Ansatz zur Nutzung der audiovisuellen Kohärenz von Sprachreizen Wir präsentieren einen neuen Ansatz für das Problem der Quellentrennung im Fall von mehreren Sprachsignalen. Das Verfahren basiert auf der Verwendung des automatischen Lippenlesens, mit dem Ziel, ein akustisches Sprachsignal aus anderen akustischen Signalen zu extrahieren, indem seine Kohärenz mit den Lippenbewegungen des Sprechers ausgenutzt wird. Wir betrachten den Fall einer additiven stationären Mischung dekorrelierter Quellen ohne weitere Annahmen über Unabhängigkeit oder nicht-Gaußschen Charakter. Zunächst stellen wir einen theoretischen Rahmen vor, der zeigt, dass es tatsächlich möglich ist, eine Quelle zu trennen, wenn dem System einige ihrer spektralen Eigenschaften bereitgestellt werden. Dann wenden wir uns dem Fall der audiovisuellen Quellen zu. Wir zeigen, wie, wenn ein statistisches Modell der gemeinsamen Wahrscheinlichkeit von visuellem und spektralem Audioeingang gelernt wird, um die audiovisuelle Kohärenz zu quantifizieren, eine Trennung durch Maximieren dieser Wahrscheinlichkeit erreicht werden kann. Schließlich präsentieren wir eine Reihe von Trennergebnissen an einem Korpus von Vokal-Plosiv-Vokal-Sequenzen, die von einem einzelnen Sprecher gesprochen werden, eingebettet in eine Mischung anderer Stimmen. Wir zeigen, dass die Trennung für Mischungen aus 2, 3 und 5 Quellen recht gut sein kann. Diese Ergebnisse sind zwar sehr vorläufig, aber ermutigend und werden im Hinblick auf ihre mögliche Komplementarität mit traditionellen reinen Audiotrennungs- oder -verbesserungstechniken diskutiert.;-;-;-;https://link.springer.com/article/10.1155/S1110865702207015 3addf66072cb17f88a17bda403dadfc6;de;;;2.4.;;;Die Automatisierung der Postbearbeitung Es ist klar, dass die integrierte Automatisierung irgendwann die Mechanisierung als Kerntechnologie für die Postverarbeitung ablösen wird. Die Verantwortlichen versprechen, dass die Postautomatisierung die Nachteile von Briefsortiermaschinen (LSM) mindern oder beseitigen und den Weg für eine wesentlich schnellere und effizientere Postbearbeitung sowie einen verbesserten Postservice ebnen wird. Postbeamte glauben, dass 30 Jahre genug Zeit sind, um die Grenzen dafür zu lernen, wie schnell und genau Menschen Tasten auf LSMs drücken können. Bedienerwiderstände und hohe Schulungskosten sind zusätzliche Probleme, die Postmanager mit einer Automatisierungstechnik lösen wollen, die die meisten LSMs und LSM-Betreiber überflüssig machen soll.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-1468-2_8 2d3bfa9a382c6eb6bcb1fc757cc3aa5e;de;;;2.4.;;;Händigkeit: Eine Manifestation der Verhaltenslateralität Da wir Psychologen bzw. Genetiker sind, obwohl nur einer von uns Linkshänder ist, betrachten wir Händigkeit als angepassten und adaptiven Verhaltensphänotyp.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-76727-7_23 a1b2d8ecfe45c47c84452e7daa29d84e;de;;;2.4.;;;Geldtheorie und -politik in einer offenen Wirtschaft Dieses Papier identifiziert mehrere Aspekte, in denen die Analyse der Makroökonomie kleiner offener Volkswirtschaften über ihre Entwicklung vor einem Jahrzehnt hinaus modifiziert werden muss, unter besonderer Berücksichtigung der Wirksamkeit der Geld- und Finanzpolitik unter alternativen Wechselkurssystemen. Kapitalbewegungen müssen im Kontext des Portfoliogleichgewichts und nicht als kontinuierliche Ströme betrachtet werden. In monetaristischen Formulierungen muss Platz für ausländische Geldbestände geschaffen werden. Die Auswirkungen von Wechselkursänderungen auf die nominalen Faktorpreise sollten berücksichtigt werden. Und die Auswirkung des Wechselkursregimes auf das Ausmaß der Stabilisierungsaufgabe muss bei jeder Bewertung alternativer Wechselkursregime berücksichtigt werden. Entlang jeder dieser Linien werden Vorschläge gemacht.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-03359-1_2 8011b173f55cdd4375f438f392770016;de;;;5.3.;;;Eine terminologische Sprache zur Darstellung von komplexem Wissen Dieses Papier beschreibt die aktuelle Implementierung von KRAM, einem hybriden System zur Wissensrepräsentation, das Teil eines Projekts ist, dessen Aufgabe es ist, ein realistisches Modell der Interaktion von Agenten untereinander und mit der Außenwelt zu erstellen: und benutzerfreundliche Schnittstelle für ein Informationssystem.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0025004 e3e966cd4c617dbf037e35f2e67efe4a;de;;;2.4.;;;Modellierung des Werkzeugblockadezustands in der Schneidwerkzeugkonstruktion für die Rotations-Ultraschallbearbeitung von Verbundwerkstoffen Obwohl die Eigenschaften überlegen sind, weisen Verbundwerkstoffe immer noch Probleme bei der Bearbeitung auf, wie Delamination, Rissbildung, Verbrennung, Werkzeugblockierung sowie Kosten- und Effizienzprobleme. Diese Probleme können eine breite Anwendung außergewöhnlicher Verbundmaterialien verhindern. Als effektives Verfahren bei der Verbundbearbeitung wurde dem Rotationsultraschallbearbeitungsverfahren (RUM) in letzter Zeit viel Aufmerksamkeit geschenkt. Die aktuellen Studien zum RUM-Tool-Design basieren größtenteils auf Experimenten. Die Unzulänglichkeit der RUM-Werkzeugkonstruktionstheorie würde jedoch im Allgemeinen zu einer Werkzeugblockierung führen, die in der Folge zu einem starken Anstieg der Schnittkraft und einer schlechten Bearbeitungsqualität in der Ingenieuranwendung führt. Außerdem werden nur wenige Untersuchungen durchgeführt, um Werkzeugkonstruktionsparameter mit Bearbeitungsbedingungen zu kombinieren, um eine Werkzeugblockierung während des RUM-Prozesses zu vermeiden. In dieser Arbeit werden basierend auf dem RUM-Abtragsmechanismus zwei Modelle für den Spanraum und die Spanlänge gebaut. Somit ist die Werkzeugblockadebedingung in RUM mit den Werkzeugkonstruktionsparametern und den Schnittparametern verknüpft. Zur theoretischen Überprüfung werden experimentelle Studien durchgeführt. Aufgrund der Unterschiede in den Modalitäten des Chips werden zwei typische Arten von Verbundwerkstoffen, C/SiC und CFK T700, ausgewählt, um ihre Werkzeugblockierungsbedingungen zu erhalten. Die Testergebnisse zeigen, dass beim C/SiC-Fräsen der Spanraum größer als die Spanlänge sein sollte, während beim T700-Fräsen der Spanraum mindestens über 8-mal größer als die Spanlänge sein sollte, um Blockaden zu vermeiden.;-;-;-;https://link.springer.com/article/10.1007/s00170-016-9911-7 646cb4fb5d7067dbf5267a5b6550679a;de;;;2.4.;;;Rickettsien: Von der Epidemiologie zur Molekularbiologie, der Weg zur Krankheitskontrolle Rickettsienerkrankungen umfassen eine heterogene Gruppe von weltweit vorkommenden Erkrankungen (Tabelle 1). Sie werden aufgrund fehlender klinischer Besonderheiten und fehlender Verfügbarkeit wirksamer, spezifischer labordiagnostischer Methoden in vielen geografischen Gebieten bemerkenswert unterschätzt (1).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-3449-8_5 039c00aa61b74fbcf3a62a977974a210;de;;;2.4.;;;Kometenmaterialien: Fortschritte beim Verständnis der Zusammensetzung im äußeren Sonnennebel Ein Hauptziel des Workshops war es, etwas über die chemische Zusammensetzung, die physikalische Struktur und die thermodynamischen Bedingungen der äußeren Teile des Sonnennebels zu erfahren, in denen sich Kometen gebildet haben. Hier fassen wir zusammen, was wir aus jahrelanger Forschung über die molekularen Bestandteile der Kometenkoma vor allem aus;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4211-3_34 4b69287a65079a7f48c0a27f8bafcd18;de;;;2.4.;;;Plastizität von Neuralleistenzellen Musterbildung und Morphogenese von Neuralleisten-abgeleiteten Geweben innerhalb eines sich entwickelnden Wirbeltierembryos beruhen auf einem komplexen Gleichgewicht zwischen Signalen, die von Neuralleistenzellen im Neuroepithel während ihrer Bildung aufgenommen werden, und Signalen aus den Geweben, die die Neuralleistenzellen während ihrer Wanderung kontaktieren. Die axiale Identität der Neuralleiste des Hinterhirns wird durch ein kombinatorisches Muster kontrolliert;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-46954-6_5 213540b2b859f199739c80cff86918bf;de;;;2.4.;;;Klinische Bedeutung und Verbreitung von Fluorchinolon-resistenten Uropathogenen bei hospitalisierten urologischen Patienten Die minimalen Hemmkonzentrationen (MHK) von Ciprofloxacin wurden für 441 Uropathogene von Patienten mit komplizierten und/oder im Krankenhaus erworbenen Harnwegsinfektionen (HWI) bestimmt. Keiner dieser;-;-;-;https://link.springer.com/article/10.1007/BF01793576 f201da74b5f714f663aca3939144d531;de;;;2.4.;;;Chaperon-Regulierung der Hitzeschock-Proteinreaktion Die Hitzeschockproteinantwort scheint hauptsächlich durch nichtnative Proteine ​​ausgelöst zu werden, die sich in einer gestressten Zelle ansammeln und führt zu einer erhöhten Expression von Hitzeschockproteinen (HSPs). Viele Hitzeschockproteine ​​verhindern die Proteinaggregation und sind in ihrer Eigenschaft als Chaperone an der Rückfaltung oder Eliminierung von fehlgefalteten Proteinen beteiligt. Obwohl mehrere Mechanismen existieren, um die Häufigkeit von zytosolischen und nukleären Chaperonen zu regulieren, ist die Aktivierung des Hitzeschock-Transkriptionsfaktors 1 (HSF1) ein wesentlicher Aspekt der Hitzeschock-Proteinantwort. HSPs und Co-Chaperone, die zu Multichaperon-Komplexen zusammengesetzt sind, regulieren die HSF1-Aktivität auf verschiedenen Ebenen. HSP90-haltige Multichaperon-Komplexe scheinen die relevantesten Repressoren der HSF1-Aktivität zu sein. Da HSP90-haltige Multichaperon-Komplexe nicht nur spezifisch mit Client-Proteinen, einschließlich HSF1, interagieren, sondern auch generisch mit nicht-nativen Proteinen, beeinflusst die Konzentration nicht-nativer Proteine ​​den Aufbau von HSP90-haltigen Komplexen, die die Aktivierung unterdrücken und möglicherweise eine Rolle bei der Inaktivierung der Transkriptionsfaktor. Proteine, die keine stabilen Tertiärstrukturen erreichen können und Chaperon-Substrate bleiben, werden für den proteasomalen Abbau durch Polyubiquitinierung durch Co-Chaperon-CHIP gezielt. CHIP kann HSF1 aktivieren, um das Proteinqualitätskontrollsystem zu regulieren, das Schutz und Abbau von Chaperon-Substraten ausgleicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-39975-1_9 bc1e6ab954383b9f0fdf9b2bfc78a7b0;de;;;2.4.;;;Marktstruktur In diesem Kapitel wird die Idee ausgearbeitet, dass die Struktur von Märkten als Erklärung für Konjunkturzyklen dienen kann. Ausgangspunkt ist der neukeynesianische Ansatz. Neukeynesianische Theorien leiten nominale und reale Rigiditäten aus dem rationalen Verhalten von Individuen ab. Die automatische Tendenz zu einem Gleichgewichtspfad mit Vollbeschäftigung wird verneint. Nachfrageschocks werden als Ursache für wirtschaftliche Schwankungen angesehen und die Wohlfahrtsanalyse zeigt, dass die Reaktionen auf diese Schocks individuell effizient, aber sozial ineffizient sein können. In einer wettbewerbsintensiven Welt mit vollständigen Informationen gibt es normalerweise keinen Raum für Schwankungen der Wirtschaftstätigkeit. Wie zuvor argumentiert wurde, sind exogene Schocks notwendig, um Zyklen zu erzeugen. Die Ausbreitung dieser Schocks hängt von der Marktstruktur ab. Nachfrageschocks haben unterschiedliche Auswirkungen auf die Preisvolatilität, wenn man von Monopol-, Oligopol- oder monopolistischem Wettbewerb ausgeht. In diesem Zusammenhang wurde häufig festgestellt, dass in modernen Volkswirtschaften der vollkommen wettbewerbsorientierte Markt eher die Ausnahme als die Regel ist, siehe die empirische Studie von Hall (1986), die starke Unterstützung für die Hypothese des unvollkommenen Wettbewerbs findet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-51742-6_5 809c54d9104c0a32c60889a7aa340d33;de;;;2.4.;;;Leukozyten-Cluster von Differenzierungsantigenen Die Liste der Cluster Designation (CD) (Differenzierung) Antigene wird ständig erweitert, da neue Moleküle und monospezifische Antikörper identifiziert werden. Die folgende Tabelle ist für alle Differenzierungsantigene aktualisiert, die offiziell vom 6. Internationalen Workshop in Human Leukocyte Differentiation Antigens im November 1996 in Japan benannt wurden;-;-;-;https://link.springer.com/chapter/10.1007/978-0-585-31180-7_8 eec6ef1e10832b314a453ec25ce321c8;de;;;2.4.;;;Kinder mit Legasthenie zeigen ein inhibitorisch domänenspezifisches Defizit beim Lesen Kinder mit Legasthenie haben anhaltende Schwierigkeiten beim Erwerb von Lesefähigkeiten und machen oft Ratefehler, die dadurch gekennzeichnet sind, dass ein Wort durch einen orthografischen Nachbarn ersetzt wird. Diese Lesefehler könnten mit Hemmungsproblemen innerhalb der Leseaufgabe zusammenhängen. Frühere Studien zur Untersuchung der Hemmungsfähigkeiten bei legasthenen Kindern führten zu unklaren Ergebnissen, wenn die Hemmung bei kognitiven und nicht lesenden Aufgaben untersucht wurde. Die vorliegende Studie soll zeigen, ob legasthene Kinder ein spezifisches Lesehemmungsdefizit oder ein allgemeines Hemmungsdefizit aufweisen. Achtzehn legasthene Kinder (Altersspanne: 106–131 Monate, in Grad 4) wurden sowohl im chronologischen Alter (Altersspanne: 109–128 Monate, in Grad 4) als auch auf Leseniveau (Altersspanne: 87– 98 Monate, in Klasse 2). Alle Kinder wurden gebeten, (i) eine kognitive Hemmungsaufgabe basierend auf Fruchtfarben durchzuführen, (ii) eine Lesehemmungsaufgabe, bestehend aus Lesesätzen, in denen ein erwartetes Wort durch einen orthographischen Nachbarn ersetzt wurde. Unsere Ergebnisse zeigten, dass legasthene Kinder im Vergleich zu den beiden Kontrollgruppen in der kognitiven Hemmungsaufgabe gleich gut abschnitten, während sie die Sätze weniger genau lasen als die beiden Kontrollgruppen in der Leseinhibitionsaufgabe, und sie waren langsamer als Kinder gleichen Alters. Daher zeigen unsere Ergebnisse deutlich, dass legasthene Kinder ein spezifisches Hemmungsdefizit für die Leseaufgabe haben. Die Studie unterstreicht, wie wichtig es ist, die spezifischen Leseschwierigkeiten von legasthenen Kindern besser zu verstehen, was wiederum interessante Perspektiven für die Behandlung eröffnet.;-;-;-;https://link.springer.com/article/10.1007/s11145-019-09986-z 0d0cb03f605a51d9b0c34d8b02963d7e;de;;;5.3.;;;Mid-Level-Cues bedeuten, dass der visuelle Tracking-Algorithmus verschoben wird, basierend auf der Ziel-Hintergrund-Salienz-Konfidenzkarte Aufgrund der wohlbekannten Vorteile der nicht-parametrischen Schätzung und der schnellen Modusanpassung wurde der Algorithmus zur Verfolgung der mittleren Verschiebung mit nachgewiesenem Erfolg vorgeschlagen. Bei der traditionellen Mittelwertverschiebung wird jedoch ein mittenbetontes Farbhistogramm als Referenzmodell verwendet, das anfällig für Störungen durch Hintergrundpixel ist, was zu einer beeinträchtigten Tracking-Robustheit führen kann. Um dieses Problem zu lösen, schlagen wir einen visuellen Verfolgungsalgorithmus für mittlere Cues-Mean-Shifts vor, der auf einem salienzgewichteten Modell der Ziel-Hintergrund-Konfidenzkarte basiert. Ein auf Superpixeln basierendes diskriminatives Erscheinungsmodell wird eingeführt, wodurch es einem Tracker ermöglichen kann, zwischen Ziel und Hintergrund durch unterschiedliche Gewichte zu unterscheiden. Dieser verbesserte Mean-Shift-Tracker wird durch Berechnen einer Ziel-Hintergrund-Salienz-Konfidenzkarte und einer Mean-Shift-Iteration formuliert, und dann können wir die Position im nächsten Rahmen erhalten. Experimentelle Ergebnisse zeigen, dass der verbesserte Mean-Shift-Tracker in der Lage ist, Okklusion zu handhaben und diese aus Tracking-Drifts zu wiederherstellen, außerdem erleichtert der verbesserte Algorithmus die Segmentierung von Vordergrundobjekten während der Verfolgung.;-;-;-;https://link.springer.com/article/10.1007/s11042-016-4068-9 a48af8a7568953a602c0c4cbd8490bd2;de;;;5.3.;;;Physikalisch basierte interaktive Kamerabewegungssteuerung mit 3D-Eingabegeräten Neueste dreidimensionale Eingabegeräte ermöglichen zusammen mit Hochgeschwindigkeits-Grafik-Workstations die interaktive Vorgabe virtueller Kamerabewegungen zur Animation in Echtzeit. In diesem Beitrag beschreiben wir, wie eine naturalistische Interaktion und realistisch aussehende Bewegung durch die Verwendung eines physikalisch basierten Modells des Kameraverhaltens erreicht werden kann. Unser Ansatz besteht darin, unter Verwendung der Gesetze der klassischen Mechanik ein abstraktes physikalisches Modell der Kamera zu erstellen, das verwendet wird, um die virtuelle Kamerabewegung in Echtzeit als Reaktion auf die Kraftdaten der verschiedenen 3D-Eingabegeräte (z. B. Spaceball, Polhemus und Datenhandschuh). Das Verhalten des Modells wird durch mehrere physikalische Parameter wie Masse, Trägheitsmoment und verschiedene Reibungskoeffizienten bestimmt, die alle interaktiv variiert werden können, sowie durch Einschränkungen der Freiheitsgrade der Kamera, die durch Einstellen bestimmter Reibungsparameter auf sehr simuliert werden können hohe Werte. Dies ermöglicht es uns, eine kontinuierliche Palette von physikalisch basierten Metaphern zur Steuerung der Kamerabewegung zu erforschen. Wir präsentieren die Ergebnisse von Experimenten mit einigen dieser Metaphern und stellen sie bestehenden gegenüber.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-68159-5_8 81dd4a3e3d247db00951f49654dfd0d3;de;;;5.3.;;;Interaktive Visualisierung zur Erkennung von Netzwerk- und Port-Scans In vielen Fällen beginnen Einbruchsversuche in das Netzwerk entweder mit einem Netzwerk-Scan, bei dem eine Verbindung zu jedem möglichen Ziel in einem Netzwerk versucht wird, oder mit einem Port-Scan, bei dem eine Verbindung zu jedem Port an einem bestimmten Ziel versucht wird. In der Lage zu sein, solche Scans zu erkennen, kann dazu beitragen, eine gefährlichere Bedrohung für ein Netzwerk zu identifizieren. Es gibt mehrere Techniken, um Scans automatisch zu erkennen, aber diese hängen meist von einem Schwellenwert ab, den ein Angreifer möglicherweise vermeiden könnte. In diesem Papier wird eine Möglichkeit vorgestellt, mit der Visualisierung interaktiv Scans erkennen kann.;-;-;-;https://link.springer.com/chapter/10.1007/11663812_14 dde47546a1b0065c09960a2866d65f94;de;;;5.3.;;;Interoperabilität geografischer Informationen: Von der Tabellenkalkulation zu virtuellen Umgebungen Der erweiterte Einsatz von GIS reicht von der einfachen Kartenerstellung bis zur Umweltmodellierung. In jedem haben verschiedene Benutzer spezifische Datenanforderungen, -formate und vor allem haben sie einzigartige Probleme. Als Reaktion darauf liefern die meisten GIS-Anbieter ein normalisiertes;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5189-8_12 6390c128ef1f605870e825d0b6d8c3bd;de;;;5.3.;;;Schätzung des menschlichen Alters und Klassifikation des Geschlechts Das Sammeln demografischer Informationen von den Kunden, wie Alter und Geschlecht, ist für das Marketing und die Kundengruppenanalyse sehr wichtig. Die Marketingstudie interessiert beispielsweise, wie viele Menschen ein Einkaufszentrum besucht haben und wie die Kundenverteilung ist, wie viele Männer und Frauen, wie viele junge, erwachsene und ältere Menschen. Anstatt menschliche Arbeiter einzustellen, um die Kunden zu beobachten, könnte ein Computersystem entwickelt werden, um Personen zu analysieren, die in Bildern und Videos erscheinen, die von in einem Einkaufszentrum installierten Kameras aufgenommen wurden, und dann die demografischen Informationen zu sammeln. Um ein echtes System zur Altersschätzung und Geschlechtsklassifikation zu entwickeln, müssen viele wesentliche Fragen angegangen werden. In diesem Kapitel wird eine detaillierte Einführung in die computergestützten Ansätze zur Schätzung des menschlichen Alters und zur Klassifizierung des Geschlechts gegeben. Es werden verschiedene Verfahren zur Merkmalsextraktion und zum Lernen beschrieben. Darüber hinaus werden große Herausforderungen und zukünftige Forschungsrichtungen diskutiert. Ziel ist es, neue Forschungen anzuregen und tiefere Untersuchungen zur Entwicklung eines funktionierenden Systems für Business Intelligence anzuregen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28598-1_4 93e9fd268d0b1e1e895c564e04b44c02;de;;;2.4.;;;Stammverbesserung zur Herstellung von Pharmazeutika und anderen mikrobiellen Metaboliten durch Fermentation Mikroben haben uns gut getan. Sie haben uns Tausende von wertvollen Produkten mit neuartigen Strukturen und Aktivitäten gegeben. In der Natur produzieren sie nur zum Überleben winzige Mengen dieser sekundären Stoffwechselprodukte. Somit werden diese Metaboliten in der Natur nicht überproduziert, sondern müssen in der pharmazeutischen Industrie überproduziert werden. In der Industrie werden genetische Manipulationen verwendet, um Stämme zu erhalten, die hundert- oder tausendmal mehr produzieren als der ursprünglich isolierte Stamm. Diese Stammverbesserungsprogramme verwenden traditionell Mutagenese, gefolgt von Screening oder Selektion, dies ist als „Brute-Force“-Technologie bekannt. Heute werden sie durch moderne strategische Technologien ergänzt, die entwickelt wurden;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7643-8117-2_7 f95a104e475da90798b4c948a6396598;de;;;5.3.;;;Modellierung der Benutzeroberfläche von Multimedia-Anwendungen Multimedia-Anwendungen sind ein Zweig der Softwareentwicklung mit wachsender Bedeutung. Typische Anwendungsgebiete sind Trainingsanwendungen und Simulationen, Infotainmentsysteme – z.B. in Autos – oder Computerspielen. Allerdings fehlt es noch an maßgeschneiderten Konzepten für eine strukturierte Entwicklung solcher Anwendungen. Der vorliegende Beitrag schlägt einen Modellierungsansatz für die Benutzeroberfläche von Multimediaanwendungen mit dem Ziel einer modellgetriebenen Entwicklung vor. Wir identifizieren die besonderen Eigenschaften der Multimedia-Anwendungsentwicklung und die daraus resultierenden Aspekte, die durch das Benutzeroberflächenmodell abgedeckt werden sollen. Bestehende konventionelle Ansätze zur Modellierung von Benutzerschnittstellen reichen nicht aus, da sie die medienspezifischen Aspekte der Anwendung nicht abdecken. Eine Multimediaanwendung enthält jedoch normalerweise auch konventionelle Benutzeroberflächenelemente. Daher schlagen wir zunächst eine Lösung für den medienspezifischen Teil vor. Zweitens erarbeiten wir eine Integration unseres Ansatzes mit bestehenden konventionellen Ansätzen. Schließlich diskutieren wir den gesamten modellgetriebenen Entwicklungsansatz und skizzieren seine Vorteile.;-;-;-;https://link.springer.com/chapter/10.1007/11557432_50 8a82ef908eb1869bee9cd84c3d8aec9f;de;;;5.3.;;;Vorher oder Nachher: ​​Präpositionen in räumlich beschränkten Systemen Kognitive Agenten verwenden verschiedene Strategien, um relevante räumliche Informationen in der Kommunikation zu identifizieren. Die gewählte Strategie hängt von der Konzeptualisierung der jeweiligen räumlichen Situation durch die Agenten ab. Diese Situation wird durch bauliche und funktionelle Aspekte bestimmt, die durch die Umgebung und die darin ausgeführten oder beabsichtigten Handlungen hervorgerufen werden. In dieser Arbeit interessieren wir uns für Konzeptualisierungen im Kontext von Routenrichtungen. Wir konzentrieren uns auf die Bedeutung von Präpositionen, die zur Charakterisierung von Bewegungen (Aktionen) in räumlich begrenzten Systemen wie Straßennetzen verwendet werden. Wir berichten über unterschiedliche Strategien von Menschen zur Eindeutigkeit von Abbiegehandlungen an Kreuzungen und zeigen, wie sich diese in automatisch generierten Wegbeschreibungen widerspiegeln lassen, wobei wir uns wiederum auf die Präpositionen für Ankerbewegungen konzentrieren. Die Einbeziehung von Methoden, die sich auf die erfolgreichsten Strategien von Menschen in Computersystemen konzentrieren, ist eine Voraussetzung für Routenanweisungen, die menschliche Konzeptualisierungen räumlicher Situationen respektieren und so zu kognitiv ergonomischen Routenanweisungen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75666-8_26 d7509fa1422bbdf6a9e57c249a78c995;de;;;5.3.;;;Einschränkungshierarchien Einschränkungen ermöglichen es Programmierern und Benutzern, eine Beziehung, die gepflegt werden soll, deklarativ anzugeben, anstatt dass sie selbst Prozeduren schreiben müssen, um die Beziehung zu pflegen. Sie sind daher in Anwendungen wie Programmiersprachen, Benutzeroberflächen-Toolkits und Simulationspaketen nützlich. In vielen Situationen ist es wünschenswert, beides angeben zu können;-;-;-;https://link.springer.com/chapter/10.1007/3-540-61479-6_17 e795706c8afcddbdddb72da13e490e3e;de;;;2.4.;;;Design der Experimente Mit den einleitenden Kapiteln in TEIL I dieses Berichts wurde der Grundstein für eine Diskussion von Untersuchungen im Nationalen Luft- und Raumfahrtlabor (NLR) gelegt, die zur Erweiterung des Wissens über die Handhabung von Qualitätskriterien für Transportflugzeuge mit geschlossenem Flugverkehr durchgeführt wurden Kontroll systeme. Das Design der durchgeführten Experimente ist Gegenstand dieses Kapitels. Die Ergebnisse der Experimente und deren Interpretation sind Gegenstand der Kapitel 8 und 9 dieses Berichts.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1193-7_7 03ff710aaa5661a21a0d96cf8b21862d;de;;;2.4.;;;Zur Anwendbarkeit der hintergrundorientierten optischen Tomographie für großräumige aerodynamische Untersuchungen Dichtefelder der Blattspitzenwirbel eines Hubschraubers im Schwebeflug wurden mit einer Technik visualisiert, die keine Installation am Hubschrauber oder in dessen Nähe erfordert. Die Ergebnisse veranschaulichen eine ermutigende Aussicht für die Anwendbarkeit der Technik. Es bietet die Möglichkeit zumindest qualitativer Untersuchungen instationärer Dichtefelder auch in groß angelegten Flugversuchen. Das zugrundeliegende Prinzip wird in diesem Artikel kurz beschrieben und eine Erweiterung zu einer dreidimensionalen quantitativen Technik durch den Einsatz mehrerer Kameras skizziert.;-;-;-;https://link.springer.com/article/10.1007/s003480050408 7c9ac6e9f57900af6ca6f736802fa8a7;de;;;2.4.;;;"Katastrophe, Nothilfe und politischer Wandel in Südäthiopien: Entwicklungen innerhalb der Suri-Gesellschaft In den frühen 1990er Jahren kam es am Horn zu erheblichen Veränderungen, insbesondere in Bezug auf die Politik und die sozioökonomische Organisation. Vorherige diktatorische Strukturen, die von politischer Stagnation und Wirtschaftskrisen geprägt waren, wurden durch Forderungen nach Demokratisierung, wirtschaftlicher Umstrukturierung, ethnoregionalen Rechten und staatlicher Unabhängigkeit zunichte gemacht. Der Veränderungsprozess in Äthiopien nach dem Untergang des Mengistu-Regimes im Jahr 1991 führte zu einer bemerkenswerten Wende hin zur ""Ethnisierung"" des politischen und öffentlichen Lebens unter einer Übergangsregierung (TGE), die von der ehemaligen Rebellenbewegung Ethiopian Peoples' Revolutionary Democratic Front (EHADIG, in seinem amharischen und Tigrinya Akronym). Die explizite Anerkennung ethnischer Gruppen oder „Nationalitäten“ als Basiseinheiten für politische Parteien und regionale Verwaltungsstrukturen wird in die neue Verfassung aufgenommen und in die Bildungs- und Sprachpolitik übernommen. Ob positiv oder negativ, ihre zukünftigen Auswirkungen auf die Umsetzung der Entwicklungspolitik durch die äthiopische Regierung oder durch ausländische NGOs werden erheblich sein.";-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-24257-3_8 1b665e947cef065d823b2d832753aadc;de;;;2.4.;;;19F-NMR-Studie zum biologischen Abbau von Fluorphenolen durch verschiedene Rhodococcus-Arten Von allen NMR-beobachtbaren Isotopen ist 19F das vielleicht geeignetste für Studien zum biologischen Abbau von Umweltschadstoffen. Die Gründe für dieses Potenzial der 19F-NMR werden anhand einer Studie zum biologischen Abbau von Fluorphenolen durch vier Rhodococcus-Stämme diskutiert und illustriert. Die Ergebnisse zeigen deutliche Unterschiede zwischen den biologischen Abbauwegen von Fluorphenolen zwischen den verschiedenen Rhodococcus-Arten. Dies gilt nicht nur für das Niveau und die Art der akkumulierten Zwischenstufen des fluorierten Bioabbauweges, sondern auch für die Regioselektivität des anfänglichen Hydroxylierungsschritts. Mehrere der Rhodococcus-Arten enthalten eine Phenolhydroxylase, die die oxidative Defluorierung von ortho-fluorierten Di- und Trifluorphenolen katalysiert. Darüber hinaus wird veranschaulicht, wie die 19F-NMR-Technik als Werkzeug zur Identifizierung eines akkumulierten unbekannten Metaboliten, in diesem Fall höchstwahrscheinlich 5-Fluormaleylacetat, verwendet werden kann. Insgesamt erwies sich die 19F-NMR-Technik als valide, um detaillierte Informationen über die mikrobiellen Bioabbauwege von fluorierten organischen Stoffen zu erhalten, aber auch um Informationen über die Spezifität von Enzymen zu liefern, die allgemein als instabil gelten und aus diesem Grund bisher wenig untersucht wurden.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008391906885 d960b33fef12fcddaae175b6db26f853;de;;;2.4.;;;Massenanalyse mit Ionenmikrosonde Während sich der Rest dieses Buches mit elektronenoptischen Instrumenten befasst, befasst sich dieses Kapitel mit der Ionenmikrosonde, einem der neuesten und vielleicht leistungsstärksten Analyseinstrumente. Es ist in der Lage, eine;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-4422-3_14 5d25d50572d85aa20a53860f5eaee089;de;;;2.4.;;;Spielen arbuskuläre Mykorrhizapilze in der Produktionslandwirtschaft eine Rolle? Diese Übersicht vertritt den Standpunkt, dass arbuskuläre Mykorrhizapilze (AMF) in vielen produktionsorientierten landwirtschaftlichen Systemen keine entscheidende Rolle für die Ernährung und das Wachstum von Pflanzen spielen. Hochverfügbarer Boden P begrenzt häufig die AM-Kolonisation und bewirkt, dass die C-Kosten für den Wirt alle Vorteile der Kolonisation überwiegen. Selbst wenn die P-Verfügbarkeit gering ist und die AM-Kolonisationsraten hoch sind, wie es in organischen und biodynamischen landwirtschaftlichen Systemen vorkommen kann, trägt AMF aus noch nicht verstandenen Gründen möglicherweise nicht immer zum Pflanzenwachstum bei. Die AM-Pilzaktivität kann auch durch Bodenbegasung, nicht reagierende Pflanzensorten oder Fruchtfolgen, die hauptsächlich auf Nicht-Mykorrhiza-Kulturen oder Kulturen mit geringer AM-Abhängigkeit basieren, stark eingeschränkt werden. Daher kann die Rentabilität manchmal durch Managementpraktiken wie Bodenbearbeitung und P-Düngung verbessert werden, die die AM-Kolonisierung einschränken. Eine Manipulation landwirtschaftlicher Systeme zur Begünstigung von AMF darf nur erfolgen, wenn klare Beweise dafür vorliegen, dass AMF einen positiven Beitrag zum Ertrag leisten oder für die Erhaltung der Gesundheit und Nachhaltigkeit der Ökosysteme von entscheidender Bedeutung sind. Eine entscheidende Rolle von AMF bei der strukturellen Stabilität des Bodens oder bei der Erhöhung der Mikronährstoffkonzentrationen in Erzeugnissen kann ein ausreichender Beweis sein und kann schließlich die Berücksichtigung der AMF-Reaktionsfähigkeit bei der Züchtung neuer Pflanzensorten erforderlich machen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1284-2_26 30db26e5e841e9876d6a0c840590b590;de;;;2.4.;;;Mehr Probleme beim Umschreiben Vor zwei Jahren haben wir im Tagungsband der vorangegangenen Konferenz eine Liste offener Probleme in der Theorie des Rewritings vorgelegt [Dershowitz et al., 1991a]. Diesmal berichten wir über Fortschritte in der Zwischenzeit und listen dann einige neue Probleme auf. (Einige zusätzliche Fragen zu diesem Thema erscheinen im hinteren Teil von [Diekert, 1990].) Wir erwähnen auch einige seit langem bestehende offene Probleme, die kürzlich beantwortet wurden. Der letzte Abschnitt enthält eine parteiische Liste von interessanten Bereichen für die zukünftige Forschung. Eine neue, umfassende Übersicht über das Gebiet ist [Klop, 1992].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-21551-7_39 bcccefee17fa01be5d1999fcc7816349;de;;;2.4.;;;Die Oxazolidinone Der Bedarf an wirksamen Antibiotika zur Behandlung der ständig steigenden Häufigkeit antibiotikaresistenter grampositiver Infektionen in weiten Teilen der entwickelten Welt hat zur klinischen Entwicklung des ersten Oxazolidinon-Antibiotikums, Linezolid, geführt. Linezolid besitzt eine bakteriostatische Wirkung sowohl gegen antibiotikaempfindliche als auch resistente Stämme von Staphylokokken, Enterokokken und Streptokokken, die für eine Infektion beim Menschen relevant sind. Klinische Studien haben seine Wirksamkeit bei der Behandlung schwerer Infektionen der Haut und des Weichgewebes sowie der unteren Atemwege bestätigt. Linezolid hat auch verbesserte Ergebnisse bei der Behandlung schwerer Vancomycin-resistenter Enterokokken und Methicillin-resistenter;-;-;-;https://link.springer.com/article/10.1007/s11908-002-0063-6 07d9e0f4d7d955569f61a9f6b1ea5db6;de;;;2.4.;;;Erzählung von Christian Passage Christian In anthropologischen Beiträgen zur Flüchtlings- und Migrationsforschung werden die Bedeutung und die Vorteile der Einbeziehung der Lebensgeschichten und persönlichen Narrative einzelner Flüchtlinge und Migranten immer wieder betont (z. Die narrative Perspektive ist von entscheidender Bedeutung, da sie die gelebten Erfahrungen einzelner Flüchtlings-Migranten im Verlauf, um die Vorstellung von Michel Agier (2008) zu verwenden, der Zerstörung ihres etablierten Lebens (Gefangenschaft in Lagern oder Leben am Stadtrand) und der Aktionen aufzeigen kann genommen, um ein neues Leben aufzubauen. Individuen drücken ihre Erfahrungen in soziokulturell geteilten Formen aus, Narrative sind Ausdrucksformen, die „sozial konstruierte Bedeutungseinheiten“ sind, so Edward Bruner (1986: 7). In diesem Sinne untersucht dieses Kapitel die Bekehrungserzählungen nordkoreanischer Migranten – Erzählungen, die Leiden, gefährliche Migration und die Entwicklung eines neuen Selbst in der evangelischen Sprache dessen, was ich „christliche Passage“ nenne, interpretieren.;-;-;-;https://link.springer.com/chapter/10.1057/9781137450395_6 0369ebd7ac6e2af3eaaec5ae1e496227;de;;;2.4.;;;Gründe für die Entwicklung neuer Systemstrategien Eine wesentliche Annahme der in den Kapiteln 5 bis 7 präsentierten Argumentation ist, dass die neuen Systemstrategien (und entsprechenden Koordinationsstrategien) der Reiseveranstalter (mit kleinen Ausnahmen) nicht auf die Verfügbarkeit neuer Technologien für Reiseveranstalter zurückzuführen sind. Stattdessen sind die neuen Strategien das Ergebnis anderer Entwicklungen im Pauschalreisegeschäft (und der Reise- und Tourismusbranche). Diese Annahme basiert auf der Beobachtung, dass ihnen seit einigen Jahren Kerntechnologien zur Verfügung stehen, die Reiseveranstalter im Rahmen ihrer neuen Systemstrategien einsetzen. Relationale Datenbanken, elektronischer Datenaustausch (EDI) und (intra- und interorganisationale) Computerintegration gab es in den 1980er Jahren (Alt und Zbomik, 1993, Bar et al., 1989, Morgan und Davis, 1989, Niketic und Mules, 1993 , S. 11, Stahlknecht, 1990, Wieland, 1989), ebenso wie vollständig transparente Links zu GDSs (Ellis, 1992). Trotz Verfügbarkeit dieser Technologien (und ausreichendem Kapital) sahen die meisten Reiseveranstalter keine Notwendigkeit, diese Technologien zu implementieren. Daher wird argumentiert, dass die neuen Entscheidungen der Reiseveranstalter eine Folge anderer Entwicklungen sind, vor allem der in diesem Kapitel beschriebenen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-91377-7_5 cdc6b38c6d7c90ca3accbcaad802500f;de;;;2.4.;;;Entwicklung und Merkmale der modernen Familie Die Definition von „Familie“ ist nicht so einfach, wie die meisten Leute sofort annehmen, es gibt viele Familienformen. In der britischen Gesellschaft besteht eine einfache Familie normalerweise aus einem Mann und einer Frau, die eine feste Beziehung zueinander haben und auch Kinder haben , blutsverwandt mit den Erwachsenen, mit denen sie zusammenleben – obwohl sie es normalerweise sind. Eine einfache Gruppe dieser Art wird als „Kernfamilie“ bezeichnet. Fast alle „Kernfamilien“ sind durch Eltern-Kind-Beziehungen mit einer oder mehreren anderen Kernfamilien verwandt, die Mutter hat oft Eltern und Geschwister, ebenso der Vater. Diese Familie wird „erweiterte Familie“ genannt und kann alle bekannten Verwandten umfassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-13434-2_3 bcd3b9e5a1ce2f7605c1e30d2d114842;de;;;2.4.;;;Die Rolle der Zellwand bei der intrazellulären Aufnahme von Kationen durch Flechten Wenn Flechten oder Moosen in kationenhaltige Lösungen gegeben werden, stellt sich schnell ein Gleichgewicht zwischen freien Kationen in Lösung und Kationen ein, die an die Austauschstellen auf den Zellvertiefungen gebunden sind. Für ein gegebenes Kation hängt das Ausmaß dieses Prozesses von der Art der Austauschstellen, der Affinität des Ions für diese Stellen und der Art und Anzahl bereits vorhandener Kationen ab (Nieboer et al., 1978, Nieboer und Richardson, 1981, Brown und Beckett, 1984, 1985). Bei geringen Konzentrationen von „Schwermetallen“ in begrenzten Lösungsvolumina können Flechten und Moose die Kationenkonzentration in Lösung deutlich reduzieren. Da Schwermetallkationen außerhalb der Plasmamembran, die das metabolisch aktive Zytoplasma umgibt, effektiv gebunden werden, könnte eine solche Bindung ein offensichtliches Mittel zur Entgiftung der Lösung darstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2527-7_17 7737c1a8e2a3e6a5b971a355cc1a81b9;de;;;2.4.;;;Photochemischer Verbleib von Arzneimitteln in der Umwelt: Naproxen, Diclofenac, Clofibrinsäure und Ibuprofen Die wässrige Photochemie von vier in Oberflächengewässern nachgewiesenen pharmazeutischen Verbindungen (Naproxen, Diclofenac, Ibuprofen und Clofibrinsäure) wurde in gereinigtem Wasser (Milli-Q) und in Wasser des Mississippi (MRW) untersucht. Sowohl direkte Photolyse als auch Hydroxylradikal-vermittelte indirekte Photolyse (unter Verwendung einer Kombination von Sonden- und Quencher-Experimenten) wurden untersucht. Die Singulett-Oxygenierung wurde auch für Naproxen untersucht. Geschwindigkeitskonstanten zweiter Ordnung für die Reaktion mit Hydroxylradikalen wurden mit dem Fenton-Reagens bestimmt. Naproxen wurde sowohl in Milli-Q als auch in MRW durch direkte Photolyse im Sonnenlicht schnell umgewandelt. Der Radikallöscher Isopropylalkohol (IPA) hatte in beiden Systemen einen ähnlichen Effekt, und dieser Effekt wurde als Reaktion einer Carboxylradikal-Zwischenstufe von Naproxen interpretiert. Es wurde festgestellt, dass Diclofenac unter Sonnenlicht einer schnellen direkten Photolyse unterzogen wird, was die Ergebnisse früherer Studien bestätigt. Die Zugabe von IPA führte zu einer schnelleren Transformation, möglicherweise aufgrund der Bildung anderer Radikalspezies oder der Photoreduktion, wobei IPA als H-Quelle diente. Bei Bestrahlung mit natürlichem Sonnenlicht wird in Milli-Q-Wasser eine langsame direkte Photolyse von Clofibrinsäure beobachtet, und eine Kombination aus direkter Photolyse und radikalvermittelten indirekten Prozessen scheint für die Clofibrinsäure-Photolyse in MRW verantwortlich zu sein. Der dominierende photochemische Verlustprozess für Ibuprofen, das mit einer Mitteldruck-Hg-Dampflampe bestrahlt wurde, wurde als Reaktion mit photogenerierten Radikalen identifiziert. Diese Ergebnisse legen nahe, dass photolytische Prozesse wichtige Entfernungsmechanismen für pharmazeutische Verbindungen sind, die in sonnenbeschienenes Oberflächenwasser abgegeben werden.;-;-;-;https://link.springer.com/article/10.1007/s00027-003-0671-8 dac8fc9efbb65f591c75f678242d8a5a;de;;;2.4.;;;Zur Rolle von Kohlehydraten an der Zelloberfläche und ihren Bindungsproteinen (Lectinen) bei der Tumormetastasierung Diese Übersicht konzentriert sich auf die jüngsten Fortschritte bei der Untersuchung der Rolle von Kohlehydraten auf der Zelloberfläche bei der Tumormetastasierung. Es fasst auch die Ergebnisse umfangreicher Studien zu endogenen Lektinen, ihrer Struktur, Kohlenhydratspezifität und biologischen Funktionen zusammen, wobei der Schwerpunkt auf der Bedeutung von Lektin-Zelloberflächen-Kohlenhydrat-Wechselwirkungen in einem metastatischen Prozess liegt. Zahlreiche Daten zeigen, dass die maligne Transformation mit verschiedenen und komplexen Veränderungen im Glykosylierungsprozess verbunden ist. Einige dieser Veränderungen könnten für Tumorzellen einen selektiven Vorteil während ihrer Progression zu einem invasiveren und metastatischeren Phänotyp bieten. Die Zellglycosylierung hängt von der Expression und Funktion verschiedener Glycosyltransferasen und Glycosidasen ab. Kürzlich hat die Transfektion von Genen, die verschiedene Glysosyltransferasen-Gene in Sense- und Antisense-Orientierung kodieren, dazu beigetragen, direkte Beweise dafür zu liefern, dass Veränderungen in den Kohlehydraten der Zelloberfläche für das metastatische Verhalten von Tumorzellen wichtig sind. Kohlehydrate auf der Zelloberfläche beeinflussen die Interaktionen von Tumorzellen mit normalen Zellen oder mit der extrazellulären Matrix während der metastatischen Ausbreitung und des Wachstums. Diese Wechselwirkungen können über die Kohlenhydrate der Tumorzellen und deren Bindungsproteine, den sogenannten endogenen Lektinen, vermittelt werden. Die Familie der entdeckten endogenen Lektine wächst rasant. Die Zahl der C-Typ-Lectine hat 50 erreicht und es wurden mindestens 10 Galectine identifiziert. Die biologische Bedeutung der endogenen Lektine und ihre mögliche Rolle beim Tumorwachstum und der Metastasenbildung hat begonnen, sich zu enträtseln. Einige Lektine erkennen die „fremden“ Muster von Kohlehydraten auf der Zelloberfläche, die von Mikroorganismen und Tumorzellen exprimiert werden, und spielen eine Rolle bei der angeborenen und adaptiven Immunität. Es wurde gezeigt, dass Lektine das Überleben von Tumorzellen, die Adhäsion an das Endothel oder die extrazelluläre Matrix sowie die Tumorvaskularisierung und andere Prozesse beeinflussen, die für die Metastasierung und das Wachstum entscheidend sind.;-;-;-;https://link.springer.com/chapter/10.1007/0-306-48143-X_8 b79617179f3a45b2bc4a5339d8d4cc36;de;;;2.4.;;;Grundlagen der Biowärmeübertragung Es ist immer eine schwierige Aufgabe, eine technische Abhandlung zu schreiben, die verstanden und vor allem von Fachleuten in den unterschiedlichsten Bereichen verwendet werden soll. Biowärmeübertragung ist ein Thema, das in der Praxis der Biologie, Medizin und Technik in einer Vielzahl von Anwendungen eingesetzt wird. Darüber hinaus werden die Arbeiter auf diesem Gebiet, d. h. die Benutzer dieser Abhandlung, eine Vielzahl von Hintergründen haben und nicht gleich stark in den beteiligten wissenschaftlichen Hintergründen: Biologie, Medizin, Physik, Mathematik und Ingenieurwissenschaften. Meine Aufgabe als Autor ist es daher, die Themen in einer geordneten und relativ leicht nachvollziehbaren Weise zu entwickeln und eine Balance zwischen den biologischen und physikalischen Wissenschaften zu wahren, um deren Wechselwirkungen und Grenzen aufzuzeigen. Meine technischen Vorurteile werden sich zweifellos zeigen, aber ich entschuldige mich nicht, da diese Vorurteile meiner Meinung nach nicht schlimmer sind als die anderer.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-48712-5_1 706b8a3e829a0677e7a2bb01bb14f33e;de;;;2.4.;;;Vereinbarungen über Wiederherstellungsnetzwerke: Der Fall WEEE Die Lebenszyklen von Elektro- und Elektronikgeräten werden von Jahr zu Jahr kürzer. Dies führt zu einer wachsenden Menge an Abfall, die wiederverwendet oder entsorgt werden muss. Gesetzliche Vorschriften in einer Reihe von Ländern verpflichten die Hersteller, das Verwertungsnetz zu organisieren. Die Konfiguration des Wiederherstellungsnetzwerks ist aufgrund der Vielzahl von Beziehungen zwischen den Teilnehmern der Reverse Supply Chain eine komplexe Aufgabe. In der Praxis treten die dynamischen Änderungen im Wiederherstellungsnetzwerk sehr häufig auf. Die Wiederherstellungsvorgänge folgen der Push-Logik. Die Rückflüsse sind angebotsgesteuert. Unternehmen haben Probleme, den Zeitpunkt und die Menge der Retouren zu stimulieren. Viele Wochen im Voraus zu planen ist schwierig, da Prognosen bei sich dynamisch ändernden Bedingungen schnell veralten. Die Autoren schlugen ein auf Graphentheorie und Agententechnologie basierendes Modell vor, das zur Lösung dieses Problems durch dynamische Konfiguration umgekehrter Lieferketten beiträgt. Die Simulationsergebnisse basierend auf dem vorgeschlagenen Modell werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19536-5_45 5c9def17b2cebe5f77db5f6bd6ad4720;de;;;5.3.;;;Lernen jenseits von Büchern – Strategien für Umgebungsmedien zur Verbesserung von Bibliotheken und Kollaborationsräumen als Schnittstellen für soziales Lernen Mit dem Aufkommen digitaler Medien und Online-Informationsressourcen werden öffentliche Bibliotheken als physische Ziele für den Informationszugang zunehmend herausgefordert. Als Reaktion darauf folgen viele Bibliotheken dem Trend, Bücherregale zu entfernen, um mehr Platz für soziale Interaktion und Zusammenarbeit bereitzustellen. Solche Räume folgen einem Commons 2.0-Modell: Sie sollen kollaboratives Arbeiten und soziales Lernen unterstützen. Der Erwerb von Fähigkeiten und Wissen wird durch die Umgebung und Interaktion mit einer Gemeinschaft von Gleichgesinnten erleichtert. Basierend auf den Ergebnissen einer Fallstudie zu einem Commons 2.0-Bibliotheksbereich beschreibt dieses Papier mehrere Aspekte der Zusammenarbeit und des sozialen Lernens in öffentlichen Bibliotheken. In Anerkennung der Bedeutung der architektonischen Merkmale des physischen Raums diskutieren wir Möglichkeiten für Umgebungsmedien, die sozialen Eigenschaften der Bibliothek als Ort besser widerzuspiegeln, dh das Gefühl anderer anwesender Bibliotheksbesucher zu verstärken und Gelegenheiten für gemeinsame Begegnungen und Gespräche zu bieten , die sonst unsichtbar bleiben würden. Wir präsentieren das Design eines Benutzer-Check-in-Systems zur Verbesserung der Bibliothek als physisches Ziel für soziales Lernen, Austausch und Inspiration für und durch die Gemeinschaft.;-;-;-;https://link.springer.com/article/10.1007/s11042-013-1432-x 31e0af4f6a1683f2e2c8ff90816119c6;de;;;2.4.;;;Das Ausreißerproblem und ein Online-Verfahren zur Erkennung von Ausreißern in Zeitreihen der Grundwasserqualität Das allgemeine Ausreißerproblem wird kurz betrachtet und für verschiedene Arten von statistischen Stichproben (uni/multivariat, seriell un/korreliert) charakterisiert. Die Anforderungen an während der Datenerhebungsphase anzuwendende Ausreißer-Erkennungsverfahren werden dargelegt und ein auch in der Online-Situation anwendbares Erkennungsverfahren wird vorgestellt und auf Zeitreihen von Grundwasserqualitätsdaten angewendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-2301-0_18 4db4d377e82633294bac4881f06a76ba;de;;;2.4.;;;Glykolipid- und Glykoproteinexpression während der neuralen Entwicklung Bei Säugetieren werden das zentrale und periphere Nervensystem entwicklungsbedingt von Zellen in der Neuralplatte abgeleitet. Spezifische ektodermale Zellen in diesem Bereich bilden im frühen Entwicklungsstadium das Neuralrohr und die Neuralleiste. Das Neuralrohr ist der Ursprung des zentralen Nervensystems, das sowohl aus dem Gehirn als auch aus dem Rückenmark besteht, während Neuralleistenzellen Vorläufer des peripheren Nervensystems sind. Während der Neuralrohrbildung und Neuralleistenentwicklung werden kohlenhydratreiche Moleküle, einschließlich Glykolipide, Glykoproteine ​​und Proteoglykane, hauptsächlich auf der äußeren Oberfläche der Zellplasmamembranen exprimiert. Die strukturelle Vielfalt ihrer Kohlenhydratanteile, gekoppelt mit ihrer Expression in verschiedenen Entwicklungsstadien, macht diese Moleküle zu ausgezeichneten Biomarkern für verschiedene Zelltypen. Darüber hinaus spielen diese Moleküle eine entscheidende funktionelle Rolle bei der Zellproliferation, Differenzierung, Interaktion, Migration und Signalübertragung. In diesem Kapitel diskutieren wir die Expressionsprofile und mögliche funktionelle Rollen von Glykokonjugaten während der neuralen Entwicklung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4939-1154-7_9 7c6f37c1f857b911ce722db4ff9ca7ec;de;;;2.4.;;;Late Merge als senkende Bewegung in minimalistischen Grammatiken Minimalistische Grammatiken können hinsichtlich ihrer Ableitungsbaumsprachen und einer Abbildung von Ableitungen auf abgeleitete Bäume spezifiziert werden, die jeweils in monadischer Logik zweiter Ordnung (MSO) definierbar sind. Es hat sich gezeigt, dass die sprachlich motivierte Operation Late Merge jede Komponente über die Schwelle der MSO-Definierbarkeit hinausschieben kann. Late Merge, wie es in der syntaktischen Literatur verwendet wird, kann jedoch im Rahmen von Movement-generalized Minimalist Grammatiken in Bezug auf die Lowering-Bewegung elegant neu gefasst werden. Da letztere MSO-definierbar sind, ist es auch das sprachlich relevante Fragment von Late Merge.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-43742-1_9 55eb353eee781a4f4068ed8cf451583d;de;;;2.4.;;;Regionale Ungleichgewichte beim KKMU-Wachstum in Indien Historisch wurde festgestellt, dass Kapitalinvestitionen und die Schaffung von Arbeitsplätzen positiv korreliert sind. Es wurde festgestellt, dass diese Tendenz bei der ersten, zweiten und dritten Volkszählung bei einer vergleichenden Bewertung der Bundesstaaten in Indien auftrat. Das bedeutete, dass die Staaten mit mehr Kapitalinvestitionen mehr Beschäftigung hatten und diejenigen mit weniger Investitionen weniger. Bei der vierten Volkszählung wurde jedoch eine Abweichung vom obigen Trend festgestellt, da die Bundesstaaten unterschiedliche Wachstumsmuster und Beschäftigungs- und Investitionskonzentrationen pro Unternehmen aufwiesen. Es gab Staaten mit einem höheren Kapitalinvestitionsanteil, aber einem geringeren Beschäftigungsanteil und umgekehrt. Der Zweck der vorliegenden Arbeit besteht darin, eine analytische Beschreibung des Verhaltens der indischen Bundesstaaten bei den verschiedenen Volkszählungen seit 1987/88 (also der zweiten Volkszählung) zu geben. Es wird versucht, ein klares Bild vom Verhalten der Beschäftigungsintensität pro Einheit, der Arbeitsproduktivität, der Kapitalintensität gemessen als Verhältnis von Kapitalanteil zu Arbeitseinheitsanteil und der Kapital-Arbeitskraft-Quote zu geben, um Rückschlüsse auf den Beitrag zum Gesamtwert zu ziehen Konvergenz/Divergenz jeder dieser Variablen über die Staaten hinweg. Der erste Abschnitt stellt die Arbeit, ihren Inhalt, ihre Genese, Hypothese und wichtige Fragen vor, die in der Arbeit behandelt werden. Abschnitt zwei gibt einen Überblick über die Literatur zu diesem Thema und ihre wichtigsten Schlussfolgerungen, dritter Abschnitt über die Ergebnisse in Bezug auf Tendenzen zwischen den Staaten. Der vierte Abschnitt analysiert die Ergebnisse im Kontext von Faktoren und Determinanten von Tendenzen. Der fünfte und abschließende Abschnitt enthält Empfehlungen und zukünftige Schlussfolgerungen aus dem Papier.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1414-8_2 05c740014011f51a3f3e25733fe17e78;de;;;2.4.;;;Cholecystokinin und psychiatrische Erkrankungen Cholecystokinin (CCK) ist eines der am häufigsten vorkommenden Neuropeptide im Gehirn. Es findet sich in den höchsten Konzentrationen in kortikalen und limbischen Strukturen sowie in den Basalganglien. Im Gehirn und im Magen-Darm-Gewebe wurden zwei Subtypen von CCK-Rezeptoren beschrieben. CCK;-;-;-;https://link.springer.com/article/10.2165/00023210-199708020-00005 196549dc0675f7625302f0f57e269a6c;de;;;2.4.;;;Präkambrische kohlenstoffhaltige Megafossilien Kohlenstoffhaltige Kompressionen sind seit mehr als einem Jahrhundert von Gesteinen bekannt, die heute als präkambrisch gelten. Sie umfassen Überreste mit regelmäßigen abgerundeten Umrissen sowie unregelmäßig gewinkelte Fragmente und bandartige Filme (Abb. 1), die alle normalerweise auf Schichtebenen in feinkörnigen klastischen Gesteinen erhalten sind und die meisten aufgrund von Verdichtung einige Falten aufweisen. Nur die jüngsten Proterozoikum haben hauptsächlich Längs- und Punktmarkierungen mit biologischer Funktion. Das Alter der Fossilien reicht vom frühen Proterozoikum (2 Ga) bis zum Phanerozoikum, und ihre geografische Verbreitung umfasst alle Kontinente außer Südamerika und Afrika (Abb. 2 und 3). Die ältesten bekannten megaskopischen Kompressionen sind Millimeterfilme aus Schwarzschiefer in aphebischen Gesteinen Nordamerikas (Lokalitäten 12–14 in Abb. 2).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-70355-3_3 1cfd387a440a86da71dca2be59b80fc8;de;;;2.4.;;;Kreditaufnahme und Kontrolle von Unternehmen: Eine Theorie der Unternehmertypen Ein formales Modell der Bankkreditentscheidung des kleinen Unternehmens wird bereitgestellt, um zu erklären, warum einige Unternehmer Kredite aufnehmen und andere nicht, und warum einige Unternehmen wachsen und andere über lange Zeiträume stationär bleiben.;-;-;-;https://link.springer.com/article/10.1007/BF01108618 80149f4deff48a889e986824ba5ff9fa;de;;;2.4.;;;Die Halfter der Schmeißfliege Wir haben kompensatorische Kopfreaktionen von Fliegen auf aufgezwungene Körperdrehungen beim Gieren, Nicken und Rollen quantitativ analysiert und das Haltere als Sinnesorgan zur Aufrechterhaltung des Gleichgewichts charakterisiert. Während der Rotation mit konstanter Geschwindigkeit bewegt sich der Kopf zuerst, um den Netzhautschlupf auszugleichen, und erreicht dann eine Plateau-Exkursion (Abb. 3). Unter 500°/s hängen sowohl die Anfangsgeschwindigkeit des Kopfes als auch die Endauslenkung linear von den Stimulusgeschwindigkeiten für alle drei Achsen ab. Kopfsakkaden treten selten auf und sind synchron zu Flügelschlagsakkaden (Abb. 5). Sie werden als spontane Aktionen interpretiert, die der kompensatorischen Reaktion überlagert sind, und sind daher keine rücksetzenden Bewegungen wie die schnelle Phase des „vestibulookulären“ Nystagmus bei Wirbeltieren. Neben der eigentlichen Körperrotation der Fliegen haben wir eine Methode entwickelt, um Rotationsreize nachzuahmen, indem der Körper einer fliegenden Fliege Vibrationen ausgesetzt wird (1 bis 200 μm, 130 bis 150 Hz), die online an den Haltereschlag der Fliege gekoppelt wurden . Die Reaktionen auf simulierte Coriolis-Kräfte, die eine Rotation mit konstanter Geschwindigkeit nachahmen, sind qualitativ und weitgehend auch quantitativ identisch mit den Reaktionen auf reale Rotationen (Abb. 3, 7–9). Reaktionen auf Roll- und Nickreize sind koaxial. Bei der Gierstimulation (halteres und visuell) führt der Kopf sowohl eine Gier- als auch eine Rollreaktion aus (Abb. 3e,f), reagiert also nicht koaxial. Dies ist nicht auf mechanische Einschränkungen der Nackengelenke zurückzuführen, sondern wird eher als „Vorauskompensation“ einer schrägen Körperposition bei Freiflug-Gierdrehungen interpretiert (Abb. 10).;-;-;-;https://link.springer.com/article/10.1007/BF00191842 f0e41f3c92d0c2c624ec0a2e9d89835f;de;;;2.4.;;;Die ortsspezifische natürliche Isotopenfraktionierungs-NMR-Methode zur Untersuchung von Weinen Stabile und radioaktive Isotope sind wichtige Sonden für mechanistische Untersuchungen in der Pflanzenphysiologie und zahlreiche Experimente wurden entwickelt, um das Schicksal einer bestimmten Vorstufe zu verfolgen, die künstlich mit;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83340-3_9 55bfd2f9a275f64339f72a28d815b92a;de;;;2.4.;;;Auf dem Weg zu einem theoretischen Rahmen für geografische Entitätstypen Dieses Papier entwickelt einen theoretischen Rahmen für die Definition und Darstellung von Arten von geografischen Einheiten. Es wird der „Spatial Data Transfer Standard“ (SDTS) der USA verwendet. wie. ein Ausgangspunkt für Diskussionen. SDTS definiert Entitäten in der Welt, Objekte als mathematische oder rechnerische Konstrukte und Merkmale als Entitäten und die sie repräsentierenden Objekte. Der Artikel untersucht die zentrale Rolle, die Kategorien in der menschlichen Kognition spielen, und die Beziehungen zwischen Kategorien und Wörtern der natürlichen Sprache. Obwohl Kategorien in einer objektiven Welt zu existieren scheinen, werden sie eher (und konservativ) als in menschlichen Köpfen und Kulturen existierend betrachtet. Dies bedeutet, dass Kategoriendefinitionen und -grenzen bei kultur-, sprach- und fachübergreifenden Vergleichen und sogar auf individueller Ebene variieren können. Dies wiederum impliziert, dass die Entwicklung „universeller“ Entitätsschemata sehr schwierig sein wird. Einige der Schwierigkeiten werden am oberflächlich einfachen Beispiel stehender Gewässer in Englisch, Französisch und Spanisch illustriert. Kategoriegrenzen scheinen sich nicht nur zwischen den Sprachen, sondern auch geografisch innerhalb der Sprachen zu unterscheiden. Tests an menschlichen Probanden werden wahrscheinlich erforderlich sein, um die Natur geografischer Entitätstypen als kognitive Kategorien zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-57207-4_18 642156301cfc7c337dd8c46019c7452b;de;;;2.4.;;;Polarisierung im Die Analyseleistung für an Sauerstoff elastisch gestreute Neutronen wurde im Energiebereich von 2,25 bis 3,90 MeV bei sieben Winkeln von 25° bis 155° gemessen. Die relativen differentiellen Wirkungsquerschnitte wurden auch bei den Energien 2,56 und 2,76 MeV erhalten. Eine Phasenverschiebungsanalyse von Polarisations- und Querschnittsdaten wurde durchgeführt.;-;-;-;https://link.springer.com/article/10.1007/BF02729919 18fee911fd3d507165783c8c5a9333c0;de;;;2.4.;;;Sexuell übertragbare Infektionen während der Schwangerschaft Zwei Millionen der 15 Millionen (13,3%) neuen Fälle von sexuell übertragbaren Infektionen (STI) bei Personen zwischen 15 und 49 Jahren treten bei schwangeren Frauen auf. Der Zugang zu medizinischer Versorgung und die Fähigkeit eines Anbieters, Risiken einzuschätzen, STIs zu untersuchen und zu behandeln, sind kritische Faktoren, um unerwünschte Schwangerschaftsausgänge zu verhindern. Trotz der empfohlenen Leitlinien bestehen erhebliche Unterschiede bei den STI-Screening- und Behandlungspraktiken der Anbieter. Dieser Artikel befasst sich mit Fragen im Zusammenhang mit dem Screening und der Behandlung häufiger sexuell übertragbarer Krankheiten während der Schwangerschaft, wobei der Schwerpunkt auf den neuen Behandlungsrichtlinien der US-amerikanischen Zentren für die Kontrolle und Prävention sexuell übertragbarer Krankheiten von 2006 und den kürzlich überarbeiteten Empfehlungen für HIV-Tests bei schwangeren Frauen in Gesundheitseinrichtungen liegt.;-;-;-;https://link.springer.com/article/10.1007/s11908-007-0008-1 57357a2936f4eabdf56b0c1509e9d62f;de;;;2.4.;;;Die europäische Dimension Die EG-Politik trifft den Kern der britischen Politik. Debatten über die Zukunft Großbritanniens in Europa waren nicht nur von zentraler Bedeutung für die Spannungen, die die britische Politik Ende 1992 erfassten, sondern sind auch integraler Bestandteil der Zukunft Großbritanniens in allen Schlüsselbereichen. Trotz der Ereignisse des „Schwarzen Mittwochs“, als das Pfund Sterling unter starkem spekulativen Druck aus dem Wechselkursmechanismus (ERM) des Europäischen Währungssystems (EMS) abgezogen wurde, hängen Großbritanniens wirtschaftliche Geschicke weiterhin stark von denen der EG insgesamt ab. Im politischen Bereich werden heute viele wichtige Entscheidungen nicht in London, sondern in Brüssel getroffen. Infolgedessen wird die innenpolitische Debatte – im Parlament, in den Medien und anderswo – zunehmend von der EG dominiert, und viele hochrangige britische Entscheidungsträger – sowohl Politiker als auch Beamte – müssen viel Zeit damit verbringen, mit ihnen zu beraten und zu verhandeln ihre Pendants aus den anderen elf EG-Staaten (Belgien, Dänemark, Frankreich, Deutschland, Griechenland, Irland, Italien, Luxemburg, Niederlande, Portugal und Spanien).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-22802-7_3 e02d743ae699fa90bf9c0e41a4ae88aa;de;;;2.4.;;;Vektorquantisierungsverzerrung medizinischer Ultraschallfunktionen Beschneidungsbaumstrukturierte vektorielle Quantisierung (PTSVQ) wurde auf die unteren fünf neu abgebildeten Graustufenbits von normalen und fettigen Ultraschallleberbildern angewendet. Die oberen Bits wurden reversibel komprimiert. Diese Kombination von Techniken wird als PTSVQ mit Aufspaltung bezeichnet. Die Wirkung der Kompression auf den Texturunterschied zwischen normalen und Fettleberbildern wurde bei unterschiedlichen Kompressionsraten und Verzerrungen untersucht. Die Texturänderungen wurden durch Änderungen der Hauptkomponenten der Kovarianzmatrix der Bildvektoren gemessen. Die Vektoren hatten dieselbe Größe wie diejenigen, die bei der Kompressionstechnik verwendet wurden. Es gab deutliche Unterschiede in den Komponenten von Normal- und Fettleberbildern. Diese Unterschiede wurden durch den PTSVQ mit Splitting-Technik selbst bei durchschnittlichen Einzelpixelverzerrungen, die um ein Vielfaches kleiner als das Bildrauschen waren, weitgehend beseitigt. Diese Ergebnisse legen nahe, dass der Effekt der Kompression auf Statistiken zweiter Ordnung gemessen werden sollte, wenn Algorithmen zusätzlich zur durchschnittlichen Verzerrung erster Ordnung bewertet werden.;-;-;-;https://link.springer.com/article/10.1007/BF03168489 502fef87bfa46697e4e731baa287e832;de;;;2.4.;;;Clostridien und Bacteroides bei enterischen Infektionen Die Fähigkeit anaerober Bakterien, bei Mensch und Tier Krankheiten zu verursachen, ist seit vielen Jahren bekannt. Die Clostridien zum Beispiel sind bekannt für ihre Fähigkeit, Krankheiten zu verursachen, indem sie eine Vielzahl von Toxinen produzieren, die von den potenten Neurotoxinen der;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-0313-6_8 a1ee96f99c1fa5b41602a971a62c13eb;de;;;2.4.;;;Antimykotische Prophylaxe und Therapie: Kontroversen und neue Probleme Pilzinfektionen bei Transplantatempfängern solider Organe bleiben eine wesentliche Ursache für Morbidität und Mortalität und können bei allen Arten von Transplantatempfängern auftreten. Pilzart und Infektionstyp unterscheiden sich zwischen dem transplantierten Organ und dem geografischen Wohnsitz (;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-1403-9_12 d202e20e40eb1af5a0755b7b274a057e;de;;;2.4.;;;Tryptamin induziert Tryptophanyl-tRNA-Synthetase-vermittelte Neurodegeneration mit neurofibrillären Tangles in menschlichen Zell- und Mausmodellen Zu den neuropathologischen Kennzeichen der Alzheimer-Krankheit (AD) und anderer Taupathien gehören neurofibrilläre Knäuel und Plaques. Obwohl nur 2–10% der AD-Fälle mit genetischen Mutationen assoziiert sind, wurden bisher keine nicht-transgenen oder metabolischen Modelle erstellt. Die Autoren haben kürzlich über die Ergebnisse der Tryptophanyl-tRNA-Synthetase (TrpRS) in Plaques des AD-Gehirns berichtet. Hier wird gezeigt, dass die Expression von zytoplasmatischem TrpRS invers mit neurofibrillärer Degeneration korreliert, während ein nichtionisches Detergenz-unlösliches, vermutlich aggregiertes TrpRS gleichzeitig in menschlichen Zellen akkumuliert wird, die mit Tryptamin behandelt werden, einem metabolischen Tryptophananalogon, das als kompetitiver Inhibitor von TrpRS wirkt. TrpRS-N-terminales Peptid organisiert sich in doppelhelikalen Fibrillen in vitro selbst. Hierin verursacht Tryptamin eine Neuropathie, die durch motorische und Verhaltensdefizite, Hippocampus-Neuronenverlust, neurofibrilläre Knäuel, Amyloidose und Glukoseabnahme bei Mäusen gekennzeichnet ist. Tryptamin induzierte die Bildung von helikalen fibrillären Tangles sowohl in Hippocampus-Neuronen als auch in Glia. Zusammen mit den früheren Ergebnissen der Autoren zur Tryptamin-induzierten Nephrotoxizität und filamentösen Knäuelbildung in Nierenzellen weisen die Daten des Autors auf eine allgemeine Rolle von Tryptamin bei Zelldegeneration und -verlust hin. Daraus wird geschlossen, dass Tryptamin als Bestandteil einer normalen Ernährung bei Konzentrationen, die zusammen mit der Nahrung aufgenommen werden könnten, eine Neurodegeneration induzieren kann. Tryptophan-abhängige tRNA;-;-;-;https://link.springer.com/article/10.1385/NMM%3A9%3A1%3A55 5df41c4c0615ef8b562839a94873ee47;de;;;5.3.;;;Verschränkungsentropie von Zwei-Spezies-Hardcore-Bosonen in einer Dimension Wir untersuchen die bipartite Verschränkungsentropie eines Modells für Zwei-Spezies-Hardcore-Bosonen in einer Dimension. In diesem Modell erfüllen die Bosonen derselben Spezies harte Kernbedingungen, während die Bosonen unterschiedlicher Spezies dieselbe Stelle mit einer lokalen Wechselwirkungsstärke einnehmen dürfen;-;-;-;https://link.springer.com/article/10.1007/s40042-021-00098-y 4bb40b9744fc14f835b9f4bab3a5d8cb;de;;;2.4.;;;Der großvolumige Detektor (LVD) des Gran Sasso Laboratory Wir beschreiben hier das LVD-Experiment (Large-Volume Detector) des Gran Sasso Laboratory, das die natürliche Verbesserung des LSD-Experiments (Liquid Scintillation Detector) im Mont Blanc Laboratory ist. Die LVD ((31×13) m;-;-;-;https://link.springer.com/article/10.1007/BF02514845 d03b9d01a1d81f0b90a4171c0d1dabb9;de;;;2.4.;;;Andere Komplikationen als Peritonitis oder solche im Zusammenhang mit dem Katheter und dem Schicksal einer urämischen Organdysfunktion bei Patienten, die eine Peritonealdialyse erhalten Dieses Kapitel ist in zwei Abschnitte unterteilt. Im ersten werden wir die anderen Komplikationen der Peritonealdialyse als die Peritonitis und die mit dem Katheter zusammenhängenden Komplikationen diskutieren, die an anderer Stelle in diesem Buch besprochen werden. Im zweiten Teil dieses Kapitels werden wir das Schicksal oder die „unnatürliche Geschichte“ der urämischen Organdysfunktion bei Patienten diskutieren, die eine Peritonealdialyse erhalten. Die Aufnahme einiger Themen in den einen oder anderen Abschnitt war willkürlich, da nicht klar ist, inwieweit es sich bei der diskutierten Erkrankung um eine Komplikation der Urämie oder der Dialyse selbst handelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-1085-0_15 1c2d7bc24d5f0c03a31c13a2a4960916;de;;;2.4.;;;Umweltsensorik und die Rolle der extrazytoplasmatischen Funktion Sigma-Faktoren Bakterien modulieren die Genexpression kontinuierlich als Reaktion auf sich ändernde Umweltbedingungen. Obwohl viele Transkriptionsregulationswege auf interne Signalmoleküle oder Zwischenmetaboliten reagieren, haben sich andere Systeme entwickelt, um Signale aus der Umgebung zu erfassen. Zum Beispiel werden Sigma (σ)-Faktoren der extrazytoplasmatischen Funktion (ECF) typischerweise durch einen transmembranen Anti-σ-Faktor reguliert, der wiederum durch Veränderungen in der Umgebung reguliert wird. Hier konzentrieren wir uns auf die am besten untersuchten ECF σ Faktoren aus;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74921-9_8 be9d61885b59614389eb468a92d99769;de;;;2.4.;;;Graphem-Monitoring bei der Bildbenennung: Eine elektrophysiologische Studie zur Sprachproduktion Elektrokortikale Korrelate der Sprachproduktion wurden in zwei Bildbenennungsaufgaben untersucht, die ein Graphem-Monitoring beinhalteten. In beiden Aufgaben mussten die Probanden (N=12) Zielbuchstaben in Bildnamen erkennen, wobei der Zielbuchstabe entweder am Anfang oder am Ende des Bildnamens positioniert wurde. Zwischen den Aufgaben wurde der Zielbuchstabe entweder vor (Ziel-Bild, TP) oder nach (Bild-Ziel, PT) der Präsentation der Objektbilder gezeigt. Bei beiden Aufgaben reagierten die Probanden schneller, wenn der Zielbuchstabe am Anfang des Bildnamens stand als am Ende. Das EEG, aufgezeichnet von 64 Elektroden, wurde im Signal und im Quellenraum (unter Verwendung der Minimum Norm Schätzung) analysiert. Unterschiede im ereignisbezogenen Potential (ERP) nach dem zweiten Stimulus zeigten sich früher in der PT (bei 320 ms) als bei der TP (456 ms) Aufgabe. Dieser Beginn von divergierenden ERPs wurde als Punkt der Divergenz (POD) bezeichnet. Das ERP nach dem POD war bei beiden Aufgaben durch eine positive Auslenkung im Anfangszustand gekennzeichnet. Im Endzustand konzentrierten sich die Quellen der Gehirnaktivität auf die linke Hemisphäre in der TP, während eine bilaterale Verteilung die PT-Aufgabe charakterisierte. Leistungs- und elektrokortikale Indizes unterstützen die Hypothese einer seriellen Links-nach-Rechts-Verarbeitung einer Darstellung des Bildnamens. Es wird angenommen, dass der linkshemisphärische Aktivitätsfokus in der TP-Aufgabe die Kodierung des Bildnamens anzeigt, während die frontale symmetrische Aktivität in der PT-Aufgabe auf die Beteiligung von Arbeitsgedächtnisprozessen hinweisen könnte.;-;-;-;https://link.springer.com/article/10.1023/A%3A1012519104928 e3e256cdf5832a053ac339440b0102f0;de;;;2.4.;;;Celastrol, ein oraler Hitzeschockaktivator, verbessert mehrere Tierkrankheitsmodelle des Zelltods Es wurde gezeigt, dass Proteinhomöostatische Regulatoren einzelne Proteinkrankheiten mit Funktionsverlust lindern, aber nicht breitere Tierkrankheitsmodelle behandeln, die Zelltod beinhalten können. Krankheiten lösen häufig eine homöostatische Instabilität von Proteinen aus, die das empfindliche Gleichgewicht der normalen zellulären Lebensfähigkeit stört. Darüber hinaus wurden homöostatische Proteinregulatoren invasiv und nicht mit einfacher oraler Verabreichung verabreicht. Hier berichten wir über die potenten homöostatischen Fähigkeiten von Celastrol, das Überleben von Zellen zu fördern, Entzündungen zu verringern und die zelluläre Homöostase in drei verschiedenen Krankheitsmodellen der Apoptose und Entzündung mit Hepatozyten und Kardiomyozyten aufrechtzuerhalten. Wir zeigen, dass Celastrol die linksventrikuläre Funktion und das myokardiale Remodeling nach Modellen des akuten Myokardinfarkts und der Doxorubicin-induzierten Kardiomyopathie durch Verringerung der Infarktgröße, Apoptose und Entzündung signifikant wiederherstellt. Celastrol verhindert akute Leberfunktionsstörungen und fördert das Überleben der Hepatozyten nach toxischen Dosen von Thioacetamid. Schließlich zeigen wir, dass die Hitzeschockreaktion (HSR) für die Erholungsfähigkeit von Celastrol notwendig und ausreichend ist. Unsere Beobachtungen können dramatische klinische Auswirkungen haben, um ganze Krankheitsprozesse sogar nach der Initiierung einer zellulären Verletzung durch die Verwendung eines oral verabreichten HSR-Aktivators zu verbessern.;-;-;-;https://link.springer.com/article/10.1007/s12192-014-0536-1 ccc9a612cb4317603fc18e0078bd925f;de;;;2.4.;;;Simulation des Autobahnverkehrs in Nordrhein-Westfalen Der Autoverkehr hat in vielen dicht besiedelten Regionen weltweit die Kapazität der Straßennetze erreicht. Vor allem in Nordrhein-Westfalen, im Westen Deutschlands gelegen, führt die steigende Verkehrsnachfrage zu immer mehr Staus auf dem Autobahnnetz. Daher ist der Bedarf an intelligenten Informationssystemen immer wichtiger geworden. Hier präsentieren wir eine Kombination aus Echtzeit-Verkehrsdatenanalyse und mikroskopischen Verkehrssimulationen als Basis eines Online-Tools, das vollständige Informationen über den Verkehrszustand auf dem gesamten Autobahnnetz liefert. Mit einem Java-Applet werden die Ergebnisse minütlich im Internet (;-;-;-;https://link.springer.com/chapter/10.1007/0-387-24109-4_8 d0f4c23ea2581fcfa44aa537096a9333;de;;;2.4.;;;Buchstabencodierung beeinflusst die Bewegungsproduktion beim Schreiben von Wörtern: eine englisch-italienische sprachübergreifende Studie Die vorliegende Untersuchung ist eine sprachübergreifende Studie, die zeigt, dass der Zeitpunkt der motorischen Produktion nicht nur von der Form eines Buchstabens und der Aktivierung seines motorischen Programms abhängt, sondern auch von der Art und Weise, wie die orthographischen Darstellungen die Buchstaben für die Rechtschreibsuche kodieren. Englisch- und italienischsprachige Teilnehmer schrieben verwandte Wörter (z. B. DISSIPATE–DISSIPARE) auf einen Digitalisierer. Die Worte enthielten ein Dublett. Sie wurden Wörtern zugeordnet, die die Anfangsbuchstaben teilten und sich durch das Vorhandensein eines Doppelbuchstabens unterschieden (z;-;-;-;https://link.springer.com/article/10.1007/s11145-017-9756-y db18a054b1ace72cc350a197383321a9;de;;;2.4.;;;Überblick über die Chordate-Metamorphose Das Überleben einer Art hängt davon ab, dass sie genügend lebensfähige Nachkommen hervorbringt, sodass im Durchschnitt während ihres Lebens ein einzelner reproduktiver Erwachsener durch einen anderen ersetzt wird. In dieser Hinsicht hat der Stamm Chordata zwei Ansätze verwendet. Der erste und wahrscheinlich primitivere Ansatz ist die Produktion einer großen Anzahl ungeschützter Eier. Diese Fortpflanzungsstrategie wird von einigen Arten in allen Chordatierklassen mit Ausnahme von Vögeln und Säugetieren verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-3246-6_9 59b8788e95b46cb03adea37446155490;de;;;2.4.;;;Magnetische Eigenschaften von Mineralien Alle Materialien reagieren in irgendeiner Weise auf ein Magnetfeld, sodass alle Mineralien magnetische Eigenschaften haben. Mineralien, die keine Ionen mit unkompensierten Spins enthalten (z. B. das Fehlen insbesondere der Übergangsreihenelemente) sind;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-78523-8_29 96b4c86dbafdda22a1b4d6e2d8397820;de;;;2.4.;;;Sechs Ansichten der verkörperten Kognition Der aufkommende Standpunkt der verkörperten Kognition besagt, dass kognitive Prozesse tief in den Interaktionen des Körpers mit der Welt verwurzelt sind. Diese Position beinhaltet tatsächlich eine Reihe von unterschiedlichen Behauptungen, von denen einige umstrittener sind als andere. Dieser Beitrag unterscheidet und bewertet die folgenden sechs Behauptungen: (1) Kognition ist situiert, (2) Kognition steht unter Zeitdruck, (3) wir verlagern kognitive Arbeit auf die Umwelt, (4) die Umwelt ist Teil des kognitiven Systems , (5) Kognition ist zum Handeln da, (6) Offline-Kognition ist körperbasiert. Von diesen scheinen die ersten drei und die fünfte zumindest teilweise richtig zu sein, und ihre Nützlichkeit wird am besten im Hinblick auf ihre Anwendbarkeit bewertet. Die vierte Behauptung ist meines Erachtens zutiefst problematisch. Die sechste Behauptung hat in der Literatur zur verkörperten Kognition am wenigsten Beachtung gefunden, ist aber möglicherweise die am besten dokumentierte und mächtigste der sechs Behauptungen.;-;-;-;https://link.springer.com/article/10.3758/BF03196322 42aabb22328a3675cf73f9580f0528bb;de;;;2.4.;;;Isolierung und Charakterisierung verschiedener Bakterienstämme zur Bioremediation von Rohöl ist ein verbreiteter Umweltschadstoff, der aus einer Vielzahl von aromatischen und aliphatischen Kohlenwasserstoffen besteht. Der biologische Abbau erfolgt durch mikrobielle Gemeinschaften, die für die Bestimmung des Verbleibs von Schadstoffen in der Umwelt wichtig sind. Die intrinsische biologische Abbaubarkeit der Kohlenwasserstoffe und die Verteilung kompetenter abbauender Mikroorganismen in der Umwelt sind entscheidende Informationen für die Durchführung von Bioremediationsprozessen. In der vorliegenden Studie wurden die biologischen Abbaukapazitäten verschiedener Bakterien gegenüber aliphatischen und aromatischen Kohlenwasserstoffen bestimmt. Ziel der Studie war es, kohlenwasserstoffabbauende Bakterien aus kontaminiertem Boden einer Raffinerie in Arzew, Algerien, zu isolieren und zu charakterisieren. Eine Sammlung von 150 Bakterienstämmen wurde erhalten, die Bakterienisolate wurden durch 16S rRNA-Gensequenzierung identifiziert und ihre Fähigkeit zum Abbau von Kohlenwasserstoffverbindungen charakterisiert. Die isolierten Stämme wurden hauptsächlich der Klasse der Gamma-Proteobakterien zugeordnet. Unter ihnen,;-;-;-;https://link.springer.com/article/10.1007/s11356-015-4343-8 db1be14f671a9fc2b411a116aeceb1da;de;;;2.4.;;;Auswirkungen von Hypoxie, simulierter Ischämie und Reoxygenierung auf die kontraktile Funktion der menschlichen Vorhofbälkchen Hypoxie, Ischämie und Reoxygenierung verursachen kontraktile Dysfunktion, die durch den zeitlichen Verlauf der isometrischen Kontraktion der menschlichen Vorhoftrabekel gekennzeichnet ist. Post-Rest-Potenzierung (PRP) und postextrastimulatorische Potenzierung (PEP) wurden erhoben, um indirekte Informationen über die Rolle des sarkoplasmatischen Retikulums (SR) bei der Erregungs-Kontraktions-Kopplung zu erhalten. Da eine Lipidperoxidation zu einer SR-Dysfunktion führen kann, wurden Thiobarbitursäure-reaktive Substanzen (TBARS) gemessen. Nach 30 Minuten Hypoxie (H) oder simulierter Ischämie (H kombiniert mit Azidose-SI) sank die Kontraktionskraft auf 15 % bzw . In Gruppe H führte eine schnelle Reoxygenierung zu einer Erholung der Kontraktionskraft auf etwa 60 %. Nach posthypoxischer Reoxygenierung war die TBARS-Konzentration erhöht. In Gruppe SI führte eine schnelle Reoxygenierung und eine eher allmähliche Korrektur der Azidose zu einer vollständigen Wiederherstellung der Kontraktionskraft. PRP und PEP wurden während H und Sl aufrechterhalten. Insbesondere die postischämische Reoxygenierung verursachte eine deutliche Depression von PRP und teilweise von PEP. Somit ändert sich SR Ca;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-1279-6_20 9cc73cdf4fae586ea51abaadc0a01802;de;;;2.4.;;;Die Chittagong Hill Tracts und ihre Bewohner Zu den wenigen unbestreitbaren Dingen, die über die Chittagong Hill Tracts gesagt werden können, gehören diejenigen, die sich auf ihre geografische Lage und die jüngere Geschichte beziehen. Die Hill Tracts werden im Westen von den schmalen Chittagong Plains, die entlang des Golfs von Bengalen verlaufen, im Norden und Osten von den indischen Bundesstaaten Tripura bzw. Mizoram und schließlich im Süden und Südosten von der burmesischen Region Arakan . begrenzt , sie liegen zwischen 91° 45′ und 92° 50′ östlicher Länge und 21° 35′ und 23° 45′ nördlicher Breite. Bei der Teilung Britisch-Indiens wurden die Chittagong Hill Tracts Teil des Ostflügels Pakistans, seit Bangladesch seine Unabhängigkeit erlangte, gelten sie als Teil des Territoriums dieses Landes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-5694-2_2 ab938d88be047c9ae64cd2d6811c7514;de;;;2.4.;;;Stimulation des Glukosetransports durch semicarbazid-sensitive Aminoxidase-Aktivität in Adipozyten von diabetischen Ratten Semicarbazid-sensitive Aminoxidase (SSAO) wird in Fettzellen stark exprimiert, und Substrate von SSAO wie Benzylamin in Kombination mit niedrigen Vanadat-Konzentrationen stimulieren stark den Glukosetransport und die GLUT4-Rekrutierung in Maus-3T3-L1-Adipozyten und in isolierten Ratten-Adipozyten. Hier haben wir untersucht, ob diese Kombination von Molekülen auch den Glukosetransport in Adipozyten von Streptozotocin-induzierten diabetischen Ratten und von Goto-Kakizaki-diabetischen Ratten stimuliert. Wie zuvor berichtet, zeigten Adipozyten, die von Streptozotocin-induzierten diabetischen Ratten erhalten wurden, eine reduzierte Stimulation des Glukosetransports als Reaktion auf Insulin. Unter diesen Bedingungen verursachte die Kombination von Benzylamin und Vanadat eine deutliche Stimulation des Glukosetransports, die der in Kontrolladipozyten nachgewiesenen Stimulation ähnlich war. Adipozyten, die aus diabetischen Goto-Kakizaki-Ratten isoliert wurden, zeigten ebenfalls eine fehlerhafte Reaktion auf Insulin, jedoch stimulierte die akute Inkubation in Gegenwart von Benzylamin und Vanadat den Glucosetransport in diesen Zellen im gleichen Ausmaß wie in Adipozyten von nicht-diabetischen Ratten. Diese Daten zeigen, dass Adipozyten, die aus zwei verschiedenen Modellen von Tierdiabetes erhalten wurden, keine Resistenz gegen die Aktivierung des Glucosetransports durch SSAO-Aktivität zeigen, was im Gegensatz zu der gut berichteten Resistenz gegen Insulinwirkung steht. Es scheint darauf hinzuweisen, dass die SSAO-Aktivität in Kombination mit Vanadat einen den Glukosetransport aktivierenden intrazellulären Weg auslöst, der im diabetischen Zustand intakt bleibt. Darüber hinaus stützen unsere Daten die Ansicht, dass die Kombination von Benzylamin und Vanadat eine wirksame Therapie bei Diabetes sein könnte.;-;-;-;https://link.springer.com/article/10.1007/BF03179910 962d6ef896f3b5530b3424104837ef31;de;;;2.4.;;;Intrauterine bakterielle Infektionen Eine gegenwärtige Realität der geburtshilflichen Praxis ist das regelmäßige Auftreten einer intrauterinen Infektion, die sowohl die Mutter als auch den Fötus bedroht. Beginnend mit Greggs Beobachtung, dass die Rötelnvirus-Infektion der Mutter mit teratogenen Folgen transplazentar auf ihre Nachkommen übertragen werden könnte, wurde das Problem der intrauterinen Virusinfektion energisch angegangen. Das Problem des kongenitalen Rötelnsyndroms (an anderer Stelle diskutiert) wurde als Ergebnis sowohl der Bewertung der mütterlichen Anfälligkeit als auch der Röteln-Impfung im Rahmen der normalen Impfungen bei Kindern verringert. Wahrscheinlich weil intrauterine bakterielle Infektionen selten eine so auffallende Morbidität verursachen wie die durch intrauterine virale Infektionen verursachte, wurde dem Problem der intrauterinen bakteriellen Infektion weniger Aufmerksamkeit geschenkt als der viralen Infektion. Mit dem gegenwärtigen Verständnis der Ätiologie und Methoden zur Verhinderung angeborener Defekte aufgrund einer intrauterinen Virusinfektion hat sich das Interesse in Richtung einer intrauterinen bakteriellen Infektion verlagert. Mit diesem erhöhten Interesse ist die Erkenntnis eingetreten, dass intrauterine bakterielle Infektionen häufiger vorkommen als bisher angenommen und auch Konsequenzen wie Frühgeburten hervorrufen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-4852-1_9 ec5be2a7247969c0f60dd39ede55dc96;de;;;5.3.;;;Erlernen einer diskriminierenden Funktion auf mittlerer Ebene für die Aktionserkennung In diesem Papier beschäftigen wir uns mit dem Problem, menschliche Handlungen aus Videos zu erkennen. Die meisten der bestehenden Ansätze verwenden Low-Level-Merkmale (z. B. lokale Merkmale und globale Merkmale), um ein Aktionsvideo darzustellen. Algorithmen, die auf Low-Level-Features basieren, sind jedoch gegenüber komplexen Umgebungen wie unübersichtlichem Hintergrund, Kamerabewegungen und Beleuchtungsänderungen nicht robust. Daher schlagen wir einen neuartigen Random-Forest-Lernrahmen vor, um ein diskriminierendes und informatives Merkmal auf mittlerer Ebene aus Merkmalen auf niedriger Ebene von dicht abgetasteten 3D-Quadern zu erstellen. Jeder Quader wird durch die entsprechenden Random Forests mit einem neuartigen Fusionsschema klassifiziert, und die Posterior-Wahrscheinlichkeiten aller Kategorien des Quaders werden normalisiert, um ein Histogramm zu erzeugen. Danach erhalten wir unser mittleres Merkmal, indem wir Histogramme aller Quader verketten. Da ein einzelnes Low-Level-Merkmal nicht ausreicht, um die Variationen menschlicher Handlungen zu erfassen, werden mehrere komplementäre Low-Level-Merkmale (d. h. optischer Fluss und Histogramm von Gradienten-3D-Merkmale) verwendet, um 3D-Quader zu beschreiben. Darüber hinaus wird der zeitliche Kontext zwischen lokalen Quadern als eine weitere Art von Low-Level-Feature ausgenutzt. Die oben genannten drei Low-Level-Merkmale (d. h. optischer Fluss, Histogramm von Gradienten-3D-Merkmalen und zeitlicher Kontext) werden in dem vorgeschlagenen Lernrahmen effektiv verschmolzen. Schließlich wird das Feature auf mittlerer Ebene von einem Random-Forest-Klassifikator für eine robuste Aktionserkennung verwendet. Experimente mit den Weizmann-, UCF-Sport-, Ballett- und Multi-View-IXMAS-Datensätzen zeigen, dass unser mittleres Feature, das aus mehreren Low-Level-Features gelernt wurde, eine überlegene Leistung gegenüber modernsten Methoden erzielen kann.;-;-;-;https://link.springer.com/article/10.1007/s11432-013-4938-y 72fe2d1bf9a269c672249c9be8b58c0f;de;;;2.4.;;;Kernphysik mit RI Beam Factory Die Forschungsaktivitäten der Kernphysik in der Radioactive Isotope Beam Factory über 10 Jahre werden überprüft und zukünftige Richtungen diskutiert. Konzeptionelle Ideen zur Gestaltung der Anlage sowie Versuchsgeräte werden vorgestellt. Besonderes Gewicht wird auf hervorgehobene Ergebnisse gelegt, die am RIBF erzielt wurden.;-;-;-;https://link.springer.com/article/10.1007/s11467-018-0849-0 69c1557a327fa5d46ddc26f082b44cbd;de;;;2.4.;;;Wirksamkeit von HIV-Interventionen bei Fabrikarbeitern in Ländern mit niedrigem und mittlerem Einkommen: eine systematische Überprüfung Fabrikarbeiter in Ländern mit niedrigem und mittlerem Einkommen (LMICs) sind anfällig für eine HIV-Übertragung. Es sind Interventionen erforderlich, um HIV in dieser Bevölkerungsgruppe zu verhindern. Wir haben die veröffentlichte Literatur zur Wirksamkeit verschiedener HIV-Interventionen bei der Reduzierung von Stigmatisierung, Risikoverhalten und HIV-Übertragung bei Fabrikarbeitern systematisch überprüft.;-;-;-;https://link.springer.com/article/10.1186/s12889-020-09333-w 1088817e50ff26309c8f94b1e9255a90;de;;;2.4.;;;Mitochondrienumbau bei Krebs Krebszellen zeichnen sich durch einen veränderten Stoffwechsel und eine unkontrollierte Vermehrung aus. Es überrascht nicht, dass Mitochondrien, die eine wichtige Rolle bei der Oxidation von Brennstoffen (Katabolismus) und der Synthese biosynthetischer Vorläufer (Anabolismus) spielen, in Krebszellen verändert werden. Obwohl die meisten Krebszellen eine erhöhte Aufnahme von Glukose und eine Hochregulierung der Glykolyse aufweisen, bleiben Mitochondrien für die Karzinogenese unerlässlich. Mitochondrien von Krebszellen weisen jedoch signifikante Unterschiede auf, die sie von denen normaler Zellen unterscheiden. Mitochondrien von Krebszellen haben oft eine verringerte Elektronentransportkapazität, eine verminderte ATP-Erzeugung und eine erhöhte Produktion von reaktiven Sauerstoffspezies. Diese Veränderungen im Stoffwechsel fördern die Nährstoffaufnahme, unterstützen eine erhöhte Proliferation und bieten eine Resistenz gegen den apoptotischen Zelltod. Die spezifischen Stoffwechselprozesse bei Krebs bieten Möglichkeiten, sie selektiv pharmakologisch anzusteuern, um die Ergebnisse für Krebspatienten zu verbessern. In der Krebsdiagnostik kann der Tumormetabolismus aus Genexpressionsmustern und -mutationen, Raten der Nährstoffaufnahme und aus der direkten Messung von Metaboliten abgeleitet werden. In der Behandlung können diese Prozesse gezielt angesteuert werden. Veränderungen des Stoffwechsels, der mitochondrialen DNA, der Elektronentransportkette und der Enzyme des Tricarbonsäurezyklus bei Krebs werden beschrieben. Die Ausnutzung dieser Unterschiede für Diagnose und Behandlung wird diskutiert, mit einer Überprüfung ausgewählter Wirkstoffe, die derzeit in der klinischen Anwendung sind oder aktiv untersucht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-73344-9_9 042db4a5abe3b2068e46b1c47e998412;de;;;2.4.;;;Charakterisierung der erzwungenen Oxidation von Sardinenöl: Physikochemische Daten und mathematische Modellierung Für die Lebensmittelindustrie ist es von großem Interesse, die Mechanismen und Kinetiken zu verstehen, die der spontanen Oxidation mariner Öle zugrunde liegen, da diese mehrfach ungesättigten Fettsäuren (PUFA) reichen Öle, die Gegenstand mehrerer gesundheitsbezogener Angaben sind, wiederholt für die Nahrungsaufnahme empfohlen wurden. Die vorliegende Studie versucht, die erzwungene Oxidation und den hydrolytischen Abbau von Glyceriden und Fettsäuren in Sardinenöl zu charakterisieren. Ein einfaches mathematisches Modell erster Ordnung wurde postuliert und erfolgreich an die experimentellen Daten angepasst. Dieses Modell bestätigte, dass die Abnahmerate der Konzentration intakter Fettsäureeinheiten fast direkt proportional zur Anzahl der vorhandenen Doppelbindungen ist. Daher war die Rate des oxidativen Zerfalls erwartungsgemäß praktisch unabhängig von der Kettenlänge, mit einer Gesamtaktivierungsenergie von;-;-;-;https://link.springer.com/article/10.1007/s11746-999-0015-5 6f3d94d075dc1da3f47348068790d6c8;de;;;2.4.;;;Zellzusammensetzung und Metalltoleranz bei Cyanobakterien Dieser Review untersucht Wechselwirkungen zwischen Cyanobakterien und Metallen mit Schwerpunkt auf Metalltoleranz in diesen Organismen. Aspekte der Metalltoxizität und Akkumulation in verschiedenen Cyanobakterien-Spezies im Zusammenhang mit der Zellzusammensetzung werden ebenfalls untersucht.;-;-;-;https://link.springer.com/article/10.1007/BF00140478 40654e21e6f306756c311cec652d719a;de;;;2.4.;;;Entwicklung von Schreibfähigkeiten Wir schreiben, damit wir kommunizieren können. Wir schreiben, um Gedanken, Ideen, Wissen zu vermitteln oder dem Leser zu ermöglichen, etwas zu verstehen. Der kompetente Autor erreicht einen Zustand, den Csikszentmihalyi (1975) Flow nennt:;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4169-1_6 99018ab7f925edface89c2fde990fd1c;de;;;2.4.;;;Rotationsecho-Doppelresonanz-NMR-beschränktes Modell des ternären Komplexes der 5-Enolpyruvylshikimat-3-phosphat-Synthase Das 46-kD-Enzym 5-Enolpyruvylshikimat-3-phosphat (EPSP)-Synthase katalysiert die Kondensation von Shikimat-3-phosphat (S3P) und Phosphoenolpyruvat zu EPSP. Die Reaktion wird durch N-(Phosphonomethyl)-glycin (Glp) gehemmt, das in Gegenwart von S3P an EPSP-Synthase bindet, um einen stabilen ternären Komplex zu bilden. Wir haben Festkörper-NMR und Molecular Modeling verwendet, um den ternären Komplex EPSP-Synthase-S3P-Glp zu charakterisieren. Die Modellierung begann mit den Kristallkoordinaten des nichtliganden Proteins, veröffentlichten Abstandsbeschränkungen und Informationen aus der Literatur zur chemischen Modifikation und Mutagenese über EPSP-Synthase. Neue Interliganden- und Ligand-Protein-Abstände wurden erhalten. Diese Messungen verwendeten die native;-;-;-;https://link.springer.com/article/10.1023/B%3AJNMR.0000012864.70184.48 6898d83d0c6359eb15a9caf9122e3965;de;;;2.4.;;;Pronominalisierung und Diskurskohärenz, Diskursstruktur und Pronomeninterpretation Es wird über zwei selbstgesteuerte Lesezeitexperimente berichtet, die den zeitlichen Verlauf von Pronomeninterpretationsprozessen basierend auf lokaler Diskursstruktur und Weltwissen untersuchen. Die Charakterisierung der lokalen Diskursstruktur basiert auf neueren Arbeiten zur Zentrierung, die eine spezifische Formulierung liefern, wie die Art und Weise, in der Sätze auf gemeinsame Entitäten verweisen, die Kohärenz von Diskurssegmenten bestimmt und wie die Diskursstruktur die Interpretation mehrdeutiger Pronomen beeinflusst. Die Ergebnisse des ersten Experiments zeigen, dass Leser eine Standardinterpretation eines Pronomens basierend auf Merkmalen der lokalen Diskursstruktur generieren und dass diese Standardinterpretation später durch wissensbasierte Prozesse bestätigt oder außer Kraft gesetzt wird. Die Ergebnisse des zweiten Experiments zeigen, dass die lokale Diskursstruktur die Pronomeninterpretation weiterhin beeinflusst, selbst wenn die semantische Information, die letztendlich die Interpretation erzwingt, vor dem Pronomen steht. Diese Ergebnisse unterstützen die Ansicht, dass Prozesse, die auf lokale Diskursstrukturen wirken, eine wichtige Rolle bei der Steuerung des Sprachverständnisses spielen.;-;-;-;https://link.springer.com/article/10.3758/BF03197233 02f7be55f3adf903f7203ff51ce8f0d9;de;;;5.3.;;;Mehrsprachige Katastropheninformationen für Mobiltelefone in Japan Ein mehrsprachiges Katastropheninformationssystem (MLDI) wurde entwickelt, um die Sprachbarriere bei Naturkatastrophen zu überwinden. MLDI ist ein webbasiertes System, das Vorlagen in neun Sprachen enthält, damit übersetzte Texte sofort zur Verfügung gestellt werden können. Handy-E-Mail mit grafischem Text ist ein nützliches Werkzeug, um mehrsprachige Katastropheninformationen zu übermitteln. Wir haben die Leistung des Übersetzungssystems und der mehrsprachigen grafischen Zeichen bewertet und festgestellt, dass sie ausreichend verwendbar sind. Wir diskutierten die Verwendung von Mobiltelefonen für ein mehrsprachiges System zur Bereitstellung von Katastropheninformationen, einschließlich des Frühwarnsystems für Erdbeben. Mehrsprachige mobile Informationen und Maßnahmen sind nützlich für eine sichere und barrierefreie Gesellschaft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73354-6_65 b755dd2e342b248f7b20408cfe2e2a97;de;;;5.3.;;;Themenbasiertes Stance Mining für Social Media Texte Neuere Techniken des Opinion Mining haben es geschafft, die Stimmung in den sozialen Medien zu analysieren, aber die Verarbeitung der verzerrten Daten oder der Daten mit wenigen Labels zu politischen oder sozialen Themen bleibt schwierig. In diesem Papier stellen wir einen zweistufigen Ansatz vor, der von nur fünf Startwörtern ausgeht, um die Haltung von Facebook-Posts gegenüber dem Anti-Wiederaufbau des Kernkraftwerks aufzudecken. Erstens wird InterestFinder verwendet, der interessante Wörter erkennt, um irrelevante Dokumente herauszufiltern. Zweitens verwenden wir Methoden des maschinellen Lernens, einschließlich SVM und Co-Training, sowie ein Tool zur Bewertung der kompositorischen Stimmung, CopeOpi, um die Haltung jedes relevanten Beitrags zu bestimmen. Experimentelle Ergebnisse zeigen, dass CopeOpi bei Anwendung des vorgeschlagenen Übergangsprozesses die anderen maschinellen Lernmethoden übertrifft. Die besten Präzisionswerte bei der Vorhersage von drei Haltungskategorien (d.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-20895-4_3 9423ef289b12051c4dfb1eeeb1448621;de;;;5.3.;;;Lesbarkeit der Zeichengröße für Auto-Navigationssysteme Es wurde ein Experiment durchgeführt, in dem untersucht wurde, wie leicht ein Autonavigationssystem von älteren, mittleren und jungen Menschen gelesen werden kann. 127 Probanden (19-76 Jahre alt) bewerteten die Lesbarkeit der angezeigten Zeichen. Das Experiment bewertete Zeichen, die auf einer Flüssigkristallanzeige (LCD) angezeigt werden, ähnlich denen, die in Autonavigationssystemen verwendet werden, und bewertete die Lesbarkeit in 9 Stufen. Im Experiment wurden fünf Zeichengrößen für Verkehrsbegriffe und zwei Sprachen (Japanisch und Englisch) verwendet. Das Experiment wurde mit dem LCD in 2 Positionen durchgeführt: direkt vor dem Probanden und schräg nach links (ca. 30 Grad). Die Ergebnisse zeigten, dass die direkt nach vorne gerichtete Position deutlich besser lesbar war als die Position schräg nach links.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73354-6_55 231505dfa164ddc401023e05986b1d35;de;;;5.3.;;;Linsenanpassung an das stereoskopische Sehen auf HMD Der Zweck dieser Studie war es, die Auswirkung des Anschauens stereoskopischer Bilder auf einem Head Mounted Display (HMD) auf die visuelle Funktion zu klären. Wir haben die visuelle Akkommodation während der stereoskopischen Betrachtung unter Verwendung eines HMD mit unserem ursprünglichen Messinstrument gemessen. Das präsentierte Bild wurde 3-dimensional auf einem HMD-Aufbau in einem Sehabstand von 3 cm dargestellt. Ein kugelförmiges Objekt bewegte sich in einem 10-Sekunden-Zyklus hin und her zum Beobachter hin und von ihm weg. Während die Probanden das 3D-Bild mit beiden Augen betrachteten, wurde die Linsenakkommodation im rechten Auge gemessen und aufgezeichnet. Die Anpassung an die virtuellen Objekte wurde während der Betrachtung von stereoskopischen Bildern von 3D-Computergrafiken gezeigt, wurde jedoch nicht gezeigt, wenn die Bilder ohne geeignete binokulare Parallaxe angezeigt wurden. Es wird vermutet, dass stereoskopische Bewegtbilder auf HMD die visuelle Akkommodation durch die Expansion und Kontraktion des Ziliarmuskels induzierten, die mit der Konvergenz synchronisiert ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02771-0_49 b12e5f57bf8c643ed279635d444b64de;de;;;5.3.;;;Ein Ansatz zur Netzwerk-Edge-Überwachung für Echtzeit-Daten-Streaming-Anwendungen Die Anmietung sehr hoher Bandbreiten oder spezieller Anschlussverbindungen ist für Service Provider weder bezahlbar noch wirtschaftlich. Infolgedessen war es aufgrund von Echtzeitänderungen in der Netzwerkleistung der Internetkommunikation eine schwierige Aufgabe, sicherzustellen, dass Datenstreamingsysteme in der Lage sind, die von den Benutzern erfahrene gewünschte Dienstqualität zu garantieren. Dieses Papier stellt einen Netzwerküberwachungsansatz vor, der bei der Anpassung von Echtzeitdiensten, die auf Netzwerk-Edge-Computing-Plattformen ausgeführt werden, breit anwendbar ist. Der Ansatz identifiziert Laufzeitschwankungen in der Netzwerkqualität von Verbindungen zwischen Anwendungsservern und Endbenutzern. Es wird gezeigt, dass es durch die Identifizierung kritischer Bedingungen möglich ist, den bereitgestellten Dienst kontinuierlich für eine optimale Leistung anzupassen. Zu den Anpassungsmöglichkeiten gehören die Neukonfiguration durch dynamische Änderung der Pfade zwischen Clients und Servern, vertikale Skalierung wie die Neuzuweisung von Bandbreite zu bestimmten Links, horizontale Skalierung von Anwendungsservern und sogar die Live-Migration von Anwendungskomponenten von einem Edgeserver auf einen anderen, um die Anwendung zu verbessern Leistung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-61920-0_21 0f04e49426112de2afb04a90241550f8;de;;;5.3.;;;Wie bekomme ich Bestätigungen? Vorhersage von Facebook-Likes anhand von Beitragsinhalten und Benutzerinteraktion Wir sehen die Vorhersage von Facebook-Likes als Problem mit Inhaltsvorschlägen und zeigen, dass Likes als Beitragsinhalte oder Benutzerinteraktion viel besser vorhergesagt werden können. Die vorgestellten Experimente basieren auf einem Datensatz von über 4 Millionen Likes, die von über siebzigtausend Nutzern auf Fanseiten gesammelt wurden. Das vorgeschlagene Modell verwendet die Ähnlichkeitsmetrik, um abzuschätzen, wie einem Benutzer ein Dokument aufgrund seiner oder ihrer Like-Dokumente gefallen könnte, sowie die Restricted Boltzmann Machine (RBM), um abzuschätzen, ob ein Benutzer ein Dokument aufgrund der gleichen Datensätze aller Benutzer haben möchte. Das Modell erreicht eine Präzision von 5–10 % und einen Recall von 2–55 %. Das häufig verwendete Label-Propagation-Modell wird als Basis implementiert und getestet. Verschiedene Modelle und Einstellungen werden verglichen und die Ergebnisse zeigen die Überlegenheit des vorgeschlagenen Modells.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-58484-3_15 4bb6fbf7257922420b5987227945feb1;de;;;5.3.;;;Upstream, Downstream oder Wettbewerber? Erkennen von Unternehmensbeziehungen für kommerzielle Aktivitäten Aufgrund des komplexen Netzwerks im Industriegeschäft und der hohen Aufsichtskosten konzentrieren sich Finanzinstitute in der Regel auf die Überwachung von Kernunternehmen in einer Lieferkette und nicht auf alle Unternehmen, was indirekt die Stärke und Effizienz der Finanzinstitute als Kapitalaufsichtsbehörde und Kreditrisiko mindert Transformator. Darüber hinaus verlangen die Banken von diesen Unternehmen, dass sie selbst korrekte Informationen bereitstellen, was der Objektivität der Quelleninformationen fehlt und die Aufsichtskosten für diese Banken erhöht. Daher fassen wir eine Aufgabe zur Erkennung von Unternehmensbeziehungen zusammen, in der Hoffnung, Investoren und Banken mehr Informationen über Unternehmen zugänglich zu machen, indem wir ein System aus öffentlich verfügbaren Datensätzen lernen. Wir betrachten diese Aufgabe als Klassifikationsproblem, und unser System kann Beziehungen zwischen zwei beliebigen Unternehmen vorhersagen, indem es sowohl auf strukturierten als auch auf unstrukturierten Daten lernt. Nach unserem besten Wissen ist es das erste Mal, dass Deep-Learning-Techniken für diese Aufgabe implementiert werden. Ein F1-Score von 0,769 wird von unserem System erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-22338-0_4 a67fbe1b0140303a43b4f646c9398608;de;;;5.3.;;;3D-Gesichtsverfolgung mit Erscheinungsbildregistrierung und robustem iterativem Closest-Point-Algorithmus Kürzlich haben Forscher deterministische und statistische, auf dem Aussehen basierende 3D-Gesichtsverfolgungsmethoden vorgeschlagen, mit denen die Bildvariabilitäts- und Driftprobleme erfolgreich angegangen werden können. Auf das Aussehen basierende Verfahren, die der 3D-Gesichtsverfolgung gewidmet sind, können jedoch unter Ungenauigkeiten leiden, da sie nicht sehr empfindlich gegenüber Bewegungsschwankungen außerhalb der Ebene sind. Andererseits kann die Verwendung dichter 3D-Gesichtsdaten, die von einem Stereo-Rig oder einem Entfernungssensor bereitgestellt werden, sehr genaue 3D-Gesichtsbewegungen/-posen liefern. Dieses Paradigma erfordert jedoch entweder eine genaue Gesichtsmerkmalsextraktion oder eine rechenintensive Registrierungstechnik (z. B. den Iterative Closest Point Algorithmus). In diesem Artikel schlagen wir einen 3D-Gesichtstracker vor, der auf der Erscheinungsbildregistrierung und einer schnellen Variante eines robusten Iterativen Closest Point-Algorithmus basiert. Der daraus resultierende 3D-Gesichts-Tracker kombiniert die Vorteile von Erscheinungsbild-basierten Trackern und 3D-Daten-basierten Trackern. Experimente mit realen Videodaten zeigen die Machbarkeit und Nützlichkeit des vorgeschlagenen Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/11902140_57 3660770a738a43fe7c2abcbadaa45d20;de;;;5.3.;;;Isolierte türkische Gebärdenspracherkennung in Echtzeit aus Video unter Verwendung von Hidden-Markov-Modellen mit globalen Funktionen Dieser Artikel stellt ein videobasiertes System vor, das Gesten der türkischen Gebärdensprache (TSL) erkennt. Hidden-Markov-Modelle (HMMs) wurden verwendet, um einen Gebärdenspracherkenner zu entwickeln, da HMMs aufgrund ihrer Fähigkeit, dynamische Bewegungen zu verarbeiten, die ideale Technologie für die Gestenerkennung zu sein scheinen. Es ist ersichtlich, dass das Abtasten von nur vier Keyframes ausreicht, um die Geste zu erkennen. Das System konzentriert sich nur auf die globalen Merkmale der generierten Zeichen und erreicht eine Wortgenauigkeit von 95,7%.;-;-;-;https://link.springer.com/chapter/10.1007/11569596_70 19b6a245ca627429a9e6358b60093a29;de;;;5.3.;;;Adaptive gemeinsame Bandbreiten- und Leistungszuweisung in heterogenen drahtlosen Zugangsumgebungen Die gemeinsame Bandbreiten- und Leistungszuweisung für ein Multi-Radio Access (MRA)-System in einer heterogenen drahtlosen Zugangsumgebung wird untersucht. Da sowohl die Anzahl der vom System bedienten Benutzer als auch der Zustand des drahtlosen Kanals zeitlich variieren, ist die optimale Ressourcenzuweisung kein statisches Optimum mehr und ändert sich mit dem variierenden Netzwerkzustand. Darüber hinaus können verteilte Ressourcenzuweisungsalgorithmen, die eine iterative Aktualisierung und Signalisierungsinteraktionen erfordern, nicht in vernachlässigbarer Zeit konvergieren. Daher ist es unrealistisch anzunehmen, dass die aktive Benutzernummer und der drahtlose Kanalzustand während der Iterationen unverändert bleiben. In diesem Papier schlagen wir einen adaptiven gemeinsamen Bandbreiten- und Leistungszuweisungsalgorithmus vor, der auf einem neuartigen Iterationsschrittgrößenauswahlverfahren basiert, das sich an den variierenden Netzwerkzustand anpassen und die Konvergenzrate beschleunigen kann. Eine verteilte Lösung wird auch für die adaptive gemeinsame Ressourcenzuweisungsimplementierung entworfen. Numerische Ergebnisse zeigen, dass der vorgeschlagene Algorithmus nicht nur das variierende Ergebnis der optimalen Ressourcenzuweisung viel schneller verfolgen kann als ein herkömmlicher Algorithmus mit fester Iterationsschrittweite, sondern auch die Datenübertragungszeit für Benutzer reduzieren und den Systemdurchsatz erhöhen kann.;-;-;-;https://link.springer.com/article/10.1007/s11432-013-4953-z 0acb41f617c2c0389e2a6c009843bb18;de;;;2.4.;;;Experimentelle Bewertung der Wirksamkeit Experimente bieten die Möglichkeit, mehrere Bedingungen zu variieren und so die Bedeutung bestimmter technischer Details zu beurteilen. Studien zur therapeutischen Wirksamkeit von Antituberkulotika umfassen drei Variablen: die Tuberkulose, das Medikament und den Erreger.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-72873-0_2 ad8e7ef7878cc86b0f5454143a99feee;de;;;5.3.;;;Verwenden von Model-Checking, um eine Schwachstelle der manipulationssicheren Paarung aufzudecken Wi-Fi Protected Setup ist ein Versuch, die Konfiguration der Sicherheitseinstellungen für Wi-Fi-Netzwerke zu vereinfachen. Es bietet unter anderem Push-Button Configuration (PBC) für Geräte mit eingeschränkter Benutzeroberfläche. Es gibt jedoch einige Sicherheitsprobleme in PBC. Eine Lösung für diese Probleme wurde in Form von Tamper-Evident Pairing (TEP) vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38088-4_5 92c53692c029a5bce77401936d89ddae;de;;;5.3.;;;Verbesserung der Anforderungsspezifikation im WebREd-Tool durch Verwendung einer NFR-Klassifikation Im Software Engineering (SE) hat ein System Eigenschaften, die sich aus der Kombination seiner Teile ergeben . Im Bereich Web Engineering (WE) tritt ein sehr ähnlicher Bereich auf, jedoch mit einigen anderen Problemen im Zusammenhang mit speziellen Eigenschaften der Webanwendungen wie der Navigation (bei der Anwendung der Sicherheit). In diesem Papier verbessern wir unser modellgetriebenes Tool namens WebREd-Tool, das das Anforderungsmetamodell um eine NFRs-Klassifizierung erweitert um die Qualität der endgültigen Webanwendung zu überprüfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39646-5_5 5ae0fb4153d421546343a7fc5ccb4028;de;;;5.3.;;;Sprachbasierte Navigation und Fehlerkorrektur: ein umfassender Vergleich zweier Lösungen Sprachbasierte Navigation und Fehlerkorrektur können eine nützliche Alternative für Menschen mit Behinderungen sein, die die Verwendung von Tastatur und Maus behindern, aber bestehende Lösungen in kommerzieller Software sind immer noch fehleranfällig und zeitaufwendig. In diesem Artikel werden zwei Studien diskutiert, die mit dem Ziel der Verbesserung der sprachbasierten Navigation und Fehlerkorrekturtechniken durchgeführt wurden. Die erste Studie wurde entwickelt, um das Verständnis einer innovativen sprachbasierten Navigationstechnik zu verbessern: der ankerbasierten Navigation. Die zweite Studie war ein Längsschnitt, umfasste sieben Studien und sollte Erkenntnisse über die Wirksamkeit sowohl der traditionellen ziel-/richtungsbasierten Navigation als auch der ankerbasierten Navigation liefern. Aufbauend auf früheren Studien, die ähnliche Methoden und Interaktionslösungen verwendeten, bietet dieses Papier auch eine informelle Bewertung eines neuen Korrekturdialogs. Obwohl die beiden Lösungen zu derselben Effizienz führten, waren die zugrunde liegenden Strategien unterschiedlich, und die ankerbasierte Lösung ermöglichte es den Teilnehmern, qualitativ hochwertigere Texte zu erstellen, und wurde als einfacher zu verwenden empfunden. Diese Ergebnisse legen nahe, dass die ankerbasierte Lösung eine vielversprechende Alternative sein könnte, insbesondere für Anfänger, die lernen, wie man sprachbasierte Diktierlösungen verwendet. Die Ergebnisse dieser Studien müssen unter Einbeziehung von Benutzern mit Behinderungen weiter validiert werden.;-;-;-;https://link.springer.com/article/10.1007/s10209-010-0185-9 3ef82ee0cbc674a5d51d98ab3eacbac6;de;;;5.3.;;;E-Learning-Authoring-Tool zur Wiederverwendung von Web-Multimedia-Ressourcen Die Wiederverwendung von Web-Multimedia-Ressourcen für den Unterricht kann Dozenten beim Verfassen von E-Kursen sehr helfen. Diese Ressourcen sind interessant, da sie nichtlineares Lernen fördern, das den Bedürfnissen und Einschränkungen der Lernenden entspricht. In diesem Beitrag wird ein E-Learning-Autorentool vorgestellt, das Web-Multimedia-Ressourcen wiederverwendet und in Lernobjekte für die Verwendung im E-Learning integriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49625-2_19 b61b704af016abd4694c375b347caca6;de;;;2.4.;;;Allium sativum L Knoblauch ist ein aufrechtes Kraut der ALLIACEAE-Familie, 30 bis 60 cm groß. Die Zwiebel steht auf einem scheibenförmigen Stängel, der aus mehreren Segmenten (Nelken) besteht und von einer gemeinsamen Membran umgeben ist, die sich an der Basis der Laubblätter befindet. Jede Gewürznelke besteht aus einer schützenden zylindrischen Hülle und einer kleinen zentralen Knospe. Die Blattspreite ist linealisch, flach und fest, 1 bis 2,5 cm breit und 30 bis 60 cm lang, mit einer spitzen Spitze. Blattscheiden bilden einen Pseudostamm. Der Blütenstand ist doldenförmig, mit glattem Stiel, rund, zunächst fest gewunden, von einer häutigen, langschnabeligen Spatha getragen, einseitig spaltend und an der Dolde hängend. Kleine Zwiebeln werden in Blütenständen produziert, Blüten sind zahlreich und manchmal fehlen sie, sie öffnen sich selten und können in der Knospe verwelken.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-59259-365-1_3 5e0ccd10b0e75ec2864780d179a569fb;de;;;2.4.;;;Auswahl der nächstgelegenen Schallquelle für die akustische Aufmerksamkeit des Roboters in Szenarien mit mehreren Quellen Die akustische Aufmerksamkeit durch Roboter beruht hauptsächlich auf der Lokalisierung von Schallquellen unter Verwendung eines Mikrofonarrays. Normalerweise erkennt der Roboter eine Schallquelle, wenn er sie ausstrahlt, schätzt ihre Richtung und dreht sich dann in diese Richtung, um aufmerksam zu sein. In Szenarien, in denen mehrere Schallquellen gleichzeitig emittieren, kann der Roboter jedoch Schwierigkeiten haben, eine einzelne Zielquelle auszuwählen. In diesem Artikel wird ein neuartiges akustisches Aufmerksamkeitssystem für Roboter vorgeschlagen, das auf der Wahrnehmung der Quellenentfernung basiert (z. B. Auswahl der nächstgelegenen unter lokalisierten Quellen). Das Mikrofon-Array besteht aus Head- und Base-Arrays, die im Kopf bzw. in der Basis des Roboters installiert sind. Die Schwierigkeit bei der Aufmerksamkeit zwischen mehreren Schallquellen wird gelöst, indem eine binäre Maske für jede Quelle basierend auf der Azimut-Lokalisierung des Kopfarrays geschätzt wird. Für jede einzelne Quelle, die durch eine binäre Maske repräsentiert wird, werden die Höhen von Kopf- und Basis-Array geschätzt und trianguliert, um die Entfernung zum Roboter zu erhalten. Schließlich wird die nächstgelegene Quelle bestimmt und ihre Richtung zur Steuerung des Roboters verwendet. Die Versuchsergebnisse zeigen deutlich den Nutzen des vorgeschlagenen Systems bei realen Innenaufnahmen von zwei und drei gleichzeitigen Schallquellen sowie bei einer Echtzeit-Demonstration auf einer Roboterausstellung.;-;-;-;https://link.springer.com/article/10.1007/s10846-015-0313-0 adc1eabcaccdef0b4b57d01196287709;de;;;2.4.;;;Optische Eigenschaften im Niedrigenergiebereich In diesem Kapitel werden die jüngsten Entwicklungen in den Jahren seit 1975 in Bezug auf die Untersuchung niederenergetischer optischer Eigenschaften von Schichtkristallstrukturen beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-4542-5_2 27f6d72a283669fc96bdf3fd68c7be9e;de;;;2.4.;;;Jod-123 Phenylpentadecansäure: Nachweis eines akuten Myokardinfarkts bei narkotisierten Hunden Langkettige Fettsäuren sind das bevorzugte Substrat des Herzmuskels. Daher sind radioaktiv markierte freie Fettsäuren eine natürliche Wahl für die nicht-invasive Untersuchung des Myokardstoffwechsels, und umfangreiche Forschung konzentrierte sich auf die Entwicklung radioaktiv markierter freier Fettsäuren für die Myokard-Bildgebung (1–5). Evanset al. 1965 erfolgreich radioiodierte (I-131) Ölsäure über eine Doppelbindung und erzeugte Rohbilder des Myokards bei Hunden, was das Potenzial radioaktiv markierter freier Fettsäuren für die externe, nichtinvasive Myokard-Bildgebung demonstrierte (1). Anschließend wurden Heptadecansäure und Hexadecansäure ausführlich an Versuchstieren untersucht und haben sich in vorläufigen klinischen Bewertungen als vielversprechend erwiesen (2–5). Bei der Myokard-Bildgebung haben die terminal jodierten geradkettigen freien Fettsäuren jedoch zwei Hauptprobleme, einschließlich (a) sie werden schnell vom Myokard metabolisiert und (b) eine signifikante Blutpool-Radioaktivität resultiert aus freiem Jodid, das zusammen mit der Beta-Oxidation von die Fettsäure im Myokard und in der Leber.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-4865-8_19 dcc7c2a8dd4e6f8eb110224180830e9d;de;;;5.3.;;;Einsatz von KI und GAs zur Verbesserung der traditionellen technischen Analyse in den Finanzmärkten Traditionell haben viele Aktienhändler das Maß (LMMA-SMA) verwendet \{((langfristiger gleitender Durchschnitt (z. B. 26 Wochen gleitender Durchschnitt)) – (Kurzfristiger gleitender Durchschnitt (z. B. 13 Wochen gleitender Durchschnitt)) \} um Auf- und Abwärtstendenzen des Aktienmarktes zu erkennen.In diesem Beitrag werden wir durch die verschiedenen Computersimulationen zeigen, dass die DSS, deren Geschäfte mit der Maßnahme (LMMA – SMA) durchgeführt werden, durch den Einsatz der KI-Techniken weiter verbessert werden . Wir schlagen auch vor, dass GAs für die Verbesserung des vorgeschlagenen DSS nützlich wären.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45224-9_147 92b3abe34ff8f272bba1b8c48eb66abe;de;;;2.4.;;;Individuelle Stimmdiskriminierung bei Vögeln Tiere unterscheiden zwischen vertrauten und unbekannten Artgenossen, wahrscheinlich um Zeit und Energie bei sozialen Interaktionen zu vermeiden. Die individuelle Anerkennung kann die Wahrscheinlichkeit teurer Kämpfe zwischen territorialen Nachbarn während der Ressourcenverteidigung verringern oder es Partnern, Verwandten oder Eltern und Nachkommen ermöglichen, sich dort zu finden, wo sich vertraute mit unbekannten Personen vermischen. Da die individuelle Anerkennung einen zeitaufwendigen Lernprozess mit sich bringen kann oder auf andere Weise kostspielig sein kann, wird sich die individuelle Anerkennung wahrscheinlich nur entwickeln, wenn der Nutzen diese Kosten überwiegt (z. B. Beer, 1970, Wilson, 1975, Falls, 1982, Beecher und Stoddard, 1990).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-1835-8_4 69812cd4c60fb750c90a2c27a94fdabf;de;;;5.3.;;;Aufgabenmigration Aktivieren der Neuplanung von Grid-Workflow-Anwendungen Dieses Papier konzentriert sich auf das Problem der Aufgabenmigration, das die Neuplanung von Grid-Workflow-Anwendungen ermöglicht, präsentiert ein reduziertes Aufgabendiagrammmodell und implementiert einen leistungsorientierten Neuplanungsalgorithmus basierend auf einem immungenetischen Algorithmus. Das Experiment zeigt, dass der Leistungsvorteil des vorgeschlagenen Umplanungsalgorithmus im Vergleich zum statischen Neuplanungsalgorithmus Adaptive Heterogeneous Earlyiest Finish Time und dem klassischen dynamischen Max-Min-Planungsalgorithmus offensichtlich ist, einerseits aufgrund des Leistungsbeitrags von globaler Optimierung und Task Migration, und andererseits wegen des Effizienzbeitrags der Task-Graph-Reduktion und der Konvergenzgeschwindigkeit des immunogenetischen Algorithmus. Es zeigt auch, dass die Aufgabenmigration die Anpassungsfähigkeit der Dynamik von Grid-Anwendungen weiter verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78849-2_15 4b1c3f295c4fb9126779260ed2113da3;de;;;2.4.;;;Unsicherheit bei der Herstellung von Leichtbauprodukten in Verbundlaminat – Teil 2: experimentelle Validierung Eines der Hindernisse für Verbundanwendungen ist die Geometriesicherung. Herkömmliche Maßkontrolloperationen für Verbundwerkstoffe basieren hauptsächlich auf Trial-and-Error-Ansätzen, die in der realen Teilekonstruktion und Werkzeugentwicklung nicht direkt und effektiv eingesetzt werden können. Angesichts der steigenden Nachfrage nach erschwinglichen, netzförmigen, montageeffizienten und effektiven Maßkontrolle nach Verbundprodukten ist es sehr wünschenswert. Derzeit können Verbundbauteile aufgrund fehlender Maßkontrolle nicht auf das für eine Baugruppe erforderliche Toleranzniveau verarbeitet werden. Eine bessere Maßkontrolle kann die Montage verbessern, zusätzliche Bearbeitungsschritte reduzieren und Teile für eine schnelle Reparatur und Nachrüstung austauschbar machen. Die Variationsanalyse stellt den besten Weg zur Lösung dieser Montageprobleme dar, um eine höhere Qualität und niedrigere Kosten zu gewährleisten, aber nur wenige Studien haben sich auf dieses Thema konzentriert. Ziel dieser Arbeit ist es daher, experimentell eine Baugruppe zu lösen, die aus Teilen aus Verbundmaterial besteht und durch Klebstoff verbunden ist, um diese Ergebnisse zur Validierung eines numerischen Werkzeugs zur Variationsanalyse nachgiebiger Teile zu verwenden.;-;-;-;https://link.springer.com/article/10.1007/s00170-018-3025-3 d4c714bbd132e681974c592a60828eb3;de;;;2.4.;;;Phasenbeziehungen einer natürlichen MARID-Zusammensetzung und Implikationen für die MARID-Genese, das Schmelzen der Lithosphäre und den Mantelmetasomatismus Schmelzexperimente wurden an einer natürlichen Glimmer-Amphibol-Rutil-Ilmenit-Klinopyroxen (MARID)-Probe aus der Kaapvaal-Mantel-Lithosphäre (AJE137) bei 20 bis 35 kbar und 800 bis 1450 °C durchgeführt. Bei 1260 °C und 30 kbar wurde ein Solidus bestimmt, oberhalb dessen Phlogopit, Clinopyroxen und Olivin mit einer alkalireichen Silikatschmelze stabil waren. Olivin ist die einzige kristallisierende Phase knapp unterhalb des Liquidus der AJE137-Massenzusammensetzung und K-Richterit war nur im Subsolidusbereich stabil (≤ 1100°C bei 30 kbar). Diese Ergebnisse stimmen mit früheren Studien in einfacheren Systemen überein. In Experimenten mit 10 Gew.-% zugesetztem Wasser wurde der Solidus um ca. 300 °C und K-Richterit wurde über diesem Solidus stabilisiert. MARIDs stellen eine potenzielle Tieftemperaturkomponente im lithosphärischen Mantel unterhalb des Kaapvaal-Kratons im südlichen Afrika dar. Die Zugabe von > 10 Gew.-% Wasser (mit einem Temperaturanstieg von weniger als 120°C über die Erdwärme) zu dieser Mantelregion würde Bedingungen für das Schmelzen dieser Komponente schaffen. Dies kann dann in jedes kontinentale Flutbasalt-Muttermagma eingearbeitet werden, das diesen lithosphärischen Mantel durchquert. Die Ableitung von MARIDs aus einer Silikatschmelze ihrer Massenzusammensetzung, selbst wenn Wasser gesättigt ist, wird als unwahrscheinlich angesehen, da solche Schmelzen mit so geringem Grad die erforderlichen erhöhten Liquidustemperaturen (> 1200°C bei 30 kbar) in einer Kälte (< 800° C bei 30 kbar) Mantellithosphäre. MARID-Xenolithe können durch die Wechselwirkung einer alkalireichen Flüssigkeit mit einem Peridotit oder als Rückstand eines kimberlitischen Stammmagmas der Gruppe II, das einer Fraktionierung von Olivin und der Auslösung einer Karbonatitkomponente unterzogen wurde, erzeugt werden.;-;-;-;https://link.springer.com/article/10.1007/BF00321222 5a053c3a1ef22cb8cd082b92ed0d5905;de;;;2.4.;;;Die Ökologie der sozialen Evolution bei Termiten Termiten (Isoptera) gehören zu den klassischen eusozialen Insekten und ihre Ähnlichkeit mit Ameisenkolonien ist so auffallend, dass sie gemeinhin als „weiße Ameisen“ bezeichnet werden. Die Termiten entwickelten jedoch ein eigenständiges soziales Leben, lange vor den Ameisen. Ihre unterschiedliche Abstammung spiegelt sich auch in mehreren grundlegenden Unterschieden in der Organisation der Kolonien wider. Dieses Kapitel zielt darauf ab, den Stand der Technik in der Termitenforschung zusammenzufassen und die Ergebnisse mit anderen sozialen Wirbellosen- und Wirbeltiersystemen zu vergleichen, um gemeinsame Prinzipien der sozialen Evolution aufzuzeigen. Zunächst gebe ich einen Überblick über die Biologie und Klassifikation der Termiten. Ich fahre mit einer Zusammenfassung der „Jagd“ nach einer genetischen Erklärung der Evolution der Termiten-Eusozialität fort. Anhand einer Fallstudie fasse ich ökologische Faktoren zusammen, die eine Kooperation bei einer niederen Termiten begünstigen, und zeige die Relevanz dieser Ergebnisse für andere Termitenarten auf. Basierend auf diesen Ergebnissen skizziere ich die möglichen evolutionären Übergänge in der Termiten-Eusozialität. Schließlich vergleiche ich die treibenden Kräfte bei Termiten mit denen bei kooperativ züchtenden Wirbeltieren und biete eine mögliche Erklärung dafür, warum sich bei Wirbeltieren trotz der oft auffallend ähnlichen ökologischen Belastungen in beiden Gruppen Eusozialität selten entwickelt hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75957-7_7 925d497e6e9014fe9c6341237c6531a2;de;;;2.4.;;;Genese der Bienen (Apoidea) Eine genaue Untersuchung hat gezeigt, dass die Herkunft der Überfamilie der Bienen (Apoidea), die ihre Larven nicht wie für die Wespen charakteristisch mit tierischer Nahrung, sondern mit Nektar und Blütenpollen füttert, eines der dunkelsten Probleme der die Evolution der Hymenoptera.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-7161-8_7 7a904dd929b267e62e1f6d1ab046bdbf;de;;;2.4.;;;Auswirkungen atmosphärischer Ablagerungen auf Blattverletzungen und Blattauslaugung in Rotfichte Der Erstkontakt der atmosphärischen Deposition mit dem Wald findet in den Baumkronen statt. Daher ist das Laub ein primärer Bereich, um nach einer Reaktion auf saure Ablagerungen und Ozon zu suchen. Zwei Hauptreaktionen der Blätter sind Zell- und Gewebeschäden und ein vermehrtes Auswaschen von Blattbestandteilen. Schadstoffe beeinflussen zunächst physiologische Prozesse und die Zellultrastruktur. Es gibt keine äußeren Anzeichen von Stress, obwohl der Baum geschwächt und im Wachstum beeinträchtigt sein kann. Letztlich treten bei ausreichend hoher Schadstoffdosierung sichtbare Symptome auf, die für einen bestimmten Schadstoff oder ein Schadstoffgemisch charakteristisch sind. Schwer verletzte Nadeln können schließlich vergossen werden. Sichtbare Blattsymptome sind wahrscheinlich die am häufigsten verwendeten Bioindikatoren für die Reaktion einer Pflanze auf Stress durch Luftverschmutzung. Sie erscheinen als Verfärbungen (z. B. Chlorose) und Nekrosen, die in verschiedenen Größen, Formen, Mustern und Stellen auf dem Blatt auftreten. Leider erzeugt kein Schadstoff eine einzigartige Reihe von Blattsymptomen, die sich von denen anderer Schadstoffe oder Belastungen unterscheiden. Blattverletzungen können Prozesse in Blättern wie Photosynthese, Atmung, Transpiration und Blattauslaugung beeinträchtigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-2906-3_7 62a9915bda837348f1b9b6767ba8a732;de;;;5.3.;;;Von Abhängigkeiten zwischen Objekten und Attributen Seit mehr als drei Jahrzehnten wird intensiv an wiederverwendbaren Lernobjekten geforscht. Sowohl Inhaltsanbieter als auch Informationstechnologieexperten arbeiten an der Entwicklung und Implementierung von Modellen, die den Prozess der Entwicklung, Speicherung, Klassifizierung und Bereitstellung von Lernobjekten an Schüler erleichtern können. Angesichts der zur Unterstützung dieses Prozesses erforderlichen Ressourcen und der derzeitigen Beschränkungen der Bildungsbudgets besteht offensichtlich weiterer Forschungsbedarf in diesem Bereich. In dieser Arbeit legen wir besonderes Augenmerk darauf, wie die am besten geeigneten Lernobjekte aus einer Datenbank ausgewählt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34289-9_15 722d02c190a83119d02acef8b2cb2398;de;;;5.3.;;;Auswirkung einer schwachen Hyperopie auf das stereoskopische Sehen Konvergenz, Akkommodation und Pupillendurchmesser wurden gleichzeitig gemessen, während die Probanden 3D-Bilder betrachteten. Die Probanden waren mittleren Alters und hatten eine schwache Hyperopie. WAM-5500 und EMR-9 wurden zu einem Originalgerät für die Messungen kombiniert. Es wurde bestätigt, dass sich Akkommodation und Pupillendurchmesser synchron mit der Konvergenz änderten. Diese Ergebnisse legen nahe, dass bei nacktem Sehen die Pupille verengt und die Schärfentiefe vertieft wird, was wie ein Kompensationssystem für schwache Akkommodationsfähigkeit wirkt. Dies deutet darauf hin, dass Menschen im mittleren Alter 3D-Bilder leichter betrachten können, wenn eine positive (konvexe Linsen) Korrektur vorgenommen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22021-0_39 41d575f2c9c837a9e3f8f8a1394e1916;de;;;5.3.;;;Visualisierung taktiler Materialbeziehungen unter Verwendung von Klangsymbolischen Wörtern Obwohl der Mensch Variationen taktiler Texturen reichlich wahrnehmen kann, sind die Beziehungen zwischen den Kategorien der taktilen Empfindung nicht eindeutig verallgemeinert. Hier schlagen wir eine neue Methode zur Klassifizierung von Empfindungen für taktile Texturen unter Verwendung von lautmalerischen Wörtern (lauten symbolischen Wörtern) im Japanischen vor. Das Verfahren erzeugt ein Verteilungsdiagramm von lautmalerischen Wörtern basierend auf subjektiven Eindrücken der Wörter und ermöglicht es Benutzern, die taktilen Texturen auf dem Diagramm in zweidimensional visualisierter Form anzuordnen und zu vergleichen. Wir beschreiben zwei Experimente, die zur Erstellung des Verteilungsdiagramms durchgeführt wurden, und untersuchen die Gültigkeit des Diagramms.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31404-9_30 5b73d5e43bf87ffa3e240b47991b5011;de;;;5.3.;;;Technologische Vorstellungskraft für barrierefreies Design: Aufrufe blinder Nutzer für sehende Informatikstudenten Wir schlagen einen Rahmen für die Gestaltung von Informatikkursen zu barrierefreiem Design vor, der sich auf blinde Benutzer konzentriert. Der vorherrschende Ansatz in der Literatur verfolgt die Motivation der Studierenden für barrierefreies Design durch drei Hauptquellen: ein „Gewebe von Argumenten“, das Nützlichkeit und Moral als Schlüsselüberlegungen hervorhebt, Empathie und Mainstreaming. Wir stellen Ästhetik als überzeugendes Motivationsmittel vor und appellieren an die technologische Vorstellungskraft, um die Arbeit sehender Schüler in einem persönlichen Projekt zum Weben eines Web of Voices zu gestalten. Wir präsentieren Argumente, Praktiken und Online-Ressourcen, um Lehrkräfte zu unterstützen, die blinde Benutzer für sehende Schüler zugänglich machen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25768-6_21 640f8382e64ea4cf573983e856c0b08d;de;;;2.4.;;;Gemeinsame Kontrolle: Eine Diskussion aktueller Forschung Die Unterscheidung des Beginns der gemeinsamen Kontrolle ist ein wichtiges Interpretationsinstrument zur Erklärung von Matching-Verhalten und anderen komplexen Phänomenen, aber die Schwierigkeit, experimentelle Kontrolle aller relevanten Variablen zu erlangen, steht einem definitiven Experiment im Weg. Die Studien in der vorliegenden Ausgabe von;-;-;-;https://link.springer.com/article/10.1007/BF03393040 452a7ef9438f352fa96da9abd66d73f7;de;;;2.4.;;;Modellgetriebene Migration in der angewandten Seismik Nach einer allgemeinen Diskussion des FORWARD PROBLEM (=Modellierung) und des INVERSEN PROBLEM (=Migration) in zwei Dimensionen, basierend auf der homogenen akustischen Wellengleichung, wird ein Datenbeispiel vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-76062-4_2 207c13258cfa45dbd2eefee9957c0b6d;de;;;2.4.;;;Erkennung und Auflösung von Verweisen auf Besprechungsdokumente Dieser Artikel beschreibt eine Methode zum Dokumenten-Sprach-Alignment basierend auf expliziten verbalen Verweisen auf Dokumente und Teile von Dokumenten im Kontext multimodaler Meetings. Der Artikel konzentriert sich auf die zwei Hauptphasen der Dialogverarbeitung für das Alignment: die Erkennung der Ausdrücke, die sich auf Dokumente in der transkribierten Sprache beziehen, und die Erkennung der Dokumente und Dokumentelemente, auf die sie sich beziehen. Die detaillierte Auswertung der implementierten Module, zunächst einzeln und dann in einer Pipeline, zeigt, dass die Ergebnisse deutlich über den Baseline-Werten liegen. Die Integration dieses Verfahrens mit anderen Techniken zur Dokumenten-/Sprachausrichtung wird schließlich diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/11677482_6 55d21749b1dd515cdc60363594e7b8a2;de;;;2.4.;;;Klassifizierung klonaler Wachstumsformen basierend auf vegetativer Mobilität und Ramet-Langlebigkeit: eine Analyse der gesamten Gemeinschaft Wir haben die Rhizomverzweigung, die klonale Mobilität und die Ramet-Langlebigkeit von 98 Wiesenpflanzenarten gemessen. Eine auf diesen Datensatz angewendete Clusteranalyse ergab neun klonale Wachstumstypen, die sich hauptsächlich durch die Ramet-Lebensdauer und die vegetative Mobilität unterscheiden. Dann verglichen wir die Häufigkeit dieser Gruppen klonaler Arten zwischen den drei folgenden Pflanzengemeinschaften: (1) offene, (2) wiederhergestellte und (3) bewachsene Waldwiesen im Laelatu-Nehatu-Puhtu-Naturreservat, Estland. Dies ist die erste Studie, in der die quantitativen Werte unterirdischer klonaler Merkmale für alle Arten einer artenreichen Gemeinschaft gemessen wurden. Wir zeigen, dass Arten mit einjährigen Ramets und mit geringer vegetativer Mobilität im offenen Grasland am häufigsten vorkommen. Die relative Häufigkeit mehrjähriger Arten mit einjährigen Ramets war positiv mit der Sprossdichte und der Artenvielfalt korreliert, was darauf hindeutet, dass hohe Ramet-Umsatzraten in Kombination mit einer hohen Genet-Langlebigkeit die Koexistenz von Arten in Wiesengemeinschaften positiv beeinflussen können. Somit liefert diese Studie Belege dafür, dass die Durchschnittswerte der klonalen Lebensverlaufsparameter zwischen diesen Gemeinschaften unterschiedlich sind. Kräutergemeinschaften unter Baumkronen bestehen im Durchschnitt aus Arten mit Ramets, die länger leben und klonal mobiler sind als in den Gemeinschaften auf offenen Standorten.;-;-;-;https://link.springer.com/article/10.1023/A%3A1016093116926 22bf913188e17b446ccdbfba4081ae58;de;;;2.4.;;;MR-Bildgebung von entzündlichen Gelenkerkrankungen an Fuß und Sprunggelenk Schmerzen im Fuß- und Sprunggelenk sind ein häufiges Beschwerdebild, das häufig auf entzündliche Gelenkerkrankungen zurückzuführen ist. Obwohl die konventionelle Radiographie als erster Schritt in der diagnostischen Abklärung angesehen wird, kann die MR-Bildgebung aufgrund der direkten Visualisierung des bei der Erkrankung gebildeten entzündlichen Weichgewebes und seiner Auswirkungen auf Knochen, Knorpel und paraartikuläre Strukturen zur weiteren Beurteilung dieser Patienten beitragen . Die hohe räumliche Auflösung der MR-Bildgebung in Kombination mit der Gewebecharakterisierung ermöglicht oft die erste Erkennung entzündlicher Gelenkanomalien in einem Stadium, das der röntgenologischen Beurteilung vorausgeht. Das MR-typische Erscheinungsbild bestimmter entzündlicher Gelenkerkrankungen kann bei der Eingrenzung der breiten Differenzialdiagnose hilfreich sein. Darüber hinaus kann die MR-Bildgebung zur genauen Einschätzung des Ausmaßes der Erkrankung sowie ihrer Komplikationen eingesetzt werden. Genaue diagnostische Informationen können den Kliniker bei weiteren diagnostischen Tests und der Durchführung einer angemessenen therapeutischen Behandlung leiten.;-;-;-;https://link.springer.com/article/10.1007/s002560050571 236bdddd23bfc364c04e0201c0c28b5f;de;;;5.3.;;;Erkennung von Augenbewegungen mithilfe von Elektrookulographiesignalen Heutzutage nimmt die Zahl der Menschen mit schweren motorischen Behinderungen bemerkenswert zu. Diese Behinderung hindert sie allmählich daran, alle ihre Gliedmaßen zu bewegen, und sie können nur durch die Bewegung ihrer Augen mit ihrer äußeren Umgebung kommunizieren. Daher sind Human Computer Interfaces (HCI) herausgekommen, um diesen Menschen einen neuen Kommunikationsweg zu bieten, der auf der Erkennung von Augenbewegungen basiert. Augenbewegungen werden mittels Elektrookulogramm (EOG) aufgezeichnet. Diese Signale werden erfasst, indem Elektroden horizontal und vertikal um die Augen gelegt werden. In dieser Arbeit werden die fünf Augenbewegungen nach links, rechts, oben, unten und Blinzeln klassifiziert, indem sowohl horizontale als auch vertikale EOG-Signale untersucht werden. Statistische und geometrische Merkmale werden aus EOG-Signalen extrahiert, nachdem die diskrete Wavelet-Transformation (DWT) angewendet wurde. In dieser Studie werden sechs Klassifikatoren untersucht, wobei sowohl horizontale als auch vertikale EOG-Merkmale verwendet werden. Die experimentellen Ergebnisse zeigen die Überlegenheit des Naive Bayes Klassifikators.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-44289-7_46 51ecb6ce9aadec2bc162a033bba9fdbe;de;;;5.3.;;;Aktuatoren aus Formgedächtnislegierung für Roboterendeffektoren Der Mangel an kompakten, leichten Aktoren, die die Drehmomente erzeugen können, und die sanften Bewegungen, die für feine Manipulationsaufgaben erforderlich sind, sind ein Haupthindernis für die Entwicklung praktischer, geschickter Endeffektoren (Hände, Beine) für fortgeschrittene Roboter.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83957-3_16 439c7a8ddb6e1956c72fdd44948b05c1;de;;;2.4.;;;Elektromyographische Reaktionen auf eine mechanische Störung, die während bevorstehender Armbewegungen in verschiedene Richtungen angewendet wird: Ein- und Zweigelenkzustände Directional Tuning ist ein allgemeiner Befund für viele physiologische Merkmale von Armbewegungen und der damit verbundenen neuronalen Aktivität. Wir untersuchten, ob die elektromyographische Reaktion auf eine kurze (30 ms) Drehmomentstörung vor einer willkürlichen Bewegung von der Richtung der bevorstehenden Bewegung abhängt. Zeigebewegungen mit dem Ellbogengelenk allein und solchen mit Schulter- und Ellenbogengelenken wurden in getrennten Experimenten untersucht. Die Zielrichtung wurde zwischen Flexion und Extension für die Eingelenkexperimente und zwischen vier Raumrichtungen für die Zweigelenkexperimente variiert. Bewegungsversuche, bei denen eine Störung die Beugemuskeln kurz vor der Zeigebewegung streckte, wurden in jedem Experiment zufällig zwischen ungestörten Bewegungsversuchen eingestreut. Eine kleine Vorbelastung sorgte für eine gewisse Hintergrundaktivität der Beugemuskeln. Die Ergebnisse waren für die Ein- und Zweigelenkbedingungen bemerkenswert ähnlich. Die Reflexantwort mit kurzer Latenzzeit der gedehnten Muskulatur (in einem 30–60 ms-Fenster nach Einsetzen der Störung) wurde nicht statistisch signifikant mit der Richtung der Zielerreichungsbewegung moduliert, was frühere Befunde für Eingelenkbewegungen bestätigt und diese erweitert zum Zweigelenkzustand. Außerhalb des Fensters mit kurzer Latenzzeit provozierte die Störung frühere Einbrüche von zielerreichenden Muskelaktivitäten für die Agonistenmuskeln, unabhängig davon, ob der Muskel durch die Störung gedehnt wurde oder nicht. Auch der Beginn der Bremsaktivität der Antagonistenmuskulatur trat bei der kurzen Störung vor der Bewegung früher auf, unabhängig davon, ob der Muskel gedehnt war oder nicht. Das Ausmaß der zielerreichenden Muskelaktivität war im Allgemeinen bei den gestörten Versuchen größer, wenn auch nicht konsistent für alle Muskeln oder alle Richtungen. Diese Ergebnisse deuten darauf hin, dass die Auswirkungen der Dehnung mit langer Latenz stark von der beabsichtigten Bewegungsrichtung abhängen, wenn die Bewegung kurz vor dem Beginn der Bewegung steht, sowohl bei Einzel- als auch bei Mehrgelenkerkrankungen. Die Abhängigkeit ist derart, dass die Reaktion dazu dient, die beabsichtigte Bewegung zu beschleunigen und zu verstärken, aber nicht notwendigerweise, um der Störung entgegenzuwirken.;-;-;-;https://link.springer.com/article/10.1007/s002210000356 e99d161c314c20e4a0eb30ca8185bf23;de;;;2.4.;;;Zytoplasmatische Schwanzadapter von Alzheimers Amyloid-β-Proteinvorläuferal Die Alzheimer-Krankheit ist pathologisch durch senile Plaques im Gehirn gekennzeichnet. Der Hauptbestandteil seniler Plaques ist Amyloid-β (Aβ), das vom Alzheimer-Aβ-Proteinvorläufer (AβPP) abgespalten wird. In letzter Zeit sind Informationen über den zytoplasmatischen Schwanz von AβPP aufgetaucht, die verschiedene Einblicke in die physiologische Rolle von AβPP und seine pathologische Rolle bei der Alzheimer-Krankheit eröffnen. Die zytoplasmatische Domäne von AβPP teilt das evolutionär konservierte GYENPTY-Motiv, das an eine Reihe von Adapterproteinen bindet, die die Phosphotyrosin-Interaktionsdomäne (PID) enthalten. Unter den PID-haltigen Proteinen konzentriert sich dieser Artikel auf vier Gruppen von Adapterproteinen von AβPP: Fe65, X11, mDab1 und c-Jun;-;-;-;https://link.springer.com/article/10.1385/MN%3A30%3A2%3A185 20a7483830abb53068639abc7482c393;de;;;2.4.;;;Elektrokardiographische Muster eines drohenden Koronarverschlusses unabhängig von instabilen anginalen Symptomen Die nicht-chirurgische Revaskularisierung mit thrombolytischen Mitteln oder die Angioplastie-(PTCA)-Technik erzeugt als Teil der therapeutischen Wirkung eine instabile Koronarstelle. Thrombolytische Wirkstoffe lösen das Blutplättchen/Thrombin-Gerinnsel auf, verändern jedoch möglicherweise nicht die darunter liegende geplatzte Plaque, die zuerst die thrombogene Kaskade stimuliert hat. PTCA-Ballon-Inflationen brechen und reißen Plaque-eingebettete koronare Intima, wodurch ein Entzündungsherd und frisches Kollagen freigesetzt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-09434-1_11 57b08d69e6468fc8c9d514584d328dd8;de;;;2.4.;;;Struktur und Evolution von Genen, die Polyubiquitin in Meeresschwämmen kodieren Die Molekularbiologie hat mit ihren raschen Fortschritten bei neuen Techniken die evolutionären Untersuchungen drastisch beeinflusst und ein neues Gebiet, die molekulare Evolution, wurde kürzlich gegründet. In der Vorperiode stützten sich traditionelle Evolutionsbiologen bei ihren Untersuchungen auf vergleichende Anatomie, Embryologie und Paläontologie. Die Erkenntnis der enormen phylogenetischen Informationen in Nukleotid- (nt) und Aminosäuresequenzen (aa) lenkte die Bemühungen der molekularen Evolutionisten auf die Extraktion und Analyse dieser Informationen. Die vergleichende Analyse konservierter Gene (Proteine) in verschiedenen zeitgenössischen Organismen liefert Informationen über antike Ereignisse in der Natur und erleichtert die Rekonstruktion der biologischen Geschichte der lebenden Welt erheblich. Die Natur des ersten gemeinsamen Vorfahren aller Lebewesen ist eines der zentralen, noch ungelösten Probleme der Biologie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-72236-3_8 4730ba61558bbc5336e769646bee2183;de;;;5.3.;;;Spielmodellforschung für Urbanisierung und Seuchenbekämpfung Um die nachhaltige Entwicklung von Städten zu unterstützen, untersucht dieses Papier Methoden zur Urbanisierung und zur Seuchenbekämpfung. Auf der Grundlage der Spieltheorie aus der modernen Kontrolltheorie wird eine Reihe von Strategien zur Modellierung von Urbanisierung und Seuchenbekämpfung untersucht, indem der aktuelle Zustand Chinas einschließlich seiner Bevölkerung, Wirtschaft, Ressourcen und Stadtmanagementmethoden analysiert und untersucht wird. Lösungsstrategien für Urbanisierung und Epidemiekontrolle werden untersucht und die Lösung für ein simuliertes Beispiel bereitgestellt. Die Schlussfolgerung aus dieser Untersuchung ist, dass die Geschwindigkeit der chinesischen Urbanisierung verlangsamt werden sollte, um den Ressourcenbedingungen und dem Niveau des verfügbaren Stadtmanagements gerecht zu werden.;-;-;-;https://link.springer.com/article/10.1007/s11633-005-0013-5 671013c2cade92a38bd264256bc0cb0e;de;;;5.3.;;;Peakhöhenbestimmung bei der Analyse von Chlortetracyclin in Futtermitteln Bei einem HPLC-Verfahren zur Analyse von Chlortetracaclin (CTC) in Tierfutter trat ein Problem mit dem Vorhandensein von Peaks auf, die vor dem Auftreten eines nachfolgenden Peaks nicht zur Grundlinie zurückkehrten. Zur Bestimmung der Peakhöhe wurden zwei Methoden verwendet. Bei der ersten Methode wurde eine Senkrechte vom Maximum des zweiten Peaks fallen gelassen. Eine lineare Funktion wurde dann an die abfallende Steigung des ersten Peaks angepasst. Der Schnittpunkt wurde als Basislinienpunkt genommen. Im zweiten Ansatz wurde stattdessen eine Polynomanpassung verwendet. Die Ergebnisse zeigen eine ausgezeichnete Übereinstimmung mit Analysen, die mit etablierter Methodik erhalten wurden. Dieser Ansatz bietet eine praktische Methode zur Bestimmung von Chlortetracyclin in Tierfutter, die die Analyse von bis zu sechs Proben innerhalb von 8 Stunden ermöglicht.;-;-;-;https://link.springer.com/article/10.1007/BF02688492 46eee5a5a89431eb3715bfc12c9ca50c;de;;;5.3.;;;Die Entwicklung eines universellen taktilen Grafikproduktionssystems BPLOT2 Wir stellen ein neues taktiles Grafikproduktionssystem mit universellem Design vor: BPLOT2. Mit BPLOT2 können Blinde und Sehende Ressourcen teilen und gemeinsam taktile Grafiken zeichnen, die in Blindenschrift-Lehrbüchern und Lehrmaterialien verwendet werden können. Gegenwärtige Anwendungen für taktiles Grafikdesign haben nur eine GUI (Graphical User Interface) mit der Notwendigkeit von Mausoperationen und sind daher für Blinde nicht verwendbar. Ebenso unpraktisch, unser selbsttragendes taktiles Grafikproduktionssystem für Blinde, BPLOT, hat nur CUI (Character User Interface), daher ist BPLOT bei den Sehenden nicht beliebt. Daher haben wir GUI auf BPLOT implementiert und Universal Design auf BPLOT2 realisiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-70540-6_141 2c0acb87de86141741c83d14a7d286b9;de;;;2.4.;;;Spektrophotometrie und Lumineszenzspektroskopie von Acetohydroxamat-Komplexen trivalenter Lanthanoid- und Actinid-Ionen Die Chemie der Komplexbildung von Acetohydroxamsäure (HA) mit den dreiwertigen Eu-, Tb- und Cm-Ionen wurde durch Kombinationen von optischer Absorptionsspektroskopie (OAS), zeitaufgelöster laserinduzierter Fluoreszenzspektroskopie (TRLIFS) und Emissionsspektroskopie untersucht, wobei einige eher unerwartete Trends vorliegen beobachtet. Die Bildung von vier komplexierten Spezies wurde für alle drei Metallkationen durch OAS nachgewiesen. Die Beträge der Bildungskonstanten der jeweiligen M(A);-;-;-;https://link.springer.com/article/10.1007/s10953-007-9149-y e8e11b4e93816cda7e7d8a8f0ae97282;de;;;5.3.;;;Anfälligkeit für Gravitationsprozesse aufgrund von Landbedeckungsänderungen im Unterbecken Río Chiquito-Barranca del Muerto (Vulkan Pico De Orizaba, Mexiko) Die Veränderung der Landbedeckung kann zu Hanginstabilität führen, indem erosive Prozesse im Zusammenhang mit Land- und Forstwirtschaft und Infrastruktur beschleunigt werden. Das Teilgebiet Rio Chiquito-Barranca del Muerto hat aufgrund von Regierungsprogrammen und der Ansiedlung landwirtschaftlicher und städtischer Gebiete eine Zunahme der Landbedeckung erfahren. Das Ziel dieser Studie war die Bereitstellung eines Modells zur Kartierung der Anfälligkeit für Gravitationsprozesse entlang von Orten, an denen anthropogene Landbedeckungsänderungen aufgetreten sind. Die Methode basierte auf der Schichtung des Teilgebiets nach Landschaftsformen und kartographischen Variablen. Diese Variablen wurden in einer multikriteriellen Bewertung verwendet, um Gewichte entsprechend ihrem Beitrag zum Einsetzen neuer Gravitationsprozesse zuzuweisen. Diese Gewichte wurden verwendet, um eine Anfälligkeitskarte basierend auf einer gewichteten linearen Summe zu erstellen. Die Genauigkeit der resultierenden Karte wurde in einer Fehlermatrix mit einem zufällig geschichteten Design basierend auf Anfälligkeitsklassen pro Landschaftsform validiert. Die Ergebnisse ergaben eine Karte von Gebieten mit Anfälligkeit für Gravitationsprozesse aufgrund von Landbedeckungsänderungen, diese Anfälligkeit ist im undifferenzierten pyroklastischen Hang und Kalksteingebirge sehr hoch, wo sie nicht nur auf anthropogene Auswirkungen auf die natürliche Vegetationsdecke, sondern auch auf Steilhänge zurückzuführen ist , verwitterte Materialien, geringe scheinbare Dichte, hohe Erosivität und frühere Gravitationsprozesse. Die Ergebnisse unterstützen andere Studien, die zu dem Schluss kamen, dass Vegetationsverlust ein auslösender Faktor bei der Entstehung von Gravitationsprozessen ist, zeigen aber auch, dass eine übermäßige Aufforstung Gravitationsprozesse verstärken kann.;-;-;-;https://link.springer.com/article/10.1007/s11629-016-4268-9 63ef75df2d98a976516ab24de87338cf;de;;;5.3.;;;Sedimentquellen im Watt vor der Küste von Zhejiang, Südostchina Das Wachstum der Wattflächen vor den Küsten von Zhejiang im Südwesten Chinas hat erhebliche Flächen für die lokale Landwirtschaft und Bautätigkeiten geschaffen. Um die moderne und zukünftige Entwicklung des Wattenmeeres in der Region zu bewerten, ist ein gutes Verständnis der Sedimentquellen erforderlich. Frühere Forschungen haben ergeben, dass der Changjiang-Fluss (Yangtze) der dominierende Sedimentlieferant für diesen Teil der südostchinesischen Küste ist, obwohl die Sedimentlieferungen aus dieser Quelle in den letzten zwei Jahrzehnten deutlich zurückgegangen sind. In dieser Studie haben wir die Quellen der Wattsedimente untersucht und die magnetischen und geochemischen Eigenschaften neuer Wattsedimente entlang der Küste von Zhejiang mit denen aus Flüssen verglichen. Magnetische und geochemische Eigenschaften der Wattproben zeigen statistisch unterschiedliche Sedimentherkunftsgruppen. Die magnetischen und geochemischen Streudiagramme zeigen, dass die suspendierten Sedimentproben natürlich in zwei verschiedene Gruppen unterteilt sind, eine einschließlich des Materials des Changjiang-Flusses und des Qiantang-Flusses und die andere einschließlich der Flüsse Jiaojiang, Oujiang und Feiyun, die sich im zentralen und südlichen Teil befinden der Studienbereiche. Schließlich wurde eine binäre Quelle von Gezeitensedimenten entlang der Küste von Zhejiang festgestellt, wobei der Großteil aus lokalen Flüssen stammt, während ein viel geringerer Anteil aus dem Changjiang-Fluss im Norden stammt. Wir kommen zu dem Schluss, dass der Sedimentbeitrag des Changjiang-Flusses zur Wattentwicklung in der Region deutlich überschätzt wurde, was wichtige Auswirkungen auf das Management hat.;-;-;-;https://link.springer.com/article/10.1007/s00343-020-0179-2 d5be9d6880a778c28bda68d322d587f5;de;;;5.3.;;;Erklärung und Vertrauen: Was soll man dem Nutzer in Sachen Sicherheit und KI sagen? Es gibt ein häufiges Problem in der künstlichen Intelligenz (KI) und der Informationssicherheit. In der KI muss ein Expertensystem in der Lage sein, eine Entscheidung gegenüber dem Nutzer zu begründen und zu erklären. In der Informationssicherheit müssen Experten der Öffentlichkeit erklären können, warum ein System sicher ist. In beiden Fällen besteht ein wichtiges Erklärungsziel darin, das Vertrauen der Nutzer zu gewinnen oder zu erhalten. In diesem Beitrag untersuche ich den Zusammenhang zwischen Erklärung und Vertrauen im Kontext der Informatik. Diese Analyse stützt sich auf Literaturstudien und Konzeptanalysen unter Verwendung von Elementen der Systemtheorie sowie der Akteur-Netzwerk-Theorie. Ich wende den konzeptionellen Rahmen sowohl auf KI als auch auf Informationssicherheit an und zeige den Nutzen des Rahmens für beide Bereiche anhand von Beispielen auf. Der Schwerpunkt liegt auf Expertensystemen (KI) und elektronischen Wahlsystemen (Sicherheit). Abschließend diskutiere ich Konsequenzen der Analyse für die Ethik im Hinblick auf (un)informierte Zustimmung und Widerspruch und die damit verbundene Aufgabenverteilung.;-;-;-;https://link.springer.com/article/10.1007/s10676-010-9253-3 b468d914376793b7c4c8666b66bcb0a7;de;;;5.3.;;;Das Cauchy-Problem für die stochastische verallgemeinerte Benjamin-Ono-Gleichung Die vorliegende Arbeit widmet sich dem Cauchy-Problem für die stochastische generalisierte Benjamin-Ono-Gleichung. Indem wir die bilineare Schätzung, trilineare Schätzungen in einigen Bourgain-Räumen, erstellen, beweisen wir, dass das Cauchy-Problem für die stochastische verallgemeinerte Benjamin-Ono-Gleichung für die Anfangsdaten lokal gut gestellt ist;-;-;-;https://link.springer.com/article/10.1007/s11425-019-1620-y 832c6c42aa1373246f04aab24040294d;de;;;5.3.;;;Global starke Lösung des Cauchy-Problems von 1D-kompressiblen MHD-Gleichungen mit großen Anfangsdaten und Vakuum In dieser Arbeit wird das Cauchy-Problem der 1D-Kompressiblen Magnetohydrodynamik-Gleichungen betrachtet. Wir stellen die globale Existenz und Eindeutigkeit einer starken Lösung fest, wenn der Viskositätskoeffizient als konstant oder dichteabhängig angenommen wird. Die Analyse basiert auf einigen neuen mathematischen Techniken und der gewichteten Caffarelli-Kohn-Nirenberg-Ungleichung, um die;-;-;-;https://link.springer.com/article/10.1007/s00033-019-1078-2 8bd9da291598f0cd719318ace9037553;de;;;2.4.;;;Anwendung von Zeit-Frequenz-Transformationen auf die Verarbeitung vollständiger Wellenformen aus akustischen Protokollen Der Artikel befasst sich mit der Anwendung von Zeit-Frequenz-Methoden, Continuous Wavelet Transform (CWT) und Matching Pursuit Algorithmus (MP) auf die akustische Vollwellenformverarbeitung. Ziel der Forschung ist es, Anwendungsmöglichkeiten dieser Methoden aufzuzeigen, insbesondere für die genaue Identifizierung ausgewählter akustischer Wellen, die Zerlegung der Wellenformen in einzelne Wellen und die Bestimmung von Zonen unterschiedlicher elastischer Parameter in den geologischen Profilen.;-;-;-;https://link.springer.com/article/10.2478/s11600-009-0043-4 d7534334f36677abb783418c1e33ba14;de;;;2.4.;;;Transkription und Translation von Hitzeschock und normalen Proteinen in Sämlingen und sich entwickelnden Samen von Sojabohnen, die einem allmählichen Temperaturanstieg ausgesetzt sind Hitzeschockproteine ​​(hsps) werden bei höheren Temperaturen in Sojabohnensämlingen synthetisiert, die einem allmählichen Temperaturanstieg im Vergleich zu einem schnellen Hitzeschock (hs) ausgesetzt sind. Es gibt Unterschiede im Synthesemuster verschiedener HSPs, je nachdem, ob die Temperatureinwirkung schnell oder allmählich erfolgt. Die Synthese von Proteinen bei normaler Temperatur erfolgt auch bei höheren Temperaturen nach einem allmählichen Temperaturanstieg als nach einer schnellen hs. Die bei einem allmählichen Temperaturanstieg beobachtete erhöhte Proteinsynthese ist auf erhöhte mRNA-Spiegel zurückzuführen. Im Allgemeinen werden die mRNAs für Aktin und die hsps nach einem allmählichen Temperaturanstieg bei Temperaturen um 6 bis 9 °C höher gefunden als nach einer schnellen hs. Während hsps in sich entwickelnden Samen nach beiden Arten der Hitzebehandlung nachgewiesen werden, wird bei den höheren Temperaturen nach einem allmählichen Temperaturanstieg im Vergleich zu einem schnellen hs auf die gleichen Temperaturen eine Zunahme der HSP-Synthese beobachtet. Die einzigen Proteine, die bei den höchsten Temperaturen (49°C) nach einem allmählichen Temperaturanstieg synthetisiert werden, sind die Vorläufer der Speicherproteine ​​und der HSPs. Nach einem allmählichen Temperaturanstieg sind die mRNAs für die 11S-Speicherproteine ​​in relativ großen Mengen bis zu 43 °C vorhanden, danach abnehmend, aber bei 52 °C nachweisbar, während die hsp-mRNA-Spiegel von 40 bis 52 °C relativ konstant waren.;-;-;-;https://link.springer.com/article/10.1007/BF00020626 cb33b1e6d2e5b40bd6abf270f63ee215;de;;;2.4.;;;Körperzusammensetzung des Fötus In den letzten 100 Jahren wurden mehrere Dutzend menschliche Föten und Neugeborene mit chemischen Methoden auf Wasser, Elektrolyte, Mineralien und Fett untersucht. Deutsche Wissenschaftler waren die ersten, die solche Studien durchführten, mit mehreren Berichten in den späten 1800er und frühen 1900er Jahren, Amerikaner kamen in den 1930er Jahren auf die Bühne, dann begannen in den 1950er Jahren britische Arbeiter unter der Leitung von Dr Beobachtungen. Dr. Widdowson und Professor R. A. McCance und ihre Mitarbeiter waren dafür verantwortlich, ein neues Interesse an der Körperzusammensetzung zu wecken, und zusammen haben sie eine große Menge an Daten zu diesem Thema produziert. Viele der in diesem Kapitel präsentierten Daten sind das direkte Ergebnis ihrer Arbeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-4654-1_3 4b8e0ab4969b0f71f89cd1cc88e62903;de;;;5.3.;;;Lebenszyklus-Energieanalyse eines isolierten Photovoltaik-Wind-Batterie-Mikronetzes in Indien In Entwicklungsländern wie Indien ist Stromknappheit ein großes Problem, insbesondere in ländlichen Regionen mit minimalem oder keinem Zugang zum zentralen Stromnetz. Die Nutzung dezentraler Energiequellen in Form von dezentralen Microgrids oder Minigrids wird dem Problem der Energieknappheit bis zu einem gewissen Grad Rechnung tragen. Sie können Strom im netzgekoppelten oder isolierten Modus liefern. Zur Erhöhung der Systemzuverlässigkeit können an das System Lang-, Mittel- und Kurzzeit-Energiespeicher (ESD) angeschlossen werden. Die Nachhaltigkeit von Microgrids muss untersucht werden und wurde anhand verschiedener Metriken in Bezug auf Lebenszyklusenergie, Kosten und CO2-Fußabdruck gemessen. Lebenszyklus-Energieanalyse (LCEA) für ein 6,8 MW;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8221-9_117 00ab017dc8f39c66c25ebe65f46716ec;de;;;2.4.;;;Rasterelektronenmikroskopie Seit dem Erscheinen des ersten kommerziellen Rasterelektronenmikroskops (REM) vor drei Jahrzehnten wurden große Fortschritte bei der Auflösung, neuen Elektronensondenquellen, der Entwicklung zusätzlicher Modi und der Computerisierung (einschließlich integrierter Bildspeicherfunktionen in der aktuellen Generation von Instrumente). Diese Fortschritte wurden von einer zunehmenden Zahl von Anwendungen in einer Vielzahl von Bereichen begleitet, und das REM wurde zu einem unverzichtbaren Werkzeug in verschiedenen Forschungsbereichen, das eine Fülle von Informationen über physikalische, strukturelle und Zusammensetzungseigenschaften einer Vielzahl von Materialien liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-1492-7_2 872e76447708685c6e9aada41d389c45;de;;;5.3.;;;Quantenschleifenprogramme Loop ist ein mächtiges Programmkonstrukt in der klassischen Berechnung, aber seine Leistungsfähigkeit wird in der Quantenberechnung noch nicht voll ausgeschöpft. Die Nutzung dieser Leistung erfordert definitiv ein tiefes Verständnis des Mechanismus von Quantenschleifenprogrammen. In diesem Papier stellen wir ein allgemeines Schema von Quantenschleifen vor und beschreiben ihren Rechenprozess. Die von einer Quantenschleife berechnete Funktion wird definiert, und es werden eine denotationale Semantik und eine Semantik der schwächsten Vorbedingung einer Quantenschleife angegeben. Für Quantenschleifen werden die Begriffe Termination und Fast Termination vorgeschlagen. In dieser Arbeit wird nur der Fall endlichdimensionaler Zustandsräume betrachtet. Notwendige und ausreichende Bedingungen für die Beendigung und beinahe Beendigung einer allgemeinen Quantenschleife in jedem gemischten Eingangszustand werden vorgestellt. Eine Quantenschleife heißt (fast) terminierend, wenn sie (fast) bei einem beliebigen Eingangszustand terminiert. Wir zeigen, dass eine Quantenschleife genau dann fast terminiert, wenn sie gleichmäßig fast terminiert. Es wird beobachtet, dass eine kleine Störung entweder bei der unitären Transformation im Schleifenkörper oder bei der Messung im Schleifenschutz jede Quantenschleife (fast) zum Abbruch bringen kann, vorausgesetzt, dass eine gewisse Dimensionsbeschränkung erfüllt ist. Darüber hinaus wird eine Darstellung der von einer Quantenschleife berechneten Funktion in Form endlicher Summen von Matrizen gegeben. Um die in dieser Arbeit gewonnenen Begriffe und Ergebnisse zu veranschaulichen, werden zwei einfache Klassen von Quantenschleifenprogrammen, eine Qubit-Quantenschleife und zwei Qubit-Quantenschleifen, die durch kontrollierte Gatter definiert werden, sorgfältig untersucht Beschreibung von Quantenwanderungen.;-;-;-;https://link.springer.com/article/10.1007/s00236-010-0117-4 581f9f9e0d61a3ebde39294848d6dd04;de;;;5.3.;;;Mehrfachfehlerdiagnose von Bohrlochbedingungen von Sauggestänge-Pumpbrunnen basierend auf Freeman-Kettencode und DCA Es ist wichtig, im tatsächlichen Ölfeldbetrieb einen kontinuierlichen, stabilen und effizienten Pumpbrunnenbetrieb zu erreichen. Die Arbeitsbedingungen von Bohrlöchern im Bohrloch können in Echtzeit überwacht werden und ein vernünftiges Produktionsschema kann entworfen werden, wenn eine Computerdiagnose verwendet wird. Es ist jedoch schwierig, eine umfassende Analyse durchzuführen, um eine effiziente technische Anleitung für den Betrieb des Pumpbrunnens mit mehreren Fehlern von Bohrlochbedingungen bereitzustellen, die mit den üblichen Methoden nicht effektiv behandelt werden können. Um dieses Problem zu lösen, wird in diesem Beitrag eine Methode verwendet, die auf der Designated Component Analysis (DCA) basiert. Der Freeman-Kettencode wird verwendet, um die Bohrloch-Dynamometerkarte darzustellen, deren wichtige Eigenschaften extrahiert werden, um einen bestimmten Modussatz zu konstruieren. Als Grundlage für die Fehlererkennung dient eine Regelkarte. Die oberen und unteren Kontrolllinien auf der Kontrollkarte werden aus Standardproben unter normalen Arbeitsbedingungen bestimmt. In einem unvollständig orthogonalen Modus könnte der bezeichnete Modussatz in einige Untersätze unterteilt werden, in denen die Modi vollständig orthogonal sind. Die beobachteten Daten werden in jeden bestimmten Modus projiziert, um eine Fehlererkennung gemäß den oberen und unteren Steuerleitungen zu realisieren. Die Beispiele zeigen, dass das vorgeschlagene Verfahren mehrere Fehler von Bohrlochbedingungen effektiv diagnostizieren kann.;-;-;-;https://link.springer.com/article/10.1007/s12182-013-0283-4 77dab2f81a6c8c9136efba7ab2c4c0f2;de;;;2.4.;;;Philippinen Vor der spanischen Entdeckung der Philippinen kamen die Bewohner mit Indien, China und Arabien in Kontakt. Die Inseln wurden 1521 von Magellan entdeckt und 1565 von Spanien erobert. Nach dem spanisch-amerikanischen Krieg wurden die Inseln am 10. Dezember 1898 an die USA abgetreten, nachdem die Filipinos 1896 vergeblich versucht hatten, eine unabhängige Republik zu gründen.;-;-;-;https://link.springer.com/chapter/10.1057/9780230271234_140 2eec28a3df0089600ee2968cacd33ffd;de;;;2.4.;;;Hintergrund: Illusory Empire und Great Migration Campaign Great Die erste große Frage ist: Warum haben sich die japanischen Bauern in der Mandschurei niedergelassen? Dieses Projekt begann im März 1932, als Japan im Nordosten Chinas einen Marionettenstaat, Mandschukuo, gründete. Pu Yi, der letzte Kaiser der Qing-Dynastie (abgesetzt 1912), wurde im März 1934 Kaiser von Mandschukuo, blieb jedoch ihr nomineller Herrscher (siehe Foto 1). Mandschukuo war de facto eine japanische Kolonie in der Mandschurei, die von der Kwantung-Armee kontrolliert wurde. Dieser japanische Militärapparat, der für die Region verantwortlich war, war die berühmteste japanische Kolonialgarnisonstruppe und übte eine beträchtliche Autonomie vom kaiserlichen Generalhauptquartier (IGH) in Tokio aus. Da die Mandschurei die Lebensader Japans war, wollte die Kwantung-Armee eine aggressivere Expansionspolitik als die IGH und das Zivilkabinett von Premierminister Wakatsuki Reijirƭ (sein erstes Kabinett, Januar 1926 – April 1927, sein zweites Kabinett, April 1931 – Dezember 1931). Die Kwantung-Armee bombardierte im September 1931 die Südmandschurei-Eisenbahn in der Nähe von Mukden (heute Shenyang) ohne Genehmigung von Tokio. Es wurde behauptet, dass Chang Hsueh-liang (Zhang Xueliang), der Erbe des einflussreichen mandschurischen Kriegsherrn Chang Tso-lin (Zhang Zuolin), der Täter war. Diese Verschwörung gab der Kwantung-Armee einen Vorwand, ihre militärische Kontrolle über die gesamte Region Nordostchinas auszuweiten, wobei die Entscheidung des zweiten Wakatsuki-Kabinetts ignoriert wurde, nicht zu expandieren.;-;-;-;https://link.springer.com/chapter/10.1057/9780230106369_2 5f0c5759a92230a1a607c94fc9482710;de;;;5.3.;;;Serverunabhängige Personalisierung für eine effektive Suche im World Wide Web Eine effektive Websuche umfasst zwei Komponenten: (1) ein Suchwerkzeug muss so viele Webseiten wie möglich kennen und charakterisieren und (2) es muss eine Benutzeranfrage der am besten geeigneten Ressource zuordnen. Das wesentliche Problem, das von Personalisierungssystemen adressiert wird, betrifft die zweite Komponente der Websuche. Wie können die Informationen, die ein Suchdienst über im Web verfügbare Ressourcen bereithält, an die unterschiedlichen Bedürfnisse der globalen Benutzerbasis angepasst werden? In diesem Papier stellen wir eine Alternative zum üblichen Modell der Benutzerpersonalisierung vor.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-47952-X_67 f850df8d45cf934e74c40a38a0938b6b;de;;;5.3.;;;Wahrnehmungsbasiertes Lernen für Bewegung im Kontakt in der Aufgabenplanung Dieses Papier präsentiert einen neuen Ansatz zur Fehlererkennung während der Bewegung in Kontakt unter Unsicherheit für Roboterfertigungsaufgaben. Bei diesem Ansatz werden künstliche neuronale Netze zum wahrnehmungsbasierten Lernen verwendet. Die sechs Kraft-Momenten-Signale des Handgelenksensors eines Roboterarms werden in das Netzwerk eingespeist. Eine selbstorganisierende Karte ist das, was die verschiedenen Kontaktzustände unüberwacht lernt. Das Verfahren soll in komplexen realen Fertigungsumgebungen einwandfrei funktionieren, für die bestehende Ansätze basierend auf geometrischen analytischen Modellen möglicherweise nicht durchführbar oder zu schwierig sind. Es wird für verschiedene Aufgaben mit Kontaktbewegungen verwendet, insbesondere für das Einsetzen von Stiften in das Loch und komplexe Ein- oder Ausziehvorgänge in einem flexiblen Fertigungssystem. Mehrere reale Beispiele für diese Fälle werden vorgestellt.;-;-;-;https://link.springer.com/article/10.1007/BF00339665 c5f53a87a95e78cc36b12e98ee8b0c30;de;;;5.3.;;;Klassische Brouwer-Heyting-Kolmogorov-Interpretation Die Brouwer-Heyting-Kolmogorov-Interpretation erklärt die Bedeutung logischer Operationen als Operatoren, die Beweise aus Beweisen der Operanden konstruieren. Die BHK-Interpretation wird normalerweise als eine intuitive Interpretation der logischen Operatoren verstanden, aber wie Troelstra und van Dalen [12] aufgezeigt haben, ist es möglich, die BHK-Interpretation klassisch zu verstehen. Wir entwickeln diese Idee weiter und entwickeln eine klassische Beweistheorie als abstrakte mathematische Einheiten, bei denen die Wahrheit eines Satzes äquivalent zur Existenz von Beweisen des Satzes wird.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-63577-7_43 837d1fad000520f72cd99808e1d943d2;de;;;5.3.;;;Hardware-Implementierung des Fuzzy-Logic-Controllers -Designbarkeit, Stabilität und Robustheit- Das Konzept der Fuzzy Logic wurde vorgestellt, um das Know-how eines menschlichen Experten in für einen digitalen Computer akzeptable Formalitäten zu übersetzen. Die Verarbeitung von Fuzzy-Informationen unter Verwendung eines digitalen Computers braucht Zeit, und daher beschreibt dieses Papier die intrinsischen Fuzzy-Elektronikschaltungen und auch den Entwurf von Fuzzy-Logik-Controllern. Um die Verwendbarkeit des Reglers nachzuweisen, wird er auf ein inertisiertes Pendel von 5 mm Durchmesser, 5 cm Länge und 3 g Gewicht aufgebracht, das üblicherweise zum Nachweis von Regelsystemen eingesetzt wird. Der Fuzzy-Logic-Regler wird auf die Weinglasstabilisierung angewendet, deren Schwerpunkt durch die äußere Störung verändert wird. Diese experimentellen Ergebnisse implizieren die Robustheit des Fuzzy-Logik-Controllers. Der Controller wird auch auf die „Mausstabilisierung“ angewendet, bei der sich eine Maus auf dem an der Stange befestigten Tisch bewegt und das primäre Steuerungsziel auf Kosten der Positioniergenauigkeit erreicht wird. Die vom Autor entwickelten kommerziellen Fuzzy-Chips werden ebenso beschrieben wie die Anwendung in der Robotik.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-14636-2_13 b633eff548ecb65bee67dcf22fe71e99;de;;;5.3.;;;Das Datenpartitionierungsdiagramm: Erweitern von Daten- und Kontrollabhängigkeiten für die Datenpartitionierung Skalierbarkeits- und Kostenüberlegungen legen nahe, dass parallele Computer mit verteiltem und verteiltem gemeinsam genutztem Speicher zukünftige parallele Architekturen dominieren werden. Diese Maschinen könnten nicht effektiv verwendet werden, wenn keine effizienten automatischen und statischen Lösungen für das Problem der Datenpartitionierung und -platzierung verfügbar sind. Hier wurden in den letzten Jahren deutliche Fortschritte erzielt, aber von allgemeingültigen Lösungen, die für alle Anwendungsklassen effizient sind, sind wir noch weit entfernt. In diesem Beitrag schlagen wir den Datenpartitionierungsgraphen (DPG) als Zwischendarstellung für die Parallelisierung von Compilern vor, der bisherige Zwischendarstellungen ergänzt und einen Rahmen für die Partitionierung und Platzierung nicht nur regulärer Datenstrukturen (wie Arrays) bietet, sondern auch von unregelmäßigen Strukturen und skalaren Variablen. Obwohl sich neuere Ansätze für aufgabengraphbasierte Zwischendarstellungen auf die Darstellung von Daten und die Steuerung von Abhängigkeiten zwischen Aufgaben konzentrieren, ignorieren sie weitgehend die Verwendung von Programmvariablen durch die verschiedenen Aufgaben. Herkömmliche Datenpartitionierungsverfahren verwenden normalerweise algorithmusabhängige Techniken und werden unabhängig von Prozessorzuweisungen betrachtet (die gleichzeitig mit der Datenpartitionierung behandelt werden sollten). Darüber hinaus konzentrieren sich Ansätze zur Datenpartitionierung ausschließlich auf Array-Strukturen. Durch die explizite Kapselung der Verwendung von Programmvariablen durch die Aufgabenknoten stellt das DPG einen Rahmen für die Handhabung der Datenpartitionierung sowie der Prozessorzuweisung im gleichen Kontext bereit. Wir diskutieren auch den hierarchischen Datenpartitionierungsgraphen (HDPG), der die Hierarchie der kompilierten Programme kapselt und verwendet wird, um die Berechnungshierarchie auf massiv parallele Computer mit verteiltem Speichersystem abzubilden.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0025878 15f89a9746af2a003f1fe5eff1ef90dc;de;;;2.4.;;;Synaptische Organisation im Thalamus Nissl (1889) bemerkte in seinem ersten Abstract über den Thalamus des Kaninchens, dass die Nervenzellen eines Thalamuskerns sich oft stark in der Größe von denen anderer Kerne unterschieden, aber er machte keinen Kommentar zu verschiedenen Klassen von Neuronen innerhalb einzelner Kerne. Bis 1896 hatte von Kölliker jedoch drei Formen von Golgi-imprägnierten Zellen im Thalami von Katzen und Kaninchen identifiziert (Abb. 4.1). Eine Zellform, die er als bezeichnete;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-1749-8_4 95806b8c02c9b80b57641ef445b14d7c;de;;;2.4.;;;Myzel von Arbuskulären Mykorrhizapilzen (AMF) verschiedener Gattungen: Form, Funktion und Nachweis Aufgrund der Allgegenwart der arbuskulären Mykorrhiza-Symbiose und der Tatsache, dass alle AMF dieselbe Pflanze/Boden-Nische besetzen, wird oft angenommen, dass alle Arten von arbuskulären Mykorrhizapilzen (AMF) die gleiche Funktion haben. Trotz offensichtlicher Unterschiede beim Zeitpunkt der evolutionären Divergenz und den morphologischen Merkmalen von AMF aus den verschiedenen Gattungen verwendet die Mehrheit der Studien zu diesen Pilzen nur Arten von;-;-;-;https://link.springer.com/article/10.1023/A%3A1026574828169 ade62a72e87cadbeed4901fd932c4ca1;de;;;2.4.;;;Loop-Komponenten Bevor auf den gesamten Schleifenbetrieb eingegangen wird, werden nun die vier Hauptschleifenkomponenten von Fig. 1.1 ausführlich beschrieben. Weitere Informationen zu diesen und anderen exotischeren Schleifenkomponenten finden Sie in einer Reihe anderer Quellen, einschließlich der Referenzen 1 bis 3.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-14006-0_2 cd59b7d23fcf1c1ba68ecb1bb988f429;de;;;2.4.;;;Dielektrische Elastomere als EAPs: Wie man mit ihnen experimentiert Wie aus der großen Anzahl von Videos von hausgemachten dielektrischen Elastomeraktoren (DEAs) auf YouTube ersichtlich ist, ist der Einstieg in die Herstellung von DEAs einfach und kostengünstig. Dieses Kapitel enthält Informationen zur Herstellung von zwei Arten von grundlegenden dielektrischen Elastomeraktoren sowie detaillierte Informationen zur Verwendung von DE für das Energy Harvesting (Umwandlung mechanischer Energie in elektrische Energie).;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-319-31767-0_34-1 3eb2207cf65dcc25d4f08beb13803823;de;;;2.4.;;;Lokale Pool-Siedekoeffizienten auf horizontalen Rohren Lokales Beckensieden an der Außen- und Innenfläche eines Rohres mit 51 mm Durchmesser in horizontaler Richtung wurde experimentell in gesättigtem Wasser bei Atmosphärendruck untersucht. Entlang des Rohrumfangs wurden starke Schwankungen der lokalen Wärmeübertragungskoeffizienten beobachtet werden bei θ=45° bzw. 180° beobachtet Auf der Innenfläche wurde jedoch nur das Minimum bei θ=0° beobachtet. Hauptmechanismen auf der Außenfläche sind Flüssigkeitsbewegung und Blasenkoaleszenz, während die auf der Innenfläche Mikroschichtverdampfung sind und Flüssigkeitsrührung Mit zunehmendem Wärmestrom wird die Flüssigkeitsrührung sowohl an Außen- als auch an Innenflächen wirksam Die lokalen Koeffizienten gemessen bei θ=90° können als repräsentative Werte für Außen- und Innenflächen empfohlen werden;-;-;-;https://link.springer.com/article/10.1007/BF02916134 bb703cc57cf0becf4344e7737cf271e5;de;;;2.4.;;;Lösung eines bi-objektiven Zellbildungsproblems mit stochastischen Produktionsmengen durch einen zweiphasigen Fuzzy-Linear-Programmieransatz Wir schlagen ein bi-objektives Zellbildungsproblem mit der Nachfrage nach Produkten vor, die in einer Reihe von Wahrscheinlichkeitsszenarien ausgedrückt werden. Um mit der unsicheren Nachfrage nach Produkten umzugehen, wird ein Rahmen eines zweistufigen stochastischen Programmiermodells vorgestellt. Das vorgeschlagene Modell berücksichtigt die Minimierung der Summe der verschiedenen Kosten (konstante Maschinenkosten, erwartete variable Maschinenkosten, Zellenfestladungskosten und erwartete Zwischenzellenbewegungskosten) und der erwarteten Gesamtzellenbelastungsvariation. Aufgrund widersprüchlicher Zielsetzungen entwickeln wir einen zweiphasigen Fuzzy-Linear-Programmieransatz zur Lösung des bi-objektiven Zellbildungsproblems. Um die Wirksamkeit des vorgeschlagenen Ansatzes aufzuzeigen, werden numerische Beispiele gelöst und die Ergebnisse mit den beiden in der Literatur existierenden Ansätzen verglichen. Die Berechnungsergebnisse zeigen, dass das vorgeschlagene Fuzzy-Verfahren niedrigere Zielfunktionen sowie höhere Zufriedenheitsgrade erreicht.;-;-;-;https://link.springer.com/article/10.1007/s00170-011-3413-4 c059a249e0f0866463a1d889437ed91e;de;;;2.4.;;;Die Mosaikorganisation des Präimplantationsmausembryos Die Bildung der inneren Zellmasse (ICM) und des Trophektoderms der Blastozyste stellt die erste definitive räumliche Differenzierung von Zellen während der Embryogenese dar. Die beiden Gewebe zeigen Unterschiede in Struktur, Funktion, Biochemie, voraussichtlichem Schicksal und Entwicklungspotential. Ein Verständnis der Ursprünge dieser Zellsubpopulationen und des Mechanismus, durch den sie während der Spaltung erzeugt werden, hat sich als schwer fassbar erwiesen. Es wurde allgemein vereinbart, dass, welcher Mechanismus auch immer funktioniert, er die erstaunliche Regulationsfähigkeit der Zellen des sich spaltenden Embryos, der Morula und sogar der frühen Blastozyste selbst berücksichtigen muss. Während diese verlängerte Periode der Entwicklungsunfähigkeit den Säugerembryo anscheinend in eine einzigartige Position bringt, hat sie auch häufig zu der irrigen Schlussfolgerung geführt, dass die zugrunde liegenden Mechanismen, die innerhalb des Embryos operieren, entsprechend einzigartig sein müssen. So erscheinen Embryonen vieler niederer Wirbeltiere und Wirbellose als Mosaike, in denen räumliche Unterschiede in der zytoplasmatischen Organisation innerhalb der einzelnen Eizellen, Zygoten oder frühen Blastomeren durch Zellteilungen in regionale Unterschiede zwischen den Zellen des Embryos übersetzt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-3867-3_17 5e539390d6dbbc0d53e50bbcc63918e9;de;;;2.4.;;;Halbleiterphysik In diesem Kapitel präsentieren wir einen umfassenden Entwurf eines Modell-Halbleitersystems (als geeignetes Beispiel für Chaos im Experiment) aus der Sicht der zugrunde liegenden Physik. Abschnitt 2.1 widmet sich grundlegenden Aspekten der nichtlinearen Halbleitertransporteigenschaften. Abschnitt 2.2 gibt einen kurzen Überblick über neuere Chaosexperimente, die an einer Vielzahl unterschiedlicher Halbleitersysteme durchgeführt wurden. Die Abschnitte 2.3 und 2.4 behandeln die systematische physikalische Charakterisierung bzw. die wichtigsten Ergebnisse eines bestimmten Halbleiterexperiments. Hier konzentrieren wir uns auf räumlich-zeitliche Instabilitäten des elektrischen Ladungstransports während des Niedertemperatur-Stoßionisationsdurchbruchs in extrinsischem Germanium.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-77625-0_2 db5f4621d66de39691b4564ef512490f;de;;;2.4.;;;Thrombozytenmembranbasierte und tumorassoziierte thrombozytenzielorientierte Wirkstoffabgabesysteme für die Krebstherapie Es ist seit langem bekannt, dass Blutplättchen eine kritische Rolle bei der Hämostase spielen, indem sie Blutgefäßverletzungen verklumpen und gerinnen. Neuere experimentelle Beweise weisen stark darauf hin, dass Blutplättchen auch mit Tumorzellen durch direkte Bindung oder Sekretion von Zytokinen interagieren können. Beispielsweise wurde gezeigt, dass Blutplättchen zirkulierende Krebszellen im Blutkreislauf schützen und Tumormetastasen fördern. Ein tiefgehendes Verständnis der Rolle von Thrombozyten bei der Krebsprogression und -metastasierung bietet vielversprechende Ansätze für biomimetische Arzneimittelabgabesysteme für Thrombozyten und funktionelle Thrombozyten-Targeting-Strategien für eine wirksame Krebsbehandlung. Diese Übersicht beleuchtet die jüngsten Fortschritte bei der Arzneimittelabgabe auf der Grundlage von Blutplättchenmembranen und einzigartige Strategien, die auf tumorassoziierte Blutplättchen für die Krebstherapie abzielen. Das Papier diskutiert auch zukünftige Entwicklungsmöglichkeiten und Herausforderungen für die klinische Translation.;-;-;-;https://link.springer.com/article/10.1007/s11684-017-0583-y 8448bd26a350edb19dd5776e3660764e;de;;;2.4.;;;Gewöhnung an vestibuläre Reaktionen mit und ohne visuelle Stimulation In der vestibulären Physiologie wird der Begriff „Gewöhnung“ häufig synonym mit „Reaktionsreduktion“ verwendet, um die Auswirkungen wiederholter Stimulation anzuzeigen. Dieses Phänomen unterscheidet sich von der „Müdigkeit“, einem vorübergehenden Zustand, bei dem meist kurze Ruhepausen ausreichen, um die Reaktion wiederzuerlangen, und von der „Anpassung“, einer besonderen Art des Reaktionsabfalls, die während eines längeren Reizes auftritt. Genauer gesagt bezieht sich „Gewöhnung“ auf eine relativ lang anhaltende Veränderung, selbst längere Ruhezeiten (48 Stunden bis mehrere Wochen) reichen möglicherweise nicht aus, um die Reaktion auf ihr ursprüngliches Niveau oder ihre ursprüngliche Form wiederherzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-65920-1_9 bcb2f82329efc04df6035b4630fa0ef6;de;;;2.4.;;;Auswirkungen der nichtlinearen Reibungskompensation im Schwungradpendel Dieser Beitrag diskutiert zum ersten Mal die Auswirkungen der Modellierung, Identifizierung und Kompensation nichtlinearer Reibung für die Steuerung des Trägheitsradpendels und schlägt einen neuen Algorithmus zur Stabilisierung des Pendels in der nach oben instabilen Position vor. Zunächst wird gezeigt, dass das dynamische Modell mit der vorgeschlagenen asymmetrischen Coulomb-Reibungskomponente die reale experimentelle Plattform des Systems besser charakterisiert. Anschließend wurde ein auf Linearisierung basierender Regler mit Reibungskompensation entwickelt, bei dem theoretische Ergebnisse die Stabilität der Ausgangstrajektorien zeigen. Schließlich wurde der neue Algorithmus experimentell mit seiner Version ohne Reibungskompensation verglichen, was zeigt, dass das neue Schema eine bessere Leistung bei weniger Energieverbrauch liefert.;-;-;-;https://link.springer.com/article/10.1007/s12206-017-0843-4 be4b786889250a40b31e48df4d3d7016;de;;;5.3.;;;Wahrnehmungszusammenbruch während einer globalen Pandemie: Einführung phänomenologischer Erkenntnisse für die Zwecke der digitalen psychischen Gesundheit Online-Therapiesitzungen und andere Formen digitaler Dienste für psychische Gesundheit (DMH) haben seit Beginn der COVID-19-Pandemie einen starken Anstieg neuer Nutzer verzeichnet. Da die Menschen nur wenig Zugang zu ihren sozialen Netzwerken und Unterstützungssystemen haben, mussten sie sich digitalen Werkzeugen und Räumen zuwenden, um ihre Erfahrungen von Angst und Verlust zu bewältigen. Da kein klares Ende der Pandemie in Sicht ist, werden viele von uns wahrscheinlich auf absehbare Zeit auf DMH angewiesen bleiben. Daher ist es wichtig, einige der spezifischen Auswirkungen der Pandemie auf unser Selbst und unsere Weltbeziehung zu formulieren, damit wir feststellen können, wie DMH-Dienste am besten in der Lage sind, einige der neu entstehenden Bedürfnisse ihrer Benutzer zu erfüllen. In diesem Beitrag werde ich eine spezifische Schadensart durch die COVID-19-Pandemie identifizieren und als ein wichtiges Konzept für DMH vorstellen. Ich bezeichne diesen Verlust als;-;-;-;https://link.springer.com/article/10.1007/s10676-020-09554-y 25c4f21ccc9a5ef368a1beba0c5052a7;de;;;5.3.;;;Der Einfluss von Augenbewegungen und kulturellen Faktoren auf die Produktfarbauswahl Eine Farbe ist ein mächtiges Werkzeug, um die Aufmerksamkeit der Menschen zu erregen und sie zum Kauf eines Produkts zu verleiten. Die Art und Weise, in der eine bestimmte Farbe die Farbauswahl der Menschen beeinflusst, sowie die Rolle ihrer Augenbewegungen und kulturellen Faktoren in diesem Prozess bleiben jedoch unbekannt. Um dieses Problem zu untersuchen, haben wir in dieser Studie ein Experiment entworfen, um den Einfluss bestimmter Farben auf die Produktpräferenzen von Menschen mithilfe eines Eye-Tracking-Geräts zu bestimmen, um die Rolle ihrer Augenbewegungen und kulturellen Faktoren zu identifizieren. Basierend auf den experimentellen Daten wurde ein detailliertes Einflusspfadmodell erstellt, um die Wirkung bestimmter Farben auf Produktbewertungen durch eine integrierte Moderations- und Vermittlungsanalyse zu beschreiben. Unsere Ergebnisse zeigen, dass im Beeinflussungsprozess die Auswirkungen bestimmter Farben auf Produktbewertungen durch Augenbewegungen vermittelt werden. Zudem moderieren zum Teil kulturelle Faktoren den Prozess als Einflussfaktor. Die Forschungsergebnisse dieser Studie haben wichtige Implikationen für nutzerzentriertes Produktdesign und visuelles Marketingmanagement.;-;-;-;https://link.springer.com/article/10.1186/s13673-020-00249-3 641a32e9bd791c8caf25de7be76cd4ac;de;;;5.3.;;;Radikale Praxis und bürgerschaftliches Netzwerkdesign Technologiegetriebene Bürgernetzwerke sind soziale Konstruktionen, die sich in Bezug auf eine bestimmte Makrostruktur (also soziale Struktur, hier bezogen auf historisch konstituierte Beziehungsmuster zwischen sozialen Positionen) entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84800-332-3_10 8b217b1e40d76efd3be93569196153ed;de;;;5.3.;;;Text- und Telefonanrufe: Nutzerverhalten und Vorhersage der Zweikanal-Kommunikation Die Größe der Kontaktliste moderner Mobiltelefonbenutzer hat sich auf Hunderte von Kontakten erhöht, was das Abrufen von Kontakten zu einer relativ schwierigen Aufgabe macht. Es wurden verschiedene Algorithmen entwickelt, um den Kontakt vorherzusagen, den ein Benutzer zu einem bestimmten Zeitpunkt anrufen wird. Diese Algorithmen verwenden historische Anrufdaten, um diese Vorhersage zu treffen. Moderne Mobilfunknutzer telefonieren jedoch nicht nur, sondern verlassen sich auch auf verschiedene Kommunikationskanäle wie SMS und Anrufe, um ihre sozialen Beziehungen zu pflegen. Trotz der Prävalenz mehrerer Kommunikationskanäle wurde die prädiktive Analyse dieser Kanäle bisher nicht untersucht. Daher wurde in dieser Studie überlegt, ein Vorhersagemodell für Dual-Channel (Text und Anrufe) vorzuschlagen. Diese Studie untersuchte zunächst das zweikanalige Kommunikationsverhalten von Smartphone-Nutzern mit einem gemischten Ansatz, d. Es wurde beobachtet, dass der bevorzugte Kommunikationskanal für verschiedene Kontakte unterschiedlich war, sogar für einen einzelnen Benutzer. Obwohl sich herausstellte, dass die kostengünstigen SMS über Telefonanrufe beliebter waren, schien ein erheblicher Anteil der Benutzerpaare Anrufe für den größten Teil ihrer Kommunikation zu bevorzugen. Basierend auf diesen Erkenntnissen wurde ein generischer Vorhersagerahmen für die Zweikanalumgebung vorgeschlagen. Dieses Modell sagt das nächste Kommunikationsereignis vorher, indem es zeitliche Informationen von Anruf und Text auf einer 2D-Ebene modelliert. Dieses Framework hat drei Variationen, die nicht nur die Person vorhersagen, die zu einem bestimmten Zeitpunkt kontaktiert wird, sondern auch den Kommunikationskanal (Anruf oder Text). Schließlich wurde die Leistung verschiedener Versionen des Algorithmus anhand von realen Zweikanaldaten bewertet. Eine Version des Vorhersagemodells übertraf die anderen Varianten mit einer Vorhersagegenauigkeit von über 90 Prozent, während die anderen Varianten ebenfalls gut abgeschnitten haben.;-;-;-;https://link.springer.com/article/10.1186/s13673-020-00217-x c0bc076339999063cc9ae262d7a595e0;de;;;2.4.;;;Anlegende Institutionen Dieses Kapitel unterscheidet sich insofern von den anderen in diesem Buch, als es sich nicht direkt mit der Bewertung bestimmter Wertpapiere oder der Bewertung eines Anlageportfolios befasst. Sie befasst sich stattdessen mit einer Gruppe von Hauptakteuren auf der Anlagephase der Börse, d. h. mit den Finanzinstituten, die die Hauptinvestoren in Wertpapiere der Börse sind. Kein Anlagebuch kann diese Institutionen ignorieren – Pensionsfonds, Versicherungsgesellschaften, Investmentfonds und Investmentfonds – erstens, weil sie die Vermittler sind, über die die überwiegende Mehrheit der Menschen wissentlich oder unwissentlich in Wertpapiere investiert, und zweitens, weil ihre Präsenz ist mittlerweile so groß, dass jede Facette des Investments, von der Leistungsmessung bis hin zur Rolle von Börsenmaklern und Jobbern, von ihrer Existenz beeinflusst wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-17231-3_11 86312900d104a46919dc7dace9fa3b03;de;;;2.4.;;;Terrorismus, Demokratisierung und US-Außenpolitik Mitglieder der amerikanischen Außenpolitik argumentieren, dass die Vereinigten Staaten den transnationalen Terrorismus bekämpfen sollten, indem sie die Demokratisierung fördern. Empirische Studien weisen jedoch darauf hin, dass die Demokratisierung die politische Gewalt verstärken kann, was die Frage aufwirft: Warum sollten amerikanische Politiker die Demokratisierung befürworten, wenn die empirische Bilanz zeigt, dass diese Vorgehensweise so gefährlich ist? Diese Studie entwickelt ein spieltheoretisches Modell, um die Auswirkungen der Demokratisierung auf den Terrorismus zu analysieren. Das Modell zeigt, dass die Vereinigten Staaten die durch die Demokratisierung entstandenen Bindungsprobleme nutzen, um das Moral-Hazard-Problem zu lösen, das durch die Unterstützung autokratischer Gastgeber entsteht. Diese empirischen Implikationen werden mit einer Kombination von zwei Datensätzen getestet.;-;-;-;https://link.springer.com/article/10.1007/s11127-011-9864-1 6f6dede19eee8bcead6ab313a649ca97;de;;;2.4.;;;Cholecystokinin-Octapeptid-induzierte Hyperthermie bei Meerschweinchen Die intrazerebroventrikuläre Verabreichung von Cholecystokinin-Octapeptid (CCK-8) bei Raumtemperatur (21 °C) induzierte bei Meerschweinchen eine dosisabhängige Hyperthermie und führte auch bei niedrigen (10 °C) und hohen (30 °C) Umgebungstemperaturen zu Hyperthermie. Die CCK-8-induzierte Hyperthermie war direkt und wurde nicht durch Prostaglandine, Noradrenalin, zyklisches AMP oder Naloxon-sensitive Rezeptoren vermittelt.;-;-;-;https://link.springer.com/article/10.1007/BF01990371 740b08421d7c1d2215caf35c8471edd9;de;;;2.4.;;;Evolution von Proteinen: Vom Gendeterminismus zur zellulären Integration Die Entdeckung, dass eukaryotische Gene, die für Proteine ​​kodieren, normalerweise in mehrere Teile gespalten sind, hat das einfache und praktische Konzept „ein Gen – ein Protein“ ruiniert. Es scheint jetzt, dass die meisten eukaryotischen Proteine ​​zusammengesetzte Systeme sind, nicht nur aus funktioneller Sicht wegen ihrer spezialisierten Domänen (Richardson, 1981), sondern auch aus biosynthetischer Sicht, da jedes Protein das Produkt mehrerer separater kodierender Sequenzen (Exons) innerhalb der . ist Gen. Ob die Beziehung „one exon-one domain“ das neue Dogma sein wird, ist allerdings noch nicht bekannt. Denn Gene sind die;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-4796-5_16 8905dfa3283b59e146a2f7f8aff7eab9;de;;;2.4.;;;Experimente zur Elektronenstoßanregung und Ionisierung von Ionen Die Herausforderung, die Eigenschaften und das Verhalten des sogenannten vierten Aggregatzustands, des ionisierten Plasmas, zu verstehen, erfordert quantitative Informationen über die Struktur und Stoßeigenschaften von Ionen. Die einfache Glimmentladungsröhre, die Laborionenquelle, das kontrollierte thermonukleare Fusionsplasma, die Ionosphäre, die Sonnenkorona – sie alle haben eines gemeinsam – ihre mikroskopischen und makroskopischen Eigenschaften werden in hohem Maße durch inelastische Kollisionen zwischen Elektronen und Ionen. Das empfindliche Gleichgewicht, das durch den ständigen Austausch von kinetischer, strahlender und potentieller Energie entsteht, bestimmt die Signatur, durch die ein solches Plasma mit seiner Umgebung kommuniziert, nämlich das Licht, das es erzeugt. Selbst bei den einfachsten Plasmen erfordert die Interpretation des emittierten Strahlungsspektrums detaillierte Kenntnisse sowohl der elektronischen Struktur der vorhandenen Ionenspezies als auch der Stoßprozesse, durch die diese Ionen die angeregten Ionenzustände erreichen und verlassen, aus denen die Strahlung auftritt. Bei höheren Partikeldichten muss auch der Strahlungstransport innerhalb des Plasmas berücksichtigt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-5224-2_5 33b38a2c806bc08e9b56abc35b5c8483;de;;;5.3.;;;Computer im Griff: Rationale Machtübergabe oder unverantwortlicher Verzicht auf Autonomie? Inwieweit sollte der Mensch „Verantwortung“ auf Computer übertragen oder aufgeben? In diesem Beitrag unterscheide ich sechs verschiedene Bedeutungen von „verantwortungsvoll“ und überlege dann, in welchem ​​dieser Sinne Computer als „verantwortlich“ für die „Entscheidung“ verschiedener Ergebnisse bezeichnet werden können und in welchem ​​nicht. Ich sortiere und untersuche zwei verschiedene Arten von Klagen gegen die stärkere „Kontrolle“ von Computern über unser Leben: (i) Als endliche und fehlbare Menschen gibt es eine Grenze dafür, inwieweit wir durch komplexe eigene Geräte eine höhere Zuverlässigkeit erreichen können Design, (ii) selbst wenn Computer zuverlässiger sind als Menschen, werden bestimmte Aufgaben (z. B. das Auswählen eines geeigneten Geschenks für einen Freund, das Lösen des täglichen Kreuzworträtsels) unangemessen von jemand anderem (oder irgendetwas) anderen als einem selbst ausgeführt. Bei der kritischen Bewertung dieser Behauptungen komme ich zu drei Hauptschlussfolgerungen: (1) Während wir viele unserer Mängel korrigieren sollten, indem wir den größeren Speicher des Computers, die schnellere Verarbeitungsgeschwindigkeit und die größere Ausdauer nutzen, sind wir durch unsere eigene Endlichkeit und own Fehlbarkeit (anstatt durch irgendwelche Beschränkungen, die Silizium und Metall innewohnen) in der Fähigkeit, unsere eigene Unzuverlässigkeit zu überwinden. Wenn wir uns außerdem in einem solchen Maße auf programmierte Computer verlassen, dass wir den Kontakt zu den menschlichen Erfahrungen und Einsichten verlieren, die die Grundlage für ihr Programmierdesign bildeten, wird unsere Fehlbarkeit eher vergrößert als abgeschwächt. (2) Autonome moralische Agenten können vernünftigerweise auf größeres Fachwissen zurückgreifen, sei es menschlich oder kybernetisch. Aber sie können die Verantwortung für die „Hintergrundaufsicht“ nicht vernünftigerweise aufgeben. Sie müssen bereit sein, zumindest in regelmäßigen Abständen zu überprüfen, ob die „Expertise“, auf die sie sich beziehen, tatsächlich so funktioniert, wie sie befugt ist, und gegebenenfalls Maßnahmen zu ergreifen, um diese Befugnis zu widerrufen. (3) Obwohl Ergebnisse wichtig sind, kann es auch von Bedeutung sein, wie sie zustande kommen und von wem. Daher kann das Nachdenken darüber, wie viel von unserem Leben durch Computer gesteuert und umgesetzt werden sollte, eine weitere Möglichkeit sein, jede durch und durch endständige oder konsequentialistische Vorstellung vom guten und anständigen Leben zu testen. Um mit Sinn und Zweck zu leben, müssen wir unsere eigenen Fähigkeiten aktiv einsetzen und uns empathisch mit anderen verbinden und mit ihnen in Resonanz treten. Daher gibt es eine gewisse Grenze dafür, wie viel Leben von irgendjemandem (oder irgendetwas) anders als uns selbst angemessen gelebt werden kann.;-;-;-;https://link.springer.com/article/10.1023/A%3A1010087500508 b0a2fdd7b82270b17552d380765cdd58;de;;;5.3.;;;Aufbau und Evaluierung eines Robotertanzsystems Tanz ist eine Form der Unterhaltung, bei der körperliche Bewegung der Schlüsselfaktor ist. Der Hauptgrund, warum Roboter eine Art „Boom“ erleben, ist, dass sie einen physischen Körper haben. Wir schlagen ein Robotertanzsystem vor, das diese beiden Elemente kombiniert. Zunächst werden verschiedene Faktoren in Bezug auf Unterhaltung und Tanz untersucht. Dann schlagen wir das Tanzsystem durch Roboter mit Bewegungseinheit und die Syntheseregel vor, die sich auf die Sprachsynthese bezieht. Außerdem beschreiben wir die Details des Systems, indem wir uns auf seine Softwarefunktionen konzentrieren. Abschließend zeigen wir die Auswertungsergebnisse von Robotertanz-Performances.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69744-2_8 a275bd0001782c74bdc84ddce9f6386e;de;;;2.4.;;;Integration von kommunikativen Hinweisen bei sehr kleinen Kindern Um den Einfluss verbaler und nonverbaler Informationen auf die pragmatische Reaktion zu beurteilen, wurden 16 Kindern im Alter von 1∶5 bis 2∶4 Fragen gestellt, die entweder Informations- oder Handlungsantworten beinhalten konnten. Die Konventionalisierung der sprachlichen Form, die gestische Begleitung und der vorausgehende Diskurs wurden systematisch variiert. Kinder reagierten pragmatisch angemessen auf konventionalisierte Formen. Die pragmatische Funktion des Diskurses vor nicht-konventionellen Fragen hatte keinen Einfluss auf die Antworten der Kinder, aber Gesten beeinflussten alle Antwortkategorien außer einfachen Handlungsantworten. Ältere Kinder gaben mehr simultane integrative Antworten als jüngere Kinder. Die Ergebnisse zeigen eine zunehmende Fähigkeit, sprachliche und nichtsprachliche Informationsquellen zu koordinieren, aber eine geringe Tendenz zur Integration in nacheinander präsentierten Informationen.;-;-;-;https://link.springer.com/article/10.1007/BF01067971 31a08bc3f850f9a77d52d342b2c68d61;de;;;2.4.;;;Doppeldüngung bei Blütenpflanzen: 1898–2008 Der vorliegende Artikel gibt einen kurzen Überblick über die Ergebnisse von Studien auf dem Gebiet der Pflanzenembryologie, die direkt mit der Entdeckung der Doppelbefruchtung in vivo und in vitro durch S. G. Navashin im Jahr 1898 verbunden sind. Diese Studien verwendeten Methoden der Elektronen- und Fluoreszenzmikroskopie, Zytophotometrie und Kulturen von isolierten Eizellen, Spermien und der zentralen Zelle des Embryosacks. Es werden Fragen zur Herkunft des weiblichen Gametophyten von Blütenpflanzen, zur Doppelbefruchtung und zum Endosperm behandelt. Es wird betont, dass Fortschritte auf diesem Gebiet hauptsächlich mit der Untersuchung molekularer Prozesse verbunden sind, die die Entwicklung und Funktion des weiblichen Gametophyten und des Sporophyten in frühen Stadien der Ontogenese regulieren.;-;-;-;https://link.springer.com/article/10.3103/S009545270803002X 073186e4c3cc85fc99d748382f7d51fd;de;;;2.4.;;;Bioassays von Ölschiefer-Prozesswässern in Ölschiefervorkommen im Westen der Vereinigten Staaten stellen eine reichhaltige Ressource für förderbares synthetisches Rohöl dar (Yen und Chilingarin, 1976). Mit Schieferöl koproduziertes und daraus dekantiertes Wasser wird als Ölschiefer-Prozesswasser bezeichnet. Dieses Wasser stammt hauptsächlich aus Verbrennung, Austrocknung von Mineralien und Grundwasser (Farrier et al., 1977). Pro Tag produzierte 100.000 Barrel Schieferöl wird eine Prozesswasserproduktion von 1,6 Millionen Gallonen geschätzt (Hendrickson, 1975, Shih et al., 1979, Strniste und Chen, 1981). Für die sichere Handhabung, Eindämmung und Entsorgung solcher Prozesswässer müssen Technologien entwickelt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-3611-2_13 4d228a8b78389c2307e58bdbef5aab37;de;;;2.4.;;;Genetische Ursachen von Autismus und den tiefgreifenden Entwicklungsstörungen Autismus ist ein verhaltensdefiniertes Syndrom, für das viele Ursachen identifiziert wurden, einschließlich spezifischer viraler und metabolischer Ursachen. Neue Beweise bestätigen, dass genetische Anomalien die Störung bei einer Untergruppe autistischer Personen verursachen, was weitere Forschungen zur Differenzierung spezifischer genetischer ätiologischer Mechanismen anregt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0525-5_12 3683d8d2306ce17d2cd66276adab9cf5;de;;;2.4.;;;Fraktoemissionsbegleitendes Klebstoffversagen Für eine breite Palette von Materialien wurde die Emission von Elektronen (EE), positiven Ionen (PIE), neutralen Spezies (NE) und Photonen (phE) bei Bruch beobachtet. Wir bezeichnen diese Emissionen zusammenfassend als Fraktoemission. In diesem Artikel besprechen wir unsere Arbeit zur Fraktoemission, bei der das Bruchereignis ein Grenzflächen- oder Adhäsionsversagen beinhaltet. Zu den zu diskutierenden Grenzflächen zählen: spröde Materialien/Epoxid, Glas/Elastomere und spröde Materialien/Haftkleber. Die Ergebnisse werden sowohl für große (1 cm;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2435-5_10 8ba72f69eb028f1ddd129855b6bb185b;de;;;2.4.;;;Eine Technik zur quantitativen Messung von mikrostrukturell induziertem Ultraschallrauschen Bei Ultraschallprüfungen von Flugzeugtriebwerkskomponenten kann die Erkennbarkeit kritischer Defekte durch Kornrauschen eingeschränkt sein. Dies ist wahrscheinlich bei subtilen Defekten der Fall, wie beispielsweise Einschlüssen der harten Alphaphase in Titanlegierungen, bei denen der Unterschied zwischen den akustischen Impedanzen des Defekts und des Wirts gering ist. Eine solide quantitative Beschreibung des Kornrauschens in solchen Legierungen ist für genaue Schätzungen der Zuverlässigkeit der Fehlererkennung unerlässlich. In dieser Arbeit stellen wir eine Methode zur Quantifizierung von rückgestreutem Kornrauschen vor, indem wir Positions-Averaging verwenden, um den quadratischen Mittelwert (rms) des Rauschpegels zu bestimmen. Der gemessene Geräuschpegel hängt von den Details des Messsystems sowie von den inhärenten Materialeigenschaften der Legierung ab. Wir präsentieren ein vorläufiges Modell des Geräuschmessverfahrens, das Systemeffekte berücksichtigt, und vergleichen seine Vorhersagen mit Experimenten. Anschließend wird aufgezeigt, wie die RMS-Rauschendaten verarbeitet werden können, um einen Faktor zu extrahieren, der die Eigenrauschstärke unabhängig vom Messprozess parametrisiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-3742-7_76 860b1046be34633d3d121ef6e3d8c1ed;de;;;2.4.;;;Chemoprophylaxe von Pilzinfektionen bei Patienten mit Granulozytopenie unter Anwendung von Fluconazol Using Die optimale Chemoprophylaxe für Pilzinfektionen ist noch nicht gut definiert. Diese Studie untersucht die jeweilige Rolle von oralem Amphotericin B und Fluconazol bei Patienten mit granulozytopenischem Krebs. Fluconazol wurde besser vertragen und musste nur bei 1 von 30 Patienten abgesetzt werden, verglichen mit 5 von 29 Patienten, die Amphotericin B erhielten. Die Anzahl der Fieberschübe war in jeder Gruppe ähnlich, aber die mediane Dauer der Prophylaxe vor der ersten Fieberepisode war länger bei Patienten, die Fluconazol (8 Tage) erhielten, als bei Patienten, die Amphotericin B erhielten (5 Tage). Die Anzahl der Patienten, die eine intravenöse Gabe von Amphotericin B benötigten, war in jeder Gruppe ähnlich. Bei 4 Patienten, die Fluconazol erhielten, und 6, die Amphotericin B erhielten, traten dokumentierte Pilzinfektionen auf, darunter 2 Patienten in jeder Gruppe, die eine Fungämie entwickelten. Keine invasive Candidose verursacht durch;-;-;-;https://link.springer.com/article/10.1007/BF03259575 802e6a22215f905c9752414e8066dfd0;de;;;2.4.;;;Pollen-Stempel-Wechselwirkungen und Düngung Trotz des breiten Spektrums an Größe, Form und Exinemustern, die von Pollenkörnern von Blütenpflanzen gezeigt werden, stehen reife Pollen, die aus den Antheren freigesetzt werden, bei der Erreichung ihres Ziels, die Samenzellen zur Befruchtung in die Nähe des Eies zu bringen, häufige Probleme. Das Ausgangsproblem besteht in der Übertragung von Pollenkörnern von der Anthere auf die Narbe derselben Blüte oder einer anderen Blüte derselben oder einer anderen Pflanze derselben Art beim Bestäubungsvorgang. Eine erfolgreiche Befruchtung ist der greifbare Beweis für den Abschluss einer Reihe von subtilen und komplexen Prozessen ab der Zeit, in der Pollenkörner auf der Narbe landen. Gespeist durch die Nährsubstanzen des stigmatischen Exsudats keimen die Pollenkörner und die produzierten Pollenschläuche wandern durch die Griffelmatrix zum Eierstock, suchen eine Eizelle auf und erscheinen im Embryosack, wo die Samenzellen abgegeben werden. Diese Ereignisse verkörpern kollektiv Pollen-Stempel-Interaktionen oder die progamische Phase. Im Embryosack verschmilzt eine der beiden Spermien mit der Eizelle zur Zygote und die zweite Spermien mit dem diploiden polaren Fusionskern zum primären Endospermkern. Das Auftreten von zwei Fusionsereignissen, an denen beide Samenzellen beteiligt sind, stellt die sogenannte Doppelbefruchtung dar, obwohl die wahre Befruchtung durch die Vereinigung von Eizelle und Sperma repräsentiert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-1234-8_11 f8dce2aa7a29f0b51cdffd4a60892c04;de;;;2.4.;;;Proteinglykosylierung: Implikationen für In-vivo-Funktionen und therapeutische Anwendungen Die Glykosylierungsmaschinerie in eukaryontischen Zellen steht allen Proteinen zur Verfügung, die in den sekretorischen Weg eintreten. Es besteht ein wachsendes Interesse an Krankheiten, die durch fehlerhafte Glykosylierung verursacht werden, und an therapeutischen Glykoproteinen, die durch rekombinante DNA-Technologie hergestellt werden. Die Wahl eines Bioverfahrens zur kommerziellen Herstellung von rekombinantem Glykoprotein wird durch eine Vielzahl von Faktoren bestimmt, wie zum Beispiel die intrinsischen biologischen Eigenschaften des exprimierten Proteins und den Zweck, für den es beabsichtigt ist, und auch das wirtschaftliche Ziel. Dieser Aufsatz fasst die jüngsten Entwicklungen und Erkenntnisse in Bezug auf die Synthese von Glykanen, ihre Funktionen, Krankheiten und verschiedene Expressionssysteme und die Charakterisierung von Glykanen zusammen. Der zweite Abschnitt behandelt die Verarbeitung von processing;-;-;-;https://link.springer.com/chapter/10.1007/3-540-49811-7_5 a48cc4c5d324e4e39dde08eeb0705889;de;;;5.3.;;;LiveInfo: Anpassen des Web-Erlebnisses durch Anpassung und Anmerkungen Intermediäre eignen sich hervorragend zum Anpassen und Annotieren von Webseiten, da sie im Datenfluss zwischen Webbrowser und Webserver stehen, das Nutzerverhalten überwachen und das Seiten-Markup verändern können. In diesem Whitepaper stellen wir LiveInfo vor, ein intermediärbasiertes Framework zum Anpassen und Kommentieren von Webseiten. LiveInfo unterteilt Anpassung und Annotation in vier Schritte: (a) Aufteilen von Streaming-Daten in nützliche Blöcke, (b) Identifizieren sinnvoller Muster von Blöcken, (c) Zusammenführen überlappender Muster und (d) Hinzufügen von Markup zum Anpassen und Annotieren. Jeder dieser Schritte kann einfach ersetzt oder konfiguriert werden, sodass die Weberfahrung durch Anpassung und Anmerkungen einfach angepasst werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44595-1_14 e5d6d49992bc69eb1ebe928a960d9d6c;de;;;5.3.;;;"Ist es falsch, gewalttätige Videospiele zu spielen? Viele Menschen haben eine starke Intuition, dass das Spielen von gewalttätigen Videospielen moralisch verwerflich ist, insbesondere angesichts der steigenden Zahl der Spieler, die sie spielen, und des angeblichen Beitrags der Spiele zu einigen stark öffentlich gemachten Verbrechen. In diesem Artikel verwende ich den Rahmen utilitaristischer, deontologischer und tugendhafter ethischer Theorien, um die Möglichkeit zu analysieren, dass es eine philosophische Grundlage für diese Intuitionen geben könnte. Ich stelle die allgemeinere Frage, ob die Teilnahme an authentischen Simulationen unmoralischer Handlungen im Allgemeinen falsch ist oder nicht. Ich behaupte, dass weder der Utilitarismus noch der Kantianer wesentliche Einwände gegen gewalttätiges Spielen haben, obwohl sie einige wichtige Einblicke in das Spielen im Allgemeinen und darüber bieten, was es heißt, ein ""guter Sport"" zu sein Protest gegen die Teilnahme an authentischen charakterlichen Simulationen von Gewalthandlungen: Die Teilnahme an simulierten unmoralischen Handlungen untergräbt den Charakter und erschwert ein erfülltes eudaimonisches Leben.";-;-;-;https://link.springer.com/article/10.1023/A%3A1013802119431 14fe99726669142fe5cb81aa5f879186;de;;;5.3.;;;„Killer-Phrasen“: Entwurfsschritte für ein Spiel mit digitalen Rollenspiel-Agenten Das Killer-Phrase-Spiel ist ein digitales Rollenspiel, bei dem der Spieler der Moderator einer Diskussion zwischen zwei Debattierrobotern ist. In diesem Artikel werden die Entwurfsschritte für die Erstellung erklärt, wie das Erstellen des Simulationsmodells, das Entwerfen von Unterspielen, das Implementieren von Dialogen ausgehend von einem Skript sowie das Testen und Tunen des Spiels. Abschließend werden Vor- und Nachteile des virtuellen Spiels gegenüber einem „echten“ Rollenspiel diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69744-2_13 d9c36a1c14fae2123b1dbc5ac0a39faf;de;;;2.4.;;;Zu einigen Fragen der morphologischen Exponenten Vor einigen Jahren habe ich eine Analyse von Teilen des Flexionssystems der Algonkin-Sprache Potawatomi (Anderson 1977) vorgelegt, die auf beschreibendem Material von Charles Hockett (1948, 1966) basiert und einige allgemeine Punkte über die Natur der Flexion veranschaulichen wollte Systeme. Im Wesentlichen ist die gleiche Analyse mit einigen geringfügigen Verfeinerungen in meinem Morphologiebuch (Anderson 1992) vor einigen Jahren erschienen, wiederum um einige grundlegende Fragen der Theorie zu veranschaulichen. Diese Analyse ist in der nachfolgenden Literatur einer gewissen kritischen Prüfung unterzogen worden, wofür ich dankbar bin, und einige der Schlussfolgerungen, die ich aus dem Potawatomi-Material gezogen habe, wurden in Frage gestellt. Ich beabsichtige in diesem Artikel nicht alle in dieser Diskussion angesprochenen Punkte zu behandeln, sondern mich auf einige Punkte zu konzentrieren, die mir für die Morphologie besonders wichtig erscheinen;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-3724-1_1 e483740ec8516ec310619326a29e4100;de;;;2.4.;;;Das Komplementsystem Im Laufe der Jahrhunderte war der Mensch von den wunderbaren, mysteriösen und sogar verblüffenden Eigenschaften des Blutes fasziniert und manchmal besessen. 1889 beschrieb Hans Buchner ein hitzelabiles bakterizides Prinzip im Blut, das später als Komplementsystem identifiziert wurde. Im Jahr 1894 entdeckte Jules Bordet, der am Pasteur-Institut in Metchnikoffs Labor arbeitete, dass die lytische oder bakterizide Wirkung von frisch entnommenem Blut, das durch Erhitzen zerstört worden war, durch Zugabe von frischem, normalem, nicht erhitztem Serum sofort wiederhergestellt wurde. Paul Ehrlich nannte Bordets „Alexine“ das Komplement. 1901 entwickelten Bordet und Gengou den Komplementfixierungstest, um Antigen-Antikörper-Reaktionen zu messen. Ferrata erkannte 1907, dass Komplement ein Mehrkomponentensystem ist, ein Komplex von Proteinsubstanzen mit gemischter Globulinzusammensetzung, der in normalen Seren vieler Tierarten vorkommt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-11196-3_11 fe3beedd7a0f7f73e8f4bce3c02c97a5;de;;;2.4.;;;Neuronale Darstellung bewusst nicht wahrnehmbarer Sprachklangunterschiede Das Konzept der unterschwelligen Wahrnehmung ist seit Jahrzehnten Gegenstand von Interesse und Kontroversen. Von Interesse in der vorliegenden Untersuchung war, ob ein neurophysiologischer Index der Reizänderung für bewusst nicht unterscheidbare Sprachklangkontraste hervorgerufen werden kann. Die Stimuli wurden auf der Grundlage der Diskriminierungsschwelle jedes einzelnen Probanden ausgewählt. Die Sprachreize (die entlang und;-;-;-;https://link.springer.com/article/10.3758/BF03212140 0997e6f0dc0942a83604123da2191cb9;de;;;2.4.;;;Zukünftige US-Röntgenprogramme zum Timing von Neutronensternen Die Timing-Fähigkeiten zukünftiger US-Röntgenastronomie-Satellitenexperimente, die an Timing-Studien von Neutronensternen angepasst sind, werden vorgestellt. Der X-ray Timing Explorer (XTE) wurde speziell für solche Studien entwickelt. Als nicht fokussierende und lichtstarke (0,6 m;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-2273-0_38 5e55ec6ae7cb930fdc5a13a63f0901e3;de;;;2.4.;;;Die Rolle der Calciumregulation bei der Gehirnalterung: Überprüfung einer Hypothese Studien über das zentrale Nervensystem haben eine lange Geschichte, jedoch haben wir erst vor kurzem begonnen, die Gehirnfunktion in Gesundheits- und Krankheitszuständen zu verstehen. Und das Thema des alternden Gehirns ist seit kurzer Zeit Gegenstand intensiver Studien. Gegenwärtig ist der Prozess des normalen Alterns relativ wenig verstanden. Obwohl es eine Reihe von Theorien zum Altern gibt, scheint keine einzige Theorie die meisten altersabhängigen Veränderungen des Gehirns zu erklären. Dieser Review bietet eine Neubewertung der „Calcium-Hypothese der Hirnalterung“ im Lichte neuer Beweise, die die These unterstützen, dass zelluläre Mechanismen, die die Homöostase von Cytosol Ca . aufrechterhalten,;-;-;-;https://link.springer.com/article/10.1007/BF03323872 2266410a6850770524efdd8cc720d14b;de;;;5.3.;;;Anwendung von Big Data auf selbstadaptives Lernsystem für das Schreiben von Fremdsprachen Personalisiertes Lernen ist in den letzten Jahren ein heißes Thema in der Bildungsforschung. Wie man die Schüler bewertet und das Problem herausfindet, ist ein Problem, das im Studium des individualisierten Lernens gelöst werden muss. Obwohl die traditionelle Bildungsplattform es den Schülern ermöglicht, die Netzwerkressourcen vollständig zu nutzen, wird das personalisierte Lernen der Schüler nicht wirklich realisiert. Diese Studie analysiert das allgemeine Referenzmodell des adaptiven Lernsystems, um die Eigenschaften jedes Teils zu verstehen. Und wir haben ein adaptives Lernsystemmodell für das Fremdsprachenschreiben etabliert, um das individuelle, unabhängige Lernen der Schüler zu verwirklichen. Als Referenz für die zukünftige Forschung und Anwendung der adaptiven Lerntechnologie wird in dieser Studie auch eine eingehende Analyse der adaptiven Lerntechnologie und ihrer Anwendung vorgenommen. Sie zeigt, dass die adaptive Lerntechnologie in einer Vielzahl von Bereichen involviert ist, ihre Anwendungsfelder jedoch tendenziell konzentriert sind. Die Verbesserung des Lernstilmodells und die Anwendung von Big Data im Bildungsbereich und adaptiver Engine bieten genauere und intelligentere personalisierte Lerndienste für Lernende.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-02116-0_11 7fd0292cef5dd2cee4e89ae28dbd7766;de;;;2.4.;;;Ansteckende Krankheit Eine Reihe von Infektionen sind mit erheblichen Folgen für die Mutter und den Fötus verbunden. Im Allgemeinen haben perinatale Infektionen schwerwiegendere Folgen für den Fötus, wenn sie zu Beginn der Schwangerschaft auftreten, da sie die Organogenese stören können. Im Gegensatz dazu verursachen Infektionen im zweiten und dritten Trimester mit größerer Wahrscheinlichkeit neurologische Beeinträchtigungen oder Wachstumsstörungen. Mit wenigen Ausnahmen wird die Behandlung von Infektionskrankheiten durch eine Schwangerschaft nicht wesentlich verändert, da jedoch Infektionskrankheiten das Ergebnis der Schwangerschaft oft dramatisch beeinflussen, sollten geburtshilfliche und anästhetische Managemententscheidungen mit Bewusstsein für diese Krankheitserreger getroffen werden, um das Ergebnis für Mutter und Kind zu optimieren .;-;-;-;https://link.springer.com/chapter/10.1007/0-387-21572-7_26 32541e0fded286298cb173e35b80c733;de;;;5.3.;;;Emotionale Inferenz mittels Choquet-Integral und λ-Fuzzy-Messung unter Berücksichtigung der Ambiguität der menschlichen Mentalität Die Erforschung menschlicher Emotionen hat begonnen, sich mit psychologischen Aspekten der menschlichen Natur zu befassen und ist so weit fortgeschritten, dass verschiedene Modelle entworfen wurden, die sie quantitativ und systematisch abbilden. Basierend auf den Ergebnissen wird eine Methode zur emotionalen Raumbildung und emotionalen Inferenz vorgeschlagen, die die Qualität und die Realität von emotionsbasierten personalisierten Diensten steigert. Unter Berücksichtigung der subjektiven Tendenzen von Individuen wurde AHP zur quantitativen Bewertung menschlicher Emotionen übernommen, auf deren Grundlage eine Methode der Emotionsraum-Remodellierung in Anlehnung an das emotionale Modell von Thayer und Plutchik vorgeschlagen wird, die persönliche Emotionen berücksichtigt. Darüber hinaus wurden Sugeno-Fuzzy-Inferenz, Fuzzy-Maße und Choquet-Integral für die emotionale Inferenz in das umgestaltete personalisierte emotionale Raummodell übernommen. Seine Leistung wurde durch ein Experiment bewertet. Vierzehn Fälle wurden mit 4,0 und einem höheren Bewertungswert der abgeleiteten Emotionen analysiert, um die emotionale Ähnlichkeit durch die Fallstudien von 17 Arten von emotionalen Inferenzmethoden zu bewerten. Übereinstimmungsergebnisse pro Inferenzmethode in zehn Fällen, die 71 % ausmachen, werden bestätigt. Es wird auch festgestellt, dass die verbleibenden zwei Fälle im selben Abschnitt als angrenzende Emotionen geschlussfolgert werden. Auf diese Weise wird die Ähnlichkeit der Inferenzergebnisse verifiziert.;-;-;-;https://link.springer.com/article/10.1007/s11771-016-3059-3 282810d5c96c1365736831613dc02f5a;de;;;2.4.;;;Neue Entwicklungen in der klinischen Analytik Die revolutionäre Entwicklung der Klinischen Chemie kommt darin zum Ausdruck, dass sich die Gesamtzahl der Analysen fast alle fünf Jahre verdoppelt. Die einzige Lösung für dieses Problem ist die Automatisierung. Einige Beispiele für neue Entwicklungen auf den Gebieten der Enzym-, Protein- und Aminosäurechemie werden vorgestellt. Diese wenigen Beispiele lassen sich fast ins Unendliche erweitern. Es ist jedoch klar, dass die Entwicklung analytischer chemischer Techniken Hand in Hand mit der Entwicklung moderner Geräte geht. Es wird ein kurzer Überblick über einige der wichtigsten Punkte in Bezug auf Spektrophotometrie, Gaschromatographie und radioaktive Isotope gegeben. Abschließend sei noch auf einen sehr wichtigen Aspekt dieser Neuentwicklungen hingewiesen, der leicht übersehen werden kann, nämlich die Standardisierung. Es wird ein Überblick über die niederländische Arbeit zur Standardisierung der Hämoglobinometrie (HiCN-Methode) gegeben.;-;-;-;https://link.springer.com/article/10.1007/BF00514615 46564959ec6b2c2f7e3ec12177e8fe8e;de;;;5.3.;;;Anwenden von Fuzzy AHP, um die Faktoren der Einführung von Cloud-Speicher zu verstehen Der Cloud-Speicherdienst (CSS) ist eine der am weitesten verbreiteten Anwendungen im Cloud-Computing. Die meisten Benutzer neigen jedoch dazu, den Mechanismus der Datensicherheit und des Datenschutzes zu bezweifeln, was den erwarteten Nutzen von CSS schmälern kann. Daher ist es wichtig, die Faktoren zu verstehen, die die Absicht des Benutzers beeinflussen, CSS zu übernehmen. Diese Studie fasst verschiedene Strategien zur Risikominderung zusammen, die von allgemeinen Benutzern ergriffen werden könnten, wenn sie mit einem neu entstandenen technologischen Dienst konfrontiert sind. Daher wurden insgesamt 4 Bewertungsdimensionen und 10 Faktoren ausgewählt. Anschließend wurde die Methode des Fuzzy-Analytic-Hierarchie-Prozesses zur Analyse verwendet. Aus den Ergebnissen geht hervor, dass die Bekanntschaft des Nutzers mit dem Cloud-Dienstleister, die positive Online-Mundpropaganda über die CSS sowie die Erklärung und Garantie des CSS-Anbieters zu Datensicherheit und Datenschutz drei Schlüsselfaktoren für die Nutzer sind, wenn sie Überlegen Sie, ob Sie diesen Service nutzen möchten oder nicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-05458-2_30 57e4aa3bd8f9ae609ff9600eba48110f;de;;;5.3.;;;Effiziente Nutzung von Cache-Ressourcen für Content Delivery Network basierend auf Blockchain Content Delivery Network (CDN) ist zu einem wichtigen Mittel geworden, um Netzüberlastung zu verringern und die Qualität der Benutzerdienste zu verbessern. Mit dem Aufkommen neuer Dienste wie Kurzvideos und Live-Streaming stand das traditionelle CDN jedoch vor einigen Herausforderungen. Um das Lag-Problem des passiven Caches zu mildern, schlagen wir ein aktives Cache-Bereitstellungsschema vor, das auf einem Smart Contract basiert. Um die Nutzung von Speicherressourcen an Nicht-Kernstandorten des Netzwerks zu verbessern, schlagen wir die auf Blockchain basierende CDN-P2P-Netzwerkstruktur vor. Darüber hinaus wird das Verfahren der modellprädiktiven Steuerung (MPC) verwendet, um das gemeinsame Optimierungsproblem von Bandbreite und Verzögerung bei der Auswahl des Replikatservers zu lösen. Eine große Anzahl von Simulationsexperimenten wurde durchgeführt, um die Wirksamkeit unseres vorgeschlagenen Schemas zu beweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-78612-0_11 5b706e9d9c5c82bcf2a4915d42a82f47;de;;;5.3.;;;Edge-Feedback ICN Cooperative Caching-Strategie basierend auf relativer Popularität Information-Centric Networking (ICN) verbessert inhaltsorientierte Dienste, indem es netzwerkinternes Caching ermöglicht und den besten Weg zur Anforderungsweiterleitung bereitstellt. Das kooperative Zwischenspeichern auf dem Pfad beim Zwischenspeichern im Netzwerk ist ein effektiver Weg, um die Dienstverzögerung zu reduzieren. Es bietet eine höhere Leistung, indem es zwischen Knoten auf dem Anforderungsweiterleitungspfad koordiniert. Die aktuelle Strategie besteht jedoch darin, beliebte Inhalte an den Rand des Netzwerks zu verschieben, was zu einer großen Cache-Redundanz am Rand des Netzwerks führt. Dies verringert die Cache-Auslastung des Netzwerks und verursacht zusätzlichen Kommunikationsaufwand zwischen Knoten auf dem Weiterleitungspfad. Dieses Papier schlägt eine kooperative Edge-Feedback-Caching-Strategie vor, die die Caching-Entscheidung in die Anforderungsweiterleitungsphase vom Rand des Netzwerks zum Kernnetzwerk vorrückt. Der Knoten auf dem Weiterleitungspfad berechnet die relative Popularität des Inhalts basierend auf dem Feedback des nachgeschalteten Knotens neu und bestimmt die Inhaltselemente, die gemäß dem Berechnungsergebnis im Netzwerk zwischengespeichert werden müssen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-57881-7_69 9e31761514fe7993f41f56caac5ef0b8;de;;;5.3.;;;IPFRA: Ein Online-Protokoll-Reverse-Analyse-Mechanismus Protocol Reverse Engineering ist von großer Bedeutung, um Protokollschwachstellen aufzudecken, die Protokollsicherheit zu verbessern und Protokolle wiederzuverwenden. Die existierenden Protokoll-Reverse-Analyse-Methoden erfordern normalerweise einen hohen Rechenaufwand und dauern oft lange, was die Wirkung der Echtzeit-Analyse stark beeinträchtigt. Dieses Papier schlägt einen inkrementellen Protokollformat-Extraktionsalgorithmus vor, der den Netzwerkverkehr in verschiedene Teilströme aufteilt und einen Fehlerentscheidungsmechanismus einführt, um lokale Fehler durch Partitionen zu vermeiden, um die Korrektheit sicherzustellen. Durch dynamische Bewertung der Komplexität der Protokollanalyse kann das Verfahren der inkrementellen Protokollanalyse die Effizienz des Protokoll-Reverse-Engineerings effektiv verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00015-8_28 1d3f72ca8e28f1b9bc077cbf6cf17212;de;;;2.4.;;;Entstehung, Injektion und Beschleunigung von CIR-Partikeln: Beobachtungen Dieser Bericht hebt neue Beobachtungsaspekte von CIR-Ionen hervor, die durch fortschrittliche Instrumente aufgedeckt wurden, die mit den Raumsonden Ulysses, WIND, SOHO und ACE gestartet wurden, und durch den einzigartigen Aussichtspunkt von Ulysses, der die erste Untersuchung der Eigenschaften der Corotating Interaction Region (CIR) über eine sehr breite Palette von Heliolatituden. Nachdem dieses vollständigere Beobachtungsbild erstellt wurde, ist dieser Aufsatz die Grundlage, um den Stand der theoretischen Modelle zu Ursprung, Injektion und Beschleunigung von CIR-Partikeln zu betrachten, über die von Scholer, Mann berichtet wurde;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1179-1_16 2ae279cebb0fb82bf4ac9989cf496893;de;;;2.4.;;;Probleme der Wellendynamik von Turbinengeneratoren Die Art der Fehler und Störungen, die in einem elektrischen Energiesystem auftreten können, werden untersucht. Die Abfolge von Ereignissen, denen eine Turbinen-Generator-Einheit durch solche Ereignisse ausgesetzt sein kann, wird beschrieben. Verfahren zur Analyse der Einheitsreaktion werden erwähnt und aktuelle Probleme bei der Vorhersage einer solchen Reaktion werden diskutiert. Die Notwendigkeit einer Online-Wellenüberwachung und einer kumulativen Schadensanalyse wird erwähnt. Es werden verschiedene Arten von Geräten zur kontinuierlichen Überwachung und Messung, die derzeit an Turbinengeneratoren verwendet werden, mit Einzelheiten zu ihrer Leistung beschrieben. Es werden Schlussfolgerungen zum Stand der Technik in diesem Bereich gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-2846-6_13 ff150b20488ef6ad6e72acafa4fbdf20;de;;;2.4.;;;Quorum Sensing als Ziel für die Entwicklung von Bekämpfungsstrategien für den Pflanzenpathogen Quorum Sensing ist ein regulatorischer Mechanismus, der die Genexpression mit der Zelldichte in Bakterien verbindet. Bei den Proteobakterien werden zahlreiche Funktionen auf diese Weise reguliert, darunter die Pathogenität im;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-6776-1_10 96cc86b409bccd1f8345c0ddaaa60ab7;de;;;2.4.;;;Spektroskopische Untersuchungen von Eisen(III)-Komplexen von D-Saccharose und D-Glucose im festen Zustand und in Lösung Es wurden Eisen(III)-Komplexe von D-Saccharose und D-Glucose hergestellt. Die Zusammensetzungen der Komplexe wurden durch analytische Standardverfahren bestimmt. Die Mößbauer-Spektren spiegelten die Anwesenheit von High-Spin-Eisen(III) in der mehrkernigen Spezies wider. EPR-Spektroskopie zeigte antiferromagnetisch gekoppelte Eisen(III)-Zentren innerhalb der Festkörperkomplexe. Das;-;-;-;https://link.springer.com/article/10.1007/BF02063547 e4b5f458e8b7acb3f10f5faac473d28d;de;;;2.4.;;;ZWILLINGSWELLEN (außer Krebstiere, Spinnentiere und Insekten) Die in diesem Kapitel zu betrachtenden Gruppen (Tabelle 1) bilden eine riesige und sehr heterogene Ansammlung. Dies macht die Aufgabe einer detaillierten Untersuchung ihrer ökosensorischen Funktionen sehr schwierig, aber herausfordernd und interessant. Der Hauptzweck besteht darin, die meist in geeigneten Lehrbüchern und Übersichtsartikeln verfügbaren Informationen zusammenzufassen und im Hinblick auf Zusammenhänge zwischen Lebensräumen, Sinnesfunktionen, Lebensweisen, Nahrungsaufnahme und Fortbewegung aufzuzeigen. Man kann leicht erkennen, dass die Unterscheidungen manchmal nicht immer klar sind. Parasitismus ist eine Lebensweise sowie Nahrungsaufnahme. Dieselbe Gruppe von Zellen könnte mehr als eine sensorische Funktion erfüllen, z.B. taktil und chemorezeptiv. Oder eine Funktion könnte von einer Gruppe von Zellen ausgeführt werden, die kein Organ bilden, wie im Fall der Sinneszellen, die Cluster bilden und lichtempfindlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-3363-0_5 945c0053c0bce84bbb4942fbefb7da29;de;;;2.4.;;;Beratungstechniken In vielerlei Hinsicht ist die Aufgabe zu lernen, was in der Beratung zu tun ist, wie das Malen auf Leinwand zu lernen. Auch wenn bestimmte spezifische Techniken beherrscht werden, ist die Aufgabe nicht erfüllt, denn der Fokus muss sich dann darauf richten, was es heißt, die Technik zu transzendieren und die Kunst zu entwickeln. Unterbleibt dieser zweite Schritt, wird der Einsatz von Beratungstechniken vom Patienten als rigide und manipulativ erlebt und die Therapie wird nicht unbedingt wirksam sein. Der „Kochbuch“-Ansatz der Beratung übersieht die einzigartigen Merkmale des Patienten, das vorliegende Problem und den eigenen zwischenmenschlichen Stil oder die Persönlichkeit des Arztes. Da die Forschung die effektive Übereinstimmung zwischen diesen Variablen nicht aufgedeckt hat,;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-5433-1_23 4619b62d94ec635ecb98a81aa497417b;de;;;5.3.;;;Eigenwerte fast periodischer Schrödinger-Operatoren in Wir beweisen, dass jeder Eigenwert eines Schrödinger-Operators mit nahezu periodischem Potential, der im Raum aller quadratischen Haar-integrierbaren Funktionen auf die Bohrsche Kompaktifizierung von ℝ wirkt, eine Vielfachheit nicht größer als 2 hat.;-;-;-;https://link.springer.com/article/10.1007/BF00400371 feea23463540a47c6b9957f8035446b3;de;;;5.3.;;;Eine schnelle und effiziente Gesichtserkennungstechnik mit Support Vector Machine Wir präsentieren eine effiziente Technik zur Gesichtserkennung, die die gesichtsähnlichen Regionen aus einem Graubild herausfiltert und dann die Gesichter mithilfe von Support Vector Machines (SVM) aus diesen potenziellen Regionen erkennt. Die Technik konzentriert sich auf das Extrahieren der wahrscheinlichen Augenregionen, da die Augen die auffälligsten Merkmale eines Gesichts sind. Der wahrscheinliche Ort der Augen wird verwendet, um einen quadratischen Bereich zu segmentieren, der einen gesichtsähnlichen Bereich aus dem Bild bildet. Die extrahierten Regionen werden unter Verwendung einer einzelnen SVM verifiziert, um eine binäre Entscheidung zu treffen: Gesicht/Nicht-Gesicht. Experimentelle Ergebnisse zeigen, dass das vorgeschlagene Gesichtserkennungssystem mehrere Größenordnungen schneller ist als die bestehenden SVM-basierten Systeme.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30499-9_51 cf8ca7cb420c8e75d89a463fef21da36;de;;;5.3.;;;Eine Weblösung für Concurrency Awareness in Shared Data Spaces Computer Supported Collaborative Work (CSCW) muss kooperierenden Benutzern einen gemeinsamen Arbeitsbereich bieten. Dies erfordert eine geeignete Engine auf der Clientseite, die es ermöglicht, einen Fokus auf die gemeinsam genutzten Daten zu setzen. Alle gleichzeitigen Aktivitäten anderer Benutzer, die sich zufällig in dieses Ansichtsfenster erstrecken, müssen ebenfalls sichtbar gemacht werden. Darüber hinaus muss der Kunde Mechanismen bereitstellen, um sich zwischen den Daten (Objekten) zu bewegen und seine Anwesenheit bekannt zu machen. Serverseitig muss durch ein erweitertes Transaktionskonzept ein global konsistenter Zustand der Daten gewährleistet werden. Hier präsentieren wir eine Beschreibung einer sehr kompakten, aber erweiterbaren Lösung für diese Aufgabe. Es handelt sich um einen Standard-Webbrowser mit einem kleinen Applet (weniger als 3 KB) als Schnittstellengenerator und eine objektrelationale Datenbank-Engine als Server. Der Server verwendet eine Tcl-basierte Navigationssprache und steuert die Schnittstellen für die Clients über Stream-Socket-Verbindungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-49121-7_34 f2cac5d8245508cc3b5a3e656e594466;de;;;5.3.;;;Dance-Action-Erkennungstechnologie basierend auf Multi-Feature-Fusion im Internet-Zeitalter Tanz ist eine Möglichkeit des emotionalen Ausdrucks für das Publikum durch Körperbewegungen. Unterschiedliche Tanzbewegungen haben unterschiedliche emotionale Inhalte. Um das Erbe und die Entwicklung der Tanzkunst zu verwirklichen, müssen wir derzeit die Körperbewegungen und Sprachbewegungen einzeln analysieren, um ein systematisches Tanzunterrichtsschema zu bilden. Der Tanz selbst weist jedoch die Merkmale der Selbstverbergung und des hohen Schwierigkeitsgrades auf. Die traditionelle Tanzbewegungsanalyse und -verwaltung hat die Probleme einer geringen Erkennungseffizienz und einer geringen Erkennungsgenauigkeit. Mit Unterstützung der Computer-Vision-Erkennungstechnologie kann es Computerausrüstung importieren, Bildverarbeitung, maschinelles Lernen und andere Disziplinen verwenden, um eine automatische und informationstechnische Erkennung von Tanzbewegungen durchzuführen. Es kann gesagt werden, dass die Aktionserkennungsmethode, die von der Computer-Vision-Erkennungstechnologie unterstützt wird, technische Unterstützung für die langfristige Entwicklung des Erbes und der Entwicklung der Tanzkunst bietet. Darauf aufbauend führt dieser Beitrag die Erforschung und Analyse der Tanzaktionserkennungstechnologie unter der Computer Vision Recognition Technologie durch, um das Anwendungsprinzip der Tanzaktionserkennungstechnologie zu klären und die nachhaltige Entwicklung von Bewegungserkennungstechnologie und Tanzkunst zu unterstützen .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-74814-2_50 0918298f7ba716ff72484318eba96cae;de;;;2.4.;;;Die Wahrnehmung von primärem und sekundärem Stress im Englischen Die meisten Modelle der Worterkennung, die sich auf die Prosodie beziehen, basieren auf einer Unterscheidung zwischen starken Silben (die einen vollen Vokal enthalten) und schwachen Silben (die ein Schwa enthalten). In diesen Modellen wird die Möglichkeit, dass Hörer feinkörnigere Prosodie-Unterscheidungen wie primäre vs. Im vorliegenden Experiment wurden den Versuchspersonen Wortfragmente vorgelegt, die sich nur durch den Grad der Betonung unterschieden – nämlich primäre oder sekundäre Betonung (z. B. /;-;-;-;https://link.springer.com/article/10.3758/BF03205547 955277d3aec40845b0c9b6c0d5a5681c;de;;;2.4.;;;Wirkung von Salicylsäure auf die Entwicklung einer induzierten Thermotoleranz und Induktion der Hitzeschock-Proteinsynthese im Salicylsäure (SA) könnte an der Entwicklung einer Toleranz gegenüber abiotischem Stress, insbesondere gegenüber Hitzeschock, beteiligt sein. Unter normalen Bedingungen (26 °C) verbesserte die Behandlung mit SA die Verträglichkeit von heterotrophen;-;-;-;https://link.springer.com/article/10.1134/S1021443709010105 ef64e0f1f8635e9d45c403d55df7d954;de;;;2.4.;;;Expression und prognostische Rolle von SGTA beim humanen Mammakarzinom korrelieren mit der Tumorzellproliferation Es wurde berichtet, dass das kleine glutaminreiche Tetratricopeptid-Repeat-enthaltende Protein Alpha (SGTA) an verschiedenen zellulären Prozessen beteiligt ist und an der Kontrolle der Zellzyklusregulation und Transkription beteiligt ist. Es kann eine entscheidende Rolle bei der Onkogenese spielen. Um die mögliche Rolle von SGTA bei Brustkrebs zu untersuchen, wurden in dieser Studie Expressionsmuster, Interaktion und die Korrelation mit klinischen/prognostischen Faktoren von SGTA und Ki-67 bei Patientinnen mit Brustkrebs untersucht. Immunhistochemie und Western-Blot-Analyse wurden für SGTA in 100 Brustkarzinomproben durchgeführt. Die Daten wurden mit klinisch-pathologischen Merkmalen korreliert. Die univariate und multivariate Überlebensanalyse wurde ebenfalls durchgeführt, um die prognostische Signifikanz zu bestimmen. Wir fanden, dass SGTA im Mammakarzinom im Vergleich zu den angrenzenden normalen Geweben überexprimiert war. Eine hohe Expression von SGTA war positiv mit dem histologischen Grad (;-;-;-;https://link.springer.com/article/10.1007/s10735-014-9586-z a92c5434cd5f82e6a61bd229fcb0de52;de;;;2.4.;;;Ein Tierbewegungsmodell, das die Auswahl von Wohngebieten und Lebensraum umfasst Wildbiologen interessieren sich oft dafür, wie ein Tier den Raum und die Lebensraumressourcen in diesem Raum nutzt. Wir schlagen ein einzelnes Modell vor, das den Heimatbereich und die Habitatauswahlparameter eines Tieres innerhalb dieses Bereichs schätzt und gleichzeitig die inhärente Autokorrelation in häufig abgetasteten Telemetriedaten berücksichtigt. Das Modell wird auf Braunbären-Telemetriedaten im Südosten Alaskas angewendet.;-;-;-;https://link.springer.com/article/10.1007/s10651-007-0036-x df726acfe1c18c3550a0b0f44a78cd81;de;;;2.4.;;;Dampfuntersättigte Experimente mit Macusani-Glas+H Dampfuntersättigte fraktionierte Kristallisationsexperimente mit Macusani-Glas (Macusanit), einem peraluminösen Rhyolith-Obsidian, bei 200 MPa ergeben mineralogische Strukturen und Zonierung sowie Schmelzfraktionierungstrends, die denen in zonierten granitischen Pegmatiten und anderen Granitoiden vergleichbarer Zusammensetzung (typischerweise peraluminös, Li-Be-Ta-reiche Ablagerungen). Die Zonierung vom Rand der Ladungen nach innen ist gekennzeichnet durch: (1) feinkörnige natriumhaltige Feldspat-Quarz-Grenzzonen, (2) einen Saum von sehr grobkörnigen grafischen Quarz-Feldspat-Verwachsungen, die radial zur Schmelze hin flackern und fast einphasig enden Kalifeldspat, (3) Kerne aus sehr grobkörnigem, fast monomineralischem Quarz oder Virgilit (LiAlSi;-;-;-;https://link.springer.com/article/10.1007/BF01160186 eb380ce795a86ae18aec1e48e85852f4;de;;;2.4.;;;Zuweisen tiefer lexikalischer Typen Tiefe linguistische Grammatiken bieten komplexe grammatikalische Darstellungen von Sätzen, erfassen beispielsweise Abhängigkeiten über große Entfernungen und geben semantische Darstellungen zurück, wodurch sie sich für die fortgeschrittene Verarbeitung natürlicher Sprache eignen. Ihnen fehlt es jedoch insofern an Robustheit, als sie Wörter, die im Lexikon der Grammatik fehlen, nicht elegant behandeln. Es wurden mehrere Ansätze unternommen, um dieses Problem zu lösen, von denen einer darin besteht, die Eingabe in die Grammatik mit flachen Verarbeitungswerkzeugen für maschinelles Lernen vorab zu kommentieren. Dies geschieht normalerweise, um das Parsen (Supertagging) zu beschleunigen, kann aber auch dazu verwendet werden, unbekannte Wörter in der Eingabe zu behandeln. Diese Vorverarbeitungswerkzeuge müssen jedoch in der Lage sein, mit dem riesigen Tagset zurechtzukommen, das für eine tiefe Grammatik erforderlich ist. Wir untersuchen das Training und die Evaluation mehrerer Supertagger für eine tiefgreifende linguistische Verarbeitungsgrammatik und berichten darüber in diesem Artikel.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32790-2_29 77f3a5858c3f5c3436cf3ff824fbd10e;de;;;2.4.;;;Compton, 1650er-1660er Jahre Die Erinnerung an William Stephens Land blieb mindestens bis in die späten 1720er Jahre erhalten, wenn auch nur als Name eines Traktats im Besitz der Familie Hungerford. Keine Hinweise auf die Familie Stephens in Calvert County stammen aus dem zweiten Viertel des 19. Jahrhunderts. Diese wenigen Hinweise auf „Stephens“, die aus dem frühen 19. Jahrhundert überlebt haben, beziehen sich auf Stephens Creek, das bald in Hungerfords umbenannt werden sollte. Die Rückkehr der Familie Stephens in das kollektive Gedächtnis des südlichen Marylands ist auf eine geringfügige Bestimmung in einer Bezirksverordnung zurückzuführen: eine Verordnung, die eine archäologische Erkundung vor Mehrfamilienwohnprojekten erfordert. Der Standort Compton wurde als Ergebnis der beauftragten Untersuchung gefunden und als historisch bedeutsam und intensiv untersucht. Compton ist weder die älteste Fundstätte in der Region, noch ist sie hinsichtlich der Quantität oder Qualität der geborgenen Artefakte außergewöhnlich. Compton war das Haus einer Familie mit bescheidenen Mitteln. Das Adjektiv „unauffällig“ beschreibt diese Familie und ihr Zuhause vielleicht am besten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0345-9_8 191205ab3064aff7cb5e558ae7f6aba2;de;;;2.4.;;;Die Messung der Vorticity in Übergangs- und voll entwickelten turbulenten Strömungen Die Bedeutung der Vorticity und die Bedeutung ihrer zeit- und ortsaufgelösten Messung in turbulenten Strömungen wird diskutiert. Die Messverfahren werden kategorisiert in solche, die Mehrpunktmessungen der Geschwindigkeit verwenden, um die erforderlichen Geschwindigkeitsgradienten oder Zirkulation zu bestimmen, und solche, die diese Gradienten direkt erfassen. Die Eigenschaften und Leistung dieser Vorticity-Messmethoden werden bewertet. Sofern verfügbar, werden Messungen einiger Vorticity-Feldstatistiken mit zwei oder mehr Methoden verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83787-6_7 38a97dd83a5c5485b48b24c50651f3d2;de;;;2.4.;;;Virusinfektionen bei Dialysepatienten Teil B: Dialyseassoziierte Hepatitis Virale Lebererkrankungen, insbesondere durch das Hepatitis-B-Virus (HBV) und das Hepatitis-C-Virus (HCV), wurden weltweit mit hoher Häufigkeit in Hämodialysestationen beobachtet. Aufgrund der mangelhaften Immunantwort von urämischen Patienten, die es ihnen unmöglich macht, Viren zu eliminieren, wirken Hämodialysepatienten als Reservoir der Viren und übertragen die Infektion auf andere Patienten, auf das Personal der Dialysestation und im Falle einer Infektion auf die eigene Familie mit HBV.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-585-36947-1_49 51e4545573f2fb29417faa6fd9faab4a;de;;;5.3.;;;Das cholinerge Rezeptorprotein von Fish Electric Organ Acetylcholin ist einer der bekanntesten Neurotransmitter und seine pharmakologische Wirkung auf verschiedene Zellkategorien hat seit fast einem Jahrhundert große Aufmerksamkeit erregt. Bis vor kurzem jedoch zweifelten viele Pharmakologen, dass seine „rezeptive Substanz“ jemals im Reagenzglas isoliert werden würde. Tatsächlich wurden Lipide, Polysaccharide, Proteine ​​und sogar Nukleinsäuren gleichermaßen als potenzielle Rezeptoren angesehen, aber ein endgültiger Beweis dafür, dass eine dieser Verbindungen für die physiologische Wirkung von Acetylcholin verantwortlich ist, fehlte konsequent. Die Schwierigkeit beruhte auf dem Fehlen einer festen Theorie und einer vernünftigen Methode zur Charakterisierung und Isolierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-8514-1_7 8cf8dc9ecfed388c8a22cf554a3d8012;de;;;2.4.;;;Auswirkungen der Reynolds-Zahl auf die Nullpunktkalibrierung einer kegelförmigen Fünflochsonde für Turbomaschinenanwendungen Für die repräsentativen Reynolds-Zahlen in Turbomaschinen wurden die Auswirkungen der Reynolds-Zahl auf die Nullpunktkalibrierung einer typischen kegelförmigen Fünflochsonde untersucht. Die Nick- und Gierwinkel werden von -35 Grad auf 35 Grad mit einem Winkelintervall von 5 Grad bei sechs Sonden-Reynolds-Zahlen im Bereich zwischen 6,60 × 10;-;-;-;https://link.springer.com/article/10.1007/BF03023940 8be76b31b50e6f78ffb1b75c78aa1dfd;de;;;2.4.;;;Hemmende Wirkung von Methylgallat und Gallussäure auf orale Bakterien Diese Studie untersuchte die Fähigkeit von Methylgallat (MG) und Gallussäure (GA), den Hauptverbindungen der Gallotannine in Galla Rhois, die Vermehrung von oralen Bakterien und;-;-;-;https://link.springer.com/article/10.1007/s12275-008-0235-7 436a4b5afc8001e46cb76acbfeb02a42;de;;;2.4.;;;Nahrungsaufteilung bei madagassischen Primaten Die Nahrungsverteilung zwischen Lemuren wurde in Bezug auf die Größe der Nahrungsfelder und die Pflanzenchemie im östlichen Regenwald und einem westlichen Laubwald von Madagaskar untersucht. Die Patchgröße (d. h. der Kronendurchmesser von Nahrungsbäumen) korreliert signifikant mit dem Gruppenkörpergewicht verschiedener Lemurenarten. Die intraspezifische Variabilität ist jedoch hoch und verhindert eine effektive Speziestrennung. Chemische Analysen von mehr als 400 Pflanzenteilen, die von sieben verschiedenen Lemurenarten gefressen wurden, zeigten große Unterschiede in der Nahrungsauswahl in Bezug auf Proteinkonzentrationen, kondensierte Tannine und Alkaloide. Unter den blattfressenden Lemuren unterscheidet die Diskriminanzanalyse drei Gruppen à zwei Arten aufgrund der chemischen Eigenschaften ihrer Nahrung. Während Unterschiede in der Lebensmittelchemie zwischen den Gruppen ausgeprägt sind, fehlen sie zwischen den beiden Arten innerhalb jeder Gruppe. Die beiden Arten jeder Gruppe vermeiden Interferenzkonkurrenz durch unterschiedliche Aktivitätsrhythmen. Die tatsächliche Konkurrenz um langsam nachwachsende Rohstoffe wie Blätter und Früchte kann jedoch nicht durch unterschiedliche Aktivitäten reduziert werden. Hier können interspezifische Unterschiede in den Bruttokategorien von Lebensmitteln, die Zusammensetzung der Lebensmittelarten und die unterschiedliche Habitatnutzung aufgrund anderer Einschränkungen zur möglichen Koexistenz von Arten beitragen. Somit sind interspezifische Unterschiede in der Nahrungsauswahl in Bezug auf primäre und sekundäre Pflanzenchemikalien ein integrierter Bestandteil der Mechanismen, die es mehreren Primatenarten ermöglichen, in Sympatrie nebeneinander zu existieren.;-;-;-;https://link.springer.com/article/10.1007/BF00376949 e96d48e9bc80de29d0a7695e78b8ca94;de;;;2.4.;;;Anerkennung indigener Länder durch das norwegische Finnmarkgesetz von 2005: Ein wichtiges Beispiel für andere Länder mit indigenen Völkern? Das Völkerrecht umfasst Verträge und Erklärungen, die die Nationalstaaten verpflichten, die Kultur und Lebensgrundlage indigener Völker zu schützen. Von besonderem Interesse ist das Übereinkommen Nr. 169 der Internationalen Arbeitsorganisation (ILO) über indigene und in Stämmen lebende Völker in unabhängigen Ländern und die Erklärung der Vereinten Nationen über die Rechte indigener Völker (UNDRIP). Norwegen ist eines von 22 Ländern, die der ILO 169 beigetreten sind. In diesem Kapitel wird die Verpflichtung untersucht, das Land und die natürlichen Ressourcen der indigenen Bevölkerung in Bezug auf die indigenen Sámi in den nordischen Ländern zu identifizieren und anzuerkennen. Diese Verpflichtung gilt insbesondere für Norwegen, das als einziges Land mit samischer Bevölkerung das ILO-Übereinkommen ratifiziert hat. Die Norwegen auferlegten Verpflichtungen werfen daher mehrere zentrale Fragen bezüglich der Identifizierung des Landes indigener Völker auf, unter anderem inwieweit die samischen Gesetze und Bräuche als Rechtsquellen in solchen Prozessen von Bedeutung sind und wie der Staat die indigene Partei in den Prozess einbeziehen muss.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25035-9_10 205b0d6df01cb05de603b126b79b9772;de;;;2.4.;;;Ein umfassender Blick auf die epigenetische Landschaft. Teil II: Posttranslationale Histonmodifikation, Nukleosomenebene und Chromatinregulation durch ncRNAs Die Komplexität des Genoms wird durch epigenetische Mechanismen reguliert, die auf der Ebene von DNA, Histonen und Nukleosomen wirken. Die epigenetische Maschinerie ist an verschiedenen biologischen Prozessen beteiligt, einschließlich der embryonalen Entwicklung, der Zelldifferenzierung, der Neurogenese und der Erneuerung von adulten Zellen. In den letzten Jahren hat sich gezeigt, dass die Zahl der identifizierten Akteure bei der Regulation der Chromatinstruktur und -funktion immer noch zunimmt. Neben bekannten Phänomenen, darunter DNA-Methylierung und Histon-Modifikation, werden neue, wichtige Elemente wie die Nukleosomenmobilität, das Histon-Schwanz-Clipping und regulatorische ncRNA-Moleküle entdeckt. Die vorliegende Arbeit liefert den aktuellen Wissensstand über die Rolle von 16 verschiedenen posttranslationalen Histonmodifikationen, Nukleosomenpositionierung und Histonschwanz-Clipping in der Struktur und Funktion von Chromatin. Wir betonen auch die Bedeutung des Cross-Talks zwischen Chromatin-Marken und ncRNAs in der epigenetischen Kontrolle.;-;-;-;https://link.springer.com/article/10.1007/s12640-014-9508-6 f984a9e9fc8e120c49cb2186f50ad522;de;;;2.4.;;;Raman-Spektroskopie in der Augenheilkunde: Vom experimentellen Werkzeug zu Anwendungen in vivo Die Raman-Spektroskopie ist eine qualitative und quantitative optische Methode zur Bestimmung der molekularen Zusammensetzung von Materie. Verbesserungen bei spektroskopischen Instrumenten, insbesondere die Modalität zur Erkennung von Signalen bei schwachem Licht, erweiterten die Raman-Technik auf biomedizinische Anwendungen, sogar in empfindlichen Strukturen wie dem Auge. Der Zweck dieser Arbeit war es, eine Bestandsaufnahme der durchgeführten Anwendungen der Raman-Spektroskopie in der biomedizinischen Wissenschaft und insbesondere in der Augenheilkunde zu erstellen. Eine Literaturrecherche wurde mit Medline, Current Contents, einem Patentserver im Internet und Referenzen in Artikeln und Patenten durchgeführt. Diese Suche ergab eine Vielzahl von Raman-Techniken und Anwendungen in der biomedizinischen Forschung und einen zunehmenden Fluss von Artikeln ab den späten 1970er Jahren über die Raman-Spektroskopie in der Augenheilkunde. Diese Zunahme der Literatur über die Raman-Spektroskopie in der Augenheilkunde lässt erwarten, dass diese wertvolle Technik in Zukunft in die klinische Praxis eingeführt wird.;-;-;-;https://link.springer.com/article/10.1007/PL00011360 5c7a8578ba90601101bfdc1d1181bc30;de;;;2.4.;;;Modulation der Darmmikrobiota bei Mäusen durch Kefir-Verabreichung Kefir ist ein Multi-Spezies-Probiotikum, das aus Milch- und Essigsäurebakterien und Hefe besteht. Die modulatorischen Wirkungen von Kefir auf die Darmmikroflora von Mäusen wurden mit gruppenspezifischer quantitativer Echtzeit-Polymerasekettenreaktion untersucht. Am Ende der 3-wöchigen oralen Kefir-Verabreichungszeit ist die Anzahl der;-;-;-;https://link.springer.com/article/10.1007/s10068-015-0179-8 d507e2d4ebd3a3e47b878e678347ce51;de;;;5.3.;;;Vorschläge zur prädiktiven Datentransformation in Grafterizer mit maschinellem Lernen Die Datenvorverarbeitung ist ein entscheidender Schritt in der Datenanalyse. Für Datentransformationsaufgaben wie Datenformatierung, -modifikation, -extraktion und -anreicherung wird viel Zeit aufgewendet, was es den Benutzern in der Regel bequemer macht, mit Systemen zu arbeiten, die die relevantesten Transformationen für einen bestimmten Datensatz empfehlen können. In diesem Papier schlagen wir einen Ansatz vor, um mithilfe von maschinellem Lernen (insbesondere dem Random Forest-Algorithmus) relevante Datentransformationsvorschläge für die Vorverarbeitung von Tabellendaten zu generieren. Der Ansatz wird für Grafterizer, ein webbasiertes Framework zur Bereinigung und Transformation tabellarischer Daten, implementiert und durch eine Usability-Studie evaluiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36599-8_12 7d52f4b3aad38eb267ac34d34a654935;de;;;2.4.;;;Abstammungsanalyse und Immortalisierung neuronaler Zellen über Retrovirus-Vektoren Retrovirus-Vektoren sind äußerst vielseitige Werkzeuge, die in einer Vielzahl von Systemen verwendet wurden. Sie wurden kürzlich in Studien der Entwicklungsneurobiologie eingesetzt und sind vielversprechend für zukünftige Arbeiten in den Neurowissenschaften [siehe Übersichten von Price et al. (1987);-;-;-;https://link.springer.com/protocol/10.1385/0-89603-140-3%3A177 4cb3ad3958f3f3a9598e3715f3ddad44;de;;;2.4.;;;Instrumentierte Messung der Laxität des Glenohumeralgelenks: Zuverlässigkeit und normative Daten In dieser Studie wurde die Schulterschlaffheit mit einem instrumentierten Arthrometer untersucht. Wir haben anteriore und posteriore Translationen auf verschiedenen Kraftniveaus verglichen, um die Zuverlässigkeit unserer Messtechnik zu bestimmen und normative Daten in gesunden Schultern zu liefern. Bei 50 Schultern wurde die Laxität des Glenohumeralgelenks in zwei Richtungen (anterior und posterior) und in vier Kraftstufen (67, 89, 111 und 134 N) untersucht. Das abhängige Maß war die Gelenkverschiebung. Die Schlaffheitswerte waren in unserer Gruppe gesunder Schultern weit, aber normal verteilt. Die Korrelationskoeffizienten innerhalb der Klasse zeigten eine ausgezeichnete Reliabilität zwischen den Studien (0,92) und eine angemessene Reliabilität zwischen den Sitzungen (0,73) und zwischen den Prüfern (0,74). Der durchschnittliche Standardmessfehler zwischen Probenahme (0,56 mm), Sitzungen (1,5 mm) und Untersucher (1,7 mm) zeigte eine beispiellos hohe Präzision bei der Quantifizierung der glenohumeralen Gelenklaxität. Gepaart;-;-;-;https://link.springer.com/article/10.1007/s001670000174 fef44b2b074db46238a47b5f15e1e272;de;;;2.4.;;;Klinischer Ansatz für den kompromittierten Wirt mit Fieber und pulmonalen Infiltraten Der immungeschwächte Patient, bei dem sich Fieber und Pneumonitis entwickeln, stellt den Kliniker vor eine große Herausforderung. Einerseits wurde berichtet, dass eine Legion mikrobieller Eindringlinge, die von üblichen viralen und bakteriellen Krankheitserregern bis hin zu exotischen Pilz- und Protozoen-Erregern reichen, bei diesen Patienten eine Lungeninfektion verursacht.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-2490-8_6 f381bea628d26421a75870b3431f2b8a;de;;;2.4.;;;CP-Verletzung im Zerfall des neutralen Kaon Diese Vorlesungen werden einige Themen von aktuellem Interesse bei der Untersuchung von CP-Verletzungen behandeln, hauptsächlich bei Kaon-Zerfällen. Wir werden uns mit den 2π-Abklingmodi sowie mit einigen viel selteneren beschäftigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-84741-7_7 f7376310467e974254e04d8ae581b754;de;;;2.4.;;;Ansätze zur Verbesserung der Kulturpflanzen Die Propagierung der Zelle als grundlegende Struktureinheit des Lebens, die potentiell totipotent ist, und der definitive experimentelle Nachweis der Totipotenz gipfelten in der Fokussierung breiter Anwendungen von Pflanzengewebe, Zell- und Protoplastenkulturen in den weiten Bereichen der Pflanzenvermehrung, Viruselimination, die zu krankheitsfreien Pflanzen führt , Anlagenverbesserung und die;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-1040-5_9 4fc549b5ca22c4313aed2b3de99bcd9e;de;;;2.4.;;;Merkmale der zerebralen Unterstützung verbaler Prozesse bei Kindern mit Dysgraphie und Legasthenie Eine umfassende neuropsychologische und elektroenzephalographische Untersuchung von Kindern mit Dysgraphie und Legasthenie zeigte lokale EEG-Anomalien in verschiedenen Zonen des Kortex in beiden Hemisphären, hauptsächlich in den posterotemporalen und/oder anterioren Regionen der linken und posterotemporalen Regionen der rechten Hemisphäre. Der Charakter von Sprachstörungen hing maßgeblich von der Lokalisation der Grundlinien-EEG-Anomalien ab: Störungen der motorischen Komponenten des Schreibens überwogen, wenn diese Anomalien in den vorderen Teilen der linken Hemisphäre lokalisiert waren, während bei Kindern mit lokalen Anomalien phonologische und morphologische Sprachstörungen festgestellt wurden in den temporalen Regionen beider Hemisphären und in den hinteren Assoziationsregionen, hauptsächlich in der rechten Hemisphäre. Spektral- und Korrelationsanalysen des EEG zeigten die Merkmale der zerebralen Organisation der verbalen Aktivität bei Kindern mit Dysgraphie und Legasthenie, nämlich eine abgeschwächte intra- und interhemisphärische Integration der elektrischen Aktivität verschiedener Regionen der Hirnrinde, insbesondere temporale und posteriore Assoziationsbereiche und Überwiegen der Integration basierend auf niederfrequenten EEG-Komponenten (θ und α;-;-;-;https://link.springer.com/article/10.1007/s10747-005-0020-5 3dcfc863723c7e987a27052b886878ba;de;;;2.4.;;;Die intelligente Steuerung eines Inertgas-Zerstäubungsprozesses Intelligente Steuerung ist ein Versuch, die Funktion eines Controllers so zu spezifizieren, dass er die Entscheidungsfähigkeiten des Menschen nachahmt. Traditionell fallen Fragen im Zusammenhang mit der Emulation menschenähnlicher Fähigkeiten in den Bereich der künstlichen Intelligenz. Intelligente Verarbeitung ist eine spezielle Form der intelligenten Steuerung, bei der das zu steuernde System ein Prozess und nicht das konventionellere mechanische oder elektrische System ist. Das Programm des National Institute of Standards and Technology zur intelligenten Verarbeitung von Metallpulver ist eine multidisziplinäre Forschungsinitiative, die die Anwendung intelligenter Steuerungstechnologien untersucht, um den Stand der Technik der Metallpulverherstellung zu verbessern. Dieses Papier gibt einen Überblick über das Design des Überschall-Inertgas-Metallzerstäuber-Steuerungssystems des Instituts.;-;-;-;https://link.springer.com/article/10.1007/BF03220112 3432350da390213be06d5835d576471a;de;;;2.4.;;;Darmepithelzellen von Säugetieren in Primärkultur: Ein Mini-Review Epithelzellen, die den Verdauungstrakt auskleiden, stellen ein hoch organisiertes System dar, das aus multipotenten Stammzellen aufgebaut ist. Ein Prozess der asymmetrischen Mitose erzeugt eine Population von proliferativen Zellen, die sich schnell erneuern und entlang der Krypta-Zotten-Achse wandern, sich in funktionelle reife Zellen differenzieren, bevor sie sterben und in das Darmlumen abblättern. Isolierte Krypten oder Epithelzellen mit hoher Lebensfähigkeit können innerhalb weniger Stunden nach der Gewebeentnahme hergestellt werden. Nach Kultivierung der Zellen in serumfreien Medien können Kurzzeitstudien (16–48 h) zur Endokrinologie, zum Energiestoffwechsel oder zum programmierten Zelltod durchgeführt werden. Eine langfristige Primärkultur von Darmzellen (bis zu 10 Tage) ist jedoch trotz Fortschritten bei den Isolierungsmethoden und der Manipulation der Zellmikroumgebung immer noch schwierig. Das Hauptproblem bei der Entwicklung von Primärkulturen ist das Fehlen von strukturellen Markern, die für das Stammzellkompartiment spezifisch sind. Das Design eines mikroskopischen multidimensionalen Analysesystems zur Erfassung der Expressionsprofile von Biomarkern entlang der lebenden Darmkrypta sollte das grundlegende Wissen über das Überleben und das Wachstum von adulten Kryptenstammzellen sowie die Auswahl totipotenter embryonaler Stammzellen, die in Darmgewebe differenzieren können, verbessern sollen Studien über die genomischen Grundlagen der endodermalen Gewebedifferenzierung erleichtern.;-;-;-;https://link.springer.com/article/10.1290/1071-2690%282002%29038%3C0123%3AMIECIP%3E2.0.CO%3B2 234a23bf4d1374a2c96c1a785b977563;de;;;5.3.;;;Strukturuntersuchungen der Acetylcholinesterase Zwei der Schlüsselproteine, die an der chemischen Übertragung an nikotinergen cholinergen Synapsen beteiligt sind, enthalten Bindungsstellen für Acetylcholin: der nikotinische Acetylcholinrezeptor (nAChR) und die Acetylcholinesterase (AChE). Da zwischen diesen Proteinen keine Sequenzhomologie besteht, sind die Bindungsstellen vermutlich das Ergebnis einer konvergenten Evolution. Die Aufklärung und der Vergleich der Architektur von Acetylcholin-Bindungsstellen verschiedener Proteine ​​sollten interessante Informationen über die strukturellen Voraussetzungen für die spezifische Bindung dieses kationischen Neurotransmitters liefern.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-3046-6_17 ca0e65239a3eaef11b0557960f9fcb45;de;;;2.4.;;;Schätzung des Frequenzauflösungsvermögens des menschlichen Gehörs durch verschiedene Methoden: Rolle sensorischer und kognitiver Faktoren Factor Das Frequenzauflösungsvermögen (FRP) wurde bei normalen Hörern gemessen. FRP wurde auf der Grundlage der maximal auflösbaren Welligkeitsdichte in Welligkeitsspektrumsignalen geschätzt. Es wurden zwei Messverfahren verglichen: Detektion der Welligkeitsmusteränderung und Vergleich von Welligkeitsspektrumsignalen. Bei der Änderungserkennungsmethode wurden dem Hörer zwei aufeinanderfolgende Tonsignale präsentiert: ein Testsignal und ein Referenzsignal. Das Testsignal enthielt alle 400 ms Welligkeitsphasenumkehrungen, im Referenzsignal war die Welligkeitsphase konstant. Die Aufgabe des Hörers bestand darin, das Testsignal zu identifizieren. Bei der Vergleichsmethode wurden dem Hörer drei Signale präsentiert. Die Welligkeitsphase in einem der drei Signale war der in den anderen beiden Signalen entgegengesetzt. Die Aufgabe des Hörers bestand darin, das Signal zu identifizieren, das sich von den anderen beiden Signalen unterscheidet. Die Signalfrequenzbänder variierten von 0,5 bis 5 Okt. bei einem Pegel von 0,5 des Maximums. Auf allen Frequenzbändern ergab die Änderungserkennungsmethode im Durchschnitt 1,75 Okt;-;-;-;https://link.springer.com/article/10.1134/S036211971803009X 720f8272dae85931442bab7a3bc03990;de;;;2.4.;;;Wahrscheinliche Neusortierung genomischer Elemente unter verlängerten RNA-haltigen Pflanzenviren Die Beziehungen der Genomorganisation zwischen verlängerten (stäbchen- und filamentösen) Pflanzenviren wurden analysiert. Sequenzen in kodierenden und nicht-kodierenden Regionen der RNAs 1, 2 und 3 des Gerstenstreifen-Mosaikvirus (BSMV) wurden mit denen der monopartiten RNA-Genome von Kartoffelvirus X (PVX), Weißklee-Mosaikvirus (WClMV) und Tabakmosaikvirus verglichen , das zweiteilige Genom des Tabakrasselvirus (TRV), das vierteilige Genom des nekrotischen Gelbvenenvirus der Rüben (BNYVV) und ikosaedrische Tricornaviren. Diese Pflanzenviren gehören zu einer Supergruppe mit 5'-verkappten genomischen RNAs. Die Ergebnisse legen nahe, dass die genomischen Elemente in jeder BSMV-RNA phylogenetisch mit denen verschiedener Pflanzen-RNA-Viren verwandt sind. RNA 1 ähnelt der entsprechenden RNA 1 von Tricornaviren. Die mutmaßlichen Proteine, die in BSMV-RNA 2 kodiert sind, sind mit den Produkten von BNYVV-RNA 2, PVX-RNA und WClMV-RNA verwandt. Aminosäuresequenzvergleiche legen nahe, dass die BSMV-RNA 3 der TRV-RNA 1 ähnelt. Auch lässt sich vermuten, dass bei monopartiten Genomen in der Regel jedes Gen oder jeder Genblock phylogenetische Verwandtschaften behält, die von benachbarten genomischen Elementen gleiche RNA. Eine solche unterschiedliche Evolution einzelner Elemente ein und desselben viralen Genoms impliziert eine herausragende Rolle für die Neusortierung von Genen bei der Bildung viraler genetischer Systeme.;-;-;-;https://link.springer.com/article/10.1007/BF02106181 2b11e6aab7b6887ae80a9e54af5fd16e;de;;;2.4.;;;Verwendung von Nistmaterial als insektizide und antipathogene Mittel durch den Europäischen Star Singvögel, die Nistplätze wiederverwenden, sind einer erhöhten Parasiten- und Krankheitserregerbelastung ausgesetzt. Sie verwenden auch eher frische grüne Vegetation während des Nestbaus. Die vorliegenden Ergebnisse zeigen, dass mindestens ein Singvogel, der Europäische Star, (a) eine kleine Untergruppe verfügbarer Pflanzenarten für die Aufnahme in das Nistmaterial auswählt und (b) Pflanzen auswählt, deren flüchtige Bestandteile eher das Schlüpfen von Arthropoden und das Bakterienwachstum hemmen zu einer zufälligen Untermenge der verfügbaren Vegetation. Die Ergebnisse zeigen auch, dass bevorzugte Pflanzen eine größere Anzahl von Mono- und Sesqueter-Penen bei höheren Konzentrationen im Vergleich zu einer zufälligen Untergruppe verfügbarer Pflanzen besitzen. Diese Ergebnisse deuten stark darauf hin, dass Stare Chemikalien in frischer Vegetation als Begasungsmittel gegen Parasiten und Krankheitserreger verwenden.;-;-;-;https://link.springer.com/article/10.1007/BF00384280 2767a4dec6fab94ff768c31e173db92e;de;;;2.4.;;;Die genetische und molekulare Organisation des dichten Clusters funktionell verwandter, lebenswichtiger Gene in der DOPA-Decarboxylase-Region des Das Vorhandensein von Clustern funktionell verwandter Gene im Genom, die eine gewisse Sequenzhomologie zueinander aufweisen, wurde im Allgemeinen als Folge des vorherigen Auftretens der entsprechenden Anzahl von Genduplikationsereignissen zusammen mit unterschiedlichen Mengen an nachfolgenden, divergenten Evolutionen der duplizierten Gene interpretiert . Wie weit die Gene innerhalb eines Clusters divergiert sind, hängt wahrscheinlich von einer Reihe verschiedener Faktoren ab, wie z Moleküle und selektiver Druck, um ähnliche, aber neue Funktionen zu erhalten. Darüber hinaus kann die Existenz von Clustern duplizierter Gene, von denen einige Pseudogene enthalten können, auf zufälligen Zufall zurückzuführen sein, wobei die Duplikationen dem Organismus keinen selektiven Vorteil oder Nachteil bieten (Loomis und Gilpin 1986). Andererseits können Cluster von homologen, aber divergierenden Genen mit verwandten Funktionen im Genom aufrechterhalten werden, um die koordinierte oder sequentielle Regulierung von Genen in Zeit und Raum zu erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-47783-9_7 2e8628b21b8cc6fae2478e7f30be0c28;de;;;2.4.;;;Morbidität von Zwillingen Säuglinge in Mehrlingsschwangerschaften unterliegen allen Krankheiten und Störungen, die Singletons sind, jedoch mit zwei zusätzlichen Betrachtungsebenen – dem Grad der Übereinstimmung der Anomalie und der Bedeutung der Zwillinge für die Pathophysiologie oder Prävalenz. Die Vorbehalte im Zusammenhang mit Zwillingsstudien und die Interpretation der Bedeutung der Konkordanz einer Beobachtung bei Zwillingen wurden in Kapitel 1 diskutiert. Es lohnt sich jedoch, die Bedeutung einer sorgfältigen pathologischen Dokumentation von Plazentabefunden und Autopsiestudien für die Validität jeder Studie zu betonen Krankheitsbilder bei Zwillingen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-9514-0_6 34b757a176d095153d15829220ee3afa;de;;;2.4.;;;Posttranslationale proteolytische Verarbeitung und Isolektine von Linsen und anderen Viciae-Samenlektinen Elektrospray-Massenspektrometrie wurde verwendet, um die proteolytischen Spaltungspunkte innerhalb und an den C-Termini der Proproteinformen von vier Viciae-Lectinen, die ihre zweikettigen Formen hervorbringen, genau zu identifizieren. Die untersuchten Lektine waren Erbsen- und Linsenlektine, Favin und;-;-;-;https://link.springer.com/article/10.1007/BF00731445 745ead5901edf731200c927c60c42b89;de;;;2.4.;;;Sekretomanalyse von Chondroitinsulfat-behandelten Chondrozyten zeigt anti-angiogene, entzündungshemmende und antikatabole Eigenschaften Chondroitinsulfat (CS) ist ein symptomatisches, langsam wirkendes Medikament gegen Osteoarthritis (OA), das in der Klinik weit verbreitet ist. Ziel dieser Arbeit ist es, mithilfe eines neuartigen quantitativen proteomischen Ansatzes Proteine ​​zu finden, deren Sekretion aus Knorpelzellen unter proinflammatorischen Stimuli (IL-1β) durch CS reguliert wird.;-;-;-;https://link.springer.com/article/10.1186/ar4040 300530bd0b334b1ad786b0eacb46d805;de;;;2.4.;;;Ursprung der Plastiden-Hüllmembranen Die endosymbiotische Theorie, die zuerst von Schimper (1885) und Mereschkovsky (1905) vorgeschlagen wurde, postuliert, dass die Plastiden in eukaryotischen Zellen als freilebende Prokaryoten entstanden, die in primitiven Zellen (Protoeukaryoten) Unterschlupf fanden und dann in ihnen zu dauerhaften symbiotischen Elementen wurden, wahrscheinlich durch Bereitstellung effizienterer Energieumwandlungssysteme. Dieser Vorschlag wird durch zahlreiche biochemische Studien gestützt, die die evolutionäre Beziehung zwischen Plastiden und Blaualgen begünstigen (siehe beispielsweise Fredrick, 1981, Schiff, 1982, Whatley, 1983). Die meisten Studien, die zum Beweis der endosymbiotischen Theorie durchgeführt wurden, konzentrieren sich jedoch im Allgemeinen auf die Struktur und Funktion von DNA und RNA, berücksichtigen auch die Hauptfunktionen (Photosynthese, Atmung), schenken jedoch im Allgemeinen einem wichtigen Strukturmerkmal der Zelle wenig Aufmerksamkeit Organellen und freilebende Prokaryoten, dh ihre Grenzmembranen. Zellorganellen, wie alle Arten von Plastiden, und einige Prokaryoten (siehe Stanier und Cohen-Bazire, 1977), wie gramnegative Bakterien und insbesondere Blaualgen (Cyanobakterien) werden durch ein Doppelmembransystem begrenzt. Es wird jedoch im Allgemeinen ohne experimentelle Beweise angenommen, dass die innere Hüllmembran von Chloroplasten von der Plasmamembran des prokaryotischen Vorfahren abstammen könnte, während die äußere Hüllmembran von Chloroplasten von dem Endomembransystem des Protoeukaryots abstammen könnte, das die freien lebenden Prokaryonten umhüllte .;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-4979-2_13 5d8ddcf0da953af6d3194011790097e4;de;;;2.4.;;;Studie zur Kopplung zwischen tiefen und flachen Strukturen des Xingtai-Gebiets und einige wichtige Fragen Im Lichte der Ergebnisse von Studien über die Kopplung zwischen tiefen und flachen Strukturen im Erdbebengebiet von Xingtai während der Periode des „Neunten Fünfjahresplans“ und anderer früherer Ergebnisse der tiefen seismischen Brechung/Reflexion und der seismischen Prospektion von Erdöl folgern wir, Reihe flacher Verwerfungen in der oberen Kruste über der 8 km tiefen Ablösungsoberfläche in der makroseismischen Brennpunktregion Xingtai, wo keine der Verwerfungen, einschließlich der Aixinzhuang-Verwerfung, die Quartärschicht erreicht, außer dass die Xinhe-Verwerfung die mittelpleistozäne Formation nach oben durchschneidet .;-;-;-;https://link.springer.com/article/10.1007/s11589-000-0023-x bc0444be59888ec7e0a2f7a64d1931e3;de;;;2.4.;;;Kortikale perineuronale Netze im grauen Kurzschwanz-Opossum ( Proteoglykane der extrazellulären Matrix, die in perineuronalen Netzen und in bestimmten Neuropilzonen akkumuliert sind, haben gezeigt, dass sie die unmittelbare neuronale Mikroumgebung beeinflussen und zu den chemoarchitektonischen Eigenschaften neuronaler Netzwerke beitragen. Studien an verschiedenen plazentaren Säugetieren, einschließlich des Menschen, haben gezeigt, dass die Hauptprinzipien der Verteilung der extrazellulären Matrix während der Phylogenese der verschiedenen Säugetierstämme konstant blieben. Der Vergleich der Matrixverteilung zwischen verschiedenen Arten deutet jedoch auch darauf hin, dass es auffällige Abweichungen vom Grundmuster geben kann, deren funktionelle Bedeutung jedoch noch unbekannt erscheint. Diese Studie untersucht die extrazelluläre Matrix im Vorderhirn eines einfachen amerikanischen Beuteltiers, das sich seit mehr als 100 Millionen Jahren unabhängig von Plazenta-Säugetieren entwickelt hat. Hirnschnitte aus erwachsenen grauen Kurzschwanz-Opossums (;-;-;-;https://link.springer.com/article/10.1007/s004290050135 d930b5a41e1851191a06ad495ece0ef5;de;;;2.4.;;;Biologische Aktivitäten von symbiotischen und parasitären Protozoen und Pilzen in sauerstoffarmen Umgebungen Jüngste Fortschritte bei der Aufklärung der metabolischen Fähigkeiten einiger Protisten, die in Ökosystemen mit niedrigen Sauerstoffkonzentrationen leben, heben bestimmte gemeinsame Merkmale ihrer Rolle in ihrer Umgebung hervor. In diesem Review untersuchen wir die symbiotischen Protozoen und Chytridomyceten-Pilze des Pansens neben parasitären Protozoen, die den menschlichen Darm und den Urogenitaltrakt infizieren: Viele von ihnen zeigen auffallende metabolische Ähnlichkeiten. Wir betonen die mutmaßlichen Aktivitäten dieser Organismen;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-2858-6_5 c57e37e373049abbf85dd2cde4971dce;de;;;2.4.;;;Hierarchische Steuerung verschiedener Ellbogen-Handgelenk-Koordinationsmuster Der vorliegende Beitrag konzentrierte sich auf die Rolle mechanischer Faktoren, die sich aus der Mehrgelenkstruktur des Bewegungsapparates ergeben, und deren Verwendung bei der Kontrolle verschiedener Muster zyklischer Ellbogen-Handgelenk-Bewegungen. Über fünf Stufen der Zyklusfrequenz (von 0,45 Hz bis 3,05 Hz) wurden drei Bewegungsmuster analysiert: (1) unidirektional, einschließlich Rotationen an Ellbogen und Handgelenk in die gleiche Richtung, (2) bidirektional, mit Rotation an den Gelenken nach innen entgegengesetzte Richtungen, und (3) Freihandmuster, das durch abwechselnde Beugungen und Streckungen am Ellbogen bei entspanntem Handgelenk gekennzeichnet ist. Die Winkelposition beider Gelenke und die elektromyographische Aktivität von Bizeps, Trizeps, Handgelenksbeuger und Handgelenkstrecker wurden aufgezeichnet. Es zeigte sich, dass sich die Kontrolle am Ellenbogen grundsätzlich von der Kontrolle am Handgelenk unterschied. Die Ellbogenkontrolle war in allen drei Mustern ähnlich der, die typischerweise bei Einzelgelenkbewegungen beobachtet wird: Ellbogenbeschleunigungen und -verzögerungen resultierten aus abwechselnder Aktivität des Ellenbogenbeugers und -streckers und waren bei allen Frequenzplateaus weitgehend unabhängig von der Handgelenksbewegung. Die Ellenbogenmuskulatur war nicht nur für die Ellbogenbewegung verantwortlich, sondern auch für die Erzeugung interaktiver Drehmomente, die bei der Handgelenkkontrolle eine wichtige Rolle spielten. Es gab zwei Arten von interaktiven Drehmomenten, die auf das Handgelenk ausgeübt wurden: Trägheitsdrehmoment aufgrund der Ellbogenbewegung und Rückhaltedrehmoment aufgrund von physikalischen Grenzen, die der Drehung des Handgelenks auferlegt wurden. Diese interaktiven Drehmomente waren die Hauptquelle der Handgelenkbewegung, während die Hauptfunktion der Handgelenk-Muskel-Aktivität darin bestand, in die interaktiven Effekte einzugreifen und die Handgelenksbewegung an das erforderliche Koordinationsmuster anzupassen. Das unidirektionale Muster stimmte mehr mit interaktiven Effekten überein als das bidirektionale Muster, wodurch ihre unterschiedliche Schwierigkeit bei moderaten Zyklusfrequenzen verursacht wurde. Wenn die Zyklusfrequenz weiter erhöht wurde, verloren sowohl die unidirektionalen als auch die bidirektionalen Bewegungen ihre individuellen Merkmale und erlangten Merkmale des freien Handgelenksmusters. Die Verschlechterung der kontrollierten Muster bei hohen Zyklenfrequenzen legt eine entscheidende Rolle für propriozeptive Informationen bei der Handgelenkkontrolle nahe. Diese Ergebnisse stützen eine hierarchische Kontrollorganisation bezüglich der Ellenbogen-Handgelenk-Koordination, bei der die Kontrollfunktionen an Ellenbogen und Handgelenk grundsätzlich unterschiedlich sind: Die Ellenbogenmuskeln erzeugen die Bewegung des gesamten Gestänges und die Handgelenksmuskeln bewirken Korrekturen Bewegung, die zur Erfüllung der Aufgabe erforderlich ist.;-;-;-;https://link.springer.com/article/10.1007/s002210050457 d06234ebb507d3cf28490788517beeb7;de;;;2.4.;;;Vorhersage der Tertiärstruktur Die Polypeptidkette des globulären Proteins ist linear, aber die dreidimensionale Tertiärstruktur ist ziemlich verzerrt. Dies ging aus der ersten kristallographischen Strukturbestimmung eines Proteins durch Kendrew . hervor;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-1571-1_17 eb3dd0547e721fed1606cdd38e9d8720;de;;;5.3.;;;Ariadne, eine Entwicklungsmethode für Hypermedia Die Entwicklung von Hypermedien wirft sehr spezifische Probleme auf, wie zum Beispiel die Notwendigkeit von Mechanismen zur Modellierung anspruchsvoller Navigationsstrukturen, interaktiver Verhaltensweisen und nutzbarer Multimedia-Kompositionen. Da die meisten Hypermedia-Anwendungen von verschiedenen Benutzern aufgerufen werden, wird die Sicherheit außerdem zu einem Schlüsselmerkmal. In diesem Zusammenhang stellen wir eine Entwicklungsmethode namens Ariadne vor, die eine Reihe von Werkzeugen bietet, um hypermediale Anwendungen auf progressive und integrierte Weise zu erstellen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44759-8_74 1b13d91bf544e8b0a15c893e12b914df;de;;;5.3.;;;Ein kontextsensitives Multimedia-Framework für persönliche soziale Netzwerkdienste Menschen nutzen verschiedene internetbasierte Dienste, einschließlich sozialer Netzwerke, um Aufgaben unterschiedlicher Kategorien wie Information, Beruf, Bildung, Hobbys, Gesundheit, Freizeit, Wissenschaft und Nachrichten durchzuführen. Viele Menschen pflegen nicht nur eine Verbindung zu einer Reihe von verschiedenen Diensten, sondern teilen auch Informationen mit ihren sozialen Bindungen in ihrem täglichen Leben. Eine Person konsumiert jedoch nur eine Teilmenge von Dienstleistungen und muss in einem bestimmten Kontext mit einer Teilmenge sozialer Bindungen kommunizieren. In diesem Artikel stellen wir ein Framework namens SenseFace vor, das sensorische Daten aus dem eigenen Körpersensornetzwerk und Multimediainformationen aus internetbasierten Diensten nutzt, um kontextbezogene Dienste und Interessengemeinschaften zu empfehlen. Wir präsentieren das detaillierte Design und die Implementierung des Frameworks und teilen unsere vorläufigen Testergebnisse.;-;-;-;https://link.springer.com/article/10.1007/s11042-012-1302-y 0167fb59abd23e1fe0b3d5a33df3256d;de;;;5.3.;;;Neuartige Härter für Epoxidharze Eine Durchsicht der Literatur für Härtungsmittel und Beschleuniger für Epoxidharze aus den Jahren 1966 bis 1982 zeigt, dass in diesem Zeitraum viele neue Verbindungen und Zusammensetzungen offenbart wurden. Die meisten Innovationen beziehen sich auf neuartige Diamine, Polyamine und Amin-Epoxid-Addukte. Neue Ansätze zur Einführung einer Latenz in Epoxidharzzusammensetzungen unter Verwendung von Aminimiden, organischen und metallischen Salzen und Komplexen wurden offenbart. Seit 1966 wurden auch neue Ansätze zur Epoxidhärtung entwickelt, die kationische Komplexsalze und metallorganische Verbindungen für schnelle Formprozesse verwenden. Die meisten Innovationen beziehen sich jedoch auf Härter und Zusammensetzungen, die die Härtung und die Eigenschaften von Filmen, Beschichtungen und Klebstoffen beeinflussen. Für fortgeschrittene Verbundanwendungen wurden nur sehr wenige Härter entwickelt. Mehrere neue Härtungsmittel und Härtungsmittelzusammensetzungen wurden kommerzialisiert, aber diese erreichen nicht annähernd die in der Literatur angegebene Zahl.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-5620-9_5 c8ff9e19d52cab7ac53c3ee8a5b2f9e3;de;;;5.3.;;;Die nukleare Abschirmfläche: Die Abschirmung als Funktion der molekularen Geometrie und der intermolekularen Trennung Bei der Verbindung zwischen theoretischen Abschirmwerten und Experimenten ist es notwendig, mittlere Effekte und schwingungsmäßige Mittelung zu berücksichtigen. Die schwingungsmäßige Mittelung, die die Abschirmung eines Moleküls bei seiner starren Gleichgewichtsgeometrie in eine thermische Mittelwertabschirmung überführt, liefert auch die experimentell zugängliche Temperaturabhängigkeit in der Nulldruckgrenze und die Änderungen bei der Isotopensubstitution. Der Durchschnitt von;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-1652-7_5 fd8ed2321ed798b158e363de4533c05c;de;;;5.3.;;;Herausforderungen der elektronischen Lehrbucherstellung: Schreiben in der Disziplin Lehrbücher und Studiengebühren steigen im Hochschulbereich kontinuierlich. Viele Hochschuladministratoren und Fakultätsmitglieder arbeiten daran, Lösungen zu finden, um diese steigenden Kosten auszugleichen. Lehrer erkunden kreative Möglichkeiten, Kurslektüren, Aufgaben und Bewertungsinstrumente zuzuweisen. Um die Hochschullandschaft neu zu gestalten, haben Universitäten und Hochschulen neue und innovative Lehr- und Lernformen angenommen, die durch umfangreiche IT-Infrastrukturen unterstützt werden. Der Autor hat die erste Phase dieses Forschungsdesigns und der Entwicklung eines digitalen Lehrbuchs für eine Gateway-Grundlagenklasse in den Bereichen Medienkunst und -wissenschaft abgeschlossen. Das Unterrichtsdesign, das Bereitstellungsformat und die Ergebnisse der Daten aus zwei Semestern wurden gesammelt und in diesem Artikel vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35603-2_2 c14936cf79f9121483f00f34c0ba3ef5;de;;;5.3.;;;„Visualisierung der Projektlandschaft“: eine Verräumlichung, die Arbeitsbelastungsattribute als Terrain beschreibt Räumlichkeiten, die Produkte der Wiedergabe nicht-räumlicher Konzepte in (typischerweise Karten und Landschaften) räumlichen Darstellungen, wurden effektiv auf Nachrichtenberichte und Projektarbeitslast angewendet. Letzteres wurde zuvor in einer Virtual Geographic Environment (VGE) unter Verwendung einer Landschaftsmetapher implementiert. Dies geschah, indem die Arbeitsattribute Dauer in Landschaftsfläche und Schwierigkeit in die Höhe erhöhter Merkmale in der Landschaft übersetzt wurden, um eine einfache Szene zu erzeugen. Diese Arbeit schlägt und implementiert eine Erweiterung der Arbeitsbelastung 2,5D-Geländeoberfläche (Landschaft) basierend auf den zusätzlichen Arbeitsattributen der Projektunsicherheit (übersetzt in Geländerauhigkeit) und der relativen Bedeutung des Projekts (übersetzt in die Zentralität des Projektgebiets im Gesamten) Szene). Wichtig ist, dass jedes Projekt in Teilaufgaben unterteilt ist, von denen jede ihre eigene Dauer, Schwierigkeit, Gewissheit und Bedeutung besitzt, was zu einem entsprechend detaillierteren und realistischeren Hügel in der virtuellen Umgebung führt. Diese Implementierung visualisiert Projekte und ihre Teilaufgaben als „Inseln“ mit „Hügeln“, die jeweils aus objektiv definierten (Dauer und Definition der Teilaufgaben) und subjektiven (Schwierigkeit, Sicherheit, Wichtigkeit) Daten generiert werden. Ergebnisse zu verschiedenen Datentypen (workload-bezogen und nicht-workload-bezogen) werden präsentiert, um die Datenunabhängigkeit des geschlossenen Rechenalgorithmus zu demonstrieren. Dies stellt eine neuartige Anwendung für die VGE dar, die eine unspezifische naive Geographie anstelle der üblichen spezifischen virtuellen Umgebung aufweist, die an einen realen Standort gebunden ist. Abschließend wird über Grenzen der Rechenmethode berichtet und Vorschläge für die zukünftige Entwicklung vorgestellt (z. B. die Modellierung der semantischen Nähe von Projekten).;-;-;-;https://link.springer.com/article/10.1007/s12665-015-4757-0 cceffc8c798749c386d2228ac0468501;de;;;5.3.;;;Leicht lesbare Sprache und Terminologie: Neue Bedürfnisse, neue Regeln, neue Software? Die Autoren möchten mithelfen, eine grundlegende Struktur zu entwickeln, in der Terminologie für EtR-Projekte einfach und effektiv im Übersetzungsprozess gespeichert, verwaltet und abgerufen werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-28005-5_50 61757cb64677f4bc223b72f3cfeb5308;de;;;5.3.;;;Implementierung eines Brain Computer Interface Systems zur Ermöglichung der TV-Fernbedienung für Menschen mit körperlichen Behinderungen In diesem Artikel wird eine Fernbedienungsimplementierung vorgestellt, die es Menschen mit motorischen Behinderungen in den oberen Extremitäten ermöglicht, die TV-Hauptfunktionen zu steuern, da sie die TV-Steuerung nicht mit den Händen nehmen können, und so mit Inklusion und digitaler Zugänglichkeit zusammenarbeiten. Zu diesem Zweck wurde ein BCI-Helm mit Brain Computer Interface verwendet, der die Interaktion zwischen Gehirn und Maschine mithilfe nicht-invasiver Elektroenzephalographie-Signale ermöglicht, ohne gesundheitliche Probleme zu verursachen. Eine geeignete Methodik wurde durch kognitive Signale mit Kopfbewegungen und ausdrucksstarke Signale mit einigen Gesichtsausdrücken entwickelt, die sich auf Kanalwechsel, Lautstärke erhöhen oder verringern, Fernseher ein- und ausschalten. Um die Integration zwischen BCI-Helm und Fernseher zu erreichen, wurde eine grafische Oberfläche auf Processing Development Environment erstellt, die die vom Helm erzeugten Signale erkennen kann und mit einem Arduino-Controller Signale mit den Funktionen für jede TV-Fernbedienung ausgibt. Für die Bewertungstests hatten wir eine Gruppe unterschiedlicher Altersgruppen, die die Komplexität von Gesten oder Bewegungen und die Benutzerfreundlichkeit kennen. B. um auf das Menü zuzugreifen oder an interaktiven TV-Anwendungen teilzunehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-56574-9_8 d305ad74b4f1218f9f3f282186321621;de;;;5.3.;;;Verbesserung der HIT-Sicherheit durch Enterprise Risk Management Enterprise Risk Management ist eine wichtige Aktivität für Organisationen des Gesundheitswesens. Neue Technologien können einige Arten medizinischer Fehler reduzieren und gleichzeitig neue Fehler einführen. Infolgedessen ist das betriebliche Risikomanagement zu einer wichtigen Aktivität für Führungskräfte im Gesundheitswesen geworden. Eine Reihe von Methoden kann verwendet werden, um das Auftreten von technologiebedingten Fehlern vor der Implementierung der Systeme zu verhindern. Klinische Simulationen sind eine solche Methode, mit der die Systemsicherheit verbessert werden kann. In diesem Buchkapitel besprechen die Autoren die Probleme im Zusammenhang mit der Vermeidung technologiebedingter Fehler und skizzieren, wie klinische Simulationen als Risikomanagementansatz zur Vermeidung technologiebedingter Fehler eingesetzt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-31123-4_17 5b747f205106c847dc714a45f37e3347;de;;;5.3.;;;Biochemische Identifizierung von Membranrezeptoren: Prinzipien und Techniken Seit den frühesten pharmakologischen Studien wurde die Zellmembran als wahrscheinlicher Ort für Arzneimittelwechselwirkungen angesehen (Clark, 1933). Doch erst in den letzten zehn Jahren wurden erhebliche Fortschritte bei der Identifizierung und Reinigung einer Vielzahl von membranlokalisierten Hormonrezeptoren erzielt. In diesem Kapitel wird nicht versucht, alle bisher durchgeführten Studien umfassend zusammenzufassen, sondern es wird versucht, einige spezifische Studien herauszuarbeiten, die nicht nur die allgemeinen Ansätze illustrieren, die zur Untersuchung von Liganden . verwendet werden können -Membran-Wechselwirkungen, sondern werden auch einige der Erfolge und Fallstricke dieser Ansätze aufzeigen. Die Beispiele werden hauptsächlich aus der Arbeit dieses Labors gezogen, hauptsächlich aufgrund unserer Vertrautheit mit den intimen Details dieser Studien, sowohl veröffentlicht als auch unveröffentlicht. Außerdem werden die Beispiele nur einige der Polypeptidhormone und Katecholamine behandeln und somit einen großen Arbeitsumfang zu cholinergen Rezeptoren und zu Membranrezeptoren für eine wachsende Zahl von Polypeptidhormonen und anderen Verbindungen auslassen. Studien zum Zytoplasma für Steroide werden über den Rahmen dieser Diskussion hinausgehen. Für Einzelheiten zu diesen Studien wird der Leser an anderer Stelle auf Übersichtsartikel verwiesen (Hall, 1972, Cuatrecasas, 1973).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-3168-1_5 0a931b365ed31587c64d51d55eecd51c;de;;;5.3.;;;Qualitätsbewertungsansätze für umgebungsunterstützte Wohnsysteme: Eine systematische Überprüfung Ambient Assisted Living (AAL) zielt darauf ab, die Lebensqualität der Menschen durch den Einsatz von Informationstechnologien zu verbessern. Aufgrund der kritischen Natur von AAL-Systemen hat Qualität Priorität. Da AAL jedoch eine relativ neue Domäne ist, besteht ihre Haupteinschränkung darin, dass bei der Qualitätsbewertung kein Konsens und keine Standardisierung vorhanden sind. Diese Arbeit präsentiert eine systematische Übersicht, um den Stand der Technik zur Qualitätsbewertung von AAL-Systemen aus einer mehrdimensionalen Sichtweise (Softwareprodukt, im Einsatz, Daten und Kontext) zu ermitteln. Zunächst wurden 1308 Primärstudien extrahiert, aus denen nach Anwendung der entsprechenden Ein- und Ausschlusskriterien 21 relevante Studien zu Modellen, Frameworks, Taxonomien und anderen Ansätzen der Qualitätsbewertung ausgewählt wurden. Die ausgewählten Studien wurden einer vergleichenden Analyse unterzogen, die die am häufigsten wiederkehrenden und kritischsten Qualitätsmerkmale für AAL-Systeme ermittelte und einen wichtigen Beitrag zur Konsensfindung bei der Konstruktion vollständigerer Qualitätsmodelle leistete. Darüber hinaus ermöglichte diese Arbeit, die Stärken und Grenzen der untersuchten Qualitätsvorschläge zu erkennen und Forschungslücken und Herausforderungen zu identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-42517-3_32 08a2061b00028565bbba9d50c6351834;de;;;2.4.;;;Die Wirtschaftlichkeit hybrider Fertigungssysteme in einer geschlossenen Lieferkette Dieser Beitrag befasst sich mit der Ökonomie einer geschlossenen Lieferkette und der Entscheidungsfindung in einem hybriden Fertigungssystem. Wir entwickeln analytische Modelle und quantifizieren den potenziellen Gewinn, der durch ein solches Hybridsystem generiert wird, das die Endprodukte als perfekten Ersatz für brandneue Produkte sammelt, aufbereitet und wiedervermarktet, während wir einer preisabhängigen Nachfragefunktion gegenüberstehen. Das Forschungsziel der Entwicklung analytischer Modelle ist die Untersuchung folgender Forschungsfragen: Kann das hybride System mit Reverse Logistics wirtschaftlich arbeiten? Kann es das reine Fertigungssystem ohne Reverse-Logistik übertreffen? Wenn nicht, bleibt es in bestimmten Entscheidungsverzerrungen bestehen, die zu einem geringeren Gewinn und Ineffizienz führen? Wenn ja, in welchem ​​Umfang und unter welchen Bedingungen – geringere Wiederaufbereitungskosten oder höhere Preissensitivitätskoeffizienten? Wir modellieren die Entscheidungsfindung des Systems als geeignetes Optimierungsproblem. Unsere Analyse zeigt, dass das Hybridsystem das reine Fertigungs-Pendant unter generischen Einstellungen nicht übertrifft, sondern nur unter den Bedingungen mit einem höheren Preissensitivitätskoeffizienten und/oder niedrigeren Wiederaufarbeitungskosten besser abschneidet. Darüber hinaus unterscheiden sich die Preisentscheidungen für die fabrikneuen und wiederaufbereiteten Produkte deutlich, was der industriellen Praxis entspricht. Darüber hinaus deuten numerische Ergebnisse darauf hin, dass es sich lohnen kann, eine solche Hybridstrategie zu verfolgen, wenn die Wiederaufarbeitungskosten im Vergleich zu denen der Neuproduktherstellung niedrig sind. Ein weiterer günstiger Faktor für die Hybridstrategie ist die höhere Fertigstellungsintensität zwischen den beiden Versionen desselben Produkts. In solchen Szenarien ist die Teilnahme an Wiederaufarbeitungsvorgängen nicht nur eine Frage des Umweltbewusstseins, sondern auch eine gewinnsteigernde Chance.;-;-;-;https://link.springer.com/article/10.1007/s11066-012-9069-x 6622ad5667fcc722cd9ac9545b8a1165;de;;;2.4.;;;Der Einfluss der Kornstruktur auf die Bewertung der Gussbeständigkeit in Al-Si-Legierungen Die Dauerhaftigkeit des Gießens kann durch verschiedene Verfahren beurteilt werden. Bei industriellen Gussteilen von Antriebssträngen ist die Konstruktionskonstruktion mit der Bewertung der Gusseigenschaften, insbesondere der Ermüdungsfestigkeit bei hohen Zyklen, verbunden. In der Vergangenheit hat sich gezeigt, dass die Porosität der schädlichste mikrostrukturelle Bestandteil in Al-Si-Gusslegierungen ist. Porosität wird durch Oxidbiflims nukleiert und entwickelt sich während der Verfestigung aufgrund von getrenntem Wasserstoffgas und/oder Schwierigkeiten bei der Flüssigkeitszufuhr in der breiigen Zone während der Verfestigung. Es wurde berichtet, dass Porosität und Oxidfilme die Haltbarkeit des Gussteils kontrollieren, wie durch die Ermüdungstreppe und berechnete -3σ-Diagramme bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48130-2_28 4e074b049e4e38cd44edd2dd18a15ba1;de;;;2.4.;;;Der DCR-II-Ereignisrekorder: Ein tragbares digitales Hochgeschwindigkeits-Kassettensystem mit direktem Computerzugriff Das DCR-II ist ein tragbares digitales Kassettensystem zum Aufzeichnen einzelner oder gleichzeitiger Ereignisse. Die Eingabe erfolgt über Tastaturen, die intern alle 10 ms auf Schaltzustandsänderungen (Ereignisse) abgefragt werden. Das Gerät kann bis zu 64 Ereigniskanäle aufnehmen und 100 Ereignisse pro Sekunde ohne Datenverlust aufzeichnen. Die vollständige Datenintegrität wird gewahrt, indem jedes Ereignis als zwei 16-Bit-Wörter codiert wird, die Schlüssel- und Zustandsinformationen, Paritäts- und Echtzeitinformationen enthalten. Ein Ereignisschalter kann gleichzeitig einen Audiorecorder aktivieren, um eine optionale zusätzliche verbale Aufnahme bereitzustellen. Der DRC-II speichert Daten in zwei alternativen Speicherpuffern und arbeitet nach dem Zufallsprinzip (d. h. nur während der Transkription auf Magnetband), wodurch eine kompakte Aufzeichnung und ein ausgezeichnetes Verhältnis von Beobachtung zu Lesezeit bereitgestellt werden. Die gesamte Aufnahme-/Wiedergabeeinheit misst 17 × 10 × 6 Zoll und erfordert keine spezielle Computerschnittstelle.;-;-;-;https://link.springer.com/article/10.3758/BF03202283 c466303b468118a28a579819cf96dce4;de;;;2.4.;;;Nachweis der Hg-Belastung durch die Geochemie von Bachsedimenten im Bisagno-Tal (Genua, Italien) Die systematische Untersuchung von Bachsedimenten in einem periurbanen Gebiet um Genua (Italien) ergab die Existenz einer signifikanten Quecksilberanomalie, die im Hauptbett des Flusses Bisagno (dritter Rang) lokalisiert ist. Die statistische multivariate Analyse der Elementhäufigkeit weist auf den anthropischen Charakter dieser Kontamination hin. Aufgrund der bekannten Bioakkumulation von Hg in kontaminierten Medien muss auf die mit der entdeckten Verschmutzung verbundenen Risiken geachtet werden.;-;-;-;https://link.springer.com/article/10.1007/s002540000169 e16073201f647b2e277bf296ae2e3a9c;de;;;5.3.;;;Kartenspezifikationen und Benutzeranforderungen Bei herkömmlichen Verallgemeinerungsflusslinien wird die Zielkarte stromaufwärts manuell von Kartographen spezifiziert und soll generischen, gut identifizierten Benutzeranforderungen entsprechen. Im aufkommenden Kontext des On-Demand-Mappings müssen Karten für Benutzer, deren Anforderungen im Voraus nicht bekannt sind und die möglicherweise ihre eigenen Daten integrieren müssen, automatisch abgeleitet werden. Die Definition geeigneter Zielkartenspezifikationen wird somit Teil des Dienstes, was Herausforderungen aufwirft, die in diesem Kapitel untersucht werden. Die erste Herausforderung besteht darin, ein formales Kartenspezifikationsmodell zu erstellen, das reich genug ist, um den gesamten Kartenableitungsprozess zu leiten. Die zweite Herausforderung besteht darin, Anforderungen zu sammeln und den Benutzer, der kein Kartendesigner sein soll, bei der Spezifikation einer für seine Aufgabe verwendbaren Karte zu unterstützen, die kartographischen Standards entspricht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-00203-3_2 d7df489d632878d09a5085f8d5d03445;de;;;5.3.;;;AbsoluteSecure: Ein dreischichtiges Datensicherheitssystem Daten wurden als das neue Öl angepriesen. Dies zeugt von der Bedeutung, die sie im Laufe der Jahre erlangt hat. Mit zunehmender Verbreitung und Weiterentwicklung der Technologie werden Daten eine wichtigere Rolle spielen. Die Notwendigkeit der Datensicherheit kann daher nicht hoch genug eingeschätzt werden. Bestehende Systeme zum Sichern von Daten beruhen oft auf einer oder einer Kombination aus Biometrie, Kryptographie und Steganographie. In diesem Papier schlagen wir AbsoluteSecure vor, ein Datensicherheitssystem, das die drei Techniken kombiniert, um die Sicherheit von Daten zu erhöhen. Das System wird mit C# implementiert. Um die Leistung zu bewerten, werden Experimente durchgeführt, um die Benutzerfreundlichkeit und Sicherheit zu bewerten. Insbesondere hinsichtlich der Benutzerfreundlichkeit wird die Fähigkeit bewertet, den Fingerabdruck eines neuen Benutzers erfolgreich zu registrieren und einen registrierten Benutzer zu authentifizieren. Auf der anderen Seite messen wir, um die Sicherheit zu ermitteln, inwieweit es sowohl auf der Authentifizierungs- als auch auf der Nutzungsebene den Zugriff für nicht autorisierte Benutzer erkennen und verweigern kann. Die Ergebnisse der Experimente zeigen, dass AbsoluteSecure die Vertraulichkeit, Integrität und Verfügbarkeit von Daten gewährleisten kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30275-7_19 b0675fad3e630d8e541eded5669a215f;de;;;5.3.;;;Visualisierungs-, Überwachungs- und Kontrolltechniken für den Einsatz in der Scrum-Softwareentwicklung: Ein analytischer Hierarchieprozessansatz Scrum ist das am weitesten verbreitete agile Entwicklungsframework, das den Entwicklungsprozess mit seiner Fähigkeit leitet, kundenbewertete Softwareartefakte iterativ und inkrementell zu erstellen und gleichzeitig nach Best Practices für eine kontinuierliche Messung während der Produktion zu suchen. Die Erfolgsmessung in Scrum kann jedoch eine Herausforderung sein. Insbesondere in aufeinanderfolgenden Scrum-Sprints ist es schwierig, die am besten passenden agilen Metriken auszuwählen. Das Ziel dieser industriellen Fallstudie war es, einen systematischen Auswahlprozess zu verwenden, um die geeignete Add-On-Komponente für Scrum-Metriken-Tools innerhalb der TBİTAK SAGE-Softwareentwicklungsgruppe zu identifizieren. Darüber hinaus wurde die Verteilung der Präferenzen der Softwareentwickler für Prozessmetriken nach ihren charakteristischen Merkmalen und der Struktur der Verteidigungsindustrie analysiert und anhand verschiedener Verteilungsdiagramme dargestellt. Schließlich wurden Alternativen zur Softwareentwicklungsprozess-Messkomponente, die in das agile Softwareprozesstool der TBİTAK SAGE Softwareentwicklungsgruppe integriert wurde, mithilfe des Analytic Hierarchy Process Ansatzes effizient ermittelt. Unter den diskutierten Optionen deuten unsere Ergebnisse darauf hin, dass das Actionable Agile Addon am besten abschneidet, gefolgt vom Screenful Addon. Die vorliegende Studie präsentiert einen rigorosen Ansatz, der letztendlich die Beteiligung der Gemeinschaft an der Planung, Implementierung und Überwachung von Metriken verbessert hat, wodurch sich die Ziele einer nachhaltigen Softwareentwicklung nähern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-56441-4_4 d5879f945255c1ce0a9cd9e6eef062ce;de;;;5.3.;;;Chatbots testen mit Chatbots sind Softwareprogramme mit einer dialogorientierten Benutzeroberfläche, die normalerweise in Webs oder Messaging-Systeme wie Slack, Facebook Messenger oder Telegram eingebettet sind. Viele Unternehmen investieren in Chatbots, um ihren Kundensupport zu verbessern. Dies hat zu einer Verbreitung von Chatbot-Erstellungsplattformen geführt (z. B. Dialogflow, Lex, Watson). Allerdings gibt es derzeit wenig Unterstützung für das Testen von Chatbots, was sich auf ihre endgültige Qualität auswirken kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58793-2_34 68fb8ce0709a92a872d03dfd3afd878b;de;;;5.3.;;;Ein Software-Testprozess für Ginga-Produkte Ziel dieser Arbeit ist es, den Entwicklungsprozess für Softwaretests für die Ginga-Plattform zu definieren und zu bewerten, wobei der Schwerpunkt auf Systemtests speziell für Ginga-NCL liegt. Die Hauptgründe dafür sind Brasiliens Erwartung von 54 Millionen TV-Geräten mit Ginga bis Ende 2016 und das Fehlen systematischer Ansätze für Softwaretests für diese Produkte. Der vorgeschlagene Prozess gliedert sich in Planung, Spezifikation, Implementierung und Analyse. Dieses Papier präsentiert eine Bewertung aller Schritte von der Ausführung von Aufgaben, Papieren und der Generierung von Artefakten unter Verwendung von heute auf dem Markt befindlichen Produkten in einer Produktionsumgebung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22656-9_5 36a8301802a0eee442e5349beeea23b9;de;;;5.3.;;;Authentifizierung der virtuellen Welt mit dem Smartcard-Webserver Virtuelle Welten (VWs) sind persistente, immersive digitale Umgebungen, in denen Menschen eine digitale Repräsentation ihrer selbst nutzen. Die derzeitige Verwaltung der VW-Identität ist sehr begrenzt, und es treten Sicherheitsprobleme wie Identitätsdiebstahl auf. Dieses Papier schlägt ein Zwei-Faktor-Benutzerauthentifizierungsschema vor, das auf One Time Passwords (OTPs) basiert und einen Smart Card Web Server (SCWS) nutzt, der auf dem manipulationssicheren Subscriber Identity Module (SIM) im Mobiltelefon des Benutzers gehostet wird. Darüber hinaus werden Geolocation-Attribute verwendet, um Telefon- und PC-Standorte zu vergleichen, was für einen Angreifer ein weiteres Hindernis darstellt. Eine vorläufige Sicherheitsanalyse wird für das Protokoll durchgeführt und zukünftige Arbeiten werden identifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40576-1_4 8d4817b0efcb503f14846462e718b308;de;;;2.4.;;;Der Einfluss von Gefäß- und Katheterposition auf die Messgenauigkeit bei der katheterbasierten quantitativen Koronarangiographie Hintergrund: Die Berechnung der absoluten Arteriendimensionen in der quantitativen Koronarangiographie erfolgt in der Regel durch Katheterkalibrierung. Sie basiert auf dem proportionalen Vergleich der Dimension des abgebildeten Arteriensegments mit der Dimension des abgebildeten angiographischen Katheters bekannter Größe. Dieses Kalibrierungsverfahren setzt eine identische Röntgenvergrößerung zwischen dem angiographischen Katheter und dem interessierenden Arteriensegment voraus. Aufgrund der unterschiedlichen intrathorakalen Lage beider Objekte ist jedoch die röntgenologische Vergrößerung oder der Kalibrierungsfaktor für eine gegebene angiographische Projektion oft nicht identisch. Das Ziel dieser Studie war es, den Vergrößerungsfehler (Out-of-plane-Vergrößerungsfehler) für die großen Koronararteriensegmente zu quantifizieren, die in häufig verwendeten angiographischen Projektionen abgebildet werden. Methoden Die intrathorakale räumliche Lage von 468 Koronarsegmenten (RCA 196, LAD 156, LCX 116) und ihrer jeweiligen Koronarkatheter wurde mit biplanarer Angiographie und bekannten bildgebenden Geometriedaten bestimmt. Der Fehler in der radiographischen Vergrößerung oder dem Kalibrierungsfaktor wurde dann für alle 936 monoplanen Projektionen unter Verwendung der Raumkoordinaten und der bildgebenden Geometriedaten berechnet. Ergebnisse Die mittlere Größe des Vergrößerungsfehlers betrug bei allen 936 Messungen 4%. Größe und Richtung des Fehlers variierten mit der Läsionslokalisation und dem angiographischen Projektionswinkel (Bereich -12,6% bis +10,6%). Die Fehlercharakteristik konnte mit sechs typischen Fehlergruppen beschrieben werden, indem die Daten nach den drei Hauptkoronaren und zwei angiographischen Ebenen geschichtet wurden. Bei 24 % der Messungen überschritt der Vergrößerungsfehler die für die Größenbestimmung des Referenzgefäßes akzeptable Fehlergrenze von 5,2 %. Davon waren vor allem die Messungen der linken Koronararterien betroffen. Schlussfolgerung: Der Vergrößerungsfehler trägt zum Kalibrierungsfehler bei der Messung der Arterienabmessungen durch quantitative Angiographie bei. Dieser Fehler kann die Zuverlässigkeit klinischer Studien und die richtige Dimensionierung von interventionellen Geräten beeinträchtigen. Diese Erkenntnisse könnten verwendet werden, um aktuelle Fehlerkorrekturalgorithmen zu verbessern, um den Effekt des Vergrößerungsfehlers bei der Messung der Arterienabmessungen zu reduzieren.;-;-;-;https://link.springer.com/article/10.1023/A%3A1006067117225 c5906836b4d0b0262ed8dddf1f7cc85a;de;;;2.4.;;;Einige Merkmale des Kometen Hale-Bopp (nach den Beobachtungen von 1995-1998) „Der Große Komet von 1997“ war ein bedeutendes Ereignis in der Kometenphysik. Diesem Kometen sind zahlreiche interessante wissenschaftliche Studien gewidmet. Leider gibt es in der russischen wissenschaftlichen Literatur nur wenige Veröffentlichungen zu Untersuchungen des Kometen Hale-Bopp. Diese Studie ist zeitlich auf den zwanzigsten Jahrestag des Abschlusses der Hauptbeobachtungen dieses Kometen abgestimmt und erinnert die Leser an einige seiner ungewöhnlichen und sogar einzigartigen Eigenschaften, ohne vorzugeben, eine erschöpfende Übersicht über das veröffentlichte Material zu geben. In dieser Arbeit wird versucht, die Masse des Kerns des Kometen Hale-Bopp abzuschätzen, und es wird angenommen, dass sie nahe der Anfangsmasse des Halleyschen Kometen liegt, die dieser zu Beginn seiner Entwicklung hatte. Basierend auf den veröffentlichten Bildern dieses Kometen werden die ungefähre Geschwindigkeit der Gas-Staub-Ausstöße und die Ausbreitung der Geschwindigkeiten berechnet. Ein möglicher Zusammenhang zwischen der Masse der Gesamtverluste und der Dynamik des Kometenkerns wird betrachtet.;-;-;-;https://link.springer.com/article/10.1134/S0038094620020057 b4335c8e66fabbe2bfdc2408c0f6146e;de;;;2.4.;;;Generierung von 3D-Dense-Depth-Maps durch Dynamic Vision In diesem Beitrag wird ein dynamisches 3D-Vision-System vorgestellt, das in der Lage ist, dichte Tiefenkarten aus einer Bildsequenz zu schätzen. Die zu jedem Zeitpunkt berechneten Tiefenkarten werden in einer erweiterten Kaiman-Filterstruktur verwendet, die alle Tiefenmessungen über die Zeit integriert und so die Unsicherheit reduziert. Ergebnisse mit Bildern, die von einer Unterwasserkamera aufgenommen wurden, werden präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-3201-1_14 4818dbc306d34a2d38b87315e985384e;de;;;5.3.;;;Erforschung der halbautomatischen Datenbankentwicklung unter Verwendung von Datenmodellmustern Der Beitrag konzentriert sich auf die Idee, die Entwicklung relationaler Datenbanken halb zu automatisieren. Es werden verschiedene Ansätze zur Vereinfachung und Automatisierung der konzeptionellen Datenmodellierung diskutiert. Eine gewählte Methode zur halbautomatischen Entwicklung konzeptioneller Datenmodelle war der musterbasierte Ansatz. In diesem Whitepaper werden eine Musterbibliothek für Datenmodelle und ein CASE-Tool zu ihrer Verwendung vorgestellt. Darüber hinaus wurde ein Experiment durchgeführt, um die Fähigkeiten eines CASE-Tools zu testen. Der Zweck des Experiments bestand darin, die Abdeckungs- und Zeitaspekte einer tatsächlichen Reproduktion eines Datenbankschemas mit einem CASE-Tool zu testen. Die Versuchsergebnisse zeigten, dass Muster einen großen Teil eines konzeptionellen Datenmodells abdecken und ein neues CASE-Tool die Zeit für die manuelle Entwicklung eines konzeptionellen Datenmodells reduziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-59506-7_5 cbd4ca7d22e64e631c49af8c101beb55;de;;;2.4.;;;Ökologie von Mündungsbakterien, die menschliche Krankheiten verursachen können: Eine Überprüfung Bestimmte in Flussmündungen beheimatete Bakterien sind in der Lage, als opportunistische Krankheitserreger des Menschen zu wirken. Während es manchmal schwierig ist zu beweisen, dass ein bestimmtes Bakterium ein echter Bewohner des Ästuars ist, aus dem es isoliert wurde, ist es noch schwieriger, die Nische dieser Bakterienart zu beschreiben. Diese Aussage gilt für alle Mündungsbakterien, einschließlich opportunistischer menschlicher Krankheitserreger. Andererseits hat man viel über die pathogenen Eigenschaften von Bakterien gelernt, die menschliche Krankheiten verursachen, einschließlich genetischer Kontrollmechanismen für Virulenzfaktoren. Der Schwerpunkt dieser Übersichtsarbeit liegt darin, das aktuelle Wissen über die Ökologie dieser Mündungsbakterien zu relativieren, die sowohl Mündungen als auch Menschen bewohnen können. Besonderes Augenmerk wird auf die Eigenschaften gelegt, die es diesen Bakterien ermöglichen, in den Flussmündungen und dem menschlichen Körper zu existieren und sich zwischen ihnen zu bewegen. Zu den abgedeckten Gattungen gehören;-;-;-;https://link.springer.com/article/10.2307/1352260 e128092edea1c5bd2cd7c62b06c08fd7;de;;;5.3.;;;MVSec: multiperspektivische und deduktive visuelle Analyse heterogener Netzwerksicherheitsdaten In diesem Artikel stellen wir ein visuelles Analysesystem, MVSec, vor, das Analysten hilft, besser zu verstehen, welche Informationen unter Netzwerksicherheitsdatensätzen fließen. Die wichtigsten Beiträge dieser Arbeit umfassen: (1) eine Datenfusionsstrategie für mehrere heterogene Datensätze unter Verwendung einer einheitlichen Ereignistupel- und Statistiktupel-Datenstruktur, die große Datensätze komprimiert und die Grundlage für eine kooperative visuelle Analyse legt, (2) mehrere koordinierte Ansichten , die Analysten mehrere visuelle Perspektiven bieten, um laute Ereignisse zu charakterisieren, subtile Ereignisse auszugraben und Zusammenhänge von Ereignissen in Datensätzen zu untersuchen, und (3) eine kontextbezogene visuelle Analyse mit deduktiven Standpunkten, die Analysten dazu inspiriert, Hypothesen zu untersuchen und ihre Schlussfolgerungen aus visuellen Erzählungen zu begründen . In Fallstudien demonstrieren wir detailliert, wie das System Analysten hilft, eine analytische Storyline zu zeichnen und Netzwerksituationen in der VAST Challenge 2013 besser zu verstehen. Darüber hinaus diskutieren wir Erkenntnisse aus der Gestaltung unseres Systems und der Teilnahme an der VAST Challenge 2013, was hilfreich und anwendbar ist nicht nur für ähnliche Netzwerksicherheitssysteme, sondern auch für andere Domänen, die mit Herausforderungen der visuellen Analyse konfrontiert sind.;-;-;-;https://link.springer.com/article/10.1007/s12650-014-0213-6 99e424d89e325c07b93018ec5f849d08;de;;;5.3.;;;Forschung zu Cluster und Lastverteilung basierend auf einem virtuellen Linux-Server Die Bandbreite des Netzwerks wurde im Hinblick auf die Entwicklung der Netzwerktechnologie weiter entwickelt als die Geschwindigkeit des Prozessor- und EMS-Speicherzugriffs. Auf den Servern treten immer mehr Engpässe auf. Die Verbreitung des Internet-Portfolios und die Spezialisierung von Netzwerkanwendungen machen den Lastausgleich zu einer sofortigen Nachfrage. Der beste Weg, dieses Problem zu lösen, ist die Technik des Netzwerkclusters und des Lastausgleichs basierend auf Linux Virtual Server. In diesem Whitepaper werden das Arbeitsprinzip und die Server/Client-Methode von Linux Virtual Server erörtert, die eine transparente Möglichkeit bieten, den Netzwerkdurchsatz zu erhöhen, die Datenverarbeitungsfähigkeit zu stärken und die Netzwerkagilität und Benutzerfreundlichkeit zu verbessern. Der virtuelle Linux-Server könnte den Lastausgleich bequem und effektiv realisieren, indem er entsprechend der Verbindung des Übertragungshebels auf den echten Cluster-Server verteilt. Dieses Papier beschreibt auch den Lastausgleich und die Ausgleichsstrategie von LVS, um die Cluster-Technologie den Anwendungsanforderungen im Detail anzupassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16336-4_23 caa2ba3cb82a3dbfd0af43cf98c9f9b9;de;;;5.3.;;;Baumaschinenauswahl durch szenariobasierte EVD: LKW-Mischertrommeln Ziel dieser Studie ist es, die am besten geeignete Fahrmischertrommel (TMD) für Bauunternehmen auszuwählen und einen szenariobasierten Ansatz für das Baumaschinenauswahlproblem durch die Fuzzy Data Envelopment Analysis (FDEA) darzustellen. Die technischen Daten der TMDs für quantitative Kriterien wurden zunächst von drei in der Türkei tätigen TMD-Unternehmen bezogen. Bei 90 Anwendern (d. h. Transportbetonunternehmen) dieser TMD-Marken wurde dann eine halbstrukturierte Fragebogenerhebung nach qualitativen Kriterien durchgeführt. Zuletzt wurde mit dem EVD eine Szenarioanalyse mit vier verschiedenen Szenarien durchgeführt. Unter Berücksichtigung jedes Szenarios wurde die beste Alternative für TMD-Käufer identifiziert. Diese Studie kann für Forscher von Nutzen sein, die (i) den Entscheidungsprozess im Bereich der Baumaschinenauswahl und (ii) die Auswahlkriterien von TMDs untersuchen können. Diese Studie kann sowohl potenziellen Käufern bei der Auswahl der richtigen Ausrüstung als auch Herstellern von TMD helfen, ihre Produkte und Wettbewerbsfähigkeit zu verbessern. In Bezug auf Originalität konzentriert sich die Studie zunächst auf den Auswahlprozess und die Kriterien von TMDs. In ähnlicher Weise wurde EVD zum ersten Mal bei einem Auswahlproblem für Baumaschinen eingesetzt. Als Einschränkung könnten die Anzahl der Befragten, Kriterien und Alternativen erhöht werden, um robustere Lösungen aufzuzeigen.;-;-;-;https://link.springer.com/article/10.1007/s12205-021-1548-x f48c07ffd53bdf6a1d524751d2a7b4c5;de;;;2.4.;;;Die Endothelin-1-Rezeptorblockade verhinderte die elektrophysiologische Dysfunktion in Herzmuskelzellen von Streptozotocin-induzierten diabetischen Ratten Diabetes mellitus wird durch die Entwicklung einer kontraktilen Dysfunktion des Herzens und einer elektrischen Instabilität kompliziert, was zu einer hohen Morbidität und Mortalität bei Diabetikern beiträgt. Diese Studie untersuchte die möglichen Rollen von verstärktem Endothelin-1 (ET-1) bei Diabetes-induzierten Veränderungen der ventrikulären Myozyten-Elektrophysiologie. Typ-1-Diabetiker-Ratten wurden durch Einzeldosis-Injektion von Streptozotocin (STZ) induziert und mit oder ohne ET-1-Rezeptor-Antagonist Bosentan für 8 Wochen vor der Myozytenisolierung behandelt. Aktionspotential, nach außen K;-;-;-;https://link.springer.com/article/10.1385/ENDO%3A30%3A1%3A121 cade75f19bc76c108e1cb4434c668ce4;de;;;2.4.;;;Molekulargenetische Ansätze zur humanen Hypertonie In den letzten zehn Jahren hat sich die Bluthochdruckforschung stark in Richtung Molekulargenetik verschoben. Die Erfolgsgeschichten sind die monogenen hypertensiven Syndrome. Klassische Kopplungsanalysen haben die verantwortlichen Gene lokalisiert und drei Gene für den Glucocorticoid-heilbaren Aldosteronismus, das Liddle-Syndrom und den scheinbaren Mineralocorticoid-Überschuss wurden kloniert und ihre Funktionen aufgeklärt. Andere monogene Syndrome werden derzeit intensiv untersucht. Im Bereich der primären Hypertonie beruhten die Erfolge jedoch auf dem Kandidatengen-Ansatz. Allelische Varianten in den Genen für Angiotensinogen, α-Adducin, β-2 adrenergen Rezeptor, die G-Protein beta3-Untereinheit und die T594M-Mutation in der β-Untereinheit des epithelialen Natriumkanals wurden identifiziert, jedoch ist die Bedeutung dieser allelischen Varianten zur primären Hypertonie insgesamt ist noch nicht klar. Eine Variante des Angiotensin-Converting-Enzym-Gens konnte zunächst nicht überzeugend mit Bluthochdruck in Verbindung gebracht werden, neuere Analysen deuten jedoch auf einen Einfluss des deletierten Allels auf den Blutdruck bei Männern, aber offenbar nicht bei Frauen. Aller Wahrscheinlichkeit nach haben wir es mit vielen Genen mit kleinen Auswirkungen zu tun. Kopplungsanalysen betroffener Geschwisterpaare werden wahrscheinlich nicht erfolgreich sein, um die Loci dieser Gene zu identifizieren. Um neue Gene zu finden, sind neue Ansätze erforderlich, darunter die Suche nach quantitativen Trait-Loci, die mit dem Blutdruck bei normotensiven Personen in Verbindung stehen, die Methode des Haplotyp-Sharings in Trios und Familieneinheiten, die Verwendung besserer Studiendesigns und die Untersuchung isolierter Populationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-57724-6_10 5472994a818fadcd4aaadf262fbfe70d;de;;;5.3.;;;APPLET: ein datenschutzwahrendes Framework für ein standortbezogenes Empfehlungssystem Standortbezogene Empfehlungssysteme, die standortbasierte Bewertungen zur Erstellung von Empfehlungen verwenden, haben in letzter Zeit eine rasante Entwicklung erfahren und große Aufmerksamkeit in der Forschungsgemeinschaft auf sich gezogen. Die aktuelle Arbeit konzentrierte sich jedoch hauptsächlich auf qualitativ hochwertige Empfehlungen, während Datenschutzprobleme unterschätzt wurden, was zu Datenschutzproblemen führen kann. Solche Probleme treten stärker auf, wenn Dienstanbieter, die über begrenzte Rechen- und Speicherressourcen verfügen, Cloud-Plattformen nutzen, um der enormen Anzahl von Dienstanforderungen und Benutzern gerecht zu werden. In diesem Papier schlagen wir ein neuartiges Framework vor, nämlich APPLET, um die Privatsphäre von Benutzern, einschließlich Standorten und Empfehlungsergebnissen, innerhalb einer Cloud-Umgebung zu schützen. Durch dieses Framework werden alle historischen Bewertungen in Geheimtext gespeichert und berechnet, sodass wir die Ähnlichkeiten von Veranstaltungsorten durch Paillier-Verschlüsselung sicher berechnen und die Empfehlungsergebnisse basierend auf Paillier-, kommutativer und vergleichbarer Verschlüsselung vorhersagen können. Wir beweisen auch theoretisch, dass Benutzerinformationen privat sind und bei einer Empfehlung nicht durchgesickert werden. Schließlich zeigen empirische Ergebnisse über einen realen Datensatz, dass unser Framework POIs effizient mit einem hohen Maß an Genauigkeit und unter Wahrung der Privatsphäre empfehlen kann.;-;-;-;https://link.springer.com/article/10.1007/s11432-015-0981-4 cd8914a0b59045cab50aef7b8e8b63c6;de;;;5.3.;;;Eine QoE-basierte gemeinsame Unterträger- und Leistungszuweisung für Multiuser-Multiservice-Netzwerke Die Quality of Experience (QoE) wird häufig angewendet, um die Zufriedenheit der Benutzer mit dem Netzwerkdienst widerzuspiegeln, was genau dem benutzerzentrierten Konzept von 5G entspricht. In diesem Papier schlagen wir einen QoE-basierten Unterträger- und Leistungszuweisungsalgorithmus für die Downlink-Übertragung eines Mehrbenutzer-Mehrdienstsystems vor. Für den Unterträgerzuweisungsalgorithmus wird der ratenproportionale Fairnessfaktor definiert, um die Fairness zwischen den Benutzern sicherzustellen. Basierend auf verschiedenen QoE-Modellen von drei Diensten, dh File Down (FD), Video Streaming und Voice over Internet Protocol (VOIP), wird eine multizielorientierte Optimierungsmethode genutzt, um die Energieressource durch Minimierung des Gesamtenergieverbrauchs und Maximierung mittlerer Meinungs-Score (MOS)-Wert der Nutzer gleichzeitig. Simulationsergebnisse zeigen, dass der vorgeschlagene Algorithmus einen geringeren Stromverbrauch und eine höhere QoE-Leistung aufweist als der traditionelle Proportional Fairness (PF)-Algorithmus. Außerdem kann der vorgeschlagene Algorithmus nahezu die gleiche Fairness-Leistung wie der PF-Algorithmus erreichen. Darüber hinaus wird, wenn die Anzahl von Unterträgern größer wird, die Leistungsannahme geringer sein, jedoch mit geringem Einfluss sowohl auf die QoE- als auch auf die Fairness-Leistungen.;-;-;-;https://link.springer.com/article/10.1007/s11432-016-5552-6 a2784e86e48a2d2a45b5932562c508bc;de;;;2.4.;;;Vorausschauende Haltungsanpassungen sind mit einem einzelnen vertikalen Sprung verbunden und ihr Timing sagt die Sprungamplitude voraus Diese Studie wurde durchgeführt, um die Existenz und die Spezifität von antizipatorischen Haltungsanpassungen (APA) im Zusammenhang mit vertikalen Sprüngen zu bestimmen. Ein einzelner vertikaler Sprung ist eine nach oben gerichtete Bewegung mit identischen Anfangs- und Endhaltungen. Eine konsequente Verschiebung des Druckzentrums (CP) nach hinten zeigte eindeutig die Existenz von APA. Diese Verschiebung resultierte hauptsächlich aus einer Soleus (SO)-Deaktivierung und einer Tibialis anterior (TA)-Aktivierung. Wie bei der Gangeinleitung besteht die Hauptaufgabe von APA im Zusammenhang mit dem vertikalen Sprung darin, das notwendige Ungleichgewicht zu schaffen, um die Bewegung einzuleiten. Ein Vergleich der Vorwärtsverschiebungen von CP und CG (Center of Gravity) zwischen Einzelsprung und Spitze-Zehen-Anheben erlaubte uns vorzuschlagen, dass das Vorwärts-Ungleichgewicht endet, wenn eine kritische CP-Position erreicht ist. Wie bei der Gangeinleitung betrug die Dauer der APA des Sprungs mehrere Hundert Millisekunden. Dies zeigte, dass, wenn die Rolle der APA darin besteht, das anfängliche Ungleichgewicht zu erzeugen, ihre Dauer länger ist, als wenn ihre Rolle darin besteht, die bevorstehende Haltungsstörung aufgrund der Bewegung zu kompensieren. Da das Ziel der willkürlichen Bewegung darin bestand, in einer bestimmten Höhe zu springen, erwartete man, dass dieser Parameter programmiert werden könnte. Das Timing der APA hing von der Amplitude des vertikalen Sprungs ab: Der Zeitpunkt des Einsetzens der SO-Deaktivierung und TA-Aktivierung und der der Rückwärts-CP-Verschiebung waren von der Spitzenamplitude des Sprungs abhängig. Trotzdem gab es keine Beziehung zwischen der Rückwärts-CP-Verschiebungsamplitude und dem vertikalen Impuls. Es scheint also, dass die Amplitude des Sprungs nicht vollständig programmiert ist, sondern nach Beginn der Bewegung angepasst werden muss, d. h. es gibt eine sequentielle Programmierung von Vorwärts- und Aufwärtsbewegung. Es ist auch von Interesse zu betonen, dass die SO-TA-Synergie, die hier als Grundlage der APA mit einem einzelnen vertikalen Sprung gezeigt wird, auch in vielen vorwärtsorientierten Bewegungen gefunden wurde. Somit bekräftigen die vorliegenden Daten die Idee, dass die SO-TA-Synergie Teil einer funktionellen Synergie ist, die vom Zentralnervensystem verwendet wird, um die posturalen motorischen Befehle zu vereinfachen.;-;-;-;https://link.springer.com/article/10.1007/s002210050925 2aadfe46cf342b72c805b1f729a71084;de;;;2.4.;;;Anwendung von Trellis-Decodern: Multifunktionale Trellis-Decodierung von Blockcodes In herkömmlichen Kommunikationssystemen, die Blockfehlerkontrollcodes verwenden, führen verschiedene Signalverarbeitungs-Subsysteme spezifische Aufgaben durch, z. Trägerrückgewinnung, Demodulation, Block- und Symbolzeitrückgewinnung, Fehlerkontrolle, Kanalzustandsschätzung usw. In einem vollständig digitalen Kommunikationssystem kann der Betrieb der einzelnen Verarbeitungsunterblöcke kombiniert werden, wodurch eine geringere Komplexität, ein effizienteres wirksamere Mittel zur Fehlerbekämpfung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-6279-5_6 f2ea66ea9536043df61e0f353be7cb74;de;;;2.4.;;;Struktur des Flavivirus-Genoms Die Flaviviren wurden früher als Gattung in die Familie der Togaviridae eingeordnet. Sie wurden nun in den Familienstatus, die Familie Flaviviridae, erhoben, teils wegen Unterschieden in Replikation und Zusammenbau (Westaway, 1980) (Kapitel 11) und teils, weil sich ihre Genomstruktur stark von der der Alphaviren unterscheidet (Rice;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-0785-4_10 90f8e781c8a18ad8a9efa33f5018ff09;de;;;2.4.;;;Eine Einführung in die induktive Logikprogrammierung und das Erlernen von Sprachen in der Logik Dieses Kapitel führt in die induktive logische Programmierung (ILP) und das Lernen von Sprache in der Logik (LLL) ein. Es werden keine Vorkenntnisse in Logikprogrammierung, ILP oder LLL vorausgesetzt. Es werden elementare Themen behandelt und weiterführende Themen besprochen. Im Abschnitt ILP diskutieren wir zum Beispiel Subsumtion, inverse Auflösung, kleinste Generalisierung, relative geringste Generalisierung, inverse Folgerung, Sättigung, Verfeinerung und Abduktion. Wir schließen mit einem Überblick über diesen Band und Hinweisen auf zukünftige Arbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-40030-3_1 87f2ad6734e3fe537c7f243f6f553da9;de;;;2.4.;;;Kartierung der Vegetation Eine Vegetationskarte besteht aus einer topographischen Basiskarte, die Vegetationseinheiten durch entsprechende Farben und Symbole darstellt, eine Vegetationskarte mit den konkreten Einheiten, die die Vegetation bilden, basiert auf konkreten Phytozönosen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30235-0_5 e499d052d949314d3314c833bf144c0b;de;;;5.3.;;;Ein verallgemeinerter pädagogischer Rahmen zum Erstellen von Rollenspielen im gemischten Modus in virtuellen Umgebungen mit mehreren Benutzern Studierende der Naturwissenschaften stehen vor großen Herausforderungen, wenn sie versuchen, abstrakte Konzepte, die ihnen im Unterricht präsentiert werden, aufzunehmen und zu visualisieren. Pädagogen verwenden eine Reihe von Methoden, um ihre Schüler in dieser Hinsicht zu unterstützen. Unser Fokus liegt auf zwei solcher Methoden, die derzeit von Pädagogen verwendet werden: Rollenspiel und 3D-Simulation, die den Schüler in den Lernprozess eintauchen lassen. Beide Methoden versuchen, das Unsichtbare sichtbar zu machen. Die Literatur zeigt jedoch einen Mangel an Forschung insbesondere zur Effektivität des Lernens durch strukturierte Rollenspiele und die Auswirkungen dieser Methode auf Schüler, die virtuelle Mehrbenutzerumgebungen (MUVEs) verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-23089-0_12 a97007db7d46d3aa4c3cca3dfcfb15cc;de;;;5.3.;;;Nahtloses Design für ortsbasierte mobile Spiele Seamful Design ist ein neuer Ansatz, um unvermeidliche technische Einschränkungen in der Ubiquitous Computing-Technologie aufzudecken und auszunutzen, anstatt sie zu verbergen. In diesem Papier möchten wir seine allgemeinen Ideen vorstellen und sie auf das Design von ortsbezogenen Spielen für Mobiltelefone anwenden. Wir stellen unser eigenes nahtloses Trading-Spiel namens „Tycoon“ vor, um Nähte auf dieser Plattform zu erkunden und zu zeigen, wie man sie in das Design von Handyspielen einfügt. Wir wollen evaluieren, wie Anwendungen für die Mobiltelefonplattform, die die Zellpositionierung verwenden, Nähte für bessere Interaktion, Gameplay und Benutzerfreundlichkeit nutzen können.;-;-;-;https://link.springer.com/chapter/10.1007/11558651_16 67e1223af96b8f2ad2b65e9cff14a5a1;de;;;5.3.;;;Wie verbindet man Moving Dots? Erkenntnisse aus Nutzerstudien zu dynamischen Netzwerkvisualisierungen In den letzten Jahren ist die Analyse dynamischer Netzdaten zu einem immer wichtigeren Forschungsthema geworden. Während in den letzten Jahren mehrere visuelle Analysetechniken mit dem Schwerpunkt auf der Untersuchung von sich zeitlich entwickelnden Netzwerken vorgeschlagen wurden, müssen ihre Wirksamkeit und Nützlichkeit für Endbenutzer weiter analysiert werden. Beim Umgang mit Techniken zur dynamischen Netzwerkanalyse, die visuelle, rechnergestützte und interaktive Komponenten integrieren, werden Benutzer leicht von der Menge der angezeigten Informationen überwältigt – selbst bei kleinen Netzwerken. Daher haben wir Visual Analytics-Techniken für dynamische Netzwerke während ihrer Entwicklung evaluiert, Zwischenbewertungen mittels Mock-up- und Eye-Tracking-Studien durchgeführt und eine abschließende Bewertung des laufenden interaktiven Prototyps durchgeführt die Aufrechterhaltung der mentalen Landkarte des Benutzers während Änderungen der Netzwerkstruktur im Laufe der Zeit, durch Benutzerinteraktionen verursachte Änderungen und Änderungen der analytischen Perspektiven. Die zweite befasst sich mit der Vermeidung von visuellem Durcheinander oder zumindest dessen Mäßigung. Der dritte Entwicklungspfad folgt den Auswirkungen von unerwartetem Benutzerverhalten und multiplen Problemlösungsprozessen. Neben der Präsentation von Lösungen basierend auf den Ergebnissen unserer Evaluation diskutieren wir offene und anstehende Probleme und stellen neue Forschungsfragen auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-7485-2_25 59020779194ef96f8b11bf819e6df67b;de;;;2.4.;;;Die Verteilung der Tyrosinhydroxylase im Kanarienhirn: Nachweis einer spezifischen und sexuell dimorphen Katecholaminergen Innervation der telencephalen Gesangskontrollkerne Das Singen und die Verarbeitung von Hörinformationen im Zusammenhang mit Gesang können durch experimentelle Manipulationen der Katecholaminaktivität im Gehirn von Zebrafinken beeinflusst werden. Wir untersuchten mittels Immunzytochemie im Gehirn von männlichen und weiblichen Kanarienvögeln die Verteilung der Tyrosinhydroxylase (TH), dem geschwindigkeitsbestimmenden Schritt bei der Synthese von Katecholaminen. Für TH (TH-ir) immunreaktive Fasern waren besonders reichlich im Lobus parolfactorius, im Paleostriatum primitivum und im Nucleus septalis lateralis vorhanden. Im kaudomedialen Neostriatum, einem Bereich, der an der Wahrnehmung und Erkennung von Liedern beteiligt ist, wurde eine hohe Dichte von TH-ir-korbähnlichen Strukturen beobachtet. Bei den meisten Männern umriss eine hohe Dichte von TH-ir-Fasern die telenzephalen Gesangskontrollkerne einschließlich des hohen Stimmzentrums, des Nucleus robustus archistriatalis, des Nucleus interfascialis, der lateralen und medialen Teile des magnozellulären Kerns des vorderen Neostriatums und des Bereichs X des Lobus parolfactorius. Die höhere Dichte an TH-immunreaktiven Fasern in diesen Kernen im Vergleich zum umgebenden Telencephalon unterstützt die Annahme, dass die morphologische Evolution der Songkontrollkerne von einer neurochemischen Spezialisierung begleitet wurde. Diese spezifische Innervation der Gesangskontrollregionen wurde im Allgemeinen bei Frauen nicht gefunden. Das spezifische Vorhandensein einer hohen Dichte von TH-ir-Fasern im Gesangssystem männlicher Kanarienvögel und der Geschlechtsunterschied dieser Innervation liefern anatomische Beweise für die Behauptung, dass Dopamin und/oder Noradrenalin eine wichtige Rolle bei der Modulation des Erlernens und der Produktion von Gesang spielen .;-;-;-;https://link.springer.com/article/10.1007/s004410100360 748aeaf2f1815ca82008e9fbfc707e6b;de;;;2.4.;;;Eine Glimmentladungs-Ionenquelle mit Fourier-Transformations-Ionen-Zyklotron-Resonanz-Massenspektrometrie-Detektion Eine Glimmentladungs-(CD)-Ionenquelle wurde mit einem Fourier-Transform-Ionen-Zyklotron-Resonanz-(FT-ICR)-Massenspektrometer unter Verwendung einer elektrostatischen Linse mit vier Elementen gekoppelt, um Ionen zu beschleunigen und zu fokussieren, die außerhalb des hohen Magnetfelds des Instruments in seiner Analysatorzelle erzeugt werden. Wie andere CD-Massenspektrometer kann das GD-FT-ICR ein quantitatives Maß für die Konzentration des Massenanalyts mit guter Präzision und Genauigkeit liefern. Obwohl die derzeit erreichbaren Nachweisgrenzen um mehrere Größenordnungen höher sind als die des kommerziell erhältlichen magnetischen Sektor-basierten Instruments, verspricht CD-FT-ICR eine vielversprechende Elementarmassenanalyse mit ultrahohem Auflösungsvermögen. Es werden verschiedene Schemata vorgeschlagen, um die Nachweisgrenzen der Technik zu senken und gleichzeitig eine ausreichend hohe Auflösung bereitzustellen, um isobare Störungen aufzulösen.;-;-;-;https://link.springer.com/article/10.1016/1044-0305%2892%2987045-Z 9626bf1ff3f465c83b2d83eb8ea0281c;de;;;5.3.;;;Zwei-Wege-Kommunikation durch Firewalls mit QLM Messaging Heutzutage legen Unternehmen Wert darauf, die Vertraulichkeit ihrer Daten und Assets durch Firewalls, Proxys und NATs zu schützen, was einem hohen Maß an Datennutzbarkeit und Interoperabilität zwischen verschiedenen Informationssystemen oder „Dingen“ im sogenannten Internet der Dinge. Solche Sicherheitsverfahren verhindern oft eine Zwei-Wege-Kommunikation zwischen Knoten, die sich auf jeder Seite der Firewall befinden. Quantum Lifecycle Management (QLM) Messaging wurde als Vorschlag für einen Messaging-Standard eingeführt, der die Anforderungen für den Austausch der von einem IoT benötigten Art von Informationen erfüllen würde. In dieser Hinsicht ermöglicht die in diesem Standard vorgeschlagene QLM-Huckepack-Eigenschaft, eine Zweiwege-Kommunikation durch eine Firewall zu erreichen. Diese Eigenschaft wird in diesem Papier zusammen mit den ersten Machbarkeitsnachweisen eingeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11569-6_64 acee9ca66be3ea829053b42f4ce0f547;de;;;5.3.;;;Vorhersage der Region des Benutzerinteresses für kollaborative Grafikdesignsysteme in einer allgegenwärtigen Umgebung Die schnelle Erweiterung von drahtlosen Netzwerken und mobilen Geräten ermöglicht es tragbaren Geräten, bequem an kollaborativem Grafikdesign teilzunehmen. Die Begrenzung der Anzeigegröße und Rechenleistung dieser eingebetteten Geräte erschwert es mobilen Benutzern, große Muster, die in Echtzeit erneuert werden, effizient zu durchsuchen. Wir präsentieren einen neuartigen Vorhersagealgorithmus für Benutzerinteressenbereiche, um die Absicht des Benutzers in naher Zukunft vorherzusagen. Ein verwandtes Experiment wurde durchgeführt, um die Wirksamkeit des Algorithmus zu testen. Die Ergebnisse zeigen, dass der Algorithmus die Interessenregionen mobiler Nutzer gut vorhersagen kann. Basierend auf der Vorhersage werden nur Untermuster und Operationen, die für den Benutzer von Interesse sein könnten, an die eingebetteten Sites ausgegeben. Die Ergebnisse von Benutzerstudien zeigen, dass der vorgeschlagene Ansatz effektiv ist und die Durchführbarkeit des kollaborativen Grafikdesignsystems in einer allgegenwärtigen Umgebung verbessert wird.;-;-;-;https://link.springer.com/chapter/10.1007/11853862_32 a5269e8d95ab983eebcef4300375dbba;de;;;5.3.;;;Lexikalisch-syntaktische Muster zur Subjektivitätsanalyse sozialer Fragen Issue Die Subjektivitätsanalyse untersucht Einstellungen, Gefühle und geäußerte Meinungen zu Produkten, Dienstleistungen, Themen oder Problemen. Als Grundaufgabe klassifiziert sie einen Text als subjektiv oder objektiv. Während subjektiver Text Meinungen über ein Objekt oder ein Problem mit Gefühlsausdrücken ausdrückt, beschreibt ein objektiver Text ein Objekt oder ein Problem unter Berücksichtigung ihrer Fakten. Das Vorhandensein von Stimmungsbegriffen wie Adjektiven, Substantiven und Adverbien in Produktbewertungen impliziert normalerweise ihre Subjektivität, aber für Kommentare zu sozialen Themen ist es komplizierter und Stimmungsphrasen und -muster sind häufiger und beschreibender. Dieser Beitrag schlägt eine lexikalisch-syntaktische Struktur für subjektive Muster für die Subjektivitätsanalyse in sozialen Bereichen vor. Es wird für Subjektivität und Sentimentklassifizierung auf Satzebene eingesetzt und ausgewertet. Die vorgeschlagene Methode übertrifft einige ähnliche Arbeiten. Darüber hinaus impliziert sein vernünftiges F-Maß seine Verwendbarkeit in Anwendungen wie der Zusammenfassung von Stimmungen und der Beantwortung von Meinungsfragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-02750-0_25 7262267cd775503a6484b2a972305223;de;;;5.3.;;;Einbetten von Educational Design Pattern Frameworks in Lernmanagementsysteme Educational Design Patterns beschreiben wiederverwendbare Lösungen für die Gestaltung von Lernaufgaben und -umgebungen. Obwohl es viele Projekte gibt, die Muster erzeugen, gibt es nur wenige Ansätze, die sich mit der Unterstützung des Lehrers/Benutzers bei der Instanziierung und Ausführung dieser Muster auf Lernmanagementsystemen (LMS) befassen. Dieses Papier zielt darauf ab, einen Sprung in diese Richtung zu machen, indem zwei verschiedene Methoden zur Einbettung von Design Pattern Frameworks in LMS vorgestellt werden: (1) Bereitstellung benutzerdefinierter LMS-Komponenten als Teil der Design Patterns und (2) Konfiguration vorhandener LMS-Komponenten basierend auf Design Patterns . Beschreibungen von Implementierungen und Auswirkungen dieser Verfahren werden bereitgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13166-0_62 fa64153f50358ea86cc1f8d33074066f;de;;;5.3.;;;Erkundung der Möglichkeiten von SimReal für das Lernen von Mathematik in der Lehrerbildung: eine soziokulturelle Perspektive SimReal ist eine innovative Technologie, die in den letzten Jahren im Mathematikunterricht aufgekommen ist. Es bietet neue Möglichkeiten des mathematischen Lernens durch dynamische und interaktive Visualisierungen mathematischer Konzepte. Dieses Papier verwendet SimReal im Kontext der Lehrerbildung, um die Möglichkeiten und Einschränkungen des Werkzeugs für das Lernen von Mathematik zu untersuchen. Es stellt einen Rahmen dar, der Vygotskys soziokulturelle Theorie, die Rolle der Mediation und den Begriff des Angebots auf technologischer, pädagogischer und soziokultureller Ebene kombiniert. Ziel des Artikels ist es zu untersuchen, inwieweit SimReal als vermittelndes Artefakt den Studierenden mathematisches Lernen in der Lehrerbildung ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58459-7_2 d1d9efdda59ca13f3b7d6fe0f660d2f7;de;;;5.3.;;;Teleman: Ein Robotikprogramm der Europäischen Gemeinschaften für die Nuklearindustrie Das TELEMAN-Programm ist ein fünfjähriges Forschungsprogramm auf Kostenteilungsbasis, das die Fernbehandlung in gefährlichen und ungeordneten nuklearen Umgebungen umfasst. Es wird im Rahmen des aktuellen Forschungs- und Entwicklungsprogramms der Europäischen Gemeinschaften unterstützt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-2648-9_2 d911de2ae977cff0f085cbf7d62c6769;de;;;5.3.;;;Halbautomatische Erstellung von Kompetenz-Self-Assessments zur Leistungsbeurteilung Der Selbsteinschätzung der Kompetenz zur Leistungsbewertung wird sowohl von Forschern als auch von Praktikern zunehmend Aufmerksamkeit geschenkt. Dennoch ist die Genauigkeit und vermeintliche Legitimität dieser Art von Bewertung immer noch ein Problem. Im Kontext eines industriellen Anwendungsfalls wollen wir eine computerbasierte Kompetenz-Selbstbewertungstechnologie entwickeln und validieren, die in der Lage ist, jede Art von Kompetenzdokument (zur Leistungsbeurteilung, Ermittlung des Ausbildungsbedarfs, Laufbahnberatung) zu importieren und halbautomatisch selbst zu generieren -Bewertungspunkte. In Anlehnung an das von Levy und Williams entworfene Modell der Appraisal Effectiveness war es unser Ziel, ein effektives Instrument zu entwickeln, bei dem mehrere Perspektiven berücksichtigt werden müssen: psychometrische, kognitive, psychologische, politische und die Perspektive der Reaktion. In diesem Papier konzentrieren wir uns nur auf eine spezifische psychometrische Eigenschaft (Interrater-Reliabilität zwischen einem Mitarbeiter und seinem Vorgesetzten). Gemäß einem bestimmten Bewertungsverfahren und -format zeigte unsere Cross Skill™-Technologie vielversprechende Ergebnisse in Bezug auf die Interrater-Zuverlässigkeit in einem Anwendungsfall mit Bankbeamten und ihrem Vorgesetzten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-97807-9_3 4eddde963ab89d5e0fcf56ac64fc4f9a;de;;;2.4.;;;Neutroneninterferometrische Experimente zur Quantenmechanik Seit ihrer Erfindung im Jahr 1974 [1] hat sich die Neutroneninterferometrie als nahezu ideales Werkzeug etabliert, um grundlegende Prinzipien der Quantenmechanik mit massiven Teilchen auf einer makroskopischen Raum-Zeit-Skala zu testen. Nach einer kurzen Einführung in die Grundlagen der perfekten Kristallneutroneninterferometrie werden einige ausgewählte Themen besprochen, die unsere Gruppe zu diesem aktiven und immer noch wachsenden Forschungsgebiet beitragen könnte, angefangen von der experimentellen Überprüfung der 47π-Periode von Spinorwellenfunktionen, der Demonstration der Quanten mechanisches Prinzip der linearen Überlagerung von Zuständen, makroskopische Quantenschwebung der Neutronenwellenfunktion (das Neutronenanalogon des AC-Josephson-Effekts), Aufklärung des Unterschieds zwischen probabilistischer und deterministischer Absorption von Materiewellen bis hin zu interferometrischen Messungen geometrischer Phasen. Außerdem berichten wir über die kürzlich durchgeführte erste erfolgreiche Verifikation der topologischen Natur des skalaren Aharonov-Bohm-Effekts mittels Neutronenspinpräzession, die eine alternative Version der Neutroneninterferenz darstellt [2].;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-5682-0_28 ac2bdc401bba2a625c138a7a341a9948;de;;;2.4.;;;Waldzertifizierung für Privatwälder in den Vereinigten Staaten: Herausforderungen und Chancen Die Forstzertifizierung ist ein sich entwickelnder Ansatz, um die Marktwünsche nach Produkten aus Wäldern mit Ernte- und Extraktionsansätzen zu verbinden, die zur Erhaltung funktionierender Waldökosysteme beitragen. Derzeit sind die verfügbaren Zertifizierungssysteme am besten für den Einsatz in Industrie-, großen Privat- und öffentlichen Wäldern geeignet. In den Vereinigten Staaten dominieren private Forest Land Ownerships (PFLOs), oft als nicht-industrielle Privatwälder bezeichnet, die Landschaft und tragen erheblich zum Bedarf des Landes an Holz und Holzfasern bei. Die Entwicklung von Ansätzen zur Erfassung der PFLO-Interessen zur Gewährleistung der langfristigen Nachhaltigkeit dieser Wälder ist unerlässlich, wenn die Vereinigten Staaten durch eine verantwortungsvollere Nutzung ihrer eigenen Wälder zur Erhaltung der globalen Waldressourcen beitragen wollen. Die Notwendigkeit, auf PFLOs angewiesen zu sein, wird immer offensichtlicher, da nichtstaatliche Umweltorganisationen daran arbeiten, die Ernte in den öffentlichen Wäldern des Landes einzuschränken. Dieses Kapitel bereitet die Grundlage für das Verständnis der PFLO-Zertifizierung, bietet mehrere alternative Ansätze und untersucht Probleme, die die Akzeptanz der Zertifizierung durch die PFLO fördern können.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0664-4_26 ff43b4a314f346ed2f5795a372068646;de;;;2.4.;;;Potenzial für mikrobielles Wachstum in trockenen unterirdischen Sedimenten Um zu bestimmen, ob Bakterienpopulationen zur biologischen Beseitigung von Kontaminanten erhöht werden können, wurde das mikrobielle Wachstum, das in 200 h aus dem festen Material aus der Vadosezone an einer trockenen Stelle nach Zugabe von Wasser und Nährstoffen entsteht, bestimmt. Die anfänglichen Bakterienpopulationen und Aktivitäten am Standort waren sehr gering. Bakterien wuchsen in den zwischengelagerten Sanden und Schluffen mit dem höheren Kohlenstoffgehalt (0,08–1,1%), reagierten jedoch nicht in den Basalten und dem Zwischenbettmaterial mit niedrigerem Kohlenstoffgehalt (nicht nachweisbar). In Langzeitstudien bis 30 Tage gab es Hinweise auf bakterielle Aktivität in weniger als 25 % der Basalte oder des Zwischenbettmaterials.;-;-;-;https://link.springer.com/article/10.1007/BF02941852 963147b063452785d44c34f0ade15742;de;;;5.3.;;;Anwendung des M-konvexen submodularen Strömungsproblems auf die mathematische Ökonomie Dieser Beitrag betrachtet ein Wirtschaftsmodell, bei dem Produzenten und Verbraucher verschiedene unteilbare Güter durch ein perfekt teilbares Gut, Geld, handeln. Auf der Grundlage der jüngsten Entwicklungen in der diskreten Mathematik (kombinatorische Optimierung) geben wir einen effizienten Algorithmus an, um zu entscheiden, ob ein kompetitives Gleichgewicht existiert oder nicht, wenn die Kostenfunktionen der Produzenten M;-;-;-;https://link.springer.com/article/10.1007/BF03167422 2bd3870bfb7e37ab5d6c03dab8254152;de;;;2.4.;;;Additiv gefertigte patientenspezifische Titanschablonen zur thorakalen Pedikelschraubenplatzierung: neuartiges Design mit reduzierter Kontaktfläche Es wurden bildbasierte Navigations-Patienten-spezifische Vorlagen (PSTs) für die Platzierung von Pedikelschrauben (PS) beschrieben. Mit den jüngsten Fortschritten bei dreidimensionalen computergestützten Designs und der additiven Fertigungstechnologie wurde über verschiedene PST-Designs berichtet, obwohl die Vorlagendesigns nicht optimiert wurden. Wir haben ein neuartiges PST-Design entwickelt, das die Kontaktfläche reduziert, ohne an Stabilität einzubüßen. Es vermeidet Anfälligkeit für intervenierendes Weichgewebe, geometrische Ungenauigkeiten der Schablone und Schwierigkeiten bei der Anpassung der Schablone.;-;-;-;https://link.springer.com/article/10.1007/s00586-015-3908-z f2c5e9103f28488dafcbe04cdcad902c;de;;;5.3.;;;Beutelbasierte Datenmodelle für unvollständige Informationen und deren Verschlusseigenschaften In den meisten praktischen Datenbankanwendungen sollte mit Unvollständigkeit und Duplizierung von Fakten sorgfältig umgegangen werden. Wir schlagen beutelbasierte Datenmodelle für unvollständige Informationen vor, genannt V-Bags, CV-Bags, GV-Bags und CGV-Bags. In V-Bags wird Unvollständigkeit durch Variablen wie C-Tabellen von Imielinski und Lipski dargestellt. GV-Bags sind ein Supermodell von V-Bags, bei denen globale Bedingungen angehängt sind, die Zuweisungen über Variablen einschränken. CV-Beutel und CGV-Beutel sind Untermodelle von V-Beutel bzw. GV-Beutel, bei denen die Verwendung von Variablen zur Darstellung der Anzahl der Duplizierungen von Tupeln etwas eingeschränkt ist. Wir untersuchen auch die Abschlusseigenschaften von vorwärts- und inversen algebraischen Operationen (Auswahl, Projektion, Produkt, Vereinigung, Differenz und eindeutig) an jedem der Datenmodelle sowohl unter CWA als auch unter OWA. Unter diesen Datenmodellen haben CGV-Bags die meisten geschlossenen Operationen.;-;-;-;https://link.springer.com/article/10.1007/s10844-006-0020-1 5954aaab9154805eb56a586d727ff348;de;;;5.3.;;;Ein Optimierungsalgorithmus für die Zuweisung von Reservekapazität durch dynamisches Survivable Routing Der Überlebensfähigkeit von MPLS-Netzen wurde in den letzten Jahren viel Aufmerksamkeit geschenkt. Eine der Hauptaufgaben besteht darin, Backup-Pfade zu routen und freie Kapazität im Netzwerk zuzuweisen, um die QoS-garantierten Kommunikationsdienste für eine Reihe von Fehlerszenarien bereitzustellen. Dies ist ein komplexes Multi-Constraint-Optimierungsproblem, das als Reservekapazitätszuweisung (SCA) bezeichnet wird. In diesem Papier wird ein dynamischer Survivable Routing (DSR)-Algorithmus vorgeschlagen, der die chaotische Optimierungstheorie verwendet, um ihn zu lösen. Beim Vergleich des traditionellen SCA-Algorithmus zeigen numerische Ergebnisse, dass DSR die zufriedenstellenden QoS-Leistungen aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13498-2_57 97d4a4e067c82026438ec720ff905b2c;de;;;5.3.;;;Wie Video das Cognitive Systems Engineering beeinflusst: Erfahrung zählt Cognitive Systems Engineering (CSE) erfordert Perspektiven, die verlangen, dass Nutzer und Teams in Bezug auf den Kontext, in dem sie agieren, verstanden werden. Im Nutzungskontext auftretende situierte Probleme verteilen sich häufig auf Menschen, Informationen und Artefakte (verteilte Kognition), die das Entstehung von Aktivitäten. Aktuelle Tools und Fähigkeiten innerhalb der digitalen Videorevolution ermöglichen die aktive Erfassung, Aufzeichnung, Untersuchung und Analyse von Videostreams, um das Verständnis der verteilten Kognition und deren Auswirkungen auf geplante Designs zu unterstützen. Dennoch gibt es Forschungsfragen und -fragen. Das Living Laboratory Framework wird als eine Möglichkeit beschrieben und postuliert, Video systematisch in CSE zu integrieren, um die Zuverlässigkeit und Validität von Designartefakten in der Praxis zu verbessern. Fallbeispiele (Jasper- und NeoCITIES-Simulationen) werden untersucht, um spezifische Möglichkeiten zum Verständnis verschiedener Arten der Videodarstellung und -analyse innerhalb von CSE zu bieten.;-;-;-;https://link.springer.com/article/10.1007/s10111-004-0160-4 b73dbac90f24a8ae6e45f8f2c8932499;de;;;5.3.;;;Ein Algorithmus zur Anpassung der Gesichtspose basierend auf statischen Graustufenbildern Die Anpassung der Gesichtspose als Schleife der Position des menschlichen Gesichts ist bei der Computer-Gesichtserkennung sehr wichtig. In diesem Artikel stellen wir einen neuen Ansatz zur automatischen Anpassung der Gesichtspose bei statischen Graustufenbildern mit einem einzelnen Gesicht vor. Machen Sie in der ersten Phase mit dem Grad der Mediation jedes kleine Bild und bitten Sie dann um ein Bild mit zwei Augen mit dem Übereinstimmungsgrad. Und setzen Sie die horizontale graue Projektion des Nasen- und Mundteils in kleinem Umfang fort. Stellen Sie dieses Stück schließlich richtig ein. In der zweiten Stufe wird basierend auf der Lage und dem Symmetriemerkmal der Augen der Neigungswinkel berechnet und die Gesichtsposition korrigiert. Die Experimente zeigen, dass der Algorithmus sowohl hinsichtlich der Geschwindigkeit als auch der Effizienz sehr gut abschneidet. Darüber hinaus werden durch die genaue Lage der Augen die Augenapfel erkannt.;-;-;-;https://link.springer.com/chapter/10.1007/3-211-27389-1_114 e36a8ff78b2e5c1d332021e8dd3979d2;de;;;5.3.;;;Stabile haptische Feedback-Generierung während Interaktionen in der Luft mit Hidden-Markov-Modell-basierter Bewegungssynthese Die Erzeugung von stabilem und realistischem haptischem Feedback in dreidimensionalen Interaktionssystemen in der Luft hat in letzter Zeit erhebliches Forschungsinteresse geweckt. Aber die Einschränkungen in den Sensortechnologien wie instabiles Tracking, Reichweitenbeschränkungen und Okklusionen traten während der Interaktionen zusammen mit den Bewegungserkennungsfehlern auf, die bewegungsbasiertes haptisches Feedback erheblich verzerren. In diesem Beitrag wird eine auf dem Hidden-Markov-Modell basierende Bewegungselementsynthese für eine stabile haptische Feedback-Erzeugung vorgeschlagen. Die experimentellen Ergebnisse der subjektiven Bewertung unter Verwendung des vorgeschlagenen Modells an 3 Probanden während einer Zoom-Aufgabe haben Verbesserungen in der Benutzerwahrnehmung der Gesten gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-4157-0_39 55e086425cdbaab0220337c563613733;de;;;2.4.;;;Wasser und Machtentfaltung im augusteischen Rom: die sogenannte „Villa Claudia“ in Anguillara Sabazia Dieser Artikel betrachtet die Architektur der römischen Villenanlage in Anguillara Sabazia (Latium (RM), Italien) neu. Es wird argumentiert, dass die Villa eher in die augusteische Zeit als in die späte Republik datiert werden sollte und dass ihre kunstvollen Zierwasserspiele, einschließlich der in einer elliptischen Kurve angeordneten Brunnen, vom augusteischen Aquädukt, dem Aqua Alsietina, auch bekannt als die Aqua Augusta, entweder direkt oder über eine Nebenabzweigung von der Hauptleitung. Seine besondere elliptische Form, einzigartig in der römischen Villenarchitektur zu dieser Zeit, kann als kleinformatige Version des kaiserlichen Beckens (Stagnum) im Jahr 2;-;-;-;https://link.springer.com/article/10.1007/s12685-012-0055-x d31a6dc3c02791ace9f5b13f1ffd8f2d;de;;;2.4.;;;Follikuläre Atresie Es ist allgemein bekannt, dass weibliche Säugetiere bei der Geburt weit mehr Gameten besitzen, als jemals ovuliert werden. Das Schicksal der überwiegenden Mehrheit dieser Eizellen besteht darin, dass sie verloren gehen, wenn die Follikel, in die sie eingeschlossen sind, einen degenerativen Prozess durchlaufen, der als Atresie bezeichnet wird. Das Phänomen der Follikelatresie wurde umfassend untersucht, jedoch ist der Prozess, durch den eine große Anzahl von Follikeln degeneriert wird, noch wenig verstanden. Das Studium der Follikelatresie ist nicht nur wichtig, um den normalen Prozess der Follikelentwicklung zu verstehen, sondern auch, weil es Einblicke in medizinische Krankheiten wie das vorzeitige Menopausesyndrom, die polyzystische Ovarialerkrankung und verschiedene Unfruchtbarkeitszustände bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-3944-5_17 1d3b8449abfabfb2df3e2a9c559ee3e8;de;;;2.4.;;;Bedürfnisse und Fantasie Viele von uns würden die Befriedigung unserer eigenen Wünsche, was auch immer sie sein mögen, über die Befriedigung der Grundbedürfnisse anderer legen. Dies kann auf verschiedene Weise veranschaulicht werden: Wie viele wohlhabende Bürger der Mittelschicht im „Norden“ würden bereitwillig diese Flasche Merlot opfern, um einem „Bettler“ etwas zu geben, der Essen braucht? Vielleicht ist es durchaus angemessen, dass solche Leute dies nicht tun, da es unwahrscheinlich ist, dass eine solche Haltung des individuellen Opfers eines der Probleme einer radikal klassengespaltenen Welt lösen wird. Es ist auch, wie an anderer Stelle argumentiert wurde (Soper, 1993), ein Ansatz, der in seiner Weigerung, individuelle Wünsche anzuerkennen, nach einer gewissen Art von Puritanismus riecht. Ich glaube jedoch nicht, dass wir Puritaner sein müssen, um die Einstellung eines jeden von uns zu ändern. Der Prozess, dies zu tun, kann meines Erachtens durch Laras Konzept der Anerkennungspolitik und durch Cornells Kategorien für das richtige Verständnis des Anderen nützlich veranschaulicht werden.;-;-;-;https://link.springer.com/chapter/10.1057/9780230508026_6 78b3e4c8da48846e59ef5400a43edc66;de;;;2.4.;;;Vestibulookuläre Reflexbogenanalyse mit einem experimentell eingeschränkten neuronalen Netzwerk Die Hauptfunktion des vestibulookulären Reflexes (VOR) besteht darin, die Stabilität der Netzhautbilder während der Kopfbewegungen aufrechtzuerhalten. Diese Funktion wird durch eine komplexe Reihe dynamischer und adaptiver Eigenschaften ausgedrückt, deren wesentliche physiologische Grundlage ein disynaptischer Bogen ist. Wir präsentieren ein Modell der normalen VOR-Funktion unter Verwendung einer einfachen neuronalen Netzwerkarchitektur, die durch die physiologischen und anatomischen Eigenschaften dieses disynaptischen Reflexbogens eingeschränkt ist. Wenn es unter Verwendung einer Methode der globalen Optimierung abgestimmt wird, ist dieses Netzwerk in der Lage, die in Verhaltenstests der VOR-Funktion beobachteten Breitbandantworteigenschaften zu zeigen. Eine Untersuchung der internen Einheiten im Netzwerk zeigt, dass diese Leistung durch die Wiederentdeckung der Lösung für die VOR-Verarbeitung erreicht wird, die zuerst von Skavenski und Robinson (1973) vorgeschlagen wurde. Einheiten des Typs I auf der Zwischenebene des Netzwerks besitzen Aktivierungseigenschaften, die entweder mit der reinen Position oder der reinen Geschwindigkeit verbunden sind. Wenn das Netzwerk entweder durch Hinzufügen weiterer Paare von internen Einheiten oder einer zusätzlichen Ebene von Einheiten komplexer wird, bleibt die charakteristische Aufteilung der Einheitenaktivierungseigenschaften in Positions- und Geschwindigkeitstypen unverändert. Obwohl sie von Natur aus einfach sind, verstärken die Ergebnisse unserer Simulationen die Gültigkeit von Bottom-up-Ansätzen zur Modellierung neutraler Funktionen. Darüber hinaus entspricht die Architektur des Netzwerks aktuellen Vorstellungen über die Eigenschaften und den Ort der Anpassung des Reflexes und sollte mit aktuellen Theorien über Lernregeln für die synaptische Modifikation während der VOR-Anpassung kompatibel sein.;-;-;-;https://link.springer.com/article/10.1007/BF00201018 c06fa7e3e4d06f7cc8a5e9f6eabe2ec7;de;;;5.3.;;;Eine mobile Augmented Reality-Schnittstelle zur additiven Fertigung Die zunehmende Individualität und Komplexität der Produkte macht die Handhabung der additiven Fertigung anspruchsvoller. Inmitten der wachsenden Anforderungen an personalisierte Produkte ist die Interpretation der Kundeneingaben in die Produktspezifikation heute eine Herausforderung für die Branche. Angesichts dessen kann Augmented Reality (AR), eine Technologie, die virtuelle Inhalte eines Zielobjekts auf eine reale Szenerie projiziert, verwendet werden, um die Designinformationen zu interpretieren und die Details entsprechend auf das Display zu projizieren. Durch visuelle Interaktion können die technischen Informationen zur additiven Fertigung einfach visualisiert und der Prozessablauf vor der eigentlichen Produktion gesteuert und geplant werden. Dies trägt dazu bei, Missverständnisse von Informationen zu vermeiden, die durch verbale Kommunikation übermittelt werden, und die anschließende Zufriedenheit des hergestellten Produkts ist definitiv eine Garantie. Als solches wird eine mobile AR-Schnittstelle zur Visualisierung der additiven Fertigung vorgeschlagen. In dieser Arbeit wird eine Cloud-Datenbank in das AR-System integriert, um einen Online-Informationsabruf über das Produktmaterial zu ermöglichen. Insgesamt wurde ein prototypisches System entwickelt und die Usability der AR-Schnittstelle evaluiert. Die mobile Anwendung ist wichtig, um Bediener zu führen und könnte möglicherweise verwendet werden, um additive Fertigungsprozesse zu entwerfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6490-5_1 3311a323012370ae2be9dea4b834790f;de;;;2.4.;;;Zeitliche Musterung von Variationen innerhalb des Song-Typs und zwischen den Song-Typen im Song-Repertoire Bei vielen Singvogelarten singen die Männchen ein Repertoire verschiedener Gesangstypen. Liedersperlinge werden typischerweise so beschrieben, dass sie ein Repertoire von etwa einem Dutzend Liedtypen haben, aber diese Liedtypen sind selbst ziemlich variabel und einige Lieder werden produziert, die zwischen zwei Typen liegen. In dieser Studie quantifizieren wir die Ähnlichkeit zwischen aufeinanderfolgenden Liedern, die von Liedsperlingen produziert werden, um festzustellen, ob Unterschiede zwischen Liedtypen in Anfällen von kontinuierlichem Singen betont oder abgeschwächt werden. Trotz des hohen Grades der Variation innerhalb der Liedtypen und der Ähnlichkeit zwischen den Liedtypen, die bei dieser Art beobachtet wurden, zeigen wir, dass Übergänge von einem Liedtyp zum nächsten im Vergleich zu Übergängen innerhalb von Sequenzen desselben Typs unterschiedlich sind (Abb. 4 und 5 .). ). Variationen „akkumulieren“ sich nicht über Sequenzen desselben Songtyps, und die durchschnittlich beobachtete Variation innerhalb einer fortlaufenden Sequenz desselben Songtyps ist deutlich geringer als aus der Gesamtvariation, die für diesen Typ über viele verschiedene Kämpfe hinweg aufgezeichnet wurde, vorhergesagt (Abb. 6 ). Diese Ergebnisse stützen die Ansicht, dass Singsperlinge zwei Variationsniveaus in ihrem Gesang aufweisen: Unterschiede zwischen den Songtypen, wie sie üblicherweise bei Arten mit Songrepertoire beobachtet werden, und ein unabhängiges Variationsniveau, das für Lieder desselben Typs beobachtet wird.;-;-;-;https://link.springer.com/article/10.1007/BF00197003 8144cffcd1d01f801758562d97032902;de;;;2.4.;;;Massive Beeinträchtigung der exekutiven Funktionen mit teilweisem Erhalt anderer kognitiver Funktionen: der Fall eines jungen Patienten mit schwerer Degeneration des präfrontalen Kortex Es werden historische Grundlagen für die besondere Rolle des präfrontalen Kortex skizziert und anschließend der Fall einer 27-jährigen Frau mit massiver bilateraler präfrontaler Schädigung unbekannter Ätiologie beschrieben. Die Degeneration des Frontallappens wurde wiederholt mit Magnetresonanztomographie und Fluoro-Desoxy-D-Glucose-Positronen-Emissions-Tomographie untersucht und es wurde festgestellt, dass sie sowohl orbitale als auch dorsolaterale Aspekte der Frontallappen umfasst. Während die anfänglich gemessene Degeneration auf Teile der orbitalen, medialen und dorsolateralen Anteile beider Frontallappen beschränkt war, wobei rechtsseitig vorherrschte, zeigte ein zweiter Hirnscan 15 Monate später eine massive Schrumpfung beider Frontallappen zusammen mit einer zusätzlichen Beteiligung des hinteren Assoziationsrinden. Die Patientin hatte ihre High-School-Ausbildung abgeschlossen und verfügte über ein hervorragendes verbales Langzeitgedächtnis, ein normales Kurzzeitgedächtnis und ein normales Priming, zeigte jedoch bei verschiedenen frontallappensensitiven Tests grobe Defizite. Obwohl eine Reihe neurologischer Untersuchungen durchgeführt wurden, konnte keine plausible Ursache für den Schaden festgestellt werden.;-;-;-;https://link.springer.com/article/10.1007/s002210000404 e4f40b89f3d18d4433984a3027a47948;de;;;2.4.;;;Zeolith-enthaltene Moleküle, untersucht durch NMR Zeolithe werden wie Kieselsäuren und Aluminiumoxide in einer Vielzahl von katalytischen und nichtkatalytischen Anwendungen in der chemischen Industrie weit verbreitet verwendet. Um die Natur der Prozesse zu bestimmen, die während der Absorption von Molekülen auftreten, ist es notwendig, die Eigenschaften dieser absorbierten Moleküle zu messen. Sehr häufig sind die absorbierten Phasen weder flüssig, gasförmig noch fest, da sie stark von der Nähe der Zeolithstruktur beeinflusst werden. Abgesehen von der praktischen Bedeutung dieser Materialien ist die Untersuchung eines ungewöhnlichen Aggregatzustands ein weiterer Anstoß zur Untersuchung absorbierter Moleküle. Diese Zwischenzustände können auf vielfältige Weise untersucht werden, von klassischen thermodynamischen Studien bis hin zu ausgeklügelten instrumentellen Techniken, um die strukturellen und dynamischen Eigenschaften absorbierter Moleküle zu definieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-0119-6_4 e6676b5a1684fdf73c3a1a88d0c12038;de;;;2.4.;;;Koreferenz und lexikalische Wiederholung: Mechanismen der Diskursintegration Die Verwendung wiederholter Ausdrücke zur Herstellung von Koreferenzen ermöglicht eine Untersuchung des Zusammenhangs zwischen grundlegenden Prozessen der Worterkennung und übergeordneten Sprachprozessen, die die Integration von Informationen in ein Diskursmodell beinhalten. In zwei Experimenten zum Lesen haben wir anhand von Eyetracking und ereignisbezogenen Potenzialen untersucht, ob wiederholte Ausdrücke, die in einem lokalen Diskurskontext koreferentiell sind, die Art des Wiederholungsprimings aufweisen, das in Wortlisten gezeigt wird. In beiden Experimenten wurden die Effekte der lexikalischen Wiederholung durch die Effekte des lokalen Diskurskontexts moduliert, der aus Manipulationen der sprachlichen Prominenz des Vorläufers eines koferentiell wiederholten Namens entstand. Diese Ergebnisse werden im Kontext der Diskursprominenztheorie interpretiert, die darauf hindeutet, dass Prozesse koferentialer Interpretation mit grundlegenden Mechanismen der Gedächtnisintegration während der Konstruktion eines Diskursmodells interagieren.;-;-;-;https://link.springer.com/article/10.3758/BF03193316 48be92e7387753a77a3902f6d9b06785;de;;;2.4.;;;Bakterielle und Rickettsienerkrankungen Krankheiten, die durch von Arthropoden übertragene bakterielle und Rickettsienerreger verursacht werden, haben in der gesamten Menschheitsgeschichte unglaubliches Leid verursacht. Die Zwillingsgeißeln Pest und Typhus haben möglicherweise mehr Menschen getötet als alle Kriegsverletzungen zusammengenommen (Zinsser 1934). Obwohl Verbesserungen bei der Hygiene und der Behandlung von Krankheiten die Zahl dieser veterinärübertragenen Erreger weltweit verringert haben, haben die jüngsten Ereignisse gezeigt, wie schnell die Bedrohung durch diese Krankheiten in der menschlichen Gesellschaft Chaos verursachen kann. Im Gegensatz zu Krankheiten, die bei hoher Armut und niedrigem Lebensstandard vorherrschen, sind Bakterien und Rickettsien, die von Arthropoden übertragen werden, in letzter Zeit unter den reichsten Einwohnern der Welt aufgetaucht. Die Lyme-Borreliose ist im Nordosten der USA eindeutig mit der Rückgabe von landwirtschaftlichem Land an wohlhabende Vorstadtgemeinden verbunden, mit begleitendem Nachwachsen von Sekundärwäldern und Hirschpopulationen ohne Jagd. Diese Veränderungen haben zu einem Wiederauftreten der Schwarzbeinigen Zecke geführt,;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-1009-2_10 fde2cacb24a71b67ace1847b8983fee4;de;;;2.4.;;;Industrielle Umstrukturierung und regionales Wachstum Der Fokus dieser Forschungsuntersuchung liegt auf der Ausbreitung der verarbeitenden Industrie auf eine ausgedehnte ländliche Region in Mexiko während der letzten 25 Jahre. Es ist ein Thema, auf das ich fast zufällig gestoßen bin. Ein zufälliger Besuch in Mexiko im Jahr 1984 brachte mich in Kontakt mit Forschern und Studenten des El Colegio de Michoacán, die das Wachstum der Zulieferindustrie und verschiedener Arten von Industrie in Kleinstädten im Bundesstaat Michoacán entdeckten und Fragen stellten. Ihre Ergebnisse waren faszinierend. Sie deuteten auf große Veränderungen in der Produktionsorganisation und eine Verbreitung „nicht traditioneller“ Industrieformen hin. Obwohl die Situation alles andere als klar war, gab es Hinweise darauf, dass Prozesse am Werk waren, die vielen Annahmen widersprachen, die oft über die mexikanische Landschaft gemacht wurden. Diese neuen Phänomene und Prozesse erforderten an vielen Stellen und auf verschiedenen Analyseebenen Aufmerksamkeit und Erforschung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-21592-8_1 21418b05ebef94ef90e6537c28a86cde;de;;;2.4.;;;Eine turbulente Reibungs- und Wärmeübertragungsstudie von dispergierten Flüssigkeiten mit ultramikronisierten Metallpartikeln Turbulente Reibungs- und Wärmeübertragungsverhalten dispergierter Flüssigkeiten mit ultramikronisierten Metallpartikeln werden experimentell in einem Rundrohr untersucht. Viskositätsmessungen werden auch unter Verwendung eines Viskosimeters durchgeführt. Wässrige Mischungen mit γ-Al;-;-;-;https://link.springer.com/article/10.1007/BF02953360 f81250e0fbaafc3c348784d4b40642c9;de;;;2.4.;;;Drahtlos programmierbare Mikropumpe zur elektrochemischen Medikamentenverabreichung mit vollständig integrierten elektrochemischen Dosiersensoren Wir präsentieren eine vollintegrierte implantierbare Mikropumpe auf Elektrolysebasis mit integrierten EI-Dosiersensoren. Drahtlose Stromversorgung und Datentelemetrie (durch Amplituden- und Frequenzmodulation) wurden verwendet, um eine variable Flusskontrolle und eine bidirektionale Datenverbindung mit den Sensoren zu erreichen. Die drahtlose Kontrolle der Infusionsrate (0,14–1,04 μl/min) und die Dosiserfassung (Bolusauflösung von 0,55–2 μl) wurden jeweils separat mit der endgültigen Schaltungsarchitektur kalibriert und dann wurden die gleichzeitige drahtlose Flusskontrolle und Dosiserfassung demonstriert. Die Rekombinationsdetektion mit dem Dosiersystem sowie die Auswirkungen des Spulenabstands und der Fehlausrichtung bei der drahtlosen Energie- und Datenübertragung wurden untersucht. Ein speziell angefertigtes, normalerweise geschlossenes, federbelastetes Kugelrückschlagventil wurde entwickelt und am Reservoirausgang eingebaut, um einen Rückfluss von Flüssigkeiten aufgrund des umgekehrten Druckgradienten, der durch die Rekombination von Elektrolysegasen verursacht wird, zu verhindern. Erfolgreiche Abgabe, Kontrolle der Infusionsrate und Dosismessung wurden in simuliertem Hirngewebe erreicht.;-;-;-;https://link.springer.com/article/10.1007/s10544-015-9980-7 d415d1b130f1ce8c1ff6ba7b1aefdafb;de;;;2.4.;;;Strandernährung: Fallstudien Wann der Mensch zum ersten Mal einen Strand wieder ernährte, ist unbekannt. Das erste Beispiel könnte jedoch vor mehr als 2000 Jahren aufgetreten sein, als Kleopatra Sand aus Ägypten in die „...Türkei verschiffen ließ, damit sie nicht auf fremden Boden treten muss“;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-0099-3_2 0ac16150e941284a3f7dd80a091284c2;de;;;2.4.;;;Bildgebung lebender Zellen as konfokale Mikroskop hat nicht nur ein großes Interesse an der Untersuchung von fixiertem und eingebettetem Gewebe durch Mikroskopie hervorgerufen, sondern auch ein enormes Interesse an der Live-Untersuchung der Zellen geweckt, wobei spezifische Sonden die interessierende Struktur oder das zelluläre Ereignis hervorheben. Die konfokale Mikroskopie hat dies möglich gemacht, da sie die Möglichkeit bietet, eine einzelne optische Ebene innerhalb der Zelle oder des Gewebes ohne Ablenkung durch unscharfe Fluoreszenz klar darzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-306-48565-7_12 ababe0ec052e0b8b64b052990a78b453;de;;;5.3.;;;Vertrauensmodellbasierte Unsicherheitsanalyse zwischen Mehrwegerouten in MANET mit subjektiver Logik Mobile Ad-hoc-Netzwerke (MANETs) sind drahtlose Geräte mit kurzer Reichweite. In diesen verteilten Netzwerken steht die sichere Kommunikation im Vordergrund. Die Integration des Vertrauenskonzepts in verteilte Netzwerke in jüngster Zeit bringt erhebliche Herausforderungen mit sich. Das Erreichen einer Knotenkooperation in Ad-hoc-Netzwerken ist keine leichte Aufgabe. In diesem Artikel haben wir ein neuartiges Vertrauensmodell der subjektiven Logik (SL) für den Umgang mit Unwissenheit zwischen Nachbarknoten in einem Ad-hoc-Netzwerk vorgeschlagen. Das auf SL basierende Vertrauensmodell wird auf Mehrwegerouten in einer verteilten Umgebung angewendet, um die Unsicherheit zwischen zufälligen Entitäten zu kennen. In dieser Arbeit haben wir auch hervorgehoben, dass SL nicht ausreicht, um Multi-Path-Trust zu bewerten, wodurch der Auswahloperator als SL-Erweiterung bereitgestellt wird. Durch die Verwendung von subjektiven Meinungsknoten kann eine Vertrauensbewertung in Bezug auf Beobachtungen aus erster und zweiter Hand leicht vorgenommen werden. Außerdem reduziert der Vertrauensinformationsaustauschmechanismus zusätzliche Routing- und Berechnungsoverheads. Die simulierten Ergebnisse validieren das Schema, so dass nach der Berechnung der Ergebnisse basierend auf dem Vertrauensbeurteilungsalgorithmus der Pfad mit dem höheren Vertrauenswert für die Kommunikation ausgewählt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8123-1_28 fc5e546c7abf803d1a5e80f0aadc1798;de;;;5.3.;;;Mobile Unterstützung für kollaboratives Arbeiten Es wird versucht, Situationen zu charakterisieren, in denen der Einsatz mobiler Geräte für die Entwicklung kollaborativer Systeme sinnvoll sein kann. Mobile Geräte haben Vorteile wie geringe Größe, geringe Kosten, Portabilität. Sie haben auch Nachteile, wie einen kleinen Bildschirm, geringe Speicherkapazität, langsamer Prozessor, unzuverlässige Kommunikationsmöglichkeiten. Die Idee ist, sie zu verwenden, wenn die Vorteile am relevantesten sind und die Nachteile das in Entwicklung befindliche System nicht beeinträchtigen. Ein kollaboratives System für die gemeinsame Texterstellung wird als Beispiel für ein Design für die besten Bedingungen für die Einbeziehung mobiler Geräte vorgestellt. Dieses System verwendet die mobilen Geräte für einzelne Aufgaben, die außerhalb des normalen Arbeitsplatzes an unbequemen oder überfüllten Orten ausgeführt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30112-7_30 40561daa3928cd46e9408f07af83c24d;de;;;5.3.;;;Aufblasen der glatten Lösung zum kompressiblen nematischen Flüssigkristallsystem In diesem Artikel untersuchen wir das Aufblasen der glatten Lösungen zu einem vereinfachten Ericksen-Lesile-System für kompressible Ströme nematischer Flüssigkristalle in unterschiedlichen Dimensionsfällen. Wir beweisen, dass die glatte Lösung des Cauchy-Problems oder des Anfangsrandproblems des nematischen Flüssigkristallsystems in endlicher Zeit explodiert. Die Haupttechnik ist die Konstruktion der funktionalen Differentialungleichung.;-;-;-;https://link.springer.com/article/10.1007/s10440-018-0160-7 e3057e4150ce2fd228fdfbbb735cdb49;de;;;5.3.;;;Zwei Welten, eine Smartcard: Eine integrierte Lösung für physischen Zugriff und logische Sicherheit mit PKI auf einer einzigen Smartcard Wir präsentieren einen Anwendungsfall der Einführung einer groß angelegten Public Key Infrastructure (PKI)-Umgebung in einem etablierten Telekommunikationsunternehmen in den Niederlanden. Die Hauptmerkmale des Gehäuses sind die Integration einer bestehenden physischen Zugangseinrichtung mit einer PKI-Umgebung zur logischen Sicherheit der ICT-Infrastruktur des Unternehmens. Tatsächlich wird auf beide über eine einzige (intelligente) Unternehmenskarte zugegriffen. Ziel war es, innerhalb der gegebenen praktischen Zwänge ein hohes Maß an Sicherheit zu implementieren und ein Niveau von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73408-6_17 896917e3fec9a38737093f7aa59aad0a;de;;;5.3.;;;Heteroskedastisch replizierte Messfehlermodelle unter asymmetrischen Heavy-Tailed-Verteilungen Wir schlagen ein heteroskedastisches repliziertes Messfehlermodell vor, das auf der Klasse von Skalenmischungen von schiefen Normalverteilungen basiert, das es ermöglicht, dass die Varianzen von Messfehlern zwischen den Probanden variieren. Wir entwickeln EM-Algorithmen, um Maximum-Likelihood-Schätzungen für das Modell mit oder ohne Gleichungsfehler zu berechnen. Ein empirischer Bayes-Ansatz wird angewendet, um die wahre Kovariate zu schätzen und die Antwort vorherzusagen. Simulationsstudien zeigen, dass die vorgeschlagenen Modelle zuverlässige Ergebnisse liefern können und die Inferenz nicht übermäßig durch Ausreißer und Verteilungsfehler beeinflusst wird. Das Verfahren wurde auch verwendet, um reale Daten der Pflanzenwurzelzersetzung zu analysieren.;-;-;-;https://link.springer.com/article/10.1007/s00180-017-0720-8 9b975d80be01d0dd5d25b7431ba555e4;de;;;2.4.;;;Entwicklung eines schnellen und hochsensiblen HSPA1A-Promotor-gesteuerten Luciferase-Reportersystems zur Bewertung von oxidativem Stress im Zusammenhang mit einer photodynamischen Niedrigdosistherapie Die photodynamische Therapie (PDT) ist eine behördlich zugelassene Methode zur Behandlung einer Vielzahl von bösartigen Tumoren. Es induziert über Photosensibilisator-vermittelte oxidative Zytotoxizität Tumorgewebeschäden. Das Hitzeschockprotein 70 (HSP70-1) ist ein Stressprotein, das von der;-;-;-;https://link.springer.com/article/10.1007/s12192-012-0374-y 8c578d81ce62ccdb263828554a9dd803;de;;;2.4.;;;Der Kompetenzmechanismus bei der Transformation von Streptokokken der serologischen Gruppe H Die Produktion eines speziellen Kompetenzfaktors (cpf) durch die Empfängerzellen ist eines der Schlüsselelemente der komplexen Mechanismen der Transformationskompetenz. Die Rolle der cpf und ihre Wechselbeziehung zu den anderen an der Kompetenz beteiligten Faktoren bleiben im Dunkeln. Auch die Evidenz zum genetischen Hintergrund der Kompetenz ist sehr spärlich.;-;-;-;https://link.springer.com/article/10.1007/BF00267768 c0b765e78584b8a2e4760ec70f2b583a;de;;;2.4.;;;Die sich ändernde räumliche Verteilung und Konzentration der chinesischen und vietnamesischen Gemeinschaften in Australien: Eine Analyse der australischen Volkszählungsdaten von 1986–2006 Dieses Papier beschreibt die sich verändernde räumliche Verteilung und Konzentration chinesischer und vietnamesischer Gemeinschaften in Australien in den letzten zwei Jahrzehnten. Die Forschung analysiert Daten von Personen (i) die in der Volksrepublik China oder Vietnam geboren wurden, (ii) chinesischer oder vietnamesischer Abstammung sind und (iii) die zu Hause Chinesisch oder Vietnamesisch sprachen. Grundlegende demografische und wirtschaftliche Faktoren auf SLA-Ebene werden als erste Diskussion von Faktoren auf Meso-Ebene betrachtet, die seit 1986 zu Veränderungen in der chinesisch-vietnamesisch-australischen Verteilung und Konzentration beigetragen haben könnten.;-;-;-;https://link.springer.com/article/10.1007/BF03031947 a851c27daf6fa6ba6106eada403df41e;de;;;2.4.;;;Verwendung von Wassereinzugsgebieten zur Auswahl von Kontrollflüssen zur Abschätzung der Auswirkungen von Metallbergbauabfällen auf stark gestörte Flüsse Die Auswirkungen von Sedimenten und Schwermetallen auf die Biota von Bächen im Kupferbergbaugebiet im Südwesten von Montana wurden untersucht, indem aquatische Gemeinschaften betroffener Bäche mit denen von Kontrollbächen verglichen wurden. Kontrollströme wurden durch die Verwendung einer Technik ausgewählt, die ähnliche Ströme basierend auf Ähnlichkeiten in ihren Wassereinzugsgebieten identifiziert. Signifikante Unterschiede zwischen betroffenen und Kontrollstandorten bestanden für Oberflächensubstrat, Ufervegetation und die Anzahl der Makroinvertebratentaxa. Diese Ergebnisse zeigten, dass: (a) die chemischen und physikalischen Lebensräume an den betroffenen Standorten gestört waren, (b) das Vorkommen von Forellen ein unzureichendes Maß für die ökologische Integrität dieser Standorte war und (c) die Klassifizierung von Wassereinzugsgebieten basierend auf einer Kombination kartierter terrestrischer Merkmale boten eine angemessene Methode zur Auswahl von Kontrollstellen, bei denen potenzielle Kontrollstellen stromaufwärts und stromabwärts nicht geeignet waren.;-;-;-;https://link.springer.com/article/10.1007/BF01867081 b71846f02e1f5454f108c08315e95264;de;;;2.4.;;;Die Rolle lymphoider und hämatopoetischer Zielzellen bei der viralen Lymphomagenese von C57BL/Ka-Mäusen Die vergleichende Anfälligkeit von C57BL/Ka-Mausthymus, Knochenmark, Milz, Lymphknoten und fötalen Leberzellen gegenüber der Lymphom-induzierenden Wirkung des Strahlen-Leukämievirus (RadLV) wurde untersucht. Obwohl die Replikation des Virus stark thymotrop ist, sind auch Zellen der fötalen Leber sowie des Knochenmarks und der Milz von entwöhnten Mäusen anfällig für eine neoplastische Transformation durch das Virus. Die Subpopulation von Knochenmarkszellen, die nach einer Infektion mit RadVL in vitro für eine neoplastische Transformation in vivo anfällig sind, ist relativ häufig. Die Anfälligkeit dieser Zellen ist relativ altersunabhängig, während die von Thymozyten in den ersten Lebenswochen rapide abnimmt. Ein bemerkenswertes Merkmal dieses Lymphoidtumor-Induktionssystems ist, dass die Thymus-Mikroumgebung während des Intervalls von mehreren Wochen, das erforderlich ist, damit der Prozess der neoplastischen Transformation in empfindlichen, virusinfizierten Zielzellen stattfindet, essentiell ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-66312-3_21 5efd7b703320357fa43b435402f75273;de;;;2.4.;;;Auf dem Übergang von der Autarkie zum Handel Eine der bemerkenswerteren Schlussfolgerungen aus der in diesem Band vorgestellten alternativen Handelstheorie ist, dass das Konsumniveau des Freihandels pro Arbeiter unter dem autarken Niveau liegen kann. Dies scheint im Widerspruch zu dem bekannten Ergebnis zu stehen, das mindestens bis Ricardo zurückreicht, das besagt, dass der Freihandel nicht schlechter und im Allgemeinen besser (in einem bestimmten Sinne) ist als Autarkie. Diese scheinbar widersprüchlichen Ergebnisse werden beide auf der Grundlage des Vergleichs des autarken und des Freihandelsgleichgewichts erreicht. Eine Reihe von Ökonomen hat jedoch vorgeschlagen, dass kein wirklicher Widerspruch vorliegt, sobald die;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-04378-1_12 6fbcee8e4317893dacbdac477c59385c;de;;;2.4.;;;Eine zeitliche Logiksprache zur Definition zeitlicher Bedingungen Conditions Zeitliche objektorientierte Datenmodelle können verwendet werden, um Verhaltensanforderungen von Informationssystemen zu spezifizieren. In diesem Beitrag wird das TF-ORM-Datenmodell analysiert, das auf die Spezifikation dynamischer und statischer Zustandsübergangsbeschränkungen von Datenbanken abzielt. Eine temporale Logiksprache wird verwendet, um Bedingungen auszudrücken, die an die zwei im Datenmodell enthaltenen Regeltypen geknüpft sind: Zustandsübergangsregeln und Integritätsregeln. Diese Bedingungen können verwendet werden, um zeitliche Beschränkungen für die Zustandsübergänge und den aktuellen Zustand der Datenbank darzustellen. Das Hauptanliegen dieses Papiers ist die Definition der Sprache, die bei der Konstruktion der Bedingungen verwendet werden soll.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-9805-0_15 4eddc58292fbb5960fb8204d53aa8751;de;;;2.4.;;;Angewandte Aspekte der Rhodococcus-Genetik Eubakterien der Gattung Rhodococcus sind eine vielfältige Gruppe von Mikroorganismen, die häufig in vielen Umweltnischen vom Boden bis zum Meerwasser sowie als Pflanzen- und Tierpathogene vorkommen. Sie weisen eine bemerkenswerte Fähigkeit zum Abbau vieler organischer Verbindungen auf und ihre wirtschaftliche Bedeutung wird immer deutlicher. Obwohl ihre genetische Organisation noch lange nicht verstanden ist, gab es in den letzten Jahren viele Fortschritte. Hier wird das aktuelle Wissen über Rhodococci in Bezug auf Gentransfer, Rekombination, Plasmidreplikation und -funktionen, Klonierungsvektoren und Reportergene, Genexpression und ihre Kontrolle, Bakteriophagen, Insertionssequenzen und genomische Umlagerungen überprüft. Weitere grundlegende Studien zur Rhodococcus-Genetik und die Anwendung genetischer Techniken auf diese Bakterien sind für ihre weitere biotechnologische Nutzung erforderlich.;-;-;-;https://link.springer.com/article/10.1023/A%3A1001776500413 a8dc147eccacefa69684e199a11f6157;de;;;5.3.;;;Die Finite-Elemente-Analyse basierend auf dem druckempfindlichen dreidimensionalen taktilen Sensor von ANSYS Mit dem Ziel eines dreidimensionalen taktilen Sensorsystems auf der Grundlage von druckempfindlichem leitfähigem Gummi werden die konstitutive Beziehung von großen verformten inkompressiblen Gummimaterialien und die Finite-Elemente-Analysemethode verwendet, um ein analoges Simulationsexperiment durchzuführen, und ein Finite-Elemente-Modell einer flexiblen taktilen Sensor-empfindlichen Einheit wird erstellt. Die nichtlineare Analysetechnik der ANSYS-Software wird verwendet, um empfindliche Einheitenstrukturen zu analysieren. Die Verformung der druckempfindlichen leitfähigen Gummischicht wird simuliert und die Durchführbarkeit des Entwurfsschemas wird durch den Vergleich von Simulationsdaten und Versuchsdaten bewiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74282-1_134 ed8275c6a755ba50df48b6451acadeb5;de;;;5.3.;;;Domain Knowledge Enhanced Error Correction Service für intelligente Sprachinteraktion Intelligente Sprachinteraktionssysteme haben in den letzten Jahren große Popularität erlangt. Für diese Systeme ist die Genauigkeit der automatischen Spracherkennung (ASR) zu einem Schlüsselfaktor für die Bestimmung der Benutzererfahrung geworden. Aufgrund des Einflusses von Umgebungslärm und der Vielfalt und Komplexität natürlicher Sprache kann die Leistungsfähigkeit von ASR noch nicht die Anforderungen realer Anwendungsszenarien erfüllen. Um die Genauigkeit von ASR zu verbessern, schlagen wir in diesem Papier ein domänenwissensgestütztes Fehlerkorrekturverfahren vor, das zuerst den verbesserten phonetischen Bearbeitungsabstand wählt, um die Kandidaten auszuwählen, die die gleiche oder ähnliche Phonetik mit dem Fehlersegment haben, und dann das Sprachmodell übernimmt das am besten geeignete aus dem Domänenwissenssatz als Endergebnis. Wir kapseln die Methode auch als Service mit dem Flask + Gunicorn + Nginx-Framework, um die hohe Parallelitätsleistung zu verbessern. Experimentelle Ergebnisse zeigen, dass unsere vorgeschlagene Methode die Vergleichsmethoden in Bezug auf die Genauigkeit und die fast 20- bis 40-fache Gleichzeitigkeitsleistung um 48,4% übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-23367-9_13 d52b5497d4fce709c87defccdc2703e9;de;;;5.3.;;;Fraktale Analyse des Oberflächenelektromyographie-(EMG)-Signals zur Identifizierung von Handbewegungen mithilfe der kritischen Exponentenanalyse Jüngste Fortschritte in der nichtlinearen Analyse haben dazu geführt, die Komplexität und Selbstähnlichkeit des Oberflächenelektromyographie (sEMG)-Signals zu verstehen. Dieses Forschungspapier untersucht die Verwendung der Critical Exponent Analysis Method (CEM), einem fraktalen Dimension (FD) Schätzer, um Eigenschaften des sEMG-Signals zu untersuchen und diese Eigenschaften zu verwenden, um verschiedene Arten von Handbewegungen für die Prothesensteuerung und die Mensch-Maschine-Schnittstelle zu identifizieren. Die sEMG-Signale wurden von zehn gesunden Probanden mit sieben Handbewegungen und acht Muskelpositionen aufgezeichnet. Mittelwerte und Variationskoeffizienten der FDs für alle Experimente zeigen, dass es größere Variationen zwischen den Handbewegungsarten gibt, aber kleine Variationen innerhalb der Handbewegungen. Es zeigt auch, dass die FD mit der selbstaffinen Eigenschaft für das aus verschiedenen Handaktivitäten extrahierte sEMG-Signal 1,944~2,667 zusammenhängt. Diese Ergebnisse wurden ebenfalls ausgewertet und als Boxplot und Varianzanalyse dargestellt (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22191-0_62 e7960a080a41996698cc6dcce1a131eb;de;;;2.4.;;;Eine Umfrage zu teilnehmenden Medienwiedergabetechniken Die Darstellung der teilnehmenden Medien ist für eine Reihe von Domänen wichtig, von kommerziellen Anwendungen (Unterhaltung, virtuelle Realität) über Simulationssysteme (Fahr-, Flug- und Weltraumsimulatoren) bis hin zu Sicherheitsanalysen (Fahrbedingungen, Sichtbarkeit von Schildern). Dieser Artikel untersucht globale Beleuchtungsalgorithmen für Umgebungen einschließlich der teilnehmenden Medien. Es überprüft sowohl Erscheinungsbild-basierte als auch physikalisch-basierte Medienmethoden, einschließlich der Einfachstreuungs- und der allgemeineren Mehrfachstreuungstechniken. Das Ziel der Umfrage ist die Charakterisierung all dieser Methoden: Identifizierung ihrer Basistechniken, Annahmen, Grenzen und Einsatzmöglichkeiten. Es schließt mit einigen Überlegungen zur Eignung der Methoden in Abhängigkeit von der konkreten Anwendung und möglichen zukünftigen Forschungslinien.;-;-;-;https://link.springer.com/article/10.1007/s00371-005-0287-1 02d9b01ff77398589972c5b2e436eda5;de;;;2.4.;;;Durch die proximale Sonde induzierte chemische Verarbeitung für die Entwicklung von Nanogeräten Die heutige IC-Technologie basiert auf MOSFETs, deren Abmessungen mit zunehmender Integration kleiner werden. Es ist bekannt, dass dieses Elementargerät in seiner gegenwärtigen Konfiguration (ein Kanal und ein einzelnes Gate) für Kanallängen unter etwa 30 nm nicht mehr verwendet werden könnte [;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0353-7_11 e3e943d6d14c5a1fd022bf989f27230a;de;;;2.4.;;;Technische und wirtschaftliche Aspekte der netzgekoppelten Solar-Photovoltaik in Brasilien Dieser erste Teil dieses Kapitels bietet einen Überblick über den heutigen brasilianischen Energiesektor sowie einen Überblick über den Entwicklungsplan der Regierung für den Sektor bis 2030. Darüber hinaus wird die Verfügbarkeit von Solarressourcen im Land dargestellt. Die zentralen Abschnitte sind die Schritte und Ergebnisse einer Fallstudie, bestehend aus dem Entwurf einer netzgekoppelten Photovoltaik-Dachanlage für ein hypothetisches Sportgebäude in Südbrasilien mit drei Solarmodultechnologien (amorphes Silizium, polykristallines Silizium und Kupfer-Indium-Diselenid). . Abschließend werden Schlussfolgerungen gezogen, die die wirtschaftliche und technische Durchführbarkeit der drei Konfigurationen der Fallstudie, die damit verbundenen geschätzten Umweltauswirkungen aus überprüften Studien und den aktuellen politischen Kontext in Brasilien berücksichtigen. Diese technischen und wirtschaftlichen Aspekte können teilweise auf Länder mit ähnlichen klimatischen Bedingungen und Problemen übertragen werden, um Hindernisse für einen größeren Einsatz der Photovoltaik-Technologie zu überwinden. Der Ausbau der Nutzung erneuerbarer Energien als Instrument zur Vermeidung der Erschöpfung nicht erneuerbarer Ressourcen, die Analyse von Umweltwirkungen als Instrument des Umweltschutzes, die Untersuchung von Problemen und Chancen in Entwicklungsländern im Rahmen der Umweltplanung, sowie sowie Nachhaltigkeitsbewertungen, werden im Kontext des Umwelt- und Ressourcenmanagements breit diskutiert (BTU 2009).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77568-3_6 087d8f9bc8de2e1e10c927a1411b267f;de;;;2.4.;;;Eine einfache Methode zur Defektbereichserkennung mittels aktiver Thermografie In diesem Beitrag wurde eine einfache Methode zur Erkennung von Fehlerstellen in der Untergrundschicht von Materialien vorgestellt. Das Verfahren verwendet aktive Infrarot-Thermografie. Zur quantitativen Charakterisierung defektbehafteter Bereiche wurde ein statistisches Detektivitätsverhältnis eingeführt. Der beschriebene Algorithmus der Defektbereichserkennung wurde für ein Material mit niedriger Temperaturleitfähigkeit getestet. Die Ergebnisse von experimentellen und Simulationsuntersuchungen werden vorgestellt. Es wurde festgestellt, dass das statistische Detektivitätsverhältnis verwendet werden kann, um Bereiche des Vorhandenseins von Defekten zu erkennen, sogar für die ungleichmäßig erhitzten Oberflächen.;-;-;-;https://link.springer.com/article/10.2478/s11772-009-0016-9 babf89497b19c5d071f3f547749b74d9;de;;;5.3.;;;Multimediale E-Learning-Plattform mit grünem Design mit realitätsnahem Ansatz Die meisten E-Learning- und Videokonferenzplattformen erhalten die Beschränkung der Bevölkerung und des Dateiformats, die Unannehmlichkeiten für die Benutzer und die Anforderung einer bestimmten Software. Dieses Papier schlägt eine effektive Methode und die Lösung für dieses Problem vor. Die Lösung verwendet das bekannte Multimedia-Stream-Format und verwendet ein grünes Designkonzept mit einem nahezu realen Ansatz. Die Beschränkung von zusätzlichen Softwareinstallationen, die Beschränkung von Benutzerlizenznehmern und die Beschränkung des Standorts werden mit diesem Design gelöst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03364-3_67 124f136682436ae81a1b66648aeb6e80;de;;;5.3.;;;Einführung: 2D-basierte Quantentechnologien Eingerahmt in den wachsenden Giganten der Quantentechnologien, mit weltweiten Milliardenausgaben und schnellem Wachstum, nutzen wir das aufregende physikalische und technologische Versprechen zweidimensionaler Materialien, um atomar dünne Quantenbauelemente zu schaffen, die einzelne Photonen emittieren und einzelne Spins einfangen können. In dieser Dissertation präsentieren wir die Allianz von 2D- und Quanteninformationstechnologie - die ersten Schritte hin zu hybriden Licht-Materie-Quantennetzwerken in einer skalierbaren On-Chip-Plattform mit geringem Stromverbrauch.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-01482-7_1 6db4f64b999922c8d91bb91833a38497;de;;;5.3.;;;Biegen einer elliptischen Platte auf einem elastischen Fundament und unter der kombinierten Wirkung von Seitenlast und Kraft in der Ebene Die ebenen Platten, die auf elastischen Fundamenten ruhen, sind in vielen Bereichen des Ingenieurwesens von praktischer Bedeutung, wie z. In einigen Fällen werden die Platten großen Temperaturunterschieden ausgesetzt, woraus sich beträchtliche Kräfte in der Ebene in den Platten ergeben. Als Strukturelemente in den weiten Bereichen der Technik können verschiedene Arten von elliptischen Platten verwendet werden, um die hohe Spannungskonzentration zu vermeiden und die Gebrauchstauglichkeit des Instruments und die Schönheit der Architektur zu verbessern. In den letzten Jahren hat der Autor die Schwingungs-, Knick- und Biegeprobleme von elliptischen Platten untersucht, die der kombinierten Einwirkung von Seitenlast und Kraft in der Ebene ausgesetzt sind [;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-5370-3_49 4bfb3a8106a707fef0f53f53456e8518;de;;;2.4.;;;Teilweise Chancengleichheitsbestellungen Dieses Papier schlägt eine partielle Chancengleichheitsordnung auf der Grundlage der Ungleichheitskurve vor, ein Mechanismus, der diejenigen bevorzugt, die hinsichtlich der Chancen schlechter gestellt sind. Darüber hinaus bietet es eine vollständige Ordnung, die von einem Sensitivitätsparameter abhängt, der den Prioritätsgrad in der Politik der Chancengleichheit repräsentiert. Als Sonderfall wird der Moreno-Ternero-Ansatz gewählt. Dieser Vorschlag wird auf eine Reihe von 12 Ländern angewendet, um ihren Grad an Chancengleichheit zu vergleichen. Die Ergebnisse zeigen die wirtschaftspolitische Relevanz der Beobachtung von Chancenungleichheit über Tranchen. Dänemark dominiert in Bezug auf das Nachsteuereinkommen alle anderen Volkswirtschaften in unserer Stichprobe.;-;-;-;https://link.springer.com/article/10.1007/s00355-007-0290-8 911c910cff38b8fc94d7391bbe580fa1;de;;;5.3.;;;Implementierung kinetischer Typografie durch Bewegungserkennungssensor Kinetische Typografie ist eine Technologie, die auf den Veränderungen der Farbe des Charakters, der Größe und des Ortes basiert und die Wertschätzung des Schönen und der Kreativität vermittelt. Der Hauptzweck dieser Forschung besteht darin, die Tiefenkamera zu verwenden, um eine natürliche Interaktion zwischen Benutzern und kinetischer Typografie zu ermöglichen. Wir haben einen Bewegungserkennungssensor verwendet, um die Skelettinformationen des Benutzers zu verfolgen und mit der Typografie zu synchronisieren. Kinetische Typografie liefert nicht nur einfache Informationen, sondern ermöglicht auch hochdimensionale Kommunikation wie emotionalen Ausdruck.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55038-6_79 baed9c90bb32f2d4ded131631303f75c;de;;;2.4.;;;Entdifferenzierung von Die Mechanismen der Dedifferenzierung von Pflanzenzellen und des Erwerbs von Totipotenz sind wenig verstanden. Eine der Methoden, um den Dedifferenzierungsprozess in Pflanzenzellen zu induzieren, ist einfach und erfordert die Entfernung der Zellwand. Nach der Zellwandentfernung in Protoplasten wird eine großflächige Chromatindekondensation beobachtet (Tessadori et al. in J Cell Sci 120: 1200–1208,;-;-;-;https://link.springer.com/article/10.1007/s00709-014-0700-6 da6fd1a9c992821960573c693e98cf0a;de;;;2.4.;;;Zytotoxische T-Lymphozyten: Generation und zelluläre Eigenschaften Während die Beteiligung von CTL an der Zerstörung von Zellen, die durch intrazelluläre Parasiten kompromittiert wurden, einen Großteil der neueren Forschungen zur biologischen Rolle von CTL vorangetrieben hat, entstand ihre erste Entdeckung in der Tat aus einer langen Geschichte des Versuchs, die Grundlagen für Tumorimmunität, Überempfindlichkeitsreaktionen zu verstehen , und insbesondere die allogene Transplantat-(Allotransplantat-)Abstoßung (Kapitel 7). All diese Phänomene wiesen die Kennzeichen von Immunreaktionen auf, wie die Beteiligung von Lymphzellen, Spezifität und Gedächtnis, aber sie konnten nicht vollständig durch Antikörper erklärt werden – den einzigen Immunmediator mit diesen Eigenschaften, der in der ersten Hälfte des 20 Jahrhundert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-3270-7_2 d5229aa00af51185ad79847c6bd32201;de;;;2.4.;;;Das bakterielle Phosphoenolpyruvat:Zucker-Phosphotransferase-System Das bakterielle Phosphoenolpyruvat: Glycose Phosphotransferase System (PTS) spielt eine Schlüsselrolle bei mehreren wichtigen physiologischen Prozessen. Diese bisher identifizierten PTS-Funktionen umfassen den Transport von PTS-Zuckersubstraten durch die zytoplasmatische Membran, gekoppelt mit ihrer Phosphorylierung, Chemotaxis gegenüber PTS-Zuckersubstraten und die Regulierung der Synthese von Enzymen und Permeasen, die für den Katabolismus bestimmter Nicht-PTS-Zucker erforderlich sind. Letztere Funktion wird hauptsächlich durch die Regulierung sowohl der Adenylatzyklase als auch der jeweiligen Nicht-PTS-Zuckerpermeasen erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-4601-2_15 32140f274d5468c449906951ee4b9972;de;;;2.4.;;;Gestörte zelluläre Wirtsabwehr und chronische entzündliche Anomalien bei Nierenerkrankungen im Endstadium Infektiöse Komplikationen sind die zweithäufigste Einzeltodesursache (1). Virusinfektionen umfassen Hepatitis B, Hepatitis C oder Influenza. Der sekundäre Immundefekt von Patienten mit terminaler Niereninsuffizienz (ESRD) (2) führt zu niedrigen Antikörpertitern, einer kurzen Schutzdauer und einem Nichtansprechen auf Standardimpfprotokolle (3–5). Das Nichtansprechen auf die Hepatitis-B-Impfung wird von einer beeinträchtigten Aktivierung von T-Lymphozytenin begleitet;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-2275-3_40 ec92a8509ba330a8fb2978c8074e1389;de;;;2.4.;;;Arbeitsgedächtnis und Strategien bei syllogistischen Denkaufgaben Es wurde oft behauptet, dass Einschränkungen des Arbeitsgedächtnisses ein wichtiger Faktor sind, der zu Problemschwierigkeiten beiträgt, zum Beispiel appelliert Johnson-Lairds (1983) Mental-Models-Theorie an Einschränkungen des Arbeitsgedächtnisses, um die Schwierigkeit des syllogistischen Denkens zu erklären. Allerdings haben nur wenige Studien das Arbeitsgedächtnis direkt beim Problemlösen im Allgemeinen oder beim syllogistischen Denken im Besonderen untersucht. Dieses Papier berichtet über zwei Studien. Im ersten Fall wurde die Arbeitsspeicherbelastung variiert, indem syllogistische Aufgaben entweder verbal oder visuell präsentiert wurden (so dass die Räumlichkeiten ständig zur Einsichtnahme zur Verfügung standen). Ein signifikanter Effekt der Speicherbelastung wurde erhalten. In der zweiten Studie wurden Räumlichkeiten für eine vom Probanden bestimmte Zeit visuell präsentiert. Dual-Task-Methoden wurden verwendet, um die Rolle von Arbeitsgedächtniskomponenten zu bewerten, wie sie im Modell von Baddeley (1986) identifiziert wurden. Die syllogistische Leistung wurde durch die gleichzeitige Generierung von Zufallszahlen gestört, jedoch nicht durch gleichzeitige artikulatorische Unterdrückung oder durch gleichzeitiges Klopfen in einem voreingestellten Muster. Darüber hinaus störte die gleichzeitige Syllogismus-Aufgabe die zufällige Erzeugung und in geringerem Maße die artikulatorische Unterdrückung, aber nicht das Klopfen. Wir schließen daraus, dass die zentral-exekutive Komponente des Arbeitsgedächtnisses zwar eine wichtige Rolle bei der hier beschriebenen syllogistischen Aufgabenleistung spielte, die Artikulationsschleife jedoch eine geringere Rolle spielte und das visuell-räumliche Scratch-Pad nicht beteiligt war.;-;-;-;https://link.springer.com/article/10.3758/BF03211170 3b33d01348a70bec74aaa67573ccd205;de;;;2.4.;;;Tieftemperatur-Rasterkraftmikroskopie Die Tieftemperatur-Rasterkraftmikroskopie kann ein wichtiges Werkzeug zur Untersuchung magnetischer und supraleitender Materialien sowie immobilisierter Atome und Moleküle auf Oberflächen werden. Die erhöhte Stabilität des Instruments und geringere thermisch aktivierte Schwingungsamplituden des Cantilevers verbessern die Kraftauflösung. Experimente mit echter atomarer Auflösung, Modifikationsexperimente auf atomarer Skala und kernmagnetische Resonanzexperimente an einzelnen Atomen scheinen möglich. Die Instrumentierung blieb jedoch eine Herausforderung. Es wurden nur wenige erfolgreich funktionierende Instrumente beschrieben. Wir diskutieren zunächst verschiedene Arten von Kryostaten und Ablenkungssensoren, die für die Niedrigtemperatur-Rasterkraftmikroskopie geeignet sind. Dann konzentrieren wir uns auf Niedertemperatur-Magnetkraftmikroskopie-Experimente an Supraleitern mit hoher Übergangstemperatur.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-0049-6_3 6a41aac5e1d95af0edc5645842e5d8eb;de;;;2.4.;;;Photoakustische Untersuchung von Pestiziden Der photoakustische Effekt, der durch die Absorption der modulierten Strahlung verursacht wird und dadurch eine Schallerzeugung im Gas mit der gleichen Zerhackerfrequenz bewirkt, hat sich als wertvolles Werkzeug für eine Vielzahl von Anwendungen erwiesen. Dies wird in mehreren ausgezeichneten Büchern und Übersichtsartikeln zu diesem Thema beschrieben [1,2,3,4,5]. Die Größe des photoakustischen Signals ist direkt proportional zu der vom Gas absorbierten Leistung und der Konzentration der absorbierenden Spezies. In den letzten Jahren wurden mit Laserquellen häufig Untersuchungen zur Luftverschmutzung unter Ausnutzung des photoakustischen Effekts in molekularen Gasen im Infraroten durchgeführt [6,7,8,9,10,11]. Für die meisten Gase wurden mit optimierten Zellendesigns unter realistischen atmosphärischen Bedingungen Nachweisempfindlichkeitsgrenzen für die Konzentration unterhalb eines Teils pro Milliarde erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-0989-2_27 82123d8edb81bd9f2f7a2171ae5a26f0;de;;;5.3.;;;Ein Überblick über Transporte und ITS In diesem Beitrag wird die Situation im Verkehrssektor in Kombination mit den Anwendungen intelligenter Verkehrssysteme festgehalten. In diesen Rahmen ist es nützlich, einige der Systeme vorzustellen, die zur Funktion elektronischer Transportmittel beitragen, wie Chipkarten und Smartphones. Die Datensatzanalyse erfolgt in 3 Stufen. Die erste Ebene betrifft die Europäische Union, den europäischen Rahmen für den Verkehrssektor und viele beobachtete bewährte Verfahren, die zweite Ebene in Griechenland und die entwickelten Anwendungen im Gegensatz zu den bewährten europäischen Verfahren und schließlich die dritte Ebene betrifft Amerika und die Ziele eines reifen ITS-Marktes. Die Ergebnisse zeigen, dass intelligente Anwendungen im Transportwesen immer noch wachsen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16324-1_37 957ad26c2ac8004cbc302a07fde0e294;de;;;2.4.;;;EMR-Managementsystem für Patientenpulsdaten Ziel dieser Studie ist es, ein integriertes medizinisches Informationssystem für ein effektives Datenbankmanagement klinischer Informationen aufzubauen und das bestehende auf der elektronischen Patientenakte (EMR) basierende System zu verbessern, das derzeit in Krankenhäusern verwendet wird. Das integrierte medizinische Informationssystem von Krankenhäusern besteht aus einem Order Communication System (OCS), einem Picture Archiving Communication System (PACS) und einem Laborinformationssystem (LIS) sowie einer elektronischen Patientenakte (EMR). Es ist so konzipiert, dass auch in abgelegenen Gebieten über ein Hochgeschwindigkeitsnetzwerk auf Gesundheitsscreenings und Patientendatensuche zugegriffen werden kann, um die Daten über die medizinische Behandlung, die Patienten in ihren jeweiligen Krankenhäusern erhalten haben, effektiv zu verwalten. Das bestehende orientalische Behandlungssystem ist eines, bei dem der Arzt verlangt, dass der Patient persönlich ins Krankenhaus kommt, um den Puls des Patienten zu überprüfen und ihn mit der Hand für eine korrekte Diagnose und Behandlung zu messen. Durch die jüngste Entwicklung digitalisierter medizinischer Messgeräte können Ärzte aber nicht nur den Puls eines Patienten direkt berührungslos messen, sondern die Messdaten werden auch computerisiert und als elektronische Pflichtakte in der Datenbank gespeichert. Selbst wenn ein Patient das Krankenhaus nicht besuchen kann, ist eine angemessene medizinische Behandlung durch die Analyse der Krankengeschichte und des Diagnoseprozesses des Patienten in der abgelegenen Gegend möglich. Darüber hinaus wird erwartet, dass die Qualität des medizinischen Dienstes als bisher verbessert wird, wenn ein umfassendes medizinisches Testzentrumssystem einschließlich der ärztlichen Untersuchung der Bevölkerung und verschiedener körperlicher Untersuchungen eingerichtet wird.;-;-;-;https://link.springer.com/article/10.1007/s10916-011-9816-9 e45f4afbd9b2894f9eec715b3d880ff5;de;;;2.4.;;;Das Gehirn erforschen In diesem Kapitel gebe ich einen kurzen Überblick über die bekanntesten experimentellen Methoden der Hirnforschung. Die verschiedenen physikalischen Methoden werden besonders hervorgehoben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-79570-1_3 649e0154e57fa7f11e2c4ab3060dd97f;de;;;2.4.;;;Neuronen mit kontinuierlich variierender Aktivierung in selbstorganisierenden Karten Durch den Vergleich von SOM mit dem menschlichen Informationsverarbeitungssystem wird eine neue Trainings- und Abrufmethode für selbstorganisierende Karten (SOM) entwickelt. Da Neuronen und kortikale Säulen ihre Aktivität nicht sofort ändern, wird sie auf sanfte Weise erhöht oder verringert. Diese Tatsache wird in SOM-Neuronen eingeführt. In gleicher Weise soll die Erkennung von Objekten eine Aufgabe sein, vollständige Sätze von Merkmalsvektoren zu analysieren und die Region im SOM zu finden, die die aktuellen Eingaben am besten repräsentiert. Dieses Verfahren erlaubt insbesondere die Auswertung mehrdeutiger Merkmalsvektoren und von Objekten, die in Mengen von Basismerkmalsvektoren zerlegt oder in einem kontinuierlichen zeitlichen Fluss erfasst werden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-59497-3_204 3ac8ece1545dda3e761f7eea84815dbd;de;;;2.4.;;;Aktuelle und potenzielle Therapien zur Behandlung von Herpesvirus-Infektionen Humane Herpesviren sind weltweit verbreitet und gehören zu den häufigsten Erregern viraler Infektionen bei immunkompetenten wie auch bei immungeschwächten Patienten. Während der letzten anderthalb Jahrzehnte hat sich ein besseres Verständnis der Replikation und des krankheitsverursachenden Zustands der Herpes-simplex-Virustypen 1 und 2 (HSV-1 und HSV-2), des Varicella-Zoster-Virus (VZV) und des humanen Cytomegalovirus (HCMV) entwickelt Dies ist zum Teil auf die Entwicklung potenter antiviraler Verbindungen zurückzuführen, die auf diese Viren abzielen. Während einige dieser antiviralen Therapien als sicher und wirksam gelten (Acyclovir, Penciclovir), sind einige mit ihnen verbunden (Ganciclovir und Foscarnet). Darüber hinaus hat die zunehmende und längere Verwendung dieser Verbindungen im klinischen Umfeld, insbesondere zur Behandlung von immungeschwächten Patienten, zum Auftreten von Virusresistenzen gegen die meisten dieser Medikamente geführt. Während Resistenzen für immunkompetente Personen kein ernstes Problem darstellen, sind sie für immungeschwächte Patienten, insbesondere solche mit AIDS und solche, die sich einer Organtransplantation unterzogen haben, ein echtes Problem. Alle derzeit zugelassenen Behandlungen zielen auf die virale DNA-Polymerase ab. Es ist klar, dass neue Medikamente, die wirksamer sind als die gegenwärtigen, nicht toxisch sind und auf eine andere virale Funktion abzielen, insbesondere für immungeschwächte Patienten von großem Nutzen wären. Hier geben wir einen Überblick über die durch die Herpesviren verursachten Krankheiten sowie die Replikationsstrategie der besser untersuchten Mitglieder dieser Familie, für die es Behandlungen gibt. Außerdem diskutieren wir die verschiedenen Medikamente, die für die Behandlung einiger Herpesviren in Bezug auf Struktur, Wirkmechanismus und Resistenzentwicklung zugelassen sind. Schließlich präsentieren wir eine Diskussion über andere virale Ziele als die DNA-Polymerase, für die neue antivirale Verbindungen in Betracht gezogen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-7784-8_5 5dd906f97614e373412f2f5393b6e39f;de;;;2.4.;;;Teilweise interne Modellkontrolle Für stabile Prozesse mit offenem Regelkreis bietet der IMC-Ansatz eine sehr einfache, aber leistungsstarke Parametrierung aller stabilisierenden Regler. Das IMC-Faktorisierungs-Verfahren gibt wertvolle Einblicke in die inhärenten Kontrollbeschränkungen bestimmter Modelle. Wenn jedoch instabile Prozesse mit offener Schleife in Betracht gezogen werden, kann die ursprüngliche IMC-Struktur nicht für die Implementierung des Steuersystems verwendet werden. Denn unter der perfekten Match-Situation wird das IMC-System zu einem Open-Loop-System und instabile Prozesse werden somit überhaupt nicht stabilisiert. Diese instabilen Prozesse können mit konventioneller Rückkopplung vorstabilisiert werden, bevor die normale IMC-Struktur angewendet wird (Garcia und Morari, 1982). In Kapitel 9 wurde eine alternative IMC-basierte Methode vorgestellt, um die konventionelle;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0041-6_11 62af25d09cb2facf0b5f8354586b87a0;de;;;2.4.;;;Bestimmung der volumetrischen Eigenschaften von Rapsmethylesteröl bei hohem Druck (0,1 bis 350 MPa) Der isotherme Kompressibilitätskoeffizient, der Schüttmodul, der kubische Ausdehnungskoeffizient, die Dichte und die Ausbreitungsgeschwindigkeit der Druckwellen von Rapsmethylesteröl (RMEO) sind die thermophysikalischen Eigenschaften, die aus dem in dieser Arbeit bestimmten spezifischen Volumen abgeleitet und mit den Eigenschaften verglichen werden von Dieselöl (DO). Das Temperaturmessintervall reicht von 288,15 bis 328,15 K und das Druckmessintervall von Atmosphärendruck bis 350 MPa.;-;-;-;https://link.springer.com/article/10.1007/s10973-006-7917-3 1d7111c53bfe4c46c5dc21944984760e;de;;;2.4.;;;Mößbauer-Spektroskopie in der heterogenen Katalyse Die Möglichkeit der Mössbauer-Spektroskopie, die elektronische Umgebung von Kernen in authentischen Katalysatoren unter realistischen Bedingungen direkt zu untersuchen, hat dieser Technik eine besondere Kraft bei der Untersuchung fester Katalysatoren verliehen. Obwohl diese spezielle Anwendung seit einiger Zeit bekannt ist, hat sich die Mößbauer-Spektroskopie sowohl in konventioneller als auch in neuartiger Arbeitsweise erst vor relativ kurzer Zeit zu einer wichtigen Forschungsmethode im Bereich der Katalyse entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-0462-1_13 54d89996e975be3f5540d733dc00395b;de;;;2.4.;;;Die präzellulären oder einfach interagierenden Systeme, Ebene (Stufe III) Obwohl sich in bestimmten Aspekten der präbiotischen Synthese und Polymerisation der biochemischen Grundbestandteile des Lebens einige Probleme noch immer einer zufriedenstellenden Lösung widersetzen, versprechen die Zahl und Vielfalt erfolgreicher Verfahren, dass zumindest einige Teile der vorgeschlagenen Theorien der Realität nahe kommen. Es sollte auch keine wirkliche Besorgnis darüber bestehen, welcher spezifische Weg derjenige war, der ausschließlich auf der primitiven Erde verfolgt wurde, während mehrere oder sogar viele verschiedene Prozesse während der Milliarden oder mehr Jahre aktiv gewesen sein könnten, die die frühen Stadien zu haben scheinen besetzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-2436-2_2 cd59559631ec60acfbdff32737fe5119;de;;;5.3.;;;Tool zum Sammeln von Geodaten mit der Google Maps API In diesem Whitepaper entwickeln wir ein Tool zum Sammeln von Geodaten basierend auf der Google Maps API. Das Tool wird mit AJAX- und XML-Technologie implementiert. Es hilft, die Karten in verschiedenen Formen zu markieren. Nachdem die Benutzer die Regionen in den Karten definiert haben, können die zugehörigen Daten beschrieben und in der Datenbank gespeichert werden. Die Daten können weiter analysiert und im GIS angezeigt werden. Das Tool unterstützt die KML- und NMA-Dateien, in die die Benutzerspezifikationen exportiert und die Offline-Daten in einer solchen Form ebenfalls in das System importiert werden können. Wir demonstrieren einen Fall der Verwendung des Tools zur Erfassung von Geodaten im Agrarbereich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17644-9_12 ca199c2a64327ff328963994923c9a35;de;;;2.4.;;;Auswirkungen der Urbanisierung auf die Mobilität von Metallen in Schwebsedimenten von Flüssen: Rolle von Metalloxiden Die räumliche und zeitliche Fraktionierung von Spurenmetallen und Hauptelementen in Schwebstaub in der Seine wurde untersucht, um die Auswirkungen der zunehmenden Urbanisierung im Großraum Paris zu untersuchen. In der Seine wurden zwischen Dezember 2008 und August 2009 suspendierte Sedimente flussaufwärts und flussabwärts von Paris gesammelt. Sie wurden einem vom Bureau Communautaire de Référence zertifizierten vollständigen Aufschluss und sequenziellen Extraktionsverfahren unterzogen, und Spurenmetalle zusammen mit Hauptelementen wurden mit induktiv gekoppelter Plasmamassenspektroskopie analysiert. Die Metallanreicherungsfaktoren stiegen nach der Seine stromabwärts des Großraums Paris um das Achtfache an, was einen signifikanten Beitrag zur Urbanisierung zeigt. Auf die Anreicherung von Kupfer, Blei und Zink stromabwärts von Paris folgt die Erhöhung ihres reduzierbaren Anteils von mindestens 10 %, was eine Zunahme der mit Eisenoxiden verbundenen Metalle impliziert. Der austauschbare Anteil, zu dem die carbonatassoziierten Metalle gehören, ist nur für Cadmium, Nickel und Zink von Bedeutung (mehr als 2 %), während der oxidierbare Anteil bei den anthropogenen Metallen stromabwärts mit Ausnahme von Kupfer weniger als 20 % ausmacht. Die Metalle können in (a) „reduzierbare“ Gruppe unterteilt werden, einschließlich Cadmium, Blei und Zink, verbunden mit mehr als 60 % der gesamten extrahierbaren Metalle des Bureau Communautaire de Référence bis hin zur reduzierbaren Fraktion, die hauptsächlich Eisenoxidphasen für die nachgelagerten Standorte enthält. (b) Eine „verteilte“ Gruppe einschließlich Chrom, Kupfer und Nickel, die mit mindestens 3 verschiedenen Phasengruppen verbunden sind: (1) Oxide, (2) organische Stoffe und Sulfide und (3) mineralische Phasen.;-;-;-;https://link.springer.com/article/10.1007/BF03326191 d1b1078f98fcd3fc98c90b24f9ab95eb;de;;;2.4.;;;Ein einfaches Gauß-Newton-Verfahren zur Kovarianzstrukturanalyse mit höheren Computersprachen Eine speziell für höhere Computersprachen angepasste Implementierung des Gauss-Newton-Algorithmus zur Analyse von Kovarianzstrukturen wird besprochen. Bei diesem Verfahren braucht man nur die strukturelle Form der Populationskovarianzmatrix zu beschreiben und eine Beispielkovarianzmatrix und Anfangswerte für die Parameter bereitzustellen. Die Steigung und der ungefähre Hessian, die von Modell zu Modell variieren, werden numerisch berechnet. Mit diesem Ansatz kann die gesamte Methode in einem vergleichsweise kleinen Programm operationalisiert werden. Es kann eine große Klasse von Modellen geschätzt werden, darunter viele, die funktionale Beziehungen zwischen den Parametern verwenden, die in den meisten verfügbaren Computerprogrammen nicht möglich sind. Einige Beispiele werden bereitgestellt, um zu veranschaulichen, wie der Algorithmus verwendet werden kann.;-;-;-;https://link.springer.com/article/10.1007/BF02294574 2ac56cb32ab78a2f9010711f089739ce;de;;;2.4.;;;Molekulare Techniken zur Untersuchung der Epidemiologie von Meningokokken-Erkrankungen Meningokokken-Erkrankungen sind weltweit nach wie vor eine der Hauptursachen für Morbidität und Mortalität bei Kindern, und es gibt keinen umfassenden Impfstoff gegen den Erreger,;-;-;-;https://link.springer.com/article/10.1385/MB%3A18%3A2%3A119 8001e8c009d56e9783232a5ce32a10b1;de;;;2.4.;;;Hitzeschock im Frühling Am 22. und 24. April 2014 fand an der Université Paris Diderot in Paris, Frankreich, ein gemeinsamer Workshop zur Diskussion von Hitzeschockfaktoren bei Stressreaktion, Entwicklung und Krankheit statt. In den letzten Jahren ist das Interesse an diesen hochkonservierten Transkriptionsfaktoren explodiert, wobei die biologische Rolle von Umweltsensorik über menschliche Entwicklung bis hin zu Krebs reicht.;-;-;-;https://link.springer.com/article/10.1007/s12192-014-0539-y 9d36ccf0748414bff8b041970fb41b74;de;;;5.3.;;;Implementierung eines nachweislich sicheren, Smartcard-basierten Schlüsselverteilungsprotokolls Wir beschreiben die Implementierung des Shoup-Rubin-Schlüsselverteilungsprotokolls. Dieses Protokoll speichert Langzeitschlüssel auf einer Smartcard und nutzt die kryptografischen Fähigkeiten der Karte, um Sitzungsschlüssel sicher zu generieren und zu verteilen. Die Entwickler des Protokolls liefern einen mathematischen Beweis für seine Sicherheit, indem sie Techniken verwenden, die von Bellare und Rogaway entwickelt wurden. Die Kombination dieser theoretischen Stärke mit unserer Implementierung auf manipulationssicherer Hardware führt zu einer praktischen und leistungsstarken Middleware-Funktionalität, die in Anwendungen nützlich ist, die eine starke Authentifizierung und Vertraulichkeit erfordern.;-;-;-;https://link.springer.com/chapter/10.1007/10721064_21 2f4290c4e65c9f4283f913ec23458972;de;;;2.4.;;;Struktur und Evolution der DNA des menschlichen Y-Chromosoms Zwei sich wiederholende Sequenzen machen 70 % der DNA des menschlichen Y-Chromosoms aus. Sie befinden sich im Heterochromatin des langen Arms. Diese Sequenzen sind mit anderen verwandt, die auf menschlichen Schimpansen- und Gorilla-Autosomen und auf dem menschlichen X-Chromosom gefunden werden, haben sich jedoch in charakteristischer Weise von den Nicht-Y-Kopien unterschieden. Sie haben keine nachweisbare phänotypische Wirkung, wenn sie in Autosomen transloziert werden. Wir haben DNA aus dem menschlichen Y-Chromosom mittels fluoreszenzaktivierter Zellsortierung kloniert. Sowohl auf dem X- als auch auf dem Y-Chromosom ist mindestens eine einzelne Kopiensequenz vorhanden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-69150-8_9 608989e8db38d3ed69aafe183b151f69;de;;;2.4.;;;Experimentelle Bewertung der Mikrotexturparameter von Hartmetall-Kugelkopffräsern bei der Bearbeitung von Titanlegierungen Die parametrische Optimierung der Mikrotextur ist wichtig, um die Leistung des Schneidwerkzeugs beim Metallschneiden zu verbessern. In dieser Studie werden die Simulationsmodelle der mikrotexturierten Oberfläche von Hartmetall unter Verwendung der ABAQUS-Plattform erstellt und eine fiktive Spannungsverteilung analysiert, um die optimale Mikrotexturstruktur auszuwählen. Dann wurden viele Reibungstests durchgeführt, um die verschiedenen Mikrotexturen zu vergleichen. Basierend auf den experimentellen Daten wird das parametrische Optimierungsmodell der Mikrotextur auf der Hartmetalloberfläche erstellt und seine aussagekräftige Analyse durchgeführt. Darüber hinaus werden die optimierten Parameter auf den Kugelkopffräser bei der Bearbeitung von Titanlegierungen angewendet. Die Ergebnisse zeigen, dass die Mikrotextur Spannungen absorbieren und den Zustand der Spannungsverteilung auf der Oberfläche verändern kann. Unter den Mikrostruktur-Strukturen ist die Leistung der Mikro-Pit-Struktur am besten, dh die Mikro-Pit-Textur der Oberflächenspannung ist gleichmäßig verteilt und die Mikro-Pit-Textur der Spannungskonzentration ist niedrig, wenn der Durchmesser der Mikro-Pit-Textur beträgt 46,6 µm, seine Tiefe beträgt 27 µm und sein Abstand beträgt 123 µm. Der Kugelkopffräser mit den optimierten Parametern hat eine höhere Verschleißfestigkeit als ein normales Werkzeug.;-;-;-;https://link.springer.com/article/10.1007/s00170-017-0659-5 1e3ff1d4b9d55eef07e7086ea36ccb48;de;;;2.4.;;;Verbesserung der Versorgung HIV-infizierter Gefangener: Ein integriertes Gesundheitsmodell für die Entlassung von Haftanstalten Die hochaktive antiretrovirale Therapie (HAART) hat die HIV-Erkrankung in bemerkenswerter Weise in eine chronische Erkrankung verwandelt, so dass Patienten eine normale Lebenserwartung erwarten können, wenn sie die Virusreplikation vollständig unterdrücken. Leider erhalten viele von denen, die am meisten von HAART profitieren könnten (z. B. illegale Drogenkonsumenten, psychisch Kranke und sozial und medizinisch Ausgegrenzte), diese seltener, und wenn sie dies tun, halten sie sich seltener an die Behandlung. Viele dieser Personen haben keine konsistente Schnittstelle zu Gesundheitseinrichtungen im kommunalen Umfeld, haben jedoch bei einer Inhaftierung eine wichtige Gelegenheit, nicht nur als HIV-infiziert identifiziert zu werden, sondern auch eine HAART zu initiieren, wenn dies medizinisch indiziert ist. Die Prävalenz von HIV-Infektionen unter Häftlingen ist bei Inhaftierten fünf- bis siebenmal höher als in der Allgemeinbevölkerung (Crosland, Poshkus & Rich, 2002, Spaulding et al., 2002). In Gefängnissen und Gefängnissen sind Menschen mit HIV untergebracht, die traditionell keinen Zugang zu HIV-Behandlung und antiretroviraler Therapie in Gemeinschaftseinrichtungen hatten. Insbesondere bestehen Gefängnisse aus HIV-infizierten Personen mit komorbiden Erkrankungen wie Suchterkrankungen und schweren psychiatrischen Erkrankungen und werden durch wiederkehrende Obdachlosigkeit, Armut und instabile Lebensumstände sozial ausgegrenzt. Die HIV-Behandlung hat im New Yorker Gefängnissystem zu einem beeindruckenden Rückgang der Sterblichkeitsrate geführt (CDC, 1999) und HIV/AIDS ist nicht mehr die Hauptursache für gefängnisbedingte Sterblichkeit auf nationaler Ebene (Linder, Enders, Craig, Richardson & Meyers, 2002) . Im nahe gelegenen Connecticut, wo 98% der verschriebenen HAART-Behandlungen innerhalb der Richtlinien des Gesundheitsministeriums lagen, wurden beeindruckende Zunahmen der CD4-Zahl und Abnahmen der HIV-1-RNA-Spiegel beobachtet. Tatsächlich erreichten 59 % dieser Gefangenen eine Viruslast unterhalb der Nachweisgrenze vor der Entlassung. Trotz dieser Erfolge verlor ein Viertel der Personen, die wieder inhaftiert wurden, die Viruslast und den CD4-Vorteil innerhalb von 3 Monaten nach der Entlassung in die Gemeinschaft (Springer et al., 2004).;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-71695-4_30 5781986424c9f40a0d59a67fefbed6a3;de;;;2.4.;;;Knochenscanning bei Metastasen Bei der Suche nach Knochenmetastasen bei den meisten Tumoren gilt heute der Isotopen-Knochenscan als erste Untersuchung der Wahl. Die relative Unempfindlichkeit des Knochenröntgenbildes für den Nachweis von Metastasen ist seit langem bekannt (Borak 1942, Shackman und Harrison 1947).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-1407-9_5 1132ae82cb3719fd9afd9549d2024163;de;;;2.4.;;;„Das Land des Scheiterns der Alten Welt und des Erfolgs der Neuen Welt“: Bereits im August 1941 schrieb Schwartz an Laughlin und verkündete: „Ich glaube, ich bin jetzt der Dichter des Atlantiks, der atlantischen Migration, die Amerika gemacht hat“ (;-;-;-;https://link.springer.com/chapter/10.1057/9781137394385_4 6e034c9c229f117adaab002881172fdb;de;;;2.4.;;;Methodik zur Untersuchung des Stoffwechsels: Zelluläre und molekulare Techniken Das Studium des Stoffwechsels während der letzten Jahrzehnte hat unser Verständnis der Wege des Zwischenstoffwechsels inkrementell verfeinert. Erfolgreiche Strategien umfassten die Messung der Verwertungsraten spezifischer Verbindungen mit isotopenmarkierten Substraten und Zwischenprodukten (Stabilisotopenstudien am Menschen und radioaktive Isotopenstudien an Tieren), Messungen der Konzentrationen von Substraten, Produkten und allosterischen Effektoren mutmaßlicher regulatorischer Enzyme in intakten Systemen , Verwendung spezifischer Enzyminhibitoren und Analysen der kinetischen Eigenschaften der gereinigten Enzyme. (Eine Übersicht über einige dieser Techniken finden Sie in Kapitel 1.) Natürlich ist der Stoffwechsel im Wesentlichen ein zelluläres Phänomen, kleine Moleküle (Zucker, Fettsäuren, Aminosäuren, Nukleotide) sind die Stoffwechselsubstrate oder -produkte, die die Energie liefern, die für zelluläre Funktion und die für die Biosynthese von großen Molekülen notwendigen Komponenten, die strukturelle Bestandteile der Zelle sind (Polysaccharide, Lipide, Proteine, Nukleinsäuren).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-0400-5_2 bdba5694f14e057336fb47e99bc8c235;de;;;2.4.;;;Multi-Labor-Validierungsstudie zum Elastizitätsmodul von Asphaltbeton mit SHRP LG Device Das Lastführungsgerät (LG) des Strategic Highway Research Program (SHRP) wurde als Teil des Long-Term Pavement Performance-Projekts des Strategic Highway Research Program entwickelt. Dieses Gerät wurde vom National Co-operative Highway Research Program (NCHRP) Project 1–28 nach umfangreichen Vergleichen zwischen konventionellen Testgeräten als das vielversprechendste Testgerät empfohlen. Außerdem schlug das NCHRP-Projekt 1–28 ein neues Prüfverfahren für den Elastizitätsmodul von Asphaltbeton unter Verwendung des SHRP LG-Geräts vor. Die Machbarkeit eines neuen Prüfverfahrens mit dem SHRP LG Device sollte jedoch von anderen Prüfstellen nachgewiesen werden, um als standardisierte Methode akzeptiert zu werden. Darüber hinaus sollten die Testergebnisse von den Untersuchern leicht reproduziert werden. Vor diesem Hintergrund wurde der E-Modul-Test von Asphaltbeton von zwei Labors durchgeführt.;-;-;-;https://link.springer.com/article/10.1007/BF02830735 35ba180e4d76ef78f24219632d32566c;de;;;2.4.;;;Untersuchung von Vertrautheitseffekten bei der Musik-Emotions-Erkennung basierend auf dem EEG Vertrautheit ist ein entscheidendes Subjektivitätsproblem bei der Musikwahrnehmung, das in neuronalen Korrelatstudien und der Emotionserkennungsforschung oft übersehen wird. Wir untersuchten die Auswirkungen der Vertrautheit mit der Gehirnaktivität anhand des Elektroenzephalogramms (EEG). In unserer Forschung haben wir uns auf Selbstberichte und kontinuierliche Annotation konzentriert, basierend auf der Hypothese, dass der emotionale Zustand beim Musikerleben subjektiv ist und sich im Laufe der Zeit ändert. Unsere Methodik ermöglichte es den Probanden, 16 MIDI-Songs auszuwählen, die aus 8 bekannten und 8 unbekannten Songs bestanden. Wir fanden Beweise dafür, dass Musikvertrautheit Veränderungen der spektralen Leistungsdichte und der funktionellen Konnektivität des Gehirns induziert. Darüber hinaus deuten die empirischen Ergebnisse darauf hin, dass die Verwendung von Liedern mit geringer Vertrautheit die EEG-basierte Emotionsklassifikationsleistung mit Merkmalsextraktionsalgorithmen der fraktalen Dimension oder der spektralen Leistungsdichte und Support-Vektor-Maschinen, mehrschichtigen Perzeptronen oder C4.5-Klassifikatoren leicht verbessern könnte. Daher wären unbekannte Lieder für den Aufbau eines Emotionserkennungssystems am besten geeignet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23344-4_24 c6c68aadcda8d3ff66191d00212c0def;de;;;5.3.;;;Messbasierte Zugangskontrolle für Nicht-Echtzeit-Dienste in drahtlosen Datennetzen Nicht-Echtzeit-Dienste sind eine wichtige Kategorie von Netzwerkdiensten in zukünftigen drahtlosen Netzwerken. Wenn mobile Benutzer auf Nicht-Echtzeit-Dienste zugreifen, interessieren sich mobile Benutzer normalerweise für zwei wichtige Punkte, zum einen, ob mobile Benutzer nicht während ihrer Lebensdauer zur Kündigung gezwungen werden, und zum anderen, ob die Gesamtzeit für die Datenübertragung der mobilen Benutzer . beträgt innerhalb ihrer Zeittoleranz. Eine niedrige erzwungene Beendigungswahrscheinlichkeit kann durch die Verwendung der Technik der Bandbreitenanpassung erreicht werden, die die Anzahl von Bandbreiten, die einem mobilen Benutzer während der Verbindungszeit des mobilen Benutzers zugeteilt werden, dynamisch anpasst. Es gibt jedoch keine Metrik auf Verbindungsebene, um den Grad der Länge der Gesamtfertigstellungszeit darzustellen. In diesem Artikel beschreiben wir eine Dienstqualitätsmetrik, die als Dehnungsverhältnis bezeichnet wird, um den Grad der Länge der Gesamtfertigstellungszeit darzustellen. Wir entwerfen ein messbasiertes Anrufzulassungskontrollschema, das das Dehnungsverhältnis verwendet, um zu bestimmen, ob ein neuer mobiler Benutzer in eine Zelle aufgenommen werden soll oder nicht. Ausführliche Simulationsergebnisse zeigen, dass das messbasierte Anrufzulassungssteuerungsschema nicht nur die Dienstgüteanforderung mobiler Benutzer (in Bezug auf das Dehnungsverhältnis) erfüllt, sondern auch Funkressourcen in hohem Maße nutzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-8741-7_86 d9239a767e50f5a01516ca267b4a8386;de;;;5.3.;;;Eine nasse Methode der Kohlenstoffextraktion aus Eisenartefakten für Japanische Eisenartefakte enthalten eine kleine Menge Holzkohle, die bei der Herstellung verwendet wurde. Wir haben eine Nassmethode zur Kohlenstoffextraktion aus den Eisenproben für die AMS-Radiokohlenstoffdatierung entwickelt. Das Verfahren besteht in der Auflösung von Eisen mit einem Cu;-;-;-;https://link.springer.com/article/10.1007/BF02349069 99f373430f1f2b2dca61489f12d09319;de;;;5.3.;;;Empfehlung zu Layer-3-Initialisierungsverfahren in heterogenen Mobilfunknetzen der nächsten Generation Die Entwicklung von drahtlosen Diensten in Verbindung mit der weit verbreiteten Verbreitung von WLAN und Multimode-Handsets, die heterogene Funktechnologien kombinieren, führt zu der Möglichkeit eines allgegenwärtigen Dienstzugangs durch das Angebot von vertikalen Übergabetechniken. Dies in Kombination mit dem Multimedia-Echtzeit-Dienstangebot offenbart die Notwendigkeit neuer Layer-3-Initialisierungsverfahren, um die Qualität und Erfahrung des Endbenutzers zu erhalten. Dieses Papier präsentiert eine Bewertung der Netzanschlussverfahren im Hinblick auf die Anforderungen des neuen Szenarios und schlägt Änderungen der Standards vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00205-2_8 a47939f03dcfb6b256af33af725c3ec3;de;;;5.3.;;;Auf dem Weg zur Multi-Editor-Unterstützung für domänenspezifische Sprachen unter Verwendung des Language Server Protocol In modellgetriebenen Softwareentwicklungsprojekten (MDSD) arbeiten häufig Domänenexperten und Entwickler gemeinsam an demselben Modell. Sie haben jedoch ganz unterschiedliche Vorlieben bezüglich der Werkzeuge für die Arbeit mit einem Modell. Während Entwickler eine leistungsstarke integrierte Entwicklungsumgebung (IDE) benötigen, sind Domänenexperten vom Funktionsumfang einer IDE und ihrer verwirrenden Benutzeroberfläche überfordert. Sie bevorzugen einen einfachen Editor, der oft als Webanwendung bereitgestellt wird und keine lokale Installation erfordert. Derzeit einigen sich beide Interessengruppen in der Regel auf ein gemeinsames Instrument, was für mindestens einen von ihnen frustrierend ist. Das Language Server Protocol (LSP) ist ein Standard, der darauf abzielt, Sprachkenntnisse in einfache Editoren zu integrieren, ohne sie in IDEs zu verwandeln. Ursprünglich wurde es für Programmiersprachen entwickelt. In der vorliegenden Arbeit werden wir anhand einer Fallstudie und einer entsprechenden SWOT-Analyse belegen, dass sie für eine textuelle domänenspezifische Sprache (DSL), wie sie häufig in MDSD verwendet wird, noch vorteilhafter ist. Wir konzentrieren uns auf die Sprachworkbench Xtext, die den LSP unterstützt. Insbesondere werden wir untersuchen, wie der LSP genutzt werden kann, um eine DSL in verschiedene Entwicklungswerkzeuge (Editoren und IDEs) zu integrieren. Ergänzend zur SWOT-Analyse haben wir auch die Praxisrelevanz des LSP evaluiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37873-8_10 f8815d5b0284ff80a91a33ec9be706ec;de;;;5.3.;;;Plattformen für Serverless at the Edge: Ein Rückblick Die kontinuierliche Nachfrage nach geringer Latenz, hoher Zuverlässigkeit und kontextsensitiven Inhalten hat die bestehenden Rechenmodelle an ihre Grenzen gebracht. Die Cloud mit ihren unendlichen Ressourcen kann viele der bestehenden Szenarien aufnehmen, aber da neue Szenarien im IoT-Bereich auftauchen, greift die Cloud zu kurz. In diesem Zusammenhang entstand das Edge-Computing-Modell als Erweiterung der Cloud zur Unterstützung von Anwendungen mit geringer Latenz und hoher Leistung, indem ein Teil der Cloud-Ressourcen am Rand des Netzwerks in unmittelbarer Nähe zu den Datenquellen und Anwendungen platziert wurde. Das Ziel von Edge Computing besteht darin, die gleiche Abstraktionsebene in der Cloud bereitzustellen, jedoch in einem lokalen Kontext. Da Edge Computing jedoch viele der Vorteile der Cloud erbt, erbt es auch einige seiner Nachteile. Eine solche Einschränkung ist der Verwaltungsaufwand, der für die Einrichtung und kontinuierliche Konfiguration der Edge-Computing-Anwendungen erforderlich ist. Im Cloud-Bereich wurde dieses Problem mit einem neuen Paradigma namens serverlose Technologie angegangen. Ebenso werden im Edge Computing nur wenige Versuche entwickelt, das Konzept des Serverless Computing an den Edge zu bringen. In diesem Artikel untersuchen wir die wichtigsten Edge-Computing-Plattformen, die Serverless Computing unterstützen, vergleichen ihre Eigenschaften und identifizieren Probleme und Forschungsrichtungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71906-7_3 77f1aec42fd1cc366e64601f13a5c03f;de;;;5.3.;;;Eine Analyse zu den Defekten des Windows UAC-Mechanismus Um die Windows-Sicherheit gründlich zu verstehen und die Fehler des Windows UAC-Mechanismus zu untersuchen, wird zunächst der Ursprung des UAC-Mechanismus vorgestellt und dann seine Implementierungsprinzipien analysiert. Danach werden verschiedene aktuelle UAC-Bypass-Verfahren klassifiziert und verschiedene Typen von UAC-Bypass-Verfahren ausgearbeitet. Basierend auf dem Verständnis der bestehenden Bypassing-Methoden werden die Mängel des aktuellen UAC-Mechanismus eingehend diskutiert und das Verbesserungsschema des UAC-Mechanismus vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-5913-2_17 5130cf16638952a505284e9a4a5ef338;de;;;5.3.;;;Ein analytisches Modell für die dynamische gemeinsame Nutzung von Ressourcen zwischen Betreibern in 4G-Netzwerken Die gemeinsame Nutzung von Echtzeit-Ressourcen zwischen Betreibern ist ein effizienter Ansatz, um den ständig steigenden drahtlosen Datenverkehr zu bewältigen. Es werden einfache und geschlossene Formeln benötigt, die Kooperationsbedingungen mit den Netzleistungskennzahlen in Beziehung setzen, damit die Betreiber Kooperations-/Nichtkooperationsentscheidungen treffen und die Vorteile/Verluste der gemeinsamen Nutzung verfolgen können. Es gibt analytische Lösungen für die gemeinsame Nutzung von Ressourcen zwischen den Zugangsnetzen eines einzelnen Betreibers. Die Tatsache, dass die Betreiber jedoch keine netzwerkinternen Daten teilen, fordert voneinander trennbare Lösungen. In diesem Papier stellen wir eine solche geschlossene Formulierung zur Verfügung, validieren sie mit Simulationen und schlagen einen einfachen Verhandlungsmechanismus zwischen zwei Operatoren vor, die dieses Modell verwenden. Dieses einfache Modell kann erweitert werden, um komplexere Interaktionen zwischen Betreibern oder Interaktionen zwischen mehr als zwei Betreibern zu modellieren, oder kann verwendet werden, um langfristige Kooperationsstrategien zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14171-3_19 de0f85fde01bb2e51fae2d70cfdbe374;de;;;5.3.;;;ZoomTree: Uneingeschränkte Zoompfade in der visuellen Multiskalenanalyse relationaler Datenbanken Uneingeschränkte Zoompfade sind sehr erwünscht, um bei der visuellen Analyse relationaler Datenbanken tiefe Erkenntnisse zu gewinnen. Wir präsentieren ein Multiskalen-Visualisierungssystem, das uneingeschränkte Zoompfade unterstützt. Unser System verfügt auf Client-Seite über eine flexible visuelle Schnittstelle namens „ZoomTree“ und ein leistungsstarkes und effizientes Backend mit GPU-basiertem parallelem Online-Datencubing und CPU-basiertem Datenclustering. Zoom-Bäume sind nahtlos in eine tabellenbasierte Übersicht integriert, indem in die Tabelle eingebettete „Hyperlinks“ verwendet werden, und sollen den gesamten Verlauf eines Zoomprozesses darstellen, der mehrskalige Datenmerkmale aufdeckt. Beliebiges Verzweigen und Backtracking in einem Zoom-Baum werden durch unseren schnellen parallelen Online-Cubing-Algorithmus für teilweise materialisierte Datenwürfel ermöglicht. Die teilweise Materialisierung bietet einen guten Kompromiss zwischen Vorverarbeitungszeit, Speicherung und Online-Abfragezeit. Experimente und eine Anwenderstudie haben die Wirksamkeit unseres Designs bestätigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25382-9_21 c70c050d96c7fb04fe44b040bedfb29f;de;;;2.4.;;;Gravitationsanomalie polyedrischer Körper mit polynomialem Dichtekontrast Wir bewerten analytisch die Schwerkraftanomalie, die mit einem polyedrischen Körper mit einer willkürlichen geometrischen Form und einem polynomialen Dichtekontrast sowohl in horizontaler als auch in vertikaler Richtung verbunden ist. Die Gravitationsanomalie wird an einem beliebigen Punkt ausgewertet, der nicht unbedingt mit dem Ursprung des Referenzsystems übereinstimmt, in dem die Dichtefunktion zugewiesen ist. Es wird angenommen, dass der Dichtekontrast maximal ein Polynom dritter Ordnung ist, aber der allgemeine Ansatz, der in der Arbeit verwendet wird, kann leicht auf Polynomfunktionen höherer Ordnung erweitert werden. Unter Berufung auf neuere Ergebnisse der Potentialtheorie wird gezeigt, dass die in der Arbeit abgeleitete Lösung singularitätsfrei ist und als Summe algebraischer Größen ausgedrückt wird, die nur von den 3D-Koordinaten der Polyedereckpunkte und der polynomialen Dichtefunktion abhängen. Die Genauigkeit, Robustheit und Effektivität des vorgeschlagenen Ansatzes werden durch numerische Vergleiche mit Beispielen aus der vorhandenen Literatur veranschaulicht.;-;-;-;https://link.springer.com/article/10.1007/s10712-017-9411-9 639bedb6a61942f17399831c07d29455;de;;;5.3.;;;Eine effektive Lösungsmethode für chinesische Wörter mit mehreren Kategorien mit bedingtem Zufallsfeld im elektronischen Handel Die meisten existierenden Erkennungsverfahren von Wörtern aus mehreren Kategorien konzentrieren sich lediglich auf den Bereich der traditionellen chinesischen Wörter und nicht auf den Bereich des elektronischen Handels. In diesem Artikel schlagen wir eine effektive Methode vor, um chinesische Wörter mit mehreren Kategorien im elektronischen Geschäftsverkehr mithilfe von Conditional Random Field zu erkennen. Experimentelle Ergebnisse zeigen, dass unsere Methode die Erkennungsgenauigkeit erheblich verbessert, Missverständnisse reduziert und die Benutzererfahrung beim Abrufen des elektronischen Handels verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-26535-3_64 6858a56ade3f0b4cb71855929d52f39c;de;;;5.3.;;;Rehabilitationssystem durch Interesseinduktion mit VR und MR Diese Studie soll VR- und MR-Technologie einsetzen, um den Benutzern auf intelligente Weise dabei zu helfen, körperliche und psychologische Rehabilitationstrainings zu absolvieren. Das System kann einen Erholungstrainingsplan basierend auf der Erholung bis zur Position der Störung eingeben, und der Zweck besteht darin, ein Rehabilitationssystem aufzubauen, das ohne Vorgesetzten Freude fördert. Zu diesem Zweck werden wir ein experimentelles VR-Spiel erstellen, das die Bewegung des Benutzers lenken, gesunde Universitätsstudenten als Gesundheitsmuster aufnehmen, Beispielbilder sammeln und ein Referenzmodell der Gesundheit erstellen kann. Dann wird jede Kategorie von interessanten VR-Spielen einschließlich Animationsfiguren produziert. Der psychologische Rehabilitationszug kann spezielle Szenen bieten, um den Benutzer mit visueller Wirkung zu beeinflussen. Schließlich werden Feldversuche durchgeführt, um die Funktion und Benutzererfahrung des Rehabilitationssystems durch Interesseinduktion zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1301-5_42 e05979cde3b880989625a602acb8a9c5;de;;;5.3.;;;Echte moralische Probleme bei der Nutzung von Virtual Reality In diesem Beitrag argumentieren wir, dass die Gestaltung und Anwendung bestimmter Arten von Virtual Reality (VR)-Erfahrungen unter bestimmten Umständen unethisch sein kann. Nach einer allgemeinen Diskussion von Simulationen und ihrem ethischen Kontext beginnen wir unsere Argumentation mit der Unterscheidung zwischen den Erfahrungen, die durch verschiedene Medien (Text, Film, Computerspielsimulation und VR-Simulation) erzeugt werden, und argumentieren, dass VR-Erfahrungen ein beispielloses Maß an dem bieten, was wir nennen wir „perspektivische Treue“, die früheren Simulationsmodi fehlt. Darüber hinaus argumentieren wir, dass VR-Erlebnisse, wenn VR-Erlebnisse diese perspektivische Treue mit dem, was wir „Kontextrealismus“ nennen, verbinden, die Fähigkeit haben, „virtuell reale Erfahrungen“ zu produzieren. Wir behaupten, dass praktisch reale Erfahrungen ethische Probleme für VR-Technologien erzeugen, die für das Medium einzigartig sind. Da die Subjekte dieser Erfahrungen sie so behandeln, als wären sie real, sollte jedem VR-Szenario mit dem Potenzial, virtuell reale Erfahrungen zu generieren, ein höheres Maß an ethischer Prüfung unterzogen werden. Um dieses einzigartige moralische Risiko zu mindern, schlagen und verteidigen wir das, was wir das „Äquivalenzprinzip“ nennen. Dieses Prinzip besagt: „Wenn es falsch wäre, Subjekten eine bestimmte Erfahrung in der Realität zu ermöglichen, dann wäre es falsch, Subjekten diese Erfahrung in einer praktisch realen Umgebung zu ermöglichen“. Wir argumentieren, dass ein solches Prinzip, wenn auch in begrenztem Umfang, Teil der Risikoanalyse sein sollte, die von institutionellen Überprüfungsgremien, Psychologen, empirisch orientierten Philosophen oder Spieledesignern durchgeführt wird, die VR-Technologie in ihrer Arbeit verwenden.;-;-;-;https://link.springer.com/article/10.1007/s10676-018-9473-5 e1d974e1a7b428328dccd337b1111852;de;;;2.4.;;;Der Einfluss des Inter-Click-Intervalls auf die Lokalisierung von bewegten Schallquellen für Navigationssysteme In diesem Beitrag wird eine Analyse der Lokalisierung von bewegten Schallquellen über Kopfhörer vorgestellt. Auch der Einfluss des Inter-Click-Intervalls auf diese Lokalisation wird untersucht. Der Experimentalschall ist ein kurzer Deltaschall von 5 ms, erzeugt für die horizontale Frontalebene, für Distanzen von 0,5 m bis 5 m und Azimut von 32° nach links und rechts bezüglich der Mittellinie des Hörerkopfes gefaltet einzelne HRTFs. Die Ergebnisse zeigen, dass die beste genaue Lokalisierung für die ICI von 150 ms erreicht wurde. Ein Vergleich der Lokalisierungsgenauigkeit in Entfernung und Azimut ergibt, dass die besten Ergebnisse für Azimut erzielt wurden. Die Ergebnisse zeigen, dass die Hörer in der Lage sind, den Abstand und die Richtung des sich bewegenden Schalls für größere Zwischenklickintervalle genau zu extrahieren.;-;-;-;https://link.springer.com/article/10.1134/S1063771010030139 30d63b5eba7fe224b853c8412902b809;de;;;5.3.;;;Gemeinsame Benutzerassoziation und Zeitaufteilung für den Lastausgleich in ultradichten heterogenen Netzwerken Ultradichte heterogene Netzwerke (UDHNs) werden weithin als vielversprechende Lösung angesehen, um die Wiederverwendungseffizienz von Ortsfrequenzen und damit die Gesamtleistung des Netzwerks zu verbessern. In solchen Netzwerken sollte ein Lastausgleichsproblem, das durch koexistierende Makrozellen und kleine Zellen verursacht wird, ernsthaft behandelt werden, was bedeutet, dass einige effektive Benutzerzuordnungen für den Lastausgleich wesentlich sind. Zu diesem Zweck entwerfen wir zwei Arten von Offloading-Schemata (Load-Balancing) für UDHNs, um den logarithmischen Nutzen langfristiger Raten zu maximieren. Um den Lastausgleichsgewinn zu garantieren, wird ein Frequenzaufteilungsschema entworfen, um die ebenenübergreifende Interferenz zu verschlechtern, und es wird eine Zeitaufteilungsstrategie entwickelt, um die starke Interferenz zu beseitigen, die von einigen von Makrozellen abgeladenen Benutzern empfangen wird. Bei diesen Auslagerungsschemata besteht der Hauptunterschied zwischen ihnen darin, ob ein Zeitaufteilungsfaktor optimiert werden muss. Was die in diesen Schemata formulierten Probleme betrifft, entwerfen wir einen verteilten Algorithmus unter Verwendung der dualen Zerlegung und entwickeln einen zentralisierten Algorithmus mit einer zweischichtigen Iteration. Anschließend geben wir einige detaillierte Konvergenz- und Komplexitätsanalysen für sie. Numerische Ergebnisse zeigen, dass die vorgeschlagenen Schemata einige signifikante Leistungssteigerungen im Vergleich zu einigen herkömmlichen liefern, und der zentralisierte Algorithmus erreicht oft eine bessere Assoziationsleistung als ein verteilter, da ersterer fast immer versucht, einen Zeitaufteilungsfaktor zu optimieren.;-;-;-;https://link.springer.com/article/10.1007/s11036-019-01351-2 9ae00b123deb4edf6b570e512602e56c;de;;;5.3.;;;Eine groß angelegte Community-Fragen Klassifizierung zur Berücksichtigung von Kategorieähnlichkeit: Eine explorative Studie Das Papier berichtet über eine groß angelegte thematische Kategorisierung von Fragen eines russischen Community-Frage-Antwort-Dienstes (CQA) Otvety@Mail.Ru. Wir haben einen Datensatz verwendet, der alle Fragen (mehr als 11 Millionen) enthält, die von Otvety@Mail.Ru-Benutzern im Jahr 2012 gestellt wurden. Dies ist die erste Studie zur Fragekategorisierung, die sich mit nicht-englischen Daten dieser Größe befasst. Die Studie konzentriert sich auf die Anpassung der Kategoriestruktur, um robustere Klassifizierungsergebnisse zu erhalten. Wir untersuchen verschiedene Ansätze, um Ähnlichkeiten zwischen Kategorien zu messen: den Anteil identischer Fragen, Sprachmodelle und Benutzeraktivität. Die Ergebnisse zeigen, dass der vorgeschlagene Ansatz vielversprechend ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25485-2_13 5824203031009704860f93efed48a876;de;;;5.3.;;;Natürliche und flüssige 3D-Operationen mit mehreren Eingabekanälen eines Digitalstifts Wir schlagen sechs 3D-Operationsmuster mit mehreren Eingabekanälen eines digitalen Stifts vor: Diese Muster ermöglichen es Benutzern, bereits vorhandenes Wissen über physische Stifte auf digitale Stifte zu übertragen, um 3D-Operationen einfach, natürlich, intuitiv und flüssig durchzuführen. Unter den Mustern wurde ein Prototypsystem entworfen und implementiert. Eine informelle Benutzerstudie zeigte, dass acht Anfänger innerhalb weniger Minuten die 3D-Operationen mit dem Prototypensystem verstanden und mehr Spaß hatten als mit den typischen Schnittstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-95957-3_61 4fafd1d1977b95dd621203f81e5c7e0b;de;;;5.3.;;;On-the-Fly-Geräteanpassung mit progressiven Inhalten In dieser Veröffentlichung schlagen wir einen Ansatz zur Geräteanpassung vor, der auf progressiven Inhalten basiert. Solche Darstellungen sind von Natur aus skalierbar, werden einmal erstellt und für verschiedene Gerätearten mehrfach verwendet. Eine rechnerisch kostengünstige On-the-Fly-Anpassung wird durch eine vorausschauende progressive Datenverfeinerung mit vollständig clientbasierter Ressourcenbewertung und Schätzung erreicht, die kontinuierlich vorhersagt, ob bereitgestellte Systemressourcen überschritten werden. Unser Ansatz berücksichtigt den Ressourcenverbrauch an Bildschirmfläche, Rechenleistung und bei der Übertragung der benötigten Daten. Aufgrund seiner flexiblen und unkomplizierten Art ist es im Vergleich zu verwandten Ansätzen eine viel allgemeinere Lösung für das Problem der Inhalts- und Geräteanpassung. Dies wird durch empirische Ergebnisse aus ersten Experimenten und einem typischen Anwendungsfall unterstrichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10263-9_5 86e761718eb111028ca08d4af6377808;de;;;5.3.;;;Modellierung von Push-basiertem Live-P2P-Streaming durch Stochastic Activity Networks Live-P2P-Streaming wurde in den letzten Jahren aufgrund seiner Skalierbarkeit und geringen Kosten häufig verwendet. Gleichzeitig begegnet es einigen neuen Herausforderungen, mit denen zentralisierte Systeme nie konfrontiert waren, zum Beispiel Churn und Content-Verschmutzung. Es ist das erste Papier, das stochastische Aktivitätsnetzwerke (SANs) verwendet, um Push-basierte Live-P2P-Streaming-Systeme aus Benutzersicht zu modellieren und zu analysieren. Das Modell bietet eine neue Denkweise zur Modellierung von Push-basiertem Live-P2P-Streaming, das es ermöglicht, die Auswirkungen von Churn, Verschmutzung und Puffergröße gleichzeitig zu untersuchen. Es erklärt, warum es eine Lücke zwischen den theoretischen Ergebnissen früherer Studien zur Inhaltsverschmutzung beim P2P-Streaming und dem beobachteten Effekt gibt. Es weist auch auf den Schwellenwert der Puffergröße für eine nicht signifikante QoS-Verbesserung hin.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30567-2_2 a4d019606eb0a8d842bde9f7521e9b08;de;;;5.3.;;;Anwendungsstreaming: Eine Methode zur Verteilung von mobilen Anwendungen Das traditionelle App Store-basierte Anwendungsverteilungsmodell steht vor einigen Herausforderungen, wie z. Wir schlagen eine auf Anwendungsstreaming basierende Methode zur Verteilung mobiler Anwendungen vor, um diesen Herausforderungen zu begegnen. Bei unserer Methode wird die Anwendung auf dem Server installiert, aktualisiert und deinstalliert. Der Benutzer wählt einfach die auszuführende Anwendung aus und sie wird auf Streaming-Weise ausgeführt. Diese Methode ermöglicht die Verwaltbarkeit für die Verteilung mobiler Anwendungen und eine personalisiertere Erfahrung mit mobilen Anwendungen. Darüber hinaus kann diese Methode dazu beitragen, die Beschränkung der Speicherkapazität von Mobilgeräten und die häufigen Anwendungsaktualisierungen zu lösen. Wir verwenden auch einen lokalen Cache-Mechanismus, um Netzwerkverkehr zu sparen und die Ladezeit von Anwendungen zu verbessern. Die Auswertung zeigt, dass der Cache-Mechanismus 84,9 % des Datenverkehrs im Vergleich zum Streaming ohne Cache und 43,9 % des Datenverkehrs als die App Store-basierte Anwendungsverteilungsmethode einsparen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27119-4_21 bbde8045fcc77995e5d446768ab5a41a;de;;;5.3.;;;Auf dem Weg zu einem computergestützten Ansatz der Kreativitätsbewertung im Produktdesign Eines der wichtigsten Kriterien für die Leistungsqualität im Design ist die Kreativität des Designs. Viele Forscher haben Methoden entwickelt, um die Kreativität von Produktdesigns zu bewerten, aber die subjektiven und qualitativen Urteile der traditionellen Kreativitätsmessung haben sich als nicht ausreichend valide und verlässlich erwiesen. Darüber hinaus basiert die Bewertung der Kreativität im Design größtenteils auf dem Designergebnis und nicht auf dem Designprozess. In diesem Papier haben wir einen computergestützten Ansatz zur Kreativitätsbewertung im Produktdesign vorgeschlagen, der den Designprozess und die Designkreativität kombiniert. Wir haben eine Methode zur Quantifizierung des Designprozesses entwickelt. Und die Kreativität des Designs wird mit der Consensual Assessment Technique bewertet. Anschließend wird die Korrelation aller kreativitätsrelevanten Faktoren im Designprozess und der Designkreativität berechnet. Schließlich wird eine Kreativitätsbewertungsformel basierend auf den Faktoren und dem Korrelationskoeffizienten vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38974-0_5 d544e5ac884baf3331f55f2d99b7d4e4;de;;;5.3.;;;Evaluationsmodell der PRO2PI-WORK4E Methode zur Lehre von Softwareprozessverbesserung Methoden zur Einführung in Software Process Improvement (SPI)-Kurse zur Potenzierung von „Learning SPI by doing SPI“ und deren systematische Evaluation sind sowohl für Praxis als auch für Forschung relevant. Ein Evaluationsmodell für eine Lehrmethode zur Vermittlung von SPI wurde entwickelt. Dieses Modell basiert auf einem Modell zur Evaluation von Lernspielen. Das entwickelte Modell besteht aus Modellentwurf, Bewertungsprozess, Zielsetzung und Fragebogen, Dokumentationsmodell, Datensammlungs- und Analysemodell und Tabellenkalkulation sowie Anwendungsbeispiel. Das Modell wurde verwendet, um einen Kurs zu evaluieren. Die Ergebnisse dieser Evaluierung liefern eine erste Validierung dieses Modells und zeigen auch, dass die evaluierte Methode das „Lernen von SPI durch SPI“ wirksam macht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67383-7_37 9fbea4b7223bd8d1dd2202a6f3b67a2b;de;;;5.3.;;;Reaktion von Arylthiacyclanylsulfoniumsalzen mit Stickstoffbasen Wenn Arylthiacyclanylsulfoniumsalze mit Stickstoffbasen erhitzt werden, wird die C-S-Bindung des Heterorings quantitativ gespalten und die Base addiert, um eine C-N-Bindung zu bilden. Diese Sulfoniumsalze reagieren mit Ammoniak oder Pyridin zu Ammoniumalkylsulfiden, Aminosulfide und sekundäre Aminsalze werden mit überschüssigen sekundären Aminen erhalten. Die beschriebene Reaktion ist eine neue präparative Methode zur Synthese von Aminosulfiden und Ammoniumalkylarylsulfiden.;-;-;-;https://link.springer.com/article/10.1007/BF00959955 3620a8a24c0da73a198ba74e5d74d58d;de;;;5.3.;;;Die Proteine ​​des Chromatins. I. Histone Alle mit Chromatin assoziierten Proteine ​​können in zwei Kategorien eingeteilt werden: Histone und Nicht-Histon-Chromosomenproteine. Die Unterscheidung ist keineswegs willkürlich, denn die Histone repräsentieren eine gut charakterisierte Gruppe von Proteinen mit ganz einzigartigen Zusammensetzungen, Sequenzmerkmalen und Funktionen. Ihre relativen Mengen und Stöchiometrie in Bezug auf DNA sind im gesamten eukaryotischen Reich nahezu konstant. Die chromosomalen Nichthiston-Proteine ​​(im Folgenden NHCPs) könnten operativ als alle anderen mit Chromatin isolierten Proteine ​​definiert werden. Die Definition hier ist weit weniger präzise, ​​da verschiedene Methoden zur Freisetzung von Chromatin aus dem Kern sicherlich unterschiedliche Untergruppen der gesamten Kernproteine ​​ergeben werden (siehe Comings, 1978 für einen ausgezeichneten Überblick und Kapitel 5 für weitere Diskussionen). Die restlichen Proteine ​​des eukaryontischen Kerns könnten definiert werden als;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-3490-6_4 2665d0be1c78344438691c65a70436ac;de;;;5.3.;;;Jüngste Entwicklungen bei der Synthese mariner Indolalkaloide Die Manzamin-Alkaloide wie Manzamin A, B und C gehören zu einer einzigartigen Familie zyktotoxischer 13-Carbline-gebundener Azacyclen, die aus mehreren Meeresschwämmen isoliert wurden. Es wurde kürzlich gezeigt, dass Manzamin A eine in vivo-Antimalariaaktivität gegen Parasiten aufweist;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-0135-0_70 80bcf9811b77be217570ee7625d73146;de;;;5.3.;;;Röntgen- und Neutronenstreuung durch wässrige Lösungen von Elektrolyten Die Zusammensetzung wässriger Lösungen* kann man sich entweder als (a) Salz und Wasser oder (b) Anionen, Kationen und Wasser oder (c) Anionen, Kationen, Sauerstoffatome und Wasserstoffatome vorstellen. Somit kann man sich wässrige Lösungen je nach den Umständen entweder als Zweikomponenten-, Dreikomponenten- oder Vierkomponentenflüssigkeiten vorstellen. Die makroskopische physikalische Chemie (z. B. Löslichkeitsmessungen) verwendet die in (a) implizite Beschreibung, während in der mikroskopischen Debye-Hückel-Theorie in ihrer primitiven Form die Lösung als Dreikomponentensystem betrachtet wird. Betrachtet man jedoch die Streuung von Strahlung, so müssen Lösungen im Sinne der Beschreibung (c) gedacht werden. Jede „Entität“ streut einfallende Strahlung auf charakteristische Weise. Bei der Neutronenstreuung zum Beispiel ist der primäre Streumechanismus die Wechselwirkung von Neutronen mit jedem der;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-8018-4_1 236cf2b1a2fad45b7cf5aaffe35aca00;de;;;5.3.;;;Synthetische Aspekte photochemischer Elektronentransferreaktionen Die Hauptanwendungen organischer photochemischer Prozesse bei Syntheseproblemen konzentrierten sich bisher hauptsächlich auf die Verwendung von Photocycloadditionen und Elektrocyclisierungen zur Herstellung gespannter Ringverbindungen in Zielsystemen oder synthetischen Schlüsselzwischenprodukten. Der Nutzen dieser Methoden in ausgewählten präparativen Sequenzen zur Konstruktion natürlicher und/oder theoretisch interessanter Produkte wurde überprüft.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2681-6_3 0ad7607498365d7818972338c9621d7a;de;;;5.3.;;;Enzymmodelle sind im Allgemeinen organische synthetische Moleküle, die ein oder mehrere Merkmale enthalten, die in enzymatischen Systemen vorhanden sind. Sie sind kleiner und strukturell einfacher als Enzyme. Folglich versucht ein Enzymmodell, einige Schlüsselparameter der Enzymfunktion auf einer viel einfacheren Ebene nachzuahmen. Einen bestimmten Faktor herauszufiltern, der für die katalytische Effizienz des Enzyms innerhalb des biologischen Systems verantwortlich ist, wäre eine gewaltige Aufgabe, die die Kenntnis jeder der Komponenten erfordert, die zur Gesamtkatalyse beitragen. Stattdessen ist es mit geeigneten Modellen möglich, die relative Bedeutung jedes katalytischen Parameters ohne die nicht berücksichtigten Parameter abzuschätzen. Ein bemerkenswerter Vorteil der Verwendung von „künstlichen Strukturen“ zur Modellierung enzymatischer Reaktionen besteht darin, dass die Verbindungen genau für die Untersuchung einer bestimmten Eigenschaft manipuliert werden können. Der Stand der Technik kann weiter verfeinert werden, indem diejenigen Merkmale kombiniert werden, die am meisten beitragen, und Modelle entworfen werden, die sich tatsächlich der Effizienz des Enzyms nähern. Das heißt, mit den Mitteln der Synthesechemie wird es möglich, ein „Miniaturenzym“ zu konstruieren, dem ein makromolekulares Peptidrückgrat fehlt, das jedoch reaktive chemische Gruppen enthält, die in der Geometrie, die durch ein aktives Zentrum des Enzyms vorgegeben wird, korrekt ausgerichtet sind. Es wird oft als bezeichnet;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-0095-3_5 ab6aaa1a37969d21273cd55566107cbe;de;;;5.3.;;;Der Einfluss des Lösungsmittels auf die organische Reaktivität Es kann keine allgemeine Theorie der organischen Reaktivität ohne Berücksichtigung von Lösungsmitteleffekten geben. Die Auswirkungen von Lösungsmitteln auf Geschwindigkeits- und Gleichgewichtskonstanten und beispielsweise auf spektrale Eigenschaften sind nicht geringer als strukturelle Effekte. Es besteht allgemein Einigkeit darüber, dass das Problem der Lösungsmittel-Lösungsmittel-Wechselwirkung nicht weniger kompliziert ist als das der Struktureffekte. Daher können in diesem Kapitel nicht alle Ansätze auf diesem Gebiet, die sich in der entsprechend umfangreichen Literatur widerspiegeln, auch nur kurz zusammengefasst werden. Daher haben wir uns auf bestimmte Aspekte des Problems der Lösungsmitteleffekte beschränkt,;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-8660-9_5 3cdf8b33a1043b364755579588dbad44;de;;;5.3.;;;Sicheres Peer-to-Peer-3D-Streaming In den letzten Jahren sind interaktive virtuelle Umgebungen wie Second Life und Anwendungen für virtuelle Globen wie Google Earth sehr beliebt geworden. Die Bereitstellung riesiger Mengen interaktiver Inhalte für Millionen potenzieller Benutzer stellt jedoch die Anbieter von Inhalten vor enorme Herausforderungen. Daher wurden verteilte Peer-to-Peer (P2P)-Ansätze vorgeschlagen, um die Skalierbarkeit des Systems auf erschwingliche Weise zu erhöhen. Der Aufbau von Content-Delivery-Systemen auf der Grundlage von P2P-Ansätzen erzeugt jedoch Sicherheitsbedenken für kommerzielle Anbieter. Dieses Papier stellt ein generisches Systemmodell für abonnementbasierte Diensteanbieter vor, um P2P-basiertes, nichtlineares Streaming für interaktive Inhalte zu übernehmen. Wir schlagen auch Lösungen zum Thema Inhaltsauthentifizierung vor, damit zahlende Kunden sich der Authentizität der von anderen Benutzern abgerufenen Inhalte sicher sein können. Andere praktische Sicherheitsaspekte in einem erweiterten Systemmodell werden ebenfalls identifiziert, um weitere Untersuchungen in diesem Problemraum zu ermöglichen.;-;-;-;https://link.springer.com/article/10.1007/s11042-009-0294-8 bb2bb20c6709ed082b506344b602ce99;de;;;2.4.;;;Wachstumsdynamik Die vorangegangenen Kapitel haben gezeigt, dass die Kohlenstoff-Assimilationsraten der Blätter bei alpinen Pflanzen relativ hoch sind. Strukturelle Investitionen bevorzugen Wurzeln statt Stängel, aber der in Blätter investierte Biomasseanteil ist der gleiche wie bei vergleichbaren Morphotypen in geringer Höhe. Die interspezifische Variation dieser Merkmale ist jedoch weitaus größer als der mittlere Höhenunterschied für Gemeinschaften. Nicht-strukturelle Kohlenstoffverbindungen (Kohlenhydrate, Lipide) in Geweben sind so reichlich vorhanden – und werden oft noch nicht einmal im Alter zurückgewonnen –, dass eine Kohlenstofflimitierung eine unwahrscheinliche Erklärung für das langsame Wachstum (wie noch gezeigt wird) und die kleine;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-98018-3_13 687c13a90a5fe46d4b9df01304e794d1;de;;;5.3.;;;Physikalische Chemie der Grenzflächen Wenn Reaktionen in heterogenen Systemen (wie Flotationspulpen) auftreten, finden sie überwiegend an einer der Grenzflächen fest/flüssig, flüssig/flüssig oder flüssig/gas statt. Einige Reaktionen können innerhalb der flüssigen Phase zwischen den gelösten Spezies auftreten, aber solche homogenen Reaktionen sind nicht die vorherrschenden in Flotationssystemen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-4302-9_4 c4195a848a41ee466b5e5333f8264390;de;;;2.4.;;;Direkte Beobachtung der Einfangbewegung in länglichen Fourier-Transform-Massenspektrometrie-Einfangionenzellen Messungen mit Fourier-Transform-Massenspektrometrie (FTMS) wurden verwendet, um Einfangoszillationsprofile in länglichen gefangenen Ionenzellen mit einer Länge von 10–43 cm zu messen. Aus diesen Profilen extrahierte Einfangperioden variieren bei länglichen Zellen linear mit der Zelllänge. Dies steht im Gegensatz zu der Vorhersage basierend auf einer quadrupolaren Näherung des elektrischen Felds, dass die Einfangperiode mit zunehmender Zelllänge exponentiell zunehmen sollte. Ein alternativer analytischer Ausdruck für die Einfangbewegung wird abgeleitet, der die Bewegung von Ionen mit ausreichender Energie, um sich den Fallenplatten zu nähern, besser berücksichtigt. Die berechneten Einfangfrequenzen liegen innerhalb weniger Prozent der Werte, die aus Ionenflugbahnsimulationen für jede Kombination von Zellenlänge, Einfangpotential, Ionenmasse und kinetischer Energie der Ionen bestimmt wurden. Der neue Ausdruck erklärt auch die experimentell ermittelten Fangdaten, die in länglichen Zellen erhalten wurden. Dieser Ausdruck sagt eine durchschnittliche axiale Energie nahe 0,6 eV für die Ionen voraus, die vorzugsweise durch FTMS mit der verwendeten spezifischen Pulssequenz detektiert werden. Institut für Chemie,;-;-;-;https://link.springer.com/article/10.1016/1044-0305%2890%2985014-D 6a18a6ebe1f6bd626c5ccd329d17b9d7;de;;;5.3.;;;HPLC-Analyse des humanen epidermalen Wachstumsfaktors unter Verwendung einer Immunaffinitätsvorsäule I. Optimierung der Immunaffinitätssäule Die Herstellung von trägergekoppelten Antikörpern für die Hochleistungs-Immunoaffinitätschromatographie wurde demonstriert. Diolkieselsäure wies von allen untersuchten Trägern die geringste unspezifische Adsorption auf. Die optimalen Aktivierungsbedingungen für Diol-Siliciumdioxid mit 1,1'-Carbonyl-diimidazol und die optimalen Kopplungsbedingungen für Anti-Human-Epidermal-Wachstumsfaktor-Antikörper als Funktion von Salzkonzentration, pH und Ligandenkonzentration wurden ausgewählt. Die Porengröße des Diol-Siliciumdioxids war ein wichtiger Faktor, um gute Ergebnisse zu erzielen. Diolkieselsäure mit einer Porengröße von 500 Å hatte eine hohe Beladungskapazität gegenüber dem Antigen. Die Verwendung von F(ab;-;-;-;https://link.springer.com/article/10.1007/BF02258980 2e2942ed36d4836de724a576873248a1;de;;;5.3.;;;Experimentelle Versauerung des Little Rock Lake, Wisconsin Die kontrollierte Versauerung eines Sees mit zwei Becken wird beschrieben. 1984 wurde der See durch einen Vinylvorhang geteilt, 1985 begann die Versauerung eines Beckens. Ziel-pH-Werte von 5,5, 5,0 und 4,5 sind für 2 Jahre geplant. Biotische und chemische Reaktionen und die Erzeugung interner Alkalinität werden untersucht. Baseline-Studien, erste Ergebnisse bei pH 5,5 und Vorhersagen der Reaktionen von Seen auf Versauerung werden beschrieben.;-;-;-;https://link.springer.com/article/10.1007/BF00630825 33179284adc8dccf158d6b4810f6f80a;de;;;5.3.;;;Organische Synthese durch Quench-Reaktionen Zur Untersuchung der chemischen Evolution wurden die Auswirkungen chemischer Quench-Reaktionen auf die Bildung organischer Verbindungen an einer Wasseroberfläche unter simulierten Urerdbedingungen untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-2282-8_11 496c94fe69e390e513f31e5adf17417c;de;;;5.3.;;;Anorganische Chemie des Eisens Da wir in jeder Hinsicht von Eisen leben (siehe Kapitel 1), sind seine physikalischen und chemischen Eigenschaften nur wichtig. Nicht weniger wichtig ist jedoch die Chemie seiner Verbindungen (;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-2140-8_3 66494dca4c2ab45fb613043e45d3ace9;de;;;5.3.;;;Biologische Marker bei lymphoproliferativen Erkrankungen Lymphoproliferative Störungen umfassen im weitesten Sinne alle Neoplasien lymphoider Zellen, von unreifen Lymphoblasten bis zu reifen aussehenden Lymphozyten, selbst wenn sie sich in Immunglobulin (Ig) sezernierende Zellen oder Plasmazellen verwandeln. In der klinischen Praxis bezieht sich dieses Konzept jedoch hauptsächlich auf chronische lymphoproliferative Erkrankungen und diese umfassen mehrere B- und T-Zell-Leukämien, einige Non-Hodgkin-Lymphome (NHL) mit Knochenmark- und Blutbeteiligung, wie z. B. follikuläres Lymphom (zentroblastisch/zentrozytisch) und Fälle, die lymphoplasmazytäre Differenzierung zeigen, einschließlich Waldenström-Makroglobulinämie. Das Multiple Myelom kann aufgrund seiner ausgeprägten klinischen Manifestationen und der leicht identifizierbaren Natur seiner proliferierenden Zellen aus dieser Gruppe ausgeschlossen werden. Die akute lymphatische Leukämie (ALL) mit ihren einzigartigen klinischen, biologischen und epidemiologischen Merkmalen kann ebenfalls als separate Gruppe betrachtet werden. Diese Krankheit ist eine Neoplasie, die von lymphoiden Vorläufern herrührt und am besten mit anderen Formen der akuten Leukämie untersucht wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2581-9_3 065fb5523e2cbed5b5b89d1638c6d50b;de;;;5.3.;;;Raman- und Infrarot-Studie von Acetylcholin und postsynaptischen Membranen Raman- und Infrarot(IR)-Spektroskopie liefern weitgehend komplementäre Informationen über die Struktur und Wechselwirkung organischer und biologischer Moleküle [1–6].;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-1173-4_11 7c4cfafbda2294490a1f61c3668cae2f;de;;;5.3.;;;Blockade der chemosensorischen Hemmung des Glomus caroticum Ein hoher Dopamingehalt im Glomus caroticum (21), der fluoreszenzmikroskopisch in Glomus-Typ-I-Zellen lokalisiert ist (9). Intrastream-Injektionen von Dopamin führten zu einer vorübergehenden Senkung der Häufigkeit von chemosensorischen Entladungen in in vitro superfundierten Halsschlagadern von Katzen (19). Dieser Effekt wurde auf eine direkte Hemmung zurückgeführt, da bei diesem Präparat keine vasomotorischen Veränderungen induziert werden konnten. Darüber hinaus scheint die Wirkung spezifisch für dieses Chemorezeptororgan zu sein, da Dopamin auf Carotis-Sinus-Präparate appliziert nur eine schwache und lang anhaltende Erhöhung der Frequenz barosensorischer Entladungen bewirkte (19).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-66755-8_22 3c06958b947d3a9219f5dc9b26c89923;de;;;5.3.;;;Molekulare Diagnostik für Mikrosporidien gehören zu den kleinsten intrazellulären eukaryotischen Parasiten. Etwa 14 Gattungen dieser allgegenwärtigen sporenbildenden Protisten wurden von Fischen berichtet (Canning und Lom, 1986), wobei mehrere Krankheiten in Zucht- und Wildfischpopulationen verursachen (Übersicht in Shaw und Kent, 1999). Ihre winzige Größe (etwa 2–5 µm lang), der kryptische Lebensraum innerhalb der Wirtszellen und die Schwierigkeit mit ihrer In-vitro-Kultur machen die Entwicklung molekularer Werkzeuge für hochempfindliche und spezifische diagnostische Tests erforderlich. Der traditionelle Nutzen der Elektronenmikroskopie zur Speziesidentifizierung von Mikrosporidien wird durch immunologische (Luna et al., 1995, Van Gool et al., 1993) und insbesondere PCR-basierte Diagnosewerkzeuge (Da Silva et al., 1996, Hung et al., 1998, Khattra et al., 2000, Malone und McIvor, 1995, Sparfel et al., 1997, Velásquez et al., 1999, Zhu et al., 1993).;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-2315-2_10 1313824a1b940fa10ec6e9380e57b553;de;;;5.3.;;;Bittere Prinzipien der Cneoraceae Die Cneoraceae, eine für Naturstoffchemiker sehr interessante Pflanzenfamilie, umfasst zwei Gattungen mit insgesamt nur drei Arten, von denen wir zwei ausführlich untersucht haben. Diese beiden Arten sind;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-8714-2_2 822cc73377b792fffc5dfbf832122fdc;de;;;5.3.;;;Metallcarbonyle Metallcarbonyle sind Verbindungen von Übergangsmetallen mit Kohlenmonoxidliganden. Sie finden Anwendung in vielen katalytischen Prozessen und in der organischen Synthese. Daher wird seit mehreren Jahren intensiv an Herstellung, Struktur und Anwendung von Metallcarbonylen und ihren Derivaten geforscht. Das erste Metallcarbonyl, Ni(CO);-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-2076-8_2 5ec99f876166ff7063fb22c868e715ef;de;;;5.3.;;;Kontaminationskontrolle und Ätzen Reinigungs- und Ätzprozesse werden verwendet, um organische und anorganische Materialien selektiv von strukturierten und ungemusterten Substratoberflächen zu entfernen. Wenn ein Verfahren zum Entfernen von Partikeln oder unerwünschten Filmen verwendet wird, wird dies als Reinigung bezeichnet. Wenn ein absichtlich abgeschiedener oder aufgewachsener Film entfernt wird, wird der Vorgang als Ätzen bezeichnet. In flüssiger Form ausgeführt, werden diese Prozesse als Nassreinigung oder Ätzen bezeichnet. Verfahren, die Gase verwenden, um Materialien durch Impulsübertragung oder durch Plasma- oder photounterstützte chemische Reaktionen zu entfernen, werden als Trockenreinigung oder Ätzen bezeichnet. Dieses Kapitel behandelt Nass- und Trockenreinigungs- und Ätzprozesse, die bei der Herstellung von Submikron-Halbleiterbauelementen verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-2209-6_5 655d6a760db1f208a4341c3d91f6972f;de;;;5.3.;;;Methoden zum Studium der Primärstruktur von Transfer-RNA Theoretische Aspekte der Untersuchung der Primärstruktur von Nukleinsäuren wurden Anfang der 1960er Jahre breit diskutiert (Habermann, 1963, Tumanyan und Kiselev, 1963, Rice und Bock, 1963, Mirzabekov und Baev, 1965) Nukleotidsequenz könnte jemals in einer gegebenen Nukleinsäure bestimmt werden. Neben diesen theoretischen Untersuchungen wurden jedoch auch Methoden zur Analyse der Primärstruktur intensiv weiterentwickelt und verbessert, und auf diesem Gebiet wurden inzwischen erhebliche Fortschritte erzielt. Durch den Einsatz verschiedener Methoden der Chromatographie und der Gegenstromverteilung wurden hochreine tRNA-Proben isoliert, die für die Strukturforschung geeignet sind. Auf dem Gebiet der Reinigung von Nukleasen und der Untersuchung ihrer Spezifität wurden große Fortschritte erzielt, mit dem Ergebnis, dass diese Enzyme zu einem grundlegenden Werkzeug für die Untersuchung der Nukleinsäurestruktur geworden sind. Parallele Entwicklungen haben bei Methoden zur Fraktionierung, Identifizierung und Untersuchung der Struktur der Nukleinsäurefragmente stattgefunden. Die Ergebnisse dieser Methoden haben die theoretischen Auseinandersetzungen beendet, denn die Bestimmung der Primärstruktur der tRNA hat sich als praktische Möglichkeit erwiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-1971-9_2 ef37da4871bf11007f7e2d2aeadbe24d;de;;;5.3.;;;Bestimmung der Konzentrationen von Spuren- und Dotierelementen in GaAs durch Neutronenaktivierungsanalyse Die Konzentrationen von zehn Spuren- und Dotierelementen in GaAs-Halbleitern wurden durch Reaktor-Neutronenaktivierungsanalyse nach Entfernung von As durch Verdampfen von AsCl . bestimmt;-;-;-;https://link.springer.com/article/10.1007/BF02035799 faf67ad172f16b07c5b482d64db3835b;de;;;5.3.;;;Entwicklungsänderungen bei Hydrolasen mit Peptidbindungen Das schnelle Wachstum des Gehirns während der Ontogenese bietet ein wertvolles experimentelles Werkzeug zur Untersuchung der Faktoren, die den Proteinabbau und -umsatz beeinflussen. Trotz der Fülle an Informationen, die die bemerkenswerten Veränderungen während der Entwicklung dokumentieren;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-8109-9_2 eadc383a83326426777c4eac42726532;de;;;5.3.;;;Carotinoide Carotinoide der gelben, orangen und roten Farbe gehören zu den am weitesten verbreiteten und wichtigsten natürlichen Pigmenten. Sie finden sich in höheren Pflanzen, Algen, Pilzen und Bakterien, sowohl in nicht-photosynthetischen Geweben als auch in photosynthetischen Geweben, die die Chlorophylle begleiten. Im Gegensatz zu Chlorophyllen und Anthocyanen kommen sie auch in Tieren vor und sind für die Farbe von Vögeln, Fischen, Insekten und einigen Wirbellosen verantwortlich. Da Carotinoide nur in Pflanzen synthetisiert werden, bilden pflanzliche Carotinoide die Quelle aller tierischen Carotinoide. Tierische Produkte wie Milch, Butter und Eigelb enthalten Carotinoide.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-2033-7_3 588b0eb2cce94da7b54f0c582002810a;de;;;5.3.;;;Wirkung von Benzopyron-Derivaten auf die Wirkstoffaktivität und den Metabolismus Bei weiblichen Ratten wurden die Zoxazolamin-Paralysezeit und die durch Indomethacin verursachte Mortalität durch eine Vorbehandlung mit Khellin, 7,8-Benzoflavon oder Rutin signifikant reduziert. Vorbehandlung mit Khellin und 7,8-Benzoflavon erhöhte die;-;-;-;https://link.springer.com/article/10.1007/BF03189111 017aa1ab7bd9c251e06b3eb56b675e61;de;;;5.3.;;;Kollisions- und Reaktionsratentheorie Dieses Kapitel zeigt, wie Gleichgewichtskonzentrationen und Reaktionsgeschwindigkeitskonstanten von mikroskopischen Eigenschaften der reagierenden Moleküle wie Bindungsenergien, Schwingungsfrequenzen und Rotationsmomenten abhängen, die spektroskopisch untersucht werden können. Es wird eine kurze Einführung in die notwendigen statistisch-thermodynamischen Grundlagen gegeben. Schließlich werden die theoretischen Geschwindigkeitsausdrücke verwendet, um die Geschwindigkeitskonstanten einiger elementarer Oberflächenreaktionen zu diskutieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-9643-8_4 5369b256496e90077d2558f25672ceed;de;;;5.3.;;;Anorganische Regulationsmittel, Aktivatoren, Beruhigungsmittel Der Zweck der Zugabe eines beliebigen Reagens zu einem Flotationssystem besteht darin, die Flotationsfähigkeit des gewünschten Feststoffs zum gewünschten Zeitpunkt zu verbessern, d. h. um eine Trennselektivität zu erreichen. Je nach Hauptwirkungsaspekt werden die Zusatzstoffe in verschiedene Rubriken eingeteilt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-7975-5_10 a5f3c8a7599e6cc1d38b6a453b45f34a;de;;;5.3.;;;Schmelzsalzchemie der Haloaluminate Dieser Aufsatz behandelt die Schmelzsalzchemie der Aluminiumhalogenide und ihrer Mischungen mit anderen Metallhalogeniden. Diese Materialien haben aus Sicht der Salzschmelze äußerst interessante Eigenschaften. Sie sind in ihrem breiten Spektrum an Säure-Basen-Eigenschaften nahezu einzigartig. Außerdem bilden sie niedrig schmelzende Flüssigkeiten mit guten thermischen Stabilitäten. Diese Tatsachen zusammen mit neueren Studien, die die Existenz ungewöhnlicher gelöster Spezies zeigen, legen ein enormes Potenzial für die Halogenaluminate als Lösungsmittel für geschmolzene Salze nahe.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-0504-1_3 0c17bfea6410bff6c45d63589b9bb938;de;;;5.3.;;;Maßnahmen zu Produkträumen Wir untersuchen, wie aus sogenannten Übergangsmaßnahmen Maßnahmen auf Produkträumen konstruiert werden können. Als Sonderfälle einer solchen Konstruktion erweisen sich die Produktmaßnahmen. Später werden wir sehen, wie die Integration im Produktraum auf sukzessive Integration über die Randräume reduziert wird. Wenn die Übergangsmaße Übergangswahrscheinlichkeitsmaße sind, erlangen sie eine praktische Bedeutung von großem Wert und bilden die Grundlage für das Studium der Markov-Prozesse.;-;-;-;https://link.springer.com/chapter/10.1007/978-93-86279-27-9_5 b9c4ee575079e4bb5aff7f919d250ff6;de;;;5.3.;;;Rechentechniken für Viel-Elektronen-Systeme mit Wellenfunktionen mit einer einzigen Konfiguration Im letzten Kapitel haben wir festgestellt, dass Einelektronenorbitale als Grundlage für die Beschreibung von Mehrelektronensystemen verwendet werden können. Darüber hinaus ist die Verwendung von Slater-Determinanten dieser Ein-Elektronen-Orbitale ein bequemes Mittel, um das Pauli-Ausschlussprinzip zu erfüllen und Eigenfunktionen von Operatoren wie S;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-6360-6_11 85058e502b4a775f199f1c16ccc434b1;de;;;5.3.;;;Der gasförmige Staat Das Studium von Gasen ist für die Chemie aus zwei Hauptgründen wichtig: Erstens erfordern viele Berechnungen die Kenntnis der Zustandsgleichungen von Gasen, d gegenüber Festkörpern und Flüssigkeiten, erlauben oft eine Vernachlässigung zwischenmolekularer Kräfte, die die theoretische Analyse kondensierter Substanzen stark erschweren. Aus diesem Grund stammen viele der grundlegenden Eigenschaften von Molekülen aus der Untersuchung von Gasen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-01644-0_1 8a256abf5192cfa94a934948e6f15536;de;;;5.3.;;;Harmonische und subharmonische Funktionen Viele Eigenschaften hololomorpher Funktionen (Maximumprinzip, Schwarz’sches Lemma, Konvexitätseigenschaften usw.) gelten noch für eine viel größere Klasse von Funktionen. Es ist die Klasse der subharmonischen Funktionen (siehe Definition 4.4.1). Die Beziehung zwischen diesen beiden Funktionsklassen ist dadurch gegeben, dass wenn;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-3024-3_4 80e5a63f357144b0993570c399984a89;de;;;5.3.;;;Chemie und Biochemie von γ-Glutamyl-Derivaten aus Pflanzen einschließlich Pilzen (Basidiomyceten) Mehr als 70 γ-Glutamyl-Derivate von Aminosäuren und Aminen wurden in den letzten zwanzig Jahren aus Pflanzen, einschließlich Pilzen (Basidiomyceten), isoliert, und es hat sich gezeigt, dass diese Verbindungen oft im Anteil der freien Aminosäuren und anderer amphoterer Pflanzenbestandteile, die positive Ninhydrin-Reaktionen hervorrufen. Die vorliegende Übersicht beschreibt die Strukturen und Verteilung dieser Verbindungen und die Methoden zu ihrer Isolierung und Identifizierung. Besonderes Augenmerk wird auf die Unterschiede im chemischen Verhalten von γ-Glutamyl-Derivaten und α-Dipeptiden mit Glutaminsäure als Amino- und als Carboxy-Terminus gelegt. Darüber hinaus wird das wenige Wissen über die Biochemie, insbesondere die Enzymologie, von γ-Glutamyl-Derivaten in Pflanzen beschrieben und mit den verfügbaren Informationen zu Glutamin und Glutathion verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-8551-3_4 162513e20f640da22b25f62d6bf8117a;de;;;5.3.;;;Geometrische Obergrenzen In diesem dritten Kapitel werden wir Ergebnisse beweisen, die eine geometrische obere Schranke für das singuläre Spektrum und für den zweiten Mikroträger entlang einer Lagrangeschen Untermannigfaltigkeit von Verteilungen ergeben, die als Randwerte praktischer verzweigter Funktionen definiert sind. Die Abschätzungen, die wir erhalten werden, hängen nur von den geometrischen Daten des Problems ab, dh von der (singulären) Hyperfläche, um die sich die betrachtete Verteilung verzweigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-21539-5_4 70ec3977243781bd5088ef24398d1c3f;de;;;5.3.;;;Isotopenzusammensetzung von Uran in den Produkten der versehentlichen Ausstoßung aus dem Kernkraftwerk Tschernobyl In den Jahren 1986–1987 wurden in den Räumen des IV. Blocks und im Boden des Industriestandortes Tschernobyl Kernbrennstoffpartikel mit Uran unterschiedlichen Oxidationsgrades als Konglomerateteile gefunden. Beim Auswaschen von Uran aus kontaminierten Böden in den ersten Jahren nach dem Unfall eine gewisse Anreicherung der Flüssigphase bis zu 3–8 % mit Isotopen;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0993-5_12 4fb079df6173c12ebe462cd2ede8f9f9;de;;;5.3.;;;Mathematische Methoden der Theorie extremer Probleme Der Leser ist nun mit verschiedenen Aussagen extremaler Probleme, mit grundlegenden Begriffen und allgemeinen Ideen sowie mit einigen Methoden zur Lösung dieser Probleme vertraut. Dieses Kapitel ist einer systematischen und eher formalen Darstellung der entsprechenden mathematischen Theorie gewidmet.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-7551-1_2 1d1ef6e55529709ce409d37d917a1a96;de;;;5.3.;;;Hinweise auf eine Rolle von Katecholaminen bei der Kontrolle der Atmung von Fischen Unser derzeitiges Wissen über die Kontrolle der Belüftung bei Fischen ist auf allen Ebenen unvollständig. Der Atemrhythmus hat seinen Ursprung in einem medullären zentralen Mustergenerator (CPG), der noch eindeutig identifiziert und charakterisiert werden muss. Seine Aktivität wird direkt durch Eingaben von anderen Stellen im ZNS und von peripheren Mechanorezeptoren moduliert. Die zentrale Lage von respiratorischen Motoneuronen, die die verschiedenen Atemmuskeln innervieren, wurde für einige Fische, insbesondere Elasmozweige, ausführlich beschrieben. Unklar ist jedoch der Zusammenhang zwischen dem CPG und dem sequentiellen Auslösen der Motoneuronen, die zu koordinierten Kontraktionen der Atemmuskulatur führen, und über die Mechanismen, die zur Rekrutierung der speisenden Muskeln für die Zwangsbeatmung führen. Bei Knochenfischen wird die Ventilation durch Stimulation von Kiemen-Chemorezeptoren, die auf den Sauerstoffgehalt oder die Sauerstoffzufuhr zu reagieren scheinen, an den Sauerstoffbedarf angepasst. Es gibt wenig Hinweise auf eine Rolle dieser Rezeptoren in Elasmozweigen.;-;-;-;https://link.springer.com/article/10.1007/BF00157582 150903f86df2715708c15f49e13f724b;de;;;5.3.;;;Antitumor-Anthrazykline Die ersten Berichte über Struktur und chemotherapeutisches Potenzial zweier „Rotpigmente“ der Anthrazyklin-Naturstoffklasse Daunorubicin und Doxorubicin wurden vor 20 Jahren veröffentlicht. Seitdem wurden viele andere Anthrazykline untersucht, aber erst die Entdeckung der potenten antineoplastischen Wirkung von Doxorubicin und seine anschließende schnelle Zulassung im Jahr 1974 durch die US-amerikanische Arzneimittelbehörde Federal Drug Administration (FDA) als verschreibungspflichtiges Medikament weckte die Aufmerksamkeit der Wissenschaft Gemeinschaft. Die Suche nach anderen Anthrazyklin-Analoga mit besseren therapeutischen Indizes als Doxorubicin wurde in vielen Laboratorien weltweit hartnäckig verfolgt. Die therapeutische Wirksamkeit von Doxorubicin wurde durch toxische Nebenwirkungen, hauptsächlich Kardiotoxizität und Myelosuppression, eingeschränkt. Die Forschungsbemühungen brachten die Entdeckung anderer klinisch nützlicher Anthrazykline, wie Aclacinomycin A und Carminomycin, die aus natürlichen Quellen isoliert wurden, und die Entdeckung in synthetischen Labors, dass geringfügige strukturelle Veränderungen in der Leitsubstanz Doxorubicin den therapeutischen Index signifikant verbessern könnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-0397-5_2 d31c797c3fdf337e81093a963281c64c;de;;;5.3.;;;Enkephaline, Endorphine und andere Opioidpeptide Die Isolierung natürlich vorkommender Peptide mit morphinähnlichen Eigenschaften und die anschließende Untersuchung synthetischer Analoga sind direkte Folgen zweier wichtiger Entwicklungen in der Methodik der Untersuchung von Opioidrezeptoren und ihrer Liganden seit 1970. Diese sind (1) die Einführung;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-0585-7_10 f440d4da3fdc8238f5d1d3f905deb4cd;de;;;5.3.;;;Morphologische Anpassung der Form an die Strömung: Mikroströmungen um lotische Makroinvertebraten mit bekannten Reynolds-Zahlen bei quasi-natürlichen Strömungsbedingungen Mit Laser-Doppler-Anemometrie haben wir die Strömungsgeschwindigkeiten in der Medianebene um tote Lotos-Makroinvertebraten in einem Gerinne gemessen, das die natürliche bodennahe Hydraulik reproduziert. Wir untersuchten Exemplare der Gastropoden;-;-;-;https://link.springer.com/article/10.1007/BF00377150 16755d7bea6907481a5e19b6a00a97e6;de;;;5.3.;;;Mehrere Integrale Differenzierungen und Operationen mit Ableitungen für Funktionen mehrerer Variablen sind direkt auf ihre Analoga für Funktionen einer Variablen zurückführbar. Integration und ihre Beziehung zur Differentiation sind komplizierter, da der Integralbegriff auf verschiedene Weise für Funktionen mehrerer Variablen verallgemeinert werden kann. Für eine Funktion f(x, y, z) von drei unabhängigen Variablen müssen wir also Integrale über Flächen und Geraden sowie Integrale über Raumbereiche berücksichtigen. Nichtsdestotrotz beziehen sich alle Fragen der Integration auf das ursprüngliche Konzept des Integrals einer Funktion einer einzelnen unabhängigen Variablen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-57149-7_4 b245fa54fa47ba771f2c74b4542810e4;de;;;5.3.;;;Verdauung und Absorption In diesem Kapitel werden nur Daten zu Humanmaterial betrachtet, da Tierversuche aufgrund von Einschränkungen im Umfang dieses Bandes nicht beschrieben werden können. Nur dort, wo es an Humandaten mangelt, habe ich Tierversuche in diesem speziellen Bereich kurz besprochen. Platzbeschränkungen haben mich gezwungen, in der fertigen Rezension einige Texte und einige Referenzen wegzulassen. Dadurch sind einige vergleichende Aspekte verschwunden und die Priorität der Forscher ist nicht immer erkennbar. Die Urheber eines Ansatzes werden dann in der aufgeführten Arbeit nur von ihren Anhängern zitiert. Ich entschuldige mich daher bei den betreffenden Autoren und beim Leser für diese Unvollständigkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-2316-7_15 99477e5a0c54d9d915f82a3132423a65;de;;;5.3.;;;Modelle des Bevölkerungswachstums, der Diffusion, des Wettbewerbs und der Neuordnung Das Interesse an Bevölkerungswachstumsmodellen begann Ende des 18. Jahrhunderts, als man beobachtete, dass die Bevölkerung Europas in einem exponentiellen Wachstumsmodus zu sein schien. Aufzeichnungen über den Zeitraum 1200-1700, obwohl spärlich, zeigten einige Schwankungen nach oben und unten, aber keinen signifikanten Trend. Der Autor des 18. Jahrhunderts, der zu diesen Themen am häufigsten zitiert wird, ist Malthus [1] . Thomas Jefferson und andere machten jedoch ähnliche Beobachtungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-01511-6_12 6a59fdb0788f08cdccc71a6c05e397d0;de;;;5.3.;;;Statische und dynamische Probleme für anisotrope inhomogene Schalen mit variablen Parametern und deren numerische Lösung (Übersicht) Es werden Untersuchungen zur statischen und dynamischen Verformung isotroper und anisotroper elastischer schalenförmiger Körper komplexer Form durchgeführt, die mit klassischen und verfeinerten Problemstellungen durchgeführt wurden. Zur Lösung von zweidimensionalen Randwertproblemen und Eigenwertproblemen wird ein nicht-traditioneller Ansatz mit diskretem Kontinuum verwendet, der auf der Spline-Approximation der unbekannten Funktionen partieller Differentialgleichungen mit variablen Koeffizienten basiert. Dies ermöglicht es, das ursprüngliche Problem auf ein System von eindimensionalen Problemen zu reduzieren, die mit der Methode der diskreten Orthogonalisierung gelöst werden. Es werden numerische Ergebnisse zur Verteilung von Spannungs- und Verschiebungsfeldern und dynamischen Eigenschaften in Abhängigkeit von Belastungs- und Randbedingungen, geometrischen und mechanischen Parametern elastischer Körper analysiert. Auf die Richtigkeit der Ergebnisse wird Wert gelegt;-;-;-;https://link.springer.com/article/10.1007/s10778-013-0558-x 73b97e6d36018e08f1d4966554362295;de;;;5.3.;;;Erstellen von adaptiven Lerndesigns mit IMS LD Adaptive Educational Hypermedia Systems haben das Potenzial, einen auf die Eigenschaften jedes Schülers zugeschnittenen Unterricht zu liefern. Trotz langjähriger Forschung auf diesem Gebiet wurden diese Systeme jedoch nur in wenigen realen Lernsituationen eingesetzt. Gründe dafür sind die Verwendung proprietärer Semantik bei der Definition von Adaptivität und pädagogischen Elementen sowie die fehlende Interoperabilität zwischen Kursen und Anwendungen. Wir behaupten, dass eine Möglichkeit zur Überwindung dieser Probleme darin besteht, adaptive Regeln, Techniken und Lernelemente mit einer gemeinsamen Notationsmethode, dem IMS Learning Design (IMS LD), zu kommentieren. Dieser Beitrag präsentiert einen neuartigen Ansatz zur Definition adaptiver Lerndesigns und insbesondere, wie adaptive Hypermedia-Techniken und adaptive Regeln mittels IMS LD modelliert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/11768012_5 0aa00cff2bab2294fabde17a16902889;de;;;5.3.;;;Verwenden von epidemischem Horten zur Minimierung von Lastverzögerungen in verteilten virtuellen P2P-Umgebungen Verteilte virtuelle Umgebungen (DVEs) haben in verschiedenen Anwendungsbereichen an Popularität gewonnen. Abgesehen davon, dass große DVEs großartige Möglichkeiten zur Zusammenarbeit in einer immersiven Umgebung bieten, stellen sie große Herausforderungen an die Skalierbarkeit. Obwohl sich P2P-Ansätze als wirksam erwiesen haben, um viele dieser Probleme anzugehen, bleiben in Regionen mit hoher Objekt- oder Avatardichte Probleme mit der Ladeverzögerung bestehen. In diesem Artikel präsentieren und evaluieren wir einen Hortungsansatz, der geeignet ist, solche Verzögerungen in P2P-basierten DVEs mit einer Echtzeitverteilung dynamischer Daten zu minimieren. Die Vorhersage, welche Daten gehortet werden sollen, basiert auf einem epidemischen Aggregationsalgorithmus, der ausschließlich mit lokalem Wissen arbeitet. Es werden Bewertungsergebnisse präsentiert, die mit einer DVE-Simulationsumgebung gewonnen wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03354-4_43 d9fa7c71662e0d7bc61c269c9b270812;de;;;5.3.;;;Jüngste Entwicklungen bei der 1/N-Erweiterung für QCD- und Matrixmodelle Die Entwicklung eines zuverlässigen Rechenschemas für die niederenergetische Quantenchromodynamik (QCD) ist derzeit eines der dringendsten Probleme der Quantenfeldtheorie. Computerberechnungen und Gitter-Raum-Zeit-Formulierungen der Theorie bieten eine Möglichkeit, das Problem anzugehen, wo in den letzten Jahren die aktivsten Forschungen durchgeführt wurden. Eine andere Möglichkeit bieten analytische Näherungsverfahren, die sich mit der Theorie in der kontinuierlichen Raumzeit beschäftigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-7651-1_10 cb55b288ac4c95abff95f02d822df887;de;;;5.3.;;;Dualität in nichtkonvexen Variationsproblemen Wir geben eine abstrakte Formulierung einer Dualitätsmethode, die es uns ermöglicht, kritische Punkte bestimmter Funktionale zu finden, die in einen quadratischen Term und einen konvexen Term aufspalten. Es werden zwei Anwendungen angegeben, auf Hamiltonsche Differentialsysteme und auf eine Variante der Wellengleichung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-6728-4_4 ca06bbb6f4fe89ae5bee26d3415c13df;de;;;5.3.;;;Optische Absorption und Reflexion Die Ausbreitung elektromagnetischer Strahlung durch einen Halbleiter hängt im Allgemeinen von Temperatur und äußerem Druck ab und kann durch elektrische und magnetische Felder beeinflusst werden. Messungen dieser Effekte liefern sehr nützliche Informationen über die Bandstruktur und Energieniveaus in Halbleitern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-02576-5_11 b6cf721a3b045556b67933599b27ffcc;de;;;5.3.;;;Computermodellierung von chemischen Gasphasenabscheidungsprozessen Ein Computermodell für allgemeine Zwecke zum Beschreiben der Transportphänomene und der resultierenden Ablagerungsrate wurde beschrieben. Partielle Differentialgleichungen, die die Erhaltung von Masse, Impuls, Energie und chemischen Spezies beschreiben, werden von einem Computerprogramm gelöst, das die Methode der endlichen Differenzen verwendet. Das in dieser Veröffentlichung betrachtete System ist die Abscheidung von Silizium in einem vertikalen Stagnationsströmungsreaktor durch die Reaktion von Siliziumtetrachlorid und Wasserstoff. Das Programm lässt mehrere chemische Spezies und natürliche Konvektionseffekte zu. Die vorhergesagten Siliziumabscheidungsraten entlang des Substrats stimmen mit den in der Literatur verfügbaren experimentellen Werten gut überein. Die Wirkung der Gaseinlasskonfiguration auf die Gleichförmigkeit der Abscheidung wurde untersucht. Das Modell kann als Werkzeug zur Designoptimierung solcher Reaktoren verwendet werden.;-;-;-;https://link.springer.com/article/10.1007/BF02833619 f8ea65ce3314ea859249b78c4606a03e;de;;;5.3.;;;Moderne Forschung im Ionenaustausch Der Ionenaustausch ist mittlerweile ein sehr gut etabliertes Feld. Neue Entwicklungen in diesem Bereich werden manchmal nach dem Wert des Vorhandenen und nicht immer nach ihrem eigenen Verdienst betrachtet. Dieser für viele ausgereifte Forschungsbereiche typische Zustand verringert tendenziell die Begeisterung für die Fortsetzung und weitere Erforschung neuer Entdeckungen oder für ein besseres Verständnis von vorhandenem Wissen. Ziel dieser Vortragsreihe ist es, die gegenwärtigen Fortschritte in der;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-4376-6_4 f58098d3c5e0483e8b16d5251e20396f;de;;;2.4.;;;Ein neuer Ansatz für die Beugungstomographie Für den Fall der Schallwellenstreuung an einem inhomogenen Medium bestehend aus Geschwindigkeitsschwankungen (Helmholtz-Gleichung) wird ein Verfahren zur Rekonstruktion des Bildes eines verlustfreien Objekts aus der Messung seiner Streuamplitude entwickelt. Das Inversionsverfahren ist exakt und berücksichtigt explizit alle Ordnungen der Mehrfachstreuung. Die Technik basiert auf einer Betrachtung der Analyseeigenschaften der Streuamplitude im komplexen Streuwinkelbereich und gewinnt die Laplace-Domänendarstellung der Schallgeschwindigkeitsfluktuationen aus den winkelgestreuten Daten zurück. Das Verfahren hat den Nachteil, von analytischen Fortsetzungsverfahren abhängig zu sein, die in der Praxis wahrscheinlich rauschempfindlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-2402-3_88 1ad6ca0389fc79f0296b06289ea2b6f5;de;;;2.4.;;;Nasopharynxkarzinom Neben dem Burkitt-Lymphom (BL) stellt das Nasopharynxkarzinom (NPC) ein einzigartiges Modell zur Untersuchung der Zusammenhänge zwischen Epstein-Barr-Virus (EBV)-Infektion, Immunantwort und neoplastischer Transformation dar. Die Assoziation von EBV-Infektion und NPC ist noch enger als bei BL: Alle nicht keratinisierenden NPC zeigen signifikant erhöhte Anti-EBV-Antikörpertiter, während extraafrikanische BL nur vereinzelt seropositiv sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-4760-6_3 f35426c1c61ea3cf6f8c213be33f7110;de;;;5.3.;;;3-D-Berechnungsverfahren für Wellenlasten auf turmvertäuten FPSO-Tankern Es wird eine dreidimensionale Methode zur Berechnung der Wellenlasten von turmvertäuten FPSO-Tankern (Floating Production Storage and Offloading) vorgestellt. Die linearisierten Rückstellkräfte, die durch das Festmachersystem auf den Schiffsrumpf wirken, werden nach der Oberleitungstheorie berechnet, die als Funktion der linearen Steifigkeitskoeffizienten und der Verschiebungen der oberen Enden von Festmacherketten ausgedrückt werden. Die hydrodynamischen Beiwerte des Schiffes werden nach der dreidimensionalen Potentialströmungstheorie des linearen hydrodynamischen Problems für Schiffe mit geringer Fahrgeschwindigkeit berechnet. Die Gleichungen der Schiffsbewegungen werden unter Einbeziehung der Rückstellkräfte aus dem Verankerungssystem als lineare Steifigkeitskoeffizienten aufgestellt. Die Bewegungsgleichungen werden im Frequenzbereich gelöst und die Reaktionen von welleninduzierten Bewegungen und Lasten auf das Schiff können erhalten werden. Ein auf dieser Methode basierendes Computerprogramm wurde entwickelt und einige Berechnungsbeispiele werden illustriert. Die Analyseergebnisse zeigen, dass das Verfahren eine zufriedenstellende Vorhersage von Wellenlasten liefern kann.;-;-;-;https://link.springer.com/article/10.1007/BF02935568 d5a322ccfe4be3ecdefe55cf88782f1c;de;;;5.3.;;;Elektronenmikroskop-Probenpräparationstechniken in der Materialwissenschaft Ziel der Elektronenmikroskopie ist es, gute Schliffbilder zu erstellen, die eine genaue Untersuchung der Defektstruktur der Probe und eine überzeugende Darstellung in Berichten und Publikationen ermöglichen. Es kann nicht genug betont werden, dass eine gute Probenvorbereitung der Schlüssel zu guten elektronenmikroskopischen Aufnahmen ist. Folglich ist es;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-03403-1_1 6bd405ea38da70111141afc14e70c210;de;;;5.3.;;;Die nichtlineare Schrödinger-Gleichung und solitäre Wellen Es ist nun allgemein bekannt, dass die Korteweg-de-Vries-Gleichung und die nichtlineare Schrödinger-Gleichung die nichttrivialen Folgen niedrigster Ordnung einer Störungsnäherung für die schwach bzw. Dieses Kapitel ist der nichtlinearen Schrödinger-Gleichung und ihren solitären Wellenlösungen gewidmet. Mehrere Eigenschaften der nichtlinearen Schrödinger-Gleichung, einschließlich Hüllsolitonen und Rekursionsphänomen werden diskutiert. Es werden Erhaltungssätze für die nichtlineare Schrödinger-Gleichung beachtet. Einige Anwendungsbeispiele für Fluiddynamik, Plasmaphysik und nichtlineare Optik sind enthalten. Basierend auf einer genialen Arbeit von Zakharov und Shabat (1972) wird die inverse Streutransformation für die nichtlineare Schrödinger-Gleichung (NLS) ausführlich beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-2846-7_10 40f819c2ccc9a7cf8e259fba6f3f6fc6;de;;;5.3.;;;Nicht integrierbare Systeme Ein gemeinsames Merkmal der verschiedenen in Kapitel 4 aufgezeigten Lösungsansätze zur Integration hamiltonscher Systeme ist die Existenz einer ausreichend großen Anzahl unabhängiger erster Integrale oder Erhaltungssätze. Leider finden wir solche Integrale in typischen Situationen nicht nur nicht, sondern sie existieren einfach nicht, da die Trajektorien von Hamilton-Systemen im Allgemeinen nicht auf niederdimensionalen invarianten Mannigfaltigkeiten liegen. Wir denken dabei natürlich an Integrale, die auf dem gesamten Phasenraum existieren: Ein vollständiger Satz unabhängiger erster Integrale existiert immer in einer kleinen Umgebung eines nichtsingulären Punktes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-61237-4_6 156450b1381211b2f4ff37e17493f5f2;de;;;2.4.;;;Die Auswirkungen redundanter Kommunikation auf das Hörverhalten: Braucht ein Bild mehr als tausend Worte? Unter Verwendung eines referentiellen Kommunikationsparadigmas wurden zwei Arten von informativen Nachrichten, kontrastiv und redundant, hinsichtlich ihrer relativen Auswirkungen auf die Genauigkeit der Antworten der Zuhörer als Funktion von Aufgabenvariablen entwicklungsmäßig verglichen. Kontrastive Botschaften enthielten die minimalen Informationen, die notwendig sind, um einen Referenten von einem Nicht-Referenten zu unterscheiden. Redundante Nachrichten enthielten zusätzliche Informationen. Wir sagten voraus, dass redundante Nachrichten effektiver wären als kontrastive, wenn das Stimulus-Array zu komplex war, als dass ein Zuhörer alle Aspekte davon in der vorgesehenen Zeit wahrnehmen konnte. Auch die Reihenfolge der Präsentation der Nachricht und des Arrays und die Verzögerung zwischen den beiden wurden manipuliert, um zu bestimmen, wie diese Faktoren zur Aufgabenkomplexität beitragen würden. Die Probanden waren Erst- und Drittklässler sowie College-Studenten. Die Stimuli waren Zeichnungen von cartoonartigen Figuren. Die Ergebnisse bestätigten unsere Vorhersagen für die älteren Probanden, aber nicht für die jüngeren. Die Diskussion der Daten konzentrierte sich darauf, warum die Bild-Nachricht-Sequenz für alle Altersgruppen schwieriger war als die Nachricht-Bild-Sequenz.;-;-;-;https://link.springer.com/article/10.1007/BF01068215 509dfa35b07caf6174c9cd4e9193c166;de;;;2.4.;;;Lokalisierung des humanen vaskulären endothelialen Wachstumsfaktor-Gens, Unter Verwendung überlappender Cosmide, die den vaskulären endothelialen Wachstumsfaktor (VEGF)-Locus darstellen, wurde das VEGF-Gen durch Fluoreszenz-in-situ-Hybridisierung an Chromosom 6p12 kartiert. Diese Lokalisierung ermöglicht eine Kopplungsanalyse und die Identifizierung von Geninteraktionen in der Region sowie Veränderungen der VEGF-Struktur oder Expression in Krebszellen mit Chromosomenanomalien.;-;-;-;https://link.springer.com/article/10.1007/BF02346191 3693731662642f9274396397628dd7ca;de;;;2.4.;;;Das Erscheinen und Verschwinden des 17-Kev-Neutrinos Es ist eine Tatsache in der Erfahrungswissenschaft, dass Experimente oft widersprüchliche Ergebnisse liefern. Dies wird nirgendwo besser veranschaulicht als in der jüngsten Geschichte der Experimente zur Existenz eines schweren 17-keV-Neutrinos.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-5334-8_3 47c7c5dcc77dd834a49df09c726fc7c1;de;;;5.3.;;;Theorie der geordneten Räume Dies ist die erste einer geplanten Reihe von Untersuchungen zur Theorie geordneter Räume basierend auf vier Axiomen. Zwei davon, die Ordnungsaxiome (I.1.1) und die lokale Struktur (II.5.1) liefern die Struktur der Theorie, und die anderen beiden [die Identifikations- (I.1.11) und die Kegel- (I.2.7) Axiome] eliminieren Pathologien oder übermäßige Allgemeinheit. In der vorliegenden Arbeit werden die Axiome um die Nichttrivialitätsbedingungen (I.1.9) und eine Regularitätseigenschaft (II.4.2) ergänzt.;-;-;-;https://link.springer.com/article/10.1007/BF02156539 95a0e9099d6f798d6beaeb72b51a563e;de;;;2.4.;;;Eine detaillierte Bewertung der strukturellen und biologischen Auswirkungen von alkalischen O-Desulfatierungsreaktionen von Heparin Heparin wird seit über 50 Jahren klinisch als Antikoagulans und Antithrombosemittel eingesetzt. Während dieses Zeitraums wurden viele zusätzliche und potenziell nützliche pharmakologische Eigenschaften von Heparin in der klinischen Anwendung, in präklinischen Modellen und in biologischen In-vitro-Assays beobachtet. In jüngerer Zeit wurde postuliert, dass viele dieser anderen pharmakologischen Wirkungen mit nicht-antikoagulierenden Aktivitäten von Heparin- und Heparansulfat-Strukturen zusammenhängen. Umfangreiche Forschungsanstrengungen im Laufe der Jahre haben ergeben, dass die vielfältigen pharmakologischen Aktivitäten von Heparin und heparansulfatähnlichen Substanzen sowohl auf spezifische als auch unspezifische ionische Wechselwirkungen mit Proteinen und anderen biologischen Molekülen zurückzuführen sind. Diese Wechselwirkungen werden durch die physikalisch-chemischen Parameter des Heparinpolymers vermittelt, die Sequenzzusammensetzung, Ladungsverteilung, Gesamtladungsdichte und Molekülgröße (Polymerisationsgrad) umfassen. Die gut charakterisierte Pentasaccharidsequenz, die für die Heparin-Antithrobin III (ATIII)-Wechselwirkung verantwortlich ist,;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0371-8_11 4dc5ab741c53848b63643c71af715170;de;;;5.3.;;;Genaue Spannungsanalyse von laminierten Verbundstrukturen Diese Vorlesungsnotizen geben einen Überblick über eine neue Methode, die für die genaue Spannungsanalyse von dünnwandigen Verbundbauteilen geeignet ist. Die Methode basiert auf der Verwendung von verallgemeinerten, 2D „verschmierten“ Laminatmodellen, die wie ihre konventionellen Gegenstücke eine feste und geringe Anzahl unbekannter Verschiebungskomponenten verwenden. Indem jedoch die genauen Elastizitätsverteilungen, die für ein entsprechendes einfach gelagertes Strukturbauteil verfügbar sind, in sein ungefähres Verschiebungsfeld aufgenommen werden, erhält ein solches verschmiertes Modell die Vorteile einer entsprechenden schichtweisen Theorie. Am wichtigsten ist, dass die vorgeschlagene Smeared-Theorie und die 3D-Elastizität identische Ergebnisse für einfach getragene Laminate liefern, was eine einzigartige Eigenschaft in der Literatur der 2D-Laminattheorie ist (keine andere technische Theorie in der Literatur, weder verschmiert noch schichtweise, kann dies erreichen ). Es ist dann vernünftig zu erwarten, dass für andere, realistischere Sätze von Kantenrandbedingungen die Umkehrung des Saint-Venant-Prinzips gilt. Dementsprechend sind Lösungen und damit detaillierte Spannungs- und Verschiebungsverteilungen, die auf einer solchen verschmierten Theorie basieren, außerhalb der Laminatkanten sehr genau, während sie in Kantennähe statisch äquivalente Darstellungen der entsprechenden exakten Elastizitätsergebnisse bilden sollten. Es wird jedoch auch gezeigt, dass, falls erforderlich, die Genauigkeit solcher detaillierten Antwortcharakteristiken auf einer Prädiktor-Korrektor-Basis weiter verbessert werden kann. Die Zuverlässigkeit der Methode wird getestet und verifiziert, indem eine Klasse von Problemen im Detail untersucht wird, die sich mit dem Biegen von Kreuzlagenlaminaten befassen. Der aktuelle „Stand der Technik“ dieser neu erreichten Verschmelzung von 3D-Elastizitätslösungen und 2D-Schmierte Laminatmodellierung wird abschließend skizziert und die Anmerkungen schließen mit der Identifizierung weiterer Forschungsbereiche, auf die zukünftige Aktivitäten ausgerichtet und/oder fokussiert werden sollten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-2544-1_2 9c5140856fd534f3e2e8aac3c71f84c8;de;;;2.4.;;;Einfluss eines akuten Tryptophanmangels auf das verbale deklarative episodische Gedächtnis bei jungen erwachsenen Frauen Eine verminderte Synthese des Neurotransmitters Serotonin (5-HT) im Gehirn wird mit gestörten Gedächtnisprozessen in Verbindung gebracht. Die vorliegende Studie untersuchte die Auswirkungen einer verminderten zentralnervösen 5-HT-Synthese, die durch einen akuten diätetischen Tryptophanmangel (ATD) auf das verbale deklarative episodische Gedächtnis bei jungen Frauen erreicht wird, während die Wirkung weiblicher Sexualhormone kontrolliert wurde. Achtzehn gesunde Frauen (im Alter von 20–31 Jahren) nahmen an einer Studie mit wiederholten Messungen innerhalb des Subjekts teil, mit zwei getrennten Bewertungstagen, die mindestens einen einzelnen Menstruationszyklus voneinander entfernt waren. An einem Tag wurden die Teilnehmer ATD unterzogen, wodurch die zentralnervöse 5-HT-Synthese gesenkt wurde. Neulich erhielten die Teilnehmer eine Tryptophan-ausgeglichene Aminosäurelast (BAL = Kontrollbedingung). Die Studie war in Bezug auf die ATD/BAL-Verabreichung randomisiert, ausbalanciert und doppelblind. Die Messungen fanden in der frühen Follikelphase des Menstruationszyklus der Teilnehmer statt. Östrogen-, FSH- und LH-Spiegel wurden zu Studienbeginn bestimmt. Das verbale deklarative episodische Gedächtnis wurde mit einer strukturierten Wortlernaufgabe bewertet. Das Kurzzeitgedächtnis, das durch den sofortigen Abruf indiziert war, war nach der Einnahme von ATD reduziert, während der verzögerte Abruf und die Erkennung nach einer Verzögerung von 25 Minuten keine Unterschiede nach der Einnahme von ATD oder BAL zeigten. Bei jungen Frauen war die verbale Kurzzeitgedächtnisfunktion anfälliger für ATD als Konsolidierungsprozesse. Angesichts der möglichen Wechselwirkung zwischen weiblichen Sexualhormonen und 5-HT sind weitere Studien zum Vergleich verschiedener Menstruationszyklusphasen erforderlich.;-;-;-;https://link.springer.com/article/10.1007/s00726-013-1582-1 a2d9eb2088aa21b5af1da547791f5c4b;de;;;5.3.;;;Die grundlegenden Ungleichheiten und damit verbundene Angelegenheiten In diesem ersten Kapitel werden wir viele der grundlegenden Ergebnisse und Techniken der Ungleichungstheorie vorstellen. Einige der Ergebnisse sind für sich genommen wichtig, andere für die Verwendung in nachfolgenden Kapiteln erforderlich, andere sind aufgrund ihrer Eleganz und ihres ungewöhnlichen Geschmacks ebenso enthalten wie Mehrfachbeweise [1].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-64971-4_1 261d56b603753d9583dadb9efedb4025;de;;;2.4.;;;Defensive und offensive Waffen im Weltraum und zivile Raumfahrttechnologien Technologie Dieses Kapitel enthält eine Diskussion zunächst über Verteidigungswaffen im Weltraum, dann über Offensivwaffen im Weltraum und schließlich über die zivile Nutzung des Weltraums durch Hochtechnologie. Es kommt zu dem Schluss, dass der Sicherheit der Vereinigten Staaten und ihrer Verbündeten (und der Sowjetunion und anderer Nationen) am besten gedient ist, wenn alle Waffen aus dem Weltraum herausgehalten werden und der Einsatz oder das Testen von Waffen im oder aus dem Weltraum verboten wird. Dies ist eine Notwendigkeit, wenn die Zahl der Nuklearwaffen wirklich tiefgreifend reduziert werden soll, und sollte es ermöglichen, innerhalb von etwa 10 Jahren die insgesamt 50 000 Waffen der Vereinigten Staaten und der Sowjetunion auf etwa 2000 zu reduzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-10615-8_6 71adcfb105f053042e9c58aaeab5b6dd;de;;;2.4.;;;Minimax-Restauration und Dekonvolution Die Umkehrung der Verzerrung von Signalen und Bildern bei Vorhandensein von additivem Rauschen ist oft numerisch instabil. Um diese schlecht gestellten inversen Probleme zu lösen, untersuchen wir lineare und nichtlineare Diagonalschätzer auf orthogonaler Basis. Allgemeine Bedingungen sind gegeben, um nahezu Minimax-optimale Schätzer mit einer Schwellenwertbildung auf orthogonaler Basis zu erstellen. Die Entfaltung von Signalen mit begrenzter Variation wird in weiteren Details untersucht, mit einer Anwendung auf das Entschärfen von Satellitenbildern.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-0567-8_9 9f247ce7079390cb5374c6aa364eeebb;de;;;2.4.;;;THz-Bildgebung von biologischen Proben Mit der Entwicklung einer schnellen und effizienten THz-Bildgebung mittels THz-Zeitdomänenspektroskopie (THz-TDS) ist es möglich geworden, biologische Proben in diesem Frequenzbereich abzubilden. Solche bildgebenden Studien ergänzen Studien in anderen Teilen des elektromagnetischen Spektrums, da sie andere Informationen vermitteln, da Materialien im THz-Frequenzbereich andere Eigenschaften aufweisen als beispielsweise im optischen. Die Verwendung von THz-TDS bietet viele Vorteile. Einige davon beinhalten, dass diese Technik das Gewebe nicht schädigt, da die THz-Energie und -Intensität sehr gering sind. Darüber hinaus kann THz-TDS verwendet werden für;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0824-2_15 e2481be845943981eda76f02d1967eb9;de;;;2.4.;;;Entdeckung einer 11( Die Biosynthese von Eicosanoiden wurde in Muschelgonaden durch Inkubation von Gewebehomogenaten mit radioaktiv markierter Arachidonsäure und Analyse der Produkte durch Radio-Hochleistungsflüssigkeitschromatographie untersucht. In Hodenhomogenaten wurden keine radioaktiv markierten Metaboliten gebildet, aber zwei Hauptmetaboliten wurden durch Ovarialpräparate synthetisiert. Die radioaktiv markierten Metaboliten wurden durch Massenspektrometrie und chirale Chromatographie analysiert und als 11(;-;-;-;https://link.springer.com/article/10.1007/s11745-000-0636-5 ef90df5639a324116c39c8fc0dc6cd12;de;;;5.3.;;;Über eine Klasse lösbarer Kähler-Algebren mit nichtpositiver Krümmung Wir untersuchen eine Klasse auflösbarer Kähler-Algebren, solche, bei denen die zugehörige einfach zusammenhängende Lie-Gruppe keinen flachen de Rham-Faktor hat und eine nicht positive, entweder Schnittkrümmung oder holomorphe Schnittkrümmung hat. Wir beweisen, dass sich das Studium dieser Klasse auf das der Klasse der Normalen reduziert;-;-;-;https://link.springer.com/article/10.1023/A%3A1004964418037 c931a246221c1a2c667d6eea5057b7b4;de;;;5.3.;;;Haar messen Wenn wir in diesem und im nächsten Kapitel von einer Funktion (bzw. einem Maß) sprechen, wird diese entweder als reelle oder komplexe Funktion (bzw K(T) bezeichnet entweder den Raum K;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-07931-7_1 c9fb3fe457e982163d6870c3c6d611bc;de;;;5.3.;;;Seitlicher Erddruck Dieses Kapitel befasst sich mit der Größe und Verteilung des Querdrucks zwischen einer Bodenmasse und einem angrenzenden Stützbauwerk. Es wird von ebenen Dehnungen ausgegangen, d. h. Dehnungen in Längsrichtung des Tragwerks werden mit Null angenommen. Die rigorose Behandlung dieses Problemtyps, wobei sowohl Spannungen als auch Verschiebungen berücksichtigt werden, erfordert die Kenntnis geeigneter Gleichungen zur Definition der Spannungs-Dehnungs-Beziehung für den Boden und die Lösung der Gleichgewichts- und Kompatibilitätsgleichungen für die gegebenen Randbedingungen. Die rigorose Analyse von Erddruckproblemen ist selten möglich. Von primärem Interesse ist jedoch der Versagenszustand der zurückgehaltenen Bodenmasse, und in diesem Zusammenhang kann, sofern keine Berücksichtigung von Verschiebungen erforderlich ist, der Begriff des plastischen Kollaps verwendet werden. Erddruckprobleme können somit als Plastizitätsprobleme angesehen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-3474-1_6 764d9243b680ff293af8ce063867a0d3;de;;;5.3.;;;Von Computerspielen lernen: Ein Forschungsrückblick In unserem Impulsvortrag wurden Erkenntnisse und Empfehlungen aus der empirischen Forschung zur Wirksamkeit von Computerspielen im Unterricht beschrieben. Wir beobachten diese Forschung seit einiger Zeit (Fletcher & Tobias, 2006, Tobias & Fletcher, 2007, Tobias & Fletcher, 2011a, Tobias, Fletcher, Dai & Wind, 2011). Unsere Präsentation und diese Zusammenfassung basieren auf diesen früheren Quellen, insbesondere der 95-seitigen Rezension, in;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33814-4_2 5424f8500b27ea7b9eaee934b561976b;de;;;5.3.;;;Molekulardynamiksimulationen in den Festkörperwissenschaften Molecular Dynamics Simulation ist eine Computermodellierungstechnik, die sich als sehr fruchtbares Werkzeug bei der allgemeinen Untersuchung kondensierter Materie erwiesen hat, aber noch in den Geowissenschaften eingesetzt werden muss. In dieser Arbeit werden die Grundideen der Technik beschrieben und die technischen Details im Zusammenhang mit der Anwendung der Methode diskutiert. Die vielfältigen Informationen, die aus diesen Simulationen gewonnen werden können, werden ausführlich beschrieben. Einige neuere Arbeiten zu orientierungsungeordneten Kristallen und inkommensuralen Systemen werden als repräsentative Beispiele für die Anwendung dieser Simulationstechnik beschrieben. Mögliche Anwendungen der Molekulardynamik-Simulationstechnik auf Probleme der Mineralwissenschaften werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-2891-6_15 4a10b94f54ce30bfe77d9249de3d8138;de;;;5.3.;;;Polarisationseffekte bei der Elektronenstreuung durch Spin-Bahn-Wechselwirkung Durch Linearisieren der relativistischen Verallgemeinerung der Schrödinger-Gleichung erhält man die Dirac-Gleichung. Sie ist Lorentz-invariant und beschreibt die Elektronenspin- und Spin-Bahn-Kopplung, ohne dass weitere Annahmen eingeführt werden müssen. Die Definition der Polarisation als Erwartungswert des Spinoperators ist nicht Lorentz-invariant und wird daher auf das Ruhesystem der Elektronen bezogen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-02434-8_3 5abb996b6b43112ee64a8fdecfe96d7f;de;;;5.3.;;;Über Lyapounov-Stabilitätssätze für stochastische (deterministische) Evolutionsgleichungen Der Zweck dieser Arbeit besteht darin, einen Überblick über die Ergebnisse einiger Erweiterungen von Lyapounov-Methoden in der Stabilitätstheorie für die Lösungen unendlichdimensionaler (stochastischer und deterministischer) Evolutionsgleichungen zu geben. Daraus lassen sich Ergebnisse zur Stabilität von Lösungen stochastischer Partial- und Verzögerungsdifferentialgleichungen ableiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-0219-3_9 61f84e400de4b32db6b22c260c1098eb;de;;;5.3.;;;Elliptische Kurven Viele der in diesem Buch behandelten Themen fließen in die arithmetische Theorie elliptischer Kurven zusammen. Dies ist ein Zweig der Zahlentheorie, dessen Wurzeln weit zurückreichen, der jedoch gegenwärtig intensiv erforscht wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-2103-4_18 cd34fc6652405574f116c8f5beabca6f;de;;;5.3.;;;Lösungen für einige Probleme der Elastizitätstheorie In diesem Kapitel präsentieren wir Lösungen einiger konkreter Probleme der Elastizitätstheorie mit der semi-inversen Methode. Alle Probleme haben praktische Anwendung im Ingenieurwesen. Wir veranschaulichen die Art von Problemen, die mit den „klassischen“ Methoden des vorherigen Kapitels gelöst werden können. Außerdem schreiben wir einige Lösungen in einer Form, die einen Vergleich mit den Lösungen ermöglicht, die durch Elementarfestigkeitstheorien und Stabtheorien erhalten wurden. Da der Stab in technischen Anwendungen wahrscheinlich eines der am häufigsten verwendeten Elemente ist, behandeln wir im Detail wichtige Probleme der Dehnung, Torsion und Biegung, die für einen elastischen Stab formuliert sind. Diese Probleme (Bestimmung des Spannungs-Dehnungs- und Verformungszustandes eines prismatischen Stabes, der durch ein System von Kräften und Paaren belastet wird, die an den Enden des Stabes aufgebracht werden) werden genannt;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-1330-7_5 4182846487d3f2cc56dc0f2519f6b178;de;;;5.3.;;;Stochastische Integrale auf allgemeinen topologisch messbaren Räumen Eine allgemeine Theorie des stochastischen Integrals im abstrakten topologisch messbaren Raum wird aufgestellt. Das Martingalmaß ist definiert als eine Zufallsmengenfunktion mit einer gewissen Martingaleigenschaft. Alle quadratisch integrierbaren Martingalmaße bilden einen Hilbertraum;-;-;-;https://link.springer.com/article/10.1007/BF00532794 6341acef0a0fb9a7bb6e85e6db726ef6;de;;;5.3.;;;Die Tate-Vermutungen für Hilbert Modular Surfaces Sobald man Modelle für modulare Hilbert-Varietäten über (Ringe von ganzen Zahlen von) Zahlenkörpern hat, kann man damit beginnen, die arithmetischen Eigenschaften von Hilbert-Modularvarietäten zu untersuchen. Die Fülle an Ergebnissen (und Vermutungen) für die Modulräume elliptischer Kurven legt nahe, dass unerwartete Schätze in einem weitgehend unerforschten Gebiet vergraben liegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-61553-5_13 e33bb159a536a840b66ebd25cf1ee6cb;de;;;5.3.;;;Hyperbolische Mengen, symbolische Dynamik und seltsame Attraktoren Die Lösungen gewöhnlicher Differentialgleichungen können eine erratische Zeitabhängigkeit aufweisen, die in gewisser Weise zufällig erscheint. Wir haben in Kapitel 2 mehrere solcher Beispiele gesehen. Das vorliegende Kapitel ist der Diskussion einfacher, geometrisch definierter Systeme gewidmet, in denen solche chaotischen Bewegungen auftreten. Wir beschreiben sowohl den unregelmäßigen Charakter einzelner Lösungen als auch die komplizierten geometrischen Strukturen, die mit ihrem Grenzverhalten verbunden sind. Die grundlegende Technik, die wir verwenden, wird symbolische Dynamik genannt, und die allgemeine Herangehensweise an die von uns gewählten Fragen wird als dynamische Systemtheorie bezeichnet. Wir werden diese Theorie nicht systematisch weiterentwickeln, sondern einige ihrer wichtigsten Ergebnisse darlegen und eine kurze Einführung in die Literatur geben. Unsere Strategie bei der Lösung spezifischer Probleme wird im Allgemeinen die Verwendung numerischer oder Störungsmethoden wie die von Kapitel 4 beinhalten, um die Existenz einer interessanten geometrischen Struktur in geeigneten Poincaré-Abbildungen nachzuweisen, gefolgt von der Verwendung der Methoden dieses Kapitels.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-1140-2_5 3daed72f49a0949ade2f7e9f74b846fa;de;;;5.3.;;;Analyse von wärmegetriebenen Schwingungen von Gasströmen Um das Auftreten flammengetriebener Schwingungen zu erklären, werden die Übertragungsfunktionen laminarer Flammen vorgemischter Gase diskutiert. Es wird versucht, die Theorie so zu formulieren, dass die linearen Verzerrungen der Flammen während ihrer oszillierenden Bewegungen berücksichtigt werden können. Die charakteristische Gleichung für das Auftreten von flammengetriebenen Schwingungen vom Orgelpfeifentyp wird hergeleitet, die das eigentümliche Verhalten der Flammen und die Effekte erster Ordnung der endlichen Flammenlänge und der Mach-Zahl berücksichtigt. Es wird gezeigt, dass es möglich ist, ein äquivalentes elektrisches Netzwerk aufzubauen, das ein aktives Element enthält, das die Wirkung der Flammen repräsentiert. Für niedrige Frequenzen (bei denen die Schaltungselemente durch konzentrierte Elemente dargestellt werden können) kann das äquivalente elektrische Netzwerk verwendet werden, um die Stabilität nach den bekannten Methoden aus der Stabilitätstheorie aktiver elektrischer Netzwerke zu untersuchen. In dieser Arbeit wird keine Lösung der charakteristischen Gleichung angegeben. In einem demnächst erscheinenden Beitrag wird seine Lösung für ein Hochfrequenzmodell des Strömungssystems diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF03184647 0aea0ec4c4119b4ecdcfcd8643fe9d9e;de;;;5.3.;;;Eine Vertretung von SFP Dieses Kapitel stellt eine Darstellung der Kategorie der SFP-Domänen vor. Es verwendet Strukturen, die den Informationssystemen von Scott ähneln, aber allgemeiner sind. Destilliert aus Gentzens Sequenzkalkülen entsteht eine Grundstruktur, die als Sequenzstruktur bezeichnet wird. Sequenzielle Strukturen bestimmen einen Großteil der Axiome von Informationssystemen. Es wird gezeigt, dass eine Kategorie spezieller sequenzieller Strukturen, die als stark endliche Strukturen bezeichnet werden, der Kategorie der SFP-Domänen äquivalent ist. Konstruktionen wie der Plotkinsche Potenzbereich und der Funktionsraum werden ebenso gegeben wie eine vollständige Teilordnung solcher Strukturen, um Lösungen für rekursiv definierte Systeme zu geben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-0445-9_3 ce365b0954570e2771510e78e5f6a6a2;de;;;5.3.;;;Auflistung wichtiger Beobachtungsaussagen und damit verbundener logischer Probleme Beginnen wir mit einem Zitat von Novalis, das als Motto in [Popper] steht: Hypothesen sind Netze, nur der fängt, wer auswirft. Der Leser fand in Teil A eine Analyse beobachtender und theoretischer Wissenschaftssprachen, die zu einer Untersuchung von Klassen einiger beobachtender und theoretischer Kalküle und ihrer Beziehungen führte. Er mag jedoch einwenden, dass die Studie von Teil A zu statisch war und daher die Hypothesenbildung, d. h. den „Entdeckungsprozess“ [Buchanan] ignorierte. Dies ist in der Tat der Fall und entspricht unserer Vorstellung einer Induktionslogik als Antwort auf die Fragen (LE)-(L2) in Kapitel 1. Bedenken Sie die Fragen (L3)-(L4) (vgl. 1.1.5) , werden wir nun eine Suggestionslogik als mögliche Antwort auf die letztgenannten Fragen entwickeln. Da unsere Untersuchung eher zur A1 als zur Psychologie des wissenschaftlichen Denkens gehört, werden wir nicht gezwungen sein, den Prozess der Vermutungshypothesen des Wissenschaftlers zu simulieren, sondern die Unterschiede zwischen menschlichen und Computerfähigkeiten zu respektieren und zu nutzen. Darüber hinaus werden wir nicht versuchen, den gesamten Prozess der Hypothesenfindung zu mechanisieren, sondern nur einen seiner wesentlichen Teile, nämlich den Prozess der intelligenten Beobachtung von Daten. Unsere Ziele werden in Abschnitt 1 dieses Kapitels ausführlich erläutert, die wichtigsten Begriffe sind ein Problem und seine Lösung. Dies entspricht dem Konzept der wissenschaftlichen Entdeckung als Lösung von Problemen sui generis. „Wir sprechen von einem Problem oder einer Problemlösungssituation, wenn etwas Unentschlossenes ist, etwas, das eine Aktivität behindert und überwunden werden soll usw. Wichtig ist, dass ein Problem nicht nur etwas Unbekanntes ist, sondern etwas“ unbekannt, unentdeckt, unentschlossen... etc. Ein Problem ist demnach die Frage, die wir aus irgendeinem Grund beantworten wollen, müssen oder müssen“. [Tondl].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-66943-9_6 1bccabed6c2a6bde023d5159f7f5f7ac;de;;;5.3.;;;Formulierung mesoskaliger numerischer Modelle Die meisten realistischen numerischen Modelle atmosphärischer Zirkulationen sind heute komplexe Computercodes, die entwickelt wurden, um auf den größten und schnellsten Computern von heute zu laufen. Diese Komplexität ist notwendig, wenn das Modell die komplizierten physikalischen Prozesse reproduzieren soll, die die atmosphärische Strömung steuern.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-935704-20-1_24 87b3e5fb24f878981dc01b08698eb0c0;de;;;5.3.;;;Das Lagrange-Prinzip für glatte Probleme mit Einschränkungen In diesem Kapitel besteht unser primäres Ziel darin, das Lagrange-Prinzip für glatte Probleme mit Gleichheits- und Ungleichheitsbeschränkungen zu beweisen und hinreichende Bedingungen für ein Extremum in solchen Problemen abzuleiten. Die allgemeinen Ergebnisse dieses Kapitels werden in Kapitel 4 auf Probleme der klassischen Variationsrechnung und Optimalsteuerungsprobleme angewendet. Da ein Teil des Materials bereits in Kapitel 1 auf elementarer Ebene vorgestellt wurde, empfiehlt es sich, die entsprechenden Passagen in den Abschnitten 1.3 und 1.4 durchzusehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-7551-1_3 5357943e3373e1663850d0d9e4618a7a;de;;;5.3.;;;Mehrphasenmedien Im Rahmen einer Lehrveranstaltung zur Strömungsmechanik werden hier erstmals die Grundlagen der Mechanik mehrphasiger Medien vorgestellt. Dieser neue Zweig der Mechanik ist vergleichsweise jung, vor etwa 40 Jahren, im Zusammenhang mit der Entwicklung der Luft- und Raumfahrttechnik, der Kernkraft und neuer Technologien entstanden. Gegenwärtig sind die allgemeinen Prinzipien der Konstruktion der Modelle der Mechanik mehrphasiger Medien formuliert und es gibt zahlreiche Anwendungen. Bei der Präsentation des Materials haben wir uns zum Ziel gesetzt, den Leser einerseits mit den mathematischen Modellen vertraut zu machen, die zur Beschreibung verschiedener mehrphasiger Medien verwendet werden, und andererseits einen Einblick in die spezifischen physikalischen Phänomene zu geben, die in diesen auftreten Medien. Da sich die Mechanik mehrphasiger Medien heute einer rasanten Entwicklung erfreut, hat der Stoff dieses Kapitels keinen so ausgewachsenen Charakter wie in den vorangegangenen Kapiteln. Es ermöglicht dem Leser, schnell in die Details einzusteigen und sich mit Problemen im Bereich der Mechanik mehrphasiger Medien vertraut zu machen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-66149-0_7 5c2f124ae33dcc5b571c465a96988b04;de;;;5.3.;;;Modelle für wirtschaftliches Gleichgewicht In diesem Kapitel werden bestimmte Modelle für ökonomische Gleichgewichte betrachtet. Charakteristisch für diese Modelle ist, dass sie aus mehreren unterschiedlichen Systemen mit jeweils eigenen Zielfunktionen, Ressourcen und Budgets bestehen. Die Wechselbeziehungen zwischen den konstituierenden (Teil-)Volkswirtschaften erfolgen in Form von Austausch. Die physikalischen Analoga solcher Zusammenhänge sind Übergangsprozesse, die beim Übergang des physikalischen Modells in einen Gleichgewichtszustand von einem Massen- bzw. In den verschiedenen Teilen des physikalischen Systems finden dann Ausgleiche der intensiven Variablen statt und eine bestimmte Zustandsfunktion, ein sogenanntes thermodynamisches Potential, erreicht ihr Extremum. Für isolierte Systeme ist dieses Potential die Clausius-Entropie oder die freie Helmholtz-Energie. Eine sich in Richtung Gleichgewicht entwickelnde Wirtschaft zeigt ein ähnliches Bild: Die Preise, die die Nutzer einer bestimmten Ressource für diese Ressource zu zahlen bereit sind, werden gleich und eine bestimmte Funktion, die man Entropie der Wirtschaft nennen könnte, erreicht einen Extremwert. Wir betrachten eine Volkswirtschaft als ein Kontrollsystem, in dem eine zentrale Kontrollinstanz Budgets (Kapital) zuteilen und Ressourcenbeschränkungen auferlegen kann. Dies ist somit eine teilweise zentralisierte Wirtschaft, in der die konstituierenden Wirtschaftsteile halb unabhängig sind, jedoch einer externen Kontrolle ihrer Aktivitäten durch eine zentrale Kontrollbehörde unterliegen. Das kontrollierende Wirtschaftszentrum verwendet einen Gleichgewichtsmechanismus und beschränkt sich auf Kontrollen, die durch diesen Mechanismus als Ergebnis von Budgetzuweisungen erfolgen und um die Stabilität des Übergangsprozesses in einen Gleichgewichtszustand zu gewährleisten.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-6274-3_11 58d998f7ca50187b6de6456c01dd8c83;de;;;5.3.;;;Auf wohl-quasi-ordnungs-endlichen Graphen durch Immersion Es wurde von Nash-Williams vermutet, dass die Klasse aller Graphen unter der durch Immersion definierten Quasi-Ordnung ≦ wohlquasigeordnet ist. Zwei Teilergebnisse werden bewiesen, die diese Vermutung stützen. (i) Die Klasse der endlichen einfachen Graphen;-;-;-;https://link.springer.com/article/10.1007/BF02579254 f98f3b3e4642922bf9a86555cfcec213;de;;;5.3.;;;Entstehung und Transport von sedimentären organischen Stoffen in der Yalujiang-Mündung, Nordchina Die Biogeochemie der organischen Substanz (OM) in einem makrotidalen Mündungsgebiet, dem Yalujiang River, wurde während zweier Kreuzfahrten untersucht: der Hochwassersaison im August 1994 und der Trockenzeit im April 1996. Oberflächensedimente wurden in der Flusszone (RZ) Trübungsmaximalzone (TMZ) und der Meereszone (MZ). Die molekulare Verteilung der n-Alkane und der Fettsäurereihen sowie die Eigenschaften des Massensediments wie C:N und δ;-;-;-;https://link.springer.com/article/10.1007/BF02907646 c646840b395710b26e5406020b2cd5cd;de;;;5.3.;;;Metastabilität und Alterung in der stochastischen Dynamik In diesen Notizen bespreche ich aktuelle Ergebnisse zu Metastabilität und Alterung in der stochastischen Dynamik. Der erste Teil befasst sich mit einem etwas neuartigen Ansatz zur Berechnung von Schlüsselgrößen wie mittleren Austrittszeiten in metastabilen Systemen und kleinen Eigenwerten des Generators der metastabilen Markovkette, der in den letzten Jahren mit M. Eckhoff, V. Gayrard und M. Klein entwickelt wurde. Dieser Ansatz basiert auf einer umfassenden Nutzung potentieller theoretischer Ideen und ermöglicht zumindest bei reversibler Dynamik mit vergleichsweise geringem Aufwand sehr genaue Ergebnisse zu erhalten. Diese Methoden wurden auch in neueren gemeinsamen Arbeiten mit G. Ben Arous und V. Gayrard zur Dynamik des Zufallsenergiemodells verwendet. Der zweite Teil dieser Vorlesungen ist einem Rückblick auf diese Arbeit gewidmet.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-2469-6_2 cced0e68e55119af9ae3458294ad01c5;de;;;5.3.;;;Sicheres Farbbild-Kryptosystem basierend auf chaotischer Logistik im FrFT-Bereich In letzter Zeit war die digitale Multimedia-Sicherheitstechnologie aufgrund des schnellen Fortschritts bei der Verwendung von Echtzeit-Multimedia über das Internet und drahtlose Netzwerke ein interessantes Forschungsthema. Der Markt für Multimedia-Streaming, wie zum Beispiel exklusives Video-on-Demand (VoD), ist ein riesiger Multi-Milliarden-Dollar-Markt. Dieser Markt wird von Hackern bedroht. Die Multimedia-Streaming-Branche benötigt ein Kryptosystem, das sowohl schnell als auch sicher ist. Chaotische Kryptosysteme wurden von vielen Forschern vorgeschlagen, um die Kommunikationssicherheit zu fördern. Diese chaotischen Schemata weisen jedoch einige große Probleme auf, wie beispielsweise eine inakzeptable Datenerweiterung, eine langsame Leistungsgeschwindigkeit und Unzulänglichkeiten gegen differenzielle Angriffe. Daher bietet dieses Papier ein effizientes fraktioniertes Fourier-Transformation-(FrFT)-basiertes logistisches Karten-(LM)-Farbbildverschlüsselungsschema durch Anwenden eines 2D-LM auf FrFT. Bei dem vorgeschlagenen FrFT-basierten LM-Farbbildverschlüsselungsschema wird der 2D-LM als Verwirrungsschritt verwendet, um die Farbbildpixelpositionen in der FrFT zu verwürfeln und die Beziehung zwischen dem Chiffrierbild und dem Klarbild zu verwirren. Um die Verschlüsselungsleistungseigenschaften des 2D-LM unter der FrFT zu verbessern, wird der Winkel der FrFT als zusätzlicher zusätzlicher Schlüssel bei der Verschlüsselung verwendet. Das vorgeschlagene FrFT-basierte LM-Farbbildverschlüsselungsschema wird unter Verwendung von visueller Inspektion, Entropie, Histogrammen, Verschlüsselungsqualität, Rauschtests und Differentialanalyse untersucht und untersucht. Die erhaltenen Simulationstests demonstrieren und verifizieren die Wirksamkeit des FrFT-basierten LM-Farbbild-Verschlüsselungsschemas. Darüber hinaus zeigen unsere Ergebnisse auch eine signifikante Verbesserung der Leistung der Verwirrungseigenschaft mit unserem vorgeschlagenen 2D-LM-Verschlüsselungsschema unter Verwendung der FrFT. Außerdem haben wir das vorgeschlagene Kryptosystem mit den neuesten Kryptosystemen nach dem Stand der Technik verglichen. Experimentelle Ergebnisse zeigen, dass unser vorgeschlagenes Bild-Kryptosystem vom kryptographischen Standpunkt aus sehr sicher ist. Darüber hinaus haben die erhaltenen Testergebnisse die Überlegenheit unseres vorgeschlagenen Kryptosystems für die digitale Bildübertragung im Vergleich zu den neuesten Kryptosystemen nach dem Stand der Technik sichergestellt.;-;-;-;https://link.springer.com/article/10.1007/s11042-019-08190-z c2b6c1bfb9a914823b4dd5d9ea06682d;de;;;5.3.;;;Spannungssingularitäten in gerissenen Phasen Im vorherigen Kapitel wurden die Spannungskonzentrationen und Spannungssingularitäten beschrieben, die im Verbund aufgrund von geometrischen Diskontinuitäten in den Einschlüssen entstanden sind. Wir konzentrieren uns nun auf die in der Matrix entwickelten Singularitäten. Da bei der Herstellung des Verbundmaterials die viskose Matrix im Allgemeinen um die festen Einschlüsse gegossen wird, wird das Matrixmaterial dazu gebracht, alle Hohlräume und Vorsprünge der Einschlüsse zu füllen und entlang der Grenzflächen der Einschlüsse fest zu haften.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-70182-5_10 f47dc08d23030107f3a95f0cfbf0f4fb;de;;;5.3.;;;Kontinuierliche Verteilungen Zufallsvariablen, die als Anzahl von Dingen definiert sind, nehmen natürlich ganzzahlige Werte an — 0, 1, 2,… — und die Methoden von Kapitel 5 wurden implizit für Zufallsvariablen dieses Typs entwickelt. In vielen Problembereichen ist es jedoch üblicher, dass Zufallsvariablen kontinuierlich variieren. Die Lebensdauer einer Glühbirne wird beispielsweise keine genaue Stundenzahl sein. Der Abstand zwischen einem möglichen Wert und dem nächsten beträgt nicht eine Stunde, eine Minute, eine Sekunde oder auch nur eine Millisekunde. Alle Zeiten sind theoretisch möglich. Dieses Kapitel beschäftigt sich mit Zufallsvariablen, deren mögliche Werte stetig sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-1211-3_7 0ef8f2cf6bc63ad937ef2d643a60e2d0;de;;;5.3.;;;Rand der konstituierenden Effekte im Polnischen Zahlreiche Verletzungen der Sonority Sequencing Generalization im Polnischen werden aus der Perspektive der prosodischen Phonologie untersucht. Wir argumentieren, dass wortinitiale und nicht-wortinitiale extrasyllabische Konsonanten unterschiedliche Rollen bei der Funktionsweise phonologischer Regeln spielen. Wir behaupten weiter, dass sie prosodisch integriert werden, indem sie mit dem phonologischen Wortknoten verknüpft werden, und dass dies auf verschiedenen Stufen der Ableitung geschieht. Die Transparenz von extrasyllabischen Konsonanten wird ebenfalls untersucht.;-;-;-;https://link.springer.com/article/10.1007/BF00135620 d6bdeccdba5b092c2ef0e9edd5c1cfe4;de;;;5.3.;;;Kombinationen von RGM und FDM Wir folgen Abschnitt 10.5 und studieren erneut die Kombinationen von RGM-FDM. Dieses Kapitel zeigt ein Beispiel, wie Sie andere Kombinationsarten entwerfen können, basierend auf den Kombinationen, die in den vorherigen Kapiteln für Kombinationen von RGM-FEM beschrieben wurden. Darüber hinaus wird in diesem Kapitel auf unsere weiteren Versuche verwiesen, die durchschnittliche Knotensuperkonvergenz zu verfolgen, die globalen Superkonvergenzraten werden in Kapitel 14 untersucht. Die wichtigen Ergebnisse sind in den Sätzen 11.2, 11.3 und 11.4 angegeben. Unter den in (11.14) und (11.15) definierten neuen Normen mit diskreten Summationen von Lösungen und Ableitungen;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-3338-8_11 7fe1accc3b8daca5ec99947e8e213795;de;;;5.3.;;;Probleme der Elastomechanik Wie in Abschnitt 1.1 skizziert, werden nun Stabilitätsprobleme der Elastomechanik im Zusammenhang mit den zuvor diskutierten Grundkonzepten der Stabilitätstheorie diskutiert. Für die Elastomechanik existiert eine gut entwickelte und unabhängige Theorie, die in der Literatur zu finden ist. Neben Refs. (1) und (2) wird der Leser auch auf einige wichtige Werke verwiesen (8), die die Liste noch lange nicht erschöpfen. Es ist nicht notwendig, die Methoden und Beispiele dieser Arbeiten zu wiederholen. Stattdessen werden wir ihre Inhalte kritisch hinterfragen. Moderne Studien zur Stabilität elastischer Körper stellen tatsächlich häufig die Gültigkeit und Anwendbarkeit der alten Konzepte und Methoden in Frage, und die Theorie der Stabilität elastischer Körper wurde daher oft neu formuliert und in die allgemeine mechanische Stabilitätstheorie eingeordnet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-10648-7_10 58144e2774e5d882592143783809f4d7;de;;;5.3.;;;Wiedereintritt in erregbare Medien Eine normale koordinierte und wirksame ventrikuläre Kontraktion wird durch die Ausbreitung der elektrischen Erregung von Zelle zu Zelle durch das Myokard eingeleitet und kontrolliert. Die normale Erregungssequenz beginnt am Sinusknoten, einer Gruppe spontan aktiver Zellen, die in der Wand des rechten Vorhofs liegen und als Herzschrittmacher fungieren. Die Aktivierungswelle breitet sich dann durch die Vorhöfe aus und konvergiert zum atrioventrikulären Knoten. Der atrioventrikuläre Knoten ist der einzige elektrische Pfad, der die Vorhöfe mit den Ventrikeln verbindet. Von dort aus folgt die Aktivierung den Purkinje-Fasern, einem Bündel schnell leitender Fasern, das die Erregung über die Innenfläche beider Ventrikel verteilt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-21640-9_7 07ebf8aa18ac1b99d9fff97533b5c504;de;;;5.3.;;;Eine numerische Untersuchung des Übergangsverhaltens eines Grenzflächenrisses in einer Bimaterialplatte In dieser Arbeit haben wir eine numerische Methode entwickelt, um den transienten Spannungsintensitätsfaktor und die Rissöffnungsverschiebung eines stationären Grenzflächenrisses in einer Bimaterialplatte zu bestimmen, die einer zeitabhängigen Antiebenen-Scherspannung auf den Plattenoberflächen ausgesetzt ist. Eine Bimaterialplatte endlicher Länge aus unähnlichen elastischen, isotropen Plättchen mit Griffith-artigen Rissen an der Grenzfläche wird analysiert. Für das numerische Verfahren werden die Finite-Elemente-Gleichungen im Frequenzbereich nach einem Variationsprinzip abgeleitet. Die Spannungsintensitätsfaktoren im Frequenzbereich werden aus den Verschiebungen berechnet, die beim Lösen der Finite-Elemente-Gleichungen erhalten werden. Der transiente Spannungsintensitätsfaktor wird dann durch eine numerische Fourier-Inversionstechnik unter Verwendung der Fast-Fourier-Transformation (FFT)-Routine erhalten. Viertelpunktelemente und Übergangselemente werden verwendet, um die Singularität der Rissspitze zu modellieren.;-;-;-;https://link.springer.com/article/10.1007/BF00034534 3e353df4663500c80806aa93b896c039;de;;;5.3.;;;Verbesserung der File-Sharing-Erfahrung mit anreizbasierten Koalitionen Das natürliche egoistische Verhalten von Benutzern von P2P-Systemen hat den Anschein von Freeriden verursacht. Diese Benutzer laden das System herunter, tragen aber nicht zum System bei, was zu einer Verschlechterung des Systems und der Benutzererfahrung führt. Es wird zwingend erforderlich, geeignete Mechanismen zu finden, um die Zusammenarbeit zwischen den Benutzern in diesen Systemen zu fördern. In diesem Papier stellen wir anreizbasierte Koalitionen vor, um das Wohlergehen des Systems und die Benutzererfahrungen zu verbessern. Ein Peer, der an einer Koalition teilnimmt, leiht anderen Peers der Koalition „Bandbreite“ im Austausch für einen Nutzen und folglich eine weitaus bessere Erfahrung. Ausgehend von Konzepten aus der Spieltheorie bieten wir eine solide Grundlage, auf der wir unseren Mechanismus aufbauen. Simulierte Experimente unterstützen den Ansatz und zeigen, wie die Förderung der Teilnahme das Freeriden stoppt und somit die Systemleistung und das Benutzererlebnis verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29966-7_19 ca11afaff303b054b016864f32e95a83;de;;;5.3.;;;Überlegungen zu starren Körpern für die geometrische nichtlineare Analyse von Strukturen basierend auf der aktualisierten Lagrange-Formel Bei der nichtlinearen Analyse elastischer Strukturen können die bei jedem Inkrementalschritt erzeugten Verschiebungsinkremente in zwei Teile als starre Verschiebungen und natürliche Verformungen unterteilt werden. Basierend auf der aktualisierten Lagrange-Formel (UL) wird die geometrische Steifigkeitsmatrix [kg] für ein 3D-Starrträgerelement aus der virtuellen Arbeitsgleichung unter Verwendung eines starren Verschiebungsfeldes abgeleitet. Durch Behandlung des Drei-Knoten-Dreieckplattenelements (TPE) als die Zusammensetzung von drei entlang der drei Seiten liegenden starren Trägern kann die [kg]-Matrix für das TPE aus denen der starren Träger zusammengesetzt werden. Die Idee für die inkrementell-iterative nichtlineare Analyse vom UL-Typ besteht darin, dass, wenn die starren Rotationseffekte in jeder Analysephase vollständig berücksichtigt werden, die verbleibenden Effekte natürlicher Verformungen mit der linearisierten Theorie der kleinen Verformung behandelt werden können. Der vorliegende Ansatz hat den Vorteil, dass die Formulierung einfach ist, die Ausdrücke explizit sind und alle Arten von Aktionen berücksichtigt werden. Die Robustheit des Verfahrens zeigt sich in der Lösung mehrerer Probleme, die das Nachbeulen betreffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-48260-4_11 06b52a3988924e6c4a7f344430dc7d24;de;;;5.3.;;;Runge-Kutta-Löser für gewöhnliche Differentialgleichungen Seit den Originalarbeiten von Runge [24] und Kutta [17] ist eine Vielzahl von Arbeiten und Büchern den Eigenschaften der Runge-Kutta-Methoden gewidmet. Übersichten zu diesem Material finden sich in [4], [5], [12], [18]. Kutta [17] formulierte das allgemeine Schema einer sogenannten Runge-Kutta-Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-2100-8_6 00493cc79b2a6aeb95f3ab7471a79ee2;de;;;5.3.;;;Effiziente Simulation abhängiger seltener Ereignisse mit Anwendungen bis ins Extrem Wir betrachten das allgemeine Problem der Schätzung von Wahrscheinlichkeiten, die als Vereinigung von abhängigen Ereignissen entstehen. Wir schlagen eine flexible Reihe von Schätzern für solche Wahrscheinlichkeiten vor und beschreiben Varianzreduktionsschemata, die auf die vorgeschlagenen Schätzer angewendet werden. Wir leiten Effizienzergebnisse der Schätzer in seltenen Ereignissituationen ab, insbesondere in solchen, die mit Extremen verbunden sind. Schließlich untersuchen wir die Leistung unserer Schätzer in numerischen Beispielen.;-;-;-;https://link.springer.com/article/10.1007/s11009-017-9557-4 3843e7005029e03e570c55c459e802f1;de;;;5.3.;;;Statisches und dynamisches Knicken komplexer hyperstatischer stiftverbundener elastischer Systeme In diesem Kapitel betrachten wir hyperstatische Gitter, die aus dreidimensionalen Raumelementen wie Tetraedern, Oktaedern, Kombinationen von Würfeln und Tetraedern usw ) Anschlüsse an den Knoten. Durch entsprechende Längenangabe dieser Stäbe kann das Gitter in jede beliebige gekrümmte dreidimensionale Anordnung von Raumelementen geformt werden, wie in Abb. 3.1.1 gezeigt. Gekrümmte dreidimensionale Anordnungen von Raumelementen bilden geometrische Konfigurationen vom Schalentyp. Gitter und allgemein solche Strukturen heißen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-9053-3_3 6ed3cccff047d0664dcd6b92f9a140cc;de;;;5.3.;;;Operatoren auf Hilberträumen Dieses Kapitel sammelt einige Fakten und skizziert Ergebnisse aus der Theorie der Hilberträume und der Operatortheorie. Besondere Aufmerksamkeit wird einigen speziellen, aber bekannten Themen gewidmet, wie der Theorie der Operator-Bleistifte und asymptotischen Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-8342-9_2 7a1fa2a4167fd48a1b283302de1b2a0a;de;;;2.4.;;;Kernenergie in Deutschland Kurz nachdem die Kernkraftwerksindustrie Ende der 1960er Jahre ein entsprechendes Produktionsniveau erreicht hatte, wurden in den meisten westlichen Ländern, darunter auch in Deutschland, ernsthafte Umwelt- und Sicherheitsbedenken im Zusammenhang mit der kommerziellen Nutzung der Kernenergie öffentlich vorgetragen und bestehen seither fort. International hat der Lebenszyklus der Branche seinen Produktionshöhepunkt überschritten. Der Trend geht seit Jahren zu einem nahezu kontinuierlichen Rückgang des Kernkraftwerksbaus. Die Zahl der Bestellungen für neue Reaktoren weltweit erreichte 1974 ihren Höhepunkt und ist seitdem auf das Niveau vor 1965 zurückgegangen (Abb. 1). 1996 wurden erstmals mehr Kapazitäten stillgelegt als in Betrieb genommen, wodurch ein bis heute anhaltender Rückgang der nuklearen Stromerzeugung eingeleitet wurde (Abb. 2).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-04419-3_20 c14a38c11dc49efce6d986b74a246d0c;de;;;5.3.;;;Gesetzgebungspolitik Die EU hat eine klassische Zweikammergesetzgebung: Der Rat vertritt die „Staaten“ und das Europäische Parlament (EP) die „Bürger“. Im Gegensatz zu vielen anderen Gesetzgebern ist der Rat jedoch mächtiger als das EP. Dennoch sind das EP und der Rat im sogenannten „Mitentscheidungsverfahren“ echte Mitgesetzgeber. Trotz der Tatsache, dass die Hauptakteure im Rat Regierungen und die Hauptakteure im EP politische Parteien sind, sind die Innenpolitik und die politische Organisation der beiden Kammern sehr ähnlich. Um zu verstehen, wie dieses System funktioniert, betrachten wir zunächst einige Theorien des gesetzgeberischen Verhaltens und der Organisation.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-27531-1_3 5e824b1bb2dd968237480d1b06318518;de;;;5.3.;;;Lösungen zu den Übungen Dieses Kapitel enthält Lösungen oder Antworten zu allen Übungen im Text. Zu beachten ist, dass wir nicht immer die kürzeste oder eleganteste Lösung einer Übungsaufgabe gewählt haben. Einige der Lösungen wurden im Laufe der Jahre von unseren Studenten bereitgestellt und zeigen oft den naheliegendsten oder direktesten Ansatz, um die Antwort auf eine bestimmte Frage zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-6465-2_8 571495a1f4505d0ec700fd8ec4733fad;de;;;5.3.;;;Die Rolle flüchtiger Stoffe bei der Kohleverbrennung Unser Wissen über die Rolle flüchtiger Stoffe bei der Kohleverbrennung reicht derzeit von selbstverständlich bis mehrdeutig. Der klarste Punkt, in dem sich alle einig sind, ist, dass die Pyrolyse während des gesamten Kohleverbrennungsprozesses stattfindet und die flüchtigen Stoffprodukte dann in Abhängigkeit von einer Vielzahl von Faktoren vollständig oder teilweise in der Dampfphase verbrennen können. Die Bedeutung des Pyrolyse- und VM-Brennverfahrens für den gesamten Verbrennungsprozess ist jedoch umstritten.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-3661-4_8 ff28b53bb94f64a2c59dc047dbb17d43;de;;;5.3.;;;Banach-Algebren und Spektraltheorie für Operatoren auf einem Banach-Raum Die Theorie der Banach-Algebren ist ein großes Gebiet der Funktionalanalysis mit mehreren Unterteilungen und Anwendungen auf verschiedene Gebiete der Analysis und der übrigen Mathematik. Einige Monographien zu diesem Thema stammen von Bonsall und Duncan [1973] und C. E. Rickart [960].;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-4383-8_7 61e24f6867b8be00117cdedc85bdf5e0;de;;;5.3.;;;Dualität kommutativer Hypergruppen In diesem Artikel wird die Klasse der Hypergruppen mit einer dualen Hypergruppe untersucht. Die Vererbung dieser Eigenschaft unter Homomorphismen, Orbitalmorphismen, Produkten, Joins und für Unterhypergruppen wird untersucht. Es wird gezeigt, dass jede Sturm-Liouville-Hypergruppe auf ℝ;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-2364-6_35 b5c73494dd0c07ff5dd011c34a15baa6;de;;;5.3.;;;Rekonstruktion von Medien als Optimierungsproblem Ein zentrales Problem bei der Zielidentifikation ist die zerstörungsfreie Prüfung. Die medizinische Bildgebung und zahlreiche weitere Anwendungsgebiete betreffen die Formbestimmung. Ort und konstitutive Parameter, wie beispielsweise komplexer Brechungsindex oder lokale Schallgeschwindigkeit, einer lokalen Inhomogenität aus Messungen des Streufeldes, wenn eine monochromatische Welle auf die Inhomogenität einfällt. Eine Klasse von Verfahren zur Lösung dieses Problems basiert auf der Minimierung der Diskrepanz zwischen den gemessenen Daten und den vorhergesagten Daten als Funktion der gewünschten Parameter. Obwohl das Problem nichtlinear und schlecht gestellt ist, wurden beträchtliche Fortschritte bei der Entwicklung nützlicher Algorithmen zur Rekonstruktion der gewünschten Parameter gemacht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-2486-4_4 5612acfdf79d98a2b0aa9cd88e273d2f;de;;;5.3.;;;Dopamin und Glutamat bei der Parkinson-Krankheit 1817 beschrieb der Londoner Arzt James Parkinson in seinem bekannten Essay über die Schüttellähmung, eine Krankheit, die durch Zittern (vor allem in Ruhe), Muskelstarre, die zu Schwierigkeiten beim Gehen, Schreiben, Sprechen und Maskieren des Gesichts führt Ausdruck, Bradykinesie, eine langsame Bewegungseinleitung und -ausführung sowie gebückte Körperhaltung und Instabilität. Viele dieser klinischen Merkmale manifestieren sich auch in anderen Basalganglien (BG)-Störungen und werden daher oft als Parkinson-Syndrom bezeichnet. Heute kennen wir drei Hauptuntergruppen der Parkinson-Syndrome: Zur Hauptgruppe gehört die idiopathische Parkinson-Krankheit (IPD) einschließlich der bekannten erblichen Formen (z Lähmung, Multiple Systematrophie und der Parkinson-Amyotrophe Lateralsklerose (ALS)-Demenz-Komplex, der neben anderen neurologischen Defiziten auch Parkinsonsche Bewegungsanomalien einschließt. Die sekundären, symptomatischen Formen des Parkinsonismus werden durch Infektionskrankheiten, Tumore, Stoffwechselstörungen, Medikamente und Toxine gebildet.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-59259-852-6_21 8949dc0059d28976f7403b44fc44f882;de;;;5.3.;;;Algebraische Ungleichungen Ungleichungen sind in vielen Bereichen der Mathematik unverzichtbare Werkzeuge. Zahlenordnungen, die durch Ungleichungen erhalten werden, finden auch außerhalb der Mathematik in verschiedenen theoretischen und praktischen Gebieten Anwendung. In den Lehrplänen der Sekundarstufe wird daher traditionell linearen und quadratischen Ungleichungen sowie Ungleichheiten mit Absolutwerten eine gewisse Aufmerksamkeit gewidmet. Schon weniger Gewicht wird dem „Kalkül“ von Operationen mit Ungleichungen und Methoden und Ansätzen zur Ableitung von Schätzungen für algebraische Ausdrücke und zum Finden von Beweisen beigemessen. Genau diesen Fragen widmet sich das vorliegende Kapitel.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-1270-6_2 c9d7061c4bf5b0dfa147b017c0d91020;de;;;5.3.;;;Lineare Zuordnungen Der Begriff der linearen Abbildung wurde bereits häufig verwendet und ist offensichtlich für jede Diskussion topologischer Vektorräume unverzichtbar. Der Akzent in diesem Kapitel liegt jedoch auf Vektorräumen, deren Elemente vektorwertige Funktionen sind, insbesondere lineare Abbildungen. Das Studium solcher Räume und ihrer Topologien bildet den natürlichen Hintergrund für vieles, was in diesem Buch folgt, insbesondere für die Dualität (Kapitel IV) und die Spektraltheorie (Anhang). zur wichtigen Klasse der nuklearen Räume.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-1468-7_4 e8cde515f1ee40cee2442894418a6e32;de;;;5.3.;;;Regelmäßige Halbgruppen In diesem Kapitel charakterisieren wir eine reguläre Halbgruppe, eine vollständig reguläre Halbgruppe, eine intrareguläre Halbgruppe und eine halbeinfache Halbgruppe im Sinne von Fuzzy-Idealen. Wir untersuchen auch Arten von Fuzzy-Regular-Untergruppen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-37125-0_3 e025509bf885f8cf1384c9f7a886901f;de;;;5.3.;;;Numerische Analyse zur Interpretation von Feldmessungen in der Geomechanik Numerische Analysen wie die Finite-Elemente-Methode (FEM) und die Boundary-Elemente-Methode (BEM) sind leistungsfähige Werkzeuge zur Analyse des mechanischen Verhaltens von Strukturen. Im Bereich der Geotechnik ist es jedoch äußerst schwierig, die mechanischen Eigenschaften von Böden/Gesteinen, Vorspannung, Grundwasserstand, Durchlässigkeit etc., die als Eingangsdaten für die Analysen benötigt werden, quantitativ zu bestimmen. Diese Schwierigkeit ist hauptsächlich auf die komplexen und inhomogenen geologischen Bedingungen des Bodens zurückzuführen. Es überrascht nicht, dass die Materialeigenschaften von Ort zu Ort variieren, obwohl Boden-/Felsformationen identisch zu sein scheinen. Daher ist es nicht ungewöhnlich, dass das reale Verhalten von Bauwerken wie Tunneln, unterirdischen Kavernen und geschnittenen Böschungen auch nach sorgfältiger Untersuchung von den vorhergesagten abweicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-2832-9_7 ddb9fa696f60d0386fb347128191fa97;de;;;5.3.;;;Statik, Kräftesysteme, Hydrostatik In der Kinematik wird die Bewegungsgeometrie ohne Berücksichtigung der Quellen der Verformung oder Beschleunigung untersucht. Aus Beobachtungen wird geschlossen, dass die treibende Kraft jeder Änderung des Bewegungszustandes eine Kraft ist. Somit wird der Kraftbegriff zunächst heuristisch eingeführt, und spätere physikalische Definitionen von Kraft sind gegeben durch;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-0805-1_2 e29d1cbacd587005db380dfa92d6d738;de;;;2.4.;;;Syphilis-, Hepatitis-A- und Hepatitis-B-Seromarker bei homosexuellen Männern Zweihundert homosexuelle Männer wurden auf Prävalenzraten von Syphilis, Hepatitis A (HAV) und Hepatitis B (HBV) untersucht. Ein reaktiver Treponema pallidum Hämagglutinationstest (TPHA) wurde bei 56,3% der Teilnehmer gefunden. Bei 81,7 % wurden HBV-Scromarker nachgewiesen. In 6,6% war das Hepatitis-B-Oberflächenantigen (HBsAg) vorhanden. Anti-HAV wurde bei 51,0 % gefunden. Risikofaktoren für den Erwerb dieser Infektionen werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF01711856 f023102600dbbdacfe17e8d04454f946;de;;;2.4.;;;Biomechanischer Vergleich zweier winkelstabiler Plattenkonstruktionen zur periprothetischen Femurfrakturfixation Frakturen des Oberschenkelknochens, die mit einer totalen Hüftarthroplastik verbunden sind, sind ein bedeutendes Problem in der Orthopädie und Unfallchirurgie. Über die unterschiedlichen biomechanischen Eigenschaften von Osteosynthesesystemen in Kombination mit periprothetischen Frakturen ist jedoch wenig bekannt. In dieser Studie werden zwei neue interne Fixationssysteme für periprothetische Frakturen anhand eines Leichenfrakturmodells untersucht, das eine periprothetische Femurfraktur Vancouver B1 simuliert.;-;-;-;https://link.springer.com/article/10.1007/s00264-013-2113-0 0ed9788a34ef0c7203f3ee6798921251;de;;;5.3.;;;Der Wasserdurchfluss in den Blättern einer Unterwasserpflanze wird durch die apikale Öffnung beeinflusst Untergetauchte höhere Wasserpflanzen halten den akropetalen Wassertransport zu den jungen Blättern im aktiven Wachstum aufrecht, um ihren Bedarf an Nährstoffen und Hormonen aus den Wurzeln zu decken. Wir präsentieren hier die ersten Messungen der hydraulischen Eigenschaften einer Unterwasserpflanze, der Monokotyledone;-;-;-;https://link.springer.com/article/10.1007/s004250050101 cb58741e7b0a85005f0012fe1afc2750;de;;;2.4.;;;Simulation:Modellierung der Interaktion zwischen Roboter und Umgebung In diesem Kapitel wird die Beziehung zwischen der Interaktion eines realen Roboters mit seiner Umgebung und einem numerischen Modell (einer Simulation) dieser Interaktion diskutiert. Eine Fallstudie stellt eine Methode vor, um eine High-Fidelity-Simulation eines bestimmten Roboters zu erreichen, der mit einer bestimmten Umgebung interagiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0025-6_7 324e75e4e7a9719ddf18fd03da7bcd86;de;;;5.3.;;;Verdichtungen, A-Verdichtungen und Proximitäten Ein Funktor S aus der Kategorie RegσFrm von regulären σ-Rahmen bis zur Kategorie DLat von distributiven Gittern wird definiert. Der Begriff des AP-Teilgitters von S(α) für α ∈ ¦RegσFrm¦ wird eingeführt und gezeigt, dass für jeden Alexandroff-Raum (X, α) die geordnete Menge aller (bis auf Äquivalenz) A-Verdichtungen von (X, α) isomorph zur Menge aller AP-Untergitter von S(α) geordnet nach Inklusion. Dies gibt insbesondere eine Beschreibung der geordneten Menge von z-Verdichtungen eines T;-;-;-;https://link.springer.com/article/10.1007/BF01759350 74c96c3d78e5bd9d6b1e741351a48731;de;;;5.3.;;;Singularitäten nicht glatter Lösungen für quasilineare parabolische und hyperbolische Gleichungen Das Ziel dieses Kapitels ist es, die wichtigsten Begriffe für die Konstruktion lokalisierter asymptotischer Lösungen für quasilineare parabolische Gleichungen mit einem kleinen Parameter an den Ableitungen einzuführen (dh Lösungen, die die Gleichungen bis zu ausreichend glatten Funktionen erfüllen, die mit ausreichend großer Potenz gegen Null streben eines kleinen Parameters).;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-0409-8_4 9ef7fab5e5e9cf3d814f21e7c3fd6636;de;;;5.3.;;;Mathematische Grundlagen der Beweistheorie Argumentationsschemata in der künstlichen Intelligenz (und anderswo) verwenden Informationen und Wissen, aber die Schlussfolgerung kann von Annahmen abhängen, die unsicher sind. In diesem Fall lassen sich Argumente für und gegen Hypothesen ableiten. Diese Argumente können nach ihrer Wahrscheinlichkeit gewichtet und dadurch die Glaubwürdigkeit und Plausibilität verschiedener möglicher Hypothesen gewonnen werden. Dies ist, kurz gesagt, die Idee, die in diesem Artikel untersucht und entwickelt werden soll.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-1424-8_3 c68799cc8ba36050bf5f0dd75c6b0ba5;de;;;5.3.;;;Spektren in erweiterten Gittern Wenn die Zahl der wechselwirkenden Spins sehr groß wird, betreten wir den Bereich der erweiterten Wechselwirkungen. Diese können in ein-, zwei- und dreidimensionalen Räumen sowie in Räumen mit fraktalen Dimensionen mit nahezu unendlich vielen Variationsmöglichkeiten auftreten. Historisch betrachtet wurden zunächst dreidimensionale Festkörper behandelt, während die niederdimensionalen Gitter erst in den letzten Jahren interessant geworden sind. Im Folgenden werden wir zuerst den dreidimensionalen Fall behandeln, der in einigen Aspekten weniger kompliziert ist als die niederdimensionalen Fälle, und wir werden letzteren erst behandeln, nachdem ersterer vollständig berücksichtigt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-74599-7_6 ec89b45c45396c32e8070c6e238f978c;de;;;5.3.;;;Anwendungen multivariater Spline-Funktionen in der Finite-Elemente-Methode und CAGD Mit der Entwicklung des Computers gibt es breitere Anwendungen von multivariaten Splines in Finite-Elemente-Methoden und computergestützten geometrischen Designs. Bei Finite-Elemente-Methoden können wir multivariate Splines verwenden, um verschiedene Modellfunktionen zu konstruieren, während wir multivariate Splines verwenden können, um verschiedene glatte Oberflächen in CAGD zu konstruieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-2378-7_7 920c4fd89b52d8a21264b61b056accba;de;;;5.3.;;;Internationale Migration In den letzten drei Jahrzehnten des 20. Jahrhunderts gab es ein bedeutendes Wiederaufleben der internationalen Migration. Am Ende des Jahrhunderts lebten etwa 175 Millionen Menschen – oder fast drei Prozent der Weltbevölkerung – in einem Land, in dem sie nicht geboren wurden. Fast 9 Prozent der Bevölkerung in Deutschland, 11 Prozent in Frankreich oder Schweden, 12 Prozent in den USA, 19 Prozent in Kanada, 23 Prozent in Neuseeland und 25 Prozent in der Schweiz sind im Ausland geboren ( Vereinte Nationen, 2002). Diese beträchtlichen Arbeitskräfteströme veränderten die wirtschaftlichen Möglichkeiten für Arbeitnehmer sowohl in den Entsende- als auch in den Aufnahmeländern und führten zu einer heftigen Debatte über die wirtschaftlichen Auswirkungen der Einwanderung und über die Arten der Einwanderungspolitik, die die Aufnahmeländer verfolgen sollten.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-1-349-58802-2_827 cca6b92b75e668b638a19f296c4fc77d;de;;;5.3.;;;Einige makroökonomische Auswirkungen der demografischen Trends in Italien Demografischen Projektionen zufolge wird die Bevölkerung in den meisten Industrieländern tendenziell abnehmen und eine deutliche Alterung aufweisen. Der Rückgang der Geburtenziffern in Verbindung mit einer ständig steigenden Lebenserwartung wird in den nächsten Jahrzehnten zu einem Rückgang der Gesamtbevölkerung und einem deutlichen Anstieg der Zahl der älteren Menschen sowohl absolut als auch relativ führen. Es ist zu erwarten, dass dieses Phänomen erhebliche makroökonomische Effekte mit sich bringt, die hauptsächlich aus den Veränderungen der Ersparnisse, des Arbeitsangebots, der Staatsausgaben und der Einnahmen resultieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-22925-3_5 fd2d94e4d5769367836bfb67f711488a;de;;;5.3.;;;Landsenkungen – B. Ein regionales mathematisches Modell für Landsenkungen durch Pumpen Auf der Grundlage der Arbeiten von Biot und Verruijt zur Konsolidierung wird ein regionales mathematisches Modell für Bodensenkungen und horizontale Verschiebungen durch Pumpen aus einem Grundwasserleiter entwickelt. Das regionale mathematische Modell wird durch Integrieren der Gleichungen, die die Bodenverformung in einem dreidimensionalen Raum über die Dicke des Grundwasserleiters beschreiben, unter der Annahme von Bedingungen einer ebenen Gesamtspannung erhalten. Diese Gleichungen beinhalten eine Kopplung zwischen den Gleichgewichtsgleichungen des porösen Mediums und denen der Massenerhaltung. Das resultierende Modell liefert sowohl die Verdichtung des Grundwasserleiters als auch die horizontalen Verschiebungen als Funktionen von Raumkoordinaten und der Zeit für begrenzte, undichte und phreatische Grundwasserleiter.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-6175-3_9 ba03bae5ffdef15e5d1e652b0106e7e3;de;;;5.3.;;;Räume abdecken Die Riemannschen Flächen haben ihren Ursprung in der komplexen Analysis als Mittel zur Behandlung des Problems mehrwertiger Funktionen. Solche mehrwertigen Funktionen treten auf, weil die analytische Fortsetzung eines gegebenen holomorphen Funktionselements entlang verschiedener Pfade im Allgemeinen zu verschiedenen Zweigen dieser Funktion führt. Es war die Idee von Riemann, den Funktionsbereich durch eine vielschichtige Überdeckung der komplexen Ebene zu ersetzen. Wenn die Überdeckung so konstruiert ist, dass sie über einem beliebigen Punkt der Ebene so viele Punkte hat, wie es dort Funktionselemente gibt, dann wird auf dieser „überdeckenden Fläche“ die analytische Funktion einwertig. Wenn wir nun die Tatsache vergessen, dass diese Flächen über die komplexe Ebene (oder die Riemannsche Kugel) „ausgebreitet“ sind, erhalten wir den Begriff einer abstrakten Riemannschen Fläche und diese können als der natürliche Definitionsbereich analytischer Funktionen in einem Komplex betrachtet werden considered Variable.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-5961-9_1 ba51b5fa1a08d9a7ded3e3e773129400;de;;;5.3.;;;Automatisches Lightweight des BIM-Modells Derzeit wird der Einsatz von BIM im chinesischen Schienenverkehr mit Nachdruck vorangetrieben. Aufgrund der großen Menge des von BIM entworfenen Revit-Modells für den Schienenverkehr ist es jedoch unmöglich, die BIM-Entwurfsergebnisse auf der Website zu durchsuchen, was die Anwendung von BIM einschränkt. Daher untersucht und schlägt dieses Papier die Architektur des automatischen Leichtbaus von BIM-Modellen vor, die die Anwendung von BIM realisiert. Benutzer können das BIM-Entwurfsergebnismodell ins Web hochladen, und der Server hellt das BIM-Modell automatisch auf, und die Verarbeitungsergebnisse können im Web durchsucht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-74814-2_120 94e4919bdb748621adc27f8f66f01004;de;;;5.3.;;;Holographie und Bildverarbeitung Wir beginnen dieses Kapitel mit einfachen Argumenten, um die Holographie zu beschreiben und so wichtige Aspekte der Holographie wie Bildposition, Auflösung und Wellenlängenänderung zu behandeln. Unter dem Oberbegriff Optische Verarbeitung schließen wir die Abbesche Theorie des Mikroskops, die räumliche Filterung, die Phasenkontrastmikroskopie und die angepasste Filterung, kurz die sogenannte Fourier-Transformationsoptik, ein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-02697-7_7 b5b089b79df5b7e1ebefccd7f7c924c9;de;;;5.3.;;;Morsetheorie über Grassmann-Mannigfaltigkeiten In diesem Kapitel zeigen wir, wie Botts perfekte Morsefunktionen (in Beispiel 3.7) Beispiele für eine allgemeinere Klasse von Morse-Smale-Funktionen sind, die auf den komplexen Grassmann-Mannigfaltigkeiten definiert sind. Die Morse-Smale-Funktionen,;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-2696-6_8 3230a694112accc36ccbc484dee33729;de;;;5.3.;;;Aspekte des Optimierungsprozesses in der Praxis Gelegentlich schreibt ein Strukturanalytiker ein Entwurfsprogramm, das die Berechnung der strukturellen Antwort sowie die Implementierung eines eingeschränkten Optimierungsalgorithmus umfasst, wie er in Kapitel 5 beschrieben wurde. Häufiger jedoch verfügt der Analyst über ein Strukturanalysepaket, B. ein Finite-Elemente-Programm, sowie eine ihm zur Verfügung stehende Optimierungssoftware. Die Aufgabe des Analytikers besteht darin, beides so zu kombinieren, dass sie auf das von ihm zu lösende Tragwerksentwurfsproblem angewendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-2550-5_6 39f8d59de7ef45e51301529c06f5f993;de;;;5.3.;;;Beugung einer schrägen Stoßwelle Lighthill (1949) hat die Beugung eines ebenen Stoßes betrachtet, der sich parallel zu einer Wand ausbreitet und auf eine Kante trifft, an der sich die Wand um einen kleinen Winkel dreht. Das analoge Problem für einen ebenen Stoß, der zusammen mit dem reflektierten Stoß auf die Wand auftrifft, wurde von Srivastava und Ballabh (1955), Srivastava (1968) und Srivastava und Chopra (1970) betrachtet. Im Fall von Lighthill ist der relative Abfluss des normalen Stoßes immer Unterschall, aber im Fall einer schrägen Stoßwelle kann der relative Abfluss des reflektierten Stoßes Unterschall, Schall oder Überschall sein. Im schrägen Fall sind daher drei Fälle zu berücksichtigen. Bevor man den reflektierten gebeugten Stoß betrachtet, wäre es notwendig, den Zwischenbereich zwischen den einfallenden und reflektierten Stoßwellen zu betrachten.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-1086-0_4 174b5bc2f324d2b067991f7c9d888e5c;de;;;5.3.;;;Wahrscheinlichkeitskonzepte Die Wahrscheinlichkeitstheorie hat ihre eigene Terminologie, die aus ihrem intuitiven Hintergrund hervorgegangen und direkt damit verbunden und an sie angepasst ist, denn die Konzepte und Probleme der Wahrscheinlichkeitstheorie werden aus der Analyse von Zufallsphänomenen geboren und entwickeln sich mit ihr. Als Teilgebiet der Mathematik nimmt die Wahrscheinlichkeitstheorie jedoch an der gesamten Domäne der Mathematik teil und trägt dazu bei, und gegenwärtig ist ihr allgemeiner Aufbau in Form von Maßräumen und messbaren Funktionen ausdrückbar. Im Folgenden geben wir eine erste Tabelle der Entsprechungen zwischen den Wahrscheinlichkeits- und Maßtheorietermen. In Klammern stehen die Abkürzungen, die in diesem Buch verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-9464-8_4 0ba99073c47fa4300817284b80004acb;de;;;5.3.;;;Fourier-Transformationsmethoden und partielle Differentialgleichungen zweiter Ordnung Integrale Transformationsverfahren haben sich bei der Lösung von Anfangs- und Randwertproblemen in der Theorie partieller Differentialgleichungen als sehr nützlich erwiesen. Das allgemeine Verfahren besteht darin, eine gegebene partielle Differentialgleichung mit einer unbekannten Funktion in eine Gleichung mit der Transformation dieser Funktion umzuwandeln. Diese transformierte Gleichung wird dann gelöst und eine geeignete inverse Formel wird angewendet, um die Lösung in Bezug auf den ursprünglichen Funktionsraum zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-7448-9_8 bc1808f9bdeaf5227786c7fe9a1e4737;de;;;5.3.;;;Schubspannung an der Basis einer Lithosphärenplatte Dieses Papier ist eine Übersicht über die theoretischen und Beobachtungsergebnisse, die sich auf die Größe der Schubspannung beziehen, die auf die Basis einer lithosphärischen Platte einwirkt. Schätzungen auf der Grundlage der Viskosität des oberen Mantels liefern keine brauchbaren Grenzen. Argumente, die auf der thermischen Stabilität des oberen Mantels beruhen, deuten darauf hin, dass die basale Schubspannung nicht größer als einige Balken ist. Eine indirekte Messung der Rheologie und der Schubspannung kann durch Untersuchung der Spannungs- und Verschiebungsdiffusion nach einem großen Entkopplungsbeben erfolgen. Bei Anwendung auf das Erdbeben von Rat Island von 1965 ergibt diese Methode eine Grundschubspannung von etwa 2 bar. Diese Ergebnisse weisen darauf hin, dass bei kleinen Platten die durch die basale Schubspannung erzeugten Kräfte im Vergleich zu den an den Plattengrenzen wirkenden Kräften wahrscheinlich gering sind. In erster Näherung wirken die kleineren Platten so, als wären sie vom darunter liegenden Mantel entkoppelt. Diese Spannungsabschätzungen führen zu einem Modell, bei dem die Bewegung der kleineren Lithosphärenplatten fast vollständig von den Kräften bestimmt wird, die auf ihre Kanten wirken. Kräfte aufgrund von basalen Schubspannungen können mit Kräften vergleichbar sein, die auf die Kanten großer lithosphärischer Platten wirken. Daher ist eine vollständige Entkopplung für solche Platten möglicherweise keine gute Näherung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-5745-1_27 e2fe0875f87a9c5776abda480c993d72;de;;;5.3.;;;Quantenmaße und Zustände auf jordanischen Algebren Ein Problem von Mackey für von Neumann-Algebren wurde durch die Verbindung der frühen Arbeiten von Gleason und den jüngsten Fortschritten von Christensen und Yeadon gelöst. Wir zeigen, dass die Vermutung von Mackey in viel größerer Allgemeinheit gilt. Lassen;-;-;-;https://link.springer.com/article/10.1007/BF01220507 373e5222e69362e2953e00c53cf259a1;de;;;5.3.;;;Interaktion, Kognition und Visualisierung Im Oxford English Dictionary (1990) bedeutet Visualisierung „... ein mentales Bild von etwas Unsichtbarem oder Präsentem oder von einem abstrakten Ding zu bilden...“.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-9437-9_1 5f86720a69809cc45c3ba5790ffc1693;de;;;2.4.;;;Nicht-kodierende RNAs: das neue zentrale Dogma der Krebsbiologie Das zentrale Dogma der Molekularbiologie besagt, dass sich die Funktionen der RNA um die Proteintranslation drehen. Bis zum letzten Jahrzehnt waren die meisten Forschungen auf die Charakterisierung von RNAs als Vermittler bei der Proteintranslation ausgerichtet, nämlich Boten-RNAs (mRNAs) als temporäre Kopien der genetischen Information, ribosomale RNAs (rRNAs) als Hauptbestandteil von Ribosomen oder Übersetzer von Codonsequenzen (tRNAs). Die statistische Realität ist jedoch, dass diese Prozesse weniger als 2% des Genoms ausmachen und die Funktionalität von 98% der transkribierten RNAs nur unzureichend erklären. Jüngste Entdeckungen haben Tausende von einzigartigen nicht-kodierenden RNAs (ncRNAs) enthüllt und ihre Wahrnehmung von „Junk“-Transkriptionsprodukten zu „noch aufzuklärenden“ – und potenziell monumental wichtigen – RNAs verändert. Die meisten ncRNAs sind heute als Schlüsselregulatoren in verschiedenen Netzwerken bekannt, in denen sie zu spezifischen zellulären Reaktionen und Schicksalen führen könnten. Bei großen Krebsarten wurden ncRNAs sowohl als onkogene Treiber als auch als Tumorsuppressoren identifiziert, was auf ein komplexes regulatorisches Netzwerk zwischen diesen ncRNAs hinweist. Hier bieten wir einen umfassenden Überblick über die verschiedenen ncRNAs und ihre funktionelle Rolle bei Krebs sowie die präklinische und klinische Entwicklung von ncRNA-basierten Therapeutika. Ein tieferes Verständnis von ncRNAs könnte ein besseres Design personalisierter Therapeutika ermöglichen.;-;-;-;https://link.springer.com/article/10.1007/s11427-020-1700-9 7bbf51f14db98ce8a46caebda3671e95;de;;;5.3.;;;Zur Sicherheit der Mehrfachverschlüsselung oder In einem praktischen System wird eine Nachricht oft mehr als einmal durch verschiedene Verschlüsselungen, hier Mehrfachverschlüsselung genannt, verschlüsselt, um ihre Sicherheit zu erhöhen. Außerdem können neue Merkmale durch mehrfaches Verschlüsseln einer Nachricht erreicht werden, wie beispielsweise die schlüsselisolierten Kryptosysteme und anonyme Kanäle. Intuitiv sollte eine Mehrfachverschlüsselung „sicher“ bleiben, wenn es eine unknackbare Komponentenchiffre gibt. Im neuesten NESSIE-Portfolio empfohlener kryptografischer Primitive (Feb. 2003) wird empfohlen, mehrere Verschlüsselungen mit Komponentenchiffren basierend auf unterschiedlichen Annahmen zu verwenden, um langfristige Sicherheit zu erreichen. In diesem Papier zeigen wir jedoch, dass dies einer sorgfältigen Diskussion bedarf, insbesondere, dass dies möglicherweise;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24632-9_26 eeeb20845d67c472da8ebe1844dc6183;de;;;5.3.;;;Anwendungen der Sätze A und B In diesem Kapitel geben wir einige der bedeutenden klassischen Anwendungen der Theoreme A und B. Zusammen mit den Cousin-Problemen und dem Poincaré-Problem führen wir eine detaillierte Diskussion der Stein-Algebren durch. Wir beschäftigen uns auch ziemlich stark mit dem Problem der Topologisierung des Moduls von Abschnitten;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-4357-9_7 0377cd7f493f799f41d54a3d64847ae3;de;;;5.3.;;;Magnetosphären Ein planetarischer magnetischer Dipol wirkt als Hindernis für die Überschallströmung des Sonnenwinds. Stromaufwärts, am Bug dieses Hindernisses, entwickelt sich eine Stoßwelle, am Heck entsteht ein Kielwasser, das sich bis zu einer sehr großen Entfernung stromabwärts erstreckt. Sonnenwindpartikel können den magnetischen Dipolhohlraum durchdringen und durch die Polarregionen die Ionosphäre erreichen. Diese komplexe Wechselwirkung ist sehr variabel: Aufgrund des sich ändernden Winkels zwischen der magnetischen Achse und dem Sonnenwind gibt es einen jahreszeitlichen Effekt, das interplanetare Magnetfeld kann seine Richtung umkehren und eine Wiederverbindung der Kraftlinien auslösen, was zu großen magnetosphärischen Störungen führt, solar, Aktivität erzeugt Böen im Wind. Die Untersuchung planetarischer Magnetosphären basiert hauptsächlich auf Raumfahrzeugmessungen, die In-situ-Instrumente, Funkausbreitung und aktive Experimente verwenden, die den Zustand des Plasmas beeinflussen. In diesem Kapitel werden drei Themen mit besonderem Bezug auf die Erde zur näheren Erörterung ausgewählt: die Bewegung von Teilchen in einem intensiven Magnetfeld in der Leitzentrumsnäherung und ihr Einfangen in der Magnetosphäre, der stromaufwärts liegende Bugstoß, der die Sonnen ablenkt Wind an den Seiten und Alfvén-Wellen, eine Verallgemeinerung akustischer Wellen. Die Magnetosphären anderer planetarer Körper werden im letzten Abschnitt besprochen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0233-2_10 1c99f9d6b1966f88817db6878011cab5;de;;;5.3.;;;Jenseits von CFT: Deformierte Virasoro und elliptische Algebren In diesem Vortrag diskutieren wir „Beyond CFT“ aus Symmetriesicht. Nach der Betrachtung der Virasoro-Algebra stellen wir die deformierten Virasoro-Algebren und die elliptischen Algebren vor. Diese Algebren erscheinen in auflösbaren Gittermodellen und wir untersuchen sie mit dem Freifeld-Ansatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-3671-7_5 53b722b33c8f44c48b392862ac7ed577;de;;;5.3.;;;Unbegrenzte Operatoren Viele Probleme in der Analysis führen unwiderruflich zu unbeschränkten Operatoren. Es genügt, den Differentialprozess für frühe Begegnungen zu erwähnen und als Zweig der Funktionalanalysis die Theorie der partiellen Differentialgleichungen (der letzte Showdown). Dieses Kapitel behandelt bei weitem nicht die Theorie der unbegrenzten Operatoren (und eine gute Entschuldigung wäre, dass es keine Theorie gibt, sondern nur unzählige Beispiele). Ein kleiner Bereich dieses riesigen Territoriums – der sich mit einem einzigen unbeschränkten, selbstadjungierten (oder vielleicht normalen) Operator in einem Hilbert-Raum befasst – kann jedoch durch die Spektraltheorie beschränkter Operatoren kultiviert werden, und dies schlagen wir vor in einigen Einzelheiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-1007-8_5 5fc9c64b1bf468b85e8e14c64fa24881;de;;;5.3.;;;Viskose Eigenschaften von Flüssigkeiten Wenn sich Flüssigkeiten durch ein System bewegen, kann eine von zwei verschiedenen Arten von Flüssigkeitsströmungen auftreten. Die Tatsache, dass es zwei deutlich unterschiedliche Arten von Flüssigkeitsströmungen gibt, können wir uns am einfachsten anhand eines Experiments von Reynolds aus dem Jahr 1883 vorstellen die Strömung des Wassers. Bei ausreichend kleinen Wassergeschwindigkeiten fließt der Farbstoff in parallelen, geraden Linien. Wenn die Geschwindigkeit erhöht wird, wird ein Punkt erreicht, an dem die gesamte Wassermasse gefärbt wird. Anders ausgedrückt fließen hypothetische einzelne Flüssigkeitsteilchen, anstatt auf geordnete Weise parallel zur Längsachse des Rohrs zu fließen, in unregelmäßiger Weise, um eine vollständige Vermischung des Farbstoffs und des Wassers zu bewirken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48090-9_1 acc3e0655e8f1125e3adf5a50d97ff6f;de;;;2.4.;;;Einfangen und Nachweis von Ionen, die in einem Elektrospray-Ionisations-Fourier-Transformations-Ionen-Zyklotron-Resonanz-Massenspektrometer mit hohem Magnetfeld erzeugt werden Die Einfang- und Detektionsparameter, die mit einem Fourier-Transformation-Ionen-Zyklotron-Resonanz-(FTICR)-Massenspektrometer verwendet werden, das an eine Elektrospray-Ionisation mit hohem Magnetfeld (ES11-Quelle) angeschlossen ist, werden vorgestellt. ES1 tritt bei Atmosphärendruck in einem 1,5-T-Feld auf, und die FTICR-Detektion erfolgt 25 cm entfernt bei 3,0 T in einer von zwei Zellen, die durch eine Leitfähigkeitsgrenze getrennt sind und bei Druckdifferenzen von 5 × 10;-;-;-;https://link.springer.com/article/10.1016/1044-0305%2892%2985002-2 832164584966d64ca32b3ef8e26f80ae;de;;;2.4.;;;Diagnose von Epilepsie bei Menschen mit geistiger Behinderung Die Diagnose von Epilepsie und epileptischen Anfällen umfasst ein breites Spektrum unterschiedlicher Aspekte mit potenzieller therapeutischer Relevanz. In vielen Fällen muss der Frage Vorrang eingeräumt werden, ob ein paroxysmales Ereignis einer epileptischen Erkrankung zugeordnet oder als nicht pileptisches Ereignis klassifiziert werden kann. Eine ausführliche Anamnese, klinische Überwachung der betreffenden Anfälle und EEG-Aufzeichnungen sind die entscheidenden diagnostischen Schritte, um psychogene nicht-pileptische Anfälle und anderes kurzzeitiges nicht-pileptisches Verhalten unterschiedlicher Ursachen zu unterscheiden. Aus einer gründlichen Anamnese und Beobachtung können wichtige Informationen zu Risikoprävention und therapeutischen Maßnahmen gewonnen werden. Genetische und MRT-Untersuchungen ermöglichen eine ätiologische bzw. syndromale Zuordnung, und in Einzelfällen kann die Bildgebung in dieser Population noch chirurgisch behebbare Läsionen aufdecken. Jeder in diesem Kapitel beschriebene klinische und instrumentelle diagnostische Schritt erfordert einen erheblichen Zeit- und Geduldsaufwand in der Kommunikation mit den Betroffenen und ihren Betreuern, zudem können viele Untersuchungen nur unter Sedierung durchgeführt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-39144-1_4 1d94df6b1541477950cf6276d44b497d;de;;;5.3.;;;Codieren eines beliebigen Zustands in einem [7,1,3]-Quantenfehlerkorrekturcode Wir berechnen die Genauigkeit, mit der ein beliebiger Zustand in einen [7, 1, 3] Calderbank-Shor-Steane-Quantenfehlerkorrekturcode in einer nicht äquivalenten Pauli-Operatorfehlerumgebung codiert werden kann, mit dem Ziel festzustellen, ob diese Codierung verwendet werden kann für praktische Implementierungen der Quantenberechnung. Die Bestimmung der Verwendbarkeit wird durch Anwenden einer idealen Fehlerkorrektur auf den kodierten Zustand erreicht, die die Korrigierbarkeit von Fehlern demonstriert, die während des Kodierprozesses aufgetreten sind. Wir wenden auch Single-Qubit-Clifford-Gatter auf den kodierten Zustand an und bestimmen die Genauigkeit, mit der diese Gatter implementiert werden können. Schließlich wird eine fehlertolerante verrauschte Fehlerkorrektur auf die codierten Zustände angewendet, was uns erlaubt, verrauschte (realistische) und perfekte Fehlerkorrekturimplementierungen zu vergleichen. Wir finden, dass die Codierung für die Zustände verwendbar ist;-;-;-;https://link.springer.com/article/10.1007/s11128-012-0414-7 943b71aac8ea94c4ac026ef73a14a780;de;;;2.4.;;;Perspektiven zum Stand der Insektentransgenen Die genetische Transformation ist eine kritische Komponente für die grundlegende genetische Analyse von Insektenarten und ist vielversprechend für die Etablierung von Stämmen, die die Populationskontrolle und das Verhalten für die praktische Anwendung verbessern. Dies gilt insbesondere für Insekten, die Krankheitsüberträger sind, von denen viele derzeit einer Genomsequenzanalyse und intensiven Maßnahmen zur Populationskontrolle unterzogen werden, die für eine bessere Wirksamkeit und Kosteneffizienz verbessert werden müssen. Transposon-vermittelte Keimbahntransformation war das ultimative Ziel der meisten grundlegenden und praktischen Studien, und bei der jüngsten Entwicklung von transgenen Vektor- und Markersystemen für mehrere Mückenarten wurden beeindruckende Fortschritte erzielt. Dies hat zu schnellen Fortschritten in der funktionellen Genomsequenzanalyse und zu neuen Strategien für die biologische Kontrolle auf der Grundlage der bedingten Letalität geführt. Wichtig ist, dass wir auch Fortschritte in unserer Fähigkeit gemacht haben, diese Systeme im Hinblick auf verbesserte Stabilität und Ausrichtung auf spezifische Genom-Loci effektiver zu nutzen. Nichtsdestotrotz sind derzeit nicht alle Insekten für Keimbahntransformationstechniken zugänglich, und daher waren Fortschritte bei der transienten somatischen Expression und Paratransgenese ebenfalls kritisch, wenn nicht sogar für einige Anwendungen vorzuziehen. Von besonderer Bedeutung ist die praktische Anwendung dieser Technologie. Frühe Ideen für einen Populationsersatz von einheimischen Schädlingen durch harmlose transgene Geschwister durch Transposon-Vektor-Verbreitung erfordern möglicherweise eine Neubewertung im Hinblick auf unser derzeitiges Wissen über das Verhalten von Transposons, die derzeit für die Transformation verfügbar sind. Die wirksame Umsetzung eines Kontrollprogramms, das freigesetzte transgene Stoffe verwendet, wird auch davon profitieren, die Perspektive dieser Kontrollmaßnahmen als eher Mainstream als exotisch zu erweitern.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-78225-6_1 5f854560ae0f23597e6db8278003b89e;de;;;5.3.;;;Ein „Inhaltsverhalten“-Lernermodell für ein adaptives Lernsystem Das Lernermodell in adaptiven Lernsystemen spielt eine wichtige Rolle. Die Studie zielt darauf ab, die Hauptmerkmale und Komponenten während der Beschäftigung von Schülern mit dem Online-Lernsystem zu untersuchen, und schlägt ein „Inhaltsverhalten“-Lernermodell vor, das auf der Kombination des Lernverhaltens der Schüler mit dem Verständnisgrad für Konzepte basiert. Insbesondere sollte das Lernermodell den Schülern offen stehen, um sie in ihren Lernprozess einzusehen. Darüber hinaus können sie das Lernportfolio von Peers überprüfen und dann ihr Lernen reflektieren. Das Ergebnis dieser Studie soll einige Anregungen für die Forschung im Bereich des adaptiven eLearning in Online-Lernumgebungen geben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09339-0_47 673c753135c6efdffdf688ddbb46f198;de;;;2.4.;;;Myosine im Zellkern Obwohl ursprünglich als zytoplasmatisches Protein charakterisiert, erfüllt Myosin verschiedener Klassen auch Schlüsselfunktionen im Zellkern. Wir überprüfen die Daten bezüglich der Kernlokalisation, des Eintrittsmechanismus und der funktionellen Wechselwirkungen von Myosin I, II, V, VI, X, XVI und XVIII. Bis heute ist das zuerst charakterisierte „nukleare Myosin I“ (oder in der vorherrschenden Nomenklatur Myosin IC Isoform B) das am besten untersuchte nukleäre Myosin, obwohl sich schnell Ergebnisse häufen, die die Rolle anderer Myosinklassen beleuchten, und ein Überblick eines einheitlichen Bildes der Myosinfunktionen im Zellkern zeichnet sich ab. Entsprechend dem Wissensstand auf diesem Gebiet konzentriert sich die Übersicht auf die Mechanismen, die den Import von Myosin IC in den Zellkern vermitteln und regulieren, und auf seine Rolle neben Myosin V und VI bei der Transkription. Myosinfunktionen in der Chromatindynamik, epigenetischen Mechanismen, intranuklearer Motilität und dem nuklearen Export von RNA und Protein werden ebenfalls behandelt. Partner und Regulatoren von Myosin, wie nukleäres Aktin, Kinasen und Phosphatasen, werden kurz behandelt. Es werden Problemfelder identifiziert und überprüfbare Hypothesen angeboten, mit dem Ziel, die Forschungsanstrengungen auf die Überwindung der Lücken auf dem Weg zu einem systemnahen Verständnis der Prozesse rund um Kernmyosine und ihrer Stellung in der Zellphysiologie insgesamt zu fokussieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-38062-5_10 c56869582798c5ee9686cff9660c42a1;de;;;2.4.;;;Ein einzelner Bruch: Erzeugung, Charakterisierung Dieses Kapitel ist den geometrischen Eigenschaften eines einzelnen Bruchs gewidmet, wobei der Schwerpunkt auf den konzeptionellen Werkzeugen liegt, die zur Charakterisierung und Simulation eines realen Bruchs verwendet werden, und mit dem Ziel, seine Transporteigenschaften vorherzusagen. In der Regel ist der Blickwinkel mikroskopisch. Die Fraktur soll sich im Allgemeinen unbegrenzt erstrecken und ihre lokalen Eigenschaften werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1599-7_4 6eabffa2d9e0a2832f42a3d02a05966a;de;;;2.4.;;;Adaptive Evolution von Hefe unter Hitzestress und genetische Rekonstruktion zur Erzeugung thermotoleranter Hefe ist ein Mikroorganismus, der häufig für die Bioproduktion von nützlichen Substanzen, einschließlich Ethanol, verwendet wird. Während der Bioproduktion sind Hefezellen jedoch verschiedenen Belastungen ausgesetzt. Insbesondere die Bioproduktion durch Fermentation erzeugt Wärme, was zu verringerten Zellwachstums- und Fermentationsraten führt. Die Verbesserung der Thermotoleranz von Hefe kann dazu beitragen, die Stoffwechselaktivität und die Effizienz der Bioproduktion bei hohen Temperaturen aufrechtzuerhalten. In diesem Kapitel beschreiben wir die Verbesserung der Thermotoleranz bei Hefe durch schrittweise adaptive Evolution unter Hitzestress. Die Anpassungsstrategie, bei der die Zellen unter zwei selektiven Drücken (Hitzestress und Wachstumsrate) selektiert wurden, verbesserte die Thermotoleranz bei gleichbleibender Wachstumsrate. Durch diese Anpassungsstrategie wurde ein thermotoleranter Hefestamm, YK60-1, nach Anpassung an 38 °C erfolgreich isoliert. Transkriptom- und nicht zielgerichtete Metabolomanalysen zeigten, dass YK60-1 stressreaktive Gene induzierte und mehr Trehalose akkumulierte als der Wildtyp-Elternstamm. Darüber hinaus ergab eine vergleichende genomische Analyse der Zwischenpopulationen nach Anpassung an jede erhöhte Temperatur Schlüsselmutationen zur Verbesserung der Thermotoleranz in den;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-95954-2_2 c3d676ccfc6fe4f08d9d0bcb589c9918;de;;;2.4.;;;Subjektive Vertrautheit mit englischen Wort-/Namenshomophonen Die subjektive Vertrautheit von 40 Homophonpaaren wurde untersucht. Die Homophone bestanden aus einsilbigen englischen Wörtern (bei einer Lesung) und männlichen Vornamen (bei der anderen) – zum Beispiel:;-;-;-;https://link.springer.com/article/10.3758/BF03204656 7ac1eecf6f51db5fd076bd4a0a97504c;de;;;5.3.;;;Home Care Webservice-Evaluierung durch Stresstests Die Entwicklung von Softwareanwendungen führt zu einer vollständigen Anwendung oder Lösung. Die letzte Phase des Entwicklungsprozesses ist das abschließende Testen der entwickelten Lösung. Das Ziel unseres Beitrags hat sich auf dieses Problem im Fall von Webdiensten konzentriert. Die entwickelte Prüfapplikation kann für beliebige andere Softwarelösungen mit Webservice-Schnittstelle verwendet werden. Die entwickelte Testumgebung inklusive der für den Stresstest entwickelten Applikation basiert auf der Microsoft .NET Framework Technologie. Unsere Stresstest-Anwendung ermöglicht das Testen ausgewählter Problembereiche, um eventuelle Einschränkungen zu finden, bevor die getestete Entwicklungslösung beim Kunden eingerichtet wird. Mit Hilfe unserer Testapplikation wurde die Hardwarelösung für den Server auf Basis der ausgewählten Homecare-Agenturen ausgewählt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22729-5_20 ef23d0a784689b9a5c6468f9877d54fa;de;;;5.3.;;;Dynamischer Algorithmus zur Auswahl von Diensten in der Zusammensetzung von Webdiensten, der die Zusammenarbeit zwischen Unternehmen unterstützt Basierend auf dem Mangel an Zeitkonvergenz und Variabilität der Webdienstauswahl für die Dienstzusammensetzung, die die unternehmensübergreifende Zusammenarbeit unterstützt, wurde ein Algorithmus QCDSS (QoS-Beschränkungen der dynamischen Webdienstauswahl) vorgeschlagen, um die dynamische Webdienstauswahl mit dem globalen optimalen QoS-Pfad aufzulösen. Die Essenz des Algorithmus bestand darin, dass das Problem der dynamischen Auswahl von Webdiensten mit dem globalen optimalen QoS-Pfad in ein Optimierungsproblem der Zusammensetzung von Diensten mit mehreren Zielen mit QoS-Beschränkungen umgewandelt wurde. Die Operationen der Kreuzung und Mutation im genetischen Algorithmus wurden in PSOA (Particle Swarm Optimization Algorithm) eingebracht, wodurch ein verbesserter Algorithmus (IPSOA) gebildet wurde, um das globale QoS-Optimalproblem zu lösen. Theoretische Analysen und experimentelle Ergebnisse zeigen, dass der Algorithmus die Zeitkonvergenzanforderung für die Zusammensetzung von Web-Services zur Unterstützung der unternehmensübergreifenden Zusammenarbeit besser erfüllen kann als die herkömmlichen Algorithmen.;-;-;-;https://link.springer.com/article/10.1007/s11771-009-0046-y fb07dba32ff04d29f0e16c7f791a42fd;de;;;2.4.;;;Wissenschaftliche und betriebliche Konsequenzen nichtkonventioneller Modellversuche in Tiefseebecken Dieser Artikel soll an mehrere lebhafte Studien erinnern, die in den letzten zehn Jahren bei MARIN, LabOceano und LOC durchgeführt wurden. Folgende Erfahrungen sind zu behandeln: die Machbarkeit und Installation des BSR (Booy to Support Risers), die Machbarkeit und Funktionsfähigkeit des PIM (Pendulous Installation Method) und die Richtungsstabilität des Torpedoankers beim Start. Das Papier beschreibt die Modellversuche, die Eigenschaften jedes Systems und mehrere wissenschaftliche Errungenschaften und tatsächliche Installationen im Maßstab;-;-;-;https://link.springer.com/article/10.1007/BF03449286 8cd783495bbcda29854f85f692062cd2;de;;;2.4.;;;Der Einfluss landwirtschaftlicher Praktiken auf die Entwicklung von einheimischen arbuskulären Mykorrhizapilzen. II. Studien zu experimentellen Mikrokosmen Zwei Gewächshausexperimente wurden durchgeführt, um die Entwicklung und metabolische Aktivität von Mykorrhiza zu untersuchen, die von Isolaten von arbuskulären Mykorrhizapilzen (AMF) aus drei verschiedenen Gattungen gebildet werden.;-;-;-;https://link.springer.com/article/10.1023/A%3A1014911318284 d6b05f7a437e3551df077224d7fc25fd;de;;;2.4.;;;Charakterisierung des Oxidationsverhaltens von Zirkoniumdiborid-Kompositen bei über 2000°C Da die Höchsttemperatur für die meisten herkömmlichen Prüfsysteme auf unter 2000°C begrenzt ist, wurde eine Vorrichtung zum Testen von Verbundwerkstoffen auf Zirkoniumdiboridbasis, den Schlüsselelementen der Ultrahochtemperaturkeramik, gebaut und basierend auf einer schnellen Jouleschen Erwärmung in der Ultrahochtemperatur Bereich (über 2000 °C). Eine neuartige Methode wurde eingeführt, um die Echtzeit-Temperaturverteilung entlang der Länge einer bandförmigen Probe (ZrB;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48141-8_16 128c69b2ccc9845f3f5646c7eed8e195;de;;;2.4.;;;Darstellungen, Diagramme und Visualisierungen von Raum und Ort Benutzern steht eine große Auswahl an Artefakten zur Verfügung, um ein besseres Verständnis der Geographie zu erlangen. Sie sind großzügig mit Karten, Diagrammen, Bildern und Visualisierungen ausgestattet, die auf Papier ausgegeben, auf dem Bildschirm betrachtet oder als interaktives Produkt manipuliert werden können. Im Allgemeinen wurden diese Produkte in der Vergangenheit von einem Designer/Produzenten vor der tatsächlichen Verwendung erstellt. Seit relativ kurzer Zeit sind jedoch über das Web 2.0 „selbstgenerierende“ Karten möglich. Diese haben wenig oder gar keine Kartographeneingaben und werden aus Daten generiert, die von Sensoren erfasst und bereitgestellt werden, Mobiltelefondaten und Satellitenbildern. Sie bieten unmittelbare geografische Visualisierungen für „verkabelte“ Kartenbenutzer.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19143-5_5 99c60f3e198c803f5a8a919a94b73cd1;de;;;2.4.;;;Identifizierung und molekulare Charakterisierung von HOS15-wechselwirkenden Proteinen in Die Chromatinmodifikation ist ein Schlüsselmechanismus der Genexpression in Eukaryoten und beinhaltet Wechselwirkungen zwischen mehreren Proteinen. Kürzlich berichteten wir, dass HOS15, ein auf Cullin basierender E3-Ligase-Rezeptor, am Chromatin-Remodeling beteiligt ist und die Genexpression und Kältetoleranz in;-;-;-;https://link.springer.com/article/10.1007/s12374-018-0313-2 30c3fd34ad8113dc6275e61abecfa041;de;;;5.3.;;;Zur Messung der Kosten des Wandels adaptiver Hypermedia-Systeme Da sich Anwendungen im Laufe der Zeit weiterentwickeln, wird es immer wünschenswerter, ein System anpassen zu können, um es in die Lage zu versetzen, Situationen auf unterschiedliche Weise zu handhaben und neue Situationen zu handhaben. Wir bezeichnen dies als Flexibilität und Wartbarkeit eines Systems. Diese Funktionen sind kostenpflichtig. Wir argumentieren hier, dass sie ein wichtiger Aspekt der Bewertung sind und dass wir diese Kosten messen müssen. Um einen Überblick darüber zu bekommen, wie man diese Aspekte eines Systems (oder eines Ansatzes) bewerten könnte, wandten wir uns unserem eigenen Ansatz zum Erstellen von AH-Anwendungen zu und entwarfen eine spezielle Studie, die es uns ermöglichte, diese Probleme zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/11768012_29 50a7baa7557958ff1cc96a29bc2dd3a0;de;;;5.3.;;;Bewertung der Aufmerksamkeitsstufen in einem Tetris-Spiel mit einem Gehirn-Computer-Interface In diesem Artikel wird die Möglichkeit untersucht, Informationen aus Gehirnsignalen zu verwenden, die über ein leichtes und kostengünstiges Brain Computer Interface (BCI) gewonnen wurden, um den Schwierigkeitsgrad eines Lernvideospiels dynamisch anzupassen und den Schwierigkeitsgrad an die Fähigkeiten der Spieler anzupassen. In diesem Experiment wurde das Aufmerksamkeitsniveau von Tetris-Spielern – gemessen mit dem BCI – als Funktion der Spielschwierigkeit bewertet. Die Verarbeitung der Daten ergab, dass sowohl in der Intra- als auch in der Interplayer-Analyse einem Anstieg der Spielschwierigkeit ein Anstieg der Aufmerksamkeit folgte. Diese Ergebnisse stimmen mit ähnlichen Experimenten überein, die mit einer 19-Sensor-EEG-Kappe im Gegensatz zu dem hier verwendeten Einzel-Trockensensor-BCI durchgeführt wurden. Diese Erkenntnisse eröffnen neue Möglichkeiten in der Entwicklung von Lernspielen, die sich an den mentalen Zustand des Spielers/Lerners anpassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38844-6_11 35ead6894b6b3f0a33764f40a1ff310c;de;;;5.3.;;;Vergleichen und Kombinieren von Augenblick- und Schnittstellenaktionen zur Bestimmung des Benutzerlernens mit einer interaktiven Simulation Dieses Papier präsentiert eine experimentelle Auswertung von Blickdaten als Quelle für die Modellierung des Lernens von Benutzern in interaktiven Simulationen (IS). Wir vergleichen die Leistung von Klassifikator-Benutzermodellen, die nur auf Blickdaten trainiert wurden, mit Modellen, die nur auf Schnittstellenaktionen trainiert wurden, mit Modellen, die auf der Kombination dieser beiden Quellen von Benutzerinteraktionsdaten trainiert wurden. Unser langfristiges Ziel ist es, Benutzermodelle zu entwickeln, die eine adaptive Unterstützung für Schüler auslösen können, die aufgrund der oft unstrukturierten und offenen Natur dieser Umgebungen nicht gut mit ISs lernen. Die Testumgebung für unsere Arbeit ist das CSP-Applet, ein IS für Constraint Satisfaction Problems (CSP). Unsere Ergebnisse zeigen, dass die Einbeziehung von Blickdaten als zusätzliche Informationsquelle in das Benutzermodell des CSP-Applets die Modellgenauigkeit im Vergleich zur alleinigen Verwendung von Schnittstellenaktionen oder Blickdaten erheblich verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38844-6_18 77bf045a5af57bb470db0bf70231e6c5;de;;;5.3.;;;Die VOLARE-Methodik: Mithilfe von Technologie das traditionelle Vorlesungsmodell ändern Wir beschreiben die VOLARE-Methodik („Video On Line As Replacement of old tEaching practices“), deren Ziel es ist, traditionellen Lehrern zu helfen, vom Frontalunterrichtsmodell zu einer pädagogisch fundierteren und effektiveren Strategie zu wechseln. Der Schlüssel der Methodik liegt darin, die Vorteile der heutigen innovativen Technologie zu nutzen, um den Lehrer von der Pflicht der „Wissenspräsentation“ zu entlasten. Der Lehrer kann somit alle Anstrengungen auf einen partizipativen und interaktiven Austausch mit den Schülern richten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13166-0_20 a860a9e151331bda451862d5c1fb528a;de;;;2.4.;;;Der Zusammenhang zwischen Offenlegung, Not und Versagen Die Qualität der Offenlegung von Unternehmen hat vom Kongress und der SEC immer mehr Kritik auf sich gezogen. Ein besonders intensiver Betrachtungs- und Handlungsgegenstand ist das Management's Discussion and Analysis (MD&A). Diese Darstellung, die eine Insider-Perspektive auf die berichteten Ergebnisse des Unternehmens bieten soll, ist besonders wichtig, wenn versucht wird, die Investitionsaussichten des marginalen oder schlecht abschneidenden Unternehmens zu bewerten. Manager können jedoch den Informationsgehalt der Offenlegung einschränken, was potenzielle Bedenken hinsichtlich des ethischen Verhaltens aufkommen lässt. In dieser Studie verwenden wir ein proprietäres Instrument, um die Qualität der MD&A-Offenlegung für eine Stichprobe von Unternehmen zu messen, die in eine finanzielle Notlage geraten. Wir bewerten das Offenlegungsverhalten dieser Firmen, um festzustellen, ob Änderungen der Offenlegung in erster Linie durch wirtschaftliche oder ethische Bedenken motiviert zu sein scheinen. Wir stellen im Durchschnitt fest, dass Unternehmen die Offenlegungsqualität im Jahr der anfänglichen Notlage erhöhen. Eine nachhaltige Steigerung der Offenlegungsqualität ist jedoch auf Unternehmen beschränkt, die sich anschließend von der Notlage erholen. Die Ergebnisse deuten darauf hin, dass beobachtete Änderungen bei der Offenlegung in erster Linie von wirtschaftlichen und nicht von ethischen Erwägungen getrieben werden, insbesondere in wirtschaftlich guten Zeiten.;-;-;-;https://link.springer.com/article/10.1007/s10551-006-9254-7 5d44e6c1da04d51b411e856df54c92ba;de;;;2.4.;;;Analyse von Vakuumschmelz-, Ultraschall- und Röntgentechniken zur Bewertung der Gasporosität in Druckgussteilen Teile, die im Druckgussverfahren hergestellt werden, können erhebliche Einschränkungen aufweisen, hauptsächlich aufgrund der Tendenz, dass beim Befüllen des Formhohlraums Luft eingeschlossen wird. Die Erkennung und genaue Messung der Porosität aufgrund von Lufteinschlüssen sind wesentliche Aspekte zur Verbesserung der Qualität der gefertigten Teile. Dieser Artikel konzentriert sich auf einen Vergleich von Röntgen-, Ultraschall- und Vakuumschmelztechniken zur Analyse des Porositätsgrads aufgrund von Lufteinschlüssen in Teilen, die mit Druckgussverfahren hergestellt wurden. Dazu werden in einer horizontalen Kaltkammer-Druckgussmaschine mit unterschiedlichen Einspritzgeschwindigkeiten und Formkonfigurationen hergestellte Aluminiumlegierungsteile analysiert. Für die Röntgen- und Ultraschalltechniken wird eine Methodik zur Bestimmung des Porositätsgrads des Teils erstellt, während für die Vakuumschmelztechnik ein Testverfahren erstellt und ein Ausdruck erhalten wird, um die im Teil eingeschlossene Gasmenge mit in Beziehung zu setzen die Druckerhöhungen, die beim Schmelzen des Teils in einem Vakuumofen gemessen werden. Die Vorteile und Grenzen dieser Techniken zur Bewertung von Porositätsgraden in Druckgussteilen werden im Detail diskutiert. Schließlich werden die Möglichkeiten der Verwendung dieser Techniken zur Auswahl von Betriebsbedingungen analysiert, die die Menge an eingeschlossener Luft während der Füllphase reduzieren.;-;-;-;https://link.springer.com/article/10.1007/s00170-012-4519-z 40a97858bb9c4203899f0f769329eabc;de;;;2.4.;;;Nachweis der Allgemeinen Relativitätstheorie: starke Felder und Gravitationswellen Zur Zeit der Geburt der Allgemeinen Relativitätstheorie (GR) war die experimentelle Bestätigung fast eine Nebensache. Einstein berechnete zwar beobachtbare Effekte der Allgemeinen Relativitätstheorie, wie die Ablenkung des Lichts, die getestet wurden, aber verglichen mit der inneren Konsistenz und Eleganz der Theorie betrachtete er solche empirischen Fragen als fast peripher. Aber heute ist die experimentelle Gravitation ein wichtiger Bestandteil des Feldes, gekennzeichnet durch anhaltende Bemühungen, die Vorhersagen der Theorie zu testen, nach Gravitationsabdrücken hochenergetischer Teilchenwechselwirkungen zu suchen und Gravitationswellen aus astronomischen Quellen zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0320-9_16 1758190ba2741a79b858a1ecf586e4ad;de;;;5.3.;;;Ungefähre Effizienz und skalare Stationarität in unbegrenzten, nicht glatten konvexen Vektoroptimierungsproblemen Wir beschäftigen uns mit erweiterten, nicht glatten konvexen Vektoroptimierungsproblemen in unendlichdimensionalen Räumen, in denen die Lösungsmenge (die schwach effiziente Menge) leer sein kann. Wir charakterisieren die Klasse der konvexen Vektorfunktionen mit der Eigenschaft, dass jede skalarstationäre Folge eine schwach effiziente Folge ist. Wir verallgemeinern die von Auslender und Crouzeix im skalaren Fall erzielten Ergebnisse über asymptotisch gut verhaltene konvexe Funktionen und verbessern die wenigen bekannten Ergebnisse im Vektorfall wesentlich.;-;-;-;https://link.springer.com/article/10.1023/A%3A1004695229456 3122c57361e06ee3bfadc83ba0b9b7e5;de;;;5.3.;;;Transformationen der Burnett-Komponenten von Transportbeziehungen in Gasen Die bekannten Ausdrücke für die Burnett-Komponenten des Spannungstensors und des Wärmeflussvektors in einem einatomigen Gas werden in eine effektivere Form umgewandelt. Die größten Vereinfachungen ergeben sich für den Spannungstensor, wenn man die üblicherweise verwendeten Näherungswerte der Burnett-Transportkoeffizienten verwendet, die für das Gas aus Maxwellschen Molekülen exakt sind.;-;-;-;https://link.springer.com/article/10.1134/S0015462814010165 39e38b1466d7f9963d8c029a87b37097;de;;;5.3.;;;Numerische Simulationen von Sonic Booms in ungleichförmigen Strömungen Überschallknalle können basierend auf einer kleinen Störpotentialformulierung simuliert werden, die zu einer nichtlinearen gemischten Gleichung ähnlich der transsonischen Strömungen führt [1]. Numerische Ergebnisse nach dem Murman-Schema sind in [2] für 2-D- und 3-D-Probleme angegeben. In der vorliegenden Arbeit werden die maßgeblichen Gleichungen als ein System von Gleichungen erster Ordnung in Bezug auf die Geschwindigkeitskomponenten geschrieben. Das resultierende System ist eine verallgemeinerte Form der Cauchy/Riemann-Gleichungen mit der Vorticity als Antriebsfunktion. Unter Verwendung der Crocco-Beziehung kann die Vorticity mit den Gradienten der Entropie und der Gesamtenthalpie im Allgemeinen in Beziehung gesetzt werden. Für einige Anwendungen kann die Entropievariation vernachlässigt werden und das isentropische Strömungsmodell ist auch bei variabler Gesamtenthalpie ausreichend.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-59334-5_93 5988c86d46b0bc3805fe92f9b3463a4f;de;;;2.4.;;;Übertragung von Sonnenstrahlung in natürliche Gewässer Physikalische und biologische Messungen in aquatischen Umgebungen werden mit der Verbesserung von Instrumenten und experimentellen Techniken immer genauer und präziser. Diese verbesserten Messungen gehen Hand in Hand mit einer zunehmend quantitativen Beschreibung des Zusammenhangs zwischen Sonnenstrahlung, den optischen Eigenschaften natürlicher Gewässer und aquatischen Photoprozessen (z. B. Bannister, 1974, Kiefer und Austin, 1974, Morel und Smith, 1974, Patten, 1968). Da der Mensch sich seiner eigenen, oft nachteiligen Auswirkungen auf die aquatische Umwelt zunehmend bewusst wird, gewinnen die Techniken der optischen Ozeanographie als Mittel zur schnellen und genauen Bewertung dieser Umwelt zunehmend an Bedeutung (z. 1974, Smith;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-2574-1_3 213e13ec41deed76a78b87fe76e12802;de;;;5.3.;;;Feuchtigkeitstransport bestimmter Körper mit volumetrischer Feuchtigkeitsaufnahme Eine analytische Lösung eines Randproblems dritter Art, des Feuchtigkeitstransports für Körper in Form einer unendlichen Platte und eines unendlichen Zylinders, wird auf der Grundlage der verallgemeinerten Gleichung der Feuchtigkeitsleitung von A. V. Luikov [1] angegeben.;-;-;-;https://link.springer.com/article/10.1007/BF00829151 f320daf712a8153b137c0550f3308764;de;;;5.3.;;;Implementieren von Stick-Ons für Tabellenkalkulationen Tabellenkalkulationssysteme waren ursprünglich für den individuellen Gebrauch gedacht. Die kollaborative Nutzung impliziert, dass ein lokaler Versionierungsmechanismus vorhanden sein sollte. Als solches wird vorgeschlagen, ein modifiziertes Stick-On zu verwenden. Dies bedeutet, sie so zu definieren, dass sie mit der Vielzahl von Datentypen umgehen, die Tabellenzellen zugeordnet werden können. Das vorgeschlagene Design umfasst eine Hierarchie dieser neuen Stick-Ons, einen Feldabhängigkeitsgraphen und einen Peer-Referencing-Mechanismus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30112-7_17 95687827d9233df740e852ac27105fa5;de;;;2.4.;;;Die Diagnose und Behandlung von Syphilis bei HIV-infizierten Patienten In den 1980er Jahren stieg die Zahl der Syphilisfälle in den Vereinigten Staaten gleichzeitig mit dem Ausbruch der HIV-Epidemie. Innerhalb kurzer Zeit bemerkten Kliniker ungewöhnliche Symptome von Syphilis und unangemessene Reaktionen auf die Standardtherapie der Syphilis bei doppelt infizierten Patienten. Ob diese Fälle zusammengenommen einen neuen Aspekt der Naturgeschichte der Syphilis darstellten, bleibt zu klären. In den letzten Jahren haben sich nur wenige prospektive Studien mit diesem Thema befasst, und die Ergebnisse dieser Studien waren nicht eindeutig.;-;-;-;https://link.springer.com/article/10.1007/s11908-000-0081-1 4aaeea8c054140302c99360f513d646c;de;;;2.4.;;;Elektronische Tags in der Meeresfischereiforschung: Seit etwa 30 Jahren werden Fernerkundungstechnologien eingesetzt, um das Verhalten und die Bewegungen von Fischen im Meer zu untersuchen. Die ersten relativ einfachen Geräte haben zu einer Reihe hochentwickelter Werkzeuge geführt, die ein ganz neues Gebiet der Fischereiwissenschaft hervorgebracht haben. Die älteste Methode, die akustische Telemetrie, ist mittlerweile so weit fortgeschritten, dass wir detailliertes Verhalten im Feld in Bezug auf die unmittelbare Umgebung untersuchen und physiologische Variablen überwachen sowie größere Bewegungsmuster dokumentieren können. Archiv-Tags, die seit 7–8 Jahren verfügbar sind, bieten ein leistungsstarkes Werkzeug, um detaillierte Informationen zu einer Reihe von Variablen für eine große Anzahl einzelner Fische über lange Zeiträume zu erhalten. Ihre Haupteinschränkung besteht darin, dass sie wiederhergestellt werden müssen, um die Daten zu erhalten. Die neueste Entwicklung, das Pop-Up-Satelliten-Tag, erfordert keine Wiederherstellung und kann somit an jedem Fisch ausreichender Größe verwendet werden. Diese Art von Tag ist völlig unabhängig von der Fischerei und eignet sich ideal für die Untersuchung großer, weit wandernder Fische und erweitert den Umfang der zu behandelnden Fragen dramatisch. Das Tempo der technischen Entwicklung wird sich in den nächsten Jahrzehnten zweifellos weiter beschleunigen und neue Werkzeuge hervorbringen, von denen zu erwarten ist, dass sie viele derzeit unbeantwortete Fragen in der Fischereibiologie lösen werden. Lösungen für diese Fragen sollen zu einer verbesserten Bewirtschaftung der Meere und ihrer lebenden Ressourcen beitragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1402-0_2 46a0173734ee9c69bc45b233eb40c647;de;;;2.4.;;;Mechanismen der Zellzyklusregulation durch TGF-β, die bei Krebs deaktiviert sind Die Deaktivierung des TGF-β-Signalwegs ist ein weit verbreitetes Mittel, mit dem Karzinomzellen die normalerweise starke wachstumshemmende Wirkung von TGF-β unterlaufen, um das Wachstum von Krebszellen zu ermöglichen. Wir haben gezeigt, dass eine gestörte TGF-β-Signalgebung, die mit dem Verlust der Wachstumshemmung durch TGF-β einhergeht, früh in der endometrialen Karzinogenese auftritt. Als ein Effektor des Zellzyklusarrests hemmt TGF-β die Synthese bestimmter Cyclin/cdks und induziert direkt cdk-Inhibitoren (CDKI), wie p15;-;-;-;https://link.springer.com/chapter/10.1007/978-1-59745-292-2_14 a211953f560de0546bb841d146066e12;de;;;5.3.;;;Silikonbeschichtete Metallstents (eine In-vitro-Evaluierung für Biofilmbildung und Durchgängigkeit) Selbstexpandierende Metallstents werden häufiger verwendet, um eine Obstruktion der Gallenwege zu verhindern. Silikonbeschichtete selbstexpandierende Metallstents (Wallstent, Schneider, Inc.) wurden entwickelt, um das Einwachsen von Tumoren zu verhindern. Biofilmbildung und Okklusionsmaterial in silikonbeschichteten selbstexpandierenden Metallstents im Vergleich zu Standard-Polyethylenstents wurden in einem in vitro-Modell untersucht. Passende Paare von Polyethylen- und silikonbeschichteten Metallstents wurden mit infizierter Galle 8, 12 und 16 Wochen mit einer Geschwindigkeit von 0,5 cc/min bei 37ºC perfundiert. Zwei Reservoirs, die mit silikonbeschichteten Metallstents ausgestattet waren, wurden mit Ampicillin/Sulbactam versetzt und 16 Wochen lang perfundiert. Die Stents wurden dann durch Rasterelektronenmikroskopie und Lichtmikroskopie auf Biofilmbildung und das Vorhandensein von Okklusionsmaterial analysiert. Die zwei mit Ampicillin/Sulbactam behandelten Stents zeigten keine Biofilmbildung. Auf allen verbleibenden Stents war Biofilm zu sehen. Es gab einen Unterschied in der Okklusionsdicke zwischen den 8- und 16-Wochen-Polyethylenstents und keinen Unterschied zwischen der Biofilmdicke nach 8, 12 oder 16 Wochen bei den silikonbeschichteten Metallstents. Silikonbeschichtete selbstexpandierende Metallstents werden wahrscheinlich die Durchgängigkeit bei malignem obstruktivem Ikterus verlängern, indem sie ein größeres Lumen für den Gallenfluss bereitstellen und zyklische Antibiotika zur Verhinderung der bakteriellen Biofilmbildung erlauben.;-;-;-;https://link.springer.com/article/10.1023/A%3A1018826202753 61aa9a11b6516caa4d1a8fd1d01b622c;de;;;5.3.;;;Riemannsche Funktionen für ein hyperbolisches System in drei unabhängigen Variablen Es werden Funktionen definiert, die es ermöglichen, die Lösung eines speziellen hyperbolischen Systems als Quadratur seiner Anfangsdaten über der Anfangsfläche auszudrücken.;-;-;-;https://link.springer.com/article/10.1007/BF02771595 c7bb34b7294a5613956e18a5501764e8;de;;;5.3.;;;Rotation und potentielle Vorticity Bei Bewegungen, deren Zeitskalen in der Größenordnung eines Tages oder darüber liegen, oder genauer gesagt, wenn die Frequenz der Wellenbewegung in der Größenordnung des Coriolis-Parameters oder darunter liegt, können die Auswirkungen der Erdrotation nicht mehr ignoriert werden. Solche Wellen sind sowohl in ozeanischen als auch in atmosphärischen Beobachtungsspektren offensichtlich. Abbildung 11.1 aus dem Artikel von Garrett und Munk (1979) zeigt ein Leistungsspektrum der vertikalen Verschiebung einer Isotherme. Wir sehen eine große Varianz bei Frequenzen unter;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-05131-3_11 16422e88441d9ac9a18ca2fbff2de10d;de;;;5.3.;;;Füllen von polygonalen Löchern mit rechteckigen Patches Die geometrische Modellierung von Oberflächen in parametrischer Form trifft auf polygonale Löcher, die innerhalb eines Rahmens von rechteckigen Patches auftreten. Es wird eine Technik zum Füllen eines;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-61542-9_6 cce548ce23decbad45c012ee7f495b2d;de;;;5.3.;;;Quantenzustandsmaschinen In diesem Kapitel stellen wir die Quantenzustandsmaschine [80,119] vor. Die Quantenzustandsmaschine ist eine Erweiterung klassischer endlicher Automaten, die verwendet wird, um die im Quantencomputing möglichen Berechnungen darzustellen. Quantenzustandsmaschinen führen Amplituden für Übergänge zwischen Zuständen ein, um die verfügbare Parallelität darzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-8366-5_19 3c7cbd70996dbd3956c2d6438d84c9fe;de;;;5.3.;;;Die Navier-Stokes-Gleichungen für dreidimensionale Reaktionsströmungen In den vorangegangenen Kapiteln wurden die Erhaltungsgleichungen für eindimensionale Flammen entwickelt, Lösungsmethoden diskutiert und Ergebnisse präsentiert. In diesem Kapitel werden allgemeine dreidimensionale Erhaltungsgleichungen für Masse, Energie und Impuls abgeleitet, dies sind die Navier-Stokes-Gleichungen für reaktive Strömung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-97668-1_11 2df26333c16ba6648f24e3b0109175a6;de;;;2.4.;;;Die in-vivo-Beziehung zwischen Blutfluss, Kontraktionen, pH-Wert und Metaboliten im Uterus der Ratte Über die Beziehung zwischen der kontraktilen Aktivität der glatten Muskulatur und ihrer Blutversorgung ist wenig bekannt. Wir haben dies deshalb im Rattenuterus mit Laser-Doppler-Flussmessung und intrauterinen Druckaufzeichnungen untersucht. Wir fanden eine inverse lineare Beziehung zwischen Fluss und kontraktiler Aktivität. Es gab keine Hinweise auf ein kritisches Flussniveau, oberhalb dessen die Funktion aufrechterhalten wird und unterhalb dessen sie abnimmt, selbst kleine Verringerungen des Blutflusses verringerten die Gebärmutterkraft. Die Kraft wurde nach der Reperfusion schnell wiederhergestellt. Bis auf 6 der 41 untersuchten Präparate fehlte eine reaktive Hyperämie. Wir verwendeten;-;-;-;https://link.springer.com/article/10.1007/s004240050588 942e58b5d5099d525ad1abad8f2aa9f8;de;;;2.4.;;;Die innere Magnetosphäre: Ein Rückblick Dieser Artikel befasst sich mit Forschungsleistungen ungefähr im Zeitraum 1991-1993 in Bezug auf die innere Magnetosphäre einschließlich der Strahlungsgürtel, der Plasmasphäre und der Ringstromregion. Es befasst sich auch mit Fragen zu Magnetfeldern, elektrischen Strömen und Partikelniederschlagseigenschaften, die sich auf diese Region des solarterrestrischen Systems beziehen. Aktuelle Analysen und Modellierungen von magnetosphärischen Substürmen und geomagnetischen Stürmen, die den inneren Rand der Plasmaschicht beeinflussen, werden diskutiert und die Regionen von der geostationären Umlaufbahn einwärts zur Erde werden im Lichte neuer Beobachtungs- und theoretischer Werkzeuge untersucht.;-;-;-;https://link.springer.com/article/10.1007/BF01044572 ac94c45a6c06892f79ac9de044d894cc;de;;;2.4.;;;Extrasolare Planeten: Techniken, Ergebnisse und die Zukunft Bis heute haben wir keine direkten Bilder von Planeten um andere Sterne erhalten. Die keplersche Bewegung von Sternen mit kleiner Amplitude, vermutlich verursacht durch die Gravitationskräfte der Planeten, liefert nun jedoch Informationen über ihre Massen und Umlaufbahnen. Das erste extrasolare Planetensystem wurde um einen Neutronenstern herum entdeckt, den 6,2-Millisekunden-Pulsar PSR 1257+12 (Wolszczan & Frail 1992, Wolszczan 1998). Seine drei irdischen Massenbegleiter weisen auf die Allgegenwart und Vielfalt der Planetensysteme hin. Das führende Modell für die Entstehung der Pulsarplaneten beinhaltet die Rückgewinnung von Material nach der Supernova, vielleicht von einem bereits existierenden stellaren Begleiter, in eine Akkretionsscheibe. Die Ansammlung von Staubkörnern in den Pulsarplaneten kann durch Prozesse ähnlich der Bildung von felsigen Planetenkernen in unserem Sonnensystem aufgetreten sein. Die Existenz von Pulsarplaneten legt nahe, dass die Planetenbildung robust ist und wenig von spezifischen Scheibeneigenschaften abhängt, solange ausreichend schwere Elemente vorhanden sind (Wolszczan 1998).;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4509-1_20 465426c70b81539ce78aecf35583fa33;de;;;2.4.;;;Reaktive Oxidationsmittelspezies in extrazellulärer Flüssigkeit des Rattenhirns Reaktive Oxidationsmittelspezies (ROS) umfassen freie Sauerstoffradikale, Wasserstoffperoxid, Lipidperoxide und Hydroperoxide, Singulett-Sauerstoff, Sauerstoff-Redox-cycling-Moleküle wie Chinone und Hydrochinone, Hypochlorit und Peroxynitrit (Ames et al., 1989, Ames et al., 1981, Aruoma et al., 1989, Beckman et al., 1990, McCord, 1968, Pryor, 1986, Puppo et al., 1990). ROS tragen während pathophysiologischer Zustände zu Schäden in einer Vielzahl von Geweben bei, einschließlich Verletzungen des Zentralnervensystems, die zu Neuropathologie führen (Kontos, 1989, Siesjo et al., 1989a). Nachweis der Beteiligung von ROS an Gewebeschäden und dem Auftreten;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-9840-4_6 4554b425da1f35b46bec2f069d980d7a;de;;;2.4.;;;Das postoperative Knie 1: Menisken, Kreuzbänder, Knorpel Eine genaue Interpretation des postoperativen Zustands des Kniegelenks kann nicht ohne praktische Kenntnisse der verwendeten chirurgischen Verfahren und Techniken sowie Vertrautheit mit dem erwarteten bildgebenden Erscheinungsbild der reparierten, resezierten oder ersetzten Strukturen erreicht werden. Ein gründliches Verständnis dieser beiden Bereiche ist daher Voraussetzung für die Erkennung und korrekte Interpretation wiederkehrender oder neuer Probleme im postoperativen Knie. Dieses Kapitel konzentriert sich hauptsächlich auf die postoperative Beurteilung des Knies nach Eingriffen an Menisken, Kreuzbändern und Gelenkknorpel.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55912-9_11 199eab6e6600e6ca4d382349cfd1556f;de;;;2.4.;;;Phasenzyklusverfahren in der Mehrpuls-NMR-Spektroskopie von Flüssigkeiten Phasencycling als Schlüsselverfahren in der Mehrpuls-NMR-Spektroskopie. Ein besonderer Ansatz zur Entwicklung von Phasenzyklen wird ausführlich beschrieben und es werden Beispiele für seine Verwendung in einigen gängigen NMR-Experimenten gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-2149-8_8 426e0a46eca18749303a4abdbf45a5a1;de;;;2.4.;;;Phenylketonurie Vor den 1950er Jahren waren die Folgen der Phenylketonurie (PKU) für das Kind katastrophal. Unbehandelte PKU verursacht geistige Behinderung, etwa 96 % der Patienten haben einen IQ unter 60 (Baumeister, 1967, Knox, 1960). Befragungen der Insassen von Anstalten ergaben, dass 1 von 100 Patienten eine PKU hatte (Langdell, 1965). Zusätzlich zur geistigen Behinderung kann der Patient mit PKU an Krampfanfällen und anderen neurologischen Anomalien leiden (Allen & Gibson, 1961, Kang, Kennedy, Gates, Burwash & McKinnon, 1965). Wahrnehmungsmotorische Schwierigkeiten (Hackney, Hanley, Davidson & Lindsao, 1968) und autistisches Verhalten (Lowe, Tanaka, Seashore, Young & Cohen, 1980) wurden ebenfalls berichtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-8551-6_5 f5866faa5bdcf95d5736d6c1b5073ab1;de;;;2.4.;;;Forschung, Konservierung, Restaurierung und Ökotourismus in Nationalparks: Erfahrungen aus Ungarn Sowohl in Mitteleuropa (CE) als auch in Ungarn wirken sich die Veränderungen des politischen und wirtschaftlichen Systems stark auf das System der Schutzgebiete aus. Die zuständigen Verwaltungsbehörden müssen sich schwierigen Situationen stellen und müssen präzisere und angemessenere Antworten für diejenigen geben, die sich in oder um verschiedene Schutzgebiete aufhalten. Internationale Naturschutzorganisationen entwickeln ihre Anforderungssysteme kontinuierlich weiter. Diese Forderungen drängen die CE-Staaten, ihre Naturschutzsysteme weiterzuentwickeln. Der ungarische Naturschutz hat sich Anfang der 90er Jahre dieser Aufgabe angenommen. Die Programme wurden hauptsächlich mit inländischen Mitteln, aber auch mit erheblicher externer finanzieller Unterstützung gestartet. Jedes der Programme trug dazu bei, einen neuen systematischen Ansatz zu schaffen. Grundlegendes Element war ein nach den IUCN-Vorgaben aufgestelltes Forschungsprogramm, genannt: die grundlegende Naturzustandserhebung. Basierend auf den Ergebnissen, insbesondere in Nationalparks, wurde ein Zonierungssystem entwickelt. Parallel zum Zonierungssystem wurde ein PHARE-Projekt durchgeführt, das Vorschläge zur Einführung des Ökotourismus gemäß den im Zonierungssystem festgelegten Vorschriften machte. Darüber hinaus wurden entsprechende Managementpläne und Restaurierungsprojekte dargelegt. Beide Aktivitäten haben einen hohen Forschungsbedarf. Auch heute, wo der wirtschaftliche Aspekt der Naturschutzaktivitäten von entscheidender Bedeutung zu sein scheint, regt die Einführung des Ökotourismus in Nationalparksysteme die Forschung auf einem Gebiet an, das in den klassischen Naturschutzmethoden nicht vorhanden war. Dieser Bereich ist der sozioökonomische Bereich und insbesondere die wirtschaftliche Bewertung von Schutzgebieten. Wenn wir ein Grundprinzip des Naturschutzes berücksichtigen, nämlich die Notwendigkeit der Beteiligung der lokalen Bevölkerung an Naturschutzaktivitäten - insbesondere im dicht besiedelten Europa - dann sind Ökotourismusprojekte zusammen mit ihrem Forschungsbedarf ein solides Instrument, um Parks zu ermöglichen, mehr zu geben Antworten auf den Druck, der auf sie lastet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-60907-7_23 92004e55ebbc2d3d8c43cfd1cb70cdee;de;;;2.4.;;;Veränderungen bei wiederholten Bezügen: Kollaborations- oder Wiederholungseffekte? Nach dem kollaborativen Referenzmodell von Clark & ​​Wilkes-Gibbs führt die Wiederholung einer referentiellen Kommunikationsaufgabe zu Veränderungen in der Herstellung von Referenzen (abnehmende Anzahl von Wörtern und Umdrehungen mit den bestandenen Versuchen, zunehmende Anzahl von eindeutigen Referenzen und von Labels) , und diese Veränderungen werden als das Ergebnis eines kollaborativen Prozesses interpretiert, der auf ein gegenseitiges Verständnis zu den niedrigsten Kosten abzielt. Anhand eines wiederholt referentiellen Paradigmas, aber ohne physisch anwesenden Gesprächspartner, sollte in der vorliegenden Studie die Frage beantwortet werden, ob diese Veränderungen auf die bloße Wiederholung der referentiellen Aufgabe zurückzuführen sind. In einem;-;-;-;https://link.springer.com/article/10.1007/BF01067526 06e45b24d3eea0fdf006516147f1c370;de;;;2.4.;;;Konvolutive blinde Quellentrennung für Audiosignale In dieser Ära sich ständig verbessernder Kommunikationstechnologien haben wir uns daran gewöhnt, uns mit anderen auf der ganzen Welt zu unterhalten. Ein Telefongespräch in Echtzeit beginnt ausnahmslos mit einem Mikrofon oder einem anderen Audioaufnahmegerät. Umgebungsgeräusche können unser Sprachsignal während der Aufzeichnung verfälschen, wodurch es schwieriger wird, es weiter unten auf dem Kommunikationsweg zu verwenden und zu verstehen. Andere Sprecher in der Umgebung fügen dem Gespräch ihre eigenen Hörstörungen hinzu. Jüngste Arbeiten in fortschrittlicher Signalverarbeitung haben zu neuen und vielversprechenden Technologien zur Wiederherstellung von Sprachsignalen geführt, die durch sprachähnliche und andere Arten von Interferenzen verfälscht wurden. Termed;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-6479-1_1 41eaf2f068ab7fdee6016cae34e02735;de;;;2.4.;;;Magnetenzephalogramm zur Eingrenzung der möglichen Orte der Erzeugung stochastischer Resonanz im menschlichen auditiven neuronalen System Wir untersuchten die Phasenkohärenz und die Stärke der akustischen Steady-State-Reaktionen (ASSRs) im Magnetenzephalogramm auf einen anhaltenden sinusförmigen amplitudenmodulierten Ton, der dem linken Ohr der Person präsentiert wurde, während dem rechten Ohr weiße Rauschen verschiedener Intensität präsentiert wurden. Wir untersuchten auch die Kohärenz zwischen den ASSRs der rechten und linken Hörhemisphären. Stochastische Resonanz (SR) wurde in der Phasenkohärenz der ASSR von rechts temporal und im Realteil der Rechts-Links-Kohärenz beobachtet. Die Ergebnisse zeigten, dass die SR in der Phasenkohärenz nicht in der Peripherie, sondern im Zentralnervensystem auftrat und legten nahe, dass es nicht wahrscheinlich auf die Interaktion zwischen der linken und rechten Hörrinde zurückzuführen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23508-5_307 2615db25b32d48fd91849cbbdb5fc6bd;de;;;5.3.;;;Simulierte virtuelle Menschenmengen in Verbindung mit kameraüberwachten Menschen Unser Ziel mit diesem Papier ist es zu zeigen, wie wir eine Gruppe von realen Menschen und eine simulierte Menge virtueller Menschen koppeln können. Wir verbinden Gruppenverhalten mit den simulierten Menschen, um eine plausible Reaktion auf reale Menschen zu erhalten. Wir verwenden ein zweistufiges System: In der ersten Stufe wird eine Gruppe von Personen aus einem Live-Video segmentiert, dann extrahiert ein menschlicher Detektoralgorithmus die Positionen der Personen im Video, die schließlich verwendet werden, um die zweite Stufe, die Simulation, zu füttern System. Die dabei gewonnenen Positionen ermöglichen es dem zweiten Modul, die realen Menschen als Avatare in der Szene darzustellen, während das Verhalten weiterer virtueller Menschen durch eine Simulation auf Basis eines Sozialkraftmodells bestimmt wird. Die Entwicklung der Methode erforderte drei spezifische Beiträge: eine GPU-Implementierung des Codebook-Algorithmus, der ein Hilfscodebook enthält, um die Hintergrundsubtraktion gegen Beleuchtungsänderungen zu verbessern, die Verwendung semantischer lokaler Binärmuster als menschlicher Deskriptor, die Parallelisierung eines Modells sozialer Kräfte, in die wir einen Fall lösen, in dem Agenten miteinander verschmelzen. Die experimentellen Ergebnisse zeigen, wie eine große virtuelle Menschenmenge auf über ein Dutzend Menschen in einer realen Umgebung reagiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25117-2_5 af1ef6a66eb5180feabfffcd781d390e;de;;;2.4.;;;Kinder schizophrener Mütter: Das Forschungsprogramm für die dänische Hochrisikostudie zur Schizophrenie wurde erstmals 1960 formuliert (Mednick, 1960) und 1962 in Kopenhagen operationalisiert. Diese Studie war die erste ihrer Art. Es hat eine Reihe ähnlicher Unternehmen in verschiedenen Teilen der Welt provoziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-8147-8_15 6fef36b4823879121551b1974e09cea7;de;;;5.3.;;;Vereinfachte Erstellung und Präsentation von nichtlinearen adaptiven Inhalten Für das Lernprojekt Atlantis University wurde ein interaktiver, auf Storytelling basierender Service entwickelt. Es bietet Methoden zur Präsentation von benutzeradaptiven nichtlinearen kohärenten Inhalten im Kontext von Extended Blended Learning. Wie bei anderen nichtlinearen Projekten hat es das Problem, dass eine große Menge an Inhalten benötigt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03364-3_30 43b7ae96b08decbe21526fdfcf73ec06;de;;;2.4.;;;und andere menschliche Mykoplasmen Mykoplasmen sind kleine biegsame pleomorphe Bakterien, denen Zellwände fehlen. Sie wurden zuerst pleuropneumonialike organisms (PPLOs) genannt, wegen der Krankheit, die sie bei Rindern verursachten. Wahrscheinlich die erste menschliche Isolierung eines Mykoplasmas;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5327-4_25 e1a2441ee7ba95a50656acc7c1d21d30;de;;;5.3.;;;Robustes und visuelles Echtzeit-Tracking basierend auf einschichtigen Faltungsfunktionen und genauer Skalierung Visuelles Tracking ist ein grundlegendes Problem in der Computer Vision. In letzter Zeit wurden einige Verfahren entwickelt, um aus einem tiefen Faltungsneuralnetzwerk gelernte Merkmale für die visuelle Verfolgung zu nutzen und rekordverdächtige Leistungen zu erzielen. Deep Tracker leiden jedoch unter der Effizienz. In diesem Papier schlagen wir eine Objektverfolgungsmethode vor, die die einschichtigen Faltungsmerkmale mit einem Korrelationsfilter kombiniert, um die Ortung und Beschleunigung zu erreichen. In der Zwischenzeit werden eine genaue Skalenvorhersage und eine hochgradig zuverlässige Modellaktualisierungsstrategie angewendet, um die Probleme mit Skalenvariation und Ähnlichkeitsinterferenz zu lösen. Umfangreiche Experimente an Benchmarks im großen Maßstab demonstrieren die Wirksamkeit des vorgeschlagenen Algorithmus gegenüber modernsten Trackern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1702-6_47 f1de9c2f1797b9f64db92b1726b9c299;de;;;2.4.;;;Management der Unsicherheit bei Umweltproblemen: eine Bewertung technischer Aspekte und politischer Maßnahmen Die Überwachung der Umwelt zum Zwecke der Anordnung, Überprüfung und Vorhersage der für die Lebensqualität extrem wichtigen Umweltvariablen ist eines der fruchtbarsten Forschungsgebiete im heutigen wissenschaftlichen Szenario (Moussiopoulos et al et al., 1997, Power et al., 1997, Jung Kao et al., Cox). Dieses Kapitel soll zeigen, wie innovative Techniken der gemeinhin als „;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0285-8_13 cd5843a8ba56085ec3b3af372f0a8ec0;de;;;2.4.;;;Hydratation von Eizellen bei Knochenfischen Daten zur Hydratation von Eizellen bei Knochenfischen während der Reifung, die durch gonadotrope oder Steroidhormone in vivo und in vitro stimuliert wird, werden überprüft. Die Ursache der Hydratation, ihre Dynamik und einige Mechanismen, die die Aufnahme von Wasser und Ionen durch die Eizelle sicherstellen, werden betrachtet.;-;-;-;https://link.springer.com/article/10.1134/S1062360410010017 e96fbec326364ae3e6f23067e31c2e7c;de;;;2.4.;;;Gesellschaft: Ein multiples China Zwischen 500 und 1000 durchlief die chinesische Gesellschaft einen Prozess der Diversifizierung von relativer Einfachheit zu manifester Komplexität, der sie unter der Herrschaft von Kaiser Hsüan-tsung zur fortschrittlichsten der Welt machte. Einige der Differenzierungen, die sukzessive durch den Sui-T'ang-Aufbau, die Silber-T'ang-Restauration und den Regionalismus der Fünf Dynastien bewirkt wurden, wurden später durch die Sung-Konterrevolution beschnitten oder rehomogenisiert, aber genug überlebte oder wurde in einigen Fällen in den Jahrhundert, um Bilder im Westen Chinas als soziale Utopie zu untermauern: Marco Polos konsumistische Megapolis, Matteo Riccis ethische Meritokratie, François Quesnays bäuerliche Physiokratie. Die Realität war jedoch weitreichender als die Bilder. Die soziale Diversifizierung unter dem T’ang durchdrang die Schnittstelle zwischen Wirtschaft und Gesellschaft, die Matrix gesellschaftlichen Handelns, die Anthropologie der Ehe und der Geschlechterverhältnisse sowie verwandtschaftliche Institutionen, Verbände und Ethnizität. Diese Bestandteile der chinesischen Soziologie werden skizziert, bevor ein Vergleich mit den anderen zivilisierten Zentren Eurasiens im gleichen Zeitraum angestellt wird.;-;-;-;https://link.springer.com/chapter/10.1057/9780230005518_4 4e9c076c4a717251e03d86caf00c1b97;de;;;2.4.;;;Probiotika und Präbiotika – Renaissance eines therapeutischen Prinzips Probiotika sind nicht-pathogene Mikroorganismen, meist menschlichen Ursprungs, die, wenn sie in ausreichender Menge verabreicht werden, dem Wirt einen gesundheitlichen Nutzen bringen und es ermöglichen, bestimmte Krankheiten zu verhindern oder zu verbessern. Probiotika können ein natürlicher temporärer Bestandteil der ansässigen Darmflora sein, ihre Konzentration reicht jedoch für therapeutische Zwecke nicht aus. Die Mikrobiota, das Darmepithel und das Immunsystem der Schleimhäute bilden das gastrointestinale Ökosystem. Alle drei Komponenten sind essentiell für die vollständige Funktions- und Entwicklungsreife des Systems. Die Lebensfähigkeit der Darmflora (einschließlich probiotischer Stämme) erfordert die Verfügbarkeit von Nahrungssubstraten (Präbiotika), d. h. verschiedene Arten von Ballaststoffen und Oligosacchariden. Präbiotika werden durch mikrobielle Enzyme zu zahlreichen Substanzen (kurzkettige Fettsäuren, Aminosäuren, Polyamine, Wachstumsfaktoren, Vitamine und Antioxidantien) gespalten, die für den Stoffwechsel und die Funktionsfähigkeit der Darmschleimhaut unverzichtbar sind. Zu den hauptsächlich verwendeten Probiotika gehören Laktobazillen, Bifidobakterien, einige nicht pathogene Stämme von;-;-;-;https://link.springer.com/article/10.2478/s11536-007-0031-5 d76fbaa873f77e94867c42c8ce4b4c4d;de;;;2.4.;;;Aminosäurebiosynthese in Pflanzen: Annäherung an ein Verständnis auf molekularer Ebene Die für GS und EPSP-Synthase kodierenden Gene wurden bereits kloniert. Klone, die Teile der Gene enthalten, die Aspartataminotransferase und Asparaginsynthetase codieren, wurden vorläufig von diesem und anderen Laboratorien identifiziert. Es ist sicher, dass in naher Zukunft auch viele andere Gene identifiziert werden, die andere wichtige Enzyme kodieren, die an der Aminosäurebiosynthese beteiligt sind.;-;-;-;https://link.springer.com/article/10.1007/BF02669588 507e0ebebac578a6a50b513491a351ef;de;;;2.4.;;;Strömungs- und Wärmeübertragungsmechanismen in Plattenwärmetauschern Der Schwerpunkt dieser Vorlesung liegt auf dem Wärme- und Impulstransport in Platten-Rahmen-Wärmetauschern. Dabei werden insbesondere numerische Verfahren betrachtet und Vergleiche mit experimentellen Daten vorgenommen. Außerdem wird ein kurzer Rückblick auf frühere Untersuchungen gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-9159-1_11 1a8e69acf103647e57747a1be5b0f737;de;;;2.4.;;;Verhalten unter Kontrolle: der bösartige Missbrauch der Neurowissenschaften Erst in den letzten Jahrhunderten wurde der Zusammenhang zwischen Gehirn und Verhalten klar, und erst Ende des 19. Jahrhunderts wurde nachgewiesen, dass das Nervensystem aus Milliarden einzelner Nervenzellen oder Neuronen besteht. Heute wissen wir, dass sich im Laufe der Evolution komplexe Netzwerke solcher Neuronen entwickelt haben, um bestimmte Verhaltensweisen zu bewirken. Während die Neuronen des zentralen, peripheren und autonomen Nervensystems in Form und Funktion enorm variieren, lassen sie sich in drei große Gruppen einteilen: sensorische Neuronen, die Informationen in das zentrale Nervensystem übermitteln, Effektorneuronen, die Informationen aus dem zentralen Nervensystem transportieren zu Muskeln und anderen Effektororganen und Interneuronen innerhalb des Zentralnervensystems, die die sensorischen und Effektorneuronen verbinden und auch miteinander verbunden sind.;-;-;-;https://link.springer.com/chapter/10.1057/9780230503496_5 a64baf2533d67158421640c4d2dce333;de;;;5.3.;;;Virtuelles Sportsystem für optimales Training basierend auf einem Benutzermodell Es wird gesagt, dass die Verbesserung der Bewegungsgewohnheiten wirksam ist, um das Problem der Fettleibigkeit zu lösen. In diesem Papier beschreiben wir ein physisch interaktives Computerspielsystem, das einen Spielmodus steuern kann, damit ein Benutzer eine angemessene Trainingsbelastung basierend auf einer Schätzung des Herzfrequenzzustands des Benutzers aufrechterhält. Wir schlagen ein Bayessches Netzwerkmodell vor, das Herzfrequenzzustände schätzen kann. Das Modell berechnet die Wahrscheinlichkeitsverteilung eines Herzfrequenzzustands unter Verwendung der Bewegungsmerkmale des Benutzers. Wir beschreiben auch eine experimentelle Validierung des Systems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03364-3_34 841a73865e60da36e1bbb8224a41b602;de;;;2.4.;;;Etablierung von Operationen, Kognition und Emotion In diesem Beitrag argumentieren wir, dass Verhaltensanalytiker dazu neigen, wichtige Aspekte des komplexen menschlichen Verhaltens, einschließlich Kognition und Emotion, zu vernachlässigen. Diese relative Vernachlässigung war kostspielig in Bezug auf die Wahrnehmung des Bereichs der Verhaltensanalyse durch die Mainstream-Psychologie und in Bezug auf unsere Fähigkeit, menschliches Verhalten gründlicher zu beschreiben. Beobachtungen und Erkenntnisse aus dem klinischen Kontext werden als Beispiele für Verhaltensweisen angeführt, die sich nicht ohne weiteres durch die Drei-Term-Kontingenz erklären lassen, und wir argumentieren, dass eine angemessene Darstellung dieser Verhaltensweisen Prinzipien aus neueren verhaltensanalytischen Arbeiten beinhalten muss, insbesondere eine bessere a Verständnis der kurz- und langfristigen Auswirkungen von Betriebsgründungen. Das Konzept der Etablierung und seine Implikationen für das Verständnis komplexer menschlicher Verhaltensweisen werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF03391996 bb30f7cd026f062a3b9af16b8645654e;de;;;2.4.;;;Chemischer Austausch in KHSeO Der mikroskopische Mechanismus des Protonentransports in teildeuteriertem Kaliumhydrogenselenat (KHSe) und in teildeuteriertem Ammoniumhydrogenselenat (AHSe) wurde mittels eindimensionaler Fourier-Transformation untersucht;-;-;-;https://link.springer.com/article/10.1007/BF03166774 174aa9b32fe24664c7fe489a45442174;de;;;2.4.;;;Verknüpfungen und Ungleichgewichte In Kapitel 2 haben wir Hirschmans Konzept der Ungleichgewichte und des hochverknüpften industriellen Wachstums untersucht, ohne sein empirisches Analogon zu liefern. Der Hauptzweck dieses Kapitels besteht darin, eine Messung dieser Verknüpfungen bereitzustellen. Für China und Indien werden sowohl die Rückwärts- als auch die Vorwärts-Output- und Beschäftigungsverknüpfungen anhand von Input-Output-Tabellen (I/O) geschätzt (für China wurde die Tabelle für 1981 verwendet,;-;-;-;https://link.springer.com/chapter/10.1057/9780230376908_5 17fdfb52d1d93b59bd335970fd2eae6b;de;;;5.3.;;;Untersuchung der Auswirkungen der visuell-haptischen Registrierungsgenauigkeit in Augmented Reality Bei Augmented-Reality-Systemen (AR) mit visuellen und haptischen Hinweisen ist es wichtig, eine enge Übereinstimmung zwischen den dargebotenen Stimuli beizubehalten, um realistische Umgebungen zu schaffen. Was gefühlt wird, muss mit dem Gesehenen übereinstimmen. Dies ist jedoch eine anspruchsvolle Aufgabe – AR-Systeme weisen von Natur aus Rauschen auf. Dieser Artikel beschreibt eine Studie zur Untersuchung der Auswirkungen von Unterschieden zwischen visuellen und haptischen Hinweisen bei einer Zielerfassungsaufgabe in einer AR-Umgebung. Die Ergebnisse zeigen, dass die Teilnehmer sehr empfindlich auf Diskrepanzen zwischen den Modalitäten reagierten, die Leistung verschlechterte sich mit Registrierungsfehlern von nur 2 mm, was darauf hindeutet, dass dies eine praktische Grenze für AR-Systeme ist. Zukünftige Arbeiten werden untersuchen, wie sich haptische Rendering-Parameter wie Cursorgröße und Steifigkeit auf diese Ergebnisse auswirken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31404-9_15 c8afe4116b5db3ba74b7c2e802d91ac7;de;;;2.4.;;;Genetik phytopathogener Bakterien In der Natur sind die Wechselwirkungen zwischen Pflanzen und Mikroorganismen vielfältig und treten im Boden, in der Rhizosphäre oder im oberirdischen Teil einer Pflanze auf. Diese Wechselwirkungen können in ihrer Wirkung auf die Pflanze ganz unterschiedlich sein. Saprophyten besiedeln die Pflanzenoberfläche ohne nachteiligen Einfluss. Pathogene Bakterien können sich aus solchen harmlosen Saprophyten entwickelt haben, indem sie Pathogenitätsgene erworben haben. Die Produkte solcher Gene verursachen eine bestimmte Krankheit und töten schließlich die Pflanze. Auf der anderen Seite, wie die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-60458-4_17 45c25294ebb1dbbefb6424483423d9bd;de;;;2.4.;;;Eisentoxizität bei Neurodegeneration Eisen ist ein wesentliches Element für das Leben auf der Erde und nimmt an einer Vielzahl von zellulären Prozessen teil, bei denen Ein-Elektronen-Transferreaktionen erforderlich sind. Seine Wesentlichkeit, verbunden mit seiner Knappheit in wässrigen oxidativen Umgebungen, hat lebende Organismen dazu gezwungen, Mechanismen zu entwickeln, die eine ausreichende Eisenversorgung gewährleisten, manchmal unter Vernachlässigung der langfristigen schädlichen Wirkungen, die sich aus der Eisenakkumulation ergeben. Eisen ist jedoch ein intrinsischer Produzent reaktiver Sauerstoffspezies, und erhöhte Eisenspiegel fördern die Neurotoxizität aufgrund der Bildung von Hydroxylradikalen, die zu Glutathionverbrauch, Proteinaggregation, Lipidperoxidation und Nukleinsäuremodifikation führen. Neuronen aus degenerationsempfindlichen Hirnarealen reichern mit zunehmendem Alter Eisen an und sind so einem immer stärker werdenden oxidativen Stress mit begleitender Zellschädigung ausgesetzt. Die Überlebensfähigkeit dieser Neuronen hängt von den adaptiven Mechanismen ab, die entwickelt wurden, um mit der zunehmenden oxidativen Belastung fertig zu werden. Hier beschreiben wir die chemischen und thermodynamischen Besonderheiten der Eisenchemie in lebender Materie, überprüfen die Komponenten der Eisenhomöostase in Neuronen und gehen auf die Mechanismen ein, durch die die Eisenhomöostase bei der Parkinson-Krankheit, der Alzheimer-Krankheit und anderen Krankheiten, bei denen eine Eisenakkumulation aufgetreten ist gezeigt.;-;-;-;https://link.springer.com/article/10.1007/s10534-012-9523-0 d097317a14d01db20733a1f695d6ca6a;de;;;5.3.;;;Definition eines Design Space für überzeugende kooperative Interaktionen in mobilen Belastungsanwendungen Dieses Papier präsentiert einen Gestaltungsraum für überzeugende kooperative überzeugende Interaktionen für mobile Anstrengungsanwendungen. Diese Art von Software verbindet Unterhaltung mit Trainingsaktivitäten und bietet Benutzern intuitive und unterhaltsame Möglichkeiten, ihre Leistungen zu verfolgen. Überzeugungskraft und insbesondere kooperative Interaktionen spielen eine zentrale Rolle bei der Benutzermotivation – sie sind von größter Bedeutung, um den Einzelnen zu überzeugen, seine Ziele zu verfolgen und Hindernisse zu überwinden. Anwendungen dieser Art bieten zunehmend vielfältigere Funktionalitäten, wobei es oft schwierig wird, die Art der Designmerkmale zu bestimmen, die verwendet werden, um diese überzeugenden und kooperativen Facetten zu fördern. In diesem Artikel schlagen wir einen Entwurfsraum für diese Art von Funktionen in einer solchen Software vor. Die Designübung wurzelt in der vorhandenen Literatur und den Ergebnissen einer Online-Umfrage, die wir durchgeführt haben, um die Nutzungsgewohnheiten für diese Art von Anwendungen zu bewerten. Die Validierung ist im Gange und wird durch die Erstellung einer Anwendung erreicht, die die vorgeschlagenen Dimensionen abdeckt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10166-8_10 67a6bd91ac723982bf32ace27d97e27d;de;;;5.3.;;;Simulationsheuristiken für den Städtebau Der Entwurf von Simulationen für den Städtebau erfordert nicht nur explizite Leistungskriterien von Planungsstandards, sondern eine Synthese impliziter Entwurfsziele, die wir „Purpose Rules“ nennen, mit rechnerischen Ansätzen. Ersteres würde allenfalls zu einer Automatisierung der bestehenden Planungsprozesse zur Geschwindigkeit und Bewertung führen, letzteres zu einem Verständnis wahrgenommener urbaner Qualitäten und deren Auswirkungen auf die Planung von Städten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29758-8_9 37e13cc6f1cd31a02d0016fd83d76df6;de;;;2.4.;;;Indirekte Abschätzung der Biomasse durch schnelle Ribonukleinsäurebestimmung Mikrobielle Ribonukleinsäure (RNA) wurde durch Bestimmungen von Nukleotiden bestimmt, die durch vollständige Hydrolyse gebildet wurden. Die Schritte dieses Verfahrens umfassen die alkalische Hydrolyse von RNA (5 N NaOH, 100°C, 5 min) zu einem Gemisch aus 2′- und 3′-Mononukleotiden und die anschließende Trennung und Quantifizierung mittels Hochleistungsflüssigkeitschromatographie (HPLC ). Da Guanylsäure (GMP) eine ausreichende Stabilität beim RNA-Abbau zeigt und sich gut und schnell von anderen Verbindungen trennen lässt, wird sie als äquivalentes Maß für RNA verwendet. Der Assay wird innerhalb von 15 min mit einer niedrigsten Nachweisgrenze von 4 mg RNA/l durchgeführt. Es wurde auf isolierte Hefezellen und Fermentationsbrühen von Myzelorganismen angewendet. Für unbegrenztes Wachstum (Trophophase) wurde eine lineare Korrelation zum Myzeltrockengewicht festgestellt, während in der Idiophase die Bestimmung der RNA als Maß für die aktive Biomasse dienen kann.;-;-;-;https://link.springer.com/article/10.1007/BF00251850 22fb13b23859592bb130e3451bc712cc;de;;;2.4.;;;Phénoménologies du randonneur solitaire Me voici donc seul sur la route. Arpentant à vélo « couché » une région du sud que je finis par mieux connaître que celle où je vis. A vélo, l’équilibre n’existe qu’en mouvement. C’est le wonder de la roue. Une fois immobilisée, elle tombe. En grande party, le plaisir du cycliste repose sur cette évidence physique. En roulant schickte ich son corps posé sur un équilibre conquis sur l’immobilité. Tentez donc de démarrer sur une côte de 16%, et vous aurez compris.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-2211-8_21 42756fe7e519b2b2a8772de4cd547c4e;de;;;2.4.;;;Modellierung und Identifizierung eines Open-Frame-Unterwasserfahrzeugs: Die Yaw Motion Dynamics Ein halbautonomes unbemanntes Unterwasserfahrzeug (UUV) mit dem Namen LAURS wird am Labor für Sensoren und Aktoren der Universität von Sao Paulo entwickelt. Das Fahrzeug wurde entwickelt, um Inspektions- und Interventionsmöglichkeiten bei spezifischen Missionen von Tiefseeölfeldern bereitzustellen. In dieser Arbeit wird eine Methode zur Modellierung und Identifizierung des dynamischen Systemmodells der Gierbewegung eines Unterwasserfahrzeugs mit offenem Rahmen vorgestellt. Unter Verwendung eines integrierten, kostengünstigen Magnetkompasssensors basiert das Verfahren auf der Verwendung einer entkoppelten dynamischen 1-DOF (Freiheitsgrad) Systemgleichung und der Anwendung der Integralmethode, die der klassische Algorithmus der kleinsten Quadrate ist, der auf die Integralform angewendet wird der dynamischen Systemgleichungen. Experimentelle Versuche mit dem realen Fahrzeug wurden in einem Testtank und Tauchbecken durchgeführt. Während dieser Experimente werden Triebwerke, die für die Gierbewegung verantwortlich sind, durch sinusförmige Spannungssignalprofile angetrieben. Eine Bewertung der Machbarkeit des Verfahrens zeigt, dass geschätzte dynamische Systemmodelle zuverlässiger sind, wenn langsame und kleine sinusförmige Spannungssignalprofile betrachtet werden, d. h. mit größeren Perioden und mit relativ kleiner Amplitude und Offset.;-;-;-;https://link.springer.com/article/10.1007/s10846-011-9625-x 62db549f41c138d5fc766e622d97a42d;de;;;2.4.;;;Differenzspektren von Proteinen Es wurde bereits festgestellt, dass die Anwendung der UV-Spektroskopie zur Untersuchung von Konformationen und Konformationsübergängen von Proteinen auf der Abhängigkeit der Parameter dieser Spektren von den Wechselwirkungen der Chromophorgruppen mit anderen Gruppen im Proteinmolekül und Lösungsmittelmolekülen beruht. Die beobachteten spektroskopischen Effekte, Verschiebungen der Absorptionsbanden um etwa 1 nm und weniger, sind klein im Vergleich zur Halbwertsbreite der Absorptionsbanden, die etwa 30 nm beträgt. Zusätzliche Ansätze und Techniken sind erforderlich, um die Analyse von Spektren zu erleichtern und ihre Empfindlichkeit zu erhöhen. Gegenwärtig wird die Differenzspektrophotometrie als ein solches Verfahren weit verbreitet verwendet. Differenzspektren sind die Absorptionsspektren, die durch gleichzeitige Messung von zwei Proben (automatische Subtraktion einer von der anderen) erhalten werden. Durch die Anwendung von Differenzspektren bei Untersuchungen von Proteinen werden unbedeutende Veränderungen der Position der Absorptionsbanden, ihrer Form und Intensität beobachtet, die bestimmt werden sollen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-70847-3_4 6be50bcdf0ed20015080385f28c73850;de;;;2.4.;;;Verhalten der geschweißten Tempcore-Bewehrung für seismische Anwendungen In der vorliegenden Arbeit werden die Ergebnisse einer experimentellen Untersuchung des monoaxialen und niederzyklischen Ermüdungsverhaltens von Stumpfschweißverbindungen und kreuzförmigen Proben aus B450C Tempcore Betonstahl vorgestellt. Ziel der Forschung ist es herauszufinden, ob das Schweißen der Tempcore-Bewehrung in seismischen Bereichen sicher angewendet werden kann, insbesondere in Bezug auf die kritischen Bereiche von Stahlbetonkonstruktionen. Die Ergebnisse zeigen, dass Stumpfschweißen bei Kunststoffscharnieren nicht zulässig sein sollte, zumindest bis ein ordnungsgemäßes zyklisches Prüfverfahren kodifiziert ist, während ordnungsgemäß durchgeführte Punktschweißungen zwischen Bügeln und Längsstäben sicher angewendet werden können.;-;-;-;https://link.springer.com/article/10.1007/BF02480595 725c5069950e0caf4f6923c47d3d5cdb;de;;;5.3.;;;Wachsende Kunst: Die evolutionären Kunstwerkzeuge Im digitalen Zeitalter kann die Herstellung einer bildenden Kunst ohne außergewöhnliche künstlerische Fähigkeiten möglich sein. Evolutionäre Kunst wendet einen Evolutionsprozess an, der es faszinierenden Kreaturen in der Natur ermöglicht, Kunstwerke zu synthetisieren. Bei künstlerischen Gestaltungsproblemen ist es schwierig, die mathematische Eignungsfunktion zu bestimmen, die die Leistung einer Lösung wirklich widerspiegeln kann. Die Benutzerzufriedenheit wird oft als Faktor in die Bewertung der Lösung einbezogen. Die Verwendung einer benutzergesteuerten Methode zum Erstellen eines Kunstwerks kann viel Zeit und Ressourcen in Anspruch nehmen. In dieser Studie schlagen wir eine auf Evolutionsalgorithmen basierende Methode für das künstlerische Schaffen des Pointillismus vor, die die Notwendigkeit einer häufigen Benutzerbewertung und damit den Zeitverbrauch reduzieren kann. Die vorgeschlagene Methode beinhaltet den künstlerischen Stil als Teil der Fitnessbewertung, um eine automatische Bewertung der Lösungen zu ermöglichen, eine Benutzerinteraktion ist weiterhin erforderlich, aber nur um die Erstellung zu steuern. Deswegen,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35076-4_12 958d85e62daf6f3d28eb8a6bb559d8b5;de;;;5.3.;;;Formale Modellierung und Verifikation kontextsensitiver Systeme mit Event-B Kontextbewusstsein ist ein Computerparadigma, das Anwendungen reaktionsschnell und anpassungsfähig an ihre Umgebung macht. Formale Modellierung und Verifikation kontextsensitiver Systeme sind herausfordernde Themen in der Entwicklung, da sie komplex und unsicher sind. In diesem Papier schlagen wir einen Ansatz vor, um eine formale Methode Event-B zu verwenden, um solche Systeme zu modellieren und zu überprüfen. Zuerst spezifizieren wir die Komponenten eines kontextbewussten Systems wie Kontextdatenentitäten, Kontextregeln, Kontextbeziehungen durch Ereignis-B-Begriffe. Im nächsten Schritt verwenden wir die Rodin-Plattform, um die gewünschten Eigenschaften des Systems wie beispielsweise Sicherheitseigenschaften zu überprüfen. Es zielt darauf ab, von der natürlichen Darstellung von Kontextbewusstseinskonzepten in Event-B und von Beweispflichten zu profitieren, die durch Verfeinerungsmechanismen erzeugt werden, um die Korrektheit von Systemen sicherzustellen. Wir veranschaulichen die Anwendung unseres Ansatzes an einem einfachen Beispiel.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-05939-6_25 051d167af731bbc9f84b3cffbbe2346e;de;;;5.3.;;;Ein aufgabenbasiertes Rollenspiel mit Lernrobotern zum Sprachenlernen In diesem Papier stellen wir unsere Arbeit im Design des Spielens mit Robotern vor, um Sprache in einem Klassenzimmer zu lernen. Wir skizzieren unseren Ansatz von Design for Emerging: gerade genug Spielkontext und Herausforderung für die Menschen zu schaffen, um die Erfahrung des Spiels durch ihre Interaktion in der realen Welt zu erweitern und zu bereichern. Roboter wurden für unsere Mixed-Reality-Spielbühne entwickelt, ein drahtloses ortsbasiertes Multiplayer-Spiel. Dieses Papier beschreibt das Design und die Implementierung des aufgabenbasierten Rollenspiels mit Robotern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03364-3_58 17a22f7f212bd531a8058b0e389690be;de;;;2.4.;;;Interleukin-6: biologische Eigenschaften und Rolle bei lymphoproliferativen Erkrankungen Interleukin-6 (IL-6) ist ein Zytokin, das beispielhaft für die multifunktionale Natur steht, die allen Interleukinen gemeinsam ist [1]. Aufgrund seines breiten Wirkungsspektrums in vielen Systemen war und ist IL-6 Gegenstand intensiver Untersuchungen in verschiedenen Forschungsfeldern. Tatsächlich wurde das Molekül vor seiner vollständigen Charakterisierung verschiedentlich als Interferon (IFN) bezeichnet – β;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-1261-1_9 acf849fb6fc78d0d6165cd1b44f76e84;de;;;2.4.;;;Pilzinfektionen Die Inzidenz invasiver Pilzinfektionen hat in den letzten zwei Jahrzehnten dramatisch zugenommen, hauptsächlich aufgrund einer Zunahme der Zahl immungeschwächter Patienten.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-68792-6_10 345d175805583ba25b174e7a3165ba9b;de;;;5.3.;;;Hin zu Witzen, mit Humor ausgestatteten und emotionsbewussten Gesprächssystemen In diesem Beitrag präsentieren wir unsere bisherigen Fortschritte bei der Realisierung eines Projekts, das darauf abzielte, ein komplexes, modulares, humorvolles Gesprächssystem zu schaffen. Mit komplex meinen wir, dass es in der Lage sein sollte: (1) die Emotionen der Benutzer zu erkennen, (2) das humorvolle Verhalten der Benutzer zu erkennen und richtig darauf zu reagieren, (3) Humor entsprechend der emotionalen Zustände der Benutzer zu erzeugen und (4) zu lernen den individuellen Humor jedes Benutzers. Die Recherche wird auf Japanisch durchgeführt. Wir haben Wortspiele als relativ berechenbares Genre des Humors gewählt. Wir beschreiben einen allgemeinen Überblick über unser System sowie seine vier Module: Humorerkennungsmodul, Emotionserkennungsmodul, Antwortgeneratormodul und Individualisierungsmodul. Wir präsentieren den Algorithmus der in jedem Modul verwendeten Systeme zusammen mit einigen Bewertungsergebnissen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-41661-8_64 50d98ae947db3e803efd49254a5f45de;de;;;2.4.;;;Protopathischer Schmerz Der letzte Abschnitt dieser Monographie war schwer zu schreiben. Ich war überwältigt von der enormen Anhäufung von Daten zur Schmerzinterpretation, von den vielen kontroversen Themen, die so eng miteinander verbunden sind, und von meiner eigenen Unfähigkeit, so viele Fragen zu beantworten. Ich war versucht, mich der Interpretationsaufgabe zu entziehen, indem ich einfach meine klinischen Beobachtungen darstelle und den Leser alle möglichen Schlüsse daraus ziehen ließ. Wenn dies der Plan gewesen wäre, hätte ich viele weitere Fallberichte hinzugefügt, denn es ist die Auswirkung von Fall zu Fall, die alle ähnliche Merkmale aufweisen, die den Betrachter von der Realität jedes klinischen Syndroms überzeugen. Ich hätte das Scalenus-Anticus-Syndrom, die Meralgia paresthetica, die traumatische Osteoporose und viele andere klinische Erscheinungen besprochen, von denen ich glaube, dass sie mit den vorgestellten Fällen in Zusammenhang stehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-4292-2_13 27ed037ba7d4dc6d5408ce96b66f755e;de;;;2.4.;;;Die Auswirkungen von Lernanweisungen und Cueing auf den freien Abruf Achtzig nicht verwandte, bildhafte Wörter wurden für das freie Erinnerungslernen in Gruppen von jeweils vier Wörtern präsentiert. Die Lernanweisungen wurden variiert, wobei eine Gruppe aufgefordert wurde, die Wörter in jeder Eingabegruppe durch Bilder zu verknüpfen, eine andere Gruppe angewiesen wurde, verbale (Satz-)Mediatoren zu verwenden, und die Kontrollgruppe erhielt keine spezifischen Lernanweisungen. Während des Abrufs wurden Listenelemente unter bestimmten Bedingungen als Abrufhinweise präsentiert. Im Vergleich zur Kontrollbedingung führten Bilder und verbale Vermittlungsanweisungen zu einer größeren Erinnerung, mehr Clusterbildung und einer größeren Anzahl von Instanzen pro zurückgerufener Gruppe. Wenn die Abrufhinweise so gewählt wurden, dass von jeder der Eingabegruppen ein Hinweis stammte und die Stärke der Organisation innerhalb der Gruppe ziemlich hoch war, erinnerte sich Ss an mehr Wörter und eine größere Anzahl von Eingabegruppen. Es wurde der Schluss gezogen, dass Anweisungen und Cueing-Bedingungen verschiedene Aspekte des freien Rückrufprozesses beeinflussten. Anweisungen beeinflussten die Organisation einzelner Wörter in Einheiten, und Cueing beeinflusste das Abrufen bestimmter Einheiten.;-;-;-;https://link.springer.com/article/10.3758/BF03197515 3c59552898b175755b00c77b89e6e1c2;de;;;2.4.;;;Identifizierung der portugiesischen Muttersprache Diese Studie präsentiert die erste Studie zur Native Language Identification (NLI) für L2-Portugiesisch. Wir verwendeten eine Teilmenge des NLI-PT-Datensatzes, die Texte enthält, die von Sprechern fünf verschiedener Muttersprachen verfasst wurden: Chinesisch, Englisch, Deutsch, Italienisch und Spanisch. Wir untersuchen die in NLI-PT verfügbaren linguistischen Annotationen, um eine Reihe von (morpho-)syntaktischen Merkmalen zu extrahieren, und wenden NLI-Klassifikationsmethoden an, um die Muttersprache der Autoren vorherzusagen. Die besten Ergebnisse wurden mit einer Ensemble-Kombination der Merkmale erzielt und erreichten;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99722-3_12 f482e5fc2c5f719e3a302ec8429dfc34;de;;;2.4.;;;Nicht-invasive Wedensky-Modulation innerhalb des QRS-Komplexes Um die nicht-invasiv induzierte Wedensky-Modulation zu untersuchen, wurden 2-ms-Pulse von 5, 20 und 40 mA synchron mit dem QRS-Komplex zwischen präkordialen und subskapulären Flecken abgegeben. Die Größe des Wavelet-Vektors wurde für gemittelte modulierte und nicht-modulierte Komplexe erhalten. Die Oberfläche einer 3D-Hüllkurve ihrer Differenz (WSR) wurde bei 59 Patienten mit unkompliziertem Follow-up nach Myokardinfarkt (MI) (42 Männer, 64,3±9,1 Jahre), bei 30 Patienten mit ischämischer Herzkrankheit und a Vorgeschichte von ventrikulärer Tachykardie/Fibrillation (VT/VF) (29 Männer, 63,1 ± 9,8 Jahre) und bei 53 gesunden Probanden (Kontrolle) (22 Männer, 56,6 ± 10,1 Jahre). Die Reproduzierbarkeit der Bewertung wurde durch Berechnung relativer Fehler in einer Subpopulation von 30 VT/VF-Patienten und 47 Kontrollen getestet. Die Wedensky-Modulationsparameter unterschieden sich signifikant zwischen Kontroll-, MI- und VT/VF-Probanden. In 10 ms Nachmodulationsfenstern wurden folgende WSR-Werte erhalten: Kontrollen: 1184 ± 496 (5 mA), 1553 ± 838 (20 mA) und 2092 ± 1488 (40 mA), VT/VF: 861 ± 412 (5 mA), 1134 ± 636 (20 mA) und 1320 ± 1036 (40 mA), MI: 1305 ± 885 (5 mA) und 1779 ± 1169 (20 mA). Bei allen verwendeten Modulationsenergien unterschieden sich die VT/VF-Patienten signifikant von den Kontroll- und MI-Patienten, Kontrollpatienten gegen VT/VF-Patienten: p<0,004 (5 mA), p<0,01 (20 mA) und p<0,001 (40 mA), VT/VF-Patienten gegen MI-Patienten: p<0,02 (5 mA), p<0,01 (20 mA), Kontrollpatienten gegen MI-Patienten: alle p=NS. Die Bewertung der Reproduzierbarkeit zeigte eine akzeptable Stabilität der Wedensky-Modulationsparameter. Diese Studie zeigte, dass die Wavelet-Zerlegung nicht-invasive Wedensky-Modulation innerhalb des QRS-Komplexes erkennt und VT/VF-Patienten weniger empfindlich auf Wedensky-Modulation reagieren als Kontroll- und MI-Patienten.;-;-;-;https://link.springer.com/article/10.1007/BF02348130 1bdc0358c7cb6c1c90f8c21b659ce0d2;de;;;2.4.;;;Vergleichbarkeit des Selbstverständnisses von Kindern mit normalen Leistungen und Kindern mit Lernschwierigkeiten im griechischen Kontext Les évaluations du concept de soi des élèves normaux et faibles dans les Classes régulières ont été comparées à celles d'enfants présentant des schwierigés académiques et fréquentant des Classes d'éducation spécialeen les comparées colleseteurs les Wahrnehmungen der profunden Wahrnehmungen Personalle Global ontété mesurées en utilisant 'L'Echelle de Perception des Compétences por Enfants' (Harter 1982). 424 enfants issus de la 3e à la 6e annee primare participent à cette étude. Les résultats ont indiqué que les enfants de classes Speciales s’évaluaient eux-m plusme plus négativement que leurs pairs normaux pour le concept de soi sur l’enseignement et leur propre valeur global. Ils s’évaluaient aussi plus négativement que leurs pairs réussissant faiblement sur leur propre concept de l’énseignement. Il n’y avait pas de différence entre ces deux groupes sur leur propre valeur globale. Les résultats ont été discutés à la Lumiére de la nature du système éducatif grec and la pression mise sur les enfants pour atteindre une scolarité excellence.;-;-;-;https://link.springer.com/article/10.1007/BF03174276 906c6a9161b04849a6e5d6186af6509f;de;;;2.4.;;;Neuromorphometrische Messungen als Endophänotypen von Schizophrenie-Spektrum-Störungen Eine abnorme Größe kortikaler und subkortikaler Hirnstrukturen ist stark mit Schizophrenie verbunden und wurde auch bei nicht betroffenen Verwandten von Patienten und bei Patienten mit assoziierten Diagnosen wie einer schizotypischen Persönlichkeitsstörung berichtet. Solche volumetrischen Messungen wurden als potenzielle Kandidaten für Schizophrenie-Endophänotypen angesehen, da sie vererbbar sind, mit den allgemein definierten neurokognitiven und Verhaltensphänotypen innerhalb von Verwandten ersten Grades ko-segregieren und häufig bei nicht betroffenen Familienmitgliedern vorhanden sind. In den letzten Jahren haben Formanalysen aufgrund ihres Potenzials zur präzisen Lokalisierung von Oberflächendefekten und ihrer erhöhten Empfindlichkeit für subtile Volumenänderungen zunehmend an Interesse gewonnen. Kürzlich wurde gezeigt, dass die statistische Analyse von Formvariablen die Unterscheidung von Personen mit Schizophrenie von gesunden Kontrollpersonen verbessert, wenn sie in das Gesamtvolumen einbezogen werden. Computergestützte Methoden der Formanalyse wurden verwendet, um systematische Unterschiede in der regionalen kortikalen Dicke und in den Gyralmustern zwischen Individuen zu erkennen. Methoden wie das hochdimensionale Gehirn-Mapping mit großen Verformungen und sphärische Harmonische haben lokalisierte Anomalien innerhalb des Hippocampus, Thalamus und der Basalganglien bei Schizophrenie identifiziert, die denen ähnlich waren, die bei nicht betroffenen Geschwistern beobachtet wurden. Das Kapitel gibt einen Überblick über den Stand der aktuellen Forschung zu Form und Volumen von Hirnstrukturen, die für Schizophrenie gelten, und diskutiert zukünftige Forschungsrichtungen, die erforderlich sind, um diese Maßnahmen als Endophänotypen zu etablieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-9831-4_5 3f1276094b33e163bafc8d40df5bbf20;de;;;5.3.;;;Erstellen interaktiver flexibler Oberflächen mit Origami-Tessellationen Ein Gerätekonzept mit interaktiven flexiblen Oberflächen mit Origami-Tessellationen wird vorgestellt. Das Origami Tessellation Display (OTD) ermöglicht es Benutzern, die Form interaktiver Oberflächen dynamisch von flachen in dreidimensional gekrümmte Oberflächen umzuwandeln. Wir erkunden den Designraum solcher Geräte, indem wir verschiedene Typen, Formen und Größen untersuchen. Darüber hinaus schlagen wir eine Reihe von Interaktionsprinzipien und -techniken vor, die auf der physikalischen Form der OTD basieren. Eine kurze Diskussion einer benutzerbasierten Verformungsstudie unter Verwendung von Low-Fidelity-Prototypen als Teil des benutzerzentrierten Entwurfsprozesses wird ebenfalls vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44651-5_11 a29ca2dab486442f445b1c475deb7b41;de;;;5.3.;;;Eine zweite Chance für einen ersten Eindruck? Wie sich Aussehen und nonverbales Verhalten im Laufe der Zeit auf die wahrgenommene Wärme und Kompetenz virtueller Agenten auswirken Erste Eindrücke von anderen sind grundlegend für die weitere Entwicklung einer Beziehung und damit auch für die Gestaltung virtueller Agenten von großer Bedeutung. Wir gingen der Frage nach, ob es eine zweite Chance für den ersten Eindruck in Bezug auf die großen Dimensionen sozialer Kognition – Wärme und Kompetenz – gibt. Wir verwendeten einen neuartigen Versuchsaufbau, der das Auftreten von Agenten (roboterähnlich vs. menschenähnlich) und das Agentenverhalten (Gesten vorhanden vs. abwesend) virtueller Agenten als Zwischensubjektfaktoren mit einem Messwiederholungsdesign kombiniert. Die Ergebnisse zeigen, dass die Bewertungen der Wärme von den Interaktionseffekten der Zeit und dem Auftreten des Agenten abhängen, während die Bewertungen der Kompetenz von der Interaktion von Zeit und nonverbalen Verhalten abzuhängen scheinen. Implikationen dieser Ergebnisse für die Grundlagen- und angewandte Forschung zu intelligenten virtuellen Agenten werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33197-8_13 86c1c1dacb0639339beed2451be2e1ef;de;;;2.4.;;;RNA-Metabolismus Der ultimative Traum des Neurochemikers, der sich heute mit dem Metabolismus von RNA im Gehirn beschäftigt, ist es, den Mechanismus der Regulation der Transkription und Translation des genetischen Codes zu beschreiben, der die Nervenzellen zur Erfüllung ihrer spezifischen Funktion führt. Sobald dieser sehr feine Mechanismus bekannt ist, könnte er den nächsten Schritt unternehmen, um herauszufinden, wie er modifiziert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-7166-7_4 4c3ae1249280655e31822c1a690f5073;de;;;5.3.;;;Metaphorische Gesten: Hin zu geerdeten mentalen Räumen Gesten beziehen sich auf die mentalen Zustände und sich entfaltenden Prozesse des Denkens, Denkens und der verbalen Sprachproduktion. Besonders deutlich wird dies bei Metaphern und metaphorischen Gesten. Zum Beispiel, über die Bedeutung einer Idee zu sprechen, indem man sie eine große Idee nennt und gestikuliert, um darauf hinzuweisen, dass große Größe eine Manifestation der Verwendung von Metaphern in Sprache und Geste ist. Wir schlagen ein Computermodell des Einflusses konzeptioneller Metaphern auf Gesten vor, das von mentalen Zustandsrepräsentationen von Ideen bis zu ihrem Ausdruck in konkreten, physischen metaphorischen Gesten abbildet. Dieses Modell stützt sich auf konzeptionelle Primärmetaphern, um die abstrakten Elemente des mentalen Raums auf konkrete physische Elemente abzubilden, die mit Gesten vermittelt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09767-1_34 5433e4d124746d81f7a7709c98e8e9fc;de;;;2.4.;;;Neue Einblicke in den Mechanismus der Aktivierung der Reaktion auf Hitzeschocks Die Reaktion auf Hitzeschock (HS) ist ein universeller Schutzmechanismus gegen widrige Umweltbedingungen. Sie manifestiert sich hauptsächlich durch eine schnelle und robuste Induktion von molekularen Chaperonen und anderen zytoprotektiven Proteinen. Bei höheren Eukaryoten wird die Aktivierung der HS-Antwort durch einen Hauptregulator, den Hitzeschock-Transkriptionsfaktor 1 (HSF1), vermittelt. Hier skizzieren wir die jüngsten Fortschritte beim Verständnis der frühen Schritte der HSF1-Aktivierung durch Wärme im Kontext bestehender Modelle der HSF1-Regulation.;-;-;-;https://link.springer.com/article/10.1007/s00018-008-7458-y 2718b2f94ab93a55f7ad6d25a11833e4;de;;;5.3.;;;Tägliche menschliche Aktivität und Sturzerkennung mit dem Beschleunigungssensor eines Smartphones Als eine der sich am schnellsten verbreitenden Technologien und aufgrund ihrer reichhaltigen Sensorfunktionen sind Smartphones zu beliebten Elementen moderner Systeme zur Erkennung menschlicher Aktivitäten geworden. Neben der Aktivitätserkennung wurden auch Smartphones erfolgreich in Sturzerkennungs-/-erkennungssystemen eingesetzt, wobei ein kombinierter Ansatz noch nicht evaluiert wurde. Dieser Artikel präsentiert die Ergebnisse einer umfassenden Bewertung der Verwendung des Beschleunigungssensors eines Smartphones zur menschlichen Aktivität und Sturzerkennung, einschließlich 12 verschiedener Arten von Aktivitäten des täglichen Lebens (ADLs) und 4 verschiedener Arten von Stürzen, die von 66 Probanden im Rahmen der Erstellung aufgezeichnet wurden „MobiAct“, ein öffentlich verfügbarer Datensatz zum Benchmarking und zur Entwicklung von menschlichen Aktivitäten und Systemen zur Sturzerkennung. Für jede wird ein optimiertes Merkmalsauswahl- und Klassifikationsschema vorgeschlagen, eine grundlegende, d. h. Erkennung von nur 6 gängigen ADLs (99,9 % Genauigkeit) und eine komplexere Aufgabe zur Erkennung menschlicher Aktivitäten, die alle 12 ADLs und 4 Stürze umfasst (96,8 % Genauigkeit).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-62704-5_7 4fa08a3255658b1225117a4bbce390f8;de;;;2.4.;;;Intelligenter Stuhlsensor – Klassifizierung und Korrektur der Sitzhaltung Um einen intelligenten Stuhl zu bauen, der Haltungserkennung und -korrektur ermöglicht, haben wir einen Prototyp entwickelt, der eine Druckkarte des Sitzpolsters und der Rückenlehne des Stuhls misst und die Benutzerhaltung klassifiziert. Die Haltungsklassifikation erfolgte mit neuronalen Netzen, die für 5 standardisierte Haltungen trainiert wurden, was eine Gesamtklassifizierung von etwa 98% erreichte. Diese neuronalen Netze wurden in eine mobile Anwendung exportiert, um diese Haltungen in Echtzeit zu klassifizieren. Unter Verwendung derselben mobilen Anwendung haben wir zwei Korrekturalgorithmen entwickelt, die implementiert wurden, um einen intelligenten Stuhl zu schaffen, der Haltungserkennung und -korrektur ermöglicht. Die Haltungskorrektur wird durch die Veränderung der Sitz- und Rückenlehne des Stuhls durch Druckänderung von acht pneumatischen Blasen erzwungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-00846-2_368 b3e84a09bc647e0ee0177701f8191977;de;;;2.4.;;;Informationsfluss und Parteieinfluss: Theorie, Messung und politische Konsequenzen In diesem Beitrag präsentiere ich eine Theorie des Parteieinflusses, basierend auf der Bayesschen Entscheidungstheorie, als einen Prozess, bei dem die Wahlentscheidungen einzelner Gesetzgeber durch Informationen über die Stimmen oder die beabsichtigten Stimmen ihrer Basiskollegen beeinflusst werden. Aus der Theorie abgeleitete Verfahren werden dann verwendet, um das Ausmaß des Parteieinflusses im Verhältnis zum Einfluss des Präsidenten und der Parteiführer, der Komitee-Hinweisgeber und der Wähler auf die namentliche Abstimmung in drei Politikbereichen im US-Repräsentantenhaus abzuschätzen. Die Ergebnisse implizieren, dass der Einfluss der Parteien wichtige kurz- und langfristige Konsequenzen für die öffentliche Ordnung hat.;-;-;-;https://link.springer.com/article/10.1007/BF00987441 8c98a7bbc96c67e25c907316dfaa1dc1;de;;;2.4.;;;Klimareaktionen von Ringbreiten und radialer Wachstumsphänologie von Klimareaktionen des radialen Wachstums von großen Hartholzarten, die in einem kühlen gemäßigten Wald in Japan wachsen, wurden durch dendrochronologische Analyse geklärt, die die phänologische Beobachtung des radialen Wachstums kombiniert.;-;-;-;https://link.springer.com/article/10.1007/s00468-019-01948-w e77e79b780cf8e225d8c412b5836f81e;de;;;5.3.;;;Ein handlungsbasiertes Verhaltensmodell für überzeugende Telemedizin Technologische Fortschritte bei Telemedizinsystemen konzentrieren sich hauptsächlich auf die Erfassung, Überwachung und Analyse. Interventionen, Verhaltensänderungen und im Allgemeinen Auswirkungen auf Veränderungen könnten zusätzliche Forschung und technologische Entwicklung erfordern. Viele Menschen, insbesondere ältere Menschen, sind resistent gegen Veränderungen. Eine solche Resistenz verringert den Wirkungsfaktor von Telemedizinsystemen. Um diesem Widerstand gegen Veränderungen entgegenzuwirken und eine gesunde Lebensweise zu fördern, sind Überzeugungstechnologien und -mechanismen dringend erforderlich. In diesem Beitrag schlagen wir ein handlungsbasiertes Verhaltensmodell vor, um Überzeugungskraft zu ermöglichen. Wir überprüfen auch bestehende Technologien, die unserer Meinung nach am besten geeignet sind, um überzeugende Telemedizin zu ermöglichen. Wir präsentieren unsere laufende Arbeit im Bereich der Verhaltensänderung bei übergewichtigen und diabetischen Personen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13778-5_15 c75b4fab8ef2ab3c89e89ae203f8450b;de;;;5.3.;;;Ein Multi-Stream-Tool zur Unterstützung der Übertragung in der Telemedizin in der Chirurgie Die zunehmende Kapazität der Netzwerkbandbreite und die sinkenden Kosten der damit verbundenen Dienste haben zu einer steigenden Anzahl von Anwendungen im Bereich der Informations- und Kommunikationstechnologie geführt. Ein Sonderfall sind Anwendungen, die auf Videostreaming basieren. Die Telemedizin kann in einigen Anwendungsszenarien dieser Technologie hervorgehoben werden, z. B. in klinischen Sitzungen, ärztlichen Zweitmeinungen, interaktiven Lektionen oder virtuellen Konferenzen. Diese Szenarien implizieren oft eine dedizierte Übertragungsumgebung. Eine Einschränkung bei solchen Lösungen ist die Unfähigkeit, mehrere Videostreams zu handhaben. Daher stellt dieser Beitrag eine kostengünstige Infrastruktur für die Videokollaboration im Gesundheitswesen vor, die auf offenen Technologien basiert. Die vorgeschlagene Infrastruktur ermöglicht die Fernverwaltung mehrerer gleichzeitiger Streams. Wir diskutieren auch Ergebnisse von Experimenten, die im Lauro Wanderley Academic Hospital, Brasilien, durchgeführt wurden. Eines der Ergebnisse ist der Beitrag zu Lehrerfahrungen, insbesondere durch die Möglichkeit, chirurgische Eingriffe aus der Ferne zu betrachten und Interaktion in Echtzeit zu ermöglichen. Schließlich präsentieren wir neue Perspektiven für den Einsatz der entwickelten Technologie für andere Anwendungen in der Telemedizin und Telepräsenz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24352-3_8 57441f470632cfb431e228e07b9e1f64;de;;;5.3.;;;Methode zur Reduzierung von Artefakten in EEG-Signalen mit Wavelet-Transformation und adaptivem Filter Dieser Artikel stellt eine Methode vor, um Augenartefakte aus Elektroenzephalogrammen (EEGs) zu entfernen, die in der biomedizinischen Analyse in einer tragbaren Umgebung verwendet werden können. Ein wichtiges Problem bei der EEG-Analyse besteht darin, die Augenartefakte zu entfernen, die bei der Analyse von EEG-Signalen verheerende Auswirkungen haben. In diesem Artikel schlagen wir eine Kombination aus Wavelet-Transformation mit effektivem Schwellenwert und adaptivem Filter vor, die das Referenzsignal gemäß Augenartefakten extrahieren kann, die sich hauptsächlich im Niederfrequenzbereich verteilen, und ein adaptiver Filter basierend auf dem Algorithmus der kleinsten mittleren Quadrate (LMS) wird verwendet, um Augenartefakte aus aufgezeichneten EEG-Signalen. Die Ergebnisse zeigen, dass diese Methode Augenartefakte entfernen kann und einer Vergleichsmethode hinsichtlich des Erhalts eines unkontaminierten EEG-Signals überlegen ist. Dieses Verfahren ist auf die tragbare Umgebung anwendbar, insbesondere wenn nur ein Kanal-EEG aufgezeichnet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09891-3_12 70609f3387789f420815952f14f56cb9;de;;;5.3.;;;Eine komplexwertige Spiking-Maschine Die in diesem Artikel vorgestellte Technik stammt aus der Formalisierung einiger passiver elektrischer Eigenschaften der dendritischen Bäume in biologischen Neuronen unter Verwendung einer komplexwertigen raum-zeitlichen Kodierung. Die Einführung dieser Kodierung in die komplexwertigen neuronalen Netze ermöglicht eine algebraische Formalisierung der spitzen neuronalen Netze. Unser Anwendungszweck ist die Verarbeitung von räumlich-zeitlichen Mustern im Bereich der Mensch-Computer-Interaktion. Diese Technik wurde somit durch Simulation auf handschriftliche Zeichenerkennung und Probleme bei der Audio- und visuellen Spracherkennung evaluiert. Um die Leistung zu verbessern, stellen wir in diesem Papier eine Entwurfsmethodik vor, die beim Bau von Multinetzwerk-Spiking-Maschinen hilft. Die Implementierung einer stiftorientierten Schnittstelle für einen Industriellen veranschaulicht die Methode.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44989-2_115 201a01d412fa4048f92be29b29352f49;de;;;5.3.;;;PoliSpell: Eine adaptive Rechtschreibprüfung und Vorhersage für Menschen mit Legasthenie Menschen mit Legasthenie haben oft große Schreibschwierigkeiten. Rechtschreibprüfungen/Prädiktoren können helfen, aber die aktuellen Systeme sind aufgrund der Annahmen hinter den Modellen und wegen der schwer zu verwendenden Schnittstellen dafür nicht geeignet. In diesem Beitrag wird ein System zur Rechtschreibprüfung/Vorhersage von Wörtern vorgestellt, das sowohl sein Modell als auch seine Schnittstelle an das individuelle Verhalten anpassen kann. Das Modell berücksichtigt typische Fehler von Menschen mit Legasthenie, wie z. B. Grenzfehler, und den Kontext für die Korrektur von Echtwortfehlern. Die Schnittstelle zielt darauf ab, die Interaktion mit dem Benutzer zu reduzieren. Das Modell und die Schnittstelle sind leicht an den allgemeinen Gebrauch anpassbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38844-6_27 6d76ee6349bd8386d7f87ca587da1f1f;de;;;5.3.;;;Multitask-Lernen in Vorhersage und Korrektur für ressourcenarme Spracherkennung In diesem Artikel untersuchen wir die Leistung von Multitask Learning (MTL) für das kombinierte Modell von Convolutional, Long Short-Term Memory und Deep Neural Networks (CLDNN) für ressourcenarme Spracherkennungsaufgaben. Wir trainierten das mehrsprachige CNN-Modell, gefolgt von der MTL unter Verwendung der DNN-Schichten. Im MTL-Framework werden die Graphemmodelle zusammen mit den Telefonmodellen in den gemeinsamen verborgenen Schichten des tiefen neuronalen Netzes verwendet, um die Zustandswahrscheinlichkeit zu berechnen. Wir haben mit Universal Phone Set (UPS) und Universal Graphem Set (UGS) im DNN-Framework und einer Kombination aus UPS und UGS experimentiert, um die Genauigkeit des Gesamtsystems zu erhöhen. Das kombinierte Modell wird auf dem Prediction and Correction (PAC)-Modell implementiert, was es zu einer mehrsprachigen PAC-MTL-CLDNN-Architektur macht. Wir haben die Verbesserungen der AP16-OLR-Aufgabe bewertet und mit unserem vorgeschlagenen Modell eine Verbesserung von 1,8 % gegenüber Vietnam und 2,5 % gegenüber Uigur gegenüber dem PAC-Basismodell und dem MDNN-System erzielt. Wir haben auch bewertet, dass eine zusätzliche Graphem-Modellierungsaufgabe mit einer Stunde Trainingsdaten immer noch effizient ist, um eine Verbesserung von 2,1% auf Uyghur gegenüber dem Basis-MDNN-System zu erzielen, was es für Null-Ressourcen-Sprachen sehr vorteilhaft macht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8111-8_8 f33c9b19ee0302bdf48bb0eee57dda9f;de;;;2.4.;;;Das Studium der Sprachlosigkeit Wie in Kapitel 1 besprochen, manifestiert sich Stottern als eine einzigartige Störung in der Vorwärtsbewegung oder Kontinuität der Sprache – eine Störung des Sprachflusses.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-9664-6_2 abb01c11238d54c9b4ed238f1963b57e;de;;;2.4.;;;Kammerherr Im Mai 1937 wurde Neville Chamberlain Premierminister, und die Kolonialfrage erreichte in der Zwischenkriegszeit rasch den Höhepunkt ihrer Bedeutung für die englisch-deutschen Beziehungen. Dies war nicht die Absicht Chamberlains, sondern zum Teil die Folge seiner Entscheidung, eine aktivere Rolle in der Außenpolitik zu spielen als seine Vorgänger;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-19255-7_8 57d4accf8f9aba09b1be2e8251abb531;de;;;2.4.;;;Sprachliche Muster mit Sequence Mining entdecken In diesem Artikel stellen wir eine Methode vor, die auf Data-Mining-Techniken basiert, um automatisch linguistische Muster zu entdecken, die passenden qualifizierenden Phrasen entsprechen. Wir entwickeln einen Algorithmus, der sequentielle Muster aus Itemsets mit Lücken und linguistischen Einschränkungen analysiert. Die Itemsets ermöglichen die Zuordnung mehrerer Arten von Informationen zu einem Begriff. Der Vorteil ist die Extraktion sprachlicher Muster mit mehr Aussagekraft als die üblichen sequentiellen Muster. Darüber hinaus ermöglichen die Beschränkungen, irrelevante Muster automatisch zu bereinigen. Um die Menge der generierten Muster zu verwalten, schlagen wir eine Lösung vor, die auf einer Teilbestellung basiert. Ein menschlicher Benutzer kann sie somit leicht als relevante linguistische Muster validieren. Wir veranschaulichen die Effizienz unseres Ansatzes anhand von zwei Korpora, die aus einer Zeitung stammen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28604-9_13 c9547d3c0dfa1854425f46fc21d80daa;de;;;2.4.;;;Positive Wirkung atypischer Antipsychotika auf die präfrontale Gehirnfunktion bei akuten psychotischen Störungen Eine Störung der präfrontalen Hirnfunktionen wird als verantwortlich für prominente psychopathologische Symptome bei psychotischen Störungen angenommen. Eine Behandlung mit atypischen, im Gegensatz zu typischen Antipsychotika wird als mögliche Strategie zur Verbesserung der präfrontalen Hirnfunktion angesehen. In der vorliegenden Studie wurde die Reaktionskontrolle als spezifische präfrontale Gehirnfunktion mit Hilfe der Nogo-Anteriorization (NGA) bewertet, die aus dem ereignisbezogenen Potenzial abgeleitet wurde, das während einer Go-NoGo-Aufgabe in einer konsekutiven Stichprobe von 39 Patienten mit akuten psychotischen Störungen (kurze psychotische Störungen, 298,8, n = 34 und schizoaffektive Störungen, 295,70, n = 5, zykloide Psychosen nach Leonhard-Klassifikation). Eine hochsignifikante positive Korrelation zwischen der Menge der Antipsychotika in Chlorpromazin-Äquivalenten pro Tag und der NGA als Maß für die präfrontale Ansprechkontrolle wurde nur in der Subgruppe der Patienten, die ausschließlich oder überwiegend mit atypischen Antipsychotika behandelt wurden, nicht jedoch der mit typischen Antipsychotika behandelten Patienten gefunden Dies entspricht der Vorstellung, dass atypische Antipsychotika eine positive Wirkung auf die präfrontale Gehirnfunktion haben können.;-;-;-;https://link.springer.com/article/10.1007/s00406-005-0562-1 49e652ac1be3b5a90d4d50e37c6c0bc2;de;;;5.3.;;;Kinect Sensing of Shopping-bezogene Aktionen Überwachungssysteme in Einkaufszentren oder Supermärkten werden normalerweise verwendet, um abnormales Verhalten zu erkennen. Mit dem verteilten Videokamerasystem haben wir digitale Einkaufsassistenten entwickelt, die das Verhalten der Kunden beim Einkaufen einschätzen, erkennen, wann sie Hilfe benötigen und ihre Unterstützung bei Verkaufschancen anbieten. In diesem Beitrag schlagen wir ein System vor, um menschliche Verhaltensmuster im Zusammenhang mit der Produktinteraktion zu analysieren, z. Wir haben den Kinect-Sensor verwendet, um die Silhouetten von Personen zu erkennen und Unterscheidungsmerkmale für die grundlegende Aktionserkennung extrahiert. Als nächstes analysierten wir verschiedene Klassifizierungsmethoden, statistische und auch räumlich-zeitliche, die Beziehungen zwischen Frames, Features und grundlegenden Aktionen erfassen. Durch die Fusion von Erscheinungs- und Bewegungsinformationen auf Feature-Ebene haben wir eine Genauigkeit von 80% für die genannten sechs grundlegenden Aktionen erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31479-7_16 9556f28865c0ec01869fa120440fc841;de;;;5.3.;;;Automatische Schätzung der Beleuchtungseigenschaften für das fotorealistische Rendering in Innenräumen in Augmented Reality In diesem Artikel wird ein schneller und praktischer Algorithmus vorgestellt, um die mehrfache Anzahl von Lichtern aus jedem einzelnen Innenszenenbild in einer Augmented-Reality-Umgebung zu schätzen. Dieser Algorithmus bietet eine Möglichkeit, die Positions-, Richtungs- und Intensitätseigenschaften der Lichtquellen in einer Szene genau zu schätzen. Im Gegensatz zu anderen hochmodernen Algorithmen ist es in der Lage, genaue Ergebnisse ohne wesentliche Analyse der Objekte in der Szene zu liefern. Es verwendet die Analyse der HSV-Daten des Sättigungskanals. Die Bewertung erfolgt durch Testen eines Ground-Truth-Datensatzes von synthetischen und realen Bildern mit bekannten Eigenschaften von Lichtern und anschließendem Vergleich der Ergebnisse mit anderen Studien auf dem Gebiet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22689-7_42 a65cf432d22861f652b22db1d2b87080;de;;;5.3.;;;Verbrauchsdaten in der gebauten Umgebung: Eine Konzeptstudie mit der Theorie der sozialen Transluzenz Mit dem verbesserten Zugang zu Daten sind wir nicht mehr weit von einer Zukunft entfernt, in der Gemeinschaften ein höheres Maß an Informationen und Daten austauschen werden, wodurch Zusammenhänge zwischen den Handlungen und dem Verhalten der Menschen mit Ursachen und Folgen hergestellt werden. Dies ist besonders wichtig für Informationen zu Konsummustern innerhalb einer Gemeinschaft, da sich einzelne Aktionen auf die gesamten Ressourcen der Gemeinschaft auswirken. Um Fehlinterpretationen solcher Daten zu vermeiden und den Nutzern zu ermöglichen, sich der Auswirkungen ihres persönlichen Konsums bewusst zu werden, verwendet diese Arbeit die Theorie der sozialen Transluzenz als einen potenziellen Rahmen, um die gebaute Umgebung für diese Zukunft des Informationsaustauschs zu entwerfen und vorzubereiten. Das Kapitel beginnt mit der Beschreibung der Theorie und verwandter Arbeiten, aber auch des Konsumverhaltens und wie dieses in Bezug auf Feedback angegangen wurde. Es definiert Parameter der Theorie der sozialen Transluzenz, die Benutzern helfen könnten, kohärentes Verhalten anzunehmen, ohne das Wohlbefinden des anderen zu beeinträchtigen, indem sie im Voraus die Folgen der Verbreitung solcher Informationen über verschiedene Kanäle hervorheben. Es wurde eine Konzeptstudie mit szenariobasiertem Design durchgeführt, für die fünf Konsumverhaltensweisen ausgewählt, in Szenarien und Geschichten dargestellt und durch eine Umfrage mit 584 Befragten validiert wurden. Die Ergebnisse zeigten, dass die Teilnehmer mit einigen der in jedem Szenario bereitgestellten Hinweise vertraut waren, schlugen jedoch auch vor, welche weiter verfeinert werden sollten, um sicherzustellen, dass den Benutzern grundlegende Rechte, wie z.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-70875-1_9 223d90eafce03cc933bb95ffddcf51b7;de;;;5.3.;;;Argumentation zu intelligenten Produkten in Konsumgüterbereichen Ambient Intelligence-Technologien verändern schnell die Produktfunktionen, aber auch die Art und Weise, wie Benutzer mit physischen Produkten interagieren. Diese produktzentrierte Haltung erfordert eine;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85379-4_21 d9b10150ab357312882b9fb68cd1af42;de;;;5.3.;;;Computergestützte Inhaltsbearbeitungstechniken für Live-Multimedia-Performance Live-Multimedia-Performance erfordert ausgeklügelte interaktive Medienverarbeitungssysteme. Aufgabe dieser Systeme ist es, als ausdrucksstarke Instrumente zu dienen, die den Künstler beim Komponieren und Aufführen unterstützen. Um der schnell wachsenden Menge und Komplexität digitaler Inhalte gerecht zu werden, schlagen wir die Anwendung computergestützter Techniken der Inhaltsbearbeitung vor. Konkret präsentieren wir eine Softwarekomponente, die den künstlerischen Workflow adressiert, indem sie den Gestaltungsraum eines Kunstwerks organisiert und darin Navigationsmöglichkeiten bereitstellt. Darüber hinaus präsentieren wir ein Framework, das Audio- und Videoanalysemethoden zur automatischen nichtlinearen Videobearbeitung einsetzt. Zusammen helfen diese Techniken dem Künstler effektiv, sich auf die Live-Komposition und den Performance-Flow zu konzentrieren, anstatt sich in einem unüberschaubaren Parameterraum zu verlieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79486-8_18 30fd8442650b28be21db8bfb92bacfe5;de;;;2.4.;;;Die Ausgestaltung einer Verbrauchsteuer unter Kapitalrisiko Dieser Beitrag konzentriert sich auf die Gestaltung einer Konsumsteuer in einer Welt des Kapitalrisikos. In der Gewissheitsliteratur werden zwei Standardoptionen diskutiert, nämlich das Cashflow-Verfahren und das Vorauszahlungsverfahren (also die Lohnsteuer) und erachtet beide Ansätze als gleichwertig. Modelle, die das Kapitalrisiko (über die Auswahl von Vermögenswerten) berücksichtigen, kommen zu unterschiedlichen Schlussfolgerungen. Diese Diskrepanz ist teilweise auf eine unterschiedliche Wahl des Sozialrabattsatzes zurückzuführen. Da das Diskontsatzargument das vorliegende Problem nicht lösen konnte, untersuchen wir die Marktsicherheitsäquivalenz riskanter Staatseinnahmen. Wir lassen Ertragsrisiken im privaten Sektor verbleiben und prüfen den Marktwert des realisierbaren Transfers (z. B. in Form eines öffentlichen Gutes) an die Haushalte. Wir kommen zu drei groben Schlussfolgerungen. Erstens stellen wir fest, dass, wenn der Staat jedem Haushalt seine eigenen Steuereinnahmen zurückgibt, die Gleichwertigkeit wie in den Gewissheitsmodellen wieder hergestellt wird. Als nächstes zeigen wir, dass die Lohnsteuer nicht als gültige Vorauszahlungsalternative zum Cashflow bzw. ations-System. Eine effiziente Risikoallokation über Generationen hinweg im Rahmen einer Cashflow-Steuer (oder einer, die zukünftige Kapitalgewinne sowie Löhne in die Steuerbemessungsgrundlage einbezieht) führt zu einer Pareto-Verbesserung gegenüber der einfachen Lohnsteuer. Schließlich folgt eine wichtige politische Implikation: Um praktikabel zu sein, müsste eine Verbrauchsteuer über registrierte Sparkonten ähnlich dem kanadischen Programm für registrierte Altersvorsorgepläne und nicht über den Weg der Vorauszahlung eingeführt werden.;-;-;-;https://link.springer.com/article/10.1007/BF01237464 ebb7b0f2017b2a7a67b769b379bb6828;de;;;5.3.;;;Ein komponentenbasiertes adaptives Modell für Kontextbewusstsein im Ubiquitous Computing Eine hochgradig anpassungsfähige Middleware war eine wesentliche Plattform, um flexiblere Dienste für Multimedia-, mobile und allgegenwärtige Anwendungen in allgegenwärtigen Computerumgebungen bereitzustellen. Darüber hinaus werden die persistenten Dienste dieser Anwendungssysteme und ihrer Middleware im Ubiquitous Computing benötigt, um die häufigen und unvorhersehbaren Änderungen der Benutzeranforderungen sowie der Umgebungsbedingungen zu erkennen und ihr Verhalten anzupassen. Aktuelle Ansätze zur Unterstützung der Anpassungsfähigkeit haben jedoch dazu geführt, dass Anwendungen selbst einen adaptiven Mechanismus auslösen und ausführen, wenn die zugrunde liegende Infrastruktur sie über Änderungen benachrichtigt. In diesem Papier schlagen wir ein neuartiges komponentenbasiertes kontextadaptives Modell für kontextbezogene Middleware vor, um eine effiziente dynamische Anpassung von Anwendungsdiensten zu unterstützen. Wir demonstrieren auch die aktuelle Implementierung der kontextadaptiven Middleware, die Anwendungen hilft, ihre allgegenwärtigen Computerumgebungen an sich schnell ändernde Kontexte wie benutzerspezifische Präferenzen, anwendungsspezifische Präferenzen und Low-Level-Konfigurationen anzupassen.;-;-;-;https://link.springer.com/chapter/10.1007/11596042_60 81450a3035c3a9d5a30f7af2354f640b;de;;;2.4.;;;Rheologie von Polymer- und Tensidlösungen sowie von Fasersuspensionen Um das rheologische Verhalten verschiedener Materialien zu verstehen, betrachten wir das folgende idealisierte Experiment. Eine verformbare Flüssigkeit befindet sich im Zwischenraum zwischen zwei parallelen Platten, die in Spannweitenrichtung unbestimmte Abmessungen haben, siehe Abbildung 3.1.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1295-8_3 820a40a5b396e15116162d2e0fe75862;de;;;2.4.;;;Zur Konstruktion eines chinesischen aufgabenorientierten Subjektivitätslexikons Affective Language Computing hat beträchtliches Interesse im Bereich der Verarbeitung natürlicher Sprache geweckt, mehrere Domänen wurden in diesem Bereich entwickelt. Der Aufbau eines Emotionskorpus spielt eine grundlegende Rolle bei der affektiven Sprachverarbeitung. Große Mengen neuerer Arbeiten haben sich mit diesem Thema befasst und mehrere Emotionslexika wurden eingerichtet, jedoch wurde die Aufgabe des Lexikons nicht klar untersucht und der Rolle des Emotionsworts, das in verschiedenen Aufgaben verwendet wird, wenig Aufmerksamkeit geschenkt. In diesem Beitrag werden drei grundlegende Fragen zur Etablierung eines aufgabenorientierten Subjektivitätslexikons für mehrere Anwendungsdomänen, dh das Prinzip des Sammelns und Annotierens der Emotionsbegriffe in verschiedenen Aufgaben, die Modelle der Emotionstheorie und die Zusammensetzung isolierter und kontextbezogener Begriffe werden ausführlich besprochen. Schließlich wird auch die Methode zum Aufbau dieses Lexikons untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45185-0_57 efec7f4e2db3aa22fa56c95ebf504a29;de;;;2.4.;;;Inelastische Anregungen und Absorptionseffekt bei der Elektronenbeugung Wie in Teil I dargestellt, sind Bragg-Reflexe die einzigen Strahlen, von denen erwartet wird, dass sie in Elektronenbeugungsmustern von Kristallen beobachtet werden. In der Praxis wird eine diffuse Streuung beobachtet, die bei Nicht-Bragg-Reflexionswinkeln verteilt ist, und einige dunkle und helle Linienpaare und -bänder, sogenannte Kikuchi-Linien und -Bänder, erscheinen auch im Muster. Diese Merkmale werden experimentell beobachtet, wie ein Beugungsmuster von α-Al . zeigt;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-1579-5_6 749484440ad69c8d3febe96da07ad879;de;;;2.4.;;;Die Hyperglykosylierung der HIV-Hülle: Eine Möglichkeit, die Infektiosität des Virus zu verändern? Die Glykosylierung macht 50 % der Molekülmasse der reifen Hüllglykoproteine ​​(Env) des humanen Immunschwächevirus aus. Die funktionelle Bedeutung dieses ungewöhnlich hohen Glykosylierungsgrades wurde teilweise durch eine Vielzahl experimenteller Ansätze aufgeklärt, und dies hat zu einer nachweisbaren Rolle von Glykanen bei posttranslationalen Ereignissen geführt, einschließlich eines effizienten intrazellulären Routings und der funktionellen Faltung des Moleküls. Eine Veränderung der Env-Glykosylierung kann daher die biologische Aktivität modulieren und bietet die Möglichkeit, die Viruspathogenität zu reduzieren, tatsächlich hat sich gezeigt, dass die Entfernung von Glykosylierungsstellen oder die Veränderung des Glykosylierungsmusters durch Arzneimittelbehandlung zu einer beeinträchtigten Virusinfektiosität führt. Als Ziel für eine antivirale Therapie basierend auf der Veränderung der Glykosylierung stellt daher HIV Env ein attraktives Ziel dar.;-;-;-;https://link.springer.com/article/10.1007/BF02174015 9f310485b00361cee14cbe053a3830cf;de;;;2.4.;;;Der Grasshopper Neuroblast Short-Term Assay zur Bewertung der Auswirkungen von Umweltchemikalien auf Chromosomen und Zellkinetik Der Heuschrecken-Neuroblast (GHNb) ist ein Neuling in der Bibliothek von Tests, die zur Bewertung der Mutagenität von Umweltchemikalien verfügbar sind. Die meisten der aktuellen Tests werden seit Beginn der gegenwärtigen Ära aktiver Forschung zur Identifizierung von Umweltmutagenen und Karzinogenen eingesetzt, die Ende der 1960er Jahre internationale Bedeutung erlangte.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2147-7_1 12021f648c475330773605ff61cf13c5;de;;;5.3.;;;Extreme von gewichteten Dirichlet-Arrays In diesem Artikel untersuchen wir das asymptotische Verhalten von Stichprobenmaxima von gewichteten Dirichlet-Dreiecksanordnungen. Zwei Fälle sind für unsere Analyse interessant, a) der zugehörige Zufallsradius des Dreiecksfeldes hat Verteilungsfunktion im Gumbel, b) oder im Weibull-Max-Anziehungsgebiet. In dieser Arbeit leiten wir die asymptotischen Bedingungen her, die solche Arrays in Hüsler-Reiss-Dreiecksarrays verwandeln.;-;-;-;https://link.springer.com/article/10.1007/s10687-008-0064-4 c4d6eeab9a37afe72e10da6c8c3973a3;de;;;5.3.;;;Erkennen von Mustern der visuellen Aufmerksamkeitszuweisung mithilfe von Blickverhalten Die Human Attention Allocation Strategy (HAAS) ist eng mit der Betriebsleistung verbunden, wenn er/sie über eine Mensch-Maschine-Schnittstelle mit einer Maschine interagiert. Blickverhalten, das von der Eye-Tracking-Technologie erfasst wird, kann verwendet werden, um die Aufmerksamkeitsverteilung zu beobachten. Aber die leistungsabhängige Aufmerksamkeitsallokationsstrategie ist mit Blickreizen immer noch schwer zu messen. In diesem Beitrag versuchen wir, das visuelle Aufmerksamkeitsallokationsverhalten zu verstehen und die Beziehung zwischen Aufmerksamkeitsallokationsstrategie und interaktiver Leistung auf quantitative Weise aufzuzeigen. Durch die Verwendung eines neuartigen Multi-Level-Clustering-Ansatzes liefern wir einige Ergebnisse zur probabilistischen Analyse der interaktiven Leistung von HAAS-Mustern in einer Simulationsplattform von thermisch-hydraulischen Prozessanlagen. Es kann beobachtet werden, dass diese Muster empfindlich auf interaktive Leistung reagieren. Wir kommen zu dem Schluss, dass unser Multi-Level-Clustering-Ansatz effizient menschliche Aufmerksamkeitsverteilungsmuster extrahieren und die interaktive Leistung mithilfe von Blickbewegungen bewerten kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-2053-7_49 340fb3567b2fa44fb56fed06795033c3;de;;;5.3.;;;22 Ein sanfter/S-Ansatz zur robotergestützten Neurorehabilitation Bewegungsstörungen (MD) umfassen eine Gruppe neurologischer Störungen, an denen neuromotorische Systeme beteiligt sind. MD kann zu mehreren Anomalien führen, die von Bewegungsunfähigkeit bis hin zu schweren ständigen und übermäßigen Bewegungen reichen. Schlaganfälle sind eine der Hauptursachen für Behinderungen, von denen hauptsächlich ältere Menschen weltweit betroffen sind. Traditionelle Behandlungen beruhen auf dem Einsatz von Physiotherapie, die teilweise auf Theorien basiert und auch stark auf die Ausbildung und Erfahrung des Therapeuten angewiesen ist. Der Mangel an Beweisen dafür, dass eine Behandlung wirksamer ist als jede andere, macht die Rehabilitation von Schlaganfallpatienten zu einer schwierigen Aufgabe. Die motorischen Wiedererlernungs- und Erholungsniveaus des UL verbessern sich tendenziell mit intensiver Physiotherapie. Die Notwendigkeit schlüssiger Evidenz, die eine Methode gegenüber der anderen unterstützt, und die Notwendigkeit, den Schlaganfallpatienten zu stimulieren, legen eindeutig nahe, dass traditionellen Methoden ein hoher Motivationsgehalt sowie objektive standardisierte Analysemethoden zur Bewertung der Leistung eines Patienten und zur Beurteilung der Therapiewirksamkeit fehlen. Trotz aller Fortschritte bei maschinell vermittelten Therapien besteht immer noch Bedarf an der Verbesserung der Therapieinstrumente. Dieses Kapitel beschreibt einen neuen Ansatz zur robotergestützten Neurorehabilitation für die Rehabilitation der oberen Gliedmaßen. Gentle/S führt einen neuen Ansatz zur Integration geeigneter haptischer Technologien in hochwertige virtuelle Umgebungen ein, um Menschen mit Beeinträchtigungen der oberen Gliedmaßen infolge eines Schlaganfalls herausfordernde und sinnvolle Therapien anzubieten. Der beschriebene Ansatz kann traditionelle Therapieinstrumente verbessern, eine Therapie „on demand“ anbieten und genaue objektive Messungen des Fortschritts eines Patienten darstellen. Unsere jüngsten Studien legen nahe, dass der Einsatz von Telepräsenz- und VR-basierten Systemen Patienten möglicherweise dazu motivieren kann, längere Zeit Sport zu treiben. Zwei identische Prototypen wurden in Großbritannien und Irland mit einer Kohorte von 30 Schlaganfallpatienten ausführlichen klinischen Studien unterzogen. Aus den Erfahrungen mit dem Gentle/S-Ansatz ist auch klar, dass qualitativ hochwertige Therapiegeräte dieser Art bei der zukünftigen Durchführung der Schlaganfallrehabilitation eine Rolle spielen und dass dem Patienten und seinem klinischen Team von Anfang an maschinell vermittelte Therapien zur Verfügung stehen sollten Krankenhauseinweisung bis hin zur langfristigen Unterbringung im Heim des Patienten nach der Krankenhausentlassung.;-;-;-;https://link.springer.com/chapter/10.1007/10946978_22 b97702f4e875bbaeb77495c98b5df211;de;;;5.3.;;;Jüngste Entwicklungen und neue Trends in der NMR an orientierten Kernen Aktuelle Entwicklungen in der Kernspinresonanz an orientierten Kernen (NMR-ON) werden mit den folgenden Hauptthemen besprochen: (i) Messung magnetischer Momente. In diesem Zusammenhang wird die Resonanzverschiebung von NMR-ON-Resonanzen mit einem externen Magnetfeld kritisch diskutiert. (ii) Resonanztechniken zur Messung elektrischer Quadrupolmomente. Es wird gezeigt, dass — mit hcp-Co als Wirtsmatrix — die Techniken QI-NMR-ON (quadrupol-interaction-resolved NMR-ON) und MAPON (modulierte adiabatische Passage an orientierten Kernen) ein enormes Potenzial zur Messung von Quadrupolmomenten haben von radioaktiven Kernen. Daten werden für mittlere (Zr, Nb) und schwere Elemente (Ir, Pt, Au, Hg) präsentiert. Mit Ergebnissen am 11/2;-;-;-;https://link.springer.com/article/10.1007/BF02150189 2c36247a4ae3ec0510089feed3f14cdf;de;;;5.3.;;;Eine CAD-Umgebung für sicherheitskritische Software Das Ziel der Projekte der University of Washington, der University of Minnesota und der Safeware Engineering Corporation für sicherheitskritische Systeme ist es, eine theoretische Grundlage für Softwaresicherheit zu entwickeln und auf dieser Grundlage eine Methodik aufzubauen. Dieses Papier beschreibt die Methodik und eine Reihe von Sicherheitsanalysetechniken (und Prototyp-Tools), um diese zu unterstützen. Die Prototypwerkzeuge werden entwickelt, um die Techniken zu evaluieren. Um sicherzustellen, dass die Verfahren auf realistische Systeme skaliert werden, werden die Werkzeuge und Techniken an realen Systemen evaluiert, darunter TCAS II (Traffic Alert and Collision Avoidance System), ein luftgestütztes Kollisionsvermeidungssystem, das für die meisten Flugzeuge erforderlich ist, die im US-Luftraum fliegen, a Experimentelles Flugmanagementsystem der NASA, ein NASA-Roboter, der zur Wartung von Kacheln auf dem Space Shuttle verwendet wird, und schlug Upgrades für das US-Flugsicherungssystem vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0523-7_7 ab0814f91448dc941f616956a4df6c92;de;;;5.3.;;;Abschlussoperatoren in der Fuzzy-Set-Theorie In Übereinstimmung mit Tarskis Standpunkt wird in diesem Kapitel die Theorie der Abschlussoperatoren als vereinheitlichendes Werkzeug für Fuzzy-Logiken vorgeschlagen. Sei F die Formelmenge einer gegebenen Sprache. Dann wird eine abstrakte Fuzzy-Logik durch eine Fuzzy-Semantik (d. h. eine Klasse von Bewertungen der Formeln in F) und durch einen Abschlussoperator im Gitter der Fuzzy-Teilmengen von F (wir nennen Deduktionsoperator) definiert. Man beweist, dass sich Pavelkas Logik, Ähnlichkeitslogik und Theorie der gradierten Konsequenz auf diese Weise darstellen lassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5243-7_4 24ea8866e62135b059d13f99421a6435;de;;;5.3.;;;Wärmeübertragung in elektronischen Paketen Es wurde angenommen, dass die Erfindung des Transistors mit seinem relativ geringen Leistungsbedarf alle Kühlprobleme stark minimieren, wenn nicht sogar vollständig beseitigen würde. Diese Gedanken waren jedoch nur von kurzer Dauer, da die Ingenieure versuchten, Leistung, Kosten und Zuverlässigkeit zu verbessern, indem sie eine größere Anzahl von Schaltungen auf immer kleinerem Raum unterbringen. Tatsächlich haben die Leistungsdichten auf Komponentenebene im Laufe der Jahre dramatisch zugenommen. In Großrechnern können Chips mit einer Verlustleistung zwischen 20 und 40 W gefunden werden, und Chips mit einer Verlustleistung von mehr als 10 W können in vielen PC- und Workstation-Anwendungen gefunden werden. Betrachtet man ein Beispiel aus einem Großrechner, ergibt ein 7 × 7-mm-Chip mit 30 W Verlustleistung einen Wärmestrom von mehr als 6 × 10;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4086-1_4 be1d659aa921aa0f55793cdedb78cf92;de;;;5.3.;;;Barokline Theorien der windgetriebenen Zirkulation Dieser Artikel gibt einen Überblick über einige idealisierte barokline Theorien der windgetriebenen Ozeanzirkulation. Das Quasigeostrophe-Modell mit zwei Schichten, bei dem die Schichten eher die oberen Thermokline-Wasser als die volle Tiefe des Ozeans darstellen, wird durchgehend verwendet. Der Schwerpunkt liegt auf Innenraumlösungen und der Rolle von mesoskaligen Wirbeln. Westliche Grenzschichten, die die Strömungsmuster schließen, werden ignoriert. Dieses stark idealisierte Modell ist ein bequemer Erklärungsträger für wichtige Konzepte, die in komplizierteren mehrschichtigen (und kontinuierlich geschichteten), nichtquasigeostrophischen Theorien wieder auftauchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-4636-7_4 cd6951fef3a4c896eca8cea6d651abb7;de;;;5.3.;;;Ein Maß für die Aussprache von CVC-Trigrammen Alle 2100 CVC-Trigramme wurden auf Aussprache skaliert, indem die Aussprachelatenz (PLat) gemessen wurde. Die resultierende Verteilung der PLat-Scores war extrem leptokurtisch und positiv verzerrt. Die Werte reichten von einem Minimum von 0,531 Sekunden bis zu einem Maximum von 1,726 Sekunden. Der durchschnittliche PLAt betrug 0,81 s. Der Zusammenhang zwischen PLat und Archer-Sinnhaftigkeit war linear, jedoch gering (r=−.37). Dieser Befund wird als Hinweis darauf interpretiert, dass PLat relativ frei von Verzerrungen durch andere Reizattribute wie Sinnhaftigkeit ist. Als solches wird P Lat als eine grundlegende Verarbeitungszeit für solche Stimulusmaterialien wiedergebend angesehen.;-;-;-;https://link.springer.com/article/10.3758/BF03208098 8b492ddfa4a80c0a021337ab4954bbb6;de;;;5.3.;;;Die Wahrnehmung der Roboter durch Kinder erforschen Um Roboter angemessen in den Bildungsbereich einzuführen, ist es notwendig, die Wahrnehmung der Kinder zu den Robotern zu berücksichtigen. In dieser Studie entwickelten die Forscher den Fragebogen, um die allgemeinen Eindrücke der Kinder von den Robotern, die Rollen der Roboter im Klassenzimmer und das Aussehen der Roboter zu untersuchen. Einhundertsiebenundsechzig Fünftklässler nahmen an diesem Fragebogen teil. Die Ergebnisse zeigen, dass die meisten Schüler einen guten Eindruck von den Robotern und eine positive Einstellung haben, die Roboter in ihrem Klassenzimmer zu sehen. Ihre Antworten zeigen auch, dass sie möglicherweise zu hohe Erwartungen an die Roboter haben. Außerdem zeigen die Ergebnisse, dass die meisten Kinder Cartoon-ähnliche Roboter und tierähnliche Roboter mögen, weil die Roboter sehr süß sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03364-3_63 c16413a0cc9aa9b8d1b7109a8af1ae9d;de;;;5.3.;;;Benutzeroberfläche im virtuellen Raum mit VR-Gerät mit Eye-Tracking Für schwerbehinderte Menschen, die ihre Hände nicht kontrollieren können, ist es schwierig, Maus und Tastatur zu bedienen. Wir haben uns mit einer dreidimensionalen Benutzerschnittstelle für den virtuellen Raum auf der Grundlage von Konvergenz und Divergenz unter Verwendung eines Virtual-Reality-Geräts mit Blickverfolgungsfunktion beschäftigt. In diesem Beitrag schlagen wir vor, der Benutzeroberfläche eine Flick-Funktion hinzuzufügen. Die Flick-Funktion ist eine Kombination aus Blinzeln und schneller Sehverschiebung. Durch die Verwendung dieser Flick-Operation haben wir sowohl die Texteingabe in den Computer als auch die Fensteranordnung erreicht. Diese neue Funktion ermöglicht es behinderten Menschen, Computer nur mit den Augen zu bedienen, so wie gesunde Menschen mit den Händen arbeiten können. Um die Machbarkeit unserer Benutzeroberfläche zu zeigen, haben wir numerische Experimente durchgeführt und gute Ergebnisse erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-55307-4_48 1149a45eb525ddc0ee73e89ab9136e40;de;;;5.3.;;;Handgestenerkennung in Echtzeit für die Mensch-Roboter-Interaktion In diesem Artikel wird ein Handgestenerkennungssystem vorgeschlagen, das die Interaktion mit einem Serviceroboter in dynamischen Umgebungen und in Echtzeit ermöglicht. Das System erkennt Hände und statische Gesten mithilfe einer Kaskade von verstärkten Klassifikatoren und erkennt dynamische Gesten, indem es zeitliche Statistiken der Positionen und Geschwindigkeiten der Hand berechnet und diese Merkmale mithilfe eines Bayes-Klassifikators klassifiziert. Die Hauptneuheit des vorgeschlagenen Ansatzes ist die Verwendung von Kontextinformationen, um das Hautmodell, das bei der Erkennung von Handkandidaten verwendet wird, kontinuierlich anzupassen, die zu analysierenden Bildbereiche einzuschränken und die Anzahl der zu untersuchenden Skalen zu reduzieren in den Handsuch- und Gestenerkennungsprozessen berücksichtigt. Die Systemleistung wird in realen Videosequenzen validiert. Im Durchschnitt erkannte das System in 70 % der Fälle statische Gesten, in 75 % dynamische Gesten, und es läuft mit einer variablen Geschwindigkeit von 5-10 Bildern pro Sekunde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11876-0_5 13bb2a8c51da477a7ff09b9cf902bb32;de;;;2.4.;;;Luftgetragene Bakterien im Innen- und Außenbereich in Kindertagesstätten in Edirne City (Türkei), saisonale Verteilung und Einfluss meteorologischer Faktoren Dieses Papier präsentiert Informationen über luftgetragene mesophile Bakterien in der Innen- und Außenluft von Kindertagesstätten (CDCCs) in der Stadt Edirne, Türkei. Luftproben wurden unter Verwendung der Petri-Platten-Gravitationsabsetzmethode aus der Innen- und Außenluft von CDCCs gesammelt. Die Anzahl der in der Luft befindlichen Bakterien wurde als koloniebildende Einheiten (CFU) gemessen, die durch Schwerkraft auf Hirn-Herz-Infusionsagarplatten (mit 5% Schafblut) gesammelt wurden. Zwischen Januar und Dezember 2004 wurden monatlich über einen Zeitraum von 12 Monaten Proben genommen. Insgesamt wurden 3.120 Bakterienkolonien auf 192 Petrischalen gezählt. Vier Gruppen kultivierbarer Bakterien wurden identifiziert: Gram-positive Kokken, Gram-positive Bazillen, Endosporen bildende Gram-positive Bazillen und Gram-negative Bakterien. In der Luft übertragene grampositive Bakterien waren bei mehr als 95 % der gemessenen Population am häufigsten. Während grampositive Kokken häufiger in Innenräumen vorkamen, waren grampositive Bazillen in der Außenluft dominanter. Bakterien, die üblicherweise aus CDCCs isoliert wurden, wurden auf Gattungsebene identifiziert.;-;-;-;https://link.springer.com/article/10.1007/s10661-009-0874-0 3cac7a7f7b3cec8dcba7372faa035480;de;;;2.4.;;;Ionische Mechanismen und Verhaltensfunktionen der präsynaptischen Fazilitation und präsynaptischen Hemmung bei Aplysie: Ein Modellsystem zur Untersuchung der Modulation der Signalübertragung in sensorischen Neuronen Während des letzten Jahrzehnts haben verschiedene pharmakologische und physiologische Studien gezeigt, dass sich Rezeptoren für chemische Botenstoffe nicht nur am Zellkörper und an Dendriten befinden, sondern auch an präsynaptischen Nervenzellen (Abb. 1). Das Auffinden von Rezeptoren an präsynaptischen Enden ist aus drei Gründen interessant und wichtig.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-66744-2_3 18e905f7304f6cd6f3c9550096006551;de;;;2.4.;;;Management von Cytomegalovirus-Infektionen bei Empfängern von Blut- und Knochenmarktransplantationen Als eines der 8 humanen Herpesviren (bezeichnet als humanes Herpesvirus 5) teilt CMV Eigenschaften mit anderen Herpesviren, einschließlich der Virion- und Genomstruktur und der Fähigkeit, nach Primärexposition lebenslang persistierende und latente Infektionen zu etablieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4743-3_9 7344a4fcfc33ac83a551342cf9bf03de;de;;;5.3.;;;Satz von Cramér Es gibt zwei Richtungen, in denen man versuchen könnte, die bisher erzielten Ergebnisse zu erweitern. Eine davon ist zu sehen, wie weit man bei der Argumentation auf der Grundlage unabhängiger Inkremente gehen kann. Die zweite besteht darin, die Ergebnisse von Abschnitt 1) ​​unter Ausnutzung der Gaußschen Eigenschaften zu verallgemeinern. In diesem Abschnitt gehen wir in die erste dieser Richtungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-8514-1_4 795da0bcf497e5a74a9cee69082700c2;de;;;5.3.;;;Bild- und Videoabruf mit neuen Aufnahme- und Anzeigegeräten Bei einer Standardkamera und einem Standardanzeigebildschirm sind Bild- und Videoabrufprobleme gut verstanden, wenn sie noch nicht gelöst sind. Aber was passiert, wenn das Aufnahmegerät leistungsfähiger ist? Oder das Anzeigegerät? Einige der schwierigen Probleme könnten leichter gemacht werden, und einige der unmöglichen Probleme könnten machbar werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27814-6_3 82ae20cb76eceac5ea00a42d2139cf4b;de;;;5.3.;;;Multidimensionales soziales Netzwerk: Modell und Analyse Ein soziales Netzwerk ist ein abstraktes Konzept, das aus einer Menge von Menschen und Beziehungen besteht, die Paare von Menschen verbinden. In der Arbeit wird ein neues multidimensionales Modell vorgeschlagen, das drei Hauptdimensionen abdeckt: Beziehungsschicht, Zeitfenster und Gruppe. Diese Dimensionen haben einen gemeinsamen Satz von Knoten, die typischerweise menschlichen Wesen entsprechen. Beziehungsschichten spiegeln wiederum verschiedene Beziehungstypen wider, die aus verschiedenen Benutzeraktivitäten extrahiert wurden, die in Computersystemen gesammelt wurden. Die Zeitdimension entspricht der zeitlichen Variabilität des sozialen Netzwerks. Mittels Clustering-Methoden werden soziale Gruppen extrahiert und nahe beieinander stehende Personen gruppiert. Eine atomare Komponente des multidimensionalen sozialen Netzwerks ist ein View – ein kleines soziales Subnetzwerk, das sich im Schnittpunkt aller Dimensionen befindet. Eine Ansicht beschreibt den Zustand einer sozialen Gruppe, die durch einen Beziehungstyp (eine Ebene) verbunden ist und aus einem Zeitraum abgeleitet wird. Das multidimensionale Modell eines sozialen Netzwerks ähnelt einem allgemeinen Konzept eines Data Warehouse, bei dem eine Tatsache einer Ansicht entspricht. Auch Aggregationsmöglichkeiten und die Nutzung des Modells werden in dem Papier diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23935-9_37 d1874ebc53e94402d2a7d237d8859d46;de;;;5.3.;;;Lineares viskoelastisches Verhalten in verschiedenen Verformungsmodi In den Kapiteln 2 bis 10 wurde das linear viskoelastische Verhalten im Hinblick auf das Scherverhalten diskutiert (vgl. Abschn. 2.1). Wir erweitern nun unsere Diskussion, um lineares viskoelastisches Verhalten in anderen Verformungsmodi als Scherung zu behandeln. Dazu müssen wir die viskoelastischen Analoga der Spannungs-Dehnungs-Beziehungen eines allgemeinen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-73602-5_11 c4975e673c6efaaf8ab1d5d1fc115d29;de;;;5.3.;;;Wirbelbewegungen der Madelung-Flüssigkeit Die allgemeinen Bewegungen des kontinuierlichen Mediums (Madelung-Flüssigkeit), dessen drehungsfreie Bewegungen durch die Schrödinger-Gleichung beschrieben werden, werden diskutiert. Es wird gezeigt, dass viele der Grundsätze der Wirbelbewegungen der reibungsfreien barotropen Flüssigkeiten auch für die Madelung-Flüssigkeit gelten. Eine detaillierte Diskussion der Clebsch-Parameter wird gegeben. Es wird gezeigt, dass es eine spezielle Art von stationären Bewegungen gibt, ähnlich den Beltrami-Bewegungen, bei denen die Stromlinien mit den Wirbellinien zusammenfallen, was einer engen Verallgemeinerung der gewöhnlichen stationären Zustände entspricht. Die Quantisierung der Wirbelröhren wird diskutiert. Beispiele für Beltrami und diskontinuierliche Bewegungen der Madelung-Flüssigkeit werden gegeben. Es wird gezeigt, dass die allgemeinen Bewegungen der Madelung-Flüssigkeit auch physikalisch in Bezug auf die gewöhnlichen Quantenzustände eines Teilchens interpretiert werden können.;-;-;-;https://link.springer.com/article/10.1007/BF02855217 2bfc9148b6528d8bf9c6a9e06820b7dd;de;;;2.4.;;;Verbesserung des Verhaltensphänotyps bei Weaver-Mutantenmäusen durch bilaterale intrastriatale Transplantation von fetalen Dopaminzellen Weaver mutierte Mäuse verlieren mehr als zwei Drittel ihrer nigralen Dopaminneuronen. Im Verhalten zeigen Weber-Homozygoten Zittern, Ganginstabilität und kippen nach wenigen Schritten zur Seite. Die Wiederherstellung funktioneller Antworten wurde in einer Reihe von Verhaltenstests bei Weaver-Mutanten nach bilateraler Transplantation von mesencephalen Zellsuspensionen (hergestellt aus Wildtyp-Mäusen) in das Striatum bestimmt. Das Gleichgewicht wurde getestet, bis die Mäuse in der Lage waren, auf einem aufgehängten Ausgleichsstab zu bleiben, bevor sie herunterfielen. Die Bewegungskoordination wurde anhand der Häufigkeit gemessen, mit der Mäuse zur Seite kippten, während sie sich in einer Freifeld-Matrix bewegten. Die lokomotorische Aktivität wurde durch die Anzahl der quadratischen Kreuzungen in einer Open-Field-Matrix quantifiziert. Gepfropfte Weaver-Mutanten zeigten bei all diesen drei Aufgaben eine signifikant bessere Leistung als nicht gepfropfte mutierte Mäuse. Die Ergebnisse zeigen deutlich, dass bilaterale Transplantationen von fetalen DA-Zellen die motorische Leistung im Webermodell des chronischen nigrostriatalen DA-Mangels verbessern.;-;-;-;https://link.springer.com/article/10.1007/BF00242005 6803d853dabc256586ea80b405e475b3;de;;;2.4.;;;Der Einsatz mathematischer Modelle bei der Unfallfolgenabschätzung für den Transport gefährlicher Stoffe auf See Der Transport von Gefahrgut auf See birgt gewisse Risiken für die Umwelt. Bei der Abschätzung der Unfallfolgen sind mathematische Modelle notwendig, um das Verhalten des fremden Gefahrstoffes in der Meeresumwelt zu beschreiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-0887-1_5 6ca0a87e0292b92477d0e1ec71628184;de;;;2.4.;;;Auswertung der reskalierten Bereichsanalyse für Zeitreihen Die reskalierte Bereichsanalyse ist ein Mittel zur Charakterisierung einer Zeitreihe oder eines eindimensionalen (1-D) räumlichen Signals, das gleichzeitig ein Maß für die Varianz und die Langzeitkorrelation oder das „Gedächtnis“ liefert. Das trendkorrigierte Verfahren basiert auf die statistische Selbstähnlichkeit im Signal: im Standardansatz misst man das Verhältnis;-;-;-;https://link.springer.com/article/10.1007/BF02368250 a0449b7f94545acc8948da05e67746ee;de;;;5.3.;;;Stochastische Differentialgleichungen Wir untersuchen in diesem Kapitel Existenz- und Eindeutigkeitsfragen für Lösungen stochastischer Differentialgleichungen und bieten eine Untersuchung ihrer Eigenschaften an. Dieses Unterfangen ist wirklich eine Studie von;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-0949-2_5 8f03308d019a3a97818fc794b864b28e;de;;;5.3.;;;Teilweise geordnete Monaden und Rough Sets In diesem Beitrag werden wir zeigen, dass teilweise geordnete Monaden eine geeignete Struktur für die Modellierung grober Mengen in einer generalisierten relationalen Umgebung enthalten. Teilweise geordnete Monaden haben sich auch in topologischen und generalisierten Konvergenzsystemen als nützlich erwiesen. Der Beitrag demonstriert somit die Verwendung von Monadenkonstruktionen für Anwendungen auf Grobsätze und noch weiter auf völlig neue Anwendungsarten dieser verallgemeinerten Grobsätze. Damit eröffnet der Beitrag bisher unbekannte Forschungsrichtungen für grobe Sets sowohl für Anwendungen innerhalb anderer theoretischer Forschungsgebiete als auch für reale Anwendungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85064-9_4 527843be91ba6c31890e78a9d13730a0;de;;;5.3.;;;Funktionale und affine Vollständigkeit und arithmetische Varianten Unser Verständnis von affinen vollständigen und funktionell vollständigen Algebren und Varietäten von affinen vollständigen Algebren hängt eng mit unserem Verständnis von arithmetischen Algebren und Varietäten zusammen. Aus diesem Grund untersuchen wir zunächst grundlegende Ergebnisse über arithmetische Algebren und Varietäten, wobei wir uns auf endliche Algebren und endlich erzeugte Varietäten konzentrieren. Die Grundzüge der Theorie der Kongruenzverteilungs-affinen vollständigen Varietäten werden diskutiert, und dann wird die Aufmerksamkeit auf arithmetische affine vollständige Varietäten gerichtet, wobei einige neuere Ergebnisse hervorgehoben werden, die ihre Struktur beschreiben. Insbesondere werden wir die Eigenschaften endlicher, arithmetischer, affiner vollständiger Algebren ohne echte Unteralgebren (FACS-Algebren) untersuchen, da jede affine vollständige arithmetische Varietät endlichen Typs von einer solchen Algebra erzeugt wird. Wir werden einige interessante hinreichende Bedingungen für eine FACS-Algebra präsentieren, um eine arithmetische (und damit affine vollständige) Varietät zu erzeugen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-0697-1_8 e7af7e4c0d6315bb3075cade3896c497;de;;;5.3.;;;Homocystein-induzierte Lipidperoxidation im Gehirn: Auswirkungen von NMDA-Rezeptorblockade, antioxidativer Behandlung und Hemmung der Stickoxid-Synthasease Die Wirkung von Homocystein (HCY) auf die Lipidperoxidation (LP), einen aktuellen Mechanismus der oxidativen Neurotoxizität, wurde in Synaptosomen des Rattenhirns untersucht. LP wurde durch Messung der Menge an Thiobarbitursäure-reaktiven Substanzen (TBARS) bewertet, die nach der HCY-Behandlung aus synaptosomalen Fraktionen gebildet wurden. Steigende HCY-Konzentrationen (5–1000 μM) verstärkten konzentrationsabhängig die TBARS-Bildung in Gehirnsynaptosomen. Im Vergleich zu äquimolaren Konzentrationen (100 μM) war die oxidative Potenz von HCY niedriger als die des Oxidationsmittels Eisensulfat, ähnlich der von Glutamat (Glu) und dem mitochondrialen Toxin 3-Nitropropionsäure produzierten, und höher als die von Glu that Agonisten, Kainat und Chinolinat. Das;-;-;-;https://link.springer.com/article/10.1007/BF03033381 6d325765c1b5b7fe968b411b496107bd;de;;;2.4.;;;Großräumige Struktur der Galaxie und hochenergetische Gammastrahlen-Beobachtungen Detaillierte Informationen über die hochenergetische Gammastrahlung unserer Galaxie sind durch die beiden dedizierten Satellitenmissionen SAS-2 und COS-B verfügbar geworden. Die Konsistenz der beiden Datensätze wird diskutiert, während eine zufriedenstellende allgemeine Übereinstimmung beobachtet wird, weisen einige deutliche Diskrepanzen auf mögliche Zeitschwankungen innerhalb der kompakten Quellkomponente der gesamten galaktischen Emission hin. Der Großteil der Emission scheint sehr gut mit der Säulendichte des gesamten interstellaren Gases korreliert zu sein, wie durch Radiobeobachtungen von H . verfolgt;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-7208-7_15 ab0fdc13b37c1b05cb09014cea419d0f;de;;;2.4.;;;und Magengeschwüre Magengeschwüre sind ein häufiges gastrointestinales (GI) Problem, das erhebliche Auswirkungen auf das Wohlbefinden der Patienten und die Gesundheitskosten hat. Komplikationen sind Blutungen, Perforationen und eine Obstruktion des Magenausgangs. Ätiologien, die der peptischen Ulkuskrankheit zugrunde liegen, umfassen;-;-;-;https://link.springer.com/chapter/10.1007/978-1-59259-299-9_3 9cd8d26529155d226e89655eab1041aa;de;;;2.4.;;;Wirkung von Tunicamycin auf die Aktivität und Immunreaktivität von Ascorbatoxidase (Cucurbita pepo medullosa), exprimiert in kultivierten grünen Zucchinizellen Ascorbatoxidaseaktivität und Immunreaktivität wurden in Rohgewebeextrakten bewertet, die aus Kalluszellkulturen erhalten wurden, die durch grünes Zucchini-Sarkokarp induziert und in Gegenwart von Tunicamycin, einem starken N-Glycosylierungsinhibitor, gezüchtet wurden. Tunicamycin bei 2 oder 4 µg ml-1 blockierte das Zellwachstum innerhalb weniger Wochen, obwohl im gleichen Zeitraum eine anhaltende Zellviabilität beobachtet wurde. Eine signifikante Hemmung der Gesamtproteinsynthese wurde nach 10 und 15 Tagen Kulturzeit beobachtet, mit einer Abnahme von 30% bzw. 43%, wenn Zellen in Gegenwart von 2 µg ml-1 Tunicamycin gezüchtet wurden, und von 48% bzw. bzw. bei einer Tunicamycin-Konzentration von 4 µg ml-1. Nach den gleichen Kulturzeiten zeigte die Ascorbatoxidase-spezifische Aktivität, die in Rohgewebeextrakten getestet wurde, bei 2 und 4 μg ml-1 Tunicamycin . Zunahmen von etwa 1,9-fach und 3,5-fach (10 Tage) bzw. 1,7-fach und 3,1-fach (15 Tage) , beziehungsweise. Die Ascorbatoxidase-mRNA-Spiegel unterschieden sich jedoch nicht merklich zwischen Kontroll- und behandelten Proben, gemessen zu den gleichen Wachstumszeiten. Lectin-Blot, basierend auf der Verwendung von Concanavalin A, zeigte eine deutliche Abnahme von glykosylierten Proteinen in mit Tunicamycin behandelten Kulturen. Wie durch Immunoblot beurteilt, erkannten anti-native Ascorbatoxidase-Antikörper das in Tunicamycin-behandelten Zellen exprimierte Enzym kaum, im Gegensatz dazu waren anti-deglykosylierte Ascorbatoxidase-Antikörper reaktiver gegenüber dem in Tunicamycin-behandelten Kulturen exprimierten Enzym.;-;-;-;https://link.springer.com/article/10.1023/A%3A1006943412709 59f45c025c90d92e5a2ad90ef0568112;de;;;2.4.;;;Peritoneales und mesenteriales Trauma Bauch-Becken-Traumata können zu Quetschungen, Dilazerationen, Peritoneal- und Bandausrissen, Frakturen parenchymatöser Organe, Perforation des Darms, Ruptur der Gallen- und Harnwege sowie Riss oder Ruptur von Gefäßen mit Eindringen von Flüssigkeit (Blut, Urin, Galle) oder Gas führen in die Peritonealhöhle und die subperitonealen Räume.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-56488-8_8 511d16d236d999a342dd9747e8b3119c;de;;;5.3.;;;Ein patientenzentrierter Ansatz zur Modellierung der Zugangskontrolle in EHR-Systemen In EHR-Systemen sind die meisten Daten bezüglich der Gesundheit eines Patienten vertraulich. Daher ist es notwendig, einen Mechanismus zur Zugriffskontrolle bereitzustellen. Dies muss nicht nur die Vertraulichkeit und Integrität der Daten gewährleisten, sondern auch die Definition von Sicherheitsrichtlinien ermöglichen, die dem Bedürfnis nach Privatsphäre des Patienten Rechnung tragen, auf den sich die Dokumente beziehen. In diesem Papier definieren wir ein neues Zugangskontrollmodell (AC) für EHR-Systeme, das es dem Patienten ermöglicht, Zugangsrichtlinien basierend auf seinem/seinem Bedürfnis nach Privatsphäre zu definieren. Unser Modell geht vom RBAC-Modell aus und erweitert es um Merkmale und Komponenten, um die Zugriffsrichtlinien auf einfache und dynamische Weise zu verwalten. Es gewährleistet die Privatsphäre der Patienten, und aus diesem Grund bezeichnen wir es als patientenzentriertes AC-Modell.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03889-6_26 2f95acd4140d79d84ced0ad177c8feac;de;;;5.3.;;;Ein kontaktloser Gehstock mit Tiefensensor und Vibratoren Die meisten sehbehinderten Menschen benutzen einen weißen Gehstock. Es erweitert einen berührbaren Bereich bis zu einem Ausmaß, das einige Hindernisse umfassen kann, und hilft ihnen dann beim Gehen. Je breiter der berührbare Bereich ist, desto besser scheint er zu sein. Ein zu langer Stick ist jedoch in Bezug auf die Portabilität unpraktisch. Auch der Benutzer kann damit jemanden treffen. Somit ist der berührbare Bereich auf die Peripherie des Benutzers beschränkt, selbst wenn er einen Stock verwendet. Wir schlagen ein kontaktloses Gehstocksystem vor, das anstelle eines weißen Gehstocks verwendet werden kann. Unser System besteht aus einem kurzen Stock, der an seinem Kopf eine Farbkugel und an seinen drei Seiten Vibratoren hat, und einem Tiefensensor, der an der Stirn des Benutzers angebracht ist. Der Tiefensensor beobachtet kontinuierlich einen Bereich auf dem Boden, zu dem der Benutzer mit der Farbkugel fährt, und sobald ein Hindernis in dem Bereich auftaucht, informiert der Stock durch Vibration in der Seite über die Existenz des Hindernisses. Um die Wirksamkeit unseres Systems zu demonstrieren, haben wir Experimente durchgeführt. Als Ergebnis haben wir beobachtet, dass die Anzahl der Kollisionen im Durchschnitt um 85% verringert werden kann, obwohl die verbrauchte Zeit im Durchschnitt um 45% zunimmt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-02053-8_153 a1c5e4b02b39e0bfdef98cdb92269c9b;de;;;2.4.;;;"Chirurgische Wiederherstellung der Stimme nach Laryngektomie Im Jahr 1974 fand in Toronto, Kanada, die Centennial Conference on Larynx Cancer statt, um an die 100 Jahre des Fortschritts seit Billroths erster Laryngektomie zu erinnern. Der Kongress versammelte aus der ganzen Welt alle am Kehlkopfkarzinom interessierten Disziplinen, um sich in formellen Debatten und informellen Diskussionen zu engagieren, um den Wissensstand zu erweitern und zu versuchen, Unterschiede in der Begründung und in der Praxis zu verstehen. Douglas Bryce sagte in der ersten Conacher Memorial Lecture: ""Die Centennial Conference hat aufgrund der Bedeutung ihrer Fakultät eine große Herausforderung, eine Informationsquelle zu sein - und eine beispiellose Informationsbank aufzubauen, die auf der ganzen Welt verbreitet werden kann"". [1]. Er fuhr fort: „Es ist die Notwendigkeit, die Fähigkeit der menschlichen Kommunikation durch Sprache zu erhalten, die unsere Überlegungen zur richtigen Primärbehandlung von Patienten mit dieser Krankheit erschwert“. Es war die Hoffnung, dass aus der Konferenz ein „großer Sprung nach vorne“ hervorgehen würde, um neue Bemühungen in der Behandlung von Kehlkopfkrebs anzuregen.";-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-3816-1_4 7e8134f64aeccfa30b0d30cea97c2b10;de;;;2.4.;;;Funktionelle Rolle von Proteinen, die Ankyrin-Repeats enthalten Dieser Aufsatz beschreibt und diskutiert neue Daten zur Struktur und Funktion von Proteinen, die in ihrer Struktur Ankyrin-ähnliche Wiederholungen enthalten. Diese Proteine ​​wurden in Zellen verschiedener Organismen gefunden, gehören aber nicht zu den Zytoskelettproteinen. Viele wichtige Funktionen solcher Proteine ​​werden von Ankyrin-Repeats übernommen, die Protein-Protein-Wechselwirkungen aufrechterhalten, die an der Bildung von Transkriptionskomplexen, der Initiierung von Immunantworten, der Biogenese und dem Aufbau von Kationenkanälen in den Membranen, der Regulation einiger Zellen beteiligt sind -Zyklusstadien, symbiotische Interaktionen und viele andere Prozesse. Mutationen in Genen, die für Ankyrin-ähnliche Proteine ​​​​kodieren, können Defekte in der Genexpression verursachen, die zum Ausbruch und Fortschreiten vieler menschlicher und tierischer Krankheiten führen. Daher sind die Struktur, Dynamik und Funktion dieser Proteine ​​Gegenstand intensiver Studien in der modernen Biologie.;-;-;-;https://link.springer.com/article/10.1134/S1990519X0801001X 0ddd73e04bd9f27ab24481e7eebdbe66;de;;;2.4.;;;Großräumige neuronale Korrelate der Entwicklungsdyslexie Jüngste Arbeiten auf dem Gebiet der Entwicklungsdyslexie haben die großräumigen neuralen Aspekte der Störung hervorgehoben, die mit modernen bildgebenden Verfahren, Elektrophysiologie und Post-Mortem-Analysen gemessen werden. In diesem Artikel werden Erkenntnisse aus diesen Forschungsbereichen vorgestellt und ihre Relevanz im Hinblick auf die Verhaltens- und kognitiven Profile von Legasthenie umfassend untersucht. Paradigmenübergreifend wurden in der perisylvischen Region großräumige Veränderungen beobachtet. Konvergente Beweise wurden auch in Bezug auf das hemisphärische Gleichgewicht berichtet. Insbesondere wurden sowohl bei Kindern als auch bei Erwachsenen mit Legasthenie Abweichungen der zerebralen Asymmetrie im Zusammenhang mit einer atypischen Organisation der linken Hemisphäre gefunden. Neue Forschungen, die Methoden mit hoher Zeitauflösung wie die Magnetenzephalographie (MEG) umfassen, weisen auf eine Beteiligung der rechten Hemisphäre hin und weisen auf die Komplexität der Entwicklungsstörung hin. Ein kombinierter Ansatz aus struktureller Bildgebung und MEG und vor allem theoriegeleiteten Verhaltensaufgaben kann die Dynamik und die Verläufe der Neurobiologie der Legasthenie beleuchten.;-;-;-;https://link.springer.com/article/10.1007/s00787-004-0361-7 df99347ce2ea15a8512ae45c3f1ea6e5;de;;;2.4.;;;Wechselwirkung von ELF elektromagnetischen Feldern mit Zellmembranrezeptoren Der Zweck dieses Papiers ist es, experimentelle Beweise zu überprüfen und physikalisch-chemische Interpretationen bezüglich der Wechselwirkung zwischen Zelloberflächenrezeptoren und ELF-Feldern zu diskutieren. Die Analyse wird auf Felder mit einem r beschränkt. m. S. Intensität nicht größer als 10 V/cm. Der Schwerpunkt wird auf die elektrische Komponente der elektromagnetischen Störung gelegt und diejenigen experimentellen Ansätze bevorzugt, die die Messung elektrochemischer Eigenschaften von Zellmembranrezeptoren betonen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2099-9_16 641dd879ef87f5671ecfd99c95ef0d9f;de;;;2.4.;;;Ein Beitrag zur Untersuchung der Enantiomerenzusammensetzung eines chiralen Bestandteils in Haselnussöl zum Nachweis von gepanschten Olivenöl Es wird eine Methode zur Bestimmung der Verfälschung von Olivenöl mit Haselnussöl vorgeschlagen, die auf der Untersuchung der Enantiomerenzusammensetzung von (;-;-;-;https://link.springer.com/article/10.1007/s002170050550 4f96f08a60baa6eca3efdde6247c1bc0;de;;;2.4.;;;Untersuchung der Funktion des Reaktionszentrums durch Analyse der Auswirkungen ortsspezifischer und kompensatorischer Mutationen Der Proteinteil des Reaktionszentrums (RC)-Komplexes besteht aus drei Untereinheiten: den Intermembran-L- und M-Ketten und dem zytoplasmatischen H-Polypeptid. Die Cofaktoren liegen innerhalb der Transmembranregion, sie sind durch ungefähr zweizählige Symmetrie verwandt, ebenso wie die homologen L- und M-Ketten [1–4]. Die Cofaktoren bestehen aus einem Bakteriochlorophyll-Dimer, das der primäre Elektronendonor ist, zwei Bakteriochlorophyll-Monomeren, zwei Bakteriopheophytinen, einem Nicht-Häm-Eisenatom und zwei Chinonen, die als letzte Elektronenakzeptoren dienen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-3050-3_39 dfebef4b6cfb9dbd63535d342653cd4f;de;;;2.4.;;;Vergleichende anatomische Verteilung des neuronalen Calcium-bindenden Proteins (NECAB) 1 und -2 im Rückenmark von Nagetieren und Menschen Die neuronalen Calcium-bindenden Proteine ​​1 und -2 (NECAB1/2) lokalisieren in mehreren exzitatorischen Neuronenpopulationen im Rückenmark der Maus. Hier analysierten wir das Rückenmark von Ratten und Menschen, indem wir In-situ-Hybridisierung und Immunhistochemie kombinierten und neu zusammengestellte Daten zum Rückenmark von Mäusen für direkte Vergleiche ergänzten.;-;-;-;https://link.springer.com/article/10.1007/s00429-016-1191-3 535189bfb2bbfdbaf96683e49643344d;de;;;2.4.;;;Sulforaphan als vielversprechendes natürliches Molekül für die Krebsprävention und -behandlung In unserer täglichen Ernährung wurden die Tumorigenität hemmende Verbindungen identifiziert. Zum Beispiel wurde berichtet, dass Isothiocyanate (ITCs), die in Kreuzblütlergemüse gefunden werden, eine starke krebspräventive Wirkung haben. Das am besten charakterisierte ITC ist Sulforaphan (SF). SF kann gleichzeitig mehrere zelluläre Ziele modulieren, die an der Karzinogenese beteiligt sind, einschließlich (1) der Modulation karzinogen metabolisierender Enzyme und der Blockierung der Wirkung von Mutagenen, (2) der Hemmung der Zellproliferation und der Induktion von Apoptose und (3) der Hemmung der Neoangiogenese und Metastasierung . SF zielt auf Krebsstammzellen durch Modulation des nuklearen Faktors Kappa B (NF-κB), Sonic Hedgehog (SHH), epithelial-mesenchymaler Übergang und Wnt/β-Catenin-Wege. Die konventionelle Chemotherapie/SF-Kombination wurde in mehreren Studien getestet und führte zu günstigen Ergebnissen. Mit seinem günstigen toxikologischen Profil ist SF ein vielversprechender Wirkstoff in der Krebsprävention und/oder -therapie. In diesem Artikel diskutieren wir den menschlichen Metabolismus von SF und seine Auswirkungen auf die Krebsprävention, -behandlung und das Targeting von Krebsstammzellen und geben einen kurzen Überblick über die jüngsten klinischen Studien am Menschen zu SF.;-;-;-;https://link.springer.com/article/10.1007/s11596-021-2341-2 77fb377163c2b295191fd01d81cd4813;de;;;5.3.;;;Computer-Multimedia-Technologie beim Aufbau von Klassenzimmeratmosphäre in der ideologischen und politischen Bildung an Hochschulen Mit verschiedenen multimedialen Lehrmethoden tauchen sie nach und nach in den Blickwinkeln der Menschen auf. In der Präsenzlehre haben die offensichtlichen Vorteile der Multimedia-Technologie immer mehr Interesse und Aufmerksamkeit bei Pädagogen gefunden. Der Zweck dieses Artikels ist es, die Anwendung von Computer-Multimedia-Technologie in der Klassenzimmeratmosphäre der ideologischen und politischen Bildung (IAPE) an Hochschulen zu untersuchen. Aus der Perspektive der Anwendung von Computer-Multimedia-Technologie nimmt dieser Beitrag die Unterrichtsatmosphäre der IAPE an Hochschulen und Universitäten (CU) als Hintergrund und auf der Grundlage relevanter realistischer Hintergründe und Theorien die allgemeinen Prinzipien moderner Bildungstechnologie und die praktische Anwendung der Computer-Multimedia-Technologie Kombinieren Sie spezifische Aktivitäten in der Präsenzlehre für die angewandte Forschung. Daher muss ihre Theorie nicht nur den theoretischen Grundlagen der modernen Bildungstechnologie folgen, sondern auch der Theorie der IAPE entsprechen, die Merkmale der Ideologie und Politikwissenschaft verkörpern und den sozialpsychologischen Merkmalen und kognitiven Entwicklungsgesetzen von College-Studenten entsprechen. Die experimentellen Ergebnisse zeigen, dass Computer-Multimedia-Technologie zwar eine gute Atmosphäre in den IAPE-Klassenzimmern von Universitäten schaffen kann, aber auch einige Nachteile hat. Dieser Artikel unterbreitet Vorschläge basierend auf der aktuellen Situation des Einsatzes von Computer-Multimedia-Technologie in der Unterrichtsatmosphäre der IAPE in CU, damit der Einsatz von Multimedia in ideologischen und politischen Klassenzimmern effizienter wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-51556-0_75 9ededefb7408a4ef6188290f84b4dd49;de;;;5.3.;;;Erreichbarkeit, Persistenz und konstruktive chemische Reaktionsnetzwerke (Teil I): Erreichbarkeitsansatz zur Persistenz chemischer Reaktionsnetzwerke Für ein chemisches Reaktionsnetzwerk ist Persistenz die Eigenschaft, dass keine Spezies zum Aussterben neigt, wenn zunächst alle Spezies vorhanden sind. Wir untersuchen die stärkere Eigenschaft der leeren Persistenz: das gleiche asymptotische Merkmal mit einer schwächeren Anforderung an die Anfangszustände, nämlich dass alle Arten implizit vorhanden sind. Mit implizit vorhanden meinen wir zum Beispiel, dass, wenn nur Wasser vorhanden ist und das Reaktionsnetzwerk die Information enthält, dass Wasser aus Wasserstoff und Sauerstoff besteht, Wasserstoff und Sauerstoff implizit vorhanden sind. Persistenz ist von Natur aus interessant und hat Auswirkungen auf die globale asymptotische Stabilität von Gleichgewichtszuständen. Unsere wichtigsten Werkzeuge sind die Arbeit von A. I. Vol’pert über die Nichtigkeit und Positivität von Artenkonzentrationen und die ermöglichende Vorstellung von Erreichbarkeit. Das Hauptergebnis besagt, dass ein Reaktionsnetzwerk genau dann vakuumpersistent ist, wenn die Menge aller Spezies die einzige Menge von Spezies ist, die sowohl hinsichtlich der Erreichbarkeit geschlossen ist als auch die implizite Anwesenheit aller Spezies verursacht. Dieser Beitrag ist der erste von drei Artikeln. Zwei Fortsetzungsarbeiten führen zusätzliche Formalismen ein und verwenden sie, um zwei große Klassen von Reaktionsnetzwerken zu beschreiben, die als Modelle in der Biochemie verwendet werden und vakuumpersistent sind.;-;-;-;https://link.springer.com/article/10.1007/s10910-011-9894-4 3ae2772902a0d3f98c111490bac17458;de;;;2.4.;;;Pleiotrope Effekte umweltsensitiver Gene, die die Fitness in Bezug auf die reproduktive Isolation nach der Paarung beeinflussen In Bezug auf die Artbildung bei sich sexuell fortpflanzenden Organismen argumentieren einige Populationsgenetiker weiterhin über die relativen Vorzüge von Sympatrie gegenüber Allopatrie. Alle Arbeiter scheinen sich jedoch mit dem herkömmlichen Szenario, das darstellt, wie reproduktive Isolation zwischen Subpopulationen im Zustand beginnender Artbildung entsteht, recht wohl zu fühlen. Diese Ansicht, nach der die Evolution der reproduktiven Isolation hauptsächlich aus einer gewissen genetischen Divergenz resultiert, die auf eine erhebliche Einschränkung des Genflusses folgt, wird hier in Frage gestellt. Es wird ein verbalen Modell beschrieben, bei dem der Genfluss nicht mehr als zunächst durch eine physikalische Barriere unterbrochen angesehen wird. Das Modell basiert auf begrenzten genetischen Veränderungen an Loci, die die Fitness beeinflussen, aber es legt den Eigenschaften der daran beteiligten genetischen Elemente zwei wichtige Beschränkungen auf. Einer von ihnen beschäftigt sich mit der Umweltsensitivität der an diesem Prozess beteiligten Mutationen, der andere mit ihrer mutmaßlichen pleiotropen Wirkung auf ein Verhaltensmerkmal.;-;-;-;https://link.springer.com/article/10.1007/BF00116223 bdcbe4afd006ab54214e9e73533eb621;de;;;2.4.;;;Strategien und Methoden zur Proteomanalyse Ein Proteom wurde als das Proteinkomplement definiert, das vom Genom eines Organismus exprimiert wird (Wilkins et al. 1996). In vielzelligen Organismen ist das Proteom das Proteinkomplement, das von einem Gewebe oder einer differenzierten Zelle exprimiert wird. Der gebräuchlichste Ansatz zur Proteomanalyse umfasst die Trennung von Proteinen durch ein- oder zweidimensionale Gelelektrophorese (IEF/SDS-PAGE), die enzymatische Spaltung ausgewählter Proteine, die Tandem-Massenspektrometrie (MS/MS) von Peptiden und schließlich die Dateninterpretation durch Computerroutinen, die auch Datenbanken durchsuchen (Abb. 1.1). In den meisten Fällen macht die Verfügbarkeit von Protein- und DNA-Sequenzen in öffentlichen Datenbanken eine vollständige Proteinsequenzanalyse überflüssig. Proteinsequenzen werden durch Teilsequenzanalyse unter Verwendung von Tandem-Massenspektrometrie schneller identifiziert, was eine schnelle, vollständige Genidentifizierung ermöglicht. So zuverlässig die Proteinidentifikation durch Massenspektrometrie geworden ist, gibt es noch viele Hindernisse, die verhindern, dass die Proteomanalyse so automatisiert und routinemäßig wie die Genomanalyse wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-59631-5_1 4640f768b352b86bd406aa074ca4e512;de;;;2.4.;;;Ericoide Mykorrhiza - Aktueller Status Ericoide Mykorrhiza-Assoziationen sind im Wurzelsystem der meisten Ericales-Mitglieder weit verbreitet und sehr spezifisch unter Mykorrhiza. Ericoide Mykorrhiza-Pflanzen sind erfolgreich bei der Besiedelung von mineralarmen, sauren organischen Böden mit hohem Gehalt an giftigen Metallionen. Ericoide Mykorrhizapilze produzieren Wachstumsförderer und Siderphoren.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-3209-3_20 e64d096aff66f2fa1d1c5275fd9ea0c2;de;;;2.4.;;;Erfassung von Strahlungsenergie durch Pflanzen Meteorologie und Biologie haben eine gemeinsame Energiequelle. Die Energie, die das Klima und das Leben nährt, kommt als Sonnenstrahlung an. Grüne Pflanzen sind natürlich für fast alle Organismen das erste Glied in der Energiekette. Pflanzen nutzen direkt nur einen kleinen, aber wichtigen Abschnitt des Spektrums – die sichtbaren Wellenlängen. Diese Energie wird chemisch gebunden, und die Nettospeicherung wird als Ausbeute an Trockensubstanz gemessen. Daher ist die sichtbare Strahlung für den Botaniker von besonderer Bedeutung. Die Gesamtstrahlungsenergiebilanz bestimmt jedoch einen Großteil der Umgebung und damit, ob die Prozesskette, die sichtbare Strahlung fixiert, gut oder schlecht funktioniert. Erträge von Wald-, Farn- oder Feldfrüchten sind daher doppelt an die Sonneneinstrahlung gekoppelt, erstens durch den Bedarf an sichtbarer Strahlung für die Photosynthese und zweitens durch die Wirkung der Strahlung auf andere Umweltfaktoren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-940033-58-7_5 9fd3a15789fad2242764ea24b0b58051;de;;;2.4.;;;Spektrale Reflexion in einem städtischen Gebiet eine Fallstudie für Tokio Das spektrale Reflexionsvermögen der Oberfläche in einem urbanisierten Gebiet wurde durch luftgestützte Messungen des spektralen Aufwärtsflusses sichtbarer Strahlung im Bereich von 475–750 nm geschätzt. Atmosphärische Effekte aufgrund von Rayleigh- und Mie-Streuung wurden berücksichtigt, indem optische Parameter verwendet wurden, um die Strahlungsübertragungsgleichung zu lösen. Die Werte für diese Parameter wurden aus Messungen der Partikelanzahlkonzentration und Größenverteilung abgeleitet.;-;-;-;https://link.springer.com/article/10.1007/BF00120687 4480466119087a1afff526d4a798dad1;de;;;2.4.;;;Sohn-Präferenz, Heirat und Generationenübergang im ländlichen China Die ländliche chinesische Gesellschaft wurde in der Vergangenheit von einem starren, auf Männer ausgerichteten patrilinearen Familiensystem dominiert, und die virillokale Ehe bleibt überwältigend dominant. Bei diesem System rufen die Eltern für jeden ihrer Söhne eine Schwiegertochter herbei, und alle Söhne haben das Recht, nach der Heirat und bis zur Familientrennung bei ihren Eltern zu Hause zu bleiben, bis die Familienteilung erfolgt oder beide Elternteile sterben ein Weg. Die Nachkommen eines Sohnes verwenden den Nachnamen seines Vaters, um die Familienlinie fortzusetzen. Das Familienvermögen wird in der Regel von allen Söhnen zu gleichen Teilen vererbt, und die Söhne sind verpflichtet, im Alter für ihre Eltern zu sorgen. Im Gegensatz dazu verheiraten Eltern alle ihre Töchter mit anderen Familien, und diese Töchter sowie ihre zukünftigen Nachkommen werden nicht mehr als Mitglieder ihrer Geburtsfamilie angesehen. Alle Rechte, Leistungen und Leistungen der Töchter gehen bei der Heirat auf die Familien ihrer Ehemänner über und sie können weder das Vermögen ihrer leiblichen Familie erben noch haben sie eine formelle Verpflichtung, ihre leiblichen Eltern im Alter Gupta und Li 1999).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-4481-6_6 000a19a068561e02bd0f2babb27d6722;de;;;5.3.;;;Exponentieller Konsens mit Abklingratenschätzung für heterogene Multi-Agent-Systeme Dieses Papier stellt eine Analysemethode vor, die auf linearen Matrixungleichungen basiert, für einen Konsens mit geschätzter Konvergenzrate in Gegenwart von Eingabeverzögerungen. Es wird angenommen, dass die Verzögerungen ungleichmäßig, zeitvariabel und möglicherweise nicht differenzierbar sind. Der vorgeschlagene Ansatz besteht darin, das Multiagentensystem in ein verzögertes lineares System reduzierter Ordnung umzuschreiben, so dass der Konsens mit Hilfe der Lyapunov-Krasovskii-Stabilitätstheorie analysiert werden kann. Abschließend wird die Effizienz der vorgeschlagenen Methode durch numerische Simulationen verifiziert.;-;-;-;https://link.springer.com/article/10.1007/s10846-018-0782-z 8b897420c48c816e7c915cc83c888798;de;;;2.4.;;;Präoperatives Sprachmapping mit funktioneller Magnetresonanztomographie Patienten mit Läsionen in oder in der Nähe des eloquenten Kortex werden typischerweise einer von mehreren invasiven Techniken unterzogen, um einen Funktionsverlust nach einer Operation zu verhindern. Eine der vielversprechendsten potentiellen klinischen Anwendungen der funktionellen Magnetresonanztomographie (fMRT) besteht darin, diese Funktionen als Teil der präoperativen Aufarbeitung abzubilden, um Risikopatienten zu identifizieren, den chirurgischen Eintritt zu steuern oder den chirurgischen Eingriff so zu gestalten, dass dies verhindert wird Defizite. Während das motorische und sensorische Mapping relativ einfach ist, ist das Sprachmapping weitaus komplexer. Das Sprachsystem ist von Person zu Person lokal variabel und kann sich in vielen Fällen teilweise oder vollständig in die kontralaterale Hemisphäre umorganisieren. Darüber hinaus tragen mehrere Regionen des Gehirns zur Sprachfunktion bei, einschließlich wesentlicher Regionen, die bei einer Operation nicht entfernt werden dürfen, und beitragender Regionen, die nach der Operation zu vorübergehenden oder unbedeutenden Beeinträchtigungen führen können. Trotz dieser Herausforderungen hat eine zunehmende Zahl von Studien den Einsatz von fMRT für die präoperative Sprachkartierung bei einer Vielzahl von Erkrankungen unterstützt. Dieser Artikel gibt einen Überblick über die Literatur zu drei Erkrankungen, bei denen Patienten von einem präoperativen Sprachmapping profitieren: Epilepsie, Hirntumoren und arteriovenöse Fehlbildungen. Jede Störung stellt einzigartige Herausforderungen an die Sprachkartierung. Es werden spezifische Fallstudien vorgestellt, die sowohl die potenziellen Vorteile der präklinischen fMRT für die Sprachkartierung als auch die potenziellen Risiken und Fallstricke hervorheben.;-;-;-;https://link.springer.com/article/10.1007/s11065-007-9026-x 514199e94e4084282cea4045313077dc;de;;;2.4.;;;Salzige, alkalische Geschichten (meistens wahr) aus der Great Basin Desert, Kalifornien und Nevada Meine Karriere hat es geschafft, wissenschaftliche Untersuchungen mit vier Jahrzehnten Feldforschung in den Sodaseen der Great Basin Desert zu verbinden. Es war ein ziemliches Abenteuer. Während viele unserer gemeldeten Entdeckungen zufällig waren, beinhalteten sie auch merkwürdige zwischenmenschliche Interaktionen, die nach Überlegung ziemlich humorvoll waren. Dieses Schreiben ist daher als eine augenzwinkernde persönliche Retrospektive des wissenschaftlichen Humors gedacht. Vor allem der „meist zutreffende“ Vorbehalt im Titel. Es steht im Gegensatz zu der üblichen Schwere wissenschaftlicher Arbeiten, schließlich würde niemand eine solche Aussage einer Forschungsarbeit beifügen, aber da diese Geschichten 30-40 Jahre alt sind, kann das Gedächtnis nicht ganz genau sein und es gibt einige Ausschmückungen die Episoden unterhaltsam und (hoffentlich) knüpfen. Lassen Sie mich Sie in diesen Covid-19-Tagen des Schutzes vor Ort auf einen Roadtrip meiner Abenteuer zurück in meine früheren Exkursionen (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63512-1_31 b0a573591af74f46a88737658aa748cb;de;;;2.4.;;;Praktische Methoden zur Anpassung von Services mit Enterprise Service Bus Beim serviceorientierten Computing (SOC) werden Dienste nicht nur für einen dedizierten Kunden, sondern für eine Familie potenzieller Kunden entwickelt. Damit Dienste generisch und für verschiedene Clients bedienbar sind, muss die Dienstvariabilität zwischen den Clients analysiert und in Dienstkomponenten modelliert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73597-7_5 9b0d7b535516b7e5dee20b35b67f5825;de;;;2.4.;;;Neue Perspektiven auf Schuppen und seborrhoische Dermatitis: Lehren, die wir aus der bakteriellen und pilzlichen Hautmikrobiota gezogen haben Der menschliche Körper wird von komplexen mikrobiellen Gemeinschaften bewohnt, die sich positiv auf verschiedene Aspekte unserer Gesundheit auswirken und möglicherweise auch mit der Entwicklung von Krankheiten zusammenhängen. Der Fortschritt bei Technologien, insbesondere Sequenzierungsmethoden und bioinformatischen Werkzeugen, war entscheidend für die Fortschritte auf diesem Gebiet. Mikrobielle Gemeinschaften aus der Haut können die Immunantwort modulieren und den Wirt vor Krankheitserregern schützen, und es gibt auch Daten, die ihre Verbindung mit verschiedenen Hauterkrankungen, einschließlich Schuppen und seborrhoischer Dermatitis, belegen. Jahrzehntelang wurde angenommen, dass sie verwandt sind mit;-;-;-;https://link.springer.com/article/10.1684/ejd.2017.3038 ffdc5ed67469f3bd9c3bea99c0dd3a82;de;;;2.4.;;;Piecewise-Planar StereoScan:Struktur und Bewegung aus ebenen Grundkörpern Dieser Artikel beschreibt eine Pipeline, die als Eingabe eine Sequenz von Bildern empfängt, die von einem kalibrierten Stereo-Rig aufgenommen wurden, und die Kamerabewegung und eine stückweise-planare Rekonstruktion (PPR) der Szene ausgibt. Es erkennt zunächst die 3D-Ebenen, die von jedem Stereopaar aus der halbdichten Tiefenschätzung betrachtet werden. Darauf folgt die Schätzung der Pose zwischen aufeinanderfolgenden Ansichten unter Verwendung eines neuen geschlossenen Minimalalgorithmus, der sich nur dann auf Punktkorrespondenzen stützt, wenn die Ebenenkorrespondenzen nicht ausreichen, um die Bewegung vollständig einzuschränken. Schließlich werden die Kamerabewegung und die PPR gemeinsam verfeinert, abwechselnd zwischen diskreter Optimierung zur Generierung von Ebenenhypothesen und kontinuierlicher Bündelanpassung. Der Ansatz unterscheidet sich von früheren Arbeiten in PPR dadurch, dass er die Posen aus Ebene-Primitiven bestimmt, Bewegung und stückweise-planare Struktur gemeinsam abschätzt und sequentiell arbeitet und für Anwendungen von SLAM und visueller Odometrie geeignet ist. Experimente werden in anspruchsvollen Wide-Baseline-Datensätzen durchgeführt, bei denen herkömmliche punktbasierte SfM normalerweise versagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10605-2_4 31cd52245039c0a0bdb4f96c6d659060;de;;;2.4.;;;Ein- und ausgehende Direktinvestitionen und Einkommensungleichheit: Beweise aus Europa Dieses Papier untersucht die Auswirkungen von ein- und ausgehenden Direktinvestitionen auf die Einkommensungleichheit in Europa unter Verwendung von Panelkointegrationstechniken und unausgeglichenen Panelregressionen. Unser wichtigstes Ergebnis ist, dass sowohl ausländische Direktinvestitionen als auch ausländische Direktinvestitionen im Durchschnitt einen negativen langfristigen Effekt auf die Einkommensungleichheit haben. Dieses Ergebnis ist robust gegenüber dem Einsatz alternativer Schätzmethoden, der Kontrolle potenzieller Ausreißer, der Verwendung verschiedener Messgrößen für ausländische Direktinvestitionen und Ungleichheit sowie der Änderung des Zeitraums und der Stichprobenauswahl. Weitere Ergebnisse sind: (i) Während der langfristige Effekt der ein- und ausgehenden Direktinvestitionen auf die Einkommensungleichheit eindeutig negativ ist, scheint ihr kurzfristiger Effekt positiv zu sein. (ii) Langfristige Kausalität verläuft in beide Richtungen, was darauf hindeutet, dass ein Anstieg der ein- und ausgehenden FDI langfristig die Einkommensungleichheit verringert und dass eine Verringerung der Ungleichheit wiederum zu einem Anstieg der ein- und ausgehenden FDI führt. (iii) Es gibt große länderübergreifende Unterschiede bei den langfristigen Auswirkungen von ein- und ausgehenden Direktinvestitionen auf die Einkommensungleichheit, für einige Länder sind die langfristigen Auswirkungen auf die Einkommensungleichheit positiv.;-;-;-;https://link.springer.com/article/10.1007/s10290-013-0148-3 c19df6b2e7df8635d03b895e4b064b83;de;;;2.4.;;;Molekularbiologie von Aktin-ADP-ribosylierenden Toxinen Das Aktin-Zytoskelett ist das Ziel einer Vielzahl von Toxinen. Das Aktinnetzwerk steuert die Form und räumliche Organisation der Zelle und trägt zu vielen Zellfunktionen bei, wie z. B. Bewegung, Zytokinese, Endozytose, Exozytose und Kontrolle interzellulärer Verbindungen. Seine Desorganisation durch Toxine führt zu wichtigen Zelldysfunktionen und induziert die schweren Läsionen, die bei den assoziierten Pathologien zu finden sind. Einige Toxine modifizieren enzymatische regulatorische Proteine ​​der Aktinpolymerisation (Rho-Familie), einschließlich: C3-Enzym, das spezifisch Adenosindiphosphat (ADP) – Ribosylate Rho (Kap. 11), die großen Clostridien-Toxine [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-05971-5_13 fd2d48e01b7aeb5f13f8c2c7ea27056b;de;;;5.3.;;;Lagrangener zweiter Ordnung. Variationsproblem. Nöther-Typensätze Die analytische Mechanik basierend auf den Lagrange-Operatoren, die für die Oszillatorbündel höherer Ordnung definiert sind, wurde von vielen Menschen mit bemerkenswerten Ergebnissen untersucht: M. Crampin et al., M. de Léon et al., D. Krupka, D. Grigore, K. Kondo, R. Miron und viele andere [siehe Referenzen].;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-3338-0_4 19742cf3f4d6d0ca2af8ca2f2cfa144c;de;;;2.4.;;;Visualisierung des von einer Schrägblattturbine erzeugten Trailing-Wirbel-Systems mit einer Brechungsindex-angepassten automatisierten LDA-Technik Das Schleppwirbelsystem in der Nähe von Laufradschaufeln wurde als der Hauptströmungsmechanismus identifiziert, der für das Mischen und Dispergieren in Rührkesselreaktoren verantwortlich ist. Im Bereich der nachlaufenden Wirbel treten die höchsten Turbulenzwerte auf und der größte Teil der Gesamtenergie, die in den Rührbehälter eingebracht wird, wird hier abgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-56963-0_23 fe11c8852129bfe651c35a31463ecea3;de;;;2.4.;;;Konversationales Sprachsynthesesystem mit kommunikationssituationsabhängigen HMMs In diesem Artikel schlagen wir ein kommunikationssituationsabhängiges Sprachsynthesesystem für gesprochene Dialogsysteme vor, das konversationssynthetische Sprache durch mehrere Hidden-Markov-Modelle (HMMs) abhängig von Kommunikationssituationen erzeugt. Unter Berücksichtigung der Aufgaben eines zuvor entwickelten Kommunikationsroboters wurden vier spezifische Kommunikationssituationen in Bezug auf jeden Quadranten des zweidimensionalen Emotionsmodells definiert. Die Sätze, die unser Roboter in jeder Situation sprechen sollte, wurden von einer Synchronsprecherin ausgesprochen. Zusätzlich wurden phonetisch ausgewogene Sätze als neutrale Situation für ein konventionelles System geäußert. An diesen Äußerungen wurden kommunikationssituationsabhängige HMMs trainiert. Durch Auswählen eines dieser HMMs können Benutzer des Systems eine geeignete synthetische Stimme für die Situation erhalten, in der die Stimme verwendet werden soll. Drei Arten von simulierten Dialogen zwischen Mensch und Roboter wurden entwickelt, um die Nützlichkeit des Systems zu bewerten. Das Ergebnis der subjektiven Bewertung zeigte, dass die mit dem vorgeschlagenen System erstellten Dialoge, bei denen verschiedene HMMs sinnvoll eingesetzt wurden, natürlicher und günstiger waren als die mit dem konventionellen System, bei dem nur das HMM für die neutrale Situation verwendet wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-1335-6_13 2ef7d1a54bfd1519a43082b8543c213d;de;;;2.4.;;;Der Zellzyklus und die zelluläre Differenzierung bei Insekten Wenn ein Ereignis regelmäßig auf ein anderes folgt, ist es üblich, einen kausalen Zusammenhang zwischen beiden anzunehmen. Eine solche Sicht kann von geringem heuristischem Wert sein, es sei denn, der Mechanismus wird spezifiziert. Die Untersuchung der Wechselbeziehung zwischen Zellzyklus und Differenzierung ist ein typisches Beispiel. Da die Differenzierung immer einer Zellteilung folgt, muss eine Theorie jeglicher Nützlichkeit von Experimenten abhängen, die eine Bestimmung bestimmen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-37390-2_6 2412527797e2ebc1c9fd782c88efb18a;de;;;2.4.;;;Schneeschmelze in einem borealen Waldgebiet: ein integriertes Modell der Schmelzwasserqualität (SNOQUALI) Für einen borealen Waldstandort (Lake Laflamme, Québec) wurde ein integriertes Modell (SNOQUALI) zur Simulation der Schmelzwasserqualität entwickelt. Das Modell besteht aus einem physikalischen Modul und einem chemischen Modul, es wurde für H . validiert;-;-;-;https://link.springer.com/article/10.1007/BF00630861 c669ab5d3e531361bc2eecddbd9fc7d8;de;;;2.4.;;;Vestibulo-okuläre Reaktionen des Menschen auf schnelle, helmgesteuerte Kopfbewegungen Hochfrequente Kopfdrehungen im Bereich von 2–20 Hz und passive, unvorhersehbare Kopfbeschleunigungsimpulse wurden durch eine neue Technik erzeugt, bei der ein Helm mit einem Torquemotor eine Masse in Schwingung versetzt. Ungebremste Kopf- und Augenbewegungen wurden mit magnetischen Sensorspulen in einem homogenen Magnetfeld aufgezeichnet. Um den Einfluss des visuellen Systems auf den vestibulookulären Reflex (VOR) zu analysieren, nahmen wir Messungen unter drei experimentellen Bedingungen vor: (1) mit einem stationären Sehziel, (2) in völliger Dunkelheit, wobei sich die Person das stationäre Ziel vorstellte und (3) mit einem kopffixierten Ziel. Die Ergebnisse bei 15 gesunden Probanden waren sehr konsistent. Bei 2 Hz war die VOR-Verstärkung nahe Eins, oberhalb von 2 Hz begann die VOR-Verstärkung abzunehmen, aber dieser Trend kehrte sich jenseits von 8 Hz um, wo die Verstärkung kontinuierlich bis auf 1,1–1,3 bei 20 Hz zunahm. Die Phasenverzögerung nahm mit der Frequenz zu, von einigen Grad bei 2 Hz auf etwa 45 Grad bei 20 Hz. Oberhalb von 2 Hz war die VOR-Verstärkung für die drei experimentellen Bedingungen nicht signifikant unterschiedlich. Kopfbeschleunigungsimpulse erzeugten ein VOR mit einer Verstärkung von nahezu eins in beide Richtungen. Wir testeten auch drei Probanden mit klinisch vollständigem bilateralem Verlust der Labyrinthfunktionen. Diese labyrinth-defekten Probanden zeigten im Vergleich zu den Normalprobanden auffallend geringere Verstärkungen und viel längere Verzögerungen im VOR bei sinusförmigen und stufenförmigen Kopfbewegungen. Diese Ergebnisse legen nahe, dass unsere neue drehmomentgesteuerte Helmtechnik effektiv, sicher und bequem ist und die Beurteilung des VOR bei relativ hohen Frequenzen ermöglicht, bei denen sowohl visuelle als auch mentale Einflüsse minimiert werden.;-;-;-;https://link.springer.com/article/10.1007/BF00227523 9f386fc604f0c79833b9694a23838c2a;de;;;2.4.;;;Kopplung von PARP1-vermittelten Chromatin-Strukturänderungen an transkriptionale RNA-Polymerase-II-Elongation und cotranskriptionelles Spleißen Kürzlich haben wir gezeigt, dass PARP1 am cotranskriptionalen Spleißen beteiligt ist, möglicherweise indem es Chromatin an RNA überbrückt und Spleißfaktoren rekrutiert. Es kann auch alternative Spleißentscheidungen durch die Regulierung der RNAPII-Elongation beeinflussen. In dieser Studie untersuchten wir die Wirkung von PARP1-vermittelten Chromatinveränderungen auf die RNAPII-Bewegung, während der Transkription und des alternativen Spleißens.;-;-;-;https://link.springer.com/article/10.1186/s13072-019-0261-1 da3f56e8bd45557c027b02e4e02f8437;de;;;2.4.;;;Cytochrom P450 und der Metabolismus und die Bioaktivierung von Arachidonsäure und Eicosanoiden Die Studien der P450-AA-Monooxygenase haben neue und wichtige Rollen von P450 im Stoffwechsel endogener Substrate aufgedeckt und P450 in die Liste der Enzyme aufgenommen, die am Stoffwechsel von AA beteiligt sind, einer Fettsäure, die als Vorläufer für die Biosynthese von dient mehrere physiologisch wichtige Lipidmediatoren. Die funktionelle Relevanz dieses Stoffwechselwegs wird durch die vielen wichtigen biologischen Aktivitäten, die seinen Produkten zugeschrieben werden, nahegelegt. Diese Studien sowie die dokumentierte endogene Rolle von P450s im Cholesterin-, Steroid- und Vitaminstoffwechsel tragen dazu bei, dieses Enzymsystem als wichtigen Teilnehmer an der Regulation der Zell-, Organ- und Körperphysiologie zu etablieren. Unter diesen enthüllte die phänotypische Analyse von Mäusen, die zerstörte Kopien des CYP4a14-Gens trugen, neue und wichtige Rollen für die P450-Enzyme in der kardiovaskulären Physiologie und der Kontrolle des systemischen Blutdrucks und schlug die humanen Homologe der CYP 2C- und 4A AA-Epoxygenasen und ω-Hydroxylasen als Kandidatengene für die Untersuchung ihrer Rolle in der Pathophysiologie von Bluthochdruck und kardiovaskulären Erkrankungen.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-27447-2_11 02a9527f32bd2de3cf2fe80f3cbcf40f;de;;;2.4.;;;LIGA-basierte mikromechanische Systeme und keramische Nanokomposit-Oberflächenbeschichtungen Mit der auf Röntgenlithographie basierenden Mikrofertigungstechnik LIGA (Lithographie, Galvanoformung und Abformung) wurden mechanische Bauteile mit Strukturen 100 µm Größe konstruiert und gebaut. Beispiele sind Dichtungen mit eingebetteten Mikrowärmetauschern. Vorläufige Wärmeübertragungstests zeigten, dass Mikrowärmetauscher, die in der Nähe der tragenden Oberfläche eingebettet sind, die Oberflächentemperatur während des Betriebs effektiv steuern, während Verschleißtests zeigten, dass die Verschleißeigenschaften von galvanisch geformten Ni-Oberflächen verbessert werden müssen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-1023-9_22 7c3d512738f21e8f6baf3844d1e24818;de;;;5.3.;;;Über Isotope von Gruppen. II Wir wählen kanonische Zerlegungen der Isotope von Gruppen aus, zeigen ihre Einzigartigkeit und stellen Beziehungen zwischen ihnen her. Wir erhalten auch externe Eigenschaften der Identitäten, die die Linearität oder Alinearität der Isotopie und die Kommutativität der entsprechenden Gruppe implizieren. Wir beschreiben die Identitäten linearer Isotope abelscher Gruppen, d. h. von;-;-;-;https://link.springer.com/article/10.1007/BF01060967 1bfc7bc2c8e652611bf3fc956abc0d2c;de;;;2.4.;;;Harnableitung unter Verwendung des Harnleiters Die Ableitung des Urins durch Anlegen des Harnleiters an die Hautoberfläche ist immer eine notwendige Operation, die durch eine Obstruktion oder Zerstörung der unteren Harnwege oder durch das Verschwinden oder Fehlen der Schließmuskelfunktion diktiert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-66079-5_9 3920f82b232e5944697c8888b8a64a8f;de;;;2.4.;;;Das Wiener SMZO-PACS-Projekt: The Totally Digital Hospital Dieser Beitrag gibt einen Überblick über das SMZO-PACS-Projekt in Form einer groben Spezifikation der Systemarchitektur und der damit verbundenen Funktionsparameter.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-00807-2_70 43ca90b621e5c19a635660660fb8799c;de;;;2.4.;;;Haralick Feature-basierte automatisierte Glaukomklassifikation mit neuronalem Backpropagation-Netzwerk Nach neueren Forschungen gilt das Glaukom, eine Sehnervenerkrankung, als eine der Hauptursachen, die zur Erblindung führen können. Es hat eine große Anzahl von Menschen weltweit betroffen. Ein Anstieg des Augeninnendrucks führt zur Erkrankung mit fortschreitendem und dauerhaftem Sehverlust. Die Textur des normalen Netzhautbildes und des Glaukombildes ist unterschiedlich. Hier wurde die Textureigenschaft des Gesamtbildes sowohl mit als auch ohne Glaukombild extrahiert. In dieser Arbeit wurden Haralick-Merkmale verwendet, um zwischen normaler und von Glaukom betroffener Netzhaut zu unterscheiden. Extrahierte Merkmale wurden verwendet, um das neuronale Netzwerk mit Rückwärtsausbreitung zu trainieren. Die Klassifikation des Glaukom-betroffenen Auges wird mit einer Genauigkeit von 96% erfolgreich erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11933-5_38 81d465f4a8c057d6d364e9f2eada158f;de;;;2.4.;;;Analyse eines Session-Layer-Protokolls in mCRL2 Dieses Papier berichtet über die Analyse einer industriellen Implementierung der Sitzungsschicht eines Lastausgleichs-Softwaresystems. Diese Software umfasst 7,5 Tausend Zeilen C-Code. Es dient zur Verteilung der Druckaufträge auf mehrere Dokumentenbearbeiter (Worker). Ein Großteil dieses kommerziell genutzten Softwaresystems wurde eng modelliert und mit prozessalgebraischen Techniken analysiert. Mehrere kritische Probleme wurden entdeckt. Da das Modell nah am Code war, konnten alle im Modell gefundenen Probleme auf den eigentlichen Code zurückgeführt werden, was konkrete Vorschläge zur Verbesserung des Codes ergab. Insgesamt hat die Analyse die Qualität dieses realen Systems deutlich verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79707-4_14 11cb6d767220a17185c0c669e1af595b;de;;;2.4.;;;Bayessche Netzwerkzerlegung zur Modellierung der Brustkrebserkennung Die automatisierte Unterscheidung zwischen benignen und malignen Anomalien ist im Brustkrebsbereich ein schwieriges Problem. Während frühere Studien einen einzelnen Bayesschen Netzwerkansatz betrachteten, schlagen wir in diesem Papier eine neue Perspektive vor, die auf der Bayesschen Netzwerkzerlegung basiert. Wir betrachten drei Methoden, die unterschiedliche (Stufen der) topologischen oder strukturellen Zerlegung von Netzwerken ermöglichen. Anhand von Beispielen demonstrieren wir einige Vorteile der Bayesschen Netzwerkzerlegung für das vorliegende Problem: (i) natürliche und intuitivere Darstellung von Brustanomalien und ihrer Merkmale (ii) kompakte Darstellung und effiziente Manipulation großer bedingter Wahrscheinlichkeitstabellen und (iii) mögliche Verbesserung der Wissenserwerbs- und -repräsentationsprozesse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73599-1_47 fe9296177a15c7b6a4db1fac2c5662be;de;;;2.4.;;;Extraktion von Risikofaktoren durch Multi-Agenten-Abstimmungsmodell unter Verwendung automatisch definierter Gruppen In der medizinischen Behandlung ist es schwierig, Krankheiten direkt aus rohen Realwertdaten zu diagnostizieren, die durch medizinische Untersuchungen für Patienten gewonnen werden. Zur Unterstützung der Aufgabenstellung ist es notwendig, die Rohdaten in aussagekräftige Wissensrepräsentationen zu transformieren, die darstellen, ob die charakteristischen Krankheitssymptome beobachtet werden. In dieser Forschung zielen wir darauf ab, solche multiplen Risikofaktoren automatisch aus der medizinischen Datenbank zu erfassen. Wir sind der Ansicht, dass ein Multi-Agent-Ansatz effektiv ist, um mehrere Faktoren zu extrahieren. Um den Ansatz zu verwirklichen, schlagen wir eine neue Methode vor, die eine verbesserte Methode der genetischen Programmierung verwendet, Automatically Defined Groups (ADG). Durch die Verwendung dieser Methode werden mehrere Risikofaktoren extrahiert und die Diagnose wird durch kooperative Abstimmung mit mehreren Agenten durchgeführt. Wir haben diese Methode auf die Datenbank für koronare Herzkrankheiten angewendet und die Wirksamkeit dieser Methode gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/11553939_169 393c6865df723fe05ee5ef259d34f2f1;de;;;5.3.;;;Globale Beleuchtung in Anwesenheit von teilnehmenden Medien mit allgemeinen Eigenschaften In den letzten Jahren wurde von Computergrafikforschern eine Reihe von Techniken entwickelt, um beteiligte Medien wie Dunst, Nebel, Wolken, Staub… werden oft gemacht, um diese Techniken handhabbar zu machen. In diesem Beitrag schlagen wir eine Methode vor, die diese Annahmen aufhebt. Es basiert auf der Methode der diskreten Ordinate und ermöglicht die Simulation des Lichttransfers in einer Umgebung aus diffusen Objekten und beteiligten Medien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-87825-1_6 d0bd5247186e19b21e98b43343590c4e;de;;;5.3.;;;Verbesserung der erscheinungsbasierten 3D-Gesichtsverfolgung mit spärlichen Stereodaten Kürzlich haben Forscher deterministische und statistische, auf dem Aussehen basierende 3D-Kopfverfolgungsmethoden vorgeschlagen, mit denen die Bildvariabilitäts- und Driftprobleme erfolgreich angegangen werden können. Jedoch können auf dem Aussehen basierende Verfahren, die für die 3D-Kopfverfolgung bestimmt sind, an Ungenauigkeiten leiden, da diese Verfahren nicht sehr empfindlich gegenüber Bewegungsschwankungen außerhalb der Ebene sind. Andererseits kann die Verwendung dichter 3D-Gesichtsdaten, die von einem Stereo-Rig oder einem Entfernungssensor bereitgestellt werden, sehr genaue 3D-Kopfbewegungen/-posen liefern. Dieses Paradigma erfordert jedoch entweder eine genaue Gesichtsmerkmalsextraktion oder eine rechenintensive Registrierungstechnik (z. B. den Iterative Closest Point Algorithmus). In diesem Artikel verbessern wir unseren Erscheinungsbild-basierten 3D-Gesichtstracker, indem wir ein adaptives Erscheinungsbildmodell mit einer robusten 3D-zu-3D-Registrierungstechnik kombinieren, die spärliche Stereodaten verwendet. Der resultierende 3D-Gesichts-Tracker kombiniert die Vorteile sowohl von Erscheinungsbild-basierten Trackern als auch von 3D-datenbasierten Trackern, während die CPU-Zeit sehr nahe an der von Echtzeit-Trackern benötigten liegt. Wir bieten Experimente und Leistungsbewertungen an, die die Machbarkeit und Nützlichkeit des vorgeschlagenen Ansatzes zeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75274-5_25 ab65ddaf4cc2f9a401005af706e6cab9;de;;;2.4.;;;Reduktion der oberen Approximation basierend auf Intuitionistic Fuzzy Die Attributreduktion als ein Forschungsproblem hat in der Grobmengentheorie eine wichtige Rolle gespielt. In diesem Beitrag wird das Konzept der Reduktion durch obere Näherung in intuitionistische Fuzzy eingeführt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31900-6_8 da10497ac2f5cd1a0a6dbc3a74a79492;de;;;2.4.;;;Grobes Set-Modell basierend auf Hybrid-Toleranz-Relation In diesem Beitrag werden drei verschiedene Toleranzbeziehungen in unvollständigen Informationssystemen eingehend untersucht. Die starke Toleranzbeziehung entspricht der semantischen Erklärung der Konjunktion, während die schwache Toleranzbeziehung der semantischen Erklärung der Disjunktion entspricht. Um Entscheidungsregeln mit „UND“- und „ODER“-Verknüpfungen aus einem unvollständigen Entscheidungssystem abzuleiten, wird basierend auf diesen beiden Erklärungen das Konzept der hybriden Toleranzbeziehung durch die Verschmelzung von starken und schwachen Toleranzbeziehungen vorgeschlagen. Dann werden zwei unterschiedliche grobe Sätze konstruiert, indem eine hybride Toleranzbeziehung und eine hybride Toleranzbeziehung basierend auf maximal konsistenten Blöcken verwendet werden. Die Beziehungen zwischen diesen zwei verschiedenen groben Sets werden ebenfalls untersucht. Schließlich wird basierend auf der Technik maximaler konsistenter Blöcke die Erzeugung von Entscheidungsregeln aus unvollständigen Entscheidungssystemen angesprochen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31900-6_4 de357adf56d9dc201d74047f7edbcb64;de;;;2.4.;;;Charakterisierungen von Attributen in verallgemeinerten Approximationsdarstellungsräumen Wir diskutieren Charakterisierungen von drei wichtigen Typen von Attributmengen in verallgemeinerten Approximationsrepräsentationsräumen, in denen binäre Beziehungen auf dem Universum reflexiv sind. Viele Informationstabellen, wie konsistente oder inkonsistente Entscheidungstabellen, grobe Mengenmodelle mit variabler Genauigkeit, konsistente Entscheidungstabellen mit geordneten Wertbereichen und mit kontinuierlichen Wertbereichen und Entscheidungstabellen mit Fuzzy-Entscheidungen können zu verallgemeinerten Approximationsdarstellungsräumen vereinigt werden. Es wird ein allgemeiner Ansatz zur Wissensreduktion basierend auf der Grobmengentheorie vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/11548669_9 9898eb0932abeee21499dbd76c715926;de;;;2.4.;;;Hierarchische Darstellung von unscharfen Wenn-Dann-Regeln Wir führen eine hierarchische Struktur zur Darstellung von Fuzzy-Wenn-Dann-Regeln ein, wie sie in der Fuzzy-Systemmodellierung verwendet werden. In dieser Struktur nimmt die Spezifität der Regeln ab, wenn wir in der Hierarchie nach unten gehen. Wir diskutieren, wie diese Struktur einen natürlichen Rahmen für den Erwerb von Wissen bietet. Wir führen einen neuen Aggregationsoperator zum Kombinieren von Informationen zwischen Ebenen ein. Dieser Operator hat eine sättigungsähnliche Komponente, die die Aggregation stoppt, wenn ein angemessenes Spezifitätsniveau erreicht ist. Dieser Sättigungseffekt vermeidet die Überfrachtung der Ausgabe durch weniger spezifisches Wissen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-56735-6_61 b3ecea4e480d3d82c4854c2cf294e54f;de;;;2.4.;;;Fuzzy-Set-Theorie und grobe Set-Theorie Im täglichen Leben nutzen wir die gewonnenen Informationen, um unsere Umgebung zu verstehen, Neues zu lernen und Pläne für die Zukunft zu schmieden. Im Laufe der Jahre haben wir die Fähigkeit entwickelt, auf der Grundlage von Beweisen zu argumentieren, um unsere Ziele zu erreichen. Da wir jedoch durch unsere Fähigkeit, die Welt wahrzunehmen, eingeschränkt sind, sehen wir uns immer mit Unsicherheiten über die Qualität unserer Schlussfolgerungen konfrontiert. Unsicherheiten sind eine der Quellen für unsere Fehler, da wir die genauen Informationen über unsere Umgebung nicht kennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-8176-4539-7_1 ea7f319d15c681756fe156460ebbb94d;de;;;2.4.;;;Ein Expertensystem für die Robotertransferplanung Dieses Papier beschreibt ein Planungssystem, das ein Expertensystem für den Teiletransfervorgang an einer Robotermontagelinie verwendet. Es beinhaltet die Beschreibung der Systemorganisation, der Auslegungstechnologie und der Planungsergebnisse dieses Systems. Dieses Planungssystem hat eine gute Leistungsfähigkeit und eine schnelle Planungsgeschwindigkeit.;-;-;-;https://link.springer.com/article/10.1007/BF02943341 1162daeb162e39e06b8de3a168d8a262;de;;;2.4.;;;Über die Schlüsseltechnologien des intelligentisierten Schweißroboters Dieser Beitrag befasst sich mit intelligenten Schlüsseltechnologien für das Roboterschweißen, die Computer-Vision-Technologie zur Erkennung von Schweißnähten und -anläufen, lokal autonomes Führen und Verfolgen der Naht, intelligente Echtzeitsteuerung von Schweißeindringung, Nahtformung und Schweißbaddynamik umfassen. Es wurde ein lokal autonomes intelligentes Schweißrobotersystem (LAIWR) entwickelt, das die Erkennung und Erkennung der Schweißumgebung durch visuelle Sensortechnologie, die Identifizierung der Anfangsposition der Schweißnaht, die autonome Führung des Schweißbrenners zum Schweißstart und die Verfolgung der Naht in Echtzeit realisieren kann Steuerung der gepulsten GTAW-Pooldynamik durch Vision Computing und intelligente Strategien;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73374-4_12 75a7a422b8accb85121f60e40cf5d425;de;;;5.3.;;;Gestaltung von Darstellungen und Unterstützung der Metakognition im Generalized Intelligent Framework for Tutoring Ein wichtiger Bestandteil der Metakognition bezieht sich auf das Verstehen und Anwenden von Strategien. Daher ist es eine wichtige Herausforderung, das Strategieverständnis der Schüler in komplexen offenen Lernumgebungen zu messen und zu unterstützen. Es ist jedoch ein schwieriges Unterfangen, die Strategienutzung und das Verständnis der Schüler zu messen. In diesem Papier stellen wir unser Design zur Vertretung und Unterstützung von Schülern in ihrem Verständnis von Strategien vor, während sie in komplexen, offenen Lernumgebungen mit dem Generalized Intelligent Framework for Tutoring (GIFT) arbeiten. Unser Ansatz nutzt eine Fülle früherer Forschungen und stützt sich auf drei primäre Unterrichtsinterventionen: kontextualisierte Gesprächsbewertungen und Feedback, Überprüfung von Wissen und Strategien und Lehren durch Analogien. Wir glauben, dass die Integration dieser Ansätze in GIFT eine leistungsstarke Anleitung komplexer Aufgaben und Themen ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-20816-9_63 c1b8a9da283d31c06085cd33b69aa1ce;de;;;5.3.;;;Evaluierung von Avatar- und Sprachtransformation bei der Programmierung von E-Learning-Vorträgen Dieser Artikel berichtet über die Wirksamkeit von animierten Gesichtsavataren und Sprachtransformatoren mit hoher Bildrate im E-Learning. Drei Avatare: (echter männlicher Professor, männlicher Avatar, weiblicher Avatar) wurden mit der Stimme eines männlichen Professors oder einer VT-4-Vocoder-transformierten Stimme kombiniert, um sechs herausragende Videos zu erstellen, die dann von Studenten im ersten Studienjahr angesehen wurden. Insgesamt nahmen 186 Schüler in 15 Gruppen an diesem Experiment teil. Der weibliche Avatar war optisch der attraktivste Avatar, aber seine Kombination mit der Sprachtransformation behindert seine Gesamtpunktzahl erheblich. Diese Forschung kann auf die Echtzeit-Live-Evaluierung der Präferenzen von Studenten ausgedehnt werden und mehr Verbindungen zwischen der Studentenwahrnehmung des Avatars und den tatsächlichen Dozenten herstellen.;-;-;-;https://link.springer.com/article/10.1007/s12193-020-00349-5 e0e0689ae379a483f1041194c5dced4e;de;;;2.4.;;;Bildbasierte Modellierung inhomogener einfachstreuender beteiligter Medien Wir schlagen eine Methode zur Rekonstruktion inhomogener einfach streuender teilnehmender Medien vor, die feine hochfrequente Details des Dichtefeldes erhalten könnte. Volumetrische Daten und das Verhältnis von Absorptionskoeffizienten zu Streukoeffizienten werden verwendet, um die räumlich variierende Dichteverteilung und die optischen Eigenschaften bestimmter beteiligter Medien zu beschreiben, und eine Funktion zwischen den obigen Parametern und erfassten Pixelwerten wird gebildet. Somit wird das Problem der Lösung dieser Parameter in ein nichtlineares numerisches Optimierungsproblem formuliert. Um den großen Zeitaufwand und die numerische Instabilität durch die gleichzeitige Auflösung einer großen Anzahl von Voxeln zu reduzieren, schlagen wir einen Initialisierungsalgorithmus vor, der es den zugewiesenen Dichtewerten ermöglicht, die Regelmäßigkeit der Helligkeitsverteilung in aufgenommenen Bildern annähernd zu erfüllen, sowie einen progressiven Verfeinerungsalgorithmus für Multi -Auflösung volumetrische Daten. Außerdem schlagen wir einen parallelen Multi-Voxel-Gradientenberechnungsalgorithmus vor, der Hardwarebeschleunigung nutzt, um den Zeitaufwand bei der Gradientenberechnung für eine große Anzahl von Voxeln zu reduzieren. Experimentergebnisse zeigen, dass unsere Methode gut geeignet ist, dünnen Rauch zu rekonstruieren und hochfrequente Details aus Bildern zu erhalten, die aus mehreren Blickwinkeln aufgenommen wurden.;-;-;-;https://link.springer.com/article/10.1007/s11432-010-0104-y f2c011341ec115ccf99a8feaa2de895f;de;;;2.4.;;;Nanopillar-Wald-basierte oberflächenverstärkte Raman-Streuungssubstrate In dieser Arbeit wurden oberflächenverstärkte Raman-Streuungssubstrate auf Nanosäulen-Waldbasis mit einem neuartigen Ansatz hergestellt. Die Schlüsseltechnik des Ansatzes ist die Nutzung von Konvexitäten auf Poly-Si-Oberflächen als Stützstrukturen in der Seitenwandtechnologie. Die Spitzendurchmesser der hergestellten Nanosäulen betragen 5 bis 10 nm, die Höhe beträgt mehrere Mikrometer und die Dichte der Nanosäulen-basierten Wälder beträgt etwa 20/μm;-;-;-;https://link.springer.com/article/10.1007/s11432-014-5114-8 3c4d2d4b2f7cf03dcdbc4c0c97e76afc;de;;;2.4.;;;Forschung und Fortschritt des Satellitennavigationssystems Beidou Das Papier gibt einen kurzen Überblick über den Entwicklungskurs und die strategische Planung des Beidou-Satellitennavigationssystems und stellt seinen Baufortschritt vor, mit Schwerpunkt auf dem Forschungsfortschritt einiger Schlüsseltechnologien von Beidou, einschließlich Navigationskonstellationsdesign, Navigationssignalstruktur und -leistung, Kompatibilität und Interoperabilität, präzise Umlaufbahnbestimmung, Navigation und präzise Positionierung. Die Hauptprobleme und Herausforderungen von Beidou werden beschrieben.;-;-;-;https://link.springer.com/article/10.1007/s11432-012-4724-2 3d6053456303b28b9e516ce6f374da3b;de;;;2.4.;;;32-Site-Mikroelektrode, modifiziert mit Pt-Schwarz für die neuronale Aufzeichnung, hergestellt mit Dünnfilm-Siliziummembran Multi-Elektroden-Arrays sind ein wichtiges Werkzeug bei der Untersuchung von neuronalen Netzwerken, Kognition, Erinnerung, sowie Gehirn-Computer-Schnittstellen usw. Gabelartige 32-Stellen-Mikroelektroden werden mit Silizium entwickelt. Durch die Verwendung der integrierten Schaltungstechnologie werden die Länge der Elektroden, die Fläche der Aufzeichnungsstellen sowie die Abstände zwischen den Stellen genau kontrolliert. SiO;-;-;-;https://link.springer.com/article/10.1007/s11432-013-4846-1 d33f7b54b01c2ecf02786ec0b03748ea;de;;;2.4.;;;Vorhersagebasierte ereignisgesteuerte Identifizierung von quantisierten Eingabe-FIR-Systemen mit quantisierten Ausgabebeobachtungen Dieses Papier befasst sich mit der Identifizierung von Systemen mit endlicher Impulsantwort (FIR) mit quantisierten und ereignisgesteuerten Beobachtungen. Ein ereignisgesteuertes Kommunikationsschema für die binärwertige Ausgabequantisierung wird eingeführt, um Kommunikationsressourcen zu sparen. Durch die Kombination der auf empirischen Messungen basierenden Identifizierungstechnik und der gewichteten kleinsten Quadrate-Optimierung wird ein Algorithmus vorgeschlagen, um den unbekannten Parameter durch vollständige Nutzung der empfangenen Daten und der nicht ausgelösten Bedingung zu schätzen. Unter quantisierten Eingaben wird gezeigt, dass die Schätzung stark gegen die reellen Werte konvergieren kann und der Schätzer in Bezug auf die Cram’er-Rao-Untergrenze asymptotisch effizient ist. Ferner wird die Grenze der durchschnittlichen Kommunikationsrate abgeleitet und der Kompromiss zwischen dieser Grenze und der Schätzleistung diskutiert. Darüber hinaus wird der Fall von quantisierten Beobachtungen mit mehreren Schwellenwerten betrachtet. Numerische Beispiele sind enthalten, um die erhaltenen Hauptergebnisse zu veranschaulichen.;-;-;-;https://link.springer.com/article/10.1007/s11432-018-9845-6 8d5800b7229761a8ff08b52486b1b4ca;de;;;2.4.;;;Beschreibung der Funktions- und Fehlerschätzung für die Klasse nichtlinearer Systeme mit Fuzzy-Elementen – Das Verfahren zur näherungsweise analytischen Bestimmung der beschreibenden Funktion von nichtlinearen Systemen mit ungeraden statischen Eigenschaften wird im Beitrag vorgestellt. Verallgemeinerte mathematische Ausdrücke zum Bestimmen einer solchen beschreibenden Funktion mit Fehlerschätzung werden angegeben. Das Verfahren wird anhand der Bestimmung der beschreibenden Funktion und der entsprechenden Fehlerschätzung von Mamdani-Fuzzy-Element und nichtlinearem System mit Fuzzy-Element und Sättigungs-Nichtlinearität veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-6268-1_7 aefcd48b727da191719b8f15f9adc5a8;de;;;2.4.;;;Systemdesign und erstes luftgestütztes Experiment mit dünn besetztem Mikrowellen-Bildgebungsradar: erste Ergebnisse In diesem Artikel untersuchen wir hauptsächlich das Systemdesign von dünn besetzten Mikrowellen-Bildgebungsradaren und berichten über einige der vorläufigen Ergebnisse von damit durchgeführten luftgestützten Experimenten. Sparse Mikrowellen-Bildgebungsradar ist ein neuartiges Konzept, das die Theorie der dünnbesetzten Signalverarbeitung in die Mikrowellen-Bildgebung einführt und das herkömmliche angepasste Filterverarbeitungsverfahren ersetzt. Mit der Ausnutzung der spärlichen Mikrowellenabbildung könnte das Radarsystem eine bessere Leistung erzielen. Als neu entwickeltes Konzept finden sich die beiden Hauptanwendungsarten der dünnbesetzten Mikrowellenabbildung in der Übernahme der dünnbesetzten Signalverarbeitungstheorie auf aktuelle Radarsysteme und in der Entwicklung eines optimierten dünnbesetzten Mikrowellenabbildungssystems. Hier versuchen wir letzteres, das hauptsächlich auf eine niedrigere PRF und einen breiteren Schwad abzielt. Wir stellen zunächst die Theorien des dünnbesiedelten Mikrowellen-Bildgebungsradars und seines Bildgebungsalgorithmus vor. Dann besprechen wir die Systementwurfsprinzipien, einschließlich des Abtastschemas, der Signalbandbreite, des SNR und des Mehrkanalmodus. Basierend auf den Beziehungen dieser Parameter stellen wir ein Designbeispiel für Radarparameter bereit. Am Ende nutzen wir ein luftgestütztes Experiment mit unserem entwickelten Radarsystem mit Jittered-Azimut-Sampling-Strategie. Einige vorläufige Analysen des Versuchsergebnisses werden ebenfalls bereitgestellt.;-;-;-;https://link.springer.com/article/10.1007/s11432-014-5266-6 351e1f69fe48aa2026bd4ff9ed6b86cf;de;;;2.4.;;;Computerdiagnose von Kropf. Die optimale Größe optimaler Subsymptomatologien Die Optimierung der diagnostischen Erkennungsrate wurde für Untergruppen von Symptomen unterschiedlicher Größe durchgeführt. Das diagnostische Problem war die Erkennung und Identifizierung von Schilddrüsenerkrankungen. Es wurde eine unverzerrte Leistungsbewertung erhalten und das Ausmaß der Voreingenommenheit bei anderen Bewertungsmethoden wurde bestimmt. Es hat sich gezeigt, dass die gegenseitige Abhängigkeit der Symptome bei der Anwendung der Bayes'schen Inferenz auf die vorliegenden Daten ein vernachlässigbares Ärgernis ist. Es wurde eine optimale Größe optimierter Teilmengen von Symptomen beobachtet. Ein Vergleich mit der sequentiellen Diagnostik zeigt, dass die beiden Verfahren unterschiedlich sind, obwohl sie verwandt sind, und dass die Optimalität von Teilmengen empfindlich auf Abweichungen von ihrer Zusammensetzung reagiert.;-;-;-;https://link.springer.com/article/10.1007/BF00978979 f06a91eb6a2568570e1b85c59aaf44d4;de;;;2.4.;;;Eine Übersicht über die Anwendungen der Erweiterungen von Fuzzy-Sets zur Bildverarbeitung In diesem Kapitel wird eine Überarbeitung verschiedener Bildverarbeitungsanwendungen vorgestellt, die mit verschiedenen Erweiterungen von Fuzzy-Sets entwickelt wurden. Es wird erklärt, wie Erweiterungen von Fuzzy-Sets versuchen, einige Aspekte der Unsicherheit zu modellieren, die in verschiedenen Prozessen der Bildverarbeitung existieren, und wie diese Erweiterungen solche Unsicherheiten besser handhaben als Fuzzy-Sets.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04516-5_1 adfb8707bbc95685864c7eca1a100711;de;;;2.4.;;;Multiskalige lokale Features basierend auf anisotroper Wärmediffusion und globaler Eigenstruktur Die lokale Multiskalen-Merkmalserkennung ermöglicht nachgelagerte Registrierungs- und Erkennungsaufgaben in der medizinischen Bildanalyse. In diesem Artikel wird eine neuartige robuste Methode für die mehrskalige lokale Merkmalsextraktion von volumetrischen Daten beschrieben. Die zentrale Idee ist die elegante Vereinigung lokaler/globaler Eigenstrukturen im mächtigen Rahmen der anisotropen Wärmediffusion. Zunächst wird das lokale Vektorfeld über die Hesse-Matrix und ihre Eigenvektoren/Eigenwerte konstruiert. Zweitens werden anisotrope Wärmekerne mit dem globalen Laplace-Graphen des Vektorfelds berechnet. Robuste lokale Merkmale manifestieren sich als Extrema über mehrere Zeitskalen hinweg und dienen als volumetrische Wärmekernsignatur. Um die rechnerische Herausforderung für massive volumetrische Daten zu bewältigen, schlagen wir eine Multi-Resolution-Strategie zur hierarchischen Merkmalsextraktion vor, die auf unserem merkmalserhaltenden Downsampling-Ansatz basiert. Als Ergebnis können Wärmekerne und lokale Merkmalsidentifikation zuerst auf einer gröberen Ebene angenähert werden und dann in einem lokalisierten Bereich mit einer feineren Auflösung lokalisiert werden. Eine weitere Neuheit dieser Arbeit liegt in der anfänglichen Wärmeauslegung, die den lokalen Eigenwert für die anisotrope Wärmediffusion über den volumetrischen Bereich verwendet. Wir führen Experimente mit verschiedenen medizinischen Datensätzen durch und ziehen Vergleiche mit der 3D-SIFT-Methode. Die Diffusionseigenschaft unserer lokalen Merkmale, die in der Statistik als Random Walks interpretiert werden kann, macht unsere Methode robust gegenüber Rauschen und führt zu intrinsischen Multiskaleneigenschaften.;-;-;-;https://link.springer.com/article/10.1007/s11432-012-4678-4 38ec126be6f543de8a833a031e27dcf8;de;;;2.4.;;;Ein effizienter hausärztlicher Ansatz zur Erkennung kognitiver Aufgaben aus fNIRS-Neuralsignalen Dieses Papier präsentiert einen neuen Ansatz zur genetischen Programmierung (GP), um kognitive Aufgaben aus nicht-stationären und verrauschten fNIRS-Neuralsignalen genau zu klassifizieren. Zu diesem Zweck wird ein neues GP entwickelt, das Mehrklassenprobleme effektiv behandelt. In Übereinstimmung mit der Multi-Tree-Struktur sind GP-Operatoren innovativ: Crossover tauscht jeden Unterbaum der Eltern aus, ohne unter Inkongruenzproblemen zu leiden, und Mutation verfeinert Kandidatenlösungen durch einen weniger destruktiven Prozess. Experimentelle Ergebnisse bestätigen die Wirksamkeit des vorgeschlagenen GP-Klassifikators gegenüber bestehenden Referenzen.;-;-;-;https://link.springer.com/article/10.1007/s11432-013-5001-8 e86cb33c6c82f49ba12282597d439223;de;;;5.3.;;;Ein verbesserter PageRank-Algorithmus basierend auf der Seitenlinkgewichtung Seitensortierung hat eine große Bedeutung für Suchmaschinen. Der PageRank-Algorithmus, der auf dem Random-Surf-Modell basiert, hat den Inhalt der Seiten nicht vollständig berücksichtigt und die Wahrscheinlichkeit von Links soll gleich sein. Dies führt daher zur Unkenntnis anderer wichtiger Informationen des PageRank-Algorithmus und seine Berechnungswerte sind nur schwer mit hoher Genauigkeit zu erreichen. Nach der Analyse der oben genannten Mängel soll eine Schlüsseleigenschaft definiert werden: Randomisierungsmatrix und dann Vorschlag eines verbesserten Algorithmus namens Pro-PageRank-Algorithmus, der die Links nicht einfach gleich gewichtet, sondern die Gewichtsunterschiede berücksichtigt. Es kann die folgenden Probleme effektiv lösen: Outlink-Seiten mit hohen PageRank-Werten und die Dringlichkeit der Benutzer für benötigte Seiten. Gemäß den simulierten experimentellen Daten weist der verbesserte Algorithmus, der Pro-PageRank-Algorithmus, im Vergleich zum herkömmlichen Algorithmus eine höhere Genauigkeit auf und verbessert die Qualität des PageRanks weiter, um die Autoritätsanforderungen der Seitenberechnungsergebnisse zu erfüllen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11197-1_57 efbced85e9b97b49a2a74b629b6c5b98;de;;;5.3.;;;Design eines kontextsensitiven mobilen Systems mit Sensoren In letzter Zeit gibt es viele Anwendungen auf einem Smartphone, die Ihnen ein komfortables Leben ermöglichen, wie Navigation, Rekorder und Webbrowser. Wir sollten diese Anwendungen jedoch selbst starten, wenn wir eine davon verwenden möchten. Wenn das Smartphone viele Anwendungen hat, ist die Suche per Bildschirmberührung ziemlich mühsam. In diesem Papier stellen wir ASinM (Aware-Sensors in Mobiles) vor, das unsere Situationen und Telefonnutzungsmuster mithilfe von Sensoren (z. B. GPS, Beschleunigungsmesser, Kompass, Audio und Licht) kennt und dann eine geeignete Anwendung auf dem Smartphone startet, damit wir we ersparen Sie sich unsere Mühe, eine bestimmte Anwendung zu suchen, wenn Sie sie verwenden möchten. Erstens verwendet ASinM Beschleunigungsmesser, um die Schritte des Benutzers zu erkennen. Danach beurteilt es, ob der Benutzer geht oder rennt, um eine Art Schrittzähleranwendung oder eine vom Benutzer ausgewählte spezifische Anwendung zu starten. Auch ASinM verwendet GPS, um die Geschwindigkeitsdaten des Benutzers zu erhalten. Es startet wie die Navigationsanwendung, wenn die Geschwindigkeit höher ist als die des menschlichen Laufens. Zweitens erkennt ASinM Muster der Telefonnutzung des Benutzers und bestimmt dann die Situation des Benutzers, z. B. Abwesenheit. Der Benutzer kann jeder Situation eine bestimmte Anwendung zuweisen. Wir evaluieren ASinM durch reale Experimente mit einer prototypischen Implementierung auf einem Android-basierten Smartphone (z. B. GalaxyS) und zeigen, dass es eine Anwendung in mehreren typischen Situationen ordnungsgemäß starten kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27204-2_11 12042a899b1c0c9ae80b49abef0b18ba;de;;;2.4.;;;Neuer neuronaler Wavelet-Netzwerkalgorithmus zur kontinuierlichen und nichtinvasiven dynamischen Schätzung des Blutdrucks aus der Photoplethysmographiem In diesem Artikel wird ein neuartiger neuronaler Wavelet-Netzwerkalgorithmus für die kontinuierliche und nichtinvasive dynamische Schätzung des Blutdrucks (BP) vorgeschlagen. Im Gegensatz zu früheren Algorithmen nutzt der vorgeschlagene Algorithmus die Korrelation zwischen Photoplethysmographie (PPG) und BP. Vollständige Blutdruckkurven werden basierend auf PPG-Signalen rekonstruiert, um den systolischen Blutdruck (SBP) und den diastolischen Blutdruck (DBP) zu extrahieren. Um die Robustheit zu verbessern, wird ein Daubechies-Wavelet als versteckte Schichtknotenfunktion für das neuronale Netzwerk implementiert. Eine optimierte neuronale Netzstruktur wird vorgeschlagen, um die Rechenkomplexität zu reduzieren. Darüber hinaus untersucht dieser Artikel einen inhomogenen widerstandsfähigen Backpropagation-Algorithmus (IRBP), um das Gewicht von Hidden-Layer-Knoten zu berechnen. Der IRBP verbessert die Konvergenzgeschwindigkeit und die Rekonstruktionsgenauigkeit. Zur Validierung dieses Algorithmus wird die intelligente Multiparameter-Überwachung in Intensivpflege-Datenbanken (MIMIC) verwendet, die eine Vielzahl von physiologischen Parametern enthalten, die von Patientenmonitoren erfasst wurden. Die Standardabweichung;-;-;-;https://link.springer.com/article/10.1007/s11432-015-5400-0 ff7fa9733323e240f6e641e36d83cb26;de;;;2.4.;;;Rückführbarkeit kontextfrei programmierter Grammatiken Kontextfreie programmierte Grammatiken (CFPG) gelten als leistungsfähig für die Beschreibung von Zeichenketten in der syntaktischen Musteranalyse. Rekursive Strukturen sind die wichtigsten Merkmale von CFPG. Die Beziehungen zwischen CFPG und rekursiven Sprachstrukturen wurden systematisch untersucht und infolgedessen wurde eine einzigartige Theorie der CFPG-Ableitung durch die Untersuchung von Rekursionsformaten von grundlegenden rekursiven Strukturen erhalten. Nach der Theorie kann ein CFPG für eine Sprache konstruiert werden, wenn die hinreichenden und notwendigen Bedingungen erfüllt sind.;-;-;-;https://link.springer.com/article/10.1007/BF00989482 9adc10bbe4be59252f3fdb14f738d7da;de;;;2.4.;;;64 × 64 GM-APD Array-basierte integrierte Ausleseschaltung für 3D-Bildgebungsanwendungen Unter Ausnutzung der hohen Empfindlichkeit des im Geiger-Modus (GM) betriebenen Avalanche-Photodioden-Detektors (APD) wird eine integrierte Array-Readout-Schaltung (ROIC) mit einem Zwei-Segment-Zeit-Digital-Umsetzer (TDC) für breitdynamische Zeitintervallmessung, bei der ein 1-Bit-Tiefsegment-TDC durch Diskriminieren einer einphasigen Taktperiode implementiert wird. Das vorgeschlagene 64 × 64 GM-APD-Array-ROIC, das mit der 0,18-µm-Komplementär-Metall-Oxid-Halbleiter-(CMOS-)Technologie der Taiwan Semiconductor Manufacturing Company (TSMC) hergestellt wurde, kann mit einer maximalen Frequenz von 500 MHz betrieben werden, die von einem externen Phasenregelkreis bereitgestellt wird. Die Zeitauflösung wird auf < 1 ns reduziert bei einem maximalen Bereich von 4 µs, die differentielle Nichtlinearität (DNL) und die integrale Nichtlinearität (INL) sind auf ca. −0,15 bis 0,15 Least Significant Bit (LSB) und − 0,3 bis 0,32 LSB und der Stromverbrauch beträgt 490 mW bei einer Bildfrequenz von 20 kHz. Der entwickelte ROIC wird auf zwei verschiedene Arten erfolgreich in bildgebenden Anwendungen eingesetzt.;-;-;-;https://link.springer.com/article/10.1007/s11432-018-9712-7 4a685bdfadbb09edadd15cb64b5c6302;de;;;2.4.;;;Ein mathematisches Modell für Konzeptgranulare Computersysteme In diesem Beitrag werden Extent-Intent- und Intent-Extent-Operatoren zwischen zwei vollständigen Gittern eingeführt und ein mathematisches Modell für Konzeptgranulare Rechensysteme erstellt. Wir haben bewiesen, dass die Menge aller Begriffe in diesem System ein Gitter mit dem größten und dem kleinsten Element ist. Dieser Rahmen umfasst formale Begriffsgitter aus formalen Kontexten,;-;-;-;https://link.springer.com/article/10.1007/s11432-010-3092-z 471a3d74e06a156f597acd3b2983c75d;de;;;2.4.;;;Bewertung des Energieeffizienzprofils für drahtlose Kommunikationsanwendungen Mit den Fortschritten bei Halbleitertechnologien sind drahtlose Kommunikationsanwendungen eine neue Klasse von Anwendungen auf batteriebetriebenen Geräten. Die Vielzahl und Komplexität von Komponenten, die ein großes Spektrum an Kommunikationsprotokollen auf diesen Geräten implementieren, erfordert eine genauere Bewertung und ein genaueres Verständnis hinsichtlich der Energieeffizienz. Da der Zusammenhang zwischen funkspezifischen Komponenten und deren Leistungsprofil im Kontext der Mobilfunkkommunikation nur sehr wenig analysiert wird, untersuchen wir die Landschaft der drahtlosen Kommunikationseffizienzmethoden. Als nächstes wenden wir Leistungseffizienzmetriken auf verschiedene drahtlose Systeme an und analysieren die experimentellen Daten, die wir durch eine Überwachungsanwendung erhalten haben. Bewertungsszenarien beginnen mit verschiedenen drahtlosen Kommunikationssystemen (WLAN, Bluetooth, GSM) und analysieren dann Stromverbrauch und Effizienz in mehreren Szenarien auf dem WLAN-Kommunikationssystem;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-8741-7_53 6b24bacfc9c4b2d2e202e2c1facec17f;de;;;2.4.;;;Haptische Wahrnehmung in der Hand bei geschickten Manipulationen Die geschickte In-Hand-Manipulation mit Mehrfinger-Roboterhänden ist ein heißes Thema in der Robotik. In letzter Zeit wurden viele berühmte Roboterhände mit mehreren Fingern entwickelt. Obwohl viel Forschung zu ihnen durchgeführt wurde, ist die Manipulation in der Hand immer noch eine Herausforderung. Eines seiner Probleme liegt in der Unsicherheit von Interaktionszuständen. In diesem Artikel untersuchen wir die Roboter-Objekt-Interaktion aus einem neuartigen Blickwinkel, der als haptische Exploration bezeichnet wird. Diese Methode hilft Robotern, die Fähigkeit zu erwerben, die Roboter-Objekt-Interaktion zu erforschen. Bei Handhabungsaufgaben in der Hand ist die haptische Exploration ein Prozess, bei dem der Roboter in verschiedene Richtungen leicht auf Objekte in der Hand drückt und währenddessen das haptische Feedback wahrnimmt, um den Interaktionszustand abzuschätzen. In diesem Beitrag wird ein neues Ein-Finger-Push-Modell zur Analyse des haptischen Feedbacks vorgeschlagen, das der traditionellen Impedanzkontrolle von Roboterarmen ähnelt. In diesem Modell werden die Steifigkeit der Finger, die Verformung auf der Kontaktfläche und die Änderung der Pos (Position und Lage) des Objekts berücksichtigt. Darüber hinaus wird ein Druckwiderstand angegeben, um das haptische Feedback zu beschreiben, das durch einen leichten Druck gewonnen wird. Schließlich werden reale Roboterexperimente durchgeführt, um die Machbarkeit der vorgeschlagenen Methode zu überprüfen.;-;-;-;https://link.springer.com/article/10.1007/s11432-014-5216-3 5043ccac3bf461ed52d33966a3e0c112;de;;;2.4.;;;Strenge Einschränkungen für 2D-Primitive-Paare für die technische Symbolerkennung: Theorie und Anwendung Geometrische Beschränkungen für das Linie-Linie-Paar, das Linie-Bogen-Paar und das Bogen-Bogen-Paar werden vorgeschlagen. Die Abhängigkeiten können die geometrischen Beziehungen zwischen Linien, Bögen und Kreisen kodieren. Ein geometrischer Beweis wird vorgelegt, um zu zeigen, dass die Nebenbedingungen bei Translation, Rotation, gleichförmiger Skalierung oder Reflexion der Primitivpaare stabil sind. Basierend auf den Randbedingungen wird ein Algorithmus zum Erkennen von Symbolen in Zeichnungen entwickelt. Experimentelle Ergebnisse zeigen, dass unser Verfahren im Vergleich zu drei anderen Verfahren primitivere Paare unterscheiden kann und eine höhere Genauigkeit bei der Erkennung von technischen Symbolen aufweist.;-;-;-;https://link.springer.com/article/10.1007/s11432-012-4557-z 6bfd2f81d4407c9cecb532a1288125e9;de;;;2.4.;;;Probleme bei der komponentenbasierten Projektschätzung für die rekursive Entwicklung In diesem Papier haben wir die komponentenbasierten spezifischen Probleme untersucht, die die Projektkostenschätzung beeinflussen könnten. Die komponentenbasierte Softwareentwicklung verändert den Stil der Softwareproduktion. Beim komponentenbasierten Ansatz wird die Software als Zusammensetzung wiederverwendbarer Softwarekomponenten entwickelt. Jeder Komponentenproduktionsprozess muss als eigenständiges Softwareprojekt behandelt werden, das eine individuelle Managementaufgabe erfordert. Eine typische rein komponentenbasierte Entwicklung kann als Zerlegungs-/Integrationsaktivitäten betrachtet werden, die nacheinander auf verschiedenen Ebenen angewendet werden und daher zu einem rekursiven Entwicklungsstil führen. Wir analysierten und präsentierten unsere Studienergebnisse zu den Problemen der komponentenbasierten Softwareentwicklungsschätzung aus rekursiver Sicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-8741-7_103 86fb95303a39bc14866cdbd0fe736ee3;de;;;2.4.;;;Zur starken strukturellen Kontrollierbarkeit und Beobachtbarkeit linearer zeitvariabler Systeme: eine konstruktive Methode In diesem Beitrag betrachten wir die Kontrollierbarkeit und Beobachtbarkeit von generalisierten linearen zeitvariablen (LTV) Systemen, deren Koeffizienten nicht genau bekannt sind. Über diese Systeme ist lediglich die Platzierung von Einträgen ungleich Null in ihren Koeffizientenmatrizen bekannt;-;-;-;https://link.springer.com/article/10.1007/s11432-017-9311-x 7d48d0541305d27ccd71ef71abb5838d;de;;;2.4.;;;Authentifizierungsmechanismus für schnelles Handoff im cdma2000-WiBro-Interworking In diesem Papier schlagen wir den Authentifizierungsmechanismus für eine Übergabe in der cdma2000-WiBro-Arbeitsumgebung vor. In der Interworking-Umgebung erfordert die Übergabeprozedur die Authentifizierung an der MS für die Zugangskontrolle und die Abrechnung. Bei der Übergabeprozedur ist es erforderlich, den EAP-AKA-Authentifizierungsprozess mit cdma2000-HN (Heimnetzwerk) durchzuführen, da TN (Zielnetzwerk) nicht die Informationen für die Authentifizierung über MS hat. Dieser Prozess hat eine relativ lange Verzögerung. Daher wird der schnelle Übergabeauthentifizierungsmechanismus zum Reduzieren der langen Verzögerung in der Übergabeprozedur benötigt. Daher schlägt dieses Papier die Übergabe-Authentifizierungsmethode unter Verwendung der reaktiven Kontextübertragung und der Ticketweiterleitungsmethode vor, um die schnelle Übergabe in der cdma2000-WiBro-Interworking-Umgebung bereitzustellen. Das vorgeschlagene Schema erfüllt Sicherheitsanforderungen beim Handoff und hat den Vorteil eines geringen Signalisierungs-Overheads bei der Handoff-Authentifizierung.;-;-;-;https://link.springer.com/article/10.1007/s11432-010-0019-7 69da4571ad1ce81f6b5cc3aea270069f;de;;;2.4.;;;Zur formalen Spezifikation eines verteilten Computersystems Das Computersystem an Bord eines Raumfahrzeugs ist ein Fall eines funktional verteilten Systems, das eine kontinuierliche Interaktion zwischen den Knoten erfordert, um die Operationen an verschiedenen Knoten zu steuern. Für eine solche Anwendung ist ein einfaches und zuverlässiges Protokoll erwünscht. Dieses Papier diskutiert einen formalen Ansatz zur Spezifizierung des Computersystems in Bezug auf einige wichtige Probleme, die beim Entwurf und der Entwicklung eines Protokolls für das verteilte Onboard-System auftreten. Die in diesem Papier behandelten Themen sind Nebenläufigkeit, Exklusivität und Sequenzierungsbeziehungen zwischen den verschiedenen Prozessen an verschiedenen Knoten. Zur genauen Spezifikation des Systems wird ein 6-Tupel-Modell entwickelt. Das Modell ermöglicht es uns auch, die Konsistenz von Spezifikation und Deadlocks zu überprüfen, die durch unsachgemäße Spezifikation verursacht wurden. Es wird ein Beispiel gegeben, um die Verwendung der vorgeschlagenen Methodik für eine typische Raumfahrzeugkonfiguration zu veranschaulichen. Obwohl die Theorie durch eine spezifische Anwendung motiviert ist, kann dieselbe auf andere verteilte Computersysteme angewendet werden, wie sie beispielsweise in der Prozesssteuerungsindustrie, der Kraftwerkssteuerung und anderen ähnlichen Umgebungen anzutreffen sind.;-;-;-;https://link.springer.com/article/10.1007/BF00987039 102768d9bd538ef1605d0198d35760e2;de;;;2.4.;;;Strahlungsbasierte Farbkalibrierung für die bildbasierte Modellierung mit mehreren Kameras Die Schätzung der Fotokonsistenz ist ein wichtiger Bestandteil vieler bildbasierter Modellierungstechniken. Dieses Papier stellt eine neuartige strahlungsbasierte Farbkalibrierungsmethode vor, um die Unsicherheit bei der Schätzung der Fotokonsistenz über mehrere Kameras hinweg zu reduzieren. Die Idee hinter unserer Methode besteht darin, Farben in einen einheitlichen radiometrischen Farbraum umzuwandeln, in dem mehrere Bilddaten korrigiert werden. Experimentelle Ergebnisse zeigen, dass unser Verfahren einen vergleichbaren Farbkalibrierungseffekt ohne Anpassung der Kameraparameter erzielen kann und robuster ist als andere bestehende Verfahren. Darüber hinaus erhalten wir einen automatisch ermittelten Schwellenwert für die Fotokonsistenzprüfung, der zu einer besseren Leistung führt als bestehende auf Fotokonsistenz basierende Rekonstruktionsalgorithmen.;-;-;-;https://link.springer.com/article/10.1007/s11432-011-4467-5 66ecc57e98ba5c2fed0c8fa89187a3b9;de;;;2.4.;;;Compressive Sensing SAR-Bereichskompression mit Chirp-Skalierungsprinzip Compressive Sensing (CS)-Techniken bieten einen Rahmen für die Erkennung und Zuordnung von spärlichen Signalen mit einer reduzierten Anzahl von Messungen. Dieses Papier schlägt eine neuartige SAR-Entfernungskompression vor, nämlich Compression Sensing with Chirp Scaling (CS-CS), die dieselbe Entfernungsauflösung wie der konventionelle SAR-Ansatz erreicht, während weniger Entfernungsabtastungen verwendet werden. Um eine genaue Entfernungszellen-Migrationskorrektur (RCMC) zu realisieren, wird das Chirp-Skalierungsprinzip verwendet, um eine Referenzmatrix für die Kompressionserfassungswiederherstellung zu konstruieren. Darüber hinaus werden Fehlerdiagramme zur Messung der Leistung von CS-CS entworfen, und einige Experimente unter Verwendung echter Daten werden durchgeführt, um die durch drei Bedingungen verursachten Fehler zu behandeln: SNR, Sparsity und Sampling.;-;-;-;https://link.springer.com/article/10.1007/s11432-012-4613-8 79df2d450256ae10838669ec09efc9ce;de;;;2.4.;;;Zukünftige Fahrzeuge: lernbare Radroboter Als eines der wichtigen Zeichen der dritten Welle der künstlichen Intelligenz erben Radroboter nicht nur Wissen, sondern lernen auch selbstständig, was zu lernfähigen Radrobotern führt, die ein treibendes Gehirn verwenden, um datengesteuertes Steuern und Lernen zu erreichen. Derzeit können die meisten bestehenden Technologien für selbstfahrende Fahrzeuge positiv von den Benchmark-Fahrern lernen, um sicheres Fahren zu gewährleisten. In vielen unvorhergesehenen Situationen, wie beispielsweise einem Überschlag, verursachen menschliche Fahrer jedoch aufgrund menschlicher Emotionen wie Panik oft das Verhalten des irrationalen Unterbewusstseins. In diesem Beitrag schlagen wir einen lernbaren Radroboter vor, der das fahrende Gehirn nutzt, am Beispiel des Überschlags, der die schwerwiegendste und gefährlichste Situation im dynamischen Fahrzeugbetrieb darstellt. Basierend auf der Analyse von Überschlagunfällen nutzen wir dann das fahrende Gehirn umgekehrt und führen negatives Lernen durch, materialisieren und verdichten die Gruppenintelligenz von Unfallexperten, um das Problem der fehlenden individuellen Intelligenz in Notfällen zu lösen und die Echtzeit weiter zu fördern Reaktion auf andere gefährliche Bedingungen, wie zum Beispiel Reifenpannen für selbstfahrende Fahrzeuge.;-;-;-;https://link.springer.com/article/10.1007/s11432-019-2787-2 311a9cb061cf4be52abf207fec71c1ba;de;;;2.4.;;;Eine Anwendung der differentiellen Spread-Spectrum-Technik in der mobilen akustischen Unterwasserkommunikation Es wird eine Unterwasser-Akustikkommunikationstechnik mit direkter Sequenz/binärer differentieller Phasenumtastung vorgeschlagen, die auf differentieller kohärenter Demodulation basiert. Am empfangenden Endgerät wird eine differenzielle kohärente Demodulation verwendet, um die Schwierigkeit der Trägerschätzung bei der akustischen Unterwasserkommunikation und des Überwindens des Frequenz- und Phasenfehlers, der sich aus der Trägerfrequenzdrift ergibt, zu überwinden. Anti-Multipath, Anti-Doppler, niedrige Fehlerrate, effektive und robuste Eigenschaften für einen komplexen akustischen Unterwasserkanal wurden in einem Seeexperiment verifiziert.;-;-;-;https://link.springer.com/article/10.1007/s11432-011-4399-0 071aab4bbe505a59ecaf1f1e68d373a5;de;;;5.3.;;;Verhaltenskompatibilitätsanalyse für Service Mashup mit Model Checking In einer bestehenden Mashup-Umgebung übernehmen Endbenutzer die Verantwortung für die Verhaltenskompatibilität von Mashup-Diensten. Tatsächlich können Endbenutzer aufgrund der begrenzten Fähigkeiten der Endbenutzer sowohl in der Programmiertechnik als auch in den Domänenkenntnissen nicht immer die Nichtübereinstimmung des Verhaltens der Dienste finden. Wir präsentieren einen automatischen Ansatz zur Analyse der Verhaltenskompatibilität von Service-Mashups mit Verifikationstechniken von Communication Sequence Processes (CSP). Das Merkmal dieses Ansatzes besteht darin, dass, wenn ein Dienstprozess einige Inkompatibilitäten enthält, das Gegenbeispiel an die Endbenutzer zurückgegeben wird, um die Fehlerquelle zu verfolgen. In diesem Ansatz wird ein Service Behavior Model (SBM) vorgestellt, um die Modellierung von Services mit CSP zu erleichtern, und ein automatisierter Modellierungsansatz für Serviceprozesse auf modularem Weg vorgeschlagen. Darüber hinaus werden zwei Arten von Verhaltenskompatibilität basierend auf der Entwicklungspraxis eingeführt und ein automatischer Spezifikationsansatz für jede Art von Kompatibilitätseigenschaften vorgestellt. Abschließend wird eine Fallstudie vorgestellt, um die Verhaltenskompatibilität basierend auf unserem Ansatz mit dem PAT-Checker zu analysieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8086-4_14 4aa5443145d481a9fdd8923deb9174d5;de;;;2.4.;;;Unterwasser-Sonarzielbildgebung über Compressed Sensing mit M-Sequenzen Aufgrund der geringen Schallausbreitungsgeschwindigkeit hat der Kompromiss zwischen hoher Azimutauflösung und breitem Bildgebungsstreifen die Anwendung der Sonar-Unterwasserzielbildgebung stark eingeschränkt. Basierend auf der Compressed Sensing (CS)-Technik ist es jedoch möglich, Ziele mit nur einem Impuls abzubilden und somit den obigen Kompromiss zu vermeiden. Um die möglichen Wellenformen für CS-basierte Unterwasser-Bildgebung zu untersuchen, werden in diesem Artikel die deterministischen M-Sequenzen vorgestellt, die in Sonaranwendungen weit verbreitet sind. Durch Analysieren der aus M Sequenzen konstruierten Kompressionsmatrix werden der Kohärenzparameter und die eingeschränkte Isometrieeigenschaft (RIP) der Matrix abgeleitet. Außerdem werden die Machbarkeit und Fortschritte der M-Sequenz durch Vergleich mit der bestehenden Alltop-Sequenz im Unterwasser-CS-Bildgebungsrahmen demonstriert. Schließlich werden die Ergebnisse numerischer Simulationen und eines realen Experiments bereitgestellt, um die Wirksamkeit des vorgeschlagenen Signals aufzuzeigen.;-;-;-;https://link.springer.com/article/10.1007/s11432-016-5585-x 815b381ded765d020a662925ab18e1bc;de;;;2.4.;;;Ein Algorithmus zur hochpräzisen Lagebestimmung bei Verwendung von Sensoren mit niedriger Präzision Die Technologie zur hochpräzisen Lagebestimmung bei Verwendung von Sensoren mit geringer Genauigkeit ist eine Schlüsselanforderung an einen modernen Kleinsatelliten. In diesem Beitrag wird ein neuer Algorithmus zur Lagebestimmung vorgestellt, der als Preprocess EKF(PP-EKF) bezeichnet wird und auf der Vorverarbeitung der Sensordaten basiert. Es kann die Gesamtgenauigkeit der Modellierung verbessern, indem es die quadratische Straffunktion verwendet, um den dynamischen Modellfehler und den Winkelgeschwindigkeitsfehler in Echtzeit basierend auf der Informationsfusion der aktuellen und der vergangenen Messinformationen zu korrigieren. Das Messmodell des EKF wird durch Einführung der q-Methode linearisiert. Der Lösungsfehler dieses Prozesses wird auch korrigiert, um die Genauigkeit des Messmodells weiter zu verbessern und Messdaten von den Sensoren geringer Präzision besser zu nutzen, um gute Lagebestimmungsergebnisse zu erhalten. Schließlich zeigen die Simulationsergebnisse die hohe Zuverlässigkeit und weitere Vorteile des vorgeschlagenen Algorithmus.;-;-;-;https://link.springer.com/article/10.1007/s11432-012-4546-2 1dc77f9084b452c211da52dab4b05613;de;;;2.4.;;;Rekursive Methode der Pulsordnung für die Berechnung der inversen Kovarianzmatrix, angewendet auf die adaptive Raum-Zeit-Verarbeitung Das konventionelle Raum-Zeit-Adaptive-Processing-(STAP)-Verfahren wie das typische STAP-Verfahren auf der Grundlage der Sample-Matrix-Inversion (SMI) ist für ein praktisches System schwierig zu implementieren, da eine hohe Rechenkomplexität bei der direkten Berechnung der Inversion einer Raum-Zeit-Kovarianzmatrix entsteht . Gemäß der Block-Hermiteschen Matrixeigenschaft der Raum-Zeit-Kovarianzmatrix wird in diesem Artikel eine neue rekursive Methode der Pulsordnung vorgeschlagen, um die inverse Kovarianzmatrix für das adaptive STAP-Gewicht zu berechnen, die die Rechenkomplexität erheblich reduzieren kann. Das vorgeschlagene Verfahren erfordert zunächst die rekursive Berechnung der inversen Kovarianzmatrix der ersten Pulsordnung basierend auf der hermiteschen Blockmatrixeigenschaft. Im Folgenden wird die Inversion der Raum-Zeit-Kovarianzmatrix rekursiv basierend auf der vorherigen inversen Kovarianzmatrix der Pulsordnung erhalten. Als nächstes wird die adaptive Gewichtung von STAP basierend auf der zuvor erhaltenen Inversions-Raum-Zeit-Kovarianzmatrix berechnet. Verglichen mit den herkömmlichen SMI-basierten STAP-Algorithmen wird die Rechenkomplexität des vorgeschlagenen Verfahrens bei gleicher Clutter-Unterdrückungsleistung auf mehr als 50% reduziert. Dieses Verfahren kann auf praktische Systeme angewendet werden, die von einer geringen Rechenkomplexität und einer stabilen Clutter-Unterdrückungsleistung profitieren.;-;-;-;https://link.springer.com/article/10.1007/s11432-013-4828-3 199a26962120a4c670b3fa7b311c9ec1;de;;;2.4.;;;Semantik und Wahrnehmung von Fuzzy-Sets und Fuzzy-Mappings Fuzzy Sets sind Konstrukte mit einer wohldefinierten Bedeutung [36–38]. Sie erfassen die Semantik des Rahmens, in dem sie operieren wollen. Fuzzy-Sets sind die konzeptionellen Bausteine ​​(generische Konstrukte), die bei der Problembeschreibung, Modellierung, Steuerung, Musterklassifizierungsaufgaben und dergleichen verwendet werden. Ihre Einschätzung und Interpretation sind von größter Bedeutung. Bevor spezifische Techniken der Zugehörigkeitsfunktionsschätzung diskutiert werden, lohnt es sich, die Gesamtdarstellung in einen bestimmten Kontext zu stellen, indem der Aspekt der Verwendung einer endlichen Anzahl von Fuzzy-Mengen betont wird, was zu einem wesentlichen Vokabular führt, das das zugrunde liegende Domänenwissen widerspiegelt. Insbesondere befassen wir uns mit der zugehörigen Semantik, den Kalibriermöglichkeiten von Zugehörigkeitsfunktionen und der Lokalität von Fuzzy-Mengen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78293-3_14 6ef5701a651f71d27928e8c06b1e7248;de;;;2.4.;;;Kooperative Lokalisierung mit mehreren Robotern basierend auf autonomer Bewegungszustandsschätzung und Laserdateninteraktion Die kooperative Lokalisierung mit mehreren Robotern ist ein wichtiges Forschungsthema in der mobilen Robotik. Dieser Artikel untersucht hauptsächlich das Problem der kooperativen Lokalisierung basierend auf der Interaktion von Umgebungsinformationen in einer unbekannten komplexen Umgebung. Unter Berücksichtigung des Einflusses des Roboterbewegungszustandes auf die kooperative Lokalisierung präsentieren wir einen Algorithmus zur adaptiven Auswahl von Perioden der kooperativen Lokalisierung basierend auf autonomer Bewegungszustandsschätzung. Um das Anbringen einer zusätzlichen Lokalisierungsmarkierung am Roboter zu vermeiden, die für die direkte Beobachtung zwischen Robotern benötigt wird, und um die interaktiven Informationen zwischen Robotern in derselben Szene voll auszunutzen, ist ein Verfahren zum Erhalten von Multi-Roboter-Beobachtungen basierend auf dem MbICP-Algorithmus algorithm vorgeschlagen, was die kooperative Lokalisierung mit mehreren Robotern mit EKF in unübersichtlichen Umgebungen machbar und zuverlässig macht. Versuchsergebnisse mit den Pioneer 3-DX-Robotern und Datenanalysen zeigen die Validität und Praktikabilität der Methode.;-;-;-;https://link.springer.com/article/10.1007/s11432-010-4096-4 91918b9b0dcb3afaa7972d2e2ec10469;de;;;2.4.;;;Ein verfeinerter kohärenter Punktdrift-Algorithmus (CPD) für die Punktsatzregistrierung Der Algorithmus der kohärenten Punktdrift (CPD) ist ein leistungsfähiger Ansatz für die Punktsatzregistrierung. Es leidet jedoch unter einem ernsthaften Problem – es gibt einen Gewichtsparameter;-;-;-;https://link.springer.com/article/10.1007/s11432-011-4465-7 e6b739ebba9a7ff8e0396c091f873b2f;de;;;2.4.;;;Schichtweiser Aufbau von Kohlenstoff-Nanoröhrchen Dünnfilm-basierte Gassensoren für die Ammoniakdetektion Einwandige Kohlenstoffnanoröhren (SWNTs) wurden auf Interdigitalelektroden (IDE)-Geräten und Quarzkristall-Mikrowaagen (QCM) durch schichtweise Selbstorganisationsmethode abgeschieden, um widerstandsempfindliche bzw. Ihre auf Ammoniakgas empfindlichen Eigenschaften wurden bei verschiedenen Temperaturen nachgewiesen. Es zeigt sich, dass der auf SWNTs basierende massenempfindliche Gassensor gute Erfassungseigenschaften bei Raumtemperatur hat. Der auf SWNTs basierende widerstandsempfindliche Gassensor weist jedoch eine irreversible Reaktion auf Ammoniakgas auf. Wenn die Temperatur ansteigt, erhöht sich das Rauschen des auf SWNTs basierenden massenempfindlichen Gassensors und die gasempfindliche Charakteristik nimmt ab. Inzwischen wird auch der Feuchtigkeitseffekt diskutiert. Es ist wichtig, den Gassensor zu optimieren, indem er in einer geeigneten externen Umgebung funktioniert.;-;-;-;https://link.springer.com/article/10.1007/s11432-011-4279-7 7357ac13a5c7dc9b1f5e38fb5a652b5d;de;;;2.4.;;;Zweidimensionales Mellin und Mel-Cepstrum zur Extraktion von Bildmerkmalen Ein Verfahren zur Extraktion von Bildmerkmalen basierend auf zweidimensionalem (2D) Mellin-Cepstrum wird vorgestellt. Das in der Spracherkennung weit verbreitete Konzept des eindimensionalen (1D) Melcepstrums wird in diesem Artikel sowohl unter Verwendung der gewöhnlichen 2D-Fourier-Transformation als auch der Mellin-Transformation auf zwei Dimensionen erweitert. Die resultierenden Merkmalsmatrizen werden auf zwei verschiedene Klassifikatoren (Common Matrix Approach and Support Vector Machine) angewendet, um die Leistung der Melcepstrum- und Mellincepstrum-basierten Merkmale zu testen. Experimentelle Studien zeigen, dass die Erkennungsraten, die durch das 2D-Melcepstrum-basierte Verfahren erhalten werden, den Erkennungsraten, die mit 2D-PCA und gewöhnlicher Bildmatrix-basierter Gesichtserkennung in beiden Klassifikatoren erhalten werden, überlegen sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-9794-1_52 aaf9f28b46de34d2b9b9c8b4c34d33b2;de;;;2.4.;;;Eine neue Methode zum Entfernen von Mischgeräuschen Wir führen zunächst eine Ähnlichkeitsannahme ein, um das Ähnlichkeitsphänomen in natürlichen Bildern zu beschreiben, und stellen ein Ähnlichkeitsprinzip auf, das eine einfache mathematische Rechtfertigung für den nicht-lokalen Mittelwertfilter beim Entfernen von Gauß-Rauschen liefert. Unter Verwendung des Ähnlichkeitsprinzips in angepasster Weise schlagen wir dann einen neuen Algorithmus namens Mixed Noise Filter (MNF) vor, um gleichzeitig eine Mischung aus Gauß- und Zufallsimpulsrauschen zu entfernen. Unsere Experimente zeigen, dass unser neuer Filter den trilateralen Filter beim Entfernen von gemischtem Rauschen erheblich verbessert und dass er beim Entfernen von Gauß-Rauschen genauso effizient ist wie der nicht-lokale Mittelwertfilter und so gut wie der trilaterale Filter beim Entfernen zufälliger Impulsrauschen.;-;-;-;https://link.springer.com/article/10.1007/s11432-010-4128-0 9ba3ef4877d71803acb6f4037e6a7aef;de;;;2.4.;;;CT-Radiomics kann beim Screening der Coronavirus-Krankheit 2019 (COVID-19) helfen: eine Vorstudie Die Coronavirus-Krankheit 2019 (COVID-19) wütet auf der ganzen Welt. Die Radiomics, die riesige Mengen von Merkmalen aus dem medizinischen Bild für die Krankheitsdiagnose untersucht, kann beim Screening von COVID-19 helfen. In dieser Studie wollen wir eine radiomische Signatur entwickeln, um COVID-19 aus CT-Bildern zu screenen. Wir sammeln retrospektiv 75 Lungenentzündungspatienten aus dem Beijing Youan Hospital, darunter 46 Patienten mit COVID-19 und 29 anderen Arten von Lungenentzündungen. Diese Patienten werden in Trainingssätze (;-;-;-;https://link.springer.com/article/10.1007/s11432-020-2849-3 badc914cb979466c9d000e365c186d60;de;;;2.4.;;;ISAR-Bildgebung über spärliches frequenzgestuftes Chirp-Signal Ein frequenzgestuftes Chirp-Signal kann die Bezeichnung des Radarsystems vereinfachen. Es hat jedoch den Nachteil der Doppler-Mehrdeutigkeit für sich mit hoher Geschwindigkeit bewegende Ziele. Daher ist es von großer Bedeutung zu untersuchen, wie die äquivalente Pulswiederholfrequenz erhöht werden kann. Das Rückstreufeld des ISAR-Targets ist stark spärlich, dh die meiste Energie wird nur von wenigen Streuzentren beigesteuert. Basierend auf der Theorie der spärlichen Signaldarstellung wird daher ein neues Verfahren zur ISAR-Bildgebung über spärliche frequenzgestufte Chirp-Signale vorgeschlagen, indem das Signalmodell des Ziels analysiert wird. Bei dem vorgeschlagenen Verfahren wird ein Teil von Teilimpulsen des frequenzgestuften Chirp-Signals zufällig ausgewählt, um zu übertragen, und dann kann das hochauflösende 2D-Bild des Ziels durch eine spärliche Signalzerlegung konstruiert werden. Auf Kosten von Rechenressourcen kann das Verfahren das Problem der Doppler-Ambiguität effektiv lösen, die Nebenkeulen verringern und ein superaufgelöstes Bild erhalten. Darüber hinaus wird die Validität des vorgeschlagenen Ansatzes durch die Ergebnisse numerischer Simulationen und realer Daten bestätigt.;-;-;-;https://link.springer.com/article/10.1007/s11432-011-4353-1 7785834c9b9b7640096953843345c2a6;de;;;2.4.;;;Imputieren fehlender Werte für gemischte numerische und kategoriale Attribute basierend auf unvollständiger hierarchischer Datenclusterbildung Die fehlende Datenimputation ist ein zentrales Thema der Datenvorverarbeitung im Data-Mining-Bereich. Obwohl es viele Methoden für die Imputation von fehlenden Werten gibt, hat fast jede dieser Imputationsmethoden ihre Grenzen und ist entweder für numerische Attribute oder kategoriale Attribute konzipiert. In diesem Beitrag wird IMIC vorgestellt, eine neue Methode zur Imputation von fehlenden Werten für gemischte numerische und kategoriale Attribute basierend auf hierarchischem Clustering von unvollständigen Daten nach der Einführung eines neuen Konzepts des Incomplete Set Mixed Feature Vector (ISMFV). Die Wirkung der neuen Methode wird durch das Vergleichsexperiment anhand von 3 realen Datensätzen von UCI bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25975-3_37 6e3c124c98631d33c8c0f84dfa0f0003;de;;;2.4.;;;Simulation der freien Oberflächenströmung mit einem grenzenlosen Gitter Die physikalisch basierte Fluidsimulation war in den letzten Jahren für kleinskalige Fluide wie Flüssigkeiten in einem kubischen Hohlraum erfolgreich. Für grenzenlose Strömungen auf freier Oberfläche mit großem Maßstab und unregelmäßigem Bereich gibt es jedoch aufgrund der Beschränkung der herkömmlichen regulären Rechengitter einen kritischen Kompromiss zwischen Simulationseffizienz und Genauigkeit. Dieses Papier stellt grenzenlose Rechengitter vor, die auf einer hierarchischen Lauflängencodierung basieren, um großräumige Strömungen an freier Oberfläche zu simulieren. Wir haben zunächst die freie Oberflächenströmung mit einem Gitter-Boltzmann-Verfahren modelliert und die Oberflächenkrümmung im Update-Prozess berechnet. Wir führten dann eine effektive Methode ein, um die Oberflächenkrümmung entsprechend der Oberflächenspannung zu berechnen, so dass das Oberflächendetail verbessert wurde und die Krümmung jeder Oberfläche effektiv erhalten wurde, wenn sie extrahiert wurde. Darüber hinaus haben wir die Rechenzellen mit dem verbesserten hierarchischen Lauflängencodierungsalgorithmus dynamisch komprimiert und indiziert, sodass sich das Gitter entsprechend dem Flüssigkeitsfluss dynamisch ausdehnt und die verwendeten Rechenressourcen proportional zum Volumen der Flüssigkeit waren. Schließlich wurden Flüssigkeiten in verschiedenen Situationen realistisch simuliert. Das vorgeschlagene Verfahren macht das Beste aus den Rechenressourcen, um die Simulation mit hoher Auflösung durchzuführen, und weist Ressourcen dynamisch zu, so dass sich das Fluid in zufällige Richtungen ohne Grenzen ausdehnen kann, was für die Simulation großflächiger visueller Szenen geeignet ist.;-;-;-;https://link.springer.com/article/10.1007/s11432-013-4816-7 4712b3835d28901e0ba9c5676adeedb6;de;;;5.3.;;;Herausfordernde Probleme des Videoüberwachungssystems mit Internet der Dinge in einer Cloud-Umgebung In Videoüberwachungssystemen sind herkömmliche Systeme anfällig für Umgebungsschwankungen, z;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-5427-3_49 35edfdb86382cbe126100f063bf5420f;de;;;5.3.;;;Regions-Kovarianzmatrizen für die Objektverfolgung im Quasi-Monte-Carlo-Filter Regionskovarianzmatrizen (RCMs), kategorisiert als Matrixform-Merkmal in einer niedrigen Dimension, verschmelzen mehrere verschiedene Bildmerkmale, die korreliert werden könnten. Die auf Regionenkovarianzmatrizen basierenden Tracker sind robust und vielseitig mit einem bescheidenen Rechenaufwand. In diesem Papier wird unter dem Bayes'schen Inferenzrahmen ein auf Regionskovarianzmatrizen basierender Quasi-Monte-Carlo-Filter-Tracker vorgeschlagen. Die RCMs werden verwendet, um das Aussehen von Zielen zu modellieren. Die Unähnlichkeitsmetrik der RCMs wird auf Riemannschen Mannigfaltigkeiten gemessen. Basierend auf der aktuellen Objektposition und dem Vorwissen werden die möglichen Positionen der Objektkandidaten im nächsten Rahmen vorhergesagt, indem sowohl sequentielle Quasi-Monte-Carlo-(SQMC)- als auch eine gegebene Bedeutungsstichproben-(IS)-Technik kombiniert werden. Experimente, die an verschiedenen Arten von Bildsequenzen durchgeführt wurden, zeigen, dass unser Ansatz robust und effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17641-8_13 5397257ae0b780aad62c3e4965878bc1;de;;;5.3.;;;Ein binauraler Signalsyntheseansatz für die schnelle Wiedergabe von bewegtem Klang Angesichts der Schwierigkeit, die individuelle Kopf-bezogene Übertragungsfunktion (HRTF) zu modellieren, wird ein binauraler Ansatz zur bewegungsschallquellenorientierten Stereo-Audiosynthese vorgeschlagen, der sich auf das Interpolationsverfahren der HRTF bezieht. Mittels sphärischer Aufnahme kann das räumliche Audio von Punkten aus verschiedenen Richtungen gewonnen werden. Um einen realistischeren Effekt zu erzielen, wird das räumliche bilineare Interpolationsverfahren verwendet, um das Gewicht der relevanten Punkte zu berechnen, die verwendet werden, um die sich bewegende Schallquelle zu synthetisieren, und schließlich wird der Dopplereffekt mit dem Interpolations- und Extraktionsverfahren im Frequenzbereich simuliert. Die Versuchsergebnisse zeigen, dass unser Verfahren in der Lage ist, HRTF zu ersetzen, um sich bewegende Schallquellen näherungsweise zu synthetisieren, und die erzeugte Leistung der sich bewegenden Schallquelle ist näher an der realen Aufnahme.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-61833-3_65 4942ed74eaf916ecdc9c9540ed12dd77;de;;;5.3.;;;Robuste Objektverfolgung durch adaptive Multi-Feature-Fusion basierend auf Stabilität: Kontrastanalyse Die Objektverfolgung unter komplexen Umständen ist aufgrund von Hintergrundinterferenzen, Hindernisverdeckung, Objektverformung usw. eine schwierige Aufgabe. Unter solchen Bedingungen sind die robuste Erkennung, Lokalisierung und Analyse eines Ziels durch Einzelmerkmalsdarstellung schwierige Aufgaben. Globale Merkmale wie Farbe werden bei der Verfolgung häufig verwendet, können jedoch unter komplexen Umständen dazu führen, dass das Objekt abdriftet. Lokale Merkmale wie HOG und SIFT können starre Ziele präzise darstellen, diesen Merkmalen fehlt jedoch die Robustheit eines sich bewegenden Objekts. Eine effektive Methode ist die adaptive Fusion mehrerer Merkmale bei der Darstellung von Zielen. Der Prozess der adaptiven Verschmelzung verschiedener Funktionen ist der Schlüssel zu einer robusten Objektverfolgung. Diese Studie verwendet einen Multi-Feature-Joint-Descriptor (MFJD) und den Abstand zwischen Joint-Histogrammen, um die Ähnlichkeit zwischen einem Ziel und seinen Kandidaten-Patches zu messen. Farb- und HOG-Features werden als verfolgtes Objekt der gemeinsamen Darstellung verschmolzen. Diese Studie schlägt auch eine selbstadaptive Multi-Feature-Fusionsstrategie vor, die das gemeinsame Gewicht der fusionierten Features basierend auf ihren Stabilitäts- und Kontrastmesswerten adaptiv anpassen kann. Als Objektverfolgungs-Framework mit Multi-Feature-Repräsentation wird der Mean-Shift-Prozess verwendet. Die experimentellen Ergebnisse zeigen, dass die vorgeschlagene MFJD-Tracking-Methode Hintergrundechos, partielle Okklusion durch Hindernisse, Maßstabsänderungen und Deformationen effektiv handhabt. Das neuartige Verfahren schneidet in realen Überwachungsszenarien besser ab als mehrere hochmoderne Verfahren.;-;-;-;https://link.springer.com/article/10.1007/s00371-014-1014-6 d820a0f2789a51e16b08bedfbdbf4a29;de;;;5.3.;;;Simulationsanalyse der Entscheidungspolitik für On-Demand-Verkehrssysteme In den letzten Jahren haben sich On-Demand-Transportsysteme (wie ein Demand-Bus-System) als neuer Transportdienst in Japan konzentriert. Ein On-Demand-Fahrzeug besucht Abhol- und Zustellpunkte von Tür zu Tür, je nach Bedarf. Dieser Dienst kann als kooperatives (oder kompetitives) Gewinnproblem zwischen Transportfahrzeugen angesehen werden. Somit ist die Entscheidungsfindung für das Problem ein wichtiger Faktor für den Gewinn von Fahrzeugen (d. h. Fahrern). Allerdings ist es schwierig, eine optimale Lösung des Problems zu finden, da einige unsichere Risiken bestehen, z. Daher schlägt dieses Papier eine Verkehrspolitik für On-Demand-Fahrzeuge vor, um die ungewissen Risiken zu kontrollieren. Zunächst klassifizieren wir den Gewinn von Fahrzeugen in „zugesicherter Gewinn“ und „potenzieller Gewinn“. Zweitens schlagen wir eine „Gewinnpolitik“ und eine „Auswahlpolitik“ basierend auf der Klassifizierung der Gewinne vor. Darüber hinaus kann die Auswahlpolitik in „Gier“, „gemischt“, „kompetitiv“ und „kooperativ“ unterteilt werden. Diese Auswahlrichtlinien werden durch Auswahlwahrscheinlichkeiten der nächsten Besuchspunkte repräsentiert, um mit anderen Fahrzeugen zu kooperieren oder zu konkurrieren. Schließlich berichten wir Simulationsergebnisse und analysieren die Wirksamkeit unserer Angebotsrichtlinien.;-;-;-;https://link.springer.com/article/10.1007/s10489-008-0125-z f5da29d01de69d1fbc9bcfa988f524d8;de;;;5.3.;;;Umgang mit mehrdeutigen Entitäten in Mensch-Roboter-Anweisungen unter Verwendung von Sprach- und Kontextwissen Eine verhaltensbasierte Steuerung gilt als der beste Ansatz zur Steuerung autonomer Roboter. Von den Robotern wurde erwartet, dass sie Menschen in einer von Menschen lebenden Umgebung wie Häusern oder Büros unterstützen. Solche Situationen erfordern eine natürliche Interaktion zwischen Mensch und Roboter. Eine Möglichkeit, dies zu erleichtern, ist die Bereitstellung einer natürlichen Sprachschnittstelle (NLI) für die Mensch-Roboter-Interaktion. Das größte Hindernis bei der Entwicklung des NLI ist die natürliche Sprache, die immer mehrdeutig ist. Das Mehrdeutigkeitsproblem tritt auf, wenn ein Wort in einer menschlichen Anweisung mehr als eine Bedeutung haben kann. Bisher gibt es keinen NLI-Prozessor, der das Problem gut lösen kann. Dieses Papier stellt einen Rahmen und einen Ansatz zur Lösung des Problems vor. Der Ansatz wird unter Verwendung von Fuzzy-Sets und Möglichkeitstheorie auf linguistischem und Kontextwissen entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22027-2_61 0563f674502645fcba1456d122993b89;de;;;2.4.;;;Lokale Schwellenwertbildung mit adaptiver Fensterschrumpfung im Konturbereich zur Bildentrauschung Die Schwellenauswahl ist eine anspruchsvolle Aufgabe für die Bildrauschunterdrückung im Contourlet-Bereich. In diesem Beitrag wird ein neuer lokaler Schwellenwert mit adaptiver Fensterschrumpfung vorgeschlagen. Entsprechend den anisotropen Energieclustern in Konturelement-Unterbändern werden lokale adaptive elliptische Fenster eingeführt, um die benachbarten Koeffizienten mit starken Abhängigkeiten für jeden Koeffizienten zu bestimmen. Unter Verwendung des Maximum-Likelihood-Schätzers innerhalb des adaptiven Fensters wird die Signalvarianz aus den verrauschten Nachbarkoeffizienten geschätzt. Basierend auf der Schätzung der Signalvarianz wird der neue Schwellenwert im Bayesschen Rahmen erhalten. Da es die erfassten Richtungsinformationen von Bildern voll ausnutzt, reicht die Schwelle bis zur anisotropen räumlichen Anpassungsfähigkeit und verhält sich zuverlässig. Simulationsexperimente zeigen, dass das neue Verfahren offensichtlich eine bessere Leistung als andere herausragende Wavelet- und Contourlet-Entrauschungsschemata aufweist, sowohl im PSNR-Wert als auch im visuellen Erscheinungsbild.;-;-;-;https://link.springer.com/article/10.1007/s11432-013-4988-1 e60b934cabbb926938ff9ac6e884db26;de;;;2.4.;;;Einbetten deduktiver Fähigkeiten in relationale Datenbanksysteme Die Grundidee unserer Arbeit besteht darin, deduktive Fähigkeiten in ein relationales Datenbanksystem einzubeziehen, indem die Operanden der relationalen Algebra vollständig verwendet werden und kein Theorembeweiser verwendet wird. Wir präsentieren ein deduktives Datenbanksystem, bei dem der Benutzer Deduktionsgesetze als logische Formeln formulieren kann, das jedoch auf einem zugrunde liegenden relationalen Datenbanksystem funktioniert, indem es die Datenmanipulationsroutinen eines solchen Systems vollständig ausnutzt. Im Allgemeinen ist es nicht möglich, die Deduktionsgesetze durch Ausdrücke der relationalen Algebra auszudrücken (siehe Lit. 1). In unserem System ist jedem Datenbank-Deduktionsgesetz ein relationaler Algebra-Ausdruck zugeordnet. Das Ergebnis seiner Auswertung (bezogen auf eine zugrundeliegende Datenbank) ist die Menge aller Datenbankeinträge, die durch einmalige Anwendung des jeweiligen Gesetzes aus der Datenbank abgeleitet werden können (Satz 1). Durch sukzessives Anwenden all dieser relationalen Ausdrücke für alle Datenbank-Deduktionsgesetze ist es möglich, die gesamte extensionale Datenbank (d. h. alle aus der Datenbank ableitbaren Tupel) zu erzeugen.;-;-;-;https://link.springer.com/article/10.1007/BF00991656 2b98632f22e12336bfe2716333ff610a;de;;;5.3.;;;Logische Benutzeroberflächenmodellierung für Multimedia Embedded Systems Multimedia-Embedded-Systeme wie Smartphones, Tablets und Smart-TVs nehmen ständig zu. Eine der Haupthürden für die Wiederverwendung von Anwendungen für mehrere eingebettete Multimediasysteme besteht darin, dass Benutzerschnittstellen (UIs) für die eingebetteten Zielsysteme nicht gleich sein können. Obwohl es viele Forschungsaktivitäten zu modellbasierten UI-Entwicklungsumgebungen gegeben hat, konzentrieren sie sich auf das Web von Desktop-basierten Systemen und sind nicht für eingebettete Systeme geeignet. Dieses Papier schlägt eine logische Benutzerschnittstellenmodellierung für Multimedia Embedded Systems (LUMME) vor. LUMME beinhaltet die Konzepte von Referenzcontainern und multimedialen Instanzpräsentationen. Während herkömmliche Ansätze nur sichtbare UI-Komponenten modellieren, integrieren LUMME Events als erstklassige Modellierungsinstanz, die für die Modellierung von UIs für eingebettete Systeme unerlässlich ist. Darüber hinaus verwendet LUMME nicht das in herkömmlichen Ansätzen weit verbreitete Aufgabenmodell, sondern bezieht Ereignisse als Navigatoren ein. Wir haben ein Modellierungswerkzeug für LUMME als Eclipse Rich-Client-Plattform (RCP) mit dem Eclipse Graphical Modeling Framework (GMF) vollständig implementiert. Wir haben auch eine Fallstudie mit einer Galerieanwendung in Android durchgeführt, die auf mehrere eingebettete Systeme mit verschiedenen Auflösungen von HVGA bis XGA ausgerichtet ist. Die Fallstudie zeigt deutlich, wie LUMME die Modellierung von UIs für multimediale eingebettete Systeme prägnant macht und die Wiederverwendung von UIs für mehrere multimediale eingebettete Systeme ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27186-1_1 8ba4c8dd112d61b2042e267bbfe56627;de;;;5.3.;;;Forschung und Praxis des Blended Learning-Modells für College-Englisch Dieser Artikel untersucht den Blended-Learning-Modus von College-Englisch durch empirische Forschung. Dieses Modell unterteilt den Englischunterricht an Hochschulen in drei Phasen: In der ersten Phase können die Schüler selbstständig webbasiertes Selbstlernen durchführen, die zweite Phase dient dem kollaborativen Online-Lernen zwischen den Lernenden, die dritte Phase ist für die Lehrer, um die Klassenlehrer durchzuleiten Klassenzimmer. Führen Sie Präsenzunterricht für Schüler durch und interagieren Sie mit Lehrern und Schülern. Die Qualität des Lernens in jeder Phase wird entsprechend bewertet und überwacht. Die Studie ergab, dass der gemischte Lernmodus für College-Englisch den Widerspruch zwischen der begrenzten Lehrkapazität im Klassenzimmer und den individuellen Lernbedürfnissen der Schüler lösen und die Qualität des Englischunterrichts an Colleges effektiv verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6113-9_25 c8e9df87d2af2efc043cd603cac0dd3a;de;;;5.3.;;;Die Forschung zum Algorithmus zur Depressionserkennung kombiniert akustischen Rhythmus mit spärlicher Gesichtserkennung Aufgrund der Tatsache, dass bei der traditionellen Depressionsdiagnosemethode eine falsch positive Rate existiert, schlägt dieser Artikel einen multimodalen Fusionsalgorithmus vor, der auf Sprachsignal- und Gesichtsbildsequenzen für die Depressionsdiagnose basiert. Spektralsubtraktion eingeführt, um depressives Sprachsignal zu verbessern, und Cepstrum-Methode verwenden, um Tonhöhenfrequenzmerkmale mit großer Variationsrate und Formantenmerkmale mit signifikanten Unterschieden zu extrahieren, die charakteristischen Parameter der Kurzzeitenergie und der Mel-Frequenz-Cepstralkoeffizienten für verschiedene Emotionssprachen werden in beiden Zeiten analysiert Domäne und Frequenzbereich und etablieren ein Modell für Training und Identifizierung. In der Zwischenzeit implementiert dieses Papier den orthogonalen Übereinstimmungsverfolgungsalgorithmus, um eine spärliche lineare Kombination von Gesichtstestproben zu erhalten und mit stimm- und gesichtsemotionsbasierten Proportionen zu kaskadieren. Die experimentellen Ergebnisse zeigen, dass die Erkennungsrate basierend auf dem Depressionserkennungsalgorithmus der Fusion von Sprache und Gesichtsemotionen 81,14 % erreicht hat. Verglichen mit der bisherigen ärztlichen Genauigkeitsrate von 47,3 % kann die Genauigkeit durch die Kombination mit der vorgeschlagenen Methode dieses Artikels eine zusätzliche Verbesserung von 71,54 % bringen. Darüber hinaus kann es einfach und kostengünstig auf die Hardware und Software der vorhandenen Krankenhausinstrumente angewendet werden. Daher ist es eine genaue und effektive Methode zur Diagnose von Depressionen.;-;-;-;https://link.springer.com/article/10.1007/s10586-017-1469-0 89ec6e055053e04b699fa5d241387882;de;;;5.3.;;;Hierarchische Faltungsfunktionen für die langfristige Korrelationsverfolgung Visuelles Tracking ist in der Computer Vision von großer Bedeutung. In diesem Artikel schlagen wir eine Langzeit-Tracking-Methode vor, um mit Erscheinungsbild-Variationen durch Okklusion, Zeitraffer, Außersichtnahme usw. umzugehen. Zuerst extrahieren wir CNNs-Merkmale sowohl aus niedriger als auch aus großer Tiefe eines vortrainierten VGGNet und Schätzen der Zielübersetzung über Korrelationsfilter, die separat an Merkmalen aus drei verschiedenen Schichten trainiert wurden. Dann wird ein auf HOG basierender Skalenkorrelationsfilter angewendet, um Zielpyramiden zu suchen, die um die Zielposition herum für einen optimalen Maßstab beschnitten sind. Im Falle eines Tracking-Fehlers trainieren wir eine SVM, um das Ziel erneut zu erkennen. Darüber hinaus wird das Skalenmodell nur aktualisiert, wenn die Skalenreaktion höher als ein vordefinierter Schwellenwert ist. Experimentelle Ergebnisse zu OTB2013 zeigen, dass unser Algorithmus bei starken Änderungen des Aussehens effektiv und robust ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7305-2_57 eddac81cf7a8e10a27743efd2f6cf2f7;de;;;5.3.;;;Klassifikation von Emotionen aus Bildern unter Verwendung lokalisierter Unterabschnittsinformationen Emotionale Intelligenz hat eine wichtige soziale Bedeutung und die Literatur weist darauf hin, dass Gesichtszüge ein wichtiger Faktor bei der Bestimmung des emotionalen Zustands sind. Es war ein intensives Forschungsgebiet, Systeme zu bauen, die in der Lage sind, Emotionen basierend auf Mimik automatisch zu erkennen. Es wurden verschiedene Ansätze vorgeschlagen, aber es gibt immer noch einen Bereich der Verbesserung der Erkennungsgenauigkeit aufgrund verschiedener Formen von Ausdrücken, die dieselbe Emotion zeigen. Ein weit verbreiteter Ansatz im Bereich der Objekterkennung ist das Histogramm von orientierten Gradienten. In dieser Arbeit werden umfangreiche Experimente unter Verwendung verschiedener Unterabschnittsgrößen von Bildern des Histogramms orientierter Gradienten und auch zusammen mit Local Binary Pattern durchgeführt, um die Merkmale zur Klassifizierung von Emotionen aus Gesichtsbildern zu extrahieren. Eine quantitative Analyse des Ansatzes im Vergleich zu anderen wird durchgeführt, um seine Anwendbarkeit und Wirksamkeit zu zeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-5427-3_57 27b71605c52fbe59dc5cc08b6394d2bc;de;;;2.4.;;;Das leistungsstarke Bildverschlüsselungsverfahren basierend auf HAD-L Mit der enormen Entwicklung des Kommunikationsmediums nimmt die Nutzung digitaler Daten rapide zu. Die vielen Entwicklungen haben zugenommen und daneben werden auch illegale Störungen für den Missbrauch digitaler Daten entwickelt. Für diesen Fall wurde speziell für digitale Bilder das HAD-L (Harmonic Level, Systematic Block Level und Additional Data Level) des Verschlüsselungssystems entwickelt. Die erste Stufe mit benutzerdefinierter Verschlüsselung mit festgelegten harmonischen Verschlüsselungseigenschaften. Die zweite Ebene des Verschlüsselungsprozesses mit dem Vektorschema der höheren Blockebene. Dann werden diese zusätzlichen Daten auch mit dem Verschlüsselungsschema kombiniert, um die dritte Stufe des Verschlüsselungsprozesses bereitzustellen. Der Gesamteffekt des Schemas liefert ein robustes Verschlüsselungsschema zwischen den Kommunikationskanälen. Die experimentellen Ergebnisse zeigen den guten Zufallseffekt des Schemas und liefern auch die pseudozufälligen Eigenschaften für die Schlüsselauswertungen. Darüber hinaus zeigen Ergebnisse aus der Sicherheitsanalyse und Kapazitätsanalyse viel mehr Leistung bei den Übertragungskanälen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-51859-2_14 7315e307f334412a6ff8b83c32610b50;de;;;2.4.;;;Ein Multiskalen-Aufmerksamkeitsnetzwerk für die Erkennung von Bildfehlern bei der Ausrüstung von Umspannwerken Mit der kontinuierlichen Entwicklung der Mustererkennungstechnologie, insbesondere der Entwicklung von Convolutional Neural Networks (CNN), werden die Anwendungen der Fehlerüberwachung in Umspannwerken unter industriellen Bedingungen weit verbreitet. Aktuelle auf CNN basierende bildanalytische Verfahren erreichten jedoch aufgrund unterschiedlicher Skalen, nicht starrer und komplexer Fehlerhintergrund eine geringe Genauigkeit und eine geringe Robustheit. Um diese Probleme zu lösen, wird in dieser Arbeit ein Multiskalen-Aufmerksamkeitsnetzwerk (MAN) zur Erkennung von Bildfehlern in Umspannwerken vorgeschlagen. In unserem Ansatz entwerfen wir zunächst ein Aufmerksamkeitsmodul, um die globalen und lokalen Merkmale über Tiefen- und räumliche Positionsaktivierungsebenen zu extrahieren, und dann werden drei Spalten-Aufmerksamkeitsnetzwerke entwickelt, um mehrskalige Merkmale von Defekten zu extrahieren. Schließlich werden die Merkmalskarten mit mehreren Maßstäben unter Verwendung eines vollständig verbundenen neuronalen Netzes fusioniert. Die experimentellen Ergebnisse zeigen, dass unser Ansatz zufriedenstellende Ergebnisse erzielt und die modernsten Methoden in unserem Defektdatensatz überwiegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9746-6_17 a2a239be612757d0f8db95185024e90b;de;;;2.4.;;;Robuster Algorithmus zur Rekonstruktion der Kovarianzmatrix aus Interferenz plus Rauschen für GNSS-Empfänger gegen große Verstärkungs- und Phasenfehler Ein neuartiger robuster Interferenz-plus-Rausch-Kovarianz(INC)-Matrix-Rekonstruktionsalgorithmus wird für Empfänger von globalen Navigationssatellitensystemen (GNSS) vorgeschlagen. Anstatt die angenommenen Interferenzsteuervektoren (SVs) zu verwenden, um die INC-Matrix zu rekonstruieren, werden die auf den Interferenzunterraum projizierten SVs verwendet, um große SV-Fehlanpassungen, die durch Verstärkungs- und Phasenfehler verursacht werden, abzuschwächen. Simulationsergebnisse zeigen, dass der vorgeschlagene Algorithmus im Ausgangs-Träger-Rausch-Verhältnis (C/N .) besser abschneidet als die anderen INC-Matrix-Rekonstruktionsalgorithmen;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8411-4_12 91bb68eb064d6337b699de84721096dc;de;;;2.4.;;;Altersbedingte Makuladegeneration beeinflusst die weiße Substanz der optischen Strahlung, die an Stellen mit Netzhautschäden projiziert Wir untersuchten den Einfluss der altersbedingten Makuladegeneration (AMD) auf die Sehschärfe und die weiße Substanz. Wir kombinierten einen adaptiven kortikalen Atlas und diffusionsgewichtete Magnetresonanztomographie (dMRT) und Traktographie, um Projektionen der optischen Strahlung (OR) auf verschiedene Netzhautexzentrizitäten im menschlichen primären visuellen Kortex zu trennen. Wir nutzten die bekannte anatomische Organisation des OP und klinisch relevante Daten, um den OP in drei Hauptkomponenten zu unterteilen, die in die Fovea, die mittlere und die weitere Peripherie projizieren. Wir haben die Gewebeeigenschaften der weißen Substanz – fraktionierte Anisotropie, Linearität, Planarität, Sphärizität – entlang der oben genannten drei Komponenten der optischen Strahlung gemessen, um AMD-Patienten und Kontrollpersonen zu vergleichen. Wir fanden Unterschiede in den Eigenschaften der weißen Substanz, die spezifisch für Faszikel der weißen Substanz im OR sind, die zu den Stellen des primären visuellen Kortex projizieren, die der Stelle der Netzhautschädigung (Fovea) entsprechen. Darüber hinaus zeigen wir, dass die Größe der Eigenschaften der weißen Substanz bei AMD-Patienten mit der Sehschärfe korreliert. Zusammenfassend zeigen wir einen spezifischen Zusammenhang zwischen Sehverlust, anatomischer Lage der Netzhautschädigung und Schädigung der weißen Substanz bei AMD-Patienten. Wichtig ist, dass wir zeigen, dass diese Veränderungen so tiefgreifend sind, dass sie mithilfe von Magnetresonanztomographiedaten mit klinischer Auflösung nachgewiesen werden können. Die konservierte Kartierung zwischen der Schädigung der Netzhaut und der weißen Substanz legt nahe, dass die Neurodegeneration der Netzhaut eine der Hauptursachen für die Degeneration der weißen Substanz bei AMD-Patienten sein könnte. Die Ergebnisse unterstreichen die Auswirkungen von Augenerkrankungen auf das Hirngewebe, ein Prozess, der im Verlauf der Behandlung zu einem wichtigen Ziel für die Überwachung werden kann.;-;-;-;https://link.springer.com/article/10.1007/s00429-018-1702-5 ea81c1634fd16442158e7396c0799abc;de;;;2.4.;;;Datenerfassung, Speicherung und Nachbearbeitung Post In diesem Kapitel geben wir einen Überblick über die verschiedenen Komponenten, die in einem durchgängigen drahtlosen Sensornetzwerk-Überwachungssystem benötigt werden. Anhand von zwei Fallstudien mit stark unterschiedlichem Datendurchsatz zeigen wir ausgewählte Beispiele von Komponenten, die häufig in Datenerfassungsnetzwerken vorkommen, und verwenden tatsächliche Implementierungen als motivierende Beispiele. Das Bodenüberwachungsprojekt Life Under Your Feet konzentriert sich insbesondere auf extreme Auslastung und Kommunikation mit niedriger Datenrate, während das Überwachungsnetzwerk für Rechenzentren RACNet auf hohen Durchsatz und effiziente Kanalnutzung setzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40009-4_15 3860de75c83a61a0a0508e54b111c8d7;de;;;2.4.;;;3D-Gesichtserkennung mit Kernel-basiertem PCA-Ansatz Gesichtserkennung wird häufig für biometrische Sicherheitszwecke bei der Videoüberwachung und Benutzerauthentifizierung verwendet. Die Natur des Gesichts weist aufgrund von Erscheinungsverformungen und Gesichtsvariationen, die durch Gesichtsausdrücke präsentiert werden, nichtlineare Formen auf. Das zuverlässige Erkennen von Gesichtern über Veränderungen des Gesichtsausdrucks hinweg hat sich als schwierigeres Problem erwiesen, was in vielen Gesichtserkennungsexperimenten zu niedrigen Erkennungsraten führte. Dies liegt hauptsächlich an den zehn Freiheitsgraden in einem nichtlinearen Raum. Vor kurzem wurde die nichtlineare PCA wiederbelebt, da sie einen signifikanten Vorteil für die Datendarstellung im hochdimensionalen Raum darstellt. In diesem Artikel haben wir die Verwendung des nichtlinearen Kernel-Ansatzes bei der 3D-Gesichtserkennung experimentiert und die Ergebnisse der Erkennungsraten haben gezeigt, dass die Kernel-Methode die Standard-PCA übertraf.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2622-6_8 7bc21e40a4697596af284fea1b513666;de;;;2.4.;;;Gotcha-I: Ein Datensatz für menschliche Videos mit mehreren Ansichten Das wachsende Sicherheitsbedürfnis in großen offenen Räumen führte zu der Notwendigkeit, Videoaufnahmen von Menschen in unterschiedlichen Kontexten und Beleuchtungen und mit mehreren biometrischen Merkmalen wie Kopfhaltung, Körpergang, Augen, Nase, Mund und mehr zu verwenden. All diese Merkmale sind nützlich für eine multibiometrische Identifizierung oder eine Personen-Re-Identifikation im Kontext einer Videoüberwachung. Am Körper getragene Kameras (BWCs) werden von der Polizei verschiedener Länder auf der ganzen Welt verwendet und ihr Einsatz nimmt erheblich zu. Daraus ergibt sich die Notwendigkeit, neue Erkennungsmethoden zu entwickeln, die multibiometrische Merkmale bei der Personen-Re-Identifikation berücksichtigen. Ziel dieser Arbeit ist es, einen neuen Videodatensatz namens Gotcha-I vorzustellen. Dieser Datensatz wurde mit mehr mobilen Kameras gewonnen, um die Daten von BWCs einzuhalten. Der Datensatz umfasst Videos von 62 Probanden in Innen- und Außenumgebungen, um sowohl Sicherheits- als auch Überwachungsprobleme anzugehen. Während dieser Videos können sich die Motive in Videos unterschiedlich verhalten, z. B. frei, Weg, oben, Kamera meiden. Der Datensatz besteht aus 493 Videos, darunter ein Satz von 180;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4825-3_17 2ba27f65a51edb0f1d9006dea6692c20;de;;;5.3.;;;Deep Convolutional BiLSTM Fusionsnetzwerk zur Gesichtsausdruckerkennung Deep-Learning-Algorithmen haben signifikante Leistungsverbesserungen für die Gesichtsausdruckserkennung (FER) gezeigt. Die meisten auf Deep Learning basierenden Methoden konzentrieren sich jedoch mehr auf räumliche Erscheinungsmerkmale für die Klassifizierung und verwerfen viele nützliche zeitliche Informationen. In dieser Arbeit präsentieren wir ein neuartiges Framework, das gemeinsam räumliche Merkmale und zeitliche Dynamiken für FER lernt. Aus der Bildsequenz eines Ausdrucks werden räumliche Merkmale aus jedem Frame unter Verwendung eines tiefen Netzwerks extrahiert, während die zeitliche Dynamik durch ein Faltungsnetzwerk modelliert wird, das ein Paar aufeinanderfolgender Frames als Eingabe verwendet. Schließlich sammelt das Framework Hinweise aus fusionierten Merkmalen eines BiLSTM-Netzwerks. Darüber hinaus ist das Framework durchgängig erlernbar, und somit können zeitliche Informationen an räumliche Gegebenheiten angepasst werden. Experimentelle Ergebnisse zu drei Benchmark-Datenbanken, CK+, Oulu-CASIA und MMI, zeigen, dass das vorgeschlagene Rahmenwerk modernste Methoden übertrifft.;-;-;-;https://link.springer.com/article/10.1007/s00371-019-01636-3 fb5f0dffcc2060350795410067a48abc;de;;;5.3.;;;Restaufmerksamkeit SiameseRPN für visuelles Tracking Die visuelle Verfolgung erfordert die genaue Objektlokalisierung bei gegebenem Objektzustand des ersten Frames. Die existierenden Methoden haben verschiedene Wege vorgeschlagen, um die herausfordernden Probleme zu lösen, doch nur wenige von ihnen berücksichtigen die Beziehung zwischen flachen Merkmalen und tiefen semantischen Merkmalen. Basierend auf einer umfassenden Analyse schlagen wir zunächst eine visuelle Nachverfolgungsmethode SiameseRPN mit Restaufmerksamkeit für eine genaue Objektzustandsschätzung vor, die den Korrelationsfilter in ein siamesisches Netzwerk-Framework einführt. Eine neuartige Verlustfunktion wird vorgestellt, um die Unterscheidungsfähigkeit zu verbessern. Unser Ansatz leitet sich von drei verschiedenen Verlusttermen ab, mit denen ein Modell in wenigen Iterationen trainiert werden kann. Zweitens präsentieren wir einen Kanal-Aufmerksamkeitsmechanismus zur Verbesserung der Tracking-Leistung, der offline trainiert wird, um die allgemeinen Merkmale im Tracking zu erfassen. Drittens wird das vorgeschlagene Tracking-Modell durchgängig trainiert und nutzt sowohl die Low-Level-Repräsentation für Korrelationsfilter als auch die High-Level-Semantikfunktionen für die Deep-Object-Repräsentation durch die Verwendung einer Multitask-Lernstrategie, die die Beziehung analysieren kann aus beiden Ebenen. Unser Ansatz profitiert von zwei sich ergänzenden Effekten. Schließlich belegen umfangreiche Evaluierungs- und Ablationsstudien die Wirksamkeit des vorgeschlagenen Tracking-Ansatzes. Unser Tracker erreicht State-of-the-Art-Performance auf fünf anspruchsvollen Benchmarks, was große Potenziale in Bezug auf Genauigkeit und Geschwindigkeit beweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-60639-8_34 732d0ada8f2e39831d7ce836b80a8dc1;de;;;5.3.;;;Szenentexterkennung mit vollständig gefalteten neuronalen Netzen Die Texterkennung im Szenenbild ist aufgrund ihres breiten Anwendungsspektrums und ihrer Herausforderungen zu einem heißen Thema in der Computer Vision- und künstlichen Intelligenzforschung geworden. Die meisten modernen Methoden zur Texterkennung basierend auf Deep Learning basieren auf der Text-Bounding-Box-Regression. Diese Methoden können den Fall nicht gut handhaben, wenn der Szenentext gekrümmt ist. In diesem Beitrag schlagen wir einen neuen Rahmen für die beliebig orientierte Texterkennung in natürlichen Bildern vor, der auf vollständig gefalteten neuronalen Netzen basiert. Die Hauptidee besteht darin, eine Textinstanz durch zwei Formen darzustellen: Textzentrumsblock und Wortstrichbereich. Diese beiden Elemente werden jeweils von zwei vollständig gefalteten Netzwerken erfasst. Endgültige Erkennungen werden durch den Wortbereich-Umgebungs-Boxalgorithmus erzeugt. Das vorgeschlagene Verfahren muss den vorhandenen Begrenzungsrahmen der Textinstanz nicht regressieren, hauptsächlich weil der vorhergesagte Textblockbereich selbst implizit Positions- und Orientierungsinformationen enthält. Außerdem kann unsere Methode Text in verschiedenen Sprachen, beliebigen Ausrichtungen, geschwungenen Formen und verschiedenen Schriftarten gut verarbeiten. Um die Wirksamkeit der vorgeschlagenen Methode zu validieren, führen wir Experimente an drei öffentlichen Datensätzen durch: MSRA-TD500, USTB-SV1K und ICDAR2013 und vergleichen sie mit anderen Methoden des Standes der Technik. Die Versuchsergebnisse zeigen, dass das vorgeschlagene Verfahren wettbewerbsfähige Ergebnisse erzielt. Basierend auf VGG-16 erreicht unsere Methode ein F-Maß von 78,84 % auf MSRA-TD500, 59,34 % auf USTB-SV1K und 88,21 % auf ICDAR2013.;-;-;-;https://link.springer.com/article/10.1007/s11042-019-7177-4 081eb066e00acf12b4d3be0e90bcdde6;de;;;2.4.;;;Ein dynamisches Entscheidungsmodell für Portfolioinvestitionen und Vermögensverwaltung Dieses Papier befasst sich mit einem dynamischen Portfolioinvestitionsproblem. Es wird diskutiert, wie wir Kandidaten-Assets dynamisch auswählen, den möglichen maximalen Umsatz erzielen und das Risiko auf ein Minimum reduzieren können. Das Papier verallgemeinert die Portfolioauswahltheorie von Markowitz und die Sharpesche Regel für Anlageentscheidungen. Es wird eine analytische Lösung präsentiert, um zu zeigen, wie ein institutioneller oder individueller Anleger die Portfolioauswahltheorie von Markowitz, die generalisierte Sharpe-Regel und den Value-at-Risk (VaR) kombinieren kann, um geeignete Vermögenswerte und optimale Positionsgrößen für Investitionen (Des-Investment) zu finden. Das Ergebnis zeigt, dass die verallgemeinerte Markowitz-Portfolioauswahltheorie und die verallgemeinerte Sharpe-Regel die Entscheidungsfindung für Investitionen verbessern.;-;-;-;https://link.springer.com/article/10.1631/jzus.2005.AS0163 a370c07a36508f4b33bddfa585140636;de;;;2.4.;;;Elektrische Verbraucher eines Smart House und Verbrauchsanalysen Dieser Beitrag betrachtet die Modellierung des Energieverbrauchs eines Hauses mit dem Ziel der Dimensionierung und Optimierung erneuerbarer Energiequellen und der Energieeinsparung. Für den Heizbedarf wird ein Haus mit 4 Zimmern modelliert und in Matlab/Simulink simuliert, um den Energiebedarf vorherzusagen. Die thermischen Eigenschaften und Modellparameter werden für die Architekturstudien und das Design mit Hilfe von Architektensoftware abgeleitet. Wir gehen davon aus, dass in diesem Haus von 100 m² 4 bis 5 Personen wohnen;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1405-6_89 b019960403889f51373b2f5e8147aad7;de;;;2.4.;;;Bistatische ISAR-Radarbildgebung mit fehlenden Daten basierend auf Compressed Sensing Wenn ein bistatisches Radarsystem mit inverser synthetischer Apertur (ISAR) keine vollständigen Radarquerschnittsdatensätze (RCS) sammelt, werden bistatische ISAR-Bilder normalerweise unter Verwendung des herkömmlichen Fourier-Transformation (FT)-basierten Bildgebungsalgorithmus verfälscht. Um dieses Problem zu lösen, schlägt dieses Papier eine neue bistatische ISAR-Bildrekonstruktionsmethode vor, die drei Schritte umfasst: Konstruktion der spärlichen Wörterbücher gemäß den Entfernungs- und Kreuzauflösungseinheiten auf der Bildgebungsdomäne und Echos können als die Interaktion zwischen den zweidimensionalen Verteilung von Punktstreuern und dem spärlichen Wörterbuch, der Aufbau der Beobachtungsmatrix und niedrigdimensionaler Beobachtungsproben werden erhalten und die Rekonstruktion der Streuverteilung des Ziels unter Verwendung eines nichtlinearen Rekonstruktionsalgorithmus. Um die Rekonstruktionsfähigkeit des vorgeschlagenen Verfahrens zu validieren, werden bistatische Streufelddaten unter Verwendung des Punktstreuermodells für die bistatische ISAR-Bildrekonstruktion verwendet. Die Ergebnisse zeigen, dass das vorgeschlagene Bildgebungsverfahren basierend auf der räumlichen Rekonstruktion des bistatischen ISAR-Signalmodells in Kombination mit der Kompressionssensorik(CS)-Theorie im Vergleich zu herkömmlichen FT-basierten Bildgebungsverfahren eine hohe Rekonstruktionsgenauigkeit für unvollständige bistatische RCS-Daten liefern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9409-6_138 de8440073a969e7305e25ae7342186f5;de;;;2.4.;;;Algorithmen zur Steuerung des Strombedarfs mit Hilfe eines domotischen Systems mit Klassifizierung elektrischer Ladungen Das Strombedarfsmanagement ist der Prozess der angemessenen Nutzung von Energieressourcen. Dieser Prozess wird mit dem Ziel durchgeführt, eine Reduzierung des Stromverbrauchs zu erreichen. Die Algorithmen zur Verwaltung des Strombedarfs werden in einem Domotiksystem implementiert, das die Fähigkeit besitzt, elektrische Lasten mithilfe künstlicher neuronaler Netze zu identifizieren. Es wurde eine Analyse der wichtigsten physikalischen Größen im Haus durchgeführt, die in direktem Zusammenhang mit dem Energieverbrauch stehen, und es wurden Strategien vorgeschlagen, wie diese korrekt gesteuert werden können, um Energieeinsparungen zu erzielen, ohne das Komfortniveau zu beeinträchtigen das Zuhause. Als Ergebnis wurde erreicht, dass im Vergleich zu einem herkömmlichen Haus eine Energieeinsparung von 63 % erzielt werden kann, ohne den Komfort des Benutzers in hohem Maße zu beeinträchtigen und einen hohen Automatisierungsgrad im Haus zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-42520-3_14 cad566863b4825ab465ece142098ebf2;de;;;2.4.;;;Fokussiertes Crawler-Framework basierend auf einer offenen Suchmaschine Wenn Benutzer Webseiten zu bestimmten Themen analysieren müssen, verwenden sie im Allgemeinen Crawler, um Webseiten zu erfassen und dann die Ergebnisse zu analysieren, um diese zu extrahieren, die den Interessen der Benutzer entsprechen. In der Phase der Datenerfassung haben Benutzer jedoch in der Regel einen individuellen Bedarf an der Erfassung von Daten. Gewöhnliche Crawler-Systeme sind sehr ressourcenbeschränkt, sodass sie nicht das gesamte Internet durchqueren können. Inzwischen können Suchmaschinen diese Nachfrage befriedigen, sind jedoch auf viele manuelle Interaktionen angewiesen. Die traditionelle Lösung besteht darin, die Crawler in einem begrenzten Bereich einzuschränken, aber dies führt zu dem Problem einer niedrigen Rückrufrate sowie Ineffizienz. Um die oben genannten Probleme zu lösen, untersucht dieser Artikel das Framework für fokussierte Crawler, das auf einer offenen Suchmaschine basiert. Es nutzt die Funktionen der offenen Suchmaschine zum Sammeln und Abrufen von Informationen und kann das Themenmodell automatisch/halbautomatisch generieren, um die Suchabsichten der Benutzer zu interpretieren und zu vervollständigen, wobei zunächst nur wenige Seed-Keywords angegeben werden müssen. Dann verwendet es offene Suchmaschinenschnittstellen, um themenspezifische Webseiten iterativ zu crawlen. Im Vergleich zu den herkömmlichen Methoden verbessert der in diesem Artikel vorgeschlagene fokussierte Crawler auf Basis einer offenen Suchmaschine die Rückrufrate und die Effizienz unter der Prämisse, die Genauigkeit sicherzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00012-7_6 dcb7e8a8ed412e9e61d0afa074dd93a0;de;;;2.4.;;;Studium, Messtechnik und Überwachung der Energieerzeugung einer Photovoltaikanlage Zur Implementierung physikalischer und meteorologischer Daten von Photovoltaik-Technologien und zur Homogenisierung der Daten zwischen allen von Sensoren durchgeführten Messungen und den von der Simulationssoftware berechneten Daten Unsere Arbeit gliedert sich in drei Teile, der erste widmet sich der Berechnung der Sonnenstrahlung am untersuchten Standort durch MATLAB-Simulation unter Verwendung eines mathematisch-theoretischen Modells. Im zweiten Teil simulieren wir die Stromproduktion einer monokristallinen Photovoltaikanlage mit Netzanschluss mitten in Marokko, insbesondere in der Provinz Khouribga, mit einer PVSYST Software. Zur Untersuchung der Produktivität dieser Art von PV-Modulen. Der dritte Teil beleuchtet die zentrale Überwachung einer Station für monokristalline Siliziumtechnologie, die im zweiten Teil durch den Einsatz eines Android-Betriebssystemterminals verwendet wird. Die Messungen physikalischer und meteorologischer Größen können mit verschiedenen Sensoren durchgeführt werden. Die Datenerfassung erfolgt über eine Arduino-Karte auf Basis eines Mikrocontrollers. Diese Karte ist mit einer Bluetooth-Antenne ausgestattet, die es ihr ermöglicht, Daten unterschiedlicher Maße an das Terminal zu übertragen. Mit einem 3G-Netzwerk oder einem lokalen WIFI und dem Netz werden die gesammelten Daten an ein zentralisiertes Serversystem gesendet, das Informationen verarbeitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36475-5_24 efd6fd8a497a870b1b5a812d50f5f101;de;;;2.4.;;;Forschung zur Verkehrsdatenfusion basierend auf Multi Detector Um den städtischen Verkehrsstau zu mindern, ist es notwendig, Verkehrsflussparameter des Straßennetzes zu erhalten, um die Verkehrsbedingungen abzuschätzen. Einzeldetektordaten reichen möglicherweise nicht aus, um umfassende, effektive, genaue und qualitativ hochwertige Verkehrsflussdaten zu erhalten. Die Datenfusionsmethoden neuronaler Netze und Regressionsanalyse werden eingesetzt, um Datenquellen zu erweitern und die Datenqualität zu verbessern. Die Detektordaten aus mehreren Quellen können das Verkehrsmanagement grundlegend unterstützen. Eine empirische Analyse wird unter Verwendung der Erfassungstechnologie für Verkehrsflussparameter der Stadtautobahn in Peking durchgeführt. Die Ergebnisse zeigen, dass die vorgeschlagene Methode der Datenfusion machbar ist und zuverlässige Datenquellen liefern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1648-7_39 491be5c0b7393875984d0dc638733a88;de;;;2.4.;;;Rekonstruktion des Zellstammbaums aus Zeitreihen von 3D-Bildern der Embryogenese von Zebrafischen Der Artikel präsentiert numerische Algorithmen, Nachbearbeitungs- und Validierungsschritte für eine automatisierte Zellverfolgung und Zellstammbaumrekonstruktion aus groß angelegten 3D+Zeit-Zwei-Photonen-Laserscanning-Mikroskopiebildern von frühen Stadien der Embryoentwicklung von Zebrafischen (Danio rerio). Die Zelltrajektorien werden als zentrierte Pfade innerhalb segmentierter räumlich-zeitlicher Baumstrukturen extrahiert, die Zellbewegungen und -teilungen darstellen. Solche Pfade werden gefunden, indem eine geeignet entworfene und berechnete eingeschränkte Distanzfunktion verwendet wird und indem ein Potentialfeld in steilster Abstiegsrichtung zurückverfolgt wird, basierend auf dieser Distanzfunktionskombination. Da die Berechnungen mit Big Data durchgeführt werden, ist eine Parallelisierung erforderlich, um die Verarbeitung zu beschleunigen. Durch sorgfältige Auswahl und Abstimmung der Algorithmusparameter können wir die Berechnungen an die Mikroskopbilder von Wirbelarten anpassen. Dann können wir die Ergebnisse mit Ground-Truth-Daten vergleichen, die durch manuelle Überprüfung von Zellverbindungen durch Biologen gewonnen wurden, und die Genauigkeit unseres Algorithmus messen. Mit einem automatischen Validierungsprozess und einem Visualisierungstool, das Ground-Truth-Daten und unser Ergebnis gleichzeitig mit den ursprünglichen 3D-Daten anzeigen kann, können wir die Richtigkeit des Trackings leicht überprüfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-54427-4_39 dab51549e8646c3963933088be50a5b6;de;;;2.4.;;;Mehrfachaktions-Bewegungssteuerungsschema für assistierende Roboter basierend auf binärer motorischer Bildgebung EEG In diesem Beitrag wird ein gewichtetes Abstimmungssystem in Kombination mit grundlegenden Signalverarbeitungsmethoden verwendet, um Szenarien der motorischen Bildgebung (MI) mit mehreren Kategorien (Fuß, linke Hand, rechte Hand, Zunge) zu klassifizieren, um die Klassifikationsgenauigkeit des MI-Elektroenzephalogramms (EEG) zu verbessern ) signalisieren. Inzwischen wird ein praktikables binäres Codierungs-Framework vorgeschlagen, um den KUKA-Roboterarm zum Greifen zu steuern, um die Online-Leistung von Anwendungen auf Gehirn-Computer-Schnittstellen (BCIs) zu verbessern. Zunächst wird der MI mit zwei Bewegungen mit der hohen Klassifikationsgenauigkeit aus vier Aktionstypen ausgewählt, dh Fuß als 0, linke Hand als 1 und ihre Kombination, die die vier Bewegungsrichtungen des Roboterarms darstellt (z. B. 00- vorne, 01-hinten, 10-links, 11-rechts) wird durch Zwei-Bit-Binärcodierung erzeugt. Als nächstes wird die Bewegung des Roboterarms in jede Richtung durch zwei aufeinanderfolgende Bewegungen von MI erreicht. Schließlich erreicht die Genauigkeit unseres integrierten Klassifikators 74,6% in Daten mit vier Bewegungen und 92,6% in Daten mit zwei Bewegungen. Im Vergleich zur 4-Bewegungs-MI zur Steuerung des Roboterarms reduziert das binäre Codierungsverfahren die Zeit um 6,8% und erhöht die Genauigkeit um mehr als das Doppelte.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8411-4_101 425a063d12c39b1a35b84b91a2f0c3d4;de;;;5.3.;;;Bewertung und Optimierung von 4G-Videodiensten zur Blockierung der Wahrnehmung basierend auf Big Data Dieses Papier schlägt ein Bewertungsmodell für die Wahrnehmung von 4G-Mobilvideodiensten vor, das auf der Big-Data-Analyse des Netzwerkbetriebs und der Benutzerdienste basiert. Die Key Quality Indicators (KQIs) werden nach Korrelationskoeffizientenmethode, Intervall-Score-Methode und Intervallinkrement-Methode ausgewählt und umfassend analysiert. Konzentrieren Sie sich auf die Anwendung der Optimierung der Videodienst-Störungsrate in 4G-Mobilfunknetzen, um schnell Zellen mit schlechter Qualität von Videodiensten und Dienstinhaltsserver in Mobilfunknetzen zu identifizieren Dies verbessert die Benutzererfahrung erheblich und verbessert die Optimierungseffizienz.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-7123-3_56 a8a9a34ec799b1bae40f9b0801129272;de;;;5.3.;;;Forschung und Anwendung zu Kommunikationsprotokollen zum Laden von Elektrofahrzeugen Kompatibilitätserkennung Elektrofahrzeuge werden aufgrund der Vorteile des geringen Energieverbrauchs, der hohen Energieeffizienz und der Null-Emission nach und nach von den Menschen bevorzugt. Ob Ladeeinrichtungen Elektrofahrzeuge richtig aufladen können, ist einer der Faktoren, die das Reisen von Elektrofahrzeugen beeinflussen. Kommunikationskompatibilitätsprobleme von DC-Ladegeräten führen zu einem Ladefehler, der die Benutzererfahrung beeinträchtigt. In diesem Papier wird die Kommunikationsprotokollkompatibilitätserkennungsvorrichtung des Elektrofahrzeugladegeräts vorgeschlagen und entworfen. Wenn bei den in Betrieb befindlichen Produkten ein Kommunikationskompatibilitätsproblem vorliegt, kann der Ladevorgang direkt erkannt werden, um das Problem zu identifizieren. Gegenüber der bisherigen unabhängigen Prüfung von Ladegeräten und Fahrzeugen ist es komfortabler und schneller zu handhaben und für den Betrieb und die Wartung vor Ort geeignet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2862-0_28 47be7bc35c5bf21d70f3ee500a238cb3;de;;;5.3.;;;Anwendung der Multi-Target-Tracking-Technologie für Verpackungskartons Produktinformationen werden in der Regel während des Verpackungsprozesses in Form von Grafiken, Bildern oder Text auf die Verpackung von Produkten gedruckt. Die auf den Verpackungskartons aufgedruckten Informationen sind jedoch schwer zu ändern und können dem Verbraucher nicht mehrere Arten der Datenpräsentation bieten. Mit der Entwicklung der Augmented-Reality-Technologie haben wir eine neue Lösung für dieses Problem. Basierend auf der Analyse der Augmented-Reality-Technologie und der Eigenschaften von Verpackungskartons wenden wir eine Technik an, die mehrere Zielgesichter gleichzeitig identifizieren und verfolgen kann. So kann die auf der Multi-Target-Tracking-Technologie basierende Augmented Reality auf den Ausdruck von auf der Verpackung gedruckten Produktinformationen angewendet werden. Der neue Ansatz kann verwendet werden, um sechs Zielflächen in Echtzeit zu identifizieren und zu verfolgen, um die Koordinaten und den Drehwinkel der Verpackungsschachtel zu bestimmen und dann die räumliche Beziehung zwischen virtuellen Informationen und realen Verpackungsschachteln zu berechnen. Der in diesem Dokument vorgeschlagene Ansatz kann mehrere Arten der Präsentation von Informationen bereitstellen, die letztendlich die Benutzererfahrung verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3663-8_50 d8d4ea873db3f39a391d2b3a9b8ad855;de;;;2.4.;;;Online-Fehlerdiagnose eines Hochspannungs-Vakuum-Leistungsschalters basierend auf einem tiefen Faltungs-Long-Kurzzeit-Speichernetzwerk Die Information über die mechanischen Gegebenheiten ist in den Schwingungssignalen enthalten, die von der Aktorsteuerung des Hochspannungs-Vakuum-Leistungsschalters erzeugt werden. Die Analyse der Schwingungssignale macht die nichtinvasive Detektion zuverlässig und effektiv. Die traditionellen Fehlererkennungsmethoden sind schwierig, beeindruckende Ergebnisse zu erzielen und die Überwachung in Echtzeit zu implementieren. Dieses Papier schlägt ein faltungssequentielles tiefes Netzwerk-basiertes Fehlererkennungs- und Diagnoseverfahren vor. Das neuronale Faltungsnetzwerk ist dazu ausgelegt, die Merkmale der Fehlerbedingungen zu extrahieren. Um den verschwindenden Gradienten bei der dynamischen Modellierung zu vermeiden, wird ein Verfahren mit langem Kurzzeitgedächtnis verwendet, um die Merkmale zu verarbeiten. Die Versuche an einem Hochspannungs-Vakuum-Leistungsschalter zeigen, dass das vorgeschlagene Verfahren mit der weit verbreiteten Support-Vektor-Maschine konkurrenzfähig ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4929-2_10 d08d76941d7917effce0b03b14b8a6e2;de;;;2.4.;;;Die Studie zum Ermüdungstest eines Fahrerhauses mit Federung basierend auf einem 4-Kanal-Straßensimulationsgerät In diesem Kapitel wird das Ermüdungstestverfahren basierend auf einem 4-Kanal-Straßensimulationsstand untersucht, der das Ermüdungsverhalten der Lkw-Kabine mit Fahrzeugrahmen und Federungssystem untersucht. Die Bewegung der Kabine wird analysiert. Die innere Kraft von Erreger und Vorrichtung wird durch Rahmendesign und Vorrichtungsdesign reduziert, und ADMAS wird verwendet, um die Methode zu validieren. Dann gilt das Beschleunigungssignal als Zielsignal, das Lastkollektiv wird im Prüfstand durch physikalische Iteration nachgebildet. Schließlich ist die erhaltene Schwäche des Fahrerhauses ähnlich den Ergebnissen des Testgeländetests.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-3527-2_45 2ac27daebc9b0d9b1581a57568690ccc;de;;;2.4.;;;Die Berücksichtigung der internationalen BDS-Standardisierung in der Zivilluftfahrtindustrie Das Satellitennavigationssystem (BDS) von BeiDou ist das Herzstück von Chinas zukünftigem CNS/ATM-System für die Zivilluftfahrt. Um die Anwendung und innovative Entwicklung von BDS in der internationalen Zivilluftfahrt zu beschleunigen, ist es notwendig, ein internationales Standardsystem für die BDS-Zivilluftfahrtindustrie zu etablieren. Eine Rahmenempfehlung der internationalen Industriestandards für die Zivilluftfahrt des BDS wird gemäß den bestehenden und geplanten internationalen Zivilluftfahrtstandards des GNSS vorgeschlagen. In dieser Phase ist es dringend erforderlich, den Industriestandard BDS-Kernsystem, einschließlich des Industriestandards für luftgestützte Ausrüstung des Kernsystems, voranzutreiben, wobei der Schwerpunkt auf den Entwicklungsverfahren und dem technischen Inhalt des Industriestandards RTCA DO-368 GLONASS/GPS für luftgestützte Ausrüstung liegt ein Verweis auf die Entwicklung von Mindestbetriebsleistungsstandards (MOPS) für Bordgeräte, die mit BDS kompatibel sind. Dieses Papier wird auch einige Überlegungen zur Förderung von Industriestandards für luftgestützte Zweifrequenz-Multikonstellationsgeräte (DFMC) anstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-3146-7_61 2b2150a6b1411800acf31b5e9f326589;de;;;2.4.;;;Eine objektive Bewertungsmethode für die Frequenzselektivität des menschlichen Gehörs Die Frequenzselektivität (FS) ist ein wichtiger Aspekt der Hörfunktion und wird typischerweise durch eine Abstimmkurvenfunktion beschrieben. Scharf abgestimmte Kurven stellen eine höhere Genauigkeit bei der Erkennung von Frequenzunterschieden dar, und umgekehrt zeigen breit abgestimmte Kurven eine geringere Genauigkeit. Eine Möglichkeit, Tuning-Kurven zu erhalten, sind Techniken, die auf subjektiven Verhaltensreaktionen basieren, die psychophysische Tuning-Kurven (PTCs) liefern. Im Gegensatz dazu beruhen andere Verfahren auf objektiven Hörreaktionen auf Geräusche, wie unter anderem Neuronenreaktionen und otoakustische Emissionen. Die vorliegende Studie stellt eine objektive Methode vor, die otoakustische Emissionen mit Stimulusfrequenz (SFOAEs) verwendet, um Suppression Tuning Curves (STCs) zu erstellen. Es ist sehr wichtig, ein objektives Verfahren zur genauen Messung des menschlichen FS zu finden, da es die Untersuchung des FS bei nicht ansprechenden Patienten (z. B. Neugeborenen oder komatösen Patienten) ermöglichen würde. Bevor die objektive Methode angewendet werden kann, muss jedoch nachgewiesen werden, dass ihre Fähigkeit, den FS zu schätzen, vergleichbare Ergebnisse liefert, die mit subjektiven Verfahren, d. h. PTCs, erhalten werden.;-;-;-;https://link.springer.com/article/10.1186/1475-925X-13-171 171621246a87642f12335d89431d2b83;de;;;2.4.;;;Eine Struktur-aus-Bewegung-Pipeline für topografische Rekonstruktionen mit unbemannten Luftfahrzeugen und Open-Source-Software In den letzten Jahren hat die Generierung genauer topografischer Rekonstruktionen unter anderem Anwendungen gefunden, die von den Geomorphologien bis hin zur Fernerkundung und Stadtplanung reichen. Die Erstellung von hochauflösenden, qualitativ hochwertigen digitalen Höhenmodellen (DHMs) erfordert einen erheblichen Aufwand an Personalzeit, Hardware und Software. Die Photogrammetrie bietet klare Vorteile gegenüber anderen Methoden zur Erfassung geomatischer Informationen. Flugkameras können große Gebiete schneller abdecken als Bodenvermessungstechniken, und die erzeugten auf Photogrammetrie basierenden DEMs haben oft eine höhere Auflösung als Modelle, die mit anderen Fernerkundungsmethoden wie LIDAR (Laser Imaging Detection and Ranging) oder RADAR (Radar Detection and Ranging) erstellt wurden. .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98998-3_17 bdcf102bb8c820df5e2be89dcfb80191;de;;;2.4.;;;Analyse der Informationsverbreitungsorientierung der Mikroblog-Plattform der Polizei für neue Medien Dieser Artikel zielt darauf ab, die Mikroblog-Daten zu analysieren, die von einer neuen Social-Media-Plattform für die Polizei in einer bestimmten Provinz in China veröffentlicht wurden, und die Merkmale der Mikroblogs herauszufinden, die aus der Perspektive moderner Polizeiangelegenheiten eher neu veröffentlicht werden. In diesem Artikel wird ein neues themenbasiertes Modell vorgeschlagen. Im ersten Schritt wird der LDA-Themen-Clustering-Algorithmus verwendet, um die Themenkategorien mit Weiterleitungswärme aus den am häufigsten neu geposteten Microblogs zu extrahieren, wobei ein naiver Bayes-Algorithmus wie folgt die Themenkategorien vorhersagt. Die vorverarbeiteten Beispieldaten werden auf das vorgeschlagene Verfahren angewendet, um die Art des Repostings von Microblogs vorherzusagen. Die experimentellen Ergebnisse unter Verwendung einer großen Anzahl von Online-Microblog-Daten zeigen, dass die vorgeschlagene Methode das erneute Posten von Microblogs mit hoher Präzision und Wiedererkennungsrate genau vorhersagen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-78609-0_56 38f461e9837fb22d8966252223151e60;de;;;2.4.;;;Bildverarbeitungstechniken zur Brustkrebserkennung: Ein Rückblick Die Häufigkeit von Brustkrebsfällen bei Frauen nimmt weltweit zu. Ein Histopathologe benötigt eine beträchtliche Zeit, um den Gewebeträger zu analysieren. Es besteht ein Bedarf an automatisierten Systemen, um den Pathologen bei der Erkennung von Malignität zu unterstützen. Die Früherkennung von Brustkrebs führt zu einer schnelleren Behandlung und erhöht die Überlebenschancen. Für die Forscher ist es von entscheidender Bedeutung, Systeme zu entwickeln, die die Geschwindigkeit und Genauigkeit der Diagnose von Brustkrebs erhöhen können. Die histologische Analyse ist ein wichtiger Ansatz bei der Erkennung von Brustkrebs. Histopathologiebilder sind von komplexer Natur mit heterogenem Hintergrund und verzerrt geformtem Kern darauf. Mit den Fortschritten in Bildverarbeitungstechniken gibt es verschiedene Lösungen von Forschern für die Verarbeitung von Histologiebildern. Entwickler von computergestützten Diagnosesystemen für Brustkrebs müssen über fundierte Kenntnisse in der Vorbereitung von histologischen Objektträgern und der manuellen Untersuchung der Objektträger verfügen. Dies wird ihnen helfen, den Histopathologen bei der Entwicklung des Systems nachzuahmen und die Genauigkeit und Zuverlässigkeit des Systems zu erhöhen. Dieser Artikel befasst sich eingehend mit der Brustbiopsie, der histologischen Objektträgerbeschreibung, Bildverarbeitungstechniken für die automatische histopathologische Analyse und Brustkrebs.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-49342-4_63 d2dbfbe7bcb98ea8faada1752b14c1ba;de;;;2.4.;;;Smart Home Monitoring System basierend auf SOC Smart Home-Technologien können finanzielle Einsparungen ermöglichen, den Verbraucherkomfort erhöhen, zu einem ökologischeren und nachhaltigeren Leben beitragen und das Sicherheitsgefühl des Käufers stärken. Das Zynq-7000 AP SoC-Gerät basiert auf dem Xilinx;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-60753-5_21 b3b60e909c7c2606569d9981cf4e719c;de;;;2.4.;;;Funktionelle Konnektivitätsänderung nach fMRT-Motorbildtraining in Echtzeit durch Selbstregulation der Aktivitäten des rechten prämotorischen Kortex Die funktionelle Magnetresonanztomographie in Echtzeit (real-time fMRI) ist eine neuartige Methode, die zur Untersuchung des motorischen Bildtrainings verwendet werden kann Gehirnregionen, um ihr Verhalten zu beeinflussen. Viele Forscher haben gezeigt, dass der richtige prämotorische Bereich während des fMRT-motorischen Bildtrainings in Echtzeit eine entscheidende Rolle spielt. Daher wurde die Hypothese aufgestellt, dass die Modulation der Aktivität des rechten prämotorischen Bereichs zu einer Veränderung der funktionellen Konnektivität zwischen dem prämotorischen Bereich und anderen motorischen Bereichen führen kann.;-;-;-;https://link.springer.com/article/10.1186/s12868-015-0167-1 6b7669de03abd7bbea127c5b653ab236;de;;;2.4.;;;Einfluss der charakteristischen Impedanz von Koaxialleitungen auf die Empfindlichkeit eines elektronisch abstimmbaren 750-MHz-EPR-Resonators Ein elektronisch abstimmbarer 750-MHz-Resonator wurde im Hinblick auf die Sensitivität der elektronenparamagnetischen Resonanz (EPR)-Signaldetektion untersucht. Die Umwandlungseffizienz des hochfrequenten Magnetfelds wurde für Resonatoren mit 50- und 100-Ω-Koaxialkopplungsleitungen unter Verwendung von dreidimensionalen (3D) Mikrowellenfeld- und Mikrowellenschaltungssimulatoren berechnet. Basierend auf den Simulationsergebnissen wurden zwei abstimmbare Resonatoren physikalisch konstruiert und hinsichtlich der EPR-Signalempfindlichkeit unter Verwendung einer Nitroxylradikallösung verglichen. Während der Resonator mit 100-Ω-Koaxialleitungen eine um 14 % höhere Signalintensität lieferte, war sein Signal-Rausch-Verhältnis niedriger als das des Resonators mit 50-Ω-Leitungen. Um die Leistungsfähigkeit des konstruierten abstimmbaren Resonators für EPR-Imaging-Experimente zu demonstrieren, wurden eine Lösung von Nitroxylradikalen und das Bein einer tumortragenden Maus visualisiert.;-;-;-;https://link.springer.com/article/10.1007/s00723-018-1001-6 664f741f1a43664125a8d37215b1ba4c;de;;;2.4.;;;Straßenkataster ein innovatives System zur Aktualisierung von Informationen aus Big Data Elaboration Die vorgeschlagene Forschungsaktivität basiert auf der Untersuchung und Entwicklung fortgeschrittener Überwachungstechniken für die Inspektion und Kartierung von Straßeninfrastrukturen. Die Datenerfassung (anfänglich und periodisch) ist eine der wichtigsten Phasen des Prozesses, die für die Kenntnis des aktuellen Zustands der Straßeninfrastruktur zu befolgen sind, und dies ist von grundlegender Bedeutung für die Planungs- und Interventionsentscheidungen. Dieser Vorgang kann sowohl mit traditionellen (wie GNSS-Empfängern, motorisierten Totalstationen und 3D-Laserscannern) als auch mit innovativen Werkzeugen (wie Fernerkundung, mobile Kartierungssysteme oder Straßendrohnen und APAs) erfolgen. In letzter Zeit bietet die technologische Entwicklung die Möglichkeit, Werkzeuge zu verwenden, die eine kontinuierliche Erfassung des zu untersuchenden Objekts ermöglichen, und es besteht die Möglichkeit, mehrere Sensoren gleichzeitig zu verwenden, die es ermöglichen, leistungsstarke Untersuchungen durchzuführen. Ziel der Forschung ist der Entwurf und die Implementierung eines innovativen Mess- und Komponentensensorsystems zur Ausstattung mit technologischen Systemen zur Datenerfassung. Die Forschung umfasst auch die Implementierung dedizierter Algorithmen für die Verwaltung der gewonnenen georeferenzierten Datenmengen und deren Darstellung auf GIS-Plattformen (Geographic Information System) als „offene und aktualisierbare“ thematische Kartographie. In diesem Zusammenhang ist auch die Erstellung und Aktualisierung des Straßenkatasters enthalten, das (in unserer Anwendung) als Computerwerkzeug zum Speichern, Abfragen, Verwalten und Visualisieren aller Daten gedacht ist, die der Eigentümer/Verwalter auf seinem Straßennetz erfasst hat. Auf diese Weise wird es möglich sein, die inhärenten geometrischen Merkmale der Straßenelemente und ihre Relevanz sowie die permanenten Installationen und Dienstleistungen im Zusammenhang mit den Bedürfnissen des Verkehrs darzustellen, auf diese Weise können wir eine ständig aktualisierte Datenbank erhalten, die eine schnelle Auswahl ermöglicht sucht nach Themen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58811-3_51 953d1e117e6aaa3bd088f72213dc02b9;de;;;5.3.;;;Adaptive Schnittstellen für den allgegenwärtigen Webzugriff Das World Web Wide bietet einen beispiellosen Zugriff auf Zeitungen, Zeitschriften, Einkaufskataloge, Restaurantführer, Kleinanzeigen und andere Arten von Informationen. Alle diese Informationen waren jedoch früher nur zugänglich, wenn die Benutzer zu Hause oder im Büro an einen Computer gebunden waren. Der drahtlose Daten- und Sprachzugriff auf dieses riesige Geschäft ermöglicht einen beispiellosen Zugriff auf Informationen von jedem Ort zu jeder Zeit.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44963-9_1 edd83c953e05dafc076465794736bc8c;de;;;2.4.;;;Messmethode des Mikrokegellochs basierend auf der Tiefe vom Fokus Im Flugtriebwerk ist die Düse eines der wichtigsten Teile. Düsen sind sehr klein und schwer zu messen. Das Kegelloch in der Düse ist schwer zu bearbeiten, die Qualität des Kegellochs beeinflusst die Zerstäubungsleistung der Düse stark. Anders als bei herkömmlichen Messmethoden wird in diesem Beitrag der Winkel des Kegellochs mittels Bildverarbeitung gemessen. Es wurde eine auf Depth From Focus basierende Methode vorgeschlagen, die eine Reihe von Bildern verwendet, um das 3D-Modell der Düse zu rekonstruieren. In diesem Artikel werden telezentrische Objektive und CCD verwendet, um Bilder aus verschiedenen Entfernungen zu erhalten. Anschließend wurden einige Experimente durchgeführt, um zu beweisen, dass diese Methode den Winkel des Kegellochs gut messen kann. Auch dieses Papier stellt fest, dass die Genauigkeit umso höher ist, je kleiner das Bewegungsintervall ist, aber desto mehr Zeit kostet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3305-7_155 003c7336314e53c586a065e8f06af86b;de;;;2.4.;;;Die Klassifizierung von EEG-Signalen unter Verwendung verschiedener Techniken des maschinellen Lernens für die BCI-Anwendung Gehirn-Computer-Schnittstelle (BCI) oder Mensch-Maschine-Schnittstelle wird jetzt zu einem wichtigen Bereich der biomedizinischen Technik und Technologie, der EEG-Technologien anwendet, um dem Menschen assistive Gerätetechnologie (AT) bereitzustellen. Daher präsentiert dieser Artikel die Ergebnisse der Analyse von EEG-Signalen aus verschiedenen menschlichen kognitiven Zuständen, um die geeigneten EEG-Merkmale zu extrahieren, die zur Steuerung von BCI-Geräten verwendet werden können, die von behinderten oder gelähmten Menschen verwendet werden können. Die EEG-Merkmale in Bezug auf spektrale Leistungsdichte, spektrale Schwerpunkte, Standardabweichung und Entropie werden aus zwei verschiedenen mentalen Übungen ausgewählt und untersucht, (i) schnelles Lösen von Mathematik und (ii) Entspannen (nichts tun). Die ausgewählten Merkmale werden dann mit Linear Discriminant Analysis (LDA), Support Vector Machine (SVM) und K-Nearest Neighbors (k-NN)-Klassifikator klassifiziert. Unter all diesen Merkmalen wurde die beste Genauigkeit durch die spektrale Leistungsdichte erreicht. Die Genauigkeiten dieser Funktion sind 95 %, 100 %, 100 % mit LDA, SVM bzw. K-NN. Schließlich wird der Übersetzungsalgorithmus unter Verwendung ausgewählter und klassifizierter EEG-Merkmale konstruiert, um die BCI-Geräte zu steuern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-7780-8_17 ff32f3f8b13c29bb3a86dd68879c1aaf;de;;;2.4.;;;Photogrammetrische Techniken zur Überwachung der Tunnelverformung In diesem Beitrag werden zwei innovative Methoden zur Tunnelüberwachung vorgestellt, die auf digitaler Photogrammetrie basieren. Beide wurden entwickelt, um Operationen zu beschleunigen, die derzeit durch den Einsatz von Techniken und Instrumenten der Ingenieurgeodäsie durchgeführt werden. Gleichzeitig sind die vorgeschlagenen Lösungen billig und erschwinglich. Der erste zielt auf die Messung der relativen Verformungen des Querquerschnitts von Tunneln ab. Auf dem Tunnelgewölbe werden einige Spezialziele platziert und deren Koordinaten mit Hilfe eines kleinen photogrammetrischen Blocks aus vier Bildern gemessen. Ein Draht wird verwendet, um die Waage einzurichten und alle Messungen über die Zeit vergleichbar zu machen. Die zweite Methode kann für die Messung von vertikalen Verformungen entlang des Längsprofils von Tunneln angewendet werden. Ein neuer bildbasierter Ansatz namens „photogrammetrisches Nivellieren“ wird hier diskutiert, der auf der metrischen Entzerrung jedes einzelnen Bildes basiert, das ein paar spezielle Stäbe darstellt, die an Nivellierungs-Benchmarks aufgehängt werden. Diese Technik kann verwendet werden, um herkömmliche optische und digitale Nivellierinstrumente zu ersetzen. Beide Anwendungen können mit einer kalibrierten Amateurkamera durchgeführt werden. Einige Experimente in kontrollierten und realen Umgebungen ermöglichten die Bewertung der Leistungen und Grenzen dieser Techniken für Betriebsvermessungen bei der Tunnelüberwachung.;-;-;-;https://link.springer.com/article/10.1007/s12145-014-0152-8 e2c70e2e6ce40d89db89d3495f6ae499;de;;;2.4.;;;Überwachung der dynamischen Veränderungen in städtischen Seen auf der Grundlage von Fernerkundungsbildern aus mehreren Quellen Um das Informationsmanagement von städtischen Seen zu verbessern, wurde in diesem Papier die Fernerkundungstechnik angewendet, um rechtzeitig Informationen zur Verringerung der Seenfläche und zur Verschlechterung der Wasserqualität von städtischen Seen zu erhalten. Die geeigneten Klassifikationsregeln und das Retrievalmodell wurden ausgewählt, um die wichtigen Informationen, die von der Seeverwaltungsabteilung betroffen sind, wie Seegrenze, Landnutzungsklassifizierung, Seetemperatur und Chlorophyllgehalt basierend auf den Multi-Source-Fernerkundungsbildern zu erhalten. Wir haben festgestellt, dass die Fernerkundungstechnik die abnormale Veränderung des Stadtsees erkennen und den Entwicklungstrend konsequent verfolgen kann. Es verbessert die Effizienz der Seevermessung erheblich und wird auch die nachhaltige Entwicklung des Seeökosystems fördern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45737-5_7 44faf6263af04bd6eea7696c4ec038ba;de;;;2.4.;;;"Forschung zur Inter-Satelliten- und Satelliten-Boden-Kommunikation basierend auf Multi-Beam-Phased-Array-Antenne Das Breitband-Satellitenkommunikationssystem mit niedriger Umlaufbahn spielt eine unverzichtbare Rolle im zivilen weltraumgestützten Netz und der Kommunikationsabdeckung in Schlüsselbereichen. Es hat eine sehr breite Anwendungsperspektive. Bei dem aus Satelliten mit niedriger Umlaufbahn bestehenden Kommunikationssystem ist die Einzelsatellitenabdeckung klein und kann in einigen Fällen für alle Boden-Gateway-Stationen unsichtbar sein. Es ist die einzige Lösung, die eine Inter-Satelliten-Verbindung verwendet, um den Benutzern den Zugang zum Bodenkommunikationsnetz zu ermöglichen. Indem wir Verbindungen zwischen den Satelliten herstellen und jeden Satelliten zu einem Knoten im Kommunikationsnetz machen, können wir ein wirklich „weltraumbasiertes Netzwerk“ bilden. Basierend auf der Technologie der Satelliten-Mehrstrahl-Phased-Array-Antenne wird die Technologie von ""Stare & Scan"" in der Satelliten-Boden-Kommunikation eingesetzt, um die Abdeckung der Breitbandkommunikation in Schlüsselbereichen und die Abdeckung der Schmalbandkommunikation in weiten Bereichen zu realisieren Bereiche. Das statische Routing und das dynamische Routing werden bei der Kommunikation zwischen Satelliten verwendet, um den Aufbau des Kommunikationsnetzes zu realisieren.";-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6264-4_16 a3e8b47ba5394352587986bfbd79d8cc;de;;;2.4.;;;Vorschlag für ein virtuelles Netzwerk für europäische Sprachen ELVIN (European Languages ​​Virtual Network) ist ein Projekt des Lebenslangen Lernens der Europäischen Union (EU), das darauf abzielt, ein informelles soziales Netzwerk zu schaffen, um das Sprachenlernen zu unterstützen und zu erleichtern. Das ELVIN-Projekt zielt darauf ab, den Zusammenhang zwischen sozialen Netzwerken, Berufsprofilen und Sprachenlernen in einem informellen Bildungskontext zu erforschen und zu entwickeln. Kernstück des ELVIN-Projekts wird eine Web 2.0 Social Networking-Plattform sein, die Mitarbeiter/Studenten für die Sprachpraxis auf der Grundlage ihrer eigenen beruflichen/akademischen Bedürfnisse und Fähigkeiten unter Verwendung aller relevanten Technologien verbindet. Der Auftrag von ELVIN umfasst die Prüfung sowohl methodischer als auch technologischer Aspekte, die mit der Schaffung einer sozialbasierten Lernplattform verbunden sind, die dem Benutzer seine eigene maßgeschneiderte persönliche Lernumgebung für den EU-Spracherwerb bietet. ELVIN startete im November 2009 und dieses Papier stellt die Projektziele und -ziele sowie die Entwicklung und Implementierung der Webplattform vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16324-1_4 e79e4a783c9ea1e9a5d29a0ab47b3152;de;;;2.4.;;;Validierung der volumenerhaltenden nicht-rigiden Registrierung: Anwendung auf die kontrastmittelunterstützte MR-Mammographie In diesem Beitrag präsentieren wir eine Validierungsstudie zur volumenerhaltenden nicht-starren Registrierung von 3D-kontrastverstärkten Magnetresonanz-Mammographien. Diese Studie ermöglicht es zum ersten Mal, die Wirksamkeit einer volumenerhaltenden Einschränkung zu bewerten, um die Registrierungsgenauigkeit in diesem Zusammenhang zu verbessern. Die Validierung basiert auf der Simulation physikalisch plausibler Brustdeformationen mit biomechanischen Brustmodellen (BBMs) unter Einsatz von Finite-Elemente-Methoden. Wir konstruierten BBMs für vier Patienten mit jeweils vier verschiedenen Deformationsszenarien. Diese Verformungen wurden auf das Nachkontrastbild angewendet, um die Patientenbewegung zu simulieren, die zwischen der Vor- und Nachkontrastaufnahme auftritt. Die ursprünglichen Vorkontrastbilder wurden mit den entsprechenden BBM-deformierten Nachkontrastbildern registriert. Wir haben die Genauigkeit von zwei Optimierungsschemata eines nicht starren Registrierungsalgorithmus bewertet. Ersteres zielt ausschließlich darauf ab, die Bildähnlichkeit zu verbessern, während zweiteres die Minimierung von Volumenänderungen als weiteres Ziel beinhaltet. Wir haben bei jeder Auflösung eine Verringerung des restlichen Registrierungsfehlers beobachtet, wenn die Registrierung eingeschränkt wurde, um das Volumen zu erhalten. Innerhalb der kontrastverstärkenden Läsion wurden die besten Ergebnisse mit einem Kontrollpunktabstand von 20 mm erzielt, was zu Zielregistrierungsfehlern von durchschnittlich unter 0,5 mm führte. Diese Studie ist ein wichtiger Meilenstein, um den nicht starren Registrierungsrahmen für die klinische Routineanwendung anwendbar zu machen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45786-0_38 62af8d782834d378b1ca01e09ba1c550;de;;;2.4.;;;Ein neuartiger Photovoltaik-Zellensimulator für das grüne Internet der Dinge In diesem Artikel wird ein neuartiger Simulator für Photovoltaikzellen basierend auf der LabVIEW-Plattform entwickelt und implementiert, der verwendet wird, um die I-V-Eigenschaften von Photovoltaikzellen am Ausgang zu simulieren. Der Hauptbeitrag dieser Arbeit ist die Implementierung des Punkt-für-Punkt-Vergleichsalgorithmus, der verwendet wird, um die Stromversorgung einer Photovoltaikzelle zu steuern, um einer gegebenen I-V-Ausgangskurve auf der LabVIEW-Plattform zu folgen. Die experimentellen Ergebnisse zeigen, dass der Photovoltaikzellensimulator eine Genauigkeit von 96% erreichen kann und als zuverlässiges Werkzeug für die Simulation des MPPT-Algorithmus (Maximum Power Point Tracking) und die Analyse der Stromversorgung von Sensorknoten im grünen Internet der Dinge verwendet werden kann .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00015-8_57 f8b4e8e362b47225f5abff9b90a80b8d;de;;;2.4.;;;Design und Anwendung einer netzwerkoptimierten integrierten Plattform basierend auf gerasterten Big Data Die Entwicklung der Big-Data-Technologie bietet wirtschaftlichere und effektivere Methoden zur Netzoptimierung. Zunächst werden die Plattformlogikarchitektur und die Hauptfunktionen der Netzwerkoptimierungsplattform basierend auf gerasterten Big Data beschrieben. Anschließend wird das zentrale technische Schema der Plattform vorgestellt. Durch die Rasterung von MR wird die regionale Genauigkeit des Standortproblems effektiv verbessert, die bis zu 50*50 m beträgt. Indem wir Qualitätsindikatoren und Wahrnehmungsindikatoren mit der Rasterdarstellung abgleichen, können wir Netz-, Wahrnehmungs- und dreidimensionale Analysefähigkeiten auf Rasterebene aufbauen und Wahrnehmungs- und Wertdimensionen genauer kombinieren, um die Netzwerkoptimierung und -planung zu verfolgen. Abschließend werden einige Anwendungsszenarien und -fälle beschrieben, um die Rolle der Plattform bei der intelligenten Netzoptimierung aufzuzeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4163-6_94 e6fa03b8e826fbeb04ea4a63162c3a1f;de;;;2.4.;;;Empfehlungssystem für Kostümexperten basierend auf physischen Merkmalen In diesem Papier entwerfen wir ein Costume Expert Recommendation System (CERS) basierend auf den physischen Merkmalen der Kunden. Zuerst erhalten wir Bilder von Kunden und verwenden ein Multi-Classifier-Modell basierend auf Support Vector Machine (SVM), um physische Merkmale von Kunden zu extrahieren. Die körperlichen Merkmale umfassen vier Merkmale: Hautfarbe, Gesichtsform, Schulterform und Körperform. Zweitens speichert CERS die spezifischen physischen Merkmale der Kunden in der Faktendatenbank des Expertensystems. Anschließend speichert es Expertenwissen zum Kostümabgleich in der Regelbasis nach Art von Produktionsregeln. Schließlich verwendet das CERS eine Inferenzmaschine, nämlich Tafelmodellalgorithmen, um das empfohlene Kostüm zu erhalten, das den physischen Eigenschaften des Kunden entspricht. Daher bietet das vorgeschlagene System den Kunden eine intelligente Kostümempfehlungsstrategie gemäß SVM und Expertensystem.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99695-0_10 e1015a97a4e37d2649076a8ae81a84e7;de;;;2.4.;;;Die lexikalische Komplexität und der grundlegende Wortschatz der italienischen Sprache Die Verständlichkeit eines Textes hängt hauptsächlich von zwei Faktoren ab: dem Lexikon und der Syntax. Auch dank computergestützter Werkzeuge stellen wir hier eine Forschungsstudie vor, die darauf abzielt, den Grad der Verständlichkeit des Lexikons der Texte zu bewerten, die für die sprachliche Bildung von Grundschulkindern verwendet werden. In der in diesem Papier vorgestellten Studie haben wir das Neue Basisvokabular (NVdB) [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-70629-6_2 4a632c4dc47613ec39e4be9c92b2de02;de;;;2.4.;;;Integrierte Fehlerkompensationsmethode für Dreiachsen-Magnetometer in der geomagnetischen Navigation Bei der Erdmagnetfeldmessung wird das Dreiachsen-Magnetometer durch verschiedene Störfaktoren beeinflusst und erzeugt verschiedene Fehler, die sich auf die Messgenauigkeit auswirken. In diesem Artikel wird der iterative Algorithmus zur gemeinsamen Schätzung verwendet, um das Dreiachsen-Magnetometer zu kalibrieren, und die Leistung des Verfahrens wird mit dem EKF-Algorithmus und dem nichtlinearen Algorithmus der kleinsten Quadrate verglichen. Die Simulationsergebnisse zeigen, dass bei den drei Methoden der Fehlerdurchschnitt und die Standardabweichung des iterativen Algorithmus zur gemeinsamen Schätzung am geringsten und die Konvergenzrate am schnellsten ist, was beweist, dass das Verfahren effektiv und anwendbar ist. Die experimentellen Ergebnisse zeigen, dass der iterative Algorithmus zur gemeinsamen Schätzung den Mittelwert des Messwerts des Dreiachsen-Magnetometers von 69,5211 nT auf 9,241 nT reduziert, die Standardabweichung von 122,0014 nT auf 19,941 nT reduziert und das Unterdrückungsverhältnis 86,71% erreicht . Das Ergebnis legt einen effektiven Weg für die Kalibrierung von dreiachsigen Fluxgate-Magnetometern nahe.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3707-3_59 4b926907c514fcae3322149fb154bf2b;de;;;2.4.;;;Unterstützung der Datenbank zur Huntington-Forschung mit MEGADATS-3M Dieses Papier beschreibt das Datenbankentwicklungsprojekt MEGADATS (MEdical Genetics Acquisition and Data Transfer System) zum Sammeln, Speichern, Abrufen und Plotten von Stammbäumen menschlicher Familien. Das neueste System, MEDGADATS-3M, wird beschrieben. Die Mikrocomputerversion von MEGADATS-3M und die Verwendung von MEGADATS-3M zur Unterstützung des Projekts zur Erforschung der Huntington-Krankheit werden hervorgehoben. Beispiele für Dateneingabe und Stammbaum-Plot werden gezeigt.;-;-;-;https://link.springer.com/article/10.1007/BF02224500 02c7e66a1e1491c6c9d75f4471444b47;de;;;2.4.;;;"Analyse der Eigenschaften des BDS-3-Satellitensystems basierend auf dem selbst entwickelten GNSS-Empfänger „GaoJing-1“ Im globalen Navigationssystem unseres Landes, nämlich BDS-3, wurden im Zeitraum von November 2017 bis November 2018 19 Satelliten (18 MEO-Satelliten und 1 GEO-Satellit) gestartet um ab Ende 2018 einen wesentlichen Navigationsdienst für die Länder und Bezirke in „The Belt and Road“ bereitzustellen. Die Signaleigenschaften von B1I/B1C, die Systemsichtbarkeit und die Leistung des Navigationssystems werden anhand des selbst entwickelten „GaoJing“ gründlich untersucht -1"" Multimode-Mehrfrequenzempfänger. Durch die Analyse der Messergebnisse kann der Empfänger die 5 experimentellen Satelliten und alle Satelliten von BDS-3 außer GEO-1 (PRN59) und MEO-8 (PRN48) beobachten. Obwohl sich das BDS-3-System noch in der Debugging-Phase befindet, ist das Gesundheitsflag 1 für das Signal B1I und 1 oder 2 für B1C, was bedeutet, dass der Empfänger die Signale von B1I und B1C nicht zur Positionsbestimmung verwenden sollte. Wir versuchen jedoch immer noch, die Positionierung zu erhalten. Die Experimentergebnisse zeigen, dass bei Verwendung des Almanachs mit mittlerer Präzision, der von B1C gesendet wird, bei einem Abschneidewinkel von 10° und 20° die minimale Anzahl von sichtbaren Satelliten in 24 Stunden in Peking für BDS-3 6 bzw. 5 beträgt. und die Erfolgsquote der Positionierung beträgt 100 %. Und der BDS-3 bietet eine bessere Positionierungsgenauigkeit als der BDS-2. Bei Verwendung der Signale B1I und B1C von BDS-3 ist die Standardabweichung des Positionsfehlers 21% bzw. 28% niedriger als die von BDS-2. Bei Verwendung der kombinierten Positionierung von BDS-2 und BDS-3 beträgt der Positionierungsfehler 45 % als bei BDS-2 und 31 % niedriger als bei BDS-3.";-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-7759-4_37 8d26a8cbb58ee6fac6e4899a9dfd3436;de;;;2.4.;;;Leistungsbewertung von Entrauschungstechniken unter Verwendung von Full-Referenz-Bildqualitätsmetriken Die Rauschunterdrückung digitaler Bilder ist ein entscheidender Vorverarbeitungsschritt, bevor es zur Bildsegmentierung, Darstellung und Objekterkennung geht. Es ist wichtig, die Wirksamkeit des Filters für verschiedene Rauschmodelle herauszufinden, da der Filtervorgang eine anwendungsorientierte Aufgabe ist und die Leistung je nach Art des in Bildern vorhandenen Rauschens variiert. Eine vergleichende Studie wird durchgeführt, um das Verhalten verschiedener räumlicher Filtertechniken unter verschiedenen Rauschmodellen aufzuklären. In diesem Beitrag werden verschiedene Arten von Rauschen wie Gaußsches Rauschen, Speckle-Rauschen, Salt & Pepper-Rauschen auf das Graustufen-Standardbild von Lenna angewendet und mit räumlichen Filtertechniken werden die Werte der vollständigen referenzbasierten Bildqualitätsmetriken gefunden und in tabellarischer und grafischer Form verglichen. Das Ergebnis einer Vergleichsstudie zeigt, dass Lee, Kuan und der anisotrope Diffusionsfilter gut für Speckle-Rauschen funktionierten, das Salt- und Pepper-Rauschen mit Median und AWMF signifikant reduziert wurde und der Mean-Filter und Wiener-Filter immens effizient zur Reduzierung des Gaußschen Rauschens arbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-0755-3_1 f4b05de56f09f565bef23bb41a01f0cc;de;;;5.3.;;;Asymmetrische Gravitationsoszillation an Fingerspitzen erhöht die wahrgenommene Schwere eines eingeklemmten Objekts Studien haben gezeigt, dass Veränderungen der Scher- oder Reibungskraft an den Fingerkuppen zur Gewichtswahrnehmung beitragen. Das Einklemmen eines sich aktiv bewegenden Objekts induziert eine ähnliche Änderung der Scher- oder Reibungskraft an den Fingerspitzen, und Menschen können das Objekt als schwerer wahrnehmen als ein bewegungsloses Objekt. Über die Gewichtswahrnehmung beim Kneifen eines schwingenden Objekts ist jedoch wenig bekannt. Diese Studie zielte darauf ab, die Rolle der Schwingung eines Objekts bei der Gewichtswahrnehmung zu untersuchen, wobei die Teilnehmer die Schwere beim Kneifen eines Kistenpaares bewerteten. Die Ergebnisse zeigten, dass sich eine vibrierende Box schwerer anfühlte als eine statische Box und eine asymmetrisch vibrierende Box sich schwerer anfühlte als eine symmetrische Box. Diese Ergebnisse ähneln denen unserer vorherigen Studie, als die Teilnehmer eine größere und schwerere Kiste griffen, die in vertikaler Richtung asymmetrisch vibrierte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-78321-1_19 033e86383526a4e0de9c5f4ef2a0f0ea;de;;;2.4.;;;Methode zur Verbesserung der Kniewinkelgenauigkeit basierend auf Kinect und IMU: Vorläufige Ergebnisse Eine Möglichkeit, Muskel-Skelett-Erkrankungen der unteren Extremität zu erkennen, ist die Funktionsuntersuchung, bei der die Normalität der Gelenke beurteilt wird. Derzeit kann dieser Test mit technologischer Unterstützung durchgeführt werden, wobei optische Sensoren und Trägheitsmesssensoren (IMU) am häufigsten verwendet werden. Kinect wird häufig zur funktionellen Beurteilung des menschlichen Körpers verwendet, jedoch sind den Bewegungen in der Tiefenebene und bei Okklusion der Gliedmaßen Grenzen gesetzt. Trägheitsmesssensoren (IMU) ermöglichen Orientierungs- und Beschleunigungsmessungen mit einer hohen Abtastrate, mit einigen Einschränkungen, die mit Drift verbunden sind. Dieser Artikel schlägt eine Methodik vor, die die Beschleunigungsmessungen der IMU- und Kinektsensoren in zwei Bewegungsebenen (frontal und sagittal) kombiniert. Diese Messungen werden in der Vorverarbeitungsstufe nach einem Kalman-Filter gefiltert und aus einer mathematischen Gleichung gewonnen, die ihre Zusammenführung ermöglicht. Die Daten des Fusionssystems erhalten akzeptable RMS-Fehlerwerte von 5,5;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36636-0_14 d38eabc94d57a481528295e0872328c3;de;;;5.3.;;;Komplexitätsmetriken für Cascading Style Sheets Webanwendungen werden für kleine und große Unternehmen immer wichtiger, da sie in ihre Geschäftsstrategien integriert sind. Cascading Style Sheets (CSS) sind jedoch ein integraler Bestandteil moderner Webanwendungen, die von Benutzern als komplex wahrgenommen werden und deren weit verbreitete Akzeptanz erschweren. Zu den Faktoren, die für die CSS-Komplexität verantwortlich sind, gehören die Größe, die Vielfalt der Regelblockstrukturen, die Wiederverwendung von Regelblöcken, der Zusammenhalt und die Attributdefinition in Regelblöcken. In diesem Papier haben wir für jeden der Komplexitätsfaktoren relevante Metriken vorgeschlagen. Die vorgeschlagenen Metriken werden durch einen praktischen Rahmen validiert. Das Ergebnis zeigt, dass die vorgeschlagenen Metriken die meisten der vom praktischen Rahmen geforderten Parameter erfüllen und somit auch gut strukturiert sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31128-4_18 0f29d777d8df51d28ce89a095a360d03;de;;;5.3.;;;Verwenden von Dialogspielen zur Aufrechterhaltung diagnostischer Interaktionen In diesem Papier wird ein Ansatz vorgestellt, um individuelle Benutzermodelle dynamisch zu extrahieren, indem Benutzer in diagnostische Interaktionen eingebunden werden. Ein Rahmen für die Pflege diagnostischer Dialoge basierend auf Ansätzen, die als Dialogspiele bekannt sind, wird in STyLE-OLM - einem interaktiven Schülermodellierungssystem - skizziert und illustriert. Das Framework wird in einer evaluativen Studie zu STyLE-OLM validiert und mögliche Verbesserungen skizziert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44963-9_16 2cbb5ec1d5d32d4762b89a0bef6b31e6;de;;;5.3.;;;DelsArtMap: Anwendung des ästhetischen Systems von Delsarte auf virtuelle Agenten Prozedurale Animation bietet erhebliche Vorteile für die Generierung von Inhalten, insbesondere Charakteranimationen, in virtuellen Welten. Künstlerische, ästhetische Modelle haben viel zu bieten prozedurale Charakteranimationen, um den manchmal daraus resultierenden Verlust an Expressivität zu beheben. Insbesondere untersuchen wir den Beitrag des Systems von François Delsarte und formalisieren es in eine Abbildung zwischen emotionalen Zuständen und statischen Charakterposen. Anschließend zeigen wir eine Implementierung dieses Modells in UNITY.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15892-6_15 821552cd42953a1772c904173bc3947b;de;;;5.3.;;;Zur Risikobewertung von Infektionskrankheiten in Taxis mithilfe von Umweltsensoren Die Ausbreitung der Coronavirus-Krankheit von 2019 (COVID-19) hat die Bedeutung der Belüftung in geschlossenen öffentlichen Räumen bekräftigt. In der Vergangenheit wurden Studien zur Luftqualität in öffentlichen Räumen wie Klassenzimmern, Krankenhäusern und Zügen durchgeführt. Allerdings ist der Innenraum eines Taxis, in dem ein extrem kleiner Raum mit einer nicht näher bezeichneten Anzahl von Personen geteilt wird, nicht ausreichend untersucht. Dies ist eine einzigartige Umgebung, in der Belüftung wichtig ist. In dieser Studie wurden Belüftungsmethoden verglichen, die sich auf die CO2-Konzentration in der Kabine konzentrieren, und die Häufigkeit der Belüftung in einem realen Taxi mithilfe von Sensortechnologie bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-77015-0_13 cb6326d19576e5d25223d5ff5cddc896;de;;;5.3.;;;Erweiterte Tools für digitale Lernmanagementsysteme in der Hochschulbildung In diesem Whitepaper werden fortschrittliche Tools des digitalen Lernmanagementsystems M2B vorgestellt. Das M2B-System wird an der Kyushu University, Japan, verwendet und enthält drei Subsysteme: das E-Learning-System Moodle, das E-Portfolio-System Mahara und das E-Book-System BookRoll. Wir haben nützliche Tools entwickelt, um sowohl das Lehren als auch das Lernen zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-21935-2_32 833605e1588a60c2e8a7aee837a926a5;de;;;5.3.;;;D-ME: Persönliche Interaktion in intelligenten Umgebungen Der ubiquitäre Zugriff auf Informationsdienste in aktiven Umgebungen hängt vom Benutzer und von der Situation ab, in der die Interaktion stattfindet. Wir schlagen eine Multiagenten-Architektur vor, in der Benutzer und Umgebungen durch Agenten repräsentiert werden, die die Aufgabenausführung verhandeln und Ergebnisse entsprechend generieren;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44963-9_54 05ef9e62f9c8de4b221968e9accaf30b;de;;;5.3.;;;Die Vorteile der expliziten Darstellung von Problemräumen Newell und Simon (1972) prägten den Begriff „Problemraum“ für eine virtuelle Struktur: alle möglichen Argumentationslinien, die ein Agent verwenden kann, um ein Problem zu lösen. Für bestimmte Spielzeugprobleme (z. B. Tower of Hanoi) kann der Problemraum explizit als beschrifteter, gerichteter Graph dargestellt werden. Bei Nicht-Spielzeug-Problemen haben Kognitionswissenschaftler manchmal das Konzept eines Problemraums verwendet, um Aufgaben zu analysieren, scheinen aber der Meinung zu sein, dass die explizite Darstellung des gesamten Problemraums für ein Problem wahrscheinlich nicht lohnenswert und vielleicht nicht einmal machbar ist. Ich werde Techniken vorstellen, die in einem Jahrzehnt der Forschung entwickelt wurden und die eine explizite Darstellung großer Problemräume ermöglichen. Ich werde zeigen, wie explizite Darstellungen von Problemräumen in Systemen verwendet wurden, die nicht-triviale Benutzermodellierung, Aufgabenanalyse, intelligentes Tutoring und Dialoge in natürlicher Sprache durchführen do;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44963-9_3 40dabc126b5b4d244a1c3c82683a6946;de;;;5.3.;;;Wahrnehmung einer illusorischen Körperneigung durch elektrische Sehnenstimulation Bei Virtual Reality (VR)-Erfahrungen reduziert die Diskordanz zwischen visueller und somatischer Empfindung die immersive Erfahrung eines Benutzers. Um dieses Problem anzugehen, führten wir somatische Empfindungen ein, indem wir illusorische Kraft verwenden, die durch elektrische Sehnenstimulation (TES) induziert wird. Die Wirkung von TES auf die Tibialis-Anterior-Muskelsehne (TA) und Achillessehne (AC) auf das Kraftempfinden und den Druckzentrum (CoP) im Stehen wurde untersucht. Das Ergebnis deutet darauf hin, dass die Anwendung von TES auf TA und AC eine Kraftempfindung induziert, um Körperschwingungen in Rückwärts- bzw. Vorwärtsrichtung hervorzurufen, während die Auswirkungen auf die CoP unserer Hypothese zu widersprechen scheinen. Laut den Beschreibungen des induzierten Gefühls der Körperneigung aus Fragebögen ist diese Technik ein vielversprechender Weg, um Bodeninformationen in VR zu präsentieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-78321-1_27 1c3d831a26ce7309053c3a14aa308e9c;de;;;2.4.;;;Ein Überblick über fortgeschrittene Techniken zur Erkennung und Klassifizierung von Pflanzenschädlingen Die Schädlingserkennung und -klassifizierung in landwirtschaftlichen Kulturen spielt eine wichtige Rolle, um eine gute Produktivität zu gewährleisten. Die landwirtschaftliche Produktivität wird durch das Vorhandensein von Schädlingen und Krankheiten reduziert. In diesem Papier wurden verschiedene technologiebasierte Methoden diskutiert, bei denen die Forscher vor einigen Herausforderungen standen, da sie gemeinsam an biologischen Parametern arbeiteten. Dies ist ein Überblick über bestehende Techniken, die bei der Ableitung neuer Techniken zum Nachweis und zur Klassifizierung von Schädlingen nützlich sein werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9282-5_63 824f2f8dbf850f5378e1a0cd30f1418b;de;;;5.3.;;;State of the Art in der e-Gov-Forschung – Eine Umfrage In diesem Papier wird der Reifegrad des eGov-Bereichs (eGov) bewertet, indem die Natur von 170 Papieren untersucht wird, die auf drei großen eGov-Konferenzen unter Verwendung eines Reifegradmodells veröffentlicht wurden. Die Papiere wurden hauptsächlich auf ihre Strenge, teilweise aber auch auf ihre Relevanz untersucht. Es wurde festgestellt, dass Theoriegenerierung und Theorieprüfung selten sind, während Fallgeschichten (keine Theorie, keine strukturierte Datenerhebung) und Produktbeschreibungen (keine Analyse oder Test) häufig sind. Darüber hinaus werden häufig Ansprüche geltend gemacht, die angesichts der verwendeten Methode nicht angemessen sind. Was die Relevanz angeht, so betreffen nur wenige Fälle, in denen Theorien entweder getestet oder generiert werden, die Rolle und das Wesen der Regierung, die meisten betreffen allgemeine organisatorische Fragen, die durchaus einen Platz in traditionellen IS-Konferenzen finden könnten. Auf der positiven Seite erscheint die globale Reichweite ziemlich gut, ebenso wie die Einbeziehung verschiedener einschlägiger Disziplinen. Es wird der Schluss gezogen, dass eGov-Konferenzen sowohl strenge als auch relevanzorientierte Qualitätskriterien berücksichtigen müssen, wenn sich das Feld zu einem eigenständigen Forschungsfeld entwickeln soll.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30078-6_30 9acad8df1d99d4a37213a639003c8b4b;de;;;2.4.;;;Leistungsstudie monokristalliner und polykristalliner PV-Module in tropischen Umgebungen Die Photovoltaik-Solartechnologie hat sich als nachhaltige und umweltfreundliche Energiequelle entwickelt, die in der Lage ist, den durch die intensive Nutzung fossiler Brennstoffe verursachten Klimawandel abzumildern, um den aktuellen weltweiten Energiebedarf zu decken. Aktuelle Forschungsanstrengungen konzentrieren sich auf das Verhalten von Photovoltaikmodulen unter realen Arbeitsbedingungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-53021-1_20 24559804075391f9ef1cb81f4bcae277;de;;;2.4.;;;Met-Ocean- und Krängungsanalyse während des heftigen Sturms vom 21./22. Oktober 2014, dem das Segelboot ECO40 im Golf von Lion ausgesetzt war: Vergleich zwischen gemessenen und numerischen Winddaten Am 19. Oktober 2014 verließ Matteo Miceli, ein bekannter italienischer Hochseesegler, mit dem italienischen Segelboot ECO 40 den Hafen von Riva di Traiano (Rom, IT) für das Roma Ocean World Project. Diese ehrgeizige Herausforderung besteht aus einer Nonstop-Segelreise allein um die Welt in der Energie- und Nahrungsmittelautarkie. ECO 40 ist ein Ozeanschiff der Klasse 40 (LOA von 12,0 m), das mit einem Datenerfassungssystem zur Messung der beiden aufgezeichneten Met-Ozean-Parameter (scheinbare und tatsächliche Windgeschwindigkeit und Windrichtung, Luftdruck, Strömungsgeschwindigkeit, Lufttemperatur, Meerestemperatur usw.) und die kinematischen Eigenschaften des Bootes selbst (dh Geschwindigkeit und Kurs über Grund). Darüber hinaus ist das Boot mit drei hochpräzisen GPS-Empfängern von Leica Geosystem zur Messung der Bootsbewegung und einer Trägheitsplattform ausgestattet. Durch diese hochpräzisen Instrumente ist es möglich, die sechs Freiheitsgrade des Bootes vollständig zu vermessen und zu charakterisieren und es dementsprechend als Segelwellenboje zu nutzen. In diesem Beitrag präsentieren wir die Analyse der Met-Ozean-Daten, die das Boot während des Sturms im Golf von Lion vom 21. bis 22. Oktober 2014 gemessen hat, mit dem ECO 40 nur wenige Tage nach ihrer Abfahrt konfrontiert war. Darüber hinaus wurde durch die Analyse der GPS-Signale mittels einer innovativen Anwendung der differenziellen kinematischen Positionierungstechnik eine detaillierte Analyse der Bootskrängung während des Golf-Lions-Ereignisses durchgeführt. Die Krängungsmessungen des Bootes wurden verwendet, um die gemessenen Winddaten zu korrigieren, die mit den Hindcast-Zeitreihen verglichen wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-52770-3_7 ed41c211127c6a9aba0d2bc3dae88b79;de;;;2.4.;;;Überblick über die Tunnelerkennungstechnologie Aufgrund begrenzter Landressourcen gibt es weltweit immer mehr Tunnelprojekte wie U-Bahnen, Bergtunnel, Unterwassertunnel und Hochgeschwindigkeits-Eisenbahntunnel. Unabhängig von ihrem Zweck ist eine solche unterirdische Bauumgebung unheimlich und komplex. Bei der langjährigen Verwendung von Tunneln ist es notwendig, Qualitätsmängel zu erkennen und zu diagnostizieren, um Unfälle zu vermeiden, wie z. B. geologische Umgebung, Auskleidungshohlraum, Betonfestigkeit, Auskleidungsdicke, Sickerwasser, Querschnittsverformung, Risse usw. Dieser Beitrag gibt einen umfassenden Überblick über die geologische Erkundung vor der Fertigstellung von Tunneln, die Analyse und Kontrolle von Qualitätsmängeln während des Bauwerksbaus sowie die kontinuierliche Überwachung und Diagnose von Tunnelstörungen nach der Errichtung. Abschließend werden Herausforderungen und zukünftige Tunnelinspektionsrichtungen diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-75793-9_9 98687cbc89fbca062794896b2ad05174;de;;;2.4.;;;Fehlerdiagnose einer selbstausrichtenden Förderrolle in einem Bandfördersystem zur Kohlehandhabung durch statistische Merkmale mit einem Random-Forest-Algorithmus Ein Kohlefördersystem ist ein Schüttgutfördersystem, das eine wichtige Rolle in den wichtigsten mechanischen Industrien spielt. Es enthält die wichtigen Aspekte einer Landeswirtschaft in Bergbau, Hüttenwerken, Wärmekraftwerken, Prozessindustrie usw. Unter Berücksichtigung der Betriebseigenschaften der Bandförderer für den Kohletransport müssen verschiedene Parameter bei der Konstruktion berücksichtigt werden, da sie fördern die meiste Zeit des Jahres ununterbrochen von einem Standort zum anderen. Im breiten Spektrum muss der Flachriemen-Kohleförderer mit maximaler Lastaufnahmefähigkeit ausgestattet sein, um in einem einzigen Hub über weite Strecken zu fördern. Daher muss es standhaft im Design sein, mit einfacher Bedienung und Wartung und hoher Zuverlässigkeit in der Funktion. Die selbstausrichtende Förderrolle (SACR) ist ein wichtiges Element im Kohlebandförderer. Es wird zwischen den Tragförderbandrollen platziert, um die seitliche Verschiebung zu variieren, die durch eine Unwuchtbelastung verursacht wird, die unter rauen Belastungsbedingungen schwer zu vermeiden ist. Wenn sich das Kohleförderband gegen die Tragrollen bewegt, gibt es einen Unterschied in der Reibungskraft zwischen zwei Seiten, wodurch sich das Obertrum des Kohlebandförderers zur Mitte hin verdreht. Außerdem wurden die von der Mittellinie versetzte Kreuzbewegung und die Beschädigung des Kohleförderbands durch die selbstausrichtende Förderrolle kompetent verhindert. Da SACR in Kohlebandfördersystemen als kritisch angesehen wird, wird es obligatorisch, seinen reibungslosen und kontinuierlichen Betrieb zu überwachen. Um dies sicherzustellen, sollte eine Zustandsüberwachung der selbstausrichtenden Förderrolle (SACR) periodisch durchgeführt werden, was prinzipiell ein Klassifikations- oder Kategorisierungsproblem darstellt. Die selbstausrichtende Förderrolle besteht aus wichtigen Elementen wie Rillenkugellager, Hauptzentralwelle und der Außenschale. In diesem Fall wird es in die unten genannten Fälle kategorisiert, wie z. B. Kohleförderband mit SACR im fehlerfreien Zustand (NFC), mit Rillenkugellagerfehlerzustand (BBFC), mit Hauptwellenfehler (MSF), mit kombiniert Kugellagerfehlerzustand und Hauptwellenfehler (BFC & MSF). Eine modellhafte Untersuchungsanordnung wurde gemäß den tatsächlichen Betriebsbedingungen des Förderbandförderers für Kohle und den Forschungsanforderungen getroffen. Nach der Herstellung des SACR-Aufbaus wurden die Schwingungssignaturen aus dem zuvor diskutierten Modell für häufig auftretende Fehler erhalten. Diese Schwingungssignaturen werden einem digitalen Wandler zugeführt und in digitale Signale umgewandelt. Aus den digitalen Schwingungssignalen wurden statistische Merkmale berechnet. Dann wurden effektive statistische Merkmale extrahiert und als Eingabe für den Random-Forest-Algorithmus bereitgestellt, gefolgt von einer Kategorisierung, die durch den Random-Forest-Algorithmus durchgeführt wurde. In der aktuellen Arbeit erreichte der Random-Forest-Algorithmus eine Kategorisierungsgenauigkeit von 90,2 %, was die Korrektheit des Algorithmus bei der Fehlervorhersage, beim Ausfall von selbstausrichtenden Förderrollen und der Lebensdauerbewertung zusammenfasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7241-8_16 454e47c2be307c95d06f167c0370730e;de;;;2.4.;;;Forschung zur Erkennungsmethode für Motorlagerfehler basierend auf zyklischer Autokorrelationsfunktionsanalyse Im Falle eines Motorlagerausfalls nutzt dieses Papier mit dem Ziel der schwachen Lagerfehlereigenschaften im Statorstrom die Empfindlichkeit der zyklischen Autokorrelationsfunktion für anfängliche Fehlermerkmale und schlägt eine Motorlagerfehlererkennungsmethode basierend auf der zyklischen Autokorrelationsfunktionsanalyse vor. Zuerst wird gemäß dem Drehmomentschwankungsmodell der Statorstromausdruck des Lageraußenlaufbahnfehlers abgeleitet. Dann wird der aktuelle Ausdruck zu der zyklischen Autokorrelationsfunktion hinzugefügt, und das Ergebnis zeigt, dass das vorgeschlagene Verfahren nicht nur die fehlercharakteristische Frequenz demodulieren kann, sondern auch die Amplitude des fehlercharakteristischen Signals maximiert wird, indem die geeignete Schnittposition gewählt wird ist für die Fehlererkennung von Vorteil. Schließlich wird die experimentelle Plattform aufgebaut und die Fehlereigenschaften werden unter Verwendung des vorgeschlagenen Verfahrens effektiv extrahiert, und ihre Leistung ist offensichtlich besser als die der herkömmlichen Leistungsspektrumanalyse.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2862-0_16 b1cbbb3a7d963308c7b4392a9923c268;de;;;2.4.;;;Forschung zum Fahrmüdigkeitsgrad mit dem EKG-Signal vom Smart Bracelet Das Ermüdungsniveau wurde unter Verwendung von EKG-Signalen untersucht, die vom Smart-Armband gesammelt wurden, und die vom Smart-Armband gesammelten Daten konnten die Störung des Fahrers während des Experiments reduzieren und die Genauigkeit der Daten erhöhen. Um das Ermüdungsniveau genau zu bestimmen, wurde der Algorithmus des Fahrermüdungsniveaus basierend auf der Multiindex-Fusionstheorie vorgeschlagen. Mit dem Ziel, den fehlenden Status des umfassenden Indikators T-Wert aus der Hauptkomponentenanalyse zu ermitteln, wurde das neuronale BP-Netz zur Datenkompensation verwendet. Der Ermüdungsschwellenwert wurde auf der Grundlage des Peak-Tiefs des Gesamtindex-T-Werts bestimmt. Basierend auf experimentellen Analysen wurde festgestellt, dass der Algorithmus den Wachzustand und schwere Müdigkeitszustände effektiv identifizieren kann, wenn die Daten fehlen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0644-4_62 187e8f7c150263822a9b264a915f6d9d;de;;;2.4.;;;Über die Vorteile von asynchronem Pixellesen und -verarbeitung für die Hochgeschwindigkeits-Bewegungsschätzung Motion Biologische Sehsysteme werden zu einer interessanten Quelle für die Verbesserung künstlicher Sehsysteme. Eine biologisch inspirierte Auslese- und Pixelverarbeitungsstrategie wird vorgestellt. Dieser Auslesemechanismus basiert auf einer selektiven Pixeländerungsgesteuerten (SCD) Verarbeitung. Pixel werden einzeln verarbeitet und ausgelesen, anstelle des klassischen Ansatzes, bei dem das Auslesen und die Verarbeitung auf vollständigen Frames basiert. Wechselnde Pixel werden in kurzen Zeitintervallen ausgelesen und verarbeitet. Die simulierten Experimente zeigen, dass die Reaktionsverzögerung bei dieser Strategie um mehrere Größenordnungen geringer ist als bei aktuellen Kameras, während die Bandbreitenanforderungen gleich bleiben oder sogar noch enger werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89639-5_20 4e0f88bb3a75768f95162bee048f9925;de;;;2.4.;;;Ein neuer Weg, um ein Lexikon für die Börsenstimmung aufzubauen Der Aufbau eines domänenspezifischen Sentiment-Lexikons hat sich in den letzten Jahren zu einer wichtigen Richtung entwickelt, um die Leistung der Sentiment-Analyse zu verbessern. Als einer der wichtigen Anwendungsbereiche der Sentiment-Analyse gibt es auch an der Börse einige verwandte Forschungen. Betrachtet man jedoch die Heterogenität des Aktienmarktes im Vergleich zu anderen Bereichen, ignorieren diese Studien die Heterogenität des Aktienmarktes unter verschiedenen Marktbedingungen. Gleichzeitig ist das annotierte Korpus auch für diese Studien unverzichtbar, jedoch ist das kommentierte Korpus, insbesondere das nicht standardisierte, domänenspezifische und großvolumige Social-Media-Korpus sehr schwer zu beschaffen, eine manuelle oder automatische Kennzeichnung gewisse Einschränkungen. Außerdem orientiert sich das Börsenstimmungslexikon bei der Auswertung noch an den allgemeinen Bewertungskriterien des Klassifikationsalgorithmus, vernachlässigt aber den endgültigen Anwendungszweck der Stimmungsanalyse an der Börse: die Unterstützung der Börsenteilnehmer bei Anlageentscheidungen, d , um den höchsten Gewinn zu erzielen. Um diese Probleme anzugehen, schlägt dieses Papier eine unbeaufsichtigte neue Methode zur Konstruktion des Börsenstimmungslexikons vor, die auf der Heterogenität des Aktienmarktes basiert, und eine Bewertungsmethode des Börsenstimmungslexikons. Anschließend wählten wir vier häufig verwendete chinesische Stimmungswörterbücher als Benchmark-Lexika aus und verifizierten die Methode mit einem nicht gekennzeichneten Eastmoney-Aktienposting-Korpus mit 15.733.552 Posts über 2400 chinesische A-Aktien-börsennotierte Unternehmen. Schließlich hat das in diesem Papier erstellte Lexikon zur Aktienmarktstimmung im Rahmen unseres Lexikon-Bewertungsrahmens, der auf der annualisierten Rendite des Portfolios basiert, die beste Performance erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2810-1_34 476d2e8d9df8c066022dcb06d05d4cb8;de;;;2.4.;;;Forschung zum Fahrverhalten von Pkw-Fahrern in Bergstädten basierend auf GPS-Daten Um das Fahrverhalten von Stadtfahrern in Bergstädten zu untersuchen. In dieser Arbeit wurde eine moderne Datenverarbeitungstechnologie „GPS“ verwendet. Durch GPS-Erfassung und vergleichende Analyseverfahren wird der in zwei Tagen erhobene Fahrgeschwindigkeitswert von sechs Pkw in Chongqing verarbeitet und der effektive Beschleunigungswert herausgefiltert. Unter dem Gesichtspunkt des Anteils von starker Beschleunigung und akuter Verzögerung im Fahrvorgang des Fahrers wird die Fahrbeschleunigung von sechs Fahrzeugführern verglichen und klassifiziert, so dass die Fahrerverhaltenscharakteristika erhalten werden. Dann wird die Fahrgeschwindigkeit verschiedener Fahrer auf demselben Straßenabschnitt getrennt verglichen und die Verhaltenscharakteristiken verschiedener Fahrer für dieselbe Geschwindigkeitsbegrenzung zusammengefasst. Die Ergebnisse zeigen, dass: (1) Die Gewohnheiten verschiedener Fahrer im Fahrprozess nicht gleich sind, das Experiment aus drei Modellen, „Konstant bleiben“, „Beschleunigungspräferenz“, „Schnell und Langsam“, (2) Weil Aufgrund seiner Eigenschaften ist der Geschwindigkeitsbereich des Pkw im Fahrbetrieb nicht groß. Das heißt, beim Fahren des Pkw steuern unterschiedliche Fahrer die Fahrgeschwindigkeit in einem stabileren Bereich, (3) Unterschiedliche Fahrer behandeln beim Überqueren derselben Straße so genannte Geschwindigkeitsbegrenzungsschilder unterschiedlich, das Experiment aus zwei Arten, „Komplett“ Follow“ und „Appropriate to Follow“, (4) Chongqing gehört zur Bergstadt, die große Anzahl von Tunneln und Brücken in den Passagierwegen macht die Autofahrer wachsamer als andere flache Gebiete. Führen Sie in diesem Papier eine quantitative Analyse des Fahrverhaltens des Fahrers aus dem Blickwinkel von GPS-Daten durch, die für die Managementabteilung hilfreich ist, um das Fahrverhalten wie z.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0644-4_113 87e7cd1a2b4ab4ddf290cb30fe70a33a;de;;;2.4.;;;Analyse des Pflanzenwurzelsystems aus MRT-Bildern Wir präsentieren eine neuartige Methode zur Ableitung eines Strukturmodells eines Pflanzenwurzelsystems aus 3D-Magnetresonanztomografiedaten (MRI) von im Boden gewachsenen Pflanzen und verwenden es für die Analyse des Pflanzenwurzelsystems. Das Strukturmodell ermöglicht die Berechnung physiologisch relevanter Parameter. Grob gesagt zeigen MRT-Bilder den lokalen Wassergehalt der untersuchten Probe. Die geringen lokalen Wassermengen in den Wurzeln erfordern eine relativ hohe Auflösung, was zu Bildern mit niedrigem SNR führt. Die räumliche Auflösung der MRT-Bilder bleibt jedoch im Verhältnis zum Durchmesser typischer Feinwurzeln grob, was zu vielen Lücken im sichtbaren Wurzelsystem führt. Um die Wurzelstruktur zu rekonstruieren, schlagen wir einen dreistufigen Ansatz vor: 1) röhrenförmige Strukturen erkennen, 2) alle Pixel unter Verwendung des Dijkstras-Algorithmus mit der Basis der Wurzel verbinden und 3) den Baum unter Verwendung von zwei signalstärkebezogenen Schwellenwerten beschneiden. Der Dijkstras-Algorithmus bestimmt den kürzesten Weg jedes Voxels zur Basis der Pflanzenwurzel, indem er das euklidische Distanzmaß mit einem mehrskaligen Gefäßmaß misst. Als Ergebnis werden Pfade, die innerhalb guter Wurzelkandidaten verlaufen, Pfaden in nacktem Boden vorgezogen. Wir testen diese Methode sowohl mit virtuell erzeugten MRT-Bildern von Mais als auch mit realen MRT-Bildern von Gerstenwurzeln. In Experimenten mit synthetischen Daten zeigen wir Einschränkungen unseres Algorithmus in Bezug auf Auflösung und Rauschpegel. Darüber hinaus zeigen wir, wie wir unsere Rekonstruktion zur Wurzelphänotypisierung an realen MRT-Daten von Gerstenwurzeln und Zuckererbsen im Boden verwenden können. Als Erweiterung unserer Konferenzpublikation [1] zeigen wir, wie das Strukturmodell zur Entfernung unerwünschter Strukturen, wie beispielsweise unterirdischer Unkräuter, genutzt werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38241-3_28 502dfa8319a350680d94d88c2ae2aa9e;de;;;2.4.;;;Anerkennungsverfahren für Apfelfrüchte basierend auf SUSAN und PCNN Diese Studie schlägt eine Erkennungsmethode für Apfelfrüchte basierend auf SUSAN (Smallest univalues ​​segment assimilating nucleus) und PCNN (Pulse Coupled Neural Network) vor, um Fruchtziele genau zu identifizieren und zu lokalisieren. Zunächst wird homomorphe Filterung verwendet, um eine Bildverbesserung durchzuführen, indem der Einfluss unterschiedlicher Beleuchtungsbedingungen auf den Segmentierungseffekt berücksichtigt wird, wodurch eine Lichtkompensation erreicht wird. Nachdem ein Bild durch R-G-Farbunterschiede im RGB-Farbraum verarbeitet wurde, wird das Apfelbild unter Verwendung des PCNN-Bildsegmentierungsverfahrens basierend auf minimaler Kreuzentropie segmentiert. Im Hinblick auf die vorherige Kenntnis des maximalen und minimalen Radius der Apfelfrucht wird ein verbessertes zufälliges Hough-Transformationsverfahren verwendet, um den charakteristischen Kreis des Apfelziels entsprechend der durch den SUSAN-Kantenerkennungsalgorithmus erhaltenen Kante des Apfelziels zu erkennen. Vergleichsexperimente mit verschiedenen Segmentierungsalgorithmen bestätigen, dass der Algorithmus dieser Studie eine hervorragende Leistung bei der Reduzierung des Einflusses von unzureichendem Licht auf das Segmentierungsergebnis aufweist. In 50 Bildern wurden 93% der Äpfel genau identifiziert, was die Wirksamkeit des Algorithmus in dieser Studie beweist.;-;-;-;https://link.springer.com/article/10.1007/s11042-017-4629-6 75adcd84e461c840652ec2cf1535d634;de;;;2.4.;;;Stabilitätsanalyse im Zustandsraum für nicht angetriebene MEMS-Gyro Der nicht angetriebene MEMS-Kreisel ist ein neuartiger mikromechanischer Vibrationskreisel, der selbst keine Antriebsstruktur besitzt. Der Kreisel ist an einem rotierenden Flugzeug installiert und nutzt die Drehung des Trägers, um einen Drehimpuls zu erhalten. Wenn der Träger eine Querdrehung erzeugt, wirkt eine periodische Corioliskraft auf die empfindliche Masse des MEMS-Kreisels, um die Quereingangswinkelgeschwindigkeit des sich drehenden Trägers zu erfassen. In Anwendungen haben wir festgestellt, dass der MEMS-Kreisel einem hohen Stoß ausgesetzt ist, wenn der Träger zu starten beginnt. Wenn die empfindliche Masse nicht ins Gleichgewicht zurückkehren kann, funktioniert der Kreisel nicht richtig. Die Stabilität des Kreisels ist also die entscheidende Frage, ob er richtig funktionieren kann. In diesem Artikel haben wir die Stabilität des MEMS-Kreisels im Detail analysiert, indem wir zum ersten Mal das Stabilitätsprinzip von Lyapunov verwendet haben. Zuerst haben wir basierend auf dem Konstruktionsprinzip des MEMS-Kreisels unter Verwendung der dynamischen Euler-Gleichung eines um einen Fixpunkt rotierenden starren Körpers die Winkelschwingung der empfindlichen Masse des Kreisels beschrieben und ihre Bewegungsgleichung erhalten. Die Bewegung ist das System zweiter Ordnung. Dann haben wir einen geeigneten Zustandsvektor ausgewählt und ein Zustandsraummodell im Zustandsraum etabliert, um die Bewegung der empfindlichen Masse zu beschreiben. Um die Stabilität des entworfenen MEMS-Kreisels unter Verwendung des Lyapunov-Stabilitätsprinzips zu untersuchen, muss eine Lyapunov-Funktion gefunden werden. Daher haben wir eine quadratische Funktion erstellt und bewiesen, dass ihre Lyapunov-Matrixgleichung eine Lösung hat. Die Matrixlösung ist symmetrisch und positiv definit. Somit ist die gefundene quadratische Funktion eine Lyapunov-Funktion. Gemäß dem Lyapunov-Stabilitätsprinzip ist der entworfene MEMS-Kreisel asymptotisch stabil. Als nächstes haben wir unter Verwendung numerischer Berechnungen die Simulation der Einheitsimpulsantwort durchgeführt. Die Ansprechkurve hat gezeigt, dass das System des konstruierten MEMS-Kreisels nach 160 ms wieder ins Gleichgewicht kommen kann. Schließlich wird der MEMS-Kreisel zur weiteren Überprüfung auf dem Schocktisch zum Testen befestigt. Die Stoßwelle ist ein Halbsinus mit einer Stärke von 60 g und einer Impulsbreite von 80 ms. Das getestete Ergebnis hat gezeigt, dass das Ausgangssignal des entworfenen MEMS-Gyros nach 150 ms unter Schockstörung wieder in die Nullposition zurückkehren kann.;-;-;-;https://link.springer.com/article/10.1007/s00542-018-4155-0 13d1193b9056ceb9d0445c58a46b836e;de;;;2.4.;;;Bildbasierte Diagnose von Demenzerkrankungen durch tiefgreifendes paarweises Lernen mit geringen Ressourcen Medizinische Bilddaten sind weithin bekannt für ihre großen Mengen, ihre hohe Komplexität und ihre begrenzten Etiketteninformationen, was lernbasierte Aufgaben erschwert, um auf der Grundlage solcher Bilddaten eine vielversprechende Leistung zu erzielen. Auch die Alzheimer-Krankheit, eine der fünf schwersten nichtübertragbaren Krankheiten weltweit, genießt derzeit sowohl in der akademischen Forschung als auch in der klinischen Diagnostik große Aufmerksamkeit. Es ist allgemein anerkannt, dass die Magnetresonanztomographie, ein beliebtes bildgebendes Werkzeug, da es im Hinblick auf die Sicherheit der Patienten strahlenfrei ist, in den letzten Jahren in großem Umfang bei der Diagnose der Alzheimer-Krankheit eingesetzt wurde. Die meisten aktuellen klinischen Diagnosebemühungen verlassen sich jedoch immer noch stark auf das Fachwissen der Kliniker, um die Aufgabe der Krankheitsdiagnose zu erfüllen. In dieser Studie, die von der jüngsten schnellen Entwicklung von Deep Learning und ressourcenarmen Lerntechniken inspiriert wurde, wird ein neues bildbasiertes Krankheitsdiagnoseschema vorgeschlagen, um die Diagnose der Alzheimer-Krankheit basierend auf arteriellen Spinmarkierungs-Magnetresonanzbildern automatisch zu erfüllen. Dieses neue End-to-End-Lernschema mit geringen Ressourcen wird in vier Schritten durchgeführt. Zunächst müssen rohe arterielle Spin-Labeling-Bilder aufgenommen werden und wesentliche Vorverarbeitungsschritte sollten an rohen Bildern durchgeführt werden. Zweitens wird die beliebte Convolutional Neural Network-Technik verwendet, um automatisch latente trainierbare Merkmale aus verarbeiteten Arterien-Spin-Kennzeichnungsbildern zu extrahieren, anstatt herkömmlicher handgefertigter Merkmale. Drittens wird ein neuartiges paarweises Lernverfahren mit geringem Ressourcenaufwand, inspiriert von der semi-überwachten Lerntheorie, basierend auf latent trainierbaren Merkmalen zur automatischen Bestimmung von Krankheitsähnlichkeitsfunktionen durchgeführt. Viertens werden die erlernten Ergebnisse dann in ein multinominales logistisches Regressionsmodell eingespeist und ein Regressionsprozess mit der höchsten A-posteriori-Wahrscheinlichkeit ist in der Lage, das entsprechende Krankheitsdiagnoseergebnis aufzudecken. Umfangreiche Experimente auf der Grundlage einer Datenbank aus Magnetresonanzbildern von 350 echten Demenzpatienten werden durchgeführt, wobei das neu aufgestellte Schema mit mehreren anderen bekannten Diagnosewerkzeugen verglichen wird. Alle Diagnoseergebnisse wurden einer strengen und umfassenden statistischen Analyse unterzogen, die aus einer Varianzanalyse und mehreren Vergleichstests besteht. Die Überlegenheit des neuen Schemas wurde darin demonstriert.;-;-;-;https://link.springer.com/article/10.1007/s11042-017-4492-5 835544c9bc335a7ee8dac509c4ff862d;de;;;2.4.;;;Forschung zur Echtzeit-Überwachungsmethode der Blockierung von Kommunikationsnetzwerken basierend auf Cloud Computing Mit Blick auf die Probleme, dass das herkömmliche Verfahren eine lange Reaktionszeit auf die Überwachung der Überlastung des Kommunikationsnetzes hat und der Detektionseffekt nicht ideal ist, wird ein Echtzeit-Überwachungsverfahren basierend auf Cloud-Computing zum Blockieren von Kommunikationsnetzen vorgeschlagen. Zuerst wird der Kommunikationsnetz-Überwachungspunkt eingerichtet, und der Kommunikationsdaten-Sammelprozess wird durch den Hochfrequenzempfänger abgeschlossen. Auf dieser Grundlage wird die Echtzeit-Verkehrsberechnung der gesammelten Daten durchgeführt, um das Vorliegen eines anormalen Blockierungsstatus in der Kommunikationsnetzverbindung zu bestimmen, und die genaue Positionierung des Blockierungspunkts wird erhalten. Die Informationen erzeugen somit eine Alarmmeldung, um ein Überwachungsergebnis zu erhalten. Die Echtzeit und Genauigkeit der Überwachungsmethode werden experimentell analysiert. Es hat sich herausgestellt, dass das Überwachungsverfahren die Verzögerungszeit innerhalb von 0,2 s steuern kann und die Überwachungsfehlerrate gering ist. Es ist ersichtlich, dass der Überwachungsalgorithmus eine hohe Leistung aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-67871-5_9 960731bfaa06dd8bc261fb3df23887ec;de;;;2.4.;;;Begründung von Alterskrankheiten basierend auf einem Knowledge Graph Der Mangel an Gesundheitsversorgung für das Altern ist zu einer der größten Herausforderungen Chinas geworden. Die Hauptarbeit dieser Arbeit besteht darin, eine Datenbank eines geriatrischen Wissensgraphen aufzubauen und drei Inferenzregeln basierend auf dem Bayes-Algorithmus vorzuschlagen, die älteren Menschen effektiv helfen können, ihre Gesundheit besser zu verstehen und den abnormalen Zustand so schnell wie möglich herauszufinden. Gleichzeitig kann es Ärzten helfen, medizinische Hilfsentscheidungen zu treffen und die Heilungsrate zu verbessern. In diesem Artikel wurde ein vollständiger Prozess zum Erstellen eines Wissensgraphen vorgestellt, vom Entwurf der Schemastruktur bis zur Datenerfassung und der Verarbeitung der Daten, bis sie dem Standard entsprechen. Vor der Anwendung auf das Krankheitsdenken importierten wir Wissensdaten in die Neo4j-Graphdatenbank, um die Inferenzflexibilität und Genauigkeit des Wissensgraphen voll auszuschöpfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1925-3_33 289145b914511ae02c15cf9296fa70e9;de;;;2.4.;;;Design von funktionalen Sicherheitssystemen auf EPS Dieses Papier zielt darauf ab, die Sicherheitsdesign- und -analysemethode gemäß ISO 26262 basierend auf der EPS-Anwendung (Electric Power Steering) vorzustellen. Dieses Papier enthält sechs Abschnitte. Im ersten Abschnitt wird der Grundgedanke der funktionalen Sicherheit zur Risikominderung und das Arbeitsprinzip von Ritzel-EPS vorgestellt. Anschließend erfolgt die Gefahrenanalyse und Risikobewertung des EPS-Systems, die für die Konzeptphase der Funktionalen Sicherheit von Bedeutung ist. Aus dem HARA (Hazard Analysis and Risk Assessment) Ergebnis werden Sicherheitsziel und Sicherheitsanforderung abgeleitet sowie der Sicherheitsmechanismus entworfen. Um die Plausibilität des Entwurfs von Sicherheitsmechanismen zu überprüfen, wird eine Fehleranalyse als Nachweis für den Sicherheitsnachweisbericht durchgeführt. Die Fehleranalyse wird mittels FMEDA und PMHF abgeschlossen. Und als innovativer Teil dieses Papiers wird ein Markov-Modell für den Sicherheitspfad erstellt und die qualitative Analyse angewendet. Zu guter Letzt schließt der sechste Abschnitt ein Fazit der Arbeit ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-3527-2_55 0c920d5a8470e76b1d8312310311d908;de;;;2.4.;;;Ein Entscheidungsunterstützungssystem für die Priorisierung von Softwareprozessverbesserungen Softwaremanager, die Initiativen zur Prozessverbesserung verfolgen, stehen vor dem Problem, Verbesserungspotenziale auszuwählen. Im Bereich der Software-Qualitätssicherung gibt es noch keine geeigneten Entscheidungshilfen zur Priorisierung der Optimierung von Aktivitäten nach ihrem Return on Investment. Unser Beitrag adressiert diese Forschungslücke. Wir entwickeln ein Entscheidungsunterstützungssystem, das die Auswahl und Priorisierung von Qualitätssicherungsaktivitäten erleichtert. Wir demonstrieren die Anwendbarkeit des Systems in drei industriellen Fallstudien. Indem wir uns auf die Eigenschaften und Kalibrierdaten des bekannten COQUALMO-Modells verlassen, ist unser Ansatz mit geringem Datenerfassungsaufwand industriell anwendbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20116-5_7 5f382c138ff227f54ed99bef2f8ccd5d;de;;;2.4.;;;Informationsgewinnung von abgesenktem Ackerland in Kohlebergwerken mit hohem Grundwasserspiegel basierend auf unbemannten Luftfahrzeugsichtbändern Die schnelle und kostengünstige Identifizierung und Bestimmung der Grenzen von abgesenktem Kulturland in Kohlebergwerken mit hohem Grundwasserspiegel ist ein dringender Bedarf für die Landgewinnung von Kohlebergwerken. Eine genaue Entnahme von abgesenktem Ackerland kann Basisdaten für die Grenzbestimmung liefern. Unter Verwendung von Fernerkundungsbildern unbemannter Luftfahrzeuge als Datenquelle wurden die spektralen Kennwerte typischer Bodenobjekte in roten, grünen und blauen Bändern analysiert und 10 Vegetationsindizes im sichtbaren Bereich ausgewählt und zur Extraktion des kultivierten Landes verwendet . Durch Berechnung und Analyse des Vegetationsindex, Exzess-Grün-Index (EXG), Vegetations-Index (VEG), Kombinations-Index 2 (COM2), Sichtbare-Band-Differenz-Vegetationsindex (VDVI), Rot-Grün-Blau-Vegetationsindex (RGBVI) und Farbindex von Vegetation (CIVE) wurden für die Informationsextraktion von Kulturland ausgewählt. Die folgenden Ergebnisse wurden erhalten: Durch visuelle Beurteilung wurden zunächst VEG, EXG und CIVE ausgeschlossen. Die mit COM2-, VDVI- und RGBVI-Indizes erhaltenen Ergebnisse waren relativ ähnlich. Zur Bewertung der Genauigkeit wurden die interessierenden Anbauflächen verwendet, und die Ergebnisse waren in absteigender Genauigkeit wie folgt: COM2 (85,27 %), VDVI (81,05 %) und RGBVI (71,38 %). Ein weiteres Gebiet wurde für die Überprüfung der Gewinnung mittels COM2 ausgewählt und die Ergebnisse zeigten, dass die Genauigkeit der Ackerlandgewinnung 91,90% beträgt, was auf eine Anwendbarkeit für die Informationsgewinnung von abgesenktem Ackerland in Kohlebergwerken mit hohem Grundwasserspiegel hindeutet. Diese Studie liefert Basisdaten und Referenzverfahren für die Bestimmung von Grenzen und Landgewinnung von abgesenktem Kulturland in Kohlebergwerken mit hohem Grundwasserspiegel.;-;-;-;https://link.springer.com/article/10.1007/s12665-019-8417-7 bfdff331ec84e582771d18610ec71429;de;;;2.4.;;;Auswahl von Trainingsbeispielen aus umfangreichen Remote-Sensing-Beispielen mit einem aktiven Lernalgorithmus Basierend auf der Margin-Sampling-Strategie (MS) wurde ein aktiver Lernansatz für die vorgeschlagene Stichprobenauswahl aus großen Mengen markierter Stichproben unter Verwendung eines Landsat-7 ETM+-Bildes eingeführt, um die Klassifikationsprobleme von Fernerkundungsbildern für eine große Anzahl von Trainingsstichproben zu lösen. Als Durchbruch gegenüber herkömmlichen Zufallsstichproben und geschichteten systematischen Stichprobenverfahren stellt dieser Ansatz sicher, dass nur wenige hundert Trainingsstichproben genauso effektiv sind wie die Verwendung mehrerer Tausend oder sogar Zehntausende von Stichproben mit herkömmlichen Methoden, wodurch enorme Berechnungen vermieden werden , wodurch die Betriebszeit erheblich verkürzt und die Trainingseffizienz verbessert wird. Die Testergebnisse des vorgeschlagenen Ansatzes wurden mit denen von Zufallsstichproben und geschichteten systematischen Stichproben verglichen und die Auswirkungen von Trainingsstichproben auf die Klassifizierung unter optimierten und nicht optimierten Auswahlbedingungen analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0356-1_5 7f2ad111172cc85060d7f6a2d4f40536;de;;;2.4.;;;Chronischer Wissensabruf und intelligente Gesundheitsdienste basierend auf Big Data Nach Angaben der Weltgesundheitsorganisation (WHO) sind chronische nichtübertragbare Krankheiten die Krankheit mit der höchsten Sterblichkeitsrate. Dieses Papier ist aus der Perspektive, die Gesundheit von Menschen mit chronischen Krankheiten zu sichern. Die Forschung gewinnt das Gesundheitswissen aus Big Data der chronischen Erkrankungen und wird auf Smart Health Service Methoden übertragen. Durch das Sammeln von Daten in sozialen Medien und die Integration großer Mengen elektronischer Patientenakten, medizinischer Forschungsliteratur und tragbarer Geräte in persönliche Gesundheitsdaten ist es unser Ziel, eine gesunde Big-Data-Umgebung aufzubauen. Auf dieser Grundlage gewinnen wir das damit verbundene Wissen über chronische Erkrankungen, indem wir die Symptome, die Krankheiten und Behandlungsmöglichkeiten extrahieren, den Zusammenhang von unerwünschten Arzneimittelwirkungen ableiten, gesundheitsbezogene emotionale Reaktionen sammeln, soziale Kommunikationsinformationen der Patienten ausgraben usw Entscheidungsunterstützung für die Patienten bereitzustellen und personalisierte medizinische Dienste und gemeinnützige Dienste zu erreichen. Dieses Papier konzentriert sich auf die Inhalte, die Wissensentdeckungstechnologie, personalisierte Entscheidungsunterstützungstechnologie, kommunale Gesundheitsdienste usw. abschließen, die sich auf die Big Data im Gesundheitsbereich in den sozialen Medien beziehen, und schlägt dann das Sammeln, Ausgraben und Verwalten von Big Data der Gesundheit chronischer Krankheiten vor und bildet den theoretischen Rahmen des Wissens über chronische Krankheiten, um die Realisierung der Smart Health Services zu fördern;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-29175-8_22 b72d6aa37649cd3278ced4096ea5be95;de;;;2.4.;;;Erkennung von Bildfälschungen durch Kopieren und Verschieben mit diskreter Wavelet-Transformation Um visuelle Informationen auszudrücken, spielen digitale Bilder eine bedeutende Rolle. In den sozialen Medien nehmen diese Informationen in Form von digitalen Bildern ständig zu. Heutzutage werden digitale Bilder von Menschen leicht falsch dargestellt, weil Software zur Bildverarbeitung verfügbar ist. In diesem Papier stellen wir neue Ansätze vor, die Copy-Move-Fälschungen in Bildern mithilfe von DWT identifizieren. Zuerst lesen wir das Bild und konvertieren dieses Bild in ein Graustufenbild. Dann wenden Sie die Wavelet-Transformation an. Extrahieren Sie überlappte Blöcke mit hohem Kontrast der gröbsten Stufe. Dann lexikografisches Sortieren und Berechnen der Phasenkorrelation zwischen den Zeilen. Extrahieren Sie Blöcke aus der Referenz- und Match-Region. Zeichnen Sie dann die duplizierte Region. Zur Bewertung unseres Systems berechnen wir TPR, FPR, Genauigkeit und AUC. Unsere Systemgenauigkeit;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0507-9_14 f258fd8f99d43be3a7234b64efa26fdf;de;;;2.4.;;;Forschung zum Lernstatus und Gegenmaßnahmen von Online-Kursen für College-Studenten In den letzten Jahren nimmt das Online-Lernen mit der Entwicklung der Internet-Technologie allmählich zu und wird immer beliebter. Viele Colleges und Universitäten in China haben Online-Kurse eröffnet und die traditionelle Lernmethode der College-Studenten hat sich stark verändert. Online-Kurse werden von der Mehrheit der Benutzer aufgrund ihrer reichhaltigen Ressourcen, abwechslungsreichen Lernformen und flexiblen und praktischen Funktionen bevorzugt. In diesem Beitrag wird der Bewerbungsstatus von Online-Kursen im Hochschulstudium untersucht, um die Lernsituation, den Lerneffekt und den Lernbedarf von Hochschulstudenten bei der Nutzung von Online-Kursen zu diskutieren und entsprechende Gegenmaßnahmen zur Förderung der weiteren Förderung und des Aufbaus aufzuzeigen von Online-Kursen zum Lernen von College-Studenten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6113-9_24 872f00afa5b3ceed725a53b7d03cf826;de;;;2.4.;;;MRT Super-Resolution mit Mehrkanal-Gesamtvariation In diesem Beitrag wird ein generatives Modell für Superauflösung in klinischen Routine-Magnetresonanzbildern (MRT) mit beliebiger Ausrichtung und Kontrast vorgestellt. Das Modell stellt die Wiederherstellung von hochauflösenden Bildern als inverses Problem um, bei dem ein Vorwärtsmodell das Schichtauswahlprofil des MR-Scanners simuliert. Das Papier stellt eine Vorstufe vor, die auf der Mehrkanal-Gesamtvariation für die MRT-Superauflösung basiert. Der Bias-Varianz-Trade-off wird gehandhabt, indem Hyperparameter aus den Eingabescans mit niedriger Auflösung geschätzt werden. Das Modell wurde anhand einer großen Datenbank von Gehirnbildern validiert. Die Validierung zeigte, dass das Modell die Gehirnsegmentierung verbessern kann, dass es anatomische Informationen zwischen Bildern mit unterschiedlichen MR-Kontrasten wiedergewinnen kann und dass es sich gut auf die große Variabilität in MR-Bildern verschiedener Probanden verallgemeinern lässt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-95921-4_21 9e069d88415734dc542ec47ac1950d4b;de;;;2.4.;;;Forschung und Implementierung eines rauscharmen X-Band-Frequenzvervielfachers Mit der Entwicklung der Kommunikationstechnik werden an die Frequenzquelle ein geringeres Phasenrauschen, ein hochreineres Spektrum und eine höhere Frequenzstabilisierung gefordert. Im Mikrowellenband wurde eine phasenstarre Abtastschleife mit hoher Ausgangsfrequenz, geringem Addieren-Phasenrauschen, geringem Volumen und geringer Leistung weit verbreitet in einigen Bereichen wie der Luftfahrt, Militär- und Satellitenkommunikation verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4163-6_59 5eb8651a83704f7a7b193c3a4c2cad6d;de;;;2.4.;;;Forschung zur Big-Data-Fusion-Methode von Smart Grid im Umfeld des Internets der Dinge Die gegenseitige Durchdringung und tiefe Integration des Internets der Dinge und des Stromnetzes machen das moderne Stromnetz intelligenter. Die Big Data des Smart Grid werden auf verschiedene Ebenen mehrerer Geschäftssysteme jeder Einheit verteilt. Es gibt unterschiedliche Datenstrukturen, inkonsistente Muster und inkonsistente Standards. Für ein chinesisches Smart Grid ist es schwierig, heterogene Daten aus mehreren Quellen einheitlich zu verwalten. In diesem Artikel wird untersucht, wie Datenfusionstechnologie mit Anforderungen des Unternehmensmanagements kombiniert und verteilte Daten in verschiedenen Geschäftssystemen in ein einheitliches, genaues und entscheidungsorientiertes Format umgewandelt werden können. Dementsprechend können wir Informationsbarrieren beseitigen, Unternehmensdatenressourcen teilen und auch die Führungsebene des Unternehmens fördern. Erstens wird in diesem Papier eine Datenbereinigungstechnologie verwendet, um heterogene Daten aus mehreren Quellen des Smart Grid vorzuverarbeiten. Ziel ist es, eine einheitliche Struktur zu schaffen und die Datenfusion zu erleichtern. Dann wird ein heterogenes Datenfusionsmodell mit mehreren Quellen vorgeschlagen, um eine Datenfusion auf verschiedenen Ebenen gemäß den mehrschichtigen Strategien des Internets der Dinge zu erreichen. Die Datenfusion und das Markov-Logiknetzwerk werden verwendet, um sich auf das Datenkonfliktproblem während des Fusionsprozesses zu konzentrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00018-9_56 6dee29295e8a563e9cc486fdca71115d;de;;;2.4.;;;Studie des Hilfsroboters zur Demontage und Montage von Mid-Set-Schalterkabinen basierend auf BCI Um das Problem zu lösen, dass der Arbeitsraum der zentralen Schaltanlage oder der Stromwandler begrenzt sind und eine einzelne Person die Operation nicht durchführen kann, wird die Brain-Computer-Interface-Technologie (BCI) auf die eigentliche Operation angewendet. In diesem Artikel werden die δ (0–4 Hz) und θ(4–8 Hz) Subbänder von EEG-Signalen durch Wavelet-Zerlegung (WD) erhalten. Die Beziehung zwischen den 14 Paaren von EEG-Kanälen wurde unter Verwendung des Pearson-Korrelationskoeffizienten bestimmt. Die Bewegungseigenschaften werden dann unter Verwendung der Gültigkeit von Gehirnnetzwerkparametern analysiert. Gleichzeitig werden Augenbewegungsmerkmale aus den F3- und F4-Kanälen extrahiert. Schließlich können die durch das Gehirnnetzwerk und die Augenbewegungsmerkmale identifizierten Bewegungsmerkmale bei der Demontage und Montage des Transformators helfen. Die experimentellen Ergebnisse zeigen, dass die Genauigkeit der linken und rechten Bewegungserkennung über 97% beträgt. Im Vergleich zur traditionellen Demontagemethode hat sich die Effizienz um fast 60 % erhöht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9050-1_2 601265e23b4799f4ac434c9ea0f56dd4;de;;;2.4.;;;Automatisierte Zellzählung zur Erkennung von Leukämie und Malaria basierend auf RGB- und HSV-Farbraumanalyse Es gibt verschiedene Arten von Krankheiten, die aus dem Blut stammen, zum Beispiel Leukämie, Malaria und Anämie. Leukämie ist eine Krebserkrankung, die in blutbildenden Geweben, normalerweise im Knochenmark, beginnt. Andererseits wird Malaria durch den Stich einer infizierten Mücke übertragen, die den Parasiten Plasmodium trägt. Hämatologen müssen die Leukämiezählung durchführen, um festzustellen, ob eine Person an Leukämie und Parasiten leidet, um die Malariadichte zu überprüfen. Das herkömmliche Verfahren ist jedoch aufgrund von menschlichen Fehlern und großem Zeitaufwand sehr anfällig. Als Lösung schlägt diese Studie eine automatisierte Zellzählung zur Leukämie- und Malariaerkennung vor, indem die beste Farbkomponente der RGB- und HSV-Farbräume analysiert wird. Um das Ergebnis der Zellzählung zu erhalten, müssen mehrere Bildverarbeitungsschritte implementiert werden: (1) Bildaufnahme durch Erfassung der Leukämie-Blutproben mit einem computergesteuerten Leica DLMA 1200 Digitalmikroskop, (2) Farbkonvertierung von RGB in eine einzelne Farbkomponente von RGB und HSV, (3) Bildsegmentierung unter Verwendung von Otsu-Schwellenwerten, (4) Entfernen unerwünschter Bereiche und (5) Zellzählprozess. Insgesamt hat sich die Segmentierung mit der Grünkomponente des RGB-Farbraums mit 83,84 % als die beste bei der Segmentierung von Leukämiebildern erwiesen, während die Sättigungskomponente des HSV-Farbraums mit 89,87 % die höchste Genauigkeit für Malariabilder bietet. Zusammenfassend wird erwartet, dass diese Forschung dazu beiträgt, die Erkennungsphase von Malaria- und Leukämie-Erkrankungen zu verbessern, indem die in dieser Forschung identifizierten Probleme überwunden werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5281-6_70 9eee1b9ca803af615c0b8ae96c6736d2;de;;;2.4.;;;Die räumliche und zeitliche Natur urbaner Objekte Object Der Zweck dieses Kapitels besteht darin, aus einer Anwendungsperspektive den Nutzen der Fernerkundung zu untersuchen, um Daten über städtische und vorstädtische Gebiete für Stadtplanung und -management (UPM) zu sammeln. Konkret geht es in dem Kapitel um den Einsatz der Fernerkundung auf zwei unterschiedlichen räumlichen Ebenen, den Informationsbedarf im Hinblick auf das Monitoring geplanter und ungeplanter Entwicklungen sowie die optimalen räumlichen und zeitlichen Voraussetzungen für die dabei verwendeten Bilder.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-4385-7_5 3e40b7a0893e4a4585879ccf029b89ff;de;;;2.4.;;;Erkennung von Gesichts-Spoofing auf Geräten mit geringem Stromverbrauch durch Einbettungen mit räumlichen und frequenzbasierten Deskriptoren Eine Face-Spoofing-Attacke tritt auf, wenn ein Eindringling versucht, sich als eine Person mit einer gewünschten Authentifizierungsfreigabe auszugeben. Um solche Einbrüche zu erkennen, haben viele Forscher ihre Anstrengungen unternommen, um die visuelle Liveness-Erkennung als Hauptindikator zum Blockieren von Spoofing-Verstößen zu untersuchen. In dieser Arbeit betrachten wir Low-Power-Geräte durch die Kombination von Fourier-Transformationen, verschiedenen Klassifizierungsmethoden und Low-Level-Feature-Deskriptoren, um abzuschätzen, ob Probeabtastungen Spoofing-Angriffen entsprechen. Die vorgeschlagene Methode hat geringe Rechenkosten und ist nach unserem besten Wissen der erste Ansatz, der Merkmale zuordnet, die sowohl aus dem Raum- als auch aus dem Frequenzbereich extrahiert wurden. Wir führen Experimente mit Einbettungen von Support Vector Machines und Partial Least Squares in aktuellen und bekannten Datensätzen unter gleichen und datenbankübergreifenden Einstellungen durch. Die Ergebnisse zeigen, dass unser Ansatz, obwohl er auf ressourcenbegrenzte Single-Board-Computer ausgerichtet ist, signifikante Ergebnisse erzielen kann und moderne Methoden übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-33904-3_17 4abb0981a8f29c3323ff949b3717f6e1;de;;;2.4.;;;Genius Network Communication Process Registrierung und Analyse Die Abschätzung der Zyklusdauer des Informationsaustauschs in industriellen Netzwerken ist ein wesentliches Thema, da die Kenntnis dieses Parameters die Beantwortung mehrerer Fragen im Zusammenhang mit der Erfüllung von Annahmen des Echtzeitsystems oder des redundanten Systemdesigns ermöglicht. Die charakteristischen Merkmale von Systemen mit Redundanz der Kommunikationsverbindung sind die Verzögerungen beim Schalten der redundanten Busse. Dies kann eine Registrierung der Zeitwerte erfordern, vorzugsweise im „Online“-Modus. Die Autoren diskutierten genau dieses Thema und versuchten, das Ziel der Registrierung des Kommunikationsprozesses und des Wertes der Netzwerk-Sweep-Zeit in einem beispielhaften Genius-Netzwerk mit Standard-Computerwerkzeugen zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21771-5_34 497b8f4d44bd1d72cadc693c50b8b010;de;;;2.4.;;;Brustkrebserkennung mittels digitaler Brust-Tomosynthese Der Tumor ist ein unerwünschtes Gewebe, das sich in der Brust entwickelt. Brustkrebs kann eine Schwellung, eine Veränderung der Brustform, Hautausschläge und die wässrig-ähnliche Substanz aus der Brustwarze umfassen – American Cancer Society (Breast Cancer, 2011) [1]. Wenn sich der Krebs ausbreitet, kann es zu verschiedenen Symptomen wie Schmerzen in der Brust und Schwellungen kommen. Bei der herkömmlichen zweidimensionalen Mammographie ist die Überlappung der Gewebe ein sehr erhebliches Problem. Zur Identifizierung der Brustmassen wird die neue Methodik der digitalen Brusttomosynthese verwendet. Die Eingangsbilder werden unter Verwendung einer adaptiven Medianfiltertechnik vorverarbeitet, die das Impulsrauschen reduziert. In der nächsten Stufe wird das Bild unter Verwendung des Gaußschen Mischungsmodells (GMM) segmentiert, wobei GMM eine Kategorie des Clustering-Algorithmus ist. Als nächstes werden die Bilder einer Merkmalsextraktion unterzogen. Und schließlich wird es für die Merkmalsklassifizierung unter Verwendung des probabilistischen neuronalen Netzes (PNN)-Klassifikators in Betracht gezogen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-5802-9_63 df1fa4f43bcdabe0702fb9cce550d2ed;de;;;2.4.;;;Design und Prototyping eines Embedded Controller Boards für PV-EV-Ladestationen Dieses Papier zielt darauf ab, das Design und die Realisierung eines vollständig eingebetteten Boards vorzustellen, das in der Lage ist, alle Optimierungs-, Steuerungs- und Energiemanagementalgorithmen auszuführen, die in Ladestationen für Photovoltaik-Elektrofahrzeuge (PVCS) entwickelt wurden. Es soll die Konnektivität und Verbindung zwischen den verschiedenen Komponenten von PVCS bereitstellen. Diese Lösung unterstützt kabelgebundene und kabellose industrielle und fortschrittliche Computerkommunikationsprotokolle. Es basiert auf dem ESP32-Mikrocontroller, einem der leistungsstärksten Mikrocontroller in Bezug auf Leistung, geringen Energieverbrauch und Kosten, der das Ladesystem intelligent, vernetzt und einfach zu implementieren macht. Die Funktionen des Prototypen-Boards werden getestet und demonstriert die Überwachungskapazitäten in einer kleinen PV-Anlage haben sich als gute Leistung erwiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6893-4_40 5699aacacf76ce4ccc313cea7ffcaf9c;de;;;2.4.;;;Forschung zur Methode zur Erkennung von Motorlagerfehlern basierend auf Teager–Kaiser Energy Operator Für die schwachen Fehlereigenschaften im externen Streumagnetfeld bei Motorlagerfehlern schlägt dieses Papier eine Fehlererkennungsmethode basierend auf dem Teager-Kaiser-Energieoperator vor. Zunächst wird theoretisch analysiert, dass die Anwendung des Teager-Kaiser-Energieoperators auf das magnetische Streufeld nicht nur die Fehlerkennfrequenz demodulieren, sondern auch die Amplitude der schwachen Fehlerkennfrequenz erhöhen kann, wodurch die Fehlererkennungsfähigkeit verbessert wird. Ein experimenteller Test mit künstlichem Lagerdefekt wurde durch Messung des Streumagnetfelds durchgeführt. Die experimentellen Ergebnisse bestätigen, dass das vorgeschlagene Verfahren schwache Fehlermerkmale im Streumagnetfeld effektiv extrahieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2862-0_18 bbade700040fa9001f57d3e712a117cf;de;;;2.4.;;;Verbesserung des Lernprozesses der Marktforschungsstrategien des Unternehmers mit der MaREMAS-Umgebung Die Entwicklung von E-Learning-Systemen, die als Lehrende im Marktforschungsbereich für Existenzgründer dienen, ist eine Alternative, die eine bessere Ressourcennutzung, eine breitere Marktkenntnis und eine kreative Aktivitätsunterstützung bei der Entdeckung neuer potenzieller Nischenmärkte ermöglicht. Der Zweck dieses Papiers ist es daher, den Lernprozess des Unternehmers von Marktforschungsstrategien durch den Einsatz der MAS-Lernumgebung, sogenannten MaREMAS, zu verbessern. Die Methoden MAS-CommonKADS und GAIA sind mit AUML-Diagrammen für den Systementwurf integriert. Das Papier beschreibt weiter die Aufgaben, Architektur und das Kommunikationsmodell von MaREMAS. Darüber hinaus werden die wichtigsten Schritte beschrieben, die den Lernprozess der Marktforschung für Unternehmer unterstützen. Um diese Aspekte zu validieren, wird eine Fallstudie in der Motorradindustrie gezeigt. Der Beitrag schließt schließlich mit einem Vergleich zwischen den Lernprozessen, die durch die MaREMAS-Umgebung erreicht werden, und dem traditionellen Lernansatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38061-7_34 a080f9a0632c3e3d701acead9c4417f0;de;;;5.3.;;;Aufgezeichnete Sprache, virtuelle Umgebungen und die Effektivität von verkörperten Gesprächsagenten Die Entwicklung von Embodied Conversational Agents (ECAs) konzentrierte sich tendenziell auf die Dialogfähigkeiten des Charakters, mit weniger Forschung über das Design und die Wirkung der Stimme des Agenten und der virtuellen Umgebungen, in denen der Agent existiert. Für eine Studie zum Verhältnis Mensch-ECA haben wir iterativ drei Versionen eines Spiels mit ECA entwickelt, wobei jede Version des Spiels eine andere Kombination aus Spracherzeugung und virtueller Umgebung aufwies. Auswertungen der Interaktionen der Benutzer mit den verschiedenen Versionen des Spiels ermöglichten es uns, die Auswirkungen von Veränderungen in der Stimme des Agenten und von Veränderungen in der virtuellen Welt des Agenten zu beurteilen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09767-1_22 43687ac63baba41f4e18d459122702ef;de;;;2.4.;;;Thema Logistik basierend auf Knotenressourcenstatus Das Internet der Dinge (IoT) ist eine auf dem Internet basierende Erweiterung und Erweiterung, von der Netzvernetzung hin zur Verflechtung der Dinge. Die meisten Internet-of-Things verwenden das Publish/Subscribe-Modell, das die Eins-zu-Viele-Situation von Knoten im Internet der Dinge festlegt bezeichneten Übertragungsweg, um Informationen an Abonnenten zu liefern. Wenn jedoch eine große Datenmenge übertragen wird, kommt es zu einer Knotenüberlastung. Dadurch wird nicht nur die Effizienz der Datenübertragung reduziert, sondern auch der Energieverbrauch des gesamten Internets der Dinge erhöht und verschwendet. Daher schlägt dieses Papier Themenlogistik basierend auf dem Ressourcenstatus von Knoten vor und entwirft einen neuen Algorithmus zur Netzwerkdatenübertragung. Basierend auf dem Wert des Knotenressourcenstatus realisiert es die Auswahl möglicher Datenkommunikationspfade. Durch Experimente wird verifiziert, dass dieser Algorithmus Knotenressourcen realisieren kann. Die vollständige Ausnutzung, wodurch der Energieverbrauch der Kommunikation reduziert und die Übertragungseffizienz verbessert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4336-8_8 476da3b6c775fb721ad6f6aefbca97d3;de;;;2.4.;;;Anwendung von reversiblen Rauschunterdrückungs- und Anhebungsschritten auf LDgEb- und RCT-Farbraumtransformationen für eine verbesserte verlustfreie Komprimierung Der Anhebungsschritt einer reversiblen Farbraumtransformation, die während der Bildkompression verwendet wird, kann die Gesamtmenge des zu kodierenden Rauschens erhöhen. Um dieses Problem im Fall einer einfachen Farbraumtransformation RDgDb zu lindern, haben wir zuvor Transformations-Lifting-Schritte durch reversible Entrauschungs- und Lifting-Schritte (RDLS) ersetzt, bei denen es sich um in Entrauschungsfilter integrierte Lifting-Schritte handelt. In dieser Studie wenden wir RDLS auf komplexere Farbraumtransformationen LDgEb und RCT an und bewerten die RDLS-Effekte auf die Bitraten der verlustfreien JPEG-LS-, JPEG-2000- und JPEG-XR-Codierung für ein vielfältiges Bildtest-Set. Wir stellen fest, dass sich die RDLS-Effekte zwischen den Transformationen unterscheiden, jedoch für verschiedene Algorithmen ähnlich sind. Für das verwendete Entrauschungsfilter-Auswahlverfahren sind die Bitratenverbesserungen von RDLS-modifiziertem LDgEb und RCT im Durchschnitt nicht so hoch wie bei der einfacheren Transformation. Die Anwendbarkeit von RDLS geht über die Bilddatenspeicherung hinaus, aufgrund seiner allgemeinen Natur kann es in anderen Lifting-basierten Transformationen genutzt werden, z. B. während der Bildanalyse für Data Mining.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-34099-9_48 fc4d5cc4161a06ada7ad7ecebd9f750b;de;;;2.4.;;;Erkennung von Fingervenen-Präsentationen basierend auf Texturanalyse Biometrie ist eine effektive Möglichkeit, Benutzer anhand ihrer persönlichen Merkmale zu identifizieren und zu authentifizieren. Unter allen Arten handbasierter Biometrie scheint die Fingervene eine neue Biometrie zu sein, die aufgrund ihrer reichhaltigen verfügbaren Informationen und ihrer einfachen Implementierung große Aufmerksamkeit erhalten hat. Da das Fingervenensystem immer beliebter wird, gab es verschiedene Versuche, das System zu umfassen. Jüngste Studien zeigen die Anfälligkeit des Fingervenensystems für Präsentationsangriffe, bei denen das sensorische Gerät ein gefälschtes gedrucktes Fingervenenbild akzeptiert und Zugang gewährt, als ob es ein echter Versuch wäre. In dieser Studie wird ein Verfahren zur Erkennung von Präsentationsangriffen basierend auf hybriden Merkmalsräumen der Fingervenentexturanalyse vorgeschlagen. Histogramm des orientierten Gradientenoperators wird auf verschiedene Kanäle von Graustufen- und Farbmerkmalsräumen angewendet, um Texturinformationen der Histogrammdeskriptoren zu erhalten. Die vorgeschlagene Methode umfasst zwei Implementierungen der Merkmalsraumanalyse, nämlich CHOG;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4069-5_35 80011e6e67340ef09c585d1b680796c4;de;;;5.3.;;;Entwicklung, Bereitstellung und Kontrolle zeitkritischer Anwendungen in der Cloud Qualitätseinschränkungen bei zeitkritischen Anwendungen erfordern eine leistungsstarke unterstützende Infrastruktur und ausgeklügelte Optimierungsmechanismen für die Entwicklung und Integration von Systemkomponenten. Das Fehlen von Software-Entwicklungstools und insbesondere Cloud-orientierten Programmier- und Steuerungsmodellen macht die Entwicklung und den Betrieb von zeitkritischen Cloud-Anwendungen schwierig und kostspielig. Das Projekt SWITCH (Software Workbench for Interactive, Time Critical and Highly Self-adaptive Cloud Applications) adressiert den dringenden industriellen Bedarf zur Entwicklung und Ausführung zeitkritischer Anwendungen in Clouds. Die Hauptnutzer von SWITCH sind Cloud-Anwendungsentwickler, die elastische, zeitkritische Anwendungen für die föderierte Cloud entwerfen und entwickeln möchten. Durch die Nutzung von SWITCH und seinen Diensten können sie geeignete Infrastrukturen entdecken, ihre Anwendungen und QoS/QoE-Abhängigkeiten choreographieren und ihre Anwendungen für die Ausführung konfigurieren. Sie können wählen, wo diese Anwendungen mit einer bestimmten Zielinfrastruktur (z. B. einem entsprechend ausgewählten Cloud-Anbieter) bereitgestellt werden. Sie können auch ihre laufenden Anwendungen verwalten und überwachen, damit sie immer optimal laufen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-79090-9_14 bcebd4cc0e7a4eb91b4a3c484d09366f;de;;;5.3.;;;Studie zur Verbesserung des mobilen Lernens im C-Programmierdesign In diesem Beitrag etabliert der Autor durch die Analyse der Lehrmethoden und -effekte des traditionellen Kurses „C Programming Design“ ein mobiles Lernsystem und entwirft ein mobiles Lernmodell, setzt das mobile Lernen in die Lehrveranstaltung ein und bietet auch unterschiedliche Lernmöglichkeiten Ressourcen für die Studierenden basierend auf den unterschiedlichen Lerninhalten, wodurch die Lehrveranstaltung „C Programming Design“ gefördert und die Lerninteressen und -leistungen der Studierenden verbessert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29084-8_2 5d1bbc74c00d900d5fb8ff219a32d1f7;de;;;5.3.;;;Energiebewusster Einsatz dichter heterogener Mobilfunknetze mit QoS-Einschränkungen Die Konfiguration der Basisstation (BS) ist ein Schlüsselfaktor zur Verbesserung der Energieeffizienz (EE). In diesem Papier konzentrieren wir uns auf die Gestaltung der Netzwerkbereitstellungsparameter (d. h. BS-Dichten) für ein voreingenommenes heterogenes Mobilfunknetz (HCN) der K-Ebene mit Bereitstellung der Dienstqualität (QoS). Unter Verwendung geeigneter Näherungen leiten wir die geschlossenen Ausdrücke der optimalen BS-Dichte über alle Ebenen hinweg ab, um den Flächenstromverbrauch (APC) durch Anwendung der stochastischen Geometrietheorie zu minimieren und gleichzeitig die QoS-Anforderungen der Benutzer zu erfüllen. Diese Ergebnisse werden verwendet, um einige neue Einblicke in die EE-Leistung der verzerrten HCN-Bereitstellung zu erhalten. Mit Hilfe dieses Ansatzes kann aus Sicht der BS-Sendeleistung die beste Art von BSs identifiziert werden, die zu Energiesparzwecken eingesetzt oder abgeschaltet werden sollen. Genauer gesagt, wenn das BS-Sendeleistungsverhältnis zwischen einem beliebigen Paar von Stufen von tier;-;-;-;https://link.springer.com/article/10.1007/s11432-016-0249-9 54b3ee44c60d62e4671eb54bc43c9dd5;de;;;5.3.;;;Adaptivität für den konzeptionellen und narrativen Fluss in Hyperbooks: Das MetaLinks-System In diesem Papier diskutieren wir MetaLinks, ein Framework und Autorenwerkzeug für webbasierte adaptive Hyperbücher. Wir konzentrieren uns darauf, wie die Funktionen des Systems die Problemaspekte Desorientierung, kognitive Überlastung, diskontinuierlicher Fluss (schlechter Erzählfluss oder schlechter konzeptioneller Fluss) und Nichtbereitstellung von Inhalten angehen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44595-1_15 698cb38970c0f7a64f8d9262ec7c9f7c;de;;;5.3.;;;Design und Realisierung eines virtuellen 3D-Campus-Roaming-Systems basierend auf Unity3D Damit die Studienanfänger, die noch nicht an der Universität angekommen sind, die Campusumgebung schnell verstehen, entwerfen und entwickeln wir ein virtuelles Campus-Roaming-System der Central China Normal University (CCNU). Erstens das Sammeln einer großen Anzahl von Fotos des Campus, wie Gebäude und Pflanzen. Zweitens, dreidimensionale (3D) Modelle auf Basis der Fotos und Karten zu bauen, in der Zwischenzeit mit Photoshop die Fotos bearbeiten, um das Gebäude so real wie möglich aussehen zu lassen. Drittens das Einfügen des Modells in die Unity-Plattform und das Ermöglichen der interaktiven Funktion. Schließlich, mit dem Computer, um das Programm zu exportieren, ist das Roaming-System für die virtuelle Operation beendet. Im Vergleich zur 3D-Karte von Baidu zeigt unser Roaming-System die reale Szene besser und integriert auch multimediale Einführungsressourcen wie Video und Audio jedes Gebäudes auf dem Campus, was die Benutzererfahrung erheblich verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-14680-1_53 cc265e92799e161ae42f766b224dfce4;de;;;5.3.;;;Feldtheoriebasierte Strategie zur Bekämpfung der Umweltverschmutzung in P2P-Netzwerken Um das Problem der Dateiverschmutzung in unstrukturierten P2P-Filesharing-Systemen zu lösen, wird eine auf der Feldtheorie basierende Anti-Pollution-Strategie vorgeschlagen. Basierend auf dem Management des Verschmutzungsgrades wird ein Verschmutzungsfeld konstruiert, das aus Verschmutzungsflecken besteht. Um die Auswirkungen auf die Benutzererfahrung zu reduzieren und gleichzeitig die Verbreitung verschmutzter Dateien einzudämmen, wird das Klassifizierungsmanagement durch die Anwendung verschiedener Strafmaßnahmen erreicht, um verschiedene Verschmutzungen zu untersuchen. Die experimentellen Ergebnisse zeigen, dass diese Strategie die Verbreitung verschmutzter Dateien schnell eindämmen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22691-5_19 66837d97e572080bdf3735ee083acc8d;de;;;2.4.;;;Ein multispektraler Bildverbesserungsalgorithmus basierend auf Frame-Akkumulation und LOG-Erkennungsoperator In multispektralen Transmissionsbildern behindern aufgrund der starken Streuung und starken Absorptionseigenschaften von biologischem Gewebe das schwache Bildsignal, das niedrige Signal-Rausch-Verhältnis und die verschwommenen Kanten des Transmissionsbildes die Detektion der Heterogenität von Transmissionsgewebe stark. Und die Bildvorverarbeitung ist für den komplexen Bildalgorithmus in den späteren Experimenten entscheidend. Um die Qualität von multispektralen Transmissionsbildern mit niedriger Auflösung zu verbessern, schlägt dieser Artikel einen Verbesserungsalgorithmus für Transmissionsgewebebilder durch das Simulationsexperiment multispektraler Transmissionsbilder vor: Einkanal-Rahmenalgorithmus, der mit LOG-Detektionsoperatoren kombiniert wird. Die experimentellen Ergebnisse zeigen, dass das Spitzensignal-Rausch-Verhältnis (PSNR) des durch den verbesserten Algorithmus in diesem Papier verarbeiteten Bildes auf 52,289 dB erhöht ist, was 1,515 dB höher ist als das Originalbild und 1,386 dB höher als das einzige gefiltertes Bild. Das von diesem Algorithmus verarbeitete multispektrale Bild zeigt, dass das Kontrastverhältnis am Bildrand verbessert wurde und die Bildqualität bis zu einem gewissen Grad verbessert wurde. Schließlich wird durch ein Vergleichsexperiment die Wirksamkeit und Praktikabilität des Verbesserungsalgorithmus zur Verbesserung der Qualität von multispektralen Transmissionsbildern überprüft.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8599-9_39 46d1ea7694100300d0e56da0006668ea;de;;;2.4.;;;Untersuchung der Möglichkeit eines gehirngesteuerten mobilen Roboters über ein Einkanal-EEG-Headset Brain-Computer-Interface (BCI) ist eine schnell wachsende Technologie, die Hardware- und Software-Kommunikationssysteme umfasst, die die Steuerung externer Hilfsgeräte über das Elektroenzephalogramm (EEG) ermöglichen. Das primäre Ziel der BCI-Technologie besteht darin, einen potenziellen Kommunikationsweg für Patienten mit schweren neurologischen Behinderungen sicherzustellen. In den letzten Jahrzehnten wurden eine Vielzahl von BCI-Anwendungen vorgestellt, die darauf hindeuten, dass das Interesse an diesem Gebiet dramatisch zugenommen hat. In diesem Artikel wurde die Möglichkeit eines gehirngesteuerten mobilen Roboters mit Einkanal-EEG-Headset untersucht. EEG-Daten wurden vom Neurosky Mindwave EEG-Headset gesammelt, das aus einer einzelnen Elektrode besteht. Das EEG-Merkmal in Bezug auf die spektrale Leistungsdichte (PSD) wurde extrahiert und dieses Merkmal unter Verwendung der Support-Vektor-Maschine (SVM) klassifiziert. Dann wurde das klassifizierte Signal in drei Gerätebefehle übersetzt, um den mobilen Roboter zu steuern. Dieser mobile Roboter kann in drei Richtungen gefahren werden, nämlich vorwärts, rechts und links. Datenerfassung vom EEG-Headset und Senden von Befehlen an einen mobilen Roboter, der gesamte Vorgang wurde drahtlos durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2317-5_49 80092ee07ab465c7b5351bbff0f01933;de;;;5.3.;;;Die Struktur globaler zwischenbetrieblicher Netzwerke Wir untersuchen die Struktur globaler Beziehungen zwischen Unternehmen anhand eines einzigartigen Datensatzes, der Informationen zu Kunden, Lieferanten, Lizenzgebern, Lizenznehmern und strategischen Allianzen für jedes der 412.814 großen nichtfinanziellen Unternehmen weltweit enthält. Wir konzentrieren uns auf drei verschiedene Netzwerke: Kunden-Lieferanten-Netzwerk, Lizenznehmer-Lizenzgeber-Netzwerk und strategische Allianzen. Die In/Out-Grad-Verteilung dieser Netzwerke folgt einer Pareto-Verteilung mit einem Exponenten von 1,5. Die kürzeste Pfadlänge in den Netzwerken für ein beliebiges Firmenpaar beträgt etwa sechs Verbindungen. Die Netzwerke haben eine skalenfreie Eigenschaft. Wir stellen auch fest, dass die Aktienkursrenditen tendenziell stärker korrelieren, je näher zwei börsennotierte Unternehmen in den Netzwerken beieinander stehen. Dies deutet darauf hin, dass ein nicht zu vernachlässigender Teil der Preisschwankungen auf die Ausbreitung der Schocks eines bestimmten Unternehmens durch Beziehungen zwischen Unternehmen zurückzuführen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-15168-7_42 1a79bb5e5ff70c98c320bc565c532e89;de;;;5.3.;;;Adaptive Regelung der CCD-Kamera für Echtzeit-Eye-Tracking In dieser Arbeit werden ein Eye-Tracking-Verfahren und eine automatische Fokussiertechnik vorgeschlagen, die die Regulierung der Blende mit der Einstellung des Fokus des Kameraobjektivs kombinieren, um klare Augenbilder im Eye-Gaze-Tracking-System zu erhalten. Zunächst wird die Blende des CCD-Objektivs gesteuert, um das System mit dem durchschnittlichen Helligkeitswert der verarbeiteten Bilder als Basiswert an die äußeren Lichtverhältnisse anzupassen. Zweitens wird ein Summen-Modulus-Differenz-(SMD)-Operator zur groben und schnellen Fokussierung in großem Maßstab verwendet, um die Augenblitze zu erhalten, und zur Steuerung einer Schwenk-Neige-Einheit zum Nachführen und Anvisieren des Auges und zur Regulierung des Objektivfokus. Schließlich wird ein frequenzselektiver gewichteter Median (FSWM)-Operator in dem bestimmten Fenster angewendet, um automatisch zu fokussieren und klare Augenbilder zu erhalten. Kann die Pupillenkontur aus dem Augenbild extrahiert werden, kann der mittlere Gradientenwert der Pupillenrandpunkte zur Echtzeitfokussierung verwendet werden. Experimentelle Ergebnisse zeigen, dass sich dieses System an externe Beleuchtungsänderungen und an die Kopfbewegungen des Benutzers anpassen kann. Es kann das Auge verfolgen und klare Augenbilder in Echtzeit aufnehmen.;-;-;-;https://link.springer.com/article/10.1007/s11042-009-0455-9 b3c4f597cb9fe6c5bc368af7294e6e8f;de;;;5.3.;;;Dialogunterstützung für taubblinde Menschen durch Vermittlung von Rückkanälen durch Vibration Wir führten ein Experiment mit einem Vibrationssystem durch, bei dem ein taubblinder Teilnehmer, der über einen Dolmetscher kommunizierte, direkt Rückkanal-Feedback von einem Gesprächspartner erhalten konnte. Die statistische Analyse der Interaktionsstruktur zeigte, dass die Rückkanalvibration seine Abwechselung und Interaktivität der Kommunikation erhöhte. Und aus einer qualitativen Analyse der Videodaten fanden wir heraus, dass die Erfahrung des Erhaltens von Rückkanal-Feedback zu einer Veränderung seines haptischen Verhaltens in der üblichen Kommunikation führte. Unsere Ergebnisse zeigen, dass die geringe mentale Belastung und die Erlernbarkeit dieses Schwingungssystems es taubblinden Menschen ermöglichen, ihre Kommunikation zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-70540-6_99 936d219bc8ca080296b36ba3bbc9e30f;de;;;5.3.;;;Haltung, Beziehung und Diskursstruktur Wir präsentieren eine empirische Untersuchung des nonverbalen Verhaltens in langfristiger Interaktion über mehrere Gespräche hinweg im Kontext einer sich entwickelnden zwischenmenschlichen Beziehung. Basierend auf einem Längsschnitt-Videokorpus von Mensch-Mensch-Beratungsgesprächen entwickeln wir ein Modell für das Auftreten von Haltungsverschiebungen, das Veränderungen einbezieht, die sowohl innerhalb eines einzelnen Gesprächs als auch über mehrere Gespräche hinweg auftreten. Implikationen für das Design und die Implementierung von virtuellen Agenten werden diskutiert, mit besonderem Fokus auf Agenten, die für eine langfristige Interaktion konzipiert sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23974-8_12 3f6e0c45e73ad25d77d2294148cd883f;de;;;5.3.;;;Generierung virtueller Ansichten mithilfe des Clustering-basierten lokalen Ansichtsübergangsmodells Dieses Papier präsentiert einen Ansatz für eine realistische virtuelle Ansichtsgenerierung unter Verwendung eines Erscheinungsbild-Clustering-basierten lokalen Ansichtsübergangsmodells mit seiner Zielanwendung bei der Gesichtserkennung in verschiedenen Posen. Zuvor wurde das traditionelle globale musterbasierte Ansichtsübergangsmodell (VTM) auf seine lokale Version namens LVTM erweitert, die die lineare Transformation von Pixelwerten zwischen frontalen und nicht frontalen Bildpaaren unter Verwendung von Teilbildern in einem kleinen Bereich für jeden Standort lernt. anstatt das gesamte Bildmuster zu transformieren. In diesem Beitrag zeigen wir, dass die Genauigkeit des Erscheinungsübergangsmodells und die Erkennungsrate weiter verbessert werden können, indem die inhärente lineare Beziehung zwischen frontalen und nicht frontalen Gesichtsbildpatchpaaren besser ausgenutzt wird. Für jeden spezifischen Ort werden, anstatt eine gemeinsame Transformation wie beim LVTM zu lernen, die entsprechenden lokalen Patches zuerst basierend auf der Ähnlichkeitsabstandsmetrik des Aussehens geclustert und dann werden die Übergangsmodelle für jeden Cluster separat gelernt. In der Testphase wird jeder lokale Patch für das eingegebene nicht-frontale Sondenbild unter Verwendung des gelernten lokalen Ansichtsübergangsmodells entsprechend dem visuell ähnlichsten Cluster transformiert. Die experimentellen Ergebnisse eines realen Gesichtsdatensatzes zeigten die Überlegenheit der vorgeschlagenen Methode in Bezug auf die Erkennungsrate.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37484-5_22 1d54f9c471edeea8ca79d0136e68c8cc;de;;;5.3.;;;Emotionsschätzung und Argumentation basierend auf affektiver Textinteraktion Dieses Papier präsentiert einen neuartigen Ansatz zur Emotionsschätzung, der den affektiven Inhalt von Textnachrichten bewertet. Unsere Hauptziele sind es, Emotionen aus Chat- oder anderen Dialognachrichten zu erkennen und animierte Agenten einzusetzen, die in der Lage sind, auf der Grundlage der Textinteraktion das emotionale Denken zu fassen. In diesem Artikel wird das Emotionsschätzungsmodul auf ein Chatsystem angewendet, in dem Avatare, die mit Chatpartnern verbunden sind, die bewerteten Emotionen von Nachrichten durch mehrere Modalitäten, einschließlich synthetischer Sprache und assoziierter affektiver Gesten, ausleben.;-;-;-;https://link.springer.com/chapter/10.1007/11573548_80 94d7e33ad99e70b2102070a65ceeb7ba;de;;;2.4.;;;Velar Movement Assessment for Speech Interfaces: Eine explorative Studie mit Oberflächenelektromyographie In der Literatur finden sich mehrere stumme Sprachschnittstellen basierend auf der Oberflächenelektromyographie (EMG). Es ist jedoch noch unklar, ob wir in der Lage sind, die Muskelaktivität im Zusammenhang mit dem Öffnen/Schließen der Nasenöffnung zu spüren. Das Erkennen des Nasalitätsphänomens würde die Leistung von Sprachen mit starken nasalen Merkmalen wie dem europäischen Portugiesisch erhöhen. In diesem Artikel untersuchen wir die Verwendung von Oberflächen-EMG-Elektroden, einer nicht-invasiven Methode, die im Gesichts- und Halsbereich positioniert wird, um nützliche Informationen über die Velumbewegung zu untersuchen. Für eine genaue Interpretation und Validierung der vorgeschlagenen Methode verwenden wir Velumbewegungsinformationen, die aus Daten der Echtzeit-Magnetresonanztomographie (RT-MRI) extrahiert wurden. Insgesamt zeigen die Ergebnisse dieser Studie, dass Unterschiede in den EMG-Signalen bei nasalen Vokalen durch unterhalb des Ohres zwischen dem Warzenfortsatz und dem Unterkiefer im oberen Halsbereich positionierte Sensoren gefunden werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-26129-4_16 1db2aa80371161918a9e1502fdaf1122;de;;;2.4.;;;Diskussion und zukünftiges Setzungsmonitoring In Kap. 8 werden die Ergebnisse der ERS- und Envisat-Missionen im Absenkungsgebiet Groningen zusammengefasst und diskutiert. Sowohl die Präzision und Zuverlässigkeit des PSI als Messverfahren als auch die Idealisierungsgenauigkeit zur Überwachung von Setzungen durch Gasentnahme werden angesprochen. Darüber hinaus werden Beispiele für den Einsatz von PSI gezeigt, um Einblicke in das Verhalten von Lagerstätten zu gewinnen. Der Vorteil der hohen zeitlichen Beprobung zeigt sich bei der Bestimmung des Setzungsverzuges nach Beginn der Gasförderung und zur Überwachung des Auftriebs durch unterirdische Gasspeicherung. Abschließend wird ein Zukunftsszenario für das Setzungsmonitoring skizziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-9428-6_8 e2034f676e54bee0afdea891f3a82b62;de;;;2.4.;;;Entwicklung eines Frühwarnsystems für Braune Zikaden (BPH) ( Die Verbreitung von Reisschädlingen wie BPH in tropischen Gebieten ist einer der bekanntesten Ertragsverlustfaktoren. Fernerkundung kann Präzisionslandwirtschaftspraktiken unterstützen, um den Ort von Ausbreitungen zu bestimmen und Pestizide an der richtigen Stelle einzusetzen. In einer besonders förderlichen Umgebung wie hohen Temperaturen und starken Regenfällen wird die BPH-Population zunehmen. Um dieses Problem anzugehen, wurde der Nachweis von Scheidenfäule im Reisanbau mithilfe von SPOT-5-Bildern untersucht. Außerdem wurde die Extraktion von Wetterdaten aus Landsat-Bildern zum Vergleich mit dem BPH-Befall durchgeführt. Die Ergebnisse zeigten, dass alle Indizes, die infizierte Pflanzen erkennen, bei α = 0,01 signifikant sind. Die Untersuchung der Assoziation zwischen den Krankheitsindizes zeigte, dass Band 3 (nahes Infrarot) und Band 4 (mittleres Infrarot) in SPOT-5-Bildern eine relativ hohe Korrelation zum Erkennen von erkrankten Teilen von gesunden aufweisen. Die ausgewählten Indizes erklärten eine bessere Assoziation zum Nachweis gesunder Pflanzen von kranken. Bilduntersuchungen ergaben, dass BPH in Form von Nymphen an den oberen Grenzen der tolerierbaren Temperaturen vorhanden waren. Mit dem Wissen, dass die späte Wachstumsphase von Pflanzen stärkere BPH-Anfälle aufweist, zeigten die Ergebnisse, dass der BPH-Ausbruch in der nordwestlichen Ecke und in den mittleren Regionen der Karten besonders offensichtlich ist und eher in bestimmten Temperaturbereichen und auftritt RH, dh 29 °C 50 % Siliciumdioxid. Commodity- oder Allzweckprodukte zeichnen sich durch universelle Einsetzbarkeit, große Absatzmengen und niedrige Stückkosten aus. Sie repräsentieren fast 99 % des kommerziellen Glasfasermarktes. Bei den restlichen Glasfasern handelt es sich um Nischen- oder Spezialprodukte, die sich durch besondere und damit hochwertige Eigenschaften, geringe Absatzmengen und hohe Stückkosten auszeichnen. Sie repräsentieren 1% des Glasfasermarktes.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-8722-8_6 15c8abbf7cf2ae7e6d5447ad0e112957;de;;;5.3.;;;Optische Mikroaktoren Silizium-Mikrobearbeitung und optische Signalverarbeitung sind vielversprechende Technologien, die noch nicht produktiv zusammengeführt wurden. Volloptische Systeme verwenden Faseroptik (oder andere optische Wellenleiter), um Leistung sowie die Steuersignale und Informationen zu ihren verschiedenen Teilen zu übertragen. Optische Signale, die durch Wellenleiter übertragen werden, können nicht leicht durch externe elektromagnetische Störungen beeinflusst werden und sind auch extrem schwer zu hören. Noch wichtiger ist, dass verschiedene Lichtwellenlängen verwendet werden können, um Informationen parallel durch dieselbe Faseroptik zu übertragen. Diese beiden wichtigen Eigenschaften des Lichts, elektromagnetische Störfestigkeit und inhärente Parallelität genannt, sind hauptsächlich für die Popularität optischer Systeme verantwortlich. Die Realisierung dieser Systeme bringt jedoch zahlreiche eigene technologische Probleme mit sich. Ein vollständig optisches System erfordert optische Mikroprozessoren, vollständig optische Sensoren und Aktuatoren. Die optischen Aktuatoren sind wahrscheinlich von all diesen verschiedenen Teilen am wenigsten entwickelt. Sowohl optische Prozessoren als auch Sensoren sind leicht erhältlich [1–17] (obwohl sie in den meisten Fällen nicht kosteneffektiv sind). Hier diskutieren wir optische Mikroaktoren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5445-5_5 21df2c480f41a11eb91a1524ff85cdcd;de;;;5.3.;;;α-Chlorhydrin: Überprüfung eines posttestikulären Antifertilitätsmodells Spermatozoen, die in Aussehen und Beweglichkeit normal sind, aber keine Eizellen befruchten werden, werden als funktionell steril bezeichnet (Jackson, 1973). Die einzigen Assays für Verbindungen, die funktionelle Sterilisationsmittel sind, sind In-vitro-Fertilisation oder zeitlich festgelegte serielle Paarungen von behandelten Männchen, da keine morphologischen Veränderungen der Spermatozoen beobachtet werden. Der Wirkort des Arzneimittels kann aus der bekannten Transportrate der Spermatozoen abgeleitet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-8875-0_11 c7931c94f5c3b03b781770a58e8a739d;de;;;5.3.;;;Cycloadditionen und unimolekulare Umlagerungen und Eliminierungen Abgesehen von einigen wenigen radikalischen Prozessen haben die meisten der bisher beschriebenen Reaktionen polare oder leicht polarisierbare Reaktanten umfasst. In diese Kategorie fallen Carbanionreaktionen, Reaktionen von Alkenen mit Elektrophilen, nukleophile Additionen an Carbonylgruppen, metallvermittelte und metallorganische Reaktionen. Die in diesem Kapitel zu untersuchenden Reaktionen erfolgen dagegen durch eine Reorganisation von Valenzelektronen durch aktivierte Komplexe, die nicht wesentlich polarer sind als die Reaktanten. Diese Reaktionen laufen, wie man sehen wird, gewöhnlich durch zyklische Übergangszustände ab, die vier, fünf oder sechs Atome enthalten. Energie, die ausreicht, um den Übergangszustand zu erreichen, wird durch thermische oder photochemische Anregung der reagierenden Moleküle bereitgestellt. Andere polare oder Radikale erzeugende Reagenzien mit hoher chemischer potentieller Energie sind normalerweise nicht beteiligt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-1821-8_7 b3a99c7e451f9e62f71c83d65eeae0bb;de;;;5.3.;;;HPLC-Bestimmung von Tensiden und verwandten Verbindungen Tenside, genauer gesagt Tenside, sind organische Verbindungen oder deren technische Mischungen, die die Grenzflächeneigenschaften von Flüssigkeiten, denen sie zugesetzt werden, verändern. Sie werden häufig als Emulgier-, Dispergier-, Netz- oder Schaumbildner verwendet, weit verbreitet in Haushalt und Industrie, in der Textil-, Papier-, Leder- und Kunststoffherstellung, als Zusatzstoffe in Lebensmitteln und Kosmetikprodukten und in verschiedenen anderen Anwendungsgebieten. Chemisch gesehen bestehen die Moleküle von Tensiden aus einem unpolaren (kohlenwasserstoffhaltigen) Teil und einem hochpolaren Teil (eine oder mehrere funktionelle Gruppen), die neutral sein können oder negative oder (und) positive Ladungen besitzen. Dementsprechend werden Tenside normalerweise in vier Typen eingeteilt: nichtionisch, anionisch, kationisch und amphoter. Einige Verbindungen wirken über einen weiten pH-Bereich als ionische Tenside, andere, wie langkettige Carbonsäuren oder Amine, nur in einem bestimmten pH-Bereich. Eine detailliertere Klassifizierung ist in Tabelle 1 angegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-5306-8_4 7c9fe0230fff9334291bb3395dc773ff;de;;;5.3.;;;Ultrastrukturelle Visualisierung von Concanavalin A-Bindungsstellen unter Verwendung von mit alkalischer Phosphatase markierten Con A- und ultradünnen Glykolmethacrylat-Schnitten Eine Methode zur Visualisierung von Concanavalin A (Con A)-Bindungsstellen durch Elektronenmikroskopie von Glykolmethacrylat-Schnitten wird vorgestellt. Dieses Verfahren, das eine Anwendung der mit alkalischer Phosphatase markierten Con A-Konjugattechnik ist, löst die Probleme nicht nur des begrenzten Eindringens von Chemikalien in Gewebeblöcke, sondern auch der Verletzungen von Gewebeschnitten aufgrund von reizenden Reagenzien, die bei der Con A-Peroxidase-Färbung auftreten. Glykolmethacrylat-Schnitte werden nacheinander mit einer mit alkalischer Phosphatase markierten Con A-Lösung und einem Bleicitrat-Medium für die Enzymaktivität inkubiert. Zum Testen des Verfahrens wurden verschiedene Gewebearten von erwachsenen Ratten verwendet, Trachealknorpel, Aorta und Jejunum. Die durch dieses Verfahren gezeigte Lokalisierung von Con A-Bindungsstellen stimmt mit den Ergebnissen anderer veröffentlichter Studien überein. Geeignete Kontrollen wurden durchgeführt (dh Weglassen des konjugierten Lektins, Lektins plus seines Inhibitors) und diese belegen die Spezifität des Verfahrens.;-;-;-;https://link.springer.com/article/10.1007/BF00490085 eda28ee22914734e1fac22f9e9df4574;de;;;5.3.;;;Fortsetzung für parametrisierte nichtlineare Variationsungleichungen Eine theoretische Grundlage für eine kürzlich vorgeschlagene Fortsetzungsmethode für nichtlineare Variationsungleichungen, die von einem Parameter abhängen, wird gegeben. Die Verwendung einer bestimmten Lösungsnorm für die Fortsetzung erlaubt es, bekannte theoretische Ergebnisse für dieses Problem zu erweitern. Zusätzlich wurden umfangreiche numerische Ergebnisse gewonnen, die nicht nur die Effektivität der vorgeschlagenen Methode belegen. Sie verdeutlichen auch das früher beobachtete Phänomen diskreter oder unechter Übergangspunkte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-5681-2_2 e30a7fb870744b488ec3ea299acc4731;de;;;5.3.;;;Eine Untersuchung der Mikrostruktur des CTAB/1-Butanol/Octan/Wasser-Systems durch PGSE-NMR und Cryo-TEM In dieser Arbeit wurde der Einfluss der Oktanzahl auf das Phasenverhalten des CTAB/Wasser/1-Butanol-Systems durch Verwendung von gepulsten Feldgradienten-Spin-Echo-NMR-Messungen und Gefrierbruchelektronenmikroskopie (Cryo-TEM und FFEM) untersucht. Wenn die Oktankonzentration ansteigt, wird die flüssigkristalline Phase destabilisiert und ein kontinuierlicher einphasiger Mikroemulsionsbereich vom Wasserscheitel zum Ölscheitel gebildet. Das Leitfähigkeitsverhalten weist ein ausgeprägtes Perkolationsphänomen auf, was darauf hindeutet, dass die einphasige Mikroemulsion kontinuierlich von einer Öl-in-Wasser (o/w)-Struktur über eine bikontinuierliche Struktur zu einer Wasser-in-Öl (w/o)-Struktur verändert wird. Dieses Ergebnis stimmt mit denen von PGSE-NMR, Cryo-TEM und FFEM überein. Im W/O-Bereich ist der Selbstdiffusionskoeffizient von Wasser relativ hoch ((1–6)×10;-;-;-;https://link.springer.com/article/10.1007/BF03184323 d402e84768e8993186ea9df713238a4e;de;;;5.3.;;;Quellen, Ausbreitung und Kontrolle von Fehlern in der Bodenüberwachung Die Überwachung (durch Probenahme) der Schadstoffmenge in Boden, Wasser, Klärschlamm etc. ist in der heutigen Gesellschaft wichtig, insbesondere wenn Konzentrationen in Proben die behördlich tolerierten Grenzwerte deutlich überschreiten. Zu bestimmen, ob eine bestimmte Menge einen bestimmten Schwellenwert überschreitet, ist ein scheinbar einfaches statistisches Problem. Aber wie ist (abgesehen von technischen Details wie Niveau und Prüfungswahl));-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-7542-4_22 0d21ca56f7d0058aea503c0c57647710;de;;;5.3.;;;Akute Temperaturänderung und die Oxidationsraten ektothermer Mitochondrien Es gibt viele neuere vergleichende Studien zum Einfluss der Temperatur auf den oxidativen Stoffwechsel ganzer Organismen (Newell und Pye, 1968, 1970a, b, Newell, Ahsanullah und Pye, 1972, Newell, 1969) und zu den Oxidationsraten von Mitochondrien, Newell und Walkey (1966), Newell und Pye (1971), Davison (1971), Lyons und Raison (1970), Raison, Lyons und Thomson (1971). Neuere Arbeiten haben gezeigt, dass bei vielen Arten von Ektothermen der Ruhe- oder Grundstoffwechsel relativ unabhängig von akuten Temperaturänderungen bis zu einer maximalen Temperatur ist, die mit dem Maximum korreliert ist, das der Organismus in seiner Umgebung erlebt (Newell und Northcroft, 1967, Newell und Pye, 1970). Diese Befunde wurden auch durch eine Untersuchung der Sauerstoffverbrauchsraten von zellfreien Homogenaten und rohen mitochondrialen Suspensionen, die aus Ektothermen isoliert wurden, unterstützt, Newell und Pye (1970, 1971), Davison (1971).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-65703-0_7 868ef5eabcfa951c3c2bfc51503382b5;de;;;2.4.;;;Konzeption einer GIS-Plattform zur Simulation von Stadtverdichtung auf Basis der Analyse topografischer Daten Ziel unserer Forschung ist es, die Entwicklung der Urbanisierung zu analysieren und auf bestimmten Gebieten zu simulieren. Wir konzentrieren uns auf die Entwicklung zwischen 1950 und heute. Wir analysieren die Verdichtung durch den Vergleich zeitlicher topographischer Datenbanken, die aus bestehenden topographischen Datenbanken und Karten und Fotos von 1950 erstellt wurden wie die Simulation funktioniert, abgestimmt und ausgeführt wird - die Verdichtungsmethode für jeden Stadtblock mit Ergebnissen illustriert, die Methode, die während des Projekts verwendet wurde, um das erforderliche Wissen für die Simulation aufzubauen, und wir schließen und präsentieren die wichtigsten Forschungsperspektiven. Die Methoden werden auf einer dedizierten Open-Source-Software namens GeOpenSim implementiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19214-2_28 4cb6934bbd9c2259e0a91cf4ebee908a;de;;;2.4.;;;Jüngste Fortschritte bei datengesteuerter Dynamik und Steuerung Mit der rasanten Entwicklung der künstlichen Intelligenz wurden die datengesteuerten Methoden in den Bereichen Maschinen, Energie, Bauwesen, Transport und anderen Industrien, wie z. Während die datengetriebene akkurate dynamische Modellierung, die Systemidentifikation und deren Anwendungen in der Konstruktion von technischen Geräten und Strukturen und dem Gesundheitsmanagement für den Lebenszyklusprozess noch in den Kinderschuhen stecken. Derzeit stützen sich die Forschungen zur nichtlinearen Dynamik hauptsächlich auf traditionelle Analysemethoden. Für die Weiterentwicklung des Bereichs Dynamik und Steuerung im Zeitalter der Künstlichen Intelligenz ist es dringend erforderlich, aus den beobachteten Daten neue Wissensrepräsentationen und neue Vorhersagen komplexer dynamischer Gesetze zu entdecken. Die zukünftige Erforschung von Dynamik und Regelung muss sowohl von physikalischen Prinzipien als auch von Daten angetrieben werden. Dieser Artikel stellt einige neuere Forschungsarbeiten unserer Gruppe in den Bereichen Strukturoptimierung, aktive Schwingungskontrolle, Systemidentifikation, Fehlerdiagnose und -prognose sowie Zustandsidentifikation von Herzfrequenzvariabilitätssignalen unter Verwendung datengesteuerter Methoden vor.;-;-;-;https://link.springer.com/article/10.1007/s40435-020-00675-2 258275aa8553fbfdd04db623cdcf140f;de;;;5.3.;;;Modifikation der Expression eines extrazellulären Virulenzfaktors (Cytotoxin) von Die pseudomembranöse (antibiotikaassoziierte) Kolitis ist seit mehreren Jahren bekannt [19], wobei die Therapie mit Clindamycin zunächst primär indiziert ist [22]. Viele andere Antibiotika, mit Ausnahme von Vancomycin, werden jedoch heute als prädisponierende Erreger der Krankheit anerkannt [1].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-68670-2_21 7e37376899ee735e1e6e6e58c5efe9b5;de;;;5.3.;;;Experimentelle Verifizierung der Theorien eines elementaren Aktes der Protonendonatorentladung Im vorangegangenen Kapitel haben wir kurz die moderne Theorie eines elementaren Vorgangs von Ladungstransferreaktionen und insbesondere von Elektrodenreaktionen dargestellt. Diese neue Theorie unterscheidet sich grundsätzlich von den lange Zeit allgemein akzeptierten Konzepten und insbesondere vom Horiuti-Polanyi-Modell dadurch, dass sie die dynamische Rolle des Lösungsmittels und das unterschiedliche Verhalten von klassischen und Quantenfreiheitsgraden berücksichtigt. Dieser Unterschied sollte sich am deutlichsten in Protonentransferreaktionen manifestieren, da das Proton ein Teilchen ist, das sich im Wesentlichen quantenmechanisch verhält;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-8718-3_4 cc3415abd488d35e4d5458ce55141a8c;de;;;2.4.;;;Mining-Algorithmus zur Klassifizierung von Ameisenkolonien basierend auf der Anziehung und dem Ausschluss von Pheromonen Ameisenkolonie-Optimierungsalgorithmen wurden erfolgreich beim Mining von Klassifizierungsregeln angewendet. Jedoch leiden grundlegende Miningalgorithmen der Ameisenkolonie-Klassifizierung im Allgemeinen unter Problemen, wie etwa vorzeitiger Konvergenz und leichtem Fallen in das lokale Optimum. Gleichzeitig verwenden die Classification-Mining-Algorithmen eine sequentielle Abdeckungsstrategie, um Regeln zu entdecken, und die Interaktion zwischen den Regeln wird weniger berücksichtigt. In dieser Studie wurde ein neuer Mining-Algorithmus zur Klassifizierung von Ameisenkolonien basierend auf der Anziehung und Ausschließung von Pheromonen (Ant-Miner;-;-;-;https://link.springer.com/article/10.1007/s00500-016-2151-9 81491cc5bce04738855dca64800b336c;de;;;5.3.;;;Auswirkungen der Wachstumsoberfläche auf die Differenzierung von Kulturen von humanem Trachealepithel Optische Messungen von Epithelzellen, die auf klaren festen Oberflächen (z. B. Deckgläser, Petrischalen) gewachsen sind, werden oft mit anderen Messungen (z. B. Kurzschlussstrom, I;-;-;-;https://link.springer.com/article/10.1290/1543-706X%282003%29039%3C0051%3AEOGSOD%3E2.0.CO%3B2 2db66cac05e1e5bef09492aa1a93b3a2;de;;;5.3.;;;Molekulare Mechanismen der Calcium-induzierten Membranfusion Wir haben Studien zur kalziuminduzierten Fusion von Lipiddoppelschichtmembranen und die Rolle von Synexin und anderen kalziumbindenden Proteinen (Annexinen) bei der Membranfusion überprüft. Wir haben auch die Rolle anderer Kationen, Lipidphasenübergänge, langkettiger Fettsäuren und anderer fusogener Moleküle diskutiert. Schließlich haben wir ein einfaches molekulares Modell für den Mechanismus der Lipidmembranfusion präsentiert, das mit den experimentellen Erkenntnissen übereinstimmt und verschiedene zuvor vorgeschlagene Elemente enthält.;-;-;-;https://link.springer.com/article/10.1007/BF00762944 b90ab8cb7fbf090ee914d25d6ac0c29c;de;;;5.3.;;;Robuste Steganographie mit Textursynthese Dieses Papier schlägt eine robuste Steganographie basierend auf Textursynthese vor. Anders als bei der traditionellen Steganographie, indem wir ein vorhandenes Bild modifizieren, verstecken wir geheime Nachrichten während des Syntheseprozesses eines Texturbildes. Die erzeugte Stego-Textur ähnelt dem Beispielbild und bewahrt ein gutes lokales Erscheinungsbild. Proportional zur Größe des synthetisierten Texturbildes können große Einbettungskapazitäten erreicht werden. Dieser Algorithmus stellt auch sicher, dass die versteckte Botschaft exakt aus dem Stego-Bild extrahiert werden kann. Am wichtigsten ist, dass der vorgeschlagene Steganographie-Ansatz die Möglichkeit bietet, der JPEG-Kompression entgegenzuwirken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-50209-0_4 75aab813347758d8cbbb329a2f73470c;de;;;5.3.;;;Histonkomplexe, Nukleosomen, Chromatin und zellzyklusabhängige Modifikation von Histonen Das von Hewish und Burgoyne (1), Olins und Olins (2) und Woodcock (3) eingeführte Konzept einer sich wiederholenden Chromatin-Untereinheit ist mittlerweile gut etabliert. Diese Untereinheit, das Nukleosom (4), hat je nach Ursprungsgewebe eine variable DNA-Wiederholung, obwohl die DNA-Wiederholung für die meisten somatischen Gewebe 195 ± 5 Basenpaare beträgt, zusätzlich enthält das Nukleosom jeweils zwei der Histone H2A, H2B , H3 und H4 (5), die sogenannten 'Kernhistone', und wahrscheinlich ein H1-Molekül. Unabhängig von ihrer Herkunft führt ein weiterer Verdau von Nukleosomen mit Mikrokokken-Nuklease zu einem scheinbar invarianten „Kern“-Partikel mit 140 Basenpaaren DNA und den acht Histonmolekülen (6,7). Es wurde gefunden, dass dieses Partikel kein H1 enthält, und daher wird allgemein angenommen, dass das H1 mit der Linker-DNA assoziiert ist, die die Kernpartikel verbindet, obwohl es durchaus zusätzliche Interaktionsstellen im gesamten Chromatin aufweisen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-0976-5_6 7cedb661f72f5902784c9445efda9749;de;;;2.4.;;;Ein forensisches Bereitschaftsmodell für drahtlose Netzwerke In den letzten zehn Jahren hat sich die drahtlose Mobilfunktechnologie basierend auf drahtlosen lokalen Netzwerken (WLANs) nach IEEE 802.11 weltweit in großem Umfang durchgesetzt. Mit der steigenden Zahl der drahtlosen Benutzer steigt jedoch auch die Möglichkeit der Cyberkriminalität, bei der Kriminelle absichtlich und aktiv in WLANs einbrechen, um Schaden anzurichten oder auf sensible Informationen zuzugreifen. Die digitale WLAN-Forensik wird nicht nur als Reaktion auf Cyberkriminalität in drahtlosen Umgebungen gesehen, sondern auch als Mittel zur Eindämmung der Zunahme der Cyberkriminalität in WLANs. Die Herausforderung bei der digitalen WLAN-Forensik besteht darin, die gesamte von den mobilen Geräten erzeugte Kommunikation abzufangen und zu bewahren und eine ordnungsgemäße digitale forensische Untersuchung durchzuführen. In diesem Artikel wird versucht, dieses Problem anzugehen, indem ein Modell für die Bereitschaft zur drahtlosen Forensik vorgeschlagen wird, das zur Überwachung, Protokollierung und Erhaltung des drahtlosen Netzwerkverkehrs für digitale forensische Untersuchungen entwickelt wurde. Als Proof of Concept wird eine prototypische Implementierung des drahtlosen forensischen Bereitschaftsmodells vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15506-2_8 6df589a1b2a8dfed8970e8d62f0e4596;de;;;5.3.;;;Funkfrequenzen in EPR: Konventionelle und erweiterte Nutzung Dieser Mini-Review konzentriert sich auf verschiedene Aspekte der Anwendung von Hochfrequenz (RF)-Bestrahlung bei der paramagnetischen Elektronenresonanz (EPR). Die Entwicklung der Elektron-Kern-Doppelresonanz (ENDOR)-Technik wird kurz beschrieben, und wir heben die Verwendung von zirkular polarisierten HF-Feldern und der Puls-ENDOR-Methode in ein- und zweidimensionalen Experimenten hervor. Die Leistungsfähigkeit von Puls-ENDOR im Q-Band wird mit interessanten experimentellen Beispielen veranschaulicht. Die durch ein HF-Feld in flüssigen Proben induzierten Elektronen-Spinecho-Hüllkurvenmodulationseffekte zeigen eine weitere Rolle, die HF-Felder spielen können. Technische Errungenschaften im Design von ENDOR-Resonatoren werden am Beispiel eines überbrückten Loop-Gap-Resonators veranschaulicht. Schließlich wird der Einfluss von longitudinalen HF-Feldern auf die Dynamik von EPR-Übergängen anhand einer Dressed-Spin-Resonanz-Behandlung erklärt.;-;-;-;https://link.springer.com/article/10.1007/BF03166607 0f452461a982900f21a758a8caa40e41;de;;;2.4.;;;Bearbeitungspriorität von interagierenden 2½D-Features in einem Feature-basierten Datenmodell Bei der Prozessplanung ist die Bestimmung der Bearbeitungspriorität des Features ein wesentlicher Schritt. Die Aufgabe wird schwieriger, wenn Merkmale miteinander interagieren, wobei in diesem Fall die Merkmalsprioritätsinformationen mehrere Bearbeitungssequenzen der Merkmale vorschlagen können. In diesem Whitepaper werden interagierende Features in einem Feature-basierten Modell für Prozessplanungsaufgaben betrachtet. Für jedes Feature werden Prioritätsinformationen generiert, die sowohl Schrupp- als auch Schlichtoperationen berücksichtigen. Ein regelbasiertes System wird basierend auf den Informationen über die Bearbeitungspriorität der interagierenden Merkmale entwickelt und implementiert. Als zugrundeliegendes Datenmodell wird das STEP-NC-Datenmodell verwendet. Dieses Modell ist objektorientiert und konform zu den bestehenden STEP-Standards. Die Ausgabe des Systems erfolgt ebenfalls im STEP-Format durch ein Informationsmodell, das unter Verwendung der EXPRESS-Sprache entwickelt wurde.;-;-;-;https://link.springer.com/article/10.1007/s10845-009-0268-8 1f0142b00e4f405f04c850849e646385;de;;;5.3.;;;Elektrische Eigenschaften von Kristallen Die elektrischen Eigenschaften von Kristallen sind die Phänomene, die in irgendeiner Weise mit der elektrischen Polarisation verbunden sind. In einigen Fällen ist diese Polarisation spontan, d. h. nicht durch äußere Einflüsse induziert, in anderen kann sie auf die Erwärmung eines Kristalls, das Anlegen eines elektrischen Feldes, eine mechanische Belastung usw.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-81838-7_3 2a5b049fe9ec9d23d14a230516b0631a;de;;;5.3.;;;Partielles Offloading-Strategie für mobiles Edge-Computing unter Berücksichtigung eines gemischten Zeit- und Energieaufwands Mobile Edge Computing (MEC) verwendet ein drahtloses Zugangsnetzwerk, um leistungsstarke Computerressourcen für mobile Benutzer bereitzustellen, um die Benutzererfahrung zu verbessern, die hauptsächlich zwei Aspekte umfasst: Zeit und Energieverbrauch. Zeit bezieht sich auf die Latenz, die für die Verarbeitung von Benutzeraufgaben verbraucht wird, während sich der Energieverbrauch auf die Gesamtenergie bezieht, die bei Verarbeitungsaufgaben verbraucht wird. In diesem Papier werden Zeit- und Energieverbrauch in der User Experience als gemischter Overhead gewichtet und dann gemeinsam optimiert. Wir formulieren ein gemischtes Overhead of Time and Energy (MOTE) Minimierungsproblem, das ein nichtlineares Programmierproblem ist. Um dieses Problem zu lösen, wird das Blockkoordinatenabstiegsverfahren verwendet, um jede Variable Schritt für Schritt zu behandeln. Wir analysieren weiter den Minimalwert der Verzögerungsparameter im Modell und untersuchen zwei Spezialfälle: 1-Offloading und 0-Offloading. Beim 1-Offloading werden alle Aufgabendaten auf den MEC-Server ausgelagert und beim 0-Offloading keine Daten. Außerdem werden die notwendigen und hinreichenden Voraussetzungen für das Vorliegen zweier Sonderfälle abgeleitet. Daneben wird auch die Multi-User-Situation diskutiert. Bei der Leistungsbewertung vergleichen wir MOTE mit anderen Auslagerungsschemata, wie der umfassenden Strategie und der auf der Monte-Carlo-Simulationsmethode basierenden Strategie, um die Optimalität zu bewerten. Die Simulationsergebnisse zeigen, dass MOTE im Vergleich zu anderen Algorithmen immer den minimalen Overhead erreicht.;-;-;-;https://link.springer.com/article/10.1007/s00521-019-04401-8 1153a6c07a314ccc5fb78a2683f2e99d;de;;;5.3.;;;Reservoirs und Entgasung Reservoirs für mobile Phasen enthalten die vorgemischten mobilen Phasen oder Komponenten der mobilen Phase, die in das LC-System gepumpt werden. Die Reservoirs reichen von den ursprünglichen Lösungsmittelbehältern bis hin zu speziellen Reservoirs für ein bestimmtes LC-Modell.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-59259-640-9_6 89b16353e2da075df15e4aa406fd60d9;de;;;2.4.;;;Objektsegmentierung unter unterschiedlichen Beleuchtungseffekten Die Bildsegmentierung ist eine der mittleren Ebenen der Bildverarbeitung. In diesem Beitrag ist Beleuchtung das Thema der Segmentierung verschiedener Objekte. In dieser Arbeit wurden zwei Methoden zur Bildsegmentierung vorgeschlagen und bewertet. Zuerst schlugen wir eine auf Regionswachstum basierende Methode vor, um Regionen zu finden, die ein interessierendes Objekt darstellen. Zweitens haben wir ein Verfahren auf der Grundlage einer Kantenunterdrückung vorgeschlagen, das einen Analysetensor verwendet. Das Experiment zeigte, dass das Region-Growing-Verfahren Einschränkungen bei der Bildsegmentierung für Objektfarbvariationen aufweist. Das System zeigt die Effektivität des Verfahrens durch Implementieren des Kantenunterdrückungsverfahrens in drei verschiedenen Objekten als Vordergrundobjekt und vier verschiedenen Objekten als Hintergrundobjekt. Unter Verwendung der Kantenunterdrückung funktionierte dieses System erfolgreich unter verschiedenen Beleuchtungsintensitäten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16211-9_2 25a20a1a3ecdc4abead526e29b1433ee;de;;;5.3.;;;Chemie und Biologie der Eisenspeicherung Man sagt, dass fast 20 % des gesamten Eisens im menschlichen Organismus mit den Proteinen Ferritin und Hämosiderin verbunden sind, die die Speicherformen des Eisens darstellen. Ferritin, aber nicht Hämosiderin, ist wasserlöslich. Aus diesem Grund ist Ferritin recht gründlich charakterisiert, während über die Eigenschaften von Hämosiderin noch wenig Informationen vorliegen. Letztere kann sowohl über das Licht- als auch Elektronenmikroskop sichtbar gemacht werden und erscheint in Form von granularen Strukturen. Solche Granulate reagieren mit der Perls-Lösung [K;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-3779-9_5 7ff82adf36d6f9ac726a8fb77a3c0a08;de;;;2.4.;;;Zur Anfechtbarkeit der Geräteidentifikation und der Überprüfung der Bildintegrität mithilfe von Sensormusterrauschen In dieser Arbeit untersuchen wir die Leistungsfähigkeit der Methoden zur digitalen Geräteidentifikation und Bildintegritätsprüfung, die auf Sensormusterrauschen als Gerätesignaturen beruhen, und die Anfechtbarkeit der Schlussfolgerungen, die aus den durch diese Art von Methoden gewonnenen Informationen gezogen werden. Wir beweisen, dass das in den Originalbildern vorhandene Sensormusterrauschen zerstört werden kann, um die Untersucher zu verwirren. Wir beweisen auch, dass das Sensormusterrauschen von Gerät A leicht in die Bilder eines anderen Geräts B eingebettet werden kann, sodass die Gerätekennung fälschlicherweise suggerieren würde, dass die Bilder von Gerät A und nicht von B erzeugt wurden, und forensische Untersuchungen in die Irre führen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11530-1_3 1717865b878850726525ff19e16f3b39;de;;;2.4.;;;Anatomische und physiologische Untersuchung des auditiven Inputs des Colliculus superior der echolokalisierenden Megachiroptera-Fledermaus Das Ziel dieser Studie war es zu untersuchen, ob eine Darstellung des Hörraums im Colliculus superior (SC) der echolokalisierenden Megachiroptera-Fledermaus (;-;-;-;https://link.springer.com/article/10.1007/BF00227641 99dc5c964d9937d7a0634d907d9dea7c;de;;;5.3.;;;Ungefähre Regelbarkeit für Trajektorien von semilinearen Regelsystemen Wir behandeln ein abstraktes semilineares Regelsystem und untersuchen das Regelbarkeitsproblem für seine Trajektorien. Unter der Annahme einer Bereichsbedingung des Regelwirkungsoperators und einer Ungleichungsbedingung der Systemparameter können wir zeigen, dass die erreichbare Trajektorienmenge des semilinearen Systems der des entsprechenden linearen Systems entspricht.;-;-;-;https://link.springer.com/article/10.1007/BF00938799 d4bf25128f9f3677682b6760ed4ef0e6;de;;;5.3.;;;Ordination und Klassifikation im Hochland Rugege Forest (Ruanda, Zentralafrika) Quantitative Daten zu Habitat und Vegetation aus 42 Höhenlagen des Rugege-Waldes wurden verschiedenen Ordnungs- und Klassifizierungsverfahren unterzogen.;-;-;-;https://link.springer.com/article/10.1007/BF02111904 181010325c6da669c56c7985a5db061b;de;;;5.3.;;;Ein mechanisch verifizierter Codegenerator Wir beschreiben die Spezifikation, Implementierung und den Korrektheitsnachweis eines Codegenerators für eine Teilmenge von Gypsy 2.05. Der Codegenerator ist in der Boyer-Moore-Logik spezifiziert, sein Beweis wird mit dem Kaufmann-erweiterten Boyer-Moore-Theorembeweiser vollständig maschinell überprüft. Unser Code-Generator sitzt auf einem „Stapel“ verifizierter Systemkomponenten und bietet eine prototypische Entwicklungsumgebung zum Erstellen hochzuverlässiger Anwendungsprogramme.;-;-;-;https://link.springer.com/article/10.1007/BF00243134 b226d013e8ba6e51d6e39ff52d755219;de;;;5.3.;;;Entwicklung eines tragbaren Smartphone-Begleiters für das Gesundheitswesen Tragbare Geräte gewinnen aufgrund ihres Potenzials, wertvolle physiologische Signale unterwegs zu messen, in der Gesundheitsbranche zunehmend an Bedeutung. Es gibt viele Forscher, die verschiedene Arten von Designs vorgeschlagen haben, die Biosensoren in tragbare Miniaturgeräte einbetten. In diesem Beitrag stellen wir einen tragbaren Begleiter vor, der die Herzaktivitäten eines Trägers mit Smartphone überwacht. Das Gerät verwendet einen einzelnen, integrierten Biosensor, der mit einer einzigartigen analogen Front-End-Schaltung und einer dedizierten Signalverarbeitungspipeline ausgestattet ist. Um den Anforderungen möglicher, aber unterschiedlicher Nutzungsszenarien gerecht zu werden, werden drei Arten von Produktformen vorgestellt. Die experimentellen Ergebnisse zeigen, dass die gesammelten Elektrokardiogramm-(EKG)-Signale gültig und konsistent sind. Zukünftige Themen sind das Hinzufügen zusätzlicher Algorithmen zur Entfernung von Bewegungsartefakten, um eine bessere Signalqualität in verschiedenen Einstellungen zu erreichen, und die drahtlose Kommunikation über 4G.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-03745-1_25 ee3a09fbaf7952834bcce51deaae1023;de;;;5.3.;;;Lipidstoffwechsel in menschlichen diploiden Zellen Die derzeit verfügbaren humanen diploiden Zelllinien stellen ein einzigartiges System zur Untersuchung von humanem Gewebe auf zellulärer Ebene bereit. Darüber hinaus wurde die von diesen Zellen gezeigte begrenzte Fähigkeit zur Verdoppelung als Seneszenz auf zellulärer Ebene interpretiert. Daher stellen humane diploide Zellen ein interessantes System zur Untersuchung des Alterns in vitro dar.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-1821-7_5 676d6a5bee47db49d3bd3064bc0c96b0;de;;;5.3.;;;Nicht strikte Vektorsummierung bei Planungsproblemen Wir betrachten eine endliche Familie von Vektoren in der Ebene, deren Summe gleich Null ist und jeder Vektor höchstens eine Einheitslänge hat. Es wird bewiesen (durch Konstruieren eines Algorithmus), dass jede solche Familie von Vektoren innerhalb einer gegebenen unbeschränkten konvexen Menge in der Ebene, die einige Bedingungen erfüllt, nicht strikt summiert werden kann. Die Anwendung des Algorithmus der nichtstriktiven Vektorsummierung auf drei Scheduling-Probleme mit drei Maschinen ermöglicht die Konstruktion von Polynomialzeit-Approximationsalgorithmen für deren Lösungen mit absoluten Worst-Case-Fehlern unabhängig von der Anzahl der Jobs.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-1606-7_18 cfa6302415d75cfb993b237c4029a2c1;de;;;2.4.;;;Ein Basispunktsuchalgorithmus bei der Digitalisierung von Seismogrammen Historisch simulierte Erdbebenaufzeichnungen sind wichtige Informationen für die Erdbebenüberwachung und -vorhersage. Die Digitalisierung simulierter Seismogramme ist ein wichtiges zu lösendes Problem. Die automatische Extraktion der Erdbebenwellenform ist die wichtigste Technologie für die Digitalisierung der simulierten Seismogramme und kann die Originaldaten in Wellenformdaten von Erdbebenaufzeichnungen umwandeln. Die genaue Bestimmung des Suchbasispunktes jeder Kurve in Seismogrammen ist die Grundlage für die Wellenformextraktion. In der Arbeit präsentieren wir einen Filteralgorithmus basierend auf der Region von Interesse, der bei der Auswahl des Suchbasispunktes jeder Kurve angewendet wird. Die experimentellen Ergebnisse haben gezeigt, dass der Algorithmus effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31968-6_82 4cff9c41735cf6e341ff6410fd67c6e3;de;;;5.3.;;;Ein konzeptionelles Modell für Dienstleistungen Modelle sind eine tragende Säule jeder natur- und ingenieurwissenschaftlichen Disziplin. Modelle sind in der Regel leichter zu studieren als die Systeme. Modelle sind Instrumente, die innerhalb eines Szenarios effektiv funktionieren. Die Effektivität basiert auf einem zugehörigen Methodenset und erfüllt die Anforderungen an die Verwendung des Modells. Eine typische Verwendung eines Modells ist die Erklärung, die informierte Auswahl und die Aneignung einer Gelegenheit. Diese Nutzung wird durch Informationen und Gebrauchsanweisungen bzw. bei einem Servicemodell durch ein informatives Modell deklariert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25747-1_5 79317fc0ec3d5bf3bda3dce95d6eb226;de;;;5.3.;;;Ein soziologiebasiertes Reputationsmodell für Cloud-Dienste Die Reputation ist der wichtigste Faktor bei der Auswahl von Cloud-Diensten. In diesem Papier analysieren wir zunächst die Reputation basierend auf der Sozialleistung. Dann haben wir ein geschichtetes Modell mit Fuzzy-Schätzung vorgeschlagen, in das die Nutzerbewertung, die anonyme Bewertung und die Expertenbewertung einfließen.;-;-;-;https://link.springer.com/chapter/10.1007/978-81-322-1759-6_51 26a9b710f9f93a0dc6f2a900905bec82;de;;;5.3.;;;Verallgemeinerte PID-Regelung des durchschnittlichen Aufwärtswandler-Schaltungsmodells In diesem Artikel untersuchen wir im Kontext der Gleichgewichts-Gleichgewichts-Referenztrajektorienverfolgung die Generalized Proportional Integral Derivative (GPID)-Steuerung eines nichtlinearen Durchschnittsmodells eines DC-DC-Leistungswandlers vom Typ „Boost“. Der Entwurfsansatz basiert auf dem Tangentenlinearisierungsmodell des Wandlers und der Stabilitätstheorie von Lyapunov. Die Leistung des rückkopplungsgesteuerten nichtlinearen Systems wird mittels digitaler Computersimulationen einschließlich großer, unmodellierter Lastparametervariationen bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45802-6_29 e67ec9cd68e6db9e3323f735b6ec8497;de;;;5.3.;;;Smart-Scrolling: Verbesserung der Informationszugriffsleistung in linearen Layoutansichten für Geräte mit kleinem Bildschirm Wir haben eine adaptive Auto-Scrolling-Technik, Smart-Scrolling, vorgeschlagen, die den gescannten Informationsbereich bestimmt und automatisch in einer linearen Layoutansicht ausblendet. Mit 15 Teilnehmern wurde ein Experiment durchgeführt, um die Anwendbarkeit der Technik unter verschiedenen Anwendungsbedingungen verschiedener Interaktionsmethoden, Informationslistenlängen und Bildschirmgrößen zu untersuchen. Die experimentellen Ergebnisse zeigten, dass Smart-Scrolling die Basislinie mit einer Verbesserung der Aufgabenerledigungsgeschwindigkeit von 9,4% und einer Genauigkeit von 42,9% übertraf und das manuelle Scrollen um 51,4% reduzierte. Smart-Scrolling schnitt unter verschiedenen Anwendungsbedingungen unterschiedlicher Interaktionsmethoden, Informationslistenlängen und Bildschirmgrößen besser als die Basislinie ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-26763-6_40 bb8bd5dc15d40200ca06b9abca9fb1b3;de;;;5.3.;;;{2, 3}-Gruppen ohne Elemente der Ordnung 6 Wir beschreiben {2, 3}-Gruppen ohne Elemente der Ordnung 6, in denen Ordnungen von 2 Elementen in der Gesamtheit beschränkt sind und die Ordnung eines Produkts von zwei beliebigen Elementen der Ordnung 4 höchstens 9 nicht überschreitet.;-;-;-;https://link.springer.com/article/10.1007/s10469-015-9308-y 4ee386337fe26c09589d0c374e2341fb;de;;;5.3.;;;Konzeptionelles Design eines weichen und transparenten vibrotaktilen Aktors Dieses Papier berichtet über einen weichen und transparenten vibrotaktilen Aktuator, der leicht in kleine tragbare Geräte eingebettet werden kann. Beim Anlegen einer Wechselspannung an den Aktuator lädt sich das elektroaktive Polymer auf und erzeugt dann Schwingungen. Vibrationsmechanismus und Versuchsergebnisse für vorgeschlagene vibrotaktile Aktuatoren werden erklärt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3194-7_53 041f8132e3878253880cce926495d35c;de;;;5.3.;;;Über Singulär- und Knall-Bang-Prozesse in optimaler Kontrolle Für den Prozess p ist charakteristisch, dass er manchmal singulär wird. In der Praxis ist es jedoch sehr schwierig, im Voraus zu beweisen, dass der Prozess p singulär oder knallig ist. Es werden hinreichende Bedingungen für verschiedene Annahmensätze abgeleitet.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0008908 f26f698db584f02b883bbf92e99ef579;de;;;5.3.;;;OWASP O2 Platform - Offene Plattform zur Automatisierung von Wissen und Workflows zur Anwendungssicherheit In diesem Vortrag stellt Dinis Cruz die OWASP O2 Platform vor, ein Open-Source-Toolkit, das speziell für Entwickler und Sicherheitsberater entwickelt wurde, um schnelle, effektive und gründliche quellcodegesteuerte Anwendungssicherheitsprüfungen durchzuführen. Die OWASP O2-Plattform (http://www.owasp.org/index.php/OWASP_O2_Platform) verwendet Ergebnisse der Scan-Engines von Ounce Labs, Microsofts CAT.NET-Tool, FindBugs, CodeCrawler und AppScan DE und bietet auch eingeschränkte Unterstützung für Fortify und OWASP WebScarab-Dumps. In der Vergangenheit gab es eine sehr gesunde Skepsis bezüglich der Nutzbarkeit von Quellcode-Analyse-Engines, um häufig gefundene Schwachstellen in realen Anwendungen zu finden. Diese Präsentation zeigt, dass es mit einigen kreativen und leistungsstarken Tools möglich ist, O2 zu verwenden, um diese Probleme zu entdecken. Diese Präsentation zeigt auch die erweiterte Unterstützung von O2 für Struts und Spring MVC.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16120-9_3 50c3f968f8646e2b1abe20a5fe2c5cb6;de;;;5.3.;;;Ausdrucksstarke Sprachsynthese mit emotionsspezifischen Sprachinventaren In diesem Beitrag untersuchen wir die Verwendung von emotionsspezifischen Sprachinventaren für die expressive Sprachsynthese. Wir haben einen semantisch neutralen Satz und 26 Logatome aufgenommen, die alle Diphone und CVC-Triphone enthalten, die für die Synthese desselben Satzes notwendig sind. Das Sprachmaterial wurde von einer professionellen Schauspielerin produziert, die alle Logatome und den Satz mit den sechs Grundgefühlen und in neutralem Ton ausdrückt. Aus den Logatomen wurden 7 emotionsabhängige Inventare erstellt. Die 7 Inventare gepaart mit der aus den 7 natürlichen Sätzen extrahierten Prosodie wurden verwendet, um 49 Sätze zu synthetisieren. 194 Zuhörer bewerteten die in den Logatomen und in den natürlichen und synthetischen Sätzen ausgedrückten Emotionen. Die beabsichtigte Emotion wurde bei 99% der Logatome und bei allen natürlichen Sätzen über dem Zufallsniveau erkannt. Für jede Emotion wurden Erkennungsraten erhalten, die deutlich über dem Zufallsniveau lagen. Die Erkennungsrate einiger synthetischer Sätze überstieg die der natürlichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-70872-8_17 4a5cbd63b50b03f5f3953b785df1f32e;de;;;5.3.;;;Mensch-Roboter-Dialoge zur Erklärung von Aktivitäten Der Beitrag konzentriert sich auf die Dialogmodellierung, die die Kommunikation zwischen Benutzern und sozialen Robotern ermöglicht, auf Themen, die die Erfahrungen und Kenntnisse von Menschen in Dienstleistungsbranchen, insbesondere in Altenpflegediensten, betreffen. Wir diskutieren verschiedene Wissenstypen und Wissensexplikationen anhand von Dialogen, die auf zielorientierten Ontologien basieren. Wir präsentieren eine Architektur und ein Beispiel für ein Dialogsystem, das es Menschen ermöglicht, mit einem Roboterpartner zu kommunizieren und sich an Interaktionen zu Aktivitäten im Zusammenhang mit grundlegenden Pflegeaufgaben zu beteiligen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9443-0_20 38be5eae243f605cf93649faeaf6cb11;de;;;5.3.;;;Ist eine virtuelle Lernumgebung eine One-Size-Fits-All-Lösung? Eine Umfrage zu kognitiven Stilen innerhalb einer Universitätsstudentenpopulation In den letzten zehn Jahren war die groß angelegte Einführung von virtuellen Lernumgebungen (VLEs) in die Hochschulbildung ein Segen für Lernende und Lehrende gleichermaßen. VLEs ermöglichen den Schülern vor, während und nach dem Unterricht einen schnellen Zugriff auf digitale Materialien und eine Plattform für die anschließende Diskussion. Im Laufe der Jahre hat sich eine Reihe von Beweisen herauskristallisiert, die darauf hindeuten, dass sich Lernende in ihren kognitiven Stilen erheblich unterscheiden und dass die Übereinstimmung/Nichtübereinstimmung des Unterrichtsdesigns mit diesen Stilen sowohl die Interaktion der Lernenden mit Materialien und das Ausführen von Aufgaben als auch das Lernen beeinflussen kann Ergebnisse. Eine Umfrage basierend auf einer überarbeiteten Version des Study Preferences Questionnaire [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-42147-6_25 1affdf257e73782be7928cbd9c87257f;de;;;5.3.;;;Saisonales Muster der Gezeiten-Topographie entlang der Mittleren Küste von Jiangsu, China, unter Verwendung optischer HJ-1-Bilder Saisonale topografische Veränderungen in der Gezeitenzone sind in vielen Teilen der Welt von großem Interesse. Aufgrund bestehender Herausforderungen bei der Kartierung dieser Dynamik ist wenig über das saisonale Muster von Wattenmeeren bekannt. Diese Forschung zielt darauf ab, die Wissenslücke zu schließen, indem optische Bilder der chinesischen HJ-1-Satellitenkonstellation verwendet werden. Eine Fallstudie wurde an der mittleren Küste von Jiangsu durchgeführt, einer typischen Wattenmeerregion in China. Zunächst wurden 455 optische Bilder von den HJ-1-Satelliten gesammelt, um saisonale digitale Elevation-Modelle (DEMs) zu erstellen. Als nächstes wurden synchrone Light Detection and Ranging (LiDAR)-DEM- und Bodenvermessungsdaten gesammelt, um die Genauigkeit der saisonalen Watt-DHMs zu validieren. Schließlich wurde das saisonale Muster des Wattenmeeres anhand einer Zeitreihe des DEM-Volumenvergleichs gezeigt. Die Ergebnisse zeigen: (1) Die HJ-1-Bilder sind eine qualifizierte Datenquelle, um zufriedenstellende Watt-DEMs mit hoher räumlich-zeitlicher Auflösung und akzeptabler vertikaler Genauigkeit zu erzeugen. (2) Im Allgemeinen gibt es an der mittleren Küste von Jiangsu offensichtliche Zyklen von Erosion und Ablagerung, mit Ablagerungen im Winter und Erosionen im Sommer. Darüber hinaus unterscheiden sich die abgeleiteten saisonalen Muster zwischen den fünf großen Sandbänken deutlich.;-;-;-;https://link.springer.com/article/10.1007/s13157-013-0445-6 1934099b2d8da2b57bd4c1d6cfaaa22f;de;;;5.3.;;;Modellierungstools für Social Coding In den letzten Jahren wurde das Paradigma der sozialen Codierung häufig in der Softwareentwicklung verwendet, wobei Versionskontrollsysteme und Tracking-Funktionen genutzt wurden. Die meisten Social-Coding-Plattformen bieten jedoch keine Modellierungswerkzeuge, die die Erstellung von Dokumenten für entsprechende Produkte unterstützen. In der vorliegenden Arbeit schlagen wir Modellierungswerkzeuge für Social Coding vor. Die Tools basieren auf hybriden Editoren, bei denen verschiedene Experten eines Projektteams mit den richtigen Eingabemethoden einige Funktionen von Softwarekomponenten ändern können. Diese Editoren ermöglichen es Benutzern, sowohl ein visuelles Konstrukt in einer High-Level-Darstellung als auch die entsprechenden Texte im Low-Level-Format zu manipulieren. Einige Vorteile dieser Ansätze werden auch anhand einer Fallstudie und deren Bewertung diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22689-7_31 3bb2036e15155df96299e539e22119be;de;;;5.3.;;;Eine Methode zur Verbesserung der Anmeldegeschwindigkeit für das MLP-basierte Sprecherverifikationssystem durch Reduzierung der Lerndaten Das MLP-basierte Sprecherverifizierungssystem kann einen schnellen Sprecherregistrierungsprozess sowie eine hohe Sprechererkennungsrate und einen schnellen Sprecherverifizierungsprozess bereitstellen müssen. Das mehrschichtige Perzeptron (MLP) bietet eine höhere Mustererkennungsrate, ohne eine zugrundeliegende Dichteverteilung gegenüber den existierenden parametrischen Mustererkennungsverfahren anzunehmen, und ermöglicht einen schnellen Betrieb durch die gemeinsame Nutzung interner Parameter zwischen verschiedenen Modellen. Unter einer Vielzahl von Mustererkennungsproblemen ist die Sprecherverifizierung der Bereich, um solche Vorteile des MLP effektiv zu nutzen. Das Lernen des MLP basierend auf der Error Backpropagation (EBP) benötigt jedoch relativ lange Lernzeit. Dieser Mangel führt dazu, dass die Sprecherregistrierung, die online im Sprecherverifizierungssystem basierend auf dem MLP durchgeführt wird, über Gebühr verlängert wird. Dieses Papier schlägt ein Verfahren vor, das die für das Einschreiben eines Sprechers unabdingbaren Hintergrundsprecher reduziert, um die Sprechereinschreibezeit zu verkürzen, die die Verwendbarkeit des Sprecherverifizierungssystems basierend auf dem MLP beeinträchtigt. Diese Methode verwendet die Kohortensprechermethode [;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45683-X_87 ef62f93c415ee8023ea67ca511360a55;de;;;5.3.;;;Universell einsetzbarer I-V-Tester zur Messung einer Vielzahl von Photovoltaiksystemen In diesem Papier wird der Entwurf und die Entwicklung eines Instruments mit erweiterten Fähigkeiten für die I/V-Nachverfolgung von Photovoltaik-(PV)-Geräten vorgeschlagen. Kommerzielle Instrumente, die I-U-Kurven von PV-Geräten messen, sind für eine Vielzahl von Anwendungen geeignet. Für spezifischere Forschungen und Messungen ist jedoch die Entwicklung maßgeschneiderter Geräte erforderlich. Maßgeschneiderte Entwicklung bietet Flexibilität und ermöglicht die Implementierung maßgeschneiderter Algorithmen und eine genaue Kontrolle der erhaltenen Informationen. Volle Kontrolle bietet mehr Flexibilität beim Testen und erweitert die Messmöglichkeiten. Der entwickelte I-V-Tester ist in der Lage, niedrige Spannungen zu messen und verwaltet eine sehr niedrige Widerstandslast, um Kurzschlussstromwerte mit Spannungen nahe Null zu liefern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-38889-8_11 c43d327948f18f7d741e3daf8f4dcddb;de;;;5.3.;;;Herzfrequenzvariabilitätsmessungen bei mobiler Arbeit Es gibt neue Komplexitäts- und Arbeitsbelastungsfaktoren im Zusammenhang mit dem mobilen Arbeitsmodus. Ein wichtiger Aspekt ist die Work-Life-Balance, insbesondere unter dem Aspekt der adäquaten Erholung. Die Herzratenvariabilität (HRV) spiegelt die Funktion des autonomen Nervensystems (ANS) wider. So können Stress und Erholung des ANS mit HRV-Analysen bewertet werden. Ziel dieser Studie war es herauszufinden, inwiefern die HRV-Messung den Zielen der arbeitsmedizinischen Versorgung dient. Zehn weltweit mobile Mitarbeiter wurden durch ein HRV-Erfassungsverfahren gemessen. Die Erfahrungen mit der Durchführung der Messung wurden durch halbstrukturierte Interviews gesammelt. Durch die HRV-Messung gewinnen Arbeitsmediziner valide Informationen über die ANS-Stress- und Erholungsreaktionen mobiler Mitarbeiter. Durch die Verknüpfung der von den Mitarbeitern eingegebenen Tagebuchinformationen damit konnten auch Kenntnisse über die Arbeitsbedingungen erreicht werden. Das Messverfahren ist jedoch zeitaufwendig und teuer in der Durchführung. Daher sollte die HRV-Messung auf jene mobilen Mitarbeiter abzielen, die Schwierigkeiten haben, ihre Work-Life-Balance zu kontrollieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32850-3_6 7515090279514d999e8cb2041921e00d;de;;;5.3.;;;Untersuchungen zum Augenbewegungsmodus chinesischer Studenten beim Lesen englischer Websites English Um das Eintauchen und das Interesse chinesischer College-Studenten am Lesen englischer Webseiten zu verbessern, wurde im Rahmen dieser Studie ein Untersuchungsexperiment zu Augenbewegungsmustern durchgeführt, das 30 Fächer von Studenten umfasste. Als interaktives Gerät wird ein ziviler Eyetracker, Tobii Eye Tracker 4C, gewählt, die Blickzeit und Regression werden als Augenbewegungsindikatoren gewählt und eine Reihe von Klassifizierungsmodellen basierend auf den Unterschieden der Augenbewegungen zwischen dem Lesen von vertrauten Wörtern und ungewohntes Wortlesen. Nach den Klassifikationsmodellen wird eine Browsererweiterung namens Chinen Translation entwickelt, die automatisch und zeitnah übersetzen kann. Im Usability-Test von Chinen beträgt die Vorhersagefähigkeit der unbekannten Wörter im Volltext der 30 Probanden des Klassifikationsmodells durchschnittlich 96,69 %, die höchste 99,35 % und die niedrigste 93,55 %.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-8779-1_22 63b6b502b6140d32929a8a0198d904ff;de;;;5.3.;;;Browsing-Methoden für mehrere Online-Animationen handschriftlicher Notizen Wir schlugen ein System zum Teilen von Notizen für Schüler vor, um kollaboratives und interaktives Lernen in herkömmlichen Klassenzimmern zu erleichtern. Schülernotizen können bereits von Schülern und Lehrern über eine Projektionswand sofort geteilt werden. Allerdings reicht die Auflösung derzeit nicht aus, um jede Schülernotiz im Detail darstellen zu können, was den Lernnutzen schmälert. Um dieses Problem zu beheben, haben wir zwei Browsing-Methoden vorgeschlagen, die die gleichzeitige Anzeige mehrerer handgeschriebener Notizen-Online-Animationen ermöglichen. Bei beiden Methoden wurden die Zoomraten automatisch ermittelt. Es wurden Experimente zur Lesbarkeit von Texten, zur Sichtbarkeit von Figuren und zur Intuitivität von Animationen durchgeführt. Die Ergebnisse zeigten, dass die von der ConstantZoom-Methode erzeugten Animationen intuitiver waren als die von der VariableZoom-Methode erzeugten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-2618-8_17 d1e091c9e80afd8b06e655e3b16ca5f5;de;;;5.3.;;;Application Tag System basierend auf Erfahrung und Freude für hedonische Suchen In diesem Beitrag schlagen wir das Funification-Tag-System vor, das aus den Erfahrungs-Tags, den Beschreibungs-Tags und den Anforderungs-Tags besteht. Die Erfahrungs-Tags werden basierend auf den Wörtern konstruiert, die sich auf die Sinne und Erfahrungen des Körpers beziehen. Die Beschreibungs-Tags werden aus den Beschreibungstexten extrahiert, die die Anwendungen erklären, und die Beschreibungs-Tags geben die repräsentativen Wörter für jede Kategorie an. Die Anforderungs-Tags werden entsprechend der hohen Häufigkeit aus den übermittelten Benutzeranfragen ausgewählt. Obwohl die Wörter im Funification-Tag-System 1/8 kleiner sind als alle Wörter in den Beschreibungstexten der mobilen Anwendung, beträgt der Abdeckungsunterschied bei den neu eingereichten Anfragen, die nicht mit der Konstruktion des Funification-Tag-Systems zusammenhängen, weniger als 10 %. Darüber hinaus kann die vorgeschlagene auf Tags basierende Schnittstelle von Funification dazu beitragen, die Anzahl der Anwendungsdownloads im Mobile Application Store zu erhöhen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32692-9_44 0d284cb0a6667c42151797b5f315a954;de;;;5.3.;;;Entwerfen von Mashup-View-Navigationen mit Data Binding-Ansatz Clientbasierte Web-Mashups sind zu einer der wichtigsten Architekturen in der Entwicklung von Webanwendungen geworden. Die Navigation zwischen Ansichten und Serviceanfragen wird jedoch in den meisten Web-Mashups immer noch manuell entwickelt. In diesem Papier schlagen wir das Konzept der deterministischen Datenbindung zwischen Ausgabedaten und den Eingabeparametern einer anderen Methode für einen bestimmten Satz von Datenzuordnungen zwischen Diensten vor. Der Datenbindungsansatz bietet ein Modell zum Generieren von Kontextmenüs zum Navigieren und Anfordern von Diensten mit einer einfachen und bequemen Schnittstelle. Die kontextabhängigen Bindungsbeziehungen ermöglichen ohne Benutzereingriff eine vernünftige Größe der notwendigen Methodenverbindungen, selbst wenn die Anzahl der Dienste und die Größe der Mashup-Seite wachsen. Um die Anwendbarkeit des vorgeschlagenen Ansatzes zu zeigen, präsentieren wir ein Beispiel einer historischen Tourismus-Service-Webseite.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32692-9_45 08a474e7af73c3b0dcf608037de33a1e;de;;;2.4.;;;Quantenkryptografie für die Sicherheit der Datenwissenschaft In der heutigen Welt stehen Computerfelder vor vielen Problemen des Datenraums und dicht parallel, da die Daten im Internet Tag für Tag riesig werden. Wir müssen die Daten für eine ordnungsgemäße Verwaltung und ordnungsgemäße Verwendung der Daten analysieren, deshalb verwenden wir Data Science, um die Daten einfach zu analysieren oder auszuwerten, und für die Datenanalyse müssen wir Sicherheit verwenden, damit die Daten mithilfe einiger Quantenmechanik.“ Data Science ist ein Feld oder ein multidisziplinäres Gebiet, das wissenschaftliche Methoden, Prozesse, Algorithmen und Systeme verwendet, um Informationen und Erkenntnisse aus strukturierten und unstrukturierten Daten zu extrahieren. Es bezieht sich hauptsächlich auf Data Mining und Big Data. Dieses Papier ist die Übersicht, die beschreibt, wie die Quantenkryptographie (QC) mit der Datenwissenschaft umgeht. Es beschreibt auch die Datensicherheit und die Analyse von Protokollen mittels Quantenkryptographie.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4893-6_28 cb67550c9eaba4a8ce21923c2a4e4f0d;de;;;2.4.;;;Die Auswirkungen von CISD2-Knockout auf mitochondriale morphologische Subtypen in 3D-Aufnahmen von epidermalem Gewebe der Maus CISD2, CDGSH Iron Sulphur Domain 2, ist ein Gen, das mit dem Wolfram-Syndrom assoziiert ist. Ein Mangel an CISD2 führt zu vorzeitiger Alterung. Solche Defekte können eine Ausdünnung der Haut verursachen und Mitophagie und mitochondriale Störungen aktivieren. Die Auswirkungen des CISD2-Knockouts auf die mitochondriale Dynamik von Hautgeweben sind jedoch unklar, da eine 3D-mitochondriale morphologische Analyse in Geweben fehlt. In dieser Arbeit wurden 3D-Mikrographien von epidermalem Gewebe von Mäusen in normal und vorzeitig alternden (CISD2-Knockout) Mäusen analysiert, die Dendra2-mito exprimieren, die die mitochondriale Morphologie visualisieren. Zellen in unterschiedlichen Tiefen der Hautschichten wurden getrennt analysiert. Mitochondriale Objekte wurden von MicroP segmentiert und dann zur Erfassung morphologischer 3D-Merkmale verwendet. Merkmale wurden normalisiert, um mitochondriale Objekte durch X-Mittel in mitochondriale Subtypen zu gruppieren. Es gab insgesamt 7 mitochondriale morphologische Subtypen im Epidermisgewebe, und die Verteilungen jedes Subtyps zwischen normalen und vorzeitig alternden Epidermiszellen waren unterschiedlich.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-4361-1_15 91d9540ee8103c97e609ad0c45fa2f28;de;;;2.4.;;;Eine automatisierte Technik zur Bestimmung räumlich-zeitlicher Veränderungen in Satelliteninselbildern mit Vektorisierung und räumlichen Abfragen Für räumlich-zeitliche und topologische Analysen liefern vektorielle Informationen (die als Punktmengen definierte Koordinatenwerte enthalten) bessere Informationen als ihr Gegenstück zum Raster (Pixelraster). Die in diesem Artikel vorgestellte Studie basiert auf (1) der Erkennung und Extraktion eines Inselobjekts in einem Satz digitaler Bilder, die vom LandSat-7-Satelliten aufgenommen wurden, und (2) der Modellierung als Polygon (vektoriell) und der einfachen Verarbeitung und leicht verständlich für Computer- und Informatikanwendungen. Polygondarstellungen von Inselbildern können dann durch objektrelationale räumliche Datenbanken gespeichert und manipuliert werden. Räumliche Datenbanken verfügen über integrierte Funktionen und Dienste für räumliche Objekte, die mit Geometrietypen wie Punkten, Linien und Polygonen definiert sind. Auf diese Weise werden wir die Studien und Entdeckungen der sich schnell verändernden und sich entwickelnden objektrelationalen Datenbankgemeinschaften in der raumzeitlichen und topologischen Analyse für die Untersuchung digitaler Satellitenbilder nutzen. Dieser Ansatz ermöglicht auch Servicequalitäten sowie eine bessere Leistung. Die Effizienz und Machbarkeit des vorgeschlagenen Systems wird anhand verschiedener Szenarien wie Erdbeben, Erosion und Akkretion untersucht. Szenarien basieren auf der Messung der Auswirkungen der Naturphänomene auf einer ausgewählten Insel auf Satellitenbildern.;-;-;-;https://link.springer.com/article/10.1007/s12046-014-0309-7 1c06d98f43037f188d12ae51415d8719;de;;;5.3.;;;Auswirkungen einer NFC-basierten Anwendung mit Bildungszwecken auf Kinder mit Sprachstörungen In den letzten Jahren haben sich dank der Entwicklung immer günstigerer mobiler Technologien und der Verfügbarkeit kostenlos herunterladbarer Softwareanwendungen immer mehr neue Geräte für Kinder und Behinderungen entwickelt. In dieser Arbeit beschreiben wir das Design, die Entwicklung und den Test eines integrierten Systems, das die Verwendung eines Tablets, einer Gruppe von Spielzeugen (z. Die Ziele des Geräts sind die Verbesserung des strukturellen Wissens und der semantischen Kompetenzen von typisch entwickelnden und behinderten Kindern bei gleichzeitiger Bereitstellung einer unterhaltsamen Umgebung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-48645-0_24 5d4b772dd026d159c523ae56cf2a9bfc;de;;;5.3.;;;Neuartiges, dünnes elektromagnetisches System zur Erzeugung von Drucktasten-Feedback in Automobilanwendungen Die Integration künstlicher Haptik auf ebenen Flächen ist eine Usability-Anforderung, die sich aus modernen Bediengeräten auf Basis kapazitiver Touchscreens ergibt. In Automobilanwendungen müssen Aspekte wie hoher Signal-Rausch-Abstand der Rückkopplung, mechanische Erdung der Geräte und allgemeine Robustheit unter thermischen und klimatischen Bedingungen berücksichtigt werden. In diesem Beitrag wird ein elektromagnetisches Aktormodul für aktives taktiles Feedback für Automobilanwendungen vorgestellt, das eine homogene und intensive Rückmeldung auf einer Fläche von mindestens 100x60 mm² ermöglicht. Das Gehäuse des Aktuators ist dünn, was eine einfache Produktintegration auch in komplexe Multimedia-Steuergeräte garantiert. Die daraus resultierenden Herausforderungen an Parallelführung, Sensorik und resultierende Performance werden skizziert und in einem Ausblick für die zukünftige Anwendung im Serienkontext zusammengefasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31401-8_56 861e389681a0d5728339e0623a624133;de;;;5.3.;;;Die Auswirkungen der virtuellen Produkterfahrung auf die Änderung der Voreingenommenheit des Verbrauchers auf den ersten Eindruck Empfehlungsagenten gelten aufgrund ihrer Fähigkeit, die Online-Kaufentscheidungen der Verbraucher zu erleichtern, als eine der mächtigsten Techniken des Website-Marketings. In einer modernen Gesellschaft, in der Informationen schnell ausgetauscht und übermittelt werden, kommt es jedoch häufig vor, dass Verbraucher bereits Produktinformationen aus verschiedenen Quellen erhalten haben, bevor sie die Nachrichten von Empfehlungsagenturen auf der Website durchsuchen. Das heißt, der erste Eindruck, der auf ein bestimmtes Produkt gerichtet ist, kann bereits im Kopf des Verbrauchers vorhanden sein, wenn er die Website-Nachricht liest, die versucht, ihn zum Kauf dieses Produkts zu bewegen. Ist die von Empfehlungsagenten übermittelte Nachricht in der Lage, diese Voreingenommenheit zu ändern und den beabsichtigten Nutzen zu erzielen: Verbraucher zum Kauf auf der Website zu bewegen? Durch die Integration der Theorie des First-Impression-Bias, des Elaboration-Likelihood-Modells und der virtuellen Produkterfahrung wurde in dieser Studie ein Forschungsmodell entwickelt und empirisch untersucht, das vorschlägt, dass die virtuelle Produkterfahrung die Argumentationsqualität und die Quellenglaubwürdigkeit der Empfehlungsagenten verbessern kann, durch Die Verzerrung des ersten Eindrucks kann geändert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-211-93971-0_10 f171a81136f1330c29159f3f94ec2c86;de;;;5.3.;;;Automatische Erstellung von Tourismus-Quiz über Blogs Die unidirektionale Bereitstellung der Informationskommunikation beeindruckt die Zuhörer nicht gut. Als effiziente Methode kann Question & Answer nicht nur Hörern helfen, den Inhalt von Informationen zu verstehen, sondern auch Informationsanbietern helfen, die Antworten der Hörer zu verstehen. Allerdings ist es nicht für jeden einfach, passende Fragen zu erstellen. In diesem Beitrag schlagen wir ein automatisches Quiz-Generierungssystem vor, das Tourismus-Blogs verwendet. Das System kann Quizfragen erstellen, indem es Feature-Wörter des Themenschlüsselworts aus Blogs extrahiert. Unser Ziel ist es, Tourismusinformationsanbietern zu helfen, ihre touristischen Veranstaltungen interaktiv zu bewerben, um Touristen zu beeindrucken. Im Vergleich zu anderen Methoden der Quiz-Generierung zeigen wir, dass unsere Methode besser für die Bereitstellung von Informationskommunikation geeignet ist.;-;-;-;https://link.springer.com/article/10.1007/s10015-012-0076-7 93a862a6d90fc3702484e8b7b37f1ad4;de;;;5.3.;;;Ein automatisches Kursgenerierungssystem zur Organisation vorhandener Lernobjekte mit Hilfe der Partikelschwarmoptimierung Der Zweck dieser Studie besteht darin, zu überlegen, wie Dozenten dabei unterstützt werden können, ein gut strukturiertes Lehrmaterial unter Verwendung vorhandener Lernobjekte neu zu organisieren. Um dieses Problem zu lösen, verfolgt diese Studie einen neuartigen Ansatz – die Partikelschwarmoptimierung (PSO), um dieses Ziel zu erreichen. Durch die Verwendung dieses Algorithmus kann der vorgeschlagene Ansatz ein Lehrmaterial automatisch neu organisieren und mehrere von den Dozenten festgelegte Kriterien erfüllen. Darüber hinaus haben Evaluierungsergebnisse gezeigt, dass der vorgeschlagene Ansatz anwendbar ist und den meisten Lehrenden helfen kann, Lehrmaterialien effizient und effektiv neu zu organisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03364-3_70 f77ec54b383d7907872f3e0df606a295;de;;;5.3.;;;Ein Gesundheitsinformationssystem mit erweiterten Zugangskontrollen Im Gesundheitswesen gehört die alte papierbasierte Akte der Vergangenheit an und immer mehr Patienteninformationen werden in das digitale Format, die elektronische Patientenakte (EMR), übertragen. Es integriert heterogene Informationen in die Gesundheitsinformationssysteme (HIS), was die Notwendigkeit erhöhter Sicherheit, Verfügbarkeit und Zugangskontrollen unterstreicht. Wir demonstrieren unser Prototypsystem, das die Isolations- und Delegationskomponenten basierend auf der realen HIS-Software OpenEMR enthält. Dieses System zielt darauf ab, die Benutzerfreundlichkeit moderner KIS zu verbessern, ohne die Systemsicherheit zu verschlechtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29253-8_80 9b91c75999aa50e4fa20daafa23fc2d5;de;;;5.3.;;;Zweistufige Identifizierung von Webservice-Fehlern Erfolgreiche Webservices müssen sich weiterentwickeln, um relevant zu bleiben (z. B. Anforderungsaktualisierung, Fehlerbehebung usw.), aber dieser Evolutionsprozess erhöht die Komplexität und kann dazu führen, dass das Design der Webservice-Schnittstelle verfällt und die Benutzerfreundlichkeit und Popularität der Services erheblich eingeschränkt wird. Die Aufrechterhaltung einer hohen Designqualität ist aufgrund des Geld- und Zeitdrucks, der Programmierer dazu zwingt, die Verbesserung der Qualität ihrer Schnittstellen zu vernachlässigen, extrem teuer. Ein grundlegenderer Grund ist, dass es wenig Unterstützung gibt, Konstruktionsfehler auf Web-Service-Schnittstellenebene automatisch zu identifizieren und den hohen Kalibrierungsaufwand zu reduzieren, um den Schwellenwert für jede Qualitätsmetrik manuell zu bestimmen, um Konstruktionsfehler zu identifizieren. In diesem Papier schlagen wir vor, die Generierung von Regeln zur Erkennung von Fehlern im Schnittstellendesign als ein zweistufiges Optimierungsproblem zu behandeln. Zu diesem Zweck generiert das Problem der oberen Ebene einen Satz von Erkennungsregeln als Kombination von Qualitätsmetriken, die die Abdeckung einer Basis von Fehlerbeispielen, die aus mehreren Webdiensten extrahiert wurden, und künstlichen Fehlern, die von der unteren Ebene generiert wurden, maximieren. Die untere Ebene maximiert die Anzahl der erzeugten künstlichen Fehler, die von den Regeln der oberen Ebene nicht erkannt werden können. Die statistische Analyse unserer Experimente über 30 Läufe mit einem Benchmark von 415 Webservices zeigt, dass 8 Arten von Webservice-Fehlern mit durchschnittlich mehr als 93 % Genauigkeit und 98 % Wiedererkennungswert erkannt wurden. Die Ergebnisse bestätigen die Outperformance unseres Bi-Level-Vorschlags im Vergleich zu modernsten Techniken zur Erkennung von Web-Service-Designfehlern und die von potenziellen Benutzern und Programmierern durchgeführte Umfrage zeigt auch die Relevanz der erkannten Fehler.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-46295-0_22 82a4eeb88188d6e7ced22771868cc36b;de;;;5.3.;;;Zurückgezogen: Anwendung wissenschaftlicher Ansätze zur Bewertung der Qualität von Lernobjekten im eQNet-Projekt Die Arbeit zielt darauf ab, die Anwendung verschiedener wissenschaftlicher Ansätze, Methoden und Prinzipien zur Bewertung der Qualität von Lernobjekten für das Fach Mathematik zu analysieren. Die Autoren analysieren die folgenden Ansätze zur Minimierung des Subjektivitätsniveaus bei der Expertenbewertung der Qualität von Lernobjekten, nämlich: (1) Prinzipien der Mehrkriterien-Entscheidungsanalyse zur Identifizierung von Qualitätskriterien, (2) Klassifikationsprinzip der technologischen Qualitätskriterien, (3) Fuzzy Gruppenentscheidungstheorie, um Bewertungsmaße zu erhalten, (4) Normierungsanforderung für Kriteriengewichte und (5) Skalarisierungsverfahren zur Qualitätsoptimierung von Lernobjekten. Ein weiteres Ziel des Beitrags ist es, die zentrale Rolle von Social Tagging zu skizzieren, um Nutzung, Aufmerksamkeit und andere Aspekte des Kontexts zu beschreiben, sowie zu helfen, Kontextdaten zu nutzen, um Lernobjekt-Repositorys nützlicher zu machen und so die Wiederverwendung zu verbessern. Die angewandten Ansätze wurden bei der Umsetzung europäischer eQNet- und te@ch.us-Projekte in litauischen Gesamtschulen im Jahr 2010 praktisch zur Evaluation von Lernobjekten und Metadaten-Tagging eingesetzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16318-0_54 a67703dd5ef3abda54036e193b1b3792;de;;;5.3.;;;Umgebungsunterstütztes Wohnen in ländlichen Gebieten: Vision und Pilotanwendung Ländliche Gebiete bedecken 90 % des Territoriums der EU und die Hälfte der Europäer lebt in diesen Gebieten. Es ist von hoher Priorität, das volle Teilhaberecht dieser Menschen an der Informationsgesellschaft sicherzustellen, dh sie auch bei den neuesten Entwicklungen (wie AAL) zu berücksichtigen. In diesem Papier stellen wir uns einen PDA-zentrierten medizinischen Sensorsystemaufbau vor, der für das AAL-Heimpflegeszenario geeignet ist, und identifizieren ein Problem, das in ländlichen Gebieten leicht auftreten kann. Darüber hinaus führen wir eine Pilotanwendung ein, die als Keim für das geplante System dienen kann und eine Antwort auf die identifizierten Probleme gibt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85379-4_30 7b75edae860a57c73965377bdee4bc8a;de;;;5.3.;;;Schutz der privaten Standorte von Smartphone-Benutzern durch Caching Smartphones, die mit fortschrittlicher Ortungstechnologie ausgestattet sind, sammeln kontinuierlich die Standortinformationen der Benutzer und machen diese Informationen für App- und/oder Bibliotheksentwickler von Drittanbietern leicht zugänglich. Benutzer werden sich der daraus resultierenden Datenschutzbedrohungen zunehmend bewusst und fordern effektive Lösungen zum Schutz der Privatsphäre, die es ihnen ermöglichen, standortbasierte Dienste sicher zu nutzen. Darüber hinaus widmen akademische und industrielle Gemeinschaften der Entwicklung freundlicherer und gesellschaftlich akzeptierter Ansätze zum Schutz des Standorts besondere Aufmerksamkeit. In dieser Arbeit modellieren, entwerfen und evaluieren wir LP-Caché, einen mobilen plattformbasierten Dienst, der Standorte schützt, indem er den Umgang mit Standortressourcen modifiziert. Es wendet Caching-Techniken an, um die privaten Standorte der Benutzer zu schützen, und richtet personalisierte Kontrollen für Standortberechtigungen ein. Wir definieren die Designentscheidungen und Implementierungsanforderungen in Bezug auf die Durchführbarkeit und Durchführbarkeit der Modellbereitstellung. Wir bewerten auch Ressourcen- und Speicheranforderungen, um den Rechen- und Kommunikationsaufwand zu minimieren. Empirische Ergebnisse einer 2-monatigen Vergleichsstudie zeigen eine 2,26 %ige Änderung der Netzwerk-Fingerabdrücke an 34 verschiedenen Stellen, die nur 2,07 % Änderung des gesamten Cachespeichers erforderten. Beide Ergebnisse zeigen die Machbarkeit des Modells.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67876-4_15 b7f54cb4bbcef02d47bd5953805e2d23;de;;;5.3.;;;Ein experimenteller drahtloser Mesh-Netzwerkknoten basierend auf dem AVR ATmega16-Mikrocontroller und dem RFM12B-Funkmodul Das Papier beschreibt einen einfachen Knoten, der als Teil eines experimentellen drahtlosen Mesh-Netzwerks fungieren soll. Der Knoten basiert auf dem Atmel AVR ATmega16 Mikrocontroller und dem Hope Microelectronics RFM12B Funkmodul. Neben technischen Details des Knotens wird die Netzwerkschicht (Adressierungsschema und Routingalgorithmen) vorgestellt. Außerdem werden grundlegende Prinzipien zu drahtlosen Mesh-Netzwerken vorgestellt. Experimentelle Ergebnisse fassen das Papier zusammen und belegen die eingeschränkte Nutzbarkeit des Projekts.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13861-4_10 9b925e1e37a14386cae874ab5b5cd992;de;;;2.4.;;;Erzielung von beruflichen Ergebnissen durch aktive Lernmethode Die in der ergebnisorientierten Bildung definierten Programmergebnisse werden grob in technische und berufliche Ergebnisse eingeteilt. In der Ingenieurausbildung werden die beruflichen Ergebnisse in gewissem Maße durch die Einführung von Humanwissenschaften berücksichtigt. Professionelle Ergebnisse werden durch Mini- und Schlusssteinprojekte adressiert. In den Kernkursen müssen die Aktivitäten jedoch so gestaltet sein, dass sie auf das berufliche Ergebnis ausgerichtet sind. In diesem Papier schlagen wir eine aktive Lernmethode namens „Let us Join“ vor, die auf die beruflichen Ergebnisse abzielt. Diese Aktivitäten sind im heutigen Bildungsszenario notwendig, da Wissensaustausch und Gruppenlernen unter Schülern selten beobachtet werden. Der Prozess der Durchführung der Aktivität und das Erreichen von POs werden in diesem Papier vorgestellt. Vor und nach der Aktivität wurde eine Umfrage durchgeführt, bei der die sozialen Beziehungen, der Eigenantrieb zur Initiierung von Kommunikation und die Fähigkeit, die Informationen zu integrieren und die Informationen zu dokumentieren, untersucht wurden. Die Aktivität bewertet die Schüler und bewertet sie auch nach ihrem Beitrag in der Aktivität.;-;-;-;https://link.springer.com/chapter/10.1007/978-81-322-1931-6_57 c2f49d04aa1bab42c949bf5eca88cb20;de;;;2.4.;;;Morphologische verstärkungsgesteuerte Regularisierung zur kantenerhaltenden hochauflösenden Bildrekonstruktion Total Variation oder Bilateral Total Variation-basierte Regularisierung von schlecht gestellten Super-Resolution (SR)-Problemen ist gut etabliert. Das mit diesem Verfahren rekonstruierte SR-Bild erzeugt jedoch Ringing-Artefakte in der Nähe von starken Kanten. Zweitens erfordert die Erweiterung von SR Imaging auf SR-Video immer einen schnelleren SR-Rekonstruktionsprozess. Wir entwickeln eine verstärkungsgesteuerte lokal adaptive Regularisierungstechnik für die SR-Rekonstruktion für eine schnellere Konvergenz und detailliertere Rekonstruktion bei gleichzeitiger Unterdrückung der Ringing-Artefakte. Wir präsentieren einen iterativen Prozess für das Modell und führen eine Reihe von numerischen Experimenten durch, um die gute Leistung des numerischen Schemas und der vorgeschlagenen verstärkungsgesteuerten Regularisierung nachzuweisen.;-;-;-;https://link.springer.com/article/10.1007/s11760-011-0281-1 1be8da616618c227010699471a1b6819;de;;;5.3.;;;Ein schematischer Ansatz für die visuelle Beantwortung von Fragen über Wissensgraphen In dieser Demo präsentieren wir ein Tool zur visuellen Beantwortung von Fragen (QA) über den Wikidata-Wissensgraphen basierend auf Diagrammdarstellung und Argumentation. Die Demo basiert auf der Metaphacts-Plattform mit eingebetteter Ontodia-Bibliothek. In einer Nutzerstudie demonstrieren und evaluieren wir den Ansatz der diagrammartigen Fragenbeantwortung anhand von Fragen aus dem QALD7 (Question Answering over Linked Data) Benchmark für Wikidata. Die Wirksamkeit und Grenzen des vorgeschlagenen Ansatzes werden in den Abschnitten Bewertung und Schlussfolgerungen erörtert. In der Demo-Session auf der ESWC planen wir, unser Tool für visuelle QA vorzustellen und seine QA-Fähigkeiten durch inkrementelle Erstellung von Diagrammen zu zeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98192-5_7 e0284cfac7c15170887e7dfc86631e3d;de;;;5.3.;;;In vitro synthetisierte Proteine ​​in den Zellkernen verschiedener Kaninchenorgane Die nachgewiesenen Unterschiede in der Zusammensetzung der Proteine ​​zeigen eine Gewebespezifität der von den Kernen dieser Zellen synthetisierten Produkte.;-;-;-;https://link.springer.com/article/10.1007/BF00597808 3dd0320f18d922d1bdbea434aa1de05c;de;;;5.3.;;;Der iCat als natürlicher Interaktionspartner Um Roboter entwickeln zu können, die auf natürliche Weise mit Menschen interagieren, ist es wichtig, die Faktoren, die diese Interaktion prägen, besser zu verstehen. Obwohl viele Aspekte bereits eingehend untersucht wurden, wurden nur wenige Studien zum Einfluss sozio-kognitiver Fähigkeiten auf diese Interaktion durchgeführt. Wir haben einen Roboter entwickelt, der absichtliches oder proaktives Verhalten zeigt und mit dem eine von kognitiven Fähigkeiten geprägte Interaktion erforscht werden kann. Wir haben die Roboterplattform iCat verwendet, um Experimente mit Kindern durchzuführen, um verschiedene Hypothesen zu den wahrgenommenen Auswirkungen sozio-kognitiver Fähigkeiten zu testen. Es wurden zwei verschiedene Versionen entwickelt: a;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27216-5_14 0324cedadaa83dda8aad5966e4c0bb27;de;;;5.3.;;;Authentifizierung: Auswahl einer passenden Methode In den letzten fünf Jahren haben wir im Sicherheitsbereich eine Zunahme der Anzahl von Angriffen auf die Anmeldeinformationen von (Web-)Anwendungsbenutzern sowie die Verfeinerung und Raffinesse dieser Angriffe beobachtet. Derzeit gibt es mehrere Methoden und Mechanismen, um die Stärke des Authentifizierungsprozesses für Webanwendungen zu erhöhen. Um den Benutzerauthentifizierungsprozess zu verbessern, aber auch um die Transaktionsauthentifizierung zu verbessern. Als Beispiel kann man sich das Hinzufügen von Einmal-Passwort-Token oder digitalen Zertifikaten, EMV-Karten oder sogar SMS-Einmalcodes vorstellen. Keine dieser Methoden ist jedoch kostenlos und bietet auch keine perfekte Sicherheit. Außerdem müssen Usability-Strafen, Mobilitätseinschränkungen und natürlich die direkten Kosten der Geräte berücksichtigt werden. Darüber hinaus gibt es Hinweise darauf, dass nicht alle Arten von Angriffen selbst mit den ausgefeiltesten dieser Methoden gestoppt werden können. Also, wo stehen wir? Was sollen wir wählen? Welche Gadgets sollten wir für unsere geschäftskritische App verwenden, wie sehr erhöhen sie die Kosten und reduzieren das Risiko und nicht zuletzt, welche Art von Angriffen werden wir sowieso nicht stoppen können? Diese Präsentation konzentriert sich auf Möglichkeiten, um herauszufinden, wie die Vor- und Nachteile des Hinzufügens dieser Verbesserungen angesichts der aktuellen Bedrohungen bewertet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16120-9_8 c949dca2097053194c6a70d04efae189;de;;;5.3.;;;Interview mit Jim Baer und Daniel McCaffrey von Zynga Zynga, das Social-Gaming-Unternehmen hinter Hits wie Zynga Poker, FarmVille und Words with Friends, führt jeden Tag umfangreiche statistische Analysen von riesigen Datenmengen durch. Zynga hat eines der größten Data Warehouses der Welt, und das Unternehmen braucht es, seine Spiele generieren täglich über 15 Terabyte an neuen Daten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-4769-5_5 7f0eb3925cbacb8f7edef06e982d7469;de;;;5.3.;;;Aspartylglykosaminurie in Nordnorwegen bei acht Patienten: Klinische Heterogenität und Variationen mit der Ernährung Bei acht Patienten wurde die Urinausscheidung von Aspartylglykosaminen mittels semiquantitativer Dünnschichtchromatographie und gebundene Glykosamine quantitativ photometrisch (Elson-Morgan-Reaktion) untersucht. Jeder Patient zeigte einen relativ zum Kreatinin relativ konstanten Aspartylglykosaminspiegel im Urin. Der am wenigsten retardierte Patient im Alter von 31 Jahren scheidet etwa 350 mg/g Kreatinin aus, ein Drittel dessen, was bei zwei schwer retardierten jungen Patienten im Alter von 4 und 7 Jahren gefunden wurde (1400 bzw. 940 mg/g Kreatinin). Drei Tage mit einer proteinarmen Diät änderten die Aspartylglykosamin-Ausscheidung bei der Patientin mit der höchsten Ausscheidungsrate nicht.;-;-;-;https://link.springer.com/article/10.1007/BF01805680 335830517b25db0dd12f31a4f86d39be;de;;;5.3.;;;Wirkung von Substraten auf das Malonat-Hemmmuster und Brefeldin einer Bildung Der extrazelluläre Spiegel von Brefeldin A schwankt mit der Dauer der Malonat-Hemmung. Nach der Behandlung mit Malonat war in den Maleat-, Fumarat-, Succinat-, Citrat-, Methylpalmitat- und Glucoseersatzkulturen die myeeliale Vermehrung im Gegensatz zur Brefeldin-A-Bildung bevorzugt erhöht. Konkurrenzfähige Maleat-Malonat-, Fumarat-Malonat-, Succinat-Malonat- und Citrat-Malonat-inhibierte Ersatzkulturen ergaben signifikant höhere Myzel- und Brefeldin A-Ausbeuten als die alleinigen Malonat-inhibierten Ersatzkulturen.;-;-;-;https://link.springer.com/article/10.1007/BF02927218 0d3d5c4f301dddb96c07169b05f273b0;de;;;5.3.;;;[3+3]-Cyclokondensation von Aminomethylencycloalkanonen mit cyclischen Azomethinen – Ein neuer Zugang zu kondensierten Stickstoffheterocyclen Zur Synthese kondensierter Aziniumsalze mit Stickstoffatom in der Ringfusion wurde eine neue Methode entwickelt, die auf der [3+3]-Cyclokondensation von Aminomethylencycloalkanonen und cyclischen Azomethinen basiert.;-;-;-;https://link.springer.com/article/10.1007/BF02253039 6c3daf90320f14931d230a39df98fd43;de;;;5.3.;;;Katalysierte Solvolyse von Benzylchlorid Die Kinetik der Solvolyse von Benzylchlorid unter Katalyse durch Quecksilberchlorid wurde in einigen Zusammensetzungen von wässrigem Ethanol untersucht. Es wurden auch einige Messungen in Abwesenheit von Katalysator durchgeführt. Die Arrhenius-Parameter wurden sowohl für die normale als auch für die katalysierte Reaktion bestimmt, ebenso wie der Einfluss von zugesetzten Chloridionen auf die Reaktionsgeschwindigkeit. Die Ergebnisse wurden im Sinne der Hughes-Ingold-Theorie der nukleophilen aliphatischen Substitution diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF03052832 4594e524b9f061c2127d8e4e94a7b0ba;de;;;5.3.;;;Nachweis ungewöhnlicher DNA-Strukturen und DNA-Protein-Wechselwirkungen durch Diethylpyrocarbonat-Carbethoxylierung Diethylpyrocarbonat (DEPC), das Purine in der N-7-Position carbethoxyliert, ist eine nützliche Sonde, um veränderte oder ungewöhnliche DNA-Strukturen nachzuweisen (Wells, 1988). DEPC reagiert stark mit Z-DNA, insbesondere mit Nukleotiden im;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-7561-5_12 ca1e5170e89240165f8fc9d7595b01c6;de;;;5.3.;;;Polypeptidadsorption an Hydroxyapatit, Silica und Chrysotil-Asbest: Trennung von α-Helix und Random Coil Die Adsorption von Homopolypeptiden, Poly-L-Lysin-Hydrobromid (PLL) und Natrium-Poly-L-Glutamat (PLG) an Hydroxylapatit (HAP), Kieselsäure und Chrysotilasbest (CA) wurde bei 298 K als Funktion des pH-Werts und der Moleküle untersucht Gewicht (;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-1375-5_90 fec675cbb8a209dd7d06f69d62774ff6;de;;;5.3.;;;Organometallisches Wachstum von RuS MOCVD (Metal Organic Chemical Vapour Deposition) gilt als etablierte Methode zum Wachstum von Halbleitermaterialien und als potenziell vielversprechende Methode zur Abscheidung neuer anorganischer Materialien. Eine polykristalline oder epitaktische Schicht aus RuS;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-1393-6_18 996fdcfc19b3a89c37044a22298534f7;de;;;5.3.;;;Ultrahochvakuum-Rastertunnelmikroskopie mit atomarer Auflösung von Diamant-(100)-Epitaxiefilmen Atombilder von epitaktischem (100) Diamant wurden im Ultrahochvakuum (UHV) mit einem Rastertunnelmikroskop (STM) erhalten. Der Dimerreihenabstand, das innere Dimerpaar und die Einzelatomstufenhöhe wurden mit 0,5 nm, 0,25 nm bzw. 0,1 nm gemessen. Auch im UHV wurden verschiedene Formen von amorphem Kohlenstoff beobachtet. Einige Formen schienen zufällig orientiert zu sein, andere erschienen kettenartig. Eine radiale Rekonstruktion mit einem Durchmesser von 1,5 nm wurde bei einer Neigung von 20° zu einer Gruppe von (100) 2x1-Rekonstruktionen gefunden. Das Strom-Spannungs-Spektrum wurde im UHV erhalten und zeigte die elektronischen Eigenschaften des Films. Das Raman-Spektrum des Diamantfilms zeigte sp;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-9325-3_7 f053e6596ac83a35249ff1d0f4142640;de;;;5.3.;;;Sicherheitsanalyse auf einem Gruppenschlüsselübertragungsprotokoll basierend auf geheimer Freigabe Gruppenschlüsselaustauschprotokolle sind kryptografische Algorithmen, die beschreiben, wie eine Gruppe von Parteien mit ihrem gemeinsamen geheimen Schlüssel über unsichere öffentliche Netzwerke kommunizieren kann. Im Jahr 2013 schlug Olimid ein verbessertes Protokoll zur Übertragung von Gruppenschlüsseln vor, das auf geheimem Austausch basiert, und behauptete, dass er die Fehler im Gruppenschlüsselübertragungsprotokoll von Sun et al. beseitigt habe. Unsere Analyse zeigt jedoch, dass das Protokoll immer noch anfällig für Angriffe von außen und innen ist und keine bekannte Schlüsselsicherheit bietet. In diesem Papier zeigen wir eine detaillierte Analyse der Fehler im Protokoll.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40675-1_72 0374457cbc999ac0377ec0f51cd8a5c4;de;;;2.4.;;;Die Anwendung der Kategorientheorie auf epistemische und poietische Prozesse Das Ziel dieser Arbeit ist es, das Potenzial für die Anwendung des Begriffsrahmens der Kategorientheorie auf einige Aspekte menschlicher Aktivität im Zusammenhang mit dem Erwerb von Wissen (epistemische Aktivität) sowie auf Aktivitäten zu untersuchen, die zur Schaffung von Artefakten jeglicher Art führen (poietische Aktivität). Diese Arten von Aktivitäten werden als Prozesse konzeptualisiert. Die Ideen und konstitutiven Komponenten epistemischer und poietischer Prozesse werden vorgestellt und vor diesem Hintergrund mögliche Anwendungen der Kategorientheorie zur Analyse und Überwachung des Fortschritts bei der Entfaltung solcher Prozesse betrachtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30896-4_4 e88e6ef1e381e0afcee0f9236593330e;de;;;5.3.;;;Strukturstudien zweier kohlenhydrathaltiger AL-Ketten (Λll) AL NØV und AL MC. Die Aminosäuresequenz der AL-Ketten NØV und MC wurde aus Peptiden aufgeklärt, die aus dem Verdau der Proteine ​​mit Trypsin, Thermolysin,Chymotrypsin,Pyrroglutamat-Aminopeptidase, Endoproteinase Asp-N und;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-3284-8_43 53bcc809ad83571fe6c71a4d8866a0dc;de;;;2.4.;;;Formalismen zur grammatikalischen Wissensrepräsentation Computerlinguisten benötigen deskriptiv leistungsfähige, rechnerisch wirksame Formalismen zur Darstellung grammatikalischer Informationen oder Wissen. In den letzten Jahrzehnten wurde eine Vielzahl von Formalismen in Systemen zur Verarbeitung natürlicher Sprache verwendet, darunter einfache Phrasenstrukturgrammatiken, erweiterte Übergangsnetzwerke, logische Grammatiken und vereinungsbasierte Grammatikformalismen. Bis vor kurzem wurde jedoch den Fragen, die einem guten Grammatikformalismus-Design in der Computerlinguistik zugrunde liegen, vergleichsweise wenig Aufmerksamkeit gewidmet.;-;-;-;https://link.springer.com/article/10.1007/BF00123690 d460644bd0859b96333322c7af23ed2c;de;;;2.4.;;;Eine neue Methode der Frequenzsprung-Signalerkennung (FH) signal Es wird ein neues Frequency-Hopping (FH)-Signaldetektionsverfahren vorgeschlagen. Im Gegensatz zu früheren Methoden, die das gesamte Band überwachen müssen, kann es einen Teil des Bandes überwachen und den Bandbreitenbereich verringern. Gemäß diesem Verfahren wird ein neues Erkennungsmodell aufgestellt und die Berechnungsformeln der Erkennungswahrscheinlichkeit und der Fehlalarmwahrscheinlichkeit angegeben. Zum Nachweis der Validität der Methode werden die Parameter eines UKW-Funkgeräts verwendet. Simulationsergebnisse zeigen, dass dieses Verfahren den Bandbreitenbereich verringern und das FH-Signal mit einem gewissen Nachteil des SNR und des Signalverlusts erkennen kann.;-;-;-;https://link.springer.com/article/10.1007/s11767-012-0710-5 0e1e7968fefe859bf7e97c36a6304382;de;;;2.4.;;;Extraktion von Chinesisch-Englisch-Satzübersetzungspaaren Phrasenübersetzungspaare sind sehr nützlich für die zweisprachige Lexikographie, das maschinelle Übersetzungssystem, den mehrsprachigen Informationsabruf und viele Anwendungen in der Verarbeitung natürlicher Sprache. In diesem Artikel richten wir zweisprachige Satzpaare zwischen Chinesisch und Englisch basierend auf dem Parsing-Baum der chinesischen Satz- und Wortausrichtungsergebnisse aus, was als Baum-String-Ausrichtung bezeichnet wird. Aus der Baum-String-Ausrichtung werden Phrasenübersetzungspaare extrahiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22691-5_55 a4ea52e1a75dfe2e4ddce9514f42416d;de;;;2.4.;;;Reservoir-Zufluss-Vorhersage unter Verwendung von differentieller Evolution trainierten neuronalen Netzen Dieses Papier präsentiert eine Studie über die Anwendung von Techniken der evolutionären Berechnung und künstlicher Intelligenz zur Vorhersage von Zuflüssen in den Vanderkloof-Stausee in Südafrika zum Zweck der Planung und Bewirtschaftung der verfügbaren Wasserressourcen. Zur Simulation der Interaktion zwischen Reservoirzufluss und seinen kausalen Variablen wie Niederschlag und Verdunstung wurde ein Differential Evolution (DE)-trainiertes neuronales Netzwerk (DE-NN) entwickelt. Die Leistung des DE-NN wurde anhand von zwei Leistungsmetriken bewertet, nämlich dem mittleren absoluten Fehler in Prozent (MAPE) und dem Bestimmtheitsmaß (R;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07494-8_21 a0cbacbdedc671e140e131a7ef8936e1;de;;;5.3.;;;Transformation von attributierten Bäumen mittels Pattern Matching Dieses Papier beschreibt ein Werkzeug zur Transformation von attributierten Bäumen mit Hilfe von Pattern Matching. Die zu verarbeitenden Bäume werden durch einen auf kontextfreien Grammatiken basierenden Formalismus definiert. Es werden Operationen für Bäume wie Zusammensetzung und Zerlegung bereitgestellt. Der Ansatz kann als eine Verschmelzung von Bäumen oder Begriffen einschließlich Mustervergleich, mit Rekursion, Attributgrammatiken und zwingender Programmierung charakterisiert werden. Transformationen können entweder die Eingabebäume ändern oder sie einer beliebigen Ausgabe zuordnen. Mögliche Anwendungen sind die verschiedenen Transformationsaufgaben in Compilern wie die semantische Analyse, Optimierung oder die Generierung von Zwischendarstellungen. Die Designziele waren es, eine ausdrucksstarke und hochwertige Transformationstechnik mit Flexibilität, Effizienz und praktischer Nutzbarkeit zu kombinieren. Ein zuverlässiger Entwicklungsstil wird durch statische Typisierung und Überprüfungen auf die Eigenschaft der Einzelzuweisung von Variablen unterstützt. Wir geben einige Beispieltransformationen und beschreiben die Eingabesprache unseres Tools namens;-;-;-;https://link.springer.com/chapter/10.1007/3-540-55984-1_1 20840c0a77705f4d0a7614597449bfaa;de;;;5.3.;;;Orchestrierung von Cloud-Lernaktivitäten für MOOC-Umgebungen In diesem Papier konzentrieren wir uns auf einen Ansatz zur Verwendung Cloud-basierter (Web 2.0) Tools für MOOCs unter Anwendung einer neuen Version einer innovativen Architektur für die „Cloud Learning Activities Orchestration“ (CLAO). Diese Arbeit stellt den CLAO vor und untersucht seine Wirksamkeit für den Einsatz von Lernaktivitäten in der Cloud für MOOC-Erfahrungen und präsentiert Ergebnisse und Erkenntnisse. Nachdem wir Lernanalysen durchgeführt haben, um das tatsächliche Verhalten von Lernenden mit dem CLAO zu untersuchen, präsentieren wir Ergebnisse, die beschreiben, wie sich die Lernenden nach mehreren Lernaktivitäten zu einer ausgefeilteren und sinnvolleren Nutzung der Cloud-basierten Tools entwickelt haben. Diese Ergebnisse tragen zu einem besseren Verständnis der Nutzung einer Cloud-Bildungsumgebung in drei MOOC-Kursen mit unterschiedlichen Themen (Medizinische Dringlichkeiten, Einführung in E-Learning und Cloud-Tool für Lernaktivitäten) bei und ermöglichen weitere Diskussionen und Erkenntnisse zur Verbesserung methodischer und Orchestrierungsstrategien und der Einsatz innovativer Cloud-basierter Tools in zukünftigen MOOCs.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10671-7_3 4d94c59963888f9169065dd9ecca3f62;de;;;5.3.;;;Multi-Plattform-Schnittstelle zu einem ITS des Lehrens der Aussagenlogik Der vorliegende Artikel hat das Ziel, einige vorläufige Ergebnisse einer neuen Webschnittstelle zu zeigen, die für ein Multiagentensystem namens Heraclito entwickelt wurde. Der Heraclito ist ein Intelligent Tutoring System (ITS), das zum Ziel hat, Studenten der Informatik propositionale Logik beizubringen. Diese Version wurde mit Test Driven Development (TDD)-Technik entwickelt. Dieser Ansatz ermöglichte es uns, eine benutzerfreundlichere Oberfläche zu schaffen, und der Zugriff per Webbrowser machte das Tool adaptiv und kann nun auf Computern, Tablets, Smartphones und auch auf Smart TVs arbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19033-4_26 dd467a32e06b4a88c65ad87c51693cce;de;;;5.3.;;;Identifizieren von Produktfehlern anhand von Bewertungen in verrauschten Daten durch Fernüberwachung Super Produktbewertungen enthalten wertvolle Informationen zur Kundenzufriedenheit mit Produkten. Die Analyse einer Vielzahl von Benutzeranforderungen weckt das Interesse der Forscher. Wir präsentieren eine vergleichende Studie entfernt überwachter Methoden zur Extraktion von Benutzerbeschwerden aus Produktbewertungen. Wir untersuchen die Verwendung von verrauschten markierten Daten zum Training von Klassifikatoren und zum Extrahieren von Scores für ein automatisch erstelltes Lexikon, um Merkmale zu extrahieren. Mehrere Methoden zur Labelzuweisung wurden evaluiert, darunter Schlüsselwörter, syntaktische Muster und schwach überwachte Themenmodelle. Experimentelle Ergebnisse mit zwei realen Überprüfungsdatensätzen über Automobile und mobile Anwendungen zeigen, dass entfernt überwachte Klassifikatoren starke Baselines übertreffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-45880-9_12 3c6ad556360baf53b9c2743bdf5e10d0;de;;;5.3.;;;Die Navigation von Multi-Reiserouten für den Kontext des Kulturerbes Die Reiseplanung ist eine herausfordernde Aktivität zum Erwerb von Wissen. Eine Reiseroute ist eine geordnete Liste von Points of Interest (POIs), die nach der Analyse mehrerer Dimensionen (z. B. aktueller Kontext, Benutzerpräferenzen usw.) erhalten wird und die gemeinsam für eine kontextbezogene Empfehlung von angepassten Wegen berücksichtigt werden. Wenn das System viele Reiserouten zurückgibt, ist es für einen Benutzer schwierig zu verstehen, welche davon optimal ist. Dies gilt insbesondere dann, wenn sie von einer einzigen Abfrage zurückgegeben werden, sie große Überschneidungen aufweisen und die Points of Interest für den Benutzer neu sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58814-4_40 65209e8bbfab9690f5be18b728bb2228;de;;;5.3.;;;Erreichen der kritischen Masse: Die Auswirkungen des Hinzufügens neuer Inhalte auf Website-Besucher und Benutzerregistrierung Dabei wird die Wirkung untersucht, die neue Inhalte auf die virtuelle Gemeinschaft haben. Die Ratschläge, die den Erstellern virtueller Gemeinschaften gegeben werden, sind in der Regel anekdotisch und haben keine statistische Untermauerung. Website-Erstellern wird häufig geraten, kontinuierlich neue Inhalte hinzuzufügen, da dies das Interesse an der Website weckt und dazu führt, dass sich mehr Benutzer anmelden und teilnehmen. Diese Studie analysiert reale Daten, die über einen Zeitraum von zwei Jahren gesammelt wurden, um zu beweisen, dass neue Inhalte zwar mehr Besucher und Benutzerregistrierungen anziehen, aber nicht die Benutzerbeteiligung erhöhen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-47401-3_47 cc176899a52f302e3b6c9f82f367cee7;de;;;5.3.;;;Evidenzbasierte Vertrauenswürdigkeit internetbasierter Dienste durch kontrollierte Softwareentwicklung Benutzer von internetbasierten Diensten sind zunehmend besorgt über die Vertrauenswürdigkeit dieser Dienste (d. h. Apps, Software, Plattformen), was ihre Akzeptanz verlangsamt. Daher müssen erfolgreiche Softwareentwicklungsprozesse Vertrauensbedenken schon in den frühen Phasen der Entwicklung mit konstruktiven und praktischen Methoden berücksichtigen, um die Vertrauenswürdigkeit von Software und Diensten zu ermöglichen. Leider unterstützen selbst etablierte Entwicklungsmethoden heute nicht spezifisch die Realisierung vertrauenswürdiger internetbasierter Dienste, und vertrauenswürdige Praktiken berücksichtigen keine objektiven Beweise. Wir schlagen vor, kontrollierte Software-Lebenszyklusprozesse für vertrauenswürdige internetbasierte Dienste zu verwenden. Entwicklungs-, Bereitstellungs- und Betriebsprozesse können durch die Sammlung von Vertrauenswürdigkeitsnachweisen in verschiedenen Phasen gesteuert werden. Dies kann z.B. dadurch erreicht werden, dass der Grad der vertrauenswürdigen Eigenschaften der Software gemessen und diese Nachweise mittels digitaler Vertrauenswürdigkeitszertifikate dokumentiert werden. Auf diese Weise können andere Stakeholder die Vertrauenswürdigkeitseigenschaften in einem späteren Stadium überprüfen, z. B. bei der Bereitstellung von Software auf einem Marktplatz oder dem Betrieb des Dienstes zur Laufzeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25360-2_8 9aba286a2c4a39d995a726d50a5e0721;de;;;5.3.;;;Service Discovery Protocols für MANETs: Eine Übersicht MANETs (Mobile Ad-Hoc Network) sind temporäre Netzwerke, die aus vielen autonomen Knoten bestehen. Service Discovery ist die Technologie zum Auffinden von Diensten, die den eigenen Bedürfnissen im Netzwerk entsprechen, was für die Benutzerfreundlichkeit von MANETs entscheidend ist. Es wurden viele Service-Discovery-Protokolle für MANETs vorgeschlagen, jedoch wurden keine umfassenden vergleichenden Studien durchgeführt. Daher werden einige typische Diensterkennungsprotokolle analysiert und verglichen. Die Vor- und Nachteile jedes Protokolls werden analysiert. Das Papier bietet einen perspektivischen Überblick über Diensterkennungsprotokolle für MANETs.;-;-;-;https://link.springer.com/chapter/10.1007/11943952_20 5745b059c0dbb517931e214ff92096e3;de;;;5.3.;;;Auf dem Weg zu einem Reifegradmodell für das Cloud-Service-Customizing In den letzten Jahren unternehmen immer mehr Cloud-Anbieter große Anstrengungen, um personalisierte Dienste anzubieten, die den Bedürfnissen der Kunden vollständig entsprechen. Aufgrund des Reifegrades, der ihre Anpassungsfähigkeiten erfordert, ist es jedoch nicht immer einfach, personalisierte Dienste zu entwerfen, zu implementieren, zu betreiben und zu verbessern. Darüber hinaus fehlt es an Tools, die Cloud-Anbietern helfen, den aktuellen Reifegrad ihrer Anpassungsprozesse und den Weg zu ihrer Verbesserung zu verstehen. In diesem Zusammenhang präsentiert diese Arbeit unsere Fortschritte beim Aufbau eines Reifegradmodells für die Anpassung von Cloud-Diensten. Das Modell wird aus einer Literaturrecherche in der Region und zwei Interviews mit Branchenexperten vorgeschlagen. Das Modell, das zwei Dimensionen (Anpassungsfähigkeiten und Reifegrade) umfasst, soll Forschern dabei helfen, neue Beiträge in diesem Forschungsbereich zu entwickeln, und Praktikern, ihre Anpassungsfähigkeiten zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-32475-9_21 25ff388bc837dce3e6c96a410703d129;de;;;5.3.;;;Automatische Erkennung von Mattglastrübungen in der Lungen-HRCT unter Verwendung mehrerer neuronaler Netze Ziel dieser Studie war es, neuronale Netze und Expertenregeln für die automatische Erkennung von Mattglastrübungen (GG) in der hochauflösenden Computertomographie (HRCT) zu implementieren. In Vorstudien wurden verschiedene Ansätze unter Verwendung selbstorganisierender neuronaler Netze sowie Klassifikationen der Lungen-HRCT mit und ohne Verwendung expliziter Texturparameter angewendet. In der vorliegenden Studie wurde ein Hybridnetzwerk aus drei Einzelnetzen und einer Expertenregel zum Nachweis von GG auf 120 HRCT-Scans von 20 Patienten mit unterschiedlichen Lungenerkrankungen angewendet. Einzelnetze allein waren nicht in der Lage, GG zuverlässig zu erkennen bzw. auszuschließen, da die Falsch-Positiv-Rate bezogen auf die wirklich betroffene Fläche über 100 %, durchgehend mehr als 50 Pixel und die Richtig-Positiv-Rate über 95 % lag. Das Hybridnetzwerk hat 91 von 120 Scans korrekt klassifiziert. Leichtes GG war in 15 Fällen mit weniger als 50 Pixeln falsch positiv, was als klinisch nicht relevant eingestuft wurde. Die Fallstricke waren: partielle Volumeneffekte der bronchovaskulären Bündel und der Brustwand. Bewegungsartefakte und Zwerchfell waren für 11 Fehlklassifikationen verantwortlich. Hybride Netzwerke stellen ein vielversprechendes Werkzeug für ein automatisches System zur Erkennung von Pathologien dar. Sie sind als diagnostischer Assistent zur Detektion, Quantifizierung und Nachverfolgung von Mattglastrübungen einsatzbereit und weitere Anwendungen sind in Vorbereitung.;-;-;-;https://link.springer.com/article/10.1007/s003300050318 31049408522587734c3ef31c6585a66a;de;;;5.3.;;;Ein Rückblick auf die jüngste Entwicklung von Kühltechnologien für Photovoltaikmodule Bei der Umwandlung von Sonnenenergie in Strom wird ein Großteil der Energie nicht in Strom, sondern zum Heizen von PV-Zellen umgewandelt, was zu einer erhöhten Zelltemperatur und einem verringerten elektrischen Wirkungsgrad führt. Für PV-Module wurden viele Kühltechnologien entwickelt und eingesetzt, um die Zelltemperatur zu senken und die elektrische Energieausbeute zu steigern. Es wurden jedoch nur wenige wichtige Überprüfungsarbeiten vorgeschlagen, um die Kühltechnologien für PV-Module zu kommentieren. Daher hat dieses Papier einen gründlichen Überblick über die aktuelle Entwicklung bestehender Kühltechnologien für PV-Module gegeben und entsprechende Kommentare, Vergleiche und Diskussionen gegeben. Entsprechend den Kühlmethoden oder -prinzipien wurden bestehende Kühltechnologien als Fluid-Medium-Kühlung (Luftkühlung, Wasserkühlung und Nanofluids-Kühlung) klassifiziert, die die Kühlung der strukturellen Konfiguration und die Kühlung von Phasenwechselmaterialien optimiert. Potenzielle Einflussfaktoren und Untermethoden wurden aus der Überprüfungsarbeit gesammelt und ihre Beiträge und Auswirkungen wurden diskutiert, um zukünftige Studien zu leiten. Obwohl die meisten in diesem Papier behandelten Kühltechnologien ausgereift sind, müssen noch Probleme gelöst werden, wie die Auswahl des Kühlfluids und seine Verwendbarkeit für bestimmte Regionen, die Ansammlung von Verschmutzungen und die Reinigung verbesserter Wärmetauscher mit komplexen Strukturen, das Gleichgewicht zwischen Kühlkosten und Nettowirkungsgrad von PV-Modulen, die Kühlung von zirkulierendem Wasser in tropischen Gebieten und das Einfrieren von zirkulierendem Wasser in kalten Gebieten. Aufgrund der effizienten Wärmeübertragung und der spektralen Filtereigenschaften können Nanofluide die effektive Anpassung der Sonnenenergie sowohl auf spektraler als auch auf räumlicher Ebene fördern, um eine geordnete Energienutzung zu erreichen.;-;-;-;https://link.springer.com/article/10.1007/s11630-020-1350-y eef796d2fa34287efe4f7d02de947700;de;;;5.3.;;;VCSE: Überprüfbare konjunktive Schlüsselwortsuche über verschlüsselte Daten ohne sicheren Kanal Daten-Outsourcing-Dienste haben bei einer beträchtlichen Anzahl von Unternehmen und Einzelpersonen eine bemerkenswerte Popularität erlangt, da sie vor Ort schwere Rechen- und Verwaltungslasten entlasten können. Während in den meisten bestehenden Modellen ehrliche, aber neugierige Cloud-Service-Provider (CSP) falsche Ergebnisse zurückgeben und unweigerlich zu schwerwiegenden Sicherheitsverletzungen führen können, sollte der Ergebnisüberprüfungsmechanismus erhöht werden, um die Datengenauigkeit zu gewährleisten. Darüber hinaus erfordert die Konstruktion eines sicheren Kanals umfangreiche kryptografische Operationen, und die Suche nach einzelnen Schlüsselwörtern liefert viele irrelevante Ergebnisse. Entlang dieser Richtungen entwickeln wir außerdem ein wesentlich effektiveres und sichereres kryptografisches Primitiv, das als überprüfbare konjunktive Schlüsselwortsuche über verschlüsselte Daten ohne sicheres Kanalschema bezeichnet wird, um die Datenintegrität und -verfügbarkeit sicherzustellen. Formale Sicherheitsanalysen beweisen, dass sie effektiv gegen Angriffe mit Schlüsselwörtern von außen standhalten können. Als weiteren Beitrag zeigen unsere aktuellen Experimente, dass es eine breite Anwendbarkeit in der Praxis zulassen kann.;-;-;-;https://link.springer.com/article/10.1007/s12083-016-0458-z 0ae2a6c014240b612a034970400e3471;de;;;5.3.;;;"Erste Erfahrungen mit anforderungsbasierten Sicherheitstests Software Requirements Engineers und Tester definieren technische Dokumente im Allgemeinen in natürlichen Sprachen, aber diese Praxis kann zu Inkonsistenzen zwischen der Dokumentation und der konsequenten Systemimplementierung führen. Frühere Forschungen haben gezeigt, dass das strukturierte Schreiben von Anforderungen und Tests mit kontrollierten natürlichen Sprachen wie RSL helfen kann, diese Probleme zu mildern. Diese Studie geht weiter und diskutiert neue Experimente, die durchgeführt wurden, um zu validieren, dass RSL (mit seinen komplementären Tools, genannt ""ITLingo Studio"") in verschiedenen Systemen und Technologien angewendet werden kann, insbesondere die Möglichkeit, den Ansatz zur Integration von Testautomatisierungsfunktionen in Sicherheitstests anzuwenden . Das vorläufige Fazit zeigt, dass es durch die Kombination von Tools wie ITLingo Studio und dem Robot Framework möglich ist, Anforderungen und Testspezifikationen in die Testautomatisierung zu integrieren, was der Produktivität des Testprozesses Vorteile bringt.";-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58793-2_33 cf4ec83568a31f983a21c3a4a12e9e96;de;;;5.3.;;;Bewertung des Lerneffekts von Schülern basierend auf Process Mining Da Bildung in der heutigen Gesellschaft eine immer wichtigere Rolle einnimmt, muss der effizienten und präzisen Bewertung des Lerneffekts der Schüler mehr Aufmerksamkeit gewidmet werden. Mit den jüngsten Fortschritten der Informationstechnologie kann der Lerneffekt jetzt über den Lernprozess der Bergbaustudenten bewertet werden. Dieses Papier schlägt einen interaktiven Rahmen für die Bewertung des Lerneffekts von Schülern vor, der sich auf die Bewertung des Lerneffekts während des Prozesses konzentriert. Unser Vorschlag analysiert insbesondere die Modellierung von Aufgaben der Studenten auf der Grundlage ihrer Betriebsaufzeichnungen unter Verwendung von Techniken des häufigen sequentiellen Muster-Mining, der Analyse des Benutzerverhaltens und des Feature-Engineerings. Um eine effektive studentische Lernevaluation zu ermöglichen und einen praktischen Nutzen zu liefern, haben wir eine umfassende Online-Modellierungsplattform entwickelt, um Betriebsdaten von Modellierern zu sammeln und die entsprechende Analyse zu unterstützen. Wir haben eine Fallstudie durchgeführt, in der wir unseren Ansatz auf einen realen Datensatz angewendet haben, der aus Verhaltensdaten zur Online-Modellierung von Studenten besteht, die von 24 Studenten mit Hauptfach Informatik gesammelt wurden. Die Ergebnisse unserer Analyse zeigen, dass unser Ansatz Modellierungsmuster der Schüler effektiv und praktisch analysieren und ihr Verhalten interpretieren kann, was zur Bewertung ihres Lerneffekts beiträgt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-32475-9_5 005fd8e4d472634e5e7f1254edea85e6;de;;;2.4.;;;Die Rolle des Model Checks bei der Kritik anhand klinischer Leitlinien Medizinische Kritiksysteme kritisieren klinische Handlungen eines Arztes. Um nützliches Feedback zu geben, besteht eine wichtige Aufgabe darin, Unterschiede zwischen den tatsächlichen Maßnahmen und einer Reihe von „idealen“ Maßnahmen zu finden, die in einer klinischen Leitlinie beschrieben werden. Falls Unterschiede bestehen, gibt das Kritiksystem Aufschluss darüber, inwieweit sie kompatibel sind. Wir schlagen eine Methodik für diese Kritik vor, bei der die idealen Maßnahmen durch ein formales Modell einer klinischen Leitlinie vorgegeben werden und bei der die tatsächlichen Maßnahmen aus realen Patientendaten abgeleitet werden. Ob ein Teil der tatsächlichen Behandlung mit der Leitlinie vereinbar ist, untersuchen wir im Modellcheck. Darüber hinaus wird gezeigt, wie Kritik zeitlich logisch gestaltet werden kann und was mit Model Checking erreicht werden kann. Die Methodik wurde in Verbindung mit Brustkrebspatientendaten auf eine klinische Leitlinie für Brustkrebs angewendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73599-1_55 e8e6b1ff9dc3d4891653af88cbc8edb5;de;;;2.4.;;;Die Erkennung einer sich nähernden Schallquelle mit Hilfe eines gepulsten neuronalen Netzes Die auf Videokameras und Bewegungssensoren basierenden Sicherheitssysteme aktueller Automobile versagen, wenn Objekte außer Sichtweite sind. Dieses Papier schlägt ein System vor, das auf gepulsten neuronalen Netzen basiert, das erkennen kann, ob sich eine Schallquelle einem Mikrofon nähert oder sich davon entfernt. Das auf PN-Modellen basierende System vergleicht die Schallpegeldifferenz zwischen aufeinanderfolgenden Zeitpunkten, um seine relative Bewegung zu bestimmen. Darüber hinaus ermöglicht die kombinierte Pegeldifferenzinformation aller Frequenzkanäle, den Typ der Schallquelle zu identifizieren. Experimentelle Ergebnisse zeigen, dass für drei verschiedene Fahrzeuggeräusche die Relativbewegung und der Schallquellentyp erfolgreich identifiziert werden konnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69158-7_22 dd940b87bde101194c7b59c3434e64d6;de;;;2.4.;;;Algorithmus zur Kompression von überwachten Informationsmerkmalen basierend auf Divergenzkriterium In diesem Beitrag wird ein neuartiger Algorithmus zur überwachten Informationsmerkmalskompression basierend auf Divergenzkriterium aufgestellt. Zunächst wird gemäß der Informationstheorie das Konzept und seine Eigenschaften der diskreten Divergenz, dh der durchschnittlichen Trennbarkeitsinformation (ASI) untersucht und ein Konzept der symmetrischen durchschnittlichen Trennbarkeitsinformation (SASI) vorgeschlagen und bewiesen, dass die SASI hier a Art der Entfernungsmessung, dh die SASI erfüllt drei Anforderungen der Entfernungsaxiomatisierung, die verwendet werden kann, um den Differenzgrad eines Zweiklassenproblems zu messen. Zweitens wird basierend auf der SASI ein Kompressionstheorem angegeben, das verwendet werden kann, um einen Komprimierungsalgorithmus für Informationsmerkmale zu entwerfen. Basierend auf diesen Diskussionen konstruieren wir einen neuen überwachten Komprimierungsalgorithmus für Informationsmerkmale, der auf dem durchschnittlichen SASI-Kriterium für Mehrklassen basiert. Schließlich zeigen die experimentellen Ergebnisse, dass der Algorithmus hier gültig und zuverlässig ist;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74205-0_95 eda49e3b8c4cff9fdb93077b6bcffa2c;de;;;5.3.;;;eBCSgen: Ein Softwaretool für die biochemische Weltraumsprache eBCSgen ist ein Werkzeug zur Entwicklung und Analyse von Modellen, die in der Biochemical Space Language (BCSL) geschrieben wurden. BCSL ist eine regelbasierte Sprache für biologische Systeme, die eine kompakte Beschreibung mit einem bestimmten Abstraktionsgrad kombiniert und damit für Anwender aus den Lebenswissenschaften zugänglich macht. Derzeit ist eBCSgen das einzige Tool, das BCSL vollständig unterstützt. Es hat die Form einer Befehlszeilenschnittstelle, die in Galaxy integriert ist – eine webbasierte Bioinformatik-Plattform, die datengesteuerte und modellbasierte Analysepipelines automatisiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-60327-4_20 829a23a035fed0f280db1a56ed5efe73;de;;;5.3.;;;Multi-Agenten-System zur Expertenbewertung von Lernobjekten aus dem Repository In Bezug auf die auf E-Learning basierenden Bildungskontexte sind Learning Objects (LOs) als neues konzeptionelles Modell zur Organisation der Inhalte entstanden. Daher ist es notwendig, die potenziellen Auswirkungen von LOs auf Prozesse der Wissensaneignung anhand des Qualitätskonzepts zu analysieren. Unter Qualität wird dabei der Grad der Relevanz der Bildungsressourcen im Lehr-Lern-Prozess, verbunden mit Bildungsziel und anderen Merkmalen, verstanden. Das Signifikanzniveau kann durch die Bewertung der Eigenschaften des Objekts durch eine Expertengruppe bestimmt werden, jedoch ist dieser Prozess keine leichte Aufgabe, da verschiedene Kriterien wie Lehre, Interoperabilität, Skalierbarkeit und Wiederverwendbarkeit berücksichtigt werden müssen. Auf der anderen Seite ist die Auswahl der Experten ein zu lösender Faktor. In diesem Papier werden verschiedene zu bewertende Dimensionen und Metriken sowie ein automatischer Mechanismus für die richtige Auswahl der Experten vorgestellt. Die Validierung erfolgt durch die Entwicklung eines Multi-Agenten-Systems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19033-4_27 7f928bfe8dd7c45b63df957dd212c6df;de;;;5.3.;;;Ein paralleler Ansatz zum Clustering mit Ameisenkolonie-Optimierung Neuere Innovationen haben es ermöglicht, immer größere Datenmengen zu sammeln und zu speichern, was zu dem Problem führte, Wissen daraus zu extrahieren. Clustering-Techniken helfen beim Organisieren und Verstehen solcher Daten, und deren Parallelisierung kann die Kosten zum Erreichen dieses Ziels reduzieren oder das Ergebnis verbessern. Diese Arbeit präsentiert die parallele Implementierung der HACO-Clustering-Methode, analysiert den Parallelisierungsprozess und seine Ergebnisse mit verschiedenen Topologien und Kommunikationsstrategien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34459-6_11 cc08e843e3e92c5bf52e9f0797979a7d;de;;;5.3.;;;Energieeffizienz für Smartphones mit Interaktions-Link-Vorhersage im mobilen Cloud-Computing Neben der breiten Verbreitung mobiler Cloud-Computing-Systeme basieren Benutzer, die über Smartphones auf alle Informationen im Internet zugreifen, häufig auf kontinuierliche Datenkommunikation. Wenn der Kommunikationsstatus jedoch instabil ist, muss der mobile Client mehrere Verbindungen mit der Cloud herstellen. Dies führt zu einem hohen Energieverbrauch, der die Benutzerfreundlichkeit von mobilen Cloud-Computing-Systemen vor große Herausforderungen stellt. In diesem Artikel schlagen wir unter Berücksichtigung der Ähnlichkeit der Zugänglichkeitsdaten starker interaktiver Benutzer und der Vorhersagbarkeit von Benutzerverhaltensdaten eine Linkvorhersagemethode vor, die auf der Maximierung des Benutzerinteraktionsverhaltens (Maximize Interaction Link Prediction) in einer spezifischen Umgebung für das Handy basiert Cloud Computing: Erstens verwenden wir auf Basis des Datenvorhersagemodells die Interaktionsgradmethode, um die Zugangsdatenvorhersage für bekannte Nutzer zu verbessern. Zweitens analysieren und filtern wir in Kombination mit der Social-Network-Methode die Vorhersagedaten. Speichern der obigen Vorhersagedaten durch den Vorspeichermechanismus. Die Auswertungen zeigen, dass der mobile Energieverbrauch deutlich um rund 20 % gesenkt werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3044-5_39 d7a505a3ae6f793ef1a38835eaca8cdc;de;;;5.3.;;;Unerhebliche Zuverlässigkeit der Gesundheits- und Sportüberwachung von kommerziellen Fitness-Tracker-Armbändern induziert durch ihren All-in-One-Sensing-Unit-Ansatz - Experimentelle Bewertung der Messgenauigkeit in dynamischen und in Szenarien mit stetiger körperlicher Anstrengung Der Einsatz elektronischer Hilfsmittel in Medizin und Sport ist seit langem etabliert, da die Überwachung körperphysiologischer Messgrößen wie Herzfrequenz, Anstrengungsniveau und Bewegungsgeschwindigkeitsparameter die ärztliche Untersuchung ebenso unterstützt wie die systematische Trainingssteuerung im Sport. Die schnelle Verbesserung und Miniaturisierung der Computerelektronik führte zu einer breiten Verbreitung solcher Technologien nicht nur im professionellen Umfeld, sondern auch in persönlichen Anwendungen wie z.B. der Verfolgung von Fitnessaktivitäten und Ausdauertrainings in Nicht-Elitesportarten. Seit mehreren Jahrzehnten gibt es winzige Sportuhren, die mit Körpersensoren kommunizieren und damit Aufzeichnungen über verschiedene Eingaben erstellen. Die Erfassungs- und Aufzeichnungsfähigkeit solcher Sportgerätesätze ist theoretisch auch für bestimmte medizinische Anwendungen wie z. Vor einigen Jahren kam eine weitere Geräteklasse im Gehäusestil von Unterarmarmbändern auf den Markt und wurde breit als Beitrag zur Unterstützung eines gesünderen Lebensstils beworben. Solche Geräte integrieren alle Sensoren und Steuerungen in einem einzigen Gerätekoffer, was sie auch für den ganztägigen Einsatz komfortabel machen soll. Die hier berichteten Praxisversuche und deren Auswertungen zeigen, dass diese Armbandgeräte physiologische Daten nicht in akzeptabler Qualität und Zuverlässigkeit erfassen und aufzeichnen können, die für den Einsatz solcher neuen Gerätekonzepte im Profisport und Gesundheitstracking oder gar Rehabilitations- und Gesundheitsnotfallszenarien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-14526-2_4 5669cd75f737753fe6cff911abf1dd4e;de;;;5.3.;;;Überlegungen zu DS/AHP: Zu lernende Lektionen DS/AHP ist eine Technik zur multikriteriellen Entscheidungsfindung (MCDM), basierend auf der Dempster-Shafer Theory of Evidence (DST) und dem Analytic Hierarchy Process (AHP). Seit seiner Einführung wurde es von mehreren Autoren entwickelt und angewendet und bildet die Grundlage für andere DST-bezogene MCDM-Techniken. Dieses Papier gibt einen Überblick über die Entwicklung und den Einfluss von DS/AHP und gipfelt in einer kritischen Perspektive bezüglich relevanter Kriterien, nämlich i) einfaches Verständnis, ii) ein Champion, iii) Softwareentwicklung und iv) seine relevante Entwicklung für seine Position in Bereich von MCDM. Die kritische Perspektive wird die einflussreiche Rolle beinhalten, die DST bei der Entwicklung von DS/AHP gespielt hat. Die gewonnenen oder nicht gelernten Lektionen werden für jeden Leser von Interesse sein, der Forschung mit starkem Einfluss von DST-basierten Methoden betreibt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11191-9_11 dd5e69de3ceaff834888f7c2ae100bc4;de;;;5.3.;;;Erfassen von Benutzereinstellungen durch interaktive Visualisierung, um Empfehlungen zu verbessern Empfehlungssysteme sind weit verbreitete intelligente Anwendungen, die Benutzer bei der Entscheidungsfindung bei der Auswahl eines Produkts aus einer Vielzahl alternativer Produkte oder Dienste unterstützen. Neuere Forschungsschwerpunkte waren die Entwicklung von Methoden zur Generierung von Empfehlungen. Wir stellen einen Mangel an kohärenter Forschung auf dem Gebiet der visuellen Darstellung von Empfehlungen fest sowie wie Visualisierung und Interaktivität Benutzern bei der Verwendung und Entscheidungsfindung mit Empfehlungssystemen helfen können. Dieses Papier schlägt einen neuartigen Ansatz zur Visualisierung von Empfehlungen vor, die von Präferenzen des Benutzers gesteuert werden, um ihm nützliche und überzeugende Empfehlungen zu geben. Es wurde eine personalisierte visuelle Schnittstelle verwendet, die die Anforderungen des Benutzers und die Nützlichkeit des Produkts berücksichtigt, um dem Benutzer wirksame Empfehlungen zu geben. Die erwartete visuelle Schnittstelle ist interaktiv und auf die Vorlieben des Benutzers zugeschnitten. Benutzer können ihren aktuellen Bedarf interaktiv ändern, um die Mehrwertempfehlungen aus dem Empfehlungssystem zu erhalten. Es bietet den Benutzern eine einfache und relevante Reihe von Empfehlungen, die ihren Interessen entsprechen. Dies reduziert den Interaktionsaufwand der Benutzer erheblich, insbesondere bei einer großen und komplexen Produktdomäne. Präzisions- und Erinnerungsmetriken wurden verwendet, um die Leistung des vorgeschlagenen Systems sowie das subjektive Feedback der Benutzer zu messen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2035-4_7 6daf5f61d021e3c7025876bbc2b43f8d;de;;;5.3.;;;Kontextsensitives mobiles Energiemanagement mit Fuzzy-Inferenz als Service Da Smartphones allgegenwärtig werden, bleibt ihr Energieverbrauch eines der wichtigsten Themen. Mobile Geräte arbeiten in einem sich dynamisch ändernden Kontext, und ihre eingebetteten Sensoren können verwendet werden, um den relevanten Kontext zu extrahieren, der für die Ressourcenoptimierung benötigt wird. In diesem Whitepaper stellen wir ein kontextsensitives Power-Management-System vor, das als weit verbreitete Middleware-Anwendung implementiert ist. Fuzzy-Inferenz wird verwendet, um eine allgemeine Kontextbeschreibung darzustellen, die als Dienst bereitgestellt wird. Wir testen unseren Ansatz mit aktuellen periodischen und Streaming-Anwendungen auf einem Mobiltelefon. Unsere Ergebnisse zeigen eine Energieeinsparung von 13-50% für periodische Anwendungen und 18-36% für Streaming-Anwendungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36632-1_18 e68d0001fab5bcf1519d15c101aa7ec3;de;;;5.3.;;;Mit ein wenig Hilfe von meinen Freunden In diesem Beitrag schlagen wir eine inhaltsbasierte Methode zur halbautomatischen Organisation von Fotoalben vor, basierend auf der Analyse, wie verschiedene Benutzer ihre eigenen Bilder organisieren. Ziel ist es, dem Benutzer zu helfen, seine Bilder in Gruppen zu unterteilen, die durch einen ähnlichen semantischen Inhalt gekennzeichnet sind. Das Verfahren ist halbautomatisch: Der Benutzer beginnt, den Bildern Labels zuzuordnen und unbeschriftete Bilder werden mit vorgeschlagenen Labels versehen. Der Nutzer kann die Empfehlung annehmen oder eine Korrektur vornehmen. Um die Vorschläge zu formulieren, wird das Wissen ausgenutzt, das darin steckt, wie andere Benutzer ihre Bilder partitioniert haben. Die Methode ist konzeptionell in zwei Teile gegliedert. Zum einen verwenden wir eine geeignete Merkmalsdarstellung der Bilder, um die verschiedenen Klassen zu modellieren, die die Benutzer gesammelt haben, zum anderen suchen wir nach Übereinstimmungen zwischen den von den verschiedenen Benutzern verwendeten Kriterien. Boosting wird verwendet, um die Informationen zu integrieren, die durch die Analyse mehrerer Benutzer bereitgestellt werden. Eine quantitative Bewertung des vorgeschlagenen Ansatzes wird erhalten, indem die Menge der Benutzerinteraktion simuliert wird, die erforderlich ist, um die Alben einer Gruppe von Mitgliedern des Flickr . zu kommentieren;-;-;-;https://link.springer.com/article/10.1007/s11042-012-1096-y 982c90c86be6a8f2857c2537336e198a;de;;;5.3.;;;Ein verallgemeinertes Authentifizierungsschema für Mobiltelefone mit Gangsignalen Trotz der Zuverlässigkeit von Authentifizierungsschemata, die Token oder biometrische Modalitäten verwenden, macht ihr Erfordernis expliziter Gesten sie weniger verwendbar. Auf der anderen Seite wurde kürzlich die Studie zu Gangsignalen aufgeworfen, die für eine effektive implizite Authentifizierung potenziell zuverlässig sind. Allerdings sind alle bestehenden Lösungen in der Realität nicht anwendbar, da sie darauf angewiesen sind, dass Sensoren an einer bestimmten Position und Ausrichtung befestigt sind. Um mit der Instabilität der Sensororientierung umzugehen, ist ein flexibler Ansatz, der die Vorteile der verfügbaren Sensoren auf mobilen Geräten nutzt, unser Hauptbeitrag in dieser Arbeit. Wir verwenden sowohl statistisches als auch überwachtes Lernen und führen Experimente mit dem Signal durch, das in verschiedenen Positionen erfasst wird: Vordertasche und Taille. Insbesondere die Einführung von PCA+SVM bringt beeindruckende Ergebnisse bei Signalen in der Fronttasche mit einer gleichen Fehlerrate von 2,45 % und einer Genauigkeitsrate von 99,14 % in Bezug auf den Verifikations- bzw. Identifizierungsprozess. Die vorgeschlagene Methode übertraf andere Studien nach dem Stand der Technik.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30222-5_18 f37e52a250a4f6bcaa3d5be6fb66e3cf;de;;;5.3.;;;Clustering-Studie eines Crowdsourcing-Testberichts mit heterogenen Informationen aus mehreren Quellen Crowdsourced Testing ist eine neue Testmethode im Bereich des Softwaretests und der industriellen Praxis. Crowdsourcing-Tests können eine realistischere Benutzererfahrung bieten. Crowdsourcing-Mitarbeiter sind jedoch unabhängig voneinander, sie können Testberichte für dasselbe Problem einreichen, was dazu führt, dass hochgradig redundante Testberichte eingereicht werden. Darüber hinaus enthalten Crowdsourcing-Testberichte mit heterogenen Informationen aus mehreren Quellen in der Regel kurze Textbeschreibungen, aber die Screenshots sind reichhaltig und die Verwendung nur von Textinformationen kann zu Informationsverzerrungen in Testberichten führen. Vor diesem Hintergrund versucht dieses Papier, die Screenshot-Informationen im Crowdsourcing-Testbericht zu verwenden, um die Textinformationen beim Clustern des Crowdsourcing-Testberichts zu unterstützen. Zunächst werden die Textähnlichkeit bzw. die Screenshot-Ähnlichkeit von Crowdsourcing-Testberichten berechnet, dann wird die Ähnlichkeit zwischen Crowdsourcing-Testberichten gewichtet. Schließlich werden Testberichte nach dem Clustering-Algorithmus basierend auf dem Ähnlichkeitsmaß gruppiert. Tester müssen den Testbericht nur als Vertreter auditieren, was den Druck der Testberichtaudits stark reduziert. Die abschließenden experimentellen Ergebnisse zeigen, dass durch die effektive Nutzung der Screenshot-Informationen im Testbericht eine höhere Clustering-Genauigkeit erreicht werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9563-6_14 28fae8e215db870ed00616f8e9d76f0d;de;;;5.3.;;;Eine Bildähnlichkeitssuche für die Europäische Digitale Bibliothek und darüber hinaus Dieses Papier stellt einen Bildähnlichkeitssuchdienst für die Europäische Digitale Bibliothek vor und fasst die Anforderungen verschiedener Interessengruppen zusammen, die diese Art von Dienst nutzen. Die aktuelle Implementierung ist geeignet, öffentliche Nutzer bei der Erkundung der Inhalte von Europeana zu unterstützen. Weitere Verbesserungen dieses Dienstes sind erforderlich, um designbezogene Aktivitäten zu unterstützen, indem die Kreativität professioneller Designer angeregt und inspiriert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08425-1_21 decb3253e2751e3a2410a5c86f048fbc;de;;;5.3.;;;Ein Framework zum Erstellen von Konversationsagenten für die Entwicklung von Videospielen durch EndbenutzerUser Die Entwicklung von Videospielen ist auch heute noch eine schwierige Aufgabe, die starke Programmierkenntnisse und Kenntnisse in mehreren Technologien erfordert. Um dieses Problem anzugehen, sind einige visuelle Tools wie Unity oder Unreal erschienen. Diese Tools sind effektiv und einfach zu bedienen, richten sich jedoch nicht ausschließlich an Endbenutzer mit geringen Kenntnissen in der Softwareentwicklung. Derzeit gibt es dank der jüngsten Fortschritte in Bereichen wie künstliche Intelligenz oder Sprachverarbeitung ein Wiederaufleben der Verwendung von Chatbots. Es gibt jedoch keine Hinweise auf die Verwendung von Konversationsagenten für die Entwicklung von Videospielen mit domänenspezifischen Sprachen (DSLs). Diese Arbeit stellt die folgenden zwei Hypothesen auf: (i) Konversationsagenten basierend auf natürlicher Sprache können verwendet werden, um mit DSL zur Erstellung von Videospielen zu arbeiten, (ii) diese Konversationsagenten können automatisch erstellt werden, indem die Konzepte, Eigenschaften und Beziehungen ihre abstrakte Syntax. Um die Hypothesen zu demonstrieren, schlagen wir die Implementierung eines Frameworks für die Arbeit mit DSLs durch einen Chatbot, seine Implementierungsdetails und eine systematische Methode zur Automatisierung seines Aufbaus vor und beschreiben diese. Dieser Ansatz könnte neben der Entwicklung von Videospielen auch für andere Disziplinen geeignet sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-41913-4_18 11d63b1670c5ccf253dfc2eea63a6359;de;;;5.3.;;;CoRA: Ein intelligentes Online-Lernsystem zum Üben der Erstellung von Coverability-Diagrammen Beim Unterrichten von Petri-Netzen haben viele Schüler Schwierigkeiten, Überdeckungsgraphen aus Petri-Netzen zu konstruieren. In großen Klassen ist es unmöglich, den Schülern individuelles Feedback zu geben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-21571-2_6 6166932302aedb13c0eaf15ad7a95d4d;de;;;5.3.;;;Auf dem Weg zur automatischen Stresserkennung in Echtzeit für Büroarbeitsplätze In den letzten Jahren wurden mehrere Stresserkennungsmethoden vorgeschlagen, die normalerweise auf maschinellen Lerntechniken basieren, die sich auf hinderliche Sensoren stützen, die in vielen Alltagssituationen unbequem oder nicht geeignet sein können. Obwohl Studien zu Emotionen in der Software Engineering (SE)-Forschung auftauchen und zunehmen, wurde Stress in der SE-Literatur trotz seiner negativen Auswirkungen auf die Benutzerzufriedenheit und die Leistung der Stakeholder noch nicht gut untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-11680-4_27 3c22e8d7fcba8d94a53a9834504a55e6;de;;;5.3.;;;Ein Blick auf zukünftige Technologien und Herausforderungen für die Automatisierung von Lokalisierungsprozessen: Visionen und Szenarien Szenarien werden häufig verwendet, um Unsicherheit in Bereichen mit langen Planungs- und Forschungshorizonten zu bewältigen. Sie stellen ein Vehikel dar, das eine wichtige Rolle bei der Entwicklung gemeinsamer Zukunftsvisionen spielen kann: starke Erwartungen an das Potenzial neuer Technologien zu wecken und die für deren Verwirklichung notwendigen Ressourcen zu mobilisieren. Dieses Papier beschreibt eine webbasierte Problemlösungsumgebung, die ein solches Szenario bietet, indem Beispiele anhand einer Reihe aktueller Lokalisierungsforschungsthemen, Prototypen und vorgestellter sowie realer Technologien verfolgt, geteilt, ausgeführt und überwacht werden. Für jede seiner Komponenten wird es die damit verbundenen Chancen, Treiber, Hindernisse und Herausforderungen berücksichtigen und die erforderlichen technologischen Schlüsselbausteine ​​beschreiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24106-2_48 4aecf906a53395d177d4ca9d5f6d86e0;de;;;5.3.;;;Die Kunst des Bootstrappings Language Workbenches werden verwendet, um Sprachen unter Verwendung geeigneter Metasprachen zu definieren. Metasprachen sind auch nur Sprachen und können daher über sich selbst definiert werden. Der Vorgang wird Bootstrapping genannt und ist oft schwer zu bewerkstelligen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37873-8_8 dc9b184d6a1810c989849004f73a2679;de;;;5.3.;;;Eine Methode zur Erkennung von Anomalie, die auf dem Erlernen der „Scores-Sequenz“ basiert Im Bereich Betrieb und Wartung (O&M) ist die Anomalieerkennung sehr wichtig. In O&M stellen wir jedoch fest, dass die direkte Verwendung der bestehenden Algorithmen zur Erkennung von Anomalie oft eine große Anzahl von falsch positiven Ergebnissen verursacht und die Erkennungsergebnisse nicht stabil sind. Keine Datenmerkmale in O&M: Viele Anomalien sind oft anomale Zeiträume, die durch kontinuierliche Anomaliepunkte gebildet werden. Wir schlagen ein neues Konzept „Scores Sequence“ und eine Methode vor, die auf dem Lernen von Scores Sequence basiert. Unsere Methode weist weniger Fehlalarme auf, kann Anomalie rechtzeitig erkennen und das Erkennungsergebnis unserer Methode ist sehr stabil. Durch vergleichende Experimente mit vielen Algorithmen und praktischer industrieller Anwendung beweist es, dass unsere Methode eine gute Leistung hat und sich sehr gut für die Anomalieerkennung in O&M eignet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2206-8_25 5e59a86efd03a60e4832e56e9074b55a;de;;;5.3.;;;Verschlüsselte Schlüsselwortsuche mit mehreren Eigentümern unter Verwendung von Techniken des maschinellen Lernens In der heutigen Zeit hat die Verbreitung von Netzwerktechnologie und Cloud-Computing-Funktionen für Modelle mit mehreren Eigentümern viel Aufmerksamkeit auf sich gezogen. Datenbesitzer lagern ihre Daten in die Cloud aus und genießen bequeme Dienste. Die Erweiterung des Single-Owner-Modells in das Multi-Owner-Modell weist jedoch noch einige Probleme auf, wie z. B. das Problem der Dimensionsreduktion, der hohe Kommunikationsaufwand und die effiziente Suche in Searchable Symmetric Encryption (SSE) bleiben eine Herausforderung. Die Integration von Machine-Learning-Methoden mit dem Framework der Searchable Encryption (SE) ist ein vielfältiger Weg, diese Probleme zu lösen. In diesem Artikel haben wir eine verschlüsselte Keyword-Suche mit mehreren Eigentümern mit maschinellen Lerntechniken (MERS-ML) entwickelt. Unser Schema nutzte das Hauptkomponentenanalysemodell (PCA), um hochdimensionale Daten in niedrigdimensionale Codes zu reduzieren und eine Systemwartung mit geringem Overhead zu ermöglichen. Der K-Means-Clustering-Ansatz wird verwendet, um das Problem der Qualität verschiedener Dokumente des Mehrfachbesitzermodells zu lösen. Um eine schnelle Abfrage und eine effiziente Suche relativ nah an . zu erreichen;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9129-7_28 1ea853a6aadd2c51d50d5e8e6581dee4;de;;;5.3.;;;Finger-Venen-Authentifizierung basierend auf verformungstolerantem Feature-Point-Matching Ein neuartiges Verfahren zur Finger-Venen-Authentifizierung basierend auf Feature-Point-Matching wird vorgeschlagen und evaluiert. Ein mit Infrarotlicht aufgenommenes Fingervenenbild enthält Artefakte wie unregelmäßige Schattierung und Verformung der Venenhaltung, die die Genauigkeit der Fingervenen-Authentifizierung beeinträchtigen können. Daher wird ein Verfahren zum Extrahieren von Merkmalen aus Venenmustern und zum Anpassen von Merkmalspunkten vorgeschlagen, das gegenüber unregelmäßiger Schattierung und Venenverformung robust ist. Bei dem vorgeschlagenen Verfahren wird die Krümmung von Bildintensitätsprofilen für die Merkmalspunktextraktion verwendet, da solche Bildprofile ein robustes Merkmal gegenüber unregelmäßiger Schattierung sind. Um die Anzahl der Merkmalspunkte zu erhöhen, werden diese Punkte aus allen Positionen extrahiert, an denen die Aderform nicht linear ist. Darüber hinaus werden ein Fingerformmodell und ein nicht starres Registrierungsverfahren vorgeschlagen. Sowohl das Modell als auch die Registrierungsmethode korrigieren eine durch die Änderung der Fingerhaltung verursachte Verformung. Es wird experimentell gezeigt, dass das vorgeschlagene Verfahren eine robustere Anpassung als herkömmliche Verfahren erreicht. Darüber hinaus zeigen Experimente zur Identifizierung von Fingervenen, dass das vorgeschlagene Verfahren eine höhere Identifizierungsgenauigkeit bietet als herkömmliche Verfahren.;-;-;-;https://link.springer.com/article/10.1007/s00138-015-0745-3 84cb2870c9ee4238ff09097a61de0eb7;de;;;5.3.;;;Eine selbstkontrollierende Politiksprache Formale Richtlinien ermöglichen die eindeutige Definition von Situationen, in denen die Verwendung bestimmter Entitäten erlaubt ist, und ermöglichen die automatische Bewertung, ob eine Situation konform ist. Dies ist beispielsweise bei Anwendungen sinnvoll, die Daten verwenden, die über standardisierte Schnittstellen bereitgestellt werden. Die geringen technischen Hürden bei der Integration solcher Datenquellen stehen im Gegensatz zur manuellen Evaluierung von Politiken für natürliche Sprache, wie sie derzeit existieren. Nutzungssituationen können selbst durch Richtlinien geregelt werden, die durch die Richtlinie einer verwendeten Entität eingeschränkt werden können. Betrachten Sie zum Beispiel die Google Maps API, die erfordert, dass Anwendungen, die die API verwenden, kostenlos verfügbar sein müssen, d. h. die Richtlinien der Anwendung dürfen keine Zahlung verlangen. In diesem Papier stellen wir eine Politiksprache vor, die solche Einschränkungen für andere Politiken ausdrücken kann, d. h. eine Politiksprache der Selbstkontrolle. Wir validieren unseren Ansatz, indem wir ein Anwendungsszenario mit einer für unsere Sprache entwickelten Policy-Engine realisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17746-0_46 87ca5b8a160f3f5ce4ec15f95437872a;de;;;5.3.;;;Abwägungsbasiertes Entscheidungssystem für die Einführung von Cloud-basierten Diensten Die Entscheidung über die Einführung einer neuen Technologie in einer Organisation ist eine entscheidende Entscheidung, da sie Auswirkungen auf die technische, wirtschaftliche und organisatorische Ebene haben kann. Daher muss die Entscheidung für Cloud-basierte Dienste auf einer Methodik basieren, die ein breites Spektrum von Kriterien zur Bewertung verfügbarer Alternativen unterstützt. Da sich diese Kriterien oder Faktoren auch gegenseitig bedingen und widersprüchlich sein können, ist eine auf Kompromissen basierende Methodik erforderlich, um Entscheidungen zu treffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-62594-2_4 7a2657434c05ecd5c529eb1b1efd496d;de;;;2.4.;;;Das Elektronendrift-Instrument für Cluster Das Electron Drift Instrument (EDI) misst die Drift eines schwachen Strahls von Testelektronen, die, wenn sie in bestimmte Richtungen emittiert werden, nach einer oder mehreren Drehungen zum Raumfahrzeug zurückkehren. Diese Drift hängt mit dem elektrischen Feld und dem Gradienten im Magnetfeld zusammen, und diese Größen können durch Verwendung unterschiedlicher Elektronenenergien getrennt bestimmt werden. Als Nebenprodukt wird auch die magnetische Feldstärke gemessen. Die vorliegende Arbeit beschreibt die wissenschaftlichen Ziele, die experimentelle Methode und die technische Realisierung der verschiedenen Elemente des Instruments.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-5666-0_10 75c058777eeddf172a18f08f2765dee4;de;;;2.4.;;;Eine auf Fountain Coding basierende kooperative Jamming-Strategie für die sichere Dienstmigration im Edge-Computing Bei 5G können Benutzer problemlos Dienste nutzen, indem sie auf die Edge-Geräte (EDs) zugreifen, die um die Basisstationen herum bereitgestellt werden. Im Allgemeinen ist aufgrund der ungleichmäßigen Verteilung und Mobilität der Benutzer ein ED erforderlich, um mehrere Benutzer gleichzeitig zu bedienen, was zu einer Überlastung des ED führt und die Qualität der Erfahrung (QoE) der Benutzer ernsthaft beeinträchtigt. Durch die Reaktion auf Benutzeranfragen realisiert die Servicemigration die Cross-Edge-Gerätemigrationen, die dynamisch Dienste für mobile Benutzer bereitstellen, wodurch die Ressourcennutzungsrate von Edgeservern und die QoE der Benutzer effektiv verbessert werden. Während der Dienstmigrationen können böswillige Benutzer jedoch Pseudobasisstationen, Gateways und andere Geräte einsetzen, um Benutzerdienstdaten illegal abzuhören oder zu manipulieren, was zu einem Verlust oder einer Offenlegung von Benutzerinformationen führt. Um diese Sicherheitsprobleme zu vermeiden, wird in diesem Papier eine kooperative Jamming-Strategie auf der Grundlage von Fontänencodierung vorgeschlagen. Insbesondere wird die Fontänencodierungstechnologie eingeführt, um ein Übertragungsmodell mit drei Knoten zu konstruieren, das einen ursprünglichen Knoten, einen Zielknoten und einen bösartigen Knoten umfasst, um den sicheren Datenübertragungsprozess bei der Dienstmigration zu realisieren. Außerdem wird eine Gruppe von Relaisknoten verwendet, um kooperatives Jamming auszuführen, das die Qualität des illegalen Abhörens von böswilligen Knoten von Dienstdaten verschlechtert. Anschließend werden die Geheimhaltungsrate und die Ausfallwahrscheinlichkeit verwendet, um die Sicherheit und Zuverlässigkeit der gesamten Dienstmigration zu bewerten. Schließlich wird die theoretische Analyse durch Simulationsergebnisse gezeigt.;-;-;-;https://link.springer.com/article/10.1007/s11276-020-02537-3 2c21f790c54d4250d07f65fc616610b1;de;;;5.3.;;;Stadt bunt bemalen: Standortvisualisierung aus mehreren Themen Theme Die Verbreitung von digitalen Fotoerfassungsgeräten hat großformatige Fotos mit geografischen Informationen erzeugt, was zu interessanten Aufgaben wie der geografischen Organisation von Fotos und der Standortvisualisierung führt. In dieser Arbeit schlagen wir vor, Fotos sowohl geografisch als auch thematisch zu organisieren und das Problem der Standortvisualisierung aus mehreren Themen zu untersuchen. Das neuartige Visualisierungsschema bietet eine reichhaltige Anzeigelandschaft für die Standorterkundung aus Rundumansichten. Es wird eine zweistufige Lösung vorgestellt, bei der wir zuerst die stark fotografierten Orte (POI) identifizieren und ihre verteilten Themen entdecken und dann die Themen der unteren Ebene aggregieren, um die Themen der höheren Ebene für die Standortvisualisierung zu generieren. Wir haben Experimente mit einem Flickr-Datensatz durchgeführt und die Visualisierung für die Stadt Singapur ausgestellt. Die experimentellen Ergebnisse haben die vorgeschlagene Methode validiert und die Potenziale der Standortvisualisierung aus mehreren Themenbereichen aufgezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35725-1_9 7067993b5a92f7b7ee05ab9266245392;de;;;5.3.;;;Standortangepasste Musikempfehlung mit Tags Kontextbewusste Musikempfehlungssysteme sind in der Lage, Musikelemente unter Berücksichtigung kontextueller Bedingungen vorzuschlagen, wie etwa der Benutzerstimmung oder des Standorts, die die Benutzerpräferenzen zu einem bestimmten Zeitpunkt beeinflussen können. In diesem Papier betrachten wir eine besondere Art von kontextbewusster Empfehlungsaufgabe – die Auswahl von Musikinhalten, die zu einem Ort von Interesse (POI) passen. Um dieses Problem anzugehen, haben wir emotionale Tags verwendet, die von der Bevölkerung eines Benutzers sowohl mit Musik als auch mit POIs verknüpft werden. Darüber hinaus haben wir eine Reihe von Ähnlichkeitsmetriken für markierte Ressourcen in Betracht gezogen, um eine Übereinstimmung zwischen Musiktiteln und POIs herzustellen. Um unsere Hypothese zu testen, dass die Nutzer dann davon ausgehen, dass ein Musiktitel zu einem POI passt, wenn dieser nach unserem Ansatz ausgewählt wird, haben wir ein Live-Benutzerexperiment entworfen, bei dem Probanden wiederholt POIs und eine Auswahl von Musiktiteln präsentiert werden , einige von ihnen stimmen mit dem angezeigten POI überein und andere nicht. Die Ergebnisse des Experiments zeigen, dass es eine starke Überschneidung zwischen der Auswahl der Benutzer und der am besten passenden Musik gibt, die vom System für einen POI empfohlen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22362-4_16 159c45d13587cf497ec386f512d49247;de;;;5.3.;;;Reflektierende Analyse der Syntax und Semantik des i* Framework Konzeptionelle Modellierungsnotationen werden oft ohne empirischen Input entworfen. Reflektierende Analyse von Modellierungssprachen kann dabei helfen, die Lücke zwischen dem beabsichtigten Design der Sprache und ihrer praktischen Anwendung zu finden. In diesem Papier untersuchen wir Instanzen des ziel- und agentenorientierten i*-Frameworks, um Unterschiede zwischen der an der University of Toronto entwickelten Kernsyntax von i* und bestehenden Variationen zu analysieren. Wir haben 15 studentische Arbeiten und 15 wissenschaftliche Arbeiten und Präsentationen befragt, um die gängigsten i*-Syntaxvarianten zu erfassen und zu analysieren. Durch diese Analyse bieten wir Einblicke in die i*-Syntax und Vorschläge zur Verbesserung des Frameworks und zur Erhöhung der Konsistenz zwischen den Modellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87991-6_31 7e321a721a4698f8f0dc27094ea5a52d;de;;;5.3.;;;Dengue-Fieber-Bewusstsein mit der mobilen Anwendung: DeFever Dengue-Fieber (DF) ist weltweit die häufigste Krankheits- und Todesursache. Um gegen dieses Thema vorzugehen, ist die Beteiligung der Öffentlichkeit und der Gesellschaft sehr wichtig. Das öffentliche Bewusstsein für DF ist jedoch aufgrund der mangelnden Aufmerksamkeit für dieses Thema sehr gering. Daher untersucht diese Studie die Machbarkeit der Entwicklung einer mobilen Anwendung, einer informativen mobilen Anwendung, die die Aufmerksamkeit der Öffentlichkeit und der Gesellschaft auf sich ziehen und das Bewusstsein für DF erhöhen soll. Die mobile Anwendung, Dengue Fever Awareness using Mobile Application, DeFever, fungiert als informative mobile Anwendung, die verwendet werden kann, um weitere Informationen über DF mit einigen nützlichen Funktionen bereitzustellen. Durch die Verwendung von DeFever sind alle Informationen zu DF und infizierten Bereichen zugänglich. Die Ziele dieser Forschung sind die Ermittlung des öffentlichen Bewusstseins basierend auf den Kenntnissen, Einstellungen und Praktiken gegenüber Dengue, die Identifizierung der geeigneten Designmerkmale von DeFever und die Entwicklung der mobilen App (DeFever), die dazu beiträgt, das öffentliche Bewusstsein für DF zu erhöhen . Die in dieser Untersuchung verwendete Methode war die Verwendung der Appreciative Inquiry (AI), wobei das verwendete Modell das 5D Appreciative Inquiry Model für DeFever war. KI ist die kooperative, gemeinsam entwicklungsorientierte Suche, um das Beste im Einzelnen von Menschen und der Welt um sie herum zu finden. Es beinhaltet die bewusste Offenbarung dessen, was einem Verein oder einer Gruppe Leben bietet, wenn es in finanzieller, biologischer und menschlicher Hinsicht am besten und geschicktesten ist. Schließlich kann DeFever hoffentlich dazu verwendet werden, die Bemühungen zur Steigerung des öffentlichen Bewusstseins für DF zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8276-4_27 b91c08a002171afae71e44d83e0ba46f;de;;;5.3.;;;Ein Rückblick auf erkennungsbasierte grafische Passworttechniken In diesem Artikel wird das erkennungsbasierte grafische Passwortsystem beschrieben. 25 erkennungsbasierte grafische Passwortsysteme werden untersucht und hinsichtlich ihrer Sicherheitsbedrohungen analysiert. Es werden Gegenmaßnahmen und Vorschläge gemacht, um die Sicherheitsbedrohungen zu verhindern und zu reduzieren. Eine vergleichende Zusammenfassung des ausgewählten erkennungsbasierten grafischen Passwortsystems wird am Ende dieses Beitrags erörtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2622-6_49 ecd97f5a3b588c92e9acc8a7069ae31d;de;;;5.3.;;;Wettbewerbsstudie verschiedener Task-Scheduling-Algorithmen im Cloud Computing Cloud Computing ist ein neu entstandenes Feld und entwickelt sich sehr schnell. Beim Cloud Computing liegt der Fokus darauf, Rechenressourcen wie Hard- und Software direkt an den Endbenutzer zu liefern, egal wann und wo. Diese Dienste werden von den Kunden auf der Basis pro Nutzung berechnet. Es besteht ein Bedarf an einem angemessenen Planungsmechanismus, der bei der angemessenen Verwendung der Vermögenswerte helfen kann. Es gibt verschiedene Ressourcen in der Cloud und benötigt einen effizienten Algorithmus zur besseren Nutzung der Ressourcen. Eine Möglichkeit ist die Aufgabenplanung. In einer Cloud-Umgebung gibt es zahlreiche Aufgaben, die in der Cloud ausgeführt werden. Wenn zwei Aufgaben versuchen, sich einer gemeinsamen Ressource zu nähern, kann es zu einem Deadlock kommen, der zu Systemfehlern und Leistungseinbußen führt. Für eine bessere Erfahrung mit Cloud-Ressourcen und zur Beseitigung der oben genannten Situationen ist eine ordnungsgemäße Zuordnung zwischen Aufgaben und Ressourcen erforderlich. In diesem Papier untersuchen wir umfassend die verschiedenen existierenden Scheduling-Algorithmen und vergleichen diese Algorithmen auf der Grundlage verschiedener Leistungskennzahlen, die für die ordnungsgemäße Nutzung der Ressource wichtig zu berücksichtigen sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5341-7_79 73dd57527e0e265a9cda3944e2feb0ac;de;;;2.4.;;;Wissen in kontrollierter natürlicher Sprache darstellen: Eine Fallstudie In dieser Fallstudie plädiere ich für die Verwendung einer maschinenorientierten kontrollierten natürlichen Sprache als Schnittstellensprache zu Wissenssystemen. Anstatt formale Sprachen zu verwenden, die für Laien schwer zu erlernen und zu merken sind, sollten Autoren in der Lage sein, Spezifikationstexte in einer wohldefinierten Teilmenge des Englischen zu schreiben, die von einem Computer eindeutig verarbeitet werden kann. Diese Teilmenge des computerverarbeitbaren Englisch (PENG) besteht aus einer eingeschränkten Grammatik und einem Lexikon und wird zusammen mit einem intelligenten Texteditor verwendet, der den Schreibprozess leitet. Der Editor des PENG-Systems kommuniziert mit einem Sprachprozessor, der logische Strukturen generiert, während der Autor einen Spezifikationstext schreibt. Der Sprachprozessor ist über einen Server mit Argumentationsdiensten verbunden, die eine Akzeptanzprüfung und die Beantwortung von Fragen ermöglichen. In PENG geschriebene Texte sehen scheinbar informell aus und sind für den Menschen leicht zu schreiben und zu verstehen, haben aber gleichwertige Eigenschaften erster Ordnung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30132-5_97 f7bb794b7a96e92b33443ec356f7e03d;de;;;5.3.;;;Der Einsatz von Gesundheits-Apps in der Grundversorgung – Ergebnisse einer Umfrage unter Hausärzten in Deutschland Die massenhafte Verfügbarkeit und Nutzung von Gesundheits-Apps wirft die Frage auf, wie sie in Gesundheitssysteme integriert werden können, um Prävention und Therapie zu verbessern. In dieser Studie wurden die vorherrschende Meinung zu Gesundheits-Apps bei Hausärzten, potenzielle Anwendungsbereiche, die Ärzte in ihren bisherigen Erfahrungen mit diesen Apps gesehen haben, und Situationen, die für den Einsatz von Apps in der Patientenversorgung geeignet sind, recherchiert. Insgesamt 2138 Hausärzte aus Baden-Württemberg haben zwischen März und Juni 2020 an einer anonymisierten schriftlichen Befragung teilgenommen. Ärzte mit positiver Meinung (36%) nannten Motivation und Compliance als Vorteile, während skeptische Befragte (43 %) äußerten Bedenken bezüglich Datenschutz und Zuverlässigkeit sowie rechtliche Fragen und zusätzlichen Arbeitsaufwand durch die Nutzung der Apps. Dennoch akzeptierte eine deutliche Mehrheit den potenziellen Nutzen einer sinnvollen Nutzung von Gesundheits-Apps mit Funktionen zur Prävention und Unterstützung des Lebensstils (90/76%). In Bezug auf Patienten, die die Apps nutzen, sahen 54 % der Befragten einen positiven Beitrag zur Gesundheitsversorgung und/oder Genesung. Trotz der wahrgenommenen Vorteile von Gesundheits-Apps zögern Hausärzte, Gesundheits-Apps in ihren Beratungsgesprächen zu erwähnen oder zu empfehlen. Viele Ärzte sehen sich nicht in der Lage, Patienten kompetent zu den verfügbaren Apps zu beraten. Viele Hausärzte sind sich des Potenzials bewusst, das Gesundheits-Apps zur Verbesserung der Prävention und Behandlung haben können. Es gibt jedoch Vorbehalte und Unsicherheiten in Bezug auf Klarheit, Transparenz und Datenschutzprobleme in diesen Apps. Diese Anliegen sollten stärker in den Fokus gerückt werden, um optimale Voraussetzungen für die Integration von Gesundheits-Apps in die Grundversorgung zu schaffen.;-;-;-;https://link.springer.com/article/10.1007/s10354-021-00814-0 3e6958f9a5436f584ea566b38d727a6b;de;;;2.4.;;;Ein neues optimales Neuro-Fuzzy-Inferenzsystem für die MR-Bildklassifizierung und Multiple-Sklerose-Erkennung In diesem Artikel schlagen wir einen neuen Ansatz für die Segmentierung der MR-Bilder der Multiplen Sklerose (MS) vor, einer entzündlichen Autoimmunerkrankung des Zentralnervensystems. Unser Segmentierungsalgorithmus besteht aus drei Stufen: Segmentierung des Gehirns in Regionen mit dem Algorithmus FCM (Fuzzy C-Means), um die Charakterisierung der verschiedenen gesunden Gewebe (weiße Substanz, graue Substanz und Liquor (CSF)) zu erhalten. , die Eliminierung der atypischen Daten (Ausreißer) der weißen Substanz durch den Optimierungsalgorithmus PSOBC (Particle Swarm Optimization-Based Image Clustering), schließlich die Verwendung eines Fuzzy-Modells vom Mamdani-Typ, um die MS-Läsionen aus all den absurden Daten zu extrahieren .;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-3611-8_45 7c3f45d14eca22ea4b7cd12c9f5f5174;de;;;5.3.;;;Formative Evaluation von Adaptive CALLware: Eine Fallstudie Der Beitrag präsentiert die Ergebnisse einer formativen Evaluation zu einem adaptiven Online-System zum Italienischlernen. Der Zweck dieser Evaluierung bestand darin, die Validität der gewählten Designmethodik zu überprüfen und über die zukünftige Entwicklung des Systems zu entscheiden. Die von uns gewählte Entwurfsmethodik bestand in der adaptiven Deaktivierung von Links für eine webbasierte Kurssoftware. Dies wurde mit zwei alternativen Versionen derselben Kurssoftware verglichen, d. h. einer statischen Version und einer adaptiven Version mit Entfernung von Links.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44595-1_28 065e1492b50050542bba5343057c3cca;de;;;5.3.;;;Virtuelle Keramik: eine virtuelle audiovisuelle 3D-Schnittstelle mit natürlichen Handbewegungen In diesem Beitrag stellen wir unseren Ansatz zur Gestaltung und Implementierung einer virtuellen 3D-Sound-Sculpting-Schnittstelle vor, die audiovisuelle Ergebnisse mithilfe von Handbewegungen in Echtzeit erzeugt. In der Schnittstelle „Virtual Pottery“ verwenden wir die Metapher der Töpferei, um die natürlichen Handbewegungen an die 3D-Raumskulptur zu übertragen. Benutzer können ihre eigenen Keramikstücke erstellen, indem sie die Position ihrer Hände in Echtzeit ändern, und auch 3D-Klangskulpturen basierend auf bereits bestehenden Regeln der Musikkomposition erstellen. Die Benutzeroberfläche von Virtual Pottery kann nach Formdesign und Kamerasensortyp kategorisiert werden. Dieses Papier beschreibt, wie wir die beiden Versionen von Virtual Pottery entwickelt und die technischen Aspekte der Schnittstellen implementiert haben. Darüber hinaus untersuchen wir die Möglichkeiten, Handbewegungen in musikalischen Klang zu übersetzen. Die Genauigkeit der Erkennung von Handbewegungen ist entscheidend für die Übersetzung natürlicher Handbewegungen in die virtuelle Realität. Nach den Ergebnissen vorläufiger Bewertungen ist die Genauigkeit sowohl des Motion-Capture-Tracking-Systems als auch der tragbaren Tiefensensorkamera so hoch wie die tatsächlichen Daten. Wir führten Nutzerstudien durch, die Informationen zu den beiden Ausstellungen sowie das unterschiedliche Alter der Nutzer berücksichtigten. Insgesamt dient Virtual Pottery als Brücke zwischen der virtuellen Umgebung und traditionellen Kunstpraktiken, mit der Konsequenz, dass sie zur Erschließung des tiefen Potenzials virtueller Musikinstrumente und zukünftiger Kunstvermittlungsprogramme führen kann.;-;-;-;https://link.springer.com/article/10.1007/s11042-013-1382-3 38c52d05605dd321d3a6a04e963d4bfb;de;;;2.4.;;;Dichte 3D-Rekonstruktion aus Bildsätzen mit breiter Basislinie Dieses Papier beschreibt einen Ansatz für Structure from Motion (SfM) für breite Basislinien-Bildsätze und seine Kombination mit dem 3D-Rekonstruktionsansatz des Dense Semiglobal Matching (SGM). Unser Ansatz für SfM basiert auf gegebenen Informationen zur Bildüberlappung, kann aber mit großen Basislinien umgehen und erzeugt hochpräzise Kameraparameter und 3D-Punkte. Den Kern unseres Beitrags bildet eine robuste Least-Square-Anpassung mit voller Ausnutzung der Kovarianzinformationen vom affinen Punktabgleich bis zur Bündelausgleichung. Die Neugewichtung für eine robuste Anpassung basiert auf Kovarianzinformationen für jedes einzelne Residuum. Wir verwenden Punkte, die auf Basis von Gaußschen Differenzen erkannt wurden, einschließlich Maßstabs- und Orientierungsinformationen, sowie eine Variante des Fünf-Punkte-Algorithmus. Eine dem Algorithmus der Erwartungsmaximierung (EM) ähnliche Strategie wird verwendet, um Teillösungen zu erweitern. Das Hauptmerkmal des Ansatzes ist die Zuverlässigkeit, die durch das Streben nach hoher Präzision bei jedem Schritt erreicht wird. Die Leistungsfähigkeit unseres Ansatzes wird durch die Präsentation von Ergebnissen für Sets demonstriert, die aus Bildern vom Boden und von kleinen unbemannten Flugzeugsystemen (UASs) bestehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34091-8_13 f1c327e2100def43ffa9c31231bf1b49;de;;;2.4.;;;Lokalisierung von Herztönen basierend auf S-Transformation und radialem Basisfunktions-Neuralnetzwerk Dieses Papier präsentiert eine originelle Methode zur Lokalisierung von Herztönen basierend auf S-Transformation und radialem Basisfunktions-Neuralnetzwerk (SRBF). Die S-Transformation wird verwendet, um die Merkmale des Herztons zu extrahieren. Diese Merkmale werden dann als Eingaben an den RBF-Klassifikator angelegt. Die Leistung der Lokalisierung wird anhand einer Datenbank von 50 Probanden (einschließlich 25 kardialer Pathologietöne) bewertet, die 1074 S1- und S2-Herztönen entsprechen, ausgewählt aus dem Universitätskrankenhaus Straßburg und dem Mars500-Projekt. Diese Studie wird unter der Kontrolle eines erfahrenen Kardiologen durchgeführt. Es wurde gezeigt, dass der SRBF eine Sensitivität von 95 % und einen positiven Vorhersagewert von 98 % aufwies. Die vorgeschlagene Lösung wird mit anderen existierenden Verfahren verglichen und die Robustheit gegenüber additivem weißen Gaußschen Rauschen gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21683-1_42 3282fdf68fbddc9b2a4818aa26155ec2;de;;;5.3.;;;Identifizierung und Charakterisierung natürlich vorkommender Varianten des Makrophagen-Scavenger-Rezeptors (SR-A) Die Familie der Scavenger-Rezeptoren (SR) umfasst eine Gruppe von Zelloberflächenproteinen, die funktionell durch ihre Fähigkeit definiert sind, chemisch modifizierte Lipoproteine ​​zu binden. Bei Makrophagen wird angenommen, dass die SRs der Klasse A Typ I und Typ II (SR-AI/II) eine Schlüsselrolle bei der Adhärenz und Phagozytose von Infektionserregern spielen. Immunpräzipitationsstudien zeigen, dass der monoklonale Anti-SR-AI/II-Antikörper 2F8 der Ratte die reife, trimere Form des Rezeptors nachweist, die in Peritonealmakrophagen von A/J-, nicht jedoch von C57Bl/6J (B6)-Mäusen exprimiert wird. Nachfolgende Sequenzierung von cDNA und genomischen Klonen zeigt, dass sich SR-AI und AII von A/J- und B6-Mäusen in der Sequenz an neun Positionen unterscheiden, zwei in der zytoplasmatischen Domäne und sieben in den extrazellulären Spacer- und α-helikalen Coiled-Coil-Domänen. Diese Sequenzpolymorphismen sind nicht konservativ und produzieren unterschiedliche Rezeptormoleküle, die sich durch vier geladene Reste unterscheiden und die Erkennung des Rezeptors durch den monoklonalen 2F8-Antikörper verändern. Der B6 SR-AI/II Haplotyp scheint einzigartig zu sein, da die meisten analysierten Inzuchtstämme den A/J-Typ Haplotyp aufweisen. Interessanterweise sind mehrere der polymorphen B6-Variantenreste in menschlichen und Rinderrezeptoren konserviert, was auf eine kürzliche Divergenz des A/J-Haplotyps hindeutet. Anfängliche Studien an CHO-abgeleiteten Zellen, die einzelne Rezeptorisoformen exprimieren, zeigen, dass die A/J- und B6-Rezeptoren stabil sind und zu Oligomeren reifen können, die in den Membranfraktionen dieser Zellen exprimiert werden. Bei diesen Transfektanten wurden keine größeren funktionellen Unterschiede zwischen den Rezeptoren der beiden Haplotypen in Bezug auf die Internalisierung und den Abbau von . nachgewiesen;-;-;-;https://link.springer.com/article/10.1007/s003350010131 6e91ac01289962be9c62f551132292a3;de;;;5.3.;;;Enzyme und Cofaktoren Pollen, ein Nicht-Chlorophyll-Gewebe, enthält Enzyme, um externe und interne Substrate zu metabolisieren, die für das Röhrenwachstum unerlässlich sind. Bei einigen Arten erfolgt die Röhrenverlängerung Minuten, nachdem ein Korn in der richtigen Umgebung gelandet ist, bei anderen tritt das Wachstum mehrere Tage oder Wochen nach der Bestäubung auf. Die Röhre kann sich verlängern und die männlichen Zellen in Minuten in die Eizelle transportieren, in einigen Gattungen, z.B.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-65905-8_14 49cb42c6464a9b10ec7a618e43363a95;de;;;5.3.;;;Eine Studie zur Nutzerwahrnehmung von Mobile Commerce für Nutzer von Android- und iOS-Geräten Kundenprofilierung im Bereich Mobile Commerce (M-Commerce) hat in letzter Zeit durch die zunehmende Verbreitung von Smartphones und Tablets an Bedeutung gewonnen. Eine der größten Herausforderungen für M-Commerce-Entwickler besteht darin, die Benutzerwahrnehmung von M-Commerce-Anwendungen zu kennen, um M-Commerce-Dienste besser entwerfen und bereitstellen zu können. In diesem Beitrag wird die Nutzerwahrnehmung von Mobile-Commerce-Anwendungen basierend auf ihrem Geschlecht und dem Betriebssystem (OS) der verwendeten Geräte analysiert, die wichtige Faktoren für die Benutzerprofilierung in mobilen Geschäftsmodellen sind. Die Ergebnisse zeigen, dass es einen signifikanten Unterschied zwischen der Wahrnehmung von Mobile-Commerce-Anwendungen durch die Nutzer von Android- und iOS-Geräten gibt, mit Ausnahme der Wahrnehmung von Werbung. Auf der anderen Seite weisen die Nutzerwahrnehmungen von mobilen Anwendungen im Allgemeinen keine signifikanten Unterschiede auf, mit Ausnahme der Wahrnehmung der Nützlichkeit sowohl für das Geschlecht als auch für das Betriebssystem.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23144-0_6 2a1b34505aebf00aeb99b4d4b68e707e;de;;;5.3.;;;Entwicklung einer webbasierten Plattform für die Avatar-vermittelte Fernpflege zum Schutz der Privatsphäre Wir schlagen eine webbasierte Plattform für datenschutzgeschützte Avatar-vermittelte Fernpflege vor. Das System kann eine ältere Person basierend auf ihren Gelenkwinkeln, die von einem Bewegungserfassungssystem erfasst wurden, als Avatar betrachten und die Ganzkörperanimation des Avatars auf einem Webbrowser rendern. Das avatarvermittelte Architekturdesign ermöglicht es den Betreuern, das Verhalten der älteren Personen den ganzen Tag über zu beobachten, ohne deren Privatsphäre zu verletzen. Darüber hinaus zeigen wir eine Beispielimplementierung, die mehrere Sensoren in die Plattform integriert. Durch die Integration mehrerer Sensoren in die Plattform können Pflegekräfte den Avatar mit dem Gesundheitszustand der älteren Person beobachten. Das implementierte System zeigte die geringe Abhängigkeit von der Kommunikationsbandbreite und eine ausreichende Bildrate, damit die Animation reibungslos gesehen werden konnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-32270-4_13 969c4e9c53a57404614dab6aa410ad8d;de;;;5.3.;;;Inhibitoren der DNA-Synthese in RNA-Tumorviren: Biologische Implikationen und ihre Wirkungsweise Mehr als vier Jahre sind vergangen, seit der Virologe HOWARD M. TEMIN von der University of Wisconsin auf dem 10. DNA). Unabhängig davon wurde das gleiche Phänomen von DAVID BALTIMORE (1970b) vom Massachussetts Institute of Technology beobachtet. Obwohl vielleicht kein so grundlegendes Konzept wie die α-helikale Struktur der DNA, ist die RNA-abhängige DNA-Polymerase (reverse Transkriptase) ein Konzept, das Licht in mehrere unerklärte biologische Phänomene wirft und bereits Biochemiker, Molekularbiologen, Virologen und sogar inspiriert hat Biophysiker, die Mystik dieses Prozesses zu untersuchen. So hat die Entdeckung der „rückwärtigen“ Transkription durch TEMIN in zahlreichen Labors einen explosiven und immer noch unvorhersehbaren Aktivitätsschub ausgelöst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-66249-2_6 3c0abbec4b0e0f205adbb45d51771fda;de;;;5.3.;;;„Push“ versus „Pull“ zur Mobilisierung von Schmerzevidenz in die Praxis verschiedener Gesundheitsberufe: Ein Protokoll für eine randomisierte Studie Die Optimierung der Schmerzbehandlung erfordert den schnellen Zugriff und die Verwendung der besten Evidenz innerhalb und zwischen verschiedenen Disziplinen und Umgebungen. Der Zweck dieser randomisierten Studie besteht darin, festzustellen, ob ein technologiebasierter „Push“ von neuer, hochwertiger Schmerzforschung an Ärzte, Pflegepersonal sowie Rehabilitations- und Psychologieexperten zu einem besseren Wissen und einer besseren klinischen Entscheidungsfindung in Bezug auf Schmerzen führt, wenn zusätzlich angeboten zur traditionellen „Pull“-Beweistechnologie. Ein sekundäres Ziel besteht darin, disziplinäre Variationen als Reaktion auf Evidenz und Unterschiede in den Zugangsmustern für Forschungsevidenz zu identifizieren.;-;-;-;https://link.springer.com/article/10.1186/1748-5908-7-115 833b3ceda318c0e7fc79b74ebdd078fd;de;;;5.3.;;;Natürlicher gradientenbasierter rekursiver Algorithmus der kleinsten Quadrate für adaptive blinde Quellentrennung Dieses Papier konzentriert sich auf das Problem der adaptiven blinden Quellentrennung (BSS). Zunächst wird ein rekursiver Least-Squares-(RLS)-Aufhellungsalgorithmus vorgeschlagen. Durch Kombination mit einem auf natürlichen Gradienten basierenden RLS-Algorithmus für die nichtlineare Hauptkomponentenanalyse (PCA) und unter Verwendung vernünftiger Näherungen wird ein neuartiger RLS-Algorithmus erhalten, der BSS ohne zusätzliches Vorweißen der beobachteten Mischungen erreichen kann. Analysen der Gleichgewichtspunkte zeigen, dass sowohl der RLS-Whitening-Algorithmus als auch der auf natürlichem Gradienten basierende RLS-Algorithmus für BSS die gewünschten Konvergenzeigenschaften aufweisen. Es wird auch bewiesen, dass der kombinierte neue RLS-Algorithmus für BSS äquivariant ist und die Eigenschaft hat, die Trennmatrix daran zu hindern, singulär zu werden. Schließlich wird die Wirksamkeit des vorgeschlagenen Algorithmus durch umfangreiche Simulationsergebnisse verifiziert.;-;-;-;https://link.springer.com/article/10.1360/02yf0242 99fa18e480bb54f23e91dcd74d898409;de;;;5.3.;;;Blinde Quellentrennung bei unbekannter und sich dynamisch ändernder Anzahl von Quellensignalen Die Kontrastfunktion bleibt ein offenes Problem bei der blinden Quellentrennung (BSS), wenn die Anzahl der Quellensignale unbekannt ist und/oder sich dynamisch ändert. Die Arbeit untersucht dieses Problem und beweist, dass die gegenseitige Information immer noch die Kontrastfunktion für BSS ist, wenn die Mischmatrix vollen Spaltenrang hat. Die gegenseitige Information erreicht ihr Minimum an den Trennpunkten, wo die Zufallsausgaben des BSS-Systems die skalierten und permutierten Quellsignale sind, während die anderen Nullausgaben sind. Unter Verwendung der Eigenschaft, dass die Transponierte der Mischmatrix und einer Matrix bestehend aus;-;-;-;https://link.springer.com/article/10.1007/s11432-006-2021-7 cb35cd7994ccbb98c19eb3dc98e5665c;de;;;5.3.;;;Synthetische Emotion Wir präsentieren unsere ersten Schritte zu einem Framework, das darauf abzielt, die Glaubwürdigkeit synthetischer Charaktere durch Aufmerksamkeits- und emotionale Kontrolle zu erhöhen. Der Rahmen basiert auf der Hypothese, dass der Agentenverstand als vielschichtiges natürliches Evolutionssystem funktioniert, das durch biodigitale Mechanismen wie synthetische Emotionen und synthetische Aufmerksamkeit reguliert wird, die die endlose Evolution des Verstandes qualitativ regulieren. Basierend auf dieser Annahme entwickeln wir ein halbautonomes Modul, das die Sensor-Effektor-Agenten-Architektur erweitert, die primären emotensionalen Aspekte des Agentenverhaltens behandelt und somit die notwendigen Elemente liefert, um seine Glaubwürdigkeit zu erhöhen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39396-2_10 ebb68bffab9a8b861d506e0dd1288a45;de;;;5.3.;;;Raman-Spektrum von Ammoniumchlorid und seine Variation mit der Temperatur Mit der λ 2536,5 Quecksilberresonanzstrahlung als Erreger wurde das Raman-Spektrum von Ammoniumchlorid im Temperaturbereich von 85° T. bis 395° T detailliert untersucht. Die aufgenommenen Spektren zeigen bei allen Temperaturen viel mehr Frequenzverschiebungen als diejenigen, die von den früheren Arbeitern erworben wurden. Die vorliegende Studie zeigt folgende Fakten:;-;-;-;https://link.springer.com/article/10.1007/BF03170900 25468f8f57ecf4360f09decb9eac0b37;de;;;5.3.;;;Studie eines lokalen Überwachungssystems basierend auf SMS in der Cloud-Umgebung Um die Gesamtsicherheit des Cloud-Dienstes zu verbessern und die Datenintegrität zu gewährleisten und die Belastung des Überwachungssystems zu verringern, wird die Clusteranalyse in das Papier eingeführt, um Benutzer in verschiedene Vertrauensdomänen einzuteilen. Zu den Objekten des Überwachungssystems gehören nur spezielle Benutzer und Benutzer, deren Vertrauensdomäne minimal ist. Das System verfügt über eine SMS-Alarmfunktion und ermöglicht den Benutzern, die Daten mit einem Smartphone wiederherzustellen. Das System berücksichtigt sowohl spezielle Benutzer als auch allgemeine Benutzer und stellt die Zuverlässigkeit des Dienstes sicher und verbessert die Erfahrung der Benutzer.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-9618-7_42 7a76a8b99dcb64e6216b0995a5c37984;de;;;5.3.;;;Der Nachweis einer erhöhten Häufigkeit von HLA-DPB1*0301 bei Morbus Hodgkin unterstützt eine infektiöse Ätiologie Die Hodgkin-Krankheit (HD) kann das seltene Ergebnis einer häufigen Infektion sein, die durch die genetische Anfälligkeit des Wirts beeinflusst wird. Wir haben diese Hypothese analysiert, indem wir die Häufigkeit von HLA-DPB1-Allelen in zwei Serien von Huntington-Patienten mit molekularen Typisierungsmethoden bestimmt haben. Eine Serie bestand aus einer retrospektiven/prospektiven Gruppe von 118 Patienten im Alter von 15 Jahren und die andere aus einer prospektiven Gruppe von 45 Patienten zwischen 16 und 24 Jahren. In beiden Serien war der Anteil der Patienten, die HLA-DPB1 *0301 typisierten, größer als bei den Kontrollen, was darauf hindeutet, dass es sich um ein Huntington-Anfälligkeitsallel handeln könnte. Die Analyse der DPB1-Allele in Bezug auf den Huntington-Subtyp zeigte auch, dass der Anstieg von *0301 bei Patienten mit nodulär sklerosierender Huntington-Krankheit (HDNS) sowie bei Huntington-Patienten mit gemischter Zellularität (HDMC) und Lymphozyten-prädominanter HD (HDLP) vorhanden war. Es wurden vorläufige Beweise erhalten, die auf einen Anstieg von *0401 und möglicherweise *0501 von HDMC und HDLP hindeuten. Die Analyse von Assoziationen der *0301-ähnlichen hypervariablen Region (HVR) mit HD-Subtypen zeigte eine Zunahme eines *0301-ähnlichen HVR-C-Motivs in HDNS, jedoch nicht in Nicht-HDNS. Die Häufigkeit von *0301- und *0401-ähnlichen HVR-C- und HVR-F-Aminosäureresten unterschied sich auch bei HDNS- und Nicht-HDNS-Patienten. Die Häufigkeit der HVR-C-Aminosäurereste Asp55, Glu56 (*0301) war bei HDNS erhöht, jedoch nicht bei Nicht-HDNS-Patienten, während die Häufigkeit von Ala55, Ala56 (*0401) bei Nicht-HDNS erhöht war, aber nicht bei HDNS-Patienten. Darüber hinaus war die Häufigkeit der HVR-F-Aminosäurereste Asp84, Glu85 und Ala86 (*0301) bei HDNS-Patienten höher als bei Nicht-HDNS-Patienten, während es bei Gly84, Gly85, Pro86 (*0401) keine Zunahme gab. Obwohl dies vorläufige Ergebnisse sind, legen sie nahe, dass die genetische Anfälligkeit für eine infektiöse Ätiologie bei der Huntington-Krankheit eher auf der Ebene der DPB-Peptid-bindenden Reste als auf einem spezifischen Allel liegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0339-8_2 38bf982164c0abca62ec26b9d0cf37d8;de;;;5.3.;;;Patentrechtliche Aspekte im Zusammenhang mit vier Jahrzehnten Ziegler-Katalysatoren Der Kampf um internationalen Patentschutz und die frühe Versuchung der Polyolefinhersteller, das Recht des Patentinhabers durch Verletzung zu vernachlässigen, wird beschrieben. Auch die Situation grundlegender Entscheidungen von US-Gerichten während 30 Jahren wird diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-79136-9_2 448c4568f08375c20e07d1deeae5e306;de;;;5.3.;;;Elektrochemische Sensoren Elektrochemische Sensoren sind die größte und älteste Gruppe chemischer Sensoren. Viele Mitglieder dieser Gruppe haben die kommerzielle Reife erreicht, während sich viele noch in verschiedenen Entwicklungsstadien befinden. Sie werden im breitesten Rahmen der Elektrochemie, der Wechselwirkung von Elektrizität und Chemie, diskutiert. Eingeschlossen werden so unterschiedliche Sensoren wie Enzymelektroden, Hochtemperatur-Oxidsensoren, Brennstoffzellen, Oberflächenleitfähigkeitssensoren usw. Sie werden nach ihrer Messart unterteilt in;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-6257-0_4 7e9849fc32aecf30fa3d4e985a3bd84e;de;;;5.3.;;;Einige mikrobiologische Aspekte der Bauxitmineralisierung und -aufbereitung Eine mikrobielle Untersuchung von Jamnagar-Bauxitminen in Gujarat, Indien, ergab das einheimische Vorkommen einer Vielzahl von autotrophen und heterotrophen Bakterien und Pilzen, die mit dem Erzkörper und den Wasserteichen in der Nähe verbunden sind. Unter diesen sind Bakterien der Gattungen Thiobacillus, Bacillus und Pseudomonas an der Verwitterung von Alumosilikaten, der Ausfällung von Eisenoxyhydroxiden, der Auflösung und Umwandlung von Alkalimetallspezies und der Bildung von Aluminiumoxid, Siliciumdioxid und Calcitmineralien beteiligt. Pilze der Gattung Cladosporium können Eisen(III) reduzieren und Aluminiumsilikate auflösen. Die Biogenese spielt somit eine bedeutende Rolle bei der Bauxitmineralisierung. Es wurde festgestellt, dass verschiedene Arten von Bakterien und Pilzen, wie Bacillus polymyxa, Bacillus coagulans und Aspergillus niger, bei der signifikanten Calcium-Solubilisierung und teilweisen Eisenentfernung aus Bauxiterz wirksam sind. Wahrscheinliche Mechanismen im Biobenefizierungsprozess werden analysiert. Die Bioaufbereitung hat sich als wirksame Methode zur Entfernung von Eisen und Kalzium aus Bauxiterzen zur Verwendung in Feuerfest- und Keramikmaterialien erwiesen.;-;-;-;https://link.springer.com/article/10.1007/BF03402759 bd255345d97df41ab19d252b510e1352;de;;;5.3.;;;Wachstumshormon-Releasing-Hormon-Rezeptor (GHRH-R)-mRNA-Expression in humanen Hypophysenadenomen: Eine Studie über katalysierte Reporterablagerung- Wachstumshormon-freisetzendes Hormon (GHRH) stimuliert die Transkription, Synthese und Sekretion des Wachstumshormons (GHRH)-Gen von Wachstumshormonen über den Wachstumshormon-freisetzenden Hormonrezeptor (GHRH-R). In einer früheren Studie mit reverser Transkriptase-Polymerase-Kettenreaktion (RT-PCR) und Northern-Blotting wurde GHRH-R-mRNA in allen Arten von Hypophysenadenomen nachgewiesen. Auf der anderen Seite in einem kürzlich;-;-;-;https://link.springer.com/article/10.1007/BF02738813 e4b6446f7bb0b2a739c7f4aff612f435;de;;;5.3.;;;Modellierung und Erkennung von vorzeichenbehafteten Ausdrücken unter Verwendung von Untereinheiten, die durch einen datengesteuerten Ansatz erhalten wurden Der Artikel befasst sich mit der automatischen visuellen Modellierung und Erkennung von Ausdrücken in der Gebärdensprache, die kleinere Einheiten als Wörter verwenden. Das Modellieren von Gesten mit Untereinheiten ähnelt dem Modellieren von Sprache mit Hilfe von Phonemen. Zur Definition der Untereinheiten wird ein datengetriebenes Verfahren vorgeschlagen. Das Verfahren besteht darin, Zeitreihen von Merkmalsvektoren, die aus Videomaterial erhalten wurden, in Untersequenzen zu unterteilen, die homogene Cluster bilden. Die Schnittpunkte werden durch ein Optimierungsverfahren basierend auf einer Qualitätsbewertung der resultierenden Cluster bestimmt. Dann werden Untereinheiten auf zwei Arten ausgewählt: als Repräsentanten von Clustern oder als Hidden-Markov-Modelle von Clustern. Diese beiden Ansätze führen zu Unterschieden im Klassifikatordesign. Details der Lösung und Ergebnisse von Experimenten zu einer Datenbank mit 101 polnischen Wörtern und 35 Sätzen, die beim Arzt und in der Post verwendet werden, werden angegeben. Unsere auf Untereinheiten basierenden Klassifikatoren übertreffen ihre ganzwortbasierten Gegenstücke, was besonders deutlich wird, wenn anhand weniger Beispiele neue Ausdrücke erkannt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33185-5_35 38d3f31e649485302562404e28991243;de;;;5.3.;;;Anwendungen von Organolanthanoiden Organoderivate von Lanthanoiden als solche haben noch keine breite praktische Anwendung. Die Ergebnisse vieler Untersuchungen belegen jedoch, dass sie in dieser Hinsicht vielversprechend sind. Es ist bereits bekannt, dass diese Verbindungen in der chemischen Industrie, Metallurgie, Maschinenbau, Medizin, Elektronik und anderen Ingenieurbereichen weit verbreitet sind. Darüber hinaus ist zu beachten, dass praktisch in allen Fällen, in denen Salze, Legierungen oder freie REM als Katalysatoren für die organische Synthese eingesetzt werden, deren organische Derivate in Zwischenstufen gebildet werden. Es erlaubt, solche Prozesse in dieses Kapitel einzubeziehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-0361-9_14 70dc4c6046065a208d980a7b40acd0f0;de;;;5.3.;;;Antivirale Wirkstoffe „Wenn nur jemand ein Heilmittel gegen Grippe und Erkältung finden könnte, was für ein angenehmer Ort wäre die Welt.“ Wie oft im Jahr hört man diesen Schrei aus dem Herzen, wenn die Menschen eine Infektion mit dem Virus der oberen Atemwege haben, die Nase läuft, hustet, niest und sich völlig elend fühlt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-7102-0_6 b98c28d2a4dcb5a4786808db4866121a;de;;;5.3.;;;Negativ-Ionen-Zustände Negative Ionen spielen in vielen Bereichen der Photophysik und Photochemie eine wichtige Rolle. Negative Ionen können direkt durch Photodissoziation von Molekülen durch Ionenpaarproduktion oder indirekt durch Ladungsaustausch zwischen photoangeregten Spezies und elektronegativen Atomen oder Molekülen erzeugt werden. Die anschaulichste Veranschaulichung der Bedeutung negativer Ionen in der Photophysik findet sich in der von der Sonne emittierten Strahlung. Das Sonnenspektrum weist für Wellenlängen über 5000 Å eine intensive Selbstabsorption auf. 1939 zeigte Wildt [1], dass H;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-5269-0_9 e18685070f793d0f97c487870e89cbd5;de;;;5.3.;;;Ribosomale RNA-Gene in der Waldkiefer ( Die nukleären 18S-, 5.8S- und 25S-rRNA-Gene existieren als Tausende von rDNA-Wiederholungen im Waldkiefer-Genom. Die Anzahl und Lage der rDNA-Loci (Nucleolus-Organisatoren, NORs) wurden durch zytologische Verfahren untersucht, und eine Restriktionskarte aus der kodierenden Region der rDNA-Wiederholung der Waldkiefer wurde unter Verwendung von Digoxigenin-markierter Flachs-rDNA als Sonde konstruiert. Basierend auf der maximalen Anzahl von Nukleolen und chromosomalen sekundären Einschnürungen hat die Waldkiefer mindestens acht NORs in ihrem haploiden Genom. Die Größe der rDNA-Wiederholungseinheit der Waldkiefer ist ungefähr 27 kb, zwei- oder dreifach größer als die typische Angiospermen-rDNA-Einheit, aber ähnlich groß wie andere charakterisierte Nadelbaum-rDNA-Wiederholungen. Die intergene Spacer-Region (IGS) der rDNA-Repeat-Einheit in der Waldkiefer ist länger als 20 kb, und die transkribierten Spacer-Regionen, die das 5.8S-Gen umgeben (ITS1 und ITS2) umfassen eine Region von 2,9 kb. Die Restriktionsanalyse ergab, dass, obwohl die kodierenden Regionen von rDNA-Wiederholungen homogen sind, Heterogenität in der intergenischen Spacer-Region zwischen Individuen sowie zwischen den rDNA-Wiederholungen innerhalb von Individuen existiert.;-;-;-;https://link.springer.com/article/10.1007/BF02424452 16d03d632fb310fbe6e9fca2996e8259;de;;;5.3.;;;Ein chemischer Mechanismus für die Erregungs-Kontraktions-Kopplung im Skelettmuskel Der frühe Prozess der Erregungs-Kontraktions-Kopplung in der Skelettmuskulatur umfasst hauptsächlich die Beteiligung eines Netzwerks von Quertubuli (T-Tubuli) und einer Kopplungsstruktur, an der die T-Tubula-Membran auf die Membran des Sarkoplasmatischen Retikulums (SR) (T-SR-Verbindung) trifft ). Das transversale tubuläre System (T-System) ist zum extrazellulären Raum hin offen und verbindet sich mit der Oberflächenmembran, wo sich das Aktionspotential entlang der Faser ausbreitet. Derzeit ist bekannt, dass sich das Aktionspotential auch radial in die tiefsten Regionen des T-Systems ausbreitet;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-5736-0_28 1be664c0ef4623ce31224206805fcb35;de;;;5.3.;;;Vorläufige Analyse nicht normaler Emissionen aus einer Sondermüllverbrennungsanlage Eine vorläufige Bewertung von nicht normalen POHC-Emissionen für ein gegebenes Szenario aus einer Verbrennungsanlage mit flüssiger Injektion wird hier berichtet. Die Fehlerbaumtechnik wird verwendet, um die nicht-normale Emissionshäufigkeit zu bewerten, und die Fehlerbäume werden mit der IRRAS-Software quantifiziert. Basierend auf den verfügbaren Informationen werden einige Annahmen getroffen, um die Modelle für die nicht normale Emissionsrate, die Dauer und die Zufuhrrate auszuwählen. Die Monte-Carlo-Technik wird verwendet, um die Verteilung der nicht normalen Emissionsmenge zu erhalten. Die vorläufigen Ergebnisse zeigen, dass die mittleren, 5. und 95. Perzentile der nicht normalen Emissionen das 0,6-, 4 × 10-5- bzw. das 1,1-fache der normalen POHC-Emissionen betragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-2370-7_33 08089cdca60f6fc8c0364fdf15458195;de;;;5.3.;;;Blutdruck und Hypertonie im Kindes- und Jugendalter In den letzten Jahren ist das Interesse an der Erforschung von Blutdruck und Bluthochdruck im Kindesalter stetig gewachsen. Es gibt mehrere Gründe für dieses Wachstum: (1) Es wurde erkannt, dass die essentielle Hypertonie bei Erwachsenen in vielen Fällen in der Kindheit oder Jugend beginnt. (2) Es ist zu hoffen, dass Studien zur Hypertonie in jungen Jahren die Pathophysiologie der Hypertonie beleuchten. (3) Die Früherkennung von Bluthochdruck scheint wichtig zu sein, um Komplikationen zu einem späteren Zeitpunkt zu vermeiden. (4) Hypertonie in der pädiatrischen Altersgruppe scheint nicht so selten zu sein, wie früher angenommen wurde. Inzwischen wurde erkannt, dass Informationen über die Prävalenz von Hypertonie rar sind und Langzeituntersuchungen zum Blutdruck praktisch fehlen. Außerdem ist die Technik der Blutdruckmessung alles andere als standardisiert. Folglich wurden kaum zwei Erhebungen unter identischen Bedingungen durchgeführt und daher sind Vergleiche schwierig.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-67379-5_4 5b35a7045bbe339f64212d4355729529;de;;;5.3.;;;Fortschritte in der Chemotherapie von Malaria Das Problem der Malaria, das in den späten 1950er Jahren gelöst oder zumindest unter Kontrolle schien, ist wieder bei uns, zusammen mit ernsteren Problemen der Resistenz der Vektormücken gegen bekannte Insektizide und der Parasiten gegen bekannte Antimalariamittel. Die derzeitigen Medikamente erweisen sich als unzureichend - da die Chloroquin-resistenten;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-9311-4_8 92931a5731785060766b1a1bb3c7c5c3;de;;;5.3.;;;Modifizierte Nukleoside in Körperflüssigkeiten von tumortragenden Patienten Die multifunktionelle zelluläre Rolle der tRNA leitet sich von ihrer molekularen Struktur ab, die durch einen komplexen Biosyntheseprozess einschließlich kovalenter Modifikationen vieler Nukleoside erreicht wird (siehe Salvatore et al. 1982). Tatsächlich ist tRNA die Nukleinsäurespezies, die die höchste und vielfältigste Anzahl an modifizierten Nukleosiden enthält: Unter den analysierten tRNA-Spezies wurden mehr als 40 Positionen entlang der Primärstruktur von einem modifizierten Nukleosid besetzt gefunden (siehe Agris 1980). Etwa 50 verschiedene Arten von modifizierten Nukleosiden wurden identifiziert, und in einer einzigen tRNA-Spezies können bis zu 15 davon vorhanden sein. In den meisten Fällen sind drei oder vier -Reste und zwischen vier und zehn sind methylierte Nukleoside (siehe Dirheimer et al. 1979).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-81947-6_27 3c82e67c5776b6e2eb53c73a56004eb4;de;;;5.3.;;;Gynäkologische Infektionen und Behandlungsstrategien Häufig werden aufgetretene gynäkologische Infektionen und beteiligte Erreger vorgestellt. Es wird ein Überblick über Bartholinitis, Vulvovaginitis-bakterielle Vaginose, Candidiasis, Trichomoniasis-Zervizitis und entzündliche Beckenerkrankungen gegeben:;-;-;-;https://link.springer.com/article/10.1007/BF01967831 6434b0408903edb853fbc3857c242fa1;de;;;5.3.;;;Anwendungen in der Medizin und verwandten Bereichen Infrarotspektroskopie wird in klinischen Laboratorien auf vielfältige Weise eingesetzt. Die Infrarotanalyse von Serum und anderen Flüssigkeiten von gesunden Personen und von Patienten mit verschiedenen Krankheiten hat bei der Diagnose dieser Krankheiten geholfen. Die Adsorption von Plasmaproteinen an der Oberfläche von Polymeren, die dem Blutstrom ausgesetzt werden sollen, wurde und wird mittels interner Reflexionstechniken aktiv untersucht. Mit der ATR-Methode wurden normale und erkrankte Hautoberflächen untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-1872-9_18 ad39712a63235c37ad65d7f275d0e9ac;de;;;5.3.;;;Chern-Klassen und Stiefel-Whitney-Klassen Wir betrachten Chern-Klassen, Stiefel-Whitney-Klassen und die Euler-Klasse aus axiomatischer Sicht. Die Eindeutigkeit der Klassen folgt aus dem Aufspaltungsprinzip, und die Existenz wird mit Hilfe des Bündels projektiver Räume, das einem Vektorbündel zugeordnet ist, und dem Leray-Hirsch-Theorem abgeleitet. Diese Ergebnisse konnten mit Hilfe der Obstruktionstheorie oder der Kohomologie des Klassifikationsraums gewonnen werden. Schließlich betrachten wir die Beziehung zwischen charakteristischen Klassen und dem Thorn-Isomorphismus.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-4008-0_16 2e8e002a19c70d0a7b17ebc0e18cf4a1;de;;;5.3.;;;Kolorimetrische in-situ-Hybridisierung In-situ-Hybridisierung, der Nachweis genetischer Informationen in einem morphologischen Kontext, ist eine leistungsfähige Technik, die mit zunehmender Sicherheit und Häufigkeit sowohl in der experimentellen als auch in der diagnostischen Pathologie eingesetzt wird. Die Entwicklung kolorimetrischer Methoden, die für routinemäßig verarbeitete formalinfixierte Gewebe zugänglich sind, hat das Potenzial, ihren Einsatz weiter zu steigern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-80343-7_6 8213dcdbf79a06a6d76e2aad1054b25c;de;;;5.3.;;;Supramolekulare Katalyse von Phosphoryltransferprozessen Supramolekulare Katalyse und Reaktivität sind wichtige Merkmale der supramolekularen Chemie. Das Design selektiver molekularer Katalysatoren könnte wichtige Faktoren aufdecken, die zur enzymatischen Katalyse beitragen und synthetische Reagentien für spezifische chemische Umwandlungen bereitstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-78110-0_3 8b18eb38ce7c2b39ae7fc904a0dca8f6;de;;;5.3.;;;Wasser, Hydrophobe und Kieselsäurepartikel Die Silanisierung von Oberflächen ist für viele der neuen Partikeltechnologien wichtig. In diesem Artikel diskutieren wir speziell die Reaktion von Chlorsilanen mit nichtporösen Partikeln einer reinen pyrogenen Kieselsäure. Infrarot (IR)-Spektroskopie wird verwendet, um die Oberflächenreaktionen zu bestimmen, die auf vollständig trockenen Oberflächen und auf solchen, die geringe Mengen an adsorbiertem Wasser enthalten, auftreten.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-0259-6_16 1639ab7e3cbcdca640b1497f2decc040;de;;;5.3.;;;Die Homogenisierungsmethode zur Untersuchung des Flüssigkeitsflusses in porösen Medien Die Homogenisierungsmethode ist eine mathematische Methode zur Untersuchung von Anfangswert- und Randwertproblemen in Gebieten mit periodischer Struktur. Wenn die Dimensionen einer Periode klein im Vergleich zur Größe des gesamten Bereichs sind, ist es naheliegend, einen kleinen Parameter ε als Verhältnis zwischen diesen Dimensionen zu definieren. Mit diesem kleinen Parameter ist die Untersuchung des Anfangswert- und des Randwertproblems verbunden. Der asymptotische Prozess ε → 0 repräsentiert den Übergang von mikroskopischen zu makroskopischen Phänomenen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-3717-8_1 807f1335dba609b016357d8ea945980d;de;;;5.3.;;;Apolipoprotein-E-Allelfrequenzen in einer italienischen Bevölkerung: Zusammenhang mit Alter und Lipidprofil Apo-E-Phänotyp und Plasma-Tg-, Chol-, LDL-Chol-, HDL-Chol- und Apo-B-Spiegel wurden in einer Stichprobe von 228 gesunden italienischen Probanden (124 Männer und 104 Frauen) im Alter von 18–93 Jahren bestimmt. Die Allelfrequenzen waren: 2=0,070, ε3=0,829, φ=0,101 (unter den niedrigsten Werten in der Literatur). Die Aufteilung der Probe in vier Altersgruppen zeigte, dass die Häufigkeit von ε4 mit dem Alter auf 0 bei Personen über 75 Jahren abnahm. Die Kovarianzanalyse des Einflusses jedes Allels auf die Plasmalipide zeigte, dass ε4 signifikant mit dem höchsten hol, LDL-Chol und Apo B-Stufen. Diese Daten belegen den Einfluss von ε4 auf den Chol-Stoffwechsel in einer italienischen Bevölkerung. Sie zeigen auch, dass seine Häufigkeit mit dem Alter abnimmt. (Aging Clin. Exp. Res. 7: 185–189, 1995);-;-;-;https://link.springer.com/article/10.1007/BF03324333 759adde68bbd45d768476b93f8da2671;de;;;5.3.;;;Zytochemie der Nukleinsäuren Zytochemische Methoden mit quantitativen Zielen sind heute in vielen Labors Standardverfahren. Nach einer Zeit des technischen Fortschritts ist die quantitative Zytochemie in eine Phase eingetreten, in der die Untersuchung eines zellbiologischen Problems, teilweise mit direktem medizinischen Bezug, das Hauptziel ist. Eine breitere Anwendung der Methoden ist zu begrüßen, aber die Notwendigkeit einer sorgfältigen Beachtung von Fehlerquellen und Genauigkeitsgrenzen kann nicht stark genug betont werden. Das bei weitem ermutigendste Zeichen ist die geringe, aber zunehmende Verwendung in Kombination von zwei oder mehr Methoden, die ähnliche Informationen liefern. Insbesondere eine Kombination von Mikrospektrophotometrie oder biochemischen Verfahren mit autoradiographischer Detektion isotopenmarkierter Vorstufen hat neben der Bereitstellung komplementärer Daten den Vorteil der gegenseitigen Überprüfung. Glücklicherweise wird die unbestrittene biologische Bedeutung der Desoxyribose-Nukleinsäure (DNA) bis zu einem gewissen Grad durch die Anzahl und Effizienz der für ihren Assay verfügbaren Methoden erreicht. Hätte sich herausgestellt, dass beispielsweise Lipide die Grundlage des Erbguts sind, hätte das Fehlen quantitativer Methoden den Fortschritt behindert. Obwohl argumentiert werden könnte, dass Methoden entwickelt würden, ist es bezeichnend, dass wir noch immer keine zufriedenstellende quantitative zytochemische Methode zur Bestimmung von RNA haben. Quantitative Methoden für DNA waren verfügbar, bevor ihre biologische Bedeutung allgemein anerkannt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-5569-1_2 71bb917ab4cbc38b0348124e40fdbeb6;de;;;5.3.;;;Strategien zur Analyse von Fettsäuremediatoren von Entzündungen Die Rolle von Fettsäuren bei der Vermittlung von Entzündungsprozessen in der menschlichen Haut ist eindeutig belegt. Die Mechanismen, nach denen sie funktionieren, reichen von groben physikalisch-chemischen Veränderungen, z. in den Zellmembraneigenschaften bis hin zur hochspezifischen, rezeptorvermittelten Zellaktivierung. Die Population der Fettsäuremoleküle ist im Fluss, freie Säuren werden kontinuierlich in spezifische Lipidpools aufgenommen und aus diesen freigesetzt. Darüber hinaus unterliegen sie metabolischen und oxidativen Modifikationen, sowohl in freier als auch in gebundener Form, was zu einer Vielzahl von Molekülarten führt, von denen einige wichtige biologische Aktivitäten aufweisen. Es gibt eine Reihe hervorragender Praxistexte für den Labortisch, in denen die Methoden zur Fettsäureextraktion, -reinigung und -analyse ausführlich beschrieben werden, darunter die Bücher von Christie und Hamilton und Hamilton [1,2]. In diesem Review habe ich Protokollbeispiele aus einer Vielzahl von humanen Matrices entnommen, da die darin beschriebenen Methoden gleichermaßen für dermal relevante Proben gelten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-8761-8_8 ccccd2f227600a86fcbf1c602899de59;de;;;5.3.;;;Einfluss von Glykosylierungsinhibitoren auf die Bindung von Dihydropyridin an Herzzellen In Primärkulturen von neugeborenen Rattenherzzellen fanden wir eine lineare Korrelation zwischen der Zahl der L-Typ-Calciumkanal-spezifischen Dihydropyridin (DHP)-Bindungsstellen und der spontanen Schlagfrequenz (v).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-1279-6_6 fabbf58bb6e870ebe3e9dabf14e419fa;de;;;5.3.;;;Reinigung und Charakterisierung von Skorpiongiften, die auf spannungsempfindliches Na . wirken Skorpione produzieren einige der stärksten Gifte im Tierreich. Die Toxizität dieser Gifte beruht auf ihrem hohen Gehalt an Peptidneurotoxinen, die gegen Ionenkanäle hochaktiv sind (Miranda et al., 1970). Skorpione verwenden diesen Giftcocktail, um ihre Beute zu immobilisieren und sich zu schützen. Ihre Gifte bestehen daher aus einem komplexen Gemisch von Polypeptiden mit unterschiedlichen pharmakologischen Aktivitäten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-8466-2_10 94f690754848c3914e5ef780d41ec761;de;;;5.3.;;;Molekulare Bewegung in Matrizen Die Frage der Molekularbewegungen in Kristallen ist eine relativ alte wissenschaftliche Frage und nach und nach wurden Daten gesammelt, die belegen, dass Molekularbewegungen bei relativ niedrigen Temperaturen in vielen Festkörpern existieren. Daher sollte es nicht überraschen, dass viele kleine Moleküle, die in Edelgasmatrizen gefangen sind, selbst bei 12°K eine eingeschränkte Rotation zeigen. Wir werden einen mehr oder weniger historischen Überblick über die Beobachtungen von Molekülbewegungen in Edelgasmatrizen geben, beginnend mit den frühen Studien über die Schwingungs-Rotations-Spektren von kleinen Molekülen, die in den Edelgasen eingeschlossen sind, und schließen mit den neueren Studien im Niederfrequenzspektrum Region.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-8540-7_16 ae157b1828827fee8435883ab60ced44;de;;;5.3.;;;Stamm BII. Thermotogae Extrem thermophile stäbchenförmige Bakterien, nicht sporenbildend, Gram-negativ mit einer äußeren hüllenartigen Hülle aus „Toga“. Die Mitglieder sind alle anaerob und fermentativ. Der Stamm wird durch eine einzelne Klasse und eine einzige Ordnung repräsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-21609-6_19 ebbca63ae9abf3b9b0380a1190f4d391;de;;;5.3.;;;Methoden zur neurochemischen Untersuchung von Mikrotubuli Der Mikrotubulus und seine Proteinuntereinheit Tubulin werden in Pflanzen- und Tierzellen weit verbreitet gefunden, und es scheint nichts Einzigartiges über die Morphologie oder Chemie dieser Entitäten im Gehirn zu geben. Das Ungewöhnliche an ihrem Vorkommen im Nervengewebe ist ihre hohe Konzentration. Mikrotubuli werden bei elektronenmikroskopischen Untersuchungen von Neuronen in großer Zahl beobachtet. Tubulinkonzentrationen im Gehirn wurden zwischen 11% und über 40% des gesamten löslichen Proteins des Gehirns berichtet (Dutton und Barondes, 1969, Feit;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-7751-5_11 23752298eedf9a142c156d5e465fb382;de;;;5.3.;;;In-situ-Identifizierung von Mikroorganismen durch Ganzzellhybridisierung mit rRNA-gerichteten Nukleinsäuresonden Die Sequenzierung von 16S- und 23S-ribosomalen RNA (rRNA)-Molekülen ist derzeit der Goldstandard für die Klassifizierung neuer mikrobieller Isolate. Vergleichende Analysen dieser Sequenzen ermöglichen erstmals in der Geschichte der Mikrobiologie die Rekonstruktion universeller Stammbäume [38]. Neben vielen anderen wichtigen Erkenntnissen zeigte die Arbeit von Carl Woese und seinen Kollegen, dass nur bestimmte (bei weitem nicht alle) phänotypisch/physiologische Gruppen von Mikroorganismen monophyletisch sind (z. Vor etwa 10 Jahren wurde vorgeschlagen, einen rRNA-Ansatz für Studien in der mikrobiellen Ökologie zu verwenden [21]. Die mikrobielle Diversität sollte kultivierungsunabhängig durch direkten rRNA-Sequenz-Retrieval analysiert werden, während Nukleinsäuresonden, die komplementär zu rRNA- oder rRNA-Genen sind, die Instrumente zur Überwachung der Populationsdynamik in den Umweltproben sein sollten. Aufgrund ihrer eigenen Natur verfolgen rRNA-gerichtete Sonden Genotypen, die nicht unbedingt mit einem Phänotyp verbunden sind. Mikrobielle Ökologen, die diesen Ansatz anwenden möchten, um Korrelationen zwischen Gemeinschaftsstrukturen und -funktionen zu untersuchen, sollten sich dieser Tatsache bewusst sein und rRNA-gerichtete Sonden entsprechend entwickeln oder anwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-0351-0_23 ad052c418355b6ee60c3b6612dcf97c6;de;;;5.3.;;;Linuron und Monolinuron Linuron und Monolinuron waren 1960 und 1961 die ersten substituierten 3-Aryl-l-methoxy-l-methyl-harnstoffe, die als Herbizide in der Landwirtschaft eingeführt wurden. Aufgrund ihrer günstigen physikalischen, chemischen und toxikologischen Eigenschaften, insbesondere aufgrund der Selektivität ihrer phytotoxischen Wirkung, haben sie weltweite Anwendung in vielen Bereichen der Pflanzenproduktion gefunden. Ihre Persistenz in Boden, Pflanzen und Umwelt ist so eingeschränkt, dass zwar die gewünschte herbizide Wirkung nicht beeinträchtigt wird, jedoch die Bildung unerwünschter Rückstände in Lebens- oder Futtermitteln sowie eine Anreicherung in belebter und unbelebter Natur werden vermieden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-5874-2_1 878a890a990941efee6aec131dc862da;de;;;5.3.;;;Zeitabhängigkeit Bisher haben wir die Zustände von Atomen und Molekülen diskutiert, ohne dass Prozesse erwähnt werden, die diese Zustände ändern könnten. Wir haben gezeigt, wie Energien und andere Eigenschaften der zeitunabhängigen Zustände von Atomen und Molekülen berechnet werden können. Nun diskutieren wir Veränderung oder Zeitabhängigkeit. Dies bedeutet, dass wir zu einem Thema zurückkehren, das ganz am Anfang des Buches erwähnt wurde, als wir diskutierten, wie Spektroskopie durch Bohrs Postulate zu der Erkenntnis führte, dass quantenmechanische Systeme nur in Zuständen mit bestimmten Energien existieren können. Unser Ziel ist es nun, die Bohrschen Regeln abzuleiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-2268-9_13 afc08b1527ea09b3fe3c30bcc55daec1;de;;;5.3.;;;Kinetische Studien zum Transport durch die Membranen von roten Blutkörperchen Dieses Kapitel befasst sich in etwas selektiver Weise mit den methodischen Aspekten des Transports durch Zellmembranen. Wir beginnen mit einer allgemeinen Diskussion der Kinetik des trägervermittelten Transports und gehen zu einer Diskussion darüber, wie die Parameter, die einen solchen vermittelten Transport beschreiben, aus experimentellen Daten abgeleitet werden können. Wir diskutieren dann, wie die experimentellen Daten gewonnen werden, und beschränken uns auf das experimentelle Objekt, mit dem wir am vertrautesten sind, das rote Blutkörperchen. Auch in diesem eingeschränkten Feld betonen wir diejenigen Systeme, mit denen wir direkt gearbeitet haben – um unsere Kommentare zumindest teilweise verbindlich zu machen. Wir hoffen jedoch, dass wir durch Zitat und Diskussion die meisten Systeme behandeln, deren Transport in roten Blutkörperchen untersucht wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-8960-0_5 2832fa8b97fe851914021ec8111c15ef;de;;;5.3.;;;Chemie wässriger Meeresextrakte: Isolierungstechniken Verschiedene Techniken zur Isolierung von Verbindungen aus wässrigen Extrakten von Meeresorganismen werden besprochen. Die Hauptisolierungstechniken beinhalten die Trennung durch Unterschiede in der Molekülgröße, Ladung oder Adsorptionseigenschaften. Es werden erfolgreiche Strategien diskutiert, die verwendet werden, um bioaktive Bestandteile aus Extrakten zu isolieren, die Aktivität in einer Vielzahl von biologischen Screens zeigten. Die neuere Literatur zu marinen Naturstoffen wird überprüft und die Isolierungsverfahren für aus wässrigen Extrakten isolierte Verbindungen werden zusammengefasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-48346-2_1 a204ea71b1258cf8e580a6c2a9aa1faa;de;;;5.3.;;;Aktuelle Untersuchungen zu Mutterkornalkaloiden Mutterkorn nimmt unter den Arzneimitteln unseres therapeutischen Rüstzeugs eine Sonderstellung ein, nicht nur wegen seiner ungewöhnlichen Einordnung in das Pflanzenreich, sondern auch wegen seiner interessanten biologischen Eigenschaften und der bemerkenswerten Wirkprinzipien. Botanisch bekannt als;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-7169-1_4 a62a782fb54593d81bc7123ecbb1c6bc;de;;;5.3.;;;Bewegungsgleichungen und Gleichgewicht In den vorangegangenen Kapiteln wurden die allgemeinen Theorien von Spannung und Dehnung und deren Beziehung in realen Materialien eingehend untersucht. Die letzte Stufe in der Entwicklung der mathematischen Theorie ist die Aufstellung der Bewegungsgleichungen für die verschiedenen betrachteten Stoffarten: Aus ihnen folgen die Gleichgewichtsgleichungen als Sonderfall der Bewegungslosigkeit. Diese Gleichungen werden in den §§ 33, 39, 41 hergeleitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-6024-7_3 a396e89e649478d19bd532b3fd4e54ee;de;;;5.3.;;;Atmosphärischer Abbau anthropogener Moleküle Dieses Kapitel gibt einen Überblick über den atmosphärischen photochemischen Abbau wichtiger anthropogener Moleküle. Beginnend mit einer Einführung in die Atmosphärenchemie wird das Konzept der atmosphärischen Lebensdauer vorgestellt und die Abbaumechanismen von Alkanen, Aromaten, Stickoxiden, SO;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69044-3_3 6a16d9103160e5a7c8708e5f1a61d7e6;de;;;5.3.;;;Pathogenese der Hirnfunktionsstörung bei Mangel an Thiamin, Riboflavin, Pantothensäure oder Vitamin B Wir haben versucht, die bisher verfügbare Literatur zu den Auswirkungen eines Mangels an einem von vier wasserlöslichen Vitaminen – Thiamin, Riboflavin, Pantothensäure und Vitamin B . – zu überprüfen;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-2673-1_10 2a007ee98f587f123b1ed3e5728f5d55;de;;;5.3.;;;Radikale Anionen in ungeordneten Matrizen In diesem Kapitel beschäftigen wir uns mit den Radikalanionen, die aus Gastmolekülen in ungeordneten Matrices durch Radiolyse oder Photolyse bei niedriger Temperatur abgeleitet und hauptsächlich durch ESR-Spektroskopie nachgewiesen wurden. Die Matrixisolationstechnik in ESR-Studien hat den selektiven Nachweis der hochreaktiven ionischen Radikale erleichtert, die hauptsächlich aus Gastmolekülen durch Elektronenzuwachs oder Elektronenverlust gebildet werden, unter Verwendung geeigneter Matrices.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-3750-8_11 d04454ee4208cdc5bfacd43b5ea257de;de;;;5.3.;;;Sexuell übertragbare Krankheiten bei prämenarchischen Mädchen Die Inzidenz von sexuell übertragbaren Krankheiten (STDs) nimmt bei Kindern zu und gewinnt für Ärzte, die Kinder behandeln, an Bedeutung (Felman;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-4902-7_9 cdfb17edc91a59cdd0060f5fb3b15e8d;de;;;5.3.;;;Pteroylpolyglutamate Reduzierte Derivate des Vitamins Pteroylglutaminsäure (Folsäure) sind essentielle Coenzyme für die Biosynthese von Purinnukleotiden, Methionin, Thymidylat und für viele andere enzymkatalysierte Reaktionen, die die Übertragung, Oxidation und Reduktion einzelner Kohlenstoffeinheiten beinhalten. Pteroylglutaminsäure kommt in Geweben in Form von Poly-γ-glutamyl-Derivaten unterschiedlicher Kettenlänge vor. Die vorliegende Übersicht umfasst den Nachweis, die Verteilung, die Synthese, den Abbau, die Coenzymfunktion und die inhibitorischen Aktivitäten von Pteroyl-γ-glutamaten. Die Biosynthese- und Hemmaktivitäten von Poly-γ-glutamylderivaten von Methotrexat, einem Analogon von Pteroylglutaminsäure mit Antitumoraktivität, werden ebenfalls berücksichtigt. Es wird eine Hypothese zur coenzymatischen Rolle von Pteroylpoly-γ-glutamaten bei der Koordination sequentieller enzymatischer Schritte im Metabolismus einzelner Kohlenstoffeinheiten vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-8027-3_21 5234b838f2a8648bf8601ceea168fee8;de;;;5.3.;;;Atomare und molekulare Daten (Données Atomiques et Moleculaires) Die rasante Ausweitung des für astronomische Beobachter zugänglichen Spektralbereichs in den letzten Jahren von der Gammastrahlung in den Radiobereich hat zu einer entsprechenden Ausweitung des Bedarfs an unterschiedlichsten atomaren und molekularen Daten geführt. Eingeschlossen sind Anforderungen an genaue Wellenlängen, atomare und molekulare Energieniveaus und Übergangswahrscheinlichkeiten. Die erreichbare, sich ständig verbessernde Auflösung hat zu der Forderung nach verbesserten Einblicken in Linienverbreiterungsmechanismen verschiedener Art geführt. Diese Erweiterung hat der Datensammlung und -verbreitung einen immer höheren Stellenwert eingeräumt, damit verfügbare Informationen potenziellen Nutzern leicht zugänglich gemacht werden können. Unter den zahlreichen Zusammenstellungen, die erschienen sind, können die wichtige National Bureau of Standards Bibliography on Atomic Levels and Spectra genannt werden, die regelmäßig durch aufeinanderfolgende Ergänzungen aktualisiert wird, und die NBS-Zusammenstellung und Bibliographie des Data Center on Atomic Transition Probabilities. Inzwischen sind mehrere Zusammenstellungen oder Bibliographien zu Kollisionsquerschnitten verfügbar, wie sie beispielsweise vom Informationszentrum der JILA veröffentlicht wurden. Auf dem Gebiet der molekularen Spektren sind die sehr umfassenden „Konstanten zweiatomiger Moleküle“ von Huber und Herzberg erschienen. Auf weitere nützliche Zusammenstellungen wird in den unten aufgeführten Berichten der fünf Arbeitsgruppen verwiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-7837-9_9 8c9dae09c3ad4acc863be3739e5efec7;de;;;5.3.;;;Einige physikalisch-chemische Aspekte der L-Asparaginase-Therapie Klinische Studien mit E. coli-Asparaginase wurden mit Enzymen durchgeführt, die von mehreren Firmen geliefert wurden [1–4]. Die Verweildauer des Enzyms im Kreislauf des Wirts hängt offenbar von der Quelle des Präparats ab [5]. In frühen Versuchen, den Unterschied zwischen zwei solchen Proben (eine von Bayer und eine von Squibb) zu erkennen, wurde jede einer Gelfiltration auf einer G-200 Sephadex-Säule unterzogen. Identische Aktivitätsmuster wurden erhalten, wobei jede Probe in zwei Aktivitätspeaks unterteilt wurde. Bei der Scheibenelektrophorese wurde die Aktivität in drei Banden aufgetrennt, die eine Hauptbande des Monomers, eine Zwischenbande des Dimers und eine kleine Trimerbande am oberen Ende des Gels darzustellen scheinen. Jedes Enzympräparat wurde auch einer isoelektrischen Fokussierung unterzogen, einem Verfahren, bei dem Verbindungen unabhängig von der Molekülgröße durch einen pH-Gradienten gemäß ihrem isoelektrischen Punkt getrennt werden. Überraschenderweise wurden sehr unterschiedliche Aktivitätsmuster erhalten (Abb. 1).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-99984-0_7 be62311384e71619523b058110c425fe;de;;;5.3.;;;Hormonrezeptoren, zyklische Nukleotide und Kontrolle der Zellfunktion Der mit dem ersten Kapitel dieser Reihe (Aurbach, 1976) festgelegte allgemeine Anwendungsbereich wird in diesem Kapitel weiterentwickelt. Seit der Abfassung dieses ersten Kapitels wurden erhebliche weitere Fortschritte bei der Identifizierung durch direkte Bindungsstudien von Rezeptoren mit neuen Liganden für;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-3447-7_6 6f262fa8cb89b353e4968c7cf78e3493;de;;;5.3.;;;Thermische Methoden zur Synthese von Thiophen, Selenophen und ihren Derivaten. (Überprüfung) Die Literaturdaten, die sich mit thermischen Reaktionen zu Thiophen, Selenophen und ihren Derivaten befassen, werden systematisiert und überprüft. Die Mechanismen dieser Reaktionen werden untersucht und Bedingungen für die Bildung von Thiophen- und Selenophen-Heterocyclen formuliert.;-;-;-;https://link.springer.com/article/10.1007/BF02256837 91da631617ed4aa035b3075917a91955;de;;;5.3.;;;Stickstoffmonoxid, ein Zwischenprodukt im Denitrifikationsprozess und andere bakterielle Wege, wie durch EPR-Spektroskopie nachgewiesen Die Bedeutung des Denitrifikationsweges im Stickstoffkreislauf wurde schon sehr früh (1882) von zwei jüngeren Kollegen von Louis Pasteur (1822–1895) erkannt, Léonard-Ulysse Gayon (1842–1920) und Auguste-Gabriel Dupetit (1861–1886). Professor William Jackson Payne hat uns kürzlich eine sehr feine und aufschlussreiche historische Analyse (auf Französisch) der Erfindung der Konzepte der drei Hauptprozesse geliefert, die den Stickstoffkreislauf bilden, den er nach Jules Reiset (gestorben 1896 . als „Reiset-Zyklus“ bezeichnet). ):;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-1185-0_8 bc38a30e5c4897c1abcb006ac0f6bdbf;de;;;5.3.;;;Giftige Metalle Unter den chemischen Elementen stellen Metalle die größte Gruppe, ihre Eigenschaften unterscheiden sich jedoch innerhalb der Biosphäre stark. In den letzten Jahren wurde besonders deutlich, dass weniger die Gesamtkonzentration eines bestimmten Elements eine negative oder positive Wirkung auf den Organismus ausübt, sondern vielmehr die spezifische Verbindungsform, die die toxische Wirkung eines Elements entscheidend beeinflusst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-96511-1_2 38e231014ce2256dc933da76ec7c1caa;de;;;5.3.;;;Datenaufzeichnung Die Aufzeichnung von Daten oder Instrumenten ist eine Hauptspezialität der Bandaufzeichnung. Seine Profis haben ihre eigenen Gesellschaften und ihre Lieblingsausrüstung, und sie sprechen ihre eigene Sprache, damit sie die Uneingeweihten rätseln können. Tabelle 13–1 definiert einige häufig verwendete Terminologie. Datenrekorder und Computer haben viele Gemeinsamkeiten, insbesondere bei der digitalen Aufzeichnung, und daher sollten beide Kapitel 13 und 14 zusammen betrachtet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-9468-9_13 7feb3b9773b55b25061880fd85766f14;de;;;5.3.;;;Die Chemie der C-Nukleoside In der Natur wurde eine Gruppe von Nukleosiden gefunden, bei denen die Ribofuranosyl-Einheit über eine Kohlenstoff-Kohlenstoff-Bindung an eine heterocyclische Base gebunden ist (daher C-Nukleoside genannt).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-9667-4_5 45ce0129fbf2b0dd58cbee7482688926;de;;;5.3.;;;Cyclische Hexapeptid-Antagonisten des Bradykinin B Cyclische Hexapeptid-Analoga von Bradykinin, basierend auf einem gefalteten Rezeptor-gebundenen Modell von Bradykinin, erwiesen sich als in der Lage, die Wirkung von Bradykinin an seinem B . zu antagonisieren;-;-;-;https://link.springer.com/article/10.1007/BF00127269 b4ccbf8825c148061f552a32cb122a1f;de;;;5.3.;;;Andere neue Membranprozesse Bei der herkömmlichen Gasabsorption wird Gas in der Absorptionsflüssigkeit als Blasen in einem einstufig wirkenden Behälter oder in einer mehrstufigen Kolonne dispergiert, wobei das Gas und die Flüssigkeit im Gegenstrom fließen. Die Dispersion des Gases erhöht die Kontaktfläche Gas/Flüssigkeit und erhöht die Stoffübertragungsrate der in der Flüssigkeit zu absorbierenden Spezies. Nachdem die Kontaktierung beendet ist, koaleszieren die Gasbläschen, wenn sie die flüssige Phase verlassen, außer wenn Schaumbildungstendenzen auftreten. Herkömmliche Gasabsorption wird auch mit Flüssigkeit durchgeführt, die als Tropfen oder dünne Filme im Gas im Gegenstrom dispergiert ist, wie in Sprühtürmen, Füllkörpertürmen, Venturiwäschern usw. (Treybal 1980). Aktuelle Gas-Stripping-Verfahren arbeiten in identischer Weise und in den zur Gasabsorption verwendeten Vorrichtungen, außer dass Spezies von der flüssigen in die Gasphase überführt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-3548-5_46 71d702ca420af3856a18b10a25d299f7;de;;;5.3.;;;Interaktionsstudien zwischen Redoxproteinen, Cytochrom C Sulfatreduzierende Bakterien, die allesamt obligate Anaerobier sind, haben ihre Fähigkeit gemeinsam, die oxidierten Formen des Schwefels als Elektronenakzeptor für die Oxidation organischer Substrate zu nutzen. Diese Reduktion anorganischer Verbindungen, die als dissimulatorische Reduktion von Sulfaten bekannt ist, ist mit Energieeinsparung verbunden. Laktat ist die häufigste Energiequelle für die Gattung;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0613-9_22 f2c59bfa0a1d150b8d8323dc96be0e59;de;;;5.3.;;;Zusammenarbeit zum Erlernen von Sprachkenntnissen Es wird eine kollaborative Aktivität entworfen und ein Softwaretool entwickelt, um den Grammatikunterricht für Grundschüler zu unterstützen. Die Aktivität soll Interdependenzen zwischen den Studierenden schaffen. Das Softwaretool hilft bei der Umsetzung der Aktivität. Aktivität und Werkzeug wurden für den Unterricht der spanischen Grammatik entwickelt, können aber auch für den Unterricht anderer Sprachen angepasst werden.;-;-;-;https://link.springer.com/chapter/10.1007/11560296_23 87b1ff5229a36cb64801db07b36c7bb3;de;;;5.3.;;;Flammhemmende organische Beschichtungen Als Ergebnis der Forschung zu verschiedenen Mechanismen der Flammhemmung wurden viele Möglichkeiten entdeckt, die Entflammbarkeit von Polymeren und Beschichtungen zu verringern. Gegenwärtig enthalten die wirksamsten flammhemmenden Materialien Halogene, Phosphor, verschiedene Übergangsmetalloxide, starke Säuren oder einige Amin- und Metallsalze. Diese Materialien können verwendet werden, um einen akzeptablen Flammschutz in Beschichtungen zu erzeugen, wenn die Substanzen entweder chemisch mit dem filmbildenden Polymer kombiniert oder als Additive verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-2148-4_10 61e3f171760f1dc2ee09218255e82c7e;de;;;5.3.;;;Photochemie Bei gewöhnlichen kinetischen Studien wird die erforderliche Aktivierungsenergie über intermolekulare Stöße eingebracht. Wenn die Aktivierungsbarriere groß ist, muss die Reaktion bei hoher Temperatur durchgeführt werden oder der Fortschritt ist nicht wahrnehmbar. Darüber hinaus ist die thermische Aktivierung ziemlich unterschiedslos. Die Energie wird auf die verschiedenen inneren Freiheitsgrade der Reaktanten gemäß einer Boltzmann-Verteilung aufgeteilt. Es gibt kein Verfahren, um die Energie der Reagenzien auf den Schwingungsfreiheitsgrad zu konzentrieren, der die Reaktion am meisten begünstigt. Außerdem verlaufen thermische Prozesse immer auf niederenergetischen Wegen. Es ist daher nicht möglich, durch Erhitzen einen anderen Reaktionsmodus zu wählen, der eine wesentlich höhere Aktivierungsenergie erfordert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-9098-9_6 03cb06ee2a67b2ce3419438772f78745;de;;;5.3.;;;Direkte Insertions- und Fluoreszenzstudien von Rhodamin-markierten β-adrenergen Rezeptoren in Zellmembranen Frühere Studien mit der Fluoreszenz von Propanolol als Sonde für den beta-adrenergen Rezeptor zeigten, dass dieser Rezeptor bewegungsgebunden ist. Zur weiteren Untersuchung des betaadrenergen Rezeptors;-;-;-;https://link.springer.com/article/10.1007/BF01872208 708cce04899ebabb6806952caa5d2f21;de;;;5.3.;;;Stoffaustausch in Fluidsystemen In den Kapiteln 2 und 7 haben wir die Entwicklung von Differentialgleichungen für den Impuls- und Energietransport in einfachen Fluidsystemen demonstriert. In diesem Kapitel betrachten wir die Formulierung und Beschreibung elementarer Diffusions- und Stofftransportprobleme in fluiden Systemen. Wir verwenden in dieser Situation praktisch das gleiche Verfahren wie zuvor, wir entwickeln eine Differentialgleichung, und es entsteht eine Lösung mit beliebigen Konstanten. Diese Konstanten werden durch Anwendung von Randbedingungen ausgewertet, die die Konzentration oder den Massenfluss an den Grenzflächen angeben. Auch hier demonstrieren wir die zugrunde liegenden Prinzipien anhand konkreter Beispiele, aber lassen Sie uns zunächst die allgemeine Situation überdenken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48090-9_14 f906a1c6def87bfba6312745e40f9854;de;;;5.3.;;;Nichtsteroidale entzündungshemmende Medikamente in der perisurgischen Schmerztherapie Nichtsteroidale Antirheumatika (NSAR) sind eine Gruppe von Wirkstoffen mit ähnlicher Wirkung, aber unterschiedlichen chemischen Strukturen. Aspirin (Acetylsalicylsäure) und Natriumsalicylat waren die ersten Medikamente dieser Art, die klinisch eingesetzt wurden. In den letzten 3 Jahrzehnten ist jedoch die Zahl der zur Behandlung postoperativer Schmerzen verfügbaren NSAIDs dramatisch gestiegen.;-;-;-;https://link.springer.com/article/10.2165/00003495-199549010-00005 0b312e2f9889e6a66afc8191d6ad5ff4;de;;;2.4.;;;Quantitative Gefahren- und Risikobewertung für sich langsam bewegende Erdrutsche aus der Persistent Scatterer Interferometry Die Erstellung zuverlässiger Gefahren- und Risikokarten für Erdrutsche ist für die Gefahrenminderung und das Risikomanagement von entscheidender Bedeutung. In den letzten Jahren wurden verschiedene Ansätze zur quantitativen Bewertung von Hangrutschgefahr und -risiko entwickelt. Möglicherweise aufgrund fehlender neuer Daten wurden jedoch nur sehr wenige dieser Gefahren- und Risikokarten nach ihrer ersten Generation aktualisiert. In dieser Studie mit dem Ziel einer fortlaufenden Bewertung wird ein neuartiger Ansatz zur Aktualisierung von Erdrutschgefahren- und Risikokarten basierend auf Persistent Scatterer Interferometry (PSI) vorgestellt. Die Studie wurde im Arno-Becken (Mittelitalien) durchgeführt, wo die meisten Massenbewegungen langsame Erdrutsche sind, die innerhalb der Erkennungsgenauigkeit der PSI-Punktziele liegen. Im Einzugsgebiet des Arno wurde die vorläufige Gefahren- und Risikobewertung von Catani et al. (Landslides 2:329–342, 2005) unter Verwendung von Datensätzen vor 2002. In dieser Studie wurden die früheren Gefahren- und Risikokarten mit PSI-Punktzielen aktualisiert, die aus 4 Jahren (2003–2006) RADARSAT-Bildern verarbeitet wurden. Erdrutschgefahren- und Risikokarten für fünf zeitliche Vorhersagen von 2, 5, 10, 20 und 30 Jahren wurden mit der in Euro (€) geschätzten Schadenexposition aktualisiert. Das Ergebnis zeigt insbesondere, dass in 30 Jahren ein potenzieller Verlust von ca. 3,22 Mrd.;-;-;-;https://link.springer.com/article/10.1007/s10346-013-0432-2 8f747c0f7b5669da9d360c126e198bb7;de;;;5.3.;;;Vorbereitung der Probe Im Gegensatz zu anorganischen Stoffen können Kohlenstoffverbindungen nicht durch eine Abfolge von „Trennungs“-Reaktionen identifiziert werden. Einzelne Glieder einer homologen Reihe beispielsweise konnten zum Zwecke der Identifizierung durch rein chemische Reaktionen nicht voneinander getrennt werden. Dennoch erfolgt die endgültige Identifizierung einer Substanz, wie bereits erwähnt, durch die Messung der physikalischen Konstanten einer angenommenen einzigen reinen Verbindung. Es liegt daher auf der Hand, dass die erste Aufgabe des Analytikers darin besteht, festzustellen, ob seine Testsubstanz (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-5827-2_3 819fee0237afc7c2d898e59856dc0374;de;;;5.3.;;;Epidermale Zellen Die Epidermis ist der Teil des Körpers, der ein Weichtier vor Umwelteinflüssen schützt und gleichzeitig das Tier über die Außenwelt informiert, damit es überleben kann. Sie muss beide Rollen gleichzeitig erfüllen und darf die Effizienz der einen nicht beeinträchtigen. Histologisch ist die Molluscan-Epidermis eine relativ einfache Struktur, die aus einer einzelnen Schicht säulenförmiger Zellen besteht, die auf einer Basalmembran sitzen, die über einer von Muskelfasern durchzogenen Bindegewebeschicht liegt (Newell 1977). Die Hauptzelltypen der Epidermis (Zylstra 1972 a) sind Flimmer-, Flimmer- und Drüsenzellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-51593-4_24 b7dd8d1b873f5822c40dc4bc54e2741e;de;;;5.3.;;;Derivative Spektroskopie von aromatischen Aminosäuren und Proteinen Die Derivative Spektroskopie ist eine der vorteilhaftesten spektroskopischen Techniken, deren Anwendung im letzten Jahrzehnt auf dem Gebiet der Proteinspektroskopie begann. Es ist ein Verfahren zur Analyse spektroskopischer Informationen, das die Ableitungen n-ter Ordnung von Absorptionsspektren verwendet;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-70847-3_6 5b4ebf7cf1f5e8c0621f873321796389;de;;;5.3.;;;Planetenerkundung in USARsim: Eine Fallstudie mit realen Daten vom Mars Intelligente mobile Roboter werden zunehmend in unstrukturierten Bereichen eingesetzt, ein besonders anspruchsvolles Beispiel hierfür ist die Erforschung der Planeten. Die Vorbereitung entsprechender Missionen ist nicht trivial, zumal realistische Experimente ohne ausgefeilte Infrastruktur nur schwer durchzuführen sind. In diesem Beitrag argumentieren wir, dass das Unified System for Automation and Robot Simulation (USARSim) interessante Möglichkeiten für die Erforschung der Planetenerkundung durch mobile Roboter bietet. Am Beispiel der Arbeiten zur Geländeklassifizierung wird gezeigt, wie sowohl synthetische als auch reale Daten vom Mars verwendet werden können, um die Leistung eines Algorithmus in USARSim zu testen. Konkret werden Experimente mit einem Algorithmus zur Detektion von befahrbarem Boden auf einer Planetenoberfläche vorgestellt. Es wird gezeigt, dass der Ansatz auf Planetenoberflächen schnell und robust funktioniert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02921-9_40 19ef8b6aa11e117abf9f6692ee85ee8f;de;;;5.3.;;;Graphitfasern und Verbundwerkstoffe Der technologische Bedarf an Werkstoffen mit verbesserten Festigkeits- und Steifigkeitseigenschaften hat zu erheblicher Forschung und Entwicklung auf dem Gebiet der faserverstärkten Harz-Matrix-Verbundwerkstoffe geführt. Die hohe mechanische Festigkeit, der hohe Elastizitätsmodul und die geringe Dichte von Fasern aus beispielsweise Kohlenstoff, Bor und Glas ergeben in Kombination mit der Zähigkeit verschiedener Epoxid-, Polyester- und Polyimidharze eine Werkstoffklasse mit spezifischer Zugfestigkeit Eigenschaften, die (je nach Faser-Matrix-Kombination) denen der besten derzeit produzierten Metalllegierungen entsprechen oder diese übertreffen können. Dies ist wichtig, da Materialien, die stark, steif und darüber hinaus;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-7139-1_11 2f7fe60294e0d99aa3a49eac2390800a;de;;;5.3.;;;Struktur und Eigenschaften freier Radikale. Ein theoretischer Beitrag Heute ist allgemein bekannt, dass bei einer Vielzahl chemischer Reaktionen, organischer und anorganischer Art, sowie bei vielen biologischen Prozessen radikalische Spezies als reaktive Zwischenstufen beteiligt sind. Die Chemie der freien Radikale ist heute ein wichtiger Zweig der organischen Chemie mit vielen nützlichen Anwendungen im täglichen Leben. Dies ist der Entdeckung leistungsfähiger Techniken wie der Elektronenspinresonanz (ESR) zu verdanken, die nicht nur die Existenz freier Radikale bewiesen, sondern auch zur Strukturbestimmung verwendet wurde. Da den freien Radikalen viele ausgezeichnete Lehrbücher und Nachschlagewerke gewidmet sind, (1) beschränken wir uns im ersten Teil auf einen kurzen Überblick über experimentelle Daten über die Struktur und einige statische und dynamische Eigenschaften dieser Spezies. In Teil II werden wir diese Ergebnisse mit den theoretischen vergleichen. Auf diese Weise werden wir versuchen, die Haupteigenschaften von freien Radikalen anhand ihrer elektronischen Struktur zu erklären. Wir werden uns insbesondere mit kohlenstoffzentrierten Radikalen befassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-8472-1_13 4a047753ec44d6ea1ef67d0c8d5dbb15;de;;;5.3.;;;Chemische Datierungsmethoden Chemische Altersbestimmungen gehen primär von zumindest nahezu konstanten Reaktionsgeschwindigkeiten (Diffusion, Austausch, Oxidation, Hydratation etc.) aus. Das Alter wird aus den Anfangs- und Endkonzentrationen geeigneter Reaktanten oder Produkte abgeschätzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-74826-4_8 79618cd8c33ee0eb6499675a3e115332;de;;;5.3.;;;Das Problem der Rückstände im Fleisch von essbaren Haustieren nach Anwendung oder Aufnahme von Organophosphatestern Eine wirtschaftliche landwirtschaftliche Produktion erfordert den Einsatz von Insektiziden. Die Organophosphatester haben ihren festen Platz innerhalb der verfügbaren Insektizide. Darüber hinaus fanden die Organophosphatester in der praktischen Veterinärmedizin ein vielfältigeres Anwendungsgebiet als die Organochlorverbindungen. Auch in der Hygiene zum Schutz der menschlichen Gesundheit haben sich die Organophosphatester durchgesetzt, vor allem wegen der auftretenden Insektizidresistenz gegenüber chlororganischen Verbindungen (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-40267-2_1 dc6006ee6c2956422bc30876ebeff71f;de;;;5.3.;;;Laborbewertung von vernetzten Polymergelen zur Wasserableitung Derzeit sind viele vernetzte Gelbehandlungen für die Injektionsprofilmodifikation bei Wasserflutungsvorgängen der sekundären Ölgewinnung verfügbar. Die Gele bestehen meist aus einem wasserlöslichen Polymer, wie Polyacrylamid oder Polysaccharid, vernetzt mit einem Metallion (A13+, Cr3+, Zr4+) oder organischen Verbindungen. Aufgrund der Vielzahl der verfügbaren Systeme und möglicher Randbedingungen, die es zu beachten gilt, müssen diese Systeme zeitnah durch ein Schnelltestverfahren gescreent werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-1985-7_22 cf4ac862dc2efcde341a9366d6859a88;de;;;5.3.;;;Katalytische Olefinpolymerisation Tabelle 1 enthält die weltweiten Produktionsdaten zu Polyolefinen und deren Copolymeren sowie zu den anderen Hauptkunststoffen. Wie sich aus solchen Daten entnehmen lässt, sind die erhaltenen Polyethylene;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-93250-2_2 2022c2fef7d6b31b65e5fa2140dca186;de;;;5.3.;;;Tumorassoziierte Blutgruppenantigenexpressionen und mit Tumoren assoziierte Immunglobuline Es gibt sehr viele Glykolipid- und Glykoprotein-Kohlenhydratsequenzen, die in unterschiedlichen Mengen auf Säugerzellen aus verschiedenen Geweben exprimiert werden können. Die Arten und Mengen der Kohlenhydratsequenzen können auch während des Zellzyklus, während der Entwicklungsstadien von Geweben, während der zellulären Differenzierung und als Reaktion auf extracear Signale variieren. Die Komplexität der Kohlenhydratsequenzen ist offensichtlich und wird durch Berichte über neue Sequenzen in der jüngsten Literatur noch weiter betont. Vermutlich stehen alle diese Kohlenhydratsequenzen zur Expression auf transformierten Zellen von gutartigen und bösartigen Gewebewucherungen zur Verfügung. Transformierte Zellen können dieses riesige Repertoire an Sequenzen nutzen, um ihre Lebensfähigkeit in den verschiedenen Umgebungen, die sie bei ihren metastatischen Unternehmungen erfahren, aufrechtzuerhalten, um einen Wachstumsvorteil zu erlangen und in einigen Fällen einen dedifferenzierten Zustand aufrechtzuerhalten. Veränderungen der Kohlenhydratsequenz-Expression durch transformierte Zellen können es solchen Zellen auch ermöglichen, den Abwehrmechanismen des Wirts zu entkommen, die ansonsten tumorspezifische oder -assoziierte Kohlenhydrat- (sowie Nicht-Kohlenhydrat-) Antigenunterschiede erkennen und damit reagieren würden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-1663-3_25 08f5969cb7c8ed328c2308e60b131860;de;;;5.3.;;;Rekombinante Proteintechniken Die Isolierung und Charakterisierung von Proteinen entspricht den großen technischen Fortschritten in der Proteinchemie. Die ersten Proteine, die charakterisiert wurden, waren solche, die in großen Mengen isoliert werden konnten. Mit der Verfügbarkeit empfindlicherer Techniken wurden immer kleinere Mengen benötigt, um detaillierte Strukturinformationen zu erhalten. Neu entwickelte Technologien haben in Verbindung mit Expressionssystemen die Produktion großer Mengen jedes proteinhaltigen Faktors ermöglicht. Die Isolierung und strukturelle Charakterisierung von Proteinen hängt nun nur noch vom Einfallsreichtum des Forschers bei der Entwicklung eines geeigneten Assays ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-2056-5_11 ba325439884e903ca5bb7f8cfc00f741;de;;;5.3.;;;Eine Studie über die Vertrauenswürdigkeitsmetrikmethode von SaaS-Diensten basierend auf AHP Cloud Computing, das Internet der Dinge (IoT), Big Data sind die treibende Kraft für die Transformation der gesamten Wirtschaft und Cloud Computing und Services on Cloud sind auch die Grundlagen und Infrastruktur der beiden anderen Technologien. Da die Entwicklung dieser Technologien unser Leben stark verändert hat, kommen auch Herausforderungen. Für ähnliche Cloud-Dienste in Funktionen in der Cloud-Umgebung ist es ein großes Problem, die wahrscheinlichen Dienste zu finden, die den Bedürfnissen der Benutzer nach Sicherheit, Zuverlässigkeit, Benutzerfreundlichkeit usw. entsprechen. Um das oben genannte Problem zu lösen, wird auf der Grundlage der Forschung zu SaaS-Diensten und Trusted Computing eine Methode zur Messung der Vertrauenswürdigkeit von SaaS-Diensten basierend auf AHP vorgeschlagen. Außerdem wird ein metrisches Modell für die Vertrauenswürdigkeit erstellt. Am Ende wird eine Fallstudie vorgelegt, die die Machbarkeit und Anwendbarkeit der Methode und des Modells belegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00006-6_18 89b368952cf7c0f8668054c6e714eb69;de;;;5.3.;;;Verteilter Anlagenbau: Erfahrung mit dem konischen Baukasten In den letzten acht Jahren hat die Distributed Systems Research Group am Imperial College an der Entwicklung einer Umgebung geforscht, die den Aufbau und Betrieb von verteilter Software unterstützt. Das Ergebnis ist das Conic Toolkit: ein umfassender Satz von Sprach- und Laufzeitwerkzeugen zum Kompilieren, Erstellen, Debuggen und Ausführen in einer verteilten Umgebung. Programme können auf einem Satz miteinander verbundener Hostcomputer ausgeführt werden, auf denen das Unix-Betriebssystem läuft, und/oder auf Zielmaschinen ohne residentes Betriebssystem.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-19333-2_9 721f06bee13f0c4b5db26a61d62e0871;de;;;5.3.;;;Empfehlung von Lehrvideos basierend auf Schülerbewertung Gegenwärtig verändert die Online-Bildung das traditionelle Bildungsmodell allmählich, aber die Entwicklung der Schüler ist unterschiedlich. Aufgrund der fehlenden Interaktion können Lehrvideos den individuellen Bedürfnissen der Studierenden kaum gerecht werden. Online-Lehrvideos sind heutzutage gemischt und es ist für Schüler und Eltern sehr schwierig, geeignete Lehrvideos für Schüler auszuwählen. Die einheitliche Bildung entspricht jedoch nicht den Merkmalen der körperlichen und geistigen Entwicklung von Mittelschülern zum gegenwärtigen Zeitpunkt, und es ist schwierig, die erwartete Wirkung des Unterrichts zu erzielen. Dieses Papier analysiert die Merkmale von Lehrvideos aus professioneller Sicht, kombiniert mit den körperlichen und geistigen Entwicklungsmerkmalen von Gymnasiasten, um die Bewertung von Lehrvideos aus Sicht der Schüler zu sammeln, die Lernpräferenzen der Schüler zu extrahieren, kollaborativ Filteralgorithmus empfohlener Unterricht im Einklang mit den Schülern wird den Weg für die Schüler gelehrt. Damit wird nicht nur der Komfort der Online-Lehre erreicht, sondern auch personalisierte Lehrangebote erreicht. Gleichzeitig entspricht es auch den Merkmalen der körperlichen und geistigen Entwicklung von Mittelschülern und verbessert die Begeisterung und die Effizienz der Schüler beim Lernen erheblich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00009-7_17 a32838f5b0b28885f194b5373bc0ff97;de;;;5.3.;;;Der Transport von Aminen durch die axonalen Membranen von noradrenergen und dopaminergen Neuronen Im Gegensatz zu Acetylcholin, das an cholinergen Verbindungen durch enzymatischen Abbau entfernt wird, wird der Transmitter Noradrenalin hauptsächlich durch Membrantransport inaktiviert. Zwei Membrantransportprozesse sind in der Lage, Noradrenalin und andere Katecholamine aus der extrazellulären Flüssigkeit zu entfernen: neuronale und extraneuronale Aufnahme. Während die damit zusammenhängenden Mechanismen an anderer Stelle in diesem Band behandelt werden,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-46625-0_4 0029a4787d9f0e094a576da2f02b8801;de;;;5.3.;;;Wechselwirkungen von Shampoo- und Cremespülinhaltsstoffen mit Echthaar Die beiden Hauptwirkungen von Shampoos und Haarkonditionierungsprodukten mit dem Haar umfassen (1) das Reinigen von Schmutz, einschließlich Lipiden (Talg) und anderen Arten aus dem Haar, und (2) die Sorption oder Bindung von Inhaltsstoffen an das Haar. Der erste Abschnitt dieses Kapitels befasst sich mit den verschiedenen Arten von Schmutz auf dem Haar, ihrer Herkunft und der Leichtigkeit oder Schwierigkeit ihrer Entfernung, Methoden zur Bewertung der Haarreinigung, der Wahrnehmung der Haarreinigung und Shampooschaum in Bezug auf die Reinigung. Der zweite Abschnitt befasst sich mit der Anheftung und Affinität von Molekülen vom Tensid-/Konditionierungstyp an das Haar, einschließlich der Sorptionstheorie unter Berücksichtigung von Ganzfaser- und Oberflächenstudien. Berücksichtigt werden auch schädigende Wirkungen auf das Haar, die durch Shampoonieren und Haarpflege verursacht werden, einschließlich Kämmen und Bürsten der Haare. Eine kurze Einführung in das Thema Schuppen schließt dieses Kapitel ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-2009-9_5 bda422aa104de739713e9b9a39820498;de;;;2.4.;;;Kartografie- und Geovisualisierungstechniken in der explorativen Studie der Geodiversität: Almeria-Fallstudie Der Zweck dieses Kapitels ist es, einige Forschungen zur Geodiversität zu beschreiben, die in der Provinz Almeria aus kartografischer und GIS-Perspektive durchgeführt wurden. Dieses Gebiet ist wegen seiner Trockenheit und der starken Desertifikationsprozesse von besonderem Interesse. Geodiversität wird zu einem Forschungsthema mit zunehmendem Interesse unter Geowissenschaftlern, da es bei der Bewertung des ökologischen, ökologischen und sozialen Wertes eines Territoriums eine Schlüsselrolle spielen kann. Um dieses Ziel zu verfolgen, verwenden viele Geowissenschaftler mehrere mathematische Techniken, wie Diversitätsstatistiken und Modelle, um am Ende zusammenfassende Statistiken zu erhalten, die die allgemeinen Eigenschaften der Phänomene am besten beschreiben. In dieser Studie haben wir uns jedoch auf den Einsatz von Kartografie und GIS-Konzepten und -Werkzeugen konzentriert, um Modellierung und Analyse durchzuführen. In dieser Studie wurden die Einzugsgebiete als grundlegende räumliche Einheiten für die Analyse gewählt. Eine ergänzende Analyse der Umgebungsvariablen wurde in Bezug auf Höhe, Neigung und Aspektzonen durchgeführt. Die vielfältigen und unterschiedlichen Geoverarbeitungsaufgaben ermöglichten es uns, viele kartenähnliche 2D- und 3D-Darstellungen zu erhalten, die bei der Identifizierung allgemeiner Trends und spezifischer Muster sehr nützlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08180-9_10 bf09d393fd1086e9b6c73bab1dfb188f;de;;;5.3.;;;Flexibler Alias-Schutz Aliasing ist in der objektorientierten Programmierung endemisch. Da ein Objekt über einen beliebigen Alias ​​geändert werden kann, sind objektorientierte Programme schwer zu verstehen, zu warten und zu analysieren.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0054091 59d55e5a2fe685c37387a8d9b44687fe;de;;;5.3.;;;Flexible Transaktionsabhängigkeiten in Datenbanksystemen In der Literatur wurden zahlreiche erweiterte Transaktionsmodelle vorgeschlagen, um die Einschränkungen des traditionellen Transaktionsmodells für fortgeschrittene Anwendungen zu überwinden, die sich durch ihre lange Laufzeit, Zusammenarbeit zwischen Aktivitäten und Zugriff auf mehrere Datenbanken (wie CAD/CAM und Büroautomatisierung) auszeichnen. Die meisten dieser erweiterten Modelle wurden jedoch mit Blick auf spezifische Anwendungen vorgeschlagen und unterstützen fast immer Anwendungen mit leicht unterschiedlichen Anforderungen nicht.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008738705440 13612276d9c38f0f682c9200803ea759;de;;;5.3.;;;Erhaltung der Semantik der Ganzteilbeziehungen in den objektrelationalen Datenbanken Ein beispielsweise in UML (OMG 2003) erstelltes konzeptionelles Datenmodell kann Aggregations- und Kompositionsbeziehungen zwischen Entitätstypen enthalten. Dieser Artikel beschreibt, wie die Semantik dieser Art von Beziehungen in einer Datenbank erhalten wird, die von einem objektrelationalen Datenbankverwaltungssystem erstellt wird, das die Vorschriften, Verbote und Vorschläge des Dritten Manifests (Date und Darwen 2000) umsetzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-70802-7_1 c30e4926e56c6861f87c7503ae45f8df;de;;;5.3.;;;Zurückverfolgbarer Zustand mit linearer affiner Implikation und Annahmengrammatiken Ein allgemeiner Rahmen zur Handhabung von Zustandsinformationen für logische Programmiersprachen zusätzlich zu rückverfolgbaren Annahmen (linear affine und intuitive Implikationen, die sich über die aktuelle Fortsetzung erstrecken) wird eingeführt. Annahmengrammatiken (AGs), eine Variante von Extended DCGs, die mehrere Streams verarbeiten, ohne dass eine Vorverarbeitungstechnik erforderlich ist, werden in unserem Framework spezifiziert. Die Gleichwertigkeit mit DCGs wird durch eine Übersetzung von AGs in DCGs und durch den Einsatz eines implementierungsunabhängigen Meta-Interpreters gezeigt, der auf den Umgang mit DCGs und AGs zugeschnitten ist.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0027779 1b19a32df784957767b429eb13c48e23;de;;;2.4.;;;Registrierung von 3D-Angiographie- und Röntgenbildern mit sequentiellem Monte-Carlo-Sampling Digitale Subtraktionsangiographie (DSA) Rekonstruktionen und 3D Magnetresonanzangiographie (MRA) sind die Modalitäten der Wahl für die Diagnose von Gefäßerkrankungen. Bei der Behandlung durch einen endovaskulären Eingriff stehen jedoch meist nur zweidimensionale Informationen mit geringerer Auflösung wie Angiogramme oder Durchleuchtungsbilder zur Verfügung. Das Überlagern der präoperativen Informationen aus der hochauflösenden Aufnahme auf die während der Intervention aufgenommenen Bilder hilft dem Arzt bei der Durchführung der Operation sehr. Wir schlagen vor, präoperative DSA oder MRS mit intraoperativen Bildern zu registrieren, um die beiden Datensätze in einen einzigen Koordinatenrahmen zu bringen. Das Verfahren verwendet die Gefäßstruktur, die in den meisten DSA-, MRA- und Röntgen-Angiogramm- und Durchleuchtungsbildern vorhanden und sichtbar ist, um die Registrierungsparameter zu bestimmen. Ein robuster Rahmen für mehrere Hypothesen wird erstellt, um ein Fitnessmaß zwischen dem 3D-Volumen und der 2D-Projektion zu minimieren. Die Messung basiert auf der Entfernungskarte, die aus der Gefäßsegmentierung berechnet wurde. Partikelfilter werden verwendet, um die Hypothese neu abzutasten und sie auf die Zonen maximaler Wahrscheinlichkeit des Feature-Raums auszurichten. Vielversprechende experimentelle Ergebnisse zeigen die Potenziale der Methode.;-;-;-;https://link.springer.com/chapter/10.1007/11569541_43 ba78bf21173186f110f9ff5613efefe4;de;;;5.3.;;;Reduzierung von Jitter in Marker-basierten Augmented Reality Systemen Reality Augmented Reality-Systeme sind in letzter Zeit weit verbreitet. Dies liegt an den neuen Open-Source-Bibliotheken, die für eine schnelle Anwendungsentwicklung entstanden sind. In diesem Beitrag adressieren wir eines der relevantesten Probleme bei dieser Art von Systemen, die Oszillation der Kamerapose-Schätzungen. Wir untersuchen die Schwingung eines Systems, das mit der ARToolkit-Bibliothek entwickelt wurde. Wir wenden sowohl Durchschnitts- als auch Kalman-Filter an, um die Schätzungen zu stabilisieren. Die Verwendung von Filtern reduziert die Schwingung erheblich und verbessert so die Benutzerfreundlichkeit des Systems.;-;-;-;https://link.springer.com/chapter/10.1007/11751540_54 17e83ab05f4d553ca80b9c5a9d34c0f9;de;;;5.3.;;;Eine Bluetooth-basierte JXME-Infrastruktur In den letzten Jahren haben Forschungsbemühungen den Weg zur Einbettung von Berechnungen in die Umgebung geebnet. Große Aufmerksamkeit wird auf Technologien gelenkt, die Dynamik und Mobilität über kleine Geräte unterstützen, die dem Benutzer jederzeit und überall folgen können. Der Bluetooth-Standard kommt dieser Idee besonders entgegen, indem er eine vielseitige und flexible drahtlose Netzwerktechnologie mit geringem Stromverbrauch bereitstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76848-7_45 d26101492016209c3c8d3fdfc3ba2946;de;;;5.3.;;;Digitales Archivsystem mit 3D-Webportal-Schnittstelle Dieses Papier befasst sich mit Managementfragen in einem facettenreichen archäologischen Projekt unter Verwendung eines webbasierten Archivsystems mit einer 3D-Benutzeroberfläche. Die verschiedenen Spezialgebiete, die für die Vermessungs- und Restaurierungsarbeiten des archäologischen Projekts erforderlich sind, und die Tatsache, dass das Team aus Menschen verschiedener Nationen besteht, können dazu führen, dass die Arbeit asynchron voranschreitet, was dazu führen kann, dass die Kommunikation nicht aufrecht erhalten wird, um sicherzustellen, dass alle und everyone alles wird aktuell gehalten. Wünschenswert ist ein Mechanismus für das spontane Aktualisieren, Sammeln und Teilen von Informationen über Ergebnisse, um häufige Diskussionen besser zu ermöglichen. Das vorgeschlagene System erzeugt eine virtuelle 3D-Kopie der Feldstelle, die ein Benutzer erkunden und Informationen einbetten kann, indem er über das Internet eine Zuordnung zu einem physischen Objekt an einer Stelle herstellt. Hier präsentieren wir das Implementierungsschema des vorgeschlagenen Systems basierend auf einem laufenden Projekt bei Mastaba Idout in Saqqara, Ägypten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13695-0_56 cad236575370434a30e91f137e27c3c0;de;;;5.3.;;;Dynamische Routenauswahl in Routenplanern Typischerweise gibt eine Routenplaneranwendung eine einzelne beste Route zurück, die zusammen mit einer Routenbeschreibung auf einer digitalen Karte auf dem Ausgabemedium wie einem Computerbildschirm, einem GPS-Gerät oder einem PDA visualisiert wird. Für eine intuitive Routenplanung empfehlen wir, im Rahmen der interaktiven Routenauswahl eine Vorberechnung verschiedener möglicher Routen mit einzubeziehen. Der letztere Ansatz ermöglicht es dem Benutzer, dynamisch zwischen einem Satz optimierter Routen zu navigieren, die auf einer Straßenkarte visualisiert werden. Ein Routenplaner-Prototyp, der verschiedene Routenauswahlkriterien für die Fahrradnavigation zur Auswahl bietet, demonstriert diese neue Idee.;-;-;-;https://link.springer.com/article/10.1007/BF03544028 4bf9579fc09e3f500b76446bf600fef4;de;;;2.4.;;;Arbeitsabläufe in der Umweltgeotechnik: Status Quo und Perspektiven Umweltsysteme sind komplex. Um diese Komplexität zu entwirren, werden sowohl Beobachtungs- als auch Modellierungskonzepte entwickelt und angewendet - nach wie vor und meist unabhängig voneinander. Die Entwicklung und Etablierung kontinuierlicher Arbeitsabläufe in der Umweltsystemanalyse, die sowohl Beobachtungs- als auch Modellierungsaspekte integrieren, soll helfen, diese Ungleichheit zu überwinden. In diesem Beitrag stellen wir grundlegende Konzepte der technischen Workflow-Entwicklung in den Geowissenschaften vor und zeigen Beispiele aus verschiedenen Anwendungen in der Geotechnik. Technische Workflows kombinieren Datenintegration, numerische Simulation und Datenanalyse und unterstützen so den Modellierungsprozess. Benchmarking ist ein wesentliches Werkzeug zum Nachweis komplexer Arbeitsabläufe, z.B. der Konsistenz zwischen experimenteller Arbeit und Prozessmodellierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2221-1_6 0fe382ebdb3a550dd0b6c6e164aac6be;de;;;5.3.;;;Enge Zusammenarbeit zwischen Medizinern und Ingenieuren bei der Innovation von Medizinprodukten: The Commons for Medicine and Engineering Japan Liaison Platform In Japan werden die meisten in medizinischen Einrichtungen verwendeten Geräte importiert. Ein Hauptgrund ist der schlechte Informationsfluss zu den Herstellern bezüglich des klinischen Bedarfs, der zu einer schwachen Medizinprodukteindustrie geführt hat. Mediziner haben daher Schwierigkeiten, geeignete inländische Geräte zu beschaffen und setzen stattdessen im Ausland hergestellte Geräte ein. Sowohl Chancen als auch ein Umfeld, das eine enge Zusammenarbeit zwischen Medizinern und Ingenieuren fördert, sind notwendig, um die Medizingeräteindustrie zu verbessern. Allerdings erschweren disziplinäre Barrieren und unterschiedliche Arbeitsprioritäten zwischen medizinischen und technischen Bereichen eine solche Zusammenarbeit. Daraus ergibt sich die Frage: Wo liegen die Grenzen zwischen Medizinern und Ingenieuren in Japan und wie können diese Barrieren überwunden werden, um eine Zusammenarbeit zwischen Medizin und Technik zu ermöglichen? In diesem Kapitel wird eine Fallstudie einer Verbindungsplattform namens „Commons for Medicine and Engineering Japan“ vorgestellt, die Möglichkeiten für den Austausch von Ideen und Informationen zwischen medizinischen und technologischen Bereichen unter besonderer Einbeziehung kleiner und mittlerer Unternehmen bieten soll. Der Autor diskutiert die Frage der Grenzen sowie benutzergeführte Innovation und reflektiert, wie disziplinäre Barrieren überwunden werden können, um die Entwicklung von Medizinprodukten voranzutreiben. Die vielen ausgereiften Technologien, die sich aus diesen Aktivitäten ergeben, sind ein Beweis für die Innovationskraft dieser Plattform.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6280-2_9 6a9d600fdb9ea8b2107c8ec7a11bbbbc;de;;;2.4.;;;Zur Konvergenz von projektiv-simulationsbasiertem Reinforcement Learning in Markov-Entscheidungsprozessen In den letzten Jahren ist das Interesse an der Nutzung von Quanteneffekten zur Verbesserung von maschinellen Lernaufgaben deutlich gestiegen. Es wurden viele Algorithmen entwickelt, die überwachtes und unüberwachtes Lernen beschleunigen. Der erste Rahmen, in dem Wege gefunden wurden, Quantenressourcen speziell für den breiteren Kontext des Reinforcement Learning zu nutzen, ist die projektive Simulation. Die projektive Simulation stellt einen agentenbasierten Reinforcement-Learning-Ansatz dar, der so konzipiert ist, dass er Quantenwalk-basierte Beschleunigungen unterstützen kann. Obwohl klassische Varianten der projektiven Simulation mit gängigen Verstärkungslernalgorithmen verglichen wurden, wurden nur sehr wenige formale theoretische Analysen für ihre Leistung in Standardlernszenarien bereitgestellt. In diesem Beitrag geben wir eine detaillierte formale Diskussion der Eigenschaften dieses Modells. Insbesondere beweisen wir, dass eine Version des projektiven Simulationsmodells, verstanden als ein Reinforcement-Learning-Ansatz, in einer großen Klasse von Markov-Entscheidungsprozessen zu optimalem Verhalten konvergiert. Dieser Beweis zeigt, dass ein physikalisch inspirierter Ansatz für das Reinforcement Learning die Konvergenz garantieren kann.;-;-;-;https://link.springer.com/article/10.1007/s42484-020-00023-9 8177ed1ced0b125ad2686787c993539e;de;;;2.4.;;;Ein Algorithmus zur Erkennung bewegter Objekte basierend auf einer Kombination aus optischem Fluss und Kantenerkennung Moving Objects Detection ist die Grundlage für die Anwendung von Computer Vision Technologie, in intelligenten Videoüberwachungssystemen haben in vielen Bereichen ein breites Anwendungsspektrum für dynamische im Kontext der Moving Object Detection, die in diesem Papier vorgestellt werden, die den Pyramiden-Optikfluss verbessern werden Gesetz und die Kombination von Kantenerkennungs-Bewegungsobjekterkennungsverfahren. Erstens von Videovorverarbeitungsanwendungen, Wavelet Threshold, um Rauschen zu entfernen, zweitens, durch den optischen Pyramidenfluss, um eine maximale Verschiebung zu erreichen, erscheinen bewegliche Objektive, verwendet dann eine Canny Edge-Erkennung für die Kante einer Bildinformation und erhält schließlich den optischen Fluss der Informationen und der Rand der Merkmale der Informationen, also der zweite Wert nach der Integration der Morphologie durch die Nachbereitung der Kampagne, um genaue Zielinformationen zu erhalten. Laborergebnisse zeigen, dass der Algorithmus in Echtzeit hoch ist, der vielseitig gut ist, Sie können bewegliche Ziele genauer erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48499-0_16 4acf4d268b1f5d0d24ecd011ee22a9de;de;;;5.3.;;;Ein Enterprise-Trader-Modell für DCOM Dieses Papier schlägt ein Händlermodell vor, das sowohl auf dem RM-ODP-Händlermodell als auch auf dem DCOM-Modell von Microsoft basiert. Der Trader ist so konzipiert, dass er sich in eine strukturierte Unternehmensumgebung integrieren lässt und Zugriff auf und Unterstützung für das Management verteilter Dienste bietet. Das vorgeschlagene Modell unterscheidet sich deutlich von den derzeitigen Händlermodellen und entwickelt eine vereinfachte Servicedarstellung in Kombination mit Beschränkungen für die Topologien der Händlerverbindung. Die Kombination dieser neuen Funktionen führt zu einem Modell, das so konzipiert ist, dass es verwendbar, effizient und skalierbar ist, ohne die mit früheren Modellen verbundene Komplexität.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35188-9_5 4377738f725a0a193b6f88360ade4ad8;de;;;5.3.;;;Zirkuläre Attributgrammatiken mit entfernten Attributreferenzen und ihre Evaluatoren Attributgrammatiken (AGs) sind ein geeigneter Formalismus für die Entwicklung von Sprachverarbeitungssystemen. Für Sprachen, die unbeschränkte markierte Sprünge enthalten, wie „goto“ in C, sind die Optimierer in Compilern jedoch in AGs schwer zu schreiben. Dies ist auf zwei Probleme zurückzuführen, die nur wenige frühere Forscher gleichzeitig behandeln konnten, nämlich Referenzen von Attributwerten auf entfernte Knoten und Zirkularität in Attributabhängigkeit. Dieses Papier schlägt vor;-;-;-;https://link.springer.com/article/10.1007/BF03037280 68bf85c84f69e857ee002e6df8bd0334;de;;;5.3.;;;Verwenden virtueller Artikulationen zum Ausführen von Inspektions- und Manipulationsbewegungen mit hohem DoF Wir haben ein neues Bedienerschnittstellensystem für Knickarmroboter mit hohem DoF entwickelt, basierend auf der Idee, dem Bediener zu ermöglichen, die eigentliche Kinematik des Roboters um zu erweitern;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13408-1_32 c2065e0a9c995bf8cccb85696350dc1a;de;;;5.3.;;;Ein federleichtes Anwendungsisolationsmodell In diesem Whitepaper stellen wir ein neues Anwendungsisolationsmodell vor, das auf dem Least-Privilege-Prinzip und dem Need-to-Know-Prinzip basiert. Da dieses Modell einfach zu implementieren ist, nennen wir es das Feather-Weight Application Isolation (FAI)-Modell. Dieses Modell wird verwendet, um die Process Permission Constraint (PPC) und die Classified Object Access Control (OAC) zu erreichen. Das Modell ermöglicht es uns, die Anwendungsisolierung abhängig von PPC-Richtlinien und OAC-Richtlinien vorzunehmen. Im Vergleich zu den bestehenden komplexen Isolationsmodellen wie Sandboxen und virtuellen Maschinen ist das FAI-Modell einfacher und erfüllt daher nicht nur die notwendigen Sicherheitsanforderungen, sondern erhöht auch die Benutzerfreundlichkeit. Um Anwendungen zu isolieren und zu verhindern, dass klassifizierte Objekte der Anwendungen illegal manipuliert werden, erweitert das FAI-Modell die traditionelle zweidimensionale Zugangskontrollmatrix zu einer dreidimensionalen Zugangskontrollmatrix, die Subjekte, Objekte und Prozesse umfasst. Um mehrstufige Sicherheit und Mandatory Access Control (MAC) zu unterstützen, wird das Konzept der Sensitivitätsstufenbereiche von Prozessen im Modell berücksichtigt. In diesem Artikel geben wir zunächst eine informelle Beschreibung des Modells und stellen dann die formalisierte Beschreibung und Sicherheitsanalyse vor. Abschließend erläutern wir die Machbarkeit des Modells, indem wir das Ergebnis der technischen Umsetzung zeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14597-1_12 f3451e18dba6e7964d2b5fffc8ea69f7;de;;;5.3.;;;Erkunden der Grenzen zwischen interaktiven Robotern und Menschen Forschung und Entwicklung sozialer Roboter haben in den letzten Jahren rapide zugenommen, und es wird erwartet, dass der Nutzen solcher Agenten in der Gesellschaft für verschiedene Aufgaben zunehmen wird, für die die verkörperte natürliche Interaktion einen wichtigen Unterschied bei der Schnittstelle zwischen Mensch und KI-Anwendungen ausmachen kann. Dieser Beitrag diskutiert Herausforderungen in Bezug auf die Fähigkeiten und das Wissen von Roboteragenten bei der Entwicklung interaktiver Robotertechnologie und konzentriert sich auf eine neuartige Konzeptualisierung von Roboteragenten, die Grenzen von Computermaschinen zu menschenähnlichen sozialen Agenten und von menschlich gesteuerten Werkzeugen zu autonomen Mitarbeitern überschreiten .;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8395-7_20 e9b7858128c3c42e94fc7e1613b15957;de;;;5.3.;;;Formverteilungsbasierter Ansatz zum Vergleich von 3D-CAD-Montagemodellen Als Schlüsseltechnologie für den dreidimensionalen (3D) Modellabruf aus Modelldatenbanken ist die Fähigkeit zum Vergleich von 3D-Modellen wichtig. Insbesondere während der Produktentwicklungsphase sollten 3D-CAD-Modelle robust für die Wiederverwendung von Konstruktionen oder die Planung von Bearbeitungsprozessen abgerufen werden. Typische Retrieval-Methoden, die auf Modellnamen, Codes oder Annotationen basieren, sind jedoch in ihrer Verwendbarkeit und Robustheit eingeschränkt. Daher steigen die Anforderungen an formbasierte 3D-Modellabruftechniken sowie an die Möglichkeit, 3D-Modellvergleiche durchzuführen. In diesem Artikel schlagen wir eine auf der Formverteilung basierende 3D-CAD-Baugruppenvergleichsmethode vor, die Unähnlichkeiten in 3D-CAD-Baugruppenmodellen identifizieren kann, indem zwischen Baugruppenbeziehungen und Teilformunähnlichkeiten unterschieden wird. Dies unterscheidet sich von bestehenden Verfahren, die nur auf Formunähnlichkeiten beschränkt sind. Wir präsentieren experimentelle Ergebnisse für verschiedene Testfälle, indem wir unsere vorgeschlagene Methode und bestehende Methoden vergleichen. Basierend auf unseren Versuchsergebnissen haben wir festgestellt, dass unsere Methode einen umfassenden Vergleich von 3D-CAD-Montagemodellen ermöglichen kann, einschließlich Unähnlichkeiten in der Montagebeziehung, Unähnlichkeiten der Teilform und Unähnlichkeiten des Gesamtmodells.;-;-;-;https://link.springer.com/article/10.1007/s12206-017-1103-3 7bfaee1e686c7c601a116d5795f8ab62;de;;;5.3.;;;Stabilisierung und Regulierung unendlichdimensionaler Systeme durch Koprimefaktorisierungen Dieser Artikel gibt einen Überblick über einige der Ergebnisse zur Stabilisierung und Regulierung unendlich-dimensionaler Systeme, die im Rahmen des sogenannten Fractional Representation-Ansatzes zur Analyse und Synthese von Feedback-Systemen gewonnen wurden. Die Beziehung zu Zustandsraumkonzepten wird sorgfältig diskutiert. Die folgenden Themen werden behandelt: Ringe von Übertragungsfunktionen und Koprimefaktorisierungen, Pritchard-Salamon-Systeme, Externe und interne Regelkreisstabilität, Regelkreisstabilität und Pol-Null-Auslöschungen, Das Nyquist-Stabilitätskriterium, Regelkreisstabilität und die Existenz Koprimefaktorisierungen, Parametrisierung aller stabilisierenden Regler für eine gegebene Anlage, Existenz endlichdimensionaler stabilisierender Kompensatoren, Starke Stabilisierung durch endlichdimensionale Regler, Das interne Modellprinzip, PI-Regelung unsicherer unendlichdimensionaler Systeme;-;-;-;https://link.springer.com/chapter/10.1007/BFb0115022 f7b330c575d2fac86d865bd48a563786;de;;;5.3.;;;Kleene-Algebren und Logik: Boolesche und grobe Mengendarstellungen, 3-wertige, grobe Mengen- und Perp-Semantik Ein Struktursatz für Kleene-Algebren wird bewiesen, der zeigt, dass ein Element einer Kleene-Algebra als geordnetes Paar von Mengen betrachtet werden kann und dass die Negation mit der Kleene-Eigenschaft (genannt die 'Kleene-Negation') durch die Mengentheorie beschreibbar ist ergänzen. Die Aussagenlogik;-;-;-;https://link.springer.com/article/10.1007/s11225-016-9696-6 36cb4d66b1383154fee94830979ff2ea;de;;;5.3.;;;Ein Ansatz zur Erhöhung der Wiederverwendbarkeit von Softwarekomponenten in Ada Der phänomenale Anstieg der Kosten für die Softwareproduktion in den letzten drei Jahrzehnten hat die Computerindustrie gezwungen, nach alternativen Strategien zu den im Wasserfallmodell der Computersystementwicklung implizierten zu suchen. Eine häufig beobachtete Lösung ist die Wiederverwendung des Codes von zuvor entworfenen Systemen beim Bau neuer Systeme;-;-;-;https://link.springer.com/chapter/10.1007/BFb0013480 fbb58381d1b9d64764e0c77f5106908c;de;;;5.3.;;;Fuzzy Wavelets zur Merkmalsextraktion und Fehlerklassifizierung Traditionell wurden modellbasierte Techniken zur Merkmalsextraktion verwendet [1]. Diese Techniken beruhen ausschließlich auf einem genauen Modell des Systems. Fehlerempfindliche Filter und Mehrfachhypothesen-Filterdetektoren zielen darauf ab, abnormales Systemverhalten unter Verwendung von Systemmodellen zu klassifizieren. Modellbasierte Techniken funktionieren zufriedenstellend, solange die Modelleigenschaften nahe am tatsächlichen System liegen. Die Leistung verschlechtert sich jedoch schnell, wenn das Modell das tatsächliche System nicht genau abbildet. Leider sind für die meisten Systeme keine genauen Modelle verfügbar. Es gibt ein wachsendes Potenzial für wissensbasierte Modelle anstelle von analytischen. Wissenssysteme können ein breiteres Spektrum an Informationsquellen wie Input-Output-Daten, Heuristiken usw.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4090-8_15 1af199039774da883442f05696bf093b;de;;;5.3.;;;GAS: Ein neuartiges gitterbasiertes Authentifizierungssystem Angesichts der sich entwickelnden Technologietrends ist die Bereitstellung von Sicherheit für die Benutzer ein wesentliches Ziel der Anwendung. Die Authentifizierung ist ein solcher wichtiger Aspekt der Sicherheit, der den Benutzern einer Anwendung Zugriffskontrolle bietet. Die übliche Methode zur Authentifizierung ist die Verwendung eines Benutzernamen/Passwort-Paares. Die grafische Passwortauthentifizierung hat sich im Vergleich zur herkömmlichen textuellen Passwortauthentifizierung als leistungsfähiger und nützlicher erwiesen. In diesem Beitrag schlagen wir ein neuartiges grafisches, passwortbasiertes Authentifizierungssystem namens GAS (Grid based Authentication System) vor. Wir richten unsere Aufmerksamkeit auf das Epigramm: „Es ist leicht, sich an das zu erinnern, was wir sehen, anstatt an das, was wir hören“. Die Methodik beinhaltet die Auswahl eines Musters namens Auth Pattern, das durch Platzieren von Bildern in einem gegebenen Raster gebildet wird. Als optimale Größe für das Raster haben wir 8*8 gewählt. Unser vorgeschlagenes System berücksichtigt sehr wichtige Parameter wie den Benutzerspeicher und die Länge des Passworts. Unter Berücksichtigung dieser Parameter vergleichen wir unser System mit modernsten Authentifizierungssystemen, um die Effizienz unserer Methodik zu beweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37949-9_51 64a9e504f344df66a932d6b371c423d0;de;;;5.3.;;;Compact Differential Evolution Light: Hohe Leistung trotz begrenztem Speicherbedarf und geringem Rechenaufwand Kompaktalgorithmen sind Verteilungsalgorithmen, die das Verhalten von populationsbasierten Algorithmen durch eine probabilistische Darstellung der Population von Lösungskandidaten nachahmen. Diese Algorithmen haben ein ähnliches Verhalten in Bezug auf bevölkerungsbasierte Algorithmen, benötigen jedoch einen viel kleineren Speicher. Diese Eigenschaft ist in einigen Engineering-Anwendungen, insbesondere in der Robotik, von entscheidender Bedeutung. Ein kompakter Hochleistungsalgorithmus ist der kompakte Differential Evolution (cDE)-Algorithmus. Dieses Papier schlägt eine neuartige Implementierung von cDE vor, nämlich Compact Differential Evolution light (cDElight), um nicht nur die Notwendigkeiten der Speichereinsparung, sondern auch die Echtzeitanforderungen zu erfüllen. cDElight verwendet zwei neuartige algorithmische Modifikationen, um einen geringeren Rechenaufwand ohne Leistungsverlust in Bezug auf cDE zu verwenden. Numerische Ergebnisse, die an einer breiten Palette von Testproblemen durchgeführt wurden, zeigen, dass cDElight trotz seiner minimalen Hardwareanforderungen die Leistung von cDE nicht verschlechtert und somit mit anderen speichersparenden und bevölkerungsbasierten Algorithmen konkurrieren kann. Eine Anwendung im Bereich der mobilen Robotik unterstreicht die Benutzerfreundlichkeit und Vorteile des vorgeschlagenen Ansatzes.;-;-;-;https://link.springer.com/article/10.1007/s11390-012-1284-2 eb300ca71d18bcbb66de992dca7f0a42;de;;;5.3.;;;Kupfer, Nickel und Cadmium in den Oberflächengewässern des Mittelmeers Auf 50 Oberflächenproben im gesamten Mittelmeerraum wurden Kupfer, Nickel und Cadmium bestimmt. Alle diese Elemente sind in den Oberflächengewässern des Mittelmeers wesentlich stärker konzentriert als in ähnlichen nährstoffarmen Gewässern im offenen Ozean. Ein Massenbilanzmodell für das Mittelmeer erlaubt es, die Größenordnungen der Spurenelementquellen zu begrenzen. Die tatsächliche(n) Quelle(n) lässt sich aus den Daten nicht klären und es ist nicht klar, ob diese Spurenelementanreicherung natürlichen oder anthropogenen Ursprungs ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-6864-0_30 9b124a5e46e356437b28c6dd7d26c862;de;;;5.3.;;;Neue Werkzeuge in der Fuzzy-Arithmetik mit Fuzzy-Zahlen Wir präsentieren neue Werkzeuge für die Fuzzy-Arithmetik mit Fuzzy-Zahlen, basierend auf der parametrischen Darstellung von Fuzzy-Zahlen und neuen Fuzzy-Operationen, der generalisierten Differenz und der generalisierten Division von Fuzzy-Zahlen. Die neuen Operationen werden im Hinblick auf die parametrischen LR- und LU-Darstellungen von Fuzzy-Zahlen beschrieben und die entsprechenden Algorithmen werden beschrieben. Eine Anwendung auf die Lösung einfacher Fuzzy-Gleichungen wird veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14058-7_49 c13caefe7c7fa389529433e6322b3e28;de;;;5.3.;;;Maximalität quantenfehlerkorrigierender Coderäume Space Die Quantenfehlerkorrektur wird im Quantencomputing verwendet, um Quanteninformationen vor Fehlern aufgrund von Dekohärenz und anderem Quantenrauschen zu schützen. Eine wichtige Aufgabe bei der Quantenfehlerkorrektur besteht darin, für einen gegebenen Quantenkanal einen fehlerkorrigierenden Coderaum (ECCS) zu finden, der mehr korrigierbare Informationen enthält. In dieser Arbeit führen wir zunächst das Konzept eines maximal fehlerkorrigierenden Coderaums (MECCS) eines Quantenkanals ein und beweisen, dass jedes ECCS eines Quantenkanals in einem MECCS dieses Kanals enthalten sein muss. Wir beweisen auch, dass jeder Quantenkanal immer ein MECCS besitzt. Darüber hinaus beweisen wir eine ausreichende und notwendige Bedingung dafür, dass die direkte Summe zweier orthogonaler ECCSs desselben Kanals ein ECCS dieses Kanals ist und erhalten daher eine Charakterisierung eines MECCS. Schließlich diskutieren wir die Maximalität von ECCSs eines Quantenkanals, indem wir das Konzept der maximalen Dimension einführen;-;-;-;https://link.springer.com/article/10.1007/s10773-018-3836-x 8b31229e7e51f14828016dd11b3ca644;de;;;5.3.;;;Abbau biologischer Interaktionsnetzwerke mit gewichteten Quasi-Bicliquen Biologische Netzwerkstudien können grundlegende Einblicke in verschiedene biologische Aufgaben liefern, darunter die funktionelle Charakterisierung von Genen und ihren Produkten, die Charakterisierung von DNA-Protein-Interaktionen und die Identifizierung regulatorischer Mechanismen. Allerdings sind biologische Netzwerke mit unzuverlässigen Wechselwirkungen verwechselt und unvollständig, sodass ihre rechnerische Nutzung mit algorithmischen Herausforderungen behaftet ist. Hier führen wir Quasi-Biclique-Probleme ein, um biologische Netzwerke zu analysieren, wenn sie durch bipartite Graphen dargestellt werden. Im Unterschied zu früheren Quasi-Bicliquen-Problemen beziehen wir biologische Interaktionsniveaus mit Hilfe von kantengewichteten Quasi-Bicliquen ein. Während wir beweisen, dass unsere Probleme NP-schwer sind, bieten wir auch exakte IP-Lösungen an, die Netzwerke mittlerer Größe berechnen können. Die Wirksamkeit unserer IP-Lösungen überprüfen wir sowohl anhand von Simulations- als auch empirischen Daten. Die Simulation zeigt hohe Rückrufraten von Quasi-Bicliquen, und die empirischen Daten bestätigen die Fähigkeiten unserer gewichteten Quasi-Bicliquen, Merkmale zu extrahieren und fehlende Interaktionen aus dem Netzwerk wiederherzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21260-4_40 a9d8d475a095a3c2533187bb4452fdc1;de;;;5.3.;;;Zufriedenheit mit Intervallbeschränkungen und Optimierung für biologische Homöostase und Multistationarität tritt in einem biologischen System auf, wenn eine Ausgabevariable ungefähr konstant bleibt, wenn sich ein oder mehrere Eingabeparameter über einige Intervalle ändern. Wenn die Variable exakt konstant ist, spricht man von absoluter Konzentrationsrobustheit (ACR). Eine doppelte und gleich wichtige Eigenschaft ist;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-60327-4_5 724e22b5067bed2f19e5ac1f5a6590e4;de;;;5.3.;;;Spectral Pooling-basierte CNN-Modellkompression für die Lichtfeldtiefenschätzung Beim Design des traditionellen CNN-Modells besteht immer ein Gleichgewicht zwischen der räumlichen Dimension und der Anzahl der Kanäle. Die hochdimensionale räumliche Auflösung soll detailliertere lokale Informationen erhalten, während die große Anzahl von Kanälen für eine komplexere Merkmalsdarstellung sorgt. Für den aktuellen Algorithmus der Lichtfeld-Tiefenschätzung entscheiden sich die Designer normalerweise dafür, eine hohe räumliche Dimension im Netzwerk beizubehalten, um die Genauigkeit der Tiefenschätzung zu verbessern, was dazu führt, dass das Modell eine große Größe hat und eine große Menge in Anspruch nimmt von Rechenressourcen im Tiefenschätzungsprozess. In diesem Artikel stellen wir eine effektive Pooling-Methode vor: Spectral Pooling, um die Probleme des oben erwähnten ursprünglichen Netzwerks zur Schätzung der Lichtfeldtiefe zu verbessern. Wir übertragen die Lichtfeld-Merkmalskarte in den Frequenzbereich durch Fourier-Transformation und reduzieren die Größe der Merkmalskarte im Frequenzbereich vernünftigerweise auf eine beliebige Größe. Das Verfahren kann verwendet werden, um die Komplexität des Netzwerks zu reduzieren und das Training mit ähnlicher Leistung wie der ursprüngliche Algorithmus zu beschleunigen. Noch wichtiger ist, dass das neue Modell mit weniger Speicherbedarf besser auf leichte Mobilgeräte angewendet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9917-6_32 79e0281fb180475da09cdcf101d0236d;de;;;5.3.;;;Audiovisuelles Überwachungssystem für den Einsatz im Bankbetriebssaal Präsentiert wird ein audiovisuelles Überwachungssystem, das akustische Ereignisse im Operationssaal einer Bank erkennen, klassifizieren und lokalisieren kann. Algorithmen zur Erkennung und Klassifizierung von anormalen akustischen Ereignissen wie Schreie oder Schüsse werden vorgestellt. Zwei Arten von Detektoren werden verwendet, um impulsive Geräusche und stimmliche Aktivität zu erkennen. Ein SVM-Klassifizierer (Support Vector Machine) wird verwendet, um zwischen den verschiedenen Klassen von akustischen Ereignissen zu unterscheiden. Es werden die Verfahren zur Berechnung der Richtung des eintreffenden Schalls unter Verwendung eines akustischen Vektorsensors vorgestellt. Die Lokalisierung wird durch Berechnung des DOA-Histogramms (Direction of Arrival) erreicht. Es wird die Bewertung des Systems anhand von Experimenten gegeben, die in einem realen Bankbetriebsraum durchgeführt wurden. Es werden Ergebnisse der Schallereigniserkennung, -klassifizierung und -lokalisierung gegeben und diskutiert. Für die Aufgabe der automatischen Überwachung des Bankbetriebsraums erweist sich das System als effizient.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38559-9_10 22bd06ea10f59b41cd9f426637cc09e5;de;;;5.3.;;;Zur Leistungsfähigkeit von Empfängerstrategien für die kooperative Weiterleitung von Mobilfunknetzen mit NOMA In diesem Papier wird ein Empfängerschema für ein kooperatives Mehrfachrelaissystem mit nicht-orthogonalem Mehrfachzugriff (CMRS-NOMA) in zellularen Netzwerken vorgeschlagen. In unserem vorgeschlagenen System möchte die Basisstation (BS) mit mehreren Benutzern über mehrere Relais kommunizieren, und direkte Verbindungen zwischen der BS und den Benutzern werden nicht berücksichtigt. Konkret gehen wir davon aus, dass die Relais im Annäherungsbereich die Übertragung unterstützen dürfen, da sich andere Relais außerhalb des Kooperationsbereichs befinden. Auf diese Weise kann jeder Benutzer und die entsprechenden Relais als eine Gruppe implementiert werden. Außerdem überträgt die Quelle gleichzeitig die überlagerungscodierten Signale an alle Relaisknoten. Nach dem Empfangen der Signale decodieren alle Relaisknoten die Symbole durch Anwenden einer sukzessiven Interferenzunterdrückung (SIC) und rekonstruieren sie dann in neue NOMA-Signale, die an die Benutzer weitergeleitet und in einer linearen Kombinationsweise decodiert werden. Beachten Sie, dass die vorgeschlagenen Rekonstruktionen an den Relaisknoten praktisch und einfach sind, was zu einer vorteilhaften Dekodierung für die Empfänger führt. Darüber hinaus werden die geschlossenen Ausdrücke hinsichtlich der Summenrate (SR) und der Ausfallleistung des Systems abgeleitet. Qualitative numerische Ergebnisse, die unsere theoretische Analyse bestätigen, zeigen, dass das vorgeschlagene Schema die Leistung in Bezug auf SR und Ausfallwahrscheinlichkeit im Vergleich zu den bestehenden Arbeiten erheblich verbessert.;-;-;-;https://link.springer.com/article/10.1186/s13638-019-1377-5 aa5b22314c282343df07316c03d5c2f5;de;;;5.3.;;;Dezentrale Optimierung über Baumdiagramme In diesem Beitrag wird ein dezentraler Algorithmus zur nichtkonvexen Optimierung über baumstrukturierte Netzwerke vorgestellt. Wir gehen davon aus, dass jeder Knoten dieses Netzwerks kleinskalige Optimierungsprobleme lösen und Näherungswertfunktionen mit seinen Nachbarn basierend auf einem neuartigen Multi-Sweep-Kommunikationsprotokoll kommunizieren kann. Im Gegensatz zu existierenden parallelisierbaren Optimierungsalgorithmen für die nicht-konvexe Optimierung werden die Knoten des Netzwerks weder synchronisiert noch einer zentralen Instanz zugeordnet. Keiner der Knoten muss die gesamte Topologie des Netzwerks kennen, aber alle Knoten wissen, dass das Netzwerk baumstrukturiert ist. Wir diskutieren Bedingungen, unter denen lokal quadratische Konvergenzraten erreicht werden können. Die Methode wird veranschaulicht, indem das dezentrale asynchrone Multi-Sweep-Protokoll an einer Fallstudie eines radialen Wechselstromnetzes ausgeführt wird.;-;-;-;https://link.springer.com/article/10.1007/s10957-021-01828-9 181ce6d432c973bdd04dc415a11e6ec5;de;;;5.3.;;;Aspekt der Montage: Von der Theorie zur Leistung Ubiquitäre Computersysteme werfen zahlreiche Herausforderungen in der Softwareentwicklung auf. Unter diesen erfordert die dynamische Variation offener ubiquitärer Computerumgebungen eine kontinuierliche Anpassung der Anwendungen. Aspektorientierte Programmierung ist eine gut angepasste Technik, um Unabhängigkeit von Bedenken und Erweiterbarkeit für dynamische Anpassung zusammenzubringen. Die dynamische Anpassung muss jedoch in einem vertretbaren Zeitrahmen erfolgen, was eine genaue Kenntnis der Webdauer voraussetzt. In diesem Beitrag stellen wir „Aspect of Assembly“ vor, einen aspektorientierten Ansatz zur Entwicklung von service- und komponentenbasierten Anwendungen. Dann untersuchen wir die Reaktionszeit des Anpassungsprozesses, indem wir den Webprozess zerlegen. Anhand des Modells der Dauer des Anpassungsprozesses können wir definieren;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35551-6_2 03e7b60c55f6d6891b3582656d4fba7f;de;;;5.3.;;;Ein einheitlicher Rahmen für grobe Approximationen basierend auf generalisierten Quantoren Die Grobmengentheorie stellt ein wirksames Werkzeug zur Entscheidungsanalyse dar, indem sie Entscheidungsregeln aus Informationssystemen extrahiert. Der Regelinduktionsprozess basiert auf den Definitionen der unteren und oberen Approximationen der Entscheidungsklasse. Die Zustandsattribute des Informationssystems bilden eine Ununterscheidbarkeitsbeziehung auf das Universum der Objekte. Ein Objekt befindet sich in der unteren Näherung der Entscheidungsklasse, wenn alle damit nicht unterscheidbaren Objekte in der Entscheidungsklasse sind und es befindet sich in der oberen Näherung der Entscheidungsklasse, wenn einige damit nicht unterscheidbare Objekte in der Entscheidungsklasse sind. Es wurden verschiedene Verallgemeinerungen der Grobmengentheorie vorgeschlagen, um die Leistungsfähigkeit der Theorie zu verbessern. Zum Beispiel wird die Grobsatztheorie mit variabler Genauigkeit verwendet, um die Robustheit der Grobsatzanalyse zu verbessern, und der Fuzzy-Grobsatz-Ansatz wird vorgeschlagen, um mit vagen Informationen umzugehen. In diesem Beitrag präsentieren wir einen einheitlichen Rahmen für verschiedene Varianten der Grobmengentheorie unter Verwendung verallgemeinerter Quantoren. Im Rahmen werden die unteren und oberen Näherungen der klassischen Grobmengentheorie mit universellen bzw. existenziellen Quantoren definiert, während grobe Näherungen mit variabler Genauigkeit Wahrscheinlichkeitsquantoren entsprechen. Darüber hinaus können Fuzzy-Grobsatz-Approximationen durch Verwendung verschiedener Fuzzy-Quantifizierer definiert werden. Wir zeigen, dass das Framework die Aussagekraft der Entscheidungsregeln erhöhen kann, die durch eine grobe mengenbasierte Entscheidungsanalyse induziert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-47815-8_1 9b527883a7196836df16023b77eb9fe9;de;;;5.3.;;;Ein Stabilitätskriterium für ein zeitdiskretes Echozustandsnetzwerk mit gebrochener Ordnung und seine Anwendung In diesem Artikel wird ein neues Modell des zeitdiskreten Echozustandsnetzwerks fraktionaler Ordnung (DFO-ESN) vorgeschlagen, das die Theorie der numerischen Lösung von Differentialgleichungen gebrochener Ordnung kombiniert. Um sicherzustellen, dass das DFO-ESN für unterschiedliche Lernaufgaben verwendet werden kann, sollte die Stabilität des DFO-ESN gewährleistet sein. Durch die Verwendung eines LMI-Ansatzes ist ein ausreichendes Stabilitätskriterium für DFO-ESN gegeben. Entsprechend dem Stabilitätskriterium kann der Auswahlbereich der Lagerstättenparameter des DFO-ESN erweitert werden, sodass wir das DFO-ESN ohne Berücksichtigung der Anfangsbedingungen bauen können. Für die zeitdiskrete Lyapunov-Kandidatenfunktion wird gezeigt, dass die Reservoirzustände von DFO-ESN asymptotisch stabil sind, wenn die Zeit gegen unendlich geht. Schließlich demonstrieren zwei Beispiele die Durchführbarkeit des Stabilitätskriteriums und die Lernleistung von DFO-ESN.;-;-;-;https://link.springer.com/article/10.1007/s00500-020-05489-0 a7ed4367b1410bf14440811332a0c9f1;de;;;5.3.;;;Eine parallele Lösungsmethode für block-tridiagonale Gleichungen auf CPU-GPU heterogenen Computersystemen Die Lösung von block-tridiagonalen Systemen ist eines der Schlüsselprobleme bei der numerischen Simulation vieler wissenschaftlicher und technischer Probleme. Nicht-Null-Elemente sind hauptsächlich in den Blöcken auf der Hauptdiagonalen für die meisten Block-Tridiagonale-Matrizen konzentriert, und die Blöcke oberhalb und unterhalb der Hauptdiagonale haben wenige Nicht-Null-Elemente. Daher stellen wir eine Lösungsmethode vor, die direkte und iterative Methoden kombiniert. In unserem Verfahren werden die Teilmatrizen auf der Hauptdiagonalen durch die direkten Verfahren in den Iterationsprozessen gelöst. Da die durch die direkten Verfahren erhaltenen Näherungslösungen näher an den exakten Lösungen liegen, kann die Konvergenzgeschwindigkeit beim Lösen des block-tridiagonalen Systems linearer Gleichungen verbessert werden. Einige direkte Methoden haben eine gute Leistung bei der Lösung kleiner Gleichungen, und die Teilgleichungen können parallel gelöst werden. Wir präsentieren einen verbesserten Algorithmus zum Lösen der Untergleichungen durch Thread-Blöcke auf der GPU, und die Zwischendaten werden im Shared Memory gespeichert, um die Latenz des Speicherzugriffs erheblich zu reduzieren. Darüber hinaus analysieren wir das Cloud-Ressourcen-Scheduling-Modell und erhalten zehn block-tridiagonale Matrizen, die durch die Simulation des Cloud-Computing-Systems erzeugt werden. Die Rechenleistung beim Lösen dieser block-tridiagonalen linearen Gleichungssysteme kann mit unserer Methode verbessert werden.;-;-;-;https://link.springer.com/article/10.1007/s11227-016-1881-x 3cd45c2b4efd6bf0b316f836322dd9b7;de;;;5.3.;;;Stabilisierung des Enzyms durch Polymer mit anhängendem Monosaccharid Die Stabilität der Enzyme Lactatdehydrogenase (LDH) und Trypsin wurde in Gegenwart von Polymer mit anhängendem Monosaccharid bewertet. Das Enzym wurde in wässrigen Lösungen von Poly(glucosyloxyethylmethacrylat)(PGEMA), Poly(ethylenglycol)(PEG), Glucose und Saccharose inkubiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-65883-2_83 33604383a6090f6cd137b4dec04fada2;de;;;5.3.;;;Erkennung menschlicher Aktivitäten auf multivariaten Zeitreihendaten: Eine technische Überprüfung Das Erkennen menschlicher Aktivitäten aus Videosequenzen oder Sensordaten ist eine anspruchsvolle Aufgabe in der Computer Vision. Hintergrundunordnung, partielle Okklusion, Änderungen des Blickwinkels, der Beleuchtung und des Erscheinungsbilds schaffen Engpässe bei der Erkennung von Aktivitäten. In diesem Papier bieten wir einen umfassenden Überblick, indem wir die Aktivitätserkennungsansätze kategorisieren, die auf multivariate Zeitreihendaten angewendet wurden. Die Überprüfung bietet Einblicke in jede Methode, Forschungsfragen und Leistungsprobleme.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1420-3_37 262c93fce35fa797b3e1c470e1dbd1a2;de;;;5.3.;;;Target Detection Experiment Methode und Prozess basierend auf YOLOV3 Die Erkennung von beweglichen Zielen basiert hauptsächlich auf der Erkennung der zugrunde liegenden Videoinformationen. In diesem Papier werden die fünf Aspekte des Konzepts zur Zielerkennung, die Einführung des YOLOV3-Prinzips, die experimentelle Methode und der experimentelle Prozess, die experimentellen Ergebnisse und die Diskussion sowie das Anwendungsszenario von YOLOV3 erörtert. Die Bewegtzielerkennung ist die Grundlage für das Erreichen einer Zielerkennungsverfolgung. Da die Videosequenz aus einer Sequenz von Einzelbildern mit einer gewissen zeitlichen Kontinuität besteht, wird die Erfassung des sich bewegenden Objekts im Video durch Extrahieren der Sequenz von Einzelbildern aus der Videosequenz entsprechend einer bestimmten Periode durchgeführt. Wir verwenden YOLOV3 für Target-Detektionsexperimente. Der erste Schritt besteht darin, die Modelltrainingsumgebung zu konfigurieren. Der zweite Schritt besteht darin, das YOLOv3-Projekt von Github herunterzuladen und zu öffnen. Im dritten Schritt verwenden wir Label Img, um die Daten zu beschriften. Im vierten Schritt testen wir nach Abschluss des Modelltrainings das trainierte Modell.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5959-4_71 5441082527f88866964b01a51c0c2352;de;;;5.3.;;;Online-Testsystem zur Reduzierung des Arbeitsaufwands der Lehrer bei der Aufgaben- und Prüfungsvorbereitung Ein Online-Testsystem wurde entwickelt und implementiert, um Lehrern eine End-to-End-Lösung zur Verfügung zu stellen, um den Bewertungsprozess der Schüler zu rationalisieren und ihnen Zeit und Mühe bei der Vorbereitung von Testfragen zu sparen – das System kann automatisch Elemente basierend auf der Wissenslandkarte der Lehrer generieren erstellt, damit Lehrer ihre Tests abholen und gestalten können. Darüber hinaus können die Studierenden das System nutzen, um jederzeit und überall Selbstbewertungen durchzuführen. Dieser Artikel konzentriert sich darauf, Einblicke in die Funktionen zu geben, die für die Verwendung des Systems verfügbar sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-2419-1_29 b74032153c15f693865bb291502e08a7;de;;;5.3.;;;Analysiert die Anwendung von Multimedia-Technologie in der Lehre Mit der Entwicklung der Multimedia-Technologie hat die Entwicklung von Multimedia-unterstützter Lehrsoftware einen beispiellosen Enthusiasmus gezeigt, viele Bildungsbehörden, Schulen und sogar Lehrer haben viel Geld und Mühe investiert, um dieses Team zu verstärken. Insbesondere Multimedia-Technologie in den Präsenzunterricht, da sie illustrierte, audiovisuelle und geschmackliche, sowohl statische als auch dynamische Ausdrucksformen, den gesamten Lehrprozess erheblich optimieren, um eine Optimierung der Lehreffektivität zu erreichen, wodurch die Anwendung des Multimedia-Unterrichts im Bereich der Bildung zu den aktuellen Brennpunkten der Lehrreform. Stellt kurz den Überblick über die Multimedia-Technologie vor, dann eine objektive Analyse der Vorteile des Multimedia-Unterrichts und bestehender Probleme und vorgeschlagener Gegenmaßnahmen für den effektiven Einsatz von Multimedia.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3648-5_141 848cd8b2459370c1d44ea8bc343519c8;de;;;5.3.;;;Dynamische Nachahmung der realen Plattform des städtischen Schienenverkehrs-Traktionsstromversorgungssystems für PHM Angesichts der Bedeutung des Bahnstromversorgungssystems im Stadtbahnverkehr ist es schwierig, prognostische und Gesundheitsmanagement (PHM) Experimente im Bahnstromversorgungssystem durchzuführen. Daher wird in diesem Beitrag eine Simulationsplattform des Bahnstromversorgungssystems aufgebaut. Die Plattform simuliert verschiedene Betriebszustände und Fehlerzustände des Bahnstromversorgungssystems, indem sie ein physikalisches Modell des Bahnstromversorgungssystems des Niederleistungsschienenverkehrs erstellt. Dieses Papier stellt hauptsächlich die Hauptstruktur und das Systemdesign der dynamischen Simulationsplattform vor. Durch die Verwendung der oberen Computerüberwachungssoftware zur Realisierung der Funktion der drahtlosen Fahrzeug-Boden-Kommunikation kann die Zuggruppe im System unter verschiedenen Arbeitsbedingungen betrieben werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2862-0_80 2ef1917e454cf88c5d335f2a2d2c8677;de;;;5.3.;;;Forschung zu kurvensicherer Geschwindigkeitswarnung für Fahrzeuge mit Risikovorhersage Mit Blick auf das Fahrsicherheitsproblem in der Kurve ist ein Sicherheitsgeschwindigkeitswarnsystem mit Risikovorhersage so ausgelegt, dass das Fahrzeug in der Kurve fährt. Unter Berücksichtigung sowohl des statischen Multifaktors wie Fahrer, Fahrzeuge, Straßen und Fahrdynamikleistung wird ein Sicherheitsgeschwindigkeitswarnmodell auf der Kurve basierend auf mehreren Quellen erstellt. Die Straßenkrümmung wird durch Bildverarbeitungstechnologie geschätzt. Dann wird die maximale Sicherheitsgeschwindigkeit berechnet. Außerdem wird die Risikozustands-Schätzfunktion eingeführt, um den Fahrzustand des Fahrzeugs im Voraus zu beurteilen. Und das Alarmkriterium wird bestimmt. Schließlich wird mit LabVIEW ein Sicherheits-Geschwindigkeitswarnsystem entwickelt. Die Simulationsergebnisse zeigten, dass es den Fahrzustand des Fahrzeugs in der Kurve genau vorhersagen und den Fahrer warnen kann, wenn die Fahrzeuge eine versteckte Sicherheit haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-3527-2_37 c821ad0e734f035318d8a16427b67d93;de;;;5.3.;;;Ein umfassendes Wirkleistungsregelsystem für den Netzanschluss erneuerbarer Energien Da der Anteil erneuerbarer Energien am Stromsystem weiter steigt, spielen erneuerbare Energien im Stromnetz eine immer wichtigere Rolle. Der Netzanschluss erneuerbarer Energien muss nicht nur seine Anpassungsfähigkeit an das Netz verbessern, sondern auch seine aktiven Frequenz- und Spannungsregelungsfähigkeiten erhöhen, um die Stabilität der Netzfrequenz und -spannung bei hohen Durchdringungsraten zu verbessern. Dieses Papier schlägt ein Wirkleistungs-übergreifendes Regelungskonzept und System für die Netzanbindung erneuerbarer Energien basierend auf dem aktuellen Stand der Technik vor. Es kann Kommunikationsverzögerungen und Out-of-Sequence-Probleme, die durch die traditionelle unabhängige aktive Steuerung verursacht werden, effektiv vermeiden und zeichnet sich durch eine bequeme Transformation und niedrige Investitionskosten aus. Das Vorhaben wurde durch technische Transformation und Feldtests in einem Photovoltaik-Großkraftwerk in Yunnan Power Grid als machbar verifiziert. Und es schlägt ein hochgradig skalierbares, wirtschaftliches, effizientes und zuverlässiges Referenzschema für die Leistungssteuerung des Netzanschlusses erneuerbarer Energien vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9746-6_21 ecad2e313eb511750de52648e17c9d27;de;;;5.3.;;;Das Konzept der Demodulation beim Beweisen von Theoremen In vielen Gebieten der Mathematik führt der Reichtum der zugrunde liegenden Axiomenmenge zur Aufstellung einer Reihe sehr allgemeiner Gleichungen. Zum Beispiel lässt sich leicht beweisen, dass in Gruppen (x;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-81955-1_5 c2ada2c0e551f0bb4d4f039cdcbc0e2b;de;;;5.3.;;;Zeitverlaufsauswertung für Automaten mit konkaven Bahnbedingungen Die Bewertung von Nachfolger- oder Vorgängerzustandsräumen durch den zeitlichen Verlauf ist eine zentrale Komponente im modellprüfenden Algorithmus von zeitdichten Automaten. Die Definition des Zeitverlaufsoperators berücksichtigt die Bahnbedingung des Zeitverlaufs und führt in der Regel zu einer hohen Komplexität bei der Auswertung. Bisherige Algorithmen in diesem Aspekt gehen normalerweise davon aus, dass die ursprünglichen Ortsinvarianzbedingungen eines Automaten im zeitdichten Zustandsraum konvex sind. Basierend auf dieser Annahme können effiziente Algorithmen für konvexe Pfadbedingungen für die Erreichbarkeitsanalyse entworfen werden. Es ist jedoch nicht klar, ob die Pfadbedingungen in der allgemeinen Einstellung des TCTL-Model-Checking noch konvex sind. In dieser Arbeit diskutieren wir das Konzept der Zeitkonvexität, das es uns ermöglicht, die Einschränkungen bei der Anwendung des Zeitverlaufsbewertungsalgorithmus für konvexe Pfadbedingungen zu lockern. Dann geben wir Beispiele in der TCTL-Modellprüfung, die zeitkonkave Pfadbedingungen erzeugt, selbst wenn die ursprünglichen Automatenstandortinvarianzbedingungen zeitkonvex sind. Dann stellen wir zwei Techniken vor, die es uns ermöglichen, die Bewertungsalgorithmen für zeitkonvexe Pfadbedingungen auf zeitkonkave Pfadbedingungen anzuwenden. Schließlich berichten wir über unser Experiment mit den Techniken. Bei einigen Benchmarks können unsere Techniken die Leistung der Modellprüfung um eine Größenordnung verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88387-6_24 c64300a9e1230eb6b8ec8c5a07de4174;de;;;5.3.;;;Evaluierung einer Videomodellierungsanwendung, um autistischen Kindern soziale Interaktionsfähigkeiten zu vermitteln Autism Social Aid (ASS) ist eine psychische Störung, die eine Person in jungen Jahren betrifft. Menschen mit ASS zeigen Defizite in den Alltagskompetenzen, die zu einer Beeinträchtigung ihrer Selbständigkeit führen, ihr soziales Engagement einschränken, was zu einem schlechten Lebensstil führt. Dies wurzelt in ihren wichtigsten persönlichen Verhaltensweisen, die eine Beeinträchtigung der sozialen und kommunikativen Fähigkeiten sind. Mit der Verfügbarkeit mobiler Technologien, die Bildung durch Videomodellierung ermöglichen, ist es jedoch für Pädagogen praktischer geworden, Alltagskompetenzen für Menschen mit ASS zu trainieren. Folglich wurde eine Videomodellierungsanwendung namens „Autism Social-Aid“ entwickelt, um ein ergänzendes Lernmaterial bereitzustellen, das dazu beitragen soll, Kinder mit ASS im Lernprozess zu stimulieren. Der Zweck dieser Studie ist es, die Auswirkungen der Videomodellierung zu bewerten, um fünf Kindern, bei denen mittelfunktionsfähige ASS diagnostiziert wurde, beizubringen, soziale Interaktionsfähigkeiten zu verstehen. Die Kinder durchliefen drei Versuche der Evaluationsphasen. Die Ergebnisse zeigten, dass die Videomodellierung effektiv war, da alle Kinder vom ersten bis zum dritten Versuch positive Verbesserungen zeigen konnten. Infolgedessen haben alle von ihnen durchschnittlich 77% der Gesamtaufforderung reduziert, die erforderlich ist, um sich auf die Videolektion zu konzentrieren, und die Anzahl der Fehler bei der Quizauswertung wurde durchschnittlich um 70% reduziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1628-9_12 719812ea36d3d570ca8d184da2cd94c9;de;;;5.3.;;;Qualitätsbewusste Abfrage basierend auf relativer Quellqualität In vielen Fällen, z. B. beim Internet der Dinge oder bei der Datenfusion, ist ein häufiges Szenario, dass mehr als eine Quelle die Daten desselben Objekts liefert, die Datenqualität der Quellen jedoch unterschiedlich ist. Daher sollten bei der Abfrage von Quellen, die Daten von geringer Qualität liefern, die Abfrageergebnisse Daten hoher Qualität enthalten. In diesem Papier definieren wir qualitätsbewusste Abfragen und erstellen ein Modell zur Beschreibung des qualitätsbewussten Abfrageszenarios, das darauf abzielt, qualitativ hochwertige Ergebnisse aus mehreren Quellen mit unterschiedlichen Datenqualitätswerten zu erhalten. Ein unsicherer Graph wird verwendet, um die relative Quellqualität zu simulieren, und es wird eine Methode zum Berechnen der Qualität der Abfrageergebnisse bereitgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00009-7_1 b970444e50b7bb51351c7ba59ef18bff;de;;;5.3.;;;Nicht-lokale Fokker-Planck-Gleichung imperfekter impulsiver Interventionen und ihre effektiv superkonvergente numerische Diskretisierung Menschliche Eingriffe zur Kontrolle von Umwelt- und Ökosystemdynamiken werden effizient als impulsive Eingriffe beschrieben, bei denen der Systemzustand plötzlich übergeht. Solche Eingriffe in Anwendungen sind insofern unvollkommen, als der Zustandsübergang nicht exakt kontrollierbar und damit unsicher ist. Die mathematische Beschreibung der unvollkommenen impulsiven Interventionen wurde trotz Relevanz für praktische Probleme des Umwelt- und Ökoingenieurwesens nach bestem Wissen und Gewissen bisher nicht behandelt. Die Ziele und Beiträge dieser Forschung sind die Formulierung und numerische Berechnung der Populationsdynamik einzelner Arten, die durch unvollkommene impulsive Interventionen kontrolliert wird. Wir konzentrieren uns auf ein Managementproblem einer Wasservogelpopulation als Modellproblem, bei dem die Populationsdynamik einer stochastischen Differentialgleichung unter impulsivem Fang folgt. Wir zeigen, dass die stationäre Wahrscheinlichkeitsdichtefunktion der Populationsdynamik von einer 1-D-Fokker-Planck-Gleichung mit einer speziellen Nicht-Lokalität bestimmt wird, die möglicherweise ein Hindernis bei der Analyse der Gleichung darstellt. Wir zeigen, dass die Gleichung unter einer vereinfachten Bedingung analytisch lösbar ist, die durch ein Monte-Carlo-Simulationsergebnis validiert wird. Wir zeigen auch, dass ein einfaches Finite-Volumen-Schema seine Lösung auf stabile, konservative und superkonvergente Weise approximieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1078-6_7 d6bb4db23a9d8cc79d1092042ebe1714;de;;;5.3.;;;Webseitenbasierte und Videozusammenfassungsbasierte Lernplattform für Online-Multimedia-Lernen Im Allgemeinen ist das Ansehen und Betrachten des gesamten Videos oft zeitaufwändig, was eine lineare Anzeige des Videofilms erfordert. In diesem Papier schlagen wir eine webseitenbasierte und videozusammenfassungsbasierte Lernplattform (WVSUM) vor. Die Lernplattform bietet nicht nur eine Videovorschau zur Vorlesung, sondern kombiniert Bild-, Text- und Videoinformationen als Lernmaterialien. Die Eingabevideos können durch die Untertitelextraktionstechniken automatisch in Online-Vorlesungen ohne menschliche Annotatoren umgewandelt werden. Mittels der extrahierten Überschriftswörter wird das entworfene Textzusammenfassungsverfahren angewendet, um die Zusammenfassung zu erzeugen. Unser Zusammenfassungsansatz kann eine unterschiedliche Länge der Videozusammenfassung generieren, indem die Zeitbeschränkung eingerichtet wird. Um die Wirksamkeit zu validieren, vergleichen wir mit den bestehenden Fast Forwards (eine Art von Video-Surrogat-Schnittstelle) und bewerten das Verständnis der Benutzer für Videoinhalte in der begrenzten Betrachtungszeit. Dreißig Bachelor-Studenten wurden eingeladen, die Video-Lernplattformen zu untersuchen. Die experimentellen Ergebnisse zeigten, dass unser WVSUM eine bessere Wirkung auf das Verstehen von Videos hatte als der schnelle Vorlauf. In Bezug auf Systemnutzung und -zufriedenheit erzielte unser WVSUM deutlich bessere Werte als das klassische Fast-Forward-Surrogat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23456-9_64 b6ad54595e0b5407200e4b40006a0ed8;de;;;5.3.;;;Gestaltung kooperativer sozialer Anwendungen im Gesundheitswesen mit SocialBPM Das Aufkommen der sogenannten ersten Generation von Social Tools wie Blogs, Wikis oder CMS ermöglichte die Nutzung des Webs als Interaktionsarena für Gesundheitszwecke. Aktuell wird diese Interaktion durch verschiedene soziale Netzwerke wie PatientsLikeMe, HealthVault oder Inspire verbessert, um nur einige zu nennen. Die Geschäftswelt, die nicht zurückgelassen werden darf, holt diesen Wandel in der zwischenmenschlichen Kommunikation schnell ein und ermöglicht es Dritten (Kunden, Patienten, Kollegen, Anbieter usw.), an der Prozessausführung teilzunehmen, indem sie soziale Vorgänge wie Abstimmungen, Kommentare durchführen , Ranking, Teilen, Folgen, Einladen usw. Diese Integration erfolgt jedoch ad-hoc, nicht vorhandene verständliche Notationen, um soziale Interaktionen in die Geschäftsprozessmodellierung (BPM) aufzunehmen. Darüber hinaus muss sich der Benutzer mehreren sozialen Anwendungen stellen, um einfache soziale Aufgaben auszuführen, d. h. das Planen eines Meetings und das Teilen einer Diagnose müssen über verschiedene Anwendungen erfolgen. Während ersteres Problem die Entwurfsphase betrifft, betrifft letzteres die Ausführungsphase. In diesem Beitrag stellen wir eine Fallstudie vor, um zu veranschaulichen, wie der Einsatz von SocialBPM diese Probleme löst, wobei SocialBPM die Kombination von Social Technologies und BPM bezeichnet. SocialBPM erleichtert sowohl die kooperative Gestaltung sozialer Prozesse als auch deren kooperative Durchführung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10831-5_17 c38b675d9334dbb8c94c425ffcd9a2af;de;;;5.3.;;;Bewertung des Betriebssicherheitszustands des Kernkraftwerks basierend auf der verbesserten CAE-Methode Um die quantitative Echtzeitbewertung von Kernkraftwerken zu lösen, wird ein Sicherheitszustandsbewertungsmodell von Kernkraftwerken basierend auf der CAE (Claim-Argument-Evidence) Theorie erstellt. Modellieren Sie das Kernkraftwerk unter den Aspekten Reaktivitätskontrolle, Kernkühlung und Strahlenschutz als hierarchische Knotenbewertungsstruktur mit Informationen zur Gewichtsverteilung und Sicherheitsbewertungswert. Die Gewichte der Bewertungsfaktoren werden gemäß dem dynamischen Optimierungswert der Sicherheitsbewertungsvariablen zugewiesen. Basierend auf den obigen Verfahren und Visualisierungswerkzeugen wird ein Echtzeit-Mensch-Computer-Interaktionssystem zur Bewertung des Sicherheitszustands typischer Systeme entwickelt. Schließlich beweist die Echtzeitbetriebsdaten- und Simulationsmethode von Kernkraftwerken die Richtigkeit und Praktikabilität des Bewertungsmodells und des Algorithmus.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1876-8_13 fdb8e20096e043ed060fb31518cfe343;de;;;5.3.;;;Human Action Recognition-Methode basierend auf Video-Level-Funktionen und Aufmerksamkeitsmechanismus Um die raumzeitlichen Informationen im Video zu erfassen und die langfristige Modellierungsfähigkeit des Netzwerks zu verbessern, verwendet ein Zweistromnetzwerk normalerweise die Methode des spärlichen Abtastens. Es gibt jedoch zwei Probleme beim Prozess der Merkmalsextraktion auf der Probe. Zum einen die Unangemessenheit der den Videolabels entsprechenden Features auf Snippet-Ebene, zum anderen, dass die herausragenden Features nicht hervorgehoben werden. In Anbetracht der beiden oben genannten Punkte schlagen wir eine Aktionserkennungsmethode vor, die auf Video-Level-Features und Aufmerksamkeitsmechanismen (VFAM) basiert, die Features auf Snippet-Ebene kombiniert, um Features auf Video-Ebene zu generieren, und einen Aufmerksamkeitsmechanismus hinzufügt, um effektivere Features mit mehr Gewicht und gute experimentelle Ergebnisse wurden mit dem Datensatz HMDB51 erzielt, was die Überlegenheit und Robustheit unserer Methode widerspiegelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8450-3_24 6f42537f13707bd3a2d73908aa1063f3;de;;;5.3.;;;Ein miniaturisiertes Gerät zur Messung des Biegewinkels von flexiblen Glasfaser-Datenhandschuhen Winkelmessgeräte sind in vielen Bereichen weit verbreitet, wie beispielsweise tragbare Geräte, Mensch-Computer-Interaktionsschnittstellen und intelligente Operationsroboter. Im Vergleich zu elektrischen Signalsensoren bieten optische Winkelsensoren einen neuen Weg für die Umsetzung von tragbaren Datenhandschuhen, da sie unempfindlich gegen elektromagnetische Störungen und mehrkanalig integrierbar sind. In diesem Beitrag wird ein Winkelmessgerät für flexible Glasfaser-Datenhandschuhe entwickelt, das aus einer LED-Lichtquelle, einem CMOS-Bildsensor und zwei Koppellinsen besteht. Durch eine Faserkopplungslinse stimmt der Divergenzwinkel der LED-Lichtquelle mit der numerischen Apertur der flexiblen Faser überein und es wird eine hocheffiziente Energiekopplung erreicht. Eine abbildende Koppellinse mit 3 mm Länge wird verwendet, um sicherzustellen, dass jedes Faserbild der Faserbündel mehr als 64 Pixel auf der lichtempfindlichen CMOS-Oberfläche belegt, wodurch eine 16-Bit-Datengenauigkeit der Signalmessung erreicht wird. Die experimentellen Ergebnisse zeigen, dass das Gerät die Winkeländerung der Datenhandschuhe von 5 Fingerbeugen gleichzeitig messen kann und die Beugungsauflösung jedes Fingers besser als 0,5° ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-8595-7_34 94fb727c1b1e454f40a5894278b3f923;de;;;5.3.;;;Design und Implementierung von Low-Power-Zeitdifferenz-Ultraschall-Durchflussmesser Die Entwicklung von Ultraschall-Durchflussmessern mit geringer Leistung ist ein sehr wichtiger Prozess, der direkt die ununterbrochene Lebensdauer des Ultraschall-Durchflussmessers bestimmt. Basierend auf dem Chip MSP430F449 kann eine eingehendere Studie für Probleme mit geringem Stromverbrauch des Zeitdifferenz-Ultraschall-Durchflussmessers 5 + 1 Jahre im Falle einer Leistungsbatterie von 19 Ah garantieren, wodurch der Gesamtstromverbrauch des Ultraschalldurchflusssystems erheblich reduziert wird .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27329-2_64 9878f27345021df0c90f0a605effe7eb;de;;;5.3.;;;Eine Vergleichsstudie von Gesichts-, Gang- und Sprachmerkmalen zur Altersschätzung Mit der wachsenden Bedeutung der Altersschätzung in den letzten Jahren haben Forscher versucht, verschiedene Biometrien des menschlichen Körpers zu verwenden, um das Alter einer Person zu schätzen. Gesicht, Gang und Sprache sind die drei wichtigsten biometrischen Merkmale, von denen berichtet wurde, dass sie das menschliche Alter erfolgreich untersuchen. Jedes Merkmal hat spezifische Eigenschaften, die die Vorhersage des Alters verwenden. Wie Falten, Haut und Gesichtsform, Geschwindigkeit, Kopf-Körper-Verhältnis und Ganghöhe sowie Tonhöhe und Schwere der Sprache bestimmen die Basislinien für die Alterseinschätzung. Wir haben diese drei Funktionen verglichen und ihre Leistung bewertet. Herkömmliche Techniken aus der Literatur wurden verwendet und experimentelle Ergebnisse werden hinsichtlich MAE und Genauigkeit verglichen. Das Gesicht weist die detailliertesten Merkmale auf, um das Alter vorherzusagen, und daher einen minimalen mittleren absoluten Fehler von 5,36. Es folgt Gang und dann Sprache, die einen mittleren absoluten Fehler von 6,57 bzw. 6,62 aufweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-4765-7_34 21b99c388e5a1835f53957056ef86654;de;;;5.3.;;;Konzeptbankgesteuertes semantisches Videoabrufmodell Die semantische Beschreibung von Szenen ist ein herausforderndes Problem beim Video-Retrieval. Frühe Arbeiten vergrößerten die semantische Lücke aufgrund des Retrieval-Mechanismus, der auf dem Textabgleich zwischen den vom Uploader bereitgestellten textuellen Metadaten und der textbasierten Abfrage basiert. Die Notwendigkeit, die semantische Lücke zwischen den Abfrageinhalten des Benutzers und den abgerufenen Videos zu schließen, hat die Forschung zum inhaltsbasierten semantischen Videoabruf veranlasst. Dieses Kapitel schlägt ein semantisches Video-Retrieval-Modell für die menschliche Szenensuche ohne textuelle Metadatenannotation vor. Das vorgeschlagene semantische Modell basiert auf dem Verständnis des Abfrageinhalts im Video, um die Abfrage des Benutzers über eine sehr anspruchsvolle Videodatenbank abzurufen. Diese Arbeit umfasst die automatische Konzept-/Objekterkennung in Frames mithilfe der Konzeptbank, verknüpft die erkannten Konzepte mithilfe des Konzeptvorkommensvektors, um die relevanten Videos für die Abfrage des Benutzers abzurufen. Das vorgeschlagene semantische Modell beruht auf einem pädagogischen Verständnis des Abfrageinhalts im Video unter Verwendung des Prototyps, um Benutzeranfragen über eine sehr anspruchsvolle Videodatenbank durch Poisson-Binomialradius-Messung abzurufen. Um den vorgeschlagenen Ansatz zu evaluieren, validierten wir das Konzept des bankgetriebenen semantischen Abrufmodells anhand einer benutzererstellten Datenbank für die Abfrage des Benutzers beispielhaft. Die experimentelle Beobachtung zeigt die erstaunliche Leistung des vorgeschlagenen Konzepts des wissensbasierten semantischen Retrievalmodells.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8221-9_143 91cf3c46261403280aedd2693b04d974;de;;;5.3.;;;Die anfängliche Anwendung des interaktiven genetischen Algorithmus für das Keramikmodellierungsdesign Interaktiver genetischer Algorithmus hat einen sehr hohen Anwendungswert und Entwicklungsperspektiven in den von der subjektiven Wahrnehmung des Menschen dominierten Designbereichen wie Musikkreation, Kunstkreation, Architekturdesign, Produktfarbdesign. Dieser Beitrag wendet den interaktiven genetischen Algorithmus auf das Design von keramischen Produkten an, die noch nie zuvor entworfen wurden, und erforscht evolutionäre Algorithmen in verschiedenen Anwendungsbereichen. Das Gestaltungsschema keramischer Produkte ergibt sich hauptsächlich aus subjektiver ästhetischer Sicht und Denkweise. Um die zufriedensten Keramikprodukte des Benutzers in Bezug auf Designstil und Farbabstimmung zu erhalten, verwendet dieses Papier einen interaktiven genetischen Algorithmus, der das Problem der Designoptimierung von Keramikprodukten in eine implizite Leistungsoptimierung umwandelt. Die spezifischen Schritte sind: Zuerst werden das Designschema und die Farbabstimmung codiert, dann wird durch die verschiedenen Operationen des genetischen Algorithmus wie Auswahloperation, Crossover-Operation und Mutationsoperation die nächste Generation generiert, dann trägt der Benutzer den Zufriedenheitswert von . ein das Individuum mehr als einmal. Die Modellierung und Farbe der keramischen Produkte richtet sich immer mehr nach den Vorlieben des Benutzers. Nach vielen evolutionären Prozessen wird schließlich das optimale Individuum generiert, das vom Benutzer am meisten bevorzugt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3648-5_182 a9ee5e4775466cf0cf3a8e9864f007e2;de;;;5.3.;;;Verhaltensverfolgung in Videoüberwachungsanwendungen: Eine detaillierte Studie Das Problem der Videoüberwachung im Hinblick auf die Verhaltensverfolgung ist gut untersucht. Die Objektverfolgung in der Videoüberwachung und Verhaltensanalyse wurde für verschiedene Probleme eingesetzt. Für die Verfolgung von Objekten und die Klassifizierung von Verhaltensweisen wurden bereits zahlreiche Techniken vorgestellt. Die allgemeinen Ansätze verwenden ein Hintergrundmodell, um die Vordergrundobjekte zu identifizieren. Basierend auf den identifizierten Vordergrundobjekten wurde die Objektverfolgung durchgeführt. Ebenso berücksichtigen verschiedene Ansätze unterschiedliche Merkmale, um eine Objekterkennung und -klassifizierung durchzuführen. Jede Methode erzeugt ein anderes Ergebnis mit unterschiedlicher Genauigkeit bei der Verhaltensverfolgung. Dieser Beitrag analysiert verschiedene Methoden der Objektverfolgung und Verhaltensanalyse in der Videoüberwachung. In diesem Beitrag wird eine detaillierte Übersicht über die Methoden der Objektverfolgung durchgeführt und eine vergleichende Studie vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3992-3_62 9db358069edd7387d025af4776f9c2bf;de;;;5.3.;;;Geheimes Leben von Konjunktionen: Korrelation von Konjunktionswörtern zur Vorhersage von Persönlichkeitsmerkmalen aus sozialen Medien unter Verwendung von nutzergenerierten Inhalten Heutzutage werden auf Social-Networking-Sites große Mengen an Text-, Bild- und Audiodaten von den Benutzern generiert. Social-Media-Nutzer generieren diese Daten in einer hohen Geschwindigkeit als je zuvor. Statusaktualisierungen/Tweets, Likes, Kommentare und Shares/Re-Tweets sind die grundlegenden Funktionen, die von den Online-Social-Networking-Sites (OSN) bereitgestellt werden. Dieses Papier verwendet die Statusaktualisierungen von Benutzern, um relevante natürliche Sprachmerkmale zu analysieren und zu extrahieren, um sie in vorhersagende Persönlichkeitsmerkmale dieser Benutzer abzubilden. Es ist offensichtlich, dass die Verwendung von mehr Merkmalen in einem überwachten Lernsystem eine genauere Vorhersage ermöglichen kann. Als relevante Merkmale für diesen Fall könnten jedoch die linguistischen Merkmale wie Funktionswörter, Zeichenebene, Wortebene, Strukturebene angesehen werden. Während die Big Five Persönlichkeitsmerkmale vorhergesagt werden: Offenheit für Erfahrung, Gewissenhaftigkeit, Extraversion, Verträglichkeit und Neurotizismus, werden die hochkorrelierten Merkmale mit Hilfe von Merkmalsauswahlalgorithmen bestimmt. Für Experimente lautet die Forschungsfrage: „Was sind die hochkorrelierten Merkmale, die üblicherweise für alle fünf Persönlichkeitsmerkmale gefunden werden?“ In diesem Papier haben wir die experimentellen Ergebnisse präsentiert, während wir die hochkorrelierten Merkmale mit der Klasse bestimmt haben und festgestellt, dass der Prozentsatz der „Konjunktionswörter“ immer ein gemeinsames Merkmal für jedes der Persönlichkeitsmerkmale ist. Die zugrunde liegende (geheime) Beziehung dieses Merkmals wird in diesem Papier analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5558-9_46 5da156d4f1dc27249531f83f8c29d31a;de;;;5.3.;;;Ein interaktives webbasiertes räumlich-zeitliches Visualisierungssystem Die explorative Datenanalyse kann verwendet werden, um mehrere versteckte, aber interessante Muster aufzudecken, die sonst möglicherweise nicht offensichtlich sind. Räumlich-zeitliche Daten bieten zahlreiche Herausforderungen für solche Analysen, und es wurden verschiedene Ansätze vorgeschlagen, um diese anzugehen. In diesem Artikel stellen wir ein interaktives webbasiertes System vor, das große räumlich-zeitliche Datensätze in einem Standard-Webbrowser visualisieren kann. Dieser Ansatz wird angewendet, um einen großen raum-zeitlichen Datensatz mit 2,5 Millionen Datensätzen zu visualisieren, wobei mehrere Schlüsselmuster der Daten in diesem Prozess aufgedeckt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41939-3_66 198b6ba666d1028fbefe07f7d3c7a968;de;;;5.3.;;;Forschung zu Fahrbelastungscharakteristika von Fahrern in verschiedenen Gefahrenszenarien basierend auf EEG Um das Fahrbelastungsverhalten von Fahrern unter verschiedenen Gefahrenszenarien zu untersuchen, werden die Elektroenzephalographie (EEG)-Daten von Fahrern unter verschiedenen Gefahrenszenarien anhand von realen Fahrversuchen analysiert. Die ErgoLAB-Plattform zur Synchronisation der Mensch-Maschine-Umgebung wurde verwendet, um das EEG-Signal des Fahrers zu sammeln und zu extrahieren. Inzwischen wurde der passende EEG-Index ausgewählt. Die statistische Analysemethode wurde verwendet, um die EEG-Daten der Fahrer zu untersuchen, und die EEG-Variationsraten des Fahrers unter verschiedenen gefährlichen Szenarien wurden ermittelt, um die Arbeitsbelastung beim Fahren widerzuspiegeln. Aus dem Experiment, mit dem der Zusammenhang zwischen Fahrbelastung und Gefahrenszenarien ermittelt werden soll, werden zwei Schlussfolgerungen gezogen. Aus der Analyse der Indikatoren wurden zwei Schlussfolgerungen gezogen. Erstens haben verschiedene Gefahrenszenarien erhebliche Auswirkungen auf die Arbeitsbelastung beim Fahren. Wenn es ein gefährliches Szenario gibt, bei dem weniger nicht-motorisierte Schutzmaßnahmen leicht zu schweren Verkehrsunfällen wie Fußgängern oder Fahrrädern führen, wird die Fahrbelastung höher sein. Darüber hinaus ist der Einfluss auf die EEG-Variationsraten des Fahrers in verschiedenen Gefahrenszenarien durch externe Faktoren wie Abbiegen und Auftreffen auf Fußgänger (Fahrrad) oder relativ laute Schutzmaßnahmen wie Fahrzeuginteraktionen gering, was zu einer geringeren Fahrbelastung führt. Zweitens wird die Arbeitsbelastung beim Fahren nicht nur durch gefährliche Szenarien beeinflusst, sondern auch durch die Fahrerfahrung und das Alter des Fahrers.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0644-4_87 c61f6ef3da8f875ea4c00ad9f54978ef;de;;;2.4.;;;Entwicklung quantitativer Methoden zur Erfassung von Klimabeiträgen zu Grenzverschiebungen im landwirtschaftlich-pastoralen Ökoton Nordchinas Die quantitativen Auswirkungen des Klimawandels auf fragile Regionen sind ein heißes Thema im Bereich der Antworten auf den Klimawandel. Frühere Studien haben die Auswirkungen des Klimawandels auf Grenzverschiebungen im landwirtschaftlich-pastoralen Ökoton (FPE) qualitativ dokumentiert, jedoch bleiben die quantitativen Methoden zur Erfassung von Klimabeiträgen relativ begrenzt. Basierend auf Langzeitdaten meteorologischer Stationen und Interpretationen der Landnutzung seit 1970 wurden Klima- und Landnutzungsgrenzen der 1970er, 1980er, 1990er und 2000er Jahre abgegrenzt. Um Klimabeiträge zu den FPE-Grenzverschiebungen zu erkennen, haben wir zwei quantitative Methoden entwickelt, um das räumlich-zeitliche Muster des Klimas und der Landnutzungsgrenze in Ost-West- (oder Süd-Nord-) (FishNet-Methode) und Transektrichtungen (Digital Shoreline Analysis System, DSAS-Methode). Die Ergebnisse zeigten, dass signifikante Unterschiede in Klimagrenzen, Landnutzungsgrenzen sowie Klimabeiträgen in verschiedenen Regionen zu unterschiedlichen Zeiträumen auftraten. Die nordwestliche FPE wies kleinere Schwankungen auf, während die nordöstliche FPE größere Verschiebungen aufwies. Im nordwestlichen Teil des südöstlichen Randes des Greater Hinggan-Gebirges und des Inner Mongolian Plateau waren die Verschiebungen der Klimagrenzen signifikant mit den Landnutzungsgrenzen verbunden. Die Klimabeiträge in Ost-West-Richtung schwankten zwischen 10,7% und 44,4%, in Süd-Nord-Richtung zwischen 4,7% und 55,9%. Die meisten Ergebnisse des DSAS stimmten mit denen des FishNet überein. Die DSAS-Methode ist genauer und für eine präzise Detektion im kleinen Maßstab geeignet, während die FishNet-Methode einfach ist, um statistische Analysen schnell und direkt im großen Maßstab durchzuführen. Unsere Forschung wird hilfreich sein, um sich an den Klimawandel anzupassen, das Produktionspotenzial zu entwickeln und die Umwelt der FPE in Nordchina zu schützen.;-;-;-;https://link.springer.com/article/10.1007/s11442-017-1421-5 b0112add94146878f036e37f0af512a6;de;;;2.4.;;;Bestimmung der Signifikanz von Skalenwerten aus mehrdimensionaler Skalierungsprofilanalyse mit einem Resampling-Verfahren Obwohl die Profilanalyse mit multidimensionaler Skalierung (MDS) weit verbreitet ist, um individuelle Unterschiede zu untersuchen, gibt es keine objektive Möglichkeit, die statistische Signifikanz der geschätzten Skalenwerte zu bewerten. In der vorliegenden Studie wurde eine Resampling-Technik (Bootstrapping) verwendet, um Konfidenzgrenzen für aus der MDS-Profilanalyse geschätzte Skalenwerte zu erstellen. Diese Bootstrap-Konfidenzgrenzen wurden wiederum verwendet, um die Signifikanz von Markervariablen der Profile zu bewerten. Die Ergebnisse von Analysen sowohl von Simulationsdaten als auch von realen Daten legen nahe, dass die Bootstrap-Methode gültig sein und verwendet werden kann, um Hypothesen über die statistische Signifikanz von Markervariablen von MDS-Profilen zu bewerten.;-;-;-;https://link.springer.com/article/10.3758/BF03206396 94db9d4528eb652dd00a269451031648;de;;;2.4.;;;Eine Forschung zur Erkennung von Nebelsichtbarkeit Der vorhandene Videosichtbarkeitsalgorithmus verwendet die scheinbare Helligkeit des Zielobjekts aus der Bildaufnahme anstelle der Eigenhelligkeit des Zielobjekts, was die Genauigkeit der Sichtbarkeitserkennung beeinflusst. Daher entwickelt dieses Papier einen neuen Sichtbarkeitserkennungsalgorithmus, der auf der Anpassung der Reaktionskurve von Digitalkameras basiert. Experimentelle Bilder werden auf der einheitlichen weißen diffusen Oberfläche mit fester Blende und unterschiedlicher Belichtungszeit aufgenommen. Der durchschnittliche Grauwert der Bilder wird aus dem mittleren Teil der Versuchsbilder berechnet. Die doppelte logarithmische Kurve wird aus dem Pixelwert des Bildes und der Belichtungszeit angepasst. Dann ist nach dieser Kurve der Wert;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8101-4_39 2248f7d3e534f481bd33b6812429fc05;de;;;5.3.;;;Forschung zum Multimedia Assisted English Teaching Mode basierend auf der Computerplattform Die Englischunterrichtsaktivitäten sind die komplexen Prozesse der Sprachausgabe und des Spracherwerbs. Lehrer müssen die „Spracheingabemöglichkeiten“ und die „kognitiven Entwicklungsmöglichkeiten“ mit den „flexiblen Lehrmitteln“ kombinieren, damit die Schüler ihre Sprachaufnahmeeffizienz verbessern. Der multimediale computergestützte Englischunterricht, als neue und besondere Art der Lehrmethode im College-Englischunterricht, sollte zunächst den Regeln des Sprachunterrichts entsprechen und den allgemeinen Prinzipien des College-Englischunterrichts folgen. Zu diesen Prinzipien gehören das Systemprinzip, das kommunikative Prinzip, das kognitive Prinzip, das kulturelle Prinzip und das emotionale Prinzip.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3648-5_96 fb7b49415225111ee6a7202fbb519c29;de;;;5.3.;;;Krankenschwester-Alarmgerät für bettlägerige Patienten mit Handgesten-Erkennungssystem Es war schon immer eine Herausforderung für Krankenhäuser, die Missverständnisse zwischen Gesundheitsdienstleistern und denen, denen sie dienen, zu beseitigen. Ob es darum geht, eine Krankenschwester zu finden oder auf den Wunsch eines Patienten nach weiteren Schmerzmitteln zu reagieren, um Hilfe zu bitten oder einen Notfall zu rufen – es war unglaublich zeitaufwändig und schwierig, den Arbeitsablauf zu rationalisieren und zu verbessern. Da Patienten rund um die Uhr Hilfe benötigen oder manchmal nur bei bestimmten Aufgaben Hilfe benötigen, sollte es eine Lösung geben, die diese Technologie nutzt, um sie auch in Situationen zu beruhigen, die sie nicht selbstständig bewältigen können wenn sie gesundheitliche Probleme haben und Hilfe benötigen. Handgesten-basiertes Alarmgerät ist ein Alarmsystem für Schwesternrufe, das die Sicherheit von Patienten gewährleistet, da sie bei Bedarf mit ihren eigenen Handgesten um Hilfe rufen können. In diesem Artikel geht es darum, eine Möglichkeit der Interaktion zwischen Pflegepersonal und Patienten zusammen mit Echtzeit-Gestenerkennung vorzuschlagen. Früher war bei einigen Systemen eine übermäßige Verkabelung in Patientenzimmern und Schwesternbereichen ein Muss, was die Installation teuer und schwierig machte. Diese Technologie, die rein softwarebasiert ist und mit sehr wenig Equipment auskommt, scheint sehr vielversprechend. Da es in Krankenhäusern, Zentren für betreutes Wohnen oder Rehabilitationszentren eingesetzt werden kann, was Gesundheitsdienstleistern hilft, ihre Patienten aufmerksamer und effizienter zu betreuen, verbessert es die Reaktionsfähigkeit, das Pflegeniveau, die betriebliche Effizienz und die Patienten- oder Kundenzufriedenheit. Dieses Papier schlägt die Methode oder den Algorithmus für eine Anwendung vor, die beim Erkennen der verschiedenen Gesten der Hand des Patienten helfen würde. Die Bilder sind von der Handflächenseite der rechten und linken Hand und werden zur Laufzeit geladen. Die Methode wurde im Hinblick auf einen einzelnen Benutzer entwickelt. Die Echtzeitbilder werden zuerst erfasst und dann in einem Verzeichnis gespeichert, und auf dem kürzlich erfassten Bild wird eine Merkmalsextraktion durchgeführt, um zu identifizieren, welche Geste vom Benutzer artikuliert wurde. Die Vergleiche werden im Nachhinein durchgeführt und dann nach dem Vergleich das Ergebnis entsprechend durch übereinstimmende Schlüsselpunkte vom Eingabebild zu dem Bild erzeugt, das für eine bestimmte Geste bereits im Verzeichnis oder der Datenbank gespeichert ist die Ausgaben für die folgenden sind in zu sehen unten stehenden Abschnitte.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3125-5_38 c87bf8589e562326aa93f93a900aa4cc;de;;;5.3.;;;Online-Fehlerschutzverfahren und seine Implementierung basierend auf dem Steuerbus für ein elektromechanisches Verbundgetriebe-Prüfstandsprüfsystem Gegenwärtig werden die Fehler des elektromechanischen Verbundgetriebe-Prüfstandsprüfsystems auf komplexe und vielfältige Weise dargestellt, und die Fehlerbehandlung erfolgt größtenteils manuell, seine Sicherheitsleistung ist reduziert und es kann leicht zu Verzögerungen und Sekundärausfällen kommen. Dieses Papier zielt auf die Sicherheit des Systems ab, garantiert, dass der Fehler in kürzester Zeit nach Auftreten des Fehlers behandelt werden kann, schlägt ein Online-Fehlerschutzverfahren für das elektromechanische Verbundantriebssystem basierend auf dem Steuerbus vor und wendet das Verfahren auf den Test an Bank. Das Verfahren orientiert sich an der Fehlerdiagnose des elektromechanischen Verbundgetriebe-Prüfstandsprüfsystems und kann einen dynamischen Echtzeit-Schutzmechanismus für das System bereitstellen, und wenn während des Systembetriebs ein Alarm oder Fehler auf Systemebene auftritt, führt das System den Schutz durch entsprechend der voreingestellten Schutzlogik programmieren. Zur Gewährleistung der Systemsicherheit und Fehlerkoordination kann es ein informationsbasiertes Mittel zur „Zuverlässigkeitsvorhersage“ für die Fehlerdiagnose und das Gesundheitsmanagement eines elektromechanischen Verbundgetriebes bereitstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2862-0_63 c26799d6515a59c4fd16f9cc9d0a3b32;de;;;5.3.;;;Objektverfolgung in Videos mit CNN Die Objektverfolgung in Videos ist aufgrund von Aussehensänderungen, die durch Okklusion, Beleuchtung, Variationsänderung usw. verursacht werden, eine Herausforderung. Visual Tracking ist heutzutage eine der wesentlichen Komponenten in der Computer Vision. Es kann für Überwachung, medizinische Bildgebung, Navigation, Computer-Mensch-Interaktion usw. verwendet werden. Bei der visuellen Verfolgung wird ein unbekanntes Objekt, das durch die Begrenzungsbox im ersten Frame spezifiziert ist, in den nachfolgenden Frames verfolgt. In diesem Artikel haben wir die Objektverfolgung in einem Video mithilfe der Convolutional Neural Network (CNN)-Architektur implementiert. Um dieses Netzwerk zu trainieren, haben wir den Datensatz ALOV 300+ verwendet, der Frames von Videos verschiedener Klassen (Licht, Oberflächenbedeckung, Glanz, Transparenz, Form, Bewegungsglätte, Bewegungskohärenz, Unordnung usw.) mit ihren entsprechenden Zielobjektbegrenzungen enthält Kästen. Darüber hinaus haben wir zwei Inception V3-Architekturen verwendet, die das CNN-Framework enthalten. Inception V3 hat gezeigt, dass es andere Architekturen für Objektklassifizierungsaufgaben übertrifft. Die meisten generischen Object Tracker werden von Grund auf online trainiert und profitieren nicht von einer großen Anzahl von Videos, die für Offline-Training verfügbar sind. Unsere Methode verwendet ein umfangreiches Offline-Training neuronaler Netze, um verschiedene Objekte mit hoher Geschwindigkeit in Echtzeit zu verfolgen. Der Algorithmus lernt offline eine allgemeine Beziehung zwischen dem Aussehen eines Objekts und seiner Bewegung, sodass das Netzwerk neue Objekte verfolgen kann. Das Modell zeigt eine Genauigkeit von 78 % beim Zugset mit 10.000 Bildern und eine Genauigkeit von 76 % beim Testset. Auch eine Erhöhung des Dropout-Faktors von 0,5 auf 0,7 reduzierte die Varianz um 2 %, während die Regularisierung dazu beitrug, die Varianz um 0,1 % zu reduzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1420-3_55 4d1423b3dba551f097799b268819c78d;de;;;5.3.;;;Design eines beschleunigten Testsystems für den Kabelbaumservice von Industrierobotern Um das Problem der experimentellen Ausrüstung zu lösen, die College-Studenten benötigen, um das Zuverlässigkeitsdesign von Schlüsselteilen von Robotern zu lehren, wurde ein SPS-basiertes Zuverlässigkeitstestsystem für die Zuverlässigkeit von Industrieroboterkabelbäumen entwickelt. Das System integriert die Betriebszuverlässigkeits-Beschleunigungstesttheorie, PID-Regelungstechnologie mit konstanter Temperatur, elektrische Servoantriebstechnologie, SPS-Regelungstechnologie, Reibungslasterfassungstechnologie, mikroskopische Beobachtungstechnologie und elektromechanische Getriebesteuerungstechnologie mit kompakter Struktur und optomechatronischer Integration. Der hohe Eigenschaftsgrad kann nicht nur die grundlegenden Lehrexperimente wie klassische elektromechanische Getriebesteuerung, Reibungslasterfassung, Temperatur-PID-Steuerung und Beobachtung der Oberflächenreibung und Verschleißmorphologie abschließen, sondern auch die Parameter des Kabelbaums bei Umgebungstemperatur, gegenseitiger Reibung vervollständigen Geschwindigkeit und Reibungsbelastung. Das Forschungs- und Lehrexperiment der Servicezuverlässigkeit unter der Bedingung zunehmender Geschwindigkeit garantiert die fortgeschrittene und fortschrittliche Lehre von experimentellen Geräten und verbessert das Verständnis und die Anwendung des theoretischen Wissens von College-Studenten über die Zuverlässigkeit der Roboterserviceleistung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9441-7_74 97cb7867ae9182e53ee4dd54d6da2654;de;;;5.3.;;;Ensemble-Bagging-Ansatz für die sensorbasierte IoT-Anomalieerkennung Das IoT ist das nächste Zeitalter der Kommunikation, da physische Objekte um uns herum immer schneller mit dem Internet verbunden werden. Die unbelebten physischen Geräte können in die Lage versetzt werden, Daten zu erstellen, zu empfangen und in Informationsnetzwerken auszutauschen, um hochentwickelte intelligente Dienste ohne menschliches Eingreifen bereitzustellen. Die zukünftigen IoT-Anwendungen sind mit einem erhöhten Automatisierungsgrad, Effizienz und Komfort für die Benutzer äußerst vielversprechend. Um eine solche Welt in einer sich ständig weiterentwickelnden Form zu verwirklichen, sind eine verbesserte Privatsphäre der Benutzer, eine Authentifizierung und eine hohe Informationssicherheit vor Angriffen erforderlich. Dieses Papier präsentiert eine charakteristische Untersuchung eines Anomalieerkennungssystems zur erfolgreichen Klassifizierung feindlicher Ereignisse, indem es sie von normalen Aktivitäten innerhalb des Verkehrsmusters des Distributed Smart Space Orchestration System (DS2OS) im Zusammenhang mit Netzwerkoperationen unterscheidet. Wir haben einen überwachten, auf Metaalgorithmen basierenden Ansatz vorgestellt, der als Bagging (Bootstrap Aggregation) bekannt ist, um verschiedene bösartige Operationen im Netzwerk zu klassifizieren und zu behandeln. Dieses Papier beschreibt die meisten wohlhabenden Klassifikatoren für maschinelles Lernen, k-Nearest Neighbor (k-NN), Decision Tree (DT), Random Forest (RF) und Extra Trees Classifier (ETC), um die Effizienz des DS2OS-Datensatzes durch eine geeignete Erfassung Trainingsphase zur statischen Idealisierung von normalem und anomalem Netzwerkverhalten. Dieses Papier schätzt die gesamte Versuchsleistung und Bewertung des Simulationsmodells durch Genauigkeit, Präzision, Wiedererinnerung und;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8439-8_52 720116133555f7a7e671d45e2c3743d9;de;;;5.3.;;;Analyse und Verbesserung des Autokorrelations-Pitch-Extraktionsalgorithmus basierend auf dem Kandidatensatz Der Autokorrelations-Pitch-Extraktionsalgorithmus basierend auf dem Kandidatensatz wird aufgrund seiner geringen Komplexität, starken Rauschunempfindlichkeit und hohen Genauigkeit weit verbreitet verwendet. Es gibt jedoch noch einige diskontinuierliche oder unebene Stellen in den Tonhöhenkonturen, die dieser Algorithmus erhält. Dieses Papier analysiert Arten und Ursachen von Fehlerabständen in den Ergebnissen eines solchen Algorithmus und schlägt Erkennungsmethoden und Korrekturstrategien für jede Art von Fehler vor. Mit dem auf Segmentierung basierenden Tonhöhenkonturglättungsalgorithmus werden 91,07 Prozent der Fehlerteilungen im Ergebnis eliminiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25792-6_106 583daecd4d154f4f07f9d64976ed286d;de;;;5.3.;;;Ein statischer Gestenerkennungsalgorithmus basierend auf DAG-SVMs In diesem Beitrag wurde eine statische Gestenerkennungsmethode mit Kinect-Tiefensensor vorgeschlagen, um verschiedene Tiefenbilder von Gesten zu sammeln. Basierend auf der Tiefenwahrscheinlichkeitsstatistik des ursprünglichen Tiefenhistogramms wurden die statistischen Nachbarschaftsparameter hinzugefügt, um das zweidimensionale Tiefenhistogramm zu konstruieren, um Gestenbilder zu extrahieren. Außerdem wird die Idee vorgestellt, das Kantenmerkmal Hu-Moment und das Kantenlängenmoment als neue Merkmale der statischen Geste zu integrieren, und der verbesserte DAG-SVMs-Algorithmus wird verwendet, um die Gestenerkennung zu trainieren, um die Erkennungsrate des Algorithmus zu verbessern. Experimentelle Ergebnisse zeigen, dass die Erkennungsrate des Erkennungsverfahrens 97,96 % erreicht;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0474-7_18 c6da4aeb42ad7a06ce9a31f3b6b7d7bb;de;;;5.3.;;;Merkmalsextraktions- und Zielerkennungstechnologie im Strombetrieb Ausgehend von der Problematik, dass die manuelle Überwachung den sicheren und stabilen Betrieb des Kraftbetriebs nicht zu jeder Zeit gewährleisten kann, ist nach dem Prinzip und dem Entwicklungsstand der Merkmalsextraktion und der Zielerkennungstechnologie der rationelle Einsatz dieser Technologie im Kraftbetrieb Prozess wird analysiert, um die Zuverlässigkeit der Stromversorgung sicherzustellen. Derzeit erfolgt die Patrouillenarbeit der Freileitungen grundsätzlich im manuellen Patrouillenmodus. Diese Betriebsart ist von großer Arbeitsintensität, großer Gefahr und geringer Effizienz. Daher ist es sehr notwendig, die spezifischen Eigenschaften des elektrischen Energiebetriebs gemäß den spezifischen Bedingungen des spezifischen elektrischen Energiebetriebsprozesses zu extrahieren und die Zielerfassungstechnologie systematisch zu entwickeln und die vernünftigen Anwendungsstrategien zu erforschen, was äußerst wichtig ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3250-4_214 c46177432ba32bd76603d60a37c34079;de;;;5.3.;;;Gesichtserkennung: Ein Versuch, eine Analyse im archäologischen Bereich durchzuführen Die Forschungsarbeit zur Gesichtserkennung (FD) nimmt im Bereich der Computer Vision aufgrund ihrer breiten Anwendungsmöglichkeiten in der Welt der Computertechnologie, Sicherheit, Psychologie, Medizin und Mustererkennung schnell zu. FD wurde als die unvermeidliche Vorreiterfunktion für die Gesichtserkennung (FR) anerkannt, die ihre eigenen Probleme mit sich bringt, da sie sich ihren eigenen Schwierigkeiten und Herausforderungen gegenübersieht, die sich stark von denen der FR unterscheiden. Es gibt verschiedene traditionelle FD-Methoden, die sich verschiedenen Herausforderungen in Bezug auf Objektklärung, Haltungsunterschiede, Aussehensänderungen und andere Gesichtsaussehen der verschiedenen modernen Menschheit stellen. Maschine wird verwendet, um verschiedene Arten von Merkmalen, die zum Gesicht einer Person gehören, unter Verwendung verschiedener Klassifizierungstechniken zu klassifizieren. In diesem Papier werden verschiedene Klassifikatoren für die Gesichtserkennung über die alte Menschheit verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7504-4_20 6817a0feff6a7da8af08e4d5d28dc0f9;de;;;5.3.;;;Unbemannte Steuerung der vollmechanisierten Bergbauausrüstung basierend auf der groben Set-Theorie Der vollmechanisierte Ortsbrust ist die grundlegendste Produktionseinheit moderner Bergwerke. Es hat die Eigenschaften einer rauen Umgebung und eines starken Schadens für Bergleute. Daher ist es für den sicheren Abbau von Kohlebergwerken unerlässlich, wie die Bergleute des vollmechanisierten Abbaus reduziert werden können. Die unbemannte Abbaufront ist eine Methode zur Lösung dieses Problems und auch ein Hot Spot im Bereich des Kohlebergbaus. Vom unbemannten Betrieb der „drei Maschinen“ im vollmechanisierten Streb ist derzeit noch nichts zu spüren. Basierend auf „inkompatiblen“ und „geordneten“ Charakteren in den historischen Produktionsdateninformationen wurden Forschungsmodelle erstellt und Methoden der kollaborativen Steuerung basierend auf absolut geordneten probabilistischen Grobsätzen vorgeschlagen. Je nach Gebäudebetriebsmechanismus wurde der Prozess analysiert und berechnet. Das Problem der „drei-maschinenigen“ unbemannten nichtlinearen kollaborativen Steuerung im vollmechanisierten Abbaufeld ist wirksam bei der Lösung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9437-0_50 561f7e50e397b62ef30a5e44a2ad8bf4;de;;;5.3.;;;Neue Methode zur Synthese von 8-Azasteroiden: Synthese von Benzo[ Die Reaktion von 2-Cinnamoylcyclohexa[b]oxiran mit Allylamin ergab cis-2(β),3,4a,5,6,7,8,8a(β)-Octahydro-1-allyl-4a(β)-hydroxy- (2α)-Phenylchinolin-4-on, das bei anschließender Reaktion mit Dimethylmalonat, Peroxidepoxidation und Erhitzen mit Salzsäure cis-4,5,6a(β),7,8,9,10a-octa-hydro 6-Allyl-20-oxo-5(α)phenyl-3-chlorfuro[3,2-d]chinolin. Erhitzen dieses Zwischenprodukts in 96%iger Schwefelsäure ergabtrans-3a(a),7a(a),9,10(β),14b(α),15-Hexahydro-10(α)-methyl-2-oxo-1- Chlorbenzo[a]cyclohexa[f]furo[2,3-g]quitiolizin.;-;-;-;https://link.springer.com/article/10.1007/BF01165707 d44ff12bba2e60d8cff449ab37e4a6a1;de;;;5.3.;;;Komplexinduzierter Kupplungseffekt: Adhäsion von Polymeren an Metall, gefördert durch Azolverbindung Die Haftungsförderung von Polymeren an Metallen wurde durch Vorbehandlung von Metall mit Benzotriazol erreicht. Bei Polymeren mit polaren funktionellen Gruppen konnte die Haftfestigkeit auf Kupfer um das 2- bis 3-fache verbessert werden. Epoxidharz könnte auf der mit Azol behandelten Metalloberfläche ausgehärtet werden, was zu einer Erhöhung der Reißfestigkeit führt. Der Reaktionsmechanismus und die Struktur an der Grenzfläche wurden mit Hilfe von Surface Enhanced Raman Scattering, IR und DSC untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-7816-7_23 f49ea35d778aaaac55918cf41800fc2b;de;;;5.3.;;;Eine Methode zur Überwachung des Kommunikationszustands für CAN-Bus-Netzwerke mit mehreren Knoten Mehrknoten-CAN-Bus-Netzwerke stellten tendenziell höhere Anforderungen an die Kommunikationsfähigkeit. In einem CAN-Bus-Netzwerk mit mehreren Knoten, das kein Anwendungsschichtprotokoll des CAN-Busses benötigt, um sich zu entwickeln, nimmt mit der Zunahme der Knoten die Schwierigkeit der Systemwartung und -optimierung zu. Wenn ein Knoten ausfällt, ist es notwendig, alle Knoten nacheinander zu überprüfen, um den Fehler zu finden, was für die Fehlersuche unpraktisch ist. Es wird ein Verfahren zur Kommunikationszustandsüberwachung für Mehrknoten-CAN-Bus-Netzwerke vorgeschlagen, für Mehrknoten-CAN-Bus-Netzwerke wird zuerst die Programmstruktur der Kommunikationszustandsüberwachung entworfen, jede Knoten-ID wird gesetzt, dann werden Testdaten gesendet, schließlich Kommunikationsstatus aller Knoten erreicht wird und die Fehlerknoteninformationen durch den übergeordneten Computer angezeigt werden, wird eine schnelle und zuverlässige Positionierung der falschen Knoten realisiert. Das Ergebnis zeigt, dass dieses Verfahren ein effektives Verfahren zur Überwachung des Kommunikationszustands ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2341-0_25 cc31c052cd8470011790f535a2f5f7f7;de;;;5.3.;;;Grundlagen von Operatoren und Matrizen Eine lineare Abbildung ist im Wesentlichen eine Matrix, wenn der Vektorraum endlichdimensional ist. In diesem Buch ist der Vektorraum typischerweise ein endlichdimensionaler komplexer Hilbertraum.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-04150-6_1 81d82d636e421c6d3a3051ef070b947b;de;;;5.3.;;;Design und Anwendung der webbasierten autonomen Englisch-Lernplattform basierend auf der Entwicklung der Denkfähigkeit der Schüler Beim Englischlernen verfügen die Schüler im Allgemeinen über die Fähigkeit zum kritischen Denken. Ihre Fähigkeit zu kritischem Denken überrascht manchmal Lehrer, aber viele von ihnen sind nicht gewillt oder nicht gut darin. Die Fähigkeit zum kritischen Denken der Schüler ist die treibende Kraft für das Erlernen und Beherrschen der Englischkenntnisse. Lehrer sollten gut darin sein, ihre Liebe zu mobilisieren und ihre diesbezüglichen Fähigkeiten zu kultivieren. Wir sollten mehr Reden im Unterricht mit mehr Vorträgen nach dem Unterricht kombinieren und ihnen mehr Gelegenheiten geben, ihre kritischen Denkfähigkeiten zu zeigen. Durch die Diskussionen und Debatten im Klassenzimmer können wir mehr Möglichkeiten für die Schüler schaffen, im Unterricht zu unterrichten. Das Design und die rationale Anwendung der webbasierten autonomen Englisch-Lernplattform, die auf der Kultivierung des kritischen Denkens der Schüler basiert, werden den Schülern eine wichtige Hilfestellung bieten, um Englisch gut zu lernen und anzuwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3250-4_188 8696f6828e0257ee02bd686480cd2770;de;;;5.3.;;;Aktive greifbare Interaktionen Dieses Kapitel untersucht aktive greifbare Interaktionen, eine Erweiterung greifbarer Benutzerinteraktionen. Aktive greifbare Interaktionen verwenden greifbare Objekte mit einer Form von Selbstautomatisierung in Form von Robotik oder Fortbewegung. Greifbare Benutzerschnittstellen verwenden physikalische Objekte, um greifbare physikalische Schnittstellen für einen Benutzer zu bilden, um eine Computeranwendung zu steuern. Zwei beispielhafte Formen aktiver greifbarer Interaktionen werden vorgestellt, lokale aktive greifbare Interaktionen und entfernte aktive greifbare Interaktionen. Local Active Tangible Interactions (LATI) ist ein Konzept, das es Benutzern ermöglicht, lokal mit aktivierten physischen Schnittstellen wie kleinen Robotern zu interagieren. Das Remote Active Tangible Interactions (RATI)-System ist eine voll funktionsfähige verteilte Version mehrerer LATIs. Die unterstreichende Technologie Display-Based Measurement and Control System wird verwendet, um unsere Instanziierungen von lokalen aktiven greifbaren Interaktionen und entfernten aktiven greifbaren Interaktionen zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84996-113-4_8 cdc0c736f4f26bbed7f8e891023bf1da;de;;;5.3.;;;Design eines automatischen Beleuchtungskultursystems für Haematococcus pluvialis basierend auf LED In diesem Beitrag wurde LED-Beleuchtungstechnologie verwendet, um ein geeignetes Beleuchtungssystem für die Kultur von Haematococcus pluvialis zu entwickeln. Das System verwendete einen STM32-Mikroprozessor als Hauptsteuerchip und weiße LED mit roten und blauen Spitzen als zusätzliche Lichtquelle, um das geeignete Lichtverhältnis für die Vermehrungs- und Induktionsstufe von Haematococcus pluvialis sicherzustellen. Unter Verwendung der STM32-MCU zur Ausgabe des PWM-Signals wurde die LED-Treiberschaltung entwickelt, um den Strom der Treiberschaltung zu steuern, um die lineare Anpassung der Lichtintensität zu realisieren. Die automatische Dimmfunktion basierend auf gelöstem Sauerstoff in Algenlösung wurde per Programmierung realisiert. Die experimentellen Ergebnisse zeigen, dass das System die Lichtintensität automatisch und linear anpassen kann. Die maximale Intensität des Systems kann die Kultivierungsanforderungen erfüllen und die Gleichmäßigkeit des Lichts ist großartig.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9050-1_45 70aeac9095598f8dec074866b23112ec;de;;;5.3.;;;Das Design des Sicherheitskontrollanzeigegeräts des kleinen modularen schwimmenden Offshore-Reaktorschutzsystems basierend auf FirmSys Der kleine modulare schwimmende Offshore-Reaktor ist ein kleines transportables Kernkraftwerk, das kleine Kernkraftwerke mit Schiffstechnik kombiniert. Es kann bei der marinen Erdölförderung eingesetzt werden und bietet eine sichere und effektive Energieversorgung für abgelegene Inseln. Der kleine modulare schwimmende Offshore-Reaktor wird auch für Hochleistungsschiffe sowie für die Meerwasserentsalzung verfügbar sein. Das Schutzsystem des Kernreaktors ist von entscheidender Bedeutung für die Zuverlässigkeit und Sicherheit des Kernkraftwerks. Als System, das die Verbindung zwischen Mensch und Gerät herstellt und Informationen austauscht, ist das Sicherheitskontrollanzeigegerät eine wichtige Komponente im Schutzsystem von Kernreaktoren. In diesem Beitrag wird ein neues Design einer Sicherheitskontrollanzeigevorrichtung vorgestellt, die in kleinen modularen schwimmenden Offshore-Reaktoren verwendet wird, und die neue Vorrichtung enthält einen Touchscreen und eine kundenspezifische Tastatur, die die Eigenschaften von Vorrichtungen in Seeschiffen ausgereift hat. Das neu entwickelte Gerät zeichnet sich durch schnellen Betrieb, Schutz vor Missbrauch und Vielseitigkeit aus, was eine bahnbrechende Innovation in der Schiffs- und Kernkraftindustrie darstellt. Dieses Design kann auf dem Sicherheitsanzeigesystem von Marineschiffen populär werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1876-8_27 24c136bdd6ea990e8e75ea4778741584;de;;;5.3.;;;Interagierendes Spiel und haptisches System basierend auf einem punktbasierten Ansatz zur Unterstützung von Patienten nach Schlaganfall Dieses Papier beschreibt ein System, das haptische, virtuelle Realität und Spieltechnologien kombiniert, um Patienten, die sich von neurologischen motorischen Defiziten erholen, bei der wiederholten Ausführung manueller Aufgaben zu unterstützen. Diese Benutzer können virtuelle Objekte erfühlen, indem sie ein haptisches Gerät verwenden, das als virtueller Führer fungiert und seine Force-Feedback-Fähigkeiten nutzt. Es wird eine virtuelle Umgebung verwendet, die eine haptische Schnittstelle zwischen dem Patienten und dem Spiel bildet. Das haptische Gerät wird unter den Bewegungen des Benutzers gesteuert und durch den Magnetic Geometry Effect (MGE) unterstützt. Es wurde eine vorläufige Bewertung durchgeführt, um das System zu validieren, in dem zwei verschiedene Aufgaben ausgeführt wurden (Steine ​​in einem sechseckigen Turm ohne und mit haptischer Unterstützung werfen), um mehr Informationen über die Genauigkeit des Geräts zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08596-8_46 ced06806c50d63d648ed2655e4c1767a;de;;;5.3.;;;Design eines Zuverlässigkeits-Beschleunigungs-Testsystems für den Service von elektrischen Steckverbindern für Roboter Das Lehr-Experimentalsystem für elektrische Steckverbinder von Industrierobotern auf SPS-Basis wird entwickelt. Das System kombiniert Zuverlässigkeits-Beschleunigungstesttheorie, PID-Steuerungstechnologie mit konstanter Temperatur, elektrische Servoantriebstechnologie, SPS-Steuerungstechnologie, Einsetzkrafterkennungstechnologie, mikroskopische Beobachtungstechnologie und elektromechanische Übertragungssteuerungstechnologie, um ein multifunktionales fortschrittliches Lehrexperimentsystem mit optischem - elektromechanische Integration, die nicht nur die grundlegenden Lehrexperimente der klassischen elektromechanischen Getriebesteuerung, der Einsteckkrafterfassung, der Temperatur-PID-Steuerung und der Beobachtung der Stiftoberflächenreibung und der Verschleißmorphologie abschließen kann, sondern auch das Forschungs- und Lehrexperiment zur Betriebssicherheit von Steckverbindern unter verschiedene Beschleunigungsbedingungen wie Umgebungstemperatur und Steckgeschwindigkeit. Es hat eine bessere experimentelle Ausrüstung für den Unterricht und einen höheren Anwendungswert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9437-0_60 b8da20e539bccdb797b4d2c7104ec651;de;;;5.3.;;;Computer Vision-basierter Ansatz für die Zeichenerkennung in indischer Gebärdensprache mit CNN- und ROI-Segmentierung Gebärdensprache ist bei hörgeschädigten Menschen auf der ganzen Welt beliebt. Es gibt zwei Sprachen, die vordefinierte Schritte sowie Bewegungen verwenden, um eine persönliche Nachricht auszudrücken. Diese Sprachen wurden hauptsächlich entwickelt, um gehörlosen und verbal gehemmten Menschen zu helfen. Sie verwenden normalerweise eine präzise und gleichzeitige Mischung aus Bewegungen von Händen und Handgelenken, der Ausrichtung der Hände, Handstilen usw. Verschiedene Bereiche haben unterschiedliche Indikationssprachen wie die amerikanische Gebärdensprache, die indische Gebärdensprache. In diesem Artikel haben wir uns auf indische Gebärdenwörter konzentriert. Diese spezielle Forschungsarbeit soll eine einfache Strategie zur Transformation von Zeichendialekten in Textinhalten durch personalisierte Region of Interest (ROI)-Segmentierung sowie Convolutional Neural Network (CNN) aufzeigen. Mehrere Hinweisgesten werden unter Verwendung eines benutzerdefinierten Bilddatensatzes trainiert und durch den Python-Dialekt angewendet. Unter Verwendung der ROI-Auswahlstrategie zeigt die Aufgabe im Vergleich zu herkömmlichen Methoden viel bessere Ergebnisse in der Terminologie der Echtzeiterkennung und des Genauigkeitsniveaus von Videoclip-Streaming per Webcam.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8752-8_43 5e14781c7a854bf525f84976092d9db2;de;;;5.3.;;;Design eines automatischen Erkennungssystems für Onboard-Datenprozessoren basierend auf einer Glasfaserschnittstelle Da die Datenmenge über Satellitennutzlasten in die Höhe schnellen kann, reichen herkömmliche Datenschnittstellen für technische Anwendungen nicht mehr aus. Die Glasfaserschnittstelle hat die Vorteile einer hohen Geschwindigkeit, einer geringen Größe und einer langen Übertragung und wird auf Satelliten verwendet. Durch die extrem hohe Geschwindigkeit der Glasfaserschnittstelle werden in kurzer Zeit große Datenmengen erzeugt. Wenn Sie den ersten Tropfen verwenden und dann analysieren, benötigen Sie eine große Festplatte. Dies führt zu einem enormen Testaufwand und wird den Echtzeit-Testanforderungen nicht gerecht. Das in diesem Artikel untersuchte Fasererkennungssystem kann eine automatische Echtzeiterkennung auf dem Onboard-Prozessor durchführen, die Testabdeckung und Testintensität der Onboard-Ausrüstung verbessern und die Zuverlässigkeit und Stabilität der Onboard-Ausrüstung in höchstem Maße sicherstellen. Gleichzeitig hat das System die Vorteile der einfachen Bedienung, der einfachen Erweiterung, der geringen Kosten und des bequemen Tragens. Durch Testen und Verifizieren erreicht das System das erwartete Ziel.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4163-6_73 ecfeb0310764568c0950ebb07547e174;de;;;5.3.;;;Forschung zur Anwendung von Augmented Reality-Technologie bei der Montage von Raumfahrzeugen Derzeit stellen produzierende Unternehmen aktiv auf digitale Modelle um. Angesichts der vielen Probleme, die durch die relativ schleppende Technologie des Montageprozesses von Raumfahrzeugen verursacht werden, analysiert dieser Beitrag die Bedürfnisse der Augmented-Reality-Technologie, die auf den Montageprozess von Raumfahrzeugen angewendet wird, auf der Grundlage der praktischen Analyse der digitalen Anwendung in der bestehenden Raumfahrzeugmontage. Dieser Artikel beschreibt die Schlüsseltechnologien der Augmented-Reality-Technologie in der Montage von Raumfahrzeugen. Abschließend werden zwei Anwendungsbeispiele konstruiert, um den Anwendungsprozess und die Vorteile der Augmented-Reality-Technologie in konkreten Montagevorgängen zu verifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4102-9_58 5f1ae7ebbcb9ca784065c5564910f7a2;de;;;5.3.;;;Design und Implementierung eines lernenden Emotionserkennungssystems Der Zweck dieser Studie bestand darin, ein auf dem Gesichtsausdruck basierendes Modell zur Vorhersage von Sofort- und Kurzzeit-Emotionen zu konstruieren, das die Lernaktivitäten der Lernenden automatisch bewertet. Zunächst wurde die „Learning Emotional Facial Image Database“ als Trainingsdaten erstellt, um das Emotionsklassifikationsmodell für die Lehr- und Lernaktivität aufzubauen. Die „Learning Emotional Facial Image Database“ umfasst jetzt 3211 Gesichtsbilder und Labels von Lernemotionen. Dann wurden Gesichtszüge durch die Bildverarbeitungstechnik erfasst und die Aktionseinheiten berechnet. Zwei Arten von Eingabe-Features, Feature-Wert und Aktionseinheiten, werden verwendet, um ein Vorhersagemodell zu erstellen. Schließlich wurden drei überwachte maschinelle Lernalgorithmen verwendet: Support Vector Machine, Multi-Layer Perceptron und Random Forest, um die Beziehung zwischen Gesichtsmerkmalen und Lernemotionen zu verknüpfen. In dieser Studie hat der Random Forest-Algorithmus mit 88,20 % die höchste Lernemotionserkennungsrate mit dem Merkmalswert als Eingabevektor.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3648-5_36 164fb387036122c2cf2ceee1ceb58572;de;;;2.4.;;;Spezifikationsmethodik, Fallstudien und Experimente – Eine Einführung in das Themengebiet Verkehrsleitsysteme „Spezifikation“ ist ein sehr komplexer Begriff. Diese Komplexität ergibt sich zunächst aus den Fragen „Was ist der Zweck einer Spezifikation? Was ist Gegenstand einer Spezifikation?“ und „Wer schreibt eine Spezifikation?“, die wiederum zu den Fragen „Welche Methoden und Prozesse werden für die Spezifikation verwendet?“ führen. Diese Fragen im Detail zu beantworten und eine Definition für den Begriff „Spezifikation“ zu finden, die den vollen Umfang und die Tiefe dieses Begriffs umfasst, stellt eine enorme wissenschaftliche Herausforderung dar und ist auch von großer praktischer Relevanz. Denn auch wenn aus einer Spezifikation analytische Rückschlüsse gezogen werden können, die im Nachhinein Verständnis vermitteln, sind die eigentlichen Meilensteine ​​einer korrekten und effizienten Spezifikation doch eine zielgerichtete Synthese des Gegenstands der Spezifikation als Einheit und seiner Funktionsfähigkeit in der Realität.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27863-4_7 94de1ba328bb2d10f93943ed0d2b6c54;de;;;5.3.;;;Ein EMG-Steuerungssystem von Ultraschallmotoren mit PSoC-Mikrocomputer Wir untersuchen die Entwicklung von myoelektrischen Ellenbogenprothesen mit Ultraschallmotor. Ultraschallmotoren haben einige besondere einzigartige Eigenschaften, wie z. B. hohes Drehmoment bei niedriger Drehzahl, kompakte Größe und kein elektromagnetisches Rauschen. Andererseits wird die Verwendung des Schwellenwerts oder der Amplitude von EMG (Elektromyogramm) oft als Steuerverfahren praktischer myoelektrischer Prothesen unter Verwendung eines Mikrocomputers verwendet. Diese Methode ist jedoch nicht immer für die vorgeschlagenen Prothesen geeignet. Um einen EMG-Controller für die myoelektrischen Ellbogenprothesen zu entwickeln, haben wir ein EMG-Steuerungssystem vorgeschlagen, das einen PSoC-Mikrocomputer für den Ultraschallmotor verwendet. In dieser Studie haben wir ein EMG-Steuerungssystem für Ultraschallmotoren mit einem PSoC-Mikrocomputer entwickelt, das sich in grundlegenden Experimenten bewährt hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89208-3_445 8ef8b06b1f974aa07cde65d01b646df7;de;;;5.3.;;;Die objektorientierte gleichungsbasierte Sprache Modelica und ihre OpenModelica-Umgebung mit MetaModeling, Interoperabilität und paralleler Ausführung Modelica ist eine moderne, stark typisierte, deklarative, gleichungsbasierte und objektorientierte Sprache zur Modellierung und Simulation komplexer Systeme. Hauptmerkmale sind: Benutzerfreundlichkeit, visuelles Design von Modellen mit Kombination von Lego-ähnlichen vordefinierten Modellbausteinen, Möglichkeit, Modellbibliotheken mit wiederverwendbaren Komponenten zu definieren, Unterstützung für die Modellierung und Simulation komplexer Anwendungen mit Teilen aus mehreren Anwendungsdomänen und vieles mehr nützliche Einrichtungen. Dieses Papier gibt einen Überblick über einige Aspekte der Modelica-Sprache und der OpenModelica-Umgebung – einer Open-Source-Umgebung für die Modellierung, Simulation und Entwicklung von Modelica-Anwendungen. Besondere Features sind MetaModeling für effiziente Modelltransformationen und prototypische Generierung von parallelem Code für Multicore-Architekturen. Zu den laufenden Arbeiten gehören auch die UML-Modelica-Integration und die Interoperabilitätsunterstützung durch den neuen FMI-Standard.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17319-6_4 3fec357960e0175bcbf24f3414a1ddce;de;;;5.3.;;;Tracking über erweiterten kontextsensitiven Korrelationsfilter Das auf Korrelationsfilterung basierende Tracking-Verfahren wird aufgrund seiner überragenden Leistung und hohen Bildrate in großen Datensätzen häufig verwendet. Eine beträchtliche Anzahl neuer Forscher konzentriert sich auf die Integration stärkerer Merkmale für eine reichhaltigere Darstellung des Tracking-Ziels, ignoriert jedoch die Anpassungsgenauigkeit zwischen Stichproben und Regressionsziel. In diesem Artikel werden basierend auf dem Korrelationsfiltermodell und Kontexthinweisen während des Trackings mehr diskriminierende Informationen bereitgestellt, um die Interferenzen wie Okklusion und Rotation in der Ebene zu lösen. Da die Einführung kontextbezogener Hinweise unnötige Verluste verursacht, analysiert dieses Papier die Regression, erstellt ein optimiertes Zielregressionsmodell und verhindert es durch Regressionsparameter, um den Informationsverlust zu reduzieren. Umfangreiche Experimente bewiesen die Weiterentwicklung des vorgeschlagenen Algorithmus.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9698-5_31 4197e3d9c80f77a768d98825455dd8d0;de;;;5.3.;;;Erlernen von diskriminativen Klassifikatorparametern für die visuelle Objektverfolgung durch Erkennung In diesem Artikel schlagen wir einen Algorithmus vor, um den diskriminativen Parametervektor in aufeinanderfolgenden Frames eines Videos zu lernen. Der gelernte Parametervektor wird zur visuellen Objektverfolgung verwendet. Die Lernmethode wählt einige positive und negative Beispiele aus Beispielsätzen aus. Unter Verwendung von iterativen Schritten wird ein Satz von positiven und negativen Beispielen in einer einzigen Iteration ausgewählt. Die Gewichtungsaktualisierungsstrategie wird dann verwendet, um das proportionale Gewicht des ausgewählten Beispielsatzes zu schätzen. Die Beispiele werden basierend auf dem Kriterium ausgewählt, dass, wenn der Parametervektor unter Verwendung dieser Beispiele aktualisiert wird, die Klassifizierungsbewertung zwischen dem Parametervektor und einigen Beispielen höher ist. Die proportionalen Gewichtungen werden für jedes ausgewählte Beispielpaar basierend auf der Untersuchung unterschiedlicher Gewichtungen geschätzt, wobei die Annahme verwendet wird, dass eine Aktualisierung des Parametervektors zu einer höheren Klassifizierungsbewertung zwischen einigen positiven Beispielen und dem aktualisierten Parametervektor führt. Die Aktualisierungsstrategie schätzt ferner den Skalarmultiplikatorwert ausgewählter Beispielpaare mit Ausnahme des ersten Paares unter Berücksichtigung der Zielerscheinungsänderung und der Zieldrift. Die Tracking-Ergebnisse des vorgeschlagenen diskriminativen Parameter-Lernverfahrens sind vergleichbar mit den Video-Trackern nach dem Stand der Technik.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2854-5_31 0433244bcf59065fdec4ab44134519ff;de;;;5.3.;;;Numerische Simulation und Kontrolle der Roboterschweißverformung des Fünf-Port-Steckverbinders Die Untauglichkeit von Schweißnähten und Spaltabweichungen sind bei Verwendung des traditionellen WIG-Verfahrens für den Fünf-Port-Anschlussflansch auffällig. Unzureichende Zuverlässigkeit und Instabilität der Schweißnaht sind eine Katastrophe, die den Anforderungen der Produktion von Typen der neuen Generation nicht gerecht werden kann. In dieser Studie wurde ein Finite-Elemente-Modell des Fünf-Port-Verbinders erstellt und die Verteilung von Temperaturfeld und Verformung untersucht. Das Ergebnis zeigt, dass sich der thermische Zyklus des Schweißens beim Schweißen des Flansches und der Kugelschale stark von der gewöhnlichen Stumpfschweißung unterscheidet. Die Schweißverformung ist aus Richtung UX und UZ komplex. Insbesondere die maximale Verformung aus Richtung UZ beträgt ca. 4,96 mm. Demnach wird die optimale Schweißvorrichtung auf die kleinste Verformung ausgelegt, um die Verformung der beiden Seiten der Schweißlinie kritisch zu kontrollieren, um schließlich die flexibles Roboterschweißen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73374-4_23 dac80fccd4c12a71ba699bda8301b881;de;;;5.3.;;;Ein neuartiger energieeffizienter Cluster-basierter Algorithmus für drahtlose Sensornetzwerke Energie, Speicher und Verarbeitungsleistung der Sensorknoten im Wireless Sensor Network (WSN) sind eingeschränkt. Viele Forscher haben energieeffiziente Routing-Algorithmen vorgeschlagen, um den Energieverbrauch für WSN zu senken. In diesem Papier wird ein energieeffizienter Clustering-Algorithmus (EECA) vorgeschlagen. Dieser Algorithmus wählt Cluster Heads (CHs) entsprechend der Restenergie und der Anzahl von Nachbarknoten. Bei der Übertragung von Datenpaketen zwischen CHs werden sowohl die Entfernung als auch die Restenergie berücksichtigt. Simulationsergebnisse zeigen, dass dieser Algorithmus den Energieverbrauch des Sensornetzwerks stark reduziert und auch die Anzahl der an den Senkenknoten übertragenen Datenpakete steigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27296-7_97 15047ee59352eba83ee4c368ec5267b9;de;;;5.3.;;;Edgine, ein Laufzeitsystem für IoT Edge-Anwendungen Die Verbreitung von Internet of Things (IoT)-Technologien hat den Weg zu neuen Anwendungen und Diensten geebnet. Entwickler benötigen in diesem Zusammenhang Werkzeuge zur effizienten Gestaltung und Umsetzung. Dieses Papier schlägt Edgine (Edge Engine) vor, ein plattformübergreifendes Open-Source-Edge-Computing-System. Das System ist die Edge-Computing-Erweiterung von Measurify, einer Cloud-Anwendungsprogrammierschnittstelle (API), die für die Erfassung und Verarbeitung von Messungen aus dem Feld bestimmt ist. Insbesondere kann Edgine aus der Ferne programmiert werden, um verschiedene Arten der Verarbeitung der Datenströme der Feldsensoren durchzuführen, wodurch die Ressourcennutzung optimiert und Latenz, Bandbreite, Übertragungsenergie und Rechenaufwand auf der Cloud-Seite reduziert werden. Dieses Papier stellt drei einfache Anwendungsfälle vor, die die Effektivität und Vielseitigkeit des Tools zeigen. Nach unserem besten Wissen ist dies das erste End-to-End-Entwicklungssystem für IoT-Messungen, Open Source, sowohl auf der Edge- als auch auf der Cloud-Seite programmierbar, plattformunabhängig und nicht Cloud-Anbieter-gesperrt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-66729-0_31 d329b503e8033e84f6d5e4d9cf8fb479;de;;;5.3.;;;Kalman-Filter-Group-basierte Fehlerdiagnose und Verifizierung von Flugzeugtriebwerkssensoren Der normale Betrieb des Triebwerkssteuersystems ist untrennbar mit dem Erhalten genauer Sensormesssignale verbunden. Viele Wissenschaftler haben Forschungen zur Sensorfehlerdiagnose durchgeführt. In diesem Beitrag wird die Zustandsraumgleichung basierend auf dem Komponentenmodell eines Turbofan-Triebwerks aufgestellt. Und der Kalman-Filter wurde entwickelt, um die harten Fehler der Motorsensoren zu diagnostizieren. Anschließend werden das Motormodell und die Fehlerdiagnosemethoden zur Verifizierung in die volldigitale Simulationsplattform FWorks integriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9686-2_13 61f7c5b3e564678133ad3aecae048092;de;;;2.4.;;;Kognitive Diversität von Top-Management-Teams als kompetenzbasierter Treiber der Innovationsfähigkeit: Wie man ihren Beitrag umfassend entschlüsselt Um Innovationsfähigkeit zu erlangen und zu erhalten, müssen Organisationen ihre Profile und Prozesse an sich ständig ändernde Umweltbedingungen anpassen. Das daraus resultierende Bedürfnis nach hoher Flexibilität, zu dem auch die Vermeidung einer Informationsunterversorgung durch Stabilität, aber Unflexibilität gehört, birgt die Gefahr einer Informationsüberflutung. Daher ist ein Gleichgewicht zwischen der Flexibilität einer Organisation und ihrer Stabilität erforderlich. Die kognitive Diversität des Top-Management-Teams (TMT) scheint eine vielversprechende Ressource zu sein, die unter Umständen in eine Organisationskompetenz umgewandelt werden kann, die eine hohe, aber stabile organisatorische Flexibilität ermöglicht. Als weitere Forschungsmethode wird die Anwendung von Erkenntnissen aus der Komplexitätstheorie und die Übernahme agentenbasierter Simulation vorgeschlagen, um zugrunde liegende kausale Zusammenhänge abzuleiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17223-6_4 edb5f8a8b90a5a5e37b908d2b1233f4e;de;;;5.3.;;;Entwicklung der 3D-GIS-Modellierungstechnologie Jüngste Forschungen zur Modellierungstechnologie des dreidimensionalen geographischen Informationssystems (3D GIS) wurden überprüft. Das Konzept der 3D-GIS-Modellierung und ihre Anwendung in verschiedenen Bereichen wurden vorgestellt. Es wurden grundlegende Techniken zur Realisierung einer 3D-Visualisierung untersucht. Eine typische 3D-GIS-Modellierung beinhaltet in der Regel die Beschreibung und Übertragung der GIS-Geodatenstruktur. GIS-Raumdatenmodelle wurden beschrieben und Arten von 3D-GIS-Modellen wurden zusammengefasst. Aktuelle Algorithmen zur Übertragung von Daten in 3D-Modelle wurden verglichen und analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-77253-0_73 b81c4ef7967dcb97c4a154976000ee56;de;;;2.4.;;;Kosteneffizientes Design einer Quantenmultiplikator-Akkumulator-Einheit Dieses Papier schlägt eine kosteneffiziente Quantenmultiplikator-Akkumulator-Einheit vor. Der Artikel stellt auch einen schnellen Multiplikationsalgorithmus vor und entwirft einen neuartigen Quantenmultiplikator basierend auf dem vorgeschlagenen Algorithmus mit der optimalen Zeitkomplexität, da der Multiplikator das Hauptgerät einer Multiplikator-Akkumulator-Einheit ist. Wir zeigen, dass die vorgeschlagene Multiplikationstechnik Zeitkomplexität hat;-;-;-;https://link.springer.com/article/10.1007/s11128-016-1455-0 e3a36f4f0f3bc806edcde174430e381c;de;;;5.3.;;;Studie zur Kalibrierungsmethode des Blickpunkts in der Blickverfolgung Mit dem Ziel der geringen Robustheit der Blickschätzung in einem berührungslosen Blickverfolgungssystem wird das Blickverfolgungssystem einer Einzelkamera-Mehrfachlichtquelle verbessert. Basierend auf dem Algorithmus der kreuzinvarianten Blickschätzung wird der traditionelle Blickpunkt-Kalibrierungsalgorithmus verbessert. Basierend auf der Struktur des Augapfelmodells wird der Einfluss der Hornhautkrümmung des Augapfels auf den Sehplatzierungsfehler analysiert. Für den durch den Winkel zwischen der optischen Achse und der optischen Achse verursachten Fehler wird ein verbesserter dynamischer adaptiver Kalibrierungsalgorithmus vorgeschlagen, der den Bildschirm in 3 * 3 Unterbereiche unterteilt. Für jeden Unterbereich wird jeweils ein Abbildungsparameter berechnet, um eine Parametermatrix zu bilden. Der aktuelle Parameter ist ein optimaler Parameterwert, der dynamisch in Echtzeit aus der Matrix erhalten wird, und der aktuelle Bereichsparameter wird extrahiert, um die endgültige Augenpunktplatzierung zu erhalten. Experimente zeigen, dass dieses Verfahren einen signifikanten Einfluss auf die Kalibrierung der Sichtlinie hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3648-5_103 38133c39c79c2208dfab90df79ccf23b;de;;;5.3.;;;Erhöhen der Sicherheit beim Cloud-Computing mit bidirektionalem DNA-Verschlüsselungsalgorithmus Cloud Computing ist die neueste Technologie im Bereich des verteilten Computings. Es bietet verschiedene Online- und On-Demand-Dienste für Datenspeicherung, Netzwerkdienste, Plattformdienste usw. Viele Unternehmen sind aus Gründen der Datensicherheit nicht begeistert von der Nutzung von Cloud-Diensten, da sich die Daten auf den Servern der Cloud-Dienstanbieter befinden. Um dieses Problem anzugehen, wurden von verschiedenen Forschern weltweit mehrere Ansätze angewendet, um die Sicherheit der gespeicherten Daten beim Cloud-Computing zu erhöhen. Der bidirektionale DNA-Verschlüsselungsalgorithmus (BDEA) ist eine solche Datensicherheitstechnik. Die bestehende Technik konzentriert sich jedoch nur auf den ASCII-Zeichensatz und ignoriert den nicht-englischen Benutzer des Cloud Computing. Daher konzentriert sich diese vorgeschlagene Arbeit darauf, den BDEA für die Verwendung mit Unicode-Zeichen zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-81-322-2012-1_36 bd43dedd5a1c8e711adfae71d91667e7;de;;;5.3.;;;Kurzfristige Wettervorhersage mit neuronalen Netzen Es wird eine Methode zur kurzfristigen Wettervorhersage basierend auf künstlichen neuronalen Netzen vorgestellt. Jede Trainingsstichprobe besteht aus einer Datumsinformation kombiniert mit meteorologischen Daten der letzten drei Tage, die an der Wetterstation in Miami, USA, gesammelt wurden. Das Vorhersageziel ist die Temperatur des nächsten Tages. Das Vorhersagesystem basiert auf einem mehrschichtigen Perceptron-Netzwerk, das mit einem Backpropagation-Algorithmus mit Impuls trainiert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-1902-1_132 cd562a76c9d16c1af54a7ca8109b7ca6;de;;;5.3.;;;Community Support in Universitäten – Das Projekt Drehscheibe Community-Support-Systeme (Community-Plattformen), die ein reichhaltiges Kommunikationsmedium für Arbeits- oder Interessengruppen darstellen, gewinnen in Anwendungsbereichen von der Freizeitunterstützung über die Kundenbetreuung bis hin zum Wissensmanagement immer mehr Aufmerksamkeit. Einer dieser Anwendungsbereiche ist die Unterstützung von Lehr- und Forschungsaktivitäten an Hochschulen. In diesem Artikel stellen wir ein Community-Support-System vor, das wir seit sieben Jahren in verschiedenen Fakultäten der Universität entwickeln und einsetzen. Im Gegensatz zu anderen Arbeiten zur Community-Unterstützung für Hochschulen konzentriert sich das System nicht allein auf die Vorlesungsunterstützung oder das Wissensmanagement, sondern bietet ein generisches Kommunikations- und Matchmaking-Medium. Wir stellen Ihnen die Grundfunktionalität des Systems vor und gehen auf einige Beobachtungen ein, die wir im Nutzungszeitraum gemacht haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-0115-0_23 5a66e6d53a93b5f4ea1bcc0ea33a9619;de;;;5.3.;;;Anwendung der Situationsbewusstseinsentscheidung in einem intelligenten Situationsdrucksystem In diesem Artikel wird das Konzept des Kontextbewusstseins in das Design von Entscheidungsträgern integriert. Dadurch kann das intelligente Drucksystem alle Arten von Fertigungsressourcen basierend auf unterschiedlichen Druckproduktmerkmalen intelligent und schnell konfigurieren. Zunächst wird in diesem Beitrag die aktuelle Situation der Anwendung kontextsensitiver Technologien vorgestellt und die entsprechenden Kontextinformationen in den Druckprozess eingeordnet. Dann wird der allgemeine Rahmen des Entscheidungsagenten in einem intelligenten Situationsdrucksystem gegeben. Die Funktion jeder Komponente wird detailliert vorgestellt. Schließlich wird ein bestimmter Schritt dieses Entscheidungsagenten bei der Vorverarbeitung von Kontextinformationen beschrieben. Das System kann die Anforderungen des Szenariodrucks erfüllen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3663-8_76 8e67bc557dcd4eec039a349e10156f9f;de;;;5.3.;;;Verifizierungstest von Cloud PaaS (PaaS-TA) auf Microserver In diesem Papier haben wir einen modularen Mikroserver mit einem Low-Power-Chip von Intel ATOM CPU oder ARM-basierter XGEN2-CPU hergestellt. Cloud Platform-as-a-Service (PaaS) ist eine fördernde Softwaretechnologie in kommerziellen Cloud-Anwendungen. PaaS-TA bietet eine webbasierte Plattformverwaltungs-Benutzerportalplattform, einschließlich Cloud-basiertem Management der Entwicklungsbetriebsumgebung und PaaS-Installationsautomatisierungstechnologie, die grundsätzlich für den PaaS-Betrieb erforderlich ist. Wir haben PaaS-TA, eine Cloud-Plattform (PaaS), auf einem hochintegrierten Cluster-Server installiert und überprüft, ob verschiedene PaaS-Dienste normal funktionieren. Als Ergebnis haben wir die Vielseitigkeit, Skalierbarkeit und Interoperabilität des entwickelten Mikroservers und der offenen Cloud-Plattform PaaS-TA bestätigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-0311-1_32 6a502b00ccb9866f9054181392df0b11;de;;;5.3.;;;Smart Cities: Eine neue Beziehung zwischen Menschen und Technologien Smart Cities werden oft als effiziente, effektive und einheitliche Vision der Anwendung neuer Technologien für das Stadtmanagement präsentiert, insbesondere in Bezug auf Dienstleistungen, die den Nutzern in verschiedenen Sektoren bereitgestellt werden. Das Konzept und die Aktivitäten rund um Smart Cities sind eng mit Aktivitäten rund um die Lebenswelten und noch mehr mit dem Kontext von Ambient Active Living verbunden. Dieser Sektor konzentriert sich hauptsächlich auf die Schaffung von Unterstützungsdiensten, die an die unterschiedlichen Merkmale des Benutzers angepasst werden können. Die Beziehung zwischen diesen beiden Sektoren wird hier vorgestellt, um die zu berücksichtigenden Elemente für eine korrektere Gestaltung von Smart Cities aufzuzeigen, die unterschiedliche Aspekte des Menschen und seines Verhaltens angemessen berücksichtigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63107-9_12 224f446072949cf60294dcf14bac385c;de;;;5.3.;;;Gesichtserkennung mit Goldenem Schnitt für das Türzugangskontrollsystem Das Papier stellt ein methodenbasiertes Korrespondenzschema vor, das eine Permutation der Viola-Jones-Gesichtserkennungsmethode mit Eigenschaften zur Extraktion des Goldenen Schnitts integriert. Der Zweck dieses Artikels besteht darin, Benutzern dabei zu helfen, die Sicherheit sensibler Orte durch Gesichtserkennung zu verbessern. Wir kommen, um das Problem der geringen Präzision in der vorgeschlagenen Technik zu lösen. Hier schlagen wir ein neues Schema zum Ausrichten des Gesichts mit Viola-Jones vor und unterstützen die Gesichtserkennungsmethode der Vektormaschine, gefolgt von der Extraktionstechnik der Goldenen Schnittfunktion. Die vorgeschlagene Technik ist im Vergleich zu anderen Gesichtserkennungstechniken sehr effektiv, realistischer und genauer. Das Modul enthält eine sichere Gesichtserkennung. Das Schema wurde entwickelt, um die Anforderungen der persönlichen Einstufung in einem realen Szenario zu erfüllen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8391-9_16 2e48080d9b686338c2dc616a809b4aeb;de;;;5.3.;;;GRU-basiertes Schätzverfahren ohne vorherige Kenntnis des Rauschens Die Zustandsschätzungsmethode ist eine der wichtigen Techniken zur Zielverfolgung, und diese Techniken, die auf Kalman-Filterung basieren, haben die Aufmerksamkeit vieler Forscher auf sich gezogen. Bei diesen existierenden Methoden ist die sehr grundlegende und notwendige Prämisse, dass das Modell des Targets mit hoher Genauigkeit ist und auch gute Vorkenntnisse über Prozessrauschen sowie Messrauschen vorhanden sind. Dies ist jedoch in den praktischen Anwendungen ziemlich schwierig zu erreichen. Daher wird in diesem Beitrag die auf Gated Recurrent Unit (GRU) basierende Schätzmethode vorgeschlagen, um die tatsächliche Bewegungstrajektorie über die simulierten GPS-Daten mit Rauschen zu schätzen. GRU hat einen guten Vorteil bei der Verarbeitung von Zeitreihendaten und verfügt über eine Speicherfunktion für Dateninformationen. Im experimentellen Teil zeigt sich durch Vergleich mit der traditionellen Kalman-Methode, dass die GRU bessere Schätzergebnisse erzielen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0474-7_87 7d00be6e0964da490ca959e815406c71;de;;;5.3.;;;Verfolgung menschlicher Spermien mit verbesserter Antikollisions-Mean-Shift-Tracking-Methode Die Spermienverfolgung ist eine Herausforderung bei der Beurteilung der Spermienmotilität. Die meisten der existierenden Verfahren sind nicht in der Lage, das Objekt zu verfolgen, während die Spermienkollision stattfindet. Dieses Papier stellt eine Antikollisionsmethode vor, um die Kollision zu erkennen und Spermien robust zu verfolgen. Durch Verwenden der Pixelgewichts- und Momentenmerkmale wird der neue nicht verdeckte Bereich extrahiert, um die Verfolgung unter Kollisionsbedingungen durchzuführen. Basierend auf den Ergebnissen ist das vorgeschlagene Verfahren in der Lage, die bestehenden Nachteile zu beheben und im Vergleich zum Standardverfahren zur Verfolgung der mittleren Verschiebungen niedrige Bhattacharyya-Abstandsergebnisse zu erzeugen. In Zukunft soll diese Methode bei der multiplen Spermienverfolgung und der Klassifizierung der Spermienmotilitätskategorien gemäß dem neuesten WHO-Handbuch eingesetzt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6447-1_12 7bd04ff292d975710c69a4ee0649d53e;de;;;5.3.;;;Ein dreidimensionales Messverfahren basierend auf binär strukturierten Lichtmustern für medizinische elektronische Endoskope Ein Verfahren zur dreidimensionalen (3D) Messung basierend auf 23 binär strukturierten Lichtmustern wird in der vorliegenden Studie für das medizinische elektronische Endoskop vorgeschlagen. Die Muster werden mit einfachen logischen Operationen und Werkzeugen aus der kombinatorischen Mathematik entworfen. Zuerst projizieren wir diese Muster in der richtigen Reihenfolge auf die Objekte, und alle modulierten Muster werden von einer CMOS-Kamera erfasst. Dann wird eine Reihe von Vorverarbeitungsverfahren verwendet, die eine Projektor-Kamera-Kalibrierung, Reflexionsdetektion und -unterdrückung, radiale und tangentiale Verzerrungskorrektur umfassen, um diese modulierten Muster zu verarbeiten. Schließlich entschlüsseln wir die Muster und rekonstruieren die Form von Objekten durch strukturierte Lichttriangulation. Ein experimenteller Endoskop-Prototyp wird gebaut und die Ergebnisse von Experimenten an echtem Schweinemagen zeigen, dass die vorgeschlagene Methode effektiv ist. Die Genauigkeit der Tiefenmessung im Arbeitsabstand von 80 mm ist besser als 0,5 mm.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-8595-7_33 80ce386f511f21a5b9b1c0f73df75d5e;de;;;5.3.;;;Kinect Sensorbasierte Einzelperson-Handgestenerkennung für die Mensch-Maschine-Interaktion Die Weiterentwicklung von Kameras und Sensoren hat eine Skyline für die Mensch-Maschine-Interaktion (MMI) geschaffen. Dieses Papier zielt darauf ab, eine verbesserte Mensch-Maschine-Interaktion durch die Handgestenerkennung einer einzelnen Person unter Verwendung des Kinect-Sensors von Microsoft vorzustellen. Mit den Skelettbildern des Sensors werden sechs Merkmale aus den Koordinaten von 20 Körpergelenken im 3D-Raum extrahiert. Zur Klassifizierung wird ein künstliches neuronales Netz mit Backpropagation-Lernalgorithmus verwendet. Die vorgeschlagene Arbeit übertrifft die aktuellen Algorithmen und führt zu einer Erkennungsrate von 97,8%.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-8687-9_13 ae190295741989f83f167f06b04530ed;de;;;5.3.;;;Mode-Koordinationssystem basierend auf Tiefenkamera-Aufnahme und virtueller Realität Die virtuelle Bekleidungssimulationssoftware spielt eine bedeutende Rolle im Digitalisierungsprozess der Bekleidungsindustrie, indem sie die 2D-Konstruktion des Systems verwendet, um die 3D-Konstruktion mit einer bestimmten Technologie zu vervollständigen. Um die Schönheit zwischen Körperform, Kleidung und Gesicht (Kopf) zu koordinieren, wird ein auf virtueller Realität basierendes Modekoordinationssystem vorgeschlagen. Es ist ein verbraucherorientiertes System, das die Entwicklungszeit hochwertiger Modeprodukte verkürzen kann. Zum einen werden die Tiefenkameras verwendet, um die Körperform und Gesichtsinformationen der auf dem großen Bildschirm stehenden Kunden zu erfassen. Dann wird eine Vielzahl von Kleidungsstücken auf dem Bildschirm angezeigt, die mit den Kunden ein erschwingliches Modekonzept bilden. Und die automatische Kollokation von Modeaccessoires und Kleidung aller Art ist zu sehen. Der Prozess erfordert keine Computer- oder Modekenntnisse. Da das System eine Rolle bei der Führung der Berufskleidung spielen kann, kann es den Benutzern durch visuelles Sehen Komfort bieten, was dazu beitragen kann, das Serviceerlebnis der Bekleidungsindustrie zu verbessern und das Potenzial des Modedesigns zu lenken.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5959-4_232 5115247e6f04365a504a255dca1d4665;de;;;5.3.;;;Campuslandschaftsgestaltung vor dem Hintergrund des Internets + Seit Beginn des neuen Jahrhunderts haben das Internet und seine umgebenden Technologien beispiellose Höhen erreicht, insbesondere die Popularität von mobilen Smartphones in den letzten 10 Jahren hat einen enormen Einfluss auf unseren Lebensstil gehabt. Vom ersten Online-Chat bis zum heutigen Internet der Dinge ist das Denken des Internets fast voll von allen Aspekten unseres Lebens. Vor diesem Hintergrund der Zeit denke ich, dass Landschaft auch intelligent und digital sein kann. Basierend auf dem traditionellen Campuslandschaftsplanungssystem verändert das Zitieren neuer Konzepte und Technologien nicht nur die Campuslandschaft auf interaktive Weise, sondern auch die traditionelle Campuslandschaft in allen Aspekten des Designmanagements. Dieses Papier stellt kurz die Anwendung der Informationstechnologie in der Campuslandschaftsgestaltung vor und fördert den Weg der ökologischen Managementtechnologie durch die Grundprinzipien der Verfolgung einer zeitgemäßen Campuslandschaftsgestaltung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5959-4_92 deed8cf0a33d8efac919460ae9457c3d;de;;;5.3.;;;Aktiver Detektionsbasierter mobiler Roboter zur Lokalisierung radioaktiver Quellen und Datenverarbeitung Angesichts des häufigen Auftretens von radioaktiven Quellenverlusten oder außer Kontrolle geratenen Ereignissen unterliegen mobile Roboter, die die manuelle Suche nach radioaktiven Quellen ersetzen, zunehmend der Marktnachfrage. In diesem Artikel wird ein mobiler Roboter entwickelt, der zur autonomen Ortung der radioaktiven Quelle eingesetzt werden kann. Ob die Nuklidinformationen der radioaktiven Quelle bekannt sind, wird das entsprechende Lokalisierungsverfahren separat ausgelegt. Da die gesammelten Daten während des Robotererkennungsprozesses Interferenzfehler aufweisen, schlägt dieser Artikel einen Filteralgorithmus vor, bei dem der Filteralgorithmus mit gleitendem Durchschnitt einen variablen Vergessensfaktor kombiniert. Simulationsergebnisse zeigen, dass der verbesserte Filteralgorithmus die Interferenzdaten in den Daten der radioaktiven Quelle besser herausfiltern kann. Die Genauigkeit der Lokalisierung der außer Kontrolle geratenen radioaktiven Quelle kann weiter verbessert werden. Der Algorithmus kann die Designanforderungen für mobile Roboter erfüllen, die Menschen bei der Suche und Lokalisierung der außer Kontrolle geratenen radioaktiven Quelle ersetzen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8450-3_33 b2e1375281e566f8065adaa572eabe39;de;;;5.3.;;;Infrarot-Nachtsicht-UAV-intelligentes Patrouillensystem mit BDS-Flugsteuerung Aufgrund der Überfischung sind die Fischereiressourcen im Jangtse in den letzten Jahren stark zurückgegangen. Dem Personalmangel und der rückständigen Ausrüstung ausgeliefert, gibt es im Kampf gegen die illegale Fischerei noch viele Mängel. Aus diesem Grund hat das gemeinsame Labor für geografische Informationstechnologie der Jiangxi Normal University und HI-TARGET ein intelligentes Infrarot-Nachtsicht-UAV-Patrouillensystem basierend auf der BDS-Flugsteuerung entwickelt. Ausgestattet mit einem Beidou-Flugkontrollsystem (BDS), einem Infrarot-Nachtsichtgerät, einem Suchscheinwerfer und einem 5G-Funkkommunikationsmodul kann das System nicht nur die typischen Probleme wie geringe Patrouilleneffizienz, schlechte Patrouillenwirkung bei Nacht, Unfähigkeit, abgelegene Gebiete zu patrouillieren und begrenzte Strafverfolgung, sondern auch Überwachungsvideos in Echtzeit zurücksenden und schnell Beweise und kriminelle Verdächtige sperren, damit der Gesetzesbrecher kein Versteck hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-3138-2_23 13d8014f8f2f8c282a65e767ef525b1f;de;;;5.3.;;;Zur Leistungsanalyse biometrischer Methoden zur sicheren menschlichen Erkennung In den letzten Jahren hat die Notwendigkeit einer sicheren und zuverlässigen Identifizierung von Personen zu einem immer schnelleren Wachstum der Entwicklung und Nachfrage biometrischer Systeme geführt. Die menschliche Erkennung ist die Technik zur Identifizierung einer Person anhand ihrer biologischen, chemischen und Verhaltensmerkmale. Das biometrische System ist ein computergestütztes automatisches System zur Feststellung der Identität der Benutzer anhand ihrer biologischen und physiologischen Merkmale. Die beliebtesten Merkmale in modernen Anwendungen sind biologische Aspekte des potenziellen Benutzers zur Identifizierung. Die Verwendung chemischer Merkmale des Menschen zur Identifizierung ist zwar genauer und zuverlässiger, aber diese sind sehr schwer zu erreichen. In diesem Papier wird die Leistung des automatischen menschlichen Erkennungssystems basierend auf verschiedenen Parametern wie Benutzerpsychologie, Benutzerfreundlichkeit, Sicherheit, Zuverlässigkeit und Marktanteil vorgestellt. Darüber hinaus werden verschiedene Analysen und Vergleiche verschiedener bemerkenswerter biometrischer Techniken in tabellarischer Form diskutiert. Es wurde beobachtet, dass diese Systeme eine Authentifizierung und Erkennung bereitstellen, aber die Sicherheit dieser Systeme auf Vorlagenebene ist auch eine der Herausforderungen für Designer.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8297-4_35 badbd8b8193077722490b1fa0d9c30c5;de;;;5.3.;;;Kopplungsmechanismus und Optimierung der THT-Bestückungsprozessparameter basierend auf einer flexiblen Lötroboterplattform In dieser Studie werden der Bestückungsprozess der Through-Hole-Technologie (THT) und das grundlegende Lötprinzip eines automatisierten flexiblen Lötroboters untersucht und die kritischen Parameter des Lötprozesses wie Löttemperatur, Lötzeit und Lötmenge, die großen Einfluss auf die Lötqualität vorgeschlagen. Auch die Bewertungsmethode der Lötqualität wird bestimmt. Dann werden unter Berücksichtigung der Kopplungsbeziehung zwischen Prozessparametern die Prozessparameterexperimente unter Verwendung der Antwortflächenmethode entworfen. Inzwischen ist das polynomielle empirische Modell etabliert, das die Beziehung zwischen kritischen Prozessparametern und der umfassenden Bewertung der Lötqualität widerspiegelt. Auf dieser Grundlage wird der Kopplungseinflussmechanismus zwischen den kritischen Lötprozessparametern auf die Lötqualität analysiert und die vierdimensionale (4D) Slice-Map des Kopplungseinflusses der Prozessparameter auf die Lötqualität erhalten. Schließlich wird auf Basis einer 4D-Slice-Map das dreidimensionale (3D) Prozessfenster des Lötprozesses zur Optimierung der kritischen Lötprozessparameter entwickelt und die Verifikationstests zur Überprüfung der Stabilität und Zuverlässigkeit des 3D-Prozessfensters durchgeführt. Die Studienergebnisse zeigen, dass für die PCB-Lötstellen dieses Experiments das optimale 3D-Prozessfenster der Lötprozessparameter ungefähr beträgt: Löttemperatur innerhalb von [350 ℃, 380 ℃], Lötzeit innerhalb von [1,3 s, 1,55 s] und Löten Zuführvolumen innerhalb von [1,7 mm;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9437-0_90 be96eed251fcdc677a708e7abc970e4b;de;;;5.3.;;;Abfangen von Benutzerinteressen im Web Gegenwärtige adaptive Systeme erfassen Informationen über Benutzer hauptsächlich durch einfaches Verfolgen von Ressourcen, die ein Benutzer angefordert hat, und durch Aufforderung an Benutzer, die benötigten Informationen bereitzustellen. In diesem Papier diskutieren wir die Benutzermodellierung basierend auf der Beobachtung der Interaktion eines Benutzers mit dem System. Wir schlagen vor, sowohl serverseitig als auch clientseitig Nutzungsdaten zu erheben. Die gesammelten Daten werden dann zu Wissen über die Absichten und Präferenzen des Benutzers verarbeitet. Diese Verarbeitung beruht auf einer Reihe von Heuristiken, die helfen, die in den gesammelten Daten gefundenen Nutzungsmuster zu interpretieren.;-;-;-;https://link.springer.com/chapter/10.1007/11768012_65 44a195a1ca4bc5ac81b0411dc56c781c;de;;;5.3.;;;Teilweise bekannter Informationsangriff auf das SM2-Schlüsselaustauschprotokoll Das SM2-Schlüsselaustauschprotokoll ist ein Teil des auf elliptischen Kurven basierenden SM2-Kryptografiealgorithmus mit öffentlichem Schlüssel, der seit 2010 von der chinesischen staatlichen Kryptografieverwaltung herausgegeben wird. Unter der Anleitung der chinesischen Regierung wurde SM2 in chinesischen kommerziellen Anwendungen weit verbreitet. Dieses Papier beschreibt den ersten teilweise bekannten Informationsangriff auf das SM2-Schlüsselaustauschprotokoll. Unser Angriff basiert auf einer vom Hidden Number Problem (HNP) modifizierten Technik, die ursprünglich eingeführt wurde, um die Bitsicherheit von Diffie-Hellman und verwandten Schemata zu untersuchen. Wir präsentieren einen Polynomial-Time-Algorithmus, der den geheimen Schlüssel des Benutzers wiederherstellen könnte, wenn etwa die Hälfte der niederwertigsten Bits der beiden unbekannten Zwischenwerte in jeder Kongruenz über etwa 30 bis 40 Instanzen gegeben wird. Im Vergleich zum Standard-HNP behandelt unser Ansatz die Kongruenz zweier unabhängiger unbekannter Variablen, von denen jede die gleiche Größe wie der geheime Schlüssel besitzt. Darüber hinaus stimmen unsere Ergebnisse fast mit dem vorherigen besten Ergebnis im selben Feld überein, wenn man den Extremfall berücksichtigt, in dem eine Variante vollständig aufgedeckt wird.;-;-;-;https://link.springer.com/article/10.1007/s11432-018-9515-9 12ec22aaead1d5ab124fe0845ab5bc88;de;;;5.3.;;;Design it like Darwin – Eine wertbasierte Anwendung evolutionärer Algorithmen für die richtige und eindeutige Neugestaltung von Geschäftsprozessen Business Process Management (BPM) ist eine anerkannte Quelle der Unternehmensleistung. Trotz des ausgereiften Wissens wird die computergestützte Unterstützung als hoch relevante Forschungslücke für die Neugestaltung von Geschäftsprozessen angesehen. Daher wendet dieses Papier evolutionäre Algorithmen (EAs) an, die auf konzeptioneller Ebene den BPM-Lebenszyklus – den beliebtesten BPM-Ansatz – nachahmen, indem sie den Status quo inkrementell verbessern und den Kompromiss zwischen der Aufrechterhaltung leistungsfähiger Designstrukturen und der kontinuierlichen Weiterentwicklung überbrücken neue Entwürfe. Beginnend mit der Beschreibung von Prozesselementen und ihren Eigenschaften in Matrizen, um Prozessinformationen zu aggregieren, verarbeitet der EA diese Informationen und kombiniert die Elemente zu neuen Designs. Diese Entwürfe werden dann von einer Funktion aus dem wertorientierten Management bewertet. Dieses ökonomische Paradigma reduziert Designs auf ihren Wertbeitrag und ermöglicht eine objektive Priorisierung. Insgesamt ergibt unser Dreiklang aus Managementwissenschaft, BPM und Wirtschaftsinformatik ein vielversprechendes Werkzeug für die Prozess-Neugestaltung und vermeidet subjektive Unschärfen, die aktuellen Redesign-Projekten innewohnen.;-;-;-;https://link.springer.com/article/10.1007/s10796-016-9715-1 e788c45324f3860463134fba3eff3fb8;de;;;5.3.;;;Entwicklungsbedarfs- und Trendanalyse von Train Intelligence Dieses Papier beschreibt die Bedarfs- und Trendanalyse der Entwicklung von Zugintelligenz. Zunächst werden die Hintergründe der Branche vorgestellt und die jüngsten Entwicklungen von Intelligent in Schienenfahrzeugen im Ausland besprochen. Zweitens werden die Innovationschancen durch die Entwicklung intelligenter Technik in der neuen Ära, die Entwicklung umfassender Verkehrssysteme und die Anforderungen der Nutzer an Züge diskutiert. Die zukünftige Entwicklung intelligenter Züge wird in drei Aspekten adressiert: Zugbetrieb, Wartung und Service werden ebenfalls in diesem Beitrag mit Schwerpunkt auf den Merkmalen Wahrnehmung, Steuerung, Ausdruck, Reaktion und Interaktion diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2866-8_42 452eeb5cf88bd4f7afd7db36d5e7d647;de;;;5.3.;;;Segmentieren Sie medizinisches Bild unter Verwendung von U-Net, indem wiederkehrende Reste und Aufmerksamkeit kombiniert werden Die Segmentierung medizinischer Bilder ist der Schlüssel, um die Frage nach medizinischen Bildern in der klinischen Praxis zu entscheiden, die eine zuverlässige Grundlage bieten können. Die Entwicklung der medizinischen Bildsegmentierungstechnologie beeinflusst nicht nur die Entwicklung anderer verwandter Technologien in der medizinischen Bildverarbeitung, wie beispielsweise die Visualisierung der 3D-Rekonstruktion, sondern nimmt auch bei der Analyse biomedizinischer Bilder eine äußerst wichtige Stellung ein. Mit der Anwendung von Deep-Learning-Algorithmen in der medizinischen Bildsegmentierung hat die medizinische Bildsegmentierungstechnologie erhebliche Fortschritte gemacht. In diesem Artikel diskutieren wir die Segmentierungsmethode von medizinischen 2D-Bildern über das U-Netz-Variantennetzwerk. Verwenden Sie das U-Net-Combining-Modell für wiederkehrende Reste und das Aufmerksamkeitsmodell, um das Bild zu segmentieren und bessere Ergebnisse zu erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5199-4_8 cb3e74e3b3499458dabf05d1f14ba2cf;de;;;5.3.;;;PRSSDF: Page-Rank-spezifisches Diskussionsforum für Studenten Web-Mining wird als eine Anwendung der Data-Mining-Technik betrachtet, die das Web, Webbenutzer und Webforen umfasst. In der heutigen Zeit sind ODF (Online-Diskussionsforen) eine gängige und gut integrierte webbasierte Plattform für Menschen, um zu interagieren, sich zu treffen und verschiedene Themen zu diskutieren. An einer Universität ist die Interaktion zwischen Lehrenden und Studierenden von größter Bedeutung. Frühere Arbeit basiert auf der persönlichen Interaktion zwischen Studenten und Mitarbeitern. Zwischen der Fakultät und den Studierenden findet ein Austausch wichtiger Informationen statt, die zeitlich und räumlich gesteuert und kontrolliert werden können. Es gibt bestimmte wichtige Informationen (können allgemein oder fachbezogen sein), die Studierende möglicherweise bereitstellen möchten und die vom Dozenten nicht für einen bestimmten Zeitraum eingeschränkt werden können zu dem Schüler. Die aktuelle Arbeit schlägt SDF-Studentendiskussionsforum vor, das eine asynchrone Kommunikation ist, die entweder Schüler-Studenten- oder Schüler-Mitarbeiter-Interaktionen beinhaltet, um Schülerfragen zu allen Fächern zu lösen oder Informationen bereitzustellen, um die Fähigkeiten der Schüler zu improvisieren. Für das Ranking des Studentenbenutzerprofils im Studentendiskussionsforum wird der Pagerank-Algorithmus verwendet. Der Page-Ranking-Algorithmus (eine Technik des maschinellen Lernens) kann große Datenmengen effektiv einstufen. Gemäß der Ergebnisanalyse ist der vorgeschlagene Page-Ranking-Algorithmus im Vergleich zu den anderen Techniken in der Leistung besser. Durch diese Forschung wird die Interaktion mit dem gesamten Team auf dem Campus erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1420-3_111 17b4700d18bd85da5708ddbcdb9c70b9;de;;;5.3.;;;Anwendung wissenschaftlicher Ansätze zur Bewertung der Qualität von Lernobjekten im eQNet-Projekt Die Arbeit zielt darauf ab, die Anwendung verschiedener wissenschaftlicher Ansätze, Methoden und Prinzipien zur Bewertung der Qualität von Lernobjekten für das Fach Mathematik zu analysieren. Die Autoren analysieren die folgenden Ansätze zur Minimierung des Subjektivitätsniveaus bei der Expertenbewertung der Qualität von Lernobjekten, nämlich: (1) Prinzipien der Mehrkriterien-Entscheidungsanalyse zur Identifizierung von Qualitätskriterien, (2) Klassifikationsprinzip der technologischen Qualitätskriterien, (3) Fuzzy Gruppenentscheidungstheorie, um Bewertungsmaße zu erhalten, (4) Normierungsanforderung für Kriteriengewichte und (5) Skalarisierungsverfahren zur Qualitätsoptimierung von Lernobjekten. Ein weiteres Ziel des Beitrags ist es, die zentrale Rolle von Social Tagging zu skizzieren, um Nutzung, Aufmerksamkeit und andere Aspekte des Kontexts zu beschreiben, sowie zu helfen, Kontextdaten zu nutzen, um Lernobjekt-Repositorys nützlicher zu machen und so die Wiederverwendung zu verbessern. Die angewandten Ansätze wurden bei der Umsetzung europäischer eQNet- und te@ch.us-Projekte in litauischen Gesamtschulen im Jahr 2010 praktisch zur Evaluation von Lernobjekten und Metadaten-Tagging eingesetzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16318-0_37 8486d64a84851662387f8ad97ae0fbad;de;;;2.4.;;;Städtischer Stoffwechsel basierend auf einem Emergy- und Slack-basierten Modell: Eine Fallstudie aus Peking, China Der Schlüssel zur Erforschung der nachhaltigen Stadtentwicklung liegt in der Quantifizierung von Speichern, der Effizienz des städtischen Stoffwechsels und der Erfassung der Mechanismen des städtischen Stoffwechsels. Dieses Papier baut das metabolische Emergy Account auf und quantifiziert einige wichtige Konzepte von Emergy Stores. Der Schwerpunkt liegt auf dem urbanen Stoffwechselmodell, das auf der Slack Based Model (SBM)-Methode basiert, um die städtische Stoffwechseleffizienz zu messen. Urbane Stoffwechselmechanismen werden mit Hilfe der Regressionsmethode diskutiert. Durch die Integration dieser Modelle analysiert dieser Beitrag die städtische Stoffwechselentwicklung in Peking von 2001 bis 2010. Wir kommen zu dem Schluss, dass die metabolischen Emergy Stores von Peking von 2001 bis 2010 deutlich zugenommen haben, wobei der Großteil des Anstiegs auf importierte Emergie zurückzuführen ist. Die Stoffwechseleffizienz in Peking hat sich seit den Olympischen Spielen 2008 verbessert. Bevölkerung, Wirtschaftswachstum, Industriestrukturen und Umweltpolitik wirken sich positiv auf den gesamten städtischen Stoffwechsel aus, während Landausdehnung, Urbanisierung und umwelttechnisches Niveau die Verbesserung der städtischen Stoffwechseleffizienz behindern. Die SBM-Stoffwechselmethode und das auf der Emergieanalyse basierende Regressionsmodell geben Einblicke in die urbane Stoffwechseleffizienz und den Mechanismus. Sie können dafür werben, solche Konzepte in ihre Nachhaltigkeitsanalysen und politischen Entscheidungen zu integrieren.;-;-;-;https://link.springer.com/article/10.1007/s11769-014-0680-7 5df5fd087e0aa0bf78e10086ce060d61;de;;;5.3.;;;Datenkommunikationssystem mit hoher Redundanz basierend auf dem LwIP-Protokollstapel In diesem Beitrag wird ein Kommunikationssystem basierend auf dem LwIP-Protokollstapel vorgeschlagen, das Daten mit hoher Redundanz verarbeiten und übertragen kann. Dieses System besteht aus einer oberen Computerschicht, einer mittleren Serverschicht und einer unteren Sensorschicht, um die Anforderungen der IoT-Datenübertragung zu erfüllen. Die mittlere Serverschicht ist so eingerichtet, dass sie ein ISR-Fenster (Interrupt Service Routines) steuert, um die Anfrage von der unteren Sensorschicht zu beantworten und Daten zu sammeln. Die Schlüsseldaten werden gemäß dem Datenfilterungsalgorismus extrahiert. Die gekapselten Daten werden über die Netzwerkschnittstelle basierend auf dem LwIP-Protokollstack auch in der mittleren Serverschicht an die obere Computerschicht übertragen. Dieses System kann nicht nur die Redundanz von Daten im IoT und die Belegung von Systemressourcen reduzieren, sondern verbessert auch die Echtzeitleistung des IoT-Kommunikationssystems.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6318-2_18 f8e7a335c6744a8e7eae4be509eadad5;de;;;5.3.;;;Softwareverifizierung und -validierung des digitalen Nuklearinstrumentierungssystems Mit der Popularität digitaler elektronischer Instrumente wird der sicherheitsrelevanten Softwarequalität immer mehr Aufmerksamkeit geschenkt. RPN (Nuclear Instrumentation System) ist ein Schutzsystem der Klasse 1E. RPN soll eine Momentaufnahme der Neutronenaktivität im Reaktorkern liefern. RPN liefert die Momentaufnahme in allen Betriebsphasen, vom Start über die volle Leistung bis hin zu Situationen nach einem Unfall. Um die Zuverlässigkeit der Software des digitalen RPN zu verifizieren, werden die Software-Verifizierungs- und Validierungsaktivitäten gemäß HAD102/16-2004 und IEC60880-2006 durchgeführt. Die Aktivitäten umfassen die Erstellung eines Software-Verifizierungs- und Validierungsplans, die Bestimmung des Software-Lebenszyklusmodells, die Überprüfung der Systemspezifikation, die Überprüfung der Softwareanforderungen, die Überprüfung des Softwaredesigns, die Analyse der Coderegel, die Durchführung des Software-Komponententests, die Durchführung des Softwareintegrationstests und die Durchführung des Validierungstests. Diese Arbeiten zeigen, dass die Zuverlässigkeit der Software des RPN den Anforderungen von HAD102/16-2004 und IEC60880-2006 entspricht und die Leistung den Anforderungen der technischen Spezifikationen entspricht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1876-8_32 726a505b011dd9dd08f97e33d6c9a9f9;de;;;2.4.;;;Entwicklung von Systemen zur schnellen Modellierung der Teamneurodynamik Kognitive neurophysiologische Synchronien (NS) sind ein aus EEG-Messungen abgeleiteter Low-Level-Datenstrom, der nahezu in Echtzeit und unter realistischen Bedingungen gesammelt und analysiert werden kann. Wir verwenden NS, um Systeme zu entwickeln, die den funktionalen Status eines Teams schnell bestimmen können, mit dem Ziel, die Qualität der Leistung / Entscheidungen eines Teams beurteilen zu können und die Team- oder Aufgabenkomponenten adaptiv neu anzuordnen, um das Team besser zu optimieren. EEG-abgeleitete Messungen des Engagements von Mitgliedern des U-Boot-Piloten- und Navigationsteams wurden normalisiert und Muster durch selbstorganisierende künstliche neuronale Netze und Hidden-Markov-Modelle klassifiziert. Der zeitliche Ausdruck dieser Muster wurde auf Teamereignisse abgebildet und mit der Häufigkeit der Rede der Teammitglieder in Beziehung gesetzt. Standardisierte Modelle wurden unter Verwendung gepoolter Daten mehrerer Teams erstellt und verwendet, um die NS-Expression zwischen Teams, Schulungssitzungen und Kompetenzniveaus zu vergleichen. Diese Modelle wurden auch in Softwaresysteme integriert, die dem Team nach dem Training schnell (Minuten) Feedback geben und einen Rahmen für die zukünftige Echtzeitüberwachung bieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21852-1_42 a071fc0ee43833d4545098942af40f29;de;;;2.4.;;;Synthese von eingeschränkten Mustern kreisförmiger Arrays unter Verwendung des Algorithmus zur Optimierung sozialer Gruppen In diesem Artikel wird ein neuartiger Algorithmus zur Optimierung sozialer Gruppen (SGOA) verwendet, um ein Strahlungsmuster mit einem Nebenkeulenniveau (SLL) zu erzeugen, das so niedrig ist wie dasjenige, das mit der Gleichverteilungsmethode mit der entsprechenden Strahlbreite (BW) als Einschränkung erhalten wird. Die SGOA hat eine sehr einfache Struktur in zwei Phasen. Die Technik hat keine komplexen mathematischen Schritte. Das simulationsbasierte Experimentieren wird für drei verschiedene Arten von linearen Array-Größen wiederholt und die Ergebnisse in Bezug auf SLL & BW werden analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9690-9_48 dc48c98077ed8868633248718ac8bbc3;de;;;2.4.;;;Klinische und wirtschaftliche Auswirkungen einer einjährigen Behandlung mit Omalizumab bei Patienten mit schwerem allergischem Asthma im Rahmen eines Arzneimittelprogramms in Polen Allergisches Asthma ist der häufigste Phänotyp von schwerem Asthma, bei dem sich eine Behandlung mit Omalizumab (OMB) als besonders vorteilhaft erwiesen hat. In Polen ist die OMB-Therapie verfügbar und wird im Rahmen eines Arzneimittelprogramms erstattet, in dem strenge Ein- und Ausschlusskriterien definiert sind.;-;-;-;https://link.springer.com/article/10.1186/s12890-018-0610-z dcbe68282c72360c77e88dcbddf95888;de;;;5.3.;;;Wissenschaftliche Kooperation Engineering Interdisziplinäres Wissen innerhalb von Forschungseinrichtungen und für externe Stakeholder verfügbar machen In diesem Beitrag stellen wir das Scientific Cooperation Portal (SCP), eine Social Enterprise Software, vor und wie es in unseren Prozess des Scientific Cooperation Engineering integriert ist. Dieses Verfahren wird in einem großen interdisziplinären Forschungscluster angewandt, um den Erfolg der interdisziplinären Zusammenarbeit von über 180 Wissenschaftlerinnen und Wissenschaftlern unterschiedlicher Qualifikationsstufen sicherzustellen und zu steuern. Wir untersuchen den Einfluss geteilter Methodenkompetenzen als beispielhaften Treiber für Zusammenarbeit. Aus den Ergebnissen adressieren wir sowohl Offline- als auch Online-Maßnahmen zur Verbesserung der interdisziplinären Zusammenarbeit. Wir zeigen, wie das aus Offline-Maßnahmen wie Kolloquien generierte Wissen in das SCP überführt und mit weiteren auf dem Portal verfügbaren Daten verknüpft wird. Dazu gehört der Umgang mit interdisziplinären Terminologien, die Entsorgung von Publikationen und Technologiedatenblättern. Das Portal fördert den Wissensaustausch und die interdisziplinäre Sensibilisierung innerhalb des Forschungsclusters sowie die Technologieverbreitung sowohl innerhalb des Clusters, der Universität als auch in der Industrie. Die Wirksamkeit des Ansatzes wird kontinuierlich anhand eines traditionellen Balanced-Scorecard-Ansatzes sowie zusätzlicher qualitativer Maßnahmen wie Interviews und Fokusgruppen überprüft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-42620-4_18 f0638d3b0282960e1cca5d538decfc8b;de;;;5.3.;;;Automatische Verhaltensanalyse in Tag-Spielen: von traditionellen Räumen bis hin zu interaktiven Spielplätzen Tag ist ein beliebtes Spielplatzspiel für Kinder. Es dreht sich um Tagger, die Läufer jagen und dann markieren, woraufhin ihre Rollen wechseln. Es gibt viele Variationen des Spiels, die darauf abzielen, Kinder zu beschäftigen, indem sie ihnen Herausforderungen und verschiedene Arten von Gameplay bieten. Wir argumentieren, dass die Einführung von Sensor- und Bodenprojektionstechnologie auf dem Spielplatz sowohl Abwechslung als auch Herausforderung bieten kann. Dazu müssen wir das Verhalten der Spieler auf dem Spielplatz verstehen und die Interaktionen über Projektionen entsprechend steuern. In diesem Artikel analysieren wir zunächst das Verhalten von Taggern und Läufern in einem traditionellen Tag-Setting. Wir konzentrieren uns auf Verhaltenshinweise, die sich zwischen den beiden Rollen unterscheiden. Darauf aufbauend präsentieren wir ein probabilistisches Rollenerkennungsmodell. Anschließend wechseln wir zu einer interaktiven Umgebung und evaluieren das Modell auf Tag-Sitzungen in einem interaktiven Tag-Playground. Unser Modell erreicht eine Genauigkeit von 77,96 %, was die Machbarkeit unseres Ansatzes demonstriert. Wir identifizieren mehrere Verbesserungsmöglichkeiten. Diese sollen schließlich zu einem tieferen Verständnis dessen führen, was auf dem Spielplatz passiert, nicht nur in Bezug auf die Spielerrollen, sondern auch, wenn das Spiel zusammenbricht, beispielsweise wenn Spieler sich langweilen oder betrügen.;-;-;-;https://link.springer.com/article/10.1007/s12193-016-0211-1 83303f28622eff5711b7208079ecb7b5;de;;;5.3.;;;Kombinieren von ConvNets mit handgefertigten Funktionen zur Aktionserkennung basierend auf einem HMM-SVM-Klassifikator Dieses Papier schlägt einen neuen Rahmen für die RGB-D-basierte Aktionserkennung vor, der die Vorteile von handgestalteten Merkmalen aus Skelettdaten und tief erlernten Merkmalen aus Tiefenkarten nutzt und sowohl lokale als auch globale zeitliche Informationen effektiv nutzt. Insbesondere werden Tiefen- und Skelettdaten zunächst für Deep Learning erweitert und die Erkennung unempfindlich gegenüber Ansichtsvarianzen. Zweitens werden Tiefensequenzen unter Verwendung der handgefertigten Merkmale basierend auf dem Bewegungshistogramm der Skelettgelenke segmentiert, um die lokal-zeitlichen Informationen auszunutzen. Alle Trainingssegmente werden unter Verwendung eines Infinite Gaussian Mixture Model (IGMM) durch Bayessche Schätzung geclustert und für das Training von Convolutional Neural Networks (ConvNets) auf den Tiefenkarten gekennzeichnet. Somit kann eine Tiefensequenz zuverlässig in eine Sequenz von Segmentetiketten codiert werden. Schließlich wird die Sequenz von Labels in einen gemeinsamen Hidden-Markov-Modell- und Support-Vektor-Maschinen-Klassifizierer (HMM-SVM) eingespeist, um die globalen zeitlichen Informationen für die endgültige Erkennung zu untersuchen. Das vorgeschlagene Framework wurde anhand der weit verbreiteten MSRAction-Pairs, MSRDailyActivity3D und UTD-MHAD-Datensätze evaluiert und erzielte vielversprechende Ergebnisse.;-;-;-;https://link.springer.com/article/10.1007/s11042-017-5335-0 e4dcbf3cf7ff852963384031a0ad914e;de;;;5.3.;;;Auf dem Weg zur Verbesserung der Industrie in der Fertigung mit DMAIC Heute, die beschleunigte Entwicklung von Industrie 4.0 und das Eintauchen in Technologien mit der DMAIC-Methodik, ermöglicht Lean Manufacturing eine höhere Produktivität und kontinuierliche Verbesserung industrieller Prozesse. Es gibt unzählige produzierende Unternehmen, von denen nur sehr wenige in Technologie und Methoden investiert haben, sodass sie sich nicht darauf vorbereiten konnten, im gleichen Tempo wie die industrielle Revolution voranzukommen. Diese Forschung schlägt vor, Verbesserungen bei der Herstellung von Möbeln durch die Anwendung von Softwaretools und Methoden wie DMAIC einzubeziehen, die aus der Kombination der Anwendung einiger Tools wie Lean, visuellem Management und standardisierter Arbeit bestehen. Als Fallstudie, die wir auf die Herstellung von Möbeln angewendet haben, zeigten die Ergebnisse, dass durch den Einsatz von DMAIC- und Simulationstools neben der Optimierung und Reduzierung von Ausschuss eine signifikante Produktionssteigerung bei einer Verkürzung der Lieferzeit erreicht wurde. Diese Forschung kann als Referenz für zukünftige Studien zu Herstellungsprozessen bei der Anwendung von DMAIC, Lean Manufacturing und Simulationssoftware dienen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-59194-6_28 e06d973f7714ef515efc7bb846126246;de;;;5.3.;;;Ein Framework für Datenspeichersicherheit in der Cloud Cloud Computing ist das wachsende Computermodell und die stark nachgefragte Technologie, die digitale Dienste über das Internet bereitstellt. Die Cloud verfügt über einen riesigen virtuellen Speicher, in dem viele Benutzer ihre Daten speichern. Daher ist die Auswahl effizienter und sicherer Server aus Rechenzentren für die Speicherung der Daten wichtig, um die Verfügbarkeit und Sicherheit zu erreichen. Die Sicherheit der Daten vor unbefugtem Zugriff ist ebenfalls obligatorisch. Kryptografische Techniken werden auch verwendet, um die Daten zu schützen, indem sie in verschlüsselter Form in der Cloud gespeichert werden. Viele kryptografische Algorithmen, die auf Attributen, Vorhersagen und Identität basieren, können aufgrund verschiedener Sicherheitsangriffe bis zu einem gewissen Grad mangelhaft sein. Es besteht daher die Notwendigkeit, geschützte Datenspeicher-Frameworks zu entwickeln, die die Sicherheit der Daten gewährleisten. In dieser vorgeschlagenen Arbeit wurde ein Sicherheitsrahmen für Cloud-Speicher vorgestellt, der auf dem metaheuristischen Ansatz „modifizierter Kuckucksalgorithmus“ für die Serverauswahl, dreistufige Authentifizierung, ECC für Vertraulichkeit und CMA-ES für die Chiffriertextoptimierung basiert. Das vorgeschlagene Modell gewährleistet die Verfügbarkeit, Authentifizierung, Vertraulichkeit und Sicherheit der Daten beim Zugriff auf die Cloud.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8360-0_25 aabdba9f18b294b47ee0b26da70a0d28;de;;;5.3.;;;Mining aufkommender Muster von PIU aus computervermittelten Interaktionsereignissen Es ist fast 20 Jahre her, dass Internetdienste zu einem festen Bestandteil unseres Lebens geworden sind. Insbesondere durch die jüngste Popularisierung von SNS (Social Network Services) wie Facebook werden immer mehr Menschen vom Internet angezogen. Das Internet bietet den Menschen viele Vorteile, führt jedoch zu einem beunruhigenden Phänomen der Internetbesessenheit, das in der Wissenschaft als PIU (Pathological Internet Use) oder IAD (Internet Addiction Disorder) bezeichnet wird. PIU oder IAD haben negative Auswirkungen auf die Gesundheit von Geist und Körper, daher ist es notwendig, PIU zu erkennen. Da der Computer das am weitesten verbreitete interaktive Medium ist, ist es unter den Tools zum Surfen im Internet wichtig, PIU-Muster aus Mensch-Computer-Interaktionsereignissen zu ermitteln. Als Ergebnis wird in diesem Papier eine neue Pattern-Mining-Methode vorgeschlagen, die auf interaktiven Ereignisgeneratoren basiert, genannt PIU-Miner. Experimentelle Ergebnisse zeigen, dass PIU-Miner ein effizienter und effektiver Ansatz zur Entdeckung von PIU ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55192-5_6 02dd816d9904f72124f7a1a0f4fa308c;de;;;2.4.;;;Computersimulationsgenerierung des humanisierten Musik-Timbres Mit der rasanten Entwicklung der Computertechnologie und der elektronischen Technologie wurden Computer weit verbreitet und durchdrangen alle Bereiche unseres Lebens. Die Computermusikgeneration ist ein interdisziplinäres Fach der Informationswissenschaft und Kunst. Die Computererkennung und das intelligente Erschaffen von Musik gehören zu den grundlegenden Zielen der Computermusik, aber unser Verständnis und unsere Forschung zu diesem Aspekt stehen noch am Anfang. Mit dem Aufkommen der Multimedia-Technologie wurden der Entwicklung von Ton und Musik neue Möglichkeiten eröffnet. Musik ist ein unverzichtbarer Bestandteil des Lebens der Menschen, und die Nachfrage nach Musik in unserer heutigen Gesellschaft nimmt allmählich zu, aber die traditionellen manuellen Methoden der Musikerzeugung waren schwierig, die aktuellen gesellschaftlichen Bedürfnisse zu befriedigen. Es ist ein allgemeiner Trend, Computer zu verwenden, um neue Musik zu erstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1468-5_172 364489ba779b869196269d4a7aa6cc15;de;;;2.4.;;;Unterstützung der Systemorchestrierung für einen kollaborativen Blended-Learning-Flow Tragbare und interaktive Technologien verändern das Wesen kollaborativer Lernpraktiken und eröffnen neue Möglichkeiten für computergestütztes kollaboratives Lernen (CSCL). Jetzt können Aktivitäten innerhalb und außerhalb des Klassenzimmers kombiniert und integriert werden, was zu einer neuen Art komplexer kollaborativer Blended-Learning-Szenarien führt. Diese Szenarien zu organisieren und zu strukturieren ist jedoch eine Herausforderung und stellt eine Arbeitsbelastung für Praktiker dar, die die Einführung dieser technologiegestützten Praktiken behindert. Als Ansatz zur Verringerung dieser Arbeitsbelastung schlägt dieses Papier einen Machbarkeitsnachweis einer technologischen Lösung vor, um die Einschränkungen zu überwinden, die in einer Analyse eines tatsächlichen kollaborativen Blended-Learning-Experiments in einer früheren Studie festgestellt wurden. Die Lösung besteht aus einer Lerneinheit, die mit IMS Learning Design instanziiert und durch ein Generic Service Integration System ergänzt wird. In diesem Kapitel wird auch erörtert, inwieweit die vorgeschlagene Lösung die in der vorherigen Studie festgestellten Einschränkungen abdeckt und wie nützlich sein könnte, um den Orchestrierungsaufwand in zukünftigen Erfahrungen zu reduzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28586-8_2 842ba861601f58bed41e756f580ae99c;de;;;2.4.;;;Force-Feedback-Kopplung mit Dynamik zur physikalischen Simulation der Produktmontage und des Betriebsverhaltens Die meisten bestehenden Force-Feedback-Verfahren sind noch immer schwer den Anforderungen der Echtzeit-Kraftberechnung in der virtuellen Montage und im Betrieb mit komplexen Objekten gerecht zu werden. Darüber hinaus wird oft angenommen, dass die kontrollierten Objekte völlig frei sind und das Zielobjekt nur vollständig fixiert oder frei ist, so dass die Dynamik der kinematischen Kette, in der sich die kontrollierten Objekte befinden, bei der physikalischen Simulation der Produktmanipulation vernachlässigt wird mit Force-Feedback-Interaktion. Dieses Papier schlägt eine physikalische Simulationsmethode der Produktmontage und Betriebsmanipulation vor, die auf einem statistisch erlernten Kontaktkraftvorhersagemodell und der Kopplung von Kraftrückkopplung und Dynamik basiert. In der vorgeschlagenen Methode wird basierend auf dem Hidden-Markov-Modell (HMM) und dem lokalen Gewichtungslernen (LWL) ein Kontaktkraftvorhersagemodell konstruiert, das die Kontaktkraft während der Interaktion in Echtzeit schätzen kann. Basierend auf einem Rechenlastausgleichsmodell werden die Rechenressourcen dynamisch zugewiesen und der dynamische Integralschritt wird optimiert. Außerdem wird an den Synchronisationspunkten ein Glättungsprozess an der Kraftrückkopplung durchgeführt. Folglich können wir die Kopplungs- und Synchronisationsprobleme von Hochfrequenz-Feedback-Kraftservos, Niederfrequenzdynamik-Solver-Servos und Szenen-Rendering-Servos lösen und ein hochstabiles und genaues Force-Feedback bei der physikalischen Simulation der Produktmontage und Betriebsmanipulation realisieren. Diese Forschung schlägt eine physikalische Simulationsmethode der Produktmontage und Betriebsmanipulation vor.;-;-;-;https://link.springer.com/article/10.3901/CJME.2014.1020.158 babc6d16a7cc5d8e67277fb64930a1e1;de;;;2.4.;;;Unterstützung von Audits und Bewertungen in Umgebungen mit mehreren Modellen Softwareentwicklungsorganisationen verwenden mehrere Verbesserungstechnologien, um Verbesserungsbemühungen zu leiten. Ein neuer Trend ist die gleichzeitige Übernahme von CMMI- und ISO-Modellen in eine einzige Umgebung, die Prozesslösungen mit mehreren Modellen hervorbringt. Einige dieser Modelle behandeln ähnliche Problembereiche und haben ähnliche Qualitätsziele. Die Wiederverwendung von organisatorisch implementierten Praktiken ist eine Gelegenheit, die Einhaltung mehrerer Modelle zu gewährleisten und die Implementierungskosten zu senken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21843-9_8 391ffc8773134020671a3cb90f4eff90;de;;;5.3.;;;Datengesteuerte Vorhersage von Benutzerbeschwerden für mobile Zugangsnetze In diesem Beitrag stellen wir ein System zur Vorhersage von Benutzerbeschwerden für mobile Zugangsnetze vor, das auf Netzwerküberwachungsdaten basiert. Durch die Anwendung von Modellen für maschinelles Lernen kann das vorgeschlagene System Benutzerbeschwerden mit Netzwerkleistungsindikatoren, Alarmberichten datengesteuert in Beziehung setzen und die Beschwerdeereignisse in einem feinkörnigen räumlichen Bereich innerhalb eines bestimmten Zeitfensters vorhersagen. Das vorgeschlagene System nutzt mehrere spezielle Designs, um der Spezialität der Reklamationsvorhersage gerecht zu werden. Reklamationsbursts werden unter Verwendung von linearer Filterung und Schwellenwerterkennung extrahiert, um die verrauschte Fluktuation in rohen Reklamationsereignissen zu reduzieren. Es wird auch ein Fuzzy-Gridding-Verfahren vorgeschlagen, um die Ungenauigkeit an verbal beschriebenen Beschwerdestellen aufzulösen. Darüber hinaus kombinieren wir Up-Sampling mit Down-Sampling, um der starken Schiefe gegenüber negativen Proben entgegenzuwirken. Das vorgeschlagene System wird anhand eines realen Datensatzes evaluiert, der von einem großen chinesischen Mobilfunkbetreiber gesammelt wurde, wobei Ereignisse aufgrund von Reklamationsausbrüchen nur etwa 0,3% aller aufgezeichneten Ereignisse ausmachen. Die Ergebnisse zeigen, dass unser System 30 % der Reklamationsausbrüche 3 h im Voraus mit mehr als 80 % Präzision erkennen kann. Dadurch wird ein entsprechender Anteil an Erlebnisqualitätsverbesserung erreicht, wenn alle prognostizierten Reklamationsereignisse durch eine ordnungsgemäße Netzwerkwartung im Voraus behandelt werden können.;-;-;-;https://link.springer.com/article/10.1007/s41650-018-0025-2 f80548408de58ef02ffc7f30895af8df;de;;;5.3.;;;Smartphone-basierte Erkennung menschlicher Aktivitäten mit CNN im Frequenzbereich Human Activity Recognition (HAR) basierend auf Smartphone-Sensoren bietet eine effiziente Möglichkeit, den Zusammenhang zwischen menschlichen körperlichen Aktivitäten und Gesundheitsproblemen zu untersuchen. In diesem Artikel sind drei Merkmalssätze beteiligt, darunter vom Gyroskopsensor erfasste dreiachsige Winkelgeschwindigkeitsdaten, vom Beschleunigungsmessersensor erfasste dreiachsige Gesamtbeschleunigungsdaten und die geschätzten dreiachsigen Körperbeschleunigungsdaten. Die FFT-Komponenten der drei Feature-Sets werden verwendet, um Aktivitäten in sechs Typen zu unterteilen, wie Gehen, Aufwärtsgehen, Abwärtsgehen, Sitzen, Stehen und Liegen. Für HAR wurden zwei Arten von CNN-Architekturen entwickelt. Die eine ist Architektur A, bei der nur ein Satz von Merkmalen auf der ersten Faltungsschicht kombiniert wird, und die andere ist Architektur B, bei der zwei Sätze von Merkmalen auf der ersten Faltungsschicht kombiniert werden. Der Validierungsdatensatz wird verwendet, um die Iterationsnummer während des Trainingsprozesses automatisch zu bestimmen. Es wird gezeigt, dass die Leistung von Architektur B im Vergleich zu Architektur A besser ist. Und die Architektur B wird weiter verbessert, indem die Anzahl der Merkmalsabbildungen auf jeder Faltungsschicht variiert wird und diejenige ausgewählt wird, die das beste Ergebnis liefert. Im Vergleich zu fünf anderen HAR-Methoden, die CNN verwenden, könnte die vorgeschlagene Methode eine bessere Erkennungsgenauigkeit von 97,5 % für einen UCI-HAR-Datensatz erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-01298-4_10 3f1dae41cffb23d529cc13d005877e54;de;;;5.3.;;;Verfolgen von Fehlern in probabilistischen Datenbanken basierend auf dem Bayesschen Netzwerk Daten in probabilistischen Datenbanken sind möglicherweise nicht absolut korrekt, und schlimmer noch, sie können fehlerhaft sein. Viele existierende Methoden zur Datenbereinigung können verwendet werden, um Fehler in traditionellen Datenbanken zu erkennen, aber sie reichen nicht aus, um Fehler in probabilistischen Datenbanken zu finden, insbesondere bei Datenbanken mit komplexen Korrelationen zwischen Daten. In diesem Papier schlagen wir eine Methode zum Aufspüren von Fehlern in probabilistischen Datenbanken vor, indem wir das Bayessche Netzwerk (BN) als Rahmen für die Darstellung der Korrelationen zwischen den Daten verwenden. Wir entwickeln zunächst die Techniken, um ein erweitertes Bayes-Netzwerk (ABN) für eine anomale Abfrage zu konstruieren, um Korrelationen zwischen Eingabedaten, Zwischendaten und Ausgabedaten bei der Abfrageausführung darzustellen. Inspiriert durch den Schuldbegriff in Kausalmodellen definieren wir dann einen Schuldbegriff für Fehler beim Ranking von Kandidaten. Als nächstes stellen wir ein effizientes Verfahren zum Berechnen des Schuldgrades für jeden Kandidatenfehler basierend auf der probabilistischen Inferenz auf die ABN bereit. Experimentelle Ergebnisse zeigen die Effektivität und Effizienz unserer Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-18123-3_7 d7fded7a335542491d8c85dc954923c8;de;;;5.3.;;;Ein einheitliches tiefes neuronales Netzwerk für die Szenentexterkennung Die Szenentexterkennung ist wichtig und wertvoll für die Texterkennung in natürlichen Szenen, aber es ist immer noch ein sehr schwieriges Problem. In diesem Beitrag schlagen wir ein vereinheitlichtes tiefes neuronales Netzwerk für die Szenentexterkennung vor, das aus einem Fully Convolutional Network (FCN) für die Textsalienzkartengenerierung und einem Bounding Box Regression Network (BRN) für die Vorhersage von Text Bounding Boxes besteht. Das FCN wird mit einer hybriden Verlustfunktion basierend auf zwei Typen von pixelweisen Ground-Truth-Masken trainiert, während das vereinheitlichte neuronale Netzwerk mit einer Multitask-Verlustfunktion fein abgestimmt wird. Zusätzlich werden die Nachbearbeitungsprozeduren einschließlich des Bewertens der vorhergesagten Begrenzungsboxen durch die Salienzkarte und der Eliminierung der redundanten Boxen über das Non-Maximum Suppression (NMS)-Verfahren angewendet, um die endgültigen Texterkennungsergebnisse zu verbessern. Die experimentellen Ergebnisse des ICDAR2013-Benchmarks zeigen, dass unser vorgeschlagenes Unified Deep Neural Network eine gute Leistung bei der Texterkennung erzielen und Bilder mit 5 fps verarbeiten kann, was schneller ist als die meisten bestehenden Texterkennungsmethoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-63309-1_10 33f7844a962e36f5abbaa25ec372f567;de;;;5.3.;;;Eine Untersuchung von Design-Cues für heuristikbasierte Entscheidungsfindung über den Informationsaustausch Wir berichten über eine explorative Studie zu Hinweisen auf die Schnittstelle von Webanwendungen, die entwickelt wurden, um kognitive Heuristiken auszulösen, von denen angenommen wird, dass sie die Offenlegung personenbezogener Daten beeinflussen. Aufbauend auf früheren Arbeiten, die sich auf die Identifizierung des Vorhandenseins und der Art solcher Heuristiken konzentrierten, haben wir Prototypen einfacher Web-Informationsanwendungen entworfen, die persönliche Informationen anfordern und spezifische visuelle Elemente eingefügt, die eine Heuristik hervorrufen sollen. Mit einer Kombination aus Anwendungsbegehungen (mit Kommentaren zum laut denken) und retrospektiven Interviews über die Erfahrungen und Reaktionen der Benutzer untersuchten wir die möglichen Auswirkungen der Interface-Hinweise und entsprechenden Heuristiken. Obwohl wir nur geringe direkte Auswirkungen der Benutzeroberflächen-Hinweise fanden, teilten die Benutzer eine Vielzahl von Bedenken und Strategien in Bezug auf ihre Entscheidungsfindung. Wir diskutieren Implikationen für die in dieser Studie verwendeten Heuristiken sowie für das Design von datenschutzwahrenden Schnittstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-78105-1_78 3dfe0d1853c2fe83f0969e1519e2f427;de;;;5.3.;;;Die Entstehung von Sprache in geerdeten adaptiven Agenten und Robotern Wir präsentieren einen computergestützten Modellierungsansatz für Sprache, der auf einer integrativen Sicht des kognitiven Systems des Agenten basiert. Die Entstehung sprachlicher Fähigkeiten (sowohl evolutionär als auch entwicklungsbedingt) hängt strikt von anderen sensomotorischen Verhaltensweisen und kognitiven Fähigkeiten ab und gründet in diesen. Sprachsimulationen implizieren die Verwendung von Gruppen autonomer Agenten, die über Sprachspiele interagieren, um Informationen über die Umgebung auszutauschen. Das koordinierte Kommunikationssystem der Agenten wird nicht von außen vom Forscher aufgezwungen, sondern entsteht aus der Interaktion zwischen den Agenten. Wir präsentieren eine Reihe von Studien zu Grounded Simulation Adaptive Agent und zu evolutionären und epigenetischen Robotern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71009-7_25 13cc50a8c26d56de1a011ebcab1496c7;de;;;5.3.;;;Gemeinsame Nutzung von Informationsressourcen in mobilen Ad-hoc-Netzwerken Viele Menschen teilen digitale Ressourcen über Netzwerke, um die Zusammenarbeit zu erleichtern, zu verbessern oder zu verbessern. Der Informationsaustausch ist nicht nur wichtig, um kollaboratives Arbeiten zu unterstützen, sondern bildet auch die Grundlage für das Design und die Implementierung von Lösungen für typische Designaspekte von Groupware-Anwendungen, wie z. Fortschritte in der Mobiltechnologie haben die Szenarien der gemeinsamen Nutzung von Informationen auf mobile Ad-hoc-Netzwerke (MANETs) ausgeweitet, was neue Herausforderungen mit sich gebracht hat. Dieses Papier stellt eine einfache Serviceplattform vor, um Informationsressourcen zwischen den Mitgliedern einer MANET-unterstützten Groupware-Sitzung zu teilen. Menschen interagieren mit Notebooks und PDAs. Außerdem wird ein gemeinsames Präsentationstool beschrieben, das mit den Diensten der Plattform entwickelt wurde. Dieses Präsentationstool kann verwendet werden, um andere kollaborative Aktivitäten zu unterstützen, wie z. B.: technische Präsentationen, gelegentliche Interaktionen, Besprechungen zur Entscheidungsfindung und technische Softwareüberprüfungen.;-;-;-;https://link.springer.com/chapter/10.1007/11560296_28 9d292542f0e5701bbbde85a4ec294138;de;;;5.3.;;;Von einem konzeptionellen Framework für Agenten und Objekte zu einer Multi-Agenten-Systemmodellierungssprache In diesem Papier schlagen wir eine Multi-Agenten-Systemmodellierungssprache (MAS-ML) vor, die UML (Unified Modeling Language) basierend auf strukturellen und dynamischen Eigenschaften erweitert, die in einem konzeptionellen Rahmen (Metamodell) namens Taming Agents and Objects (TAO) präsentiert werden. Unser Fokus liegt auf der Anpassung des statischen Klassendiagramms und des Interaktionssequenzdiagramms von UML nach TAO-Konzepten. Diese beiden Diagramme wurden gewählt, weil sie am häufigsten verwendet werden und weil es möglich ist, mit ihnen sowohl die strukturellen als auch die dynamischen Aspekte des TAO-Metamodells zu veranschaulichen. Wir schlagen eine konservative Erweiterung des UML-Metamodells vor, die agentenbezogene Begriffe einschließt, die Teil des konzeptionellen Rahmens von TAO sind, während alle objektbezogenen Konzepte erhalten bleiben, die das UML-Metamodell bilden. Der Hauptunterschied zwischen unserem Ansatz und den anderen in der Literatur vorgestellten Ansätzen besteht in der klaren Definition und Darstellung der Elemente, aus denen MASs bestehen, und ihres entsprechenden Verhaltens. Um UML mit TAO-Nicht-Objekt-Konzepten zu erweitern, ist es nicht möglich, nur die drei grundlegenden Erweiterungsmechanismen von UML zu verwenden, und es wurden neue Metaklassen und Stereotypen erstellt und mit dem UML-Metamodell verknüpft.;-;-;-;https://link.springer.com/article/10.1023/B%3AAGNT.0000019691.42633.07 40d73e56b713fbfdeeda6028aa81e38a;de;;;2.4.;;;Beurteilung der Vollständigkeit geographischer Daten Geografische Datenbanken sind oft unvollständig, insbesondere wenn sie inkrementell und von Freiwilligen aufgebaut werden. Ein prominentes Beispiel ist OpenStreetMap. Oftmals enthalten solche Datenbanken auch Metadaten, die besagen, dass bestimmte Merkmale für bestimmte Bereiche vollständig erfasst sind. Wir zeigen, wie man anhand solcher Metadaten analysiert, in welchen Bereichen Anfragen eine vollständige Antwort liefern. Solche „Vollständigkeitsflächen“ können über Standard-Raumoperationen berechnet werden. Noch größere Vollständigkeitsbereiche lassen sich ableiten, wenn nicht nur Metadaten, sondern auch der eigentliche Inhalt der Datenbank berücksichtigt wird. Abschließend diskutieren wir, welche Herausforderungen sich ergeben, wenn man die Vollständigkeits-Metadaten in OpenStreetMap praktisch nutzen möchte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39467-6_21 64412b0a45e2c813b30413565a1a2a57;de;;;2.4.;;;Ein Modell der extrazellulären Wellenform der elektrischen Aktivität des Magens In der Arbeit wird ein neues mathematisches Modell vorgeschlagen, um die extrazelluläre ECA (elektrische Kontrollaktivität) des menschlichen Magens per Computer zu simulieren. In diesem Modell wird die ECA durch das elektrische Potential erzeugt, das von einem ringförmigen Band erzeugt wird, das durch elektrische Dipole polarisiert ist und sich distal vom Mittelkorpus zum terminalen Antrum bewegt. Das Modell stimmt mit der Funktion des Magens überein und reproduziert alle morphologischen Merkmale (Wellenform, Amplitude, Dauer, Frequenz) der Magen-ECA, wie sie durch Experimente gewonnen wurden;-;-;-;https://link.springer.com/article/10.1007/BF02444024 862c9ee996d7f08485f6279007bc20ab;de;;;2.4.;;;Echtzeit-Netzwerkdatenerfassung mit Angriffsgeneratoren und Datenverarbeitungsmethoden Heutzutage ist die Nutzung des Internets zur Wissensvermittlung weit verbreitet. Die Endbenutzer, die auf das Internet oder das System zugreifen, sind anfällig für böswillige Benutzerangriffe, die dazu führen, dass legitime Benutzer am Zugriff auf die Websites gehindert werden. In letzter Zeit werden verschiedene Methoden für DDoS-Angriffe auf Anwendungsebene vorgestellt, die die unterschiedlichen Eigenschaften von Angriffen berücksichtigen. Die meisten Methoden litten jedoch unter der geringen Genauigkeit der Erkennung von DDoS-Angriffen auf der Anwendungsebene. Daher waren DDoS-Angriffe nur in geringem Umfang vorhanden und fungieren allein als legitime Transaktion auf Schicht sieben bedeutet Anwendungsschicht, daher werden solche Angriffe von IDS (Intrusion Detection Systems) oder Firewall-Systemen nicht leicht erkannt. Wir glauben, dass die Genauigkeit und Effizienz der Angriffserkennung auf der Richtigkeit des erfassten Datenverkehrs basiert. Beim Stand der Technik ist es nicht vorgesehen, die verrauschten Daten aus den Erfassungsprotokollen zu entfernen und führt daher zu falschen Erkennungsergebnissen. In diesem Papier haben wir die Echtzeit-Datenerfassung von Computernetzwerken für normalen und mit Angriffen infizierten Datenverkehr vorgestellt und dann den Vorverarbeitungsalgorithmus entwickelt, um irrelevante Daten zu entfernen, um die Angriffserkennungsleistung zu optimieren. In dieser Architektur verwenden wir das LOIC DDoS-Angriffsgeneratortool, um Angriffe zum Zeitpunkt der Paketerfassung zu erstellen, und verwenden auch den KDD-Cup-Datensatz für andere Angriffsverfolgungen wie DoS, R2L, L2R, Probe usw. des Kommunikationsnetzwerks. Die experimentellen Ergebnisse zeigen, dass die vorgeschlagene Datenvorverarbeitungsmethode im Vergleich zu Lösungen nach dem Stand der Technik einfach und effizient ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8681-6_64 f39d5499aa13a1c643e7d803b68ee2e6;de;;;2.4.;;;Auf dem Weg zu einem evolutionären Quantenschema: Bells Ungleichungen in der Sprache verletzen Wir zeigen das Vorhandensein echter Quantenstrukturen in der menschlichen Sprache. Das neo-darwinistische Evolutionsschema basiert auf einer Wahrscheinlichkeitsstruktur, die den Kolmogorov-Axiomen genügt und folglich keine quantenähnliche evolutionäre Veränderung beinhalten kann. In früheren Forschungen haben wir Quantenstrukturen in Prozessen entdeckt, die im konzeptuellen Raum stattfinden. Wir argumentieren, dass das Vorhandensein von Quantenstrukturen in der Sprache und die früher entdeckten Quantenstrukturen im konzeptuellen Wandel das neodarwinistische Evolutionsschema für die evolutionäre Epistemologie strikt zu eingeschränkt machen. Wir skizzieren, wie wir glauben, dass Evolution allgemeiner in die Erkenntnistheorie und den konzeptionellen Wandel, aber auch in die Biologie implementiert werden sollte, und wie diese Sichtweise zu einer anderen Beziehung zwischen Biologie und Erkenntnistheorie führen würde.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-3395-8_20 3d13723240f15f34774f7cb71c7277bc;de;;;5.3.;;;Kontinuierliche Generalisierung für die Visualisierung auf kleinen mobilen Geräten Die Visualisierung von räumlichen Informationen auf kleinen mobilen Displays ist eine große Chance und Herausforderung zugleich. Um den Kompromiss zwischen riesigen Geodatensätzen und kleinen Speicherkapazitäten und Visualisierungsbildschirmen anzugehen, schlagen wir vor, nur die Informationen auf dem Bildschirm zu visualisieren, die adäquat zur aktuellen Auflösung passen. Um dies zu realisieren, zerlegen wir die Generalisierung eines Objekts automatisch in eine Abfolge elementarer Schritte. Daraus kann man später leicht jede gewünschte Generalisierungsstufe durch Anwenden des entsprechenden Teils der Sequenz erhalten. Das Verfahrensverfahren führt nicht nur zu glatten Übergängen zwischen verschiedenen Objektdarstellungen, sondern ist auch für die inkrementelle Übertragung von Karten durch Kanäle mit begrenzter Bandbreite nützlich.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-26772-7_27 6988177b9de791340b721b237e6fcfa3;de;;;5.3.;;;Linearer dynamischer Systemansatz zur Erkennung menschlicher Handlungen mit Dual-Stream-Deep-Features In diesem Beitrag wird die Erkennung menschlicher Handlungen mit einer Dual-Stream-Architektur unter Verwendung des Ansatzes linearer dynamischer Systeme (LDSs) diskutiert. Zuerst wird ein Slice-Prozess eingerichtet, um Original-Slices aus Videosequenzen zu extrahieren. Zwei Slicing-Verfahren werden verwendet, um die verbleibenden Frames in den Videosequenzen zu subtrahieren oder zu reservieren. Durch Anwenden einer Hintergrundsubtraktion auf benachbarte Frames der Original-Slices werden auch Differenz-Slices ausgedrückt. Um die räumliche Komponente des Hintergrunds und der Differenz, die in jedem Slice gleichzeitig ausgedrückt werden, zu erfassen, wird ein Framework basierend auf vortrainierten Convolutional Neural Networks (CNNs) für die Dual-Stream-Deep-Feature-Extraktion eingeführt. Anschließend werden LDSs erstellt, um die zeitliche Beziehung zwischen benachbarten Schichten zu modellieren und die zeitliche Komponente der Hintergrund- und Differenzmerkmale zu erhalten, die als linear dynamisches Hintergrundmerkmal (LD-BF) und linear dynamisches Differenzmerkmal (LD-DF) ausgedrückt werden. Es wurden praktische Experimente durchgeführt, um die Wirksamkeit und Robustheit des vorgeschlagenen Ansatzes unter Verwendung verschiedener Datensätze zu demonstrieren. Insbesondere wurden unsere Experimente mit den Datensätzen UCF50, UCF101 und hmdb51 durchgeführt. Die Auswirkungen der Beibehaltung verschiedener Merkmalsdimensionen der Hauptkomponentenanalyse (PCA) und verschiedener Slicing-Methoden in Bezug auf die Detailerkennung wurden bewertet. Insbesondere die Kombination von LD-BF mit LD-DF unter geeigneten Merkmalsdimensionen und Slicing-Methoden verbesserte die Genauigkeit für die Datensätze UCF50, UCF101 und hmdb51 weiter. Darüber hinaus wurde der Rechenaufwand des Merkmalsextraktionsprozesses bewertet, um die Effizienz des vorgeschlagenen Ansatzes zu veranschaulichen. Die experimentellen Ergebnisse zeigen, dass der vorgeschlagene Ansatz mit den State-of-the-Art-Ansätzen in den drei Datensätzen konkurrenzfähig ist.;-;-;-;https://link.springer.com/article/10.1007/s10489-021-02367-6 d238698510c5d86efd4c5ceee9aeef32;de;;;5.3.;;;Echtzeit-Erkennung menschlicher Handlungen mit DMM-basierten LBP- und EOH-Funktionen Dieses Papier schlägt ein neues Merkmalsextraktionsschema für die Echtzeiterkennung menschlicher Handlungen aus Tiefenvideosequenzen vor. Zuerst werden drei Depth Motion Maps (DMMs) aus dem Tiefenvideo gebildet. Zusätzlich zu diesen DMMs werden die Local Binary Patterns (LBPs) innerhalb überlappender Blöcke berechnet, um die lokalen Texturinformationen zu erfassen, und die Edge Oriented Histograms (EOHs) werden innerhalb nicht überlappender Blöcke berechnet, um dichte Formmerkmale zu extrahieren. Um die Unterscheidungskraft zu erhöhen, werden die DMMs-basierten LBP- und EOH-Merkmale auf systematische Weise verschmolzen, um die sogenannte;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22180-9_27 cfbe8a0d97b721df097ab3d2cda95da7;de;;;5.3.;;;Wiederverwendung von Benutzeroberflächen für mehrere eingebettete Systeme über differenzielle logische UI-Modellierung Benutzeroberflächen (UI) zentrierte eingebettete Systeme wie Smartphones, Tablets und Smart-TVs nehmen ständig zu. Während viele modellbasierte UI-Entwicklungsumgebungen eine automatische Generierung von ausführbaren UI-Dateien bereitstellen, konzentrieren sie sich auf webbasierte Systeme und sind nicht für eingebettete Systeme geeignet. Dementsprechend erstellen Entwickler ein separates UI-Modell für jedes eingebettete Zielsystem, während sie ihre UI-Modelle nicht wiederverwenden. Dieses Papier schlägt eine differentielle logische UI-Modellierung (DLUM) vor, die diese Schwierigkeiten löst. DLUM umfasst (1) eine grafische Modellierungssprache für ein logisches UI-Modell (LUM) und ein differentielles LUM, (2) ein Verfahren zum Ableiten einer UI-Implementierung durch Verweben eines Basis-LUM und eines differentiellen LUM und (3) sein unterstützendes Werkzeug. DLUM ermöglicht es Entwicklern, nur unterschiedliche Teile von UI-Modellen im Vergleich zu einem Basismodell zu modellieren. DLU generiert LUM aus differentiellem LUM, was folglich die Ableitung vollständiger UI-Implementierungen ermöglicht. Wir haben ein Modellierungswerkzeug für DLUM als Eclipse-Plug-in mit dem Eclipse Graphical Modeling Framework (GMF) vollständig implementiert. Wir haben auch eine Fallstudie mit einer Alarmanwendung in Android durchgeführt, die auf mehrere eingebettete Systeme mit verschiedenen Auflösungen von HVGA bis XGA ausgerichtet ist. Die Fallstudie zeigt anschaulich, wie DLUM die Modellierung von UIs für eingebettete Systeme prägnant macht und die Wiederverwendung von UIs für mehrere eingebettete Systeme ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32692-9_42 da119d136534dbce14a2e169723781d7;de;;;5.3.;;;Erkennung des menschlichen Gesichtsausdrucks basierend auf 3D-Quadern und verbessertem K-Means-Clustering-Algorithmus Dieser Artikel konzentriert sich auf die Erkennung des menschlichen Gesichtsausdrucks in Videosequenzen. Im Gegensatz zu den Methoden der zweidimensionalen Bilderkennung und der dreidimensionalen räumlich-zeitlichen Interessenpunkterkennung hebt unser Ansatz die menschliche Gesichtsausdruckserkennung in komplexen räumlich-zeitlichen Videodatensätzen hervor. Die größte Herausforderung bei der Gesichtsausdruckserkennung besteht darin, ein Merkmalswörterbuch aus extrahierten Würfelpixelfenstern basierend auf einem Clustering-Algorithmus zu erhalten. In diesem Beitrag konzentrieren sich unsere Beiträge hauptsächlich auf zwei Aspekte. Zunächst kombinieren wir diskrete lineare Filter mit einem Auswahlverfahren für Schlüsselparameter, um 3D-Quader zu extrahieren. Zweitens schlagen wir eine neuartige Methode zur Auswahl von Seed-Spots vor, um den K-Means-Clustering-Algorithmus zu optimieren. Die vorgeschlagenen Algorithmen werden auf offenen Datenbanken evaluiert. Die Ergebnisse zeigen, dass unser Ansatz hervorragende Ergebnisse erzielen kann und der vorgeschlagene Ansatz signifikant effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48674-1_32 79e175e33dd36b10899899d7bd0727a8;de;;;5.3.;;;Fusionsnetzwerke für die Luftschreiberkennung Dieses Papier stellt einen Fusionsrahmen für die Erkennung von Luftschrift vor. Durch die Modellierung einer Handtrajektorie unter Verwendung sowohl räumlicher als auch zeitlicher Merkmale kann das vorgeschlagene Netzwerk mehr Informationen lernen als mit den Stand der Technik. Das vorgeschlagene Netzwerk kombiniert Elemente von CNN- und BLSTM-Netzwerken, um die isolierten Luftschriftzeichen zu lernen. Die Leistung des vorgeschlagenen Netzwerks wurde anhand der alphabetischen und numerischen Datenbanken im öffentlichen Datensatz 6DMG bewertet. Wir bewerten zunächst die Genauigkeit des Fusionsnetzwerks unter Verwendung von CNN, BLSTM und einem anderen Fusionsnetzwerk als Referenzen. Die Ergebnisse bestätigten, dass die durchschnittliche Genauigkeit des Fusionsnetzwerks alle Referenzen übertrifft. Wenn die BLSTM-Einheit auf 40 eingestellt wurde, beträgt die beste Genauigkeit des vorgeschlagenen Netzwerks 99,27% bzw. 99,33% in Alphabet und numerischer Geste. Beim Vergleich dieses Ergebnisses mit einer anderen Arbeit verbessert sich die Genauigkeit des vorgeschlagenen Netzwerks um 0,70 % bzw. 0,34 % im Alphabet und in der numerischen Geste. Wir untersuchen auch die Leistung des vorgeschlagenen Netzwerks, indem wir die Anzahl der BLSTM-Einheiten variieren. Die Experimente zeigen, dass sich bei Erhöhung der Anzahl der BLSTM-Einheiten auch die Genauigkeit verbessert. Wenn die BLSTM-Einheit größer als 20 ist, bleibt die Genauigkeit erhalten, auch wenn die BLSTM-Einheit ansteigt. Trotz des Hinzufügens weiterer Lernfunktionen verbessert sich die Genauigkeit des vorgeschlagenen Netzwerks unwesentlich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-73600-6_13 333d63c346248ae3b291d35c828320be;de;;;5.3.;;;Muster- und ereignisbasierte logische UI-Modellierung für eingebettete Anwendungen mit mehreren Geräten Obwohl es viele Forschungsaktivitäten zum modellbasierten Engineering für Benutzeroberflächen (UIs) für mehrere Geräte gab, sind sie noch weit von der Praxis entfernt. Wir identifizieren drei Hauptbeschränkungen für die herkömmlichen Ansätze. Wir schlagen ein Pattern- und Event-based Logical UI Modeling Framework (PELUM) vor, um UIs zu modellieren, die auf mehrere eingebettete Systeme ausgerichtet sind. PELUM umfasst (1) eine musterbasierte Methode zum Ableiten einer UI-Implementierung aus einem UI-Modell, (2) ein Metamodell zur Modellierung sowohl abstrakter UI als auch Aufgabenmodell, dessen Name Logical User Interface Model (LUM) ist, und (3 ) sein unterstützendes Werkzeug. Wir integrieren Events als erstklassige Modellierungsinstanz, die für die Modellierung von UIs für eingebettete Systeme unerlässlich ist. PELUM verwendet nicht das im konventionellen Ansatz weit verbreitete Aufgabenmodell. Stattdessen integrieren wir Ereignisse als Navigatoren, um das Aufgabenmodell in LUM abzudecken. Wir integrieren auch Muster als Typen jeder LUM-Komponente. Dies macht die UI-Modellierung prägnant.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24106-2_71 dca5db1d036ef232fff26aeca6741407;de;;;2.4.;;;Mustererkennung in nicht-kolmogorovianischen Strukturen Wir präsentieren eine Verallgemeinerung des Problems der Mustererkennung auf beliebige probabilistische Modelle. Diese Version befasst sich mit dem Problem, ein individuelles Muster innerhalb einer Familie verschiedener Arten oder Klassen von Objekten zu erkennen, die probabilistischen Gesetzen gehorchen, die nicht den Kolmogorov-Axiomen entsprechen. Wir zeigen, dass ein solches Szenario viele wichtige Beispiele enthält, und liefern insbesondere eine strenge Definition des klassischen bzw. des Quantenmustererkennungsproblems. Unser Framework ermöglicht die Einführung nicht-trivialer Korrelationen (wie Verschränkung oder Zwietracht) zwischen den verschiedenen beteiligten Spezies und öffnet die Tür zu einem neuen Weg, diese physikalischen Ressourcen zur Lösung von Mustererkennungsproblemen zu nutzen. Schließlich präsentieren wir einige Beispiele und diskutieren die rechentechnische Komplexität des Quantenmustererkennungsproblems, wobei wir zeigen, dass die wichtigsten Quantencomputeralgorithmen als nichtkolmogorovsche Mustererkennungsprobleme beschrieben werden können.;-;-;-;https://link.springer.com/article/10.1007/s10699-017-9520-4 d5ae3a58ab906c7908a937d990fa43d0;de;;;5.3.;;;Menschliches 2D-Parsing mit Deep-Skin-Modell und teilbasierter Modellinferenz Menschliches Parsing spielt eine wichtige Rolle beim Handlungsverständnis, der Kleidungsempfehlung und der Mensch-Computer-Interaktion usw. Variationen der menschlichen Haltung, der Kleidung, des Blickwinkels und des unübersichtlichen Hintergrunds erschweren jedoch die Segmentierung und Posenschätzung von Körperteilen. In diesem Artikel wird ein menschliches Parsing-Framework vorgeschlagen, das auf einer Kombination aus Deep-Skin-Modell und teilebasierter Modellinferenz basiert. Zuerst wird ein Deep-Skin-Modell über Deep-Belief-Netzwerke trainiert, die verwendet werden, um die Posensuchräume zu reduzieren und die Effizienz der Modellinferenz zu erhöhen. Zweitens analysiert das Bildstrukturmodell den menschlichen Körper genauer mit den Fusionskarten der Hauterkennung und HOG-basierten Teildetektoren. Die experimentellen Ergebnisse zeigen, dass die Fusion der Hauterkennung die Erkennung und Poseneinschätzung von menschlichen Körperteilen verbessert, insbesondere von Teilen wie Kopf, Armen und Beinen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-63312-1_70 80d8eacb0e7c2be287e32830e4a9b5c8;de;;;5.3.;;;Fußgängererkennung mit einer direkt kaskadierten Dekonvolutions-Faltungsstruktur Angetrieben durch die jüngsten Fortschritte beim Deep Learning wurde die Genauigkeit der Objekterkennung enorm verbessert. Die Erkennung kleiner und unscharfer Fußgänger bleibt jedoch eine offene Herausforderung. In diesem Beitrag schlagen wir eine neuartige neuronale Netzstruktur vor, die flexibel mit leistungsstarken Objekterkennungssystemen kombiniert werden kann, um die Fußgängererkennung zu verbessern. Die vorgeschlagene Struktur enthält zwei Schlüsselmodule: (i) ein kaskadiertes Deconvolution-Convolution (CDC)-Modul, um die Auflösung von Feature-Maps zu erweitern, währenddessen die entscheidenden Informationen in den Feature-Maps beibehalten werden, und (ii) eine Doppelhelix-Verbindung (DHC )-Modul zur effektiven Verschmelzung von Merkmalen auf flacher und tiefer Ebene im Erkennungsnetzwerk. Das CDC-Modul ermöglicht es dem Netzwerk, Funktionen der unteren Schichten wiederzuverwenden und reichhaltigere Funktionen bei Eingaben mit niedriger Auflösung zu lernen. Darüber hinaus integriert das DHC-Modul die in verschiedenen Schichten gelernten Merkmale auf neuartige und einheitliche Weise. Umfangreiche Experimente an KITTI- und Caltech-Fußgängerdatensätzen zeigen, dass die vorgeschlagenen Module problemlos in bestehende Objekterkennungsnetzwerke (z.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00776-8_34 eb9203e2eecef6d408dabd5b6430492e;de;;;2.4.;;;Ein DSP-basierter blinder Dekonvolutionsalgorithmus für die Restaurierung von bewegten Bildern Bei der Bildaufnahme ist die Bildstabilisierung ein unvermeidliches Problem. Daher findet dieses Papier einen effizienten und einfachen Bildstabilisierungsalgorithmus in der Bildstabilisierung. Verwendung einer neuen Bildregulationsmethode, um die Kosten für echte und klare Bilder zu reduzieren und sie ohne zusätzliche Kosten auf das Modell der blinden Dekonvolution anzuwenden. Aufgrund seiner Schnelligkeit und Robustheit entspricht es der Verarbeitungsleistung von DSP in der Bildverarbeitung. In diesem Artikel nach der Neucodierung, damit es auf den DSP angewendet werden kann und somit die Verarbeitungsgeschwindigkeit der Bildverarbeitung erhöht wird. Außerdem kann aufgrund der Portabilität des DSP der in den Algorithmus eingebettete DSP auf das UAV übertragen werden. Das nach der Aufnahme erzeugte unscharfe Bild wird in Echtzeit verarbeitet, um den Arbeitsaufwand bei der späteren Bildbearbeitung zu reduzieren. Experimente zeigen, dass das in diesem Papier vorgeschlagene Schema Echtzeitleistung unter der Voraussetzung erreichen kann, dass der Recheneffekt garantiert wird, um die Betriebseffizienz des gesamten Systems zu verbessern.;-;-;-;https://link.springer.com/article/10.1007/s10586-018-1881-0 aeaf14c59ccd9e04aee01f58a5534d2b;de;;;2.4.;;;Zusammenstellung des dynamischen Schnittkraftspektrums der NC-Drehmaschine auf Basis zweidimensionaler Gemischmodelle Das Lastkollektiv einer numerischen Werkzeugmaschine (NCMT) ist die Basisdaten für Zuverlässigkeitsdesign, Lebensdauervorhersage und Zuverlässigkeitsprüfstandstests mit simulierten tatsächlichen Lastbedingungen. Statisches Schnittkraftspektrum, das durch empirische Formeln erstellt werden kann, kann die realen Lastbedingungen nicht genau wiedergeben. Daher wird ein Verfahren zum Kompilieren des Spektrums der dynamischen Drehkraft unter Verwendung von zweidimensionalen Gemischmodellen vorgeschlagen. Die dynamische Drehkraft wird im Labor anhand einer Vielzahl von Zerspanprozessdaten gemessen, die im Anwenderfeld gesammelt wurden. Mittelfrequenz- und Amplituden-Frequenz-Matrizen der dynamischen Drehkraft werden durch das Rainflow-Zählverfahren erhalten. Die Wahrscheinlichkeitsverteilungen von Mittelwert und Amplitude werden mit Hilfe von Weibull-Gemischmodellen (WMM) nach den Eigenschaften der dynamischen Drehkraft ermittelt, wobei die beiden Hauptprobleme dieser Methode die Bestimmung der Anzahl der Gemischkomponenten und die Schätzung von Parametern sind. Mit Hilfe der Gray-Relation-Analyse wird die multiobjektive Bewertungsmatrix quantifiziert und damit die Anzahl der Gemischkomponenten bestimmt. Parameter werden unter Verwendung des verbesserten Erwartungsmaximierungs-(EM)-Algorithmus geschätzt, wobei die Anfangswerte der Parameter durch die K-Means++ und Bayes'sche Zufallsklassifikation erhalten werden. Schließlich wird die gemeinsame Wahrscheinlichkeitsverteilungsfunktion zwischen Mittelwert und Amplitude durch die Copula-Funktion erstellt. So wird das dynamische Schnittkraftspektrum erstellt. Die Ergebnisse der Fallanalyse zeigen, dass mit dem vorgeschlagenen Verfahren Mittel- und Amplitudenverteilungsmodelle mit hoher Anpassungsgenauigkeit erhalten werden können. Darüber hinaus wird die Genauigkeit des Lastkollektivs von NCMT verbessert.;-;-;-;https://link.springer.com/article/10.1007/s00170-018-2067-x 996d632c7e41a8bf218852c65b23d873;de;;;2.4.;;;Führung im Wandel Die Auseinandersetzung mit dem Thema Führung ist nichts für Weicheier angesichts der Schwierigkeiten bei seiner Definition und Konzeptualisierung. Eine Arbeitsdefinition, die mit der strategischen Ausrichtung der Fallgeschichte der Fakultät vereinbar ist, wäre:;-;-;-;https://link.springer.com/chapter/10.1057/9780230624818_15 f815d259e39017d22ff4905e632399a8;de;;;2.4.;;;Ein Prototyp zur adaptiven Verknüpfung von Straßennamen mit Straßen auf Karten Wir präsentieren laufende Arbeiten zur Entwicklung eines teilautomatisierten Systems zur Interpretation von Kartenbildern. Das Hauptziel unseres Projekts ist es zu zeigen, dass ein adaptives System die Eingriffe des Bedieners mit zunehmendem Umwandlungsvolumen verringern kann. Die extrahierten Informationen werden gegen eine etablierte Datenbank ausgewertet. Der aktuelle Automatisierungsgrad ermöglicht eine 35-prozentige Zeitersparnis für den Bediener gegenüber der manuellen Eingabe. Weitere 30 % erscheinen mit bekannten Techniken erreichbar.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-64381-8_58 d08aead92c82641c64dd60126f2de6cb;de;;;2.4.;;;3D-Content-Industrie in Korea: Gegenwärtige Bedingungen und zukünftige Entwicklungsstrategien Der Zweck dieser Studie besteht darin, eine Entwicklungsrichtung für den Erwerb globaler Wettbewerbsfähigkeit zu formulieren, indem der Status der koreanischen 3D-Inhaltsindustrie untersucht und Probleme diagnostiziert werden. Dazu hat die Studie Literatur zur 3D-Content-Industrie gesammelt, analysiert und auf das Diamond-Modell von Porter übertragen. Als Ergebnis hat die Studie wichtige Erfolgsfaktoren vorgeschlagen, wie die Förderung von professionellem 3D-Personal aus einer langfristigen Perspektive, die Vernetzung von Industrie und Wissenschaft, die Konsolidierung qualifizierter Technologie, die in der Lage ist, 3D-Projekte zu leiten, die Beschaffung staatlicher Unterstützung zur Reduzierung des hohen Investitionsrisikos usw Außerdem hat die Studie gezeigt, dass Regierung, Unternehmen und Schulen eine integrierte Entwicklungsstrategie formulieren müssen, indem sie miteinander kooperieren, um solche Probleme zu lösen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22333-4_47 b32af6d5391eba6824fcfc712b19328c;de;;;5.3.;;;Siamesisches End-to-End-Multitask-Netzwerk mit restlicher hierarchischer Aufmerksamkeit für Echtzeit-Objektverfolgung Die Objektverfolgung mit tiefen Netzwerken hat in letzter Zeit eine erhebliche Verbesserung in Bezug auf die Verfolgungsleistung erreicht. In diesem Papier schlagen wir ein siamesisches neuronales Multitask-Netzwerk vor, das einen hierarchischen Aufmerksamkeitsmechanismus verwendet, um eine leistungsstarke Objektverfolgung zu erreichen. Dieses Netzwerk wird Ende-zu-Ende offline trainiert und kann in Echtzeit verfolgt werden. Um effizientere und generativere aufmerksamkeitsbewusste Merkmale zu erzeugen, schlagen wir hierarchisches Aufmerksamkeitslernen unter Verwendung von Restsprungverbindungen im Aufmerksamkeitsmodul vor, um hierarchische Aufmerksamkeit zu erhalten. Darüber hinaus formulieren wir eine Multitask-Korrelationsfilterschicht, um die fehlende Verbindung zwischen Kontextbewusstsein und Regressionszielanpassung auszunutzen, und fügen diese differenzierbare Schicht in ein neuronales Netz ein, um die Unterscheidungsfähigkeit des Netzes zu verbessern. Die Ergebnisse experimenteller Analysen der OTB-, VOT- und TColor-128-Datensätze, die verschiedene Tracking-Szenarien enthalten, zeigen die Effizienz unseres vorgeschlagenen Echtzeit-Objektverfolgungsnetzwerks.;-;-;-;https://link.springer.com/article/10.1007/s10489-019-01605-2 d3462fe1bbe59489aa0818d08c63ac07;de;;;2.4.;;;Räumliche Informationstechnologien für das Katastrophenmanagement in China Chinas Monsunklima und die besonderen geografischen und geologischen Bedingungen machen es anfällig für häufige Naturkatastrophen wie Überschwemmungen, Dürren, Waldbrände und Erdbeben. Aufgrund der hohen Bevölkerungsdichte in China führen diese Katastrophen oft zu schweren Opfern und enormen wirtschaftlichen Verlusten. Das Problem wird immer schwerwiegender, da die Häufigkeit von Naturkatastrophen und die damit verbundenen wirtschaftlichen Verluste mit dem globalen Klimawandel voraussichtlich zunehmen werden. Katastrophenvorsorge und -hilfe zählen daher zu den wichtigsten Aufgaben des Landes. Es wurde viel Management- und technische Arbeit (einschließlich räumlicher Informationstechnologie zur Katastrophenvorsorge) geleistet, um Schäden durch Naturkatastrophen zu reduzieren. Dieses Kapitel beginnt mit einer Einführung in Chinas Katastrophenmanagement- und Notfallmanagementsysteme. Anschließend wird das Erdbeben „5.12“ von Wenchuan und die Anwendung der Geoinformationstechnologie zur Katastrophenhilfe im Erdbebengebiet beschrieben. Das Kapitel schließt mit der Beschreibung eines neuen Projekts in China, der „Small Satellite Constellation for Environment and Disaster Monitoring and Forecasting“.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-2238-7_12 2fbca31091ba524372d9f7f548d4c5a1;de;;;5.3.;;;Umfrage zur Mimikerkennungsforschung Die Gesichtsausdruckserkennung ist einer der Hot Spots der letzten Jahre, sie findet Anwendung in der Emotionsanalyse, Mustererkennung und zwischenmenschlichen Interaktion. Dieses Papier stellt die jüngsten Fortschritte und Anwendungen in der Gesichtsausdruckserkennung aus der Gesichtserkennung, der Merkmalsextraktion, der Klassifizierung und der Erkennung ethnischer Ausdrücke vor. Die Methoden der Merkmalsextraktion werden in mehrere verschiedene Merkmalskategorien unterteilt. Klassifikationsrecherchen basieren auf Raum oder Zeit und Raum. Darüber hinaus werden gemäß der Geschichte und den Errungenschaften der Gesichtsausdruckerkennung die Entwicklung der ethnischen Gesichtsausdruckerkennung und der Trend der Gesichtsausdruckerkennung angegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31561-9_44 62cb70002b104f596d8b956157d26a70;de;;;5.3.;;;Konzeptionelles Design des weichen, dünnen, selbsterfassenden vibrotaktilen Aktors In dieser Arbeit wurde ein konzeptionelles Design eines weichen, dünnen, selbsterfassenden vibrotaktilen Aktors vorgeschlagen, der den ausgeübten Druck messen und haptische Informationen generieren kann. Der vorgeschlagene selbsterfassende Aktor besteht aus zwei Elektroden und einem bikonvex gemusterten PVC-Gel. Ein PVC-Gel, das zu den dielektrischen elektroaktiven Polymeren (EAPs) gehört, wurde durch Lösungsgießen mit einer wellenförmigen Form hergestellt, um die Erfassungs- und vibrotaktile Betätigungsleistung zu verbessern. Die Ergebnisse zeigen, dass der vorgeschlagene selbsterfassende Aktuator den ausgeübten Druck effektiv misst und eine Vibrationskraft erzeugt, um menschliche Mechanorezeptoren zu stimulieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3194-7_52 e84e1587ab0efeb991f62b6b1b006bbd;de;;;5.3.;;;"Sprachkommunikationshilfe mit Personal Digital Assistant für autistische Kinder ""Lass uns reden!"" ist eine neue AAC-Anwendung (Augmentative and Alternative Communication) für den persönlichen digitalen Assistenten für autistische Kinder. Diese neue und bemerkenswerte Anwendung hat viele besondere Vorteile im Vergleich zu bestehenden AAC. Besonderes Augenmerk haben wir auf eine einfache und einfache Handhabung gelegt. Durch Antippen eines Symbols auf einem Bildschirm eines PDA mit dieser Anwendung kann ein Benutzer seine Gedanken mit Bildern und Tönen anderen leicht zeigen. Es gibt 2 Modi, die je nach Benutzersituation umgeschaltet werden können. Es hat 120 Symbole, die auf dem täglichen Leben basieren, und ein Benutzer kann auch die Originalseite mit neuen Symbolen aus Bildern oder Ton erstellen. Der Betrieb von ""Let's Talk!"" ist einfach und leicht. Wenn ein Benutzer auf der oberen Seite eine von 12 Kategorien auswählt, werden spezifischere Symbole angezeigt und ein Sprachton wird durch Berühren eines Symbols ausgegeben. Wenn ein Benutzer beispielsweise die Kategorie „Essen“ und „Brot“ als Symbol auswählt, sagt die Stimme „Ich möchte Brot essen“. Es gibt 2 Modi, die je nach Benutzersituation umgeschaltet werden können. Im „Support-Modus“ zeigt ein Supporter einem Benutzer die Anwendung. Im Selbstnutzungsmodus kann ein Benutzer anhand von Kategorien und Symbolen direkt mitteilen, was er möchte. Es ist möglich, mit einer Kamera oder einem Diktiergerät im PDA Originalsymbole zu erstellen. Ein Benutzer kann auch eine Originalseite anpassen, indem er selbst erstellte Symbole oder vorhandene Symbole anordnet.";-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29920-9_53 025a79cdd61f7aa5ef905d2bd839d4a1;de;;;5.3.;;;Über die Verwendung von 3D-Stützgeometrien zum Messen von vom Menschen geschaffenen Eckstrukturen mit einer Roboter-Totalstation Die Durchführung genauer Messungen an nicht-planaren Zielen mit einer Robotik-Totalstation im reflektorlosen Modus ist fehleranfällig. Neben einem vollständig reflektierten Laserstrahl des elektronischen Entfernungsmessers ist für jede einzelne genaue 3D-Punktmessung eine korrekte Ausrichtung der Schwenk-Neige-Einheit erforderlich. Dominierende physikalische 3D-Strukturen wie Ecken und Kanten erfüllen diese Anforderungen oft nicht und sind nicht direkt messbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-12209-6_17 f4ee326ead8c12328307d5f424360841;de;;;2.4.;;;Neue Untersuchungen zu Cannons Beiträgen und verallgemeinerten Lösungen zur einheitlichen Erkennung von linearen Bewegungsunschärfen Bestehende frequenzdomänenorientierte Verfahren zur Parameteridentifikation für Uniform Linear Motion Blur (ULMB)-Bilder beschäftigten sich in der Regel mit speziellen Szenarien. Unschärfe-Kernel-Richtungen waren beispielsweise horizontal oder vertikal, oder verschlechterte Bilder hatten eine Vier-Quadrat-Dimension. Dies schließt aus, dass diese Identifizierungsverfahren auf reale Bilder angewendet werden, insbesondere um unter- oder übergroße Unschärfekerne abzuschätzen. Gegen die Grenzen der Unschärfe-Kernel-Identifikationen werden in diesem Beitrag Verfahren zur diskreten Fourier-Transformation (DFT) vorgeschlagen, die Unschärfe-Kernel-Schätzverfahren verwenden. Wir analysieren eingehend den Fourier-Frequenzgang verallgemeinerter ULMB-Kerne, demonstrieren im Detail die zugehörige Phasenform und deren Eigenschaften und stellen das Konzept von;-;-;-;https://link.springer.com/article/10.1007/s11390-012-1215-2 dc56b2306658e2c42048c3c6d3556a4b;de;;;2.4.;;;Ein hybrider Ansatz für den Mustervergleich für die Text-zu-Sprache-Konvertierung Die Zuweisung von phonetischen Symbolen zu Zeichen in einem Text-zu-Sprache-Umwandlungssystem ist ein Musteranalyse- und -erkennungsprozess. Diese Forschung schlägt einen hybriden Ansatz zum Mustervergleich für die maschinelle Sprachsynthese vor. Die Problemstellung lässt sich wie folgt reduzieren: Wie ordnen wir einem Zeichen ein Phonem aufgrund seiner Kontextinformationen, d. In unserer vorliegenden Studie verwenden wir ein kontextbezogenes Fenster mit einer Breite von fünf Zeichen, das bis zu zwei Zeichen auf jeder Seite jedes fraglichen Zeichens für die Phonemzuweisung ermöglicht. Die Zuweisungsmethode basiert auf einem maschinellen Lernansatz, indem das System mit einer großen Anzahl von Beispielen trainiert wird. Der hybride Ansatz besteht darin, einen Lernalgorithmus mit Informationsgewinn in einen fehlergesteuerten Lernalgorithmus auf Transformationsbasis zu integrieren. Die Trainings- und Testbeispiele in der vorliegenden Arbeit stammen aus dem NETtalk Corpus, das eine Liste von 20.008 englischen Wörtern sowie eine phonetische Transkription für jedes Wort enthält. Es hat sich gezeigt, dass dieser hybride Ansatz eine Endgenauigkeit von 96,86 % erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0833-7_25 ab51b3e075f0a9af9cbcff6e4098f889;de;;;2.4.;;;Untersuchung automatischer Techniken zur Segmentierungsgenauigkeit von Massen in digitalen Mammographiebildern Viele Verfahren wurden entwickelt, um bei der Früherkennung und Diagnose von Brustkrebs zu helfen. In diesem Zusammenhang wurden Computer-Aided-Diagnose (CAD)-Schemata entwickelt, um dem Spezialisten eine zuverlässige Zweitmeinung zu liefern. Bei solchen Schemata gibt es einen komplexen Schritt, der der Segmentierung entspricht, da eine gute Strukturklassifizierung von den aus den segmentierten Bildern extrahierten Merkmalen abhängt. In dieser Arbeit schlagen wir die Verwendung verschiedener Methoden zur automatischen Segmentierung von Brustläsionen vor, wie z einstellen. Um zu bewerten, welche von ihnen genauere Ergebnisse bei der Segmentierung von Brustmassen liefern könnte, wurden segmentierte Bilder mit denen verglichen, die von einem erfahrenen Radiologen manuell abgegrenzt wurden. Aus den Bildern wurden zehn quantitative Messungen erhalten. Diese Segmentierungstechniken wurden auf verschiedene Arten von Läsionen angewendet, einschließlich Bildern, die dichten Brüsten entsprechen. Bei der Auswertung hat sich die Level-Set-Technik als effektiver für den Bildersatz erwiesen, der zum Testen aller Methoden verwendet wurde. Es hat eine höhere Überlappungsrate in Bezug auf das vom Spezialisten segmentierte Bild sowie niedrige Unter- und Übersegmentierungsraten registriert, was sich in der hohen Genauigkeit und niedrigen Falsch-Positiv- und Fehlerraten widerspiegelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19387-8_48 116f0037be02fb2d3f272f95123aeba3;de;;;5.3.;;;: Ein agentenbasiertes Computermodell zum Umgang mit Vagheit in der Mensch-GIS-Kommunikation räumlicher Konzepte Eine grundlegende Herausforderung bei der Entwicklung einer brauchbaren Konversationsschnittstelle für Geographische Informationssysteme (GIS) ist die effektive Kommunikation räumlicher Konzepte in natürlicher Sprache, deren Bedeutung häufig unklar ist. In diesem Beitrag wird der Entwurf eines agentenbasierten Berechnungsmodells vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-9112-3_8 5ef30f946a4dd39c2071b14e02ed777e;de;;;5.3.;;;Eine Reihe kognitiver Komplexitätsmetriken In diesem Papier schlagen wir eine Reihe kognitiver Metriken zur Bewertung der Komplexität von objektorientierten (OO) Codes vor. Die vorgeschlagene Metrik-Suite bewertet mehrere wichtige Funktionen von OO-Sprachen. Insbesondere sollen die vorgeschlagenen Metriken die Verfahrenskomplexität, die Nachrichtenkomplexität (Kopplung), die Attributkomplexität und die Klassenkomplexität messen. Wir schlagen auch eine Codekomplexität vor, indem wir die Komplexität aufgrund der Vererbung für das gesamte System berücksichtigen. Alle diese vorgeschlagenen Metriken (mit Ausnahme der Attributkomplexität) verwenden den kognitiven Aspekt des Codes in Bezug auf das kognitive Gewicht. Alle Metriken wurden durch theoretische und empirische Validierungsprozesse kritisch untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31128-4_17 b9e01c45903ff6d60c047704dc685db5;de;;;5.3.;;;Teilüberwachte diskriminative Klassifikation mit Anwendung auf Tumorgewebe Segmentierung von MR-Gehirnbildern Aufgrund der großen Datenmenge von 3D-MR-Gehirnbildern und der unscharfen Grenze des pathologischen Gewebes ist die Tumorsegmentierung schwierig. Dieser Artikel stellt einen diskriminativen Klassifikationsalgorithmus für die halbautomatische Segmentierung von Hirntumorgewebe vor. Der Klassifikator verwendet interaktive Hinweise, um Modelle zur Klassifizierung von Normal- und Tumorgewebe zu erhalten. Ein nicht-parametrisches Bayes-Gauß-Zufallsfeld im semi-überwachten Modus wird implementiert. Unser Ansatz verwendet sowohl beschriftete Daten als auch eine Teilmenge von unbeschrifteten Datenabtastungen aus 2D/3D-Bildern zum Trainieren des Modells. Ein schneller Algorithmus wird ebenfalls entwickelt. Experimente zeigen, dass unser Ansatz im Vergleich zu den manuell gekennzeichneten Ergebnissen von Experten zufriedenstellende Segmentierungsergebnisse liefert.;-;-;-;https://link.springer.com/article/10.1007/s10044-008-0104-3 c49df6132e178fef3d4d57119b389d1c;de;;;5.3.;;;Affined-HOF mit mehreren Maßstäben und Dimensionsauswahl für eine uneingeschränkte Aktionserkennung für die Ansicht In diesem Beitrag wird eine Aktionserkennungsmethode vorgestellt, die die Probleme von Variationen des Kamerablickwinkels adaptiv handhaben kann. Unser Beitrag ist dreifach. Zuerst wird ein Raumabtastalgorithmus auf der Grundlage einer affinen Transformation in mehreren Skalen vorgeschlagen, um eine Reihe verschiedener Standpunkte aus einem einzigen zu ergeben. Ein Histogramm des dichten optischen Flusses wird dann über jedem Patch fester Größe für einen gegebenen erzeugten Blickpunkt als lokaler Merkmalsdeskriptor extrahiert. Zweitens wird auch ein Dimensionsauswahlverfahren vorgeschlagen, um nur die Dimensionen beizubehalten, die charakteristische Informationen aufweisen, und die unnötigen im Merkmalsvektorraum zu verwerfen. Drittens wird zur Anpassung an eine Situation, in der Videodaten in mehreren Blickwinkeln zum Training verwendet werden, auch ein erweitertes Verfahren mit einem Abstimmungsalgorithmus eingeführt, um die Erkennungsgenauigkeit zu erhöhen. Durch die Durchführung von Experimenten mit simulierten und realistischen Datensätzen (;-;-;-;https://link.springer.com/article/10.1007/s10489-019-01572-8 557986203639a0e0ab0147aae0eb9ce5;de;;;5.3.;;;INSPECT: Ausfahrendes Planen-Casting für 6-DOF-Kontrolle INSPECT ist eine neuartige Interaktionstechnik für die 3D-Objektmanipulation unter Verwendung eines nur durch Drehung verfolgten Touchpanels. Motiviert durch die Anwendbarkeit der Technik auf Smartphones erkunden wir diesen Gestaltungsraum, indem wir eine Möglichkeit vorstellen, die verfügbaren Freiheitsgrade abzubilden und die getroffenen Designentscheidungen zu diskutieren. Wir haben INSPECT einer formellen Benutzerstudie mit einer grundlegenden Zauberstab-Interaktionstechnik unter Verwendung eines Polhemus-Trackers unterzogen. Die Ergebnisse zeigen, dass INSPECT bei einer 3D-Übersetzungsaufgabe 12 % schneller und gleichzeitig 40 % genauer ist. INSPECT schnitt auch bei einer 3D-Rotationsaufgabe ähnlich wie der Zauberstab ab und wurde von den Benutzern insgesamt bevorzugt.;-;-;-;https://link.springer.com/article/10.1186/s13673-015-0037-y b255ef6986463cfcc1ad3cd2df51189d;de;;;2.4.;;;Benchmarking der Herzfrequenzvariabilität zur Überwindung geschlechtsbezogener Verzerrungen Seit den bahnbrechenden Studien von Sayers (Ergonomics 16:17–32, 1973) und Akselrod et al. (Science 213:220–222, 1981) Vor einigen Jahrzehnten wurde klar, dass die Oszillationen von Schlag zu Schlag der RR-Intervalllänge (dh Momentanes Gleichgewicht zwischen parasympathischer und sympathischer Innervation. Im Laufe der Jahre hat die Zahl der Studien zur HRV deutlich zugenommen und liegt mittlerweile bei über 23.000. Trotz eines so großen Interesses gibt es immer noch eine anhaltende Debatte über die Interpretation von Indizes, die durch Computeranalysen der HRV erzeugt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-77932-4_13 84bc3ea2cb1ee890a2c73469215564e6;de;;;5.3.;;;Dynamische kartografische Methoden zur Visualisierung von Gesundheitsstatistiken Der Artikel beschäftigt sich mit interdisziplinärer Forschung zur Analyse von Gesundheitszustandsdaten und sogenannten „Gesundheitskartografie“-Mapping-Ansätzen. Im ersten Teil werden bestehende kognitive Studien und Empfehlungen zum Kartendesign diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03294-3_27 12004a4a11c1ba51c0c052c1636b59df;de;;;5.3.;;;ImSe: Exploratives zeiteffizientes Bildwiederherstellungssystem Wir betrachten das Problem des Content-Based Image Retrieval (CBIR) mit interaktivem Benutzerfeedback, wenn der Benutzer das System nicht mit natürlichsprachlichem Text abfragen kann. Wir verwenden inhaltsbasierte Techniken mit Relevanz-Feedback-Mechanismus, um den genauen Bedarf des Benutzers zu erfassen und die Abfrage interaktiv zu verfeinern. Wir wenden den Exploration/Exploitation-Trade-off mit Hierarchical Gaussian Process Bandits und Pseudo-Feedback an, um das Problem der Optimierung angesichts von Unsicherheit anzugehen und die Qualität der Mehrfachbildauswahl zu verbessern. Wir gehen das Problem der Skalierbarkeit mit Self-Organizing Map als Vorverarbeitungstechniken an. Ein Prototypsystem namens;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25485-2_11 56b2c3008705a82938795e7b6ed987d8;de;;;5.3.;;;Ein 3D-Modellierungssystem mit freier Form für kreatives Design basierend auf einer modifizierten Catmull-Clark-Unterteilung Die kreative Absicht des Designers auf einfache und intuitive Weise auszudrücken, ist das Hauptproblem bei der 3D-Modellierung, insbesondere für unerfahrene Designer. Dieses Papier präsentiert ein Freiform-3D-Modellierungssystem für kreatives Design basierend auf der modifizierten Catmull-Clark-Unterteilung. Das System enthält eine Reihe einfacher, aber neuartiger Operationen, mit denen die Topologie von Modellen geändert werden kann, z. B. das Erstellen von Löchern und Griffen. Um scharfe Merkmale zu erzeugen, werden Merkmalsmarkierungsoperationen bereitgestellt, um anzugeben, wo sich das scharfe Merkmal befindet. Dieses System bietet auch eine Oberflächenkonvertierungsfunktion, um die Modellierungsergebnisse mit den herkömmlichen CAD-Systemen kompatibel zu machen. Zunächst wird ein einfaches, aber effizientes Quad-Domain-Divisionsschema verwendet, um Quad-Unternetze zu erzeugen. Um die Glätte an den regulären Scheitelpunkten zu verbessern, werden lange Grenzkurven, die über mehrere Unternetze hinweg verwendet werden, während der Anpassung die Grenzbedingungen. Auf diese Weise kann die Glätte am regulären Scheitelpunkt C . sein;-;-;-;https://link.springer.com/article/10.1007/s11042-016-3305-6 02eabc86194f487b16d59ea091354b1e;de;;;2.4.;;;Die Kopplungsmerkmale und der Mechanismus des Übergangs von Ackerland und ländlichem Wohnland in China Landnutzungsübergang bezieht sich auf die Veränderungen der Landnutzungsmorphologie (sowohl dominante als auch rezessive Morphologie) einer bestimmten Region über einen bestimmten Zeitraum, die durch sozioökonomischen Wandel und Innovation bedingt sind, und entspricht normalerweise dem Übergang der sozioökonomischen Entwicklung Phase. In China sind Ackerland und ländliches Wohnland die beiden Hauptquellen für den Übergang der Landnutzung. Dieses Papier analysiert die räumlich-zeitlichen Kopplungsmerkmale des Übergangs von Ackerland und ländlichem Wohnland in China unter Verwendung hochauflösender Landsat TM (Thematic Mapper)-Daten aus den Jahren 2000 und 2008 und den Daten des chinesischen Ministeriums für Land und Ressourcen. Die Ergebnisse zeigten, dass: (1) im Zeitraum 2000–2008 der Korrelationskoeffizient zwischen Ackerland und ländlichem Wohnland bei −0,921 liegt, und es zeigt, dass das Veränderungsmuster von Ackerland und ländlichem Wohnland unkoordiniert ist, (2) das Ergebnis von Die Spearman-Rangkorrelationsanalyse zeigt, dass die Veränderung des ländlichen Wohngebietes eine wichtige Rolle bei der gegenseitigen Transformation von Ackerland und ländlichem Wohnland gespielt hat, und (3) sie zeigt eine hochgradige räumliche Kopplung zwischen Ackerland und ländlichem Wohnland im Südosten Chinas im Jahr 2000 –2008. Im Allgemeinen wird der Übergang von Ackerland und ländlichem Wohnland in China durch sozioökonomische, biophysische und betriebswirtschaftliche dreidimensionale treibende Faktoren durch die Interaktionen zwischen ländlicher Bevölkerung, Ackerland und ländlichem Wohnland angetrieben. Das Phänomen der räumlich-zeitlichen Kopplung und der Mechanismus des Übergangs von Ackerland und ländlichem Wohnland in China sind jedoch weitgehend auf die „zweigleisige“ Struktur der ländlichen-Stadtentwicklung zurückzuführen.;-;-;-;https://link.springer.com/article/10.1007/s11442-012-0946-x 342328a51f0f8a03ade81011f8a45c08;de;;;5.3.;;;Wirksamkeit der Modellfeinabstimmung für die personalisierte dynamische Gestenerkennung Dynamische Handgesten sind in Bezug auf Stil, Geschwindigkeit und Größe der Gestenleistung normalerweise für einzelne Benutzer einzigartig. Ein mit Daten von einer Gruppe von Benutzern trainiertes Gestenerkennungsmodell kann für unsichtbare Benutzer nicht gut verallgemeinern und seine Leistung ist wahrscheinlich für verschiedene Benutzer unterschiedlich. Um diese Probleme anzugehen, untersucht dieses Papier den Ansatz der Feinabstimmung eines globalen Modells unter Verwendung benutzerspezifischer Daten lokal zur Personalisierung der dynamischen Handgestenerkennung. Anhand umfassender Experimente mit modernsten konvolutionellen neuronalen Netzwerkarchitekturen für die Videoerkennung bewerten wir die Auswirkungen von vier verschiedenen Optionen auf die Personalisierungsleistung – Feinabstimmung der früheren und späteren Schichten des Netzwerks, Anzahl der benutzerspezifischen Schulungen Stichproben, Batchgröße und Lernrate. Die benutzerspezifischen Daten werden von 11 Benutzern gesammelt, die 7 Gestenklassen durchführen. Unsere Ergebnisse zeigen, dass mit der richtigen Auswahl der Feinabstimmungsstrategie und der Hyperparameter eine verbesserte Modellleistung bei personalisierten Modellen für alle Benutzer erreicht werden kann, indem nur ein kleiner Teil der Netzwerkgewichtungen fein abgestimmt und nur sehr wenige beschriftete benutzerspezifische Trainingsstichproben verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0575-8_8 409d974d307ab7d367aed5924dc71221;de;;;5.3.;;;Assoziatives Vervollständigen und Investieren mit PSOMs Wir beschreiben ein hierarchisches Schema zur schnellen Anpassung kontextabhängiger „Fähigkeiten“. Die zugrundeliegende Idee besteht darin, zunächst einige Lernanstrengungen zu investieren, um das Lernsystem so zu spezialisieren, dass es ein schneller Lerner für einen begrenzten Bereich von Kontexten wird. Dies wird erreicht, indem ein „Meta-Mapping“ konstruiert wird, das eine langsame und iterative Kontextadaption durch eine „One-Shot-Adaption“, also eine kontextabhängige Skill-Reparametrisierung, ersetzt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-61510-5_30 993898469de286e9c5eeb4991d1a22b5;de;;;5.3.;;;Experimente mit Anpassungsstrategien für ein prototypbasiertes Erkennungssystem für isolierte handgeschriebene Zeichen Dieser Beitrag beschreibt ein adaptives Erkennungssystem für isolierte handgeschriebene Zeichen und die damit durchgeführten Experimente. Die in unseren Experimenten verwendeten Zeichen sind alphanumerische Zeichen, darunter sowohl die Groß- als auch die Kleinschreibung des lateinischen Alphabets und drei skandinavische diakritische Zeichen. Die Autoren dürfen ihren eigenen natürlichen Schreibstil verwenden. Das Erkennungssystem basiert auf der;-;-;-;https://link.springer.com/article/10.1007/PL00013555 7cc7b396d3acdca394198075d83dfed3;de;;;5.3.;;;Unschärferesilientes Tracking mit Group Sparsity In diesem Artikel wird ein Blur Resilient Target Tracking Algorithmus (BReT) entwickelt, indem das Erscheinungsbild des Targets mit einer gruppenweisen spärlichen Approximation über einem Vorlagensatz modelliert wird. Da Unschärfeschablonen unterschiedlicher Richtungen dem Schablonensatz hinzugefügt werden, um Bewegungsunschärfe aufzunehmen, gibt es eine natürliche Gruppenstruktur unter den Schablonen. Um zu erzwingen, dass die Lösung des dünnbesetzten Approximationsproblems eine Gruppenstruktur hat, verwenden wir die gemischte;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16814-2_9 35baf8571536da9ffe9d3910c3124afc;de;;;5.3.;;;Kontinuierliche Optimierung der Innenschnitzerei in der 3D-Fertigung In diesem Artikel schlagen wir einen Optimierungsrahmen für das Innenschnitzen von 3D-gefertigten Formen vor. Das Schnitzen von Innenräumen ist eine wichtige Technik, die im industriellen und künstlerischen Design weit verbreitet ist, um funktionale Zwecke durch Aushöhlen von Innenformen in Objekten zu erreichen. Diesen funktionalen Zweck formulieren wir als Zielfunktion eines Optimierungsproblems, dessen Lösung die optimale Innenform anzeigt. Im Gegensatz zu bisherigen volumetrischen Methoden stellen wir den Rand der inneren Form direkt als Dreiecksnetz dar. Wir verwenden die Eulersche Semiableitung, um die zeitliche Ableitung der Objektfunktion auf ein virtuelles Geschwindigkeitsfeld zu beziehen und die innere Form, die durch das Geschwindigkeitsfeld geführt wird, iterativ mit Oberflächenverfolgung zu entwickeln. In jeder Iteration berechnen wir das Geschwindigkeitsfeld, das die Abnahme der Zielfunktion garantiert, indem wir ein lineares Programmierproblem lösen. Wir demonstrieren diesen allgemeinen Rahmen in einer neuartigen Anwendung zum Entwerfen von in Flüssigkeit schwimmenden Objekten und zwei zuvor untersuchten Anwendungen und drucken verschiedene optimierte Objekte, um ihre Wirksamkeit zu überprüfen.;-;-;-;https://link.springer.com/article/10.1007/s11704-016-5465-y daae6d498858ca8b10c5fae844171953;de;;;5.3.;;;i-PE: Ein dezentraler Ansatz zur Gestaltung adaptiver und überzeugender intelligenter Spielumgebungen In diesem Beitrag wird der Ansatz des Intelligent Play Environments (i-PE)-Projekts vorgestellt. Ziel dieses Projekts ist es, Gestaltungsrichtlinien für die Gestaltung interaktiver Umgebungen zu entwickeln, die soziales und körperliches Spiel anregen. Wir wollen eine Umgebung schaffen, die dieses Spielverhalten unterstützt und den Spielfluss betont, indem wir Freiheit in der Interaktion bieten. In diesem Positionspapier beschreiben wir unseren Ansatz zur Gestaltung einer solchen Spielumgebung. Wir werden zwei Schwerpunkte für unsere Forschung vorstellen: spielerische Überzeugungskraft und Anpassung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31479-7_41 4b4499de0a8be7d97ad8c9d5255064ab;de;;;5.3.;;;Ein Kochunterstützungssystem zum Würzen mit Smart Cruet In den letzten Jahren ist die Zahl der Menschen, die Online-Rezeptdienste zum Kochen nutzen, gestiegen. Es ist schwierig, den Geschmack von Lebensmitteln an die Vorlieben des Benutzers anzupassen, da eine Online-Rezeptseite ein Rezept anzeigt, um nur einen Geschmack zu verwirklichen, obwohl es in einem Online-Rezeptdienst unzählige Rezepte gibt. Unser vorläufiges Experiment mit Fertiggerichten zur Untersuchung der Benutzerpräferenz zeigte, dass sich die Präferenz von fast allen Teilnehmern vom Geschmack der nach dem auf der Verpackung aufgedruckten Rezeptur zubereiteten Speisen unterschied. Es wurde auch berichtet, dass 76,5% der Hausfrauen an Kochaktivitäten interessiert sind. Die Verwendung eines Messlöffels ist jedoch schwierig, um die genaue Menge an Gewürzen zu bestimmen. Als wir ein vorläufiges Experiment durchführten, um den Fehler zwischen der Eingabemenge basierend auf einer groben Schätzung und der spezifischen Menge zu bestätigen, betrug der durchschnittliche Fehler für den kleinen Löffel 46,2% und der durchschnittliche Fehler für den großen Löffel 31,8%, obwohl die Teilnehmer häufig kochen . Insbesondere bei einer älteren Person, die wenig Salz oder wenig Zucker benötigt, wenn der Fehler zu groß wird als die angemessene Menge, was dazu führt, dass ihr Leben gefährdet oder die Freuden des Essens verloren gehen. Da jedoch derzeit kein Gerät in Gebrauch ist, das beim Einbringen von Gewürzen helfen kann, wird ein anderes Gerät als ein Messlöffel benötigt, um die Gewürzmenge zum Kochen zu bestimmen. In dieser Forschung wollen wir den Geschmack von Lebensmitteln mit einem Online-Rezept dem Wunschgeschmack des Nutzers nahe bringen, ohne den Nutzer zu belasten. In diesem Artikel schlagen wir ein Kochunterstützungssystem vor, das die Vorlieben des Benutzers aus dem Feedback des Benutzers gemäß der Bewertung in fünf Stufen für jede Mahlzeit analysiert, die Gewürzmenge für ein Rezept je nach den Vorlieben des Benutzers anpasst und das Hinzufügen der Gewürze durch Smart Cruet unterstützt mit Bewegungssensoren, LED-Licht und BLE-Kommunikationsschnittstelle. Wir haben ein 14-tägiges Experiment durchgeführt, um zu bestätigen, wie viele Tage benötigt werden, um die Anpassung der Gewürze dem bevorzugten Geschmack des Benutzers nahe zu bringen. Die gewünschte Anpassung konnten wir in 7 Tagen erreichen. Darüber hinaus haben wir festgestellt, dass Smart Cruet die Zugabemenge an Gewürzen mit einem durchschnittlichen Fehler von 5,56% messen konnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-22015-0_29 82e306d20075f6853dde86234bcd8526;de;;;5.3.;;;Eine Unterstützungsschnittstelle zum Erinnern von Ereignissen in Romanen durch die Visualisierung von Zeitreiheninformationen von Charakteren und ihren vorhandenen Orten Der Lesestil hat sich verändert. Menschen verwenden elektronische Geräte, um E-Books zu lesen. Die Leute lesen Bücher oft in kurzer Zeit, weil es schwierig ist, genug Zeit zum gleichzeitigen Lesen von Büchern zu haben. Wenn zwischen den Lesungen eine zeitliche Lücke besteht, vergessen sie möglicherweise, was in den bereits gelesenen Teilen von Büchern passiert ist. Vor allem, wenn Leute Romane lesen, in denen viele Figuren vorkommen, ist es schwieriger, sich daran zu erinnern, was für jede Figur passiert ist. Das parallele Lesen mehrerer Geschichten sollte die Anzahl der Wiederholungen erhöhen. Je öfter sie Bücher erneut lesen, desto schwieriger ist es für sie, zu lesen. Dieses Papier schlägt eine Unterstützungsschnittstelle vor, um sich an Ereignisse in Romanen zu erinnern, indem Zeitreiheninformationen von Charakteren und ihren vorhandenen Orten visualisiert werden. Die vorgeschlagene Schnittstelle besteht aus zwei Teilen: (a) Anzeige eines neuartigen Textes und (b) Visualisierung von Zeitreiheninformationen von Charakternamen und ihren vorhandenen Orten. Die vorgeschlagene Schnittstelle verwendet ein historisches Diagramm als Metapher für die Visualisierung. Wenn ein neuer Text angegeben wird, extrahiert die vorgeschlagene Schnittstelle Zeichennamen und -orte mit den Conditional Random Fields (CRFs). Die vorgeschlagene Schnittstelle legt die horizontale Achse als Satznummer und die vertikale Achse als Zeichennamen fest. Die vorhandenen Orte werden als beschriftete Punkte auf die durch die beiden Achsen gegebene Ebene abgebildet. Wir haben die vorgeschlagene Schnittstelle mit den Teilnehmern experimentiert und verifiziert, dass die vorgeschlagene Schnittstelle sie dabei unterstützen kann, sich an Ereignisse in Romanen zu erinnern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-78321-1_7 58916547c537287c3091781417719f8f;de;;;5.3.;;;Aktivitätsvergleich der Teilnehmer, die Japanisch als L2 und ihre L1 in der Gruppendiskussion verwenden Um die abnehmende Erwerbsbevölkerung zu ergänzen, arbeiten immer mehr ausländische Arbeiter in der japanischen Gesellschaft. In einer solchen Situation, in der eine kleine Anzahl ausländischer Arbeitnehmer mit der Mehrheit der Japaner arbeiten muss, kommt es aufgrund von Sprach- oder kulturellen Barrieren zu Ineffizienz der Gruppe. Dieses Work-in-Progress-Projekt sammelt einen Datenkorpus zum Verständnis der Probleme, die bei dieser „unausgewogenen“ Gruppenarbeit auftreten können, und soll zukünftig computergestützte Unterstützung bieten. Wir sammelten 8,5 Stunden der aufgabenorientierten Konversation von Kleingruppen in den folgenden Settings: ein Chinesisch sprechender / drei Japaner sprechen auf Japanisch (CJ), vier chinesische Sprecher sprechen auf Chinesisch (CC) und vier Japanisch sprechen auf Japanisch (JJ) . In diesem speziellen Papier haben wir eine Teilmenge (9 15-minütige Diskussionssitzungen) des Datenkorpus analysiert, um die Aktivitätsänderungen zwischen C-J- und C-C-Einstellungen zu sehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-77685-5_17 cd1c9070d37b9b55364b4e873dc100d1;de;;;5.3.;;;Aufbewahrungsmechanismus für elektronische Aufzeichnungen basierend auf Löschcode und Mehrfachkopien im Cloud-Speicher Mit dem schnellen Wachstum des Cloud-Speicherzentrums erreicht das kumulierte Datenvolumen EB und sogar ZB von PB. Infolgedessen wachsen sowohl die Netzwerkgröße als auch die Anzahl der Speicherknoten explosionsartig, während die Datenausfallrate weiter steigt. Cloud-Speicherzentren codieren die Rohdaten in Löschcodes, um den System-Overhead so weit wie möglich zu sparen und gleichzeitig die Zuverlässigkeit der Daten zu gewährleisten. Die Löschcode-Techniken nach dem Stand der Technik beruhen jedoch immer noch auf einem herkömmlichen zentralisierten Modell, das zu unerschwinglichen Kodierungs-/Dekodierungskosten führt und sich somit nicht an die datenintensiven Verarbeitungsanforderungen für verteilte Cloud-Speicherumgebungen anpassen kann. In der Veröffentlichung wird ein Erhaltungsmechanismus vorgeschlagen, bei dem Löschcode und Kopiensicherung kombiniert werden, um die Zuverlässigkeit elektronischer Aufzeichnungen im Cloud-Speicher zu verbessern. Dieses Papier konzentriert sich auf die Löschcode-Archivierung von elektronischen Dokumenten und stellt die Fähigkeit vor, die Löschcode-Archivierung von elektronischen Dokumenten zu ermöglichen. Darüber hinaus werden der entsprechende Implementierungsalgorithmus und die entsprechenden Schritte beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00012-7_16 6e41c47c8f21db701694c369a7e6a810;de;;;5.3.;;;Untersuchung der Informationsanforderungen für ein Smartwatch-basiertes Evakuierungsunterstützungssystem Mobile Computer werden rasant miniaturisiert und in Form von Smartwatches verbreitet. Während einer Katastrophe wird von den Menschen erwartet, dass sie Smartwatches tragen und verwenden, um von ihrem aktuellen Standort an einen sicheren Ort zu evakuieren. Die geringe Bildschirmgröße einer Smartwatch ist jedoch ein Problem, wenn sie zur Evakuierung verwendet wird. Das Endziel dieser Studie ist die Entwicklung eines auf Smartwatches basierenden Evakuierungsleitsystems, und dieses Papier beschreibt das Potenzial von Smartwatches zur Führung einer Evakuierung mit begrenzten Informationen, die auf einem kleinen Bildschirm bereitgestellt werden. Mit anderen Worten, wir haben untersucht, welche Informationen auf der Smartwatch verwendet werden können, um eine sichere und effektive Evakuierung zu realisieren. Als minimal notwendige Informationen haben wir uns nur auf die Wegbeschreibung vom aktuellen Standort zum Evakuierungsstandort und eventuellen Gefahrenbereichen konzentriert. In diesem Beitrag präsentieren wir die Ergebnisse eines Experiments, das durchgeführt wurde, um das Evakuierungsverhalten der Teilnehmer mit unserem Prototypsystem zu überprüfen. Die Ergebnisse zeigen, dass das vorgeschlagene System die Teilnehmer zum Evakuierungsstandort führen kann. Darüber hinaus zeigen wir, dass die beiden dargestellten Informationen zwar das notwendige Minimum sind, aber auch zusätzliche Informationen zu Gefahrenbereichen erforderlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-77025-9_4 e3741edc7c40159402f9b52b743fb849;de;;;5.3.;;;Immersive Virtual-Reality-Umgebung zum Testen der Schnittstelle von fortschrittlichen Fahrerassistenzsystemen für ältere Fahrer In Japan sind der Anteil und die Zahl älterer Fahrer gestiegen, gefolgt von der Zahl der Verkehrsunfälle, die zu einem sozialen Problem geworden sind. Das Problem kann nur leicht gelöst werden, wenn die Älteren nicht selbst Auto fahren müssen, obwohl Ältere, die auf dem Land oder in Vorstädten leben, für die täglichen Aktivitäten weiterhin Auto fahren müssen. Daher ist es sehr wichtig, die Mobilität älterer Menschen zu unterstützen und gleichzeitig Verkehrsunfälle zu vermeiden. Selbstfahrende Autos werden als eine der Lösungen zur Lösung dieses Problems angesehen, obwohl sie immer noch eine der neuesten Technologien sind, die noch Gegenstand anspruchsvoller Forschung sind. Daher schlägt dieses Papier einen praktischen Ansatz zum Testen von Funktionen und Schnittstellen des selbstfahrenden Autos für ältere Fahrer vor. Dieses Papier beschreibt insbesondere die Verwendung einer immersiven Virtual-Reality-Umgebung für einen Human-in-the-Loop-Simulationstest.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-22649-7_13 4cc3fe052b1cd372baa7ac4b12430ec2;de;;;5.3.;;;Ein zweischichtiger Ansatz für kommunikative Artefakte Ein Schlüsselthema beim Design von Social Intelligence ist die Realisierung von Artefakten, die fließend mit Menschen kommunizieren können. Daher haben wir einen zweischichtigen Ansatz vorgeschlagen, um die Beteiligungs- und Engagementfähigkeit eines Roboters zu verbessern. Die obere Schicht steuert die soziale Interaktion flexibel durch dynamische Bayessche Netzwerke (DBN), die soziale Interaktionsmuster darstellen. Die untere Schicht verbessert die Robustheit des Systems, indem sie rhythmische und sich wiederholende Gesten erkennt. Wir haben einen Hörroboter entwickelt, der die Erklärungen von Menschen zum Auf- und/oder Abbau eines Fahrrads verfolgen und aufzeichnen kann. Die Implementierung dieses Systems wird durch die Zusammenstellung der in diesem Papier vorgestellten Schlüsselalgorithmen beschrieben.;-;-;-;https://link.springer.com/article/10.1007/s00146-007-0131-4 7b5b08157ffeb88e20a09ee102d8434b;de;;;5.3.;;;Unterstützung der Display-Skalierbarkeit durch redundantes Mapping Visuelle Analysesitzungen werden zunehmend in Umgebungen mit mehreren Displays durchgeführt. Die gleichzeitige Präsentation eines Datensatzes auf heterogenen Displays für Benutzer ist jedoch eine anspruchsvolle Aufgabe. In diesem Beitrag schlagen wir eine zweistufige Mapping-Strategie vor, um dieses Problem anzugehen. Der erste Mapping-Schritt wendet primäre Mapping-Funktionen an, um für alle Ausgabegeräte dasselbe Grundlayout zu generieren und passt die Objektgröße basierend auf der Anzeigecharakteristik an, um die Sichtbarkeit aller Elemente zu gewährleisten. Der zweite Mapping-Schritt führt zusätzliche visuelle Hinweise ein, um die Effektivität der visuellen Kodierung für verschiedene Ausgabegeräte zu verbessern. Um das Two-Step-Mapping zu demonstrieren, wenden wir dieses Konzept auf Streudiagramme an, die Clusterdaten präsentieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24028-7_44 6687ecbd5d5849b5b7d45c9e15f17aa0;de;;;5.3.;;;Entwicklung eines automatischen Erdungsdraht-Arbeitsroboters für Umspannwerke Das Installieren und Entfernen von Erdungskabeln ist ein üblicher Vorgang des Umstellens von Umspannwerken. Aufgrund der hohen Einbaulage der Stationsausrüstung ist die Position des Erdungspunktes jedoch meist hoch, und die Erdungsleitung hat einen großen Querschnitt, eine große Länge und ein hohes Gewicht. Oftmals ist es aufgrund der ungenügenden Steifigkeit der Betätigungsstange schwierig, die Verbindungsarbeiten durchzuführen, wenn diese mit der Betätigungsstange direkt mit dem Boden verbunden ist. Wegen des schweren Erdungsdrahtes selbst und des langen Isolierstabes stehen die Bediener vor Ort auf der Fischgrätleiter, um den zeit- und arbeitsaufwendigen Auf- und Abbau durchzuführen. Um das obige Problem zu lösen, wird in diesem Papier eine mobile Betriebsplattform-Technologie entwickelt, die für komplexe Straßenbedingungen von Umspannwerken geeignet ist und auf Umspannwerk-Falt- und Teleskopmischroboter anwendbar ist Informationsfusionstechnologie. Entwickelt einen automatischen hängenden Erdungsseilroboter für die Spannungsebene unter 500 kV, um die persönliche Sicherheit der Bediener zu gewährleisten und das intelligente Niveau des Umspannwerkbetriebs zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9298-7_21 973b5d51ca9a8d9182b0763dbf3fcfd0;de;;;5.3.;;;Adaptive Präsentation von Multimedia-Interface-Fallstudie: Kurs „Gehirngeschichte“ Der Beitrag präsentiert die Entwicklung einer multimedialen adaptiven Schnittstelle basierend auf dem kognitiven Profil eines Benutzers. Es beschreibt das kognitive Profil und die übernommene Dokumentenarchitektur. Tatsächlich wird das Benutzerprofil in einem Stufenformer zur Anpassung generiert, es ist in einer separaten Datenbank strukturiert. Das Dokument wird in XML-Dateien dargestellt. Das Papier beschreibt detailliert die Art und Weise, wie diese Komponenten kombiniert werden, und stellt den adaptiven Prozess vor. Dabei wird die Medienkombination ausgewählt, die am besten zum kognitiven Profil jedes Nutzers passt. Diese Technik wird in einem Hypermedia-Kurs namens „Saga du Cerveau“ (;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44963-9_5 6f227f6b6e7a090bb19e48ee4bf8fda5;de;;;5.3.;;;Okklusionsrobuste bimanuelle Gestenerkennung durch Fusion von Mehrfachansichten Menschliche Hände sind geschickt und immer ein intuitiver Weg, um Gleichaltrige zu unterrichten oder mit ihnen zu kommunizieren. In den letzten Jahren wurde die Handgeste auch als neuartige Methode für die Mensch-Computer-Interaktion weit verbreitet. Bisherige Ansätze zielen jedoch ausschließlich darauf ab, einhändige Gesten zu erkennen, nicht jedoch Gesten mit zwei Händen in unmittelbarer Nähe (bimanuelle Geste). Daher versucht dieser Aufsatz, die Probleme der bimanuellen Gestenerkennung anzugehen, die in der Literatur nicht gut untersucht wurden. Um das kritische Problem des Hand-Hand-Selbstokklusionsproblems bei bimanuellen Gesten zu überwinden, werden mehrere Kameras aus verschiedenen Blickwinkeln verwendet. Ein maßgeschneidertes Mehrkamerasystem ist konstruiert, um bimanuelle Gestendaten mit mehreren Ansichten zu erfassen. Durch die Verwendung von Form- und Farbmerkmalen werden Klassifikatoren mit unserem bimanuellen Gesten-Dataset trainiert. Ein Schema der gewichteten Summenfusion wird verwendet, um von verschiedenen Klassifikatoren vorhergesagte Ergebnisse zusammenzufassen. Die Gewichtungen in der Fusion werden dagegen optimiert, je nachdem, wie gut die Erkennung bei einer bestimmten Ansicht funktioniert. Unsere Experimente zeigen, dass Ergebnisse mit mehreren Ansichten die Ergebnisse mit einer einzigen Ansicht übertreffen. Die vorgeschlagene Methode eignet sich besonders für interaktive Multimediaanwendungen, wie beispielsweise unsere beiden Demoprogramme: ein Videospiel und ein Gebärdensprachlerner.;-;-;-;https://link.springer.com/article/10.1007/s11042-019-7660-y 026b50d7ffe918816af737e448429b46;de;;;5.3.;;;Partizipative Medizin: Nutzung sozialer Netzwerke in Telemedizin-Lösungen Fortschritte bei Telemedizin-Technologien bieten Gesundheitsdienstleistern und Ärzten ständig erweiterte Lösungen, um die Qualität und Pünktlichkeit der Versorgung zu verbessern. Mit zunehmendem Einsatz von Technologie muss entsprechend darauf geachtet werden, Leistungserbringer näher an ihre Patienten zu bringen. Erweiterte Netzwerke von Familie, Freunden und medizinischem Fachpersonal sind ein wesentlicher Bestandteil eines erfolgreichen Pflegeplans. Serviceorientierte Architekturen und Web 2.0-Technologien bieten einen effektiven Ansatz zur Integration von Telemedizinlösungen mit sozialen Netzwerken, um einen neuen und innovativen Ansatz für die patientenzentrierte Versorgung zu schaffen. Diese kombinierten Lösungen bieten dem Patienten und den Menschen, die ihre primären und erweiterten Versorgungsnetzwerke bilden, ein Mittel zur Kommunikation, Interaktion und Anpassung an sich ändernde Bedürfnisse und Situationen. Die Ermöglichung neuer und kreativer Anwendungen wird die Fähigkeit von Medizinern verbessern, eine qualitativ hochwertige Versorgung zu erbringen, indem klinische Daten mit dem Netzwerkeffekt des Patienten kombiniert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02868-7_6 0ada8eea195431080596aeb1f6da47af;de;;;5.3.;;;SLA-gesteuerte Containerkonsolidierung mit Nutzungsprognose für Green Cloud Computing Da Service Level Agreement (SLA) im Wesentlichen verwendet wird, um eine zuverlässige Servicequalität zwischen Cloud-Anbietern und Kunden in einer Cloud-Umgebung aufrechtzuerhalten, gibt es zunehmende Bemühungen, den Stromverbrauch zu reduzieren und gleichzeitig das SLA einzuhalten, indem die Auslastung auf physischer Maschine (PM) maximiert wird und Load-Balancing-Techniken in Infrastructure as a Service. Mit der jüngsten Einführung von Container-as-a-Service durch Cloud-Anbieter werden Container jedoch immer beliebter und werden zum wichtigsten Bereitstellungsmodell in der Cloud-Umgebung und insbesondere bei Platform as a Service. Daher ist die Reduzierung des Stromverbrauchs bei gleichzeitiger Einhaltung des SLA auf der Ebene der virtuellen Maschine (VM) unerlässlich. In diesem Zusammenhang nutzen wir ein Containerkonsolidierungsschema mit Nutzungsvorhersage, um die oben genannten Ziele zu erreichen. Um eine zuverlässige Charakterisierung von überlasteten und unterlasteten PMs zu erhalten, nutzt unser Schema gemeinsam die aktuelle und prognostizierte CPU-Auslastung basierend auf der lokalen Historie der betrachteten PMs im Prozess der Containerkonsolidierung. Wir demonstrieren unsere Lösung durch Simulationen an realen Workloads. Die experimentellen Ergebnisse zeigen, dass das Container-Konsolidierungsschema mit Nutzungsvorhersage den Stromverbrauch, die Anzahl der Container-Migrationen und die durchschnittliche Anzahl aktiver VMs unter Einhaltung des SLA reduziert.;-;-;-;https://link.springer.com/article/10.1007/s11704-018-7172-3 01b464d05a286fb24ea8ab0c4ad29dcd;de;;;5.3.;;;Wie Avatar-basierte Kommunikation die Qualität der Entscheidungsfindung verbessern kann In diesem Beitrag wird untersucht, inwieweit die Verwendung von Avataren die Entscheidungen einer Person optimaler macht. Die Probanden mussten an Auswahlaufgaben von Entscheidungsproblemen teilnehmen, die dafür bekannt sind, ein supoptimales Auswahlverhalten zu zeigen. Die Probanden nahmen an einem Experiment teil, bei dem ein digitaler Coach verschiedene Entscheidungsprobleme präsentierte. Die Teilnehmer mussten je nach experimenteller Bedingung entweder selbst oder durch Kommunikation mit ihrem Avatar wählen. Die Ergebnisse zeigten, dass die Verwendung eines Avatars die Entscheidungsqualität der Probanden signifikant verbesserte. Bei der Auswahl über ihren Avatar zeigten die Menschen ein signifikant besseres Auswahlverhalten im Vergleich zu Bedingungen ohne Avatar-Nutzung. Die Ergebnisse werden durch den Einsatz von Decision Framing und Literatur aus dem Bereich der Neurowissenschaften erklärt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31479-7_28 5817ae9967c5aaa123ee4d657df9c47a;de;;;5.3.;;;KI und Soft Computing zusammenbringen: eine neurobiologische Perspektive Das Problem der Vereinbarkeit von scheinbar zwei völlig unterschiedlichen Computerstilen, dem des KI und des Soft Computing, wird im Hinblick auf die moderne Hirnforschung betrachtet. Nach einer kurzen, aber allgemeinen Diskussion über Soft Computing, das für die Analyse des Gehirns relevant ist, wird eine Einführung in neuronale Netze als Modellierungsrahmen gegeben, mit dem die Gehirnverarbeitung angegangen werden kann. Anschließend wird die Natur der beiden Ströme der visuellen Verarbeitung diskutiert, was zu dem Problem führt, wie die Objektwahrnehmung im Gehirn entstehen kann. Um dieses Problem zu lösen, wird ein Rahmen entwickelt, der die sogenannte Merkmalsintegrationstheorie erweitert, indem er die zentrale Darstellung einführt, die Körperinformationen enthält, die für die Erreichung der Absicht erforderlich sind. Dies führt zusammen mit Überlegungen zu Hirndefiziten zu einem Modell der Entwicklung einer Objektwahrnehmung. Wie dies dabei helfen kann, die beiden unterschiedlichen Computerstile in Einklang zu bringen, wird im vorletzten Abschnitt erörtert. Der Beitrag schließt mit einer kurzen Zusammenfassung und Schlussfolgerungen.;-;-;-;https://link.springer.com/chapter/10.1007/10720181_2 b872fc2802829f2e34b623530db5da73;de;;;5.3.;;;Effiziente Drei-Parteien-Schlüsselaustauschprotokolle mit Rundeneffizienz Vor kurzem haben Guo et al. entdeckte einige Sicherheitslücken des von Lu und Cao vorgeschlagenen einfachen Drei-Parteien-Schlüsselaustauschprotokolls und schlug ein verbessertes Protokoll vor. Unabhängig davon zeigten Chung und Ku auch einige Schwächen des Protokolls von Lu und Cao und lieferten ein verbessertes Protokoll. In diesem Papier überprüfen wir einige Unsicherheiten des Protokolls von Lu und Cao und analysieren zwei verbesserte Protokolle, die von Guo et al. und Chung und Ku. Dann zeigen wir, dass die Protokolle noch unsicher sind. Sie sind anfällig für einen Angreifer, der einen Offline-Angriff auf Passwortraten durchführt. Wir bieten eine Gegenmaßnahme, indem wir eine detaillierte Analyse der Sicherheitslücken in zwei verbesserten Protokollen durchführen. Wir schlagen auch ein sicheres Drei-Parteien-Kennwort-authentifiziertes Schlüsselaustauschprotokoll vor, das drei Runden erfordert.;-;-;-;https://link.springer.com/article/10.1007/s11235-011-9649-3 bd73325c0c0b45436d4ff2c5acec492f;de;;;5.3.;;;Bewertung der QoE in Sprachdiensten basierend auf der selbstorganisierenden neuronalen Netzstruktur Die Qualität der übertragenen Sprache im Voice over IP (VoIP)-Dienst sollte aus der Endbenutzerperspektive untersucht werden, indem Wahrnehmungsmetriken wie der Mean Opinion Score (MOS) geschätzt werden. Die Forschungsmethodik dieser Art ist eine besondere Übertragung der spezifischen technischen Parameter, die sich auf die IP-Datenübertragung beziehen, auf den Grad der Serviceakzeptanz durch einen Endbenutzer. Der Artikel präsentiert die Forschungsergebnisse, die durch die Simulation des entwickelten MOS-Schätzalgorithmus basierend auf der modifizierten neuralen Self-Organizing Maps (SOM)-Struktur erhalten wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21771-5_16 0901a5fad64cf62e9a9225924c7f64b9;de;;;5.3.;;;Optimierung der Datenzuordnung für mobile Mehrwertdienste Die Weiterentwicklung der Mobilfunkdienste, der Rückgang des durchschnittlichen Umsatzes pro Benutzer (ARPU) aufgrund der Senkung der Anruftarife und der „Pull-Effekt“ von Verbrauchern, die zusätzliche Dienste nachfragen, haben zu einer erhöhten täglichen Nutzung von Mobile Value Added Services (MVAS) geführt . Das Gebot der Stunde lautet nun, die Effizienz von Mobile Value Added Services zu verbessern. Somit wird versucht, die Zuordnung von MVAS-Daten in den Serverdatenbanken zu optimieren, indem die Kenntnis von Benutzerbewegungsmustern genutzt wird. Unter Verwendung dieser Informationen wurden vier Algorithmen entwickelt, um Daten global in einem mobilen System zuzuordnen, das den Eigenschaften des angebotenen Dienstes gerecht wird. Durch die Verwendung dieser Algorithmen können die Zugriffskosten, die Reaktionszeit und die Genauigkeit minimiert werden, wodurch die Leistung verbessert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36321-4_27 da3045ca368f9da9156c672a4916f92f;de;;;5.3.;;;Kryptoanalyse eines gitterbasierten Schlüsselaustauschprotokolls 2014年, WANG等人提出了一个基于格的密钥交换协议。原方案研究中首先在小整数解问题(SIS)基础上他们提出了两个新的困难问题, , 并通过理论分析和实验验证严格论证攻击算法的正确性与高效性。由于最小整数解问题在格密码设计, 因此该方法的研究可以进行进一步推广。;-;-;-;https://link.springer.com/article/10.1007/s11432-015-0721-4 752b6aae8732e5d0d7f9646023af536c;de;;;5.3.;;;Höhenänderung: Ein Ansatz zur haptischen Darstellung von Form und Textur ohne Flächennormale Mehrere haptische Formanzeigeverfahren beruhen auf der Oberflächennormalen, um eine Kraftantwort zu berechnen. Stattdessen ist es möglich, die Höhenänderung eines Interaktionspunkts zu verwenden, um eine Kraftantwort zu berechnen, wenn ein Subjekt die Oberfläche eines Objekts erforscht. Der Begriff der Flächennormalen wird nicht mehr benötigt und die damit verbundenen Schwierigkeiten werden beseitigt. Ein Experiment soll einige Unterschiede zwischen diesem Ansatz und den vorherigen veranschaulichen. Offene Fragen werden erwähnt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36268-1_52 461d8e0f655ca9a35c131c9140bee3d0;de;;;5.3.;;;Unterstützung der vektorbasierten Schätzung der Restnutzungsdauer: aktueller Forschungsstand und zukünftige Trends Die Schätzung der Restnutzungsdauer (RUL) ist hilfreich, um den Lebenszyklus von Maschinen zu verwalten und die Wartungskosten zu senken. Support Vector Machine (SVM) ist ein vielversprechender Algorithmus zur Schätzung von RUL, da er kleine Trainingssätze und mehrdimensionale Daten leicht verarbeiten kann. Viele SVM-basierte Verfahren wurden vorgeschlagen, um die RUL einiger Schlüsselkomponenten vorherzusagen. Wir haben innerhalb eines Jahrzehnts eine Literaturrecherche zur SVM-basierten RUL-Schätzung durchgeführt. Die überprüften Referenzen werden in zwei Kategorien eingeteilt: verbesserte SVM-Algorithmen und ihre Anwendungen auf die RUL-Schätzung. Die letztgenannte Kategorie kann weiter in zwei Typen unterteilt werden: Erstens, um den Zustandszustand in der Zukunft vorherzusagen und dann eine Beziehung zwischen Zustand und RUL aufzubauen, und zweitens, um eine direkte Beziehung zwischen aktuellem Zustand und RUL herzustellen. SVM wird jedoch selten verwendet, um den Abbauprozess zu verfolgen und eine genaue Beziehung zwischen dem aktuellen Gesundheitszustand und der RUL aufzubauen. Basierend auf der obigen Überprüfung und Zusammenfassung weist dieses Papier darauf hin, dass die Fähigkeit, SVM kontinuierlich zu verbessern und eine neue Idee für die RUL-Vorhersage mit SVM zu erhalten, zukünftige Arbeiten sein werden.;-;-;-;https://link.springer.com/article/10.1007/s12206-014-1222-z 53acb7f99069f7c519544c188d5de044;de;;;5.3.;;;Kein Pervasive Computing ohne intelligente Systeme Es ist interessant, über die Technologien nachzudenken, die Teil unseres Alltags geworden sind, und ihre Erfindung und Entwicklung mit denen zu vergleichen, die auf der Strecke blieben. Beispiele für gescheiterte Technologien wie Elektroautos und Satelliten-Mobiltelefone sind keine Seltenheit, aber interessantererweise haben sich zahlreiche andere Technologien wie Instant Messaging, Textnachrichten und B2C-E-Commerce durch den Zyklus der anfänglichen Ablehnung, der Annahme durch eine neue Benutzergemeinschaft und der Anpassung bewegt seinen Bedürfnissen trotz der frühen Skepsis vieler Nutzer und Kommentatoren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84628-429-8_3 9849b4f4641021934ed054912b04f827;de;;;5.3.;;;Eine DDL-basierte formale Richtliniendarstellung Dieses Papier stellt das Policy-Uniform-Konzeptmodell vor und definiert die allgemeine Policy-Spezifikationssprache-GPSL basierend auf der formalen Grundlage von DDL. Im Vergleich zu anderen Richtliniensprachen beschreibt GPSL das allgemeine Konzeptmodell, das die Unterstützung für die Richtlinien einschließlich Aktion, Ziel, Nutzen usw. bietet. Darüber hinaus bietet GPSL die Unterstützung für komplexe Aktionskompositionen und -beschreibungen, um komplexes Systemverhalten zu definieren. Um die Richtlinienkonflikte zu lösen, verwenden wir Meta-Policy, um die Richtlinienbeziehungen zu veranschaulichen, und Eule, um die Richtlinienontologie zu definieren. Schließlich analysiert dieses Papier die Implementierung von Richtlinien in autonomen Computersystemen.;-;-;-;https://link.springer.com/chapter/10.1007/11802372_25 e14f31868172264d10c176d3ef461e33;de;;;5.3.;;;Bildfilterung und Merkmalsextraktion für die Gesichtserkennung In dem Artikel schlagen wir Gabor Wavelets und die modifizierte Discrete Symmetry Transform zur Gesichtserkennung vor. Die erste Gesichtserkennung im eingegebenen Bild wird durchgeführt. Dann wird das Gesichtsbild mit der Gabor-Filterbank gefiltert. Um die Gesichtsbezugspunkte zu lokalisieren, suchen wir als nächstes nach den höchsten Symmetriepunkten innerhalb des Gesichtsbildes. Dann berechnen wir in diesen Punkten Bildmerkmale, die den Antworten des Gabor-Filters entsprechen. Unsere Merkmalsvektoren bestehen aus sogenannten Gabor Jets, die auf die ausgewählten Referenzpunkte (Punkte der höchsten Symmetrie) angewendet werden, sowie aus den statistischen Merkmalen, die in dieser Nachbarschaft der Punkte berechnet wurden. Dann können Merkmalsvektoren im Klassifizierungsschritt in verschiedenen Anwendungen der Gesichtserkennung effizient verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-36503-9_1 c3200989752f22ca4d6bd7e498d6231a;de;;;5.3.;;;Leistungsbewertung von SPDY über Satellitenkanäle mit hoher Latenz SPDY wurde ursprünglich von Google entwickelt und ist ein offenes Protokoll zur Verkürzung der Downloadzeiten von inhaltsreichen Seiten sowie zur Verwaltung von Kanälen, die durch große Round Trip Times (RTTs) und hohe Paketverluste gekennzeichnet sind. Mit solchen Funktionen könnte es eine effiziente Lösung sein, um Leistungseinbußen von Web 2.0-Diensten, die über Satellitennetzwerke verwendet werden, zu bewältigen. Aus dieser Perspektive bewertet dieses Papier das SPDY-Protokoll über einen drahtlosen Zugang, der auch eine Satellitenverbindung nutzt. Zu diesem Zweck implementierten wir einen experimentellen Aufbau, bestehend aus einem SPDY-Proxy, einem Emulator für drahtlose Verbindungen und einem instrumentierten Webbrowser. Die Ergebnisse bestätigen, dass SPDY die Leistung im Hinblick auf den Durchsatz verbessern und die Verkehrsfragmentierung reduzieren kann. Darüber hinaus kann es aufgrund seiner Verbindungs-Multiplexing-Architektur auch die Komplexität der Transportschicht verringern, die bei Vorhandensein von Middleboxen, die zum Isolieren von Satelliten-Trunks eingesetzt werden, kritisch ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-02762-3_11 86ba00cccb846c8683f318fc5810570b;de;;;5.3.;;;Physikalisch inspirierte Modelle zur Synthese steifer Saiten mit dispersiven Wellenleitern Wir überprüfen die Ableitung und das Design digitaler Wellenleiter aus physikalischen Modellen steifer Systeme, die für die Synthese von Klängen aus Saiten, Stäben und ähnlichen Objekten nützlich sind. Um die klassischen Gleichungen vierter Ordnung steifer Systeme zu lösen und auf zwei Gleichungen zweiter Ordnung zu reduzieren, wird ein Transformationsverfahrensansatz vorgeschlagen. Durch Einführung streuender Randmatrizen werden die Eigenfrequenzen bestimmt und deren;-;-;-;https://link.springer.com/article/10.1155/S1110865704402200 93913b7cafd58d242739737bf0537cf5;de;;;2.4.;;;Ein Kommentar zu „Was stimmt mit den westlichen Volkswirtschaften nicht?“ von Edmund Phelps Kann man gleichzeitig ein Wirtschaftssystem haben, das sowohl lebendig als auch gerecht ist? Und wenn ja, hilft uns das aktuelle Mainstream-Wirtschaftsparadigma dabei, ein so lohnendes Ziel zu erreichen? Wir argumentieren, dass die Begriffe Gerechtigkeit und wirtschaftliche Lebendigkeit nicht isoliert voneinander diskutiert werden sollten. Außerdem muss jede mögliche Lösung dieses Problems dynamisch konsistent sein und die sich verändernde Natur der Weltwirtschaft berücksichtigen, in der die Produktion und Verteilung von Informationen und Wissen immer mehr in den Mittelpunkt rückt. Dies kann einen Wechsel von der Lösung mechanistischer Optimierungsprobleme, die in der Mainstream-Ökonomie vorherrschen, zu komplexeren Ansätzen erfordern, die explizit sowohl die Rolle der institutionellen Entwicklung als auch komplexere Wege berücksichtigen, in denen ökonomische Entscheidungen heute tatsächlich getroffen werden.;-;-;-;https://link.springer.com/article/10.1007/s41412-016-0010-7 2012701ab8e88c688eeaaa758abf86d4;de;;;5.3.;;;Verbesserte Kernel-Common-Vektor-Methode für die Gesichtserkennung bei unterschiedlichen Hintergrundbedingungen Das Common Vector (CV)-Verfahren ist ein linearer Unterraum-Klassifikator für Datensätze, wie sie beispielsweise bei der Bild- und Worterkennung anfallen. Bei diesem Ansatz wird ein Klassenunterraum aus den gemeinsamen Merkmalen aller Stichproben in der entsprechenden Klasse modelliert. Da der Klassenunterraum für jede Klasse im Merkmalsbereich als separater Unterraum modelliert wird, gibt es Überlappungen zwischen diesen Unterräumen und auch Informationsverlust im gemeinsamen Vektor einer Klasse. Dies verringert die Erkennungsleistung. Bei Mehrklassenproblemen sollte die Streuung innerhalb und zwischen den Klassen als Klassifizierungskriterium berücksichtigt werden. Da die Streuung innerhalb der Klasse;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12712-0_16 9cd9f38948267051d3226a54ba20bffd;de;;;5.3.;;;Verfolgen mehrerer Objekte und Aktionswahrscheinlichkeiten In diesem Artikel schlagen wir eine Methode vor, die MRF-Partikelfilter verbessern kann, um das Entführungsproblem zu lösen. Unabhängige Partikelfilter zur Verfolgung jedes Objekts können von einem benachbarten Ziel entführt werden, das eine höhere Wahrscheinlichkeit hat als das reale Ziel. Bei der Methode wurde das von Markov Random Field (MRF) erstellte Bewegungsmodell nützlich angewendet, um eine Entführung zu vermeiden, indem das Gewicht von Teilchen verringert wird, die sich sehr nahe an einem benachbarten Ziel befinden. Die unären und paarweisen MRF-Potentialfunktionen benachbarter Targets werden als Penalty-Funktion zur Verringerung der Partikelgewichte definiert. Und die potentielle Funktion kann wiederverwendet werden, um eine Aktionswahrscheinlichkeit zu definieren, die die Bewegung einer Objektgruppe messen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-00738-0_17 4a7ff59db2d96569dbd62332831821bb;de;;;5.3.;;;Die Semiotik von Spinnendiagrammen Spider-Diagramme basieren auf Euler- und Venn/Peirce-Diagrammen und bilden ein System, das so ausdrucksstark ist wie die monadische Logik erster Ordnung mit Gleichheit. Spider-Diagramme sind nicht primär für Logiker gedacht, sondern wurden Ende der 1990er Jahre im Rahmen der visuellen Modellierung und Softwarespezifikation entwickelt. Wir untersuchen die ursprünglichen Ziele der Designer, die Entwicklung der Notation und ihren Zusammenhang mit den philosophischen Ursprüngen der logischen Diagramme von Euler, Venn und Peirce, auf denen Spinnendiagramme basieren. Anhand von Peirces Konzepten und der Klassifikation von Zeichen analysieren wir, wie verschiedene Zeichentypen in der Notation genutzt werden. Wir hoffen, dass diese Analyse über die Leser hinaus, die sich besonders für Spinnendiagramme interessieren, von Interesse sein und als Fallstudie zur Dekonstruktion einer einfachen visuellen Logik dienen kann. Dabei diskutieren wir die Notwendigkeit einer tieferen semiotischen Auseinandersetzung mit der visuellen Modellierung.;-;-;-;https://link.springer.com/article/10.1007/s11787-017-0167-2 0aef53ec24754097189eea0aa012f5b8;de;;;5.3.;;;Strategien für die Synthese rekombinanter Antikörperbibliotheken: eine fortschrittliche Quelle für Immunglobuline in der Umweltanalyse Die immunchemische Analyse für das Umweltmonitoring basiert bisher überwiegend auf Antikörpern, die aus Seren und Hybridomkulturen stammen. Diese konventionelle Technologie wird in naher Zukunft durch den rekombinanten Antikörper-(Rab)-Ansatz unterstützt oder sogar ersetzt, da Rab durch Gentechnik einer präzisen Modifikation der Antikörpereigenschaften zugänglich ist. Außerdem ist die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-93454-3_10 425ffcd52bf40b02ee0da72a018de52d;de;;;5.3.;;;Erkennung von Gesichtsmerkmalspunkten mit anthropometrischem Gesichtsmodell Dieses Kapitel beschreibt eine automatisierte Technik zur Erkennung der achtzehn wichtigsten Gesichtsmerkmalspunkte unter Verwendung eines statistisch entwickelten anthropometrischen Gesichtsmodells. Die meisten wichtigen Gesichtsmerkmalspunkte befinden sich nur im Bereich von Mund, Nase, Augen und Augenbrauen. Nach sorgfältiger Beobachtung der strukturellen Symmetrie des menschlichen Gesichts und Durchführung der notwendigen anthropometrischen Messungen konnten wir ein Modell konstruieren, das zur Isolierung der oben genannten Gesichtsmerkmalsbereiche verwendet werden kann. In dem vorgeschlagenen Modell dient der Abstand zwischen den beiden Augenzentren als Hauptmessparameter zum Lokalisieren der Zentren anderer Gesichtsmerkmalsbereiche. Daher funktioniert unsere Methode, indem sie die beiden Augenzentren in jeder möglichen Augensituation erkennt und jede der Gesichtsmerkmalsregionen unter Verwendung des vorgeschlagenen anthropometrischen Gesichtsmodells isoliert. Kombinationen verschiedener Bildverarbeitungstechniken werden dann innerhalb der lokalisierten Bereiche angewendet, um die achtzehn wichtigsten Gesichtsmerkmalspunkte zu erkennen. Das experimentelle Ergebnis zeigt, dass das entwickelte System die achtzehn Merkmalspunkte in 90,44 % Fällen erfolgreich erkennen kann, wenn es über die Testdatenbanken angewendet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-72500-0_17 3b7f30141d7dd64da7824a13148ef4c2;de;;;5.3.;;;Optimierung der Synthese kombinatorischer Peptidbibliotheken mit einer Eintopfmethode Bedingungen für die Synthese von synthetischen kombinatorischen Peptidbibliotheken (SPCLs) aus Mischungen von Aminosäuren wurden untersucht. In einer Eintopf-Synthese wurde der Einfluss der Ausgangskonzentrationen an Aminosäuren auf die resultierende Bibliothekszusammensetzung untersucht und die optimale Aminosäurenbalance bestimmt. Proteinsequenzierung, MALDI-TOF und Aminosäureanalyse wurden für die Bewertung der Bibliotheken verwendet und ihre relativen Vorzüge werden diskutiert. Die Auswirkungen von automatisierten Syntheseinstrumenten mit kontinuierlichem Fluss in Verbindung mit Polyethylenglycol-Polystyrol (PEG-PS)-Pfropfträgern und verschiedenen Spaltungscocktails auf die erfolgreiche Synthese von SPCLs wurden untersucht.;-;-;-;https://link.springer.com/article/10.1007/BF01682202 a60c452714d0c413140d338bad802e29;de;;;5.3.;;;Nahtlose Übergabe zwischen Unicast- und Multicast-Multimedia-Streams Mit der Bereitstellung heterogener Netzwerke erwarten mobile Benutzer eine allgegenwärtige Konnektivität bei der Nutzung von Anwendungen. Für bandbreitenintensive Anwendungen wie Internet Protocol Television (IPTV) werden Multimediainhalte aufgrund ihrer Bandbreiteneffizienz typischerweise unter Verwendung eines Multicast-Zustellungsverfahrens übertragen. Allerdings unterstützen nicht alle Netzwerke Multicasting. Multicasting allein könnte zu Dienstunterbrechungen führen, wenn die Benutzer von einem Multicast-fähigen Netzwerk zu einem Nicht-Multicast-Netzwerk wechseln. In diesem Papier schlagen wir ein Übergabeschema namens Application Layer Seamless Switching (ALSS) vor, um eine reibungslose Multimedia-Bereitstellung in Echtzeit über Unicast- und Multicast-Netzwerke zu ermöglichen. ALSS verwendet eine weiche Übergabe, um eine nahtlose Wiedergabe während der Übergabeperiode zu erreichen. Ein Echtzeit-Streaming-Testbed wird implementiert, um die Gesamtleistung der Übergabe zu untersuchen, insbesondere die Überlappungsperiode, in der beide Netzwerkschnittstellen Audio- und Videopakete empfangen. Sowohl die Servicequalität (QoS) als auch die objektiv abgebildete Quality of Experience (QoE) werden gemessen. Experimentelle Ergebnisse zeigen, dass die Überlappungsperiode mindestens 56 und 4 ms für eine Multicast-zu-Unicast-(M2U)- bzw. Unicast-zu-Multicast-(U2M)-Übergabe benötigt. Das gemessene Spitzensignal-Rausch-Verhältnis (PSNR) bestätigt, dass die Bild-für-Bild-Qualität des gestreamten Videos während des Handovers mindestens 33 dB beträgt, was gemäß den Empfehlungen der ITU-T als gut eingestuft wird. Auch der geschätzte Mean Opinion Score (MOS) in Bezug auf die Laufruhe der Videowiedergabe liegt auf einem zufriedenstellenden Niveau.;-;-;-;https://link.springer.com/article/10.1631/jzus.C1400052 cdaf778026ef463568ca0347799e1c75;de;;;5.3.;;;Verbessern der interaktiven Suche nach bekannten Elementen in Videos mit der Keyframe-Navigationsstruktur In diesem Beitrag schlagen wir den Keyframe Navigation Tree (KNT) als Navigationshilfe im Video für die interaktive Suche vor. Das KNT ist eine hierarchische Visualisierung von Keyframes, die den Inhalt eines Videos mit unterschiedlichen Detailstufen kompakt darstellen kann. Sie kann alternativ oder zusätzlich zu einer gemeinsamen Suchleiste eines Videoplayers verwendet werden. Durch eine Nutzerstudie mit 20 Teilnehmern zeigen wir, dass der vorgeschlagene Navigationsansatz nicht nur eine deutlich schnellere interaktive Suche im Video ermöglicht als ein herkömmlicher Videoplayer, sondern auch deutlich weniger Aufwand erfordert (auch weniger geistige und körperliche Belastung) und viel mehr Spaß in der Bedienung macht .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-14445-0_27 63b7d8eb5d9bc7fdf53001ba266fcbde;de;;;2.4.;;;Ein 6-Bit-SAR-ADC mit geringem Stromverbrauch Der Entwurf eines 6-Bit-100-MHz-Sukzessiv-Approximationsregisters (SAR)-Analog-Digital-Wandler (ADC) wird in diesem Artikel vorgestellt. Der implementierte SAR-ADC wird unter Verwendung einer SAR-Logik, eines 6-Bit-DAC, einer Abtast- und Halteschaltung und einer Komparatorschaltung realisiert. Das fertig realisierte System wird unter verschiedenen Eingangsfrequenzen mit einer Abtastrate von 100 MHz gemessen und verbraucht 36,7 µW aus einem 1,8 V Netzteil. Der in 130-nm-CMOS-Technologie implementierte ADC weist ein Signal-Rausch-Verhältnis plus Verzerrungsverhältnis SNDR von 64,2 dB auf und belegt eine Chipfläche von 0,14 mm;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2372-0_57 478797608f61d5001ee820abb2a536e8;de;;;5.3.;;;Ethische Entscheidungsfindung: Ein Vergleich von computergestützter und persönlicher Gruppe Diese Studie vergleicht computergestützte Gruppen, d. h. Gruppen, die Gruppenunterstützungssysteme (GSS) verwenden, und Face-to-Face-Gruppen, die ethische Entscheidungsaufgaben verwenden. Ein Laborexperiment wurde mit fünfköpfigen Gruppen von Informationssystemexperten durchgeführt. Face-to-Face (FTF) und GSS-Gruppen wurden hinsichtlich ihrer Entscheidungsergebnisse und Reaktionen der Gruppenmitglieder verglichen. Die Ergebnisse zeigten, dass computergestützte und face-to-face-Gruppen keinen signifikanten Unterschied in Bezug auf die Entscheidungsergebnisse von Choice Shift und Entscheidungspolarität aufwiesen. FTF-Gruppen kamen jedoch schneller zu ihren Entscheidungen und waren erfolgreicher beim Erreichen eines Gruppenkonsens als GSS-Gruppen. Die Probanden bewerteten die Face-to-Face-Kommunikation bei den meisten Messungen nach der Gruppe in Bezug auf wahrgenommene Gruppenprozesse und -zufriedenheit günstiger als die GSS-Interaktion. Trotz dieser Ergebnisse werden einige Möglichkeiten für den Einsatz der GSS-Technologie in einem ethischen Entscheidungskontext untersucht.;-;-;-;https://link.springer.com/article/10.1023/A%3A1006344825235 67c9e163754b8722b0beb10b8b02aa56;de;;;2.4.;;;Bauen Sie ein Klimabeobachtungsnetzwerk auf und entdecken Sie ähnliche Beobachtungsstationen Die Theorie der komplexen Netzwerke bietet einen leistungsstarken Rahmen zur statistischen Untersuchung der Topologie komplexer Systeme, die sowohl künstliche als auch natürliche Systeme umfassen. Wir schlagen eine Methode vor, um ein Klimabeobachtungsnetzwerk mit Klimabeobachtungsaufzeichnungen von automatischen Wetterstationen (AWS) an verschiedenen Standorten aufzubauen. Ein Link zwischen AWS stellt die Kreuzkorrelation zwischen ihnen dar. Wenden Sie diese Methode auf die Klimabeobachtungsaufzeichnungen der Stadt Chengdu an und stellen Sie fest, dass sich AWS mit Edge-Connected ganz in der Nähe befindet. Und der Bereich mit dichtem AWS weist eine deutlich höhere Korrelation zwischen AWS im Vergleich zum Bereich mit exigious AWS auf. Diese Arbeit wäre hilfreich, um die bevorzugte Strategie für Standortoptimierungsprobleme zu identifizieren / ähnliche Beobachtungsstationen im Zusammenhang mit AWS zu entdecken oder diese Informationen zu verwenden, um fehlende/Fehlerwerte zu vervollständigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45737-5_5 b6d87e49f232471b6709aa13b645a2e7;de;;;2.4.;;;Sakkaden in Katze ausdrücken: Auswirkungen von Aufgabe und Zielmodalität Bei vier erwachsenen Katzen wurden sakkadische Augenbewegungen zu visuellen, auditiven und bimodalen Zielen gemessen. Bimodale Ziele waren visuelle und akustische Reize, die gleichzeitig am selben Ort präsentiert wurden. Es wurden drei Verhaltensaufgaben verwendet: eine Fixierungsaufgabe und zwei sakkadische Verfolgungsaufgaben (Lücken- und Überlappungsaufgabe). Bei der Fixierungsaufgabe wurde ein sensorischer Reiz an einer zufällig ausgewählten Stelle präsentiert und die Sakkade zur Fixierung dieses Reizes gemessen. Bei den Lücken- und Überlappungsaufgaben wurde ein zweites Ziel (im Folgenden Sakkadenziel genannt) präsentiert, nachdem die Katze das erste Ziel fixiert hatte. Bei der Lückenaufgabe wurde das Fixationsziel ausgeschaltet, bevor das Sakkadenziel eingeschaltet wurde, bei der Überlappungsaufgabe wurde das Sakkadenziel präsentiert, bevor das Fixationsziel ausgeschaltet wurde. Alle Aufgaben erforderten, dass die Katzen ihren Blick innerhalb von 500 ms nach Beginn des Ziels auf das Ziel (mit einem bestimmten Genauigkeitsgrad) umlenken, und bei allen Aufgaben wurden die Zielpositionen zufällig über fünf mögliche Positionen entlang des horizontalen Meridians innerhalb des okulomotorischen Bereichs der Katze variiert. Bei der Lückenaufgabe lag ein signifikant größerer Anteil der sakkadischen Reaktionszeiten (SRTs) unter 125 ms und die mittleren SRTs waren signifikant kürzer als bei der Fixationsaufgabe. Bei visuellen Zielen waren die Sakkadenlatenzen bei der Lückenaufgabe signifikant kürzer als bei der Überlappungsaufgabe, während bei bimodalen Zielen die Sakkadenlatenzen bei den Lücken- und Überlappungsaufgaben ähnlich waren. Bei der Fixierungsaufgabe waren die SRTs zu auditiven Zielen länger als die zu entweder visuellen oder bimodalen Zielen, aber bei der Lückenaufgabe waren SRTs zu auditiven Zielen kürzer als die zu visuellen oder bimodalen Zielen. Somit spiegelten SRTs eine Interaktion zwischen Zielmodalität und Aufgabe wider. Da die Zielorte unvorhersehbar waren, zeigen diese Ergebnisse, dass Katzen ebenso wie Primaten zielgerichtete Sakkaden mit sehr kurzer Latenz produzieren können.;-;-;-;https://link.springer.com/article/10.1007/BF00231707 eb2d35e9d976144209bf15ec8ad6759c;de;;;2.4.;;;Modellierungsmethoden der Schweißbaddynamik während gepulster GTAW GTAW ist ein thermischer Prozess, bei dem das Werkstück aufschmilzt, erstarrt und schließlich die Schweißnaht bildet. Das Lichtbogenschweißen wird bekanntlich von vielen komplexen Faktoren beeinflusst, wie z schwer durch die klassische lineare Systemtheorie zu modellieren. In diesem Kapitel wird die Schweißdynamik analysiert, um den Schweißprozess zu verstehen. Basierend auf der Analyse werden sowohl Identifikationsmodelle als auch intelligente Modelle, z.B. ANN, Fuzzy-Regeln-Modell und RS-basiertes Modell werden diskutiert. Das ANN-Modell ist eine „Black Box“ und es ist unmöglich, das Modell direkt zu überarbeiten. Beim Fuzzy-Regelmodell darf die Anzahl der Eingaben, Ausgaben und ihrer linguistischen Variablen nicht zu groß sein, da dies sonst zu einer „Regelexplosion“ führt. Das RS-Modell ist vielversprechend für die Modellierung von Schweißprozessen, da das RS-Modell im Vergleich zum NN-Modell eine ähnliche Vorhersagefähigkeit aufweist und seine Komplexität jedoch viel geringer ist. GTAW ist ein thermischer Prozess, bei dem das Werkstück aufschmilzt, erstarrt und schließlich die Schweißnaht bildet. Das Lichtbogenschweißen wird bekanntlich von vielen komplexen Faktoren beeinflusst, wie z Schwierig, die Schweißdynamik durch die klassische lineare Systemtheorie zu modellieren. In den letzten Jahren wurden einige intelligente Modellierungsmethoden in das Schweißen eingeführt. Referenzen [1-3] untersuchten die Anwendung von Fuzzy-Argumentation in der Modellierung, und Lit.[4-8] untersuchten künstliche neuronale Netze für die Modellierung. In diesem Kapitel werden sowohl Identifikationsmodelle als auch intelligente Modelle für die Schweißbaddynamik bei gepulster GTAW diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85642-9_4 fd8259f129cc128d9032655a724f05eb;de;;;5.3.;;;Vorhersage des Verhaltens von Schülern bei der Hilfeanfrage in einem intelligenten Tutor für das Lesen Dieses Papier beschreibt unsere Bemühungen, ein feinkörniges Schülermodell im intelligenten Tutor für das Lesen von Project LISTEN zu erstellen. Das Lesen unterscheidet sich von den meisten Bereichen, die in der intelligenten Tutoring-Community studiert wurden, und stellt einzigartige Herausforderungen. Die Konstruktion eines Benutzermodells aus Spracheingabe und Mausklicks ist ebenso schwierig wie die Konstruktion eines Modells, wenn es kein wohldefiniertes Domänenmodell gibt. Wir verwenden eine Datenbank, die die Interaktionen der Schüler mit unserem Tutor beschreibt, um einen Klassifikator zu trainieren, der mit einer Genauigkeit von 83,2% vorhersagt, ob Schüler auf ein bestimmtes Wort klicken, um Hilfe zu erhalten. Wir haben den Klassifikator um Merkmale erweitert, die die Eigenschaften der einzelnen Grapheme des Wortes beschreiben, und diskutieren, wie dieses Wissen verwendet werden kann, um nicht direkt messbare Fähigkeiten von Schülern zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44963-9_41 b75b2a7e57feb395b2e310df2adcf9a4;de;;;5.3.;;;Mechanismen der Wissensentwicklung für die Extraktion von Webinformationen Das bei der Extraktion von Web-Informationen benötigte Wissen kann unter bestimmten Annahmen als das Wissen charakterisiert werden, das von Wrappern gespeichert wird, die verwendet werden, um die Semantik von Dokumenten zu extrahieren. Die Entwicklung dieses Wissens kann in die Phase des anfänglichen Lernens der Wrapper und die spätere Phase der Wrapperwartung unterteilt werden. In dieser Arbeit konzentrieren wir uns nur auf die anfängliche Lernphase. Basierend auf dem LExIKON-System wird der prinzipielle Aufbau von Lernalgorithmen für Island-Wrapper erläutert.;-;-;-;https://link.springer.com/chapter/10.1007/11605126_12 5c15fc293be2e228aa5459bf998b409c;de;;;5.3.;;;Neue Hybrid-PCA-basierte Schätzung des Gesichtsalters unter Verwendung eines variationsbasierten hierarchischen Klassifikators zwischen Altersgruppen In diesem Papier schlagen wir eine hybride Hauptkomponentenanalyse (HPCA) vor, um das Aussehensmerkmal eines Gesichts und einen variationsbasierten Klassifikator (IAGVC) mit einer Regression zur Schätzung des Alters einer Person zu extrahieren. Das vorgeschlagene Altersschätzungssystem ist robust und weniger empfindlich gegenüber Ausreißern, wenn eine ungleichmäßige Verteilung von Bildern in verschiedenen Altersgruppen existiert. Unter HPCA stellen wir zwei neuartige Methoden vor, Extended SpPCA und Extended SubXPCA. Die Themen wie Varianzzusammenfassung, Auswahl variabler Komponenten, Rechenkomplexität und Klassifikationsgenauigkeit von HPCA wurden ebenfalls angesprochen. Die vorgeschlagene HPCA arbeitet mit Teilmustern und ganzen Mustern gleichzeitig und extrahiert Erscheinungsmerkmale basierend auf lokalen und globalen Variationen von Gesichtern. Der IAGVC verwendet HPCA-basierte hybride Eigenräume jeder Trainingsaltersgruppe, um die Altersgruppe eines Testbildes zu schätzen, und anschließend schätzt der Support-Vektor-Regressor das spezifische Alter in der selektiven Altersgruppe. Die experimentellen Ergebnisse der FG-NET-Alterungsdatenbank zeigen, dass die vorgeschlagene HPCA-basierte IAGVC im Vergleich zu bestehenden klassischen PCA, lokalen SpPCA und SubXPCA über alle Altersgruppen eine bessere Klassifizierungsgenauigkeit aufweist.;-;-;-;https://link.springer.com/article/10.1007/s13369-017-2493-3 ba40f1f72092dc360acea2590d7cbcae;de;;;5.3.;;;Verringerung der Kluft zwischen akademischer Theorie und beruflicher Praxis in der Software-Engineering-Ausbildung Software Engineering ist ein Kerngebiet der Informatik. Diese Beobachtung muss bei der Entwicklung eines Curriculums für den Bereich berücksichtigt werden. An der Fakultät für Informatik der Universität Tromsø haben wir vier Grundelemente als Schlüssel zu einem modernen Curriculum in Software Engineering identifiziert: Lehrbücher zu akademischen und industriellen Themen, realistische Softwareprojekte mit professionellen Arbeitgebern, moderne Hard- und Software und Verständnis software der zugrundeliegenden wissenschaftlichen Theorie. Das Papier diskutiert, wie diese Elemente erfüllt werden, um die kommenden Herausforderungen im Computerbereich zu meistern.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0017619 44734269d2d5c68d1f3ef0a755568cb0;de;;;2.4.;;;Design des Beobachtungsinstruments für sauren Regen basierend auf LPC2368 Das Beobachtungssystem für sauren Regen umfasst in der Regel die Messung und Analyse von pH-Wert und elektrischer Leitfähigkeit. Die Messprinzipien des pH-Wertes und der elektrischen Leitfähigkeit werden in der Arbeit diskutiert. Es wird ein Beobachtungsinstrument für sauren Regen entwickelt, das den ARM-Mikrocomputer LPC2368 als Kontrollkern und eine pH-Verbundglaselektrode, eine elektrische Leitfähigkeitselektrode aus Platinschwarz und einen Platinwiderstand – Pt100 als empfindliche Geräte verwendet. Er bietet nicht nur hohe Messgenauigkeiten durch die Verwendung des AD7792 als Analog-Digital-Wandlungschip, sondern hat auch Vorteile in Bezug auf geringe Kosten, geringes Volumen und geringen Stromverbrauch. Darüber hinaus wird eine SD-Karte zum Speichern der Messdaten verwendet und ein CAN-Bus wird verwendet, um mit dem PC zu kommunizieren, um ein Säurebeobachtungsnetzwerk aufzubauen. Die Tests zeigen, dass das Beobachtungsgerät für sauren Regen hohe Messgenauigkeiten für den pH-Wert und die elektrische Leitfähigkeit von Säuren bietet und wichtige Referenzinformationen für die Umweltüberwachung liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24999-0_58 ca176ebad7dbbdf369b5595fd39967b4;de;;;2.4.;;;Analyse mit mehreren Auflösungen Die Analyse mit mehreren Auflösungen hat in den letzten Jahren von Forschern in den Bereichen Computergrafik, geometrische Modellierung und Visualisierung erhebliche Aufmerksamkeit erhalten. Sie gelten heute als leistungsstarkes Werkzeug zur effizienten Darstellung von Funktionen auf mehreren Detailebenen mit vielen inhärenten Vorteilen, darunter Komprimierung, Detailebenenanzeige (LOD), progressive Übertragung und LOD-Bearbeitung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-33265-7_3 fb9b93187bb825ca01ddb74b79d50c9b;de;;;2.4.;;;Spezifikation von Trade-Off-Strategien für Agenten: Ein modellgetriebener Ansatz Verhandlung ist ein wichtiger Bestandteil heutiger Geschäftsprozesse auf unternehmensübergreifender Ebene. Die Agentenforschung bietet eine Vielzahl von Ansätzen und Tools, um Verhandlungen zu automatisieren. Derzeit haben diese Technologien den Nachteil, dass der menschliche Manager die Verantwortung für das Verhandlungsergebnis behält, dieser aber meist nicht über das erforderliche Wissen verfügt, um das Verhalten des Agenten selbst zu definieren. Um die Akzeptanz automatisierter Verhandlungsansätze zu erhöhen, halten wir es für notwendig, dass menschliche Verhandler die Strategien für die Agenten vorgeben können. In diesem Artikel stellen wir ein Metamodell vor, das es menschlichen Verhandlern ermöglicht, Trade-off-Strategien zu spezifizieren. Trade-off-Strategien sind ein Schlüsselkonzept bei Verhandlungen im Allgemeinen. Dieses Metamodell basiert auf dem Ecore-Metamodell. Die angegebenen Trade-off-Strategien können automatisch in Repräsentationen umgewandelt werden, die von einem Agenten verwendet werden können. Unser Metamodell bietet ein Modell und eine grafische Notation, die es ihm ermöglichen, grafische Editoren für Trade-Off-Strategien zu erstellen. Daher wird es möglich, ohne Programmierkenntnisse Kompromissstrategien zu spezifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39866-7_3 c8435e42251111d934426fefe53e4c5f;de;;;5.3.;;;Sicherheit von MVD-basierten 3D-Videos in 3D-HEVC durch Verbergen und Verschlüsselung von Daten Um geheime Daten sicher zu übertragen und dreidimensionale (3D) Videos zu schützen, wird ein neuartiges Verfahren zur gemeinsamen Datenverbergung und -verschlüsselung für Multiview-Video plus tiefenbasiertes 3D-Video vorgeschlagen. Sowohl das Verstecken von Daten als auch die Verschlüsselung sind alle Formatbeschwerden für die hocheffiziente 3D-Videocodierung (3D-HEVC), die eine Echtzeitanforderung erfüllt. Da die Tiefenkarte nicht zum Betrachten, sondern zum Rendern der virtuellen Ansicht verwendet wird, wird sie zum Einbetten von Daten durch Modulieren des Quantisierungsparameterwertes des größten Codiereinheits-(LCU-)Blocks verwendet. Gemäß den Kanteninformationen der Tiefenkarte und der Textur des Farbvideos werden LCU-Blöcke der Tiefenkarte in vier Typen klassifiziert. Verschiedene Arten von LCU-Blöcken ermöglichen unterschiedliche Einbettungsstärken unter Berücksichtigung der Qualität der gerenderten virtuellen Ansicht und der stabilen Bitrate. Darüber hinaus wird das Farbvideo mit Codewort-Ersetzung für die Einhaltung des 3D-HEVC-Formats verschlüsselt, ohne die Bitrate zu ändern. Experimentelle Ergebnisse zeigen, dass das vorgeschlagene Verfahren die gute Qualität der virtuellen Ansicht nach dem Einbetten von Daten beibehält, die Videoinhalte effizient schützt und einen begrenzten Einfluss auf die Bitrate hat.;-;-;-;https://link.springer.com/article/10.1007/s11554-018-0817-5 355866ade42e2f990f49ed705923ca0a;de;;;5.3.;;;Klassifizierungsalgorithmus basierend auf verbesserter ID3 im Bankkreditantrag Der Entscheidungsbaumalgorithmus wurde häufig bei der Klassifizierung von Problemen verwendet, kann auch Daten vorhersagen, einschließlich des ID3-Algorithmus, der für den Entscheidungsbaumalgorithmus des Lernens typisch ist, nicht nur verständlich, sondern auch sehr einfach. In diesem Artikel wurde eine Fallstudie über die Glaubwürdigkeit von Krediten an die Bankindustrie erstellt. Es verbesserte auch den ID3 für die Bankbranche, erläuterte das Prinzip des ID3-Algorithmus, analysierte das Datenmodell, die Datenteilung und das Datensampling usw. Am Ende lieferte dieser Artikel eine entsprechende Klassifikationsvorhersage durch Experimente und Analysen. Dieser Artikel hilft auf einer gewissen Ebene, die Kreditprobleme für die Bankbranche zu lösen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-2386-6_148 c3e8cc85e3609150bcf4fcc048227bd7;de;;;5.3.;;;Wirbelstruktur und Stärke Die Inzidenz von Wirbelfrakturen hat sich in den letzten 30 Jahren um das 2- bis 4-Fache erhöht, und die Anstiegsrate ist bei Männern und Frauen gleich. Um diesen Anstieg zu stoppen oder umzukehren, ist ein gründliches Verständnis der normalen, altersbedingten Veränderungen der Knochenstruktur und -stärke entscheidend. Der menschliche Wirbelkörper ist so konstruiert, dass er maximale Festigkeit bei minimaler Knochenmasse bietet. Die Stärke ist die Summe aus Knochengröße, Kortikalisdicke, Trabekelarchitektur und Knochenmasse. Mit zunehmendem Alter ändern sich all diese Faktoren durch den Umbauprozess, aber der Rückgang der Knochenfestigkeit ist viel ausgeprägter als der Rückgang der Masse. Bei Personen mit sehr geringer Knochenmasse ist diese Diskrepanz zwischen Masse und Stärke noch ausgeprägter. Strukturstudien haben alle eine Störung des Trabekelnetzes mit zunehmendem Alter gezeigt – hauptsächlich verursacht durch Perforation horizontaler Stützstreben. Diese Veränderungen beginnen im Wirbelzentrum. Später wird eine Abnahme der kortikalen Dicke offenbart. Die biomechanische Folge davon ist eine 4–6-fache Abnahme der Wirbelkraft während des normalen Alterns. Da die strukturellen Veränderungen nicht rückgängig gemacht werden können, ist es schwierig, die Knochenfestigkeit durch therapeutische Maßnahmen zu erhöhen. Daher sollte der Schwerpunkt auf Prävention gelegt werden. Es werden drei Wege vorgeschlagen: (1) die riesige Menge an vorhandenen biologischen Daten in einem Computermodell zu nutzen, um das Verständnis der Beziehung zwischen Knochenstruktur, Masse und Festigkeit zu verbessern und dabei zu helfen, die Interventionsschemata zu identifizieren, die die besten Erfolgsaussichten bieten , (2) um die Eigenschaften von tragendem trabekulären Knochen zu untersuchen, der nicht bricht, und (3) um sich mehr auf Lebensstilfaktoren zu konzentrieren.;-;-;-;https://link.springer.com/article/10.1007/BF01673420 c03589868c126e0613e0299d84c90fb7;de;;;5.3.;;;Effektive Bildkolorierung Die Einfärbung von Graustufenbildern hat seit langem viel Aufmerksamkeit auf sich gezogen. Eine wichtige Rolle der Bildfarbe ist die Vermittlung von Emotionen (durch Farbthemen). Die Einfärbung mit einem unerwünschten Farbthema ist weniger sinnvoll, auch wenn sie semantisch korrekt ist. Dies wurde jedoch selten berücksichtigt. Die automatische Kolorierung, die sowohl die Semantik als auch die Emotionen berücksichtigt, ist zweifellos eine Herausforderung. In diesem Beitrag schlagen wir ein komplettes System zur affektiven Bildkolorierung vor. Wir brauchen nur den Benutzer, um die Objektsegmentierung zusammen mit Textetiketten und einem affektiven Wort zu unterstützen. Zuerst werden die Textetiketten zusammen mit anderen Objektzeichen gemeinsam verwendet, um die Internetbilder zu filtern, um jedem Objekt einen Satz semantisch korrekter Referenzbilder zu geben. Zweitens wählen wir eine Reihe von Farbthemen nach dem affektiven Wort basierend auf Kunsttheorien aus. Bei diesen Themen wird ein generischer Algorithmus verwendet, um die beste Referenz für jedes Objekt auszuwählen und verschiedene Anforderungen abzuwägen. Schließlich schlagen wir einen hybriden Textursyntheseansatz für die Kolorierung vor. Es ist unseres Wissens nach das erste System, das in der Lage ist, ein Graustufenbild semantisch und emotional steuerbar effizient einzufärben. Unsere Experimente zeigen die Effektivität unseres Systems, insbesondere den Vorteil im Vergleich zu der bisherigen Markov-Random Field (MRF)-basierten Methode.;-;-;-;https://link.springer.com/article/10.1007/s11390-012-1290-4 db08f930fa8726958dc528422f2a6230;de;;;5.3.;;;DFDnet: Netzwerk für diskriminierende Gesichtsdeskriptoren für die Schätzung des Gesichtsalters Die Altersschätzung ist ein wichtiger Bestandteil der biometrischen Erkennung. In diesem Papier schlagen wir vor, den Discriminant Face Descriptor (DFD) zu verwenden, der die diskriminierendsten und verwandten Merkmale der Altersvariation auf datengesteuerte Weise lernt. Wir verwenden es zum ersten Mal für das Gesichtsalter Die Altersschätzung ist ein wichtiger Bestandteil der biometrischen Erkennung. In diesem Papier schlagen wir eine gestapelte Struktur namens Discriminant Face Descriptor Network (DFDnet) vor, um die diskriminierendsten und verwandten Merkmale der Altersvariation zu lernen. Wir extrahieren die mehrstufigen Merkmale des Discriminant Face Descriptor (DFD), die altersempfindlich sind. Wir führen zunächst DFD für die Gesichtsaltersschätzung anstelle der ursprünglichen Gesichtserkennung ein. Dann wird die Bag-of-Features-Methode verwendet, so dass jedes Bild durch das Histogramm der visuellen Wörter dargestellt werden kann. Schließlich wird die Altersschätzung durch einen einfachen linearen Regressionsalgorithmus erreicht. Experimente mit den öffentlich zugänglichen MORPH- und FG-NET-Datenbanken bestätigen die Wirksamkeit unserer vorgeschlagenen DFDnet-Methode. Um die Nützlichkeit unseres Ansatzes in uneingeschränkten Umgebungen weiter zu beleuchten, führen wir auch das Experiment zum Cross-Age Celebrity Dataset (CACD) durch, das aus der Internet Movie Database (IMDB) gesammelt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25417-3_76 83a09c5b4b446b3b2f6d3f49d21e4f7f;de;;;5.3.;;;Reproduzierbarkeit: Auswertung der Auswertungen Evaluation ist das Herzstück der Reproduzierbarkeit in der Forschung und des damit verbundenen, aber unterschiedlichen Konzepts der Reproduzierbarkeit. Der Unterschied besteht darin, ob die Bestimmung auf dem Quellcode des Originalautors basiert (Replizierbarkeit) oder unabhängig vom Code und auf einer reinen schriftlichen Beschreibung der Methode basiert (Reproduzierbarkeit). Eine kürzlich durchgeführte Studie veröffentlichter Experimente zum maschinellen Lernen kam zu dem Schluss, dass nur zwei Drittel reproduzierbar waren und dass der Zugriff auf den Quellcode paradoxerweise nicht zur Reproduzierbarkeit beiträgt, obwohl dies offensichtlich die Reproduzierbarkeit gewährleistet. Die Reproduzierbarkeit hängt also entscheidend von der Qualität und Vollständigkeit der internen und externen Dokumentation ab. Die wachsende Popularität von Wettbewerben auf Konferenzen zur Mustererkennung bietet die Möglichkeit, neue Best Practices zur Bewertung der Reproduzierbarkeit zu entwickeln und zu verbreiten. Als ersten Schritt nach vorn haben wir die Abschlussberichte gesammelt und die Wettbewerbswebsites im Zusammenhang mit den jüngsten IKSR- und IKDAR-Konferenzen überprüft. Wir haben diese Daten von 42 Wettbewerben verwendet, um die aktuelle Praxis zu bewerten und Wege zu finden, Bewertungen von der Reproduzierbarkeit (bereits von einigen Wettbewerben überprüft) auf die Reproduzierbarkeit auf anwendungsorientierte Daten auszudehnen. Wir empfehlen, empirische Standards, Überwachungswettbewerbe und Tests von modifiziertem Code zu berücksichtigen und von der Forschungsgemeinschaft zu diskutieren, während wir alle zusammenarbeiten, um die wünschenswerten Ziele der Durchführung und Veröffentlichung von Forschungen zu erreichen, die einen höheren Grad an Reproduzierbarkeit erreichen. Wettbewerbe können dabei eine besondere Rolle spielen, jedoch nur, wenn bestimmte Änderungen in der Art und Weise, wie sie formuliert, durchgeführt und dokumentiert werden, vorgenommen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-76423-4_2 e6e028fae60552522e38b4e2f8a8acde;de;;;5.3.;;;Ranking-Netzwerkeinbettung durch kontradiktorisches Lernen Network Embedding ist in den letzten Jahren eine effektive und weit verbreitete Methode zum automatischen Extrahieren von Diagrammmerkmalen. Um die weit verbreiteten großen Netzwerke zu handhaben, greifen die meisten der existierenden skalierbaren Methoden, z. B. DeepWalk, LINE und node2vec, auf das Ziel der negativen Abtastung zurück, um die teure Berechnung zu erleichtern. Obwohl sie im Großen und Ganzen effektiv ist, kann diese Strategie aufgrund des trivialen Rauscherzeugungsprozesses, der normalerweise eine einfache Variante der Unigrammverteilung ist, leicht falsche, also minderwertige, negative Abtastwerte erzeugen. In diesem Papier schlagen wir ein Ranking Network Embedding (RNE)-Framework vor, um die Ranking-Strategie zu nutzen, um Skalierbarkeit und Qualität gleichzeitig zu erreichen. RNE kann Informationen zur Rangfolge der Knotenähnlichkeit explizit in die Einbettungsvektoren kodieren, von denen wir zwei Rangordnungsstrategien bereitstellen, Vanilla und Adversarial. Die Vanilla-Strategie modifiziert die Methode der einheitlichen negativen Abtastung unter Berücksichtigung der Kantenexistenz. Die Adversarial-Strategie vereint die Triplet-Sampling-Phase und die Lernphase des Modells mit dem Rahmen von Generative Adversarial Networks. Durch konträres Training kann die Triplet-Sampling-Qualität dank eines Softmax-Generators verbessert werden, der harte Negative für ein bestimmtes Ziel konstruiert. Die Wirksamkeit unseres RNE-Frameworks wird empirisch an einer Vielzahl von realen Netzwerken mit mehreren Netzwerkanalyseaufgaben bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-16142-2_3 9d0d81a0c9e3b7920d92089ee28f6df6;de;;;5.3.;;;Inkrementeller Lernalgorithmus für die Spracherkennung In diesem Artikel wird eine Implementierung eines inkrementell lernenden neuronalen Netzalgorithmus für die Spracherkennung vorgestellt. Der Algorithmus wurde mit den TIMIT-Sprachproben untersucht und zeigt eine hohe Erkennungsgenauigkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-6268-1_42 264bd7d30f59fb824f06dabe750f4464;de;;;5.3.;;;Die Speicherung von Chancen Dieses Kapitel zeigt, wie man eine virtuelle soziale Umgebung, die von lebensechten Charakteren bewohnt wird, nutzen kann, um das Bewusstsein für Chancen zu schulen. Hier taucht ein Nutzer in eine virtuelle Geschichtenwelt ein, in der er mit animierten Agenten interagiert und Entscheidungen treffen kann, die die zukünftige Entwicklung der Geschichte beeinflussen und schließlich zu positiven oder negativen Konsequenzen führen. Unser;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-06230-2_14 8fd8bc79ec3afc0748d3fea76cf0127d;de;;;5.3.;;;Ein Modell für die soziale Regulierung von User-Agent-Beziehungen Konversationsagenten sind Gegenstand umfangreicher Forschungen. Immer mehr solcher Agenten simulieren affektives Verhalten, um Vertrautheit zu vermitteln und die Glaubwürdigkeit zu erhöhen. Nichtsdestotrotz vollziehen sich die sozialen Beziehungen zwischen den Menschen allmählich, und der Grad an Intimität, der mit solchen Beziehungen verbunden ist, reguliert das Verhalten der Menschen. Ebenso müssen wir bei der Modellierung der User-Agent-Interaktion das fortschreitende Wachstum von Beziehungen berücksichtigen. In diesem Beitrag stellen wir ein Modell vor, das die Entwicklung von User-Agent-Beziehungen reguliert und die Social Penetration Theory mit Persönlichkeitsmodellierung artikuliert. Benutzertests haben gezeigt, dass der schrittweise Aufbau von Beziehungen, der durch die Implementierung unseres Modells erreicht wird, einen Agenten interessanter macht und gleichzeitig seine Glaubwürdigkeit, sein Engagement und seinen Spaß erhöht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33197-8_33 6abfa30e579b579389f4de52564b21ba;de;;;5.3.;;;Die psychoinformatische Komplexität des Menschseins und die Person-Situations-Interaktion Dieser Beitrag stellt sich der Beantwortung der Fragen, wie Menschlichkeit definiert und rechnerisch funktionalisiert sowie Mensch-Situations-Interaktion mathematisch formalisiert werden soll. Komplexitätswissenschaft und Psychoinformatik sind die beiden Hauptgebiete, die bei der Beantwortung dieser Fragen berücksichtigt werden. Ein neuartiges Paradigma der „psychoinformatischen Komplexität“ (PIC) wird skizziert und als adäquates Paradigma zur Operationalisierung der modernen westlichen Menschlichkeit und der Mensch-Situation-Interaktion argumentiert. Der Beitrag endet mit einer Betrachtung aktueller PIC-Anwendungen, einschließlich Social Media Analytics und humanoider Robotik.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-12388-8_35 bcc97ecbb1fa945dce458bdb8751f084;de;;;5.3.;;;Funkausbreitung über das Meer und integrierte drahtlose Netzwerke für Hochseefischereischiffe Um den mobilen Benutzern auf Hochseefischereischiffen eine effiziente und kostengünstige Kommunikation in allen Seegebieten zu ermöglichen, analysiert dieses Papier die Anwendbarkeit bestehender drahtloser Technologien auf die Kommunikation über das Meer, insbesondere deren Funkausbreitungseffekte über das Meer. Um ihre jeweiligen Vorteile einander zu ergänzen, schlägt dieses Papier ein integriertes drahtloses Netzwerksystem vor, das aus einem mobilen Ad-hoc-Netzwerk, einem zellularen Mobilfunknetz und einem Satelliten-Mobilfunknetz besteht. Die Systemarchitektur des vorgeschlagenen heterogenen drahtlosen Netzwerksystems wird beschrieben, und der Zugangsauswahlmechanismus wird mit dem Always-Best-Connected-(ABC)-Konzept zum Nutzen mobiler Benutzer vorgeschlagen. Schließlich berichtet dieses Papier über ein entwickeltes Prototypsystem, um die Durchführbarkeit und Gültigkeit unserer Vorschläge zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29157-9_17 b6580fc6a2cb59d9ed4596acd14983a2;de;;;5.3.;;;Ein effektiver Ansatz zur Ressourcenzuweisung basierend auf der Spieltheorie im Mobile Edge Computing Als vielversprechende Technologie kann Mobile Edge Computing (MEC) eine IT-Service-Umgebung und Cloud-Computing-Funktionen am Rand des Mobilfunknetzes bereitstellen und auch die Latenz reduzieren und die Benutzererfahrung verbessern. In diesem Papier haben wir ein MEC-System vorgeschlagen, das aus einem privaten Dienstanbieter (SP) und mehreren mobilen Benutzern (MU) besteht. Ein spieltheoretischer Ansatz zur Optimierung der Ressourcenzuweisung wird vorgeschlagen, um die Interaktion zwischen dem Leader SP und den Follower MUs zu analysieren. Wir haben den Staufaktor zwischen verschiedenen MUs eingeführt. Darüber hinaus beweisen wir die Existenz des Nash-Gleichgewichts (NE) durch spieltheoretische Methoden und entwerfen einen effizienten Algorithmus der besten Antwort (BR), um dieses Problem zu lösen. Eine optimale Gleichgewichtsstrategie kann durch den BR-Algorithmus erhalten werden, und experimentelle Ergebnisse haben die Effizienz und Durchführbarkeit des Algorithmus gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2777-7_31 b533def1630d00f0d11321b8c9e750ac;de;;;5.3.;;;mHealth-Monitoring-System für stationäre ältere Erwachsene – aktuelle Themen und Herausforderungen Die mobilen Gesundheitsanwendungen (mHealth) werden bei der Überwachung und Durchführung von Gesundheitsmaßnahmen immer wichtiger. Aufgrund ihrer fortschrittlichen Rechenfunktionen und vielfältigen Fähigkeiten werden sie oft als Taschencomputer angesehen. Ihre hochentwickelten Sensoren und fortschrittlichen Softwareanwendungen machen mHealth-basierte Anwendungen praktikabler und innovativer. Fortschrittliche Ingenieur-, Kommunikations- und Informationstechnologien in Kombination mit medizinischem und klinischem Wissen ermöglichen die Möglichkeit einer drahtlosen, kontinuierlichen Fernüberwachung physiologischer Parameter. Diese Technologien ermöglichen die Implementierung von mHealth-basierten Patientenüberwachungs- und Diagnosesystemen praktisch überall: zu Hause, im Krankenhaus und im Freien (unterwegs). Das in diesem Kapitel vorgeschlagene mHealth-Vitalzeichen-Überwachungssystem soll Ärzten helfen, indem es die Spuren kritischer physiologischer Parameter veranschaulicht, Frühwarnungen/Warnungen generiert und auf signifikante Änderungen der Daten aufmerksam macht. Das System wurde mit verschiedenen gesammelten Daten von 20 im Krankenhaus behandelten älteren Erwachsenen validiert und erreichte eine Genauigkeit von 95,83 %, eine Sensitivität von 100 %, eine Spezifität von 93,15% und eine Vorhersagbarkeit von 90,38 % im Vergleich zu einer klinischen Beurteilung von Tachykardie, Hypertonie, Hypotonie , Hypoxämie und Hypothermie. Ein weiterer wichtiger Aspekt dieses Kapitels ist die Untersuchung von Herausforderungen und kritischen Fragen im Zusammenhang mit der Verwendung solcher Anwendungen im Gesundheitswesen, einschließlich Zuverlässigkeit, Effizienz, Variabilität der Mobiltelefonplattform, Kosteneffizienz, Energieverbrauch, Benutzeroberfläche, Qualität medizinischer Daten sowie Sicherheit und Datenschutz .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12817-7_14 82d68248874b9c7ffafeb7e2ed905f11;de;;;5.3.;;;Optimale Steuerung von Parameter-verteilten Systemen In der Regelungstheorie ist ein verteiltes Parametersystem ein dynamisches System, das durch eine partielle Differentialgleichung und im weiteren Sinne durch eine unendlichdimensionale Gleichung bestimmt wird. Alle grundlegenden Fragen der endlichdimensionalen Optimalsteuerungstheorie (Existenz optimaler Steuerung, Maximumprinzip, dynamische Programmierung) bleiben in diesem neuen Kontext aktuell, obwohl ihre Behandlung aufgrund der unendlichdimensionalen Natur des Problems oft ausgefeiltere Methoden erfordert. Tatsächlich deckt die Kontrolltheorie verteilter Parametersysteme ein sehr großes und vielfältiges Gebiet von Problemen und Methoden ab, und die Untersuchung einiger spezifischer Probleme, die in Anwendungen auftreten, macht einen Großteil der Substanz der Theorie aus. In diesem Kapitel stellen wir einige wichtige Ergebnisse und Methoden sowie einige konkrete Beispiele vor, um den Leser mit den Ideen und Fragen dieser Theorie vertraut zu machen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-0760-0_4 5a9e02ab5e7310efa62181e76c3a0347;de;;;5.3.;;;Genetische Kartierung von Samen- und Knötchenproteinmarkern in diploiden Luzerne Die genetische Karte der diploiden Luzerne wurde auf der Grundlage der genetischen Analysen der Genotypen von Markern erstellt, die für die Individuen einer F2-Population gesammelt wurden, die aus der Kreuzung zweier diploider Luzerne-Unterarten stammt,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-05036-1_15 d1b90ad546d5919192242e2a745cd324;de;;;5.3.;;;Die Realität eines Echtzeit-UNIX-Betriebssystems Industriestandards werden die Basis für die nächste Generation von Echtzeitsystemen sein. Diese Industriestandardsysteme, die als offene Systeme bezeichnet werden, bieten eine Reihe von Vorteilen für Benutzer. Offene Systeme reduzieren die Systemkosten und die Markteinführungszeit, erhöhen die Verfügbarkeit von Softwarepaketen, erhöhen die Benutzerfreundlichkeit, erleichtern die Systemintegration und können eine vollständige Softwareportabilität bieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-88049-0_25 4f088c2b4b46070d8e1bcb6a7e83143c;de;;;5.3.;;;Eine optimierte Farbbildsteganographie mit LFSR- und DFT-Techniken Es wird ein Farbbild-Steganographieverfahren zum Verbergen geheimer Daten in dem Titelbild im Frequenzbereich vorgeschlagen. Bei diesem Verfahren wird die Lempel-Ziv-Welch-(LZW)-Komprimierung verwendet, um eine niedrige Bitrate zu erhalten. Außerdem wird die Linear-Feedback-Schieberegister-(LFSR)-Technik verwendet, um die Sicherheit des Schemas zu erhöhen. Beim Einbettungsprozess werden ein Mechanismus der adaptiven Phasenmodulation (APM) und eine diskrete Fourier-Transformation (DFT) für die Einbettung geheimer Daten verwendet. Die Fähigkeiten des vorgeschlagenen Verfahrens sind hohe Geschwindigkeit und Sicherheit, da das Hardwareelement LFSR und die Datenverschlüsselungsstandard-(DES)-Kryptographie verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21802-6_40 fb0b6d9d79ab9608b0c95da85666ad37;de;;;5.3.;;;Viel Wissenswertes über die Geschichte Benutzer besuchen beim Surfen im Web häufig Seiten erneut, doch über den Charakter dieser erneuten Besuche ist wenig bekannt. In diesem Beitrag präsentieren wir eine Analyse verschiedener Revisit-Aktivitäten, basierend auf Ergebnissen einer langfristigen Click-through-Studie. Wir trennen Backtracking-Aktivitäten von wiederkehrendem Verhalten, diskutieren die Auswirkungen der Verwendung mehrerer Fenster und zeigen, dass insbesondere selten wiederkehrende Aktivitäten durch Mechanismen zur Unterstützung der aktuellen Historie schlecht unterstützt werden. Wir schließen mit einer Diskussion über Designimplikationen für eine personalisiertere Verlaufsunterstützung.;-;-;-;https://link.springer.com/chapter/10.1007/11768012_34 2ba125e9e8ea21da46880c2adab8c64d;de;;;5.3.;;;EMTY-Einführung Der ständig zunehmende Einsatz und Einfluss von Technologie im Bildungswesen ist unbestreitbar. Die Verbreitung von Computern und anderen technologischen Geräten sowohl am Arbeitsplatz als auch zu Hause hat den Bedarf an Schulen und Hochschuleinrichtungen erhöht, Fachkräfte des 21. Jahrhunderts auszubilden und vorzubereiten, die Technologie erfolgreich für persönliche und berufliche Zwecke einsetzen können. Pädagogen aus verschiedenen Bereichen und Klassenstufen haben sich bemüht, eine Vielzahl von Technologien zu erlernen und zu implementieren, um ihre Schüler auf die kommenden Anforderungen des Arbeitsmarktes vorzubereiten. Während sich viele dieser in der Bildung verwendeten Technologien im Laufe der Jahre weiterentwickelt haben, sind andere gerade erst entstanden, um vielversprechend auf die Bedürfnisse der Lernenden aus einer anderen Perspektive einzugehen oder aufkommende Bedürfnisse anzugehen. Dazu gehören unter anderem Websites, Videos, Blogs, Wikis, Apps, soziale Medien, Web 2.0-Tools, Online-Spiele und virtuelle Welten. Daher stehen Pädagogen und Forscher vor der nie endenden Herausforderung, mit den aktuellen Technologien Schritt zu halten, ihre Lehrmethoden anzupassen und das Lernen zu nutzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-14188-6_1 b16216bc5988cc2fdfbc817779e88bbc;de;;;5.3.;;;3. Einführung in die PLL erster Ordnung Dieses Kapitel befasst sich mit dem allgemeinen Verhalten der analogen PLL erster Ordnung, d. h. der Schleife ohne Filter. Dies ist der einfachste Fall einer PLL. Obwohl der Schleife erster Ordnung keine praktische Bedeutung zukommt, halten wir ihre Analyse für unverzichtbar, da sie zum tieferen Verständnis der PLL-Performance und zum Verständnis des Verhaltens von Schleifen höherer Ordnung beiträgt [7]. Es sollte beachtet werden, dass das Vorhandensein eines LPF in Schleifen höherer Ordnung die Manifestation bestimmter besonders interessanter nichtlinearer Effekte verhindert, die in der Schleife erster Ordnung auftreten. Aus der allgemeinen Beschreibung der Schleife erster Ordnung in diesem Kapitel geht auch die physikalische Interpretation des PLL-Verhaltens hervor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39990-2_3 8facfe3ddda5b9b56dc4dfc4092621ec;de;;;5.3.;;;Steuerung der Pendelnachführung (einschließlich Hochschwenken) des IPC-Systems mittels Nullpunkt-Gradientenmethode Die Pendelsteuerung des Inverted-Pendel-on-a-Cart (IPC)-Systems ist eines der wichtigsten Themen der nichtlinearen Regelungstheorie und wurde umfassend untersucht. Trotzdem wurde die Steuerung der Pendelnachführung und des Aufschwingens oft getrennt behandelt. In diesem Beitrag werden durch Kombinieren der Nullpunktdynamik und der konventionellen Gradientendynamik zwei prägnante Nullpunktgradienten(ZG)-Regler (bezeichnet als z2g0-Regler bzw. Wichtig ist, dass der vorgeschlagene z2g1-Controller nicht nur die gleichzeitige Steuerung von Pendelaufschwingen und Pendelwinkelnachführung realisiert, sondern auch das Singularitätsproblem elegant ohne Schaltstrategie löst. Außerdem wird das ZG-Verfahren mit dem optimalen Regelverfahren und dem Rückschrittverfahren verglichen. Die theoretischen Analysen zum Konvergenzverhalten von z2g0- und z2g1-Reglern werden weiter vorgestellt. Darüber hinaus ist die Beschränktheit beider Steuereingaben;-;-;-;https://link.springer.com/article/10.1007/s11071-017-3432-2 9dca84933cf9139c70c5c58483b4feed;de;;;5.3.;;;Expression und Sekretion von Repertoires von VH-Domänen in Die Herstellung monoklonaler Antikörper mittels Hybridoma-Technologie (Köhler und Milstein, 1975) stellt einen Meilenstein für die Verwendung von Antikörpern als Reagenzien für Medizin und Biologie dar. Es ist nun möglich, rekombinante DNA-Methoden zu verwenden, um Antikörpergene zu isolieren und genetisch zu manipulieren, und die resultierenden Immunglobuline oder Immunglobulinfragmente können effizient in Säugetier- oder Bakterienwirten exprimiert werden (für eine Übersicht siehe Morrison et al., 1988). Das Immunglobulin-Molekül besteht aus einer Reihe von Domänen, wobei jede Domäne aus etwa 100 Aminosäureresten besteht. Die konstanten Domänen tragen die Effektorfunktionen, wie beispielsweise Komplement-vermittelte Lyse und ADCC. Die Antigen-Bindungsstelle wird sowohl durch die variablen Domänen der schweren (VH) als auch der leichten (VL, Vκ oder Vλ) Kette gebildet, wie durch die gelösten kristallographischen Strukturen des Antikörpers in Verbindung mit dem Antigen gezeigt wird (Amit et al., 1986, Sheriff et al. 1987, Colman et al., 1987) oder Hapten (Satow et al., 1986). Variable Domänen wurden auf konstante Domänen (Morrison et al., 1984, Boulianne et al., 1984, Neuberger et al., 1985) und hypervariable Schleifen (CDRs) auf das darunterliegende (β-Faltblatt-Gerüst variabler Domänen ., 1986, Verhoeyen et al., 1988, Riechmann et al., 1988a) Die Transplantation von CDRs wurde verwendet, um Nagetier-Antikörper zu humanisieren, und ein solcher Antikörper wurde bei der erfolgreichen Behandlung von 2 Patienten mit Non-Hodgkins-Lymphom verwendet (Hale et al. , 1988, Riechmann et al., 1988a).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83755-5_153 ea846f34fbcc129d978d0437054bcb26;de;;;2.4.;;;Hochtemperatur-Supraleitungsforschung: ein Indikator für die Reaktionsfähigkeit der nationalen Wissenschafts- und Technologiepolitik Hochtemperatur-Supraleitung wurde in verschiedenen Ländern als Sonde für die Bewertung der wissenschafts- und technologiepolitischen Entscheidungsfindung verwendet. Unterschiede in Reaktionszeit und Verhalten wurden bei den drei Hauptakteuren festgestellt: den USA, Japan und der EWG. Während die USA bei weitem die höchste Rücklaufquote aufwiesen, reagierten nationale Forschungslabore und Universitäten mit umfangreichen staatlichen Zuschüssen deutlich langsamer als Unternehmensforschungslabore und Universitäten mit geringerer staatlicher Unterstützung. Die Studie legt nahe, dass die Abhängigkeit von großen Staatsverträgen die Fähigkeit dämpfen, schnelle Entscheidungen zu treffen und die politische Richtung mitten im Prozess zu ändern. In Europa verlief der Reaktionsprozess langsam und weist auf die Notwendigkeit hin, die Wissenschaftspolitik neu zu bewerten, um die Reaktionsfähigkeit auf Großereignisse zu erhöhen.;-;-;-;https://link.springer.com/article/10.1007/BF02371383 695018cddb297ac74072d1719265a85b;de;;;5.3.;;;Blinde Dekonvolution verschwommener Bilder mit Fuzzy-Größenerkennung der Punktverteilungsfunktion Das Ziel der gegenwärtigen Forschung ist es, die richtigen Dimensionen der Point Spread Function (PSF) zu finden, die ein entscheidender Schritt bei der blinden Dekonvolution von linear verschwommenen Bildern ist. Normalerweise wird die PSF-Größe durch Versuch und Irrtum geschätzt, basierend auf der Benutzererfahrung. Angesichts der Fuzzy-Natur dieses Problems haben wir in Matlab ein Fuzzy-Inferenzsystem (FIS) implementiert, um die Größe von PSF effizient vorherzusagen. Das Fuzzy-System basiert auf der gemeinsamen Beobachtung, dass die Größe von PSF direkt mit dem Ausmaß der Verschlechterung in jedem Pixel im Originalbild zusammenhängt. Das verschwommene Bild wird mit einem kantenextrahierten Bild verglichen und die PSF-Größe wird durch Berücksichtigung der Kantenverzerrung geschätzt. Die Ergebnisse sind ermutigend und die in diesem Papier vorgestellte Methode kann verwendet werden, um den langwierigen Prozess der PSF-Größenschätzung auf der Grundlage von Versuch und Irrtum zu vermeiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28962-0_26 3ff85831904802248893182453b5442b;de;;;5.3.;;;Gesichtsbasiertes grafisches Authentifizierungssystem mit Hybridbildern Die in der Sicherheitswelt verwendeten Authentifizierungssysteme variieren stark, aber ein System, das Textpasswort-Authentifizierungssystem, hat dominiert und ist heute die am häufigsten verwendete Authentifizierungsmethode. Sichere Textpasswörter sind jedoch schwer zu merken. Im Gegensatz dazu sind Gesichter leichter zu merken als Text [;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6835-4_9 0da80d9ac97d3d271102332b07a6e9cb;de;;;5.3.;;;Ein grundlegender domänenspezifischer Sprachvorschlag für die modellgesteuerte Web-Engineering-Codegenerierung Es ist bekannt, dass Model-Driven Web Engineering die Entwicklung von Code-Generierungswerkzeugen erfordert, um außerhalb des Forschungsbereichs als Komplettlösung in der Webanwendungsentwicklungsindustrie eingesetzt zu werden. Leider fehlt eine vollständig geführte Methodik, die von einem vollständigen Code-Generierungstool unterstützt wird, das einen vollständigen Entwicklungsprozess basierend auf MDA (Model-Driven Architecture) berücksichtigt. Die Idee hinter MDA ist, dass Anforderungen (funktionale und nichtfunktionale Anforderungen) vom Computational Independent Model (CIM) über das Platform Specific Model (PSM) bis zum Platform Independent Model (PIM) betrachtet werden, um den Quellcode für die Webanwendung zu generieren . In unserer Arbeit wird eine grundlegende DSL (Domain Specific Language) für die Codegenerierung von Webanwendungen vorgestellt, die die grundlegende Sprache berücksichtigt, die in einer kleinen Softwarefabrik in Mexiko verwendet wird. Dies ist eine fortlaufende Arbeit, die Teil eines institutionellen Projekts ist, um eine Reihe von Tools zur Codegenerierung für die Entwicklung von Webanwendungen aufzubauen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-42092-9_5 59ecc3529a3134607fbbbf8aad864488;de;;;5.3.;;;MPTCP Multipath Protocol Evaluation in Paketnetzwerken In Datennetzen verwenden Mehrwegealgorithmen mehr als einen Weg, um Informationen von einer Quelle zu einem Zielknoten zu transportieren. Obwohl es viele Algorithmen für Mehrwegelösungen gibt, muss die Leistungsbewertung in Simulatoren und Testumgebungen noch umfassend analysiert werden. Die vorliegende Arbeit analysiert die MPTCP-Protokollleistung durch seine Implementierung im NS-3 Netzwerksimulator. Außerdem wird MPTCP mit dem TCP-Protokoll verglichen, um den Einfluss der Anzahl von Knoten auf die Leistung jedes Protokolls zu bewerten. Die in dieser Arbeit betrachteten Leistungsmetriken sind Fenstergröße, Jitter und Durchsatz. Die Simulationsergebnisse zeigen, dass MPTCP den Durchsatz gegenüber dem TCP-Protokoll verbessert. Darüber hinaus hat die MPTCP-Fenstergröße ein besseres Verhalten und die vollständigen Lieferinformationen werden in kürzerer Zeit erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-42531-9_6 85ab360c18067a0fd4cecd8e38d63d2b;de;;;5.3.;;;KnowledgeBus – Eine Architektur zur Unterstützung von intelligentem und flexiblem Wissensmanagement MoKEx (Mobile Knowledge Experience) ist eine internationale Projektreihe mit Fokus auf aktuelle Herausforderungen im Wissensmanagement und E-Learning. Die Projektreihe erfolgt in Kooperation mit Hochschulen und Industriepartnern in Deutschland und der Schweiz und verknüpft Praxisgemeinschaften mit den innovativen Ansätzen von Lerngemeinschaften. Als Ergebnis der jüngsten Durchführung des Projekts wurde eine Architektur entwickelt, die die flexible Anbindung verschiedener unabhängiger Wissenssysteme über den sogenannten KnowledgeBus unterstützt. Dieses Papier stellt das Konzept des Single Point of Information (SPI) und den KnowledgeBus selbst vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75195-3_42 5464c87428f67fd8911b42116881bcbb;de;;;5.3.;;;Interaktionsstrategien für einen affektiven Gesprächsagenten Die Entwicklung von Embodied Conversational Agents (ECA) als Companions bringt verschiedene Herausforderungen sowohl für den affektiven als auch für den dialogischen Dialog mit sich. Dazu gehören Herausforderungen bei der Generierung angemessener affektiver Reaktionen, der Auswahl der Gesamtform des Dialogs, der Bereitstellung schneller Systemreaktionszeiten und der Handhabung von Unterbrechungen. Wir präsentieren eine Implementierung eines solchen Companion und zeigen die Entwicklung einzelner Module, die versuchen, diese Herausforderungen anzugehen. Um daraus resultierende Konflikte zu lösen, präsentieren wir darüber hinaus umfassende Interaktionsstrategien, die versuchen, die konkurrierenden Anforderungen auszugleichen. Abschließend präsentieren wir Dialoge aus unserem Arbeitsprototyp, um diese Interaktionsstrategien im Betrieb zu veranschaulichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15892-6_31 08a5c0d6aa7729ffb32bc8daba75cb00;de;;;5.3.;;;Auf dem Weg zu einer virtuellen Revolution In einer gemeinsamen Keynote des ACM Symposium on User Interface Software and Technology (UIST) und des ACM Symposium on Spatial User Interfaces (SUI) behauptete Mark Bolas die oben genannte Aussage. Obwohl ich mir beim zweiten Teil nicht sicher bin, stimme ich dem ersten Teil voll und ganz zu. Außerdem glaube ich ehrlich gesagt, dass uns bald eine virtuelle Revolution bevorsteht. Der Begriff virtuelle Revolution wurde früher verwendet, um zu beschreiben, wie das Internet und das WWW unser Leben seit seiner Einführung vor mehr als 25 Jahren beeinflusst haben. Die heutigen IKT dominieren die meisten wirtschaftlichen, sozialen und kulturellen Praktiken unserer Welt und haben vielleicht die Art und Weise, wie wir miteinander kommunizieren, zusammenarbeiten oder unsere Freizeit verbringen, für immer verändert. Das Erstaunlichste an diesem Wandel ist das Tempo, mit dem diese Veränderungen erfolgen. Für die meiste Zeit der Menschheitsgeschichte war es vernünftig anzunehmen, dass die Welt, in der Sie sterben werden, ziemlich genauso aussehen würde wie die, in der Sie geboren wurden. Mehr als 50.000 Jahre lang lebten die Menschen am Rande des Existenzminimums und gerieten in die sogenannten;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-43078-2_3 3ce510c88b001abad58f91b24cd7da66;de;;;5.3.;;;Q’inqu: Inklusives Brettspiel zur Integration von Menschen mit Behinderungen Die schulische Inklusion von Menschen mit Behinderungen ist nach wie vor eine große Herausforderung für die Gesellschaft. Aufgrund der Vielfalt und Komplexität des Feldes haben Menschen mit Behinderungen nur wenige Möglichkeiten, in Bildungsaktivitäten oder gar Unterhaltung integriert zu werden. Dieser Artikel beschreibt eine neuartige Bildungsressource, die im Bereich der angewandten Technologien entwickelt wurde. Q’inqu ist ein integratives Brettspiel, das die familiäre und pädagogische Inklusion von Menschen mit Behinderungen fördert. Q’inqu ist ein Quechua-Wort und bedeutet „Labyrinth“. Dies ist eine Metapher für die Herausforderungen, denen sich Familien mit einer Person mit Behinderung gegenübersehen, und spiegelt auch ihre Erzählstruktur wider, die auf der „Legende vom Inkaschatz“ basiert. Q'inqu hat das allgemeine Thema eines traditionellen Brettspiels, bei dem abwechselnd gespielt wird, bis der Schatz gefunden ist. Der Unterschied besteht darin, dass integrative Elemente durch den Einsatz von Technologie integriert werden. Es gibt Karten mit Braille-Code, eine rechteckige Tafel mit hohem Relief und eine runde Tafel mit Texturen. Eine App liest QR-Codes und auch Muster, die auf Basis von Augmented Reality Zusatzinformationen präsentieren. Diese Funktionen bieten Unterstützung für blinde Spieler und für diejenigen, die nicht lesen können, und machen das Spiel sowohl unterhaltsam als auch lehrreich. Q’inqu wurde von einem multidisziplinären Team von 80 Personen entwickelt und getestet, zu dem Studenten und Fachleute aus Design, Bildung und Pädagogik gehörten. Das relevanteste Ergebnis war, dass es von 367 eingereichten Ideen den ersten Preis in der Kategorie Spielzeug für Kinder mit Behinderungen beim CMA-Wettbewerb in Ecuador erhielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-42517-3_7 8275829ba1df60f479480f0f75612029;de;;;5.3.;;;Embedded RTOS: Leistungsanalyse mit hochpräzisen Zählern Wir haben die Leistung eines eingebetteten Echtzeitsystems auf einem PC/104-System für den Einsatz in einem Szenario mit Fußball spielenden Robotern bewertet. Dazu haben wir einen gängigen Linux-Kernel mit der Echtzeit-Anwendungsschnittstelle RTAI gepatcht und auf den Embedded-Systemen der Roboter installiert. Wir führten eine Leistungsanalyse des Betriebssystems durch, indem wir die Reaktionszeit für extern verursachte Hardware-Interrupts überwachten, um die Verwendbarkeit der angeschlossenen IR-Distanzsensoren mit dem integrierten Embedded-System zu überprüfen. Daher haben wir eine Interrupt-Service-Routine für den Parallelport des Boards implementiert, um eine Systemantwort auf extern ausgelöste Hardware-Interrupts zu generieren. Für eine schnellere Aufzeichnung wurden Interrupts über einen am Parallelport des Systems angeschlossenen Signalgenerator ausgelöst und die Reaktion über ein Oszilloskop überwacht. Aufgrund von Fehlern bei höherfrequenten Eingaben und für detaillierte statistische Analysen haben wir ein Überwachungssystem mit einem hochpräzisen Histogrammskalierer und -zähler aufgebaut. Die Leistung des eingebetteten Systems in Bezug auf die Reaktionszeit wurde in verschiedenen Systemzuständen überwacht und analysiert. Unsere Infrastruktur ermöglicht eine einfache und präzise Möglichkeit zur Leistungsanalyse von eingebetteten Echtzeitbetriebssystemen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73424-6_20 b2aa3e6266efa99ec9a60da506eec6a1;de;;;5.3.;;;Sprachliche Eigenschaften von Mehrwort-Passphrasen Wir untersuchen menschliche Entscheidungsmuster in einem passphrasenbasierten Authentifizierungssystem, das von Amazon, einem großen Online-Händler, bereitgestellt wird. Wir haben die Verfügbarkeit eines großen Korpus von über 100.000 möglichen Phrasen auf der Registrierungsseite von Amazon getestet, die die Verwendung von Phrasen verbietet, die bereits von einem anderen Benutzer registriert wurden. Eine Reihe von großen, leicht zugänglichen Listen wie Film- und Buchtiteln erweisen sich als effektiv beim Erraten von Angriffen, was darauf hindeutet, dass Passphrasen anfällig für Wörterbuchangriffe sind, wie alle Schemata, die menschliche Entscheidungen beinhalten. Wenn wir unsere Analyse mit natürlichsprachlichen Phrasen erweitern, die aus linguistischen Korpora extrahiert wurden, stellen wir fest, dass die Phrasenauswahl alles andere als zufällig ist, wobei Benutzer stark einfache Substantivbigramme bevorzugen, die in natürlicher Sprache üblich sind. Die Verteilung ausgewählter Passphrasen ist weniger verzerrt als die Verteilung von Bigrammen in englischem Text, was darauf hindeutet, dass einige Benutzer versucht haben, Phrasen zufällig auszuwählen. Dennoch ist die Verteilung von Bigrammen in natürlicher Sprache nicht annähernd zufällig genug, um Offline-Ratschlägen zu widerstehen, ebenso wenig wie längere Sätze aus drei oder vier Wörtern, für die wir schnell abnehmende Erträge sehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34638-5_1 d32ab254f185a39bae564cf3c6d68423;de;;;5.3.;;;Ein geschwindigkeitsangepasster vertikaler Handover-Algorithmus basierend auf Fuzzy-Logik Die Entwicklung der drahtlosen Kommunikationstechnologie fördert die Unvermeidlichkeit der Netzwerkintegration. Um die Probleme bei der Übergabe heterogener drahtloser Netzwerke zu lösen, schlägt dieses Papier einen geschwindigkeitsangepassten vertikalen Übergabealgorithmus basierend auf Fuzzy-Logik vor. Der Algorithmus erfasst periodisch Bewegungsinformationen des Endgeräts in der heterogenen Netzwerkumgebung. Durch die Verwendung einer Schwellwertfunktion basierend auf dem einfachen Gewichtungsverfahren und Anpassung des Schwellwertes in Kombination mit der Geschwindigkeit werden die Informationen, die nicht zur Übergabe geeignet sind, herausgefiltert. Dann werden die empfangene Signalstärke (RSS), die im Netzwerk verfügbare Bandbreite und die Batterieleistung normalisiert und in einen Fuzzy-Logic-Controller eingegeben, um einen umfassenden Netzwerkleistungswert (NCPV) zu erhalten. Schließlich wird die Übergabeentscheidung gemäß NCPV durchgeführt. Die Simulationsergebnisse zeigen, dass dieser Algorithmus mit zunehmender Geschwindigkeit unnötige Übergaben reduzieren und die Erzeugung von Ping-Pong-Effekten im Vergleich zum herkömmlichen Algorithmus unterdrücken kann. Darüber hinaus berücksichtigt dieser Algorithmus auch Faktoren wie Netzwerkverzögerung, Dienstkosten usw. Diese verbessern die Dienstgüte (QoS) und die Benutzerzufriedenheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-05888-3_16 3118bda140d8cda4f3755e329a04b867;de;;;5.3.;;;Schätzung der Zugriffshäufigkeit für Cloud-Dienste basierend auf einer Streamfiltermethode Cloud Service Discovery bildet die Grundlage für die effiziente und agile Umsetzung komplexer Geschäftsprozesse. Das Kernproblem bestehender QoS-fähiger Cloud-Service-Discovery-Mechanismen besteht darin, dass der Prozess der Cloud-Service-QoS-Erfassung schwierig ist. Die Frage, wie die Anzahl der Zugriffe auf einen Cloud-Dienst über einen bestimmten Zeitraum ermittelt werden kann, muss angegangen werden, und die Zugriffsinformationen für den Cloud-Dienst müssen vollständig aufgezeichnet werden. Es ist schwierig, herkömmliche Mittel der Datenverarbeitung an die gleichzeitigen Zugriffsanforderungen eines massiven Cloud-Dienstes anzupassen, was zu einem Mangel an genauer QoS-Informationsunterstützung für die Aggregation von Cloud-Diensten führt. In diesem Artikel wird eine Methode vorgeschlagen, die auf Bucket-Filterung basiert, um Protokollinformationen zum Zugriffsfluss von Cloud-Diensten zu sammeln. Anschließend wird eine Möglichkeit untersucht, den Zugriffsfluss von Cloud-Diensten in einen binären Bitstrom zu abstrahieren, und verwendet den DGIM-Algorithmus, um eine ungefähre Bewertung des Zugriffs auf Cloud-Dienste durchzuführen, um den Zugriffsfluss von Cloud-Diensten zu analysieren. Unser Ansatz ermöglicht eine Schätzung der Zugriffshäufigkeit von Cloud-Diensten und gleicht den Raum- und Zeitaufwand für die Speicherung und Berechnung von Zugriffsprotokollen für Cloud-Dienste aus. Theoretische Analysen und experimentelle Überprüfungen belegen, dass unser Zugang eine gute Universalität und gute Leistung aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3281-8_12 1df064268f558301a92eeb79217e0bb6;de;;;5.3.;;;Ein verbesserter LBG-Algorithmus für Benutzer-Clustering in ultradichten Netzwerken Ein neuartiger LBG-basierter User-Clustering-Algorithmus wird vorgeschlagen, um Interferenzen in Ultra-Dense Network (UDN) effizient zu reduzieren. Es gibt zwei Phasen, Gewichtungsdesign und Benutzerclustering. Da ein Benutzer gleichzeitig stören und von anderen Benutzern gestört werden könnte, wird bei der Gewichtsauslegung eine ausgewogene kooperative Übertragungsstrategie verwendet. Der verbesserte LBG-Algorithmus wird für das Benutzerclustering verwendet, der den Mangel des lokalen Optimums des herkömmlichen LBG überwindet. Darüber hinaus ist dieser Algorithmus dem herkömmlichen LBG in der Rechenkomplexität überlegen. Simulationsergebnisse zeigen, dass die Summenrate der Zellenrandbenutzer im Vergleich zum Referenzalgorithmus stark ansteigt und der durchschnittliche Systemdurchsatz offensichtlich höher wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-03766-6_6 a0ec1b8d741a3a883f5a3387000edb5a;de;;;5.3.;;;MPEG-DASH-System mit niedriger Latenz über HTTP 2.0 und WebSocket Dynamic Adaptive Streaming over HTTP (MPEG-DASH) ist eine adaptive Bitraten-Streaming-Technik, die den Videoinhalt in einige Sequenzen kleiner HTTP-basierter Dateisegmente mit unterschiedlichen Bitraten aufteilt. Da jetzt genügend Bandbreite vorhanden ist, ist die Live-Latenz zum schwerwiegendsten Problem geworden. MPEG hat zwei Kernexperimente besprochen: Server and Network-assisted DASH (SAND) und Full Duplex HTTP- Compatible Protocols (FDH), um die Leistung des Videostreamings zu verbessern. In diesem Papier beziehen wir uns auf die beiden Ideen und vervollständigen ein Streaming-System mit geringer Verzögerung über HTTP 2.0 und WebSocket. Basierend auf unseren Experimenten konnten wir adaptiv auswählen, welche Bitrate von Segmenten entsprechend den Netzwerkbedingungen übertragen werden soll. Mit der kleineren Header-Größe wurde die Bandbreitennutzung verbessert und es gibt 40,22;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8108-8_33 cde15b9421f4fb3eddf100e73cf40f41;de;;;5.3.;;;Formale Methoden in der Wissenschaft lehren: Eine systematische Literaturübersicht Die Menge an Literatur zum Unterrichten formaler Methoden ist gewachsen. Es fehlt jedoch an Versuchen, bestehende Praktiken systematisch zu überprüfen. Diese Studie versucht, Herausforderungen im Zusammenhang mit der Vermittlung formaler Methoden zu identifizieren, indem sie die Literatur zu diesem Thema untersucht. Die Literaturrecherche kategorisiert und systematisiert die vorhandenen Erfahrungen in der Vermittlung formaler Methoden an Studierende an Hochschulen. Es stellt die gemeldeten Hindernisse sowie die Strategien zu deren Bewältigung vor, von denen erwartet wird, dass sie den derzeitigen Praktikern helfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71374-4_12 6b82b33379de2b3a2844f70129702d41;de;;;5.3.;;;Smart Cities in Indien: Modernisierung des Straßenbeleuchtungssystems mit IOT Smart Environment beschäftigt sich mit dem Einsatz substanzieller Technologien, um die Umgebung besser zu pflegen und besser informiert zu sein. Auf diesem Gebiet wurden bedeutende Arbeiten in der heutigen Welt ebenso umfassend wie bei anderen Technologien durchgeführt. Das Hauptproblem besteht darin, Licht ins Dunkel der schlechten Wetterbedingungen zu bringen, die die ordnungsgemäße Funktion des Systems beeinträchtigen und wie die Dinge verbessert werden können. Dieses Papier deckt das spezifische Spektrum von Smart Cities und Umgebungen ab – eine sehr potenzielle Teilmenge des IoT. Feuchtigkeitssensoren und LDR werden verwendet, um die schlechten Wetterbedingungen zu verbessern. Diese Sensoren können die Umgebung erfassen, nach der das System agiert. Der Mikrocontroller wird als das Gehirn des Systems fungieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3143-5_44 583a3e0be9812a6692bd647d4aec7137;de;;;5.3.;;;Ein Cross-Layer-Framework für adaptives Video-Streaming über drahtlose IEEE 802.11-Netzwerke Die Entwicklung von Videokompressionstechniken und drahtlosen Techniken hat zu einer beträchtlichen Anzahl von Videostreaming-Anwendungen in drahtlosen Netzwerken geführt. Jedoch führt die zeitveränderliche Übertragungscharakteristik der drahtlosen Kanäle zu einer schlechten Leistung des Multimediaverkehrs über drahtlose Netzwerke. Dies führt zu längerer Paketverzögerung, Jitter und geringerem Durchsatz, die die Videoqualität auf der Empfangsseite erheblich verschlechtern und somit die Benutzererfahrung beeinträchtigen. In dieser Arbeit schlagen wir ein schichtübergreifendes Rahmenwerk vor, das die Transkodierungsrate auf der Anwendungsschicht in Abhängigkeit von der Kanalbedingung optimiert, die unter Verwendung von Parametern, die der Sicherungsschicht zugeordnet sind, geschätzt wird. Darüber hinaus evaluieren wir das vorgeschlagene Framework mit dem NS-2-Simulator mit dem EvalVid-Framework. Wir verwenden drei verschiedene Motion-Video-Sequenzen, um das vorgeschlagene Rahmenwerk zu bewerten. Unser Simulationsergebnis zeigt, dass das vorgeschlagene Cross-Layer-Framework die Videoqualität in allen drei Fällen auf der Empfangsseite verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17857-3_9 db8899583df4baafceedbda1987aa650;de;;;5.3.;;;Ein Überblick über Handoff-Optimierungstechniken in Datennetzwerken Auf einem mobilen Gerät ist der ununterbrochene Empfang von Multimedia-Streams für eine gute Benutzererfahrung unerlässlich. Ein unterbrechungsfreier Empfang ist jedoch nicht möglich, wenn sich das Mobilgerät bewegt. Wenn ein Benutzer seinen Standort ändert, kann der Mobile Node (MN) seine aktuelle Zelle ändern. Eine beträchtliche Menge an Zeit wird bei der Übergabeprozedur verbraucht. Die Übergabelatenz verursacht eine Unterbrechung der Datenübertragung zum MN. Es gibt viele Möglichkeiten, die Übergabeprozedur zu verbessern, so dass verzögerungsempfindliche Anwendungen nicht unter der Übergabelatenz leiden. Einige der Mechanismen sind die frühzeitige Übertragung des Kontexts auf die neue Basisstation (BS), frühes Kanalscannen, effiziente Kommunikation zwischen BS, Einführung zusätzlicher Puffer zwischen BS und MN, Verwendung eines Proxys für nahtlose Konnektivität usw. In diesem Artikel besprechen wir einige dieser Techniken. Die meisten Anwendungen sind auf Wi-Fi-Domänen anwendbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20209-4_27 eae1f34eb6fbed4d7c17788861aea3fb;de;;;5.3.;;;Nebelfähige drahtlose Kommunikationsnetzwerke Drahtlose Kommunikationsnetze erfahren ein beispielloses Verkehrswachstum und eine zunehmende Vielfalt von Diensten, die jeweils potenziell unterschiedliche Verkehrsmuster und Anforderungen an die Dienstgüte (QoS) und/oder die Erfahrungsqualität (QoE) aufweisen. Um das anhaltende Verkehrswachstum und die Ausweitung der Dienste bewältigen zu können, müssen zukünftige drahtlose Netzwerke heterogen und dicht aufgebaut sein, die Koexistenz verschiedener Funkzugangstechnologien (RATs) aufweisen und werden wesentlich komplexer einzurichten und zu betreiben sein als die bestehenden drahtlosen Netzwerke . Dies hat die Notwendigkeit der Selbstoptimierung von drahtlosen Netzwerken deutlich gemacht, bei der drahtlose Netzwerke automatisiert werden, um menschliche Eingriffe zu minimieren und die Netzwerkbereitstellung, den Betrieb und die Multi-RAT-Ressourcenzuweisung proaktiv zu optimieren, um die steigende Servicenachfrage von Menschen und dem Internet zu erfüllen Dinge (IoT). In letzter Zeit wurde Fog Computing als vielversprechender Paradigmenwechsel angesehen, um eine autonome Verwaltung und den Betrieb von drahtlosen Netzwerken zu ermöglichen. Da die Forschung zur Selbstoptimierung von Fog-fähigen drahtlosen Netzwerken gerade erst begonnen hat, gibt es viele Aspekte, die nicht gut verstanden werden und viele offene Herausforderungen, die angegangen werden müssen. In diesem Kapitel untersuchen wir, wie Fog Computing die Selbstoptimierung für drahtlose Netzwerke ermöglichen würde, die als Infrastruktur für die Bereitstellung einer allgegenwärtigen drahtlosen Konnektivität für das IoT dienen. Genauer gesagt werden wir zunächst verschiedene Architekturen von selbstorganisierenden Netzwerken (SON) diskutieren und wie sie vom Fog-Computing-Paradigma profitieren würden, und dann untersuchen, wie Fog-Computing neue Möglichkeiten bieten und neue Funktionen für mehrere wichtige SON-Funktionalitäten, einschließlich Mobilität, ermöglichen würde Lastausgleich, Selbstoptimierung der Mobilitätsrobustheit und -übergabe, Selbstkoordinierung von Interferenz zwischen Zellen, Selbstoptimierung von Abdeckung und Kapazität und selbstoptimierte Zuweisung von Rechen-, Speicher- und Netzwerkressourcen in drahtlosen Netzwerken;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-23185-9_5 fc4f928298ec26bc2c7e1cb90007d6ed;de;;;5.3.;;;Design und Implementierung eines Statusüberwachungssystems für E-Learning Web Service Dieses Papier basiert auf dem „National Elaborate Course Integration Project“, das darauf abzielt, den Servicestatus von verteilten Webservern für aufwändige Kurse im ganzen Land zu überwachen. Es wird ein Bewertungsindexsystem entwickelt und eine umfassende Bewertungsmethode angewendet, um die Konnektivität des Webservers zu bewerten. Dieses Papier schlägt auch eine Managementmethode für die Überwachungsstrategie vor, um die regelmäßige Überwachung zu optimieren. Detaillierte Systemdesign- und historische Implementierungsergebnisse werden bereitgestellt, um die Durchführbarkeit und Wirksamkeit des Systems nachzuweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24010-2_22 47204dea8d88857b192a9c8f34a0e889;de;;;5.3.;;;Neue Ideen im Ranking für personalisierte Modeempfehlungssysteme Mode ist ein Bereich, der ständig wächst. Die Verbreitung von Social Media und dem Web im Allgemeinen hat E-Shopping und damit entsprechende Empfehlungssysteme immer wichtiger gemacht. Modeempfehlungssysteme sind ein verwandter Bereich, auf den wir uns in diesem Kapitel konzentrieren. Konkret stellen wir vor, wie Empfehlungssysteme in Online-Fashion-Stores eingesetzt werden, um das Nutzererlebnis zu verbessern und den Umsatz zu steigern. Darüber hinaus betrachten wir Herausforderungen, denen sich die Modebranche speziell gegenübersieht. Wir veranschaulichen Lösungsstrategien, indem wir das SoBazaar-System betrachten, einschließlich zeigen, wie wir einen Empfehlungsansatz für das System entwickelt haben, und die Ergebnisse unserer Experimente diskutieren. Die Ergebnisse dieser Experimente zeigen die Wirksamkeit und Durchführbarkeit unserer Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-06222-4_25 6dae0783eb71ae0d7cfcb25be966e4f0;de;;;2.4.;;;Können KMU in traditionellen Industrien kreativ sein? Innovationen sind Neuschöpfungen von wirtschaftlicher Bedeutung, die hauptsächlich von Unternehmen ausgeführt werden. Das können neue Produkte, Prozesse, Geschäftsmodelle oder marketingorientierte Innovationen sein. Je nach Charakter können sie inkrementell oder radikal sein. Aber wie managen wir Innovationen? Ist das überhaupt möglich? In diesem Kapitel wird versucht, das Innovationsmanagement zu beleuchten und bestimmte Begriffe zu klären, die in Managementkontexten und in Forschungsumgebungen normalerweise synonym verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1057/9781137299994_4 81138596100924b955bde77ed73c8d23;de;;;2.4.;;;Modellierung eines Zweikomponenten-Mischsystems, das bei der Herstellung von Windgeneratorblättern verwendet wird Der Einsatz sauberer Energie hat in den letzten Jahren zugenommen, insbesondere die Stromerzeugung durch Windenergie. Windgeneratorblätter werden normalerweise von Zweikomponenten-Mischmaschinen hergestellt. Mit dem Ziel, das Verhalten dieser Art von Fertigungssystemen vorherzusagen, wurde ein Modell entwickelt, das es ermöglicht, die Leistung einer echten Zweikomponenten-Mischanlage zu kennen. Der neuartige Ansatz wurde durch die Verwendung von Clustering in Kombination mit Regressionstechniken mit einem während des Systembetriebs gewonnenen Datensatz erhalten. Schließlich wurde das erstellte Modell mit sehr zufriedenstellenden Ergebnissen getestet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10840-7_34 abbbd0436247653de8dc86e3b1276d0c;de;;;2.4.;;;Die INSAR-Technik: ihr Prinzip und ihre Anwendungen zur Kartierung des Deformationsfeldes von Erdbeben Die Entwicklung, der Stand der Technik und die Anwendungsperspektiven der Radarfernerkundungstechnik werden vorgestellt. Das Prinzip der INSAR-Technik (Interferometric Synthetic Aperture Radar) wird näher erläutert. Einige Anwendungen dieser Technik bei der Messung seismischer Versetzungen werden angegeben. Abschließend wird darauf hingewiesen, dass INSAR ein nicht ersetzbares Anwendungspotenzial bei der Beobachtung von vertikalen Deformationen der Bodenoberfläche hat, es würde ein völlig neues Mittel und eine neue Methode zur Überwachung des dynamischen Feldes von Erdbeben bieten und der zukünftigen Erdbebenvorhersage einen extrem großen Impuls geben .;-;-;-;https://link.springer.com/article/10.1007/s11589-998-0012-z 5fd67bcea61617ec3021fdee878e693d;de;;;5.3.;;;ALM-Tool-Infrastruktur mit Fokus auf DevOps-Kultur Bei iNNOVA IT Solutions schneidern wir mit unserem Team von mehr als 1300 IT-Experten plattformunabhängig maßgeschneiderte Software- und Systemlösungen. Die ALM-Tool-Infrastruktur wurde im Laufe der Jahre kontinuierlich verbessert, um die Rückverfolgbarkeit von Arbeitselementen aufrechtzuerhalten, eine einzige Quelle der Wahrheit zu definieren und die Kommunikation und Zusammenarbeit zu verbessern, die einer der wichtigsten kulturellen Aspekte von DevOps ist. Dieses Papier beschreibt, wie die Tool-Infrastruktur eingerichtet und verwendet wird, um die Rückverfolgbarkeit zwischen Arbeitselementen wie Änderungsanforderungen, Konfigurationselementen, technischen Dokumenten, Testfällen, technischen Aufgaben und Code zu verwalten, die Wissensdatenbank und die Historie während der Auswirkungsanalyse zu nutzen , den Echtzeitstatus von Releases, Änderungsanforderungen, Sprints, Testplänen und allen zugehörigen Arbeitselementen verfolgen, formatierte Kundendokumentation in langfristigen Wartungsprojekten generieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-97925-0_24 59ae0cff509b0e37fed7cb3618a73f07;de;;;5.3.;;;"Zellmanipulationen durch optische Pinzetten und Laserablation In diesem Kapitel stellen wir Zellmanipulationstechniken mit optischen Pinzetten und Laserablation vor, die sich auf den Nutzen von Femtosekundenlasern konzentrieren. Die optische Pinzette ermöglicht eine präzise Positionskontrolle von Zellen und intrazellulären Organellen einzeln unter mikroskopischer Beobachtung. Im Abschnitt """;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-319-69537-2_51-1 d483c98236d1b75c015b9d1a2a486ed2;de;;;5.3.;;;Forschung zum optimierten Pre-Copy-Algorithmus der Live-Container-Migration in einer Cloud-Umgebung Einige Lastungleichgewichtsprobleme treten unter der verteilten Cloud-Computing-Plattform auf, die auf Containern basiert. Und es ist notwendig, den Container des Servers mit der höheren Last auf einen anderen relativ inaktiven Server zu übertragen. Der traditionelle Vorkopieralgorithmus ignoriert die Eigenschaften der Speicherseiten, was bewirkt, dass Speicherseiten mit hoher Re-Modifikationsrate in der iterativen Kopierphase viele Male kopiert werden. Daher schlägt dieses Papier einen optimierten Pre-Copy-Algorithmus (OPCA) vor, der ein Gray-Markov-Vorhersagemodell einführt. Speicherseiten werden durch das Vorhersagemodell mit hoher Re-Modifikationsrate in den Hot Workspace hinzugefügt, und diese Speicherseiten sind an der Stoppkopie beteiligt. Die Experimente zeigen, dass OPCA die Anzahl der Iterationen und Ausfallzeiten reduziert. Darüber hinaus verbessert es auch die Nutzung von Ressourcen und verbessert die Benutzererfahrung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-6442-5_53 010f2e7fe9a288e7f977dae60ebdc155;de;;;5.3.;;;Visualisierung von Emotionen beim Einsatz von Immersive Augmented Reality Technologien für die Immobilienwirtschaft Real In dieser Studie wurde eine emotionale Analyse unter Verwendung einer Gehirn-Computer-Schnittstelle namens Emotiv Epoc+ durchgeführt, um den Zugang zum Immobiliensektor durch immersive Umgebungen zu verbessern, die mit AutoCAD- und Unity-Tools erstellt wurden und mit deren Hilfe aus Bauplänen eine Immobilienkontur erstellt wird von AutoCAD, um später dank des Unity-Tools, mit dem die Modellimmobilie dargestellt wird, ein 3D-Modell zu generieren, wurde festgestellt, dass die Verwendung dieser Art von Umgebungen 4 von 5 normalisierten Emotionen erhöht, wobei es sich um Emotionen handelt Engagement, Frustration, sofortige Aufregung y Langfristige Aufregung, es wird geschlussfolgert, dass die Kosten von Immobilienunternehmen gesenkt werden könnten, weil sie kein Musterhaus bauen müssten, zusätzlich kann mit den Ergebnissen der emotionalen Analyse die Benutzererfahrung verbessert werden, indem die Eigenschaften der immersiven Umgebung modifiziert werden die Freude des Benutzers.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-31019-6_7 187c82825d4d76f568f7401160181126;de;;;5.3.;;;Interconnection Network: Design Space Exploration von Netzwerken für Supercomputer Dieses Kapitel berichtet über die Exploration des Entwurfsraums für ein Verbindungsnetzwerk-Subsystem in einem Supercomputer für speicherintensive Anwendungen, der in einer Machbarkeitsstudie für Supercomputer der nächsten Generation durchgeführt wurde. Supercomputer, die aus vielen Knoten mit Hochleistungsprozessoren bestehen, benötigen auch ein Hochleistungsnetzwerk, damit die Rechenleistung auf das gesamte System hochskaliert werden kann. In unserer Design Space Exploration diskutieren wir die Machbarkeit von Netzwerken mit verschiedenen Topologien basierend auf 64 × 64 High-Radix-Crossbar-Switches unter der Annahme eines Systemüberblicks und verfügbarer Technologien bis 2018. Eine vorläufige Bewertung legt nahe, dass ein Full-Fat-Tree-Netzwerk und ein Fat- Baum-Torus-Hybridnetzwerke sind im Vergleich zu anderen Topologien wie einem 3D- oder 5D-Torus und einer Libelle vielversprechend in Bezug auf den Netzwerkdurchmesser und die Anzahl der Links. In einer detaillierten Auswertung schätzen wir Kommunikationsleistung, Kosten und Stromverbrauch für die beiden vielversprechenden Netze ab. Die erhaltenen Ergebnisse zeigen, dass das Hybridnetzwerk eine kürzere Latenzzeit für lokale Punkt-zu-Punkt-Kommunikation aufweisen kann als das Full Fat Tree-Netzwerk, während beide Netzwerke eine vergleichbare Leistung für die kollektive Kommunikation aufweisen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10626-7_13 5e56d0ecd7b07918866e3c562a5e5033;de;;;5.3.;;;Sensornetzwerke: Vergrößerung der Angriffsfläche Sensornetzwerke werden allgegenwärtig, da sie in vielen Anwendungen eingesetzt werden, von der Unterhaltungselektronik über Haushaltsgeräte und moderne Fahrzeuge bis hin zu kritischen Infrastrukturen und industriellen Steuerungssystemen. Mit dem Versprechen einer verbesserten Benutzererfahrung, Wartbarkeit und Automatisierung verbinden sich diese Sensornetzwerke und kommunizieren über das Internet durch den Einsatz internetfähiger eingebetteter Systeme: IoT-Geräte. Mit solchen Fähigkeiten können Verwaltungs- und Kontrollsysteme nicht nur die Effizienz und Fähigkeiten des Sensornetzwerks besser verwalten, sondern auch die Angreifer können Einblicke gewinnen und diese Netzwerke und Geräte für böswillige Absichten nutzen. Dieses Whitepaper bietet einen Überblick über die sich entwickelnden Bedrohungen und Technologietrends, um diese zu bekämpfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30110-1_2 fbcd52cefa95cbabeb732e0e3be99e50;de;;;5.3.;;;Einfluss einer webbasierten Entscheidungshilfe für die Behandlung von Prostatakrebs auf von Patienten gemeldete Entscheidungsparameter: Ergebnisse der Studie Prostatakrebspatientenzentrierte Pflege Vergleich der Patientenbewertung des Entscheidungsprozesses für die Behandlung bei lokalisiertem Prostatakrebs zwischen einer Beratung, die eine Online-Entscheidungshilfe (DA) umfasste, und einer Standardberatung.;-;-;-;https://link.springer.com/article/10.1007/s00520-018-4236-8 ffbf06cd72675276fb3bcb37badd12a9;de;;;5.3.;;;Handyanwendungen zur Überwindung von Mangelernährung bei Vorschulkindern: eine systematische Übersicht Unterernährung ist einer der wichtigsten Gründe für die Kindersterblichkeit in Entwicklungsländern, insbesondere in den ersten 5 Lebensjahren. Wir haben uns zum Ziel gesetzt, systematisch Evaluierungen von Interventionen zu überprüfen, die Mobiltelefonanwendungen verwenden, um Unterernährung bei Vorschulkindern zu überwinden.;-;-;-;https://link.springer.com/article/10.1186/s12911-019-0803-2 fd531b29f5b425bb4a8e9bf0d8d6d8a1;de;;;5.3.;;;Die Akzeptanz von Content-Management-Systemen in portugiesischen Gemeinden: Eine Studie in der Interkommunalen Gemeinschaft Lezíria do Tejo Die Entwicklung von Technologien und die Zunahme der geteilten Informationen haben unser Handeln und Denken, aber auch die Art und Weise, wie wir Inhalte erstellen, teilen und speichern, revolutioniert. Angesichts dieser Realität haben Content Management Systeme (CMS) viel dazu beigetragen und leisten weiterhin ihren Beitrag, und in diesem Zusammenhang zielt diese Studie darauf ab, die Akzeptanz von CMS durch Fachleute aus Gemeinden der Comunidade Intermunicipal da Lezíria do Tejo (CIMLT) zu analysieren Modell adaptiert aus dem Technology Acceptance Model (TAM), das als das robusteste bei der Identifizierung der Determinanten der technologischen Akzeptanz gilt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72651-5_48 1204d6232b6de3739557187a9215aa9b;de;;;5.3.;;;Ein Cloud-Computing-Workflow für die Verwaltung ozeanografischer Daten Ozeandatenmanagement spielt eine wichtige Rolle bei den ozeanographischen Problemen wie der Ozeanversauerung. Diese Daten unterschiedlicher physikalischer, biologischer und chemischer Natur werden aus allen Meeren und Ozeanen der Welt gesammelt, wodurch internationale Netzwerke zur Standardisierung von Datenformaten und zum weltweiten Austausch von Datenbanken entstehen. Cloud Computing ist daher der beste Kandidat für die Migration ozeanografischer Daten auf einer verteilten und skalierbaren Plattform, die Forschern bei der Durchführung zukünftiger Vorhersageanalysen helfen kann. In diesem Papier schlagen wir eine neue Cloud-basierte Workflow-Lösung vor, um ozeanografische Daten zu speichern und eine gute Benutzererfahrung bei der Visualisierung geografischer Daten zu gewährleisten. Experimente belegen die Leistungsfähigkeit des vorgeschlagenen Systems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-79090-9_5 31e75947c8e585e72f06425d7f7931ff;de;;;5.3.;;;WebSocket-basiertes Echtzeit-Framework zur Entwicklung von Einzelseiten Die Hauptfunktion von WebSocket besteht darin, eine dauerhafte Verbindung zwischen dem Client und dem Server herzustellen, sodass diese eine Vollduplex-Kommunikation durchführen können. Dieses Protokoll kann die Kommunikationsprobleme innerhalb von Browsern effektiv lösen. In vielen Fällen wird der von WebSocket eingerichtete persistente Link nicht vollständig genutzt. Tatsächlich kann WebSocket auch die meisten Funktionen des HTTP-Protokolls implementieren, erfordert jedoch zusätzliche Schwierigkeiten und Arbeitsaufwand. Außerdem fehlen ausgereifte Lösungen und Bibliotheken. Daher entwickeln wir ein WebSocket-basiertes Webanwendungsentwicklungs-Framework, das die Funktionen und Vorteile von WebSocket voll ausnutzt und das beliebte Single-Page-Anwendungsentwicklungsmodell kombiniert, um Entwicklern die schnelle Entwicklung effizienter und zuverlässiger Webanwendungen basierend auf unserem Framework zu ermöglichen. Mehrere Experimente wurden durchgeführt und die Ergebnisse werden präsentiert, um die Leistung des WebSocket-Frameworks zu zeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-02607-3_4 0390d40c00b42cd6100e3e9f909e3ad8;de;;;5.3.;;;Service Layer für die IDE-Integration von C/C++ Preprozessor Related Analysis Die Softwareentwicklung in C/C++-Sprachen ist eng mit Präprozessordirektiven verbunden. Während die Verwendung von Präprozessorkonstrukten nicht vermieden werden kann, kann die aktuelle IDE-Unterstützung für Entwickler noch verbessert werden. Frühes Feedback von IDEs über missbrauchte Makros oder bedingte Kompilierung hat auch positive Auswirkungen auf die Entwicklerproduktivität und die Codequalität. In diesem Whitepaper stellen wir eine Serviceschicht für Visual Studio vor, um detaillierte Präprozessorinformationen für alle Arten von IDE-Erweiterungen zugänglich zu machen. Die Serviceschicht baut auf unseren bisherigen Arbeiten zur Analyse von Richtlinien auf. Wir wickeln das Analysetool ein und stellen seine Funktionalität über eine API bereit. Wir präsentieren die öffentliche Schnittstelle des Dienstes und demonstrieren die bereitgestellten Dienste durch kleine Plug-Ins, die mit verschiedenen Erweiterungsmechanismen implementiert werden. Diese Plug-Ins arbeiten zusammen, um die tägliche Arbeit von Entwicklern auf verschiedene Weise zu unterstützen. Wir bieten (1) eine Editor-Erweiterung über das Managed Extensibility Framework, die Makro-Highlighting im Quellcode-Editor bereitstellt, (2) detaillierte Informationen über tatsächliche Makroersetzungen und eine alternative Codeansicht, um die Ergebnisse von Makroaufrufen anzuzeigen, (3) ein verwaltetes Paket zum Entdecken der Zwischenschritte von Makroersetzungen durch einen Makro-Explorer. Der Zweck dieser Arbeit ist zweierlei: Wir präsentieren eine zusätzliche Schicht, die die Arbeit von Tool-Entwicklern unterstützen soll, und zweitens stellen wir direkt verwendbare IDE-Komponenten zur Verfügung, um ihre Potenziale auszudrücken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09156-3_29 6b0669fd7551a1b8fda489d03ac24ac6;de;;;5.3.;;;Experimentelle Bestimmung der Phasengleichgewichte aluminiumreicher Al-Li-Cu-Legierungen Die Primärphasen, Reaktionsabläufe und Temperaturen während der Erstarrung von Al-reichen Al-Li-Cu-Legierungen wurden mit Lichtmikroskopie, Elektronensondenmikroanalyse (EPMA), Röntgenbeugung (XRD), Rasterelektronenmikroskopie (REM), Differential untersucht thermische Analyse (DTA) und chemische Analyse. Als Behältermaterial wurde Bornitrid (BN) verwendet, das sich gegenüber diesen Legierungen als inert erwies. Es wird eine neue Liquidusprojektion vorgeschlagen. Temperatur und Zusammensetzung des ternären Eutektikums,;-;-;-;https://link.springer.com/article/10.1007/BF03350962 673a95d78aa6a6f7cb15f998de81b6d0;de;;;5.3.;;;Erweiterter Interaktionsmechanismus für eine physikalisch konsistente Zusammenarbeit zwischen Menschen und intelligenten Agenten im Netzwerkmanagement Durch die wachsende Komplexität der Vernetzung im ICT-Umfeld steigen die Anforderungen an nicht-professionelle Administratoren. Eine mögliche Lösung für diese Situation sind Netzmanagement-Unterstützungssysteme, die aus intelligenten Agenten bestehen. Die Interaktionsunterstützung zwischen Menschen und Agenten wurde jedoch nicht vollständig verbessert. In diesem Beitrag schlagen wir eine Augmented-Reality-basierte Schnittstelle für die Dialoginteraktion mit den Agenten vor. Der vorgeschlagene Interaktionsmechanismus verbessert die Konsistenz des physischen Raums und der Agenten, und daher können die Benutzer die Beziehung zu den Agenten leicht erkennen. Das Ergebnis der Evaluierung impliziert, dass der vorgeschlagene Mechanismus nicht professionelle Administratoren unterstützen und die Qualität der Zusammenarbeit verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37442-6_25 b40eaa8396a5238fcd40a4dac8f95348;de;;;5.3.;;;Eine Streaming-Ausführungsmethode für Multi-Services im Mobile Cloud Computing Kommerziell erhältliche Mobilgeräte mit verschiedenen Arten von Hardware- und Softwareplattformen haben zu einer großen Menge mobiler Dienste geführt. Dies stellt eine neue Herausforderung beim Entwerfen mehrerer Dienste dar, die mit heterogenen Geräten und Betriebssystemen (OS) kompatibel sind. Dieses Papier stellt eine Methode des Multi-Services Mobile Cloud Computing (MSMCC) für mobile Geräte vor, die das Betriebssystem als einen Dienst zur Verbesserung der Benutzererfahrung betrachtet. Eine Multi-Services-Pre-Boot-Firmware (MSPF) wurde entwickelt, um Multi-OS-Images und Multi-Application-Images über ein drahtloses Netzwerk auf die Mobilgeräte zu streamen. Danach verwenden wir die MSMCC-Methode zur Ausführung auf dem mit MSPF ausgestatteten S3C6410-Board. Die Ergebnisse zeigten, dass MSPF in der Lage ist, Remote-Boot und Streaming-Ausführung von Multi-Services mit stabiler Leistung zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27137-8_5 a8b03c03d9ae2f27b266d56770b031d7;de;;;5.3.;;;CREANDO – Plattform für Spielerlebnisse auf Basis von Pervasive Narrative in Closed Spaces: Eine pädagogische Erfahrung Derzeit haben Spiele, die die reale und die virtuelle Welt kombinieren, dank der Fortschritte in der Mobiltechnologie eine höhere Verfügbarkeit, eine breite Erweiterung und eine bessere Leistung. Diese Fortschritte ermöglichen eine Erhöhung der Zugänglichkeit für die Menschen. Aus diesem Grund sind mobile Geräte aus dem täglichen Leben der Menschen nicht mehr wegzudenken. Es hat Menschen in verschiedene Arten von Benutzererfahrungen einbezogen, wie unter anderem durch Augmented Reality, Geolocation, Virtual Reality. Diese Art von Spiel wird als Pervasive Game (PG) definiert – es ist auch als Pervasive Game Experience (PGE) bekannt –, bei dem die Spielwelt über die Grenzen der virtuellen Welt hinaus erweitert wird und Teil der Spielerrealität werden kann. Diese Art von Spielen kann das Leben des Spielers positiv oder negativ beeinflussen. In dieser Hinsicht haben die akademischen und industriellen Bereiche versucht, Rahmenbedingungen und Werkzeuge für die Entwicklung von PG zu schaffen, jedoch auf getrennte Weise. Aus diesem Grund beschreibt dieses Papier das Design und die Implementierung einer Plattform, die mehrere Tools zum Erstellen und Bearbeiten von Spielerlebnissen in beiden Bereichen integriert. Dieses Papier konzentriert die Studie auf die Erzählung und Geolokalisierung, die auf enge Räume angewendet werden. Es ist eine Möglichkeit, dem Spieler eine bereicherte Erfahrung zu bieten. Schließlich präsentieren wir einen Prototyp zur Validierung der Plattform im Bildungskontext. Das Spiel demonstrierte die Steigerung der Motivation und das Lernen von Studierenden des ersten Semesters der Technischen Informatik über Grundkenntnisse in der Programmierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98998-3_18 3043907106d54942ae19c3b7db05b113;de;;;5.3.;;;Dynamisches Laden von IFC-Modellen in einen Webbrowser basierend auf räumlicher semantischer Partitionierung Industry Foundation Classes (IFC) ist eine offene und neutrale Datenformatspezifikation für Building Information Modeling (BIM), die eine entscheidende Rolle bei der Erleichterung der Interoperabilität spielt. Mit der Zunahme webbasierter BIM-Anwendungen besteht ein dringender Bedarf für das schnelle Laden großer IFC-Modelle in einen Webbrowser. Das vollständige Laden großer IFC-Modelle verbraucht jedoch typischerweise viel Speicher eines Webbrowsers oder stürzt den Browser sogar ab, was weitere BIM-Anwendungen erheblich einschränkt. Um dieses Problem anzugehen, wird ein Verfahren zum dynamischen Laden von IFC-Modellen basierend auf räumlicher semantischer Partitionierung (SSP) vorgeschlagen. Zuerst wird die räumliche semantische Struktur eines Eingabe-IFC-Modells über die Extraktion von Story-Informationen und das Erstellen einer Komponentenraum-Indextabelle auf dem Server partitioniert. Anschließend werden basierend auf der Benutzerinteraktion nur die Modelldaten, an denen ein Benutzer interessiert ist, übertragen, geladen und auf dem Client angezeigt. Die vorgestellte Methode wird über die Web Graphics Library implementiert und ermöglicht das schnelle Laden großer IFC-Modelle in den Webbrowser ohne Plug-Ins. Im Vergleich zu herkömmlichen Verfahren, die alle IFC-Modelldaten zu Anzeigezwecken laden, reduziert das vorgeschlagene Verfahren den Speicherverbrauch in einem Webbrowser erheblich, wodurch das Laden großer IFC-Modelle ermöglicht wird. Im Vergleich mit der bestehenden Methode der räumlichen Partitionierung für 3D-Daten verwendet der vorgeschlagene SSP vollständig semantische Informationen in der IFC-Datei selbst und bietet dadurch eine bessere interaktive Erfahrung für Benutzer.;-;-;-;https://link.springer.com/article/10.1186/s42492-019-0011-z f96215e561885da5c6a86f86e0d8dabf;de;;;5.3.;;;Peer-to-Peer vs. Client/Server: Zuverlässigkeit und Effizienz eines Content Distribution Service In diesem Papier bewerten wir die Leistung eines Content Distribution Service in Bezug auf Zuverlässigkeit und Effizienz. Die betrachtete Technologie zur Realisierung eines solchen Dienstes kann entweder eine traditionelle Client/Server (CS) Architektur oder ein Peer-to-Peer (P2P) Netzwerk sein. In CS ist die Kapazität des Servers der Flaschenhals und muss so dimensioniert werden, dass alle Anfragen jederzeit aufgenommen werden können, während ein P2P-System keinen einzelnen Server belastet, da die Inhalte im Netzwerk unter Sharing verteilt werden Gleichaltrige. Beschädigte oder gefälschte Dateien können jedoch die Zuverlässigkeit des P2P-Dienstes durch das Herunterladen nutzloser Inhalte beeinträchtigen. Wir vergleichen ein CS-System mit P2P und bewerten die Downloadzeit, die Erfolgsquote und die Fairness unter Berücksichtigung von Flash-Crowd-Ankünften und beschädigten Inhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72990-7_99 0ecc5232ea31715e40aed7b46a2bc6f3;de;;;5.3.;;;Eine Webplattform und ein kontextbezogenes Empfehlungssystem für aktive Sportveranstaltungen Kundenempfehlungen steigern nachweislich den Umsatz, erhöhen die Kundenzufriedenheit und verbessern die Benutzererfahrung, was Empfehlungssysteme zu einem wichtigen Werkzeug für Unternehmen macht. Während Empfehlungen von Artikeln wie Produkten oder Filmen beim Surfen im Internet intensiv untersucht und mehrere Empfehlungsalgorithmen und -systeme entwickelt werden, stellen Empfehlungssysteme für Veranstaltungen dennoch einzigartige Herausforderungen dar. Dies wird aufgrund der inhärenten Einschränkungen und Einschränkungen noch schwieriger, wenn Benutzern aktive Sportveranstaltungen empfohlen werden. Dieser Artikel stellt ein kontextbewusstes Empfehlungssystem vor, das entwickelt und in die ST76-Webplattform integriert wurde, das es nach unserem besten Wissen zum ersten Mal ermöglicht, Empfehlungen von Benutzern zu geben, die mit größerer Wahrscheinlichkeit an einem bevorstehenden aktiven Sportereignis teilnehmen. Außerdem demonstrieren wir die Bedeutung der ST76-Plattform und des Empfehlungssystems für den Sporttourismus durch die Analyse der wirtschaftlichen Auswirkungen einer auf der Plattform veranstalteten aktiven Sportveranstaltung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-75004-6_13 8fd5ad498aeb594afbd63c6032af23ba;de;;;5.3.;;;Die Auswirkungen eines Sicherheitsmodells in einer Fog-Computing-Umgebung Das Internet der Dinge (IoT) ist eine aufkommende Technologie, die in den letzten Jahren aufgrund ihrer Fähigkeit, Daten in Echtzeit zu verarbeiten, das Bewusstsein zu beschleunigen und schnell auf Ereignisse zu reagieren, viel Aufmerksamkeit erhalten hat. IoT zielt darauf ab, jedes Objekt online zu bringen und dabei immer mehr Datenmengen zu generieren. Dieses exponentielle Wachstum des Netzwerkverkehrs erfordert schnellere, effiziente und skalierbare Verarbeitungsmethoden. Kritische IoT-Anwendungen wie Gesundheitsüberwachung, Notfallmaßnahmen und industrielle Steuerung erfordern eine hohe Verfügbarkeit und sehr geringe Latenzzeiten, um eine gute Benutzererfahrung zu gewährleisten. Fog-Computing wurde als Lösung zur Verringerung von Latenz und Netzwerküberlastung in IoT-Umgebungen vorgeschlagen. Sicherheit in der Fog-IoT-Schicht ist jedoch noch ein sehr offener Bereich, dem noch viel Aufmerksamkeit geschenkt werden muss. In diesem Papier wird ein Sicherheitsmodell vorgestellt, das die Datensicherheit sowohl im Ruhezustand als auch während der Übertragung auf Endgeräten und Nebelgeräten berücksichtigt. Die Studie verwendet eine latenzsensitive Online-Anwendung (EEG-Traktorspiel), um die Leistungsauswirkungen des Sicherheitsmodells in einer IoT-basierten Nebelumgebung zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4825-3_16 d61ba310ee3af5930435289d357c1273;de;;;5.3.;;;Potluck: Daten-Mash-Up-Tool für Gelegenheitsnutzer Da immer mehr wiederverwendbare strukturierte Daten im Web erscheinen, werden Gelegenheitsbenutzer die Aufgabe des Mash-Ups selbst in die Hand nehmen wollen, anstatt darauf zu warten, dass Mash-Up-Sites erstellt werden, die genau auf ihre individuellen Bedürfnisse eingehen. In diesem Whitepaper stellen wir Potluck vor, eine Web-Benutzeroberfläche, mit der Gelegenheitsbenutzer – diejenigen ohne Programmierkenntnisse und Datenmodellierungskenntnisse – Daten selbst zusammenfassen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76298-0_18 e0f218afe770672984d0fa79e3c475f6;de;;;5.3.;;;Device Analyzer: Die Smartphone-Nutzung verstehen Wir beschreiben Device Analyzer, ein robustes Datenerfassungstool, das in der Lage ist, zuverlässig Informationen zur Android-Smartphone-Nutzung von einer offenen Community von Mitwirkenden zu sammeln. Wir haben den größten und detailliertesten Datensatz zur Nutzung von Android-Telefonen gesammelt, der bisher öffentlich verfügbar war. In diesem Beitrag bewerten wir Smartphones systematisch als Plattform für mobiles Ubiquitous Computing, indem wir den Zugang zu kritischen Ressourcen in freier Wildbahn quantifizieren. Unsere Analyse des Datensatzes zeigt erhebliche Unterschiede im Verhalten zwischen den Benutzern, aber auch im Zeitverlauf. Darüber hinaus demonstrieren wir den Wert der mobilgerätezentrierten Datensammlung, indem wir Fallstudienanalysen zur menschlichen Mobilität, Interaktionsmustern und Energiemanagement präsentieren und bemerkenswerte Unterschiede zwischen unseren Ergebnissen und denen anderer Studien identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11569-6_16 6fd017c69316d028ef5a8486d4977532;de;;;5.3.;;;Eine Leistungsstudie zu Anreizsystemen in Peer-to-Peer-Filesharing-Systemen Anreizsysteme sollen die Zusammenarbeit in verteilten Systemen fördern, in denen Peers frei entscheiden können, wie viel sie beitragen. In Peer-to-Peer-Filesharing-Systemen wurde eine Vielzahl von Anreizsystemen vorgeschlagen, die in bestimmten Szenarien als besondere Vorteile angepriesen werden. Es wurde jedoch nur wenig Forschung zum Vergleich dieser Anreizsysteme unter einem identischen Szenario durchgeführt. Fairness ist ein wichtiger Indikator zur Bewertung eines Anreizsystems, da eine gute Fairness eine angemessene Belohnung für kollaborative Kollegen und eine Bestrafung für strategische Kollegen ermöglichen kann. In diesem Beitrag wird die Korrelationskarte zwischen Rendite und Investition von Mitbewerbern verwendet, um den Fairnessgrad verschiedener Anreizsysteme darzustellen. Die Fairness und Effizienz mehrerer repräsentativer Anreizsysteme werden unter tarifbasierten Metriken (alle Chunks haben denselben Wert) und wertbasierten Metriken (unterschiedliche Chunks haben unterschiedliche Werte) verglichen.;-;-;-;https://link.springer.com/article/10.1007/s11227-016-1648-4 79b635c42c9fee3d57de8de1b94af054;de;;;2.4.;;;Medizinische und Krankenhausdatenverarbeitung in Frankreich Es scheint, dass es in einem sehr zentralisierten Land wie Frankreich keine klare Regierungspolitik für die Verarbeitung medizinischer Daten gibt. Dieser Mangel an Politik der Medizininformatik wird offensichtlich, wenn man die Zahl der eingestellten Professoren und Forscher, die Zahl der vergebenen Forschungs- und Entwicklungsaufträge bedenkt: Sie sind fast lächerlich klein. Trotz dieser ungünstigen Situation konnte dank individueller Bemühungen eine beachtliche Zahl von Projekten realisiert werden, die sich als nützlich und von der medizinischen Fachwelt akzeptiert erwiesen haben. Wir hoffen, dass sich die Medizininformatik dank dieser Taktik als unverzichtbar erweist und sich wie ein „Fisch im Wasser“ anfühlt, so Maos Rat.;-;-;-;https://link.springer.com/article/10.1007/BF02222027 7751916f037068279ec9a752806a702e;de;;;2.4.;;;Fortschritte bei der quantitativen Bewertung der Auswirkungen des Klimawandels und menschlicher Aktivitäten auf den Ackerlandwandel Es ist wichtig, den Beitrag des Klimawandels und der menschlichen Aktivitäten zu den Veränderungen des Ackerlandes sowohl in den Bereichen Klimawandel als auch Landnutzungsänderungen zu untersuchen. Zusammenhänge zwischen Ackerlandveränderungen und treibenden Kräften wurden in den meisten früheren Untersuchungen qualitativ untersucht. Für ein besseres Verständnis der Dynamik von Landnutzungsänderungen müssen jedoch die quantitativen Bewertungen des Beitrags des Klimawandels und menschlicher Aktivitäten zu Änderungen des Ackerlandes untersucht werden. Wir überprüften systematisch die Methoden zur Identifizierung des Beitrags des Klimawandels und menschlicher Aktivitäten zu Veränderungen des Ackerlandes unter quantitativen Aspekten, einschließlich Modellanalyse, mathematisch-statistische Methode, Rahmenanalyse, Indexbewertung und Differenzvergleich. Es wurden Fortschritte der bisherigen Forschungen zur quantitativen Bewertung der Beiträge vorgestellt. Dann diskutierten wir vier Mängel bei der Bewertung der Beiträge des Klimawandels und der menschlichen Aktivitäten. Zum Beispiel fehlte den Methoden die Vollständigkeit, und die Daten müssen genauer und umfassender sein. Darüber hinaus war die Skala einheitlich und die Erklärungen verzerrt. Darüber hinaus haben wir einen Hinweis auf einen quantitativen Ansatz zur Bewertung der Beiträge von synthetischen Aspekten zu spezifischen Triebkräften abgeleitet. Schließlich wurden die Lösungen der zukünftigen Forschungen zu Daten, Maßstab und Erklärung vorgeschlagen.;-;-;-;https://link.springer.com/article/10.1007/s11442-016-1272-5 00683fd70efae495d1d48243f839ba40;de;;;5.3.;;;Unterschiedliche Visualisierungstypen im Multimedia-Lernen: Eine vergleichende Studie Visualisierungstechniken sollen im Vergleich zu statischen Visuals lernförderlich sein, insbesondere wenn das Lernmaterial visuelle Bewegungen erfordert. Das Aufkommen dreidimensionaler animierter Visuals hat den Präsentationsmodus im multimedialen Lernen erweitert. Anhand einer Fallstudie zu einem Informatikfach wurde die Wirkung verschiedener Visualisierungstypen beim Lernen getestet. Die Informatik, insbesondere in Betriebssystemkonzepten, verwendet eine Reihe abstrakter Konzepte wie virtueller Speicher, Paging, Fragmentierungen etc. Verschiedene Studien zusammen mit unseren eigenen Beobachtungen weisen stark darauf hin, dass Studenten diese Konzepte oft schwer erlernbar finden, da sie nicht leicht demonstriert werden können. Diese Studie untersucht die Auswirkungen verschiedener Visualisierungstypen auf das Verständnis von Studenten beim Studium einer komplexen Domäne der Informatik, dh des Themas Speicherverwaltungskonzepte in Betriebssystemen. Es wurde ein multimediales Lernsystem in drei verschiedenen Versionen entwickelt: statische Visuals, 2-D-animierte Visuals und 3-D-animierte Visuals. An dieser Studie nahmen 55 Studenten teil und wurden nach dem Zufallsprinzip in eine dieser drei Gruppen eingeteilt. Alle Schüler, die an diesem Experiment teilnahmen, hatten geringe Vorkenntnisse in diesem Thema und wurden nach dem Anschauen der Behandlung gebeten, einen Test zu absolvieren, der sie auf Erinnerung und Wissenstransfer testete. Dieser Test wurde verwendet, um festzustellen, ob tatsächlich ein verbessertes Lernen stattgefunden hat, und um zu vergleichen, welcher Visualisierungstyp das bessere Lernergebnis erbrachte. Die erste Analyse der Ergebnisse zeigt keinen statistischen Unterschied zwischen den Werten für die drei Versionen und legt nahe, dass Visualisierungstypen allein nicht unbedingt das Verständnis der Schüler verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25200-6_38 3fd1442e0ec2100ce2f7a72c07e162bd;de;;;5.3.;;;Statistische Contourlet-Subband-Charakterisierung für den Texturbildabruf Die Contourlet-Transformation wurde kürzlich entwickelt, um die Beschränkungen der Wavelet-Transformation zu überwinden. In diesem Artikel schlagen wir ein effektives und effizientes Textur-Retrieval-Verfahren vor, das auf einer Gruppe von sechs Statistiken der Koeffizienten in jedem Konturelement-Teilband des Texturbildes basiert. Insbesondere werden durch diese sechs Statistiken jeweils sechs Vektoren aus den gleichen direktionalen Teilbändern in unterschiedlichen Maßstäben sowie aus dem Tiefpass-Teilband konstruiert, um als die Richtungseigenschaften des Bildes zu dienen. Durch Untersuchung der Verteilungen dieser Vektoren verwenden wir ein gewichtetes L;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31576-3_63 09bbd96831ade0d8c15427cb3b2bce1d;de;;;5.3.;;;Gewichtungsfensteroptimierung für die klassische 2D-Spektralanalyse Dieser Artikel schlägt einen Kostenminimierungsansatz für das Problem der Optimierung der Gewichtung digitaler Fenster vor, die in der klassischen 2D-Spektralanalyse verwendet werden. Wir schlagen eine allgemeine Kriteriumsform vor, die die durch ein Fenster verursachte 2-D-Spektralspreizung charakterisiert. Dann wird dieses Kriterium minimiert und dies führt zu einer optimalen Form des Fensters, was einen Ansatz von A. Papoulis im Fall eindimensionaler Analogsignale erweitert. Wir konzentrieren uns hauptsächlich auf die Minimierung einer Modifikation des Moments zweiter Ordnung, die an abgetastete Signale angepasst ist. Dies führt zu einer natürlichen Erweiterung des optimalen Fensters von Papoulis auf den Fall von 2D-Digitalsignalen. Bei rechteckiger Probenahme ist dieses optimale Fenster separierbar und hat eine einfache analytische Form. Es ist das Produkt von zwei 1-D-Cosinuskeulenfenstern mit einer halben Periode. Ergebnisse werden auch bei hexagonaler Probenahme angegeben. Andere mögliche Formen der Kostenfunktion werden ebenfalls diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF01940469 64e825dd23b7d15ee428ab8caac1a23e;de;;;5.3.;;;Von Typ-1- zu Typ-2-Fuzzy-Logic-Steuerung: Eine Stabilitäts- und Robustheitsstudie Stabilität ist einer der wichtigeren Aspekte im traditionellen Wissen über die automatische Steuerung. Typ-2-Fuzzy-Logik ist ein aufstrebender und vielversprechender Bereich für das Erreichen einer intelligenten Steuerung (in diesem Fall Fuzzy-Steuerung). In dieser Arbeit verwenden wir die Fuzzy-Lyapunov-Synthese, wie sie von Margaliot [11] vorgeschlagen wurde, um ein Lyapunov-stabiles Fuzzy-Logik-Steuerungssystem vom Typ 1 zu bauen, und dann machen wir eine Erweiterung von einem Typ-1 zu einem Typ-2 Fuzzy-Logik-Steuerungssystem Sicherstellung der Stabilität des Regelsystems und Nachweis der Robustheit des entsprechenden Fuzzy-Reglers.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-37421-3_8 7f0e0f88596510497532b76c0d06ec53;de;;;5.3.;;;Zeit-Frequenz-Verarbeitung von zeitvariablen Signalen mit nichtlinearer Gruppenverzögerung Group Quadratische Zeit-Frequenz-Darstellungen (QTFRs) können erfolgreiche Verarbeitungswerkzeuge für verschiedene Anwendungen sein, abhängig von den Signaländerungen, die sie bewahren können. Dieses Kapitel bietet ein Tutorial über Klassen von QTFRs, die kovariant zu Zeitverschiebungen sind, die Änderungen in der Gruppenlaufzeitfunktion des Analysesignals entsprechen. Diese Änderungen können konstant sein oder linear oder nichtlinear von der Frequenz abhängen, und sie können das Ergebnis der Signalausbreitung durch Systeme mit dispersiven Zeit-Frequenz-Kennlinien sein. Die unitären Warping-Beziehungen dieser kovarianten QTFR-Klassen mit Gruppenverzögerungsverschiebung zu den kovarianten mit konstanter Zeitverschiebung werden hergestellt. Bestimmte QTFR-Mitglieder werden auch zusammen mit den Signaleigenschaften präsentiert, die sie erfüllen. Es werden verschiedene Simulationsbeispiele bereitgestellt, um die Bedeutung der Anpassung der Zeit-Frequenz-Eigenschaften des Signals an die Gruppenlaufzeitverschiebung des QTFR zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-0025-3_10 6a0b20c6a5732a9cf3ce4c206e8dc15a;de;;;5.3.;;;Experimente mit groben Set-Ansätzen zur Spracherkennung Der Beitrag berichtet über die Arbeit an der Methodik und Experimente mit sprecherunabhängiger Spracherkennung. Der in dem Papier beschriebene Ansatz basiert auf dem Modell mit variabler Präzision von Rohsätzen. Der Grobsatz-Ansatz wird im Prozess der Erfassung von Erkennungsregeln aus Trainingssprachdaten angepasst, während Standardsignalverarbeitungstechniken auf der Ebene der Merkmalsextraktion verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0095124 adf04e7f71e3fd0cf7acfef26a15b2b4;de;;;5.3.;;;Routing mit minimaler Verzögerung für drahtlose Netzwerke mit STDMA STDMA erweist sich als eine vielversprechende Kanalzugriffstechnik zum Bereitstellen von Quality of Service (QoS)-Garantien in Multi-Hop-Ad-hoc-Netzwerken wie Community-Mesh- und Sensornetzwerken. Der konkurrenzfreie Kanalzugang in Kombination mit der räumlichen Wiederverwendung des Kanals bietet erhebliche Vorteile im Energie-/Durchsatz-Kompromiss. Andererseits führt die zeitgemultiplexte Kommunikation bei der Weiterleitung der Pakete durch Zwischenknoten eine zusätzliche Verzögerung ein. Daher können in großen drahtlosen Sensornetzwerken oder Maschennetzwerken, in denen Daten über mehrere Hops geleitet werden, bevor sie die Datensenke erreichen, STDMA-Protokolle aufgrund der reservierungsbasierten Zugriffsrichtlinie eine hohe Ende-zu-Ende-Latenz einführen. Wir argumentieren, dass ein geeignetes Routing-Protokoll, das speziell für reservierungsbasierte Medium Access Control (MAC)-Protokolle entwickelt wurde, ihren Nachteil der hohen Latenz mildern kann. Dieser Argumentation folgend, schlagen wir zuerst solche Routing-Algorithmen vor, die auf einem generischen STDMA-MAC-Protokoll arbeiten. Zunächst betrachten wir das Routing mit Datenfusion und stellen unsere GreenWave-Routing-Idee vor. Wir zeigen, dass unser Algorithmus die End-to-End-Verzögerung im Vergleich zum Routing über die kürzesten Hop-Pfade deutlich reduziert. Zweitens betrachten wir das Routing ohne Datenfusion, indem wir die Auswirkung von Staus entlang der Pfade auf die Ende-zu-Ende-Verzögerungen berücksichtigen. Wir stellen eine QIP-Formulierung des Problems bereit und präsentieren eine untere Schranke und einen heuristischen Algorithmus, um die optimale Lösung zu begrenzen. Basierend auf dem zentralisierten heuristischen Algorithmus schlagen wir ein verteiltes, dynamisches Routing-Protokoll vor;-;-;-;https://link.springer.com/article/10.1007/s11276-007-0073-2 180327fd58e66a089fc1797a17297a1e;de;;;5.3.;;;Zeitlich adaptives integriertes Backstepping Fast Terminal Sliding Mode Control-Anwendung auf Quadrotor UAV Dieses Papier stellt ein zuverlässiges und neuartiges Quadrotor-Flugsteuerungssystem vor, das entwickelt wurde, um die Flugbahnverfolgungsleistung, Robustheit und Anpassungsfähigkeit gegenüber den unsicheren Parametern und der externen Windstörung zu verbessern. Durch die Kombination einer rekursiven Steuermethodik mit einem robusten Steueralgorithmus ist eine adaptive, Integralrückschritt-Schnell-Endgleitmodus-Steuerung mit endlicher Zeit für wichtige Regelkreise in Bezug auf Positionsverfolgung und Lagestabilisierung ausgelegt. Um Quadrotormasse und Trägheitsmomente abzuschätzen, werden nur vier Adaptionsgesetze entwickelt. Um die unbekannte Obergrenze der Störungen zu kompensieren, wird eine robuste und adaptive Schaltverstärkung entworfen. Der entworfene Controller garantiert, dass alle geschlossenen Signale eine halbglobale praktische endliche Zeitstabilität aufweisen, während der Spurfehler zu einer kleinen Umgebung des Ursprungs konvergiert. Die erhaltenen numerischen Ergebnisse und Vergleichsstudien zeigen die Wirksamkeit, Robustheit, Anpassungsfähigkeit und Energieeffizienz des vorgeschlagenen Flugsteuerungssystems.;-;-;-;https://link.springer.com/article/10.1007/s12555-019-0116-3 5ee2619ff539bf74de4ba0fcf2fbf62f;de;;;5.3.;;;Strukturelle Eigenschaften von Petrinetzen Es werden mehrere notwendige Bedingungen für strukturelle Lebendigkeit und eine notwendige und hinreichende Bedingung für strukturelle Begrenztheit angegeben. Diese Bedingungen können mit Techniken der linearen Algebra verifiziert werden und könnten zum Nachweis von Lebendigkeit und Beschränktheit in Abhängigkeit von einer gegebenen Markierung verwendet werden. Strukturelle Begrenztheit und Lebendigkeit hängen mit der Existenz von Blockaden, Absorbern und Generatoren eines besonderen Typs in einem PN zusammen. Eine notwendige Bedingung dafür, dass ein PN strukturell begrenzt und lebendig ist, ist, dass es sowohl invariant als auch konsistent ist. Invarianz und Konsistenz, die auch die starke Konnexität der grafischen Darstellung implizieren, sind also notwendige Bedingungen, um pathologische Situationen wie strukturelle Unbegrenztheit und strukturelle Unlebendigkeit zu eliminieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-08921-7_95 ac210dbe6efbac8fd29086f833a4c6a4;de;;;5.3.;;;Matching, Edge-Coloring und Dimere Wir untersuchen einige neuere Ergebnisse zum Finden und Zählen perfekter Übereinstimmungen in regulären bipartiten Graphen mit Anwendungen auf die bipartite Kantenfärbung und die Dimerkonstante. Hauptergebnisse sind verbesserte Komplexitätsgrenzen zum Finden eines perfekten Matchings in einem regulären bipartiten Graphen und für kantenfärbende bipartite Graphen, die Lösung eines Problems von Erdős und Rényi bezüglich der unteren Schranken für die Anzahl perfekter Matchings und eine verbesserte untere Schranke für Dimerkonstante.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39890-5_2 c37208ad60fa4435ed12b146118a21ed;de;;;5.3.;;;Verbesserung eines referenzmodellbasierten Controllers mit dem Prinzip der aktiven Störungsunterdrückung für die 3D-Trajektorienverfolgung von Quadrotoren: experimentelle Validierung Es ist relevant, einen adäquaten Regelalgorithmus für Quadrotoren zu entwickeln, der einen guten Kompromiss aus Robustheit/Leistung garantiert. Dieser Kompromiss sollte mit oder ohne externe Störungen sichergestellt werden. In diesem Papier untersuchen und wenden wir eine überarbeitete Formulierung einer referenzmodellbasierten Steuerungsstrategie durch Einführung eines Boosting-Mechanismus an. Dieser Mechanismus verwendet einen Extended State-based Observer (ESO), um die Unsicherheiten und die Vielfalt der Störungen abzuschätzen. Die Schätzung wird kontinuierlich aktualisiert und von der Hauptregelschleife verworfen. Das Verstärkungsprinzip ist von der beliebten Active Disturbance Rejection Control (ADRC)-Technik inspiriert, um die Robustheitsfähigkeit einer nichtlinearen referenzmodellbasierten Regelstrategie (d. h. Interconnection and Damping Assignment-Passivity Based Control (IDA-PBC)) zu verbessern. Der erhaltene Controller wird durch eine zusätzliche Eingabe ergänzt, die über ein Sliding-Modes-Framework abgeleitet wird, um die Schätzfehler zu behandeln und asymptotische Stabilität zu gewährleisten. Diese Kombination führt zu vielversprechenden Ergebnissen durch die Verbesserung der nominellen Regeltechnik. Die primären Ergebnisse werden durch numerische Simulationen gezeigt und experimentell mit mehreren Szenarien bestätigt.;-;-;-;https://link.springer.com/article/10.1007/s10846-020-01182-4 a60a3a0e4984f7785474648a18b3af5f;de;;;5.3.;;;Optimale Steuerung, Optimierung und analytische Mechanik In diesem Kapitel diskutieren wir einige der Beiträge von Roger Brockett zu Problemen der Optimalsteuerungstheorie, Optimierung und analytischen Mechanik. Insbesondere betrachten wir, wie Ideen in einem Bereich dazu beigetragen haben, Licht in andere zu werfen. Wir diskutieren diese Wechselwirkung nicht nur in der Arbeit von Brockett, sondern in unserer eigenen Arbeit und in der Arbeit anderer, die im Laufe der Jahre von der Arbeit von Brockett inspiriert wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-1416-8_8 58795c0a0663989e0b118cbb1bb9f88b;de;;;5.3.;;;Zur Stabilisierung einiger nichtlinearer Regelsysteme: Ergebnisse, Werkzeuge und Anwendungen Brockett hat bewiesen, dass im Gegensatz zu linearen Regelsystemen viele regelbare nichtlineare Regelsysteme nicht durch stationäre kontinuierliche Rückkopplungsgesetze stabilisiert werden können. In diesem Beitrag geben wir Ergebnisse, die zeigen, dass viele steuerbare nichtlineare Regelsysteme durch zeitvariable kontinuierliche Rückkopplungsgesetze stabilisiert werden können und dass viele steuerbare und beobachtbare nichtlineare Regelsysteme durch zeitvariable dynamische kontinuierliche Rückkopplungsgesetze stabilisiert werden können. Wir zeigen das Interesse zeitveränderlicher Rückkopplungsgesetze für die Robustheit gegenüber Messstörungen. Wir präsentieren auch Methoden zur Entwicklung stabilisierender Rückkopplungsgesetze und geben Anwendungen für Satelliten und die Strömungsmechanik.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4560-2_5 6f7717858552731081ca758145033dc8;de;;;5.3.;;;Analyse des politischen Informationsnetzwerks der US-Partisanenöffentlichkeit auf Twitter Die wachsende Bedeutung von Social Media bei potentiellen Wählern wurde von Politikern erkannt, da soziale Medien eine direkte Methode für politische Akteure bieten, mit ihren Bürgern in Kontakt zu treten und sie durch die Verwendung von Hashtags in Online-Clustern zu organisieren. Mit wenigen Ausnahmen betonten die meisten der früheren Studien jedoch die Identifizierung persönlicher Tweets oder die kumulativen Eigenschaften einer Vielzahl von Tweets und die politische Vorliebe einzelner Benutzer, nicht auf die parteiische Öffentlichkeit in den USA soziales Online-Netzwerk der politisch widersprüchlichen Öffentlichkeit und des öffentlichen Diskurses im Netzwerk. Ziel dieser Studie ist es daher zu untersuchen, wie Menschen politische Informationen auf Twitter via Hashtag als vernetzte Öffentlichkeit aufnehmen und wie Menschen die politische Kommunikation zwischen Nutzern mit ähnlicher oder unterschiedlicher politischer Orientierung ermöglichen. Diese Studie bestätigte die Theorie der Homophilie bei der Annahme politischer Hashtags im Twitter-Netzwerk. Auch die genannten Medien und die stark erwähnten Domänen für jedes Netzwerk unterstützen das Konzept der Homophilie. Die manuell untersuchten Benutzer mit Top-Betweenness-Zentralitäten wurden als Meinungsführer identifiziert und ihre Tweeting-Muster beweisen, dass sie eine Schlüsselrolle bei der Verbreitung von Informationen über eWOM spielen, indem sie einen wichtigen relationalen Platz im Netzwerk einnehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-78105-1_50 9dc4c852179622fb80d49a595143d6dd;de;;;5.3.;;;Design und Implementierung eines Bluetooth Low Energy Link Layer Controllers mit Dataflow-Programmierung Dieses Papier stellt das Design eines Bluetooth Low Energy (BLE) Link Layer Controllers vor, der auf einem anwendungsspezifischen integrierten Schaltkreis (ASIC), einem feldprogrammierbaren Gate Array (FPGA) und einem Universalprozessor (GPP) implementiert ist. Es wurde CAL-Datenflussprogrammierung verwendet, die eine automatische RTL- und C-Code-Generierung aus High-Level-Spezifikationen ermöglicht. Der generierte RTL-Code wird synthetisiert und auf der ASIC Silterra 180-nm-Prozesstechnologie und Xilinx Artix FPGA implementiert, während der generierte C-Code auf Intel i7 GPP implementiert wird. Die Erforschung des Entwurfsraums auf hohem Niveau wurde durchgeführt, indem Techniken zur Zusammenführung von Akteuren durchgeführt wurden, um sieben verschiedene Architekturen zu erhalten, die in Bezug auf Leistung, Fläche, Leistung und Energie verglichen werden. Die Ergebnisse zeigen, dass die Energieverbesserungen für ASIC, FPGA und GPP 44,71 %, 10,22 % bzw. 28,31 % durch die Design Space Exploration Methodik betragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0749-3_46 c75900c77efb0537cfaaf3c0b2e66d3b;de;;;5.3.;;;Segmentierung und Klassifizierung menschlicher Handlungen basierend auf dem Isomap-Algorithmus Die visuelle Analyse des menschlichen Verhaltens hat im Bereich der Computer Vision aufgrund der vielfältigen Anwendungsmöglichkeiten große Aufmerksamkeit auf sich gezogen. Menschliches Verhalten kann in atomare Aktionen unterteilt werden, von denen jede eine einzelne, grundlegende Bewegung anzeigt. Um menschliche Eingriffe in die Analyse menschlichen Verhaltens zu reduzieren, kann unüberwachtes Lernen besser geeignet sein als überwachtes Lernen. Die komplexe Natur der menschlichen Verhaltensanalyse macht das unbeaufsichtigte Lernen jedoch zu einer herausfordernden Aufgabe. In diesem Beitrag schlagen wir einen Rahmen für die unüberwachte Analyse menschlichen Verhaltens vor, der auf vielfältigem Lernen basiert. Zuerst wird eine paarweise menschliche Haltungsdistanzmatrix aus einer Trainingsaktionssequenz abgeleitet. Dann wird der isometrische Merkmalsabbildungsalgorithmus (Isomap) angewendet, um eine niedrigdimensionale Struktur aus der Distanzmatrix zu konstruieren. Folglich wird die Trainingsaktionssequenz in eine Mannigfaltigkeits-Trajektorie im Isomap-Raum abgebildet. Um die Bruchpunkte zwischen den Trajektorien zweier aufeinanderfolgender atomarer Aktionen zu identifizieren, stellen wir die Mannigfaltigkeits-Trajektorie im Isomap-Raum als eine Zeitreihe von niederdimensionalen Punkten dar. Dann wird eine zeitliche Segmentierungstechnik angewendet, um die Zeitreihen in Unterreihen zu segmentieren, von denen jede einer atomaren Aktion entspricht. Als nächstes wird der Ansatz des dynamischen Zeitverzerrens (DTW) verwendet, um atomare Aktionssequenzen zu clustern. Schließlich verwenden wir die Clustering-Ergebnisse, um atomare Aktionen gemäß der Nächste-Nachbar-Regel zu lernen und zu klassifizieren. Wenn der Abstand zwischen der Eingabesequenz und der nächsten mittleren Sequenz größer als ein bestimmter Schwellenwert ist, wird dies als unbekannte atomare Aktion angesehen. Experimente mit realen Daten zeigen die Wirksamkeit der vorgeschlagenen Methode.;-;-;-;https://link.springer.com/article/10.1007/s11042-011-0858-2 06aaf96e8e8502d5e09f35f821eee496;de;;;5.3.;;;Mensch-interaktiver Glühprozess mit Piktogramm zum Extrahieren neuer Szenarien für die Patenttechnologie Es ist nur ein beobachtbarer Teil der realen Welt, der in Daten gespeichert werden kann. Die latente Struktur hinter der Beobachtung spielt oft eine wichtige Rolle in der Dynamik sichtbarer Ereignisse. Eine solche latente Struktur besteht aus nicht beobachtbaren Ereignissen. Die Datenkristallisation zielt darauf ab, die latente Struktur zwischen Ereignissen, einschließlich nicht beobachtbarer Ereignisse, darzustellen. Human-interactive Annealing wurde entwickelt, um nicht beobachtbare Ereignisse zu verstehen, indem die Granularität der nach der Datenkristallisation zu visualisierenden Struktur eingestellt wird. Dieses Papier präsentiert die Anwendung der Datenkristallisation und des menschlich-interaktiven Annealings, um neue Szenarien des Produktdesigns aus der latenten Technologiestruktur hinter der aktuellen patentierten Technologie zu extrahieren. Die Ergebnisse zeigen seine Wirkung auf die industrielle Entscheidungsfindung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78733-4_12 f4ff99a5c227d5dbe28866267e1cd01d;de;;;5.3.;;;Emotionale Interaktion im E-Learning Der Mangel an persönlicher Kommunikation kann die Effektivität von E-Learning-Anwendungen beeinträchtigen. Dieses Kapitel präsentiert eine Studie über einen pädagogischen Agenten, der menschliches Verhalten imitiert, um E-Learning-Anwendungen durch emotionale Intelligenz zu verbessern. Die Ergebnisse der Studie zeigen, dass der Agent die Bildungsqualität verbessern kann, insbesondere kann der Agent den emotionalen Zustand der Schüler erfolgreich diagnostizieren und ihnen helfen, ihre Lernaufgaben zu bewältigen, die Schüler haben Spaß am Umgang mit dem Agenten, sie haben ein Gefühl für Kommunikation mit dem Agenten, und sie haben durch diese Kommunikation positive Emotionen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-1083-6_19 5f7b3b18c3fe70323168a8ef2474da20;de;;;5.3.;;;Implizites Video-Emotion-Tagging aus dem Gesichtsausdruck des Publikums In diesem Beitrag schlagen wir einen neuartigen Ansatz zur impliziten Video-Emotion-Tagging vor, indem wir die Beziehungen zwischen den gemeinsamen Emotionen der Videos, den individualisierten Emotionen der Probanden und dem äußeren Gesichtsausdruck der Probanden untersuchen. Zuerst werden die Merkmale der Kopfbewegung und des Gesichtsaussehens extrahiert. Dann werden die spontanen Gesichtsausdrücke von Probanden von Bayesschen Netzwerken erkannt. Danach werden die Beziehungen zwischen der äußeren Mimik, den inneren individualisierten Emotionen und den gemeinsamen Emotionen des Videos von einem weiteren Bayesschen Netzwerk erfasst, aus dem auf die emotionalen Tags von Videos geschlossen werden kann. Um die Wirksamkeit unseres Ansatzes zu validieren, wird ein Emotions-Tagging-Experiment in der NVIE-Datenbank durchgeführt. Die experimentellen Ergebnisse zeigen, dass Kopfbewegungsmerkmale die Leistung sowohl der Gesichtsausdruckserkennung als auch des Emotions-Taggings verbessern und dass die erfassten Beziehungen zwischen dem äußeren Gesichtsausdruck, den inneren individualisierten Emotionen und den gemeinsamen Emotionen die Leistung des gemeinsamen und individualisierten Emotions-Tagging verbessern.;-;-;-;https://link.springer.com/article/10.1007/s11042-013-1830-0 dd32cea8f14af616837c431a8e436f36;de;;;5.3.;;;Endpunkterkennung isolierter koreanischer Äußerungen für die bimodale Spracherkennung in geräuschvollen Umgebungen Dieses Papier schlägt eine zuverlässige Endpunkterkennungsmethode für ein bimodales System in einer akustisch verrauschten Umgebung vor. Endpunkte werden in den Audio- und Videosignalen erkannt, und dann werden geeignete Endpunkte ausgewählt, abhängig von dem im Eingangsaudiosignal geschätzten Signal-Rausch-Verhältnis (SNR). Experimentelle Ergebnisse zeigen, dass das vorgeschlagene Verfahren eine Erkennungsfehlerrate signifikant reduzieren und eine akzeptable Erkennungsgenauigkeit in einem bimodalen System selbst bei einem sehr niedrigen SNR erzeugen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39592-8_82 e2d1460b98130c795be785eacfcc87f0;de;;;5.3.;;;Modellierung des urbanen Kontexts durch die Rollentheorie Urbane Umgebungen sind intelligente Räume, in denen eine Vielzahl heterogener Variablen zusammenlaufen, die das Verhalten des Einzelnen direkt beeinflussen. In diesem Beitrag stellen wir UrbanContext vor, ein neues Modell für städtische Plattformen, das einem individualzentrierten Ansatz folgt und die Verwendung der Rollentheorie validiert, um das Verhalten des Individuums in einem sozialen Umfeld zu verstehen. Die in UrbanContext definierten Rollen ermöglichen die Interpretation der Zustände des Individuums, erleichtern seine Interaktion mit der Umwelt und bieten Dienste an, ohne seine Privatsphäre zu beeinträchtigen. Wir beschreiben das UrbanContext-Modell und die grundlegenden Prinzipien, die in diesem Design identifiziert wurden, ebenso präsentieren wir ein erstes Validierungsszenario für UrbanContext.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-04406-4_26 49d6026cc06623d51afa1c559bd0cdb5;de;;;5.3.;;;Ein feministischer virtueller Agent für die Stillförderung Beschrieben wird das Design einer konversationalen virtuellen Agentin, die die Rolle einer Laktationspädagogin spielt, die das Stillen fördert, sowie eine Manipulation, um die Agentin mehr oder weniger feministisch erscheinen zu lassen. Die Ergebnisse einer randomisierten Pilotstudie zeigen, dass die Studienteilnehmer sich der Manipulation bewusst waren und Teilnehmer, die eher feministisch waren, den feministischen Agenten bevorzugten, während diejenigen, die nicht feministisch waren, den nichtfeministischen Agenten bevorzugten. Diese Arbeit zeigt einen Weg, wie Feminismus in das Agentendesign integriert werden kann, und eine Methodik, um Benutzer zu identifizieren, die dafür am empfänglichsten sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-21996-7_49 0f8306cb398331857edf0291527da9db;de;;;5.3.;;;Parsen von Äußerungen einschließlich Selbstreparaturen Damit ein gesprochenes Dialogsystem ein natürliches Gespräch mit Menschen führen kann, muss das Parsing-Modul in der Lage sein, eine menschliche Äußerung in Echtzeit zu analysieren, ihren semantischen Ausdruck zu erhalten und sie an das Diskurs-Verarbeitungsmodul zu senden. Es ist schwierig, ein solches Parsing-Modul zu erstellen, da Phänomene existieren, die von der Grammatik für geschriebene Sätze nicht behandelt werden können (Nakano, Shimazu und Kogure, 1994). Von diesen Phänomenen konzentriert sich dieser Aufsatz auf Selbstreparaturen und behandelt Paraphrasen und Wiederholungen als Arten von Selbstreparaturen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-5687-6_9 73ebccf712b72c22c48b90de1d9ca5eb;de;;;2.4.;;;Geschaltete Feedback-Steuerung für drahtlose vernetzte Systeme In diesem Kapitel wird ein Regelungsschema für geschaltete Ausgänge für vernetzte Systeme vorgestellt. Das Regelschema wird auf Client-Server-Architekturen angewendet, bei denen der Rückkopplungsregelkreis über einen universellen drahtlosen Kommunikationskanal zwischen der Anlage (Server) und der Steuerung (Client) geschlossen wird. Die vom Kommunikationsnetz eingefügten Verzögerungen sind im Allgemeinen zeitvariabel und verschlechtern die dynamische Systemleistung, während sie zu Instabilitäten gezwungen werden. Um mit diesen Änderungen umzugehen, wird ein lineares quadratisches Regler-(LQR)-Ausgangs-Rückkopplungsregelungsschema eingeführt, dessen Parameter entsprechend der Variation der gemessenen Umlauflatenzzeiten abgestimmt werden. Die Gewichte der LQR-Regler werden anschließend unter Verwendung der Theorie der linearen Matrixungleichungen (LMIs) abgestimmt, um trotz der variablen Latenzzeit einen vorgeschriebenen Stabilitätsspielraum zu gewährleisten. Das Gesamtschema ähnelt einem Gain-Scheduler-Controller, wobei die Latenzzeiten die Rolle des Scheduling-Parameters spielen. Das vorgeschlagene Steuerschema wird in experimentellen und Simulationsstudien auf ein vernetztes Steuersystem über verschiedene Kommunikationskanäle angewendet, einschließlich: (a) GPRS, (b) IEEE 802.11b und (c) IEEE 802.11b über ein Mobiltelefon;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84800-215-9_6 d33e31d16b8a380f371ce55896ed2d01;de;;;2.4.;;;Rauschfilterung und Multisample-Integration für KMG-Daten von Freiformflächen Beim Reverse Engineering und einigen anderen Anwendungen ist die Rekonstruktion der tatsächlichen Form von Teilen aus Messdaten unerlässlich. Offensichtlich verringern die mit den Herstellungs- und Messverfahren verbundenen Geräusche und zufälligen Fehler die Genauigkeit des rekonstruierten Modells. Multisample-Messung ist eine effektive Methode, um die Modellierungsgenauigkeit zu verbessern. In dieser Studie werden Vorverarbeitungstechnologien für Multisample-Messungen hinsichtlich Rauschfilterung und Datenintegration untersucht. Zunächst wird ein adaptives Sehnenhöhenmodell zur Datenrauschfilterung erstellt. Als nächstes wird die Mehrfachstichprobe gemessen, um zufällige Fehler zu schätzen, und ein Datenintegrationsmodell wird vorgeschlagen. Aus dem Multisample wird ein statistisches Modell rekonstruiert, das die tatsächliche Form des Teils besser darstellen kann. Abschließend werden einige Beispiele zur Demonstration vorgestellt. Die Ergebnisse zeigen, dass das vorgeschlagene Verfahren das Rauschen reduzieren und die Modellierungspräzision verbessern kann.;-;-;-;https://link.springer.com/article/10.1007/s00170-018-2950-5 911f956ef8665ee150d7187f358fbbd0;de;;;5.3.;;;Nyoro-Nyoro San: Sprits in deinem Besitz Dies ist ein interaktives Kunstwerk mit einer Tischoberfläche. „Nyoro-Nyoro“ sind Geister, die in deinen Sachen wie Geldbörse, Handy und so weiter leben. Sie verstecken sich normalerweise in Ihren Sachen. Aber wenn du deine Sachen auf den Zaubertisch legst, den ich gemacht habe, zeigen sie sich dir wie Schnecken. Aber denken Sie bitte daran, dass sie so scheu sind und sich schnell verstecken, wenn Sie versuchen, sie einzufangen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02115-2_26 424f06e3de609f02038736bdf5e2817b;de;;;5.3.;;;Kulturelle Unterschiede bei der Verwendung von Gesichtsteilen als Hinweise zum Erkennen von Emotionen in Avataren Avatare werden häufig in virtuellen Welten und Online-Spielen verwendet, um Emotionen über Kulturen hinweg zu vermitteln. Unsere frühere Studie hat jedoch gezeigt, dass es kulturelle Unterschiede bei der Erkennung des Gesichtsausdrucks von Avataren gibt [1]. Die Studie von Yuki et al., die Emoticons und fotorealistische menschliche Gesichtsbilder verwendet, legt nahe, dass Amerikaner dazu neigen, Emotionen basierend auf dem Mund zu interpretieren, während Japaner sich eher auf die Augen konzentrieren [2]. Inspiriert von Yukis Studie verwendet diese Studie cartoonartige Avatar-Gesichter, um kulturelle Unterschiede bei der Verwendung von Gesichtsteilen als Hinweise zum Erkennen von Avatar-Emotionen zu finden. Dieses Papier berichtet über das vorläufige Ergebnis eines Experiments, das zwischen japanischen und europäischen Probanden durchgeführt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04380-2_70 1ccc734a7df403b0f8942d8f6146a6ef;de;;;5.3.;;;Berechnung von Tiefeninformationen auf Disparitätsvektorbasis Die in der Bildfolge enthaltene Tiefeninformation, die durch die Bewegung der Kamera entlang jeder Achse entsteht, wird in dieser Arbeit analysiert, insbesondere für die Tiefeninformation entlang der optischen Achse. Dann wird die entsprechende Beziehung des Translationsvektors und des Disparitätsvektors unter der Translationsbewegung der Kamera abgeleitet. Schließlich wird der Algorithmus zum Extrahieren der Tiefeninformation basierend auf der Auflösung des Disparitätsvektors angegeben, und die Gültigkeit des Algorithmus wird experimentell bewiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20367-1_65 6d81dc8eabdd07732773efac98990751;de;;;5.3.;;;Der signifikante Effekt überlappender Community-Strukturen in signierten sozialen Netzwerken Soziale Netzwerke sind untrennbarer Bestandteil des modernen Lebens. Es ist unwahrscheinlich, dass jemand Facebook oder Twitter nicht kennt. Heutzutage treten Menschen diesen Plattformen bei und kommunizieren mit anderen Mitgliedern. In sozialen Netzwerken sind sich manche Menschen ähnlicher und sie bilden dicht verbundene Komponenten namens Communities. Der Erkennung dieser eng verbundenen Komponenten wurde in letzter Zeit viel Aufmerksamkeit gewidmet. Diese Komponenten überlappen sich in der Natur. Mit anderen Worten, ein Mitglied gehört mehr als einer Gemeinschaft an. Nicht nur die sich überschneidende Community-Struktur, sondern auch die Zeitlichkeit ist eine intrinsische Eigenschaft von sozialen Online-Netzwerken. Bezüglich der Dynamik initiieren die Menschen untereinander neue Verbindungen. Wenn die Kommunikation von Personen signierten Verbindungen zugeordnet wird, erhalten wir ein Netzwerk mit positiven und negativen Verbindungen. Um zuverlässig vorherzusagen, wie sich diese Wechselwirkungen entwickeln, betrachten wir das Vorzeichenvorhersageproblem. Die Vorzeichenvorhersage und die Erkennung überlappender Gemeinschaften wurden bis zu einem gewissen Grad erforscht, Antworten auf einige der Forschungsfragen sind jedoch noch unbekannt. Wie groß ist beispielsweise die Bedeutung überlappender Mitglieder in signierten Netzwerken? Um diese Frage zu beantworten, benötigen wir einen schnellen und präzisen Overlap-Community-Detection-Algorithmus (OCD), der auf einfachen Netzwerkdynamiken wie disassortativer Gradmischung und Informationsdiffusion basiert. In diesem Papier schlagen wir einen zweiphasigen Ansatz vor, um überlappende Gemeinschaften in signierten Netzwerken zu entdecken. In der ersten Phase identifiziert der Algorithmus die einflussreichsten Knoten (Leader) im Netzwerk. In der zweiten Phase identifizieren wir die Zugehörigkeit jedes Knotens zu den Leitern mithilfe eines Netzwerkkoordinationsspiels. Wir wenden verschiedene Merkmale an, um die Bedeutung überlappender Elemente zu untersuchen. Zu diesen Funktionen gehören Extra, Überlappung und Intra. Um diese Merkmalstypen zu berechnen, wenden wir nicht nur das einfache Gradranking an, sondern erweitern auch die ursprünglichen HITS- und PageRank-Ranking-Algorithmen. Wir verwenden die Merkmale für das Vorzeichenvorhersageproblem. Die Ergebnisse zeigen, dass sich überlappende Knoten im Vergleich zu Intra- und Extra-Knoten kompetitiv vorhersagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-51049-1_3 f2d54f22ed5856d4f63aafdf2fb163a0;de;;;5.3.;;;Projektive Beziehungen auf der Sphäre Für geographische Anwendungen ist es von großem Interesse, die geometrischen Eigenschaften der Kugel zu studieren. Räumliche Modelle, die sich direkt mit geographischen Koordinaten befassen, können solche Aspekte berücksichtigen, die ansonsten von flachen 2D-Modellen vernachlässigt würden. Zum Beispiel könnte auf der Erdoberfläche ein Punkt erreicht werden, der östlich eines anderen Punktes liegt, wenn Sie auch nach Westen reisen. Am Nordpol gelegen, würde jede Richtung eine Reise nach Süden bedeuten. In diesem Aufsatz untersuchen wir projektive Beziehungen auf der Kugel, eine Kategorie von räumlichen Beziehungen, die allgemeiner als die Himmelsrichtungen sind und die zusammen mit topologischen Beziehungen und qualitativen Entfernungen das Wesen qualitativer räumlicher Beziehungen darstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87991-6_38 595137d4ed7d2a4664e6ae57e6894404;de;;;5.3.;;;Vakuumgesteuertes taktiles Display mit mehreren Kontakten zur Darstellung von Kraftvektoren, die auf gegriffene Objekte angewendet werden In diesem Beitrag demonstrieren wir eine Idee der taktilen Mehrpunktstimulation zur Darstellung von Kraftillusionen an handgehaltenen Objekten unter Verwendung von Vakuumdruckstimuli. Das für die Demonstration verwendete Gerät ist stiftbasiert und wird von Fingern und Daumen in einem präzisen Griff gehalten. Es gibt zwei Arten dieser Vorrichtungen, taktile Schnittstellen mit drei Freiheitsgraden und fünf Freiheitsgraden. Diese Freiheitsgrade sind im Wesentlichen Illusionen, die von den taktilen Reizen beobachtet werden. Der erste Prototyp ist in der Lage, kraftähnliche Empfindungen in den drei Grundkoordinatenachsen und momentähnliche Empfindungen entlang zweier Achsen darzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31404-9_40 e7d5408ad1fae81c6a018c0ebedd7861;de;;;5.3.;;;Eine Studie zur Generierung und Anpassung von Gesichtskontrollpunkten unter Verwendung der radialen Basisfunktion 3D-Gesichtsanimation wurde weithin durch virtuelle Realität, MPEG-4-Bildkomprimierung, Telefonkonferenzen, Werbung und Spiele angewendet. Insbesondere hat es sich zu einem Punkt entwickelt, an dem es dank einer Entwicklung von Hardware und Software 3D-Gesicht in Echtzeit ausdrücken kann. Die allgemeine 3D-Gesichtsmodellierung generiert ein 3D-Gesichtsmodell und passt das Gesichtsmodell an, indem Vertexpunkte auf dem 3D-Netz als Kontrollpunkte verwendet oder zufällige Kontrollpunkte generiert werden, um das Bild entsprechend der Gesichtsform jedes Einzelnen abzugleichen. Da bei dieser Art von Arbeit jedoch Passpunktkoordinaten für ein ganzes Netz verwendet werden, ist es sehr zeit- und arbeitsaufwändig, die Netzform zu verzerren oder das Bild entsprechend der Gesichtsform des Benutzers anzupassen. Aus diesem Grund wurde in dieser Studie eine Methode entwickelt, die ein individuelles 3D-Gesichtsmodell automatisch aus 2D-Vollgesichtsbildern generiert. Darüber hinaus lieferte diese Studie eine Methode zum Generieren und Abgleichen von Gesichtskontrollpunkten unter Verwendung von FFPs (Facial Feature Points)-Informationsextraktionsverfahren unter Verwendung von RBF aus 3D-Gesichtsnetzen.;-;-;-;https://link.springer.com/chapter/10.1007/11550617_43 4f285a15694a07aa562ddff51ebab1ce;de;;;2.4.;;;Verwendung der Zeitbereichsreflektometrie zur Schätzung des Feuchtigkeitsgehalts in elektrisch leitfähigen mineralischen Abfällen Der Artikel stellt die Möglichkeiten der Domain-Time-Reflektometrie (TDR) zur Bestimmung des Feuchtigkeitsgehalts von Abfällen vor. Die TDR-Methode besteht darin, die Zeit der elektromagnetischen Impulsübertragung und -reflexion vom Hindernis zurück zum Ausgangspunkt zu messen. Der Impuls ist ein Spannungssprungsignal. Das reflektierte Signal enthält Informationen über die dielektrischen Eigenschaften des zu prüfenden Materials. Daher können qualitative und quantitative Eigenschaften des Materials erfasst werden. Die Tests wurden mit einem stationären reflektometrischen Gerät und einem elektronischen Temperatur- und Feuchtigkeitsmesser durchgeführt. Die erhaltenen Ergebnisse wurden mit der traditionellen Gewichtsmethode validiert, wobei eine Konvergenz der Ergebnisse von 94 % im Messzyklus erzielt wurde. Auf der Grundlage der erhaltenen Ergebnisse wurde die Nützlichkeit reflektometrischer Methoden bei der Untersuchung des Feuchtigkeitsgehalts von Abfällen bestimmt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-16542-0_13 cf22a09e1541f281d4774adaf2d4402b;de;;;2.4.;;;Audiodaten-Fuzzy-Fusion zur Quellenlokalisierung Diese Arbeit befasst sich mit dem Problem der Lokalisierung von Audioquellen in Innenräumen mit mehreren Lautsprechern. Drei verschiedene Ankunftsrichtungsalgorithmen (DOA) werden angewendet, um die Winkelposition der primären Audioquelle in Bezug auf ein Referenzmikrofon zu messen, dann wird ein auf Fuzzy-Logik basierendes Verfahren angewendet, um die scharfen Messungen zu verschmelzen. Die modellfreie Schätzfähigkeit der Fuzzy-Logik ermöglicht es, ein hohes Maß an Genauigkeit zu erreichen und die Rechenkomplexität des Systems gering zu halten. Dieser Ansatz eines Audioquellenlokalisierungssystems mit zwei Ebenen ist robust und zuverlässig, da jedes Modul unabhängig vom anderen arbeitet und die Fuzzy-Logik-Inferenzmaschine die Fähigkeit hat, die Leistung jedes der DOA-Messsubsysteme qualitativ zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41013-0_33 296d678ed5bf32f73bc316a9c7b6ef24;de;;;5.3.;;;Hintergrundsubtraktion mit laufendem Gaussian Average und Frame-Differenz Hintergrund-Subtraktionsverfahren werden häufig verwendet, um sich bewegende Objekte von statischen Kameras zu erkennen. Es hat viele Anwendungen wie Verkehrsüberwachung, Erfassung und Erkennung menschlicher Bewegungen und Videoüberwachung. Es ist schwierig, ein Hintergrundmodell vorzuschlagen, das in allen unterschiedlichen Situationen gut funktioniert. Eigentlich ist es nicht nötig, ein allgegenwärtiges Modell vorzuschlagen, es ist ein gutes Modell, solange es in einer speziellen Situation gut funktioniert. In diesem Papier wird eine neue Methode vorgeschlagen, die Gauß'schen Durchschnitt und Rahmendifferenz kombiniert. Schattenunterdrückung wird nicht speziell behandelt, da sie als Teil des Hintergrunds betrachtet wird und durch Verwendung eines geeigneten Schwellenwerts abgezogen werden kann. Schließlich wird eine neue Methode entwickelt, um kleine Lücken zu füllen, die der erkannte Vordergrund oder die sich bewegenden Objekte enthalten können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74873-1_50 ed66e1a0b5d2d9358e10ca19a529206c;de;;;5.3.;;;Adjuvante Wirkung von Endotoxin Mishell und Dutton (1967) entwickelten eine Methode, die eine Immunantwort in Kulturen freier Milzzellen von nicht immunisierten Mäusen auslöst. Dieses Verfahren ermöglicht die Untersuchung biochemischer und zellulärer Ereignisse, die mit der Induktion und Entwicklung der Immunantwort verbunden sind, und ermöglicht dem Forscher, ein an sich einfacheres Analysesystem zu verwenden, als dies bei intakten Tieren der Fall ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-4364-6_13 8ce557ee877189de2c23c3569370005a;de;;;5.3.;;;Menschliche Motorleistung Viele körperliche Fähigkeiten erfordern, dass eine Person die Position einer Gliedmaße schnell von einem Ort zum anderen ändert. Diese Fähigkeiten werden bei Aufgaben wie dem Greifen nach einem Stift oder einer Aufzugstaste, dem Drücken der Reset-Taste auf einem Computer, der Verwendung einer Maus zum Auswählen eines Bildschirmsymbols und dem Einsetzen einer Schraube in das Loch verwendet. Diese Aktionen sind Beispiele, die unter der Kategorie gesammelt werden können;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0917-4_2 2d9c894dbb45c32cd38d9e558cf9bb1e;de;;;5.3.;;;Ein System, das Blinden hilft, Wareninformationen zu erhalten Wir schlagen ein System vor, das Blinden hilft, das Mindesthaltbarkeits-/Verbrauchsdatum von verderblichen Lebensmitteln zu ermitteln. Das System besteht aus einem Computer, einer drahtlosen Kamera und einem Kopfhörer. Es verarbeitet Bilder, die von einem Benutzer aufgenommen wurden, und extrahiert Zeichenbereiche im Bild mithilfe von Support Vector Machine (SVM). Verarbeiten der Regionen durch optische Zeichenerkennung (OCR) und das System gibt das Mindesthaltbarkeits-/Verbrauchsdatum als synthetisierte Sprache aus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31534-3_87 0bab319b6053570417407c1acc2b67e9;de;;;5.3.;;;Hospital Buddy: Ein beharrlicher Begleiter für emotionale Unterstützung für Krankenhauspatienten Die Krankenhauserfahrung kann entmachtend und desorientierend sein. Die Patienten werden von Schlafmangel beraubt und sind ständigem Lärm, häufigen Unterbrechungen, einer ungewohnten Umgebung mit wechselnden Gesundheitsfachkräften und Hilfspersonal sowie Medikamenten ausgesetzt, die oft mit körperlichen oder psychoaktiven Nebenwirkungen verbunden sind. Diese Zustände führen oft zu Unbehagen und Angst und induzieren häufig ein Delir (insbesondere bei älteren Erwachsenen), eine neuropsychiatrische Erkrankung bei Patienten, die zu klinisch signifikanten kognitiven und Wahrnehmungsproblemen führt. Da Patienten in der Regel allein in ihren Zimmern sind, bis ein medizinischer Eingriff erforderlich ist, langweilen sie sich gleichzeitig und hungern nach persönlicher Aufmerksamkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33197-8_56 93815b5b0748338bad4c5bcf99ac8060;de;;;5.3.;;;Bewegungssimulation für einen mobilen Roboter mit Rädern basierend auf Stereovision Entsprechend der Anwendung der Planetenerkennung wurde in dieser Arbeit das Kinematikmodell eines Rock-Bogie-Roboters mit sechs Rädern untersucht. Ein entsprechendes Roboterbewegungssimulationssystem auf Basis von Stereovision und Virtual Reality wurde entwickelt. Das System lieferte mittels Outline-Teaching Bewegungsparameter des virtuellen Roboters an den realen Roboter, was die Sicherheit des Roboters gewährleistete. Die visuelle Orientierungstheorie und die Simulationssystemrealisierung auf Basis von OpenGL wurden ausführlich vorgestellt. Die Simulation wurde auf der Grundlage von Synthesegelände und realem Gelände fertiggestellt, und die Ergebnisse zeigen, dass das System bevorzugte interaktive Eigenschaften besitzt und einige Schlüsseltechniken für die virtuelle Navigation und den Telebetrieb von planetarischen Erkundungsrobotern bereitstellen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20367-1_64 8e12fc234934fd1822ab19962413ef0b;de;;;5.3.;;;Der automatische zweistufige Gefäßlumensegmentierungsalgorithmus für die Karotisbifurkationsanalyse während der Perfusionsuntersuchung Der neuartige Pfaderkennungsalgorithmus und der auf Regionswachstum basierende Lumenerkennungsalgorithmus ist der Hauptbeitrag dieses Artikels. Die vorgeschlagene Lumensegmentierungsmethode besteht aus zwei Unteralgorithmen. Nach dem Vorverarbeitungsschritt erkennt der erste Algorithmus den möglichen Weg zwischen Start- und Endpunkt. Im zweiten Schritt führt es die Ausdünnung des zuvor erhaltenen Pfades durch. Der zweite Algorithmus ist ein Region-Growing-Verfahren mit geeigneten Homogenitätskriterien. Die Rolle dieses Verfahrens besteht darin, das gesamte Lumen des betrachteten Gefäßes zu segmentieren. Das Bereichswachstum wird in axialen Schnitten berechnet und der Saatpunkt für das Wachstumsverfahren in jedem Schnitt ist ein Voxel, das dem im vorherigen Schritt berechneten Pfad entnommen wurde. Die vorgeschlagene Methode wurde an sechs Halsschlagaderstrukturen getestet, die aus einer CTA-Untersuchung erhalten wurden. Unsere Forschungen haben gezeigt, dass es mit unserer Methode möglich ist, die TPR (True-Positive-Rate) in 5 von 6 betrachteten Fällen auf einem Niveau über 80% mit der FPR (False-Positive-Rate) unter 1% zu halten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29920-9_50 c73dfc29ef0c3a31fe03cc1cc4602798;de;;;5.3.;;;Automatische Generierung von Gesprächsverhalten für mehrere verkörperte virtuelle Charaktere: Die Regeln und Modelle hinter unserem System In diesem Papier haben wir die Regeln und Algorithmen vorgestellt, die wir verwenden, um automatisch nonverbale Verhaltensweisen wie Gesten und Blicke für zwei verkörperte virtuelle Agenten zu generieren. Sie ermöglichen es uns, einen Dialog im Textformat in ein Agentenverhaltensskript umzuwandeln, das durch Blick- und Konversationsgestenverhalten angereichert wird. Das Blickverhalten der Agenten basiert auf Theorien des menschlichen Blickverhaltens von Angesicht zu Angesicht. Gesten werden basierend auf der Analyse sprachlicher und kontextueller Informationen des eingegebenen Textes generiert. Da alle Verhaltensweisen automatisch generiert werden, bietet unser System Content-Erstellern eine bequeme Methode zum Erstellen multimodaler Präsentationen, eine Aufgabe, die ansonsten sehr umständlich und zeitaufwendig wäre.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85483-8_49 73acfa29e65b1d4fbaaa65b106199f88;de;;;5.3.;;;Verkörperte Agenten und sinnvolle Bewegung Wir untersuchen Bewegungsrealismus im Hinblick auf herausragende kommunikative Merkmale. Wir argumentieren, dass Bewegung einer auf der Laban-Bewegungsanalyse basierenden Parametrisierung zugänglich ist, die eine Echtzeitkontrolle über Bewegungsqualitäten ermöglicht, und dass diese Qualitäten erkennbare und nützliche nonverbale Informationen über die Persönlichkeit oder den emotionalen Zustand der Figur enthalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27797-2_1 23b9d9110679cdcaeee4a8cb4c7524d6;de;;;5.3.;;;Anwendung methodischer Prinzipien in der Praxis: Erkenntnisse und Perspektiven für die Zukunft Es scheint, dass wir uns im IT-Bereich alle bewusst sind, dass für die Entwicklung nicht-trivialer Software der Einsatz von Softwaremethoden sehr wichtig ist. Sie liefern Wissen und Orientierung für den Entwicklungsprozess, der sonst zu chaotisch und außer Kontrolle geraten könnte. Es ist empirisch belegt, dass Softwareentwicklungsunternehmen, die ihre Softwareprozesse erfolgreich etabliert haben, effizienter sind, qualitativ hochwertigere Software produzieren und eine kürzere Time-to-Market-Periode haben, insbesondere wenn sie ihre Arbeitsweise an die Besonderheiten eines besonderes Projekt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19997-4_2 8aca3b88fa27427d1a9ea2730a7d14a0;de;;;5.3.;;;Ein effizienter Algorithmus zur Berechnung von Kernattributen in Datenbanksystemen Basierend auf relationalen Datenbanksystemen wird ein neuer Ansatz zur Berechnung von Kernattributen in der Grobmengentheorie vorgeschlagen. Insbesondere werden die grundlegenden Operatoren der relationalen Algebra verwendet, um die notwendigen und hinreichenden Bedingungen zu definieren, dass ein Attribut unter der Bedingung der Konsistenz der Datentabelle ein Kernattribut ist. Darüber hinaus können inkonsistente Datentabellen leicht überprüft und Rauschdaten effizient eliminiert werden. Mit diesem Ansatz präsentieren wir einen effizienten und skalierbaren Algorithmus zur Berechnung von Kernattributen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39592-8_96 f31ce2d8a04ae54a7bea28886d33a559;de;;;5.3.;;;Pervasive Spaces programmieren Im Prinzip kann die ganze Welt ubiquitäre und durchdringende Systeme zu großem gesellschaftlichen Nutzen ausnutzen. In der Praxis gibt es für solche Systeme jedoch noch keine grundsätzliche Grundlage oder allgemein akzeptierte Programmiermodelle. Es gibt auch kein etabliertes Curriculum für die Lehre von Pervasive und Sensor Based Computing. In diesem Vortrag werde ich unsere laufenden Forschungsbemühungen zur Definition und Unterstützung programmierbarer Pervasive Spaces vorstellen. Ich beginne mit der Präsentation unserer Erfahrungen und Erkenntnisse beim Bau von „assistiven Umgebungen“ für ältere Menschen, um die Notwendigkeit der Raumprogrammierbarkeit aufzuzeigen und kritische neue Anforderungen speziell für Pervasive Spaces zu definieren. Anschließend werde ich ATLAS vorstellen, eine Middleware-Architektur und eine Sensorplattform, die die Selbstintegration unterstützt und SODA ermöglicht – ein serviceorientiertes Programmiermodell. Ich werde zeigen, wie ATLAS als Grundlage für den Aufbau und die Programmierung des Gator Tech Smart House verwendet wurde und wie es eine durchdringende Anwendungsentwicklung sowie eine skalierbare Datenerfassung und -analyse ermöglichte. Ich werde dann die Grenzen von SODA skizzieren und Programmiermodellerweiterungen vorstellen, die Raum und Benutzersicherheit sowie Zuverlässigkeit und Skalierbarkeit ansprechen. Schließlich werde ich unsere Ansichten eines möglichen Ökosystems vorstellen, in dem unsere Programmiermodelle und Systemunterstützung verwendet werden können, um die Verbreitung programmierbarer und handhabbarer Pervasive Systems zu fördern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16355-5_1 67485ab8f67503554129846ad01617ce;de;;;5.3.;;;Ereignisbehandlungsmechanismus zum Abrufen von räumlich-zeitlichen Änderungen auf verschiedenen Detailebenen Wir schlagen einen Ereignisbehandlungsmechanismus für den Umgang mit räumlich-zeitlichen Veränderungen vor. Durch Verwendung dieses Mechanismus können wir Änderungen von Merkmalen aus verschiedenen Blickwinkeln beobachten. Wir formalisieren ein Ereignis, das eine Reihe von Funktionen ändert. Die Beziehung zwischen Ereignissen hat eine hierarchische Struktur. Diese Struktur ermöglicht Beobachtungen räumlicher Veränderungen auf verschiedenen Detailebenen.;-;-;-;https://link.springer.com/chapter/10.1007/11504894_48 9399972aff33dee4ac137626607d6749;de;;;5.3.;;;Hypotaurin-Aminotransferase Taurin ist eine in der Tierwelt weit verbreitete Substanz (1). Bestimmte Gewebe von Säugetieren enthalten bemerkenswert hohe Konzentrationen dieser schwefelhaltigen Aminosäure, was auf eine wichtige biologische Rolle hindeutet, und dennoch bleibt die detaillierte Beschreibung ihres metabolischen Ursprungs unvollständig. Ein Verständnis des metabolischen Umsatzes von Taurin würde notwendigerweise den Einblick in die Kontrollmechanismen zur Regulation von Biosynthese und Transport erweitern.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-0402-0_7 4eebeb2e33fb3d78dfe105fe535095bf;de;;;5.3.;;;Anwenden von SOAP auf OAI-PMH Das Web-Services-Paradigma für verteiltes Computing verspricht einen Durchbruch in der Interoperabilität durch die Definition standardisierter Mechanismen für die Kommunikation zwischen Prozessen. Insbesondere der SOAP-Standard wird breit diskutiert, aber von den Standardisierungsgremien nicht so breit angenommen. Die OAI ist eine solche Organisation, die dafür kritisiert wurde, dass sie SOAP nicht einführt. Da der OAI-PMH semantisch getrieben ist und SOAP die Syntax beschreibt, erscheint eine Verschmelzung der beiden Technologien selbstverständlich und unvermeidlich. In diesem Artikel wird ein Versuch diskutiert, den OAI-PMH als Schicht über SOAP umzugestalten und neu zu verpacken und eine End-to-End-Lösung basierend auf diesem experimentellen Protokoll zu implementieren. Das Projekt hob wichtige Bedenken hervor, wie die relative Effizienz der Schichtung in strukturierten Textdaten und das Problem des Verschiebens von Standards. Die Ergebnisse zeigen, dass für eine Umstellung auf SOAP nur wenige Kompromisse erforderlich sind, vorausgesetzt, dass das Protokolldesign entsprechend abstrahiert wird, und dies hat weitreichende Auswirkungen auf die Einführung von SOAP und Web Services innerhalb der DL-Community und insbesondere von OAI.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30230-8_37 85297dba34dff65d9ec239d28dfaeded;de;;;5.3.;;;Ein Jahr älter, aber nicht unbedingt klüger: eine Bewertung der Barrierefreiheit von Homepages im Zeitverlauf Eine große Anzahl von Benutzern mit Behinderungen verwenden Geräte mit unterstützender Technologie, um im Internet zu surfen. Der Einsatz assistiver Technologien kann jedoch nur dann erfolgreich sein, wenn die Websites so entwickelt werden, dass sie mit solchen Geräten kompatibel sind. Es gibt Richtlinien für die Erstellung barrierefreier Websites. Sie werden jedoch selten befolgt, und das derzeitige Niveau der Zugänglichkeit im Internet ist gering. Daher stellt sich die Frage, was die Hauptursache für die Unzugänglichkeit ist und wie sich die Zugänglichkeitsmerkmale von Websites im Laufe der Zeit entwickeln. Eine Reihe von 50 Websites wurde im Laufe der Zeit untersucht, um festzustellen, ob sich die Zugänglichkeit verbessert oder verschlechtert. Dieses Forschungspapier präsentiert einen Vergleich der Ergebnisse aus den Jahren 2002 und 2003. Ein solcher Vergleich führt zu dem Schluss, dass die 50 Websites im Zeitraum von 1 Jahr tatsächlich unzugänglicher geworden sind. Implikationen für Entwickler, Webmaster und Pädagogen werden ebenfalls in dem Papier diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s10209-003-0087-1 d65a3f52920c01a869411f0dab7b67d0;de;;;5.3.;;;Ein Ansatz zur Verbesserung der Einstellungsschätzung basierend auf kostengünstiger MEMS-IMU für die mobile Roboternavigation Eine Trägheitsmesseinheit (IMU) ist ein elektronisches Gerät zum Messen von Fahrzeugzuständen wie Fluglage, Orientierung, Geschwindigkeit und Position. In letzter Zeit sind viele kostengünstige IMUs für mikroelektromechanische Systeme (MEMS) für nur einige hundert US-Dollar erschienen [1]. Diese MEMS-IMUs bestehen normalerweise aus dreiachsigen Beschleunigungsmessern, Kreiseln und Magnetometern. Im Vergleich zu High-End-IMUs (die normalerweise in Luft- und Raumfahrtfahrzeugen, Raketen, Raketen und künstlichen Satelliten verwendet werden) kann ein komplettes Trägheitsnavigationssystem (INS) mit geringerer Größe/Volumen, geringerem Gewicht und geringeren Kosten implementiert werden. Im Gegenzug haben sie aufgrund ihrer großen systematischen Fehler wie Bias, Skalierungsfaktoren und Drift, die stark von Störungen und Temperatur abhängig sind, eine eher geringe Genauigkeit. Daher muss die Rohsignalausgabe einer kostengünstigen IMU verarbeitet werden, um geglättete Lageschätzungen zu rekonstruieren. Für viele der betrachteten mobilen Roboternavigation müssen die Algorithmen auf eingebetteten Prozessoren mit geringen Speicher- und Verarbeitungsressourcen ausgeführt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23232-9_36 c754e4587a94c5234d4c2027fc3720b3;de;;;5.3.;;;Gebärdensprachliche Kommunikationsunterstützung im Unterricht für Hörgeschädigte mit einer Kontrollkamera Die Gebärdensprache ist eine visuelle Sprache, bei der es schwierig ist, die Informationen ohne ihre Sicht zu teilen. In der Klasse des Tsukuba College of Technology und der anderen Gehörlosenschule gibt es viele Bemühungen, die Gebärdensprache eines gehörlosen Schülers mit anderen Teilnehmern zu teilen. Also versuchten wir eine neue Methode, die Gebärdensprache mit einer Kamera und einem Monitor zu teilen. Wir haben einige Ergebnisse wie „ein Dozent und ein Student können gleichzeitig in den Blick genommen werden“, „es gibt wenig geistige und körperliche Belastungen“. Es blieben jedoch einige Probleme wie die Kamerasteuerung und die Art und Weise, wie das Gebärdensprachvideo aufgenommen und gezeigt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27817-7_161 7f7bdd56965c9cbf8163a4d78dddfec2;de;;;5.3.;;;Entwicklung von Wandunterhaltungen mit Gesteneingabe Mit dem Fokus auf Infrarotkamera und Nahinfrarotradar haben wir ein System für neue Unterhaltungen entwickelt, das wir durch Gesteneingabe auf einen Bildschirm oder die Bewegung unseres Körpers vor einem an eine Wand projizierten Bildschirm bedienen können. Die Infrarotkamera wird für Operationen verwendet, die mittels Gesten durchgeführt werden, und das Nahinfrarot-Radar wird für Operationen verwendet, die durch eine größere Bewegung eines menschlichen Körpers durchgeführt werden, indem die Position der Person oder der Zustand ihrer Füße in der Nähe der Bodenoberfläche erfasst wird. Eine Leinwand wird von einem Ultrakurzdistanzprojektor an eine Wand projiziert. Dieses System kann überall aufgestellt werden, wenn eine bestimmte Wandgröße vorhanden ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15399-0_72 24c628a7a4b0b28d79f4b487584d90f0;de;;;2.4.;;;Unterstützung bei der Fehlerbehebung basierend auf aktiviertem Wissen und Informationen Ein intelligentes Netzwerkmanagementsystem, das aus mehreren verteilten Agenten besteht, ist ein wichtiges Thema, um die aktuellen komplexen Netzwerkinfrastrukturen aufrechtzuerhalten. Um die Verwaltungsaufgabe der Administratoren effizient zu unterstützen, müssen jedoch verschiedene Kenntnisse und Informationen über das verwaltete Netzwerk genutzt und in das System integriert werden. In diesem Papier schlagen wir die praktische Entwurfsmethode und Implementierung des auf Active Information Resources basierenden Netzwerkmanagementsystems (AIR-NMS) vor, das aus aktivierten Informationsressourcen in einer verteilten Netzwerkumgebung besteht. Die AIR-NMS realisieren nicht nur die autonomen Managementmöglichkeiten, sondern auch die effektive Unterstützung für den Administrator. Die Wirksamkeit eines implementierten prototypischen AIR-NMS wird durch Experimente evaluiert, die in einer experimentellen Netzwerkumgebung durchgeführt wurden. Das informationsressourcenorientierte Design reduziert nachweislich die Belastung für Administratoren durch die Unterstützung bei der autonomen Nutzung und Verwaltung verschiedener Informationen und Kenntnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31087-4_60 8e4c93a03848a74255dd16c92789320b;de;;;2.4.;;;Strukturanalyse von Satellitenbildern mit den GRID-Technologien Ein betrachtetes Problem besteht darin, die Rechenkapazität des Satellitendatenverarbeitungszentrums auf der Grundlage externer Rechenressourcen zu erhöhen. Als Problemlösung wurden die Einrichtungen des Satellitenzentrums und des Supercomputing Centers mittels der GRID-Technologien integriert. Die entwickelte Netzinfrastruktur der GRID-Dienste ermöglicht es, die Geschwindigkeit der Datenverarbeitung erheblich zu erhöhen und ein praktikables Zeitintervall für den Ergebnisempfang bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14822-4_16 f12b5f08148f83b884ae10a2eeb3aced;de;;;5.3.;;;Zur Messung von Kognition und kognitiver Erweiterung Wir stehen am Beginn eines neuen Zeitalters, in dem künstliche Wesen erhebliche Mengen kognitiver Verarbeitung auf hohem Niveau durchführen werden, die mit menschlichem Denken konkurrieren und sogar übertreffen werden. Die Zukunft gehört denen, die am besten mit künstlichen kognitiven Einheiten zusammenarbeiten können, die einen hohen Grad an kognitiver Augmentation erreichen. Allerdings fehlen uns derzeit theoretisch fundierte grundlegende Metriken, die menschliche oder künstliche Kognitionen beschreiben können, und noch weniger erweiterte und kombinierte Kognitionen. Wie messen wir Denken, Kognition, Information und Wissen umsetzungsunabhängig? Wie können wir sagen, wie viel ein künstliches Wesen denkt und wie viel ein Mensch tut? Wie können wir den kombinierten und möglicherweise sogar emergenten Effekt der Zusammenarbeit von Menschen mit intelligenten künstlichen Einheiten messen? Dies sind einige der Herausforderungen für Forscher auf diesem Gebiet. Zunächst definieren wir einen kognitiven Prozess als die Transformation von Daten, Informationen, Wissen und Weisheit. Anschließend überprüfen wir mehrere bestehende und aufkommende Informationsmetriken, die auf Entropie, Verarbeitungsaufwand, Quantenphysik, Emergenzkapazität und menschlichem Konzeptlernen basieren. Wir diskutieren dann, inwiefern diese die obigen Fragen nicht beantworten und geben Richtlinien für zukünftige Forschungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-92046-7_41 73d29ca1d826ccadf720c1c8b6dd8064;de;;;5.3.;;;Die Zusammenhänge zwischen ethischer Ideologie der Verbraucher, Risikoaversion und ethisch begründetem Misstrauen gegenüber Online-Händlern und der moderierenden Rolle des Verbraucherbedürfnisses nach persönlicher Interaktion Das Misstrauen der Verbraucher wird erst seit kurzem als ein wichtiges Thema im E-Commerce wahrgenommen, und im Gegensatz zu Online-Vertrauen ist das Wesen und die Rolle des Misstrauens viel weniger bekannt. Diese Studie untersucht den Einfluss von zwei wichtigen Verbrauchermerkmalen (;-;-;-;https://link.springer.com/article/10.1007/s10676-014-9341-x e2a970611e53dc76a42c081887380f37;de;;;5.3.;;;Erlebnispädagogik in Webentwicklungskursen: Untersuchung der Leistung, Wahrnehmung und Akzeptanz der Studierenden students Diese Studie untersucht Leistung, Wahrnehmung und Akzeptanz von Studierenden, wenn erfahrungsorientierte Lernansätze in Informatikstudiengänge integriert werden. Ein erfahrungsbasierter Lernansatz wurde entwickelt, um Studenten in Webentwicklungskursen zu unterstützen. Der vorgeschlagene Lernansatz basiert auf realen Beispielen und der Abstraktion von Terminologie unter Verwendung einer sequentiellen assistentenbasierten Logik. Ein Erhebungsmodell wurde erstellt und eine explorative Studie mit 54 Studenten und Doktoranden durchgeführt. Die Ergebnisse zeigten ein hohes Maß an Wahrnehmung und Akzeptanz sowie hohe Leistungswerte. In der untersuchten Stichprobe wurden keine Geschlechtsunterschiede festgestellt und es wurden mehrere starke Korrelationen zwischen den gemessenen Variablen gefunden. Insbesondere die wahrgenommene Benutzerfreundlichkeit und Nützlichkeit korrelieren stark miteinander sowie mit Selbstwirksamkeit, Lernbereitschaft und Zufriedenheit. Zufriedenheit und Selbstwirksamkeit korrelieren nicht miteinander, während die Leistung durch keine der gemessenen Variablen beeinflusst wurde.;-;-;-;https://link.springer.com/article/10.1007/s10639-020-10211-6 fcac9ef996da0c9d883175fb7bc2c75f;de;;;5.3.;;;Auswirkungen von Embodied Interface Agents und ihrer gestischen Aktivität Es wird eine Studie vorgestellt, die der Frage nachgeht, ob Embodied Interface Agents – im Vergleich zur Text- und Sprachausgabe – die Akzeptanz und Effektivität eines TV/VCR-Systems erhöhen und ob ihre gestische Aktivität die Effekte moduliert. 106 Teilnehmer wurden mit einem VCR-System konfrontiert, das entweder mit Textausgabe, Sprachausgabe oder einem verkörperten Schnittstellenagenten ausgestattet war, der normale Gesten, keine Gesten oder leicht von der Sprache abweichende Gesten zeigte. Die Ergebnisse zeigen, dass sich die Teilnehmer bei der Konfrontation mit einem verkörperten Agenten als am meisten unterhalten erlebten, dass die Bewertungen der Hilfsbereitschaft jedoch im Vergleich zur Audio- und Textversion niedriger waren. Es wurden nur wenige Unterschiede zwischen den Gestenbedingungen festgestellt, die darauf hindeuten, dass weniger Gesten etwas positiver bewertet werden. Implikationen für die zukünftige Gestaltung des nonverbalen Verhaltens der Agenten werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39396-2_49 1c574410bc1de4b203bcaca7003f76b4;de;;;5.3.;;;Optimierung des Kommissionier-Workflows in den E-Commerce-Logistikzentren In den letzten Jahren ist der E-Commerce in China rasant gewachsen. Aus logistischer Sicht ist eine effiziente Kommissionierung ein zentrales Thema, um den Servicegrad zu verbessern und die Gesamtkosten zu senken. Dieses Papier richtet sich an den Teilbereich chinesischer B2C-E-Commerce-Unternehmen, die das sogenannte „Outsourcing Self-Storage and Distribution“-Modell anwenden, und zielt darauf ab, die Ineffizienz der aktuellen Ansätze durch eine gründliche Analyse des gesamten Produktionsprozesses der Logistikzentren von Auftragserstellung bis hin zur Warenverpackung. Dabei konzentrieren wir uns insbesondere auf den arbeitsintensiven Kommissionierschritt, der weithin als Engpass der gesamten Logistikkette gilt. Wir erforschen die Optimierungstheorie der Kommissionierung und studieren die entsprechenden mathematischen Modelle. Wir verwenden Clustering-heuristische Algorithmen, um das Problem zu lösen und die Verifikation in der SQL2008 + VS2010-Umgebung durchzuführen. Im Vergleich zu herkömmlichen Kommissioniersystemen haben wir gezeigt, dass unser Ansatz die Betriebskosten eines E-Commerce-Logistikzentrums effektiv senken und die Managementebene des Kommissionierbetriebs verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-15554-8_49 e66a473864fdcc3eab78ceb09830f0c9;de;;;5.3.;;;Moving Video Mapper und City Recorder mit georeferenzierten Videos Es besteht ein wachsendes Interesse an der Korrelation der Co-Visualisierung eines Videostreams mit den dynamischen Geoattributen der sich bewegenden Kamera. Das Verschieben von Videos stammt von verschiedenen GPS-fähigen Videoaufzeichnungsgeräten und kann auf Video-Sharing-Websites hochgeladen werden. Eine solche öffentliche Website zeigt derzeit keine dynamischen räumlichen Merkmale an, die mit einem Videoplayer korreliert sind. Obwohl einige Systeme kartenbasierte Wiedergabeprodukte beinhalten, gab es keine einheitliche Plattform für Benutzer, um georeferenzierte Videos zu teilen, die räumliche Eigenschaften berücksichtigt. Wir präsentieren hier Moving Video Mapper, der sowohl historische als auch georeferenzierte Live-Videos integriert, um Benutzern ein immersives Erlebnis in mehrdimensionalen Perspektiven zu bieten. Die Plattform wurde anhand von realen Daten in einer städtischen Umgebung in mehreren Anwendungsfällen evaluiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-26187-4_30 33e7aeb5b2c610d1b2d535e57826a7d3;de;;;5.3.;;;Eine Fallstudie zu modellgetriebener Entwicklung und aspektorientierter Programmierung: Nutzen und Verbindlichkeiten Modellgetriebene Entwicklung (MDD) und Aspektorientierte Programmierung (AOP) sind zwei sehr unterschiedliche Paradigmen, denen gemeinsam ist, dass sie beide auf eine Steigerung der Entwicklungseffizienz abzielen. Um deren Nutzen und Haftung zu untersuchen, haben wir beide im Rahmen einer Fallstudie zu einem industrietauglichen Softwaresystem, der Open SOA-Plattform, verglichen. Nachdem wir bereits eine modellgetriebene XML/XSL-T-Implementierung implementiert hatten, haben wir die entsprechende Logik der Open SOA-Plattform mit einer entsprechenden AOP-Implementierung in AspectJ neu implementiert. Unter Berücksichtigung mehrerer Vergleichskriterien zeigen die Ergebnisse unserer Fallstudie, dass die AspectJ-Implementierung weniger redundant, besser testbar ist und die Verständlichkeit und Lesbarkeit verbessert. Der modellgetriebene Ansatz wiederum ist der flexiblere, da er die Generierung beliebiger Artefakte und Strukturen ermöglicht, ohne Kompromisse beim Design eingehen zu müssen. Darüber hinaus erwarten wir, dass MDD auch in Bezug auf Lesbarkeit und Verständlichkeit aufholen kann, wenn fortschrittlichere MDD-Tools genutzt werden können. Da sich unsere Fallstudie hauptsächlich auf die Implementierung von Wrappern und Boilerplate-Code konzentriert, die ziemlich häufig vorkommen, können unsere Ergebnisse auf ähnliche Problemstellungen übertragen werden. Darüber hinaus können unsere Bewertungskriterien andere bei der Auswahl von Technologien unterstützen. Zu diesem Zweck geben wir einen Ausblick, wie Kombinationen von MDD und AOP das Beste aus beiden Welten nutzen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25579-8_16 8a8157a7388fa19ddf39954fda7c6a90;de;;;5.3.;;;Verbesserung der Qualität von Geschäftsprozessmodellen Die Verbesserung der Geschäftsprozesse ist ein Schlüsselaspekt für die Verbesserung der Organisation. Wir konzentrieren die Geschäftsprozessverbesserung auf die erste Phase des Prozesslebenszyklus, die Designphase, da dies ein Mittel ist, um die Ausbreitung von Fehlern auf spätere Phasen zu vermeiden, in denen ihre Erkennung und Korrektur schwieriger sein kann. Da sich die Geschäftsprozessverbesserung auf Geschäftsprozessmodelle konzentriert, wird ein Vorschlag bestimmter Schritte basierend auf Messaktivitäten an konzeptionellen Modellen (Messung, Bewertung und Neugestaltung) beschrieben. Die Anwendung dieser Schritte in Geschäftsprozessmodellen führt zu einer Steigerung ihrer Qualität. Qualität ist in ISO 9126 definiert als der Grad der Verständlichkeit und Modifizierbarkeit, Teilmerkmale der Gebrauchstauglichkeit und Wartbarkeit. Die Schritte zur Modellverbesserung wurden auf ein reales Krankenhaus-Geschäftsprozessmodell angewendet. Das Modell wurde durch Befolgung von Expertenmeinungen und Modellierungsrichtlinien modifiziert, wodurch ein qualitativ hochwertigeres Modell erreicht wurde. Unsere Ergebnisse belegen eindeutig den praktischen Nutzen von Messaktivitäten zur Verbesserung von Geschäftsprozessmodellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32341-6_9 26891e86e9640892e4350c27cef716a4;de;;;5.3.;;;Eingabe des Zahlenturms In der Vergangenheit mussten sich die Entwickler numerischer Programme zwischen dem einfachen Ausdruck mathematischer Formeln und der statischen Typprüfung entscheiden. Während die Lisp-Familie und ihre dynamisch typisierten Verwandten den einfachen Ausdruck über einen reichen numerischen Turm unterstützen, zwingen bestehende statisch typisierte Sprachen Programmierer dazu, Lehrbuchformeln mit expliziten Zwängen oder unhandlicher Notation zu verschmutzen. In diesem Beitrag demonstrieren wir, wie das Typensystem von Typed Racket sowohl einem Lehrbuch-Programmierstil als auch einer ausdrucksstarken statischen Überprüfung Rechnung trägt. Das Typsystem bietet eine Hierarchie numerischer Typen, die frei gemischt werden können, sowie genaue Spezifikationen von Vorzeichen-, Darstellungs- und Bereichsinformationen – und unterstützt gleichzeitig generische Operationen. Darüber hinaus stellt das Typsystem dem Compiler Informationen zur Verfügung, damit dieser numerische Standardoptimierungen durchführen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27694-1_21 3770924d30754335e84d4fc7260882ab;de;;;5.3.;;;Auf dem Weg zu einem virtuellen Begleiter für ältere Menschen: Erforschen der Verhaltensweisen, die potenziell Rapport in der menschlichen Kommunikation erreichen Die Zahl der allein lebenden älteren Menschen nimmt in diesen Jahren rapide zu. Für ihre psychische Gesundheit wird berichtet, dass es nützlich ist, ihr soziales Leben mit anderen aufrechtzuerhalten. Diese Arbeit zielt darauf ab, einen Begleitagenten zu entwickeln, der eine langfristige Beziehung zu älteren Benutzern eingehen kann. Dieses Papier stellt unseren ersten Schritt dar, um die Beziehung zu untersuchen, die in einer Mensch-Mensch-Kommunikation entstanden ist, die als wesentlich für die Aufrechterhaltung der sozialen Beziehung zu anderen angesehen wird. Wir analysierten den Korpus, der in einem dyadischen Gesprächsexperiment zwischen Mensch und Mensch gesammelt wurde, aus drei Blickwinkeln, dem Sprecher (potentiellen Benutzer), dem Zuhörer und der dritten Person, die nicht am Gespräch teilnahm. In der Analyse wurden ermutigende Ergebnisse gefunden, die Hinweise auf Agentenentwicklung geben können: Die Gesprächshaltung kann die Stimmung des Sprechers beeinflussen, die Stimmung des Sprechers kann potenziell von einer anderen Person beobachtet werden und die dritte Person kann die des Sprechers erkennen Attitüde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39137-8_17 a6b3533451b15fc3bad5c98de43958bc;de;;;5.3.;;;Von Image Inpainting zu reduzierter Realität In den Forschungsfeldern der Bildverarbeitung wurde das Bild-Inpainting entwickelt, das unerwünschte Objekte in einem statischen Bild entfernt und die fehlenden Bereiche mit plausiblen Texturen auffüllt. Andererseits ist Diminished Reality (DR), die reale Objekte visuell aus Videobildern entfernt, indem die fehlenden Bereiche mit Hintergrundtexturen in Echtzeit aufgefüllt werden, eines der wachsenden Themen in Virtual/Mixed Reality und gilt als das Gegenteil von Erweiterte Realität. In diesem Papier stellen wir den Stand der Technik der Bildinmalungsmethoden vor und wie man die Bildmalung auf die reduzierte Realität anwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07458-0_34 34b71fe79b1b205c189f60ac9ccab657;de;;;5.3.;;;VR-basierte Methode zum Ansehen von Filmen durch Reproduktion von räumlichen Empfindungen Ein herkömmliches Verfahren zum Anschauen von Filmen besteht darin, Filme vor einem großen Bildschirm wie etwa einem Kino anzusehen. Herkömmliche Präsentationsbilder in fester Position haben das Problem, dass es für das Publikum leicht ist, das räumliche Empfinden bestehender Filme zu verlieren. In diesem Beitrag schlagen wir eine neuartige Methode zum Ansehen von Filmen vor, um die Präsenz in bestehenden Medieninhalten mithilfe von Virtual-Reality-Technologie zu verbessern. Wir haben angenommen, dass die Präsenz viel höher ist, wenn Bilder mit Aufnahmewinkel basierend auf der Blickposition des Publikums präsentiert werden. Um den Aufnahmewinkel der Kamera darzustellen, haben wir ein optisches Flussverfahren verwendet. Wir haben ein Verfahren zum Ansehen von Filmen vorgeschlagen, das auf dem rekonstruierten Aufnahmewinkel einer Kamera basiert, der mit einem beweglichen Projektor oder einem Wandbildschirm präsentiert wird. Wir dachten, dass unsere Methode es ermöglicht, verlorene Räumlichkeit in Filmen zu rekonstruieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02771-0_9 08d2ea80c720cdbdc32f91545aba32d5;de;;;5.3.;;;Korrentropie in der Datenklassifizierung In diesem Kapitel wird die Anwendbarkeit des auf Korrentropie basierenden Ähnlichkeitsmaßes im Paradigma der statistischen Datenklassifikation behandelt. Das Grundthema des Kapitels ist der Vergleich der Leistungsfähigkeit der korrentropen Verlustfunktion mit der konventionellen quadratischen Verlustfunktion. Darüber hinaus werden die Probleme im Zusammenhang mit der Nichtkonvexität der korrentropen Verlustfunktion berücksichtigt, während neue Klassifizierungsmethoden vorgeschlagen werden. Die vorgeschlagenen Verfahren beinhalten die korrentrope Verlustfunktion über die Konzepte der Faltungsglättung und der simulierten Annealing-Optimierungsalgorithmen. Es werden zwei nichtparametrische Klassifikationsverfahren basierend auf der korrentropen Verlustfunktion vorgeschlagen und mit den herkömmlichen parametrischen und nichtparametrischen Verfahren verglichen. Insbesondere wird die Klassifikationsleistung der vorgeschlagenen auf künstlichen neuronalen Netzen basierenden Verfahren nicht nur mit ihren herkömmlichen Gegenstücken, sondern auch mit den Kernel-basierten Soft-Margin-Unterstützungsvektormaschinen verglichen. Experimentelle Studien mit Monte Carlo-basierten Simulationen zeigen die Validität der vorgeschlagenen Methoden bei der Datenklassifikation.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-3906-6_5 19a4575ae87e35675601adbf5a905fbc;de;;;5.3.;;;Blog-basierte persönliche LBS Eines der Probleme im aktuellen kommerziellen LBS (location-based service) ist die schwache Funktionalität für Benutzer, ihren eigenen generierten Inhalt auf dem LBS zu verwenden. Dieses Papier schlägt einen neuen Rahmen für;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39351-8_14 93bdc9e9f68a56c3267df3455e65d84d;de;;;5.3.;;;Wirkungen eines externen elektrischen Schlags auf die menschliche Vorhoferregung – eine Computermodellstudie Vorhofflimmern (AF) ist eine der häufigsten Herzerkrankungen, die zu Morbidität und Mortalität führt. Eine der am häufigsten verwendeten klinischen Behandlungen von VHF besteht darin, das Vorhofgewebe durch einen großen und kurzen externen Elektroschock von einem gestörten Fibrillationszustand in einen Ruhezustand zurückzusetzen, dann nimmt der Herzschrittmacher seine Kontrolle über den atrialen Erregungsrhythmus wieder auf und Defibrillation erreicht wird. Obwohl in der Praxis weit verbreitet, sind die Mechanismen, die dem Erfolg eines Elektroschocks bei der Defibrillation zugrunde liegen, nur unvollständig verstanden. In dieser Studie entwickelten wir ein Computermodell des menschlichen Vorhofgewebes, um die Wirkungen eines externen elektrischen Schocks auf Vorhoferregungen zu untersuchen. Anhand des Modells haben wir die Defibrillationsschwelle des menschlichen Vorhofs berechnet. Wir fanden, dass aufgrund der übernormalen Erregbarkeit des menschlichen Vorhofs die berechnete erfolgreiche Defibrillationsschwelle viel niedriger ist als die Erregungsschwelle des menschlichen Vorhofs im Ruhezustand. Diese Studie liefert einige neue Erkenntnisse, um die der VHF-Defibrillation zugrunde liegenden Mechanismen zu verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73321-8_76 0d0c1750820a4037d2fcde8064198b5e;de;;;5.3.;;;Anatomiebasierte Variationsmodellierung der digitalen Hand und deren Verifikation In dieser Studie wurde eine Methode vorgeschlagen, um eine anatomiebasierte Variationsmodellierung eines digitalen Handmodells zu erstellen, mit der verschiedene individuelle Handmodelle mit unterschiedlichen Abmessungen für virtuelle ergonomische Bewertungen effizient generiert werden können. Die Hautoberfläche eines generischen Handmodells wurde entsprechend der Handoberflächenanatomie hierarchisch in 15 Segmente unterteilt. Dann wurde es durch Skalierung und Ausrichtung der Segmente so verformt, dass es den individuellen Handmaßen entsprach. Darüber hinaus wurden die Handmodelle verschiedener Handhaltungen mit Markern unter Verwendung einer Multi-View-3D-Modellrekonstruktionstechnik rekonstruiert. Die extrahierten Markerpositionen wurden verwendet, um die individuelle Knochenverbindungsstruktur abzuschätzen. Die vorgeschlagene Methode wurde validiert, indem das generierte Handhautmodell, das die Handabmessungen eines Probanden mit seiner MRT-gemessenen Handoberfläche anpasste, und der Vergleich der generierten Knochenverbindungsstruktur, die die Gelenkbewegung des Probanden anpasste, mit den rekonstruierten Handmodellen verglichen wurde basierend auf einer Multi-View-3D-Rekonstruktionstechnik.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39182-8_45 99e71506ca35eb90b3e5483e69bed90b;de;;;5.3.;;;Die Auswirkung von Aufmerksamkeit auf die Informationssicherheit Dieses Papier bietet einen kurzen Überblick über eine größere Studie über die Auswirkungen von Aufmerksamkeit neben anderen Faktoren im Zusammenhang mit menschlichen Faktoren auf die Informationssicherheit sowohl in privaten als auch in staatlichen Organisationen in Saudi-Arabien. Das Ziel des ersten Experiments war es, die Existenz von Aufmerksamkeit in Bezug auf die Informationssicherheit zu spüren. Die Ergebnisse waren ermutigend genug, um ein größeres Experiment mit zusätzlichen menschlichen Faktoren wie Bewusstsein, Arbeitsbelastung und Passwörtern usw. durchzuführen. Wir glauben, dass dies ist die erste Studie, die den Effekt von Aufmerksamkeit als Teil des saudischen Kulturkontexts auf die Informationssicherheit von Unternehmen untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14292-5_19 d7a1a0e613860999e379dc8bfe82583c;de;;;5.3.;;;Modelltransformation mit Triple-Graph-Grammatiken und nicht-terminalen Symbolen Diese Arbeit schlägt einen neuen Graphen-Grammatik-Formalismus vor, der nicht-terminale Symbole in Triple-Graph-Grammatiken (TGG) einführt und zeigt, wie man ihn zur Lösung des Modelltransformationsproblems anwendet. Unser vorgeschlagener Formalismus scheint gut zur Codegenerierung aus Modellen zu passen, übertrifft die Standard-TGG in der Grammatikgröße in einem ausgewerteten Fall und ist in der Lage, eine Transformation auszudrücken, die wir mit TGG nicht ausdrücken konnten. Wir behaupten, dass solche Vorteile eine in unserem Formalismus geschriebene formale Spezifikation leichter validierbar und weniger fehleranfällig machen, was besonders sicherheitskritischen Systemen zusteht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-12988-0_10 053c15b0ba36546da398ca819715ee4f;de;;;5.3.;;;Erstellen einer Software-Produktlinie von Minispielen zur Unterstützung der Sprachtherapie Während der Therapie zur Behandlung von Sprachstörungen könnte ein technologiebasierter Materialansatz wie Minispiele eingeführt werden, um die Patienten zu motivieren und mit ihnen zu interagieren, insbesondere wenn es sich um Kinder handelt. Die Anpassung der Therapie an die Bedürfnisse jedes Patienten ist jedoch unerlässlich, um den Fortschritt und das Interesse des Patienten aufrechtzuerhalten, was es schwierig macht, irgendeine Art von Minispiel zu verwenden. Dieses Papier beschreibt die Schaffung einer Software-Produktlinie (SPL), um maßgeschneiderte Minispiele zu erstellen, die Kinder während ihrer Therapiesitzungen verwenden können. Unsere Erfahrung zeigt, dass Software-Produktlinien machbar sind, um die in der Therapie erforderliche Anpassung bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98998-3_32 0af4cb5b183b3f45246e17948880fe51;de;;;5.3.;;;Konzepthierarchien aus Benutzerabfragen generieren Die meisten Information Retrieval (IR)-Systeme bestehen aus einem fokussierten Satz domänenspezifischer Dokumente, die sich in einem einzigen logischen Repository befinden. Es wird ein Mechanismus entwickelt, durch den Benutzerabfragen gegen einen bestimmten Typ von IR-Repository, ein System für häufig gestellte Fragen (FAQ), verwendet werden, um eine für die Domäne relevante Konzepthierarchie zu generieren. Zuerst wird ein Algorithmus beschrieben, der einen Satz von Benutzeranfragen auswählt, die an das System übermittelt werden, Begriffe aus den Archivdokumenten extrahiert, die diesen Anfragen entsprechen, und dann diesen Satz von Begriffen auf eine handhabbare Länge reduziert. Die resultierenden Terme werden verwendet, um einen Merkmalsvektor für jede Abfrage zu generieren, und die Abfragen werden unter Verwendung eines hierarchischen agglomerativen Clustering-(HAC)-Algorithmus geclustert. Der HAC-Algorithmus erzeugt einen binären Baum von Clustern, der für Menschen nicht besonders geeignet ist und der aufgrund seiner Tiefe nur langsam durchsucht werden kann natürlichere Darstellung der systemimmanenten Begriffshierarchie. Zwei alternative Versionen des Partitionierungsalgorithmus werden verglichen, um zu bestimmen, welche eine verwendbarere Konzepthierarchie erzeugt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78488-3_25 570a519ee5252c4a9d6faf8fbe77d8a3;de;;;5.3.;;;RADDACL2: ein rekursiver Ansatz zur Entdeckung von Dichteclustern Das Auffinden von verbundenen Regionen im Datenraum ist ein komplexes Problem, das den Benutzer extrem fordert. Datensätze erfordern häufig eine Vor- und Nachverarbeitung, bevor sie für den Algorithmus und die Nutzung durch den Benutzer geeignet sind. Bestehende Clustering-Algorithmen erfordern Leistungsparameter, um angemessene Ergebnisse zu erzielen. Typischerweise werden diese Parameter entweder empirisch optimiert oder unter Verwendung von Brute-Force abgetastet, was letztendlich den Benutzer zusätzlich belastet. Wir präsentieren RADDACL2, einen dichtebasierten Clustering-Algorithmus mit der Absicht, die Gesamtbelastung des Benutzers zu reduzieren. Der Algorithmus benötigt keine anderen Informationen als den Datensatz, um Cluster zu identifizieren. Außerdem ist der Algorithmus deterministisch, was bedeutet, dass die Ergebnisse immer gleich sind. Beide Funktionen reduzieren die Belastung des Benutzers, indem sie die Anzahl der Durchgänge verringern, die man machen muss, um ein Ergebnis zu erzielen. Eine Reihe von Experimenten wird mit Spielzeug- und realen Datensätzen durchgeführt, um die Fähigkeiten von RADDACL2 im Vergleich zu bestehenden Algorithmen zu überprüfen.;-;-;-;https://link.springer.com/article/10.1007/s13748-015-0066-9 a2657ef0384890ee9b7c4f018486cdfd;de;;;5.3.;;;Was ein Jahr für einen Unterschied macht: Langzeitbewertung der Kompatibilität der TLS Cipher Suite Das Transport Layer Security (TLS)-Protokoll ist immer noch der De-facto-Standard für sichere Netzwerkverbindungen über ein unsicheres Medium wie das Internet. Aber auch seine Flexibilität bezüglich der Algorithmen, die zur Sicherung eines Kanals zwischen zwei Parteien verwendet werden, kann aufgrund der möglichen Vereinbarung unsicherer Verschlüsselungen eine Schwäche darstellen. Modernste Verschlüsselungssammlungen werden nicht von allen Websites unterstützt. Wir beziehen uns auf ein bestehendes Whitepaper (Applied Crypto Hardening), das Empfehlungen zur sicheren Konfiguration von SSL/TLS-Verbindungen im Hinblick auf die praktische Umsetzbarkeit dieser Empfehlungen gibt. Darüber hinaus schlagen wir ein zusätzliches Konfigurationsset mit dem Ziel vor, die Kompatibilität sowie die Sicherheit zu erhöhen. Außerdem haben wir einen kleinen Cipher Negotiation Crawler (CiNeg) entwickelt, um TLS-Handshakes mit vorgegebenen Verschlüsselungskonfigurationen mit den Top-Websites von Alexa zu testen und seine praktische Verwendbarkeit zu demonstrieren. In dieser Arbeit untersuchen wir den Trend bezüglich unterstützter Cipher Suites auf Webservern im Zeitverlauf. Um dies zu analysieren, führten wir die Scans zweimal im Abstand von einem Jahr durch. Wir haben die Ergebnisse der beiden Scans verglichen, um zu sehen, ob wir im Laufe der Zeit einen Trend zu mehr Sicherheit feststellen können. Und tatsächlich haben wir bei unseren Neubewertungen deutliche Verbesserungen festgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30222-5_3 6a066747f1481720250770db1a9a5f02;de;;;2.4.;;;Verwendung von Klassifikatoren für soziale Netzwerke zur Vorhersage der Einführung von E-Commerce Dieses Papier weist darauf hin, dass das Wissen über das soziale Netzwerk einer Person wertvoll ist, um die Absicht des Online-Kaufs von Büchern und Computern vorherzusagen. Es wurden Daten über ein Netzwerk von 681 Personen und ihre Absicht, Produkte online zu kaufen, gesammelt. Ergebnisse verschiedener vernetzter Klassifikationstechniken werden mit der Vorhersagekraft der logistischen Regression verglichen. Dieser Vergleich zeigt, dass Informationen über das soziale Netzwerk einer Person wertvoller sind, um die Absicht einer Person, online zu kaufen, vorherzusagen sind als die Eigenschaften der Person wie Alter, Geschlecht, Intensität der Computernutzung und Freude an der Arbeit mit dem Computer.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29873-8_2 05abb0de293d240b405a0833d59f6622;de;;;5.3.;;;Veränderungen in Softwareprojekten durch eine Earned-Value-Linse messen Earned Value Management (EVM) ist ein gängiges Performance-Management-Tool für das Projektmanagement. EVM ermöglicht die Darstellung des Projektfortschritts in Bezug auf Umfang, Kosten und Zeitplan und liefert Zukunftsprognosen basierend auf Trends und Mustern. Obwohl EVM in verschiedenen Disziplinen wie Fertigung und Konstruktion weit verbreitet ist, ist es in der Softwareindustrie nicht üblich. Ein Grund für diese Unterauslastung ist die Diskrepanz zwischen den Softwareprojekten und der traditionellen EVM. Traditionelles EVM ignoriert den Änderungsaufwand, ist jedoch in Softwareprojekten vorherrschend. Wir haben cEVM als Erweiterung des traditionellen EVM entwickelt, um Änderungs- und anschließende Überarbeitungs- und Weiterentwicklungskosten zu berücksichtigen, um den verdienten Wert in Softwareentwicklungsprojekten genauer zu messen. In dieser Studie konzentrieren wir uns auf zwei Anwendungen von cEVM, die wir durchgeführt haben, um die Benutzerfreundlichkeit von cEVM zu untersuchen und cEVM mit traditionellen EVM zu vergleichen. In diesem Papier werden die Ergebnisse der Fallstudien sowie Vorteile und Schwierigkeiten von cEVM diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00623-5_14 68e4d2368096a32d3567f0d9ff31e0f3;de;;;2.4.;;;Latente semantische Distanz zwischen chinesischen Grundwörtern und nicht-grundlegenden Wörtern Was die „Grundlegenheit“ von Wörtern bestimmt, bleibt bei der Erstellung grundlegender Lexika und grundlegender Wortlisten eine herausfordernde Frage. Da Häufigkeit und Streuung die dominierenden Kriterien zu sein scheinen, wird in Frage gestellt, ob auch kontextuelle Faktoren bei der Definition des Begriffs „Grundlegenheit“ helfen. Aus der Perspektive des Verteilungsmodells werden Bedeutungen durch die Interaktion zwischen Wörtern und ihren Kontexten repräsentiert. Daher zielt diese Forschung darauf ab, eine vorhandene Wortliste zu untersuchen und sie vorläufig als Standard für „Grundlegenheit“ zu nehmen, wobei versucht wird, die Unterschiede zwischen „grundlegenden Wörtern“ und „nicht grundlegenden Wörtern“ basierend auf ihrem Vorkommen in verschiedenen Texten zu suchen. Zur Beantwortung der Forschungsfragen wurden zwei Experimente durchgeführt. Die erste berechnete die „latenten semantischen Distanzen“ zwischen Basiswörtern und Nicht-Basiswörtern. Die zweite berechnete und untersuchte die „nahen Nachbarn“ von Basiswörtern und Nicht-Basiswörtern. Es wurde entdeckt, dass einfache Wörter in ähnlichen Texten vorkommen als nicht einfache Wörter. Diese Forschung trägt dazu bei, eine „kontextbezogene“ Perspektive bei der Erforschung der „Grundlegenheit“ zu bieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-14331-6_27 40ab25dcf69ebc578880691dfb33149b;de;;;2.4.;;;Effizienter Algorithmus zur Reduzierung von Attributen Die Effizienz von Algorithmen ist für viele Forscher immer ein wichtiges Thema. Die grobe Mengenlehre ist ein gültiges Werkzeug, um mit ungenauen Problemen umzugehen. Der Zeitaufwand einiger seiner Algorithmen begrenzt jedoch die Anwendungsmöglichkeiten des Grobsatzes. Dementsprechend analysiert unser Papier die Gründe für die Ineffizienz von Grobsatzalgorithmen, indem es sich auf zwei wichtige Faktoren konzentriert: nicht erkennbare Beziehung und positive Region, und analysiert eine äquivalente und effiziente Methode zur Berechnung der positiven Region. Und nach unseren Untersuchungen zur Effizienz einiger grundlegender Fragen des Grobsatzes wird ein vollständiger Algorithmus zur Reduktion von Attributen entworfen und dessen Vollständigkeit nachgewiesen. Theoretische Analysen und experimentelle Ergebnisse veranschaulichen, dass unser Reduktionsalgorithmus effizienter ist als einige andere Algorithmen.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-8151-0_19 2f26d6ec6c6328bf76ae23232bcc46ae;de;;;5.3.;;;Gleichzeitige Messung der Linsenakkommodation und Konvergenz zu realen Objekten Der Mensch kann durch gleichzeitige Linsenakkommodation und Konvergenz auf Objekte wahrnehmen, dass Objekte dreidimensional (3D) sind, was möglich ist, weil der Mensch sehen kann, so dass Parallaxe mit dem rechten und linken Auge auftritt. Virtuelle Bilder werden über denselben Mechanismus wahrgenommen, aber der Einfluss des binokularen Sehens auf die menschliche Sehfunktion ist unzureichend verstanden. In dieser Studie haben wir eine Methode entwickelt, um gleichzeitig Akkommodation und Konvergenz zu messen, um unsere bisherigen Forschungsergebnisse weiter zu unterstützen. Wir haben auch die Akkommodation und Konvergenz beim natürlichen Sehen gemessen, um zu bestätigen, dass diese Messungen korrekt sind. Als Ergebnis stellten wir fest, dass sowohl Akkommodation als auch Konvergenz mit der Entfernung vom Subjekt zum Objekt übereinstimmten. Daher kann gesagt werden, dass das vorliegende Messverfahren eine effektive Technik zur Messung der Sehfunktion ist und dass sogar während des stereoskopischen Sehens korrekte Werte erhalten werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22021-0_40 1d9008aeb3070a7db675075d466d3af8;de;;;5.3.;;;Datenbankgestützte Griffsynthese und ergonomische Bewertung für Handheld-Produktdesign In letzter Zeit haben simulationsbasierte ergonomische Bewertungen für tragbare Produkte wie Mobiltelefone ein wachsendes Interesse erfahren und werden zunehmend untersucht. In diesen Studien wurde die Kombination von 3D-Produktmodellen und „digitalen Händen“ verwendet, bei denen es sich um parametrische 3D-Modelle menschlicher Hände handelt. Einer der Schlüssel zur ergonomischen Beurteilung mit der digitalen Hand ist die „Griffsynthese“, bei der plausible Griffhaltungen für das Produktmodell generiert werden müssen. In diesem Artikel schlagen wir eine neue datenbankgesteuerte Methode der Greifsynthese vor, die die geometrischen Einschränkungen beim Greifen von Handheld-Produkten berücksichtigt. Das vorgeschlagene Verfahren kann plausiblere Griffhaltungen für Handheld-Produkte in einfacheren Interaktionen erzeugen als die bisherigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02809-0_68 8219ae9215ac17de23063c3934b8640a;de;;;5.3.;;;Fallbasiertes Unterstützungssystem für Schneeräumungsrichtlinien für unerfahrene Direktoren Experten haben Weisungen für die Schneeräumung in schneereichen Gebieten erlassen. Diese Weisungen werden nach den Erfahrungen des verantwortlichen Direktors umgesetzt und Schneepflugfahrer sind auf die effiziente Erfüllung ihrer Aufgaben durch die Direktoren angewiesen. Allerdings werden viele erfahrene Direktoren in den nächsten Jahren mit Erreichen des Rentenalters in den Ruhestand treten und ihre Nachfolger aufgrund mangelnder Ausbildung und Erfahrung in schwierige Situationen geraten. Um solche Neophyten-Direktoren zu unterstützen, schlagen wir ein fallbasiertes Direktiven-Unterstützungssystem vor, das frühere Direktive-Fälle wiederverwendet. Jeder dieser Fälle speichert Daten über Wetter, Schnee, Anzahl der verfügbaren Schneepflüge, die Zeit für eine Schneeräumungsaufgabe und eine Bewertung der vom Direktor ausgeführten Aufgaben. Wenn ein Neuling-Direktor aktuelle Aufgabenbedingungen festlegt, sucht und präsentiert das System Fälle, die den aktuellen Bedingungen ähnlich sind. Wenn der Direktor den ähnlichsten Fall auswählt, schätzt das System die Zeit, die erforderlich ist, um die Schneeräumungsaufgabe abzuschließen, basierend auf den Schnee- und Straßenbedingungen. Der Direktor kann auch den Fortschritt von Schneeräumarbeiten mit dem System verwalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73354-6_97 347789a9f62913ba14a7f7085a658961;de;;;5.3.;;;Schätzung des Erregungszustands des Fahrers anhand mehrdimensionaler physiologischer Indizes Ziel unserer Forschung ist die Entwicklung einer Methode zur Beurteilung der Erregungszustände anhand von Gesichtsbildern von Fahrern. Es wird erwartet, dass mehrdimensionale physiologische Indizes alternative externe Kriterien von Erregungszuständen zur manuellen Kodierung des Gesichtsausdrucks sind, die viel Personal erfordert. Veränderungen der mehrdimensionalen physiologischen Indizes (dh Blinzelkategorien, Hautleitfähigkeit, EEG-Alphawelle, Atmung, Herzfrequenzvariabilität) in Abhängigkeit von den Erregungszuständen, die durch die Kombination von „Erregungsniveau“ und dem Vorhandensein von „Anstrengung“ zum Aufwachen definiert wurden studiert. Es wurde auch eine multiple lineare Regressionsanalyse durchgeführt, wobei einer der Gesichtsscores („Erregungsniveau“ oder „Aufwand“) als abhängige Variablen und die physiologischen Indizes als erklärende Variablen verwendet wurden. Es wurden relativ hohe multiple Korrelationskoeffizienten erhalten, jedoch zeigten die Anzahl und Kombination der ausgewählten Indizes große Unterschiede zwischen den Individuen. Gemeinsame Gleichungen zu erhalten ist ein Thema in der Zukunft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21741-8_20 2a8585b3d841b9128b09f00341aff339;de;;;5.3.;;;Quelle organischer Materie in sinkenden Partikeln im Japan-Graben: molekulare Zusammensetzung und Kohlenstoffisotopenanalysen Molekulare und stabile Kohlenstoffisotopenzusammensetzungen wurden für die organische Substanz (OM) in Sedimentfallenproben aus dem Japangraben in 4500 und 8500–8800 m Tiefe erhalten. Die Analyseergebnisse zeigen, dass OM in sinkenden Partikeln sowohl aus frisch abgelagertem als auch aus resuspendiertem OM besteht. Die relative Häufigkeit von resuspendiertem OM im Gesamt-OM in oberflächennahen Sedimentfallenproben ist im Allgemeinen geringer als in tieferen Fallenproben. Es werden jedoch keine deutlichen Unterschiede sowohl in den py-GCMS-Eigenschaften als auch in den stabilen Kohlenstoffisotopenzusammensetzungen von TOC und Biomarkern (n-Alkanen, Fettsäuren) erkannt. Alle untersuchten sinkenden Partikel weisen darauf hin, dass die Hauptquelle von OM aus Plankton stammt. Der terrestrische OM-Beitrag ist gering.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1319-1_7 211eb1320f938ecf3181cd5413a3c865;de;;;5.3.;;;Erkennung von bewegten Objektkonturen basierend auf S-T-Eigenschaften in der Überwachung Wir präsentieren eine Methode zur Erkennung von bewegten Objektkonturen basierend auf räumlich-zeitlichen Eigenschaften. Unter Verwendung von S-T-Funktionen kann die Kontur eines sich bewegenden Objekts gut vom Hintergrund unterschieden werden, daher werden die sich bewegenden Objekte erkannt, ohne dass Hintergrundmodelle erstellt und aktualisiert werden müssen. Das Erkennungsverfahren kann Situationen bewältigen, in denen der Hintergrund der Szene aufgrund verschiedener Tatsachen unter den Geräuschen leidet, einschließlich der Wetterbedingungen wie Schnee oder Nebel und das Flackern von Blättern an Bäumen und Büschen. Der Algorithmus schätzt die Wahrscheinlichkeit, ein Pixel als Konturpixel zu betrachten, basierend auf einer Stichprobe von Intensitätswerten für jedes Pixel während einer Zeitdauer und seinem lokalen Gradienten im aktuellen Frame. Die Experimente zeigen, dass diese Methode empfindlich auf Veränderungen reagiert, die durch sich bewegende Objekte verursacht werden, und in der Lage ist, die Beeinträchtigung eines komplexen Hintergrunds zu vermeiden. Das Papier zeigt auch, wie mehrere Personen basierend auf den Konturerkennungsergebnissen mithilfe des Vorlagenabgleichs getrennt werden. Der Ansatz läuft in Echtzeit und erreicht eine empfindliche Detektion.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73345-4_66 37e28f3118d3cc60c0408fdcb2e88bfd;de;;;5.3.;;;Indoor-Ortungssystem für Benutzer mit Passiv-Infrarot-Bewegungssensoren und Raumunterteilung Die Verwendung von Indoor-Standortinformationen hat das Potenzial, bahnbrechende Smart Services in einer häuslichen Umgebung zu ermöglichen. Das Ziel dieser Forschung ist es, ein relativ kostengünstiges Echtzeit-Ortungssystem für Innenräume zu entwickeln, das auch keine Gefahr für die Privatsphäre der Benutzer darstellt. Wir schlagen ein Indoor-Ortungssystem vor, das Gebrauchsgegenstände wie Infrarot-Bewegungssensoren und die Idee der Raumunterteilung verwendet. Durch Auswerten des Zustands der an einer Szene beteiligten Sensoren ist es ferner möglich, jeden einzigartigen Bereich zu bewerten und diejenigen zu extrahieren, in denen sich der Benutzer am wahrscheinlichsten befindet. Zusammenfassend lässt sich sagen, dass das vorgeschlagene System trotz einiger Mängel, die behoben werden sollten, seine Ziele erreicht und gleichzeitig ein akzeptables Genauigkeitsniveau beibehält.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07788-8_45 9ecaa3d683891890a63178ce38f583a3;de;;;5.3.;;;Mobile Augmentation basierend auf dem Wechsel mehrerer Tracking-Methoden In diesem Beitrag wird ein Lokalisierungsmechanismus für mobile Augmented-Reality-Systeme an verschiedenen Stellen vorgestellt. In letzter Zeit wurden verschiedene bildbasierte Verfolgungsverfahren vorgeschlagen: auf künstlichen Markern basierende Verfahren und auf natürlichen Merkmalen basierende Verfahren. Eine Lokalisierung mit nur einer Tracking-Methode ist jedoch in allen Situationen schwierig. Daher schlagen wir ein System vor, das es Benutzern ermöglicht, in verschiedenen Situationen durch dynamisches Umschalten der verschiedenen Lokalisierungsmethoden kontinuierlich zu verfolgen. Unser vorgeschlagener Mechanismus besteht aus Clients, einem Switcher und Servern. Der Server schätzt die Kamerapose des Clients und der Switcher wählt die herausragende Lokalisierungsmethode. Darüber hinaus haben wir Echtzeit-Mapping verwendet, um die Position und Ausrichtung kontinuierlich zu schätzen, auch wenn die Kamera nicht über die Vorkenntnisse der Umgebung verfügt. Nach der Lokalisierung wird das neu aktualisierte Mapping-Ergebnis auf dem Server gespeichert. Somit könnten wir kontinuierlich verfolgen, auch wenn sich die Umgebung verändert hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07458-0_36 2b7e971fcf7422b178573e02bc2a3fdc;de;;;5.3.;;;Formanalyse des menschlichen Gehirns mit kognitiven Störungen In diesem Beitrag stellen wir einige unserer aktuellen Studien zur Beeinflussung der menschlichen Gehirnstrukturen durch kognitive Störungen vor, die bei verschiedenen neurologischen und psychiatrischen Erkrankungen auf der Grundlage von Magnetresonanztomographie (MRT) aufgetreten sind. Wir geben zunächst eine kurze Einführung in die Computational Neuroanatomy, die die Grundlage dieser Studien ist. In Abschnitt 2 wurden mehrere neue Methoden zur Segmentierung von Hirngewebe und anatomischen Substrukturen vorgestellt. Abschnitt 3 präsentierte einige Studien zur Bildregistrierung des Gehirns, die eine zentrale Rolle in der computergestützten Neuroanatomie spielt. In Abschnitt 4 wurde die Formanalyse von Substrukturen, Hirnrindendicke und -komplexität vorgestellt. Schließlich werden auch einige Perspektiven und zukünftige Forschungsrichtungen auf diesem Gebiet angegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73321-8_47 ff2716e643e56dafe59df7fcfadd9b83;de;;;2.4.;;;Fuzzy-Set-Theoretische Ansätze für natürliche Sprache in Entscheidungsunterstützungssystemen Das Problem, das in diesem Beitrag behandelt wird, ist in Abbildung 1 dargestellt. Insbesondere werden hier folgende Fragen behandelt: Inwieweit kann die Fuzzy-Set-Theorie als Schnittstelle zu (mehrdeutigen) natürlichsprachlichen Beschreibungen von Problemen angewendet werden, für die ein DSS wurde entwickelt, um zu handhaben? Kann die Fuzzy-Set-Theorie sowohl präzise als auch mehrdeutige Beschreibungen in natürlicher Sprache robust handhaben?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83555-1_33 baba645205de036d9fd4c2cbd574204e;de;;;2.4.;;;Grobes und knackiges Wissen kombinieren Dieses Kapitel stellt einen Rahmen zum Spezifizieren, Konstruieren und Verwalten einer bestimmten Klasse von ungefähren Wissensstrukturen zur Verwendung mit intelligenten Artefakten vor, die von einfacheren Geräten wie persönlichen digitalen Assistenten bis hin zu komplexeren wie unbemannten Fluggeräten reichen. Die Grundstruktur der vorgestellten Konzepte ist die eines Näherungswandlers, der Näherungsbeziehungen als Eingabe nimmt und als Ausgabe eine (möglicherweise abstraktere) Näherungsbeziehung erzeugt. Dies geschieht durch Kombinieren der angenäherten Eingabebeziehungen mit einer klaren lokalen logischen Theorie, die Abhängigkeiten zwischen den Eingabe- und Ausgabebeziehungen darstellt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-33519-6_7 ffa6fbe7b1bb75da5e83ad058868283d;de;;;2.4.;;;Anwendung der berührungsempfindlichen Technik basierend auf magnetorheologischen Flüssigkeiten in der Konstantleistungsregelung von Kohlebergbaumaschinen In diesem Papier wird die Leistungssteuerungsmethode von Kohlebergbaumaschinen mit Berührungssensortechnik basierend auf magnetorheologischer Flüssigkeit vorgestellt, indem die Leistung der Transport- und Geschwindigkeitsmodulation und die konstante Leistungssteuerung der Kohlebergbaumaschine in der realen Arbeit analysiert werden. Die Steuerung gibt Steuersignale aus, die die berührungsempfindliche Kraftrückkopplungsvorrichtung basierend auf magnetorheologischer Flüssigkeit durch Abtasten von Strom- und Drehzahlsignalen des Schneidmotors der Kohlebergbaumaschine steuern. Der Manipulator passt die Transportgeschwindigkeit der Kohlebergbaumaschine an, um die Motoren zu zwingen, ungefähr mit der Nennleistung zu arbeiten, entsprechend dem Widerstand, den der Griff berührt. Die Ergebnisse der Simulation und des Experiments zeigen, dass das Verfahren offensichtlich die Schneideffizienz von Kohlebergbaumaschinen und den Betrieb mit Leerraumüberlastung verbessern kann. Die Struktur der Kontrollmethode ist einfach und leicht zu aktualisieren, so dass ihre Aussichten in der Anwendung gut sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88518-4_8 56ae61b2d4d64f94a94895cd9de71d8d;de;;;2.4.;;;Dokumentenanalyse und Visualisierung mit Zero-Inflated Poisson Die Datenvisualisierung zielt darauf ab, eine grafische Darstellung hochdimensionaler Informationen zu erhalten. Es wird eine Datenprojektion über einen niedrigerdimensionalen Raum verfolgt, wobei nach einer Struktur auf den Projektionen gesucht wird. Unter den verschiedenen verfügbaren datenprojektionsbasierten Methoden hat sich die Generative Topographic Mapping (GTM) zu einem wichtigen probabilistischen Rahmen zur Modellierung von Daten entwickelt. Die Anwendung zum Dokumentieren von Daten erfordert eine Änderung des ursprünglichen (Gauß-)Modells, um binäre oder multinomiale Variablen zu berücksichtigen. Es gab mehrere Modifikationen an GTM, um diese Art von Daten zu berücksichtigen, aber die resultierenden latenten Projektionen sind alle auf der Visualisierungsebene verstreut. In diesem Beitrag wird eine Dokumentvisualisierungsmethode vorgeschlagen, die auf einem generativen Wahrscheinlichkeitsmodell basiert, das aus einer Mischung von Null-aufgeblähten Poisson-Verteilungen besteht. Die Leistung der Methode wird hinsichtlich der Clusterbildung für die latenten Projektionen mit einem Index basierend auf dem Fisher-Klassifikator bewertet, und die Fähigkeit zur Erhaltung der Topologie wird mit dem Sammon-Spannungsfehler gemessen. Ein Vergleich mit der GTM-Implementierung mit Gauß-, Multinom- und Poisson-Verteilungen und mit einem Latent-Dirichlet-Modell wird vorgestellt, wobei eine höhere Leistung für das vorgeschlagene Verfahren beobachtet wird. Außerdem wird eine grafische Darstellung der Projektionen bereitgestellt, die den Vorteil der entwickelten Methode in Bezug auf Visualisierung und Klassentrennung zeigt. Eine detaillierte Analyse einiger Dokumente, die auf die latente Repräsentation projiziert wurden, zeigte, dass die meisten Dokumente, die außerhalb des entsprechenden Clusters erscheinen, als Ausreißer identifiziert werden konnten.;-;-;-;https://link.springer.com/article/10.1007/s10618-009-0127-4 9d812bfab7d8de075a8947ba2e172f0c;de;;;2.4.;;;Definitionen von Altwäldern: eine pragmatische Sichtweise Die Definitionen, was einen „alten Wald“ ausmacht, sind vielfältig und oft mehrdeutig. Dieses Kapitel beginnt mit einem Überblick über bestehende Konzepte und untersucht kritisch ihre Nützlichkeit im Kontext der Ökosystemfunktion und des Waldschutzes. Anhand von Beispielen aus allen wichtigen Waldbiomen werden die Vorzüge und Grenzen von strukturellen, sukzessiven und biogeochemischen Definitionen diskutiert. Zweitens wird die Fülle verwandter Begriffe (primär, makellos, intakt, jungfräulich usw.) überprüft. Eine semantische Metaanalyse basierend auf Einträgen im Web of Science zeigt, dass die Verwendung von Terminologie in der Literatur stark von Zeitraum, Disziplin und Wissenschaftsgemeinschaft abhängt. Drittens wird ein Modell vorgestellt, das Literaturdaten zu natürlichen Störungsintervallen und maximalen Lebensdauern von Pionierbäumen kombiniert, um den von Altwäldern bedeckten Landschaftsanteil (unter Verwendung der Sukzessionsdefinition) ohne menschlichen Einfluss zu schätzen. Dieser Anteil variiert und beträgt in tropischen, gemäßigten und borealen Wäldern etwa 90 %, 50 % und 20 %. Schließlich werden Nachweis- und Kartierungsmethoden von Altwäldern diskutiert und ein pragmatischer Ansatz zur Definition von Altwäldern befürwortet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-92706-8_2 085c6adab0f2a189e49767e8f45d4530;de;;;5.3.;;;Ein stiftbasiertes Werkzeug zum Kommentieren von planaren Objekten In neueren Augmented Reality (AR)-Anwendungen werden oft markerlose Tracking-Ansätze verwendet. Die meisten markierungslosen Tracking-Ansätze zwingen den Benutzer, während der anfänglichen Einrichtung die Vorderansicht eines Zielobjekts zu erfassen. Wir haben kürzlich zwei Bildentzerrungsverfahren für die nicht-frontale Ansicht eines ebenen Objekts vorgeschlagen. Diese Verfahren können auf die Referenzbilderzeugung in der markerlosen AR angewendet werden. Dieses Dokument beschreibt ein stiftbasiertes Werkzeug zum Kommentieren von planaren Objekten. Unser Tool baut auf mehreren interaktiven Bildkorrekturmethoden auf und unterstützt die Registrierung von AR-Anmerkungen, markerloses Tracking und Annotations-Overlay.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07458-0_39 1e1a9edf652b098750dc9b54cab13d7c;de;;;5.3.;;;Klassifizierung von Blinzelwellenformen zur Bewertung des Erregungsniveaus des Fahrers – Ein EOG-Ansatz und die Korrelation mit physiologischen Maßnahmen Ziel dieser Forschung ist die Entwicklung einer Methode zur Beurteilung der Erregungszustände anhand von Gesichtsbildern von Fahrern. Dieses Papier bezieht sich auf die vorbereitende Studie zur Klassifizierung von Blinzelwellenformen, die aus dem Elektrookulogramm erhalten wurden. Die Übergänge der Verteilung klassifizierter Blinzeln während einer simulierten Fahraufgabe wurden an rund fünfzig Probanden beiderlei Geschlechts und unterschiedlicher Generationen untersucht. Es zeigte sich, dass das Blinzelklassenverhältnis nicht nur vom Schläfrigkeitsgrad des Probanden beeinflusst werden soll, sondern auch von seinem/ihrem Verhalten im Kampf gegen die Schläfrigkeit. Auch die Korrelation mit mehrdimensionalen physiologischen Indizes wurde diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73331-7_86 9a4c35a59f9ebc342509c42f198cf498;de;;;5.3.;;;Lesbare Zeichengröße auf den Bildschirmen mobiler Terminals: Schätzung mit Pinch-in/out auf dem iPod Touch Panel Unter Verwendung eines Multi-Touch-Displays auf einem mobilen Multimedia-Player iPod touch wurde ein Bewertungsexperiment durchgeführt, um die am besten lesbare Größe für Zeichen zu bestimmen, die auf Bildschirmen von mobilen Endgeräten angezeigt werden. Auf einem Multi-Touch-Display mit mehr als einem Finger vergrößerten die Probanden die Zeichen durch Pinch-Out (Pinch-Öffnen) und/oder verkleinerten sie durch Pinch-In (Pinch-Closing) und passen sie an die Größe alphanumerischer oder japanischer Zeichen an am leserlichsten. Die Zeichen wurden positiv (schwarze Zeichen auf weißem Hintergrund) oder negativ (weiße Zeichen auf schwarzem Hintergrund) mit grafischem Text auf dem iPod touch dargestellt. Die eingestellten Schriftgrößen und Betrachtungsabstände wurden gemessen und die Blickwinkel berechnet. Der Einfluss des Positiv- oder Negativbild-Darstellungsmodus und des Alters der Probanden auf diese Lesbarkeitsparameter wird beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02559-4_43 7e1ff86bfe8a6cfde3580de8122452df;de;;;5.3.;;;Die Geschäftsrealität verstehen: Eine Interviewtechnik, die die Jobprobleme visualisieren kann Wir haben die Interview- und Analysemethode Customer Satisfaction (CS) Gap entwickelt. Diese Methode basiert auf der ethno-kognitiven Interview- und Analysemethode, die eine Methode ist, die Geschäftsrealität zu erfassen. Für die Anwendung dieser Methode haben wir versucht, dass sie in der Visualisierung in Lücken und einer Analyse des Bewusstseins der Kundenzufriedenheit zwischen dem Empfangen von Dienstleistungen und dem Anbieten von Dienstleistungen anwendbar ist. Wir haben sechs Personen interviewt und die benötigte Zeit etwa pro 1 Person für 1,5 Stunden benötigt. Wir führten es sowohl auf der Seite des Serviceempfängers durch, die die Kundenzufriedenheit als auch den Service (das sind wir selbst) wahrnimmt. Dadurch gibt es einen deutlichen Unterschied im Wert des CS, wir sind in der Lage, die CS-Lücke strukturell aufzufangen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21753-1_51 0274852e6829d9382a90cbf53b92a496;de;;;5.3.;;;Integrality Authentication Scheme of Bluetooth Baseband Packet Header basierend auf Key Stream Um das Problem der fehlenden Integritätsauthentifizierung auf dem Bluetooth-Basisbandpaket-Header zu lösen, wurde ein Algorithmus der Kurznachrichtenintegritätsauthentifizierung entworfen. Auf der Grundlage des Algorithmus wurde ein integrales Authentifizierungsschema des Bluetooth-Basisband-Paketheaders entworfen. Die theoretischen Analyse- und Simulationsergebnisse zeigen, dass es die Integrität des Bluetooth-Basisband-Paketheaders mit hoher Datenübertragungseffizienz und niedrigen Rechenkosten garantieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23226-8_15 af97d7302f683607d8c378d858aaac15;de;;;5.3.;;;Studium und Anwendung der medizinischen Bildvisualisierungstechnologie In der medizinischen Bildgebung erfordern viele Anwendungen die Visualisierung und Analyse von dreidimensionalen (3D) Objekten. Visualisierung ist der Prozess des Untersuchens, Transformierens und Anzeigens von Daten als Bilder, um ein Verständnis und einen Einblick in die Daten zu gewinnen, was eine schnelle interaktive Geschwindigkeit und eine hohe Bildqualität erfordert. In diesem Artikel beschreiben wir die wichtigsten Techniken der medizinischen Bildvisualisierung. Um die Raycasting-Rendering-Geschwindigkeit zu verbessern, wird ein synthetisch beschleunigter Algorithmus vorgeschlagen. Zunächst werden Rendering-Algorithmen vollständig untersucht und verglichen. Zweitens wurde der Proximity-Cloud-Algorithmus ausgewählt und auf Continuous Ray Casting erweitert. Schließlich wurde der beschleunigte Algorithmus basierend auf der Strahlenkohärenz realisiert. Die experimentellen Ergebnisse zur 3D-Rekonstruktion medizinischer Bilder zeigen, dass die medizinische Bildvisualisierungstechnologie eine leistungsstarke Technologiebasis für computergestützte Diagnose, virtuelle Chirurgie und E-Learning im medizinischen Bereich bereitgestellt hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73321-8_77 89215bbba1d2a531b703986d0e321d1f;de;;;5.3.;;;Interaktive Fluidsimulation mit Augmented Reality Interface In diesem Beitrag wird ein interaktives Fluidsimulationssystem mit Augmented-Reality-Schnittstelle vorgestellt. Das vorgestellte System verwendet Smoothed Particle Hydrodynamics, um das Verhalten von Flüssigkeiten zu simulieren, und verwendet einen Partikel-Partikel-Interaktionsansatz, um die Oberflächenspannung zu berechnen, die in einer kleinskaligen Flüssigkeit wichtig wird. Die Fluid-Feststoff-Wechselwirkung kann effektiv berechnet werden, indem ein Festkörper als Abstandsfunktion dargestellt wird. Daher kann die Form des Festkörpers genau dargestellt werden, ohne die Anzahl der Partikel zu erhöhen. Darüber hinaus kann das System den Festkörper direkt über eine Augmented-Reality-Schnittstelle bedienen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02771-0_48 9ded974de9c7d338b73841580e4e4186;de;;;5.3.;;;Eine Studie zur haptischen Interaktion und Simulation von Bewegung und Verformung elastischer Objekte Ein Ansatz zur haptischen Interaktion und Simulation von Bewegung und Verformung elastischer Objekte wird vorgeschlagen. In unserem Ansatz wird die Bewegung eines Objekts durch Änderungen des kinetischen Impulses und des Drehimpulses nach Aufbringen einer Impulskraft auf jeden Freiheitsgrad definiert, und die Verformung des Objekts wird durch eine Reihe zeitlicher Verformungsmuster nach Aufbringen einer Impulskraft definiert zu jedem Freiheitsgrad, den wir als erweitertes Impulsantwort-Deformationsmodell bezeichnen. Die Zeitkomplexität der Berechnung der Wechselwirkungskraft ist unabhängig von der Komplexität des Modells. Diese Eigenschaft ist für zeitkritische Anwendungen von Vorteil. Außerdem ist die Zeitkomplexität der Berechnung der Objektverformung linear proportional zur Komplexität des Modells. Durch die Implementierung einer prototypischen Umgebung und deren Leistungsbewertung wird die Machbarkeit des vorgeschlagenen Ansatzes demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73345-4_111 deb73a0feee7641a469cb6f02c408cd5;de;;;5.3.;;;Ein indirektes Maß für die implizite Präsenz in virtuellen Umgebungen Virtuelle Umgebungen (VEs) sind für viele Computerbenutzer eine häufige Erscheinung. Angesichts ihrer Verbreitung und schnellen Entwicklung ist es immer wichtiger, Methoden zu entwickeln, die Schlüsselaspekte einer VE, wie beispielsweise die Präsenz, erfassen und messen. Eines der Hauptprobleme bei der Messung des Präsenzniveaus in VEs besteht darin, dass sich die Benutzer ihrer Auswirkungen möglicherweise nicht bewusst sind. Dies ist insbesondere bei direkten Maßnahmen ein Problem, die auf Fragebögen beruhen und nur die wahrgenommene Präsenz explizit messen. In diesem Papier entwickeln und validieren wir ein indirektes Maß für die implizite Präsenz von Benutzern, basierend auf der physischen Reaktion der Benutzer auf Ereignisse in der VE. Das Hinzufügen eines impliziten Maßes wird es uns ermöglichen, VEs effektiver zu bewerten und zu vergleichen, insbesondere im Hinblick auf ihre Hauptfunktion als immersive Umgebungen. Unser Ansatz ist praktisch, kostengünstig und liefert zuverlässige Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22021-0_38 4e0fa2a541ffd3244acdbb01963bbf01;de;;;5.3.;;;R-V-Dynamik-Illusion: Psychophysischer Einfluss auf das Gewichtsempfinden durch visuelle Mixed-Reality-Stimulation bewegter Objekte Wenn Menschen das Gewicht realer Objekte spüren, wird ihre Wahrnehmung bekanntlich nicht nur durch taktile Informationen, sondern auch durch visuelle Informationen beeinflusst. In einer Mixed-Reality (MR) Umgebung kann das Aussehen von berührbaren Objekten verändert werden, indem ihnen ein computergeneriertes Bild (CGI) überlagert wird (MR visuelle Stimulation). In dieser Arbeit haben wir den psychophysischen Einfluss auf das Gewichtsempfinden untersucht, indem wir ein reales Objekt verwendet haben, dem ein CGI überlagert ist. In den Experimenten zeigen wir CGI, das die Trägheitskraft darstellt, die von den beweglichen Objekten im Inneren verursacht wird, während das Subjekt das reale Objekt schwingt. Die Ergebnisse der Experimente zeigen, dass die Probanden das Gewicht unterschiedlich empfanden, wenn die CGI-Animation gezeigt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07458-0_6 916cdd39c6382490fc3c94d320ce2b56;de;;;2.4.;;;Bewertung von Klassifikationsalgorithmen zur Erkennung figurativer Ausdrücke in japanischen Literaturtexten In diesem Beitrag stellen wir ein Rechenmodell zur Erkennung figurativer Ausdrücke in der japanischen Sprache vor. Als Teil der Trainingsdaten verwenden wir den Satz von fast 26.000 japanischen Sätzen, die sowohl Gleichnisse als auch Metaphern umfassen. Diese wurden manuell aus literarischen Texten gesammelt und stellen daher eine vertrauenswürdige und wahrscheinlich größte vorhandene Ressource ihrer Art dar. Wir verwenden die Daten für die Klassifikationsaufgabe, um ihre Verwendbarkeit zur Erkennung der Bildhaftigkeit zu bewerten. Die von einem der im Test verwendeten Klassifikatoren erzielte Präzisionsbewertung zeigt, dass unser Modell in dieser Hinsicht die modernsten Methoden übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6168-9_16 a4533a52eb1cda4dc155828bfa1989ef;de;;;5.3.;;;event.Hub: Ein ereignisgesteuerter Informations-Hub für mobile Geräte In diesem Beitrag stellen wir eine neuartige Architektur und Implementierung eines Informations-Hubs für mobile Geräte vor, den wir event.Hub nennen. Der event.Hub ermöglicht es mobilen Benutzern, implizite oder explizite Ereignisse in ihrem Leben nach einem Publish-Subscribe-Modell zu teilen. Das event.Hub-Design folgt einer dezentralen Architektur, die auch die Datenschutz- und Dateneigentumsprobleme aktueller Serviceangebote berücksichtigt. Der event.Hub wird mit ereignisgesteuerten Programmierparadigmen implementiert und nutzt das XMPP-Protokoll zur Unterstützung der Echtzeitkommunikation. Als Beispielanwendung mit dem event.Hub stellen wir auch eine erweiterte Adressbuchanwendung vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23641-9_19 82ce318fab3b158a3d1cff7eaa988155;de;;;5.3.;;;SAMoC: Self-aware Access Monitoring and Controlling Framework für Android Wir präsentieren das Konzept und die Spezifikation eines selbstbewussten Zugriffsüberwachungs- und Kontroll-Frameworks für Android. Das mangelnde Sicherheitsbewusstsein der Benutzer, die Sicherheitsbeschränkungen des Android-Betriebssystems und die weit verbreitete Verwendung von Android für persönliche und organisatorische Aktivitäten unterstreichen die Bedeutung der Verbesserung der Sicherheit. Das vorgeschlagene SAMoC-Framework stärkt die Sicherheit von Android durch lernbasierte Betriebsoptimierungen. Die Einführung eines Überwachungsagenten für jede Ressource und einer selbstbewussten Schicht im Android-Software-Stack ermöglicht es, unerwartete Ereignisse zu erkennen und eine feingranulare Zugriffskontrolle auf die Ressourcen durchzuführen. Die selbstbewusste Schicht kann die Richtlinien automatisch verfeinern oder je nach Konfiguration Vorschläge machen. Das SAMoC-Framework erzwingt auf individueller Benutzerbasis spezifische Einschränkungen und ermöglicht den Benutzern aufgrund seiner Transparenz, eine Rolle bei der Optimierung des Systembetriebs zu spielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-26630-1_19 0a3a0a287bf4fdf3814294ec772a5707;de;;;5.3.;;;Das Design eines Workflow-Empfehlungssystems für Workflow as a Service in der Cloud Ein Cloud-Workflow-System wurde entwickelt, um WaaS (Workflow as a Service) bereitzustellen, das die Leistungsfähigkeit des Cloud-Computing für eine effiziente und kostengünstige Workflow-Ausführung nutzt. Die aktuellen Cloud-Workflow-Systeme werden hauptsächlich von Personen verwendet, die das Wissen über die Geschäftsprozesse wie die Prozessstrukturen und die funktionalen/nicht-funktionalen Anforderungen besitzen, weil sie die ausführbaren Workflow-Anwendungen selbst erstellen müssen. Die meisten Endbenutzer erwerben jedoch kein solches Wissen und schränken somit die Benutzerfreundlichkeit des Systems ein und behindern die Implementierung von vollständigem WaaS. Um dieses Problem anzugehen, schlägt dieses Papier den Entwurf eines neuartigen Online-Workflow-Empfehlungssystems vor, das Endbenutzern helfen kann, ihre eigenen ausführbaren Workflow-Anwendungen zu erstellen, indem es nur einige Schlüsselwörter zur Beschreibung ihrer Anforderungen ohne den spezifischen Workflow-Modellierungsprozess bereitstellt. Das System-Framework und seine Kernkomponenten werden in diesem Papier erläutert. Anhand einer ausführlichen Fallstudie zu einem Online-Bestell-Geschäftsablauf wird die Machbarkeit unseres Systemdesigns erfolgreich nachgewiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06257-0_20 20ede5766d8edfcbd613f6ab4a632ff1;de;;;5.3.;;;Kindern Brackets beibringen, indem man Bäume manipuliert: Ist einfacher schwieriger? Kinder haben Probleme, abstrakte Darstellungssysteme zu verstehen und zu beherrschen, die Konzepte wie Algebra vermitteln. Wir konzentrieren uns hier auf die Verwendung von Diagrammen, um ihnen zu helfen, arithmetische Wortaufgaben in Taschenrechnerausdrücke zu übersetzen. Das Problem hier besteht darin, zu lernen, wie man eine Zuordnung zwischen Merkmalen der Wortaufgaben und auf einem Taschenrechner ausgeführten Aktionen findet und wie man Zwischenergebnisse darstellt und handhabt, insbesondere wenn mehr als eine Operation beteiligt ist [2,5]. Wir nähern uns ihr, indem wir nach Darstellungen suchen, in denen die relevanten Informationen leicht zu lesen sind, die bei Bedarf leicht zu bearbeiten sind und die reflexive Abstraktion fördern, die Mittel, mit denen Studierende abstrakte Strukturen durch Reflexion des eigenen Handelns konstruieren und die Argumente in Schüler-Lehrer- oder Schüler-Schüler-Diskurs [3].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-25931-2_52 6b478e3ea6d502652b4af1b3e99e79fb;de;;;5.3.;;;Auf dem Weg zur Auswahl testbarer Anwendungsfälle und einer echten Erfahrung Heutzutage müssen Softwareunternehmen exzellente und zuverlässige Produkte entwickeln. Dieses Szenario hat dazu beigetragen, die Relevanz von Qualitätssicherungsaktivitäten, insbesondere der Prüfdisziplin, zu erhöhen. Manchmal sind jedoch die Zeit und die Ressourcen begrenzt und nicht alle Tests können ausgeführt werden, was von Organisationen verlangt, zu entscheiden, welche Anwendungsfälle getestet werden sollten, um die Vorhersehbarkeit von Zeit und Budget des Projekts zu gewährleisten. Die Methoden mit mehreren Kriterien unterstützen Entscheidungen unter Berücksichtigung vieler Faktoren. nicht nur Berufserfahrung. In diesem Papier wird ein Modell mit mehreren Kriterien vorgestellt, das die Entscheidung zur Auswahl der zu testenden Anwendungsfälle unterstützt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04757-2_55 ddcbd1316472bcba3d8fc7845971f456;de;;;5.3.;;;Studie zur Instruktionsmethode für Anlagenbetreiber In dieser Studie wurden die Merkmale von drei Ausbildungscurricula aus Sicht des kognitiven Prozesses des Auszubildenden verglichen. Im Experiment setzten sich die neun Teilnehmer in drei Gruppen zu je drei Teilnehmern zusammen und trainierten in jedem Lehrplan. Um das kognitive Verhalten des Auszubildenden bei der Erkennung von Fehlfunktionen zu bewerten, wurde das Konzept des mentalen Algorithmus verwendet. Als Ergebnis wird der kognitive Prozess des Auszubildenden zur Erkennung von Fehlfunktionen modellhaft geschätzt. Dieses Modell könnte die Inhalte des Trainingscurriculums in Bezug auf den kognitiven Prozess des Auszubildenden widerspiegeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73331-7_36 0fea2d84c941c91c91d1281fda9991f3;de;;;5.3.;;;Studie zur Erreichbarkeit des Dienstes zur Übertragung von dringenden Nachrichten bei einer Katastrophe In diesem Papier wird das Schichtenmodell des Diensts zur Übertragung dringender Nachrichten vorgeschlagen und die Kommunikationskanäle auf semantischer Ebene diskutiert, die bei der Betrachtung der Zugänglichkeit einer dringenden Nachricht unausweichlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21669-5_53 09c38b2f7b54f7b109d1bd0021897619;de;;;5.3.;;;Bestimmung des Nutzens interaktiver Videos im Gesundheitsbereich: Validierung eines benutzerdefinierten Messinstruments Die Suche nach „Windsor-Knoten“ auf YouTube bietet 71.300 Alternativen zur Auswahl für diejenigen, die eine Anleitung benötigen. Das Lernen aus einem Video-Tutorial in einem Online-Portal ist in Haushalten zu einem selbstverständlichen Vorgang geworden. Da Unternehmen zunehmend erkennen, bietet Video ein breites Spektrum an Anwendungsfällen, um den internen und externen Wissenstransfer und die Zusammenarbeit zu fördern. Im Allgemeinen sind moderne Medienanwendungen darauf ausgelegt, dem Benutzer die Möglichkeit zu geben, aus einer strukturierten Zusammenstellung von Informationen nach Belieben auszuwählen. Wenn man sich diese Eigenschaften in Geschäftsumgebungen zu Nutze macht, sollte interaktives Video als Beispiel zu einem vorteilhaften Ergebnis für seinen Benutzer führen. Um diese Intuition zu validieren, haben wir eine neue Software-Suite zum Erstellen, Verwalten und Anzeigen interaktiver Videos entwickelt und in ein realistisches Anwendungsszenario eingeführt. In diesem Artikel präsentieren wir Ergebnisse einer explorativen Faktorenanalyse zur Validierung eines neuen Messinstruments, das speziell für den Nutzen interaktiver Videos entwickelt wurde. Die Daten wurden in einem Feldexperiment erhoben, bei dem die interaktiven Videos für die Physiotherapie verwendet wurden. Wir analysierten die Validität und Reliabilität der Konstrukte und Items. Die Ergebnisse zeigen einige Schwächen, die eine weitere Verbesserung und Anpassung des Messmodells erfordern, aber auch Erkenntnisse über die Gewinngenerierung solcher Wissensmedien auf individueller Ebene geben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49407-4_16 9d957df4d60c8cb8afc7fbf6474c85fe;de;;;5.3.;;;Relation Extraction in Knowledge Base Fragenbeantwortung: Von der General-Domain zur Catering-Branche Die Beantwortung von Wissensdatenbankfragen (KBQA) kann in Entity-Linking und Relation Extraction zerlegt werden. Bei der KBQA-Relationsextraktion besteht das Ziel darin, die geeignete Relation für die Frage und ihre verknüpfte Entität zu finden. Frühere Arbeiten verwendeten neuronale Netzmodelle, um Entitäten paarweise zu verarbeiten, was für große Relationssätze in KBQA gut geeignet ist. Solche Modelle müssen jedoch für jede Frage dieselbe Prozedur zur Erkennung von Relationen mehrmals ausführen, um eine erschöpfende Suche der Relationskombinationen abzuschließen. In diesem Beitrag schlagen wir vor, die Relationsextraktion in KBQA als Klassifikationsproblem zu behandeln. Außerdem führen wir eine Maskierungsschicht ein, die weniger wahrscheinliche Zusammenhänge vorab herausfiltert. Experimente zeigen, dass der Maskierungsmechanismus dem vorgeschlagenen Modell zugute kommt, indem die Genauigkeit von 72 % auf 77 % verbessert wird. Darüber hinaus wird in diesem Papier automatisch eine Catering-Wissensdatenbank erstellt, auf der das vorgeschlagene Modell eine Genauigkeit von 89 % liefert und seine Wirksamkeit demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-91716-0_3 21a19414e74f23b4b617f73ad36a9d18;de;;;2.4.;;;Ein auf Fuzzy-Regeln basierender Handelsagent: Analyse und Wissensextraktion In diesem Beitrag zeigen wir, wie ein auf Fuzzy-Regeln basierendes System für den Handel an einem Terminmarkt entwickelt wird. Durch unser auf Fuzzy-Regeln basierendes System bestimmt ein Agent, ob er einen Futures-Spot kaufen soll oder nicht, basierend auf der Zeitreihe sowohl des Spot- als auch des Futures-Preises. Das auf Fuzzy-Regeln basierende System ist so fein abgestimmt, dass die Höhe des Gewinns maximiert wird. Da ein Fuzzy-System als Entscheidungshilfe verwendet wird, kann der Entscheidungsfindungsprozess durch den lernenden Agenten sprachlich interpretiert werden. Die Leistung des auf Fuzzy-Regeln basierenden Systems wird in einer virtuellen Börse bewertet. Wir versuchen auch, eine Wissensbasis aus dem auf Fuzzy-Regeln basierenden System zu extrahieren, nachdem es vollständig trainiert wurde. Statistische Tests zeigen die Wirksamkeit des extrahierten Wissens als menschliche Entscheidungshilfe.;-;-;-;https://link.springer.com/chapter/10.1007/10966518_19 c322c9f23dee774d0583b8933017fed2;de;;;5.3.;;;Optimaler Lightweight-Kryptografie-Algorithmus für Umgebungsüberwachungsdienste basierend auf IoT Obwohl IoT-Geräte zur Überwachung und Verwaltung der Umgebung bereits auf nationaler Ebene vorhanden sind, herrscht in diesen Systemen immer noch die Schwachstelle im Zusammenhang mit der Sicherheit. Daher ist es erforderlich, ein praktikables Sicherheitsprotokoll in diesen Systemen zu studieren und zu implementieren. In diesem Papier haben wir die optimale, leichtgewichtige Kryptographie zur Verbesserung der Sicherheit in einem IoT-basierten Umgebungsüberwachungssystem getestet, das die Umgebungstemperatur und -feuchtigkeit überwacht und steuert. Wir haben die CPU-Auslastung und die Verarbeitungszeit verglichen, wenn verschiedene leichtgewichtige Kryptographie angewendet wurde. Dies half uns zu dem Schluss, dass die optimale leichtgewichtige Kryptographie für IoT-basierte Systeme LEA ist, eine Blockchiffre.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1056-0_37 7d29b966b0e99f703d9d6c59f931fa41;de;;;5.3.;;;Implementierung eines Systems zur Unterstützung der Dokumentenproduktion mit Obsession-Mechanismus Bei der Entwicklung der IT-Einführung in Unternehmen ist die Effizienz der Arbeiten mehr denn je gefordert. Dies bedeutet, dass nicht nur die Maßnahmen der Unternehmen, die die IT in den Geschäftsbetrieb einbringen, sondern auch die Fähigkeit der Mitarbeiter, die Arbeiten mit der IT effektiv auszuführen, wesentlich sind. Dieses Papier betrachtet die Arbeitseffizienz im heutigen Arbeitsstil von Menschen und konzentriert sich auf die Aufgabe der Dokumenterstellung. Die Effizienz der Dokumentenerstellung ist das wesentliche Element aller Geschäftsaktivitäten und die Aufgabe, die jeder einfach erfüllen kann. Die Steigerung der Effizienz der Dokumenterstellung hängt mit der Verbesserung der Arbeitseffizienz im Arbeitsstil der Benutzer zusammen. In den letzten Jahren wird die Dokumenterstellung auf mobilen Systemen durch das Aufkommen von Tablet-Computern und Großbildschirm-Smartphones immer beliebter, die Effizienz der Dokumenterstellung wird noch mehr gefordert. In diesem Beitrag konzentrieren wir uns auf den wichtigsten Punkt bei der Erstellung eines Dokuments, nämlich „innerhalb einer Frist fertigzustellen“. Um diese Funktion in das System zu implementieren, wenden wir einen menschlichen Kognitionsmechanismus für Fristen an, wie beispielsweise den Mechanismus der Besessenheit von Fristen. Wir nennen es in diesem Papier „Deadline Obsession (DLO)“ und verwenden diesen Kognitionsmechanismus, um ein Unterstützungssystem für die Dokumenterstellung zu implementieren, um die Arbeitseffizienz der Benutzer zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-63618-4_5 d9d5ba7b979f82c515ee93c44e09da28;de;;;5.3.;;;Das iTEC Eduteka Im aktuellen Bildungspanorama in ganz Europa stellen wir fest, dass Technologie zunehmend im Klassenzimmer präsent ist. Auf der einen Seite gibt es staatliche Programme, die Klassenzimmer mit einer technologischen Infrastruktur ausstatten. Auf der anderen Seite haben die Schüler selbst in der Regel mobile Geräte – wie Smartphones und Tablets – und tragen sie überall hin, einschließlich des Klassenzimmers. In diesem Zusammenhang entsteht das Projekt Innovative Technologies for an Engaging Classroom (iTEC), das Vorzeigeprojekt des RP7 im Bildungsbereich, das von der Europäischen Kommission mit 12 Millionen Euro finanziert wird. Das iTEC versucht, einen Beitrag zur Konzeption des Klassenzimmers der Zukunft zu leisten, in dem Technologie mit den innovativsten pädagogischen Ansätzen ergänzt wird, die eine hohe Dynamik in der pädagogischen Praxis mit sich bringen. So fördert das iTEC eine pädagogische Praxis, in der die Studierenden in kleinen Projekten interagieren, darunter die Teilnahme an Veranstaltungen, Vorträge mit Experten und alles, was mit dem Einsatz von Technik vertraut ist. Im iTEC ist The Eduteka ein Werkzeugkasten von Technologien für das Design von fortgeschrittenen Lernaktivitäten. Die Komponenten des Eduteka unterstützen den pädagogischen Ansatz des iTEC. Diese werden in diesem Kapitel ausführlich vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-14645-4_6 9ea85bbaa8c6d74a6c2153e594f9abcd;de;;;5.3.;;;Geheimhaltungsanalyse im kooperativen Kommunikationssystem im AF-Modus Kooperatives System ist aufgrund seiner räumlichen Vielfalt eine Tendenz für die zukünftige Kommunikation, die Systemleistung zu verbessern. Die Sicherheit ist jedoch ein kritischer Punkt in der drahtlosen Anwendung mit einer sehr privaten Anfrage. Obwohl die Verschlüsselungsschemata vorgeschlagen wurden, um sich dem sicheren Zweck zu nähern, benötigen diese Schemata viel Rechenressourcen. Für Anwendungen mit eingeschränkter Rechenleistung wie IoT ist dies nicht praktikabel. Nach der Shannon-Theorie der perfekten Geheimhaltung könnte die Sicherheit auf der physikalischen Schicht implementiert werden. Aufgrund der positiven Geheimhaltungsrate könnte die sichere Kommunikation praktikabel sein. Diese Arbeit konzentriert sich auf die theoretische Lösung der Geheimhaltungsrate im kooperativen Kommunikationssystem AF-Modus. Außerdem werden die numerischen Ergebnisse angegeben. Es zeigt, dass die Auswirkungen von Lauschern die sichere Kommunikation nicht beeinträchtigen können, wenn die Anzahl der Lauscher geringer ist als die der Relais im System. Die entsprechende Relaiszuordnung kommt der sicheren Kommunikation zugute.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1056-0_30 a360757877f2d987b6a390f3bdc642f8;de;;;5.3.;;;Ein mehrfaches optisches Bildverarbeitungssystem mit virtueller Anzeige Dieser Artikel schlägt ein Head-up-Display vor, das virtuelle Bilder von horizontalen Mehrkanalfenstern anzeigt, um den Fahrer vor möglichen Gefahren und möglichen Unfällen zu schützen, die aufgrund der Reaktionszeit der Augenerkennung für die Objektentfernung in sich schnell bewegenden Fahrzeugen auftreten. Es wurde ein Head-up-Display mit einer Kombinatorlinsenstruktur untersucht, das mehrere virtuelle Bilder gleichzeitig projizieren kann, ohne dass auf die Windschutzscheibe ein Antireflexbeschichtungsmaterial aufgebracht wird. Dazu gehört ein optisches Raytracing-System, das ein virtuelles Bild von mehr als 8 Zoll Größe in einem Abstand von mehr als 3 m vom menschlichen Auge anzeigt. Zusätzlich werden asymmetrische und asphärische optische Faltspiegel sowie ein Hohlspiegelsystem zur Vergrößerung des virtuellen Bildes eingesetzt. Die Studienauswertung wurde durch die optischen Verzerrungseigenschaften und die Helligkeitsgleichmäßigkeit zweier Beleuchtungssysteme realisiert. Die Helligkeitsgleichmäßigkeit der beiden virtuellen Displays zeigte hohe Leistungen von 83,4 bzw. 82,2 %, und die optische Verzerrung wird auf weniger als 5 % der TV-Verzerrung reduziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1056-0_16 0c114edcae6eb93aaa6f14a7993b58d2;de;;;5.3.;;;Ein Vergleich der Prozesse zur Einreichung von E-Assessment-Aufgaben in Informatik-Einführungskursen Studierende, die eine Hochschulausbildung absolvieren, müssen in der Regel im ersten Studienjahr einen Introductory Computing Course (ICC) absolvieren. Introductory Computing, auch als Computer Fundamentals oder End User Computing bezeichnet, ist theoretischer und praktischer Natur. Aufgrund der großen Zahl von Studierenden, die die ICCs absolvieren, führen Institutionen E-Learning-Systeme und E-Assessment-Systeme ein und nutzen diese zunehmend. Die Forschung konzentriert sich im Allgemeinen auf das E-Assessment aus der Perspektive eines Pädagogen oder Ausbilders. In dieser Studie wurden die Wahrnehmungen der Studierenden zum E-Assessment evaluiert und verschiedene Optionen in Bezug auf die Einreichung und Bewertung von MS-Office-Dokumenten im Rahmen des ICC untersucht. Die Studie identifizierte die beste Einreichungsmethode aus Sicht der Studierenden unter Berücksichtigung verschiedener Faktoren und vergleicht drei verschiedene Einreichungsmethoden. Die Ergebnisse zeigten Vorschläge zur Verbesserung des Online-Einreichungssystems auf. Die Ergebnisse könnten Lehrkräften und Ausbildern helfen, die elektronische Bewertungssysteme verwenden, um die Einreichungs- und Bewertungsprozesse in jedem Kurs zu verbessern, bei dem Dateien für die Einreichung erforderlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-47680-3_3 c15f00c083d71f44e91f2cdbfe6b8514;de;;;5.3.;;;Implementierung eines Überwachungssystems zur Messung von Temperatur, Durchfluss und Flüssigkeitsdruck von Kühlsystemen In dieser Studie wurde ein Überwachungssystem konstruiert, mit dem Änderungen der Temperatur der Flüssigkeit, die in Rohrleitungen strömt, Rohroberflächentemperaturen, Durchflussmengen und Druck gleichzeitig gemessen und die gemessenen Daten auf einem Bildschirm angezeigt werden können, um die Beobachtung zu ermöglichen und Aufzeichnung von Änderungen der Fluidbedingungen zur Analyse der Eigenschaften von Automobilkühlsystemen und verschiedenen Fluidsystemen. Zur Messung der Kühleffizienz des Kühlsystems wurden zwei Arten von Temperatursensoren (Kontakttyp und berührungsloser Typ) installiert und das Überwachungssystem wurde mit einem digitalen Halbleiter-Manometer und einem Turbinen-Durchflussmesser konfiguriert. Als CPU wurde für jedes eingebettete Sensorsystem ein kleiner ATmega8 verwendet. Darüber hinaus wurden 24-Bit-AD-Wandler für die genaue Messung verwendet und der serielle Kommunikationsmodus zur Übertragung von Daten einzelner Sensorsysteme verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1056-0_20 89a814fdd88e65d3f058f393f24c485d;de;;;5.3.;;;FAHP-basierte Fuzzy-Umfassende Bewertung der Glaubwürdigkeit von M&S Die Glaubwürdigkeitsbewertung von Modellierungs- und Simulationsanwendungen (M&S) wird immer wichtiger, da M&S-Anwendungen derzeit größer und komplexer werden. Um die M&S-Glaubwürdigkeitsbewertung effizient, kostengünstig und erfolgreich durchzuführen, erstellt diese Studie ein hierarchisches Bewertungsmodell der M&S-Glaubwürdigkeit und schlägt eine Methodik der FAHP-basierten Fuzzy-Complete-Evaluation (FCE) vor. Außerdem wird ein hierarchisches Bewertungsmodell der M&S-Glaubwürdigkeit basierend auf einer detaillierten Diskussion von Glaubwürdigkeitsbewertungsindikatoren aufgebaut. Inzwischen wird eine Methodik des FAHP-basierten FCE-Modells eingeführt, um den Einfluss individueller subjektiver Beurteilung und Bevorzugung auf die Bewertungsergebnisse zu reduzieren. Abschließend wird eine Fallstudie vorgestellt, um die Machbarkeit und Validität des vorgeschlagenen Ansatzes zu beweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04962-0_33 1d5d76689f75daed14109e648ab7e000;de;;;5.3.;;;Die Möglichkeit, einfache Neuronenmodelle zu verwenden, um gehirnähnliche Computer zu entwerfen IBM Research und fünf führende Universitäten arbeiten zusammen, um Computersysteme zu entwickeln, die die Fähigkeiten des Gehirns simulieren und emulieren sollen. Obwohl dieses Projekt einige Erfolge erzielt hat, stößt es in der weiteren Forschung auf große Schwierigkeiten. Die Hauptschwierigkeit besteht darin, dass es fast unmöglich ist, den dynamischen Charakter neuronaler Netze im Detail zu analysieren, wenn mehr als zehntausend Neuronen komplexer nichtlinearer neuronaler Modelle aufgestapelt sind. Es liegt daher in der Natur, eine solche Frage zu stellen: um die Gestaltung von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31561-9_41 5d4672f027fc61208834aaccf894bd94;de;;;5.3.;;;Ein flussbasierter Ansatz zur parallelen Paketverarbeitung für Core-Affinität und Core-Skalierbarkeit Bestehenden Ansätzen zur parallelen Hochgeschwindigkeitspaketverarbeitung fehlt es an der Unterstützung von Kernaffinität und Skalierbarkeit. Die Kernaffinität ist wichtig, um die Paketverarbeitungsleistung für den Fluss zu verbessern, und die Kernskalierbarkeit passt die Anzahl der Kerne einer Netzwerkanwendung an, die erforderlich ist, um eine parallele Paketverarbeitungseffizienz zu erreichen, und skaliert basierend auf dem eingehenden Netzwerkverkehr. In diesem Papier schlagen wir einen Ansatz vor, um Flow-Core-Affinität und Core-Skalierbarkeit gleichzeitig zu unterstützen. Wir ermöglichen mehreren Kernen die parallele Verarbeitung von Paketen und stellen gleichzeitig die Flow-Core-Affinität durch die Verwendung einer Flow-to-Core-Tabelle sicher. Wir erlauben auch eine Paketempfangswarteschlange für einen Kern und die Überwachung des Datenverkehrsworkloads. Wir passen die Anzahl der Paketempfangswarteschlangen und Kerne automatisch an die Datenverkehrsworkload an, um die Skalierbarkeit des Kerns zu gewährleisten. Durch Experimente prüfen wir die Machbarkeit des vorgeschlagenen Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1465-4_14 5a9054b58e4f963252538c5faa2c47e7;de;;;5.3.;;;Abwehr feindlicher Angriffe basierend auf dem Deep Image Prior Network Mehrere neuere Studien haben gezeigt, dass Systeme der künstlichen Intelligenz (KI) durch absichtlich erstellte Daten, die auf dem normalen Weg eingehen, Fehlfunktionen aufweisen können. Zum Beispiel kann ein gut gemachter Aufkleber auf einem Verkehrszeichen dazu führen, dass ein selbstfahrendes Auto die Bedeutung eines Verkehrszeichens von seinem ursprünglichen falsch interpretiert. Solche absichtlich erstellten Daten, die dazu führen, dass das KI-System falsch einschätzt, werden als gegnerische Beispiele bezeichnet. Das Problem ist, dass aktuelle KI-Systeme nicht stabil genug sind, um gegnerische Beispiele zu verteidigen, wenn ein Angreifer sie zum Angriff auf ein KI-System verwendet. Daher werden heutzutage viele Forschungen zum Erkennen und Entfernen von gegnerischen Beispielen durchgeführt. In diesem Papier haben wir die Verwendung des Deep Image Prior (DIP) als Abwehrmethode gegen gegnerische Beispiele vorgeschlagen, die nur das gegnerische verrauschte Bild verwenden. Dies steht im Gegensatz zu anderen auf neuronalen Netzwerken basierenden Verfahren zur Entfernung von gegnerischem Rauschen, bei denen viele gegnerische verrauschte und echte Bilder für das Training des neuronalen Netzwerks verwendet werden müssen. Experimentelle Ergebnisse zeigen die Gültigkeit des vorgeschlagenen Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1465-4_51 aaa200336f292d4778b23c122abd48b1;de;;;5.3.;;;SNMP-basierte Erkennung des Risikos von VLAN-Hopping-Angriffen Ein virtuelles lokales Netzwerk (VLAN) wird häufig verwendet, um ein großes Netzwerk in mehrere kleine Netzwerksegmente zu unterteilen. Außerdem verwenden viele VLAN zum Analysieren von LANs, um die Kommunikation zwischen verschiedenen VLANs aus Sicherheits- und Verwaltungszwecken zu verhindern. Es ist bekannt, dass das Einfügen eines zusätzlichen VLAN-Tags in Ethernet-Frames, der sogenannte VLAN-Hopping-Angriff, die VLAN-basierte Netzwerktrennung umgehen kann. Es gibt zwei Voraussetzungen für den Angriff. Die erste Bedingung ist, dass ein Hacker die VLAN-Identifikationsnummer des Ziels kennen muss und die zweite Bedingung ist, dass das angreifende System mit dem Trunk-Port eines Switches verbunden sein muss, der zum Anschluss eines Switches verwendet wird. In dieser Studie schlagen wir eine auf SNMP (Simple Network Management Protocol) basierende Erkennungsmethode vor, um effektiv einen Port und eine MAC-Adresse zu finden, die die zweite Bedingung erfüllen, bevor ein VLAN-Hopping-Angriff beginnt. Da SNMP von den meisten Netzwerkkomponenten implementiert wird, lässt sich unsere Methode problemlos in den aktuellen VLAN-Netzwerken einsetzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1056-0_28 bf76f7889dc61ee31acff9eee3e7f4bf;de;;;5.3.;;;FingerPIN: Ein Authentifizierungsmechanismus, der Fingerabdrücke und persönliche Identifikationsnummern integriert Die fingerabdruckbasierte Authentifizierung wurde aufgrund ihrer zahlreichen Vorteile gegenüber der herkömmlichen passwortbasierten Authentifizierung erfolgreich in einer Vielzahl von Anwendungen eingesetzt, einschließlich der Strafverfolgung und der Einwanderung. Trotz der Benutzerfreundlichkeit und Genauigkeit dieser Technologie bestehen jedoch noch einige erhebliche Bedenken, die ihre weitere Einführung möglicherweise behindern können. So ist beispielsweise der Fingerabdruck einer Person dauerhaft mit einer Person verknüpft und kann, wenn er einmal gestohlen wurde, nicht ersetzt werden, wodurch die biometrische Authentifizierung gefährdet wird. Um dieses Problem zu mildern, schlagen wir einen Multi-Faktor-Authentifizierungsansatz vor, der Typ-1- und Typ-3-Authentifizierungsfaktoren in eine Fingerabdruck-basierte persönliche Identifikationsnummer oder FingerPIN integriert. Um sich zu authentifizieren, muss eine Person eine Sequenz von Fingerabdrücken entsprechend den Ziffern der PIN präsentieren, basierend auf einer vordefinierten geheimen Zuordnung zwischen Ziffern und Fingern. Wir führen eine Schwachstellenanalyse des vorgeschlagenen Systems durch und zeigen, dass es robust gegenüber der Kompromittierung eines oder mehrerer Fingerabdrücke der Person ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1086-8_44 ff470db5ab3dffbb0d0c862b7e817380;de;;;5.3.;;;Ein neues erweitertes Perspektivensystem für Architekturzeichnungen Dieser Beitrag stellt die Arbeit eines multidisziplinären Forscherteams vor, das Wissen in Architektur, Zeichnung, Geometrie, Mathematik und Computerwissenschaften sammelt. Die Forschung war darauf ausgerichtet, ein computergestütztes Werkzeug für die Architekturvisualisierung – einen neuen digitalen Perspektivographen – unter Verwendung eines neuen theoretischen und operativen Ansatzes zur linearen Perspektive zu schaffen. Eine neue Art von Projektionsfläche, eine parametrische, wird dem perspektivischen Konzept unter den aktuellen Werkzeugen hinzugefügt. Die Mutationen dieser Oberfläche werden erklärt und eine Reihe von grafischen Ausgaben angezeigt. Ein Workshop mit Architekturstudenten fand statt, um das Konzept und den computergestützten Prototyp zu testen und zu validieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38974-0_6 bbd89f06811f849e62335645d8c2b30b;de;;;5.3.;;;Auf geometrischen Merkmalen basierende Gesichtsemotionserkennung mit einem zweistufigen Fuzzy-Argumentation-Modell Die Erkennung von Gesichtsgefühlen ist eine wichtige Anforderung in der Machine Vision-Gesellschaft. In diesem Sinne verwendet dieser Artikel geometrische Gesichtsmerkmale und berechnet die Verschiebung von Merkmalspunkten zwischen ausdrucksstarken und neutralen Bildern und wendet schließlich ein zweistufiges Fuzzy-Argumentation-Modell zur Erkennung und Klassifizierung von Gesichtsgefühlen an. Die prototypische Emotionssequenz nach dem Facial Action Coding System (FACS) wird durch Analyse kleiner, mittlerer und großer Verschiebungen gebildet. Darüber hinaus werden geometrische Verschiebungen fuzzifiziert und auf Aktionseinheiten (AUs) abgebildet, indem ein Fuzzy-Argumentationsmodell der ersten Stufe verwendet wird, und spätere AUs werden fuzzifiziert und auf einen Emotionsraum abgebildet, indem ein Fuzzy-Relationsmodell der zweiten Stufe verwendet wird. Die Gesamtleistung des vorgeschlagenen Systems wird in der erweiterten Cohn-Kanade (CK+)-Datenbank zur Klassifizierung grundlegender Emotionen wie Überraschung, Traurigkeit, Angst, Wut und Glück bewertet. Die experimentellen Ergebnisse zur Aufgabe der Gesichtsemotionsanalyse und Emotionserkennung übertreffen andere in der Literatur vorhandene Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12640-1_42 3b3981978c41018913938c8564ec10e3;de;;;5.3.;;;Eine umfassende Studie zur Unterstützung bei Fahrzeugkollisionen in Malaysia Als neuestes Forschungsthema im Verkehrswesen ist der daraus resultierende Fahrzeugcrash zu einem Hauptproblem geworden. Dieses Papier definiert ein Werkzeug zur Berechnung des Abstands von einem Fahrzeug zur Front und zur Warnung mit möglicher drahtloser Kommunikation. Die Kommunikation von Fahrzeugen zu Fahrzeugen kann sehr effizient bei der Reduzierung des Aufpralls sein. Das Messwerkzeug verwendet einen Ultraschallsensor, einen Himbeer-Pi, um die Reichweite zu bestimmen. Das Tool wird in Echtzeit ausgewertet und alle Ergebnisse werden tabellarisch dargestellt. Das Tool wird in Echtzeit bewertet und alle Ergebnisse werden präsentiert. Schließlich betonen die Forschungsergebnisse, dass das Tool machbar ist, es jedoch finanzielle Unterschiede und Kommunikationsprobleme gibt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1465-4_61 8e4fe02d846ba4921fb000849d3c5916;de;;;5.3.;;;Eine Studie zur Kovarianzmatrixkorrektur des Korrelationssignals für die korrekte Richtungsschätzung bei Phasenfehlanpassung In dieser Arbeit wird die Ankunftsrichtung des gewünschten Ziels aus dem Korrelationskanal geschätzt. Bei der drahtlosen Kommunikation ist es eine sehr wichtige Technologie, das gewünschte Signal aufgrund von Interferenzen im Mehrweg zu schätzen. Um das Interferenzsignal zu entfernen, kann ein gewünschtes Signal unter Verwendung der Gewichtung der Kovarianzmatrix geschätzt werden. An das Empfangssystem werden adaptive Array-Antennen angelegt, um die Gewichte der Ankunftsrichtungsalgorithmen zu aktualisieren, um die gewünschten Richtungen zu schätzen. Die Gewichtungsaktualisierung verwendet eine Kovarianzmatrix der Kovarianz mit einer modifizierten Kovarianzmatrix. Wir erhalten die Korrekturkovarianzmatrix unter Verwendung der Signalphasenfehlanpassung und wenden die Korrekturkovarianzmatrix auf den Ankunftsrichtungsalgorithmus an, um die Zielrichtung zu schätzen. Durch Simulation vergleichen und analysieren wir die Leistung des vorgeschlagenen Algorithmus und des bestehenden MUSIC-Algorithmus. Wir analysieren die Leistung des Korrelationskanals und des unkorrelierten Kanals und haben bewiesen, dass der vorgeschlagene Algorithmus im Korrelationskanal dem bestehenden Algorithmus überlegen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1465-4_9 6a1d10bfe7f7589a980027c8b1f9d980;de;;;5.3.;;;Die Erforschung und Implementierung des Fine-Grained Implicit Authentication Framework für Android Um sensible Informationen in Android-Apps zu schützen, wurden heutzutage viele Methoden zur Identitätsauthentifizierung entwickelt, darunter Passwort, grafisches Passwort, Fingerabdruck usw. Leider haben diese Schemata viele Nachteile. Beispielsweise könnte das Grafik-Passwort durch die Spur auf dem Bildschirm wiedergegeben werden. Anders als bei der oben genannten expliziten Authentifizierung sammelt das implizite Authentifizierungsschema stillschweigend Benutzerverhaltensmuster für die Authentifizierung, ohne Aktionen wie die Eingabe eines Passworts. In diesem Paper haben wir zum ersten Mal ein differenzierteres implizites Authentifizierungsschema realisiert, das die Einheit für die Authentifizierung von App-Ebene auf Aktivitätsebene verfeinert hat. Zweitens haben wir die Merkmalsextraktion verbessert und den Klassifizierungsalgorithmus namens SVDD angewendet. Drittens haben wir eine No-Buried-Point-Bibliothek entwickelt, um die Benutzerfreundlichkeit zu verbessern. Schließlich rekrutierten wir 21 Freiwillige für Experimente. Die experimentellen Ergebnisse zeigen, dass die Genauigkeit des vorgeschlagenen Schemas die bisherige Arbeit verdoppeln kann und die No-Buried-Point-Funktion die Effizienz der App-Entwicklung erheblich verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-0896-3_63 15b929831e87ffa71a80a35b9a303b73;de;;;5.3.;;;Einsatz konventioneller und unkonventioneller statistischer Methoden beim Aufbau eines realen Informationssystems zur Unterstützung der Entscheidungsfindung von Führungskräften Ziel dieser Arbeit ist es, ausgewählte statistische Methoden vorzustellen, die in der realen Informationssystementwicklung (IS) verwendet und implementiert wurden. Das gesamte Informationssystem wurde für eine Tochtergesellschaft eines multinationalen Konzerns zur Herstellung von Komponenten für Zugbremsen entwickelt. Der Zweck dieser statistischen Analyse besteht darin, möglichst viele Informationen über die vom Sammelsystem gesammelten Daten zu erhalten, um die Entscheidungsprozesse des Managements zu unterstützen sowie auf Basis von Ersatzteilinformationen wirtschaftliche Ziele und Budgets für den folgenden Zeitraum festzulegen und Produktionsausfalleinrichtungen. Anschließend kann das System die Bestände optimieren und somit erhebliche finanzielle Ressourcen einsparen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1465-4_55 e11a4dde2e1807e0ca20b84a802c55cd;de;;;5.3.;;;Menschen, die durch Botox-Altersschätzung basierend auf aktiven Formmodellen injiziert wurden, beschleunigen robuste Funktionen und unterstützen Vektormaschinen Anti-Aging und junges Aussehen mit einem kraftvollen Erscheinungsbild ohne Volumenverlust im Gesicht und Vertiefung der Mimik ist der Traum eines jeden Menschen im Leben. Forscher in der Haut- und Kosmetikbranche hatten viele Jahre damit verbracht, nach anderen Lösungen als Operationen für Alterserscheinungen und Falten zu suchen. Botox ist ein kosmetisches Verfahren zur Hautverjüngung, das den jüngsten magischen Schlüssel zu Problemen mit dem Aussehen des Alterns darstellt, insbesondere mit den faszinierenden Ergebnissen, die es gezeigt hat. Botox kann Sie einfach 10 bis 20 Jahre jünger aussehen lassen, was angesichts der Forschungen zur Altersschätzung des Menschen ein Hindernis darstellt. In diesem Artikel haben wir ein neues Modell namens Human Injected by Botox Age Estimation (HIBAE) vorgeschlagen, ein menschliches Altersschätzer, das auf aktiven Formmodellen basiert, robuste Funktionen beschleunigt und Vektormaschinen unterstützt, um das Alter von Menschen, die exponiert sind, genau abzuschätzen zu Botox-Injektionen. Human Injected by Botox Age Estimation vorgeschlagenes Modell wurde von einem Crossover des Productive Aging Lab trainiert. Datenbank und 60 Bilder aus dem Internet von Menschen, die Botox ausgesetzt waren, und getestet mit einem Crossover der FACES64-Datenbank und 20 Bildern von Menschen, die Botox ausgesetzt waren. HIBAE hatte durch Leistungstests eine Überlegenheit gegenüber dem Stand der Technik gezeigt.;-;-;-;https://link.springer.com/article/10.1134/S1054661816030184 c3530227f8414fe1ace9d051486a00a3;de;;;5.3.;;;Analyse der unerwünschten Ereignisse und Vorfälle, die dem Abteilungs-Technosurvillance-Programm für Medizinprodukte in Antioquia, Kolumbien, in den Jahren 2016 und 2017 gemeldet wurden Die Studie analysiert die Ursachen der unerwünschten Ereignisse, die dem Technosurveillance-Programm für Medizinprodukte im Departement Antioquia in Kolumbien für die Jahre 2016 und 2017 gemeldet wurden. Dieses Papier identifiziert die wichtigsten medizinischen Geräte, die an den Berichten beteiligt sind, und schlägt mögliche Verbesserungen vor, die den Rückgang ermöglichen könnten der unerwünschten Ereignisse, wobei die Fortschritte der;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-31019-6_13 89c80b4c6a71f117392faca257f4ed25;de;;;5.3.;;;Vorstellung von Kimeme, einer neuartigen Plattform für multidisziplinäre Multi-Objective-Optimierung Optimierungsprozesse sind ein wesentliches Element in vielen praktischen Anwendungen, z. B. in den Bereichen Ingenieurwesen, Chemie, Logistik, Finanzen etc. Um die Wissenslücke zwischen Praktikern und Optimierungsexperten zu schließen, haben wir mit Kimeme eine neue flexible Plattform für multidisziplinäre Optimierung entwickelt. Eine Besonderheit von Kimeme ist, dass es sowohl für das Problem- als auch für das Algorithmusdesign verwendet werden kann. Es umfasst eine reichhaltige grafische Umgebung, einen umfassenden Satz von Nachbearbeitungswerkzeugen und eine Open-Source-Bibliothek mit modernsten Einzel- und Mehrzieloptimierungsalgorithmen. Auf memetische Weise werden Algorithmen in Operatoren zerlegt, sodass Benutzer leicht neue Optimierungsmethoden erstellen können, indem sie einfach integrierte Operatoren kombinieren oder neue erstellen. Ebenso wird der Optimierungsprozess nach einer Datenflusslogik beschrieben, sodass er sich nahtlos in externe Software wie Computed Aided Design & Engineering (CAD/CAE) Pakete, Matlab, Tabellenkalkulationen usw natives Distributed Computing Framework, das parallele Berechnungen auf Clustern und heterogenen LANs ermöglicht. Fallstudien aus der Industrie zeigen, dass Kimeme mühelos auf industrielle Optimierungsprobleme angewendet werden kann und auch im Vergleich mit anderen Plattformen auf dem Markt robuste Ergebnisse liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-32695-5_4 7752ef74f79389b9b7d162500cb193ce;de;;;5.3.;;;Eine Studie über drahtlose Kommunikationstechnologien für die Fahrzeugkommunikation In den letzten Jahren ist die Fahrzeugkommunikation eine fortschrittliche Technologie, die sowohl in der Industrie als auch in der Wissenschaft auf der ganzen Welt Aufmerksamkeit erregt hat. Die Einführung in die Fahrzeugkommunikation soll die Verkehrssicherheit, Effizienz und den Komfort verbessern. Dieser Beitrag untersucht die Verfügbarkeit der drahtlosen Kommunikationstechnologien für die Fahrzeugkommunikation und die mögliche Implementierung einer geeigneten drahtlosen Kommunikation für die Fahrzeugkommunikation im Kontext von Malaysia.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1056-0_1 763a51f9a63bd0b5413748be62ce8821;de;;;5.3.;;;Augmented-Reality-Anwendungen für das Kulturerbe mit Kinect In diesem Artikel wird die Verwendung von Daten des Kinect-Sensors für die Durchführung von Augmented Reality untersucht, wobei der Schwerpunkt auf Anwendungen im Kulturerbe liegt. Es wird gezeigt, dass die Kombination von Tiefen- und Bildkorrespondenzen von Kinect eine zuverlässige Schätzung der Position und Pose der Kamera liefern kann, obwohl das Rauschen des Tiefensensors ein unangenehmes Zittern der gerenderten Ansicht verursacht. Es wurde festgestellt, dass die Kalman-Filterung der Kameraposition eine viel stabilere Ansicht ergibt. Die Ergebnisse zeigen, dass das System für Augmented-Reality-Anwendungen vor Ort genau genug ist. Die Skelettverfolgung mit Kinect-Daten ermöglicht es, das Erscheinungsbild der Teilnehmer zu verbessern, und zusammen erleichtern diese die Entwicklung von Anwendungen für das Kulturerbe.;-;-;-;https://link.springer.com/article/10.1186/s13673-015-0040-3 f721720df5bf13077af979a7839791cd;de;;;5.3.;;;Privacy-Protective-GAN zur datenschutzerhaltenden Gesichts-Anerkennung Die Anonymisierung von Gesichtern wird immer wichtiger, da die Bildquellen explosionsartig anwachsen und leicht zugänglich sind. Der Fortschritt neuer Gesichtserkennungstechniken weckt auch Bedenken hinsichtlich des Datenschutzverlusts. Die Mainstream-Pipelines der Anonymisierung von Gesichtern basieren größtenteils auf dem k-selben-Framework, das Kritik an geringer Wirksamkeit und schlechter visueller Qualität übt. In diesem Papier schlagen wir ein neues Framework namens Privacy-Protective-GAN (PP-GAN) vor, das GAN (Generative Adversarial Network) mit neuartigen Verifikator- und Regulierungsmodulen anpasst, die speziell für das Problem der Anonymisierung von Gesichtern entwickelt wurden, um die Erzeugung von anonymisierter Ausgabe sicherzustellen mit beibehaltener Strukturähnlichkeit nach einer einzigen Eingabe. Wir bewerten den vorgeschlagenen Ansatz im Hinblick auf Datenschutz, Nutzenerhalt und Strukturähnlichkeit. Unser Ansatz übertrifft nicht nur bestehende Techniken zur Anonymisierung von Gesichtern, sondern bietet auch einen praktischen Rahmen für die Anpassung von GAN an Vorkenntnisse in Domänen.;-;-;-;https://link.springer.com/article/10.1007/s11390-019-1898-8 6dd64f74d2105f41f723f227867fe535;de;;;5.3.;;;Analyse der zeitlichen Sparsität des menschlichen Gesichts für verschiedene Emotionsstimuli In letzter Zeit haben sich viele Forscher auf einen Teilbereich von Einzelbildbildern wie Mund, Augen konzentriert, um den Gesichtsausdruck zu erkennen. Nach der neueren psychologischen Theorie enthielten jedoch die anderen Gesichtsregionen wichtige Faktoren in Bezug auf den Gesichtsausdruck. Um das Problem früherer Arbeiten zu lösen, verifiziert unser vorgeschlagenes Verfahren die zeitliche Bewegung des Gesichts in der Gesichtsregion. Dazu werden einhundert Regionen (10 × 10) auf der erfassten Gesichtsregion definiert. Darüber hinaus wurde die zeitliche Sparsität jeder Region auf einem spezifischen Frequenzband berechnet, von dem bekannt ist, dass es Mikrobewegungen des menschlichen Körpers ausdrückt. Um die Berechnung durchzuführen, wurde das Subtraktionsverfahren für benachbarte Bilder verwendet. Folglich wurden Sparsity-Daten gegen vier Emotionsreize erhalten. Als Ergebnis bestätigten wir, dass die räumlichen Merkmale der zeitlichen Sparsität mit unterschiedlichen Emotionen unterschiedlich übereinstimmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-47487-7_20 4ffeb64ce2a481e891e8653389b6b63b;de;;;5.3.;;;Anwendung von Pocket PC in der Meeresfischereivermessung Derzeit hängt die Feldarbeit während der Meeresfischereiuntersuchung stark von der traditionellen Erfassungsmethode ab, d. h. der Erfassung von Daten auf Papierbögen von Hand. Offensichtlich ist es sehr ineffizient und führt leicht zu einer schlechten Datenqualität. Um dieses Problem anzugehen, wird eine auf Pocket PC basierende Lösung zur Meeresfischereivermessung vorgeschlagen. Diese Lösung, die mobile Geräte nutzt, erfasst die Felddaten direkt in elektronischer Form. Es kann die Datenkonsistenz sicherstellen, die Effizienz der Außendienstmitarbeiter verbessern und sie produktiver machen. Die elektronisch erfassten Daten können direkt über das kabelgebundene oder drahtlose Netzwerk im Freien oder durch direkte Verbindung in Innenräumen an Desktop-Computer oder Datenbankserver übertragen werden, wodurch die Arbeitsbelastung in Innenräumen reduziert wird. Schließlich wird ein Prototypsystem für die Erhebung von Tintenfischvermessungsdaten entworfen und entwickelt. Das Testergebnis zeigt, dass das System die Mängel des traditionellen Arbeitsmodus offensichtlich ausgleichen und die Effizienz der Feldarbeit verbessern kann. Es beweist auch, dass die Lösung der Meeresfischereivermessung auf Basis von Pocket PC machbar ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31003-4_71 35dae412153e5477da6050ea43497388;de;;;5.3.;;;Randomisierte Kreiserkennungsleistung basierend auf Bildschwierigkeitsstufen und Kantenfiltern Die Kreiserkennung ist eines der grundlegenden Probleme in der Bildverarbeitung. Es gibt viele Algorithmen, die für die Kreiserkennung verwendet werden, der bekannteste Algorithmus ist Circular Hough Transform (CHT), Randomized Hough Transform (RHT) und Randomized Circle Detection (RCD). Diese Algorithmen arbeiten unterschiedlich, da sie stark von Kantenbildern abhängig sind. In diesem Papier untersuchen wir die Leistung des RCD-Algorithmus, indem wir den Algorithmus auf drei Ebenen von Bildern testen. Einfache Bilder, die wenige Kanten enthalten, Bild ohne Rauschen. Moderate Bilder, Bilder enthalten mehr Kanten als einfache Bilder, mehr Kreise und überlappende Kreise. Komplizierte Bilder, Bilder enthalten eine hohe Anzahl von Kanten und mehr Formen und unregelmäßige Kreise und können andere nicht kreisförmige Formen enthalten. Darüber hinaus untersuchen wir den Einfluss und die Empfindlichkeit verschiedener Arten von Kantenerkennungsoperatoren auf die Leistung des RCD-Algorithmus. Wir haben den RCD-Algorithmus mit Sobel-, Canny-, Laplace- oder Gaussian-, Roberts- und Prewitt-Kantenerkennungsoperatoren auf den oben genannten Bildebenen getestet. Danach vergleichen wir die Leistung der RCD-Ergebnisse basierend auf Laufzeitleistung und Genauigkeit (Anzahl der erkannten Kreise) für jede Bildebene mit jedem Kantendetektor. Experimentelle Ergebnisse zeigen, dass der RCD-Algorithmus bei einfachen und moderaten Bildern eine gute Leistung aufweist und alle Kreise mit jedem Kantendetektor erkennen kann. Bei komplizierten Bildern kann der RCD den Ball (während der Ball im Bewegungsfall) im Ballverfolgungsbild nicht erkennen. RCD kann den Kreis auf dem Formenbild mit den Kantendetektoren von Canny und Prewitt und Roberts erkennen und kann mit den Detektoren von Sobel und LOG keine Verkantung erkennen. Für die zukünftige Arbeit benötigt der RCD-Algorithmus einige Modifikationen, um mit nicht-regulären Kreisen umzugehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40409-2_31 561a4fd8d7d98d19b1ee8f15290545b3;de;;;5.3.;;;Verdeckte Gesichtserkennung Die Forschung zur Gesichtserkennung hat in den letzten Jahrzehnten ein enormes Wachstum erfahren. Ausgehend von Algorithmen, die in der Lage sind, eine Erkennung in eingeschränkten Umgebungen durchzuführen, erreichen die aktuellen Gesichtserkennungssysteme sehr hohe Genauigkeiten bei umfangreichen unbeschränkten Gesichtsdatensätzen. Während kommende Algorithmen weiterhin eine verbesserte Leistung erzielen, ist die Mehrheit der Gesichtserkennungssysteme anfällig für Fehler unter getarnten Variationen, einer der schwierigsten Kovariaten der Gesichtserkennung. In diesem Artikel schlagen wir eine Methode zur Erkennung von verdeckten Gesichtern vor. Die Methode besteht aus drei Stufen. Die erste Stufe erkennt ein Gesicht. Die zweite findet Teile des Gesichts auf einer Ausgabe der ersten Stufe. Die dritte Stufe bestimmt, ob das Gesicht verkleidet ist. Experimente zeigen, dass unsere Methode vor dem komplexen Hintergrund verkleidete Gesichter in Echtzeit erkennen und eine akzeptable Erkennungsrate für verdeckte Gesichter erreichen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1465-4_50 c68556681b267738d09fc41e3191b9bf;de;;;5.3.;;;Nichtlineare Korrektur basierend auf neuronalen Tiefennetzen Mit dem globalen Klimawandel wird die Höhenerkennung in der Klimavorhersage immer wichtiger. Durch die Interferenz der Messobjekte und der Messumgebung verschieben sich die Eingangs- und Ausgangskennlinie des Drucksensors, was zu nichtlinearen Fehlern führt. Mit dem Ziel der Schwierigkeit der nichtlinearen Korrektur des Drucksensors und der geringen Genauigkeit der Korrekturergebnisse wurde ein neuronales Tiefennetzwerkmodell basierend auf der Wavelet-Funktion erstellt und der Levenberg-Marquardt-Algorithmus wird verwendet, um Netzwerkparameter zu aktualisieren, um die nichtlineare Korrektur des Drucksensors zu realisieren. Die experimentellen Ergebnisse zeigen, dass das verbesserte neuronale Tiefennetzwerk im Vergleich zum herkömmlichen neuronalen Netzmodell nicht nur die Konvergenzrate beschleunigt, sondern auch die Korrekturgenauigkeit verbessert, die Fehleranforderungen der Höhenerkennung erfüllt und eine gute Generalisierungsfähigkeit aufweist kann auf die nichtlineare Korrektur ähnlicher Sensoren erweitert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8083-3_26 0ab6f16e46376ad3c09d159b4d33b0de;de;;;5.3.;;;Ein verbessertes Benutzerauthentifizierungsschema von Hou-Wang Der Zugriff auf Internetressourcen in der Cloud-Umgebung ist einfach. Und es ist wichtig, die Privatsphäre und Vertraulichkeit der legalen Benutzer zu schützen. Kürzlich haben Hou und Wang ein robustes und effizientes Benutzerauthentifizierungsschema vorgeschlagen, das auf einem elliptischen Kurven-Kryptosystem basiert. Ihr Schema war praktisch und einfach zu implementieren. Sie behaupteten, dass ihr Schema Offline-Passwortraten, DoS, Server-Spoofing, Replay, parallele Sitzungs- und Identitätswechselangriffe abwehren könnte. In diesem Artikel werden wir zeigen, dass das Schema von Hou-Wang anfällig für den Rateing-Angriff mit Smartcard ist. In diesem Artikel schlagen wir auch ein verbessertes Benutzerauthentifizierungsschema von Hou-Wang vor, um der Schwachstelle in ihrem Schema zu widerstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1056-0_31 f92abf190a59ac3ca2e457aba276db7e;de;;;5.3.;;;Anwendung heterogener Bewegungsmodelle zur Strukturwiederherstellung aus Bewegung Schätzungen von nicht starren Strukturen werden oft unter der Annahme durchgeführt, dass eine Linearkombination einiger weniger starrer Basisformen die Verformung beschreiben kann. Die Qualität der Rekonstruktion leidet jedoch mit zunehmender Anzahl von Basisformen. Wenn ein natürliches Video (das starre, bewegliche und nicht starre Objekte zusammen mit Kamerabewegungen enthalten kann) verarbeitet werden soll, schließt die Komplexität der Bewegung die Verwendung von starren SFM-Verfahren aus. Wir schlagen vor, dieses Problem mit den Begriffen Heterogenität, Artikulation und Stationarität anzugehen. In diesem Papier präsentieren wir ein Schema zur Strukturwiederherstellung basierend auf Bewegungsklassifizierung und automatischer Auswahl von Rekonstruktionsalgorithmen für jedes Szenenobjekt. Starre, nicht-starre und gelenkige Strukturen mit niedrigem Rang werden separat rekonstruiert. Unter Verwendung von Teilsequenz-Stationaritätsgraphen werden diese zu einer kohärenten Struktur zusammengefügt. Wir haben unsere Methode mit Daten aus der Erfassung menschlicher Bewegungen zur objektiven Analyse getestet und liefern Ergebnisse zu natürlichen Videos.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37331-2_47 2ccb669cf974cbdca11d551cd811f4e9;de;;;5.3.;;;Eine Kombination aus räumlich-zeitlicher ICA und euklidischen Merkmalen für die Gesichtserkennung ICA zerlegt einen Satz von Merkmalen in eine Basis, deren Komponenten statistisch unabhängig sind. Es minimiert die statistische Abhängigkeit zwischen Basisfunktionen und sucht nach einer linearen Transformation, um einen Satz von Merkmalen als lineare Kombination statistisch unabhängiger Basisfunktionen auszudrücken. Obwohl ICA seine Anwendung in der Gesichtserkennung gefunden hat, wurde hauptsächlich räumliches ICA verwendet. Vor kurzem haben wir eine gemeinsame räumliche und zeitliche ICA-Methode untersucht und die Leistung verschiedener ICA-Ansätze unter Verwendung unserer speziellen Gesichtsdatenbank, die vom AcSys FRS Discovery-System gesammelt wurde, verglichen. In unserer Studie haben wir festgestellt, dass die raumzeitliche ICA anscheinend die räumliche ICA übertrifft und viel robuster mit besserer Leistung als die räumliche ICA sein kann. Diese Ergebnisse rechtfertigen das Versprechen der raumzeitlichen ICA zur Gesichtserkennung. In diesem Papier berichten wir über unsere Fortschritte und untersuchen die mögliche Kombination der euklidischen Distanzfunktionen und der ICA-Funktionen, um die Erfolgsrate der Gesichtserkennung zu maximieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34747-9_41 e361ea1e39e15c49a33c93a2ae93215a;de;;;5.3.;;;Design eines Produktionssystems für den Online-Druck von variablen Daten auf Basis einer Cloud-Plattform Gemäß dem Grundprinzip des variablen Datendrucks und den gängigen Herstellungsverfahren des variablen Datendrucks wird eine innovative technische Lösung für eine Netzwerkdienstplattform basierend auf XML-Technologie vorgeschlagen, um eine Dateierzeugung von variablen Datendruckaufträgen mit mehreren Datenformaten zu realisieren. Die Eingabedatei im XML-Format wird von der XML-Parsing-Technologie DOM4J und dem Formatierungsobjektprozessor XML-FO synchron in ein PPML-Format und eine Ausgabedatei im PDF-Format konvertiert. Tencent Cloud-Plattform, J2EE-Entwicklungsplattform zum Aufbau der B/S-Netzwerkarchitektur und des SSM-Integrations-Frameworks, MySQL-Datenbank für die Datenspeicherung und -verwaltung wird verwendet, um ein Cloud-basiertes Online-Druckauftragssystem für variable Daten zu entwerfen und zu implementieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3663-8_77 f8b0ab2ae291ae771ba5b578e1565f1f;de;;;5.3.;;;IKT-basierte Imkerei mit IoT und maschinellem Lernen Die Integration von Informations- und Kommunikationssystemen in verschiedene Branchen ermöglicht die Speicherung, Verwaltung und Verarbeitung von Daten und deren anschließende Umwandlung in nützliche Informationen und Wissen. Die schrittweise Integration der Informationstechnologie in die Imkerei kann zu bemerkenswerten Ergebnissen bei der Kontrolle über die Pflege der Bienenstöcke führen und die Rentabilität steigern. Das Ziel dieser Arbeit ist es, IKT-basierte Mittel bereitzustellen, um das Überleben von Bienenfamilien nach der Wintersaison vorherzusagen. Die Verfahren zur Erhebung und Verarbeitung der Daten aus Bienenstöcken werden untersucht. Mehrere Algorithmen des maschinellen Lernens werden angewendet und getestet. Die Leistungsfähigkeit der für die Vorhersage verwendeten Klassifizierungsmodelle wird geschätzt. Die Versuchsergebnisse werden präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99447-5_12 e335a3e333aac9f2e57753a7fd0d4dcd;de;;;5.3.;;;Verschlüsseln von Huffman-codierten Daten durch Ersetzen von Codewortpaaren, ohne die Bitzahl eines Paares zu ändern Dieses Papier stellt eine Methode vor, um die Huffman-Codierung mit der Verschlüsselung zu kombinieren. Die Verschlüsselung basiert auf dem paarweisen Ersetzen von Huffman-Codewörtern oder Symbolen, so dass die Summe der Codewortlängen eines ursprünglichen Paares und seines Ersatzes gleich sind. Somit bewahrt unser Verfahren Strukturen und Längen von Bitströmen, die aus der Huffman-Codierung resultieren. Dies ist dann von Vorteil, wenn ein solcher Bitstrom in einen übergeordneten Datencontainer eingebettet ist, beispielsweise eine Multimediadatei. Der Algorithmus wurde anhand von Textdaten und statischen Huffman-Wörterbüchern evaluiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44893-9_2 985a7c3b1c3f4e71577776eafb51b338;de;;;5.3.;;;Maschinenzustandsprognosen von Lüfterdaten zur Staubentfernung durch tiefe neuronale Netzwerke In der industriellen Produktion ist die Gesundheit der Maschine ein sehr wichtiges Thema. Die Gesundheit des Staubabsauggebläses ist ein herausforderndes Thema im Bereich der Maschinengesundheit. In diesem Artikel werden das Deep-Learning-Netzwerk Variational Auto-Encoder (VAE) und das Long Short-Term Memory (LSTM)-Netzwerk kombiniert, um das Gesundheitsproblem des Staubabsaugventilators zu lösen. Das Deep-Learning-Netzwerk VAE kann die Merkmale der Daten versteckten Variablen zuordnen, und das LSTM-Netzwerk kann die Zeitabhängigkeit zwischen den Daten extrahieren. Versuche zeigen, dass das VAE-LSTM-Netzwerk für Entstaubungslüfter geeignet ist und eine gute Wirkung hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4336-8_3 cc4b826e3c6fcb388758aada58ff6964;de;;;5.3.;;;Digitale Zeichenmaschine In diesem Papier werden wir uns auf das Studium digitaler Charaktere und bestehender Kreationstechnologien konzentrieren. Die Art der Charaktere nimmt zu und sie können in Zukunft viele Hauptrollen übernehmen. Digitale Charaktere müssen wie Uncanny Valley Probleme überwinden, um sicherzustellen, dass der Zuschauer sie nicht wegen ihrer geringen Glaubwürdigkeit ablehnt. Diese Aussage lässt uns die Notwendigkeit in Frage stellen, mit Metriken zu arbeiten, um den Plausibilitätsgrad eines Zeichens zu messen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21984-9_29 a933df5c21b6382a234a123c1358dd62;de;;;5.3.;;;ATIMO – Ein Tool zur Zuordnung agiler Teams Wesentlich für den Erfolg eines Projekts ist es, Teams zusammenzustellen, die die Projektanforderungen mit geringeren Kosten und höherer Qualität erfüllen. Vor diesem Hintergrund hat die vorliegende Studie ein Tool namens ATIMO entwickelt, das die Optimierungsalgorithmen verwendet;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36701-5_10 40d646c7c5770fccdf6b6a3ad5fe0e12;de;;;5.3.;;;Extraktion semantischer Beziehungen aus medizinischer Literatur basierend auf semantischen Prädikaten und SVM Die Beziehung der biomedizinischen Einheit ist der Grundstein für den Erwerb biomedizinischen Wissens. Es ist von großer Bedeutung für den Aufbau verwandter Datenbanken im biomedizinischen Bereich und die Verwaltung medizinischer Literatur. Wie schnell und genau die erforderlichen Beziehungen biomedizinischer Einheiten aus massiver unstrukturierter Literatur extrahiert werden können, ist eine wichtige Forschung. Um die Genauigkeit zu verbessern, verwenden wir Support Vector Machine (SVM), einen maschinellen Lernalgorithmus, der auf Merkmalsvektoren basiert, um Beziehungen von Entitäten zu extrahieren. Wir extrahieren die fünf Hauptbeziehungen in der medizinischen Literatur, einschließlich ISA, PART_OF, CUSES, TREATS und DIAGNOSE. Zunächst werden verwandte Themen verwendet, um medizinische Literatur aus der PubMed-Datenbank zu durchsuchen, wie z. Diese Dokumente werden als Versuchsdaten verwendet und dann zu einem Korpus verarbeitet. Bei der Auswahl von Merkmalen wird die Methode der Informationsgewinnung verwendet, um die eigenen Merkmale der einflussreichen Entitäten und die Kontextmerkmale der Entitäten auszuwählen. Auf dieser Grundlage werden semantische Prädikate als Feature hinzugefügt, um die Genauigkeit zu verbessern. Die experimentellen Ergebnisse zeigen, dass die Genauigkeit der Extraktion um 5–10 % erhöht wird. Letztlich dient das Resource Description Framework (RDF) dazu, extrahierte Beziehungen aus den entsprechenden Dokumenten zu speichern und unterstützt den späteren Abruf verwandter Dokumente.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-01078-2_2 5baea48b0de307c251b64559e80cfeae;de;;;5.3.;;;Untersuchung des Verhaltensmusters von Microblog-„Baumloch“-Benutzern mit ihren zeitlichen Eigenschaften Depressive Patienten veröffentlichen Microblog-Informationen und achten auf die Nachrichten des anderen. Nachdem einige depressive Patienten Selbstmord begehen oder aus anderen Gründen sterben, sammeln sich immer noch Mikroblog-Nachrichten und bilden so ein „Baumloch“ – ein Kanal für depressive Patienten, um ihre Verzweiflung und ihren Selbstmordwunsch auszudrücken. Unter ihnen starb 2012 ein Mikroblog-Nutzer an Depressionen und bildete mit mehr als 1,6 Millionen Nachrichten das größte Mikroblog-„Baumloch“. Basierend auf den Daten von „Tree Hole“ analysiert dieses Papier das Verhaltensmuster von Microblog „Tree Hole“-Nutzern nach den zeitlichen Merkmalen der Nachricht, um die Merkmale des Verhaltensmusters der Menge der potentiellen Risikopersonen für psychische Gesundheit zu erhalten und Bei potentiell depressiven Patienten wird festgestellt, dass die relativ hohe Inzidenzzeit von Depression und Suizid mit dem Verhaltensmuster zusammenhängt. Es können mehr personelle und materielle Ressourcen eingesetzt werden, um das Suizidpotenzial bei Depressionen während der aktiven Phase zu überwachen und zu retten, und die Ergebnisse können an die zuständigen Regierungsbehörden und sozialen Rettungsorganisationen wie dem Mikroblog Internetpolizei usw um sie dazu zu bringen, darauf aufmerksam zu machen und einen koordinierten Modus der Rettung von Staat und Gesellschaft zu bilden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-61951-0_3 b72c8eb3e8a8765839a1e6cf613c31fb;de;;;5.3.;;;Abstimmungskonventionen im grafischen Dialog: Auswirkungen von Wiederholung und Interaktion In neueren Studien zum grafischen Dialog wurde die Ebene der kommunikativen Interaktion als wichtiger Einfluss auf die Form grafischer Darstellungen identifiziert. Hier berichten wir über die Ergebnisse eines „bildhaften“ Konzeptzeichnungsexperiments, das den Beitrag von Wiederholung und Interaktionsgrad zu Veränderungen in Form von grafischen Darstellungen vergleicht. In einer Version der Aufgabe erstellen die Teilnehmer wiederholt Zeichnungen derselben Gruppe von Gegenständen. In den anderen Teilnehmer erstellen Sie Zeichnungen von verschiedenen Gegenständen. In beiden Fällen variiert, wenn das Niveau der kommunikativen Interaktion zwischen den Teilnehmern variiert, auch die Form der von dem Paar produzierten Repräsentation. Diese Ergebnisse legen nahe, dass drei verschiedene Prozesse zu Veränderungen der grafischen Form dieser Aufgaben beitragen: Üben, Reduktion und gegenseitige Modifikation. Wir schlagen vor, dass letzteres, die gegenseitige Modifizierbarkeit, für die Entwicklung neuer Konventionen wichtig ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-25931-2_28 f384b44125e8b606b97387ee79a62031;de;;;5.3.;;;comDesk: Ein kooperatives Assistenztool basierend auf P2P-Techniken Wir haben ein Desktop-Sharing-System basierend auf P2P-Techniken (Peer-to-Peer) mit dem Namen „comDesk“ entworfen und implementiert, das es Benutzern ermöglicht, die Desktop-Images auszutauschen sowie Remote-Hosts zu steuern. Mit den P2P-Mechanismen können die Benutzer die Kommunikation ohne vorinstallierte Server starten. Auch die Gleichheit der Peers ist gut geeignet, um Bildübertragungen und Operationen bidirektional zu machen. comDesk bietet auch eine grafische Benutzeroberfläche zum Beobachten, Erstellen und Verwalten der Übertragungssitzungen in einem einzigen Fenster. Die beiden letztgenannten Funktionen sind einfachen Drag-and-Drop-Operationen zugeordnet. Diese Vorgänge sind so intuitiv und weniger zeitaufwendig, dass der Benutzer durch Aufrufen dieser Funktionen sofort eine neue Sitzung starten kann. Wir erwähnen auch, dass comDesk insbesondere bei kooperativen Assistenzaufgaben effektiv arbeitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30133-2_116 4645d6ba2239cc22d798e2674706eb65;de;;;5.3.;;;Designrichtlinien für Human Interfaces für Rettungsroboter In diesem Kapitel fassen wir die Erkenntnisse und das Know-how zu den einzelnen Entwicklungen von Rettungsrobotern zusammen und versuchen, Gestaltungsrichtlinien für die Mensch-Schnittstelle von Rettungsrobotern aufzustellen. Die Leitlinien zur Bilddarstellung wurden anhand einiger Fallstudien im DDT-Projekt und RoboCupRescue erstellt. Da die etablierten Richtlinien allgemein und unabhängig vom Einsatzzweck eines Roboters sind, haben wir uns entschieden, einen standardisierten Prototyp der Bildanzeige zu bauen. Nach der Vorstellung einiger Umsetzungsbeispiele auf Basis unserer Richtlinien wird der standardisierte Bilddarstellungs-Prototyp vorgestellt. Die aufgestellten Richtlinien wären für die zukünftige Entwicklung von Rettungsrobotern hilfreich. Darüber hinaus ist die Prototyp-Bildanzeige ein gutes Beispiel für einen standardisierten Schnittstellenteststand.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84882-474-4_7 29d769ddd56dfc40fdc82b03f088f21a;de;;;5.3.;;;Entwicklung eines Körperumwandlungssystems mit Bewegtbild zur Darstellung der Körperempfindungen anderer Es gibt mehrere Probleme, die durch Unterschiede in den Körpern der Menschen im täglichen Leben verursacht werden. Zum Beispiel fühlen sich große Menschen beim Arbeiten an niedrigen Schreibtischen unwohl, während kleine Menschen hohe Plätze nicht erreichen können. Für andere Menschen ist es jedoch nicht leicht, die Körperempfindungen anderer Menschen zu erfahren. Um die Empfindungen anderer zu erfahren, glauben wir, dass es effektiv ist, Videos des Körpers einer anderen Person mit ihrem eigenen Verhalten zu verknüpfen und dadurch die physischen Maßstäbe zu erleben, die andere erfahren. Deshalb haben wir den „Ima-Spiegel“ entwickelt, der die Bewegungen des Benutzers in ein Modell mit den physischen Eigenschaften eines anderen umwandelt und das Spiegelbild auf einem Bildschirm darstellt. Die Ergebnisse der Bewertungsexperimente ergaben folgende Erkenntnisse: (1) Benutzer sind stark daran interessiert, den Körper anderer zu bewegen. (2) Benutzer empfinden Empfindungen, die ihren eigenen Sinnen entsprechen, wenn das System ihr eigenes Körpermodell verwendet. (3) Benutzer empfinden Empfindungen, die nicht ihren eigenen Sinnen entsprechen, wenn das System das Körpermodell einer anderen Person präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-2618-8_10 a6520d67fbe8d82eec6e5db8439b7d85;de;;;5.3.;;;Videooptimierung zum Testen des Lastausgleichs des Application Delivery Controllers ADC ist ein Application Delivery Controller, der flexibel Dienste für traditionelle, containerisierte und Micro-Service-Anwendungen aus einem Rechenzentrum oder einer beliebigen Cloud bereitstellt. Es bietet unübertroffene Sicherheit, überragenden L4-7-Lastausgleich und erhöhte Betriebszeit. Es ist auch bei der Skalierung von Kapazitäten bei Bedarf von Vorteil, die auch von Instanzen vor Ort und in der Cloud gemeinsam genutzt werden können. Das Testen der überlegenen Load-Balancing-Fähigkeit von ADC kann über Anwendungen erfolgen, die auf Android- und iOS-Plattformen mit YouTube-Player-APIs erstellt wurden. In diesem Artikel wird das Testen des Lastausgleichs durch sequentielles Abspielen ausgewählter Videos basierend auf einem individuell voreingestellten Profil für jedes Video erläutert. Das Ergebnis des vorgeschlagenen Systems spiegelte sich im neuen Build des ADC wider und erwies sich als effektiv bei der Erkennung von PD-Videos über HTTP, Videos mit adaptiver Bitrate über HTTP/S und der Optimierung von YouTube-ABR-Videos über QUIC.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1420-3_76 813fc42f3d586408533fd56dbfb23cc5;de;;;5.3.;;;Multiperspektivische Verzerrungskorrektur mit Kollineationen Wir präsentieren einen neuen Rahmen zur Korrektur multiperspektivischer Verzerrungen mit Kollineationen. Eine Kollineation beschreibt die Transformation zwischen den Bildern einer Kamera aufgrund von Änderungen bei der Abtastung und der Auswahl der Bildebene. Wir zeigen, dass Bildverzerrungen in vielen früheren Kameramodellen durch geeignete Kollineationen effektiv reduziert werden können. Um Verzerrungen in einer bestimmten multiperspektivischen Kamera zu korrigieren, entwickeln wir ein interaktives System, das es Benutzern ermöglicht, Merkmalsstrahlen der Kamera auszuwählen und sie an den gewünschten Pixeln zu positionieren. Unser System berechnet dann die optimale Kollineation, um die Projektionen dieser Strahlen mit den entsprechenden Pixeln abzugleichen. Experimente zeigen, dass unser System komplexe Verzerrungen robust korrigiert, ohne die Szenengeometrie zu erfassen, und die resultierenden Bilder erscheinen nahezu unverzerrt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76386-4_8 e05ca0db873cba105b1e96572df604e4;de;;;5.3.;;;Globale Optimierung in der Praxis: Eine Anwendung für die interaktive lineare Programmierung mit mehreren Zielen Ein lineares Programmierproblem mit mehreren Zielen (P) beinhaltet die gleichzeitige Maximierung von zwei oder mehr widersprüchlichen linearen Zielfunktionen über einem nichtleeren Polyeder;-;-;-;https://link.springer.com/article/10.1023/A%3A1008285515867 e1cdcda9d9a1648dc6bb15f557fae4e5;de;;;5.3.;;;Individualisierte Medikationsberatung basierend auf Pharmakogenomik Unerwünschte Arzneimittelwirkungen (UAW) sind eine Herausforderung in der modernen Gesundheitsversorgung, insbesondere aufgrund der zunehmenden Komplexität der Therapeutika, der immer älter werdenden Bevölkerung und der steigenden Multimorbidität. Unerwünschte Arzneimittelwirkungen sind weltweit eine bedeutende Ursache für Krankenhauseinweisungen und Todesfälle. Es wird geschätzt, dass jedes Jahr weltweit etwa 1/3 der Todesfälle von Patienten durch unangemessene Medikamente verursacht wurden. Statistische Daten zeigen, dass in China jedes Jahr etwa 2,5 Millionen Patienten wegen unerwünschter Arzneimittelwirkungen ins Krankenhaus eingeliefert wurden, etwa 200.000 Menschen starben direkt an unvernünftigen Medikamenten. Die Häufigkeit von unerwünschten Arzneimittelwirkungen bei Erwachsenen beträgt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-61951-0_17 1bb70585dbb1d94c8d73d5a5033b8fad;de;;;5.3.;;;Ein fortschrittlicher probabilistischer Rahmen zur Unterstützung der Screening-Mammogramm-Interpretation Brustkrebs ist weltweit die häufigste Krebsart bei Frauen. Bei einer von neun Frauen wird im Laufe ihres Lebens eine Form von Brustkrebs diagnostiziert. Um Krebs in einem frühen Stadium zu diagnostizieren, wurden Screening-Programme eingeführt, bei denen bei asymptomatischen Frauen regelmäßige mammographische Untersuchungen durchgeführt werden. Bei der Beurteilung von Screening-Fällen werden Radiologen normalerweise zwei Mammographiebilder jeder Brust präsentiert, da eine Krebsläsion dazu neigt, in verschiedenen Brustprojektionen (Ansichten) beobachtet zu werden. Die meisten computergestützten Erkennungssysteme (CAD) analysieren andererseits nur einzelne Ansichten unabhängig und berücksichtigen somit die Interaktion zwischen den Ansichten nicht, und die Brustkrebserkennung kann aufgrund der fehlenden Konsistenz der Läsionsmarkierung verschleiert werden. Dies schränkt die Benutzerfreundlichkeit und das Vertrauen in die Leistungsfähigkeit solcher Systeme ein. In diesem Kapitel schlagen wir ein einheitliches Bayes'sches Netzwerk-Framework vor, um Multi-View-Abhängigkeiten zwischen den verdächtigen Regionen auszunutzen, die von einem Single-View-CAD-System erkannt werden. Das Framework basiert auf einem mehrstufigen Schema, das die Interpretation von Mammographien durch Radiologen auf vier verschiedenen Ebenen modelliert: Region, Ansicht, Brust und Fall. Auf jeder Ebene kombinieren wir alle verfügbaren Bildinformationen für den Patienten, die von einem Single-View-CAD-System erhalten wurden, unter Verwendung einer speziellen Klasse von Bayes-Netzwerken – Modellen der kausalen Unabhängigkeit. Die Ergebnisse von Experimenten mit tatsächlichen Screening-Daten von 1063 Fällen, von denen 383 krebsartig waren, zeigen, dass unser Ansatz das Einzelansicht-CAD-System bei der Unterscheidung zwischen normalen und abnormalen Fällen übertrifft. Dies ist ein vielversprechender Schritt zur Entwicklung automatisierter Systeme, die den Screening-Radiologen eine wertvolle „Zweitmeinung“ zur besseren Beurteilung von Brustkrebsfällen liefern können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14464-6_17 fce3d7ab147e3468624081e57750bda5;de;;;2.4.;;;Vergleich der regionalen Flortaucipir-PET mit quantitativer Tau-Immunhistochemie bei drei Patienten mit Alzheimer-Pathologie: eine klinisch-pathologische Studie Das Ziel dieser Studie war ein quantitativer Vergleich der Flortaucipir-PET-Retention mit pathologischem Tau und β-Amyloid über eine Reihe von Hirnregionen bei der Autopsie.;-;-;-;https://link.springer.com/article/10.1186/s13550-020-00653-x 6465108251f5d99165b21d62ff08dd37;de;;;2.4.;;;Privatsphäre, Rede und Werte: Was wir nicht wissen In den Vereinigten Staaten ist der Vorrang des Sprachschutzes auf eine weitreichende und ungerechtfertigte Sichtweise des Wertes oder Vorrangs der freien Meinungsäußerung und des Zugangs zu Informationen zurückzuführen. Dies ist vielleicht verständlich, da die Privatsphäre als reines Interesse verstanden wurde, während die Rederechte als grundlegender angesehen wurden. Ich habe an anderer Stelle argumentiert, dass die Sichtweise des „bloßen Interesses“ auf Privatsphäre falsch ist. Privatsphäre, richtig definiert, ist eine notwendige Bedingung für das menschliche Wohlergehen oder Gedeihen. Der einleitende Abschnitt dieses Artikels gibt einen Überblick über diese Theorie. Als nächstes werde ich nach einigen Bemerkungen zu Sprachabsolutismus, Privatsphärenabsolutismus und Abwägungstheorien einige der vorherrschenden Argumentationsstränge skizzieren, die zur Unterstützung mutmaßlich gewichtiger Rederechte angeboten wurden. Obwohl diese Argumente zusammengenommen belegen, dass die freie Meinungsäußerung wichtig ist, unterstützen sie nicht die Ansicht, dass die Meinungsäußerung fast immer die Privatsphäre übertrumpfen sollte. Im letzten Abschnitt werde ich einen Weg vorstellen und verteidigen, um Meinungsfreiheit und Datenschutzansprüche auszugleichen.;-;-;-;https://link.springer.com/article/10.1007/s10676-016-9397-x c6340491736b8080962bb9843e007dc8;de;;;2.4.;;;Gewichtete statistische Binärmuster für die Darstellung von Gesichtsmerkmalen Wir präsentieren ein neuartiges Framework für eine effiziente und robuste Darstellung von Gesichtsmerkmalen basierend auf Local Binary Pattern (LBP), genannt Weighted Statistical Binary Pattern, wobei die Deskriptoren die geradlinige Topologie zusammen mit verschiedenen Richtungen verwenden. Das Eingabebild wird zunächst in Mittel- und Varianzmomente unterteilt. Durch Extraktion der Wurzel wird ein neuer Varianzmoment vorbereitet, der markante Gesichtszüge enthält;-;-;-;https://link.springer.com/article/10.1007/s10489-021-02477-1 08ea4fcc493ff05010cf8ecdcba9c95f;de;;;5.3.;;;Skript-Debugging-Strategien für Männer und Frauen Wenig Forschung hat sich mit den Skript-Debugging-Strategien von IT-Experten befasst oder untersucht, ob es bei diesen Strategien geschlechtsspezifische Unterschiede geben könnte. Welche Strategien verwenden männliche und weibliche Scripter und welche Mechanismen setzen sie ein, um Fehler erfolgreich zu beheben? Sind die Debugging-Strategien von Skriptern ähnlich oder unterscheiden sie sich von denen von Tabellenkalkulations-Debuggern? Ohne Antworten auf diese Fragen haben Tool-Designer kein Ziel, um zu unterstützen, wie männliche und weibliche Scripter beim Debugging vorgehen wollen. Wir haben eine Think-Aloud-Studie durchgeführt, um diese Lücke zu schließen. Unsere Ergebnisse umfassen (1) ein allgemeines Verständnis der Debugging-Strategien, die von Tabellenkalkulationsbenutzern und Skriptern verwendet werden, (2) die Identifizierung der zahlreichen Mechanismen, die Skripter zur Ausführung der Strategien einsetzen, und (3) detaillierte Beispiele dafür, wie diese Debugging-Strategien von Männern eingesetzt wurden und Weibchen, um Fehler erfolgreich zu beheben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00427-8_12 99e9716618ca54f8cf83d072aab34963;de;;;5.3.;;;Such- und Rettungsrobotik Um den Status der Rettungsrobotik zusammenzufassen, werden in diesem Kapitel die grundlegenden Eigenschaften von Katastrophen und deren Auswirkungen auf das Roboterdesign behandelt, die bisher tatsächlich in Katastrophen eingesetzten Roboter beschrieben, vielversprechende Roboterdesigns (z. B. Schlangen, Fortbewegung mit Beinen) und Konzepte ( B. Roboterteams oder -schwärme, Sensornetzwerke), Bewertungsmethoden in Benchmarks für die Rettungsrobotik und schließen mit einer Diskussion der grundlegenden Probleme und offenen Fragen der Rettungsrobotik und ihrer Entwicklung von einer interessanten Idee zu einer breiten Anwendung ab. Das Kapitel konzentriert sich auf die Rettungsphase, nicht auf die Wiederherstellung, mit dem Verständnis, dass Rettungsfähigkeiten auf die Wiederherstellungsphase angewendet und erweitert werden können. Der Einsatz von Robotern in der Präventions- und Vorsorgephase des Katastrophenmanagements ist nicht Gegenstand dieses Kapitels.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-540-30301-5_51 0a83551fc3cbc6eff3ed44b185a666cc;de;;;5.3.;;;Mensch-Roboter-Interaktion und Robotersteuerung Der immer stärker werdende Wunsch nach vollautonomer Robotik hat in den letzten Jahren das Interesse an der Erforschung der Interaktionen zwischen Robotern und zwischen Mensch und Roboter geweckt. Langfristiges Ziel dieses Forschungsfeldes ist der Betrieb heterogener Teams aus Robotern und Menschen unter Verwendung gemeinsamer Interaktionsprinzipien, wie beispielsweise einer gemeinsamen Form natürlicher Sprache.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84628-405-2_24 97fae46c9fe1f76a5d7809ad8296b0c3;de;;;5.3.;;;Lohnendes Fitness-Tracking – Kommunikation und Förderung von Bonusprogrammen der Krankenkassen und Nutzung von Self-Tracking-Daten In diesem Beitrag werden deutsche und australische Krankenversicherungsprogramme analysiert, die den Kunden Self-Tracking-Optionen bieten. Wir haben Aspekte der Programmwerbung, Programmziele und Datenschutzaspekte berücksichtigt. Die Ergebnisse basieren auf dem Scannen aktueller Informationen, die online über Versicherer-Websites verfügbar sind. Sieben australische und sechs deutsche Versicherer wenden Self-Tracking an. Die Programme in beiden Ländern variieren, während die meisten australischen Versicherer ihre Programme auf Drittanbieter aufbauen und deutsche Versicherer direkte finanzielle Belohnungen anbieten. Diese Unterschiede können aufgrund der unterschiedlichen Gesundheitssysteme in beiden Ländern angemessen sein. Gemeinsamkeiten in Bezug auf die Absichten der Programme sind offensichtlich. Darüber hinaus gibt es in allen Ländern Bedenken hinsichtlich der Datenpolitik. Die Belohnungssysteme und die beabsichtigten Programmziele variieren. Die Ergebnisse geben Aufschluss über den Status quo von Self-Tracking-Krankenversicherungsprogrammen und tragen zu einem besseren Verständnis der Nutzung von Self-Tracking-Daten durch Leistungserbringer bei. Darüber hinaus stellen sich weitere Fragen zum Nutzen dieser Programme und zum Schutz sensibler Self-Tracking-Daten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-91485-5_3 d65f7dd0e834f61d4f426686cd81de29;de;;;5.3.;;;Invariante Teilmengen stark stetiger Halbgruppen Sei {P(t): t≥0} eine stark stetige Halbgruppe auf einem Banachraum X und sei |\| sei eine stetige Norm auf X mit |P(t)x|≤exp(ωt)|x|, X∈X, t≥0. Sei C eine |\|-abgeschlossene konvexe Teilmenge von X und sei für jedes x in D(A) eine Folge (x;-;-;-;https://link.springer.com/article/10.1007/BF01195871 3e191c92ba9c438892ed379e6e7bd678;de;;;5.3.;;;GAIA: Ein experimenteller pädagogischer Agent zur Erforschung multimodaler Interaktion Dieser Artikel behandelt GAIA (Graphic-Audio Interface Agent), einen experimentellen Schnittstellenagenten, der in einem pädagogischen Simulationsprogramm, REM (the Re-mapping Europa Mission), verwendet wird, bei dem die Lernaufgabe die Unterscheidung bestimmter Orte auf einer Reihe von unbeschrifteten Karten ist. Die Aufgabe des Agenten besteht darin, die Lernerfahrung zu verbessern, indem er rechtzeitig kontextbezogene Hinweise liefert, die über eine Grafik-/Audioschnittstelle vermittelt werden. Faktoren, die die Fähigkeit eines solchen Agenten beeinflussen, effektive Hilfe zu leisten, wie etwa Modi der Agentenrepräsentation, werden im Zusammenhang mit unterschiedlichen Verwendungen diskutiert, die eine alternative Modusauswahl erfordern. Der experimentelle Kontext wird mit einem eingehenden Blick auf das REM-Programm untersucht. Das Papier schließt mit Kommentaren zu Audioschnittstellen, Vorschlägen für das multimodale Agentendesign und wahrscheinlichen zukünftigen Richtungen für multimodale Agentenschnittstellen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48834-0_9 50486741b0dbd68b8db51de51834571a;de;;;5.3.;;;Opportunistische Arbeitsruheplanung für produktives Altern Crowdsourcing-Plattformen sind interessant, wenn sie von Senioren für produktive Alterungsaktivitäten genutzt werden. Algorithmic Management (AM)-Ansätze helfen Crowdsourcing-Systemen, die Intelligenz und den Aufwand der Mitarbeiter auf optimierte Weise in großem Maßstab zu nutzen. Aktuelle AM-Ansätze übersehen jedoch im Allgemeinen die menschlichen Aspekte von Crowdsourcing-Mitarbeitern. Diese vorherrschende Vorstellung hat dazu geführt, dass viele bestehende AM-Ansätze keine Ruhepausen in den Crowdsourcing-Prozess einbeziehen, um den Arbeitnehmern zu helfen, die Produktivität und das Wohlbefinden langfristig aufrechtzuerhalten. Um dieses Problem anzugehen, erweitern wir das Affective Crowdsourcing (AC)-Framework, um die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-91485-5_32 dad0135ec81613a2805f6c4df6c63091;de;;;5.3.;;;Entwicklung eines Prototyps für eine berührungslose Tastatur Es gibt bestimmte Anforderungen an berührungslose Eingabegeräte wie berührungslose Tastaturen. Medizinisches Personal wie Ärzte und Pflegepersonal können aus hygienischen Gründen keine Tastaturen im Operationssaal verwenden. Selbst normale Leute können keine Tastaturen verwenden, wenn sie ein Head Mounted Display für eine vollständige VR-Umgebung verwenden, da sie die Tastaturen nicht sehen können. Um ein solches Problem zu lösen, schlagen wir vor, eine Bewegungssensorvorrichtung zu verwenden. Ein Bewegungssensorgerät ist ein Gerät zum Erfassen von Bewegungen. Es erkennt menschliche Gesten wie Händeschütteln und Fingerspitzenbewegungen. In letzter Zeit gewinnt LeapMotion als berührungsloses Eingabemittel an Popularität, aber wir können nur wenige Implementierungen von Tastaturen beobachten, die LeapMotion verwenden. In diesem Papier berichten wir über unsere Erfahrungen bei der Entwicklung eines berührungslosen Tastatursystems mit LeapMotion.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-02053-8_46 d0881d2a34ba61333ac81abe56528ea8;de;;;5.3.;;;Ein robuster Algorithmus für numerische relationale Datenbanken mit Wasserzeichen In diesem Artikel wird eine neuartige Methode untersucht, um relationale Datenbanken zum Schutz des Urheberrechts mit Wasserzeichen zu versehen. Eine neuartige Technik zum Einfügen und Erfassen von Wasserzeichen unter Verwendung einer Markierungsbitposition wird zusammen mit einem Entscheidungsfindungsalgorithmus durch Mustervergleich vorgeschlagen. Experimentelle Ergebnisse zeigen, dass das vorgeschlagene Schema robust gegenüber verschiedenen Angriffsformen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-37256-1_101 802bcbe6f7251b98bd32192e99d09335;de;;;5.3.;;;Exakte Lösungen des Variationsproblems zur Verschiebbarkeit von Hauptverschiebungs-invarianten Räumen Eine vollständige Antwort auf die Verschiebbarkeit eines Hauptverschiebungsinvariantenraums und einer skalierten Version wird gegeben. Die Kongruenz des Spektrums spielt eine Kernrolle. Sie charakterisiert im Wesentlichen die Verschiebbarkeit und den Maßstab aller Hauptverschiebungsvariantenräume. Einige Beispiele in Bezug auf die Signalanalyse werden in Verbindung mit einer Erklärung für das Scheitern der Verallgemeinerung des Shannon-Abtasttheorems vom bandbegrenzten zum Bandpassfall diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF02834905 4eef442abd2d39708c07987bd2e2bc3d;de;;;2.4.;;;Forschung zum Klassifikationsmodell des Kundenverbrauchs basierend auf RS-NN Da die Verbrauchsattribute der Kunden mehrdimensional, zusammenhängend und unsicher sind, wurde in diesem Papier ein Klassifikationsmodell für den Kundenverbrauch vorgeschlagen, das auf groben Sets und neuronalen Netzen (RS-NN) basiert. Aufgrund der grob festgelegten Charakteristika der Kundenkonsumklassifikation wurde der Forschungsrahmen dieses Papiers durch die Vorverarbeitung des Wissensraums, die Etablierung eines Klassifikationsmodells und die Anwendung des Klassifikationsmodells konstruiert. Außerdem beschreibt dieses Papier basierend auf RS auch die Reduzierung von Verbrauchsattributen, die Extraktion von Klassifikationsregeln und die ursprüngliche Topologie der RS-NN-Konstruktion, das Training und das Testen von Netzwerkmodellen. Dann zeigt eine Fallstudie zu Telekommunikationskunden, dass RS-NN in Bezug auf Konstruktion, Klassifizierungseffizienz und Vorhersagegenauigkeit besser ist als BP-NN, was bedeutet, dass RS-NN eine effektive und praktische neue Methode zur Kundenklassifizierung ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23214-5_51 cc2e0ce3c5e6c1675eac651a70367142;de;;;5.3.;;;Monokulare dichte Rekonstruktion basierend auf direkter spärlicher Odometrie Die monokulare dichte Rekonstruktion spielt in der AR-Anwendung eine immer wichtigere Rolle. In diesem Beitrag stellen wir ein neues Rekonstruktionssystem vor, das die Direct Sparse Odometry (DSO) und die dichte Rekonstruktion in einem einheitlichen Rahmen vereint. Das DSO kann selbst in einer Umgebung mit geringer Textur erfolgreich eine halbdichte Karte verfolgen und erstellen. Die dichte Rekonstruktion basiert auf der schnellen Superpixel-Segmentierung und der Ortskonsistenz. Allerdings muss noch eine große Lücke zwischen der halbdichten Karte und der dichten Rekonstruktion überbrückt werden. Zu diesem Zweck entwickeln wir mehrere ausgeklügelte Methoden, darunter eine Strategie zur Auswahl von Kartenpunkten, einen Container für die gemeinsame Nutzung von Daten und eine Koordinatensystemtransformation. Wir vergleichen unser System mit einem hochmodernen monokularen dichten Rekonstruktionssystem DPPTAM. Die Vergleichsexperimente werden mit dem öffentlichen monokularen visuellen Odometrie-Datensatz durchgeführt. Die experimentellen Ergebnisse zeigen, dass unser System eine bessere Leistung hat und robust und effektiv in Innen- und Außenszenarien laufen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7305-2_38 ead799996f94c5fd8ff7c2b3f5f8b7dd;de;;;5.3.;;;Anerkennung und Vollstreckung eines WCAM-Urteils Obwohl nach der Brüsseler Verordnung kein Verfahren eingeleitet werden muss, um eine Entscheidung in einem anderen Mitgliedstaat anerkennen und/oder vollstrecken zu lassen, enthält die Verordnung verschiedene Gründe, aus denen die Anerkennung und/oder Vollstreckung verweigert werden kann. Diese Gründe beziehen sich unter anderem auf die ordnungsgemäße Zustellung der Beteiligten, die Vorschriften über die öffentliche Ordnung in den Mitgliedstaaten, in denen die Anerkennung/Vollstreckung angestrebt wird, sowie mögliche Konflikte mit anderen Urteilen oder Verfahren in anderen Staaten. An einem kollektiven Rechtsschutzverfahren sind viele Parteien beteiligt und es hängt von der Art des Mechanismus ab, ob und wie den Beteiligten korrekt zugestellt werden muss. In diesem Kapitel wird dargelegt, ob ein WCAM-Urteil in einem anderen Mitgliedstaat nach den Regeln der Brüsseler Verordnung anerkannt und/oder vollstreckt werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-6265-186-9_12 a28ce394c697ab1361ed8a995a9d74fa;de;;;2.4.;;;Überlegungen zur Qualitätskontrolle für die effektive Integration von Neuroimaging-Daten Die Gewährleistung der Bildqualitätskontrolle (QC) für Daten, die in einem Kontext mit mehreren Modalitäten erfasst wurden, bietet erhebliche Vorteile sowohl für die Mehrebenen- als auch für die Mehrpunktanalyse. Obwohl eine Vielzahl von Algorithmen zur Neurobildanalyse existiert, bleiben die Aufgaben der multimodalen Neurobildgebungsdaten-QC und -Integration eine Herausforderung, da die Bildqualität durch zahlreiche Faktoren beeinflusst werden kann. Hier diskutieren wir die Herausforderungen der QC und der Integration von Neuroimaging-Daten und stellen zwei Beispiele für oft vernachlässigte und potenziell unterschätzte Probleme im Zusammenhang mit der QC von Diffusions-Tensor-Imaging-Daten (DTI) und deren Integration mit anderen Modalitäten vor. Insbesondere veranschaulichen wir die Herausforderungen von (1) DTI/MRT-Koregistrierung und (2) Scanner-Vibrationsartefakten, die beide repräsentative Beispiele für Schwierigkeiten sind, die sowohl die Daten-QC als auch ihre Integration betreffen. Darüber hinaus heben wir den Bedarf an automatischen Methoden hervor, die die QC von Neuroimaging-Daten behandeln können, was eine erfolgreiche Integration ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-21843-4_15 7d9061613851f5a73d8d59b9a48e9d20;de;;;2.4.;;;Vision-basiertes Tracking-System zur Korrektur der Kopfbewegung in FMRI-Bildern In diesem Artikel wird ein neues visuelles System zur Bewegungskorrektur in funktionellen MRT-Experimenten vorgestellt. fMRT ist eine beliebte Technik zur Untersuchung der Gehirnfunktionalität unter Verwendung der MRT-Technologie. In einem fMRT-Experiment muss ein Proband eine Aufgabe ausführen, während sein Gehirn von einem MRT-Scanner gescannt wird. Um eine qualitativ hochwertige Analyse zu erzielen, sollten die fMRT-Schichten ausgerichtet werden. Daher wird die Versuchsperson aufgefordert, während des gesamten Experiments Kopfbewegungen zu vermeiden. Aufgrund der langen Dauer solcher Experimente ist eine Kopfbewegung jedoch praktisch unvermeidbar. Die meisten bisherigen Arbeiten auf diesem Gebiet adressieren dieses Problem, indem sie die Kopfbewegungsparameter aus den erfassten MRT-Daten extrahieren. Daher sind diese Arbeiten auf relativ kleine Bewegungen beschränkt und können Kopfbewegungen mit Gehirnaktivitäten verwechseln. In der vorliegenden Arbeit werden die Kopfbewegungen von einem System aus zwei Kameras erfasst, die ein speziell entwickeltes Gerät am Kopf des Probanden überwachen. Das System ist unabhängig von den erfassten MRT-Daten und kann daher große Kopfbewegungen bewältigen. Darüber hinaus kann das System erweitert werden, um Bewegungen zwischen Blöcken zu bewältigen, und kann in den MRT-Scanner für Echtzeit-Updates der Scanebenen integriert werden. Die Leistung des vorgeschlagenen Systems wurde in einer Laborumgebung und in fMRI-Experimenten getestet. Es wurde festgestellt, dass selbst bei großen Kopfbewegungen eine hohe Genauigkeit erzielt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75274-5_27 f2927077985619b5790d429d1f14bf4b;de;;;2.4.;;;System zur Überwachung und Warnung des UV-Strahlungsindex: Ein Fallbeispiel an Grundschulen in Ecuador Die ultraviolette (UV) Strahlung der Sonne hat in den letzten Jahren aufgrund des Abbaus der Ozonschicht und insbesondere in Ecuador aufgrund seiner geografischen Lage und der Höhe seiner Städte zugenommen. Längere Sonnenexposition im Kindesalter erhöht das Risiko bösartiger Wirkungen an Haut und Augen, wie Plattenepithelkarzinom, Melanom und Katarakt. Aus diesem Grund beschreibt dieses Dokument den Aufbau eines Gerätes auf Basis von UV-optischen Sensoren, mit dem der vorhandene Strahlungsindex bestimmt werden kann. Als Recheneinheit dient das Embedded Board Raspberry Pi 3B+ und zur physikalischen Darstellung der Daten LED-Panels. Die Speicherung der Informationen erfolgt über eine von MySQL verwaltete und ebenfalls auf dem Board implementierte Datenbank. Die Werte des Ultraviolettstrahlungsindex (UVI) werden in Echtzeit über eine grafische Benutzeroberfläche (GUI) dargestellt, die auch die Erstellung eines Berichts in einer .csv-Datei ermöglicht. Im zentralen Innenhof zweier Bildungseinrichtungen wurden Funktionstests durchgeführt, um Eltern und Behörden für präventive Maßnahmen zu sensibilisieren, die mögliche Hautschäden von Kindern bei Outdoor-Aktivitäten vermeiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58817-5_60 4651038a7a9b2f570795bf612d55ffc8;de;;;5.3.;;;Virtuelle Reisegemeinschaften: Selbstberichtete Erfahrungen und Zufriedenheit Virtuelle Gemeinschaften haben die Art und Weise, wie Menschen interagieren, revolutioniert und haben als tragfähiges Geschäftsmodell wichtige Auswirkungen auf das Marketing, insbesondere in der Tourismusbranche. Virtuelle Reisegemeinschaften (VTCs) bieten im Allgemeinen Serviceleistungen, die von Community-Mitgliedern gesucht werden, zusammen mit angenehmen VTC-Erlebnissen. Dies ist eine herausfordernde Aufgabe, da mehrere Faktoren, soziale, psychologische und verwendete Technologie, zur Zufriedenheit der Endbenutzer mit VTCs beitragen. Diese Studie untersuchte Erfahrungen von VTC-Mitgliedern mit unterschiedlichen Zufriedenheitsgraden in sieben VTCs mit der Inhaltsanalyse-Software CATPAC. Implikationen für Technologiedesigner und virtuelle Community-Manager werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-211-69566-1_16 c14aed86bcd5cec68dc62380e0d266ed;de;;;2.4.;;;Asset-Value-Spiel und seine Erweiterung: Berücksichtigung vergangener Maßnahmen 1997 wurde ein Minderheitenspiel (MG) als nicht kooperatives, iteriertes Spiel mit einer ungeraden Anzahl von Agenten vorgeschlagen, die Gebote abgeben, ob sie kaufen oder verkaufen. Seitdem wurden viele Varianten des MG vorgeschlagen. Der gemeinsame Nachteil ihrer Eigenschaften besteht jedoch darin, die vergangenen Aktionen über eine konstante Erinnerung hinaus zu ignorieren. Daher ist es schwierig, tatsächliche Auszahlungen von Agenten zu simulieren, wenn das vergangene Preisverhalten einen signifikanten Einfluss auf die aktuelle Entscheidung hat. In diesem Beitrag stellen wir eine neue Variante des MG, Asset Value Game (AG) genannt, und seine Erweiterung, Extended Asset Value Game (ExAG) vor. Da jeder Agent in der AG darauf abzielt, die durchschnittlichen Anschaffungskosten seines Vermögenswerts zu senken, berücksichtigt er automatisch die vergangenen Aktionen. Der AG ist jedoch zu einfach, um die gesamte Marktdynamik zu reproduzieren, dh es kann eine gewisse Zeitverzögerung zwischen dem Preis und seiner Aktion geben. Daher betrachten wir die ExAG weiter unter Verwendung probabilistischer Aktionen und vergleichen sie durch Simulation.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36907-0_21 84e513d144b768432272ccf79b8b982d;de;;;2.4.;;;Storytelling Digital: Erfahrung und Technologie in der Gestaltung von Tele-Kollaborationsprojekten in der Hochschulbildung Die vorliegende Untersuchung analysiert die prägenden Erfahrungen von Lehrern für Bildungstechnologie und Innovation an der Universidad Técnica del Norte – Imbabura-Ibarra-Ecuador bei der Ausarbeitung eines digitalen Geschichtenerzählens im Rahmen des Tele-Kollaborationsprojekts unter der ABP-Methodik, das mit Video durchgeführt wurde und Geschichten, die aus einer traditionellen Geschichte für Schüler der Erstausbildung hervorgegangen sind. Der Grad des Erwerbs von Fähigkeiten, die auf niedrigem, mittlerem und hohem Niveau bewertet werden, wurde überprüft. Sie wurden in vier Aspekte eingeteilt: digitale, narrative, kreative und didaktische Kompetenzen. Das Konstrukt wurde mit statistischen Tests von RStudio validiert, wobei die Komponente Erfahrung in Telekollaborativen Projekten mit 86,13 % positiv bewertet wurde, das Design Telekollaborative Projekte 80,69 %, Digital Storytelling 80,47 % und Niveaubewertung in Fähigkeiten 66,49 %. Es wird geschlussfolgert, dass ein Storytelling eine nützliche und nachhaltige Ressource für das Lernen ist, da es motiviert, Werte vermittelt, kritisches Denken und soziale Fähigkeiten entwickelt und die Erfahrung in der Unterrichtspraxis sehr erfolgreich ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71503-8_12 e5e198bb4af338d65bf27b0ff72cf7ed;de;;;2.4.;;;Sicherheits-SLA in Rechenzentren der nächsten Generation, der SPECS-Ansatz Rechenzentren der nächsten Generation (ngDC) bieten eine bedeutende Weiterentwicklung bei der Bereitstellung von Speicherressourcen. Es handelt sich um Cloud-basierte Architekturen, die flexible IT-Infrastruktur und -Dienste durch die Virtualisierung von Ressourcen bieten: integrierte Verwaltung von Rechen-, Netzwerk- und Speicherressourcen. Trotz der Vielzahl von Vorteilen, die bei der Nutzung einer Cloud-Infrastruktur zur Verfügung stehen, stößt die breite Cloud-Einführung für sensible oder kritische Geschäftsanwendungen immer noch auf Widerstand. Einer der wichtigsten einschränkenden Faktoren, die eine größere Akzeptanz von Cloud-Diensten verhindern, ist Vertrauen. Um dies zu bewältigen, benötigen Rechenzentrumskunden mehr Garantien hinsichtlich der bereitgestellten Sicherheitsstufen, wodurch Tools zur dynamischen Aushandlung und Überwachung der Sicherheitsanforderungen erforderlich werden. Das SPECS-Projekt schlägt eine Plattform vor, die Sicherheitsfunktionen mit einem;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-62594-2_8 f87d9a9812d6f4123099321a3104ab38;de;;;2.4.;;;Ein Multi-Attribute-Entscheidungsmodell zur Verbesserung ineffizienter Industrieparks Obwohl einige Länder in den letzten Jahren eine Revitalisierung vorgeschlagen haben, um das Problem ineffizienter Industrieparks anzugehen, gibt es nur wenige Untersuchungen zu den Ursachen ineffizienter Industrieparks – obwohl dies bei der Formulierung von Verbesserungsstrategien und der weiteren Ressourcenallokation helfen würde. Diese Studie stellt einen Bewertungsrahmen für die Ursachen ineffizienter urbaner Industrieparks auf Basis eines neuartigen hybrid modifizierten Multi-Attribute-Entscheidungsmodells in realen Fällen vor, das drei Dimensionen und 10 Kriterien umfasst. Es wurden zwei Fälle von „durch Stadtplanung ausgewiesenen Industrieparks“ in Taiwan untersucht. Die Ergebnisse des Decision-Making Trial and Evaluation Laboratory (DEMATEL) und der DEMATEL-Technik basierend auf dem Grundkonzept des analytischen Netzwerkprozesses zeigten, dass die Paketdimension (;-;-;-;https://link.springer.com/article/10.1007/s10668-020-00613-4 c4d012ed20fbecde1f3357758e558cd4;de;;;2.4.;;;Messung der Lichtreflexion mit mobilen Geräten In diesem Artikel schlagen wir eine Methodik vor, um die Lichtreflexion der Materialoberfläche mit einem einfachen Hardware-Setup bestehend aus allgemein verfügbaren Mobiltelefonen zu messen. Das entwickelte Verfahren umfasst zwei Mobiltelefone, um ein zeitaufwendiges Verfahren zu erleichtern. Ein Gerät dient uns als Lichtquelle und das zweite als Detektorblende. Der Benutzer bewegt zwei Telefone mit beiden Händen über einer gemessenen Probe, und das Verfahren berücksichtigt nur die korrekt aufgenommenen Bilder. In dieser Arbeit schlagen wir eine Methode vor, um die Blickrichtung einer Telefonkamera und einer Lichtquelle zu schätzen. Ein weiteres Problem, das wir lösen, ist die schnelle Wi-Fi Direct-Gerätekommunikation. Wir skizzieren die Aufzählung der bidirektionalen Reflexionsverteilungsfunktion (BRDF) aus den von den planaren Proben reflektierten Lichtintensitäten. Wir präsentieren die zufriedenstellenden Ergebnisse, die mit Handykameras in ungezwungener Umgebung gemessen wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2850-3_3 555110ccedd341446bc855f131b8d698;de;;;2.4.;;;Greifkraftkontrolle der Prothesenhand basierend auf PCA und SVM In dieser Arbeit wird eine Methode zur Kontrolle der Greifkraft der Handprothese vorgestellt. Zuerst werden die korrelierten Merkmale des Oberflächenelektromyogramm-(sEMG)-Signals berechnet, das von MYO gesammelt wurde, und dann wird die Dimensionsreduktion der Hauptkomponentenanalyse (PCA) verarbeitet. Gemäß Musterklassifizierungsmodell und sEMG-Kraftregressionsmodell, das auf der Support Vector Machine (SVM) basiert, um den Kraftvorhersagewert zu erhalten. Bei diesem Ansatz wird die Kraft in verschiedene Grade unterteilt. Der vorhergesagte Kraftwert wird als gegebenes Signal verwendet, und die Greifkraft der Handprothese wird durch einen Fuzzy-Controller gesteuert und mit einem Vibrations-Feedback-Gerät kombiniert, um den Greifkraftwert an den Arm des Patienten zurückzugeben. Die Testergebnisse zeigen, dass die Methode der prothetischen Handgreifkraftkontrolle effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-6370-1_22 315983c06dac7bf6a16ba6933f7d5882;de;;;2.4.;;;Entwicklung zur intelligenten Landwirtschaft durch drahtlose Sensornetzwerke Das Papier schlug eine Plattform zum Sammeln und Analysieren vor, indem landwirtschaftliche Informationen für die Echtzeitumgebungen von abgelegenen Kulturpflanzen verwendet werden. Die Plattform besteht aus Infrastrukturschicht, Netzwerkübertragungsschicht und Anwendungsdienstschicht, die Temperatur, Licht, Feuchtigkeit usw. erfassen und speichern können. Und es kann auch die grundlegenden Informationen pflegen und die Daten analysieren. Das Ergebnis zeigt, dass die Methode nützlich und wirksam ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44085-8_6 fbf273075a335c132e671ff3ddab6de4;de;;;2.4.;;;Eine Methode zur UAV-Echtzeit-Bildsimulation basierend auf einem hierarchischen Degradationsmodell Im UAV-Flugsimulations-Trainingssystem wird eine große Anzahl von Echtzeit-Bildproben von unbemannten Luftfahrzeugen (UAV) benötigt. Um das Fehlen einer Bildquellensituation zu mildern, wird das Verfahren zum Simulieren eines UAV-Echtzeitbildes vorgeschlagen. Zunächst werden die Abbaufaktoren analysiert. Dann wird das hierarchische Degradationsmodell erstellt und das Verfahren der Echtzeit-Bildsimulation angegeben. Schließlich wird dieses Verfahren auf der Visual C++-Plattform simuliert und die Erzeugung von UAV-Echtzeitbildern mit einer Vielzahl von Defekten realisiert. Die experimentellen Ergebnisse zeigen, dass die Simulationsbilder realistisch sind, die Anforderungen des UAV-Flugsimulationstrainingssystems erfüllen und diese Methode eine hohe Effektivität und Praktikabilität aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54924-3_21 78c2fb44840b3500e3804c756472572d;de;;;2.4.;;;Schnelle MAP-basierte Super-Resolution-Bildrekonstruktion auf GPU-CUDA Die traditionellen hochauflösenden Bildrekonstruktionsverfahren zur Optimierung und Implementierung sind für einen gemeinsamen Prozessor (CPU) ausgelegt. Entsprechend der parallelen Rechenfähigkeit von GPU-CUDA wird ein schnelles superauflösendes Bildrekonstruktionsverfahren basierend auf GPU-CUDA vorgestellt. Darüber hinaus haben wir das MAP-Framework vorgeschlagen, das Subpixel-Verschiebungsinformationen von Bildern mit niedriger Auflösung dem einheitlichen hochauflösenden Bildraster zuordnen kann. Auf der Grundlage der parallelen Architektur und der Hardwareeigenschaften der GPU verwendet das Beschleunigungsverfahren das programmierbare parallele CUDA-Framework, um die Datenspeicherstruktur zu optimieren, die Effizienz des Datenzugriffs zu verbessern und die Komplexität des Algorithmus zu reduzieren. Das Experiment drückte aus, dass wir mit dieser Methode einen mehr als zehnfachen Geschwindigkeitseffekt erzielen könnten als mit herkömmlichen hochauflösenden Bildrekonstruktionsmethoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45737-5_17 d721a78db0ce863dd27d5ff6622ff451;de;;;2.4.;;;Erkennung von Bankeinlagennummern mithilfe eines neuronalen Netzes Während des normalen Bareinzahlungsprozesses trägt der Bankkunde die Kontonummer, den Bargeldbetrag und den Namen des Kontoinhabers bei der Bank in den Beleg ein und gibt dann die Kontonummer und den Betrag manuell in den Computer ein. Wenn mehrere Kunden gleichzeitig vorhanden sind, dauert der Vorgang einige Zeit und manchmal macht der Banker Fehler beim Lesen oder Eingeben der Daten. Der Erkennungsprozess wurde durch die Integration von Techniken der künstlichen Intelligenz durchgeführt: Bildvorverarbeitung und neuronales Netz. Bildverarbeitungstechniken wurden verwendet, um das geschriebene Zeichen auf dem Zettel zu extrahieren. Danach wurden die extrahierten Zeichen an die Erkennungsphase übergeben, in der das Neuronale Netzwerk die eingegebenen Zeichenmuster identifiziert. Ergebnisse: Wir testeten die vorgeschlagene Methode unter Verwendung von 40 Bareinzahlungsscheinen mit zu testenden Zahlen. Um die Erfolgsquote der Erkennung zu testen, wurden insbesondere 3 neuronale Netze mit 40, 50 und 60 Trainingsdaten verwendet. Durch Experimente hatte das vorgeschlagene System erfolgreich mindestens 90% der Schriftzeichen auf Bareinzahlungsscheinen erkannt. Mit dem vorgeschlagenen Ansatz haben wir eine automatische Bankeinzahlungsnummer-Erkennung entwickelt, die in der Lage ist, die handschriftliche Kontonummer und Betragsnummer auf dem Bareinzahlungsschein zu erkennen und so den Bareinzahlungsprozess am Bankschalter zu automatisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22170-5_30 5c9d654e3a4a400000c1286aed2cec15;de;;;2.4.;;;Ein neuartiger virtueller kraftbasierter Datenaggregationsmechanismus mit mobiler Senke in drahtlosen Sensornetzwerken Beachten Sie, dass die Übertragungsverzögerung in drahtlosen Sensornetzwerken bei den meisten Echtzeitanwendungen auf einen bestimmten Bereich beschränkt sein sollte. Die Sensoren liefern Daten über große Entfernungen an eine Senke und verbrauchen ihre Energie. Somit wird eine mobile Senke, die innerhalb des interessierenden Bereichs hin und her geht, um die von den Sensoren gesammelten Daten zu sammeln, als ein effektives Verfahren angesehen, um die Datenerfassung von überwachenden Sensorknoten zur mobilen Senke innerhalb einer kurzen Kommunikationsreichweite sicherzustellen. In diesem Beitrag wird ein neuartiger virtueller kraftbasierter Datenaggregationsmechanismus mit mobiler Senke in drahtlosen Sensornetzwerken vorgeschlagen. Zunächst wird ein hierarchischer Hybrid aus genetischem Algorithmus und Partikelschwarmoptimierung für verteiltes Clustering eingeführt und das gesamte Gebiet in mehrere Gitter unterteilt. Zweitens wird die virtuelle Krafttheorie verwendet, um die virtuelle Abstoßungskraft von Grenze, Hindernissen und leeren Flächen und die virtuelle Anziehungskraft der Sensorknoten ohne Durchquerung zu berechnen. Durch die Kombination aller virtuellen Kräfte nach Richtungsvektoren kann die Verweilzeit für die mobile Senke und die Koordinate des nächsten Rendezvous-Punktes aus der Kraftgröße, -richtung und der Anzahl benachbarter Cluster berechnet werden. Die optimale Bewegungstrajektorie des Senkenknotens wird dann erhalten, um eine hohe Effizienz und Energieeinsparung zu erreichen. Folglich kann der Datenaggregationsbaum dynamisch zum Sammeln von Daten erstellt werden. Schließlich bewegt sich der mobile Senkenknoten entlang der Rendezvous-Punkte, um die Daten von Sensorknoten innerhalb des Kommunikationsbereichs gemäß dem ausgewählten Bewegungspfad zu aggregieren. Simulationsergebnisse zeigen, dass der vorgeschlagene Mechanismus in Bezug auf effiziente Datenaggregation, Energieeinsparung und die Pfadlänge der mobilen Senke eine bessere Leistung als bestehende Algorithmen erzielen kann.;-;-;-;https://link.springer.com/article/10.1007/s10586-018-1833-8 b910a925f2195041333ce9caa058a887;de;;;2.4.;;;Können motorische und kognitive Rehabilitation zusammenarbeiten? Das Beispiel der Behandlung der räumlichen Orientierungslosigkeit nach einem Schlaganfall Unsere Arbeit zielt darauf ab, zu evaluieren, ob die motorische Rehabilitation und Behandlung kognitiver Symptome einen synergistischen Beitrag zur Genesung des Patienten nach einem Schlaganfall leisten können. Zu diesem Zweck wurde ein Fall einer Hemiparese der unteren Gliedmaßen aufgrund eines chronischen Schlaganfalls in einer Rehabilitationsbehandlung mit der Lokomat-Technologie für das Gehen untersucht. Gleichzeitig wurde die kognitive Erholung bei topografischer Desorientierung mit dem Einsatz von Virtual-Reality-Simulationen behandelt, die speziell für die klinische Intervention entwickelt wurden. Nach einem Zeitraum von vier Wochen (zwölf einstündige Sitzungen) zeigte der Teilnehmer (ein 48-jähriger männlicher Patient) eine verbesserte Fähigkeit bei kognitiven Aufgaben, die eine Orientierung in nicht simulierten und virtuellen Umgebungen erfordern, und eine durch die Physiotherapie wertvolle Verbesserung des Gehens Standards. Die Daten werden im Rahmen des Embodied Rehabilitation Ansatzes diskutiert und unterstreichen, wie kognitive und motorische Rehabilitation für die Wiederherstellung der räumlichen Orientierung nach neurologischen Verletzungen zusammenarbeiten müssen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-16785-1_2 fb5e4a5e3a2036beae853e740d5bc938;de;;;2.4.;;;Erweiterte Bayessche Helmholtz-Stereopsis für die verbesserte geometrische Rekonstruktion komplexer Objekte Helmholtz-Stereopsis ist eine fortschrittliche 3D-Rekonstruktionstechnik für Objekte mit beliebigen Reflexionseigenschaften, die Oberflächenpunkte sowohl durch Tiefe als auch Normale eindeutig charakterisiert. Traditionell wird bei der Helmholtz-Stereopsie die Konsistenz von Tiefen- und Normalschätzungen eher angenommen als explizit erzwungen. Darüber hinaus leistet die konventionelle Helmholtz-Stereopsie;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25117-2_14 6e40894d45185e1b68e1e892d39d84b2;de;;;2.4.;;;Studie zur Bildverbesserungsmethode zur Erkennung von Zielen bei geringer Beleuchtung Die Zielerkennung bei geringer Beleuchtung ist ein beliebtes Thema in der Computer Vision. Diese Studie untersuchte das Problem der Zielerkennung mit geringer Genauigkeit, die durch Bildaliasing und Rauschen verursacht wird und in einer Umgebung mit geringer Beleuchtung auftrat. In dieser Arbeit haben wir zuerst den Abbildungsmechanismus analysiert. Dann wurden eine nationale Standardbilddatensammelumgebung und ein Sammelstandardverfahren eingerichtet. Auf dieser Grundlage haben wir die Eigenschaften von Bildern mit geringer Beleuchtung extrahiert und die Beziehung zwischen Bildgebungsumgebung, Probensammlung und Mask R-CNN-Zielerkennung bestimmt. Schließlich haben wir einen Bildverbesserungsalgorithmus für die Zielerkennung bei geringer Beleuchtung vorgeschlagen, der die Robustheit und Erkennungsgenauigkeit deutlich verbessert. Dieser Algorithmus erweitert auch den Anwendungskontext der Zielerkennung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0503-1_24 892b8e2837891f968676f2aa862c16b2;de;;;2.4.;;;Handvenen-Authentifizierungssystem mit dynamischem ROI Dieses Papier präsentiert ein effizientes Authentifizierungssystem basierend auf dem Handvenenmuster. Die Phasen des Authentifizierungssystems für Venenmuster sind Bilderfassung, Extraktion der Region of Interest (ROI), Bildverbesserung, Binarisierung, Ausdünnung, Merkmalsextraktion und -vergleich. Wir schlagen einen Algorithmus zur Extraktion des dynamischen ROI aus dem Handvenenbild vor. Der Vorteil der dynamischen ROI-Extraktion besteht darin, dass die für verschiedene Handbilder extrahierte ROI in der Größe variiert, wenn die Größe der Hand variiert, und es möglich ist, mehr Merkmale aus einer größeren Hand zu extrahieren, was ansonsten mit einem festen ROI nicht möglich wäre. Ein neuer Ausdünnungsalgorithmus wird verwendet, um ein Pixel dickes Medialachsen-Venennetzwerk aus dem dynamischen ROI zu extrahieren und die Ergebnisse mit dem Ausdünnungsalgorithmus von Matlab zu vergleichen. Das resultierende ausgedünnte Bild kann einige Artefakte enthalten, und wir schlagen einen Algorithmus vor, um diese Artefakte zu entfernen. Die Minutienmerkmale, die die geometrischen Informationen des Venenmusters darstellen, werden extrahiert, die Verzweigungs- und Endpunkte sind. Schließlich wird ein Matching-Algorithmus zur Authentifizierung angewendet. Das vorgeschlagene System ist effizient und weist die niedrigste Fehlerquote auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40576-1_20 e8e0c41f8faab91c9b5ce23f5061b7d5;de;;;2.4.;;;Übereinstimmung zwischen der regionalen koronaren Vasodilatatorkapazität und der entsprechenden Umfangsbelastung bei Personen mit normalem und steigendem Körpergewicht Es sollte die Beziehung zwischen der regionalen koronaren Vasodilatatorkapazität und der myokardialen Umfangsbelastung in Ruhe bei normalgewichtigen, übergewichtigen und adipösen Personen mit normaler globaler linksventrikulärer Funktion definiert werden;-;-;-;https://link.springer.com/article/10.1007/s12350-012-9570-5 21aa6022ade8388007bf1cdd400136b8;de;;;2.4.;;;Erkennung von Fingervenen-Präsentationen mit optimierten LBP-Varianten Fingervenen-basierte Authentifizierungssysteme haben sich als vielversprechend bei der Identifizierung einer Person erwiesen. Das System ist jedoch immer noch sehr anfällig für Präsentationsangriffe. Präsentationsangriffe gehören zu den am häufigsten vorkommenden Angriffen in typischen biometrischen Systemen. Ein gedrucktes Fingervenenbild könnte verwendet werden, um das System mit Leichtigkeit zu umgehen. Um einem solchen Problem zu begegnen, wurden verschiedene Verfahren zur Erkennung von Präsentationsangriffen auf der Grundlage von Textur- und Lebendigkeitsanalysen vorgestellt. In diesem Artikel ist es unser Ziel, Hyperparameter-Tuning auf Local Binary Pattern anzuwenden, um die besten Funktionen für die Erkennung von Präsentationsangriffen bei der Fingervenenerkennung zu erhalten. Mithilfe eines automatisierten Hyperparameter-Tuning-Ansatzes finden wir eine Reihe von optimierten Parametern, die in der Lage sind, die besten Funktionen für die Erkennung von Präsentationsangriffen zu extrahieren. Die Versuchsergebnisse zeigen, dass das vorgeschlagene Verfahren eine signifikant hohe Genauigkeit bei der Unterscheidung echter Bilder von gefälschten Bildern liefern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6835-4_31 347babc8a365f62c303867b946190c4a;de;;;2.4.;;;Integriertes Schnittkraftmesssystem basierend auf MEMS-Sensor zur Überwachung des Fräsprozesses Im Herstellungsprozess ist die Stabilität des Schneidzustands besonders wichtig für die Verarbeitungsqualität. Die Überwachung der Schnittkraft ist seit langem ein Forschungs-Hotspot. In diesem Beitrag wird ein integriertes Schnittkraftmesssystem basierend auf einem piezoresistiven MEMS-Sensor zur Messung von Axialkraft und Drehmoment im Fräsprozess vorgeschlagen. Basierend auf dem dünnwandigen Zylinder und der Bogenstruktur wird das Spannungswandlerelement der zusammengesetzten geteilten Struktur aus konischem und zylindrischem Mantel entwickelt, um Schnittkräfte zu erfassen. Die Eigenfrequenz des vorgeschlagenen Elements hat eine große Verbesserung der Dehnungserfassungsempfindlichkeit, die den meisten Schneidsituationen gerecht wird. Ein piezoresistiver MEMS-Sensor, der als sensitives Bauteil konzipiert ist und im Schneidkraftmesssystem eingesetzt wird. Wenn der elastische Körper einer Schnittkraft ausgesetzt war, erfassen die auf dem Element angeordneten piezoresistiven MEMS-Sensoren die Verformung und geben Spannungssignale aus, um die Änderung der Schnittkraft aufzudecken. Um die grundsätzliche Leistungsfähigkeit des Schnittkraftmesssystems zu verifizieren, werden statische Kalibrierung und modale Schlagversuche durchgeführt. Die Ergebnisse zeigen, dass die ursprüngliche Empfindlichkeit des Sensors 2,85 × 10 . beträgt;-;-;-;https://link.springer.com/article/10.1007/s00542-020-04768-y 7e1b7c62f861bf8a3b52a81f549e7531;de;;;2.4.;;;FPGA-Design eines ADC-basierten Analogeingangsmoduls vom SAR-Typ für industrielle Anwendungen Speicherprogrammierbare Steuerungen (SPS) werden mit analogen und digitalen Ein- und Ausgabemodulen verbunden, um physikalische Größen zu verarbeiten, die auf den gewünschten Werten gehalten werden sollen. Jedes Modul verfügt über einen Prozessor zur Verarbeitung analoger oder digitaler Signale. In diesem Dokument wurden analoge Eingangsmodule (AIM) mit einem feldprogrammierbaren Gate-Array (FPGA) entwickelt. Es hat einen Digital-Analog-Wandler (DAC), Komparator und FPGA für einen Einkanal-Analog-Digital-Wandler (ADC) verwendet. Es wird zu einem analogen Eingangsmodul (AIM), wenn ein DAC und ein Komparator für jedes Hinzufügen eines Kanals zum FPGA hinzugefügt werden. Die Wandlungszeit eines prozessorbasierten AIM beträgt n*t;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6229-7_8 d3b5205f7aedbb5494aa69d2523c2f1b;de;;;2.4.;;;Plattform des mobilen Informationsdienstes für Netzwerke Dieses Kapitel stellt hauptsächlich die Architektur der mobilen Informationsdienstplattform für Netzwerke vor. Die detaillierte Geschäftsprozessbeschreibung wird für das Optimierungs-Subsystem der Ressourcenplanung, das Online-Überwachungs-Subsystem der Netzwerktransaktion und das Online-Verkehrsanalyse- und Dienst-Subsystem gegeben. Im sechsten, siebten und achten Kapitel werden basierend auf der Plattform die neuesten Arbeiten des mobilen Informationsdienstes für Netzwerke in drei Aspekten vorgestellt: intelligenter Verkehr, intelligenter Tourismus und mobiles Bezahlen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4569-6_5 bff81b1ed2b463a7bd5909ef9635db2e;de;;;2.4.;;;Ein Überblick über das 3D-TV-System mit Tiefenbildbasiertem Rendering Das tiefenbasierte 3D-System gilt als starker Kandidat des 3D-TV der zweiten Generation, dem das stereoskopische 3D-TV vorausgeht. Die Datenformate umfassen ein oder mehrere Paare gekoppelter Texturbilder und Tiefenkarten, die oft als Bild-plus-Tiefe (2D + Z), Multi-View-Video plus Tiefe (MVD) und Layered Depth-Video (LDV) bezeichnet werden. Mit den Tiefeninformationen können mit einer Tiefenbild-basierten Rendering-(DIBR)-Technik neuartige Ansichten an beliebigen Blickpunkten synthetisiert werden. Auf diese Weise kann das tiefenbasierte 3D-TV-System stereoskopische Paare mit einer einstellbaren Grundlinie oder mehrere Ansichten für autostereoskopische Anzeigen bereitstellen. Dieses Kapitel gibt einen Überblick über die Schlüsseltechnologien dieses tiefenbasierten 3D-TV-Systems, einschließlich Inhaltsgenerierung, Datenkomprimierung und -übertragung, 3D-Visualisierung und Qualitätsbewertung. Wir werden auch einige Herausforderungen vorstellen, die die Kommerzialisierung der tiefenbasierten 3D-Videoübertragung behindern. Schließlich werden auch einige internationale Forschungskooperationen und Standardisierungsbemühungen kurz diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-9964-1_1 eba17868a00d7754ca2588f8a438a5d7;de;;;2.4.;;;Einfluss der Sensorauswahl auf die Beobachtung einzelner Teilentladungswellenformen Teilentladungen (PD) sind ein häufiges, jedoch unerwünschtes Phänomen in Hochspannungskomponenten und -systemen. Die Erkennung und Erkennung von TE erfordert aufgrund ihrer Hochfrequenz- und Niederamplitudencharakteristik empfindliche und optimal ansprechende Messsensoren. Für die phasenaufgelöste (PRPD) Analyse in Wechselstromanwendungen sind bestehende Systeme gut etabliert. Herausforderungen ergeben sich jedoch bei der Analyse einzelner Entladungswellenformen. Dies gilt insbesondere für DC-Anwendungen, bei denen die Erkennung verschiedener Arten von TE-Wellenformen mehr Empfindlichkeit und Genauigkeit erfordert als die typische Muster- oder Trenderkennung in AC-Anwendungen. Das Zeitverhalten und die Bandbreite von Messsensoren wirken sich auf die TE-Wellenformmessungen aus. IEC60270 enthält Abschnitte zu TE-Messungen mit Gleichspannung, definiert jedoch keine Standardmethode. Im Allgemeinen gibt es keine speziellen Standards oder Messrichtlinien für DC-PD-Messungen, und viele ziehen es vor, vorhandene AC-PD-Methoden für DC-Messungen anzuwenden. In diesem Beitrag wird zum einen das unterschiedliche Ansprechverhalten mehrerer Sensoren untersucht und zum anderen deren Eignung für die TE-Messung bewertet. Eine einzelne Entladungsquelle (Van-der-Graff-Generator) befindet sich in einer reflexionsarmen Kammer, um mehrere Sensoren mit hoher Bandbreite zu versorgen, darunter Pearson-Spulen, Hochfrequenzstromwandler (HFCTs), Shunts sowie d-dot und b-dot Sensoren. Die Leistung eines Van-der-Graff-Generators ist erheblich größer als die eines PD. Dennoch ermöglicht diese erste Bewertung eine ungestörte und kontrollierte Analyse der Sensoreigenschaften mit einer einzigen Entladungsquelle. Als nächstes werden handelsübliche Kopplungsgeräte und eine Koronaquelle in den Sensorvergleich einbezogen. Dieses Papier versucht nicht, alle verschiedenen Arten und Formen der Entlassung zu identifizieren. Mit einem besseren Verständnis der Sensorreaktion zusammen mit den Frequenz- und Zeiteigenschaften bestimmter PD-Ereignisse kann jedoch ein am besten geeigneter Sensor für jedes Szenario ausgewählt werden, wodurch die Validität und Repräsentativität der Daten verbessert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-31680-8_67 ddbff2fe13ecb1dcc816d91d56781480;de;;;2.4.;;;Eine einfache und kostengünstige HIL-Lösung zur Steuerung von leistungselektronischen Umrichtern Leistungselektronische Wandler spielen eine entscheidende Rolle bei der Umwandlung der verfügbaren Spannung in die erforderlichen Nennspannungen in AC und DC. Die Erzeugung von Pulsweitenmodulationssignalen (PWM) spielt eine entscheidende Rolle bei der Gesamtfunktion eines leistungselektronischen Wandlers. Die gesteuerten PWM-Signale können den Wandlerausgang entsprechend den Benutzeranforderungen effektiv regulieren. Daher steht die Bereitstellung dieser PWM-Signale im Mittelpunkt des gesamten Wandlerdesigns. Diese PWM-Signale können durch Hardware-Controller-Boards wie FPGA und Mikrocontroller oder durch Software- und Hardware-Co-Simulationsplattformen wie Hardware-in-the-Loop-Umgebung (HIL) erzeugt werden. Die direkte Hardware-Controller-basierte PWM-Generierung erfordert jedoch fundierte Kenntnisse in relevanten Programmiersprachen. Daher werden HIL-Lösungen normalerweise bevorzugt. Es gibt viele HIL-Simulatoren wie Typhoon-HIL, RTDS, eMEGAsim, dSPACE, HRTSim und RT-Lab, die diesen Zweck erfüllen. Die Kosten dieser Simulatoren und die Komplexität des Designs können jedoch ihre Verwendung für Forschungsarbeiten in akademischen Einrichtungen einschränken. Mit dieser Absicht schlägt dieses Papier ein kostengünstiges HIL-Setup vor, das zur Entwicklung eine Datenerfassungsplatine (DAQ) und MATLAB/Simulink-Software erfordert. Die Nützlichkeit des vorgeschlagenen HIL-Setups wird durch den Vergleich mit den tatsächlichen Ergebnissen der Simulationsumgebung validiert und als zufriedenstellend befunden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8439-8_16 9876ac63ffca0926f25bbe8e78b752c7;de;;;2.4.;;;Untersuchungen zu den Entladungseigenschaften des neuartigen 3-Element-Mischöl-Pressspan-Isoliersystems unter einem starken ungleichförmigen elektrischen Feld Ein neuartiges 3-Element-Mischisolieröl wurde von unserem Team erfolgreich entwickelt. Seine wichtigsten Parameter erfüllen die Anforderungen der IEC 60296:2012. Unter Verwendung von mineralölimprägniertem Isolierpressspan als Kontrollgruppe wurden die Blitzstoßspannungen des neuartigen 3-Element-gemischten ölimprägnierten Isolierpressspans mit unterschiedlicher Dicke nach der Spannungsanstiegsmethode gemessen. Außerdem wurden die Teilentladungseigenschaften des neuartigen 3-Element-Mischöl-Pressspan-Isoliersystems auch unter Nadelebenen-Elektrodenkonfiguration untersucht. Einige Schlüsselparameter wie PRPD-Muster, maximale Pulsamplitude und Wiederholrate wurden zwischen zwei Arten von Öl-Pressspan-Dämmsystemen vergleichend analysiert. Die Ergebnisse zeigen, dass die Ableiteigenschaften des gemischten Öl-Pressspan-Dämmsystems vergleichsweise wünschenswert sind. Es gibt keinen signifikanten Unterschied in der Durchschlagsfestigkeit unter Blitzstoßspannung zwischen zwei Arten von Öl-Pressspan-Isolationssystemen. Im Vergleich zur Mineralöl-Pressspan-Isolierung hat das gemischte Öl-Pressspan-Isolierungssystem eine niedrigere Teilentladungs-Einsatzspannung, eine höhere Entladungsimpulsamplitude und eine höhere Wiederholungsrate bei der Koronaentladung, was bedeutet, dass es relativ anfälliger für Teilentladungen unter starken ungleichförmigen elektrischen Feldern ist das neuartige 3-Elemente gemischte Öl-Pressspan-Dämmsystem.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-31680-8_28 cec13dfa78b6585ef3a6e404efe5a730;de;;;2.4.;;;Untersuchung der Pilotenflugtechnologie basierend auf explorativer Faktorenanalyse Die Entwicklung der Flugtechnik geht einher mit der synchronen Evolution der Flugzeugtechnik. Der Flugbetrieb hat sich vom traditionellen „Betrieb“ zu „Überwachung, Entscheidungsfindung und Kontrolle“ gewandelt. Das Verständnis der Elemente der Pilotenflugtechnologie kann die Effektivität und Relevanz von Pilotenausbildung und Sicherheitsmanagement verbessern. Dieses Papier fasst die Literatur zur Pilotenflugtechnologie von verschiedenen Wissenschaftlern in drei Phasen der Flugentwicklung zusammen und erhält 16 Elemente der Pilotenflugtechnologie gemäß den relevanten Gesetzen und Vorschriften. Durch Fragebögen von First-Line-Piloten und quantitative Analyse der Flugfähigkeiten von Piloten basierend auf explorativer Faktorenanalyse werden vier Aspekte der Flugtechnologie von Piloten erfasst: Flugsteuerung, Informationsentscheidung, Flugüberwachung und Crew-Ressourcen-Management. Es bietet theoretische Unterstützung zur Verbesserung der Flugtechnik von Piloten der Zivilluftfahrt und hat wichtige richtungsweisende Bedeutung für das Flugsicherheitsmanagement.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0474-7_25 a5f97b9192848d43e2a7c2d84cd4ce96;de;;;2.4.;;;Segmentierung verrauschter Mammogramme mit Hybridtechniken Technique Brustkrebs ist das am häufigsten diagnostizierte Karzinom bei Frauen in Indien und eine der häufigsten Todesursachen durch Krebs bei Frauen. Radiologen bevorzugen Mammographien zur Visualisierung von Brustkrebs. Verschiedene Arten von Rauschen, einschließlich Gauß-Rauschen und Salz-und-Pfeffer-Rauschen, beeinflussen die Mammogramme, was zu einer ungenauen Klassifizierung führt. Auch Mammographien bestehen aus zahlreichen Artefakten, die das Auffinden von Brustkrebs deprimierend beeinflussen. Das Vorhandensein von Brustmuskeln macht das Auffinden von Anomalie zu einer mühsamen Aufgabe. Die Erkennung von Drüsengewebe in Mammographien ist von entscheidender Bedeutung für die Beurteilung der Asymmetrie zwischen linker und rechter Brust und für die Vermutung des mit dem Screening verbundenen Strahlenrisikos. Somit konzentriert sich das vorgeschlagene Verfahren auf die Verbesserung der Segmentierungsgenauigkeit von verrauschten Mammogrammen. Es beinhaltet eine Vorverarbeitung, die Rauschunterdrückung unter Verwendung eines vortrainierten neuronalen Faltungsnetzwerks, Artefaktentfernung unter Verwendung von Schwellenwerten und Wachstum und Verbesserung modifizierter Regionen unter Verwendung einer zweistufigen adaptiven Histogrammentzerrung zusammen mit Segmentierung von Mammogrammbildern in Abschnitte umfasst, die unterschiedlichen Dichten unter Verwendung von K-Means-Clustering entsprechen. Die geplante Methode wurde in der Mini-MIAS-Datenbank mit Ground Truth von erfahrenen Radiologen bestätigt. Die Ergebnisse veranschaulichen, dass das vorgeschlagene Verfahren in der Lage ist, Rauschen und Brustmuskeln zu beseitigen, ohne Qualität und Kontrast zu verschlechtern, und verschiedene entrauschte Mammogramme mit hoher Genauigkeit in unterschiedliche Mammographiedichten zu fragmentieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5341-7_104 bb7d3a1ac12c3954864b99b68642c3f0;de;;;2.4.;;;Fehlerdiagnose und CAN-Bus/Ethernet-Redundanzdesign eines Überwachungs- und Steuerungssystems Das Schiffsüberwachungssystem wird verwendet, um den Arbeitsstatus verschiedener Geräte auf dem Schiff zu überwachen und zu steuern. Die Navigationssicherheit des Schiffes wird direkt durch den stabilen Betrieb des Überwachungssystems beeinflusst. In diesem Beitrag wird ein Schiffsüberwachungssystem mit Fehlertypbeurteilungsfunktion und Busredundanz entwickelt, um die Systemzuverlässigkeit zu verbessern und die Kosten für die Fehlerprüfung zu reduzieren. Im System ist ein redundantes Ethernet/CAN-Bus-Kommunikationsnetzwerk aufgebaut, das mehrere Simulationsknoten verbindet. Der Simulationsknoten kann die Fehler simulieren, die während des Kommunikationsprozesses auftreten können, und gibt die Fehlerinformationen an den Hostcomputer zurück. Der Host-Computer analysiert und zeigt den entsprechenden Fehlertyp auf der Benutzeroberfläche mit den empfangenen Feedback-Informationen an. Das System rekonfiguriert die Netzwerkroute selbstständig, wenn der Simulationsknoten einen Kommunikationsfehler hat. Das Routing von Fehlerknoten kann auf redundantes Routing umgestellt werden und der Lastausgleich des Kommunikationsnetzes kann aufrechterhalten werden. Durch experimentelle Tests kann das System Fehler genau lokalisieren und ein schnelles Umschalten redundanter Routen zwischen Bussen erreichen. Daher wird die Zuverlässigkeit der Datenübertragung verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3753-0_106 aba1f00908d06ef72d344fa43829d64c;de;;;2.4.;;;Verringerung der Unsicherheit in der Wettervorhersage des neuronalen Netzes für die Andenstadt Quito durch die Anpassung der posterioren Vorhersageverteilung basierend auf Schätzern Die Wettervorhersage in Städten wie Quito ist aufgrund der Nähe zum Breitengrad 0° und der Lage in den Anden sehr kompliziert. Eine statistische Nachbearbeitung ist obligatorisch, um die Ausgabe des physikalischen Modells zu verbessern und die Wettervorhersage in der Stadt zu verbessern. Um diese Aufgabe zu erfüllen, kann ein neuronales Netz verwendet werden, jedoch muss zunächst dessen Unsicherheit reduziert werden. Die Bayesian Neural Networks (BNN) wurden dank ihrer Wahrscheinlichkeitsanalyse eingehend untersucht, die Unsicherheit kann angenähert werden. In diesem Beitrag wird eine Analyse durchgeführt, die auf der Anpassung der posterioren Vorhersageverteilung basierend auf Schätzern basiert, um die Vorhersagefehlervariation (implizit die Unsicherheit) in einer kurzfristigen Wettervorhersage für die Andenstadt Quito zu reduzieren. Aus der Analyse ergibt sich eine maximale Fehlerprognose von 12% und es ist bewiesen, dass für Long Short Term Memory (LSTM)-Strukturen die Streuung des Fehlers mit Gewichtsabnahmen von . fast auf die Hälfte reduziert wird;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-62833-8_39 1d25187a92f1febc1d689e4379491693;de;;;2.4.;;;Ein datenschutzwahrender Ansatz für Smart Metering Von intelligenten Zählern erzeugte hochfrequente Stromverbrauchsmessungen stellen eine große Bedrohung für die Privatsphäre von Privatverbrauchern dar, da sie Details offenbaren, die verwendet werden könnten, um Informationen über die Aktivitäten der Hausbewohner abzuleiten. In diesem Papier hinterfragen wir die Notwendigkeit der Offenlegung von Hochfrequenzmesswerten, die auf häuslicher Ebene erzeugt wurden. Stattdessen schlagen wir vor, Smart Meter mit ausreichender Rechenleistung auszustatten, die es ihnen ermöglicht, dem Versorgungsunternehmen basierend auf diesen Messwerten eine Reihe klar definierter Dienste bereitzustellen. Für das Demand-Side-Management schlagen wir die Erfassung von Hochfrequenzmesswerten auf einer höheren Ebene im Verteilnetz vor, wie z. Darüber hinaus untersuchen wir die Auswirkungen des vorgeschlagenen Ansatzes auf die Privatsphäre der Verbraucher, wobei wir Korrelation und relative Entropie als Messgrößen verwenden. Wir untersuchen auch die Auswirkungen des Lastenausgleichs auf die Privatsphäre der Verbraucher, wenn der vorgeschlagene Ansatz verwendet wird. Schließlich bewerten wir die Erkennung verschiedener Geräte mithilfe von Hochfrequenzmesswerten, die für Demand-Side-Management-Zwecke gesammelt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40597-6_14 b9aa9b7728be74096904600bf9474aa3;de;;;2.4.;;;Uigurische Offline-Signaturerkennung basierend auf modifizierten Eckenkurvenfunktionen In diesem Papier werden modifizierte Eckenkurvenmerkmale basierend auf einem Offline-Unterschriftserkennungsverfahren für die handschriftliche Unterschrift der Uiguren vorgeschlagen. Die Unterschriftenbilder wurden entsprechend der Art der uigurischen Unterschrift vorverarbeitet. Dann wurden Eckkurvenmerkmale (CCF) bzw. modifizierte Eckkurvenmerkmale (MCCF) mit unterschiedlichen dreidimensionalen Vektoren extrahiert. Die Experimente wurden unter Verwendung des euklidischen Distanzklassifizierers und des nichtlinearen SVM-Klassifizierers für uigurische Signaturproben von 50 verschiedenen Personen mit 1000 Signaturen durchgeführt 98,9 % wurden mit MCCF-16 erreicht. Die experimentellen Ergebnisse zeigten, dass modifizierte Eckenkurvenmerkmale den Schreibstil der uigurischen Signatur effizient erfassen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-46654-5_46 2691c5635e9edc03a84156ae6cc0b17c;de;;;2.4.;;;IoT-basierte intelligente Bewässerung und Überwachung der zugehörigen Umgebungsparameter: Eine empirische Überprüfung Die Landwirtschaft ist das Rückgrat der Wirtschaft. Die Agrarwirtschaft hängt hauptsächlich von zwei Parametern ab, nämlich der Wetterüberwachung und der Bewässerungsüberwachung. Die Echtzeit-Wetterüberwachung ist ein wichtiges Werkzeug, um die auf einem Feld vorherrschenden Klimabedingungen zu visualisieren, um die Ernteproduktion und die damit verbundenen Probleme durch ein besseres Verständnis des umgebenden Wetters zu lösen. Das Hauptziel besteht darin, die Wetterbedingungen jedes landwirtschaftlichen Feldes anzuzeigen und auf Abruf auf die aktuellen Daten aller nahen und entfernten Standorte eines landwirtschaftlichen Feldes zuzugreifen. Außerdem müssen Landwirte bei diskontinuierlichem Monsun andere unbeaufsichtigte alternative Süßwasserquellen für die Ernten verwenden, was zu Wasserknappheit führt. Daher stehen Landwirte vor der Herausforderung, beste Bewässerungspläne zu erstellen. Die sich ständig weiterentwickelnden Technologien wie das Internet der Dinge (IoT) ebneten den Weg für intelligente Wetterstationen und intelligentes Bewässerungsmanagement mit Hilfe von drahtlosen Sensoren, um Daten zu erfassen, um Änderungen der Pflanzengestaltung, entfernten Feldstandorte und Bewässerungsmuster unter Berücksichtigung aller anzupassen Art von Umwelteinschränkungen. Das IoT ist in der Lage, Daten zu erfassen, zu überwachen, die Klimabedingungen genau vorherzusagen und die Wasserverschwendung zu begrenzen, wodurch der Ernteertrag insgesamt verbessert wird. Dieses Papier bietet einen detaillierten Überblick über den breiteren Aspekt des IoT-basierten intelligenten Landwirtschaftssystems in Abhängigkeit von Wetter und Bewässerung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6393-9_34 dae8b324baa4f43874dd63eb5e43229d;de;;;2.4.;;;Erhöhung der E-Payment-Sicherheit durch biometrisch basierte persönliche Authentifizierung mit Steganographie-Schema – B-PASS Biometrie (oder biometrische Authentifizierung), die sicherer als ein herkömmliches passwortbasiertes Schema ist, besteht aus Verfahren zum eindeutigen Erkennen von Menschen basierend auf einem oder mehreren intrinsischen physischen oder Verhaltensmerkmalen. Biometrie ist als Werkzeug zur Identitätsüberprüfung in einem neuen und stark vernetzten Umfeld der nationalen Sicherheit immer wertvoller geworden. Es spielt bei fast allen E-Transaktionen eine große Rolle. Diese elektronischen Transaktionen erfordern die Verpflichtung, Transaktionsdetails, einschließlich Kreditkarteninformationen der Kunden, vor verschiedenen Angriffen wie Replay-Angriffen, Umgehung, Zurückweisung und verdecktem Erwerb zu schützen. Um die oben genannten Angriffe zu überwinden, wurde ein System vorgeschlagen, das die E-Payment-Sicherheit durch biometrisches PASS (Personal Authentication using Steganography Scheme) verbessert. In diesem System wird eine B-PASS-Karte generiert, indem bei der Registrierung der Fingerabdruck und die PIN-Nummer des Benutzers gesammelt werden, die später in der Verifizierungsphase überprüft werden. Eine Transaktion ist nur möglich, wenn alle drei Komponenten (Fingerabdruck, PIN-Nummer und B-PASS-Karte) verfügbar und auf Echtheit überprüft wurden. Dieses System gibt den Internetnutzern das Vertrauen, E-Transaktionen durchzuführen, ohne sich um Hacker oder Online-Shopping-Betrug sorgen zu müssen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54525-2_41 ae6a5cdc4dc27073d64427fc23ac841f;de;;;2.4.;;;Analyse der Kernfähigkeiten und Schlüsseltechnologien zukünftiger Flugabwehr-Flugabwehroperationen Die zukünftige Kriegsführung ist eine Art Krieg, der auf der Informationstechnologie basiert, die in voller Tiefe, dreidimensional ist und Luftangriffe und Luftabwehrangriffe im mehrdimensionalen Raum durchführt. Dieses Papier diskutiert den Entwicklungstrend moderner Luftangriffsoperationen unter vier Aspekten: Informatisierung, Tarnung, Präzision und Integration und stellt drei Kernfähigkeiten vor, um zukünftige Flugabwehr-Raketenabwehroperationen zu gewinnen, z und Abwehrmaßnahmen, Verbesserung der Anti-Jamming-Fähigkeit durch die Kombination von Soft-Kill und Hard-Kill und Verbesserung der Anti-Sättigungs-Angriffsfähigkeit auf lange und kurze Distanz. Dieses Papier analysiert die zukünftige Entwicklungsrichtung von Flugabwehr-Raketenwaffensystemen wie Niedrig- und Nahbereich, Integration und Zweckbestimmung, Allgemeinheit und Modularisierung sowie gemeinsame Operationen und betont vier Schlüsseltechnologien, die es zu beherrschen gilt , einschließlich Datenerfassung, Datenfusion, Präzisionsführung und Systemsimulation.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6978-4_120 a25df00ef94254fea14faccffe5ad1a4;de;;;2.4.;;;Ein kombinierter krypto-steganographischer Ansatz zum Verbergen von Informationen in Audiosignalen unter Verwendung von Subband-Codierung, Compressive Sensing und Singular Value Decomposition In diesem Beitrag wird eine neue Methode des Audiodaten-Sicherheitssystems vorgeschlagen, die die komplementären Dienste von Steganographie und Kryptographie nutzt. Hier werden die geheim zu sendenden Audiodaten unter Verwendung der Kompressionsmessungen derselben codiert und die resultierenden Daten werden unter Verwendung des SVD-basierten Wasserzeichen-Algorithmus in das wahrnehmbare Band der Cover-Audiodaten eingebettet. Somit erhöht die Kombination dieser beiden Verfahren den Schutz gegen schwerste Angriffe, wenn Audiosignale über einen offenen Kanal übertragen werden. Entschlüsselungsstufe verwendet SVD-basierten Algorithmus zur Wasserzeichenextraktion und L;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40576-1_6 54bf5f0bc9e9aa7f37edea3540e13fd1;de;;;2.4.;;;Die Klassifizierung von Elektrookulographie-Signalen: Eine signifikante Merkmalsidentifikation durch gegenseitige Informationen Der Schlaganfall ist derzeit weltweit als der dritthäufigste Grund für Behinderungen bekannt, bei dem die Lebensqualität seiner Überlebenden in Bezug auf ihre tägliche Funktionsfähigkeit stark beeinträchtigt ist. Brain-Computer Interface (BCI) ist ein System, das Gehirnaktivität erfassen und in lesbare Ausgaben umwandeln kann. Dieses System ist besonders vorteilhaft für Menschen, die bei der Ausübung ihres täglichen Lebens mit körperlichen Herausforderungen konfrontiert sind, da die BCI-Ergebnisse auf BCI-basierte Hilfsgeräte angewendet werden können. Einer der häufig verwendeten BCI-Eingänge ist das Elektrookulographie-(EOG)-Signal. Das EOG-Signal ist die elektrische Spannung, die von der Bewegung unserer Augäpfel abgegeben wird. Diese Studie zielt darauf ab, signifikante statistische Zeitbereichsmerkmale basierend auf den erfassten EOG-Signalen zu extrahieren und zu identifizieren, die die Klassifizierung von EOG-Bewegungen über Support Vector Machine (SVM) erleichtern würden. Die EOG-Signale wurden über BioRadio erhalten. An der EOG-Datenerfassung waren fünf gesunde Probanden im Alter zwischen 22 und 30 Jahren beteiligt. Aus allen vier BioRadio-Kanälen wurden insgesamt 7 statistische Zeitbereichsmerkmale extrahiert, nämlich Mittelwert, Standardabweichung, Varianz, Median, Minimum, Maximum und Standardfehlermittelwert. Die Merkmalsauswahltechnik Mutual Information (MI) wurde verwendet, um signifikante Merkmale zu identifizieren. In der Studie wurde die 70:30-Hold-out-Kreuzvalidierungstechnik verwendet. Aus der vorliegenden Untersuchung konnte gezeigt werden, dass auch bei Verwendung der identifizierten Merkmale eine hervorragende vergleichbare Klassifizierung sowohl auf Zug- als auch auf Testdatensatz erreichbar ist. Die Ergebnisse legen ferner die mögliche Anwendung der Neurorehabilitation aufgrund des reduzierten Rechenaufwands aufgrund des reduzierten Feature-Sets nahe.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4597-3_92 a892204d4adaf941103a954e3ec18de4;de;;;2.4.;;;Offline-EEG-basierte DC-Motorsteuerung für Rollstuhlanwendungen Brain-Computer Interface (BCI) verbindet das Gehirn des Menschen mit dem Computer, wo es Menschen mit körperlichen Behinderungen ermöglicht, verschiedene elektronische Geräte mit Hilfe von Gehirnwellen zu bedienen. Der Vorgang kann ohne menschliche Berührung durchgeführt werden. Dieses System ermöglicht eine einfache Verwendung und Bedienung bestimmter Geräte durch behinderte Personen. Das System ist für Personen geeignet, die keine Kontrolle über ihren normalen muskulösen Körper haben, um die Peripheriegeräte zu verwenden. Darüber hinaus wird sie aufgrund der guten Eigenschaften dieser Technologie, nämlich benutzerfreundlich und kostengünstig, in letzter Zeit immer beliebter. Die Anwendung von BCI ist sehr breit und deckt medizinische und nicht-medizinische Anwendungen ab, für Instant-Spiele, BCI-Speller, Cursorsteuerung, soziale Interaktionen durch Erkennung von Emotionen, Roboterarmsteuerung, Rollstuhlsteuerung, Haushaltsgerätesteuerung oder Smartphone-Bedienung mit Elektroenzephalogramm (EEG) Signale sind alle Anwendungen der BCI-Technologie. In dieser Studie wurde die Möglichkeit der DC-Motorsteuerung mit einem Einkanal-EEG-Headset untersucht. Die Forschung zielt darauf ab, die besten EEG-Funktionen und Klassifikatoren zu finden, bei denen die Ausgabe des Klassifikators einen korrekten Gerätebefehl zur Steuerung der DC-Motorbewegung liefern kann. Hier wurde das EEG-Merkmal in Bezug auf die spektrale Leistungsdichte extrahiert und unter Verwendung einer Support-Vektor-Maschine (SVM) mit einer Klassifikationsgenauigkeit von 92% klassifiziert. Dann wurden die klassifizierten EEG-Merkmale in drei Gerätebefehle übersetzt, um die Richtung des Gleichstrommotors zu steuern. Der Gleichstrommotor kann in drei Richtungen angetrieben werden, nämlich vorwärts, rechts und links. Datenerfassung vom EEG-Headset und Senden von Befehlen an den Gleichstrommotor, der gesamte Vorgang wurde drahtlos durchgeführt. Der Mehrrichtungs-Gleichstrommotor verbessert die Rollstuhlanwendung durch behinderte Menschen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5281-6_69 12d9dd06eb3b7da0be30c453dfd03b40;de;;;2.4.;;;Berührungslose Pulswellengeschwindigkeitsmessung mit optischen Methoden Die klinische Relevanz der Pulswellengeschwindigkeit (PWV) als Indikator für das kardiale Risiko im Zusammenhang mit arterieller Steifheit hat in den letzten Jahren an klinischer Relevanz gewonnen. Optische Sensoren sind aufgrund ihrer wirklich berührungslosen Betriebsfähigkeit, die das Potenzial einer störungsfreien Messung hat, eine attraktive instrumentelle Lösung für diese Art von Messung. Die Natur der optisch erzeugten Signale stellt den Entwickler jedoch vor neue Herausforderungen, sowohl auf der Ebene des Sondendesigns als auch bei der Signalverarbeitung, die erforderlich ist, um die Taktinformationen zu extrahieren, die PWV liefern. In dieser Arbeit beschreiben wir den Bau von zwei Prototypen optischer Sonden und diskutieren deren Bewertung unter Verwendung von drei Algorithmen zur Pulslaufzeit (PTT)-Bewertung. Ergebnisse, die in einem dedizierten Prüfstand, der ebenfalls beschrieben wird, erhalten wurden, zeigen die Möglichkeit, Pulslaufzeiten von nur 1 ms mit weniger als 1% Fehler zu messen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29752-6_18 3401a269192501843d0a396e18e2be7c;de;;;2.4.;;;IoT-basierte Remote-Gesundheitsüberwachung von Patienten in Rettungsdiensten Die ambulante Gesundheitsversorgung ist eine Art der Fernüberwachung von Patienten, die es einem medizinischen Betreuer ermöglicht, das medizinische Gerät im Krankenwagen zu verwenden, um einen Routinetest durchzuführen und die Testdaten in Echtzeit an eine medizinische Fachkraft zu senden. Auch wenn es verschiedene Methoden gibt, den Gesundheitszustand des Patienten zu Hause oder im Krankenhaus zu beobachten, ist die Notwendigkeit der schnellen Maßnahmen zur Behandlung der Person im Notfall noch nicht erfüllt. Erkrankt die Person plötzlich und wird ins Krankenhaus gebracht, erfährt der Arzt den Zustand bzw. die Krankheitsursache erst nach einer zeitaufwändigeren Diagnose des Patienten. In Krankenwagen besteht Bedarf an Überwachungstechnik, da im Notfall viel Zeit mit dem Transport des Patienten ins Krankenhaus und der Diagnose verschwendet wird. Um dieses Problem zu überwinden, wird in dieser Arbeit ein Online-System zur Fernüberwachung von Gesundheitsparametern eines Patienten im Krankenwagen vorgeschlagen. Das Experiment wird durchgeführt, um die Systemwerte mit den von den Standardgeräten erhaltenen Werten zu vergleichen, und die Ergebnisse sind in einem guten Format und das System ist effizient.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8681-6_38 3a34167c3aa159894d6af92e37dd2539;de;;;2.4.;;;Metriken für Trainer für laparoskopische Fähigkeiten: Das schwächste Glied! Metriken sind in virtuellen Umgebungen weit verbreitet und bieten einen Maßstab für die Leistungsmessung. Die derzeitige Methode zur Definition von Metriken für die medizinische Simulation bleibt eher eine Kunst als eine Wissenschaft. Hier berichten wir über einen praktischen wissenschaftlichen Ansatz zur Definition von Metriken, der speziell auf das computergestützte laparoskopische Training abzielt. Wir schlagen auch ein standardisiertes globales Bewertungssystem vor, das für verschiedene laparoskopische Trainer und Aufgaben verwendet werden kann. Die Metriken wurden explizit basierend auf den relevanten Fähigkeiten definiert, die ein laparoskopischer Chirurg beherrschen sollte. Wir verwendeten ein Gerät mit fünf Freiheitsgraden und eine Softwareplattform, die 1) die Bewegung von zwei laparoskopischen Instrumenten verfolgen kann 2) Echtzeit-Informationsverarbeitung und Feedback-Bereitstellung. Es wurde eine Validierungsstudie durchgeführt. Die Ergebnisse zeigen, dass unsere Metriken und unser Bewertungssystem einen technisch fundierten Ansatz darstellen, der leicht in einen computergestützten Trainer für jede Aufgabe integriert werden kann und eine standardisierte Leistungsbewertungsmethode ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45786-0_5 28a062e155ac40a3d90a377620183931;de;;;2.4.;;;Drahtlose Breitbandnetzwerke in komplexen Minenumgebungen Dieses Papier analysiert die WiFi-Vor- und -Nachteile verschiedener Arten der drahtlosen Kommunikation, erarbeitete WiFi-Kommunikationsgeräte und -programme im Minenbau, stellte die Gesamttechnologie-Roadmap für drahtlose Systeme und die Ergebnisse der Systemanwendung vor. Die Ergebnisse zeigen, dass die Realisierung der WiFi-Funktion des Handheld-Geräts erfüllen Ihre Anforderungen, Hardware und WLAN-Funktion arbeiten stabil und zuverlässig.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-53932-9_8 ac1488029f92c43a0895579e7e4a1c40;de;;;2.4.;;;Numerische Simulation des Gewindekaltwalz-Umformprozesses Das Walzkraft-, Geschwindigkeits- und Spannungs- und Dehnungsfeld beim Kaltwalzen von Gewinden werden mit numerischen Simulationsverfahren analysiert. Auch der Ausfallprozess von Gewindekomponenten wurde analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-54048-0_8 12db2f22082dc68f32beecc468269f6c;de;;;2.4.;;;GIS-Isolierungszustandsbewertung basierend auf Multi-Source-Informationsfusion Mit der breiten Anwendung von gasisolierten Schaltanlagen (GIS) im Bereich der Ultrahochspannung ist die Identifizierung und Bewertung des Isolationszustands in GIS-Geräten ein heißes Thema in diesem Bereich die Darstellung des GIS-Isolierungszustands und die Erstellung eines wissenschaftlichen Zustandsbewertungsmodells ist ein großes Problem, das gelöst werden muss. In dieser Arbeit wurde der Isolationsabbauprozess eines typischen Isolationsfehlers innerhalb von GIS simuliert, und es wurden Ultrahochfrequenz- (UHF) und Ultraschallinformationen von Fehlern in verschiedenen Degradationsstadien erhalten. Gleichzeitig wird der genetische Algorithmus verwendet, um das Merkmal der PD-Schwerebewertung weiter zu charakterisieren, und der PD-Bewertungsindexsatz basierend auf UHF- und Ultraschallinformationen wurde konstruiert. Auf dieser Grundlage wurde die Fuzzy-Hierarchieanalyse als Bewertungsverfahrensrahmen verwendet, die Faktorenanalyse-Gewichtungsmethode und die Fuzzy-Bewertungsfunktion basierend auf gegenseitigen Informationen wurden verwendet, um das vorläufige Bewertungsergebnis zu erhalten. Schließlich wurde das vorläufige Bewertungsergebnis verwendet, um ein vollständiges umfassendes Bewertungsmodell zu bilden. Das in diesem Papier erstellte Bewertungsschema kann die Informationen aus mehreren Quellen effektiv ergänzen, wodurch die Zuverlässigkeit des GIS-Bewertungsergebnisses des Isolationszustands verbessert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-31676-1_39 3cce2335e76739197a9c1fc535345f6e;de;;;2.4.;;;Intradomänen-Wissensgeneralisierung beim domänenübergreifenden lebenslangen Reinforcement-Lernen Lebenslanges Reinforcement Learning (LRL) ist ein wichtiger Ansatz, um ein kontinuierliches lebenslanges Lernen von mehreren Reinforcement-Learning-Aufgaben zu erreichen. Die beiden wichtigsten Methoden, die in LRL verwendet werden, sind die Aufgabenzerlegung und die Extraktion von Richtlinienwissen. Das Verfahren zur Extraktion von Richtlinienwissen in LRL kann Wissen für Aufgaben in verschiedenen Aufgabenbereichen und für Aufgaben in demselben Aufgabenbereich mit unterschiedlichen Systemumgebungskoeffizienten teilen. Die Verallgemeinerungsfähigkeit der Methode zur Extraktion von Richtlinienwissen ist jedoch eher auf erlernte Aufgaben als auf erlernte Aufgabenbereiche beschränkt. In diesem Papier schlagen wir einen domänenübergreifenden lebenslangen Verstärkungslernalgorithmus mit Intradomänen-Wissensgeneralisierungsfähigkeit (CDLRL-DKG) vor, um die Generalisierungsfähigkeit der Methode zur Extraktion von politischem Wissen von erlernten Aufgaben auf erlernte Aufgabendomänen zu verbessern. In Experimenten haben wir die CDLRL-DKG-Leistung in drei Aufgabenbereichen bewertet. Und unsere Ergebnisse zeigen, dass der vorgeschlagene Algorithmus aus gegebenen dynamischen Systemumgebungskoeffizienten im Aufgabenbereich ohne zusätzliche Kosten für Rechenzeit und Speicherplatz direkt eine ungefähre optimale Richtlinie erhalten kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63823-8_45 e7aee5e1b53ec6392b5892a98a3f02a8;de;;;2.4.;;;Modell von Inferenzprozessen im automatischen maritimen Kommunikationssystem Dieser Artikel stellt ein Inferenzmodell für das automatische Kommunikationssystem auf See vor. Basierend auf einer Analyse von Inferenzmethoden, die in anderen Bereichen wie der Wirtschaft verwendet werden, wurden in diesem Artikel Inferenzmethoden für die automatische Kommunikation auf See vorgestellt. Der Komplexität der Kommunikation auf See und spezifischen Navigationsproblemen wurde Rechnung getragen. Ein Teil des Prozesses der automatischen Kommunikation wurde unter Verwendung des vorgeschlagenen Modells und der automatischen Inferenz gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41647-7_2 1482e0c2662c3d3eceb59cba4e02a62d;de;;;2.4.;;;Eine Studie über die Leistung der Bewegungsschätzung bei der vektorbasierten Farbbild-Superauflösungsanalyse für reine Translationsbewegung In diesem Artikel haben wir den existierenden vektorgrößenbasierten Super-Resolution-Algorithmus und die optische Flussbewegungsschätzungsmethode für die Super-Resolution-Analyse von Farbbildern verwendet. Beim vektorgrößenbasierten Ansatz werden alle drei Farbbänder als Vektor behandelt, anstatt sie separat zu verarbeiten. Farbartefakte werden stark reduziert, wenn die Pixel als Vektoren behandelt und verarbeitet werden. Die Bewegungsvektoren werden als unbekannt angesehen und um die Bewegung abzuschätzen, wurde das Lucas-Kanade Optical Flow Verfahren verwendet. Bei überbestimmten Systemen kann der Lucas-Kanade-Algorithmus in Kombination mit statistischen Methoden verwendet werden, um die Leistung bei Vorhandensein von Ausreißern wie bei verrauschten Bildern zu verbessern. Der Vorteil dieses Algorithmus ist die vergleichsweise Robustheit bei Vorhandensein von Rauschen. Die Leistung des Algorithmus wird analysiert und mit Verfahren verglichen, die bekannte Bewegungsvektoren verwenden, indem der mittlere quadratische Fehler (MSE) und das Spitzensignal-Rausch-Verhältnis (PSNR) berücksichtigt werden. Der Algorithmus zur Ableitung der hochauflösenden Farbbilder aus einem Satz von Farbbildern mit niedriger Auflösung ist in MATLAB implementiert und Simulationsergebnisse zeigen die Wirksamkeit dieser Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22786-8_74 dd8e9751fe612b6d815501c297dfc3eb;de;;;2.4.;;;Entwurf und Simulation eines Pflanzenprobenahmesystems in einer komplexen geografischen Umgebung Basierend auf einer kleinen Rotordrohne schlägt der Autor ein Probenahmesystemschema in einer komplexen geografischen Umgebung vor, das aus Probenahmemanipulator, Verbindungstrenner, Bilderfassung, Fernbedienung und GPS-Positionierungssystem besteht und die Funktionsintegration von Pflanzenprobe, Bildinformationen und geographische Koordinatensammlung. Dieses Papier konzentriert sich auf die Struktur des Probenahmemanipulators in einer detaillierten Analyse und Konstruktion, und der Manipulator, der aus einer Kugelumlaufspindel und einem Schieberwippenmechanismus besteht, wird vorgeschlagen. Um die weitere Optimierung abzuschließen, erstellt der Autor ein dynamisches Modell des Manipulators, um die Dynamik des Greifens und Schneidens zu untersuchen. Simulationsergebnisse zeigen, dass das vorgeschlagene Probenahmesystem das Problem der Pflanzenprobenahme in einer komplexen geografischen Umgebung effektiv lösen kann und technische Unterstützung für die Entwicklung des Prototyps und die praktische Anwendung in der nächsten Phase bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9437-0_49 dff7bdba0f6ba31cd4559e14ca1cb2b0;de;;;2.4.;;;Erkennung von Meitei Mayek anhand statistischer Textur- und Histogrammfunktionen Die Erkennung handgeschriebener Zeichen ist unter empirischen Aspekten eines der herausfordernden und interessanten Probleme neuerer Trends. Die Forschungsarbeiten zur Erkennung von Meitei Mayek (Manipuri Script) befinden sich aufgrund ihrer komplizierten Muster und der Regionalsprache noch in den Kinderschuhen. Außerdem wurde die Sprache vor kurzem wieder eingeführt und es gibt keine Standarddatenbank für Forschungsarbeiten. Daher versuchen wir, auf unserem entwickelten Datensatz von Meitei Mayek ein Erkennungssystem zu entwickeln, das statistische Textur- und Histogrammmerkmale verwendet. Insgesamt wurden 4.900 Muster von 35 Briefen von Meitei Mayek auf 140 Seiten von 90 verschiedenen Personen unterschiedlichen Alters gesammelt. Zur Bewertung und Validierung des entwickelten Datensatzes wurden Merkmalsextraktionstechniken wie Uniform Local Binary Pattern (ULBP) und Projection Histogram (PH) in Betracht gezogen. Schließlich wird die Erkennung unter Verwendung des K-Nearest Neighbour (KNN)-Klassifizierers durchgeführt. Die Kombination von ULBP und PH hat eine Erkennungsrate von 97,85% ergeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9187-3_6 d3da5dd460abb38dd50e89c6d67b2823;de;;;2.4.;;;Hybrides Rechenmodell zur Erzeugung englischer Verben in der Vergangenheitsform In dieser Arbeit untersuchen wir die Verwendung künstlicher neuronaler Netze (KNN) als Rechenmodelle zur Erzeugung englischer Verben im Präteritum, indem wir sie mit den genetischen Algorithmen (GA) kombinieren. Das Hauptaugenmerk lag auf der Modellierung der Populationsvariabilität, die Kinder beim Erlernen der Vergangenheitsform aufweisen. Diese Variabilität ist genetischen und umweltbedingten Ursprungs. Wir simulierten die Auswirkungen genetischer Einflüsse über Variationen in den neurorechentechnischen Parametern der KNNs und die Auswirkungen von Umwelteinflüssen über einen Filter, der auf den Trainingssatz angewendet wurde, und implementierten Variationen in den Informationen, die dem . zur Verfügung stehen Kind, das beispielsweise durch Unterschiede im sozioökonomischen Status hervorgebracht wird. In dem Modell diente GA zwei Hauptzwecken - die Population künstlicher neuronaler Netze zu erzeugen und die neurorechentechnischen Parameter des KNN in das Genom zu kodieren. Die englische Vergangenheitsform bietet einen interessanten Trainingsbereich, da sie einen Satz quasi-regulärer Abbildungen umfasst. Es gibt zwei Arten von englischen Verben, regelmäßige Verben und unregelmäßige Verben. Allerdings existiert auch zwischen diesen beiden Klassen ein Ähnlichkeitsgradient. Wir betrachten die Leistung der Kombination von ANN und GA anhand einer Reihe von Metriken. Unsere Tests lieferten ermutigende Ergebnisse in Bezug auf die Nützlichkeit dieser Methode und eine Grundlage für zukünftige Arbeiten zur Verwendung eines Rechenrahmens zur Erfassung der Variabilität auf Populationsebene.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32909-8_32 43ab9a2f2b3e7f723eb8383503368d3e;de;;;2.4.;;;Kraniofaziale Rekonstruktion basierend auf einem hierarchischen dicht verformbaren Modell Die kraniofaziale Rekonstruktion aus dem Schädel wurde in den letzten zwei Jahrzehnten von Informatikern intensiv untersucht, da sie für die Identifizierung wichtig ist. Die vorherrschenden Methoden konstruieren die Gesichtsoberfläche aus der Weichteildicke, die an einer Reihe von Schädelmarksteinen gemessen wird. Die Menge und Position der Landmarken sind für die kraniofaziale Rekonstruktion sehr wichtig, aber es gibt keinen Standard. Außerdem ist es schwierig, die Orientierungspunkte auf einem dichten Netz ohne manuelle Hilfe genau zu lokalisieren. In diesem Artikel schlagen wir eine automatische kraniofaziale Rekonstruktionsmethode vor, die auf einem hierarchischen dicht verformbaren Modell basiert. Um das Modell zu konstruieren, nehmen wir mehr als 100 Kopfproben mit Computertomographen. Die Proben werden als dichtes Dreiecksnetz dargestellt, um die Gesichts- und Schädelform zu modellieren. Da das verformbare Modell alle Abtastwerte in einheitlicher Form erfordert, wird ein nicht starrer Registrierungsalgorithmus präsentiert, um die Abtastwerte in Punkt-zu-Punkt-Korrespondenz auszurichten. Basierend auf den ausgerichteten Proben wird ein globales verformbares Modell konstruiert, und drei lokale Modelle werden aus den segmentierten Flecken von Auge, Nase und Mund konstruiert. Für einen gegebenen Schädel werden die globalen und lokalen verformbaren Modelle mit diesem abgeglichen, und die rekonstruierte Gesichtsoberfläche wird durch Verschmelzen der globalen und lokalen Rekonstruktionsergebnisse erhalten. Um unsere Methode zu validieren, wird ein gesichtsverformbares Modell konstruiert und die Rekonstruktionsergebnisse werden in seinem Koeffizientenbereich bewertet. Die experimentellen Ergebnisse zeigen, dass die vorgeschlagene Methode eine gute Leistung für die kraniofaziale Rekonstruktion aufweist.;-;-;-;https://link.springer.com/article/10.1186/1687-6180-2012-217 d0d1ee93649991977fbf35de947760fd;de;;;2.4.;;;Mikroskopische Simulation der optimalen Nutzung des Kommunikationsnetzes Die Entwicklung des Verkehrs hat in der Slowakei wie in den anderen entwickelten Ländern einen zunehmenden Charakter, und die negativen Auswirkungen des Verkehrs nehmen immer noch zu. Um diese Situation zu bewältigen, sollten die slowakischen Städte ihre Verkehrssituationen durch häufigeren Einsatz von ITS-Elementen lösen müssen. Eine der Möglichkeiten einer optimalen Kommunikationsnetznutzung in der Stadt ist die Steuerung des Verkehrsflusses auf der Strecke oder deren Umleitung von überlasteten Abschnitten auf bestehende alternative Verkehrswege. Dieser Einsatz ist geeignet, wenn die Überlastungswahrscheinlichkeit hoch ist und die Seitenwege über ausreichende Reserven verfügen. Ein hoher Anteil an umleitungsfähigen Transporten ist eine Voraussetzung für den Erfolg dieses Systems. In unserem Artikel bauen wir ein Kosten-Nutzen-basiertes Modell auf, um zwei Varianten zu vergleichen. Die erste Variante beinhaltet einen aktuellen Stand und in die zweite werden geplante Änderungen eingearbeitet. Wir verwenden dieses Modell, um die Probleme des Kommunikationsnetzes in der Stadt Žilina zu lösen. Als Modellierungswerkzeug verwenden wir die Software Aimsun, die eine mikroskopische Simulation ermöglicht. AIMSUN (Advanced Interactive Microscopic Simulator for Urban and Non-Urban Networks) ist ein Software-Tool, das in der Lage ist, reale Verkehrsbedingungen in jedem Netzwerk zu reproduzieren. Dies bedeutet, dass wir es auch verwenden können, um das Verhalten von Netzwerken mit der Implementierung von Fahrzeugleitsystemen vorherzusagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45317-9_44 7cc3f5d2725837ba3cb490f7ec9f306b;de;;;2.4.;;;Laservisuelle Sensorik und Prozesskontrolle beim Roboter-Lichtbogenschweißen von Titanlegierungen Sensorfehler entstehen bei der Erfassung des Schweißnahtprofils von Titanlegierungen mit laserbasierten Vision-Sensoren, da die Oberfläche eines solchen Materials für Laserlicht stark reflektierend ist. In dieser Studie wird aus den verzerrten Rohdaten durch Signalverarbeitung das richtige Schweißnahtprofil ermittelt. Darüber hinaus wird ein vollautomatisches Nahtverfolgungs- und Parameteranpassungssystem entwickelt. Dieses System bietet Training und Speicherung der Schablone, automatisches Finden des Startschweißpunktes, automatische Kalibrierung, Erkennung von Nahtposition und Nutmaßen, Spurkontrolle und Online-Schweißparametereinstellung. Das System ist in der Lage, V-Nut-, Kehl-, Überlappungs- und Stumpfverbindungen von Titanlegierungen mit einer hohen Genauigkeit von weniger als 0,4 mm zu verfolgen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-44415-2_7 7a0690ebb0e6fac5d3c96ba224536ec1;de;;;2.4.;;;Digitale Trails Entdecken eines Smartphones mit integriertem GPS - Nehmen Sie das Nokia N78 mit Symbian S60 Ver 3.2 als Beispiel Da mobile Computergeräte allgegenwärtig werden, hinterlegen immer mehr Zivilisten wertvolle Informationen in Mobiltelefonen als in Desktop-PCs, insbesondere für Betreiber von Global Logistics Management, die stark vom Global Position System abhängig sind, um die Just-in-Time-Lieferung effektiv und effizient zu erfüllen. In diesem Papier wurde ein eingebettetes Global Position System-Smartphone verwendet, um entlang der Straßen zu reisen, um die zugehörigen digitalen Beweise zu den Orten offenzulegen, an denen der aktuelle Benutzer tatsächlich gewesen war oder über Data Mining-Technologie gehen möchte. Aus Sicht der digitalen Forensik spielen digitale Beweise in manchen Fällen von Cyberkriminalität oder Cyberterrorismus trotz der Vielfalt der Mobiltelefone und der entsprechenden Betriebssysteme grundsätzlich eine entscheidende und entscheidende Rolle. Das Papier bietet die allgemeinen Leitfäden und Methoden für die Strafverfolgungsbehörden oder die Spezialisten für digitale Forensik, die sie bei der Bearbeitung ähnlicher Fälle berücksichtigen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22365-5_6 3fca247bc16881c28392df4cbda2ba4f;de;;;5.3.;;;Computersimulation des Stoffwechsels im Palmitat-perfundierten Rattenherzen. I. Palmitatoxidation Ein Computermodell des Fettsäureoxidationsweges in perfundiertem Rattenherz wurde konstruiert. Es umfasst die Aufnahme, Aktivierung und β-Oxidation von Fettsäuren, Triglyceridsynthese und Hydrolyse sowie den Carnitin-abhängigen Transport von Acylgruppen durch die Mitochondrienmembran unter pseudostationären Bedingungen. Die Fettsäureverwertung kann bei Hypoxie oder Ischämie durch β-Oxidation eingeschränkt sein, aber wahrscheinlich nicht bei aeroben Bedingungen. An Proteine ​​gebundene unveresterte Fettsäuren sind metabolisch verfügbar. Das Modell sagt voraus, dass Stearat, aber nicht Palmitat, die höchste beobachtete Atemfrequenz für perfundiertes Rattenherz ohne Supplementierung durch andere Substrate unterstützen kann. Fettsäuren werden bevorzugt oxidiert und nicht als Triglyceride gespeichert, da der Cystosol-Acyl-CoA-Gehalt niedriger ist als der K;-;-;-;https://link.springer.com/article/10.1007/BF02584214 031f1da65821f4863c958b5df815fb05;de;;;5.3.;;;Entsprechung zwischen quantenoptischer Transformation und klassisch-optischer Transformation durch Entwicklung der symbolischen Methode von Dirac Dank der neuen Technik der Integration über Diracs Ket-Bra-Operatoren untersuchen wir die quantenoptische Version klassischer optischer Transformationen wie optische Fresnel-Transformation, Hankel-Transformation, fraktionelle Fourier-Transformation, Wigner-Transformation, Wavelet-Transformation und kombinatorische Fresnel-Hadmard-Transformation usw Auf diese Weise kann man für die Entwicklung der klassischen Optiktheorie von der Forschung in der Quantenoptik profitieren oder umgekehrt. Wir können nicht nur einige neue quantenmechanische unitäre Operatoren finden, die den bekannten optischen Transformationen entsprechen und ein neues Theorem zur Berechnung von Quantentomogrammen von Dichteoperatoren herleiten, sondern können auch einige neue klassische optische Transformationen aufdecken. Als Beispiele finden wir, dass der verallgemeinerte Fresnel-Operator (GFO) der verallgemeinerten Fresnel-Transformation (GFT) in der klassischen Optik entspricht. Wir leiten die normale Produktform von GFO und ihre kanonische kohärente Zustandsdarstellung ab und stellen fest, dass GFO die loyale Darstellung der symplektischen Gruppenmultiplikationsregel ist. Wir zeigen, dass GFT nur das Transformationsmatrixelement von GFO in der Koordinatendarstellung ist, sodass zwei aufeinanderfolgende GFTs immer noch eine GFT sind. Das;-;-;-;https://link.springer.com/article/10.1007/s11467-011-0206-z 95cfb455d14327f82f261a54cd927c54;de;;;5.3.;;;Wahrscheinlichkeitsanalyse von Algorithmen Anstatt die Worst-Case-Leistung von Algorithmen zu analysieren, kann man ihre Leistung an typischen Instanzen einer bestimmten Größe untersuchen. Dies ist der Ansatz, den wir in diesem Beitrag untersuchen. Die erste Frage, die wir beantworten müssen, lautet natürlich: Was verstehen wir unter einem typischen Exemplar einer bestimmten Größe?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-12788-9_2 a6e53b38d57accfe9ffc74664b49782a;de;;;2.4.;;;Tiefenkarte Super-Resolution basierend auf gemeinsamem Wörterbuchlernen Obwohl die Time-of-Flight (ToF)-Kamera Echtzeit-Tiefeninformationen aus einer realen Szene liefern kann, ist die Auflösung der von der ToF-Kamera aufgenommenen Tiefenkarte im Vergleich zu HD-Farbkameras eher begrenzt und kann daher nicht direkt in der 3D-Rekonstruktion verwendet werden . Um dieses Problem zu lösen, schlägt dieser Artikel ein neuartiges Tiefenkarten-Super-Resolution-(SR)-Verfahren auf der Grundlage von Compression Sensing (CS) und Wörterbuchlernen vor, das eine Tiefenkarte mit niedriger Auflösung in eine Tiefenkarte mit hoher Auflösung umwandelt. Im Unterschied zu früheren Tiefenkarten-SR-Verfahren verwendet dieser Algorithmus ein gemeinsames Wörterbuchlernverfahren mit Tiefenkarten sowohl mit niedriger als auch mit hoher Auflösung, und dieses Verfahren baut auch ein dünnbesetztes Vektorklassifizierungsverfahren auf, das in der Tiefenkarte SR verwendet wird. Experimentelle Ergebnisse zeigen, dass die vorgeschlagene Methode die Methoden des Standes der Technik für die Tiefenkarten-Superauflösung übertrifft.;-;-;-;https://link.springer.com/article/10.1007/s11042-014-2002-6 98d1ea674ca5584eb13f7c9a33107ec1;de;;;2.4.;;;Ein Rahmen für die Echtzeitbewertung der Leistungen von Ärzten bei der Verwendung eines Koniotomie-Simulators Die Koniotomie ist ein lebensrettendes Verfahren, das durchgeführt wird, wenn durch weniger invasive Techniken kein Atemweg hergestellt werden kann. Eine der Hauptherausforderungen der Forschungsgemeinschaft in diesem Bereich besteht darin, einen kostengünstigen Simulator zu entwerfen und zu bauen, der die grundlegende Anatomie lehrt, sowie eine Methode zur Datenerfassung für die Leistungsbewertung und angeleitete Anleitung bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25936-9_12 3b7fb787f55bdb393bbb2d58f644d82a;de;;;2.4.;;;Maschinelles Lernen zur Vorhersage der Kundenabwanderung im Privatkundengeschäft Vorauszusagen, ob ein Kunde seine Beziehung zu einem Unternehmen beenden wird, hat für alle Organisationen einen unbestreitbaren Mehrwert, da gezielte Kampagnen zur Förderung der Kundenbindung vorbereitet werden können. In dieser Arbeit wurden sechs verschiedene Methoden des maschinellen Lernens auf das Problem der Kundenabwanderung von Privatkunden untersucht, wobei Vorhersagen bis zu 6 Monate im Voraus berücksichtigt wurden. Unterschiedliche Ansätze werden anhand von Echtdaten getestet und verglichen. Out-of-Sample-Ergebnisse sind sehr gut, selbst bei sehr anspruchsvollen Out-of-Sample-Sets, die nur aus Churnern bestehen, die die Fähigkeit testen, vorherzusagen, wann ein Kunde abwandern wird. Die besten Ergebnisse werden durch stochastisches Boosten erzielt, und die wichtigsten Variablen zur Vorhersage der Abwanderung in einem Zeithorizont von 1 bis 2 Monaten sind der Gesamtwert der in den letzten Monaten gehaltenen Bankprodukte und das Vorhandensein von Debit- oder Kreditkarten bei einer anderen Bank. Für einen Zeithorizont von 3–4 Monaten sind die Anzahl der Transaktionen in den letzten Monaten und das Bestehen eines Hypothekendarlehens ausserhalb der Bank die wichtigsten Variablen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58808-3_42 72b089e7f6a56e56d9524c00d0f4a3d5;de;;;2.4.;;;Grafisches Design von Echtzeitanwendungen Eine Antwort auf das zweite Problem geben die Standardisierungsbemühungen, die jetzt von Real Time Executive-Konstrukteuren durchgeführt werden, um Real Time Executive-Standards zu fördern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-88049-0_19 7de837119fe9f79f6c824a44b6d07035;de;;;2.4.;;;Lehren und Lernen in Zeiten von Covid-19 gestalten: Eine internationale Erfahrung Der vorliegende Artikel befasst sich mit der akademischen Partnerschaft zwischen der Universität Campinas (Campinas, Brasilien) und der Universität Lusófona (Lissabon, Portugal) zur Einführung einer Fernlehrmethode für Studenten im ersten Jahr der Architektur und Urbanistik an der UNICAMP während COVID -19 Sperrung. Die Inhalte aus dem Online-Kurs „Zeichnen für grafisches Tagebuch“ wurden den UNICAMP-Studierenden mit geringfügigen Anpassungen zur Verfügung gestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-73988-1_20 6d57291ae282ed0022e089574e5f50ee;de;;;5.3.;;;Polynomialzeitlernen einiger multipler kontextfreier Sprachen mit einem minimal adäquaten Lehrer Wir präsentieren einen Algorithmus für die Inferenz einiger multipler kontextfreier Grammatiken aus Mitgliedschafts- und Äquivalenzabfragen unter Verwendung des Minimally Adequate Teacher Modells von Angluin. Dies ist eine Erweiterung der kongruenzbasierten Methoden zum Erlernen einiger kontextfreier Grammatiken, die von Clark (ICGI 2010) vorgeschlagen wurden. Wir definieren die natürliche Erweiterung der syntaktischen Kongruenz auf Tupel von Strings und zeigen, dass wir die Klasse der multiplen kontextfreien Grammatiken effizient lernen können, bei denen die Nichtterminals den Kongruenzklassen unter dieser Beziehung entsprechen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32024-8_13 735abd73461442fd4c77197cbafb123c;de;;;2.4.;;;Landnutzungs-/Bedeckungsänderung und ihre Auswirkungen auf die Nettoprimärproduktivität im gemäßigten Grasland von Huangfuchuan, China Diese Studie nimmt das gemäßigte Grasland der Huangfuchuan-Wasserscheide als Untersuchungsgebiet, RS- und GIS-Techniken werden verwendet, um die Beziehung zwischen LUCC und KKW zu untersuchen. Mit der Kombination des CASA-Modells werden die dynamischen Eigenschaften von KKW in den Jahren 1987-2011 untersucht. Die wichtigsten Schlussfolgerungen sind wie folgt: (1) Die Landnutzungsstruktur ändert sich offensichtlich in Huangfuchuan Watershed. Der Haupttrend der Landnutzungsänderung war die allmähliche Zunahme von Bauland und Wald, die allmähliche Abnahme des Wassers. Ackerland, Gras, Strauch, nackter Fels und Sand waren schwankend. Dies war aus dem dynamischen Grad der Landnutzung ersichtlich. (2) Durch die Berechnung des KKW-Modells betrug der Gesamtwert der KKW 1987, 1995, 2000, 2007 und 2011 28,12 GgC, 53,47 GgC, 73,23 GgC, 157,92 GgC und 78,52 GgC. (3) Die Analyse der Auswirkungen von Landnutzungsänderungen auf KKW zeigt, dass der Hauptgrund für den Anstieg der KKW auf die Übertragung von Grasland in Buschwerk zwischen 1987 und 1995 zurückzuführen ist 1995-2000. Die Übertragung von Sträuchern auf Grünland ist der Hauptgrund für den Anstieg der KKW im Zeitraum 2000-2007. Die Umwandlung von Grünland in Strauch ist der Hauptgrund für die Reduzierung der KKW im Zeitraum 2007-2011. Die Ergebnisse der Studie sind sehr aussagekräftig für die rationelle Nutzung der gemäßigten Grünlandressourcen und die Verbesserung der fragilen ökologischen Umwelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45737-5_65 68f9053d4125e96f1a6b5c005f21996b;de;;;2.4.;;;Automatisierte Kulturpflanzenzählung aus sehr hochauflösenden Luftbildern Vor der Ernte zu wissen, wie viele Pflanzen entstanden sind und wie sie wachsen, ist der Schlüssel zur Optimierung der Arbeitskraft und der effizienten Nutzung von Ressourcen. Unbemannte Luftfahrzeuge (UAV) sind ein nützliches Werkzeug zur schnellen und kostengünstigen Datenerfassung. Die Bilddaten müssen jedoch in operative räumliche Produkte umgewandelt werden, die von Pflanzenproduzenten weiter verwendet werden können, um Einblicke in die räumliche Verteilung der Anzahl der Pflanzen auf dem Feld zu erhalten. In dieser Forschung wird eine automatisierte Methode zum Zählen von Pflanzen aus sehr hochauflösenden UAV-Bildern adressiert. Die vorgeschlagene Methode verwendet maschinelles Sehen – Excess Green Index und die Methode von Otsu – und überträgt das Lernen mithilfe von neuronalen Faltungsnetzen, um Pflanzen zu identifizieren und zu zählen. Die integrierten Methoden wurden implementiert, um 10 Wochen alte Spinatpflanzen in einem Versuchsfeld mit einer Fläche von 3,2 ha zu zählen. Für 1/8 der Fläche lagen Validierungsdaten der Pflanzenzählung vor. Die Ergebnisse zeigten, dass die vorgeschlagene Methode Pflanzen mit einer Genauigkeit von 95 % bei einer räumlichen Auflösung von 8 mm/Pixel in einem Bereich von bis zu 172 m² zählen kann;-;-;-;https://link.springer.com/article/10.1007/s11119-020-09725-3 eeab331c9dbaef0c17f4d0ee654a01d0;de;;;5.3.;;;Über gewichtete untere und obere possibilistische Mittel und Varianzen von Fuzzy-Zahlen und ihre Anwendung in der Entscheidung In diesem Papier definieren wir die gewichteten unteren und oberen possibilistischen Varianzen und Kovarianzen von Fuzzy-Zahlen. Wir erhalten auch ihre vielen Eigenschaften ähnlich der Varianz und Kovarianz in der Wahrscheinlichkeitstheorie. Auf Basis der gewichteten unteren und oberen possibilistischen Mittelwerte und Varianzen stellen wir zwei neue possibilistische Portfolioauswahlmodelle mit toleriertem Risikoniveau und Bestandsbeschränkungen vor. Das konventionelle probabilistische Mittelwert-Varianz-Modell kann unter Möglichkeitsverteilungen in ein lineares Programmierproblem transformiert werden. Schließlich wird eine Schätzmethode der Möglichkeitsverteilung angeboten und ein reales Beispiel für ein Portfolioauswahlproblem gegeben, um die Anwendbarkeit des Ansatzes und die Wirksamkeit unserer Methoden zu veranschaulichen.;-;-;-;https://link.springer.com/article/10.1007/s10115-008-0133-7 81c2edab31d39ad6c78a6023ad6fc701;de;;;5.3.;;;Ein neuartiger Ansatz zur Bewertung der Softwarequalität basierend auf dem Informations-Axiom Die Bewertung der Softwarequalität ist das Hauptproblem der Softwareproduktentwicklung, die die Lebensader der Softwareindustrie ist. Um dieses Problem zu lösen, wird in diesem Beitrag ein Softwarebewertungsmodell vorgestellt, eine Bewertungsmethode basierend auf einem Informationsaxiom vorgeschlagen und das Bewertungsverfahren angegeben. Abschließend wird eine Anwendungsfallstudie gegeben und das experimentelle Ergebnis zeigt die Machbarkeit und Praktikabilität der vorgeschlagenen Methode. Im Vergleich zu anderen Methoden wird der Bewertungsprozess mit Nicht-Gewichtsinformationen durchgeführt und das vorgeschlagene Verfahren weist bemerkenswerte Eigenschaften auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25989-0_44 1c030fcd384241d041b26de581ed2c03;de;;;5.3.;;;Design des GODIVA Performance Measurement Systems GODIVA (GODdard Instrumentation Visualizer and Analyzer) ist ein Softwaresystem zur Instrumentierung und Leistungsanalyse großer Fortran- und C-Wissenschaftscodes, die auf skalierbaren parallelen Systemen ausgeführt werden, einschließlich traditioneller MPPs und Beowulf-Klasse-Cluster. Das System besteht aus einer Annotations-„Sprache“, die verwendet wird, um Annotationen zu Fortran- oder C-Codes hinzuzufügen, einem Präprozessor zum Übersetzen von annotierten Codes in Standard-Fortran oder C mit eingebetteten Aufrufen an die Godiva-Laufzeitbibliothek, der Laufzeitbibliothek selbst und a Satz von Postprozessoren zum Generieren von Analysen von Instrumentierungsdaten, die während der Programmausführung gesammelt wurden. Dieses Papier bietet einen Überblick über das System und diskutiert einige der wichtigsten und einzigartigsten Designentscheidungen, die Godiva von anderen Leistungsmesssystemen unterscheiden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-49530-4_16 77864a031d626038b0cea6aaec87bc35;de;;;5.3.;;;Informationszustandsbasiertes multimodales Dialogmanagement: Schätzung des Gesprächsengagements aus Blickinformationen Dank der Fortschritte bei Computer-Vision-Technologien und Human-Sensing-Technologien können menschliche Verhaltensweisen wie Blick- und Kopfhaltungen in Echtzeit genau gemessen werden. Frühere Studien zu multimodalen Benutzerschnittstellen und intelligenten virtuellen Agenten haben viele interessante Anwendungen durch die Nutzung solcher Sensortechnologien gezeigt [1, 2]. Es wurde jedoch wenig untersucht, wie Kommunikationssignale aus einer riesigen Datenmenge extrahiert werden und wie solche Daten beim Dialogmanagement in Konversationsagenten verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04380-2_77 efaf22936da527455c75d397aab80ada;de;;;5.3.;;;Graphentheorie Dieses Kapitel ist eine eigenständige und prägnante Einführung in die Graphentheorie, die für das Studium der Mittelungsdynamik über Netzwerke unerlässlich ist. Nach einigen grundlegenden Begriffen in Abschn.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-68022-4_1 99a6b2790386dc7bfb7ab03fc5684230;de;;;2.4.;;;Dreidimensionale Szenennavigation durch anaglyphische Panoramavisualisierung Herkömmliche Panorama-Visualisierungstechniken geben dem Publikum nur den Tiefenhinweis eines einzelnen Auges für die 3D-Weltnavigation. Wir führen eine neue Panorama-Visualisierung ein, die die stereoskopische Technik mit Farbanaglyphen verwendet, sodass Tiefenhinweise für beide Augen bereitgestellt werden. Da die Kamera-Setups von Panorama- und Anaglyphenbildaufnahme an sich inkompatibel sind, messen wir die Fehler und unterstützen eine fehlerkontrollierte Positionierung der Kamera. Darüber hinaus wurde ein interaktiver Echtzeit-Navigator für die Navigation in der virtuellen Stereo-Panorama-Welt entworfen und implementiert. Eine neue Reprojektionsmethode wird eingeführt und verbessert die Qualität von anaglyphischen Panoramen erheblich. Darüber hinaus diskutieren wir einen neuartigen Ansatz, der den Navigator verbessert, indem er es ermöglicht, Szenenobjekte innerhalb der Panoramavideos zu manipulieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48375-6_65 8dddc9e7187135e5bcae72f04758e3fd;de;;;5.3.;;;CRF-basierte Rekonstruktion aus Bildsequenzen mit schmaler Basislinie Bei einer Bildsequenz einer Szene ist es möglich, eine Tiefenkarte wiederherzustellen. Obwohl Multiview-Stereoalgorithmen gut untersucht sind, werden diese Algorithmen selten im Kontext einer engen Basislinie betrachtet. In diesem Artikel wird ein praktisches Verfahren vorgeschlagen, um eine dichte Tiefenkarte unter Verwendung einer Bildsequenz mit schmaler Basislinie zu erstellen. Wir führen eine neue Struktur-von-Small-Motion-Methode ein, die auf eine schmale Basislinie zugeschnitten ist und es uns ermöglicht, spärliche Szenenstrukturen und Kameraposen wiederherzustellen. Bei der dichten Rekonstruktion verwenden wir eine raumgreifende Methode für das dichte Matching und ein vollständig verbundenes bedingtes Zufallsfeldmodell für die Tiefenverfeinerung. Im Gegensatz zu früheren Methoden, die CRF allein mit Farbinformationen führen, fügen wir auf kreative Weise Tiefeninformationen hinzu, die eine übermäßige Glättung und negative Auswirkungen durch fehlerhafte Farbinformationen effektiv vermeiden. Unser Ansatz liefert unter der gleichen Basiskonfiguration qualitativ hochwertigere Ergebnisse mit hoher Dichte als hochmoderne Algorithmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-77380-3_34 da40a0d4f7a5d3f596d7c19f8eec3266;de;;;5.3.;;;Enkulturation von Conversational Agents basierend auf einer vergleichenden Korpusstudie Bei der Begegnung mit Menschen, die einen anderen kulturellen Hintergrund haben als wir, fühlen sich viele von uns unwohl, weil Gestik und Mimik uns vielleicht nicht vertraut sind. Um die Glaubwürdigkeit von Gesprächsagenten zu erhöhen, sollten daher kulturspezifische nonverbale Verhaltensweisen in die Agenten implementiert werden. In unserer vorherigen Studie [1] haben wir mit dem Ziel, eine Benutzeroberfläche zu entwickeln, die den kulturellen Hintergrund eines Benutzers einbezieht, vergleichende Konversationskorpus in Deutschland und Japan gesammelt und die Unterschiede in Gesten und Haltungsänderungen zwischen diesen beiden Ländern untersucht. Basierend auf [1] berichtet dieser Artikel über eine detailliertere Analyse von Haltungsverschiebungen und schlägt ein Chat-System mit einem verkörperten Konversationsagenten (ECA) vor, der als Sprachtrainer fungieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85483-8_46 381a273c85ab1fd7b67dbc3b2ca2b6c3;de;;;5.3.;;;Aufteilung von Schwermetallen in sequentielle Extraktionsfraktionen in Böden, die über den historischen „Sv. Jakob” Silberbergwerk, Berg Medvednica, Kroatien. Phasenselektive sequenzielle Extraktionstechniken wurden verwendet, um die Aufenthaltsorte von Metallen in Böden zu identifizieren, die über einem historischen Silberbergbaustandort entwickelt wurden. Die für die Extraktion ausgewählten betrieblich definierten Phasen wurden den folgenden fünf Fraktionen zugeordnet: adsorbiert, an Carbonate gebunden, an Fe-Mn-Oxide gebunden, an organische Substanz und Reststoffe gebunden. Folgende Reagenzien wurden verwendet: NH;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0303-2_26 7eaf96fd17921c833cb76af3264bdf5f;de;;;5.3.;;;Wissen im Miteinander: Soziale Intelligenz in der kollaborativen Gestaltungstätigkeit Geschicktes kooperatives Handeln bedeutet, die kommunikative Situation zu verstehen und zu wissen, wie und wann zweckgerecht zu reagieren ist. Diese Fähigkeit dient der Leistungsfähigkeit von Wissen im Zusammenwirken und ist eine Form der sozialen Intelligenz für nachhaltige Interaktion. Soziale Intelligenz bezeichnet hier die Fähigkeit von Akteuren und Agenten, ihre Beziehungen untereinander zu managen. In einer Umgebung haben wir Menschen, Werkzeuge, Artefakte und Technologien, mit denen wir uns beschäftigen. Betrachten wir all dies als dynamische Repräsentationen von Wissen. Wenn dieses Wissen inszeniert wird, d. h. wenn wir es verstehen, um es effektiv zu kommunizieren, so dass es für uns unsichtbar wird, wird es zu Wissen im Zusammenwirken. Eine Herausforderung des Social-Intelligence-Designs besteht darin, vermittelnde Schnittstellen zu schaffen, die für uns unsichtbar werden können, also als Erweiterung unserer selbst. In diesem Beitrag präsentieren wir eine Studie über die Verwendung von Oberflächen, die grafische Interaktionen ermöglichen, in kollaborativen Designaufgaben, um das Design intelligenter Benutzeroberflächen zu beeinflussen. Dies ist eher eine deskriptive Studie als eine Usability-Studie, um zu untersuchen, wie Größe, Ausrichtung und horizontale und vertikale Positionierung die Funktionalität der Oberfläche in einer kollaborativen Umgebung beeinflusst.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84628-927-9_3 11c15d0d55e6d8d6f99bde6796d561a0;de;;;2.4.;;;Forschung zur Leistungsbewertung von Enterprise Knowledge Management innerhalb von Clustern basierend auf BSC Nach der Analyse der Funktion und des Konzepts des Branchenclusters und der einfachen Zusammenfassung der Anwendung von BSC auf die Leistungsbewertung des Unternehmenswissensmanagements untersuchen wir die Anwendung von BSC auf die Leistungsbewertung des Unternehmensclusters für das Unternehmenswissensmanagement im Hinblick auf die Verbesserung der Wettbewerbsfähigkeit von Branchenclustern. und eine Leistungsbewertung eines Unternehmens-Wissensmanagementsystems vorlegen, das die Industrie und die Funktionen von BSC kombiniert. Die Ergebnisse dieser Studie werden eine neue und effektive Methode zur Leistungsbewertung von Enterprise Knowledge Management innerhalb von Clustern bereitstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38427-1_26 3c5b50bfe512d975abcdfdd93313fe78;de;;;5.3.;;;Eine mobile Gesundheitsanwendung für Patienten mit chronischen Krankheiten Das aktuelle Papier stellt eine personalisierte Ernährungsberatungsanwendung vor, die von Patienten mit chronischen Erkrankungen verwendet werden kann, um ihre Nahrungsaufnahme zu steuern und zu kontrollieren. Diese Anwendung wurde entwickelt, um als arabische Android-Anwendung für mobile Geräte verwendet zu werden. Die elementaren Ergebnisse bestätigen die Bedeutung einer solchen Anwendung, um Patienten mit chronischen Erkrankungen bei der Befolgung der Nährwertangaben zu unterstützen. Fast alle Teilnehmer waren bereit, ihren Patienten das vorgeschlagene System zu empfehlen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-56991-8_59 cf9e6ed9194a8b51a0c5be7843d98694;de;;;2.4.;;;Zeitskalen sensomotorischer Kontingenzen In der sensomotorischen Kontingenztheorie (SMCT) werden Unterschiede zwischen den Wahrnehmungsqualitäten sensorischer Modalitäten durch die unterschiedliche Struktur der Abhängigkeiten zwischen menschlichen Handlungen und den daraus resultierenden Veränderungen der sensorischen Stimulation erklärt. Es unterscheidet modalitätsbezogene sensomotorische Kontingenzen (SMCs), die die Struktur von Veränderungen für einzelne Sinnesmodalitäten beschreiben, und objektbezogene SMCs, die multisensorische Muster erfassen, die durch auf Objekte gerichtete Handlungen verursacht werden. Diese Eigenschaften legen eine Aufteilung der Zeitskalen nahe, indem modalitätsbezogene SMCs die unmittelbare Wirkung von Handlungen auf Eigenschaften des sensorischen Signals beschreiben und objektbezogene SMCs Handlungssequenzen und sensorische Beobachtungen berücksichtigen. Wir präsentieren ein Rechenmodell von SMCs, das diese Unterscheidung implementiert und es ermöglicht, die Eigenschaften der verschiedenen SMC-Typen zu analysieren. Die Entstehung von Wahrnehmungsfähigkeiten wird in einem von diesem Modell gesteuerten Lokomotivroboter demonstriert, der ein handlungsbasiertes Verständnis für die Größe seiner Einschließung entwickelt, ohne dabei Distanzsensoren zu verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31561-9_27 b9ec0296449decbbfcb8f95629d6c1c5;de;;;2.4.;;;Wissensbasiertes System zur Diagnose und Behandlung von Mango-Krankheiten Mango ist eine der weltweit wichtigsten Früchte der tropischen und subtropischen Länder und wird extensiv als kommerzielle Obstkultur angebaut. Auch die Mangofrucht wird in allen Teilen Äthiopiens angebaut. Mangobäume in den meisten Teilen Äthiopiens werden aus Setzlingen entwickelt und sind in Bezug auf Produktivität und Fruchtqualität unterlegen. Der Mangobaum wird von verschiedenen Insekten und Krankheiten befallen. Mit dem Endziel, solche Fragen und Probleme anzugehen, ist es sehr wichtig, ein wissensbasiertes System zu entwickeln, das Landwirtschaftsfachleuten und Landwirten Ratschläge zur möglichen Diagnose und Behandlung von Mangokrankheiten bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-26630-1_2 e4a4bedc26a22cb484844be30e64a67d;de;;;2.4.;;;Ein automatischer Fahrerassistent basierend auf der Absichtserkennung mithilfe des EEG-Signals Jedes Jahr steigt die Fahrzeugsicherheit. Kürzlich wurden Gehirnsignale verwendet, um Fahrern zu helfen. Der Versuch, sich zu bewegen, erzeugt elektrische Signale in bestimmten Regionen des Gehirns. Wir haben ein System entwickelt, das auf der motorischen Absicht basiert, um Fahrer zu unterstützen und Autounfälle zu vermeiden. Das Hauptziel dieser Arbeit ist die Verbesserung der Reaktionszeit auf externe Gefahren. Die motorische Absicht wurde von 16 Kanälen eines tragbaren Geräts namens Open-BCI aufgezeichnet. Das Extrahieren von Merkmalen erfolgte durch übliche räumliche Muster, was eine bekannte Methode in motorischen Bildgebungs-basierten Brain Computer Interface (BCI)-Systemen ist. Durch die Verwendung eines verbesserten gemeinsamen räumlichen Musters (CSP), das als starke unkorrelierte Transformation, komplexes gemeinsames räumliches Muster (SUTCCSP) bezeichnet wird, wurden Merkmale vorverarbeiteter Daten extrahiert. In Bezug auf die nichtlineare Natur des Elektroenzephalogramms (EEG) wurde eine Support Vector Machine (SVM) mit Kernel-Trick-Klassifikator verwendet, um Merkmale in 3 Klassen zu klassifizieren: links, rechts und Bremse. Durch die Verwendung der entwickelten SVM können Befehle 500 ms früher mit einer Systemgenauigkeit von durchschnittlich 94,6% vorhergesagt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5281-6_43 6d4a266ee79f86f1a10d55c50754b2b8;de;;;5.3.;;;User Interface Design von Sound Tactile Wir haben ein Gerät entwickelt, das es ermöglicht, Töne über Haarvibrationen von Gehörlosen wahrzunehmen, das Konzept ähnelt dem von Katzenschnurrhaaren, die Luftströmungen erkennen können. Das Gerät wandelt die Lautstärke eines Geräusches in eine Vibration mit einer bestimmten Leistung um und die Benutzer tragen das Gerät ähnlich wie eine Haarspange im Haar. Wenn das Gerät ein Geräusch erkennt, leitet es die Informationen an den Benutzer weiter, indem es das Haar schüttelt und eine Leuchtdiode aktiviert. Dies ermöglicht anderen Benutzern des Geräts, Informationen über den Ton zu erhalten, und erleichtert das Teilen. Die Ergebnisse eines Bewertungsexperiments zeigten, dass gehörlose Menschen Tierrufmuster und Automotorgeräusche verstehen konnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08599-9_57 a86dad10cf09535f5bed7fede03e4b1b;de;;;2.4.;;;Effizienzsteigerung bei hoher Datenrate durch Codierung mit variabler Länge für LoRaWAN Kostengünstige Optionen zur Bereitstellung einer lokalen transaktionalen Netzwerkabdeckung sind LPWAN (Low Power Wide Area Network), die einfacher zu implementieren und zu verwalten sind. Die aufstrebende Technologie namens LoRaWAN stellt aufgrund ihrer relativ großen Reichweite sowie der technologischen Entwicklungsmöglichkeiten angesichts ihrer jüngsten Einführung und ihres unvollendeten Standards eine vielversprechende LPWAN-Option dar. Das Hauptprotokoll von LoRaWAN besteht aus Frames mit codierten Daten fester Länge von Endgeräten, unabhängig von der Länge dieser Daten, diese Wahl dient der Vereinfachung der Codierung, Übertragung und Decodierung, um den Stromverbrauch des Netzwerks gering zu halten. In dieser Arbeit stellen wir eine Modifikation des LoRaWAN-Kommunikationsprotokolls vor, bei der Nutzdaten in benutzerdefinierten Frames codiert werden, die die Art und Länge dieser Daten respektieren. Die Methodik wird am Beispiel von Endgeräten (Sensoren) mit geringer Leistung veranschaulicht, die 9 Positions-, Orientierungs- und meteorologische Variablen erzeugen, und sie wird sorgfältig implementiert, um die Decodierungsphase im Empfänger zu vereinfachen und die Handhabbarkeit des Netzwerkverkehrs zu optimieren . Das Hauptergebnis dieser Rahmencodierung mit variabler Länge ist eine beträchtliche Verbesserung der Übertragungsdatenraten (mit einem Faktor von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-62554-2_8 15d14acdd20dca49d67ec4fabb0c466f;de;;;2.4.;;;Die Erforschung und Implementierung einer Datenbankoptimierungsmethode basierend auf dem K-Nearest Neighbor Algorithmus Die Kerntechnologie der relationalen Datenbank im Zeitalter des „Internet plus“ ist noch weit verbreitet, aber die Leistungsoptimierung einer relationalen Datenbank erfordert zwangsläufig viele Parameteranpassungen. In diesem Papier wurde eine Art Datenbankoptimierungsmethode basierend auf dem K-Nearest-Neighbor-Algorithmus vorgestellt, wobei die Datenbankkonfigurationsparameter die Verwaltung automatisch optimieren. Es hat nicht nur die Allgemeingültigkeit der Datenbankoptimierung erheblich verbessert, sondern auch die umständliche manuelle Einrichtung reduziert und die Nachteile der empirischen Einstellung der bestehenden Technologie vermieden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-02116-0_36 c736d2883c12148f12d8ace630a57b22;de;;;2.4.;;;Trajektorienvorhersage im Campus basierend auf Markov-Ketten In diesem Beitrag präsentieren wir ein Modell zur Vorhersage des nächsten Standortes eines Studenten auf dem Campus basierend auf Markov-Ketten. Da die Aktivität eines Studenten auf dem Campus eng mit der Zeit zusammenhängt, zu der die Aktivität stattfindet, betrachten wir den Begriff der Zeit im Vorhersagealgorithmus, den wir als Trajectory Prediction Algorithm (TPA) geprägt haben. Um die Effizienz unseres Vorhersagemodells zu bewerten, verwenden wir unser drahtloses Datenanalysesystem, um mehr als sieben Monate lang reale raum-zeitliche Flugbahndaten auf dem Campus zu sammeln. Experimentelle Ergebnisse zeigen, dass unser TPA die Vorhersagegenauigkeit um über 30 % gegenüber der ursprünglichen Markov-Kette erhöht hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-42553-5_13 1b7009459a3e7ad208bb1bc8022f4dba;de;;;2.4.;;;Eingebettetes System zur Charakterisierung elektrischer Lasten basierend auf künstlichen neuronalen Netzen im Management des elektrischen Bedarfs in einem domotischen System In einer eingebetteten Plattform wurde ein Lastcharakterisierungssystem entwickelt, um im Haushalt verwendete elektrische Geräte zu identifizieren. Für den Charakterisierungsprozess wurden die repräsentativsten elektrischen Parameter der verschiedenen Lasten definiert, die beim Training eines künstlichen neuronalen Netzes verwendet wurden, das in einer eingebetteten Plattform mit einer Netztopologie mit der besten Leistung in Bezug auf Rechenressourcen, Ausführungszeit implementiert ist und Fehlerprozentsatz. Die Netzwerktopologie hatte zwei versteckte Schichten mit jeweils 10 Neuronen. Mit der Charakterisierung der Stromkosten könnte ein intelligentes Hausautomationssystem geschaffen werden, das Einsparungen von bis zu 23 % gegenüber herkömmlichen Hausautomationssystemen oder 69 % gegenüber einem Haus ohne Automatisierung oder Systemsteuerung ermöglicht. Das vorgeschlagene Bedarfsmanagementsystem kann die Lasten aufgrund der Kenntnis der an das Netz angeschlossenen Elemente aktiv verwalten und Perioden mit geringem Verbrauch identifizieren, die mit Ladevorgängen in Mobiltelefonen, Laptops oder im Standby-Modus von Fernsehgeräten zusammenhängen können. Die Identifizierung von Gebühren erleichtert die Umsetzung von Verwaltungssystemen und die Kontrolle der elektrischen Gebühren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-53021-1_32 83931fca8ffa13c06751a60b7acb815a;de;;;2.4.;;;FVSR-Net: ein End-to-End-Netzwerk zur Entfernung von Fingervenenbildern Aufgrund der immer stärker werdenden Betonung der hohen Sicherheit der biometrischen Erkennung hat die Fingervenenerkennung immer mehr Aufmerksamkeit erregt. Aufgrund der Lichtstreuung im menschlichen Hautgewebe während der Nahinfrarot-Lichtübertragungsbildgebung werden die gesammelten Fingervenenbilder jedoch immer dramatisch verschlechtert, was zur Unzuverlässigkeit der Venenmerkmale und der geringen Genauigkeit der Fingervenenerkennung führt. Obwohl beträchtliche traditionelle Verfahren dem Eliminieren des Effekts der Lichtstreuung auf die Bildgebung gewidmet sind, können die klareren Bilder nicht durchgehend ausgegeben werden, die Prozesse der Wiederherstellung degradierter Fingervenenbilder sind ebenfalls mühsam. Mit dem Ziel, die Sichtbarkeit von Fingervenenmerkmalen zu verbessern und durchgängig klare Fingervenenbilder zu erzeugen, stellt dieser Versuch eine einfache und effektive Methode dar, die das Convolutional Neural Network (CNN) verwendet. Erstens wurde in unserer vorherigen Arbeit das biologische optische Modell, das verwendet wurde, um die Angelegenheit der Hautstreuung zu klären, modifiziert, um wiederhergestellte Fingervenenbilder in einer End-to-End-Weise auszugeben. Zweitens wird ein Multiskalen-CNN namens E-Net eingerichtet, um eine glaubwürdige Schätzungskarte von Fingervenenmerkmalen zu erhalten, die der Gewinnung eines angenehmen Wiederherstellungsergebnisses förderlich ist. Schließlich wird ein Streuentfernungs-Framework, das als Fingervenenbild-Streuungsentfernungsnetzwerk (FVSR-Net) bezeichnet wird, durch die Integration eines verbesserten biologischen optischen Modells mit E-Net entworfen. Ein solches neuartiges Design erleichtert die Erzeugung klarerer venöser Regionen und erhöht die Recheneffizienz und -stabilität. Experimente, die an zwei Fingervenen-Datensätzen durchgeführt wurden, zeigen die Überlegenheit unserer vorgeschlagenen Methode in Bezug auf visuelle Qualität und Erkennungsleistung.;-;-;-;https://link.springer.com/article/10.1007/s11042-020-09270-1 855d61a53fafac287e8084848acb2382;de;;;2.4.;;;Ein bimodales biometrisches System mit Handabdruck- und Gesichtsmodalität In diesem Beitrag stellen wir ein bimodales biometrisches Identitätssicherungssystem vor, das Handabdruck- und Gesichtsmodalitäten kombiniert. Die Gabor-Merkmale werden aus beiden Modalitäten extrahiert und auf Merkmalsebene kombiniert. Die Diskriminanzanalyse nach Kernel Fisher wird durchgeführt, um die Merkmale zu erhalten und dadurch eine Wissensbasis zu schaffen. Die Experimente werden zur biometrischen Identifizierung und Verifizierung an verschiedenen Datensätzen durchgeführt. Die Kombination der Modalitäten verbessert die Genauigkeit der Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2514-4_17 11c9d04e4dfe2f433b196765d849455d;de;;;2.4.;;;Entropiebasierte optimale Skalenkombinationsauswahl für verallgemeinerte Multiskalen-Informationstabellen In vielen realen Anwendungen sind Daten oft hierarchisch auf unterschiedlichen Granulierungsebenen strukturiert. Eine Multiskalen-Informationstabelle ist ein spezieller hierarchischer Datensatz, in dem jedes Objekt so viele Werte annehmen kann, wie es Skalen unter demselben Attribut gibt. Ein wichtiges Thema in einem solchen Datensatz ist die Auswahl der optimalen Skalenkombination, um eine bestimmte Bedingung für die endgültige Entscheidung aufrechtzuerhalten. In diesem Artikel untersuchen wir unter Verwendung der Shannon-Entropie die Auswahl der optimalen Skalenkombination, um ein unsicheres Maß eines Wissens aus einer verallgemeinerten Multiskalen-Informationstabelle zu erhalten. Wir überprüfen zunächst das Konzept der Entropie und seine grundlegenden Eigenschaften in Informationstabellen. Anschließend führen wir den Begriff der Skalenkombinationen in eine verallgemeinerte Multiskalen-Informationstabelle ein. Wir definieren ferner eine entropieoptimale Skalenkombination in verallgemeinerten Mehrskalen-Informationstabellen und verallgemeinerten Mehrskalen-Entscheidungstabellen. Schließlich untersuchen wir die Beziehung zwischen der entropieoptimalen Skalenkombination und der klassischen optimalen Skalenkombination. Wir zeigen, dass in einer verallgemeinerten Multiskalen-Informationstabelle oder einer konsistenten verallgemeinerten Multiskalen-Entscheidungstabelle die entropieoptimale Skalenkombination und die klassische optimale Skalenkombination äquivalent sind. Und in einer inkonsistenten verallgemeinerten Multiskalen-Entscheidungstabelle ist eine Skalenkombination genau dann verallgemeinert entscheidungsoptimal, wenn sie eine verallgemeinerte Entscheidungsentropie optimal ist.;-;-;-;https://link.springer.com/article/10.1007/s13042-020-01243-y c54b10f28b66804a06786e25d420e81b;de;;;2.4.;;;SDUMLA-HMT: Eine multimodale biometrische Datenbank In diesem Beitrag werden der Erwerb und der Inhalt einer neuen homologen multimodalen biometrischen Datenbank vorgestellt. Die SDUMLA-HMT-Datenbank besteht aus Gesichtsbildern aus 7 Blickwinkeln, Fingervenenbildern von 6 Fingern, Gangvideos aus 6 Blickwinkeln, Irisbildern von einem Irissensor und Fingerabdruckbildern, die mit 5 verschiedenen Sensoren aufgenommen wurden. Die Datenbank enthält echte multimodale Daten von 106 Personen. Neben der Datenbankbeschreibung stellen wir auch die Nutzungsmöglichkeiten der Datenbank vor. Die Datenbank steht der Forschungsgemeinschaft über;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25449-9_33 90fddee6c79025a1472f2962a5ec3aca;de;;;2.4.;;;Algorithmen Erforschung der Entdeckung illegaler Tankstellen basierend auf Fahrzeug-Trajektoriendaten Mit der Zunahme von Kraftfahrzeugen steigt die Nachfrage nach Tankstellen. Wegen der steigenden Gewinne der Tankstellen haben viele Händler illegale Tankstellen gebaut. Die Gefahren illegaler Tankstellen sind enorm. Die Regierung hat immer traditionelle manuelle Methoden verwendet, um illegale Tankstellen zu überprüfen. Es wird ein Problem, illegale Tankstellen in den Flugbahndaten schnell und effektiv zu minen. Dieses Papier schlägt einen illegalen Tankstellen-Cluster-Erkennungsalgorithmus für unmarkierte Flugbahndaten vor. Der Algorithmus ermittelt den vermuteten Tankpunktsatz und den häufigen Aufenthaltspunktsatz eines einzelnen Fahrzeugs. Durch den Unterschied zwischen den beiden werden die verdächtigen Punkte der illegalen Tankstellen in der einzelnen Fahrzeugbahn erhalten, und schließlich werden alle verdächtigen Punkte der illegalen Tankstelle des gleichen Fahrzeugtyps geclustert, um die illegale Tankstelle zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2810-1_11 ea310c0a1cfae034dba42083d40985b5;de;;;2.4.;;;Design und Anwendung eines zentralisierten Messwandler-Messsystems in einem Reihenkompensationssystem In diesem Beitrag werden die Anforderungen an das Hochvolt-Plattformmesssystem des Serienkompensationssystems analysiert. Durch die Analyse der Plattform des Serienkompensationssystems untersucht diese Arbeit die Geräuschquelle und den Weg des TA-Messsystems auf der Plattform und stellt ein zentrales TA-Messsystem vor. Das System verwendet Signalverarbeitungs- und photoelektrische Wandlermodule auf Basis von CPLD mit geringem Stromverbrauch und zuverlässiger redundanter Stromversorgung. Außerdem werden die Modulfunktionen im zentralen TA-Messsystem vorgestellt. Das System wurde erfolgreich im kanadischen Serienkompensationsprojekt eingesetzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9779-0_41 04c5b46089bbfc206c07081c6b94ab5c;de;;;2.4.;;;Entwicklung eines Active Ranging Systems basierend auf strukturiertem Lichtbild für mobile Roboteranwendungen Dieses Papier stellt ein aktives Entfernungsmesssystem vor, das auf einem strukturierten Laserlichtbild basiert und robust gegenüber Umgebungsbeleuchtungsrauschen ist. Die Bildverarbeitung mit strukturiertem Licht ist rechentechnisch effizienter als die herkömmliche Stereobildverarbeitung, da das lästige Korrespondenzproblem vermeidbar ist. Um Robustheit gegenüber Beleuchtungsrauschen zu erreichen, schlagen wir einen effizienten Bildverarbeitungsalgorithmus vor, d. h. die Integration von sequentiellen Zeitdifferenzbildern mit Strukturlichtmodulation. Der vorgeschlagene Algorithmus beinhaltet nur elementare Operationen wie die ganzzahlige Subtraktion und Addition und ist für die Hardwareimplementierung geeignet. Für diesen Algorithmus wird ein spezieller FPGA-Bildprozessor entwickelt. Eine Distanzgleichung und Sensitivitätsanalyse werden ebenfalls vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27180-9_7 3a80f364f99445d86ff1bcc9a5ee1f56;de;;;2.4.;;;Optimales Design des Mehrkanal-Korrelators für das gleiche Codesignal und seine Anwendung beim Anti-Jamming für GNSS Mit der zunehmenden Komplexität der elektromagnetischen Umgebung, dem Auftreten von Mehrwegeinterferenzen in Stadtschluchten und von Menschen verursachten absichtlichen Sliding-Code-Korrelationsstörungen macht die Leistung des traditionellen Satellitennavigationsempfängers, der dieselbe Codeerfassungs- und Verfolgungsschleife mit drei Kanälen hat, vorhanden, spät komplexe Korrelatoren, stark reduziert oder sogar ausgefallen. Um dieses Problem zu lösen, wird darauf hingewiesen, dass die Multiplikation und Integration von PN-Code und -Signalen durch Verwendung einer einfachen logischen Operation und eines digitalen Addierers im Empfänger realisiert werden kann. Basierend auf dieser Idee wird eine Mehrkanal-Korrelationsoperation für denselben Code vorgeschlagen, um die Korrelationskurve für ein Dauerfenster in Echtzeit zu erhalten, um so die künstliche Gleitcode-Korrelationsstörung zu unterscheiden. Die Detektion, Identifizierung und Unterscheidung in dem Prozess bezüglich des Zusammentreffens, Zusammenführens und Trennens von Mehrfachkorrelationsspitzen, die durch das Störsignal verursacht werden, stellen sicher, dass der Empfänger die Korrelationsspitze des echten Signals kontinuierlich und stabil verfolgt. Es vermeidet effektiv die Situation, dass die Verzögerungsverriegelungsschleife im herkömmlichen Navigationsempfänger falsch ist oder nicht verriegelt ist. Die Simulationsergebnisse belegen die Wirksamkeit und Korrektheit dieser Methode. Es bietet eine wichtige Referenz für das Architekturdesign und die Anti-Jamming-Anwendung für den digitalen Satellitennavigationsempfänger der nächsten Generation.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-3146-7_38 80b9c616ce7f981796cf0a3f059efe79;de;;;2.4.;;;Verwendung von Satellitenbildern mit hoher räumlicher Auflösung zur Kartierung von Echtem Mehltau auf regionaler Ebene Ein effizientes Pflanzenschutzmanagement erfordert die rechtzeitige Erkennung von Krankheiten. Die rasante Entwicklung der Fernerkundungstechnologie bietet die Möglichkeit der räumlichen kontinuierlichen Überwachung von Pflanzenkrankheiten über einen großen Bereich. In dieser Studie wurde zur Überwachung von Echtem Mehltau in Winterweizen in einem Gebiet, in dem eine schwere Krankheitsinfektion auftrat, die Fähigkeit von hochauflösenden (6 m) multispektralen Satellitenbildern, SPOT-6, zur Krankheitskartierung bewertet und durch Felduntersuchungen validiert Daten. Basierend auf einem rigorosen Merkmalsauswahlprozess wurden fünf krankheitsempfindliche Spektralmerkmale: grünes Band, rotes Band, normalisierter Differenz-Vegetationsindex, Dreiecksvegetationsindex und atmosphärisch-resistenter Vegetationsindex aus einer Gruppe von Kandidaten-Spektralmerkmalen/-variablen ausgewählt. An den ausgewählten Merkmalen wurde eine Spektralkorrektur durchgeführt, um einen möglichen Basislinieneffekt über verschiedene Regionen hinweg zu eliminieren. Dann wurde das Krankheitskartierungsverfahren basierend auf einer Spektralwinkelkartierungstechnik entwickelt. Durch die Validierung mit einem Satz von Felduntersuchungsdaten wurde eine Gesamtkartierungsgenauigkeit von 78 % und ein Kappa-Koeffizient von 0,55 erreicht. Eine solch mäßige, aber praktisch akzeptable Genauigkeit legt nahe, dass die hochauflösenden multispektralen Satellitenbilddaten ein großes Potenzial bei der Überwachung von Pflanzenkrankheiten haben.;-;-;-;https://link.springer.com/article/10.1007/s11119-015-9421-x a707495fd8860d5254521e585f346699;de;;;5.3.;;;Vergleich eines Bildschirm-Agenten mit einem Roboter-Agenten in Interaktionen, die nicht von Angesicht zu Angesicht sind Wir haben die Auswirkungen eines Bildschirmagenten und eines Roboteragenten auf das Verhalten der Benutzer in einer Interaktion ohne persönliche Interaktion untersucht, was ein viel realistischerer Stil ist als die persönliche Interaktion, auf die sich die meisten Studien konzentriert haben . Die Ergebnisse zeigten, dass die Teilnehmer positivere Einstellungen oder Verhaltensweisen gegenüber den Roboteragenten hatten als die auf dem Bildschirm. Wir diskutieren die Ergebnisse dieser Untersuchung und konzentrieren uns insbesondere darauf, wie man komfortable Interaktionen zwischen Benutzern und verschiedenen interaktiven Agenten in verschiedenen Medien schafft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85483-8_61 ec0894dd60a4f4520f38d4d6d73cb8e8;de;;;5.3.;;;Kulturübergreifende Studie zu Gesichtsregionen als Hinweise zur Erkennung von Emotionen virtueller Agenten Dieser Artikel berichtet über die vorläufigen Ergebnisse einer interkulturellen Studie zu Gesichtsregionen als Hinweise, um den Gesichtsausdruck virtueller Agenten zu erkennen. Das Experiment wurde zwischen Japan und Ungarn durchgeführt, wobei 18 von Japanern entworfene Gesichtsausdrücke karikaturhafter Gesichter verwendet wurden. Die Ergebnisse legen Folgendes nahe: 1) Es gibt kulturelle Unterschiede zwischen Ungarn und Japan, wenn Gesichtsregionen als Hinweise verwendet werden, um karikaturhafte Gesichtsausdrücke zu erkennen. Japaner gewichteten Gesichtsreize in den Augenregionen stärker als Ungarn, die Gesichtsreize in der Mundregion stärker gewichteten als Japaner. 2) Die Mundregion ist unabhängig vom Land effektiver, um die Emotionen des Gesichtsausdrucks zu vermitteln als die Augenregion. Aus unseren Erkenntnissen lassen sich nicht nur Gestaltungsrichtlinien für die Mimik virtueller Agenten ableiten, die auf Nutzer einer einzelnen Kultur abzielen, sondern auch als Anpassungsstrategien in Anwendungen mit multikulturellen Nutzern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17184-0_2 b2bc1112699ab81f267ad1855c3c600e;de;;;5.3.;;;Binokulare Therapie von Sehbehinderungen, unterstützt durch kontaktloses Eye-Gaze-Tracking-System Binokulare Sehstörungen führen oft zu einem teilweisen oder vollständigen Verlust des stereoskopischen Sehens. Das Fehlen des binokularen Sehens ist eine schwerwiegende Sehbehinderung, die mehr Aufmerksamkeit verdient. Sehr wichtige Folge der binokularen Sehstörungen ist eine binokulare Tiefenwahrnehmung. Dieser Beitrag beschreibt auch ein Konzept eines Mess- und Therapiesystems für binokulare Sehbehinderungen unter Verwendung eines Eye-Gaze-Tracking-Systems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14100-3_55 1491dca73d3376d3f3e912df7bb15b11;de;;;5.3.;;;Verwenden von Animation im Active Learning Tool, um mögliche Angriffe in kryptografischen Protokollen zu erkennen Interaktive Visualisierungstools zum aktiven Lernen von generischen kryptografischen Protokollen gibt es nur sehr wenige. Obwohl diese Tools die Möglichkeit bieten, den Lernenden zu motivieren, indem sie ihn bitten, ein kryptografisches Protokoll mit einer einfachen visuellen Metapher zu beschreiben, um die Abstraktion der visualisierten Konzepte darzustellen, besteht das Problem darin, dass einige kryptografische Operationen nicht visualisiert oder animiert und vor dem Lernen des Lernenden verborgen sind Perspektive wie Verschlüsselungs-/Entschlüsselungsaktionen. Andere Vorgänge wie Zeitstempel und Aktualität werden von diesen Tools nicht unterstützt. Daher ist es schwierig, alle möglichen Angriffe abzudecken, die der Eindringling mit solchen Operationen ausführen könnte. Der Zweck dieser Forschung ist es, ein interaktives Visualisierungstool bereitzustellen, um Studenten im Grundstudium Sicherheitsprotokollkonzepte, insbesondere Schlüsselverteilung, mehrere Operationen wie Verschlüsselung/Entschlüsselung und signierte/unsignierte Operationen und mögliche Protokollangriffe zu vermitteln. Durch das Entwerfen einer hochwertigen grafischen Benutzeroberfläche und einer einfachen visuellen Metapher werden die Lernenden in der Lage sein, die Protokolle zu spezifizieren und den möglichen Angriff bei jedem Schritt der Protokolldemonstration zu berücksichtigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05036-7_48 6263885dcf3708219ef5c24e4dc5f31b;de;;;2.4.;;;Angleichung der Umsetzungsgrade der Elektromobilität in Städten Der Start von Aktivitäten zur Entwicklung der Elektromobilität in städtischen Gebieten ist ein schwieriger Prozess, der vor allem auf die Existenz infrastruktureller und sozialer Barrieren zurückzuführen ist. In diesem Beitrag werden verschiedene Entwicklungsstufen der Elektromobilität diskutiert und die wichtigsten Anstrengungen zur Identifizierung potenzieller Standorte für Fahrzeugladestationen aufgezeigt. Die Erforschung der Verkehrserreichbarkeit wurde in zwei Städten durchgeführt, die sich durch unterschiedliche Reifegrade der Umsetzung der Elektromobilität auszeichnen (Den Haag und Budapest). Die Autoren haben eine Methode zur Erfassung von Daten über die realen Bedürfnisse der reisenden Bevölkerung vorgeschlagen, von der angenommen wird, dass sie als Entscheidungshilfe für lokale Behörden hinsichtlich der Installation von Ladeinfrastruktur dient. Die Methode basiert auf dem Einsatz moderner Technologien, darunter ein multimodaler Reiseplaner, der im Rahmen des internationalen Projekts Electric Travelling entwickelt wurde und im Rahmen des ERANET CoFund Electric Mobility Europe-Programms umgesetzt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-59270-7_13 55d47958f48ebeb075e14b5ef33a0583;de;;;2.4.;;;Charakteristik der Netzwerkaufmerksamkeit für den ländlichen Tourismus basierend auf Big Data Um die sich verändernden Merkmale der ländlichen Tourismusentwicklung im Zeitalter von Big Data zu verstehen, wurde in dieser Studie die Netzwerkaufmerksamkeit des ländlichen Tourismus in China von 2016 bis 2018 anhand des Baidu-Index anhand von Schlüsselwörtern recherchiert. Die Ergebnisse zeigen, dass die tägliche Netzwerkaufmerksamkeit des ländlichen Tourismus in China von 2016 bis 2018 regelmäßig schwankt. Die Hochsaison des ländlichen Tourismus ist von März bis Juni und von Oktober bis Dezember. Während der Feiertage zum Internationalen Tag der Arbeit gibt es ein hohes Maß an Besorgnis. Und ein bis drei Tage vor den Feiertagen ist der Zweck der Suche stark. Während des Frühlingsfestes ist die tägliche Netzwerkaufmerksamkeit des ländlichen Tourismus nicht groß und die Begeisterung der Touristen, sich für den ländlichen Tourismus zu entscheiden, ist nicht groß.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5959-4_121 7eea538dc3cc2ec9fa4a1482e4b21efc;de;;;5.3.;;;Computer Vision und Grafiktechniken zur Modellierung bekleideter Menschen In diesem Kapitel stellen wir Techniken vor, um gekleidete menschliche Modelle aus Bildern zu bauen. Wir kombinieren Computer-Vision-basierte Ansätze wie die 3-D-Rekonstruktion eines menschlichen Körpers und die Analyse-by-Synthese des Verhaltens von Stoffmaterial mit den Computergrafik-Ansätzen zur realistischen Darstellung komplexer Objekte. Die experimentellen Ergebnisse umfassen die Erstellung texturierter 3D-Modelle von Menschen aus mehreren Bildern, das Anziehen dieser Modelle in virtuelle Kleidungsstücke und die gemeinsame Schätzung der Drapierungsparameter des Stoffes und der zugrunde liegenden Objektgeometrie in Entfernungsbildern von gekleideten Objekten.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4321-9_10 85b685500077d4acb438edbc8c3b1c5c;de;;;2.4.;;;Vorhersagepotenzialanalyse arabischer diakritischer Zeichen und Satzzeichen in Online-Handschriften: Ein neuer Marker für die Parkinson-Krankheit Die Parkinson-Krankheit (PD) ist eine fortschreitende Bewegungsstörung, die durch Ruhezittern, Bradykinesie und Steifheit gekennzeichnet ist. Die Veränderung der Handschriftfähigkeit (HW) ist eines der frühesten motorischen Symptome bei PD-Patienten. Diese Eigenschaft kann ausgenutzt werden, um ein automatisches Hilfesystem zur Früherkennung dieser Pathologie zu entwickeln. Dieser Artikel zielt darauf ab, die Bedeutung von diakritischen Zeichen und Satzzeichen (DPM) beim Diskriminierungsproblem von PD-Patienten und gesunden Kontrollpersonen (HCs) zu bewerten, indem die Klassifikationsergebnisse aus drei Komponenten verglichen werden: Text mit DPM, Text ohne DPM sowie nur DPM. Diese Arbeit umfasst die arabischen Manuskripte von 31 PD-Patienten und 31 HCs. Darüber hinaus wurden für jede Komponente kinematische, mechanische und Neigungsmerkmale berechnet. Dann wurden Adaboost-Modelle auf verschiedenen Merkmalssätzen sowie auf reduzierten Sätzen konstruiert, die inkrementell unter Verwendung des mRMR-Rangfolgemerkmalsauswahlverfahrens gebildet wurden. Aus den erhaltenen Ergebnissen wurde geschlossen, dass die Trennkraft der HW-Merkmale im Klassifikationsproblem von PD-Patienten und HCs in allen Komponenten des arabischen Textes vorhanden ist, jedoch in unterschiedlicher Bedeutung. Trotz der einfachen grafischen Natur von DPM enthalten sie relevante Diagnoseinformationen und tragen effektiv zur Verbesserung der PD-Erkennungsleistung bei. Für dieses Bauteil wurde die höchste Genauigkeit von 93,54 % erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6893-4_81 e5d1c753572ac4842bc8d940c71f04ab;de;;;2.4.;;;Digitale Forensik für Drohnendaten – Intelligentes Clustering mit selbstorganisierenden Karten Drohnen oder unbemannte Luftfahrzeuge (UAVs) wurden in den letzten zehn Jahren schnell für eine Reihe von Anwendungen eingesetzt. Angesichts ihrer Fähigkeiten zur Informationsbeschaffung und -überwachung für nachrichtendienstliche Zwecke und der zunehmende Zugang zur allgemeinen Öffentlichkeit haben in jüngster Zeit die Bedrohung durch Cyberkriminalität im Zusammenhang mit Drohnen zugenommen. Um die Bedrohungen einzudämmen und Cyberkriminalität zu verhindern, ist die digitale Forensik von Drohnendaten sowohl entscheidend als auch in Bezug auf Wirksamkeitsstudien mangelhaft. In diesem Papier definieren wir eine digitale forensische Methodik zur Analyse von Drohnendaten und schlagen eine auf Self Organizing Map (SOM) basierende Methode zur Unterstützung dieser Analyse vor. Es wurden Experimente mit zwei Bildern durchgeführt, die aus dem CFReDS-Projekt stammen, nämlich ArduPilot DIY Drone und DJI Phantom 4, um im Rahmen einer Cyberkriminalitätsuntersuchung zulässige digitale forensische Beweise für das Gericht zu liefern. Wir beleuchten auch die individuellen Fähigkeiten mehrerer digitaler Forensik-Tools basierend auf Experimenten, die mit Drohnendaten durchgeführt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-34353-8_13 5d9bdbe4ff8e1efd9b2a59e8207bd0b4;de;;;2.4.;;;Automatische Korrektur von Redundanzfehlern bei bestimmten Artikeln in den englischen Kompositionen von College-Studenten Wissenschaftler haben sowohl theoretisch als auch praktisch die Fehler untersucht, die Sprachlerner beim Schreiben machen, und sie haben erhebliche Durchbrüche beim Erwerb der zweiten Sprache (SLA) in Bezug auf das Schreiben erzielt. Die Verwendung von Artikeln in englischer Sprache durch die Lernenden zeigt ein bestimmtes Muster mit Faktoren wie dem Einfluss der Muttersprache des Lernenden, persönlichen Eigenheiten oder häufigen Missverständnissen. Somit ist es möglich, regelbasiert zu beurteilen, ob ein Artikel in einem bestimmten Kontext richtig verwendet wird. Diese Arbeit verwendet eine regelbasierte Methode, die es dem Computer ermöglicht, Artikel aus empirischen Quellen zu verwenden und die Definite Article Redundancy Errors (DAREs), die von Schülern in ihren englischen Kompositionen begangen werden, automatisch zu korrigieren. Mit Hilfe grammatikalischer und kontextueller Informationen werden die Regeln in unserem System aus authentischen Beispielen abgeleitet und besitzen Autorität und Genauigkeit. Das System ermöglicht es Lehrern auch, diese Regeln flexibel zu ergänzen oder zu ändern, indem sie entweder die tatsächlichen Fälle untersuchen oder ihr Fachwissen nach Belieben aktualisieren. Wir hoffen, dass dadurch die Qualität und Effizienz der Benotungskompositionen an chinesischen Hochschulen verbessert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-0008-0_8 cdd5f4c843dd6ce9bc20843a5d904462;de;;;2.4.;;;Um den Effekt unterschiedlicher Kameraparameter beim Matching- und Rekonstruktionsprozess zu untersuchen In der Computer Vision gibt es viele Methoden, um den Bildpunkt zu rekonstruieren. Die 3D-Rekonstruktion aus einer digitalen Bildsequenz einer Szene oder eines Objekts ist eine schwierige und wichtige Aufgabe in der Computer Vision. Eine solche Rekonstruktion erfordert jedoch einen großen Rechenaufwand, um den Entsprechungspunkt zwischen verschiedenen Ansichten zu finden. Außerdem sollte die Genauigkeit bei verrauschten Daten nicht verringert werden. Es gibt eine wichtige Technik zur Digitalisierung eines physischen Objekts, die binokulares Stereosehen. Aus zwei aufeinanderfolgenden digitalen Bildern des physischen Objekts, die aus verschiedenen Blickwinkeln aufgenommen wurden, können wir mit diesem Ansatz ein virtuelles 3D-Modell des physischen Objekts erstellen. Grundsätzlich umfassen die gängigen Verfahren für binokulares Stereosehen die digitale Bildaufnahme, die Kamerakalibrierung, Merkmalspunktextraktionen, Merkmalspunktabgleich und 3D-Rekonstruktionen. In diesem Artikel haben wir das Problem der Variation von Kameraparametern beim Matching- und Rekonstruktionsprozess diskutiert. Wir haben das Problem untersucht und wie es sich auswirkt, wenn der Kameraparameter während des Abgleichs variiert. Es gibt zwei Arten von Parametern: intrinsische Parameter und extrinsische Parameter, Bildeinstellungen und einige Gleichungen helfen bei der Einstellung des Parameters und ein robuster Algorithmus wird für die Rekonstruktion von Freiformräumen vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8297-4_40 0ca47c266ba316c737157fef40edcce0;de;;;2.4.;;;Eine Methodik zur Fahrverhaltenserkennung in simulierten Szenarien mit Biosignalen Die Erkennung aggressiver Fahrmuster könnte dazu beitragen, die Fahrsicherheit zu verbessern und potenzielle Verkehrstote auf den Straßen zu reduzieren. Das Fahrverhalten ist stark von Emotionen geprägt und lässt sich in zwei Hauptkategorien einteilen: beruhigt (nicht aggressiv) und aggressiv. In diesem Beitrag stellen wir eine Methodik zur Erkennung des Fahrverhaltens anhand von Fahrleistungsmerkmalen und Biosignalen vor. Wir verwendeten Biosensoren, um die Herzfrequenz und die galvanische Hautreaktion von fünfzehn Freiwilligen während der Fahrt in einem simulierten Szenario zu messen. Sie wurden gebeten, in zwei verschiedenen Situationen zu fahren, um ein ruhiges und aggressives Fahrverhalten hervorzurufen. Der Zweck dieser Studie bestand darin, festzustellen, ob das Fahrverhalten anhand von Biosignalen und Beschleunigungs-/Bremsereignissen beurteilt werden kann. Die Ergebnisse aus zweiseitigen t-Tests von Schülern legen nahe, dass sowohl aus Biosignalen als auch aus Längsfahrzeugdaten zwischen aggressivem und beruhigtem Fahrverhalten unterschieden werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-31019-6_31 88cc1ca98465eb9b06c8b3d99403100c;de;;;2.4.;;;Hochdurchsatz-Phänotypisierung von Sojabohnensamen mit Convolutional Neural Networks und Transfer Learning Eine effektive Phänotypisierung von Sojabohnensamen erfordert genaue Mengen morphologischer Parameter im großen Maßstab. Die traditionelle manuelle Erfassung morphologischer Phänotypinformationen von Sojabohnensamen ist fehleranfällig und zeitaufwendig, was für eine groß angelegte Sammlung nicht durchführbar ist. Die Segmentierung einzelner Sojabohnensamen ist die Voraussetzung, um phänotypische Merkmale wie Samenlänge und Samenbreite zu erhalten. Dennoch sind traditionelle bildbasierte Verfahren zum Erhalten eines Hochdurchsatz-Sojabohnensamen-Phänotyps nicht robust und praktisch. Obwohl auf Deep Learning basierende Algorithmen ein genaues Training und starke Generalisierungsfähigkeiten erreichen können, erfordern sie eine große Menge an Ground-Truth-Daten, die oft der Einschränkungsschritt sind.;-;-;-;https://link.springer.com/article/10.1186/s13007-021-00749-y 23da11c63b938b59c257aaab005628ff;de;;;2.4.;;;Design eines interaktiven Systems für die digitale Splash-Color-Malerei basierend auf der mobilen Plattform Splash-Color-Malerei ist ein einzigartiger Malstil, der in den letzten Jahren auf der Grundlage der chinesischen traditionellen Malerei entwickelt wurde und der herausragende Vertreter der „freihändigen Pinselführung“ in der chinesischen traditionellen Malerei ist. Die spritzige Kreation mit digitalen Medien wird der traditionellen Malkunst neuen Schwung verleihen. Das auf der mobilen Plattform basierende digitale Splash-Color-Painting-System führt die Echtzeit-Extraktion und Parametrisierung für die Handschrift und Dressing-Farben der Maler durch, die nicht nur den natürlichen Entstehungsprozess traditioneller Splash-Color-Fähigkeiten auf den mobilen Plattformen simuliert, drückt aber auch das subjektive Bewusstsein und die subjektiven Emotionen aus, die bei der Erstellung von Spritzfarbenbildern stark reflektiert werden, was die Verbreitung und Entwicklung der traditionellen chinesischen Kunst im digitalen Zeitalter weiter fördern kann. Darüber hinaus ist es von positiver explorativer Bedeutung und praktischem Wert in der digitalen Mediengestaltung und Planung traditioneller chinesischer Malerei.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-47791-5_32 6f80ddc15be3cbc69577683d80c194ac;de;;;2.4.;;;Entwicklung und Aussichten von raumgestützten Infrarot-Fourier-Spektrometern Das satellitengestützte Infrarot-Fourier-Spektrometer ist eines der wichtigsten Infrarot-Fernerkundungsinstrumente, die auf meteorologischen Satelliten montiert sind. Es kann die vertikale Verteilung von Parametern wie große Temperatur und Luftfeuchtigkeit erkennen. In diesem Beitrag wird die Entwicklung des weltraumgestützten Infrarot-Fourier-Spektrometers überprüft und die Leistungsmerkmale des weltraumgestützten Infrarot-Fourier-Spektrometers in einem anderen Stadium im In- und Ausland verglichen. In Kombination mit der Entwicklung aktueller Instrumente und den Merkmalen des Informationszeitalters wird der Prozess der Entwicklung der weltraumgestützten Infrarot-Fourier-Spektrometer-Technologie prospektiert und die Entwicklungsrichtung des „eins breit und drei hoch“ und hyperspektral integrierten Datennetzwerks aufgezeigt, das liefern Referenz für Reife und Praktikabilität der Infrarot-Fourier-Spektrometer-Technologie in China.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6553-9_16 8b27856587bd63ae40fc8bc120c39f0e;de;;;2.4.;;;Ein verdecktes Informationsübertragungssystem basierend auf einem hochfrequenten akustischen Wellenkanal Mit der Entwicklung des Internets und der Kommunikationstechnologie tauchen die Sicherheitsbedrohungen des Mobilfunknetzes nacheinander auf. Mithilfe von Schallwellen und verdeckten Kanälen ist es möglich, eine verdeckte Sicherheitskommunikationsmethode zu finden, die auf hochfrequenten Schallwellen in kurzer Entfernung basiert. Zunächst verwenden wir Technologien wie Kanalcodierung und -decodierung, Nachrichtenauthentifizierung, Signalsynchronisation, Signalmodulation und -demodulation. Dann haben wir ein Multi-Thread-basiertes Schema zur Erfassung und Wiedergabe von Schallwellen entwickelt. Wir haben auch einen verdeckten Einweg-P2P-Hochfrequenzkanal für akustische Wellen mit guter Grundleistung konstruiert. Auf dieser Grundlage führten wir den Fehlerkontrollmechanismus und andere verwandte Technologien ein und entwickelten ein wechselseitiges Schema für den alternierenden Informationsaustausch. Schließlich wird die Informationssicherheitsanwendung des verdeckten Hochfrequenzwellenkanals auf mobilen Geräten realisiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-57881-7_18 0cdd5ec6add470069605a9399e47977d;de;;;2.4.;;;Skaleninvariantes Heat Kernel Mapping für die Formanalyse Bei der Formanalyse haben Skalierungsfaktoren einen großen Einfluss auf die Ergebnisse der nicht starren Formauffindung und -korrespondenz. Um die Auswirkungen der Skalenmehrdeutigkeit zu eliminieren, ist für die Formanalyse ein Verfahren mit skaleninvarianten Eigenschaft erforderlich. Bisherige Mapping-Methoden konzentrieren sich nur auf die isometrischen Bedingungen. In diesem Beitrag wird ein skaleninvariantes Heat Kernel Mapping (SIHKM)-Verfahren vorgestellt, das auf dem Wärmediffusionsprozess auf Formen basiert. Es ist in der Lage, verschiedene Arten von 3D-Formen mit verschiedenen Arten von Skalierungstransformationen zu verarbeiten. SIHKM ist die Erweiterung des Heat Kernels und bezieht sich auf das Wärmediffusionsverhalten auf Formen. Mit SIHKM erhalten wir die intrinsischen Informationen aus den skalierten Formen, ohne den Einfluss ihrer Skalierung zu berücksichtigen. Die SIHKM-Methode hält den Wärmekern zwischen zwei entsprechenden Punkten auf der Form mit skalierenden Deformationen aufrecht. Diese Verformungen umfassen nur die Skalierungstransformation, isometrische Verformung und Skalierung sowie die lokale Skalierung von Formen. Der Beweis der Theorie und Experimente werden in dieser Arbeit gegeben. Alle Experimente werden mit dem TOSCA-Datensatz durchgeführt und die Ergebnisse zeigen, dass unsere vorgeschlagene Methode eine gute Robustheit und Effektivität für die skalierte Formanalyse erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-49247-5_5 91763e9787c0f8301b451a902e57ccf6;de;;;2.4.;;;Erkennt die quantitative Lungen-SPECT Lungenanomalien früher als Lungenfunktionstests? Ergebnisse einer Pilotstudie Heterogene Ventilation in der Lunge von Personen mit Allergien, Zigarettenrauchern, Asthmatikern und Patienten mit chronisch obstruktiver Lungenerkrankung (COPD) wurde mit bildgebenden Verfahren wie Positronen-Emissions-Tomographie (PET), Magnetresonanz-Tomographie (MRT) und Einzelphotonen-Emissions-Computertomographie nachgewiesen (SPEKT). Diese Personen leiden in unterschiedlichem Ausmaß an engen und/oder geschlossenen Atemwegen. Durch die Berechnung der regionalen Heterogenität in SPECT-Bildern der Lungenbeatmung als Variationskoeffizient (CV) in kleinen Lungenelementen können Heterogenitätskarten und CV-Dichtekurven erstellt und zur quantitativen Messung der Heterogenität verwendet werden. Diese Arbeit untersucht das Potenzial, solche Messungen zu verwenden, um leichte Ventilationsheterogenitäten bei lungengesunden Probanden zu erkennen.;-;-;-;https://link.springer.com/article/10.1186/s13550-014-0039-1 bff64f2211ec8d806d08fb8758830c9d;de;;;2.4.;;;Ein allgemeines bildbasiertes System zur Identifizierung von Nematoden Nematoden sind primitive Organismen, die dennoch viele der für den Menschen lebenswichtigen Ressourcen verschlingen. Für eine effektive und schnelle Inspektion und Quarantäne schlagen wir ein allgemeines bildbasiertes System zur quantitativen Charakterisierung und Identifizierung von Nematoden vor. Wir beschreiben auch die wichtigsten Methoden, die von der Graustufenbildaufnahme und -verarbeitung bis hin zur Informationsextraktion für die automatisierte Erkennung und Identifizierung reichen. Die Hauptbeiträge dieses Papiers sind nicht nur die Vorstellung eines Rahmens der Systemarchitektur, sondern auch eine detaillierte Analyse und Implementierung jeder Systemkomponente mit Instanz von;-;-;-;https://link.springer.com/chapter/10.1007/11596981_132 b762f1edde95aeab95c2b1a187482d42;de;;;2.4.;;;Automatische Segmentierung von Holzstämmen mit Diagrammschnitten Das automatische Segmentieren des Vordergrunds vom Hintergrund ist ein aktives Forschungsgebiet. Der Graph-Cut-Ansatz ist eine der vielversprechendsten Methoden, um dieses Problem zu lösen. Dieser Ansatz erfordert, dass die Gewichtungen des Graphen optimal gewählt werden, um eine gute Segmentierung zu erhalten. Wir stellen uns dieser Herausforderung und konzentrieren uns auf die automatische Segmentierung von Rundholzbildern. Wir präsentieren eine neuartige Methode, die auf Dichteschätzung basiert, um Informationen über Vordergrund und Hintergrund zu erhalten. Mit diesen Informationen können die Gewichte in der Graph-Cut-Methode automatisch eingestellt werden. Um unsere Ergebnisse zu validieren, verwenden wir vier verschiedene Methoden, um diese Gewichte festzulegen. Wir zeigen, dass von diesen Ansätzen unsere neue Methode die besten Ergebnisse erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25382-9_7 f6f7171e3d49cd4d306253f6d95e4217;de;;;2.4.;;;Validierungsboard: Ideen für ungültig erklären und Probleme entdecken, die gelöst werden müssen Projektbasiertes Lernen (PBL) ist eine Lehrmethode, die in vielen Informatikkursen verwendet wird. Um es zu implementieren, ist es notwendig, gute Probleme auszuwählen, die das Lernen der Schüler antreiben. Diese Probleme müssen das Interesse der Studierenden wecken, die Zusammenarbeit fördern und ihnen helfen, ihr Wissen über studienbezogene Themen zu erweitern. In diesem Papier wird eine Fallstudie vorgestellt, in der überprüft werden soll, wie der Lean Startup Idea Invalidation-Prozess mit einem Validation Board, einem Bewertungstool für Geschäftsstrategien, bei der Auswahl wesentlicher Probleme hilfreich sein kann. Erste Ergebnisse zeigen, dass diese Methode den Schülern hilft, schlechte Ideen zu verwerfen, die interessantesten zu verbessern und Produkte auszuwählen, die tatsächlich von echten Benutzern verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-55907-0_8 43c3659fc6d23e12ec8e1dfb3c17452e;de;;;2.4.;;;Neuartiger korrespondenzbasierter Ansatz zur konsistenten Extraktion des menschlichen Skeletts In diesem Artikel wird ein neuartiger Ansatz zur Basispunkt-gesteuerten Formkorrespondenz (BSC) vorgestellt, um Skelette artikulierter Objekte aus 3D-Netzformen zu extrahieren. Die Skelettextraktion basierend auf dem BSC-Ansatz ist genauer als die traditionellen direkten Skelettextraktionsmethoden. Da 3D-Formen mehr geometrische Informationen liefern, bietet BSC die konsistenten Informationen zwischen der Quellform und den Zielformen. In diesem Papier extrahieren wir zuerst das Skelett aus einer Vorlagenform wie der Quellform automatisch. Dann werden die Skelette der Zielformen unterschiedlicher Posen basierend auf der Korrespondenzbeziehung mit der Quellform erzeugt. Die Genauigkeit der vorgeschlagenen Methode wird durch eine umfassende Leistungsbewertung anhand mehrerer Benchmark-Datensätze demonstriert. Die Ergebnisse des vorgeschlagenen Ansatzes können auf verschiedene Anwendungen wie skelettgesteuerte Animation, Formsegmentierung und menschliche Bewegungsanalyse angewendet werden.;-;-;-;https://link.springer.com/article/10.1007/s11042-015-2629-y 8ce68ca141f8f2c526904b02eff75ea0;de;;;2.4.;;;Fuzzy-basiertes Simulationsmodell zur Vorhersage der Durchflussrate in einem Wasserverteilungsnetzsystem In diesem Papier wurde ein intelligentes System mit Fuzzy-Logik vorgeschlagen, um die Vorhersage der Durchflussrate trotz Unsicherheit in den Eingabeparametern und dem Knotenbedarf zu verbessern. Dieses Verfahren simuliert den Einfluss der Betriebsbedingungen (Rohrdurchmesser, Rohrlänge und Reibungsfaktor) auf den Durchfluss. Die erhaltenen Ergebnisse wurden unter Verwendung des Gesamtfehlermodells des Auswahlkriteriums verglichen. Die Ergebnisse zeigten, dass die Fuzzy-Logik mit einem Gesamtfehler von 0,033 bzw. 0,057 Newton-Raphson besser abschneidet. Es wurde geschlossen, dass die Fuzzy-Logik ein verbessertes Vorhersagemodell für die Wasserdurchflussrate ist als Newton-Raphson.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29166-1_28 5d2dfdc2c0c705605ab699c9182cebf4;de;;;2.4.;;;Verwendung von Mehrwortausdrücken zur Verbesserung der statistischen maschinellen Übersetzung von gesetzlichen Sätzen Gesetzliche Sätze sind wegen ihrer komplizierten Ausdrücke und Länge im Allgemeinen schwer zu lesen. Diese Schwierigkeit ist ein Grund für die geringe Qualität der statistischen maschinellen Übersetzung (SMT). Mehrwortausdrücke (MWEs) verkomplizieren zudem gesetzliche Sätze und verlängern ihre Länge. Daher haben wir eine Methode vorgeschlagen, die MWEs nutzt, um das SMT-System der gesetzlichen Strafen zu verbessern. In unserer Methode haben wir die einsprachigen MWEs aus einem Parallelkorpus extrahiert, diese Übersetzungen basierend auf dem Dice-Koeffizienten automatisch erfasst und die extrahierten zweisprachigen MWEs durch die Single-Tokenization-Strategie in ein SMT-System integriert. Die Versuchsergebnisse mit unserem SMT-System mit der vorgeschlagenen Methode verbesserten die Übersetzungsqualität deutlich. Obwohl die automatische Erfassung von Übersetzungsäquivalenten unter Verwendung des Dice-Koeffizienten nicht perfekt ist, lag das beste System in der Nähe eines Systems, das zweisprachige MWEs verwendet, deren Äquivalente von Hand übersetzt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-50953-2_18 ad7302f82f0e39ce11fa84752be3c575;de;;;2.4.;;;Eine Methode zur Beurteilung der Zuverlässigkeit kleiner Stichproben basierend auf der Bayes'schen Theorie In diesem Papier verbessern wir für das Problem, wie die Genauigkeit der Bayesschen Zuverlässigkeitsbewertung für kleine Stichproben verbessert werden kann, die Informationsvorverarbeitung vor dem Test und die Bayessche Zuverlässigkeitsbewertung. In der Vorverarbeitungsphase von Vortestinformationen wird hauptsächlich die Umwandlung von Vortestinformationen untersucht. Mit Blick auf das Problem der Informationskonvertierung in ähnlichen Systemen stellt dieser Beitrag eine neuartige Methode vor, die auf dem Korrelationskoeffizienten zur Bestimmung der Beziehung zwischen ähnlichen Systemen und der Verwendung der DS-Evidenztheorie zur Integration der Konversionsmethode basiert. In diesem Papier wird ein verbessertes Verfahren basierend auf einem verbesserten HS-Algorithmus vorgeschlagen, um die Genauigkeit der Informationspartitionierung und des Abgleichs zu verbessern und dann die Umwandlungseffizienz zu verbessern. In der Bayesschen Reliabilitätsbewertungsphase wird die Verteilung der Vortestinformationen unter Verwendung der Methode der konjugierten Vorverteilungsverteilung bestimmt, und ein gemischtes Vortestmodell wird vorgeschlagen, um das Problem der „untergetauchten“ kleinen Stichprobe der Vortestinformationen zu lösen solve Feldtestinformationen und das Problem der Gewichtsverteilung vor dem Test mit mehreren Quellen, und die Bewertungsergebnisse der Zuverlässigkeitsparameter werden effektiv erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00006-6_11 a330e872fc0c5ad767adcc776e725e90;de;;;5.3.;;;Logisch optimale Lehrplansequenzen für adaptive Hypermedia-Systeme Die Sequenzierung von Lehrplänen ist eine wichtige Technik, die in vielen adaptiven Hypermedia-Systemen verwendet wird. Wenn Sie einer der möglichen Seitenfolgen folgen, kann der Besuch einiger Seiten überflüssig werden, da deren Inhalt bereits von einer anderen Seite abgedeckt wurde. Verwenden disjunktiver und konjunktiver Voraussetzungen anstelle von Teilordnungen, um die vielen möglichen Sequenzen zu beschreiben,;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44595-1_12 8384cb306a309b478f67afb8ceebbd6b;de;;;2.4.;;;Beurteilung der Fundus-Bildqualität durch Analyse von Beleuchtung, Natürlichkeit und Strukturebene Optische Erkrankungen wie diabetische Retinopathie, Katarakt und Glaukom haben im Allgemeinen einen größeren Teil der internationalen Bevölkerung betroffen. Die bildbasierte medizinische Diagnose beruht auf einer angemessenen Bildqualität und Klarheit. Meistens ist die Fundusbilderfassung anfälliger für Verzerrungen aufgrund von Veränderungen von einer ortsfesten Kamera zu einer tragbaren Funduskamera. Die Fundusbilder sind das Hauptwerkzeug für viele Analysen von Netzhauterkrankungen. Für die Diagnose ist eine wiederholte Bildaufnahme erforderlich, da die meisten aufgenommenen Bilder von geringer Qualität sind. Das automatische System wird also benötigt, um die Qualität des Fundusbildes in Bezug auf Beleuchtungsstärke, Natürlichkeit und Strukturebene zu bewerten. Während der Aufnahmezeit ist die nicht-mydriatische Bildqualität anfälliger für Verzerrungen. Diese Art von Bildqualitätsverzerrungen wird als generische Qualitätsverzerrungen bezeichnet. Die vorgeschlagene Arbeit befasst sich mit der Klassifizierung des Fundusbildes unter Verwendung des auf Adaptive Migration Biogeography based Optimization (AMBBO) Algorithm Based Radial Basis Function Network (RBFN), wobei die Fundusbildqualität durch die Analyse der Beleuchtungs-, Natürlichkeits- und Strukturebene (FIQAINS) bewertet wird Modell. Es wurden Änderungen am ursprünglichen BBO-Algorithmus vorgeschlagen, da er nicht die intrinsische Eigenschaft des Clusterns besitzt, die bei der Fundusbildklassifizierung notwendig ist. Daher wird der modifizierte Algorithmus verwendet, um das Fundusbild basierend auf dem generischen Beleuchtungsmerkmal, dem kritischen Natürlichkeitsmerkmal und dem notwendigen Strukturmerkmal zu klassifizieren. Die experimentellen Ergebnisse, die MATLAB-Tools verwenden, um die allgemeine Qualitätsklassifizierung wie Sensitivität, Spezifität, Genauigkeit und AUC und verschiedene Schwellenwerte aus dem DRIMDB-Datensatz von Fundusbildern zu erreichen und darüber hinaus die Akzeptanz- oder Ablehnungsklasse basierend auf dem AMBBO-Algorithmus zu entdecken.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8697-2_48 d5681be89061cca09cfae264d94301a0;de;;;5.3.;;;Cache-Ersetzung verbessert basierend auf dem Interesse der Benutzergruppe Um die Zugriffslatenz zu reduzieren und die Benutzererfahrung zu verbessern, umfassen die aktuellen Schemata Cache- und Prefetching-Technologien. Die aktuellen Cache-Ersetzungsschemata berücksichtigen nur die Zugriffszeit und die Zugriffshäufigkeit, ignorieren jedoch den Grad des Benutzergruppeninteresses an Zugriffspfaden. In diesem Beitrag werden die Besuchseigenschaften von Benutzergruppen untersucht. Dann wird ein Cache-Ersetzungs-Verbesserungsalgorithmus namens P-GDSF vorgeschlagen, der auf dem GDSF-Algorithmus basiert und sich dem Vorhersagemechanismus aufgrund des Benutzergruppeninteresses anschließt. Der neue Algorithmus berücksichtigt die meisten Faktoren von Webobjekten. Die Simulation zeigt, dass unser Algorithmus in einem bestimmten Cache-Raum eine relativ höhere Trefferrate und Byte-Trefferrate erreichen kann als der GDSF-Ersatzalgorithmus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-47401-3_1 3a7eed7a7c4469a26849b5ad5b613f52;de;;;5.3.;;;Eine verbesserte Kurzpausen-basierte Sprachaktivitätserkennung mit langem Kurzzeitgedächtnis Recurrent Neural Network Im Allgemeinen verwendet die Sprachaktivitätserkennung (VAD) üblicherweise eine Stille von mehr als 100 ms als Endpunkt der Sprache. Zuvor wurde die auf kurze Pausen basierende VAD vorgeschlagen, um die Wartezeit des Untertitelergebnisses beim automatischen Untertitel-Relay-Dienst zu reduzieren. Diese Technik reduziert die Wartezeit des Untertitelergebnisses gut. Die Genauigkeit des Untertitelergebnisses wird jedoch nicht so beibehalten, wie sie sein sollte. Das Problem vererbt sich auf das Kurzzeit-Energiemerkmal, das es schwierig und ungenau ist, das kleinste Merkmal wie kurze Pausen oder stimmlose Töne zu suchen. Daher schlagen wir die neue Technik vor, die einen Mel-Frequenz-Cepstral-Koeffizienten und ein rekurrentes neuronales Netz des Kurzzeitgedächtnisses kombiniert. Diese Technik wird als Pausenklassifikator bezeichnet und ist in der Lage, kleinste Charakteristika wie kurze Pausen oder stimmlose Klänge zu erfassen. Das experimentelle Ergebnis zeigt eine effektive Reduzierung der Wartezeit unter Beibehaltung der WER des Untertitelergebnisses. Die durchschnittliche Wartezeit verkürzt sich, die Ergebnisse der automatischen Spracherkennung sind kontinuierlicher und konstanter. Dies wirkt sich direkt auf die Benutzererfahrung im automatischen Relay-Dienst mit Untertiteln aus.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3149-7_20 11e5eaae871982a5876f9085036101f5;de;;;5.3.;;;Systemprotokollbasierte Android-Root-State-Erkennung Android-Rooting ermöglicht es Gerätebesitzern, ihre eigenen Geräte frei anzupassen. Das Rooting-System schwächt jedoch die Sicherheit von Android-Geräten und öffnet die Hintertür für Malware, um leicht privilegierten Zugriff zu erhalten. Aus diesem Grund haben einige Entwickler Erkennungsmechanismen für sensible oder hochwertige mobile Apps eingeführt, um potenzielle Sicherheitsrisiken zu mindern. Dennoch fehlt es den bestehenden Methoden zur Wurzelprävention und -erkennung im Allgemeinen an Universalität. In diesem Artikel haben wir die bestehenden Android-Root-Erkennungsmethoden untersucht und festgestellt, dass beide Parteien die Spuren des relevanten Verhaltens im Protokoll ignoriert haben. Daher haben wir die auf Systemprotokollen basierende Methode zur Erkennung des Root-Zustands vorgeschlagen. Bei der Methode verwenden wir die vorhandenen Log-Informationen direkt, um Hinweise zu finden, um einerseits den System-Root-Zustand zu überprüfen, andererseits die Triggerfunktionen einiger spezieller Operationen zu nutzen, um die Log-Informationen zu aktualisieren und anzureichern. Die Ergebnisse zeigen, dass selbst bei absichtlichem Löschen einige Protokollinformationen erhalten bleiben, die verwendet werden können, um zu überprüfen, ob das System gerootet wurde oder nicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-68542-7_69 cd5153d384d781f081f6230bed438e92;de;;;5.3.;;;Smart Cities und die neue Urban Analytics: Chancen und Herausforderungen im urbanen Verkehr Dieser Beitrag betrachtet die Entwicklung urbaner Modellierungs- und Analysetechniken in den letzten zwei Jahrzehnten im Kontext von Smart Cities. Es identifiziert eine Reihe von Generationen des Denkens und hebt die Natur der breiten Chancen und Herausforderungen hervor, die in diesem Bereich vorhanden sind. Es veranschaulicht die Argumente mit Beispielen aus dem Bereich der Planung und des Betriebs des städtischen Verkehrs und konzentriert sich auf eine Reihe von Bereichen, darunter die Entwicklung der Fahrzeugautomatisierung, das Wachstum der serviceorientierten Mobilität, die Integration zwischen Verkehr und anderen Geschäftsbereichen, die Hyperpersonalisierung Mobility-Produkte und die Virtualisierung der User Experience. Das Papier schließt mit der Identifizierung einiger weiter reichender Auswirkungen dieser Entwicklungen auf die Governance von Daten und Analysen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94180-6_11 a175aaa3ad36dafecf329dc6c97cd2ff;de;;;5.3.;;;Vertrauensbasierte, kontextbezogene Empfehlung für mobile soziale Netzwerke Der Dienstempfehlungsmechanismus als Schlüsseltechnologie, die Benutzern proaktivere und personalisiertere Dienste bietet, ist eines der wichtigen Forschungsthemen im Bereich mobiler sozialer Netzwerke (MSN). Inzwischen ist MSN anfällig für verschiedene Arten von anonymen Informationen oder Hackeraktionen. Vertrauen kann das Risiko der Interaktion mit unbekannten Entitäten verringern und böswillige Angriffe verhindern. In unserem Artikel stellen wir einen vertrauensbasierten Dienstempfehlungsalgorithmus in MSN vor, der die Ähnlichkeit der Benutzer und die Vertrautheit von Freunden berücksichtigt, wenn vertrauenswürdige Nachbarn von Zielbenutzern berechnet werden. Erstens verwenden wir die Kontextinformationen und die Anzahl der mitbewerteten Elemente, um die Ähnlichkeit der Benutzer zu definieren. Dann wird, motiviert durch die Theorie der sechs Raumgrade, die Freundvertrautheit durch graphenbasierte Verfahren abgeleitet. Somit werden die vorgeschlagenen Methoden durch die Berücksichtigung des Nutzerkontextes in der Empfehlungsphase weiter verbessert. Schließlich wird eine Reihe von Simulationen durchgeführt, um die Genauigkeit des Algorithmus zu bewerten. Die Ergebnisse zeigen, dass die Freundesvertrautheit und die Benutzerähnlichkeit die Empfehlungsleistung effektiv verbessern können und die Freundesvertrautheit mehr beiträgt als die Benutzerähnlichkeit.;-;-;-;https://link.springer.com/article/10.1007/s11859-017-1228-3 905b6782ec3a740c8c7f920eb5405e0e;de;;;5.3.;;;Facial Similarity Learning with Humans in the Loop Ähnlichkeitslernen war schon immer ein beliebtes Thema in der Computer Vision Forschung. Unter diesen ist die Gesichtsähnlichkeit aufgrund ihrer breiten Anwendung und der nicht starren Natur menschlicher Gesichter besonders wichtig und schwierig. Die große Lücke zwischen Merkmalsdarstellungen und menschlichen Wahrnehmungsbeschreibungen macht das Problem noch schwieriger. In diesem Artikel lernen wir Gesichtsähnlichkeit durch Mensch-Computer-Interaktionen. Um wahrnehmbare Ähnlichkeiten von Gesichtern in einem Galerie-Set zu erfahren, bitten wir Benutzer, einige Kandidatenbilder mit ihren Ähnlichkeiten zu einem Sondenbild zu kennzeichnen. Basierend auf den Antworten der Benutzer generiert ein Sampling-Algorithmus aktiv ein Sondenbild und eine Reihe von Kandidaten für die nächste Abfrage. Unterstützt durch menschliche Bemühungen bettet der Algorithmus alle Bilder in einen Raum ein, in dem der Abstand zwischen zwei Objekten ihrer Unähnlichkeit in der menschlichen Wahrnehmung entspricht. Wir wenden die erlernte Einbettung an, um das Abrufen von Gesichtern zu ermöglichen, und vergleichen unsere Methode mit einigen funktionsbasierten Methoden auf einem Datensatz, den wir von sozialen Netzwerkseiten (SNS) sammeln. Experimentelle Ergebnisse zeigen, dass die Einbeziehung menschlicher Bemühungen die Genauigkeit des Abrufs gewährleisten kann. Gleichzeitig reduziert der aktive Sampling-Algorithmus den menschlichen Aufwand.;-;-;-;https://link.springer.com/article/10.1007/s11390-015-1540-3 faba87f1e4497553af93a5688cd0f4d1;de;;;5.3.;;;Persönlichkeits-Archetypen, Pantomime, Comics: Neue Methoden zur Gestaltung von Schnittstellen mit menschlichen Eigenschaften Dieses Papier befasst sich mit der Gestaltung von Schnittstellen, die menschliche Eigenschaften und Verhaltensweisen aufweisen, und schlägt vor, dass sie drei Grundanforderungen erfüllen müssen: Die menschlichen Eigenschaften müssen kohärent sein, es sollten spezifische Mechanismen für den Umgang mit Konflikten mit dem Benutzer vorhanden sein und sie müssen damit umgehen dramatische Situationen, die vom Benutzer erstellt werden. Um den Designprozess zu unterstützen, um diese drei Anforderungen zu erfüllen, werden vier Designmethoden vorgestellt, die Frameworks und Techniken verwenden, die in Sozialpsychologie, Theater, Comics und Filmanimation verwendet werden. Die Designmethoden arbeiten an einer besseren Definition der menschlichen Persönlichkeit, die vom Benutzer wahrgenommen werden soll, indem sie die Hauptkonflikte und die damit verbundenen Emotionen, die von der Benutzeroberfläche behandelt werden müssen, aufdecken und abschwächen, eine reiche Darstellung der dramatisierten Interaktion schaffen und sie verwenden, um den Raum der Lösungen zu entwerfen und die durch theatralische Methoden gefundenen Lösungen in Schnittstellenaktionen umzuwandeln. Wir veranschaulichen und veranschaulichen die Designmethoden mit Ergebnissen aus drei studentischen Workshops im Kontext der Gestaltung einer Service Recovery Schnittstelle für E-Commerce.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-32965-5_1 72318e7c368b25d99c40ed30c8b5f82b;de;;;5.3.;;;Eine Analyse von Mensch-zu-Mensch-Dialogen und ihre Anwendung zur Unterstützung sehbehinderter Menschen Ein Prototyp eines Websystems zur Mittagszustellung für Sehbehinderte wurde basierend auf der Analyse des Dialogs zwischen Mensch (ein Sehbehinderter, der ein Mittagessen bestellen möchte) zu Mensch (einer sehenden Person, die Sehbehinderten bei der Entscheidung über das Mittagessen hilft) entwickelt. Basierend auf der Analyse wurde ein prototypisches System entwickelt, das aus drei Schritten besteht: 1) Grobauswahl, 2) Favoritenauswahl und 3) Endauswahl. Die Evaluierung des Prototypsystems wird von Sehbehinderten nur mit synthetisierter Sprache und Tastatur durchgeführt. Die Ergebnisse zeigten, dass unser System effektiv und einfach zu bedienen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-70540-6_120 03b7b90c9925b28d022ca453a4922ec4;de;;;5.3.;;;Wahrgenommene Kompatibilität und Akzeptanz von B2C-E-Commerce durch Nicht-Käufer Der Zweck dieses Artikels besteht darin, die Faktoren zu untersuchen, die die Absicht des Online-Kaufs für Benutzer beeinflussen, die noch nie zuvor über den elektronischen Kanal gekauft haben, mit besonderem Augenmerk auf die Rolle der wahrgenommenen Kompatibilität. Dazu wurde ein Adoptionsmodell für E-Commerce auf Basis des Technology Adoption Model (TAM) und der Innovations Diffusion Theory (IDT) vorgeschlagen. Um das Modell zu validieren, wurden Daten von spanischen Verbrauchern, die keine Erfahrung mit E-Commerce hatten, mit der Methode der partiellen kleinsten Quadrate (PLS) analysiert. Die Ergebnisse haben gezeigt, wie wichtig die wahrgenommene Kompatibilität als wichtiger Faktor für die Förderung der Akzeptanz des elektronischen Geschäftsverkehrs zwischen Verbrauchern (eB2C) durch Nichtkäufer ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16324-1_20 1f56d62e6c0c65f721aadabc70e3778e;de;;;5.3.;;;Personenauthentifizierung und Aktivitätsanalyse in einer Büroumgebung mit einem Sensornetzwerk Personenauthentifizierung und Aktivitätsanalyse sind für die Bereitstellung verschiedener personalisierter Dienste in einer Smart Home/Office-Umgebung unabdingbar. In dieser Studie stellen wir einen Personenlokalisierungsalgorithmus unter Verwendung eines Infrarot-Deckensensornetzwerks vor und realisieren die Personenauthentifizierung überall und jederzeit. Das Hauptproblem besteht darin, verschiedene Personen zu unterscheiden, die sich an derselben Position treffen. Wir lösen dieses Problem durch unterschiedliche Bewegungsrichtungen je nach Person. Darüber hinaus können mit den Standorten und den bekannten Identitäten mehrere Personen verfolgt und ihr interaktives Verhalten von unserem System analysiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31479-7_19 185e8c8e92d0f23b00064f708d74a227;de;;;5.3.;;;Mensch-Maschine-Schnittstelle eines Unterstützungssystems zur Analyse von offenen Fragebögen Dieses Papier schlägt eine Mensch-Maschine-Schnittstelle eines Unterstützungssystems zur Analyse von Antworten auf offene Fragen vor, die von Kunden der mobilen Spielinhaltsantwort gestellt werden, wenn sie sich von den Diensten abmelden. Da offene Fragen den Beschreibungen jedoch keine Beschränkung auferlegen, beinhalten die Antworten eine enorme Menge an Textdaten für den Inhaltsanbieter. Es ist zeitaufwändig, alle Texte einzeln zu lesen. Da eine große Anzahl von Antworten identisch mit Auswahlmöglichkeiten in den Multiple-Choice-Fragen oder unnötigen Meinungen sind, die sich nicht um das Spiel kümmern, gibt es nur wenige Antworten, die gelesen werden sollten. Die meisten Meinungen werden benötigt, um nur die Anzahl und den Umriss zu kennen. Der Anbieter sollte jedoch nicht versäumen, die unerwartete Meinung zu lesen, die eine Minderheit darstellt. Da Antworten über Mobiltelefone eingegeben werden, enthalten sie außerdem oft viele Symbole, die von verschiedenen Arten von Endgeräten und grammatikalischen Fehlern abhängig sind, wodurch sie schwer zu verstehen sind. Unsere Forschung zielt daher darauf ab, ein System zu schaffen, das den Anbieter dabei unterstützt, die Antworten auf offene Fragen effizient zu analysieren. Die Hauptfunktion des Unterstützungssystems unterteilt die Antworten in typische Meinungen und atypische Meinungen. Gespaltene Meinungen werden mit unterschiedlichen Benutzeroberflächen präsentiert, da die Inhaltsanbieter die beiden Meinungstypen auf jede Weise analysieren können.;-;-;-;https://link.springer.com/chapter/10.1007/11504894_44 537c3fb4aedc3866f579fa1df7db68a2;de;;;5.3.;;;Design und Umsetzung altersgerechter Aktivitäten zur Unterstützung des Alltags älterer Menschen durch IoT Es wird erwartet, dass das Internet der Dinge (IoT) dazu beiträgt, die Lebensqualität älterer Menschen zu verbessern, insbesondere durch die Früherkennung von Gesundheitsrisiken und die Unterstützung des Lebensunterhalts. Die meisten älteren Menschen stehen IoT-Technologien jedoch nicht freundlich gegenüber, was ein Hindernis für die Implementierung von IoT-Technologien in das Leben älterer Menschen darstellt. In dieser Studie haben wir einen altersfreundlichen Workshop auf Kartenbasis entworfen, um älteren Menschen zu helfen, freundlich zu sein und Vertrauen in das IoT zu haben. Die Karten bestehen aus 16 „Trigger Cards“ und 14 „Feedback Cards“ zu mehreren IoT-Geräten, was unsere degradierte, aber altersfreundliche Erklärung des IoT widerspiegelt, dass IoT-Geräte ein „Feedback“ geben, wenn ein „Trigger“ passiert. Die Teilnehmer wurden gebeten, Ideen für Anwendungsfälle von IoT zu entwickeln, indem sie eine Trigger-Karte mit einer Feedback-Karte kombinierten. In drei Workshops wurden 22 Personen ab 65 Jahren rekrutiert und insgesamt 134 Ideen eingeholt. Wir haben gezeigt, dass die Ideen basierend auf dem Zweck jedes Anwendungsfalls in neun Gruppen eingeteilt wurden. Darüber hinaus zeigten Umfrageergebnisse, dass die Älteren durch die Ideenfindung im Workshop mit IoT vertraut wurden. In dieser Studie haben wir bestätigt, dass sorgfältig gestaltete Karten und Beispielideen den Teilnehmern helfen können, mehr Ideen und ein höheres Vertrauen in das IoT zu entwickeln. Die Erfahrung und Vorstellung über den Einsatz von IoT in ihren eigenen persönlichen Bedürfnissen wird ältere Menschen dazu ermutigen, IoT-Technologien zu verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-22015-0_28 802ae11f93c112f41b40b799df4b590b;de;;;5.3.;;;Gamble – Ein Multiuser-Spiel mit einem verkörperten Gesprächsagenten In diesem Artikel stellen wir Gamble vor, ein kleines Würfelspiel, das von zwei Benutzern und einem verkörperten Conversational Agent (ECA) gespielt wird. Durch seine Fähigkeiten zur Kommunikation und Zusammenarbeit ist ein ECA gut geeignet, um Benutzer in unterhaltsame soziale Interaktionen einzubinden. Als Testumgebung für solche Multiuser-Interaktionen dient Gamble. Der Beschreibung der Systemkomponenten und einer gründlichen Analyse der Verhaltenskontrollmechanismen des Agenten folgen Erkenntnisse aus einer ersten Benutzerstudie.;-;-;-;https://link.springer.com/chapter/10.1007/11558651_18 8fac3659917dcb69335bd9e4743b7404;de;;;5.3.;;;Malaiische Anaphore und Identifizierung von Antezedenzkandidaten: ein Lösungsvorschlag In diesem Artikel werden Anaphern für die malaiische Sprache und die Bestimmung der vorausgehenden Kandidaten unter Verwendung der wissensarmen Techniken erörtert. Der Prozess zur Bestimmung des Kandidaten für Anapher und Antezedenz ist wichtig, da die Verwendung von Pronomen in einem Text nicht immer als Anapher betrachtet wird. Manchmal bezieht sich das Pronomen auf etwas außerhalb des Kontexts oder bezieht sich auf keine Situation im Text. Eine solche Situation zeigt sich auch bei der Verwendung von Pronomen in der malaiischen Sprache. Daher müssen bestimmte Regeln erlassen werden, um den Vorgänger und den Anapher-Kandidaten zu identifizieren. Die Verwendung von Pronomen in der malaiischen Sprache gibt das Geschlecht der Person an, aber um den Status der Person wie kaiserliche Familie, ehrenhafte Leute und gewöhnliche Leute zu unterscheiden. Daher können generische Regeln, die von anderen Sprachen verwendet wurden, nicht einfach für die malaiische Sprache angepasst werden. Die vorgeschlagene Lösung betrifft die Entfernung jedes Kandidaten und die Position des Subjekt-Verb-Objekts (SVO), das verwendet wird, um den Anapher-Kandidaten zu bestimmen. Als solche werden syntaktische Informationen, semantische Informationen und die Distanz von Anaphor-Antezedenz als wichtig angesehen, um den Antezedenzkandidaten zu bestimmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28493-9_16 90b537ca6f5601adbf1b28a95cfa1c00;de;;;5.3.;;;Wie gefällt Ihnen ich in diesem: Benutzer-Verkörperungspräferenzen für Companion-Agenten Wir untersuchen den Zusammenhang zwischen der Verkörperung eines künstlichen Begleiters und der Nutzerwahrnehmung und Interaktion mit ihm. In einer Wizard of Oz-Studie interagierten 42 Benutzer mit einer von zwei Ausführungsformen: einem physischen Roboter oder einem virtuellen Agenten auf einem Bildschirm durch ein Rollenspiel von Sekretariatsaufgaben in einem Büro, wobei der Begleiter wesentliche Hilfestellung leistete. Die Ergebnisse zeigten, dass Teilnehmer in beiden Bedingungsgruppen, wenn sie die Wahl hatten, es vorziehen würden, mit dem Roboterbegleiter zu interagieren, hauptsächlich wegen seiner größeren physischen oder sozialen Präsenz. Die Probanden empfanden den Roboter auch als weniger nervig und sprachen natürlicher mit ihm. Diese Präferenz für die Roboterausführung spiegelt sich jedoch nicht in der tatsächlichen Bewertung des Begleiters oder seiner Interaktion mit ihm wider. Wir reflektieren diesen Widerspruch und kommen zu dem Schluss, dass sich ein Benutzer in einem aufgabenbasierten Kontext viel mehr auf das Verhalten eines Begleiters konzentriert als auf seine Verkörperung. Dies unterstreicht die Machbarkeit unserer Bemühungen, Begleiter zu schaffen, die zwischen verschiedenen Ausführungsformen migrieren und gleichzeitig eine konsistente Identität aus Sicht des Benutzers beibehalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33197-8_12 8c590d271090300c462613d517b6b8cd;de;;;5.3.;;;Neuere Einzigartigkeit resultiert in Form aus Schattierung Der Hauptzweck dieser Arbeit besteht darin, kurz zwei Themen zu diskutieren. Die erste besteht darin, zu zeigen, dass Sneddons Behauptung ([9, Abschnitt 7 S. 61]) über die Darstellbarkeit jeder Lösung einer gegebenen partiellen Differentialgleichung erster Ordnung in Bezug auf entweder;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-6867-7_18 bce13c61889676607df0d6f11ef98dbc;de;;;5.3.;;;Exploratives hierarchisches Clustering zur Abgrenzung von Verwaltungszonen in der Präzisionslandwirtschaft Precision Agriculture ist in den letzten zehn Jahren zu einem aufstrebenden Thema geworden. Es beschäftigt sich mit der Integration der Informationstechnologie in landwirtschaftliche Prozesse. Dies gilt insbesondere für die laufende und wachsende Datenerhebung in der Landwirtschaft. Neuartige bodengestützte Sensoren, Luft- und Satellitenbilder sowie Bodenproben liefern große georeferenzierte Datensätze mit hoher räumlicher Auflösung. Diese Daten führen jedoch zu dem Data-Mining-Problem, neue und nützliche Informationen in diesen Datensätzen zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23184-1_13 ae463e7601351b71d1dda5c3ff89cbd6;de;;;5.3.;;;Klassifizieren des Geschlechts von Gesichtern mithilfe unabhängiger Komponenten Component Geschlechtsklassifikationsalgorithmen verwenden eine Reihe von Dimensionsreduktionstechniken. Diese Techniken werden verwendet, um lineare und nichtlineare Abhängigkeiten zwischen den Daten zu entfernen. Die beliebtesten Techniken sind die Hauptkomponentenanalyse (PCA) und die unabhängige Komponentenanalyse (ICA). PCA macht die Daten unkorreliert, während ICA unabhängige Daten liefert. Bei diesem Ansatz wurde infomax ICA zur Geschlechtererkennung verwendet und übertrifft PCA. Um die Klassifizierung mit ICA-Funktionen durchzuführen, wurde Support Vector Machine (SVM) verwendet. Bei größeren Trainingssätzen arbeitet SVM mit einer Genauigkeit von 98%. Die Genauigkeitswerte werden für die Größenänderung des Testsatzes erhalten und das vorgeschlagene System arbeitet mit einer durchschnittlichen Genauigkeit von 96%.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24043-0_60 1a60692d53e02cfa4b3cef11a829043b;de;;;2.4.;;;EEDBR: Energieeffizientes tiefenbasiertes Routing-Protokoll für drahtlose Unterwassersensornetzwerke In jüngster Zeit haben Underwater Wireless Sensor Networks (UWSNs) viel Forschungsinteresse sowohl in der Wissenschaft als auch in der Industrie auf sich gezogen, um die riesige Unterwasserwelt zu erkunden. Das Entwerfen von Netzwerkprotokollen bei UWSNs stellt jedoch eine Herausforderung dar, da UWSNs besondere Eigenschaften einer großen Ausbreitungsverzögerung, einer hohen Fehlerrate, einer geringen Bandbreite und einer begrenzten Energie aufweisen. Bei UWSNs ist die Verbesserung der Energieeffizienz eines der wichtigsten Themen, da der Austausch der Batterien solcher Knoten aufgrund der rauen Unterwasserumgebung sehr teuer ist. Daher schlagen wir in diesem Papier ein energieeffizientes Routingprotokoll namens EEDBR (Energy-Efficient Depth Based Routing Protocol) für UWSNs vor. Unser vorgeschlagenes Protokoll nutzt die Tiefe der Sensorknoten zur Weiterleitung der Datenpakete. Darüber hinaus wird auch die Restenergie der Sensorknoten berücksichtigt, um die Netzwerklebensdauer zu verbessern. Basierend auf der umfassenden Simulation mit NS2 stellen wir fest, dass unser vorgeschlagenes Routing-Protokoll zu den Leistungsverbesserungen in Bezug auf die Netzwerklebensdauer, den Energieverbrauch und die End-to-End-Verzögerung beiträgt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24267-0_27 377f60107d1c5b84ba36acd92c35cec9;de;;;2.4.;;;Automatisches Fahrgastzählsystem mit Bildverarbeitung basierend auf YCbCr- und HSV-Farbraumanalyse Öffentliche Verkehrsmittel wie Züge, Pendler, Busse und Taxis sind zu den wichtigsten Verkehrsmitteln für die Großbürger Malaysias geworden. In den letzten Jahren hat die malaysische Regierung einen modernen öffentlichen Verkehr mit hohen Kosten wie MRT-Projekt und ECRL verbessert. Um das öffentliche Verkehrssystem zu verbessern, muss das Management einen geeigneten Fahrplan vorschlagen und die Zahl der Fahrgäste aktualisieren. Im Allgemeinen wird der Zählvorgang durch ein manuelles traditionelles Kopfzählsystem durchgeführt, bei dem der Fahrer oder Busbegleiter seine Fahrgäste manuell zählt. Daher ist dieser Vorgang zeitaufwendig. Daher schlägt diese Studie ein automatisches Fahrgastzählsystem vor, das eine Bildverarbeitung basierend auf YCbCr- und HSV-Farbmodellanalyse verwendet. Um das Ergebnis der Fahrgastzählung zu erhalten, müssen mehrere Bildverarbeitungsschritte implementiert werden, (1) Datenerfassung durch Aufnahme von 50 Fahrgastbildern, (2) Farbkonvertierung von RGB in YCbCr- und HSV-Farbräume, (3) Bildsegmentierung mit Otsu-Schwellenwertbildung Verfahren, (4) Entfernen unerwünschter Objekte und (5) Fahrgastzählprozess. In dieser Studie werden zwei verschiedene Farbkonvertierungen analysiert, die von RGB zu HSV sowie von RGB zu YCbCr-Farbkonvertierung sind. Insgesamt hat sich die Segmentierung mit dem HSV-Farbmodell mit einer Segmentierungsgenauigkeit von 85,63 % als die beste Segmentierung des Passagierbildes erwiesen. Insgesamt soll dieses Projekt der Busverwaltung dabei helfen, ihre Dienstleistungen zu verbessern, indem die Fahrgastzählung automatisch aktualisiert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5281-6_62 838a8ff4a1bd936609be8e59faf73775;de;;;2.4.;;;Forschung zum Multimedia-Wiedergabemodus und zur Bildoptimierung basierend auf dem adaptiven Modell des Kompensationsfaktors Wenn ein herkömmliches Multimedianetzwerk-Videobild komprimiert und zum Ausgleich übertragen wird, ist der Fehler der komprimierten Übertragungskompensation aufgrund des unterschiedlichen Verlustes von Videobildmerkmalen im Erfassungsprozess groß und die Effizienz gering. Zunächst werden der NLMS-Algorithmus und der verbesserte NLMS-Algorithmus analysiert. Um das Problem zu lösen, dass der Kompensationsfaktor im Algorithmus aufgrund des starken Netzwerk-Shakes zu groß ist, wird der NLMS-Algorithmus weiter verbessert, indem der Kompensationsfaktor-Koeffizient mit der Änderung des Netzwerks und dem Vorhersagefehler adaptiv angepasst wird. Die Forschung zeigt, dass der Multimedia-Wiedergabemodus und die Softwarestruktur des Bildoptimierungssystems basierend auf dem adaptiven Modell des Kompensationsfaktors die dynamische Anpassung des Systems an verschiedene Netzwerkbedingungen und die Bildoptimierungsfunktion während der Videowiedergabe durch Anwendung der bandbreitenadaptiven Strategie und Methode realisieren. Die Schlussfolgerung zeigt, dass das verbesserte Kompensationsverfahren bei der Multimedianetzwerk-Videobildkompressionsübertragung eine höhere Leistung bei der Multimedianetzwerk-Videobildoptimierung und Echtzeit-Kompressionsübertragungskompensation aufweist, was im Vergleich zu dem herkömmlichen Kompensationsverfahren gewisse Vorteile hat.;-;-;-;https://link.springer.com/article/10.1007/s11042-019-7478-7 e0edbd24904fe81efa3bb573a18a8c8e;de;;;5.3.;;;Neue verzögerungsabhängige Stabilität für neutrale Systeme mit ihrer Anwendung auf das Teilkreismodell Die Frage der robusten Stabilität für eine Klasse von unsicheren linearen neutralen Systemen mit zeitvariablen Verzögerungen wird untersucht. Zusammen mit der multiplen integralen Funktionaltechnik und unter Verwendung einiger neuer integraler Ungleichungen wird die viel engere Schätzung der Ableitung des Lyapunov-Funktionals vorgestellt und ein Stabilitätskriterium in Form von linearen Matrixungleichungen (LMIs) präsentiert, in denen die zuvor ignorierten Informationen erneut berücksichtigt werden können. Insbesondere beinhalten die multiplen Lyapunov-Funktionsterme die Verbindung zwischen neutraler Verzögerung und Zustand eins. Schließlich können einige Vergleichsergebnisse mit der Anwendung auf ein Teilelementschaltungsmodell die Vorteile unserer Bedingungen zeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-68542-7_66 eed756eff5a985e716b76c16756b9e2d;de;;;2.4.;;;Subcarrier Allocation-based SWIPT für kooperative OFDM-Kommunikation In einem kooperativen Kommunikationssystem kann der Relaisknoten mehr Energie zum Weiterleiten der Informationen vom Quellknoten verbrauchen, was zu einer Verringerung der gespeicherten Energie für seine eigene Übertragung führt. Kürzlich wurde die simultane drahtlose Informations- und Leistungsübertragung (SWIPT) vorgestellt, um Radiofrequenz (RF) zu sammeln, während das empfangene Signal decodiert wird. In diesem Papier wird ein SWIPT basierend auf der gemeinsamen Zuweisung von Relais und Unterträger für kooperative OFDM-Kommunikation vorgeschlagen, um die Übertragungsleistung des Relaisknotens zu maximieren und gleichzeitig die Relaisleistung zu garantieren, indem die HF-Energie des Quellsignals gesammelt wird. Es wird ein gemeinsames Optimierungsproblem für Unterträger- und Leistungszuweisungen vorgeschlagen, das durch eine wiederholte Optimierungsarithmetik ausgearbeitet werden kann. Aus den Simulationsergebnissen ist ersichtlich, dass das System die Spektrumseffizienz ändern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9409-6_293 ab67891c3b6b728c8073f7d5385459ed;de;;;2.4.;;;Design des Geräts zur Erfassung von Stromsystemparametern basierend auf der Technologie zur drahtlosen Transformation Mit der rasanten Entwicklung der elektronischen Technik in Schiffen wurde dem Kriegsschiff mit elektrischem Antrieb große Aufmerksamkeit geschenkt. Die Echtzeit-Erkennung von Kriegsschiffen durch die Leistungsparameter übt einen aktiven Einfluss auf die Stromqualität und den sicheren Betrieb des Kriegsschiff-Energiesystems aus. Der Artikel entwirft ein Gerät zum Sammeln von Leistungsparametern, das auf der drahtlosen WIFI-Transformationstechnologie basiert. Dieses Gerät verwendet eine Spannungszange und einen Stromsensor, um dreiphasige Spannungs- und Stromdaten des Schiffsstromsystems zu sammeln. Durch das AD-Modul werden die Daten in digitale Daten umgewandelt und vom WIFI-Modul an das Kontrollterminal übertragen. Durch Experimente wurde bestätigt, dass das Gerät eine präzise Datenerfassung in Echtzeit durchführen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-49155-3_33 8131fdbb17aa211cc281c5c90c192d9b;de;;;2.4.;;;Netzwerktopologie Boundary Routing IP-Identifikation für IP-Geolocation Die wenigen existierenden Verfahren für die IP-Identifizierung des Grenzroutings von Netzwerktopologien basieren oft auf einer einzigen Netzwerkeigenschaft mit schlechter Anwendbarkeit, geringer Genauigkeit und Schwierigkeiten, die IP-Geolocation-Anforderungen zu erfüllen. In diesem Papier wird ein IP-Identifikationsalgorithmus für die IP-Geolokalisierung für das Grenzrouting der Netzwerktopologie vorgeschlagen. Der vorgeschlagene Algorithmus ist nicht mehr auf eine bestimmte Verzögerungsverteilung beschränkt, die in D-Based verwendet wird, sondern identifiziert die Grenz-Routing-IP gemäß der Differenz zwischen jeder Einzelsprungverzögerung im Pfad und der Stadtverzögerungsschwelle, die sich stärker von herkömmlichen Methoden unterscheidet die Charakteristik der Verzögerungsdifferenz nicht offensichtlich ist, kombiniert der vorgeschlagene Algorithmus die Unterschiede der Routing-IP-Hostnamen in verschiedenen Städten, um die Grenz-Routing-IP weiter zu identifizieren, und der Anteil identifizierbarer Pfade wird erhöht. Experimente werden mit den Sondierungsergebnissen von Millionen von Sehenswürdigkeiten in 10 Zielstädten in China und den USA durchgeführt. Die Ergebnisse zeigen, dass im Vergleich zu D-basiert und P-basiert das Verhältnis der identifizierbaren Pfade um etwa 103,0 % bzw. 69,5% erhöht wird, die Anzahl der Knoten in der Zielstadt um das 1,7- bzw. 1,9-fache erhöht wird und die Genauigkeit der Knotenposition um etwa 48,3 % und 16,9 % verbessert wird, wird die Erfolgsrate von drei klassischen IP-Geolokalisierungsmethoden auf Straßenebene wie SLG, LENCR und Geo-RMP unter Verwendung der durch den vorgeschlagenen Algorithmus erhaltenen Topologie um 75,8 %, 61,2 % erhöht, und 71,7%.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-57881-7_47 5cadb61fffa7573e229959c325e7d422;de;;;2.4.;;;Manipuri Handschriftliche Zeichenerkennung durch Convolutional Neural Network Die handschriftliche Zeichenerkennung ist ein wesentliches Feld der Mustererkennung. Seine Popularität nimmt mit dem Potenzial zu, in verschiedenen Anwendungen wie Banken, Postautomatisierung, Formularausfüllung usw. erfolgreich zu sein. Die Entwicklung eines solchen Systems ist jedoch eine herausfordernde Aufgabe mit dem unterschiedlichen Schreibstil des gleichen Charakters und visuell ähnlichen Merkmalen . In diesem Beitrag wird ein Erkennungssystem vorgeschlagen, das ein tiefes neuronales Netz verwendet. Die Leistung des Netzwerks wird anhand eines selbst gesammelten handschriftlichen Datensatzes der Manipuri-Schrift untersucht, der von 90 verschiedenen Personen unterschiedlichen Alters und unterschiedlicher Bildung beigesteuert wurde. Für das Experiment werden insgesamt 4900 Beispielbilder berücksichtigt und eine Erkennungsrate von 98,86 % verzeichnet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4018-9_28 38aa5b6e5010db9ae45f6b160ea77e76;de;;;2.4.;;;Automatisierte Segmentierung des linken und rechten Ventrikels in 4D kardialen SPAMM-Bildern In diesem Artikel beschreiben wir eine vollständig automatisierte volumenbasierte Methode zur Segmentierung des linken und rechten Ventrikels in 4D-getaggten MR-(SPAMM)-Bildern für die quantitative Herzanalyse. Wir korrigieren die Hintergrundintensitätsvariation in jedem Volumen, die durch Oberflächenspulen verursacht wird, mit einem neuen skalenbasierten Fuzzy-Connectivity-Verfahren. Wir wenden 3D-Graustufenöffnungen auf die korrigierten Daten an, um Volumen zu erstellen, die nur die blutgefüllten Regionen enthalten. Wir begrenzen die Volumina durch Minimieren der Regionsvarianz oder durch ein adaptives statistisches Schwellenwertverfahren. Wir isolieren die ventrikulären blutgefüllten Regionen mit einem neuartigen Ansatz, der auf räumlicher und zeitlicher Formähnlichkeit basiert. Wir verwenden diese Regionen, um die Endokardkonturen zu definieren und verwenden sie, um eine aktive Kontur zu initialisieren, die das Epikard durch den Gradientenvektorfluss einer Kantenabbildung eines Graustufen-geschlossenen Bildes lokalisiert. Es werden sowohl quantitative als auch qualitative Ergebnisse an normalen und erkrankten Patienten präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45786-0_77 a632dd4f0eb05ed2140f5d88a27e0679;de;;;2.4.;;;Automatische Erkennungsmethode für Solar Radio Burst für dezimetrische und metrische Daten von YNAO Mit der Entwicklung von Solarradiospektrometern ist es schwierig, eine große Anzahl von beobachteten Daten schnell durch manuelle Detektionsverfahren zu verarbeiten. Die astronomischen Observatorien von Yunnan (YNAO) verfügen über zwei Sonnenradiospektrometer mit hoher Zeit- und Frequenzauflösung. In diesem Artikel wird eine automatische Erkennungsmethode für solare Radiobursts für dezimetrische und metrische Daten von YNAO vorgeschlagen. Die Dauer des Solarradiobursts wurde gezählt und analysiert. Die Kanalnormalisierung wurde verwendet, um das ursprüngliche Sonnenradiobild zu entrauschen. Durch experimentelle Vergleiche wurde die Otsu-Methode als binäre Methode des solaren Radiospektrums ausgewählt, und zum Glätten des binären Bildes wurden Öffnungs- und Schließvorgänge verwendet. Experimente zeigen, dass das vorgeschlagene Verfahren zur automatischen Erkennung von Solarradiobursts effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0118-0_22 d422db9a9313b25280d0cba16cf48064;de;;;2.4.;;;Verstehen von Expertensystemanwendungen aus der Perspektive des Wissenstransfers Expertensysteme (ES) wurden vor mehr als zwei Jahrzehnten eingeführt, ihre Wirksamkeit und ihr Erfolg sind jedoch noch umstritten. Dieser Beitrag versucht, einen Beitrag zum besseren Verständnis von ES-Anwendungen aus Sicht des Wissenstransfers zu leisten. In diesem Papier wird argumentiert, dass eine ES-Anwendung ein Wissenstransfer ist, der Informations- und Kommunikationstechnologien (IKT) verwendet. Untermauert durch Wissenstransfertheorien und eine Reihe empirischer Untersuchungen von ÖSD-Projekten in der Landwirtschaft, erkennt diese Studie die Bedeutung menschlicher Interaktionen im Umsetzungsprozess von ÖSD an. Basierend auf den gesammelten Beweisen werden eine Reihe von Schlüsselakteuren untersucht. Sie sind Wissensgeber/-sender, Wissensingenieur, Wissenserweiterung und Wissensempfänger. Dieses Papier stellt einen ersten Versuch dar, die Rolle eines Wissensvermittlers im IKT-basierten Wissenstransferprozess anzuerkennen. Der Name „Extensionist“ ist einer früheren Literatur entlehnt und beschreibt einen Akteur, der als Vermittler bei der Unterstützung des Wissenstransfers zum Wissensnutzer fungiert. Die Ergebnisse belegen den bedeutenden Beitrag von Extensionisten zum Erfolg von ES-Anwendungen. Es wird argumentiert, dass die Starrheit und Beschränkungen von ES im IKT-basierten Wissenstransfer durch die Einbeziehung enger menschlicher Interaktionen mit dem Wissensempfänger deutlich reduziert werden können.;-;-;-;https://link.springer.com/article/10.1057/kmrp.2009.6 ab841762eb8799822747f9df3294c674;de;;;2.4.;;;Zur Nutzung sequentieller Muster zur Erkennung und Charakterisierung von Natur- und Landwirtschaftsgebieten Heutzutage ist eine große Menge hochauflösender Satellitenbilder frei verfügbar. Solche Bilder ermöglichen es Forschern in den Umweltwissenschaften, die verschiedenen natürlichen Lebensräume und landwirtschaftlichen Praktiken aus der Ferne zu untersuchen. Der Inhalt von Satellitenbildern hängt jedoch stark von der Jahreszeit der Aufnahme ab. Aufgrund der Periodizität der natürlichen und landwirtschaftlichen Dynamik im Laufe der Jahreszeiten ergeben sich sequenzielle Muster als neue Möglichkeit, das Verhalten dieser Umgebungen zu modellieren. In diesem Papier beschreiben wir einige vorläufige Ergebnisse, die mit einem neuen Rahmen für die Untersuchung raumzeitlicher Entwicklungen über natürliche und landwirtschaftliche Gebiete unter;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08795-5_11 72e46fcd6f96598f3c6c05d933d1b695;de;;;2.4.;;;Minisun IDEEA Life Gait zur Ganganalyse Die Ganganalyse ist eine Methode zur Identifizierung biomechanischer Anomalien im Gangzyklus. Es ist eine Möglichkeit, die Art und Weise zu beurteilen, wie wir gehen und laufen. Die Kraftanalyse ist während des Rehabilitationsprozesses von Amputationspatienten von entscheidender Bedeutung, da eine Überlastung die Knochen-Implantat-Schnittstelle gefährden kann, während eine Unterbelastung das ohnehin lange Rehabilitationsprogramm unnötig verlängern kann. Hochentwickelte Sensor- und Datenerfassungstechnologie bietet eine einfache und zuverlässige Möglichkeit zur Ganganalyse. Wir werden den IDEEA Life Gait Sensor verwenden, der an Knöchel, Oberschenkel und Brust befestigt ist. Das IDEEA-System zeichnet Datenpunkte der täglichen Aktivitäten sowie der Körperhaltung und des Trainings auf 24 Stunden-Basis auf und analysiert diese Daten mit hoher Intelligenz, detailliert auf jede Sekunde, jede Ihrer Bewegungen oder jeden Schritt, den Sie gehen. Mit dem Programm ActView (GaitView) können Sie diese Daten verwalten und in Form von Diagrammen, Tabellen und Kurven anzeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8221-9_145 f71d4416bc082b319da99a74df9b7676;de;;;5.3.;;;Modellierungssprachen evaluieren: Ein Beispiel aus dem Anforderungsbereich Die Modellierung von Sprachen wurde durch empirische Studien, Vergleiche von Sprachgrammatiken und ontologischen Analysen evaluiert. In diesem Papier verfolgen wir den ersten Ansatz, indem wir die Aussagekraft und Wirksamkeit von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12206-9_21 9c28b55f9c46c499cc159b8a0775a232;de;;;2.4.;;;Eine automatische Extraktionsmethode der Verkehrsnetzgrenze basierend auf Nachbarknoteninformationen von IoV Um Grenzinformationen des Verkehrsnetzes schnell zu extrahieren, wird ein automatisches Extraktionsverfahren der Verkehrsnetzgrenze basierend auf den Nachbarinformationen von Transportfahrzeugen im Verkehrsnetz, nämlich TNBAE-NI, vorgeschlagen. Zunächst wird die in Echtzeit verteilte Szene von Verkehrsfahrzeugen aus den Verkehrstrajektoriendaten von Verkehrsfahrzeugen extrahiert. Zweitens wird die verbesserte verteilte Szene von Verkehrsfahrzeugen durch Überlagerung mehrerer in Echtzeit verteilter Szenen zu unterschiedlichen Zeiten gebildet. Drittens wird die gleichförmig verteilte Szene von Verkehrsfahrzeugen durch Entfernen und Interpolieren von Knoten in der verbesserten verteilten Szene konstruiert. Schließlich werden die Grenzknoten des Verkehrsnetzes basierend auf den statistischen Eigenschaften benachbarter Fahrzeugknoten in der gleichförmig verteilten Szene identifiziert, und die Verkehrsnetzgrenzen werden durch Ausnutzen der Verbindung benachbarter Grenzknoten im Verkehrsnetz erzeugt. Die theoretischen Analyse- und Simulationsergebnisse zeigen, dass die TNBAE-NI-Methode mit relativ leichten Berechnungen genügend genaue Verkehrsnetzgrenzen erhalten kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4214-9_8 7d2bd17cfe6366001d78b70dfec97918;de;;;5.3.;;;Überblick über die eMBMS-Technik Mit der Entwicklung des mobilen Internets sind Mobilfunkbetreiber im Allgemeinen dem Risiko von Netzwerkengpässen und Pipelines ausgesetzt, die durch die Auswirkungen von Datendiensten verursacht werden. Unter ihnen wird der Videodienst der potenziellste Dienst in der Zukunft des drahtlosen Netzwerks werden und einen beispiellosen Druck und eine beispiellose Herausforderung für das Mobilfunknetz mit sich bringen. Bei 2G/3G-Mobilfunknetzen, die nur Unicast unterstützen, ist es aufgrund der Bandbreitenbeschränkung schwierig, dass Live-Videodienste auf Basis eines drahtlosen Netzwerks tatsächlich landen. Die LTE-eMBMS-Lösung (Enhanced Multimedia Broadcasting Multicast Services) hat die Broadcasting-Fähigkeit im gesamten Netzwerk oder Multicast-Bereich erfolgreich realisiert. In diesem Artikel werden die Systemarchitektur, die Kapazität und die Videodienste von eMBMS vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4163-6_105 de4b69e595d9f1213e015ac22e3ce4af;de;;;5.3.;;;Forschung zur Designstrategie der Produktidentität der Militärindustrie Um das Problem des Markenimages und der Identität von Flugradaren im Industriedesign zu lösen, wurde die Designstrategieforschungsmethode der Imageidentität der Militärindustrie vorgestellt. In diesem Beitrag wurden das Konzept und die Dimension der Produktidentifikation diskutiert, die Schlüsseltechnologie der Produktsemantik und der Konstruktion von DNA-Systemen für Produktfamilien untersucht und die Konstruktionsmethode eines Entwurfsstrategiesystems basierend auf der Identifizierung von militärischen Produktbildern vorgestellt. Nehmen wir als Beispiel das Design eines luftgestützten Radars, die Entwicklung des militärischen Produktimages wurde erforscht, basierend auf dem Konzept der Unternehmens- und Produktstrategieforschung, wurde die Produktsemantik auf oberster Ebene abstrahiert, das Konzept der Gesamtlösung geformt, die Designsprache wurde in die DNA der visuellen Erkennung integriert. Durch Validierung und Neugestaltung wurden ein Leitfaden und eine Spezifikation zur Produktbildidentifikation erstellt. Das systematische luftgestützte Radarproduktbild- und Reihendesign gewährleistete die Einheitlichkeit und Identifizierung des Unternehmensproduktbildes, die Theorie der Bilderkennung basierend auf dem militärischen Produktdesign im Industriedesignsystem wurde verifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9441-7_83 1eb6e349c8a4f6ef5584556ed970a93c;de;;;2.4.;;;Ein normalisierter Tensor-Vervollständigungsalgorithmus mit einer niedrigen Gesamtvariation In diesem Papier modellieren wir zunächst visuelle Daten als Tensor und legen dann sowohl eine niederrangige als auch eine Gesamtvariationsbeschränkung fest, um den Tensor zu vervollständigen. Genauer gesagt verwenden wir ein neuartiges Tensor-Tensor-Produktions-Framework (auch als t-Produkt bekannt) und seine Theorie der rangbasierten Vervollständigung. Mit dem Konzept des T-Produkts erweitern wir erstmals die klassische Total-Variation (TV) zu einem T-Produkt und;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7302-1_26 e45868de8993139844dfc6cb26468b2f;de;;;5.3.;;;Experimentelle Studie zur Auswirkung von Reisekrankheit auf den Komfort beim Betrachten von 4D-Filmen Derzeit konzentriert sich die wissenschaftliche Forschung zu 4D-Filmen hauptsächlich auf Kinotechnik und Projektionstechnik. Diese Arbeit nimmt den Sehkomfort als Forschungsgegenstand. Durch eine Fragebogenerhebung wurde festgestellt, dass der Hauptfaktor, der den Sehkomfort beeinflusst, die Reisekrankheit ist, und durch theoretische Untersuchungen wurde festgestellt, dass es einen Zusammenhang zwischen Reisekrankheit und Reisekrankheit gibt, die durch das Ansehen von 4D-Filmen verursacht werden. Versuchen Sie also, die Reisekrankheit, die durch das Ansehen von 4D-Filmen verursacht wird, zu lindern, indem Sie das Problem der Reisekrankheit lösen, und führen Sie eine experimentelle Überprüfung durch, um schließlich zu dem Schluss zu kommen, dass psychischer Komfort die Reisekrankheit des Benutzers effektiv lindern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-8779-1_78 6fca8fcd5558ae69627977e51e97ce1a;de;;;5.3.;;;Erforschung und Implementierung von Lehr- und Experimentalsystemen der Fachrichtung Künstliche Intelligenz Mit der rasanten Entwicklung der Informationstechnologie nimmt die Stimme der künstlichen Intelligenz zu. Derzeit sind die Talente der künstlichen Intelligenz in unserem Land knapp, was die Nachfrage nach Talenten auf dem Markt nicht decken kann. Daher ist es für Hochschulen und Universitäten sehr wichtig, den Studiengang Künstliche Intelligenz aufzubauen, um Talente auszubilden. Für den Studiengang Künstliche Intelligenz ist die traditionelle Lehrmethode jedoch nicht geeignet. Darauf aufbauend schlägt dieser Beitrag die Erforschung und Umsetzung des Lehr- und Experimentiersystems Künstliche Intelligenz vor. Das in dieser Arbeit vorgeschlagene Lehr- und Experimentalsystem basiert auf der B/S-Architektur. Lehrer und Schüler können Unterrichtsaufgaben und Experimente im Browser durchführen. Angesichts der steigenden Anzahl von Benutzern und Kursen wird ein Planungsalgorithmus verwendet, um die Effizienz der Aufgabenausführung und Ressourcenauslastung sicherzustellen. Durch die Benutzererfahrungsumfrage der Lehrer und Schüler des Systems zeigen die Ergebnisse, dass 61,2% der Lehrer und 65,87% der Schüler mit dem System zufrieden sind, was zeigt, dass das System gute Ergebnisse erzielt hat und von den Lehrern sehr geliebt wird und Studenten. Ich hoffe, dieses System kann als Referenz für den Unterricht in verwandten Fächern dienen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5959-4_88 f6b4fd329da9542d699b0f3c28b90857;de;;;5.3.;;;Design und Entwicklung eines intelligenten Fabrikinformationssystems basierend auf der Digital Twin Technology Basierend auf industriellen Internet- und digitalen Zwillingstechnologien entwickelt dieses Papier ein intelligentes Fabrikinformationssystem für das geschlossene Kreislaufmanagement des gesamten Lebenszyklus wie Produktdesign, Prozessdesign, Produktionsmanagement, Produktionsüberwachung und Anlagenwartung. Verbinden Sie die physische Welt mit der digitalen Welt, und eine intelligente Produktion über den gesamten Lebenszyklus ist erreicht. Das System wurde erfolgreich in vielen Unternehmen eingesetzt und verbessert effektiv die Produktentwicklung und Produktionseffizienz.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6318-2_37 816e42c403de6f627b3488a5906d698e;de;;;5.3.;;;Edge-Computing-Ansatz für DEVOPS Verzögerungen oder langsame Reaktionszeiten sind bei Jenkins-Benutzern sehr verbreitet, und Sie können viele gemeldete Probleme dazu finden. Langsame Continuous Integration-Systeme sind frustrierend, sie verlängern die End-to-End-Softwareentwicklungszeit. Die Kombination aus Edge Computing und Docker, einer containerbasierten Technologie, könnte diese Leistungsprobleme umgehen und die Benutzererfahrung verbessern. Unser Whitepaper präsentiert eine Möglichkeit, Edge-Computing und Docker-Ansätze für Continuous Integration und Continuous Delivery zu verwenden, um den Jenkins-Server auf dem lokalen System/Entwicklersystem auszuführen. Sobald die Prüfungen und Builds erfolgreich darauf ausgeführt wurden, erfolgt die Bereitstellung in der Zielumgebung .;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7961-5_3 7d5a13e208796db4deccb056ef55c3fd;de;;;5.3.;;;Analyse des gemeinsamen LTE- und NR-Spektrums basierend auf der Verkehrslast Die Bereitstellung des LTE- und NR-n41-Bands bei 2,6 GHz kann sowohl die 4G-Kapazitätskrise als auch den Mangel an 5G-Abdeckung beheben und kann auch den schnellen Netzwerkaufbau und die Bereitstellung beschleunigen. Unter TDD-System versteht man unterdessen ein Zeitteilungssystem, bei dem die Zeitschlitzsynchronisation im Netzwerk genau konfiguriert werden muss. Das Übertragungsverhältnis des Uplink- und Downlink-Subframes ist gleich. Außerdem müssen die Uplink- und Downlink-Umwandlungspunkte gleich bleiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4102-9_114 0da11daec3c3a47f0ff113b3e92a1b74;de;;;5.3.;;;Untersuchung von 3D-Textur und -Projektion für ein neues CAPTCHA-Design Die meisten aktuellen textbasierten CAPTCHAs haben sich als leicht zerbrechlich erwiesen. In dieser Arbeit stellen wir zwei neuartige 3D-CAPTCHA-Designs vor, die gegenüber automatisierten Angriffen sicherer sind als aktuelle 2D-Text-CAPTCHAs. Unser Ansatz besteht darin, CAPTCHA-Zeichen auf 3D-Objekten anzuzeigen, um die Sicherheit zu verbessern. Wir nutzen die Schwierigkeit für Maschinen beim Drehen von 3D-Objekten, um einen richtigen Blickwinkel zu finden, und beim weiteren Erkennen von Charakteren in 3D, beides Aufgaben, die Menschen leicht ausführen können. Mithilfe eines automatisierten Offline-Computer-Vision-Angriffs haben wir festgestellt, dass 82 % der neuen reCAPTCHA-Textzeichen erfolgreich erkannt wurden, während etwa 60 % unserer 3D-CAPTCHAs nur erkannt wurden, wenn die Zeichen fokussiert und aus dem direkten Blickwinkel gezoomt wurden. Wenn CAPTCHAs in leicht unterschiedlichen Ansichten präsentiert werden, reduzieren sich die Angriffserfolgsraten gegen unsere Ansätze auf fast 0 %.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-56549-1_30 90446d84e334ac6c2fcb5bae786e577e;de;;;5.3.;;;Warum ist die Nullmarkierung auf Koreanisch wichtig? Dieses Papier argumentiert für die Notwendigkeit von Null-Pronomen-Annotationen in koreanischen Baumbanken und stellt ein Annotationsschema bereit, das verwendet werden kann, um einen Goldstandard zum Testen verschiedener Anaphor-Auflösungsalgorithmen zu entwickeln. Relevante Fragen der Pronomenannotation werden diskutiert, indem die Penn Korean Treebank mit Null-Pronomen-Aufschlag und die neu entwickelte Sejong Teebank ohne Null-Pronomen-Aufschlag verglichen werden. Zusätzlich zu unterstützenden Beweisen für die Nullmarkierung werden notwendige morphosyntaktische und semantische Merkmale für die Nullannotation in koreanischen Baumbanken vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/11562214_52 c88b511be2321e1851d4c0aeb626fe20;de;;;5.3.;;;Modellierung von Produkten für vielseitige E-Commerce-Plattformen – Grundlegende Anforderungen und generische Designalternativen Der elektronische Handel (E-Commerce) umfasst ein breites Spektrum von Geschäftsvorgängen. Üblicherweise umfasst eine Transaktion Produkte, also Waren oder Dienstleistungen. E-Commerce-Websites sollen oft eine Vielzahl von Produkten anbieten, von denen die meisten zum Zeitpunkt der Systemerstellung noch nicht vollständig erkannt werden. Dennoch bedarf es einer ausführlichen Beschreibung dieser Produkte, um Interessenten bei der Suche nach geeigneten Produkten zu unterstützen. Da täglich neue Produkttypen registriert werden müssen, ist die Änderung eines Datenbankschemas oder Programmcodes keine befriedigende Option. Stattdessen besteht die Notwendigkeit, während der Laufzeit eines Systems neue Produkttypen zu registrieren. Zudem soll die Darstellung von Produktvarianten und der Aufbau individueller Produktkonfigurationen möglich sein. Aktuelle Ansätze zur Produktdarstellung erfüllen diese Anforderungen nicht in zufriedenstellendem Maße. Der Entwurf geeigneter konzeptioneller Modelle erfordert eine gründliche Differenzierung zwischen verschiedenen Abstraktionsebenen. Dazu gehören Entscheidungen, die zwischen Instanziierung, Spezialisierung und „Use“-Beziehungen zu treffen sind. Vor diesem Hintergrund stellt der Beitrag drei prototypische Gestaltungsalternativen für vielseitige Produktdarstellungen vor. Sie unterscheiden sich in Bezug auf Flexibilität, Wiederverwendbarkeit und Benutzerfreundlichkeit. Die in diesem Papier vorgestellten Arbeiten resultieren aus dem Entwurf eines Referenzmodells für E-Commerce-Plattformen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-46140-X_34 2bdae1ff71948c600aaf5454d74b6a3e;de;;;5.3.;;;Programmverständnis domänenspezifischer und universeller Sprachen: Replikation einer Experimentfamilie mit integrierten Entwicklungsumgebungen Domänenspezifische Sprachen (DSLs) ermöglichen Entwicklern das Schreiben von Code auf einer höheren Abstraktionsebene im Vergleich zu Universalsprachen (GPLs). Entwickler verwenden häufig DSLs, um die Komplexität von GPLs zu reduzieren. Unsere vorherige Studie ergab, dass Entwickler Programmverständnisaufgaben mit DSLs genauer und effizienter ausführen als mit entsprechenden APIs in GPLs. Diese Studie wiederholt unsere vorherige Studie, um die Ergebnisse zu validieren und zu erweitern, wenn Entwickler IDEs verwenden, um Aufgaben zum Programmverständnis auszuführen. Wir führten eine abhängige Replikation einer Familie von Experimenten durch. Wir haben zwei spezifische Änderungen an der ursprünglichen Studie vorgenommen: (1) Die Teilnehmer verwendeten IDEs, um die Programmverständnisaufgaben durchzuführen, um eine Bedrohung der Validität im ursprünglichen Experiment zu beheben und (2) jeder Teilnehmer führte Programmverständnisaufgaben entweder auf DSLs oder GPLs durch beides wie im ursprünglichen Experiment. Die Ergebnisse der Replikation stimmen mit den Ergebnissen der ursprünglichen Studie überein und erweiterten diese. Entwickler sind bei der Verwendung einer DSL im toolbasierten Programmverständnis deutlich effektiver und effizienter als bei der Verwendung einer entsprechenden API in einer GPL. Die Ergebnisse zeigen, dass Entwickler, wenn eine DSL verfügbar ist, mit der DSL ein besseres Programmverständnis erzielen als mit der entsprechenden API in einer GPL.;-;-;-;https://link.springer.com/article/10.1007/s10664-017-9593-2 003503fc8ea3aa4e97b251e02b8287ee;de;;;5.3.;;;MongoDB, Couchbase und CouchDB: Ein Vergleich Mit der rasanten Zunahme von Cloud Computing, Big Data und Echtzeit-Webanwendungen besteht ein enormer Bedarf an Datenbanken, die große Datenmengen mit hoher Leistung und großen Skalierungsmöglichkeiten verarbeiten und verarbeiten können. Dies war von Anfang an das Hauptziel von NoSQL-Datenbanken. In diesem Artikel werden wir Basen mit drei der beliebtesten NoSQL-Datenbanken berühren: MongoDB, Couchbase und CouchDB. Wir werden sie mit der OSSpal-Methodik und dem YCSB-Framework in quantitativer und qualitativer Hinsicht vergleichen. Außerdem werden wir die Grundlagen von NoSQL und seinen Typen behandeln, wie es skaliert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72651-5_45 42475fd01dd1597daf7faa6e63418aa7;de;;;5.3.;;;Intelligentes Sicherheitsmodell von Smartphones basierend auf menschlichem Verhalten im mobilen Cloud-Computing In der aktuellen Forschung sind vielfältige Forschungen im Zusammenhang mit der Weiterentwicklung der IT-Technologie und dem Aufkommen von Smart Devices üblich. Insbesondere das am meisten kommerzialisierte intelligente Gerät, das Smartphone, bietet aufgrund der einfachen Portabilität und des Echtzeit-Informationsaustauschs innerhalb eines vielfältigen Systems eine bequeme Kommunikation zwischen den Benutzern. Darüber hinaus hat die räumliche und zeitliche Nutzung von Smart-Geräten stark zugenommen, da diese Geräte in der Lage sind, die gleichen Funktionen wie ein Desktop-PC auszuführen, was Smartphones äußerst beliebt macht. Die Forschung zu Smartphones hat sich jedoch hauptsächlich auf den Komfort der auf diesen Geräten angebotenen Dienste konzentriert, während das Thema Sicherheit vernachlässigt wurde. Smartphones sind anfällig für verschiedene, bösartige Angriffe, die mit der Entwicklung und häufigen Verwendung neuer Funktionen zugenommen haben. Aus diesem Grund wurden eine Reihe von Anwendungen entwickelt, um eine Vielzahl von Schadcodes in Smartphones zu erkennen und den Verlust privater Informationen zu verhindern. Aufgrund der Schwierigkeiten, Angriffe wie Advanced Persistent Threats (APTs) zu erkennen und darauf zu reagieren, ist jedoch dringend ein intelligentes Sicherheitsmodell erforderlich. Dieses Papier schlägt ein intelligentes Sicherheitsmodell von Smartphones vor, das auf menschlichem Verhalten im mobilen Cloud-Computing basiert, um verschiedene Arten von Schadcode in Smartphones zu erkennen und auf fortgeschrittene Angriffe wie APTs zu reagieren. Das vorgeschlagene intelligente Sicherheitsmodell von Smartphones schützt Benutzer sicher vor privaten Informationslecks und illegalen Abrechnungsaktionen. Darüber hinaus wird eine intelligente Reaktion auf bösartigen, schwer zu erkennenden Code durch eine auf dem Benutzerverhalten basierende intelligente Analyse bereitgestellt, die es ermöglicht, Netzwerk-, Registrierungs-, Laufwerks- und Systemzugriffe herunterzufahren und Benutzer zu benachrichtigen, auf böswillige Angriffe zu reagieren.;-;-;-;https://link.springer.com/article/10.1007/s11277-015-3121-8 53b1c8d050974b5fbb2cd70e6840e1c8;de;;;5.3.;;;Die Herausforderung der Bewertung von Forschungsergebnissen im Bereich des technologiegestützten Lernens annehmen Der vorliegende Beitrag befasst sich mit der Frage der Bewertung von Forschungsergebnissen im Bereich des Technology Enhanced Learning (TEL). Es präsentiert ein Bewertungsmodell, das entwickelt wurde, um einen webbasierten Pädagogischen Planer und das ihm zugrunde liegende theoretische Modell zu bewerten. Das im Rahmen eines europäischen Projekts konzipierte und erprobte Evaluationsmodell erwies sich als in der Lage, Stärken und Schwächen des vorliegenden TEL-Systems aufzuzeigen, indem es zwischen Theorie und Praxis, zwischen den aus dem theoretischen Modell abgeleiteten Vor- und Nachteilen bzw auf das implementierte Tool bezogen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04754-1_3 b6af7afc98471060828222d0374eaea8;de;;;5.3.;;;Forschung zur Visualisierung von Kartenwissen basierend auf Augmented Reality Im Prozess der Kartenwissensvisualisierung gibt es drei wichtige Verknüpfungen: die Daten des Kartenwissens, der Benutzer und die Methode der Kartenwissensvisualisierung. Unter den drei Gliedern kann die richtige Methode der Visualisierung von Kartenwissen nicht nur die Darstellungsform von Kartendaten bereichern, sondern auch die kognitiven Barrieren reduzieren und Abweichungen von Kartenwissen verstehen. Basierend auf der Analyse verschiedener Datentypen, die an Karteninformationen beteiligt sind, wendet dieses Papier Text, Audio und Video, 3D-Modelle und andere Datentypen auf die Visualisierung von Kartenwissen durch Augmented-Reality-Technologie an. Die Ergebnisse zeigen, dass die Anwendung der Augmented-Reality-Technologie auf die Visualisierung von Kartenwissen die Darstellung der Visualisierung von Kartenwissen bereichern, eine Echtzeitinteraktion zwischen Benutzern und Kartenwissen realisieren und die Unterschiede zwischen dem Ausdruck von Kartenwissen und der räumlichen Kognition des Benutzers weiter verringern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0503-1_34 18836ee1edc0baabace91870c9ebb4da;de;;;5.3.;;;Automatische Ableitung von Kompositionsregeln im automatisierten Kompositionsschluss Die Richtigkeit der Regeln für das kompositorische Denken hängt von Rechenmodellen ab und ist manchmal ziemlich kompliziert. Verifizierer sind daher gezwungen, ihre Probleme in eine Handvoll solider Kompositionsregeln zu formen, die ihnen bekannt sind. In diesem Beitrag wird ein syntaktischer Ansatz zur Feststellung der Solidität von Kompositionsregeln beim automatisierten kompositorischen Denken vorgestellt. Unsere Arbeit kann nicht nur alle uns bekannten Kompositionsregeln begründen, sondern durch intuitives Denken automatisch neue Zirkelregeln ableiten. Auch Fragen der Invertibilität werden in dem Papier kurz erörtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74407-8_21 e9dc21c059f4912bc0d131814719a23c;de;;;5.3.;;;Neue Ansätze der Verarbeitung natürlicher Sprache im Opinion Mining: Ein Rückblick Natural Language Processing (NLP) ist ein Teilgebiet der künstlichen Intelligenz und der Computerlinguistik. Es untersucht die Probleme der automatisierten Erzeugung und des Verständnisses natürlicher menschlicher Sprachen. Dieses Papier skizziert einen Rahmen für die Verwendung von Computer- und natürlichen Sprachtechniken für verschiedene Lernstufen, um Fremdsprachen in einer computerbasierten Lernumgebung zu lernen. Wir schlagen einige Ideen vor, um den Computer als praktisches Werkzeug zum Erlernen von Fremdsprachen zu verwenden, bei dem die meisten Kursmaterialien automatisch generiert werden. Anschließend beschreiben wir, wie Werkzeuge für computerbasiertes Lernen erstellt werden, diskutieren ihre Effektivität und schließen mit einigen Möglichkeiten ab, die Online-Ressourcen verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13467-8_12 185c61ba134eac78b181666b294f3017;de;;;5.3.;;;Überschreiten der Grenzen des Polymorphismus in Datenbankprogrammiersprachen Datenbankprogrammiersprachen stellen den Versuch dar, die Technologien von Programmiersprachen und Datenbankmanagement zusammenzuführen, um die Entwicklung datenintensiver Anwendungen zu verbessern. Ein Aspekt der Forschung zu Datenbankprogrammiersprachen ist ein Versuch, Polymorphismus und Funktionen höherer Ordnung auszunutzen, um Abfragealgebrafähigkeiten in Programmiersprachen zu integrieren. Dies hat sich insbesondere in stark und statisch typisierten Sprachen aufgrund des hohen Polymorphismus und der Reflexion in Datenbankabfragesprachen als schwierig erwiesen. Zum Beispiel erfordert die natürliche Verknüpfungsoperation der relationalen Algebra eine Untersuchung der Typen der Eingabebeziehungen, um das Übereinstimmungsprädikat und den Ausgabetyp zu bestimmen, die in aktuellen polymorphen Programmiersprachen beide nicht leicht ausgedrückt werden können. Diese Aspekte der natürlichen Verbindung erfordern einen ziemlich ausgeklügelten Polymorphismus und eine Art Reflexion. Die Reflexion muss stark genug sein, um die Untersuchung der Eingabetypen zu ermöglichen, um die Übereinstimmungsfunktion zu bestimmen und den Ausgabetyp zu synthetisieren. Es ist die Schwierigkeit, eine solche Macht sparsam zu erreichen, die wir in diesem Aufsatz untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0022176 aaa84be42f7127682b3d8182d42e0ef5;de;;;2.4.;;;Die Forschung zu den Informationsproblemen während der Modernisierung der chinesischen Medizinindustrie Industry Informationstechnik ist die technologische Unterstützung der Modernisierung der traditionellen chinesischen Medizinindustrie, die TCM blieb im letzten Jahrhundert stagnieren, was der Hauptgrund dafür ist, dass die Technologie der massiven Erfassung, Speicherung und Nutzung von Informationen zurückgefallen ist. Es besteht kein Zweifel, dass die Informationstechnologie eine Erweiterung von si zhen ist. Die TCM ist beim Sammeln von externen Informationen, die nicht an die hohe Entwicklung der modernen Informationstechnologie angepasst sind, weit hinter der Zeit zurückgeblieben. Der Aufbau einer diagnostischen Informationsdatenbank der TCM ist von besonderer Bedeutung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23998-4_9 5c72ddcacdc564bdb69ebb3277f5acd6;de;;;2.4.;;;Optimierung des Bildaufnahmemusters für Panoramafotografie Panoramafotografie erfordert intensive Operationen der Bildzusammenfügung. Eine große Anzahl von Bildern kann zu einem ziemlich teuren Bild-Stitching führen, während eine spärliche Bildgebung aufgrund der unzureichenden Korrelation zwischen benachbarten Bildern zu einem Panorama von schlechter Qualität führen kann. Eine gute Untersuchung des Gleichgewichts zwischen Bildquantität und Bildkorrelation kann also die Effizienz und Qualität der Panoramafotografie verbessern. Daher sind wir in dieser Arbeit motiviert, einen neuartigen Ansatz vorzustellen, um die optimalen Bilderfassungsmuster für die Panoramafotografie abzuschätzen. Unser Ziel ist die Minimierung der Bildmenge, die dennoch eine ausreichende Bildkorrelation beibehält. Wir stellen die Bildkorrelation als Überlappungsbereich zwischen dem Sichtbereich dar, der getrennt von benachbarten Bildern beobachtet werden kann. Darüber hinaus führt ein zeitaufwändiger Abbildungsprozess der Panoramafotografie zu einer erheblichen Beleuchtungsvariation der Szene in Bildern. Anschließend wird das Bild-Stitching stärker herausgefordert. Um dieses Problem zu lösen, entwerfen wir eine Reihe von Imaging-Routinen für unsere Bilderfassungsmuster, um die Inhaltskonsistenz zu bewahren und die Verallgemeinerung unserer Methode auf verschiedene Kameras sicherzustellen. Experimentelle Ergebnisse zeigen, dass das vorgeschlagene Verfahren auf sehr effiziente Weise das optimale Bilderfassungsmuster erhalten kann. In diesen Mustern können wir eine ausgewogene Bildmenge erzielen, aber dennoch gute Ergebnisse der Panoramafotografie erzielen.;-;-;-;https://link.springer.com/article/10.1007/s11042-018-5948-y 6eaea6e8c181e6916a16cb5143d11eb5;de;;;2.4.;;;Dekodierung von LDPC-basierten 2D-Barcodes mit einem 2D-Hidden-Markov-Modell Dieser Beitrag befasst sich mit der Dekodierung eines neuen 2D-Barcodes, der auf Low-Density Parity-Check (LDPC) Codes und Data Matrix Codes (DMC) basiert. Um typische Schäden, die in der industriellen Umgebung auftreten, einzubeziehen, haben wir uns für ein Markov-moduliertes Gaussian-Channel (MMGC)-Modell entschieden, um alles zwischen der Prägung und der kamerabasierten Erfassung eines LDPC-basierten DMC abzubilden. Für die Dekodierung von LDPC-Codes mit einem MMGC wird die Leistung des Estimation-Decoding (ED), das dem Standard-Belief-Propagate (BP)-Decoder ein Hidden-Markov-Modell (HMM) hinzufügt, analysiert. Wir beweisen den Vorteil von ED in Kombination mit einer Neuschätzung der Übergangswahrscheinlichkeiten des HMM. In Bezug auf unsere Anwendung wurde ein Decodierungsalgorithmus namens ED2D-Algorithmus entwickelt, der ED, ein 2-dimensionales HMM (2D-HMM) und eine Neuschätzung der Übergangswahrscheinlichkeiten des 2D-HMM umfasst. In einer anschließenden Auswertung werden die Ergebnisse der ED-Performance-Analyse bestätigt und ein überlegenes Dekodierverhalten unserer mit dem ED2D-Decoder dekodierten LDPC-basierten DMC im Vergleich zur ursprünglichen Reed-Solomon-basierten Version gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35755-8_26 5800c15bc78b2045f9d81e8c52ece554;de;;;2.4.;;;Schwache Fehlerdiagnosemethode für U-Bahn-Peilung basierend auf mehrskaligen Klassenentfernungen Gemäß dem Trennbarkeitskriterium der Gesamtskalen-Klassenentfernung wird es ein Problem der Ununterscheidbarkeit von Fehlerclustern geben, wenn diese Diagnose bei der Diagnose von U-Bahn-Lagerschwäche verwendet wird. Um dieses Problem anzugehen, stellt dieser Beitrag eine Diagnosemethode vor, die auf Multi-Scale Class Distance (MSCD) basiert. Auf der Grundlage des traditionellen Kriteriums, das sich auf den Klassenabstand innerhalb einer einzelnen Gesamtskalenklasse konzentriert, verwenden wir das Distanzmaß der Mehrskalenklasse als Trennbarkeitskriterium, extrahieren die Fehlerklasse aus der Stichprobe und berechnen den euklidischen Abstand zwischen den Klassen. Dann klassifizieren Sie die Stichprobe in mehrere Unterstichproben und verwenden diese Unterstichproben als Gesamtstichprobe, um die Berechnung des Trennbarkeitskriteriums der nächsten Skala durchzuführen. Wiederholen Sie diesen Vorgang, bis die Multiskalenklassifizierung abgeschlossen ist und erhalten Sie die Teilstichproben mit der besten Trennbarkeit. Wir können die Schwingungssignale eines schwachen Lagerfehlers unter verschiedenen Arbeitsbedingungen vom U-Bahn-Getriebeprüfstand erhalten und die in diesem Papier vorgeschlagene Methode verwenden, um die Schwachfehlerdiagnose durchzuführen. Das Ergebnis zeigt, dass mit diesem Verfahren die Klassifizierung von schwachen Lagerfehlern erreicht werden kann. Im Vergleich mit dem herkömmlichen PCA-Klassifizierungsergebnis basierend auf einer einzelnen Skala kann dieses Verfahren ein Fehlerklassifizierungsergebnis mit hoher Trennbarkeit erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6609-1_26 1e6f4a4e887c88b4ca0837e37abc1807;de;;;5.3.;;;Aktionsvorhersage über Deep Residual Feature Learning und Weighted Loss Eine Aktionsvorhersage basierend auf teilweise beobachteten Videos ist eine Herausforderung, da die von teilweisen Videos bereitgestellten Informationen für eine Klassifizierung nicht diskriminierend genug sind. In diesem Papier schlagen wir ein Deep Residual Feature Learning (DeepRFL)-Framework vor, um differenziertere Informationen aus Teilvideos zu untersuchen und ähnliche Darstellungen wie bei vollständigen Videos zu erzielen. Das gesamte Framework funktioniert als ein Lehrer-Schüler-Netzwerk, wobei das Lehrer-Netzwerk die vollständige Videofunktionsüberwachung für das Schülernetzwerk unterstützt, um die hervorstechenden Unterschiede zwischen Teilvideos und ihren entsprechenden vollständigen Videos basierend auf dem restlichen Merkmalslernen zu erfassen. Das Lehrer- und das Schülernetzwerk werden gleichzeitig trainiert, und die als partielle Merkmalsablösung bezeichnete Technik wird verwendet, um zu verhindern, dass das Lehrernetzwerk durch das Studentennetzwerk gestört wird. Wir entwickeln auch eine neuartige gewichtete Verlustfunktion, um Teilvideos mit kleinen Beobachtungsverhältnissen weniger zu bestrafen. Umfangreiche Auswertungen der anspruchsvollen UCF101- und HMDB51-Datensätze zeigen, dass die vorgeschlagene Methode die Ergebnisse nach dem Stand der Technik übertrifft, ohne die Beobachtungsquoten von Testvideos zu kennen. Der Code wird in Kürze öffentlich verfügbar sein.;-;-;-;https://link.springer.com/article/10.1007/s11042-019-7675-4 8dcec14c8609007748a420be875ff4e4;de;;;5.3.;;;Ein neuer mehrskaliger Fußgängererkennungsalgorithmus in der Verkehrsumgebung Die Fußgängererkennung im Verkehrsumfeld erfordert eine hohe Genauigkeit und Geschwindigkeit des Algorithmus. Herkömmliche Methoden können die Geschwindigkeitsanforderungen erfüllen, aber es gibt eine große Lücke in der Genauigkeit. Herkömmliche Methoden, die auf einem neuronalen Faltungsnetzwerk basieren, haben eine höhere Genauigkeit, aber der Rechenaufwand ist enorm. Mit dem Ziel der Hintergrundverwirrung, der Fußgängermehrdeutigkeit und Fußgänger-Multiskala bei der Fußgängererkennung, konstruiert dieses Papier eine Fußgängererkennungsmethode mit höherer Genauigkeit und schnellerer Geschwindigkeit basierend auf der Methode des Faster Regions Convolutional Neural Network (Faster RCNN). führende Methode im Bereich der Zielerkennung. Wir haben im Wesentlichen drei Aspekte verbessert: (1) Die Gestaltungskriterien auf der Grundlage der Zusammenfassung und der maßstäblichen Merkmale von Fußgängern, (2) Das Setzen von Ankerfenstern und die Art der Bildung von regionalen Netzwerken wurden angepasst, und die Pooling-Schicht von Umweltregionen wurde hinzugefügt, (3) Durch die Fusion verschiedener Funktionsebenen werden umfassendere Funktionen erreicht. Anschließend wird das Netzwerk basierend auf dem Open-Source-Deep-Learning-Framework auf dem Fußgängerdatensatz des California Institute of Technology implementiert. Die experimentellen Ergebnisse zeigen, dass unsere Methode die Erkennungsgenauigkeit um 2,9% und die Erkennungsgeschwindigkeit um 10,1 Bilder/Sekunde im Vergleich zum ursprünglichen Faster RCNN auf demselben Datensatz verbessert.;-;-;-;https://link.springer.com/article/10.1007/s42835-021-00673-0 32769c1948edb9fa3c77cb6918561337;de;;;5.3.;;;Vorhersage der menschlichen Bewegung basierend auf dem Aufmerksamkeitsmechanismus Die Vorhersage der menschlichen Bewegung, obwohl im Bereich der Mensch-Computer-Interaktion, die Personalverfolgung, das automatische Fahren und andere Bereiche eine sehr wichtige Bedeutung haben. Die menschliche Bewegungsvorhersage wird jedoch durch Unsicherheiten wie Bewegungsgeschwindigkeit und Amplitude beeinflusst, was dazu führt, dass der vorhergesagte erste Frame diskontinuierlich ist und die Zeit für eine genaue Vorhersage kurz ist. Dieses Papier schlägt eine Methode vor, die Sequenz-zu-Sequenz (seq2seq)-Struktur und Aufmerksamkeitsmechanismen kombiniert, um die Probleme aktueller Methoden zu verbessern. Wir bezeichnen die vorgeschlagene Struktur als At-seq2seq-Modell, das ein Sequenz-zu-Sequenz-Modell ist, das auf GRU (Gated Recurrent Unit) basiert. Wir haben im Decoderteil des seq2seq-Modells einen Aufmerksamkeitsmechanismus hinzugefügt, um die Ausgabe des Encoders weiter in eine Vektorsequenz zu codieren, die mehrere Teilmengen enthält, so dass der Decoder den relevantesten Teil der Sequenz für die Decodierungsvorhersage auswählt. Das At-seq2seq-Modell wurde am menschlichen 3,6-m-Datensatz validiert. Die experimentellen Ergebnisse zeigen, dass das vorgeschlagene Modell nicht nur den Fehler der kurzfristigen Bewegungsvorhersage verbessern kann, sondern auch die Zeit der genauen Vorhersage erheblich verlängern kann.;-;-;-;https://link.springer.com/article/10.1007/s11042-019-08269-7 cbdd7ec260ac25a6e02698f7bc405de5;de;;;5.3.;;;Echtzeit-Schätzung der Kopfhaltung auf Mobilgeräten Es gibt viele aktuelle Anwendungsszenarien der Kopfhaltungsschätzung, wie Live-Erkennung, menschliche Interaktion, gestenbasierte Geräte, VR-Geräte. Dieses Papier schlägt eine Methode vor, die auf linearer Regression basiert, um den Posenwinkel zu erhalten. Das Verfahren verwendet ein überwachtes Gradientenabstiegsverfahren, um die Gesichtsmerkmalspunkte zu erhalten, und schätzt die Kopfhaltung durch die Regression der kleinsten Quadrate. Bei der Regressionsmodellierung verwenden wir nur sieben Merkmalspunktpositionen, die die Modellgröße und die Rechenlast verringern. Eine Datennormierungstechnik wird verwendet, um den Effekt der Kameraabbildungsparameter auf die Posenschätzung zu eliminieren. Darüber hinaus wird der Trainingsdatensatz aus einer Gruppe von 3D-Gesichtsmodellen gemäß dem Kamerabildmodell abgeleitet, die genaue Posenparameter liefern können. Experimente validieren die vorgeschlagene Methode und zeigen, dass sie in Echtzeit ausgeführt werden kann. Der Algorithmus lässt sich leicht auf die mobilen Endgeräte übertragen. Wir haben unseren Quellcode veröffentlicht unter;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-54407-6_41 db5c03678459663e6f68a8294f488d93;de;;;2.4.;;;Entwurf einer Roboterhand, die durch Elektromyographiesignale gesteuert wird, unter Verwendung eines Mikrocontrollers vom Typ Arduino für Menschen mit Behinderungen In diesem Beitrag wird die Entwicklung einer gesteuerten Roboterhand vorgestellt. Die Bewegung der Roboterhand kann durch elektromyografische Signale gesteuert werden, die die Schritte des Erfassens, Filterns, Erfassens, Digitalisierens und Verarbeitens von elektromyografischen Signalen zusammen mit den Schritten der Stromversorgung und Steuerung und Antriebsausrüstung ausführen, wodurch die Entwicklung einer Roboterhand erreicht wird. Der von Arduino nano gesteuerte Roboter mit dem Ziel, ein Steuerungssystem mit Elektromyographiesignalen zu entwickeln, das externe Geräte wie Prothesen und Roboter steuern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-66963-2_26 ccd7fa7bc7d4638775babf379a6d54e2;de;;;2.4.;;;Kollaborativer Ansatz zur Analyse des Netzwerkverhaltens Die Techniken der Netzwerkverhaltensanalyse dienen dazu, Einbrüche und anderes unerwünschtes Verhalten in Computernetzwerken zu erkennen, indem die Verkehrsstatistiken analysiert werden. Wir präsentieren ein effizientes Framework für die Integration von Anomalieerkennungsalgorithmen, die mit identischen Eingabedaten arbeiten. Dieses Framework basiert auf einem Subsystem zur Erfassung von Hochgeschwindigkeits-Netzwerkverkehr und auf Vertrauensmodellierung, einem gut etablierten Satz von Techniken aus dem Bereich der Multi-Agenten-Systeme. Die vertrauensbasierte Integration von Algorithmen führt zu einer Klassifikation mit geringerer Fehlerquote, insbesondere im Hinblick auf False Positives. Das vorgestellte Framework ist sowohl für die Online- als auch für die Offline-Verarbeitung geeignet und führt im Vergleich zum Einsatz isolierter Anomalieerkennungsalgorithmen zu einem relativ geringen Rechenaufwand.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69403-8_19 dee507c282c48ee0dbca1c6e089f0a64;de;;;2.4.;;;Modellteststudie zur Überwachung des dynamischen Prozesses von Hangversagen durch räumliches Sensornetzwerk Erdrutsche stellen weltweit eine der Hauptarten von Naturgefahren dar. Für die Entwicklung von Fähigkeiten zur Risikominderung ist ein effektives System zur Überwachung des dynamischen Prozesses von Hangversagen, das in der Lage ist, räumlich verteilte Informationen vor, während und nach einem Erdrutschereignis in Echtzeit zu sammeln, unerlässlich. Ein Spatial Sensor Network (SSN), das die Echtzeit-Kommunikationsinfrastruktur und Beobachtungen von In-Situ-Sensoren und Fernerkundungsplattformen integriert, bietet hierfür einen effizienten und effektiven Ansatz. In diesem Artikel wurde ein SSN-basiertes Erdrutschüberwachungssystem entworfen und durch eine Modellteststudie an der Tongji-Universität, China, bewertet. Dieses System, MUNOLD (;-;-;-;https://link.springer.com/article/10.1007/s12665-015-4369-8 c295887cb4b8e06bd905482dd044b675;de;;;5.3.;;;Ein sehnengetriebenes, roboterhaftes Handdesign zum Greifen Dieser Artikel konzentriert sich auf die Erforschung der humanoiden, geschickten Hand mit Sehnenantrieb. Die Struktur der Fingerfertigkeit wird entworfen und ihre Kinematik, Dynamik und das Verhältnis zwischen den Fingergelenken und der Fingerspitzenkraft abgeleitet. Dann wird basierend auf den Eigenschaften der geschickten Hand ein hierarchisches Steuersystem vorgeschlagen und als Motorsteueralgorithmus wird eine unscharfe adaptive PID verwendet. Die Greifversuche werden durchgeführt und die Ergebnisse zeigen, dass die Hand eine gute Leistung hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-7983-3_38 284363f305dc75332d81156a2672134a;de;;;5.3.;;;Eine schnelle Methode zum Abgleichen von Stiftgesten basierend auf nichtlinearer Einbettung Die Nearest-Neighbor (NN)-Regel ist eine weit verbreitete Technik zur Erkennung von Stiftgesten. Es ist recht einfach und effektiv und ermöglicht darüber hinaus die flexible Erweiterung neu definierter Klassen und Trainingsbeispiele. Die hohen Rechenkosten sind jedoch ein wichtiges Problem, das angegangen werden muss. Ein schnelles Template-Matching-Verfahren zur Erkennung von Stiftgesten wurde vorgeschlagen. Wir betten Gestenbeschreibungsvektoren nichtlinear in einen niedrigdimensionalen Raum ein. Der quadratische euklidische Abstand im eingebetteten Raum kann als untere Grenze des Abstands im ursprünglichen Raum verwendet werden, so dass die meisten unähnlichen Trainingsschablonen im eingebetteten Raum abgelehnt werden könnten. Experimentelle Ergebnisse zeigen, dass unsere Methode fast über eine Größenordnung schneller ist als das naive NN bei vergleichbarer Erkennungsgenauigkeit. Darüber hinaus ist es nicht auf komplexe Datenstrukturen oder Vorverarbeitung angewiesen, was es besser für Anwendungen geeignet macht, die dynamische Trainingsdaten erfordern, wie z.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37149-3_27 5b4ce3e6252d2d3e5dc13297bd48d380;de;;;5.3.;;;Erlernen eines Wörterbuchs der nullten Klasse für die Erkennung menschlicher Handlungen In diesem Papier wird ein diskriminativer Zweiphasen-Wörterbuch-Lernrahmen vorgeschlagen, um menschliches Handeln durch spärliche Formdarstellungen zu klassifizieren, in dem das Erstphasen-Wörterbuch auf den ausgewählten diskriminativen Rahmen gelernt wird und das Zweitphasen-Wörterbuch für die Erkennung unter Verwendung von Rekonstruktionsfehlern aufgebaut wird des Wörterbuchs der ersten Phase als Eingabemerkmale. Wir schlagen einen „Null-Klasse“-Trick vor, um unterschiedslose Frames des Testvideos zu erkennen und zu eliminieren, bevor über die Aktionskategorien abgestimmt wird. Experimentelle Ergebnisse zu Benchmarks belegen die Wirksamkeit unserer Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7305-2_55 657aab6657342246ce85b6e912b46908;de;;;5.3.;;;Von Brain Memory inspirierte Modellierung zur Aktualisierung von Vorlagen für eine robuste Verfolgung beweglicher Objekte mit Partikelfilter In diesem Artikel schlagen wir einen neuen Modellierungsalgorithmus zur Aktualisierung von Vorlagen vor, der vom Gedächtnismodell des menschlichen Gehirns inspiriert ist. Drei Speicherräume werden gemäß der dreistufigen Gedächtnistheorie des menschlichen Gehirns definiert. Die drei Speicherplätze werden verwendet, um die aktuelle geschätzte Vorlage und die historischen Vorlagen zu speichern. Um den Erinnerungsprozess des menschlichen Gehirns zu simulieren, wie beispielsweise die Aktualisierung oder den Austausch von Informationen, werden auch einige Verhaltensweisen und Regeln definiert. Der vorgeschlagene speicherbasierte Vorlagenaktualisierungsmechanismus kann sich erinnern oder vergessen, wie das Aussehen des Ziels jemals war, was dem Tracker hilft, sich schneller an die Variation des Aussehens eines Objekts anzupassen. Experimentelle Ergebnisse zeigen, dass der vorgeschlagene Algorithmus plötzliche Änderungen des Aussehens und Okklusionen robust handhaben kann, wenn er bewegte Objekte unter einem komplexen Hintergrund durch Partikelfilter verfolgt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31561-9_12 a7613b18bd0bb0e27adba1884674f77e;de;;;5.3.;;;Klassifizierung von imaginären Ziffern über Gehirn-Computer-Schnittstelle basierend auf Elektroenzephalogramm Brain-Computer Interface (BCI) zielt darauf ab, die Erkennung und Dekodierung von Gehirnsignalen, die durch Elektroenzephalogramm (EEG) erfasst werden, zu verbessern. In den letzten Jahren ist die Entwicklung der künstlichen Intelligenz auf eine neue Stufe getreten, die die Forschung von BCI vorantreibt. Dieses Papier konzentriert sich auf die Implementierung von BCI durch die Erkennung von imaginären Ziffern. Der Proband wurde gebeten, sich ohne weitere Stimulation eine Ziffer 0 oder 1 vorzustellen. Das Experiment wurde unter Verwendung eines 14-Elektroden-Elektroenzephalogramms durchgeführt. Der Proband wurde gebeten, sich 30 s lang eine Ziffer vorzustellen, und die Signale wurden zur Analyse aufgezeichnet. Basierend auf den Ergebnissen der Klassifikation und ERP-Analyse wurden die Elektrodenpositionen O1 und O2 (10–20 System) ausgewählt. Für die Merkmalsextraktion wurden vier Methoden vorgeschlagen, die Event Related Potential (ERP) Analyse, Power Spectral Density Analysis (PSD), Independent Component Analysis (ICA) und Common Spatial Pattern (CSP) verwenden. Schließlich wurden mehrere Klassifikationsverfahren verwendet, um die vorgestellten Ziffern basierend auf den extrahierten Merkmalen zu erkennen. Experimentelle Ergebnisse zeigten, dass die Ergebnisse, die mit dem künstlichen neuronalen Netzwerk (ANN) nach CSP erzielt wurden, am besten abgeschnitten haben. Die Klassifizierungsgenauigkeit erreicht 66,88 %.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9917-6_44 838af319ff66a1ad08b24b6914184e37;de;;;2.4.;;;Vorlagenbasierte E-Mail-Zusammenfassung für drahtlose Geräte Mobile Benutzer leiden unter geringer Hardwarekapazität, schlechter Schnittstelle und hohen Kommunikationskosten ihrer drahtlosen Geräte. In diesem Papier schlagen wir ein drahtloses E-Mail-Framework vor, das benutzerrelevante Informationen aus jedem E-Mail-Text extrahiert, anstatt die Volltext-E-Mails selbst zu versenden. Es werden nicht nur benutzerdefinierte Vorlagen, sondern auch automatisch generierte Vorlagen basierend auf semantischem Tagging als Regelsatz verwendet, um zu unterscheiden, welche Teile des Textes extrahiert werden sollen. E-Mails, die Benutzer erwarten, eignen sich besonders für drahtlose Benachrichtigungsanwendungen als jede andere Art von Informationen. In Experimenten haben wir verifiziert, dass dieses System eine durchschnittliche Entfernung von 74% redundanter Textinformationen und eine maximal genaue Füllung von 93% der Vorlagen-Slots durch das Sammeln von E-Mails von DBWorld gezeigt hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39737-3_13 a3fba5cc89bfe5a215de6416f969638c;de;;;2.4.;;;Modellbasierte Diagnose eines unvollständigen Diskreten-Ereignis-Systems mit grober Mengenlehre Die Fehlerdiagnose des Diskreten-Ereignis-Systems (DES) ist wichtig, um schädliche Ereignisse im System zu verhindern. Im Idealfall wird das zu diagnostizierende System als vollständig angenommen, jedoch ist diese Annahme eher restriktiv. In diesem Beitrag wird ein neuartiger Ansatz untersucht, der die Grobmengentheorie als Werkzeug zur Wissensextraktion verwendet, um Diagnoseprobleme eines unvollständigen Modells zu behandeln. DESs werden als Informationstabellen und Entscheidungstabellen präsentiert. Basierend auf dem unvollständigen Modell und den Beobachtungen wird in diesem Papier ein Algorithmus namens Optimizing Incomplete Model vorgeschlagen, um das reparierte Modell zu erhalten. Weiterhin ist eine notwendige und hinreichende Bedingung für die Diagnosefähigkeit eines Systems gegeben. Um die Diagnostizierbarkeit eines Systems sicherzustellen, schlagen wir auch einen Algorithmus vor, um die beobachtbaren Ereignisse zu minimieren und die Kosten der Sensorauswahl zu reduzieren.;-;-;-;https://link.springer.com/article/10.1007/s11432-015-0897-0 ac6a18c7e85f6f725287962ec1737f47;de;;;2.4.;;;Konsens basierend auf Fuzzy-Koinzidenz für Gruppenentscheidungen im sprachlichen Umfeld Das Problem der Konsensfindung in Gruppenentscheidungssituationen wird betrachtet. Unter der Annahme eines heterogenen und sprachlichen Gruppenentscheidungskontextes werden verschiedene sprachliche Konsensmaße vorgestellt, um den Konsensprozess zu leiten. Betrachtet man sprachliche Präferenzrelationen, um Expertenmeinungen zu liefern, werden sie in drei Handlungsebenen definiert: Ebene der Paaralternativen, Ebene der Alternativen und Ebene der Beziehung, und daher gibt es drei Maße: Paarlinguistisches Konsensmaß, alternative Linguistik Konsensmaß und Relation linguistisches Konsensmaß. Sie basieren auf einer flexiblen Vorstellung des Zufallsbegriffs, der in jeder Ebene aus der beobachteten Nähe von Expertenmeinungen als Fuzzy-Set definiert wird. Dies ermöglicht es uns, den Konsenszustand jederzeit genauer zu kennen und den Konsensfindungsprozess angemessener zu steuern. Um die Bedeutung dieser Maßnahmen leicht zu verstehen, werden sie anhand eines anderen Labels bewertet als die Meinung der Experten. Alle Maße werden unter Verwendung linguistischer Quantoren erhalten, um das Konzept der Mehrheit der Experten und Alternativen auszudrücken, und des LOWA-Operators, um linguistische Informationen zu aggregieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-6333-4_7 a0fac8ef7c412e0e621a3f2591321cbd;de;;;2.4.;;;Entwicklung einer mehrfingrigen Fingerfertigkeit zur Greifmanipulation In dieser Arbeit wird eine entwickelte mehrfingrige, geschickte Hand mit flexibler taktiler Haut beschrieben. Die geschickte Hand hat 5-Finger mit 6-DOFs und jeder Finger ist mit einem kleinen Harmonic-Drive-Getriebe und einem feinen Hochleistungs-Mini-Aktuator ausgestattet. Um das Ziel des Greifens mit hoher Genauigkeit zu erreichen, wird jede Fingerspitze mit den taktilen Array-Sensoren zur Bestimmung der Kraft zwischen dem Finger und dem gegriffenen Objekt bedeckt. Einige Vorversuche werden durchgeführt, um die Leistung des Greifens der entwickelten geschickten Hand zu veranschaulichen.;-;-;-;https://link.springer.com/article/10.1007/s11432-014-5192-7 ce56932dc4d3a197f8e3cdc44c33e857;de;;;2.4.;;;Daten mit fehlenden Attributwerten: Verallgemeinerung der Ununterscheidbarkeitsbeziehung und Regelinduktion Durch Entscheidungstabellen beschriebene Datensätze sind unvollständig, wenn in einigen Fällen (Beispiele, Objekte) die entsprechenden Attributwerte fehlen, z. B. verloren gehen oder „egal“-Bedingungen darstellen. Dieses Papier zeigt eine äußerst nützliche Technik, um mit unvollständigen Entscheidungstabellen zu arbeiten, indem ein Block eines Attribut-Wert-Paares verwendet wird. Unvollständige Entscheidungstabellen werden durch charakteristische Beziehungen beschrieben, ebenso wie vollständige Entscheidungstabellen durch Ununterscheidbarkeitsbeziehungen beschrieben werden. Diese charakteristischen Beziehungen werden bequemerweise durch Blöcke von Attribut-Wert-Paaren bestimmt. Drei verschiedene Arten von unteren und oberen Approximationen für unvollständige Entscheidungstabellen können leicht aus charakteristischen Beziehungen berechnet werden. Alle drei Definitionen werden auf die gleiche Definition der Ununterscheidbarkeitsrelation reduziert, wenn die Entscheidungstabelle vollständig ist. Dieses Papier zeigt, wie man mit MLEM2, einem Auswuchs des Regelinduktionsalgorithmus LEM2, bestimmte und mögliche Regeln für unvollständige Entscheidungstabellen induziert, wiederum unter Verwendung von Blöcken von Attribut-Wert-Paaren. Darüber hinaus kann das MLEM2 auch Regeln aus unvollständigen Entscheidungstabellen mit numerischen Attributen induzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27794-1_3 8eb3c4544fd14549b1cfbad807d5b13c;de;;;2.4.;;;Eine auf einer Doppelfilterstruktur basierende COMPASS/INS-Integration eines tiefintegrierten Navigationssystems und eine Tracking-Leistungsbewertung Beidou oder COMPASS ist ein chinesisches GNSS (Global Navigation Satellite System). Wie der GPS-Empfänger steht auch der COMPASS-Empfänger vor der Herausforderung, eine optimale Bandbreite zu wählen, um gleichzeitig Entstörungsfähigkeit und Dynamikanpassung zu erfüllen. Das tief integrierte Navigationssystem GPS/INS (Trägheitsnavigationssystem) hat dieses Problem durch Verschmelzen des GPS-Basisbandsignals und der INS-Information in einem tief gekoppelten Modus gelöst. In dieser Studie wird eine COMPASS B3-Frequenz betrachtet und ein traditionelles föderiertes GPS/INS-Tiefintegrationsmodell verwendet, um ein auf einer einzelnen Filterstruktur basierendes COMPASS/INS-Tiefintegrationsmodell abzuleiten. Außerdem wird ein auf einer Doppelfilterstruktur basierendes COMPASS/INS-Tiefenintegrationsmodell vorgeschlagen. Die Simulationsergebnisse zeigen eine bessere Carrier-Tracking-Performance, insbesondere eine bessere Dynamikanpassung. Die Auswirkungen von IMU-Fehlern und der Fahrzeugdynamik auf die Trägerverfolgungsleistung des auf Doppelfilterstruktur basierenden tiefintegrierten Navigationssystems COMPASS/INS werden in simulierten und Feldumgebungen bewertet. Simulations- und Feldtestergebnisse stimmen mit der Theorieanalyse überein.;-;-;-;https://link.springer.com/article/10.1007/s11432-012-4723-3 5b94d9fe3f1c5c02a4a93d224692825a;de;;;2.4.;;;Ein experimenteller Vergleich von drei groben Ansätzen für fehlende Attributwerte In diesem Beitrag präsentieren wir Ergebnisse von Experimenten, die durchgeführt wurden, um drei Arten von fehlenden Attributwerten zu vergleichen: verlorene Werte, „egal“-Bedingungen und Attribut-Konzeptwerte. Für unsere Experimente haben wir sechs bekannte Datensätze ausgewählt. Für jeden Datensatz haben wir 30 neue Datensätze erstellt, die angegebene Werte durch drei verschiedene Arten von fehlenden Attributwerten ersetzt haben, beginnend bei 10 %, endend mit 100 %, mit einer Erhöhung von 10 %. Für alle Konzepte jedes Datensatzkonzeptes wurden untere und obere Näherungen berechnet. Die Fehlerraten wurden unter Verwendung einer zehnfachen Kreuzvalidierung bewertet. Insgesamt liefert die Interpretation fehlender Attributwerte als verloren das beste Ergebnis für die meisten unvollständigen Datensätze.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71200-8_3 023d1435d9d6857952d30640c6af272f;de;;;2.4.;;;Hypergraph-theoretische Partitionierungsmodelle für paralleles Web-Crawling Paralleles Web-Crawling ist eine wichtige Technik, die von großen Suchmaschinen zur Inhaltserfassung verwendet wird. Ein häufig verwendetes Interprozessor-Koordinationsschema in parallelen Crawling-Systemen ist das Link-Exchange-Schema, bei dem erkannte Links zwischen Prozessoren kommuniziert werden. Dieses Schema kann die Abdeckung und das Qualitätsniveau eines seriellen Crawlers erreichen, während ein redundantes Crawlen von Seiten durch verschiedene Prozessoren vermieden wird. Das Hauptproblem bei dem Austauschschema ist der hohe Kommunikationsaufwand zwischen den Prozessoren. In dieser Arbeit schlagen wir ein Hypergraph-Modell vor, das den mit Link-Exchange-Operationen in parallelen Web-Crawling-Systemen verbundenen Kommunikations-Overhead durch intelligente Zuordnung von Sites zu Prozessoren reduziert. Unser Hypergraph-Modell kann die Anzahl der zwischen Crawlern ausgetauschten Netzwerknachrichten korrekt erfassen und minimieren. Wir bewerten die Leistung unserer Modelle anhand von vier Benchmark-Datensätzen. Im Vergleich zum traditionellen Hash-basierten Zuweisungsansatz werden erhebliche Leistungsverbesserungen bei der Reduzierung des Kommunikationsaufwands zwischen Prozessoren beobachtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-2155-8_2 775a09b2a27a4c1cf937ae1e3c218366;de;;;2.4.;;;Medizinische Bildsegmentierung mit verbessertem FCM Die Bildsegmentierung ist eines der wichtigsten Probleme bei der medizinischen Bildverarbeitung, und das Vorhandensein von Teilvolumeneffekten und anderen Phänomenen macht das Problem viel komplexer. Fuzzy C-Means steht als effektives Werkzeug im Umgang mit PVE jedoch vor großen Effizienzherausforderungen. Zu diesem Zweck schlägt dieses Papier einen verbesserten FCM-Algorithmus vor, der auf dem Histogramm des gegebenen Bildes basiert, der als HisFCM bezeichnet und in zwei Phasen unterteilt wird. In der ersten Phase werden mehrere Intervalle abgerufen, in denen Clusterschwerpunkte berechnet werden, und in der zweiten Phase wird eine Bildsegmentierung basierend auf einem verbesserten FCM-Algorithmus durchgeführt. Im Vergleich zu FCM und anderen verbesserten Algorithmen weist HisFCM eine viel höhere Effizienz mit zufriedenstellenden Ergebnissen auf. Experimente mit medizinischen Bildern zeigen, dass HisFCM in weniger als 0,1 Sekunden gute Segmentierungsergebnisse erzielen und Echtzeitanforderungen der medizinischen Bildverarbeitung erfüllen kann.;-;-;-;https://link.springer.com/article/10.1007/s11432-012-4556-0 f4c6b4293e54091acc492fd5cc62a5f0;de;;;2.4.;;;Entfernungsmehrdeutigkeitsauflösung von HPRF-Radar basierend auf Hybridfilter In diesem Beitrag wird ein neuartiges Verfahren zur Entfernungsmehrdeutigkeitsauflösung basierend auf Hybridfiltern für Radare mit hoher Pulswiederholfrequenz (HPRF) vorgeschlagen. Unter Berücksichtigung der diskretwertigen Pulsintervallzahl (PIN), die als radiale Entfernung des Ziels geteilt durch die maximale eindeutige Entfernung für eine bestimmte HPRF und ihre inkrementelle Variable als Zielzustände beschrieben wird, wird das Problem der Entfernungsmehrdeutigkeitsauflösung in Problem der hybriden Zustandsschätzung. Da die Entfernungsmessung in den anfänglichen Zeitschritten mehrdeutig ist, wird die Hybridzustandsinitialisierung durch Verwendung mehrerer HPRFs basierend auf der euklidischen Distanz erreicht. Dann wird, um die Wahl der Schwellenwerte zu vermeiden, das Hybridmodell basierend auf einem sechsdimensionalen Zustandsvektor äquivalent zu mehreren Hybridmodellen basierend auf einem fünfdimensionalen Zustandsvektor gemäß den Werten gemacht, die die PIN-Inkrementalvariable annehmen kann. Die Hybridschätzung wird durch den Vergleich der 2-Norm der Innovationen aus mehreren Hybridfiltern erreicht. Simulationsergebnisse zeigen, dass das vorgeschlagene Verfahren schneller konvergieren kann als das bestehende Mehrfachhypothesenverfahren, wenn nur ein HPRF eine Zielmessung hat, und den Fehler überwinden, den das Mehrfachhypothesenverfahren macht, wenn die PIN variiert.;-;-;-;https://link.springer.com/article/10.1007/s11432-011-4236-5 10c1c39d3153adcfb9af3d3dfcfe06eb;de;;;5.3.;;;Kernelisierter Korrelationsfilter-Zielverfolgungsalgorithmus basierend auf der Auswahl von Salienzmerkmalen Um das Problem der Verwendung eines festen Merkmals und eines einzigen scheinbaren Modells zu lösen, das schwer an die komplexen Szenarien anzupassen ist, wird ein Zielverfolgungsalgorithmus mit Kernelized-Korrelationsfilter basierend auf einer Online-Salienzmerkmalsauswahl und -fusion vorgeschlagen. Es kombinierte das Korrelationsfilter-Tracking-Framework und das Modell der hervorstechenden Merkmale des Ziels. Im Verfolgungsprozess wurden jeweils die maximalen Kernel-Korrelationsfilter-Antwortwerte verschiedener Merkmalsmodelle berechnet und die Antwortgewichtungen wurden dynamisch entsprechend der Ausprägung verschiedener Merkmale eingestellt. Entsprechend dem Filteransprechwert wurde die endgültige Zielposition erhalten, was die Zielpositionierungsgenauigkeit verbessert. Das Zielmodell wurde basierend auf den Messergebnissen der Merkmalssalienzmessung online dynamisch aktualisiert. Die experimentellen Ergebnisse zeigen, dass das vorgeschlagene Verfahren die Fusion von Unterscheidungsmerkmalen effektiv nutzen kann, um den Tracking-Effekt in komplexen Umgebungen zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0121-0_13 aae3b8799c3797fe7044b2de93bbf1a4;de;;;2.4.;;;Bio-inspirierte robotische Impedanzanpassung für kollaborative Mensch-Roboter-Aufgaben Um die Flexibilität und Geschicklichkeit des Roboters bei einer Mensch-Roboter-Kollaborationsaufgabe zu verbessern, ist es wichtig, die Roboterimpedanz in Echtzeit an das Verhalten seines Partners anzupassen. Dieses Ziel zu erreichen ist jedoch oft eine große Herausforderung und wurde noch nicht gut angegangen. In diesem Beitrag schlagen wir einen bioinspirierten Ansatz als mögliche Lösung vor, der die Online-Anpassung der Roboterimpedanz in der unbekannten und dynamischen Umgebung ermöglicht. Insbesondere wird der bioinspirierte Mechanismus aus dem motorischen Lernen des Menschen abgeleitet und kann die Roboterimpedanz und das Vorwärtsdrehmoment entlang der Bewegungsbahn automatisch anpassen. Es kann das Erlernen von konformem Roboterverhalten ermöglichen, um die dynamischen Anforderungen der Interaktionen zu erfüllen. Um den vorgeschlagenen Ansatz zu validieren, wurde ein Experiment mit einem Anti-Störungstest und einer kollaborativen Sägeaufgabe zwischen Mensch und Roboter durchgeführt.;-;-;-;https://link.springer.com/article/10.1007/s11432-019-2748-x 09bff40c8778d2e05f5ca9f68e818865;de;;;2.4.;;;Ein hochpräzises phasenabgeleitetes Entfernungs- und Geschwindigkeitsmessverfahren basierend auf einem synthetischen Breitband-Puls-Doppler-Radar Die Entwicklung der Radartechnologie muss die zweidimensionale hohe Auflösung von Entfernung und Geschwindigkeit gleichzeitig für Hochgeschwindigkeitsziele berücksichtigen. Unter Ausnutzung der überlegenen kohärenten Leistung des synthetischen Breitband-Puls-Doppler-Radars arbeitet dieser Artikel die Prinzipien der phasenabgeleiteten Entfernungs- und Geschwindigkeitsmessungen aus. Darüber hinaus untersucht dieses Papier die Schlüsseltechnologien der Unwrapping-Phasenmehrdeutigkeit und diskutiert die Phasen-Unwrapping-Strategie bei einem niedrigen Signal-Rausch-Verhältnis (SNR). Das vorgeschlagene Verfahren kann auf die Bedingungen eines niedrigen SNR angewendet werden und hat eine vergleichsweise starke praktische Anwendbarkeit in der Technik. Sowohl die Abwurfkugel- als auch die zivilen Flugzeugexperimente haben die Korrektheit und Durchführbarkeit der vorgeschlagenen Methode bestätigt. Insbesondere zeigen die experimentellen Ergebnisse, dass die Genauigkeit der phasenabgeleiteten Entfernungs- und Geschwindigkeitsmessung ein Niveau von Submillimeter oder Millimeter und Zentimeter/Sekunde bzw.;-;-;-;https://link.springer.com/article/10.1007/s11432-016-0097-4 6f08bf2b094cb73cfb7b849ce0d1d692;de;;;2.4.;;;Quaternion-basierte robuste Trajektorienverfolgungssteuerung für unsichere Quadrotoren Dieses Papier präsentiert einen robusten Ansatz für das Design von nichtlinearen Controllern für unsichere Quadrotoren zur Implementierung von Trajektorienverfolgungsmissionen. Die Quaternionendarstellung wird zur Beschreibung der Rotationsdynamik verwendet, um das in der Eulerwinkeldarstellung vorhandene Singularitätsproblem zu vermeiden. Es wird ein nichtlinearer robuster Regler vorgeschlagen, der aus einem Lageregler zum Stabilisieren der Rotationsbewegungen und einem Positionsregler zum Regeln von Translationsbewegungen besteht. Die Quadrotordynamik beinhaltet Unsicherheiten wie Parameterunsicherheiten, Nichtlinearitäten und externe Störungen, und ihre Auswirkungen auf das geschlossene Regelsystem können garantiert eingeschränkt werden. Simulationsergebnisse am Quadrotor demonstrieren die Wirksamkeit des entworfenen Steuerungsansatzes.;-;-;-;https://link.springer.com/article/10.1007/s11432-016-0582-y e2364ebfcb9623d6bec0a3cabdd3d082;de;;;2.4.;;;Zur lokalen Reduktion des Informationssystems In diesem Beitrag wird die Definition der lokalen Reduktion vorgeschlagen, um die minimale Beschreibung einer definierbaren Menge durch Attribute des gegebenen Informationssystems zu beschreiben. Die lokale Reduktion kann eine optimalere Beschreibung für eine einzelne Entscheidungsklasse darstellen als die bestehenden relativen Reduktionen. Es ist bewiesen, dass der Reduktionskern oder die relative Reduktion als Vereinigung der Kerne lokaler Reduktionen ausgedrückt werden kann. Die Unterscheidbarkeitsmatrix der Reduktion und der relativen Reduktion kann durch Zusammensetzen von Unterscheidbarkeitsmatrizen der lokalen Reduktion erhalten werden.;-;-;-;https://link.springer.com/chapter/10.1007/11739685_61 f34d5fa698f75ce592f64fbfb8661504;de;;;2.4.;;;Vektormorphologische Operatoren im HSV-Farbraum Im HSV-Farbraum haben die aktuellen vektormorphologischen Operatoren eine geringe Fähigkeit, das durch Farbton und Sättigung bei der Farbbildverarbeitung verursachte Farbrauschen zu reduzieren. Denn sie sortieren die Farbpixel nach der hierarchischen Ordnung von V, S, H, was dem Gleichheitsprinzip der drei Kanäle in der Farbbildverarbeitung widerspricht. In dieser Arbeit wird eine neuartige Vektorordnung basierend auf der Kombination von H, S und V vorgeschlagen und die zugehörigen vektormorphologischen Erosions-, Dilatations- und zusammengesetzten Filteroperatoren werden definiert. Im Vergleich zu den gängigen vektormorphologischen Operatoren zeigen experimentelle Ergebnisse, dass die neuen Operatoren das Farbrauschen ohne neue Farbpixel unter Beibehaltung der Bilddetails effektiv reduzieren können. Und die gefilterten Bilder haben ein höheres Signal-Rausch-Verhältnis (PSNR) und einen niedrigeren mittleren absoluten Fehler (MSE).;-;-;-;https://link.springer.com/article/10.1007/s11432-011-4475-5 98e243026d9906b2833e38fe75e82016;de;;;2.4.;;;Online-Beleuchtungsschätzung von Außenszenen basierend auf Videos ohne Schattenbereich Die Echtzeitschätzung der Außenbeleuchtung ist eines der Schlüsselthemen, um die Beleuchtungskonsistenz von Augmented Reality sicherzustellen. In diesem Artikel schlagen wir einen neuartigen Rahmen vor, um die dynamische Beleuchtung von Außenszenen basierend auf einer Online-Videosequenz zu schätzen, die von einer fest installierten Kamera aufgenommen wurde. Alle existierenden Ansätze basieren auf zwei Annahmen, d.h. es gibt einige Schattenbereiche in der Szene und die Verteilung des Oberlichts ist gleichmäßig über den Himmel. Beide Annahmen vereinfachen das Problem der Beleuchtungsschätzung von Außenszenen erheblich, schränken jedoch auch die Anwendbarkeit sowie die Genauigkeit dieser Ansätze ein. Dieses Papier stellt einen neuen Ansatz vor, der diese beiden harten Einschränkungen durchbricht. Es stellt die Beleuchtungsparameter von Außenszenen ohne Schattenbereich wieder her, indem es ein eingeschränktes lineares Problem der kleinsten Quadrate löst. Durch die Darstellung des Oberlichts als parametrisiertes Modell, das einen Okklusionskoeffizienten enthält, kann der vorgeschlagene Ansatz die dynamische Variation einer ungleichförmigen Oberlichtverteilung handhaben. Experimentelle Ergebnisse zeigen das Potenzial unseres Ansatzes.;-;-;-;https://link.springer.com/article/10.1007/s11432-012-4780-7 3f05b5e2933a83b0836f7dbe4d0a1419;de;;;2.4.;;;Ein neuartiges kognitives ISAR-Bildgebungsverfahren mit zufällig gestuftem Frequenz-Chirp-Signal Das Zufallsschrittfrequenz-Chirp-Signal (RSFCS) hat eine bessere Leistung bei der Entstörung als das herkömmliche Schrittfrequenz-Chirp-Signal (SFCS). In Kombination mit der Theorie des Compressing Sensing (CS) wird ein neuartiges ISAR-Bildgebungsverfahren basierend auf RSFCS ​​vorgeschlagen, bei dem das hochauflösende Entfernungsprofil (HRRP) unter Verwendung des herkömmlichen OMP-Algorithmus rekonstruiert wird, während der kognitive Ansatz eingeführt wird, um weiter Reduzieren Sie die Anzahl der Unterimpulse in RSFCS. Bei dem vorgeschlagenen Verfahren kann durch Erkennen der Eigenschaften von sich bewegenden Zielen die Anzahl von Unterpulsen in jedem Burst adaptiv eingestellt werden. Schließlich wird in Cross-Range-Richtung die genaue Rekonstruktion des ISAR-Bildes unter Verwendung der CS-Theorie implementiert, wodurch das Entwickeln effektiv erreicht werden kann. Mit dem vorgeschlagenen Verfahren können hochqualitative HRRP- und ISAR-Bilder mit weniger Subpulsen von RSFCS ​​und einer niedrigeren Burst-Wiederholungsfrequenz (BRF) erreicht werden. Einige Simulationsergebnisse werden angegeben, um die Wirksamkeit und Robustheit des vorgeschlagenen Algorithmus zu validieren.;-;-;-;https://link.springer.com/article/10.1007/s11432-012-4629-0 0996d0839b9a061ccd103edde267af39;de;;;2.4.;;;Grob-Set-Strategien für Daten mit fehlenden Attributwerten In diesem Beitrag gehen wir davon aus, dass ein Datensatz in Form der unvollständig spezifizierten Entscheidungstabelle vorliegt, d. h. einige Attributwerte fehlen. Unsere nächste Grundannahme ist, dass einige der fehlenden Attributwerte verloren gehen (z. B. gelöscht wurden) und andere „egal“-Bedingungen sind (d. h. sie waren redundant oder nicht notwendig, um eine Entscheidung zu treffen oder einen Fall zu klassifizieren). Unvollständig spezifizierte Entscheidungstabellen werden durch charakteristische Relationen beschrieben, die für vollständig spezifizierte Entscheidungstabellen auf die Ununterscheidbarkeitsrelation reduziert werden. Es wird gezeigt, wie charakteristische Beziehungen unter Verwendung einer Idee eines Blocks von Attribut-Wert-Paaren berechnet werden, die in einigen Regelinduktionsalgorithmen wie LEM2 verwendet werden. Darüber hinaus ist die Menge aller charakteristischen Beziehungen für eine Klasse von kongruenten unvollständig spezifizierten Entscheidungstabellen, die in der Arbeit definiert wurde, ein Gitter. Drei Definitionen von unteren und oberen Näherungen werden eingeführt. Schließlich wird gezeigt, dass der vorgestellte Ansatz für fehlende Attributwerte auch für andere Arten von fehlenden Attributwerten als für verlorene Werte und „egal“-Bedingungen verwendet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/11539827_11 7055a72e91aef4e57e44782ad2e9222e;de;;;2.4.;;;Die Auswirkung von Zeitsynchronisationsfehlern auf ein passives kohärentes gepulstes Radarsystem Passives bistatisches kohärentes Radarsystem arbeitet mit unterschiedlichen nichtkooperativen Sendern und Empfängern, die sich an verschiedenen Standorten befinden. Bei einer solchen räumlichen Trennung muss das Empfangssystem das Problem der Zeit- und Phasensynchronisation über das Direktwegsignal selbstständig lösen. Der Einfluss von Zeitsynchronisationsfehlern wurde in passivem bistatischem kohärentem Radar untersucht und gelöst. Das allgemeine Modell des digitalen Abtastprozesses wird eingeführt, um die Auswirkung des Zeitsynchronisationsfehlers (TSE) zu veranschaulichen. Die Periodizität der relativen Abtastmomentvariation jedes Impulses wird abgeleitet. Dann wird die normalisierte Interferenzleistung (NIP) definiert, um die möglichen Auswirkungen von TSE zu bewerten. Die NIP-Ausdrücke werden abgeleitet, wenn die Differenz zwischen den benachbarten relativen Abtastzeitpunkten eine gleichförmige Verteilung oder eine Gaußsche Verteilung ist. Es hat sich herausgestellt, dass es neue störende Frequenzkomponenten gibt und die Erkennungsleistung im Fall einer asynchronen Abtastung verringert wird. Gleichzeitig wird der durch TSE verursachte analytische Doppler-Frequenz-Bias-Ausdruck präsentiert. Theoretische Ergebnisse werden durch Simulation bei unterschiedlichen Perioden relativer Abtastzeitpunkte bestätigt.;-;-;-;https://link.springer.com/article/10.1007/s11432-010-4110-x 09769f05341260a386b9d853b451abce;de;;;2.4.;;;Dominanzbasierter Fuzzy-Rough-Ansatz für ein intervallbewertetes Entscheidungssystem Obwohl der dominanzbasierte Grobsatz-Ansatz auf intervallbewertete Informationssysteme zur Wissensentdeckung angewendet wurde, kann die traditionelle Dominanzrelation nicht verwendet werden, um das Prinzip des Dominanzgrades in Form von Objektpaaren zu beschreiben. In diesem Beitrag wird eine Rangordnungsmethode von intervallbewerteten Daten verwendet, um den Dominanzgrad im intervallbewerteten Informationssystem zu beschreiben. Daher wird die Fuzzy-Rough-Technik verwendet, um die groben Approximationen von Aufwärts- und Abwärtsvereinigungen von Entscheidungsklassen zu konstruieren, aus denen abgeleitet werden kann;-;-;-;https://link.springer.com/article/10.1007/s11704-011-0331-4 1c9b75fc4901ea7e001da71bc3ad20d1;de;;;2.4.;;;Extrem zuverlässige Kommunikation mit geringer Latenz: Anwendungen, Chancen und Herausforderungen In den kommenden 5G- und darüber hinausgehenden Systemen wurde ultrazuverlässige Kommunikation mit geringer Latenz (URLLC) als Schlüsselfaktor für die Unterstützung verschiedener geschäftskritischer Dienste wie industrielle Automatisierung, Ferngesundheit und intelligenter Transport angesehen. Die beiden strengen Anforderungen von URLLC: extrem niedrige Latenz und extrem hohe Zuverlässigkeit haben das Systemdesign jedoch vor große Herausforderungen gestellt. In diesem Artikel werden zunächst die grundlegenden Konzepte und die möglichen Anwendungen von URLLC vorgestellt. Anschließend wird der Stand der Forschung von URLLC in der physikalischen Schicht, der Linkschicht und der Netzwerkschicht vorgestellt. Darüber hinaus werden einige potenzielle Forschungsthemen und Herausforderungen identifiziert.;-;-;-;https://link.springer.com/article/10.1007/s11432-020-2852-1 e668157d2b47e16fe1cb31b96f4dfafe;de;;;2.4.;;;Durch ein Fuzzy-Raumzeit-Informationssystem für den Umgang mit Grabungsdaten In diesem Artikel wird ein Ansatz für den Umgang mit archäologischen Grabungsdaten mit ihrer Unvollkommenheit (Ungenauigkeit) von der Modellierung bis zur Abfrage vorgestellt. Es führt ein neues archäologisches Datenmodell in PVL ein und erweitert es in Imperfect PVL. Da archäologische Daten meist ungenau sind, wird für die Speicherung und Abfrage ein Fuzzy-Set-Ansatz verwendet. Aus der Modellierung schlägt es eine Möglichkeit vor, Fuzzy-Daten in einer mehrwertigen Form zu speichern, und legt dann die Verbindung zwischen den klassischen (nicht unvollständigen) Daten und den mehrwertigen Daten offen. Schließlich veranschaulicht es den Ansatz anhand einiger einfacher Anfragen zur Extraktion von räumlichen, zeitlichen und raumzeitlichen unvollständigen Informationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29063-3_10 3a8c024dc1a32e58ff0367e54788ba03;de;;;5.3.;;;Online-Multi-Objekt-Tracking mit Fußgänger-Re-Identifikation und Okklusionsverarbeitung Tracking-by-Detection ist ein gängiger Ansatz für Online-Multi-Object-Tracking-Probleme. Derzeit bestehen in den Multi-Object-Tracking-Szenarien noch folgende Herausforderungen: (1) Das Ergebnis der Objektnachverfolgung nach vollständiger Okklusion ist nicht ideal, (2) Die vorhergesagte Objektposition ist in den komplizierten Videoszenarien nicht genau genug . Um diese beiden Probleme anzugehen, schlägt dieses Papier ein Multi-Object-Tracking-Framework namens DROP (Deep Re-Identification Occlusion Processing) vor. Das Framework besteht aus Objekterkennung, schneller Fußgänger-Re-Identifikation und einem konfidenzbasierten Datenassoziationsalgorithmus. Ein leichtgewichtiges neuronales Faltungsnetzwerk, das das Neuverfolgungsproblem lösen kann, wird durch Erhöhen und Lernen der Affinität von Erscheinungsmerkmalen desselben Objekts in verschiedenen Rahmen konstruiert. Und dieses Papier schlägt vor, die Okklusion des Objekts zu beurteilen, die eine vom Kalman-Filter vorhergesagte ungenaue Position lösen kann, indem das Datenassoziationsergebnis der Erscheinungsmerkmale des Objekts verwendet wird, und den Übereinstimmungsfehler durch Verbessern der Datenassoziationsformel zu reduzieren. Die experimentellen Ergebnisse der Multi-Object-Tracking-Datensätze MOT15 und MOT16 zeigen, dass die vorgeschlagene Methode die Präzision verbessern und gleichzeitig die Echtzeit-Tracking-Leistung sicherstellen kann.;-;-;-;https://link.springer.com/article/10.1007/s00371-020-01854-0 05d8b1234b0d86941c6f1d3cd4681aa8;de;;;5.3.;;;Studie zum Design von Smart Lifting 3D Garagen basierend auf dem kostengünstigen SPS-Steuerungssystem Da sich das derzeitige Computerdesignniveau weiter verbessert, sind die Managementniveaus der Prozessausrüstung und der Produktionslinien relativ stabil. Der intelligente und automatische 3D-Garagentyp hat einen vielfältigen Entwicklungstrend gezeigt. Derzeit sind mehrere Garagentypen im täglichen Gebrauch, darunter vertikaler Hebetyp, vertikaler Hebetyp, einfacher Hebetyp, horizontaler Umlauftyp, Kanalstapeltyp usw. Die 3D-Hebegarage hat eine einfache Struktur, geringe Stellfläche, niedrige Betriebskosten, und die umfangreichsten Anwendungsanforderungen. Diese Studie fasst jedoch zunächst den Anwendungsstand und die Entwicklungsperspektiven von Smart Lifting 3D Garagen zusammen. Dann analysiert das System das Funktionsprinzip und die mechanischen Strukturmerkmale der intelligenten Hebe-3D-Garage, analysiert die Steuerungsanforderungen und entwirft die halbautomatische Steuerung der 3D-Garage S7–1200 – einschließlich des SPS-Steuerungsprogramms und der Mensch-Maschine Schnittstelle. Schließlich wird die Gesamtsystemsteuerwirkung durch Simulation verifiziert. Dieses Studienmessgerät verfügt über oberflächliche Betriebseigenschaften, einen hohen Automatisierungsgrad, eine hohe Betriebsgeschwindigkeit, eine hohe Stabilität und hat einen hohen Entwicklungswert und Anwendungsaussichten in bestimmten Märkten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-69717-4_46 c749428e7da8e7ac2268be31115a4fe4;de;;;5.3.;;;Ein neuartiges Convolutional Neural Network zur Gesichtsausdruckserkennung Die Gesichtsausdruckserkennung wird aufgrund ihrer breiten Anwendung in den Bereichen der Computer Vision-Forschung zu einem heißen Thema. Traditionelle Methoden verwenden handgefertigte Merkmale in Kombination mit Klassifikatoren, um das Erkennungsziel zu erreichen. Die Genauigkeit dieser Methoden hängt jedoch oft stark von den extrahierten Merkmalen und den Parametern des Klassifikators ab und kann daher mit unsichtbaren Daten keine guten Ergebnisse erzielen. Kürzlich hat Deep Learning, das den Mechanismus des menschlichen Gehirns zur Interpretation von Daten simuliert, bemerkenswerte Ergebnisse bei der visuellen Objekterkennung gezeigt. In diesem Artikel stellen wir ein neuartiges konvolutionelles neuronales Netzwerk vor, das aus lokalen binären Mustern und verbesserten Inception-ResNet-Schichten für die automatische Gesichtsausdruckerkennung besteht. Wir wenden die vorgeschlagene Methode auf drei Expressionsdatensätze an, d. h. den Extended Cohn-kanade Dataset (CK+), die Japanese Female Expression Database (JAFFE) und den FER2013 Datensatz. Die experimentellen Ergebnisse belegen die Machbarkeit und Wirksamkeit unseres vorgeschlagenen Netzwerks.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-7986-4_28 b7eecad4d0b7bf6f3fdbd8754954af20;de;;;5.3.;;;Tracking von bewegten Objekten basierend auf multi-unabhängigen Feature-Verteilungsfeldern mit umfassender räumlicher Feature-Ähnlichkeit Die exakten räumlichen Informationen von bewegten Objekten zu erhalten, ist eine entscheidende und schwierige Aufgabe bei der visuellen Objektverfolgung. In dieser Studie wird eine umfassende Strategie der räumlichen Merkmalsähnlichkeit (CSFS) vorgeschlagen, um das Vertrauensniveau von Zielmerkmalen zu berechnen. Diese Strategie wird verwendet, um die aktuelle Position des Ziels unter den Kandidaten während des Verfolgungsprozesses zu bestimmen. Da die räumlichen Informationen und das Erscheinungsbild eines Objekts gleichzeitig berücksichtigt werden sollten, bietet die CSFS-Strategie den Vorteil einer zuverlässigen Verfolgungspositionsentscheidung. Darüber hinaus schlagen wir ein Erscheinungsbild-basiertes, multi-unabhängiges Objektdarstellungsmodell (MIFDFs) vor, das Ziele unter Verwendung räumlicher Verteilungsfelder mit mehreren Merkmalen unabhängig darstellt. Dieses Repräsentationsmodell kann eine große Menge ursprünglicher räumlicher und Merkmalsdaten synthetisch konservieren. Verschiedene experimentelle Ergebnisse zeigen, dass das vorgeschlagene Verfahren eine signifikante Verbesserung hinsichtlich der Tracking-Drift in komplexen Szenen aufweist. Insbesondere übertrifft der vorgeschlagene Ansatz andere Techniken bei der Verfolgung von Robustheit und Genauigkeit in einigen schwierigen Situationen.;-;-;-;https://link.springer.com/article/10.1007/s00371-014-1044-0 40d0deb2346af9cb3cc323ff09cc9b94;de;;;5.3.;;;Einzelbild-3D-Rekonstruktion basierend auf Passpunktraster Um schnell und intuitiv 3D-Netze aus einem einzigen Bild zu konstruieren, stellt dieser Beitrag eine 3D-Rekonstruktionsmethode basierend auf einem Passpunktraster vor. Die Schlüsselidee besteht darin, das 2D-Passpunktraster des Zielbereichs zu berechnen und jeden Passpunkt gemäß einer parametrisierten 3D-Wachstumsregel zu erhöhen, die aus dem Vorwissen vorgeschlagen wurde. Zuerst wird die Kontur des Zielobjekts in eine Hauptkomponente und Nebenkomponenten unterteilt und das Skelett jeder Komponente wird extrahiert. Das 2D-Kontrollpunktraster wird berechnet, indem die Krümmung und das geometrische Merkmal der Kontur kombiniert und in den 3D-Raum mit entsprechender Höhe, die durch Parameter-Mapping definiert wird, angehoben wird. Schließlich entsteht nach Komponentenkombination und Texturierung ein vollständiges 3D-Modell. Experimentelle Ergebnisse zeigen, dass dieses Verfahren die 3D-Form des Zielobjekts vernünftig und effizient wiederherstellen kann, während eine feine Krümmung und geometrische Merkmale beibehalten werden.;-;-;-;https://link.springer.com/article/10.1007/s11042-018-6193-0 f9d2853993be4fd17d55db9323a1de89;de;;;5.3.;;;Integrieren von Farb- und Tiefenhinweisen für die Erkennung statischer Handgesten Das Erkennen statischer Handgesten in komplexen Hintergründen ist eine anspruchsvolle Aufgabe. Dieses Papier stellt ein statisches Handgestenerkennungssystem vor, das sowohl Farb- als auch Tiefeninformationen verwendet. Zuerst wird die Handregion aus einem komplexen Hintergrund basierend auf Tiefensegmentierung und Hautfarbenmodell extrahiert. Der Moore-Neighbor-Tracing-Algorithmus wird dann verwendet, um die Handgestenkontur zu erhalten. Das;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7299-4_24 60d09f1c5317bfadf17b8b697506673b;de;;;5.3.;;;Visuelles Tracking durch spärliche Darstellung und Online-Wörterbuch lernen Eine spärliche Darstellung hat sich bei der Einzelobjektverfolgung als wettbewerbsfähige Leistung erwiesen. In diesem Artikel erweitern wir diese Technik auf die Verfolgung mehrerer interaktiver Objekte und präsentieren einen neuartigen spärlichen Tracker im Rahmen des Tracking-by-Detection-Frameworks mit Salienzdetektor für die Objekterkennung und spärlicher Darstellung für die Objektassoziation. Darüber hinaus schlagen wir ein Online-Wörterbuch-Lernschema vor, um Erscheinungsbildvariationen von Objekten zu erfassen. Um die Verwendung trivialer Vorlagen zu vermeiden, enthält das Wörterbuch nicht nur Objektvorlagen, sondern auch Hintergrundinformationen, was zu einer robusteren Schätzung führt. Die Experimente zeigen, dass unser Ansatz eine günstige Leistung gegenüber modernsten Algorithmen erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13323-2_8 3577929662d2a5b3ae70307864949a22;de;;;5.3.;;;3D-Flächenspleißen basierend auf der Hauptkomponenten-Feature-Extraktion Um ein automatisches Spleißen für komplexe 3D-Flächen zu erreichen, wurde die parametrische Flächendarstellungsmethode für Bruchflächen von fragmentierten Objekten mit Dicke analysiert und dann in dieser Arbeit eine Flächenspleißmethode basierend auf dem Eigenvektor des gemischten Indexes vorgeschlagen. Bei diesem Verfahren wurden geometrische Merkmale einer Fläche basierend auf Hauptkomponenten extrahiert und gerichtete tiefgestellte und ungerichtete tiefgestellte Zeichen wurden angenommen, um gemischte Eigenvektoren zu bilden, und dann wurde die Übereinstimmungsbeziehung zwischen zwei Flächen basierend auf zwei Ähnlichkeitsbeurteilungen bestimmt. Dieses Verfahren verringerte effektiv den Oberflächenspleißfehler. Oberflächenspleißexperimente von zerbrochenen Kulturreliktfragmenten bestätigten die Machbarkeit und Wirksamkeit dieser Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9917-6_33 8618d1f943d677b4cd1d759adac11a42;de;;;5.3.;;;Adaptive arbeitszentrierte und menschbewusste Unterstützungsagenten für erweiterte Kognition in taktischen Umgebungen Wir führen ein Unterstützungssystemkonzept ein, das sowohl arbeitszentrierte als auch menschenbewusste Unterstützung für Bediener in taktischen Führungsumgebungen bietet. Das Unterstützungssystem erweitert die kognitiven Fähigkeiten des Bedieners, indem es sofortige, personalisierte Aufgaben- und Arbeitsunterstützung bietet. Unterstützung erhält der Betreiber durch den Abschluss einer Kooperationsvereinbarung mit Supportagenten. Ein solches Abkommen schafft Möglichkeiten, Anpassungsfähigkeiten und menschenbewusste Unterstützungsfunktionen einzurichten. Wir beschreiben das Konzept in und schlagen ein experimentelles Design vor, um seine Wirksamkeit in taktischen Umgebungen zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02812-0_9 6ca98cdb536644060ec90698e3ed3355;de;;;5.3.;;;Remote-Display-Lösung für die Videoüberwachung in der Multimedia-Cloud Cloud Computing bietet ausreichende Rechen- und Speicherressourcen, die zur Bereitstellung von Multimediadiensten verwendet werden können. Die Migration des bestehenden Multimediadienstes in die Cloud bringt eine neue Herausforderung mit sich, d. h. die Fernanzeige von Videoinhalten. Um den Bandbreitenverbrauch insbesondere für mobile Benutzer zu reduzieren, ist es wünschenswert, Video vor dem Senden an den Client zu codieren. Existierende Kodierungsverfahren haben einzigartige Vor- und Nachteile und unterscheiden sich in ihrer Leistung in verschiedenen Situationen. Daher schlagen wir vor, das Multi-Encoder-Verfahren zu verwenden, um das Echtzeit-Fernanzeigeproblem für die Remote-Multimedia-Cloud zu lösen. Um den am besten geeigneten Encoder auszuwählen, werden Faktoren wie Kosten, Anwendungsanforderungen, Netzwerk, Clientgerät und Codec-Implementierung berücksichtigt. In diesem Papier bilden wir ein nichtlineares Programmiermodell und geben ein Beispiel, um zu veranschaulichen, wie das vorgeschlagene Modell angewendet wird, um die gewünschte Optimierung zu erzielen.;-;-;-;https://link.springer.com/article/10.1007/s11042-015-2816-x 74079ad5c24965635278d847443eef2a;de;;;2.4.;;;Optimierung der Leistungsvariablen für kleine koaxiale Rotorsysteme für unbemannte Luftfahrzeuge Ziel dieses Projekts war es, einen Prüfstand zu konzipieren und zu bauen, der in der Lage ist, koaxiale Rotorsysteme kleiner unbemannter Luftfahrzeuge (SUAV) zu analysieren. Ziel der Prüfstandsentwicklung war es, wichtige aeromechanische Komponenten und Variablen hervorzuheben, die die Flugleistung der koaxialen Einheiten bestimmen, um die Antriebssysteme für den Einsatz auf HALO;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21741-8_52 d270cdb8d2678f89c4e335eb44eb37c4;de;;;2.4.;;;Konstruktion von Konzeptgittern basierend auf Ununterscheidbarkeitsmatrizen Formale Konzepte und Konzeptgitter sind zwei zentrale Begriffe der formalen Konzeptanalyse. In diesem Beitrag wird das Problem der Bestimmung formaler Konzepte anhand der Kongruenzen auf Halbgittern untersucht. Die Eigenschaften von Kongruenzen, die formalen Kontexten entsprechen, werden diskutiert. Die Beziehung zwischen den durch Kongruenzen erzeugten geschlossenen Mengen und den Elementen von Ununterscheidbarkeitsmatrizen wird untersucht. Folglich wird ein neuer Ansatz zur Bestimmung von Konzeptgittern abgeleitet.;-;-;-;https://link.springer.com/chapter/10.1007/11811220_20 6201ca6fc364e96687438a64558bc5ce;de;;;2.4.;;;Objekterkennung und Objektkategorisierung bei Tieren Eines der wichtigsten Attribute kognitiver Aktivitäten sowohl bei menschlichen als auch bei nichtmenschlichen Tieren ist die Fähigkeit, einzelne Objekte zu erkennen und eine Vielzahl von Objekten zu kategorisieren, die einige Eigenschaften teilen. Wildlebende Klammeraffen zum Beispiel erkennen ihre Partner und eine Vielzahl anderer Artgenossen unabhängig von deren sehr unterschiedlichen räumlichen Einstellungen individuell schnell und genau und unterscheiden sie auch von anderen Arten (J. Delius, persönliche Beobachtung). Objekterkennung und Objektkategorisierung sind für die meisten fortgeschrittenen Tiere gleichermaßen wichtig.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-09423-4_13 8025fee59700dc2695179903313a8ffc;de;;;5.3.;;;Kontrolle der Emotionsintensität für LSTM-basierte expressive Sprachsynthese Um die Leistung von Mensch-Computer-Interaktionsschnittstellen zu verbessern, wird Emotion als einer der wichtigsten Faktoren angesehen. Das Hauptziel der expressiven Sprachsynthese besteht darin, verschiedene Ausdrücke, die unterschiedliche Emotionen widerspiegeln, in die synthetisierte Sprache einzufügen. Um die Emotion effektiv zu modellieren und zu kontrollieren, wird die Emotionsintensität für das expressive Sprachsynthesemodell eingeführt, um Sprache zu erzeugen, die die heiklen und komplizierten emotionalen Zustände vermittelt. Das System bestand aus einem Emotionsanalysemodul mit dem Ziel, den Kontroll-Emotionsintensitätsvektor zu extrahieren, und einem Sprachsynthesemodul, das für die Abbildung von Textzeichen auf die Sprachwellenform verantwortlich ist. Der vorgeschlagene kontinuierliche variable „Wahrnehmungsvektor“ ist ein datengesteuerter Ansatz zur Steuerung des Modells, um Sprache mit unterschiedlichen Emotionsintensitäten zu synthetisieren. Verglichen mit dem System, das einen One-Hot-Vektor verwendet, um die Emotionsintensität zu steuern, ist dieses Modell, das den Wahrnehmungsvektor verwendet, in der Lage, die Emotionsinformationen auf hoher Ebene aus akustischen Merkmalen auf niedriger Ebene zu lernen. In Bezug auf die Steuerbarkeit und Flexibilität des Modells zeigen sowohl die objektive als auch die subjektive Bewertung, dass der Wahrnehmungsvektor den One-Hot-Vektor übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0121-0_51 6a95e5af387d600eebce36db811be52f;de;;;5.3.;;;Protokoll-, Betriebssystem- und ATM Layer-Beschränkungen in der praktischen Leistung von UDP/IP und TCP/IP über ATM In diesem Beitrag werden praktische Leistungsmessungen mit IP in einem lokalen ATM-Netzwerk vorgestellt. Eine allgemeine Erfahrung mit TCP/IP- und UDP/IP-Verkehr in einer typischen ATM-LAN-Umgebung ist eine erstaunlich schlechte Leistung. Dieses Papier zeigt einige der Einschränkungen, die wir bei der Analyse der Gründe für die Leistungsmängel festgestellt haben. Wir konzentrieren uns hauptsächlich auf Betriebssystem-, Protokoll- und ATM-Layer-Beschränkungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34949-7_2 0ece5a85ba8821c64a52b15fb000e627;de;;;5.3.;;;Variationsungleichungen in Kontaktproblemen der Elastizität Lösungen des klassischen Signorini-Problems beschreiben Gleichgewichtszustände eines linear elastischen Körpers, wobei ein Teil seines Randes von einer nicht verformbaren reibungsfreien Oberfläche getragen wird. Auf der Kontaktfläche werden die Randbedingungen durch das Ungleichungssystem vom Signorini-Typ ausgedrückt. Dies unterscheidet das Signorini-Problem von anderen Formulierungen von Kontaktproblemen, bei denen die Randbedingungen bilateraler Art sind. Diese Ungleichungen erlauben es, die Randpunkte auf die zulässige Seite der Grenzfläche zu legen (oder im Grenzfall diese Fläche zu erreichen). Dann sind Tangenten- und Normalkomponente der Kontaktkraft nicht positiv, wobei die Tangentenkomponente gleich Null ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-8984-1_2 7bffce7be9fd22eae001ad9a301460be;de;;;5.3.;;;Kooperative Phänomene. Strukturelle Phasenübergänge In diesem Kapitel wird die Anordnung von lokalen Jahn-Teller- und Pseudo-Jahn-Teller-Verzerrungen in Kristallen betrachtet. Bei Jahn-Teller-Verzerrungen wird der in Abschn. 6.1 stattfindet. Die Anordnung von Pseudo-Jahn-Teller-Verzerrungen sowie Jahn-Teller-Verzerrungen in einigen nichtzentrosymmetrischen Kristallen kann zu spontaner Polarisation des Gitters und zu Ferroelektrizität führen (Abschn. 6.2). In Abschn. 6.3 wird das vibronische Modell der strukturellen Phasenumwandlungen in kondensierten Medien diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83479-0_6 844003588a341c0e572040b1343090d0;de;;;5.3.;;;Nahfeldstreuung durch unterirdische Partikel Es wird eine Volumenintegralmethode entwickelt, um die Streuung einer ebenen Welle an einem kleinen Partikel unter einer metallischen Oberfläche zu untersuchen. Die im Nahfeld erzeugten Streumuster werden analysiert. Bei der p-Polarisation wird ein Plasmon angeregt, das Störungen entlang der Oberfläche erzeugt. Es wird gezeigt, dass dieses Interferenzmuster verwendet werden könnte, um die Dielektrizitätskonstante des Metalls zu messen. Das Streufeld hat ausgeprägte Maxima für die p-Polarisation, wenn sich das Teilchen nahe der Grenzfläche befindet. Dieser Effekt ist auf eine resonante Wechselwirkung zwischen der Oberfläche und dem Dipol zurückzuführen, die bereits im Rahmen von SERS als Bildverstärkungseffekt identifiziert wurde. Abschließend wird die Auflösung einer Nahfelddetektion eines Untergrundstreuers anhand der transversalen Ausdehnung des Streufeldes diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-1978-8_23 7aa251dbc57d9e1a761943edb27f5c23;de;;;5.3.;;;Modellierung von Lasern mit verteilter Rückkopplung In diesem Kapitel wird beschrieben, wie Laserdioden für die optische Kommunikation mit ihrem komplexen Aufbau und ihren physikalischen Wechselwirkungen simuliert werden können. Diese Laser sind in der Regel so beschaffen, dass Variationen in lateraler und transversaler Richtung sowie das Problem des elektronischen Transports am einfachsten behandelt werden können, während longitudinale und spektrale Variationen detailliert berücksichtigt werden müssen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-2048-3_7 528ef0207d2f0ca9660bfa24963dc2b0;de;;;5.3.;;;Visuelles Tracking über Strukturumlagerung und Multiskalen-Blockdarstellungsmodell In diesem Beitrag schlagen wir eine Tracking-Methode über eine Strukturumordnung und ein blockbasiertes Erscheinungsbildmodell auf mehreren Skalen sowie einen dynamischen Vorlagenmechanismus innerhalb eines zweistufigen Suchrahmens vor. Zuerst wird eine Weitbereichsabtastung durchgeführt, dann wird der Konfidenzwert jedes Kandidaten über ein diskriminatives Abstimmungsverfahren mit umgekehrten dünn besetzten Koeffizienten berechnet, ein Teil der Kandidaten mit einem großen Konfidenzwert wird ausgewählt, um in der nächsten Stufe beizutreten. Nach einem Resampling mit kleinem Bereich in Stufe zwei werden die Kandidaten- und Ziel-Templates in Multiskalen-Patches unterteilt, zusätzlich werden die Hintergrundinformationen verwendet, um den Fehlerterm zu modellieren. Darüber hinaus wird im Verfolgungsprozess ein gekennzeichneter Vorlagenpool verwaltet, um dynamisch einen geeigneten Vorlagensatz für den nächsten Rahmen gemäß der Okklusionskarte des aktuellen Verfolgungsergebnisses zu erzeugen. Sowohl qualitative als auch quantitative Auswertungen an anspruchsvollen Bildsequenzen zeigen, dass der vorgeschlagene Tracking-Algorithmus gegenüber mehreren modernen Methoden günstig abschneidet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-48570-5_11 4a125807f68fe4c15c24efb4e180dc61;de;;;5.3.;;;Ein semiotischer Ansatz zur Datenqualität Seit der Einführung der ER-Sprache Ende der 70er Jahre ist die Datenmodellierung ein wichtiger Aspekt der Informationssystementwicklung. Die Qualität von Datenmodellen wird seit Mitte der 90er Jahre untersucht. In einem anderen Forschungsstrang wird die Daten- und Informationsqualität noch länger untersucht. Daten können auch als eine Art Modell (auf Instanzebene) betrachtet werden, wie z.B. in den Produktmodellen in CAD-Systemen. In diesem Beitrag stellen wir eine Spezialisierung eines allgemeinen Rahmens zur Bewertung der Qualität von Modellen vor, um die kombinierte Qualität von Datenmodellen und Daten bewerten zu können. Eine praktische Anwendung des Frameworks aus der Bewertung der potentiellen Qualität verschiedener Datenquellen, die in einer kollaborativen Arbeitsumgebung verwendet werden sollen, wird verwendet, um die Nützlichkeit des Frameworks zu veranschaulichen. Wir stellen einerseits fest, dass die traditionellen Eigenschaften von Datenqualität und Datenmodellqualität unter dem generischen SEQUAL-Framework subsumiert werden und dass es Aspekte in diesem Framework gibt, die von den bestehenden Arbeiten zur Daten- und Datenmodellqualität nicht abgedeckt werden. Andererseits hat der Vergleich zu einer sinnvollen Vertiefung des generischen Rahmens für Datenqualität geführt und damit die praktische Anwendbarkeit des SEQUAL-Rahmens bei der Diskussion und Bewertung von Datenqualität verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38484-4_28 abf86d7b8126f2bc7e52d685304fbad1;de;;;5.3.;;;Positionshäufigkeit und Vielseitigkeit von Bigrammen für englische Wörter mit zwei bis neun Buchstaben Eine umfassende Zählung von Bigramm-Häufigkeiten und Vielseitigkeiten nach Position wurde für Wörter mit zwei bis neun Buchstaben tabellarisch von Kucera und Francis (1967) aufgezeichnet. Insgesamt wurden 577 Bigramme gefunden, die unterschiedlich über Wörter verteilt waren. Solche Zählungen sollten sich für Arbeiter als nützlich erweisen, die die orthographische Regelmäßigkeit bestimmter Wörter bestimmen möchten.;-;-;-;https://link.springer.com/article/10.3758/BF03201669 66830e633b666d9153f692b3770d4932;de;;;5.3.;;;Dualitätssätze zur Kontrolle und Beobachtung zeitdiskreter unendlichdimensionaler Systeme Es werden allgemeine zeitdiskrete unendlichdimensionale lineare Systeme in normierten Räumen betrachtet. Kontrollierbarkeits- und Beobachtbarkeitseigenschaften bezüglich des Problems der Rückkopplungsstabilisierung werden untersucht. Besonderer Wert wird auf die Ableitung von Dualitätssätzen gelegt, d. h. für ein gegebenes Kontrollierbarkeitskonzept wird ein äquivalentes Beobachtbarkeitskonzept für das dual beobachtete System gefunden. Es werden sowohl endliche als auch unendliche Fälle betrachtet.;-;-;-;https://link.springer.com/article/10.1007/BF01752394 602b85a584b58c1e55fda1a77047adb8;de;;;5.3.;;;Unterdrückung und Dämpfung von Mehrfachstörungen für eine Klasse unsicherer Systeme Eine neuartige Anti-Störungs-Strategie für eine Klasse unsicherer Systeme wird untersucht. Neben der unbekannten Sinusfrequenz wird die geregelte Anlage gleichzeitig einem begrenzten Rauschen und einem unbekannten nichtlinearen Term ausgesetzt. Durch die Konstruktion eines Hilfsbeobachters wird die Sinuskurve in einer parametrischen Unsicherheitsform dargestellt. Nur ein unbekannter Skalar muss geschätzt werden, um ein Kompensationssignal zu konstruieren, während der unerwünschte nichtlineare Betrieb zwischen Frequenz und äquivalenter Störung beseitigt werden kann. Durch die Integration eines Regelgesetzes können alle unerwarteten Dynamiken unterdrückt bzw. abgeschwächt werden, wobei auch die Bedingungen für die Stabilität und optimale Leistung gegeben sind. Abschließend wird ein Computersimulationsbeispiel vorgestellt, um die Wirksamkeit und Anwendbarkeit der vorgeschlagenen Methode zu veranschaulichen.;-;-;-;https://link.springer.com/article/10.1007/s12555-020-0172-8 ce2d0464d3926398304fd2827d4e7e7c;de;;;5.3.;;;Nichtlineare alternative Theoreme und nicht differenzierbare Programmierung Dieses Papier stellt einige Theoreme der Alternative für nichtlineare Funktionen (sublinearkonvex) zwischen topologischen Vektorräumen bereit. Diese Ergebnisse werden dann angewendet, um Optimalitätsbedingungen für konvexe Programmierung und allgemeine nicht differenzierbare Programmierprobleme zu erstellen.;-;-;-;https://link.springer.com/article/10.1007/BF01920919 53d501ffe4e8b671ab1df8c9c0207356;de;;;5.3.;;;Immersives natürliches EEG-Neurofeedback zur Stimulierung der Kreativität Wir schlagen eine natürliche, immersive 3D-Darstellung in Echtzeit des durch EEG erworbenen mentalen Zustands vor. Im Gegensatz zu den meisten anderen derzeit verwendeten Neurofeedback-Methoden, bei denen es sich meist um einfache, synthetische Darstellungen handelt, verwendet unser Ansatz reichhaltige natürliche visuelle Metaphern, präsentierte Immersivität und benutzerzentriert. Dieser leistungsstarke Ansatz stimuliert tiefes Neurofeedback-basiertes Lernen und eröffnet ein breites Anwendungsspektrum, vom persönlichen Training verschiedener mentaler Fähigkeiten (Entspannung, Fokus usw.) bis hin zu psychologischer oder psychiatrischer Behandlung. In diesem Papier stellen wir das allgemeine Konzept des Systems (Erfassung der EEG-Daten, Verarbeitung, Kartierung und Rendering) vor und diskutieren eine seiner vielversprechendsten Anwendungen – die Kreativität der Benutzer anzuregen. Es gibt ein detailliertes Trainingsprotokoll zur Verbesserung neurologischer Prozesse im Zusammenhang mit der kreativen Aktivität, basierend auf recherchierten Studien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-65551-2_53 7a86c4c900b602cbd715cc5c1c0cfb0f;de;;;5.3.;;;Systematischer Entwurf eines stabilen Typ-2-Fuzzy-Logic-Controllers Stabilität ist einer der wichtigeren Aspekte im traditionellen Wissen über die automatische Steuerung. Typ-2-Fuzzy-Logik ist ein aufstrebender und vielversprechender Bereich für das Erreichen einer intelligenten Steuerung (in diesem Fall Fuzzy-Steuerung). In dieser Arbeit verwenden wir die Fuzzy-Lyapunov-Synthese, wie sie von Margaliot[11] vorgeschlagen wurde, um ein stabiles Lyapunov-Fuzzy-Logik-Steuerungssystem vom Typ 1 zu bauen. Dann machen wir eine Erweiterung von einem Typ-1 zu einem Typ-2 Fuzzy-Logic-Steuerungssystem, um die Stabilität auf dem Steuerungssystem zu gewährleisten und die Robustheit des entsprechenden Fuzzy-Reglers zu beweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73185-6_14 110f1ec632d848f9ecaa4f263f34f377;de;;;2.4.;;;Experimentelle Untersuchung realer Getriebefehler unter Verwendung der Schallwahrnehmung Das Ziel dieser Arbeit ist die Untersuchung von Verzahnungsfehlern, die an rotierenden Maschinen durch Schallwahrnehmung auftreten können. Um einen echten Getriebedefekt zu kompensieren, wurde der Versuchsaufbau mehrere Tage unter vorgegebener Last laufen gelassen. An der An- und Abtriebswelle wurden alle 2 h Messungen durchgeführt. Akustische Klänge werden mit der Verarbeitungssoftware DynamX V.7 ausgeführt. Diese Geräusche werden mit der paarweisen Vergleichsmethode analysiert, um eine Korrelation zwischen der Geräuschwahrnehmung und den skalaren Indikatoren zu finden. Die Ergebnisse zeigen, dass Wahrnehmungstests eine Klassifizierung von Getriebedefektgeräuschen in der Verschlechterungsreihenfolge ermöglichten. Die Korrelation zwischen objektiven und subjektiven Aspekten unterstreicht einen wichtigen Zusammenhang zwischen skalaren Indikatoren (Kurtosis, Crest-Faktor, spektraler Schwerpunkt (SCG) und Effektivwert (RMS)) und der Differenz zwischen Getriebegeräuschen, die durch den Geräuschabstand in der Nahraum. Es wird auch eine Schwingungsanalyse durchgeführt, um den Gangverschlechterungszustand zu verfolgen und die mit dem vorgeschlagenen Ansatz erhaltenen Schallwahrnehmungsergebnisse zu bestätigen.;-;-;-;https://link.springer.com/article/10.1007/s00170-014-6313-6 1353ab35e66eadad0ceaa6499f8fd551;de;;;5.3.;;;Das Rovereto Emotion and Cooperation Corpus: eine neue Ressource zur Untersuchung von Kooperation und Emotionen Das Rovereto Emotion and Cooperation Corpus (RECC) ist eine neue Ressource, die gesammelt wurde, um die Beziehung zwischen Kooperation und Emotionen in einem interaktiven Umfeld zu untersuchen. Frühere Versuche, Korpora zur Untersuchung von Emotionen zu sammeln, haben gezeigt, dass diese Daten oft ziemlich schwer zu klassifizieren und zu analysieren sind und Kodierungsschemata zur Analyse von Emotionen sich oft als nicht zuverlässig erweisen. Wir haben ein Korpus aufgabenorientierter (MapTask-ähnlicher) Dialoge in italienischer Sprache zusammengestellt, in denen die Segmente von emotionalem Interesse anhand psycho-physiologischer Indizes (Herzfrequenz und galvanische Hautleitfähigkeit) identifiziert werden, die sehr zuverlässig sind. Diese Segmente haben wir dann gemäß neuartigen multimodalen Annotationsschemata für Kooperation (in Bezug auf Anstrengung) und Mimik (ein Indikator für den emotionalen Zustand) annotiert. Bei allen Merkmalen wurde unter den Programmierern eine hohe Übereinstimmung erzielt. Das RECC-Korpus ist unseres Wissens die erste Ressource mit psychophysiologischen Daten, die mit verbalen und nonverbalen Verhaltensdaten abgeglichen sind.;-;-;-;https://link.springer.com/article/10.1007/s10579-011-9163-y 5a8c4fb575d55b8d7c708e27a21368a2;de;;;5.3.;;;Zur Steuerung der Sekundärkühlung im Stranggießprozess Stranggießen ersetzt heute den Blockguss als Hauptverfahren zur Herstellung von Stahl in Form von Brammen, Vorblöcken, Knüppeln usw. Die Komplexität dieses Prozesses ist so groß, dass Innovationen im Maschinendesign bis vor kurzem nur in Großserien getestet werden konnten die Produktionsmaschine. Dies ist äußerst kostspielig und in vielen Fällen kann die Produktion nicht verzögert werden, damit solche Tests stattfinden können. Um alternative Testmöglichkeiten für neue Konstruktionen anzubieten, wurden insbesondere im letzten Jahrzehnt numerische Simulationsmodelle des Stranggussverfahrens entwickelt. Wir verweisen auf den Tagungsband [3], [5], [6] [16]. Weiterhin erwähnen wir Artikel [4], [9], [13], [23], [24] zu Wärmeübergangsmodellen und FE-Methode, [12], [29] zur numerischen Modellierung von Materialeigenschaften in breiigen Zonen, [ 10], [30] zur Randelementmethode, [11], [24] zur FE-Modellierung thermischer Spannungen, [2], [9], [13], [17]–[20], [25]– [28] zur Regelung der Sekundärkühlung und [1], [7], [8], [31] zu Problemen der Echtzeitregelung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-7627-8_10 fff6c812276273912103e6310f3a07c0;de;;;5.3.;;;Analyse von Anwendungen In den vorangegangenen Kapiteln haben wir diffusive und viskose Flüsse in Kapillaren und porösen Medien sowohl aus physikalischer als auch aus mathematischer Sicht analysiert. Das Ziel dieses Kapitels ist es, die Gleichungen für solche Flüsse auf die am häufigsten verwendeten Systeme anzuwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-4983-0_5 faf6a1385a8657dec3c31e3ec8abd497;de;;;5.3.;;;Differenzierung einer Ein-Variablen-Funktion In der Ökonomie sind wir nicht nur daran interessiert, Beziehungen durch Funktionen auszudrücken, sondern wir müssen diese Beziehungen auch mit Hilfe von Analysis untersuchen. Oftmals ist es notwendig zu untersuchen, wie sich eine (kleine) Änderung einer Variablen auf eine andere auswirkt. Dieser Begriff der Veränderung kann durch Anwendung der Differenzierungsregeln ausgedrückt werden. Es ist eher so, als würde man einen Videofilm eines Fußballspiels analysieren, indem man den Film um ein Einzelbild vorwärts bewegt. Jeder Frame stellt die Spieler in bestimmten Positionen zu einem bestimmten Zeitpunkt dar. Die Differenzierung ermöglicht es uns, infinitesimal kleine Teile einer Funktion entweder zu einem bestimmten Zeitpunkt oder für einen bestimmten Wert der unabhängigen Variablen zu analysieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-07863-9_4 d62a9ef743ea686cb912e139f71b694e;de;;;5.3.;;;Mathematische Überlegungen Es wird vorausgesetzt, dass der Leser über Grundkenntnisse der elementaren, dreidimensionalen Vektoranalyse verfügt. Wir werden die wichtigeren Beziehungen, die in den Ableitungen in den späteren Abschnitten benötigt werden, überprüfen oder besser formulieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-65731-3_1 0aefa519f5aa25c4726b710d796e449b;de;;;2.4.;;;Die kombinierte Behandlung mit niedrig dosierter ionisierender Strahlung und aus grünem Tee gewonnenem Epigallocatechin-3-Gallat induziert den Tod der menschlichen Gehirn-Endothelzellen Die Mikrovaskulatur von Hirntumoren wurde als primäres Ziel für die durch ionisierende Strahlung (IR) induzierte Apoptose vorgeschlagen. Der Beitrag von IR-induzierten nicht-apoptotischen Zelltodwegen mit niedriger Dosis wurde jedoch nicht untersucht. Diese Studie zielte darauf ab, die Wirkung von IR auf mikrovaskuläre Endothelzellen des menschlichen Gehirns (HBMEC) zu charakterisieren und die kombinierte Wirkung von Epigallocatechin-3-Gallat (EGCg), einem aus grünem Tee gewonnenen anti-angiogenetischen Molekül, zu bewerten. HBMEC wurden mit EGCg behandelt, bestrahlt mit einer subletalen (≤10 Gy) Einzeldosis. Das Zellüberleben wurde 48 h später durch Zellkernzählung und Trypanblau-Ausschlussverfahren bestimmt. Die Zellzyklusverteilung und DNA-Fragmentierung wurden durch Durchflusszytometrie (FC) bewertet, der Zelltod wurde durch fluorimetrische Caspase-3-Aktivität, FC und Immunblotting für pro-apoptotische Proteine ​​bewertet. Während niedrige IR-Dosen allein das Zellüberleben um 30 % reduzierten, erwies sich die IR-Behandlung bei mit EGCg vorbehandelten Zellen als wirksamer, die 70 % des Zelltods erreichten. Die Analyse des Zellzyklus zeigte die IR-induzierte Zellakkumulation in der G2-Phase. Die Expression der Cyclin-abhängigen Kinase-Inhibitoren p21(CIP/Waf1) und p27(Kip) wurde durch EGCg und IR erhöht. Obwohl die zufällige DNA-Fragmentierung nach kombinierten EGCg/IR-Behandlungen um ungefähr 40% zunahm, stand die synergistische Reduktion des Zellüberlebens nicht in Zusammenhang mit erhöhten pro-apoptotischen Caspase-3-, Caspase-9- und Cytochrom-C-Proteinen. Die Zellnekrose nahm nach kombinierten EGCg/IR-Behandlungen um das Fünffache zu, während keine Veränderungen der frühen oder späten Apoptose beobachtet wurden. Unsere Ergebnisse legen nahe, dass die synergistischen Wirkungen kombinierter EGCg/IR-Behandlungen mit Nekrose, einem nicht apoptotischen Zelltod-Weg, zusammenhängen könnten. Strategien zur Sensibilisierung von aus Hirntumoren stammender EC gegenüber IR können die Wirksamkeit der Strahlentherapie verbessern, und EGCg könnte ein solches potenzielles Mittel darstellen.;-;-;-;https://link.springer.com/article/10.1007/s11060-006-9171-8 fc9cdd476b87dccd389c4a4fe03f048c;de;;;5.3.;;;Noetherische Ringe In der gesamten Mathematik gibt es viele Beispiele für noethersche Ringe, beginnend mit den ganzen Zahlen Faktorisierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0475-9_5 f50c967e801bd9d7f46f5a6e6946903b;de;;;5.3.;;;Anwendung der Human Language Technology in der Umfrageforschung Der Begriff Human Language Technology (HLT) bezeichnet eine breite Klasse von Methoden zur automatischen Analyse von Sprache und Text. Dies kann eine Analyse der Themen, Gefühle, Beziehungen oder anderer Themen umfassen, die im Text dargestellt werden. Während die frühen Versuche, diese Technologie zu entwickeln, grob und im Allgemeinen wirkungslos waren, haben moderne Rechenleistung und neue Methoden diese Techniken in vielen Bereichen an den Rand einer breiten Anwendung gebracht. Dieses Kapitel gibt einen Überblick über HLT und diskutiert die Versprechen und Fallstricke der Anwendung dieser Methoden auf offene Antworten auf Fragen in Umfragedaten. Auch wenn nach wie vor Herausforderungen bestehen, bietet die automatisierte Textanalyse von Open-Text-Antworten eine potenziell beträchtliche Chance für Forscher.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-54395-6_17 5f4b8c15834c6b253828023838c893ad;de;;;5.3.;;;Prototypsystemdesign für die Neuidentifizierung von Personen in großem Maßstab Die Identifizierung einer Person über Kameras hinweg in unzusammenhängenden Ansichten zu unterschiedlichen Zeiten und an verschiedenen Orten hat wichtige Anwendungen in der visuellen Überwachung. Allerdings ist es aufgrund der zugrunde liegenden Einschränkungen wie hoher Modellkomplexität und Batch-Lernen mit den markierten Trainingsdaten schwierig, bestehende Methoden auf die Entwicklung von groß angelegten Personenidentifikationssystemen in der Praxis anzuwenden. In diesem Papier schlagen wir ein prototypisches Systemdesign für eine groß angelegte Personenreidentifizierung vor, das aus zwei Phasen besteht. Um Skalierbarkeit und Antwort innerhalb einer akzeptablen Zeit bereitzustellen und unmarkierte Daten zu verarbeiten, verwenden wir ein agglomeratives hierarchisches Clustering mit einfachem Matching und einem kompakten tiefen neuronalen Netzwerk zur Merkmalsextraktion.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-5041-1_103 9077a72fcb9b7bd5934f2bdc3c1fb9a7;de;;;5.3.;;;Deep Belief Network basierend auf dem Double Weber Local Descriptor in Micro-Expression Recognition Der Mikroausdruck des Gesichts ist entscheidend für die Gefühlswahrnehmung und dennoch aufgrund der hohen Dimensionalität und der zunehmenden Nachfrage nach Erkennungsgenauigkeit anspruchsvoll. Der Kompromiss zwischen Genauigkeit und Effizienz von Deep Belief Network ist eine Herausforderung. Dieses Papier zeigt, dass eine zweistufige Strategie sowohl eine Beschleunigung als auch eine hohe Genauigkeit erreichen kann. Damit wird ein effizienter Gesichts-Mikroausdrucksalgorithmus vorgeschlagen, der aus dem in diesem Artikel entwickelten Double Weber Local Descriptor besteht, der erstens zum Extrahieren lokaler anfänglicher Texturmerkmale und dem Deep Belief Net für globalere Merkmale und weniger Berechnungsdimensionen besteht. Die Experimente mit der JAFFE-Datenbank zeigen, dass die durchschnittliche Erkennungsrate durch den neuen Algorithmus bis zu 92,66% beträgt und die Rate des neutralen Gesichtsausdrucks fast 100% beträgt. Im Vergleich zu LBP, LDP, PCA, Gabor Wavelet und Weber Local Descriptor in Kombination mit DBN hat der neue Algorithmus der Einführung des Double Weber Local Descriptors in DBN eine höhere Erkennungsrate.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-5041-1_68 e1d0bcc6a82de3d40de52523d125e87b;de;;;5.3.;;;Intelligentes Monitorsystem basierend auf Cloud und Convolutional Neural Networks Heutzutage sind Cloud-basierte Dienste weit verbreitet. Der Einsatz von Cloud-Technologie hat die Entwicklung und Anwendung von Webdiensten vorangetrieben. Es reduziert den Overhead von virtuellen Softwaremaschinen und unterstützt eine breitere Palette von Betriebssystemen. Darüber hinaus verbessert es die Auslastung der Infrastruktur. Mit der Entwicklung der Technologie der künstlichen Intelligenz (KI), insbesondere des künstlichen neuronalen Netzes (ANN), werden intelligente Monitorsysteme in unserem täglichen Leben erhoben und weiterentwickelt. Eine einfache Aufgabe mit einem einzigen KNN kostet jedoch viel Zeit und Rechenressourcen. Daher schlagen wir vor, ein Cloud-basiertes System zu verwenden, um Rechenressourcen für KNN zu teilen, um redundante Berechnungen zu reduzieren. In diesem Beitrag stellen wir ein intelligentes Monitorsystem vor, das auf Cloud-Technologie basiert, um intelligente Monitordienste bereitzustellen. Das System ist mit hybriden faltenden neuronalen Netzen ausgelegt. Es wurde für mehrere intelligente Überwachungsaufgaben verwendet, wie z. B. Szenenwechselerkennung, Fremderkennung, Gesichtsausdruckerkennung und Aktionserkennung.;-;-;-;https://link.springer.com/article/10.1007/s11227-016-1934-1 339985c315956cef259e122dabb64dc5;de;;;5.3.;;;Beschleunigung der WR-Konvergenz In Kapitel 7 werden verschiedene Techniken beschrieben, die verwendet werden, um die Effizienz und Robustheit des WR-Algorithmus zu verbessern, wenn er auf die Simulation von MOS-Schaltungen angewendet wird. In diesem Kapitel wird der theoretische Hintergrund für drei dieser Techniken vorgestellt. Wir werden zunächst die Ungleichförmigkeit in der WR-Konvergenz analysieren, was erklärt, warum das Aufteilen des Simulationsintervalls in Teile, sogenannte Fenster, verwendet werden kann, um die Anzahl der Relaxationsiterationen zu reduzieren, die zum Erreichen der Konvergenz erforderlich sind. Dann werden wir uns überlegen, wie man große Systeme so in Subsysteme aufteilt, dass der WR-Algorithmus schnell konvergiert. Schließlich werden wir kurz ein bekanntes Problem für Gauß-Seidel-Relaxationsalgorithmen ansprechen, das der Ordnung der Gleichungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2271-9_5 9ff475e88455123da09644a3588ab29f;de;;;5.3.;;;Grundlagen der denotationalen Semantik Die Kapitel I und II dieses Aufsatzes bieten eine elementare Einführung in die mathematische Theorie, die den in diesem Band beschriebenen denotationalen semantischen Definitionstechniken zugrunde liegt, die nächsten beiden Kapitel diskutieren einige Techniken, die bei der Argumentation über solche Definitionen verwendet werden, und Kapitel V beschreibt einen Weg, mit Semantik von Sprachen mit Sprüngen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-10007-5_35 aa41f77c7c3db40375959e7de53345cb;de;;;5.3.;;;Nebelfähiges Smart Home und Erkennung des Benutzerverhaltens Ein typisches Fog-fähiges intelligentes IoT-System ist das Smart Home, in dem sich jedes intelligente Gerät/Gerät mit dem Internet verbinden und einige Rechenaufgaben ausführen kann. Jede Appliance/jedes Gerät kann als IoT-Knoten angesehen werden. Diese IoT-Knoten bilden ein lokales Netzwerk. Damit das Zuhause den Menschen besser verstehen und anschließend richtig reagieren kann, ist eine effiziente und sichere Mensch-Maschine-Interaktionstechnologie erforderlich. Herkömmliche Fernbedienungen sind aufgrund der größeren Geräteanzahl und der Abhängigkeit von der Hardware äußerst unpraktisch. Eine effizientere Lösung besteht darin, das lokale Netzwerk selbst das Nutzerverhalten direkt erkennen zu lassen. Die funkbasierte Verhaltenserkennung hat Vorteile in Smart-Home-Szenarien, in denen Komfort und Privatsphäre für uns von größter Bedeutung sind. Inzwischen erleichtern auch zahlreiche drahtlose Kommunikationen zwischen den IoT-Knoten im Smart Home die Umsetzung dieser Ansätze. In diesem Kapitel werden wir uns hauptsächlich auf diese Art der Verhaltenserkennung konzentrieren. Außerdem können wir die akustischen Signale nutzen, um die bewegten Objekte zu verfolgen. Insbesondere können die Lautsprecher und Mikrofone in Mobiltelefonen verwendet werden, um die Tonsignale zu senden und zu empfangen. Da durch Fog Computing eine genaue Erkennung des Benutzerverhaltens möglich wird, werden unsere Häuser mit Sicherheit immer intelligenter.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-23185-9_7 5dd78aaeabe34ade0bef3608c031cc12;de;;;2.4.;;;Prävalenz und Muster neuropsychologischer Beeinträchtigungen bei Patienten mit dem humanen Immunschwächevirus-infizierten/erworbenen Immunschwächesyndrom (HIV/AIDS) in prä- und posthochaktiven antiretroviralen Therapieepochen: Eine kombinierte Studie mit zwei Kohorten Das Ziel dieser Studie war es, die Prävalenz und das Muster neuropsychologischer Beeinträchtigungen in Kohorten von mit dem Humanen Immundefizienzvirus (HIV) infizierten Personen im Zeitraum vor und nach HAART (hochaktive antiretrovirale Therapie) zu bewerten. Zwei Kohorten von HIV-infizierten Personen, die ambulante Kliniken für tertiäre Überweisungen in Krankenhäusern besuchten, wurden untersucht. Die Kohorten repräsentierten zwei Epochen der antiretroviralen Medikation: Monotherapie (;-;-;-;https://link.springer.com/article/10.1080/13550280490521078 95d3509c5c310b2066076084f3a2220e;de;;;2.4.;;;Fallstudien zum Marketingverhalten Die folgenden Fälle veranschaulichen, wie Vermarkter das Management des verhaltensprägenden Umfangs des Verbrauchers und die Wirksamkeit der Verstärker kombinieren, um eine Gesamtstrategie zu entwickeln und umzusetzen. Diese Fälle stammen aus einer früheren Arbeit (Foxall 1996a) und wurden nach Möglichkeit aktualisiert. Sie werden hier ausgewählt, weil sie unter den vielen verfügbaren Beispielen für Marketing als operanten Prozess auf die Dokumentation anderer Forscher angewiesen sind. Es muss betont werden, dass Marketing eine Schnittmenge des Verhaltens von Managern und Verbrauchern ist: Keine Gruppe ist allein verantwortlich für das entstehende Verhaltensmuster, da jede das Verhalten der anderen verstärkt.;-;-;-;https://link.springer.com/chapter/10.1057/9780230375178_7 d75b5c891258a0cbb6dcbb37bea726f6;de;;;5.3.;;;Lösen von großskaligen Minimax-Problemen mit dem Primal-Dual-Steepest-Descent-Algorithmus Dieses Papier zeigt, dass der Primal-Dual-Algorithmus des steilsten Abstiegs, der von Zhu und Rockafellar für ausgedehnte linear-quadratische Programmierung entwickelt wurde, verwendet werden kann, um eingeschränkte Minimax-Probleme in;-;-;-;https://link.springer.com/article/10.1007/BF01582212 d0d38f794522c777b5e9737fb696cb07;de;;;5.3.;;;Module und Vektorräume Module sind eine Verallgemeinerung der Vektorräume der linearen Algebra, in denen die „Skalare“ aus einem beliebigen Ring und nicht aus einem Körper stammen dürfen. Diese eher bescheidene Abschwächung der Axiome ist recht weitreichend und umfasst beispielsweise die Ring- und Idealtheorie und die Theorie der abelschen Gruppen als Spezialfälle.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-0923-2_3 ade26e7e787320c2df179760c495bef6;de;;;5.3.;;;Automatische Spracherkennung basierend auf elektromyographischen Biosignalen Dieser Artikel präsentiert unsere Studien zur automatischen Spracherkennung basierend auf elektromyographischen Biosignalen, die von den Artikulationsmuskeln im Gesicht mit Oberflächenelektroden erfasst werden. Wir entwickeln einen telefonbasierten Spracherkenner und beschreiben, wie sich die Leistung dieses Erkenners verbessert, indem wir die Extraktion relevanter Sprachmerkmale sorgfältig auf elektromyographische Signale hin entwerfen und anpassen. Unser experimentelles Design umfasst die Erfassung von hörbar gesprochener Sprache, die gleichzeitig als akustische Daten mit einem Nahsprechmikrofon und als elektromyografische Signale mit Elektroden aufgezeichnet wird. Unsere Experimente zeigen, dass elektromyographische Signale dem akustischen Signal um etwa 0,05 bis 0,06 Sekunden vorausgehen. Darüber hinaus stellen wir artikulatorische Merkmalsklassifikatoren vor, die kürzlich gezeigt haben, dass sie die klassische Spracherkennung deutlich verbessert haben. Wir beschreiben, dass die Klassifikationsgenauigkeit artikulatorischer Merkmale eindeutig von der maßgeschneiderten Merkmalsextraktion profitiert. Schließlich werden diese Klassifizierer in das gesamte Decodierungs-Framework unter Anwendung einer Stream-Architektur integriert. Unser endgültiges System erreicht eine Wortfehlerrate von 29,9 % bei einer 100-Wort-Erkennungsaufgabe.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-92219-3_23 5f9abf5c1bcc217a00b737db44f061ab;de;;;5.3.;;;Analytische Lösungsmethoden Die in den vorangegangenen Kapiteln entwickelte Theorie zeigt, dass das Studium der linearisierten Boltzmann-Gleichung ein lohnendes Unterfangen ist und viele ihrer Lösungen durch die Verwendung von Modellgleichungen erhalten bleiben können. Wir können mehr sagen, dass praktisch alle Funktionen von einem richtig ausgewählten Modell beibehalten werden. Die Vorteile der Modelle bestehen im Wesentlichen in der Vereinfachung sowohl der analytischen als auch der numerischen Verfahren zur Lösung von Randwertproblemen von besonderem Interesse. Die Verwendung von Modellen ist insbesondere dann von unschätzbarem Wert, wenn deren Lösung explizit ist (in Form von Quadraturen oder Funktionen, deren qualitatives Verhalten analytisch untersucht werden kann). Dementsprechend widmen wir uns in diesem Kapitel den analytischen Manipulationen, mit denen sich interessante Informationen aus den Modellgleichungen gewinnen lassen. Die durchweg verwendete Methode ist die bereits in Kapitel VI, Abschnitt 7 skizzierte Methode der Trennung von Variablen. Im ersten Schritt wird eine vollständige Menge von Lösungen mit getrennten Variablen („elementare Lösungen“) konstruiert und dann die allgemeine Lösung als Superposition von . dargestellt die elementaren Lösungen , besteht der zweite Schritt darin, die Rand- und Anfangsbedingungen zu verwenden, um die Koeffizienten der Überlagerung zu bestimmen. Während das erste Problem für die in Kapitel IV diskutierten Modellgleichungen gelöst werden kann, lässt sich das zweite Problem nur in wenigen Fällen exakt lösen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-5409-1_7 4ced05e9a9de7ebc41142045a57ac597;de;;;2.4.;;;Seismische Sensoren Ein seismischer Sensor ist ein Instrument zur Messung der Bodenbewegung, wenn es durch eine Störung bewegt wird. Diese Bewegung ist dynamisch und der seismische Sensor oder Seismometer muss auch eine dynamische physikalische Variable in Bezug auf diese Bewegung liefern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-21314-9_2 a6cdd0a61c2f2710ef386e3ec646e6ba;de;;;5.3.;;;Knickprobleme und damit verbundene Probleme Wie schon oft gesagt, wird eine Ingenieuranalyse mit idealisierten Entwurfsmodellen durchgeführt, die ein reales Bauwerk mehr oder weniger vereinfacht darstellen. Einige Besonderheiten, die aus Sicht des Modellschöpfers von untergeordneter Bedeutung sind, können durchaus außer Betracht bleiben. Solche Annahmen müssen immer validiert werden, denn es gibt zahlreiche bekannte Beispiele dafür, wie kleine Abweichungen (Störungen) das Verhalten einer Struktur sowohl auf quantitativer als auch auf qualitativer Ebene stark beeinflussen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36500-6_9 6d17706dfb1a28ecb93e5b53d22b71b8;de;;;2.4.;;;Das United Company Monopol und die ausländischen asiatischen Händler in Indonesien zu Beginn des 17. Jahrhunderts Keiner der Häfen im malaiisch-indonesischen Raum hatte die Rolle Malakkas als Handelszentrum übernehmen können, nachdem diese Stadt nach ihrem Fall in portugiesische Hände etwas von ihrer früheren Anziehungskraft für die asiatischen Kaufleute verloren hatte. Als die Holländer auftauchten, waren allerdings einige dieser Handelsplätze noch sehr beschäftigt. Achin etwa, wo der Handel mit Westasien im Mittelpunkt stand, Bantam, das vor allem eine Anlaufstelle für die chinesische Schifffahrt war, und die Städte Nord-Javas mit ihren immer wichtiger werdenden Nahrungsmittelexporten und dem Zwischenhandel mit Gewürzen. Darüber hinaus trat in den nächsten Jahren auch Makassar in eine Blütezeit ein. Ein Teil des portugiesischen und malaiischen Handels verlagerte sich aufgrund der niederländischen Aktivitäten in der Malaiischen Meerenge und den Gewürzinseln dorthin. Wir haben gesehen, wie die Holländer versuchten, das Gewürzmonopol zu erlangen und wie asiatische Händler von diesem Gebiet ausgeschlossen wurden. Was auch immer die Auswirkungen anderswo auf dem Archipel gewesen sein mögen, die Wirkung war in der Handelsstadt Bantam deutlich zu sehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-8850-0_11 e8a65f4d6c67888ff9a4875cc81ede57;de;;;2.4.;;;Integrierte Software zur Analyse und Synthese der Sprachqualität Die Stimmqualität ist in vielen Disziplinen ein wichtiges Wahrnehmungsmerkmal, aber das Wissen über ihre Natur wird durch ein schlechtes Verständnis der relevanten Psychoakustik eingeschränkt. Dieser Artikel (der sich an Forscher richtet, die Stimme, Sprache und Stimmverhalten untersuchen) beschreibt den UCLA-Sprachsynthesizer, eine Software zur Stimmanalyse und -synthese, die entwickelt wurde, um Hypothesen über die Beziehung zwischen akustischen Parametern und der Wahrnehmung der Stimmqualität zu testen. Der Synthesizer bietet Experimentatoren ein nützliches Werkzeug zum Erstellen und Modellieren von Sprachsignalen. Insbesondere bietet es einen integrierten Ansatz zur Stimmanalyse und -synthese und ermöglicht einfache, präzise Manipulationen der harmonischen Stimmquelle im Spektralbereich. Der Synthesizer arbeitet nahezu in Echtzeit und verwendet einen sparsamen Satz akustischer Parameter für die Sprachquelle und den Vokaltrakt, die ein Benutzer modifizieren kann, um die Qualität der meisten normalen und pathologischen Stimmen genau zu kopieren. Die Software, das Benutzerhandbuch und die Audiodateien können von http://brm.psychonomic-journals.org/content/supplemental heruntergeladen werden. Zukünftige Updates können von www.surgery.medsch.ucla.edu/glottalaffairs/ heruntergeladen werden.;-;-;-;https://link.springer.com/article/10.3758/BRM.42.4.1030 f7a4c69c648a62af4e3542416222f3a5;de;;;2.4.;;;Chemotherapie bei Hirnmetastasen aufgrund von Lungenkrebs und Melanomen Mehrere Fragen sind für die Diskussion der Chemotherapie bei Hirnmetastasen (BM) relevant [Tabelle 1]. Zunächst und am wichtigsten ist der Mangel an klinischen Studien mit sehr wenigen randomisierten Studien [1–6]. Die begrenzte Evidenz für den Einsatz einer Chemotherapie bei BM stammt aus nicht randomisierten, retrospektiven Studien und Fallberichten. Zweitens wird das Überleben oft durch den Tod durch eine systemische Erkrankung eingeschränkt (ungefähr 30 % der Patienten mit BM sterben als direkte Folge einer Erkrankung des zentralen Nervensystems). Patienten mit BM sind heterogen und die Bedeutung der Stratifizierung für prognostische Faktoren beispielsweise durch die rekursive Portionierungsanalyse (RTOG RPA) der Radiation Treatment Oncology Group wird oft übersehen [7].;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-69222-7_11 4d1328ed29e312f174ba5d068ac5d527;de;;;2.4.;;;Die Vorteile der Raucherentwöhnung und die Rolle der Nikotinersatztherapie bei älteren Patienten Die Raucherentwöhnung bei älteren Patienten bringt erhebliche Vorteile. Die kurzfristigen kardiovaskulären Nebenwirkungen des Rauchens werden schnell rückgängig gemacht. Die langfristige Risikominderung scheint als Folge einer verringerten lebenslangen Exposition gegenüber Tabakrauch zu erfolgen.;-;-;-;https://link.springer.com/article/10.2165/00002512-199609010-00002 16481fe90ce6ec154ef948604b65ca60;de;;;2.4.;;;Überwachung mehrerer Prozessmerkmale Viele industrielle Prozesse sind multivariater Natur, da die Qualität eines Produkts von mehr als einer Variablen abhängt. Multivariate Kontrollverfahren können verwendet werden, um die Beziehung zwischen den Variablen zu erfassen und eine bessere Prozessüberwachung bereitzustellen, als dies durch die Anwendung von univariaten Kontrollverfahren auf jede Variable möglich ist. Dies ist in einer hochwertigen Umgebung ein wichtiges Thema, da fast alle Artikel in Bezug auf einzelne Attribute konform sind. Viel Arbeit wurde an den multivariaten Variablenprozessen geleistet. Der Steuerung multivariater Attributprozesse, die in praktischen Produktionsprozessen sehr wichtig ist, wurde jedoch wenig Aufmerksamkeit geschenkt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-1015-4_8 ddce320099774bad73c03a9a71e8526c;de;;;2.4.;;;Konsum und Reichtum In den letzten Jahrzehnten hat das Phänomen des Konsumismus eine beeindruckende Menge historischer Diskussionen und Forschungen hervorgebracht, von denen ein Großteil zunächst durch das akademische Interesse an der industriellen Revolution des 18. Jahrhunderts angeregt wurde. Im Laufe dieser Arbeit wurden die Ursprünge der sogenannten „Konsumentenrevolution“, die nach Ansicht einiger Historiker eine entscheidende Rolle bei der Stimulierung des industriellen Wandels spielte, jedoch immer weiter in die Frühe Neuzeit verschoben. Somit besteht ein plausibler Zusammenhang zwischen dem Aufkommen des Konsumismus und den Anfängen der entscheidenden Aufwärtsbewegung der Wirtschaftstätigkeit, die in Restoration England stattfand. Die Forschung scheint die Ansichten zeitgenössischer Schriftsteller wie Defoe bestätigt zu haben, die insbesondere auf die 1670er und 1680er Jahre zurückblickten als eine Zeit sowohl der wirtschaftlichen als auch der sozialen Transformation, sicherlich als eine Zeit, in der Englands Kaufleute und Fabrikanten zum ersten Mal die kommerzielle Führung von die Welt. Umstritten bleibt jedoch die Frage, ob und inwieweit sich dieser wirtschaftliche Aufschwung in steigender Kaufkraft und steigenden Konsumerwartungen der gesamten Engländer niederschlägt. Eine „Konsumentenrevolution“ im späten 17. Jahrhundert würde nicht nur eine enorme Erweiterung des Angebots und der Qualität der Waren erfordern, die selbst in bescheidenen Verhältnissen verfügbar sind, sondern auch eine tiefgreifende Veränderung traditioneller Einstellungen und Werte.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-25432-3_9 76423fa60e45209b5b3a4fcd75064095;de;;;5.3.;;;Von der Datenanalyse zur Unsicherheitswissensanalyse Das Hauptziel des symbolischen Ansatzes in der Statistik besteht darin, Probleme, Methoden und Algorithmen, die bei klassischen Daten verwendet werden, auf komplexere Daten zu erweitern, die als „symbolische Objekte“ bezeichnet werden und sich gut an die Darstellung von Wissen anpassen und die im Gegensatz zu üblichen Beobachtungen, die „individuelle Dinge“ charakterisieren, „vereinen“. “. Wir führen zwei Arten von symbolischen Objekten ein: boolesche und possibilistische. Einige ihrer Qualitäten und Eigenschaften stellen wir kurz vor. Wir geben einige Ideen, wie Statistiken und Datenanalysen auf diese Objekte erweitert werden können. Schließlich werden vier Arten von Datenanalyseproblemen vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-54659-6_82 0da03c0cf816e0624207e189846a28fd;de;;;5.3.;;;Netzunabhängigkeit des Lagrange-Newton-Verfahrens für nichtlineare Optimalsteuerungsprobleme und ihre Diskretisierungen In einem kürzlich erschienenen Artikel haben wir ein Maschenunabhängigkeitsprinzip für Newtons Methode bewiesen, das auf stabile und konsistente Diskretisierungen verallgemeinerter Gleichungen angewendet wird. In diesem Beitrag stellen wir eine neue Konsistenzbedingung vor, die in Anwendungen einfacher zu überprüfen ist. Unter Verwendung dieser neuen Bedingung zeigen wir, dass das Maschenunabhängigkeitsprinzip für das Lagrange-Newton-Verfahren gilt, das auf nichtlineare optimale Regelungsprobleme mit gemischten Regelzustandsbeschränkungen und deren Diskretisierungen durch Euler-Verfahren oder Ritz-Verfahren angewendet wird.;-;-;-;https://link.springer.com/article/10.1023/A%3A1010912305365 2586eba59c682b37ba4726f9d1dbee4e;de;;;2.4.;;;Prävention und Management der Graft-versus-Host-Krankheit Die Graft-versus-Host-Reaktion (GVHD) ist die häufigste Ursache für das Scheitern der allogenen Knochenmarktransplantation. Die Krankheit betrifft typischerweise Haut, Leber und Magen-Darm-Trakt, wobei der Tod häufig auf infektiöse Komplikationen zurückzuführen ist. Ciclosporin-basierte Arzneimittelkombinationen sind die tragende Säule der GvHD-Prophylaxe. Die Haupttoxizität von Cyclosporin ist die Nierenfunktionsstörung, und optimale Strategien zur Überwachung der therapeutischen Arzneimittel, um die Toxizität zu minimieren und die klinische Wirksamkeit zu maximieren, müssen noch entwickelt werden. Die initiale Behandlung einer etablierten GvHD umfasst in der Regel hochdosierte Kortikosteroide. Patienten, die auf die Erstlinientherapie nicht ansprechen, haben eine schlechte Prognose. Untersuchungsansätze zur Verringerung der mit GVHD verbundenen Mortalität umfassen die Verwendung monoklonaler Antikörper, die gegen spezifische T-Zell-Untergruppen gerichtet sind, und die T-Zell-Depletion von Knochenmarktransplantaten.;-;-;-;https://link.springer.com/article/10.2165/00003495-199345050-00004 eab3764f18f4028a830fa57c16e00522;de;;;2.4.;;;Standortuntersuchung Bodenbeschaffenheitsprobleme können zu Kostenüberschreitungen, längeren Bauzeiten und möglicherweise teuren Rechtsstreitigkeiten führen. Daher ist es unabdingbar, mit einer gründlichen Standortuntersuchung möglichst viel über den Standort und seine Bodenbeschaffenheit zu erfahren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-13258-4_14 7262643f5990d604a7ab0a23c6da1eb4;de;;;2.4.;;;Alterung des Säugetierorganismus Die Funktion eines Organismus hängt vom Zusammenspiel seiner zellulären Bestandteile ab. Die genetische Information entwickelt sich permanent durch die Lebensspanne des Organismus in einer programmierten und zufälligen Weise, was zu einer Veränderung der Zellfunktion und folglich zu einer Evolution der Zellinteraktion führt. Über die programmierte Evolution des Organismus, die vorherbestimmten Veränderungen durch Entwicklung, Reife und Rückbildung der Sexualfunktion ist sehr wenig bekannt. Viel mehr ist über die funktionelle Evolution des Organismus aufgrund zufälliger Modifikationen der im Genom gespeicherten Informationen bekannt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18994-4_3 0d765dcd69917fc291ce2c97abdcd1db;de;;;5.3.;;;Entwicklung von Vibrations-Linearförderern durch einen inversen dynamischen Strukturmodifikationsansatz Die Konstruktion von Schwingförderern für eine effektive Produktförderung ist besonders anspruchsvoll, da die Flexibilität der Gerätekomponenten die Dynamik stark beeinflusst. Herkömmliche Designansätze basieren auf teuren und zeitaufwändigen Trial-and-Error-Iterationen, die das Erstellen und Testen von vorläufigen Geräten umfassen. Um diese Einschränkungen zu überwinden, schlägt dieses Papier einen neuartigen systematischen Ansatz für den Entwurf von linearen Vibrationsförderern vor, der auf einem inversen dynamischen Strukturmodifikationsansatz basiert. Nach der Synthese eines Modells reduzierter Ordnung wird das Design als inverses Eigenwertproblem gegossen und numerisch durch die Minimierung einer konvexen quadratischen Funktion gelöst. Randbedingungen der Designvariablen, d. h. Trägheits- und elastische Parameter, werden durch eine konvexe Domäne dargestellt und in das Optimierungsproblem einbezogen. Die erhaltenen numerischen und experimentellen Ergebnisse belegen die Wirksamkeit der Methode und ihre einfache Anwendung, die sich sowohl für den Entwurf neuer als auch für die Optimierung bestehender Feeder eignet.;-;-;-;https://link.springer.com/article/10.1007/s00170-015-7096-0 dd55d79c8a3f62b9769818cd7ef3beef;de;;;2.4.;;;Quantifizierung von Cytokin-mRNAs in humanen Myokardbiopsieproben durch quantitative Echtzeit-PCR-Technologie mit dem LightCycler Instrument Das Verständnis der Pathophysiologie der menschlichen Herzinsuffizienz [1–3] erfordert die sensible Messung der Genexpression im menschlichen Myokard. Die Schätzung der mRNA-Mengen in einer explantierten, versagenden menschlichen Herzprobe nach einer Herztransplantation ist aufgrund der Verfügbarkeit großer Gewebeproben eine relativ einfache Aufgabe. Bei sehr geringer Verfügbarkeit von Gewebeproben, insbesondere von Patienten, die sich in therapeutischer Behandlung befinden [4], erfordert die Abschätzung der mRNA-Mengen jedoch eine hochempfindliche Messmethode. In dieser Studie haben wir eine hochsensitive Methode zur Quantifizierung von Zytokin-mRNAs in humanen Myokardbiopsie-Gewebeproben von 2–3 mg entwickelt. Dieses Verfahren beinhaltet die Isolierung von Gesamt-RNA aus gefrorenen Biopsie-Gewebeproben, das Einfangen und Immobilisieren von Poly-A-RNA, die reverse Transkription von RNA, um einzelsträngige komplementäre DNA zu erhalten, und die Quantifizierung von Zytokin-mRNAs unter Verwendung einer quantitativen Echtzeit-Polymerasekettenreaktionsmethode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-59397-0_2 bd927b67bcc254c570b6161a3d59f96c;de;;;5.3.;;;Eine vergleichende Analyse von kognitivem Tutoring und Constraint-Based Modeling Seit der Einführung des Feldes vor mehr als drei Jahrzehnten wurden zahlreiche Ansätze zur Modellierung von Schülern vorgeschlagen. Was dem Feld komplett fehlt, sind vergleichende Analysen verschiedener studentischer Modellierungsansätze. In diesem Beitrag vergleichen wir Cognitive Tutoring mit Constraint-Based Modeling (CBM). Wir präsentieren unsere Erfahrungen bei der Implementierung eines Datenbankdesign-Tutors mit beiden Methoden und zeigen ihre Stärken und Schwächen auf. Wir vergleichen ihre Eigenschaften und argumentieren, dass die Unterschiede oft eher offensichtlich als real sind: Für bestimmte Bereiche kann ein Ansatz dem anderen vorgezogen werden, was sie zu praktikablen ergänzenden Methoden zur Unterstützung des Lernens macht.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44963-9_42 5fc3cd37503a8f4c5b428aaa7750dcc2;de;;;5.3.;;;Über Grenzen und Grenzriss-Codes mehrdimensionaler digitaler Bilder Eine asymmetrische, anisotrope Beziehung an den Randelementen eines Binärbildes nach Gordon und Udupa (Gordon, D., Udupa, JK (1989). Fast surface tracking in three-dimensional binary images, Computer Vision, Graphics and Image Processing 45 , S. 196–214.), wird verwendet, um das 2-D-Konzept eines Differenz-Crack-Codes auf Crack-Codes zu verallgemeinern, die Grenzen in höherdimensionalen Binärbildern darstellen. Für ein;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-03039-4_6 7c1c8f11c7dd85c0a7fe7c7295c4a45b;de;;;2.4.;;;Regulation der Enzymsynthese in Bakterien: Eine vergleichende und evolutionäre Studie Es ist eine Binsenweisheit der Biologie, dass alle Teile zusammenpassen müssen, um einen lebensfähigen Organismus zu bilden. Bezogen auf die zellulären Stoffwechselaktivitäten bedeutet dies, dass die Geschwindigkeiten, mit denen Enzyme wirken, miteinander kompatibel sein müssen und die entsprechenden Mengen an Enzymen zum Zeitpunkt ihres Bedarfs synthetisiert werden müssen. Dafür haben sich die Regulierungssysteme entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-3417-0_4 062b68090c7694d884baf290c82b79d8;de;;;2.4.;;;Technik der Haut zur Erforschung menschlicher Krankheiten – Gewebemodelle für die Krebsbiologie und Wundheilung Jüngste Fortschritte bei der Konstruktion von dreidimensionalen Geweben, die als Hautäquivalente bekannt sind und morphologische und phänotypische Eigenschaften der menschlichen Haut aufweisen, haben neue Wege zur Untersuchung menschlicher Krankheitsprozesse eröffnet. Dieses Kapitel bietet einen Überblick über zwei solcher Anwendungen – Untersuchungen zur beginnenden Entwicklung von Plattenepithelkarzinomen und Studien, die die Reaktion des menschlichen Epithels während der Wundheilung charakterisiert haben. Mit diesen neuartigen Instrumenten zur Erforschung der Krebsbiologie konnte gezeigt werden, dass Zell-Zell-Interaktionen, die der dreidimensionalen Gewebearchitektur eigen sind, eine frühe Krebsprogression unterdrücken können, indem sie einen Zustand der intraepithelialen Ruhephase induzieren. Dieser Ruhezustand kann überwunden und die Krebsprogression ermöglicht werden, indem die Gewebeorganisation als Reaktion auf Tumorpromotoren oder UV-Bestrahlung verändert wird oder indem die Interaktion von Tumorzellen mit extrazellulären Matrixproteinen oder ihren angrenzenden Epithelien modifiziert wird. Durch die Anpassung hautäquivalenter Modelle menschlicher Haut zur Untersuchung der Wundreepithelisierung wurde gezeigt, dass mehrere Schlüsselreaktionen, einschließlich Zellproliferation, Migration, Differenzierung, Reaktionsfähigkeit auf Wachstumsfaktoren und Protease-Expression, die in menschlicher Haut beobachtete Reaktion nachahmen. Vor diesem Hintergrund bieten diese konstruierten Modelle der menschlichen Haut leistungsstarke neue Werkzeuge zur Untersuchung von Krankheitsprozessen in diesen Geweben, wie sie beim Menschen auftreten.;-;-;-;https://link.springer.com/chapter/10.1007/b137206 07dfab14a83d8508ca879bfdb6e24904;de;;;2.4.;;;Ist der Standort wichtig? Eine empirische Analyse des geografischen Umfangs und der MNC-Marktbewertung Diese Studie untersucht die Beziehung zwischen der Marktbewertung und dem geografischen Umfang der Auslandsaktivitäten multinationaler US-Unternehmen (MNCs), indem sie sich auf die Bedeutung des Standorts der MNC-Aktivitäten konzentriert. Die hier verwendeten Standortfaktoren erfassen den Grad der Segmentierung/Integration zwischen den Vereinigten Staaten und den ausländischen Regionen, in denen das MNC tätig ist. Die Ergebnisse zeigen, dass multinationale Konzerne mit Präsenz in Ländern mit Entwicklungsländern deutlich höhere Marktwerte aufweisen als multinationale Konzerne, die nur in Ländern mit fortgeschrittenen Volkswirtschaften tätig sind. Darüber hinaus nimmt der Einfluss von immateriellen Vermögenswerten auf den Marktwert mit dem Grad der Expansion eines MNC nur in Entwicklungsstandorte zu, dieses Ergebnis steht im Einklang mit der Vorstellung, dass die Internalisierung von Märkten für den grenzüberschreitenden Transfer immaterieller Vermögenswerte zu Wettbewerbsvorteilen führt.;-;-;-;https://link.springer.com/article/10.1057/palgrave.jibs.8490942 cd446220304873884363333e34b16f93;de;;;2.4.;;;Doppelresonanz Eine der wichtigsten Entwicklungen jenseits des ursprünglichen Konzepts der Magnetresonanz ist die sogenannte Doppelresonanz, bei der man, wie der Name schon sagt, einen resonanten Übergang eines Systems anregt und gleichzeitig einen anderen Übergang überwacht. Es gibt viele Gründe für eine Doppelresonanz. Zu den Zielen gehören die Polarisation von Kernen, die Erhöhung der Empfindlichkeit, die Vereinfachung von Spektren, das Entwirren komplexer Spektren und die Erzeugung kohärenter Strahlung (z. B. Maser und Laser). Das Gebiet zeichnet sich durch einen reichen Erfindungsreichtum aus, der bis heute unvermindert anhält und die Aufgabe, das bisher Erreichte zu verstehen, überwältigend macht. Es ist daher nützlich, eine Möglichkeit zu finden, die Arbeit in breite Bereiche einzuteilen, die verwandte Konzepte beinhalten. Wir werden drei große Kategorien verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-09441-9_7 ba1322230f6592f3c04d666a63e6aff2;de;;;5.3.;;;Eine Verbesserung des mobilen Datenbankreplikationsmodells Dieser Artikel basiert auf einem Drei-Ebenen-Modell, setze Ergebnismengen für verwandte Angelegenheiten als synchrones Verarbeitungsmodell, er füge die traditionellen Tupel oder Ergebnismengen von Angelegenheiten, die als synchrone Granularität verwendet werden, in Ergebnismengen für verwandte Angelegenheiten und gemäß der Konfliktlösung für verwandte Angelegenheiten ein Strategie, reduzieren Sie die Menge der Datensynchronisationsübertragung effektiv, verbessern Sie die Effizienz, die mobile Datenbanken bei der Nutzung von Ressourcen der drahtlosen Verbindung sind. In Kombination mit der verbesserten Warteschlangenstruktur für Upload-Angelegenheiten hat dieser Artikel die Lese-, Schreib- und Ergebnissätze, die traditionell als Form des Hochladens von Angelegenheiten verwendet werden, in die Form von Datensätzen und Ergebnissätzen gebracht, um die Ausgabeeffizienz zu verbessern. Schließlich wird durch die Simulationsexperimente das verbesserte Modell mit dem traditionellen synchronen Verarbeitungsmodell verglichen, was die Überlegenheit dieses Modells beweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24097-3_76 dd47ae2e0a8b64ca373de7c4cfe06162;de;;;5.3.;;;Eine adaptive Rechtschreibprüfung und Vorhersage für Menschen mit Legasthenie Rechtschreibprüfungen/Prädiktoren können den Menschen helfen, effizienter zu schreiben. Es ist zum Beispiel bekannt, dass Rechtschreibprüfungen/Prädiktoren das Schreiben für Menschen mit Legasthenie erleichtern können. Die meisten Rechtschreibprüfer gehen jedoch davon aus, dass falsche Wörter nur wenige Fehler enthalten (die Literatur behauptet, dass 80 bis 95 % der Rechtschreibfehler einen Fehler enthalten), was die vier klassischen Bearbeitungsoperationen (dh Addition, Löschung, Transposition, ) und dass Fehler isoliert sind (dh jeder Fehler umfasst nur ein Wort). Da Standard-Rechtschreibprüfungen keinen Kontext verwenden, sind sie außerdem nicht in der Lage, echte Wortfehler zu korrigieren. Schließlich sind sie normalerweise keine Prädiktoren. Diese Funktion ist für Menschen mit Legasthenie sehr nützlich, da sie weniger Zeichen eingeben können. Ziel meiner Forschung ist es, den Aspekt der Anpassung und Personalisierung an das individuelle Verhalten des Modells und der Benutzeroberfläche von Rechtschreibprüfung/Prädiktor unter Berücksichtigung von Menschen mit Legasthenie zu adressieren. Konkret haben wir ein Modell entworfen und trainiert, das die typischen Fehler (auch Fehler in echten Wörtern) von Menschen mit Legasthenie und den Kontext für die Rechtschreibprüfung und Vorhersage sowie die durchzuführenden Experimente zur Bewertung seiner Leistung berücksichtigt. Darüber hinaus haben wir die Parameter formalisiert, um die Schnittstelle adaptiv zu machen, sodass die Benutzerinteraktion mit dem System leicht ist. In den nächsten Monaten werden wir die Entwicklung der adaptiven Benutzeroberfläche abschließen. Dann werden wir experimentelle Studien zum Testen des Systems durchführen. Aus einer breiteren Perspektive versuchen wir, das System auf andere Benutzertypen zu verallgemeinern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38844-6_51 78541d6a6f4751758a52c6175d8f8055;de;;;2.4.;;;Die dendritischen Bäume von Neuronen aus der Hippocampus-Bildung von erwachsenen Ratten mit Proteinmangel. Eine quantitative Golgi-Studie Wir haben kürzlich gezeigt, dass längere Zeiträume mit eiweißarmer Fütterung der erwachsenen Ratte zu Defiziten in der Anzahl der Hippocampus-Granula- und Pyramidenzellen sowie in der Anzahl der Moosfaser-Synapsen führen. Diese Erkenntnisse veranlassten uns, die Dendriten dieser Neuronen zu analysieren, um zu beurteilen, ob unter den gleichen experimentellen Bedingungen auch auf dendritischer Ebene degenerative und/oder plastische Veränderungen stattfinden. Die Hippocampus-Formationen von fünf 8 Monate alten Ratten, die ab einem Alter von 2 Monaten 6 Monate lang mit einer proteinarmen Diät (Casein 8%) gefüttert wurden, und von fünf altersgleichen Kontrollen wurden Golgi-imprägniert und die Morphologie der dendritischen Bäume quantitativ studiert. Wir fanden, dass bei unterernährten Tieren eine Verringerung der Anzahl dendritischer Verzweigungen in den dentatus Granulazellen und der apikalen dendritischen Verzweigungen von CA3-Pyramidenneuronen auftrat. Darüber hinaus war bei den dentaten Körnerzellen die Dorndichte deutlich erhöht und die endständigen dendritischen Segmente bei unterernährten Tieren verlängert. In den apikalen Dendriten von CA1-Pyramidenzellen wurden keine Veränderungen gefunden. Die erhaltenen Ergebnisse zeigen, dass lange Perioden der Mangelernährung deutliche, wenn auch nicht einheitliche Veränderungen in der dendritischen Domäne der Hippocampusneuronen induzieren, die das Vorhandensein sowohl degenerierender als auch nachwachsender Mechanismen widerspiegeln. Diese Veränderungen beeinflussen wahrscheinlich das Konnektivitätsmuster der Hippocampusformation und damit die Aktivität der neuronalen Schaltkreise, an denen diese Region des Gehirns beteiligt ist.;-;-;-;https://link.springer.com/article/10.1007/BF00229626 216bce650257ff3eef38cb719b00f4e7;de;;;2.4.;;;Grobe Sätze bei der Interpretation statistischer Testergebnisse für Gene unter hypothetischer ausgleichender Selektion Der Nachweis der natürlichen Selektion auf molekularer Ebene ist eines der entscheidenden Probleme der modernen Populationsgenetik. Es gibt eine Reihe von statistischen Tests, die dafür entwickelt wurden, jedoch ist die Interpretation der Ergebnisse aufgrund der Existenz von Faktoren wie Bevölkerungswachstum, Migration und Rekombination oft unklar. In seiner früheren Arbeit hat der Autor die Multi-Null-Methodik vorgeschlagen und sie auf vier Gene angewendet, die an familiärem Krebs beim Menschen beteiligt sind: ATM, RECQL, WRN und BLM. Wegen des hohen Rechenaufwands, der zum Schätzen kritischer Werte unter nichtklassischen Nullen erforderlich ist, ist die erwähnte Methodik für das Auswahlscreening nicht geeignet. In der aktuellen Arbeit stellt der Autor eine neuartige, grobe Set-basierte Methodik vor, die bei der Interpretation von Testergebnissen hilfreich ist, die im Vergleich zu nur klassischen Nullwerten angewendet werden. Diese Methode erfordert keine langwierigen Simulationen und liefert, wie in der Arbeit gezeigt wird, zuverlässige Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73451-2_75 d42b398faa956255dced1994912a8e25;de;;;2.4.;;;Schnelle enzymkinetische Assays von Individuen Techniken zur Durchführung zahlreicher enzymkinetischer Assays mit minimalem Zeit- und Arbeitsaufwand wären wertvoll für Studien der evolutionären Genetik der Stoffwechselkontrolle und der quantitativen Genetik von Determinanten kinetischer Parameter. Mikrotiterplattenlesegeräte wurden für eine Vielzahl sich wiederholender analytischer Techniken verwendet, und es sind Instrumente verfügbar, die wiederholte Messungen mit ausreichender Geschwindigkeit durchführen können, um kinetische Assays durchzuführen. Die Fähigkeit dieser Instrumente, die kinetischen Eigenschaften kleiner Proben schnell zu untersuchen, macht sie potenziell nützlich für eine Reihe von Problemen in der Populationsgenetik. Während die Fähigkeit, eine große Anzahl von Proben zu handhaben, sehr attraktiv ist, führen die kleinen Probenvolumina und die optische Ungenauigkeit von Mikrotiterplatten zu einem gewissen Genauigkeitsverlust. In diesem Artikel werden Methoden zur Durchführung kinetischer Assays an einzelnen Feld-;-;-;-;https://link.springer.com/article/10.1007/BF00554162 275704ca4afa6fc2b7b78507270e29c7;de;;;2.4.;;;Le Programm SOPHOCLE Inzwischen werden in LAAS neue technische Lösungen erforscht: aktive Kühlung, Verwendung von Siliziumzellen mit höherem Wirkungsgrad, Verwendung von Tandem-AsGa/Si-Zellen hinter einem dichroitischen Spiegel. Das SOPHOCLE-Programm ist Teil eines größeren Interesses des CNRS an der Entwicklung von konzentrierenden Systemen und hocheffizienten Solarzellen (AsGa, Tandemmontage, Multispektralzellen), die von diesen Systemen verwendet werden sollen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-8423-3_55 0067ee86799050db1759df35559cbad8;de;;;5.3.;;;Ein von emotionalem Verhalten inspiriertes Ereignis-Antwort-Modell Bei den meisten Versuchen, ein System mit Emotionen zu definieren, haben Forscher versucht, menschliche Emotionen in sie einzubeziehen. In diesem Artikel wird das menschliche emotionale Verhalten in einer größeren Perspektive der Problemlösung untersucht. Die Ähnlichkeit zwischen Reflexaktion, emotionalem Verhalten und gesundem Menschenverstand wird beobachtet. Basierend auf diesen Beobachtungen wird ein Ereignis-Antwort-Modell für künstliche Systeme eingeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23605-1_12 fa66012d9c987b136770d931c7561827;de;;;5.3.;;;Vage räumliche Datentypen, Mengenoperationen und Prädikate Viele geographische Anwendungen befassen sich mit räumlichen Objekten, die aufgrund ihrer an sich unbestimmten und vagen Natur nicht angemessen durch bestimmte, klare Konzepte beschrieben werden können. Heutige geographische Informationssysteme und räumliche Datenbanksysteme sind mit dieser Art von Daten nicht gewachsen. Um solche Daten und Anwendungen zu unterstützen, führen wir;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30204-9_26 e296a88d1751d0d92b10caf1d896829b;de;;;5.3.;;;Gerüstbau Poesie-Lektionen mit Desktop Virtual Reality In diesem Beitrag wird die Entwicklung eines Kursmaterials diskutiert, das in der Lage ist, attraktiven und qualitativ hochwertigen Unterricht für das Erlernen von Poesie für Schüler der Klasse 1 zu ermöglichen, basierend auf der Technologie der Computergrafik. Der Bedarf an der Entwicklung der Kursunterlagen basiert auf einer 2006 durchgeführten Umfrage, bei der die englische Sprache damals ein nationales Thema war. Daraus entstand die Idee, vier Lernmodule zu entwickeln, die in Form einer interaktiven virtuellen Umgebung namens Interactive 3D Poem (I3DP) präsentiert werden. Um diese Kursunterlagen nutzergerecht zu machen, wurden mehrere Schritte unternommen, die mit der Identifizierung geeigneter Lerntheorien, die bei der Gestaltung der Wissenspräsentation helfen könnten, der Sammlung von Medienressourcen zu den Inhalten und der Entwicklung des Prototyps der Kursunterlagen begannen. In diesem Beitrag wird auch die Konstruktion seiner Kernkomponenten des Unterrichts erörtert, die in der Lage ist, die Selbständigkeit und Eigenständigkeit der Schüler zu erhöhen und auch das Interesse der Schüler am Lernen von Gedichten zu steigern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25200-6_22 99e62077d298c3b0a903f705f80956d3;de;;;5.3.;;;Erfahrungsorientiertes kollaboratives Lernen und bevorzugtes Denken Der Beitrag stellt einen projektbasierten Lernansatz (kurz PBL) in einer kollaborativen Bildungsumgebung vor, der darauf abzielt, die Gestaltungsfähigkeit und Kreativität von Studenten aus verschiedenen Ingenieurdisziplinen zu entwickeln. Es wurden drei kollaborative Lernerfahrungen im Produktdesign durchgeführt, um deren Auswirkungen auf die bevorzugten Denkweisen der Schüler zu untersuchen. Unter Verwendung eines Denkstilinventars wurden Daten vor und nach der Befragung gesammelt und sukzessive durch ANOVA-Techniken analysiert. Statistisch signifikante Ergebnisse zeigten, dass die Schüler erfolgreich Empathie und Offenheit für mehrere Perspektiven entwickelten. Darüber hinaus bestätigt die Datenanalyse, dass die vorgeschlagene kollaborative Lernerfahrung positiv dazu beiträgt, das Bewusstsein für den Denkstil der Schüler zu erhöhen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13166-0_33 66a2d45292183e26146e545455c30242;de;;;5.3.;;;Echtzeit-Schätzung der Kopfhaltung durch Verfolgung und Erkennung von Schlüsselpunkten und Gesichtsmerkmalen Wir stellen ein neuartiges Fusions-Framework für die Echtzeit-Kopfhaltungsschätzung unter Verwendung eines maßgeschneiderten Kalman-Filters vor. Dieser Ansatz schätzt die Pose aus Intensitätsbildern in monokularen Videodaten. Das Verfahren ist robust gegenüber extremen Kopfdrehungen und variierender Beleuchtung und mit Echtzeitfähigkeit. Unser Framework integriert die Kopfpose, die aus einem schlüsselpunktbasierten Tracking-Schema berechnet wurde, in den Vorhersageschritt des Kalman-Filters und die Kopfpose, die aus einem Gesichts-Wahrzeichen-basierten Erkennungsschema berechnet wurde, in den Korrekturschritt. Die Kopfpose aus dem Tracking-Schema wird aus 2D-Schlüsselpunkten geschätzt, die in zwei aufeinanderfolgenden Frames im Bereich des Kopfes verfolgt werden, und ihrer 3D-Projektion auf ein einfaches geometrisches Modell. Im Gegensatz dazu wird die Kopfpose aus dem Erfassungsschema aus 2D-Gesichtskennzeichen geschätzt, die in jedem Frame erfasst werden, und deren 3D-Entsprechungen, die durch Triangulation abgerufen werden. In jedem Schema resultiert die Kopfpose aus der Minimierung des Reprojektionsfehlers aus den 3D-2D-Korrespondenzen. In jeder Iteration aktualisieren wir die Zustandsübergangsmatrix des Filters und anschließend die geschätzte Kovarianz. Wir haben unseren Ansatz an einem öffentlich zugänglichen Datensatz evaluiert und mit verwandten Methoden des Standes der Technik verglichen. Unser Ansatz könnte eine ähnliche Leistung in Bezug auf den mittleren durchschnittlichen Fehler erzielen, während er in Echtzeit arbeitet. Darüber hinaus haben wir unsere Methode an unserem eigenen Datensatz getestet, um ihre Leistung bei großen Kopfdrehungen zu bewerten. Auch bei teilweise verdeckten Gesichtsmerkmalen zeigen wir gute Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-26756-8_16 4ccdda86b65b28d2ca994488ecac2005;de;;;5.3.;;;Lokale Autokorrelationen mit Gradienten und Extreme Learning Machine für die tiefenbasierte Aktivitätserkennung In diesem Beitrag wird eine neue Methode zur Erkennung menschlicher Aktivitäten mit Tiefensequenzen vorgestellt. Jede Tiefensequenz wird durch drei Tiefenbewegungskarten (DMMs) aus drei Projektionsansichten (vorne, seitlich und oben) dargestellt, um Bewegungshinweise zu erfassen. Ein Merkmalsextraktionsverfahren, das räumliche und orientierungsbezogene Autokorrelationen von lokalen Bildgradienten verwendet, wird eingeführt, um Merkmale aus DMMs zu extrahieren. Das Gradienten-Lokal-Autokorrelations(GLAC)-Verfahren verwendet Statistiken zweiter Ordnung (dh Autokorrelationen), um umfangreichere Informationen aus Bildern zu erfassen als die histogrammbasierten Verfahren (z ). Basierend auf der extremen Lernmaschine wird ein Fusionsframework vorgeschlagen, das die Fusion auf Funktionsebene in die Fusion auf Entscheidungsebene einbezieht, um die GLAC-Funktionen von DMMs effektiv zu kombinieren. Experimente mit den Datensätzen MSRAction3D und MSRGesture3D demonstrieren die Wirksamkeit des vorgeschlagenen Aktivitätserkennungsalgorithmus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27857-5_55 7d8da0c4d7c6a39588c05af71cc80e17;de;;;2.4.;;;Probleme in der zwischenmenschlichen Kompetenzforschung Der Zweck dieses Kapitels besteht darin, einige kritische Fragen zu untersuchen, die für das Studium der zwischenmenschlichen Kompetenz relevant sind. Diese Fragen spiegeln Kontroversen und Schwierigkeiten unter denen wider, die an der Erforschung zwischenmenschlicher Kompetenz interessiert sind. Unser Ziel ist es nicht, definitive Positionen zu den Themen abzugeben. Stattdessen werden wir einfach hervorheben, was einige dieser Probleme sind. Die Themen sind sowohl konzeptioneller als auch methodischer Natur. Wir glauben, dass sich Forscher mit diesen Fragen befassen müssen, um die Validität und Kohärenz der interpersonellen Kompetenzforschung zu maximieren. Zu den Themen, die wir überprüfen werden, gehören die folgenden: (1) Ist zwischenmenschliche Kompetenz ein Merkmal oder ein Zustand? Welche Implikationen hat die Konzeptualisierung von Kompetenz als dispositionell oder situativ? (2) Sollte die zwischenmenschliche Kompetenz durch Selbstbericht, Partnerbericht oder Verhaltensbeobachtung durch Dritte beurteilt werden? (3) Was ist der Unterschied zwischen persönlicher und Beziehungskompetenz? Wie kann die Dyade als Analyseeinheit eingebunden werden, um Beziehungskompetenz zu erfassen? Wir werden auch kurz auf einige vernachlässigte Messfragen eingehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-3572-9_3 c9cac870dd1c05eece64f1568d13e914;de;;;2.4.;;;Elasto-Plastik-Test von Q235-Stahlbiegebalken mit Rissbeständigkeit Mehr als 30 Biegebalken mit rechteckigem Querschnitt und unterschiedlichen Dicken und Höhen wurden aus Q235-Stahl hergestellt. Die Probenabmessungen betrugen etwa 240 mm (Länge) × 60 mm (Höhe) × 70 mm (Dicke). Die Fehler wurden entlang der Mittellinie mit einem Drahtschneider mit Längen im Bereich von 6 bis 35 mm geschnitten. Jede Probe wurde mit Dreipunkt-Biegebelastung getestet und eine Prozesskurve zwischen Belastung und Verschiebung des Belastungspunktes erstellt, um den Bruchvorgang beim Öffnen des Risses zu analysieren. Im Versuchszeitraum wurde eine Verformung in der Nähe des Fertigrisses beobachtet und die Variation der Bruchkenngrößen für verschiedene Größen analysiert. Für ein umfassendes Verständnis des Bruchwiderstandsverhaltens von Kohlenstoffstahl wurden dessen Elastizität und Plastizität durch Bestimmung des Elastizitätsmoduls und der Poissonzahl mit einem optischen Dehnungsmessstreifen ermittelt. Diese Lehre wurde auch für den Belastungstest verwendet. Es wurde festgestellt, dass die Bruchzähigkeit mit den Abmessungen variierte und die Zähigkeit der Elastizitätsgrenzbelastung nahezu konstant war. Aus dem Verhältnis von Risswiderstandsspannungsintensitätsfaktor und Bruchkriterium konnte die Tragfähigkeit des Werkstoffgefüges abgeschätzt werden, die eine gute Übereinstimmung mit den experimentellen Versuchsdaten zeigt.;-;-;-;https://link.springer.com/article/10.1016/S1006-706X%2813%2960197-1 89fc0bf5bdacde8b7c1b77d0506a1c9c;de;;;2.4.;;;Angereicherter Erkennungs- und Überwachungsalgorithmus für private Cloud-Rechenzentren Im privaten Cloud-Rechenzentrum nahm die Sicherheit eine grundlegende Position ein, da eine umfangreiche Menge an Informationen gespeichert wird, die zwischen verschiedenen Knoten geteilt werden sollen. Andererseits sind die Herausforderungen bei der Erkennung von bewegten Objekten und bewegungsbasierten Teilsequenzen bedeutende Segmente zahlreicher PC-Erscheinungsfunktionen, die die Erkennung von Objekten, die Bewertung von Austausch und die Fertigungsmechanisierung beinhalten. In diesem Beitrag schlagen wir vor, eine herzhafte Erkennung von bewegten Objekten und folgende Berechnungen zu aktualisieren, die sich schnell bewegende Objekte in einer Reihe von Testanwendungen mit konstanten schnellen Bewegungen wie Verkehrsaufklärung usw Mischungsdesign-Hintergrund-Subtraktions-Methodik. Um Rauschen zu entfernen, beschäftigen sich morphologische Prozesse mit der resultierenden Vortäuschung. Der Kalman-Filter wird für die bewegungsbasierte Überwachung verwendet und die erfassten Objektfunktionen führen eine Bewegungssegmentierung mit einem Vordergrunddetektor durch. Letztendlich erkennt die Blob-Analyse Cluster von zugehörigen Bildelementen, von denen bekannt ist, dass sie sich bewegende Objekte sind, und die Werte werden in einem privaten Cloud-Rechenzentrum gespeichert.;-;-;-;https://link.springer.com/article/10.1007/s00500-021-05967-z 3c45ee254835fd4ffd9ff4051cc943ba;de;;;5.3.;;;Aufbau autonomer Sozialpartner für autistische Kinder Wir stellen das Design und die Implementierung eines autonomen virtuellen Agenten vor, der als glaubwürdiger Sozialpartner für Kinder mit Autismus-Spektrum-Bedingungen auftritt und sie beim Erwerb sozialer Kommunikationsfähigkeiten unterstützt. Das Design des Agenten basiert auf den Prinzipien der besten Autismus-Praxis und dem Input von Benutzern. Erste experimentelle Ergebnisse zur Wirksamkeit des Mittels zeigen bei einer Reihe von Kindern ermutigende Tendenzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33197-8_5 8cc0255e10c1650e28262d6e13fb2c11;de;;;5.3.;;;Echtzeit-Gangerkennungssystem basierend auf der Kinect-Skelett-Funktion Die Gangerkennung ist eine Art biometrische Merkmalserkennungstechnik, die die Haltung des Gehens nutzt, um die Identität zu erkennen. Im Allgemeinen analysieren die Leute die normalen Videodaten, um die Gangfunktion zu extrahieren. Heutzutage nutzen einige Forscher Kinect, um die Tiefeninformationen oder die Position von Gelenken zur Erkennung zu erhalten. Dieses Papier konzentriert sich hauptsächlich auf die Länge von Knochen, nämlich auf statische Merkmale, und auf die Winkel von Gelenken, nämlich auf dynamische Merkmale, die auf Kinect-Skelettinformationen basieren. Nach der Vorverarbeitung haben wir die beiden Arten von Feature-Vorlagen in einer Datenbank gespeichert, die wir für das System eingerichtet haben. Für das statische Feature berechnen wir die Distanz mit der euklidischen Distanz, und wir haben die Distanz im dynamischen Time-Warping-Algorithmus (DTW) für die dynamische Distanz berechnet. Wir machen eine Feature-Fusion für den Abstand zwischen Statischem und Dynamischem. Schließlich haben wir den Klassifikator des nächsten Nachbarn (NN) verwendet, um die Klassifizierung abzuschließen, und wir haben ein Echtzeit-Erkennungssystem und ein gutes Erkennungsergebnis erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16628-5_4 062b9b6749ce471935d3de21821729fd;de;;;5.3.;;;Können adaptive Systeme an ihrem Design teilnehmen? Metaadaptivität und die Evolution des adaptiven Verhaltens In diesem Beitrag werden die Chancen diskutiert, die sich aus dem Einsatz von Metaadaptivität als Instrument zur Erleichterung der Gestaltung von Anpassung ergeben. Die Diskussion ist um ein spezifisches Beispielproblem im Bereich adaptiver Kursbereitstellungssysteme herum strukturiert. Der Artikel baut auf diesem Beispiel auf, um zu argumentieren, dass Meta-Anpassung eine praktikable Lösung für das „grundlegende“ Design adaptiver Systeme ist und besonders für Fälle geeignet sein kann, in denen es wenig empirisch validierte Beweise zur Unterstützung von Designentscheidungen gibt.;-;-;-;https://link.springer.com/chapter/10.1007/11768012_39 208a753d9423b45e3e05724d637c6cd4;de;;;5.3.;;;Haptische Kommunikationswerkzeuge für die kollaborative Deformation von Molekülen Mehrere frühere Studien haben kollaborative Ansätze zur Verarbeitung komplexer Umgebungen untersucht. Neben der Verbesserung der Leistung und Arbeitseffizienz haben diese Studien zwei wichtige Einschränkungen aufgezeigt, die die Effizienz dieser Ansätze einschränken. Erstens soziales Faulenzen, das mit der Redundanz von Rollen in derselben Gruppe verbunden ist. Zweitens Koordinationskonflikte, die mit den Grenzen der Kommunikation in Standard-Kollaborationsumgebungen verbunden sind. Dieses Papier befasst sich mit diesen Problemen, indem eine effiziente Gruppenstruktur bereitgestellt wird, um das soziale Faulenzen zu überwinden, das dann mit haptischen Metaphern gekoppelt wird, um die Kommunikation zwischen den Partnern zu verbessern. Die experimentelle Studie, die im Rahmen des molekularen Dockings durchgeführt wurde, zeigt eine Verbesserung der Gruppeneffizienz sowie der Kommunikation zwischen den Partnern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31401-8_46 e92db3ee0ba8c755fa244f74ef2b6177;de;;;5.3.;;;Sprachtrainingssystem für Hörgeschädigte basierend auf automatischer Lippenleseerkennung Der Einsatz automatischer Lippenerkennungstechnologie zur Förderung der sozialen Interaktion und Integration von Hörgeschädigten und Dysphonikern ist eine der vielversprechenden Anwendungen der künstlichen Intelligenz im Gesundheitswesen und in der Rehabilitation. Aufgrund ungenauer Mundformen und unklarer Gesichtsausdrücke können hörgeschädigte Personen und Menschen mit Dysphonie nicht wie normale Menschen kommunizieren. In diesem Beitrag wird ein Sprachtrainingssystem für Hörgeschädigte und Dysphoniker unter Verwendung modernster automatischer Lippenlesetechnologie konstruiert, die ein Convolutional Neural Network (CNN) und ein Recurrent Neural Network (RNN) kombiniert. Wir trainieren ihre Sprechfähigkeit, indem wir unterschiedliche Mundformen zwischen Hörgeschädigten und normalen Menschen vergleichen. Das Sprachtrainingssystem lässt sich in vier Teile unterteilen. Zunächst erstellen wir eine Sprachtrainingsdatenbank, die Mundformen normaler Menschen und entsprechendes Gebärdensprachvokabular speichert. Zweitens implementiert das System automatisches Lippenlesen durch ein hybrides neuronales Netzwerk des MobileNet und des Long-Short-Term Memory Networks (LSTM). Drittens findet das System die richtige Lippenform, die dem Gebärdensprachvokabular aus der Sprachtrainingsdatenbank entspricht, und vergleicht das Ergebnis mit den Lippenformen von hörgeschädigten Personen. Schließlich zeichnet das System Vergleichsdaten und Ähnlichkeitsraten basierend auf der Größe der Lippen von hörgeschädigten Personen, dem Öffnungswinkel der Lippen und den Unterschieden zwischen verschiedenen Lippenformen. Geben Sie Hörgeschädigten eine Standard-Lippenlesesequenz für ihr Lernen und Training. Als Ergebnis können Hörgeschädigte und Dysphoniker ihre Stimmlippenformen basierend auf den Vergleichsergebnissen analysieren und korrigieren. Sie können selbstständig trainieren, um ihre Mundform zu verbessern. Außerdem kann das System hörgeschädigten Menschen helfen, mithilfe von medizinischen Geräten wie Cochlea-Implantaten die richtige Aussprache zu lernen. Experimente zeigen, dass das auf der automatischen Lippenleseerkennung basierende Sprachtrainingssystem die Lippenform von Hörgeschädigten während des Sprechens effektiv korrigieren und ihre Sprechfähigkeit ohne fremde Hilfe verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-51369-6_34 b51fe0ef7c0f8577052efc6e31dfd892;de;;;5.3.;;;Ein Delaunay-basiertes zeitliches Kodierungsmodell für die Erkennung von Mikroausdrücken Die Erkennung von Mikroausdrücken ist aufgrund ihrer Kürze und Feinheit ein schwieriges Problem in der Computervisionsforschung. Frühere psychologische Studien zeigen, dass auch der Mensch Mikroausdrücke nur mit geringen durchschnittlichen Erkennungsraten erkennen kann. In diesem Papier schlagen wir eine effektive und effiziente Methode vor, um die Mikroausdrücke für die Erkennung zu codieren. Das vorgeschlagene Verfahren, das als Delaunay-basiertes temporales Codierungsmodell (DTCM) bezeichnet wird, codiert Texturvariationen, die Muskelaktivitäten im Gesicht aufgrund dynamischer Mikroausdrücke entsprechen. Bildsequenzen von Mikroausdrücken werden auf Basis der Delaunay-Triangulation nicht nur zeitlich, sondern auch räumlich normiert, so dass der für Mikroausdrücke irrelevante Einfluss des persönlichen Erscheinungsbildes unterdrückt werden kann. Die Kodierung zeitlicher Variationen in lokalen Unterregionen und die Auswahl räumlich hervorstechender Unterregionen im Gesichtsbereich erhöht die Fähigkeit unserer Methode, raumzeitlich wichtige Merkmale in Bezug auf die interessierenden Mikroausdrücke zu lokalisieren. Umfangreiche Experimente mit öffentlich verfügbaren Datensätzen, darunter SMIC, CASME und CASME II, bestätigten die Wirksamkeit des vorgeschlagenen Modells.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16631-5_51 351b34594741507009839ff06db0efcc;de;;;5.3.;;;U-BASE: Allgemeine Bayessche netzwerkgesteuerte Kontextvorhersage zur Entscheidungsunterstützung Wir schlagen einen neuen Typ eines allgegenwärtigen Entscheidungsunterstützungssystems vor, das von einem General Bayesian Network (GBN) angetrieben wird. Da komplizierte Entscheidungsunterstützungsprobleme bei der Interpretation kausaler Beziehungen zwischen Entscheidungsvariablen von Komplexität geplagt werden, haben GBNs aufgrund ihrer flexiblen Struktur eine ausgezeichnete Entscheidungsunterstützungskompetenz gezeigt, die es ihnen ermöglicht, geeignete und robuste kausale Beziehungen zwischen Zielvariablen und zugehörigen erklärenden Variablen zu extrahieren. Das Potenzial von GBNs wurde jedoch im Bereich der ubiquitären Entscheidungsunterstützung nicht ausreichend untersucht. Daher schlagen wir einen neuen Typ eines allgegenwärtigen Entscheidungsunterstützungsmechanismus namens U-BASE vor, der eine GBN zur Kontextvorhersage verwendet, um die Entscheidungsunterstützung zu verbessern. Um die Gültigkeit des vorgeschlagenen Entscheidungsunterstützungsmechanismus zu veranschaulichen, haben wir eine Reihe von Kontextdaten von College-Studenten gesammelt und U-BASE angewendet, um nützliche und robuste Ergebnisse zu erzielen. Die praktischen Implikationen werden ausführlich diskutiert und Fragen für zukünftige Studien werden vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16699-0_8 79d8f40f01b2af2d4419634301c15f42;de;;;5.3.;;;Ein Rahmen für die Rechtevergabe in sozialen Online-Netzwerken Die Zugriffssteuerung ist der Prozess, bei dem autorisierten Benutzern Berechtigungen für Ressourcen erteilt werden. Zugangskontrollmodelle berücksichtigen Anwendungsanforderungen in ihrem Design und entwickeln sich mit den Anwendungen weiter. Der Aufstieg sozialer Online-Netzwerke (OSN) wie Facebook hat neue soziale Anforderungen an den Datenschutz der Benutzerdaten gestellt. Dies liegt teilweise an der sozialen Struktur der Benutzer und teilweise an der Komplexität von OSN, bei der Millionen von Benutzern miteinander interagieren. Derzeit gibt es einige Zugriffskontrollmodelle für OSN, aber es fehlt ein systematisches Schema zur Zuweisung und Neuzuweisung von Rechten an sozialen Objekten und Entitäten. Dieses Papier präsentiert ein Rechtevergabe-Framework basierend auf den Eigenschaften der Rechtevergabe in OSN und stellt einen Reduktionsbaum bereit, um das Modell basierend auf diesen Eigenschaften zu entwerfen. Der vorgeschlagene Rahmen erweitert die Verfügbarkeit von Rechten und kann als Grundlage für verschiedene Rechtevergabemodelle in sozialen Online-Netzwerken verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35076-4_1 c62cd4bec4d6d9fc170f0a9dd7dd2071;de;;;5.3.;;;Grundlegende Studie zur menschlichen Gehirnaktivität basierend auf der räumlichen kognitiven Aufgabe In letzter Zeit besteht ein dringender Bedarf, ein neues System zu entwickeln, das das Autofahren und den Rollstuhl für ältere Menschen unterstützt und wirkt, wenn die Bevölkerung älter wird. Im Hinblick auf die Entwicklung eines neuen Systems ist die Untersuchung der räumlichen Erkennung durch den Menschen wichtige Implikationen. Dabei achten wir auf Richtungsbestimmung sowie räumliche, insbesondere linke und rechte Wahrnehmungen. Das letzte Ziel unserer Forschung zur Messung der Hirnaktivität ist es, zur Entwicklung neuer Schnittstellen mit Funktionen beizutragen, die wie der Mensch reagieren. Daher haben wir Experimente zur Untersuchung der menschlichen räumlichen Wahrnehmung durchgeführt, indem wir den Blutfluss im Gehirn gemessen haben, wenn Probanden Fahraufgaben ausführen. In einem virtuellen Experiment mit Fahrfilmen haben wir die Gehirnaktivität gemessen, wenn den Probanden T-Kreuzungen in Fahrfilmen gezeigt wurden. In dieser Zeit führten wir ein Experiment durch, bei dem die Gehirnaktivitäten während des tatsächlichen Autofahrens gemessen wurden. Über diese Analyse- und Vergleichsergebnisse zwischen virtuellem und tatsächlichem werden wir berichten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23605-1_23 c54e09837784adaf2f54a82725b9ac48;de;;;5.3.;;;Entwerfen einer Learning Analytics-Anwendung zur Verbesserung des Lernerfolgs in Interaktionen basierend auf multimodalen Dialogsystemen Lernprozesse, die durch multimodale Interaktionssysteme unterstützt werden, erfordern wirksame Instrumente, um die Leistung der Lernenden zu messen und den Interessengruppen aussagekräftiges Feedback zu geben. In diesem Papier werden die wichtigsten Funktionen überprüft und die Implementierung eines Lernanalysetools diskutiert, das Teil eines multimodalen E-Learning-Dialogsystems ist, das wiederum Teil einer immersiven Umgebung zur Unterstützung verschiedener Lernszenarien ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-41769-1_14 4e4e100d8bfd21e89153f0488db51aff;de;;;5.3.;;;Wahrnehmbar robuste Verkehrssteuerung in verteilten haptischen virtuellen Umgebungen In diesem Papier stellen wir ein Verkehrssteuerungsschema für die Server-zu-Client-Kommunikation in verteilten haptischen virtuellen Umgebungen (VE) vor. Wir verwenden eine Client-Server-Architektur, bei der der Server die Zustandskonsistenz der verteilten VE verwaltet, während haptisches Feedback lokal bei jedem Client berechnet wird. Die Aktualisierungsrate des Netzwerkverkehrs vom Server zum Client wird dynamisch angepasst, indem Eigenschaften und Einschränkungen der menschlichen haptischen Wahrnehmung ausgenutzt werden. Damit wird ein ausgezeichneter Kompromiss zwischen Netzwerkkommunikationseffizienz und wahrnehmungsrobuster Wiedergabe von haptischem Feedback erreicht. Subjektive Tests mit zwei Benutzern, die kollaborativ ein gemeinsames Objekt manipulieren, zeigen eine Paketratenreduzierung von bis zu 99% vom Server zu den Clients, ohne die haptische Feedbackqualität zu beeinträchtigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31401-8_42 8095446edc6802dc525d4b24f3e82864;de;;;5.3.;;;Automatisches Analysesystem für das Spielerverhalten, das Flugbahndaten in einem massiven Multiplayer-Onlinespiel verwendet In diesem Artikel wird ein neues automatisiertes Verhaltensanalysesystem vorgestellt, das eine Trajektorien-Clustering-Methode für Massive Multiplayer Online Games (MMOGs) verwendet. Die Beschreibung des Spielerverhaltens ist eine nützliche Information in der MMOG-Entwicklung, aber die Überwachungs- und Bewertungskosten des Spielerverhaltens sind teuer. In diesem Beitrag schlagen wir ein automatisiertes Verhaltensanalysesystem vor, das einfache Trajektoriendaten mit geringen Überwachungs- und Bewertungskosten verwendet. Wir haben zuerst die hierarchische Klassifizierung verwendet und dann einen erweiterten dichtebasierten Clustering-Algorithmus für die Verhaltensanalyse angewendet. Wir zeigen die Nützlichkeit unseres Systems anhand von Flugbahndaten aus dem kommerziellen MMOG World of Warcraft (WOW). Die Ergebnisse zeigen, dass das vorgeschlagene System das Spielerverhalten analysieren und aus einfachen Flugbahndaten automatisch Erkenntnisse über die Erfahrung der Spieler gewinnen kann.;-;-;-;https://link.springer.com/article/10.1007/s11042-012-1052-x 8dcdcd4ffb2219be7d93260b758bb2a8;de;;;5.3.;;;Ein auditives Feedback-basiertes System zur Behandlung von Autismus-Spektrum-Störungen Es wird ein System zur Echtzeit-Gestenverfolgung vorgestellt, das bei Aktivitäten zur aktiven Selbstbewertung des Wohlbefindens und insbesondere im medizinischen Coaching und in der Musiktherapie eingesetzt wird. Das System besteht aus einer gestischen Schnittstelle und einem Computer mit eigener (kundenspezifischer) Software. Während der Testsitzungen bewegt eine Person ihren Körper frei in einem speziell gestalteten Raum. Die Algorithmen erkennen und extrapolieren Merkmale der menschlichen Figur, wie z. B. die räumliche Position, die Winkel von Armen und Beinen usw. Ein Bediener kann diese Merkmale mit in Echtzeit synthetisierten Klängen nach einem vordefinierten Schema verknüpfen. Die erweiterte Interaktion mit der Umwelt trägt dazu bei, den Kontakt mit der Realität bei Personen mit Autismus-Spektrum-Störungen (ASS) zu verbessern. Das System wurde an einer Reihe junger Probanden getestet und ein Team von Psychologen hat die Ergebnisse dieser Experimente analysiert. Darüber hinaus haben wir eine Heimversion des Systems entwickelt, die ohne Bediener verwendet werden kann, um die erzielten Vorteile zu erhalten. Dieses Papier ist eine erweiterte Version des auf der REHAB 2015 vorgestellten Papiers [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-69694-2_5 bcc6ea7e8775522ca4f320b501e8d20c;de;;;5.3.;;;Zur klassifikationsbasierten Erkennung menschlicher Aktivitäten in Videosequenzen Das Erkennen menschlicher Aktivitäten ist ein wichtiger Bestandteil eines kontextbewussten Systems. In diesem Beitrag schlagen wir einen klassifikationsbasierten Ansatz zur Erkennung menschlicher Aktivitäten vor. Dieser Ansatz erkennt verschiedene menschliche Aktivitäten basierend auf einem lokalen Formmerkmalsdeskriptor und einem Musterklassifizierer. Wir haben einen neuartigen lokalen Formmerkmalsdeskriptor verwendet, der die Integration von zentralen Momenten und lokalen binären Mustern ist. Der verwendete Klassifikator ist eine flexible binäre Support-Vektor-Maschine. Experimentelle Auswertungen wurden mit Standard-Aktivitätsvideodatensätzen von Weizmann durchgeführt. Für die Bewertung der vorgeschlagenen Methode wurden sechs verschiedene Aktivitäten in Betracht gezogen. Zwei Aktivitäten wurden gleichzeitig mit binärem Klassifikator ausgewählt. Dies sind Walk-Run, Bend-Jump und Jack-Skip-Paare. Experimentelle Ergebnisse und Vergleiche mit anderen Methoden zeigen, dass die vorgeschlagene Methode gut funktioniert und in der Lage ist, sechs verschiedene menschliche Aktivitäten in Videos zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-05939-6_21 feb44bfd0158515978894fd4e8837288;de;;;5.3.;;;Einige Ideen für eine kollaborative Suche nach dem optimalen Lernpfad Eine der Herausforderungen von adaptiven hypermedialen Bildungssystemen (AHE) besteht darin, die Reihenfolge der Lerneinheiten, die dem Schüler präsentiert werden, anzupassen. Ein Ansatz besteht darin, die Menge möglicher Sequenzen mit einem Graphen zu modellieren, aber der Prozess des Entwerfens und Pflegens des Graphen kann mühsam und fehleranfällig sein. Dieses Papier präsentiert einige Ideen, um dies zu überwinden, inspiriert von Techniken der Schwarmintelligenz. Eventuell auftretende Probleme sowie mögliche Lösungen werden vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/11768012_64 e3b0d4a3eb03cfc8af36c5ba59f33bcc;de;;;5.3.;;;Den Schwerpunkt des IDA-Symposiums ändern Die Reihe des IDA-Symposiums hatte sich zu einem Treffen entwickelt, das sich offenbar mit routinemäßigem Data-Mining beschäftigte. Dieser Bericht beschreibt unsere Versuche, das neunte IDA-Symposium neu auf Ziele auszurichten, die aus der Entstehung der Reihe abgeleitet wurden. Zu diesen Versuchen gehörten ein dramatisch modifizierter Call for Papers und ein drastisch verändertes Überprüfungsverfahren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13062-5_1 963ccb530d3b2043a1ce269befcfe303;de;;;5.3.;;;Berührungslose Methode zur Erzeugung taktiler Empfindungen mit Luftultraschall Dieses Papier beschreibt ein neues taktiles Gerät, das Spannungsfelder im 3D-Raum erzeugt. In Kombination mit stereoskopischen 3D-Displays soll dieses Gerät ein taktiles Feedback für die Interaktion mit visuellen 3D-Objekten liefern. Das Prinzip basiert auf einem nichtlinearen Phänomen des Ultraschalls, des Schallstrahlungsdrucks. Wir haben ein Prototypgerät hergestellt, um die Machbarkeit als taktiles Display zu bestätigen. Der Prototyp besteht aus 91 luftgestützten Ultraschallwandlern, die in einer hexagonalen Anordnung verpackt sind, einer 12-Kanal-Treiberschaltung und einem PC. Die Wandler, die sich im gleichen Abstand von der Mitte des Wandlerarrays befanden, wurden verbunden, um ein ringförmiges 12-Kanal-Array zu bilden. Die gemessene Gesamtausgangskraft innerhalb des Fokusbereichs betrug 0,8 gf. Die räumliche Auflösung betrug 20 mm. Der Prototyp konnte ausreichende Schwingungen bis zu 1 kHz erzeugen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69057-3_64 57fcde672087b5f1f5723ab0f14ee495;de;;;5.3.;;;Eine vergleichende Studie zur Generierung von Compound Critique in Gesprächsempfehlungssystemen Kritiktechniken bieten Benutzern eine einfache Möglichkeit, ihre Präferenzen zu einem oder mehreren Attributen der Produkte in einem dialogorientierten Empfehlungssystem zu bewerten. Während Einheitskritiken es Benutzern nur ermöglichen, jedes Mal ein Attribut der Produkte zu kritisieren, ermöglicht ein gut generierter Satz zusammengesetzter Kritiken Benutzern, ihre Präferenzen zu mehreren Attributen gleichzeitig einzugeben, und kann möglicherweise die Interaktionszyklen beim Auffinden der Zielprodukte verkürzen . Als Ergebnis ist die dynamische Generierung von zusammengesetzten Kritiken ein kritischer Punkt für die Gestaltung der auf Kritik basierenden Konversationsempfehlungssysteme. In früheren Forschungen wurde der Apriori-Algorithmus verwendet, um zusammengesetzte Kritiken aus dem gegebenen Datensatz zu generieren. In diesem Beitrag schlagen wir einen alternativen Ansatz zur Generierung zusammengesetzter Kritiken basierend auf der Multi-Attribute Utility Theory (MAUT) vor. Unser Ansatz aktualisiert automatisch die Gewichte der Produktattribute als Ergebnis des interaktiven Kritikprozesses. Diese Änderung der Gewichte wird dann verwendet, um die zusammengesetzten Kritiken nach den Produkten mit den höchsten Gebrauchswerten zu bestimmen. Unsere Experimente zeigen, dass die durch diesen Ansatz generierten zusammengesetzten Kritiken den Benutzern beim Finden ihrer Zielprodukte effizienter sind als die durch den Apriori-Algorithmus generierten.;-;-;-;https://link.springer.com/chapter/10.1007/11768012_25 839a4dd981f675d621fb5670746a659d;de;;;5.3.;;;Verwenden der kollaborativen Diskurstheorie zur teilweisen Automatisierung der Erstellung von Dialogbäumen Wir haben eine neuartige Methodik entwickelt, die hierarchische Aufgabennetzwerke mit traditionellen Dialogbäumen kombiniert, die sowohl die Dialogerstellung teilweise automatisiert als auch den Grad der Wiederverwendung von Dialogstrukturen verbessert. Der Schlüssel zu dieser Methodik ist eine leichtgewichtige Äußerungssemantik, die aus der kollaborativen Diskurstheorie abgeleitet ist, was sie zu einem Schritt in Richtung Dialoggenerierung auf der Grundlage kognitiver Modelle anstelle von manueller Erstellung macht. Wir haben ein Open-Source-Tool namens Disco for Games (D4g) implementiert, um die Methodik zu unterstützen und ein vollständig ausgearbeitetes Beispiel für die Verwendung dieses Tools zur Generierung eines Dialogs über Baseball zu präsentieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33197-8_34 32546a16c3ee9951afb92ab20978d7cc;de;;;5.3.;;;Qualitative umfragebasierte Inhaltsanalyse und Validierung von Kennzahlen der Softwareentwicklungsteamleistung Die Leistungsmessung von Softwareentwicklungsteams ist ein schwer fassbares und komplexes Thema. Viele IT-Organisationen haben versucht, ihre eigenen Maßnahmen zu entwickeln, ohne sich auf Zuverlässigkeit und Gültigkeit zu konzentrieren. Es gibt noch keine allgemein akzeptierte Skala zur Messung der Leistung von Softwareentwicklungsteams (SDTP). Eine Untersuchung verfügbarer Messmodelle der Teamleistung/Teameffektivität wirft Lücken auf, die eine Identifizierung und Synchronisation von Dimensionen erfordern. Basierend auf Expertenbefragungen versucht dieses Papier, eine Reihe von inhaltsvalidierten Dimensionen von SDTP zu identifizieren und in die engere Wahl zu ziehen. Zuerst wurde das SPSS Text Analysis-Paket verwendet, um die Textantworten von 94 Branchenexperten auf einen offenen qualitativen Umfragefragebogen zu analysieren, was zur Extraktion, Kategorisierung und Auswahl von 34 SDTP-Messungen führte. Dann folgte eine weitere Runde einer Expertenumfrage (N=30), die zu einem destillierten Satz von 20 inhaltsvalidierten SDTP-Messungen auf der Grundlage von Inhaltsvaliditätsverhältnissen führte. Diese Maßnahmenliste soll künftige Forschungen zur Entwicklung im SDTP-Maßstab unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19423-8_31 3462bfa73ef188fa782aca59eb2a4d60;de;;;5.3.;;;Auswirkungen von extrinsischem Feedback in der virtuellen Rehabilitation für Kinder mit Zerebralparese: Eine umfassende systematische Überprüfung Kinder mit Zerebralparese (CP) haben motorische und kognitive Störungen, die es ihnen erschweren, Aktivitäten des täglichen Lebens (ADL) auszuführen. Virtual Rehabilitation (VR) ist eine relativ neue Forschungslinie, die motorische und kognitive Fähigkeiten angeht. Sensorisches Feedback zusammen mit virtuellen Umgebungen (VE) bereichert und verbessert die motorische Kontrolle bei Kindern mit CP. Der Einsatz von VR zusammen mit intrinsischem/extrinsischem Feedback in Interventionsphasen ist eine Ergänzung zu Trainingseinheiten mit klaren und relevanten Ergebnissen. In diesem Papier analysieren wir die Auswirkungen von extrinsischem Feedback zusammen mit virtuellen Systemen bei Kindern mit CP. Von 2008 bis 2018 wurde eine umfassende Literaturrecherche in elektronischen Datenbanken durchgeführt, um Studien zu identifizieren. Als Rahmen diente die systematische Überprüfungsmethodik der American Academy for Cerebral Palsy and Developmental Medicine (AACPDM). Die Ergebnisse zeigen Verbesserungen in Gang, Schrittlänge, Gehgeschwindigkeit und Schrittzeit durch Verwendung von extrinsischem Feedback. Zukünftige Forschung sollte sich auf das Design und die Validierung dieser Systeme mit größeren Gruppen von Kindern mit CP konzentrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-16785-1_1 56fc30f3baabad55a25bfa0f5f3f129a;de;;;5.3.;;;ERiSA: Emotional realistische Social Game-Agents Companions aufbauen Wir schlagen einen integrierten Rahmen für soziale und emotionale Spielagenten vor, um ihre Glaubwürdigkeit und Interaktionsqualität zu verbessern, insbesondere indem sie es einem Agenten ermöglichen, soziale Beziehungen aufzubauen und soziale Signale angemessen zu nutzen. Das Framework ist modular und umfasst Sensorik, Interpretation, Verhaltensgenerierung und Spielkomponenten. Wir schlagen eine generische Formulierung von Handlungsauswahlregeln vor, die auf beobachteten sozialen und emotionalen Signalen, der Persönlichkeit des Agenten und der sozialen Beziehung zwischen Agent und Spieler basieren. Die Regeln sind so formuliert, dass ihre Variablen leicht aus realen Daten gewonnen werden können. Wir illustrieren und bewerten unser Framework mit einem einfachen Social Game namens;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09767-1_16 c40869b8d7b553e97565423467dad484;de;;;5.3.;;;Ein Aktivitätserkennungssystem für umgebungsunterstützte Wohnumgebungen Ambient Assisted Living-Einrichtungen bieten Hilfe und Pflege für ältere Menschen, wobei Rückschlüsse auf ihre tägliche Aktivität für die Gewährleistung ihrer Sicherheit und des erfolgreichen Alterns sinnvoll sind. In dieser Arbeit stellen wir ein Aktivitätserkennungssystem vor, das eine Reihe alltäglicher Aktivitäten klassifiziert, wobei es komfortabel und nicht aufdringlich ist und aus kommerziellen, robusten und bekannten Geräten besteht. Ein Hybridmodell aus Bayesschen Netzwerken und Support-Vektor-Maschinen zur Aktivitätserkennung mit Kalibrierung wird vorgeschlagen, um eine hohe Erkennungsgenauigkeit und schnelle Anpassung für neue Benutzer bereitzustellen. Anhand der von 15 Teilnehmern gesammelten Daten haben wir unseren Ansatz mit anderen zwei Möglichkeiten zum Aufbau von Aktivitätserkennungssystemen verglichen und seine Überlegenheit gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37419-7_12 2945e4a1625cdc1f5ab88236009fe45c;de;;;5.3.;;;Regeln von Videospielen und Kontrollen in digitalen Gesellschaften Regeln in Spielen sind einer der wichtigsten Aspekte zur Charakterisierung von Spielen und ermöglichen es den Spielern, vorübergehend in einer virtuellen Welt zu leben, die von der realen Welt getrennt ist. Der Autor hinterfragt, wie sich die Implikation von Regeln in Spielen aufgrund der Transformation ihrer Formen von analog zu digital verändert hat. Darüber hinaus analysiert dieser Artikel Regeln und Kontrollen in modernen technologischen Gesellschaften, indem er sich darauf konzentriert, wie Videospiele konstruiert sind und wie zeitgenössische Spieler sie im digitalen Raum erleben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37983-4_4 672084a71ce0306c0e701eea51c8c56e;de;;;5.3.;;;Auf dem Weg zu einem entwicklungsgetriebenen Softwareprozess für die agentenbasierte Simulation In diesem Beitrag schlagen wir einen Emergenz-getriebenen Softwareprozess für agentenbasierte Simulation vor, der die Rückverfolgbarkeit von Mikro- und Makrobeobachtungen auf Mikro- und Makrospezifikationen in agentenbasierten Modellen verdeutlicht. Wir verwenden das Konzept der Hyperstrukturen [;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36483-8_7 5aabfe76a740cb193df7af2f8b87aba4;de;;;5.3.;;;Temporales Super-Pixel-basiertes Convolutional Neural Network (TS-CNN) zur Erkennung menschlicher Aktivitäten in Videos ohne Einschränkungen Die Erkennung menschlicher Aktivitäten und die Videoanalyse sind ein recht interessantes Feld und für eine Reihe von Forschungsbereichen relevant. Eine Vielzahl von Anwendungen wie (aktive) Videoüberwachungssysteme, Mensch-Computer-Interaktion, medizinische Analyse, Sport-(Video-)Interpretation und Videoabruf für inhaltsbasierte Suchmaschinen hängen von einem umfassenden Videoverständnis ab. Menschliche Handlungen in stark kontrollierten Umgebungen zu bestimmen ist recht einfach und gelöst, jedoch bleibt diese Aufgabe in einer uneingeschränkten Umgebung eine Herausforderung. In diesem Artikel wird ein temporales Superpixel-basiertes Convolutional Neural Network (TS-CNN) vorgeschlagen, um menschliche Aktivitäten zu erkennen, um eine Echtzeitüberwachung von Patienten, Kindern und älteren Personen in einer uneingeschränkten Umgebung zu ermöglichen. Für jedes Videosegment werden zeitliche Superpixel extrahiert und die Ausgabe dieser Pfade wird mit der CNN-Architektur kombiniert, um die menschliche Aktivität korrekt zu erkennen. Die Leistung der vorgeschlagenen Methode (gemessen anhand von Metriken wie Genauigkeit und Konfusionsmatrix) wird mit dem bestehenden Modell verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9181-1_23 93f3215e5f2d3140947ed00277ac624e;de;;;5.3.;;;Entwicklung einer digitalen Vorlagensoftware für den Kniegelenkersatz In dieser Studie haben wir unter Ausnutzung der digitalen Röntgen- und Computertechnologie ein halbautomatisches Verfahren zur Schablonenherstellung von Knieimplantaten unter Verwendung der digitalen Schablonenmethode entwickelt. Mit diesem Ansatz wurde ein Softwaresystem namens OrthoKnee;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05036-7_18 03733d87710efa4310c395badfc4137f;de;;;5.3.;;;Simulationsanalyse für On-Demand-Transportfahrzeuge basierend auf Spieltheorie In diesen Jahren werden On-Demand-Transporte (wie Demand-Bus) als neue Transportsysteme fokussiert. Fahrzeuge in den On-Demand-Transportsystemen müssen in verschiedenen Situationen angemessene Maßnahmen ergreifen, um ihren Gewinn zu steigern. Allerdings ist es in solchen Situationen schwierig, überzeugende Lösungen zu finden, da Unsicherheiten über Kunden und andere Transportmittel bestehen. Daher konzentrieren wir uns in diesem Papier auf zwei Themen: „Wie kontrolliert man das Risiko?“ und „wie kann man mit einem anderen Transportfahrzeug konkurrieren (oder kooperieren)?“. Darüber hinaus zeigen wir die Entscheidungsprozesse für die Transportfahrzeuge auf Basis der Spieltheorie. Die Gewinne für Transportfahrzeuge werden in garantierte und erwartete Belohnungen eingeteilt. Erstere vertritt geplante Kunden im Voraus. Letzteres repräsentiert unbestimmte Kunden. Transportfahrzeuge legen ihre Routen unter Berücksichtigung des Ausgleichs zwischen den Belohnungen (d. Die Transportfahrzeuge werden auf der Grundlage von Risikopolitiken und Transportstrategien in verschiedene Typen eingeteilt. Schließlich berichten wir über Ergebnisse von Simulationsexperimenten.;-;-;-;https://link.springer.com/chapter/10.1007/11779568_15 15b73feb982a30bebb5ba92d670176ed;de;;;5.3.;;;ELEIN: E-Learning mit interaktiven 3D-Emotionalen Agenten Das ELEIN-System erreichte zwei wichtige Themen für e-Learning: die Präsenz virtueller Tutoren und die Bedeutung von Emotionen im Lernprozess. In dieser Forschung beschäftigen wir uns mit der Präsenz durch die Verwendung eines ausdrucksstarken 3D-animierten Avatars. Bei den Emotionen im Lernprozess unterscheiden wir zwischen statischer und dynamischer Emotionsgenerierung. In der Arbeit haben wir speziell auf die Entwicklung der dynamischen Generierung eingegangen, die durch die Implementierung eines computergestützten emotionalen Modells basierend auf der kognitiven Perspektive erreicht wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03364-3_38 0b47225f7529311316ccfaebb9ab6ad5;de;;;5.3.;;;Verstand, die Lücke Um unser wichtigstes Organ, das Gehirn, zu trainieren, sein volles Potenzial auszuschöpfen und für unsere späteren Jahre zu erhalten, braucht es Training. Gibt es eine Lücke in unserer Lernfähigkeit, eine Lücke zwischen dem, was unser Gehirn möglicherweise leisten könnte, und dem, was wir derzeit akzeptieren? Der „Prototyp“ folgt einem ehrgeizigen Informatik-Studenten, der in psychophysiologische Experimente hineingezogen wird, die Gehirntraining untersuchen, einschließlich Bilderkennung, Kognition, unterschwelliger Lieferung und imaginierter Bewegung. Eine solche Technologie hat ein großes Potenzial zur Förderung und Bewertung des Lernens und möglicherweise zur Erforschung von Leistungsstörungen oder dysfunktionalem Lernen. Wie bei jeder Technologie, die den Menschen bereichert, gibt es jedoch ein Potenzial für unbeabsichtigte Nutzung, auf das wir achten sollten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-41769-1_8 1339d40faaf85806f05b4594efaa4c27;de;;;5.3.;;;Kann virtuell echt aussehen? Eine Überprüfung der Techniken des virtuellen Studios Studio Fünf Jahre nach seiner Einführung in die Fernsehwelt hat Virtual Studio bewiesen, dass es erfolgreich eingesetzt werden kann. Immer mehr Sender nutzen diese Technologie auch für komplexe Live-to-Air-Produktionen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4321-9_13 db55638a9aca22a4bf65522cd52948fb;de;;;5.3.;;;Ein neuartiges wortbasiertes arabisches Handschrifterkennungssystem mit SVM-Klassifikator Jede Sprachschrift hat ihre Struktur, Charakteristik und Funktion. Die zeichenbasierte Worterkennung hängt von dem Merkmal ab, das verfügbar ist, um aus dem Zeichen extrahiert zu werden. Wortbasierte Schrifterkennung überwindet das Problem der Zeichensegmentierung und kann für mehrere Sprachen angewendet werden (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20367-1_26 adb00d12c65db5ce34b21727a15f39dd;de;;;5.3.;;;Ein selbstlernendes Anwendungs-Framework zur Unterstützung von Verhaltensänderungen Das Papier analysiert aktuelle Schwächen von Systemen zur Unterstützung von Verhaltensänderungen, wie die mangelnde Berücksichtigung der Heterogenität der Zielnutzer. Basierend auf dieser Analyse präsentiert das Papier ein Anwendungsframework, das verschiedene Komponenten umfasst, um Benutzerpräferenzen zu berücksichtigen und Systemeingriffe an einzelne Benutzer anzupassen: eine Zielhierarchie, die Benutzer auf ihre Bedürfnisse zuschneiden können, die Nudges in verschiedene Typen unterteilt, die Sprechakten, Regeln entsprechen zum kontextspezifischen Auslösen von Nudges. Die Benutzeranpassung wird mit Ansätzen aus der Benutzermodellierung und dem kollaborativen Filtern realisiert. Das Ergebnis ist eine selbstlernende Anwendung, die sich mit dem Fortschritt eines Benutzers ändert, von der erwartet wird, dass sie die Benutzerakzeptanz erhöht und die Motivation der Menschen zur Verhaltensänderung erhöht und aufrechterhält. Das Anwendungs-Framework wird durch Vergleich einer mobilen Gesundheits-App, die das Framework verwendet, mit einer vereinfachten Version der App verglichen, die keine Anpassung und Anpassung durch den Benutzer unterstützt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-62704-5_8 6af24a707c85e919c70be9c78a1a8fd6;de;;;5.3.;;;Kombination von Gehirn-Computer-Schnittstellen und Haptik: Erkennung der mentalen Arbeitsbelastung zur Anpassung der haptischen Assistenz In diesem Beitrag stellen wir die kombinierte Verwendung von Brain-Computer Interfaces (BCI) und haptischen Schnittstellen vor. Wir schlagen vor, haptische Anleitungen basierend auf der mentalen Aktivität, die durch ein BCI-System gemessen wird, anzupassen. Dieser neuartige Ansatz wird in einem Proof-of-Concept-System veranschaulicht: Haptische Leitfäden werden während einer Pfadverfolgungsaufgabe dank eines mentalen Arbeitsbelastungsindexes von einem BCI umgeschaltet. Ziel dieses Systems ist es, nur dann haptische Hilfestellungen zu geben, wenn die Gehirnaktivität des Nutzers eine hohe mentale Belastung widerspiegelt. Eine mit 8 Teilnehmern durchgeführte Anwenderstudie zeigt, dass unser Proof-of-Concept einsatzbereit und verwertbar ist. Die Ergebnisse zeigen, dass die Aktivierung haptischer Leitfäden im schwierigsten Teil der Pfadverfolgungsaufgabe auftritt. Darüber hinaus ermöglicht es, die Aufgabenleistung um 53% zu steigern, indem die Unterstützung nur in 59% der Fälle aktiviert wird. Zusammengenommen legen diese Ergebnisse nahe, dass BCI verwendet werden könnte, um festzustellen, wann der Benutzer während der haptischen Interaktion Unterstützung benötigt, und um haptische Anleitungen entsprechend zu aktivieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31401-8_12 769c074571d678628e5270cd4cb90b13;de;;;5.3.;;;Adaptive Interaktionskriterien für zukünftige ferngesteuerte Flugzeuge Im Luftfahrtbereich gibt es technische Trends und betriebliche Anforderungen in Richtung adaptives Verhalten. Diese Studie konzentriert sich auf adaptive Interaktionskriterien für zukünftige ferngesteuerte Flugzeuge. Kriterien, die verwendet werden könnten, um Design zu leiten und zu bewerten sowie ein Modell für adaptive Interaktion zu erstellen, das von autonomen Funktionen und Entscheidungsunterstützung verwendet wird. Ein Szenario und Leitlinien aus der Literatur wurden als Beispielkriterien in einem Fragebogen den Teilnehmern aus Wissenschaft/Forscher, Endverbrauchern und Flugzeugentwicklungsingenieuren vorgestellt. Mehrere Leitlinien fanden eine breite Akzeptanz bei den Teilnehmern, aber es fehlten auch Aspekte für die Anwendung der unterstützenden adaptiven Interaktion für ferngesteuerte Flugzeuge. Die verschiedenen Teilnehmergruppen, die durch unterschiedliche Aspekte beigetragen haben, unterstützen die Idee, dass verschiedene Interessengruppen mit sich ergänzenden Ansichten beitragen. Zu den Aspekten, die von den Teilnehmern als vermisst befunden wurden, gehören Vorhersehbarkeit, Spezifika der Luftfahrt, Risikoanalyse, Komplexität und wie Menschen Autonomie wahrnehmen und Absichten zuschreiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-41959-6_23 22554b36bcaea1af9e9d46c0eb295939;de;;;5.3.;;;Perception Markup Language: Auf dem Weg zu einer standardisierten Darstellung von wahrgenommenem nonverbalen Verhalten Moderne virtuelle Agenten benötigen Kenntnisse über ihre Umgebung, die Interaktion selbst und das Verhalten ihrer Gesprächspartner, um angemessenes nonverbales Verhalten zeigen und Dialogpolitiken entsprechend anpassen zu können. Neuere Errungenschaften im Bereich der automatischen Verhaltenserkennung und -verständnis können Aufschluss über das multimodale nonverbale Verhalten der Interaktanten und in weiterer Folge deren affektive Zustände geben. In diesem Beitrag stellen wir eine Perception Markup Language (PML) vor, die einen ersten Schritt hin zu einer standardisierten Darstellung von wahrgenommenem nonverbalen Verhalten darstellt. PML folgt mehreren Designkonzepten, nämlich;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33197-8_47 9ee416bcebcff4bb63735c46b12d52e8;de;;;5.3.;;;Sicherheit der Passagiere bei Evakuierungen von Flugzeugen: Ernsthafte Spiele zur Aufklärung und Überzeugung einsetzen Der Bereich der Persuasive Technology untersucht erst seit kurzem, wie virtuelle Risikoerfahrungen genutzt werden können, um Einstellungen und Verhaltensweisen von Menschen in Bezug auf persönliche Sicherheit zu ändern. In diesem Beitrag wollen wir die Untersuchung in verschiedene Richtungen vorantreiben. Erstens erweitern wir die Studie auf die Selbstwirksamkeit, die sich als Prädiktor für zukünftige Leistungen sowie als wichtiger Faktor für Überzeugungsversuche mit negativen Auswirkungen auf die Gesundheit der Menschen erwiesen hat. Zweitens erhöhen wir die Interaktivität der virtuellen Erfahrung, indem wir ein vollwertiges Serious Game konzipieren und implementieren, in dem der Benutzer Wissen über verschiedene Aspekte seiner persönlichen Sicherheit erwerben kann, und wir untersuchen auch die Auswirkungen des virtuellen Erlebnisses auf das Wissen des Benutzers. Drittens konzentrieren wir uns auf ein wichtiges Problem, bei dem Serious Games und Persuasive-Technologie noch nie zuvor angewendet wurden, nämlich die Aufklärung der Passagiere über die persönliche Sicherheit bei der Evakuierung von Flugzeugen. Das in der Arbeit vorgestellte Experiment zeigt, wie bereits das Spielen des Serious Game für wenige Minuten zu einer signifikanten Steigerung des Wissens und der Selbstwirksamkeit der Benutzer führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31037-9_19 d6ba3e6911618648933472c3f21cbc26;de;;;5.3.;;;Jetzt alle zusammen: Überblick über virtuelle Gesundheitsassistenten, die persönliche Gesundheitsinterviews nachahmen Wir diskutieren ein großes Forschungsprojekt, das darauf abzielt, sozial ausdrucksstarke virtuelle Gesundheitsagenten oder -assistenten (VHA) aufzubauen, die kurze motivierende Interventionen (BMI) zur Verhaltensänderung in einem Kommunikationsstil liefern können, den Einzelpersonen und Patienten nicht nur akzeptieren, sondern auch emotional unterstützend und sozial angemessen. Aufgrund ihrer klar definierten sequentiellen Struktur eignen sich BMIs gut für die Automatisierung und können an eine Vielzahl von Zielverhaltensweisen angepasst werden, von Fettleibigkeit über Alkohol- und Drogenkonsum bis hin zu mangelnder Therapietreue. Wir diskutieren die Vorteile, die VHAs für die Durchführung von Gesundheitsinterventionen bieten. Wir beschreiben Komponenten unserer intelligenten Agentenarchitektur, die es unseren virtuellen Gesundheitsagenten ermöglicht, in Echtzeit mit Benutzern zu kommunizieren und gleichzeitig die geeignete Intervention basierend auf den spezifischen Bedürfnissen des Patienten zu diesem Zeitpunkt durchzuführen. Wir schließen mit der Identifizierung offener Forschungsherausforderungen bei der Entwicklung virtueller Gesundheitsagenten.;-;-;-;https://link.springer.com/article/10.1007/s13218-015-0357-0 5f3d783560bc43fc8bf28a23ff60e7e0;de;;;5.3.;;;Grundlagen der projektiven Geometrie Für einen Anfänger erscheint die projektive Geometrie normalerweise etwas seltsam, und es ist nicht offensichtlich, warum ihre Einführung unvermeidlich und tatsächlich fruchtbar ist. Eine der Hauptmotivationen ergibt sich aus der algebraischen Geometrie.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0137-0_5 68c8c18ebab934918b1680e08ed349fd;de;;;5.3.;;;Fehlertolerante Steuerung einer Fachwerkstruktur mit MR-Dämpfern In diesem Artikel werden der Entwurf und die Anwendung eines H∞-Fehlererkennungs- und -isolierungsfilters (FDI) und eines fehlertoleranten Controllers (FTC) für Schwingungskontrollsysteme von Fachwerkträgern mit MR-Dämpfern vorgestellt. Eine lineare Matrixungleichung (LMI)-Formulierung wird verwendet, um ein robustes H∞-Filter voller Ordnung zu entwerfen, um fehlerhafte Eingangssignale zu schätzen. Ein fehlertoleranter H∞-Regler ist für das kombinierte System aus Anlage und Filter konzipiert und minimiert das gewählte Regelziel bei Störungen und Störungen. Eine Fachwerkstruktur mit einem MR-Dämpfer wird verwendet, um das FDI- und FTC-Reglerdesign durch numerische Simulationen zu validieren. Die durch Simulation vom Filter erhaltenen Residuen identifizieren die Fehlersignale eindeutig. Die Simulationsergebnisse des vorgeschlagenen FTC-Controllers bestätigen seine Wirksamkeit zur Schwingungsdämpfung des fehlerhaften Traversensystems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23226-8_64 86b946dfdc9a6cbfed3d8e817fbf8267;de;;;5.3.;;;Finite-Elemente-Simulation einer geneigten Lehm-Kernwand-Steinschüttungs-Dammstruktur Der geneigte Steinschüttdamm mit Tonkernwand ist eine gängige Strukturform in der Wasserwirtschaftstechnik, wobei die simulative Analyse für den geneigten Steinschüttdamm mit Tonkernwand einen bestimmten theoretischen Wert und Anwendungswert hat. In diesem Artikel wird die Finite-Elemente-Methode verwendet, um Simulationsanalysen für einen geneigten Steinschüttdamm mit Lehmkernwänden des Kuandian-Stausees durchzuführen und das Verteilungsgesetz der Spannung und Verschiebung des Damms im Bau- und Betriebsprozess zu untersuchen. Die Forschungsergebnisse bieten eine gewisse Referenzgrundlage für die Planung und den Bau eines geneigten Steinschüttdamms mit Lehmkernwand.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23324-1_91 bd1ae7e7f1d74c53a1f6429bbe55216c;de;;;5.3.;;;Sputtern von Mehrkomponentenmaterialien Die nichtlineare Bilanzgleichung, die die Entwicklung von Konzentrationsprofilen für ein Mehrkomponenten-Target unter Einwirkung von Ionenbeschuss als Funktion der Tiefe im Target und der einfallenden Ionenfluenz beschreibt, wurde numerisch gelöst. Die interessierenden Größen wurden unter Bezugnahme auf ein binäres System berechnet, das zeigt, dass die Bilanzgleichung mit der korrekten Stöchiometrie für das Sputter-Ausbeuteverhältnis im stationären Zustand übereinstimmt.;-;-;-;https://link.springer.com/article/10.1007/BF00618751 21327df295bc59bf3dba3e8b449ed8b5;de;;;5.3.;;;Entwicklung eines Multimedia-Kursmaterials für langsam lernende Kinder mit Leseschwierigkeiten: MyLINUS Dieser Beitrag stellt die Entwicklung einer Multimedia-Kurssoftware, nämlich „My LINUS“, als Lehr- und Lernmedium vor, die speziell für langsame Lerner mit Leseschwierigkeiten entwickelt wurde. Die Kursunterlagen werden langsam lernenden Kindern helfen, einen Ansatz und eine geeignete Technik/Methode mit geeigneten Lehrmaterialien zu verwenden, die für den Lernprozess unerlässlich sind. Die Kursunterlagen integrieren den vom Bildungsministerium offiziell erstellten Lehrplan für Alphabetisierung und Rechnen (LINUS) für Grundschulkinder im Alter von 7 bis 9 Jahren mit dem Thema Multimedia-Lernen. Das „MyLINUS“ besteht im Wesentlichen aus 2 Abschnitten für die Module und Übungen. Die Module bestehen aus 3 Untermodulen. Jedes Modul ist so konzipiert, dass es in einem bestimmten Bereich von Modul 1 bis Modul 3 unterrichtet. Modul 1 lehrt die Benutzer, wie man einen Buchstaben erkennt und ausspricht. Modul 2 lehrt die Benutzer, Buchstaben zu einem Wort zu kombinieren. Modul 3 zeigt den Benutzern, wie man Wörter und Silben zu vollständigen Sätzen kombiniert. An zwei Grundschulen in Perak wurde ein Benutzerakzeptanztest durchgeführt. Die Ergebnisse tragen dazu bei, die Eignung und Akzeptanz sowie die Wirksamkeit der Kursunterlagen für weitere Verbesserungen zu unterstützen. Die Ergebnisse der Evaluation weisen auf eine positive Resonanz auf die Kursunterlagen hin.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-02958-0_34 457115cb89a3431eeb2aa35d425be3ea;de;;;5.3.;;;Messungen transienter Magnetfelder an Einelektronen-Ni-Ionen Es wurden Messungen durchgeführt, um das transiente Magnetfeld zu bestimmen, das mit polarisierten Elektronen von stark gestrippten Ni-Ionen verbunden ist, die eine ferromagnetische Fe-Schicht durchqueren. Partiele γ Winkelkorrelationen und Spinpräzessionen wurden mit dem ersten angeregten 2;-;-;-;https://link.springer.com/article/10.1007/BF02407621 ff7c27b154bd0436d1f2aa2b0f584b6a;de;;;5.3.;;;Finite-Elemente-Methode für einige nichtlineare Integro-Differentialgleichungen Dieser Artikel untersucht die Finite-Elemente-Methode für einige nichtlineare hyperbolische partielle Differentialgleichungen mit Gedächtnis- und Dämpfungstermen. Eine Crank-Nicolson-Approximation für diese Art von Gleichungen wird vorgestellt. Unter Verwendung der elliptischen Ritz-Volterra-Projektion, der Analyse der Fehlerschätzungen für die numerischen Finite-Elemente-Lösungen und der optimalen;-;-;-;https://link.springer.com/article/10.1007/s11766-999-0074-2 3ccf89fe63ec61fc9429c7d6e988e51f;de;;;5.3.;;;Kombinierte Wärmeübertragung unter Bedingungen der freien Konvektion Auf der Grundlage der Grenzschichtgleichungen werden Lösungen für die Probleme der konvektiven und kombinierten Wärmeübertragung unter Bedingungen der freien Konvektion in transparenten und grauen Medien erhalten. Die Lösung für die konvektive Wärmeübertragung in einem transparenten Medium wird durch eine Taylor-Entwicklung der Temperaturfunktion erhalten. Es werden auch Ausdrücke für die Strahlungs- und Konvektionskomponenten der kombinierten Wärmeübertragung vorgestellt, und es wird gezeigt, dass diese Flüsse zusammenhängende Größen sind.;-;-;-;https://link.springer.com/article/10.1007/BF00826643 db8da50be7b41ab178ceb204c5e60024;de;;;5.3.;;;Symmetriebrechung und fraktionierte Quantisierung von Quantensystemen Inzwischen ist allgemein bekannt, dass die integrale Quantisierung einer Klasse von Quantensystemen, wie der integrale Quanten-Hall-Effekt und die Quantisierung des Ladungstransports, eine topologische Invariante der ersten Chern-Klasse ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-3696-3_25 72cb1214cddf42aba0f32b3de03e8165;de;;;5.3.;;;PV-Systemleistung berechnet mit synthetischen Strahlungsdaten Numerische Simulationen einer PV-Anlage mit stündlichen Einstrahlungsdaten sind die genaueste Methode zur Bewertung der erwarteten Leistung und Dimensionierung ihrer Komponenten. Für diese Simulationen geeignete gekippte stündliche Strahlungsdatenbanken sind jedoch fast nie verfügbar. Ziel dieser Arbeit ist es, die Fähigkeit synthetischer Strahlungsdaten (erzeugt durch adäquate durchschnittliche regressive Modelle und/oder stochastische autoregressive Modelle) zu untersuchen, reale Strahlungsdaten zu ersetzen. Diese Fähigkeit scheint sich in der vorliegenden Arbeit zu bestätigen, da die Ergebnisse von Simulationen eines typischen PV-Systems mit konstanter Last zeigen, dass Konstruktionsfehler unter 5% erzielt werden können, wenn die Ergebnisse der Verwendung beobachteter und synthetischer Strahlungsdaten verglichen werden .;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-3622-8_121 93e5adcffa6528342d378bca589f5b19;de;;;5.3.;;;Trennung von Variablen in den Klein-Gordon-Gleichungen. III Dieses Papier ergänzt [1] und [2]. Es werden alle Arten von externen elektromagnetischen Feldern gefunden, die beliebige Funktionen enthalten, die eine vollständige Trennung von Variablen in den Klein-Gordon-Gleichungen unter Verwendung eines Differentialsymmetrieoperators erster und zweiter Ordnung erlauben. Die krummlinigen Koordinaten, in denen die Variablen getrennt sind, werden dargestellt und die Gleichungen in den getrennten Variablen werden aufgeschrieben.;-;-;-;https://link.springer.com/article/10.1007/BF00890216 fd8784ab97ba309fe26a38f839ea5ab8;de;;;5.3.;;;Automatische Steuerung von Synchronmaschinen Klemmenspannung und Drehzahl eines Synchrongenerators sind zwei wichtige Größen, von denen der Betrieb abhängt, und es sind spezielle Mittel zu ihrer Steuerung erforderlich, um die besten Betriebsbedingungen zu erhalten. Die Spannung und Drehzahl eines allein arbeitenden Generators können vollständig durch einen durch eine Spannungsrückführung betätigten Erregerregler und einen durch eine Drehzahlrückführung betätigten Turbinenregler gesteuert werden. Wenn ein Generator jedoch an ein großes Stromnetz angeschlossen ist, werden seine Spannung und Drehzahl viel mehr von der Spannung und Frequenz des Systems als von den Generatorbedingungen bestimmt. Trotzdem spielen Spannungsregler und Drehzahlregler eine große Rolle beim Betrieb des Systems und sind immer an einem großen Generator vorgesehen. Die Spannung des Systems ist bis zu einem gewissen Grad flexibel, aber die Hauptwirkung eines Spannungsreglers besteht darin, den Blindstrom zu steuern. Andererseits ist die Systemfrequenz nahezu konstant und die Drehzahländerungen sind gering, so dass der Drehzahlregler quasi ein Lastregler ist. Ein Geschwindigkeitssignal ist nicht unbedingt die beste Betätigungsmethode, obwohl der Begrenzer im Notfall die Geschwindigkeitsregelung übernehmen muss, um ein Weglaufen des Generators zu verhindern.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-5802-9_6 4dc1c68ac9fd60c6922096564879a98c;de;;;5.3.;;;Zur Serialisierbarkeit Die gleichzeitige Ausführung von Datenbanktransaktionen ist im Hinblick auf die Geschwindigkeit wünschenswert, kann jedoch zu Inkonsistenzen führen. Ein häufig verwendetes Kriterium für die Korrektheit einer gleichzeitigen Ausführung von Transaktionen ist die Serialisierbarkeit, d. h. die Gleichwertigkeit der Ausführung mit einem oder mehreren seriellen Plänen. In der Literatur wurden mehrere Transaktionsmodelle verwendet und verschiedene Konzepte der Serialisierbarkeit eingeführt. In diesem Beitrag untersuchen wir die verschiedenen Serialisierbarkeitsfamilien im allgemeinen Transaktionsmodell, im Zweistufenmodell und im eingeschränkten Zweistufenmodell. Wir untersuchen diese Familien auch im Multiversion-Datenbankmodell.;-;-;-;https://link.springer.com/article/10.1007/BF00991181 0ff6888a6ea4541f7f12fb2070ff17b8;de;;;5.3.;;;Eingeschränkte Maxima- und Minima- und Lagrange-Multiplikatoren Oft stehen wir vor einem Problem, bei dem wir eine bestimmte Funktion unter bestimmten Einschränkungen oder Bedingungen maximieren möchten. Zum Beispiel können wir den Nutzen maximieren unter der Einschränkung, dass unsere Gesamtausgaben einen bestimmten Betrag nicht überschreiten, oder die Nettoeinnahmen unter der Bedingung maximieren, dass die Gesamtzahl der Arbeitskräfte konstant bleibt. Probleme dieser Art können mit der Methode von . gelöst werden;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-15324-4_21 303f8fedbf9b3c0ef389c14fa4188086;de;;;5.3.;;;Hydromagnetische freie Konvektionsströmung von einer horizontalen Platte: Nicht ähnliche Lösungen Die Grenzschichtgleichungen elektrisch leitender Fluide über einer semi-unendlichen horizontalen flachen Platte aufgrund der gleichzeitigen Wirkung von Auftrieb und angelegtem vertikalen Magnetfeld werden abgeleitet. Der Fall, in dem die Oberflächentemperatur und das angelegte Magnetfeld konstant sind, wird detailliert durch die Karman-Pohlhausen-Integraltechnik untersucht. Ausdrücke für Schubspannung und Wärmeübergang an der Platte werden für kleine Hartmann-Zahlen und für beliebige Prandtl-Zahlen berechnet.;-;-;-;https://link.springer.com/article/10.1007/BF03158078 78583eac256853ba411b10db12918375;de;;;5.3.;;;AdMoVeo: Eine robotische Plattform, um Designern kreatives Programmieren beizubringen Die Entwicklung intelligenter Produkte, Systeme und zugehöriger Dienstleistungen erfordert von den Designern die Fähigkeit, Technologie in ihre Entwürfe zu integrieren. Neben anderen Fähigkeiten ist die Programmierung der Schlüssel für die Designer, um Prototypen zu entwickeln und mit den intelligenten Verhaltensweisen zu experimentieren. Die meisten Designstudenten haben jedoch keine inhärente Affinität zu Programmierung und Elektronik. Die Roboterplattform AdMoVeo wurde ausschließlich zu dem Zweck entwickelt, den Studenten des Industriedesigns grundlegende Programmierkenntnisse zu vermitteln. Darüber hinaus streben wir eine Plattform an, die die Designstudenten motiviert und ermutigt, ihre Kreativität mit ihrer Leidenschaft für Grafik- und Verhaltensdesign auszuleben. Dieses Papier stellt das Hardware- und Softwaredesign der Plattform vor und teilt die Erfahrungen mit der Verwendung in einem Programmierkurs.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03364-3_49 f687c063e1248dbfd319490829cbfd66;de;;;5.3.;;;Potenzial von Wearable-Technologie für überalterte Gesellschaften Der Beitrag diskutiert das Potenzial von tragbaren Geräten und konzentriert sich hauptsächlich auf Smartwatches für superalternde Gesellschaften. Eine Smartwatch ist so konzipiert, dass sie wie eine traditionelle Uhr am Handgelenk getragen wird. Darüber hinaus beinhalten Smartwatches Touchscreens, Softwareanwendungen und IMU-Sensoren (Inertial Measurement Unit). Smartphones werden hauptsächlich für Benachrichtigungen im Zusammenhang mit Telefonanrufen, E-Mails, SNS oder Gesundheitsanwendungen verwendet, um die Herzfrequenz und andere Vitalsignale zu messen und aufzuzeichnen. Umgekehrt weisen Smartwatches erhebliches Potenzial auf, neue Werte in unserem täglichen Leben zu generieren. In dem Paper stellen wir drei Anwendungen mit Smartwatches vor, die in bestehenden Studien veröffentlicht wurden, und diskutieren die Anwendbarkeit von Smartwatch-Anwendungen auf überalternde Gesellschaften.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-91131-1_17 9ec47482cf04de50e76eb4ca6be83e4c;de;;;5.3.;;;IKT und universeller Zugang zu Bildung: Hin zu einer Kultur der Barrierefreiheit Dieses Papier befasst sich mit der Frage der Bewertung, Dokumentation und Verbreitung von Informationen über die Zugänglichkeit von IKT-basierten Bildungsprodukten und bietet auch ein Beispiel dafür, wie dies geschehen kann. Dies geht hauptsächlich in die Richtung, die E-Inklusion und den universellen Zugang zu Bildung konkret zu unterstützen. Vorausgesetzt, dass die Zugänglichkeit digitaler Bildungsressourcen sorgfältig geprüft und dokumentiert wird, haben Lehrer und Erzieher die Möglichkeit, Produkte auszuwählen und zu übernehmen, die für „alle“ Schüler vollständig „zugänglich“ sind. Aus einer breiteren Perspektive geht dieser Ansatz auch in Richtung der Verbreitung der „Kultur der Barrierefreiheit“ und stellt einen weiteren Schritt dar, um die Inklusion von Studierenden mit Behinderung zu gewährleisten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35879-1_39 09be9d5c12d629bd6ae66d138f35b4f5;de;;;5.3.;;;Kognitive Verbesserung durch mHealth für Patienten, die sich von einer Substanzgebrauchsstörung erholen Heroinsucht hat einen negativen Einfluss auf die kognitiven Funktionen, was auch zu schlechteren Behandlungsergebnissen bei der Drogenaddition beitragen kann. Herkömmliche Ansätze der kognitiven Rehabilitation leiden unter einem begrenzten Motivationseffekt und sind relativ umständlich durchzuführen. Daher berichten wir über eine Studie, die die Wirksamkeit eines alternativen mHealth-Ansatzes mit Tablets und Serious Games testet, um kognitive Funktionen bei der Genesung von Süchtigen zu stimulieren. Dieser Ansatz wurde in einer Stichprobe von 14 männlichen Heroinabhängigen getestet, die sich als stationäre Patienten bei einer lokalen NGO einem Rehabilitationsprogramm für Heroinsucht unterziehen. Die Übungen für das kognitive Training basierten auf Serious Games auf Tablets. Die Ergebnisse zeigten Verbesserungen der kognitiven Funktionen zwischen Baseline- und Follow-up-Bewertungen in den Frontallappenfunktionen, dem verbalen Gedächtnis und der anhaltenden Aufmerksamkeit sowie in einigen Aspekten der kognitiven Flexibilität, Entscheidungsfindung und Depression. Patienten in kognitivem Training hatten einen höheren Anteil positiver Ergebnisse in Bezug auf Indikatoren der kognitiven Flexibilität des verbalen Gedächtnisses als Patienten ohne Training. Die Gesamtergebnisse sind vielversprechend, erfordern jedoch noch randomisierte Kontrollstudien, um die Effizienz dieses Ansatzes als Alternative zu kognitiven Rehabilitationsprogrammen bei Heroinabhängigen zu bestimmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-69694-2_7 fcf8112fb0aeb5af11bdc939e58c1f05;de;;;5.3.;;;Einfache Bereitstellung der Spoken-Dialogue-Technologie auf Smartwatches für die psychische Gesundheit Smartwatches werden immer anspruchsvoller und beliebter, da mehrere große Smartphone-Hersteller, darunter Apple, kürzlich ihre neuen Modelle herausgebracht haben. Wir glauben, dass diese Geräte als intelligente Objekte für Menschen mit psychischen Störungen wie Gedächtnisverlust dienen können. In diesem Beitrag beschreiben wir, wie mit Smartwatches intelligente Benutzeroberflächen erstellt werden können, die zur kognitiven Unterstützung in Alltagssituationen von Demenzpatienten verwendet werden können. Durch die Verwendung automatischer Spracherkennung und Text-zu-Sprache-Synthese erstellen wir eine Dialoganwendung, die es Patienten ermöglicht, über natürliche Sprache zu interagieren. Wir vergleichen mehrere verfügbare Bibliotheken für Android und zeigen ein Beispiel für die Integration einer Smartwatch-Anwendung in eine bestehende Gesundheitsinfrastruktur.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-32270-4_15 181d5a23e8ef314b47631b19813b44aa;de;;;5.3.;;;Interaktive Terminierungsnachweise mit Termination Cores Jüngste Fortschritte in der Terminierungsanalyse haben neue Methoden und Werkzeuge hervorgebracht, die hochgradig automatisiert sind. Wenn sie jedoch scheitern, haben selbst Experten Schwierigkeiten zu verstehen, warum und wie sie vorgehen sollen. In diesem Artikel behandeln wir das Problem der Erstellung von Terminierungsanalyse-Engines, die sowohl hochautomatisiert als auch einfach in einer interaktiven Umgebung zu verwenden sind. Wir betrachten das Problem im Kontext von ACL2, das eine funktionale Programmiersprache erster Ordnung hat. Wir führen den Begriff a . ein;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14052-5_25 3f8ecb8858fc35fa8471474e093cbbbb;de;;;5.3.;;;Abschätzung des Testaufwands – auf Partikelschwarmoptimierung basierender Ansatz Die Testaufwandsschätzung ist eine wichtige Aktivität in der Softwareentwicklung, da anhand des Aufwands Kosten und Zeitaufwand für das Testen berechnet werden können. Für die Aufwandsschätzung stehen verschiedene Modelle zur Verfügung, aber zum Teil führen alle Modelle zu einer fehlerhaften Aufwandsschätzung. Der geschätzte Aufwand muss also optimiert werden. Zu diesem Zweck können metaheuristische Techniken verwendet werden, um ein Problem zu optimieren, indem iterativ versucht wird, eine Lösung unter Verwendung einiger Rechenverfahren zu verbessern. Die Partikelschwarmoptimierung ist eine solche Technik, die in diese Arbeit integriert wurde, um gute Schätzungen des Testaufwands zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22606-9_46 5117f4054b0ffa0eb7a5fc6a550d0204;de;;;5.3.;;;Messen interne Software-Qualitätstools validierte Metriken? Die interne Softwarequalität bestimmt die Wartbarkeit des Softwareprodukts und beeinflusst die Qualität im Einsatz. Es gibt eine Vielzahl von Metriken, die vorgeben, die interne Qualität von Software zu messen, und diese Metriken werden von statischen Softwareanalysetools bereitgestellt. Bis heute wurde die Validität dieser Metriken in einer Reihe von Berichten bewertet. Es liegen jedoch keine Daten darüber vor, ob die von den Tools angebotenen Metriken in wissenschaftlichen Studien irgendwie validiert werden. Die aktuelle Studie schließt diese Lücke, indem sie Daten liefert, welche Tools und wie viele validierte Metriken bereitgestellt werden. Die Ergebnisse zeigen, dass eine Reihe von Metriken, für die die bereitgestellten Tools in der Literatur nicht validiert zu sein scheinen, und dass nur ein kleiner Prozentsatz der Metriken in den bereitgestellten Tools validiert ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-35333-9_50 d5f1206e775dae4d39590d5a7d5af81d;de;;;5.3.;;;3DIVE: Eine immersive Umgebung für die interaktive Exploration von Volumendaten Dieses Papier beschreibt ein immersives System namens 3DIVE zur interaktiven Visualisierung und Erkundung von Volumendaten in der virtuellen Umgebung von CAVE. Die Kombination von interaktivem Volumenrendering und virtueller Realität bietet eine natürliche immersive Umgebung für die Visualisierung volumetrischer Daten. Fortgeschrittenere Datenexplorationsvorgänge wie Datenmanipulation auf Objektebene, Simulation und Analyse werden in 3 DIVE durch mehrere neue Techniken unterstützt. Insbesondere werden Volumenprimitive und Texturbereiche für das Rendering, die Manipulation und die Kollisionserkennung von volumetrischen Objekten verwendet, und die bereichsbasierte Rendering-Pipeline ist mit 3D-Bildfiltern integriert, um einen bildbasierten Mechanismus für das interaktive Übertragungsfunktionsdesign bereitzustellen. Das System wurde vor kurzem als Public-Domain-Software für CAVE/ImmersaDesk-Benutzer freigegeben und wird derzeit von verschiedenen wissenschaftlichen und biomedizinischen Visualisierungsprojekten aktiv genutzt.;-;-;-;https://link.springer.com/article/10.1007/BF02946649 291213ccdd7ac9aa322a78c8283b69ab;de;;;5.3.;;;Ein transparenter Ansatz für die Evolution von Datenbankschemata mit View-Mechanismus Das Entwerfen von Datenbanken, die sich im Laufe der Zeit entwickeln, ist auch heute noch ein großes Problem. Es wird davon ausgegangen, dass das Datenbankschema stabil genug ist, um auch bei Änderungen der modellierten Umgebung gültig zu bleiben. Die Datenbankadministratoren stehen jedoch vor der Notwendigkeit, etwas an der Gesamtkonfiguration des Datenbankschemas zu ändern. Obwohl einige vorgeschlagene Ansätze in aktuellen Datenbanksystemen bereitgestellt werden, bleibt die Schemaentwicklung ein fehleranfälliges und zeitaufwendiges Unterfangen. Wir schlagen eine transparente On-Demand-Lösung vor, um die Schemaentwicklung zu überwinden, die sich normalerweise auf vorhandene Anwendungen/Abfragen auswirkt, die gegen das Schema geschrieben wurden. Um die Leistung unseres Ansatzes zu verbessern, optimieren wir unseren Ansatz mit der Mapping-Komposition. Zu diesem Zweck zeigen wir, dass unser Ansatz ein besseres Potenzial hat als die traditionelle Schema-Evolutionstechnik. Unser Ansatz ist, wie durch die experimentelle Auswertung nahegelegt, viel effizienter als die anderen Schema-Evolutionstechniken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32281-5_40 0ffef23b666710adb39e8705f08f10c1;de;;;5.3.;;;Auf Computerintelligenz basierende Algorithmen für die autonome körperliche Rehabilitation zu Hause Exergames bieten effiziente und motivierende Trainingsmechanismen zur Unterstützung der körperlichen Rehabilitation zu Hause. Dennoch fehlen den aktuellen Exergame-Beispielen einige wichtige Aspekte, die bei der Rehabilitation nicht außer Acht gelassen werden können. Exergames sollten: (i) die Spielschwierigkeit an die Spielleistung des Patienten anpassen, (ii) überwachen, ob die Übung korrekt ausgeführt wird, und (iii) kontinuierliche Motivation bieten. In dieser Studie präsentieren wir eine Spiel-Engine, die auf Computerintelligenz basierende Lösungen implementiert, um Echtzeitanpassung, Online-Überwachung und ein ansprechendes Spielerlebnis zu ermöglichen. Die Spiel-Engine wendet eine Echtzeitanpassung unter Verwendung des Quest Bayesian-Ansatzes an, um die Spielschwierigkeit entsprechend der Leistung des Patienten zu ändern. Außerdem verwendet es ein Fuzzy-System, um die Ausführung der Übungen gemäß den von den Therapeuten eingestellten Parametern zu überwachen und bietet Online-Feedback, um den Patienten während der Ausführung der Übung zu führen. Schließlich wird ein motivierendes Spielerlebnis durch Belohnungen und zufällige Erweiterungen während des Spiels geboten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-18164-6_23 b3cf33a9f72af6d57959e114745dd5f8;de;;;5.3.;;;Qualitative probabilistische Netzwerke mit reduzierten Mehrdeutigkeiten Ein qualitatives probabilistisches Netzwerk (QPN) ist die qualitative Abstraktion eines Bayesschen Netzwerks, das Variablen und die qualitativen Einflüsse zwischen ihnen codiert. Damit QPNs für die Darstellung und Inferenz von unsicherem Wissen in der realen Welt praktikabel sind, ist es wünschenswert, Mehrdeutigkeiten in allgemeinen QPNs zu reduzieren, einschließlich unbekannter qualitativer Einflüsse und Inferenzkonflikte. In diesem Beitrag erweitern wir zunächst die traditionelle Definition qualitativer Einflüsse, indem wir den probabilistischen Schwellenwert übernehmen. Zusätzlich führen wir probabilistisch-grobmengenbasierte Gewichte zu den qualitativen Einflüssen ein. Das so erhaltene verbesserte Netzwerk, EQPN genannt, wird aus Beispieldaten konstruiert. Um schließlich konfliktfreie EQPN-Inferenzen zu erzielen, lösen wir die Kompromisse auf, indem wir die Symmetrie-, Transitivitäts- und Zusammensetzungseigenschaften ansprechen. Vorversuche belegen die Richtigkeit und Machbarkeit unserer Methoden.;-;-;-;https://link.springer.com/article/10.1007/s10489-008-0156-5 076fdd262bac71295e640ea2dc2b2eff;de;;;5.3.;;;Konvergenz von Operatorproduktentwicklungen auf das Vakuum in der konformen invarianten Quantenfeldtheorie In einer konformen invarianten Quantenfeldtheorie (in 4 Raum-Zeit-Dimensionen) konvergieren die Produktentwicklungen des Wilson-Operators im Vakuum, da sie eng mit konformen Partialwellenentwicklungen verwandt sind.;-;-;-;https://link.springer.com/article/10.1007/BF01609130 1e44f0800c9e4f821bc85c9321d8ff17;de;;;5.3.;;;Nichtparametrische Bayessche Statistik: Ein stochastischer Prozessansatz Die Angabe einer Prior-Verteilung auf der Menge aller Verteilungsfunktionen erlaubt es, ein nichtparametrisches Bayes-Experiment als abstrakten Wahrscheinlichkeitsraum zu betrachten, auf dem der Abtastprozess und ein stochastischer Verteilungsprozess definiert sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-5503-1_8 11d616979ed384bafb900e67beb74fbd;de;;;5.3.;;;Wahrscheinlichkeitsquoten für Prozesse Wie in der vorangegangenen Arbeit zur Inferenztheorie von Prozessen gezeigt wurde, spielen Likelihood-Quotienten eine herausragende Rolle, insbesondere bei den Testproblemen. Daher wird der Hauptteil dieses Kapitels dem Auffinden von Dichten für Wahrscheinlichkeitsmaße gewidmet sein, die durch breite Klassen stochastischer Prozesse induziert werden. Dazu gehören Prozesse mit unabhängigen Inkrementen, Sprung-Markov und solche, die unendlich teilbar sind. Für diese Arbeit werden auch Diffusionsverfahren und einige Anwendungen berücksichtigt. All diese beginnen mit (und von ihnen vorgeschlagenen) Gauß-Prozessen und so erstellen wir Ergebnisse einschließlich Dichotomie-Theoreme sowie Likelihood-Quotienten für sie unter verschiedenen Bedingungen, zusammen mit einigen stationären Fällen. Als Motivation (und auch Interesse) für das Thema beginnen wir mit einer Behandlung des wichtigen Problems der (zulässigen) Mittel von Prozessen innerhalb ihrer Funktionsraumdarstellungen (und diese Mittel können als deterministische Signale aufgefasst werden). Die in diesem Kapitel vorgestellte Analyse beinhaltet einige interessante mathematische Ideen, und der Leser sollte geduldig bleiben, da in dieser Arbeit eine reiche Sammlung von Problemen, Anwendungen und neuen Richtungen vorgeschlagen wird. Wir fügen viele Abbildungen in den Text ein und einige weitere Ergebnisse in den abschließenden Ergänzungen, oft mit Hinweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-6596-0_5 54b7e4a5d37f16b410da983d3ae23f76;de;;;5.3.;;;Bewertung externer Kosten und Vorteile einer saubereren Umgebung in einem stilisierten CGE-Modell Produktions- und Konsumtätigkeiten verursachen eine Vielzahl von Schäden. Solche Schäden werden externe Kosten genannt, wenn sie sich nicht in den Marktpreisen der Produkte widerspiegeln. Es gibt verschiedene Arten externer Kosten: So ist der Verkehr nicht nur für die Luftverschmutzung verantwortlich, sondern auch für Unfälle, Gesundheitskrankheiten, Verkehrsstaus, Lärm, Barriereeffekte und visuelle Eingriffe. Die mit einem solchen Schaden verbundenen Kosten abzuschätzen ist äußerst schwierig. Der Stand der Technik der Umweltbewertung ist mangels spezifischer Studien zum Zusammenhang zwischen Schadstoffen und ihren Auswirkungen auf das Ökosystem schlecht (für italienische Daten siehe Pavan, 1995).;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-9109-6_6 8006d310c6fc7cee002675d1fe5c0778;de;;;5.3.;;;Vereinheitlichung Dieses Kapitel hat zwei Ziele. Die erste und bei weitem wichtigste ist der Beweis des Uniformisierungssatzes für Riemann-Flächen. Dieser Satz beschreibt alle einfach zusammenhängenden Riemannschen Flächen und damit mit Hilfe der Topologie alle Riemannschen Flächen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-2034-3_5 65d1e62f4a0adf1ea1c41df1e9f38f6b;de;;;5.3.;;;Exponentielle Stabilität eines linearen viskoelastischen Stabes mit thermischem Gedächtnis In dieser Arbeit untersuchen wir ein eindimensionales Evolutionsproblem, das in der Theorie der linearen Thermoviskoelastizität mit erblicher Wärmeleitung auftaucht. Abhängig von der momentanen Leitfähigkeit K;-;-;-;https://link.springer.com/article/10.1007/BF02505887 7ec22edf31d80e8e6cdbd65c9151c32d;de;;;5.3.;;;Nichtthermische Funkemission von Flare Stars und RS CVn-Systemen Wir überprüfen die Beobachtungen von Kontinuum-Radioemission von Flares auf Roten Zwergsternen und von Ausbrüchen auf RS CVn-Systemen. In den RS-CVn-Systemen scheint die Emission hauptsächlich inkohärent zu sein, während in den Flare-Sternen, insbesondere bei den niedrigeren Frequenzen, ein kohärenter Mechanismus am Werk sein muss. In den RS-CVn-Systemen scheint es, dass während eines Funkausbruchs ein großer Teil der koronalen Elektronen hochenergetisch wird. Wir interpretieren dies im Zusammenhang mit der Ablagerung mechanischer Energie in der Korona, gefolgt von einer turbulenten Kaskade, und stellen fest, dass die in der Korona eines RS CVn-Sterns induzierten elektrischen Felder groß genug sein können, um in bestimmten großen magnetischen Schleifen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-5420-5_25 f63cd66c7a06760f94c59a5e6df8e55f;de;;;5.3.;;;Grüne Funktionen in drei- und zweidimensionalen kartesischen Wärmewellenfeldern Dieses Kapitel führt in den notwendigen mathematischen Formalismus ein, um Ausdrücke für Green-Thermalwellenfunktionen in kartesischen Koordinaten zur Verwendung bei dreidimensionalen (3-D) und zweidimensionalen (2-D) Problemen zu entwickeln. Die Präsentation beginnt mit der Berechnung der Green-Funktion für einen unendlichen dreidimensionalen Raum. Die Bedeutung dieser einen Funktion als Baustein für andere Green-Funktionen in lateral unendlichen dreidimensionalen kartesischen Räumen wird durch eine doppelte Herleitung der Green-Funktion im Sinne einer temporalen Fourier-Transformation und mittels eines komplexen Konturformalismus deutlich. Anschließend werden Green-Funktions-Formulierungen natürlich in zwei Gruppen unterteilt: solche für lateral unendliche Geometrien und solche für Geometrien mit endlichen orthogonalen Grenzen. Zweidimensionale Green-Funktionen werden als separate Fälle behandelt. Neben dem mathematisch einzigartigen Verhalten von zweidimensionalen Green-Funktionen von thermischen Wellen (die an das charakteristische Verhalten von sich ausbreitenden Wellenfeldern in geraden Dimensionen im Vergleich zu denen in ungeraden Dimensionen erinnern [Morse und Ingard, 1968, Kap. 7]) wird hier ihre Untersuchung spiegelt auch ihre praktische Bedeutung in der Dünnschicht- und Dünnschicht-Thermowellenphysik wider. Dieses Kapitel schließt mit der Ableitung von Green-Funktionen in dreidimensionalen Geometrien mit Kanten oder Ecken, einer wichtigen Familie von Randwertproblemen für Anwendungen, die mit den fortgeschrittenen Methoden für lateral unendliche oder endliche Geometrien nicht direkt behandelt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-3548-2_4 eeacb55b39d0f9cd6a741511fc119625;de;;;5.3.;;;Machs Prinzip und Einsteins Gravitationstheorie Das gestiegene Interesse der Physiker an Einsteins Gravitationstheorie in den letzten Jahren wurde von einer Reihe von Diskussionen über Machs Vorschlag über eine Beziehung zwischen Trägheitskräften und entfernten Sternen begleitet. Es gab jedoch keine Übereinstimmung über die mathematische Formulierung von Machs Ideen und ihre Bedeutung in der Allgemeinen Relativitätstheorie. Mein Ziel ist es, im Rahmen des heutigen Verständnisses von Einsteins Theorie die Interpretationsänderungen, die Machs Ideen erfahren haben, zu überprüfen und verschiedene Aussagen auszusortieren, die kollektiv als Machs Prinzip bezeichnet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1462-4_10 45a0f9631e2553dc2ef456ca8bba9ebd;de;;;5.3.;;;Fourier-Methode Diese Notiz beschreibt den Versuch, eine Theorie der Reflexion von Röntgenstrahlen an Kristallen zu formulieren, die auf Quantenvorstellungen ohne Bezug auf Interferenzgesetze basiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-6878-0_6 f10dbf57fde2509c32309d73173da0e4;de;;;5.3.;;;Halbgruppen linearer Operatoren In diesem Kapitel präsentieren wir eine einführende Behandlung der Halbgruppentheorie linearer Operatoren über einem Hilbertraum, wobei wir die Aspekte hervorheben, die für Anwendungen von Bedeutung sind. In der Regel streben wir nicht nach Allgemeingültigkeit, sondern verweilen bei speziellen Klassen von Halbgruppen wie kompakten Halbgruppen und Hilbert-Schmidt-Halbgruppen. Die Halbgruppentheorie wird allgemein als integraler Bestandteil der Funktionalanalyse akzeptiert und ist in den meisten Standardabhandlungen über die Funktionalanalyse enthalten, die bei Bedarf für Details zu Rate gezogen werden sollten. Wir haben uns einige Mühe gegeben, die Anwendung auf partielle Differentialgleichungen zu veranschaulichen, die abstrakten Teile der Theorie sind in vielerlei Hinsicht einfacher als die Spezialisierung auf partielle Differentialgleichungen. Dennoch hat die abstrakte Formulierung den Vorteil, dass sie eine direkte Verallgemeinerung endlichdimensionaler Modelle ermöglicht und den Übergang insbesondere bei der Anwendung auf Steuerungsprobleme transparenter macht.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-5865-0_4 625f23897325a6b275dafc1a7a2fb14a;de;;;5.3.;;;Unscharfe linguistische Zusammenfassungen in regelbasierten adaptiven Hypermedia-Systemen Regelbasierte adaptive Hypermedia-Systeme personalisieren die Struktur des Hypermedia-Raums unter Verwendung eines Inferenzmechanismus, der auf einer spezifischen Wissensrepräsentation über seine Benutzer arbeitet. Ungefähre Quantoren werden sehr häufig in Ausdrücken der menschlichen Sprache verwendet, die die Zusammenfassung einer großen Anzahl von Fakten beinhalten. Wir beschreiben, wie quantifizierte Ausdrücke in Anpassungsregeln verwendet werden können, um allgemeines Anpassungsverhalten zu spezifizieren und die Ausdruckskraft der Regel für den menschlichen Experten zu verbessern. Diese quantifizierten Ausdrücke können durch Fuzzy-Quantifizierungsmechanismen implementiert werden, die auf fuzzy-linguistischen Labels und Beziehungen arbeiten, und können als Erweiterungen in regelbasierte universelle adaptive Hypermedia-Systeme integriert werden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-47952-X_33 766413657ced40cfcfbc3cfa0a32e646;de;;;5.3.;;;Asymptotik und Quantenchaos in stellaren Oszillationen Strahlenchaos in Sternen, im asymptotischen Formalismus der geometrischen Akustik, entsteht unter Störungen, die die Kugelsymmetrie des Sterns brechen. Wenn es mild genug ist, induziert Strahlenchaos lediglich eine zufällige Streuung der tatsächlichen Eigenfrequenzen des gestörten Sterns um die asymptotischen Standardfrequenzen ω ∝ (n + 1/2ℓ + ϕ) des radialsymmetrischen Modells. Es wurde festgestellt, dass sich die statistischen Eigenschaften dieser intrinsischen Streuung von der Statistik einer Streuung aufgrund von Beobachtungsrauschen unterscheiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-4608-8_15 147fd4cff0c1771d4101754ec6033df7;de;;;5.3.;;;Standortdatenschutz in WSNs: Lösungen, Herausforderungen und zukünftige Trends Der Schutz der Privatsphäre gewinnt in drahtlosen Sensornetzwerken (WSNs) aufgrund seiner Verwendung in alltäglichen Szenarien an Popularität. Es gibt eine Reihe von Forschungsarbeiten in diesem Bereich, von denen sich viele auf das Problem der Standortdatenschutz konzentrieren. In diesem Papier überprüfen und kategorisieren wir diese Lösungen basierend auf den Informationen, die dem Gegner zur Verfügung stehen und seinen Fähigkeiten. Aber zuerst analysieren wir, ob traditionelle anonyme Kommunikationssysteme den ursprünglichen Anforderungen des Standortgeheimnisses in Sensornetzen entsprechen. Schließlich präsentieren und diskutieren wir eine Reihe von Herausforderungen und Zukunftstrends, die weitere Aufmerksamkeit von der Forschungsgemeinschaft erfordern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10082-1_9 2aae3432241db6dd2d5665c897e853d2;de;;;5.3.;;;Wissenschaftlicher Workshop 6: Wenn Ambient Intelligence auf Web 2.0 trifft: Wiki-City – Eine Stadt interagiert mit ihren Bürgern Ambient Intelligence beschränkt sich nicht nur auf Räume und Gebäude. Künftig werden ganze Städte zu intelligenten Umgebungen – mit Menschen, die sich vernetzen, sich verabreden, interessante Orte finden (z. In einer solchen Stadt interagieren Millionen Einwohner miteinander und profitieren von Informationen anderer Menschen oder Sensoren. Es fühlt sich an wie ein Dorf, in dem immer jemand hilft, ein Restaurant, eine Bar oder ein Theater zu finden, in dem die Entscheidungen, Bewegungen und Meinungen der Bürger die Stadtplanung und öffentliche Eingriffe beeinflussen. Eine solche Stadt und ihre Anwendungen können durch die Kombination zweier großer Trends im Mobile Computing realisiert werden: Ambient Intelligence und Web 2.0. In diesem Workshop suchen wir nach aktuellen und zukünftigen Technologien, die Wiki-City real machen können: Technologien, die Menschen, Orte, Ereignisse, Meinungen und digitale Online-Inhalte miteinander verbinden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10607-1_7 e4d961350833c275d8ba527169225fe7;de;;;5.3.;;;"Passwortbasierte Authentifizierung Unter den heutigen Faktoren und Methoden der Authentifizierung wird der Faktor ""etwas, den Sie kennen"", insbesondere das Passwort, am häufigsten verwendet. Es bleibt die Hauptmethode zum Nachweis der Benutzeridentität für E-Mail-Konten, Internetbanking-Konten und andere Online-Dienste. Dies ist verständlich, da sich jeder Benutzer lediglich sein Passwort merken muss, anstatt einen Authentifizierungstoken oder eine zusätzliche Smartcard mit sich führen zu müssen.";-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-6570-3_4 f5b5bc179fcaa3ea4b81486e9e55b34d;de;;;5.3.;;;Mining und Visualisierung der Nutzung von Bildungssystemen mit Linked Data Diese Arbeit stellt eine Fallstudie zur Verwendung semantischer Kontextmodellierung und Erstellung von Linked Data aus Protokollen in Bildungssystemen wie einer persönlichen Lernumgebung (PLE) vor, mit Fokus auf Verbesserungen und Überwachung solcher Systeme im Allgemeinen in Bezug auf soziale, funktionale, und aktivitätsorientierte Ebene [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22017-8_2 3fedbc5bb30a46e3cead8f834d436d0a;de;;;5.3.;;;Eine Möglichkeit, nicht-arabische Sprecher dabei zu unterstützen, arabische Buchstaben zu identifizieren und arabische Schrift in einem E-Learning-System zu lesen In diesem Artikel wird berichtet, wie ein neues E-Learning-System für arabische Sprache Anfängern von Nicht-Arabisch-Sprechern dabei hilft, jeden arabischen Buchstaben in einem Wort zu identifizieren und arabische Schrift zu lesen/auszusprechen. Im Arabischen sind Buchstaben, die ein Wort bilden, miteinander verbunden. Jeder arabische Buchstabe hat je nach Position in einem Wort (Anfang, Mitte oder Ende) drei verschiedene Ziffern. Benutzerstudien wurden mit 77 Testpersonen in Japan durchgeführt, um herauszufinden, welche für die Identifizierung von Buchstaben von zwei Alternativen vorzuziehen ist: Buchstaben färben oder Buchstaben mit Leerzeichen trennen. Die Ergebnisse zeigten, dass farbige Alternativen vorzuziehen sind. Wir entwickeln ein E-Learning-System, das die Farbgebung und unsere Rechts-nach-Links-Phonetik einbezieht, um die Lernenden dabei zu unterstützen, arabische Schrift selbst zu erkennen und zu lesen/auszusprechen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13293-8_15 8e77256883a102ec5fca50f03ab38461;de;;;5.3.;;;Die Dynamik des Default-Argumentation Die Formalisierung rationaler Agenten ist ein Thema von anhaltendem Interesse der Künstlichen Intelligenz. Die Forschung zu diesem Thema steht seit den Pionierarbeiten von Moore (1980, 1984), in denen Wissen und Handeln berücksichtigt werden, im Mittelpunkt. Zu beiden wurden im Laufe der Jahre wichtige Beiträge geleistet;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1743-4_8 dcd08a50f4fa3861220fe844d37aceb0;de;;;5.3.;;;Challenge-Ergebnis und Schlussfolgerung Im Folgenden berichten wir über die Ergebnisse der ICWE 2015 Rapid Mashup Challenge (RMC), beschreiben das verwendete Abstimmungssystem und ziehen einige Schlussfolgerungen zu den präsentierten Arbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-28727-0_8 d15036150aa2a6d408a3e16f8b7c2291;de;;;5.3.;;;Angewandte Methoden und Techniken zur Modellierung und Kontrolle auf Micro-Blog Data Crawler Modelle können Mechanismen zur Verbesserung der Systemleistung bereitstellen. In diesem Kapitel werden die angewandten Methoden und Techniken zur Modellierung und Steuerung auf Microblog-Crawlern vorgestellt. Mit der rasanten Entwicklung von Sozialwissenschaften und sozialen Netzwerken präsentieren oder kommentieren oder teilen täglich Millionen von Menschen ihre Meinungen auf der Plattform und produzieren oder verbreiten ihre Meinungen und Gefühle zu verschiedenen Themen. Der Microblog war eine effektive Plattform, um soziale Meinungen zu erfahren oder zu analysieren. Dazu ist das Crawlen der relevanten Microblog-Daten notwendig. Für einen herkömmlichen Webcrawler ist es jedoch schwierig, Mikroblog-Daten wie üblich zu crawlen, da die Mikroblog-Daten mit Web 2.0-Techniken wie AJAX schnell dynamisch generiert werden. Da die meisten offiziellen Plattformen der Mikroblogs keine geeigneten Tools oder RPC-Schnittstellen anbieten können, um Big Data effektiv und effizient zu sammeln, präsentieren wir einen Algorithmus zur Modellierung und Steuerung von Mikroblog-Datencrawlern, der auf der Simulation des Browserverhaltens basiert. Dies muss das Verhalten der simulierten Browser analysieren, um die anfordernden URLs zum Simulieren und Analysieren und Analysieren der sendenden URL-Anforderungen gemäß der Reihenfolge der Datensequenz zu erhalten. Die experimentellen Ergebnisse und die Analyse zeigen die Machbarkeit des Ansatzes. Am Ende werden auch weitere Arbeiten präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36385-6_9 14f7a5d42868041e8461995cad472e54;de;;;5.3.;;;Räumlicher haptischer Feedback Virtual Reality Controller für Manipulator-Teleoperation mit Unreal Engine Virtual Reality (VR) gibt Bedienern ein Eintauchen in ein teleoperierendes Robotersystem, und viele Forscher haben die Möglichkeit einer besseren Leistung untersucht. Wir haben das Vision-System für die Teleoperation untersucht und versucht, visuelle Informationen an die Bediener zu übertragen. In diesem Papier haben wir andere Informationskanalmethoden vorgeschlagen. Eine ist die haptische Rückmeldung zum Einklemmen des menschlichen Bedieners. Es stellt die Kraft des Slave-Robotergreifers dar. Das andere sind Vibrationsmotoren an unserem Handset und unserer Ellenbogenorthese. Sie geben räumliche Informationen einbinden mit virtuellen Wänden. Wir führen diese haptischen Rückmeldungen mit VR Tracker zusammen und alle Informationen werden in die Unreal Engine für die virtuelle Realität integriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3194-7_50 501ea8e3d5a7448bfdd80b50ecd45eec;de;;;5.3.;;;Reduzierung von 3D-Vibrationen auf 1D in Echtzeit Für einfaches und realistisches vibrotaktiles Feedback werden 3D-Beschleunigungen aus realen Kontaktinteraktionen normalerweise mit einem einachsigen Vibrationsaktuator gerendert, diese Dimensionsreduktion kann auf viele Arten durchgeführt werden. Diese Demonstration implementiert ein Echtzeit-Konvertierungssystem, das gleichzeitig 3D-Beschleunigungen misst und entsprechende 1D-Vibrationen über eine Schnittstelle mit zwei Stiften rendert. In der Demonstration interagiert ein Benutzer frei mit verschiedenen Objekten unter Verwendung eines In-Pen, der einen 3-Achsen-Beschleunigungsmesser enthält. Die erfassten Beschleunigungen werden in ein einachsiges Signal umgewandelt und ein Out-Pen rendert das reduzierte Signal für den Benutzer. Wir haben sieben Konvertierungsmethoden vorbereitet, von der einfachen Verwendung eines einachsigen Signals bis hin zur Anwendung der Hauptkomponentenanalyse (PCA), damit Benutzer die Leistung jeder Konvertierungsmethode in dieser Demonstration vergleichen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3194-7_6 726c9588faf33511ff6c2e41f2e0af60;de;;;5.3.;;;Eine Oberflächentexturanzeige für flexible virtuelle Objekte In diesem Beitrag wird ein taktiles Gerät zum Anzeigen der Oberflächentextur flexibler virtueller Objekte vorgestellt. Die Textur wird durch einen Elektrovibrationseffekt simuliert, der von einer flexiblen Folie erzeugt wird. Die Verformung des Films wird durch einen Gleichstrommotor gesteuert, um die gewünschte Weichheit entsprechend der aufgebrachten Fingerkraft zu erzeugen. Ein Prototyp des Geräts wird entwickelt und in eine virtuelle Umgebung integriert. Wir zeigen die Anwendung des Displays anhand eines Online-Shopping-Szenarios.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3194-7_29 7c0de8f8edb81527179f18f90fca6bca;de;;;5.3.;;;Benutzerwahrnehmung von Internet of Things (IoT)-Systemen Dieses Kapitel schlägt ein Modell der Benutzerwahrnehmung in Bezug auf ein IoT-System vor, das auf den Überzeugungen des Benutzers über wichtige Faktoren dieses IoT-Systems basiert. Zunächst klassifiziert das Kapitel die IoT-Anwendungen und -Dienste in zwölf (12) Sektoren im persönlichen, geschäftlichen und öffentlichen Bereich. Es skizziert auch die technologischen, gesellschaftlichen, geschäftlichen und menschlichen Herausforderungen. Anschließend definiert es das IoT User Perceptions Model (IoT-UPM), das aus dreiunddreißig (33) grundlegenden Faktoren besteht. Außerdem werden diese dreiunddreißig (33) Faktoren formal definiert, um ein allgemein akzeptiertes Modell bezüglich der Benutzerwahrnehmung eines bestimmten IoT-Systems zu erstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67876-4_1 ca030e9069cb47a5bc304d69814edf38;de;;;5.3.;;;Bereitstellung von parallelen und überlebensfähigen Mehrwegeverbindungen in OSCARSSCA von ESnet Die Datengenerierung nähert sich Peta- und Exa-Raten durch modernste Wissenschafts- und Forschungsanwendungen, die von der Materialinformatik bis zur Physik reichen. Mit der Datengenerierung und -verwaltung kommt die Notwendigkeit, solch riesige Informationssammlungen über die weltweiten Netzwerke zur Verarbeitung, Analyse, Speicherung oder zum Peer-Sharing zu übertragen. Diese Praxis wird in der großen wissenschaftlichen Gemeinschaft zur Norm, aber bei der Vernetzung können Komplikationen auftreten. Es gibt unzählige Situationen wie der Ausfall von Komponenten aufgrund eines harmlosen Bauunfalls oder einer verheerenden Naturkatastrophe, die zu einer katastrophalen Betriebsunterbrechung führen können. Darüber hinaus besteht angesichts der Größe der Datensätze ein starker Bedarf an intelligenter und schneller Parallelität im gesamten Netzwerk, damit Endbenutzer die verfügbare Bandbreite effizient nutzen können. Wir schlagen daher eine Multipath-Erweiterung für ESnets On-Demand Secure Circuits and Advance Reservation System (OSCARS) vor, das beliebteste langlebige Circuit-Provisioning-Softwarepaket der Netzwerkforschungsgemeinschaft. Derzeit unterstützt OSCARS reine Punkt-zu-Punkt-Verbindungen, unsere vorgeschlagene Client-Software bietet jedoch eine Überlagerung auf die standardmäßige OSCARS-Pfadberechnungs-Engine, die es Endbenutzern ermöglicht, ihre Daten entlang mehrerer verbindungsdisjunkter Pfade zu leiten, um die Überlebensfähigkeit der Sitzung zu gewährleisten und den Grad zu erhöhen der Parallelität. Wir haben die vorgeschlagene Multipath-Erweiterung auch an eine bestehende Anycast-OSCARS-Bereitstellung angepasst, die die Auswahl eines bevorzugten Zielknotens aus einer Reihe potenzieller Kandidaten ermöglicht. Durch gründliche Simulationsanalyse und Exposition gegenüber realistischen Fehlerereignisverteilungen bewerten wir die Multipath-Client-Performance quantitativ und zeigen die relativen Vorteile im Vergleich zur standardmäßigen Single-Path-OSCARS-Bereitstellung.;-;-;-;https://link.springer.com/article/10.1007/s11107-015-0535-x 9e0399ed179748fda185410d028fcd3d;de;;;5.3.;;;Hilbert-Funktionen und die Sätze von Macaulay und Kruskal–Katona Kapitel 6 bietet grundlegendes Material zur Kombinatorik monomieller Ideale. Zuerst erinnern wir uns an die Konzepte von Hilbert-Funktionen und Hilbert-Polynomen und ihre Beziehung zu den;-;-;-;https://link.springer.com/chapter/10.1007/978-0-85729-106-6_6 5025dbb1b38b070183972184fc4bc62d;de;;;5.3.;;;Verbesserte lineare Kryptoanalyse von MIBS mit reduzierter Rundung MIBS ist eine 32-Runden-leichte Blockchiffre mit 64-Bit-Blockgröße und zwei verschiedenen Schlüsselgrößen, nämlich 64-Bit- und 80-Bit-Schlüsseln. Bayet al. lieferten die ersten unmöglichen differentiellen, differentiellen und linearen Kryptoanalysen von MIBS. Ihr bester Angriff war ein linearer Angriff auf das 18-Runden-MIBS-80. In diesem Papier verbessern wir ihren Angriff erheblich, indem wir mehr Näherungen entdecken und die multidimensionale lineare Kryptoanalyse von Hermelin et al. Wir verwenden auch die Technik von Nguyen et al., um weniger Zeitaufwand zu haben. Wir greifen 19 Runden MIBS-80 mit einer Zeitkomplexität von 2 . an;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09843-2_16 f645dc3fdd8d44e8b649d2834024921d;de;;;5.3.;;;Fuzzy-Steuerungsschemata über einen Fuzzy-Leistungsauswerter In praktischen Regelsystemen sind die Anlagen immer nichtlinear und mit Unsicherheit. Es ist ein schwieriger Prozess, einen stabilen Regler für solche nichtlinearen Anlagen zu entwerfen. In den letzten Jahren war die Fuzzy-Regelung nichtlinearer und unsicherer Systeme ein spannendes Forschungsgebiet und einige bedeutende Ergebnisse wurden in;-;-;-;https://link.springer.com/chapter/10.1007/978-0-8176-4539-7_7 e4ce30aaae6d3a5929c1a1425d300c7c;de;;;5.3.;;;Stochastische Hopf-Hopf-Bifurkation eines logistischen Systems mit diskreter Kopplung aus zwei Spezies mit symbiotischer Wechselwirkung In diesem Beitrag wird die stochastische Hopf-Hopf-Bifurkation des diskreten Kopplungslogistiksystems mit symbiotischer Wechselwirkung untersucht. Zuerst wird eine orthogonale polynomielle Approximation einer diskreten Zufallsfunktion in den Hilberträumen angewendet, um das diskrete Kopplungslogistiksystem mit Zufallsparameter auf das deterministische äquivalente System zu reduzieren. Daraus wird geschlossen, dass eine Hopf-Hopf-Bifurkation im äquivalenten deterministischen System nach dem Prinzip algebraischer Kriterien existiert. Numerische Simulationen zeigen, dass der kritische Wert der Bifurkation mit der Intensität des Zufallsparameters variiert und Hopf-Hopf-Bifurkation und periodenverdoppelndes Bifurkationsverhalten existieren. Insbesondere kann die Hopf-Hopf-Bifurkation eine Drift mit der Änderung der zufälligen Intensität sein, und im stochastischen System tritt das Phänomen der Frequenzverriegelung auf.;-;-;-;https://link.springer.com/article/10.1186/s13662-020-02758-y d10abc44dad34c1f2ef54cea94a2a65b;de;;;5.3.;;;Angebots- und Leistungsbewertung einer auftragsspezifischen Aggregate Authority-Transfer Signatur Wir schlagen eine neue auftragsspezifische aggregierte Authority-Transfer-Signatur basierend auf der Gap Diffie-Hellman-Gruppe vor und bewerten deren Leistung. Um eine Stagnation des Arbeitsablaufs oder eine unfallbedingte Betriebsunterbrechung durch die Konzentration von Befugnissen auf eine oder wenige Personen zu verhindern, erfolgt in Unternehmen eine Verteilung und Delegation von Befugnissen an mehrere Personen. Da derzeit verschiedene Operationen in einem Unternehmen über ein Computernetzwerk ausgeführt werden, wird ein Mechanismus zur Übertragung von Befugnissen benötigt, um eine schnelle und ordnungsgemäße Übertragung und Verteilung von Befugnissen in diesem Netzwerk zu ermöglichen. In diesem Beitrag schlagen wir ein Signaturschema zur Übertragung von Autorität vor, das eine auftragsspezifische Gesamtsignatur und eine Gruppensignatur kombiniert. In unserem Verfahren verwendet ein Signaturschema ein Gruppensignaturschema, um die Autorität zu garantieren. Darüber hinaus überträgt es die Befugnisse des Managers auf ein anderes Mitglied der Gruppe. Der Unterschied zum Gruppenmanager bestehender Gruppensignaturen besteht darin, dass dieser Manager nicht nur die Gruppe verwaltet, sondern auch Befugnisse delegiert. In Bezug auf diese Signatur implementieren wir ein Simulationsprogramm und evaluieren die Leistung. Damit zeigen wir, dass unser Vorschlag praktikabel ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-49443-8_6 1c44bd8ea9c35331969b3418da1c3f73;de;;;5.3.;;;Angriff auf Naive Bayes Journal Empfehlungssysteme Empfehlungssysteme wurden in verschiedenen Anwendungen umfassend übernommen. Mit dem Sicherheitsbedenken der künstlichen Intelligenz wurde jedoch in den letzten Jahren die Robustheit solcher Systeme gegen böswillige Angriffe untersucht. In diesem Beitrag bauen wir ein Journal-Empfehlungssystem auf Basis des Naive Bayesian Algorithmus auf, das hilft, den Autoren geeignete Zeitschriften zu empfehlen. Da auch Journal-Empfehlungssysteme unter verschiedenen Angriffen leiden können, untersuchen wir Angriffsmethoden auf die bösartigen Daten. Wir erstellen spezifische bösartige Daten, um die Verfügbarkeit von Trainingsdaten anzugreifen. Solche Abweichungen in den Trainingsdaten können zu einer schlechten Empfehlungsgenauigkeit führen. Wir führen auch umfangreiche Experimente durch und die Ergebnisse zeigen, dass die Empfehlungsgenauigkeit unter solchen Angriffen dramatisch reduziert werden könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8101-4_12 176894c08488c9e605f486d4dac87926;de;;;5.3.;;;Augmented Reality-basierte Vorvisualisierung für die Filmproduktion Mit der Entwicklung der Augmented-Reality-Technologien werden in letzter Zeit Tragegeräte wie Microsoft Hololens und Google Glass sehr populär. In diesem Papier haben wir eine neuartige Augmented-Reality-Anwendung vorgeschlagen, die den Filmregisseuren hilft, ihren Filmprobenprozess abzuschließen und zu erleichtern. Wir haben einen Designraum simuliert, um Filmregisseuren ein hochauflösendes visuelles Audioerlebnis zu bieten. Die Regisseure, die die Hololens tragen, dürfen den synthetisierten Virtual-Reality-Raum betrachten, in dem sie den gesamten Designraum, vorgefertigte Boxen erkennen und den Raum durch definierte Gesten verändern können. Rückmeldungen von Direktoren zeigen, dass das vorgeschlagene Instrument effektiv ist und die vorläufigen experimentellen Ergebnisse mit unseren Beobachtungen übereinstimmen. Generell bietet unsere Forschung die Leitlinien für neuartige Filmprobentaktiken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-04585-2_26 db4c97f07d69d5ef54bb5f6e510f3a18;de;;;5.3.;;;Kontrollierbarkeit von Booleschen Kontrollnetzwerken mit zustandsabhängigen Randbedingungen Dieser Beitrag untersucht die Steuerbarkeit von Booleschen Kontrollnetzwerken (BCNs) mit zustandsabhängigen Randbedingungen. Es wird eine Art Eingabetransformation vorgeschlagen, um einen BCN mit zustandsabhängigen Eingabebeschränkungen in einen BCN mit freier Steuereingabe zu überführen. Basierend auf der vorgeschlagenen Technik wird eine notwendige und ausreichende Bedingung für die Kontrollierbarkeit erhalten. Es wird gezeigt, dass zustandsabhängige Beschränkungen für den Zustand äquivalent als Eingabebeschränkungen ausgedrückt werden können. Wenn ein BCN sowohl Eingabe- als auch Zustandsbeschränkungen hat, besteht die Möglichkeit, dass die Sätze zulässiger Kontrollen für einige Zustände der leere Satz sind. Um diese Art von BCN zu behandeln, wird eine Variation der Eingabetransformation vorgeschlagen und das Problem der Kontrollierbarkeit gelöst. Ein veranschaulichendes Beispiel wird bereitgestellt, um das vorgeschlagene Verfahren und die Ergebnisse zu erläutern.;-;-;-;https://link.springer.com/article/10.1007/s11432-015-5369-8 e5a0fa03d29c6836d13d7246e8f04bf8;de;;;5.3.;;;Die obere Grenze der optimalen Anzahl von Clustern beim Fuzzy-Clustering Die obere Grenze der optimalen Anzahl von Clustern im Clustering-Algorithmus wird in diesem Artikel untersucht. Zur Lösung dieses Problems wird eine neue Methode vorgeschlagen. Diese Methode zeigt, dass die Regel;-;-;-;https://link.springer.com/article/10.1007/BF02713970 5452fac39cd309597a3b2172b7509ff9;de;;;5.3.;;;Automatisches Fragengenerierungssystem für englisches Leseverständnis Dieser Beitrag stellt ein webbasiertes automatisches Fragengenerierungssystem (AQG) vor, um Leseverständnisfragen und Multiple-Choice-Fragen (MC) zur Grammatik aus einem bestimmten englischen Text zu generieren. Ein solches System spart Lehrern Zeit beim Stellen von Fragen und erleichtert Schülern und ihren Eltern die Vorbereitung von Selbstlernübungen. Unser webbasiertes System kann automatisch WH-Fragen (d. h. was, wer, wann, wo, warum und wie) und MC-Grammatikfragen ausgewählter Sätze generieren. Wh-Fragen können auch aus benutzerdefinierten Antwortphrasen generiert werden. Die Generierung von Wh-Fragen nutzt das vortrainierte Modell zum Verstehen natürlicher Sprache, Text-to-Text Transfer Transformer (T5), und eine angepasste Version des SQuAD 2.0-Datensatzes zum maschinellen Leseverständnis. Bei der Erstellung von MC-Fragen werden regelmäßige Verben in einem Text identifiziert und die Lexeme des Verbs als Antwortoptionen verwendet. Unser System benötigt eine durchschnittliche Zeit von etwa 1 s, um eine Wh-Frage zu generieren, und es generiert fast sofort eine MC-Frage. Die Benutzerbewertung ergab, dass unser System einfach zu bedienen und in Bezug auf Nützlichkeit, Benutzerfreundlichkeit und Qualität zufriedenstellend ist, was die Wirksamkeit unseres Systems für Lehrer und Eltern zeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4594-2_12 83166443feb9467b5b02ddbaa342e910;de;;;5.3.;;;Determinanten des Vertrauens in die Akzeptanz medizinischer assistiver Technologien In diesem Artikel wird die Bedeutung von Vertrauen im Prozess der Einführung gesundheitsbezogener Technologien im häuslichen Umfeld untersucht. In einem multimethodischen empirischen Ansatz wird dieses Thema zunächst qualitativ untersucht (Fokusgruppen) und im zweiten Schritt die Ergebnisse quantitativ validiert (Online-Fragebogen). Die Forschung konzentrierte sich auf verschiedene Nutzerfaktoren (Nutzerdiversität) bei der Bewertung von Meinungen und Einstellungen zur Relevanz von Vertrauensbedingungen (z. praktische Erfahrung) sowie Einschätzung der Bedeutung und Erwartungen bezüglich verschiedener Funktionen der Geräte. Die Ergebnisse zeigten signifikante Auswirkungen der Faktoren Alter und Geschlecht sowie Einflüsse des Gesundheitszustands der Personen auf die untersuchten Vertrauensindikatoren. Darüber hinaus ergaben Analysen, dass Vertrauensaspekte in medizinische Hilfsmittel bis zu einem gewissen Grad als Prädiktoren für die Technologieakzeptanz wahrgenommen werden können. Neben Vertrauen unterstreichen die Ergebnisse dieser Forschung die Relevanz, die Vielfalt der Nutzer bei der Erforschung und Gestaltung gesundheitsfördernder Technologien im häuslichen Umfeld zu berücksichtigen, um deren erfolgreiche Integration langfristig sicherzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-15736-4_3 e51393641a14a613844f9313c28e79d6;de;;;5.3.;;;Analysehierarchie Prozessbasiertes Cloud-Service-Bewertungsmodell unter Verwendung des Service-Measure-Index Cloud-Services haben eine Stärke, die die Erfüllung der verschiedenen Anforderungen der Kunden erhöhen kann. In dieser Umgebung sollten Kunden in der Lage sein, durch Qualitätsprüfung den Service auszuwählen, der ihren Anforderungen am besten entspricht. Obwohl Dienstanbieter SLAs für Qualitätsstandards verwenden, ist es für Kunden schwierig, mehrere Dienste selbst zu vergleichen. Daher schlagen wir in diesem Papier ein Entscheidungsmodell für das Cloud-Ranking vor. Für unser vorgeschlagenes Modell wählen wir Servicebewertungsindikatoren aus dem SMI-Modell von CSMIC und wenden die AHP-Methode an, um die Servicebewertungen zu messen. Außerdem zeigen wir anhand einer Fallstudie den Prozess, wie unser vorgeschlagenes Modell Cloud-Dienste bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9341-9_98 4c5e65301abd77f3f6b491aa7f4d179c;de;;;5.3.;;;Verbesserung des Online-Einkaufserlebnisses von Kunden mit Computer Vision und maschinellen Lernmethoden Computer Vision und Mustererkennung haben in den letzten zehn Jahren große Entwicklungen erreicht, insbesondere die Merkmalskategorisierung und -erkennung. Wie die neuen Techniken in diesem Forschungsbereich genutzt werden können, wurde im Bereich der Informationssysteme selten diskutiert. Dieses Papier zielt darauf ab, die Möglichkeiten der jüngsten Entwicklung im Bereich Computer Vision aus der Perspektive des Online-Shopping-Erlebnisses zu untersuchen. Wir diskutierten die Möglichkeit, aussagekräftige Informationen aus Bildern zu extrahieren und diese auf das Online-Empfehlungssystem anzuwenden, um das Online-Shopping-Erlebnis der Kunden zu verbessern. Implikationen für Forscher und Praktiker werden diskutiert. Der Beitrag dieser Papiere ist zweifach, erstens haben wir den Stand der Technik der Computer Vision Entwicklung im Online-Shopping-Empfehlungssystem, insbesondere in der Modebranche, zusammengefasst, zweitens haben wir einige potenzielle Forschungslücken für wie die Computer-Vision-Methode im Bereich der Informationssysteme eingesetzt werden könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-39396-4_39 e9dec89fcdf876e4ef4494b811695cb4;de;;;5.3.;;;Management von Crowdsourcing-Softwaretests: eine Fallstudie basierend auf den Herausforderungen eines Crowdsourcing-Vermittlers Crowdsourcing hat in der Praxis in den letzten Jahren stark an Bedeutung gewonnen. Zahlreiche Unternehmen haben dieses Konzept zur Erfüllung unterschiedlicher Aufgaben und Wertschöpfungsaktivitäten herangezogen. Dennoch gibt es trotz seiner Popularität noch vergleichsweise wenig fundiertes Wissen zum Thema Crowdsourcing, insbesondere im Hinblick auf Crowdsourcing-Vermittler. Crowdsourcing-Vermittler spielen bei Crowdsourcing-Initiativen eine Schlüsselrolle, da sie die Verbindung zwischen den Crowdsourcing-Unternehmen und der Crowd sicherstellen. Die Frage, wie Crowdsourcing-Vermittler Crowdsourcing-Initiativen managen und die damit verbundenen Herausforderungen, wurde jedoch noch nicht in der Forschung behandelt. Wir gehen diese Probleme an, indem wir eine Fallstudie mit einem deutschen Startup-Crowdsourcing-Vermittler namens testCloud durchführen, der Software-Testdienste für Unternehmen anbietet, die ihre Testaktivitäten teilweise oder vollständig an eine bestimmte Crowd auslagern möchten. Die Fallstudie zeigt, dass testCloud vor drei Hauptherausforderungen steht: Prozessmanagement, Crowdmanagement und Technologiemanagement. Für jede Dimension skizzieren wir Mechanismen, die testCloud anwendet, um den Herausforderungen von Crowdsourcing-Projekten zu begegnen.;-;-;-;https://link.springer.com/article/10.1007/s11573-014-0721-9 0bb0cc84f243a3936cdd28659df2a00b;de;;;5.3.;;;Gesprochenen Diskurs visualisieren In diesem Kapitel zeigen wir, dass Unterbrechungen wichtige Elemente für den interaktiven Charakter des Diskurses und für die Lösung von Fragen kognitiver Unsicherheit und Planung sind. Indem wir Diskurse grafisch darstellen, zeigen wir auch, dass Unterbrechungen Teil der lokalen und globalen Kohärenz sind, die durch die systematischen prosodischen Muster des Diskurses von Phrase zu Phrase erzeugt wird. Die spezifische Tonhöhe der Unterbrechung variiert je nach Emotionsausdruck, Aufmerksamkeitssignalen und Konkurrenzsignalen. Diese Prosodie-Formen sind potentiell in gesprochenen Dialogsystemen verwendbar, um intelligente Antwortsysteme bereitzustellen, die auf menschliche Motivationen in Dialogen ansprechen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0019-2_16 3946357858bf713d0668827f0c38aeda;de;;;5.3.;;;Semantische Analyse der Spezifikationslogik Es wird eine neue Interpretation der Spezifikationslogik von J.C. Reynolds als intuitionistische Theorie vorgestellt. Die Hauptmerkmale sind eine funktionale Behandlung der Speicherstruktur nach Reynolds und Oles und die Verwendung einer topos-theoretischen Konstruktion zur Interpretation von Spezifikationsformeln.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-15648-8_28 a379bf419cee9b63c19f99a907c723e3;de;;;5.3.;;;Posenschätzung basierend auf menschlicher Erkennung und Segmentierung Wir adressieren das Problem der 3D Schätzung der menschlichen Pose in einem einzelnen realen Szenenbild. Normalerweise erfordert die 3D-Posenschätzung aus dem realen Bild eine Hintergrundsubtraktion, um die entsprechenden Merkmale zu extrahieren. Wir machen keine solche Annahme. In diesem Beitrag wird ein zweistufiger Ansatz vorgeschlagen: Anstatt die Hintergrundsubtraktion anzuwenden, um die Segmentierung des Menschen zu erhalten, kombinieren wir die Segmentierung mit der Erkennung von Menschen mit einem ISM-basierten Detektor. Dann kann das Silhouettenmerkmal extrahiert werden und die 3D-Posenschätzung wird als Regressionsproblem gelöst. Zur Lösung dieses Problems werden RVMs und die Ridge-Regression-Methode angewendet. Die Ergebnisse zeigen die Robustheit und Genauigkeit unserer Methode.;-;-;-;https://link.springer.com/article/10.1007/s11432-009-0031-y a4c2501f9c2922751b48daf5cd27a096;de;;;5.3.;;;Vermittlung von Handlung und Musik mit erweiterten Grammatiken Aktuelle Ansätze zur Integration von Aktion und Musik in intelligente virtuelle Umgebungen sind größtenteils „fest verdrahtet“, um einem bestimmten Interaktionsschema zu entsprechen. Diese fehlende Unabhängigkeit zwischen beiden Teilen hindert den Musik- oder Tonleiter daran, systematisch und fokussiert neue musikalische Möglichkeiten zu erkunden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39396-2_34 f1f55a00dc0b50242d949032ed53d370;de;;;5.3.;;;Ein bildbasierter Ansatz für Handverschluss in Mixed Reality Umgebungen Die Illusion der Koexistenz virtueller Objekte in der physischen Welt, die das Wesen des MR-Paradigmas ausmacht, wird typischerweise durch die Überlagerung virtueller Inhalte auf die durch eine Kamera aufgenommene Umgebung ermöglicht. Dies funktioniert gut, bis die Reihenfolge der zu kombinierenden Ebenen mit ihrem Abstand vom Beobachter kohärent ist. Aber wann immer ein Objekt der realen Welt den virtuellen Inhalt verdecken soll, verschwindet die Illusion. Was hinter einem realen Objekt zu sehen ist, könnte stattdessen darüber visualisiert werden, wodurch eine „kognitive Dissonanz“ erzeugt wird, die das Szenenverständnis und letztendlich die Interaktionsfähigkeiten während des MR-Erlebnisses beeinträchtigen kann. Dieses Papier beschreibt einen Ansatz zur Behandlung von Handokklusionen in MR/AR-Interaktionskontexten mittels einer optimierten Stereo-Matching-Technik basierend auf dem Glaubensausbreitungsalgorithmus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07458-0_30 7dc42df8c066bf7b063844c4273b81e2;de;;;5.3.;;;Verlustfreie Kompression otoneurologischer Augenbewegungssignale Wir haben die Leistung mehrerer verlustfreier Kompressionsalgorithmen an Augenbewegungssignalen untersucht, die in otoneurologischen und anderen physiologischen Labors aufgezeichnet wurden. Trotz der breiten Verwendung dieser Signale wurde ihre Komprimierung vor unserer Forschung nicht untersucht. Die Kompressionsverfahren basierten auf dem gemeinsamen Modell der Verwendung eines Prädiktors zum Dekorrelieren der Eingabe und Verwendung eines Entropiecodierers zum Codieren des Rests. Wir fanden heraus, dass diese mit 400 Hz und mit einer Amplitudenauflösung von 13 Bit aufgezeichneten Augenbewegungssignale mit einem Kompressionsverhältnis von etwa 2,7 verlustfrei komprimiert werden konnten.;-;-;-;https://link.springer.com/article/10.1023/A%3A1026291218634 ef15ba25dd4850c3c59f5d7e6f859373;de;;;5.3.;;;Ein AmI-basiertes und die Privatsphäre schützendes Einkaufszentrum-Modell Heutzutage bieten große Einkaufszentren Tools, um Kunden beim Kauf von Produkten zu helfen und sie anzuregen. Einige dieser Tools verschmelzen digitale Operationen mit physischen, die von Kunden ausgeführt werden, zu gemischten Handelserlebnissen. Andererseits stellt Ambient Intelligence (AmI) ein Paradigma dar, das sich darauf konzentriert, physische Umgebungen auszustatten, um ergonomische Räume für Menschen zu definieren, die mit computerbasierten lokalisierten Diensten interagieren, die allgegenwärtig sind. In diesem Zusammenhang schlagen wir ein Framework vor, das auf zellularen Automaten (CA) basiert, einem sehr bekannten formalen Rechenmodell, das geeignet ist, Dienste zu abstrahieren, die in einer AmI-basierten Umgebung bereitgestellt werden, wobei bestimmte Datenschutzstufen der Käuferinformationen erhalten bleiben. CA-basierte Algorithmen sind vorteilhaft, da sie verteilt, skalierbar, online sind und geringe Bereitstellungskosten erfordern. Diese Arbeit schlägt eine neuere Anwendung von CA vor, nämlich Cellular ANTomata, um einen Dienst zu implementieren, durch den Käufer angeleitet werden, die passenden Angebote für Artikel in ihren Einkaufslisten zu finden. Ein weiteres Ergebnis dieser Arbeit ist die Instanziierung eines Protokolls für ein datenschutzwahrendes Einkaufserlebnis in der Shopping Mall.;-;-;-;https://link.springer.com/article/10.1186/s13673-017-0107-4 3f0b6f2dfe07ca54a9e93785b9623c9f;de;;;5.3.;;;Störungsminderung für asynchrone kooperative STBC-OFDM-Systeme Dieses Papier befasst sich mit dem Problem der Interferenzminderung in kooperativen raumzeitblockcodierten orthogonalen Frequenzmultiplex-(STBC-OFDM)-Systemen bei Vorhandensein von Asynchronität. Dieses Schema verarbeitet zuerst die empfangenen ST-Codewörter vor, um die äquivalente Fading-Matrix in eine obere Dreiecksform mit suboptimaler Ordnung basierend auf einer Permutations-QR-Zerlegung mit geringer Komplexität umzuwandeln, und unterdrückt dann die InterCarrier Interference (ICI) und InterSymbol Interference (ISI) durch Ausnutzen der aufeinanderfolgenden Interferenzunterdrückung ( SIC) Technik. Simulationsergebnisse zeigen, dass die Leistung des vorgeschlagenen Algorithmus leicht übertrifft oder sich asymptotisch der des bestehenden Detektors für minimale mittlere quadratische Fehler (MMSE) annähert, abhängig von der Größe der Trägerfrequenz-Offsets (CFOs), jedoch mit weniger Komplexität.;-;-;-;https://link.springer.com/article/10.1007/s11767-011-0345-y 57e11ef4538effd473828f86b4da05e0;de;;;5.3.;;;Über die Grundlagen der Diensteinteraktion im Cloud Computing Mit einer langfristigen Anhäufung von IT-Technologien wird Cloud Computing nach der PC-Revolution in den 1980er Jahren, der Internetrevolution in den 1990er Jahren und der mobilen Internetrevolution in den 2000er Jahren zu einer neuen Revolution. Cloud Computing ist ein Paradigma des Internet Computing, das Software als Service versteht, der sich an eine Anzahl von Benutzern mit sich von Zeit zu Zeit ändernden Anforderungen orientiert, gleichzeitig aber die Reaktion auf eine Anforderung eher als aktuelle Best-Effort versteht als eine einzigartige präzise. Es verändert die Art und Weise, wie wir Daten, Informationen und Wissen teilen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14553-7_3 7d04b2074fee6815dc6f9af70ddb2519;de;;;5.3.;;;Nicht standardmäßige Anwendungen von PIRIKA: Pilot des richtigen Wissens und Arguments Argumentation ist ein dialektischer Prozess, Dinge zu wissen (Inquiry) und sie zu rechtfertigen (Advocacy) im Allgemeinen. Die computergestützte Argumentation wurde in der Gemeinschaft von Multi-Agenten-Systemen als sozialer Computermechanismus oder -paradigma anerkannt. Wir haben ein rechnergestütztes Argumentations-Framework entwickelt, das im Wesentlichen aus EALP (Extended Annotated Logic Programming) und LMA (Logic of Multiple-Valueed Argumentation) besteht, das auf EALP aufgebaut ist. In diesem Papier beschreiben wir einige nicht standardmäßige Verwendungen des implementierten Argumentationssystems: PIRIKA (Pilot of the Right Knowledge and Argument) basierend auf EALP und LMA, das jetzt der Öffentlichkeit als Open-Source-Software zugänglich ist, und zeigen, dass diese Verwendung kann die Nützlichkeit und Benutzerfreundlichkeit von PIRIKA zusammen mit der Standardnutzung von PIRIKA weiter ausbauen. PIRIKA ermöglicht es uns, unbestimmte Agenden (teilweise unspezifizierte) mit Variablen vorzulegen, formale Literale als halbnatürliche Sprachsätze darzustellen und Halbgitter für Annotationen von Wahrheitswerten insbesondere für die östliche Argumentation zu verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-44927-7_16 74f5941050a28b7913b9dfe2498a9dfa;de;;;5.3.;;;Vorläufige Bewertung der Navigations- und Timingfähigkeit von IRNSS/NavIC an der Northcap University Global Navigation Satellite System (GNSS) ist ein System, das die Satelliten verwendet, um eine georäumliche Positionsbestimmung bereitzustellen. Es ermöglicht den Empfängern, ihren Standort (d. h. Breitengrad, Längengrad und Höhe) und Zeit mit sehr hoher Genauigkeit zu bestimmen. Das gebräuchlichste GNSS ist das von den USA entwickelte Global Positioning System (GPS). Russlands GLONASS ist auch ein voll funktionsfähiges GNSS. Andere GNSS sind das BeiDou Navigationssystem von China und Galileo der Europäischen Union. Indien (ISRO) hat vor kurzem das Indian Regional Navigational Satellite System (IRNSS) entwickelt und in Betrieb genommen. In diesem Papier werden die grundlegenden Leistungsindikatoren wie Datenqualität, Datenverwendbarkeit, Positions- und Zeitunsicherheit der von den IRNSS-Empfängern bereitgestellten Daten analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5827-6_32 c1f2d0e8b03b1a58fd8e864093bf404f;de;;;5.3.;;;LasAR: Laserpointer-basierte mobile Augmented Reality für E-Commerce-Dienste Fortschritte bei Mobilfunk- und Computertechnologien ermöglichten die Transformation der Märkte in die Form des E-Commerce. Aktuelle E-Commerce-Technologien liefern jedoch möglicherweise nicht genügend Informationen über die physische Dimension des Produkts und die Harmonisierung mit der Umgebung. Ein Käufer kann möglicherweise nicht feststellen, ob das Produkt in sein Büro passt oder in seiner Raumumgebung gut aussieht. Es besteht eine grundlegende Diskrepanz zwischen der internetbasierten Cyberwelt und der realen Umgebung des Benutzers. Augmented Reality (AR)-Technologien können diese Lücke füllen, indem virtuelle Produkte in die realen Umgebungen der Benutzer überlagert werden. Die meisten AR-Systeme basieren jedoch auf vorkalibrierten Markern/Bildern oder vorinstallierten Infrastrukturen. In diesem Beitrag präsentieren wir ein markerloses, einfach zu bedienendes und eigenständiges AR-System (LasAR), das auf Laserpointer-Tracking basiert. In den Ecken eines Mobiltelefons wurden Laserpointer installiert, mit der Handykamera kalibriert und anschließend zur Posenberechnung zwischen Mobiltelefon und projizierter Flächenstruktur verwendet. Mit diesem System können ungeschulte Benutzer einfach ein Produkt im realen Umgebungskontext für E-Commerce-Anwendungen „zeigen und fühlen“.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32692-9_43 015a4f81ddf2bf3dd95dd0937905bf74;de;;;5.3.;;;Technologie für veränderte Gefühle Gefühle ändern sich und Technologie ignoriert diese Veränderungen normalerweise, obwohl der Technologie oft zugeschrieben wird, dass sie die veränderten Gefühle verursacht, insbesondere Frustration, Irritation, Ärger oder (manchmal) Interesse und Freude. Dieser Vortrag zeigt Technologien, die wir entwickelt haben, um Emotionen zu erkennen und darauf zu reagieren, und diskutiert, wie sie Menschen helfen können, ihre eigenen Emotionen besser zu ändern, wenn sie dies möchten. Ich werde versuchen, einige der neuen Technologien live zu demonstrieren und ihre nützlichen Anwendungen zu diskutieren (z. Ich werde auch einige besorgniserregende Verwendungen erwähnen und Ideen erbitten, wie missbräuchliche Verwendungen minimiert oder verhindert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13226-1_1 50969acf672d81b254cadb27498da77b;de;;;5.3.;;;Eine empirische Studie zum Einfluss der Interpretierbarkeit von Metaphern in UI auf die Erlernbarkeit mobiler Apps Mobile Geräte wie Smartphones und Tablet-PCs haben sich seit ihrer Einführung Ende der 1990er Jahre kontinuierlich weiterentwickelt. Gleichzeitig sind auch der Aufbau und die Nutzung mobiler Anwendungen immer komplexer geworden. Infolgedessen erweist es sich oft als schwierig, die Benutzeroberfläche (UI) von Anwendungen zu verstehen. Außerdem verschlimmert die geringe Interpretierbarkeit von Metaphern in UIs das Problem. Diese Bedingungen und Benutzerumgebungen verhindern ein reibungsloses Lernen von Anwendungen. Dementsprechend kann davon ausgegangen werden, dass die geringe Interpretierbarkeit von Metaphern möglicherweise die Erlernbarkeit von Anwendungen negativ beeinflusst. Bisherige Studien im Bereich der Informationssysteme (IS) haben jedoch kein großes Interesse an der Auswirkung der Interpretierbarkeit von Metaphern in UIs mobiler Anwendungen auf die Erlernbarkeit der Anwendungen gezeigt. Die Hauptforschungsziele dieser Studie sind: (1) die Auswirkungen der Interpretierbarkeit von Metaphern in UIs mobiler Anwendungen auf das mentale Modell der Nutzer der Anwendungen und auf die Erlernbarkeit der Anwendungen zu untersuchen und (2) Finden Sie den Effekt des mentalen Modells der Benutzer auf die Erlernbarkeit der Anwendungen heraus. Die Daten wurden durch eine Umfrage gesammelt und die Strukturgleichungsmodellierung (SEM) wurde für die Analyse verwendet. Die Ergebnisse zeigten, dass die Interpretierbarkeit von Metaphern signifikante Auswirkungen auf das mentale Modell der Nutzer sowie auf die Erlernbarkeit von Anwendungen hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-5041-1_61 c1ec4ad7845a01a46659f9e6cb5b3373;de;;;5.3.;;;Verbesserungen einer Ressourcenanalyse für Hume Der Kern unserer Ressourcenanalyse für die eingebettete Systemsprache Hume ist eine ressourcengenerische, typbasierte Inferenzmaschine, die das Konzept der amortisierten Kosten verwendet, um Ressourcengrenzen statisch abzuleiten. In diesem Beitrag stellen wir Erweiterungen und Verbesserungen dieser Ressourcenanalyse auf verschiedene Weise vor. Als spezifische Instanz unserer Inferenz-Engine entwickeln und bewerten wir eine Call-Count-Analyse für Programme höherer Ordnung. Wir adressieren Usability-Aspekte im Allgemeinen und diskutieren insbesondere eine verbesserte Darstellung der abgeleiteten Ressourcengrenzen zusammen mit der Möglichkeit, diese Grenzen interaktiv abzustimmen. Schließlich zeigen wir Verbesserungen in der Leistung unserer Analyse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15331-0_2 90ddfc39742f0fd3d364719090633c3b;de;;;5.3.;;;Kollaboratives Filtern zur Erweiterung des Hintergrundwissens der Lernenden beim Online-Sprachenlernen: Verbessert die „top-down“-Verarbeitung die Vokabelkenntnisse? In den letzten Jahren hat das kollaborative Filtern, ein Empfehlungsalgorithmus, der die Daten eines Benutzers wie z. Genaue Empfehlungen zusammen mit dem Interesse eines Benutzers können jedoch nicht ideal als effektive Lernumgebung sein. Diese Studie zielt darauf ab, ein Online-Lernsystem für Englisch mit kollaborativer Filterung zu entwickeln und zu evaluieren, das es den Lernenden ermöglicht, englische Vokabeln zu lernen und gleichzeitig ihre Interessen zu erweitern. Die Online-Lernumgebung empfiehlt englische Nachrichtenartikel, die Informationen von anderen Benutzern mit ähnlichen Interessen verwenden. Der Lernende studiert dann diese empfohlenen Artikel als Methode zum Englischlernen. Die Ergebnisse eines zweimonatigen Experiments, in dem dieses System mit einem früheren kollaborativen Filtersystem namens „GroupLens“ verglichen wurde, zeigen, dass Lernende, die das in dieser Studie entwickelte kollaborative Filtersystem verwendeten, verschiedene Nachrichtenartikel lasen und bei themenspezifischen Vokabeltests deutlich höhere Punktzahlen erzielten als diejenigen, die das vorherige System verwendet haben.;-;-;-;https://link.springer.com/article/10.1007/s11423-014-9344-7 3b2fb15849c84f61635907f2ed793287;de;;;5.3.;;;Texturklassifizierung basierend auf Contourlet-Subband-Clustering In diesem Artikel schlagen wir eine neuartige Texturklassifizierungsmethode vor, die auf der Merkmalsextraktion durch C-Means-Clustering auf der Konturelement-Domäne basiert. Insbesondere werden alle Merkmale, die jedes Konturelement-Teilband darstellen, durch einen C-Means-Clustering-Standardalgorithmus extrahiert. Bei der Untersuchung dieser Merkmale verwenden wir das gewichtete;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25944-9_54 70d4cd1aa41770b0e16f9b61e532ec9c;de;;;5.3.;;;Ein vorlagenbasiertes Test-Authoring-Tool zum Schreiben von Qualitätstests für die Anforderungsvalidierung Anforderungsfehler wie Unrichtigkeit und Unvollständigkeit sind die häufigsten und am schwierigsten zu behebenden Fehler in einem Softwareentwicklungsprojekt. In diesem Dokument beschreiben wir die Erweiterung unseres Tools TestMEReq mit einem vorlagenbasierten Test-Authoring, um die Anforderungsingenieure beim Schreiben von Qualitätstestanforderungen und Testfällen für die Anforderungsvalidierung in der frühesten Phase des Anforderungsentwicklungsprozesses zu unterstützen. Wir betten einen englischsprachigen Parser ein, der die Richtigkeit der von den Requirements Engineers geschriebenen Testanforderungen und Testfälle überprüft. Darüber hinaus werden auch zeitnahe Benachrichtigungen und Highlights bereitgestellt, um die Fehler zu visualisieren und die Requirements Engineers zu alarmieren. Wir haben eine Benutzerstudie durchgeführt, um die Benutzerfreundlichkeit des Tools und seine Wirksamkeit zu bewerten, um Anfängern bei der Erstellung von Qualitätstests zu helfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-3256-1_8 88b7de46d344c18840cecd914b7b8bc5;de;;;5.3.;;;Hintere Schädelgrube und Inhalt Überbrückungsvenen von der Oberfläche des Großhirns laufen häufig in die obere Oberfläche des Tentorium cerebelli und setzen sich als Tentoriumsnebenhöhlen entweder zum Sinus transversus oder zum Sinus sigmoideus fort. Seltener verlaufen sie medial zum Sinus petrosus superior oder zum Sinus gerade. An ihrem Ursprung haben die Nebenhöhlen normalerweise einen Durchmesser von 3–4 mm und verbreitern sich an ihren Enden auf 8–10 mm. In der Länge variieren sie zwischen 3 und 73 mm. Das Ende derer, die in die Sinus transversus münden, liegt im Mittel 50 (10–80) mm vom Zusammenfluss der Sinus (Abb. 266). In sehr seltenen Fällen fanden wir einen longitudinalen Tentoriumsinus (s. Abb. 265).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-68242-1_13 9ff47ad9830d0a053e10bec73c03050a;de;;;5.3.;;;Pseudonymisierungsansatz in einem Gesundheits-IoT-System zur Stärkung von Sicherheit und Datenschutz Ergebnisse des OCARIoT-Projekts In Bezug auf Sicherheit und Datenschutz im Internet der Dinge (IoT), insbesondere in einem digitalen Gesundheitssystem, ist es notwendig, die Wahrung der Benutzerrechte zu gewährleisten. Dies erfordert einen Ansatz, der eine tiefgreifende Sicherheitsstrategie berücksichtigt, die auf risikobasierten Ergebnissen, Akteuren, ihrer Privatsphäre und dem gesamten Ökosystem, einschließlich der Anwendungen und der Plattform, basiert. Dieses Papier präsentiert einen Ansatz zur Stärkung der Sicherheits- und Datenschutzaspekte unter Verwendung verschiedener Sicherheitsschichten basierend auf kryptografischen, Pseudonymisierungs- und Anonymisierungstechniken zum Schutz der verarbeiteten, gespeicherten und übertragenen Daten. Der hier vorgestellte Ansatz wurde im Projekt OCARIoT in einer digitalen Gesundheitsplattform entwickelt und angewendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-34353-8_10 8da141bb0dd9cb09bac6b4d459c8971b;de;;;5.3.;;;Sicherheitsbewertung für grafisches Passwort Die Benutzerauthentifizierung ist heutzutage eines der wichtigen Themen in der Informationssicherheit. Textbasierte Schemata für starke Passwörter könnten ein gewisses Maß an Sicherheit bieten. Die Tatsache, dass starke Passwörter schwer zu merken sind, führt jedoch oft dazu, dass ihre Besitzer sie auf Papieren notieren oder sogar in einer Computerdatei speichern. Grafische Passwort- oder grafische Benutzerauthentifizierung (GUA) wurde als mögliche alternative Lösung zur textbasierten Authentifizierung vorgeschlagen, insbesondere motiviert durch die Tatsache, dass Menschen sich Bilder besser merken können als Text. Alle Algorithmen von Graphical Password haben zwei verschiedene Aspekte, nämlich Benutzerfreundlichkeit und Sicherheit. Dieses Papier konzentriert sich auf Sicherheitsaspekte von Algorithmen, an denen die meisten Forscher arbeiten und versuchen, Sicherheitsmerkmale und -attribute zu definieren. Leider gibt es bisher kein vollständiges Bewertungskriterium für die grafische Passwortsicherheit. Zunächst versucht dieses Papier, den Großteil des GUA-Algorithmus zu studieren. Sammelt dann die wichtigsten Sicherheitsattribute in GUA und schlägt ein Bewertungskriterium vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21984-9_37 b71a2af2b428296a1ac3069a9f399d88;de;;;5.3.;;;Eisen-Schwefel-Cluster als Alternative zu Pyridoxal-5′-Phosphat in bakteriellen L-Serin-Dehydratasen: Klonierung des Gens für die β-Untereinheit des Enzyms aus L-Serin-Dehydratasen aus den streng anaeroben Bakterien Peptostreptococcus asaccharolyticus und Clostridium propionicum enthielten [4Fe-4S]-Cluster, aber kein Pyridoxal-5′-phosphat. Beide Enzyme werden durch Sauerstoff inaktiviert und durch Eisen(II)-Ionen unter anaeroben Bedingungen reaktiviert. In Kombination mit EPR-Studien weisen die Daten auf einen Aconitase-ähnlichen Mechanismus der Dehydratisierung von L-Serin hin. Beide Enzyme bestehen aus zwei verschiedenen Untereinheiten (α, 30 kDa und β, 25 kDa). Das für die β-Untereinheit von P. asaccharolyticus kodierende Gen wurde kloniert und sequenziert. Der N-Terminus der abgeleiteten Aminosäuresequenz zeigt signifikante Identitäten mit der β-Untereinheit von C. propionicum sowie mit den N-Termini beider L-Serin-Dehydratasen aus Escherichia coli.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-7393-2_35 7264c7f1af901efd644b6dcec4a5382e;de;;;5.3.;;;Innovatives Framework für die Datenstruktur mit Design Pattern Das objektorientierte Entwurfsmuster bietet eine effiziente, flexible und erweiterbare Möglichkeit, Softwarekomponenten in ein System zu strukturieren und zu organisieren, so dass das System robust, anpassungsfähig und in hohem Maße wiederverwendbar ist. Es bietet einen innovativen Rahmen für gutes Software-Design, das in hohem Maße wiederverwendbar und damit effizient in Bezug auf Personal- und Zeitinvestitionen ist. In diesem Papier haben wir die verschiedenen objektorientierten Entwurfsmuster und ihre Verwendung in verschiedenen Datenstrukturen diskutiert. Wir verwenden Entwurfsmuster effektiv, indem wir verschiedene Datenstrukturen in einer Programmierumgebung im Sinne einer Klassenhierarchie unter Verwendung von Abstraktion darstellen. Hier haben wir die Methoden also mit der Programmiersprache c und Java implementiert. Darüber hinaus haben wir die verschiedenen Beispiele der Muster anhand ihres Klassendiagramms gezeigt, für die wir die Software Rational Rose verwendet haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-81-322-0491-6_19 3f2f76d9ad19deceec6d351fe08c8eca;de;;;5.3.;;;Sichere Authentifizierung mit einmaligem kontextbezogenem QR-Code Herkömmliche Authentifizierungsmethoden sind einer Vielzahl von Angriffen ausgesetzt. Es besteht ein hoher Bedarf, während der Authentifizierung eines Benutzers notwendige Mechanismen bereitzustellen, um ihn und das System vor anfälligen Angriffen zu schützen. In diesem Beitrag wurde eine neuartige Lösung auf der Grundlage eines Quick Response (QR) Codes vorgeschlagen, um verschiedenen Arten von Sicherheitsverletzungen während des Authentifizierungsprozesses entgegenzuwirken. Der QR-Code erleichtert die kontextbasierte Authentifizierung. Einige Informationen werden im QR-Code gespeichert, der sich bei jeder Authentifizierung des Benutzers ändert. Anhand dieser Informationen muss der Benutzer ein Einmalpasswort ableiten, das seinem tatsächlichen Passwort entspricht. Das vorgeschlagene Schema kann gut und einfach in verschiedene bestehende und neue Systeme angepasst werden. Das Experiment und die Analyse zeigen, dass es bei der Abwehr von Sicherheitsbedrohungen effizienter ist als die bestehenden Algorithmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4825-3_3 e7905bcd2b8b0e2bc83345c3b895ae85;de;;;5.3.;;;Tag-Ziffern-basierter Honeypot zur Erkennung von Shoulder Surfing Attack Herkömmliche passwortbasierte Authentifizierungsschemata sind anfällig für Schultersurfangriffe. Wenn ein Angreifer also sieht, dass ein legitimer Benutzer ein Passwort eingibt, ist es für den Angreifer möglich, diese Anmeldeinformationen später zu verwenden, um sich illegal beim System anzumelden und möglicherweise böswillige Aktivitäten auszuführen. Es gibt viele Methoden, um einen solchen Angriff zu verhindern. Diese Methoden sind für den Angreifer entweder teilweise oder vollständig beobachtbar. In diesem Artikel haben wir uns eher auf die Erkennung von Shoulder Surfing-Angriffen als auf die Prävention konzentriert. Wir haben das Konzept der Tag-Ziffer eingeführt, um eine als Honeypot bekannte Falle zu erstellen. Wenn die Schultersurfer versuchen, sich mit den Anmeldeinformationen anderer anzumelden, besteht eine hohe Wahrscheinlichkeit, dass sie auf frischer Tat ertappt werden. Eine vergleichende Analyse zeigt, dass die vorgeschlagene Methodik im Gegensatz zu den bestehenden Präventivsystemen nicht viel Berechnung seitens der Nutzer erfordert. Somit ist das vorgeschlagene Schema aus Sicht der Sicherheit und Benutzerfreundlichkeit ziemlich robust und leistungsstark.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44966-0_10 d850375480045ea6ba361d873efd4ee7;de;;;5.3.;;;Die psychometrische Evaluation einer summativen multimedialen Leistungsbeurteilung In diesem Artikel wird eine Fallstudie zur Konzeption, Entwicklung und Bewertung einer multimedialen Leistungsbewertung (MBPA) zur Messung der Fähigkeiten von Wachpersonal in beengten Räumen vorgestellt. Ein Engpasswächter (CSG) überwacht Vorgänge, die in einem engen Raum (z. B. Tank oder Silo) durchgeführt werden. Derzeit müssen Personen, die in den Niederlanden ein zertifizierter CSG werden möchten, an einem eintägigen Schulungsprogramm teilnehmen und sowohl einen wissensbasierten MC-Test als auch eine praxisorientierte leistungsbasierte Bewertung (PBA) bestehen. Unser Ziel ist es, mit dem MBPA die Fähigkeiten zu messen, die derzeit durch die PBA bewertet werden. Wir besprechen zunächst das Design und die Entwicklung des MBPA. Zweitens präsentieren wir eine empirische Studie, die zur Beurteilung der Qualität unseres Messinstruments herangezogen wurde. Eine repräsentative Stichprobe von 55 CSG-Studenten, die gerade die eintägige Ausbildung absolviert hatten, hat anschließend den MC-Test und dann, je nach Vorgabe, den PBA oder den MBPA absolviert. Wir berichten über die psychometrischen Eigenschaften des MBPA. Darüber hinaus führen wir mithilfe von Korrelations- und Regressionsanalysen einen empirischen Vergleich zwischen den Schülernoten auf dem PBA und dem MBPA durch. Die Ergebnisse zeigen, dass die Ergebnisse der Schüler auf dem PBA und dem MBPA signifikant korreliert sind und dass der MBPA-Score der Schüler ein guter Prädiktor für ihre Ergebnisse im PBA ist. In der Diskussion geben wir Implikationen und Richtungen für die zukünftige Forschung und Praxis im Bereich MBPA.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27704-2_1 676e5f5470996dbd2a8741dae6f1822a;de;;;5.3.;;;Aktueller Stand, Herausforderungen und Ausblick von E-Health Records Systemen in Australien Australien gehört zu den wenigen Ländern, die nationale elektronische Gesundheitsdatensysteme (E-Health) entwickelt haben. Ab 1. Juli 2012 können sich Australier beim Personally Controlled Electronic Health Records (PCEHR) System registrieren. Die Entwicklung von E-Health-Systemen wird von Interessenträgern in Australien unterstützt, das PCEHR-System wurde jedoch vielfach kritisiert. Für die Einrichtung eines ausgereiften E-Gesundheitsaktensystems untersucht dieses Papier den aktuellen Stand der australischen Entwicklung von E-Gesundheitsaktensystemen, identifiziert die Herausforderungen, die sich bei der Entwicklung ergeben, und analysiert die Perspektiven des PCEHR-Systems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37832-4_62 971306d0f478273ac39268b4691f0da3;de;;;5.3.;;;Zwei- und Einhandtechniken für präzise und effiziente Manipulation in immersiven virtuellen Umgebungen Es werden Zweihand-Steuerungstechniken zum präzisen und effizienten Handhaben eines virtuellen 3D-Objekts in einer immersiven Virtual-Reality-Umgebung vorgeschlagen. Außerdem werden Einhand- und Zweihandtechniken beschrieben und vergleichend bewertet. Die Techniken werden verwendet, um ein Objekt mit der Geschwindigkeit einer Hand oder dem Abstand zwischen beiden Händen präzise zu steuern und effizient einzustellen. Die kontrollierten Einstellungen sind eigentlich Positions- und Blickpunkteinstellungen. Die Ergebnisse aus experimentellen Auswertungen zeigen, dass zweihändige Steuermethoden, die verwendet werden, um die Positions- und Blickpunkteinstellungen vorzunehmen, die besten sind, aber die gleichzeitige Verwendung von sowohl einhändigen als auch zweihändigen Steuertechniken verbessert nicht unbedingt die Benutzerfreundlichkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89639-5_94 8398a70c32bfffee799909fb71e8800d;de;;;5.3.;;;Permeabilitätseigenschaften von unmodifizierten Lipid-Doppelschichtmembranen Biologische Membranen sind dynamische, mosaikartige Strukturen, bei denen meist verschiedene Transportfunktionen gleichzeitig auftreten. Die molekularen Mechanismen, die für die Transmembranbewegung von gelösten Stoffen, Ionen oder Nichtelektrolyten verantwortlich sind, werden daher aufgrund der Schwierigkeiten bei der Isolierung und Identifizierung der Eigenschaften bestimmter Transportsysteme – ob;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-46370-9_11 77ce87364db1d3455cfdc8a01cc040e9;de;;;5.3.;;;Entwicklung von Softwarequalitätsstandards und -modellen: Umweltverträglichkeit und Zuverlässigkeitsprobleme Als wesentlicher Bestandteil eines Softwarequalitätsmodells für grüne Software werden neue Attribute (Merkmale, Anforderungen) vorgeschlagen. Es besteht aus zwei Hauptattributen, nämlich Ressourcen(energie)einsparung und Nachhaltigkeit. Die Entwicklung von Softwarequalitätsmodellen wird im Zusammenhang mit Ökologie und Zuverlässigkeit analysiert. Insbesondere werden bekannte Softwarequalitätsmodelle, angefangen vom ersten McCall-Modell (1977) bis hin zu Modellen, die in den Standards ISO/IEC9126 (2001) und ISO/IEC25010 (2010) beschrieben sind, nach Umwelt- und Zuverlässigkeitsfragen analysiert. Der Vergleich der Softwarequalitätsmodelle erfolgt unter Verwendung einer speziellen Komplexitäts- und Technikmetrik unter Berücksichtigung der Anzahl von Ebenen und Attributen und ihrer Semantik. Die Vorhersage der Komplexität für das nächste Softwarequalitätsmodell (2020) ist erfüllt und es werden Varianten der Einbeziehung von grünen Softwareattributen in das Modell vorgeschlagen. Metriken zur Bewertung von Zuverlässigkeit, grünen und anderen Qualitätsmerkmalen werden unter Berücksichtigung der Standards ISO/IEC25023 und ISO/IEC9126 analysiert. Die Ergebnisse des Vergleichs von metrischen Sätzen für diese Standards werden beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30246-1_3 6d6d7c7aa1616ef7acd002dc105873fd;de;;;5.3.;;;Leitlinien für Mehrsystem-Navigationsfunkempfänger auf Schiffen zum Umgang mit der harmonisierten Bereitstellung von PNT-Daten In dem Papier präsentieren die Autoren einen Entwurf von Leitlinien für die Verarbeitung von Positions-, Navigations- und Zeitdaten auf Schiffen, die von der International Maritime Organization (IMO) ausgearbeitet wurden [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-66251-0_18 2e2239dc7d0747ae303605e6cfae0eb2;de;;;5.3.;;;Anwenden der ISO/IEC 25010-Qualitätsmodelle auf Softwareprodukte Der Softwareentwicklungsprozess konzentriert sich auf die Lieferung einer Softwareimplementierung – ihres „Produkts“, ob COTS oder maßgeschneidert. Potenzielle Käufer werden jedoch durch das Versprechen einer zukünftigen „Dienstleistung“ dieses Produkts angezogen: die Aspekte des Verhaltens der Software, die außerhalb sichtbar sind, insbesondere diejenigen, die in der realen Welt einen Wert liefern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-97925-0_42 815e89be932a7ab5a70d8c943bb943c7;de;;;5.3.;;;Ein neuartiges Laserführungssystem zur Ausrichtung linearer chirurgischer Instrumente: seine Prinzipien und Leistungsbewertung als Mensch-Maschine-System Präsentiert wird ein neuartiges Laserführungssystem, das duale Laserstrahl-Shooter zur Ausrichtung von linearen chirurgischen Instrumenten verwendet. Bei dem vorgeschlagenen System definiert der Schnittpunkt zweier Laserebenen, die durch duale Laser-Shooter erzeugt werden, die an zwei festen Orten platziert sind, den geraden Einführungsweg eines chirurgischen Werkzeugs. Die Führungsinformationen werden direkt auf den Patienten und das chirurgische Werkzeug projiziert. Wir gehen davon aus, dass ein lineares chirurgisches Instrument eine zylindrische Form hat oder dass eine zylindrische Hülse am Werkzeug angebracht ist, so dass die Hülsen- und Werkzeugachsen ausgerichtet sind. Das Führungsverfahren wird hauptsächlich unter Verwendung der Eigenschaft formuliert, dass die beiden Laserebenen genau dann als zwei parallele Geraden auf die zylindrische Werkzeugoberfläche projiziert werden, wenn die Richtung der Zylinderachse mit der Richtung des Schnittpunkts der beiden Laserebenen übereinstimmt. Im Gegensatz zu herkömmlichen Augmented-Reality-Systemen erfordert das vorgeschlagene System keine Brille oder Spiegel, die zwischen Chirurg und Patient platziert werden müssen. In unseren Experimenten verwendete ein Chirurg das System, um Drähte gemäß dem Ausrichtungsverfahren auszurichten, und die Gesamtgenauigkeit und Ausrichtungszeit wurden bewertet. Die Auswertungen wurden nicht nur als mechanisches System, sondern als Mensch-Maschine-System betrachtet, da die Leistung sowohl von der Systemgenauigkeit als auch von der Wahrnehmungsfähigkeit des Operateurs abhängt. Die Auswertungen zeigten, dass das System bei der linearen Ausrichtungsunterstützung sehr effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45787-9_16 1a0ad843206ed3db22785decb1ed3079;de;;;5.3.;;;Qualitätsbewertungsmodelle für Open-Source-Projekte, die auf modernen webbasierten Schmieden gehostet werden: Eine Überprüfung Die Auswahl und Einführung einer geeigneten Open-Source-Anwendung ist für eine Organisation von entscheidender Bedeutung, da die Open-Source-Projekte eine Qualitätsspanne von sehr niedrig bis sehr hoch aufweisen. Es gibt verschiedene Open-Source-Software-Qualitätsbewertungsmodelle, die Organisationen dabei helfen, die Qualität eines Softwareprojekts zu messen und eine bestimmte Softwareanwendung basierend auf einer bestimmten Qualitätsbewertung auszuwählen. Kommerzielle Beteiligung und Nutzung von Social-Networking-Funktionen durch moderne webbasierte Open-Source-Projekthosting-Sites hat zu neuen Herausforderungen für bestehende Open-Source-Softwarequalitätsbewertungsmodelle geführt. In diesem Papier wird überprüft, ob die bestehenden Modelle zur Qualitätsbewertung von Open-Source-Software diese Herausforderungen bewältigen können oder nicht. Bei der Beantwortung der formulierten Forschungsfragen lautet eine Zusammenfassung der von uns gewonnenen Erkenntnisse, dass bestehende Open-Source-Qualitätsbewertungsmodelle einige der Faktoren nicht berücksichtigen, die die Qualität von Open-Source-Projekten beeinflussen, die in modernen webbasierten Schmieden gehostet werden. Daher besteht ein Bedarf an einem Qualitätsbewertungsmodell, das die Unzulänglichkeiten bestehender Modelle adressiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1384-8_4 b1ca4af8470a1659889a6a0424b860c6;de;;;5.3.;;;Gestyboard BackTouch 1.0: Zweihändiges rückseitiges Blindschreiben auf mobilen berührungsempfindlichen Oberflächen In diesem Beitrag wird ein neues und innovatives gestenbasiertes Texteingabekonzept vorgestellt, das für leistungsstarkes Blindschreiben auf Mobilgeräten mit berührungsempfindlicher Oberfläche auf der Rückseite entwickelt wurde. Dieses Konzept basiert auf dem Gestyboard-Konzept, das von der Technischen Universität München für den stationären Einsatz auf größeren Multitouch-Geräten wie Tischoberflächen entwickelt wurde. Unser neues mobiles Konzept ermöglicht es dem Benutzer, Text auf einem Tablet-Gerät einzugeben, während er es mit beiden Händen hält, beispielsweise befinden sich die Daumen vorne auf dem Tablet und die anderen acht Finger hinten. Der Benutzer kann daher mit diesen Fingern auf der Rückseite des Geräts Text eingeben. Allerdings sind die gestenbasierten Fingerbewegungen recht ungewohnt und die Teilnehmer müssen das QWERTY-Layout mental um;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11569-6_33 2116dbedd82cb95e796a6a88ebcd40e3;de;;;5.3.;;;Zugänglichkeit mobiler Web-Apps durch Screenreader von Touch-basierten Mobiltelefonen Auf aktuelle mobile Webanwendungen (Apps) kann mit einem mobilen Browser über eine URL zugegriffen werden, oder mit speziellen Paketierungstools und Bibliotheken als native Apps verpackt werden. Um auf diese Apps zuzugreifen, leiten sehbehinderte Personen (VIP) Bildschirmlesegeräte weiter, die in Smartphones integriert sind. Zu den bekannten Screenreadern der Handys gehört VoiceOver von Apple. In diesem Papier diskutieren wir die Ergebnisse des Tests der Barrierefreiheit von mobilen Web-Apps über Voice-Over und beobachten deren Leistung. Als Ergebnis dieser Beobachtung schlagen wir einige grundlegende Richtlinien für die Gestaltung mobiler Web-Apps vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03737-0_5 d486637300ddbe5617fa06a02ab29e73;de;;;5.3.;;;Werkzeugzustandsüberwachung in der Zerspanung Die automatische Werkzeugzustandsüberwachung basiert auf der Messung physikalischer Phänomene, die mit dem Werkzeugverschleiß korreliert sind und somit als Werkzeugverschleißsymptome genutzt werden können. Die gemessenen Größen hängen jedoch nicht nur vom Werkzeugverschleiß ab, sondern auch von einer Vielzahl anderer Prozessparameter zufälliger Natur, was den Zusammenhang zwischen Werkzeugverschleiß und Messwert sehr komplex und eher statistisch als streng vorhersagbar macht. Die Entwicklung eines robusten und zuverlässigen Werkzeugzustandsüberwachungssystems erfordert daher eine Kombination verschiedener, aussagekräftiger Signalmerkmale, die den Werkzeugverschleiß am besten beschreiben. Es gibt zahlreiche Signalmerkmale (SFs), die aus dem Zeitbereichs-, Frequenzbereichs- oder Zeitfrequenzbereichssignal extrahiert werden können. Da wirklich nicht vorhersehbar ist, welche Signalmerkmale im Einzelfall sinnvoll sind, sollten diese mit dem Werkzeugverschleiß korrelierten informativen Merkmale automatisch ausgewählt werden. Die aus den Signalen eines oder mehrerer Sensoren extrahierten Informationen müssen zu einer Werkzeugzustandsschätzung kombiniert werden. Dies kann durch verschiedene Methoden der künstlichen Intelligenz erreicht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-03201-2_4 0a20e422d5df9dda725c12cf4389b358;de;;;5.3.;;;Verbesserung der Softwarequalität in Produktfamilien durch systematisches Reengineering Softwarequalität ist ein sehr subjektives Attribut und eine komplexe Mischung aus mehreren Faktoren. Es gibt keine universelle Definition oder eine einzigartige Metrik zur Quantifizierung der Softwarequalität. Sie wird normalerweise durch die Analyse verschiedener Faktoren gemessen, die für die Domäne oder Anwendung von Bedeutung sind. Es liegt auf der Hand, dass der Endanwender eines Produkts durch die verbesserte Softwarequalität erhebliche Vorteile erzielt. Daher bemühen sich viele Softwareindustrien, die Qualität ihrer Produkte zu verbessern, indem sie in Qualitätskontrolle und Qualitätssicherungsmaßnahmen wie Inspektionen, Reviews, Tests und Audits investieren. Viele Softwareunternehmen bemühen sich jedoch nicht um Reengineering-Aktivitäten, um Qualitätsverbesserungen zu erzielen. Produktfamilien, die ältere Komponenten teilen, die viele gemeinsame Funktionen aufweisen, könnten systematisch überarbeitet werden, um Wissen zu konsolidieren und gemeinsame Komponenten zu produzieren, die für zukünftige Anwendungen geeignet sind. Ein wesentliches Nebenprodukt dieser systematischen Reengineering-Aktivität wäre eine verbesserte Softwarequalität. Dieses Papier stellt einen systematischen Reengineering-Ansatz vor und identifiziert verschiedene Qualitätsfaktoren, die während dieses Prozesses verbessert werden könnten. Die vorgeschlagene Reengineering-Technik wurde im Nokia Research Center verwendet, um bestehende mobile Systeme auf effiziente Weise umzugestalten, damit mehr Anwendungen und Betriebsmodi unterstützt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-47984-8_13 98a2d68a34fb85747c959d9d625c3e43;de;;;5.3.;;;Eine Beschreibungsmethode syntaktischer Regeln für japanische Filmskripte Der Zweck dieses Papiers ist es, eine Beschreibungsmethode für syntaktische Regeln vorzuschlagen, insbesondere für die manuelle Verwaltung. Unser Ziel ist es, die Anzahl der Regeln zu verringern und diese zu strukturieren. Ersteres wird erreicht, indem die Regeln mit regulären Ausdrücken beschrieben werden, und letzteres wird durch schrittweise Analyse konstruiert. Diese Beschreibungen machen die Verwaltung der Regeln einfach und leicht. In Anbetracht dieser Bedenken berichten wir über die Wirksamkeit unserer Methode mit einigen experimentellen Ergebnissen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45226-3_61 904043db99743345c3bb9b1d299da34e;de;;;5.3.;;;Ein schneller Algorithmus zur Systementkopplung mit Formalrechnung Das Problem der Rückkopplungsentkopplung nichtlinearer Systeme ist aus theoretischer Sicht eigentlich gut verstanden. Um die Entkopplungsrückkopplungen zu berechnen, besteht die einzige den Autoren bekannte Methode neben [9] darin, ein formales Ableitungsprogramm zu verwenden, um zu überprüfen, ob Differentialausdrücke null sind [3]. Wir erinnern uns zunächst an die generische Interpretation dieser Ausdrücke in Bezug auf den Graphen des Systems und erinnern an den Algorithmus von [9] unter Verwendung der minimalen Länge der Pfade, die einen der Eingänge mit;-;-;-;https://link.springer.com/chapter/10.1007/BFb0006299 6c7c282cb45338a118d3045bc67b649a;de;;;5.3.;;;Adaptive verbesserte Block-SOR-Methode mit Bestellungen with Vor kurzem wurde eine verallgemeinerte SOR-Methode mit mehreren Relaxationsparametern zur Lösung eines linearen Gleichungssystems in Betracht gezogen und es wurde gezeigt, dass wenn ein Paar von Parameterwerten aus den Drehpunkten der auf das System angewendeten Gaußschen Elimination berechnet wird, iterative Matrix wird auf Null reduziert. Eine geeignete Wahl von Ordnungen und Startvektoren für die Iteration wurde ebenfalls vorgeschlagen.;-;-;-;https://link.springer.com/article/10.1007/BF03167368 ee7c73ced3751867ad07bce4581b760a;de;;;5.3.;;;Ein Hinweis zu Autodense-bezogenen Sprachen In dieser Arbeit werden einige algebraische Eigenschaften von autodensen Sprachen und rein autodensen Sprachen untersucht. Wir untersuchen auch die algebraischen Eigenschaften von anti-autodensen Sprachen. Die Familie der Anti-Autodense-Sprachen enthält Infix-Codes, kommafreie Codes und einige Unterfamilien neuer Codes, die Anti-Autodense-Präfixcodes, Anti-Autodense-Suffixcodes und Anti-Autodense-Codes sind. Die Beziehungen zwischen diesen Unterfamilien neuer Codes werden untersucht. Die Charakterisierung von;-;-;-;https://link.springer.com/article/10.1007/s00236-010-0116-5 8b662951177e34f4b30d29dd23cf5f97;de;;;5.3.;;;Fäkale Gallensäuren Die fäkale Gallensäureausscheidung stellt einen wichtigen Weg zur Ausscheidung von Cholesterin aus dem Körper dar. Durch die Wirkung der Darmmikroflora kommt es zu einer umfangreichen Umwandlung primärer Gallensäuren [1], was zur Bildung einer komplexen Reihe von Stoffwechselprodukten im Lumen führt, die anschließend ausgeschieden werden. Da der enterohepatische Kreislauf von Gallensäuren äußerst effizient ist, wird der größte Teil des Gallensäurepools durch die intestinale Reabsorption konserviert, jedoch entgeht ein kleiner Prozentsatz der Gallensäuren dem normalen Resorptionsmechanismus und wird daher ausgeschieden. Im Steady State entspricht dieser fäkale Verlust ungefähr der täglichen Synthese, und daher liefert eine genaue quantitative Bestimmung der fäkalen Gallensäureausscheidung wichtige Informationen über die Gallensäurekinetik und die Cholesterinhomöostase. Die qualitative Analyse hingegen gibt Aufschluss über intraluminale Ereignisse, an denen Bakterien und Gallensäure-Interaktion beteiligt sind, da die mikrobielle Aktivität das Muster der fäkalen Gallensäureausscheidung stark beeinflusst. Ernährung, Medikamente, Darmtransitzeit, intraluminale Umgebung, Gallenblasenentleerung und Leberfunktion sind weitere Faktoren, die einen Einfluss auf die fäkale Gallensäureausscheidung haben, und diese werden ausführlich besprochen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0901-7_12 352a53b70f4185d75c617dd631e9a03f;de;;;5.3.;;;Numerische Methoden zur Lösung der multiextremen Probleme im Zusammenhang mit den inversen mathematischen Programmierproblemen Wir betrachten ein recht allgemeines Konzept des inversen mathematischen Programmierproblems. Es wird eine kurze Beschreibung des Zusammenhangs zwischen primären und inversen Problemen gegeben. Wir zeigen, dass für einige primalkonvexe Probleme das inverse Problem ein Gleichstrom ist. Programmierproblem und wir präsentieren eine Schnittebenenmethode zur Lösung des letzteren.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008281414958 743994b4c3d35905b6f13f9f2772c52a;de;;;5.3.;;;Ein schneller graphentheoretischer Algorithmus für das Feedback-Entkopplungsproblem nichtlinearer Systeme Das Problem der Rückkopplungsentkopplung nichtlinearer Systeme ist aus theoretischer Sicht eigentlich gut verstanden. Um die Entkopplungsrückkopplungen zu berechnen, besteht die einzige den Autoren bekannte Methode darin, ein formales Ableitungsprogramm zu verwenden, um zu überprüfen, ob Differentialausdrücke null sind [3]. Wir geben eine generische Interpretation dieser Ausdrücke in Form des Graphen des Systems im Sinne von [6] und leiten einen schnelleren Algorithmus ab, der die minimale Länge der Pfade verwendet, die einen der Eingänge mit dem i . verbinden;-;-;-;https://link.springer.com/chapter/10.1007/BFb0031081 61d1603697f5b517c5fa10a34cc38241;de;;;5.3.;;;Utility-basierte Entscheidungsunterstützungs-Engine für die Auswahl der Kameraansicht in Multimedia-Überwachungssystemen Das Design und die Implementierung eines effektiven Überwachungssystems ist eine anspruchsvolle Aufgabe. In der Praxis wird eine große Anzahl von CCTV-Kameras installiert, um illegale und inakzeptable Aktivitäten zu verhindern, bei denen ein menschlicher Bediener verschiedene Kameraansichten beobachtet und verschiedene alarmierende Fälle identifiziert. Es kann jedoch teuer werden, sich bei der Echtzeitreaktion auf den menschlichen Bediener zu verlassen, da er möglicherweise nicht in der Lage ist, alle Kameraansichten gleichzeitig vollständig zu berücksichtigen. Darüber hinaus ist die Komplexität einer Situation für den Bediener möglicherweise nicht leicht wahrnehmbar, für den er als Reaktion auf eine ungünstige Situation möglicherweise zusätzliche Unterstützung benötigt. In diesem Papier stellen wir eine Decision Support Engine (DSE) vor, um die am besten geeigneten Kameraansichten auszuwählen und zu planen, die dem Bediener helfen können, eine fundierte Entscheidung zu treffen. Zu diesem Zweck entwickeln wir einen nutzenbasierten Ansatz, bei dem sich der Nutzwert basierend auf automatisch erkannten Ereignissen in verschiedenen Überwachungszonen, Ereigniskorrelationen und Rückmeldungen des Bedieners ändert. Zusätzlich zu den ausgewählten Kameraansichten schlagen wir vor, zusätzliche Informationen um die Kameraansichten herum synthetisch einzubetten, wie beispielsweise eine Ereigniszusammenfassung und einen vorgeschlagenen Aktionsplan, um die aktuelle Situation global wahrzunehmen. Die experimentellen Ergebnisse zeigen die Nützlichkeit des vorgeschlagenen Entscheidungsunterstützungssystems.;-;-;-;https://link.springer.com/article/10.1007/s11042-012-1294-7 bfa2b76f8c747ab6de2c7041febf85cc;de;;;5.3.;;;Elektrische und magnetische Benutzeroberflächen für digitales Riechen und Schmecken In diesem Kapitel stellen wir vor, wie elektrische und magnetische Benutzeroberflächen durch neue Interaktionen Geschmacks- und Geruchsempfindungen erzeugen oder verändern. In Zukunft können diese Technologien eine entscheidende Rolle beim Lebensmittelkonsum, bei der Lebensmittelherstellung, bei lebensmittelbasierten Interaktionen und bei der multisensorischen Kommunikation spielen. Wir geben einen detaillierten Überblick über bisherige elektrische, thermische und magnetische Grenzflächen in verwandten Forschungsgebieten und präsentieren dann die derzeit laufenden Forschungsarbeiten des Autors. Wir diskutieren auch, wie diese Technologien neue Interaktionen für Branchen wie Lebensmittel, Marketing, Kommunikation und Computer schaffen und verändern können. Insbesondere glauben wir, dass die Zukunft des Internets nicht nur von visuellen, akustischen und taktilen Reizen abhängen wird, sondern auch von Geruch (Ofaction) und Geschmack (Gustation). Die Menschen würden diese Reize kollektiv als Erlebnis digital teilen, wie sie es mit den Bild- und Tonmedien im Internet tun. Wir möchten eine Idee des digitalen Riechens und Geschmacks als Input und Output für die Interaktion beim Erstellen und Erleben digitaler Repräsentationen von Lebensmitteln vorschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-7311-3_3 da9708e5048287b924ef0c513ca99460;de;;;5.3.;;;Bildbasierte Raucherkennung mittels Feature Mapping und Diskriminierung Typischerweise wird die bildbasierte Raucherkennung als Rahmenklassifizierungsaufgabe formuliert, die darauf abzielt, die erfassten Rahmen automatisch den vordefinierten Klassen „Rauch“ oder „Rauchfrei“ zuzuordnen. Diese Klassifizierung basiert auf dem visuellen Inhalt der Bilder. Mit anderen Worten, der Grundstein einer solchen Lösung ist die Wahl des/der visuellen Deskriptoren(s), die verwendet werden, um die visuellen Eigenschaften des Rauchs in numerische Vektoren zu kodieren. In diesem Artikel schlagen wir vor, einen neuen Merkmalsraum zu erlernen, um die visuellen Deskriptoren, die aus den Videoframes extrahiert wurden, auf unbeaufsichtigte Weise darzustellen. Diese Abbildung soll eine bessere Unterscheidung zwischen rauchfreien Bildern und solchen mit Rauchmustern ermöglichen. Der vorgeschlagene Ansatz ist inspiriert von den linearen hyperspektralen Entmischungstechniken. Es definiert die Achsen des neuen Merkmalsraums als Scheitelpunkte eines Simplex minimalen Volumens, der alle Bildpixel im Rahmen einschließt. Die erhaltenen empirischen Ergebnisse beweisen, dass der vorgeschlagene Feature-Mapping-Ansatz die Unterscheidungskraft der visuellen Deskriptoren verstärkt und eine bessere Raucherkennungsleistung erzeugt. Darüber hinaus weist der vorgeschlagene Ansatz die wertvolle Fähigkeit auf, automatisch die relevantesten visuellen Deskriptoren zu bestimmen.;-;-;-;https://link.springer.com/article/10.1007/s00500-020-05396-4 ebaea6b198ae422eae15be63fbed1b05;de;;;5.3.;;;Analyse der chaotischen Phänomene im Wertpapiergeschäft Chinas Die Entwicklung des Aktienkurses im Wertpapiergeschäft basierend auf dem Shenzhen Stock Composite Index wurde mit Hilfe der Theorie der chaotischen Dynamik untersucht. Die Fluktuation des Aktienkurses erwies sich als eine Art chaotischer Prozess des inneren Zufalls. Das dynamische Modell des zusammengesetzten Aktienindex von Shenzhen wurde sowohl durch die Neustrukturierung des Phasenraums der Daten als auch durch die Analyse des Poincaré-Abschnitts und des Lyapunov-Exponenten der Daten erstellt. Der chaotische Entwicklungsprozess dieses Modells wurde detailliert analysiert. Dies bietet eine neue Methode zur Untersuchung des modernen Finanzsystems unter Verwendung der chaotischen Theorie.;-;-;-;https://link.springer.com/chapter/10.1007/11428862_168 a18b918f1a0521868e15868f07e626d9;de;;;5.3.;;;Verbergen von Emotionen in einer Notaufnahme: Erweiterung des Designs für das Emotionsbewusstsein Das Design von Systemen und Mechanismen zur Entwicklung von Emotionsbewusstsein zwischen Kommunikatoren war ein Anliegen von CSCW. Der typische Ansatz im Design ist an die Vorstellung gebunden, dass vermittelte Kommunikation ein „schlechter“ Übermittler wichtiger Emotionsinformationen ist. Somit wird durch die Vermittlung von Emotionsausdrücken die Emotionswahrnehmung konsequent unterstützt. In diesem Beitrag argumentieren wir, dass Emotionsbewusstsein auch auf das strategische Verbergen von Emotionsausdrücken durch Verstecken und Unterdrücken angewiesen ist. Um unser Argument zu untermauern, präsentieren wir Daten aus einer Feldstudie zum Ausdruck von Emotionen zwischen medizinischem Personal in einer Notaufnahme. Wir liefern Beweise für das Verbergen und Unterdrücken von Emotionsausdrücken sowohl durch Ausdrücker als auch durch Beobachter und wie diese Verhaltensweisen die Entwicklung von Emotionsbewusstsein unterstützen. Anschließend skizzieren wir eine neue Systemdesign-Perspektive für Emotionsbewusstsein, die sowohl das Übertragungs- als auch das Verbergungsverhalten umfasst, und stellen Beispiele für Systeme vor, die erfolgreich Konzepte von Verstecken und Unterdrückung verkörpern.;-;-;-;https://link.springer.com/article/10.1007/s10606-012-9174-2 d27ebbfa0ca745ede07f7ac74efd6a1f;de;;;5.3.;;;Das Deck zur ökologischen Nachhaltigkeit neu mischen: Verwenden einer Kartensortierung, um wahrgenommene Verhaltenskategorien, Anstrengungen und Auswirkungen in einer Hochschulumgebung aufzudecken Die Definitionen von Nachhaltigkeit in sozialen Kontexten können je nach Kontext und Altersgruppe stark variieren. Das Ziel dieses Experiments ist es, Aktionen zu identifizieren, die Studenten in ihrem alltäglichen Kontext als nachhaltig klassifizieren, wie solche Aktionen in Verhaltenskategorien gruppiert werden, die wahrgenommene Anstrengung und Wirkung von Aktionen und Möglichkeiten, wie öffentliche Räume diese Aktionen einschränken können. Mit zehn Studenten (im Alter von 20–27 Jahren) wurde eine Card-Sort-, gleichzeitige Interview- und Ranking-Aufgabe durchgeführt. Die von den Schülern aufgelisteten nachhaltigen Maßnahmen und Verhaltenskategorien wurden mit einer von Forschern erstellten Liste kategorisierter Maßnahmen verglichen, die innerhalb ihrer Hochschulumgebung möglich sind. Anhand von Rankingdaten der wahrgenommenen Anstrengung und Wirkung wurde ermittelt, welche Verhaltensweisen in College-Gebäuden leicht und schwer zu fördern wären. Die wichtigsten Ergebnisse sind, dass die Wahrnehmung von Anstrengung und Wirkung durch die Schüler sehr unterschiedlich war, die Schüler ihre Handlungen auf der Grundlage vieler Arten von Gemeinsamkeiten kategorisierten, die Schüler die Handlungen konsequent in vorbestimmte Kategorien einordneten und dass das Bildungsumfeld soziale und physische Normen enthält, die die wahrgenommene Handlungsfähigkeit einschränken. In Zukunft könnten diese Methoden repliziert werden, um Wahrnehmungen zu identifizieren, die nachhaltiges Verhalten in mehreren Kontexten beeinflussen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67122-2_11 567ddc59cd4475c1046b646f94672199;de;;;5.3.;;;Serielle vs. gleichzeitige Planung von Übertragungs- und Verarbeitungsaufgaben in kollaborativen Systemen In Kollaborationsarchitekturen muss ein Computer sowohl Verarbeitungs- als auch Übertragungsaufgaben ausführen. Intuitiv scheint es, dass diese unabhängigen Aufgaben in gleichzeitigen Threads ausgeführt werden sollten. Wir zeigen, dass ein sequentielles Schema, bei dem die Verarbeitungs-(Übertragungs-)Aufgabe zuerst ausgeführt wird, die Feedback-Zeiten für die meisten Benutzer optimiert, wenn mehrere Kerne nicht verfügbar sind, um diese Aufgaben zu planen. Die gleichzeitige Richtlinie gibt Feedback- und Durchführungszeiten, die zwischen denen liegen, die von den sequentiellen Richtlinien unterstützt werden. Sie kann jedoch im Vergleich zur Process-First-Policy die Feedback-Zeiten merklich verschlechtern, und im Vergleich zur Transmit-First-Policy kann sie die Durchführungszeiten spürbar verschlechtern, ohne die Feedback-Zeiten merklich zu verbessern. Wir präsentieren Definitionen, Beispiele und Simulationen, die diese drei Scheduling-Schemata für zentralisierte und replizierte Kollaborationsarchitekturen unter Verwendung von Unicast- und Multicast-Kommunikation erklären und vergleichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03354-4_54 007c2686fdb7200c0a18bacca5fb1171;de;;;5.3.;;;Benutzeroberfläche für einen geo-temporalen Suchdienst mit DIGMAP-Komponenten Diese Demo präsentiert eine Benutzeroberfläche für einen geo-temporalen Suchdienst, der in der Sequenz des DIGMAP-Projekts erstellt wurde. DIGMAP war ein von der Europäischen Union kofinanziertes Projekt zu alten digitalisierten Karten und befasst sich mit Ressourcen reich an geografischen und zeitlichen Informationen. Diese Suchschnittstelle folgte einem Mashup-Ansatz unter Verwendung bestehender DIGMAP-Komponenten: ein Metadaten-Repository, ein Text-Mining-Tool, ein Gazetteer und ein Dienst zum Generieren geografischer kontextbezogener Miniaturansichten. Die Google Maps API wird verwendet, um eine benutzerfreundliche und interaktive Benutzeroberfläche bereitzustellen. Diese Demo präsentiert die resultierenden geo-temporalen Suchmaschinen-Funktionalitäten, deren Schnittstelle WEB 2.0-Fähigkeiten verwendet, um Kontextualisierung in Zeit und Raum und Text-Clustering bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04346-8_67 a2ff574965068d3b5853e240f8b5cdee;de;;;5.3.;;;Gamification von Versionskontrollsystemen: Ein Vorschlag zur Förderung des Engagements von Entwicklern zur Zusammenarbeit in Softwareprojekten Dieses Papier schlägt vor, Gamification zur Anerkennung der Zusammenarbeit und des Engagements von Softwareentwicklern zu verwenden. Um die Produktivität zu verbessern, bewertet das Papier auch das Engagement der Benutzer in einem Softwareentwicklungsprojekt. Die Idee ist, die aus Quell-Repositorys extrahierten Informationen zu verwenden, in denen Entwickler ihre Commits realisieren. Ein Tool schlägt ein Ranking über einen Newsfeed vor, das mithilfe von Software-Engineering-Metriken wie der zyklomatischen Komplexität von McCabe Informationen aus dem Quell-Repository extrahiert, um ein Ranking-System aufzubauen, das die aktivsten Entwickler hervorhebt und belohnt. Das ultimative Ziel besteht darin, festzustellen, ob der Einsatz von Gamification die Zusammenarbeit und das Engagement aller an Softwareentwicklungsprojekten Beteiligten fördert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07632-4_52 25ca673776cb6ded2b4dfed42b61c878;de;;;5.3.;;;Benutzerakzeptanz der Informationstechnologie: Eine kritische Überprüfung von Technologieakzeptanzmodellen und die Entscheidung, in die Informationssicherheit zu investieren In der sich schnell verändernden Welt von heute beeinflusst die Technologie zunehmend alle Aspekte unseres täglichen Lebens. Seit Jahrzehnten ist die Nutzerakzeptanz von Technologie ein wichtiges Forschungsfeld. Obwohl zahlreiche Modelle vorgeschlagen wurden, um die Nutzung eines Systems zu erklären und vorherzusagen oder bei der Entscheidungsfindung für Investitionen in die Informationssicherheit zu helfen, sind die neuesten Modelle und Theorien immer noch nicht in der Lage, die Komplexität der Beziehung zwischen Mensch und Technologie vollständig zu erfassen. Dieses Papier bietet einen historischen Überblick und einen kritischen Überblick über Technologieakzeptanzmodelle (TAM) und Theorien. Es untersucht auch externe Variablen, die die Investitionen in die Informationssicherheit beeinflussen. Es wird der Schluss gezogen, dass, obwohl TAM und zugehörige Theorien in der Informationssystemgemeinschaft gut etablierte Konzepte sind, weitere Forschung erforderlich ist, um andere wichtige Elemente zu erfassen, die die öffentliche Akzeptanz von Technologien beeinflussen, die derzeit in bestehenden Modellen nicht vertreten sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-51064-4_19 0aabf08465b017aa2d590f3413009818;de;;;5.3.;;;Verbesserung der täglichen Konversationen In diesem Kapitel wird die Idee vorgestellt, unsere täglichen Gespräche zu verbessern, um die Gelegenheiten zu erhöhen, neue Ideen und zukünftige Kooperationspartner zu treffen. Wir zeigen zwei Systeme. Eine davon ist AIDE, ein System, das Online-Diskussionen mit Visualisierung der Diskussionsstruktur und einem virtuellen Diskussionsteilnehmer ermöglicht. Die Benutzer von AIDE können sich gegenseitig die Ähnlichkeit und den Unterschied ihrer Ansichten zu gemeinsamen Themen feststellen. Das andere ist AgentSalon, ein System, das ungezwungene Gespräche von Angesicht zu Angesicht in realen Räumen wie Museen und Konferenzstätten ermöglicht. AgentSalon verfügt über einen großen Bildschirm, der Gespräche zwischen animierten Agenten der Benutzer zeigt. Durch das Beobachten eines Chats der Agenten können die Benutzer effektiv passende Themen erhalten, dh es verleitet sie dazu, dem Chat zu folgen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-06230-2_20 0d2fad129ca779cd751514cd74317295;de;;;5.3.;;;Motivationswechsel bei Instant Messaging: Eine Studie basierend auf der Zwei-Faktor-Theorie Instant Messaging, wie Skype, steht im letzten Jahr vor einer Herausforderung durch mobiles Instant Messaging, und einige Instant Messaging-Dienste könnten ihren Dienst in naher Zukunft einstellen. Daher hat das Verständnis der Motive der Benutzer, zu mobilem Instant Messaging zu wechseln, großen Einfluss auf die Geschäftsleistung der Betreiber, da sie geeignete Strategien zur Bindung der Benutzer anwenden können. Die Studie versucht, die Wechselfaktoren zu untersuchen und die Beziehungen zwischen diesen und den Absichten der Benutzer, zu mobilem Instant Messaging zu wechseln, basierend auf der theoretischen Zwei-Faktor-Perspektive zu untersuchen. Die Modellierung von Strukturgleichungen wurde angewendet, um Daten zu analysieren, die von 186 Benutzern durch empirische Erhebungen gesammelt wurden. Unseren Ergebnissen zufolge sollten Betreiber das Streben der Nutzer nach Frische befriedigen und sorgfältig prüfen, ob ihre Dienste die Bedürfnisse der Nutzer nach Geselligkeit und Unterhaltung erfüllen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-48319-0_1 6cbd9219be6afbc3e7f42668e76d1674;de;;;5.3.;;;Statistisches Benutzermodell unterstützt von der R-Tree-Struktur In diesem Whitepaper geht es um die Entwicklung eines Gruppenbenutzermodells, das unbekannte Merkmale (Attribute, Präferenzen oder Verhaltensweisen) jedes Gesprächspartners vorhersagen kann. Insbesondere für Systeme, bei denen es Merkmale gibt, die von einem Domänenexperten innerhalb der Mensch-Computer-Interaktion nicht modelliert werden können. In solchen Fällen werden statistische Modelle anstelle von stereotypen Benutzermodellen verwendet. Der Zeitverbrauch dieser Modelle ist hoch, und wenn eine begrenzte Antwortzeit erforderlich ist, besteht die häufigste Lösung darin, Wissen zusammenzufassen. Beim Zusammenfassen wird Wissen aus der Wissensdatenbank gelöscht und mittelfristig wahrscheinlich an Genauigkeit verloren. Dieser Vorschlag bietet alle Vorteile statistischer Benutzermodelle und vermeidet Wissensverlust durch Verwendung einer R-Baumstruktur und verschiedener Suchräume (Universen von Benutzern) unterschiedlicher Granularität zum Lösen von Inferenzen mit verbesserten Erfolgsraten. Neben der Formalisierung und Bewertung des Ansatzes werden die wichtigsten Vorteile diskutiert und eine Perspektive für seine zukünftige Entwicklung gegeben. Darüber hinaus bietet dieses Papier einen Rahmen, um statistische Benutzermodelle zu bewerten und einen Leistungsvergleich zwischen verschiedenen statistischen Benutzermodellen zu ermöglichen.;-;-;-;https://link.springer.com/article/10.1007/s10489-013-0432-x c97b139dd9f297b70d43b163c814e1c8;de;;;5.3.;;;Konzept zur Bereitstellung von Wireless in der Unternehmensinfrastruktur: Balance zwischen Sicherheit und positiver QoE für die Endbenutzer Dieses Papier stellt ein Konzept für die Bereitstellung von Wireless in der Unternehmensinfrastruktur vor, das insbesondere für Unternehmen gedacht ist, die normalerweise als konservativ gelten und strenge Richtlinien zur Informationssicherheit haben. Diese Unternehmen sind bei der Einführung neuer Technologien in der Regel vorsichtig, daher präsentiert unsere Diskussion ein drahtloses Konzept, von dem wir glauben, dass es solche Anforderungen erfüllen kann. Das Netzwerk wird geschäftskritische Anwendungen sowie Daten-, Sprach- und Videoanwendungen ausführen, die das kabelgebundene Netzwerk erweitern. Das Papier präsentiert vergleichende Analysen zu den derzeit verfügbaren Optionen für drahtlose Netzwerke, während die Behauptungen durch die Live-Umsetzung des vorgeschlagenen Konzepts in einem Finanzinstitut mit kommerziell verfügbaren drahtlosen Produkten diskutiert werden, Ergebnisse aus technischer Sicht und Qualität der Erfahrung ( QoE) für die Endbenutzer.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28664-3_9 9f74d7de4d711c6bd89fc42db7352a81;de;;;5.3.;;;Die illegale Einrichtung: „Eurodac“ und die Politik der biometrischen Identifizierung Biometrie wird oft als „das nächste große Ding der Informationstechnologie“ bezeichnet. Anstatt den Körper durch die IT für die Identität irrelevant zu machen – eine zunächst irrige Vorstellung – stellt die Kopplung von Biometrie und IT eindeutig den Körper in den Mittelpunkt. Die zu stellenden Fragen zur Biometrie sind;-;-;-;https://link.springer.com/article/10.1023/A%3A1010064613240 dbdffb42b30389dbcc31e1bb581c9012;de;;;5.3.;;;Gemeinsame Moral und Informatik Dieser Artikel zeigt, wie die allgemeine Moral hilfreich sein kann, um die Diskussion ethischer Fragen zu klären, die in der Informatik auftreten. Da die allgemeine Moral nicht immer eindeutige Antworten auf moralische Fragen bietet, können nicht alle diese Fragen gelöst werden, aber die allgemeine Moral liefert eine klare Antwort auf die Frage, ob man Software illegal für einen Freund kopieren kann.;-;-;-;https://link.springer.com/article/10.1023/A%3A1010026827934 6580a94db5d9b8148dc02638190af6a0;de;;;5.3.;;;"KDD: Die Herausforderung des Individualismus KDD (Knowledge Discovery in Databases) konfrontiert uns mit Phänomenen, die intuitiv als hochproblematisch zu erfassen, aber dennoch schwer zu verstehen und zu artikulieren sind. Viele dieser Probleme haben mit dem zu tun, was ich die ""Entindividualisierung der Person"" nenne: eine Tendenz, Personen auf der Grundlage von Gruppenmerkmalen zu beurteilen und zu behandeln, anstatt auf der Grundlage ihrer eigenen individuellen Merkmale und Verdienste. Diese Tendenz wird eine der Folgen der Erstellung und Nutzung von Gruppenprofilen mit Hilfe von KDD sein. Aktuelle Datenschutzgesetze und -vorschriften sowie aktuelle ethische Theorien zum Datenschutz gehen von einer zu engen Definition von „personenbezogenen Daten“ aus, um diese Probleme zu erfassen. In diesem Aufsatz führe ich den Begriff der ,,kategorialen Privatsphäre'' als Ausgangspunkt für ein mögliches Heilmittel gegen das Versagen der gegenwärtigen Konzeptionen von Privatsphäre ein. Ich bespreche einige Wege, auf denen die Probleme im Zusammenhang mit Gruppenprofilen definitiv nicht gelöst werden können, und schlage einen möglichen Ausweg aus diesen Problemen vor. Schließlich schlägt es uns vor, einen Schritt nach vorne zu bringen, wenn wir beginnen, die Vorherrschaft von Datenschutznormen in der gesellschaftlichen Debatte über Informationstechnologien zu hinterfragen und bereit wären, andere normative Prinzipien als Datenschutzregeln für die Bewertung neuer Informationstechnologien einzuführen. Gelingt es uns nicht, die Probleme der KDD klar zu artikulieren, werden wir uns eines Tages möglicherweise in einer Situation befinden, in der KDD den methodischen und normativen Individualismus, der den Mainstream der Moral- und Moraltheorie durchdringt, scheinbar untergraben hat.";-;-;-;https://link.springer.com/article/10.1023/A%3A1010016102284 56cefb4e0cd2bff4a7bf6d93baad0bdf;de;;;5.3.;;;Drei kontextbezogene Dimensionen von Informationen in sozialen Medien: Lehren aus der COVID-19-Infodemie Die COVID-19-Pandemie wurde in den sozialen Medien von einer Explosion von Informationsstörungen wie ungenauen, irreführenden und irrelevanten Informationen begleitet. Bisher ergriffene Gegenmaßnahmen zur Eindämmung dieser Informationsstörungen waren nur begrenzt erfolgreich, da diese der Vielfalt der Informationskontexte in den sozialen Medien nicht Rechnung trugen, sondern sich fast ausschließlich auf die inhaltliche Pflege der Beiträge der Nutzer konzentrierten. Inhaltlich ausgerichtete Maßnahmen adressieren jedoch nicht die primären Ursachen der Infodemie selbst, nämlich das Bedürfnis der Nutzer, Inhalte zu posten, um die Situation zu verstehen und um konsensfähige Reaktionen von Freunden zu sammeln. In diesem Beitrag werden drei Arten von Informationskontexten beschrieben – schwach epistemisch, stark normativ und stark emotional –, die bei aktuellen Maßnahmen zur Eindämmung der Informationsstörungen noch nicht berücksichtigt wurden. Ich zeige auf, wie diese Kontexte mit der Infodemie zusammenhängen und schlage Maßnahmen für den Umgang mit ihnen für zukünftige globale Krisensituationen vor.;-;-;-;https://link.springer.com/article/10.1007/s10676-020-09550-2 88bae44505ff6ce38c9949cbec6047da;de;;;5.3.;;;Kann Informationskrieg jemals gerecht sein? Die Informationsrevolution hat das Aufkommen neuer Formen der Kriegsführung gefördert, im Allgemeinen durch Cyberspace-basierte Angriffe auf die Infrastrukturen, von denen moderne Gesellschaften zunehmend abhängig sind. Diese neue Art des Krieges ist in erster Linie zerstörerisch und nicht destruktiv, und ihre niedrigen „Eintrittsbarrieren“ ermöglichen es Einzelpersonen und Gruppen (nicht nur Nationalstaaten), sehr ernsthafte Fähigkeiten zur Kriegsführung zu erwerben. Der „weniger tödliche“ Anschein des Informationskriegs und die Möglichkeit, die wahre Identität des Angreifers „zu verschleiern“, setzen die traditionellen Doktrinen des gerechten Krieges ernsthaft unter Druck, die das Festhalten an den Prinzipien „richtiger Zweck“, „ordnungsgemäßer Autorität“ und „letzter“ fordern Erholungsort“. Die uralten Beschränkungen der Immunität bei Nichtkombattanten werden auch durch die vielfältigen Angriffsmethoden, die durch fortschrittliche Informationstechnologien ermöglicht werden, abgeschwächt. Daher haben die Nationen und Gesellschaften, die die Informationsrevolution anführen, eine primäre ethische Verpflichtung, die Umstände, unter denen Informationskriegsführung eingesetzt werden darf, einzuschränken – hauptsächlich durch das Versprechen, solche Mittel „nicht zum ersten Mal“ gegen Nichtkombattanten einzusetzen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1010066528521 66cdb418094106b4ff8788e9a888f460;de;;;5.3.;;;Der interaktive CLEF 2002-Track Im CLEF 2002 Interactive Track verwendeten Forschungsgruppen, die an der Gestaltung von Systemen interessiert waren, die interaktives Cross-Language Retrieval unterstützen, ein gemeinsames Experimentdesign, um Aspekte dieser Frage zu untersuchen. Die teilnehmenden Teams verglichen jeweils zwei Systeme, die beide eine vollständige Suchaufgabe unterstützten, bei der Benutzer relevante Dokumente mit einem (muttersprachlichen) Thema und einer (fremdsprachigen) Dokumentensammlung auswählen mussten. Die beiden an jedem Standort verglichenen Systeme sollten sich (mindestens) in einem dieser Aspekte unterscheiden: a) Unterstützung bei der Dokumentenauswahl (wie das System den Inhalt eines in einer Fremdsprache verfassten Dokuments beschreibt), b) Unterstützung bei der Übersetzung von Abfragen ( wie das System mit dem Benutzer interagiert, um eine optimale Übersetzung der Anfrage zu erhalten) und c) Unterstützung der Anfrageverfeinerung (wie das System dem Benutzer hilft, seine Anfrage basierend auf früheren Suchergebnissen zu verfeinern). Dieses Papier beschreibt das gemeinsame Experimentdesign und fasst die vorläufigen Ergebnisse der fünf Teams zusammen, die Läufe eingereicht haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45237-9_33 3011b8781a05a3b31253dda297d24dfb;de;;;5.3.;;;Nur Konsequenzialismus und Computing Computer- und Informationsethik sowie andere Bereiche der angewandten Ethik brauchen ethische Theorien, die deontologische und konsequentialistische Aspekte der ethischen Analyse kohärent vereinen. Die vorgeschlagene Theorie des gerechten Konsequentialismus betont die Konsequenzen der Politik innerhalb der Grenzen der Gerechtigkeit. Dies macht gerade Konsequentialismus zu einem praktischen und theoretisch fundierten Zugang zu ethischen Problemen der Computer- und Informationsethik.;-;-;-;https://link.springer.com/article/10.1023/A%3A1010078828842 608f4762a94b298f9af930032958840f;de;;;5.3.;;;GhostMobileCloud: Ein Cloud-basierter mobiler Terminalbenutzer, der auf eine Echtzeit-Kommunikationsmethode für eine Remote-3D-Szene zugreift In diesem Papier schlagen wir eine interaktive Echtzeit-Methode für Benutzer mobiler Endgeräte vor, um auf eine entfernte dreidimensionale Szene basierend auf Cloud-Diensten zuzugreifen. Wir realisieren eine dynamische und flüssige Methode, um auf eine entfernte dreidimensionale Szene für mobile Endgeräte zuzugreifen. Die Methode erzielt eine gute Benutzererfahrung. Wir verteilen die Aufgabenanforderung des Mobiltelefonbenutzers und die Aufgabenanforderung des Benutzers vom PC-Terminal durch den Lastausgleichsserver und übertragen diese Aufgaben an den Cloud-Server. Damit übertragen mobile Benutzer den interaktiven Zugriffsvorgang in der Szene an einen Cloud-Server, der im Sinne eines Befehlssatzes gleichwertig ist. Wir erledigen die mit Benutzerbefehlen zusammenhängende Arbeit und den hochwertigen Rendering-Prozess über einen Cloud-Server, wodurch der Benutzer des mobilen Terminals auf eine immersive Interaktion der Remote-3D-Szene zugreifen kann. Der Benutzer des mobilen Endgeräts muss nur eine Befehlsanfrage senden und qualitativ hochwertige Bilder empfangen. Die Cloud-Server empfangen Anweisungen vom Benutzerterminal und führen alle damit verbundenen interaktiven Arbeiten durch und übermitteln die Ergebnisse in Form von hochwertigen Bildern an den Benutzer des mobilen Terminals. Dieses Papier löst die technische Herausforderung von Benutzern mobiler Geräte, erstmals auf interaktive 3D-Remote-Echtzeitszenen in Form von Cloud-Diensten und Frame-Bildern mit kontinuierlichem Intervall zuzugreifen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6504-1_39 4fc3a76f1bdd444e30cdd01b4406b355;de;;;5.3.;;;Forschung zur Optimierung der Adressierung im öffentlichen Raum in urbanen offenen Blocks basierend auf topologischer Komplexität Basierend auf dem Konzept der topologischen Komplexität nimmt dieser Beitrag den Yulin-Distrikt von Chengdu als Beispiel. Basierend auf einer umfassenden Betrachtung der Bevölkerung und der Verteilung von 5G-Basisstationen beginnt es mit der Auswahl öffentlicher Räume in städtischen offenen Blöcken, um die beste Adressierungsstrategie für den öffentlichen Raum für die 5G-Benutzererfahrung zu erhalten, und führte auch eine eingehende Studie zu die Optimierung der Adressierungsleistung der dreigeschossigen öffentlichen Räume im urbanen offenen Block: „Blockebene-Gruppenebene-Nachbarebene“.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6264-4_65 e9e30469be03b13f66f64b1183ac5543;de;;;5.3.;;;Ein allgegenwärtiges Spiel zur emotionalen Unterstützung von Kindern im Krankenhaus Kinder, die sich in Behandlungen befinden, die einen langen Aufenthalt in einem Krankenhaus oder Gesundheitszentrum beinhalten, neigen dazu, sich zu langweilen oder depressiv zu werden, da die soziale Interaktion mit Familie und Freunden fehlt. Eine solche Situation beeinflusst auch die Entwicklung und Wirksamkeit ihrer Behandlungen. Dieser Artikel präsentiert ein mobiles allgegenwärtiges Spiel namens;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35395-6_24 8c6172796b11650ef5eaa7f620d5b957;de;;;5.3.;;;PowerFood: Macht Obstessen zum Spaß und macht Snacks nicht fertig In diesem Beitrag wird die überzeugende mobile Anwendung „Krachtvoer“ (auf Englisch: PowerFood) skizziert, die Jugendliche mit moderatem Übergewicht dazu ermutigt, mehr Obst und weniger Snacks zu essen. Die Hauptmerkmale dieser Lösung sind dynamische Zielsetzung, persönliche Erinnerungen, Fortschrittsüberwachung, soziale Interaktion und Wettbewerb mit Freunden. Die Ergebnisse der Evaluation zeigen, dass die App die Einstellung und Selbstwirksamkeit des Nutzers zum Verzehr von Obst und gesunden Lebensmitteln stärkt. Darüber hinaus ermutigen soziale Einflüsse die Nutzer, mehr Obst und weniger ungesunde Snacks zu essen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34292-9_50 81b6ac29c28e5e198bed35a09b26206d;de;;;5.3.;;;Horizontale Zusammenarbeit, Beweiserhebung im Ausland und Achtung der Grundrechte in der EU. Von den Vorschlägen der Europäischen Kommission zum Vorschlag für eine Richtlinie über eine Europäische Ermittlungsanordnung: Auf dem Weg zu einem einzigen Instrument der Beweiserhebung in der EU? Die Europäische Kommission und eine Gruppe von acht Mitgliedstaaten haben in den letzten Jahren jeweils zwei wichtige Initiativen gestartet, um ein neues Instrument zur Erlangung von Beweismitteln aus anderen Staaten der EU einzuführen. Diese Initiativen verfolgen zwar unterschiedliche Wege, verfolgen aber das gemeinsame Ziel, die Logik der gegenseitigen Anerkennung auf fast alle Arten von Beweismitteln auszudehnen. Dieser Artikel stellt anhand einer vergleichenden Analyse der beiden Vorschläge die Frage, ob dieser Ansatz der geeignetste Weg ist, um sowohl das gegenseitige Vertrauen zwischen den nationalen Behörden zu stärken als auch einen angemessenen Schutz sowohl der nationalen Verfahrenskulturen als auch der Grundrechte der an Strafverfahren beteiligten Personen zu gewährleisten Verfahren. Auf der Grundlage dieser Analyse enthält dieses Papier einige Vorschläge für weitere Rechtsvorschriften im Bereich der Sammlung von Beweismitteln aus Übersee in Europa.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32012-5_20 94d2b6fed9dd768fe2edec7e6c85546f;de;;;5.3.;;;Versteckte Markov-Modelle Die Arbeit mit instationären und heterogenen Zufallsfeldern stellt eine interessante Herausforderung dar. Grundsätzlich erlauben die Modellierungsmethoden von Kapitel 5 die Konstruktion eines instationären Modells unter der Annahme, dass die Modellgrenzen bekannt sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-7294-1_7 30d29477e5436fa200e584ad6c125ba6;de;;;5.3.;;;Shuffle-Quotient und -Zerlegungen Wir führen eine rechte Kongruenzrelation ein, die die Analogie der Nerode-Kongruenz ist, wenn Verkettung durch Shuffle ersetzt wird. Mit dieser Relation zeigen wir, dass für bestimmte Unterklassen regulärer Sprachen das Shuffle-Zerlegungsproblem entscheidbar ist. Wir zeigen, dass die Shuffle-Zerlegung für kontextfreie Sprachen unentscheidbar ist.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-46011-X_15 b5ebfdee20800d962737a32ed303cdc4;de;;;5.3.;;;Zuverlässige Erkennung von Bereichsduplizierungen in einer Log-Polar-Domäne mit Bandbegrenzung Die Bereichsduplizierung ist eine der Bildmanipulationstechniken, bei der ein Teil des Bildes kopiert und in einen anderen Bereich desselben Bildes eingefügt wird. In diesem Papier wird ein robuster Duplizierungserkennungsalgorithmus gegen schwere Beeinträchtigungen wie Beleuchtungsänderungen, Unschärfe, große Skalierung, Rauschverunreinigung und JPEG-Komprimierung vorgeschlagen. Wir führen ein adaptives Phasenkorrelationsschema im log-polaren Bereich ein, das effektiv ist, um das hervorstechendste lokale Merkmal eines Bildfeldes im Frequenzband zu lokalisieren. Durch Verwendung der von der Bandbegrenzung gesammelten Informationen können duplizierte Bereiche korrekt lokalisiert werden. Unser Beitrag besteht darin, einen robusten Bildduplikationserkennungsalgorithmus vorzustellen, der Manipulationen in großem Maßstab handhaben kann, während die Erkennungsleistung bei anderen Manipulationen oder Verschlechterungen erhalten bleibt. Wir führen Degradations- und Vergleichstests an verschiedenen manipulierten Bildern durch und experimentelle Ergebnisse zeigen, dass der vorgeschlagene Algorithmus eine zufriedenstellende Leistung erzielt.;-;-;-;https://link.springer.com/article/10.1007/s13369-016-2268-2 cce59a946281b1975379af43e729018e;de;;;5.3.;;;Informationsgeometrie kleiner Diffusionen Geometrische Informationsgrößen wie metrische Tensoren und Verbindungskoeffizienten für kleine Diffusionsmodelle werden erhalten. Asymptotische Eigenschaften von Bias-korrigierten Schätzern für kleine Diffusionsmodelle werden unter dem Gesichtspunkt der Informationsgeometrie untersucht. Mehrere Ergebnisse, die denen für unabhängige und identisch verteilte (i.i.d.) Modelle analog sind, werden unter Verwendung der asymptotischen Normalität der in asymptotischen Entwicklungen auftretenden Statistiken erhalten. Im Gegensatz zur asymptotischen Theorie für i.i.d.-Modelle hängen die geometrischen Größen von der Rauschgröße ab.;-;-;-;https://link.springer.com/article/10.1007/s11203-007-9011-2 a4a25503bee9c469f359fb2829ecef39;de;;;5.3.;;;Ein selbststabilisierendes Link-Coloring-Protokoll, das gegen byzantinische Fehler in Baumnetzwerken widerstandsfähig ist Selbststabilisierende Protokolle tolerieren jede Art und eine beliebige Anzahl von transienten Fehlern. Selbststabilisierende Protokolle haben jedoch keine Garantie für ihr Verhalten gegenüber dauerhaften Fehlern. Daher ist die Untersuchung von selbststabilisierenden Protokollen, die gegenüber dauerhaften Fehlern widerstandsfähig sind, wichtig.;-;-;-;https://link.springer.com/chapter/10.1007/11516798_21 48b1814f202ef4c5148483ca1c76d454;de;;;5.3.;;;Globale axialsymmetrische klassische Lösungen voll kompressibler magnetohydrodynamischer Gleichungen mit vakuumfreiem Rand und großen Anfangsdaten In diesem Beitrag wird die globale Existenz der klassischen Lösung des vakuumfreien Randproblems voll kompressibler magnetohydrodynamischer Gleichungen mit großen Anfangsdaten und axialer Symmetrie untersucht. Die Lösungen des Systems (1.6)–(1.8) gehören zur Klasse der radiusabhängigen Lösungen, d. h. unabhängig von der axialen Größe und der Winkelgröße. Insbesondere wird die Expansionsrate der sich bewegenden Grenze erhalten. Die Hauptschwierigkeit dieses Problems liegt in der starken Kopplung von Magnetfeld, Geschwindigkeit, Temperatur und der entarteten Dichte nahe der freien Grenze. Wir überwinden das Hindernis, indem wir die Untergrenze der Temperatur unter Verwendung verschiedener Lagrange-Koordinaten festlegen und die zeitlich gleichförmige Ober- und Untergrenze der Lagrange-Deformationsvariablen ableiten;-;-;-;https://link.springer.com/article/10.1007/s11425-019-1694-0 fcab91ac1945a9d4aac60d1d09e2f2b7;de;;;5.3.;;;Weitere Überlegungen zur Komplexitätsreduktion Wir haben im letzten Kapitel eine Methode beschrieben, die auf dem Hypothesen-und-Verifizieren-Paradigma basiert, um zwei aus Stereo gewonnene 3D-Frames zu registrieren und ihre Bewegung (Transformation) zu computerisieren. Wie fast alle praktischen Matching-Algorithmen können wir einige Heuristiken verwenden, um die Suche zu leiten. Einige wurden bereits im letzten Kapitel angesprochen, und wir stellen in diesem Kapitel noch einige mehr vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-58148-9_8 8811dc025a1a8d24cfc8a9cfc6be59c5;de;;;5.3.;;;Die komplexe Wellendarstellung von Distanztransformationen Die komplexe Wellendarstellung (CWR) konvertiert vorzeichenlose 2D-Abstandstransformationen in ihre entsprechenden Wellenfunktionen. Die zugrundeliegende Motivation für dieses Manöver ist folgende: Das normalisierte Leistungsspektrum der Wellenfunktion ist eine ausgezeichnete Näherung (bei kleinen Werten der Planck-Konstanten – hier ein freier Parameter;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23094-3_30 8414f183879b5fcb76aa266000847c69;de;;;5.3.;;;Endliche Automaten Das endliche Automatenmodell ist eines der ältesten in der formalen Sprachtheorie. Beispielsweise wurden 1943 von McCulloch und Pitts [48] zur Modellierung von Neuronennetzen endliche Automaten verwendet, Mitte der fünfziger Jahre wurden Automaten mit Ausgabe von Mealy [50] und Moore [53] eingeführt, und Rabin und Scott 1959 [58].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39886-8_3 66b21c79897d7c6eb0e0e39f86d967b7;de;;;5.3.;;;Ansatz zur haptischen Lenkführung im Lenkbetrieb basierend auf kooperativen Zuständen zwischen Fahrer und Steuerungssystem Die haptische Führung stellt eine gute Affinität zwischen dem Fahrer und dem Unterstützungssteuersystem für Kraftfahrzeuge mit Lenkunterstützung bereit. Es wird erwartet, dass die haptische gemeinsame Steuerung eine reibungslose Übertragung der Automatisierungskompetenz zwischen Mensch und automatisiertem System erreichen kann, da sie eine kontinuierliche physische Interaktion beinhaltet. Viele Forschungsstudien haben eine reibungslose Übertragung von Kontrollbefugnissen zwischen Mensch und Maschine basierend auf Umgebungsfaktoren wie der Position in einer Fahrspur abgeleitet. Es ist jedoch schwierig, die Steuerautorität reibungslos zu ändern, wenn sich die Absicht des Fahrers ändert, da es schwierig ist, eine solche Änderung zu erkennen. Daher schlägt die vorliegende Studie ein Verfahren vor, um die kooperative Beziehung zwischen Mensch und Maschine bei der haptischen Führungssteuerung eines Lenkassistenzsystems abzuschätzen. Außerdem wird ein Steuerverfahren zur Verstärkungsabstimmung basierend auf der Erfassung des kooperativen Status vorgeschlagen. Das vorgeschlagene Steuerverfahren wird auf eine Spurhalteassistenzsteuerung angewendet, die es dem Fahrer ermöglicht, die Spur sanft zu wechseln. Schließlich wird seine Wirksamkeit durch Versuchsergebnisse mit einem Fahrsimulator nachgewiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39215-3_68 ddee862c80243f5affe0f05f918242ff;de;;;5.3.;;;Augmented Galaga auf Mobilgeräten In letzter Zeit hat die Forschung zu Augmented Games als einem neuen Spielgenre viel Aufmerksamkeit auf sich gezogen. Ein Augmented Game überlappt virtuelle Objekte in einer Augmented Reality(AR)-Umgebung, sodass Benutzer mit der AR-Umgebung interagieren können, indem sie reale und virtuelle Objekte manipulieren. Es ist jedoch schwierig, bestehende erweiterte Spiele für normale Spieler freizugeben, da die Spiele im Allgemeinen sehr teure und unbequeme „Rucksack“-Systeme verwenden. Dementsprechend stellt dieser Artikel ein erweitertes Spiel vor, genannt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73011-8_85 240ca8158426e974b70166eefb2a74d5;de;;;5.3.;;;Modellierung von Verhaltensmanifestationen der Koordination und des Rapports über mehrere Gespräche Viele potenzielle Anwendungen virtueller Agenten erfordern, dass ein Agent mehrere Gespräche mit Benutzern führt. Ein effektiver und engagierter Agent sollte sein Verhalten bei diesen Gesprächen auf realistische Weise ändern. Um diese Veränderungen zu modellieren, haben wir einen Längsschnittvideokorpus von Mensch-Mensch-Beratungsgesprächen zusammengestellt und ein Modell der Veränderungen der Artikulationsraten über mehrere Gespräche hinweg erstellt. Es wird beobachtet, dass die Artikulationsraten im Laufe der Zeit sowohl innerhalb eines einzelnen Gesprächs als auch zwischen Gesprächen steigen. Die Artikulationsraten stiegen jedoch hauptsächlich für Wörter, die getrennt von größeren Phrasen gesprochen wurden. Wir präsentieren auch eine vorläufige Evaluierungsstudie, die zeigt, dass die Implementierung solcher Änderungen in einem virtuellen Agenten einen messbaren Einfluss auf die Einstellung der Benutzer gegenüber dem Agenten hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15892-6_14 c90584ec7239a8385a6f30969e87fc36;de;;;5.3.;;;Video als Input: Spiralsuche mit dem Sparse Angular Sampling Dieser Artikel stellt einen verbesserten Kreuzkorrelationsalgorithmus für die vorlagenbasierte Objektverfolgung vor: die reduzierte Spiralsuche mit einer spärlichen Winkelabtastung. Die grundlegenden Parameter des Algorithmus für das Echtzeit-Gesichtstracking wurden hinsichtlich ihres Einflusses auf die Algorithmusleistung bewertet. Dies sind die minimale Pixelanzahl und die Größe der Vorlage, die Korrelationsschwelle und das Driften sowie die Parameter der Suche – Radius, Verschiebung, Richtung und Drehung der Vorlage. Wir haben gezeigt, dass die von der rasterförmigen Vorlage bereitgestellten Informationen mit einem Rasterschritt von 15 Pixeln auf 16 Pixel reduziert werden können. Eine spiralförmige Suche in 8 Richtungen mit einer minimalen Verschiebung von 1 Pixel verringert die Anzahl der Berechnungen um das 20-fache. Die sequentielle Aktivierung der Template-Rotation erhöht nicht die Leistung, sondern macht das Tracking adaptiv und robust.;-;-;-;https://link.springer.com/chapter/10.1007/11902140_58 8024d5c38d45323311ccff4f5536a331;de;;;5.3.;;;Interaktive Rendering-Techniken zum Hervorheben in geovirtuellen 3D-Umgebungen Geovirtuelle 3D-Umgebungen (GeoVE), wie virtuelle 3D-Stadt- und Landschaftsmodelle, werden zu einem wichtigen Werkzeug für die Visualisierung von Geoinformationen. Hervorhebungen sind eine wichtige Komponente innerhalb eines Visualisierungsframeworks und für die Benutzerinteraktion in vielen Anwendungen unerlässlich. Es ermöglicht dem Benutzer, aktive oder ausgewählte Objekte im Kontext der aktuellen Interaktionsaufgabe leicht wahrzunehmen. In Bezug auf 3D GeoVE hat es eine Reihe von Anwendungen, wie die Visualisierung von Benutzerauswahlen, Datenbankabfragen sowie Navigationshilfen durch Hervorheben von Wegpunkten, Routen oder um die Aufmerksamkeit des Benutzers zu lenken. Die geometrische Komplexität von 3D GeoVE erfordert oft spezielle Rendering-Techniken für die Echtzeit-Bildsynthese. Dieser Beitrag stellt ein Framework vor, das verschiedene Hervorhebungstechniken vereint und sich besonders für das interaktive Rendering von 3D GeoVE mit hoher geometrischer Komplexität eignet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12670-3_12 efcb5cc3ba8640c5baf7758ad15075f5;de;;;5.3.;;;Hierarchischer Gradientendiffusionsalgorithmus für drahtlose Sensornetzwerke In diesem Papier wird ein hierarchischer Gradientendiffusionsalgorithmus vorgeschlagen, um das Übertragungsproblem und das Belastungsproblem des Sensorknotens zu lösen, indem mehrere Relaisknoten hinzugefügt und der Routingpfad des Sensorknotens angeordnet wird. Die vorgeschlagene hierarchische Gradientendiffusion zielt darauf ab, die Übertragungsbelastung des Sensorknotens auszugleichen, die Lebensdauer des Sensorknotens zu erhöhen und die Übertragungsverlustrate des Datenpakets zu reduzieren. Gemäß den experimentellen Ergebnissen reduziert der vorgeschlagene Algorithmus nicht nur den Stromverbrauch um etwa 12%, sondern verringert auch die Datenverlustrate um 85,5% und erhöht die aktiven Knoten um etwa 51,7%.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38577-3_49 5bfad1a13b9f6e73c415a03da733c676;de;;;5.3.;;;Robot Catching: Auf dem Weg zur Interaktion zwischen Mensch und Mensch Unser Fokus liegt auf der Schaffung interessanter und menschenähnlicher Verhaltensweisen für humanoide Roboter und virtuelle Charaktere. Interaktive Verhaltensweisen sind besonders ansprechend. Sie sind auch eine Herausforderung, da sie es erfordern, für komplexe Systeme wie den humanoiden Roboter mit 30 Freiheitsgraden in unserem Labor zufriedenstellende Echtzeitlösungen zu finden. Hier beschreiben wir ein Fangverhalten zwischen einer Person und einem Roboter. Wir generieren Ball-Hand-Aufprallvorhersagen basierend auf dem Flug des Balls und menschenähnlichen Bewegungsbahnen, um die Hand in die Fangposition zu bewegen. Wir verwenden einen dynamischen Systemansatz, um die Bewegungstrajektorien zu erzeugen, bei denen neue Bewegungen aus Bewegungsprimitiven erzeugt werden, wenn sie benötigt werden.;-;-;-;https://link.springer.com/article/10.1023/A%3A1013223328496 bb50948a079280a4e06b298ccc2e3a8d;de;;;5.3.;;;Behebung zeitlicher Inkonsistenzen in indirekter Augmented Reality Indirekte Augmented Reality (IAR) verwendet einen einzigartigen Ansatz, um eine hochwertige Synthese der realen und der virtuellen Welt zu erreichen, im Gegensatz zur traditionellen Augmented Reality (AR), die virtuelle Objekte in Echtzeit überlagert. IAR verwendet vorab aufgenommene omnidirektionale Bilder und Offline-Überlagerung virtueller Objekte, um eine jitter- und driftfreie geometrische Registrierung sowie eine hochwertige photometrische Registrierung zu erreichen. Ein Nachteil von IAR ist jedoch die Inkonsistenz zwischen der realen Welt und dem vorab aufgenommenen Bild. In diesem Papier stellen wir eine neue Klassifikation von IAR-Inkonsistenzen vor und analysieren die Auswirkung dieser Inkonsistenzen auf die IAR-Erfahrung. Dementsprechend schlagen wir ein neuartiges IAR-System vor, das Beleuchtungsänderungen der realen Welt widerspiegelt, indem ein geeignetes Bild aus mehreren vorab aufgenommenen Bildern ausgewählt wird, die unter verschiedenen Beleuchtungsbedingungen erhalten wurden. Die Ergebnisse von Experimenten, die an einem tatsächlichen historischen Ort durchgeführt wurden, zeigen, dass die Berücksichtigung von Beleuchtungsänderungen in der realen Welt den Realismus der IAR-Erfahrung verbessert.;-;-;-;https://link.springer.com/article/10.1007/s11042-015-3222-0 df79c87e0ee1d02d70dd5a763a56bd21;de;;;5.3.;;;Nichtnegative Korrelationscodierung zur Bildklassifizierung Die Merkmalskodierung ist eines der wichtigsten Verfahren im Bag-of-Features-Modell zur Bildklassifizierung. In diesem Artikel schlagen wir eine neuartige Methode zur Merkmalskodierung vor, die als nichtnegative Korrelationskodierung bezeichnet wird. Um eine diskriminative Bilddarstellung zu erhalten, verwendet unser Verfahren zwei Korrelationen: die Korrelation zwischen Merkmalen und visuellen Wörtern und die Korrelation zwischen den erhaltenen Codes. Die erste Korrelation spiegelt die Lokalität von Codes wider, d. h. die visuellen Wörter nahe dem lokalen Merkmal werden leichter aktiviert als die entfernten. Die zweite Korrelation charakterisiert die Ähnlichkeit von Codes und bedeutet, dass ähnliche lokale Merkmale wahrscheinlich ähnliche Codes haben. Beide Korrelationen werden unter der nichtnegativen Einschränkung modelliert. Basierend auf dem Gradientenprojektionsalgorithmus von Nesterov entwickeln wir einen effektiven numerischen Löser zur Optimierung des nichtnegativen Korrelationscodierungsproblems mit garantierter quadratischer Konvergenz. Umfangreiche experimentelle Ergebnisse zu öffentlich zugänglichen Datensätzen belegen die Wirksamkeit unserer Methode.;-;-;-;https://link.springer.com/article/10.1007/s11432-015-5289-7 43b37a1070cf62441d2fc11e773a8de6;de;;;5.3.;;;Lebensdauervorhersageverfahren von Komponenten basierend auf Fehlerphysik Mit immer umfangreicherer Anwendung mikroelektronischer Bauelemente werden die Produktionskosten- und Leistungsanforderungen von Halbleiterbauelementen durch die Zuverlässigkeitsanforderungen ersetzt. Der Zuverlässigkeitstest muss durchgeführt werden, um die Zuverlässigkeit des Geräts zu analysieren und zu bewerten und seine Lebensdauer nach Ausfallmechanismus vorherzusagen. Unter normalen Arbeitsbedingungen ist es üblich, einen beschleunigten Lebensdauertest durchzuführen, um die Zuverlässigkeitsdaten von Geräten schneller zu erhalten. Darüber hinaus werden Anstrengungen unternommen, die entsprechenden Geräteausfallmodelle nach ihrem Ausfallmechanismus zu analysieren und verschiedene Lebensdauervorhersagemodelle und -methoden anzuwenden. Die Zuverlässigkeit des Halbleiterbauelements beeinflusst direkt die Lebensdauer des Bauelements. Nach dem beschleunigten Test können Menschen alle Arten von Modellen und Methoden zur Lebensdauerprognose erstellen, indem sie den Ausfallmechanismus von Halbleiterbauelementen analysieren. Dieser Artikel fasst den Entwicklungsprozess der Methoden, die zur Vorhersage der Lebensdauer von Halbleiterbauelementen verwendet werden und auf der Grundlage der Fehlerphysik verwendet werden, minutiös zusammen, und dann werden diese Methoden mit ihren entsprechenden Zuverlässigkeitsproblemen im Detail vorgestellt. Am Ende des Papiers werden fünf Modelle für beschleunigte Tests gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-7123-3_28 2140943d964bb0c02e41818c6d16776e;de;;;5.3.;;;Die Erforschung eines Lehrassistenzsystems basierend auf künstlicher Psychologie In diesem Beitrag wird ein humanistisches Computerlehrsystem vorgestellt. Der Kern dieses Systems ist die affektive Interaktion zwischen Lehrer und Schüler. Basierend auf Theorien der Psychologie und der Theorie der Künstlichen Psychologie wird das Emotionslernmodell entwickelt. Vier Grundemotionen und vier Arten von lernpsychologischen Zuständen werden gemäß der Basisemotionstheorie definiert, und der zweidimensionale Emotionsraum wird auf der Grundlage der Dimensionalen Emotionstheorie entworfen. Dieses System könnte dem Lehrer den psychologischen Zustand und den psychologischen Wert des Schülers bieten. Schließlich wurde dieses System unter Verwendung des Erkennungsverfahrens realisiert, das auf digitaler Bildverarbeitungstechnologie basiert.;-;-;-;https://link.springer.com/chapter/10.1007/11573548_79 bce0c9fa49ff9df82f470fe6453a73cb;de;;;5.3.;;;Das Design von Social Coupons als digitale Werbetaktik Digitale Medien entwickeln sich weiter und fordern die Umsetzung von Unternehmenskommunikationsstrategien heraus, die ständig nach neuen Taktiken zur Kundengewinnung und -bindung suchen. In diesem Bereich untersucht die vorliegende Studie die Bedeutung des Designs bei der Digitalisierung von sozialen Rabattgutscheinen. Im Mittelpunkt steht die Analyse der Taktiken zur Steigerung der Kundenattraktivität durch eine Analyse aus Sicht des Verbrauchers und des verantwortlichen Marketers. Die Forschung folgt der Design-based Research-Methodik, die eine konsequente Neugestaltung des Artefaktvorschlags – Social Coupon – erfordert. Somit gliedert sich die Forschung in 4 Hauptphasen. Die Datenerhebung erfolgt durch die Anfragen durch Online-Fragebögen und -Interviews sowie in einer Fokusgruppensitzung. Der geschaffene Rahmen und die Bewertung von neun gezogenen Coupon-Vorschlägen zeigen, dass die Verbraucher eine starke Vorliebe für warme Farben, abgerundete Formen und nicht serifenförmige Schriftarten haben. Die Ergebnisse dieser Studie zeigen, dass Marketeers ihre Taktik klären und ihre Digitalisierung an die Vorlieben der Verbraucher anpassen sollten. Diese Studie kann frühere Studien zur Wirksamkeit der Digitalisierung von Werbemaßnahmen durch soziale Coupons ergänzen. Diese sind für die Unternehmen nützlich, um zu verstehen, wie das Interesse der Verbraucher gesteigert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72654-6_16 17ea710a899d5fe631ffafed9c5538ce;de;;;5.3.;;;Bio-inspiriertes Feedback Linearisierte adaptive Steuerung für ein Schubvektor-Freifliegerfahrzeug Intelligente unbemannte Robotersysteme haben in letzter Zeit aufgrund ihrer Fähigkeit, potenziell unzugängliche und sich dynamisch verändernde Umgebungen zu erkunden, an Popularität gewonnen. In diesen Umgebungen können diese Fahrzeuge einzigartigen Arten von Störungen ausgesetzt sein, die zu einer Verschlechterung der Einsatzleistung führen können. Dieses Papier beschreibt das Design, die Entwicklung und den Machbarkeitsnachweis einer neuartigen adaptiven Steuerung, die Konzepte aus Modellreferenz und Feedback-Linearisierung kombiniert und durch nichtlineare begrenzte Funktionen ergänzt wird, die typisch für Immunsystemreaktionen lebender Organismen sind. Der Nachweis der Stabilität des vorgeschlagenen Kontrollgesetzes mittels Circle Criterion wird vorgelegt. Numerische Hardware-in-the-Loop-Simulationen werden zusammen mit der tatsächlichen Implementierung unter Verwendung eines kardanisch aufgehängten Mini-Free-Flyer-Fahrzeugs durchgeführt, das Schubvektorsteuerungssteuerung verwendet. Ein Satz von Leistungsindexmetriken wird verwendet, um die Leistung des adaptiven Steuersystems zu quantifizieren und zu bewerten, das Stabilisierungsfähigkeiten beim Vorhandensein von Systemstörungen und Unsicherheiten zeigt.;-;-;-;https://link.springer.com/article/10.1007/s10846-021-01408-z 6935fea15a47fc4234845ca8e4fad664;de;;;5.3.;;;EasyKSORD: Eine Plattform für die Stichwortsuche über relationale Datenbanken Die Schlüsselwortsuche über relationale Datenbanken (KSORD) ermöglicht Gelegenheitsbenutzern, mit Schlüsselwortabfragen (einem Satz von Schlüsselwörtern) relationale Datenbanken zu durchsuchen, genau wie das Durchsuchen des Webs, ohne das Datenbankschema zu kennen oder SQL-Abfragen zu schreiben. Basierend auf unserer bisherigen Arbeit entwerfen und implementieren wir eine neuartige KSORD-Plattform namens EasyKSORD für Benutzer und Systemadministratoren, um verschiedene KSORD-Systeme auf neuartige und einfache Weise zu verwenden und zu verwalten. EasyKSORD unterstützt erweiterte Abfragen, effiziente datendiagrammbasierte Suchmaschinen, mehrformige Ergebnispräsentationen sowie Systemprotokollierung und -analyse. Mit EasyKSORD können Benutzer relationale Datenbanken einfach durchsuchen und Suchergebnisse bequem lesen, und Systemadministratoren können die Operationen von KSORD einfach überwachen und analysieren und KSORD-Systeme viel besser verwalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05250-7_40 75fec859ff9c3eea4b1a21ac3a075799;de;;;5.3.;;;Geschäftsmodelle filialorientierter Software-Ökosysteme: Ein Ansatz zur Variabilitätsmodellierung In den letzten Jahren gewinnen geschäftsorientierte Software-Ökosysteme aus geschäftlicher Sicht immer mehr an Aufmerksamkeit. In diesen Ökosystemen laden Drittentwickler Erweiterungen in einen Store hoch, die von Endbenutzern heruntergeladen werden können. Während der Funktionsumfang solcher Ökosysteme relativ ähnlich ist, unterscheiden sich die zugrunde liegenden Geschäftsmodelle in und zwischen ihren unterschiedlichen Produktdomänen (z. B. Handy, Smart TV) stark. Diese Variabilität macht es wiederum für Ladenanbieter schwierig, ein Geschäftsmodell zu finden, das ihren eigenen Bedürfnissen entspricht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-24854-3_10 e9dee071ceeb864546161ff9bfbfefcd;de;;;5.3.;;;Automatische Ansichtsverfolgung in 360º-Multimedia mit xAPI 360º-Videos können bis zu sechsmal die Bandbreite eines normalen Videos verbrauchen, indem die gesamten Frames statt nur des aktuellen Viewports bereitgestellt werden, was die Bereitstellung dieser Art von Multimedia zusätzlich erschwert. Viele Autoren gehen diese Herausforderung an, indem sie das gelieferte Ansichtsfenster einschränken, indem sie wissen, wo der Benutzer wahrscheinlich hinschaut. Um dies zu beheben, schlagen wir ein automatisches View-Tracking-System auf Basis von xAPI vor, um die Daten zu sammeln, die erforderlich sind, um das Wissen zu schaffen, das für die Entscheidung über den bereitgestellten Viewport erforderlich ist. Wir präsentieren einen Anwendungsfall einer interaktiven 360º-Videodokumentation über die Migrationskrise in Griechenland. In diesem Fall werden omnidirektionale Inhalte mit einem 6-Kamera-Array aufgenommen, in einer äquirektangulären Projektion gerendert und später von einer HTML5-Webanwendung abgespielt. An bestimmten Koordinaten der Raum-Zeit der Produktion werden interaktive Hotspots platziert, die durch das Abspielen zusätzlicher multimedialer Inhalte eine Verbindung des Betrachters mit der Geschichte herstellen. Die aktuelle Ansicht und andere Nutzungsdaten werden aufgezeichnet und ermöglichen es uns, wie in den meisten beobachteten Bereichen Metriken zum Nutzerverhalten zu erhalten, mit dem Ziel, das erforderliche Wissen zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-90170-1_9 43cac33ff04016ba8fa46b4bbd28aed4;de;;;5.3.;;;Zu expliziten Lösungsformeln evolutionärer SPDEs (eine Art Einführung in die Theorie) Für den Autor begann die Theorie der stochastischen partiellen Differentialgleichungen im Herbst 1974, als A.K. Zvonkin und ich bereiteten für eine Konferenz in Druskininkai eine Übersicht [1] über die Theorie starker und schwacher Lösungen der stochastischen Gleichungen von Ito vor. Ich dachte zwangsläufig über verschiedene Darstellungen von Lösungen nach. Es zeigte sich, dass eine davon darauf beruhen kann, dass die Lösung der stochastischen Gleichung von Ito als Lösung einer SPDE angesehen werden kann. Tatsächlich wurde zu dieser Zeit die Theorie solcher Gleichungen nicht entwickelt und in [1] (siehe auch [2]) wurde nur eine direkte Konsequenz einer solchen Sichtweise dargestellt. Nun existiert die Theorie der SPDE's, sie ist gut entwickelt und gut verbunden mit Berechnungen bestimmter bedingter Erwartungen, die Darstellungen von Lösungen dieser SPDE's liefern (siehe z. B. [3], [4] und Referenzen dort). Diese Darstellungen werden streng bewiesen, aber wie so oft erklären die Beweise kaum echte Gründe, warum die Darstellungen wahr sind und wie sie tatsächlich gefunden wurden. Genau letzteres möchte ich hier nur informell diskutieren, wobei formale Beweise für alle unsere Formeln bekannt sind, außer für die beiden letzten (4.13), (4.18), deren allgemeiner Fall relativ neu und sehr umständlich ist. Der Autor hofft, dass dieser Artikel eine (gute) Einführung in die Theorie der SPDE ist.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0007330 b55247385a600a80ea2c1d60d9ecc0c1;de;;;5.3.;;;Momentenprobleme im Zusammenhang mit den Lösungen stochastischer Differentialgleichungen Unser Ziel ist es, die Momenteindeutigkeit oder Nichteindeutigkeit der eindimensionalen Verteilungen der Lösungsprozesse von stochastischen Differentialgleichungen (SDE) vom Itô-Typ zu analysieren. Wir erinnern uns an einige klassische und/oder neue Kriterien und wenden sie an, um Ergebnisse für die Lösungen von linearen und nichtlinearen SDEs abzuleiten. Besondere Aufmerksamkeit wird der Brownschen Bewegung, den stochastischen Integralen und der geometrischen Brownschen Bewegung gewidmet. Eine andere Möglichkeit besteht darin, den Momentenkonvergenzsatz (Frećhet-Shohat) zu verwenden, um explizit die eindimensionalen Grenzverteilungen bestimmter Prozesse zu finden. Verwandte Momentenprobleme werden ebenfalls mit dem Fokus auf funktionale Transformationen von Prozessen und Approximationen der Lösungen gestörter SDEs skizziert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48022-6_31 7716d203b09a28e727ec1085f263baec;de;;;5.3.;;;Auf dem Weg zu allgemeinen Algorithmen für grammatische Inferenz Viele Algorithmen für grammatikalische Inferenz können als Instanzen eines allgemeineren Algorithmus angesehen werden, der einen Satz primitiver Elemente verwaltet, die verteilungsmäßig Sätze von Strings definieren, und einen Satz von Merkmalen oder Tests, die verschiedene Inferenzregeln einschränken. Unter Verwendung dieses allgemeinen Rahmens, den wir als logischen Inferenzprozess verwenden, analysieren wir Angluins berühmte;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16108-7_2 db5355f97bd1cb5ef358ed7bcbf0755b;de;;;5.3.;;;Stabilität der Wanderwellen in einer Klasse von freien Randproblemen aus der Verbrennungstheorie Wir untersuchen die Stabilität der Wanderwellenlösungen einer Klasse von einphasigen und zweiphasigen freien Randwertproblemen aus der Verbrennungstheorie. Sie werden im Banachraum in nichtlineare Evolutionsgleichungen transformiert, so dass die Stabilität der Wanderwellenlösung des freien Randproblems der Bahnstabilität der Nulllösung des abstrakten Problems entspricht. Dann werden bekannte Stabilitätsergebnisse für abstrakte parabolische Gleichungen verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0006702 18d7cb9f8508b386fddd8373e422da83;de;;;5.3.;;;Überprüfung des Einflusses der Präsentation eines virtuellen Frontfahrzeugs auf die Geschwindigkeitssteuerung Wenn keine Fahrzeuge vorausfahren und die Straßen gut sichtbar sind, neigen Fahrer dazu, die Geschwindigkeitsbegrenzungen zu überschreiten, selbst wenn sie normalerweise auf sicheres Fahren achten. In einigen dieser Fälle kann jedoch eine zu hohe Geschwindigkeit zu schweren Unfällen führen. Um das Fahren mit sicheren Geschwindigkeiten zu fördern, schlagen wir in dieser Studie ein System vor, das ein in einem Auto installiertes Mobilgerät verwendet, um ein virtuelles Vorderfahrzeug zu visualisieren. Insbesondere wenn die Geschwindigkeit des realen Autos höher ist, wird die Größe des visualisierten Fahrzeugs größer, als würde sich der Fahrer dem virtuellen Vorderfahrzeug nähern. Das heißt, die Größe simuliert die Annäherung an das vordere Fahrzeug. Auf der anderen Seite, wenn die Geschwindigkeit langsamer ist, wird die Größe kleiner, als ob sich das vordere Fahrzeug weiter vom Fahrer wegbewegt. Wir erwarten, dass ein Fahrer das Gefühl hat, sich dem vorderen Fahrzeug zu nähern, seine hohe Fahrgeschwindigkeit an der Größe des virtuellen vorderen Fahrzeugs erkennt und langsamer wird. Um diesen Effekt zu verifizieren, führten wir ein Fahrsimulationsexperiment durch.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-49570-1_7 e4eb017ba1943aa12fdc45ca7e035e2a;de;;;5.3.;;;ENO- und WENO-Schemata hoher Ordnung für die numerische Strömungsmechanik In diesen Vorträgen präsentieren wir die grundlegenden Ideen und jüngsten Entwicklungen in der Konstruktion, Analyse und Implementierung von ENO (Essentially Non-Oscillatory) und WENO (Weighted Essentially Non-Oscillatory) Schemata und deren Anwendungen auf die numerische Strömungsmechanik. ENO- und WENO-Schemata sind hochgenaue Finite-Differenzen- oder Finite-Volumen-Schemata, die für Probleme mit stückweise glatten Lösungen mit Diskontinuitäten entwickelt wurden. Der Kerngedanke liegt auf der Näherungsebene, wo ein nichtlineares adaptives Verfahren verwendet wird, um automatisch die lokal glatteste Schablone zu wählen und somit Überschneidungsdiskontinuitäten im Interpolationsverfahren so weit wie möglich zu vermeiden. ENO- und WENO-Schemata waren in der numerischen Strömungsmechanik und anderen Anwendungen recht erfolgreich, insbesondere bei Problemen, die sowohl Stöße als auch komplizierte glatte Lösungsstrukturen enthalten, wie z.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-03882-6_5 f040752d83506a0165f4ae293375195d;de;;;5.3.;;;Fazit und zukünftige Richtungen Unsere Vision ist analog zu der, die wir für die Farbpersonalisierung haben: Eine einfache, aber leistungsstarke Suite von Tools (Farbfelder, Farbskala, Schieberegler), die auf der Farbtheorie (z Anwendungen (z. B. Microsoft Office, Adobe Creative Suite) für eine Vielzahl von Benutzern. Im Folgenden diskutieren wir zunächst die Beiträge dieses Buches zu dieser Vision, unterteilt nach den drei Hauptthemen, die wir in Kap.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-11379-7_8 25c36428419e6fe5f9248e556e1fdc7e;de;;;5.3.;;;eFRIEND: ein ethischer Rahmen für die Entwicklung intelligenter Umgebungen Intelligente Umgebungen zielen darauf ab, den Menschen in den physischen Räumen, in denen sie arbeiten und leben, kontextsensitive Dienste bereitzustellen. Obwohl die ethischen Dimensionen dieser Systeme berücksichtigt wurden, ist dies ein Aspekt, der einer weiteren Analyse bedarf. Eine Literaturrecherche zeigt, dass diese Ansätze voneinander getrennt sind und wenig Einfluss auf den Bau realer Systeme haben. Dieser Artikel bietet eine Lösung für diese beiden Probleme. Es fasst die ethischen Fragen zusammen, die in früheren Arbeiten behandelt wurden, und hebt andere wichtige Bedenken hervor, die bisher übersehen wurden. Darüber hinaus schlägt es einen alternativen, ganzheitlicheren Ansatz vor, der verwendet werden kann, um die Entwicklung intelligenter Umgebungen zu leiten. Die Validität des Frameworks zeigt sich durch seine Integration in ein konkretes Projekt.;-;-;-;https://link.springer.com/article/10.1007/s10676-014-9358-1 f09d8c853ba553c317535ac89424ae3d;de;;;5.3.;;;Formverhör Formabfrageverfahren sind sowohl in der geometrischen Modellierung als auch in der Computergrafik von zunehmendem Interesse. Vor 20 Jahren aus CAD/CAM-Anwendungen entstanden, bei denen Oberflächen der „Klasse A“ erforderlich sind und keine Oberflächenunvollkommenheiten zulässig sind, ist die Formabfrage in letzter Zeit zu einem wichtigen Werkzeug für verschiedene andere Arten von Oberflächendarstellungen geworden, wie z algebraische Flächen. In diesem Beitrag stellen wir den neuesten Stand der Formabfragemethoden vor, einschließlich Methoden zur Erkennung von Oberflächenfehlern, Oberflächenanalysetools und Methoden zur Visualisierung intrinsischer Oberflächeneigenschaften. Darüber hinaus konzentrieren wir uns auf das stabile numerische und symbolische Lösen von algebraischen Gleichungssystemen, ein Problem, das bei den meisten Formabfragemethoden auftritt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-33265-7_1 9692f38d9a5ce17fb7e5b89e5a59e515;de;;;5.3.;;;Eine Überprüfung der Verwendung von Virtual Reality zum Lernen Das Hauptanliegen der Pädagogen besteht darin, die Ergebnisse der Bildung zu verbessern. Forscher im Bereich der Bildungstechnologie haben ständig nach besseren Bildungsmedien gesucht, die zur Unterstützung des Unterrichts verwendet werden. Virtual Reality (VR) wurde als eine davon identifiziert. Viele sind sich einig, dass VR dazu beitragen kann, die Leistung und das konzeptionelle Verständnis für einen bestimmten Aufgabenbereich zu verbessern. Es gibt jedoch nur begrenzte Erkenntnisse darüber, wie VR die Lernergebnisse verbessern könnte. In diesem Artikel werden VR-Typen, die zum Lernen verwendet wurden, das theoretische Framework für eine VR-Lernumgebung und das Instruktionsdesign für eine VR-basierte Lernumgebung beschrieben. Weitere Forschung wird für VR-basierte Lernumgebungen vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69744-2_18 6e15b7ebb44fd230a4687c8630dc89fd;de;;;5.3.;;;Die Analyse neuer Streptavidin-bindender Peptide, die mithilfe einer Phagen-Display-Bibliothek identifiziert wurden, zeigt, dass Aminosäuren außerhalb einer perfekt konservierten Konsensussequenz und der vorgestellten Peptide zur Bindung beitragen Streptavidin-bindende Peptide, die das Konsensus-Aminosäuresequenzmotiv EPDW enthalten, wurden unter Verwendung einer Phagen-Display-Bibliothek identifiziert. Phagen-präsentierende Peptide, die diese Sequenzen enthielten, banden Streptavidin in einer biotinsensitiven Weise und konnten mit Biotin eluiert werden. Die zuvor identifizierte „Streptag“-Peptidsequenz (AWRHPQGG) konkurrierte mit Phagen, die die EPDW-Konsensussequenz um die Streptavidinbindung präsentieren. Darüber hinaus hat die EPDW-Sequenz zwei Aminosäuren gemeinsam mit noch einer anderen zuvor identifizierten Streptavidin-bindenden Sequenz, GDWVFI, die ähnliche biochemische Eigenschaften hat. Bindungsinhibitionsstudien zeigten, dass EPDW flankierende Reste sowie Reste des modifizierten Phagen-pIII-Produkts, an das die präsentierten Peptide fusioniert sind, zur Streptavidin-Bindung beitrugen. Die Ableitung von kleinen Molekülen basierend auf der Struktur von Peptiden, die unter Verwendung von Display-Verfahren ausgewählt wurden, ist eine potenziell wichtige Anwendung der Phagen-Display-Technologie. Die Relevanz der hier gemachten Beobachtungen für diese Anwendung wird diskutiert. Schließlich wird auch eine Gruppe von „nervigen“ Peptiden der Konsensussequenz WHWWXW beschrieben, deren Bindungsspezifität nicht vollständig aufgeklärt ist, die jedoch in einer Reihe von Biopanning-Experimenten isoliert wurden, einschließlich solcher, die kein Streptavidin verwenden.;-;-;-;https://link.springer.com/article/10.1007/BF01715528 368c951f5d70fb9023d59ca19e8d72a3;de;;;5.3.;;;Bedeutung liegt im Auge des Stakeholders Verwahrer digitaler Inhalte ergreifen Maßnahmen, wenn das Material, für das sie verantwortlich sind, beispielsweise durch Überalterung oder Verschlechterung bedroht ist. Ideale Konservierungsmaßnahmen bewahren auf den ersten Blick jeden Aspekt der Originalobjekte mit höchster Treue. Dieses Ziel zu erreichen kann jedoch kostspielig, undurchführbar und manchmal sogar unerwünscht sein. Infolgedessen müssen Verwahrer ihre Aufmerksamkeit darauf richten, die wichtigsten Merkmale des Inhalts zu erhalten, auch auf Kosten weniger wichtiger. Das Konzept der signifikanten Merkmale hat sich in der Community der digitalen Langzeitarchivierung durchgesetzt, um dieses wichtige Ziel zu erreichen. Wie so oft in einem aufstrebenden Bereich ist der Begriff jedoch überfrachtet und bleibt undefiniert. In diesem Papier entschlüsseln wir die Bedeutung, die hinter der Phrase steckt, analysieren die Domäne und führen eine klare Terminologie ein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04346-8_29 d2017e95c91dd3a82769938eab3f28ca;de;;;5.3.;;;Reise des Softwareentwicklers Agile Entwicklung erfordert einen hochgradig iterativen und kollaborativen Designprozess, der auf der erfolgreichen Interpretation der Softwareentwicklungsaktivitäten durch die Teammitglieder während des gesamten Prozesses beruht. Zeitgenössische Methoden und Werkzeuge, die agile Bemühungen unterstützen, bieten jedoch wenig Hilfestellung beim Umgang mit kontextspezifischem implizitem Wissen, das ohne eine gemeinsame Interpretationsmethode schwer zu externalisieren ist. Ohne eine ständig aktualisierte Interpretation der Projektvision ist es schwierig, ein gemeinsames mentales Modell zu beanspruchen, obwohl dies für den Erfolg eines agilen Prozesses tatsächlich entscheidend ist. In diesem Papier gehen wir dieses Problem an und suchen nach Anleitungen in einem Ansatz, der üblicherweise in der Filmgeschichte verwendet wird. Die Filmproduktion verfügt über umfangreiche Erfahrung mit der Externalisierung von Erfahrungen mit Hilfe von visuellen Planungswerkzeugen und verwandten Techniken, um die kreativen Bemühungen großer interdisziplinärer Produktionsteams zu orchestrieren. Wir schlagen daher vor, Methoden und Werkzeuge des Visual Storycrafting anzupassen, um Softwareentwicklern zu helfen, kontextspezifisches implizites Wissen nicht nur zu externalisieren und zu diskutieren, sondern sie auch kreativ in den Entwicklungsprozess einzubinden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-44817-6_16 77bbca4a064c064145ac367bc79502dc;de;;;5.3.;;;Eine Studie zum Vergleich der Verwendung von schattiertem Text und adaptiver Navigationsunterstützung in adaptiven Hypermedien Das in diesem Artikel diskutierte Experiment wurde entwickelt, um die Verwendbarkeit der Kombination zweier adaptiver Hypermedia (AH)-Techniken, der Schattierung von Textfragmenten und der adaptiven Navigationsunterstützung (ANS) mittels Link-Annotation, innerhalb des Bildungsparadigmas zu untersuchen. Die empirische Studie erforderte die Implementierung von drei Prototypanwendungen, Anwendung A, unterstütztes ANS und Schattierung, Anwendung B, unterstütztes ANS und Anwendung C, war eine nicht adaptive Version. Eine eingehende Auswertung zeigte, dass ANS allein nicht so sinnvoll war wie die Kombination mit adaptiver Präsentation, d. Es zeigte sich auch, dass die Schattierung die Auswirkungen kognitiver Überlastung reduziert, indem die Anzahl der hervorgehobenen Links in Dokumenten reduziert wird.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44595-1_42 e0aa24b6a07116c3a7a209177c82b2f4;de;;;5.3.;;;Design und Implementierung eines nachrichtenorientierten automatischen Zusammenfassungssystems basierend auf chinesischem RSS Die automatische Zusammenfassung ist ein wichtiger Forschungszweig der Verarbeitung natürlicher Sprache. Die automatische Zusammenfassung soll den Nutzern Informationen aus unterschiedlichen Sichtweisen zum besseren Verständnis liefern. Ausgehend von den Eigenschaften der Nachrichten wird ein automatisches Zusammenfassungssystem aus zwei Aspekten aufgebaut: Schlüsselwörtern und Schlüsselsätzen. Dann wird der Standortfaktor hinzugefügt, um den Schlüsselwortextraktionsalgorithmus zu optimieren. In der Zwischenzeit wird der Extraktionsalgorithmus für Schlüsselsätze durch die Einführung von Schlüsselwortfaktoren verbessert. Auf dieser Basis baut dieser Beitrag in Anlehnung an die bestehenden Probleme von RSS ein User-Interest-Modell auf. Schließlich zeigt das Ergebnis nach der Überprüfung der Machbarkeit und Wirksamkeit, dass es effektiv ist, die Genauigkeit und das Benutzererlebnis der RSS-Feeds zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41644-6_36 c3593bd797e7f5ca6c103bc139a542b1;de;;;5.3.;;;Bereitstellung von Unterstützung für IoT-Geräte, die in einer nicht verbundenen ländlichen Umgebung bereitgestellt werden Die Zunahme der Fähigkeiten von End- und Near-to-End-Geräten hat zur Entwicklung von Paradigmen wie dem Internet der Dinge, Fog Computing und Edge Computing geführt. Diese Geräte benötigen eine Internetverbindung, um die erfassten oder verarbeiteten Daten zu senden und spezifische Anfragen zu erhalten. Viele dieser Geräte sollen das Leben der Menschen erleichtern und können auch dazu verwendet werden, die Gesundheit der Menschen besser zu überwachen. Eines der Probleme dieser Geräte besteht darin, dass sie eine Internetverbindung benötigen und in den meisten ländlichen Gebieten eine schlechte Internetinfrastruktur vorhanden ist, was ihre Verwendung fast unmöglich macht. Dieses Papier stellt ein Werkzeug zur Generierung von Anwendungen mit einem mobilzentrierten Architekturstil vor, das die Fähigkeiten der Endgeräte zur Verarbeitung und Speicherung der erfassten Daten nutzt. Dieser Stil ermöglicht es Geräten, die Informationsanfragen asynchron zu verarbeiten, wodurch die Internetanforderungen reduziert werden und die Verwendung dieser Technologien in Bereichen mit schlechter und zeitweiliger Internetverbindung ermöglicht wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-41494-8_14 723347982e63b1fb9ec1f615a77ea993;de;;;5.3.;;;Interaktion mit Light Apps und Plattformen In naher Zukunft werden hochdynamische Lichtquellen in die Bereiche, in denen wir leben und arbeiten, sowie in die Objekte innerhalb dieser Bereiche eingebettet. Alle diese Lichtelemente werden verbunden und digital gesteuert. Diese Entwicklung wird unsere Umgebungen zu Lichtplattformen machen, die uns nicht nur unsere Umgebung beobachten und unsere Aufgaben erfüllen, sondern auch viele andere Funktionen und Aktivitäten unterstützen können. Darüber hinaus werden solche Plattformen durch Sensornetzwerke Wissen über ihre Umgebung haben und in der Lage sein, autonom auf Benutzer zu reagieren. Diese Vision erfordert von uns, die Art und Weise, wie wir mit Licht interagieren, sowie die Art und Weise, wie Licht mit uns interagiert, zu überdenken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31479-7_11 90c7aa0cf8f9bd283e70c3449eba824e;de;;;5.3.;;;Untersuchung der Zugänglichkeit von Websites der Staatsregierung in Maryland Alle Bürger haben das Recht, auf Informationen ihrer Regierung zuzugreifen. Sowohl auf Bundes- als auch auf Landesebene in den Vereinigten Staaten erwarten Bürger mit Behinderungen den gleichen Zugang zu Regierungsinformationen wie alle anderen. Wenn auf einer Website Regierungsinformationen verfügbar sind, müssen diese Informationen für Menschen mit Beeinträchtigungen zugänglich sein. Menschen mit Wahrnehmungs-, Bewegungs- und/oder kognitiven Beeinträchtigungen können auf Websites zugreifen, die unterschiedliche unterstützende Technologien wie Bildschirmlesegeräte oder alternative Tastaturen verwenden, oder benötigen möglicherweise Inhalte in alternativen Formaten (;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84996-166-0_7 e03d1cb2faf57c115d2f028e109f4635;de;;;5.3.;;;Wo sind sie jetzt – sichere Standortfreigabe In diesem Whitepaper wird ein neues Modell zum Teilen von Standortinformationen beschrieben, ohne dass die Identität gegenüber Servern von Drittanbietern preisgegeben wird. Wir können es als sichere Standortfreigabe bezeichnen. Der vorgeschlagene Ansatz teilt Standortinformationen und Identitätsinformationen auf. Der Dienst arbeitet mit einer speziellen Art von verteiltem Datenspeicher, bei dem Identitätsinformationen immer lokal sind. Es beseitigt eines der Hauptprobleme bei standortbasierten Systemen – den Datenschutz. Dieser Artikel beschreibt ein Modell selbst sowie seine Implementierung in Form einer mobilen HTML5-Webanwendung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32686-8_6 f1a40aabdfd7fff5c6aae4bcf7708754;de;;;5.3.;;;SVG-basierte Darstellung und Analyse räumlicher Informationen In diesem Artikel wird versucht, einige räumliche Erweiterungen der Scalable Vector Graphics (SVG)-Spezifikation des W3C vorzunehmen, um die SVG-basierte räumliche Informationsdarstellung und -analyse in der Webumgebung zu unterstützen. Basierend auf der räumlichen Datenmodellierung versucht dieser Artikel, eine theoretische Grundlage für die SVG-basierte räumliche Informationsdarstellung zu finden. Dann schlagen wir ein SVG-basiertes räumliches Informationsdarstellungsmodell für die Veröffentlichung von räumlichen Daten vor. Darüber hinaus entwirft und implementiert dieses Papier einige räumliche Operatoren und integriert sie in ein SVG-basiertes Spatial Extended SQL, um die räumliche Analyse zu unterstützen, was die Funktionen aktueller WebGIS-Anwendungen verbessert, von denen die meisten nur zur Visualisierung verwendet wurden. Schließlich entwirft diese Arbeit einige Fallstudien. Die Ergebnisse der Fallstudien beweisen, dass die vorgeschlagenen Methoden für die Veröffentlichung und Analyse von Geoinformationen über das Web machbar und funktionsfähig sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89903-7_3 26edbf68ca3f2b445ffa535530b435e1;de;;;5.3.;;;Bürgersteige als Verkörperungen von Bedeutung für einen fraktalen Verstand Ausgehend von einem Aspekt, wie der Geist eine Verbindung zur Umwelt herstellt, untersucht dieser Beitrag die Rolle der Straßengestaltung in der Umwelt als Vehikel der Bedeutungsvermittlung.;-;-;-;https://link.springer.com/article/10.1007/s00004-999-0009-5 2a26f524cbf335570d2d257b802aaebf;de;;;5.3.;;;Eine probabilistische Sicht auf Wetter, Klima und die Energiewirtschaft Wahrscheinlichkeitsmethoden liefern quantitative Einblicke in die Auswirkungen der atmosphärischen Variabilität auf die Energiewirtschaft. Moderne Computer-Wahrscheinlichkeitsvorhersagen von Klimaanomalien für die kommenden Wochen, Monate oder Jahreszeiten bieten neue Präzision im Umgang mit Risiken und Chancen. Die Vorhersagen von zwei großen internationalen Zentren und ein vom World Climate Service daraus erstelltes Multimodell zeigen, dass die heutigen Wahrscheinlichkeitsprognosen über ausreichende Fähigkeiten und Zuverlässigkeit verfügen, um vorteilhafte Leitlinien für Energieentscheidungen zu liefern. Ein analytisches Modell der verfügbaren Auswahlmöglichkeiten als Reaktion auf vorhergesagte Anomalien veranschaulicht, wie und wann auf Vorhersagen reagiert werden sollte. Die Atmosphäreninformatik wird als ein System zur Erzeugung, Übertragung und Anwendung von atmosphärischen Informationen bei wichtigen Aufgaben eingeführt. Ziel ist es, Energie- und anderen Branchenentscheidern zu zeigen, was sie wissen müssen – jetzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-9221-4_17 1a7abc43a2dfc07658e269b4ce6827d0;de;;;5.3.;;;SGP: Security by Guaranty Protocol für Ambient Intelligence-basierte Multi-Agent-Systeme Ambient Intelligence (AmI) ist ein aufstrebender multidisziplinärer Bereich, der auf Ubiquitous Computing, Ubiquitous Communication und intelligenter Benutzeroberfläche basiert. AmI verspricht eine Welt, in der Menschen von intelligenten Schnittstellen umgeben sind, die in Alltagsgegenständen verschmolzen sind. Die Entwicklung von AmI-Systemen ist jedoch komplex und erfordert robuste Technologien, die auf AmI-Anforderungen wie Autonomie, Anpassungsfähigkeit und Kontextbewusstsein reagieren. Eine der am weitesten verbreiteten Alternativen ist das Multi Agent System (MAS), das die meisten geeigneten Eigenschaften mitbringen kann. Der Erfolg von AmI-basierten MAS hängt jedoch davon ab, wie sicher es gemacht werden kann. Dieses Papier stellt einen Ansatz für AmI-basierte MAS-Sicherheit vor, bei dem jeder Agent ein Objekt oder einen Benutzer repräsentiert. Die Menge der Agenten wird als Gruppe bezeichnet, und jeder hat einen bestimmten Agenten, der als Repräsentant bezeichnet wird. Die Schlüsselidee basiert auf Verschlüsselungsschlüsseln und Garantie. Mitglieder derselben Gruppe teilen sich einen gemeinsamen öffentlichen Schlüssel (CPK), und um mit dem Vertreter zu kommunizieren, teilen sie sich einen Kommunikationsschlüssel (Ck). Wenn ein neuer Agent mit der Gruppe kommunizieren möchte, muss dies außerdem mindestens einem Agenten dieser Gruppe bekannt sein. Dieser Agent wird als Garantiegeber bezeichnet. Ziel ist es sicherzustellen, dass sensible Daten und Nachrichten, die zwischen Agenten zirkulieren, privat bleiben und nur vertrauenswürdige Agenten darauf zugreifen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28765-7_34 c424def9cf6d81d3aabbfdc5dff17874;de;;;5.3.;;;Menschliches Gestenerkennungssystem für das Fernsehen mit Time-of-Flight-Kamera Wir haben eine neue gerätelose Benutzeroberfläche für das Fernsehen entwickelt, die eine menschliche Gestenerkennungstechnik verwendet. Obwohl über viele Bewegungserkennungstechnologien berichtet wurde, wurde keine Mensch-Maschine-Schnittstelle entwickelt, die eine ausreichend große Anzahl von Gesten erkennt. Die Schwierigkeit war das Fehlen räumlicher Informationen, die aus normalen Videosequenzen gewonnen werden konnten. Wir haben die Schwierigkeit durch den Einsatz einer Time-of-Flight-Kamera und neuartiger Aktionserkennungstechniken überwunden. Die Hauptfunktionen dieses Systems sind Gestenerkennung und Haltungsmessung. Ersteres wird unter Verwendung des Bag-of-Features-Ansatzes durchgeführt, der Schlüsselpunkt-Trajektorien als Features verwendet. Die Verwendung von raumzeitlichen 4D-Trajektorienmerkmalen ist der wichtigste technische Beitrag des vorgeschlagenen Systems. Letzteres wird durch Gesichtserkennung und Objektverfolgungstechnologie erreicht. Die Schnittstelle ist nützlich, da sie keine kontaktbehafteten Geräte erfordert. Mehrere Experimente bewiesen die Wirksamkeit unseres vorgeschlagenen Verfahrens und die Nützlichkeit des Systems.;-;-;-;https://link.springer.com/article/10.1007/s11042-011-0870-6 ba3ae7209ff69d461aa6e4a16724170a;de;;;5.3.;;;Einschränkungen des optischen Flusses bei verformbaren Modellen mit Anwendungen zur Gesichtsverfolgung Der optische Fluss schränkt die Bewegung eines verformbaren Modells ein. Wir leiten ein dynamisches System ab, das Strömung als harte Randbedingung enthält, und lösen es, um eine modellbasierte Lösung für den optischen Fluss der kleinsten Quadrate zu erzeugen. Unsere Lösung stellt auch sicher, dass die Einschränkung erfüllt bleibt, wenn sie mit Kanteninformationen kombiniert wird, was hilft, die Anhäufung von Tracking-Fehlern zu bekämpfen. Die Beschränkungsdurchsetzung kann unter Verwendung eines Kalman-Filters gelockert werden, der kontrollierte Beschränkungsverletzungen basierend auf dem in den optischen Flussinformationen vorhandenen Rauschen ermöglicht und eine robustere und effizientere Kombination von optischem Fluss und Kanteninformationen ermöglicht. Wir wenden dieses Framework auf die Schätzung von Gesichtsform und -bewegung unter Verwendung eines verformbaren 3D-Gesichtsmodells an. Dieses Modell verwendet eine kleine Anzahl von Parametern, um eine große Vielfalt an Gesichtsformen und Mimik zu beschreiben. Wir präsentieren Experimente zur Extraktion der Form und Bewegung eines Gesichts aus Bildsequenzen, die die Genauigkeit der Methode validieren. Sie zeigen auch, dass unsere Behandlung des optischen Flusses als harte Einschränkung sowie die Verwendung eines Kalman-Filters, um diese Einschränkungen mit der Unsicherheit im optischen Fluss in Einklang zu bringen, für die Verbesserung der Leistung unseres Systems von entscheidender Bedeutung sind.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008122917811 34c7e4e1a1838975130587ae004660c7;de;;;5.3.;;;Ein Sprachdialog-Editor basierend auf einem Finite-State-Transducer mit zusammengesetztem Zustand für Tablet-Geräte In letzter Zeit haben sich mobile Sprachdialogsysteme zunehmend verbreitet. Wir haben MMDAgent entwickelt, ein Toolkit zum Aufbau von Sprachinteraktionssystemen. Benutzer können MMDAgent nach ihren Wünschen anpassen, indem sie Finite State Transducer (FST)-Skripte schreiben. Wir haben jedoch festgestellt, dass es für Anfänger schwierig ist, FST-Skripte manuell zu bearbeiten, da die Anzahl der Zustände größer wird, um einen natürlichen Dialog zu beschreiben. Um diese Probleme zu lösen, schlagen wir in diesem Papier ein Verfahren zum Editieren von Sprachinteraktionsinhalten unter Verwendung des zusammengesetzten Zustands vor. Die Ergebnisse der durchgeführten Experimente zeigen, dass dieses Ziel erreicht wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23467-0_9 78455ecf6cae43e8816461a5aab9e841;de;;;5.3.;;;Schätzung der Körperhaltung des menschlichen Körpers aus Standbildern und Videoframes Dieses Papier präsentiert einen markerlosen Ansatz zur Schätzung der Körperhaltung des menschlichen Körpers. Es verwendet Skelette, die aus binären 2D-Silhouetten von Videos extrahiert wurden, und verwendet eine Klassifizierungsmethode, um die resultierenden Skelette in fünf Regionen zu unterteilen, nämlich die Wirbelsäule und vier Gliedmaßen. Die Klassifizierungsmethode identifiziert auch den Hals, den Kopf und die Schultern. Nach dem Schwerpunktprinzip wird ein Modell an die Karosserieteile angepasst. Die Wirbelsäule ist mit einem 2 . modelliert;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13772-3_19 c96765a393521cf677131b4fc843170c;de;;;5.3.;;;Subjektive Interpretation komplexer Daten: Anforderungen zur Unterstützung des Kansei-Bergbauprozesses Die heutige Technologie ermöglicht den einfachen Zugriff auf riesige Mengen komplexer Daten. Folglich werden Techniken benötigt, um auf die Semantik solcher Daten zuzugreifen und den Benutzer bei der Auswahl relevanter Informationen zu unterstützen. Obwohl Metasprachen wie XML vorgeschlagen wurden, eignen sie sich nicht für komplexe Daten wie Bilder, Videos, Töne oder andere nonverbale Kommunikationskanäle, da diese Daten eine sehr subjektive Semantik haben, dh deren Interpretation im Laufe der Zeit variiert und zwischen den Fächern. Der Zugang zu subjektiver Semantik wird jedoch mit der signifikanten Zunahme interaktiver Systeme wie webbasierter Systeme oder sozial interaktiver Roboter immer wichtiger. In dieser Arbeit versuchen wir, die Voraussetzungen für den Zugang zur subjektiven Semantik komplexer Daten zu identifizieren. Wir konzentrieren uns insbesondere darauf, wie die Analyse jener Dimensionen unterstützt werden kann, die zu multiplen subjektiven Interpretationen der Daten führen. Als Unterstützung für den damit verbundenen Mining-Prozess schlagen wir ein Data Warehouse vor. Ein einzigartiges Merkmal des Data Warehouse liegt in seiner Fähigkeit, mehrere hierarchische Beschreibungen der Multimediadaten zu speichern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39666-6_1 673a39b7726ad03a6256e89ea4873693;de;;;5.3.;;;Messung der Augen- und Kopfposition in der neurologischen Praxis Die Grundlage dieser Arbeit ist eine Analyse und Konstruktion von Spezialbrillen unter Verwendung der grundlegenden verfügbaren Teile und Herstellung mit dem Ziel, eine experimentelle Maschinerie mit der Möglichkeit der Augenbewegungsforschung zu schaffen. Ziel dieser Arbeit war es, einen „Entwurf und Bau von Spezialbrillen für die neurologische Untersuchung“ zu beschreiben. Die Motivation für diese Arbeit besteht darin, ein System zu implementieren, das primäre 2D- und 3D-HMD-Projektionsdisplays (Head-Mounted Display) zur Augenstimulation verwendet. Das Ergebnis ist eine Reihe von experimentellen Modellen, die Spezialbrillen beschreiben, die verwendet werden, um die vorgeschlagene Lösung der Augenbewegung zu überprüfen und die dynamische Position des Kopfes im 3D-Raum zu messen. Ein modifizierter Starburst-Algorithmus für die Pupille des Erkennungszentrums und eine kalibrierte Szene für wiederholte Messungen wurden verwendet, um Augenbewegungen zu erkennen. Die erstellten speziellen Projektionsdisplays für neurologische Untersuchungen können Messungen unter verschiedenen Lichtbedingungen (Methode basierend auf Infrarot- und sichtbarem Lichtspektrum) und Stimulation mit Messung der dynamischen Position des Kopfes basierend auf programmierter Software durchführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03889-1_16 7c7a73d698c05db2ba26f70d42161ebe;de;;;5.3.;;;Unsicherheitsanalyse und Bewertung ökologischer Risiken für städtische Geogefahren: eine Fallstudie zur Stadt Gaoleshan, Kreis Xianfeng in Bergregionen von Western Hubei, China Die schnelle Urbanisierung wird von intensiven Bauaktivitäten begleitet, die die nationale Landschaftsform grundlegend verändern, die Zerstörung der geologischen Umwelt verschlimmern und verschiedene Erdrutsche katalysieren. Der Kreis Xianfeng liegt in den Bergregionen im Westen von Hubei, China, und ist durch Erdrutsche in der Stadt Gaoleshan, Kreis Xianfeng, stark gefährdet. Ausgehend von dieser Stadt als Objekt fasst dieser Beitrag die Entwicklungsmerkmale von 18 Geogefahren zusammen und führt eine Anfälligkeitsbewertung für Geogefahren nach der Informationsmethode durch. Unter Berücksichtigung der Skalenwahrscheinlichkeit, Zeitwahrscheinlichkeit und Raumwahrscheinlichkeit von Erdrutschen im Untersuchungsgebiet wurde die Gefahrenzonierung unter zwei Bedingungen von Erdrutschvolumen (> 50.000 m;-;-;-;https://link.springer.com/article/10.1007/s12517-021-07422-7 35b51451e81edd208036f4563128e316;de;;;5.3.;;;Hybride genetische Algorithmen zur Stresserkennung beim Lesen Stress ist ein großes Problem unserer heutigen Welt und beeinflusst den Alltag und motiviert, ein objektives Verständnis von Stress während typischer Aktivitäten zu entwickeln. Physiologische und körperliche Reaktionssignale, die Stresssymptome anzeigen, können verwendet werden, um Hunderte von Funktionen bereitzustellen. Dabei tritt das Problem auf, geeignete Merkmale für die Belastungserkennung aus einem Satz von Merkmalen auszuwählen, die irrelevante, redundante oder beschädigte Merkmale umfassen können. Darüber hinaus besteht auch ein Problem bei der Auswahl eines geeigneten rechnerischen Klassifizierungsmodells mit optimalen Parametern, um allgemeine Spannungsmuster zu erfassen. Das Ziel dieser Arbeit ist es, zu bestimmen, ob Stress aus individuell-unabhängigen computergestützten Klassifikationsmodellen mit einem Optimierungsschema des genetischen Algorithmus (GA) aus sensorbasierten Stressreaktionssignalen, die durch das Lesen von Text induziert werden, erkannt werden kann. Der GA wurde verwendet, um Stressmerkmale auszuwählen, einen Klassifikatortyp auszuwählen und die Parameter des Klassifikators für die Stresserkennung zu optimieren. Als Klassifikationsmodelle wurden künstliche neuronale Netze (ANNs) und Support Vector Machines (SVMs) verwendet. Die Stresserkennungsraten, die von einem ANN und einem SVM ohne GA erhalten wurden, betrugen 68 % bzw. 67 %. Mit einem GA-Hybrid verbesserte sich die Stresserkennungsrate auf 89 %. Die Verbesserung zeigt, dass ein GA in der Lage ist, hervorstechende Stressmerkmale auszuwählen und ein optimales Klassifikationsmodell mit optimierten Parametereinstellungen für die Stresserkennung zu definieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37189-9_11 a7a2f1bb2c3000b90f6e199af0226e35;de;;;5.3.;;;Wissensquellen und Impulse für die Designwissenschaft Design Science hat viele sachdienliche Beziehungen zu anderen Wissenschaftszweigen. Sie übernimmt und adaptiert viel Wissen aus anderen Disziplinen. Die Standpunkte zur Lösung der Designproblemregion treten nicht isoliert von anderen wissenschaftlichen Gebieten auf. Design Science ist daher in ihrer Entwicklung nicht autonom, sie und die anderen Wissenschaften beeinflussen sich gegenseitig. Wir werden einige wichtige Wissensgebiete auswählen und deren Einflüsse erwähnen. Literaturhinweise sind im Literaturverzeichnis zu finden, viele der Bezugsnummern werden in anderen Abschnitten dieses Buches zitiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-3091-8_6 89bceb86ee0a5bc375aea8cf5104495e;de;;;5.3.;;;Automatische Street-Graph-Konstruktion in Kartenskizzen In diesem Beitrag stellen wir einen Algorithmus zur automatischen Erstellung von Straßendiagrammen von handgezeichneten Kartenskizzen vor. Diese Erkennung ist wichtig für einen nachfolgenden Graph-Matching, um die Kartenskizze an einer anderen Karte auszurichten. Unser Algorithmus erkennt eine Reihe von Straßenkandidaten und wählt Straßenlinien aus, indem er die Kandidaten und ihre Nachbarn im Straßenkandidatengraphen bewertet. Um diesen Ansatz zu evaluieren, haben wir für einige Karten manuell eine Ground Truth generiert und eine vorläufige quantitative Leistungsstudie durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20844-7_28 7b310096d76a5feacef5ad3d47219cce;de;;;5.3.;;;Visualisierung in der räumlichen Modellierung Dieses Kapitel befasst sich mit Fragen, die sich aus einem zentralen Thema der modernen Computermodellierung ergeben – der Visualisierung. Wir verbinden die Visualisierung zunächst mit Modellierungsvarianten entlang des Kontinuums von ikonisch bis symbolisch und konzentrieren uns dann auf die Vorstellung, dass unsere Modelle von Natur aus so komplex sind, dass es viele verschiedene Arten von Visualisierungen gibt, die in ihrem Verständnis und ihrer Implementierung entwickelt werden könnten. Dies konzentriert die Debatte auf die Art und Weise, wie man „Wissenschaft betreiben“ kann, indem Muster und Prozesse jeglicher Komplexität durch die Visualisierung der Daten, der Simulationen und der Ergebnisse, die solche Modelle generieren, besser verstanden werden können. Mit zunehmender Sensibilität für das Problem der Komplexität in allen Systemen ist uns auch bewusst, dass die Doppelziele Sparsamkeit und Überprüfbarkeit, die seit der „Aufklärung“ die wissenschaftliche Theorie dominieren, auf dem Spiel stehen: Gute Theorien und Modelle müssen „richtig aussehen“. ' ungeachtet dessen, was unsere Statistiken und kausalen Logiken uns sagen. Visualisierung ist der Vorreiter dieser neuen Denkweise über Wissenschaft, aber ihre Stile variieren stark je nach Kontext. Hier definieren wir drei Varianten: Visualisierung komplizierter Systeme, um die Dinge einfach oder zumindest erklärbar zu machen, was die Rolle der Pädagogik ist, Visualisierung, um unerwartete Ergebnisse zu erforschen und Prozesse zu verfeinern, die auf unerwartete Weise interagieren, und Visualisierung, um Endbenutzer ohne vorherige Verständnis der Wissenschaft, aber ein tiefes Verständnis des Problems, um Modelle für Vorhersage, Verordnung und Kontrolle zu verwenden Wir illustrieren diese Themen mit einem Modell eines Agrarmarktes, das der modernen Stadtökonomie zugrunde liegt – dem von Thünen-Modell der Bodenrente und -dichte, einem Modell der Stadtentwicklung, das auf interagierenden räumlichen und zeitlichen Prozessen der Landentwicklung basiert – die;-;-;-;https://link.springer.com/chapter/10.1007/3-540-29710-3_4 7db782174e985606abbc2d23bf2dd569;de;;;5.3.;;;Verbessertes Alert-Korrelations-Framework für heterogene Protokolle Die Verwaltung von Einbruchalarmen, insbesondere bei der Erkennung von Malware-Angriffen, wird aufgrund der großen Menge an Warnungen, die von Low-Level-Detektoren erzeugt werden, immer anspruchsvoller. Die Alarmkorrelation kann eine Übersicht über Einbruchalarme auf hoher Ebene bieten, ist jedoch nicht in der Lage, große Alarmmengen zu verarbeiten. Dieses Papier schlägt ein verbessertes Alert Correlation Framework für Sensoren und heterogene Protokolle vor. Es kann die große Menge an Fehlalarmen reduzieren und die Perspektive des Angriffs identifizieren. Dieses Framework konzentriert sich hauptsächlich auf das Alarmkorrelationsmodul, das aus den Modulen Alarm-Thread-Rekonstruktion, Log-Thread-Rekonstruktion, Rekonstruktion von Angriffssitzungen, Alarmzusammenführung und Identifizierung von Angriffsmustern besteht. Es wird unter Verwendung einer Metrik für die Wirksamkeit bewertet, die eine hohe Korrelationsrate, Reduktionsrate, Identifizierungsrate und niedrige Fehlklassifikationsrate zeigt. Inzwischen hat es in der statistischen Validierung ein hochsignifikantes Ergebnis mit p < 0,05. Dieses erweiterte Alert Correlation Framework kann auf Forschungsgebiete in der Alert Korrelation und computerforensischen Untersuchung ausgeweitet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25327-0_10 3449c4c6171a05531ce3b499fcb48cfc;de;;;5.3.;;;Clustering und Klassifikation von Zeitreihen, die Gebärdensprachwörter darstellen Das Papier betrachtet Zeitreihen mit bekannten Klassenlabels, die 101 Wörter der polnischen Gebärdensprache (PSL) repräsentieren, die viele Male vor einer Kamera ausgeführt wurden. Drei Clustering-Algorithmen: K–Means, K–Medioids und Minimum Entropy Clustering (MEC) werden verglichen. Eine vorläufige Partitionierung des Datensatzes wird mit Hilfe einer immunbasierten Optimierung durchgeführt. Einige Zeitreihendarstellungen und verschiedene Clustering-Qualitätsindizes werden berücksichtigt. Es wird gezeigt, dass Clustering in der Lage ist, bestehende natürliche Teilungen aufzudecken. Darüber hinaus bietet es die Möglichkeit, die Probleme der Verarbeitung einer großen Anzahl mehrdimensionaler Daten zu erlernen und potenzielle Probleme zu identifizieren, die bei der automatischen Klassifizierung von vorzeichenbehafteten Ausdrücken auftreten können. Die Ergebnisse von zehnfachen Kreuzvalidierungstests für die Klassifizierung des nächsten Nachbarn werden ebenfalls angegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38610-7_21 6ee97f6d00ce30877b8ed28174c0e10b;de;;;5.3.;;;Nichtnegative Matrixfaktorisierung und ihre Anwendungen in der Mustererkennung Die Matrixfaktorisierung ist ein effektives Werkzeug für die groß angelegte Datenverarbeitung und -analyse. Die Methode der nichtnegativen Matrixfaktorisierung (NMF), die die nichtnegative Matrix in zwei nichtnegative Faktormatrizen zerlegt, bietet einen neuen Weg zur Matrixfaktorisierung. NMF ist von Bedeutung für die intelligente Informationsverarbeitung und Mustererkennung. Dieses Papier stellt zunächst die Grundidee der NMF und einige neue relevante Methoden vor. Dann diskutieren wir die Verlustfunktionen und relevanten Algorithmen von NMF im Rahmen von probabilistischen Modellen basierend auf unseren Forschungen und die Beziehung zwischen NMF und der Informationsverarbeitung des Wahrnehmungsprozesses. Schließlich verwenden wir NMF, um einige praktische Fragen der Mustererkennung zu behandeln und einige offene Probleme für NMF aufzuzeigen.;-;-;-;https://link.springer.com/article/10.1007/s11434-005-1109-6 be581bf16f4498407259e9ee514f3b2b;de;;;5.3.;;;Bildsprachen und das GARDEN-System GARDEN ist ein an der Brown University entwickeltes System zum Experimentieren mit groß angelegter grafischer Programmierung. Es wurde entwickelt, um eine Vielzahl grafischer Metaphern in einem konsistenten Rahmen zu unterstützen. Dieses Papier beschreibt die grundlegenden Komponenten des GARDEN-Systems und zeigt, wie sie verschiedene visuelle Sprachen unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-18507-0_12 565e6e87a5fa51c0b9812c53311ee201;de;;;5.3.;;;Video Action Recognition basierend auf Hybrid Convolutional Network Dieses Papier zielt auf das Problem der unausgeglichenen Verteilung von räumlich-zeitlichen Informationen in Videobildern ab und schlägt ein 2D/3D-Hybrid-Faltungsnetzwerk vor, das einen Aufmerksamkeitsmechanismus einführt, der Videorauminformationen und dynamische Bewegungsinformationen vollständig erfasst und Bewegungsmerkmale besser aufdeckt. Mit Hilfe der Dual-Stream-Faltungsnetzstruktur haben wir 2D-Faltung und parallele neuronale 3D-Faltungsnetze aufgebaut. Im 2D Convolutional Neural Network werden die Reststruktur und das LSTM-Netzwerkmodell verwendet, um sich auf die räumlichen Merkmalsinformationen des Videoverhaltens zu konzentrieren. Zweitens wird das durch die Inception-Struktur konstruierte 3D-Faltungsneuralnetzwerk verwendet, um die raumzeitlichen Merkmalsinformationen des Videoverhaltens zu extrahieren. Auf der Grundlage der beiden extrahierten High-Level-Semantiken wird der Aufmerksamkeitsmechanismus eingeführt, um die Merkmale zu verschmelzen. Schließlich wird der erhaltene signifikante Merkmalsvektor für die Videoverhaltenserkennung verwendet. Im Vergleich zu anderen Netzwerkmodellen auf den UCF101- und HMDB51-Datensätzen ist aus den Ergebnissen ersichtlich, dass das vorgeschlagene 2D/3D-Hybrid-Faltungsnetzwerk eine gute Erkennungsleistung und Robustheit aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-57881-7_40 22abb3214bf53522aa049f45642f76c3;de;;;5.3.;;;Forschung zum Vertrauensmanagementmodell in der Cloud-Fertigung Für Sicherheits- und Vertrauensfragen in Cloud-Manufacturing-Systemen werden Vertrauensmanagementprobleme im Vertrauenssystem analysiert. Ein effektives Vertrauensmanagementmodell wurde vorgeschlagen und detailliert vorgestellt. Das Modell berücksichtigt mehrere vertrauensbezogene Faktoren. Das Modell fügt der Berechnung des direkten Vertrauens einen Zeitraum hinzu. Dabei werden die Reputationsinformationen des Knotens, die Dämpfung der Vertrauensempfehlungsübertragung und das Gewicht des Vertrauensniveaus berücksichtigt. Das Modell verbindet gewichtete Dichtheit mit Vertrauen. Diese Methode implementiert die Durchquerung des empfohlenen Knotens. Letztlich entsteht indirektes Vertrauen. Aus den Werten direktes Vertrauen, indirektes Vertrauen und das Gewicht der Gesamtvertrauensbewertung wird ein umfassender Vertrauensgrad abgeleitet. Vertrauenswerte werden gespeichert und aktualisiert. Experimente zeigen, dass die Forschung glaubwürdig und praktisch ist. Das Modell verbessert die Gesamtsicherheitsleistung von Cloud-Fertigungssystemen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00012-7_22 ff37a108f54a5d5e2723dded18a79cac;de;;;5.3.;;;Ein Lastausgleichsalgorithmus für leistungsstarke Internet-of-Things-Ressourcen basierend auf der verbesserten gewichteten Mindestanzahl von Verbindungen Mit der allmählichen Zunahme der Benutzerbesuche im leistungsstarken Internet der Dinge treten häufig Lastungleichgewichte auf, die die Effizienz des Serverbetriebs beeinträchtigen. Dieser Artikel ist eine Verbesserung basierend auf dem Algorithmus der gewichteten Mindestanzahl von Verbindungen. Es legt Gewichtungen für eine Gruppe von Servern fest und schlägt zwei Referenzwerte vor: Bereich und Varianz, und legt entsprechende Schwellenwerte fest. Für die folgenden Vorgänge werden nur die Server verwendet, die den Schwellenwert überschreiten. Alle Daten verwenden Re-Hashing, um Konflikte zu behandeln, und dieser Vorgang wird wiederholt, bis ein inaktiver Server gefunden wird, der die Daten verarbeitet. Die Simulationsergebnisse zeigen, dass der verbesserte Algorithmus die Aufgabenanforderungen des Benutzers effektiv ausgleichen, den Lastausgleich des gesamten Systems realisieren kann, eine gute Stabilität aufweist und den erwarteten Effekt erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-78612-0_45 ead7c59746009ec960d9b0ac5a0c4577;de;;;5.3.;;;Auswählen, Optimieren und Verschmelzen von „hervorragenden“ Gabor-Funktionen für die Gesichtsausdruckserkennung Dieses Papier beschreibt einen neuartigen Rahmen für die Gesichtsausdruckerkennung aus Standbildern durch Auswahl, Optimierung und Fusion von „hervorragenden“ Gabor-Feature-Layern, um sechs universelle Gesichtsausdrücke mithilfe des K-Klassifikators für den nächsten Nachbarn zu erkennen. Die Erkennungsvergleiche mit All-Layer-Ansätzen unter Verwendung von JAFFE- und Cohn-Kanade (CK)-Datenbanken bestätigen, dass die Verwendung von „hervorragenden“ Gabor-Feature-Layern mit optimierten Größen eine bessere Erkennungsleistung erzielen und die Rechenzeit drastisch reduzieren kann. Darüber hinaus belegen Vergleiche mit dem Stand der Technik die Wirksamkeit unseres Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10677-4_83 6559ca04d414ce6b9a8200847d2a9afd;de;;;5.3.;;;Planung und Simulation des mobilen Ladens für Elektrofahrzeuge basierend auf dem Ameisenkolonie-Algorithmus Die Popularisierung von Elektrofahrzeugen steht in engem Zusammenhang mit dem Bau von Ladeinfrastruktur. Die festen Ladestationen sind jedoch für ihre begrenzte Anzahl und Verteilung nicht flexibel genug. Um das mobile Laden ergänzend zu fördern, wird in diesem Beitrag eine Planungsmethode des mobilen Ladens für Elektrofahrzeuge vorgeschlagen. Zunächst werden die Straßen als eine Reihe von Knoten mit einer bestimmten Topologie beschrieben. Dann wird die Planung basierend auf dem Ameisenkoloniealgorithmus durchgeführt. Für die gleichzeitigen Ladeanfragen von mehreren Nutzungen wird der optimale Ladepunkt ermittelt und die Wege für Elektrofahrzeuge bereitgestellt. Schließlich wird das mobile Laden am Beispiel der Straßen rund um den Tianfu-Platz in Chengdu simuliert und das Simulationsergebnis auf einer auf Android-Plattform entwickelten Anwendung visualisiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3648-5_209 bbc6c3dfe53d36e0b9dc9e064b872159;de;;;5.3.;;;Sprachliche Beschreibung menschlicher Aktivitäten basierend auf den Beschleunigungsmessern von Mobiltelefonen Die Überwachung der körperlichen Aktivität einer Person wird für viele Anwendungen wie medizinische Hilfe, persönliche Sicherheit usw. verwendet. Wir verwenden die in aktuellen Mobiltelefonen integrierten Beschleunigungsmesser, um die körperlichen Aktivitäten zu identifizieren und periodische Sprachberichte zu erstellen, die relevante Informationen über die durchgeführten Aktivitäten beschreiben , ihre Intensitäten und Trends. Basierend auf der Computational Theory of Perceptions haben wir eine Anwendung entwickelt, die diese linguistischen Beschreibungen generieren kann und eine einfache Demonstration unseres Beitrags auf diesem Gebiet darstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35395-6_47 f2fb9239bf001b1d13f5108ed38967d7;de;;;5.3.;;;Unterstützung der Verhaltensänderung beim kooperativen Fahren Die Zusammenarbeit der Fahrzeuge soll einen reibungslosen Verkehrsfluss schaffen und Stoßwellen und Staus minimieren. Bevor die Technik ausgereift ist, kann kooperatives Fahren durch die Einbindung der Fahrer bereits ermöglicht werden. Dieser Beitrag berichtet über eine Literaturübersicht zu zwei Themen: 1) Kooperation im Verkehr und Motivationen beim Fahren, 2) überzeugende Technologie und Anwendungen von extrinsischem Feedback. Auf Basis der Literaturrecherche schlagen wir Konzepte zur Unterstützung der Verhaltensänderung des Fahrers im Sinne des kooperativen Fahrens vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31479-7_55 344063d489c8c069cdf832349b034205;de;;;5.3.;;;Forschungen zum Einsatz von Robotern in der Bildung Seit Seymour Papert (1993) [1], der als erster Mensch Roboter in der Bildung einsetzte, ist der Einsatz von Robotern zur Unterstützung des Lehrens und Lernens von der Sekundarstufe über das Grundstudium bis hin zum Hochschulstudium in den letzten Jahren zu einem beliebten Forschungsthema geworden [2] [3] [4]. Er schlug einen Ansatz für das Lernen im Klassenzimmer vor, den er „Konstruktionismus“ nennt, im Gegensatz zum traditionellen Stil des „Instruktionismus“. Bei diesem Ansatz können die Schüler aus dem Entwerfen und Zusammenbauen ihrer eigenen Roboter lernen. Da Roboter die Fantasie vieler jüngerer Menschen anregen, haben sie sich als nützliche Hilfsmittel für den Mathematik- und Physikunterricht bewährt [5]. Darüber hinaus ist der Einsatz von Robotern nicht auf traditionelle Ingenieurabteilungen beschränkt, sondern auf eine Vielzahl von kunst- und naturwissenschaftlichen Studiengängen verteilt. Der Einsatz von Robotik durch nicht-technische, nichttechnische Ausbilder wird als „Roboter-Revolution“ bezeichnet [6].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03364-3_57 ede987e2fb24245d05fb4969cee0e7cd;de;;;5.3.;;;Eine Methode zur Gesichtserkennung basierend auf dem Hautfarbenmodell in einer festen Szene In diesem Beitrag wird eine Schnellerkennungsmethode zur Gesichtserkennung in stationären Szenen vorgestellt. Zunächst erhalten wir das Binärbild basierend auf der Hintergrundbildsubtraktion und extrahieren den bewegten Zielbereich mit dem SHEN-Filter. Dann wählen wir das YCbCr-Farbmodell basierend auf dem Hautfarben-Clustering-Modell aus und können eine Farbsegmentierung auf dem Teilbild des sich bewegenden Ziels durchführen. Anschließend verwenden wir eine elliptische Schablone, um die Gesichtsregion zu erkennen und die Gesichtspositionierung zu markieren. Schließlich implementieren wir den Algorithmus mit Matlab7.0 und führen Experimente in unserem Gesichtstest-Set durch. Die experimentellen Daten zeigen die gute Robustheit der vorgeschlagenen Methode zur Gesichtserkennung in den stationären Szenen und ihre starke Anpassungsfähigkeit an Haltung, Ausdruck und Alter. Außerdem zeigen die Ergebnisse, dass diese Methode in Echtzeit durchaus praktikabel ist. Mit einem Wort, die Genauigkeit liegt bei über 84 Prozent.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34289-9_18 49bdbbaae07d65daf4044f000e5d3a3f;de;;;5.3.;;;Eine auf Farbbildern basierende Gesichtserkennungsmethode Um das Problem der Gesichtserkennung zu lösen, wird ein neues Verfahren auf Farbbildbasis vorgeschlagen, das zur Gesichtserkennung in komplexen Szenen verwendet wird. Zunächst wird der raue Gesichtsbereich durch Erstellen des Hautfarbenmodells erfasst. Dann wird der Kandidatenbereich des menschlichen Gesichts zur weiteren Auswahl basierend auf Gesichtsmerkmalen verarbeitet, und die ausgewählten Bereiche wurden mit den Originalgesichtsbildern verschmolzen. Schließlich wurde der Grauprojektionsalgorithmus verwendet, um die Position des menschlichen Auges zu bestimmen, und das Gesicht wurde mit Hilfe der Template-Matching-Methode verifiziert. Das Experiment zeigt, dass das vorgeschlagene Verfahren die Fehlerrate reduzieren, die Betriebszeit verkürzen kann und eine starke Robustheit aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19853-3_31 062557410022306687ec03473bafaae8;de;;;5.3.;;;Der Entwurf und die Implementierung eines Korpus-Kennzeichnungssystems zur Terminologieidentifizierung im Fischereibereich Die Begriffserkennung ist die grundlegende Arbeit im Bereich der natürlichen Fischereibehandlung. Nun muss der Begriff Erkennung durch einen maschinellen Lernalgorithmus realisiert werden, der eine große Anzahl von Korpus erfordert, um das Modell des Algorithmus zu trainieren. Gegenwärtig erfordert die meisten Korpusetikettierung ein manuelles Etikettierverfahren, und die Qualität und Geschwindigkeit der Korpusetikettierung sind Probleme, die auf diesem Gebiet gelöst werden müssen. Daher ist es dringend erforderlich, eine Plattform zu haben, die bei der Bewertung der Korpuskennzeichnungsqualität hilft, um die Artikelkennzeichnung effizienter und genauer zu gestalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4572-0_200 99a3915fa22baa4ee58439f12f954295;de;;;5.3.;;;Design und Entwicklung eines neuen Ökosystems für die Teeherstellung Mit der schnellen Entwicklung der Wirtschaft verbessert sich Chinas Teeproduktion weiter, aber die Funktion der bestehenden Tee-Ei ist ungleichmäßig und nicht in der Lage, die Verbrauchernachfrage effektiv zu stimulieren. Das intelligente Ökosystem für die Teezubereitung ist über ein WiFi-Netzwerk mit dem Remote-Server verbunden, und Benutzer können ihr Telefon verwenden, um verschiedene Bedienungsanweisungen aus der Ferne zu senden. Im Softwareteil dieses Systems soll ein Video die Teebrühtechnologie demonstrieren und das Teewissen bekannt machen. Benutzer können gemäß diesem Tutorial lernen und arbeiten, was die Erfahrung des Benutzers effektiv verbessert. Das System fördert auch alle Arten von Tee, erweitert die Teeverkaufskanäle und schlägt die Brücke zwischen dem Produktverkauf des Landwirts und der Nachfrage des Verbrauchers.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-44038-1_8 9f6e87d6badd11ae9f1c5e56c83e2876;de;;;5.3.;;;Extraktion von Panikausdrücken aus dem menschlichen Gesicht basierend auf einem Histogrammansatz Panikausdruck ist eines der wichtigsten Merkmale der Gesichtserkennung in der heutigen Zeit und zu einem brennenden Thema geworden. Es ist sehr schwierig, ein Volk zu trennen, unabhängig davon, ob es sich in der normalen Position befindet oder wenn unerwartete Umstände abrupt eingetreten sind. In den letzten 50 Jahren haben verschiedene Forscher menschlich-beobachterbasierte Methoden entwickelt, mit denen Mimik und menschliche Empfindung klassifiziert und korreliert werden können. In diesem Artikel haben wir eine neue Methodik vorgeschlagen, die auf der Histogrammklassifikation zur Extraktion des Panikmoments eines Menschen basiert. Erstens haben wir eine Gesichtsmaske in Betracht gezogen, um die maximalen Informationen aus dem menschlichen Gesicht zu sammeln. Dann haben wir die drei Koordinatenpositionen zum Speichern der Daten als Panik-Info-Maske eingestellt. Schließlich repräsentiert der geometrische Wert der Panik-Info-Maske die Daten des Panikmoments.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31686-9_48 ee7a388fd202cf89be895287f56bf1d3;de;;;5.3.;;;Zielverfolgung basierend auf SAGBA-optimiertem Partikelfilter Im Bereich der Zielverfolgung hat die Partikelfiltertechnologie den Vorteil, dass sie mit nichtlinearen und nicht-Gaußschen Problemen umgeht, aber Standard-Partikelfilter verursachen eine Partikelverarmung, wenn die Resampling-Methode verwendet wird, um das Degradationsphänomen zu lösen, und die Filtergenauigkeit ist instabil. Als Reaktion auf dieses Problem wird der Partikelfilter verbessert, indem ein Fledermausalgorithmus verwendet wird, der eine simulierte Annealing-Gaußsche Störung kombiniert. In dieser Arbeit wird das Fledermaus-Individuum durch Partikel charakterisiert. Die Fledermaus-Gruppe sucht nach der optimalen Fledermaus im Bildbereich durch Anpassung von Frequenz, Lautstärke und Pulsemissionsgrad und kann die gegenseitige Umwandlung zwischen der globalen Suche und der lokalen Suche dynamisch steuern, wodurch die Gesamtqualität der Partikel und die Rationalität verbessert werden der Verteilung. Die Gauss'sche Störungsstrategie des fusionierten simulierten Glühens kann die Fähigkeit des Algorithmus verbessern, aus dem lokalen Optimum heraus zu springen. Um die Optimierungsleistung des vorgeschlagenen Algorithmus zu verifizieren, werden die Leistung dieses Papiers und der Standard-Partikelfilteralgorithmus verglichen. Experimentelle Ergebnisse zeigen, dass die Filterleistung dieses Algorithmus besser ist als die des Standard-Partikelfilteralgorithmus. ...;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9682-4_14 9c9a176fd6dc7d75e39ebf7898b12d8d;de;;;5.3.;;;Handschriftliche Hindi-Zeichenerkennung mit Curvelet Transform In diesem Papier haben wir einen neuen Ansatz für die Hindi-Zeichenerkennung mit digitaler Curvelet-Transformation vorgeschlagen. Die Kurventransformation nähert sich gut den gekrümmten Singularitäten von Bildern an und ist daher sehr nützlich für die Merkmalsextraktion in Zeichenbildern. Ein Devanagari-Skript enthält mehr als 49 Zeichen (13 Vokale und 33 Konsonanten) und alle Zeichen sind reich an Kurveninformationen. Das Eingabebild wird zuerst segmentiert, dann werden Curvelet-Merkmale erhalten, indem Statistiken von dicken und dünnen Bildern durch Anwenden einer Curvelet-Transformation berechnet werden. Das System wird mit dem K-Nearest Neighbor Klassifikator trainiert. Die Experimente werden mit einem hauseigenen Datensatz mit 200 Bildern des Zeichensatzes ausgewertet (jedes Bild enthält alle Hindi-Zeichen). Die erhaltenen Ergebnisse sind mit einer Erkennungsgenauigkeit von über 90% sehr vielversprechend.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19403-0_37 0fbd9f96990b60767d43e62eefe4db02;de;;;5.3.;;;Forschung zur Entwicklung und Anwendung unbemannter Fluggeräte Die neue militärische Revolution in der neuen Ära treibt die Entwicklung von Kampfmitteln und Kampfkräften in eine unbemannte, intelligente und gebündelte Richtung an und bildet allmählich neue Methoden der Kriegsführung und Gewinnmechanismen. Unbemannte Kampfplattformen, die durch unbemannte Luftfahrzeuge (UAV), unbemannte Kampffahrzeuge, unbemannte Oberflächenschiffe und unbemannte Unterwasserfahrzeuge repräsentiert werden, sind allmählich zu neuen Forschungsgebieten geworden, in denen sich verschiedene Militärmächte engagieren. Unter den verschiedenen unbemannten Kampfplattformen erreichen UAVs die schnellste Entwicklung und haben die meisten Einsatzmöglichkeiten. Dieses Papier gibt einen kurzen Überblick über UAVs und ihre Anwendungen und konzentriert sich auf die Vorteile und Probleme von UAV und UAV-Clustern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0187-6_62 d2299bc834ee0cd558e422053a685bbd;de;;;5.3.;;;Design und Forschung einer Multi-User-Informationsplattform-Schnittstelle im ländlichen Raum Entwicklung von Multi-User-Plattformen in ländlichen Gebieten, nicht nur um die Nachfrage in der Funktion zu befriedigen, sondern auch um die Eigenschaften der ländlichen Informationsplattform anzuwenden. In diesem Papier wurde ein multifunktionales System entwickelt, das Landwirten helfen kann, nicht ob es schwierig ist, Funktionen zu erfüllen, sondern ob es für Landwirte gilt. Interface-Design spielt in diesen Fällen eine unschätzbare Rolle. Dieses Papier fasst die Entwicklung praktischer Erfahrungen in Projekten für ländliche Plattformen für Mehrbenutzervorlagen zusammen, die nicht nur die funktionalen Bedürfnisse der Benutzer erfüllten, um das gesamte Design standardisierter zu machen, sondern auch die Entwicklungseffizienz der Plattform zu beschleunigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24091-1_55 6d9863afa60709095c868c0fa36c0694;de;;;5.3.;;;Ein verbessertes Sozialmatrix-Faktorisierungsmodell für Empfehlungen basierend auf sozialen Netzwerken unter Verwendung sozialer Interaktionsfaktoren Empfehlungssysteme gewinnen in letzter Zeit im Zeitalter der schnellen Entwicklung der Internet-Technologie und des Pervasive Computing aufgrund ihrer Fähigkeit, den Benutzern geeignete Entscheidungen zu treffen, an Bedeutung. Die kollaborative Filterung ist eine der erfolgreichsten Empfehlungstechniken, bei der einem aktiven Benutzer Elemente basierend auf früheren Bewertungen gleichgesinnter Benutzer empfohlen werden. Allerdings ist die Bewertungsmatrix für Benutzerartikel, nämlich eine der Eingaben für den Empfehlungsalgorithmus, oft sehr spärlich, sodass kollaboratives Filtern zu einer schlechten Empfehlung führen kann. Um dieses Problem zu lösen, können soziale Netzwerke eingesetzt werden, um die Genauigkeit der Empfehlungen zu verbessern. Einige der sozialen Faktoren wurden im Empfehlungssystem verwendet, aber nicht vollständig berücksichtigt. In diesem Beitrag verschmelzen wir persönliches Kognitionsverhalten, Kognitionsbeziehungen zwischen Benutzern und Zeitzerfallsfaktor für bewertete Items zu einem einheitlichen probabilistischen Faktorisierungsmodell und schlagen einen verbesserten Ansatz zur Faktorisierung der sozialen Matrix für personalisierte Empfehlungen unter Verwendung sozialer Interaktionsfaktoren vor. In dieser Studie integrieren wir die Verbreitungsverbesserung, die Verbesserung der allgemeinen Benutzerbeziehung und die Verbesserung der gemeinsamen Interessen in die sozialen Beziehungen zwischen den Benutzern und schlagen eine neuartige Vertrauensbeziehungsberechnung vor, um die negativen Auswirkungen der spärlichen Datenbewertung zu mildern. Das vorgeschlagene Modell wird mit den bestehenden sozialen Empfehlungsalgorithmen auf realen Datensätzen, einschließlich der Epinions- und Movielens-Datensätze, verglichen. Experimentelle Ergebnisse zeigen, dass unser vorgeschlagener Ansatz eine überlegene Leistung gegenüber den anderen Empfehlungsalgorithmen erzielt.;-;-;-;https://link.springer.com/article/10.1007/s11042-020-08620-3 01a1bdee4d412e6a14672ab27a6a3f0e;de;;;5.3.;;;Gideon – ein künstlicher intelligenter Begleiter Technologie kann im Wesentlichen nicht ohne den Einsatz eines Menschen funktionieren. Die Geschwindigkeit des technologischen Fortschritts nimmt mit der Zeit zu, die Gesellschaft versucht, einfachere Wege zu schaffen und zu entwickeln, um ihr Leben zu verlängern. Das Internet ist eine riesige Informationsquelle, die Millionen von Menschen täglich nutzen und auf die sie angewiesen sind. Künstliche Intelligenz (KI) soll uns das Denken abnehmen, indem wir oft sehr schnell Dinge durchdenken, für die wir nicht genügend Informationen oder Zeit haben, um sie selbst zu verarbeiten. So hilft Gideon bei der Erledigung der täglichen Aufgaben und wirkt wie ein künstlicher Begleiter. Im Vergleich zu anderen Anwendungen verfügt Gideon über eine zusätzliche Gesichtserkennung, die Gesichter in der realen Welt erkennen und versuchen kann, bekannte Gesichter zu erkennen, die wir möglicherweise vergessen haben. Es kann Ihnen zuhören und präzise und schnell eine angemessene Antwort geben.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9690-9_24 ed6fe8a520c9b415ae61116038927838;de;;;5.3.;;;Sehbasierte Gesichtsausdruckserkennung mit Eigenfaces und Multi-SVM-Klassifikator Die Gesichtsausdruckserkennung (FER) hat sich zu einem der beliebtesten Forschungsgebiete im Bereich Computer Vision und biometrischer Authentifizierung entwickelt und hat bei Forschern viel Enthusiasmus gefunden. Das auf Vision basierende Gesichtsausdruckserkennungssystem beabsichtigt, den Gesichtsausdruck eines bestimmten Bildes zu klassifizieren. In diesem Beitrag klassifiziert das vorgeschlagene System automatisch den Gesichtsausdruck. Das System besteht aus Merkmalsextraktion und Ausdrucksklassifikation. Bei der Vorverarbeitung werden Hybridfilter (Median und Gabor) und Histogrammentzerrung verwendet, um Rauschen zu reduzieren und Bilder zu verbessern. Merkmalsextraktion ist das Extrahieren von Merkmalsvektoren aus Gesichtsbildern unter Verwendung des Eigenfaces-Ansatzes, basierend auf der Hauptkomponentenanalyse (PCA). Um den Gesichtsausdruck zu klassifizieren, werden extrahierte Merkmalsvektoren einem Multiclass Support Vector Machine (Multi-SVM)-Klassifikator zugeführt. Die Experimente wurden mit dem Standarddatensatz des japanischen weiblichen Gesichtsausdrucks (JAFFE) durchgeführt und erreichten eine Genauigkeit von 80%. Das vorgeschlagene System zeigte im Vergleich mit anderen Methoden eine zufriedenstellende Leistung und wirkt sich auf die Leistung nach dem Stand der Technik auf den JAFFE-Datensatz aus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63119-2_54 a813ffe5831886e299b104264bdf8a8f;de;;;5.3.;;;Dual Tree Complex Wavelet Transform-basierte Videoobjektverfolgung Dieser Artikel stellt eine neue Methode zur Verfolgung eines Objekts in einer Videosequenz vor, die auf komplexen Dual-Tree-Wavelet-Transformationen basiert. Eine reellwertige Wavelet-Transformation, die hauptsächlich in Verfolgungsanwendungen verwendet wird, leidet unter einem Mangel an Verschiebungsinvarianz und hat eine schlechte Richtungsselektivität. Wir haben bei der Verfolgung eine duale komplexe Wavelet-Transformation verwendet, da sie Unzulänglichkeiten der echten Wavelet-Transformation vermeidet. Bei dem vorgeschlagenen Verfahren wird das Objekt in den nächsten Frames verfolgt, indem die Energie von komplexen Dual-Tree-Wavelet-Koeffizienten entsprechend dem Objektbereich berechnet wird und diese Energie an die des Nachbarschaftsbereichs angepasst wird. Das vorgeschlagene Verfahren ist einfach und erfordert keinen anderen Parameter außer komplexen Wavelet-Koeffizienten. Experimentelle Ergebnisse zeigen die Leistungsfähigkeit des vorgeschlagenen Verfahrens.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15766-0_40 d10c0ed8ff1e7d006e61d18a4ab1b362;de;;;5.3.;;;Kaufen Sie prädiktives Design mit Skelettmodell und Kaufprotokoll Die Tiefenkamera hat es dem Skelett und den Gelenken des menschlichen Körpers ermöglicht, Skelettdaten im 3D-Raum zu verwenden. Die Verhaltenserkennung anhand von Skelettdaten basiert hauptsächlich auf künstlichen neuronalen Netzen wie RNN. Diese Studie klassifiziert das vom Verbraucher beobachtete Verhalten in vier Kategorien unter Verwendung von Skelettmodelllernen für kaufprädiktive Gestaltung. Beim Skelettmodelllernen werden 25 Skelettgelenke mit mehreren Kinect v2 in unbeaufsichtigten Geschäften gesammelt, in denen vier Regale mit Artikeln gekauft werden können. Torso, linker Arm, rechter Arm, linkes Bein und rechtes Bein an fünf Körpergelenken werden von BRNN ausgeführt, und wenn die Schicht tiefer wird, wird jeder Teil dann mit dem Körper verbunden. Schließlich werden die 25 Gelenke gruppiert und BRNN-LSTM wird durchgeführt, um das verschwindende Gradientenproblem zu lösen (Jun et al. in J Korea Multimedia Soc 21:369–381, 2018, [1]). Das überwachte Lernen umfasst vier Verhaltensweisen, die als Eingabe verwendet werden, und der Status der Kaufdaten als Ausgabe. Eine GRU wird verwendet, um die Rechenkomplexität zu reduzieren, während die Vorteile von LSTM erhalten bleiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9343-7_5 8700ff343c6d4f011fc5b02f62813252;de;;;5.3.;;;Forschung an einer Art nuklearer und chemischer Aufklärungsroboter Der nukleare und chemische Aufklärungsroboter, eine Art Fernroboter, kann verschiedene Funktionen wie die Detektion von radioaktiver Strahlung, die Detektion von giftigen Gasen, die Probenahme von Feststoffen usw. Dieses Papier analysiert die funktionalen Anforderungen des Roboters und stellt die wichtigsten technischen Indikatoren für das Robotersystem vor. Ein kleiner nuklearer und chemischer Aufklärungsroboter wird entsprechend den Anforderungen hergestellt und der Gesamtaufbau und das Steuerungsdesign des Roboters beschrieben. Das Experiment zeigt, dass das gesamte System des Roboters zuverlässig ist, um die Konstruktionsanforderungen zu erfüllen und Aufklärungs- und Erkennungsaufgaben unter gefährlichen Bedingungen anstelle des manuellen Betriebs durchführen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21402-8_27 09b605c927d55ea53ba648cac9271fd7;de;;;5.3.;;;Präzise Blickverfolgung von einer einzelnen Kamera mit Gabor-Eckendetektor Die meisten der existierenden Blickverfolgungsschemata mit hoher Genauigkeit und hoher Geschwindigkeit hängen von Infrarot-(IR)-Lichtern und Multikameras ab, was zu einer hohen Komplexität der Vorrichtung und hohen Kosten führt. Außerdem bieten viele vorgeschlagene Ansätze kaum eine vollständige Diskussion und Lösung des Augenblinzelns. In diesem Beitrag schlagen wir ein neuartiges Blickverfolgungsschema vor, das Augenbewegungen mit hoher Genauigkeit verfolgen kann. Unser Schema beinhaltet die unter Verwendung eines neuartigen Augenwinkeldetektors extrahierten Augenwinkelinformationen. Dieser Detektor wurde basierend auf der Gabor Wavelet Transform und dem Structure Tensor entwickelt. Gabor Wavelet Transform zerlegt ein Bild in mehrere Skalen und mehrere Ausrichtungen und ist somit robust gegenüber Beleuchtungsschwankungen und winzigen Verschiebungen. Wir abstrahieren die Verteilungsstatistiken der Merkmalspunkte in der Augenregion und drücken sie als Konnektivitätsgraphen neu aus. Basierend auf dieser Abstraktion schlagen wir eine neuartige Lösung für das Problem des Augenblinzelns vor, die eine hohe Erfolgsrate bei der Erkennung erzielt. Nach der Implementierung hat sich unser Schema im Vergleich zum Stand der Technik als genau erwiesen. Bemerkenswert ist, dass in unserem Schema nur eine Webkamera ohne zusätzliche Lichtquelle oder Kameras verwendet wird.;-;-;-;https://link.springer.com/article/10.1007/s11042-014-2288-4 6db5ca4aecff3169fde173e6c5f1611f;de;;;5.3.;;;CANoe-basierte Modellierung und Simulation für das CAN-Bus-Netzwerk von schweren Lkw Die Modellierung für das CAN-Bus-Netzwerk von schweren LKWs mit CANoe wird bereitgestellt und basierend auf der Modellierung werden Softwaresimulation, semi-physikalische Simulation und systemintegrierter Test realisiert. Der Leistungsindex des Systems und die statistischen Informationen der Buslastparameter werden durch die Simulation mit verschiedenen Stufen erhalten. Die Validität und Machbarkeit des CAN-Bus-Netzwerkdesigns wird überprüft, die Entwicklungszeit wird verkürzt, die Entwicklungskosten gesenkt und die Arbeitseffizienz verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34387-2_13 c2505662bd1b3dec95d9ed3c617977c1;de;;;5.3.;;;Sprachsignalklassifizierung basierend auf Convolutional Neural Networks Auf dem Gebiet der intelligenten Mensch-Computer-Interaktion ist das Sprachsignal das Hotspot-Forschungsfeld und wird weit verbreitet verwendet. Für den traditionellen Klassifikationsalgorithmus ist die Rechenkomplexität hoch und die Klassifikationsgenauigkeit gering. In diesem Artikel wird ein konvolutionelles neuronales Netzwerk vorgeschlagen, das auf einem konvolutionellen neuronalen Netzwerk basiert. Das Sprachsignalklassifizierungsverfahren wandelt das Sprachsignal in eine Form eines Spektrogramms um und gibt es in ein neuronales Faltungsnetzwerk ein, um eine Klassifizierung des Sprachsignals zu realisieren. Schließlich werden das Training und das Testen von Convolutional Neural Networks unter Verwendung des Frameworks von Tensorflow vervollständigt. Verglichen mit dem traditionellen Klassifikationsalgorithmus erreicht die Genauigkeit des in dieser Arbeit vorgeschlagenen Klassifikationsalgorithmus etwa 98%. Die Ergebnisse zeigen die Machbarkeit und Wirksamkeit der experimentellen Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-7986-4_25 10f8943a9145b0b9bc80bfb2722d7514;de;;;5.3.;;;Erkennung des Gesichtsausdrucks basierend auf einem verstärkten tiefen Glaubensnetzwerk mit Informationen zu Augenbewegungen Die Gesichtsausdruckserkennung ist eine wichtige Anwendung in der Computer Vision. Im Allgemeinen basieren Merkmale, die für die Gesichtsausdruckerkennung verwendet werden, meistens auf geometrischen und Aussehensmerkmalen von Bildern. Dieses Papier stellt eine neuartige Methode zur Identifizierung von Gesichtsausdrücken vor, bei der Augenbewegungen-Datenlabels als Hilfslabels zum Konstruieren von Klassifikatoren untersucht werden, ein Strengthened Deep Belief Network (SDBN) in einem United-Cycle-Framework wird konstruiert. Dieser Rahmen wird als starker Klassifikator durch mehrfach gewählte schwache Klassifikatoren gebildet. Experimente an der Cohn-Kanade-Datenbank zeigten, dass die vorgeschlagene Methode eine bessere Verbesserung der Aufgabe der Gesichtsausdruckserkennung erreichte.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0187-6_77 7d49c776f12c0c9d037f0242b768ee05;de;;;5.3.;;;ThespisDIIP: Invariante Erhaltung der verteilten Integrität Thespis ist eine verteilte Datenbank-Middleware, die das Actor-Modell nutzt, um kausale Konsistenz über ein Industriestandard-DBMS zu implementieren und gleichzeitig Komplexität für Anwendungsentwickler hinter einer offenen REST-Protokollschnittstelle abstrahiert. ThespisDIIP ist eine Erweiterung, die das Konzept der Integritätsinvarianzerhaltung für die Klasse von Problemen behandelt, bei denen Wertänderungen gemäß einer Einschränkung der linearen arithmetischen Ungleichung erfüllt werden müssen. Ein Beispiel für diese Einschränkung ist ein System, das eine Einschränkung erzwingt, dass eine Transaktion nur akzeptiert wird, wenn ausreichende Mittel auf einem Bankkonto vorhanden sind. Unsere Bewertung berücksichtigt Korrektheits-, Leistungs- und Skalierbarkeitsaspekte von ThespisDIIP. Wir führen auch empirische Experimente mit YCSB durch, um die Wirksamkeit des Ansatzes für eine Vielzahl von Workloads und eine Reihe von Bedingungen zu zeigen, und stellen fest, dass Integritätsinvarianten in einer kausal konsistenten verteilten Datenbank erhalten bleiben und gleichzeitig die Latenz im kritischen Pfad des Benutzers minimiert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99133-7_2 f051df69c7bd8cbf12d589091a03fa97;de;;;5.3.;;;Drahtlose 3-D-Gesten- und Zeichenerkennung Ein 3D-Gestenerkennungssystem kann für eine Vielzahl von Anwendungen verwendet werden, einschließlich einer auf Gesten basierenden Benutzerschnittstelle, einem Zeichenerkennungssystem, drahtlosen Human-Interface-Geräten und virtueller Realität in 3D-Spielen. Die Mensch-Maschine-Interaktion hat den Punkt erreicht, an dem Maschinen in der Lage sind, menschliche Gesten zu unterbrechen. Die Gesten werden durch Handbewegungen und Mimik ausgeführt. Eine Geste wird durch die Hand- und Körperbewegung erkannt und unterbrochen. Die Daten werden drahtlos an die Empfangsstation übertragen, wo sie zur Verarbeitung verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20499-9_17 23d1323f9f84e3f8befbe179f4cf8011;de;;;5.3.;;;Ein automatischer Algorithmus zum Extrahieren der Ω Phasen in den Al Alloy TEM-Digitalbildern Ein automatischer Extraktions- und Erkennungsalgorithmus zur Verarbeitung des Teils der zweiten Phase in einem TEM-Bild einer Al-Legierung wurde vorgeschlagen und implementiert. Im vorgeschlagenen Algorithmus wurden mehrere Bildverarbeitungstechnologien verwendet, wie beispielsweise die Top-Hat-Transformation der mathematischen Morphologie. Die Testergebnisse haben gezeigt, dass der vorgeschlagene Algorithmus erfüllt ist, der die Schwächen der aktuellen Methoden wie hohe Arbeitsintensität, Zeitaufwand und geringere Genauigkeit überwinden könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54924-3_32 a41211d09e98529a1de5818903bfebd6;de;;;5.3.;;;3D-Bewegung und Skelettkonstruktion aus monokularem Video Wir beschreiben die 3D-Bewegungskonstruktion als Rahmen für die Konstruktion einer 3D-Bewegung und eines Skeletts unter Verwendung einer monokularen Videoquelle (2D-Video). Die Prozesse umfassen 3 Hauptphasen, die in der Generierung von Ground-Truth-2D-Annotationen mit OpenPose, der Generierung des Netzes und der 3D-Matrizen der Person in den Bildsequenzen basierend auf 2D-Annotation und Bounding Box und schließlich Verwendung der Matrizen zum Erstellen eines HIK-3D-Skeletts in a eigenständige Maya-Anwendung. Für den Prozess haben wir uns stark auf die 2D-Annotation mit Convolution Neural Network verlassen. Wir demonstrieren unser Ergebnis mit einem Video des traditionellen malaysischen Tanzes namens Zapin.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0058-9_8 8e650ac577f02f4b2dea03e0c8ddd569;de;;;5.3.;;;Immersive Schnittstellen zum Erstellen parametrisierter Bewegungsdatenbanken Wir präsentieren neue Schnittstellenwerkzeuge für die interaktive Bewegungsmodellierung und den Aufbau parametrisierter Bewegungsdatenbanken für virtuelle Agenten. Die Tools bieten verschiedene Formen der visuellen Erkundung der Datenbankabdeckung und bieten eine intuitive Möglichkeit, Bewegungen durch direkte Demonstration zu modellieren und zu verfeinern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33197-8_50 86db97edba52052cdb14e281b747fb4a;de;;;5.3.;;;Erstellen von 3D-Zustandsräumen virtueller Umgebungen mit einem TDS-basierten Algorithmus Wir präsentieren eine Erweiterung der parallelen TDS-Zustandsraumsuche, die den Zustandsraum einer bestimmten Klasse von haptischen virtuellen Umgebungen erstellt. Wir bewerten seine Eigenschaften an einem konkreten Beispiel aus der Computerchemie. Die Skalierbarkeit des Algorithmus wird durch mehrere Anomalien verzerrt, deren Ursachen diskutiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39924-7_70 8e1f5c91881f1a287ee347bb894fe036;de;;;5.3.;;;Personalisierte grafische Benutzeroberfläche basierend auf Java Java bietet verschiedene Tools zur grafischen Benutzeroberfläche, aber seine Funktion ist schwächer als bei anderen Sprachen von Microsoft. Eine einfache und effektive Methode wurde von Java bereitgestellt. Durch Umschreiben des Windows-Formulars und seines Verhaltens kann es eine benutzerdefinierte personalisierte grafische Benutzeroberfläche generieren. Dieses Verfahren kann auf die Entwicklung verschiedener interaktiver Software-Benutzerschnittstellen angewendet werden. In diesem Papier wurden zwei Arten von personalisierten grafischen Benutzeroberflächeneffekten realisiert, um die Anforderungen der meisten personalisierten grafischen Benutzeroberflächen zu erfüllen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22456-0_45 f70c79c20829022d6be0ca205f82d417;de;;;5.3.;;;Ein neuer Algorithmus zur Sprach- und Geschlechtserkennung auf Basis stimmhafter Wortarten In diesem Beitrag wird ein Algorithmus beschrieben, der auf ein Spracherkennungsproblem abzielt. Die Proben wurden von Personen unterschiedlichen Alters von 8 bis 70 Jahren entnommen. Die Aufmerksamkeit der Autoren konzentrierte sich darauf, einen effizienten Sprachdeskriptor für den Spracherkennungsprozess zu finden. Um dieses Ziel zu erreichen, wurden Toeplitz-Matrizen verwendet. Der Erkennungsprozess basiert auf dem k Nearest Neighbors Algorithmus und die Analyse wird nur für stimmhafte Wortarten durchgeführt. Im Ziel der kNN-Optimierung wurden verschiedene Distanzmetriken verglichen. In der Forschung wird der Einfluss der Geschlechtserkennung auf die Endergebnisse bestätigt. Der Algorithmus wurde für Signale getestet, die mit einer Frequenz von 8 kHz abgetastet wurden, um alle notwendigen Informationen in der menschlichen Stimme zu enthalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27245-5_15 78bf3c35f6c1c245f868dc27a580e50b;de;;;5.3.;;;Ein neuartiges interaktives Gerät für die 3D-Anzeige Obwohl sich 3D-Displays heutzutage immer mehr durchsetzen, verfügen nur wenige von ihnen über interaktive Geräte. In diesem Beitrag wird ein neuartiges einfaches interaktives 3D-Eingabegerät namens Touch Box vorgestellt, das nur aus zwei berührungsresistiven Panels besteht. Die meisten der 3D-Pose können durch diese Touchpanels simuliert werden. Um zu zeigen, wie die Touchbox funktioniert, wird eine 3D-Spielanwendung implementiert und eine Reihe von 3D-Manipulationen einschließlich Verschieben, Skalieren, Drehen usw. aufgeführt. Endlich werden weitere zukünftige Arbeiten besprochen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22456-0_78 c5de21db93fb29a4054b6ff8beb7258c;de;;;5.3.;;;Gender-Klassifizierung mit Local Binary Pattern und Particle Swarm Optimization Die Geschlechtsklassifikation ist das Phänomen, bei dem ein Gesichtsbild von einem Computer analysiert und erkannt wird. Die Merkmalsextraktion ist der Schlüsselschritt der Geschlechtsklassifikation. In diesem Beitrag stellen wir eine Methode vor, die das Geschlecht effizient klassifiziert, indem die wichtigsten optimierten Merkmale extrahiert werden. Wir haben Local Binary Pattern (LBP) verwendet, um Gesichtsmerkmale zu extrahieren. Da LBP-Funktionen viele redundante Funktionen enthalten, wurde Particle Swarm Optimization (PSO) angewendet, um optimierte Funktionen zu erhalten. Wir haben eine unterschiedliche Anzahl von Experimenten mit der FERET-Gesichtsdatenbank durchgeführt und eine Genauigkeit von 95,5 % angegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28962-0_8 917a213bc5e6f99292244915ea5da220;de;;;5.3.;;;Eine Studie zur sehbasierten robusten Handhaltungserkennung durch das Erlernen der Ähnlichkeit zwischen Handhaltung und -struktur Dieses Papier schlägt eine robuste Handhaltungserkennungsmethode vor, indem es die Ähnlichkeit zwischen Handhaltung und -struktur lernt, um die Leistung der sehbasierten Handhaltungserkennung zu verbessern. Die Schwierigkeiten bei der sehbasierten Handhaltungserkennung liegen in der Blickrichtungsabhängigkeit und dem Selbstokklusionsproblem aufgrund der hohen Freiheitsgrade der menschlichen Hand. Allgemeine Ansätze zum Umgang mit diesen Problemen umfassen einen Mehrkameraansatz und Verfahren zum Begrenzen des relativen Winkels zwischen Kameras und der Hand des Benutzers. Bei der Verwendung mehrerer Kameras sollten jedoch Fusionstechniken in Betracht gezogen werden, um die endgültige Entscheidung herbeizuführen. Die Begrenzung des Handwinkels des Benutzers schränkt die Freiheit des Benutzers ein. Das vorgeschlagene Verfahren kombiniert Winkelmerkmale und Erscheinungsmerkmale, um Handhaltungen durch eine zweischichtige Datenstruktur zu beschreiben, und beinhaltet das Erlernen der Ähnlichkeit zwischen den beiden Arten von Merkmalen. Die Validität des vorgeschlagenen Verfahrens wird bewertet, indem es mit drei Kameras auf das Handhaltungserkennungssystem angewendet wird.;-;-;-;https://link.springer.com/chapter/10.1007/11881223_68 9455ade2d60d55893c1dcf9f70690d35;de;;;5.3.;;;Design und Implementierung einer hochpräzisen Niedrigtemperatur-Drift-Konstantstromquelle mit numerischer Steuerung Entsprechend dem Prüfbedarf eines bestimmten Gerätetyps wird das aktuelle Auslegungsschema der Konstantstromquelle verglichen und analysiert und das Gesamtschema unter Berücksichtigung von Faktoren wie Kosten und Index bestimmt. Als nächstes wird sie entworfen und Hardware ausgewählt aus Stromversorgungsschaltung, Konstantstromschaltung und Steuerschaltung, und die Hardwareschaltung wird aufgebaut. Der Entwurfsablauf der Systemsoftware wird analysiert. Schließlich wird das System getestet und die Ergebnisse zeigen, dass die Designanforderungen erfüllt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6508-9_62 727fe474e6f215617b0c07d2c1f5bd3f;de;;;5.3.;;;Zur Nutzung von Mixed-Reality-Umgebungen zur Bewertung der Interaktion mit Licht Dieses Positionspapier präsentiert einen Vorschlag zur Bewertung der Interaktion mit Licht in einem Mixed-Reality-Setup. Aktuelle Prozesse zum Entwerfen und Testen neuer Formen der Benutzerinteraktion (UI) zur Steuerung der Beleuchtung sind langwierig und beschränken sich letztendlich darauf, eine kleine Anzahl möglicher Interaktionen tatsächlich zu testen. Neben dem offensichtlichen Vorteil, eine geringe Anzahl potenzieller Interaktionen zu überwinden, liegen die Vorteile einer simulierten Umgebung darin, dass eine solche Umgebung vollständig kontrollierbar und an die Bedürfnisse der Forscher anpassbar ist. Schließlich skizzieren wir mögliche Herausforderungen bei der Verwendung eines Mixed-Reality-Setups zur Bewertung der Interaktion mit Licht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31479-7_9 299a5d4e3c2b33b8fafe5df6f2c4d19e;de;;;5.3.;;;Analyse von abnormalem Verhalten in bestimmten Szenarien basierend auf SSD Da die aktuelle Fehlerbehebung verschiedener anormaler Verhaltensweisen in Überwachungsvideos viel Personal erfordert und nicht rechtzeitig bearbeitet werden kann, schlägt dieses Papier eine Analyse anormaler Verhaltensweisen in einem bestimmten Szenario basierend auf SSD vor, damit die Überwachungskamera die Anomalien erkennen und erkennen kann Verhalten des Objekts in Echtzeit. Der Algorithmus in diesem Papier wird auf die Überwachungsvideoszene der allgemeinen Hotelrezeption angewendet. Das SSD-Backbone-Netzwerk wird verwendet, um das Faltungs-Feature und das durchschnittliche Pool-Feature des Datensatzes zu extrahieren und dann die Multiskalen-Klassifizierung von Feature-Maps bestimmter Feature-Layer und die Regression und schließlich durch den NMS-Verarbeitungsausgabealgorithmus schließlich die Konfidenz des Objekts zu erkennen und Koordinate. Experimente zeigen, dass der Algorithmus unseres vorgeschlagenen Algorithmus fast 90% beträgt und die Verarbeitungsgeschwindigkeit 15 FPS erreicht, was im Wesentlichen der Echtzeiterkennung abnormalen menschlichen Verhaltens in bestimmten Szenen in Überwachungsvideos entspricht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3250-4_184 728afdbe7ca2b1bca6f44248abc543fa;de;;;5.3.;;;7 Kooperatives Wohlfahrtsrobotersystem mit Handgesten-Anweisungen Dieses Papier erklärt das kooperative Arbeitssystem zwischen Manipulatoren und Menschen anhand von Handgestenanweisungen. Das Ziel unseres Systems ist es, dass der Manipulator mit Menschen im gleichen Arbeitsraum nach den Anweisungen von Handgesten arbeiten kann. Unser kooperatives Wohlfahrtsrobotersystem besteht aus dem Manipulator, einem PC und einer trinokularen Stereovision-Hardware. Da das System die Position und Haltung der Hand im dreidimensionalen Arbeitsraum erkennen muss, verwenden wir die trinokulare Stereovision-Hardware. Die dreidimensionalen Positionen von Hand und Objekt werden durch Entfernungsbilder erhalten. Die Geste wird anhand der Länge und Breite der Hand erkannt. Wir schlagen die neue Methode vor, bei der der Handbereich in zwei Blöcke unterteilt wird, um die Handgeste schnell zu erkennen. Durch experimentelle Ergebnisse werden wir die Wirksamkeit unseres Systems zeigen.;-;-;-;https://link.springer.com/chapter/10.1007/10946978_7 6dbd07a2eda71f55925451bbec5a3471;de;;;5.3.;;;Ein neuartiger Echtzeit-Tracking-Algorithmus basierend auf der Schätzung der Kerneldichte Dieser Beitrag stellt einen neuen Ansatz zur Verfolgung von Objekten in Bildsequenzen vor, der die ständigen Änderungen der Größe und Ausrichtung der Objekte präzise verfolgt. Die Kernel-Density-Schätzung (KDE) der Farbverteilung des Objekts wird aus der Objektregion erstellt und verwendet, um eine Wahrscheinlichkeitskarte für jeden eingehenden Frame zu generieren. Die Verfolgung erfolgt durch Lokalisieren von Blobs in den Karten. Im Vergleich zu Farbhistogrammen, die nur empirische Schätzungen der Farbverteilung von Objekten sind, bietet KDE eine viel bessere Beschreibung der Farbe von Objekten als Histogramme und verspricht bessere Wahrscheinlichkeitskarten. Im Gegensatz zu den gängigen Mean-Shift-Video-Tracking-Methoden, die die Größe und Ausrichtung von Objekten anhand vordefinierter Parameter bestimmen, berechnet der vorgeschlagene Algorithmus die Größe und Ausrichtung von Objekten aus Bildmomenten des Suchfensters, anstatt diskrete Parameter zu testen. Experimente zeigen, dass der vorgeschlagene Algorithmus eine viel bessere Tracking-Präzision bei realen Videosequenzen erreicht als histogrammbasierte Mean-Shift-Methoden;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23226-8_92 bd8572c6ebdaa3c59ccd65b891dd7ada;de;;;5.3.;;;Design und Implementierung eines Sprachkonvertierungssystems basierend auf GMM und ANN Die Sprachkonvertierung ist zu einem aktuellen Forschungsschwerpunkt in der Sprachsignalverarbeitung geworden. Der Artikel entwirft und etabliert ein Sprachumwandlungssystem basierend auf einem Gaußschen Mischungsmodell (GMM) und einem künstlichen neuronalen Netz (ANN), nachdem die bestehenden Sprachumwandlungsalgorithmen erforscht wurden. Der Kern besteht darin, jeweils drei Abbildungsregeln zu erhalten, indem die spektrale Hüllkurve und ihr Rest mit GMM und der Tonhöhenkondensstreifen mit dem BP-Netzwerk trainiert werden. Und die Stimme wird gemäß den drei obigen Mapping-Regeln transformiert. Schließlich sind die Algorithmussimulation, die Systemimplementierung und die Algorithmusleistungsbewertung der Sprachumwandlung abgeschlossen. Die theoretische Analyse und die Simulationsergebnisse zeigen, dass der Algorithmus und das System der Sprachumwandlung effektiv sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35286-7_79 0af1805f0b17af191c2066f0cee70281;de;;;5.3.;;;Gesichtsausdruckerkennung mit lokaler Fisher-Diskriminanzanalyse In diesem Beitrag wird eine neue Methode zur Erkennung von Gesichtsausdrücken basierend auf der Local Fisher Discriminant Analysis (LFDA) vorgeschlagen. LFDA wird verwendet, um die niederdimensionalen, diskriminanten eingebetteten Datendarstellungen aus den ursprünglichen hochdimensionalen lokalen Binärmustern (LBP) zu extrahieren. Für die Gesichtsausdruckklassifikation wird der Knearest-Neighbor (KNN)-Klassifikator mit der euklidischen Distanz verwendet. Die experimentellen Ergebnisse der beliebten Gesichtsausdruck-Datenbank JAFFE zeigen, dass die beste Genauigkeit basierend auf LFDA bis zu 85,71 % beträgt und die verwendete Hauptkomponentenanalyse (PCA) und Lineare Diskriminanzanalyse (LDA) übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23321-0_69 d458efea7e8028b1245afe4ff902d71e;de;;;5.3.;;;Optimales intelligentes Überwachungskontrollsystem in der Cyber-Physical Intelligence Dieses Papier untersucht das OISCS-Modell (Optimal Intelligent Supervisory Control System) für den Entwurf von Kontrollsystemen, die bei Vorhandensein von cyber-physischen Elementen mit Datenschutz arbeiten können. Die Entwicklung einer solchen Architektur bietet die Möglichkeit, neue Wege der integrierten Steuerung in Systemen bereitzustellen, in denen große Mengen schneller Berechnungen nicht ohne weiteres verfügbar sind, entweder aufgrund von Beschränkungen der Leistung, der physikalischen Größe oder der Auswahl von Rechenelementen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17610-4_19 aeb50df8d26a9aa106c65b20e685e0e2;de;;;5.3.;;;Identifizierung von Menschen unter mehreren Gangmustern basierend auf FMCW-Radar und tiefen neuronalen Netzen Die Identifizierung des Menschen ist seit langem das entscheidende und schwierige Problem in- und ausländischer Wissenschaftler. Als neuartige Erkennungstechnologie wird der Gangerkennung, die sich als machbar erwiesen hat, immer mehr Aufmerksamkeit geschenkt. In diesem Artikel schlagen die Autoren eine Gangidentifizierungsmethode vor, die auf Mikro-Doppler-Signaturen basiert, die mit 77 GHz frequenzmoduliertem Dauerstrichradar (FMCW) gewonnen werden. Das erhaltene Signal wird durch ein Zeit-Frequenz-(T-F)-Spektrum dargestellt, und dann wird ein tiefes neuronales Netzwerk (DNN) verwendet, um die Spektren für die menschliche Identifizierung zu behandeln. Es wird gezeigt, dass die Methode Menschen unter drei verschiedenen Gangmustern (Gehen, Joggen und Gehen mit Büchern) mit einer Genauigkeit von 95 % für 50 Personen identifizieren kann. Darüber hinaus kann das Verfahren auch Menschen identifizieren, selbst wenn die Person in anderen Gangmustern geht, die nicht im Trainingssatz enthalten sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8411-4_22 3972c0661e5c98b93f8f9736f1dc5ad0;de;;;5.3.;;;Beziehungsmodellierung mit Graph Convolutional Networks für die Erkennung von Facial Action Units Die meisten existierenden AU-Erkennungsarbeiten, die AU-Beziehungen berücksichtigen, beruhen auf probabilistischen grafischen Modellen mit manuell extrahierten Merkmalen. Dieses Papier schlägt ein End-to-End-Deep-Learning-Framework für die Gesichts-AU-Erkennung mit Graph Convolutional Network (GCN) für die AU-Relationsmodellierung vor, das bisher nicht untersucht wurde. Insbesondere werden zuerst AU-bezogene Regionen extrahiert, latente Darstellungen voller AU-Informationen werden durch einen Autocodierer gelernt. Darüber hinaus wird jeder latente Darstellungsvektor als ein Knoten in das GCN eingespeist, der Verbindungsmodus des GCN wird basierend auf den Beziehungen der AUs bestimmt. Schließlich werden die über GCN aktualisierten assemblierten Funktionen für die AU-Erkennung verkettet. Umfangreiche Experimente zu BP4D- und DISFA-Benchmarks zeigen, dass unser Framework die modernsten Methoden zur AU-Erkennung im Gesicht deutlich übertrifft. Der vorgeschlagene Rahmen wird auch durch eine Reihe von Ablationsstudien validiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37734-2_40 1ef94d5f8fb96c0dcc65ee32a31262bd;de;;;5.3.;;;Die Probleme des Halal-Inspektionsprozesses aus der Perspektive der Nachfrage- und Angebotsseite im malaysischen Halal-Zertifizierungssystem Inspektion (HI) ermöglicht dem Auditor, eine physische Bewertung am Inspektionsort durchzuführen, um sicherzustellen, dass diese den entsprechenden Standards und islamischen Richtlinien entspricht. HI wird als Teil mehrerer wichtiger Prozesse in;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1628-9_25 c5ae49ef5305a563635a12b3c75765d4;de;;;5.3.;;;Gebärdenspracherkennung mit multimodalen Funktionen Wir untersuchen das Problem der automatischen Erkennung von Gebärdensprache anhand der von Kinect erfassten RGB-Videos und Skelettkoordinaten, die für die Kommunikation zwischen Gehörlosen- und Hörgesellschaften von großer Bedeutung ist. In diesem Beitrag schlagen wir ein Gebärdenspracherkennungssystem (SLR) mit Daten von zwei Kanälen vor, einschließlich der Gestenvideos der Gebärdenwörter und der gemeinsamen Trajektorien. In unserem Framework extrahieren wir zwei Merkmalsmodalitäten, um die Handformvideos und Handtrajektorien für die Erkennung darzustellen. Die Variation der Gesten wird durch 3D-CNN erhalten und die Aktivierungen von vollständig verbundenen Ebenen werden als Darstellungen dieser Schildervideos verwendet. Bei Trajektorien verwenden wir den Formkontext, um jedes Gelenk zu beschreiben, und kombinieren sie alle in einer Feature-Matrix. Danach wird ein konvolutionelles neuronales Netzwerk angewendet, um eine robuste Darstellung dieser Trajektorien zu erzeugen. Darüber hinaus fusionieren wir diese Merkmale und trainieren einen SVM-Klassifikator zur Erkennung. Wir führen einige Experimente mit einem großen Gebärdensprachdatensatz mit bis zu 500 Wörtern durch und die Ergebnisse zeigen die Wirksamkeit unserer vorgeschlagenen Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48896-7_25 6f6451e2f8ef339b92d62c801e555a74;de;;;5.3.;;;RGB-D-Kamera-basierte Bewegungserkennung und Verfolgung der menschlichen Gliedmaßen in Rückenlage Die Erkennung menschlicher Handlungen ist ein wichtiges Thema und wurde in der Mensch-Computer-Interaktion weit verbreitet. Diese Arbeit zielt auf die menschliche Posenerkennung basierend auf RGB-D-Kameradatenströmen für Patienten in Rückenlage (z. Die Zielposen der menschlichen Extremitäten umfassen die Bewegungen der oberen und unteren Extremitäten. Ein neuartiger Rahmen für die Bewegungserkennung der menschlichen Gliedmaßen in Rückenlage wird untersucht und entwickelt. Die Hauptschritte umfassen die Lokalisierung der menschlichen Region, die Erkennung und Segmentierung von Gliedmaßen, die Markierung der Gliedmaßen und die Verfolgung der Gliedmaßenbewegung. Basierend auf den Verfolgungsinformationen über menschliche Knochen durch die RGB-D-Kamera wird die Erfassung des menschlichen Körperbereichs gemäß den Tiefeninformationen ausgeführt. Darüber hinaus ist dieses System in der Lage, das Problem der Verwechslungen der menschlichen Gliedmaßenetiketten für die linken und rechten Gliedmaßen aufgrund ihrer Okklusionsfälle zu lösen. Unser vorgeschlagener Tracking-Algorithmus erreicht eine genaue Positionierung des menschlichen Körpers und liefert zuverlässige Daten auf mittlerer Ebene für die Verfolgung menschlicher Gliedmaßen. Versuchsergebnisse zeigen, dass vier menschliche Gliedmaßen in Rückenlage erfolgreich lokalisiert werden können. Es ist wertvoll und vielversprechend im Bereich der medizinischen Rehabilitation.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48896-7_70 fd6ffe2e6d040c99e12bd0600dbb7bce;de;;;5.3.;;;Wie fühlt sich diese Nachricht an? Eine Studie der Benutzerperspektiven zum Design von Softwareupdates/Warnmeldungen Softwareaktualisierungsnachrichten werden häufig verwendet, um Benutzer über Softwareaktualisierungen, aktuelle Fehlerkorrekturen und verschiedene Systemschwachstellen zu informieren und um empfohlene Maßnahmen (z. B. Softwareaktualisierungen) vorzuschlagen. Während verschiedene Gestaltungsmerkmale (z. B. Aktualisierungsoptionen, Nachrichtenlayout, Präsentation der Aktualisierungsnachricht) dieser Nachrichten die von Benutzern durchgeführten Aktionen beeinflussen können, kann keine vorherige Studie gefunden werden, die die Meinungen der Benutzer zu verschiedenen Gestaltungsalternativen untersucht hat. Um diese Lücke zu schließen, konzentriert sich dieses Dokument auf die Identifizierung von Designmerkmalen von Softwareupdatenachrichten (z. Zu diesem Zweck haben wir eine Benutzerstudie durchgeführt, bei der Benutzern 13 Software-Update-Meldungen zusammen mit 1 Virus-Warnmeldung angezeigt werden. Wir sammeln Antworten von 155 Benutzern über eine Online-Umfrage. Die Teilnehmer gaben insgesamt 809 positive Kommentare und 866 negative Kommentare zusammen mit einer Rangfolge jedes Bildes in Bezug auf wahrgenommene Bedeutung, Auffälligkeit, Ärger und Verwirrung ab. Da sich viele der Kommentare wiederholen und oft mehrere Themen enthalten, haben wir manuell analysiert und eine induktive Kodierung von unten nach oben durchgeführt, um die zugrunde liegenden Themen zu identifizieren und zu verfeinern. Über mehrere Iterationen wurden positive Kommentare in 52 Kategorien gruppiert, die anschließend unter vier Themen gruppiert wurden. Ebenso wurden negative Kommentare zunächst in 38 Kategorien gruppiert, die anschließend unter vier Themen gruppiert wurden. Basierend auf unserer Analyse präsentieren wir die Liste der Designmerkmale, die positiv oder negativ mit Verwirrung, Ärger, Auffälligkeit und Bedeutung korrelieren.;-;-;-;https://link.springer.com/article/10.1186/s13673-015-0053-y 54e546b96dc7d5f400efa2be108c75ca;de;;;5.3.;;;Entwicklung eines integrierten Ansatzes und automatisierter Werkzeuge zur Bestimmung des emotionalen Zustands eines Menschen unter Verwendung verschiedener Arten von digitalen Kontexten Die Arbeit widmet sich dem grundlegenden wissenschaftlichen Problem der Erstellung von Modellen, Methoden und Werkzeugen zur automatischen Bestimmung des emotionalen Zustands einer Person zur Steigerung der Effizienz der Informationsverarbeitung und Entscheidungsfindung in der Mensch-Computer-Interaktion. Das Thema dieser Arbeit ist relevant für die zukünftige Entwicklung von Mensch-Computer-Schnittstellen sowie Medizin- und Sicherheitssystemen. Die Autoren der Arbeit entwickelten Werkzeuge, um Daten über den emotionalen Zustand einer Person durch die Bewegung ihrer Augen und Gehirnwellen zu sammeln. Es wurde ein Modell zur Klassifizierung von Personen anhand ihrer Augenbewegungen entwickelt. Es wurde ein Experiment durchgeführt, um Gehirnströme zum Zeitpunkt erhöhter Konzentration des Probanden zu messen. Ein neuronales Netz wurde entwickelt, um die Emotionen einer Person anhand ihrer Gehirnwellen zu bestimmen. Die Daten für das Training dieses neuronalen Netzes wurden gesammelt und markiert. Ein experimentelles Modell wurde erstellt, um den Einfluss des Kontexts auf menschliche Emotionen zu bestimmen. Es wurden Hypothesen aufgestellt, um die Aufmerksamkeit des Subjekts an der Bewegung seiner Augen zu erkennen, um die Betrachter und die Bilder selbst zu klassifizieren. Die Methodik zur Gewinnung von Daten zur emotionalen Kohärenz basierend auf den ausgewählten Phasen des Experiments wird betrachtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71119-1_95 58058cf5c454e78e8d137b076f094222;de;;;5.3.;;;Verbesserung der Einschätzung der menschlichen Haltung mit zeitlichen Hinweisen Wir adressieren das herausfordernde Problem der Schätzung der menschlichen Haltung, die als Vorverarbeitungsschritt verwendet werden kann, um genaue und verfeinerte Informationen zur menschlichen Haltung für die Gangerkennung und andere Anwendungen bereitzustellen. In diesem Artikel schlagen wir eine Methode und ein erweitertes Pose-NMS vor, um die Schätzung der menschlichen Pose in den aufeinanderfolgenden Frames basierend auf einer vernünftigen Annahme zu verarbeiten. Die Posen zwischen den benachbarten Frames haben kleine Änderungen. Zuerst führen wir die mehreren geschätzten Posenkandidaten in einem einzigen Frame zusammen, um die repräsentativen Posenkandidaten zu erhalten. Dann propagieren wir den letzten Kandidaten vorwärts und rückwärts, um die Anzahl der zuversichtlichen Kandidaten basierend auf der Bayesschen Theorie zu erhöhen. Wir wenden unsere Methode auf den Buffy Video-Datensatz an und erhalten das Wettbewerbsergebnis nach dem Stand der Technik.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12484-1_40 b8e54925342f700401bbb76f07eab4e5;de;;;5.3.;;;Wahrgenommene Qualität von Cloud-basierten Anwendungen für kollaboratives Schreiben In jüngerer Zeit hat das Internet eine komplette Überarbeitung erfahren und sich zu einer immer verbundenen und geräteunabhängigen Umgebung entwickelt. Unter dem Einfluss neuer technologischer Trends wie Web 2.0, serviceorientierte Architektur (SOA), Software as a Service (SaaS) und Cloud Computing hat sich die Herangehensweise an die Entwicklung von Webanwendungen verändert. Statische Webseiten, die früher für passive Informationsempfänger konzipiert waren, wurden durch dynamische Anwendungen ersetzt, die es den Teilnehmern ermöglichen, aktiv an der Erstellung von Wissensspeichern mitzuwirken. Aufgrund ihrer Eigenschaften haben kollaborative Editoren als Beispiele für SaaS das Potenzial, sowohl für Bildungs- als auch für berufliche Zwecke eingesetzt zu werden. Dieses Kapitel präsentiert die Ergebnisse unserer Forschung zur wahrgenommenen Qualität kollaborativer Redakteure, bei der zwei sich ergänzende Methoden verwendet wurden: die retrospektive Thinking-Aloud-Methode (RTA) und ein Fragebogen. Durch die Analyse der gesammelten Daten wurden Vor- und Nachteile von kollaborativen Editoren ermittelt. Darüber hinaus werden Leitlinien für deren Verbesserung und Weiterentwicklung ähnlicher Anwendungsarten vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-9790-6_46 ba5cb54d96cc72382a15becf0762e5c0;de;;;5.3.;;;Analyse linearer Operatoren (Kompaktfall) In diesem Kapitel beschäftigen wir uns mit der (spektralen) Analyse stetiger linearer Operatoren auf einem komplexen Hilbertraum. Genauer gesagt werden wir uns hauptsächlich mit einer speziellen Klasse stetiger linearer Operatoren befassen, nämlich den kompakten Operatoren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-5773-8_6 1af671b22c28365f5b3f7ce33825472f;de;;;5.3.;;;Glatte Oberflächen Der Grundriss für unser Studium glatter Oberflächen ist ähnlich wie unser Studium glatter Kurven, und wir verwenden das Material über glatte Funktionen, das in Abschnitt 4.2 diskutiert wurde. In beiden Fällen definieren wir über Parametrisierungen, was es heißt, „glatt“ zu sein, definieren Tangenten- und Normalenvektoren und suchen dann nach geometrischen Größen wie der Krümmung. Es gibt jedoch zwei grundlegende technische Unterschiede zwischen Flächen und Kurven: Eine Fläche kann normalerweise nicht über eine einzige Parametrierung dargestellt werden, und es gibt keine Analogie für Flächen zu Einheitsgeschwindigkeits-Parametrierungen. Diese Komplikationen führen in diesem Kapitel zu einigen eher trockenen technischen Diskussionen. Bei Kurven beschränken wir uns in ℝ . auf glatte Oberflächen;-;-;-;https://link.springer.com/chapter/10.1007/978-0-8176-8122-7_5 5f1b8cfcd3bc05f53ea29dd93f4066c3;de;;;5.3.;;;Studie zum Optimierungsdesign für die Mensch-Maschine-Kombination eines selbstfahrenden Flugabwehrfahrzeugs (SODMMCSPAGV) Unter den Bedingungen eines selbstfahrenden Flugabwehrfahrzeugs wirken sich einige ungünstige Faktoren und die unangemessenen Betriebsschnittstellendesigns auf die operative Effizienz des Schützen sowie die Waffenleistung aus. Eine gründliche Analyse der Mensch-Maschine-Kombination der selbstfahrenden Flugabwehrkanone zeigt uns die Bedeutung und Bedeutung der Optimierung der Schnittstelle der aktuellen Konstruktionen. Die Forscher wenden die Methode des Feldtests an, um Temperatur, Feuchtigkeit, Geräusche und Schnittstellen zu untersuchen, um den Betrieb des Schützen zu beeinflussen. Mit dieser Entwicklung wird ein Entwurfsvorschlag zur Optimierung der Mensch-Maschine-Kombination für selbstfahrende Flugabwehrfahrzeuge zur Anwendung gebracht. Der Beitrag kann wichtige richtungsweisende Bedeutung für die Konstruktion und Entwicklung eines selbstfahrenden Flugabwehrfahrzeugs haben. Darüber hinaus hat es auch eine wichtige militärische Bedeutung, das Ausbildungsniveau und die Effektivität von Schützen zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6978-4_112 d77b2da7864a8517d46d4de2a428e80f;de;;;5.3.;;;Studie zu den Einflussfaktoren des Musterdesigns von Kleidungsstücken basierend auf der Quantifizierungstheorie Um systematisch die Hauptfaktoren und den Grad der gestalterischen Gesamtwirkung des Kleidungsstücks am Beispiel des Sommer-T-Shirts zu untersuchen, die gestalterische Gesamtwirkung von Musterfarbe (Helligkeit, Reinheit, Farbton), Größe, Anordnungsdichte , Neigungswinkel und Stofffarbe (Helligkeit, Reinheit, Farbton) wurden mit Hilfe der Eye-Tracking-Technologie und der Quantifizierungstheorie untersucht. Die Ergebnisse zeigen, dass die oben genannten Faktoren den Gesamtdesigneffekt des Kleidungsmusters in unterschiedlichem Maße beeinflussen. Farbton, Größe und Anordnungsdichte des Musters und Stoffbrummen hatten einen großen Einfluss auf die Gesamtwirkung des Kleidungsstückdesigns, Musterhelligkeit und Reinheit haben einen geringen Einfluss auf die Gesamtwirkung des Kleidungsstückdesigns. Diese Schlussfolgerung bietet Modedesignern theoretische Referenzen und Datenunterstützung, um Kleidungsstücke zu entwerfen, die den ästhetischen Bedürfnissen der Verbraucher besser entsprechen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6978-4_56 423cefbccd3a3d612cc0c0a0bcc312d1;de;;;5.3.;;;Wirksamkeitsbewertung von VTS-Maßnahmen bei der Auswahl von Pilotkandidaten Ziel dieser Studie ist es, die Wirksamkeit mehrerer psychologischer Maßnahmen des Wiener Testsystems zu evaluieren. Methode Insgesamt 110 männliche Pilotenkandidaten absolvieren eine psychologische Testbatterie der chinesischen Pilotenauswahl und fünf Maßnahmen des Wiener Testsystems. Die Spearman-Korrelation wurde verwendet, um die Wirksamkeit der Maßnahmen zu bewerten. Ergebnisse: Die Ergebnisse der Spearman-Korrelationsanalyse zeigen, dass die Gesamtpunktzahl der chinesischen Auswahlsysteme signifikant mit sieben Indizes korreliert, die jeweils aus fünf VTS-Subtests ermittelt wurden;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6978-4_110 f74bf1d4fbb19bad3c7d32b17fd61a55;de;;;5.3.;;;Eine Art extreme Lernmaschine basierend auf der Memristor-Aktivierungsfunktion Extreme Learning Machine ist eine neue Art von Algorithmus für ein neuronales Feedforward-Netzwerk mit einer verborgenen Schicht. Im Vergleich zu herkömmlichen Algorithmen vermeidet ELM lange Iterationen und hat die Vorteile einer hohen Geschwindigkeit und kleiner Fehler. Unter ihnen spielt die Aktivierungsfunktion eine wichtige Rolle im System. Während das allgemeine ELM normalerweise die Sigmod-Funktion als Aktivierungsfunktion verwendet, wird in diesem Artikel ein neuartiges ELM vorgeschlagen, das die Memristance-Ladungsfunktion des Memristors als Aktivierungsfunktion verwendet. Experimente zeigen, dass im Vergleich zum ELM und den traditionellen neuronalen Netzwerkalgorithmen die extrem lernende Maschine basierend auf der Memristance-Ladungs-Aktivierungsfunktion die Zeit verkürzen und die Genauigkeit verbessern kann. Mit einem Wort, es hat bessere Klassifikations- und Regressionsleistungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-01520-6_19 0348eebb285d36020bb7e3d01c93f6ed;de;;;5.3.;;;Mensch vs. Maschine: Analyse der Robustheit von werbebasierten Captchas Ein Programm, das sicherstellen kann, ob die Antwort von einem Menschen und nicht von einer Maschine generiert wird, heißt CAPTCHA. Sie sind zu einer allgegenwärtigen Verteidigungsmaßnahme geworden, um Webdienste vor Bot-Programmen zu schützen. Derzeit werden die meisten visuellen CAPTCHAs von Programmen geknackt, wodurch sie komplexer werden, was das Knacken von Mensch und Maschine erschwert. NLPCAPTCHAs, ein Akronym für CAPTCHA zur Verarbeitung natürlicher Sprache, werden eingeführt, um Websitebesitzern durch Werbung sowohl Sicherheit als auch Einnahmen zu bieten. Es sind hochintelligente CAPTCHAs, die für eine Maschine schwer zu verstehen sind, während sie im Vergleich zu herkömmlichen CAPTCHAs eine bessere Benutzererfahrung bieten. In diesem Papier haben wir eine Methode vorgestellt, die in der Lage ist, die Herausforderungen von drei verschiedenen Arten von NLPCAPTCHAs zu analysieren und zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-04960-1_42 0871a1d98b90a2f52da6a54d55bb4863;de;;;5.3.;;;Harmonische Analyse fast periodischer lokal kompakter Gruppen Wir beginnen mit einer Darstellung der grundlegenden Begriffe und Fakten aus der Maßtheorie auf einem lokal kompakten Raum mit Schwerpunkt auf der Untersuchung kompakter und enger Maßmengen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-66706-0_3 fc73a51184cc73ec6475c6ecb90afbb5;de;;;5.3.;;;Injektiv von Neumann Algebras Endlich sind wir beim ersten Highlight des gesamten Buches angelangt. Beide Abschnitte sind dem Beweis der Äquivalenz der Injektivität und der näherungsweise endlichen Dimensionalität einer von Neumann-Algebra gewidmet, Korollar 1.8 und Satz 1.9. Die Implikation: die AFD ⇒ die Injektivität für eine von Neumann-Algebra ist eine einfache Folge der Mittelung über die unitären Gruppen erzeugender endlichdimensionaler Subalgebren. Der schwierige Teil ist also die umgekehrte Implikation: die Injektivität ⇒ die AFD. Dank der Vorbereitung im letzten Kapitel, Kapitel XV, ist der Beweis dieser Implikation für eine richtig unendliche von-Neumann-Algebra;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-10453-8_4 2486ed6b2b02b2c6e60abc37c9b0d1a4;de;;;5.3.;;;Ein sicherer Plan Aktive Netzwerke versprechen eine größere Flexibilität als aktuelle Netzwerke, gefährden jedoch aufgrund ihrer Programmierbarkeit die Sicherheit. In diesem Papier beschreiben wir den Entwurf und die Implementierung einer Sicherheitsarchitektur für das aktive Netzwerk;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-48507-0_28 c8ee3a5aee81a0d0fd235c6d0a13b6ed;de;;;5.3.;;;Die empirische Erforschung der ambulanten Bewertung der emotionalen Erfahrung der gebauten Umgebung durch tragbare interaktive Technologien Ziel der Studie ist es, die Methode der ambulanten Bewertung der urbanen gebauten Umwelt durch eine empirische Studie zu erforschen, die interaktive Kopplungsbeziehung zwischen der gebauten Umwelt und der emotionalen Erfahrung des Menschen herauszufinden, die Verbindung zwischen physiologischen Indizes und der emotionalen Erfahrung herzustellen und damit eine empirische Grundlage für die Anwendung dieser Methode im Bereich der Stadtforschung und -gestaltung. Die virtuelle Szene wurde mit einem Universitätscampus-Umgebungsvideo erstellt und College-Studenten wurden zufällig als Probanden ausgewählt. Mit tragbaren Biosensoren wurden die physiologischen Indikatoren der Probanden in Echtzeit erfasst und die emotionalen Variationen durch die Kombination von mentalen Karten und Interviews erfasst und somit die Campusumgebung bewertet. Das Experiment verifiziert, dass der SC-Wert das Fenster ist, das die Emotionserregung widerspiegelt, und der Variationstrend des SCL und die Summe des LF/HF-Werts spiegeln die individuelle und die gesamte Emotionserfahrung in Stufen wider. Diese Methode könnte eine neue Informationsebene für Designer schaffen, die Beteiligung der Bürger an der Gestaltung des Stadtraums bereichern und dazu beitragen, eine hochwertige städtische Umgebung zu schaffen, die den psychologischen und physiologischen Bedürfnissen der Menschen entspricht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6978-4_92 1dfeb6d83705ad6660fbdebed2a6b7c1;de;;;5.3.;;;Wachstum von amorphen diamantähnlichen Kohlenstoffschichten durch KrF- und ArF-Excimer-Laser PLD: Korrelation mit Plume-Eigenschaften Bornitridfilme, die durch ionenunterstützte gepulste Laserabscheidung erzeugt wurden, wurden durch Infrarotabsorption, Schneckenelektronenspektroskopie und Transmissionselektronenmikroskopie charakterisiert. Elementare Bindung und Kristallinität von BN-Filmen, die in drei Stickstoffionen-Energiebereichen gewachsen sind: hoch (2500 eV), niedrig (700 eV) und ohne Ionen (0 eV) werden untersucht und die Ergebnisse im Rahmen eines Druckspannungsmechanismus interpretiert für cBN-Filmwachstum.;-;-;-;https://link.springer.com/article/10.1557/PROC-388-145 527ae47e63981209c3d22c8f9f1bb80e;de;;;5.3.;;;Vergleich von MODIS-Vegetations-Dauerfeld-basierten Walddichtekarten mit von IRS-LISS III abgeleiteten Karten Die Studie verglich Waldbedeckungskarten, die aus kontinuierlichen Vegetationsfeldern grober Auflösung (MODIS VCF, 500 m Auflösung) erstellt wurden, mit den Karten, die aus Daten mittlerer Auflösung (24 m, IRS LISS-III) abgeleitet wurden. Der Vergleich des VCF, des prozentualen Baumbedeckungsprodukts, für die Jahre 2000 bis 2004 mit LISS III-Walddichteklassenkarten von 2001 und 2003 wurde für zwei Standorte durchgeführt, die hügeliges (Uttarakhand) und hügeliges Gelände (Madhya Pradesh) repräsentieren. Das Aufschneiden von VCF auf die entsprechende Waldkronenbedeckung, d. h. 0–10%, 10–40%, 40–70% und >70%, ergab einen erheblichen Unterschied in den Waldflächenschätzungen im Vergleich zur ursprünglichen LISS III abgeleiteten Kronenbedeckungsfläche. Der entsprechende Wertebereich in VCF für 0–10 % der tatsächlichen Waldbedeckung betrug 0–31 % bzw. 0–25 % an 2 Standorten, und der entsprechende Grenzwert lag bei 1–20 %, wenn der VCF-Bereich in Bezug auf die Hochskalierung unterteilt wurde LISS III bei 500m Auflösung. In ähnlicher Weise wurden auch alle anderen Klassengrenzen durch einen iterativen Prozess gefunden. Diese Grenzwerte waren innerhalb eines Standorts über fünf Jahre hinweg ähnlich. Die räumliche Kappa-Übereinstimmung zwischen diesen beiden Daten zeigte eine höhere Übereinstimmung in der 40-70%-Klasse und auch in der wellenförmigen Position. Beim Vergleich mit derselben Auflösung ergab eine ähnliche Waldflächenbedeckung, die mit einer gewichteten Flächenhochskalierung geschätzt wurde, die beste Übereinstimmung. Die Studie ist nützlich, um die Verwendbarkeit und Grenzen des VCF-Produkts und den Nutzen von räumlichem Kappa zu kennen.;-;-;-;https://link.springer.com/article/10.1007/s12524-009-0050-6 ca07305b2b23c064577b34ff413eb7f4;de;;;5.3.;;;Höhere immersive Tendenz bei männlichen Universitätsstudenten mit übermäßigem Online-Gaming Obwohl Probleme bei der Nutzung von Online-Spielen immer mehr Anlass zur Sorge geben, sind die mit übermäßigem Online-Spielen verbundenen Hochrisikomerkmale noch nicht verstanden. Als Persönlichkeitsmerkmal wurde eine immersive Tendenz vorgeschlagen, sich spielerisch zu verhalten und sich auf kontinuierliche Reize einzulassen. Da die immersive Tendenz durch alltägliche Aktivitäten beurteilt werden kann, kann sie verwendet werden, um eine Risikogruppe für exzessives Online-Spielen zu finden. Wir untersuchten den Unterschied in immersiver Tendenz, problematischem Online-Gaming und problematischer Internetnutzung zwischen 21 männlichen Universitätsstudenten mit übermäßigem Online-Gaming und 21 übereinstimmenden Kontrollen. Eine höhere immersive Tendenz wurde bei Teilnehmern mit exzessivem Online-Gaming beobachtet. Die immersive Tendenz kann die Anfälligkeit einer Person für übermäßiges Online-Spielen widerspiegeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-32270-4_16 96598c2be9dc61bb532fef9b73d40bed;de;;;5.3.;;;Zusätze vieler Arten Resorcin-basierte funktionelle Additive bieten nicht nur eine verbesserte Leistung für alle Arten von organischen Materialien, sondern werden auch in wässrigen Systemen (d. In diesem Kapitel wird die Vielfalt der Anwendungen beleuchtet. Tatsächlich ist es unvermeidlich, dass sich die Kategorien überschneiden. Wo dies geschehen ist, wo Materialien, die hierher passen, in anderen Kategorien erwähnt wurden, wird entsprechend darauf hingewiesen, und der Index kann verwendet werden, um alle zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-0999-2_11 4ff3ecb270343305ba2c0e5eb6143a65;de;;;5.3.;;;Ansamacrolide Ansamacrolide wie Maytansin (1), Rifamycin (2), Macbecin (3) und Streptovalicin (4) und andere haben als ihre Zielmoleküle viel Aufmerksamkeit von organischen Synthesechemikern auf sich gezogen. Die synthetischen Interessen liegen nicht nur in der biologischen Bedeutung von Ansamacroliden, sondern auch in den attraktiven Problemen der Kontrolle der Stereochemie der Ansa-Kette, die in anderen Antibiotika nicht gefunden werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-75617-7_4 35ea9f1b27cd8f91d56dd4fcedddec09;de;;;5.3.;;;Reinigung und Charakterisierung extrazellulärer Poly(3-hydroxybutyrat)-Depolymerasen Fünf extrazelluläre PHB-Depolymerasen von Bakterien, die aus verschiedenen Quellen isoliert wurden, wurden bis zur elektrophoretischen Homogenität gereinigt und mit bekannter extrazellulärer PHB-Depolymerase aus verglichen;-;-;-;https://link.springer.com/article/10.1007/BF02067789 765037c8fc95e53e91d964efd6f79325;de;;;5.3.;;;Interkalationsprozesse in redoxleitenden Polymeren Polymere wurden lange Zeit allgemein mit Isoliermaterialien in Verbindung gebracht, die sich von Metallen durch eine hohe elektrische Leitfähigkeit auszeichnen. Ab den frühen 50er Jahren kann der Bedarf an leicht verarbeitbaren Leitern durch den Einsatz von Kunststoffen, die mit metallischen oder kohlenstoffbasierten Partikeln gefüllt sind, gedeckt werden. Dabei ist die resultierende elektrische Leitfähigkeit dieser sogenannten;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-0890-4_5 281d6d7fd7cc4bfb1b86bb823227ec6d;de;;;5.3.;;;Chemische Zusammensetzung und Auftrieb von Mittelwasserkrebsen als Funktion der Vorkommenstiefe vor Südkalifornien Bei 28 Arten von Mittelwasserkrebsen wurden Wasser-, Asche-, C-, H-, N-, Lipid-, Kohlenhydrat-, Chitin- und Proteingehalte bestimmt. Die Variation dieser Komponenten als Funktion der Vorkommenstiefe, des relativen Auftriebs und der Atemfrequenz dieser Arten wurde untersucht. Vertikale Verteilungsdaten für 10 der Arten basierend auf diskreten Tiefenkriechen werden bereitgestellt. Die relativen Auftriebe von 16 dieser Arten wurden gemessen. Die Kaloriengehalte von 21 Arten wurden berechnet. Lipidgehalt (Prozent Feuchtgewicht) und Kaloriendichte stiegen in mittleren Tiefen an, nahmen jedoch in den größten Tiefen offenbar ab. Es wird vermutet, dass diese Abnahme mit der relativ großen Größe dieser Organismen und den energielimitierenden Bedingungen in der Tiefsee zusammenhängt. Der Proteingehalt (Prozent Feuchtgewicht) nimmt mit zunehmender Vorkommenstiefe ab und steht offenbar in Zusammenhang mit einem wesentlichen Anteil der Abnahme der Atemfrequenz mit zunehmender Vorkommenstiefe dieser Arten. Innerhalb des untersuchten Wertebereichs scheint der relative Auftrieb unabhängig von der Stoffwechselrate zu sein. Es wird daher vermutet, dass die Energie, die zum Halten eines Tieres in der Wassersäule aufgewendet wird, im Vergleich zu seiner Gesamtaktivität im Allgemeinen unbedeutend ist. Darüber hinaus können andere Vorteile des neutralen Auftriebs als die Energieeinsparung wichtigere selektive Faktoren für diese Eigenschaft sein.;-;-;-;https://link.springer.com/article/10.1007/BF00391948 ac5a6deedb157ef0a59094d7d9781f9b;de;;;5.3.;;;Eiskernanalyse in arktischen und antarktischen Regionen Die relative Abgelegenheit der kontinentalen Polarregionen von natürlichen und anthropogenen Quellen verschiedener Chemikalien legt nahe, dass ihre Atmosphäre das derzeit beste Beispiel für die „Hintergrundatmosphäre“ ihrer jeweiligen Hemisphäre darstellt und daher sehr empfindlich gegenüber natürlichen und/oder anthropogenen Änderungen. Aufgrund ihres ausgeprägten jahreszeitlichen Zyklus mit einer langen Polarnacht und ihrer sehr kalten Temperaturen können Polarregionen als eine Art „riesiges Naturlabor“ betrachtet werden, in dem es wahrscheinlich viel einfacher ist als anderswo, die komplexe Chemie wichtiger biogener Kreisläufe zu überprüfen (S, N und C). Darüber hinaus kommt eine einzigartige Spezifität der Polarregionen aus der Ablagerung fester Partikel, die sich auf polaren Eisschilden angesammelt haben, was die Möglichkeit bietet, die Paläoumgebung der Erde auf mehrere hunderttausend Jahre zurückzuverfolgen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-78211-4_14 1086f3cd59122a9bef891fb1f6c4f5ad;de;;;5.3.;;;Anwendung von Differential Display und serieller Analyse der Genexpression im Nervensystem Jeder biologische Prozess sowohl bei Pflanzen- als auch bei Tierarten ist mit Veränderungen der Genexpression verbunden. Im zentralen Nervensystem (ZNS) sind Veränderungen der Genexpression nicht nur ursächlich mit der Entwicklung des ZNS verbunden, sondern auch mit komplexen und noch nicht verstandenen Phänomenen wie Gedächtnisbildung, Lernen und Kognition. Darüber hinaus liegen Veränderungen der Genexpression der Pathogenese vieler akuter und chronischer ZNS-bedingter Erkrankungen wie Ischämie, Epilepsie, Alzheimer und Parkinson zugrunde. Daher sind Erkenntnisse und Charakterisierung von Genexpressionsprofilen und insbesondere der darin auftretenden Veränderungen entscheidend, um zu verstehen, wie das Gehirn auf molekularer Ebene funktioniert und wie Fehlfunktionen zu Krankheiten führen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-58552-4_2 05f2ad252139828749d9cc93918fe52f;de;;;5.3.;;;Vitamine A und Retinene Die Vitamine A und Retinene sind bekanntlich niedere Isoprenologe der monocyclischen Carotinoidpigmente, ihre Moleküle enthalten 20 statt 40 Kohlenstoffatome. Als Besonderheit tragen sie funktionelle Gruppen am Ende der aliphatischen Kette. Die Strukturen der vier wichtigsten zu diskutierenden Verbindungen erscheinen in den Formeln (LI)–(LIV.);-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-5548-6_12 41afcc293d9cf56d1a2ca199236c0fc1;de;;;5.3.;;;Methoden zur Enzymmarkierung von Antigenen Antikörper und ihre Fragmente In den letzten zwei Jahrzehnten wurden eine Reihe von Reagenzien zur Enzymmarkierung von Antigenen und Antikörpern verwendet. Die meisten von ihnen haben jedoch ernsthafte Nachteile, und nur wenige Reagenzien werden gegenwärtig verwendet, einschließlich Glutaraldehyd, Periodat, Maleinimidverbindungen und Pyridyldisulfidverbindungen (Ishikawa et al., 1983a).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-5466-6_2 b7384f5e1830e6bb370d7a1c994924a9;de;;;5.3.;;;Synthetische QoE-gesteuerte Erkennung anomaler Zellmuster mit einem Hybridalgorithmus Da der Servicequalität (QoS) für Abonnenten mehr Aufmerksamkeit gewidmet wird, sollten die Mobilfunkbetreiber den Bewertungsstandard von QoS zu Quality of Experience (QoE) verlagern. Die meisten Forschungen auf diesem Gebiet konzentrieren sich jedoch auf End-to-End-Metriken, nur wenige von ihnen betrachten die synthetische QoE im gesamten Netzwerk. Für Mobilfunkanbieter ist es wichtiger, die Gesamtsystemleistung zu den niedrigsten Kosten zu verbessern. Daher eignet sich die umfassende Auswertung aller Nutzer eher zur Netzoptimierung. Da Sprache immer noch der Basisdienst ist, betrachten wir in diesem Papier die Anomalieerkennung über den Sprachdienst. Zunächst werden zwei synthetische QoE-Parameter, die Sprachqualität (QoV) und die Erfolgsrate des drahtlosen Zugangs (WA), betrachtet, um Anomalien von Zellen unter dem Aspekt der Integrität bzw. Zugänglichkeit zu identifizieren. Dann verwenden wir einen hybriden Algorithmus, der selbstorganisierende Karte (SOM) und K-Means kombiniert, um abnormale Datenpunkte in mehrere Kategorien zu klassifizieren. Danach werden die Datenpunkte für Zellen als Zeitreihen behandelt, um die Anteile in jedem Anomaliemodell zu berechnen, die anomale Zellmuster bilden. An der Stelle, an der die Ausnahme genau aufgetreten ist, werden die anderen 5 Key Performance Indicators (KPIs) per Assoziationsregel gemäß der Korrelation zwischen zwei synthetischen QoE-Parametern ausgewählt. Sie werden verwendet, um bestimmte Fehlerklassen zu identifizieren. Das Experiment zeigt, dass die vorgeschlagene Methode effektiv ist, um anomale Zellmuster zu visualisieren und zu analysieren. Es kann eine Richtlinie für die Bediener sein, um eine schnellere und effizientere Fehlerbehebung durchzuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-32467-8_26 7fb4fdd41429234d28e03ddd698caf2d;de;;;5.3.;;;Diskussion und Empfehlungen In diesem Buch wurde eine Reihe von simulationsgetriebenen Optimierungstechniken diskutiert, die für den Entwurf von Antennenstrukturen geeignet sind. Die meisten der hier vorgestellten Methoden basieren auf EM-Simulationen mit variabler Genauigkeit. Die grobdiskretisierten EM-Simulationen werden als zugrundeliegendes Low-Fidelity-Modell verwendet, das nach geeigneter Korrektur als schnelles Vorhersagewerkzeug dient, das zu einem verbesserten Design mit geringem Rechenaufwand führt. Es hat sich gezeigt, dass der typische Rechenaufwand des Designprozesses, ausgedrückt in der Anzahl äquivalenter High-Fidelity-Modellbewertungen, mit der Anzahl der Designvariablen vergleichbar ist. In diesem Kapitel versuchen wir, diese Methoden qualitativ zu vergleichen und geben einige Empfehlungen für die Leser, die daran interessiert sind, sie in ihrer Forschungs- und Entwurfsarbeit zu verwenden. In Abschn. 13.1. In Abschn. 13.2 Es wird eine Reihe von Empfehlungen und Richtlinien formuliert, die bei der Auswahl des am besten geeigneten Ansatzes für ein gegebenes Antennendesignproblem helfen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-04367-8_13 e2f5f76f406f848f7a7f9032a687b177;de;;;5.3.;;;Interaktion von Poly(ADP-Ribose)-Polymerase mit DNA-Polymerase α Homogen gereinigte Poly(ADP-ribose)-Polymerase (PARP) stimulierte spezifisch die Aktivität der immunaffinitätsgereinigten Kalbs- oder Human-DNA-Polymerase a um das etwa 6- bis 60-fache. Offenbar war eine Poly(ADP-Ribosyl)ierung der DNA-Polymerase a für die Stimulation nicht notwendig. Die Wirkungen von PARP auf die DNA-Polymerase a waren zweiphasig: Bei sehr geringen DNA-Konzentrationen hemmte es deren Aktivität eher, während PARP sie bei höheren DNA-Konzentrationen stark stimulierte. Die Autopoly(ADP-ribosyl)ierung von PARP unterdrückte sowohl seine stimulierende als auch seine hemmende Wirkung. Durch Immunpräzipitation mit einem Anti-DNA-Polymerase-α-Antikörper wurde klar gezeigt, dass PARP physikalisch mit DNA-Polymerase a assoziiert sein kann. Die Stimulation der DNA-Polymerase α kann eher der physikalischen Assoziation zwischen den beiden als der DNA-Bindungskapazität von PARP zugeschrieben werden, da das PARP-Fragment, das nur die DNA-Bindungsdomäne enthält, eine geringe stimulierende Aktivität zeigte. Die Existenz von PARP-DNA-Polymerase-α-Komplexen wurde auch in Rohextrakten von Kalbsthymus nachgewiesen. (Mol Cell Biochem 138: 39–44, 1994);-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-2614-8_5 6d559e8ddf63803eb0e1d8caef77df4b;de;;;5.3.;;;Merkur-Speziation im Baikalsee Im Juni 1992 und März 1993 wurde im Baikalsee, einem großen, stark oligotrophen Süßwasserreservoir in Sibirien, Russland, die Verteilung und Speziation von Quecksilber (Hg) untersucht. Im Sommer lag das Gesamt-Hg in der Wassersäule zwischen 0,14 und 0,77 0 ng Hg/L, wobei die höchsten Konzentrationen im zentralen Becken des Sees in Oberflächenwasserproben beobachtet wurden. Es wurde festgestellt, dass labiles anorganisches Hg 7 bis 20 % des Gesamt-Hg-Gehalts ausmacht. Die höchsten Gesamt-Hg-Konzentrationen wurden in Flussgewässern gefunden: bis zu 2 ng Hg/L. Die Konzentrationen von labilem Methylquecksilber (MeHg) reichten von 2 bis 38 pg Hg/L in der Wassersäule, wobei die höheren Konzentrationen im zentralen Teil des Sees und in bodennahen Gewässern leicht angestiegen sind. Das labile MeHg macht 1 bis 15 % des gesamten Hg-Gehalts in der Wassersäule aus, mit größeren Anteilen in tiefen Gewässern. Der leichte Anstieg des MeHg-Gradienten mit der Tiefe entspricht dem O;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-0153-0_58 f996e6e5c8f365043597db85b7d3aaae;de;;;5.3.;;;Mechanistische Aspekte der Ausfällung von Calciumphosphonaten Organische Phosphonate spielen in einer Vielzahl von Wasseraufbereitungsprozessen eine Rolle. Insbesondere werden üblicherweise Phosphonatinhibitoren verwendet, um die Bildung von Mineralablagerungen in Sole während der Gas- und Ölförderung zu verhindern. Die Phosphonatinhibitoren wirken, indem sie an extrem kleinen Kristalliten von Kesselstein adsorbieren, wodurch sie daran gehindert werden, groß genug zu werden, um in Lösung stabil zu werden, und bewirken, dass sich die Kristallite wieder auflösen. Diese Inhibitoren werden oft als Schwelleninhibitoren bezeichnet, da sie bei sehr niedrigen Konzentrationen, typischerweise weniger als einigen ppm, wirksam sind. Phosphonatinhibitoren werden im Allgemeinen in ein Reservoir „gepresst“, indem die Inhibitoren in das Bohrloch gepumpt und das Bohrloch für ein bis zwei Tage geschlossen werden. Während dieser Zeit fällt der Inhibitor aus und/oder adsorbiert an den mineralischen Oberflächen. Wenn das Bohrloch wieder in Produktion geht, löst sich der Inhibitor langsam auf und/oder desorbiert in der produzierten Sole. Solange die Inhibitorkonzentration in der Sole ausreichend hoch ist, wird das Zundern verhindert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5517-9_22 e996fa966d59b9b4c5d896a816def934;de;;;5.3.;;;Organoelektrochemie Frühere Arbeiten auf dem Gebiet der Organoelektrochemie versuchen, die Grenzflächenreaktionen gelöster organischer Moleküle so zu behandeln, als ob die Elektrode lediglich die Rolle einer Elektronenquelle und -senke spielte. Tatsächlich ist es die Adsorption des organischen Moleküls, insbesondere aus wässrigen Medien, und seine;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-3040-4_6 5f34adbe29dd66c31bacb857ce829751;de;;;5.3.;;;Identifizieren von Änderungsmustern von API-Missbrauch durch Codeänderungen Bibliotheks- oder Framework-APIs sind schwer zu erlernen und zu verwenden, was zu unerwartetem Softwareverhalten oder Fehlern führt. Daher wurden verschiedene API-Mining-Techniken eingeführt, um API-Nutzungsmuster über das gleichzeitige Auftreten von API-Aufrufen oder Vorbedingungen von API-Aufrufen zu ermitteln. Sie können jedoch keine Muster über einen API-Aufruf selbst ermitteln (z. B. ob die Argumente des API-Aufrufs richtig gesetzt sind und ob die API gegenüber anderen ähnlichen APIs geeignet gewählt wird). Um diese Lücke zu schließen, schlagen wir C;-;-;-;https://link.springer.com/article/10.1007/s11432-019-2745-5 0608397e8b817847dba28ad8af5614e2;de;;;5.3.;;;Kalibrierung einer Trägheitsmesseinheit Es wird ein neues Verfahren zur Kalibrierung von Trägheitsmesseinheiten der Strapdown-Inertialtechnologie vorgeschlagen. Eine solche Einheit besteht aus Beschleunigungsmessern, Gyroskopen und einem Signalverarbeitungssystem. Zur Kalibrierung der Trägheitsmesseinheit wird die Methode der Prüfung von Drehungen und Drehungen auf einem Drehtisch verwendet. Bei der neuen Methode wird der volle Drehwinkel bzw. die Enddrehung gemessen. Tatsächlich wird vorgeschlagen, die Trägheitsmesseinheit um die Enddrehachse zu drehen. Um die Kalibrierungsgleichung zu lösen, ist es notwendig, den Rang der Matrix der Kalibrierungsgleichung gleich ihrer Ordnung zu machen. Die Ergebnisse der Modellierungsdaten belegen die Effizienz der neuen Kalibriermethode;-;-;-;https://link.springer.com/article/10.1007/s10778-017-0808-4 edbfef400af369cfd859d79da28ecf0a;de;;;5.3.;;;Eine Anti-Wind-Modellierungsmethode für Quadrotor-Flugzeug- und Kaskadenregler-Design basierend auf verbessertem Extended State Observer Windstörungen können die Flugsteuerungsleistung von Quadrotoren beim Fliegen erheblich reduzieren. Um die Anforderungen an eine Hochleistungs-Flugsteuerung zu erfüllen, stellt dieses Papier ein Quadrotor-Anti-Wind-Modell (QAWM) und ein Flugsteuerungsschema für Quadrotoren vor. Der QAWM berücksichtigt den Einfluss aerodynamischer Effekte auf den Propeller, Kreiseleffekt und Windstörung. Das Modell kann mehr Flugzustände darstellen, darunter nicht nur Schweben, sondern auch Flug bei Wind, sogar Manöverflug. Ein Kaskadenregelungsschema mit einem verbesserten erweiterten Zustandsbeobachter (IESO) wird verwendet, um das Quadrotor-Flugregelungsproblem in einen Positionsregelkreis und einen Lageregelkreis zu zerlegen. Im Lageregelkreis wird der IESO verwendet, um die unmodellierte Dynamik, Parameterunsicherheiten und externe Störungen abzuschätzen sowie die Winkelgeschwindigkeitsregelung zu kompensieren. Darüber hinaus werden die Stabilität von IESO und das Closed-Loop-System nachgewiesen. Simulations- und experimentelle Ergebnisse zeigen die Wirksamkeit des nichtlinearen Quadrotormodells und Steuerschemas, und das Steuerschema kann die Flugleistung von Quadrotoren bei Windstörungen sogar beim Manöverflug effektiv verbessern.;-;-;-;https://link.springer.com/article/10.1007/s12555-019-0878-7 7698154276aa8c28002171d46334e52e;de;;;5.3.;;;Ein Hinweis zur Ausnutzung von Strukturen bei der Verwendung von Slack-Variablen Wir zeigen, wie die der linearen Algebra inhärente Struktur für beschränkte nichtlineare Optimierungsprobleme ausgenutzt werden kann, wenn Ungleichungsbeschränkungen durch Hinzufügen von Slack-Variablen in Gleichungen umgewandelt wurden und das Problem mit einer erweiterten Lagrange-Methode gelöst wird.;-;-;-;https://link.springer.com/article/10.1007/BF01582214 1fe88d978e2df8a6ffea9456abe6e6a9;de;;;5.3.;;;Aufbau der virtuellen Gemeinschaft zur Unterstützung des interregionalen Austauschs zwischen Land und Stadt Der ländliche Raum steht vor dem Zusammenbruch der sozialen Infrastruktur, wie medizinischer Behandlung und Bildung, aufgrund der Entvölkerung, was ein nach wie vor schwerwiegendes Problem darstellt. Wir können viele interregionale Austauschprogramme zwischen Land und Stadt als eine der beliebtesten Lösungen zur Entvölkerung im ganzen Land sehen. Unser Ziel ist es daher, die beste Methode durch IKT zu suchen, um die Austauschprogramme zu unterstützen. Wir haben eine virtuelle Community von XOOPS aufgebaut und versucht, eine Vielzahl von Meinungen und Informationen in einer virtuellen Community aus ländlichen und städtischen Gebieten zu speichern, um die besten Lösungen für die Entvölkerung zu finden. XOOPS ist sehr nützlich und kostengünstig, um eine Website zu erstellen. Wir diskutierten die Wirkung der virtuellen Gemeinschaft. Als Ergebnis kamen wir zu dem Schluss, dass die virtuelle Gemeinschaft im Internet ein wirksames Instrument für den Austausch sein würde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74827-4_136 490f7620c7737958292e16645904e365;de;;;5.3.;;;Verwirrende, schlüsselwortbasierte sichere Suche über verschlüsselte Cloud-Daten Als wichtiges Kommunikationsmittel hat das drahtlose Netzwerk aufgrund seiner rasanten Entwicklung das Leben der Menschen sehr angenehm gemacht. Es ist ein heißes Thema, die in der Cloud gespeicherten Daten des drahtlosen Netzwerks zu schützen. Um das Problem zu lösen, präsentiert dieses Papier ein Datenschutzschema basierend auf verwirrenden Schlüsselwörtern. Basierend auf den Abrufdaten der Benutzerhistorie kann das Auswählen und Einbetten von verwirrenden Schlüsselwörtern selektiv implementiert werden. Im Gegensatz zum Hinzufügen von Zufallswerten am Ende der Vektoren, die in anderen Schemata erzeugt wurden, wird in diesem Papier die Einbettungszeit des verwirrenden Schlüsselworts vor der Generierung von Vektoren ausgewählt, um einen wirklich „zufälligen“ Effekt zu erzielen und die Privatsphäre der Benutzer zu schützen. Um die unzusammenhängenden Dokumente zu beseitigen, die durch die Übereinstimmung mit verwirrenden Schlüsselwörtern verursacht werden, schlägt dieser Artikel ein sekundäres Suchschema vor, das auf verwirrenden Schlüsselwörtern in Schema basiert;-;-;-;https://link.springer.com/article/10.1007/s11036-018-1195-8 0464d84755a809bebb3f0ed8b07cf854;de;;;5.3.;;;Bilanzierung energieabhängiger Dienstleistungen im häuslichen Alltag Forscher im Bereich Pervasive Computing und Ubiquitous Computing haben viel Arbeit an neuen Sensortechnologien zur Aufschlüsselung des Ressourcenverbrauchs im Haushalt und an Designs für energiezentrierte Interventionen zu Hause geleistet. Abweichend hiervon verfolgen wir einen serviceorientierten Ansatz, bei dem wir nicht nur den Ressourcenverbrauch einzelner Geräte berücksichtigen, sondern auch, wie die damit verbundenen Dienstleistungen im Alltagskontext charakterisiert werden können. Wir haben über einen Zeitraum von zwanzig Tagen eine prägende Studie in vier Studentenwohnungen durchgeführt und Daten durch Interviews mit elf Teilnehmern und über zweihundert In-Home-Sensoren gesammelt. Nach einer ausführlichen Beschreibung der Beobachtungen und Erkenntnisse aus unserer Studie argumentieren wir, dass unser Ansatz ein umfassenderes Verständnis von Ressourcen und Alltag bietet, als es bei energiezentrierten Ansätzen gezeigt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31205-2_8 0df9c1a85cbb59a5e2f4e56cd10035af;de;;;5.3.;;;Ein Echtzeit-Empfehlungssystem-Design basierend auf Spark-Streaming Im Big-Data-Umfeld bietet das personalisierte Empfehlungssystem auf Basis der Offline-Stapelverarbeitung die Vorteile einer genauen Berechnung und einer hohen Fehlertoleranz. Aufgrund seines hohen Rechenaufwands kann er jedoch die Echtzeitanforderung nicht erfüllen. Gegenwärtig hat die Echtzeit-Recommender-Systemarchitektur, die auf der Kombination von Offline-Schicht und Online-Schicht basiert, auch einige Nachteile bei der Zusammenfassung von Ergebnissen und der Pflege von Updates, und das empfohlene Ergebnis hängt von der Offline-Schicht ab. Wenn sich das Nutzerverhalten in kurzer Zeit ändert und die Ergebnisaktualisierung des Offline-Layers verzögert, wird die endgültige Empfehlung die Interessenänderung des Nutzers nicht sehr gut widerspiegeln. Um diese Probleme anzugehen, verwendet dieses Dokument die Spark Streaming-Funktion zur Verarbeitung von Mikrostapeldatenströmen, um ein Echtzeit-Empfehlungssystem zu implementieren. Das System realisiert eine Echtzeit-Empfehlung, die vollständig aus Online-Stream-Computing besteht, basierend auf der Konsistenz der positiven und negativen Bewertung des Artikels durch den Benutzer die reibungslose und stabile Echtzeit-Datenzuflussgeschwindigkeit. Schließlich werden die Leistung des gesamten Systems und die Wirksamkeit der Empfehlung durch den Movielens-Datensatz überprüft.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8083-3_38 2b9c93ad249483b14b802c8f33bfd828;de;;;5.3.;;;Überprüfung der Kommutativen Algebra In diesem Kapitel erinnern wir uns an Basiskonzepte der kommutativen Algebra, die für die in den späteren Kapiteln behandelten Themen relevant sind. Wir beginnen mit einem Überblick über gradierte Ringe, Hilbert-Funktionen und Hilbert-Reihen und führen die Multiplizität und die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-95349-6_2 4af8847362c80c810659afb37789caff;de;;;5.3.;;;3 Auf dem Weg zu einer benutzerfreundlichen Benutzeroberfläche zur Steuerung eines assistierenden Roboters im Kontext von Smart Homes Das Design von Robotern für Menschen mit Behinderungen erfordert die Einbeziehung der Benutzer in alle Schritte der Produktentwicklung: Designlösung, Prototyping des Systems, Auswahl der Benutzeroberflächen und Testen mit Benutzern unter realen Bedingungen. Vor jedem Entwurf eines Systems ist es jedoch notwendig, die Bedürfnisse der behinderten Benutzer zu verstehen und zu erfüllen. In diesem Kapitel beschreiben wir unsere Forschungsaktivitäten zur Integration eines Roboterarms in die Umgebung von Menschen mit Behinderungen, die die Fähigkeit verloren haben, ihre richtigen Arme für alltägliche Lebensaufgaben zu verwenden, und die in der Lage sind, einen angepassten Roboter zum Ausgleich zu verwenden, sogar teilweise die Probleme der Manipulation in ihrer Umgebung. Um eine benutzerfreundliche Schnittstelle zu entwickeln, ist es notwendig, auf das System selbst einzugreifen, um es flexibler und benutzerfreundlicher zu machen. Die Verbesserung der Funktionalitäten des Hilfsroboters muss der Benutzerumgebung entsprechen, die aus mehreren Hilfsgeräten besteht, die den Roboter ergänzen. Um dieses Ziel zu erreichen, sollten wir die Bedürfnisse der Nutzerinnen und Nutzer unter Berücksichtigung ihrer spezifischen Behinderungsarten, ihrer eingeschränkten Möglichkeiten und auch ihres Akzeptanzniveaus von Technologien konsistent kennen. Dies erfordert multidisziplinäre Kompetenzen auf mehreren Forschungsgebieten wie Informatik, Vernetzung, Robotik, Hausautomation, aber auch Ergonomie, um standardisierte Funktionalitäten bereitzustellen, die eine effiziente Nutzung technischer Hilfsmittel ermöglichen. Dieses Kapitel beschreibt die Anpassungssoftwarearchitektur, die für einen unterstützenden Roboterarm namens Manus-Manipulator im Kontext von Smart Homes entwickelt wurde, in denen der Roboter unter anderem als Objekt betrachtet wird.;-;-;-;https://link.springer.com/chapter/10.1007/10946978_3 ae7fab483a078ecba3d73eed37f23477;de;;;5.3.;;;Gemeinsame Sparsity- und Fidelity-Regularisierung für die segmentierungsgesteuerte CT-Bildvorverarbeitung In diesem Beitrag schlagen wir einen neuartigen segmentierungsgesteuerten Computertomographie (CT) Bildvorverarbeitungsansatz vor. Der vorgeschlagene Ansatz, nämlich das Joint Sparsity and Fidelity Regularization (JSFR) Modell, kann als ein generalisiertes Total Variation (TV) Entrauschungsmodell oder als ein generalisiertes Sparse Representation Entrauschungsmodell betrachtet werden, indem ein zusätzlicher Gradient Fidelity Regularizer und ein stärkerer Gradient Sparsity Regularizer hinzugefügt werden. Somit besteht das JSFR-Modell aus drei Termen: Intensitätstreueterm, Gradiententreueterm und Gradientensparsityterm. Die Wechselwirkungen und das Gegengewicht dieser Terme machen das JSFR-Modell in der Lage, Intensitätsinhomogenitäten zu reduzieren und Kantenmehrdeutigkeiten eines gegebenen Bildes zu verbessern. Experimentelle Ergebnisse, die an den realen dentalen Kegelstrahl-CT-Daten durchgeführt wurden, zeigen die Wirksamkeit und Nützlichkeit des JSFR-Modells für die Homogenisierung der CT-Bildintensität, die Kantenverstärkung sowie die Gewebesegmentierung.;-;-;-;https://link.springer.com/article/10.1007/s11432-015-5375-x 4b2a184bb238b5d16b98ce415f73e06b;de;;;5.3.;;;„Use“-Diskurse in der Systementwicklung: Kann die Kommunikation verbessert werden? Dieses Papier soll eine Grundlage für eine erneute Diskussion über die „Nutzung“ in der Informatik liefern. Unterschiedliche Absichten, die sich in jeder Arena manifestieren, sind mit Misserfolgen in der „Übersetzung“ verbunden, unterschiedliche Terminologien überschreiten disziplinäre und nationale Grenzen nicht reflexiv. Die Analyse der transnationalen Nutzungsdiskursdynamik zeigt viele Missverständnisse. Konflikte wie der zwischen der „Skandinavischen Systementwicklungsschule“ und dem „Usability-Ansatz“ sind weniger aktuell. Die Erneuerung unseres Gesprächs über die Nutzung ist für eine partizipative Politik der Informationstechnologie von wesentlicher Bedeutung und wird zu einer klareren Wahrnehmung der Auswirkungen führen, wenn neue Systeme zu primären Medien sozialer Interaktion werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84628-927-9_6 b5db68a18845c9fcfccdd1153840403e;de;;;5.3.;;;Handgestenerkennung mit Clip-Gerät Anwendbar auf Smart Watch basierend auf flexiblem Sensor In diesem Artikel schlagen wir eine neue Methode vor, die auf Dehnungsmessstreifen basierende flexible epidermale taktile Sensoranordnungen verwendet. Es erfasst elektrische Signale, die entsprechend den Bewegungen des Handgelenks erzeugt werden, basierend auf Dehnungsmessstreifen, die den Grad der Verformung wie Zug, Druck und Verdrehung schätzen. Das vorgeschlagene Sensorarray zeigte, dass es die acht Bewegungen des Handgelenks analysieren kann. Die vorgeschlagene Methode wurde durch die Bestätigung der Genauigkeit der Gestenerkennung bei mehreren Probanden verifiziert. Die Genauigkeit des vorgeschlagenen Verfahrens zeigte in den Vergleichstests eine höhere Leistung als die bestehenden Gestenerkennungsgeräte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-23307-5_23 c3adbf0428a709b03242a4e742125150;de;;;5.3.;;;Logicamente: Eine virtuelle Lernumgebung für Logik basierend auf Lernobjekten Logik ist ein mit mehreren Studienrichtungen verbundenes Fach, durch das es möglich ist, das Verständnis von Informationen und den Denkprozess in vielen Bereichen zu verbessern. Bemerkenswert ist in den meisten Studiengängen, dass Logik sowohl für Lehrende als auch für Schüler eine pädagogische Herausforderung darstellt und die Zahl der Misserfolgs- und Diskontinuitätsfälle oft hoch ist. Einer der Gründe für diese Situation ist die Kluft zwischen den repetitiven Aspekten von Lernübungen einerseits und den erfinderischen Aktivitäten der Erforschung oder Anwendung der Logik auf praktische Situationen andererseits. Angesichts der Notwendigkeit, eine solide Grundlage für das Fach im Grundstudium zu schaffen und sich auf induktives Lernen mit kreativen Fähigkeiten zu konzentrieren, schlagen wir das Projekt vor;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21350-2_27 bdfd51c626fb3d7f22ccb19bd8d05be5;de;;;5.3.;;;Integrierte Produktentwicklung Ein neuer Ansatz für die computergestützte Entwicklung in den frühen Designphasen Der Artikel stellt die Methodik der Integrierten Produktentwicklung vor. Integrierte Produktentwicklung bietet einen Rahmen zur Strukturierung und Integration von Entwicklungsaktivitäten und -methoden, die für die Entwicklung komplexer Industrieprodukte notwendig sind. Konzeptionelles Produktdesign wird als wesentlicher Bestandteil der Integrierten Produktentwicklung vorgestellt und beschrieben, um den Entwicklungsprozess methodisch zu unterstützen. Das konzeptionelle Produktdesign zielt darauf ab, die Erfüllung der Anforderungen, die grundsätzliche Umsetzbarkeit und den zu erwartenden wirtschaftlichen Erfolg so früh wie möglich sicherzustellen. Schließlich werden die zur Unterstützung des konzeptionellen Produktdesigns notwendigen IT-Tools erläutert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-91170-4_1 ae19717471d94d91788eef9706cb5c49;de;;;5.3.;;;Humanoide Roboterintervention für Kinder mit Autismus: Ein konzeptionelles Modell zu FBM Autismus ist eine lebenslange Behinderung, die die Entwicklung von Kindern in Bezug auf soziale Interaktion, Kommunikation und Fantasie beeinträchtigt. Kinder mit Autismus können oft nicht sinnvoll mit ihrer Umgebung kommunizieren und haben keinen Bezug zur realen Welt. Die Einbeziehung eines humanoiden Roboters während der Therapiesitzung gilt als eine der vorteilhaftesten Therapien für diese Kinder, da autistische Kinder Berichten zufolge eifrig mit Maschinen und Geräten umgehen. Aufgrund der begrenzten Studien in der Perspektive der Emotionen und Gefühle der Kinder übernimmt diese Studie die Kansei-Bewertung, um die Emotionen und Gefühle der autistischen Kinder während der Interaktion mit dem Roboter zu untersuchen. Die Kansei-Bewertung wurde vom Lehrer durchgeführt, der die emotionalen Reaktionen der autistischen Kinder interpretierte. Zwei autistische Kinder waren an der Studie beteiligt, wobei beide Probanden leichten Autismus hatten. Die Daten wurden dann analysiert und in das Verhaltensmodell von Fogg übersetzt, um die Lernmotivation der Kinder darzustellen. Das entwickelte Verhaltensmodell von Modified Fogg zeigt erfolgreich die Wechselbeziehung zwischen den drei Komponenten Fähigkeit, Trigger und Motivation für die autistischen Kinder bei der Interaktion mit dem humanoiden Roboter. Das endgültige Modell liefert einige Beweise dafür, dass Kinder mit Autismus trotz eingeschränkter Fähigkeiten bei richtiger Intervention das gleiche Motivationsniveau wie normale Kinder aufweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-287-936-3_22 525459f00e07e3ef47df41ad6acc7fe0;de;;;5.3.;;;Posieren von 3D-Charakteren in virtueller Realität durch In-the-Air-Skizzen Das Generieren von Computeranimationen ist eine sehr arbeitsintensive Aufgabe, die Animatoren erfordert, mit ausgefeilten Schnittstellen zu arbeiten. Daher experimentieren Forscher kontinuierlich mit alternativen Interaktionsparadigmen, die die obige Aufgabe möglicherweise erleichtern könnten. Unter anderem stellt das Skizzieren eine gültige Alternative zu herkömmlichen Schnittstellen dar, da es Interaktionen ausdrucksvoller und intuitiver machen kann. Obwohl die Literatur jedoch mehrere Lösungen vorschlägt, die skizzenbasierte Schnittstellen zur Lösung verschiedener Computergrafikherausforderungen nutzen, sind sie im Allgemeinen nicht vollständig in den Computer integriert Animationspipeline. Gleichzeitig wird Virtual Reality (VR) in vielen Bereichen alltäglich und wird seit kurzem als geeignet erkannt, auch den Animatoren die Arbeit zu erleichtern, indem sie ihr räumliches Verständnis der animierten Szene verbessert und ihnen Schnittstellen zur Verfügung stellt zeichnet sich durch eine höhere Benutzerfreundlichkeit und Effektivität aus. . . . ? Basierend auf all dem präsentiert dieses Papier ein Add-On für eine bekannte Animationssuite, das die Vorteile einer skizzenbasierten Benutzeroberfläche und VR kombiniert, damit Animatoren Posen definieren und virtuelle Charakteranimationen in einer immersiven Umgebung erstellen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63426-1_6 0f30d5ba0d3f127a069070941048806f;de;;;5.3.;;;Allgemeine Kohomologietheorie und Dualität Funktoren, mit besonderer Betonung der homologischen Eigenschaften topologischer Mannigfaltigkeiten. Für diese wichtige Klasse von Räumen werden wir den Dualitätssatz aufstellen, der die Kohomologie eines kompakten Paares in einer orientierbaren Mannigfaltigkeit mit der Homologie des komplementären Paares in komplementären Dimensionen gleichsetzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-9322-1_7 5078de0a091f3fcb46518f9cf9fccf43;de;;;5.3.;;;Eine Variationsmethode zur Konturverfolgung über Kovarianz-Matching Dieses Papier stellt eine neuartige Formulierung für die Konturverfolgung vor. Wir modellieren die Statistik zweiter Ordnung von Bildregionen und führen einen Kovarianz-Matching unter dem Variations-Level-Set-Framework durch. Insbesondere wird die Kovarianzmatrix als visuelle Objektdarstellung für die Konturverfolgung auf der Grundlage einer partiellen Differentialgleichung (PDE) verwendet. Log-Euklidischer Kalkül wird als Kovarianzabstandsmetrik anstelle des Euklidischen Abstands verwendet, der zum Messen der Ähnlichkeiten zwischen Kovarianzmatrizen ungeeignet ist, da die Matrizen typischerweise auf einer nichteuklidischen Mannigfaltigkeit liegen. Ein neues Bildenergiefunktional wird formuliert durch Minimieren der Distanzmetrik zwischen dem Kandidatenobjektbereich und einer gegebenen Vorlage und Maximieren derjenigen zwischen der Hintergrundregion und der Vorlage. Der entsprechende Gradientenfluss wird dann nach einem Variationsansatz abgeleitet, der eine Konturverfolgung auf Basis von partiellen Differentialgleichungen (PDEs) ermöglicht. Experimente an mehreren anspruchsvollen Sequenzen beweisen die Gültigkeit der vorgeschlagenen Methode.;-;-;-;https://link.springer.com/article/10.1007/s11432-012-4701-9 93dca77089c18e727a84f641f36291af;de;;;5.3.;;;Bewegung viskoser Flüssigkeiten in offenen Behältern In diesem Kapitel untersuchen wir die Bewegung einer viskosen Flüssigkeit in einem offenen Behälter. Zunächst beweisen wir die Lösbarkeit des Anfangsrandwertproblems. Zur Untersuchung der Normalschwingungen führen wir dann den Hauptoperator Bleistift ein, dessen Spektrum mit den in Abschnitt 1.6 vorgestellten Methoden detailliert analysiert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-8063-3_3 0f6ea4a9909bf25bf832ece137d83748;de;;;5.3.;;;Ein effizienter Wasserzeichenprozess basierend auf der dreistufigen DWT- und FFT-Technik Wasserzeichen für digitale Bilder sind zu einem interessanten Forschungsgebiet geworden, um den Problemen zu begegnen, die durch die zunehmende Nutzung des Internets für die Verbreitung digitaler Daten entstehen. Seit einigen Jahrzehnten beschäftigt sich jeder mit der Authentizität digitaler Daten. Wasserzeichen für digitale Bilder spielen eine entscheidende Rolle beim Schutz von Urheberrechten. Bei der Wasserzeichenmarkierung im Frequenzbereich ist ein auf der diskreten Kosinustransformation (DCT) basierender Wasserzeichenmarkierungsprozess am gebräuchlichsten, da die Mehrheit der Bildkompressionsverfahren im DCT-Bereich entwickelt wird. Diese Forschung präsentiert eine robuste diskrete Wavelet-Transformation (DWT) und eine schnelle Fourier-Transformation (FFT), die auf Art und Weise basiert, digitale Wasserzeichen (DW). In der Anfangsphase teilen Sie das Originalbild (Titelbild) in zwei horizontale und zwei vertikale Unterbänder auf, indem Sie das 3-DWT-FFT-Unterband verwenden, indem Sie ihre Werte ändern. In dieser Arbeit wird die Einbettungs- und Extraktionstechnik für Wasserzeichen basierend auf DWT- und FFT-Transformationen vorgestellt. Bei dieser Technik ist das Einbetten und Enteinbetten des Wasserzeichens viel einfacher als bei anderen Transformationstechniken. Verschiedene Werte von PSNRs, MSEs und NCs werden auf die Bildqualität mit Wasserzeichen und die Qualität der extrahierten Wasserzeichen analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6840-4_24 d619124c21dac530dba37161e3584d73;de;;;5.3.;;;3D-Gesichtsverfolgung durch Kombination von Online-Erscheinungsbildmodell und Zylinderkopfmodell in der Partikelfilterung Es wurde ein 3D-Gesichtsbewegungs-Tracking-Ansatz vorgeschlagen, der auf der Einbindung des Online-Erscheinungsbildmodells (OAM) und des Zylinderkopfmodells (CHM) im Rahmen der Partikelfilterung basiert. 1) Bei der Konstruktion von OAM werden Multimessungen durchgeführt, um den Einfluss von Beleuchtung und Personenabhängigkeit zu reduzieren. 2) Die von der CHM-Anpassung erfasste globale Bewegung wird als Initialisierung der OAM-Anpassung eingestellt, und das Anpassungsergebnis wird als Initialisierung der CHM im nächsten Frame eingestellt. 3) Bewegungsfilterung wird mit Partikelfilter kombiniert mit lokaler Optimierung und verbessertem Resampling angewendet. Objektive Bewertungen zwischen den Probanden zeigen, dass unser Ansatz geeignet ist, Gesichtsbewegungen zu verfolgen.;-;-;-;https://link.springer.com/article/10.1007/s11432-013-5023-2 a1a0ee955d82c6b7e896b4ea7b72a219;de;;;5.3.;;;Wellenausbreitung in elastischen Medien In den vorangegangenen Kapiteln haben wir die Eigenschaften von Wellen untersucht, die sich in Wasser und in viskosen und viskosen Flüssigkeiten ausbreiten. Es wurde darauf hingewiesen, dass der Erhaltungssatz, der ein Medium von einem anderen unterscheidet, die Energiegleichung ist. Es ist der Erhaltungssatz, der die entsprechende Zustandsgleichung oder Stoffgleichung enthält, die das Medium definiert. Beispielsweise wurde eine adiabatische Zustandsgleichung verwendet, um ein Fluid wie Luft und eine andere Zustandsgleichung für Wasser zu definieren. Die adiabatische Bedingung kann nicht über eine Stoßwelle hinweg verwendet werden, da wir einen Entropiesprung usw. berücksichtigen müssen. In früheren Kapiteln wurde weiter darauf hingewiesen, dass der Ansatz zur mathematischen Beschreibung der Erhaltungssätze die Euler-Darstellung war. Diese Darstellung ist nützlicher beim Umgang mit großen Partikelbewegungen des Fluids. Es wurde auch festgestellt, dass die Erhaltungssätze die grundlegende Physik einer gegebenen Situation in dem Sinne enthalten, dass wir aus diesen Erhaltungsgleichungen, die als Feldgleichungen bezeichnet werden, die Geschwindigkeits-, Druckfelder usw. erhalten können, die die Welleneigenschaften ergeben. Da die Feldgleichungen in den Eulerschen Koordinaten formuliert waren, wurden die verschiedenen Felder, die aus ihren Lösungen abgeleitet wurden, auch als Funktionen dieser Eulerschen Koordinaten ausgedrückt. Im Prinzip können wir in die Lagrangeschen Koordinaten zurückabbilden und erhalten so die Teilchenbahnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-3886-7_8 f630787b17a7da73a82fc1fae9c0e53c;de;;;5.3.;;;Gitter von Operatoren Das vorliegende Kapitel beschäftigt sich in erster Linie mit Vektorgittern linearer Operatoren zwischen Banach-Gittern oder genauer mit dem Problem, signifikante Klassen von linearen Operatoren mit (linearem) Modul aufzuweisen. Bis in die späten 1960er Jahre erschien das vorhandene Wissen auf diesem Gebiet etwas fragmentarisch und inkohärent, vor allem aber wenig relevant für den Mainstream der Operatortheorie. Tatsache ist, dass ordnungsbeschränkte Operatoren sehr eng mit Operatoren von anerkannter Bedeutung verbunden sind, wie aus Satz 5.7 (iii) hervorgeht, genauer gesagt einer linearen Abbildung von an;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-65970-6_4 99936b9c4d1894dc39673a7052f8f4dc;de;;;5.3.;;;Quaternion-basiertes Tracking mehrerer Objekte in synchronisierten Videos Dieses Papier stellt eine Methode zum Verfolgen mehrerer Objekte unter Verwendung mehrerer Kameras vor, die räumliche Positions-, Form- und Farbinformationen integriert, um Objekt-Blobs zu verfolgen. Bei drei bekannten Punkten auf dem Boden wird die Kamerakalibrierung durch Lösen eines Satzes von Quaternionen-basierten nichtlinearen Funktionen berechnet, anstatt angenäherte lineare Funktionen zu lösen. Durch die Verwendung einer Quaternionen-basierten Methode können wir das Singularitätsproblem vermeiden. Unsere Methode konzentriert sich darauf, eine Korrespondenz zwischen Objekten und Schablonen herzustellen, wenn die Objekte sichtbar werden. Wir fusionieren die Daten einzelner Kameras mit einem Extended Kalman Filter (EKF), um Objektverdeckungen aufzulösen. Es werden Ergebnisse basierend auf der Kalibrierung mit der Tsai-Methode sowie unserer Methode vorgestellt. Unsere Ergebnisse zeigen, dass die Integration einfacher Funktionen das Tracking effektiv macht und dass EKF die Tracking-Genauigkeit verbessert, wenn eine langfristige oder vorübergehende Okklusion auftritt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39737-3_54 53d59209b7586f0f74b331ee31af9fbd;de;;;5.3.;;;Gibbs-Felder Wir beginnen in § 2.2.1. mit der Dobrushin-Theorie für Zufallsfelder, die durch bedingte Randverteilungen definiert sind. Das Vergleichsergebnis von § 2.2.1.1. ergibt die Eindeutigkeitsbedingung von Dobrushin (§ 2.2.1.2.) und dann entsteht in § 2.2.1.3 eine Mischungsbedingung. Das grundlegende Beispiel für solche Zufallsfelder ist der Markov-Feld-Fall (§ 2.2.2.), er wird in § 2.2.2.1 mit Potentialen beschrieben. Der nicht kompakte Fall wird in § 2.2.3 erwähnt. mit den Beispielen von Punktprozessen in § 2.2.3.1 und diffusionsbasierten Zufallsfeldern in § 2.2.3.2.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-2642-0_7 23e49347da229f3f146b97fc3ab2251b;de;;;5.3.;;;Spektraltheorie positiver Operatoren Dieser Abschnitt befasst sich mit spektralen Eigenschaften positiver linearer Operatoren auf einem Banach-Gitter. Wir beginnen mit klassischen Sätzen über das spektrale Verhalten positiver linearer Operatoren einschließlich der Sätze von Krein-Rutman. Wir werden diese Sätze nur für Banach-Gitter formulieren und beweisen, obwohl sie mit ähnlichen Beweisen für allgemeinere Klassen geordneter Banach-Räume gelten. Der interessierte Leser findet diese allgemeinen Versionen bei Schaefer (1971), Anhang.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-76724-1_4 76d384b0623aaa3837461c54b0fbd473;de;;;5.3.;;;Isolement de l’autoantigène responsable de la formation d’autoanticorps chez les malades atteints de cancer gastrique Aus diesem Labor sind bereits mehrere Studien entstanden, die sich mit dem Vorhandensein von Autoantikörpern bei Patienten mit Karzinomen des Verdauungstraktes beschäftigten. Es wurde gezeigt, dass das Antigen, das diese Autoantikörper induziert, sowohl in der Tumorzelle als auch in der normalen vorhanden ist. Die folgende Arbeit beschäftigt sich mit der Isolierung des Antigens, das in normaler und krebsartiger Magenschleimhaut gefunden wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-25813-2_56 cc39f7bf56b30a34ddec8e5ce5c3babe;de;;;5.3.;;;NADH bindet in der mitochondrialen Atmungskette fernab von Flavinen von Flavoproteinen Der Hauptteil des mitochondrialen NADH sorbiert an Membranproteinen. Im Anregungsspektrum der NADH-Fluoreszenz von Mitochondrien wurde eine intensive Tryptophan-Absorptionsbande nachgewiesen [1]. Dieses Band gehört zum Trp-NADH-Energietransfer.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4479-7_78 12ae271761573281d34a344e85ff09b0;de;;;5.3.;;;Die Bedeutung der Lewis-Säure-Base-Chemie für Oberflächeninteraktionen Dieses Übersichtspapier fasst den aktuellen Stand der Lewis-Säure-Base- oder verallgemeinerten Donor-Akzeptor-Konzepte und ihrer Anwendung auf die Löslichkeitstheorie und verwandte Probleme auf dem Gebiet der Oberflächen-Endkolloidchemie zusammen. Eine einfache Störungstheorie zweiter Ordnung wird dann verwendet, um die Vor- und Nachteile verschiedener empirischer Behandlungen von Lewis-Säure-Base-Stärken, die derzeit in der Literatur zu finden sind, zu bewerten und sowohl ihre Grenzen als auch ihre Beziehung zu derzeit populären empirischen Ansätzen zu Oberflächen- und Löslichkeitsphänomenen zu klären.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-1905-4_2 effb485247f6fb4d01b97c7feaab1cb3;de;;;5.3.;;;Zur Verifizierung von VDM mit SPIN Die Wiener Entwicklungsmethode (VDM) ist eine formale Methode, die die Modellierung und Analyse von Softwaresystemen auf verschiedenen Abstraktionsebenen unterstützt. Fallstudien haben gezeigt, dass die Anwendung von VDM oder formaler Spezifikation im Allgemeinen in Softwareentwicklungsprozessen der Schlüssel zu qualitativ hochwertiger Softwareentwicklung ist. Um jedoch den vollen Nutzen aus dem Einsatz von VDM in der Softwareentwicklung zu ziehen, sind assoziative Aktivitäten wie das Validieren und Verifizieren von VDM-Modellen entscheidend. Da die primäre Methode zur Überprüfung eines VDM-Modells die Spezifikationsanimation ist, möchten wir die Animationsfunktion von VDM nutzen, um Modellprüftechniken anzuwenden. In diesem Papier schlagen wir einen Ansatz zur Unterstützung von Modellprüfungs-VDM-Modellen vor, indem wir ein hybrides Verifikationsmodell erstellen, das VDMJ, einen VDM-Interpreter und SPIN, einen der beliebtesten Modellprüfer, insbesondere im praktischen Einsatz, kombiniert. Es werden zwei Fallstudien berichtet und die Benutzerfreundlichkeit, Skalierbarkeit und Effizienz unseres Ansatzes diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-29510-7_14 40c44843ed774e83636fdb1236980f6e;de;;;5.3.;;;Ionische Kettenwachstumspolymerisation Die ionische Polymerisation kann entweder kationisch oder anionisch sein. Dieser Unterschied rührt von der Natur der Trägerionen an den wachsenden Polymerketten her. Wenn die Ketten während des Wachstums positive Zentren oder Kohlenstoffkationen bilden können, wird der Mechanismus des Kettenwachstums als . bezeichnet;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4227-8_3 e3feea6dfab6b25d76da4e6f52fb9b35;de;;;5.3.;;;Die Oxidation organischer Verbindungen durch aktives Mangandioxid In der Reihe von Reagenzien, die in heterogenen Oxidationsreaktionen verwendet werden, hat aktives Mangandioxid einen herausragenden Platz unter Oxidationsmitteln wie Kupferoxid, Quecksilber(II)-oxid, Silberoxid, Bleidioxid, Natriumbismutat,;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2109-5_3 623008e2d9426aecaf7a29a1a4d98f78;de;;;5.3.;;;Hormonelle Regulation der Casein-Genexpression in normalen und neoplastischen Zellen in murinen Brustdrüsen Zeitgenössische Erkenntnisse und technologische Fortschritte auf den Gebieten der Zell- und Molekularbiologie haben gezeigt, dass die selektive Genexpression eine entscheidende Rolle bei der Regulierung der zellulären Differenzierung spielt. Konventionell bezeichnet selektive Genexpression eine regulierte Transkription verschiedener Strukturgene, die die jeweiligen mRNAs produzieren. In den letzten Jahren hat sich auch herausgestellt, dass die physikalische Struktur eukaryotischer Gene aus exprimierten (Exons) und nicht exprimierten (Introns) Abschnitten entlang des DNA-Strangs besteht und dies das Spleißen und Prozessieren der anfänglichen Transkripte zur endgültigen mRNA erfordert (20), (50), (119). Darüber hinaus kann die posttranslationale Prozessierung der Polypeptide auch das Endprodukt modifizieren und somit die Genexpression beeinflussen (108). Somit kann die selektive Genexpression während eines Entwicklungsprozesses bei jeder dieser komplexen Ereignisreihen einer Modulation unterliegen. Basierend auf der Beobachtung, dass das Insektensteroidhormon Ecdyson in der Lage ist, in Polytänchromosomen von;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-8045-0_11 80b53c0c7a17afd4a9703f86561d0b44;de;;;5.3.;;;Technologie und Alterung: Hemmende und begünstigende Faktoren bei der IKT-Nutzung In Ergänzung einer Literaturrecherche gibt der Beitrag einen Überblick über hemmende und fördernde Faktoren im Zusammenhang mit der Nutzung von Informations- und Kommunikationstechnologien (IKT) bei älteren Menschen. Der Beitrag vertritt die Position, dass es keinen prototypischen „älteren Nutzer“ gibt, sondern eine große Heterogenität persönlicher Merkmale wie kognitiver und motivationaler Zustände und Erfahrungen im Alter. In Abhängigkeit von unterschiedlichen Charakteristika des älteren Nutzers sowie dem Anwendungskontext sollte die Entwicklung und Implementierung von IKT dem Desiderat einer differenziellen Technologieimplementierung mit einem integrativen Ansatz folgen, indem individuelle und gesellschaftliche sowie gesellschaftspolitische Ansätze in Einklang gebracht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31479-7_26 86dece0b5a1f45a861d85f2dac5b541c;de;;;5.3.;;;Überarbeitung anonymer Zwei-Faktor-Authentifizierungsschemata für Cloud Computing Die Untersuchung der Sicherheitsfallen kryptografischer Protokolle ist entscheidend, um zu verstehen, wie die Sicherheit verbessert werden kann. Auf der ICCCS’17 schlugen Wu und Xu ein effizientes Smartcard-basiertes Passwort-Authentifizierungsschema vor, um die Schwachstellen in Jiang zu überwinden;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00009-7_13 7a84f72b9c2a810d3c1eb0c6dba96b89;de;;;5.3.;;;Echtzeitsimulation von heftigem Sieden in konzentrierter Schwefelsäureverdünnung Die Verdünnung mit konzentrierter Schwefelsäure ist ein wichtiges, aber gefährliches Experiment im Chemieunterricht. Fehlbedienungen können zu intensivem Sieden und Spritzen führen oder sogar den Versuchsleiter gefährden. Dieses Papier präsentiert einen neuartigen Ansatz zur Simulation des heftigen Siedephänomens in Echtzeit und eine effiziente Methode zum Umgang mit der durch schnelle Bewegung verursachten Partikelpenetration. Wir führen die Anti-Viskositätsmethode ein, um Hochtemperaturpartikeln Impuls zu verleihen und die chaotische Dynamik im Siedeprozess mit geringem Rechenaufwand zu erfassen. Um das Problem der Partikelpenetration zu lösen, schlagen wir einen neuen Beschränkungstyp namens Kolbenbeschränkung vor, der Radius-Lookup-Tabellen verwendet, um achsensymmetrische Formen effizient darzustellen und die Partikel zurück in ihren Behälter projiziert, wenn die Penetration auftritt. Diese Methoden werden in eine Virtual-Reality-Anwendung integriert, um das Verdünnungsexperiment mit konzentrierter Schwefelsäure zu simulieren und die Effizienz und Wirksamkeit unserer Methode zu demonstrieren. Unsere Arbeit verbessert die Leistungsfähigkeit und Stabilität von partikelbasierten Fluidlösern und bietet attraktive Lösungen für die Integration von Fluidsimulationen in interaktive Anwendungen.;-;-;-;https://link.springer.com/article/10.1007/s00371-021-02208-0 77497d6cb8f5146fc25fe8a650be0b4b;de;;;5.3.;;;Eine Umfrage zur Erkennung unbekannter Präsentationsangriffe für Fingerabdrücke Fingerabdruckerkennungssysteme werden häufig in verschiedenen realen Anwendungen eingesetzt, da sie eine hohe Genauigkeit erreicht haben. Zu den weit verbreiteten Anwendungen gehören Grenzkontrollen, Geldautomaten (ATM) und Anwesenheitsüberwachungssysteme. Diese kritischen Systeme sind jedoch anfällig für Spoofing-Angriffe (auch bekannt als Präsentationsangriffe (PA)). PA für Fingerabdruck kann durchgeführt werden, indem Gummifinger aus verschiedenen Materialien wie Silikon, Gelatine, Play-Doh, Ecoflex, 2D-Druckpapier, 3D-Druckmaterial oder Latex präsentiert werden. Biometrie-Forscher haben als Gegenmaßnahme gegen PA Methoden zur Erkennung von Präsentationsangriffen (PAD) entwickelt. PAD wird normalerweise durchgeführt, indem ein Klassifikator für maschinelles Lernen für bekannte Angriffe für einen bestimmten Datensatz trainiert wird, und sie erreichen bei dieser Aufgabe eine hohe Genauigkeit. Die Verallgemeinerung auf unbekannte Angriffe ist jedoch ein wesentliches Problem der Anwendbarkeit auf reale Systeme, hauptsächlich weil Angriffe nicht im Voraus vollständig aufgelistet werden können. In diesem Übersichtspapier präsentieren wir eine umfassende Übersicht über bestehende PAD-Algorithmen für Fingerabdruckerkennungssysteme, insbesondere zur Erkennung unbekannter PAD. Wir kategorisieren PAD-Algorithmen, weisen auf ihre Vor- und Nachteile und zukünftige Richtungen für diesen Bereich hin.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71711-7_16 b5988a0d06a1b0c902d374e2ec3aaac7;de;;;5.3.;;;Cloud Computing für Fluoreszenzkorrelationsspektroskopie-Simulationen Fluoreszenzmikroskopie-Techniken und Proteinmarkierung setzen einen Wendepunkt in der Art und Weise, wie Zellen untersucht werden. Die Fluoreszenzkorrelationsspektroskopie ist äußerst nützlich, um die Bewegung von Molekülen in lebenden Zellen quantitativ zu messen. Dieser Artikel stellt das Design und die Implementierung eines Systems zur Fluoreszenzanalyse durch stochastische Simulationen unter Verwendung verteilter Rechentechniken über eine Cloud-Infrastruktur vor. Für das Studium komplexer zellbiologischer Prozesse wird eine hochgradig skalierbare Architektur vorgeschlagen, die vielen Benutzern zugänglich ist. Über einen verteilten Hadoop-Cluster mit der Microsoft Azure Cloud-Plattform wird ein MapReduce-Algorithmus entwickelt, der die parallele Ausführung mehrerer Simulationen ermöglicht. Die experimentelle Analyse zeigt die Korrektheit der entwickelten Implementierung und ihren Nutzen als Werkzeug für wissenschaftliches Rechnen in der Cloud.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-26928-3_3 c311c9ccfa53b33cb72579fe3ef2e001;de;;;5.3.;;;Leistungskennzahlen für haptische Schnittstellen Eine haptische Schnittstelle unterscheidet sich von anderen Anzeigegeräten dadurch, dass sie bidirektional ist und in der Lage ist, Eingaben an und von einem menschlichen Benutzer sowohl zu lesen als auch zu schreiben. Sowohl aufgrund der direkten menschlichen Interaktion als auch der Bidirektionalität gab es viele Unklarheiten bei der Beschreibung und Bewertung dieser Geräte, was eine Bewertung und einen Vergleich erschwerte. Das Ziel dieses Papiers ist es, Anforderungen und Richtlinien für die Leistungsmessungen von haptischen Geräten festzulegen und hoffentlich zur Lösung der gegenwärtigen unklaren Situation zu führen. Insbesondere werden Leistungsmaße eingeführt, die in der traditionellen Robotik bisher nicht relevant waren, dazu gehören Spitzenkraft-, Spitzenbeschleunigungs- und frequenzabhängige Messungen. Auch Leistungsmaße, die in der traditionellen Robotik oft zitiert werden, werden diskutiert, der Schwerpunkt und die Relevanz dieser Maßnahmen sind jedoch bei haptischen Geräten unterschiedlich. Jedes der in diesem Papier vorgeschlagenen Leistungsmaße wird im Hinblick auf seine Bedeutung, seine Messbarkeit und die Bedingungen, unter denen es gemessen werden sollte, diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-1021-7_22 1bbb78334584124d513f1bf510f33a2f;de;;;5.3.;;;Studie über ein elektromagnetisches Visualisierungs-Experimentsystem basierend auf Augmented Reality Beim Erlernen von Physik ist Elektromagnetismus eines der am schwierigsten zu verstehenden Konzepte für Schüler. Dieser Artikel schlägt eine Echtzeit-Visualisierungsmethode für 3D-Magnetfelder auf Basis der Augmented Reality (AR)-Technologie vor, die nicht nur magnetische Flusslinien in Echtzeit visualisieren kann, sondern auch die ungefähre spärliche Verteilung von magnetischen Flusslinien im Raum simulieren kann. Es wird auch eine Anwendung vorgestellt, die den vorgeschlagenen Ansatz nutzt, die es den Schülern ermöglicht, die Magnete frei und interaktiv im 3D-Raum zu bewegen und die magnetischen Flusslinien in Echtzeit zu beobachten. Ein Experiment wird durchgeführt, um die Anwendung zu bewerten, und das Ergebnis zeigt, dass die Anwendung, die das vorgeschlagene Verfahren verwendet, das unsichtbare physikalische Phänomen des 3D-Magnetfelds visualisieren kann, das erhebliche zusätzliche Lerneffekte für die Schüler hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9917-6_65 f8c3c7076967b63b10f0c81fc67ec96f;de;;;5.3.;;;Schutz der Standortdaten für semantische Anwendungen Mit der zunehmenden Nutzung von standortbasierten Diensten hat der Standortdatenschutz in letzter Zeit ernsthafte Bedenken aufgeworfen. Um einen Benutzer vor der Identifizierung zu schützen, wird ein getarnter räumlicher Bereich, der andere;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45670-5_13 ff59c4171561f4e48619c968ebd7f71c;de;;;5.3.;;;Schätzung menschlicher Emotionen mit Wavelet-Transformation und t-ROIs für die Fusion von sichtbaren Bildern und Wärmebildsequenzen Die meisten Studien zur Einschätzung menschlicher Emotionen konzentrieren sich auf die auf sichtbaren Bildern basierende Analyse, die empfindlich auf Beleuchtungsänderungen reagiert. Unter unkontrollierten Betriebsbedingungen verschlechtert sich die Schätzgenauigkeit erheblich. In diesem Papier integrieren wir sowohl sichtbare Bilder als auch thermische Bildsequenzen. Erstens wenden wir thermische Bereiche von Interesse (t-ROIs) auf Sequenzen von Wärmebildern an, um die Einschränkungen von thermischen Infrarot (IR)-Bildern zu beheben, z. B. dass sie für Brillen undurchlässig sind. Dann wird eine Wavelet-Transformation auf sichtbare Bilder angewendet. Zweitens werden Merkmale ausgewählt und aus sichtbaren Merkmalen und thermischen Merkmalen verschmolzen. Drittens wird die Fusionsentscheidung unter Verwendung der Hauptkomponentenanalyse (PCA), der Eigenraummethode basierend auf Klassenmerkmalen (EMC), PCA-EMC angewendet. Experimente mit der Datenbank Kotani Thermal Facial Emotion (KTFE) zeigen die Wirksamkeit der vorgeschlagenen Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09153-2_17 111eb8a1a56cb143ca79458398812857;de;;;5.3.;;;Eine GIS-basierte Simulation zur Vorhersage der GPS-Verfügbarkeit entlang der Teheran Road in Seoul, Korea Die Verfügbarkeit von GPS (Global Positioning System) ist in städtischen Gebieten etwas eingeschränkt, da Teile der Signale durch Hindernisse wie Gebäude blockiert, reflektiert und gebeugt werden. Dies ist durch eine Reihe von Vor-Ort-Vermessungen gut bekannt, und neuere GIS-Ansätze (Geographic Information System) simulieren auch die städtische GPS-Verfügbarkeit unter Verwendung von 3-D (dreidimensionalen) Geländedaten. Eine solche Simulation für Wolkenkratzergebiete in Seoul, Korea, wurde jedoch noch nicht gemeldet. Daher haben wir ein GIS-basiertes Vorhersagemodell erstellt, um die GPS-Verfügbarkeit in Bezug auf LOS (Line of Sight) und DOP (Dilution of Precision) zu analysieren und eine Simulation für die Teheran Road in Seoul nach Zeit und Ort durchgeführt. Unser Vorhersagemodell kann raumzeitliche Aspekte der GPS-Verfügbarkeit aufzeigen und anwenden, um zu untersuchen, wann und wo die Navigationsdienste in dicht besiedelten Stadtgebieten nutzbar sind.;-;-;-;https://link.springer.com/article/10.1007/s12205-008-0401-9 f64d8e3d1d5f91d70249cb1302640173;de;;;5.3.;;;Modellierung von Echtzeitdaten und Kontextinformationen aus Workouts in eCoaching-Plattformen, um das Sharing-Verhalten der Nutzer auf Facebook vorherzusagen eCoaching-Plattformen haben sich zu leistungsstarken Tools entwickelt, um Benutzer in ihren täglichen körperlichen Routinen zu unterstützen. Immer mehr Forschungsarbeiten zeigen, dass Motivationsfaktoren eng mit der Neigung der Nutzer verknüpft sind, ihre Fitnessleistungen auf Social-Media-Plattformen zu teilen. In diesem Artikel gehen wir das Problem der Analyse und Modellierung von Kontextinformationen und Echtzeit-Trainingsdaten von Benutzern an, indem wir modernste Klassifizierungsalgorithmen nutzen, um vorherzusagen, ob ein Benutzer sein aktuelles Lauftraining auf Facebook teilt. Durch die Analyse der Leistung des Benutzers, die mit einer eCoaching-Plattform für Läufer gesammelt wurde, und die Verknüpfung mit Kontextinformationen wie dem Wetter, können wir mit hoher Genauigkeit vorhersagen, ob der Benutzer auf Facebook posten wird oder nicht. Angesichts der positiven Auswirkungen, die Social-Media-Posts in diesen Szenarien haben, kann das Verständnis der Bedingungen, die einen Benutzer zum Posten führen oder nicht, das Ergebnis des Klassifizierungsprozesses in umsetzbares Wissen verwandeln. Dieses Wissen kann innerhalb von eCoaching-Plattformen genutzt werden, um das Nutzerverhalten breiter und tiefer zu modellieren, neue Interventionsformen zu entwickeln und die Motivation der Nutzer langfristig zu fördern.;-;-;-;https://link.springer.com/article/10.1007/s11257-019-09229-4 5c8e74e3d6c8419b4cc0d27f40f81a03;de;;;5.3.;;;Kollaboratives Lernen von Angesicht zu Angesicht durch Verbesserung des Austauschs von Sichtweisen von Lernmaterialien Beim kollaborativen Lernen von Angesicht zu Angesicht entwickeln die Lernenden in einer kleinen Gruppe eine Auseinandersetzung über ein gemeinsames Lernthema, um das Thema tiefer zu verstehen. Um ein überzeugenderes Argument zu bilden, ist oft ein Einzelstudium erforderlich, bei dem die Lernenden vor der gemeinsamen Lernsitzung zusätzliche Materialien zu dem Thema studieren. Für Lernende ohne ausreichende argumentative Fähigkeiten ist es jedoch schwierig, erlerntes Wissen, das im Einzelstudium erworben wird, in eine Argumentation einfließen zu lassen. Aus diesem Grund haben wir ein System entwickelt, das das kollaborative Lernen von Angesicht zu Angesicht unterstützt, indem es den Austausch von Sichtweisen von Lernmaterialien verbessert. Das vorgeschlagene System bietet den Lernenden während der Diskussion des Themas visuelle Darstellungen verschiedener Standpunkte jedes Lernmaterials. In unserem Experiment haben wir die Nützlichkeit des vorgeschlagenen Systems bestätigt, indem wir es mit kollaborativen Lernsitzungen ohne System verglichen haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-2618-8_15 f38be30ae0f1aa6ad963e110dccc65a9;de;;;5.3.;;;Untersuchung des Eintauchens von Kindern in ein hochverkörpertes vs. niedrigverkörpertes digitales Lernspiel in einem authentischen pädagogischen Umfeld Frühere Forschungen haben bestätigt, dass spielbasiertes Lernen vom Grad der erreichten Immersion abhängt, nämlich dem Grad, in dem Kinder sich kognitiv und emotional mit einem bestimmten digitalen Lernspiel beschäftigen. Mit dem Aufkommen verkörperter digitaler Lernspiele sind Forscher davon ausgegangen, dass die Angebote dieser Spiele für bewegungsbasierte Interaktion die erfahrene Immersion noch verstärken können. Es fehlt jedoch an empirischer Forschung zur Untersuchung der immersiven Erfahrungen von Kindern in verkörperten Lernspielen, die diese Behauptung rechtfertigen. Die bestehende Forschung zum Thema Immersion ist immer noch auf stark kontrollierte Laborumgebungen beschränkt und konzentriert sich auf nicht-pädagogische, verkörperte Spiele, die hauptsächlich von jungen Erwachsenen gespielt werden. In Erweiterung der bisherigen Forschung im pädagogischen Kontext hat diese Studie das Eintauchen von Kindern in ein hochverkörpertes digitales Lernspiel, das in einen authentischen Schulunterricht integriert ist (Gruppe 1 = 24), im Vergleich zu einer niedrig verkörperten digitalen Version des Spiels (Gruppe 2 = 20 .) untersucht ). Unsere Ergebnisse bestätigten nicht frühere Hypothesen bezüglich der erlebten Immersion in digitalen Spielen mit hohem Körperumfang. Durch Interviews mit einer Teilmenge der Kinder (n = 8 pro Bedingung) wurden verschiedene (a) Medienformen, (b) Medieninhalte und (c) kontextbezogene Faktoren identifiziert, die plausible Erklärungen für die erlebte Immersion der Kinder in die zwei Bedingungen. Es werden Implikationen für die Unterstützung des Eintauchens in hochverkörperte digitale Lernspiele diskutiert, die in authentischen Bildungsumgebungen implementiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-23089-0_17 0cddc240a0c2bf77c94c403afceffda8;de;;;5.3.;;;Unterstützung des Gruppenlernens mithilfe eines digitalen Whiteboards Drei wichtige Möglichkeiten, wie das Lernen der Schüler erleichtert werden kann, sind: Sie dazu zu bringen, in Gruppen zu arbeiten, sicherzustellen, dass sie von Angesicht zu Angesicht kommunizieren können, und durch die Verwendung eines Computers. Es stellt sich die Frage, können wir alle drei gleichzeitig machen? Eine Antwort ist die Verwendung eines digitalen Whiteboards. Dieses Gerät ermöglicht es einer Gruppe von Benutzern, einen Arbeitsbereich auf geordnete Weise zu teilen, und der Computer, der das Board steuert, kann so programmiert werden, dass er das Lernen der Schüler unterstützt. Wir beschreiben einige unserer Forschungen, bei denen wir Gruppen beobachtet haben, die Whiteboards (sowohl digitale als auch nicht-digitale) verwenden, und unsere Arbeit zur Entwicklung eines Computersystems, das Lernenden in dieser Art von Umgebung hilft und sie anleitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27795-8_61 062d613f1afa96f36f9b2de82ffc6e3d;de;;;5.3.;;;Geschlechtserkennung durch Verschmelzung lokaler und globaler Gesichtsmerkmale Die menschliche Wahrnehmung des Gesichts beinhaltet die Beobachtung sowohl grober (globaler) als auch detaillierter (lokaler) Gesichtsmerkmale, um eine Person zu identifizieren und zu kategorisieren. Die Gesichtskategorisierung beinhaltet das Finden allgemeiner visueller Hinweise wie Geschlecht, Rasse und Alter, die als Vorläufer eines Gesichtserkennungssystems verwendet werden könnten, um die Erkennungsraten zu verbessern. In diesem Beitrag untersuchen wir die Verschmelzung von globalen und lokalen Merkmalen für die Geschlechterklassifizierung. Globale Merkmale werden unter Verwendung der Ansätze der Hauptkomponentenanalyse (PCA) und der diskreten Kosinustransformation (DCT) erhalten. Ein räumlicher lokaler Binärmuster-(LBP)-Ansatz, der durch einen zweidimensionalen DCT-Ansatz erweitert wurde, wurde verwendet, um die lokalen Merkmale zu finden. Die Leistungsfähigkeit des vorgeschlagenen Ansatzes wurde durch umfangreiche Experimente untersucht, die in der FERET-Datenbank durchgeführt wurden. Der vorgeschlagene Ansatz ergibt eine Erkennungsgenauigkeit von 98,16 % in der FERET-Datenbank. Vergleiche mit einigen der bestehenden Techniken haben eine deutliche Reduzierung der Anzahl der pro Bild verwendeten Merkmale gezeigt, um Ergebnisse effizienter und ohne Genauigkeitsverlust für die Geschlechterklassifizierung zu erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41939-3_48 8f24774d1a71249393c76be1081c0efa;de;;;5.3.;;;Wirkung der direkten Kommunikation im Ameisensystem In Multiagentensystemen spielt die Kommunikation zwischen Agenten eine wichtige Rolle für kooperatives Verhalten. In diesem Beitrag untersuchen wir die Wirkung der direkten Kommunikation in einem Multiagentensystem, dem Ant System (AS). Ameisenagenten bei AS führen normalerweise eine indirekte Kommunikation durch Pheromone durch. Wir stellen den Mechanismus vor, dass Ameisen direkt mit benachbarten Ameisen kommunizieren, sodass die Informationen jeder Ameise ausgetauscht werden können. Als experimentelle Ergebnisse haben die AS mit direkter Kommunikation bessere Lösungen als herkömmliche AS erhalten. Wenn die Ameisen jedoch eine übermäßige Reichweite der direkten Kommunikation haben, wird die Suchleistung schlechter. Wir haben gezeigt, dass lokale Kommunikation effektiv ist, um Lösungen zu finden und gleichzeitig ein Gleichgewicht zwischen Zentralisierung und Diversifizierung der Aktion der Ameisen zu finden. Für die effektive Suche ist es wichtig, die Reichweite der direkten Kommunikation entsprechend einzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/11552413_132 c3d8dde30400f7d128a2840d55d21a38;de;;;5.3.;;;Virtual-Reality-Therapie zur Behandlung psychischer Störungen Virtual Reality Therapy (VRT) ist eine neue innovative Therapieform, die es Klienten ermöglicht, in eine computergenerierte virtuelle Welt einzutreten, um Angst auslösenden Reizen ähnlich ihren Erfahrungen in der realen Welt ausgesetzt zu sein. VRT ist zu einer wichtigen Behandlungsalternative für Psychologen geworden, Wissenschaftler haben VRT für kognitive Therapien und strukturelle Desensibilisierung von Patienten mit einer Vielzahl von psychischen Störungen eingesetzt. Eine wegweisende Anwendung der VRT war ihre Anwendung bei der Behandlung von phobischen Störungen. Mit geeigneten Techniken und Vorkehrungen können Wissenschaftler Experimente durchführen, die Ergebnisse liefern, die darauf hindeuten, dass VRT eine nützliche Ergänzung oder ein Ersatz für traditionelle Therapietechniken ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23736-7_27 285dae6ed02bee1d25cb5bdb7865f611;de;;;5.3.;;;Herstellung von Affinitätssorbentien auf Basis monoklonaler Antikörper gegen Baumwollpflanzenmembranproteine Ein Immunsorbens wurde durch Konjugieren von mcABs 2C8.C7 an Membranproteine ​​aus Baumwollsämlingen mit BrCN-Sepharose 4B erhalten. Als Ergebnis der Affinitätschromatographie der gesamten lektinähnlichen Proteine ​​der Baumwollpflanze an diesem Sorbens wurden zwei Fraktionen von Polypeptiden isoliert und diese einer elektrophoretischen Analyse unterzogen.;-;-;-;https://link.springer.com/article/10.1007/BF02336101 00e51df8d751b003251fd8769b709d24;de;;;5.3.;;;Emotionsanalysemethode unter Verwendung des physiologischen Zustands Wir schlagen eine Methode vor, um die Emotion des Klienten aus dem Inhalt des Dialogs und den körperlichen Zuständen des Klienten zu berechnen. Zunächst analysiert das System die Äußerungen des Klienten grammatikalisch und berechnet den Präferenzgrad für die einzelnen Rahmenelemente des Falles. Das System extrahiert außerdem 20 Merkmale aus vier physiologischen Signalen (Blutdruck, Hautleitfähigkeit, Atmung und Herzfrequenz), basierend auf Picards Forschung. Beide Daten werden in ein paralleles neuronales Netz vom Sandglastyp eingegeben, um die Freude/Unlust des Benutzers für den Satz zu berechnen. Dann klassifiziert es die Freude/Unlust in 20 Emotionen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30133-2_26 244b4eb0f8af3381fa8908d848dcea0d;de;;;5.3.;;;Geschlechtserkennung aus Gesichtsbildern mit dyadischer Wavelet-Transformation und lokalem Binärmuster Bei biometrischen Anwendungen spielt die Geschlechtserkennung aus Gesichtsbildern eine wichtige Rolle. In diesem Artikel haben wir die Dyadische Wavelet-Transformation (DyWT) und das Local Binary Pattern (LBP) zur Geschlechtserkennung untersucht. DyWT ist eine mehrskalige Bildtransformationstechnik, die ein Bild in eine Anzahl von Teilbändern zerlegt, die die Merkmale in unterschiedlichen Maßstäben trennen. Andererseits ist LBP ein Texturdeskriptor und repräsentiert die lokalen Informationen besser. Außerdem ist DyWT eine Art translationsinvariante Wavelet-Transformation, die ein besseres Erkennungspotential als DWT (Discrete Wavelet Transform) hat. Wir verwenden sowohl DyWT als auch LBP und schlagen eine neue Technik der Gesichtsdarstellung vor, die für die Geschlechtserkennung besser geeignet ist. DyWT basiert auf Spline-Wavelets. Wir haben eine Reihe von Spline-Wavelets untersucht, um die besten Spline-Wavelets für die Geschlechtserkennung zu finden. Durch eine große Anzahl von Experimenten, die in der FERET-Datenbank durchgeführt wurden, berichten wir über die beste Kombination von Parametern für DyWT und LBP, die zu maximaler Genauigkeit führt. Das vorgeschlagene System übertrifft die modernen Ansätze zur Geschlechtsanerkennung, es erreicht eine Anerkennungsrate von 99,25 % in der FERET-Datenbank.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33191-6_40 f91f57d58ae2086d565ea245f988c133;de;;;5.3.;;;Die Virtual-Reality-Ausbildung auf die nächste Stufe heben – Remote Laboratories durch Mixed Reality erleben Technische Universitäten setzen immer mehr auf die ingenieurwissenschaftliche Ausbildung als Hauptfach. Mit der Integration verschiedener innovativer Anwendungsfelder in das Curriculum angehender Ingenieurinnen und Ingenieure steigt auch der Bedarf an entsprechenden Bildungsangeboten im Studium. Im Gegensatz zu rein theoretischen Studiengängen wie Physik, Mathematik oder Informatik setzt die Ingenieurausbildung weitgehend auf die Integration praktischer Anwendungsfälle in den Ausbildungsprozess. Allerdings ist nicht jede Hochschule in der Lage, für alle Anwendungen im Ingenieurbereich technische Demonstratoren oder Labore bereitzustellen. Ziel der vorliegenden Arbeit ist es daher, eine Methode vorzuschlagen, die den Besuch verschiedenster Ingenieurlabore auf Basis von Virtual Reality ermöglicht. Ein Virtual-Reality-Simulator wird verwendet, um entfernte Labore zu erstellen und zu emulieren, die sich an beliebigen Orten weit entfernt von ihrer Virtual-Reality-Darstellung befinden können. Auf diese Weise ermöglichen wir durch die Verschmelzung von realen Demonstratoren mit virtuellen Umgebungen eine physikalisch und technisch genaue Simulation verschiedener Engineering-Anwendungen. Der Machbarkeitsnachweis wird durch die Durchführung und Erprobung eines Laborexperiments erbracht, das aus zwei sechsachsigen Robotern besteht, die kollaborative Aufgaben ausführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-42620-4_23 f59b98c0c8d4c742fe1ce9336b1ae32a;de;;;5.3.;;;Verteilte Kognition und gemeinsame Aktivität in der Computersystemverwaltung Die Fehlerbehebung bei großen Computersystemen ist oft sehr kollaborativ. Da diese Systeme aus komplexen Infrastrukturen mit vielen voneinander abhängigen Komponenten bestehen, wird das Know-how auf Menschen und Organisationen verteilt. Diejenigen, die solche Systeme verwalten, sehen sich bei der Fehlerbehebung in Zusammenarbeit mit Kollegen, technischem Support und Softwareanwendungsentwicklern mit kognitiven und sozialen Herausforderungen konfrontiert, einschließlich der Schaffung einer gemeinsamen Basis und der Koordination der Aufmerksamkeit. Um diese Aspekte der Verwaltungsarbeit zu untersuchen, verwenden wir einen verteilten Kognitionsansatz zur Interpretation einer bestimmten Instanz der Problemlösung bei der Verwaltung eines webbasierten Systems und untersuchen die Bewegung von Repräsentationszuständen über Medien in einer einzigen Systemadministratorumgebung. Wir wenden die Idee des Sprachgebrauchs auch als gemeinsame Aktivität an, um zu verstehen, wie Diskursattribute beeinflussen, was kollaborativ erreicht wird. Unsere Analyse konzentriert sich auf den Informationsfluss zwischen Teilnehmern und anderen Quellen und wie sich diese darauf auswirken, welche Informationen bearbeitet, übertragen und verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84628-901-9_6 c030a2fce82cac7b9da24622f1729229;de;;;5.3.;;;Ein adaptives Fehlererkennungs-Wiederherstellungs-QOS für intelligente Kontexterkennung: AEDRQ Dieses Papier stellt das Design des AEDRQ (An Adaptive Fault Tolerance QOS) vor, das auf RCSM (Reconfigurable Context Sensitive Middleware) für allgegenwärtige Netzwerke läuft. Das AEDRQ-Modell wird vorgeschlagen, um die Erkennung und Wiederherstellung von QoS-Ressourcenfehlern in der situationsbezogenen Middleware zu unterstützen. Das AEDRQ-Modell erfasst die Beziehungen zwischen Anwendungsmissionen, Aktionen, QoS-Anforderungen und Ressourcen unter sich dynamisch ändernden Situationen. Es wird ein Algorithmus zur Erkennung und Wiederherstellung von Ressourcenfehlern vorgeschlagen, der das AEDRQ-Modell verwendet. Wir präsentieren die Nützlichkeit des AEDRQ-Modells in einem QoS-Ressourcenfehlererkennungs-Wiederherstellungsbeispiel des VOD-Systems. Wir sind dabei, Middleware-Komponenten wie den Ressourcenagenten, den Ressourcenüberwachungsagenten und den Fehlertoleranz-QoS-Agenten unter Verwendung des Fehlererkennungs-Wiederherstellungsmodells und seiner Spezifikation zu erstellen. Um die erforderliche Zuverlässigkeit von Multimedia-Kommunikationssystemen sicherzustellen, besteht AEDRQ aus 3 Schritten, nämlich einer Fehlererkennung, einer Fehlerklassifizierung und einer Fehlerbehebung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-37256-1_130 875382f06d426edfe7d3b7acc5956096;de;;;5.3.;;;DHT-basiertes Cross-Transmission Protocol-Peer-to-Peer-Ressourcenfreigabemodell In diesem Papier wird ein DHT-basiertes Cross-Transmission-Protokoll-P2P-Resource-Sharing-Modell vorgeschlagen, um das Verbindungs- und Interkommunikationsproblem in P2P-Systemen anzugehen, wobei das DHT-Netzwerk die Ressourceninformationen für jedes P2P-System speichert. Peer im Modell können an Multi-P2P-Systemen teilnehmen und auf intelligente Weise die gleichen Ressourcen zwischen ihnen herausfinden. Durch das parallele Herunterladen von Dateien von Multi-P2P-Systemen kann das Modell wesentliche Funktionen für das Originalsystem bereitstellen, wie z. B. die Reduzierung der Reaktionslatenz des Benutzers, die Minimierung der Dateidownloadzeit und die Bereitstellung von Quality of Services (QoS)-Garantien. Simulationsergebnisse zeigen, dass das Modell im Vergleich zu aktuellen P2P-Systemen eine bessere Systemrobustheit, Skalierbarkeit und Benutzererfahrung aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35211-9_68 e57d18d14e83db443a471d07db03c9a5;de;;;5.3.;;;Forschung und Implementierung eines interaktiven digitalen 3D-Campus basierend auf einer räumlichen Datenbank Immersion und Interaktivität sind die Hauptmerkmale der Virtual-Reality-Technologie. Es gibt dem Benutzer die reale Welterfahrung jenseits des Zweidimensionalen. Dieser Artikel konzentriert sich auf die beteiligten Schlüsseltechnologien und deren Prinzipien und Anwendungen bei der Etablierung einer dynamisch modifizierten bis tiefgehenden 3D-Interaktion des Digitalen Campus-Systems. Diese Technologien umfassen Modellierung, Szenenerzeugungstechnologie und interaktive Technologie. Ihre Interaktion mit den Systemfunktionen und der Benutzererfahrung sind eng miteinander verbunden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23235-0_83 e2a7fb2f91e996f6377679b7a861a1d2;de;;;5.3.;;;Effiziente Planung kostengünstiger beliebter Dienste über ein DVB-SH/3G-Netzwerk Netze der vierten Generation sind das Ergebnis der Konvergenz der verschiedenen bestehenden Technologien, die von ihren komplementären Eigenschaften profitieren. In diesem Zusammenhang hat sich die neuere Forschung mit Digital Video Broadcast (DVB)-Netzwerken befasst und versucht, sie mit komplementären Netzwerken zu koppeln. In unserer Arbeit koppeln wir DVB-SH mit einem 3G-Netz und stellen so einen bidirektionalen Interaktivitätspfad bereit. DVB-SH profitiert von einer sehr hohen Bandbreitenkapazität, die die Ausstrahlung von unidirektionalen IP-TV-Kanälen ermöglicht. Eine Restbandbreite im DVB-SH-Pfad kann aufgrund der variablen Bitraten der bedienten Ströme noch verfügbar sein. In unserer Arbeit konzentrieren wir uns auf diese Restbandbreite. Wir realisieren eine effiziente Umschaltung einiger beliebter 3G-Dienste auf die Restbandbreite von DVB-Netzwerken. Ziel ist es, interaktive Low-Cost-Dienste über DVB-Netze bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14171-3_13 1e192aa6488cc06dbf86b8bdf59baa91;de;;;5.3.;;;Ein anwenderorientierter Ansatz zur Auswertung und Dokumentation eines morphologischen Analysators Dieser Artikel beschreibt einen anwenderorientierten Ansatz, um einen morphologischen Analysator im Hinblick auf normative Beschreibungen von ISO und EAGLES zu evaluieren und umfassend zu dokumentieren. Während der aktuelle Stand der Technik in diesem Bereich oft eine aufgabenbasierte Auswertung beschreibt, erwarten unsere Nutzer (angeblich eher NLP-Nicht-Experten, anonyme Nutzung des Tools im Rahmen eines Webservices) eine umfangreiche Dokumentation des Tools selbst, die testsuite, die zur Validierung verwendet wurde, und die Ergebnisse des Validierungsprozesses. ISO und EAGLES bieten einen guten Ausgangspunkt, um zu bewertende Attribute zu finden. Die in diesem Artikel vorgestellte Dokumentation beschreibt den Analysator auf eine mit anderen vergleichbare Weise, indem seine Funktionen als Attribut-Wert-Paare (kodiert in DocBook XML) definiert werden. Darüber hinaus werden die Evaluation selbst und ihre Ergebnisse beschrieben. Alle Dokumentationen und die erstellten Testsuiten sind online und kostenlos nutzbar:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23138-4_4 7770c475fc69dd0a094c8ded8a5ff1e5;de;;;5.3.;;;Eine neue Methodik der QoS-Evaluierung und Dienstauswahl für Ubiquitous Computing Ubiquitous Computing (UbiComp) hat sich zu einem neuen Rechenmodell in Computersystemen entwickelt. Die Merkmale von UbiComp, wie Kontextbewusstsein, Mobilität und Ressourcenbeschränkung, stellen die Serviceinfrastruktur jedoch vor Herausforderungen, um eine effektive Servicebereitstellung zu gewährleisten. In diesem Papier stellen wir eine Reihe benutzerorientierter Modelle und Methoden vor, die eine dynamische Quality of Service (QoS)-Bewertung und adaptive Serviceauswahl für UbiComp unterstützen: 1) Wir schlagen ein benutzerorientiertes QoS-Modell mit hierarchischer Struktur vor, um Skalierbarkeit und Flexibilität zu erreichen , 2) Ein erweitertes Kontextmodell mit Zeitdimension wird bei der QoS-Bewertung verwendet, 3) Um die Gewichte von Qualitätskriterien zu erfassen, entwerfen wir ein Benutzerpräferenzmodell basierend auf linguistischen Variablen, 4) Wir modellieren auch QoS-Bewertung und Dienstauswahl als Kombination der logischen Inferenz erster Ordnung und der hierarchischen Fuzzy-Logik-Auswertung. Eine Fallstudie wird vorgestellt, um die Wirksamkeit unseres Ansatzes zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/11814856_9 c8fba1d6c569144ddc2865d876d7a8f5;de;;;5.3.;;;Edge Video CDN: Eine Hotspot-Lösung für WLAN-Inhalte Das Aufkommen von Smart Edge-Network-Content-Item-Hotspots, die mit riesigem Speicherplatz (z. B. mehreren GB) ausgestattet sind, eröffnet die Möglichkeit, die Möglichkeit der Bereitstellung von Videos im Edge-Netzwerk zu untersuchen. Anders als sowohl das herkömmliche Content Item Delivery Network (CDN) als auch das Peer-to-Peer (P2P)-Schema erfordert dieses neue Bereitstellungsparadigma, nämlich Edge-Video-CDN, bis zu Millionen von Edge-Hotspots, die sich zu Hause/im Büro der Benutzer befinden koordiniert verwaltet, um mobiles Video-Content-Element bereitzustellen. Insbesondere beim Aufbau von Edge-Video-CDN sind zwei Herausforderungen zu bewältigen, darunter die Art und Weise, wie Edge-Inhaltselement-Hotspots organisiert werden sollten, um Benutzern zu dienen, und wie Inhaltselemente an sie an verschiedenen Standorten repliziert werden sollten, um Benutzern zu dienen. Um diesen Herausforderungen zu begegnen, schlagen wir unser datengesteuertes Design wie folgt vor. Zuerst formulieren wir ein Randbereichspartitionsproblem, um gemeinsam die von den Benutzern erfahrene Qualität zu maximieren und die Replikationskosten zu minimieren, die von Natur aus NP-schwer sind, und wir entwerfen einen Voronoi-ähnlichen Partitionsalgorithmus, um optimale Dienstzellen zu erzeugen. Zweitens schlagen wir zum Replizieren von Inhaltselementen zu Inhaltselement-Hotspots im Edge-Netzwerk eine auf Edge-Anforderungsvorhersage basierende Replikationsstrategie vor, die die Replikation in einer Weise mit Serverspitzenauslastung durchführt. Wir implementieren unser Design und verwenden spurgesteuerte Experimente, um seine Wirksamkeit zu überprüfen. Im Vergleich zu herkömmlichem zentralisiertem CDN und Popularitäts-basierter Replikation kann unser Design die Erlebnisqualität der Benutzer in Bezug auf die wahrgenommene Bandbreite und Latenz der Benutzer um bis zu 40 % erheblich verbessern.;-;-;-;https://link.springer.com/article/10.1007/s11390-016-1683-x 2142c400562043c6f75d5666f9e1b1c6;de;;;5.3.;;;Proaktive Kommunikation im Human-Agent-Teaming lernen Künstlich intelligente Agenten arbeiten zunehmend mit Menschen in Human-Agent-Teams zusammen. Der rechtzeitige proaktive Austausch relevanter Informationen innerhalb des Teams trägt zur Gesamtleistung des Teams bei. Dieses Papier präsentiert einen maschinellen Lernansatz zur proaktiven Kommunikation in KI-Agenten unter Verwendung von Kontextfaktoren. Proaktive Kommunikation wurde in zwei aufeinanderfolgenden experimentellen Schritten erlernt: (a) Multi-Agent-Team-Simulationen, um effektives kommunikatives Verhalten zu erlernen, und (b) Mensch-Agent-Team-Experimente, um die Kommunikation für ein menschliches Teammitglied zu verfeinern. Die Ergebnisse bestehen aus proaktiven Kommunikationsrichtlinien zur Kommunikation von Überzeugungen und Zielen innerhalb von Mensch-Agenten-Teams. Agenten lernten, minimale Kommunikation zu verwenden, um die Teamleistung in der Simulation zu verbessern, während sie im Mensch-Agenten-Team-Experiment spezifischere sozial wünschenswerte Verhaltensweisen lernten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-51999-5_20 147ffc99f8a5a77bb0beb70cc31157b9;de;;;5.3.;;;Analyse der wirtschaftlichen Auswirkungen von Online-Rezensionen: Ein Ansatz für eine marktgetriebene Anforderungsentwicklung Als neuartige Marktdaten können Online-Bewertungen Nutzeranforderungen in realen Nutzungskontexten manifestieren. Dabei schlägt dieses Papier einen bedarfsorientierten Ansatz für die Anforderungsentwicklung durch das Mining und Analysieren von Online-Rezensionen vor. In unserem Ansatz ist es eine Herausforderung, die Genauigkeit von Opinion-Mining-Techniken für riesige Mengen verrauschter Überprüfungsdaten zu verbessern. Darüber hinaus ist die quantitative Bewertung der wirtschaftlichen Auswirkungen von Benutzermeinungen zur Bestimmung von Änderungen der Kandidatenanforderungen ebenfalls ein herausforderndes Problem. In diesem Beitrag wird eine durch Noise-Pruning-Techniken ergänzte Opinion-Mining-Methode vorgestellt, um Benutzermeinungen automatisch zu extrahieren. Nach automatischer Synthese der extrahierten Informationen wird ein nutzenorientiertes ökonometrisches Modell eingesetzt, um kausale Einflüsse zwischen den in Nutzermeinungen häufig genannten Systemaspekten und gängigen Nutzeranforderungen zur Überarbeitung aktueller Anforderungen zu finden. Eine Fallstudie zeigt, dass die vorgestellte Methode des Opinion Mining auch bei einer großen Menge verrauschter Review-Daten eine gute Genauigkeit und Erinnerungsvermögen erreicht. Die Fallstudie bestätigt auch die Wirksamkeit unseres Ansatzes, indem sie die Änderungen der Kandidatenanforderungen in Bezug auf den Softwareumsatz aufdeckt, insbesondere diejenigen, die von Softwareentwicklern ignoriert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-43610-3_4 3e7f2842fb48a765a0958b54a850f74d;de;;;5.3.;;;Pirateriekontrolle mit sicheren Datenträgern Es wurde viel Geld und Mühe investiert, um die unbefugte Weitergabe von urheberrechtlich geschützten Inhalten zu kontrollieren, aber das Problem besteht weiterhin. In diesem Whitepaper wird eine Methode zur Kontrolle und Begrenzung der Festplattenduplizierung vorgestellt. Bei diesem Verfahren wurden Vertraulichkeits- und Authentizitätsmaßnahmen verwendet, um sicherzustellen, dass die Platte, wenn sie kopiert wird, zu einer unbrauchbaren und nicht authentischen Kopie führt. Es stellt auch sicher, dass jeder Versuch, den Inhalt des Datenträgers während des Kopierens zu manipulieren, ebenfalls zu einer unbrauchbaren Kopie des Datenträgers führt. Das Verfahren erfordert jedoch die Erfüllung von zwei Bedingungen: Erstens wird die Platte auf speziellen physischen Laufwerken abspielbar und die Platte wird dem autorisierten Endbenutzer in eingeschränkter Weise zur Verfügung gestellt. In diesem Papier wird auch erwähnt, dass der beschriebene Ansatz ein allgemeiner Ansatz ist und verschiedene Hersteller von Platten und Plattenspielern sicherlich kompatibel sein können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44966-0_41 3c48320efd52beae301d683177d4bff1;de;;;5.3.;;;Mobiles Lernen in gesundheitsbezogenen Disziplinen (2009–2018): Eine Überprüfung von Fallstudien mit dem FRAME-Modell In den letzten zehn Jahren hat sich mobiles Lernen zu einem der Mainstream-Kanäle für die Bereitstellung von Bildung in verschiedenen Disziplinen entwickelt. Die gesundheitsbezogene Bildung ist ein Bereich, der aufgrund seiner unterschiedlichen Lernumgebungen, wie Klassenzimmer, Labore und Stationen, als geeignet für den Einsatz mobiler Geräte angesehen wird. Dieses Papier präsentiert einen umfassenden Überblick über die Fallstudien zum mobilen Lernen in gesundheitsbezogenen Disziplinen im Zeitraum 2009–2018. Der Rahmen für die rationale Analyse der mobilen Bildung (FRAME) (Koole;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9895-7_17 be5fae528a04f31acbc3d4e9005c69ff;de;;;5.3.;;;Nutzung von Cloud-Infrastrukturen für den Unterricht fortgeschrittener Computertechnik-Klassen Im Rahmen des Problembasierten Lernens (PBL) spielen praktische Aktivitäten eine entscheidende Rolle, um den Studierenden den Erwerb von Fähigkeiten und Kompetenzen zu ermöglichen. PBL eignet sich besonders für die Vermittlung von weiterführenden Kursen zu Themen wie Künstliche Intelligenz, Cloud Computing und Big Data. Um praktische Tätigkeiten durchführen zu können, benötigen die Studierenden möglicherweise spezielle Computer- und Speicherinfrastrukturen, die in den Laboren möglicherweise nicht physisch verfügbar sind. Daher werden Virtualisierungstools und Cloud Computing häufig für den Aufbau von Virtual Lab zu Lehrzwecken eingesetzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-67435-9_20 95225a592a7829e131ff6ccf2dc07c80;de;;;5.3.;;;Eine neuartige automatische Lippenlesemethode basierend auf polynomialer Anpassung Dieses Papier befasst sich mit dem Problem der Erkennung von Einzelnummern, die nur visuelle Informationen verwenden. Wir verwenden die Intensitätstransformation und den Raumfilter, um das kleinste umschließende Rechteck des Mundes in jedem Frame zu schätzen. Für jede Äußerung erhalten wir die beiden Vektoren, die sich aus Breite bzw. Höhe des Mundes zusammensetzen. Dann präsentieren wir ein Verfahren zum Erkennen der Sprache basierend auf der Polynomanpassung. Zunächst werden sowohl Breiten- als auch Höhenvektoren normiert und durch Interpolation in die konstante Länge gebracht. Zweitens wird die Methode der kleinsten Quadrate verwendet, um zwei Polynome 3. Ordnung zu erzeugen, die jeweils den Haupttrend der beiden Vektoren darstellen und das durch den Schätzfehler verursachte Rauschen reduzieren können. Schließlich werden die Positionen von drei entscheidenden Punkten (d. h. Maximum, Minimum und rechter Randpunkt) in jeder Polynomkurve 3. Ordnung als Merkmalsvektor gebildet. Für jede Äußerung berechnen wir den Durchschnitt aller Vektoren von Trainingsdaten, um eine Vorlage zu erstellen, und verwenden den euklidischen Abstand zwischen der Vorlage und den Testdaten, um die Klassifizierung durchzuführen. Experimente zeigen die vielversprechenden Ergebnisse des vorgeschlagenen Ansatzes im Vergleich zu den bestehenden Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15470-6_31 6ad8f58327f31337ff4232cec169e458;de;;;5.3.;;;Beim Erstellen eines Visualisierungstools für Zugriffskontrollrichtlinien Eine Zugriffskontrollrichtlinie besteht normalerweise aus einem strukturierten Satz von Regeln, die beschreiben, wann ein Zugriff auf eine Ressource erlaubt oder verweigert werden sollte, basierend auf den Attributen der verschiedenen an der Zugriffsanforderung beteiligten Entitäten. Eine Richtlinie mit einer großen Anzahl von Regeln und Attributen kann schwer zu navigieren sein, was das Bearbeiten und Beheben von Richtlinien zu einer komplexen Aufgabe macht. In einigen Kontexten sind Visualisierungstechniken bekanntermaßen hilfreich, wenn es um ähnliche Komplexitätsgrade geht, jedoch ist das Finden einer nützlichen visuellen Darstellung ein langer Prozess, der Beobachtung, Vermutung, Prüfung und Verfeinerung erfordert. In diesem Paper berichten wir über den Designprozess eines Visualisierungstools für Zutrittskontrollrichtlinien, der zum Tool VisABAC führte. Wir präsentieren zunächst einen umfassenden Überblick über die vorhandene Literatur, gefolgt von der Beschreibung des partizipativen Designs für VisABAC. Anschließend beschreiben wir VisABAC selbst, ein Tool, das;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-25109-3_12 abd3d369a1cc05fda02e8ec9552fbe99;de;;;5.3.;;;Situationsbewusstsein in industriellen Steuerungssystemen Dieses Kapitel behandelt Situation Awareness (SA) – Wissenschaft, Technologie und Praxis der menschlichen Wahrnehmung, des Verständnisses und der Projektion von Ereignissen und Entitäten in der relevanten Umgebung – in unserem Fall Cyber-Abwehr von ICS. Das Kapitel befasst sich mit dem Umfang von SA und seiner Rolle beim Erfolg der Mission, die vom Cyber-Physical-Human-System (CPHS) ausgeführt wird, und den Prozessen, die ein Industrial Control System (ICS) oder Supervisory Control and Data Acquisition (SCADA)-System unterstützt . Solche Kontrollsysteme bieten die Cyber-Physical-Mensch-Kopplungen, die zum Sammeln von Informationen von verschiedenen Sensoren und Geräten erforderlich sind, und bieten eine Berichts- und Kontrollschnittstelle für eine effektive Beteiligung des Menschen im Kreislauf an der Verwaltung und Sicherung der physischen Elemente der Produktion und der kritischen Infrastruktur. ICS-Implementierungen sind auf verschiedenen Ebenen beteiligt, die für das reibungslose Funktionieren unserer Gesellschaft erforderlich sind, einschließlich Wasserverteilung, Strom und Abwassersystemen (Smith 2014). Die Zivilgesellschaft ist auf den ordnungsgemäßen Betrieb solcher Systeme angewiesen, und böswillige Cybersicherheitsbedrohungen für ICS können großen Schaden anrichten. Die Eigenschaften von ICS-Umgebungen bringen zusätzliche Überlegungen und Herausforderungen für Verteidiger mit sich. Cybersicherheitsvorgänge erfordern normalerweise einen menschlichen Analysten, der die Netzwerkumgebung und die Angreifer versteht. Bei der Verteidigung einer ICS-Umgebung muss ein Analyst jedoch auch die physische Dimension der ICS-Umgebung verstehen. Dies stellt die Aufrechterhaltung der Cybersicherheit und SA vor ernsthafte Herausforderungen, da es die menschliche, Cyber- und physische Dimension sowie eine Vielzahl möglicher Interaktionen und Exploits umfasst. Die Aufrechterhaltung von SA ist für die Cybersicherheit eines ICS von entscheidender Bedeutung. Dieses Kapitel befasst sich mit den spezifischen Herausforderungen der physischen, Cyber- und menschlichen Dimensionen, die berücksichtigt und verstanden werden müssen, damit menschliche Analysten die Anforderungen für eine erfolgreiche Abwehr potenzieller Angriffe am besten einschätzen und verstehen können. Wir zeigen, dass diese Anforderungen als zentrale Merkmale für die Entwicklung und Wartung von SA für den Cyber-Analysten in ICS-Umgebungen definiert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-32125-7_10 6213ad00be768f62d5e79e9fa984a70d;de;;;5.3.;;;Kovariante Definitionen von Funktionsintegralen Nichtlineare Punkttransformationen spielen eine wichtige Rolle bei der Anwendung funktionaler Integrale in verschiedenen Zweigen der modernen Physik und viele Arbeiten wurden zu diesem Thema behandelt. Die erste Beobachtung, dass es Probleme mit Variablenänderungen im Pfadintegral gibt, wurde von Edwards und Gulyaev . gemacht;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1634-5_6 80dc03cf9ba87a22411aa03bf2c3e8f5;de;;;5.3.;;;Cyclische Azomethine und ihre hydrierten Derivate. (Überprüfung) Die Literaturdaten zu Synthesemethoden und chemischen Eigenschaften von cyclischen Azomethinen, hauptsächlich Isochinolin-Derivaten, wurden korreliert. Beispiele für biologisch aktive Verbindungen des 3,4-Dihydro- und 1,2,3,4-Tetrahydroisochinolins werden angegeben.;-;-;-;https://link.springer.com/article/10.1007/BF02290837 8a48a6b1e9cb7c28ab642a2e4b1efd17;de;;;5.3.;;;Die Verwendung von EDTA zur Erhöhung der Auslaugbarkeit von Schwermetallen aus der Flugasche einer Verbrennungsanlage für Siedlungsabfälle Flugasche aus Hausmüllverbrennungsanlagen stellt ein Umweltproblem dar, da sie mit Schwermetallen belastet ist. Die Schwermetalle aus Flugaschen können teilweise durch Extraktion mit einer sauren Lösung entfernt und ggf. zurückgewonnen werden. Die verbleibende Flugasche kann deponiert oder als Baumaterial verwendet werden. Der steuernde Faktor dieses Extraktionsverfahrens ist im Allgemeinen die Löslichkeit der Metallsalze auf der Flugasche. Durch Zugabe von Ethylendiamintetraessigsäure (EDTA) zur Extraktionslösung können die Löslichkeitseinschränkungen umgangen werden und die verfügbaren Schwermetalle lösen sich auch bei hohem pH-Wert auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-9664-3_22 2695f0776c95dc2d7e5531b5bead87af;de;;;5.3.;;;Bindungsmechanismus der Kompetenzsubstanz an die Rezeptorstellen der Zellwand Die Kompetenzinduktion durch die Kompetenzsubstanz wird in Gegenwart von Phytohämagglutininen stark gehemmt. Eine große Hemmwirkung zeigt sich auch, wenn die Kompetenzsubstanz mit einigen Aminozuckern vorinkubiert wird. Sowohl die Phytohämagglutinine als auch die Kompetenzsubstanz weisen eine ähnliche Bindungsaffinität zu quervernetztem Dextran (Sephadex) und zu den Zelloberflächen auf, da beide durch einige Zucker in ihrer Interaktion mit den sensitiven Zellen gehemmt werden. Es wird vorgeschlagen, dass sie an ähnliche oder identische Zellrezeptorstellen gebunden sind. Dies scheinen einige spezifische Zuckermoleküle zu sein, die einen Teil der Zellwandstrukturen der transformierbaren und induzierbaren Bakterienstämme bilden.;-;-;-;https://link.springer.com/article/10.1007/BF02876798 ef568d85ad51a7247c0044854a06a239;de;;;5.3.;;;Der narrative Aspekt des Szenariobaus – Wie Geschichtenerzählen den Menschen eine Erinnerung an die Zukunft geben kann give Szenarien sind flexible Mittel, um unterschiedliche Ideen, Gedanken und Gefühle in ganzheitliche Bilder zu integrieren und den Kontext und die Bedeutung möglicher Zukünfte bereitzustellen. Die Anwendung narrativer Szenarien im Engineering, der Entwicklung sozio-technischer Systeme oder Communities stellt ein wichtiges Bindeglied zwischen allgemeinen Ideen und der Spezifikation technischer Systemanforderungen dar. Sie konzentrieren sich darauf, wie Menschen Systeme durch kontextbezogenes Storytelling nutzen, anstatt abstrakte Beschreibungen von Anforderungen. Die Qualität von Szenarien hängt von relevanten Annahmen und authentischen Szenariogeschichten ab. In diesem Artikel werden wir untersuchen, wie der narrative Ansatz das Szenario „Skelett“ mit „Fleisch und Blut“ bereichern kann, d. h. lebendiges, detailliertes und konsistentes Geschichtenerzählen. Darüber hinaus werden Kriterien zur Bewertung der Qualität des Szenario-Storytellings vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84628-927-9_10 ff8a8274f899fda9d8e4c159c03fbf1c;de;;;5.3.;;;Experimente mit kollaborativen AR-Schnittstellen von Angesicht zu Angesicht Wir beschreiben einen Designansatz, Tangible Augmented Reality, um kollaborative Augmented Reality (AR)-Schnittstellen von Angesicht zu Angesicht zu entwickeln. Tangible Augmented Reality kombiniert Augmented Reality-Techniken mit Tangible User Interface-Elementen, um Schnittstellen zu schaffen, in denen Benutzer mit räumlichen Daten so einfach wie mit realen Objekten interagieren können. Greifbare AR-Schnittstellen heben die Trennung zwischen realer und virtueller Welt auf und verbessern so die natürliche Kommunikation von Angesicht zu Angesicht. Wir präsentieren mehrere Beispiele für Tangible AR-Schnittstellen und Ergebnisse einer Benutzerstudie, die die Kommunikation in einer kollaborativen AR-Schnittstelle mit traditionelleren Ansätzen vergleicht. Wir stellen fest, dass Menschen in einer kollaborativen AR-Benutzeroberfläche Verhaltensweisen verwenden, die der unvermittelten persönlichen Zusammenarbeit ähnlicher sind als in einer Projektionsbildschirm-Benutzeroberfläche.;-;-;-;https://link.springer.com/article/10.1007/s100550200012 353d48a21a9f68d10d0bf6c686a56d84;de;;;5.3.;;;Ereignisbasierter Dialogmanager für multimodale Systeme Das vorgeschlagene Papier stellt einen neu konzipierten und entwickelten Dialogmanager für multimodale Dialogsysteme und Robotikanwendungen vor. Es ist der verteilte ereignisgesteuerte Manager, der im gemeinsamen Datenraum arbeitet. Für den Wissensaustausch über Benutzer, Aufgaben, Trigger und Datenobjekte wurde die Lösung auf Basis des SQLite-Datenbanksystems implementiert. Der vorgeschlagene Dialogmanager ermöglicht Dialoge mit Benutzerinitiative, Systeminitiative und gemischter Initiative. Das Übergangsnetzwerk kann auch dort aufgebaut werden, wo Knoten die Dialogaufgaben darstellen und jeder Übergang die Übergangsbedingung enthalten kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10783-7_25 f9693b0bca780da2bb1826a567ff25ab;de;;;5.3.;;;Offline- und Online-Stresserkennung durch Verarbeitung des Pupillendurchmessersignals Der Pupillendurchmesser (PD), der vom autonomen Nervensystem gesteuert wird, scheint ein starker Hinweis auf affektive Erregung zu sein, wie in früheren Forschungen festgestellt wurde, aber er wurde noch nicht vollständig untersucht. In dieser Studie werden neue Ansätze vorgeschlagen, die auf der Überwachung und Verarbeitung des PD-Signals für die Offline- und Online-Differenzierung von „Entspannung“ vs. „Stress“ basieren. Für den Offline-Ansatz werden nacheinander Wavelet-Entrauschung, Kalman-Filterung, Datennormierung und Merkmalsextraktion verwendet. Für den Online-Ansatz werden ein harter Schwellenwert, ein Fenster mit gleitendem Durchschnitt und drei Stresserkennungsschritte implementiert. Um nur die zuverlässigsten Daten zu verwenden, sind zwei Arten von Datenauswahlmethoden (gepaart;-;-;-;https://link.springer.com/article/10.1007/s10439-013-0880-9 bf49d15026b3aadea473f5c0df2767e6;de;;;5.3.;;;Emotionen und intelligente Tutoren Im letzten Jahr mussten sich Schulen, Universitäten, Lehrende und Studierende wegen der Pandemie-Situation auf das Fernstudium umstellen. Die E-Learning-Situation unterscheidet sich stark von einer persönlichen Situation. Eines der Probleme des E-Learnings besteht darin, dass die Schüler mehr Verantwortung übernehmen sollten, um nicht abgelenkt zu werden. Ein weiteres Problem besteht darin, dass der Computertyp für jeden Schüler erheblich variiert. Schließlich wird die traditionelle Interaktion zwischen Lehrer, Schüler und Inhalt durch die Einführung von Technologie erschwert. Wenn neue Tools eingesetzt werden und sich die E-Learning-Ausbildung verbessert, profitieren Schüler, Lehrer und Bildungseinrichtungen davon. Emotionen spielen eine wesentliche Rolle im Wissens-, Erwerbs- und Entscheidungsprozess eines Individuums. Es gibt auch signifikante Hinweise darauf, dass rationales Lernen beim Menschen von Emotionen abhängt. In diesem Beitrag haben wir eine Lösung mit einer Intelligent Tutor Application vorgestellt, die Emotionen auf nicht-intrusive und nicht-invasive Weise analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72657-7_47 4733630e7c008e03f4f6fc6d33d215ae;de;;;5.3.;;;Computer-Workflows zur Bewertung des Lernens von Schülern Der Einsatz von Technologie für den Unterricht und die enorme Menge an Informationen, die für den Konsum zur Verfügung stehen, stellt eine erhebliche Belastung für die Lehrenden dar, die lernen müssen, angemessene Schülerpraktiken und Lernbewertungen zu integrieren. Das Projekt „Pädagogische Workflows“ entwickelt eine neuartige Workflow-Umgebung, die eine effiziente Bewertung des Lernens von Schülern durch interaktive Generierung und Ausführung verschiedener Bewertungsworkflows unterstützt. Wir konzentrieren uns insbesondere darauf, wie die Nutzung von Schülerdiskussionen mit traditionelleren Bewertungsdaten kombiniert werden kann. In diesem Papier stellen wir unsere Workflows für die Erstbewertung, das erste Feedback der Dozenten und das Benutzerportal vor, das für die Ausführung der Workflows entwickelt wird. Die Entwicklung der Workflows beinhaltet die Untersuchung dessen, was Lehrer für wichtig halten, um über ihre Schüler zu lernen, eine Frage, die für jedes intelligente Nachhilfesystem von zentraler Bedeutung ist. Wir gehen davon aus, dass Bewertungsworkflows zu einem wichtigen Werkzeug für Lehrende, Forscher und die ITS-Entwicklung werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13437-1_19 0544e1014ba20a3d5abdde1f623afd6a;de;;;5.3.;;;Automatisches Fingersign-to-Speech-Übersetzungssystem Das Ziel dieser Arbeit ist es, die Kommunikation von zwei Menschen, einer hörgeschädigten und einer sehbehinderten, zu unterstützen, indem Sprache in Fingerbuchstabierung und Fingerbuchstabierung in Sprache umgewandelt wird. Fingerbuchstabieren ist eine Teilmenge der Gebärdensprache und verwendet Fingerzeichen, um Buchstaben der gesprochenen oder geschriebenen Sprache zu buchstabieren. Unser Ziel ist es, mit Finger buchstabierte Wörter in Sprache umzuwandeln und umgekehrt. Es werden verschiedene gesprochene Sprachen und Gebärdensprachen wie Englisch, Russisch, Türkisch und Tschechisch berücksichtigt.;-;-;-;https://link.springer.com/article/10.1007/s12193-011-0059-3 0cd82be1526b483b4c947a0f84567b05;de;;;5.3.;;;Katastrophengeometrie in Physik und Biologie Im Gegensatz zur Mathematik interessieren sich die Bio- und Humanwissenschaften für das Leben und seinen Verlauf. Wenn diese Wissenschaften bisher so wenig mathematisiert sind und ungenau bleiben, so liegt das daran, dass unser unmittelbares intuitives und qualitatives Verständnis biologischer, sozialer und ökonomischer Sachverhalte völlig ausreicht, um den Lebensnotwendigkeiten gerecht zu werden. Auch in den Naturwissenschaften ist ein intuitiver, phänomenologischer Zugang zu komplexen Problemen im Allgemeinen präzisen quantitativen Methoden oft überlegen und effektiver und liegt sogar immer wieder an der Wurzel neuer Grundkonzeptionen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-80885-2_1 27b7dc188ba52541d8ef3aaff965a31c;de;;;5.3.;;;Ein Handform-Instruktionserkennungs- und Lernsystem mit wachsendem SOM mit asymmetrischer Nachbarschaftsfunktion In diesem Papier übernehmen wir eine von Aoki und Aoyagi vorgeschlagene asymmetrische Nachbarschaftsfunktion in ein PL-G-SOM, um die Lernleistung der Handform-Instruktionsperspektive und des Lernsystems zu verbessern. Die asymmetrische Nachbarschaftsfunktion wurde in einem normalen SOM verwendet und es gibt nur wenige Anwendungen. Das neuartige PL-G-SOM und seine verbesserte Version werden als AGSOM bzw. „IAGSOM“ bezeichnet. Die Wirksamkeit der vorgeschlagenen Methode wurde durch die Experimente mit 8 Arten von Anweisungen bestätigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09333-8_29 5ad61d1c12111e1622f1bb8dbbbc91a9;de;;;5.3.;;;Bewertung der Leistung von ASR-Systemen für TV-Interaktionen in mehreren häuslichen Lärmszenarien Die Sprachinteraktion mit dem Fernseher wird in häuslichen Umgebungen Realität. Einer der Faktoren, der den korrekten Betrieb dieser Systeme beeinflusst, ist jedoch das Hintergrundrauschen, das die Leistung der Komponente der automatischen Spracherkennung (ASR) behindert. Um dieses Problem weiter zu verstehen, präsentiert der Artikel eine Analyse der Leistung von drei ASR-Systemen (Bing Speech API, Google API und Nuance ASR) in mehreren häuslichen Lärmszenarien, die der Interaktion mit dem Fernseher im häuslichen Kontext ähneln. Eine Gruppe von 36 Benutzern wurde gebeten, Sätze auf der Grundlage von Fernsehanfragen zu äußern, wobei der Korpus der Sätze typische Phrasen umfasste, die bei der Interaktion mit dem Fernseher verwendet wurden. Um das Verhalten, die Leistung und die Robustheit jedes ASR gegenüber Rauschen besser zu kennen, wurden die Tests mit drei Aufzeichnungsgeräten durchgeführt, die in unterschiedlichen Abständen vom Benutzer platziert wurden. Google ASR erwies sich mit einer höheren Erkennungsgenauigkeit als am robustesten gegenüber Rauschen, gefolgt von Bing Speech und Nuance. Die erhaltenen Ergebnisse zeigten, dass die Leistung von ASR-Systemen im Allgemeinen recht robust ist, sich jedoch mit häuslichen Hintergrundgeräuschen verschlechtert. Zukünftige Replikationen des Evaluierungs-Setups werden die Evaluierung von ASR-Lösungen in anderen Szenarien ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-23862-9_12 8cc69233f5d0442925ea4d62bb733edd;de;;;5.3.;;;Dynamisches Game Level Design mit Gaussian Mixture Model In Computerspielen sind das Leveldesign und die Ausgewogenheit der Charaktereigenschaften die Schlüsselmerkmale interessanter Spiele. Leveldesigner passen die Attribute der Spielfiguren und das Verhalten des Gegners an, um geeignete Schwierigkeitsstufen zu schaffen und Frustration der Spieler zu vermeiden. Im Allgemeinen wird das Verhalten des Gegners durch ein statisches Skript definiert, dies führt jedoch zu sich wiederholenden Levels und Umgebungen, die es schwierig machen, das Interesse des Spielers aufrechtzuerhalten. Dementsprechend schlägt dieses Papier ein dynamisches Skripting-Verfahren vor, das den vom Level-Designer beabsichtigten Grad an Interesse aufrechterhalten kann, indem das Verhalten des Gegners während des Spiels angepasst wird. Das Gegenmaßnahmenmuster des Spielers für das dynamische Leveldesign wird mit einem Gaussian Mixture Model (GMM) modelliert. Die vorgeschlagene Methode wird auf ein Shooter-Spiel angewendet, und die experimentellen Ergebnisse behalten den vom Level-Designer beabsichtigten Grad an Interesse bei.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36668-3_113 84c586e528c6567a54c3cd17c23721b6;de;;;5.3.;;;Verbrennungssysteme für feste fossile Brennstoffe Kohlefeuerungsanlagen bestehen aus den Teilsystemen Brennstoffversorgung und -aufbereitung, Brennstoff- und Verbrennungslufttransport und -verteilung, der Feuerung zur Wärmefreisetzung aus dem Brennstoff und der Rauchgasreinigung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02856-4_5 29674597a2a491ef7f628b2d31e54a47;de;;;5.3.;;;Immersive Strukturbiologie: ein neuer Ansatz zur Hybridmodellierung makromolekularer Aggregate Fortschrittliche biophysikalische Bildgebungsverfahren wie Kryo-Elektronenmikroskopie oder Tomographie ermöglichen volumetrische 3D-Rekonstruktionen großer makromolekularer Komplexe in einer nahezu natürlichen Umgebung. Reine volumetrische Daten reichen jedoch für ein detailliertes Verständnis der zugrunde liegenden Protein-Protein-Wechselwirkungen nicht aus. Dieses Hindernis kann überwunden werden, indem man ein Atommodell des gesamten Proteinkomplexes aus bekannten Atomstrukturen zusammensetzt, die entweder durch Röntgenkristallographie oder Homologiemodellierung verfügbar sind. Aufgrund vieler Faktoren wie Rauschen, Konformationsvariabilität, experimentelle Artefakte und ungenaue Modellstrukturen ist bekannt, dass bestehende automatische Andockverfahren für eine signifikante Anzahl von Fällen falsch positive Ergebnisse melden. Der vorliegende Beitrag konzentriert sich auf eine neue Technik, um einen erschöpfenden Offline-Suchalgorithmus mit interaktiver Visualisierung, Kollisionserkennung und haptischem Rendering zu kombinieren. Das resultierende Softwaresystem ist hochgradig immersiv und ermöglicht es dem Benutzer, selbst schwierige Docking-Probleme mit mehreren Auflösungen effizient zu lösen. Stereoskopische Betrachtung, kombiniert mit Headtracking und Force-Feedback, erzeugt eine ideale virtuelle Umgebung für echte Interaktion mit und Lösung von hybriden biomolekularen Modellierungsproblemen.;-;-;-;https://link.springer.com/article/10.1007/s10055-009-0129-y e3a013dff79d9d9e6aee59b00cfc6811;de;;;5.3.;;;BufferBank-Speicher: ein wirtschaftliches, skalierbares und universell einsetzbares netzwerkinternes Speichermodell für Streaming-Datenanwendungen Groß angelegte Streaming-Media-Distributionsdienste bringen beispiellose Belastungen und Herausforderungen für die bestehende Internet-Architektur mit sich. Forscher haben CDN, P2P Cache, ICN und andere Lösungen vorgeschlagen, um den Druck des Kernnetzwerks zu verringern und die Benutzererfahrung (QoE) zu verbessern. Alle diese Lösungen erreichen ihre Ziele, indem sie Speicherressourcen in der Nähe der Endbenutzer bereitstellen, um die heißen Daten zwischenzuspeichern. Basierend auf den Vorteilen des P2P-Dienstes, der die Ressourcen der Endbenutzer berücksichtigt, haben wir den BufferBank Storage (BBS) vorgeschlagen. Es handelt sich um ein neues, auf die Verteilung von Streaming-Medien ausgerichtetes Speichermodell, das die Ressourcen der Endbenutzer aggregiert. Dies bietet einen neuartigen Ansatz zur Implementierung von wirtschaftlichen, skalierbaren, dynamisch bereitgestellten Streaming-Media-Verteilungsanwendungen. Der dynamische Charakter des Endbenutzerverhaltens stellt jedoch Herausforderungen an die BBS-Bezeichnung. In unserer bisherigen Arbeit haben wir das Grundprinzip von BBS und seine Machbarkeit analysiert. Es fehlt an substanzieller Forschung zu Ressourcenmanagement und Zuverlässigkeitsbewertung, die das Kernthema der BBS-Implementierung sind. Nach sorgfältiger Analyse des Zuverlässigkeits- und Sicherheitsproblems bei der BBS-Bereitstellung hat dieses Papier das Implementierungsmodell von BBS vorgeschlagen und die Leistung verschiedener Pufferzuweisungsmechanismen durch Simulation untersucht. Unsere Arbeit bietet vor allem ein neues Denken für das dynamische, universell skalierbare Speichersystem im Internet, das unter „schwacher Zuverlässigkeit“ leidet.;-;-;-;https://link.springer.com/article/10.1007/s11432-015-5299-5 163493eea3ba63f2606de62da8ff2680;de;;;5.3.;;;Tiefe aus dem Lichtfeld über Deep Convolutional Neural Network lernen Die Tiefenschätzung basierend auf der Lichtfeldabbildung ist eine neue Art der Tiefenschätzung. Die Fülle von Lichtfelddaten ebnet den Weg für Deep-Learning-Methoden, eine Rolle zu spielen. In den letzten Jahren hat das Deep Convolutional Neural Network (CNN) große Vorteile beim Extrahieren von Bildtexturmerkmalen gezeigt. Davon inspiriert entwerfen wir ein tiefes CNN mit synthetischen EPI-Bildern als Input für die Tiefenschätzung, das EENet genannt wird. Unter den Beschränkungen der epipolaren Geometrie werden Pixel, die einem gemeinsamen Objektpunkt entsprechen, in einer geraden Linie im epipolaren Ebenenbild (EPI) verteilt, und das synthetische EPI-Bild ist einfacher, Merkmale durch Faltungskernel zu extrahieren. Unser EENet hat die Strukturmerkmale von Multistream-Eingängen und Skip-Verbindungen. Insbesondere werden das horizontale synthetische EPI-Bild, das vertikale EPI-synthetische Bild und das zentrale Ansichtsbild zuerst aus dem Lichtfeld erzeugt und jeweils in die drei Ströme von EENet eingegeben. Als nächstes wird das U-förmige neuronale Netzwerk entworfen, um die Tiefeninformationen vorherzusagen, d. h. die Faltungs- und Pooling-Blöcke werden verwendet, um die Merkmale zu kodieren, während die Entfaltungsschicht und die Faltungsschicht kombiniert werden, um Merkmale zu dekodieren und die Tiefeninformationen wiederherzustellen. Darüber hinaus verwenden wir Skip-Verbindungen zwischen den Codierungsschichten und den Decodierungsschichten, um die flachen Lokalisierungsmerkmale und tiefen semantischen Merkmale zu verschmelzen. Unser EENet ist auf dem Lichtfeld-Benchmark trainiert und getestet und hat gute experimentelle Ergebnisse erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-3150-4_40 861032d146500d4d5abcaf121771e803;de;;;5.3.;;;Annäherung an ein pädagogisches Modell von iDTV. Methodik zur Analyse von Interaktionen Aktivitäten, die dialogische Interaktionen zwischen Benutzer und Anwendung fördern, basieren auf technologiegestützten pädagogischen Modellen, die das Potenzial der Anwendungen in den Mittelpunkt stellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-38907-3_11 7f566b09a3e021aa1380e50d6204b3b0;de;;;5.3.;;;PsyGlass: Nutzung von Google Glass für die naturalistische Datenerfassung Da die kommerzielle Technologie immer weiter in Richtung tragbarer Technologien vordringt, können Kognitions- und Psychologen diese Geräte nutzen, um naturalistische Forschungsdesigns zu ermöglichen und gleichzeitig eine starke experimentelle Kontrolle aufrechtzuerhalten. Eine solche tragbare Technologie ist Google Glass (Google, Inc.:;-;-;-;https://link.springer.com/article/10.3758/s13428-015-0586-z b157f5c449a5f05798e33313bf0ec401;de;;;5.3.;;;Stadtumbau: Ein multikriterielles Bewertungsmodell, optimiert durch die Fuzzy-Logik Bei Entscheidungsprozessen rund um den Stadtumbau spielen Klarheit und Transparenz eine vorrangige Rolle. In diesen Zusammenhängen sind die multikriteriellen Techniken trotz ihrer breiten Anwendung nicht immer ausreichend, um die Qualitätseffekte der städtischen Initiativen darzustellen und zu quantifizieren sowie die Alternativen zur Auswahl der besten Lösung zu vergleichen, Phasen, in denen die logische Regeln, die vom Entscheidungsträger befolgt werden, werden normalerweise nicht explizit genannt. In der vorliegenden Arbeit wird unter Bezugnahme auf ein kürzlich für die Gemeinde Rom (Italien) entwickeltes Mehrkriterienmodell zur Straffung und Transparenz der Definition von Stadterneuerungsprojekten eine Lösung für diese Probleme durch die Verwendung eines Fuzzy vorgeschlagen logisches System. Unter Verwendung linguistischer Variablen und allgemeinsprachlicher Ausdrücke wurden logische Regeln formalisiert, die der Entscheidungsträger bei der Durchführung der Bewertungen befolgt. Das Ergebnis ist ein klarer und verständlicher Entscheidungsprozess mit positiven Auswirkungen auf die Legitimität der Entscheidungen der öffentlichen Verwaltung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09150-1_13 524a50ea3fca69161b1669f2c3c5f242;de;;;5.3.;;;Implementierung von Webservice-basiertem U-Learning In diesem Artikel zielten wir auf ein Webservice-basiertes Lernsystem für eine ubiquitäre Computerumgebung ab. In der Umgebung werden viele Geräte verwendet und es kann je nach Unternehmen unterschiedliche Typen geben. Um den Lerndienst mit jedem unterschiedlichen Typ zu unterstützen, haben wir den Webdienst unter Berücksichtigung von Metadaten zu den Gerätetypen implementiert. Die Metadaten enthalten Informationen über Geräteeigenschaften wie Bildschirmgröße, Speicherkapazität und Art des Betriebssystems. Der Verwaltungsdienst für das Metadatenregister in UDDI. Und der andere Webservice befasst sich mit der Kontrolle von Lerninhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24106-2_66 13be720447bff3a3a4d909dfa7b3e999;de;;;5.3.;;;e-Sports Live: e-Sport-Staffelübertragung auf Abruf Elektronischer Sport (e-Sport) sind Computer- und Videospiele, die als Wettkampfsport über das Internet und ein lokales Netzwerk gespielt werden und den Benutzern aufgrund der enormen Popularität des e-Sports in letzter Zeit über ein TV-Relaisübertragungssystem und das Internet bereitgestellt werden. Der Hauptnachteil der bisherigen e-Sports-Staffel besteht darin, die vom Anbieter ausgewählten e-Sports ohne Absicht der Zuschauer zu übertragen, und somit können die Zuschauer die gewünschten Informationen nicht sehen. Dementsprechend schlägt dieses Papier ein nachrichtenbasiertes semi-interaktives Relaisübertragungssystem namens e-Sports Live über das Internet vor. Das vorgeschlagene System erfasst alle Regionen, in denen ein Spiel gespielt wird, und überträgt die Regionen an den Zuschauer eines Kunden. Der Client kann sich die gewünschten Informationen ansehen, indem er einen Ausschnitt aller Regionen auswählt. Die kontinuierliche Übertragung aller Regionen an den Client über das Internet führt jedoch aufgrund der hohen Datenkapazität zu einem hohen Datenverkehr. Um den Verkehr zu reduzieren, überträgt das System alle im Spiel aufgetretenen Nachrichten, wie Bewegungen von Charakteren, anstatt kontinuierlich alle Bereiche zu übertragen, basierend auf Ressourcen, die im Spiel wiederholt verwendet werden, wie die gesamte Karte und Spielfiguren, und die Ressourcen werden wiederholt auf die Betrachter des Kunden in einer Anfangsphase. Folglich kann das vorgeschlagene System den Verkehr über das Internet reduzieren, indem nur Nachrichten übertragen werden, und kann eine Halbinteraktion durch Anschauen von Wunschinformationen durchführen, da der Zuschauer des Clients alle im Spiel aufgetretenen Bereiche basierend auf im Spiel wiederholt verwendeten Ressourcen und Nachrichten empfängt . Nun kann unser System nicht auf TV-Relay-Rundfunk angewendet werden, da es keine Puffer für Ressourcen hat, aber es kann für eine Vielzahl von Bereichen des interaktiven Fernsehens verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73354-6_75 3f9d4092c040314535b0bd33a6168a5a;de;;;5.3.;;;Räumlich-zeitliche Muster von Malaria im grenzüberschreitenden Bereich in Menoreh Hills, Java, Indonesien Umfassende Berichte über Malaria in Menoreh Hills, Zentral-Java, Indonesien, einem einzigartigen grenzüberschreitenden Gebiet unter drei Bezirken und zwei Provinzen, wurden zuvor veröffentlicht. Es wurde jedoch keine Studie durchgeführt, um die Malaria-Hotspots in diesem grenzüberschreitenden Gebiet, den Unterbezirken Kaligesing und Bagelen in Purworejo, Provinz Jawa Tengah, und Kokap-Unterbezirk in Kulon Progo, Provinz Yogyakarta, anhand von räumlichen Längsschnittdaten zu identifizieren.;-;-;-;https://link.springer.com/article/10.1186/s12936-019-2717-y fd595b40bbd107a536c85c1de7fadd8c;de;;;5.3.;;;Auf dem Weg zu einer universellen Wissensrepräsentationssprache für ubiquitäre Intelligenz basierend auf mentaler Image-gesteuerter semantischer Theorie Auf dem Weg zu einer idealen ubiquitären Computerumgebung haben M.Yokota et al. bereits das Konzept des Distributed Intelligent Robot Network (DIRN) vorgestellt, das aus einem Gehirnknoten und zahlreichen Sensor- und Aktorknoten mit benutzerfreundlichen Schnittstellen besteht. Für gut koordinierte DIRNs ist es unerlässlich, eine formale Wissensrepräsentationssprache zu entwickeln, die für alle Arten von Geräten universell ist und sie ausreichend erleuchtet, um mit normalen Menschen auf natürliche Weise zu kommunizieren und ihre Umgebung angemessen zu berechnen und darauf zu reagieren. Zu diesem Zweck hat der Autor eine formale Sprache entwickelt;-;-;-;https://link.springer.com/chapter/10.1007/11833529_113 28cb3aad635e285675915dba3b1269a1;de;;;5.3.;;;Elemente der Funktionsanalyse In diesem Kapitel stellen wir einige allgemeine Werkzeuge und grundlegende Ergebnisse der Funktionsanalyse vor, die in der Folge häufig verwendet werden, die meisten Ergebnisse werden ohne Beweise abgerufen. Dieses Kapitel ist nicht als Einführung in die nächsten Kapitel gedacht,;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-0645-3_3 7d2c404d84ddf2f49d49fe77206ee545;de;;;5.3.;;;Hybridmaterialien auf Basis von Metalloxiden und Poly(organophosphazenen) In dieser Arbeit wird die Sol-Gel-Herstellung von Hybridmaterialien aus Metalloxid- und Polytorganophosphazenel-Komponenten beschrieben. Das Hauptproblem, auf das sich diese Forschung konzentrierte, bestand darin, eine Phasentrennung zu vermeiden, um homogene Materialien zu erhalten. Diesem Problem wurde nachgegangen, indem man die Bildung echter chemischer Bindungen zwischen den genutzten Polyphosphazenen und den anorganischen Verbundnetzwerken untersuchte. Untersuchungen der thermischen, mechanischen und elektrisch leitenden Eigenschaften der synthetisierten, phosphazenhaltigen Kompositmaterialien zeigten, dass diese Matrices gegenüber denen des ursprünglichen Phosphazen-Makromoleküls verbesserte mechanische und thermische Eigenschaften aufwiesen, während die Ionenleitfähigkeiten der hergestellten molekularen Hybride, die mit Lithium- oder Silbertrillat liegen in der gleichen Größenordnung wie diejenigen, die für das reine, ursprüngliche Phosphazen-Substrat gemessen wurden.;-;-;-;https://link.springer.com/article/10.1007/BF01057748 30f44a4528529a3c90eb522fd072e6f0;de;;;5.3.;;;Eine neue Verschlüsselung mit öffentlichem Schlüssel mit Gleichheitstest Wir haben ein neues Verschlüsselungsschema mit öffentlichem Schlüssel mit Gleichheitstest (PKEET) vorgeschlagen, das für ein Verschlüsselungsverfahren mit öffentlichem Schlüssel mit vergleichbarem Chiffretext steht. Die Äquivalenz zwischen Geheimtext unter PKEET-Schemata kann ohne Entschlüsselung verifiziert werden. Bei einigen PKEET-Algorithmen wie dem AoN-PKEET von Tang, das als autorisierungsbasiertes PKEET bezeichnet wird, ist die Gleichheitsprüfungsfunktionalität auf einige autorisierte Benutzer beschränkt: Nur Benutzer, die über Berechtigungen verfügen, können Gleichheitsprüfungsfunktionen ausführen. Nach unserem besten Wissen gelten die Autoritäten aller existierenden autorisierungsbasierten PKEET-Schemata für alle Geheimtexte, die unter demselben öffentlichen Schlüssel verschlüsselt wurden. Genau genommen schlagen wir ein CBA-PKEET-Schema vor, das dem AoN-PKEET-Schema von Tang folgt, was ein PKEET-Schema mit chiffrtextgebundenen Autoritäten (CBA) bedeutet. Jede an Chiffretext gebundene Autorität ist für einen bestimmten Chiffretext gültig und nicht für alle Chiffretexte, die unter demselben öffentlichen Schlüssel verschlüsselt sind. Anschließend vergleichen wir die Funktionen und die Effizienz unseres CBA-PKEET mit einigen bestehenden autorisierungsbasierten PKEET-Systemen. Schließlich wird die Sicherheit von CBA-PKEET im Random-Orakel-Modell anhand einiger schwerer Probleme bewiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11698-3_45 8b95e2382e717c3c283b91f42db8d61e;de;;;5.3.;;;Eine Studie zum Design von Mundgesundheitssystemen für das mittlere Alter basierend auf SAPAD-PCA In diesem Papier haben wir der Mundgesundheitsversorgung für das mittlere Alter Aufmerksamkeit geschenkt, die Ressourcen aller verbundenen Parteien neu organisiert und konsolidiert und die Erfahrung der oralen Behandlung für das mittlere Alter verbessert. Dadurch konnten wir ihre Mundgesundheit verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-50732-9_82 5459d9619a8aee7e62cad885400702e1;de;;;5.3.;;;Konzeptionelle Modellierung personalisierter Webanwendungen Die Nachfrage nach Webanwendungen, die die unterschiedlichen Bedürfnisse und Interessen der Nutzer berücksichtigen, ist gestiegen. Die Personalisierung kann eine Vielzahl von Ansätzen und Techniken umfassen, um die Endbenutzererfahrung zu gestalten. In diesem Beitrag wird die Verwendung konzeptioneller Modellierungstechniken in einem Softwareproduktionsprozess für das Design personalisierter Webanwendungen diskutiert. Dieser Prozess wird durch einen objektorientierten Weblösungsmodellierungsansatz (OOWS) angetrieben, der die spezifischen Eigenschaften von Webanwendungen richtig erfasst. Wir legen besonderen Wert auf die Primitive eines Navigationsmodells, das Personalisierungsmuster bereitstellt, um die Semantik dieser Art von Anwendung zu erfassen und darzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-47952-X_37 53ad5ff902b31f9babd7236d8561d973;de;;;5.3.;;;Industrielle Internet-Talentförderung in China aus der Sicht von Bachelor-Majors Industrial Internet wird zu einem Thema von immensem Interesse in der Industrie. Talentierte Arbeitskräfte mit den entsprechenden Fähigkeiten und Kapazitäten sind der Schlüssel zur Entwicklung des Industrial Internet. Diese Studie untersuchte die Entwicklung von Talenten für das industrielle Internet in China aus der Perspektive von Bachelor-Studiengängen. Dazu wurden zwei Versuche durchgeführt. In Experiment 1 wurden Branchenexperten (N = 4) eingeladen, um Studiengänge im Bereich Industrial Internet auszuwählen. In Experiment 2 wurde ein Fragebogen entworfen und an Lehrer (N = 49) an 38 Universitäten in China verteilt. Unsere Ergebnisse zeigten, dass es in China keinen Studiengang Industrial Internet gab, aber es gab 43 Bachelorstudiengänge, die für diesen Bereich signifikant relevant waren. Die wichtigsten relevanten Studiengänge waren (1) Internet of Things Engineering, (2) Künstliche Intelligenz, (3) Data Science and Big Data Technology, (4) Intelligence Science and Technology und (5) Big Data Management and Application. Wir schlugen auch vor, dass Talente des industriellen Internets die Informationstechnologie, Betriebstechnologie und Kommunikationstechnologie beherrschen sollten, wobei der Prozentsatz der erforderlichen Technologien 41,82 %, 32,33 % bzw. 25,86 % beträgt. Es wurde festgestellt, dass informationsbezogene Abteilungen und industrielle Internet-bezogene Abteilungen an Universitäten bei der Entwicklung von Talenten für das industrielle Internet am meisten bevorzugt werden. Darüber hinaus ergaben unsere Recherchen, dass chinesische Universitäten mit einem Mangel an Lehrbüchern, Lehrern, Übungsbasen, Kursen, Mitteln und Ausrüstung für die Ausbildung der notwendigen Talente für das industrielle Internet konfrontiert waren und an diesen Aspekten arbeiten mussten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-77077-8_28 18ca3254a65a0d30d8200b39739f8336;de;;;5.3.;;;Implementierung enzymatischer numerischer P-Systeme für KI-Anwendungen mit Hilfe von Grafikprozessoren Ein P-System stellt ein verteiltes und paralleles Rechenmodell dar, in dem grundlegende Datenstrukturen beispielsweise Multisets und Strings sind. Enzymatische Numerische P-Systeme (ENPS) sind eine Art von P-Systemen, deren grundlegende Datenstrukturen Sätze numerischer Variablen sind. Unabhängig davon ist GPGPU (General Purpose Computing on Graphics Processing Units) ein neuartiges technologisches Paradigma, das sich auf die Entwicklung von Tools für Grafikkarten zur Lösung allgemeiner Probleme konzentriert. Dieses Papier schlägt einen auf GPUs basierenden ENPS-Simulator vor und präsentiert allgemeine Konzepte zu seinem Design sowie einige zukünftige Ideen und Perspektiven.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34422-0_10 0189122a84490aa1382f1aa634e4a2f7;de;;;5.3.;;;Ein Clustering-Ansatz für die Vision-basierte Schnittstelle für interaktive Computerspiele In interaktiven Computerspielen kann das Sehen eine mächtige Schnittstelle zwischen Mensch und Computer sein. In diesem Papier schlagen wir eine visionsbasierte Schnittstelle für 3D-Actionspiele vor. Wir machen dynamische Gesten zur Eingabe der Schnittstelle und stellen die Geste eines Benutzers als eine geordnete Abfolge der Posen eines Benutzers dar. Um die Posen eines Menschen einzuschätzen, klassifizieren wir ganze Frames mit K-Means-Clustering. Um eine Geste zu erkennen, wird jedes Symbol aus der Eingabesequenz mit Schablonen abgeglichen, die aus geordneten Posensymbolsequenzen bestehen, die die spezifischen Gesten angeben. Unsere Schnittstelle erkennt zehn Gestenbefehle mit einer einzigen kommerziellen Kamera und ohne Markierungen. Experimentelle Ergebnisse mit 50 Menschen zeigen eine durchschnittliche Erkennungsrate von 93,72 % pro Gestenbefehl.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45080-1_33 b453f58a0fdb58df99910311ef9440e6;de;;;5.3.;;;Unterstützung des nahtlosen Lernens mit einem Learning Analytics-Ansatz In diesem Kapitel wird ein Learning Analytics-Ansatz für die Implementierung einer nahtlosen Lernumgebung untersucht. Unser entwickeltes nahtloses Lernsystem namens VASCORLL (Visualization and Analysis System for CONnecting Relationships of Learning Logs) und AETEL (Actions and learning on E-TExtbook Logging) wird beschrieben. AETEL, ein eBook-System, wurde auf SCROLL, einem weiteren von uns entwickelten System, implementiert. VASCORLL wurde auch auf SCROLL implementiert. Die Ziele von VASCORLL bestehen darin, die von SCROLL gesammelten Lernprotokolle zu visualisieren und zu analysieren, um den Lernenden mehr Lernmöglichkeiten zu bieten sowie eBook-Lernen und reales Lernen zu verknüpfen. Zwei Arten von Visualisierungsstrukturen, eBook-Lernstruktur und Real-Life-Lernstruktur, wurden angepasst. Unsere Forschungsfragen lauten: (1) Ist VASCORLL in der Lage, die Lernmöglichkeiten der Lernenden zu verbessern? (2) Erleichtert es das Auffinden wichtiger Wörter in der nahtlosen Lernumgebung? und (3) Welche Zentralität unterstützt das Lernen in der nahtlosen Lernumgebung am effektivsten? Ein an einer Universität in Japan durchgeführtes Bewertungsexperiment ergab, dass VASCORLL die Lernmöglichkeiten verbessert und ein nützliches Werkzeug ist, um zentrale Wörter zu finden, die eBook-Lernen und reales Lernen verbinden, wenn es auf der Betweenness-Zentralität basiert. VASCORLL hatte eine hohe Benutzerfreundlichkeit und trug dazu bei, die Lernmöglichkeiten der Lernenden so zu verbessern, dass es den Benutzern half, ihr eBook-Lernen mit einem realen Lernen zu verknüpfen sowie ihr Lernen mit dem anderer Benutzer zu verknüpfen. Es wird erwartet, dass das System eine wichtige Rolle als Werkzeug spielt, das beide Lernmodi verbindet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3071-1_9 cdcad466638560ac26a58361e308eeb0;de;;;5.3.;;;Entscheidungsbaum-Lernsystem mit wechselndem Evaluator In diesem Papier führen wir den Begriff der lokalen Strategie zur Konstruktion von Entscheidungsbäumen ein, die den informationstheoretischen Entropie-Algorithmus in ID3 (oder C4.5) und alle anderen einschließt;-;-;-;https://link.springer.com/chapter/10.1007/3-540-61291-2_64 59fafcfee2dc46988db9dd71bf1cb31a;de;;;5.3.;;;Stabilisierungsprobleme für ein System mit Ausgangsrückkopplung (Review) Algorithmen zur Lösung des Problems des Entwurfs von statischen Ausgangsrückführungsreglern für stationäre lineare Systeme mit kontinuierlicher und diskreter Zeit werden besprochen. Das inverse Problem wird betrachtet. Die Synthesealgorithmen von Ausgangsrückkopplungsreglern werden auf den Fall eines periodischen zeitdiskreten Systems verallgemeinert. Um solche Probleme zu lösen, könnte es natürlicher sein, einen Ansatz zu verwenden, der auf einer Mehrkriteriumsoptimierung basiert. Es wird auch gezeigt, dass diese Algorithmen zur optimalen Stabilisierung instabiler Systeme mit Verzögerung verwendet werden können. Dabei werden die Parameter eines Reglers mit gegebener Struktur für ein geregeltes instabiles Skalarsystem mit Verzögerung optimiert. Dazu wird das System zunächst ohne Verzögerung durch ein System approximiert, wobei der Exponent durch eine fraktionell rationale Funktion approximiert wird. Da die Struktur des Reglers gegeben ist, wird die Näherungsgüte als Differenz (im Raum der Reglerkoeffizienten) zwischen den Stabilitätsbereichen des ursprünglichen und des Näherungssystems geschätzt. Im nächsten Schritt werden die Verstärkungskoeffizienten des Reglers für das reduzierte System optimiert. Die Effizienz des so synthetisierten Reglers wird durch mathematische Modellierung eines Systems mit Verzögerung bewertet, dessen Rückkopplungsschleife durch die gefundenen Verstärkungskoeffizienten definiert wird. Der Ansatz wird durch die Stabilisierung eines invertierten einfachen Pendels mit einem Proportional-Differential-Regler mit Verzögerung veranschaulicht. Das Problem der Synthese eines robusten Controllers für dieses Beispiel wird betrachtet. Einige Beispiele für den Entwurf eines robusten Reglers, auch für ein System dritter Ordnung, bei dem die Verzögerung eher als ein Parameter unsicher ist, werden vorgestellt;-;-;-;https://link.springer.com/article/10.1007/s10778-011-0456-z 486ef54e9916aac4a6cadc2581236675;de;;;5.3.;;;Eine Studie zur attributbasierten Verschlüsselung für Körpersensornetzwerke Body Sensor Network (BSN) ist ein Netzwerk mit Sensoren, die an verschiedenen Teilen des menschlichen Körpers angebracht sind, um verschiedene Vitalparameter zum Zwecke der Gesundheitsüberwachung zu erfassen. Um die Vertraulichkeit und Vertraulichkeit dieser Daten zu gewährleisten, die beim BSN-Koordinator, einem mobilen Gerät mit geringem Stromverbrauch und Rechenleistung, d. h. Smartphone, fusioniert werden, ist attributbasierte Verschlüsselung (ABE) vielversprechend. Dies liegt daran, dass ABE eine fein abgestufte gemeinsame Nutzung verschlüsselter Daten ermöglicht. ABE bietet unterschiedliche Zugriffsrechte für eine Gruppe von Benutzern, wie z. B. Gesundheitsdienstleister, und ermöglicht Flexibilität bei der Festlegung der Zugriffsrechte einzelner Benutzer auf die verschlüsselten Daten. In diesem Papier untersuchen und analysieren wir die Eignung von Key-Policy Attribute-Based Encryption Scheme (KP-ABE) und Ciphertext-Policy Attribute-Based Encryption Scheme (CP-ABE) auf BSN. Daraus schließen wir, dass die schlüsselrichtlinienattributbasierte Verschlüsselung (KP-ABE) vorzuziehen ist, um eine leichtgewichtige ABE für BSN zu entwerfen, die in energiesparenden und Computergeräten implementiert wird, um alle Sicherheitsanforderungen zu erfüllen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25327-0_21 7ee285e0b0895d321bf89f85a47a75ea;de;;;5.3.;;;Formbeschränkung und Fusionspartikelfilter mit mehreren Funktionen für die Verfolgung von Gesichtsmerkmalen Das traditionelle Active-Shape-Modell (ASM) und das optische Fluss-Tracking-Verfahren werden hauptsächlich im nahen Frontalgesicht oder bei kleinen Veränderungen im Gesicht verwendet. Sie können jedoch leicht versagen, wenn sich die Gesichtshaltung, der Ausdruck oder der Schutz ändern. In diesem Artikel wird eine Methode zur Verfolgung von Gesichtsmerkmalen mit Partikelfilter vorgestellt, die auf Farb- und Texturmerkmalen und einem Formbeschränkungsmodell basiert. Da der Punktbereich der Nasenlöcher normalerweise nicht starre Änderungen im gesamten Tracking aufweist, extrahieren wir die Farb- und Texturmerkmale des Bereichs als Beobachtungsmodell. Dann nehmen die restlichen Feature-Punkte es als Referenz und erstellen ein geometrisches Formbeschränkungsmodell für die Verfolgung in Echtzeit. Wenn der Tracking-Fehler den Schwellenwert überschreitet, starten wir die ASM-Suche erneut und aktualisieren das Beobachtungsmodell, damit jeder der Feature-Punkte genau verfolgt werden kann. Experimentelle Ergebnisse zeigen die Wirksamkeit und Genauigkeit des vorgeschlagenen Verfahrens.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-02961-0_6 f3a21c2cba726239d9210c6ea3b9d7fd;de;;;5.3.;;;Echtzeit-Handverfolgung basierend auf dem aktiven Konturmodell In diesem Papier wird eine auf aktiven Konturen basierende Methode zur Handverfolgung unter Verwendung von Farbinformationen vorgestellt. Das Hauptproblem bei dem auf aktiven Konturen basierenden Ansatz besteht darin, dass die Ergebnisse sehr empfindlich auf die Position der Anfangskurve reagieren. Die anfängliche Kurve weit weg vom Objekt führt zu einem höheren Rechenaufwand, einer geringen Genauigkeit der Ergebnisse sowie dem Verfehlen des Objekts, das eine große Bewegung hat. Daher stellt dieser Artikel ein Handverfolgungsverfahren vor, das einen Mean-Shift-Algorithmus und aktive Konturen verwendet. Die vorgeschlagene Methode besteht aus zwei Schritten: Handlokalisierung und Handextraktion. Im ersten Schritt wird die Handposition unter Verwendung der Mittelwertverschiebung geschätzt. Und im zweiten Schritt am Standort wird die Ausgangskurve mit einem aktiven Konturmodell entwickelt. Um die Wirksamkeit des vorgeschlagenen Verfahrens zu beurteilen, wird es auf reale Bildsequenzen mit bewegter Hand angewendet.;-;-;-;https://link.springer.com/chapter/10.1007/11424925_104 f5510ee10093dd4c605427e548dff630;de;;;5.3.;;;Analysieren des Gesichtsausdrucks durch Verschmelzen von Mannigfaltigkeiten Die Merkmalsdarstellung und -klassifizierung sind zwei Hauptthemen bei der Gesichtsausdrucksanalyse. In der Vergangenheit verwendeten die meisten Methoden entweder die ganzheitliche oder lokale Darstellung zur Analyse. Im Wesentlichen konzentrieren sich lokale Informationen hauptsächlich auf die subtilen Variationen von Ausdrücken und die ganzheitliche Darstellung betont die globale Vielfalt. Um die Vorteile beider zu nutzen, wird in diesem Beitrag eine hybride Darstellung vorgeschlagen und vielfältiges Lernen angewendet, um globale und lokale Informationen diskriminierend zu charakterisieren. Im Gegensatz zu einigen Verfahren, die unüberwachte Mannigfaltigkeitslernansätze verwenden, werden eingebettete Mannigfaltigkeiten der Hybriddarstellung durch Anwenden einer überwachten Mannigfaltigkeitslerntechnik gelernt. Um diese Mannigfaltigkeiten effektiv zu integrieren, wird ein Fusionsklassifikator eingeführt, der helfen kann, geeignete Kombinationsgewichte von Gesichtskomponenten zu verwenden, um einen Ausdruck zu identifizieren. Umfangreiche Vergleiche zur Gesichtsausdruckserkennung sind enthalten, um die Wirksamkeit unseres Algorithmus zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76390-1_61 cc6c969f0db873d29b8af231e44ed884;de;;;5.3.;;;Verbessertes Video-Wasserzeichen mit verschachteltem Wasserzeichen, Wavelets und geometrischem Warping Die Fortschritte in der Kommunikationssoftware und -hardware erhöhen die Menge der geteilten Informationen in Form von Text, Bild, Audio und Video. Diese Zunahme stellt die Frage des Schutzes des geistigen Eigentums. Dieses Papier untersucht den Schutz von Videosignalen durch Wasserzeichen. Das vorgeschlagene System verwendet eine Kombination aus visueller Kryptographie und Wavelets, um ein verschachteltes Wasserzeichen zu erzeugen, das unter Verwendung einer geometrischen Warping-Technologie in das rohe unkomprimierte Videosignal eingebettet wird. Um die Robustheit gegenüber Kompression zu verbessern, bettet das Verfahren das Wasserzeichen in einem relevanten Bereich unter Verwendung eines Blockauswahlverfahrens ein. Die experimentellen Ergebnisse belegen, dass das vorgeschlagene System hinsichtlich Kapazität und Robustheit gegenüber verschiedenen Angriffen effizient ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24043-0_14 c33cf8dac54d1fe7076b975d856ac0fb;de;;;5.3.;;;Funktionale Diskriminanzanalyse mit mehreren Klassen und ihre Anwendung auf die Gestenerkennung Wir betrachten die Anwendung eines funktionalen logistischen Diskriminanzverfahrens auf die Analyse handschriftlicher Zeichendaten. Zeitverlaufstrajektorien, die den X- und Y-Koordinatenwerten handgeschriebener Schriftzeichen entsprechen, die mit einem Finger in die Luft geschrieben wurden, werden über eine regularisierte Basisexpansion in einen funktionalen Datensatz umgewandelt. Anschließend wenden wir funktionale logistische Modellierung an, um die Funktionen in mehrere Klassen zu klassifizieren. Um die Werte der angepassten Parameter des funktionalen Logistikmodells auszuwählen, leiten wir ein Modellauswahlkriterium für die Bewertung von Modellen ab, die durch die Regularisierungsmethode geschätzt werden. Die Ergebnisse zeigen die Effektivität unserer Modellierungsstrategie in Bezug auf die Vorhersagegenauigkeit.;-;-;-;https://link.springer.com/article/10.1007/s00357-011-9082-z af0aacc307b0cc0e612bb6ef493762b5;de;;;5.3.;;;Experimente zur Realisierung von Kooperationen zwischen autonomen mobilen Robotern Dieses Papier beschreibt Experimente in Kooperation mit autonomen mobilen Robotern, um eine Reinigungsaufgabe durchzuführen. Die Roboter haben heterogene Fähigkeiten und die Aufgabe ist so ausgelegt, dass Kooperation gefragt ist. Jedes Experiment erhöht die Komplexität des Kooperationsschemas, um die Wirkung auf die Aufgabenerfüllung zu bewerten. Die Experimente reichen von der Verwendung von emergenter Kooperation ohne Kommunikation bis hin zu expliziter Kooperation und Kommunikation. Wir schlagen auch einen Aktionsauswahlmechanismus vor, der auch für die verteilte Planung gemeinsamer Aktionen verwendet werden kann, inspiriert von der Art und Weise, wie Primaten gemeinsame Pläne kokonstruieren.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0112996 a45c615a75b4fed1033ebc6b82332c79;de;;;5.3.;;;Ein semantischer Analysator zur Unterstützung der Emotionserkennung auf Chinesisch In diesem Beitrag stellen wir einen semantischen Analysator zur Unterstützung der Emotionserkennung im Chinesischen vor. Der Analysator verwendet einen Entscheidungsbaum, um semantische Abhängigkeitsbeziehungen zwischen Schlüsselwörtern und Modifikatoren zuzuweisen. Es ist in der Lage, eine Genauigkeit von 83,5% zu erreichen. Die semantischen Informationen werden mit Regeln für chinesische Verben kombiniert, die Emotionen enthalten, um die Emotionen der Personen im Satz zu beschreiben. Die Regeln geben Auskunft darüber, wie man Agenten, Empfängern usw. je nach Verb im Satz Emotionen zuordnet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-37275-2_112 a8c2b40a2015c111cf4aa0220a7be77d;de;;;5.3.;;;CRIOP: Eine Verifizierungs- und Validierungsmethode für menschliche Faktoren, die in einem industriellen Umfeld funktioniert Wir haben CRIOP, eine auf Human Factors (HF) basierende Methodik, evaluiert, um die Meinung der norwegischen Öl- und Gasindustrie (O&G) zu CRIOP zu erfassen, um herauszufinden, wie es verwendet wird, und um mögliche Verbesserungen vorzuschlagen. CRIOP ist eine bevorzugte Methode in der norwegischen O&G-Industrie und wird zur Verifizierung und Validierung (V&V) der Fähigkeit eines Kontrollzentrums verwendet, alle Betriebsmodi sicher und effektiv zu handhaben. CRIOP besteht aus einem Einführungsteil, einem Checklistenteil und einem szenariobasierten Teil. Grundlage unserer Studie waren Interviews mit 21 Personen, eine Online-Befragung mit 23 Befragten und Erfahrungen aus erster Hand in Workshops. Die Ergebnisse zeigten, dass CRIOP ein effektives V&V-Tool für das Design von Kontrollzentren ist. Hervorgehobene Themen waren Timing, Stakeholder, Planung und Vorbereitung der Analyse, Anpassung der Checklisten und die Kompetenz der Workshop-Moderatoren. Wir kommen zu dem Schluss, dass CRIOP ein effektives V&V-Tool ist, das von der norwegischen O&G-Industrie angewendet und geschätzt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04468-7_20 e9afa7548a471d87e62ff8b80094ebc4;de;;;5.3.;;;Modellierung und Schätzung der Dynamik planarer algebraischer Kurven über Riccati-Gleichungen Motiviert durch Probleme in der Vision und Robotik sind wir in diesem Beitrag daran interessiert, die Dynamik planarer algebraischer Kurven in starrer und affiner Bewegung zu beschreiben. Es wird eine neue Methode zur Modellierung der Dynamik solcher Kurven in Form von Riccati-Gleichungen vorgestellt. Es wird gezeigt, dass die starre oder affine Bewegung einer algebraischen Kurve mit der Dynamik von beschrieben werden kann;-;-;-;https://link.springer.com/article/10.1007/s10851-010-0209-3 1e54bcf0347aa753af475e6e915528fb;de;;;5.3.;;;Forschung zu automatischen Inspektionsmethoden der Flugqualität digitaler Luftbildergebnisse Die Luftphotogrammetrie ist eine der wichtigsten Methoden zur Gewinnung von Geoinformationen. Nach dem Eintritt in das 21. Jahrhundert ist die Luftfotogrammetrie-Technologie vollständig in das digitale Zeitalter eingetreten, und die Qualität der Ergebnisse der digitalen Luftbildfotografie wirkt sich direkt auf die Qualität und Genauigkeit der Ergebnisse der Vermessung und Kartierung aus. Daher ist es notwendig, die Qualität der digitalen Luftaufnahmen zu überprüfen Ergebnisse der Fotografie. Bei der digitalen Luftbildfotografie wirkt sich die Flugqualität direkt auf die Qualität der Ergebnisse aus. Es ist von großer Bedeutung, seine Flugqualitätsprüfung durchzuführen. Basierend auf der Analyse des Flugqualitätsindex der Ergebnisse der digitalen Luftbildfotografie und der nationalen und internationalen aktuellen Situation der Qualitätsprüfungstechnologie von Luftbildergebnissen hat der Autor den Prüfindex und die automatischen Prüfmethoden der Flugqualität der Ergebnisse von digitale Luftaufnahmen, sie können angewendet werden, um den Index zu überprüfen, z. B. den Grad der Längsüberlappung, den Grad der seitlichen Überlappung, den Drehwinkel und;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27275-2_19 ba9cd6f8a5b7a03ed941f5792ef80111;de;;;5.3.;;;Automatisierte Gesichtserkennung mit volumenbasierten Gesichtsmodellen Gesicht repräsentiert komplexe, mehrdimensionale, bedeutungsvolle visuelle Reize. Computermodelle zur Gesichtserkennung stellen das Problem als hochdimensionales Mustererkennungsproblem dar. Dieses Papier stellt eine innovative Methode zur Gesichtserkennung vor, die den Eigengesichtsansatz für volumenbasierte Grafiken anstelle von 2D-Fotobildern verwendet. Wir schlagen vor, die Polygonnetzoberfläche durch regelmäßiges Abtasten in einem volumetrischen Raum in eine volumetrische Darstellung umzuwandeln. Unsere Motivation ist es, bestehende 2D-Gesichtsanalysetechniken auf einen 3D-Bildraum zu erweitern, indem wir die volumetrische Darstellung nutzen. Zur Dimensionsreduktion wenden wir die Hauptkomponentenanalyse (PCA) an. Gesichtsmerkmalsmuster werden auf einen niedrigerdimensionalen PCA-Unterraum projiziert, der die bekannten Gesichtsmuster überspannt. Der 3D-Eigengesichts-Merkmalsraum wird für die Gesichtserkennung konstruiert.;-;-;-;https://link.springer.com/chapter/10.1007/11784203_74 2dc62ae4d1e97adf06e7638233f283f9;de;;;5.3.;;;Ein neuer kostengünstiger Ansatz zur Augenverfolgung und Blinzelerkennung: Extrahieren von Augenmerkmalen mit Blob-Extraktion Die Systeme ermöglichen es dem Benutzer, seine Blickinformationen zu verfolgen, und sind seit mehreren Jahrzehnten technisch möglich. Allerdings sind sie immer noch sehr teuer. Sie haben eine begrenzte Nutzung der Infrastruktur für Eye-Tracking und Blinzelerkennung. Der Zweck dieses Papiers ist es, Kosteneffekte in der Branche zu bewerten und unseren neuen Ansatz im Detail zu erläutern, der die hohen Kosten aktueller Systeme offensichtlich reduziert. In diesem Artikel wird ein Algorithmus zur schnellen und subpixelgenauen Erkennung von Augentropfen zum Extrahieren von Augenmerkmalen vorgestellt. Der Algorithmus basiert auf Differentialgeometrie und existiert noch als Klasse in der OpenCpV-Bibliothek. Daher können Blobs beliebiger Größe, d. h. Augengröße, extrahiert werden, indem einfach der Skalierungsparameter in der Klassenfunktion angepasst wird. Außerdem werden auch Mittelpunkt und Grenze eines Augentropfens extrahiert. Diese beschreiben die spezifische Augenposition in der Gesichtsgrenze, um mehrere Algorithmen auszuführen, um die Augapfelposition mit ihren zentralen Koordinaten zu finden. Mehrere Beispiele auf realen einfachen Webcam-Bildern veranschaulichen die Leistung des vorgeschlagenen Algorithmus und liefern ein effizientes Ergebnis für die Idee eines kostengünstigen Eye-Tracking-, Blinzelerkennungs- und Schläfrigkeitserkennungssystems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04070-2_58 4b1e522f42e608d21d5399ff0013b5e3;de;;;5.3.;;;Erkennung menschlicher Handlungen basierend auf zufälliger spektraler Regression Um die unsichere Parameterauswahl, die hohe räumlich-zeitliche Komplexität und die Schwierigkeit der effektiven Extraktion von Merkmalen in mannigfaltigen Lernalgorithmen zu lösen, die eine höherdimensionale menschliche Handlungssequenz verarbeiten, wird ein menschlicher Handlungserkennungsalgorithmus basierend auf zufälliger Spektralregression (RSPR) vorgestellt. Der Algorithmus hat drei Schritte. Zunächst wird gemäß der gleichmäßigen Verteilung der menschlichen Aktionsdaten in der Mannigfaltigkeit und den Klassifizierungsetiketten der menschlichen Aktion die Gewichtsmatrix erstellt. Dieses Verfahren überwindet die Nachbarschaftsparameterauswahl des Manifold-Lernalgorithmus. Zweitens wird durch spektrale Regression die räumliche Mannigfaltigkeit basierend auf dem Rahmen angenähert, und die Mannigfaltigkeitsabbildung der unmarkierten Probe wird erhalten. Schließlich wird das Merkmal der zeitlichen Reihe in der räumlichen Mannigfaltigkeit basierend auf dem Rahmen extrahiert, und dann wird in der Gaußschen Prozessklassifikation das Merkmal des menschlichen Handelns klassifiziert. Der Versuch besteht aus drei Teilen. Wenn RSPR die Erkennung menschlichen Handelns durch Leave-One-Out-Kreuzvalidierung in der Weizmann-Datenbank testet, erreicht die Erkennungsrate 93,2 %, wobei RSPR mit lokalitätserhaltender Projektion (LPP) und nachbarschaftserhaltender Einbettung (NPE) durch Extrahieren des statistischen Merkmals der zeitlichen Sequenzen RSPR zeigt eine bessere Leistung, im Test auf Gehaktion beeinflusste RSPR zeigt eine bessere Anpassungsfähigkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23896-3_56 e745e8a33f70e4ca0146bcccbcdf744f;de;;;5.3.;;;Visuelles Tracking mit Superpixel-basiertem Darstellungsmodell In dieser Arbeit schlagen wir einen Tracking-Algorithmus vor, der komplexe Variationen in Bezug auf das Aussehen, die Skalierung, die Okklusion und den Hintergrund des Ziels robust handhabt. Insbesondere nutzt der Algorithmus ein neuartiges Superpixel-basiertes Erscheinungsmodell für die visuelle Verfolgung. Aus dem anfänglichen Tracking-Fenster extrahieren wir Superpixel und berechnen ihre Histogrammmerkmale. In nachfolgenden Frames suchen wir nach der Region, die die Ähnlichkeit der Superpixel-Merkmale maximiert. Unser Algorithmus erkennt Zielverdeckungen und aktualisiert das Aussehensmodell entsprechend. Außerdem wird das Modell aktualisiert, um große Variationen zu verarbeiten. Wir präsentieren experimentelle Ergebnisse zu mehreren öffentlich zugänglichen herausfordernden Sequenzen. Die qualitative und quantitative Auswertung unseres Tracking-Algorithmus zeigt eine verbesserte Leistung gegenüber modernen Trackern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39402-7_22 88787a1a8e525ceb6879f02d277c2527;de;;;5.3.;;;Asymmetrisches Lernen für die Fußgängererkennung basierend auf gemeinsamen lokalen Orientierungshistogrammen Wir präsentieren einen kostensensitiven Lernrahmen für die Fußgängererkennung in Standbildern, der auf den neuartigen Joint Local Orientation Histograms (JLOH)-Funktionen und dem Asymmetric Gentle AdaBoost basiert. Die JLOH-Funktionen erfassen das gemeinsame Auftreten lokaler Histogramme und ermöglichen die Klassifizierung der schwierigen Beispiele. Der vorgeschlagene Asymmetric Gentle AdaBoost trägt der Situation Rechnung, dass die seltenen positiven Ziele in der praktischen Anwendung von enormen negativen Mustern unterschieden werden müssen. Die quantitative Auswertung des wohldefinierten INRIA-Datensatzes zeigt die Wirksamkeit unserer Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01507-6_88 b2fac27efcea918f1dd8b66aaeb36677;de;;;5.3.;;;IMIX: Gute Fragen, vielversprechende Antworten Das IMIX-Programm wurde als koordinierter Rahmen konzipiert, um die schwierigen Probleme anzugehen, die bei der integrierten Multimedia-Informationsbereitstellung auftreten. Das von Forschungsteams in den Niederlanden durchgeführte und von der Niederländischen Organisation für wissenschaftliche Forschung finanzierte Programm war sehr ehrgeizig und kombinierte Forschung zur automatischen Spracherkennung im Kontext multimodaler Interaktion, Dialogmanagement und Argumentation, Informationspräsentation in multimodalen Systemen und Informationsextraktion. Es gelang, die multidisziplinäre Zusammenarbeit, den Wissenstransfer zwischen Hochschulen und Industrie sowie die Stellung der niederländischen Sprache in der Informationsgesellschaft zu stärken. Der IMIX-Demonstrator verbesserte die Sichtbarkeit der Sprach- und Sprachtechnologie als Enabler für fortschrittliche Informationsdienste. Ein Folgeforschungsprogramm sollte sowohl einen gemeinsamen Rahmen mit Daten, Aufgaben und Bewertung als auch eine ernsthafte Komponente zur Bewertung der menschlichen Faktoren umfassen. Interaktionen und Synergien zwischen Teilnehmern aus Bereichen, die menschliche Kommunikation aus verschiedenen Blickwinkeln betrachten, sollten aktiv gefördert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17525-1_12 d8728829852fbabc87093504bad15aaf;de;;;5.3.;;;: Improvisationsunterstützende Systeme mit Melodiekorrektur und Tastenvibration Dieses Papier beschreibt Improvisationsunterstützung für Musiker, die nicht über ausreichende Improvisationsspielerfahrung verfügen. Das Ziel unserer Studie ist es, solchen Spielern zu ermöglichen, die für die Improvisation notwendigen Fähigkeiten zu erlernen und Spaß daran zu haben. Um dieses Ziel zu erreichen, haben wir zwei Ziele: ihre Fähigkeit zur sofortigen Melodieerstellung zu verbessern und ihre Praxis zum Erwerb dieser Fähigkeit zu unterstützen. Für das erste Ziel haben wir ein System entwickelt, das musikalisch unpassende Noten in den Melodien der Improvisationen der Benutzer automatisch korrigiert. Für das zweite Ziel haben wir ein System entwickelt, das durch das Vibrieren entsprechender Tasten auf musikalisch unpassende Töne hinweist. Das Hauptproblem bei der Entwicklung dieser Systeme besteht darin, musikalisch unangemessene Noten zu erkennen. Wir schlagen eine Methode zu deren Detektion basierend auf dem N-Gramm-Modell vor. Experimentelle Ergebnisse zeigen, dass diese auf N-Gramm basierende Methode die Genauigkeit der Erkennung von musikalisch unangemessenen Noten verbessert und unsere Systeme die Improvisation ungeübter Musiker effektiv unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/11558651_31 1989d6f3477e60aa88a151c869024417;de;;;5.3.;;;BiDaML in der Praxis: Kollaborative Modellierung von Big Data Analytics-Anwendungsanforderungen Der Einsatz von Datenanalysen zur Verbesserung der industriellen Planung und des Betriebs wird immer beliebter und Datenwissenschaftler werden immer mehr nachgefragt. Die komplexe, auf Datenanalysen basierende Softwareentwicklung ist jedoch eine Herausforderung. Es beinhaltet viele neue Rollen, die in traditionellen Software-Engineering-Teams fehlen – z.B. Data Scientists und Data Engineers, Verwendung ausgeklügelter Machine Learning (ML)-Ansätze, die viele Programmieraufgaben ersetzen, Unsicherheit in den Modellen sowie Schnittstellen zu Modellen, um Softwarefunktionen zu erfüllen. Diese Herausforderungen erschweren die Kommunikation und Zusammenarbeit innerhalb des Teams und mit externen Stakeholdern. In diesem Papier beschreiben wir unsere Erfahrungen bei der Anwendung unseres BiDaML-Ansatzes (Big Data Analytics Modeling Languages) auf mehrere industrielle Großprojekte. Wir haben unser BiDaML-Modellierungstoolset verwendet, das alle Beteiligten um ein Tool herumführt, um ihre Big-Data-Anwendungen zu spezifizieren, zu modellieren und zu dokumentieren. Wir berichten über unsere Erfahrungen bei der Verwendung und Bewertung dieses Tools in drei realen, groß angelegten Anwendungen mit Teams aus:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-70006-5_5 ceef52066cb744d7009cea30d19bce59;de;;;5.3.;;;Alters- und Geschlechtsvorhersage mit Deep CNNs und Transfer Learning Die letzten ein oder zwei Jahrzehnte haben einen Boom von Bildern erlebt. Mit der zunehmenden Verbreitung von Kameras und dem Aufkommen von Selfies ist die Zahl der weltweit verfügbaren Gesichtsbilder in die Höhe geschnellt. Folglich besteht ein wachsendes Interesse an der automatischen Alters- und Geschlechtsvorhersage einer Person unter Verwendung von Gesichtsbildern. Wir konzentrieren uns in diesem Beitrag auf dieses herausfordernde Problem. Insbesondere konzentriert sich dieses Papier auf die Alterseinschätzung, Altersklassifizierung und Geschlechtsklassifizierung aus Standbildern des Gesichts einer Person. Wir trainieren verschiedene Modelle für jedes Problem und ziehen auch Vergleiche zwischen dem Aufbau einer benutzerdefinierten CNN-Architektur (Convolutional Neural Network) und der Verwendung verschiedener CNN-Architekturen als Feature-Extraktoren, nämlich VGG16, vortrainiert auf VGGFace, ResNet50 und SE-ResNet50, vortrainiert auf VGGFace2 Dataset und Training über diese extrahierten Features. Wir bieten auch die Basisleistung verschiedener Algorithmen für maschinelles Lernen bei der Merkmalsextraktion, die uns die besten Ergebnisse lieferte. Es wurde beobachtet, dass selbst einfache lineare Regression, die auf solchen extrahierten Merkmalen trainiert wurde, das Training von CNN, ResNet50 und ResNeXt50 von Grund auf für die Altersschätzung übertraf.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1092-9_25 dc19a9d701b213785120ca9ca4385943;de;;;5.3.;;;Automatische Erkennung des Gesichtsausdrucks in einer Bildsequenz einer nicht-manuellen indischen Gebärdensprache mithilfe von Support Vector Machine Die Gebärdensprache ist eine der Hauptanwendungen des Gesichtserkennungssystems. Es ist eine leichte Aufgabe für einen Menschen, den Gesichtsausdruck einer Person in einer bestimmten Bildsequenz zu erkennen, aber es stehen nicht viele effiziente vollautomatische Systeme zur Verfügung, um diese Aufgabe zu erfüllen. Es wurde viel daran gearbeitet, das Erkennungssystem für viele Gebärdensprachen wie Türkische Gebärdensprache (TSL) [2], Amerikanische Gebärdensprache (ASL) [3], Chinesische Gebärdensprache (CSL) [4] usw. zu automatisieren. Aber seltener Aufwand wurde für eine der indischen Gebärdensprachen (ISL) durchgeführt. Daher wird in dieser Arbeit ein großer Videodatensatz der indischen Gebärdensprache (ISL) erstellt, der aus einigen der Ausdrücke besteht. Außerdem wird ein automatisches Gesichtsausdruckerkennungssystem entwickelt, um die in diesen Videos ausgeführten Ausdrücke zu identifizieren. Derselbe Algorithmus wird auch auf dem von Aran et al. bereitgestellten Datensatz der türkischen Gebärdensprache ausgeführt. [2] und ein Vergleich zwischen diesen beiden Datensätzen wird bereitgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-81-322-0491-6_26 4ea947820bf890f046475458e7524de5;de;;;5.3.;;;Erkennung der arabischen Gebärdensprache mit räumlich-zeitlichen lokalen binären Mustern und Unterstützungsvektormaschine Eine der häufigsten Kommunikationsformen in der Gehörlosengemeinschaft ist die Erkennung der Gebärdensprache. Dieser Beitrag konzentriert sich auf das Problem der Erkennung der arabischen Gebärdensprache auf Wortebene, die von der Gemeinschaft gehörloser Menschen verwendet wird. Das vorgeschlagene System basiert auf der Kombination von räumlich-zeitlichem lokalem Binärmuster (STLBP)-Merkmalsextraktionsverfahren und Support-Vektor-Maschine (SVM)-Klassifikator. Das System nimmt eine Sequenz von Schilderbildern oder einen Videostream als Eingabe und lokalisiert Kopf und Hände mithilfe des IHLS-Farbraums und des Random Forest-Klassifikators. Ein Merkmalsvektor wird aus den segmentierten Bildern unter Verwendung eines lokalen binären Musters auf drei orthogonalen Ebenen (LBP-TOP)-Algorithmus extrahiert, der gemeinsam die Erscheinungs- und Bewegungsmerkmale von Gesten extrahiert. Der erhaltene Merkmalsvektor wird unter Verwendung des Support Vector Machine-Klassifizierers klassifiziert. Das vorgeschlagene Verfahren erfordert nicht, dass Unterzeichner Handschuhe oder andere Markierungsgeräte tragen. Experimentelle Ergebnisse mit der Datenbank der arabischen Gebärdensprache (ArSL) enthalten 23 Zeichen (Wörter), die von 3 Unterzeichnern aufgezeichnet wurden, zeigen die Wirksamkeit der vorgeschlagenen Methode. Für unterzeichnerabhängige Tests erreicht das vorgeschlagene System basierend auf LBP-TOP und SVM eine Gesamterkennungsrate von bis zu 99,5 %.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13461-1_5 6932be910740b06c45bbe3e88031ab49;de;;;5.3.;;;Eine UML-Modellabfragemethode basierend auf dem Strukturmustervergleich UML wird häufig für die Modellierung verwendet, und Modelle werden im Softwareentwicklungsprozess immer wichtiger. Infolgedessen nimmt die Zahl der verwendeten Modelle zu. Modelle zu verstehen und wiederzuverwenden ist eine echte Herausforderung. Daher ist es notwendig, effiziente Methoden zum Abfragen von Modellen zu erhalten. In diesem Papier schlagen wir eine UML-Modellabfragemethode vor, die auf dem Strukturmustervergleich basiert. In diesem Artikel wird gezeigt, wie die Strukturinformationen des UML-Modells aus der textuellen Modelldatei extrahiert werden. Dann werden eine Modellabfragesprache und der Übereinstimmungsalgorithmus detailliert beschrieben. Anschließend wird eine Fallstudie vorgestellt, die die Wirksamkeit unserer Abfragemethode belegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35795-4_64 f278b0a2cd9759482468cf0c415f6ad0;de;;;5.3.;;;Persönlichkeitsvorhersage basierend auf allen Charakteren der Social Media-Informationen des Benutzers In den letzten Jahren ist die Zahl der Nutzer sozialer Netzwerke explosionsartig gewachsen. In diesem Zusammenhang liefert Social Media den Forschern zahlreiche Informationen über das Nutzer- und Sozialverhalten. Wir beginnen zu verstehen, dass das Verhalten von Benutzern in sozialen Medien mit der Persönlichkeit des Benutzers zusammenhängt. Die herkömmliche Persönlichkeitsbewertung hängt von der Bestandsaufnahme der Selbstberichte ab, deren Informationsbeschaffung viel kostet. In diesem Artikel wird versucht, die Big-Five-Persönlichkeit der Benutzer anhand ihrer Informationen in sozialen Netzwerken vorherzusagen. Wir haben einen Big-Five-Persönlichkeitsinventartest mit 131 Nutzern des chinesischen sozialen Netzwerks Sina Weibo durchgeführt und alle ihre Weibo-Texte und Profilinformationen gecrawlt. Durch die Untersuchung der Relevanz zwischen allen Arten von benutzergenerierten Informationen und Persönlichkeitsergebnissen von Benutzern haben wir die fünf relativsten Dimensionen extrahiert und die Methode des maschinellen Lernens verwendet, um die Big-Five-Persönlichkeit von Benutzern erfolgreich vorherzusagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45558-6_20 4b45b3812f65003f0373b9e2c4e2ffa9;de;;;5.3.;;;Akustisch-phonetische Merkmale basierende Kannada-Dialekt-Identifikation anhand von Vokallauten In diesem Artikel wird ein Dialekt-Identifikationssystem für die Sprache Kannada vorgeschlagen, das Vokale verwendet. Dialektale Hinweise werden durch akustische Parameter wie Formantfrequenzen (F1–F3) und prosodische Merkmale [Energie, Tonhöhe (F0) und Dauer] charakterisiert. Zu diesem Zweck wird ein Vokaldatensatz von Muttersprachlern des Kannada aus verschiedenen Dialektregionen gesammelt. Globale Merkmale, die globale Statistiken auf Rahmenebene darstellen, wie Mittelwert, Minimum, Maximum, Standardabweichung und Varianz, werden aus Vokallauten extrahiert. Lokale Merkmale, die zeitliche dynamische Eigenschaften von der Konturebene darstellen, werden aus der stationären Vokalregion abgeleitet. Zur Klassifizierung werden drei entscheidungsbaumbasierte Ensemblealgorithmen, nämlich Random Forest, Extreme Random Forest (ERF) und Extreme Gradient Boosting Algorithmen verwendet. Die Leistung sowohl globaler als auch lokaler Funktionen wird einzeln bewertet. Weiterhin wird die Signifikanz jedes Merkmals bei der Dialektunterscheidung unter Verwendung von Einzelfaktor-ANOVA-Tests (Varianzanalyse) analysiert. Globale Funktionen mit dem ERF-Ensemble-Modell haben eine bessere durchschnittliche Dialekterkennungsleistung von etwa 76% gezeigt. Außerdem wird der Beitrag jedes Merkmals zur Dialekterkennung überprüft. Die Rolle von Dauer, Energie, Tonhöhe und drei Formantenmerkmalen ist in der Kannada-Dialektklassifikation offensichtlich.;-;-;-;https://link.springer.com/article/10.1007/s10772-019-09646-1 4275172c4161f77856bbcad9eb26e2cc;de;;;5.3.;;;Erlernen von Gabor-Funktionen zur Schätzung des Gesichtsalters In dieser Arbeit zielen wir darauf ab, die Gesichtsaltersschätzung in einer multiethnischen Umgebung mit 39 möglichen Kombinationen von vier Merkmalsnormalisierungsmethoden, zwei einfachen Merkmalsfusionsmethoden, zwei Merkmalsauswahlmethoden und drei Gesichtsrepräsentationsmethoden wie Gabor, AAM und LBP zu untersuchen. Zuerst wird das Gabor-Merkmal als Gesichtsdarstellung zur Altersschätzung extrahiert. Inspiriert von [3] verschmelzen wir weiter das globale Active Appearance Model (AAM) und die lokalen Gabor-Features als Darstellung von Gesichtern. In Kombination mit Merkmalsauswahlschemata wie der Least Angle Regression (LAR) und der sequentiellen Auswahl wird ein fortschrittliches Altersschätzungssystem für die fusionierten Merkmale vorgeschlagen. Ein systematischer Vergleich von 39 Experimenten zeigt, dass (1) Gabor-Merkmale als einzelne Gesichtsdarstellung überraschenderweise LBP-Merkmale oder sogar AAM-Merkmale übertreffen. (2) Mit einem globalen/lokalen Merkmalsfusionsschema können fusionierte Gabor- und AAM- oder fusionierte LBP- und AAM-Merkmale eine signifikante Verbesserung der Altersschätzung gegenüber der Einzelmerkmalsdarstellung allein erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25449-9_26 e2234beef4d9315eb1ccbff732820a97;de;;;5.3.;;;Erkennung menschlicher Handlungen basierend auf dem Winkeldeskriptor In diesem Beitrag wird eine einfache und effektive Methode zur 3D-Skelett-basierten Aktionserkennung vorgeschlagen. Anstatt die gesamten Skelettgelenke als Eingabe zu verwenden, wählen wir mehrere aktive Gelenke aus, um die gesamte Aktion darzustellen, deren Bewegungsbereiche relativ groß sind, indem wir ihre Varianz auswerten und ihnen unterschiedliche Gewichte geben. Durch Berechnen der Winkel zwischen diesen Gelenken und dem Mittelgelenk in ihren drei Projektionen wird dann ein Merkmalssatz an jedem Frame erzeugt, der in einer Tüte von Wörtern angewendet wird, um das 2D-Array zu bilden. Die endgültigen Features werden durch diese 2D-Arrays kaskadiert. Während dieses Vorgangs können die Merkmalsnummern effektiv reduziert werden. Der Random Forest wird verwendet, um verschiedene Aktionen zu klassifizieren. Experimente mit dem MSR-Action3D-Datensatz zeigen, dass unser Ansatz in der Lage ist, die State-of-the-Art-Leistung mit hoher Erkennungsrate und Recheneffizienz zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-2666-9_61 a786979d850e92f268d2909ecfea1ed3;de;;;5.3.;;;Zusammenfassung der Systeme zur Erkennung von Gewalt Menschliches Verhalten ist die Reaktion auf den Status von inneren und äußeren Reizen. Es kommt in Form von körperlichen Handlungen und beobachtbaren Emotionen zum Ausdruck, die mit Einzelpersonen oder Personengruppen verbunden sein können. Bedeutende Inhalte aus menschlichem Verhalten werden für die Videoüberwachung, die Merkmalsextraktion und die Erstellung von Mensch-Computer-Schnittstellen herausgezogen. Die vorliegende Forschungsarbeit untersucht die Videoüberwachung zur Realisierung eines Gewalterkennungssystems. Es wird ein neuartiger Rahmen eingeführt, durch den ein Rohvideostrom verarbeitet wird, anschließend decodiert der Rahmen die korrekte Semantik bezüglich der Gewalterkennung aus dem empfangenen Rohbild. In diesem Beitrag wird eine umfassende Literaturrecherche durchgeführt, die den neuesten Stand der Technik im Bereich der Videoüberwachung offenbart.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-8715-9_25 b57028a51d5c6584c3d9077775b05092;de;;;5.3.;;;Videobasierte Emotionserkennung mit CNN und BRNN Die videobasierte Emotionserkennung ist eine ziemlich anspruchsvolle Aufgabe der Computer Vision. Sie muss nicht nur räumliche Informationen jedes Bildrahmens modellieren, sondern erfordert auch die Berücksichtigung zeitlicher Kontextkorrelationen zwischen sequentiellen Rahmen. Zu diesem Zweck schlagen wir eine hierarchische Deep-Network-Architektur vor, um räumlich-zeitliche Merkmale auf hoher Ebene zu extrahieren. In dieser Architektur werden zwei klassische tiefe neuronale Netze, faltungsneutrale Netze (CNN) und bidirektionale rekurrente neutrale Netze (BRNN), verwendet, um die Texturmerkmale des Gesichts im räumlichen Bereich bzw. dynamische Emotionsänderungen im zeitlichen Bereich zu erfassen. Wir bemühen uns, die beiden Netzwerke zu koordinieren, indem wir sie jeweils optimieren, um die Leistung der Emotionserkennung zu steigern. Im anspruchsvollen Wettbewerb erzielt unsere Methode im Vergleich zu den Baselines eine vielversprechende Performance.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-3005-5_56 a6f09e97db64e4d73896b1355e6c7c61;de;;;5.3.;;;Eine empirische Bewertung der Glaubwürdigkeit, Vertrauenswahrnehmung und Kompatibilität mit Cloud-basierten Diensten: Der Fall der Hochschulbildung in Malaysia Dieses Papier untersucht den Einfluss von Glaubwürdigkeit auf das Vertrauen, da es in der Wissenschaft, insbesondere im Cloud-Computing, kaum beachtet wurde, und um die Kompatibilität gegenüber der Absicht der Nutzung oder Einführung von SaaS-Diensten zu testen. Ein quantitatives Erhebungsinstrument wurde verwendet, und die Autoren wählten Befragte von öffentlichen malaysischen Universitäten aus verschiedenen Schulen, Rassen, Altersgruppen und Geschlechtern aus. Gültige Antworten waren 233. Partielle kleinste Quadrate Strukturgleichungsmodellierung (PLS-SEM) verwendet, um das Modell zu analysieren. Die Hauptergebnisse zeigen einen statistisch positiven und signifikanten Effekt von Glaubwürdigkeit und Vertrauen auf die Einstellung, Kompatibilität auf die Verhaltensabsicht und Verhaltensabsicht auf das Outcome. Insbesondere die Glaubwürdigkeit hatte einen starken, signifikanten positiven Effekt auf das Vertrauen. Das Framework hat seine Angemessenheit, Vorhersagegenauigkeit und Relevanz bewiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-69717-4_70 d588480f4af0b36e69d5a5ac3cc6e1a6;de;;;5.3.;;;EmoEars: Ein Emotionserkennungssystem für Mandarin-Sprache In diesem Beitrag wird ein Emotionserkennungssystem für Mandarinensprache vorgestellt. Fünf grundlegende menschliche Emotionen, darunter Wut, Angst, Freude, Neutral und Traurigkeit, werden untersucht. Der Erkenner basiert auf einem neuronalen Netzwerk mit OCON- und ACON-Architektur. Einige neuartige Merkmalsauswahlverfahren werden auch als optionales Werkzeug hinzugefügt, um die Effizienz und Klassifizierungsgenauigkeit zu verbessern. Das System kann ein sprecherabhängiges Emotionssprachmodell durch Online-Aufzeichnung emotionaler Äußerungen trainieren. Die Versuchsergebnisse zeigen, dass Emotionen durch das neuronale Netzwerkmodell erkannt werden können, die beste mittlere Genauigkeit liegt bei 86,7%. Darüber hinaus ist das Merkmalsauswahlmodul wirksam, um die Rechenlast zu reduzieren und die Verallgemeinerungsfähigkeit des Erkenners zu erhöhen.;-;-;-;https://link.springer.com/chapter/10.1007/11596448_140 16d5f39d4a95738404cb870921c00b63;de;;;5.3.;;;Digitale Kunst mit maschinellem Lernen Die digitale Kunsterstellung verwendet digitale Kunst, die mehrere Farben für mehrere Anwendungen unterstützt. Digitale Kunst impliziert das Herstellen von semantischen Zeichen in einer unmöglichen Kapazität durch Hand- oder Fingerbewegungen. Digitale Künste stehen im Gegensatz zum üblichen Gekritzel, letzteres besteht in der Entwicklung von Objekten nach oben und unten, wenn die Vergangenheit einen bestimmten Plan zur Erschaffung von Ereignissen benötigt. In einigen Komplizenpapieren kennzeichnen wir Probleme der Affirmation digitaler Kunst. Für einige Ausnahmen wurden die Daten, die durch Handzeichen gezogen wurden, auf einfache Weise verarbeitet oder trainiert. Wir kennzeichnen digitale Kunst auf zwei Ebenen: Entwicklungsfiguren und mehrfarbige Charaktere. Abgelöste digitale Kunstfiguren könnten unabhängig von der Art und Weise als Entwicklungsbewegungen angesehen werden, mit erweiterter Komplexität und Varianz. Um Überschneidungen von Buchstaben zu vermeiden, haben wir verschiedene Arten von Zeichen erstellt und in einem virtuellen Raum zur Ausstellung der Daten gespeichert. Ein überdachtes Markov-Modell wird für die Ausstellung und Bestätigung digitaler Kunst verwendet. Wir zeigen die Ereignisdaten entlang von Schätzungen nach einer zweidimensionalen Peilung an, die insbesondere für die Bestätigung digitaler Kunst hilfreich sein könnte. Wir zeigen die Entwicklungsdaten entlang von Schätzungen an, wobei eine zweidimensionale Peilung insbesondere für die Bestätigung digitaler Kunst hilfreich sein könnte. Betrachten Sie nun die allgemeine Fülle verschiedener Komponentenschätzungen von optischen und Trägheitsnachzeichen und die daraus resultierende plausible Bestätigungsausführung entsprechend. Die vorgeschlagene Struktur erreicht ein Tempo von 0,8 % für zeichenbasierte Affirmationen und 1,9 % für andere farbbasierte Affirmationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7511-2_53 9ad1d890f32975fbbd432b4305e3afeb;de;;;5.3.;;;Bringen Sie Ihrem Roboter bei, wie er Emotionen ausdrücken soll Wir glauben, dass Roboter in der Lage sein sollten, affektives Verhalten auszudrücken, damit Roboter auf natürliche Weise mit Menschen interagieren können. Dieser Beitrag beschäftigt sich mit der Entwicklung eines affektiven Modells für soziale Robotik, bei dem sich die resultierenden robotischen Ausdrücke entsprechend den subjektiven Präferenzen des Menschen anpassen. Wir haben eine Methode entwickelt, die auch von Nicht-Technikern verwendet werden kann, um die affektiven Modelle humanoider Roboter zu entwerfen. Unsere Vision der zukünftigen Forschung ist, dass die vorgeschlagene Personalisierung aus Sicht des Benutzers als empathische Reaktion der Maschine behandelt wird. Wir sehen den großen Beitrag dieses einzigartigen Ansatzes vor allem in langfristigen Mensch-Roboter-Beziehungen und könnten letztendlich dazu führen, dass Roboter in einem größeren Bereich akzeptiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10783-7_9 42a760d3eb270891c95e2a43a6f4db1a;de;;;5.3.;;;Zwischen Kontexten wechseln Jede Aktion wird in einem bestimmten Kontext ausgeführt. Was bedeutet es also, dasselbe in einem anderen Kontext zu tun? Auf diese Frage gibt es keine einfache Antwort, sie hängt von der Interpretation der Operation ab und kann auch dann mehrdeutig sein. Dies ist kein rein theoretisches Problem, sondern tritt bei praktischen Rechenproblemen auf. Dieses Papier untersucht dieses Problem und betrachtet drei verschiedene Probleme: Rückgängigmachen durch mehrere Benutzer, verteilte Aktualisierung und die gleichzeitige Entwicklung eines Dokuments in mehreren Formaten. In jedem Fall finden wir formale Regeln, denen jede sinnvolle Übersetzung folgen muss. Wir sehen auch, dass dynamische Zeiger, ein generisches Spezifikations- und Implementierungskonzept, das in früheren Arbeiten definiert wurde, verwendet werden können, um Standardübersetzungsregeln zu generieren, die in vielen Fällen ausreichen. Dies liegt daran, dass dynamische Zeiger selbst als Übersetzung von Standortinformationen zwischen verschiedenen Kontexten angesehen werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-9437-9_10 463f8f5590ea68a4a55872869d107fc2;de;;;5.3.;;;Die Verwendung von Gehirn-Computer-Schnittstellen in der Umgebungsintelligenz Dieses Papier zielt darauf ab, die IDIAP Brain Computer Interface (IBCI)-Forschung vorzustellen, die erfolgreich die Prinzipien der Ambience Intelligence (AmI) bei der Gestaltung intelligenter Gehirn-Maschine-Interaktionen anwendete. Wir gehen durch IBCI-Anwendungen und beschreiben, wie Maschinen die menschlichen mentalen Befehle, kognitiven und emotionalen Zustände entschlüsseln und darauf reagieren können. Wir zeigen, wie eine effektive Mensch-Maschine-Interaktion für Brain Computer Interfacing (BCI) erreicht werden kann durch 1) asynchrones und spontanes BCI, 2) gemeinsame Kontrolle zwischen Mensch und Maschine, 3) Online-Lernen und 4) die Nutzung kognitiver Zustandserkennung . Wir identifizieren gemeinsame Prinzipien in der BCI-Forschung und der Ambiance Intelligence (AmI)-Forschung und diskutieren IBCI-Anwendungen. Mit den aktuellen Studien zur Erkennung menschlicher kognitiver Zustände plädieren wir für die Möglichkeit, empathische Umgebungen oder Geräte zu entwerfen, die ein besseres menschenähnliches Verständnis direkt aus Gehirnsignalen haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85379-4_34 a789deb7192603745efa14250c3dc525;de;;;5.3.;;;Virtuelles verstecktes Netzwerk In diesem Papier schlagen wir zunächst einen neuen Typ von Netzwerkmodell namens Virtual Hidden Network (VHN) vor, ein unsichtbares Netzwerk, das über Steganographiekanälen geschichtet ist. Im Gegensatz zu gewöhnlichen Steganographiesystemen kann es einen geheimen Kommunikationskanal zwischen zwei Personen bereitstellen, die nicht direkt kommunizieren. Als nächstes führen wir einen neuen Steganographiekanal ein, den TCP-Anfangssequenznummernkanal, dessen Sicherheit von der Unvorhersehbarkeit der TCP-Anfangssequenznummern abhängt. Schließlich zeigen wir eine prototypische Implementierung von VHN über TCP-Anfangssequenznummernkanäle und bewerten ihre Sicherheit und Benutzerfreundlichkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35413-2_28 d8240d9866956d2fcc6b6c50c4e2748b;de;;;5.3.;;;Optimierung des Mobilfunkdurchsatzes durch spielbasierte Leistungsanpassung und Outband-D2D-Kommunikation Die Device-to-Device (D2D)-Kommunikation ist eine vielversprechende Option für das Mobilfunknetz der fünften Generation (5G), um den Energieverbrauch zu senken und den Durchsatz zu erhöhen, was Anwendungen mit hohem Durchsatz ermöglicht. Auch die Verbesserung der Energie- und Spektrumseffizienz ist bei solchen Anwendungen kritisch. Ohne Besetzung von zellularen Spektrumressourcen wird die Outband-D2D-Kommunikation zunehmend auf Anwendungen mit hohem Durchsatz angewendet, um die Spektrumsversorgung zu erhöhen. Energieeffizienz ist jedoch nach wie vor ein zentrales Thema, das angegangen werden muss. Darüber hinaus wird die Gesamtenergieeffizienz in Mobilfunknetzen durch Zellenrandgeräte stark eingeschränkt. Daher wenden wir in diesem Papier Multi-Hop-Relay-gestützte Outband-D2D-Kommunikation auf Mobilfunknetze an und schlagen eine spielbasierte Leistungsanpassungsmethode vor, um das Problem der Durchsatzoptimierung anzugehen. Zunächst modellieren wir eine Interaktionsbeziehung der Leistungsanpassung für jeden Übertragungsweg als potenzielles Spiel, bei dem für jeden Spieler (dh das empfangende Ende eines Übertragungsweges) eine neue Nutzenfunktion entworfen wird, um seinen Aktionsgewinn zu bewerten und zu bestimmen, ob Aktion oder nicht. Und dann wird bewiesen, dass die Nutzenfunktion eine ordinale Potenzialfunktion (OPF) ist und das Spiel der Machtanpassung ein ordinales Potenzialspiel (OPG), was die Konvergenz des Spielentscheidungsprozesses garantiert. Darüber hinaus schlagen wir einen neuen Spielentscheidungsalgorithmus vor, der eine schnellere Konvergenzgeschwindigkeit als der bestehende typische Algorithmus hat. Darüber hinaus entwerfen wir eine netzwerkunterstützte verteilte Verarbeitungsarchitektur zur Lösung des Durchsatzoptimierungsproblems, einschließlich der Auswahl des Empfangsmodus, der Verifizierung für die Relaisauswahl und der Anpassung der Sendeleistung, die die Last der zentralisierten Verarbeitung verringern kann. Die experimentellen Ergebnisse zeigen, dass unser Schema der bestehenden typischen Arbeit in Bezug auf Durchsatz, Verzögerung, Energieeffizienz, kontinuierliche Servicefähigkeit und Konvergenzleistung überlegen ist.;-;-;-;https://link.springer.com/article/10.1186/s13638-018-1275-2 f1e3045cb7a376e94980f84f01451a0d;de;;;5.3.;;;Die Bedarfsanalyse zur Entwicklung der Betreuten Wohntechnologie für Senioren Die Alterungsprobleme sind in der Welt und auch in der asiatischen Gesellschaft kritisch geworden. Um nützliche und effektive Technologien für das betreute Wohnen zu entwickeln, die älteren Nutzern helfen, sollte der nutzerzentrierte Designprozess die Anforderungsanalyse beinhalten. Diese Forschung sammelte die Meinungen der Experten durch die multidisziplinäre Fokusgruppe, um die Personas aus der Perspektive älterer und pflegender Personen zu entwickeln. Basierend auf der Beschreibung dieser beiden Personas wurden die Bedürfnisse der älteren Nutzer und der Pflegekräfte identifiziert. Die möglichen Merkmale der Betreuten Wohntechnologie und des Serviceplans wurden daher anhand der identifizierten Bedürfnisse von Senioren und Pflegenden entwickelt. Die Ergebnisse dieser Forschung werden zukünftigen Forschern und Designern helfen, Technologien und Dienste für betreutes Wohnen für ältere Menschen in der Gemeinde zu entwickeln. Durch die verbesserte Benutzererfahrung bei der Nutzung der Technologie durch ältere Benutzer können ältere Menschen selbstständig mit der Technologie für betreutes Wohnen interagieren und ihre Lebensqualität verbessern. Dadurch wird die Belastung der Pflegekräfte reduziert. Dann wird das Ziel des Alterns an Ort und Stelle durch die gut konzipierten Technologien und Dienste für betreutes Wohnen für ältere Nutzer erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6113-9_63 d8f4ac16437a7455bae4ae634b0ceac7;de;;;5.3.;;;Social Computing-Anwendung in Online-Crowd-Verhalten und Psychologie Dieses Kapitel bietet eine Einführung in das Online-Gruppenverhalten und die Psychologie der Leser und stellt Social-Computing-Anwendungen im Bereich des Online-Massenverhaltens und der Psychologie vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7760-4_12 d89802415efef982e49a0864d42566fc;de;;;5.3.;;;Analyse der Unterschiede zwischen ISO- und China-Ergonomiestandards Ziel – Um den aktuellen Stand der Ergonomienormen in ISO und China zu untersuchen, analysieren Sie die Unterschiede zwischen ihnen in Bezug auf den Inhalt der Beschränkungen und das Veröffentlichungsjahr. Methoden – Es wurde eine quantitative Analysemethode der Statistik verwendet, um die Unterschiede in der Arbeit zu analysieren. Ergebnisse – Die Zahl der chinesischen Normen entspricht der ISO in Bezug auf allgemeine ergonomische Prinzipien und Anthropometrie und Biomechanik, aber die Zahl der chinesischen Normen entspricht etwa der Hälfte der ISO in Bezug auf die Ergonomie der Mensch-System-Interaktion und die Ergonomie der physischen Umgebung. Schlussfolgerung – Die Aktualisierungsgeschwindigkeit von Ergonomienormen ist in China aufgrund der Schwierigkeiten bei der Einführung nationaler Normen und der komplizierten Verfahren relativ langsam. Der Weg der Veränderung besteht darin, Gruppenstandards von der Gesellschaft zu beantragen, die rechtzeitig auf die Marktnachfrage reagieren und die Verbindung von Produktion, Lernen und Forschung fördern können.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6978-4_119 d2e04249404070d3bdf081b42fadc0ee;de;;;5.3.;;;Soziale Reproduktion und ihre Anwendbarkeit für die Gemeinschaftsinformatik In den letzten zehn Jahren haben engagierte Forscher, Politiker, politische Entscheidungsträger, Investoren und gemeindebasierte Organisationen konzertierte Anstrengungen unternommen, um die digitale Kluft zu überwinden, aber die Lösung ist noch immer schwer fassbar. Informations- und Kommunikationstechnologien (IKT) wurden in Diskursen über die digitale Kluft als der große Ausgleich dargestellt, der von lokalen Gemeinschaften genutzt werden kann, um wirtschaftliche Benachteiligung zu bekämpfen und die soziale Eingliederung zu fördern.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84800-332-3_8 305ba0bce197a4e14f36effcf3009c3f;de;;;5.3.;;;Bidirektionales Lernen von Aktionsregeln Aktionsregeln geben Empfehlungen an, die befolgt werden sollten, um Objekte in die gewünschte Entscheidungsklasse zu übertragen. In diesem Beitrag wird der Einfluss der Verwendung von Informationen, die in Quell- und Zielklassenbeispielen enthalten sind, in der sequenziellen, überdeckenden Methode zur Induktion von Handlungsregeln untersucht. Die Ergebnisse zeigen, dass die Verwendung der Quellklasse zur Führung des Induktionsprozesses die besten Ergebnisse liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00840-6_24 6afddccc10ba207eadea0f0747fdee3f;de;;;5.3.;;;Eine Übersicht über Petroselinsäure und ihre Derivate Diese Veröffentlichung enthält einen umfassenden Überblick über die Literatur zu Petroselinsäure und ihren Derivaten. Alle bekannten Quellen von Petroselinsäure, einschließlich ihrer synthetischen Ableitung, wurden erforscht und beschrieben. Die verschiedenen Pflanzenarten, deren Samen ein Öl enthalten, von dem berichtet wird, dass es Petroselinsäure enthält, wurden aufgelistet und die Ölmengen und ihre vorherrschenden Fettsäurekomponenten angegeben. Sein Verfahren zur Isolierung aus den natürlich vorkommenden Triglyceriden und seine Identifizierung wurden diskutiert. Die Beschreibungen der Eigenschaften und Eigenschaften von Petroselinsäure und ihren verschiedenen Derivaten sind ebenfalls enthalten. In vielen Fällen wurden sie mit Ölsäure und anderen verwandten Fettsäuren und deren Derivaten verglichen. Die verschiedenen Methoden der chemischen Modifizierung von Petroselinsäure wurden untersucht, und die erhaltenen Derivate wurden tabellarisch zusammengefasst. Einige mögliche Verwendungen für Petroselinsäure und die daraus gewonnenen Produkte wurden ebenfalls diskutiert. Dieser Aufsatz soll zeigen, was bisher über Petroselinsäure bekannt ist, und vielleicht weiteres Interesse an der Erforschung dieser einzigartigen natürlich vorkommenden Octadecensäure wecken.;-;-;-;https://link.springer.com/article/10.1007/BF02631548 37184e84b08d75e452a1bc142307c291;de;;;5.3.;;;Pro-Gamma-MSH-Spiegel bei verschiedenen Störungen der Hypophyse-Nebennieren-Achse Der N-terminale (1–76) Anteil von Proopiomelanocortin (hNT) wurde bei Normalen, Addison-, Nelson-, Cushing-Krankheit und bei Dexamethason-supprimierbarem Hyperaldosteronismus (DSH) unter Verwendung eines spezifischen homologen RIA gemessen. Der mittlere basale immunreaktive hNT-Spiegel betrug 94,2 ± 6 pg/ml (Mittelwert ± SE) bei gesunden Probanden. Bei Morbus Cushing waren die hNT-Werte geringfügig, aber nicht signifikant (121 ± 26,5 pg/ml) höher. Bei Patienten mit DSH lagen die Werte im Normbereich, während sie beim Addison- und Nelson-Syndrom viel höher waren. Es wurde eine starke Korrelation zwischen IR-hNT und ACTH im Plasma von gesunden Probanden und Patienten mit unterschiedlichen Störungen der Hypophyse-Nebennieren-Achse gefunden (r = 0,83, p < 0,01). Der Corticotropin-Releasing-Hormon (CRH)-Test bei Morbus Cushing stimulierte die Freisetzung von ACTH und IR-hNT und zeigte ein etwas anderes Sekretionsmuster. Ähnliche Sekretionsmuster wurden für hNT und ACTH bei verschiedenen Hypophysen-Nebennieren-Anomalien gefunden. Normale hNT-Spiegel in DSH unterstützen eine Rolle dieses Peptids bei der Pathogenese der Erkrankung nicht. Die Messung von hNT im Plasma kann ein zusätzliches Werkzeug für die Diagnose von Patienten mit verschiedenen Störungen der Hypothalamus-Hypophysen-Nebennieren-Achse sein.;-;-;-;https://link.springer.com/article/10.1007/BF03348575 6a6bd838352726dd5a47ff5ca251f68f;de;;;5.3.;;;Halogenkorrosion von Metallen Halogene und viele Halogenverbindungen sind sehr korrosiv. Tatsächlich wurde Jod entdeckt, als es als Verunreinigung in Soda die Korrosion von Kupfergefäßen verursachte.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-9062-0_2 e30dd4eb3d3d15ba0a79e758ffe63e90;de;;;5.3.;;;Kleine Basissätze zur Berechnung von Barrierenhöhen, Reaktionsenergien, Elektronenaffinitäten, Geometrien und Dipolmomenten Beginnend mit dem MIDI! Basisset (auch MIDIX genannt) stellen wir die Basissets MIDIX+, MIDIY und MIDIY+ vor. Unter Verwendung korrelierter Ab-initio- und hybrider Dichtefunktionaltheorie vergleichen wir ihre Leistung mit der mehrerer existierender Basissätze für elektronische Strukturrechnungen. Die neuen Basissätze werden mit Datenbanken von 358 Reaktionsenergien, 44 Barrierehöhen, 31 Elektronenaffinitäten, 18 Geometrien und 29 Dipolmomenten getestet. Die Basissätze MIDI!, MIDIX+, MIDIY und MIDIY+ erweisen sich als kostengünstige Methoden zur Berechnung von relativen Energien, Geometrien und Dipolmomenten. Für die Berechnung von Elektronenaffinitäten großer Moleküle erweist sich die MIDIX+-Basis als besonders effizient.;-;-;-;https://link.springer.com/article/10.1007/s00214-003-0518-3 f2b5ac2c4a3829d9b542cfce60759b97;de;;;5.3.;;;Hypophysenprotein-lipolytischer Faktor(e): Teilreinigung durch isoelektrische Fokussierung (IEF) Es wurden Tests an hochgereinigten peptidischen Hypophysenfaktoren von Rindern auf lipolytische Aktivität auf Rattenfettgewebe durchgeführt. Der lipolytische Proteinfaktor aus Rinderhypophyse wurde isoliert und durch Ethanolfällung, Gelfiltration und isoelektrische Fokussierung charakterisiert. Der Überstand des homogenisierten Gewebes wurde mit Ethanol ausgefällt, der Niederschlag wurde lyophilisiert und in HCl 1 mMol/Liter resuspendiert, das Unlösliche wurde verworfen und der Überstand lyophilisiert. Eine Lösung der lyophilisierten Fraktion wurde durch Gelfiltration an Sephadex G-75 fraktioniert. Die Banden mit lipolytischer Aktivität wurden gepoolt und lyophilisiert. Die lipolytische Aktivität wurde durch Inkubation von epididimalem Fettgewebe der Ratte und durch aufeinanderfolgende Messungen der freien Fettsäuren und des im Inkubationsmedium freigesetzten Glycerins bestimmt. Die Gelfiltration mit der höchsten lipolytischen Aktivität (20,4 µÄquiv/g pro 4 Stunden und 17,0 µmol/g pro 4 Stunden Glycerin) wurde einer isoelektrischen Fokussierung unterzogen. Die Gelfiltration erschien noch immer sehr heterogen, aber der größte Teil der lipolytischen Aktivität war in der Proteinbande bei pH 8,6 konzentriert.;-;-;-;https://link.springer.com/article/10.1007/BF01025419 46274aadf3959afc0e3d500df27a193f;de;;;5.3.;;;Aminosäurezusammensetzung durch Säulenchromatographie Vor 25 Jahren dauerte eine säulenchromatographische Bestimmung der Aminosäurezusammensetzung eines Proteinhydrolysats etwa 10 Tage, verwendete drei separate Säulen und erforderte die Hydrolyse von etwa 10 mg Protein [878].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-80945-3_7 c09994a0280a2665fe9a1e82594b58bd;de;;;5.3.;;;Untersuchung der Rollen der Assistenz in einem digitalen Storytelling-Autorensystem Hilfestellung oder angeleitetes Lernen bezieht sich auf einen Zustand, in dem Hilfe benötigt wird, um die Schüler zu motivieren und das Verständnis für die Idee der Geschichtenerstellung zu fördern. Der betreute Ansatz ist eine Form des geführten Lernens, die darauf abzielt, ein Gleichgewicht zwischen dem Geben und dem Zurückhalten von Hilfe zu schaffen. Diese Bedingung ermöglicht es den Lernenden dann, jederzeit Hilfe, Hinweise und Feedback zu erhalten, ohne ihre Fähigkeit zu beeinträchtigen, selbst Wissen aufzubauen. G-Flash, ein Autorentool, wurde basierend auf einem Flashcard-basierten Guided Digital Storytelling-Design-Framework für digitales Storytelling entwickelt, das illustrierte Flashcards und den angeleiteten Zustand als wichtige Merkmale des Frameworks hervorhebt. Als Hilfestellung wurden in diesem Rahmen sowohl bebilderte Lernkarten als auch 2D-Animationsfiguren konzipiert. Eine Studie über den Prozess der Geschichtenerstellung wurde durchgeführt, um die Rolle und den Nutzen der Unterstützung zu untersuchen, die den Schülern hilft, das Verständnis der zu erstellenden Geschichte zu fördern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25200-6_20 d656e7b66d1354179f738b0690a87de9;de;;;5.3.;;;Nichtmagnetischer starrer und flexibler Außenmantel mit pneumatischem Verriegelungsmechanismus für minimalinvasiven chirurgischen Zugang Wir haben einen nichtmagnetischen starren und flexiblen Außenschaft mit pneumatischem Verriegelungsmechanismus entwickelt, der flexible Zahnglieder und ein drahtgetriebenes, biegsames distales Ende verwendet. Der Außenschaft kann je nach chirurgischer Szene einfach zwischen starrem und flexiblem Modus umgeschaltet werden, und der Winkel seines distalen Endes kann durch drei Nylondrähte gesteuert werden. Alle Komponenten der flexiblen Teile bestehen aus MRT-kompatiblen, nichtmagnetischen Kunststoffen. Wir haben das Gerät mit einer Länge von 300 mm, einem Außendurchmesser von 16 mm, einem Innendurchmesser von 7 mm und einem gebogenen distalen Ende von 90 mm hergestellt. Die Haltekraft des Geräts im starren Modus betrug maximal 3,6 N, was für chirurgische Aufgaben in der Körperhöhle ausreichend war. Bei einem In-vivo-Experiment mit einem Schwein führte unser Gerät ein flexibles Endoskop und eine Biopsiezange sanft in die Rückseite der Leber, des Darms und der Milz mit einem gekrümmten Weg ein. Zusammenfassend zeigt unser Gerät die Verfügbarkeit eines sicheren Zugangs von chirurgischen Instrumenten in tiefe Höhlen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04268-3_52 9599ff9f9c70ab36cf90187c2cd48d4f;de;;;5.3.;;;Betriebsstrategie von Bedarfsbussen unter Verwendung einer selbstorganisierenden Karte Der Bedarfsbus bietet als eines der neuen Transportsysteme interessante Fortbewegungsmittel, und die Forschungsfragen zu Betriebsstrategien dieses Bedarfsbussystems haben sich auf das Problem des Kompromisses zwischen Bequemlichkeit und Gewinn konzentriert. Die traditionelle Forschung hat jedoch die lokalen Eigenschaften von Bedarfsbussystemen analysiert, da die streng begrenzten Parameter verwendet werden, um ihre Analysemittel zu verdeutlichen, aber die Betriebsstrategie von Verkehrssystemen aus globaler Sicht nicht explizit machen konnten. In diesem Papier schlagen wir einen Rahmen vor, um mit verschiedenen Parametern umzugehen, um die Beziehung zwischen Betriebsmethode und Servicebereich abzuschätzen. Unser Framework besteht aus Analysephase und Visualisierungsphase. In der Analysephase erstellen wir eine gemeinsame Datenbank aus vielen experimentellen Daten, die analytisch aus den Berechnungen mehrerer Parameter generiert wurden. In der Visualisierungsphase visualisieren wir die Merkmale der Betriebsmethode und des Servicebereichs basierend auf den Beziehungen zwischen den Parametern. In unserem Rahmen ist es möglich, die Anpassungsfähigkeit von Bussystemen in Bezug auf Betriebsmethode und Servicebereich global zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16324-1_6 f5871b914e099c0e14a24124c8193aef;de;;;5.3.;;;Passblot: Ein nützliches Authentifizierungsschema zur Generierung von Einmalpasswörtern Die Benutzerauthentifizierung ist erforderlich, um die Daten zu sichern und über das Internet oder Mobilfunk zu verarbeiten. Das am häufigsten verwendete System für diesen Zweck ist ein statisches alphanumerisches, passwortbasiertes Authentifizierungssystem. Sie sind jedoch anfällig für verschiedene Arten von aktiven und passiven Angriffen. Eine der vielversprechenden Alternativen sind grafische, passwortbasierte Authentifizierungssysteme, die bei richtiger Implementierung sicher, aber nicht so leicht zu verstehen oder zu erlernen sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22540-6_36 114610bab824ce214a08dd4d074f1cfe;de;;;5.3.;;;Folgen Sie den Schildern – der Abkehr von der realen Welt während der Stadterkundung entgegenwirken Das Navigieren und Erkunden unbekannter städtischer Gebiete sind häufige und oft herausfordernde Aufgaben für Touristen, Neuankömmlinge und andere Gruppen gleichermaßen. Immer mehr Menschen nutzen mobile Apps, um Unterstützung bei der Erledigung dieser Aufgaben zu erhalten. Ein möglicher Nebeneffekt davon ist die Abkopplung von der realen Welt, d. h. das Nichtwahrnehmen der tatsächlichen Umgebung durch den ständigen Blick auf den Bildschirm des Mobilgeräts. Dies wiederum kann den Aufbau einer mentalen Landkarte stören, das Bewusstsein der Menschen für ihre Umgebung verringern und durch häufige Aufmerksamkeitsverschiebungen zu einer hohen mentalen Arbeitsbelastung führen. Um diesen Problemen entgegenzuwirken, schlagen wir einen Ansatz zur Unterstützung von Navigation und Exploration vor, indem wir Aufmerksamkeitsverschiebungen zwischen der virtuellen und der physischen Welt explizit steuern. Es basiert auf den Ergebnissen einer Umfrage (n = 102) zur Untersuchung der touristischen Schifffahrt und auf den;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-56759-4_6 a9a2fabce7cb1909cb748708cdadc53d;de;;;5.3.;;;Gaming für die Therapie in einer intelligenten Umgebung des Gesundheitswesens Spieleelemente überschreiten die üblichen Grenzen ihres Mediums, um die Benutzererfahrung und das Benutzerengagement in Nicht-Spielanwendungen zu verbessern. Therapeutisches Serious Gaming ermöglicht es einem Patienten, spezifische Übungen durchzuführen, während er sich mit einem Spiel beschäftigt, um seine Ziele im Zusammenhang mit therapeutischen Aktivitäten zu erreichen. Ein allgegenwärtiges therapeutisches Spiel entspricht dem Einfügen dieser Elemente in ein kontextbewusstes Smart Ambient. Dieses Papier präsentiert einen Vorschlag für den Einsatz von therapeutischen Serious Games in einem allgegenwärtigen Umfeld der Gesundheitsversorgung. Wir implementieren diese Spiele zur Rehabilitation von kognitiven und motorischen Defiziten und nutzen dabei die Infrastruktur, die zur Unterstützung und Überwachung älterer und behinderter Menschen entwickelt wurde. Die Forschungsergebnisse der Arbeit werden auch für Studien verwendet, um die Effektivität des Systems durch Personalisierung zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31479-7_38 6df38efdfafff6c1fb8443d6555a4987;de;;;5.3.;;;Abschätzung der beleuchtungsinvarianten Kopfhaltung mit Random-Forest-Klassifikator und Binärmuster-Lauflängenmatrix In diesem Beitrag wird ein neuartiger Ansatz zur Schätzung der Kopfhaltung in Graustufenbildern vorgestellt. Bei dem vorgeschlagenen Algorithmus wurden zwei Techniken verwendet. Um mit der großen Menge an Trainingsdaten umzugehen, wurde die Methode des Random Forests verwendet, dies ist ein hochmoderner Klassifikationsalgorithmus im Bereich Computer Vision. Um dieses System hinsichtlich der Beleuchtung robust zu machen, wurde eine Binärmuster-Lauflängenmatrix verwendet, diese Matrix ist eine Kombination aus Binärmuster und einer Lauflängenmatrix. Das binäre Muster wurde von einem zufällig ausgewählten Operator berechnet. Um das Merkmal des Trainingspatches zu extrahieren, berechnen wir statistische Texturmerkmale aus der Binärmuster-Lauflängenmatrix. Darüber hinaus führen wir einige Techniken für den Echtzeitbetrieb durch, wie zum Beispiel die Kontrolle der Anzahl der Binärtests. Experimentelle Ergebnisse zeigen, dass unser Algorithmus effizient und robust gegenüber Beleuchtungsänderungen ist.;-;-;-;https://link.springer.com/article/10.1186/s13673-014-0009-7 a02717fa83c1efb79fc410ed2efdde30;de;;;5.3.;;;Pneumatische Origami-Gelenke Dieses Papier beschreibt den Entwurfs- und Herstellungsprozess einer adaptiven Verbindung mit faltbaren 3D-gedruckten Strukturen, die in heißversiegelten synthetischen Polymerfolien (z. B. luftdichte Kunststoffhülle) eingeschlossen sind. Die vorgeschlagene Verbindung kann mit dem luftdichten Gehäuse pneumatisch betätigt werden, und die Form der Verformung kann mithilfe von Origami-inspirierten 3D-Druckstrukturen gesteuert werden. Für den Verbindungsbereich der Origami-Struktur im Gelenk wird eine Zick-Zack-Gap-Mikrostruktur entworfen, damit das starre 3D-gedruckte Material (PLA) Eigenschaften von Molluskenmaterial wie Flexibilität und Weichheit erhält. Schließlich stellt der Beitrag einige Anwendungen vor, bei denen pneumatische Origami-Gelenke verwendet werden, die mit Menschen interagieren oder das Raumklima anpassen, und vergleicht die Vorteile dieser pneumatischen Technologie mit der mechanischen Technologie.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-8410-3_23 bdbd56a49cad3618b50e966c3d7dddc5;de;;;5.3.;;;Die Webbrowser-Personalisierung mit dem clientseitigen Triplestore Wir stellen eine clientseitige Triplestore-Bibliothek für HTML5-Webanwendungen und eine Personalisierungstechnologie für Webbrowser vor, die mit dieser Bibliothek arbeiten. Der Triplestore ermöglicht es HTML5-Webanwendungen, semantische Daten im HTML5-Webspeicher zu speichern. Die Personalisierungstechnologie ermöglicht es Webbrowsern, semantische Daten aus dem Web zu sammeln und diese für eine verbesserte Benutzererfahrung auf Webseiten beim Surfen der Benutzer zu verwenden. Wir zeigen neue Potenziale für Webbrowser auf, um neue Benutzererfahrungen durch Personalisierung mit semantischer Webtechnologie bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11915-1_30 e8f8447226241c6ff649a5a94f6d8300;de;;;5.3.;;;Interaktives System zur Origami-Erstellung Dieses Papier schlägt ein neues System vor, das Origami-Ersteller, die keine speziellen Kenntnisse über die Origami-Erstellung haben, dabei unterstützt, ihre einzigartigen Werke einfach im virtuellen 3D-Raum zu erstellen. Außerdem werden automatisch 2D-Diagramme oder 3D-Animationen zur Beschreibung der Faltprozesse erstellt, damit die Menschen diese Werke nachbauen können. Benutzer können Faltoperationen entscheiden und Werke über eine interaktive Schnittstelle erstellen. Zur einfachen Erstellung werden zwei Methoden vorgeschlagen. Eine ist eine Methode zur Darstellung überlappender Gesichter von virtuellem 3D-Origami, um die Erkennung der Origami-Konformation durch die Benutzer zu unterstützen. Dadurch können Benutzer Informationen zu Faltvorgängen einfach und korrekt eingeben. Die andere ist eine Methode zur Ableitung von halbwegs gefalteten Prozessen nach den Absichten der Benutzer. Selbst wenn Benutzer grobe Bilder von Formen von Origami-Werken haben, können sie möglicherweise nicht mit der Erstellung eines Origami-Modells nach ihrer Vorstellung beginnen. Das System zeigt nämlich Faltprozesse von quadratischen bis zu Grundformen an, bis sie selbst damit beginnen können. Wir erwarten, dass die einfachen Leute ihre einzigartigen Werke schaffen und veröffentlichen und mehr Menschen Origami genießen werden.;-;-;-;https://link.springer.com/chapter/10.1007/11767978_17 d40b802e2b85b3b13ada91330a4d0d71;de;;;5.3.;;;Zur Pragmatik des modellbasierten Designs Die Pragmatik des modellbasierten Entwurfs bezieht sich auf die praktischen Aspekte des Umgangs mit grafischen Systemmodellen. Dies umfasst eine Reihe von Aktivitäten, wie das Bearbeiten, Durchsuchen oder Simulieren von Modellen. Wir glauben, dass die Pragmatik der Modellierung mehr Aufmerksamkeit verdient, als sie bisher erhalten hat. Wir glauben auch, dass das Potenzial für signifikante Produktivitätssteigerungen durch den Einsatz von Technologien besteht, die weitgehend bereits verfügbar sind. Ein Schlüsselfaktor hierbei ist die Fähigkeit, das Layout eines grafischen Modells automatisch und schnell zu berechnen, wodurch der Designer von der Last des manuellen Zeichnens befreit wird. Diese Fähigkeit ermöglicht es auch, eine benutzerdefinierte Ansicht eines Modells im laufenden Betrieb zu berechnen, was neue Möglichkeiten zum interaktiven Durchsuchen und zur Simulation bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12566-9_7 6d5d3a669bad396b6cf4951bdfeb48ad;de;;;5.3.;;;Interaktives Knochenbohren mit einem 2D-Zeigegerät zur Unterstützung der Planung der mikroendoskopischen Diskektomie Zur Unterstützung der präoperativen Planung von Knochenbohrungen für die mikroendoskopische Diskektomie präsentieren wir eine Reihe interaktiver Knochenbohrmethoden mit einem allgemeinen 2D-Zeigegerät.;-;-;-;https://link.springer.com/article/10.1007/s11548-010-0413-z 8ba8ff71a32fda0294ce5e06e656e0a6;de;;;5.3.;;;Verwendung von ISO/IEC 12207 zur Analyse von Open-Source-Softwareentwicklungsprozessen: Eine E-Learning-Fallstudie Bis heute gibt es keine umfassende Studie zum Open Source Software Development Process (OSSDP), die für Open Source (OS) E-Learning-Systeme durchgeführt wurde. Dieses Papier stellt die Arbeit vor, die die Praktiken der Open-Source-Softwareentwicklung (OSSD) objektiv analysiert, die von E-Learning-Systementwicklungsgemeinschaften durchgeführt werden, und ihre Ergebnisse werden mit DEMO-Modellen dargestellt. Diese Ergebnisse werden mit ISO/IEC 12207:2008 verglichen. Der Vergleich von DEMO-Modellen mit ISO/IEC 12207 ist ein nützlicher Beitrag, da er ein tieferes Verständnis für die Entwicklung von OS-E-Learning-Systemen bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38833-0_10 516a9a693169db42bda904da77ff971b;de;;;5.3.;;;Verbesserung der Erkennungsgenauigkeit für bösartiges JavaScript mit GAN Dynamische Webseiten werden häufig in Webanwendungen verwendet, um eine bessere Benutzererfahrung zu bieten. Inzwischen sind Webanwendungen zu einem Hauptziel von Cyberkriminellen geworden, indem sie Malware, insbesondere JavaScript, einschleusen, um böswillige Aktivitäten durch Identitätsdiebstahl auszuführen. Um Benutzer vor Angriffen zu schützen, ist es daher erforderlich, diese bösartigen Codes zu erkennen, bevor sie ausgeführt werden. Da die Arten von Schadcode schnell zunehmen, ist es für traditionelle statische und dynamische Ansätze schwierig, neue Arten von Schadcode zu erkennen. In den letzten Jahren wurde maschinelles Lernen bei Ansätzen zur Identifizierung von bösartigem Code verwendet. Um eine gute Leistung zu erzielen, ist jedoch eine große Anzahl markierter Proben erforderlich, die schwer zu erhalten sind. Dieses Papier schlägt eine effiziente Methode zur Verbesserung der Erkennungsrate der Klassifikatoren bei der Erkennung von bösartigem JavaScript basierend auf Generative Adversarial Networks (GAN) vor. Die Ausgabe des GAN wird verwendet, um Klassifikatoren zu trainieren. Experimentelle Ergebnisse zeigen, dass unsere Methode mit einem begrenzten Satz markierter Proben eine bessere Genauigkeit erreichen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-50578-3_12 e10d485ad660e8e4dc26dbcea71d3821;de;;;5.3.;;;Drohnenbasierte kinästhetische haptische Schnittstelle für Virtual-Reality-Anwendungen Eine Drohne ist in der Lage, aktiv kinetische Energie zu erzeugen und Kraft in eine erforderliche Richtung auszuüben. Wenn eine Drohne gut kontrolliert physisch mit einem Benutzer interagieren kann, kann sie effektiv zu einem haptischen Force-Feedback-Gerät werden. In dieser Demonstration werden wir die Fähigkeiten eines auf Drohnen basierenden haptischen Geräts durch eine Hüpfball-Anwendung hervorheben. Hier kann der Benutzer mit einem virtuellen Ball spielen und die Drohne gibt die Aufprallkraft des Balls auf die Hand des Benutzers wieder. Für den Rahmen dieser Demonstration im freien Fall wird der Ball in einer idealen 1D-Bewegung angenommen und nur die Schwerkraft wirkt auf den Ball. Der Bodenaufprall wird für eine unbewegliche Oberfläche berechnet und die Rückprallkraft basiert auf dem Energieerhaltungsfaktor.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3194-7_47 f8de893bbc86adbff9045a9fa22fd58b;de;;;5.3.;;;Analyse der Websites der weltweit führenden Logistikdienstleister durch ein Vertrauensbildungs-Framework Websites sind eine der kritischsten Mechanismen, die verwendet werden, um Transaktionen zwischen Verbrauchern und Unternehmen herzustellen. Das Vertrauen der Kunden zu gewinnen kann eine Herausforderung sein, insbesondere für neue Unternehmer. Dieses Papier analysiert Websites von führenden globalen Logistikanbietern auf der Grundlage eines vertrauensbildenden Rahmens. Die Ergebnisse zeigen Motivationsfaktoren, die für die Vertrauensbildung auf den Websites wertvoll und entscheidend sind. In diesem Papier werden gemeinsame Faktoren und Unvollkommenheiten aufgedeckt, die das Vertrauen der führenden globalen Logistik-Websites beeinträchtigen. Die Ergebnisse liefern Leitlinien für den Aufbau von Vertrauen für alle aufstrebenden Logistikunternehmen oder anderen E-Business.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-47200-2_93 24ff63b02719060825d7080d5be72490;de;;;5.3.;;;Missverständnisse in globalen Virtual-Engineering-Teams: Definitionen, Ursachen und Richtlinien für Wissensaustausch und Interaktion Dieses Kapitel definiert die Missverständnisse, die im Engineering auftreten können, insbesondere wenn Teams „virtuell“ sind, und die mit diesen Missverständnissen verbundenen Risiken. Basierend auf verwandten Arbeiten und unserer Erfahrung insbesondere im Exzellenznetzwerk VRL-KCiP gehen wir davon aus, dass wir uns, wenn wir diese Risiken managen wollen, auf Kommunikationsfehler konzentrieren müssen, die in sechs miteinander verbundenen semiotischen Schichten wurzeln. Wir schlagen allgemeine Richtlinien in Bezug auf die interkulturelle Kommunikation vor und diskutieren die Rolle, die IT-basierte Tools bei der Lösung von Missverständnissen in virtuellen Engineering-Teams spielen könnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78431-9_8 13d168564158d9ac0b9dae8542dc0ec3;de;;;5.3.;;;Zufällige Matrizen In Kapitel 4 wenden wir Methoden und Ergebnisse aus den Kapiteln 2 und 3 auf Zufallsmatrizen an. Um nur Ergebnisse einzubeziehen, die einigermaßen vollständig sind, beschränken wir unsere Aufmerksamkeit auf die Klasse der nichtnegativen Matrizen (d. h. Matrizen, deren Einträge alle nicht negativ sind). Obwohl es auf diesem Gebiet viele Ergebnisse in verschiedene Richtungen gegeben hat [siehe Bougerol und Lacroix (1985) oder Cohen;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-2388-5_4 ba4c2d25968f3ccbda725e71b314efc8;de;;;5.3.;;;Entwicklung eines Sammelkartenspiels als pädagogisches Belohnungssystem zur Verbesserung der Lernmotivation der Schüler Belohnung ist der einfachste Weg, Schüler im Bildungsbereich zu motivieren. Es kann die Schüler ermutigen, zu lernen und sofortige Erfolge zu erzielen. Darüber hinaus hat es auch das Potenzial, die intrinsische Motivation der Schüler aufzubauen. Traditionelle symbolische Belohnungen wie Sterne oder Aufkleber sind jedoch oft weniger wertvoll, da sie von den Schülern nach dem Unterricht nicht verwendet werden können und die Schüler daher nicht motivieren können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03364-3_23 510d0f2cb34c236adcc11b56f3406b84;de;;;5.3.;;;Schnelle Inversionsalgorithmen für diagonale plus semiseparable Matrizen Hier werden Matrizen betrachtet, die als Summe von diagonalen und halbtrennbaren Matrizen dargestellt werden. Diese Matrizen gehören zur Klasse der strukturierten Matrizen, die in zahlreichen Anwendungen auftaucht. Schnell;-;-;-;https://link.springer.com/article/10.1007/BF01191530 d3bb93a27c9a87450a52326b90a20d6e;de;;;5.3.;;;Stabilität von Lösungen zur Steuerung eingeschränkter nichtlinearer optimaler Steuerungsprobleme Wir betrachten eine Familie von nichtlinearen Optimalsteuerungsproblemen in Abhängigkeit von einem Parameter. Unter der Annahme einer hinreichenden Optimalitätsbedingung zweiter Ordnung wird gezeigt, dass die Lösungen der Probleme sowie die zugehörigen Lagrange-Multiplikatoren Lipschitz-stetige Funktionen des Parameters sind.;-;-;-;https://link.springer.com/article/10.1007/BF01445157 bd04ba8962fe7b8ce9b152c73ebe9669;de;;;5.3.;;;AR Pueblo Brettspiel Dieses Papier betrachtet eine neue greifbare Schnittstelle für visionsbasierte Augmented Reality (AR)-Systeme. Greifbare AR-Schnittstellen bieten Benutzern eine nahtlose Interaktion mit virtuellen Objekten in AR-Systemen, jedoch mit Einschränkung der Benutzerbewegungen. Eine neue greifbare AR-Schnittstelle soll diese Einschränkung überwinden. Zwei hexaedrische Objekte werden zusammengefügt, um die neue greifbare AR-Schnittstelle zu erstellen. Die Form der neuen greifbaren AR-Schnittstelle beseitigt die Einschränkung der Benutzerbewegungen in bestehenden greifbaren AR-Schnittstellen. Benutzer können die neue Benutzeroberfläche frei bewegen und drehen, um virtuelle Objekte in der AR-Umgebung zu manipulieren. Diese Verbesserung ist nützlich für Anwendungen, die uneingeschränkte Rotationsbewegungen virtueller Objekte erfordern. Das Brettspiel Pueblo wurde entwickelt, um die Benutzerfreundlichkeit der neuen greifbaren AR-Schnittstelle zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/11558651_53 dbb79e4387014b23704459370d040da2;de;;;5.3.;;;Einsatz explorativer räumlicher Analysen zur Verbesserung von Feuerwehr- und Rettungsdiensten In diesem Beitrag untersuchen wir den Einsatz explorativer räumlicher Analysemethoden zur Verbesserung der Berechnung und Darstellung einer Notfallrisikobewertung für die finnischen Feuerwehren und Rettungsdienste im Großraum der finnischen Hauptstadt Helsinki (einschließlich Espoo, Vantaa und Kauniainen). Einige dieser Methoden sind in vorhandener GIS-Software (Geographic Information System) verfügbar. Innerhalb der strategischen Planungs- und Managementebenen können Verbesserungen bei der Identifizierung von Bereichen mit hohem oder niedrigem Risiko die Notfallplanung und Ressourcenbewertung unterstützen. Zur besseren Abgrenzung eines Risikogebietes visualisieren wir die räumliche Verteilung von Phänomenen wie Bevölkerungsverteilung, Gebäudetypen, Arbeitsplatzverteilung etc. und deren Relevanz für die Rettungsdienste. In diesem Beitrag untersuchen wir die Beziehung zwischen der Bevölkerungsdichteverteilung und der Ereignisdichte. Zur Visualisierung potenzieller Variablen, die auf Risikobereiche hinweisen, verwenden wir die dritte Dimension. Die Ergebnisse des Papiers zeigen, dass durch die Entwicklung explorativer Visualisierungen der Prozess des Auffindens und der Integration dieser Variablen in die Risikoanalyse verbessert werden kann. In diesem Papier schlagen wir innovative Kartentypen als Werkzeuge für Entscheidungsträger vor, mit denen die Öffentlichkeit für die Teilnahme an Planungsverfahren gewonnen werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-27468-5_89 96b3dbe93a3ccf89b4c94c9143d80df9;de;;;5.3.;;;Theorie der aquatischen Effekte Die Theorie der aquatischen Effekte muss notwendigerweise mit einer Beschreibung der Theorie der Bewegungen in großen Gewässern beginnen. In diesem Zusammenhang stehen die Mechanismen von Wellen, Strömungen, Gezeiten und Trübungsströmungen im Vordergrund und werden ausführlich beschrieben (Kap. 6.2). Dies wird eine notwendige Präambel für jede Theorie der aquatischen Wirkungen darstellen. In einer weiteren Vorbesprechung (Kap. 6.3) wird es um eine Beschreibung der verschiedenen Agenten gehen, die an Küsten aktiv sein können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-01034-1_6 fcd6b386439a282100f6241e62cd5ada;de;;;5.3.;;;Excimer-Laser: Status und Perspektiven In diesem Beitrag wird über den Stand der Technik bei Excimerlasern berichtet. Nach einigen allgemeinen Bemerkungen wird die Aufmerksamkeit auf Edelgas-Halogenid-Laser (RGH) gerichtet, insbesondere auf die autarken entladungsgepumpten Laser. Probleme im Zusammenhang mit einer stabilen Abflussentwicklung werden betrachtet und daraus resultierende technologische Anforderungen abgeleitet. Überlegungen zur Ausbreitung von Lichtstrahlen in invertierten Medien zeigen den besten Weg zur Ausnutzung des aktiven Volumens. Darüber hinaus wird ein kurzer Überblick über Excimerlaser mit unkonventionellen Eigenschaften gegeben und schließlich werden einige Beispiele experimenteller Techniken zur Messung relevanter Laserparameter berichtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-3780-9_8 731544713c250933dca65850fd0f1b83;de;;;5.3.;;;Automatisches Konvertierungssystem für mobile Cartoon-Inhalte Da die Produktion von mobilen Inhalten zunimmt und viele Menschen sie verwenden, teilen die bestehenden Anbieter mobiler Inhalte Cartoons manuell in Rahmenbilder auf, die auf den Bildschirm von mobilen Geräten angepasst werden. Es braucht viel Zeit und ist sehr teuer. Dieses Papier schlägt ein automatisches Konvertierungssystem (ACS) für mobile Cartoon-Inhalte vor. Es konvertiert automatisch die vorhandenen Cartoon-Inhalte in mobile Cartoon-Inhalte unter Verwendung einer Bildverarbeitungstechnologie wie folgt: 1) Ein gescanntes Cartoon-Bild wird durch Struktur-Layout-Analyse in Frames segmentiert. 2) Die Frames werden in dem Bereich geteilt, der nicht die semantische Struktur des Originalbilds enthält 3) Texte werden aus den geteilten Frames extrahiert und am unteren Bildschirmrand platziert. Unser Experiment zeigt, dass das vorgeschlagene ACS bei der Bereitstellung von mobilen Cartoon-Inhalten effizienter ist als die bestehenden Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/11599517_51 692ccb1d118b5293e4143461b06782f9;de;;;5.3.;;;Computational Thinking und Social Skills in Virtuoso: Eine immersive, digitale spielbasierte Lernumgebung für Jugendliche mit Autismus-Spektrum-Störung Die Einführung von Computational Thinking (CT) hat in K-12-Klassenzimmern und -Lehrplänen zugenommen. Eine Population, die von einer frühen Ausbildung in CT profitieren könnte, sind Schüler mit Autismus-Spektrum-Störungen (ASS). Leider fehlen vielen Menschen mit ASS die sozialen Kompetenzen, um sich erfolgreich in einem Arbeitsumfeld zurechtzufinden. Der Zweck dieses Papiers ist es, eine digitale spielbasierte Lernintervention für Jugendliche mit ASS zu diskutieren, um computergestütztes Denken und soziale Fähigkeiten zu erlernen. Synchronisiert „;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-41769-1_9 c165931a2ad8ec6774b09e0e5e0d9fd5;de;;;5.3.;;;Verbesserung des Standort-Fingerabdrucks durch Bewegungserkennung und asynchrone Intervallkennzeichnung Das Fingerprinting der drahtlosen Signalstärke ist zu einer immer beliebter werdenden Technik für die Realisierung von Indoor-Lokalisierungssystemen unter Verwendung vorhandener WiFi-Infrastrukturen geworden. Diese Systeme erfordern jedoch typischerweise eine zeitaufwendige und kostspielige Trainingsphase, um die Funkkarte aufzubauen. Da sich die Funksignale im Laufe der Zeit ändern und fluktuieren, erfordert die Kartenpflege außerdem eine kontinuierliche Neukalibrierung. Wir führen ein neues Konzept namens „asynchrone Intervallbeschriftung“ ein, das diese Probleme im Zusammenhang mit benutzergenerierten Ortsbeschriftungen angeht. Durch die Verwendung eines Beschleunigungsmessers, um zu erkennen, ob sich ein Gerät bewegt oder stationär ist, kann das System während eines stationären Zeitraums kontinuierlich und unauffällig aus allen Funkmessungen lernen, wodurch die Anzahl der verfügbaren Proben erheblich erhöht wird. Bewegungsinformationen ermöglichen es dem System auch, die Benutzererfahrung zu verbessern, indem die Kennzeichnung auf einen späteren, geeigneteren Zeitpunkt verschoben wird. Erste Experimente mit unserem System zeigen einen erheblichen Anstieg der gesammelten Daten und Verbesserungen der abgeleiteten Standortwahrscheinlichkeit, wobei von den Benutzern nur ein vernachlässigbarer Overhead gemeldet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01721-6_3 51fe7604ab03ac3a92060cbb626bbb36;de;;;5.3.;;;Struktur in der Optimierung: Factorable Programmierung und Funktionen Es wird häufig beobachtet, dass die effektive Ausnutzung der Problemstruktur eine bedeutende Rolle bei Berechnungsverfahren zur Lösung großskaliger nichtlinearer Optimierungsprobleme spielt. Ein notwendiger Schritt in dieser Hinsicht besteht darin, die Berechnung so auszudrücken, dass die verwertbare Struktur freigelegt wird. Die Formulierung großräumiger Probleme in vielen wissenschaftlichen Anwendungen führt naturgemäß zu einer „strukturierten“ Darstellung. Beispiele für rechnerisch nützliche Strukturen, die bei groß angelegten Optimierungsproblemen auftreten, umfassen unäre Funktionen, teilweise separierbare Funktionen und faktorierbare Funktionen. Diese Strukturen wurden von 1967 bis 1990 entwickelt. In dieser Arbeit untersuchen wir häufig vorkommende Strukturen in der Optimierung im Hinblick auf eine effiziente und automatische Berechnung von Ableitungen erster und höherer Ordnung. Darüber hinaus untersuchen wir die Beziehung zwischen Quellcodetransformation wie bei der algorithmischen Differenzierung (AD) und faktorierbarer Programmierung. Zur Veranschaulichung betrachten wir einige klassische Beispiele.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-4594-3_46 da78279f0dff301a9798bc2f85c6743d;de;;;5.3.;;;Gesichtsausdruckerkennung mit optimierten aktiven Regionen In diesem Artikel berichten wir über ein effektives Mimikerkennungssystem zur genauen Klassifizierung von sechs oder sieben grundlegenden Ausdrücken. Anstatt den gesamten Gesichtsbereich zu verwenden, definieren wir drei Arten von aktiven Bereichen, d. h. linke Augenbereiche, rechte Augenbereiche und Mundbereiche. Wir schlagen eine Methode vor, um optimierte aktive Regionen aus den drei Arten von aktiven Regionen zu suchen. Ein Convolutional Neural Network (CNN) wird für jede Art von optimierten aktiven Regionen trainiert, um Merkmale zu extrahieren und Ausdrücke zu klassifizieren. Um darstellbare Merkmale zu erhalten, werden an den Ausdrucksbildern eine Histogrammentzerrung, eine Rotationskorrektur und eine räumliche Normalisierung durchgeführt. Es wird eine Fusionsmethode auf Entscheidungsebene angewendet, bei der das Endergebnis der Ausdruckserkennung durch Mehrheitsabstimmung der Ergebnisse der drei CNNs erhalten wird. Es werden Experimente sowohl mit unabhängigen Datenbanken als auch mit fusionierten Datenbanken durchgeführt, um die Leistung des vorgeschlagenen Systems zu bewerten. Unsere neuartige Methode erreicht im Vergleich zur bisherigen Literatur eine höhere Genauigkeit mit dem zusätzlichen Vorteil einer geringen Latenz für die Inferenz.;-;-;-;https://link.springer.com/article/10.1186/s13673-018-0156-3 6f8af4efeb828824c44998ee57435c18;de;;;5.3.;;;Auf dem Weg zu hochauflösenden mehrstufigen Sicherheitsspielen In den letzten Jahren haben wir eine Vielzahl von Cyber-Vorfällen erlebt, die gezeigt haben, wie schwierig es ist, Cyber-Einbrüche bei entschlossenen und raffinierten Angreifern zu verhindern. Vor diesem Hintergrund ist es klar, dass Verteidiger über die ersten Verteidigungslinien hinausblicken und nicht nur in die Prävention, sondern auch in die Begrenzung der Auswirkungen von Cyberangriffen investieren müssen. Eine effektive Cyber-Abwehr muss also kombinieren;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-10597-6_6 efe258e6406468cfda7c5275bd7935f5;de;;;5.3.;;;Boundary-Blow-up-Lösungen und ihre Anwendungen in quasilinearen elliptischen Gleichungen Basierend auf einem Vergleichsprinzip diskutieren wir die Existenz, Eindeutigkeit und das asymptotische Verhalten verschiedener Rand-Blow-up-Lösungen für eine Klasse quasilinearer elliptischer Gleichungen, die dann verwendet werden, um ein ziemlich vollständiges Verständnis einiger quasilinearer elliptischer Probleme auf einem beschränkten Gebiet zu erhalten oder über das ganze;-;-;-;https://link.springer.com/article/10.1007/BF02893084 a589fa4fc9a81f9fa4b6f309551343b4;de;;;5.3.;;;Analyse des Einflusses lokaler Lasten auf dickwandige zylindrische Schalen mit unterschiedlichen Randbedingungen Es werden zwei Ansätze zur Analyse des Spannungs-Dehnungs-Zustandes dickwandiger zylindrischer Schalen mit unterschiedlichen Randbedingungen unter lokalen Lasten vorgeschlagen. Diese Ansätze beinhalten die Aufteilung einer dicken Schale in mehrere koaxiale Schalen. Ein Ansatz verwendet Polynome, um die unbekannten Funktionen in der Ebene und über die Dicke anzunähern. Beim anderen Ansatz werden die unbekannten Funktionen durch lineare Polynome in der Ebene angenähert und ihre Verteilung über die Dicke aus der analytischen Lösung des entsprechenden Differentialgleichungssystems ermittelt. Der Spannungs-Dehnungs-Zustand der Schale im Bereich der lokalen Belastung wird für verschiedene Randbedingungen analysiert. Es wird gezeigt, dass der Einfluss der Randbedingungen auf den Spannungs-Dehnungs-Zustand für Schalen mit hoher Krümmung sehr schwach und für Schalen mit geringer Krümmung stark ist;-;-;-;https://link.springer.com/article/10.1007/s10778-016-0761-7 48d598665b885c855fcf53418d15bda0;de;;;5.3.;;;Nichtlineare dynamische Systeme: Arbeitsbeispiele, Perspektiven und offene Probleme Ein erster und wichtiger Schritt beim Aufbau eines mathematischen Modells eines (biologischen) Systems besteht in der Wahl eines Zustandsraums. Dieser mathematische Zustand sollte eine bequeme Darstellung jener physiologischen, chemischen, physikalischen und anderen relevanten Eigenschaften sein, die in unserer Vorstellung von (oder Hypothesen über) der Realität die Zukunft eindeutig bestimmen, in dem Sinne, dass für einen gegebenen Zeitverlauf von experimentellen oder Umweltbedingungen ( die Eingabe) erhalten wir einen eindeutigen zeitlichen Verlauf der uns interessierenden Größen (der Ausgabe). In Abschnitt III.2 haben wir einige Bemerkungen zur Wahl eines Zustandsraums und zur Konstruktion eines Zustandsraums aus Input-Output-Daten gemacht. Darüber hinaus präsentierten wir eine präzise mathematische Neuformulierung der obigen intuitiven Zustandsdefinition in Bezug auf eine Familie von Operatoren mit einer Sentigruppeneigenschaft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-13159-6_6 ea492ca644ebb9c84a5159ce09545583;de;;;5.3.;;;Free-Edge-Effekte in einer zylindrischen Sandwichplatte mit flexiblem Kern und laminierten Verbunddeckschichten In der vorliegenden Studie wird das statische Verhalten von zylindrischen Sandwichpaneelen mit flexiblem Kern untersucht. Die Deckschichten werden als Verbundlaminate mit Kreuzlagenaufbau und dem Kern als flexibles elastisches Medium betrachtet. Die Flexibilität des niederfesten Kerns führt zu hohen Spannungskonzentrationen im Sinne von Schälspannungen zwischen Deckblech und Kern an Kanten der Sandwichplatte. Um die Kompressibilität des Kerns zu berücksichtigen und die freien Kantenspannungen von Sandwichstrukturen genau zu bestimmen, wird in dieser Arbeit die Reddy Layerwise Theory (LWT) verwendet. Der Beitrag skizziert die mathematische Formulierung sowie eine numerische Studie einer zylindrischen Sandwichplatte mit zwei einfach gelagerten und zwei freien Kanten unter Querbelastung. Die Formulierung beinhaltet die Ableitung von Feldgleichungen samt Randbedingungen. Ein Lösungsverfahren vom Typ Levy wird durchgeführt, um die Verteilungen von Spannungen und Dehnungen zu bestimmen. In der numerischen Studie wird zunächst ein Vergleich mit Ergebnissen der kommerziellen Finite-Elemente-Software ANSYS durchgeführt, um die LWT-Ergebnisse zu verifizieren. Abschließend wird eine Parameterstudie durchgeführt und der Einfluss unterschiedlicher Parameter, wie Krümmungsradien und Dickenverhältnis Kern zu Deckblech, auf die Ergebnisse untersucht. Die erhaltenen Ergebnisse zeigen eine gute Übereinstimmung zwischen LWT- und FEM-Lösungen und zeigen zunehmende interlaminare Spannungen im freien Rand der Sandwichplatte;-;-;-;https://link.springer.com/article/10.1007/s11029-010-9170-x a8f77e60db7d701971358433c7622361;de;;;5.3.;;;Wechselwirkung zwischen Schubträgheit und Plattenknicken in längsversteiften Druckflanschen Die Bemessung der längsversteiften Druckgurte von Stahlkastenträgerbrücken und ähnlichen Bauwerken wird durch die bei solchen Gurten üblicherweise auftretenden Wechselwirkung zwischen Schubverzögerung und Gurtknicken bestimmt. Bisher wurden mehrere Ansätze zur Analyse dieses Problems etabliert. Hier werden wir drei davon behandeln (die ersten beiden wurden auch in das Dokument „Stiffened Compression Flanges of Box Girders“, herausgegeben von der ECCS Technical Working Group 8/3 „Plated Structures“) aufgenommen, nämlich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-4332-2_3 36fb75127537ee90ace8612cf089aff3;de;;;5.3.;;;Renormierungsgruppe für ein kritisches Gittermodell Für die Untersuchung der Kadanoff-Wilson-Renormierungsgruppe für kritische Gittersysteme unbeschränkter Spins werden neue Methoden entwickelt. Die Methoden basieren auf einer Kombination von Expansions- und Analytiktechniken und werden auf ein nichtlokales hierarchisches Modell des Dipolgases angewendet. Sie beseitigen das Haupthindernis gegen die Verwendung der Block-Spin-Strategie in realistischeren Modellen wie φ;-;-;-;https://link.springer.com/article/10.1007/BF01206880 a0cfdc097def7d65899af6c2c2e3ada2;de;;;5.3.;;;Bildung und Auflösung von Blasen und Tropfen In diesem Kapitel beschäftigen wir uns mit den Mechanismen und der zugrundeliegenden Physik der Bildung und des Aufbrechens von Blasen und Tropfen. Die Mechanismen für Bildung und Auflösung (oder Kollaps) unterscheiden sich grundlegend, je nachdem, ob die Prozesse eine Phasenänderung beinhalten oder nicht. In diesem Zusammenhang werden wir viele Prozesse diskutieren, die keine Phasenübergänge beinhalten, und zwei wichtige Prozesse, die eine Phasenänderung beinhalten – Blasenkeimbildung und Tröpfchennukleation. Studien zu Entstehung und Auflösung sind für viele wichtige technische Anwendungen relevant. Die meisten Direktkontakt-Wärme- und/oder Stoffaustauschgeräte verwenden Blasen oder Tropfen in einer geeigneten Umgebung, um die Transportgeschwindigkeit zwischen den Phasen zu erhöhen. Um einen Einblick in Siede- oder Kondensationsphänomene zu erhalten, muss der Nukleationsprozess für Blasen oder Tröpfchen verstanden werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-4022-8_7 82f6d5d42571cf95c8113266cc0dcf83;de;;;5.3.;;;Die mittleren Polaren Bis 1976 verlief die kataklysmische variable Sternforschung mit wenigen Anforderungen an die Einbeziehung von Magnetfeldern in theoretische Modelle. Obwohl Modelle für massearme Röntgen-Binärdateien die Bedeutung von Magnetfeldern betonten (Lamb;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-7118-9_20 466a295dce944096daef0a72c2ea81cc;de;;;5.3.;;;Acht Vorlesungen zur mathematischen Modellierung des Transports in porösen Medien Ziel dieser Vorlesung ist es, die Weichen für diese Vorlesungsreihe zu stellen und die Ziele zu definieren. Dementsprechend werden wir mit der Definition eines porösen Mediums beginnen, verstehen, was Modelle sind und warum wir sie brauchen, um den Transport in porösen Medien zu beschreiben, und den Modellierungsprozess diskutieren. Wir konzentrieren uns auf die Klasse von Modellen, die eine poröse Mediendomäne als a;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-2632-8_1 f24ae62a19d9cb5ddb451a0cfa442bc9;de;;;5.3.;;;Mobility Prediction-based Service Scheduling Optimierungsalgorithmus in Cloudlets Cloudlet ist eine neue Technologie im mobilen Cloud-Computing. Aufgrund der Mobilität mobiler Benutzer können Benutzer jedoch weit von Cloudlets entfernt sein, was zu einer schlechten Netzwerkkonnektivität führt und somit die Benutzererfahrung schlecht ist. Während sich ein Benutzer durch mehrere Cloudlets-Bereiche bewegt, werden Fragen der Dienstplanung zwischen Cloudlets zur besseren Unterstützung der Benutzererfahrung wichtig. In diesem Papier betrachten wir ein latenzsensitives und zustandsbehaftetes Service-Scheduling-Problem in Cloudlets. Wir schlagen ein neuartiges Cloudlet-Dienstmodell vor und formulieren das Problem mit dem Ziel, die optimale Dienstablaufreihenfolge zu finden, die die durchschnittliche Dienstantwortzeit während des gesamten laufenden Prozesses des Dienstes für einen Benutzer minimiert. Um dieses Problem zu lösen, schlagen wir einen Algorithmus namens Mobility Prediction-based Markov Decision Process (MPMDP) vor. Der vorgeschlagene Algorithmus berücksichtigt die Mobilitätsvorhersage des Benutzers und trifft eine Entscheidung basierend auf dem Markov-Entscheidungsprozess, um zu entscheiden, welches Cloudlet der Dienst jedes Mal für einen Benutzer ausgeführt werden soll. Schließlich bewerten wir die Wirksamkeit des vorgeschlagenen MPMDP-Algorithmus durch Simulationen mit den Spuren realer Benutzer. Das Simulationsergebnis zeigt, dass unser Algorithmus im Vergleich zu früheren Schemata eine geringere durchschnittliche Reaktionszeit erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-68542-7_53 12105e569afeef3e3bc4069f92c9fa1a;de;;;5.3.;;;Fluss einer echten Flüssigkeit Unterschiede im Verhalten eines realen Fluids vom idealen Fluid der klassischen Hydrodynamik ergeben sich vor allem aus der Existenz der Eigenschaft der Viskosität im realen Fluid. Andere Unterscheidungsmerkmale realer Flüssigkeiten, wie ihre Oberflächenspannung und ihr Verdampfungsvermögen, führen unter Umständen zu deutlichen Unterschieden im Verhalten gegenüber einer idealen Flüssigkeit, aber die Viskositätseffekte sind in allen Fällen mehr oder weniger stark vorhanden des Flüssigkeitsflusses, und es sind diese Effekte, die Gegenstand der Untersuchung in diesem Kapitel sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-6586-8_2 7c80b01760f5e00c296cd1867d1727ce;de;;;5.3.;;;Einseitige Kontakte in der Maschinendynamik Die Maschinendynamik bietet eine Vielzahl von Kontaktproblemen, die von Stößen bis hin zu Gleiten und Rollen reichen. Typische Beispiele sind Nockenfolger und Nockenrollenvorrichtungen sowie alle Arten von Getrieben. In der Literatur gibt es zahlreiche Aufsätze, die sich der einen oder anderen Maschinenausführung mit Kontakt widmen. Es werden drei neuere Arbeiten mit ganz unterschiedlichen Techniken erwähnt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4275-5_28 03f2f9f7b2a23500628697b72d57fd4f;de;;;5.3.;;;Dynamische Systeme auf Drachendomänen Es werden zwei Typen dynamischer Systeme vorgeschlagen, deren Domänen fraktale Grenzen haben. Das erste ist als dynamisches System realisiert, das binäre Entwicklungen komplexer Zahlen induziert und dessen Domäne ein Zwillingsdrachen ist. Das zweite wird als dynamisches System vorgeschlagen, das revolvierende Entwicklungen komplexer Zahlen induziert und dessen Domäne ein Tetradrache ist.;-;-;-;https://link.springer.com/article/10.1007/BF03167753 5c7f0f2f6e58816d76a9e01170faaca1;de;;;5.3.;;;Unidirektionale Strömungen mit freien Oberflächen-, Fluss- und offenen Kanalmodellen Modellversuche werden in der Regel dann durchgeführt, wenn die bei der Auslegung eines hydraulischen Projekts beteiligten Eigenschaften theoretisch nicht ermittelt werden können oder eine solche Ermittlung nicht als zuverlässig angesehen werden kann. Dementsprechend kann man mit Ausnahme einiger Untersuchungen, die hauptsächlich wissenschaftlichen und nicht technischen Zwecken dienen, nicht erwarten, dass Gegenstand eines Modellversuchs beispielsweise eine gleichmäßige Strömung in einem regelmäßigen prismatischen Kanal ist. Folglich muss man sich auf unregelmäßige Strömungsgrenzen und eine komplizierte, oft dreidimensionale Struktur der Strömung einstellen. Vor diesem Hintergrund werden in der folgenden Studie Skalenbeziehungen für den allgemeinsten Fall von Fluss- und Kanalströmung entwickelt – ungleichmäßige Strömung in einem nicht prismatischen Kanal. Die Formulierung einfacherer (Sonder-)Fälle wie prismatische Kanäle, gleichmäßige Strömungen etc. wird dann automatisch in die allgemeinen Formulare aufgenommen. Zunächst werden stationäre oder stationäre Strömungen betrachtet und anschließend das Verfahren auf instationäre Strömungen verallgemeinert. Da nahezu alle Strömungen in der Tiefbaupraxis turbulent sind, wird auf die Berücksichtigung laminarer Strömungen verzichtet. In diesem Kapitel wird das Vorhandensein von a;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-00245-0_5 d7fffc7ef65c7c4d22aa5d7c74d487ee;de;;;5.3.;;;CONSLAW: Ein Maple-Paket zur Konstruktion der Erhaltungssätze für nichtlineare Entwicklungsgleichungen Ein Algorithmus zur expliziten Berechnung polynomialer Erhaltungsgesetze für nichtlineare Evolutionsgleichungen (entweder einheitlich im Rang oder nicht) wird eingeführt und ein in Maple geschriebenes Softwarepaket CONSLAW zur Automatisierung der Berechnung wird entwickelt. CONSLAW kann die polynomialen Erhaltungssätze für polynomiale partielle Differentialgleichungen automatisch konstruieren. Darüber hinaus können einige neue integrierbare Systeme herausgefiltert werden, indem die Kompatibilitätsbedingungen analysiert werden, die die Existenz der Erhaltungssätze für gegebene parametrisierte nichtlineare Evolutionsgleichungen garantieren. Die expliziten Formen der Erhaltungsdichten spielen eine wichtige Rolle bei der Untersuchung der Integrierbarkeit, wie explizite analytische Lösungen, bi-Hamiltonsche Form, Einparameterfamilie der Bäcklund-Transformation, Lax-Paare und die Überprüfung der Genauigkeit numerischer Integrationsalgorithmen. Die Wirksamkeit von CONSLAW wird durch die Anwendung auf eine Vielzahl nichtlinearer partieller Differentialgleichungen veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/3-7643-7429-2_17 d8ad30be5e5da486f61060763d4050ba;de;;;5.3.;;;Erkennungsmethode Über GNSS-Täuschungsstörungssignal basierend auf der Unterstützung der optischen Flussberechnung Mit der zunehmenden Abhängigkeit der zivilen Infrastruktur von Satellitennavigationssystemen wie Positionsbestimmung, Geschwindigkeitsmessung und Zeitdienst in den letzten Jahren wird die Bedrohung durch Navigationstäuschungen immer ernster. Daher ist die effektive Erkennung von Navigationstäuschungssignalen zu einem neueren Forschungsschwerpunkt geworden. Obwohl ständig verschiedene Täuschungserkennungsverfahren vorgeschlagen wurden, gibt es aufgrund der Einschränkung verschiedener Randbedingungen nur wenige praktische Anwendungen in der Technik. In diesem Beitrag werden die auf UAV-Plattformen weit verbreiteten Bildsensoren wie Kameras verwendet, um die kontinuierliche Ausgabe von Bodenbilddaten zu verarbeiten. Basierend auf der Berechnung des optischen Flusses kann die tatsächliche Bewegungsgeschwindigkeit der Plattform in Echtzeit ermittelt werden. Der Navigations-Täuschungsstörer kann nur den Satellitennavigationsempfänger beeinflussen, aber er kann den Bewegungsmodus der Plattform nicht steuern. Daher kann der vom Täuschungsstörer erfasste und beeinflusste Navigationsempfänger beurteilt werden, indem die Geschwindigkeit der optischen Flussmessung mit der von dem Satellitennavigationsempfänger verglichen wird. Wenn das Störsignal der Navigationstäuschung aus derselben Richtung kommt, kann diese Richtung auch durch Kombinieren der Messung der Referenzfrequenz mit der spezifischen Bewegung der Plattform geschätzt werden. Schließlich werden die Machbarkeit und Gültigkeit des obigen Ansatzes durch Simulationen überprüft. Darüber hinaus können die vorhandenen Hardwaremodule auf der Plattform verwendet werden, und es muss nur eine Signalverarbeitungssoftware hinzugefügt werden, um die Anti-Täuschungs-Fähigkeit der bestehenden Plattform zu verbessern. Es hat also gute technische Anwendungswerte.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3715-8_52 080195cd55c94c60dd660d56eb12a13c;de;;;5.3.;;;Lineare Operatoren auf einem Banachraum Wie bereits in diesem Buch erwähnt, hat die Theorie der beschränkten linearen Operatoren auf einem Banachraum aufgrund der schwierigen geometrischen Probleme, die dem Konzept eines Banachraums innewohnen, relativ wenig Aktivität erfahren. In diesem Kapitel werden einige der allgemeinen Konzepte dieser Theorie vorgestellt. Zusammen mit den wenigen Ergebnissen aus dem nächsten Kapitel bilden sie im wesentlichen die Gesamtheit der allgemeinen Theorie dieser Operatoren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-4383-8_6 b1652c63e37b49594b9af928bc26e958;de;;;5.3.;;;CLAPTCHA - Ein neuartiges Captcha In diesem Artikel haben wir eine neue Form von Captcha namens CLAPTCHA vorgestellt. Wir glauben, dass dieses Claptcha eine neue Welt des bild- und phantasiebasierten Captchas reformieren kann. In diesem Claptcha müssen wir die englischen Alphabete (Alpha) finden. Auch hier erweist sich seine Effizienz als besser als normale bildbasierte Captchas oder Imaginations-Captchas. Claptchas werden auch benutzerfreundlicher und unterhaltsamer.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27189-2_10 cb604cafc06377b5e5d18f857ddd7370;de;;;5.3.;;;Nachhilfelehrer - Aufbau einer Online-Nachhilfeplattform für die Lehrergemeinschaft Wissensaustausch ist seit Jahren ein trendiges und wiederkehrendes Thema im technologiegestützten Lernen. Viele fortschrittliche Plattformen wurden entwickelt. Allerdings werden persönliche Hilfe-Sitzungen immer noch oft von Menschen bevorzugt, die ihre Fähigkeiten verbessern möchten. Das Projekt Go-Lab zielt darauf ab, Schüler mit MINT-Themen zu begeistern, indem es Online-Laborexperimente in den Unterricht bringt. Um dies zu erreichen, sind Lehrer der Schlüssel zum Erfolg. Dementsprechend sind die Kenntnisse und Fähigkeiten des Lehrers im forschenden Lernen mit Online-Labors wichtig, da es für Lehrer eine Hürde sein kann, solche technische Software zu verwenden und im Unterricht anzuwenden. Um Lehrer dabei zu unterstützen und zu unterrichten, haben wir die Go-Lab Tutoring Platform entwickelt, die Lehrern eine Peer-Assistance und eine Plattform zum Austausch von Fachwissen bietet. Lehrer, Laborbesitzer und pädagogische Experten können sich gegenseitig helfen und ihre Fähigkeiten und ihr Wissen teilen. Um diese Nachhilfeplattform aufrechtzuerhalten, wollen wir ein Geschäftsmodell aufbauen, um den Community-Aufbau nachhaltig zu unterstützen. Dieses Papier befasst sich mit dem Design, dem ersten Prototyp und einer frühen Evaluierung der Go-Lab Tutoring Platform.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22017-8_4 4fa3b594b33e56cb3e9b7d6c8005c805;de;;;5.3.;;;Lernbewertung mit Wikis: Integriert oder LMS-unabhängig? Wikis haben einen potenziell enormen pädagogischen Wert. In diesem Artikel wird ein Funktionsumfang beschrieben, den Wiki-Engines benötigen, um kollaborative Bildungsszenarien mit Wiki-Technologie erfolgreich zu hosten. Eines der ersten zu lösenden Probleme ist die Notwendigkeit von Bewertungsmethoden, die von der Software unterstützt werden. Die zweite Möglichkeit besteht darin, zwischen der Verwendung einer integrierten Wiki-Engine innerhalb des Learning Management Systems (LMS) oder einer externen eigenständigen Wiki-Engine zu wählen. Vor- und Nachteile beider Optionen dieses zweiten Themas werden diskutiert, wobei jede Wahl unterschiedliche Auswirkungen auf die individuelle Bewertung, das Feedback und die Benotung der Schüler hat. Zu den erwarteten Ergebnissen zählen vor allem Anreize, Wikis in den Lehrprozess zu integrieren, signifikante Verbesserungen in der Benutzerfreundlichkeit sowie die Möglichkeit, dass Lehrer über das übliche hinaus ein zeitnaheres schriftliches Feedback zu den individuellen Beiträgen ihrer Schüler zu wikibasierten Aktivitäten geben können numerische Einstufung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16318-0_17 cd6cf44cb06a408ebf7627eb6fb96473;de;;;5.3.;;;Periphere Venenpunktion bei älteren Patienten: Ist die Nahinfrarotlicht-Technologie eine Option, um eine Venenerschöpfung zu vermeiden? Die periphere Venenpunktion ist das minimal-invasive Verfahren, das am häufigsten im Akutbereich durchgeführt wird. Mehrere Veröffentlichungen berichten jedoch, dass Angehörige der Gesundheitsberufe mehrere Punktionsversuche durchführen, bis eine erfolgreiche Katheterisierung oder Blutentnahme erreicht ist. Zu den Patienten, die von dieser Realität am stärksten betroffen sind, gehören ältere Patienten, die oft eine Reihe von Faktoren aufweisen, die die Schwierigkeit erhöhen. In den letzten Jahren haben sich mehrere neue technologische Hilfsmittel, wie das Nahinfrarotlicht, auf dem Markt für Medizinprodukte als potenzielle Erleichterungen bei der Venenauswahl und -punktion herausgestellt. Während Nahinfrarotlicht-Geräte in pädiatrischen Einrichtungen umfassend untersucht werden, gibt es jedoch keine bekannten Überprüfungen ihrer Verwendung und Anwendbarkeit bei älteren Patienten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-41494-8_10 c7c919d7b8bc21ff498b1643b7858542;de;;;5.3.;;;Studie über verminderte Tonleitern für die Improvisation Das Verständnis von Akkorden und Tonleitern ist grundlegend für die Improvisation von Jazzmusik. Der Performer kann verschiedene Improvisationen durch das Verständnis von Akkorden, Tonleitern und Übungen ausdrücken. Diese Arbeit basiert auf den strukturellen Eigenschaften von Diminished Scale. Es analysiert jede von Whole-Half, Half-Whole Diminished Tonleiter, in der diatonische Grundakkorde auf Dur-Tonleiter, Dur7, Dominant7, Moll7, Moll7b5, die für jeden Akkord und jede Out-Line-Möglichkeit verwendet werden können. Darüber hinaus analysierte Triaden und 7. Akkorde die Perspektive der Oberstruktur. Dies ist nicht nur für Diminished Chord, sondern umfasst auch vier Grundakkorde, Major7, Dominant7, Minor7, Minor7b5.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35251-5_7 0364dea14ff655f625eb7c7168f4af62;de;;;5.3.;;;Erkunden von Folksonomy und Kochverfahren, um die Kochrezeptempfehlung zu verbessern Empfehlungssysteme haben in den letzten Jahren in Internetanwendungen große Popularität erlangt, da sie den Benutzern trotz des explosionsartigen Datenwachstums die Informationsbeschaffung erheblich erleichtern. Ähnlich wie in anderen beliebten Domänen wie Film-, Musik- und Buchempfehlungen ist auch die Auswahl von Kochrezepten eine tägliche Aktivität, bei der die Benutzererfahrung durch geeignete Empfehlungsstrategien erheblich verbessert werden kann. Basierend auf inhaltsbasierten und kollaborativen Filteransätzen präsentieren wir in diesem Papier einen umfassenden Rahmen für Rezeptempfehlungen, der die Modellierung der Rezeptkochverfahren und die Übernahme von Folksonomie umfasst, um die Empfehlungen zu verstärken. Empirische Studien werden an einem realen Datensatz durchgeführt, um zu zeigen, dass unsere Methode die Basislinien im Rezeptbereich übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20291-9_14 b6adf289bfb45acb59e01f0698a04ac8;de;;;5.3.;;;Individuelle Unterschiede in Arbeitsspeicherkapazität und Präsenz in virtuellen Umgebungen Ein Hauptanstoß beim Aufbau intelligenter Systeme besteht darin, Benutzer zu ermutigen, ihre bestehenden nicht-digitalen Fähigkeiten in der realen Welt zu nutzen und die Darstellungen, die Benutzer in reale Aktivitäten eingebaut haben, nahtlos in ihre laufenden Interaktionen mit Computersystemen zu integrieren. In virtuellen Umgebungen haben Studien gezeigt, dass Benutzer virtuelle Umgebungen so behandeln, als ob sie real wären, selbst wenn die Umgebungen eine grobe Annäherung an reale Umgebungen waren. Diese Ergebnisse zeigten, dass das Gefühl der Präsenz ein fließender dynamischer psychologischer Zustand ist, der je nach den Eigenschaften des einzelnen Benutzers variieren kann. Die aktuelle Studie zielte darauf ab zu untersuchen, ob individuelle Unterschiede in der Arbeitsgedächtniskapazität das Gefühl der Präsenz in virtuellen Umgebungen beeinflussen. Die Teilnehmer führten im Auftrag eines Avatars in einer virtuellen Desktop-Umgebung eine Gemüseschneideaufgabe durch. Experiment 1 zeigte, dass Personen mit hohem Arbeitsgedächtnis (HWM) näher an der Fingerspitze des Avatars schneiden als Personen mit niedrigem Arbeitsgedächtnis (LWM). Experiment 2 verwendete Eye-Tracking-Maßnahmen und zeigte, dass die HWM-Teilnehmer das gezeigte Risiko durch Planung mindern. Zusammengenommen liefern die Experimente 1 und 2 Beweise dafür, wie individuelle Unterschiede in der Arbeitsgedächtniskapazität das Gefühl der Präsenz in virtuellen Umgebungen beeinflussen können, und zeigten, dass unsere bewussten Erfahrungen mit dem, was real ist, formbar sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31561-9_3 9a56905ac9d6106c541874fbe6c18799;de;;;5.3.;;;Das asymptotische Reglerdesign für nichtlineare flexible Strukturen mit beliebigen konstanten Störungen Dieser Artikel untersucht das endlichdimensionale asymptotische Reglerdesign für nichtlineare flexible Strukturen mit beliebigen konstanten Störungen. Das Problem besteht darin, einen Rückkopplungsregler so zu konstruieren, dass das resultierende nichtlineare System mit geschlossenem Regelkreis stabil ist und der geregelte Ausgang geregelt wird. Mit einigen Annahmen präsentiert dieses Papier explizit hinreichende Bedingungen für die Existenz des endlichdimensionalen asymptotischen Regulators, der nichtlineare flexible Strukturen stabilisiert und reguliert.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0004440 a9c261d59e439242acdc542c0a6edf6f;de;;;5.3.;;;Kognition und Bedienerleistung Die Entwicklung von Systemen, die das Situationsbewusstsein der Betreiber fördern, erfordert, dass die Beteiligten fundierte Entscheidungen über das Design treffen können. Diese Entscheidungen müssen die zugrunde liegenden kognitiven Prozesse des Bedieners berücksichtigen, die auf Wahrnehmung, Verständnis und Projektion des Systemzustands basieren. Dieses Kapitel befasst sich mit den zentralen kognitiven Prozessen, die für die Überwachung und Reaktion auf Änderungen des Systemzustands verantwortlich sind. Bediener müssen Informationen wahrnehmen, bevor sie darauf reagieren können, und das Schnittstellendesign beeinflusst die Genauigkeit und Geschwindigkeit des Bedieners über bekannte Mechanismen (d. Die Wahrnehmung wichtiger Informationen hängt auch davon ab, wie der Bediener während der Aufgaben denkt, und bestimmte Designentscheidungen können eine bessere Aufmerksamkeitskontrolle und Erkennung von Signalen unterstützen. Nach der Wahrnehmung der Informationen müssen die Bediener die Informationen auch verstehen und interpretieren. Designanleitungen und Faktoren zur Unterstützung des Verständnisses werden zusammen mit Erklärungen präsentiert, wie die kognitive Belastung und das Arbeitsgedächtnis die Fähigkeit des Bedieners beeinflussen, ein nützliches mentales Modell des Systems zu entwickeln und zu pflegen. Diese Überprüfung kognitiver Mechanismen bietet Designern eine solide Grundlage, um fundierte Entscheidungen zu treffen, von der Auswahl einer Alarmfarbe bis hin zur Einschätzung, wie viele Informationen gleichzeitig auf dem Bildschirm angezeigt werden sollten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-47775-2_3 5d575efc724b883161a2eef7007032e4;de;;;5.3.;;;Kendall-Random Walk, Williamson-Transformation und die entsprechende Wiener-Hopf-Faktorisierung factor Wir geben einige Eigenschaften der Trefferzeiten und ein Analogon der Wiener-Hopf-Faktorisierung für den Kendall-Random Walk an. Wir zeigen auch, dass die Williamson-Transformation das beste Werkzeug für Probleme im Zusammenhang mit der Kendall-Faltung ist.;-;-;-;https://link.springer.com/article/10.1007/s10986-017-9375-y 486c938adcd1658b5228635040e8df49;de;;;5.3.;;;Positionsfehleranalyse von IRNSS-Daten mit Big Data Analytics Die aktuelle Untersuchung umfasst die Untersuchung und Analyse des Positionsfehlers von IRNSS-Empfängersystemdaten (Indian Regional Navigation Satellite System) in Bezug auf eine feste Position mit dem Big-Data-Analysetool Hadoop. IRNSS ist ein in Indien entwickeltes Navigationssystem mit einer Konstellation von sieben Satelliten. Die IRNSS-Daten der Woche 918 wurden verwendet, um die statistische Analyse in drei verschiedenen Betriebsarten durchzuführen. In Hadoop wurden Abfragen/Befehle erstellt, um mehr als 6 Millionen Daten zu verarbeiten (Woche Nr. 918 Daten). Die verarbeiteten Daten und berechneten statistischen Parameter zeigen, dass das IRNSS-Navigationssystem eine vielversprechende Lösung für verschiedene navigationsbezogene Anwendungen ist. Die erhaltenen Ergebnisse zeigen, dass der Positionsfehler im Hybrid-Betriebsmodus (GPS-L1 + IRNSS-S + IRNSS-L5) mit besserer Genauigkeit im Vergleich zum Einzelfrequenzbetriebsmodus (L5 & S) des IRNSS-Empfängersystems minimal ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-9059-2_19 ac51ced725bdf7d99e563701681ff2b9;de;;;5.3.;;;Audiovisuelle Emotionserkennung mit Big Data in Richtung 5G Mit dem Aufkommen von Mobilfunktechnologien der nächsten Generation (5G) besteht das Potenzial, mobilen Nutzern den Zugriff auf Big Data-Verarbeitung über verschiedene Clouds und Netzwerke zu ermöglichen. Die steigende Zahl mobiler Nutzer bringt zusätzliche Erwartungen an personalisierte Dienste (z. B. Social Networking, Smart Home, Gesundheitsmonitoring) zu jeder Zeit, von überall und über jede Konnektivität mit sich. Aufgrund der erwarteten enormen Menge komplexer Daten, die von solchen Diensten und Netzwerken aus heterogenen multiplen Quellen generiert werden, ist eine Infrastruktur erforderlich, um die Gefühle (z. B. Emotionen) und Verhaltensmuster eines Benutzers zu erkennen, um ein qualitativ hochwertiges mobiles Benutzererlebnis zu bieten. Zu diesem Zweck schlägt dieses Papier eine Infrastruktur vor, die das Potenzial von emotionsbewusster Big Data- und Cloud-Technologie in Richtung 5G kombiniert. Mit dieser vorgeschlagenen Infrastruktur wird ein bimodales System zur Big-Data-Emotionserkennung vorgeschlagen, bei dem die Modalitäten aus Sprache und Gesichtsvideo bestehen. Experimentelle Ergebnisse zeigen, dass der vorgeschlagene Ansatz eine Emotionserkennungsgenauigkeit von 83,10 % unter Verwendung bimodaler Eingaben erreicht. Um die Eignung und Gültigkeit des vorgeschlagenen Ansatzes zu zeigen, wird Hadoop-basierte verteilte Verarbeitung verwendet, um die Verarbeitung für heterogene mobile Clients zu beschleunigen.;-;-;-;https://link.springer.com/article/10.1007/s11036-016-0685-9 085aa43cee9071354c98688073397d5f;de;;;5.3.;;;Eine Studie über Synchronisation und Gruppenkooperation mit der Theorie der partiellen Kontraktion Synchronisation, kollektives Verhalten und Gruppenkooperation sind Gegenstand umfangreicher neuerer Forschungen. Ein grundlegendes Verständnis der Aggregatbewegungen in der Natur, wie zum Beispiel Vogelschwärme, Fischschwärme, Tierherden oder Bienenschwärme, würde sehr helfen, das gewünschte kollektive Verhalten von künstlichen Multiagentensystemen wie Fahrzeugen mit verteilten kooperativen Kontrollregeln an. In [38] veröffentlichte Reynolds sein bekanntes Computermodell von „Boids“, mit dem er erfolgreich eine Animationsherde mit drei;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-31595-7_12 ee6eaf5f98c13e2223f9a5c7886b0634;de;;;5.3.;;;Überblick über Bildmosaik-Technologien Das Bildmosaik ist ein immer beliebter werdendes Forschungsgebiet. Es wird normalerweise verwendet, um ein nahtloses und hochauflösendes Bild mit einer Reihe von Teilbildern zu erstellen. Im Allgemeinen gibt es drei Schritte bei Bildmosaiken, Bildvorverarbeitung, Bildregistrierung und Bildfusion. Dieses Papier stellt die Haupttechnologie des Bildmosaiks vor und vergleicht die Vor- und Nachteile jeder Technologie.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-4847-0_86 7f3235914f8582ece25bc807565ffbb4;de;;;5.3.;;;Berührbare interaktive Wände: Chancen und Herausforderungen Sehr große, hochauflösende, interaktive Bildschirme – auch als interaktive Wände bekannt – können verwendet werden, um Unterhaltungs- und Werbeinhalte bereitzustellen, die sich qualitativ von denen unterscheiden, die in Fernseh-, Kiosk- oder Desktop-Formaten verfügbar sind. Bei ausreichender Auflösung und Größe kann die berührbare Wand die fesselnde Interaktivität einer vollwertigen Unterhaltungssoftware bieten, jedoch in einem Maßstab, der neue Arten öffentlicher Erfahrungen ermöglicht. In diesem Papier werden einige der Möglichkeiten beschrieben, die uns durch das unserer Meinung nach neue Computermedium ermöglicht werden. Wir beschreiben auch einige der neuen Designherausforderungen, die diesem Medium innewohnen, zusammen mit Vorschlägen, die auf unserem eigenen Ansatz für diese Herausforderungen basieren.;-;-;-;https://link.springer.com/chapter/10.1007/11558651_19 628fded454d0becc2a70671450ecdbb0;de;;;5.3.;;;Attrition im MOOC: Lehren aus Studienabbrechern Trotz der Popularität von Massive Open Online Course (MOOC) haben neuere Studien ergeben, dass die Abschlussquoten niedrig sind, wobei einige von ihnen deutlich unter 10% liegen. Die niedrigen Verbleibs- und Abschlussquoten sind für Pädagogen und Institutionen ein großes Problem. Dieser Beitrag untersucht Motivationen für die Einschreibung in einen MOOC zum Thema „E-Learning“ und diskutiert Gründe für die Fluktuationsraten während des Kurses. Eine Umfrage unter 134 Studierenden, die den MOOC nicht abgeschlossen hatten, ergab, dass nur 22 % der Studierenden beabsichtigten, den MOOC zu absolvieren, dies jedoch aus verschiedenen Gründen, unter anderem aus akademischen und persönlichen Gründen, nicht konnten. Eine große Mehrheit der Studierenden gab an, dass berufliche Veränderungen, zu wenig Zeit, Schwierigkeiten mit dem Fach und anspruchslose Tätigkeiten einige der Gründe für den Studienabbruch sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10671-7_4 289a6d0cdae81a3bbb9c444d5b2e25d8;de;;;5.3.;;;Sicherheitsanalyse von CAPTCHA CAPTCHA steht für Completely Automated Public Turing Test, um Computer und Menschen voneinander zu unterscheiden. CAPTCHA ist ein Programm, das Tests generieren und bewerten kann, die es selbst nicht bestehen kann. Der Sicherheitsaspekt von CAPTCHA sollte so beschaffen sein, dass kein Computerprogramm die von ihm generierten Tests bestehen kann, selbst wenn die genaue Funktionsweise des CAPTCHA bekannt ist. Die Wirksamkeit von CAPTCHA einer bestimmten Stärke wird dadurch bestimmt, wie oft die Vermutungen von CAPTCHA von einem Angreifer getestet werden können. Dieses Papier schlägt einen einfachen und einheitlichen Rahmen für die Bewertung der Sicherheit und Benutzerfreundlichkeit von CAPTCHA vor, den beliebige Zusammensetzungen von Sicherheitsmaßnahmen bieten können.“ Verwenden Sie in diesem Satz anstelle von „einem einfachen und einheitlichen Rahmen“ „Parameter“. Dieses Papier schlägt Parameter für die Bewertung der Sicherheit und Benutzerfreundlichkeit von CAPTCHA vor, die beliebige Zusammenstellungen von Sicherheitsmaßnahmen bieten können. Der Pre-Processing-Angriff auf gezieltes CAPTCHA hat eine Erfolgsquote von etwa 97%, was wiederum dazu beiträgt, robuster und menschenfreundlicher zu bauen CAPTCHA. Die universelle Struktur für den Segmentierungsangriff dient der Analyse der Sicherheit von CAPTCHA.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34135-9_10 94398e24eb339368f0c600e5cf3c6ddc;de;;;5.3.;;;Bewertung des Stands der Softwaredokumentationspraktiken Ein Reifegradmodell und ein Bewertungsverfahren für die Systemdokumentation wurden entwickelt und verwendet, um 91 Projekte bei 41 verschiedenen Unternehmen über einen Zeitraum von sieben Jahren zu bewerten. In dieser Zeit hat sich die ursprüngliche Version auf Basis von Rückmeldungen aus der Industrie und den Erfahrungen aus den Assessments zu insgesamt vier Versionen entwickelt. Dieses Papier berichtet über die Gesamtergebnisse der Bewertungen, die stark darauf hindeuten, dass die Dokumentationspraxis in der Softwareindustrie nicht erfolgreich bewertet wird. Die Ergebnisse zeigen eine deutliche Reifelücke zwischen Dokumentationspraktiken, die sich mit der Definition von Richtlinien befassen, und Praktiken, die mit der Einhaltung dieser Richtlinien verbunden sind. Die Ergebnisse verdeutlichen ferner die Notwendigkeit, die Bedeutung der Verbesserung des Dokumentationsprozesses anzuerkennen und die guten Absichten in explizite Richtlinien und Maßnahmen umzuwandeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24659-6_35 657c091e65bb000a7b9f411b190fa881;de;;;5.3.;;;Validierung eines physiologischen Ansatzes zur Messung kognitiver Arbeitsbelastung: CAPT PICARD Diese Studie validierte ein physiologisches Workload-Tool während einer Untersuchung der Auswirkungen der Informationsintegration auf die Leistung einer Aufgabe für elektronische Verfahren der NASA. Es wurde die Hypothese aufgestellt, dass mit zunehmendem Integrationsgrad von System- und Verfahrensinformationen das Situationsbewusstsein (SA) und die Benutzerfreundlichkeit zunehmen und die kognitive Arbeitsbelastung abnehmen würde. Um eine quantitative, kontinuierliche und objektive Bewertung der kognitiven Arbeitsbelastung zu ermöglichen, hat Charles River Analytics ein System zur kognitiven Bewertung und Vorhersage zur Förderung der individualisierten Leistungssteigerung und Verringerung der Abnahme (CAPT PICARD) entwickelt. Dieses Echtzeit-Workload-Tool wurde in dieser Betriebsstudie der NASA anhand der Bedford-Workload-Bewertungsskala validiert. Die Gesamtergebnisse für SA und kognitive Arbeitsbelastung waren gemischt, jedoch zeigten die CAPT PICARD Arbeitsbelastung und die Eyetracking-Messungen (beide physiologische Echtzeitmessungen) übereinstimmende Ergebnisse. Der Wert der Arbeitsbelastungsbewertung während des Entwicklungstests eines neuen Systems besteht darin, dass sie die frühzeitige Identifizierung von Funktionen und Designs ermöglicht, die zu einer hohen Arbeitsbelastung führen. Wenn Probleme frühzeitig erkannt werden, sind Neukonstruktionen machbarer und kostengünstiger. Echtzeit-Arbeitslastdaten könnten die Eingaben liefern, die für zukünftige adaptive Displays erforderlich sind (z. B. wenn ein Astronaut eine hohe kognitive Arbeitslast hat, könnten diese Daten eine Option für vereinfachte Displays sein). Eine Zukunftsvision für die unauffällige Messung der Arbeitsbelastung in Echtzeit ist auch der Einsatz in einer operativen Raumfahrtumgebung. Daher ist es von entscheidender Bedeutung, weiterhin Tools für unauffällige Messungen der menschlichen Leistung wie CAPT PICARD zu testen und auszureifen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-32423-0_5 45b24227399af4daa9ebc441920d39a0;de;;;5.3.;;;Überprüfung der Anforderungsanalysemethode für das System basierend auf ISO/IEC 9126 Sechs Qualitätsmerkmale Um den Gewinn basierend auf dem Erfolg der Entwicklung neuer Produkte mitzunehmen. Es ist sehr wichtig, die quantitative Qualitätsanforderung an ein neues Systemprodukt während der Systemdesignphase zu definieren. Um die Zielqualität des Produkts zu definieren, ist die Methode der quantitativen Definition von Qualitätsanforderungen basierend auf dem ISO/IEC 9126-Qualitätsmodell, das sechs Merkmale umfasst, die unter dem Gesichtspunkt der Kundenzufriedenheit definiert werden, weithin anerkannt. Die Unabhängigkeit jedes Merkmals ist jedoch nicht sicher und die Eignung der Methode unter Verwendung dieser sechs Qualitätsmerkmale für die Qualitätsanforderung ist nicht statistisch belegt. In diesem Papier schlagen wir das Ergebnis der Überprüfung der Wirksamkeit der quantitativen Qualitätsanforderungsdefinition aus der Sicht von sechs in ISO/IEC9126 definierten Merkmalen vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35795-4_8 04c9aaba2d06dba8575825fd5a6474b2;de;;;5.3.;;;Virtuelle Hommage an die Toten: Eine Analyse digitaler Gedenkstätten im Social Web In Anbetracht der Tatsache, dass viele reale kulturelle Praktiken inzwischen in virtuelle Umgebungen migrieren, wird der Ausdruck von Trauer und Verlust auch in die virtuelle Welt importiert, durch sogenannte digitale Gedenkstätten, unterstützt durch immer neue und komplexere Technologien. In diesem Beitrag führen wir eine Literaturrecherche zu realen und digitalen Gedenkstätten sowie sozialen Netzwerken durch. Anschließend untersuchen wir durch empirische Beobachtung digitaler Gedenkstätten in Brasilien, ob diese Merkmale des Social Web aufweisen. Anschließend analysieren wir mit einem Interaktionstest und einem Fragebogen, wie sich Nutzer bei der Interaktion mit digitalen Gedenkstätten fühlen und wie sie die Funktionalitäten dieser Anwendungen bewerten. Schließlich nähern wir uns den Schwierigkeiten beim Studium dieser Art von Werkzeugen und unseren Perspektiven für zukünftige Arbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07632-4_7 b0daefcfadf9b403aaa77d8f3f7e200c;de;;;5.3.;;;Wireless-Authentifizierung und Transaktionsbestätigungs-Token Unser neues System kombiniert Wi-Fi mit Benutzerauthentifizierungstoken, um Finanztransaktionen von Verbrauchern zu authentifizieren. Um dieses Ziel bei maximaler Benutzerfreundlichkeit und Kompatibilität zu erreichen, tunnelt unser Token Daten durch neue Seitenkanäle, einschließlich des SSID-Felds, des Pakettimings und der Paketlänge. Diese neuen Punkt-zu-Punkt-Seitenkanäle im WLAN ermöglichen einen direkten Nachrichtenaustausch zwischen Token und PC – auch wenn der PC auch mit einem Access Point verbunden ist. Das Ergebnis ist ein Token, der Transaktionen mit nur einer Berührung durch den Benutzer authentifizieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20077-9_13 f1f0663553ab55a59c5fd078cdede517;de;;;5.3.;;;FIFARecs: Ein Empfehlungssystem für FIFA18 Eine der beliebtesten Funktionen im FIFA18-Spiel ist der Karrieremodus, bei dem das Ziel der Benutzer ist, ihre Teams zu verbessern und so viele Wettbewerbe wie möglich zu gewinnen. Normalerweise ist es für die Benutzer schwer zu entscheiden, welche Spieler sie kaufen möchten, um ihr Team unter Berücksichtigung aller verschiedenen Spielerattribute maximal zu verbessern. In diesem Dokument stellen wir einen Ansatz vor, der den Benutzern hilft, den schlechtesten Spieler in einem bestimmten Team zu bestimmen und eine Liste von Spielern zu empfehlen, die als möglicher Ersatz angesehen werden, um das Team zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30278-8_50 4331871ee82635ee75bf8472b4f40b9e;de;;;5.3.;;;Histogramm-Publishing-Algorithmus basierend auf Sampling Sorting und Greedy Clustering Die Daten, die durch den Algorithmus zur Veröffentlichung von Differential-Privatsphäre-Histogrammen basierend auf Gruppierung erzeugt werden, haben aufgrund eines großen Näherungsfehlers und Laplace-Fehlers eine geringe Nutzbarkeit. Um dieses Problem zu lösen, wird ein Histogramm-Veröffentlichungsalgorithmus vorgeschlagen, der auf einer Roulette-Sampling-Sortierung und einer gierigen Partition basiert. Unser Algorithmus kombiniert den Exponentialmechanismus mit der Roulette-Sampling-Sortiermethode, ordnet die ähnlichen Histogramm-Bins zusammen mit einer größeren Wahrscheinlichkeit durch die Nutzenfunktion und die Beschränkung der Anzahl der abgetasteten Entitäten. Der Greedy-Clustering-Algorithmus wird verwendet, um die sortierten Histogramm-Bins in Gruppen zu unterteilen, und der Fehler zwischen den Histogramm-Bins in jeder Gruppe wird durch Optimieren des unteren Grenzfehlers der Gruppierung reduziert. Umfangreiche experimentelle Ergebnisse zeigen, dass der vorgeschlagene Algorithmus die Nutzbarkeit veröffentlichter Daten unter der Prämisse der Erfüllung der differenziellen Privatsphäre effektiv verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2777-7_7 1514482278ae3573b3ebd0fa1cbc2903;de;;;5.3.;;;Englische Fragen durch die Anwendung von Collective Intelligence lösen Viele Forscher verwenden N-Gramm-Statistiken, die statistische Informationen über die Kohäsion zwischen Wörtern liefern, um semantische Informationen in Webdokumenten zu extrahieren. Außerdem wurde das N-Gramm im Rechtschreibprüfungssystem, bei der Vorhersage des Benutzerinteresses usw. angewendet. Dieses Papier ist eine grundlegende Untersuchung zur Schätzung der lexikalischen Kohäsion in Dokumenten unter Verwendung von Trigram, 4gram und 5gram, die von Google angeboten werden. Der Hauptzweck dieses Papiers ist die Schätzung der Möglichkeiten von Google n-gram unter Verwendung von TOEIC-Fragedatensätzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22333-4_5 f716c924f2c174cadfc46a9e34434e05;de;;;5.3.;;;Entwicklung einer responsiven Webplattform zur systematischen Überwachung von Küstenstrukturen Portugals privilegierte Lage und die Verlängerung seiner Küstenlinie haben zum Bau und zur Wartung einer großen Anzahl von Hafeninfrastrukturen geführt. Diese Bauwerke wurden in erster Linie gebaut, um die Ruhe der Schutzgebiete in den Hafenbecken zu gewährleisten, aber sie unterstützen unter anderem auch die Kontrolle der Sedimentation, da sie die Strömungen leiten und das Wasser aus thermoelektrischen Anlagen schützen. Der Bruchsteindamm ist die häufigste dieser Bauwerke und seine Eigenschaften erfordern während seiner gesamten Lebensdauer Wartungs- und Reparaturarbeiten. Um erhebliche Kosten oder, noch schlimmer, den Einsturz des Bauwerks zu vermeiden, muss die Notwendigkeit dieser Arbeiten im Voraus bewertet werden. Dies wird durch die Bewertung des aktuellen Zustands des Wellenbrechers, aber auch durch seinen Vergleich mit vergangenen Situationen erreicht. Der Ist-Zustand wird regelmäßig vor Ort überprüft und alle relevanten Daten werden systematisch erhoben. Die Integration der bei mehreren Inspektionen gesammelten Daten ermöglicht zusätzliche Vergleiche und Analysen, die die Charakterisierung der Evolutions- und Risikobedingungen unterstützen. Die Datenerhebung bei regelmäßigen Inspektionen dieser Bauwerke erfolgte bis vor kurzem manuell unter Verwendung von Papierformularen und Fotos. Dies war ein langsamer und fehleranfälliger Prozess. Zur Verbesserung der Produktivität wurde ein Monitoring-Tool entwickelt, das von einem kartenbasierten Online-Geografischen Informationssystem (WebGIS) unterstützt wird. Diese Plattform ist ein auf Geräte ansprechendes mobiles System, das sich an den Standort des Geräts des Benutzers anpasst und die Georeferenzierung und Analyse der betreffenden Strukturen ermöglicht. Das System beinhaltet Einrichtungen zur Erfassung von Strukturinformationen und unterstützt auch die Zuordnung von Mediadaten wie Fotos und Videos. In diesem Beitrag wird die entwickelte Plattform im Detail vorgestellt, wobei der Fokus auf Informationsanforderungen, Architektur und den dem Benutzer zur Verfügung stehenden Funktionalitäten liegt. Die resultierende Plattform wurde von beteiligten Forschern des portugiesischen Nationalen Labors für Bauingenieurwesen (den Endbenutzern des Systems) und von nicht erfahrenen Benutzern erfolgreich evaluiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-06010-7_11 7ace86cf43c03f07880b9b759e6d0f54;de;;;5.3.;;;Intuitives humanoides Roboter-Betriebssystem basierend auf der Erkennung und Variation der menschlichen Körperbewegung In diesem Artikel schlagen wir ein intuitives Betriebssystem für humanoide Roboter vor, das auf der Erkennung und Variation der menschlichen Körperbewegung basiert. In diesem System wird die Bewegung des menschlichen Körpers dynamisch von sechsachsigen Sensoren in Controllern erfasst, die der Benutzer in der Hand hält. Dann wird die Variation der menschlichen Körperbewegung auch von Gyrosensoren in den Controllern erkannt. Basierend auf den erhaltenen Sensorinformationen wird der Körperbewegungsklassifikator unter Verwendung des Hidden-Markov-Modells konstruiert. Durch die Verwendung des Körperbewegungsklassifikators erkennt das vorgeschlagene System die Körperbewegung des Benutzers, und redundante Bewegungen des humanoiden Roboters werden verhindert. Der Benutzer kann den humanoiden Roboter intuitiv bedienen und ihn die beabsichtigte Bewegung des Benutzers ausführen lassen. Wir führen ein Aufgabenexperiment durch, um die Benutzerfreundlichkeit des vorgeschlagenen Systems zu bewerten. Im Experiment bereiten wir zum Vergleich mit dem vorgeschlagenen System drei Bedienungsmethoden vor: Joystick, Kinect und Betriebssystem mit Sechs-Achsen-Sensor, ohne die Variation der menschlichen Körperbewegung zu erkennen. Als Ergebnis haben wir im Vergleich mit anderen Systemen bestätigt, dass das vorgeschlagene System vielseitiger ist und der humanoide Roboter mit dem vorgeschlagenen System geeigneter betrieben werden könnte. Und es wurde vorgeschlagen, dass das vorgeschlagene System dem Benutzer ermöglicht, humanoide Roboter angemessen und intuitiv zu bedienen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29934-6_34 7dade1a4708b05bbae433ca95f102a43;de;;;5.3.;;;Steigerung der emotionalen Wirksamkeit von Virtual-Reality-Erlebnissen mit Sprachsteuerung Virtual Reality (VR)-Systeme werden immer häufiger und können zutiefst immersive Erlebnisse schaffen. Obwohl die visuelle Komponente von VR-Systemen die Präsenz des Benutzers in virtuellen Räumen nachahmt, werden Dialogsteuerungssysteme, die in VR-Erlebnissen verwendet werden, oft aus älteren Medien übernommen. Bei der Auswahl von Dialogen können ältere Systeme die Illusion der Präsenz im virtuellen Raum brechen, was bei interaktiven Erzählungen besonders störend ist. Die Verwendung eines sprachgesteuerten Dialogsystems kann diese Illusion bewahren und daher die emotionale Wirkung von narrativen Erfahrungen verstärken. Wir bewerten diese Hypothese an Teilnehmern, die dasselbe Spiel spielen, denen zugewiesen wurde, entweder eine Spracherkennung oder eine traditionellere Point-and-Click-Benutzeroberfläche zu verwenden. Wir stellen fest, dass die Verwendung von Sprachsteuerung mit VR die emotionale Wirkung des Spiels und die wahrgenommene Freude der Benutzer verbessert, wie durch ein Umfrageinstrument nach dem Experiment gemessen. Außerdem präsentieren wir interessante qualitative Ergebnisse aus Interviews mit Teilnehmern. Unsere Ergebnisse legen nahe, dass die Integration von Sprachsteuerung in interaktive VR-Erzählungen deren Attraktivität sowohl für Verbrauchermärkte als auch für psychologische Anwendungen verbessern könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-23089-0_15 af9e259ba06d8ac11f5c4944a7b26204;de;;;5.3.;;;Formalisierter und nicht formalisierter Ausdruck in musikalischen Interfaces Viele musikalische Interfaces sind darauf ausgelegt, musikalischen Ausdruck zu ermöglichen. Dabei ist es die Aufgabe der Schnittstelle, Daten zu generieren, die die Expressivität der Gesten des Performers an die Synthese-Engine übermitteln. Das Instrument muss für die Aktionen des Ausführenden offen oder transparent sein. Der Aufbau von Schnittstellen mit dieser Art von Offenheit kann als Problem in der Schnittstellenentwicklung angesehen werden, da die Handlungen des Performers von einer phänomenologischen Ebene auf eine formale Ebene übertragen werden müssen. Dieser Beitrag untersucht die Idee, Offenheit zu schaffen, indem das Wesentliche nicht formalisiert wird. Es werden Beispiele für Implementierungen in den Bereichen Musikinstrumente und Computerspiele vorgestellt, die dieses Verfahren verwenden. Die Aufgaben der Offenheit, Transparenz und Flexibilität für die Nutzerintentionen werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79486-8_29 3cc64f8502a3689a8987d31910545b3b;de;;;5.3.;;;Paranga: Ein interaktives Daumenkino E-Books, die immer beliebter werden, bieten den Nutzern potenziell attraktive und unterhaltsame Interaktionen über Papierbücher hinaus. Sie haben jedoch physikalische Eigenschaften wie eine papierähnliche Textur und das Gefühl beim Blättern verloren. Wir konzentrieren uns auf Daumenkinos und schlagen ein neuartiges buchförmiges Gerät für Daumenkinos namens . vor;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34292-9_2 d5f4244981769565c33298e2800c9cb9;de;;;5.3.;;;Adaptive datengesteuerte Parallelisierung von Multi-View-Videocodierung auf Multi-Core-Prozessor Multi-View-Videocodierung (MVC) umfasst reichhaltige 3D-Informationen und wird häufig in neuen visuellen Medien wie 3DTV und Free Viewpoint TV (FTV) verwendet. Aber selbst wenn Mainstream-Computerhersteller zu Mehrkernprozessoren migrieren, verhindert der enorme Rechenbedarf von MVC derzeit seine breite Verwendung in Verbrauchermärkten. In diesem Papier demonstrieren wir das Design und die Implementierung des ersten parallelen MVC-Systems auf dem Cell Broadband Engine™-Prozessor, einem hochmodernen Mehrkernprozessor. Wir schlagen einen datengesteuerten Task-Dispatching-Algorithmus auf Frame-Ebene für MVC vor und implementieren einen parallelen Multi-View-Videodecoder mit modifiziertem H.264/AVC-Codec auf realen Maschinen. Dieser Ansatz bietet eine skalierbare Beschleunigung (bis zu 16-mal auf sechzehn Kernen) durch geeignetes lokales Speichermanagement, Nutzung der Codelokalität und SIMD-Verbesserung. Decodiergeschwindigkeit, Beschleunigung und Nutzungsrate von Kernen werden in experimentellen Ergebnissen ausgedrückt.;-;-;-;https://link.springer.com/article/10.1007/s11432-009-0042-8 a5a692186ae4f9b8141460c386d2a489;de;;;5.3.;;;Qualitative und quantitative Analyse zeitgesteuerter SDL-Spezifikationen Timed SDL (TSDL) ist eine modifizierte Version von SDL zur Untersuchung qualitativer und quantitativer Systemaspekte innerhalb einer Modellbeschreibung. Da realistische Kommunikationsprotokolle in der Regel sehr groß sind, wurde ein Programmpaket entwickelt, das ein TSDL-Modell in eine interne Darstellung einer äquivalenten Finite State Machine (FSM) umwandelt. Diese FSM-Darstellung kann durch Algorithmen zur qualitativen und quantitativen Protokollanalyse effizient analysiert werden. Als sehr geeignet haben sich insbesondere Algorithmen zur partiellen Zustandsraumerkundung erwiesen. Einer dieser Algorithmen ist ausführlich beschrieben und leicht verbessert. Es zeigt sich, dass diese Art der Analyse auch bei großen Modellen zu vernünftigen Ergebnissen führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-78091-2_36 f14a8e75d3d3823ab1e42a055cc2d321;de;;;5.3.;;;Validierung der Abdeckung lexikalischer Ressourcen für die Affektanalyse und automatische Klassifizierung neuer Wörter entlang semantischer Achsen Neben sachlichen Inhalten enthalten viele Texte eine emotionale Dimension. Diese emotionale oder affektive Dimension hat in der Computerlinguistik bis vor kurzem keine große Aufmerksamkeit erhalten. Da jedoch Nachrichten (einschließlich Spam) häufiger vorkommen als redigierte Texte (wie Newswire), wird die Anerkennung dieser emotionalen Dimension von geschriebenem Text immer wichtiger. Eine Ressource, die zur Identifizierung von Affekten im Text benötigt wird, ist ein Lexikon von Wörtern mit emotionalem Potenzial. Ausgehend von einem bestehenden Affektlexikon und lexikalischen Mustern, die Affekt aufrufen, haben wir eine große Textmenge gesammelt, um die Abdeckung unseres bestehenden Lexikons zu messen. Dieses Kapitel berichtet über unsere Methoden zur Identifizierung neuer Affektwörter und über unsere Bewertung unserer aktuellen Affektlexika. Wir beschreiben, wie unser Affektlexikon basierend auf den Ergebnissen dieser Experimente erweitert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-4102-0_9 07096247d235b69fb889bb93de039f9e;de;;;5.3.;;;Ein Laser-Photolyse-Fragment-Fluoreszenz-Verfahren (LPFF) zum Nachweis von gasförmiger Salpetersäure in der Umgebungsluft Die Entwicklung und erste Tests einer neuartigen Methode zum direkten, sensitiven, selektiven und schnellen Nachweis gasförmiger Salpetersäure in Luft werden beschrieben. Das Nachweisverfahren basiert auf dem Laser-Photolyse-Fragment-Fluoreszenz-(LPFF)-Verfahren mit 193 nm (ArF) Laserlicht. Der Photolyseprozess, der zu OH-Fluoreszenz führt, wurde gründlich untersucht. Bisher hat sich das Verfahren als praktisch störungsfrei erwiesen. Das Mischungsverhältnis für Salpetersäure wird online mit einer Nachweisgrenze von etwa 0,1 ppbv bei einer Akkumulationszeit des Signals von 10–15 min gemessen. Um die Machbarkeit und Grenzen der beschriebenen Nachweismethode zu demonstrieren, wurden eine Reihe von Tests und Feldmessungen durchgeführt.;-;-;-;https://link.springer.com/article/10.1007/BF00115785 61ea5d84b17d6b4a04dca3122b3d1311;de;;;5.3.;;;Automatische Erweiterung von Testberichten zur Unterstützung von Crowdsourcing-Tests Beim Crowdsourcing-Testen mobiler Anwendungen sind die Mitarbeiter oft unerfahren und mit Softwaretests nicht vertraut. Währenddessen bearbeiten Mitarbeiter Testberichte in beschreibender natürlicher Sprache auf mobilen Geräten. Daher fehlen diesen Testberichten im Allgemeinen wichtige Details und sie fordern die Entwickler heraus, die Fehler zu verstehen. Um die Qualität von geprüften Prüfberichten zu verbessern, stellen wir ein neues Problem der Prüfberichterweiterung durch Nutzung der zusätzlichen nützlichen Informationen aus doppelten Prüfberichten. In diesem Papier schlagen wir ein neues Framework namens Test Report Augmentation Framework (TRAF) vor, um das Problem zu lösen. Zunächst werden Natural Language Processing (NLP)-Techniken verwendet, um die Crowdsourcing-Testberichte vorzuverarbeiten. Dann werden drei Strategien vorgeschlagen, um die;-;-;-;https://link.springer.com/article/10.1007/s11704-018-7308-5 2d5cf6fd738506d3cbe78b96fbc44519;de;;;5.3.;;;Vorhersage der Schülerleistung beim Lösen parametrisierter Aufgaben Exercise In diesem Beitrag vergleichen wir Pioniermethoden des Data-Mining-Bereichs im Bildungsbereich mit Empfehlungssystemtechniken zur Vorhersage der Schülerleistung. Darüber hinaus untersuchen wir, wie wichtig es ist, die Versuchssequenzen der Schüler in parametrisierten Übungen einzubeziehen. Die von uns verwendeten Ansätze sind Bayesian Knowledge Tracing (BKT), Performance Factor Analysis (PFA), Bayesian Probabilistic Tensor Factorization (BPTF) und Bayesian Probabilistic Matrix Factorization (BPMF). Die letzten beiden Ansätze stammen aus dem Bereich des Empfehlungssystems. Wir nähern uns dem Problem mit Knowledge Components (KCs) auf Frageebene und testen die Methoden mittels Kreuzvalidierung. In dieser Arbeit konzentrieren wir uns auf die Vorhersage der Leistung der Schüler in parametrisierten Übungen. Unsere Experimente zeigen, dass fortschrittliche Empfehlungssystemtechniken genauso genau sind wie die Pioniermethoden bei der Vorhersage der Schülerleistung. Unsere Studien zeigen auch, wie wichtig es ist, die zeitliche Abfolge der Versuche der Schüler zu berücksichtigen, die gewünschte Genauigkeit zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07221-0_62 0d80305b449dfd189ba18bfb1a498a91;de;;;5.3.;;;Eine Einführung in die aufgabenorientierte Programmierung Task Oriented Programming (oder kurz TOP) ist ein neues Programmierparadigma. Es wird für die Entwicklung von Anwendungen verwendet, bei denen Menschen im Internet eng zusammenarbeiten, um ein gemeinsames Ziel zu erreichen. Die Aufgaben, die zur Erreichung dieses Ziels zu erledigen sind, werden auf einem sehr hohen Abstraktionsniveau beschrieben. Das bedeutet, dass man sich um die technische Realisierung kümmern muss, um die Zusammenarbeit zu ermöglichen. Aus der abstrakten Beschreibung wird vollautomatisch die technische Realisierung generiert. TOP kann daher als modellgetriebener Ansatz betrachtet werden. Die beschriebenen Aufgaben bilden ein Modell, aus dem die technische Realisierung generiert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-15940-9_5 c6c0974cb64273599aacd0578abcc13c;de;;;5.3.;;;Zeitbasierte Segmentierung von künstlerischen Zeichnungen Wir schlagen eine Segmentierungsmethode einer künstlerischen Zeichnung in Teile vor, von denen jeder ein physisches Objekt darstellt. Unsere Methode basiert auf der Geschwindigkeit der Bewegungen eines Zeichenstifts. Die künstlerischen Zeichnungen sind in Teile unterteilt, die jeweils mit nahezu konstanter Geschwindigkeit der Federbewegungen gezeichnet werden. Wir haben Experimente durchgeführt und die Ergebnisse zeigen, dass die segmentierten Teile der künstlerischen Zeichnung den darzustellenden physischen Objekten entsprechen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-64381-8_60 fbe5a07a1f240c6f0e3661dca2d917a9;de;;;5.3.;;;3D-Objekterkundung mithilfe von Ansichtspunkt- und Netz-Salienz-Entropien In diesem Whitepaper wird eine Technik zur Untersuchung eines 3D-Objekts in einer Szene mit minimalem Informationsverlust vorgestellt. Wir nutzen das Konzept der Blickpunktentropie und führen einen neuartigen Blickdeskriptor namens Mesh-Salienz-Entropie ein, um das Objekt zu untersuchen, indem wir einen minimalen Satz von Kamerapositionen finden, der die maximale Information abdeckt. Hier stellen wir einen Greedy-Choice-Algorithmus vor, der versucht, suboptimale N-beste Ansichten zu erkennen, indem die Kombination von Mesh-Salienz-Entropie und Blickpunkt-Entropie verwendet wird, um die vom Objekt kommunizierten Informationen wahrzunehmen. Der Hauptbeitrag besteht darin, dass das Objekt mit minimalem Informationsverlust untersucht werden kann, was in wissenschaftlichen und medizinischen Analysen verwendet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-2155-8_38 410b27c348ae14febb2db4832c07ea85;de;;;5.3.;;;Integration von Mobile IP und NHRP über ATM-Netzwerke In diesem Papier schlagen wir ein Schema zur Integration von Mobile IP und NHRP über NBMA-Netze einschließlich ATM-Netz vor. Dieses Papier definiert auch die Signalisierungs- und Kontrollmechanismen, die zur Integration von NHRP und Mobile IP erforderlich sind. Die Integration verringert die Ende-zu-Ende-Pfadverzögerung zwischen einem MN und einem CN unter Verwendung der Merkmale von ATM, die schnelles Schalten und hohe Skalierbarkeit sind. Wir analysieren mathematisch die End-to-End-Pfadverzögerung zwischen Endhosts in integrierten Mobile-IP-Netzwerken und zeigen auch die Verbesserung der Verzögerung durch Simulation.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36901-5_47 6bc32bcf74b7631bdfb7372dcbb13167;de;;;5.3.;;;Flexible Benachrichtigungen und Aufgabenmodelle für kooperatives Arbeitsmanagement Wissensintensives kooperatives Arbeiten erfordert ein emergentes Workflow-Management. Die Teilnehmer interagieren mit der Workflow-Engine und definieren und aktivieren gemeinsam die Workflow-Struktur neu. Um die Benutzerfreundlichkeit solcher Systeme zu verbessern, präsentieren wir rekonfigurierbare Benachrichtigungsmechanismen sowie Shared-Task-Modelle, die von verschiedenen Clients gleichzeitig verwendet werden können und sich auf verschiedene Arten der Visualisierung und Navigation konzentrieren.;-;-;-;https://link.springer.com/chapter/10.1007/11518358_3 5d38af69a89b15d66243d812103d6629;de;;;5.3.;;;Forschung zur Entwicklungsstrategie von O2O e-Commerce in traditionellen Handelsunternehmen In den letzten Jahren suchen Chinas traditionelle Einzelhandelsunternehmen nach einem Übergang, um den O2O-E-Commerce zu entwickeln, aber aufgrund der Unternehmensressourcen sind Kapital und Erfahrung bei der Transformation unzureichend, das Transformationsrisiko ist hoch und die Innovationsfähigkeit des Unternehmens ist unzureichend, Modus ist Single und Mangel an Erfahrung. Daher wird in diesem Papier dargelegt, dass traditionelle Unternehmen im Transformationsprozess ihr Management-Service-Level verbessern, den Integrationskanal für die Differenzierungsstrategie wählen und die Verbrauchererfahrung verbessern müssen, um die Transformation von Unternehmen zu realisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1648-7_45 6a15d3684bb4edd88c79914b5ca0fce0;de;;;5.3.;;;Grundlagenforschung zu Faktoren, die die Texturwahrnehmung von Bildern beeinflussen Wir führen ein subjektives Bewertungsexperiment durch, indem wir mit der semantischen Differentialmethode den Zusammenhang zwischen Form, Farbe und Größe eines Objekts in einem Bild und der Entstehung der Texturwahrnehmung untersuchen. Das Experiment besteht aus einer Bewertungsuntersuchung zur wahrgenommenen Textur eines visuellen Reizes, der auf einem Monitor angezeigt wird. Der Stimulus ist eine einfache Form (Kugel, Zylinder oder Box), die mit einer Computergrafikanwendung erstellt wurde. Jede Form erscheint in einer von drei Farben (rot, blau oder grün) und in einer von zwei Größen (groß oder klein) für insgesamt 18 verschiedene Reize. Die Faktoren wurden durch Hauptfaktorenanalyse aus den Daten extrahiert und die Faktorladungen wurden durch Promax-Rotation berechnet. Darüber hinaus wurden die Beziehungen zwischen jedem Faktor und der Texturwahrnehmung durch Hayashis erste Quantifizierungsmethode, eine Art Regressionsanalyse, untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07731-4_29 beaa03d986ecd249f63d615bb2f545f8;de;;;5.3.;;;Informationsethik: Zur philosophischen Grundlage der Computerethik Die wesentliche Schwierigkeit des philosophischen Status der Computerethik (CE) ist ein methodisches Problem: Standardethische Theorien lassen sich nicht leicht an CE-Probleme anpassen, die ihre konzeptionellen Ressourcen zu strapazieren scheinen, und CE erfordert eine konzeptionelle Grundlage als ethische Theorie. Informationsethik (IE), das philosophische grundlegende Gegenstück zu CE, kann als Sonderfall der „Umwelt“-Ethik oder Ethik der Infosphäre angesehen werden. Was ist gut für eine Informationseinheit und die Infosphäre im Allgemeinen? Dies ist die ethische Frage von IE. Die Antwort liefert eine minimalistische Wüstentheorie: IE argumentiert, dass es etwas Elementareres und Fundamentaleres als Leben und Schmerz gibt, nämlich das Sein, verstanden als Information und Entropie, und dass jede Informationseinheit als Zentrum von minimaler moralischer Anspruch, der Anerkennung verdient und dazu beitragen sollte, die Durchführung eines damit verbundenen Informationsprozesses zu regulieren. IE kann eine wertvolle Perspektive bieten, um mit Einsicht und angemessenem Urteilsvermögen nicht nur moralische Probleme in CE, sondern auch die gesamte Bandbreite konzeptioneller und moralischer Phänomene, die den ethischen Diskurs bilden, anzugehen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1010018611096 ba5fee38bf47be767fcd41c7c02f7229;de;;;5.3.;;;Verwendung überzeugender Designprinzipien beim motivierenden Gefühl gegenüber der Zahnarztangst (CDA) von Kindern Dieses Papier konzentriert sich auf den möglichen Einsatz überzeugender Gestaltungsprinzipien bei der Motivation der Zahnarztangst von Kindern. Die Hauptabsicht des Papiers besteht darin, einen Versuch hervorzuheben, wie überzeugende Designprinzipien in Lehrmaterial unter Verwendung einer CD-ROM-basierten Multimedia-Lernumgebung zur Überwindung der CDA entwickelt werden können. Erstens beschreiben wir einen Problembereich, der das universelle Gefühl von CDA diskutiert und zweitens die aktuellen Praktiken im Umgang mit diesen negativen Gefühlen. Drittens werden der konzeptionelle Hintergrund von PMLE und die Anwendung des Prinzips bei der Gestaltung der Informationsschnittstellen und der Präsentation einer überzeugenden multimedialen Lernumgebung (PMLE) beschrieben. Viertens wurde ein experimentelles Design verwendet, um die Auswirkungen eines Prototyps zu validieren, der das Angstniveau von Kindern vor und nach der Demonstration und Anwendung eines PMLE bewertete. Als Befragte werden Grundschulkinder im Alter zwischen sieben und neun Jahren ausgewählt. Fünftens hat das Ergebnis der Studie das Feedback von Kindern bezüglich des Ausgangstests und des Zahnarztangsttests für Kinder offenbart. Es zeigt, wie durch die Verwendung überzeugender Gestaltungsprinzipien als Gesamtstrategie bei der Gestaltung von PMLE die Gefühle der Kinder gegenüber Zahnarztangst motiviert werden konnten und sich die Kinder für den Zahnarztbesuch in Zukunft gut verhalten konnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13226-1_23 6dfcab34e527aab5b17f64cec7611780;de;;;5.3.;;;Zählpunkte für hyperelliptische Kurven vom Typ Das Zählen von rationalen Punkten auf Jacobi-Varietäten von hyperelliptischen Kurven über endlichen Körpern ist sehr wichtig für die Konstruktion von hyperelliptischen Kurvenkryptosystemen (HCC), aber bekannte Algorithmen für allgemeine Kurven über gegebene große Primkörper benötigen sehr lange Laufzeiten. In diesem Artikel schlagen wir einen extrem schnellen Punktzählalgorithmus für hyperelliptische Kurven vom Typ . vor;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24654-1_3 e54a35678f9393ea2be8d29b4a6a7fdc;de;;;5.3.;;;Grenzüberschreitender Pendelverkehr und lokale öffentliche Güter Dieses Papier befasst sich mit der Bereitstellung und Finanzierung lokaler öffentlicher Güter, bei denen das freie Fahren zwischen den Gemeinden aus dem Pendeln zwischen den Gerichtsbarkeiten hervorgeht. In einem Zwei-Städte-Modell mit Berücksichtigung des innerstädtischen Pendelverkehrs wird der Zusammenhang zwischen einem Marktgleichgewicht und einer Optimierungslösung untersucht. Es werden Instrumente vorgeschlagen, um Pareto-effiziente Standorte, Produktion und Pendeln zu erreichen.;-;-;-;https://link.springer.com/article/10.1007/BF01581853 99f92484efd175efff444fe5990bf3a4;de;;;5.3.;;;Intuitiver Lautstärkeradierer Wir präsentieren den intuitiven Volume-Eraser, ein interaktives Volume-Rendering-Tool, das die direkte Visualisierung von Volumendaten und das Design der Transfer Function (TF) unterstützt. Unser System verwendet eine skizzenbasierte Bearbeitungsoberfläche, die interaktive Erkundungs- und Bearbeitungsvorgänge auf intuitive und natürliche Weise ermöglicht. Die Datenmerkmale können je nach Benutzerwunsch interaktiv aufgeklärt werden. Die Bearbeitungsergebnisse werden originalgetreu mit dem WYSIWYG-Schema (What You See Is What You Get) gespeichert. Wir bieten auch einen gekoppelten Übertragungsfunktionseditor für Benutzer, die an die traditionelle TF-Bearbeitungsoberfläche gewöhnt sind. Das Ergebnis von Experimenten mit verschiedenen Daten zeigt die Wirksamkeit des vorgeschlagenen intuitiven Volumenradierers. Auch der Vergleich der Nutzererfahrungen zeigt, dass unser Tool in Freundlichkeit und Wirksamkeit die aktuellen Ansätze übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34263-9_32 fbbe0592423bac681641fddfd73cfb4f;de;;;5.3.;;;Neukonfiguration von Listenkantenfärbungen in einem Graphen Wir untersuchen das Problem, eine Listenkantenfärbung eines Graphen in eine andere Listenkantenfärbung umzukonfigurieren, indem eine Kantenfarbe nach der anderen geändert wird, während zu jeder Zeit eine Listenkantenfärbung beibehalten wird, wenn eine Liste zulässiger Farben für jede Kante gegeben ist. Zuerst zeigen wir, dass dieses Problem PSPACE-vollständig ist, selbst für planare Graphen mit maximalem Grad 3 und nur sechs Farben. Dann betrachten wir das Problem auf Bäume beschränkt. Wir zeigen, dass jede Listenkantenfärbung in jede andere umgewandelt werden kann unter der hinreichenden Bedingung, dass die Anzahl der erlaubten Farben für jede Kante strikt größer ist als die Grade ihrer beiden Endpunkte. Diese hinreichende Bedingung ist in gewissem Sinne am besten möglich. Unser Beweis liefert einen Polynomialzeitalgorithmus, der eine Transformation zwischen zwei gegebenen Listenkantenfärbungen eines Baumes mit findet;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03367-4_33 caf632452c2aab559c980a545ac49ce4;de;;;5.3.;;;Über die Anzahl der Lösungen einer Klasse von Komplementaritätsproblemen In diesem Beitrag betrachten wir das Problem der Bestimmung der Anzahl von Lösungen für das Komplementaritätsproblem. Für den Fall, dass der Jacobi-Wert der Abbildung alle Hauptminusgrade negativ hat und eine Bedingung im Unendlichen erfüllt, beweisen wir, dass das Problem entweder 0, 1, 2 oder 3 Lösungen hat. Wir zeigen auch, dass das Problem eine eindeutige Lösung hat, wenn der Jacobi-Wert alle Haupt-Minor-Positiven positiv hat und eine Bedingung im Unendlichen erfüllt.;-;-;-;https://link.springer.com/article/10.1007/BF01584240 50b22becae8fc9181f076791d3316474;de;;;5.3.;;;Natürliche und synthetisierte Sprache beim Fahren hören: Auswirkungen auf die Benutzerleistung Untersucht wurden die Auswirkungen des Nachrichtentyps (Navigation, E-Mail, Nachrichtenstory), des Sprachtyps (Text-to-Speech, natürliche menschliche Sprache) und der Hörfähigkeit (anwesend, abwesend) auf das Nachrichtenverständnis und die Fahrleistung. An dem Experiment nahmen 24 lizenzierte Fahrer (12 unter 30, 12 über 65, beide zu gleichen Teilen nach Geschlecht) teil. Sie fuhren den UMTRI-Fahrsimulator auf einer Straße, die aus geraden Abschnitten und Kurven mit konstantem Radius bestand, was zu zwei Ebenen mit geringer Fahrbelastung führte. Zusätzlich wurden als Kontrollbedingung Daten gesammelt, während die Teilnehmer geparkt waren. Unter allen Bedingungen wurden den Teilnehmern drei Arten von Nachrichten präsentiert. Auf jede Nachricht folgte unmittelbar eine Reihe von Fragen, um das Verständnis zu beurteilen. Navigationsnachrichten waren ungefähr 4 Sekunden lang (ungefähr 9 Wörter). E-Mail-Nachrichten waren etwa 40 Sekunden lang (etwa 100 Wörter) und Nachrichtennachrichten waren etwa 80 Sekunden lang (etwa 225 Wörter). Bei allen Nachrichtentypen war das Verstehen von Text-zu-Sprache-Nachrichten, bestimmt durch die Genauigkeit der Antworten auf Fragen und durch subjektive Bewertungen, signifikant schlechter als das Verstehen natürlicher Sprache (79 gegenüber 83 Prozent richtige Antworten, 7,7/10 gegenüber 8,6 10 subjektive Bewertung). Die Arbeitsbelastung beim Fahren hatte keinen Einfluss auf das Verständnis. Interessanterweise hatten weder die verwendete Sprache (synthetisiert oder natürlich) noch der Nachrichtentyp (Navigation, E-Mail, Nachrichten) einen signifikanten Einfluss auf die grundlegende Fahrleistung gemessen an den Standardabweichungen der seitlichen Spurposition und des Lenkradwinkels.;-;-;-;https://link.springer.com/article/10.1023/A%3A1011387612112 30a223c9c16f0cadce300c2f73bcc0df;de;;;5.3.;;;Artikulierte Handerkennung in Echtzeit und Positionsschätzung Wir schlagen eine neuartige Methode zur planaren Handerkennung aus einem einzelnen unkalibrierten Bild vor, um die artikulierte Pose eines generischen Modells zu schätzen, das grob der aktuellen Handform angepasst ist. Das vorgeschlagene Verfahren kombiniert Linien- und Punktkorrespondenzen, die Fingerspitzen, Linien und Konkavitäten zugeordnet sind und aus Farb- und Intensitätskanten extrahiert werden. Das Verfahren löst robust für mehrdeutige Assoziationsprobleme und verfeinert die Posenschätzung durch nichtlineare Optimierung. Das Ergebnis kann verwendet werden, um einen konturbasierten Trackingalgorithmus sowie ein Modellanpassungsverfahren zu initialisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10520-3_108 b8cac50eb485d669dff1ea13ac045fed;de;;;5.3.;;;Handel, Technologie-Spillover und Lebensmittelproduktion in China Handel, Technologie-Spillover und Lebensmittelproduktion in China. — Dieses Papier untersucht Technologie-Spillover zwischen China und anderen Ländern, wobei der internationale Handel mit Betriebsmitteln der wichtigste Wissensträger in der landwirtschaftlichen Produktion ist. Humankapitalmerkmale und strukturelle Merkmale der landwirtschaftlichen Produktionssysteme bestimmen die lokale Nutzbarkeit des ausländischen Wissens für chinesische Bauern. Die Autoren verwenden ein auf mehrere Regionen angewendetes allgemeines Gleichgewichtsmodell, um chinesische Möglichkeiten zu analysieren, von ausländischen Technologieverbesserungen in der Getreideproduktion zu profitieren. Es wird gezeigt, dass mögliche negative Wohlfahrtseffekte einer einseitigen Handelsliberalisierung Chinas gegenüber nordamerikanischen Importen von landwirtschaftlichen Betriebsmitteln durch Produktivitätsgewinne mehr als ausgeglichen werden können, wenn Technologie-Spillover einbezogen werden.;-;-;-;https://link.springer.com/article/10.1007/BF02707925 e3cab0049d9655890c9d2423f6484360;de;;;5.3.;;;VR-System zur räumlich-zeitlichen Visualisierung von Tweet-Daten und Unterstützung der Kartenexploration Die Analyse sozialer Medien ist hilfreich, um das Verhalten von Menschen zu verstehen. Menschliches Verhalten in sozialen Medien ist zeit- und ortsabhängig, wobei es oft schwierig ist, die Merkmale angemessen und schnell zu finden. Wir haben uns entschieden, Virtual Reality (VR)-Technologien anzuwenden, um die raum-zeitlichen Social-Media-Daten zu präsentieren. Dies erleichtert es uns, interaktive und intuitive Benutzeroberflächen zu entwickeln und die Daten nach unseren Wünschen zu erkunden. In diesem Beitrag wird ein VR-System mit zwei Visualisierungstechniken vorgeschlagen. Eine der Techniken ist eine dreidimensionale zeitliche Visualisierung von Tweets von Microblogs mit Standortinformationen. Es besteht aus der zweidimensionalen Karte und einer Zeitachse. Insbesondere aggregieren wir die Anzahl der Tweets jeder Koordinaten- und Zeitstufe und stellen sie als gestapelte Würfel dar. Wir heben nur bestimmte Cubes hervor, damit Benutzer die Gesamttendenz von Datensätzen verstehen können. Die andere Technik bietet eine Routenempfehlung basierend auf Tweets von Microblogs. Unsere Technik unterstützt Nutzer dabei, attraktive Events und Orte zu erkunden, indem sie effektive Tweets auswählt und Routen vorschlägt. Für die Bedienung dieser Objekte in einem VR-Raum entwickelten wir auch Benutzeroberflächen, die Details von Tweets anzeigen.;-;-;-;https://link.springer.com/article/10.1007/s11042-019-08016-y 384789e82115f18159b3c91c58dcab5a;de;;;5.3.;;;Der Einfluss von Benutzereigenschaften und Erfahrungsfaktoren auf die zwanghafte Nutzung des Smartphones In letzter Zeit sind Mobiltelefone mehr als ein Produkt zum Telefonieren geworden. Da Mobiltelefone viele Funktionen wie ein PC haben, sind sie obligatorisch geworden. Daher verwenden viele Menschen sie die ganze Zeit. Diese zwanghafte Nutzung von Mobiltelefonen kann menschliche Beziehungen blockieren. In dieser Studie haben wir analysiert, wie sich die Eigenschaften und Erfahrungsfaktoren des Benutzers auf die zwanghafte Nutzung des Smartphones auswirken. Um unser Forschungsmodell zu beweisen, wurde eine empirische Analyse mit 183 validen Fragebögen mit Partial Least Square durchgeführt. Aus dieser Analyse fanden wir heraus, dass sich die wahrgenommene Freude, die Zufriedenheit mit Smartphones und die persönliche Innovationsfähigkeit positiv auf die zwanghafte Nutzung von Smartphones auswirken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20998-7_52 6eceae3d71edd28d5a7b50dd0bf4c17c;de;;;5.3.;;;Empirische Validierung eines akkommodationstheoretischen Modells der User-Agent-Beziehung Wir beschreiben ein Computermodell der Benutzer-Agenten-Beziehung basierend auf der Akkommodationstheorie, in dem Beziehungsklassen durch die Menge von Aktivitäten definiert werden, die der Benutzer bereit ist, mit einem Agenten auszuführen. Es wird eine Implementierung dieses Modells beschrieben, die Dialoghandlungen als Satz von beziehungsdefinierenden Aktivitäten und Manipulationen des Modells verwendet, um die Intimität zwischen Benutzer und Agent im Laufe der Zeit zu erhöhen. Die Implementierung ist in einen virtuellen Agenten integriert, der die Rolle eines Übungsberaters übernimmt. Ergebnisse aus Validierungsstudien weisen darauf hin, dass die Implementierung erfolgreich ist, um sich an das gewünschte Intimitätsniveau der Benutzer anzupassen, jedoch nicht erfolgreich ist, die Intimität innerhalb der Studiendauer zu erhöhen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33197-8_40 3c4edd594639884f43977744fb3860c2;de;;;5.3.;;;Beyond Location Based – Das ortsbezogene Mobiltelefon Immer mehr Mobiltelefone verfügen über integrierte Sensoren wie GPS-Empfänger, digitale Kompasse oder Neigungssensoren auf Beschleunigungssensorbasis. In diesem Beitrag präsentieren wir ein Anwendungsframework für die Erstellung von raumbezogenen mobilen Anwendungen – Anwendungen, die Geoinformationen visualisieren, verarbeiten oder austauschen – auf Mobiltelefonen, die mit solchen Sensoren ausgestattet sind. Kernkomponente des Frameworks ist ein neuartiges, plattformunabhängiges XML-Datenaustauschformat, das die geografische Umgebung des mobilen Endgeräts beschreibt. Das Format ermöglicht eine Vielzahl neuer mobiler Interaktionsstile und Benutzeroberflächentypen – von traditionellen textbasierten lokalen Such- und Informationsoberflächen bis hin zu innovativen Echtzeit-Benutzeroberflächen wie Geo-Zeigern und intelligenten Kompassen.;-;-;-;https://link.springer.com/chapter/10.1007/11935148_2 030cf01714947ccefc008df68ae1ff9a;de;;;5.3.;;;Telemedizinprogramm der Universität Dhaka, das sich an die ländliche Bevölkerung mit Gesundheitsproblemen in Bangladesch und anderen ressourcenarmen Ländern richtet Die meisten aktuellen telemedizinischen Bemühungen konzentrieren sich auf die tertiäre Versorgung, wobei Allgemeinärzte auf der Patientenseite verfügbar sind. In Ländern mit geringen Ressourcen (LRC) wollen qualifizierte Ärzte nicht in Dörfern leben, in denen die Mehrheit der Bevölkerung lebt. Daher ist Telemedizin die einzige Lösung. Außerdem sollte die Technologie im Inland entwickelt werden, um effektiv und nachhaltig zu sein. Wir haben die notwendige Technologie selbst entwickelt, darunter webbasierte Software und Online-Diagnosegeräte wie Stethoskop und EKG. Weitere Geräte sind in Entwicklung. Für die Primär- oder Sekundärversorgung haben wir das System im Rahmen eines unternehmerischen Modells eingesetzt, das Videokonferenzen und Online-Verschreibungen durch den behandelnden Arzt bietet. Alle Daten werden für zukünftige Referenzen und Analysen archiviert. Darüber hinaus haben wir eine Handy-Version entwickelt, mit der umherziehende Operatoren Landpatienten direkt zu Hause eine ärztliche Beratung anbieten können, was sich für Frauen, Kinder, ältere und kranke Menschen als sehr nützlich erwiesen hat. Die Software bietet auch ein Monitoring mit Analysemöglichkeiten für Feedback. Seit 2013 haben wir bisher mehr als 18.500 ländliche Patienten gegen eine geringe Gebühr beraten und die Akzeptanz steigt. Derzeit sind mehr als 40 ländliche Zentren aktiv, die aus einem Gremium von 15 Ärzten wählen können, die von ihren eigenen Standorten aus beraten. Darüber hinaus planen wir, in den telemedizinischen Zentren durch Vereinbarungen mit pathologischen Zentren in der Nachbarschaft die Entnahme von Körpergewebe zur pathologischen Untersuchung zu organisieren. Wir glauben, dass dieses System in den LRCs verbreitet werden kann und der Mehrheit der Weltbevölkerung zugute kommt, die derzeit benachteiligt ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30033-3_45 aa60f5b05fe1d7eb607d1282015afaf4;de;;;5.3.;;;Eingeschränkte maximal gewichtete bipartite Übereinstimmung: ein neuartiger Ansatz für die Planung von Radiosendungen Bei einem gegebenen Satz von Rundfunkprogrammen besteht das Problem der Rundfunkplanung darin, einen Satz von Geräten zuzuweisen, um die Programme zu übertragen, um die optimale Tonqualität zu erreichen. In diesem Artikel schlagen wir einen vollständigen Algorithmus zur Lösung des Problems vor, der auf einem Branch-and-Bound (BnB)-Algorithmus basiert. Wir formulieren das Problem mit einem neuen Modell, das als Constrained Maximum Weighted Bipartite Matching (CMBM) bezeichnet wird, d. h. das Maximum Matching Problem auf einem gewichteten bipartiten Graphen mit Einschränkungen. Für das reduzierte Matching-Problem schlagen wir einen neuartigen BnB-Algorithmus vor, indem wir drei neue Strategien einführen, darunter die höchste Qualität zuerst, die geringste Konflikte zuerst und die mehr Kante zuerst. Wir erstellen auch eine Obergrenzen-Schätzfunktion zum Beschneiden des Suchraums des Algorithmus. Die experimentellen Ergebnisse zeigen, dass unser neuer Algorithmus schnell die optimale Lösung für das Radio-Sendungs-Scheduling-Problem bei kleinen Maßstäben finden kann und eine höhere Skalierbarkeit für die Probleme bei großen Maßstäben besitzt als der vorhandene vollständige Algorithmus.;-;-;-;https://link.springer.com/article/10.1007/s11432-017-9324-0 0777c8b88c1a7a1ebf1365547ee2032f;de;;;5.3.;;;Ein zerlegungsbasierter Algorithmus für maximale Kontraktionen Dieses Papier schlägt einen zerlegungsbasierten Algorithmus für Revisionsprobleme in der klassischen Aussagenlogik vor. Eine Reihe von Zerlegungsregeln wird vorgestellt, um die Erfüllbarkeit von Formeln zu analysieren. Die Erfüllbarkeit einer Formel entspricht der Erfüllbarkeit einer Menge von Literalmengen. Eine Zerlegungsfunktion wird konstruiert, um alle erfüllbaren Literalmengen einer gegebenen Formel zu berechnen. Wenn man die Erfüllbarkeit einer Formel ausdrückt, sind diese Literalmengen äquivalent zu allen erfüllten Modellen einer solchen Formel. Ein auf dieser Zerlegungsfunktion basierender Revisionsalgorithmus wird vorgeschlagen, der maximale Kontraktionen eines gegebenen Problems berechnen kann. Um den Speicherbedarf zu reduzieren, wird eine Filterfunktion eingeführt. Der verbesserte Algorithmus weist sowohl in zeitlicher als auch in räumlicher Hinsicht eine gute Leistung auf.;-;-;-;https://link.springer.com/article/10.1007/s11704-013-3089-z 18279ceac34e7c78b8bc42f627a29407;de;;;5.3.;;;3D-Rekonstruktion der Handhaltung mit ISOSOM Wir präsentieren eine auf dem Aussehen basierende 3D-Handhaltungsschätzungsmethode, die basierend auf einer Analyse durch ein Syntheseverfahren und einem Bildabrufalgorithmus einen geordneten Satz möglicher Handhaltungskandidaten aus einem unmarkierten Handbild bestimmt. Wir formulieren das Haltungsschätzungsproblem als nichtlineares Viele-zu-viele-Abbildungsproblem in einem hochdimensionalen Raum. Für die nichtlineare Dimensionsreduktion wird ein allgemeiner Algorithmus namens ISOSOM vorgeschlagen, der auf die 3D-Handposenrekonstruktion angewendet wird, um die Abbildungsbeziehungen zwischen den Handposen und den Bildmerkmalen herzustellen. Um die Zwischenhaltungswerte bei einer spärlichen Abtastung von Ground-Truth-Trainingsdaten zu interpolieren, wird die geometrische Kartenstruktur der Mannigfaltigkeit der Abtastwerte erzeugt. Die experimentellen Ergebnisse zeigen, dass der ISOSOM-Algorithmus besser abschneidet als herkömmliche Bildabrufalgorithmen zur Schätzung der Handhaltung.;-;-;-;https://link.springer.com/chapter/10.1007/11595755_77 05cc0bc59709dc6349bddce0507a801b;de;;;5.3.;;;Echtzeit-Gesichtsausdruckserkennungssystem basierend auf HMM und Feature Point Lokalisierung Für Computer ist es schwierig, Gesichtsausdrücke in Echtzeit zu erkennen. Bisher wird keine gute Methode zur Lösung dieses Problems im In- und Ausland vorgeschlagen. In diesem Beitrag stellen wir ein effektives automatisiertes System vor, das wir entwickelt haben, um Mimikgesten in Echtzeit zu erkennen. Nach der Mimikklassifikation der Psychologen definieren wir vier grundlegende Gesichtsausdrücke und lokalisieren die wichtigsten Gesichtsmerkmalspunkte genau und extrahieren dann die Konturen der Gesichtskomponenten. Wir analysieren und zeichnen die Bewegungen der Gesichtskomponenten auf, indem wir Informationen in sequentiellen Frames verwenden, um Gesichtsgesten zu erkennen. Da verschiedene Gesichtsausdrücke einige gleiche Bewegungen haben können, ist es notwendig, ein gutes Mimikmodell zu verwenden, um die Beziehung zwischen Mimikzuständen und beobachteten Zuständen der Bewegungen von Gesichtskomponenten zu beschreiben, um gute Erkennungsergebnisse zu erzielen. HMM ist eine so gute Methode, die unsere Anforderungen erfüllen kann. Wir präsentieren ein auf HMM basierendes Mimikmodell und erhalten gute Echtzeit-Erkennungsergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/11573548_27 a2a262d09518737d6a982028d34c4075;de;;;5.3.;;;Ein Cauchy-Problem für Milnes Integralgleichung mit einem Pincherle-Goursat-Kernel In einer Reihe unserer vorangegangenen Arbeiten (vgl. Bellman und Ueno, 1971a, 1971b, 1972a, 1972b, 1972c, Ueno 1972) haben wir das Zweipunkt-Randwertproblem für Integralgleichungen mit Hilfe der invarianten Einbettungstechnik -Wertproblem. In diesem Artikel, der das Verfahren auf die Milne-Integralgleichung ausdehnt, deren Kern zu einer doppelten Fourier-Cosinus-Reihe erweitert wird, zeigen wir, wie man ein Cauchy-System für die erforderliche Lösung der Milne-Integralgleichung und der Fredholm-Resolvente findet. Die erhaltenen Integro-Differentialgleichungen werden auf ein großes System gewöhnlicher Differentialgleichungen mit bekannten Anfangsbedingungen reduziert. Dann eignen sie sich für die numerische Berechnung der Lösung durch den modernen Hochgeschwindigkeitsrechner.;-;-;-;https://link.springer.com/article/10.1007/BF00650479 c31923e70618d72ee25b95c32419c05d;de;;;5.1.;;;Präsentation von Argumenten und Gegenargumenten für vorläufige wissenschaftliche Erkenntnisse Ein Hauptziel für einen Wissenschaftler ist es, Beweise zu finden, um für oder gegen universelle Aussagen (in der Tat Formeln erster Ordnung) über die Welt zu argumentieren. Der Aufbau von logikbasierten Werkzeugen zur Unterstützung dieser Aktivität könnte für Wissenschaftler potenziell sehr nützlich sein, um neue wissenschaftliche Erkenntnisse unter Verwendung experimenteller Ergebnisse und etablierter wissenschaftlicher Erkenntnisse zu analysieren. Tatsächlich würden diese logischen Werkzeuge Wissenschaftlern helfen, Argumente und Gegenargumente für vorläufige wissenschaftliche Erkenntnisse zu präsentieren und diese mit anderen Wissenschaftlern zu teilen und zu diskutieren. Um dies zu adressieren, erklären wir in diesem Beitrag, wie vorläufiges und etabliertes wissenschaftliches Wissen in der Logik repräsentiert werden kann, wir zeigen, wie Argumentation erster Ordnung zur Analyse wissenschaftlichen Wissens verwendet werden kann, und wir erweitern unseren Rahmen zur Bewertung des Grades von Konflikten, die in wissenschaftliches Wissen. Wir diskutieren auch die Anwendbarkeit neuerer Entwicklungen bei der Optimierung der Wirkung und Glaubwürdigkeit von Argumenten für das beabsichtigte Publikum.;-;-;-;https://link.springer.com/chapter/10.1007/11794578_16 f708c581c70c517a97084508144f4ca7;de;;;5.1.;;;Web 2.0 Empfehlungsdienst durch Multi-Collaboration Filtering Trust Network Algorithmus Empfehlungsdienste (RS) sind ein wesentlicher Bestandteil von Online-Marketing-Kampagnen. Sie ermöglichen es, automatisch Anzeigen und Werbeaktionen vorzuschlagen, die den Interessen einzelner Nutzer entsprechen. Social-Networking-Websites und das Web 2.0 im Allgemeinen bieten eine kollaborative Online-Plattform, auf der Benutzer Kontakte knüpfen, interagieren und interessante Themen diskutieren. Diese Websites haben eine Fülle von Informationen über Benutzer und ihre Interessen erstellt. Die rechnerische Herausforderung besteht jedoch darin, diese Informationen zu analysieren und zu filtern, um nützliche Empfehlungen für jeden Benutzer zu generieren. Collaborative Filtering (CF) ist eine Empfehlungsdiensttechnik, die Informationen aus den Präferenzen eines Benutzers und von vertrauenswürdigen Peer-Benutzern sammelt, um einen neuen zielgerichteten Vorschlag abzuleiten. CF und seine Varianten wurden in der Literatur zu Online-Empfehlungs-, Marketing- und Werbesystemen ausführlich untersucht. Die meisten Arbeiten basierten jedoch auf Web 1.0, wo davon ausgegangen wird, dass alle für die Berechnungen notwendigen Informationen immer vollständig verfügbar sind. Im verteilten Umfeld des Web 2.0 hingegen, wie beispielsweise in aktuellen sozialen Netzwerken, können die benötigten Informationen entweder unvollständig oder über verschiedene Quellen verstreut sein. In diesem Papier schlagen wir den Multi-Collaborative Filtering Trust Network-Algorithmus vor, eine verbesserte Version des CF-Algorithmus, der für die Arbeit auf der Web 2.0-Plattform entwickelt wurde. Unsere Simulationsexperimente zeigen, dass der neue Algorithmus eine deutliche Verbesserung der Vorhersagegenauigkeit im Vergleich zum ursprünglichen CF-Algorithmus liefert.;-;-;-;https://link.springer.com/article/10.1007/s10796-012-9377-6 ebc7a70f22453a72406d1019f6aa1e50;de;;;5.1.;;;Ein Huffman-Tabellenindex-basierter Ansatz zur Erkennung doppelter MP3-Komprimierung MP3 ist heutzutage das am häufigsten verwendete Audioformat in unserem täglichen Leben, während MP3-Audio in einigen wichtigen Fällen von einem Audiofälscher zu ihren eigenen Vorteilen gefälscht wird, was zu einer doppelten MP3-Komprimierung führt. In diesem Papier werden die statistische Häufigkeit und die Übergangswahrscheinlichkeit im Markov-Modell basierend auf dem Huffman-Codetabellenindex gezählt, und eine Support-Vektor-Maschine wird zur Klassifizierung verwendet, um eine doppelte MP3-Kompression zu erkennen. Experimentelle Ergebnisse zeigen, dass das vorgeschlagene Verfahren eine geringe Komplexität und hohe Genauigkeit aufweist, außerdem wird der Rohling mit der gleichen Bitrate in der doppelten MP3-Kompressionserkennung hergestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-43886-2_19 e4ef68d196d8d1c9eb0d159e1e4e48f1;de;;;5.1.;;;Ein Execution Tracing Tool für mehrschichtige Webanwendungen Ein präzises Request-Tracing-Tool ist unerlässlich, um sowohl Entwicklern als auch Administratoren beim Debuggen von Leistungsproblemen von mehrschichtigen Webanwendungen zu helfen. In diesem Whitepaper wird ein nicht-intrusives End-to-End-Laufzeitpfad-Tracing-Tool namens ExeTracer vorgestellt, das keine Instrumentierung von Middleware oder Anwendungsquellcode erfordert, sondern auf Co-Location-Web-/Anwendungsserverumgebungen beschränkt ist. Wir stellen die Konzeption und Umsetzung im Detail vor. Darüber hinaus evaluieren wir den mit dem Tool verbundenen Performance-Overhead. Die Ergebnisse zeigen, dass der geringe Performance-Overhead es zu einem vielversprechenden Tracing-Tool für den Einsatz in mehrschichtigen Webanwendungen macht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21411-0_40 f25eeab25e61f9e255264cc857a81899;de;;;5.1.;;;Integration mehrerer Arten von Funktionen zur Ereigniserkennung in sozialen Bildern Mit der schnell zunehmenden Popularität von Social-Media-Sites wurde eine große Menge an benutzergenerierten Daten in das Web injiziert. Die Daten umfassen eine Vielzahl von realen Ereignissen. Infolgedessen ist es insbesondere für soziale Multimediaobjekte immer schwieriger geworden, das Durchsuchen und Organisieren von Multimediasammlungen auf effektivere Weise zu ermöglichen. Der in dieser Studie vorgeschlagene Ansatz geht dieses Problem an und ermöglicht so das Durchsuchen und Organisieren multimedialer Sammlungen auf natürliche Weise, d. h. nach Ereignissen. Es gibt einige Forschungsstudien zu diesem Problem. Die meisten der bisherigen Ansätze vereinen jedoch mehrere Typen von Merkmalen (z. B. Textinhalt, visueller Inhalt, Benutzerinformationen und zeitliche Informationen) von sozialen Medien unter Verwendung eines relativ einfachen Mechanismus. In dieser Studie führen wir mehrere Arten von Funktionen auf integrierte Weise zusammen, um das Ereignis zu identifizieren, das mit von Benutzern beigesteuerten sozialen Multimedia-Objekten verbunden ist. Wir nutzen die Korrelationen zwischen verschiedenen Arten von Merkmalen, d. h. Textinhalten, visuellen Inhalten, Benutzerinformationen und zeitlichen Informationen, um neue soziale Multimedia-Objekte in ihre entsprechenden Ereigniskategorien zu klassifizieren. Wir erreichen dies durch einen Merkmalskorrelationsgraphen (;-;-;-;https://link.springer.com/article/10.1007/s11042-014-2436-x 572272338356d91e6fd67d385189bd18;de;;;5.1.;;;Funktioniert ein Hyperlink als Bestätigung? Websites bieten oft Hyperlinks zu anderen Websites mit verwandten Inhalten. Bedeutet dies eine Billigung der Inhalte dieser verlinkten Seiten? Wir beantworteten diese Frage mit einem 2 x 2 faktoriellen Zwischensubjektexperiment, in dem wir systematisch die Quellenglaubwürdigkeit (hoch vs. niedrig) und die Quellenreihenfolge (Verknüpfung vs. verknüpft) variierten. Alle Studienteilnehmer (N = 572) lasen eine zweifelhafte Geschichte, die den Wert von Sonnenschutzmitteln in Frage stellte, mit einem Link am Ende zu einer verwandten Geschichte mit derselben Behauptung. Die Ergebnisse zeigen, dass die Wahrnehmung des Benutzerinteresses (d. h. Attraktivität) von der verlinkten Site auf die verlinkte Site übergeht. Bei der Bewertung von Nachrichten- und Vertrauenswürdigkeit ist das Quellsignal jedoch sehr hervorstechend, wobei die Nutzer die Glaubwürdigkeitsunterschiede zur Kenntnis nehmen. Designimplikationen dieser Ergebnisse für überzeugende Kommunikation werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31037-9_25 0f88247939e6dc5de18c5867afe5d6b6;de;;;5.1.;;;Entwicklung eines neuronalen Netzwerks, um Dame ohne menschliches Fachwissen zu spielen Wir haben das Potenzial eines ko-evolutionären Prozesses untersucht, um zu lernen, wie man Dame spielt, ohne sich auf die übliche Einbeziehung menschlicher Expertise in Form von Funktionen zu verlassen, die für ein gutes Spiel als wichtig erachtet werden. Insbesondere haben wir uns auf die Verwendung einer Population neuronaler Netze konzentriert, wobei jedes Netz als Bewertungsfunktion dient, um die Qualität der aktuellen Vorstandsposition zu beschreiben. Nach nur etwas mehr als 800 Generationen hat der evolutionäre Prozess ein neuronales Netzwerk hervorgebracht, das Dame auf Expertenebene spielen kann, wie es vom Bewertungssystem der U.S. Chess Federation vorgesehen ist. Dies wurde gegen echte Spieler mit Spielen dokumentiert, die über das Internet gespielt wurden. Unser Checkers-Programm namens Anaconda hat sich auch gut gegen kommerziell erhältliche Software behauptet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-1833-8_2 cf04adbea7a47891d315837b508c3573;de;;;5.1.;;;eNB-unterstützte Peer-Discovery-Mechanismen für die D2D-Kommunikation in LTE-Advanced-Netzwerken Die Device-to-Device (D2D)-Kommunikation ist eine der wichtigen Anwendungen in den 4G- und 5G-Technologien. Denn um die D2D-Kommunikation in LTE-Netzen zu unterstützen, müssen sich zwei benachbarte Endgeräte (UEs) gegenseitig erkennen lassen, bevor Daten ausgetauscht werden. Der Discovery-Prozess wird durch Senden eines Discovery-Beacons eingeleitet. Die UEs, die sich innerhalb der Signalisierungsabdeckung befinden, empfangen und erkennen die Informationen des sendenden UEs. Die Interferenz, das Halbduplex-Verhalten und die In-Band-Emission können jedoch das Versagen des Beacon-Empfangs und der -Decodierung verursachen, was zu einem Erkennungsfehler führen kann. Dieses Papier schlägt einen zentralisierten D2D-Erkennungsmechanismus vor, um das Problem des Erkennungsfehlers zu reduzieren. Basierend auf Standortinformationen jedes UE kann der eNB effizient Ressourcen bestimmen, die von dem UE verwendet werden, um seinen Discovery Beacon zu senden. Der vorgeschlagene Ansatz wird auch versuchen, die Signalkollision zu minimieren und die Abschlusszeit für den Entdeckungsprozess zu verkürzen. Da eNB die Standorte aller UEs abrufen kann, sollte das zentralisierte Schema idealerweise in der Lage sein, die optimale Lösung für das Discovery Beacon-Scheduling zu finden. Jedoch kann ein zentralisierter Zeitplan mit zusätzlichem Overhead verbunden sein. Der verteilte Ansatz, bei dem jedes UE die Discovery-Planung selbst entscheidet, kann den Signalisierungs-Overhead reduzieren, aber zu einer verringerten Effizienz führen. Das Leistungskriterium vergleicht die vorgeschlagenen Mechanismen mit anderen konventionellen Entdeckungsmethoden. Simulationsergebnisse zeigen, dass die Anzahl der Zyklen zum Entdecken aller Peers unter Verwendung vorgeschlagener Mechanismen bei hoher UE-Dichte geringer ist als bei anderen herkömmlichen Mechanismen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3250-4_32 b8379948d2361ca60f87c3fb4bf6108b;de;;;5.1.;;;Ein statistischer Rahmen der Datenfusion zur räumlichen Vorhersage kategorialer Variablen Mit dem schnellen Fortschritt der Geodatentechnologien hat die Menge an Geodaten in den letzten Jahrzehnten exponentiell zugenommen. Die verfügbaren Geodaten werden in der Regel von verschiedenen Quellenanbietern gesammelt und sind durch eine Vielzahl von Datenheterogenitäten fragmentiert, was den Bedarf an soliden Methoden unterstreicht, die in der Lage sind, die vielfältigen und inkompatiblen Geoinformationen effizient zu fusionieren. Im Kontext der räumlichen Vorhersage kategorialer Variablen beschreibt dieses Papier einen statistischen Rahmen für die Integration und das Ziehen von Schlussfolgerungen aus einer Sammlung räumlich korrelierter Variablen unter Berücksichtigung von Datenheterogenitäten und komplexen räumlichen Abhängigkeiten. In diesem Rahmen diskutieren wir die räumliche Vorhersage kategorialer Variablen im Paradigma der latenten Zufallsfelder und stellen jede räumliche Variable über räumliche Kovarianzfunktionen dar, die Zweipunkt-Ähnlichkeiten oder Abhängigkeiten von räumlich korrelierten Variablen definieren. Die Darstellung von räumlichen Kovarianzfunktionen, die aus verschiedenen räumlichen Variablen abgeleitet werden, ist unabhängig von heterogenen Merkmalen und kann auf einfache Weise kombiniert werden. Daher bietet es eine einheitliche und flexible Darstellung heterogener räumlicher Variablen in der räumlichen Analyse unter Berücksichtigung komplexer räumlicher Abhängigkeiten. Wir zeigen, dass bei der räumlichen Vorhersage kategorialer Variablen die gesuchte Klassenauftrittswahrscheinlichkeit an einem Zielort als multinomiale logistische Funktion der räumlichen Kovarianzen räumlicher Variablen zwischen dem Zielort und den abgetasteten Orten formuliert werden kann. Der Operator der kleinsten absoluten Schrumpfung und der Auswahl der Gruppe wird für die Parameterschätzung verwendet, die eine Überanpassung des Modells verhindert und gleichzeitig eine optimale Teilmenge wichtiger Informationen (Variablen) auswählt. Synthetische und reale Fallstudien werden bereitgestellt, um die eingeführten Konzepte zu veranschaulichen und die Vorteile des vorgeschlagenen statistischen Rahmens aufzuzeigen.;-;-;-;https://link.springer.com/article/10.1007/s00477-013-0842-7 fb17211a0175a3a7be68d6ae6cfad81d;de;;;5.1.;;;Subjektive Qualitätsbewertung der Stereobildkompression basierend auf der stereoskopischen Fusion beim binokularen Sehen Die Stereobildübertragung erfordert eine nominelle Verdoppelung der Bandbreite des Videosignals, aber die zusätzlichen Einsparungen an Bandbreite können durch Ausnutzung der Eigenschaften des menschlichen Sehsystems erzielt werden. Ausgehend von der menschlichen visuellen Wahrnehmung und dem binokularen Stereoabbildungsmechanismus schlägt diese Studie eine neue subjektive Bewertungsmethode der Qualität der Stereobildkompression auf der Grundlage der Eigenschaften des menschlichen binokularen Sehens und der Psychophysik der stereoskopischen Fusion vor. Konkret untersuchte die vorliegende Studie die Reaktion des menschlichen Sehsystems auf gemischt komprimierte Stereobildsequenzen, bei denen eine Augenansicht räumlich und zeitlich komprimiert war, die Tiefenwahrnehmung jedoch nicht beeinflusst wurde. Diese Methode nutzte die Korrelation zwischen dem linken und rechten Frame der gegebenen Sequenz, die nicht nur dazu beitragen kann, eine gewisse Effizienz der Stereobildübertragung zu erreichen, sondern auch die Konsistenz des direkt intuitiven Ausgabebewertungswerts und die Empfindlichkeit der stereoskopischen Wahrnehmung erleichtert, die auch überwunden werden könnte die Unzulänglichkeiten des traditionellen subjektiven Qualitätsbewertungsverfahrens, das durch das subjektive Bewertungssystem eingeschränkt wird, weist eine gute Durchführbarkeit und Wirksamkeit auf.;-;-;-;https://link.springer.com/article/10.1007/s12652-018-1057-z c8e88fbe068f23ac72e8e465cfc1eef0;de;;;5.1.;;;Industrie 4.0: Kommunikationstechnologien, Herausforderungen und Forschungsperspektiven für 5G-Systeme Die fünfte Generation (5G) ist die vielversprechendste Technologie für das Design und die Entwicklung von industriellem IoT (IIoT). Das mit der 5G-Technologie entwickelte industrielle IoT wird als Industrie 4.0 bezeichnet. Das Internet spielt eine große Rolle in der Industrie 4.0, indem es verschiedene Maschinen, Sensoren, Geräte und Steuerungen verbindet und kommuniziert. Im Kontext von 5G, das Industrie 4.0 ermöglicht, können neue Lösungen für die Automatisierung durch schlanke Produktion erreicht werden, wenn es um wichtige industrielle Ressourcen wie Finanzen, Arbeit und Material geht. Es liegt also auf der Hand, schlanke Produktion einzusetzen, um Produktions- und Betriebskosten zu sparen. In diesem Zusammenhang betont der Artikel die wichtigsten Herausforderungen, die Vision von Industrie 4.0 unter Verwendung der drahtlosen 5G-Kommunikationstechnologie und das 5G-Framework für Industrie 4.0. Einige der Schlüsseltechnologien wie zeitkritisches Netzwerk (TSN), ultrazuverlässige Kommunikation mit niedriger Latenz (URLLC), Industrial Ethernet, Spektrumnutzung und Low-Power-Wide-Area-Networks (LPWAN) für die 5G-Kommunikation, die in der Industrie 4.0 verwendet werden, werden vorgestellt are In diesem Artikel. Darüber hinaus bieten wir auch eine Forschungsrichtung zur 5G-Industrie 4.0 und deren Auswirkungen auf sozioökonomische und ökologische Auswirkungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4932-8_9 ca08533f1125dd93760dad8e9f83b888;de;;;5.1.;;;Identifikation der Teileausrichtung und adaptiver Pick-and-Place-Betrieb für ebene Oberflächen Industrielle Laserschneidmaschinen verwenden eine Art Stützbasis, die manchmal dazu führt, dass die geschnittenen Metallteile kippen oder fallen, was den Roboter daran hindert, die Teile nach dem Schneiden aufzunehmen. Ziel dieser Arbeit ist es, die 3D-Orientierung dieser Metallteile in Bezug auf das Hauptblech zu berechnen, um den anschließenden Roboter-Pick-and-Place-Vorgang erfolgreich durchzuführen. Für den Wahrnehmungsteil stützt sich das System auf die kostengünstige 3D-Sensorik von Microsoft Kinect, die für die Kartierung der Umgebung verantwortlich ist. Die zuvor bekannten Teilepositionen werden in der neuen Umgebung abgebildet und dann wird ein Ebenenanpassungsalgorithmus angewendet, um seine 3D-Orientierung zu erhalten. Der implementierte Algorithmus ist in der Lage zu erkennen, ob das Teil gefallen ist oder nicht. Wenn nicht, berechnet der Algorithmus die Ausrichtung jedes Teils separat. Diese Informationen werden später für den Robotermanipulator verwendet, um den Pick-and-Place-Vorgang mit der richtigen Werkzeugorientierung durchzuführen. Damit ist es möglich, einen Fertigungsprozess zu automatisieren, der heute vollständig vom Menschen abhängig ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39223-8_19 3685a3996872f858deec128a43a57198;de;;;5.1.;;;Robuste und nicht wahrnehmbare Wasserzeichen von Videostreams für Geräte mit geringem Stromverbrauch Mit dem Aufkommen des Internets wird jeder Aspekt des Lebens online. Vom Online-Arbeiten bis zum Anschauen von Videos ist jetzt alles im Internet verfügbar. Mit den größeren geschäftlichen Vorteilen, der erhöhten Verfügbarkeit und anderen Online-Geschäftsvorteilen stellen die Sicherheit und das Eigentum an Daten eine große Herausforderung dar. Videos, die aus einem Online-Shop heruntergeladen wurden, können problemlos von unbeabsichtigten oder nicht autorisierten Benutzern geteilt werden. Unsichtbare Wasserzeichen werden verwendet, um Informationen zum Urheberrechtsschutz in den Videos zu verbergen. Die bestehenden Verfahren zur Wasserzeichenmarkierung sind weniger robust und nicht wahrnehmbar, und auch die Rechenkomplexität dieser Verfahren eignet sich nicht für Geräte mit geringer Leistung. In diesem Beitrag haben wir eine neue Methode vorgeschlagen, um das Problem der Robustheit und Unwahrnehmbarkeit anzugehen. Experimente haben gezeigt, dass unsere Methode eine bessere Robustheit und Unwahrnehmbarkeit aufweist und unsere Methode recheneffizient ist als bisherige Ansätze in der Praxis. Daher kann unsere Methode leicht auf Geräte mit geringer Leistung angewendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10546-3_22 bf87e3b179fb14096de56e4703dee468;de;;;5.1.;;;Verbesserung der Leistungsmessung auf strategischer Ebene in Lagerprozessen In unserem Beitrag schlagen wir eine neue Methode zur strategischen Leistungsmessung auf Ebene eines Lagers in Ungarn vor. Die wachsende Herausforderung, in der Lagerhaltung erfolgreich zu bleiben, zwang das jeweilige Lager zur Einführung und Nutzung eines neuen Tools zur Überwachung und Prognose strategischer Level-Indikatoren. Unser vorgeschlagenes Tool verwendet Computational Intelligence, um eine Verbindung zwischen grundlegenden Daten auf operativer Ebene und wichtigen Indikatoren auf strategischer Ebene herzustellen. In diesem Artikel stellen wir die Idee hinter diesem Tool und den Prozess des Programmierens und Lernens mit Unternehmensdaten vor. Abschließend erfolgt eine Auswertung auf Basis der Ergebnisse des Programmlaufs.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29920-9_37 718e49d4c567189d3be7b525ab8ef85b;de;;;5.1.;;;ACO-LS-Algorithmus zur Lösung von No-Wait-Flow-Shop-Scheduling-Problemen In diesem Beitrag schlagen wir einen metaheuristischen Ansatz für das Problem der No-Wait-Flow-Shopplanung in Bezug auf das Makespan-Kriterium vor. In der Literatur ist dieses Problem vom NP-harten Typ bekannt. In der Literatur wurden mehrere Algorithmen vorgeschlagen, um dieses Problem zu lösen. Um dieses Scheduling-Problem zu lösen, schlagen wir eine Hybridisierung des Ameisenkolonie-Optimierungsalgorithmus (ACO) mit der lokalen Suche (LS) vor und nennen dies dann ACO-LS-Algorithmus. Diese lokale Suchtechnik trägt dazu bei, die Qualität der resultierenden Lösungen zu verbessern. Darüber hinaus wird der Mechanismus der Insert-Remove-Technik entwickelt, um die Suche nach einer Lösung zu unterstützen, die aus dem lokalen Optimum herauskommt. Der vorgeschlagene Algorithmus wird mit der 31 bekannten Flow-Shop-Benchmark-Instanz getestet. Die Rechenergebnisse basierend auf bekannten Benchmarks und statistischen Leistungsvergleichen werden ebenfalls berichtet. Es wird gezeigt, dass der vorgeschlagene ACO-LS-Algorithmus effektiver ist als der Hybrid-Differential-Evolution-(HDE)-Algorithmus [Qian B., et.al., Computer & Industrial Engineering, 2009].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46742-8_8 ee046bbf327e38d3b640e0243b11b7a5;de;;;5.1.;;;Zur Auswahl eines effizienten Serviceauswahlmechanismus in dynamischen Umgebungen Verbraucher verwenden Dienstauswahlmechanismen, um sich für einen Dienstanbieter zu entscheiden, mit dem sie interagieren möchten. Obwohl es verschiedene Mechanismen zur Auswahl von Diensten gibt, hat jeder Mechanismus unterschiedliche Stärken und Schwächen für unterschiedliche Einstellungen. In diesem Papier schlagen wir einen neuartigen Ansatz für Verbraucher vor, um zu lernen, wie sie den nützlichsten Serviceauswahlmechanismus unter verschiedenen Alternativen in dynamischen Umgebungen auswählen können. Bei diesem Ansatz beobachten Verbraucher kontinuierlich die Ergebnisse verschiedener Mechanismen zur Auswahl von Diensten. Mit ihren Beobachtungen und einem Algorithmus des Reinforcement Learning lernen die Verbraucher, den nützlichsten Serviceauswahlmechanismus in Bezug auf ihre Kompromisse zu wählen. Durch die Simulationen zeigen wir, dass nicht nur die Verbraucher den nützlichsten Serviceauswahlmechanismus mit dem vorgeschlagenen Ansatz wählen, sondern auch die Leistung des vorgeschlagenen Ansatzes nicht unter die durch die Kompromisse der Verbraucher definierte Untergrenze fällt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88713-3_8 e2b55e10ca35b285b924f9275751ebfa;de;;;5.1.;;;Erkennung von Notrufanzeigen in einer Tunnelumgebung Die Positionierung von Fahrzeugen ist für ITS wichtig. In einer Tunnelumgebung versagen die meisten Ortungslösungen, die auf GPS-Sensoren oder gewöhnlichen Kameras basieren. Zur Ortung schlagen wir eine Methode vor, um Notrufnummern in einer Tunnelumgebung mit Hilfe von Infrarotkameras zu erkennen. Das vorgeschlagene Detektionsverfahren verwendet sowohl Erscheinungsbild- als auch Bewegungsinformationen der Zielobjekte. Durch die Optimierung der Detektionspipeline arbeitet die Methode in Echtzeit und erzeugte in einem unserer Experimente 100 % Erkennungsrate und 0 % Fehlalarmrate.;-;-;-;https://link.springer.com/article/10.1007/s13177-013-0071-y 4daa92003a7bb63798e177a6c73f5ba1;de;;;5.1.;;;Effiziente Objektentfernung und bereichsfüllender Bildauffrischungsansatz Inpainting ist eine Technik, um beschädigte Teile in Bildern so wiederherzustellen, dass sie mit bloßem Auge nicht wahrnehmbar sind. Die Herausforderung besteht darin, die beschädigten Bildbereiche so zu füllen, dass sie erkennbarer und visuell plausibler aussehen und gleichzeitig die Einheit des Bildes wiederhergestellt wird. Inpainting hat verschiedene Anwendungen wie die Restaurierung beschädigter fotografischer Bilder, Gemälde und das Entfernen bestimmter Objekte aus Fotografien und Bildern. In diesem Beitrag wurde ein neuartiger Inpainting-Ansatz vorgestellt, der Objekte auf ununterscheidbare Weise aus Bildern entfernt. Obwohl der exemplarbasierte traditionelle Objektentfernungsansatz bestimmte Pluspunkte aufweist, wie die Fähigkeit, strukturelle, strukturelle Details eines Bildes zu bewahren und auch die Klarheit in Bildern zu bewahren, bewahrt er nicht die visuelle Qualität von eingemalten Bildern. Dieses Papier schlägt einen robusten „Image-Refurbishing“-Algorithmus sowohl für synthetische als auch für echte, nicht schattierte texturierte Bilder vor, bei dem die lokalen Informationen aus dem synthetisierten Patch verwendet werden, um den Zielbereich im Bild Pixel für Pixel zu rekonstruieren, wodurch sowohl strukturelle als auch strukturelle propagiert werden Informationen gleichzeitig mit einem einzigen effizienten Algorithmus. Darüber hinaus verwenden die bis heute verfügbaren modernen Inpainting-Verfahren das Airbrush-Maskierungsverfahren, jedoch wird bei dem vorgeschlagenen Ansatz die Maskierung automatisch durchgeführt, was zur Reduzierung der Inpaintingzeit beiträgt. Die unter Verwendung des vorgeschlagenen Ansatzes erhaltenen eingemalten Bilder sind visuell ansprechend und zeigen die Effizienz des vorgeschlagenen Verfahrens beim Entfernen gewünschter großer Objekte aus Fotografien und anderen Bildern. Die experimentellen Ergebnisse der vorgeschlagenen Methode sind im Vergleich zu den modernsten Ansätzen zur Objektentfernung günstig und zeigen die Überlegenheit der vorgeschlagenen Technik gegenüber anderen in Bezug auf Recheneffizienz, visuelle Qualität der eingemalten Bilder und Malzeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4080-0_9 114fc6c141dbca655d0ba257bd3ae0a3;de;;;5.1.;;;Quantenkonferenz Der Begriff der Quantenkonferenz wird in Analogie zum üblichen Begriff einer Konferenz eingeführt, der in der heutigen Welt häufig vorkommt. Die Quantenkonferenz ist definiert als eine sichere Mehrparteien-Kommunikationsaufgabe, die es jeder Partei ermöglicht, ihre Nachricht gleichzeitig an alle anderen Parteien auf sichere Weise unter Verwendung von Quantenressourcen zu kommunizieren. Zwei effiziente und sichere Protokolle für die Quantenkonferenz wurden vorgeschlagen. Die Sicherheit und Effizienz der vorgeschlagenen Protokolle wurden kritisch analysiert. Es wird gezeigt, dass die vorgeschlagenen Protokolle mit einer großen Anzahl von verschränkten Zuständen und Operatorengruppen realisiert werden können. Weiterhin wird gezeigt, dass die vorgeschlagenen Schemata leicht auf ein Protokoll für die Mehrparteien-Quantenschlüsselverteilung und einige früher vorgeschlagene Schemata der Quantenkonferenz reduziert werden können, bei denen der Begriff der Quantenkonferenz anders war.;-;-;-;https://link.springer.com/article/10.1007/s11128-018-1931-9 12332a127c62a70b9dc7346850b4f937;de;;;5.1.;;;Emotionales Multiagenten-Verstärkungslernen in sozialen Dilemmata Soziale Dilemmata haben umfangreiches Interesse an der Multiagentensystemforschung geweckt, um die Entstehung kooperativen Verhaltens unter egoistischen Agenten zu untersuchen. Ohne zusätzliche Mechanismen oder Annahmen führt die direkte Anwendung von Multiagenten-Verstärkungslernen in sozialen Dilemmata zu einer Konvergenz zum Nash-Gleichgewicht der gegenseitigen Defektion zwischen den Agenten. Dieser Beitrag untersucht die Bedeutung von Emotionen bei der Modifizierung des Lernverhaltens von Agenten, um Kooperation in sozialen Dilemmata zu erreichen. Zwei grundlegende Variablen, individuelles Wohlbefinden und soziale Gerechtigkeit, werden bei der Bewertung von Emotionen berücksichtigt, die als intrinsische Belohnung für das Lernen verwendet werden. Experimentelle Ergebnisse zeigen, dass unterschiedliche strukturelle Beziehungen zwischen den beiden Bewertungsvariablen zu unterschiedlichem Agentenverhalten führen können und unter bestimmten Umständen eine Kooperation zwischen den Agenten erreicht werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-44927-7_25 dfe265611eb4bd104f476ccc3e32ec51;de;;;5.1.;;;Der Power Average Operator für die Informationsfusion Der Leistungsdurchschnitt stellt einen Aggregationsoperator bereit, der es ermöglicht, dass sich ähnliche Argumentwerte im Aggregationsprozess gegenseitig unterstützen. Die Eigenschaften dieses Operators werden beschrieben. Wir sehen, dass dies einige der Eigenschaften des Modus mit dem Mittelwert vermischt. Einige Formulierungen für die im Leistungsmittelwert verwendete Stützfunktion werden beschrieben. Wir erweitern diese Möglichkeit der Ermächtigung auf eine breitere Klasse von Mittelwertoperatoren wie den OWA und den verallgemeinerten Mittelwert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14058-7_21 7b893881b1ca773146a506bf7fc1f36c;de;;;5.1.;;;Numerische Studie zu den Einflüssen eines Monsunwirbels auf Intensitätsänderungen des Taifuns Chan-Hom (2015) Taifun Chan-Hom (2015) schwächte sich im tropischen westlichen Nordpazifik (WNP) ab, als er mit einem Monsunwirbel interagierte, aber alle operativen Vorhersagen konnten diese Intensitätsänderung nicht vorhersagen. Eine kürzlich durchgeführte Beobachtungsstudie zeigte, dass es auf die Interaktion mit einem Monsunwirbel auf der 15-30-Tage-Zeitskala zurückzuführen ist. In dieser Studie werden die Ergebnisse zweier numerischer Experimente präsentiert, um den Einfluss des Monsunwirbels auf die Intensitätsänderungen des Taifuns Chan-Hom (2015) zu untersuchen. Das Kontrollexperiment erfasst die wichtigsten beobachteten Merkmale des Abschwächungsprozesses von Chan-Hom (2015) während einer scharfen Nordwende in der philippinischen See, einschließlich der Vergrößerung der Augengröße, der Entwicklung starker Konvektion auf der Ostseite des Monsunwirbels , und der entsprechende starke äußere Zufluss. Das Sensitivitätsexperiment legt nahe, dass Intensitätsänderungen von Chan-Hom (2015) hauptsächlich mit seiner Wechselwirkung mit dem Monsunwirbel verbunden waren. Als Chan-Hom (2015) im östlichen Teil des Monsunwirbels zunächst nach Westen zog, verstärkte der Monsunwirbel die Trägheitsstabilität zur Intensivierung des Taifuns. Durch die Verschmelzung mit dem Monsunwirbel verhinderte die Entwicklung der starken Konvektion auf der Ostseite des Monsunwirbels, dass Feuchtigkeit und Masse in den inneren Kern von Chan-Hom (2015) eindrangen, was zum Einsturz der Augenwand führte. Somit geschah die Abschwächung in der tiefen tropischen WNP-Region. Die numerischen Simulationen bestätigen die wichtigen Auswirkungen der Wechselwirkung zwischen tropischen Wirbelstürmen und Monsunwirbeln auf die Intensität tropischer Wirbelstürme.;-;-;-;https://link.springer.com/article/10.1007/s00376-017-7155-6 4c83e7dafa16102d929822d9f1ff6b14;de;;;5.1.;;;Video-Manipulationserkennung basierend auf gegenseitiger Information auf mehreren Skalen Die Manipulation von Videoframes ist mit dem wachsenden einfachen Zugang zu leistungsstarken Computerfähigkeiten alltäglich geworden. Eine der gebräuchlichsten Arten von Videoframe-Manipulationen ist die Copy-Paste-Manipulation, bei der eine Region aus einem Videoframe durch eine andere Region aus demselben Frame ersetzt wird. Um die Robustheit der passiven Erkennung von Videomanipulationen zu verbessern, schlagen wir einen inhaltsbasierten Algorithmus zur passiven Blinderkennung von Videoähnlichkeitsmanipulationen vor, der auf mehrskaligen normalisierten gegenseitigen Informationen basiert und die Erkennung von Videoframekopie, Frameeinfügung und Framelöschung implementieren kann. Die detaillierte Implementierung des vorgeschlagenen Algorithmus besteht aus einer Multiskalen-Inhaltsanalyse, einem Einzelskalen-Inhaltsähnlichkeitsmaß, einem Multiskalen-Inhaltsähnlichkeitsmaß und einer Manipulationspositionierung. Erstens erhalten wir die Skalen des visuellen Inhalts des Videoframes mithilfe der Gaußschen Pyramidentransformation. Zweitens definieren wir, um die Ähnlichkeit des einskaligen visuellen Inhalts zu messen, benachbarte normalisierte gegenseitige Informationen zweier Frames gemäß der Informationstheorie die mehrskaligen normalisierten gegenseitigen Informationsdeskriptoren, um das mehrskalige Ähnlichkeitsmaß des visuellen Inhalts benachbarter zweier Frames unter Verwendung einer Linearkombination zu erreichen. Schließlich verwenden wir den Erkennungsalgorithmus für lokale Ausreißer, um die Position der Videomanipulation zu erkennen. Experimentelle Ergebnisse zeigen, dass der vorgeschlagene Ansatz nicht nur die Manipulationsposition des Videorahmens beim Löschen, Kopieren und Einfügen effektiv erkennen kann, sondern auch die Manipulation unterschiedlicher und homologer Videocodierformate erkennen kann. Wir erhalten eine Merkmalserkennungsgenauigkeit von über 93;-;-;-;https://link.springer.com/article/10.1007/s11042-017-5083-1 f35009e67dc08ed367c7d34c4f42990e;de;;;5.1.;;;Ein dezentrales File-Sharing-Framework für sensible Daten Die Zugriffsverwaltung von Akten, die sensible personenbezogene Daten enthalten, wie elektronische Gesundheitsakten, Finanzhistorie von Einzelpersonen oder Rechtsdokumente, ist aufgrund der Vielfalt der beteiligten Einrichtungen wie Rechtsinstitute und des Datenschutzes der Akten eine Herausforderung. Das Vertrauen zwischen den Entitäten wird im Allgemeinen von einer zentralen Behörde wie einer Regierungsbehörde bereitgestellt. Blockchain-Technologie und verteilte Dateisysteme bieten die Möglichkeit, dieses Problem anzugehen, ohne sich auf eine zentrale Autorität verlassen zu müssen. Das Fehlen einer zentralen Autorität bietet eine bessere Sicherheit, da keine einzelne Instanz das gesamte System kontrollieren kann. Es bringt jedoch andere Probleme mit sich. Eines der Hauptprobleme ist die Verwaltung der Zugriffsrechte auf sensible Daten im System. In dieser Arbeit präsentieren wir ein Framework für die gemeinsame Nutzung kritischer Dokumente mithilfe der IPFS- und Blockchain-Technologie. Anstatt einen spezifischen Rahmen für eine einzelne Domäne wie elektronische Patientenakten oder die gemeinsame Nutzung von Rechtsdokumenten bereitzustellen, schlagen wir einen allgemeinen Rahmen vor, der auf die spezifischen Domänen zugeschnitten werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-27355-2_11 8f05ed6c37cf6f4ebff8ac5a4b58e889;de;;;5.1.;;;Jüngste Fortschritte beim deklarativen Networking Deklaratives Networking ist eine Programmiermethodik, die es Entwicklern ermöglicht, Netzwerkprotokolle und -dienste präzise zu spezifizieren und diese Spezifikationen direkt in ein Datenfluss-Framework für die Ausführung zu kompilieren. Dieses Papier beschreibt die jüngsten Fortschritte im deklarativen Networking und verfolgt seine Entwicklung von einem Rapid-Prototyping-Framework zu einer Plattform, die als wichtige Brücke dient, die formale Theorien für die Argumentation über die Protokollkorrektheit und tatsächliche Implementierungen verbindet. Der Artikel konzentriert sich insbesondere auf die Verwendung deklarativer Netzwerke zur Bewältigung von vier Hauptherausforderungen im Entwicklungszyklus verteilter Systeme: die Generierung sicherer Routing-Implementierungen, Debugging, Sicherheit und Datenschutz sowie die Optimierung verteilter Systeme.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27694-1_1 8835a59356a8bef3a7040b60bb5671cd;de;;;5.1.;;;Predictive Analytics in Business Intelligence Systemen durch Gaußsche Prozesse zur Regression Ein Business Intelligence (BI)-System verwendet Werkzeuge aus mehreren Wissensgebieten, um Informationen bereitzustellen, die den Entscheidungsprozess unterstützen. In der vorliegenden Arbeit zielen wir darauf ab, die prädiktive Phase des BI-Systems zu verbessern, das vom brasilianischen Bundesvermögensamt verwaltet wird. Der Vorschlag besteht darin, den Gaussian Process for Regression (GPR) zu verwenden, um die intrinsischen Merkmale der von diesem BI-System geführten Finanzzeitreihen zur Steuererhebung zu modellieren und seine Fehlermetriken zu verbessern. GPR gibt nativ eine vollständige statistische Beschreibung der geschätzten Variablen zurück, die als Konfidenzmaß behandelt und auch als Auslöser zur Klassifizierung vertrauenswürdiger und nicht vertrauenswürdiger Daten verwendet werden kann. In unserem Ansatz wird ein zweidimensionales Dataset-Reshape-Modell verwendet, um die mehrdimensionale Struktur der Eingabedaten zu berücksichtigen. Der resultierende Algorithmus mit GPR als Kern übertrifft in diesem Szenario klassische Vorhersageschemata wie Finanzindikatoren und künstliche neuronale Netze.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-52758-1_23 ff48be8abec2f661776f6892f0b15f28;de;;;5.1.;;;Agentenbasierte Plattform zur Überwachung des Druckstatus von Feuerlöschern in einem Gebäude Aktuelle europäische Vorschriften verlangen eine Mindestanzahl von Feuerlöschern in Gebäuden entsprechend der Gebäudefläche. Die Revision von Feuerlöschern ist ein manueller Prozess, bei dem die Techniker den Ort besuchen müssen, an dem sie sich befinden. Dies erfordert nicht nur Zeit und Kosten, sondern vor allem auch den Zeitraum zwischen dem nicht mehr optimalen Zustand des Feuerlöschers, der Überprüfung und dem Erkennen der Probleme. Daher ist es notwendig, ein System zu entwickeln, um die Informationen über den Druck des Feuerlöschers zu registrieren, die Informationen an eine zentrale Datenbank zu übertragen, wo sie gespeichert und auf einem Webserver angezeigt werden. Aus diesem Grund stellt dieser Artikel ein Multi-Agenten-System vor, mit dem Sie den Status von Feuerlöschern anhand des entwickelten Prototyps überwachen, ihren Status im Vergleich zu anderen Feuerlöschern bewerten, eine Historie von Status- und Umgebungsfaktoren sammeln und Benachrichtigungen senden können, wenn ein Parameter vorliegt nicht im Bereich der normalen Werte. Darüber hinaus verfügt das System über Lerntechniken, mit denen Sie Änderungen im Zustand des Feuerlöschers vorhersagen können, um den Vorfall zu beheben, bevor er auftritt, sowie das Verhalten der Benutzer bei einem Brand zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-51999-5_31 1b7371b104a23b097390d7e208b42e39;de;;;5.1.;;;Das neue Feld der Graphsignalverarbeitung für die Segmentierung von bewegten Objekten Moving Object Segmentation (MOS) ist ein wichtiges Thema in der Computer Vision. MOS wird bei dynamischen Hintergrund- und bewegten Kameravideos wie Schwenk-Neige-Zoom-Kameras (PTZ) zu einem herausfordernden Problem. Das MOS-Problem wurde mit unüberwachten und überwachten Lernstrategien gelöst. Kürzlich sind neue Ideen zur Lösung von MOS mit semi-überwachtem Lernen aufgetaucht, inspiriert von der Theorie der Graph Signal Processing (GSP). Diese neuen Algorithmen bestehen normalerweise aus mehreren Schritten, einschließlich: Segmentierung, Hintergrundinitialisierung, Merkmalsextraktion, Graphkonstruktion, Graphsignalabtastung und einem halbüberwachten Lernalgorithmus, der von der Rekonstruktion von Graphsignalen inspiriert ist. In dieser Arbeit fassen und erläutern wir die theoretischen Grundlagen sowie die technischen Details von MOS mit GPS. Wir schlagen auch zwei Architekturen für MOS vor, die semi-überwachtes Lernen und ein neues Bewertungsverfahren für GSP-basierte MOS-Algorithmen verwenden. GSP-basierte Algorithmen werden im Change Detection (CDNet2014)-Datensatz für MOS bewertet und übertreffen zahlreiche State-Of-The-Art (SOTA)-Methoden unter mehreren anspruchsvollen Bedingungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-81638-4_3 167a60d02347c9aa16166887f08e7160;de;;;5.1.;;;Unüberwachte Bandauswahl basierend auf gruppenbasierter spärlicher Darstellung Die Bandauswahl (BS) ist eines der wichtigen Themen in der hyperspektralen Bilddatenanalyse. Die Suche nach repräsentativen Bändern, die das Bild effektiv mit geringerer Interband-Redundanz darstellen können, ist ein langfristiges Problem. Kürzlich wurde die Sparse Repräsentation (SR) verwendet, um das BS-Problem zu lösen, das als SR-BS bezeichnet wird. Ziel war es, einen Satz repräsentativer Bänder zu finden, die die gesamten Bänder darstellen können, basierend auf der Minimierung des rekonstruierten Fehlers in SR. Diese SR-BS-Methoden leiden jedoch unter dem Problem einer höheren Komplexität im Optimierungsprozess, obwohl die Greedy-Strategie, wie der Orthogonal Matching Pursuit (OMP)-Algorithmus verwendet wird, um sie zu beschleunigen. Ein weiteres Problem besteht darin, dass die von SR-BS ausgewählten Bänder möglicherweise nicht wirklich komplementär sind, da die Homogenität benachbarter Spektralbänder nicht berücksichtigt wird. Um SR-BS effizienter zu machen, modellieren wir in diesem Papier das BS-Problem als Gruppensparse-Repräsentationsproblem (GSR), bei dem die Wörterbuchmatrix (dh alle Spektralbänder) basierend auf dem Spektralbereich in mehrere nicht überlappende Gruppen vorgeclustert werden Ähnlichkeit. Später verwenden wir den GOMP-Algorithmus (Group Orthogonal Matching Pursuit), um das Optimierungsproblem zu lösen. Wir haben den vorgeschlagenen Ansatz als GOMP-BS bezeichnet. Da GOMP-BS Bänder unter Gruppenstruktur auswählt, erreicht es nicht nur eine höhere Recheneffizienz, sondern macht die ausgewählten Bänder auch weniger redundant. Die Experimente zeigen, dass GOMP-BS eine höhere Klassifikationsleistung erreicht, wenn die Anzahl der ausgewählten Bänder gering ist und weniger Rechenzeit benötigt als OMP-basierte Verfahren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-54407-6_26 f3ad5beb9c708efbc8e954aa5e9855a7;de;;;5.1.;;;Experimentelle Arbeit Wir demonstrieren, wie der Digital Synaptic Neural Substrate (DSNS)-Ansatz im Bereich der Schachproblemkomposition (ein Bereich, der Kreativität erfordert) angewendet werden kann, indem wir Informationsfragmente aus klassischer Musik, renommierten Gemälden, Fotos, Schachpartien und anderen Schachproblemen verwenden. Aufgrund der schieren Menge, die vom Computer produziert wird, wird die Qualität der Kompositionen unter Verwendung eines bestehenden und experimentell verifizierten computergestützten Schachästhetikmodells bewertet, das in ein Computerprogramm namens Chesthetica integriert ist. Darüber hinaus kommt auch die menschliche Expertenberatung zum Einsatz. Die experimentellen Ergebnisse legen nahe, dass Kompositionen höherer Qualität erzeugt werden können, indem Informationsfragmente aus Fotografien von Menschen und Schachpartien zwischen schwachen Spielern kombiniert werden. Während die Gründe für diese und unsere anderen Ergebnisse vorerst offen bleiben, sind die Richtungen für weitere Arbeiten, vielleicht sogar in anderen Bereichen, klar. Die vorgestellten Versuchsaufbauten sollten sich auch für andere Forscher (nicht nur in der künstlichen Intelligenz) als nützlich erweisen, in der Hoffnung, die Ergebnisse zu replizieren oder zu erweitern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-28079-0_4 b8127733341447bf173b55362280da34;de;;;5.1.;;;Ein sicheres Kapselungsschema basierend auf einem Schlüsselwiederherstellungssystem Netzwerkbenutzer wenden eine Verschlüsselung an, um Daten sicher zu senden und zu empfangen. Da Geheimtext nur von rechtmäßigen Benutzern verschlüsselt und entschlüsselt werden kann, haben Dritte keine Möglichkeit, den Inhalt einer verschlüsselten Nachricht zu kennen. Zur Verschlüsselung wird jedoch ein geheimer Schlüssel verwendet, und wenn der geheime Schlüssel verloren geht oder beschädigt wird, besteht das Problem, dass der verschlüsselte Text nicht entschlüsselt werden kann. Darüber hinaus führt die böswillige Verwendung dieser Verschlüsselung zu Problemen. Wenn Verschlüsselung böswillig verwendet wird, kann die Regierung kriminelle Aktivitäten nicht verhindern. Aus diesem Grund benötigen Strafverfolgungsbehörden Unterstützung für das rechtmäßige Abfangen, um Kriminelle oder die Geheimtexte von Verdächtigen zu entschlüsseln. Wir brauchen ein Schlüsselwiederherstellungssystem, das diese geheimen Schlüssel sicher wiederherstellen oder Nachrichten zum rechtmäßigen Abfangen entschlüsseln kann. Es gibt zwei Arten von Schlüsselwiederherstellungssystemen, ein Schlüsselhinterlegungsverfahren und ein Schlüsselverkapselungsverfahren. Dieses Papier schlägt sichere Schemata vor, die Schlüsselkapselung verwenden. Das Schlüsselverkapselungsverfahren erfordert die Schlüsselinformationen, die im Chiffretext verwendet werden, und die Schlüsselinformationen können vom KRF (Key Recovery Field) erhalten werden. Der erhaltene Schlüssel kann verwendet werden, um den Chiffretext zu entschlüsseln. jedoch existieren verschiedene Sicherheitsbedrohungen im Schlüsselwiederherstellungssystem. Zum Beispiel Fälschung und Änderung von KRF, Single Point of Failure, Unfähigkeit, Schlüssel wiederherzustellen, und geheime Angriffe. Um diese Probleme zu lösen, schlagen wir sichere Verkapselungsschemata vor, die auf einem Schlüsselwiederherstellungssystem basieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72725-3_2 95e7333e8cc331986abe711e0f5aa07f;de;;;5.1.;;;EMOTIONCAPS - Gesichtsemotionserkennung mit Kapseln Die Gesichtsemotionserkennung spielt eine wichtige Rolle im Alltag. Um dies anzugehen, schlagen wir ein neuartiges Encoder/Decoder-Netzwerk vor, nämlich EmotionCaps, das die Gesichtsbilder mit Matrixkapseln modelliert, in denen hierarchische Posenbeziehungen zwischen Gesichtsteilen in interne Darstellungen eingebaut werden. Es wird eine optimale Anzahl von Kapseln und deren Dimension gewählt, da diese Hyperparameter im Netzwerk eine wichtige Rolle spielen, um die komplexe Gesichtspose-Beziehung zu erfassen. Außerdem wird die Stapelnormalisierungsschicht eingeführt, um die Konvergenz zu beschleunigen. Um die Wirksamkeit unseres Netzwerks zu zeigen, werden EmotionCaps für sieben Grundemotionen in unterschiedlichsten Kopforientierungen ausgewertet. Darüber hinaus ist unsere Methode in der Lage, Gesichtsbilder auch bei Vorhandensein von Rauschen und Unschärfe recht genau zu analysieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63820-7_45 73b0f0a05e196f7379723fc495b0daac;de;;;5.1.;;;MAMODE: Ein Routing-Schema mit gemischtem Adressmodus für drahtlose Sensornetzwerke Da in letzter Zeit der Einsatz von Sensornetzwerken verbreitet wurde, wurden eine Vielzahl von Diensten basierend auf Sensornetzwerken eingeführt. Nichtsdestotrotz wird die Verlängerung der Batterielebensdauer zu den wichtigsten Herausforderungen für den Einsatz von Sensornetzwerken in verschiedenen Bereichen. Probleme wie die Verringerung der Netzwerkbandbreite, das Auftreten von Kollisionen und die Leistungsverschlechterung aufgrund des Sendens von Nachrichten in großen Netzwerken sind zu den Hauptherausforderungen geworden. In diesem Papier haben wir einen neuen Routing-Algorithmus vorgestellt, der auf datenzentriertem Routing und adressbasierten Routing-Schemata basiert, das heißt, dass Abfragenachrichten an einen bestimmten Bereich unter Verwendung eines adressbasierten Routing-Schemas im Unicast-Schema zugestellt werden, und dann ist das Broadcast-Schema in einem bestimmten Bereich verwendet, indem zusätzliche Informationen von Nachbarknoten zum Rundsenden in die Nachrichtennutzlast eingefügt werden. Dieses Verfahren verhindert einen durch eine Rundsendenachricht verursachten starken Rundsendesturm und bietet auch eine Datenzuverlässigkeit auf einem vernünftigen Niveau, indem Adressinformationen in der Nachricht verwendet werden. Durch Computersimulation reduziert unser vorgeschlagenes Schema den Energieverbrauch, der durch das Senden von Nachrichten verursacht wird, und verbessert die angemessene Datenzuverlässigkeit in drahtlosen Sensornetzwerken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16444-6_46 3e96ed3f6d41ad01523a53097e002e5c;de;;;5.1.;;;Ein hybrider Ansatz für das Mining der Webnutzung Angesichts der großen Anzahl von Unternehmen, die das Internet zum Verteilen und Sammeln von Informationen nutzen, ist die Wissenssuche im Web zu einem wichtigen Forschungsgebiet geworden. Das Hauptthema dieses Artikels ist das Web Usage Mining, das sich auf die Wissenssuche durch Klicks im Web konzentriert Log für eine bestimmte Seite (der sogenannte Clickstream), insbesondere bei der Analyse von;-;-;-;https://link.springer.com/chapter/10.1007/3-540-46145-0_8 676dcaed6c3badc983d7c63af91037be;de;;;5.1.;;;Ein baumbasierter Ansatz zur Erstellung von Konzeptkarten in adaptiven Lernsystemen Eine Concept Map ist ein Diagramm, das vorgeschlagene Beziehungen zwischen Konzepten darstellt. Die Beziehungen sind durch einen Relevanzgrad gekennzeichnet, der den Grad der Korrelation zwischen zwei beliebigen Konzepten angibt. Concept Map ist ein grafisches Werkzeug zum Strukturieren und Organisieren von Wissen. In diesem Projekt wird auf der Grundlage eines realen Datensatzes eine Konzeptlandkarte erstellt, die zeigt, wie Fragen von Schülern (richtig oder falsch) beantwortet werden und wie stark die Konzepte in den Fragen sind. Es wurden mehrere Algorithmen vorgeschlagen, um automatisch Concept Maps zu erstellen. Alle diese Algorithmen verwenden jedoch den Apriori-Algorithmus, um die häufigen Itemsets zu entdecken und die Assoziationsregeln zu erhalten. Der Apriori-Algorithmus erfordert mehrere Datenbankscans und ist daher nicht effizient. Ein baumbasierter Ansatz (d. h. FP-Baum-Algorithmus), der in diesem Projekt verwendet wurde, um die Nachteile des Apriori-Algorithmus bei der Konstruktion von Konzeptkarten für adaptive Lernsysteme zu überwinden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2907-4_15 b360fefd7575cb0fb6c008cae9474ab8;de;;;5.1.;;;Kontextabhängige Segmentierung retinaler Blutgefäße mit Hidden-Markov-Modellen Hidden-Markov-Modelle (HMMs) haben sich bei der Segmentierung von MR-Bildern des Gehirns als wertvoll erwiesen. Hier wird eine Kombination aus HMMs-basierter Segmentierung und morphologischen und räumlichen Bildverarbeitungstechniken für die Segmentierung von retinalen Blutgefäßen in optischen Fundusbildern vorgeschlagen. Zuerst wird das Bild geglättet und das Ergebnis vom Grünkanalbild abgezogen, um die Hintergrundvariationen zu reduzieren. Nach einer einfachen Graustufendehnung, die den Kontrast des Bildes verbessern soll, werden die Merkmalsvektoren extrahiert. Der Merkmalsvektor eines Pixels wird aus der Graustufenintensität dieses Pixels und denen seiner Nachbarn in einer vordefinierten Nachbarschaft gebildet. Die Fähigkeit der HHMs, Wissen über die Übergänge der Elemente der Merkmalsvektoren aufzubauen, wird hier für die Klassifizierung der Vektoren ausgenutzt. Die Leistungsfähigkeit des Algorithmus wird auf der DRIVE-Datenbank getestet und ist mit denen der vorherigen Arbeiten vergleichbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89985-3_43 36edf128c9174bccd0b052c9cb945eaf;de;;;5.1.;;;IoT-basiertes automatisches Benachrichtigungssystem in der Fabrik mit Walkie-Talkies Dieses Papier schlägt eine Methode vor, um die Technologie des Internets der Dinge (IoT) und Walkie-Talkies zu verwenden, um Fabrikbetreiber über Informationen über das Fertigungssystem der Fabrik zu informieren. Das vorgeschlagene automatische Benachrichtigungssystem besteht aus Walkie-Talkies, Fertigungs-IT-Systemen und einem Gerät, das als automatisches Walkie-Talkie-Benachrichtigungsgerät auf Basis des IoT bezeichnet wird. Die Rolle des automatischen Walkie-Talkie-Benachrichtigungsgeräts besteht darin, als Gateway zu fungieren, das Informationen von den IT-Systemen der Fertigung automatisch als Sprache an Walkie-Talkies sendet. Es basiert auf Raspberry Pi 3 Hardware. Wir haben ein einfaches automatisches Benachrichtigungssystem entwickelt, das keine zusätzlichen Infrastrukturkosten erfordert, indem wir Walkie-Talkies verwenden, die an Produktionsstandorten weit verbreitet sind. Dadurch ist es möglich, einfach und effizient Informationen über die Maschinen in einer Fabrik zu vermitteln oder andere Anweisungen an Bediener zu geben.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9341-9_81 288463398d0f988d8c85eabeddd796eb;de;;;5.1.;;;Kinematischer Positionierungsalgorithmus basierend auf dem Gray-Vorhersagemodell für die urbane Navigation Der Mangel an sichtbaren Satelliten in der städtischen Umgebung wird sich nachteilig auf die Positionsbestimmung und Navigation auswirken. Die kinematische Positionierung wird eine erniedrigende Genauigkeit haben und selbst unter ernsthaften Bedingungen nicht die Konsequenzen der Positionierung haben. Angesichts des Mangels an beobachtbaren Satelliten verwendet diese Arbeit, basierend auf dem Grauvorhersagemodell, die Pseudoentfernungs-Beobachtungswerte der letzten Epochen bzw. den Schätzvektor der Zustandsparameter, um die Pseudoentfernungs-Beobachtungswerte und Zustandsparameter von . vorherzusagen die aktuelle Epoche. Die experimentellen Ergebnisse zeigen, dass es möglich ist, das Grauvorhersagemodell zu verwenden, um den Zustandswert als Navigations- und Positionierungsergebnis oder Pseudoentfernungsbeobachtungswert für die Positionierung in den Epochen mit unzureichend beobachtbaren Satelliten vorherzusagen. Das tatsächliche Berechnungsbeispiel zeigt, dass die Genauigkeit der vorhergesagten Beobachtungswerte bei Abwesenheit verfügbarer Satelliten im Feld um 61,9%, 53,6% bzw. 18,9% in ENU-Richtung verbessert wird und die vorhergesagten Zustandsparameter um 38,1%, 18,1 . verbessert werden % bzw. 11,3 % in Richtung ENU. Offensichtlich kann der in diesem Beitrag vorgeschlagene Algorithmus das Problem effektiv lösen, dass die kinematische Positionierungsgenauigkeit reduziert oder sogar nicht lokalisiert werden kann, wenn das Signal in einer städtischen Umgebung kurzzeitig blockiert wird, und die Genauigkeit und Zuverlässigkeit der kinematischen Positionierung verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3707-3_28 34946dde8c2309f28c793893e892d464;de;;;5.1.;;;Raum-Zeit-Baum-Ensemble für Aktionserkennung und Lokalisierung Menschliche Handlungen sind von Natur aus strukturierte Muster von Körperbewegungen. Wir untersuchen Ensembles hierarchischer räumlich-zeitlicher Bäume, die direkt aus Trainingsdaten entdeckt wurden, um diese Strukturen für die Handlungserkennung und räumliche Lokalisierung zu modellieren. Das Auffinden häufiger und diskriminativer Baumstrukturen ist aufgrund des exponentiellen Suchraums eine Herausforderung, insbesondere wenn man partielles Matching zulässt. Wir gehen dies an, indem wir zunächst ein prägnantes Aktionswort-Vokabular über diskriminatives Clustering der hierarchischen Raum-Zeit-Segmente aufbauen, das eine zweistufige Videodarstellung ist, die sowohl statische als auch nicht-statisch relevante Raum-Zeit-Segmente des Videos erfasst. Unter Verwendung dieses Vokabulars verwenden wir dann Tree-Mining mit anschließendem Tree-Clustering und -Ranking, um einen kompakten Satz diskriminativer Baummuster auszuwählen. Unsere Experimente zeigen, dass diese Baummuster allein oder in Kombination mit kürzeren Mustern (Aktionswörter und paarweise Muster) vielversprechende Ergebnisse bei drei anspruchsvollen Datensätzen erzielen: UCF Sports, HighFive und Hollywood3D. Darüber hinaus führen wir eine datensatzübergreifende Validierung durch, indem wir auf HighFive gelernte Bäume verwenden, um dieselben Aktionen in Hollywood3D zu erkennen, und mithilfe von Bäumen, die auf UCF-Sports gelernt wurden, um ähnliche Aktionen in JHMDB zu erkennen und zu lokalisieren. Die Ergebnisse zeigen das Potenzial für eine datensatzübergreifende Generalisierung der Bäume, die unser Ansatz entdeckt.;-;-;-;https://link.springer.com/article/10.1007/s11263-016-0980-8 62a8d4d82a50ab30a788771c9a52f038;de;;;5.1.;;;Ein neues generisches Framework für argumentationsbasiertes Verhandeln mit fallbasierter Argumentation Der zunehmende Einsatz von Informationstechnologie bei der automatisierten Verhandlung führt dazu, dass dringend Alternativen zu herkömmlichen Protokollen gefunden werden müssen. Bei der Entwicklung neuartiger Protokolle sollten neue Tools aus Bereichen wie der Künstlichen Intelligenz (KI) berücksichtigt werden, um den Verhandlungsprozess einfacher, schneller und realistischer zu gestalten. Dieses Papier schlägt einen neuen Rahmen vor, der sowohl auf Argumentation als auch auf Case-Based Reasoning (CBR) basiert, um den Verhandlungsprozess zu einer Einigung zu führen. Dieses Papier schlägt ein neues generisches domänenunabhängiges Framework vor, das die Grenzen domänenabhängiger Frameworks überwindet. Der vorgeschlagene Rahmen wurde im Tourismusbereich mit realen Daten getestet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-91476-3_52 2138dc2ee76d5afedac40a50b3d68cdd;de;;;5.1.;;;Die Rolle der Merkmalsauswahl beim Text Mining bei der Entdeckung fehlender klinischer Annotationen – Fallstudie Der von den Ärzten verwendete Wortschatz zur Beschreibung der Ergebnisse medizinischer Verfahren ändert sich mit den neuen Standards. Textdaten, die für den Mediziner sofort verständlich sind, lassen sich in Massenanalysen nur schwer verwenden. Extraktion von fallrelevanten Daten, z.B. Bethesda-Klasse bedeutet, die Herausforderung anzunehmen, den Freiformtext und alle damit verbundenen grammatikalischen Formen zu normalisieren. Dies ist besonders in der polnischen Sprache schwierig, wo Wörter ihre Form entsprechend ihrer Funktion im Satz erheblich ändern. Wir fanden gängige Black-Box-Methoden für das Text-Mining für diesen Zweck ungenau. Hier haben wir eine worthäufigkeitsbasierte Methode zur Annotation von Textdaten für die Bethesda-Klassenextraktion beschrieben. Wir haben sie mit einem Algorithmus verglichen, der auf einem Entscheidungsbaum C4.5 basiert. Wir haben gezeigt, wie wichtig die Wahl der Methode und des Funktionsumfangs ist, um widersprüchliche Klassifikationen zu vermeiden. Vorgeschlagene Algorithmen erlaubten es, die Beschränkungen der Regelbasis zu umgehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-19093-4_19 663c5b83e21f363ede303052d7525cf4;de;;;5.1.;;;Quantenschlüssel-Vereinbarung auf Basis von Zufallsgenerierung für sicheres Routing im mobilen Ad-hoc-Netzwerk Die auf Zufallsgenerierung basierende Quantum Key Agreement (RGQKA)-Technik weist die Route Discovery-Phase und die Übertragung von Datenpaketen auf. Der Routenerkennungsprozess findet den kürzesten Routenpfad vom Quellknoten zum Zielknoten durch die Steuernachrichtenverteilung. Nachdem der Routenpfad gefunden wurde, wird die RGQKA-Technik ausgeführt, um die Datenpakete auf sichere Weise zu übertragen. In der Phase der Quantenschlüsselvereinbarung werden die Quantenschlüssel für den Quellknoten und den Zielknoten zufällig generiert. Dann wird ein Datenpaket in Form von binären Bits verschlüsselt. Dann werden binäre Bits durch zufällig ausgewählte Basen in Qubits umgewandelt und an den Zielknoten gesendet. Empfängt Qubits, entschlüsselt es die Qubits, um die ursprünglichen Datenpaketinformationen mit demselben Quantenschlüssel zu erhalten. Die Simulation der RGQKA-Technik und existierender Verfahren weist Parameter wie Paketlieferverhältnis, Routing-Overhead, Paketverlust und Durchsatz in Bezug auf eine Anzahl von Datenpaketen auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9282-5_5 8684bde57dc3a9fcb245cb9f76815bdf;de;;;5.1.;;;Leistungsanalyse von neuartigem energiebewusstem Routing in drahtlosen Sensornetzwerken Sensoren werden in großer Zahl in unbeaufsichtigten Regionen eingesetzt, z. B. in Wäldern, Meeren und auch in abgelegenen Gebieten. Die Motivation dahinter ist, die menschliche Unterstützung zu reduzieren und die Lebensdauer des Netzwerks zu verbessern. Da diese Sensorknoten batteriebedingt sind und eine übermäßige Nutzung eines beliebigen Knotens eine frühzeitige Erschöpfung des Restenergiepegels dieses Knotens im Netzwerk verursacht, kann der Knoten früh sterben. In diesem Artikel wird daher unter Verwendung des GEAR-Protokolls (Geographical and Energy Aware Routing) betont, dass die Verbindung zwischen den Knoten durch eine intelligente Nachbarauswahl zur Weiterleitung des Pakets an die Senke energieeffizient sein sollte. GEAR ist ein System zur rekursiven Datenverbreitung innerhalb der Region. Das gruppenbasierte Bereitstellungsmodell und die Anwendung von energiebewusstem Routing machen GEAR effektiver als das vorherige.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2854-5_44 cb9b682cb3bfac807ed53c9a3c2613c3;de;;;5.1.;;;Effizientes Authentifizierungsprotokoll für heterogene drahtlose Netzwerke Aus der Literatur der Vergangenheit geht hervor, dass bei jedem Authentifizierungsprotokoll ein Kompromiss zwischen Effizienz und Sicherheit besteht. Dieses Papier zielt darauf ab, dieses Problem im Bereich heterogener drahtloser Netzwerke zu lösen, indem ein effizientes Authentifizierungsprotokoll vorgeschlagen wird, das in zwei Modi arbeitet, nämlich vollständige Authentifizierung und schnelle erneute Authentifizierung. Dieses Papier schlägt ein Protokoll vor, das die Verzögerung bei der Authentifizierung abmildert, indem die Anzahl der Nachrichtenaustausche im vollständigen Authentifizierungsverfahren und die Anzahl der sich authentifizierenden Parteien im schnellen erneuten Authentifizierungsverfahren verringert werden. Dieses Papier verwendete auch Hash-Chain-Technik, um die Sicherheit und Aktualität der Informationen zu gewährleisten. AVISPA (Automated Validation of Internet Security Protocols and Applications) wurde verwendet, um die Sicherheit des Protokolls formal zu analysieren. Einige andere bestehende Authentifizierungsprotokolle wurden ebenfalls analysiert und mit unserem vorgeschlagenen Protokoll verglichen. Unsere Analyse hat gezeigt, dass das vorgeschlagene Authentifizierungsprotokoll effizient ist und gleichzeitig die Sicherheit und verbesserte Leistung der heterogenen drahtlosen Netzwerke garantiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9671-1_11 9dabf510c9dd327b73620ffd7f0a5542;de;;;5.1.;;;Topologie-Steuerungsmethode mit adaptivem redundantem Übertragungsbereich in einem mobilen drahtlosen Sensornetzwerk In diesem Papier simulieren wir den Effekt von RTR (Redundant Transmission Range), der verwendet wird, um die Netzwerkkonnektivität in mobilen drahtlosen Netzwerken wie Ad-hoc- oder Sensornetzwerken aufrechtzuerhalten. Das Simulationsergebnis zeigt, dass das RTR-Schema die Netzwerkkonnektivitätszeit stark verlängert. Basierend auf dem Simulationsergebnis schlagen wir einen A-RTR (Adaptive-RTR) Algorithmus vor. A-RTR verwendet die variable RTR als Bewegungsgeschwindigkeit des Knotens und die Geschwindigkeit der Nachbarn. Dieser Algorithmus kann für beliebige Topologiesteueralgorithmen verwendet werden und die Netzwerkkonnektivitätszeit in einer Mobilitätsumgebung verlängern. Die Simulationsergebnisse zeigen eine gute Leistung nicht nur der Netzwerkkonnektivität, sondern auch des Energieverbrauchs des Knotens.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17587-9_12 63fa263ecfd2d46b56a3ca5107a4a5ca;de;;;5.1.;;;„Was“ und „Wo“ informationsbasiertes Aufmerksamkeitsleitmodell Das visuelle System kann als aus zwei Pfaden bestehend definiert werden. Die klassische Definition bezeichnete einen „Was“-Pfad zur Verarbeitung von Objektinformationen und einen „Wo“-Pfad zur Verarbeitung räumlicher Informationen. In diesem Beitrag schlagen wir ein neuartiges Modell der Aufmerksamkeitslenkung vor, das auf „Was“- und „Wo“-Informationen basiert. Kontextzentrierte „Wo“-Informationen werden verwendet, um die Aufmerksamkeit von oben nach unten zu steuern und die Aufmerksamkeit von unten nach oben zu lenken, die von „Was“-Informationen gesteuert wird. Das Verfahren der Top-Down-Aufmerksamkeit lässt sich in zwei Phasen unterteilen: Prä-Aufmerksamkeit und Fokus-Aufmerksamkeit. In der Phase der Voraufmerksamkeit können „Wo“-Informationen verwendet werden, um Vorkenntnisse über das Vorhandensein oder Fehlen von Objekten bereitzustellen, die darüber entscheiden, ob der Suchoperation gefolgt wird. Durch Integrieren des Ergebnisses der Fokusaufmerksamkeit mit „Was“-Informationen wird die Aufmerksamkeit auf den Bereich gelenkt, der das Objekt am wahrscheinlichsten enthält, und eine Reihe von hervorstechenden Bereichen wird erfasst. Die Ergebnisse des Experiments mit natürlichen Bildern belegen seine Wirksamkeit.;-;-;-;https://link.springer.com/chapter/10.1007/11881070_39 554122ae3df3ebb1c3875b7dae577436;de;;;5.1.;;;Forschung zur dynamischen Aktualisierung der Landnutzungsdatenbank durch Fernerkundungsüberwachung Die durch dynamische Fernerkundung überwachte Variation der Landnutzung kann durch den Grauwert der entsprechenden intertemporalen Bildpixeldifferenz berechnet werden. Das Bildsubtraktionsverfahren kann die Fernerkundungsbilder verbessern, die die Variationsdaten hervorheben und dann die Variation dynamisch überwachen. Dieses Papier wählt den Bezirk Xinrong, Datong als Beispiel, indem es die Bildinterpolationsmethode verwendet, um zwei Fernerkundungsbilder für die Interpolationsanalyse zu verarbeiten und dann Landänderungsinformationen zu extrahieren. Nach der Überprüfung der Feldmessung und dem Entfernen von Pseudo-Change-Pixeln wird die Landnutzungsdatenbank aktualisiert, wodurch der Zweck der Verwendung der Fernerkundungsmethode zur dynamischen Überwachung der Landnutzungsdatenbank erreicht wird. Die experimentellen Ergebnisse zeigen, dass die Bildinterpolationsmethode zur Extraktion der Variation von intertemporalen Fernerkundungsbildern der Landnutzung schnell, genau und praktisch ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24282-3_55 f0a7c37be5abf7c9b12823a3fb2058d4;de;;;5.1.;;;Ein hybrider Soft-Computing-Ansatz zur Verknüpfung der Fahrgeschwindigkeitsschätzung Aufgrund der vielen Anwendungsmöglichkeiten im städtischen Verkehrsmanagement wächst der Bereich der dynamischen Fahrzeugführung und -planung heute stark. In jüngster Zeit gab es viele Versuche, die Fahrzeiten der Fahrzeuge über verstopfte Verbindungen abzuschätzen. Im Gegensatz zu den letzten zehn Jahren, in denen Verkehrsinformationen hauptsächlich von ortsfesten Geräten mit hohen Wartungskosten erfasst wurden, hat das Aufkommen von GPS dazu geführt, dass Daten nach und nach mithilfe von Sondenfahrzeugen erfasst werden, die mit GPS-basierten Kommunikationsmodulen ausgestattet sind. Typischerweise müssen traditionelle Methoden zur Analyse der mit ortsfesten Geräten gesammelten Daten erweitert werden. Das Ziel dieser Forschung ist es, eine Hybridmethode zur Schätzung der optimalen Verbindungsgeschwindigkeit unter Verwendung der von Probefahrzeugen erfassten Daten vorzuschlagen, wobei der Fuzzy-C-Means-Algorithmus (FCM) mit einer multiplen Regressionsanalyse kombiniert wird. Das Papier beschreibt, wie die Sondendaten analysiert und automatisch in drei Gruppen von Geschwindigkeitsmustern klassifiziert werden und die Verbindungsgeschwindigkeit aus diesen Clustern unter Verwendung von multipler Regression vorhergesagt wird. In Leistungstests ist die vorgeschlagene Methode robust und kann genaue Fahrzeitschätzungen liefern.;-;-;-;https://link.springer.com/chapter/10.1007/11881599_98 12219be54cde209e861151312b7cde92;de;;;5.1.;;;Verbesserung der Leistung einer verteilten mobilen Computerumgebung durch Topologiekonstruktion In dieser Forschung werden Topologie-Konstruktionsmethoden für eine verteilte mobile Computerumgebung entwickelt, in der die Geräte heterogen und mobil sind und dynamische Spannungsskalierung und variable Sendeleistungssteuerungsmethoden verwenden, um die Gesamtsystemenergie effizient zu nutzen. Das Endziel der Forschung ist es, so viele Aufgaben wie möglich mit dem verteilten mobilen Computersystem zu erledigen. Die Aufgaben in diesem System sind heterogen und müssen fristgerecht erledigt werden, um einen Wert zu haben. Die Aufgaben müssen intelligent auf die Geräte verteilt werden, um die Systemressourcen effizient zu nutzen. Der Grund für die neuen Topologiemethoden war, dass mit zunehmender Anzahl von Geräten für die Beispielumgebung die Anzahl der Kommunikationen aufgrund von Kommunikationskollisionen abnahm. Wir schlagen zwei Hauptideen für Topologiealgorithmen vor, um die Leistung zu verbessern, und verglichen sie mit der vollständig verbundenen Umgebung und derjenigen, die die MSMR-Methode verwendet, die gegenüber früheren eine verbesserte Leistung zeigte. Verschiedene Methoden erwiesen sich in verschiedenen Szenarien für die verteilte mobile Computerumgebung als besser als MSMR.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33065-0_3 30d3256a5873a4b0a37bd8d09fd53adf;de;;;5.1.;;;Tagging Assistant für wissenschaftliche Artikel Mit dem Aufkommen des World Wide Web (WWW) wird die Welt mit riesigen Datenmengen überladen. Diese riesigen Daten enthalten potenzielle Informationen, die nach ihrer Extraktion zur Verbesserung der Menschheit verwendet werden können. Informationen aus diesen Daten können durch manuelle und automatische Analyse extrahiert werden. Die manuelle Analyse ist nicht skalierbar und effizient, wohingegen die automatische Analyse Rechenmechanismen umfasst, die bei der automatischen Informationsextraktion über riesige Datenmengen helfen. Das WWW hat auch das allgemeine Wachstum der wissenschaftlichen Literatur beeinflusst, was den Prozess der Literaturrecherche für Forscher ziemlich mühsam, zeitaufwendig und umständlich macht. Daher besteht ein dringendes Bedürfnis, potenzielle Informationen aus einer riesigen Menge wissenschaftlicher Artikel automatisch zu extrahieren, um den Prozess der Literaturrecherche zu automatisieren. Ein solcher Dienst würde das Trainieren von Modellen für maschinelles Lernen erfordern. Während ein solches Modell wiederum einen Trainingsdatensatz erfordert. Um einen Qualitätsdatensatz zu erstellen, müssen häufig Anmerkungswerkzeuge verwendet werden. Es gibt eine Vielzahl von Annotationswerkzeugen, aber keines ist darauf zugeschnitten, das Annotieren von wissenschaftlichen Artikeln zu unterstützen. Daher wird in dieser Studie ein webbasiertes Annotationstool für wissenschaftliche Artikel in der Sprache Python entwickelt. Der entwickelte Assistent verwendet modernste Modelle des maschinellen Lernens, um Metadaten aus wissenschaftlichen Artikeln zu extrahieren und den Text von Artikeln zu verarbeiten. Es bietet verschiedene Filter, um Annotatoren zu unterstützen. Ein Artikel ist in verschiedene Textkonstrukte unterteilt, darunter Abschnitte, Absätze, Sätze, Token und Lemmata. Diese Aufteilung kann Annotatoren helfen, indem sie ihren Informationsbedarf auf effiziente Weise anspricht. Daher kann dieses Annotation-Tool die Zeit bei der Vorbereitung von Datensätzen für wissenschaftliche Volltextartikel erheblich reduzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6052-7_30 739a512451c2c363b544d975595988d4;de;;;5.1.;;;EnPower: Haptische Schnittstellen für taubblinde Menschen zur Interaktion, Kommunikation und Unterhaltung Für taubblinde Menschen verhindert das Fehlen von visuellen und auditiven Kommunikationskanälen sinnvolle Interaktionen mit den Menschen und der Welt um sie herum, was dazu führt, dass viele sowohl unter psychischen als auch sozialen Problemen leiden. Unter den verbleibenden sensorischen Kanälen (z. B. Geschmack, Haptik und Geruch) von Taubblinden sind haptische Reize ein wirksames Medium, das digital eingesetzt werden kann, um Interaktionen mit der Außenwelt zu ermöglichen. In diesem Beitrag wird daher die Entwicklung einer digitalen Kommunikationsplattform für taubblinde Menschen mit dem Namen „EnPower (Enable and Empower Individuals with auditory and visual Beeinträchtigungen)“ diskutiert. EnPower ermöglicht die bidirektionale Kommunikation zwischen taubblinden und nicht beeinträchtigten Personen, indem sensorische Substitutionstechniken verwendet werden, um Informationen über zugängliche haptische Reize zu präsentieren. Die EnPower-Plattform besteht aus einer physischen Schnittstelle (in Wearable- und Desktop-Versionen), die mit einer drahtlosen mobilen Anwendung gekoppelt ist. Ähnlich wie bei Konzepten wie der Fingerbraille können die Hilfsmittel Textinformationen über taktile Reize an den Taubblinden übermitteln und umgekehrt. Darüber hinaus kann das System Sprache und visuelle Eingaben in taktile Reize umwandeln und bietet den Benutzern einen besseren Zugang zu digitalen Informationsplattformen. Mit den beiden Geräten wurde eine Studie zur Reizwahrnehmung sowie ein Feldversuch durchgeführt, um die Wirksamkeit unseres Ansatzes (Informationen über taktile Empfindungen an den Fingerspitzen) zu evaluieren. Die Ergebnisse legen nicht nur nahe, dass die Teilnehmer die über taktile Empfindungen präsentierten Informationen verstehen konnten, sondern zeigen auch mehrere wichtige Wege für zukünftige Forschungen auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63089-8_49 48c2fa4dea0cf2a0794f4910998d62ab;de;;;5.1.;;;Extraktion von Fehlermerkmalen von Wälzlagern von Windkraftanlagen basierend auf PSO-VMD Betrachtet man das Wälzlager einer Windkraftanlage als Forschungsobjekt und zielt auf das Problem ab, dass sein Fehlermerkmal vor dem Hintergrund von starkem Lärm schwer zu extrahieren ist. Es wurde eine Methode vorgeschlagen, die auf Variationsmoduszerlegung und Partikelschwarmoptimierung basiert. Zunächst wurde mit dem PSO nach den optimalen Parametern des VMD-Algorithmus gesucht, das Wälzlagerfehlersignal der Windenergieanlage wurde entsprechend den Suchergebnissen zerlegt. Das Fehlersignal kann adaptiv in eine Reihe von Eigenmodusfunktionen (IMFs) zerlegt werden. Die beste Signalkomponente wurde ausgewählt und durch den Hüllkurvendemodulationsalgorithmus verarbeitet, der Lagerfehlertyp wurde durch Analyse des Hüllkurvenspektrums des Signals beurteilt. Die experimentellen Ergebnisse zeigen, dass der PSO-VMD-Algorithmus die Geräuschbelastung effektiv eliminieren und das Wälzlagerfehlermerkmal der Windkraftanlage extrahieren kann und die Genauigkeit 99,57% erreichen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9050-1_72 b4e9622be2e2394cffa02c2000bc0cb2;de;;;5.1.;;;Leistung grundlegender spektraler Deskriptoren und des MRMR-Algorithmus zur Detektion akustischer Ereignisse Dieses Papier konzentriert sich auf die Erkennung von anormalen Situationen anhand von Toninformationen. Als Hauptmerkmalsextraktionsalgorithmus wurden grundlegende spektrale Low-Level-Deskriptoren verwendet, die im MPEG-7-Standard definiert sind. Es wurden verschiedene Einstellungen für spektrale Deskriptoren wie Audio Spectrum Envelope, Audio Spectrum Flatness, Audio Spectrum Centroid und Audio Spectrum Spread verwendet und viele Experimente durchgeführt, um die Grenzen ihrer Verwendung zum Zweck der akustischen Ereigniserkennung in städtischen Umgebungen herauszufinden. Um die Erkennungsrate zu verbessern, haben wir auch den Merkmalsauswahlalgorithmus namens Minimum Redundancy Maximum Relevance angewendet. Der vorgeschlagene Rahmen zur Erkennung potenziell gefährlicher akustischer Ereignisse wie Glasbruch und Schüsse, basierend auf der Extraktion grundlegender spektraler Deskriptoren durch bekannte Klassifikation auf Basis von Hidden-Markov-Modellen, wird hier vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30721-8_34 7d4a7deb9679c71fbec57a8438bc4e4e;de;;;5.1.;;;Soft Convolutional Codes Decodieralgorithmus für verkettete Codes in der Kommunikation mit sichtbarem Licht In diesem Artikel schlagen wir einen neuen Decodierungsalgorithmus für weiche Faltungscodes und verkettete Codes in Kommunikationssystemen mit sichtbarem Licht (VLC) vor. RLL-Codes werden verwendet, um das Dimmen in VLC zu steuern, da jedes Codewort die gleichen Einsen und Nullen hat, harte RLL-Dekodierung und weiche RLL-Dekodierung sind jetzt verfügbar. Harte Faltungsdekodierung kann leicht mit RLL-Dekodierung basierend auf dem Viterbi-Algorithmus kombiniert werden, jedoch ist eine effiziente Faltungsdekodierung mit weicher Ausgabe in Kombination mit RLL-Codes eine Überlegung wert. In unserem Algorithmus werden die Faltungscodes zu Reed-Solomon (RS)-Codes und RLL-Codes konjugiert, die weiche Informationen aus dem Kanal nutzen, um einen Codierungsgewinn bereitzustellen. Ein modifizierter Bahl-, Cocke-, Jelinek- und Raviv-Algorithmus wird vorgeschlagen, um die Faltungsdecodierung mit dem weichen RLL-Decoder zu verbessern, um eine weiche Eingabe für den RS-Decoder zu erzeugen. Simulationsergebnisse zeigen, dass die Bitfehlerratenleistung unseres vorgeschlagenen Algorithmus besser ist als die des referenzierten Algorithmus.;-;-;-;https://link.springer.com/article/10.1007/s11277-017-4842-7 145ddefef5461065c1857e4ce93b1907;de;;;5.1.;;;Zum Einsatz neuroevolutiver Methoden als unterstützende Instrumente zur Diagnose von Appendizitis und Tuberkulose Künstliche neuronale Netze werden in Diagnoseunterstützungssystemen verwendet, um verschiedene Arten von Krankheiten zu erkennen. Da das Design von mehrschichtigem Perzeptron eine offene Frage ist, zeigt die vorliegende Arbeit einen Vergleich zwischen einem traditionellen empirischen Weg und einer Neuroevolutionsmethode, um die beste Architektur zur Lösung des Problems der Krankheitserkennung zu finden. Zur Prüfung beider Vorschläge wurden Tuberkulose- und Appendizitis-Datenbanken herangezogen. Die Ergebnisse zeigen, dass die Neuroevolution eine gute Alternative für das Tuberkulose-Problem darstellt, jedoch bei der Appendizitis-Problematik Leistungsdefizite bestehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00350-0_15 2136774544d22e38328c5baabd172f7f;de;;;5.1.;;;Tiefer Kontext zur Identifizierung von irreführenden Bewertungen mit Wortvektoren Dieses Papier schlägt einen tiefen Kontext durch Wortvektoren vor, um eine betrügerische Überprüfungsidentifikation zu ermöglichen. Die Grundidee ist, dass es unterschiedliche Kontexte der von ihnen verwendeten Wörter geben sollte, da irreführende Rezensionen und wahrheitsgetreue Rezensionen von Autoren ohne bzw. mit echter Erfahrung verfasst werden. Im Gegensatz zu früheren Arbeiten, bei denen die gesamte Textsammlung zum Erlernen der Wortvektoren verwendet wurde, produzieren wir zwei numerische Vektoren für jedes Wort, indem wir Wortkontexte getrennt in irreführende und wahrheitsgetreue Rezensionen einbetten. Insbesondere schlagen wir eine Repräsentationsmethode namens DCWord (Deep Context Representation by Word vectors) vor, um durchschnittliche Wortvektoren zu verwenden, die aus irreführenden bzw. Dann untersuchen wir drei Klassifikatoren wie Support Vector Machine (SVM), Simple Logistic Regression (LR) und Backpropagation Neural Network (BPNN), um die betrügerischen Bewertungen zu identifizieren. Experimentelle Ergebnisse des Spam-Datensatzes zeigen, dass SVM und LR durch die Verwendung der DCWord-Darstellung eine vergleichbare Leistung erbracht haben und BPNN bei der betrügerischen Überprüfungsidentifikation übertreffen. Das Ergebnis dieser Studie bietet potenzielle Auswirkungen auf die Online-Business-Intelligence bei der Identifizierung irreführender Bewertungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-2857-1_19 5fd5ec5d7491345892f17298d210640c;de;;;5.1.;;;Mutual Information and Perplexity Based Clustering von Dialoginformationen zur dynamischen Anpassung von Sprachmodellen Wir stellen zwei Ansätze vor, um dialogbasierte Informationen zu bündeln, die durch das Sprachverstehensmodul und den Dialogmanager eines gesprochenen Dialogsystems gewonnen werden. Der Zweck besteht darin, ein Sprachmodell zu schätzen, das sich auf jeden Cluster bezieht, und es zu verwenden, um das Modell des Spracherkenners bei jedem Dialogwechsel dynamisch zu modifizieren. Im ersten Ansatz bauen wir den Clusterbaum unter Verwendung lokaler Entscheidungen auf, die auf einem Maximum Normalized Mutual Information-Kriterium basieren. Im zweiten treffen wir globale Entscheidungen, basierend auf der Optimierung der globalen Perplexität der Kombination der clusterbezogenen LMs. Unsere Experimente zeigen eine relative Reduzierung der Wortfehlerrate von 15,17 %, was zu einer Verbesserung der Leistung der Verstehens- und Dialogmanager-Module beiträgt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35292-8_16 3933f60ce5d184dccdafe1e441813072;de;;;5.1.;;;T2I-CycleGAN: Ein CycleGAN für die Extraktion von maritimen Straßennetzen aus Crowdsourcing von räumlich-zeitlichen AIS-Trajektoriendaten Das Seestraßennetz besteht aus detaillierten Seerouten und ist für viele Anwendungen wie Bedrohungserkennung und Verkehrskontrolle von entscheidender Bedeutung. Die Schiffsflugbahndaten oder Daten des automatischen Identifikationssystems (AIS) sind jedoch normalerweise groß und werden mit unterschiedlichen Abtastraten erfasst. Darüber hinaus ist es schwierig, ausreichend genaue Straßennetze als gepaarte Trainingsdatensätze zu erhalten. Es ist eine große Herausforderung, aus solchen Daten ein komplettes Seestraßennetz zu extrahieren, das der tatsächlichen Route des Schiffes entspricht. Um diese Probleme zu lösen, wird in diesem Papier ein nicht überwachtes lernbasiertes maritimes Straßennetz-Extraktionsmodell T2I-CycleGAN basierend auf CycleGAN vorgeschlagen. Das Verfahren übersetzt Trajektoriendaten in ungepaarte Eingabeabtastwerte für das Modelltraining und fügt dem CycleGAN-Modell eine dichte Schicht hinzu, um Trajektorien mit unterschiedlichen Abtastraten zu handhaben. Wir evaluieren den Ansatz an realen AIS-Datensätzen in verschiedenen Bereichen und vergleichen die extrahierten Ergebnisse mit den realen Schiffskoordinatendaten in Bezug auf Konnektivität und Details, um eine Effektivität über die meisten verwandten Arbeiten hinaus zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-67540-0_12 f2dc304c6518fae924b1dab8a2f95609;de;;;5.1.;;;Ein neuartiger Ansatz zur Komprimierung verschlüsselter Graustufenbilder mit Huffman-Codierung Derzeit gewinnt die Informationssicherheit bei der Datenspeicherung und -übertragung an Bedeutung. Bilder werden allgemein in mehreren Prozessen verwendet. Daher ist der Schutz der Bilddaten vor unbefugtem Zugriff unerlässlich. Im Bereich des Information Hiding spielt die Bildverschlüsselung eine große Rolle. Das Ziel dieser Arbeit ist es, eine effiziente Codiertechnik zum Komprimieren der verschlüsselten Graustufenbilder ohne jeglichen Verlust bereitzustellen. Dies wird durch die Verwendung von Huffman-Codierung ermöglicht. Dieses Papier verwendet die Technik der auflösungsprogressiven Kompression (RPC), um ein besseres Ergebnis zu erzielen. RPC komprimiert ein verschlüsseltes Bild progressiv in der Auflösung, so dass der Decoder eine niedrig aufgelöste Version des Bildes beobachten, darauf basierende lokale Statistiken studieren und die Statistiken verwenden kann, um die nächste Auflösungsstufe zu dekodieren. Die experimentellen Ergebnisse zeigen, dass das in dieser Veröffentlichung verwendete Verfahren zur Kompression gute Ergebnisse liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24043-0_8 8233013103db22d75e8fb2bf6a1b7e92;de;;;5.1.;;;Funktionsumfang der Software: Für Kostenschätzungen und mehr Die Bestimmung von Softwaremerkmalen, die Projektplanung, -durchführung, -überwachung und -abschluss effektiv unterstützen, bleibt eine der vorherrschenden Herausforderungen für Software-Projektmanager. Funktionale Größenmaße wurden eingeführt, um eines der Hauptmerkmale von Software zu quantifizieren. Obwohl Methoden zur Messung der funktionalen Größe nicht ohne Kritik geblieben sind, haben sie erhebliche Versprechen für das Softwareprojektmanagement. In diesem Beitrag untersuchen wir die Beiträge der funktionalen Größenmessung zum Projektmanagement. Wir haben verschiedene Verwendungen der funktionalen Größe identifiziert, indem wir eine Literaturübersicht durchgeführt und untersucht haben, wie die Messung der funktionalen Größe in Projektmanagementpraktiken integriert werden kann, indem wir die Verwendungen der funktionalen Größe auf die im Projektmanagement-Wissenskörper (PMBOK) definierten Wissensbereiche abbilden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85936-9_6 f6c10db379e2dc692d7411fa7acb3595;de;;;5.1.;;;Untersuchung der Auswirkungen virtueller Stadtplanung auf die Identitätserkundung von Gymnasiasten Dieses Papier ist Teil eines NSF CAREER-Projekts, das vergeben wurde, um projektive Reflexion (PR) als theoretischen und methodischen Rahmen zur Erleichterung des Lernens als Identitätserforschung in virtuellen Lernumgebungen zu testen und zu verfeinern. PR strukturierte das Design, die Implementierung und die Weiterentwicklung von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-33232-7_17 9e8277f9e7ff1b4b2cd532bfa8366273;de;;;5.1.;;;Bewertung von Industrie 4.0-Funktionen mithilfe der SWOT-Analyse In diesem Papier werden einige Merkmale von Industrie 4.0 anhand der SWOT-Analyse bewertet, die sich auf die Annahme und Implementierung von Industrie 4.0 auswirken. Das Papier identifiziert die Stärken, Schwächen, Chancen und Risiken im Zusammenhang mit Industrie 4.0. Durch die Betrachtung dieser vier Faktorengruppen können Industriepraktiker verstehen, wie Industrie 4.0 umgesetzt werden kann. Darüber hinaus können Industriepraktiker die Stärken/Chancen der Industrie 4.0 nutzen, um strategische Entscheidungen zu treffen, um die Auswirkungen der mit Industrie 4.0 einhergehenden Bedrohungen/Schwächen zu verringern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3380-8_19 e62728fdf0fa3c3c28185751c8530c6a;de;;;5.1.;;;Ein neuartiges Verschlüsselungsverfahren für die sichere SMS-Kommunikation Sicherheit ist in der heutigen digitalen Welt ein herausforderndes Thema, und dafür spielt die Kryptographie eine wichtige Rolle. Kryptographie sichert Daten und Informationen mit einem Verschlüsselungsalgorithmus und Schlüsseln. Es besteht immer die Nachfrage nach einem stärkeren Verschlüsselungsalgorithmus, der ohne gültige Schlüssel nur sehr schwer oder gar nicht zu knacken wäre, damit die Privatsphäre der beabsichtigten Absender- und Empfängerinformationen vor Hackern geschützt werden kann. Dieses Papier schlägt ein neuartiges Verschlüsselungsschema für die SMS-Kommunikation vor, das mehrere Verschlüsselungsrunden verwendet, um die übertragene Nachricht vor unbefugtem Zugriff besser zu schützen. Nachrichtenintegrität und Authentifizierung wurden durch Hinzufügen von Authentifizierungszeichen zu der Nachricht sichergestellt. Unter Berücksichtigung der begrenzten Speicher- und Verarbeitungskapazität mobiler Geräte wurde der Algorithmus einfacher gehalten und gleichzeitig die Stärke des Schemas durch einen stärkeren Schlüssel und eine bessere Mischung aus Verwirrungs- und Verbreitungsprinzipien sichergestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-4765-7_50 d871f19a98c85bd0bd378eafd21fb960;de;;;5.1.;;;Kognitive Netzwerkschicht in MANETs Mobility Aware Routing Protocol Es ist beabsichtigt, Kognition hinzuzufügen, um eine kognitive Netzwerkschicht zu bilden, um ein adaptives Routing-Protokoll (QoS)-bewusstes adaptives Routing-Protokoll in mobilen Adhoc-Netzwerken (MANETs) zu entwerfen und zu entwickeln. QoS-fähiges Routing ist eine Herausforderung, da sich die Knoten im Netzwerk frei bewegen können und sich die Topologie dynamisch ändert. Die Leistung von AODV wird geringer sein, wenn Knoten im Netzwerk hochmobil sind. In diesem Papier wird das Modell des Mobility Aware Routing Protocol (MARP) vorgeschlagen, um einen Kernteil in MANET zu extrahieren, der in Bezug auf die Mobilität der Knoten stabil ist. Dieser Kernteil ist eine Untermenge von MANET-Mobilknoten, über die die Übertragung erfolgt. Hier kann die Auswahl von Pfaden durch diesen extrahierten Kern mehr QoS in der Zeit sicherstellen. Das MARP-Modell bietet nicht nur eine bessere Möglichkeit, eine QoS zu ermitteln, sondern berücksichtigt auch ein effizientes Routenwartungsschema, indem die Route ausgewählt wird, die mehr Stabilität aufweist, da die Quelle Kenntnisse über andere verfügbare Pfade hat. Da MARP ein Multipath-Routing-Protokoll ist, ist die Routenwartung einfach und robust. Durch Simulation zeigt MARP eine bessere Leistung gegenüber dem bestehenden AODV-on-Demand-Routing-Protokoll.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31686-9_10 8e2ea8ceba63349e88c9e0a2937ba984;de;;;5.1.;;;Ein Multi-View-Ansatz zur Extraktion von Beziehungen Die Relationsextraktion ist ein wichtiges Problem bei der Informationsextraktion. In diesem Papier untersuchen wir eine Multi-View-Strategie für die Extraktion von Beziehungen. Motiviert durch die Tatsache, wie in der Arbeit von Jiang und Zhai [1], dass die Kombination verschiedener Merkmalsunterräume zu einer einzigen Ansicht keine große Verbesserung bringt, schlagen wir einen zweistufigen Lernansatz mit mehreren Ansichten vor. Zuerst lernen wir zwei verschiedene Klassifikatoren aus zwei verschiedenen Ansichten von Beziehungsinstanzen: Sequenzdarstellung bzw. syntaktische Parsebaumdarstellung. Dann wird ein Meta-Lerner unter Verwendung der zusammen mit anderen Kontextinformationen konstruierten Metadaten trainiert, um eine starke Vorhersageleistung als das endgültige Klassifizierungsmodell zu erzielen. Die experimentellen Ergebnisse, die mit dem ACE 2005-Korpus durchgeführt wurden, zeigen, dass der Multi-View-Ansatz jeden Single-View-Ansatz bei der Beziehungsextraktion übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05250-7_6 681df310bec2a4f25d9836243bd7f20a;de;;;5.1.;;;Modellierung von u-Healthcare-Frameworks mit mobilen Geräten Es wird allgemein erwartet, dass es im kommenden Jahr einen Paradigmenwechsel vom Desktop-zentrierten Computing zu Mobile Computing geben wird. Dies wird eine Reihe von erheblichen Auswirkungen haben. Ein Thema von entscheidender Bedeutung ist das Design, die Entwicklung und der Einsatz von Softwarelösungen für mobile Benutzer. In diesem Papier haben wir ein mobiles Collaboration-Framework vorgeschlagen, das auf dem Distributed Object Group Framework (DOGF) basiert. Dieser Artikel konzentriert sich auf die Verwendung dieses Frameworks zur Unterstützung der mobilen Zusammenarbeit. Daher haben wir die bestehende Arbeit verbessert und auf den Aufbau von u-healthcare-Agentendiensten angewendet. Zur Unterstützung der mobilen Zusammenarbeit haben wir je nach Funktion mobiler Geräte in zwei Agententypen wie den stationären und den beweglichen Agenten unterteilt. Die Daten, die von Sensoren gesammelt werden, die an beliebigen Orten angebracht sind, können von 2-Typ-Agenten oder einem Home-Server geteilt und über die Push- und Pull-Methoden miteinander ausgetauscht werden. Für die Verwaltung dieser Informationen stellt die DOGF über definierte Anwendungsschnittstellen Funktionen des Objektgruppenmanagements, der Speicherung von Informationen und Sicherheitsdiensten für unser mobiles Kollaborations-Framework bereit. Wir haben auch über die GUI die Lauffähigkeit von Gesundheitsanwendungen gezeigt, die die medizinische Arbeit in Krankenhäusern auf unserem mobilen Collaboration-Framework unterstützen. Informationsmanagement mit Mobiltelefonen im drahtlosen Sensornetzwerk ist ein sehr häufiger Faktor. Dieses System wird so einfach wie möglich sein, indem es alle Einrichtungen bereitstellt, die in entfernten PC-basierten Anwendungen verfügbar sind. Ein drahtloses Mesh-Netzwerk liefert das WSN. Mobiltelefone werden die Knoten oder Zugangspunkte dieses Netzwerks sein. Einige vordefinierte Aktivitäten wie Fehlermeldungen oder Warnmeldungen nach dem Erfassen der Systemumgebung sowie alle Arten von Antworten auf Benutzeranfragen können in diesem System erreicht werden. Für den Benutzer ist eine einfache benutzerfreundliche GUI implementiert und es gibt einen Server, um den angemeldeten Benutzer zu authentifizieren, die Anfragen abzuhören und sie entsprechend zu beantworten. Der Benutzer kann (i) die Berichte über alle/einzelnen Tags und/oder Routen, Notfallnachrichten, Sensoren und auch die Standortinformationen erhalten und/oder (ii) einen Betätigungsbefehl an den Server senden, mit dem eine sofortige Entscheidung über das System getroffen werden kann serverseitig. Somit kann jeder entfernte Benutzer von diesem System unterstützt werden und kann überall und jederzeit mit WSN kommunizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27192-2_21 fcc66e53a842489c3a026c0798fd7033;de;;;5.1.;;;Modellierung der Hidden-Layer-Architektur in mehrschichtigen künstlichen neuronalen Netzen Eine generierte Lösung für ein künstliches neuronales Netz (KNN) kann aufgrund seiner ungeeigneten Architektur zu komplexen Berechnungen neuronaler Netze, dem Einsatz und der Verwendung trainierter Netze führen. Daher bleibt die Modellierung der Hidden-Layer-Architektur künstlicher neuronaler Netze eine Forschungsherausforderung. Dieses Papier präsentiert eine Lösung, um die Hidden-Layer-Architektur künstlicher neuronaler Netze zu erreichen, die von einigen Fakten der Neuroplastizität inspiriert ist. Die vorgeschlagene Methode hat zwei Phasen. Zuerst bestimmt es die Anzahl der versteckten Schichten für die beste Architektur und entfernt dann unnötige versteckte Neuronen aus dem Netzwerk, um die Leistung zu verbessern. Experimentelle Ergebnisse bei mehreren Benchmark-Problemen zeigen, dass das modifizierte Netzwerk eine bessere Generalisierung zeigt als das ursprüngliche Netzwerk.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9129-3_5 0c0e3181d4094526e035569adaa50a55;de;;;5.1.;;;Leistungsvergleich von Sendeantennen-Auswahlschemata für die Quadratur-Raummodulation Hauptziel dieser Arbeit ist es, die Leistung und Komplexität von optimalen und suboptimalen Verfahren zur Auswahl von Sendeantennen für die räumliche Quadraturmodulation (QSM) zu vergleichen. Antennenauswahlschemata werden basierend auf ihrer durchschnittlichen Bitfehlerraten-(ABER)-Leistung in optimal und suboptimal klassifiziert. Die Auswahl der Antenne erfordert Kriterien wie Kanalamplitude, Korrelation zwischen Antennen, euklidischer Abstand (ED) oder Kombinationen dieser Kriterien. Die ABER-Leistung des ED-basierten Antennenauswahlschemas ist bei höherer Komplexität im Vergleich zu dem anderen betrachteten suboptimalen Schema optimal. Dies wird durch die Komplexitätsanalyse und Simulationsergebnisse validiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8221-9_301 72350325827abd956b437fb847d07f4e;de;;;5.1.;;;3D-Bildrekonstruktionssystem zur Analyse von Krebstumoren basierend auf diffuser optischer Tomographie mit Blender Es gibt verschiedene Studien, die es ermöglichen, das Vorhandensein von Krebszellen bei einem Patienten nachzuweisen, jedoch ist die Zeit, die es braucht, um eine korrekte Diagnose zu stellen, für diese Fälle entscheidend. Diese Arbeit stellt den Entwurf und den Bau eines Prototyps als ersten Ansatz für einen Mikrotomographen basierend auf Diffuse Optical Tomography (DOT) vor. Die diffuse optische Tomographie ist ein Verfahren, das Licht aus dem nahen Infrarotbereich (NIR) verwendet, um die optischen Eigenschaften von Gewebe zu messen, das für den medizinischen Bereich relevant geworden ist, da es sich um ein nicht-invasives Verfahren handelt. Das Hauptziel dieses Gerätes ist es, kanzeröse Tumoren durch Messung diffuser Photonendichten in trüben Medien zu erkennen und zu analysieren. Als erste Phase der Entwicklung integriert dieses Projekt einen Bilderfassungsmechanismus, eine Bildverarbeitungsschnittstelle auf Softwareebene, die mit Blender entwickelt wurde, um eine GPU-Architektur zur Optimierung der Ausführungszeit auszunutzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-10448-1_15 9b926e704a68194e67bc8e6f5ee5f53d;de;;;5.1.;;;Verschleierung persönlicher Identitätsinformationen in EEG-Signalen Es besteht die Notwendigkeit, die persönlichen Identitätsinformationen in öffentlichen EEG-Datensätzen zu schützen. Es ist jedoch schwierig, solche Informationen mit unendlichen Klassen (offene Menge) zu entfernen. Wir schlagen einen Ansatz vor, um die Identitätsinformationen in EEG-Signalen mit Dummy-Identitäten zu verschleiern, während die Schlüsselmerkmale erhalten bleiben. Die Dummy-Identitäten werden durch Anwenden des Gesamtdurchschnitts auf EEG-Spektren über die Probanden innerhalb einer Gruppe mit gemeinsamen Attributen erhalten. Die persönlichen Identitätsinformationen in Original-EEGs werden mit einem CycleGAN-basierten EEG-Verkleidungsmodell in getarnte umgewandelt. Mit den dem Modell hinzugefügten Einschränkungen können die interessierenden Merkmale in EEG-Signalen beibehalten werden. Wir evaluieren das Modell, indem wir sowohl am Original- als auch am getarnten EEG Klassifikationsaufgaben durchführen und die Ergebnisse vergleichen. Zur Auswertung experimentieren wir auch mit ResNet-Klassifikatoren, die vor allem bei der Identitätserkennung mit einer Genauigkeit von 98,4% gut abschneiden. Die Ergebnisse zeigen, dass unser EEG-Verschleierungsmodell etwa 90% der persönlichen Identitätsinformationen verbergen und die meisten anderen Schlüsselmerkmale beibehalten kann. Unser Code ist erhältlich unter;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63823-8_11 628122252276a780990c0e1d2c172fb0;de;;;5.1.;;;Gemeinsame Verarbeitung und schneller Codierungsalgorithmus für Multi-View-Tiefenvideo Das Multi-View-Video plus Tiefenformat ist die Hauptdarstellung einer dreidimensionalen (3D) Szene. In der 3D-Erweiterung der hocheffizienten Videocodierung (3D-HEVC) ähnelt das Grundgerüst für Tiefenvideo dem von Farbvideo. Aufgrund der Beschränkungen der Mainstream-Capture-Technologien ist Tiefenvideo jedoch ungenau und inkonsistent. Außerdem ist das Tiefenvideocodierungsverfahren in der aktuellen 3D-HEVC-Softwareimplementierung sehr komplex. In diesem Papier stellen wir einen gemeinsamen Verarbeitungs- und schnellen Codierungsalgorithmus für Tiefenvideo vor. Der vorgeschlagene Algorithmus verwendet die Tiefen- und Farbmerkmale, um tiefe diskontinuierliche Bereiche, Tiefenkantenbereiche und Bewegungsbereiche als Masken für eine effiziente Verarbeitung und schnelle Codierung zu extrahieren. Der Verarbeitungsschritt umfasst eine räumliche und zeitliche Verbesserung. Das schnelle Codierungsverfahren begrenzt hauptsächlich das Durchlaufen der CU-Partition und die Modusentscheidung. Experimentelle Ergebnisse zeigen, dass der vorgeschlagene Algorithmus die Codierzeit und die Tiefenvideocodierungsbitrate reduziert, der vorgeschlagene Algorithmus die Gesamtcodierzeit um 44,24 % und die Tiefenvideocodierzeit um durchschnittlich 72,00 % reduziert. Darüber hinaus gibt es eine Bitratenreduktion bei der Tiefenvideocodierung von 24,07 % mit durchschnittlich 1,65 % Bjontegaard-Delta-Bitratengewinnen.;-;-;-;https://link.springer.com/article/10.1186/s13640-016-0128-3 b2d1a2e433d4742d04ee23070410851d;de;;;5.1.;;;Koordinierte Lagekontrolle von Satelliten in Formation In diesem Kapitel leiten wir ein koordiniertes Kontrollschema ab, um die relative Lage einer Satellitenformation unter Verwendung von Methoden der nichtlinearen Kontrolltheorie zu kontrollieren. Wir entwickeln zuerst Steuergesetze für den Führungssatelliten und schlagen dann ein adaptives Synchronisiersteuergesetz für den Folger vor. Die globale Konvergenz der Synchronisationsfehler wird mathematisch nachgewiesen und die resultierenden Regler werden bei Umgebungsstörungen und Messrauschen simuliert.;-;-;-;https://link.springer.com/chapter/10.1007/11505532_9 1a8b88f4c4f17dc61794e9891441f566;de;;;5.1.;;;Glaubwürdigkeitsbewertung von öffentlichen Seiten über Facebook Mit der zunehmenden Nutzung sozialer Online-Medien und der Präsenz der Nutzer auf vielen dieser Plattformen ist ihre Interaktion mit sozialen Netzwerken enorm. Es steht ihnen frei, falsche Informationen zu verbreiten, ohne dass sich Genauigkeits-, Integritäts- und Authentizitätskontrollpunkte als legitimer Inhalt ausgeben. All diese falschen, nicht zusammenhängenden, unerwünschten, manipulierten Informationen werden aus versteckten Gründen verbreitet. Auch ihr Vertriebsnetz ist nicht auf eine Social-Media-Plattform beschränkt. Manchmal nutzen sie das soziale Netzwerk als Marktplatz entweder für Werbung, Werbung für eine bestimmte Website, ein Produkt oder eine Anwendung. Diese Werbung bietet Facebook jedoch keinen Anreiz, da es sich bei diesem Inhalt nur um Spam handelt, der für Facebook irrelevant ist. Die Verbreitung unerwünschter, nicht mit dem Zusammenhang zusammenhängender Informationen ist nicht nur in Blogs, Diskussionsforen, sondern auch in sozialen Online-Netzwerken wie Facebook zu einem großen Problem geworden. Da die geposteten Inhalte nicht gekennzeichnet sind, werden diese Informationen online und der Leser hat kein Barometer, um die Glaubwürdigkeit des Kommentators oder Posters oder die Glaubwürdigkeit von Fakten zu überprüfen. Um diese Probleme anzugehen, haben wir eine Gleichung abgeleitet, um die Glaubwürdigkeit öffentlicher Seiten abzuwägen und Algorithmen des maschinellen Lernens (MLA) gegenüber den gesammelten Daten anzuwenden, um unsere Vorhersage zu validieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-2738-3_16 3264473429222be5f07ca25795b83498;de;;;5.1.;;;Erkennung von Schlafapnoe Das primäre Ziel ist es, Achtsamkeit auf das Ruheproblem zu machen und es mit einem Basisinstrument zu erkennen, das die Großhirnfluten des Menschen aufzeichnet. Schlafprobleme sind die normalen Nachteile für manche Menschen, obwohl der Schlaf eines der wichtigsten Elemente ist, um sowohl das psychische als auch das körperliche Wohlbefinden in gleichem Maße aufrechtzuerhalten. Schlafapnoe-Patienten zeigen Nebenwirkungen wie stürmisches Keuchen, verminderte Antriebskraft, abendliches Schwitzen, morgendliche Hirnschmerzen und werden im Moment die Gedankenwellen einer Person mit dem EEG-Sensor aufnehmen, und wir werden davon ausgehen, ob sie eine Ruheapnoe hat oder nicht. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7504-4_61 43c6795bb305ff4fb269ed3035fbe301;de;;;5.1.;;;Eine verteilte Metadatenplattform für hybride Funkdienste Hybridradio ist ein Überbegriff für die Kombination von klassischem Rundfunk mit Online-Diensten, die hochgradig personalisierte und interaktive Inhalte ermöglichen. Hybride Dienste sind stark auf gut gepflegte Metadaten angewiesen, aber derzeit gibt es eine Vielzahl unterschiedlicher Datenquellen und -modelle mit jeweils bestimmten Aspekten und unterschiedlichen Qualitätsniveaus. Wir schlagen eine verteilte Metadatenplattform vor, die relevante Metadaten aus einer Vielzahl von Datenquellen harmonisiert und komfortabel durchsuchbar macht. Der verteilte und offene Charakter der Plattform macht zentralisierte Aggregatoren obsolet und ermöglicht es auch kleineren Stationen, an einem Suchnetzwerk teilzunehmen, was ihre Sichtbarkeit erheblich erhöht. Die Leistungsfähigkeit der Plattform wird durch die Implementierung und Evaluierung eines metadatenbasierten Radio Station Recommender Systems, das einer der wichtigsten hybriden Radiobausteine ​​ist, nachgewiesen. Abschließend wird die Plattform durch eine qualitative Analyse bewertet, die Anforderungen auf Basis vordefinierter Nutzerszenarien ihren technischen Features gegenüberstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-22482-0_13 c6a1a77f32a8d5601f5a98434bc7b17f;de;;;5.1.;;;KMU-Wettbewerb zwischen asymmetrischen Rivalen im Finanzmarkt aus evolutionärer Sicht In diesem Papier wird hauptsächlich der Wettbewerb zwischen zwei Arten von Unternehmen auf den Finanzmärkten diskutiert, wobei der eine auf intensive Innovation ausgerichtet ist, aber von geringerer Größe ist, und der andere genau das Gegenteil ist. Aus evolutionärer Sicht wird ein Modell aus Verweisen auf die Falken-und-Taube-Spieltheorie erstellt, um den Prozess des Wettbewerbs zu veranschaulichen, um herauszufinden, wie eine neue Institution zu formalisieren ist. Und es kann auch zeigen, welche Rollen beide Parteien im Spiel einnehmen. Sie beleuchtet den geeigneten Weg, der die Formalisierung und Förderung einer neueren und besseren Institution erleichtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23993-9_73 d816332a37334708f2446da78e27efdf;de;;;5.1.;;;Automatisierung für Öfen in Wärmekraftwerken mit Public-Key-Kryptographie Daten sind Fakten und Statistiken, die zu Referenzzwecken oder zur Analyse zusammengetragen werden und vor Korruption oder unbefugtem Zugriff geschützt werden müssen. Datensicherheit ist sowohl Praxis als auch Technologie zur Sicherung oder zum Schutz wertvoller und sensibler Informationen durch Verschlüsselung von Daten. Es wird auch als Informationssicherheit bezeichnet. Daten können mit verschiedenen Hardware- und Softwaretechnologien geschützt werden. Einige gängige sind Virenschutz, Verschlüsselung, Firewalls usw. Der Schutz sensibler Daten vor Beschädigung und unbefugtem Zugriff schützt vor böswilliger Verwendung der Daten. Kryptographie bezieht sich auf die Sicherung von Informationen mit mathematischen Konzepten und Techniken. Datenverschlüsselungssoftware erhöht die Datensicherheit mit mehr Effizienz. Für eine autorisierte Person ist das verschlüsselte Formular absolut unlesbar. Das Hauptziel dieses Papiers ist die Verschlüsselung und Entschlüsselung der von Temperatursensoren und Bewegungssensoren empfangenen Daten, die mit der ECC-Methode durchgeführt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6977-1_45 d6550676dd8dba8d3904ab4e86356668;de;;;5.1.;;;Identifizierung essentieller Proteine ​​durch Reinigung von Protein-Interaktionsnetzwerken Die Identifizierung essentieller Proteine ​​basierend auf Protein-Interaktionsnetzwerken (PIN) ist ein sehr wichtiges und heißes Thema in der Post-Genom-Ära. In diesem Artikel schlagen wir eine neue Methode vor, um essentielle Proteine ​​basierend auf der gereinigten PIN zu identifizieren, indem wir Genexpressionsprofile und subzelluläre Ortsinformationen verwenden. Der Grundgedanke der vorgeschlagenen Aufreinigungsmethode besteht darin, dass zwei Proteine ​​nur dann physikalisch miteinander interagieren können, wenn sie gemeinsam an derselben subzellulären Stelle auftreten und zumindest zu einem Zeitpunkt im Zellzyklus gemeinsam aktiv sind. Die ursprüngliche statische PIN wird als S-PIN gekennzeichnet und die nach unserem Verfahren gereinigte endgültige PIN wird als TS-PIN gekennzeichnet. Um zu beurteilen, ob die konstruierte TS-PIN besser für die Identifizierung essentieller Proteine ​​geeignet ist, werden sechs netzwerkbasierte Methoden zur Entdeckung essentieller Proteine ​​(DC, EC, SC, BC, CC und IC) darauf angewendet, um essentielle . zu identifizieren Proteine. Bei S-PIN und NF-APIN ist es genauso. NF-APIN ist eine dynamische PIN, die unter Verwendung von Genexpressionsdaten und S-PIN konstruiert wurde. Die experimentellen Ergebnisse zum Proteininteraktionsnetzwerk von S.cerevisiae zeigen, dass alle sechs netzwerkbasierten Methoden bei Anwendung auf TS-PIN bessere Ergebnisse erzielen als bei Anwendung auf S-PIN und NF-APIN.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-38782-6_9 ce215d6936d42562f5d64a7f40edc95a;de;;;5.1.;;;Ein kontextsensitives Musikempfehlungssystem, das Fuzzy-Bayes-Netzwerke mit Utility-Theorie verwendet Da das World Wide Web zu einer großen Quelle für digitale Musik wird, hat das Musikempfehlungssystem eine große Nachfrage. Sowohl für den kommerziellen als auch für den akademischen Bereich gibt es mehrere Musikempfehlungssysteme, die die Nutzerpräferenzen als fix behandeln. Da sich jedoch die von einem Benutzer bevorzugte Musik in Abhängigkeit von den Kontexten ändern kann, haben die herkömmlichen Systeme inhärente Probleme. Dieses Papier schlägt ein kontextbewusstes Musikempfehlungssystem (CA-MRS) vor, das das Fuzzy-System, Bayessche Netzwerke und die Nutzentheorie nutzt, um passende Musik in Bezug auf den Kontext zu empfehlen. Wir haben den Empfehlungsprozess analysiert und einen subjektiven Test durchgeführt, um die Nützlichkeit des vorgeschlagenen Systems zu zeigen.;-;-;-;https://link.springer.com/chapter/10.1007/11881599_121 843721a1b9994ba7d2ca3657119b6ed0;de;;;5.1.;;;Verstärktes axiales Refinement-Netzwerk für die monokulare 3D-Objekterkennung Die monokulare 3D-Objekterkennung zielt darauf ab, die 3D-Position und die Eigenschaften von Objekten aus einem 2D-Eingangsbild zu extrahieren. Dies ist ein schlecht gestelltes Problem, wobei eine Hauptschwierigkeit im Informationsverlust durch tiefenagnostische Kameras liegt. Herkömmliche Ansätze tasten 3D-Begrenzungsboxen aus dem Raum ab und leiten die Beziehung zwischen dem Zielobjekt und jedem von ihnen ab, jedoch ist die Wahrscheinlichkeit effektiver Abtastungen im 3D-Raum relativ gering. Um die Effizienz des Samplings zu verbessern, schlagen wir vor, mit einer anfänglichen Vorhersage zu beginnen und diese schrittweise in Richtung der Grundwahrheit zu verfeinern, wobei in jedem Schritt nur ein 3D-Parameter geändert wird. Dies erfordert die Entwicklung einer Richtlinie, die nach mehreren Schritten belohnt wird, und daher verwenden wir Reinforcement Learning, um sie zu optimieren. Das vorgeschlagene Framework, Reinforced Axial Refinement Network (RAR-Net), dient als Nachbearbeitungsstufe, die frei in bestehende monokulare 3D-Detektionsmethoden integriert werden kann und die Leistung des KITTI-Datensatzes mit geringen zusätzlichen Rechenkosten verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58520-4_32 1d31452ecf967c2e36ecdd3de44b3ffc;de;;;5.1.;;;Multi-Strategie-Brainstorm-Optimierungsalgorithmus mit dynamischer Parameteranpassung Als neuartiger Algorithmus zur Optimierung der Schwarmintelligenz hat die Brainstorm-Optimierung (BSO) ihre eigenen einzigartigen Fähigkeiten zur Lösung von Optimierungsproblemen. Allerdings ist die Leistung der traditionellen BSO-Strategie bei der Ausbalancierung von Exploration und Exploration unzureichend, was die Konvergenzleistung von BSO verringert. Um diese Probleme zu überwinden, wird in diesem Beitrag ein Multistrategie-BSO mit dynamischer Parameteranpassung (MSBSO) vorgestellt. In MSBSO werden vier Wettbewerbsstrategien basierend auf verbesserten individuellen Auswahlregeln entwickelt, um sich an unterschiedliche Suchbereiche anzupassen und so vielfältigere und effektivere Individuen zu gewinnen. Als Grundlage für die Auswahl von Strategien wird außerdem ein einfacher adaptiver Parameter entworfen, der Suchbereiche dynamisch regulieren kann. Der vorgeschlagene MSBSO-Algorithmus und andere hochmoderne Algorithmen werden mit CEC 2013 Benchmark-Funktionen und CEC 2015 Large Scale Global Optimization (LSGO) Benchmark-Funktionen getestet, und die experimentellen Ergebnisse beweisen, dass der MSBSO-Algorithmus wettbewerbsfähiger ist als andere verwandte Algorithmen .;-;-;-;https://link.springer.com/article/10.1007/s10489-019-01600-7 c46c52fc7e2eae2dc1eb9eb454ba7857;de;;;5.1.;;;Statistische Bewertung der Leistung von gerasterten monatlichen Niederschlagsprodukten aus Reanalysedaten, Satellitenschätzungen und zusammengeführten Analysen über China In dieser Studie haben wir die folgenden vier verschiedenen gerasterten monatlichen Niederschlagsprodukte verglichen: die Reanalysedaten der National Centers for Environmental Prediction Version 2 (NCEP-2), die satellitengestützten Daten der Climate Prediction Center Morphing (CMORPH)-Technik, das zusammengeführte Satellitenmessgerät Daten des Global Precipitation Climatology Project (GPCP) und die zusammengeführten Satelliten-Gauge-Modelldaten des Beijing Climate Center Merged Estimation of Precipitation (BMEP). Wir haben die Leistung dieser Produkte anhand von monatlichen Niederschlagsbeobachtungen im Zeitraum Januar 2003 bis Dezember 2013 aus einem dichten, nationalen Regenmessnetz in China bewertet. Unsere Bewertung umfasste mehrere statistische Techniken, darunter räumliche Muster, zeitliche Variation, Verzerrung, Root-Mean-Square-Error (RMSE) und Korrelationskoeffizient (CC)-Analyse. Die Ergebnisse zeigen, dass NCEP-2, GPCP und BMEP im Allgemeinen den monatlichen Niederschlag auf nationaler Ebene überschätzen und CMORPH ihn unterschätzt. Alle Datensätze charakterisierten jedoch erfolgreich den Anstieg des monatlichen Niederschlags von Nordwest nach Südost über China. Da sie Niederschlagsmesserinformationen aus dem Global Telecommunication System (GTS)-Netzwerk enthalten, haben GPCP und BMEP viel kleinere Verzerrungen, niedrigere RMSEs und höhere CCs als NCEP-2 und CMORPH. Wenn man die saisonalen und regionalen Schwankungen berücksichtigt, weist NCEP-2 im Sommer einen größeren Fehler gegenüber Südchina auf. CMORPH gibt die Niederschlagsstärke über Südostchina und die zeitliche Korrelation über West- und Nordwestchina zu allen Jahreszeiten schlecht wieder. BMEP hat einen niedrigeren RMSE und einen höheren CC als GPCP über Ost- und Südchina, wo das Stationsnetz dicht ist. Im Gegensatz dazu hat BMEP einen niedrigeren CC als GPCP über West- und Nordwestchina, wo das Spurweitennetz relativ spärlich ist.;-;-;-;https://link.springer.com/article/10.1007/s00704-017-2105-x 38300e0fc2dd98832da2e16112c48bdb;de;;;5.1.;;;Lokale spärliche Darstellungsprojektionen zur Gesichtserkennung Wie man die dünnbesetzten Affinitätsgewichtsmatrizen definiert, ist immer noch ein offenes Problem in existierenden Manifold-Lernalgorithmen. In diesem Beitrag schlagen wir eine neuartige überwachte Lernmethode namens Local Sparse Representation Projection (LSRP) zur linearen Dimensionsreduktion vor. Im Unterschied zu Sparsity Preserving Projections (SPP) und den neueren mannigfaltigen Lernverfahren wie Locality Preserving Projections (LPP) führt LSRP die lokalen dünnbesetzten Darstellungsinformationen in die Zielfunktion ein. Obwohl in der lokalen spärlichen Darstellung keine Labels verwendet werden, kann sie dennoch bessere Messkoeffizienten und signifikante Diskriminanzfähigkeiten bereitstellen. Durch Kombinieren der lokalen Interklassen-Nachbarschaftsbeziehungen und dünnbesetzten Darstellungsinformationen zielt LSRP darauf ab, die lokalen dünnbesetzten rekonstruktiven Beziehungen der Daten zu bewahren und gleichzeitig die Trennbarkeit zwischen den Klassen zu maximieren. Umfassende Vergleiche und umfangreiche Experimente zeigen, dass LSRP höhere Erkennungsraten erreicht als die Hauptkomponentenanalyse, die lineare Diskriminanzanalyse und die modernsten Techniken wie LPP, SPP und Maximum-Varianz-Projektionen.;-;-;-;https://link.springer.com/article/10.1007/s00521-012-1174-0 90724cf22fa1cad4e6120f64456b5966;de;;;5.1.;;;Geostatistische Modellierung der Topographie im Land Rearrangement Project Eine präzise Topographiekarte im Feldmaßstab ist für die Planung der Landumgestaltung sehr wichtig. In dieser Studie, der Erhebung in der Feldskala aus solchen Messungen, stießen wir auf einen starken Trend in einem Landneuordnungsprojekt in Yichun, China, den wir zusätzlich zu korrelierten zufälligen Variationen berücksichtigen mussten. Wir haben die beiden Effektgruppen getrennt und ihre Parameter durch OLS geschätzt. Eine Kugelfunktion schien den Zufallseffekt am besten zu beschreiben, und ihre Parameterwerte wurden in die Gleichungen zur Vorhersage durch gewöhnliches Kriging eingefügt. Wir verglichen die Ergebnisse durch Kreuzvalidierung und berechneten den mittleren Fehler (ME), den mittleren quadratischen Fehler (MSE) und das mittlere quadratische Abweichungsverhältnis (MSDR). Das angepasste Modell ergab erwartungsgemäß eine kleine ME – Kriging ist unvoreingenommen. Das MSE ist auch sehr klein. Der MSDR betrug 1,032, was idealerweise gleich 1 sein sollte. Die Güte des Modells fördert die Regression Kriging ist eine ausreichend gute Methode zur Modellierung der Topographie in Landneuordnungsprojekten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45737-5_49 cbb53bb3838e247a588315ecc8c25f6c;de;;;5.1.;;;Prozess-Mining Process Mining zielt darauf ab, die Konformität von aktivitätsorientierten Prozessmodellen aus Ereignisprotokollen zu entdecken, zu verbessern oder zu überprüfen. Vor kurzem ist ein neues Forschungsgebiet namens Intention Mining entstanden. Dieses Feld hat die gleichen Ziele wie Process Mining, befasst sich jedoch speziell mit intentionalen Prozessmodellen (Prozesse, die sich auf die Begründung der Aktivitäten konzentrieren). Dieses Papier zielt darauf ab, die Unterschiede zwischen diesen beiden Forschungsbereichen hervorzuheben und veranschaulicht den Einsatz von Mining-Techniken auf einem Datensatz von Ereignisprotokollen, um ein Aktivitätsprozessmodell sowie ein beabsichtigtes Prozessmodell zu entdecken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38484-4_33 5f10b15c267bf593241f3ca2f12f1241;de;;;5.1.;;;Schwache Signale im Informationssicherheitsmanagement Normalerweise berücksichtigen die Praktiken des Informationssicherheitsmanagements nicht explizit schwache Signale, Faktoren, die unter der Erkennungsoberfläche liegen, die jedoch eine enorme Sicherheitsbedrohung darstellen können. Diese Studie analysiert, welche Arten von schwachen Signalen in der Informationssicherheit vorhanden sind, gefolgt von einer Diskussion über deren Erkennung. Reaktionen auf schwache Signale werden ebenso berücksichtigt wie bestimmte Datenschutzbedenken im Zusammenhang mit dem Problem. Diese Themen sind nicht nur für Regierungsbeamte, die für die öffentliche Sicherheit zuständig sind und sich mit der aktuellen Terrorismuswelle befassen, von großer Dringlichkeit, sondern auch für die Informationssicherheit von Unternehmen und die Top-Manager, die das Tagesgeschäft ihrer Unternehmen betreiben.;-;-;-;https://link.springer.com/chapter/10.1007/11596981_75 ed7017f8f747c84d25f9d9d423540586;de;;;5.1.;;;Sicherheitslücken bei Bankgeschäften mit mobilen Geräten Android: Ein systematischer Literaturüberblick Diese qualitative systematische Literaturrecherche (SLR) entspricht der Suche nach Schwachstellen im Bankgeschäft mittels ANDROID Intelligent Mobile Devices und den Vorfällen bei den Nutzern. In diesen Geräten gibt es undichte Informationen, die von Hackern erfasst werden, und damit die Unzufriedenheit der Benutzer, den Umgang mit diesen Unsicherheiten zu ignorieren. Dafür wurden zunächst von 123 Studien 18 nach den Suchkriterien entsprechend den Forschungsfragen in Vulnerabilität und Inzidenz ausgewählt, dabei wurden vor allem das Bank-Phishing, das Einschleusen von Schadsoftware in mobile Anwendungen und in großem Umfang Opfer von Bank Betrug.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-05532-5_8 5124ec801b6e240f0b501f5129cc8232;de;;;5.1.;;;Ein datenschutzfreundliches Peer-to-Peer-Reputationssystem In diesem Papier wird ein Verfahren beschrieben, um ein verteiltes Reputationssystem mit verbesserter Privatsphäre und Sicherheit als Designmerkmal bereitzustellen. Dies wird durch ein Netzwerk von vertrauenswürdigen Agenten auf jeder Client-Plattform erreicht, die die Trusted Computing Platform Alliance (TCPA)-Technologie 1 nutzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45229-4_21 c3171d9340e986d7067fff306c733eb2;de;;;5.1.;;;Interdiagrammatisches Denken und digitale Geometrie In diesem Beitrag untersuchen wir das Interdiagrammatic Reasoning (IDR) als Rahmen für die digitale Geometrie. Wir zeigen, wie IDR verwendet werden kann, um digitale Geometrie in zwei Dimensionen darzustellen und eine prägnante Sprache für die Spezifikation von Algorithmen bereitzustellen. Als Beispiel spezifizieren wir Algorithmen und untersuchen die algorithmische Komplexität der Verwendung von IDR, um über die Beziehungen zwischen planaren Regionen nachzudenken. Schließlich diskutieren wir die Umstände, unter denen die algorithmischen Abstraktionen in IDR unter realistischen Berechnungsannahmen effiziente Algorithmen erzeugen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-25931-2_19 0166b74b2a3053776c675ea085aae330;de;;;5.1.;;;Identifizierung von Alter und Geschlecht in Pinterest durch die Kombination von textuellen und tiefen visuellen Funktionen In sozialen Medien teilen Benutzer viele Inhalte wie Kommentare, Nachrichten, Fotos, Videos usw. Diese Informationen können von automatisierten Systemen verwendet werden, um die Benutzer zu segmentieren, um ihnen spezifische Empfehlungen oder fokussierte Inhalte bereitzustellen. Eine der beliebtesten Methoden zur Segmentierung der Benutzer ist nach Alter und Geschlecht. Dennoch werden solche demografischen Variablen häufig ausgeblendet und können daher indirekt abgeleitet werden. Üblicherweise werden diese Variablen anhand der von den Benutzern veröffentlichten Textkommentare erlernt, wobei der Schreibstil oder die Häufigkeit von Wörtern analysiert werden. In diesem Papier präsentieren wir eine Studie über mehrere Modelle des maschinellen Lernens, die benutzergenerierte Bilder und Texte verwenden, um beide Arten von Informationen auszunutzen, um das Alter und das Geschlecht von Pinterest-Benutzern abzuleiten. Wir experimentieren mit den Modellen unter Verwendung eines Datensatzes, der aus 548.761 Pins besteht, die von 264 Benutzern gepostet wurden. Jeder Pin ist eine Kombination aus einem Bild und einem kurzen Kommentar. Wir haben die Bilder mit dem vortrainierten neuronalen Faltungsnetzwerk ResNet-50 in eine tiefe visuelle Darstellung umgewandelt und die Kommentare mit der tf-idf-Methode transformiert. Wir vergleichen die Modelle untereinander und zwischen den Informationsarten anhand verschiedener Leistungskennzahlen. Unsere Experimente zeigen interessante Ergebnisse und die Möglichkeit, die benutzergenerierten Bild- und Textinhalte zur Charakterisierung von Benutzern zu verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30275-7_24 18fcb992e1595e23a309ecfb5ec372c4;de;;;5.1.;;;Nutzung von Kontextinformationen zur Verbesserung der Präzision von Empfehlungssystemen im Einzelhandel Im Einzelhandel analysieren Empfehlungssysteme historische Kaufinformationen mit dem Ziel, die Produktpräferenzen der Benutzer vorherzusagen. Trotz der zunehmenden Nutzung dieser Anwendungen mangelt es ihren Ergebnissen jedoch immer noch an Präzision in Bezug auf die tatsächlichen Bedürfnisse und Präferenzen der Kunden. Dies liegt zum Teil daran, dass die Kaufhistorie des Benutzers nicht ausreicht, um die Produkte zu identifizieren, die ein Benutzer kaufen müsste, da die Benutzerpräferenzen im Laufe der Zeit stark von Änderungen der Kontextsituationen (z. B. geografischer Standort, besondere Daten, interessante Aktivitäten) beeinflusst werden . Dieses Papier stellt ein Empfehlungssystem vor, das Kontextinformationen nutzt, um die Präzision von Empfehlungen zu verbessern. Unser System basiert auf dem kollaborativen Filteransatz und dem Post-Filtering-Paradigma als Mechanismus, um Kontextinformationen in den Empfehlungsalgorithmus einzubeziehen. Wir haben unser System anhand von Daten eines kolumbianischen Einzelhandelsunternehmens getestet und festgestellt, dass unsere Empfehlungen im Vergleich zum Basisansatz für eine größere Anzahl von Kunden erfolgreich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-66562-7_6 efbb1f6fbfec6ecc98b2ce4ce2deb188;de;;;5.1.;;;Ein theoretisches Schema zur Implementierung von MAC-Protokollen in VANETs mit kognitivem Funk Die Fahrzeugkommunikation kann eine Vielzahl von Serviceanwendungen eröffnen und vor allem die Verkehrssicherheit durch die Bereitstellung von Warnmeldungen erhöhen. Um diese Funktionen zu ermöglichen, ist es notwendig, MAC-Protokolle einzurichten, die nicht nur eine gute QoS und Fairness bieten, sondern auch andere Anliegen von Fahrzeug-Ad-hoc-Netzwerken (VANETs) berücksichtigen. Da VANETs im Vergleich zu herkömmlichen Ad-hoc-Netzwerken wie MANETs größere Herausforderungen darstellen, müssen effektive Medienzugriffsschemata implementiert werden, die eine effiziente Nutzung des Spektrums, die Minimierung von Paketverzögerungen sowie Authentifizierung, Sicherheit und priorisierte Übermittlung von Sicherheitsnachrichten ansprechen. In diesem Artikel untersuchen wir neuartige Konzepte von drei kürzlich vorgeschlagenen MAC-Protokollen für VANETs. Wir bieten einen theoretischen Ansatz zur Implementierung mehrerer MAC-Protokolle für VANETs, ​​die kognitive Funktechnologie verwenden, indem wir einige der in den überprüften Protokollen vorgeschlagenen neuartigen Funktionen kombinieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22410-2_46 d9d3a272d2402750a4c04656270fe20e;de;;;5.1.;;;Design von technologiegestützten Lernumgebungen, die Klassenzimmer mit der realen Welt verbinden In diesem Kapitel haben wir mehrere technologiegestützte Lernumgebungen entwickelt und in einem schulischen Umfeld evaluiert. Wir beschreiben einige dieser Umgebungen, die Klassenzimmer mit der realen Welt verbinden können. Es werden Schlüsselkonzepte in Bezug auf die Gestaltung dieser Lernumgebungen eingeführt. Auf den Schlüsselkonzepten basierende Beispielsysteme werden ebenfalls beschrieben. Die während der pädagogischen Aktivitäten mit den vorgeschlagenen Lernumgebungen gewonnenen Erkenntnisse werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38291-8_3 580943c83a135750862215898ac61624;de;;;5.1.;;;Die Lerneffektivität von gemischten und verkörperten interaktiven Videospielen bei Kindergartenkindern Wir haben ein verkörpertes interaktives Videospiel (EIVG) entwickelt, das sowohl lehrreich als auch unterhaltsam ist, in der Hoffnung, mit einem solchen System die Unterschiede in der Lerneffektivität zwischen gemischtem und reinem digitalen Lernen zu erkunden. Neben der Durchführung von Experimenten mit dem Erlernen der Kinder mit dem EIVG haben wir im Rahmen der Studie auch Lehrerinnen und Lehrer eingebunden, die uns dabei halfen, den emotionalen Aspekt der Kinder zu beobachten. Die Ergebnisse der Studie lassen sich wie folgt zusammenfassen: 1 Die Effektivität von Blended Learning ist im Vergleich zu rein digitalem Lernen deutlich besser. 2 Die Effektivität des EIVG-Lernens ist bei Jungen besser als bei Mädchen. Es gibt jedoch keinen signifikanten Unterschied zwischen ihnen. 3 Das EIVG ist sehr unterhaltsam, was dazu führt, dass Lernobjekte während des gesamten Studiums hochinteressiert und fokussiert bleiben. Beide Lernarten können die Lernergebnisse der Objekte effektiv verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03364-3_54 1fdd3161b84883ff4f805f0da1b2aadf;de;;;5.1.;;;Ein Überblick über die Verbesserung der Straßenverkehrssicherheit in Fahrzeug-Ad-hoc-Netzwerken Das Fahrzeug-Ad-hoc-Netz (VANET) zielt darauf ab, wichtige Informationen über die Straßen- und Netzverkehrsbedingungen und andere netzbezogene Informationen zeitnah zu übermitteln. Es gedeiht, um die derzeitigen Schutzstandards und die Effizienz des Netzwerks zu verbessern. Die grundlegende Verwendung von Fahrzeug-Ad-hoc-Netzwerken bezieht sich auf die Verkehrsbedingungen und andere Anwendungen im Zusammenhang mit der Straßensicherheit. Dieses Papier beschreibt den wesentlichen Nutzen von Fahrzeug-Ad-hoc-Netzwerken im Zusammenhang mit Verkehrsbedingungen und Straßensicherheit. Immer wenn die Notfallmeldungen an die Fahrzeuge gesendet werden müssen, ist es von größter Bedeutung, dass die Fahrzeuge ständig verbunden sind. Wird der Konnektivität keine Bedeutung beigemessen, wird das Hauptziel, die wichtigen Informationen an die Fahrzeuge zu verbreiten, nicht erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5827-6_26 293dfafa77e64f82a57e27a042009438;de;;;5.1.;;;Einbeziehung von Wissensunsicherheit in die Modellierung der Artenverteilung Die Überwachung des Fortschritts in Richtung auf globale Ziele und Biodiversitätsziele erfordert zuverlässige Beschreibungen der Artenverteilung über Zeit und Raum. Derzeitige Lücken in zugänglichen Informationen über die Verbreitung von Arten machen es erforderlich, alle verfügbaren Daten- und Wissensquellen zu integrieren und die Kooperationen zu intensivieren, um die globale Umweltpolitik effektiver zu unterstützen. Für viele Gebiete und Artengruppen können Experten eine wertvolle Informationsquelle darstellen, um Lücken zu schließen, indem sie ihr Wissen über die Arten-Umwelt-Interaktionen anbieten. Expertenwissen ist jedoch immer mit Unsicherheiten behaftet, und es ist eine Herausforderung, dieses in die Kartierung der Artenverteilung einzubeziehen. Wir schlagen die Verwendung der Dempster-Shafer-Theorie der Evidenz (DST) als neuartigen Ansatz in diesem Bereich vor, um Expertenwissen zu extrahieren, die damit verbundene Unsicherheit in das Verfahren einzubeziehen und zuverlässige Artenverteilungskarten zu erstellen. Wir haben DST angewendet, um die Verbreitung von zwei Adlerarten in Spanien zu modellieren. Wir haben Experten eingeladen, einen Online-Fragebogen auszufüllen und ihre Ansichten über den Lebensraum der Art auszudrücken, indem sie den gegebenen Umweltvariablen Wahrscheinlichkeitswerte zuordnen, zusammen mit ihrem Vertrauen, die Ansichten auszudrücken. Anschließend berechneten wir Beweisfunktionen und kombinierten sie mit den Dempster-Kombinationsregeln, um die Artenverteilung basierend auf dem Wissen der Experten abzubilden. Wir bewerteten die Leistungen unseres vorgeschlagenen Ansatzes unter Verwendung des Atlas der spanischen Brutvögel als unabhängigen Testdatensatz und verglichen die Ergebnisse weiter mit den Ergebnissen eines Ensembles konventioneller SDMs. Rein auf Expertenwissen basierend lieferte der DST-Ansatz ähnliche Ergebnisse wie das datengetriebene SDM-Ensemble. Unser vorgeschlagener Ansatz bietet eine starke und praktische Alternative für die Modellierung der Artenverteilung, wenn Daten zum Vorkommen von Arten nicht zugänglich oder zuverlässig sind oder beides. Die besonderen Stärken des vorgeschlagenen Ansatzes bestehen darin, dass er Wissensunsicherheiten explizit berücksichtigt und aggregiert und die Bandbreite der Datenquellen nutzt, die normalerweise von einem Experten in Betracht gezogen werden.;-;-;-;https://link.springer.com/article/10.1007/s10531-018-1675-y 716561d4f0a0d80e4f88db4f349d5d31;de;;;5.1.;;;Ein persönliches Gesundheitsaktensystem für das Notfallmanagement Jüngste Trends in der Gesundheitsversorgung haben zu einer Verlagerung hin zu einem patientenzentrierten Versorgungsmodell geführt, das von der Entwicklung des Informationszugangs und der Tools über die von Gesundheitsdienstleistern kontrollierten Systeme der elektronischen Gesundheitsakte (EHR) hin zu Systemen der persönlichen Gesundheitsakte (PHR) mit Architekturen basierend auf den grundlegenden Annahmen, dass die vollständigen Aufzeichnungen zentral gespeichert werden und dass jeder Patient die Autorität über den Zugriff auf jeden Teil seiner Aufzeichnungen behält. PHRs bieten ein erhebliches Potenzial, um transformative Veränderungen in der Notfallversorgung anzuregen, da sie bei Bedarf ein vollständiges Bild der Gesundheitsakte einer Person liefern können. Es stellt sich jedoch ein Sicherheitsproblem von herausragender Bedeutung, das sich auf den Prozess der Erteilung (Entzug) der Genehmigung an (von) Angehörigen der Gesundheitsberufe ohne Beteiligung des Patienten bezieht. Dieses Papier präsentiert einen Ansatz zur Automatisierung des Berechtigungsweitergabeprozesses in PHR-Systemen mittels kontextsensitiver Technologie, die verwendet wird, um den Benutzerzugriff auf Daten über einen fein abgestuften Zugriffskontrollmechanismus zu regulieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18472-7_7 fbf65978360dea55109eccd0e2b4ce7f;de;;;5.1.;;;Integriertes Modell AmI-IoT-DA für die Pflege älterer Menschen Ältere Menschen leiden unter körperlichen und geistigen Beeinträchtigungen, die sie daran hindern und einschränken, die Hausarbeit zu kontrollieren, sie verlieren ihre Unabhängigkeit und Autonomie, was ihre Lebensqualität und ihr Wohlbefinden beeinträchtigt. In diesem Beitrag wird ein AmI IoT-integriertes Schichtmodell vorgestellt. Das vorgeschlagene Modell kombiniert Funktionalitäten von Internet of Things (IoT), Ambient Intelligence (AmI) und Data Analytics (DA), um eine Referenz für die Überwachung und Unterstützung älterer Menschen bereitzustellen. Das Modell schlägt vier Segmente vor, die für die Automatisierung der Unterbringung, die Überwachung des Benutzers, das Ergreifen von reaktiven Maßnahmen, die Überwachung von Ereignissen, die Identifizierung von Gewohnheiten und den Zugriff auf AmI- und IoT-Dienste und Datenanalyse verantwortlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98998-3_37 a32459705946dc6fc445639d44a84bcf;de;;;5.1.;;;Schätzung der Treibhausgasemissionen im Zementherstellungsprozess durch Blockchain- und SSL-basierte IoT-Datenanalyse In letzter Zeit hat das Internet der Dinge (IoT)-System, das menschliche Aktivitäten basierend auf verschiedenen Arten von realen Daten unterstützt, in verschiedenen Bereichen Aufmerksamkeit erregt. Das Verhalten des Systems wird jedoch anhand der tatsächlichen Daten bestimmt. Wenn ein Angreifer die Daten also ändert, kann ein kritisches Problem auf dem System auftreten. Um die Zuverlässigkeit echter Daten zu gewährleisten, haben viele Forscher daher Datenverwaltungsplattformen untersucht, die Sicherheitsverwaltungstechnologie verwenden. In der vorgeschlagenen Plattform wurde in der Vorfertigungsphase des Zementherstellungsprozesses versucht, die Zuverlässigkeit der generierten Daten sicherzustellen, indem Daten mithilfe von Blockchain-Techniken über das verteilte Blockchain-Ledger erzeugt werden. In der Herstellungsphase wird Secure Socket Layer (SSL), auch digitale Zertifikate genannt, auch verwendet, um verschlüsselte Verbindungen zwischen dem Browser oder dem Computer des Benutzers und dem Server oder der Website herzustellen. SSL-Verbindungen schützen sensible Daten, die in jeder Sitzung ausgetauscht werden, vor Störungen durch nicht autorisierte Benutzer. Entwerfen Sie eine Verwaltungsplattform, die die Integrität gespeicherter Daten über die vorgeschlagene SSL und Blockchain überprüfen kann. In Echtzeit aus dem System gesammelte Tester bieten Integrität für die Berechnung der CO2-Emissionen. Sie haben die Möglichkeit, den Personal- und Zeitaufwand für die aktuelle erste und zweite Prüfungsphase drastisch zu reduzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58802-1_46 caa03a538096cc4875fbbb0d34067434;de;;;5.1.;;;Das Lernen schlägt wieder zu: Der Fall des DRS-Signaturschemas Gittersignaturschemata erfordern im Allgemeinen besondere Sorgfalt, wenn es darum geht zu verhindern, dass geheime Informationen durch das Signaturtranskript durchsickern. Beispielsweise wurden das Goldreich-Goldwasser-Halevi (GGH)-Signaturschema und das NTRUSign-Schema durch den Parallelepiped-Learning-Angriff von Nguyen und Regev (Eurocrypt 2006) vollständig gebrochen. Mehrere heuristische Gegenmaßnahmen erwiesen sich ebenfalls als anfällig für ähnliche statistische Angriffe. Auf der PKC 2008 schlugen Plantard, Susilo und Win eine neue Variante von GGH vor und argumentierten informell gegen solche Angriffe. Basierend auf dieser Variante schlugen Plantard, Sipasseuth, Dumondelle und Susilo ein konkretes Signaturschema namens DRS vor, das sich in der ersten Runde des NIST-Post-Quanten-Kryptografie-Projekts befindet. In dieser Arbeit schlagen wir noch einen weiteren statistischen Angriff vor und zeigen eine Schwäche des DRS-Schemas: Aus genügend vielen Signaturen kann man einige Teilinformationen des geheimen Schlüssels wiedergewinnen. Eine Schwierigkeit besteht darin, dass aufgrund des DRS-Reduktionsalgorithmus die Beziehung zwischen dem statistischen Leck und dem Geheimnis komplizierter erscheint. Wir umgehen diese Schwierigkeit, indem wir ein statistisches Modell trainieren, indem wir einige Funktionen verwenden, die wir gemäß einer einfachen heuristischen Analyse entworfen haben. Während wir nur teilweise geheime Koeffizienten wiederherstellen, können diese Informationen leicht von Gitterangriffen ausgenutzt werden, wodurch ihre Komplexität erheblich verringert wird. Konkret behaupten wir das, sofern;-;-;-;https://link.springer.com/article/10.1007/s00145-020-09366-9 6cab081c1647c486000b068a074c44dc;de;;;5.1.;;;Ein mit Wavelet-Transformation angewendeter Spektralindex zur effektiven Extraktion von Gewässern aus Satellitenbildern mit mittlerer Auflösung Der Ausbruch der Verschmutzung durch die schnelle Urbanisierung hat zu einer enormen Bedrohung für das Ökosystem geführt, in dem die Wasserreserven stark beeinträchtigt sind. Um diese Küstenregionen, Trinkwasserressourcen und künstlichen Stauseen zu schützen, könnten die satellitenbildbasierten Überwachungsmodelle eingesetzt werden. Um solche Modelle mit Daten mittlerer Auflösung zu entwickeln, wäre die Extraktion von Wasserkörpern aus der großen Landbedeckung komplexer. Diese Einschränkung der effektiven Extraktion von Wasserkörpern wurde in diesem Artikel durch die Kombination von Wavelets und Bildtransformationsmethoden angegangen. Ein neuartiger Wavelet-basierter Wasserindex (WaWI) wurde vorgeschlagen, und die erzielten Ergebnisse werden quantitativ sowohl mit den spektral- als auch mit Cluster-basierten Wasserkörperextraktionsergebnissen wie dem Normalized Difference Moisture Index (NDMI), Modified Normalized Difference Moisture Index ( MNDMI) und K-means Clustering-basierte Wasserkörperextraktion unter Verwendung der Image Quality Assessment Metriken wie Korrelationskoeffizient, struktureller Ähnlichkeitsindex (SSIM) und Jaccards Ähnlichkeitsmaße. Die erzielten Ergebnisse rechtfertigen zutiefst die Wirksamkeit des WaWI bei der Gewässerextraktion.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-24178-0_12 2137ca81fd94eaccc5ebc089ab1ac1aa;de;;;5.1.;;;Ideenskizze zum Anwendungsservice von e-Business Card und NFC basierend auf Mobile Heutzutage wurden alle Computerressourcen, Computerumgebungen und Online-Anwendungsdienste in eine Computerumgebung auf Basis von Mobilgeräten verschoben. In Zukunft können insbesondere Mobiltelefone ein starkes Gerät sein, das nicht nur Computer unterstützt, sondern auch eng mit der Privatsphäre verbunden ist. In diesem Artikel skizzieren wir einige Ideen für verschiedene Anwendungsdienste, die e-Visitenkarten und NFC von Objekten in einer mobilen Umgebung verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27210-3_8 409666dab47d7b76b5c5fb020f73f674;de;;;5.1.;;;Verbesserte Orientierungsschätzung für Texturebenen mit mehreren Fluchtpunkten Fluchtpunktpositionen spielen eine entscheidende Rolle bei der Bestimmung der perspektivischen Pose von texturierten Ebenen. Wenn jedoch nur ein einzelner Punkt verfügbar ist, ist das Problem unbestimmt. Die Neigungsrichtung muss mit Zusatzinformationen wie dem Texturgradienten berechnet werden. In diesem Beitrag beschreiben wir eine Methode zur Mehrfach-Fluchtpunkt-Erkennung und damit zur vollständigen perspektivischen Posenschätzung, die die Berechnung des Texturgradienten überflüssig macht. Das Verfahren basiert auf lokaler Spektralanalyse. Es macht sich die Tatsache zunutze, dass die spektrale Orientierung entlang von Linien, die vom Fluchtpunkt auf der Bildebene ausstrahlen, gleichmäßig ist. Wir experimentieren mit der neuen Methode sowohl an synthetischen als auch an realen Bildern. Dies zeigt, dass das Verfahren genaue Posenwinkelschätzungen liefert, selbst wenn der Neigungswinkel groß ist.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48375-6_61 c2b4ca900a576646de212299d4ef0447;de;;;5.1.;;;Wert der bildbasierten Ertragsprognose: Multi-Location-Newsvendor-Analyse Stellen Sie sich ein landwirtschaftliches Verarbeitungsunternehmen vor, das vor einer Erntesaison Erntegut von verschiedenen Standorten vorkaufen möchte, um den erwarteten Gesamtgewinn aus allen Outputs zu maximieren, die mehreren Ressourcenbeschränkungen unterliegen. Die Erträge für verschiedene Outputs sind zufällig und hängen vom Standort ab. Durch die Fernerfassung von Satelliten oder die lokale Erfassung von unbemannten Luftfahrzeugen kann das Unternehmen zum Zeitpunkt des Vorkaufs ein bildbasiertes Ertragsvorhersagemodell verwenden. Die Verteilung des Ertrags unterscheidet sich je nach Standort. Mit den erfassten Daten aktualisiert das Unternehmen die Ertragsverteilung mithilfe eines Regressionsmodells, dessen erklärende Variable ein Vegetationsindex aus der Bildverarbeitung ist. An einem günstigeren Standort ist die Verteilung der Rendite stochastisch größer. Das Ziel dieser Arbeit ist es, den Mehrwert der Bilderfassung bei der Vorhersage des Ernteertrags zu quantifizieren. Insbesondere wird die Posterior-Ertragsverteilung aus der Bildverarbeitung als Eingabe für das Multi-Location-Newsvendor-Modell mit zufälligen Renditen verwendet. Der optimale erwartete Gewinn bei der Nachverteilung wird mit dem nur bei der vorherigen Verteilung des Ertrags verglichen. Die Differenz zwischen den erwarteten Gesamtgewinnen mit der vorherigen und der hinteren Verteilung wird als Wert der Stichprobeninformationen definiert. Wir leiten die Fehler vom Typ 1 und 2 als Funktion des Standardfehlers der Schätzung ab. Im numerischen Beispiel zeigen wir, dass der Wert der Stichprobeninformationen tendenziell steigt (mit abnehmender Rendite), wenn das Ertragsvorhersagemodell genauer wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37584-3_1 3b9d53ccc4022a8aec6a399940303c4b;de;;;5.1.;;;Fernerfasster Bildabruf basierend auf semantischem Mining auf regionaler Ebene Da Satellitenbilder in den letzten Jahren in einer Vielzahl von Anwendungen weit verbreitet sind, hat sich die inhaltsbasierte Bildabruftechnik zu wichtigen Werkzeugen für die Bildexploration und das Information Mining entwickelt, ihre Leistung ist jedoch durch die semantische Lücke zwischen Low-Level-Features und High-Level-Features begrenzt -Level-Konzepte. Um diese semantische Lücke zu schließen, wird in diesem Artikel ein semantischer Mining-Ansatz auf regionaler Ebene vorgeschlagen. Da es für Benutzer einfacher ist, Bildinhalte nach Region zu verstehen, werden Bilder mithilfe eines verbesserten Segmentierungsalgorithmus in mehrere Teile segmentiert, jeder mit homogenen Spektral- und Textureigenschaften, und dann wird für jedes Bild eine einheitliche regionenbasierte Darstellung erstellt. Sobald die Wahrscheinlichkeitsbeziehung zwischen Bild, Region und verborgener Semantik konstruiert ist, kann die Methode der Erwartungsmaximierung angewendet werden, um die verborgene Semantik zu ermitteln. Wir implementieren diesen Ansatz an einem Datensatz, der aus Tausenden von Satellitenbildern besteht und erreichen eine hohe Abrufpräzision, wie durch Experimente nachgewiesen.;-;-;-;https://link.springer.com/article/10.1186/1687-5281-2012-4 70470042c45e14a3f04e241ea071c6a0;de;;;5.1.;;;Nutzung von Cooperative-MIMO für eine ereignisbasierte Datenübertragung in einem drahtlosen Sensornetzwerk Eine effiziente Energienutzung ist eine herausfordernde Aufgabe im batteriebeschränkten WSN. Kooperatives MIMO (CMIMO), bei dem die Knoten kooperativ Datenpakete an die Basisstation (BS) übertragen, ist ein effizienter Weg, der zu enormen Energieeinsparungen führt. Es besteht jedoch immer noch ein Problem der Auswahl des Empfängerknotens durch die mehreren Sender. Dies kann durch eine effektive Auswahlstrategie überwunden werden, die eine End-to-End-Konnektivität sowie eine Verlängerung der Lebensdauer gewährleistet. In diesem Papier wird ein Routing Protocol (EDTRP) zur ereignisgesteuerten Datenübertragung für das Routing und die Auswahl des zentralen Knotens (CN) vorgeschlagen. Bei EDTRP sind nur die Knoten am Kommunikationsprozess beteiligt, die ein Ereignis erkennen. Wenn die von dem einzelnen Knoten erfassten Daten über einem Schwellenwert des betreffenden bestimmten physikalischen Attributs liegen, wird nur der Sender dieses Knotens eingeschaltet. Dadurch wird eine unnötige Datenübertragung vermieden, was zu Energieeinsparungen führt. Die vorgeschlagene Arbeit zeigt eine signifikante Verbesserung im Vergleich zu dem nicht kooperativen MIMO-Programm wie LEACH und Improved Vice-LEACH (V-LEACH). EDTRP zeigt eine Verbesserung von fast 211% gegenüber LEACH und 171,30% gegenüber Improved V-LEACH in Bezug auf die Halbwertszeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5546-6_56 ed8b91ef64d167c14805312906f9f659;de;;;5.1.;;;Testansätze für Webdienste: Eine Umfrage und eine Klassifizierung Die Web Services-Technologie hat in den letzten Jahren große Aufmerksamkeit erregt, da sie es Menschen ermöglicht, vorhandene Softwareanwendungen einfach zu nutzen und zu integrieren, um neue Geschäftsdienste zu erstellen. Mit dem zunehmenden Interesse und der Popularität von Webdiensten werden Webanwendungen entwickelt. Diese neue Art der Softwareentwicklung wirft neue Probleme für das Testen von Webdiensten auf, um die Qualität der Dienste sicherzustellen, die zur Laufzeit veröffentlicht, gebunden, aufgerufen und integriert werden. Das Testen von Diensten und serviceorientierten Systemen stellt traditionelle Testansätze vor neue Herausforderungen. Um diesen neuen Herausforderungen zu begegnen, wurden mehrere Testansätze für Webdienste entwickelt. Dieses Papier präsentiert eine Übersicht und eine Klassifikation der wichtigsten bestehenden Testansätze für Webdienste.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14306-9_8 70d10f1d856486bc34b4116cb287e719;de;;;5.1.;;;Untersuchung der Auswirkungen der Segmentierung auf halbstrukturierte Interviewdaten mit epistemischer Netzwerkanalyse Quantitative ethnographische Modelle werden typischerweise unter Verwendung qualitativer Daten erstellt, die segmentiert und kodiert wurden. Während es methodische Studien gibt, die die Auswirkungen von Codierungsänderungen auf Modellmerkmale untersucht haben, wurde den Auswirkungen der Segmentierung weniger Aufmerksamkeit geschenkt. Unser Ziel war es, anhand eines Datensatzes, der aus Erzählungen aus halbstrukturierten Interviews besteht, die Auswirkungen verschiedener Segmentierungsentscheidungen auf Modellmerkmale auf Bevölkerungs- und Individualebene mittels epistemischer Netzwerkanalyse zu untersuchen. Wir haben festgestellt, dass sich die Segmentierungsoptionen zwar nicht insgesamt auf die Modellmerkmale auswirken, die Auswirkungen auf einige einzelne Netzwerke jedoch erheblich sein können. Diese Studie demonstriert eine neuartige Methode zur Untersuchung und Quantifizierung der Auswirkungen von Segmentierungsentscheidungen auf Modellmerkmale.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-67788-6_6 46901a48f927326e2413a865ca472b22;de;;;5.1.;;;Zum Problem der Korrektheit und Stabilität zusammengesetzter Indizes komplexer Systeme Die Konstruktion der integralen Charakteristik des Systems kann als ein Problem der Signal-Rausch-Unterscheidung angesehen werden. Das Signal sind in diesem Fall die Gewichtungskoeffizienten der linearen Faltung von Indikatoren. Zusammengesetzte Indexgewichtungen sollten die Struktur des zu evaluierenden Systems widerspiegeln. Die erfolgreiche Anwendung der Hauptkomponentenanalyse in verschiedenen Systemstrukturbeschreibungen lässt vermuten, dass die Methode auch adäquate Ergebnisse für die Beschreibung sozialer Systeme liefert. Die Hauptkomponentenanalyse und die Faktorenanalyse bestimmen jedoch die Struktur der Hauptkomponenten und Hauptfaktoren für verschiedene Beobachtungen unterschiedlich. Der Grund dafür kann das Vorhandensein von unvermeidlichen Fehlern in den verwendeten Daten sein. Um dies zu vermeiden, wird eine Modifikation des Hauptkomponentenanalyseverfahrens unter Berücksichtigung von Fehlern in den verwendeten Daten vorgeschlagen. Eine Lösung des Problems erfordert ein detailliertes Verständnis des Einflusses von Eingabedatenfehlern auf die Parameter des berechneten Modells. Daher ist die Frage nach der Korrektheit des Problems wesentlich. Es wird eine Klärung des Konzepts der Berechnung der Qualitätsänderungen eines zusammengesetzten Indexproblems vorgeschlagen. Die Folge der Stabilität ist im Durchschnitt eine geringfügige Änderung (Inkrement) des Objekt-Ranks für verschiedene Messungen. Dieses Inkrement kann a posteriori unter Verwendung einer Reihe von Beobachtungen des vorgeschlagenen Varianzkriteriums geschätzt werden. Die Ergebnisse der verschiedenen Bewertungsstabilität des zusammengesetzten Index gemäß diesem Kriterium werden präsentiert. Die nach der Methode des Autors berechneten Integralindikatoren weisen eine gute Stabilität auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-46895-8_21 bbe1351a3757c238876d6f7d6041ced3;de;;;5.1.;;;Effizientes, überprüfbares Sharing von Multi-Secrets basierend auf dem Y.C.H-Schema In diesem Papier schlagen wir ein effizientes, überprüfbares Protokoll für die gemeinsame Nutzung von mehreren Geheimnissen vor, das auf einem identitätsbasierten Signaturschema basiert und Identitäten für seine Teilnehmer verwendet. Das Schema nutzt die Vorteile des identitätsbasierten Signaturschemas und der Hash-Funktion für die Verifizierbarkeit, die nicht viel Berechnung erfordert. Es überprüft entweder die Ehrlichkeit des Händlers oder des Teilnehmers, dh ein korrupter Händler kann ein gefälschtes Geheimnis preisgeben oder ein Teilnehmer kann den anderen Teilnehmern in der Rekonstruktionsphase eine gefälschte Aktie zur Verfügung stellen. In den zuvor vorgeschlagenen Schemata konnten Händler [15] (oder) Teilnehmer [12,16] vor der geheimen Verteilungsphase sicher miteinander kommunizieren, um geheime Schatten zu senden, und sie verwendeten Exponentialfunktionen zur Verifizierung. In unserem Schema benötigen wir keine vorgesicherte Kommunikation zwischen einem Händler und den Teilnehmern, obwohl wir für den Verteilungszweck einen Zwei-Variablen-Weg verwenden, aber wir verhindern keine Exponentialfunktionen für die Verifizierungsphase. Unser Schema widersteht dem Betrugsverhalten eines Händlers/Teilnehmers effizient.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44893-9_9 c45950e27c9f6c52e1946ac54c389752;de;;;5.1.;;;Bedrohungen des Datenschutzes und der Sicherheit von Informationen in sozialen Netzwerken: Ein Rückblick Dieses Übersichtspapier ist ein Versuch, die entstehenden Bedrohungen für den Datenschutz und die Sicherheit von Informationen in der attraktiven Umgebung sozialer Netzwerke abzudecken, die eine reiche Fundgrube an persönlichen Benutzerdaten darstellt. Zunächst wird in dem Papier der Datenschutz diskutiert, während in der einschlägigen Literatur viele Untersuchungen zum Datenschutz in sozialen Netzwerken gefunden wurden, sind jedoch weitere Anstrengungen erforderlich, insbesondere im Hinblick auf Datenlecks, die jeder Einheit passieren, einschließlich Benutzer sozialer Netzwerke, Dienstanbieter, Dritte und externe Parteien und wie Datenverknüpfungen diesen Parteien nützliche Informationen liefern können. Zweitens diskutiert der Beitrag die Informationssicherheit mit Fokus auf die Bedrohungen durch das Social Engineering, während in der einschlägigen Literatur viele Versuche zu Social Engineering im Internet im Allgemeinen gefunden wurden, aber nur wenige Ansätze das Thema im Umfeld sozialer Netzwerke behandeln. In diesem Papier werden Bedrohungen durch gefälschte Konten, Identitätsdiebstahl und Spear-Phishing speziell in den sozialen Netzwerken erörtert. Darüber hinaus stellt das Papier die Rollen von Nutzern sozialer Netzwerke und Dienstanbietern dar, um den Datenschutz zu schützen und Bedrohungen für die Informationssicherheit zu verhindern. Dieses Übersichtspapier ist ein Versuch, eine Richtlinie für aktuelle Datenschutz- und Sicherheitsbedrohungen in sozialen Netzwerken zu werden und den Forschern den Weg zu ebnen, in zukünftigen Arbeiten weitere Lösungen für diese Bedrohungen zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2693-0_26 1768303fc9cf794810d59d1efbdde947;de;;;5.1.;;;Multi-Fokus-Fusion mit Image Matting und geometrischem Mittelwert der DCT-Varianz Optische Linsen, die in den meisten Abbildungsgeräten eingebaut sind, leiden unter der begrenzten Schärfentiefe, aufgrund derer Objekte mit unterschiedlicher Schärfe und Details abgebildet werden, wodurch wesentliche Informationen verloren gehen. Um dieses Problem zu lösen, wird in diesem Artikel eine effektive Multifokus-Fusionstechnik vorgeschlagen, die auf einem Fokusmaß basiert, das aus den statistischen Eigenschaften eines Bildes und seinen DCT-bandpassgefilterten Versionen erhalten wird. Die erhaltenen Fokusinformationen werden schließlich unter Verwendung grundlegender Bildverarbeitungsoperationen in eine Entscheidungstrimap umgewandelt. Diese Trimap unterscheidet weitgehend zwischen den fokussierten und defokussierten Pixeln und beschleunigt den Fusionsprozess, indem sie als Eingabe für einen robusten Bildmattierungsrahmen dient, um eine endgültige Entscheidungskarte zu erhalten. Experimentelle Ergebnisse veranschaulichen die Überlegenheit des vorgeschlagenen Ansatzes gegenüber anderen konkurrierenden Multifokusmethoden in Bezug auf visuelle Qualität und Fusionsmetriken.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1086-8_19 00e5de10cdb880951a23ddab9d8c4eaa;de;;;5.1.;;;Beschreibung der Fahrzeugtrajektorie für die Erkennung von Verkehrsereignissen Die Flugbahn bewegter Objekte ist ein wichtiges Merkmal für die Ereigniserkennung in der intelligenten Videoüberwachung. In diesem Beitrag wird ein neuartiges Verfahren zur Trajektorienbeschreibung vorgeschlagen, um das semantische Modell für die automatische Erkennung von Verkehrsverstößen zu erstellen. Zunächst klassifizieren wir eine Trajektorie mithilfe von Polynomanpassung in zwei Formen: Gerade und Parabel, die verwendet wird, um den Routentyp des Fahrzeugs zu bestimmen: gerade, Links-/Rechtskurve oder Kehrtwende. In der Zwischenzeit wird auch ein Gebietsbeschreibungsschema entwickelt, um den Weg zu untersuchen, den ein Fahrzeug durchfahren hat, das als Beweis für die Entscheidung über ein Verkehrsereignis verwendet werden kann. Die Ergebnisse der Experimente zeigten, dass das vorgeschlagene Schema effizienter und genauer war als das traditionelle MPEG-7-Verfahren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34595-1_32 716d5e53cf0a5b2ebab5cf1e11995f94;de;;;5.1.;;;Forschung zur mongolisch-chinesischen maschinellen Übersetzung, kommentiert mit Gated Recurrent Unit Part of Speech Mit der Entwicklung und dem Fortschritt der Informationstechnologie ist die Übersetzung zwischen verschiedenen Sprachen besonders wichtig geworden. Die statistische maschinelle Übersetzung kann mit statistischen Analysemethoden ein relativ genaues Zielwort vorhersagen, aber sie kann keine viel bessere Übersetzung erzielen, da sie die semantischen Kontextinformationen der ausgangssprachlichen Wörter nicht vollständig verstehen kann. Um dieses Problem zu lösen, könnte das Modell des mongolisch-chinesischen maschinellen Übersetzungssystems basierend auf der neuronalen Netzstruktur GRU (Gated Recurrent Unit) und der Verwendung eines globalen Aufmerksamkeitsmechanismus konstruiert werden, um zweisprachige Ausrichtungsinformationen zu erhalten. Beim Aufbau eines Wörterbuchs werden die zweisprachigen Wörter mit Anmerkungen versehen, um die Ausrichtungswahrscheinlichkeit weiter zu verbessern. Das Forschungsergebnis zeigt, dass der BLEU-Wert im Vergleich zu früheren Benchmark-Forschungen und traditionellen statistischen maschinellen Übersetzungsverfahren sicherlich gefördert und verbessert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-01174-1_16 76da5e6eae2a662cab4f096fc5c619db;de;;;5.1.;;;Einführung eines Vektorraummodells zur Durchführung einer proaktiven Kreditbewertung Viele maßgebliche Studien berichten, dass die Verbraucherkredite in den letzten Jahren im Vergleich zum Vorjahr gestiegen sind, was die Entwicklung von Instrumenten erforderlich macht, die die Finanzakteure bei einigen entscheidenden Aufgaben unterstützen können. Die wichtigste davon ist, die Kreditanträge aufgrund der ihnen zur Verfügung stehenden Kundeninformationen als zuverlässig oder unzuverlässig einzustufen. Solche Kreditscoring-Instrumente ermöglichen es den Betreibern, die finanziellen Verluste zu reduzieren, und spielen daher eine sehr wichtige Rolle. Der Entwurf effektiver Kreditscoring-Modelle ist jedoch keine leichte Aufgabe, da er mit einigen Problemen konfrontiert ist, darunter vor allem das Datenungleichgewicht im Modelltraining. Dieses Problem entsteht, weil die Zahl der Ausfallfälle in der Regel viel geringer ist als die der Nicht-Ausfallfälle und diese Art der Verteilung die Effektivität der zur Definition dieser Modelle verwendeten Ansätze nach dem Stand der Technik verschlechtert. Dieses Papier schlägt einen neuen linearen Abhängigkeitsbasierten (LDB)-Ansatz vor, der in der Lage ist, ein Kreditbewertungsmodell zu erstellen, indem nur die vergangenen Nicht-Ausfallfälle verwendet werden, wobei sowohl die unausgewogene Klassenverteilung als auch die Kaltstartprobleme überwunden werden. Es basiert auf dem Konzept der linearen Abhängigkeit zwischen den Vektordarstellungen der Vergangenheit und neuen Kreditanträgen und bewertet es im Kontext einer Matrix. Die Experimente, die unter Verwendung von zwei realen Datensätzen mit einer stark unausgeglichenen Datenverteilung durchgeführt wurden, zeigen, dass der vorgeschlagene Ansatz eine Leistung erreicht, die näher oder besser ist als die eines der besten modernen Ansätze der Kreditbewertung, wie z Wälder, auch wenn nur vergangene Nicht-Standard-Fälle verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99701-8_6 fa9501497b8ef50bb4262c85e9b9454c;de;;;5.1.;;;Nichtlineare kontextuelle Gesichtshalluzination Gesichtshalluzination, die sich auf die Wiederherstellung einzelner oder mehrerer niedrigaufgelöster Gesichtsbilder in klare hochauflösende Bilder bezieht, ist ein herausforderndes Forschungsthema. Die meisten existierenden Verfahren verwenden lokale oder globale Patches zur Bilddarstellung und erzielen eine gute Leistung. Sie ignorieren jedoch, dass der lokale Patch den Bereich des rezeptiven Felds begrenzt und die bei der Rekonstruktion verwendeten Priori-Informationen begrenzt sind. Und der globale Patch erweitert das rezeptive Feld, führt jedoch irrelevante Informationen ein, um die Rekonstruktionsleistung zu verschlechtern. Um die Rekonstruktionsleistung zu verbessern, schlagen wir eine nichtlineare kontextuelle Gesichtshalluzinationsmethode vor. Erstens können kontextbezogene Informationen den rezeptiven Feldbereich effektiv verbessern, um die Priori-Informationen vollständig zu nutzen. Dann kann das nichtlineare Modell das vorgeschlagene Modell für die praktische Anwendung geeigneter machen und die Korrelation von Daten im Kernelraum kompakter machen. Schließlich kann das Kombinieren von Kontext- und Restlernen die Stabilität der Lösung des Superauflösungsmodells und die Genauigkeit der Rekonstruktionsleistung verbessern. Die experimentellen Ergebnisse zeigen, dass die vorgeschlagene Methode der Gesichtshalluzination eine bessere Leistung als die Methode nach dem Stand der Technik aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-8138-6_21 d5e67d7634d59cef6585ab5dfcad8fae;de;;;5.1.;;;Generische 3D-Faltungsfusion für die Bildwiederherstellung Auch im Bereich der Bildwiederherstellung wurden in letzter Zeit spannende Fortschritte erzielt, insbesondere bei der Bildentrauschung und der Einzelbild-Superauflösung. Dazu haben Deep-Learning-Techniken maßgeblich beigetragen. Die Top-Methoden unterscheiden sich in ihren Formulierungen und Annahmen. Selbst wenn ihre durchschnittliche Leistung ähnlich ist, funktionieren einige bei bestimmten Bildtypen und Bildbereichen besser als andere. Diese Komplementarität motivierte uns, eine neuartige 3D-Convolutional Fusion (3DCF)-Methode vorzuschlagen. Im Gegensatz zu anderen Methoden, die an unterschiedliche Aufgaben angepasst sind, verwendet unsere Methode die exakt gleiche Faltungsnetzwerkarchitektur, um sowohl die Bildentrauschung als auch die Einzelbild-Superauflösung zu behandeln. Unsere 3DCF-Methode erzielt erhebliche Verbesserungen (0,1 dB–0,4 dB PSNR) gegenüber den modernen Methoden, die sie für beide Aufgaben auf Standard-Benchmarks fusioniert. Gleichzeitig ist das Verfahren noch recheneffizient.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-54407-6_11 3d8583ee41f947f3f8c3756b2573a43a;de;;;5.1.;;;Analyse von Fahrzeuglagerungs- und Verbreitungsdiensten basierend auf Floating Content Floating Content ist ein attraktives Modell für die Bereitstellung und den Austausch von Informationen zwischen mobilen Geräten auf vollständig dezentrale Weise. Für Fahrzeuganwendungen im Stadtmaßstab hat das Modell viele Anwendungen. In diesem Beitrag führen wir eine Analyse der Machbarkeit eines solchen Modells durch, um den Austausch und die Verbreitung lokalisierter Informationen unter Verwendung realistischer Mobilitätsspuren in zwei verschiedenen Städten zu unterstützen. Wie unsere experimentellen Ergebnisse zeigen, wird die Durchführbarkeit in urbanen Umgebungen von mehreren Faktoren beeinflusst. Eine hohe Dichte innerhalb der Ankerstelle erhält die Lebensdauer der Informationen unabhängig von der Radiusgröße. Ein großer Radius kann mehr Fahrzeuge gruppieren und erhöht somit die Wahrscheinlichkeit des Schwebens. Die Funkreichweite kann sich auch auf den Informationsaustausch auswirken. Eine kleine Funkreichweite im Vergleich zum Informationsverfügbarkeitsbereich kann die Anwendung daran hindern, Inhalte in der gesamten Zone zu verbreiten und sich auf die Fahrzeugdichte zu verlassen. Für all dies liefern wir experimentelle Beweise.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16292-8_28 5bf152b1cb947b9eeceea81391defdf3;de;;;5.1.;;;Wie „VKontakte“-Fake-Accounts das soziale Netzwerk der Nutzer beeinflussen In diesem Beitrag wird das Problem gefälschter Accounts in sozialen Online-Netzwerken unter dem Blickwinkel der daraus resultierenden falschen Darstellungen der Struktur der Netzwerkinteraktionen zwischen Benutzern behandelt. Das Studium eines Netzwerks als sozialer Raum wird durch zusätzlichen Lärm durch Fakes erschwert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-02843-5_41 a5fcd45c4fdc12d8106f4b69bafd9f4c;de;;;5.1.;;;Eine Big-Data-Analyse der Verbreitung von Katastropheninformationen in Südkorea Während der Katastrophenperioden wird eine große Menge an Informationen erstellt und online über Nachrichtenmedien-Sites und andere Web 2.0-Tools wie Twitter, Diskussionsforen, Online-Communitys und Blogs verbreitet. Während Wissenschaftler aktiv über Informationsverbreitungsmuster während der Katastrophen diskutieren, untersuchte diese Studie, wie Einzelpersonen die verschiedenen Formen des Internets nutzten, um relevante Informationen zu generieren. Anhand einer Big-Data-Analyse von 3.578.877 Online-Dokumenten, die jeweils über 50 Tage zum Erdbeben von Gyeongju und MERS gesammelt wurden, ergaben unsere Ergebnisse, dass 1. die Menge an Informationen und ihre Verteilung durch Online-Plattformen zwischen zwei Katastrophenfällen signifikant unterschiedlich sind, 2. Der Anteil der täglich generierten Dokumente während der Katastrophenperioden zeigte bei jedem Katastrophenfall unterschiedliche Muster. 3. Während die Menge der täglich generierten Informationen während des Erdbebenfalls von Gyeongju allmählich abnahm, nahmen die Informationen, die von Nichtmedien-Sites gesammelt wurden, während der MERS-Periode zu . Die Ergebnisse zeigen, dass Einzelpersonen das Internet je nach Art der Katastrophe unterschiedlich nutzen können, um mit katastrophenbezogenen Informationen umzugehen. Daher würde ein einfaches Modell das Muster der Online-Informationsverbreitung während der Katastrophe nicht genau vorhersagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-02843-5_37 87760bef9e645314d8e51e68638d158a;de;;;5.1.;;;Entscheidende Barrieren der Wissensgesellschaft Moderne Informationstechnologien bieten zumindest im Prinzip viele spannende Möglichkeiten. Eine davon ist das Konzept der Wissensgesellschaft (KS). Praktische Ergebnisse von KS werden jedoch durch nicht-technische Beschränkungen, insbesondere durch die gesetzlichen Verbote der Nutzung vorhandener Daten, der Datenrecherche und -erhebung sowie der daraus berechneten Informationen und Erkenntnisse erheblich eingeschränkt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16324-1_10 3ed00bc60b441a830007064840d0f71b;de;;;5.1.;;;Domatic Partition in homogenen drahtlosen Sensornetzwerken In drahtlosen Sensornetzwerken besteht zum Ausgleichen des Energieverbrauchs von Knoten und damit zur Maximierung der Lebensdauer der Netzwerke eine wichtige Technik darin, dominierende Sätze periodisch zu rotieren. Diese Technik kann als domatisches Partitionierungsproblem (DP) abstrahiert werden, das das Problem der Partitionierung der Menge von Knoten in Netzwerken in disjunkte dominierende Mengen ist. Durch periodisches Rotieren jedes dominierenden Satzes von DP kann der Energieverbrauch der Knoten weitgehend ausgeglichen und die Lebensdauer der Netzwerke verlängert werden. In diesem Beitrag stellen wir für homogene drahtlose Sensornetzwerke eine Zellstruktur vor, die wie folgt aufgebaut ist. Zuerst wird das Netzwerk in Cluster unterteilt, und dann wird in jedem Cluster eine Clique aufgebaut. Basierend auf der Zellstruktur schlagen wir einen zentralisierten Nukleus-Algorithmus für DP vor, der als zentralisierter Nukleus-Domatic-Partition-(CNDP)-Algorithmus bezeichnet wird. Wir zeigen, dass der Algorithmus den Energieverbrauch durch Schlafplanung ausgleicht und die Lebensdauer der Netzwerke basierend auf der Domazahl maximiert. Durch die Analyse ist die domatische Zahl des Algorithmus;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-21837-3_50 bb5cd7fc55d99bdf9570ef4a921292b8;de;;;5.1.;;;Anwendungen eines Nummerierungsschemas für polygonale Hindernisse in der Ebene Wir präsentieren effiziente Algorithmen für das Problem der Übereinstimmung roter und blauer disjunkter geometrischer Hindernisse in der Ebene und der Verbindung der übereinstimmenden Hindernispaare mit sich gegenseitig nicht schneidenden Pfaden, die nützliche geometrische Eigenschaften haben. Wir betrachten zuerst das Matching;-;-;-;https://link.springer.com/chapter/10.1007/BFb0009476 5e0e353247d637abc4aae61fd519eb07;de;;;5.1.;;;Lösung zur Entscheidungsunterstützung bei der Ermittlung von Reparaturmaßnahmen mit Fuzzy-Logik und Agentensystem Der Beitrag beschreibt den Aufbau einer Entscheidungsunterstützung für den Instandhaltungs- und Reparaturprozess von Industrieanlagen (MR) auf Basis von Multi-Agenten-Systemen und Fuzzy-Logik auf Basis neuronaler Netze. Die Lösungen der grundlegenden Subsysteme und Interaktionsmechanismen des Agentensystems werden beschrieben. Die Phasen des kontinuierlichen Verbesserungsprozesses der Instandhaltungs- und Reparaturorganisation werden beschrieben. Das Multi-Agenten-Systemmodell wurde am Beispiel der Straßenausrüstungsreparatur entwickelt und untersucht. Die erhaltenen Ergebnisse ermöglichen es, die Wartung und Reparatur der Ausrüstung viel besser durchzuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11854-3_46 0042f390d281bb5be33f534fd1bb95f6;de;;;5.1.;;;Asymmetrische Mehrparteien-gesteuerte Teleportation beliebiger n-Qudit-Zustände unter Verwendung verschiedener Quantenkanäle Wir präsentieren zwei Schemata für die asymmetrische Mehrparteien-gesteuerte Teleportation eines beliebigen n-Qudit-Zustands unter Verwendung verschiedener Quantenkanäle zwischen dem Sender Alice und den Controllern, wobei das erste Schema die verallgemeinerten Bell-Zustände im d-dimensionalen Hilbert-Raum als Quantenkanäle nutzt und die Das zweite Schema verwendet die verallgemeinerten, maximal verschränkten GHZ-Zustände als Quantenressourcen. Außerdem teilt Alice n verallgemeinerte Bell-Zustände mit dem Empfänger Bob in zwei Schemata. Um zu vermeiden, dass Drei-Partikel- oder Mehr-Partikel-Joint-Messungen durchgeführt werden und mehr Qudits der maximal verschränkten Mehrpartikel-Zustände verbraucht werden, führt Alice die verallgemeinerten CNOT-Gatter-Operationen ein und erzielt dann eine höhere Kommunikationseffizienz als die vorherigen Schemata basierend auf Verschränkungsaustausch.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24999-0_47 ae04b294d54f9f14a31f4fede5ebd6af;de;;;5.1.;;;Fehlerdiagnose eines Pneumatikventils mit PCA- und ANN-Techniken Die Erkennung und Diagnose von Fehlern in pneumatischen Ventilen, die in Kühlwassersprühsystemen in der Zementindustrie verwendet werden, sind von großer praktischer Bedeutung und von größter Bedeutung für den sicheren Betrieb der Anlage. In diesem Beitrag werden Techniken zur Dimensionsreduktion wie die Hauptkomponentenanalyse (PCA) verwendet, um die Eingabemerkmale zu reduzieren. PCA wird verwendet, um die Hauptmerkmale des pneumatischen Ventils zu extrahieren, das in einem Kühlwassersprühsystem verwendet wird. Die Trainings- und Testdaten, die für die Dimensionsreduktionstechnik wie das PCA-Modell erforderlich sind, wurden unter normalen und fehlerhaften Bedingungen des Pneumatikventils in einem Echtzeit-Laborversuchsaufbau erstellt. Die Leistung des entwickelten PCA-Modells wird mit dem durch den Backpropagation-Algorithmus trainierten MLFFNN (Multilayer Feed Forward Neural Network) verglichen. Aus den Simulationsergebnissen wird beobachtet, dass die Leistung von PCA die besten Klassifikationseigenschaften aufweist, wenn sie mit der Leistung von KNN verglichen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24043-0_41 834183d3f5681cb1b8a744aaf3cc95de;de;;;5.1.;;;Datenschutz und Facebook-Studentengemeinschaften für Geständnisse und Geheimnisse: Der griechische Fall Communities auf Facebook (FB) bieten ihren Mitgliedern die Möglichkeit, sich frei auszudrücken und persönliche Informationen anonym zu teilen. Es ist bekannt, dass Menschen in Bezug auf eine Reihe persönlicher Probleme im wirklichen Leben nur ungern diskutieren, da sie Arten der informellen Kontrolle befürchten, die von anderen Menschen auf sie ausgeübt werden könnten. Im digitalen Leben hingegen soll Anonymität die Privatsphäre gewährleisten und die Offenlegung der innersten Gedanken, Gefühle und Sorgen ohne die Einschränkungen informeller sozialer Kontrolle erzwingen. In dieser Studie untersuchen wir den Fall von 20 neu gebildeten vernetzten FB-Studentengemeinschaften. Obwohl das Ziel der Gemeinschaften darin besteht, den Schülern die Möglichkeit zu geben, sich frei zu äußern, zeigt die Forschung, dass die Rede der Mitglieder kritisiert wird und ihre erklärten Verhaltensweisen (online) gemäß den vorherrschenden sozialen Normen gekennzeichnet werden, wobei Standardtypen informeller sozialer Kontrolle hervorgehoben werden, sowie latente Typen. Die Studie wird mit der Methode der kritischen Diskursanalyse durchgeführt, die der Schaffung klarer beschreibender und erklärender Kategorien dient, was dazu führte, dass wir zwei konzeptionelle Entitätsdatenmodelle zu den Beiträgen von Administratoren und Benutzern konstruierten. Die Websites von FB-Communitys erfüllen nicht nur die technischen Anforderungen in Bezug auf den Datenschutz nicht, sondern es sollten auch neue sozio-technische Aspekte berücksichtigt werden, wenn gegen die Offenlegung personenbezogener Daten verstoßen wird. Unsere Forschung zeigt die Notwendigkeit neuer Anforderungen, die den Datenschutzanforderungen gerecht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27164-4_6 5853ff5c743f1376efd4a34df858a892;de;;;5.1.;;;Ein Verfahren zur Quantisierung von Farbbildern, das für die Füllfarbbildproduktion verwendet wird In diesem Artikel wird ein einfaches Verfahren zur Quantisierung von Farbbildern beschrieben, um den Herstellungsprozess von Füllfarbbildern zu vereinfachen, was den Designern viel mehr Auswahl und Zeit spart. Zunächst sollte das für die Produktion vorbereitete Bild gefiltert werden, um das Rauschen und einige Details zu beseitigen, die nicht zum Malen im Bild geeignet sind, und die in den Bildern erscheinenden Farben für die weitere Analyse berechnet werden. Dann wird das K-means-Verfahren durchgeführt, um die aus der vorherigen Berechnung erhaltenen Farben zu clustern, und die Anzahl der Clusterzentren, die für den K-means-Prozess sehr wichtig ist, ist gleich den vom Hersteller geforderten Farbkategorien. Der Farbwert wird vom RGB-Farbraum in den HSB-Farbraum umgewandelt, um die Abstandsparameter während des K-Means-Prozesses und des Farbabstimmungsprozesses zu berechnen, und das Endergebnis hat bewiesen, dass dieser Prozess dem Designer vorgeschlagen werden kann, um den Entwicklungsprozess des Füllen von Farbbildprodukten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23223-7_51 12e879102364e5eda9aa6db46c4c2b3c;de;;;5.1.;;;Abschätzung von Fahrzeiten und Identifizierung von Verkehrsüberschüssen auf Straßen Mit Hilfe des Forschungsprojekts SATEL haben wir eine Analyse der ausgewählten Straße im Prager Straßennetz durchgeführt, die auf die automatische Erkennung von Verkehrsüberschreitungen (AID) und die Schätzung der Fahrzeiten auf dem städtischen Straßennetz abzielte. Für die Datensammlung waren zwei Arten von Verkehrsdetektoren vorgesehen – statische Daten von Schleifen, Videodetektion usw. und Daten von schwimmenden Autos. Das Projekt führt eine neue Methode zur Gewinnung von Verkehrsdaten ein, die geschätzte Reisezeiten durch Datenfusion von schwimmenden Autos und Verkehrsstraßendetektoren aus dem Online-Verkehr und Kalibrierung durch historische Daten umfasst. Das vorgeschlagene Modell verwendet die realen Daten von Verkehrsdetektoren mit schwimmenden Autos und hat seine Stärke und Anwendung auch für die Schätzung von Verkehrsüberschreitungen und Fahrzeiten auf dem Straßennetz bewiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45317-9_18 d01920ea878fc2065299aebf47b2f420;de;;;5.1.;;;Ein Überblick über statische Analyseansätze für Programmierübungen Statische Quellcodeanalyse ist ein übliches Merkmal in automatisierten Benotungs- und Tutorsystemen für Programmierübungen. Dabei kommen unterschiedliche Ansätze und Instrumente zum Einsatz, die jeweils individuelle Vor- und Nachteile haben, die einen direkten Einfluss auf die Qualität des Assessment-Feedbacks haben. In diesem Beitrag werden verschiedene prinzipielle Ansätze und verschiedene Werkzeuge zur statischen Analyse vorgestellt, bewertet und hinsichtlich ihrer Nützlichkeit in Lernszenarien verglichen. Ziel ist es, einen Zusammenhang zwischen den technischen Ergebnissen der Quellcodeanalyse und dem daraus resultierenden didaktischen Nutzen für die Programmierausbildung und Feedbackgenerierung herzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08657-6_10 48c41919fca98c80cb763552f8ecf27e;de;;;5.1.;;;Clustering-Algorithmen in Bergbauventilatoren Betriebsmodus-Identifikationsproblem Die meisten Maschinen und Geräte der Mineninfrastruktur werden von einem industriellen Automatisierungssystem gesteuert. In der Praxis erfassen SCADA-Systeme (Supervisory Control And Data Acquisition) sehr oft viele Betriebsparameter, die keinen weiteren analytischen Nutzen haben. Die Variabilität der aufgezeichneten Signale hängt sehr oft von der Maschinenbelastung sowie von organisatorischen und technischen Aspekten ab. Daher können SCADA-Systeme eine praktisch kostenlose Informationsquelle sein, um KPI (z. B. Leistung, Energie und Diagnose) für ein einzelnes Objekt sowie einen bestimmten Bergbauprozess zu bestimmen. So bietet beispielsweise die Möglichkeit, anhand von SCADA-Daten unterschiedliche Betriebsmodi der Bergbau-Industrieventilatoren zuverlässig zu identifizieren, ein breites Anwendungsspektrum. Genaue Informationen zu diesem Thema könnten – abgesehen von grundlegenden Überwachungs- und Berichtsanforderungen (z. B. tatsächlicher Arbeits- vs. Zeitplanvergleich) – auch bei komplexeren Problemen wie Stromverbrauchsprognosen verwendet werden. Angesichts der Vielfalt der im Bergbau eingesetzten Industrielüfter und der unterschiedlichen erhobenen Betriebsdaten ist dies im Allgemeinen jedoch keine triviale Aufgabe. Das Hauptziel dieses Artikels ist es, zuverlässige Algorithmen bereitzustellen, die das Problem der Identifizierung des Betriebsmodus von Ventilatoren lösen, die in einer Vielzahl potenzieller Anwendungen angewendet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63119-2_6 83096a7a1c6e25a69ea5b96662e214af;de;;;5.1.;;;Ein Sliding-Mode-Ansatz für die Verkehrstechnik in Computernetzwerken In diesem Kapitel adressieren wir das Problem des optimalen Traffic Engineering (TE) in Computernetzwerken, d. h. das Bestimmen einer optimalen Verkehrszuordnung bei Vorhandensein sowohl mehrerer Pfade als auch mehrerer Dienstklassen (CoSs). Genauer gesagt zielen wir darauf ab, Gesetze zur Datenratenanpassung zu entwerfen, die die Nutzung der Netzressourcen (wie durch eine gegebene Nutzenfunktion gemessen) vorbehaltlich von Beschränkungen der Verbindungskapazität und Anrufdienstanforderungen maximieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-31597-1_6 39c79061ecb54298564245afc319683e;de;;;5.1.;;;Raumbindung für transdisziplinäre Forschung in der Pflanzenbauwissenschaft: die GRASPgfs-Initiative Das Papier zeichnet die Bemühungen von GRASPgfs (Geospatial Resource for Agricultural Species and Pests with Integrated Workflow Modeling to Support Global Food Security) zwischen mehreren Disziplinen nach, um ein gemeinsames Ziel der Förderung von Forschung und Modellsimulationen für eine nachhaltige Ernährungssicherheit zu ermöglichen. Im Rahmen dieser Bemühungen waren die Geodatenmedien der Wegbereiter für die multidisziplinäre Forschung in der Pflanzenmodellierung. Georäumliche genetische Merkmalsvariationen und Assoziationen mit Umweltvorhersagen standen im Mittelpunkt der GRASPgfs. Die Entwicklung der Plattform zur Erreichung dieses Ziels führte zu einer transdisziplinären Vision der Modellierung und Prognose für eine nachhaltige Landwirtschaft. Basierend auf Interoperabilitätsprinzipien, nahtlosem Zugriff sowie Austausch von Daten, Metadaten und Verarbeitungsmodellen wird das Design in diesem Papier beschrieben. Diese räumliche Bindung erleichtert und unterstützt neue Arten von Hypothesen und Analysen, wie in der Arbeit mit einer landschaftsgenetischen Fallstudie (Bambara-Erdnuss) und einer Modellierung von Pflanzenkrankheiten (Augenfleckenkrankheit) veranschaulicht wird. Der Ansatz und die eGRASP-Plattform sind generisch genug, um weitere Komplexität in die integrierte Modellierung aufzunehmen, die diese räumliche Bindung ermöglicht.;-;-;-;https://link.springer.com/article/10.1186/s40965-017-0034-3 ea8d3fb49eceb5301abf263ab554e1d9;de;;;5.1.;;;Auf dem Weg zu einem praktischen kognitiven Kanalzuweisungsschema Die tatsächliche Implementierung eines intelligenten Systems, das das knappe Spektrum gut verwalten und nutzen kann, ist eine große Schwierigkeit beim Einsatz von kognitivem Funk. Durch die Integration von Frequenznutzungsmerkmalen in Uganda entwickeln wir ein Hybridprotokoll, um optimale Kanäle für die Nutzung durch das kognitive Radio auszuwählen. Es nutzt die Eigenschaften der physikalischen Schicht des Signal-Interferenz- und Rauschverhältnisses und der Interferenzleistung für ältere Benutzer, um ein übergeordnetes Ziel der Maximierung des Netzwerkdurchsatzes zu erreichen. Der Fuzzy-Logik-Ansatz reduziert den Protokollstapel effektiv auf eine Hybridform, die nur die Parameter berücksichtigt, die sich direkt auf das gewünschte Ziel auswirken. Die mehreren zugehörigen Variablen können in geeigneter Weise in einer gemeinsamen linguistischen Sprache dargestellt und als Mehrzieloptimierungsproblem gelöst werden. Das resultierende Hybridprotokoll zeigt eine hohe Effizienz bei der Auswahl des Kanals und maximiert gleichzeitig den Netzwerkdurchsatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16886-9_9 5eca676b12de6147cb1185aa66bd58e6;de;;;5.1.;;;WordNet-erweiterte dynamische semantische Webservices-Erkennung Webdienste sind Softwaresysteme, die eine interoperable Maschine-zu-Maschine-Interaktion über ein Netzwerk unterstützen. Bei der Web-Service-Erkennung gibt es hauptsächlich zwei Probleme: wie man Dienste genau und feinfühlig beschreibt, um ein präzises Matchmaking zu unterstützen, und wie die Informationen von Web-Diensten gespeichert, indiziert und ausgetauscht werden, um den Umfang der Dienste-Erkennung zu erweitern und die akzeptable Verarbeitungszeit von time Service-Erkennung. In diesem Artikel haben wir eine Methode zur Erkennung von semantischen Webservices unter Verwendung der strukturierten P2P-Technologie vorgeschlagen. Der Service wird durch die Ausgabekonzepte des Servicemodells in OWL-S veröffentlicht. Die Service-Discovery ist eine zweistufige Aufgabe, Service-Lokalisierung durch Ausgabekonzepte und Service-Matchmaking durch Eingabekonzepte. Darüber hinaus haben wir die Hashing-Technologie vorgeschlagen, die auf Synsets von WordNet basiert, um das Problem des Mangels an semantischen Informationen zu überwinden und nur die genaue Suche in strukturierten P2P-Netzwerken zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24282-3_73 2865a7cd439dac0ee3d29e37aa238bdf;de;;;5.1.;;;Reduzierung von PAPR in optischen OFDM-Signalen unter Verwendung von PTS-Schemata ohne Nebeninformationen Die Kommunikation mit sichtbarem Licht bietet Bandbreiteneffizienz, sichere Kommunikation und Helligkeit sowie gleichzeitige Datenübertragung. Optisches orthogonales Frequenzmultiplexing (optisches OFDM) in VLC-Systemen kann eine hohe Informationsrate erreichen, während die Übertragung eine hohe Zuverlässigkeit über die Mehrwege-Schwundbedingung garantiert, folglich wurde es als Standardstrategie in verschiedenen Kommunikationssystemen angenommen, die drahtlos funktionieren. Zum Verringern des Spitzen-zu-Durchschnitts-Leistungsverhältnisses optischer orthogonaler Frequenzmultiplexsignale werden zwei Schemata mit partieller Sendesequenz (PTS) ohne Nebeninformation (SI) vorgeschlagen. Da eine erkennbare Phasenänderung mit den Komponenten jedes rotierenden Vektors verbunden ist, ohne SI zu übertragen, unterscheiden Sie einen rotierenden Vektor. Der Maximum-Likelihood-(ML)-Detektor wird verwendet, um SI aus dem Signal abzutrennen, das am Empfänger erhalten wird, und um den Informationsdatenstrom wiederzugewinnen. Die euklidische Trennung zwischen der Eingangsinformationssignalkonstellation und der Signalkonstellation, die unter Verwendung der Phasenverschiebungen gedreht wird, wird von diesem ML-Detektor missbraucht. Es wird erforscht, wie gute Phasenoffsets für die Implantation von SI ausgewählt werden, indem eine paarweise Fehlerwahrscheinlichkeitsprüfung (PEP) durchgeführt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3992-3_14 9f6559d2bd12c5ab8cc1613838a772ce;de;;;5.1.;;;Audiovisuelle Erkennung von spontanen Emotionen in der Wildnis In diesem Beitrag zielen wir auf die CCPR 2016 Multimodal Emotion Recognition Challenge (MEC 2016) ab, die auf der Chinese Natural Audio-Visual Emotion Database (CHEAVD) von Filmen und Fernsehprogrammen basiert, die (fast) spontane menschliche Emotionen zeigen. Als Audiomerkmale werden Low-Level-Deskriptoren (LLDs) vorgeschlagen. Als visuelle Merkmale schlagen wir die Verwendung von Histogrammen von orientierten Gradienten (HOG), lokaler Phasenquantisierung (LPQ), Formmerkmalen und verhaltensbezogenen Merkmalen wie Kopfhaltung und Blickrichtung vor. Die visuellen Merkmale werden nachbearbeitet, um die aus Nullen bestehenden Merkmalsvektorsegmente zu löschen oder zu glätten. Die einzelmodale Emotionserkennung wird unter Verwendung von vollständig verbundenen Hidden-Markov-Modellen (HMMs) durchgeführt. Für die multimodale Emotionserkennung werden zwei Schemata vorgeschlagen: im ersten Schema werden die normalisierten Wahrscheinlichkeitsvektoren von den HMMs zur endgültigen Erkennung in eine Support Vector Machine (SVM) eingegeben. Für das zweite Schema wird die endgültige Emotion unter Verwendung von Audio- oder Videomerkmalen geschätzt, abhängig davon, ob das Gesicht auf dem vollständigen Video erkannt wurde. Um die markierten Daten vollständig zu nutzen und das Problem unausgeglichener Daten zu überwinden, verwenden wir außerdem den Trainingssatz und den Validierungssatz zusammen, um die HMMs und SVMs mit Parametern zu trainieren, die durch Kreuzvalidierungsexperimente optimiert wurden. Experimentelle Ergebnisse am Testset zeigen, dass die durchschnittlichen Makropräzisionen (MAPs) der Audio-, visuellen und multimodalen Emotionserkennung erreichen;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-3005-5_57 4d08e0de9a71b8812bdb50adde187077;de;;;5.1.;;;Robuste Multi-User-Erkennung basierend auf Hybrid Grey Wolf Optimization Die Suche nach einer effektiven, von der Natur inspirierten Optimierungstechnik wird sicherlich seit Jahrzehnten fortgesetzt. In diesem Artikel wird ein neuartiger hybrider Gray-Wolf-Optimierungs- und Differentialentwicklungsalgorithmus, ein robuster Mehrbenutzer-Erkennungsalgorithmus vorgeschlagen, um das Problem einer hohen Bitfehlerrate (BER) bei der Mehrbenutzer-Erkennung in einer Umgebung mit Impulsrauschen zu überwinden. Die Simulationsergebnisse zeigen, dass die Iterationszeiten des Multi-User-Detektors basierend auf dem vorgeschlagenen Algorithmus geringer sind als die des genetischen Algorithmus, des differentiellen Evolutionsalgorithmus und des Gray-Wolf-Optimierungsalgorithmus und die niedrigere BER hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-04946-1_23 0e548447b6de9d2f943d302855ecdb72;de;;;5.1.;;;Emotionale Intelligenz von Menschen gegenüber politischen Parteien in Andhra Pradesh basierend auf Twitter-Daten Soziale Netzwerke ermöglichten einen besseren Ansatz für die Korrespondenzinnovation für Einzelpersonen, um ihre Erkenntnisse, Intrigen und Annahmen zu vermitteln. Ein riesiges Maß an unstrukturierten Informationen wird durch Online-Netzwerke wie Facebook, Twitter, LinkedIn erzeugt, die ein Lager für hilfreiche Wissensstücke sind. Die Analyse kann verbunden werden, um verschiedene wertvolle Wissensbits zu entfernen. Das Hauptziel dieses Papiers ist es, die Informationen aus wesentlichen internetbasierten Lebensinformationen herauszulösen, die Schätzungen der allgemeinen Bevölkerung zu erkennen und Maßnahmen zur Entscheidung über bewusste Entscheidungen zu treffen. Eine leistungsstarke Untersuchung der Gefühle von Einzelpersonen ist für komplexe Punkte wie Gesetzgebungsfragen, Regierung, gegenwärtige Muster und medizinische Leistungen wichtig. Diese Ziele werden durch die ständige Wiederherstellung von Twitter-Informationen erreicht. Darüber hinaus führen Sie eine Schlussfolgerungsuntersuchung durch. Es ordnet an, dass die Gefühle der allgemeinen Bevölkerung gegenüber nationalen und regionalen politischen Parteien in Indien wie BJP, Congress TDP, YSRCP und Janasena sicher, negativ, fröhlich, tragisch oder neutral sind. Wenn man über die Gefühle des Einzelnen nachdenkt, können Versammlungen ihre Mängel erkennen und für Verbesserungen sorgen, um die Bedürfnisse der Gesellschaft zu befriedigen und auf die Erfüllung der Voraussetzungen des Einzelnen hinzuarbeiten. In diesem Papier wurden mithilfe von Content Mining und unbeaufsichtigter lexikalischer Technik Tweets gruppiert, die mit diesen Parteien identifiziert wurden, um die öffentliche Wahrnehmung gegenüber Parteien zu unterscheiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1420-3_67 15bcf4af00b7046601332370e90bc4a2;de;;;5.1.;;;Präzise Erkennung menschlicher Aktivitäten mit Multi-Task-Lernen Die Erkennung menschlicher Aktivitäten (HAR) in tragbaren Geräten ist eine vielversprechende Technologie im Pervasive Computing. Das traditionelle Verfahren betrachtet die Erkennung menschlicher Aktivitäten jedoch häufig als ein Problem bei der Erkennung einzelner Etiketten, wobei die Verbindung zwischen dem aktuellen Aktivitätsmodus, dem persönlichen Bewegungsmodus und der Sensortragposition ignoriert wird. Dieses Papier schlägt einen Multitask-Lernrahmen zur Erkennung von menschlichen Aktivitäten vor, der auf überwachtem Lernen basiert und nicht nur die Aktivität, sondern auch die Identität des Trägers, das Geschlecht und die Position des Sensors am Körper berücksichtigt. Wir haben die Zeitdomänen- und Frequenzdomänenmerkmale der Originaldaten extrahiert und die Daten durch ein Multitask-Lernframework klassifiziert, das aus einem vollständig verbundenen Netzwerk und einem neuronalen Faltungsnetzwerk besteht. Wir verwenden einen öffentlichen Datensatz bestehend aus 15 Experimentatoren, 8 Bewegungen und 7 Körperpositionen. Nur 30;-;-;-;https://link.springer.com/article/10.1007/s42486-020-00042-2 74a0db8778ec918a05afddaf5e0678ea;de;;;5.1.;;;Agentenbasiertes adaptives Lernsystem Dieses Papier schlägt das agentenbasierte intelligente, adaptive Lern- oder Tutorsystem (IATS) vor. Die vorgeschlagene Architektur des agentenbasierten Systems stellt den Rahmen für das intelligente Tutorsystem bereit. Wir definieren viele Agenten wie Tutor Agent, Student Agent, Student Clustering Agent, Resource Classification Agent. Das Systemmodell wird unter Verwendung des O-MaSE-Entwicklungsmodells entwickelt. Das Clustering erfolgt durch die Kombination von evolutionären Clustering-Methoden und Fuzzy-C-Means-Clustering. Die Klassifizierung der Ressourcen ist eine Darstellung der Ressourcen in der baumbasierten hierarchischen Struktur, aus der die adaptiven Ressourcen erzeugt werden. Das System stellt dem Lernenden die adaptiven Kursmaterialien, die adaptive Benutzeroberfläche und die adaptiven Prüfungen zur Verfügung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24043-0_43 298965aebcc78af5399dad707bfe5900;de;;;5.1.;;;Strömungsgeschwindigkeitsschätzung mittels Multi-Layer-Perceptron in einer Pipeline In dieser Arbeit wird die Nutzung der vielfältigen Vorteile eines mehrschichtigen Perzeptrons zur Vorhersage der durchschnittlichen Strömungsgeschwindigkeit in einer Rohrleitung für einen bei verschiedenen Frequenzen arbeitenden Radialventilator vorgestellt. Der Lernprozess erfolgte mit Daten, die aus dem Geschwindigkeitsprofil gewonnen wurden, das durch die Messung eines Hitzdraht-Anemometers erhalten wurde, wobei eine andere Winkelgeschwindigkeit des Radialventilators durchgeführt wurde. Das Experiment wurde mit verschiedenen Welleneingängen zur Strömungsgeschwindigkeitsschätzung durchgeführt, die erste ist eine Rampenwelle von Frequenzen mit einer einzelnen verborgenen Schicht, die zweite ist eine Sinuswelle von Frequenzen mit dem Vergleich zwischen einer einzelnen verborgenen Schicht und zwei verborgenen Schichten. Im ersten Teil zeigten die Simulationsergebnisse den Fehler zwischen den realen Daten und der Ausgabe des mehrschichtigen Perzeptrons mit einem maximalen Fehler von 4 m/s und im zweiten Teil die Genauigkeit der beiden verborgenen Schichten in Bezug auf a einzelne verdeckte Schicht mit einem maximalen Fehler von ±2,81 m/s.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-62554-2_22 39cf91c7795b711151f44661177d23be;de;;;5.1.;;;Modellierung lokaler Expositionsbereiche gegenüber Räumliche Modellierungsstudien der Schistosomiasis (SCH) sind heute an der Tagesordnung. Kovariatenwerte werden üblicherweise an Untersuchungsstandorten extrahiert, an denen eine Infektion nicht immer stattfindet, was zu einer unbekannten Positions-Expositions-Fehlanpassung führt. Die vorliegende Forschung zielt darauf ab: (i) die Art der Positions-Expositions-Mismatch bei der Modellierung von SCH-Helminth-Infektionen zu beschreiben, (ii) Expositionsbereiche abzugrenzen, um eine solche Positions-Mismatch zu korrigieren, und (iii) Expositionsbereiche anhand von humanpositiven Fällen zu validieren.;-;-;-;https://link.springer.com/article/10.1186/s13071-018-3039-6 8f5d89d3082f850a6221735e851ef474;de;;;5.1.;;;Die Uni-Level-Beschreibung: Ein einheitliches Framework zur Darstellung von Informationen in mehreren Datenmodellen Ein Vorteil von mehreren unterschiedlichen Darstellungsschemata und Datenmodellen besteht darin, dass Benutzer die richtige Darstellung und die zugehörigen Tools für ihren speziellen Bedarf auswählen können. Mehrfachdarstellungen führen jedoch strukturelle, modellbasierte Heterogenität ein, was es schwierig macht, Informationen aus verschiedenen Quellen zu kombinieren und Informationen mit generischen Werkzeugen (z. B. zum Abfragen oder Browsen) zu nutzen. In dieser Arbeit definieren wir eine einheitliche Darstellung basierend auf einem Metadatenmodell namens called;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39648-2_7 cdec8316d4129eecfa76cf2fdbe20cc2;de;;;5.1.;;;Studien zum TBRPF-Routing-Algorithmus und zur Erkennung von Routing-Loop-Angriffen in mobilen Ad-hoc-Netzwerken Derzeit nimmt die Anwendung Mobile Ad-hoc Network (MANET) stetig zu. Das Grundproblem bei MANET liegt in seiner Ad-hoc-Natur. Die fehlende Infrastruktur in MANET erschwert die Erkennung und Kontrolle von Sicherheitsrisiken zusätzlich. In dieser Arbeit wurde versucht, die verschiedenen Angriffe von MANET zu untersuchen. Der Fokus liegt hauptsächlich auf dem Routing-Loop-Angriff, der zu den möglichen Angriffen in Ad-hoc-Netzwerken zählt. Bei einem Routing-Loop-Angriff kann ein Paket einige Zeit in einer Schleife zirkulieren, bevor sein TTL-(Time To Live)- oder Hop-Zählfeld auf Null geht. Selbst wenn nur ein kleiner Teil des Datenverkehrs in diese Schleifen und nur für kurze Zeit eintritt, wirkt sich dies auf das umgebende Medium und den Datenverkehr aus, wodurch die Netzwerkleistung herabgesetzt wird. Um diese Art von Angriff zu verhindern, ist es entscheidend, die während des Angriffs auftretende Anomalie zu erkennen. Bei herkömmlichen Schemata wird die Anomalieerkennung durch Definieren des Normalzustands aus statischen Trainingsdaten erreicht. In mobilen Ad-hoc-Netzwerken, bei denen sich die Netzwerktopologie dynamisch ändert, könnte ein solches statisches Trainingsverfahren jedoch nicht effizient verwendet werden. In diesem Papier schlage ich ein Anomalieerkennungsschema vor, das ein dynamisches Trainingsverfahren verwendet, bei dem die Sequenznummer jedes Pakets während der Übertragung jedes Mal berechnet wird, um ein fehlerhaftes Paket zu verwerfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22456-0_9 1d0120c2b04431fcb74939c6a4451151;de;;;5.1.;;;Signaltransduktion und Kommunikation durch Modellmembranen in Netzwerken gekoppelter chemischer Oszillatoren In der Natur findet man ein wichtiges Beispiel für chemische Kommunikation und Synchronizität in Zellpopulationen, in denen eine chemische Fernkommunikation über einen Mikrometerabstand stattfindet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-78658-2_2 e8086398467d2b1f429cc4253ae531bf;de;;;5.1.;;;K-Anonymisierung mit hohem Nutzwert für die Veröffentlichung in sozialen Netzwerken Datenschutz und Nützlichkeit sind zwei Haupterfordernisse guter Veröffentlichungsschemata für sensible Informationen. Für die Veröffentlichung sozialer Netzwerke stützen sich viele bestehende Algorithmen auf;-;-;-;https://link.springer.com/article/10.1007/s10115-013-0674-2 f7500ce0782a306bdc265a480882bd75;de;;;5.1.;;;Rechtswirkung von Smart Contracts basierend auf Blockchain Smart Contracts werden zunehmend im Bereich der Finanzinnovation eingesetzt. Im Hinblick auf die Rechtswirkungen von Smart Contracts wird in diesem Papier eine Studie durchgeführt. Erstens erscheinen Smart Contracts als eine Reihe von Computercodes und tragen den gegenseitigen Konsens der Transaktionsparteien und unterliegen dem Grundsatz der Vertragsformfreiheit. Somit können Smart Contracts als eine Art vertraglicher Schriftform im High-Tech-Kontext verstanden werden. Dann erfolgte die automatische Vollstreckung der Vereinbarung durch die Fünf-Elemente-Struktur, und die traditionelle Situation der Durchsetzungsunsicherheit wurde vermieden. Die Ergebnisse zeigen, dass zu prüfen ist, ob die Bedeutung der Maschine mit der Bedeutung der Partei übereinstimmt und ob die Maschinenbedeutung den gesetzlichen Bestimmungen entspricht. Abschließend wurde der Schluss gezogen, dass die Rechtswirkung von Smart Contracts als Reaktion auf die boomende Finanztechnologie geklärt werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7981-3_12 a7e7684820e119c0e2b124142c0c4aff;de;;;5.1.;;;Gegenseitige Information –Der Biomarker für wesentliche Genvorhersagen in der Gen-Gen-Interaktion von Lungenkrebs Lungenkrebs ist die größte Epidemie des aktuellen Jahrzehnts. Jüngste statistische Ergebnisse zeigten eindeutig, dass ein höherer Prozentsatz von Männern und Frauen in die Falle gegangen war. Die Forscher sind selbst beauftragt, ihren Anteil regelmäßig zu reduzieren. Es wird beobachtet, dass Makromoleküle eine wesentliche Rolle bei dieser Verbesserung spielten. Eines der wichtigen Makromoleküle des Lebens ist das Gen und sein Komplex. Gene in Interaktion nehmen im Vergleich zu Individuen an mehr funktionellen Aktivitäten teil. Normalerweise bleibt ein ähnlicher Satz, d. h. ein funktionell ähnlicher Satz von Genen, im selben Netzwerk. Zunächst beginnt die vorgeschlagene Arbeit mit einem Genexpressions-Microarray-Datensatz, der aus Sätzen sowohl von normalen als auch von Krankheitsgenproben besteht. Eine Gesamtsammlung von 7129 Genen ist an dem Datensatz beteiligt, aus denen 3556 Varianten von Genen durch Anwendung des zweiseitigen T-Tests herausgefiltert wurden. Daher werden Mutual Information- und K-Means-Clustering-Algorithmen auf diesen Variantensatz von Genen ausgeführt, um den ähnlichsten Satz von Genen zu erhalten. Die Interaktionen dieser gefilterten Gene wurden unter Verwendung von String DB und Gene Mania untersucht, wobei die zuverlässigsten Gene unter Verwendung von Knoten- und Kantengewichten zurückgehalten wurden. 109 zuverlässigste Gene werden schließlich als Taucherknoten oder Kontrollgene identifiziert, die bei Lungenkrebs eine wesentliche Rolle spielen können. Unsere Methodik erreicht eine Gesamtgenauigkeit von 88 %.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-8581-0_19 b39004e2227710e55ec122c9ce14c2ef;de;;;5.1.;;;Einführung in das Yuragi-Lernen Yuragi-Lernen ist ein Paradigma, das Attraktoren als Zustandsschablonen von Netzwerksystemen verwendet. Bei unsicherem oder fluktuierendem Verkehr in den Netzwerksystemen wird zunächst die Vorlagenübereinstimmung mit vordefinierten Attraktoren untersucht und dann der Zustand des Netzwerksystems auf die am besten geeigneten Attraktoren geändert. In diesem einführenden Kapitel zum Yuragi-Lernen und seinen Anwendungen stellen wir ein grundlegendes Modell der menschlichen Wahrnehmungsentscheidung vor, das den Kern des Yuragi-Lernens bildet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4976-6_5 810fd5780f4fa2841ac4b8603519eaa9;de;;;5.1.;;;Spektraldichteanalyse: Theta-Welle als Indikator für psychischen Stress Diese Arbeit zielt darauf ab, den Zusammenhang zwischen mentalen Aufgaben und den ausgesendeten Theta- und Alpha-Gehirnwellen zu untersuchen. Das Elektroenzephalogramm (EEG)-Signal ist ein hochgradig zufälliges, komplexes und nicht lineares Signal. Die Analyse des Elektroenzephalogramms bleibt aufgrund des begrenzten Verständnisses der Signalherkunft problematisch. Trotz dieser Mängel ist das EEG ein wertvolles Instrument zur Beurteilung der gesamten Hirnaktivität. Eine fortschrittliche Signalverarbeitungstechnik ist erforderlich, um versteckte Merkmale zu extrahieren, die vom Signal getragen werden. Diese Merkmale sind nützlich, um den mentalen Zustand zu bestimmen. Die Analyse wurde mit fünf erwachsenen Rechtshändern, gesunden und Nichtrauchern, durchgeführt. Die Probanden wurden gebeten, in einem Zeitraum Kopfrechnen (MA) durchzuführen, um den mentalen Stress zu induzieren. Um sicherzustellen, dass die Probanden alle MA-Aufgaben mit vollem Einsatz erledigten, wurde für jede richtige Antwort ein Honorar vergeben. Mit der Burg-Methode wurde die spektrale Leistungsdichte (PSD) aus dem ausströmenden Gehirnsignal extrahiert. Es wurde eine statistische Analyse unter Verwendung einer Korrelation durchgeführt und eine positive Beziehung (r=0,625, p<0,05) wurde zwischen den höchsten PSD-Theta-Wellen und dem psychischen Stresszustand beobachtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27183-0_12 76e7dac1a4b0742971d8b012c132f935;de;;;5.1.;;;Echtzeit-Identifizierung von Regenwasserkatastrophen in Städten basierend auf Weibo Big Data Mit der Beschleunigung der Urbanisierung in China ist die Verhinderung und Reduzierung der wirtschaftlichen Verluste und Opfer, die durch städtische Regenwasserkatastrophen verursacht werden, zu einem kritischen und schwierigen Thema geworden, über das die Regierung besorgt ist. Da städtische Stürme plötzlich, gehäuft und kontinuierlich auftreten und enorme wirtschaftliche Verluste verursachen, ist es schwierig, ein Notfallmanagement durchzuführen. Die Entwicklung einer wissenschaftlicheren Methode zur Echtzeit-Katastrophenerkennung wird dazu beitragen, Verluste im Laufe der Zeit zu vermeiden. Die Untersuchung von Big Data in sozialen Medien ist eine praktikable Methode, um Katastrophendaten vor Ort zu erhalten und Katastrophenrisikobewertungen durchzuführen. Dieses Papier stellt eine Echtzeit-Identifizierungsmethode für städtische Sturmkatastrophen unter Verwendung von Weibo-Daten vor. Am Beispiel des Starkregens im Juni 2016 in Nanjing werden die gewonnenen Weibo-Daten in acht Teile für den Trainingsdatensatz und zwei Teile für den Testdatensatz unterteilt. Es führt dann eine Textvorverarbeitung mit dem Jieba-Segmentierungsmodul für die Wortsegmentierung durch. Anschließend wird die Methode der Begriffshäufigkeit – inverse Dokumenthäufigkeit verwendet, um die Merkmalselementgewichtungen zu berechnen und die Merkmale zu extrahieren. Hashing-Algorithmen werden zur Verarbeitung von hochdimensionalen dünnbesetzten Vektormatrizen eingeführt. Schließlich werden die naiven Bayes-, Support-Vector-Machine- und Random-Forest-Text-Klassifizierungsalgorithmen verwendet, um das Modell zu trainieren, und es wird eine Testsatzstichprobe zum Testen des Modells eingeführt, um den optimalen Klassifizierungsalgorithmus auszuwählen. Die Experimente zeigten, dass der naive Bayes-Algorithmus die höchste makrodurchschnittliche Genauigkeit aufwies.;-;-;-;https://link.springer.com/article/10.1007/s11069-018-3427-4 e69dbeb862a116ebeff46532980a9234;de;;;5.1.;;;Chancen und Herausforderungen bei der Untersuchung des Umwelt-Migrations-Nexus Umweltveränderungen sind ein anerkannter Einflussfaktor auf die menschliche Migration. Die analytische Forschung zum Zusammenhang zwischen Umwelt und Migration hat in den letzten Jahren zugenommen, steht aber noch immer vor zahlreichen Hürden, teilweise aufgrund der begrenzten Verfügbarkeit geeigneter Daten. Wir überprüfen verfügbare Daten und Methoden zur Untersuchung des Umwelt-Migrations-Nexus, identifizieren Dateninkonsistenzen, die sich aus der Kombination verschiedener Quellen ergeben, und veranschaulichen die zugrunde liegenden Gründe dafür. Wir diskutieren eine Reihe von Methoden zur Untersuchung der Umwelt-Migrations-Beziehung, darunter Frameworks und Konzepte, Umfragen, empirische, quantitative Methoden und Simulationsansätze. Basierend auf dieser Übersicht bieten wir Empfehlungen für verbesserte Analysen des Umwelt-Migrations-Nexus, einschließlich der Meldung von Dateninkonsistenzen und -unsicherheiten, der Kombination von Ansätzen und Datenquellen und der Entwicklung mehrerer Studienansätze.;-;-;-;https://link.springer.com/article/10.1007/s10745-015-9733-5 7e5b74e6ed0c585fa1cc492b7857d9e3;de;;;5.1.;;;Analyse des kontinuierlichen Bewegungswinkels für Roboter mit Exoskelett der unteren Extremitäten basierend auf dem sEMG-Signal In diesem Artikel wird der Zustand des Echtzeit-Bewegungswinkels, der dem Oberflächenelektromyographiesignal (sEMG) im Prozess der von Exoskelettrobotern unterstützten Bewegung entspricht, analysiert und eine neue Steuerungsanalysemethode für Exoskelettroboter vorgeschlagen. Die Methode der Wavelet-Zerlegung wird verwendet, um die Eigenschaften von sEMG-Signalen zu analysieren, wodurch die Eigenwerte von sEMG-Signalen aus verschiedenen Winkeln genau extrahiert werden können. Die extrahierten Eigenwerte werden als Eingabe für die SVM-Klassifizierung und -Erkennung verwendet, eine Mustererkennung durchgeführt und die Beziehung zwischen den Eigenwerten und dem entsprechenden Bewegungswinkel hergestellt. Gleichzeitig werden die Oberflächen-EMG-Signale der Start- und Stoppzeit bei der kontinuierlichen Bewegung der unteren Gliedmaßen analysiert, um eine genauere Beziehung zwischen dem Start- und Stoppzustand und dem Eigenwert zu erhalten. Durch den Vergleich der Analyseergebnisse mit den tatsächlichen Bewegungswinkelzustandsinformationen wird die Richtigkeit der Analyseergebnisse verifiziert, die eine theoretische Grundlage für die Folgeforschung des Exoskelettroboters der unteren Extremität liefern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4929-2_4 47bcb02783d758cc8b8c7d3edb9bcd7e;de;;;5.1.;;;Optimierung des Algorithmus zum Verbergen von Standortinformationen für Anti-Attacken Das drahtlose Kommunikationsnetzwerk, das oft automatisch Positionsinformationen über den Standort eines Benutzers positioniert, Standortgeheimhaltung für den effektiven Schutz des Benutzers, stellt eine Art Versteckverfahren für Positionsinformationen basierend auf einem verbesserten genetischen Algorithmus für Positionsinformationen großer Datenmengen einer stückweisen linearen Codierungsverarbeitung vor. Merkmalsextraktion von Standortinformationen basierend auf Assoziationsregeln, Verwendung eines Vektorquantisierungsverfahrens für die Informationsfusion der Daten nach der Codierung des versteckten Designs, verbesserter genetischer Algorithmus mit Standortinformationsverschlüsselungsschlüsselkonstruktion, Standortinformationsverschlüsselung und Codierungsverarbeitung, um eine Optimierung des Information Hiding Standorts zu erreichen. Die Simulationsergebnisse zeigen, dass die Entwurfsmethode zum Verbergen von Standortinformationen, die Standortinformationen mit einer guten Verschlüsselungsleistung, einer starken Anti-Attacke-Fähigkeit, die Datenschutzleistung von Standortinformationen verbessern und der Verschlüsselungsalgorithmus für die versteckten Kosten niedrig und hoch ist. Zeitkodierung des Versteckens von Informationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2907-4_1 3b67faccb52d30173115a2f2b6682f2c;de;;;5.1.;;;Anwendung der logistischen Regression bei der Identifizierung von verschachtelten Benutzern mit leerer Leistung Basierend auf den Strominformationen von Power-Usern untersucht dieses Papier hauptsächlich den Anwendungseffekt der Verwendung der logistischen Regressionsklassifikationsmethode, um leer verschachtelte Benutzer zu identifizieren. In dem Papier wird basierend auf dem täglichen Energieverbrauch von mehr als 3.000 Stromverbrauchern in einem Jahr eine geeignete Klassifizierungsmerkmalsgröße ausgewählt und vorverarbeitet. Für die zweite Klassifizierung wird das logistische Regressionsklassifizierungsverfahren verwendet, und das Steuerverfahren ist das Support Vector Machine-Verfahren. Klassifizierungsziele sind leer verschachtelte Benutzer und nicht leer verschachtelte Benutzer. Klassifikationsmodelle werden durch Training und weitere Tests erstellt, außerdem werden die Ergebnisse mehrerer Klassifikationen anschließend analysiert. Die Analyseergebnisse zeigen, dass die Methode der logistischen Regressionsklassifizierung einen guten Anwendungseffekt bei der Identifizierung von Benutzern von leeren Nestern hat. Diese Forschung wendet Big-Data-Analysen von Macht auf die Identifizierung von Leernestnutzern an, die Energieunternehmen eine Referenz bieten, um Leernestnutzer basierend auf Strominformationen genau zu identifizieren, Personal einsparen und präzise unterstützende Arbeiten erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6378-6_8 caf000b581a568a5e744626b8a303313;de;;;5.1.;;;E-Governance für die öffentliche Verwaltung Das Ziel der öffentlichen Verwaltung ist eine ausgezeichnete Regierungsführung in unserem Land, und der Plan eines Landes unterscheidet sich von anderen Ländern. Die öffentliche Verwaltung ist eine effiziente, transparente, um den Bürgern klare Anweisungen zu geben, und eine schnelle positive Reaktion auf ihre Serviceanfragen ist für das reibungslose Funktionieren des Landes wichtiger. Die bessere E-Governance besteht darin, einige Regierungsstrategien zu haben, um die verschiedenen Ziele zu erreichen, die ausgeführt werden können. Die Online-Schnittstelle dient ebenfalls als Bühne für Bürger, um Daten zu nutzen und für das Verwaltungsamt, um Achtsamkeit zu verbreiten. Mit Hilfe dieses Büros kann die Büroarbeit der breiten Bevölkerung bekannt gemacht werden und die Rahmenbedingungen anschließend vereinfacht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7961-5_98 f8ceffbde71a07f0485f30a46f86ecd1;de;;;5.1.;;;Learning Analytics Dashboard zur Unterstützung der Metakognition Die Beherrschung des selbstregulierten Lernens (SRL) kann den Lernenden helfen, ihre akademischen Ziele zu erreichen. In diesem Whitepaper diskutieren wir das Design und die Entwicklung eines Learning Analytics Dashboards (LAD), das wir erstellt haben, um die Metakognition der Lernenden, das Metaboard, zu unterstützen. Wir haben das Metaboard mit vier studentischen Teilnehmern getestet und dann ihre Wahrnehmung der LAD und ihre Nützlichkeit als formative Bewertung im späteren Designzyklus untersucht. Sie berichteten, dass das Metaboard ein nützliches Werkzeug zum Erlernen digitaler Lernmaterialien, vorgeschlagener Ergänzungen und Überarbeitungen sei, und identifizierten die vier wichtigsten Elemente der KOP: (1) geeignete grafische Darstellungen, (2) Vergleichsfunktionen, (3) Überwachungsfunktionen, die sich auf die Zielerreichung beziehen und (4) konsistentes Feedback.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-65657-7_8 76067fd80ec2ad3d9273e399957c8a1e;de;;;5.1.;;;Simulation und Analyse der Ad-hoc-Datenschutzkontrolle in intelligenten Umgebungen Dienste in intelligenten Umgebungen erfordern normalerweise persönliche Informationen, um ihr Verhalten an die spezifischen Bedürfnisse eines Benutzers anzupassen. Traditionell drücken Benutzer Datenschutzpräferenzen in vorkompilierten Richtlinien aus, um zu steuern, welche Informationen an Dienste in intelligenten Umgebungen weitergegeben werden. Eine Einschränkung von Richtlinien besteht darin, dass sie schwer zu erstellen und zu pflegen sind, wenn die potenziell kommunizierten Informationen oder der Kontext, der eine Offenlegungsentscheidung beeinflusst, sehr unterschiedlich und schwer vorhersehbar sind. Die Ad-hoc-Verwaltung des Datenschutzes in dem Moment, in dem ein Dienst personenbezogene Daten anfordert, umgeht diese Probleme. Ein Nachteil der Ad-hoc-Datenschutzkontrolle ist die erhöhte datenschutzbezogene Benutzerinteraktion während der Dienstnutzung. Dies kann durch eine Assistenz ausgeglichen werden, die persönliche Informationen dynamisch basierend auf Kontextinformationen verarbeitet, die eine Offenlegungsentscheidung beeinflussen. In diesem Whitepaper beschreiben wir eine Simulationsumgebung, um eine kontextbasierte, Data-Mining-gesteuerte Offenlegungsunterstützung zu evaluieren und entsprechende Ergebnisse zu präsentieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10263-9_27 b37a2c8db0e3e199e2c6d4b1609bdb49;de;;;5.1.;;;Ein Phishing-Webseite-Erkennungsalgorithmus mit Webseitenrauschen und N-Gram Obwohl Anti-Phishing-Lösungen stark bekannt gemacht wurden, sind Phishing-Angriffe immer noch ein wichtiges ernstes Problem. In diesem Artikel wurde ein neuartiger Algorithmus zur Erkennung von Phishing-Webseiten vorgeschlagen, der das Webseitenrauschen und das N-Gramm verwendet. Zunächst extrahiert der Algorithmus zur Erkennung von Phishing-Webseiten das Webseitenrauschen von verdächtigen Websites und drückt es dann unter Verwendung von N-Gramm als Merkmalsvektor aus. Schließlich wird die Ähnlichkeit des Merkmalsvektors zwischen der geschützten Website und der verdächtigen Website berechnet. Experimentelle Ergebnisse zur Erkennung von Beispieldaten von Phishing-Sites zeigen Folgendes: Dieser Algorithmus ist effektiver, genauer und schneller als bestehende Algorithmen, um zu erkennen, ob eine Site eine Phishing-Website ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48671-0_15 1ddcf80eebebe5efe916ccc8168e4b00;de;;;5.1.;;;Kollaborative Gruppenvertretung für die Bildsatzklassifizierung Mit bedeutenden Fortschritten in der Bildgebungstechnologie werden mehrere Bilder einer Person oder eines Objekts in einer Reihe von realen Szenarien leicht verfügbar. Im Gegensatz zu Einzelbildern können Bildsätze eine Vielzahl von Variationen im Erscheinungsbild eines einzelnen Gesichts oder Objekts erfassen. Die Erkennung aus diesen Mehrfachbildern (d. h. die Bildsatzklassifizierung) hat im Bereich der Computer Vision erhebliche Aufmerksamkeit erlangt. Im Gegensatz zu vielen existierenden Ansätzen, die davon ausgehen, dass sich nur die Bilder in derselben Menge gegenseitig beeinflussen, entwickelt diese Arbeit ein Gruppenkollaboratives Repräsentationsmodell (GCR), das keine solche Annahme macht und die verborgene Struktur zwischen Bildmengen effektiv bestimmen kann. Insbesondere nutzt GCR die Beziehung zwischen Bildsätzen, um die Inter- und Intrasatz-Variationen zu erfassen, und bestimmt die charakteristischen Unterräume aller Galeriesätze. In diesen Unterräumen können einzelne Galeriebilder und jeder Sondensatz über ein Selbstrepräsentations-Lernschema effektiv dargestellt werden, was zu einer erhöhten Unterscheidungsfähigkeit führt und die Robustheit und Effizienz des Vorhersageprozesses verbessert. Durch umfangreiche Experimente und den Vergleich mit dem Stand der Technik haben wir die Überlegenheit der vorgeschlagenen Methode bei mengenbasierten Gesichtserkennungs- und Objektkategorisierungsaufgaben gezeigt.;-;-;-;https://link.springer.com/article/10.1007/s11263-018-1088-0 90a1ed9e6036bb18c2a66da9ee2ca93d;de;;;5.1.;;;Theoretische Grundlage für Code-Verschleierungssicherheit: Ein Kolmogorov-Komplexitätsansatz Das Hauptproblem beim Entwerfen einer effektiven Code-Verschleierung besteht darin, die Sicherheit zu gewährleisten. Moderne Verschleierungstechniken beruhen auf einem unbewiesenen Sicherheitskonzept und werden daher nicht als nachweisbar sicher angesehen. In diesem Beitrag führen wir eine theoretische Untersuchung der Code-Verschleierungssicherheit und ihres Gegnermodells auf der Grundlage der Kolmogorov-Komplexität und algorithmischer gegenseitiger Information durch. Wir führen eine neue Definition von Code-Verschleierung ein, die erfordert, dass die algorithmischen gegenseitigen Informationen zwischen einem Code und seiner verschleierten Version minimal sind, damit eine kontrollierte Menge an Informationen an einen Gegner weitergegeben werden kann. Wir argumentieren, dass unsere Definition die Unmöglichkeitsergebnisse von Barak et al. und ist vorteilhafter als die Verschleierungs-Ununterscheidbarkeitsdefinition in dem Sinne, dass sie intuitiver ist und eher algorithmisch als probabilistisch ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30222-5_12 8658ddc5b39a22113adfef876db2931f;de;;;5.1.;;;Effizientes Rapid Prototyping von partikelfilterbasierter Objektverfolgung auf einem homogenen System Dieses Papier stellt einen Multiprozessor-Ansatz für das schnelle Prototyping von Computer-Vision-Anwendungen vor und veranschaulicht seine Vorteile anhand einer generischen Implementierung einer Echtzeit-Objektverfolgungsanwendung. Wir schlagen vor, einen solchen Partikelfilter mit farbbasierten Bildmerkmalen zu verwenden. Da unsere Anwendung die Wahrscheinlichkeitsverteilung einer Objektposition schätzen soll, wird das Zielmodell mit den aktuellen Hypothesen des Partikelfilters unter Verwendung einer Approximation des Kullback-Leibler-Koeffizienten aus dem K-Nearest Neighbor Framework verglichen. Basierend auf einer neuen Methodik zu Rapid Design und Prototyping präsentieren wir die Parallelisierung des vorgeschlagenen Algorithmus zur Architektur eines homogenen Netzwerks kommunizierender Prozessoren. Ziel der vorgeschlagenen Entwurfsmethodik war es, das Abstraktionsniveau der Spezifikationen zu erhöhen, indem geeignete Modelle und Werkzeuge entwickelt werden, die das Design von der Spezifikation bis hin zur eingebetteten Implementierung unterstützen. Das vorgeschlagene Verfahren wurde für die Anwendung zur Gesichtserkennung und -verfolgung in mehreren Videosequenzen evaluiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38241-3_17 fe8aafee2c181b0839425fe398245884;de;;;5.1.;;;Ein robustes Musikkomponisten-Identifikationssystem basierend auf Cepstral-Funktionen und -Modellen Musik ist ein wesentlicher Bestandteil des Lebens eines jeden Menschen. Die Aufgabe, einen Komponisten durch das Hören eines Musikstücks zu erkennen, ist für Menschen ohne Musikkenntnisse schwierig. Auch eine solche Aufgabe ist für Musiktheoretische schwierig, weil jeden Tag ein neuer Musikkomponist geboren wird. Um dieses Problem der Klassifizierung einer Musikmelodie für eine große Gruppe von Musikkomponisten anzugehen, konstruieren wir ein automatisches System, das Musikkomponisten basierend auf ihren komponierten Melodien unterscheiden kann. Die Klassifizierung von Musik nach ihrem Komponisten ist für einen schnelleren Abruf von Musikdateien sehr wichtig. In diesem Beitrag erstellen wir eine große Datenbank, die aus mehreren Musikstücken verschiedener Komponisten besteht. Wir extrahieren MFCC-Merkmale und trainieren das System mit der Clustering-Technik, indem wir ein Klassifizierungsmodell entwickeln, das eine Musikmelodie genau klassifizieren kann, die einem Musikkomponisten gehört, dessen Melodien trainiert wurden. Die Gesamtgenauigkeit des vorgeschlagenen Systems beträgt 72,5% ohne diskrete Wavelet-Transformation (DWT) und 77,5% mit DWT.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3992-3_4 b8abd2394503033b38fee6ad70bf338f;de;;;5.1.;;;DigitalBeing: Ein interaktives Tanzerlebnis mit Ambient Intelligence Dieses Kapitel versucht, die Entwicklung eines intelligenten Ambient-Tanzraums zu untersuchen. Das Kapitel schlägt insbesondere intelligente Systeme vor, die nichtlineare Optimierung sowie symbolische regelbasierte Systeme verwenden, um Ton/Musik, Bühnenbeleuchtung und projizierte visuelle Bilder in Bezug auf Bewegung und Farbe so anzupassen, dass sie den Erregungszustand der Tänzerin dynamisch widerspiegeln gemessen durch physiologische Sensoren, die von den Tänzern getragen werden. Um die physische Beleuchtung um die Tänzer ästhetisch anzupassen, muss der Standort des Tänzers identifiziert werden. Diese Variable wird durch auf dem Boden installierte Drucksensormatten identifiziert, um die Bewegungen der Tänzer zu verfolgen. Die Daten dieser Sensoren werden in eine dreischichtige Architektur geleitet. Schicht 1 besteht aus einem Sensoranalysesystem, das physiologische und Drucksensorsignale analysiert und synthetisiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73177-1_8 08ec3585d66d92d15f48b7b59726dbd8;de;;;5.1.;;;Blockchain-basierter Ansatz zur Verwaltung der Arztakte: Ein sicheres Design Die ordnungsgemäße Verwaltung der Akte des Arztes (MPR) und deren Genauigkeit ist für den Schutz der öffentlichen Gesundheit von entscheidender Bedeutung. Medikationsfehler können bei Patienten zu mehreren körperlichen Verletzungen und möglicherweise zum Tod führen. Die meisten medizinischen Institute und Organisationen führen solche Aufzeichnungen lokal auf zentrale Weise, die von Hackern gestohlen werden können, um gefälschte Identitäten zu erstellen. Blockchain-Ledger bietet Unveränderlichkeit, Integrität und Sicherheitsvorteile, die es Patienten ermöglichen, auf die genauen Aufzeichnungen des Arztes zuzugreifen und sich nur von einem echten Arzt behandeln zu lassen. Ziel dieser Studie ist es, ein Blockchain-basiertes unveränderliches und gesichertes Modell für MPR zu entwickeln. Dies kann ein sehr nützlicher Mechanismus sein, um die Verfügbarkeit der richtigen Akten zum Zeitpunkt der Registrierung eines Arztes für die Praxis in einer Gesundheitsorganisation zu gewährleisten, um zu verhindern, dass gefälschte Ärzte mit der öffentlichen Gesundheit spielen. Das vorgeschlagene Modell ermöglicht es medizinischen Einrichtungen, MPR-Inhalte über das Blockchain-Netzwerk zu übertragen, und ermöglicht es anspruchsvollen Einrichtungen (Krankenhäuser, Patienten, medizinische Hochschulen), diese abzurufen, um die Aufzeichnungen des Arztes zu validieren. Jedem MPR werden eindeutige IDs durch einen universell eindeutigen Identifikator (UUID) zugewiesen, und die Hash-Berechnung von Blöcken, die MPR-Daten enthalten, erfolgt unter Verwendung des sicheren Hash-Algorithmus (SHA)-256-Algorithmus. Der entwickelte Prototyp umfasst vier Module für unterschiedliche Zwecke wie MPR-Transfer, MPR-Block-Mining, MPR-Block-Verifikation und Addition in Blockchain und MPR-Retrieval. Alle Module des erstellten Modells werden effektiv getestet und es werden nur wenige Testergebnisse präsentiert. Die Testergebnisse zeigen, dass das erstellte Modell für das MPR-Management geeignet ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0404-1_6 a11699647bb82ffaa3cdb9ca1816a479;de;;;5.1.;;;Reifegradmodell von Kommunikationsprozessen im Human Capital Management in einer Organisation Dieser Artikel ist die Fortsetzung einer Reihe von Artikeln zur Unterstützung und Verbesserung von Prozessen für den Erwerb und die Aufrechterhaltung von Human Capital Management (HCM) in einer Organisation. Kommunikationsprozesse gehören zu den wichtigsten im HCM. Analysierte Prozesse erfordern zuverlässige Werkzeuge, die die spezifischen Eigenschaften des Humankapitals berücksichtigen. Ziel dieser Arbeit ist es, die Grundannahmen über das im Rahmen der laufenden Forschung erstellte Anfangsreifemodell zu beschreiben. Das Papier präsentiert theoretische Fragen im Zusammenhang mit Reifegradmodellen, die zur Unterstützung von HCM verwendet werden. Als Schlussfolgerung weist das Papier auf die Notwendigkeit hin, die Korrektheit einer neuen dedizierten Methode zur Bewertung der Reife der Kommunikationsprozesse im HCM zu überprüfen. Der nächste Teil der Forschung sollte sich mit der Funktionsweise des entwickelten Reifegradmodells in den Stichprobenorganisationen befassen. Dazu werden Befragungen und Interviews mit Vertretern dieser Organisationen durchgeführt. Basierend auf den so gewonnenen Informationen wird das Reifegradmodell verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-01177-2_54 422e419717ca3ea465b80efe52e593db;de;;;5.1.;;;Adaptive Systemüberwachung des technischen Zustands technologischer Objekte basierend auf drahtlosen Sensornetzwerken Es wurde eine Analyse bestehender Kontrollsysteme und Telemetrie durchgeführt. Es gibt Anforderungen an moderne geografisch verteilte Telemetriesysteme. Die Simulation eines adaptiven Systems zur Überwachung des technischen Zustands von technologischen Objekten basierend auf drahtlosen Sensornetzwerken wird als Zerlegung bestimmter Probleme der Bildung, Verarbeitung und Übertragung von Messinformationen mit den Methoden der Theorie der Zufallsprozesse, der Warteschlangentheorie und Methoden der Theorie der Signalübertragung. Wir haben eine Methode zur Reduzierung der Redundanz von Messinformationen in den Überwachungssystemen des technischen Zustands von technologischen Objekten aufgrund ihres Betriebs im Notfall- und Vornotalarmmodus sowie unter Berücksichtigung externer Faktoren beschrieben. Es wurde festgestellt, dass die Priorität der von Sensoren kommenden Dienstanforderungen durch die Wachstumsdynamik des überwachten Parameters gegenüber der festgelegten Toleranz gekennzeichnet ist, was durch das Anwendungsdienstmodell bestätigt wird. Es wird gezeigt, dass das System zur Überwachung des technischen Zustands von technologischen Objekten in Form von Anwendungsdienstsystemen erfolgen kann, die ein Warteschlangensystem sind, das den Fluss von Unfallsignalen registriert - Anwendungen und deren Prioritäten bestimmt. Anhand der Analyse des Einsatzes von drahtlosen Sensornetzwerken wird die Möglichkeit ihrer Integration in ein simuliertes System zur Überwachung des technischen Zustands von geografisch verteilten Steuerungsobjekten aufgezeigt. Es wird gezeigt, dass für eine geordnete Abfrage der Elemente des Sensornetzwerks ein Abfragesystem mit sich dynamisch ändernden Parametern verwendet werden kann. Beschrieben wird ein Gruppenabfrageverfahren in verschiedenen Abfragemodi mit einer festen Anzahl von Sensoren, die ein Alarmsignal registrieren, wodurch die Effizienz der Prüfung unter Berücksichtigung möglicher Fehler bei der Übertragung von Messinformationen deutlich erhöht werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37436-5_18 4b36386efcaf77e54bc511fb8c970ab4;de;;;5.1.;;;Informationsverfügbarkeit und Sicherheit bei Ermittlungen nach dem Gesetz über korrupte Praktiken im Ausland Der Foreign Corrupt Practices Act (FCPA) befasst sich mit Unternehmen, die der Bestechung ausländischer Amtsträger für schuldig befunden wurden. Die steigende Zahl von Fällen und die hohen Geldstrafen geben Unternehmen, die im Ausland tätig sind oder planen, eine Geschäftstätigkeit aufzunehmen, zunehmende Besorgnis. Die Ratings von Transparency International bieten einen Indikator für Korruption in Ländern, die Analyse zeigt jedoch, dass dieser Indikator nicht mit dem Auftreten von FCPA-Fällen in einem bestimmten Land korreliert. Dieser Artikel schlägt vor, dass das Niveau der Verfügbarkeit und Sicherheit von Informationen wichtiger ist, um die Notwendigkeit von FCPA-Untersuchungen vorherzusagen und möglicherweise zu verhindern. Anhand der Daten aus den Jahren 2016–2017 eingereichten Fällen erörtert der Artikel, wie die Faktoren der Informationsverfügbarkeit und -sicherheit die Wahrscheinlichkeit einer FCPA-Untersuchung in einem Land beeinflussen. Der Artikel trägt zu empirischen Studien zu Korruption bei, indem er sich auf faktenbasierte Daten zur Korruption im Gegensatz zu wahrnehmungsbasierten Daten konzentriert und zeigt, dass diese beiden Datensätze nicht korrelieren. Die positive Korrelation zwischen der Verfügbarkeit von Informationen und der Zahl der FCPA-Fälle, insbesondere in Ländern mit niedrigem BIP, legt nahe, dass Unternehmen die Verfügbarkeit von Informationen nutzen können, um gegen Bestechung vorzugehen, bevor diese untersucht wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-11407-7_5 34afb224eff9ed6c6802619e7c7029b5;de;;;5.1.;;;Leistung der relaisgestützten drahtlosen Uplink-Kommunikation mit mehrschichtigem STBC für mehrere Zugangskanäle In diesem Papier schlagen wir eine relaisunterstützte Mehrbenutzer-Mehrfach-Eingabe-Mehrfach-Ausgänge-Funkkommunikation vor, die eine Mehrschicht-Raumzeit-Blockcodierung in Gegenwart von Rayleigh-Fading verwendet. Bitfehlerrate, Kapazität, Diversity und Multiplexing-Gewinn werden für das vorgeschlagene Schema untersucht. Die Informationen jedes Benutzers werden mit QPSK- oder 16QAM- oder 64QAM-Modulatoren moduliert und modulierte Daten werden mit Space-Time-Block-Codierung weiter codiert und dann aufgeteilt in;-;-;-;https://link.springer.com/article/10.1007/s11235-018-0493-6 c8b97afcace54c74c228f71bda247094;de;;;5.1.;;;Bloom-Filter-basiertes Deduplizierungssystem zum Schutz der Privatsphäre Deduplizierung ist eine Datenreduktionstechnik, die das Hochladen und Speichern redundanter Daten eliminiert. Daher wird es häufig in Cloud-Speicherdiensten eingesetzt, um den Kommunikations- und Speicheraufwand zu reduzieren. Die Deduplizierung kann jedoch als Nebenkanal verwendet werden, um die Existenz bestimmter Daten im Cloud-Speicher zu erfahren, was erhebliche Datenschutzprobleme aufwirft. Die vorhandenen Lösungen verzögern den Deduplizierungsprozess, um Informationen über das Vorhandensein von Daten zu verbergen. Diese Lösungen erhöhen den Kommunikationsaufwand, da der Client Daten senden muss, selbst wenn diese im Speicher vorhanden sind. In diesem Papier stellen wir einen neuartigen Ansatz zur Wahrung der Privatsphäre vor, der die Deduplizierung mit Bloom-Filter verwendet. In unserem Ansatz wird Bloom-Filter (der Datenblöcke enthält) als Deduplizierungsidentität verwendet. Wenn ein Client eine Upload-Anfrage sendet, antwortet der Server, indem er einen echten Bloom-Filter (sofern Daten vorhanden sind) zusammen mit einigen Dummy-Filtern sendet. Nun kann der Client, dem die Daten wirklich gehören, die Existenzinformationen durch Berechnen des Bloom-Filters der Daten erfahren. Außerdem muss der Client die Daten nicht senden, wenn sie im Speicher vorhanden sind. Die Sicherheitsanalyse beweist, dass unser Ansatz den Datenschutz im Deduplizierungssystem gewährleistet. Wir implementieren den Ansatz und zeigen, dass der Kommunikationsaufwand bei unserem Ansatz deutlich geringer ist als bei den bestehenden Ansätzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-7561-3_2 3e0d8bbaadfe77c0fe26735a702f9afa;de;;;5.1.;;;Reversible Authentifizierung des drahtlosen Sensornetzwerks basierend auf Vorhersage-Fehler-Histogramm und CRC In diesem Papier wird ein reversibles Authentifizierungsschema für drahtlose Sensornetzwerke (WSN) vorgeschlagen. Zunächst wird der WSN-Datenstrom in einige Authentifizierungsgruppen unterteilt, und jede Authentifizierungsgruppe besteht aus einer Generatorgruppe und einer Trägergruppe. Dann wird der zyklische Redundanzprüfcode (CRC) der Generatorgruppe als Authentifizierungsinformation erzeugt. In der Trägergruppe werden die Authentifizierungsinformationen unter Verwendung des auf Vorhersagefehler basierenden Histogrammverschiebungsalgorithmus reversibel in den Schwankungsbereich des Vorhersagefehlerhistogramms (PEH) eingebettet, nicht in den glatten Bereich. Experimentelle Ergebnisse und Analysen zeigen, dass das vorgeschlagene Schema im Vergleich zu früheren Schemata bessere Leistungen bei Rechenkomplexen, falschen Manipulationsalarmen und Attraktivität für Angreifer erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-60753-5_14 7b1c45df5fecc34d7b77413c18718675;de;;;5.1.;;;Eine empirische Studie zum Verhalten von Klassifikatoren in Rattle Tool Es gibt viele Faktoren, die das Verhalten von Klassifikatoren beim maschinellen Lernen beeinflussen, und daher ist es keine leichte Aufgabe, den besten Klassifikator zu bestimmen. Eine Möglichkeit, dieses Problem anzugehen, besteht darin, die Klassifikatoren mit mehreren Leistungsmaßen zu experimentieren. In diesem Artikel wird das Verhalten von Klassifikatoren für maschinelles Lernen mit dem Rattle-Tool getestet. Das Rattle-Tool ist eine grafische Benutzeroberfläche (GUI) im R-Paket, die verwendet wird, um Data-Mining-Modellierung mit Klassifikatoren durchzuführen, nämlich Tree, Boost, Random Forest, Support Vector Machine, Logit und neuronales Netz. Diese Studie wurde unter Verwendung von Simulations- und Realdaten durchgeführt, in denen das Verhalten der Klassifikatoren basierend auf Genauigkeit, ROC-Kurve und Modellierungszeit beobachtet wird. Basierend auf den Simulationsdaten erfolgt eine Gruppierung der Algorithmen hinsichtlich der Genauigkeit. Die ersten sind Logit, Neural Net und Support Vector Machine. Die zweite sind Boost und Random Forest und die dritte ist der Entscheidungsbaum. Basierend auf den realen Daten ist die höchste Genauigkeit basierend auf den Trainingsdaten der Boost-Algorithmus und basierend auf den Testdaten ist die höchste Genauigkeit der neuronale Netzalgorithmus. Insgesamt sind die Support Vector Machine und der Klassifikator des neuronalen Netzes die beiden besten Klassifikatoren sowohl in Simulations- als auch in Realdaten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3441-2_25 9f7cac0dc58c31fb6bd13e37805e3a10;de;;;5.1.;;;Zahlensystemorientierte Textsteganographie in verschiedenen Sprachen für Kurznachrichten Daten- und Informationslecks sind eine der vorherrschenden Schwierigkeiten in der heutigen Internetwelt bei der Übertragung. Herkömmliche Algorithmen reichen nicht aus, um Daten-/Informationsdiebstahl zu verbergen. Aus diesem Grund wurde eine zahlensystemorientierte Textsteganographie für Kurznachrichten entwickelt. Dies ist die Permutation von Kunst und Wissenschaft, die als Nichtexistenz erforderlicher Daten aus den Augen verloren wird. Eine neuartige Methode kann verwendet werden, um alle Zeichen von A bis Z, von a bis z, Zahlen wie 0 bis 9 und Sonderzeichen, bei denen jede Sprache beteiligt sein kann, auszublenden. Dies ist möglich, um eine gesendete Nachricht in Form von SMS, WhatsApp, E-Mail oder Facebook-Messenger zu verbergen. Eine ausgezeichnete Mischung aus mehreren Paaren, die Wörter formen, Zahlen, um Informationen zu verbergen. Dieses Papier könnte sehr nützlich für die Entwicklung von Anwendungen zum Verbergen geheimer Daten / Informationen für die Armee, die Marine oder die Luftwaffe sein, um das Mutterland zu retten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-6427-2_44 b6d9552b2a32558e5d607c63497d000d;de;;;5.1.;;;VANET 2.0: Integration von sichtbarem Licht in die Hochfrequenzkommunikation für Sicherheitsanwendungen Drahtlose Kommunikations- und Netzwerktechnologien sind die Grundlage für Straßenverkehrssicherheitsanwendungen in Fahrzeug-Ad-hoc-Netzwerken (VANETs). Da VANET, das IEEE 802.11p verwendet, nur bei einer hohen Fahrzeugdichte unter Broadcast-Storm-Problemen leidet, wurden viele Clustering-Schemata vorgeschlagen und können die Interferenzprobleme dennoch nicht effektiv angehen. Später stellten sich einige Wissenschaftler vor, Visible Light Communications (VLC) als drahtlose Kommunikationstechnologie in VANET einzusetzen. VLC erfordert jedoch eine strikte Sichtlinienübertragung, um eine stabile Systemleistung aufrechtzuerhalten. In diesem Papier schlagen wir eine Hybridarchitektur vor, die auf IEEE 802.11p basierendes VANET mit dem VLC-System integriert. Anschließend entwerfen wir ein neuartiges Multi-Hop-Clustering-Schema basierend auf der gewichteten virtuellen Distanzerkennung (MCSVDD) für die Sicherheitsnachrichtenübermittlung. Durch Netzwerksimulationen demonstrieren wir eine weit überlegene Leistung der IEEE 802.11p-VLC hybriden VANET-Architektur im Vergleich zu der des NHop-Schemas durch Schlüsselmetriken wie maximale Verzögerung und normalisierten Goodput.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48674-1_10 5b2540b2ab173662c3927c13d78b9ee6;de;;;5.1.;;;INS-unterstütztes GNSS-Loop-Tracking-Hardware-Implementierungsalgorithmusdesign Bei der GNSS/INS-integrierten Navigation ist die Hardwareintegration aufgrund der tiefen Verarbeitung bis zur Basisbandebene von GNSS schwierig, daher befinden sich die meisten von ihnen noch in der Phase der Simulation und Prinzipprüfung. In diesem Beitrag wird für die Deep-Combination-Technologie auf der Basisband-Verarbeitungsebene für das Problem der unterschiedlichen Ausgangsfrequenzen von GNSS-System, INS-System und Schleife das Data-Re-Engineering-Verfahren für den Datenabgleich entwickelt. Für das Datenübertragungsverzögerungsproblem des GNSS-Systems und des INS-Systems wird die Zeitsynchronisation des GNSS-Systems, des INS-Systems und des Schleifenteils mittels Hardware-Timing durchgeführt. Da die INS-Lösung und die kombinierte Filterung viel Zeit in Anspruch nehmen und sich auf die Echtzeitausgabe der INS-Daten auswirken, ist der duale INS-Kern darauf ausgelegt, die Echtzeit und Genauigkeit des INS-Ergebnisses zu gewährleisten. Die experimentellen Ergebnisse zeigen, dass die INS-unterstützte GNSS-Schleife die Schleifenverfolgungsaufgabe vervollständigen kann und die kleinere Schleifenbandbreite bei Verwendung der Hilfsinformationen erhalten werden kann. Der entwickelte schleifenunterstützte Algorithmus kann die Deep-Combination-Methode realisieren und eine gute Grundlage für den nächsten Schritt in der hochdynamischen Anwendung legen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-7751-8_44 8bc7e52481d7144ae11f1a0fdd3f9805;de;;;5.1.;;;Eine schnelle Bildregistrierung des Gehirns mit axialer Transformation Der Registrierungsprozess im medizinischen Bereich hat sich schnell entwickelt, was dazu führt, dass sich die Ärzte auf Computeralgorithmen zur Verarbeitung und Diagnose der Krankheiten verlassen. Die Registrierung wurde verwendet, um das Krankheitswachstum und die Behandlungsreaktionen der Krankheiten zu untersuchen. Die Registrierung von Gehirnbildern ermöglicht es Ärzten, Krankheiten wie Alzheimer anhand der Veränderungen in der inneren Struktur des Gehirns zu diagnostizieren. Eine der größten Herausforderungen in diesem Thema ist der enorme Rechenaufwand der Registrierungsprozesse. In diesem Artikel schlagen wir eine Methode zur schnellen und genauen Registrierung von MR-Gehirnbildern vor, die die Formeigenschaft der axialen Schicht des Gehirns verwendet. Der Algorithmus weist im Vergleich zu einem bestehenden Standardansatz eine reduzierte Rechenzeit auf, was ihn für Echtzeitanwendungen nützlich macht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31686-9_24 b329750b33b1f14a97be79ca910d4613;de;;;5.1.;;;Metamorphes Testen bei der Fehlerlokalisierung von Modelltransformationen Modelltransformationen sind Eckpfeiler des Model Driven Engineering (MDE), und ihre Qualität hat direkten Einfluss auf den erfolgreichen Einsatz von MDE in der Praxis. Aufgrund der Eigenschaften von Modelltransformationsprogrammen steht das Debuggen von Modelltransformationen jedoch vor dem Orakelproblem. In diesem Artikel schlagen wir einen Ansatz zum Debuggen von Modelltransformationen unter Verwendung der Technik des metamorphen Testens (MT) vor. Unser Ansatz nutzt MT, um das Orakelproblem zu lindern, und integriert MT mit einer spektralbasierten Fehlerlokalisierungstechnik, um fehlerhafte Regeln der Modelltransformation zu lokalisieren. Wir führen Experimente durch, um unseren Ansatz mithilfe von Open-Source-Modelltransformationsprogrammen zu evaluieren, und vergleichen die Wirksamkeit unseres Ansatzes mit der einer Fehlerlokalisierungstechnik unter Verwendung von Constraint-basierten Oracles. Sowohl die experimentelle Analyse als auch die Vergleichsstudie zeigen, dass unser Ansatz vielversprechend ist, was darauf hindeutet, dass MT eine gute Unterstützung für das Debugging von Modelltransformationen sein kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-41418-4_20 dbc8352b079f30aeac188436d1136792;de;;;5.1.;;;Erforschung der Affektwahrnehmung aus Sprache und metaphorischem Text Wir berichten über neue Entwicklungen zur Affekterkennung durch textuellen metaphorischen affektiven Ausdruck und Affektwahrnehmung durch Sprache. Die textuelle Affekterkennungskomponente wurde in einen intelligenten Konversations-KI-Agenten eingebettet, der in lockeren Szenarien mit menschlichen Benutzern interagiert. Die im Text erkannten affektiven Zustände spielen auch eine wichtige Rolle bei der Erstellung emotionaler Animationen für die Avatare der Benutzer. Es wird eine Auswertung der Affekterkennung aus Sprache und Text bereitgestellt. Unsere Arbeit trägt zu den Konferenzthemen zu Engagement und Emotion, virtuellen KI-Agenten, narrativem Geschichtenerzählen in der Bildung und Bewertung affektiver sozialer Interaktion bei.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03364-3_31 8674c4d45ba946d1847d2ffe21d54b9a;de;;;5.1.;;;Erkennung von videobasiertem Gesichts-Spoofing mit LBP und Multiscale DCT Trotz der großen Fortschritte in den letzten Jahren steht die Erkennung von Gesichts-Spoofing immer noch im Mittelpunkt der Aufmerksamkeit. In diesem Beitrag wird eine effektive, einfache und zeitsparende Gegenmaßnahme gegen videobasierte Face-Spoofing-Angriffe basierend auf LBP (Local Binary Patterns) und Multiscale DCT (Discrete Cosinus Transform) vorgeschlagen. Als Low-Level-Deskriptoren werden LBP-Features verwendet, um räumliche Informationen in jedem ausgewählten Frame zu extrahieren. Als nächstes wird eine Multiskalen-DCT entlang der Ordinatenachse der erhaltenen LBP-Merkmale durchgeführt, um räumliche Informationen zu extrahieren. Die erhaltenen High-Level-Deskriptoren (LBP-MDCT-Merkmale), die sowohl räumliche als auch zeitliche Informationen darstellen, werden schließlich in einen SVM-Klassifizierer (Support Vector Machine) eingespeist, um zu bestimmen, ob das Eingangsvideo ein Gesichtsangriff oder ein gültiger Zugriff ist. Im Vergleich zum Stand der Technik haben die hervorragenden experimentellen Ergebnisse der vorgeschlagenen Methode an zwei Benchmarking-Datensätzen (Replay-Attack- und CASIA-FASD-Datensatz) ihre Wirksamkeit bewiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-53465-7_2 bb0245c980f95c1fc73ec081bdeba4df;de;;;5.1.;;;PROlocalizer: integrierter Webservice zur Vorhersage der subzellulären Proteinlokalisation Die subzelluläre Lokalisation ist eine wichtige Proteineigenschaft, die mit Funktion, Interaktionen und anderen Merkmalen zusammenhängt. Da die experimentelle Bestimmung der Lokalisation insbesondere bei einer großen Anzahl von Proteinen mühsam sein kann, wurden eine Reihe von Vorhersagewerkzeugen entwickelt. Wir haben den PROlocalizer-Dienst entwickelt, der 11 einzelne Methoden integriert, um insgesamt 12 Lokalisationen für tierische Proteine ​​vorherzusagen. Die Methode ermöglicht die Einreichung einer Reihe von Proteinen und Mutationen und generiert ein detailliertes informatives Dokument der Vorhersage und der erhaltenen Ergebnisse. PROlocalizer ist erhältlich unter;-;-;-;https://link.springer.com/article/10.1007/s00726-010-0724-y 5eec330886704347bd8031e4f002bc99;de;;;5.1.;;;Vier Jahre Botnet-Jagd: Eine Einschätzung In diesem Whitepaper präsentieren wir eine Zusammenfassung der Malware-Analysen der letzten vier Jahre. Wir haben eine Plattform entwickelt, die Tools zum Erfassen von Malware, zum Ausführen von Code in einer kontrollierten Umgebung und zum Analysieren seiner Interaktionen mit externen Einheiten umfasst. Die Plattform ermöglicht es uns, Malware-Samples zu erfassen, zu klassifizieren und ihr Kommunikationsverhalten in einer geschützten Umgebung so zu beobachten, dass die Malware keine schädlichen Aktivitäten ausführt. Wir berichten über einige Statistiken über die erfasste Malware und geben ein Beispiel für eine Analysesitzung mit dem;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07569-3_3 8f8043e23cca8a49ba56daffcc1d6625;de;;;5.1.;;;Aufräumen und Reinigen von Räumen mit einem täglichen Hilfsroboter Dieses Papier beschreibt eine Systemintegration von täglichen Assistenzrobotern. Mehrere Aufgaben im Zusammenhang mit dem Aufräumen und Aufräumen von Räumen stehen im Mittelpunkt. In den Roboter wurden Erkennungs- und Bewegungsgenerierungsfunktionen integriert, die eine Fehlererkennung und in einigen Fällen deren Wiederherstellung ermöglichten. Experimente mit mehreren täglichen Aufgaben mit täglichen Werkzeugen zeigten die Wirksamkeit unseres Systems.;-;-;-;https://link.springer.com/article/10.2478/s13230-011-0008-6 7247a9bfd115f97859703a96dd6d29df;de;;;5.1.;;;Überbrückung zwischen SAML-basierter Zahlung und anderen Identitätsverbund-Zahlungssystemen Identity Federations werden zunehmend verwendet, um komfortable und sichere attributbasierte Authentifizierungs- und Autorisierungssysteme aufzubauen. In den letzten Jahren ist innerhalb dieser Föderationen ein dritter Aspekt wichtig geworden: die Bezahlung. Daher wurden mehrere Zahlungsansätze entwickelt und in Identitätsverbunden verwendet. Wenn jedoch mehr als eine Föderation zu einem Verband zwischen den Föderationen zusammengefasst wird, müssen Föderationsbrücken eingerichtet werden, um Nachrichten zwischen den teilnehmenden Föderationen zu übersetzen. Während das Problem der Überbrückung von Identitätsinformationen zwischen Föderationen bereits in vielen Forschungsaktivitäten berücksichtigt wurde, bleibt das Problem der Überbrückung von Zahlungsdaten ungelöst. Daher stellt dieses Dokument eine Lösung zur Überbrückung zwischen einem SAML-basierten zahlungsfähigen Identitätsverbund und vier anderen Arten von Zahlungslösungen vor, die von Identitätsverbunden verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22603-8_16 5eb949ec26c5358a6df2e485a16bda54;de;;;5.1.;;;Koordinationssteuerungsdesign heterogener Schwarmroboter durch aufgabenorientierte Optimierung Dieses Papier befasst sich mit einem Framework zum Entwurf selbstorganisierender, selbstrekonfigurierbarer Robotersysteme. Wir richten unsere Aufmerksamkeit auf den Algorithmus eines Multi-Agenten-Systems namens Swarm Chemistry, vorgeschlagen von Sayama (Artif Life 15:105–114,;-;-;-;https://link.springer.com/article/10.1007/s10015-015-0255-4 f1e5f22a86f24d2a85dcb722a333a155;de;;;5.1.;;;Design und Entwicklung eines Unterarm-Rehabilitationssystems basierend auf einem Augmented Reality Serious Game In diesem Beitrag schlagen wir ein Unterarmrehabilitationssystem vor, das auf einem Serious Game in Augmented Reality (AR) basiert. Wir haben ein vereinfachtes AR-Spiel zum Brechen von Arcade-Steinen entworfen und entwickelt, um die Rehabilitation der Unterarmmuskulatur zu induzieren. Wir nehmen die elektromyographischen Signale mit einem kostengünstigen Gerät auf, um die aufgebrachte Kraft auszuwerten. Wir haben Daten gesammelt und analysiert, um eine Beziehung zwischen der aufgebrachten Kraft und der Schwierigkeit des Spiels zu finden. Diese Forschung konzentriert sich auf die Enthospitalisierung von Patienten in der mittleren oder letzten Phase ihrer Rehabilitation, bei der die neuen Technologien wie Virtual und Augmented Reality die Erfahrung von sich wiederholenden Übungen verbessern können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-32695-5_12 439379aaf0f7372fe0411e7e17e18885;de;;;5.1.;;;Anpassbares GAN: Anpassbare Bildsynthese basierend auf konträrem Lernen In diesem Beitrag schlagen wir eine hochflexible und kontrollierbare Bildsynthesemethode vor, die auf der einfachen Kontur- und Textbeschreibung basiert. Die Kontur bestimmt die Grundform des Objekts und der Text beschreibt den spezifischen Inhalt des Objekts. Die Methode ist in den Blütendatensätzen Caltech-UCSD Birds (CUB) und Oxford-102 verifiziert. Die experimentellen Ergebnisse belegen seine Wirksamkeit und Überlegenheit. Gleichzeitig kann unsere Methode die hochwertigen Bildsyntheseergebnisse basierend auf künstlicher Handzeichnungskontur und Textbeschreibung synthetisieren, was die hohe Flexibilität und Anpassbarkeit unserer Methode weiter demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63820-7_38 4d930e6843163300f01f825f27f0a3cf;de;;;5.1.;;;Populationskontrolle in evolutionären Algorithmen: Überprüfung und Vergleich Die Populationsgröße in evolutionären Algorithmen (EAs) ist entscheidend für ihre Leistung. In diesem Beitrag geben wir zunächst einen umfassenden Überblick über bestehende Methoden der Populationskontrolle. Anschließend werden einige repräsentative Methoden ausgewählt und empirisch anhand einer Reihe bekannter Benchmark-Funktionen verglichen, um deren Vor- und Nachteile aufzuzeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7179-9_13 dafb5f2a186e92269e66b98f09b73ca0;de;;;5.1.;;;Eine informierte virtuelle geographische Umgebung, angereichert mit qualitativen und quantitativen Informationen für die Geosimulationen der Zoonoseausbreitung Entscheidungsträger im Bereich der öffentlichen Gesundheit müssen die Ausbreitung von Zoonosen besser verstehen. Die derzeit verfügbaren Zoonosesimulationen basieren auf Kompartimentmodellen, die den Einfluss geographischer Merkmale auf die biologischen Prozesse der Art nicht berücksichtigen. In diesem Zusammenhang schlagen wir einen Ansatz vor, der eine informierte virtuelle geographische Umgebung (IVGE) aus einer Reihe von Zellen generieren kann, in der die Evolution und Interaktion der beteiligten Populationen plausibel simuliert werden kann. Da die Anzahl dieser Zellen enorm ist, schlagen wir einen schwellenbasierten Verschmelzungsalgorithmus vor, der räumliche Unterteilungen mit maximaler Größe und Eignung für ein bestimmtes biologisches Phänomen erzeugt. Unser Ansatz reichert jede Zelle auch mit qualitativen und quantitativen Informationen an, wie der relativen geografischen Orientierung der Nachbarn und den Informationen über die Verteilung von Individuen durch Trajektorien. Wir haben unser IVGE verwendet, um Entscheidungshilfen zu entwickeln, die die Ausbreitung des West-Nil-Virus und der Lyme-Borreliose simulieren können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19950-4_15 63adafbd368ca247db88f4a3fe64b10b;de;;;5.1.;;;Eine Umfrage zur automatischen Bildunterschrift Bei der automatischen Bildunterschrift handelt es sich um den Prozess, bei dem automatisch Untertitel in natürlicher Sprache für Bilder bereitgestellt werden. Angesichts der großen Anzahl von Bildern, die in letzter Zeit verfügbar sind, ist die automatische Bildbeschriftung sehr vorteilhaft bei der Verwaltung großer Bilddatensätze durch Bereitstellung geeigneter Bildunterschriften. Es findet auch Anwendung bei der inhaltsbasierten Bildsuche. Dieses Feld umfasst andere Bildverarbeitungsbereiche wie Segmentierung, Merkmalsextraktion, Vorlagenabgleich und Bildklassifizierung. Es umfasst auch den Bereich der Verarbeitung natürlicher Sprache. Die Szenenanalyse ist ein wichtiger Schritt bei der automatischen Bildunterschrift, der die Aufmerksamkeit vieler Forscher auf sich zieht. Je besser die Szenenanalyse, desto besser ist das Bildverständnis, das weiter zu besseren Bildunterschriften führt. Die Umfrage stellt verschiedene Techniken vor, die von Forschern zur Szenenanalyse verwendet werden, die an verschiedenen Bilddatensätzen durchgeführt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-0023-3_8 17c71cdb213323548ea0eba0761aea6b;de;;;5.1.;;;Fuzzy-Modellierung, Maximum-Likelihood-Schätzung und Kalman-Filterung für die Zielverfolgung in NLOS-Szenarien Um den Non-Line-of-Sight (NLOS)-Effekt abzuschwächen, wird in diesem Artikel ein dreistufiger Positionierungsansatz für die Zielverfolgung vorgeschlagen. Die Möglichkeit jeder Entfernungsmessung unter Sichtlinienbedingung wird zuerst durch Anwenden der abgestumpften Dreiecks-Wahrscheinlichkeits-Möglichkeits-Transformation in Verbindung mit der Fuzzy-Modellierung erhalten. Basierend auf den berechneten Möglichkeiten werden die Messungen verwendet, um Zwischenpositionsschätzungen unter Verwendung der Maximum-Likelihood-Schätzung (MLE) gemäß der identifizierten Messbedingung zu erhalten. Diese Zwischenpositionsschätzungen werden dann unter Verwendung eines linearen Kalman-Filters (KF) gefiltert, um die endgültigen Zielpositionsschätzungen zu erzeugen. Die Zielbewegungsinformationen und statistischen Eigenschaften der MLE-Ergebnisse werden beim Aktualisieren der KF-Parameter verwendet. Die KF-Positionsvorhersage wird für die Initialisierung der MLE-Parameter und die Auswahl der Entfernungsmessung verwendet. Simulationsergebnisse zeigen, dass der vorgeschlagene Ansatz die bestehenden Algorithmen in Gegenwart unbekannter NLOS-Ausbreitungsbedingungen übertrifft und eine Leistung nahe der bei vollständig bekannten Ausbreitungsbedingungen erreicht.;-;-;-;https://link.springer.com/article/10.1186/1687-6180-2014-105 259c02571835f329cf7bce4aeffc47e2;de;;;5.1.;;;Experimente in multimodaler Informationspräsentation Eine wichtige Forschungsfrage in der multimodalen Informationspräsentation ist, welche Präsentationsformen wie Text, Sprache, Bilder und Animationen oder Kombinationen daraus am besten geeignet sind, um unterschiedliche kommunikative Ziele (z. B. anleiten, informieren und überzeugen) zu erreichen? Dieses Kapitel beschreibt drei Experimente, die durchgeführt wurden, um Antworten auf diese Frage zu finden. Experiment 1 untersuchte, wie Menschen (multimodale) Informationspräsentationen im medizinischen Bereich produzierten. In Experiment 2 wurden Personen gebeten, diese Informationspräsentationen hinsichtlich ihrer Aussagekraft und Attraktivität zu bewerten. Schließlich wurden in Experiment 3 zwei verschiedene Methoden (untertitelbasierte Auswahl versus abschnittsbasierte Auswahl) bewertet, um Antworten auf medizinische Fragen automatisch zu veranschaulichen, und die Ergebnisse mit denen von manuell erstellten Präsentationen verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17525-1_5 370800769a2df8695a1e5cd791a4ffbb;de;;;5.1.;;;Forschung zur produktübergreifenden Informationsmodellierung Um den Anforderungen des Informationsmodells gerecht zu werden, analysierte dieser Artikel die Entwicklung des Informationsmodells, präsentierte und klärte das Konzept, die Ideen und den Inhalt, die aus dem produktübergreifenden Informationsmodell abgeleitet wurden, durch die detaillierte und prägnante Klassifizierung zu den Informationen des Lebenszyklus, zeichnete die Zusammensetzungsstruktur von structure produktübergreifendes Informationsmodell und erstelltes produktübergreifendes Informationsmodell sowohl aus Gesamt- als auch aus lokalen Aspekten, lieferte gleichzeitig die Ausdrucksform für das produktumfassende Informationsmodell und den Dokumenttyp, um auf seine Informationen zuzugreifen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34390-2_15 04c47876a364fb9eb186ab69d783cbe8;de;;;5.1.;;;Handschriftliche Stilerkennung für chinesische Schriftzeichen im HCL2020-Datensatz Strukturmerkmale chinesischer Schriftzeichen bieten reichlich Stilinformationen für die Erkennung handschriftlicher Stile, während frühere Arbeiten an dieser Aufgabe wenig Sinn für die Verwendung von Strukturinformationen haben. Inzwischen ist es auf der Grundlage aktueller handgeschriebener chinesischer Schriftzeichen-Datensätze schwierig, ein gutes Generalisierungsmodell nur anhand von Zeichenkategorie- und Schreiberinformationen zu erhalten. Daher fügen wir die als Morphem bekannte Strukturinformation, die kleinste und einzigartige Struktur in chinesischen Schriftzeichen, in den großen handschriftlichen Datensatz HCL2000 ein und aktualisieren ihn auf HCL2020. Wir präsentieren auch ein Deep-Fusion-Netzwerk (Morpheme-based Handwriting Style Recognition Network,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-60639-8_12 00f3f3ef52c5a9045d15d946f8150420;de;;;5.1.;;;Schema für mehrere Wasserzeichen für medizinische Bilder basierend auf Integer-Wavelet-Transformation und -Extraktion mit ICA In dieser Veröffentlichung wird eine Mehrfach-Wasserzeichenmarkierungstechnik für medizinische Bilder vorgeschlagen, die auf einer ganzzahligen Wavelet-Transformation beruht. Medizinische Bildwasserzeichen sind eine einzigartige Unterteilung der Bildwasserzeichen in der Erkenntnis, dass Bilder besondere Notwendigkeiten haben. Medizinische Bilder mit Wasserzeichen sollten in Bezug auf ihre kreative Ergänzung nicht abweichen, da die klinische Interpretation von Bildern nicht anmaßend sein sollte. Wasserzeichenverfahren beruhen auf der diskreten Wavelet-Transformation (DWT) und sind in zahlreichen Schriften beschrieben, wobei die Stärke und die Abwehr durch die ganzzahlige Wavelet-Transformation verbessert werden, während sie der DWT gleichgesetzt werden. Die wichtige Konfrontation in Querwinkeln in Bildern kommt aus der diskreten Umgebung der Information. In diesem Papier wird das Eingabebild mittels ganzzahliger Wavelet-Transformation auf zwei Ebenen skaliert und die beiden Wasserzeichen werden in die resultierenden Koeffizienten eingebettet. Um das Wasserzeichen zu extrahieren, wird Pearson ICA angewendet und es hat eine neue Funktion, es erfordert keine Änderungsprozedur zum Extrahieren des Wasserzeichens. Simulationsergebnisse veranschaulichen, dass das vorgeschlagene Verfahren robust gegen Angriffe wie Gaußsches Rauschen, Salz- und Pfefferrauschen, Rotation und Translation ist. PSNR, Ähnlichkeitsmaß und normalisierte Korrelation sind die Leistungsmaße, die zur Bewertung angewendet werden und die mit Wavelet Packet Transform (WPT) verglichen werden. Simulationen werden mit Matlab zugestanden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1810-8_5 c7c385c24f6da88d598877d5569e67b7;de;;;5.1.;;;Kalibrierung von Nahinfrarot-Kameras für die optische chirurgische Navigation Optische Nahinfrarot-Tracking-Geräte, die wichtige Komponenten chirurgischer Navigationssysteme sind, müssen für ein effektives Tracking kalibriert werden. Die Kalibrierergebnisse haben direkten Einfluss auf die Tracking-Genauigkeit eines Gesamtsystems. Daher ist das Studium der Kalibriertechniken von theoretischer Bedeutung und praktischem Wert. In der vorliegenden Arbeit wird eine systematische Kalibriermethode auf Basis beweglicher Platten etabliert, die bestehende Kalibriertheorien analysiert und Methoden mit Kalibrierreferenzobjekten implementiert. Zunächst wird das Verzerrungsmodell von Nahinfrarotkameras (NICs) bei der Implementierung dieser Methode analysiert. Zweitens werden die Kalibrierungsbilder aus verschiedenen Positionen und Orientierungen verwendet, um die erforderlichen linearen Gleichungen aufzustellen. Die Anfangswerte der NIC-Parameter werden mit der Methode der direkten linearen Transformation berechnet. Schließlich werden die genauen internen und externen Parameter der NICs durch Durchführen einer nichtlinearen Optimierung erhalten. Die Analyseergebnisse zeigen, dass die relativen Fehler der linken und rechten NICs im Trackingsystem 0,244 bzw. 0,282 % für die Brennweiten bzw. 0,735 bzw. 1,111 % für die Hauptpunkte betragen. Die Bildreste des linken und rechten Bildsatzes betragen beide weniger als 0,01 Pixel. Der Standardfehler des Kalibrierergebnisses ist kleiner als 1 und der Messfehler des Nachführsystems kleiner als 0,3 mm. Die experimentellen Daten zeigen, dass die vorgeschlagene Methode zur Kalibrierung von NICs effektiv ist und günstige Kalibrierungsergebnisse liefern kann.;-;-;-;https://link.springer.com/article/10.1007/s10916-015-0427-8 e69f00068ae66f0d25e13b8a9d270e05;de;;;5.1.;;;Neue Bedrohungen für den Datenschutz im Gesundheitsbereich Einhergehend mit der rasanten Digitalisierung von Gesundheitsdaten (z. B. elektronische Patientenakten) wächst die Sorge um die Wahrung des Datenschutzes bei gleichzeitiger Nutzung des Nutzens, insbesondere wenn die Daten für die Zweitverwendung veröffentlicht werden müssen. Der Großteil der aktuellen Forschung zum Schutz von Gesundheitsdaten konzentriert sich auf die Anonymisierung von Daten und die Anonymisierung von Daten, bei der die identifizierbaren Informationen aus den veröffentlichten Gesundheitsdaten entfernt werden, um zu verhindern, dass ein Gegner über die Privatsphäre der Patienten nachdenkt. Allerdings sind veröffentlichte Gesundheitsdaten nicht die einzige Quelle, auf die sich die Gegner verlassen können: Bei einer großen Menge an Informationen, die Menschen freiwillig im Web teilen, werden ausgeklügelte Angriffe praktisch, die unterschiedliche Informationen aus mehreren Quellen gegen den Datenschutz von Gesundheitsdaten zusammenführen. Bisher wurden nur begrenzte Anstrengungen unternommen, um diese Angriffe zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-12-S12-S7 11844c0255d4d6fc7487a394a39917e2;de;;;5.1.;;;Syntaktische und semantische Vorhersage in dynamischen Sprachen Im Zusammenhang mit der Computerprogrammierung wird die Bedeutung der Computerunterstützung von vielen Entwicklergemeinschaften verstanden. Entwickler sind z.B. Verwenden der gleichen wohlbekannten Ausdrücke oder Suchen von Methodensignaturen in Bibliotheksdokumentationen. Code-Sense- oder IntelliSense-Methoden machen die meisten dieser Aktionen überflüssig, da sie die verfügbaren nützlichen Informationen vollständig automatisiert direkt an den Programmierer liefern. In letzter Zeit taucht mit der verstärkten Fokussierung der Industrie auf dynamische Sprachen ein Problem auf - die vollständige Kenntnis des Quellcodes wird auf die Laufzeit verschoben, da es im Codefragment zu mehrdeutigen Semantiken kommen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05441-9_6 38046fb7908f6d5e8c0a45ed7ed1c270;de;;;5.1.;;;Interne photonische Modulation verschiedener räumlicher Polarisationsmodi unter Verwendung digitaler Laserübertragung über Glasfaserkanäle Ein nachfolgendes Merkmal des digitalen Lasers ist die kostengünstige Leichtigkeit, Formen digital unter Verwendung von Elektronik zu erzeugen, anstatt teure räumliche optische Linsen zu verwenden. Dies führt zu einer Möglichkeit, Daten intern unter Verwendung von digital erzeugten Formen zu modulieren, die spezifisch für einen Modus der Polarisationen des elektrischen Felds sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-8595-7_2 0fe481e4d2eb2c616a184b0782fa3246;de;;;5.1.;;;Ein adaptiver Latenz-Energie-Balance-Ansatz der MAC-Schicht in drahtlosen Sensornetzwerken CtS ist ein neuartiges Kommunikationsparadigma in drahtlosen Sensornetzwerken. Es zeichnet sich durch lange Latenz und geringen Energieverbrauch aus. Die aktuelle Forschung zu CtS steht jedoch unter idealisierten Annahmen. In diesem Papier analysieren wir die Grenzen des CtS-Paradigmas in der realen Umgebung und führen dann ein neues Paradigma namens ALEB ein, das auf CtS basiert. In der realen Umgebung schlägt das CtS-Verfahren fehl, weil die Takte verschiedener Knoten nicht perfekt synchronisiert sind und die Latenz zwischen benachbarten Knoten mit einem Fehlerbereich variiert. Um Daten fehlerfrei zu übertragen, schlagen wir in ALEB eine Multiply-Divide-Methode vor. Darüber hinaus ist die CtS-Methode durch ihre lange Latenz auf einen kleinen Anwendungsbereich beschränkt. Wir schlagen eine gemischte Methode vor, um die Anwendbarkeit von ALEB viel breiter zu gestalten.;-;-;-;https://link.springer.com/chapter/10.1007/11814856_34 ba552735bcb7a3183df75bf7f88c4d86;de;;;5.1.;;;Lokale oder globale Minima: Flexible Dual-Front-Aktivkonturen Die meisten Varianten aktiver Konturmodelle sind darauf ausgelegt, die „erwünschten“ lokalen Minima datenabhängiger Energiefunktionale zu finden, in der Hoffnung, unerwünschte Konfigurationen aufgrund von Rauschen oder komplexer Bildstruktur zu vermeiden. Daher wurde viel über den Entwurf komplexer bereichsbasierter Energiefunktionale geforscht, die weniger wahrscheinlich zu unerwünschten lokalen Minima führen. Leider sind die meisten dieser „robusteren“ bereichsbasierten Energiefunktionale aufgrund stärkerer Annahmen über die zugrunde liegenden Bilddaten auf eine viel engere Klasse von Bildern anwendbar. Die Entwicklung neuer Implementierungsalgorithmen für aktive Konturen, die versuchen, mehr globale Minimierer bereits vorgeschlagener bildbasierter Energien zu erfassen, würde es uns ermöglichen, eine Energie auszuwählen, die für eine bestimmte Energieklasse sinnvoll ist, ohne sich um ihre Empfindlichkeit gegenüber lokalen Minima zu kümmern. Manchmal ist das vollständig globale Minimum jedoch ebenso unerwünscht wie ein zu lokales Minimum.;-;-;-;https://link.springer.com/chapter/10.1007/11569541_36 213c6a7db99323b67dbc84e52b38b424;de;;;5.1.;;;Ringsignatur mit ausgewiesener Verknüpfbarkeit Ringsignaturen ermöglichen es einem Benutzer, eine Nachricht zu signieren, sodass ein Ring möglicher Unterzeichner identifiziert wird, ohne genau preiszugeben, welches Mitglied dieses Rings die Signatur tatsächlich generiert hat. Dieses Konzept wurde verwendet, um neue kryptografische Anwendungen zu erstellen, wie z. B. designierte Signaturen, gleichzeitige Signaturen usw. Um Missbrauch zu vermeiden, wird das Konzept von concept;-;-;-;https://link.springer.com/chapter/10.1007/11908739_8 137d2f9358b1c93b9eb7e0b7a8176f8a;de;;;5.1.;;;Überwachung kurzfristiger Veränderungen von Infektionskrankheiten in Uganda mit Gauß-Prozessen Es wird eine Methode zur Überwachung von Infektionskrankheiten auf der Grundlage von Gesundheitsakten vorgeschlagen. Infektionskrankheiten, insbesondere Malaria, sind eine ständige Bedrohung für die öffentliche Gesundheit Ugandas. Die Methode wird auf die Aufzeichnungen von Gesundheitseinrichtungen zu Malaria in Uganda angewendet. Die erste zu bewältigende Herausforderung ist der Lärm, der durch fehlende Berichte der Gesundheitseinrichtungen verursacht wird. Wir verwenden Gauß-Prozesse mit vektorwertigen Kerneln, um die fehlenden Werte in der Zeitreihe zu schätzen. Später verwenden wir für aggregierte Daten auf Bezirksebene eine Kombination von Kerneln, um die Zeitreihen der Fallzahlen in kurz- und langfristige Komponenten zu zerlegen. Diese Methode ermöglicht es nicht nur, den Effekt bestimmter Komponenten zu entfernen, sondern die interessierenden Komponenten genauer zu untersuchen. Die kurzfristigen Variationen einer Infektion werden in vier zyklische Stadien eingeteilt. Der Verlauf einer Infektion in der Bevölkerung kann leicht analysiert und zwischen verschiedenen Bezirken verglichen werden. Das bereitgestellte grafische Tool kann eine schnelle Reaktionsplanung und Ressourcenzuweisung unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-44412-3_7 41fc5a2f080ef1459293a477bcff0196;de;;;5.1.;;;Wrapper-Generierung durch Verwendung von XML-basiertem Domänenwissen für die intelligente Informationsextraktion In diesem Artikel werden einige der Probleme bei der Extraktion von Webinformationen erörtert, wobei der Schwerpunkt auf automatischen Extraktionsmethoden liegt, die die Wrapper-Induktion ausnutzen. Insbesondere weisen wir auf die Grenzen traditioneller heuristischer Wrappergenerierungssysteme hin und betonen als Lösung die Bedeutung des Domänenwissens im Prozess der Wrappergenerierung.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45683-X_51 c7f3804be27106695ac59326ca90130c;de;;;5.1.;;;Sicherheitsprobleme von sozialen Online-Netzwerken Die Zahl der Nutzer der sozialen Online-Netzwerke wie Facebook, Twitter, Google, linkedIn nimmt enorm zu. In ähnlicher Weise steigt auch die Zeit, die jeder Benutzer in solchen sozialen Online-Netzwerken (OSN) verbringt. Diese Dinge zeigen deutlich, dass die Popularität dieser OSN wie ein Lauffeuer zunimmt. Diese OSN bieten dem Benutzer eine sehr effiziente Plattform, um mit anderen in Kontakt zu treten. Diese Benutzer kommunizieren häufig miteinander. So finden die Gegner das OSN als weiches Ziel, um leicht anzugreifen und es in kürzerer Zeit an die große Anzahl von Benutzern zu verteilen. In diesem Papier betrachten wir einige dieser Bedrohungen für OSN sowie Gegenmaßnahmen gegen einige dieser Bedrohungen, um sowohl das OSN als auch den Benutzer in der digitalen Welt sicher zu machen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36321-4_69 6e385b4b9d7c9a994a282dc881d513fe;de;;;5.1.;;;Verbesserung der E-Commerce-Sicherheit mit GSM-Authentifizierung Heutzutage werden E-Commerce-Transaktionen normalerweise mit SSL/TLS\@ geschützt. Die Verwendung von SSL/TLS birgt jedoch Risiken, insbesondere Bedrohungen aufgrund der Tatsache, dass Informationen am Endpunkt der Kommunikationsverbindung klar gespeichert werden, und der fehlenden Benutzerauthentifizierung. Obwohl SSL/TLS letzteres bietet, ist es optional und wird normalerweise weggelassen, da Benutzer normalerweise nicht über das erforderliche asymmetrische Schlüsselpaar verfügen. In diesem Papier schlagen wir ein Zahlungsprotokoll vor, bei dem die Benutzerauthentifizierung mithilfe der GSM-Authentifizierung der Teilnehmeridentität bereitgestellt wird. In dem Protokoll muss ein Verbraucher eine GSM-Mobilstation besitzen, die unter einem Teilnehmernamen registriert ist, der dem auf seiner Debit-/Kreditkarte entspricht. Die Karteninhaberidentität wird mit der GSM-Teilnehmeridentität so kombiniert, dass ohne eine Mobilstation, insbesondere die SIM, und die entsprechende Debit-/Kreditkarte einem skrupellosen Benutzer eine betrügerische Zahlung auf Kosten rechtmäßiger Karteninhaber. Dies wird so erreicht, dass dem Benutzer kein Verwaltungsaufwand auferlegt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45229-4_8 014957dcd51aa87c7fed2d84f39a58d6;de;;;5.1.;;;Dynamisches Vertragsdesign für das systemische Cyber-Risikomanagement von interdependenten Unternehmensnetzwerken Die Interkonnektivität von Cyber- und physischen Systemen und dem Internet der Dinge hat bei Systemmanagern von Unternehmen allgegenwärtige Bedenken hinsichtlich Cyber-Bedrohungen hervorgerufen. Es ist üblich, dass die Eigentümer von Anlagen und die Betreiber von Unternehmensnetzwerken mit Cybersicherheitsexperten zusammenarbeiten müssen, um das Risiko zu managen, indem sie sie für ihre nicht direkt beobachtbaren Bemühungen entlohnen. In diesem Papier verwenden wir ein Prinzipal-Agenten-Framework, um die Leistungsbeziehungen zwischen den beiden Parteien, d. h. dem Asset Owner (Principal) und dem Cyber ​​Risk Manager (Agent), zu erfassen. Konkret betrachten wir ein dynamisches Systemrisikomanagementproblem mit asymmetrischen Informationen, bei dem der Prinzipal nur die Cyber-Risikoergebnisse des Unternehmensnetzwerks beobachten kann und nicht direkt die Bemühungen des Managers zum Schutz der Ressourcen. Nach diesem Informationsmuster zielt der Auftraggeber darauf ab, die systemischen Cyber-Risiken zu minimieren, indem er einen dynamischen Vertrag gestaltet, der die Vergütungsflüsse und die erwarteten Anstrengungen des Managers unter Berücksichtigung seiner Anreize und seines rationalen Verhaltens festlegt. Wir formulieren ein zweistufiges Mechanismusdesignproblem für dynamisches Vertragsdesign im Rahmen einer Klasse von stochastischen Differentialspielen. Wir zeigen, dass der Prinzipal das systemische Risiko rational kontrollierbar ist, indem wir einen anreizkompatiblen Schätzer für die versteckten Anstrengungen des Agenten entwerfen. Wir charakterisieren die optimale Lösung, indem wir das Problem in ein stochastisches optimales Steuerungsprogramm umformulieren, das mit dynamischer Programmierung gelöst werden kann. Wir untersuchen weiter ein Benchmark-Szenario mit vollständigen Informationen und identifizieren Bedingungen, die eine Null-Informationsrente ergeben und zu einem neuen Sicherheitsäquivalenzprinzip für Prinzipal-Agent-Probleme führen. Abschließend werden Fallstudien über vernetzte Systeme durchgeführt, um die gewonnenen theoretischen Ergebnisse zu veranschaulichen.;-;-;-;https://link.springer.com/article/10.1007/s13235-020-00363-y f542d89f58c29aa0b2178e3ec9c9a1eb;de;;;5.1.;;;Prognosemodell für den Sprach- und Internetdatenverkehr während der Spitzenzeiten mit dem Hidden-Markov-Modell Die Modellierung von Prozessen ist eines der Kernziele der Wissenschaft. Da die Mobilkommunikation zu einer der boomenden Technologien dieser Ära geworden ist, fordern Mobilfunkbetreiber auf der ganzen Welt eine angemessene Modellierung und Vorhersage des Verkehrs, um ihre Ressourcen intelligenter zu investieren. In diesem Beitrag wurde eine leistungsstarke stochastische Modellierungstechnik, das Hidden Markov Modeling (HMM), verwendet, um ein Vorhersagemodell für den Sprachverkehr über 2G und 3G und den Internetdatenverkehr über 3G und 4G während der Spitzenzeiten durch überwachtes Lernen zu entwickeln. Das entworfene Modell wurde entwickelt, um den Mobilfunkverkehr in Mauritius vorherzusagen, einem Land mit begrenzten Vorhersagemodellen in diesem speziellen Bereich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-18240-3_14 351332c4954ad9776cc30006859c7df3;de;;;5.1.;;;Generische Services für den domänenübergreifenden Einsatz im E-Government Die Wirtschaftskrise war ein Katalysator für die Entwicklung des Cloud Computing und die Rationalisierung der IT-Systeme, die E-Government-Dienste anbieten. Die Wiederverwendbarkeit von Software und Diensten ist eine zwingende Voraussetzung für die neuen Systeme, die entworfen und entwickelt werden. Trotz der unterschiedlichen Anwendungsfälle, die unterschiedliche Domänen wie e-Health, e-Procurement, e-Business, e-Justiz, e-Learning nutzen, lassen sich die notwendigen Kernleistungen in eID, e-Signatur, e -Lieferung, E-Dokumente und Semantik in einer sicheren und vertrauenswürdigen Umgebung. Dieses Papier zielt darauf ab, die wichtigsten Maßnahmen in der Europäischen Union wie das Programm Connecting Europe Facility, die Prinzipien des nächsten Programms nach den Interoperablen Lösungen für die öffentliche Verwaltung und groß angelegte Pilotprojekte wie STORK2 und E-SENS vorzustellen. Die Nachhaltigkeit all dieser Lösungen ist eine Herausforderung, die angegangen werden sollte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11710-2_6 ce23e7777b15d381235a6932be868b96;de;;;5.1.;;;Grobkörnige Lokalisierung in akustischen drahtlosen Sensornetzwerken unter Wasser Underwater Acoustic Wireless Sensor Networks (UASNs) sind der Weg, die Unterwasserumgebung mit dem Rest der Welt zu verbinden. Aufgrund der großen Anzahl von Anwendungen, die die Unterwasserumgebung überwachen müssen, gewinnt es an Popularität. Die gesammelten Daten aus diesen Netzwerken sind ohne den physischen Standort der Sensorknoten bedeutungslos. Lokalisierungsschemata beziehen die Daten mit ihren räumlichen Informationen in Beziehung. In diesem Artikel haben wir ein Lokalisierungsschema für Unterwasser-Sensornetzwerke entwickelt, das grobkörnige Standortinformationen der Sensorknoten liefert. Die Simulationsergebnisse zeigen, dass bei einem geringeren Energieverbrauch mehr als;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2035-4_17 ee7e73274d4c3ea3db3521ad2a31ae5a;de;;;5.1.;;;Clusterschätzung in terrestrischen und Unterwasser-Sensornetzwerken Im Wireless Sensor Network (WSN) wird Clustering als effiziente Netzwerktopologie betrachtet, die die empfangenen Daten an der Senke maximiert, indem eine direkte Übertragung von Daten von den Sensorknoten minimiert wird. Die Begrenzung der direkten Kommunikation zwischen Sensorknoten und der Senke wird erreicht, indem die Übertragung des Sensorknotens auf eine bestimmte Region, die als Cluster bekannt ist, beschränkt wird. Sobald die Daten von allen Sensoren im Cluster gesammelt wurden, werden sie von einem Knoten, der für die Kommunikation mit der Senke innerhalb eines Clusters bestimmt ist, an die Senke gesendet. Diese Technik reduziert nicht nur die Netzüberlastung, sondern erhöht auch den Datenempfang und spart Netzenergie. Um eine Zunahme der an der Senke empfangenen Daten zu erreichen, ist es erforderlich, dass die richtige Anzahl von Clustern innerhalb eines Erfassungsfelds erzeugt wird. In diesem Beitrag wird ein neuer heuristischer Ansatz vorgestellt, um die optimale Anzahl von Clustern in einem mobilitätsgestützten terrestrischen und Unterwasser-Sensornetzwerk zu finden. Um eine starke Verbindung zwischen Sensorknoten und dem als Cluster-Head (CH) bezeichneten Knoten aufrechtzuerhalten, ist es notwendig, dass die Mobilität des Sensorknotens auch während des Cluster-Setup-Vorgangs berücksichtigt wird. Dieser Ansatz reduziert nicht nur die direkte Übertragung zwischen Sensorknoten und Senke, sondern erhöht auch die Konnektivität des Sensorknotens mit seinem CH für die Übertragung der erfassten Daten, was zur Schaffung einer stabilen Netzwerkstruktur führt. Die vorgeschlagene analytische Schätzung berücksichtigt den Übertragungsbereich des Sensorknotens und die Abmessungen des Erfassungsfelds, um die richtige Anzahl der Cluster in einem Erfassungsfeld zu finden. Mit diesem Ansatz kann eine bessere Netzabdeckung und Konnektivität beim Datenaustausch erreicht werden, was wiederum die Netzleistung erhöht.;-;-;-;https://link.springer.com/article/10.1007/s11277-020-07851-9 7cc91f0ef18ebdf87b87ed8836f31791;de;;;5.1.;;;Kollektive Prüfung von Dokumenten zu COVID-19-Gefahrenfaktoren durch NLP Der Ausbruch des neuartigen COVID-19-Virus wird in allen experimentellen wissenschaftlichen Tests identifiziert, die den Opfern helfen, die Pandemiesituation zu bekämpfen. Das Problem scheint eine große Anzahl wissenschaftlicher COVID-19-Artikel mit unterschiedlichen Risikofaktoren zu haben. Die schnelle Identifizierung von Dokumenten ermöglicht die Verarbeitung und Interpretation von unabdingbaren wesentlichen Erkenntnissen für Ermittler. Dieser Artikel bietet eine Lösung, indem er einen unbeaufsichtigten Rahmen für die Interpretation klinischer Studien zu COVID-19-Risikofaktoren mit einer Vielzahl von Artikeln zu Impfstoffen und Behandlungen aus einem großen Korpus von Dokumenten schafft. Es bietet auch praktisches informatives Wissen zu COVID-19-Risikofaktoren und hilft Forschern, jedem einzelnen Autor die Möglichkeit zu geben, geeignete Informationen zu erhalten. Die vorliegende Anwendung verwendet künstliche Intelligenz, natürliche Sprachverarbeitungsansätze, die in allen Suchmaschinen integriert sind, um nach Schlüsselwörtern zu suchen, um Kategorien mit normalisierten linguistischen Daten zu klassifizieren. Die Textdaten werden stattdessen in Phrasen geparst und der Text mit der Erkennung von Datenrahmenkomponenten mit relevanten Ergebnissen bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4909-4_62 85b79c167718077a7d7399b4bc1be1d9;de;;;5.1.;;;Evolution-in-materio: Entwicklung der Materialberechnung Evolution-in-materio (EIM) ist die Manipulation eines physikalischen Systems durch computergesteuerte Evolution (CCE). Sie vertritt die Position, dass man, um aus einem physikalischen System nützliche Funktionen zu erhalten, hochspezifische physikalische Signale anlegen und das System in einen bestimmten physikalischen Zustand versetzen muss. Sie argumentiert, dass CCE eine wirksame Methode dafür ist. Einer der potenziellen Vorteile davon ist, dass die künstliche Evolution potenziell physikalische Effekte ausnutzen kann, die entweder zu komplex sind, um sie zu verstehen, oder bisher unbekannt sind. EIM wird am häufigsten als Methodik für die Implementierung verwendet;-;-;-;https://link.springer.com/article/10.1007/s12065-014-0106-6 f3fa1e8852d4d01587c708cd39010736;de;;;5.1.;;;Verbesserte Sicherheitssysteme für ein effizientes Verkehrsmanagement in Fahrzeug-Ad-Hoc-Netzwerken Da die Zahl der Privatfahrzeuge von Tag zu Tag exponentiell ansteigt, ist es wichtig, nützliche Reiseinformationen für Straßenreisende zur Verfügung zu stellen, um ihre Reise im Voraus zu planen. Eine der neuesten Technologien, die Echtzeit- und schnellere Kommunikation unterstützt, ist das Vehicular Ad-hoc Network (VANET). Es gibt mehrere nützliche Informationen, die über die intelligenten Fahrzeugbenutzer der VANET-Infrastruktur übertragen werden können. Die nützlichen Informationen können sich auf den Fahrzeugverkehr, Sicherheitsmaßnahmen oder Unterhaltung beziehen, die Authentizität, Vertraulichkeit, Anonymität und Verfügbarkeit erfordern. Dieses Papier schlägt ein sicheres Schema für solche Informationen vor, um verbesserte Straßenverkehrsmanagementanwendungen von VANET bereitzustellen. Im Einzelnen konzentriert sich das vorgeschlagene Modell hauptsächlich auf: (i) ein Entscheidungsschema zur Analyse der Straßenverkehrssituation (ii) Verwendung einer auf Videobildverarbeitung basierenden Infrastruktur in Verbindung mit VANET (VIMPROS-V), um die während einer kritischen Verkehrssituation übermittelten Informationen aufzuzählen und zu authentifizieren . Das vorgeschlagene Modell wird für eine Echtzeit-Verkehrsstauschätzungsanwendung (TraCo) angewendet und durch Simulieren ähnlicher Verkehrsbedingungen entsprechend einem Echtzeit-Verkehrsvideo getestet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9609-4_10 dd1310e483c9f72d33b9db3eabc4453e;de;;;5.1.;;;Empfehlungen von E-Commerce-Verkäufern basierend auf Käufer-Feedbacks Online-Shopping wird immer beliebter, da immer mehr Menschen ihre Einkaufsgewohnheiten vom traditionellen zum Online-Shopping ändern. Manchmal ist es jedoch für einen Käufer schwierig zu entscheiden, welcher Verkäufer für seine Einkäufe gut ist. Daher ist es notwendig, ein System zu entwickeln, das Verkäufern für einen Käufer empfehlen kann, seine Produkte bei ihnen zu kaufen. In diesem Papier wird ein Verkäuferempfehlungssystem vorgeschlagen, das Benutzerfeedback verwendet. Das Verkäuferempfehlungssystem dient dazu, die Verkäufer zu ordnen, die die von den Käufern angegebenen Produkte verkaufen. Käufer können Produkte und Budgets nach Bedarf angeben. Schließlich zeigen die experimentellen Ergebnisse, dass ein Verkäufer, der in der Lage ist, exzellenten Service zu bieten, mehr als 10 Jahre Erfahrung haben sollte und unser System tatsächlich die reale Situation widerspiegeln kann, indem es die bestbewerteten Verkäufer kontrastiert, die von der eBay-Site anerkannt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45071-0_5 5d1122a4f91801de9e4d607e44ff6d7a;de;;;5.1.;;;Effiziente Lokalisierung für Roboterfußball mit Pattern Matching Eine der größten Herausforderungen in der RoboCup Soccer Standard Platform League (SPL) besteht darin, autonom eine genaue Schätzung der Position und Ausrichtung eines Roboters auf dem Spielfeld zu erzielen und aufrechtzuerhalten. In anderen Robotikanwendungen existieren bereits viele robuste Systeme zur Lokalisierung, wie z. Diese Ansätze erfordern entweder spezielle Hardware oder sind sehr rechenintensiv und eignen sich nicht für den Nao-Roboter, den aktuellen Roboter der Wahl für die SPL. Daher sind neue Ansätze zur Lokalisierung in der RoboCup SPL-Umgebung erforderlich. In diesem Beitrag stellen wir einen neuen Ansatz zur Lokalisierung in der SPL vor, der sich hauptsächlich auf die in weißen Feldmarkierungen enthaltenen Informationen stützt und gleichzeitig effizient genug ist, um an Bord eines Nao-Roboters in Echtzeit zu laufen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34781-8_2 e13179856777bbdfcc072fff9eb4af0f;de;;;5.1.;;;Mehrere Zeitblöcke Energy Harvesting Relais Optimierung mit Zeitschaltstruktur und Dekodierungskosten Energy Harvesting (EH) ist von größter Bedeutung für die Ermöglichung von Internet of Things (IoT)-Netzwerken. Obwohl in der Literatur Energie-Harvesting-Relais in Betracht gezogen wurden, berücksichtigen die meisten Studien die Verarbeitungskosten nicht, wie beispielsweise die Decodierungskosten in einem Decodierungs-und-Weiterleitungs-(DF)-Relais. Es ist jedoch bekannt, dass die Decodierungskosten einen erheblichen Bruchteil der Schaltungsleistung betragen, die zum Empfangen eines Codeworts erforderlich ist. Daher sind wir in dieser Arbeit motiviert, ein EH-DF-Relais mit den Decodierungskosten zu betrachten und die durchschnittliche Anzahl von Bits, die von ihm mit einer Zeitschaltarchitektur weitergeleitet werden, zu maximieren. Um dies zu erreichen, schlagen wir zunächst a;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-48513-9_49 07f6c6a80f0334571869c99aaa1a9b64;de;;;5.1.;;;BLO: Eine Backtracking-basierte Layoutoptimierungsmethode für die zeitgesteuerte Rekonstruktion der Ethernet-Topologie Time-Triggered Ethernet (TTE) als neuartige Kommunikationsarchitektur erfordert hohe Anforderungen an die Echtzeit-Datenübertragung und ist in Luft- und Raumfahrtsystemen weit verbreitet. Allerdings schränken die hohen Kosten von Flugzeugnetzwerken die Entwicklung von TTE in hohem Maße ein. Daher sind wir bestrebt, einen effektiven Algorithmus vorzuschlagen, um die komplexen Netzwerke zu optimieren und die physischen Kosten zu sparen und gleichzeitig die Datenübertragung in Echtzeit zu gewährleisten. Zuerst generieren wir die anfängliche Topologiekarte gemäß der vom Benutzer angegebenen Routing-Tabelle. Anschließend passen wir die Anzahl der Switches bzw. Links auf Basis unseres BLO-Algorithmus an, der Backtracking-Algorithmus und komplexe Netzwerktheorie vereint. Darüber hinaus entwerfen wir unter Berücksichtigung der Bequemlichkeit unserer Präsentation eine Demo-Software zur Topologierekonstruktion. Schließlich demonstrieren wir die Zuverlässigkeit unseres Algorithmus durch Experimente, und das Ergebnis zeigt, dass unser Algorithmus in der Lage ist, die topologische Struktur mit dualer Redundanz vernünftig zu optimieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5390-5_9 6867706544263293465c18acc50c20e4;de;;;5.1.;;;Dynamisches Modell für die Servicezusammensetzung und optimale Auswahl in einer Cloud-Fertigungsumgebung Ein Klassifizierungsmodell wird vorgeschlagen, um Dienste in einer Cloud-Umgebung für die Dienstzusammensetzung und optimale Auswahl (SCOS) zuzuordnen, zu suchen und abzugleichen. Im Gegensatz zum Cloud Computing umfassen die Dienste im Cloud Manufacturing (CMfg) neben Computing-Diensten auch Echtzeit-Fertigungsressourcen, was die CMfg-Umgebung für die Zuordnung der Dienste zu den jeweiligen Aufgaben erschwert. Somit besteht das Problem darin, keine adäquaten Werkzeuge für die schnelle und effektive Suche und Zuweisung von Diensten für die Implementierung von SCOS zu haben. Die in diesem Papier beschriebene Methode besteht darin, SCOS zu erreichen, indem die Dienste nach einem Ansatz namens Stammbaum organisiert werden. Für die Anwendung dieser Methode ist die Berechnung der semantischen Kosinusdistanz sowie die Analyse der Beziehung zwischen verschiedenen Diensten erforderlich, um die Zusammenarbeit bei der Verwaltung und dem Abgleich von Diensten im Stammbaum zu unterstützen. Es werden Beispiele für die Dienstregistrierung zusammen mit dem Suchen und Auswählen der Dienste durchgeführt, was zeigt, dass dieses Verfahren für die Dienstzusammensetzung und optimale Auswahl effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2396-6_5 eb7b5e6b2995036aeff5f1406021ec65;de;;;5.1.;;;Linkanpassung in Ad-hoc-Netzwerken basierend auf Interferenzminimierung Dieses Papier schlägt einen Verbindungsanpassungsalgorithmus (LAA) für Ad-hoc-Netzwerke vor, der auf der Minimierung gekoppelter Interferenzen basiert, wobei Netzwerkinterferenzen dynamisch durch Anpassen der Sendeleistung gesteuert werden. Eine solche Anpassung nutzt den Verbindungsstatus aus, und daher sind sich die Benutzer der Kanalbedingungen bewusst, wenn sie die Datenraten bestimmen. Die Benutzer werden ermutigt, den Nutzen anderer zu maximieren, während sie ihre eigenen maximieren, da erzwungene Kooperation aufgrund des Preis-/Kosteneffekts, der mit der Auswahl der Sendeleistung verbunden ist, entsteht. Dies entspricht einem supermodularen Spiel, daher wird das Problem der Netzwerknutzenmaximierung (NUM) unter Verwendung eines solchen Werkzeugs formuliert und analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35755-8_35 9e7035711763833a34d39ac7528ef50a;de;;;5.1.;;;Eine Analyse der extrahierten Teile der Internettopologie von Opte Das Papier definiert eine Methode, um einen Teil eines Graphen zu extrahieren, der einer Netzwerktopologie (Internet) entspricht, die einen bestimmten Bereich abdeckt. Die Methode bezieht sich auf Daten, die innerhalb des Opte-Projekts gesammelt wurden und die Internettopologie beschreiben. Die extrahierten Teile von Graphen wurden hinsichtlich der Anzahl der Nachbarn, der längsten Pfadlänge und der Existenz von Zyklen analysiert. Dann werden die resultierenden Topologien verwendet, um das transiente Verhalten von Weitverkehrsnetzen unter Verwendung von Fluidströmungs-Approximation zu modellieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19419-6_35 214a344db3b0143f8403c44b76e3b27a;de;;;5.1.;;;Ein hybrider Multipath-Routing-Algorithmus für industrielle drahtlose Mesh-Netzwerke Multipath-Routing, eine Routing-Technik, die die Datenübertragung über mehrere Pfade ermöglicht, ist eine effektive Strategie, um Zuverlässigkeit in drahtlosen Sensornetzwerken zu erreichen. Das Mehrwege-Routing garantiert jedoch keine deterministische Übertragung. Dies liegt daran, dass mehr als ein Pfad zum Übertragen von Daten vom Quellknoten zum Zielknoten verfügbar ist. Für industrielle drahtlose Mesh-Netzwerke wird ein hybrider Mehrpfad-Routing-Algorithmus vorgeschlagen, um die Zuverlässigkeit und Bestimmtheit der Datenübertragung zu verbessern sowie um effektiv mit Verbindungsausfällen umzugehen. Der vorgeschlagene Algorithmus verwendet den verbesserten Dijkstra-Algorithmus zum Suchen der kürzesten Route vom Gateway zu jedem Endknoten für den ersten Routenaufbau. Ein virtuelles Pheromon, das sich vom regulären Pheromon unterscheidet, wird eingeführt, um die Pheromondiffusion und -aktualisierung zu realisieren. Auf diese Weise werden mehrere Routen basierend auf dem Ameisenkolonie-Optimierungsalgorithmus durchsucht. Die für die Datenübertragung verwendeten Routen werden basierend auf ihren regulären Pheromonwerten ausgewählt, was die Übermittlung von Daten über bessere Routen erleichtert. Verbindungsfehler werden dann unter Verwendung eines Routenwartungsmechanismus behandelt. Simulationsergebnisse zeigen, dass der vorgeschlagene Algorithmus herkömmliche Algorithmen in Bezug auf durchschnittliche Ende-zu-Ende-Verzögerung, Paketzustellungsverhältnis und Routing-Overhead übertrifft Mesh-Netzwerke.;-;-;-;https://link.springer.com/article/10.1186/1687-1499-2013-82 8f84d49209abc2d1836861a492035b0f;de;;;5.1.;;;Die Falle der Quantifizierung der Werbewirksamkeit: Eine Vorstudie zu den ethischen Herausforderungen von Native Advertising Als neue Werbeform, die das SNS nutzt, hat die Native Advertising Aufmerksamkeit erregt. Es präsentiert die Anzeige als natürliche Lektüre, wie zum Beispiel den Artikel. Einer der Faktoren, die eine solche Werbung ermöglichen, ist ein Big Data- und Life-Log. Die Analyse von Big Data und Life Log beinhaltet jedoch die ethischen Probleme. In diesem Papier, um die ethischen Fragen zu betrachten, konzentrieren sich zwei Kulturen (d. h. Quantifizierung und Beziehungsparadigma), auf die sich die Marketingwissenschaft konzentriert. Insbesondere die Probleme der Quantifizierungsfalle, dh der Kurzsichtigkeit, werden einige ethische Probleme verursachen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-48319-0_43 7b2faf592997beb166b35c861c191b73;de;;;5.1.;;;Ressourcenmanagement der Tourismusclusterunternehmen auf Basis mobiler Technologien Unter den Bedingungen eines modernen Managements von Hospitality-Einrichtungen spielen die verwendeten Ansätze und Werkzeuge für das Ressourcenmanagement eine wichtige Rolle. Der Artikel diskutiert den Einsatz mobiler Technologien im Ressourcenmanagement des Hotel-Housekeeping-Service. Die mobile Anwendung «Mobile Housekeeping» dient neben dem automatisierten PaRM-Websystem zur Verwaltung der Ressourcen des Hotel-Housekeeping-Service. Das automatisierte System basiert auf einer proaktiven Methodik, deren Beschreibung im Artikel enthalten ist. In der mobilen Anwendung „Mobiles Housekeeping“ wird die Funktionalität unterstützt, die den operativen Einsatz des Personals des Housekeeping-Service an jedem Punkt des Hotels erfordert. Durch den Einsatz integrierter Software können Sie die Ressourcen der Unternehmensabteilungen des Tourismusclusters effektiv verwalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29743-5_17 13863f1365a84a1c4fddfbcde42f7287;de;;;5.1.;;;Ein sicheres Checkpointing-Protokoll für ein überlebensfähiges Serverdesign Sicheres Checkpointing scheint eine nützliche Technik für den Entwurf überlebensfähiger Systeme zu sein. Dies sind fehlertolerante Systeme, die gegen böswillige Sicherheitsangriffe robust sind. Sicheres Checkpointing ist jedoch nicht einfach. Ohne angemessenen Schutz kann der Checkpointing-Prozess angegriffen und kompromittiert werden. Die Checkpointing-Daten können böswilligen Angriffen ausgesetzt sein und eine Quelle für Sicherheitsverletzungen sein. In diesem Whitepaper stellen wir ein neues sicheres Checkpointing-Schema vor, das robust gegen böswillige Angriffe ist. Unser Ansatz verwendet starke kryptografische Techniken für die Vertraulichkeit und Integrität von Daten, byzantinische Vereinbarungsprotokolle für die Erkennung von kompromittierten Peers und Techniken zur Informationsverteilung für Zuverlässigkeit und Verfügbarkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30555-2_50 e0a2bf2824df8826b7601f3d56fd841e;de;;;5.1.;;;Sicherheitsschema im drahtlosen Netz In diesem Beitrag haben wir die beiden Sicherheitsdienste Autorisierung und Datensicherheit in Wireless Grid betrachtet. Die Sicherheitsprobleme beziehen sich auf Autorisierung und Sicherheit, spezifisch für Grid, die Merkmale dieser Dienste wurden beschrieben. Die vorgeschlagenen Sicherheitslösungen für die beiden Dienste Autorisierung und Sicherheit wurden in Abhängigkeit von den zugrunde liegenden Sicherheitstechniken in drei Kategorien eingeteilt. Die Lösungsvorschläge innerhalb jeder Klassifikation werden ausführlich besprochen. und dann werden wir verschiedene Datenschutzmechanismen analysieren, die für Grid vorgeschlagen werden. Für jede Lösung werden wir den Ansatz, die von der Lösung angesprochenen Sicherheitsprobleme, die Stärke der Lösung, den verursachten Overhead und die Schwächen adressieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21783-8_74 61d3019525e66a7c627c32f545df430b;de;;;5.1.;;;Extraktion und Klassifizierung von Textmerkmalen basierend auf dem Convolutional Neural Network (CNN) Mit der rasanten Entwicklung des Internets geben immer mehr Internetnutzer gerne ihre subjektiven Kommentare in der BBS, im Blog und auf der Shopping-Website ab. Diese Kommentare enthalten Einstellungen, Emotionen, Ansichten und andere Informationen von Kritikern. Die vernünftige Verwendung dieser Informationen kann dazu beitragen, die öffentliche Meinung der Gesellschaft zu verstehen und rechtzeitig zu reagieren und Händlern dabei zu helfen, die Qualität und den Service der Produkte zu verbessern und die Verbraucher auf die Waren aufmerksam zu machen. In diesem Artikel wird hauptsächlich die Verwendung von Convolutional Neural Network (CNN) für den Betrieb der Textmerkmalsextraktion erörtert. Die konkrete Umsetzung wird besprochen. Das Kombinieren mit anderen Textklassifikatoren macht dann eine Klassenoperation. Das Versuchsergebnis zeigt die Wirksamkeit der in dieser Arbeit vorgeschlagenen Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-6385-5_40 b42e4ded4d5371061bf1d5f716022d88;de;;;5.1.;;;Ein neuartiger grafikbasierter Ansatz zur Vorhersage des Mannes des Spiels für Cricket Das Aufkommen der Computerintelligenz hat das Motiv, manuelle Prozesse zu automatisieren, nur beschleunigt. Im Sport ist die Auszeichnung des besten Spielers in vielen Fällen fragwürdig und erfordert die Meinung mehrerer angesehener Experten des Sports. Dies führt oft zu einer unfairen Beurteilung der Situation angesichts der zeitlichen Beschränkungen für diese Entscheidung und der Abhängigkeit von rein menschlichen Fähigkeiten und Überlegungen. Dies erfordert ein zuverlässiges und faires System, um den Mann des Spiels unter Berücksichtigung der zahlreichen Variablen fair zu vergeben. Obwohl es auf maschinellem Lernen basierende Ansätze gibt, die versuchen, das Spiel zu modellieren, um das Ergebnis von Gewinnen/Verlusten vorherzusagen, ist es schwierig, den „Mann des Spiels“ in einem Cricket-Spiel mit demselben Ansatz zu modellieren. Wir schlagen einen neuartigen graphenbasierten Ansatz vor, um einem Spieler den „Mann des Spiels“ für ein Cricketspiel zu verleihen. Wir modellieren das Spiel als gerichteten Graphen mit jedem Spieler als Knoten und einer Interaktion zwischen zwei Spielern als Vorteil. Wir verwenden Ball-by-Ball-Lieferdetails, um diesen Graphen mit einer Heuristik zu erstellen, um die Kantengewichte zu berechnen und die Knotenzentralität jedes Spielers zu berechnen, indem wir den personalisierten Pagerank-Algorithmus verwenden, um den zentralsten Spieler im Spiel zu finden. Eine hohe Zentralität weist auf eine gute Gesamtleistung des Players hin. Der Vergleich mit bestehenden Spieldaten zeigte ermutigende Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6318-8_48 16ea5799c754c0a79b72a510bd1535cd;de;;;5.1.;;;Multimodale Bildregistrierung durch quantitativ-qualitatives Maß gegenseitiger Information (Q-MI) In diesem Beitrag wird ein neuartiges Maß für die Bildähnlichkeit, genannt quantitativ-qualitatives Maß der gegenseitigen Information (Q-MI), für die multimodale Bildregistrierung vorgestellt. Das konventionelle Informationsmaß, d. h. die Shannon-Entropie, ist ein quantitatives Maß für die Information, da es nur Wahrscheinlichkeiten berücksichtigt, nicht die Nutzen von Ereignissen. Tatsächlich hat jedes Ereignis seinen eigenen Nutzen zur Erfüllung des zugrunde liegenden Ziels, der unabhängig von seiner Eintrittswahrscheinlichkeit sein kann. Daher ist es wichtig, sowohl quantitative als auch qualitative (d. h. Nutzen-)Informationen gleichzeitig für die Bildregistrierung zu berücksichtigen. Um dies zu erreichen, werden hervorstechende Voxel, wie z. B. Voxel der weißen Substanz (WM) in der Nähe der Hirnrinde, höhere Nutzen als die WM-Voxel innerhalb der großen MW-Regionen erhalten, entsprechend den regionalen Salienzwerten, die aus der Scale-Space-Karte des Gehirnbildes berechnet wurden. Somit tragen Voxel mit höheren Nutzen mehr zur Messung der gegenseitigen Information von zwei Bildern unter Registrierung bei. Wir verwenden dieses neuartige Maß der gegenseitigen Information (Q-MI) zur Registrierung von multimodalen Gehirnbildern und stellen fest, dass die Erfolgsrate unserer Registrierungsmethode viel höher ist als die der herkömmlichen Methode der gegenseitigen Informationsregistrierung.;-;-;-;https://link.springer.com/chapter/10.1007/11569541_38 18d1f3d86d2c3473f27371cedcf2a827;de;;;5.1.;;;Früherkennung schwerer Apnoe durch Stimmanalyse und automatische Sprechererkennungstechniken Diese Studie ist Teil einer laufenden Zusammenarbeit zwischen der Medizin und der Signalverarbeitungsgemeinschaft, um die Forschung zur Anwendung von Stimmanalyse- und automatischen Sprechererkennungstechniken (ASR) für die automatische Diagnose von Patienten mit schwerer obstruktiver Schlafapnoe (OSA) zu fördern. Die Früherkennung schwerer Apnoe-Fälle ist wichtig, damit Patienten frühzeitig behandelt werden können. Eine effektive ASR-basierte Diagnose könnte die Zeit für medizinische Tests drastisch verkürzen. In Zusammenarbeit mit einer sorgfältig entworfenen Sprachdatenbank von gesunden und Apnoe-Patienten präsentieren und diskutieren wir die Möglichkeiten der Verwendung von generativen Gaussian Mixture Models (GMMs), die im Allgemeinen in ASR-Systemen verwendet werden, um charakteristische Apnoe-Stimmmerkmale (d. h. abnorme Nasalisierung) zu modellieren. Schließlich präsentieren wir experimentelle Ergebnisse bezüglich der Unterscheidungskraft von Sprechererkennungstechniken, die auf die Erkennung schwerer Apnoe angewendet werden. Wir haben eine korrekte Klassifizierungsquote von 81,25 % erreicht, was sehr vielversprechend ist und das Interesse an dieser Fragestellung untermauert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11721-3_19 0b096eefbe7408434516071ae0d810d0;de;;;5.1.;;;Mobile Erkundung des mittelalterlichen St Andrews Saint Andrews ist eine Stadt mit einer reichen Geschichte. Es war fast ein Jahrtausend lang das religiöse Zentrum Schottlands. Die Kathedrale wurde stark mit den Unabhängigkeitskriegen und Robert the Bruce in Verbindung gebracht. Das Schloss war Schauplatz einer entscheidenden Revolte, die zur Reformation führte und beherbergte die erste schottische protestantische Gemeinde. Die St. Salvators Chapel war das religiöse Zentrum von Schottlands erster Universität. In diesem Beitrag werden Arbeiten vorgestellt, die sich mit dem Einsatz mobiler Technologien beschäftigen, um die Untersuchung, das Lernen und die Wertschätzung der Vergangenheit zu unterstützen. Es baut auf Tradition und Weltklasse-Wissenschaft in der Geschichte dieser wichtigen Stadt auf und macht sie Schülern, Forschern und Touristen mit mobilen Technologien zugänglich. Von textbasierten Quests über mobile Apps bis hin zu ortsbezogenen stereoskopischen 3D-Erlebnissen wird die Bandbreite verfügbarer Rohstoffe und neuer Hardware genutzt, um die Vergangenheit auf neue Weise zu erkunden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22017-8_10 93e4bcf13482f3ce50f5b3ac8a83fa18;de;;;5.1.;;;Grober Net-Ansatz für die Analyse der Community-Erkennung in komplexen Netzwerken Die grobe Mengenlehre hat viele interessante Anwendungen unter Umständen, die durch Unbestimmtheit gekennzeichnet sind. In diesem Beitrag werden die Anwendungen der Rough-Set-Theorie in der Community-Detection-Analyse basierend auf der Rough-Net-Definition diskutiert. Wir werden die Anwendung von Rough Net auf die Gültigkeit der Community-Erkennung in beiden konzentrieren;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-52705-1_30 54f98bdf034c4c509a563a2f6f59677c;de;;;5.1.;;;Auswertung und Korrektur der Niederschlagsprodukte der Satelliten TRMM 3B43V7 und GPM 3IMERGM anhand von bodengestützten Daten über Xinjiang, China Die Satellitenerfassung von Niederschlägen ist in ariden Regionen, in denen leichte Niederschläge vorherrschen, eine große Herausforderung. Um die Genauigkeit von Satellitenniederschlagsprodukten in Xinjiang, der trockensten Region Chinas, zu verbessern, wurde in dieser Studie zunächst die Leistung von zwei weit verbreiteten monatlichen Satellitenprodukten von April 2014 bis August 2017 bewertet. Die erste war die Tropical Rainfall Measuring Mission (TRMM). 3B43 Version 7 (im Folgenden 3B43V7) und die zweite war die integrierte Multi-Satellite Retrievals for the Global Precipitation Measurement (GPM) Mission (IMERG) (im Folgenden 3IMERGM). Das 3IMERGM-Produkt wurde dann durch ein schrittweises Regressionsmodell unter Verwendung topografischer Variablen korrigiert, die aus dem digitalen Höhenmodell (DEM) abgeleitet wurden. Ein Vergleich zwischen Satellitenschätzungen und In-situ-Messungen zeigt, dass sowohl 3B43V7 als auch 3IMERGM den Niederschlag insgesamt überschätzen, 3IMERGM jedoch besser abschneidet als 3B43V7. Die relativen Verzerrungen (RB) von 3B43V7 und 3IMERGM betrugen 10,24 bzw. 7,76 %. Der Korrelationskoeffizient (CC) zwischen 3IMERGM und den Messgeräten beträgt 0,68, was höher ist als der beobachtete CC (d. h. 0,62) zwischen 3B43V7 und den Messgeräten. Um die Leistung des korrigierten Modells umfassend zu bewerten, wurde eine zehnfache Kreuzvalidierungsmethode verwendet. Die Ergebnisse zeigten, dass das korrigierte 3IMERGM (C-3IMERGM) viel besser abschneidet als 3IMERGM. Konkret wurde CC von 0,68 auf 0,73 erhöht und RB von 7,76 auf -1,65 % gesenkt. Darüber hinaus erreicht C-3IMERGM eine bessere Niederschlagsverteilung als das unkorrigierte Satellitenprodukt und sogar als knappe Pegelmessungen. Das tatsächliche räumliche Niederschlagsmuster stellte dar, dass die Niederschlagsbänder in den Kunlun-Bergen im Süden von Xinjiang von C-3IMERGM erfasst, aber von den anderen Produkten übersehen wurden.;-;-;-;https://link.springer.com/article/10.1007/s12665-018-7378-6 e43c1c0b0e2642f182ceff6baed6d102;de;;;5.1.;;;Multimodale Anomalieerkennung für assistierende Roboter Das Erkennen, wenn etwas Ungewöhnliches passiert ist, könnte assistiven Robotern helfen, sicherer und effektiver in der Nähe von Menschen zu agieren. Die mit Personen und Objekten in menschlichen Umgebungen verbundene Variabilität kann jedoch die Erkennung von Anomalien erschweren. Wir haben zuvor einen Algorithmus eingeführt, der ein Hidden-Markov-Modell (HMM) mit einer Log-Likelihood-Erkennungsschwelle verwendet, die je nach variiert;-;-;-;https://link.springer.com/article/10.1007/s10514-018-9733-6 7e02518cd03dc82b178253957a313b3f;de;;;5.1.;;;Entdeckung mutierter Treibergene durch ein robustes und spärlich koreguliertes Matrixfaktorisierungs-Framework mit Vorinformationen aus mRNA-Expressionsmustern und Interaktionsnetzwerken Die Entdeckung mutierter Treibergene ist eines der Hauptziele bei der Untersuchung der Tumorentstehung. Um einige relativ selten häufig mutierte Treibergene aus somatischen Mutationsdaten zu entdecken, beinhalten viele existierende Verfahren ein Interaktionsnetzwerk als Vorinformation. Allerdings wird die Vorinformation über mRNA-Expressionsmuster von diesen existierenden netzwerkbasierten Methoden nicht genutzt, was sich auch als sehr aufschlussreich für Krebsverläufe erwiesen hat.;-;-;-;https://link.springer.com/article/10.1186/s12859-018-2218-y 5289a1fcec57da7a5510e76625b06395;de;;;5.1.;;;Orthografische Softwaremodellierung: Ein praktischer Ansatz für die ansichtsbasierte Entwicklung Obwohl sie sich in der Zerlegung und Konzeption von Softwaresystemen erheblich unterscheiden, haben alle fortgeschrittenen Software-Engineering-Paradigmen eines gemeinsam, dass sie die Anzahl der verschiedenen Ansichten bei der Visualisierung eines Systems erhöhen. Die Verwaltung dieser verschiedenen Ansichten kann selbst dann eine Herausforderung sein, wenn ein Paradigma unabhängig verwendet wird, aber wenn sie zusammen verwendet werden, wird die Anzahl der Ansichten und gegenseitigen Abhängigkeiten schnell überwältigend. In diesem Beitrag präsentieren wir einen neuartigen Ansatz zum Organisieren und Generieren der verschiedenen Ansichten, die in fortgeschrittenen Software-Engineering-Methoden verwendet werden, die wir Orthographic Software Modeling (OSM) nennen. Dies bietet eine einfache Metapher für die Integration verschiedener Entwicklungsparadigmen und die Nutzung domänenspezifischer Sprachen in der Softwareentwicklung. Entwicklungsumgebungen, die OSM unterstützen, erhöhen im Wesentlichen die Abstraktionsebene, auf der Entwickler mit ihren Tools interagieren, indem sie die Eigenheiten bestimmter Editoren, Speicheroptionen und Richtlinien zur Artefaktorganisation verbergen. Der Gesamtnutzen besteht darin, den Einsatz fortschrittlicher Software-Engineering-Methoden erheblich zu vereinfachen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14819-4_15 702dc27479447bc3ca2ea6e70f2d8a2d;de;;;5.1.;;;Themenorientierte Wertstromanalyse mit SiSi Die Wertstromanalyse (VSA) ist ein wichtiges Instrument, um Verbesserungsbereiche in der Fertigung nach Lean-Prinzipien zu bewerten. Frühere Forschungen haben die Hypothese aufgestellt, dass es möglich ist, Werkzeuge aus dem S-BPM-Kontext für diese Aufgabe zu verwenden. Die vorliegende Arbeit knüpft an diese Hypothese an und untersucht die Möglichkeiten zur Durchführung von Wertstromanalysen mittels subjektorientierter PASS-Modellierung und Auswertung über das Simulationstool SiSi zur Ermittlung von Ineffizienzursachen. Zu diesem Zweck wurden Erweiterungen zu PASS und SiSi entwickelt, um den Anforderungen von VSA besser gerecht zu werden. Die resultierenden Modelle zeigten, dass die Wertstromperspektive ein guter Ausgangspunkt ist, aber oft sind Vorlaufzeiten nicht umfassend genug, um Probleme im Informationsfluss und in den Geschäftsprozessen eines Unternehmens zu erkennen. Daher schlagen wir weiterhin eine agile Methodik vor, um die anfängliche VSA-Überlegung auf einen ausgewachsenen (S-)BPM-Ansatz zu skalieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-64351-5_16 829c232377020448107b8bf55a49107c;de;;;5.1.;;;Echtzeitoptimierung für Wassermanagement Wie im vorherigen Kapitel erörtert, stellt der Wasserverbrauch eine kritische Ressource bei der thermoelektrischen Stromerzeugung dar und kann aufgrund seiner Abhängigkeit von den Umgebungswetterbedingungen eine Herausforderung sein. Da sich die Wetterbedingungen sowohl ständig ändern als auch unsicher sind, ist ein stochastischer Rahmen für die Echtzeitoptimierung der Stromerzeugung gegenüber einem deterministischen Rahmen bei der Maximierung der Leistungsabgabe vorteilhaft. In diesem Kapitel wird gezeigt, dass erhebliche Kosteneinsparungen erzielt werden können, wenn die Optimierung auf Stundenbasis erfolgt und die Anlagensollwerte entsprechend geändert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4939-2282-6_6 689aa439c20d5f28042013b5062bc304;de;;;5.1.;;;Risikobewertungsmodell für Brustkrebs basierend auf sl-SDAE In den letzten Jahren ist die Inzidenz von Brustkrebs bei Frauen in China von Jahr zu Jahr gestiegen und hat sich zum häufigsten bösartigen Tumor bei Frauen in China entwickelt. In Europa und den USA gibt es bereits Modelle zur Risikobewertung von Brustkrebs für Frauen. Es gibt jedoch kein wirksames Modell zur Risikobewertung von Brustkrebs, das für Frauen in China geeignet ist. Das Papier etablierte ein effektives Modell zur Risikobewertung von Brustkrebs. Als Datensatz wurden die Erhebungsdaten der Brustkrebspopulation in China ausgewählt. Das Paper kombiniert SDAE und LSTM, um ein auf Deep-Learning-Methoden basierendes Modell zu erstellen. Es verwendet die roc-Kurve als Indikator für die experimentellen Ergebnisse. Experimente zeigen, dass das Modell eine bessere Leistung als herkömmliche Algorithmen für maschinelles Lernen aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1925-3_30 37d89576249e58ed8e5b36846729ab13;de;;;5.1.;;;Messung der Stereoschärfe durch 3D-Technologie Dieser Beitrag stellt eine neuartige Methode vor, um die Stereoschärfe, also den kleinsten Tiefenunterschied, der beim binokularen Sehen erfasst werden kann, mit hoher Präzision zu messen. Die vorgeschlagene Technik wird durch ein Softwareprogramm implementiert, das auf einem PC mit 3D-Fähigkeiten läuft. Die 3D-Technologie wird genutzt, um den beiden Augen zwei unterschiedliche Bilder zu liefern. Die Messung erfolgt durch einen klassischen Random-Dot-Test, aber anders als bei anderen auf Papier oder Plastik gedruckten Tests können die dem Patienten angezeigten Bilder variieren und die Disparität zwischen den beiden Bildern kann eingestellt werden, um die Stereoschärfe exakt zu messen. Darüber hinaus liefert der Test dank der ausgenutzten 3D-Technologie keinen monokularen Hinweis. Diese Funktionen ermöglichen es, den Test auch in Gruppen (anstelle von Einzelpersonen) wie Schulklassen durchzuführen und das Risiko einer unerkannten Amlyopie zu reduzieren. Das System kann auch von nicht spezialisiertem Personal leicht bedient werden, was die Kosteneffizienz des Tests weiter erhöhen kann. Wir präsentieren die Experimente, die mit einer großen Gruppe von Kindern im Alter zwischen fünf und sieben Jahren durchgeführt wurden. Wir diskutieren die Ergebnisse und vergleichen unsere Technik mit einigen traditionellen Ansätzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-48645-0_14 b92831a8ecb33b1ea636396cde24c4e1;de;;;5.1.;;;D-AHP-Methode mit unterschiedlicher Glaubwürdigkeit der Informationen Die multikriterielle Entscheidungsfindung (MCDM) hat aufgrund ihrer umfangreichen Anwendungsmöglichkeiten in der Praxis großes Interesse geweckt. In unserer vorherigen Studie wurde eine Methode namens D-AHP (AHP-Methode erweitert um D-Zahlen-Präferenzbeziehungen) vorgeschlagen, um die MCDM-Probleme basierend auf einer D-Zahlen erweiterten Fuzzy-Präferenzbeziehung zu untersuchen, und eine Lösung für die D-AHP-Methode wurde angegeben die Gewichtung und Rangfolge von Alternativen aus den Entscheidungsdaten zu gewinnen, wobei die Ergebnisse der D-AHP-Methode von der Glaubwürdigkeit der Informationen beeinflusst werden. In früheren Studien wurde jedoch der Einfluss der Glaubwürdigkeit von Informationen auf die Ergebnisse nicht ausreichend untersucht, was in der D-AHP zu einem ungelösten Problem wird. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . In diesem Papier konzentrieren wir uns auf die Glaubwürdigkeit von Informationen innerhalb der D-AHP-Methode und untersuchen ihren Einfluss auf die Ergebnisse eines MCDM-Problems. Berücksichtigt werden Informationen mit unterschiedlicher Glaubwürdigkeit, darunter hoch, mittel und niedrig. Die Ergebnisse zeigen, dass sich die Glaubwürdigkeit der Informationen in der D-AHP-Methode leicht auf das Ranking der Alternativen auswirkt, die Prioritätsgewichte der Alternativen jedoch relativ offensichtlich beeinflusst werden.;-;-;-;https://link.springer.com/article/10.1007/s00500-017-2993-9 b8ec32ac89ac397fa20539867c31ef94;de;;;5.1.;;;Optimierung sozialer Gruppen – Assistierte Entropie- und morphologische Segmentierung nach Kapur zur automatisierten Erkennung einer COVID-19-Infektion aus Computertomographie-Bildern Die durch das neuartige Coronavirus SARS-CoV-2 verursachte Coronavirus-Krankheit (COVID-19) wurde zu einer globalen Pandemie erklärt. Aufgrund seiner Infektionsrate und Schwere hat es sich zu einer der größten globalen Bedrohungen der aktuellen Generation entwickelt. Um den aktuellen Kampf gegen die Krankheit zu unterstützen, zielt diese Forschung darauf ab, eine auf maschinellem Lernen basierende Pipeline vorzuschlagen, um eine COVID-19-Infektion mithilfe von Lungencomputertomographie-Scanbildern (CTI) zu erkennen. Diese implementierte Pipeline besteht aus einer Reihe von Unterverfahren, die von der Segmentierung der COVID-19-Infektion bis zur Klassifizierung der segmentierten Regionen reichen. Der erste Teil der Pipeline implementiert die Segmentierung der COVID-19-betroffenen CTI mithilfe von Kapurs Entropie Thresholding basierend auf der Optimierung sozialer Gruppen, gefolgt von k-Means-Clustering und morphologiebasierter Segmentierung. Der nächste Teil der Pipeline implementiert Merkmalsextraktion, -auswahl und -fusion, um die Infektion zu klassifizieren. Die auf der Basiskomponentenanalyse basierende serielle Fusionstechnik wird beim Verschmelzen der Merkmale verwendet, und der fusionierte Merkmalsvektor wird dann verwendet, um vier verschiedene Klassifikatoren zu trainieren, zu testen und zu validieren, nämlich Random Forest, K-Nearest Neighbors (KNN), Support Vector Machine mit radialer Basis Funktion und Entscheidungsbaum. Experimentelle Ergebnisse mit Benchmark-Datensätzen zeigen eine hohe Genauigkeit (> 91 %) für die morphologiebasierte Segmentierungsaufgabe, für die Klassifikationsaufgabe bietet das KNN die höchste Genauigkeit unter den verglichenen Klassifikatoren (> 87 %). Es sollte jedoch beachtet werden, dass diese Methode noch auf die klinische Validierung wartet und daher nicht zur klinischen Diagnose einer laufenden COVID-19-Infektion verwendet werden sollte.;-;-;-;https://link.springer.com/article/10.1007/s12559-020-09751-3 c76bf4a0753541b4182ba5ba569eda8c;de;;;5.1.;;;Die Wirkung von Märchenaktivitäten mit Multimedia auf das prosoziale Verhalten von Vorschulkindern Das Ziel dieser Studie war es, eine Lehr-Lern-Methode zu finden, um das prosoziale Verhalten von Vorschulkindern zu verbessern, indem die pädagogische Wirksamkeit von Märchenaktivitäten mit Bilderbüchern und mit Multimedia verglichen wurde, die den Kontext des Helfens und Teilens enthielten. Die Ergebnisse dieser Studie waren wie folgt: Erstens zeigte sich, dass märchenhafte Aktivitäten mit Multimedia einen statistisch signifikanten Unterschied in der Verbesserung des prosozialen Verhaltens von Vorschulkindern aufweisen. Das heißt, es wirkte sich positiv auf das Hilfs- und Austauschverhalten von Vorschulkindern aus. Zweitens zeigte Aktivität mit Multimedia nur nach Alter einen signifikanten Interaktionseffekt von Alter und Geschlecht. Als Ergebnis wurde vorgeschlagen, dass Märchenaktivitäten mit Multimedia eine pädagogisch wirksame Aktivität zur Verbesserung des prosozialen Verhaltens von Vorschulkindern sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35267-6_35 fa94f9ac5271f2f8ab6b4755795edaca;de;;;5.1.;;;Die Harmonisierung von Format und Struktur maritimer Dienstleistungsportfolios Dieses Papier präsentiert den Vorentwurf der Leitlinien zur Definition und Harmonisierung des Formats und der Struktur maritimer Dienste im Maritime Service Portfolio (MSP) als Ergebnis der ersten Sitzung der IMO/IHO HGDM (International Maritime Organization - International - Hydrographic Organization Harmonization Group on Data Modeling), die im Oktober 2017 stattfand. Der Autor stellt als Mitglied dieser Expertengruppe unter anderem vor: die überarbeitete Definition von MSP, die prägnanter ist und den Zweck und Umfang von MSPs besser erfasst als die bestehende Definition, der Vorschlag der HGDM, drei Kontroll- und Eigentumsebenen einzurichten, die Ansicht der Gruppe über die Notwendigkeit der Harmonisierung der Datenelement-IDs für Seeverkehrsdienste als Schlüsselfaktor zur Gewährleistung der Interoperabilität zwischen den Diensten und der Vorschlag zur Einrichtung eines Seeverkehrs Register, das alle schifffahrtsrelevanten Datenelement-IDs zur Verwendung bei der Erbringung von Seeverkehrsdiensten auflistet, wobei die IMO als möglicher Gastgeber für eine solche Reg istrie. Der Autor präsentiert auch die neuesten Entwicklungen bei IALA und IHO in Bezug auf Fragen im Zusammenhang mit MSPs, hauptsächlich zum IHO S-100-Framework, das die Kapazität für mehrere Produktspezifikationen bereitstellte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-97955-7_29 af7ad18f73f43bd86d5eb873aae972a5;de;;;5.1.;;;Effizienter Advanced Encryption Standard mit erhöhter Geschwindigkeit und FPGA-Implementierung Kryptographie nimmt einen zwingenden Teil der Sicherheit der Informationsübertragung ein. Kryptographie kann als Erforschung wissenschaftlicher Strategien definiert werden, die mit Abteilungen der Informationssicherheit anerkannt sind, beispielsweise Geheimhaltung, Datenehrlichkeit, Substanzvalidierung und auch Verifizierung von Datenquellen. Die Kommunikation von Informationen über beliebige Medien als Kryptografie ist von entscheidender Bedeutung bei der Weitergabe über jedes widersprüchliche Medium, das jedes Framework, insbesondere das Web, integriert. Advanced Encryption Standard kann in der Programmierung angepasst oder mit unverfälschter Ausrüstung gearbeitet werden. Wie auch immer, Field Programmable Gate Arrays (FPGAs) bieten eine schnellere, anpassbarere Anordnung. Sicherheit ist ein grundsätzliches Anliegen bei der Übertragung von Informationen über das Web. Diese Forschungsarbeit untersucht und analysiert verschiedene fortschrittliche Verschlüsselungsstandardtechniken. Die aktuelle Perspektive unserer Arbeit besteht darin, die vorgeschlagenen Rahmenbedingungen zur Verbesserung der Sicherheit der Datenübertragung zu konzipieren und umzusetzen. Zur Validierung der Ergebnisse werden FPGA-Kits verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2854-5_10 114ff9d46cbb160a91963bae24b54c2a;de;;;5.1.;;;Eine effiziente Lösung für die Personenverfolgung und Profilerstellung aus Videostreams mit Low-Power-Computing Das Gleichgewicht zwischen Leistung und Geschwindigkeit ist für Echtzeitanwendungen von entscheidender Bedeutung. Angesichts einiger der neuesten Edge-Geräte wie Raspberry Pi 4, Intel Neural Compute Stick 2 oder Nvidia Jetson-Serie kann Edge-Processing eine gute Wahl für den Einsatz von Computer-Vision-Algorithmen in Echtzeitszenarien werden. Objekterkennung und -verfolgung sind zwei häufige Probleme, die mit solchen Algorithmen gelöst werden können, die mit angemessener Leistung und Geschwindigkeit auf Edge-Geräten bereitgestellt werden können. In diesem Paper zeigen wir, dass die YOLO-Architektur erfolgreich für die Objekterkennung und DeepSORT für die Objektverfolgung auf Edge-Geräten eingesetzt werden kann. Die Objekte von Interesse in unserem Szenario sind Personen, was die Gesichtserkennung und -verfolgung als ein weiteres Problem anzeigt, das im Rahmen des Papiers gelöst wird. Mit Raspberry Pi 4 und Intel Neural Compute Stick 2 können Objekterkennungs- und Tracking-Modelle auf Edge-Geräten ausgeführt werden, allerdings mit etwa der Hälfte der Leistung und mehr als 10-mal langsamer als auf einem GPU-Server.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63119-2_13 22366038b5873b2df8eeabbf05275cfc;de;;;5.1.;;;Häufigkeit des Treffens mit dem Knoten und Besuch des physischen Standorts basierend auf dem Mobilitätsmuster Die Kommunikation der Informationen zwischen verschiedenen Personen, die über verschiedene geografische Standorte verteilt sind, ist eine sehr schwierige Aufgabe, insbesondere in kargen und stark überfüllten Gebieten. In dünnbesiedelten Gebieten fehlt ein regelmäßiges Netzwerk und sie folgen stark intermittierenden Verbindungen, während überfüllte Gebiete überlappende Bandbreiten aufweisen. Opportunistisches Netzwerk (Oppnet) hat die Lösung für alle oben genannten Probleme. In oppnet, um das Problem zu überwinden, muss der Knoten nicht vom regulären Netzwerk abhängig sein. Der Quellknoten, der die Nachricht an das Ziel senden möchte, leitet die Nachricht an den Knoten weiter, der ähnliche Mobilitätsmuster wie die von Quelle und Ziel aufweist. Wir entwerfen ein kleines, auf Routingprotokollen basierendes Mobilitätsmuster, das bei der Kontrolle der Nachrichtengenerierung, der Nachrichtenlöschung, des Abbruchs der Nachricht und der Rettung des Netzwerks mit der überfüllten Nachricht hilft. Es hilft auch bei der schnellen Übertragung der Nachricht. Dies wird über den One-Simulator implementiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2372-0_4 417b7e403a9fac20e596a0b6a21c450d;de;;;5.1.;;;Empirische Studie von Domänenanpassungsalgorithmen zur Aufgabe der Spleißstellenvorhersage Viele biologische Probleme, die auf maschinellem Lernen beruhen, verfügen nicht über genügend gekennzeichnete Daten, um einen klassischen Klassifikator zu verwenden. Um dies anzugehen, schlagen wir zwei Domänenanpassungsalgorithmen vor, die vom multinomialen naiven Bayes-Klassifikator abgeleitet sind und den großen Korpus markierter Daten von einem ähnlichen, gut untersuchten Organismus (der Quelldomäne) in Verbindung mit den unmarkierten und einigen markierten Daten nutzen von einem interessierenden Organismus (der Zieldomäne). Bei der Auswertung der Spleißstellenvorhersage, einem schwierigen und wesentlichen Schritt in der Genvorhersage, wurden Instanzen mit den höchsten durchschnittlichen Flächenwerten unter der Präzisions-Rückrufkurve (auPRC) zwischen 18,46 % und 78,01 % korrekt klassifiziert. Wir zeigen, dass die Algorithmen sinnvolle Muster gelernt haben, indem sie sie auf gemischten Instanzen und Labels auswerten. Dann haben wir einen der Algorithmen in einem Ensemble-Setting verwendet und noch bessere Ergebnisse erzielt, wenn nicht viele beschriftete Daten vorhanden sind oder die Domänen entfernt miteinander verwandt sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-26129-4_13 765692304e2153058ae630e9503b0546;de;;;5.1.;;;Analyse des Massenverhaltens über Curl und Divergenz von Bewegungstrajektorien Im Bereich der Crowd-Verhaltensanalyse konzentrieren sich bestehende Methoden hauptsächlich darauf, lokale Repräsentationen zu verwenden, die von Modellen anderer Disziplinen inspiriert sind (z. B. Fluiddynamik und soziale Dynamik), um Bewegungsmuster zu beschreiben. Der Ausnutzung von Bewegungsstrukturen (z. B. in Trajektorien enthaltene visuelle Informationen) für die Verhaltensanalyse wird jedoch weniger Aufmerksamkeit geschenkt. In diesem Papier betrachten wir sowohl lokale Eigenschaften als auch globale Strukturen eines Bewegungsvektorfeldes und schlagen die Deskriptoren Curl und Divergenz von Bewegungstrajektorien (CDT) vor, um kollektive Bewegungsmuster zu beschreiben. Zu diesem Zweck wird ein Bewegungscodierungsalgorithmus auf Trajektorienbasis entworfen, um die CDT-Deskriptoren zu extrahieren. Für jedes Bewegungsvektorfeld konstruieren wir sein konjugiertes Feld, in dem jeder Vektor senkrecht zum Gegenstück im ursprünglichen Vektorfeld steht. Die Trajektorien in den Bewegungs- und entsprechenden konjugierten Feldern zeigen die tangentialen bzw. radialen Bewegungsstrukturen an. Durch Integrieren der Kräuselung (bzw. Divergenz) entlang der tangentialen Pfade (bzw. der radialen Pfade) werden die CDT-Deskriptoren extrahiert. Wir zeigen, dass die vorgeschlagenen Bewegungsdeskriptoren skalen- und rotationsinvariant für eine effektive Analyse des Massenverhaltens sind. Aus Gründen der Konkretheit wenden wir die CDT-Deskriptoren an, um fünf typische Verhaltensweisen von Menschenmengen (Fahrspur, Bogen im Uhrzeigersinn, Bogen gegen den Uhrzeigersinn, Engpass und Springbrunnen) mit einer Pipeline einschließlich Bewegungszerlegung zu identifizieren. Umfangreiche experimentelle Ergebnisse an zwei Benchmark-Datensätzen belegen die Wirksamkeit der CDT-Deskriptoren zur Beschreibung und Klassifizierung von Massenverhalten.;-;-;-;https://link.springer.com/article/10.1007/s11263-017-1005-y 71770f9427c1726e60840cc14930c58f;de;;;5.1.;;;Vertrauen aufgehoben – Praktische Evaluierung von OCSP- und CRL-Checking-Implementierungen Beim Einsatz asymmetrischer Kryptographie müssen robuste Wege gefunden werden, um einen öffentlichen Schlüssel zuverlässig mit einer bestimmten Identität zu verknüpfen. Der aktuelle Standard dafür sind X.509v3-Zertifikate. Sie werden in HTTPS und SSH sowie in Code-, E-Mail- oder PDF-Signaturen verwendet. Diese weit verbreitete Verwendung erfordert einen effizienten Weg, solche Zertifikate im Falle eines kompromittierten privaten Schlüssels zu widerrufen. Zur Lösung dieses Problems stehen derzeit zwei Methoden zur Verfügung: die älteren Certificate Revocation Lists (CRL) und das neuere Online Certificate Status Protocol (OCSP). In dieser Arbeit führen wir eine praktische Evaluierung durch, wie verschiedene Software wie Webbrowser oder PDF-Viewer mit OCSP umgehen, insbesondere wenn der OCSP-Server nicht erreichbar ist. Wir finden sehr unterschiedliche Verhaltensweisen, von der stillschweigenden Annahme von Zertifikaten bis hin zur vollständigen Sperrung des Zugriffs. Darüber hinaus durchsuchen wir einen bestehenden Datensatz von X.509v3-HTTPS-Zertifikaten nach Sperrinformationen und stellen fest, dass fast 85 % davon weder CRL- noch OCSP-Informationen enthalten, wodurch jeder praktische Sperrversuch nahezu nutzlos wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25915-4_2 3e93741a24fb5c2369156bbe59be8879;de;;;5.1.;;;Vorhersage der RCGA-Leistung für das Stundenplanproblem für Universitätskurse Das University Course Timetabling Problem (UCTP) ist ein bekanntes Optimierungsproblem. Die Literatur berichtet über verschiedene Methoden und Techniken, um es zu lösen, wobei Evolutionäre Algorithmen (EA) eine der erfolgreichsten sind. Im EA-Bereich ist die Auswahl des besten Algorithmus und seiner Parameter zur Lösung eines bestimmten Problems ein schwieriges Problem. Es wäre hilfreich, die Leistung dieses Algorithmus a priori zu kennen. Fitness Landscape Analysis (FLA) ist eine Reihe von Tools zur Beschreibung von Optimierungsproblemen und zur Vorhersage der Leistung im Zusammenhang mit EA. FLA verwendet eine Reihe von Metriken, um die durch eine Kostenfunktion dargestellte Landschaft zu charakterisieren, um das Verhalten von Suchalgorithmen zu verstehen. Diese Arbeit präsentiert eine empirische Studie zur Charakterisierung einiger Fälle von UCTP und zur Vorhersage der Schwierigkeit, die von Real-Coded Genetic Algorithms (RCGA) gezeigt wird, um die Fälle zu lösen. Wir haben FLA als Charakterisierungsschema verwendet, Neutralität, Robustheit und negativer Steigungskoeffizient sind die Metriken, die in der Analyse verwendet werden. Um den Vorschlag zu testen und zu validieren, verwenden wir drei UCTP-Instanzen, die auf mexikanischen Universitäten basieren. Erste Ergebnisse deuten auf eine Korrelation zwischen dem negativen Steigungskoeffizienten und der Schwierigkeit hin, die RCGA bei der Lösung von UCTP-Instanzen zeigt. Robustheit und Neutralität bilden die globale Struktur der Instanzenlandschaft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30447-2_3 b60a89305dadc5f2eb88d1fb420b3444;de;;;5.1.;;;Forschung zur Synthese der Gesichtsalterung basierend auf dem Hybrid Domain Attention Mechanism GAN Network Die Gesichtsalterungssynthese bezieht sich auf die ästhetische Wiedergabe der Gesichtsbilder junger Menschen durch Hinzufügen von Falten, Tränensäcken, Flecken oder einer Veränderung der Haarfarbe, damit sie endlich die Wirkung der natürlichen Gesichtsalterung zeigen können. Die Synthese der Gesichtsalterung muss sowohl die Authentizität des Alterungseffekts als auch die Konsistenz der Identitätsinformationen berücksichtigen. Die Authentizität des Alterungseffekts basiert auf dem genauen Ausdruck von Alterungsmerkmalen und der Klarheit der Alterungsdetails. Die Konsistenz der Identitätsinformationen bedeutet, dass das alternde Gesicht während des Alterungsprozesses eine gewisse Ähnlichkeit mit dem ursprünglichen jungen Gesicht in Bezug auf die Merkmalsinformationen beibehalten muss. Basierend auf den beiden oben genannten Problemen und der Instabilität des GAN-Trainings schlägt dieses Papier eine Methode der Gesichtsalterung vor, die auf dem Hybrid-Domain-Aufmerksamkeitsmechanismus basiert, um ein Anti-Netzwerk zu erzeugen. Eine große Anzahl von Experimenten zeigt, dass diese Methode das alternde menschliche Gesicht synthetisieren kann, während der Alterungseffekt und die Anforderungen an die Identitätsinformation sichergestellt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1194-0_14 8c6c44d96b2dcca5e9e2c5c623021ccf;de;;;5.1.;;;Abschätzung von Nanosatelliten-Haltefehlern unter Verwendung von Magnetometerdaten unter Verwendung des Kalman-Filters Dieser Artikel konzentriert sich auf die Fehlerabschätzung der Nanosatellitenlage (Rollwinkel, Nickwinkel und Gierwinkel) unter Verwendung von Kalman-Filtern. Der Filter sagt die zukünftigen Schätzungen von Bordsensoren wie IMU und Magnetometer voraus. Die Kalman-Algorithmen implementiert mit einem kostengünstigen Sensor unter Verwendung der MATLAB/SIMULINK-Umgebung. Die NPSAT-1-Nano-Satellitenlageschätzungen wurden durchgeführt. Das für die Simulationen berücksichtigte aerodynamische und solare Störungsdrehmoment. Die Sensoren an Bord des Satelliten, IMU und Magnetometer fusionieren die Daten mit niedriger Erdumlaufbahn (LEO). Die NPSAT-1-Analyse der Magnetometerdaten des Referenz-LEO beträgt (0–5.000) Sekunden in der Umlaufbahn. Die Prozess- und Messfehler-Kovarianz betrachtet mit sechs Zustandsmatrizen (3 Winkelwinkel, 3 Winkelraten). Die Ergebnisse des Nano-Satelliten-Kalman-Algorithmus schätzten die Lagewinkel (Roll, Yaw, Pitch) unter Berücksichtigung der Trägheit des Modells genau ab. Ermitteln der Ausrichtungsgenauigkeit des Satelliten 0,1° vom Endwertsatz des Fahrzeug-Steady-States.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0974-2_1 56b87b34511b49a59037a56fb9d3ce1f;de;;;5.1.;;;Eine Harmonic-Means-Pooling-Strategie für die Messung des strukturellen Ähnlichkeitsindex bei der Beurteilung der Bildqualität Die Messung des strukturellen Ähnlichkeitsindex (SSIM) ist eine der bekanntesten Methoden bei der Bewertung der vollständigen Referenzbildqualität (FR-IQA). In diesem Beitrag wird eine neuartige Pooling-Strategie basierend auf dem harmonischen Mittel vorgeschlagen, um die Leistung von SSIM zu verbessern. Anstelle des arithmetischen Mittels tendiert das vorgeschlagene Zusammenfassen durch harmonisches Mittel dazu, die Beiträge der lokalen stark verzerrten Regionen oder Pixel bei der Definition der Bewertungsfunktion unter Verwendung der reziproken Transformation hervorzuheben. Die vorgeschlagene Objektfunktion weist eine höhere Korrelation mit der menschlichen Wahrnehmung auf, die am meisten davon betroffen ist, dass die Regionen stark verzerrte Punkte oder Regionen aufweisen. Darüber hinaus werden der Objektfunktion zur besseren Berücksichtigung der visuellen Aufmerksamkeit des Subjekts Auffälligkeitsinformationen hinzugefügt. Die vorgeschlagene Pooling-Strategie wird auf das klassische SSIM und seine Varianten GSSIM und FSIM angewendet. Die experimentellen Ergebnisse haben gezeigt, dass die FR-IQA-Metriken mit der vorgeschlagenen Pooling-Strategie im Vergleich zu den Standardversionen eine bessere Leistung aufweisen, insbesondere bei Bildern mit kleinen, aber stark verzerrten Regionen.;-;-;-;https://link.springer.com/article/10.1007/s11042-015-2620-7 7067029b1a6e703b3f40301fdb29b7ff;de;;;5.1.;;;Eine Umfrage zur Sicherheit von Multihop-Ad-hoc-Netzwerken Mit der Entwicklung von drahtlosen Netzwerken wurden mobile Ad-hoc-Netzwerke in vielen Bereichen angewendet. Aber das Sicherheitsproblem des Ad-hoc-Netzwerks wurde nicht sehr gut gelöst, und das Sicherheitssystem des Ad-hoc-Netzwerks ist aufgrund seiner Besonderheiten schwieriger zu entwerfen als andere Netzwerke. Die Sicherheit des Ad-hoc-Netzwerks ist ein Schlüsselproblem der Ad-hoc-Netzwerkanwendungen. In diesem Artikel wurden die Sicherheitsprobleme von Ad-hoc-Netzwerken unter den Aspekten Schlüsselverwaltung, Routing-Sicherheit, Intrusion Detection und Trusted Computing untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35795-4_13 e5b8cccfd8a062008a3618ef6e95cb37;de;;;5.1.;;;Lehren und Herausforderungen bei der Landänderungsmodellierung, abgeleitet aus der Synthese von fallübergreifenden Vergleichen In diesem Kapitel werden die Lehren und Herausforderungen der Landänderungsmodellierung vorgestellt, die sich aus jahrelanger Reflexion und zahlreichen Podiumsdiskussionen auf wissenschaftlichen Konferenzen zu einem kollaborativen Fallvergleich ergeben haben, an dem die Autoren teilgenommen haben. Wir fassen die Lektionen als neun Herausforderungen zusammen, die unter drei Themen gruppiert sind: Kartierung, Modellierung und Lernen. Die Herausforderungen bei der Kartierung sind: Daten angemessen aufzubereiten, relevante Auflösungen auszuwählen und Arten von Landveränderungen zu unterscheiden. Die Herausforderungen bei der Modellierung sind: Kalibrierung und Validierung zu trennen, kleine Änderungen vorherzusagen und den Einfluss von Mengenfehlern zu interpretieren. Die Lernherausforderungen sind: geeignete Kartenvergleichsmessungen zu verwenden, über Landveränderungsprozesse zu lernen und offen zusammenzuarbeiten. Um die Mustervalidierung von Änderungsvorhersagen zu quantifizieren, empfehlen wir Modellierern, die folgenden Messungen als Prozentsatz der räumlichen Ausdehnung anzugeben: Fehlschüsse, Treffer, falsche Treffer und Fehlalarme. Das Kapitel erklärt, warum die Lehren und Herausforderungen für die zukünftige Forschungsagenda zur Landveränderungsmodellierung von wesentlicher Bedeutung sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-52522-8_8 f685483173336d5453b42497f1650481;de;;;5.1.;;;Extraktion von Entitäten im Zusammenhang mit chronischen Krankheiten in chinesischen Online-Frage-und-Antwort-Diensten Die chinesische Extraktion von chronischen Krankheitsentitäten zielt darauf ab, gesundheitsbezogene Entitäten aus Online-Fragen und -Antworten (QA) zu extrahieren. Unsere Forschung befasst sich unter drei Aspekten mit Herausforderungen bei der Extraktion von Entitäten chronischer Krankheiten in China: Aufbau chinesischer Gesundheitslexika, Merkmalsentwicklung und Tagging von Äquivalenzkonjunktionen. Wir erstellen umfangreiche chinesische Gesundheitslexika auf der Grundlage von Expertenwissen und Webressourcen, entwickeln einen Ansatz zur Merkmalsextraktion, der Charaktere, Wortarten und lexikalische Merkmale aus QA-Daten herauszieht, und verbessern die Leistung der Extraktion von Antwortentitäten durch die Nutzung von Äquivalenz Konjunktionen (Satzzeichen und Konjunktionswörter) im Chinesischen, um Abhängigkeiten zwischen Tags von Entitäten zu erfassen. Experimente zur Extraktion von Frage-Antwort-Entitäten zeigen, dass die Präzisions-, Erinnerungs- und F-1-Werte mit unseren vorgeschlagenen Funktionen verbessert werden und die Präzisions- und F-1-Werte durch Berücksichtigung von Äquivalenzkonjunktionen weiter verbessert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-29175-8_6 f8bd813f0bd7b98758f03aec14f04416;de;;;5.1.;;;Durchbrechen eines robusten Authentifizierungsschemas für Remote-Benutzer mithilfe von Smartcards Das Verständnis der Sicherheitsfehler von kryptografischen Protokollen ist der Schlüssel sowohl zum Patchen vorhandener Protokolle als auch zum Entwerfen zukünftiger Schemata. Kürzlich haben Yeh et al. zeigten, dass das passwortbasierte Remote-Benutzer-Authentifizierungsschema von Hsiang und Shih anfällig für verschiedene Angriffe ist, wenn die Smartcard nicht manipulationssicher ist, und schlug eine verbesserte Version vor, die als effizient und sicher bezeichnet wurde. In dieser Studie stellen wir jedoch fest, dass das Schema von Yeh et al. zwar viele attraktive Funktionen aufweist, die behaupteten Sicherheitsziele jedoch immer noch nicht erreichen kann, und wir berichten über die folgenden Mängel: (1) Es kann Offline-Passwortraten nicht standhalten und Schlüsselkompromiss-Identitäts-Angriff unter der Annahme, dass die Chipkarte nicht manipulationssicher ist, (2) es versagt, Benutzeranonymität und Weiterleitungsgeheimnis zu gewährleisten, (3) Es weist einige andere kleinere Mängel auf. Die vorgeschlagene Kryptoanalyse rät von jeder Anwendung des zu untersuchenden Schemas in der Praxis ab. Bemerkenswerterweise werden die Gründe für die Sicherheitsanalyse von passwortbasierten Authentifizierungsschemata unter Verwendung von Smartcards ausführlich diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35606-3_13 d340cc865a6124660d543f1b0813c30a;de;;;5.1.;;;Ein adaptiver Harris Corner Detection Algorithmus für Bildmosaik Image Stitching bezieht sich auf die Technologie, die mehr als ein Bild mit überlappenden Teilen zu einem großen Sichtfeld verschmilzt. Das Bildmosaik besteht aus Bildvorverarbeitung, Bildregistrierung und Bildfusion. Um Probleme des schwerwiegenden Clustering-Phänomens und weniger Eckpunkte im Texturbereich zu lösen, die durch den traditionellen Harris-Corner-Erkennungsalgorithmus verursacht werden, schlägt dieses Papier einen verbesserten adaptiven Schwellenwerteinstellalgorithmus vor, indem der Wert zweiter Ordnung der Eckantwortfunktion berechnet wird, wodurch Auswirkungen der Auswahl vermieden werden des Skalierungsfaktors k und des Schwellenwerts T bei der Eckenerkennung. Um die Schwäche offensichtlicher Spuren an den Fügestellen zu überwinden, die durch die traditionelle Methode des gewichteten Mittelwerts zur Bildfusion verursacht werden, erweitert dieser Beitrag die Methode des gewichteten Mittelwerts um trigonometrische Funktionen. Experimentelle Ergebnisse zeigen, dass unsere vorgeschlagenen Algorithmen die durch das Bildmosaik erzeugte Lücke effektiv mit einer besseren Geschwindigkeit und Präzision beseitigen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45643-9_6 97a705be32ced57b3f4aa4cf2ffde7bd;de;;;5.1.;;;Mehrkanal-Korrelationsmodell für effiziente Dekodierung im Wyner-Ziv-Videocodec Als neues Videocodierungsschema hat die verteilte Videocodierung (DVC) in letzter Zeit große Aufmerksamkeit auf sich gezogen. Aufgrund einiger Herausforderungen ist es jedoch noch ein weiter Weg, um es in der Praxis anzuwenden. Bei den existierenden DVC-Paradigmen liegt der Preis der geringen Codierungskomplexität in der astronomischen Berechnung der Decodierung. Dieses Papier schlägt zunächst eine adaptive Korrelationsrauschmodellierungstechnik für die Wyner-Ziv-(TDWZ)-Videocodierung im Transformationsbereich vor. Dann wird basierend auf dem Korrelationsmodellierungsverfahren ein neues Mehrkanal-Decodierungsschema weiter vorgeschlagen. Das Mehrkanalschema kann das virtuelle Kanalrauschen effizient modellieren und den Wyner-Ziv-Rahmen parallel decodieren. Experimentelle Ergebnisse zeigen, dass unsere Lösung die Kanalmodellierungszeit auf Kosten eines sehr geringen Verlusts der R-D-Leistung stark reduziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10467-1_99 b80d372084724197400134ec3d5960e0;de;;;5.1.;;;Das intelligente Video- und Audioerkennungs-Black-Box-System des Aufzugs für die Katastrophen- und Kriminalprävention In letzter Zeit steigen die sozialen Kriminalität und der Bedarf an sozialen Sicherheitsnetzen, es besteht ein Bedarf an einer verstärkten Sicherheit im Bereich des Aufzugs aufgrund von Unfällen und Straftaten. Dem Aufzugssystem fehlt jedoch die Lösung der Sicherheit, indem es sich bei Verbrechen auf die vorhandenen Überwachungskameras verlässt. In diesem Beitrag schlagen wir das intelligente Sensorsystem in Kombination mit Video- und Audioanalyse vor, so dass wir das integrierte proaktive Reaktionssystem aufbauen, das den Unfall mithilfe von Sensoren, Video- und Audiodaten erkennt und das Aufzugssystem aus der Ferne überprüft. Wir werden das spezialisierte Sicherheitssystem des Aufzugs bauen, um auf den Unfall schnell reagieren zu können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23312-8_31 3646b8a10b88d71a3648fb57dc276230;de;;;5.1.;;;Ein schneller Ansatz zur Grapheneinbettung mit einem breiten Lernsystem In diesem Beitrag werden die traditionelle DeepWalk-Methode und das Broad-Learning-System (BLS) verwendet, um Netzwerkknoten in der Grapheneinbettung zu klassifizieren, und die Ergebnisse der Klassifizierung werden verglichen. Bei der Kategorisierung verwendet DeepWalk die logistische Regressionsmethode One vs Rest (OvR), und BLS wird nach der Erstellung von Vektordarstellungen angewendet. Um die Ergebnisse der beiden Klassifikationsmethoden offensichtlich zu vergleichen, werden Support Vector Machine (SVM) und Convolutional Neural Network (CNN) verwendet, um das Experiment zur Multi-Label-Klassifizierung von BlogCatalog durchzuführen. Das experimentelle Ergebnis zeigt, dass der F1-Score von BLS offensichtlich höher ist als der von DeepWalk und anderen Methoden, und die Trainingszeit von BLS ist viel kürzer als bei anderen Methoden. Diese Leistungen machen unsere Methode für die Einbettung von Graphen geeignet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1758-7_14 2e8a7df526b03f80865a7f5657679586;de;;;5.1.;;;Effektive Bildfälschungserkennung von manipulierten Vorder- oder Hintergrundbildern basierend auf Bildwasserzeichen und Alpha-Matten Dieses Papier schlägt ein effektives Schema zur Erkennung von Bildfälschungen vor, das ein manipuliertes Vorder- oder Hintergrundbild unter Verwendung von Bildwasserzeichen und Alphamatten identifiziert. Bei dem vorgeschlagenen Verfahren wird eine auf Komponentenfarbtondifferenz basierende spektrale Mattierung verwendet, um die Vordergrund- und Hintergrundbilder basierend auf der erhaltenen Alpha-Matte zu erhalten. Als nächstes wird eine Bildwasserzeichenmarkierung basierend auf der diskreten Wavelet-Transformation, der diskreten Kosinustransformation und der Singulärwertzerlegung verwendet, um zwei verschiedene Wasserzeichen in die Vordergrund- bzw. Hintergrundbilder einzubetten. Schließlich wird die Differenz zwischen den erhaltenen Einzelwerten verwendet, um eine Manipulation des Vorder- oder Hintergrundbildes zu erkennen. Experimentelle Ergebnisse zeigen, dass das vorgeschlagene Verfahren in Bezug auf die Erkennung von Bildfälschungen gut funktioniert.;-;-;-;https://link.springer.com/article/10.1007/s11042-015-2449-0 b17f14ac96c743b4352ae0f1000eed62;de;;;5.1.;;;Hochwertige Single-Model Deep Video Compression mit Frame-Conv3D und Multi-Frame Differential Modulation Deep Learning (DL)-Methoden haben das Paradigma der Computer Vision-Aufgaben revolutioniert und die DL-basierte Videokomprimierung wird zu einem heißen Thema. Dieses Papier schlägt ein Verfahren zur tiefen Videokomprimierung vor, um mehrere Frames gleichzeitig mit Frame-Conv3D und Differenzmodulation zu codieren. Wir verwenden zunächst Frame-Conv3D anstelle des traditionellen Channel-Conv3D für eine effiziente Multi-Frame-Fusion. Beim Erzeugen der binären Darstellung wird die Mehrrahmen-Differenzmodulation verwendet, um den Effekt des Quantisierungsrauschens zu mildern. Durch die Analyse des Vorwärts- und Rückwärts-Berechnungsflusses des Modulators stellen wir fest, dass diese Technik die Informationen vergangener Frames vollständig nutzen kann, um die Redundanz zwischen mehreren Frames zu beseitigen und somit eine bessere Leistung zu erzielen. Ein mit dem Differentialmodulator kombiniertes Aussetzschema wird vorgeschlagen, um eine Bitratenoptimierung innerhalb eines einzigen Modells zu ermöglichen. Experimentelle Ergebnisse zeigen, dass der vorgeschlagene Ansatz die H.264- und H.265-Codecs im Bereich niedriger Bitraten übertrifft. Im Vergleich zu neueren DL-basierten Methoden erreicht unser Modell auch eine wettbewerbsfähige Leistung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58577-8_15 92b8e6265ee2d9a07b7f852a52833d0b;de;;;5.1.;;;Standardisierte Analyse intrakranieller Aneurysmen mit digitalen Videosequenzen Die CT-Angiographie ist ein etabliertes medizinisches Bildgebungsverfahren zur Erkennung, Beurteilung und Therapieplanung von intrakraniellen Aneurysmen. Verschiedene 3D-Visualisierungsalgorithmen wie Maximum Intensity Projection, Shaded Surface Display und Direct Volume Rendering unterstützen die Analyse der resultierenden Volumina. Trotz der verfügbaren Flexibilität führt dieser allgemeine Ansatz zu fast nicht reproduzierbaren und patientenspezifischen Ergebnissen. Sie hängen in einem weiten Bereich vollständig vom verwendeten Algorithmus und der gewählten Parametereinstellung ab. Daher sind die Ergebnisse für Vergleiche zwischen Patienten oder Studien nicht anwendbar. Als Lösung für dieses Problem schlagen wir vor, die Visualisierung vollständig unabhängig von jeglicher Benutzerinteraktion zu machen. Daher liegt der Schwerpunkt der vorliegenden Arbeit auf der Standardisierung und Automatisierung, die vergleichbare 3D-Darstellungen für die Analyse intrakranieller Aneurysmen gewährleistet. Zu diesem Zweck stellen wir ein webbasiertes System vor, das digitale Videosequenzen basierend auf automatisch durchgeführtem hardwarebeschleunigtem Direct Volume Rendering bereitstellt. Jegliche Vorverarbeitung wie das Setzen von Übertragungsfunktionen und das Platzieren von Clip-Ebenen erfolgt nach einem vordefinierten Protokoll. Neben einer Übersicht über das Gesamtvolumen ist jeder Datensatz in vier Teilbände unterteilt, die eine detaillierte Betrachtung der Gefäße und ihrer Verzweigungen ermöglichen. Insgesamt wird der Wert des Systems an mehreren klinischen Beispielen demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45786-0_51 4a9b91e890abb43fec5033bd974e11b2;de;;;5.1.;;;Ein P2P-basierter Scheduler für Home Grids Diese Arbeit präsentiert ein P2P-basiertes Grid-Scheduling-System für hochdynamische und sehr heterogene Umgebungen wie Heimnetzwerke, in denen wir eine Vielzahl von Geräten (Laptops, PCs, Spielekonsolen usw.) und Netzwerke finden können. Unsere Lösung basiert auf der Verteilung der Matchmaking-Aufgabe auf die Anbieter, wobei die endgültige Zuteilungsentscheidung einem zentralen Scheduler überlassen wird, der auf einem begrenzten Gerät ohne großen Leistungsverlust ausgeführt werden kann. Wir evaluieren unsere Lösung, indem wir verschiedene Szenarien und Konfigurationen mit der Opportunistic Load Balance (OLB)-Scheduling-Heuristik simulieren, die wir aus den von uns analysierten bestehenden Lösungen als die beste Option für Heimnetze empfanden. Die Ergebnisse haben gezeigt, dass unsere Lösung ähnlich oder besser als OLB abschneidet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21937-5_31 982497731312004cd81e68d419416165;de;;;5.1.;;;Konstruktion von sich entwickelnden Multiagentensystemen basierend auf den Prinzipien des evolutionären Designs Die Problematik der Konstruktion evolvierender Multiagentensysteme basierend auf den Prinzipien des evolutionären Designs und hybriden Modellen wird diskutiert. Die Prinzipien des Aufbaus und der Organisation von Multiagentensystemen werden berücksichtigt. Das Konzept eines Agenten und eine Reihe grundlegender Eigenschaften, die ein Agent besitzen sollte, werden angegeben. Es wird eine Analogie zwischen den grundlegenden Definitionen der Agententheorie und der Evolutionstheorie festgestellt. Die Verwendung grundlegender evolutionärer Modelle und Algorithmen für den Entwurf von Multiagentensystemen wird vorgeschlagen. Die Analyse bestehender Methoden und Methodiken zum Design von Agenten und Multiagentensystemen wird durchgeführt. Die bestehenden Unterschiede in den Ansätzen zur Gestaltung von Multi-Agenten-Systemen werden erwähnt. Es werden die wichtigsten Typen von Modellen beschrieben und ihre wichtigsten Eigenschaften angegeben. Es wird auf die Bedeutung und die Aussichten der Verwendung eines agentenbasierten Ansatzes für das Design von Multiagentensystemen hingewiesen. Dabei werden verschiedene Ansätze zum evolutionären Design künstlicher Systeme betrachtet. Das evolutionäre Modell der Bildung von Agenten und Agenturen wird beschrieben. Die Verwendung modifizierter evolutionärer Operatoren zur Implementierung des Agentenentwurfsprozesses wird vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71119-1_20 1cfd1bb3f26acdb57dbfb028801bc59c;de;;;5.1.;;;Forschung zur Hochgeschwindigkeits-Verschlüsselungs- und Entschlüsselungstechnologie der Link-Layer-Datenübertragung im Big-Data-Hintergrund Im Kontext von Big Data können zur Gewährleistung der Datensicherheit verschiedene Sicherheitsmaßnahmen, die Menschen auf unterschiedlichen Ebenen einsetzen, bestimmte Sicherheitsbedrohungen bis zu einem gewissen Grad verhindern. Einerseits werden die Daten schließlich in Form von Dateien auf dem Computer gespeichert, wobei die Dateien für den Benutzer meist lesbar und beschreibbar sind. Sobald der Online-Hacker auf irgendeine Weise in das System eindringt, kann die Datei oder das Speichermedium direkt gelesen und die Daten können gestohlen oder illegal verwendet werden. Die Software manipuliert den Inhalt der Datendatei. Andererseits wird bei der Übertragung von Dateidaten auf der Sicherungsschicht eine Verschlüsselungs- und Entschlüsselungstechnologie verwendet, um die Sicherheit der Dateidaten und die Genauigkeit der Daten beim Empfang der Daten durch den Benutzer zu gewährleisten. Die über das Netzwerk übertragenen Daten können leicht abgefangen und wiederhergestellt werden. Die Folgen sind äußerst gravierend. Daher ist die Bereitstellung einer effizienten Verschlüsselungs- und Entschlüsselungstechnologie bei der Übertragung von Dateidaten auf der Verbindungsschicht zu einem wichtigen Forschungsthema geworden. In diesem Papier werden basierend auf den Vorteilen des DES-Algorithmus und des RSA-Algorithmus die beiden Algorithmen zusammen verwendet und ein Algorithmus mit höherer Sicherheit bei der Datenübertragung mit hoher Geschwindigkeit erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3250-4_105 970c069ba944a86ee63d1403369ba55e;de;;;5.1.;;;Isolatordiagnose durch einen dielektrischen E-Feld-Sensor Die Online-Diagnose von Hochspannungsisolatoren, die in Freileitungen verwendet werden, hat sich als leistungsfähiges Werkzeug erwiesen, um den Ausfall solcher Komponenten zu erkennen und zu verhindern. Unter den vielen Diagnosetechniken wurden E-Feld-Sensoren ausgiebig verwendet, um das Vorhandensein von Oberflächen- oder internen Defekten zu beurteilen. Elektrische Feldsensoren basieren meistens auf kapazitiven metallischen Messgeräten, die eine erhebliche Verzerrung des elektrischen Felds verursachen und eine Bedrohung für die Mitarbeiter unter Strom darstellen können, die die Messung durchführen. In dieser Arbeit stellen wir eine neue Klasse von elektrischen Feldsensoren vor, die vollständig dielektrisch sind. Der Sensor ist in der Lage, den Modul und die Richtung des elektrischen Feldes in einer Ebene mit hoher Zurückweisung der zu dieser Ebene orthogonalen Komponenten in einem sehr breiten Frequenzintervall zu messen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-31676-1_41 370a335be449eec01ab2f48a267032e4;de;;;5.1.;;;Erlernen von diskretem Hashing hin zu einer effizienten Modeempfehlung In unserem täglichen Leben ist es immer ein mühsames Problem, Kleidung gut zu kombinieren, insbesondere wenn wir online einkaufen, um ein Paar aufeinander abgestimmter Kleidungsstücke aus Zehntausenden verfügbaren Auswahlen auszuwählen. Um häufigen Kunden bei der Überwindung von Auswahlproblemen zu helfen, haben neuere Studien im Bereich Empfehlungssysteme damit begonnen, die Ergebnisse der Modeübereinstimmung automatisch abzuleiten. Die traditionelle Modeempfehlung wird normalerweise durch Berücksichtigung der visuellen Ähnlichkeit von Kleidungsstücken oder/und der Mitkaufhistorie von Artikeln aus bestehenden Einkaufstransaktionen erreicht. Aufgrund der hohen Komplexität der visuellen Merkmale und des Fehlens historischer Kaufbelege für Gegenstände ist es unwahrscheinlich, dass die meisten der vorhandenen Arbeiten eine effiziente und genaue Empfehlung abgeben. Um dieses Problem anzugehen, schlagen wir in diesem Papier ein neues Modell namens Discrete Supervised Fashion Coordinates Hashing vor. Sein Hauptziel ist es, aussagekräftige und dennoch kompakte High-Level-Merkmale von Kleidungsstücken zu erlernen, die als binäre Hash-Codes dargestellt werden. Im Detail wird dieser Lernprozess durch eine Bekleidungs-Matching-Matrix überwacht, die zunächst auf Basis von limitierten bekannten Matching-Paaren und anschließend auf den selbsterweiterten aufgebaut wird. Das vorgeschlagene Modell lernt gemeinsam die intrinsischen Übereinstimmungsmuster aus der Übereinstimmungsmatrix und die binären Darstellungen aus den Bildern der Kleidungsstücke, wobei das visuelle Merkmal jedes Kleidungsstücks in einen binären Vektor fester Länge diskretisiert wird. Das Lernen der binären Darstellung reduziert die Speicherkosten erheblich und beschleunigt die Empfehlungsgeschwindigkeit. Die Experimente im Vergleich mit mehreren Ansätzen nach dem Stand der Technik haben die überlegene Leistung des vorgeschlagenen Ansatzes bei der effizienten Modeempfehlung bewiesen.;-;-;-;https://link.springer.com/article/10.1007/s41019-018-0079-z 5c2520fb3e602c9db6b9882c1d27b3f7;de;;;5.1.;;;Informationen zum Informationsaustauschsystem für ein automatisches Evakuierungsleitsystem unter Verwendung der mobilen Knoten der Evakuierten Wir haben ein automatisches Evakuierungsleitschema vorgeschlagen, das auf der Zusammenarbeit zwischen Evakuierten und ihren mobilen Knoten basiert. In der vorherigen Arbeit gehen wir davon aus, dass Informationen über blockierte Straßensegmente zwischen mobilen Knoten über das Epidemic-Routing geteilt werden, bei dem es sich um ein Delay Tolerant Network (DTN)-Routing-Protokoll handelt. In diesem Papier schlagen wir ein Informationsaustauschschema namens On-Demand Direct Delivery vor, das die Netzwerklast im Vergleich zum Epidemic-Routing reduzieren kann. Da sich jeder Evakuierte an einen sicheren Ort bewegt, benötigt er Informationen über gesperrte Straßenabschnitte in der Region von der aktuellen Position bis zum sicheren Ort. Das vorgeschlagene Schema ruft selektiv die Informationen über blockierte Straßenabschnitte in dieser Region durch Direktlieferung ab. Durch Simulationsexperimente zeigen wir, dass das vorgeschlagene Schema die Effektivität der Evakuierungsführung mit einer Reduzierung der Netzwerklast auf etwa 1/36 im Vergleich zum Epidemie-Routing halten kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-44215-0_17 a19f42dfdc18d0c6fb4d0e1bf5f0e244;de;;;5.1.;;;Satzzeichenvorhersage für gesprochene chinesische Sätze basierend auf Modellkombination Die Satzzeichenvorhersage ist für die automatische Spracherkennung (ASR) sehr wichtig. Es verbessert die Lesbarkeit von Transkripten und die Benutzererfahrung erheblich und erleichtert das Befolgen natürlicher Sprachverarbeitungsaufgaben. In dieser Studie entwickeln wir einen modellkombinationsbasierten Ansatz zur Wiederherstellung der Interpunktion für chinesisch gesprochene Sätze. Unser Ansatz modelliert die Beziehungen zwischen Interpunktion und Satz durch die verschiedenen Arten der Satzdarstellung. Und die modellierten Beziehungen werden durch mehrschichtige Wahrnehmung kombiniert, um Satzzeichen (Punkt, Fragezeichen und Ausrufezeichen) vorherzusagen. Im Gegensatz zu früheren Studien ist unser vorgeschlagener Ansatz darauf ausgelegt, globale lexikalische Informationen zu verwenden, nicht nur lokale Informationen. Die Ergebnisse zeigen, dass unsere vorgeschlagene Methode im Vergleich zum Ausgangswert zu einer absoluten Verbesserung von 10,0 % ungewichteter Genauigkeit bzw. 4,9 % gewichteter Genauigkeit führt. Unser Ansatz erreicht schließlich eine ungewichtete Genauigkeit von 86,9 % und eine gewichtete Genauigkeit von 92,4 %.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54927-4_102 1eb232395835233c9a4a670965f0ac55;de;;;5.1.;;;Forschung zur Schnellextraktionsmethode zum Bauen von Grenzen basierend auf LIDAR-Punktwolkendaten LIDAR integriert Digitalkamera, globales Positionierungssystem (GPS), Trägheitsnavigationssystem, Laser-Entfernungsmessung und andere fortschrittliche Technologien, verwendet GPS zur Steuerung der Flugplattform, erhält die Entfernungsinformationen zwischen Empfänger und Orientierungspunkt per Laser und erfasst die Bildinformationen digital Kamera. Schließlich wird die Entfernung als die 3D-Koordinaten des Ziel-Landmarks ausgedrückt, und die Bildinformationen werden als die Oberflächeneigenschaften des Ziel-Landmarks ausgedrückt. In diesem Beitrag werden zunächst die 3D-Koordinaten Speckle-Rauschen-gefiltert, um eine Punktwolken-Entrauschung und -Klassifizierung zu realisieren, dann wird die Punktwolke der Klassifikation einfach gerastert, um die Transformation von Ebenenkoordinaten in Bildkoordinaten zu erreichen, und die Bildkoordinaten werden verarbeitet zu die entsprechende Höhe der Gittereinheit durch inkrementelles Einfügen und Medianfilter sein, gleichzeitig wird die Höhe in das entsprechende Gitter gefüllt, um ein DSM-Tiefenbild durch Graustufentransformation zu erzeugen. Schließlich werden mit dem SOBEL-Erkennungsoperator schnell und effizient die Gebäudebegrenzungsmerkmale extrahiert, die im digitalen Stadtbau, im dreidimensionalen Entitätsmodellbau, im Städtebau und im Bauwesen Anwendung finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-3966-9_46 87ad09a86661873f4fa51b92ee6d7df4;de;;;5.1.;;;Eine aktuelle Übersicht über DCT-basierte Theorien und Techniken zur digitalen Bildwasserzeichenmarkierung: Ein Rückblick Digitale Bildwasserzeichen sind eines der am meisten diskutierten Forschungsgebiete. Es spielt eine wesentliche Rolle im Bereich der digitalen Informationsauthentifizierung und -sicherheit. Basierend auf der Untersuchung von Wasserzeichensystemen wird die Bildwasserzeichenmarkierung in zwei Module unterteilt: Eines ist das Einbetten von Wasserzeichen und das andere die Extraktion von Wasserzeichen. Dieser Artikel gibt einen Überblick über die theoretische und experimentelle Analyse und Leistungsmessung eines repräsentativen digitalen Bildwasserzeichensystems in räumlichen und transformativen Bereichen. Die Schlüsselmerkmale eines Schemas zum Anbringen von Wasserzeichen für ein digitales Bild sind Robustheit, Kapazität, Unwahrnehmbarkeit, die Sicherheit des Verstecks ​​und ein falsch positives Ergebnis des Wasserzeichen-Algorithmus. Es wird ein Vergleich der verschiedenen Wasserzeichenmarkierungstechniken gegeben, die die diskrete Kosinustransformation (DCT) verwenden. Dieses Papier stellt verschiedene Details des Algorithmus der Einbettung und Extraktion von digitalen Bildwasserzeichen in einem anderen Bereich vor und erläutert auch deren Vor- und Nachteile.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0108-1_40 f2dfbe924ad923499bbadcb2b0a7f253;de;;;5.1.;;;Können tiefe neuronale Netze breite semantische Bildkonzepte lernen? Viele Forschungen verwenden DNNs, um semantische Bildkonzepte auf hoher Ebene, wie Kategorien, aus visuellen Eigenschaften auf niedriger Ebene zu lernen. Bilder haben mehr semantische Konzepte als Kategorien, z. B. ob zwei Bilder einander ergänzen, dem gleichen Zweck dienen oder am gleichen Ort oder in derselben Situation auftreten usw. In dieser Arbeit führen wir eine experimentelle Untersuchung durch, um zu bewerten, ob DNNs diese lernen können breite semantische Bildkonzepte. Wir führen Experimente mit POPORO-Bilddatensätzen durch. Unsere Ergebnisse zeigen, dass DNNs insgesamt nur begrenzt in der Lage sind, die oben genannten breiten semantischen Konzepte aus visuellen Bildmerkmalen zu lernen. Innerhalb der von uns getesteten DNN-Modelle können Inception-Modelle und ihre Varianten breite semantische Konzepte von Bildern besser lernen als VGG-, ResNet- und DenseNet-Modelle. Wir glauben, dass einer der Hauptgründe für die schwache Leistung in unseren Experimenten darin besteht, dass der in dieser Arbeit verwendete POPORO-Datensatz für DNN-Modelle zu klein ist. Große Bilddatensätze mit reichhaltigen und breiten semantischen Labels und Maßnahmen sind der Schlüssel für eine erfolgreiche Forschung in diesem Bereich.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3308-2_26 faab4c2439042bd3529a17cedc22a532;de;;;5.1.;;;Die Wirkung der Vorhersage von Entscheidungszufriedenheit in argumentationsbasierter Verhandlung Die Unterstützung von Gruppenentscheidungen ist ein komplexer Prozess, insbesondere wenn Entscheidungsträger keine Möglichkeit haben, sich am selben Ort und zur gleichen Zeit zu versammeln. Darüber hinaus kann es schwierig sein, Lösungen zu finden, wenn Vertretervertreter nicht in der Lage sind, den Prozess zu verstehen und den Entscheidungsträger entsprechend zu unterstützen. Hier schlagen wir ein Modell und einen Algorithmus vor, die es dem Agenten ermöglichen, Tendenzen zu analysieren. Auf diese Weise möchten wir, dass Agenten Entscheidungen mit mehr Qualität und mit einem höheren Konsensniveau treffen können. Unser Modell ermöglicht es dem Agenten, seine Ziele neu zu definieren, um sowohl seine als auch die Gruppenzufriedenheit zu maximieren. Unser Modell hat bewiesen, dass Agenten, die es verwenden, einen höheren durchschnittlichen Konsens- und Zufriedenheitsgrad erzielen. Darüber hinaus erreichen Agenten, die dieses Modell verwenden, in den meisten Fällen ein höheres Maß an Konsens und Zufriedenheit als Agenten, die es nicht verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-39387-2_22 830249e70facdf959b9083507df1fcf9;de;;;5.1.;;;Differenzierter Datenschutz bei Power Big Data Publishing In den letzten Jahren hat die Entwicklung von Smart Grids zu einem explosionsartigen Wachstum von Big Data im Strombereich geführt. Energieunternehmen können diese Daten analysieren, um den Benutzern personalisierte Dienste bereitzustellen. Die Analyse von Power Big Data kann jedoch das Risiko der Offenlegung der Privatsphäre der Benutzer bergen. Die Leistung der traditionellen Algorithmen ist aufgrund der Komplexität der Macht von Big Data zur Verhinderung von Informationslecks nicht erfüllt. Verteilte und heterogene Daten, die beim Betrieb, der Wartung und anderen Prozessen von Smart Grid Strom erzeugt werden, können die Komplexität der Daten verursachen. Dieses Papier schlägt eine Methode der differenziellen Privatsphäre vor, um die Privatsphäre bei der Veröffentlichung von Big Data zu schützen. Die experimentellen Ergebnisse zeigen, dass die Leistungsfähigkeit unserer Methode überzeugt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-6442-5_45 68fa346067a3ebc9ce3912ff378b520d;de;;;5.1.;;;Steuern der Komplexität von Objekten basierend auf polygonalen Netzen Die Animation von Objekten, die durch unregelmäßige dreieckige Gesichter gerendert werden, insbesondere die Animation von synthetischen Schauspielern, erfordert zeit- und platzaufwendige Algorithmen, deren Komplexität von der Anzahl der Gesichter abhängt, die zum Modellieren des Objekts verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-68204-2_46 8b3b5679a1f2cb6ca6bf746e8de66137;de;;;5.1.;;;Einfluss der DEM-Unsicherheit auf die individuenbasierte Modellierung des Ausbreitungsverhaltens: Ein einfaches Experiment Es ist allgemein anerkannt, dass die Wahrnehmungsreichweite eines Tieres zu verschiedenen Landschaftselementen seine Bewegung durch heterogene Landschaften beeinflussen kann. Die Ausbreitungsbewegung ist ein entscheidender Faktor für die Ausbreitung von Arten sowie für die Dynamik der Metapopulation. Zur Simulation der Ausbreitungsbewegung von Grauhörnchen (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-59511-5_12 3e636c67aedfc19d08feccda2603ac27;de;;;5.1.;;;Mehrgitterkonvergenz und Oberflächenschätzung Surface Die Oberfläche diskreter Objekte ist ein wichtiges Merkmal für die modellbasierte Bildanalyse. In diesem Artikel stellen wir einen theoretischen Rahmen vor, um die Mehrgitterkonvergenz von Oberflächenschätzern basierend auf der diskreten Normalenvektorfeldintegration zu beweisen. Das Papier beschreibt einen Algorithmus, der zeitoptimal und multigrid-konvergent ist, um die Oberfläche zu schätzen, und einen sehr effizienten Algorithmus, der auf einer lokalen, aber adaptiven Berechnung basiert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36586-9_7 79c092609cf3a3ee2ac1159807ba8764;de;;;5.1.;;;Tiefe Faltungs- und rekurrente neuronale Netze zur Emotionserkennung aus menschlichem Verhalten Das menschliche Verhalten und die emotionalen Zustände, die sie vermitteln, wurden von Psychologen und Soziologen untersucht. Die Verfolgung von Verhaltensweisen und Emotionen wird mit dem Aufkommen des Internets der Dinge (IoT) immer allgegenwärtiger, bei dem kleine und immer verbundene Sensoren kontinuierlich Informationen über menschliche Gesten, Bewegungen und Körperhaltungen erfassen können. Die erfassten Informationen über lesbares Verhalten vermitteln wichtige Informationen, die als Zeitreihen dargestellt werden können. Nur wenige Studien zu Emotionserkennung und Affektivem Computing haben den Zusammenhang zwischen den Daten der Zeitreihensensoren und dem emotionalen Verhalten, das sie vermitteln, untersucht. In diesem Papier wird ein innovativer Ansatz vorgeschlagen, um die Emotionen und Verhaltensweisen zu untersuchen, die mit den Zeitreihendaten verbunden sind. Ein Faltungsnetzwerk, das mit aufmerksamkeitsbasiertem bidirektionalem LSTM erweitert wird, wird eingeführt, um die Korrelationen zwischen Verhalten und Emotionen darzustellen. Der Vorteil dieses Modells besteht darin, dass es Emotionen gut erkennen kann, indem es die von Sensoren erfassten Daten nutzt. Die experimentellen Ergebnisse zeigen, dass die vorgeschlagene Deep-Learning-Methode separate Schemata übertrifft und ein hohes Maß an Genauigkeit bei der Modellierung menschlicher Verhaltensweisen und Emotionen erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58802-1_39 d6dd04ea2449da4a3c45fde089cbf53b;de;;;5.1.;;;Stromverbrauchsprognosen mit Zeitreihenanalyse Der Strombedarf ist über die Jahre kontinuierlich gestiegen. Um den zukünftigen Verbrauch zu verstehen, ist ein gutes Vorhersagemodell erforderlich. Die ARIMA-Modelle wurden ausgiebig für die Vorhersage von Zeitreihen verwendet und zeigten ermutigende Ergebnisse. In diesem Beitrag wird versucht, den Stromverbrauch mit Hilfe des ARIMA-Modells zu prognostizieren. Unter Verwendung des mittleren absoluten prozentualen Fehlers (MAPE) zur Messung der Vorhersagegenauigkeit konnte das Modell mit einem Fehler von 6,63 % vorhersagen. Die Ergebnisse zeigen, dass das ARIMA-Modell das Potenzial hat, mit bestehenden Techniken zur Stromverbrauchsprognose zu konkurrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1813-9_33 90811821e1d6b088840165a7f6a48d87;de;;;5.1.;;;Eine innovative Anwendung zum Erlernen des Schreibens chinesischer Schriftzeichen auf Smartphones Mit der schnellen wirtschaftlichen Entwicklung in China wird das Chinesischlernen weltweit sehr beliebt und bedeutsam. Für die meisten Ausländer und sogar einheimische Studenten besteht eine der größten Herausforderungen beim Chinesischlernen darin, chinesische Schriftzeichen in korrekten Strichfolgen zu schreiben, die in der chinesischen Kultur als entscheidend angesehen werden. Aufgrund der möglicherweise komplexen Strukturen chinesischer Schriftzeichen samt ihrer Strichfolgen gab es jedoch nur sehr wenige verfügbare Zeichenerkennungstechniken, die diese Trainingsaufgabe flexibel und effizient bewältigen können. In diesem Beitrag schlagen wir eine erweiterbare und intelligente E-Learning-Software vor, die auf Lernobjekten basiert, um das Erlernen des Schreibens chinesischer Schriftzeichen in korrekter Strichfolge zu erleichtern. Darüber hinaus können die grundlegenden Funktionen, einschließlich der Entwicklung und Aussprache jedes chinesischen Schriftzeichens, als Teil der Lernobjekt-Metadaten zum besseren Verständnis der Schüler gekapselt werden. Um die Machbarkeit unseres Vorschlags zu demonstrieren, wurde ein Prototyp unserer vorgeschlagenen E-Learning-Software auf Smartphones erstellt, sodass die Schüler jederzeit und überall lernen können. Unser Vorschlag stellt den ersten Versuch dar, die Komplexität zu reduzieren und gleichzeitig die Erweiterbarkeit der E-Learning-Software zum Erlernen von Chinesisch durch Lernobjekte zu erhöhen. Noch wichtiger ist, dass es zahlreiche Möglichkeiten für weitere Untersuchungen eröffnet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22383-9_8 ac98bd68c032ddf71ccd6fe1fcadcdd9;de;;;5.1.;;;Eine empirische Analyse der Ausfallrate informeller Kredite – Beweise aus Yiwu, China Diese Studie analysiert empirisch die zugrunde liegenden Faktoren, die zur Ausfallrate der informellen Kreditvergabe beitragen. Dieses Papier verwendet Schneeball-Stichprobeninterviews, um Daten zu sammeln, und verwendet das logistische Regressionsmodell, um die spezifischen Faktoren zu untersuchen. Die Ergebnisse dieser Analysen validieren die Erklärung, wie sich die informelle Kreditvergabe von der gewerblichen Kreditvergabe unterscheidet. Faktoren, die zur Ausfallrate beitragen, haben bestimmte Eigenschaften, weisen jedoch einige Ähnlichkeiten mit dem Kreditbewertungsindex der Geschäftsbank oder des FICO auf. Schließlich ziehen unsere abschließenden Bemerkungen einige Schlussfolgerungen aus empirischen Analysen und spekulieren, was dies für die Rolle des formellen und informellen Finanzsektors bedeuten könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02298-2_65 19c794c1ff6f848449100d93a57ebc6d;de;;;5.1.;;;Flash-Animations-Wasserzeichen-Algorithmus basierend auf SWF-Tag-Attributen In diesem Whitepaper wird ein Algorithmus für die Flash-Animation von Wasserzeichen vorgestellt, der auf SWF-Tag-Attributen basiert. Zunächst wird die SWF-Datei in eine XML-Datei und das Wasserzeichenbild in einen binären Datenstrom konvertiert. Zweitens, filtern und kategorisieren Sie die Tags und ihre Attribute, die minimale Auswirkungen auf die Animation in der XML-Datei haben, und betten Sie den binären Datenstrom gemäß einer bestimmten Sequenz von Tag-Attributen in die XML-Datei ein. Schließlich wird die in die Wasserzeicheninformationen eingebettete XML-Datei in eine SWF-Datei konvertiert. Experimente zeigen, dass der in dieser Arbeit vorgeschlagene Algorithmus eine gute Transparenz und Unsichtbarkeit aufweist und die Eigenschaften einer hohen Deckfähigkeit aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-5907-1_19 2671d591852e208a48087003581199e4;de;;;5.1.;;;Anwendung eines heuristisch-diffusen Modells zur Entscheidungsunterstützung bei der Bewertung des postseismischen Strukturschadens eines Gebäudes Dieses Forschungspapier zielt darauf ab, strukturelle Schäden eines Gebäudes nach Auftreten einer Tellurbewegung zu bewerten, indem ein heuristisch-diffuses Modell angewendet wird, um die Entscheidungsfindung von Experten im seismischen Bereich zu unterstützen. Ecuador liegt in einem stark seismischen Gebiet, daher ist es notwendig, Schäden an den Gebäudestrukturen nach einer Tellurbewegung zu untersuchen. Aktuelle Schadensbewertungstechniken basieren auf quantitativen Ergebnissen und schaffen Unsicherheit. Wenn ein Erdbeben auftritt, gibt es nicht genügend zertifiziertes Personal, so dass Fachleute ohne die Erfahrung zur Durchführung der Bewertungen anwesend sind, und dies beinhaltet die endgültigen Entscheidungen, die nicht die genauesten sind. Für das in dieser Studie vorgeschlagene Bewertungsmodell wird die AHP-Methode (Analytical Hierarchical Process) verwendet, um die relativen Gewichte der Variablengruppen, aus denen das Gebäude besteht, bestimmen zu können. Diese Methode besteht aus einer heuristischen Methode auf der Grundlage von Experten Erfahrung zu einem bestimmten Thema und in Verbindung mit Fuzzy-Logik-Techniken wird es ermöglichen, direkt mit den qualitativen Werten der Daten zu arbeiten und so subjektive Ergebnisse zu liefern, die leicht zu interpretieren sind und als Entscheidungshilfe dienen. Nachdem Sie die Daten zu den Schäden in den tragenden Elementen wie Stützen oder Balken, nicht tragenden Elementen wie der Fassade und Daten zur Bodenart eingegeben haben, erhalten Sie die Höhe oder den Index des gesamten strukturellen Schadens, nicht -Bau- und Bodenbedingungen, der Grad der Bewohnbarkeit des Gebäudes wird durch Anwendung von Fuzzy-Regeln basierend auf Mamdanis Schlussfolgerung bestimmt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-42520-3_33 56560db25d35c7d2693d2da14bb95611;de;;;5.1.;;;Methode zum Erlangen der Videokonferenz mit dem Skill in Investigative Actions Das geltende Gesetz sieht nicht direkt die Möglichkeit von Ermittlungen aus der Ferne vor. Es enthält jedoch keine direkten Verbote zur Einführung dieser fortschrittlichen Verfahrensform. Dennoch wird die Praxis des Einsatzes von Informations- und Kommunikationstechnologien durch einen Ermittler bei seiner Arbeit unweigerlich dazu führen, dass solche Verbesserungen detailliert geregelt werden müssen. Die Entscheidung des Gesetzgebers über die vollständige rechtliche Regelung dieses Problems steht in den Startlöchern. Es ist notwendig, den Inhalt der Ausbildung der für Strafsachen zuständigen Personen des Beamten auf Kosten der Entwicklung der Fähigkeiten zur Verwendung des Videokonferenzsystems bei Bedarf während einer Reihe von Ermittlungsmaßnahmen zu ergänzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29743-5_29 67aecff68ba1f281c30b2851518bdfa2;de;;;5.1.;;;Social Media Competitive Intelligence: Messung und Visualisierung von einer Hochschulorganisation Competitive Intelligence (CI) ist ein wertvolles Werkzeug, das es Unternehmen ermöglicht, über relevante Informationen für ihre Umgebung zu verfügen, um Veränderungen zu antizipieren, Chancen zu erkennen und sich auf Innovationen zu konzentrieren. Nützliche Methoden zur Steuerung und systematischen Überwachung der in sozialen Netzwerken erzeugten Wirkung zu implementieren, ist im Kontext der CI sehr nützlich. Dieser Artikel schlägt eine Methodik vor, um die erhaltenen Informationen über die Aktivität verschiedener Twitter-Konten zu verarbeiten, die mit derselben Institution verknüpft sind. Die erste Analyse, basierend auf strukturierten Daten der Twitterer, lässt grafisch erkennen, wie die Beziehungen zwischen den Accountdaten im Zeitverlauf gefunden werden können. Danach wird vorgestellt, wie Natural Language Processing (NLP) mit maschinellen Lerntechniken verwendet werden könnte, um die Informationen zu visualisieren, zu klassifizieren und zu gruppieren. Die Methodik wurde mit öffentlichen Daten einer Universität über Cloud-Computing-Dienste getestet, sodass eine CI-Analyse für die Institution durchgeführt wird. Als Ergebnis stellten wir fest, dass die Identifizierung wichtiger Diskussionsthemen innerhalb der analysierten Community hervorgehoben wird, sowie der Vorschlag eines Control Panels zur Überwachung der verschiedenen zugehörigen Konten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-01535-0_3 cd5cc04607ac13b87eb0cfe6f9f640a5;de;;;5.1.;;;Ein räumliches Modell zur Optimierung des Weidemanagements im semiariden Weideland des Iran In den meisten Teilen des semiariden Weidelandes ist zunehmend eine extensive Viehweide auch auf ungeeignetem Land gewachsen. Daher ist es von größter Bedeutung, geeignetes Land für die Viehweide zu finden, um eine optimale Nutzung zu erzielen und gleichzeitig die Umwelt so wenig wie möglich zu belasten. In diesem Beitrag wurde das schematische Modell basierend auf den von der Ernährungs- und Landwirtschaftsorganisation vorgestellten Konzepten zur Eignungsanalyse für ein optimales Weidemanagement in semiariden Weiden im Iran angepasst. Faktoren, die die extensive Beweidung beeinflussen, wurden ermittelt und in das Modell eingearbeitet. Semi-arides Weideland mit Variablen wie Klima und anderen Faktoren wurde auf gängige Weidearten untersucht und die Vorteile und Grenzen herausgearbeitet. Viele Ökosystemkomponenten beeinflussen die Eignung des Landes für die Viehweide, aber aufgrund von Zeit- und Finanzbeschränkungen wurden die wichtigsten und machbaren Elemente untersucht. Innerhalb der Modellparameter wurden drei Teilmodelle berücksichtigt, darunter Wasserzugangsquelle, Futterproduktion und Erosionsempfindlichkeit. Mit Hilfe von Geoinformationssystemen wurden geeignete Gebiete in vier Eignungsstufen ermittelt. Dieser Ansatz der Eignungsmodellierung wurde aufgrund seiner Einfachheit und des minimalen Zeitaufwands für die Transformation und Analyse von Datensätzen gewählt. Als wichtigste reduzierende Faktoren für die Modelleignung wurden gefunden: (a) Landnutzung und Vegetationsbedeckung (in Bezug auf die Sensitivität der Bodenerosion), (b) die Menge des verfügbaren Futters im Vergleich zur Gesamtproduktion und (c) das Vorhandensein weniger schmackhafter Pflanzen unter den Weidepflanzenarten (Futterproduktionsfähigkeit). Die Ergebnisse der Studie wären für Weidelandmanager von Vorteil, wenn es darum ging, Maßnahmen zur Bewältigung der Einschränkungen und zur Verbesserung der Gesundheit und Produktivität der Weideländer klüger zu entwickeln.;-;-;-;https://link.springer.com/article/10.1007/s12517-013-0840-6 29e52bcecda393f48f4337d566c05d8e;de;;;5.1.;;;Erkennung akustischer Ereignisse mit MFCC- und MPEG-7-Deskriptoren Dieses Papier konzentriert sich auf die Erkennung von akustischen Ereignissen. Dabei wurden insbesondere zwei Arten von akustischen Ereignissen (Schussschuss, Glasbruch) untersucht. Für jede Erkennungsaufgabe spielen die Methoden der Merkmalsextraktion eine sehr wichtige Rolle. Die Merkmalsextraktion beeinflusst die Erkennungsrate und ist daher bei jeder Mustererkennungsaufgabe am wichtigsten. In diesem Papier wurden die Auswirkungen von Mel-Frequency Cepstral Coefficients - MFCC und ein ausgewählter Satz von MPEG-7 Low-Level-Deskriptoren untersucht. Das beste Feature-Set enthielt MFCC und ausgewählte Deskriptoren wie ASC, ASS, ASF. Sie wurden verwendet, um die Geräusche von akustischen Ereignissen und den Hintergrund darzustellen. Die Verbesserung der Erkennungsrate haben wir mit den genannten Funktionen erreicht. In dieser Aufgabe werden GMM-Klassifikatoren verwendet, um die Klangklassen zu modellieren. Dieses Papier beschreibt einen grundlegenden Aspekt unserer Arbeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21512-4_23 04135d9d4ff677eba1f27d9449d658ee;de;;;5.1.;;;Biomechanischer Modellbau aus verschiedenen Modalitäten: Anwendung auf Herzbilder Dieser Artikel beschreibt einen Prozess, um verschiedene anatomische und mechanische Informationen aus verschiedenen Quellen in ein volumetrisches Modell einzubeziehen. Es werden drei Stufen beschrieben, nämlich eine Netzkonstruktion, die nicht-starre Verformung des Tetraedernetzes in verschiedene Volumenbilder und das Rasterisierungsverfahren, das die Übertragung von Eigenschaften von einem Voxelgitter auf ein Tetraedernetz ermöglicht. Die Methode wird an verschiedenen bildgebenden Modalitäten erprobt, um ihre Durchführbarkeit zu demonstrieren. Durch die Verwendung eines biomechanischen Modells beziehen wir physikalisch basierte;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45786-0_88 abf443de36f5bbeb79d4a3a4384a867c;de;;;5.1.;;;Ellipsenerkennung in digitalen Bilddaten mit geometrischen Merkmalen Ellipsenerkennung ist eine wichtige Aufgabe in bildbasierten Systemen, da viele Objekte der realen Welt durch dieses Primitiv beschrieben werden können. Dieses Papier stellt einen schnellen datengesteuerten vierstufigen Filterprozess vor, der geometrische Merkmale in jeder Stufe verwendet, um Ellipsen aus binären Bilddaten mit Hilfe von Linien, Bögen und erweiterten Bögen zu synthetisieren. Es kommt mit teilweise verdeckten und überlappenden Ellipsen zurecht, arbeitet schnell und genau und hält den Speicherverbrauch auf einem Minimum.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75274-5_15 7d5efaf456691a3a924fe92bd80506de;de;;;5.1.;;;Erfahrungen mit groß angelegten Betriebsversuchen von ALTO-erweitertem P2P-Filesharing in einem Intra-ISP-Szenario Application Layer Traffic Optimization (ALTO) hat in letzter Zeit in der Forschungs- und Standardisierungsgemeinschaft Aufmerksamkeit erregt, um einem Netzbetreiber;-;-;-;https://link.springer.com/article/10.1007/s12083-012-0133-y cd97069b7831a8945a85b256a26785fa;de;;;5.1.;;;Von digitalen Lernressourcen zu adaptiven Lernobjekten: Ein Überblick Um das Ziel eines weltweiten Zugangs zu hochwertiger Bildung erfolgreich zu erreichen, hat der Sektor der Informations- und Kommunikationstechnologie (IKT) enorme Fortschritte beim virtuellen/Online-Lernen erzielt. Einer dieser Fortschritte ist die Verfügbarkeit digitaler Lernressourcen. Um jedoch den Besonderheiten und Veranlagungen der Lernenden erfolgreich Rechnung zu tragen, wird das traditionelle Online-Lernen allmählich von einem einheitlichen Paradigma hin zu personalisiertem Lernen transformiert. Diese Transformation erfordert, dass Lernressourcen nicht als statischer Inhalt behandelt werden, sondern als dynamische Einheiten, die wiederverwendbar, auf verschiedene Plattformen portierbar und letztendlich an die Bedürfnisse der Benutzer anpassbar sind. Dieser Artikel gibt einen Überblick darüber, wie digitale Lernressourcen in adaptiven Hypermedia-Systemen modelliert werden, um adaptives Lernen zu erreichen, und wir zeigen Perspektiven für zukünftige Arbeiten auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-39237-6_2 6d70c8b2da16befe7f8985958dd0b018;de;;;5.1.;;;Verbesserung der GNSS-PPP-Genauigkeit in Südchina mithilfe von Wasserdampfkorrekturdaten aus WRF-Assimilationsergebnissen Die Nassverzögerung im globalen Navigationssatellitensystem (GNSS), die hauptsächlich durch Wasserdampf in der Atmosphäre verursacht wird, ist mit empirischen Nassverzögerungsmodellen schwer genau zu modellieren, da Wasserdampf sowohl räumlich als auch zeitlich stark variabel ist. In diesem Artikel schlagen wir vor, die GNSS-Wet-Verzögerung mithilfe von Wasserdampfdaten aus den Assimilationsergebnissen des Weather Research and Forecasting (WRF)-Modells zu korrigieren. Wir führen sechs aufeinanderfolgende 24-Stunden-WRF-Prognosen durch, um die dreidimensionale (3D) Verteilung von Wasserdampf in der südchinesischen Region 20° N–33° N und 108° E–123° E ab 06.04.2020 um 0 Uhr UTC zu modellieren bis 0 Uhr UTC 11. April 2020. GNSS Precipitable Water Vapor (PWV) von 27 Stationen des Crustal Movement Observation Network of China (CMONOC) und meteorologische Profile von 22 Radiosondenstationen werden in das WRF-Modell aufgenommen, um die Wasserdampfmodellierungsleistung von . zu verbessern WRF. Insgesamt werden vier WRF-Schemas verwendet, dh WRF-Schema 0: WRF ohne Wasserdampf-Datenassimilation, WRF-Schema 1: WRF mit GNSS-PWV-Assimilation nur, WRF-Schema 2: WRF nur mit Radiosondenprofil-Assimilation, WRF-Schema 3: WRF mit beiden GNSS Assimilation von PWV- und Radiosondenprofilen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-3138-2_60 590b062b3190270cb9b37a792cd94727;de;;;5.1.;;;Fingerabdruckerkennung des Betriebssystems mit ICMP Der Fingerabdruck des Betriebssystems ist ein Faktor, der bei der Ermittlung eines Zielbetriebssystems und einer Version durch Netzwerkscans helfen kann. Es gibt zwei Unterscheidungsmethoden: Internet Control Message (ICMP) und Transmission Control Protocol (TCP). In dieser Studie haben wir analysiert, ob es möglich ist, die Betriebssystemversion (z. B. Windows 7, 8.1, 10) so zu kategorisieren, dass das Betriebssystem mit ICMP ermittelt werden kann. Mit ICMP konnten wir die Betriebssysteme erfolgreich in Windows und Linux einteilen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9341-9_49 810125c2be105a6ef5c028db1d188b19;de;;;5.1.;;;Zur Schätzung des linearen Funktionals unter Verwendung einer vorherigen Vermutung Es wird das Problem der statistischen Schätzung eines linearen Funktionals einer unbekannten Verteilung mit vorheriger Schätzung des Wertes dieses Funktionals betrachtet. Es wird vorgeschlagen, einen kombinierten Schätzer des Funktionals zu verwenden. Der Schätzer ist eine lineare Kombination aus vorheriger Schätzung und nichtparametrischem Schätzer. Der optimale Gewichtungsfaktor (im Sinne des minimalen mittleren quadratischen Fehlers) ist Gegenstand der Schätzung selbst, die durch rekursive Verwendung einer vorherigen Schätzung erfolgen kann;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13671-4_11 e1c1baff03aa984ee231ffc7b74f49ca;de;;;5.1.;;;Routinemäßiger statistischer Rahmen, um das Lippenlesen von Kannada zu spekulieren Dieses Papier stellt sich vor, dass das System einen statistischen Versuch bereitstellt, um die Lippenbewegungen des Sprechers vorherzusagen. Die von einer Person gesprochenen Worte werden identifiziert, indem die Form der Lippenbewegung zu jedem Zeitpunkt analysiert wird. Der Ansatz lernt den Prozess der Vorhersage von Lippenformen basierend auf der Erkennung von Bewegungen. Die Lippenformen werden durch Kommentieren und Verfolgen der Lippenbewegung vorhergesagt, und eine Synchronisation der Formerkennung in Bezug auf die Zeit wird durch Extrahieren der Lippenform mit unterschiedlichen statistischen Informationen erreicht, die aus jedem Frame eines Videos extrahiert werden. Daher verleihen gerillte statistische Daten dem System eine geeignetere Form basierend auf Mittelwert, Varianz, Standardabweichung und verschiedenen anderen statistischen Merkmalen. Das vorgeschlagene System, das auf der Extraktion statistischer Merkmale basiert, führt zur Erkennung der Lippenbewegung und die Abbildung verschiedener Kannada-Wörter in verschiedene Klassen auf der Grundlage der Erkennung der Form führt dazu, dass das System eine gute Initiation zum Erreichen des Lippenlesens durchführt. Die Bemühungen haben eine Gesamtgenauigkeit von 40,21 % mit einem deutlichen statistischen Muster der Merkmalsextraktion und -klassifizierung geliefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3666-3_3 0f685918e03db01f3620057da64ed931;de;;;5.1.;;;Elliptic Curve-basierte sichere ausgelagerte Computation in einer Cloud-Umgebung mit mehreren Parteien Secure Multi-Party Computation (SMPC) ist ein Schema, bei dem eine Reihe von vertrauenswürdigen Benutzern eine bestimmte Funktion für ihre Eingaben berechnen, wobei die Eingaben aus Sicherheitsgründen immer in einem verschlüsselten Format vorliegen. In vielen Fällen ist die Auslagerung dieser Berechnungen auf einen nicht vertrauenswürdigen Cloud-Server aufgrund der enormen Rechenleistung des Cloud-Servers und des von ihnen bereitgestellten Speicherplatzes zur Verarbeitung der Daten wünschenswert. Die existierenden sicheren Berechnungsansätze basieren jedoch entweder auf einem Einzelschlüssel-Setup oder auf alten traditionellen Verschlüsselungsverfahren. In diesem Papier haben wir zwei sichere Mehrparteien-Berechnungstechniken vorgeschlagen, die auf dem neuesten Kryptosystem mit elliptischen Kurven basieren. In diesem haben wir zwei nicht kolluierende Cloud-Server verwendet, um die Outsourcing-Berechnung mit minimaler Anzahl von Interaktionen zwischen ihnen kooperativ zu berechnen. Es ist jedoch sichergestellt, dass die Eingaben, Zwischen- und Endergebnisse während der gesamten Berechnung geheim bleiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-2738-3_17 16da511b9eb25ec7f3636a646b8af384;de;;;5.1.;;;Ein Petrinetz-basiertes Modell für die Multipoint-Multistream-Synchronisation in Multimedia-Konferenzen Verteilte Multimediaanwendungen über IP-Netzwerke sind ein sich entwickelndes Paradigma für den Forscher im Bereich der Informations- und Kommunikationstechnologie (IKT). Es gibt mehrere Anwendungen dieser Technologie – Videokonferenzen, Teleteaching und alle kollaborativen Anwendungen. Die Aufrechterhaltung der zufriedenstellenden Servicequalität [1] und der Synchronisation ist eine große Herausforderung für die Forscher auf diesem Gebiet. In diesem Papier erweitern wir unsere bisherige Arbeit [2], indem wir die Multistream-Multipoint-Synchronisation als Thema sicherstellen, indem wir den Ausspielprozess von zwei Streams (Audio und Video, die gleichzeitig erzeugt wurden und zeitliche Beziehung tragen) an verschiedenen Empfängern einbeziehen gleichzeitig und Aufrechterhaltung der zeitlichen Beziehung zwischen ihnen, um Fairness zwischen den Empfängern zu erreichen. In diesem Papier schlagen wir einen verteilten Algorithmus vor, um eine Multi-Stream-Multipoint-Synchronisation zu erreichen, und wir modellieren den Algorithmus auch mit stochastischen Petri-Netzen und überprüfen seine Korrektheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23948-9_9 0a61267a1b04311650f7e5a1876a79f1;de;;;5.1.;;;Echtzeit-Feedback und 3D-Visualisierung von unbemannten Luftfahrzeugen für eine kostengünstige Entwicklung Das Aufkommen von unbemannten Luftfahrzeugen (UAV) impliziert die Vermeidung von Risiken für menschliche Opfer und die Senkung der Kosten von Luftfahrzeugen im realen Maßstab. Visuelle Hilfe bei UAV ist eines der wichtigen Elemente, die es Piloten ermöglichen, sie vom Boden aus zu steuern. Einige andere Experten verwenden jedoch immer noch 2D-Grafiken, um UAV-Bewegungen zu visualisieren, was den Piloten in einem einzigen Ausdruck einschränkt. Viele Experten forschen jedoch immer noch an UAV hinsichtlich seiner besseren Visualisierungstechnik, des autonomen Systems, der GPS-Synchronisierung, der Präzision bei der Telemetrie und der Bildverarbeitung. In diesem Papier präsentieren wir eine alternative Methodik der Entwicklung von Echtzeit-Feedback-Visualisierung von UAV- und 3D-GUI-Steuerung (Graphical User Interface). Es überträgt Feedback von UAV-Bewegungen durch die Überwachungskamera, indem es einen Neigungssensor am UAV-Modell installiert und die Echtzeitumgebung der First Person View (FPV) des Flugzeugpiloten empfängt. Es ist auf eine kostengünstige Entwicklung ausgerichtet und wird mit einer 3D-Grafikumgebung geliefert, und die Schnittstelle verwendet DirectX SDK als Grafik-Engine. Mit der 3D-Ansicht wird es dem Piloten leichter fallen, Feedback von UAV zu erhalten, das das 3D-Netz des UAV-Modells visualisiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22389-1_42 4ab25aed0bb071fba7b09c40224b6bb7;de;;;5.1.;;;Pflanzenzytomik: Neue Methoden zur Beobachtung von Molekülen unterwegs Wir geben unsere Definition und die kurze Geschichte der „Zytomik“ gefolgt von einem Überblick über allgemeine methodische Ansätze der optischen Bildgebung, insbesondere der Fluoreszenzmikroskopie. Anschließend gehen wir detailliert auf neuartige Fluor-Linker (Nanobodys, Aptamere und Aldehyde) und die Palette der verfügbaren neuartigen Fluorstoffe ein. Wir beschreiben viele der neuen Techniken, die für superschnelle, superauflösende Mikroskopie entwickelt wurden (photoreaktivierte Lokalisierungsmikroskopie, strukturierte Beleuchtungsmikroskopie, stimulierte Emissionsverarmungsmikroskopie und stochastische optische Rekonstruktionsmikroskopie), gefolgt von quantitativer Mikroskopie und Bildanalyse. Anschließend befassen wir uns mit unkonventionellen Methoden, neuartigen Lichtsystemen und Alternativen zur Fluoreszenz (Non-Liner Optical Imaging, Einzelmolekül-Lichtabsorption, lumineszierende Proteine). Anschließend beschreiben wir, wie diese Systeme in letzter Zeit für Proteine, Nukleinsäuren, das Zytoskelett und auch kleine Moleküle von großem Interesse für Pflanzen eingesetzt wurden. Wir schließen mit einer Beschreibung neuerer Erkenntnisse, die spezifisch für die Pflanzenzytomik sind, und liefern einige beeindruckende Bilder und andere Illustrationen aus der neueren Pflanzenliteratur.;-;-;-;https://link.springer.com/chapter/10.1007/978-81-322-2172-2_14 cd6ca1007561ddcea43f4ec167c17eeb;de;;;5.1.;;;Globale Bewegungsinformationsbasierte Tiefenkartensequenzcodierung Die Tiefenkarte wird derzeit in 3D-Videocodierungs- und Computer-Vision-Systemen verwendet. In dieser Veröffentlichung wird ein neuartiges Verfahren zur Codierung von Tiefenkartensequenzen mit Unterstützung durch globale Bewegungsinformationen vorgeschlagen. Die globalen Bewegungsinformationen der Tiefenkamera werden synchron abgetastet, um dem Codierer zu helfen, die Codierleistung der Tiefenkarte zu verbessern. Dieser Ansatz funktioniert durch Downsampling der Framerate auf der Encoderseite. Dann wird auf der Decodiererseite jeder übersprungene Rahmen von seinen benachbarten Tiefenrahmen unter Verwendung der globalen Kamerabewegung projiziert. Unter Verwendung dieser Technik wird die Bildrate der Tiefensequenz heruntergetastet. Daher wird die Codierraten-Verzerrungsleistung verbessert. Schließlich zeigt das Versuchsergebnis, dass das vorgeschlagene Verfahren die Codierleistung bei verschiedenen Kamerabewegungsbedingungen verbessert und der Codierleistungsgewinn bis zu 2,04 dB betragen könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24075-6_69 9ec1cc9f18b87578952aede4458435ab;de;;;5.1.;;;Effizientes privates Matching-Schema für den Austausch von Freundschaftsinformationen In den letzten Jahren, mit der rasanten Entwicklung von sozialen Netzwerken und mobilen Geräten, können mobile Benutzer die Informationen austauschen und potenzielle Freunde in der Nähe finden, indem sie den Ähnlichkeitsgrad zwischen ihren persönlichen Eigenschaften vergleichen und eine Verbindung über Wi-Fi/Bluetooth herstellen. Die persönlichen Attribute enthalten jedoch normalerweise einige private Informationen, und die Benutzer sind nicht bereit, diese bei der Suche nach Freunden an andere weiterzugeben. In diesem Papier haben wir ein neuartiges effizientes privates Matching-Schema vorgeschlagen, das eine asymmetrische skalarerhaltende Verschlüsselung nach der Idee von k-nearest-neighbor (kNN)-Abfragen anwendet. Das persönliche Profil der Nutzer wird auf unterschiedliche Weise verarbeitet, was nicht wiederherstellbar ist. Darüber hinaus basiert unser System auf keinem Trusted Third Party (TTP). Detaillierte Sicherheits- und Leistungsanalysen zeigen, dass unser Schema die privaten Informationen der Benutzer schützen und Angriffen von außen während des Matching-Prozesses widerstehen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27137-8_36 cb5a59dcf969a9ecb574a441d782535b;de;;;5.1.;;;Georeferenzierte Social Multimedia als freiwillige geografische Informationen Wir argumentieren, dass georeferenzierte soziale Multimedia in Wirklichkeit eine Form freiwilliger geographischer Informationen sind. Beispielsweise geben von der Community beigesteuerte Bilder und Videos, die auf Websites wie Flickr verfügbar sind, häufig an, wo sie erworben wurden, und enthalten daher möglicherweise eine Fülle von Informationen darüber, was sich wo auf der Erdoberfläche befindet. Die Herausforderung besteht darin, diese Informationen aus diesen komplexen und verrauschten Daten zu extrahieren, vorzugsweise auf automatisierte Weise. Wir beschreiben ein neuartiges Analyse-Framework namens;-;-;-;https://link.springer.com/chapter/10.1007/978-94-024-1531-5_12 d5cde31537070fda89cfefc032cc33de;de;;;5.1.;;;Simulierter, metaheuristischer Ansatz für das Glühen zur Generierung alternativer Korridorpositionen Dieser Artikel stellt einen metaheuristischen Ansatz vor, der simuliertes Glühen für das Problem der Planung von Korridoren für Ölpipeline-Anlagen anwendet. Das Korridorstandortproblem erfordert das Finden einer optimalen oder eines Satzes von suboptimalen Alternativrouten zwischen zwei Standorten unter Berücksichtigung von Kostenoptimierung und topographischen Beschränkungen. Das vorgeschlagene simulierte Glühen wendet eine pfadbasierte Suche an, um den Raum möglicher Routen zu erkunden. Die experimentelle Auswertung löst realistische Problemfälle unter Berücksichtigung realer Informationen aus Veracruz, Mexiko. Der vorgeschlagene Ansatz ist in der Lage, eine Reihe von nahezu optimalen alternativen Routen zu berechnen, die gegenüber einer gierigen Wegfindungsreferenzmethode, wie sie in traditionellen geografischen Informationssystemen enthalten sind, bis zu 34,1% der Geländeaufprallkosten verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-76310-7_4 bf91a89b0e6c9e0134f8bda48bfd423b;de;;;5.1.;;;Design und Implementierung eines effizienten Web-Crawlings mit neuronalen Netzen Die Zahl der Nutzer, die das Internet nutzen, steigt von Tag zu Tag. Derzeit werden die Forschungen zu den Informationen unter Verwendung des Retrieval-Modells neuronaler Netze für das Retrieval von Informationen und die Klassifizierung von Dokumenten aktiv vorangetrieben. Zur Identifizierung und Quantifizierung der Wortgewichte in Dokumenten wurden verschiedene Arten von Algorithmen angewendet. Da sich die Informationstechnologien beschleunigen, ist es notwendig, die genaue Bedeutung von Dokumenten durch die Analyse der Wörter unter Verwendung fortschrittlicher Technologien zu verstehen. In diesem Artikel wurden von word2vec spezifische Schlüsselwörter verwendet, um natürlich fusionierte Worthäufigkeiten, semantische Beziehungen und gerichtete Textränge zu identifizieren. Daher ist das neuronale Netz der fortschrittliche Mechanismus, um die semantische Beziehung zwischen Wörtern und Texten in einem bestimmten Dokument zu überprüfen. Unser Ansatz verwendet Word2vec, um die semantischen Merkmale zwischen Wörtern im ausgewählten Text zu erfassen und dabei die semantische Beziehung der Worthäufigkeit auf natürliche Weise zu integrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9341-9_20 58c1e1548b70474fd2f3f97270515d8a;de;;;5.1.;;;Bereitstellung von Zahlungsdiensten durch manuelles Mauterhebungssystem Eine rasante Entwicklung der Verkehrsinfrastruktur führt zu immer strengeren quantitativen und qualitativen Anforderungen an die Verkehrssysteme. Im qualitativen Kontext beschränken sie sich auf die Servicequalität der Verkehrseinrichtungen für die Nutzer des Mautsystems. Diese Qualität wird durch die Einhaltung definierter Zeitrahmen bestimmt. Damit wird den Erwartungen der Nutzer Rechnung getragen, dass der Mautservice auf Autobahnen bestimmte Standards erfüllt. In diesem Beitrag wird das Konzept des Einsatzes von Bewertungsmethoden und -instrumenten zur Unterstützung des Entscheidungsprozesses für wartungsbezogene Fragen im Kontext manueller Mautsysteme diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34050-5_8 207da0cf594f4846c504834bdff1dd1b;de;;;5.1.;;;ÖPNV-Informationssystem für sehbehinderte und blinde Menschen In diesem Beitrag wird ein Assistenzsystem für sehbehinderte und blinde Menschen vorgestellt, das ihnen bei der Nutzung öffentlicher Verkehrsmittel hilft. Das vorgeschlagene System verwendet Mobiltelefone als Medium für Fahrgastinformationssystem und GPS (Global Positioning System), GSM (Global System for Mobile Communications) und Bluetooth-Technologien für Ortungs- und Kommunikationszwecke. Bei dem vorgeschlagenen System werden den blinden Menschen Tonnachrichten über Mobiltelefone gegeben, auf denen eine spezielle Software installiert ist. Dieses System wurde in zwei Pilotstädten im öffentlichen Verkehr implementiert und getestet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16472-9_30 fce24edb748fcf096b667fe23072cd09;de;;;5.1.;;;Effiziente Verteilung von Zertifikatsketten in VANETs Die drahtlose Car-to-X-Kommunikationstechnologie wird in den nächsten Jahren den Massenmarkt erobern. Dadurch hängt die Sicherheit in erstellten Fahrzeug-Ad-hoc-Netzwerken von digitalen Signaturen ab, die von einer mehrstufigen Zertifikatshierarchie verwaltet werden. Die Zertifikatsverteilung ist in Bezug auf die Kanalnutzung und die Verzögerung des Datenempfangs durch sicherheitsbedingte Paketverluste kritisch. Diese Probleme sind noch bedeutsamer, wenn nicht nur Pseudonymzertifikate, sondern auch Zertifikate von Zertifizierungsstellen zwischen den Knoten nach Bedarf ausgetauscht werden müssen. Frühere Arbeiten haben die Verbreitung von Elementen höherer Ebene aus einer mehrstufigen Zertifikatskette nicht im Detail behandelt. Somit bietet diese Arbeit eine Studie über die kürzlich standardisierten Algorithmen. Es werden mehrere Nachteile der bisher verwendeten unkomplizierten Lösung identifiziert, darunter schwerwiegende Denial-of-Service-Schwächen. Es hat sich herausgestellt, dass Lösungen für das Verteilungsproblem denen des Paketweiterleitungsproblems ähnlich sind, die beim positionsbasierten Routing angetroffen werden. Daher untersuchen wir mehrere Algorithmen zur effizienten Verteilung einer Zertifikatskette in Bezug auf die Kanallast, die von ihren Pendants im positionsbasierten Routing adaptiert werden. Dabei hat sich herausgestellt, dass eine Kombination von Pseudonym-Zertifikatspufferung mit Requester-basierter Responder-Auswahl in der Lage ist, die Anforderung einer Zertifikatskettenverteilung in VANETs vollständig zu beseitigen. Das eingeführte Design vermeidet die festgestellte Denial-of-Service-Schwäche und verringert gleichzeitig die Worst-Case-Größe des Sicherheitsumschlags von VANET-Nachrichten um mehr als ein Drittel.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-54433-5_6 413a17411cdd47d73f33ade797bc1462;de;;;5.1.;;;Sichere Datenübertragung in VANETs durch effiziente Schlüsselverwaltungstechniken Ein Fahrzeug-Adhoc-Netzwerk (VANET) ist eine Unterklasse des mobilen Adhoc-Netzwerks (MANET), das eine Fahrzeug-zu-Fahrzeug-Kommunikation und eine Fahrzeug-zu-Infrastruktur-Kommunikation bereitstellt, d. h. zwischen Fahrzeugen und straßenseitigen Basisstationen. Die Präsenz der Fahrzeugtechnologie in der heutigen Automobilindustrie ist auf ihre zunehmende Anzahl von Anwendungen mit einer guten Ressource für das intelligente Transportsystem zurückzuführen. Das entwickelte System verwendet die Road Side Unit (RSU), um die Originalität der Nachrichten sendenden Fahrzeuge zu gewährleisten und auch redundante Nachrichten zu vermeiden. Mit großer Rechenleistung speichert es alle Informationen über das Fahrzeug und stellt dem Fahrzeug eine Pseudo-ID zur Kommunikation zur Verfügung, wodurch die Anonymität gewahrt bleibt. Die RSU überprüft die Fahrzeug-ID, und die Aktualität der Nachricht wird unter Verwendung eines Zeitstempels überprüft. Sobald die Details überprüft sind, sendet es die Nachricht schließlich an alle Fahrzeuge und andere RSUs, die die Informationen möglicherweise benötigen, wodurch redundante Nachrichten gestoppt werden. Der kryptografische Algorithmus wird für die Verschlüsselung und Entschlüsselung von Nachrichten verwendet, um sichere Nachrichten zu gewährleisten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-28364-3_50 4fa4e048f5b80bae4840452470292765;de;;;5.1.;;;Softwaretool zur Unterstützung der Verbesserung des kollaborativen Lernprozesses Computergestütztes kollaboratives Lernen vereint die gleichen Merkmale und Qualitäten des traditionellen Lernens und beinhaltet Vorteile auf der Ebene der Interaktion und des kollektiven Lernens sowie die Einbeziehung eines motivierenden Elements in Verbindung mit Technologie, das eine detailliertere Überwachung ermöglicht, eine Aktivitätsaufzeichnung einbeziehen , leiten, bewerten und beobachten den Prozess, der in einer kollaborativen Aktivität ausgeführt wird. Eines seiner Hauptprobleme ist jedoch das Fehlen von Softwaretools, die eine effektive Zusammenarbeit gewährleisten, die Überwachung und Bewertung des Prozesses in jeder seiner Phasen (Pre-Process, Process und Post-Process) unterstützen und ein Kompendium bereitstellen von Mechanismen, die die Ausführung einer kollaborativen Aktivität ermöglichen und die Zusammenarbeit zwischen den Teilnehmern verbessern In diesem Beitrag wird das Softwaretool MEPAC (Monitoreo y Evaluación del Proceso de Aprendizaje Colaborativo) vorgestellt, das die Verbesserung des kollaborativen Lernprozesses in jeder seiner Phasen durch die Integration von Monitoring und Evaluierung unterstützt. Die Bewertung der Nützlichkeit, Anwendbarkeit und Komplexität des MEPAC anhand einer Fallstudie ließ uns den Schluss ziehen, dass die Entwicklung von kollaborativen Lernaktivitäten unter Verwendung von Überwachungs- und Bewertungsmechanismen geeignet ist, wodurch die Zusammenarbeit zwischen den Teilnehmern verbessert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-66562-7_32 ea5f4b20265cfeeee2d528bab81cc4d6;de;;;5.1.;;;Eine Studie zu Richtlinien zur statischen Anrufzulassungssteuerung für drahtlose Mobilfunknetze In drahtlosen zellularen Mobilfunknetzen spielt die Anrufzulassungssteuerung (CAC) eine wichtige Rolle bei der Bereitstellung der Dienstgüte (Qos). In den letzten drei Jahrzehnten hat es aufgrund der wachsenden Nachfrage nach drahtloser Kommunikation enormes Interesse gefunden. In drahtlosen Systemen für die erste und zweite Generation wurden CAC-Schemata unter Berücksichtigung einer einzigen Dienstklasse, d. h. Sprache, entworfen. Allerdings werden die dritte Generation (3G) und weitere drahtlose Systeme, die Multimediadienste wie Sprache, Video und Daten bereitstellen, mit unterschiedlichen QoS-Formen unter homogenen und heterogenen Netzen erweitert. Dementsprechend werden verfeinerte CAC-Verfahren entwickelt, um den oben erwähnten Veränderungen zu begegnen. In diesem Papier bieten wir eine Gesamtstudie zu den statischen CAC-Schemata, die in drahtlosen Mobilfunknetzen verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8439-8_20 b762ed7d5b727d8fc625f668a2aceffe;de;;;5.1.;;;Dynamisches Routing mit Health Information Policy mit Apache Camel Apache Camel ist eine Implementierung eines Messaging-Frameworks, das die von Hohpe und Woolf entwickelten Enterprise-Integrationsmuster verwendet. Dieses Framework ermöglicht die Konfiguration der Messaging-Architektur zur Laufzeit, indem Routing-Regeln geändert werden, die die Disposition der vom System übertragenen Nachrichten bestimmen. Unsere Arbeit veranschaulicht eine originelle Verwendung der dynamischen Routing-Funktion zur Implementierung von Gesundheitsinformationsrichtlinien, indem die Routingregeln in die Hände von Richtlinienadministratoren und nicht von Netzwerkmanagern gelegt werden. Dieses Papier ist eine erweiterte Version der Referenz [1].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18472-7_6 444406219fa85cf0ef001e7ff4a7c6ea;de;;;5.1.;;;Kombination von Sprach- und Bilderkennung für Smart Home Security System Durch technische und Hardware-Verbesserungen kann der Mensch mit mehr signifikanten Daten umgehen als zuvor. Maschinelles Lernen ist ein Weg, um künstliche Intelligenz zu erreichen, indem Differenzalgorithmen verwendet werden, um Differenztypdaten zu verarbeiten und das System Daten wie ein Mensch analysieren, lernen und verarbeiten zu lassen. Das künstliche neuronale Netzwerk hat viele Arten, wie das rekurrente neuronale Netzwerk, das gut mit Kontinuitätsdaten umgeht, Situationen wie Spracherkennung, da Sprache Kontinuität ist, verschiedene Buchstabenkombinationen mit den verschiedenen Bedeutungen, so dass Kontinuitätsdaten für die Spracherkennung unerlässlich sind. Raspberry Pi ist ein hervorragendes Gerät für das Internet der Dinge, da es sich um eine Art Mikrocomputer handelt, auf dem Sie das Betriebssystem installieren können. Die Funktion ist als Basis, Sie können verschiedene Module erweitern. Wenn wir beispielsweise Bildinformationen sammeln möchten, können wir das Linsenmodul installieren, wenn wir Tondaten erhalten möchten, müssen wir das Mikrofonmodul installieren. Der aktuelle Himbeer-Pi verfügt bereits über WIFI und Bluetooth, sodass der Himbeer-Pie derzeit eine der beliebtesten Optionen für IoT-Geräte ist. In diesem Artikel möchten wir die Technik der Gesichtserkennung und Spracherkennung im Leben anwenden, indem wir einen Himbeer-Pi verwenden, um ein Haussicherheitssystem aufzubauen. Wir haben eine Architektur vorgeschlagen, die Gesichtserkennung und Spracherkennung kombiniert, um ein Heimsicherheitssystem zu entwickeln. Durch Gesichts- und Spracherkennung überprüfen wir, ob die Identität richtig ist oder nicht, um den Komfort und die Sicherheit der Smart-Home-Umgebung zu verbessern. Raspberry Pi ist der Kernel des Heimsicherheitssystems und verwendet ein Linsenmodul zum Sammeln von Gesichtsinformationen und ein Mikrofonmodul zum Sammeln von Sprachinformationen. Raspberry Pi lädt die Daten in die Gesichts-API und das Sprechererkennungssystem hoch. Die Gesichts-API wird verwendet, um Gesichtsinformationen zu erkennen, die Sprach-API wird verwendet, um Sprachinformationen zu identifizieren. Wenn die Identität des Gesichts-API-Ergebnisses dem Charakter des Sprach-API-Ergebnisses entspricht, ist die Überprüfungsanforderung erfüllt, das System fährt mit dem nächsten Schritt fort, um Geräte wie ein elektronisches Schloss oder andere Geräte zu steuern, die die Fernbedienung unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3648-5_25 d2c0368dcb60975b628b95ab2e1ffbe6;de;;;5.1.;;;Forschung zur Zielerkennungstechnologie von Satellitenfernerkundungsbildern basierend auf neuronalen Netzen Mit der rasanten Entwicklung der Satellitenfernerkundungstechnologie wird die Auflösung von Satellitenbildern immer höher und immer mehr Satellitendaten können am Boden gewonnen werden. Herkömmliche Verfahren zur künstlichen Bildübersetzung können nicht mit massiven Daten umgehen und können die Informationen interessierter Objekte nicht effizient, schnell und genau erhalten. Angesichts dieses Problems, wenn man bedenkt, dass die neuronale Netztechnologie der Tiefenfaltung gute Ergebnisse bei der Erkennung von natürlichen Bildzielen erzielt hat, verwendet dieser Artikel den typischen tiefen neuronalen Frame Faster R-CNN als Basisframe und verwendet das Image-Augmentation-Verfahren zur Verbesserung die Genauigkeit und Verallgemeinerungsfähigkeit des neuronalen Netzmodells und optische Fernerkundungsbilddaten mit mehreren Auflösungen, um eine automatische Zielerkennungsverarbeitung zu erreichen. Die Ergebnisse zeigen, dass die vorgeschlagene Methode Bilder automatisch und schnell übersetzen kann, die Erkennungsrate von Schiffen und anderen Zielen ist besser als 75%.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-7123-3_16 176511ffb034fdd8083ff23d7b7f0a01;de;;;5.1.;;;Kostenorientiertes Empfehlungsmodell für E-Commerce Zeitgenössische Webshops bieten E-Kunden eine breite Palette von Produkten. Der Online-Verkauf wird jedoch stark von einer begrenzten Anzahl von Bestsellern dominiert, während andere, weniger beliebte oder Nischenprodukte lange im Inventar gelagert werden. Somit tragen sie zum Problem des eingefrorenen Kapitals und der hohen Lagerkosten bei. Um dieses Problem zu lösen, schlagen wir vor, Informationen über Produktkosten in einem Empfehlungssystem für einen Webshop zu verwenden. Wir diskutieren das vorgeschlagene Empfehlungsmodell, in das zwei Kriterien aufgenommen wurden: ein prognostizierter Grad der Erfüllung der Kundenbedürfnisse durch ein Produkt und die Produktkosten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31217-5_44 7ccfe9e6f06d1946b62c8e279b2e4104;de;;;5.1.;;;AC-Caps: Aufmerksamkeitsbasiertes Kapselnetzwerk zur Vorhersage von RBP-Bindungsstellen von LncRNA Lange nicht-kodierende RNA (lncRNA) ist eine der nicht-kodierenden RNAs, die länger als 200 Nukleotide ist und keine proteinkodierende Funktion hat. LncRNA spielt in vielen biologischen Prozessen eine Schlüsselrolle. Die Untersuchung der Bindungsstellen des RNA-bindenden Proteins (RBP) an der lncRNA-Kette hilft, epigenetische und posttranskriptionelle Mechanismen aufzudecken, die physiologischen und pathologischen Prozesse von Krebs zu erforschen und neue therapeutische Durchbrüche zu entdecken. Um die Erkennungsrate von RBP-Bindungsstellen zu verbessern und die experimentelle Zeit und die Kosten zu reduzieren, sind viele Berechnungsmethoden auf der Grundlage von Domänenwissen zur Vorhersage von RBP-Bindungsstellen entstanden. Diese Vorhersagemethoden sind jedoch unabhängig von Nukleotiden und berücksichtigen keine Nukleotidstatistiken. In diesem Papier verwenden wir ein statistisch-basiertes Kodierungsschema höherer Ordnung, dann werden die kodierten lncRNA-Sequenzen in eine hybride Deep-Learning-Architektur namens AC-Caps eingespeist. Es besteht aus einer gemeinsamen Verarbeitungsschicht (bestehend aus einem Aufmerksamkeitsmechanismus und einem neuronalen Faltungsnetzwerk) und einem Kapselnetzwerk. Das AC-Caps-Modell wurde anhand von 31 unabhängigen experimentellen Datensätzen von 12 lncRNA-bindenden Proteinen evaluiert. In Experimenten erzielt unsere Methode eine hervorragende Leistung mit einer durchschnittlichen Fläche unter der Kurve (AUC) von 0,967 und einer durchschnittlichen Genauigkeit (ACC) von 92,5%, die 0,014, 2,3%, 0,261, 28,9%, 0,189 und 21,8% höher sind als HOCCNNLB, iDeepS bzw. DeepBind. Die Ergebnisse zeigen, dass die AC-Caps-Methode die groß angelegten RBP-Bindungsstellendaten auf der lncRNA-Kette zuverlässig verarbeiten kann und die Vorhersageleistung besser ist als bei bestehenden Deep-Learning-Modellen. Der Quellcode von AC-Caps und die in diesem Papier verwendeten Datensätze sind verfügbar unter;-;-;-;https://link.springer.com/article/10.1007/s12539-020-00379-3 77a2f5ba2c4f9095377b1e5b777dba61;de;;;5.1.;;;Vergleichende Studie von RSA mit optimiertem RSA zur Verbesserung der Sicherheit Asymmetrische Kryptoalgorithmen sind eine robuste Technologie, die bei der Kommunikation von Texten auf dem Kanal verwendet wird, um Sicherheitsrisiken zu reduzieren. Mathematische Ansätze sind einer der Nachteile, und zwar weil sie einen größeren Rechenaufwand erfordern, was zur Notwendigkeit einer verbesserten Nutzung der Rechenleistung beiträgt. Dieses Papier zielt darauf ab, den Algorithmus für die RSA-Codierung zu verfeinern und somit die Informationssicherheit, Zuverlässigkeit und Verfügbarkeit zu verbessern. Die Ergebnisse zeigen die Informationssicherheitseffizienz und Benutzerfreundlichkeit des RSA-Algorithmus. Wir können auch sehen, dass bei der Codierung und Decodierung Zeit, Platz, Prozessor- und Netzwerkausgabe geringer sind als bei anderen RSA-Lösungen, da die Berechnung auf Client und Server erfolgt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7961-5_91 14b9d9f1e1b01175499cf9e36e70550a;de;;;5.1.;;;Tägliche klimatologische Felder basierend auf GNSS-Radiookkultationsmessungen: Eine Machbarkeitsstudie Die GNSS-Radiookkultationstechnik (RO) kann qualitativ hochwertige Messungen der Erdatmosphäre liefern. Monatliche (oder saisonale) RO-Klimafelder wurden häufig in Klima- und Wetterstudien verwendet. Die geringe zeitliche Auflösung macht es jedoch schwierig, die schnellen Schwankungen in der Atmosphäre aufzulösen. Hier haben wir die täglichen klimatologischen Felder durch GNSS RO-Messungen des Constellation Observing System for Meteorology, Ionosphere, and Climate ermittelt. Durch Anwenden einer „Punkt“-Strategie werden RO-Profile durch die Gaußsche Gewichtungsfunktion in ein globales Gitter von 3° × 3° Länge und Breite assimiliert. Im Vergleich zwischen den RO-Klimafeldern und der Reanalyse des Europäischen Zentrums für mittelfristige Wettervorhersagen zeigen die Unterschiede charakteristische Merkmale in verschiedenen Schichten der Erdatmosphäre. Die Gesamtunterschiede betragen etwa 2 K, 1,5 % und 40 m (Temperatur, Dichte und geopotentielle Höhe) in der unteren Troposphäre, 1 K, 0,5 % und 40 m in der oberen Troposphäre und unteren Stratosphärenregion und 2 K, 1 % und 100 m in der oberen Stratosphäre. Die Ergebnisse haben gezeigt, dass die beobachtungsbasierten RO-Klimafelder sowohl auf der Nord- als auch auf der Südhalbkugel zuverlässig sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3707-3_39 18d76d70b1b9f854b2665e7cfa720e0a;de;;;5.1.;;;Das erweiterte hierarchische linguistische Modell in Fuzzy Cognitive Maps Fuzzy Cognitive Maps ermöglichen die Kausalitätsmodellierung mit mehreren Experten unter Verwendung linguistischer 2-Tupel-Werte, um die Genauigkeit der Berechnung mit Worten in Bezug auf klassische symbolische Ansätze zu verbessern. Experten stellen kausale Zusammenhänge entsprechend ihrem Wissen her, da sie unterschiedliche Bildungshintergründe oder Erfahrungen haben können. Es erscheint logisch, dass sie unterschiedliche Skalen verwenden, um ihre mentalen Modelle auszudrücken. In dieser Arbeit schlagen wir eine neue Methode zur Erweiterung von Fuzzy-Cognitive-Maps vor, die das Rechnen mit Wörtern-Paradigma und das erweiterte hierarchische linguistische Modell verwendet, das es ermöglicht, kausale Beziehungen durch linguistische Informationen zu modellieren, wobei Experten verschiedene linguistische Skalen verwenden würden, um kausale Beziehungen. Ein anschauliches Beispiel wird gezeigt, um die Anwendbarkeit der vorgeschlagenen Methode bei der Modellierung von Abhängigkeiten zwischen nichtfunktionalen Anforderungen zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48024-4_4 801e4a0d08c47ab2a8538daf27778932;de;;;5.1.;;;Budgetvisualisierung: Malaysia Budgetvisualisierung Die Datenvisualisierung ist eine effiziente Methode zur Analyse komplexer Daten. Es erleichtert dem Leser das Erkennen von Datenmustern. Basierend auf den vorherigen Studien haben Länder wie die USA, China, Russland und die Philippinen Methoden zur Datenvisualisierung verwendet, um ihre Budgets darzustellen. Das malaysische Budget wird jedoch immer noch in Sprachtexten gemeldet, was für malaysische Bürger schwierig ist, die Gesamtverteilung zu verstehen. Daher schlug dieses Papier eine Treemap-Technik vor, um das Malaysia-Budget mit einem dynamischen Ansatz zu visualisieren. Diese Technik wird gewählt, da sie es den Benutzern ermöglicht, die Daten interaktiv zu erkunden, die verschiedene Ministerien abdecken. Das Ergebnis zeigt, dass die Treemap-Technik gut funktioniert und das gesamte Budget effektiv darstellt. Diese Studie kann weiter verbessert werden, indem der Vergleich zwischen dem vorherigen und dem aktuellen Budget durchgeführt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7242-0_18 e315b20c9f624a97b40f3fe130998dc5;de;;;5.1.;;;Erkennung und Klassifizierung von Lungengrenzen in Röntgen-Thorax-Bildern basierend auf neuronalen Netzen Die Isolierung verschiedener Strukturen wird häufig in der Thoraxradiographie (CXR) durchgeführt und die Klassifikation von Auffälligkeiten ist ein erster Schritt in Detektionssystemen als Computer Aided Diagnostic (CAD). Form und Größe der Lunge können Hinweise auf schwere Erkrankungen wie Pneumothorax, Pneumokoniose und sogar Emphysem geben. In den Vereinigten Staaten sterben jedes Jahr mehr als 500.000 Menschen an Herz- und Lungenversagen, die oft auf den normalen CXR-Film getestet werden. Bei einer steigenden Zahl von Patienten müssen die Ärzte überanstrengen, können daher ihre Patienten nicht richtig beraten und betreuen. In diesem Fall wird das Computersystem benötigt, das die Bildklassifizierung und die Grenz-CXR-Erkennung unterstützt. Dieses Papier präsentiert unseren automatisierten Ansatz zur Erkennung von Lungengrenzen und CXR-Klassifizierung in konventionellen posterioren Röntgenaufnahmen des Brustkorbs. Zuerst extrahieren wir die Lungenregion, Größenmessungen und Formunregelmäßigkeiten mit Segmentierungstechniken, die in der Bildverarbeitung von Thoraxröntgenaufnahmen verwendet werden. Für das CXR-Bild extrahieren wir 18 verschiedene Merkmale unter Verwendung der Graustufen-Co-Occurrence-Matrix (GLCM), die es ermöglicht, dass der CXR unter Verwendung des probabilistischen neuronalen Netzwerks (PNN) als normal oder abnormal klassifiziert wird. Wir messen die Leistung unseres Systems anhand von zwei Datensätzen: dem Röntgendatensatz von Montgomery County (MC) und dem Röntgendatensatz von Shenzhen. Die vorgeschlagene Methodik hat wettbewerbsfähige Ergebnisse mit relativ kürzerer Trainingszeit und höherer Genauigkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-38752-5_1 08ddb2572026e205f1eec6f4da790a44;de;;;5.1.;;;Adaptive und statistische polygonale Kurve zur Erkennung mehrerer Schweißfehler in Röntgenbildern Mit den Fortschritten in der Informatik und den Techniken der künstlichen Intelligenz ergab sich die Möglichkeit, computergestützte Techniken für die Durchstrahlungsprüfung in der zerstörungsfreien Prüfung zu entwickeln. Dieses Papier präsentiert ein adaptives probabilistisches bereichsbasiertes verformbares Modell mit einer expliziten Darstellung, das darauf abzielt, automatisch Defekte aus einem Röntgenfilm zu extrahieren. Um die Höhenberechnungskosten eines solchen Modells zu bewältigen, wird eine adaptive polygonale Darstellung verwendet und der Suchraum für die gierige Modellentwicklung reduziert. Darüber hinaus passen wir dieses explizite Modell an, um topologische Änderungen bei Vorhandensein mehrerer Defekte zu behandeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21984-9_16 71c2df6855dcb948efcbf0bdb6ebfcd7;de;;;5.1.;;;Studie zur Standortzuweisung von Erdbeben-Notdienst-Depots basierend auf hybrider Multi-Attribute-Entscheidungsfindung Das Ziel dieses Papiers ist es, ein Standortmodell für Erdbeben-Notdienst-Depots auf der Grundlage einer hybriden Multi-Attribute-Entscheidungsfindungsmethode vorzuschlagen. Der Vorteil des vorgeschlagenen Verfahrens besteht darin, dass die praktische gemischte Unsicherheit von Standortentscheidungsinformationen berücksichtigt wird und die entsprechenden Faktoren, die den Standort von Übergabestationen beeinflussen, enthalten sind. Zur Lösung des Standortproblems wird ein hybrides Multi-Attribute-Entscheidungsverfahren ohne Informationstransformation entwickelt. Außerdem wird ein neues Gewichtungsverfahren und ein neues Aggregationsverfahren angegeben. Schließlich wird ein numerisches Beispiel gegeben, um die Durchführbarkeit und Gültigkeit der vorgeschlagenen Methode zu zeigen.;-;-;-;https://link.springer.com/article/10.1007/s11069-017-3051-8 8036facb2421994bae5add6a4091a298;de;;;5.1.;;;Generatives gegnerisches Netzwerk mit Bewegungseinschränkung zur Anomalieerkennung Das erhöhte Volumen an Videodaten machte die Überwachung durch Menschen unmöglich und machte ein automatisiertes System zur Erkennung abnormaler Ereignisse erforderlich. Die Erkennung abnormaler Ereignisse beinhaltet das Erlernen normaler Muster und das Identifizieren jeder Abweichung als abnormal. In diesem Beitrag schlagen wir ein generatives kontradiktorisches Netzwerk (GAN)-basiertes System zur Erkennung abnormaler Ereignisse vor. GAN ist darauf trainiert, normale Frames zu generieren, und erzeugt keine Frames mit anormalen Ereignissen. Üblicherweise werden zum Trainieren von GANs feindlicher Verlust und Verlust des Aussehens verwendet. In diesem Papier schlagen wir vor, während des Generatortrainings eine Bewegungsbeschränkung durch optischen Fluss und Beschleunigung aufzuerlegen. Unsere Experimente mit Standarddatensätzen beweisen, dass Bewegung ein wichtiger Hinweis für die Erkennung abnormaler Ereignisse ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8697-2_22 84ebb0c1b3bf00c724f31167406c67e6;de;;;5.1.;;;Modi der sequentiellen Drei-Wege-Klassifizierung Wir präsentieren einen Rahmen zum Studium sequentieller Drei-Wege-Klassifikationen basierend auf einer Folge von Beschreibungsräumen und einer Folge von Bewertungsfunktionen. In jeder Stufe wird ein Paar aus einem Beschreibungsraum und einer Bewertungsfunktion für eine Drei-Wege-Klassifizierung verwendet. Ein Satz von Objekten wird in drei Regionen klassifiziert. Der positive Bereich enthält positive Instanzen einer bestimmten Klasse, der negative Bereich enthält negative Instanzen und der Grenzbereich enthält diejenigen Objekte, die aufgrund unzureichender Informationen nicht als positive oder negative Instanzen klassifiziert werden können. Durch die Verwendung feinerer Beschreibungsräume und feinerer Auswertungen können wir möglicherweise in mehreren Schritten eindeutige Klassifizierungen für diese Objekte in der Grenzregion vornehmen, was eine sequentielle Drei-Wege-Klassifizierung ergibt. Wir untersuchen vier besondere Modi sequentieller Drei-Wege-Klassifikationen in Bezug auf mehrere Granularitätsebenen, probabilistische Grobmengentheorie, mehrere Klassifikationsmodelle und Ensemble-Klassifikationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-91476-3_59 9f19496da25865f068542123e212962d;de;;;5.1.;;;Durch das OLSR-Protokoll getriebene Kartografiesammlung Heutzutage wird die Standorterkennung zu einer allgegenwärtigen Anforderung für mehrere Computeranwendungen. Die Nutzung dieses Wissens in mobilen Ad-hoc-Netzen ist vor allem durch die Knappheit ihrer Ressourcen begrenzt. In diesem Artikel schlagen wir zwei Kartographie-Erfassungsschemata (OLSR-SCGS und OLSR-ACGS) vor, die die bahnbrechende OLSR-Signalisierung nutzen, um Knoten, die am MANET teilnehmen, mit Standortbewusstsein auszustatten. Das erste vorgeschlagene Schema (OLSR-SCGS) ist inspiriert von der Operation von OLSR während des Prozesses der Routing-Tabellenberechnung. Die Einfachheit dieses Schemas macht es mehreren Einschränkungen unterworfen, die wir im zweiten Schema (OLSR-ACGS) vermeiden. Bei diesem letzteren Schema werden die Knoten dank eines dedizierten Zeitstempelansatzes in der Lage, die aktuellste Position unter den verfügbaren zu identifizieren. Durchgeführte Simulationen zeigen die Wirksamkeit der beiden vorgeschlagenen Ansätze. Dennoch zeigen Simulationen die Überlegenheit des zweiten vorgeschlagenen Schemas (OLSR-ACGS) gegenüber dem ersten (OLSR-SCGS), wenn die Netzwerkdynamik zunimmt. Durch Simulationen zeigen wir, dass die Validität der gesammelten Kartografie von mehreren Faktoren wie dem tolerierten Distanzparameter, der Häufigkeit von OLSR-Kontrollnachrichten und der Netzwerkausdehnung beeinflusst wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30507-8_42 f3a5aaccecaaee858db7a12e5bc972b8;de;;;5.1.;;;Verbesserung der Kommunikationseffizienz für verschlüsselte verteilte Schulungen Secure Multi-Party Computation (SMPC) wird normalerweise als spezielle Verschlüsselungsmethode behandelt. Im Gegensatz zu den meisten Verschlüsselungsmethoden, die einen privaten oder öffentlichen Schlüssel zum Verschlüsseln von Daten verwenden, wird ein Wert in verschiedene Freigaben aufgeteilt, und jede Freigabe funktioniert wie ein privater Schlüssel. Wenn Sie nur alle diese Freigaben erhalten, können wir die Originaldaten korrekt abrufen. In diesem Artikel verwenden wir SMPC, um die Privatsphäre von Gradienten-Updates beim verteilten Lernen zu schützen, bei denen jeder Client ein Update berechnet und seine Updates durch Verschlüsselung teilt, sodass keine Informationen über die Daten der Clients durch den gesamten Computerprozess durchsickern können. Die Verschlüsselung bringt jedoch einen starken Anstieg der Kommunikationskosten mit sich. Um die Trainingseffizienz zu verbessern, wenden wir Gradient Sparsification an, um den Gradienten zu komprimieren, indem wir nur die wichtigen Gradienten senden. Um die Genauigkeit und Effizienz des Modells zu verbessern, nehmen wir auch einige Verbesserungen am ursprünglichen Sparsification-Algorithmus vor. Umfangreiche Experimente zeigen, dass die zu übertragende Datenmenge reduziert wird, während das Modell beim MNIST-Datensatz immer noch eine Genauigkeit von 99,6 % erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9129-7_40 5e31f0c30cd735a66e3c24af845b1d86;de;;;5.1.;;;Rate Adaptive Distributed Source-Channel-Codierung unter Verwendung von IRA-Codes für drahtlose Sensornetzwerke In diesem Papier schlagen wir ein Schema für ein ratenadaptives, verlustfreies, verteiltes Quellencodierungsschema für ein drahtloses Sensornetzwerk vor. Wir untersuchen die verteilte Quellkanalcodierung korrelierter Quellen, wenn der Korrelationsparameter nicht fest ist oder sich während des Sensornetzwerkbetriebs ändern kann. Um eine Ratenanpassungsfähigkeit zu erreichen, schlagen wir die Punktierung und Erweiterung des IRA-Codes in Abhängigkeit vom Korrelationswert zwischen zwei Quellen und der Qualität des Kanals vor. In unserem Schema müssen wir nur inkrementelle Redundanz für eine verringerte Korrelation oder einen Abfall der Kanalqualität übertragen, um Energiebeschränkungen zu erfüllen und die Rechenkosten zu reduzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20573-6_33 d21e9ee8a4ef222402371b26b61581bb;de;;;5.1.;;;SCRPM: Sicherstellung eines Crowdsourcing-basierten Straßenbelag-Überwachungssystems mit Standortgeheimnis Um den Datenschutz zu gewährleisten, verschlüsseln Sicherheitsprotokolle für Crowdsourcing-basierte Systeme in der Regel Daten, bevor sie auf den Server hochgeladen werden. Die aktuellen Sicherheitsprotokolle können jedoch keinen Schutz für echte Identitäten bieten, was zu einem Problem mit dem Standortdatenschutz führt. Darüber hinaus basieren aktuelle Sicherheitsprotokolle für Crowdsourcing-basierte Systeme hauptsächlich auf einer bilinearen Karte, was recht zeitaufwändig ist. Um die oben genannten Sicherheits- und Effizienzprobleme anzugehen, schlagen wir ein neuartiges Sicherheitsprotokoll mit Standortgeheimnis namens SCRPM vor. Ähnlich wie Protokolle dieses Feldes kann SCRPM den Datenschutz für hochgeladene Daten bieten. Im Gegensatz zu anderen bekannten Ansätzen verwendet SCRPM jedoch Pseudonyme anstelle von echten Identitäten, die den Standortschutz für Autos bieten können. Gleichzeitig führen wir die algebraische Signaturtechnik in SCRPM ein und entwickeln neuartige Signaturverschlüsselungsalgorithmen, die relativ leichtgewichtig sind, um die Verwendung bilinearer Paarung zu vermeiden. Auf diese Weise kann SCRPM den Standortschutz für Autos bieten und gleichzeitig eine hohe Effizienz genießen. Experimentelle Ergebnisse zeigen, dass SCRPM für reale Anwendungen machbar ist.;-;-;-;https://link.springer.com/article/10.1007/s11276-018-1858-1 7c96fe8708de797a66ddba317eb26fb5;de;;;5.1.;;;Bioinformatisches Awareness-System für Hautkrankheiten mit Stammzelltherapie im Sinne von eHealth In diesem Beitrag haben wir ein bioinformatisches System zur Hauttherapie durch Stammzellimplantation entwickelt. Ziel ist die Nutzung eines eHealth-Programms. Obwohl einige Experimente zur Verwendung universeller Stammzellen erfolgreich bei der Bewegung eines erkrankten Beins durchgeführt wurden, werden in Pakistan weitere Experimente mit Herz- und Lebererkrankungen durchgeführt. Unsere Studie konzentriert sich auf die Notwendigkeit, dass Ärzte oder Chirurgen Hautstammzellen induzieren, und die Untersuchung verschiedener Hautkrankheiten, die durch Häute und deren Nebenprodukte übertragen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89853-5_28 536761d661a5012c5c3d2d4b8211ad5d;de;;;5.1.;;;Aus Bildern und chaotischen logistischen Karten generierter Kryptoschlüsselschutz Kryptographie ist ein Mechanismus, der zum Schutz wertvoller Informationen vor inakzeptablen Benutzern in der Netzwerkwelt verwendet wird. Es ist eine anspruchsvolle Aufgabe, solche Vermögenswerte vor illegalen Nutzern zu schützen. Dies erforderte die Entwicklung kryptographischer Techniken, um Sicherheit zu bieten, da große Mengen digitaler Daten durch die gemeinsam genutzten Medien wandern. Diese Techniken reichen von traditionellen Sicherheitssystemen bis hin zu Krypto-Image-Techniken. Dies führt zu einem Fokus auf kryptografische Techniken, die einen starken Algorithmus und einen starken Schlüssel haben. Die Stärke jedes Kryptoalgorithmus hängt von der Stärke des verwendeten Kryptoschlüssels ab. Daher sind sowohl die Algorithmustechnik als auch die Schlüsselerzeugungsmethodik gleichermaßen wichtig. Dies motivierte, ein neuartiges Schema vorzuschlagen und sich darauf zu konzentrieren, das die Erzeugung von Kryptoschlüsseln und den Schutz von Kryptoschlüsseln umfasst, bei denen der geschützte Schlüssel und seine Methodik von einem nicht berechtigten Benutzer nicht zurückverfolgt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-3653-0_21 9c0712946ada04568c0981027f968e01;de;;;5.1.;;;Generierung und Klassifizierung von Energielastkurven mit einem verteilten MapReduce-Ansatz In den heutigen Energiemärkten werden Anbieter dazu angehalten, das Stromverbrauchsverhalten ihrer Kunden zu modellieren, um die Servicequalität zu verbessern und bessere Produkte mit geringeren Investitions- und Betriebskosten anzubieten. Neue Lastmodelle zur Unterstützung des Stromversorgungssystems sind erforderlich, um Skalierbarkeitsprobleme zu mindern, insbesondere angesichts der zunehmenden Verbreitung verteilter Energieressourcen, unterschiedlicher Lastanforderungen und großer Datenmengen von intelligenten Zählern. Smart Metering ermöglicht es, detaillierte Messungen des Stromverbrauchs in Form von großen Zeitreihen zu erhalten, die Lastkurven kodieren. Clustering-Methoden werden angewendet, um Kunden nach ihrer Ähnlichkeit zu gruppieren, indem Merkmale ihres Verhaltens extrahiert werden. Herkömmliche Computeransätze sind nicht effizient, um das oben erwähnte Problem zu lösen, insbesondere wenn es in Echtzeit gelöst werden muss. In diesem Artikel wird vorgeschlagen, verteilte Rechen- und statistische Lernmethoden auf das Problem der Klassifizierung von Lastkurven von Stromverbrauchern anzuwenden, indem das Map-Reduce-Modell über das Hadoop-Framework angewendet wird. Eine Fallstudie mit realen repräsentativen Smart-Meter-Daten aus Uruguay wird vorgestellt. Die erhaltenen Ergebnisse bestätigen die Stabilität und Robustheit des Ansatzes. Die wichtigsten Ergebnisse deuten darauf hin, dass verteiltes Computing Stromunternehmen helfen kann, große Datenmengen zu verarbeiten, um das Energiemanagement zu verbessern, Dienstleistungen für Verbraucher bereitzustellen und moderne Smart-Grid-Technologien zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-38043-4_1 8437bf05d4021cd192dea68f20b93f35;de;;;5.1.;;;Schwellenwert für den minimalen quadratischen Abstand basierend auf einer asymmetrischen Kookkurrenzmatrix Bei der Bildsegmentierung mit Schwellenwert ist die korrekte und angemessene Extraktion von Pixelverteilungsinformationen der Schlüssel. In diesem Artikel wird eine asymmetrische Grauübergangs-Ko-Auftrittsmatrix angewendet, um die räumlichen Verteilungsinformationen von Bildern besser darzustellen, und es wird eine Gleichförmigkeitswahrscheinlichkeit des Binarisierungsbildes eingeführt, um die Abweichungsinformationen zwischen Original- und Schwellenwertbild zu berechnen. Eine neue Kriteriumsfunktion für den minimalen quadratischen Abstand wird vorgeschlagen, um den Schwellenwert auszuwählen, und der Vektorkorrelationskoeffizient wird abgeleitet, um das Vernünftige des neuen Kriteriums zu interpretieren. Im Vergleich zum Verfahren der relativen Entropie ist das vorgeschlagene Verfahren einfacher, außerdem weist es eine hervorragende Objektextraktionsleistung auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-03766-6_91 ac1fd57ef5784162d3e0f180c7c07c4c;de;;;5.1.;;;Eine Diagnose der Anfälligkeit und des Risikos von Bedrohungen im Zusammenhang mit der Nutzung von Social-Media-Sites bei der Nutzung durch jugendliche Studenten, die am Urban Center des Kantons Cañar . eingeschrieben sind Der vorliegende Artikel ist das Ergebnis eines Forschungsprojekts, das vom Informatikprogramm der Katholischen Universität von Cuenca in Cañar durchgeführt wurde: „Vorgeschlagene Kontrollen zur Minimierung der Risiken, die aus dem Internet und sozialen Netzwerken für Gymnasiasten im städtischen Zentrum des Kantons Cañar entstehen“. Zur Ermittlung digitaler Schwachstellen wurde eine Diagnose der Nutzung des Internets und der sozialen Netzwerke durchgeführt. Durch eine theoretische Studie wurde ermittelt, welche Bedrohungen am häufigsten bei der Nutzung des Internets und sozialer Netzwerke auftreten. Bei 40% der eingeschriebenen Studierenden wurden Umfragen durchgeführt. Aus gegebenen Umfragen ging dann die allgemeine Nutzung des Internets, sozialer Netzwerke und potenzieller Schwachstellen hervor, die von böswilligen Personen ausgenutzt werden könnten. Die Ergebnisse zeigten, dass Bedrohungen mit höheren Risiken mit Verletzungen der Privatsphäre zusammenhängen, die für Verhaltenstendenzen bei den Jugendlichen sichtbar sind und sie in anfällige Situationen bringen, die für Verletzungen der Privatsphäre anfällig sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-72727-1_15 0158bf1b9d2d2b27dc60e7be28db9d9e;de;;;5.1.;;;WT- und PDE-Ansatz zur Erkennung von Waldarten in makroskopischen Bildern Der Beitrag befasst sich mit dem industriellen Problem der automatischen Erkennung von Waldarten unter Verwendung der Wavelet-Transformation (WT) und des Ansatzes der partiellen Differentialgleichung (PDE). Gegenwärtig wird die Aufgabe der Identifizierung manuell von menschlichen Experten durchgeführt, was ein mühsamer und zeitaufwändiger Prozess ist. Daher besteht die Notwendigkeit, die automatische Klassifizierung von Waldarten unter Verwendung von Computer-Vision-Techniken zu entwickeln. Diese Arbeit ist äußerst schwierig, da Waldarten in ihrer visuellen Erscheinung reich vergleichbar sind. Der vorgeschlagene Ansatz wäre bei der automatischen Klassifizierung von Waldarten nützlich und würde den illegalen Handel mit bedrohten Arten verhindern. Das vorgeschlagene Verfahren erhält Richtungsinformationen unter Verwendung der Wavelet-Transformation. Anisotrope Diffusion, eine auf PDE basierende Filterung, wird auf diese Richtungsinformationen angewendet, um eine Strukturkomponente zu erhalten. Diskriminante Merkmale werden durch Anwendung der linearen Diskriminanzanalyse (LDA) auf die statistischen Merkmale erhalten, die aus der Texturkomponente berechnet werden. Die Klassifizierung erfolgt unter Verwendung von k-NN. Die Experimente wurden unter Verwendung von Benchmark-Datensätzen von Waldarten durchgeführt. Der vorgeschlagene Ansatz weist eine Klassifikationsgenauigkeit von 98,37 % mit reduzierten Merkmalen auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9184-2_23 8dc81617c424337be439f744e3209e82;de;;;5.1.;;;Schätzung der Arbeitsbelastung von Triebfahrzeugführern: Extrahieren von Arbeitsbelastungsmessungen aus On-Train-Data-Recordern Dieses Papier stellt eine Methode vor, um die Aufgabenlast von Triebfahrzeugführern aus Downloads von On-Train-Data-Recordern (OTDR) zu extrahieren. OTDR sind weit verbreitet zum Zweck der Zustandsüberwachung von Zügen, können aber auch Anwendungen in der Betriebsüberwachung und -steuerung haben. Die Bewertung der Arbeitsbelastung von Triebfahrzeugführern ist eine solche Anwendung. Das Papier beschreibt die Art der Daten, die in OTDR-Aufzeichnungen enthalten sind und wie sie während einer Fahrt in Fahreraktionen umgewandelt werden können. Präsentiert werden Beispieldaten von 16 Pendlerfahrten, die die erhöhte Arbeitsbelastung bei der Ankunft an Bahnhöfen verdeutlichen. Abschließend werden die Möglichkeiten und Grenzen der Daten diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-61061-0_7 e1a9e5199e1a61ad1e8079f99d3f7d4c;de;;;5.1.;;;Verbesserung von E-Learning-Systemen mit personalisierten Empfehlungen basierend auf kollaborativen Tagging-Techniken Die Personalisierung der E-Learning-Systeme nach den Bedürfnissen und dem Wissensstand der Lernenden stellt das Schlüsselelement in einem Lernprozess dar. E-Learning-Systeme mit personalisierten Empfehlungen sollten die Lernerfahrung an die Ziele des einzelnen Lernenden anpassen. Um die Personalisierung eines Lerninhalts zu erleichtern, können verschiedene Arten von Techniken angewendet werden. Kollaborative und soziale Tagging-Techniken könnten nützlich sein, um die Empfehlung von Lernressourcen zu verbessern. In diesem Papier analysieren wir die Eignung verschiedener Techniken zur Anwendung von Tag-basierten Empfehlungen in E-Learning-Umgebungen. Das am besten geeignete Modellranking, basierend auf der Tensorfaktorisierungstechnik, wurde modifiziert, um die effizientesten Empfehlungsergebnisse zu erhalten. Wir schlagen vor, den Tag-Speicherplatz mit einer Clustering-Technik basierend auf einem Lernstilmodell zu reduzieren, um die Ausführungszeit zu verbessern und den Speicherbedarf zu verringern, während die Qualität der Empfehlungen erhalten bleibt. Ein solches reduziertes Modell zum Bereitstellen von Tag-basierten Empfehlungen wurde in einem Programmierunterrichtssystem verwendet und bewertet.;-;-;-;https://link.springer.com/article/10.1007/s10489-017-1051-8 fcaa71d245241353b829d5f29c3773d1;de;;;5.1.;;;Grundlagen der Signale und Filterung Zuerst werden die Signaltypen vorgestellt: zeitkontinuierlich und zeitdiskret. Die Transposition in den Frequenzbereich über die Fourier-Transformation wird verwendet, um eine Einführung in die Signalverarbeitung zu ermöglichen. Durch Manipulation des Spektrums eines Beispielsignals wird die Idee der Filterung und Filter eingeführt. Es wird eine Begründung für die Verschiebung des Spektrums durch Modulation gegeben. Der Begriff und ein Maß für die Selektivität werden definiert und „Green Design“ eingeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9852-1_2 c74d298d057153baeef977e0ca10bac1;de;;;5.1.;;;Mobiles Transaktionsmanagement in Mobisnap In diesem Papier beschreiben wir ein Transaktionsmanagementsystem, das entwickelt wurde, um den inhärenten Eigenschaften mobiler Umgebungen zu begegnen. Mobile Clients cachen Teilmengen des Datenbankstatus und ermöglichen getrennten Benutzern, Transaktionen unabhängig durchzuführen. Transaktionen werden als mobile Transaktionsprogramme spezifiziert, die im Server verbreitet und ausgeführt werden und so die Validierung von Transaktionen basierend auf anwendungsspezifischer Semantik ermöglichen. In dem vorgeschlagenen Modell (wie auch in anderen zuvor in der Literatur vorgestellten) wird das Endergebnis einer Transaktion erst bestimmt, wenn die Transaktion im zentralen Server verarbeitet wird. Benutzer können über die Systemunterstützung über die Ergebnisse ihrer Transaktionen informiert werden (auch wenn sie nicht mehr dieselbe Anwendung oder sogar denselben Computer verwenden). Außerdem implementiert das System einen Reservierungsmechanismus, um die Ergebnisse von Transaktionen zu garantieren, die in getrennten Computern durchgeführt werden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44472-6_33 d7efef361ca162f708e508f0da38999c;de;;;5.1.;;;Ein Verifizierungstool für Spleißstellen im gesamten Genom mit massiven Reads Traditionell beruhen Verfahren zum Nachweis von Junctions in erheblichem Maße auf der Annotation von Genstrukturen. Inzwischen sind jedoch auch Ab-initio-Übergangserkennungstools verfügbar. Mithilfe von RNA-Seq-Daten finden diese Tools die Spleißstellen ohne Annotation von Genstrukturen. Die optimalen Ergebnisse bei der Verwendung dieser Tools hängen von ihren Algorithmen ab. Die Art und Weise, das beste Ergebnis zu beurteilen, hängt auch von ihren Algorithmen ab. Außerdem ist es schwierig, die Ergebnisse und andere mögliche Spleißübergangsstellen unabhängig voneinander zu verifizieren. In diesem Artikel stellen wir unser Tool VETic vor, das Ergebnisse von Tools zum Erkennen von Spleißverbindungen auswählen und dann nach anderen Kandidaten für Spleißverbindungen suchen kann. Diese Methode hilft, andere mögliche Spleißübergangsstellen zu finden und die Zuverlässigkeit der Ergebnisse zu berechnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27157-1_20 21044377924da14be877c587a1ad5b07;de;;;5.1.;;;Einfluss der glatten Region auf den Strukturähnlichkeitsindex Der Strukturelle Ähnlichkeitsindex (SSIM) ist aufgrund seiner guten Leistung und einfachen Berechnung ein sehr beliebter Algorithmus zur Bewertung der Bildqualität. Dieses Papier analysiert den Einfluss des glatten Bereichs auf die Leistung von SSIM. Es wurde festgestellt, dass SSIM dazu neigt, von der Qualität des glatten Bereichs abhängig zu sein, um die Qualität des gesamten Bildes zu beurteilen. Bei der Analyse mit der SSIM-Qualitätskarte haben wir festgestellt, dass SSIM die Bedeutung des glatten Bereichs für die visuelle Qualität überschätzt. Daher haben wir in diesem Papier eine neue Gewichtungsfunktion als räumliche Pooling-Methode vorgeschlagen. Das resultierende gewichtete SSIM übertrifft das klassische SSIM um ein Vielfaches.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10467-1_74 2f2f2ab69e93a8bb4a321c9f63084ab5;de;;;5.1.;;;Eine Multi-View-Methode zur Gangerkennung mit statischen Körperparametern Es wird eine Multi-View-Gangerkennungsmethode vorgestellt, die wiedergewonnene statische Körperparameter von Probanden verwendet, wir bezeichnen diese Parameter als aktivitätsspezifische Biometrie. Unsere Daten bestehen aus 18 Probanden, die sowohl in einer abgewinkelten als auch in einer frontal-parallelen Ansicht in Bezug auf die Kamera gehen. Wenn nur Daten aus einer einzigen Ansicht betrachtet werden, werden Probanden leicht unterschieden, jedoch nimmt die Diskriminierung ab, wenn Daten aus verschiedenen Ansichten betrachtet werden. Um zwischen Ansichten zu vergleichen, verwenden wir Ground-Truth-Motion-Capture-Daten eines Referenzobjekts, um Skalierungsfaktoren zu finden, die Daten aus verschiedenen Ansichten in einen gemeinsamen Frame („Walking-Space“) umwandeln können. Anstatt den Prozentsatz korrekt aus einer begrenzten Datenbank anzugeben, berichten wir unsere Ergebnisse mit einer Metrik der erwarteten Verwirrung, die es uns ermöglicht, vorherzusagen, wie unsere statischen Körperparameter die Identität in einer großen Population filtern: Eine geringere Verwirrung führt zu einer höheren erwarteten Unterscheidungskraft. Wir zeigen, dass wir durch die Verwendung von Motion-Capture-Daten zur Anpassung der Sehdaten verschiedener Ansichten an einen gemeinsamen Referenzrahmen erwartete Verwechslungsraten in der Größenordnung von 6% erreichen können.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45344-X_44 3e6186b01dd550013313bcb16c676a9d;de;;;5.1.;;;Untersuchungstechnik von Hangkatastrophen mit fortschrittlicher Technologie In letzter Zeit haben die Häufigkeit und die Auswirkungen von Katastrophen aufgrund des Klimawandels zugenommen und dies ist ein üblicher Trend in Korea. Die Steilhangausfälle, die repräsentativen Naturkatastrophen in Korea, fordern jedes Jahr 18 Todesopfer. Um dieser Katastrophe begegnen zu können, ist es zwingend erforderlich, die wissenschaftliche Standorterkundung potenzieller Hangflächen durchzuführen und deren Verwundbarkeit quantitativ zu bewerten. Die effiziente Pflege und Bewirtschaftung von Steilhängen erfordert oft übermäßige professionelle Ressourcen und quantitative Untersuchungen. Daher ist es wichtig, eine Technologie zur objektiven wissenschaftlichen Standorterkundung und quantitativen Bewertung für Steillagen zu entwickeln. In dieser Studie wird das „Field Investigation System“ für Steillagen vorgeschlagen, um die Effektivität der Standortuntersuchung gegenüber herkömmlichen Methoden mit der Bewertungstabelle zu verbessern. Der Nachweis der Anwendbarkeit des Systems erfolgt auch durch Anwendung auf den von Murgängen betroffenen Steilhangbereich. Es wird daher erwartet, dass die Effizienz der Aufrechterhaltung eines steilen Hangs verbessert wird, während Zeit und Ressourcen durch dieses Felduntersuchungssystem verringert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35267-6_51 9cf73734e0228f4b46ef36d8c5e20dcd;de;;;5.1.;;;Auf dem Weg zur systematischen Compliance-Bewertung mit sicherheitsorientierten Prozesslinien und Evidence Mapping Die Rolle der Software in sicherheitsrelevanten Systemen wächst. Dies unterstreicht die Notwendigkeit einer Softwareprozessbewertung in vielen sicherheitskritischen Bereichen. Zum Beispiel hat die Kernenergieindustrie strenge Sicherheitsanforderungen für Kontrollsysteme und viele Methoden werden angewendet, um die Einhaltung domänenspezifischer Standards und Anforderungen zu bewerten. Dieses Papier diskutiert die Bedürfnisse des Nuklearbereichs und präsentiert Alternativen zur Entwicklung einer Prozessbewertungsmethode, die bereichsspezifische Anforderungen berücksichtigt. Ziel ist es, einen Ansatz bereitzustellen, der die Verwendung von Bewertungsergebnissen bei der Bewertung der Einhaltung der Domänenanforderungen erleichtert und andere Sicherungsanforderungen unterstützt. Das sicherheitsorientierte Process Line Engineering (SoPLE) wird als Methode zur Abbildung von Bewertungskriterien auf domänenspezifische Anforderungen untersucht. Eine binäre Distanzmetrik wird verwendet, um zu bewerten, inwieweit eine auf Prozessabbildungen basierende Methode Probleme bei der Compliance-Bewertung lösen würde. Basierend auf den Ergebnissen ist SoPLE in diesem Fall anwendbar, aber die Prozessabbildung ist nicht ausreichend, um die Compliance-Bewertung zu erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-64218-5_7 f682fd08ec22a4772524f1c5dbe82e77;de;;;5.1.;;;Adaptive Extraktion und Verfeinerung von Meeresrouten aus Crowdsourcing-Trajektoriendaten Crowdsourcing-Trajektoriendaten von Schiffen bieten die Möglichkeit, Informationen über die Seefahrt zu extrahieren. Die Gewinnung von nützlichem Wissen aus riesigen Mengen von Flugbahndaten ist jedoch ein herausforderndes Problem. Durch Crowdsourcing gesammelte Trajektoriendaten können in verschiedenen Bereichen sehr unterschiedlich sein und ihre Qualität kann sehr gering sein. Darüber hinaus ist die Dichteverteilung der durch Crowdsourcing erfassten Trajektorienpunkte in verschiedenen Bereichen ziemlich ungleichmäßig. Darüber hinaus ist es notwendig, Seewege in Offshore- und Nearshore-Gewässern mit hoher Extraktionspräzision zu extrahieren, aber die Extraktionspräzision kann auf offener See geringer sein. Wir schlagen einen adaptiven Ansatz für die Extraktion und Verfeinerung von Schiffen vor, der auf der Zusammenführung und Filterung von Netzen basiert, um die Herausforderungen zu meistern. In diesem Papier schlagen wir nach Vorverarbeitung und Clusterung der Trajektoriendaten basierend auf dem Dichtewert von Gittern mit einem parallelen GeoHash-Kodierungsalgorithmus einen parallelen Gitterverschmelzungs- und Filteralgorithmus basierend auf einer QuadTree-Datenstruktur vor. Der Algorithmus führt eine Gitterzusammenführung an den vereinfachten Gitterdaten gemäß dem Dichtewert des Gitters durch und filtert dann die zusammengeführten Gitterdaten basierend auf einem lokalen Gleitfenstermechanismus, um die Seefahrspur-Gitterdaten zu erhalten. Durch Anwenden der Delaunay-Triangulation auf die Seefahrspur-Gitterdaten können die Seefahrspur-Grenzinformationen mit adaptiver Extraktionspräzision extrahiert werden. Experimentelle Ergebnisse zeigen, dass der vorgeschlagene Ansatz Meereswege mit hoher Extraktionspräzision im Offshore- und Nearshore-Gewässerbereich und niedriger Extraktionspräzision im offenen Seegebiet extrahieren kann.;-;-;-;https://link.springer.com/article/10.1007/s11036-019-01454-w b859823005786e2d7001a3cb23e67b02;de;;;5.1.;;;Graph Mining für die Sequenzierung der nächsten Generation: Nutzung des Assemblierungsgraphen für biologische Erkenntnisse biological Die Assemblierung von Next Generation Sequencing (NGS)-Reads bleibt eine anspruchsvolle Aufgabe. Dies gilt insbesondere für die Zusammenstellung von Metagenomikdaten, die aus Umweltproben stammen, die potenziell Hunderte bis Tausende einzigartiger Arten enthalten. Das Hauptziel aktueller Montagewerkzeuge besteht darin, NGS-Lesevorgänge in zusammenhängende Abschnitte einer Sequenz, die als Contigs bezeichnet werden, zu montieren, während sowohl die Genauigkeit als auch die Länge der Contigs maximiert werden. Das Endziel dieses Prozesses besteht darin, längere Contigs herzustellen, wobei der Hauptfokus nur auf der Montage liegt. Die Sequenzleseassemblierung ist ein aggregierter Prozess, bei dem Informationen über die Leseüberlappungsbeziehung verloren gehen, wenn Lesevorgänge zu längeren Sequenzen oder Contigs zusammengeführt werden. Der Assemblierungsgraph ist informationsreich und in der Lage, die genomische Architektur eines eingegebenen Lesedatensatzes zu erfassen. Wir haben einen neuartigen Hybridgraphen entwickelt, in dem Knoten Sequenzregionen unterschiedlicher Granularität darstellen. Dieses Modell, das in der Assembly- und Analysepipeline Focus verwendet wird, bietet eine prägnante und dennoch funktionsreiche Ansicht eines bestimmten Eingabedatensatzes, die die Extraktion biologisch relevanter Graphenstrukturen für Graph-Mining-Zwecke ermöglicht.;-;-;-;https://link.springer.com/article/10.1186/s12864-016-2678-2 8d402ffb967fdfee3f0a176f34853c7c;de;;;5.1.;;;Heuristische Formationssteuerung in Multi-Roboter-Systemen mit lokaler Kommunikation und eingeschränkter Identifikation Gruppen von Einzelpersonen verwenden häufig Formationen als Mittel, um eine geordnete Bewegung zu gewährleisten und gleichzeitig die Mitglieder in einer Weise zu verteilen, die für die Aktivitäten der Gruppe vorteilhaft ist. Eine bestimmte Formation kann einen defensiven Vorteil gegenüber einer individuellen Bewegung bieten, indem sie beispielsweise nur einige der Agenten der Nähe von Feinden aussetzt, oder die Gruppenfähigkeiten erhöhen, indem sie es Einzelpersonen ermöglicht, den Wahrnehmungsfokus auf einen kleinen Teil der Umgebung zu beschränken. Formationen werden überall in der Natur und in vielen organisierten menschlichen Gruppen verwendet und sind für Multi-Roboter-Systeme gleichermaßen wertvoll. Die meisten Formationskontrollen in Multi-Roboter-Systemen sind im Vergleich zu den Formationen, die wir in der Natur sehen, extrem eingeschränkt: Formationen sind genau definiert und Mechanismen zur Bildung und Aufrechterhaltung von Formationen erfordern oft einzigartige Kennzeichnungen für Einzelpersonen und Rundfunkkommunikation. In diesem Papier untersuchen wir eine Methode zum Erstellen heuristischer Formationen – bei der Agenten eine Gesamtformation erstellen, aber für kleine Variationen in der Form Vergebung existiert –, die nur lokale Regeln zum Erstellen von Formationen verwendet und nur lokale Kommunikation zulässt. Unser Ansatz definiert relative Positionen in Bezug auf eine Wahrscheinlichkeit, die der Position des nächsten Nachbarn gegeben ist, und verbessert die vorherige Arbeit, indem er davon ausgeht, dass nicht alle Agenten beginnen, die einzigartigen Labels anderer in der Gruppe zu kennen. Der Ansatz geht auch von Heterogenität bei der Wahrnehmung aus, da Agenten möglicherweise nicht in der Lage sind, die einzigartigen Markierungen anderer wahrzunehmen, und daher möglicherweise Unterstützung von denen benötigen, die dies können. Diese Annahmen machen Formationen robust gegenüber dem Versagen einzelner Agenten und ermöglichen es zuvor unbekannten Agenten, sich einer bestehenden Formation anzuschließen. Eine Bewertung dieses Ansatzes wird anhand von Player/Stage, einem allgemein akzeptierten Simulationspaket für Mehrrobotersysteme, für kontrollierte Experimente veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11876-0_38 b48e8402512094ef0f6bd5caf087f6ec;de;;;5.1.;;;Entfernungsbasierte Featureauswahl aus probabilistischen Daten Die Featureauswahl ist ein leistungsstarkes Werkzeug zur Dimensionsreduktion aus Datensätzen. In den letzten zehn Jahren haben immer mehr Forscher der Merkmalsauswahl Aufmerksamkeit geschenkt. Darüber hinaus beginnen einige Forscher, sich auf die Merkmalsauswahl aus probabilistischen Datensätzen zu konzentrieren. Bei dem bestehenden Verfahren der Merkmalsauswahl aus probabilistischen Daten wird jedoch die in den probabilistischen Daten verborgene Distanz vernachlässigt. In diesem Papier entwerfen wir ein neues Entfernungsmaß, um informative Merkmale aus probabilistischen Datenbanken auszuwählen, in denen sowohl die Entfernung als auch die Zufälligkeit in den Daten berücksichtigt werden. Und dann schlagen wir einen Merkmalsauswahlalgorithmus basierend auf der neuen Distanz vor und entwickeln zwei beschleunigende Algorithmen, um die Berechnung zu beschleunigen. Außerdem führen wir einen Parameter in den Abstand ein, um die Rauschempfindlichkeit zu reduzieren. Schließlich bestätigen die experimentellen Ergebnisse die Wirksamkeit unserer Algorithmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38562-9_29 7ff0d4fa1a29dfca16f2cbca1a0dcd99;de;;;5.1.;;;Anwendung von Process Mining im Gesundheitswesen – eine Fallstudie in einem niederländischen Krankenhaus Um Wettbewerbsvorteile zu erzielen, versuchen Krankenhäuser, ihre Prozesse zu rationalisieren. Dazu ist es unabdingbar, einen genauen Überblick über die betrachteten „Careflows“ zu haben. In diesem Beitrag wenden wir Process-Mining-Techniken an, um aussagekräftige Erkenntnisse über diese Flüsse zu gewinnen, z. B. um typische Pfade bestimmter Patientengruppen zu entdecken. Angesichts der Dynamik von Gesundheitsprozessen ist dies eine nicht triviale Aufgabe. Der Beitrag demonstriert die Anwendbarkeit von Process Mining am realen Fall eines gynäkologischen Onkologieprozesses in einem niederländischen Krankenhaus. Mit einer Vielzahl von Process-Mining-Techniken analysierten wir den Gesundheitsprozess aus drei verschiedenen Perspektiven: (1) der Kontrollfluss-Perspektive, (2) der Organisations-Perspektive und (3) der Leistungs-Perspektive. Dazu extrahierten wir relevante Ereignisprotokolle aus dem Informationssystem des Krankenhauses und analysierten diese Protokolle mit dem ProM-Framework. Die Ergebnisse zeigen, dass mit Process Mining neue Erkenntnisse gewonnen werden können, die die Verbesserung bestehender Careflows erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-92219-3_32 d21e8636293db42b9116b5a8ddd5fd93;de;;;5.1.;;;Schnelle dezentrale Mittelwertbildung über Multiskalen-Klatsch Wir interessieren uns für das Problem, den durchschnittlichen Konsens auf verteilte Weise auf zufälligen geometrischen Graphen zu berechnen. Wir beschreiben einen neuen Algorithmus namens Multi-scale Gossip, der eine hierarchische Zerlegung des Graphen verwendet, um die Berechnung in handhabbare Teilprobleme zu unterteilen. Nur paarweise Nachrichten mit fester Größe verwenden, die höchstens übertragen werden;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13651-1_23 4285eeb153c8c1a6c0a4aa2ee70162ae;de;;;5.1.;;;Telematikanwendungen als wichtige Grundlage zur Verbesserung der Verkehrssicherheit Ein begleitendes Zeichen der Entwicklung in der Slowakei wie auch in den entwickelten Ländern ist die Intensivierung des Verkehrs, die sich nicht nur als Beitrag zur Mobilität, sondern auch mit negativen Auswirkungen auf die Umwelt, zunehmend schlechterer Durchsatz der Straßeninfrastruktur, Zunahme der Zahl der Verkehrsunfälle und Verkehrsineffizienz. Derzeit besteht die größte Herausforderung der EU darin, die Straßenverkehrssicherheit zu erhöhen. Sicherheit ist die Relevanz von Unfällen und Verlusten von Menschenleben. Es befasst sich auch mit Eigentumsschutz, Regulierung, Management und Entwicklung der Verkehrstechnologie. Die Unfallanalyse zeigt, dass 95 % der Verkehrsunfälle durch Versagen des menschlichen Faktors verursacht werden (falsche Situationseinschätzung, Fähigkeiten/Fähigkeiten des Teilnehmers etc.). Einer der häufigsten Fehler von Fahrern ist eine Fehlentscheidung in einer kritischen Situation. Der Entscheidungsprozess ist sehr kompliziert, da der Fahrer die entstandene Situation innerhalb von Sekundenbruchteilen richtig einschätzen muss. Die Implementierung von Telematiksystemen in die Fahrzeugausstattung reduziert die energetische Intensität, reduziert Umweltbelastungen, erhöht die Sicherheit usw. Die Reduzierung der Gesamtbetriebskosten von Straßenfahrzeugen, die Vereinfachung der Fahrzeugsteuerung in höchstem Maße und die Reduzierung der Informationsüberlastung des Fahrers wird großgeschrieben. In diesem Papier bewerten wir Verkehrsunfälle in der EU und die Möglichkeiten zur Erhöhung der Verkehrssicherheit in der Slowakei und in Polen. Abschließend identifizieren wir Möglichkeiten zur Reduzierung der Unfallrate durch Telematikanwendungen, die einen wichtigen Teil der Verkehrsfragen darstellen und auf einen sichereren und effizienteren Verkehr mit weniger Staus, geringerer wirtschaftlicher Umweltbelastung und höherer Sicherheit abzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24577-5_29 8b44816ccebc555d09d33d0261518d2c;de;;;5.1.;;;Leistungsvergleich von Klassifikationsalgorithmen zur Lokalisierung des dominanten Fersenschmerzes mittels Elektromyographie-Signal Die Prävalenz von Fersenschmerzen ist häufig mit Verletzungen, Infektionen, Problemen des Nervensystems oder einer nicht neutralen Fußhaltung verbunden. Die Diagnose von Fersenschmerzen kann durch eine körperliche Untersuchung, Krankenakten, Bildgebung (Röntgen), Magnetresonanztomographie (MRT) und Analyse der Elektromyographie (EMG) erfolgen. Eine genaue Diagnose muss gestellt werden, um die geeignete Behandlung festzulegen, die jedoch aufgrund der komplexen Anatomie der Ferse oft sehr schwierig ist. Das Ziel dieser Studie ist es daher, den Ort von Fersenschmerzen mithilfe verschiedener Klassifikationsalgorithmen und Merkmalsextraktionen vorherzusagen und zu vergleichen. In dieser Arbeit wird die EMG-Signalaufzeichnung an drei Stellen der menschlichen Ferse durchgeführt, nämlich plantar, Mittelfuß und hintere Ferse. Für den Merkmalsextraktionsschritt wird das EMG-Signal im Frequenzbereich verarbeitet, nachdem seine Frequenz abgetastet (625 Hz) und gefiltert wurde (Butterworth-Filterordnung von 4, 10 und 300 Hz). Die verwendeten Extraktionsfunktionen sind MNF, MDF, Spectral Movement und Power Spectrum Deformation, während die verwendeten Klassifizierungsalgorithmen Support Vector Machine (SVM), Adaboost und xgboost sind. Die Ergebnisse dieser Studie sind, dass die Vergleiche der Vorhersagegenauigkeit der Fersenschmerzlokalisation mit den Adaboost- und xgboost-Methoden 91 bzw. 82 % betragen und mit den linearen Kernel-SVM-, RBF-, Polynom- und Sigmoid-Methoden 64, 73, 73 und 55% bzw. Adaboost ist unter anderen der beste Klassifikationsalgorithmus zur Vorhersage des Ortes von Fersenschmerzen. Das entwickelte Modell bietet ein alternatives Identifizierungsinstrument, da die Kenntnis der spezifischen anatomischen Lokalisation von Fersenschmerzen den Ärzten bei der Diagnoseführung und der Bestimmung der anfänglichen oder spezifischen Behandlung helfen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6926-9_45 204532f0c8474ff19af3721cb3d7a8de;de;;;5.1.;;;Modellierung von Netzwerkeinbrüchen basierend auf der Mehrfachübergangswahrscheinlichkeit In der TCP-Netzwerkumgebung werden alle Einheitenübertragungen unter Verwendung von Sitzungen aufgebaut. In der Sitzung werden Pakete sequentiell übertragen. In diesem Fall enthalten das vorherige und das nächste Paket gegenseitige Kausalität. Daher schlagen wir ein Verfahren vor, das Netzwerkübertragungsinformationen basierend auf Übergängen von Paketzuständen modelliert. Zusätzlich zum Übergangsmodell wird eine Wahrscheinlichkeitsmatrix für die multiplen Zustandsübergangsmodelle aller Sitzungen dargestellt. Das Matching der Modelle wird unter Verwendung des maximalen Log-Likelihood-Verhältnisses erreicht. Die Evaluierung der vorgeschlagenen Methode zur Intrusionsmodellierung wird unter Verwendung von 1999 DARPA-Datensätzen durchgeführt. Die Methode wird auch mit Snort-2 verglichen, einem auf Missbrauch basierenden Intrusion Detection System. Darüber hinaus werden die Techniken zur Weiterentwicklung der vorgeschlagenen Methode diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/11908739_20 95fdd26a880c1ec5e10416091e713ac4;de;;;5.1.;;;Effiziente P2P-inspirierte Richtlinie zur Verteilung von Ressourceninformationen in großen verteilten Systemen Die Recheninfrastrukturen werden immer größer und komplexer. Ihre Organisation und Vernetzung gewinnt mit der zunehmenden Einführung von Cloud-Technologie und der Gründung von Föderationen von Cloud-Anbietern neue Dimensionen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-57972-6_1 0f138efb426314264f573327ef7d3cef;de;;;5.1.;;;Bewertung und Minderung von Timing-Seitenkanallecks bei dynamischen Binärübersetzern mit mehreren Zielen Das Timing von Seitenkanalangriffen ist ein wichtiges Thema für kryptografische Algorithmen. Wenn die Ausführungszeit einer Implementierung von geheimen Informationen abhängt, kann ein Gegner letztere wiederherstellen, indem er erstere misst. Es wurden verschiedene Ansätze entwickelt, um Informationslecks bei kryptografischen Implementierungen auszunutzen und sie vor diesen Angriffen zu schützen, und neuere Arbeiten weiten die Bedenken auf dynamische Ausführungssysteme aus [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-41050-6_10 369ff85d96dc2cb42a447c1705b1671d;de;;;5.1.;;;Wärmebewusster 3D-Grundriss Die dreidimensionale Integration macht die Grundrissplanung zu einem viel schwierigeren Problem, da die mehreren Geräteschichten den Lösungsraum dramatisch vergrößern und die erhöhte Leistungsdichte das thermische Problem akzentuiert. In diesem Kapitel werden die Algorithmen für die 3D-Grundrissplanung mit 2D-Blöcken und 3D-Blöcken vorgestellt. Neben stochastischen Optimierungen auf Basis verschiedener Darstellungen, die kurz vorgestellt werden, wird auch der analytische Ansatz vorgestellt. Die Auswirkungen verschiedener 3D-Floorplanning-Techniken auf Drahtlänge, Fläche und Temperatur werden durch experimentelle Ergebnisse demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-0784-4_4 b196165b921e6b074098bea1eb1f4972;de;;;5.1.;;;Rechtsinformationen als komplexes Netzwerk: Verbesserung der Themenmodellierung durch Homophilie Die Themenmodellierung ist eine Schlüsselkomponente der computergestützten Rechtswissenschaft. Die Netzwerkanalyse ist auch sehr wichtig, um die Struktur von Verweisen in Rechtsdokumenten besser zu verstehen. In diesem Papier verbessern wir die Themenmodellierung für Rechtsfalldokumente, indem wir Homophilie-Netzwerke verwenden, die aus zwei Referenzfamilien abgeleitet sind: frühere Fälle und Gesetzesgesetze. Wir führen eine detaillierte Analyse eines umfangreichen Rechtsfalldatensatzes durch, um diese Netzwerke zu erstellen. Die Verwendung der referenzinduzierten Homophilie-Themenmodellierung verbessert frühere Verfahren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36683-4_3 4c19b3a8b67af351497149767808820d;de;;;5.1.;;;Kombinierte gerichtete Wavelet-Filter-Bänke-basierte Funktionen Dieses Kapitel stellt den Aufbau von kombinierten gerichteten Wavelet-Filterbänken (CDWFB) durch die Kombination von gerichteten Wavelet-Filterbänken (DWFB) und gedrehten gerichteten Wavelet-Filterbänken vor. Der auf CDWFB und Post-Classifier basierende Algorithmus zur Extraktion von Iris-Bildmerkmalen wurde in diesem Kapitel besprochen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06767-4_3 ac3aa7919582ba601268e0803288398c;de;;;5.1.;;;Ein Blick auf demokratisches Management in Hochschulen und Universitäten aus der Perspektive der Kommunikation Menschen müssen miteinander kommunizieren, Unternehmen auch. Die Universität oder das College dient als wichtige soziale Organisation in der Gesellschaft. Kommunikation als wesentlicher Bestandteil des Managements spielt im Hochschulmanagement eine wichtige Rolle. Das traditionelle Management an Hochschulen und Universitäten führt Organisationen und Kommunikationen in Form von Meetings, schriftlichen Medien, Telefon und anderen durch, die keinen guten Mechanismus für das Feedback von Informationen bilden. Durch die volle Ausnutzung des Netzwerks ist es in der Lage, negative Auswirkungen in der zwischenmenschlichen Kommunikation zu überwinden und einen günstigen Kommunikationsmechanismus nach oben zu bilden, um eine demokratische und wissenschaftliche Verwaltung von Hochschulen und Universitäten zu etablieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23062-2_16 0429a33e09e48970d7bab6df36d254c9;de;;;5.1.;;;Ein Lokalisierungsbewertungssystem für autonome Fahrzeuge Das autonome Fahrzeug ist eine Art intelligenter Roboter. Derzeit gibt es viele Algorithmen zur autonomen Fahrzeuglokalisierung, aber nur wenige Methoden zur Lokalisierungsbewertung. Um dieses Problem zu lösen, wird ein Gitterhypothesenmodell vorgeschlagen, das die vorhandenen vorherigen Informationen der Umgebung und nachträgliche Informationen der aktuellen Laser-Echtzeiterfassung von autonomen Fahrzeugen verwendet, Kullback-Leibler-Divergenz und Fourier-Transformation sind Methoden zur Bewertung der aktuellen Standortergebnisse. Die beiden obigen Verfahren können relativ genaue Bewertungsergebnisse liefern und das entsprechende Bewertungsverfahren kann entsprechend den tatsächlichen Geschwindigkeits- und Genauigkeitsanforderungen ausgewählt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2384-3_22 963bf6d707b39d164a34a2fbbb49ca3c;de;;;5.1.;;;Eine neue Methode zur Lokalisierung von Fehlerabschnitten basierend auf der Theorie der relativen Prony-Entropie In dieser Arbeit wurde eine neuartige Methode zur Lokalisierung von Bruchlinienabschnitten eines nicht fest geerdeten Systems vorgeschlagen, die auf der relativen Entropietheorie von Prony basiert. Erstens wurde der stückweise Prony-Algorithmus verwendet, um das transiente Nullstromsignal jedes Detektionspunkts im ersten T/20-Zyklus nach Auftreten des Fehlers anzupassen, zweitens wurden transiente dominante Nullsequenzkomponenten extrahiert und die relativen Entropiewerte benachbarter Detektionspunkte berechnet wurden, schließlich wurde der Fehlerabschnitt unter Verwendung des Merkmals lokalisiert, dass die transienten Nullströme von derselben Seite des Fehlerpunktes eine hohe Ähnlichkeit aufweisen, während die gegenüberliegende Seite des Fehlerpunktes eine geringe Ähnlichkeit besitzt. Simulationsergebnisse bestätigen die Gültigkeit und Genauigkeit der Methode in diesem Papier.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45286-8_38 784e40162863497ce61799064c151a74;de;;;5.1.;;;Anwendung von Lean Six Sigma auf Lieferketten innerhalb einer Dienstleistungsorganisation – eine praktische Lösung Obwohl es Unterschiede zwischen dem Lean- und Six Sigma-Ansatz sowie zwischen einer Fertigungs- und einer Dienstleistungsumgebung gibt, wurden auch einige wichtige Erkenntnisse aufgezeigt. Einige der aufgedeckten Schlüsselprobleme sind sicherlich, dass klare Ziele in Kombination mit genau festgelegten Parametern und einer Datenerhebung, die auf die Zustimmung der Interessengruppen abgestimmt ist, der Schlüssel zum Erfolg eines solchen Projekts sind. Die Auswirkungen und die Strategie des Dienstleistungsunternehmens werden durch die in dieser Studie skizzierten Ergebnisse bestätigt und unterstützen den Einsatz eines sorgfältig durchdachten L6S-Programms innerhalb der Dienstleistungslieferketten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87783-7_57 c357534f1df5c02606a437bc2792fe9b;de;;;5.1.;;;Ein Überblick über die wichtigsten Fähigkeiten des Chief Information Officer Officer Informationssysteme verändern unser Leben. Ihre sozialen und wirtschaftlichen Auswirkungen bedeuten Chancen und Herausforderungen für Menschen, Organisationen und Regierungen. Da sie für die Wettbewerbsfähigkeit entscheidend sind, werden sie immer mehr von Unternehmen berücksichtigt, die sie betrachten, um einen Weg zur Verbesserung des Geschäfts zu finden. In diesem Zusammenhang spielt der CIO (Chief Information Officer) eine zentrale Rolle und muss mehrere Aufgaben erfüllen, um sicherzustellen, dass die unter seiner Aufsicht stehenden Informationssysteme effizient sind. Um in seinem Job kompetent zu sein, braucht der CIO mehrere Fähigkeiten. In diesem Papier werden die wichtigsten Fähigkeiten des CIO identifiziert und diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16324-1_44 5f0830f3bd65cc865ae234ff602c5bf8;de;;;5.1.;;;Neue steganographische Techniken für das OOXML-Dateiformat Der einfachste Container für digitale Informationen ist die Datei, und unter den derzeit verfügbaren Dateien sind MS-Office-Dateien die am häufigsten verwendeten. Das „Microsoft Compound Document File Format“ (MCDFF) wurde oft verwendet, um geheime Informationen zu hosten. Das neue Format von Microsoft, das erstmals mit MS-Office 2007 verwendet wurde, verwendet einen neuen Standard, die „Office Open XML Formats“ (OOXML). Zu den Vorteilen gehört, dass das neue Format das OOXML-Format einführt, das das Risiko von Informationsverlusten verringert, sowie die Verwendung von MS-Office-Dateien als Container für die Steganographie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23300-5_27 f9b6a77a5e8a60ecfd044a847245e91a;de;;;5.1.;;;Datenverschleierung mit Secret Sharing Viele Softwareentwickler verwenden die Technik der Verschleierung, um Daten und Code unverständlich zu machen. Verschleierungstechniken können unabhängig für Code und Daten allein verwendet werden, aber heutzutage kombinieren Softwareentwickler diese Techniken, um Code und Daten zu schützen, was wiederum die Komplexität des Reverse Engineering erhöht. Die Datenverschleierung wird verwendet, um persönlich identifizierbare Informationen oder sensible Informationen zu schützen, die in militärischen Anwendungen verwendet werden. Die Datenverschleierung wird auch verwendet, um digitale Inhalte im Rahmen des Digital Rights Management (DRM)-Schutzes zu schützen. Code-Verschleierung kann verwendet werden, um den Code zu schützen. Dieses Papier schlägt einen Ansatz zur Verschleierung von Daten mit variabler Codierung unter Verwendung einer geheimen Sharing-Technik vor. Hier in unserem Ansatz wird eine ganzzahlige Variable mit der auf der Zahlentheorie basierenden Shamir-Secret-Sharing-Methode codiert. Wir haben auch gezeigt, dass unser Verschleierungsansatz widerstandsfähig gegenüber Slicing-Angriffen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0111-1_17 25b168bea250df49e4ea4dbba0b2ed62;de;;;5.1.;;;Aufbau eines lokal diskriminierenden Klassifikator-Ensembles durch Klassifikator-Fusion unter den nächsten Nachbarn Viele Studien zum Ensemble-Lernen, das mehrere Klassifikatoren kombiniert, haben gezeigt, dass dies eine effektive Technik ist, um die Genauigkeit und Stabilität eines einzelnen Klassifikators zu verbessern. In diesem Beitrag schlagen wir eine neuartige diskriminative Klassifikator-Fusionsmethode vor, die lokale Klassifikationsergebnisse von Klassifikatoren unter den nächsten Nachbarn anwendet, um ein lokales Klassifikator-Ensemble aufzubauen. Aus diesem dynamisch ausgewählten Prozess werden diskriminative Klassifikatoren stark gewichtet, um ein lokal diskriminierendes Ensemble aufzubauen. Experimentelle Ergebnisse an mehreren UCI-Datensätzen haben gezeigt, dass unsere vorgeschlagene Methode die beste Klassifikationsleistung zwischen einzelnen Klassifikatoren, Mehrheitsentscheidungen und AdaBoost-Algorithmen erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48890-5_21 71e103a95caa8e11f19a5ba63c4a8615;de;;;5.1.;;;Beurteilung von Slang basierend auf Zeichenmerkmalen und Funktionsausdruck basierend auf Slangs Kontextmerkmalen Unser Forschungsziel war es, Mittel zu entwickeln, um eine bestimmte Zeichenfolge automatisch als Slang zu identifizieren und das erkannte Slang-Wort dann mit Wörtern mit ähnlicher Bedeutung zu verbinden, um den Satz, in dem das Wort vorkommt, erfolgreich zu verarbeiten. Indem man ein Slang-Wort auf diese Weise erkennt, kann man eine andere Verarbeitung auf das Wort anwenden und die charakteristischen Probleme vermeiden, die mit der Verarbeitung von Slang-Wörtern verbunden sind. Dieses Papier schlägt ein Verfahren vor, um Standardwörter von Slangwörtern zu unterscheiden, indem Informationen aus den Zeichen verwendet werden, die die Zeichenkette umfassen. Ein Experiment, das die Wirksamkeit unserer Methode testete, zeigte eine Verbesserung der Klassifizierungsgenauigkeit von 30 % oder mehr im Vergleich zur Basismethode. Wir verwenden auch ein kontextbezogenes Merkmal in Bezug auf Emotionen, um das nicht registrierte Slang-Wort in den Trainingsdaten in andere Ausdrücke zu erweitern, und schlagen ein Emotionsschätzverfahren basierend auf den erweiterten Ausdrücken vor. In unserem Experiment wurde in fast 54 % der Fälle eine erfolgreiche Emotionsschätzung erzielt, eine deutlich höhere Rate als bei der Baseline-Methode. Unsere vorgeschlagene Methode hat sich als valide erwiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-2777-2_25 5249747d5fe8786e70ce11ce65125841;de;;;5.1.;;;Eine optimale Kombinations-Gewichtsbestimmungsmethode für die Fuzzy-Synthesebewertung der Netzqualität Basierend auf einer subjektiven Gewichtungsmethode (Analytic Hierarchy Process, Ein erweiterter Algorithmus der kleinsten Quadrate wurde verwendet, um die mehreren Expertenbeurteilungsmatrizen zu kombinieren, um den endgültigen Gewichtungsvektor in AHP zu erhalten) und objektiven Gewichtungsmethoden (Prinzip der maximalen Entropie), einer optimalen Kombination, die Gewichte bestimmt was zu einer Konsistenz zwischen subjektiver und objektiver Bewertung im Sinne der kleinsten Quadrate führt. Bringen Sie dann ein verbessertes synthetisches Fuzzy-Bewertungsverfahren basierend auf Zuverlässigkeitscode heraus. Zur Quantifizierung und Bewertung der Netzqualität wird ein neues Hierarchiemodell zur Bewertung der Netzqualität vorgestellt. Die Fallergebnisse zeigen deutlich, dass die vorgeschlagene Methode attraktiv und effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22694-6_59 29f91974444740343c710e74e65d7393;de;;;5.1.;;;Parallelisierter Heatmap-Algorithmus mit mehreren Kernen MapReduce vereinfacht die Programmierung für groß angelegte datenparallele Anwendungen und reduziert den Entwicklungsaufwand erheblich, indem es dem Programmierer komplexe Probleme wie parallele Ausführung, Fehlertoleranz, Datenmanagement, Aufgabenplanung usw. erspart. In der Regel wird eine Heatmap verwendet, um die visuelle Zusammenfassung von Informationen unter Verwendung einer zweidimensionalen Datendarstellung, in der Werte durch Farben dargestellt werden. Ausführlichere Heatmaps ermöglichen es dem Betrachter, komplexe Datensätze in einer leicht anschaulichen Form zu verstehen. In diesem Artikel werden die Vorteile und Anwendungen des parallelisierten Heatmap-Algorithmus diskutiert, der hauptsächlich in Eye-Tracking-Daten verwendet wird. Die parallelisierte Version der Heatmap hat sich auch im Vergleich zur seriellen Version als effizient erwiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1420-3_64 0d85772969372ee85d454963b251bc02;de;;;5.1.;;;ALOPA: Berechtigungslogik für die Eigenschaftsbescheinigung in vertrauenswürdigen Plattformen Eigenschaftsbasierte Attestierung ist eine Erweiterung des vorgeschlagenen Trusted Computing Attestierungsmechanismus, bei dem binäre Messungen zu aussagekräftigen Plattformeigenschaften abstrahiert werden. In diesem Papier schlagen wir ALOPA vor -;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02704-8_11 33c3c223abbc94410fa54734beadea9a;de;;;5.1.;;;Adaptives gewichtetes Clustering für große mobile Ad-hoc-Netzwerksysteme Der Aufbau stabiler und zuverlässiger gewichtsbasierter Cluster, die schnellere Konvergenzraten und Leistungsergebnisse für dynamisches Routing liefern können, ist eine anspruchsvolle Aufgabe in mobilen Ad-hoc-Netzwerken. In diesem Beitrag schlagen wir einen adaptiven Rahmen für die Gewichtungsschätzung und -verteilung vor, der entscheidende Knoteneigenschaften bei der Bestimmung der Eignung eines Knotens, Clusterheads zu werden, berücksichtigt und adaptive Clusterradius- und dynamische Netzwerkbeschränkungen als Kriterium für die Gewichtungsverteilung verwendet. Es wird beobachtet, dass der vorgeschlagene Algorithmus für skalierbare Ad-hoc-Netzwerke geeignet ist und für beliebige Clusterbildungsentscheidungen basierend auf gewichteten oder kostenmetrischen Ansätzen anpassbar ist. Wir präsentieren einen Clusterbildungs- und Wartungsalgorithmus, der gut verteilte Cluster bildet und eine adaptive Steuerung durchführt, um die Clusterlebensdauer zu erhöhen, um so die Routing-Effizienz zu optimieren. Die Simulationsergebnisse bestätigen, dass dieses Protokoll das am besten geeignete Schema für adaptives stabiles Clustering und die Reduzierung des Overheads in großen mobilen Ad-hoc-Netzwerken ist.;-;-;-;https://link.springer.com/chapter/10.1007/11814856_21 9c069d06e0138aeba7d21dec738729c0;de;;;5.1.;;;Auswirkung auf die Qualität des 3D-Modells der Anlage mit Änderung der Anzahl und Auflösung der verwendeten Bilder: eine Untersuchung Die 3D-Rekonstruktion von Pflanzen ist eine anspruchsvolle Aufgabe. In zerstörungsfreien Pflanzenwachstumsüberwachungssystemen ist es unerlässlich, Pflanzenmerkmale genau zu rekonstruieren. Zwei Parameter, die die Qualität des 3D-Modells entscheidend beeinflussen, sind die Änderung der Anzahl der Eingangsbilder und die Auflösung der Bilder. In diesem Beitrag wird die Auswirkung dieser Parameter auf 3D-Modelle analysiert. Diese Analyse ermöglicht die Bestimmung einer geeigneten Anzahl von Eingangsbildern und einer Auflösung der Bilder für ein präzises 3D-Modell. Um die Ergebnisse zu validieren, wurden die Pflanzenstängelhöhe und die Anzahl der Blätter, die aus rekonstruierten 3D-Modellen extrahiert wurden, mit Ground-Truth-Werten verglichen. Wir verwendeten deskriptive Statistiken zur Validierung und erzielten eine hohe Korrelation zwischen extrahierten und Ground-Truth-Werten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8391-9_28 3905b3abfbc6549c8a8beaae1f981c98;de;;;5.1.;;;Entwicklung und Realisierung des Embedded GIS in Fahrzeugen basierend auf ReWorks Die Arbeit stellte die Merkmale von eingebettetem GIS basierend auf ReWorks vor, das mit heimischen Technologien entwickelt wurde. Eingebetteter Terminalcomputer, der in Fahrzeugen arbeitet, wird entwickelt und hergestellt, die Funktion ist auch auf den Straßenverkehr ausgelegt. Die Technologien zu Einbettung, Computer, GIS, BEIDOU-Planetenposition und Kommunikation sind alle im Terminal integriert. Seine Funktionen umfassten die Position in der elektronischen Karte, die Fernkommunikation und das Kommando usw.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23235-0_49 c93a4d6ce8c43f61e0f9943011d7657e;de;;;5.1.;;;Fuzzy TOPSIS-Methode für das Ranking von Hochschullehrern angewendet Hochschuleinrichtungen, einschließlich technischer Einrichtungen, haben Probleme, eine qualitativ hochwertige Bildung anzubieten. Eine Umfrage ergab, dass es im Hochschulsystem Krisen bei guten und qualifizierten Lehrkräften gibt. Um Qualitätslehrer festzuhalten und andere abzulehnen, ist eine offene Meinung erforderlich, aber aufgrund widersprüchlicher Kriterien ist es sehr schwierig, den Rang von Qualitätslehrern zu bestimmen, daher ist eine geeignete Methode zur Auswahl und Einstufung bestehender Lehrer erforderlich. Multicriteria Decision Making (MCDM) ist eine Technik, die in diesem Szenario verwendet werden kann. Die Fuzzy-Technik für die Reihenfolgepräferenz nach Ähnlichkeit mit idealen Lösungen (FTOPSIS) ist ein MCDM-Verfahren, bei dem verschiedene Kriterien mit Fuzzy-Logik fuzzifiziert werden können, um das Problem präzise zu behandeln. In dieser Forschungsarbeit wird die FTOPSIS-Methode auf Stichprobendaten angewendet, die von verschiedenen Hochschulintuitionen gesammelt wurden, und Gewichte werden mit Hilfe einer anderen MCDM-Methode namens Analytic Hierarchy Process (AHP)-Methode erhalten. Eine kleine Stichprobe von 10 Lehrern und 5 Kriterien wird berücksichtigt, um die FTOPSIS-Methode zu demonstrieren, um die Rangfolge unter ihnen zu ermitteln. Die erhaltenen Ergebnisse werden mit denen von verschiedenen Experten überprüft und für zufriedenstellend befunden.;-;-;-;https://link.springer.com/chapter/10.1007/978-81-322-1665-0_127 6301e735f710ddc62606ab7c97e8fe76;de;;;5.1.;;;Forschungsherausforderungen in der Big-Data-Sicherheit mit der Hadoop-Plattform Jede Minute im Internet erzeugen enorme Datenmengen Tuning in Big Data. Ein neues Paradigma der Datenspeicherung und -verarbeitung ist unabdingbar. Es steht außer Frage, dass Hadoop eine im Wesentlichen widerspenstige Technologie ist. Die neueste Innovation in Bezug auf Skalierbarkeit, Erscheinungsbild und Datenverteilungskompetenz hat uns in den letzten Jahren um einige Monate geschlagen. In dieser Quelle des Ökosystems ist die äußerste Einstufung der Neuheit. Big Data hat die Datenanalyse verzerrt, da sie in Umfang, Darstellung und Flexibilität noch vor einigen Jahren nicht möglich war und dies zu einem ebenso unvorstellbaren Aufwand. Aber während Hadoop zum neuen Standard der Informationstechnologie wird, versuchen Entwickler und Sicherheitspolitik, sich mit der Hadoop-Sicherheit zu identifizieren. Darüber hinaus wurden aktuelle Sicherheitshypothesen und -mechanismen aufgestellt. In diesem Papier diskutieren wir eine Reihe von empfohlenen Sicherheitskontrollen für Hadoop zusammen mit einem Zugriffskontroll-Framework, das Zugriffskontrollrichtlinien dynamisch basierend auf der Sensibilität der Daten und systemischer Sicherheit, Betriebssicherheit und Architektur für Datensicherheit durchsetzt. Eine relative Studie zu den neuesten Fortschritten im Bereich Big Data für die Sicherheit. Eine Reihe potenzieller Informationen zu Big Data-Sicherheits- und Datenschutzmethoden werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9187-3_49 74ae8cf90bd345bb148275075effdedc;de;;;5.1.;;;Eine Methode zur Bestimmung von Fehlermöglichkeiten im Zusammenhang mit Beschädigung/Bruch von Materialien in frühen Designphasen Ziel dieser Studie ist es, eine Analysemethode für die Fehlermöglichkeit in Bezug auf die Materialeigenschaften zu entwickeln, indem simulierte Designspezifikationen eines Funktionsmodells berücksichtigt werden. Die vorgeschlagene Methode umfasst die folgenden Verfahren: (1) Entwicklung einer simulierten Entwurfsspezifikation eines Funktionsmodells, (2) Durchführung von Fehlermodusanalysen durch Einfügen von Abweichungsmustern in die Entwurfsspezifikationen und (3) Identifizierung von Fehlermodi und Ursachenanalyse, um Fehler zu identifizieren Ursachen im Zusammenhang mit Materialeigenschaften. Das vorgeschlagene Verfahren wurde in einer Pilotstudie mit einem vereinfachten Laserbestrahlungsgerät angewendet. Die Gruppe, die das vorgeschlagene Modell, das auf einer auf Fehlerarten basierenden Entwurfsprüfung basiert, verwendete, zeigte eine höhere Erfolgsrate bei der Erkennung von materialbezogenen Ursachen im Vergleich zu der Gruppe, die die konventionelle Fehlermöglichkeits- und Wirkungsanalyse verwendet. Daher unterstützt das vorgeschlagene Modell Anwender effektiv dabei, Ursachen von Versagensarten in Bezug auf Materialeigenschaften für Funktionsmaterialien zu identifizieren.;-;-;-;https://link.springer.com/article/10.1007/s11668-020-00830-z 1384a559d5af47ff769eb44aaeb09036;de;;;5.1.;;;Ein neuartiger Apriori-Algorithmus basierend auf Cross Linker Basierend auf der Analyse des Apriori-Algorithmus unter den Gesichtspunkten Zeitkomplexität und Speicherkomplexität wurde ein neuartiger Algorithmus vorgeschlagen. Der vorgeschlagene Algorithmus definiert zunächst eine Crosslinker-Struktur und verwendet diese Struktur dann, um die Array-Beschreibung der Transaktionsdatenbank zu ersetzen. Die Crosslinker-Struktur verkürzte die Länge der verknüpften Objekte und reduzierte somit den Zeitaufwand des Algorithmus. Die Crosslinker-Struktur speicherte auch die Kandidaten für häufige Itemsets nicht und reduzierte somit die Speicherkosten des Algorithmus. Die Experimente zeigen, dass die Leistungen des vorgeschlagenen Algorithmus vergleichbar sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-4856-2_54 85d7876100ec98c7d52e7953cc837db1;de;;;5.1.;;;XMDR-DAI basierend auf GQBP und LQBP für Geschäftsprozesse In diesem Papier wurde ein XMDR-DAI-Design für interoperable Legacy-Systeme vorgeschlagen. Das XMDR-DAI-Design ermöglicht effiziente Geschäftsprozesse für die Zusammenarbeit zwischen Unternehmen. In diesem Fall enthält der Geschäftsprozess eine Vielzahl von Abfragen, bei denen die abfragebasierte Datenverarbeitung aufgrund von Heterogenitätsproblemen nicht nahtlos ist. Daher gewährleistet das vorgeschlagene XMDR-DAI-Design eine effiziente Dateninteroperabilität zwischen Legacy-Systemen. Da die Generierung von Abfragen im Geschäftsprozess auf XMDR basiert, werden Heterogenitäten, die zum Zeitpunkt der Ausführung von Abfragen auftreten, mit GQBP und LQBP gelöst. Außerdem ist die XMDR-DAI-basierte Interoperabilität effizient, da sie XMDR erstellt und dadurch ein globales Schema bereitstellt, das Geschäftsprozesse unabhängig vom lokalen Schema ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13346-6_8 b75116299fd47cdf02554023fc392c8d;de;;;5.1.;;;Entdeckung impliziter Merkmalswörter des Ortsnamens Individuelle Meinungen und Erfahrungen werden im Web als CGM (Consumer Generated Media) veröffentlicht. Ein Tourismusblog, in dem ein Tourist seine Erfahrungen und Eindrücke in einem bestimmten Gebiet niedergeschrieben hat, ist eine sehr hilfreiche Information für andere Touristen. Jedoch kann ein Benutzer solche wertvollen Informationen nicht erhalten, ohne die Beziehung zwischen Blogartikeln und konkreten Ortsnamen zu kennen. Dabei haben wir auf die hierarchische Struktur der Ortsnamen geachtet. In diesem Artikel schlagen wir die Methode vor, verwandte Wörter mit dem Ortsnamen zu verbinden, die nicht explizit in einem Blogartikel erscheinen, wobei wir auf die hierarchische Struktur von Ortsnamen achten. Aus 45.553 Blogartikeln über das Karatsu-Gebiet in der Präfektur Saga wurden die potentiell verwandten Wörter zu 78 Ortsnamen der Präfektur Saga extrahiert, die nicht in den Blogs erschienen sind. 4 Probanden bewerteten, dass in 80 % oder mehr der Ortsnamen sinnvolle verwandte Wörter vorkommen. Die direkte Beziehung zwischen dem Ortsnamen und verwandten Wörtern war jedoch nicht leicht zu erraten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-47227-9_3 76122c69ff3491f9cc1f207db0a1ccd1;de;;;5.1.;;;PRU-net: Ein U-Net-Modell mit Pyramiden-Pooling und Restblock für die WMH-Segmentierung Die Segmentierung von Hyperintensitäten der weißen Substanz (WMHs) aus MR-Bildern ist ein wesentlicher Schritt in der computergestützten Diagnose von Hirnerkrankungen, insbesondere unter Berücksichtigung ihrer Auswirkungen auf die Kognition oder den Schlaganfall. Derzeit basiert der Großteil der Forschung zur WMH-Segmentierung auf Deep-Learning-Methoden. Obwohl viele Deep-Learning-Segmentierungsverfahren vorgeschlagen wurden, muss ihre Genauigkeit dieser Verfahren noch verbessert werden, insbesondere für diskrete und kleine tiefe WMHs. Um diesen Herausforderungen zu begegnen und die Genauigkeit der WMH-Segmentierung zu verbessern, wurde in diesem Artikel ein verbessertes 3D-U-Netzmodell namens PRU-Netz vorgeschlagen. PRU-net integriert Pyramiden-Pooling und Restfaltungsblock in der Engpassschicht der U-Net-Architektur. Der Pyramiden-Pooling-Block wurde verwendet, um mehr Kontextinformationen zu aggregieren, und der restliche Faltungsblock wurde verwendet, um die Tiefe der Engpassschichten zu vertiefen. Beide Blöcke wurden verwendet, um die Merkmalsextraktion des U-Netzes zu verbessern. Die Experimente basierten auf den WMH Challenge-Datensätzen des MICCAI 2017, und die Ergebnisse zeigten, dass der Dice-Ähnlichkeitskoeffizient (DSC) unserer Methode 0,83 betrug und der F1-Score 0,84 war, was höher war als bei den verglichenen Methoden. Durch visuelle Beobachtung der Segmentierungsergebnisse kann unsere Methode nicht nur große Läsionsbereiche genau segmentieren, sondern auch kleine Läsionen unterscheiden, die für konventionelle U-Netzmodelle schwer zu segmentieren sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1160-5_4 798ee32453d74283954f640d90036ced;de;;;5.1.;;;Agentenbasierte Modellierung von Smart Grids in Smart Cities Ziel der Studie ist es, Smart Grids mit einem System von Multi-Agenten und Aspekten rund um das Internet zu erforschen. Intelligente Städte werden auf einem hohen Niveau von Informations- und Kommunikationstechnologien (IKT) geschaffen, die in der Lage sind, Energie zu übertragen, Informationsflüsse in mehrere Richtungen zu übertragen und einen anderen Sektor zu verbinden, der Mobilität, Energie, Soziales und Wirtschaft umfasst. Smart Cities betreffen die Anbindung von Teilsystemen, den Austausch und die Auswertung von Daten sowie die Sicherung der Lebensqualität und die Befriedigung der Bedürfnisse der Bürger. Wir haben verschiedene Modelle von Verkehrssystemen, Energieoptimierung, Straßenbeleuchtungssystemen, Gebäudemanagementsystemen, Stadtverkehrsoptimierung, aber diese Modelle werden derzeit separat betrachtet. In diesem Artikel geben wir einen Überblick über das Konzept einer intelligenten Stadt und diskutieren, warum Multiagentensysteme das richtige Werkzeug zur Modellierung intelligenter Städte sind. Dieser Artikel stellt Simulationsergebnisse mit einem Smart Grid als Fallstudie zu Smart City dar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-13283-5_1 32771962fa4f85da809577c2edb34908;de;;;5.1.;;;Herzverschlüsselung (EbH) für sichere Datenübertragung und CNN-basierte EKG-Signalklassifizierung von Arrhythmien mit normalen Daten Fernüberwachungssysteme für das Gesundheitswesen werden häufig verwendet, um Patientendiagnosedaten zu verwalten. Diese Systeme unterliegen Datenschutz und Sicherheit, Zuverlässigkeit usw. In diesem Dokument wird eine neue Technik zur Lösung von Datenschutz- und Sicherheitsproblemen vorgestellt. Unter Verwendung von diskreten Wavelet-Transformationen (DWT) wird die EKG-Steganographie-Technik in dem vorgeschlagenen Verfahren implementiert. Dieses Verfahren basiert auf den Techniken der Verschlüsselung und Entschlüsselung. Die Verschlüsselung wird verwendet, um das EKG-Signal in einem Bild zu verbergen und das EKG-Signal aus dem verschlüsselten Bild zu extrahieren, die Entschlüsselung wird verwendet. Anschließend wird eine herausragende Menge an rohen EKG-Zeitreihensignalinformationen als Eingaben für neuronale Faltungsnetze (CNN) bereitgestellt. Die repräsentativen und wesentlichen Merkmale zur eigenständigen Klassifizierung des Moduls werden erlernt. Somit werden die Merkmale direkt aus den prominenten Zeitbereichs-EKG-Signalen unter Verwendung eines CNN gelernt. Gelernte Merkmale können die handgefertigten Merkmale des zeitaufwendigen Benutzers und traditionelle Ad-hoc-Merkmale effizient ersetzen. Mit GoogLeNet CNN haben wir eine Genauigkeit von 0,90625 erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0871-4_23 d4b4bfc44e922a738ded734144bfd52a;de;;;5.1.;;;Korrelationsfilter-Tracking-Algorithmus basierend auf mehreren Funktionen und durchschnittlicher Spitzenkorrelationsenergie Da herkömmliche Zielverfolgungsalgorithmen künstliche Merkmale verwenden, sind sie nicht robust genug, um das Aussehen eines Ziels zu beschreiben. Daher ist es schwierig, sie auf komplexe Szenen anzuwenden. Darüber hinaus messen die traditionellen Zielverfolgungsalgorithmen nicht das Konfidenzniveau der Antwort. Wenn das Vertrauensniveau niedrig ist, wird das Erscheinungsmodell des Ziels leicht gestört und die Verfolgungsleistung wird verschlechtert. Dieses Papier schlägt den Tracking-Algorithmus Multiple Features and Average Peak Correlation Energy (MFAPCE) vor. Der MFAPCE-Tracking-Algorithmus kombiniert Tiefenmerkmale mit Farbmerkmalen und verwendet die durchschnittliche Spitzenkorrelationsenergie, um das Vertrauensniveau zu messen. Der Algorithmus verwendet mehrere Faltungsebenen und Farbhistogrammfunktionen, um das Erscheinungsbild des Ziels zu beschreiben. Die Antwort wird durch Optimieren der Kontextinformationen unter Verwendung eines Korrelationsfilter-Frameworks erhalten. Die durchschnittliche Spitzenkorrelationsenergie wird verwendet, um das endgültige Konfidenzniveau der Antwort zu bestimmen und somit zu bestimmen, ob das Modell aktualisiert werden soll. Die Experimente zeigten, dass der MFAPCE-Algorithmus die Tracking-Performance im Vergleich zu herkömmlichen Tracking-Algorithmen verbessert.;-;-;-;https://link.springer.com/article/10.1007/s11042-019-7216-1 6d73abfb7c56873b2a477fa8ffe01cd5;de;;;5.1.;;;Wahrscheinlichkeitsmatrix SVM+ Learning für die Erkennung komplexer Aktionen Die Erkennung komplexer Aktionen ist ein heißes Thema in der Computer Vision. Beim Trainieren eines robusten Modells ist eine große Menge an gekennzeichneten Daten erforderlich. Die Kennzeichnung komplexer Aktionen ist jedoch oft zeitaufwendig und teuer. Da jede komplexe Aktion aus einer Abfolge einfacher Aktionen besteht, schlagen wir eine neue Perspektive vor, um während des Trainings mehr Informationen bereitzustellen, um das Problem unzureichender gekennzeichneter Daten zu lösen. Die Wahrscheinlichkeitsmatrix wird dann durch manuelle Annotation entworfen, die eine Wahrscheinlichkeitsverteilung einfacher Aktionen in komplexe Aktionen kodiert. Die Wahrscheinlichkeitsmatrix ist also nur während des Trainings verfügbar, aber nicht während des Tests. Schließlich wird eine Wahrscheinlichkeitsmatrix als privilegierte Information in einem SVM+-Framework betrachtet, und wir betrachten diese Einstellung als Wahrscheinlichkeitsmatrix SVM+ (pmSVM+). Um das vorgeschlagene Modell zu validieren, werden umfangreiche Experimente an komplexen Aktionsdatensätzen durchgeführt. Die Versuchsergebnisse zeigen die Wirksamkeit von pmSVM+ für die Erkennung komplexer Aktionen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8530-7_39 915cb382435f67f1842553caf8dfb9ff;de;;;5.1.;;;Hinweis zu den Aggregationsoperatoren und der Rangfolge zögerlicher intervallbewerteter Fuzzy-Elemente Der zögerliche intervallbewertete Fuzzy-Satz, der es Entscheidungsträgern ermöglicht, mehrere Intervallzahlen zur Bewertung einer Variablen zu verwenden, ist ein nützliches Werkzeug, um mit Situationen umzugehen, in denen Personen zögern, ihre intervallbewerteten Bewertungen bereitzustellen. In diesem Artikel untersuchen wir die Eigenschaften von zögerlichen intervallbewerteten Fuzzy-Aggregationsoperatoren und den Ansatz zum Ranking einer Menge von zögerlichen intervallbewerteten Fuzzy-Elementen. Einige Mängel an den von Wei et al. (Wissensbasiertes System 46:43–53,;-;-;-;https://link.springer.com/article/10.1007/s00500-018-3445-x 6bba49603b84e0e60391e78609d05434;de;;;5.1.;;;Vergleich der Bewegungsähnlichkeit unter Verwendung von Image Neuere Bewegungserkennungsgeräte werden häufig als Eingaben verwendet, um die Interaktion mit Bewegung und Sport- und Unterhaltungsinhalten zu analysieren. Die Leistung und Effizienz der herkömmlichen Bewegungserkennungsvorrichtung werden jedoch trotz der guten Informationsqualität unter Verwendung einer Vielzahl von Kameras und Sensoren verschlechtert. In diesem Beitrag schlagen wir einen Algorithmus vor, der als Eingabemittel für die Haltungsanalyse, Haltungsergänzung und Interaktion mit Inhalten in Sport und Unterhaltung verwendet werden kann, indem die Einschränkungen herkömmlicher Bewegungserkennungsgeräte überwunden und eine spezifische Haltungsähnlichkeitsbeurteilung verwendet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9341-9_59 9dd1bb015816e527e6fa8c6cd7659ff6;de;;;5.1.;;;Okklusionsbewusste Skeletttrajektoriendarstellung zur Erkennung von abnormalem Verhalten Es wird erwartet, dass Überwachungskameras eine große Rolle bei der Entwicklung von ITS-Technologien spielen. Sie können verwendet werden, um sich abnormal verhaltende Personen zu erkennen, die dann an Fahrer in der Nähe gemeldet werden können. Es gibt mehrere Arbeiten, die das Problem der Erkennung von abnormalem Verhalten angehen. Die meisten dieser Arbeiten verwenden jedoch Erscheinungsmerkmale, die redundante Informationen aufweisen und anfällig für Rauschen sind. Es gibt zwar auch Arbeiten, die die Darstellung von Posenskeletten verwenden, sie berücksichtigen jedoch nicht gut, wie mit Fällen mit Okklusionen umzugehen ist, die aus dem einfachen Grund der Fußgängerorientierung auftreten können, die das klare Erscheinen einiger Gelenke im Rahmen verhindert. In diesem Beitrag schlagen wir eine Skelett-Trajektoriendarstellung vor, die den Umgang mit Okklusionen ermöglicht. Wir schlagen auch einen Rahmen für die Erkennung abnormalen Verhaltens von Fußgängern vor, der die vorgeschlagene Darstellung verwendet und relativ schwer zu bemerkende Anomalien wie z. B. betrunkenes Gehen erkennt. Die von uns durchgeführten Experimente zeigen, dass unsere Methode andere Darstellungsmethoden übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4818-5_9 8cf7d13dccad3c700dc85efc5d4c50bd;de;;;5.1.;;;Erkennung von Fälschungen durch rotierende Kopien und Bewegungen mit SIFT und Strategien für das Wachstum von Regionen Das vorgeschlagene Schema erkennt die Copy-Move-Fälschungsregionen unter Verwendung von SIFT, der Berechnung der invarianten Momente und der Regionswachstumsstrategie. Zunächst werden die SIFT-basierten Keypoints als signifikante Merkmale eines Bildes erfasst. Zweitens werden Schlüsselpunktpaare mit geschlossenen Skalen untersucht, um alle möglichen Paarblöcke der Kopier-Bewegungs-Regionen zu identifizieren. Drittens werden die Orientierungen für jedes Paar übereinstimmender Eigenpunkte angepasst, um eine identische Orientierung zu haben. Schließlich werden die Copy-Move-Regionen unter Verwendung der Region-Growing-Technik erfasst, und invariante Momentenmerkmale werden auf jedes Paar übereinstimmender Blöcke angewendet. Experimentelle Ergebnisse zeigen, dass das vorgeschlagene Schema duplizierte Rotations-Kopier-Bewegungs-Regionen effizient und effektiv erkennt. Darüber hinaus ist die vorgeschlagene Rechenzeit proportional zur Anzahl der Schlüsselpunkte und der Größe der Kopier-Bewegungs-Fälschungsbereiche.;-;-;-;https://link.springer.com/article/10.1007/s11042-019-7165-8 98d0fed0aec2ea9e8ea94271b6ac1569;de;;;5.1.;;;M4D: Eine Malware-Erkennungsmethode mit multimodalen Funktionen Mit den zunehmenden Varianten von Malware ist es von großer Bedeutung, Malware effektiv zu erkennen und das System zu sichern. Es ist leicht für Malware, sich der Erkennung zu entziehen, indem sie vorhandene dynamische Erkennungsmethoden verwendet. Um die Mängel der bestehenden dynamischen Erkennungsmethode zu beheben, schlagen wir eine multimodale Malware-Erkennungsmethode vor. Durch Extrahieren des Wortvektors der API-Aufrufsequenzkonvertierung von Malware und Extrahieren der Bildmerkmale, die aus dem Graustufen-Bildspeicherabzug des Malware-Prozesses konvertiert wurden, und Eingeben der multimodalen Merkmale in das tiefe neuronale Netzwerk wird verwendet, um die Malware-Beispiele zu klassifizieren. Die Wirksamkeit dieser Methode wird durch das Experiment anhand der eingefangenen Malware-Samples in freier Wildbahn bestätigt. Darüber hinaus gibt es einen Leistungsvergleich zwischen unserer Methode und anderen neueren Experimenten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0818-9_15 5a038c827df31bd4690f59315ec4fb9c;de;;;5.1.;;;Die Methode zur Vorhersage der Informationsverteilung in sozialen Netzwerken anhand der Attribute Soziale Netzwerke sind ein wichtiger Teil der Gesellschaft. Die Analyse des Informationsflusses und der Benutzeraktivität kann Wissenschaftlern verschiedene Möglichkeiten bieten. Bestehende Methoden und Modelle zur Vorhersage des Informationsflusses konnten jedoch kein ausreichendes Maß an Genauigkeit bieten. Die vorgeschlagene Methode der Informationsflussanalyse basiert auf maschinellen Lernalgorithmen. Die erste Phase der Forschung zielt darauf ab, die Merkmale zu analysieren, die nützlich sein könnten, um die Aktivität von Benutzern und Informationen in sozialen Netzwerken zu beschreiben. Die Daten wurden aus dem sozialen Netzwerk „VKontakte“ zusammengestellt. Die Daten umfassen Hauptinformationen zu ausgewählten Funktionen für jede Person. Auf der zweiten Stufe wurden Experimente durchgeführt, die auf Methoden des maschinellen Lernens basieren. Drei Hauptansätze wurden in der Forschung umgesetzt - naiver Bayes-Klassifikator, logistische Regressionsanalyse und k-Means-Clustering. In der letzten Phase wurde ein Vergleich verschiedener maschineller Lernmethoden durchgeführt. Die besten Vorhersageergebnisse wurden durch die Verwendung des naiven Bayes-Klassifikators erreicht. Das vorgeschlagene Verfahren zur Vorhersage des Informationsflusses kann verwendet werden, um den Schutz der Benutzer vor verschiedenen Arten von Informationsangriffen zu organisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-02843-5_42 71e811685029d10844f49198b54b40d2;de;;;5.1.;;;Datenerfassung in Sensornetzen mit heterogenen Arbeitszyklen: Streben nach effizienten Chancen Bei Sensornetzen mit heterogenen Arbeitszyklen wachen Sensorknoten mit unterschiedlichen Schlafzeiten auf, was in Kombination mit unzuverlässigen Verbindungen eine Verbesserung der Netzwerkleistung sehr schwierig macht. Dieses Papier stellt ein neues opportunistisches Routing-Protokoll namens EOF (Efficient Opportunistic Forwarding) vor, das hauptsächlich eine Weiterleitungsmetrik umfasst, die die Single-Hop-Weiterleitungsmöglichkeit effizient ausnutzen kann, und ein verzögerungsbewusstes Weiterleitungsauswahlschema. Im Gegensatz zu früheren opportunistischen Routings für Sensornets berücksichtigt EOF umfassend die Auswirkungen heterogener Arbeitszyklen und Verbindungsunzuverlässigkeit auf die Gesamtleistung des Netzwerks. Die experimentellen Ergebnisse zeigen, dass EOF im Vergleich zum Stand der Technik eine bessere Gesamtleistung des Netzwerks bei nahezu identischen Energiekosten erzielen kann, insbesondere wenn es auf das Sensornetz mit erheblicher Heterogenität des Arbeitszyklus angewendet wird.;-;-;-;https://link.springer.com/article/10.1186/s13638-018-1102-9 55ae44e5d7dc838bb2f09525272ed515;de;;;5.1.;;;Dynamische reguläre Register in Systemen mit Churn Verteilte Systeme mit Churn oder dynamische verteilte Systeme ermöglichen es den Prozessen, das System nach Belieben anzuschließen und zu verlassen. In diesem Artikel stellen wir eine neue Konsistenzbedingung für gemeinsam genutzte Lese-Schreib-Register vor, die auf der Regelmäßigkeit von mehreren Schreibern basiert, aber die Wahrscheinlichkeit berücksichtigt, dass das Register seinen Zustand mit einer gewissen Wahrscheinlichkeit verliert. Wir nennen dies a;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24550-3_23 c036c84e53cd4865dc16a0a42a5470d8;de;;;5.1.;;;Lernbasierte Diagnose und Reparatur Dieses Papier schlägt eine neue Form der Diagnose und Reparatur vor, die auf Reinforcement Learning basiert. Eigeninteressenten Agenten lernen vor Ort, welche Agenten eine niedrige Servicequalität für eine Aufgabe bereitstellen können. Die Richtigkeit erlernter Einschätzungen anderer Agenten wird unter den Bedingungen Exploration versus Ausnutzung der erlernten Einschätzungen nachgewiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-76892-2_1 ee70b8585e5569940291c2d4d958d0f7;de;;;5.1.;;;Implementieren einer unabhängigen Komponentenanalyse in universellen GPU-Architekturen Neue Rechenarchitekturen wie Mehrkernprozessoren und Grafikprozessoren (GPUs) stellen Anwendungsentwickler vor Herausforderungen. Obwohl im Fall der universellen GPU-Programmierung Umgebungen und Toolkits wie CUDA und OpenCL die Anwendungsentwicklung vereinfacht haben, sind andere Denkweisen über Speicherzugriff, Speicherung und Programmausführung erforderlich. Dieses Papier präsentiert eine Strategie zur Implementierung einer spezifischen Signalverarbeitungstechnik für die Blind-Source-Separation: Infomax Independent Component Analysis (ICA). Gängige Operationen der linearen Algebra werden mithilfe des OpenCL-Programmiertoolkits auf eine kostengünstige programmierbare Grafikkarte abgebildet. Da viele Komponenten von ICA von Natur aus parallel sind, können ICA-Berechnungen durch kostengünstige parallele Hardware beschleunigt werden. Experimentelle Ergebnisse zu simulierten Signalen und Sprachsignalen zeigen, dass Effizienzgewinne und Skalierbarkeit durch eine universelle GPU-Implementierung erreichbar sind, und legen nahe, dass wichtige Anwendungen in der Telekommunikation, Sprachverarbeitung und biomedizinischen Signalanalyse von diesen neuen Architekturen profitieren können. Die Verwendung von kostengünstigen GPUs zum Programmieren kann möglicherweise Echtzeitanwendungen von zuvor Offline-Algorithmen erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22410-2_20 7d971310d429889f479ead5d85eb92e8;de;;;5.1.;;;Modellierung komplementärer Beziehungen von kategorieübergreifenden Produkten für das persönliche Ranking Die Produktkategorie dient als Etikett des Produkts. Es veranschaulicht auch die verschiedenen Bedürfnisse und Geschmäcker der Benutzer. Bei den bestehenden Empfehlungssystemen liegt der Fokus auf der Empfehlung ähnlicher Produkte, wobei die kategorieübergreifende und komplementäre Beziehung zwischen Kategorien und Produkten wenig oder gar nicht untersucht werden soll. In diesem Beitrag wird eine neuartige Methode basierend auf Bayesian Personalized Ranking (BPR) vorgeschlagen, um die komplementären Informationen zwischen Kategorien und die latenten Merkmale von Benutzern und Artikeln für eine bessere Empfehlung zu integrieren. Durch die explizite Berücksichtigung von Kategoriedimensionen kann das Modell das Kaltstartproblem entschärfen und die Empfehlung abgeben, nicht nur traditionelle Ähnlichkeitsmaße, sondern auch komplementäre Beziehungen zwischen Produkten zu berücksichtigen. Die Methode wird umfassend evaluiert und die experimentellen Ergebnisse verdeutlichen, dass unsere Arbeit das Ranking deutlich optimiert hat (bei hoher Empfehlungsleistung).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-68786-5_8 4baa7bbb83968bb585990c1ddd8b9e6b;de;;;5.1.;;;Faktoren, die die Einführung von Big Data als Marketinginstrument in KMU beeinflussen Der Wandel, den Big Data in Bezug auf die Art und Weise der Datenanalyse mit sich brachte, ist revolutionär. Die mit Big Data verbundene Technologie setzt ein Vorher und Nachher in Form der Gewinnung wertvoller Informationen für die Unternehmen voraus, da sie es ermöglicht, eine große Datenmenge praktisch in Echtzeit zu verwalten und eine große Menge an Informationen zu erhalten, die den Unternehmen große Wettbewerbsvorteile verschafft. Ziel dieser Arbeit ist es, die Faktoren zu bewerten, die die Akzeptanz dieser neuen Technologie bei kleinen und mittleren Unternehmen beeinflussen. Zu diesem Zweck wurde das Technologieakzeptanzmodell namens Unified Theory of Technology Adoption and Use of Technology (UTAUT) an den Big-Data-Kontext angepasst und um einen Inhibitor ergänzt: die Resistenz gegen den Einsatz neuer Technologien. Das Strukturmodell wurde unter Verwendung von Partial Least Squares (PLS) mit einer angemessenen globalen Anpassung bewertet. Unter den Ergebnissen sticht hervor, dass eine gute Infrastruktur für die Nutzung von Big Data relevanter ist als die Schwierigkeit ihrer Nutzung, wobei akzeptiert wird, dass bei ihrer Umsetzung Anstrengungen unternommen werden müssen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9563-6_4 4d41a41f8f76cb8f5df1628c0d28ba65;de;;;5.1.;;;Entfernungsabhängige Modellierung kopfbezogener Übertragungsfunktionen basierend auf der sphärischen Fourier-Bessel-Transformation Spherical Harmonic (SH)-basierte Methoden wurden für die Modellierung von Head-related Transfer Functions (HRTFs) vorgeschlagen und ergaben ein ermutigendes Leistungsniveau in Bezug auf die log-spektrale Verzerrung (LSD). Die meisten dieser Techniken modellieren jedoch HRTFs auf einer Kugel und nutzen selten die Korrelationsbeziehung von HRTFs aus unterschiedlichen Entfernungen, und als Folge wird die HRTF-Extrapolation auf ungemessene Entfernungen zu einer großen Herausforderung. Aus dieser Motivation heraus schlägt dieses Papier ein entfernungsabhängiges SH-basiertes Modell namens DSHM für die HRTF-Darstellung vor. DSHM erweitert das SH-basierte Modell um einen radialen Teil der sphärischen Fourier-Bessel-Transformation (SFBT). Durch die Verwendung einer radialen Korrelation zwischen Entfernungen ist das vorgeschlagene Modell in der Lage, HRTFs über den gesamten Raum effizient darzustellen. Als Ergebnis ist es möglich, eine HRTF an einer nicht gemessenen Position zu interpolieren oder zu extrapolieren. Die experimentellen Ergebnisse zeigen, dass DSHM im Vergleich zur konventionellen SH-basierten Methode einen niedrigeren LSD erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8111-8_13 165442c4cebf3ce47708618f5043a251;de;;;5.1.;;;Visualisierung häufig geänderter Muster basierend auf dem Verhalten von Mistkäfern Die Natur dient als Motivationsquelle für die Entwicklung neuer Ansätze zur Lösung realer Probleme, wie zum Beispiel die Minimierung der Rechenzeit bei der Visualisierung häufig geänderter Muster aus Datensätzen. Ein gewählter Ansatz ist der Einsatz evolutionärer Algorithmen auf Basis von Schwarmintelligenz. Dieser evolutionäre Algorithmus ist ein rechnerischer Ansatz, der auf den Eigenschaften von Mistkäfern in bewegtem Dung mit begrenzter Rechenleistung basiert. Der Beitrag dieses Aufsatzes ist die mathematische Formulierung der einzigartigen Eigenschaften von Mistkäfern (d. h. Pfadintegration mit Replus und Anziehung von Spuren, Tanz während der Orientierung und Kugelrollen auf gerader Linie) bei der Schaffung imaginärer Häuser nach Verdrängung seiner Nahrung (Dung ) Quelle. Die mathematische Formulierung wird in eine algorithmische Struktur übersetzt, die nach dem bestmöglichen Pfad sucht und Muster mithilfe einer einfachen zweidimensionalen Ansicht anzeigt. Die Rechenzeit und der optimale Wert sind die Techniken, um den besten Visualisierungsalgorithmus auszuwählen (zwischen dem vorgeschlagenen Mistkäfer-Algorithmus und Vergleichsalgorithmen – das heißt Bee und ACO). Die Analyse zeigt, dass der Mistkäfer-Algorithmus eine mittlere Rechenzeit von 0,510 hat, Bee 2,189 und ACO für die Datenvisualisierung 0,978 hat. Während der mittlere optimale Wert für Spundkäfer 0,000117 beträgt, ist der Bee-Algorithmus 2,46E-08 und der ACO für die Datenvisualisierung 6,73E-13. Die Ergebnisse deuten darauf hin, dass der Mistkäfer-Algorithmus eine minimale Rechenzeit für die Datenvisualisierung verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3441-2_18 3f6e1be1b2794fdbbf415cfd950aeaa9;de;;;5.1.;;;Verbessertes AODV-Routing-Protokoll für mobile Adhoc-Netzwerke Die Verbesserung der Rundsendeeffizienz von Routenanfragen in Protokollen bildet einen wesentlichen Teil der Forschung im Bereich des mobilen Adhoc-Netzwerk-(MANET)-Routings. Wir schlagen einen neuen Ansatz vor, um die Rundsendung von Routenanfragen basierend auf der Knotenmobilität einzuschränken. Diese Technik eignet sich am besten für Netzwerke, bei denen sich die Knoten im Netzwerk mit unterschiedlicher Mobilität bewegen. Die Intuition hinter dieser Technik ist, dass die Knoten, die sich mit höheren Mobilitätsraten bewegen, im Vergleich zu sich langsam bewegenden Knoten, die sich der drastischen Veränderungen im Netzwerk nicht bewusst sind, bessere aktuelle Routen haben werden. Bei diesem Ansatz wählen wir die Nachbarschaftsknoten zum Rundsenden von Routenanfragen basierend auf ihrer Mobilitätsrate und der jüngsten Beteiligung am Routing aus, so dass eine blinde Überflutung der Routenanfrage im Netzwerk vermieden werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17878-8_27 b02a3fcb0107a22408b039280965b04e;de;;;5.1.;;;Demosaicking von Authentifizierungscodes VIA Adaptive Color Channel Fusion Das Ausblenden von Daten wird für Rohbilder anstelle der Farbversion in voller Auflösung verwendet. Unter verschiedenen Farbfilter-Array-Mustern wählen wir das beliebteste Bayer-Muster aus und decken Authentifizierungscodes im Pseudo-Host aus dem Original-Sampling im Hinblick auf eine hohe Korrelation zwischen roten, blauen und grünen Kanälen ab. Pseudo-Host wird durch Interpolation in diesem Muster gemäß dem Schlüssel erzeugt. Dieses Verfahren bestätigt in der Zwischenzeit die Sicherheit und bringt weniger das Artefakt des Einbettens von Codes mit sich. Die Simulationen testen die Robustheit und Transparenz nach einigen Demosaicking-Methoden und JPEG-Komprimierung. Diese Ergebnisse implizieren, dass das Verbergen von Daten mit weniger Demosaicking-Spuren und einer besseren Robustheit einhergeht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22691-5_76 d75411523d75be12fe757c9241e87b81;de;;;5.1.;;;Anerkennung und Analyse von Meinungsfragen in Hocharabisch Heutzutage wurden die meisten Frage-Antwort-Systeme entwickelt, um faktoide oder binäre Fragen zu beantworten (auf der Suche nach kurzen und präzisen Antworten wie Datum, Ort), jedoch wurde nur wenig Forschung betrieben, um komplexe Fragen zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-38833-1_10 e67dba86c032d18cf03d7cc4c6fa4fd3;de;;;5.1.;;;Eine GPU-parallele Implementierung der RSA Private Operation Die Implementierung der privaten RSA-Operation neigt dazu, teuer zu sein, da ihre Rechenkomplexität in Bezug auf die Bitgröße ihres privaten Schlüssels kubisch ist. Daher wurden erhebliche Anstrengungen unternommen, um diesen Vorgang zu optimieren. In dieser Arbeit präsentieren wir eine parallele Implementierung der privaten RSA-Operation unter Verwendung des Single Instruction Multiple Thread (SIMT) Threading-Modells von Graphics Processor Unit (GPU)-Plattformen. Die zugrundeliegende modulare Arithmetik wird mit Hilfe der Residuennummernsystem (RNS)-Darstellung durchgeführt. Durch die Kombination dieser beiden Ansätze präsentieren wir eine GPU-Softwarebibliothek, die Hochgeschwindigkeits-Timings für den privaten RSA-Betrieb bei Verwendung von 1024-, 2048- und 3072-Bit-Geheimschlüsseln erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-57972-6_14 2deb95d7c870394c97e83f91f1308f5a;de;;;5.1.;;;Ein hybrider Ameisenkoloniealgorithmus, der auf mehreren Strategien für das Vehicle Routing Problem mit Zeitfenstern basiert In diesem Papier schlagen wir ein Vehicle Routing Problem mit Zeitfenstern (TWVRP) vor. In diesem Problem sehen wir eine harte Zeitbeschränkung, dass die Flotte Kunden nur innerhalb eines bestimmten Zeitfensters bedienen kann. Um dieses Problem zu lösen, wird ein Hybrid-Ameisenkolonie-(HACO)-Algorithmus basierend auf einem Ameisenkolonie-Algorithmus und einer Mutationsoperation vorgeschlagen. Der vorgeschlagene HACO-Algorithmus weist drei Neuerungen auf: Die erste besteht darin, Pheromone mit einer neuen Methode zu aktualisieren, die zweite ist die Einführung adaptiver Parameter und die dritte besteht darin, die Mutationsoperation hinzuzufügen. Eine berühmte Solomon-Instanz wird verwendet, um die Leistung des vorgeschlagenen Algorithmus zu bewerten. Experimentelle Ergebnisse zeigen, dass der HACO-Algorithmus effektiv gegen das Problem der Fahrzeugführung mit Zeitfenstern ist. Außerdem hat der vorgeschlagene Algorithmus auch praktische Implikationen für das Vehicle Routing Problem und die Ergebnisse zeigen, dass er in praktischen Problemen anwendbar und effektiv ist.;-;-;-;https://link.springer.com/article/10.1007/s40747-021-00401-1 a9fd8486774aa4c3e6bf4d21035b3aff;de;;;5.1.;;;EDI und ERP: Ein Echtzeit-Framework für den Datenaustausch im Gesundheitswesen Es wird ein Framework für Enterprise Resource Planning (ERP) und Electronic Data Interchange (EDI) im Gesundheitswesen vorgestellt. Da die Gesamtkosten des Gesundheitswesens weiter steigen und der Wettbewerbsdruck zunimmt, schafft die Möglichkeit, die Kosten zu senken und gleichzeitig die allgemeinen Geschäftseigenschaften zu verbessern, eine Chance und Notwendigkeit für den Technologieeinsatz. Das Framework adressiert aktuelle Barrieren der EDI-Einrichtung wie Kosten und Flexibilität zusammen mit der ERP-Kommunikation zwischen Entitäten. Ein Prototypsystem wird erstellt, um die Machbarkeit der jüngsten Technologieverbesserungen zu zeigen und einen Machbarkeitsnachweis für das Echtzeit-Framework zu generieren.;-;-;-;https://link.springer.com/article/10.1007/s10916-007-9053-4 98190635ea3b6ce252437fef457ac62d;de;;;5.1.;;;Validierung der täglichen Niederschlagsschätzungen von Satelliten in komplexem Gelände der Insel Bali, Indonesien Satellitenregenprodukte weisen in verschiedenen geografischen Regionen unter verschiedenen physikalischen und klimatologischen Bedingungen unterschiedliche Leistungen auf. Ziel dieser Studie war es, die zuverlässigsten und genauesten Satelliten-Niederschlagsprodukte für die spezifischen Umweltbedingungen der Insel Bali auszuwählen. Die Leistungen von vier räumlich-zeitlichen Satelliten-Niederschlagsprodukten, d. h. CMORPH;-;-;-;https://link.springer.com/article/10.1007/s00704-017-2290-7 319eed15e4c3a7bac29fabd2a494e30c;de;;;5.1.;;;Von der Natur inspirierter Algorithmus für das Training von mehrschichtigen Perceptron-Netzwerken in E-Health-Umgebungen für die Hochrisiko-Schwangerschaftsversorgung Die Natur bietet eine unendliche Inspirationsquelle für Computermodelle und -paradigmen, insbesondere für Forscher, die mit dem als Natural Computing bekannten Gebiet verbunden sind. Die simultane Optimierung der Architekturen und Gewichte künstlicher neuronaler Netze (KNN) durch biologisch inspirierte Algorithmen ist ein interessanter Ansatz, um effiziente Netze mit relativ guten Generalisierungsfähigkeiten zu erhalten. Diese Methodik stellt eine Übereinstimmung zwischen einem Modell mit geringer struktureller Komplexität und niedrigen Trainingsfehlerraten dar. Komplexität und hohe Fehlerraten sind derzeit die Hauptprobleme bei der Entwicklung von klinischen Entscheidungsunterstützungssystemen (CDSSs) für die Schwangerschaftsversorgung. Daher wird in diesem Artikel die Verwendung einer biologisch inspirierten Technik, bekannt als Partikelschwarmoptimierung (PSO), vorgeschlagen, um die Rechenkosten der KNN-basierten Methode, die als Multilayer-Perzeptron (MLP) bezeichnet wird, zu reduzieren, ohne die Präzisionsrate zu verringern . Die Ergebnisse zeigen, dass der PSO-Algorithmus in der Lage ist, die Leistung des Rechenmodells zu verbessern und niedrigere Validierungsfehlerraten als der herkömmliche Ansatz zu zeigen. Diese Technik kann die besten Parameter auswählen und eine effiziente Lösung zum Trainieren des MLP-Algorithmus bereitstellen. Der vorgeschlagene, von der Natur inspirierte Algorithmus und seine Parameteranpassungsmethode verbessern die Leistung und Präzision von CDSSs. Diese Technik kann in elektronischen Gesundheitssystemen (E-Health) als nützliches Instrument zum Umgang mit Unsicherheiten im Entscheidungsprozess im Zusammenhang mit Risikoschwangerschaften eingesetzt werden. Die vorgeschlagene Methode übertraf andere Ansätze im Durchschnitt um 26,4 % in Bezug auf die Präzision und 14,9 % in Bezug auf die True-Positive-Ratio (TPR) und zeigte eine Verringerung der False-Positive-Ratio (FPR) um 35,4%. Darüber hinaus war diese Methode dem MLP-Algorithmus hinsichtlich Präzision und Fläche unter der Betriebskennlinie des Empfängers um 2,3 bzw. 10,2 % überlegen, wenn sie auf das Geburtsergebnis bei Schwangeren angewendet wurde.;-;-;-;https://link.springer.com/article/10.1007/s10916-017-0887-0 5615ed3ae5fd7c58d8b24803850b5ce3;de;;;5.1.;;;Kognitive IoT-Cloud-Integration für ein intelligentes Gesundheitswesen: Fallstudie zur Erkennung und Überwachung epileptischer Anfälle Wir schlagen ein kognitives Internet of Things (IoT)-Cloud-basiertes Smart-Gesundheits-Framework vor, das mit intelligenten Geräten, Sensoren und anderen Interessengruppen im Gesundheitswesen kommuniziert, basierend auf dem Zustand eines Patienten eine intelligente Entscheidung trifft und zeitnahe, kostengünstige Kosten und zugängliche Gesundheitsdienste. Als Fallstudie wird auch eine EEG-Anfallserkennungsmethode mit Deep Learning vorgeschlagen, um auf die Machbarkeit des kognitiven IoT-Cloud-Smart-Healthcare-Frameworks zuzugreifen. In der vorgeschlagenen Methode verwenden wir intelligente EEG-Sensoren (abgesehen von intelligenten Sensoren für das allgemeine Gesundheitswesen), um EEG-Signale von epileptischen Patienten aufzuzeichnen und zu übertragen. Danach trifft das kognitive Framework in Echtzeit eine Entscheidung über zukünftige Aktivitäten und ob die Daten an das Deep-Learning-Modul gesendet werden sollen. Das vorgeschlagene System verwendet die Bewegungen, Gesten und Mimik des Patienten, um den Zustand des Patienten zu bestimmen. Signalverarbeitung und Anfallserkennung erfolgen in der Cloud, während Signale mit einer Wahrscheinlichkeitsbewertung als Anfall oder Nicht-Anfall klassifiziert werden. Die Ergebnisse werden an Ärzte oder andere Interessengruppen übermittelt, die die Patienten überwachen und in kritischen Fällen die geeigneten Entscheidungen treffen können, um dem Patienten zu helfen. Experimentelle Ergebnisse zeigen, dass das vorgeschlagene Modell eine Genauigkeit und Empfindlichkeit von 99,2 bzw. 93,5 % erreicht.;-;-;-;https://link.springer.com/article/10.1007/s11036-018-1113-0 fd63dab5e842fe108c89d2b152544f59;de;;;5.1.;;;Kodierung der lokalen Konnektivitätsmuster der fMRT für die Klassifikation kognitiver Aufgaben und Zustände In dieser Arbeit schlagen wir ein neues Framework vor, um die lokalen Konnektivitätsmuster des Gehirns zu kodieren, unter Verwendung von Fisher-Vektoren (FV), Vektoren lokal aggregierter Deskriptoren (VLAD) und Bag-of-Words (BoW)-Methoden. Wir erhalten zunächst lokale Deskriptoren, sogenannte Mesh-Arc-Deskriptoren (MADs), aus fMRT-Daten, indem wir lokale Netze um anatomische Regionen herum bilden und ihre Beziehung innerhalb einer Nachbarschaft schätzen. Dann extrahieren wir ein Wörterbuch von Beziehungen, genannt;-;-;-;https://link.springer.com/article/10.1007/s11682-018-9901-5 2d8ba171fc7eef8fe073c3c0ecf724d7;de;;;5.1.;;;Ein Framework für die Big-Data-Analyse in Smart Cities Durch den rasanten Wandel der Technologien existieren neue Datenformen, die zu einer enormen Datenmenge im Internet führen. Infolgedessen müssen einige Lernplattformen wie E-Learning-Systeme ihre Methoden ändern, damit die Datenverarbeitung intelligenter wird. Dieses Papier schlägt einen Rahmen vor, um die traditionellen E-Learning-Systeme reibungslos für Smart Cities-Anwendungen anzupassen. Learning Analytics (LA) hat sich in letzter Zeit zu einem spürbaren Weltbild im Unterricht entwickelt, das die aktuellen Innovationsfortschritte wie zum Beispiel Cloud Computing, Big Data Processing und Internet of Things umfasst. LA erfordert außerdem eine konzentrierte Maßnahme zur Vorbereitung von Vermögenswerten, um anwendbare Ermittlungsergebnisse zu erzielen. Wie dem auch sei, die üblichen Methoden waren beim Umgang mit LA-Schwierigkeiten verschwenderisch.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-74690-6_40 c930d72287819c00ca1764b8b235d9f0;de;;;5.1.;;;Adaptives drahtloses biomedizinisches Kapsel-Tracking basierend auf Magnetsensorik In diesem Artikel wird die drahtlose biomedizinische Kapselverfolgung (WBC) für magnetische Erfassungs- und Betätigungseinstellungen untersucht, bei der ein eingebetteter Permanentmagnet in einem passiven WBC zusammen mit magnetischen Sensoren außerhalb des menschlichen Körpers verwendet wird, um ein Magnetfeld um das WBC herum zu erzeugen. Zunächst wird ein 2D-WBC-Lokalisierungsschema entwickelt, das nur auf magnetischer Abtastung und adaptiver rekursiver kleinster Quadrate (RLS) Online-Parameterschätzung mit Vergessensfaktor basiert. Als nächstes schlagen wir eine hybride Lokalisierungstechnik zur simultanen Positions- und Orientierungsschätzung mit hoher Genauigkeit vor. Die vorgeschlagene hybride Lokalisierungstechnik basiert auf der Datenfusion von magnetischen Messungen und elektromagnetischen Signalen, die von der WBC zur Bildübertragung und anderen medizinischen Informationen emittiert werden, unter Verwendung eines ähnlichen adaptiven RLS-Parameterschätzschemas. Später werden die vorgeschlagenen Lokalisierungstechniken mit einem adaptiven Verfolgungsgesetz integriert, um eine adaptive Kapselverfolgungssteuerung zu konstruieren. Die Simulationen zeigen vielversprechende Ergebnisse für die Effizienz und Genauigkeit der vorgeschlagenen adaptiven Lokalisierungs- und Tracking-Steuerungsschemata.;-;-;-;https://link.springer.com/article/10.1007/s10776-017-0349-0 9ce3a52b80e500225f2cad83da13ffef;de;;;5.1.;;;Schnelle und effiziente Differenzierung des Blockmittelcodes zur Erkennung von Handabdrücken In den letzten zwei Jahrzehnten haben Forscher auf dem Gebiet der Biometrie eine Vielzahl von kodierungsbasierten Handabdruckerkennungsverfahren vorgestellt. Diese Ansätze beruhen hauptsächlich auf dem Extrahieren der Texturmerkmale, z. Linienorientierungen und Phaseninformationen unter Verwendung verschiedener Filter. In diesem Artikel schlagen wir eine neue effiziente Methode zur Erkennung von Handabdrücken vor, die auf dem Different of Block Means basiert. Bei dem vorgeschlagenen Schema werden nur grundlegende Operationen (d. h. hauptsächlich Additionen und Subtraktionen) verwendet, was im Vergleich zu bestehenden Systemen einen viel geringeren Rechenaufwand verursacht. Dadurch ist das System für die Online-Identifizierung und -Verifizierung von Handabdrücken geeignet. Darüber hinaus hat sich gezeigt, dass die Technik gegenüber verwandten Systemen eine überlegene Leistung liefert.;-;-;-;https://link.springer.com/article/10.1007/s00138-020-01103-3 7ccf67c1e51866511d13b155ecc27ffe;de;;;5.1.;;;Ein hybrides Schlüsselvorverteilungsschema für Sensornetzwerke, das räumliche Rückzugsorte einsetzt, um Jamming-Angriffe zu bewältigen Um Sicherheitsdienste in drahtlosen Sensornetzwerken bereitzustellen, besteht eine bekannte Aufgabe darin, Sensorknoten vor der Bereitstellung kryptografische Schlüssel bereitzustellen. Es ist schwierig, allen Paaren von Sensorknoten geheime Schlüssel zuzuweisen, wenn die Anzahl der Knoten aufgrund der großen Anzahl von erforderlichen Schlüsseln und begrenzten Speicherressourcen der Sensorknoten groß ist. Eine mögliche Lösung besteht darin, Sensorknoten zufällig einige Schlüssel zuzuweisen und Knoten mit einer gewissen Wahrscheinlichkeit miteinander verbinden zu können. Dieses Schema weist Einschränkungen hinsichtlich der Kompromisse zwischen Konnektivität und Speicheranforderungen auf. In letzter Zeit wurde das Wissen über die Sensorimplementierung verwendet, um die Konnektivität zu verbessern und gleichzeitig weniger Speicherplatz zu verwenden. Jamming-Angriffe sind ein einfaches und effizientes Mittel, um die Konnektivität von Sensoren und damit den Betrieb eines Sensornetzwerks zu stören. Eine Lösung für mobile Sensorknoten, um die Auswirkungen von Störungen zu überwinden, besteht darin, einen räumlichen Rückzug durchzuführen, indem Knoten aus eingeklemmten Bereichen entfernt werden. Jedoch können einsatzbasierte Schlüsselvorverteilungsschemata bewirken, dass eine große Anzahl von Knoten kryptographisch isoliert wird, nachdem sie sich aus dem eingeklemmten Bereich herausbewegt haben. Verschiebte Knoten können sich möglicherweise nicht wieder mit dem Netzwerk verbinden, da sie kein gemeinsames Geheimnis mit neuen Nachbarn an neuen Standorten haben. In diesem Papier schlagen wir ein hybrides Schlüsselvorverteilungsschema vor, das räumliche Rückzugsstrategien unterstützt, um mit Störangriffen fertig zu werden. Unser Schema kombiniert die Eigenschaften von wissensbasierten Schlüsselvorverteilungsschemata auf Zufallsbasis und Bereitstellung. Beim Auftreten von Jamming-Angriffen bietet unser Schema High-Key-Konnektivität (ähnlich den wissensbasierten Schemata zur Bereitstellung) und reduziert gleichzeitig die Anzahl isolierter Knoten. Wir bewerten die Leistung unseres Systems durch Simulationen und Analysen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03354-4_52 dcc18ac1de0fe28c4b95c2895ae2d925;de;;;5.1.;;;Ein effizienter intuitiver Fuzzy-MULTIMOORA-Ansatz basierend auf neuartigen Aggregationsoperatoren zur Bewertung von Entsorgungstechniken für feste Abfälle waste Dieses Papier beabsichtigt, eine Multi-Attribute-Gruppen-Entscheidungsfindungsmethodik (MAGDM) vorzuschlagen, die auf MULTIMOORA unter der IFS-Theorie zur Anwendung bei der Bewertung von Techniken der Abfallwirtschaft basiert. Die vorliegende Arbeit gliedert sich in drei Bereiche. Die erste Falte besteht darin, dass einige neue Operationsgesetze für intuitionistische Fuzzy-Zahlen eingeführt und eine Reihe von darauf basierenden Aggregationsoperatoren entwickelt werden. Die Eigenschaften im Zusammenhang mit neuen Operationen werden ausführlich besprochen. Die zweite Falte besteht darin, dass der PSO-Algorithmus (Particle Swarm Optimization) für die Attributgewichtsbestimmung angewendet wird, indem ein nichtlineares Optimierungsmodell mit dem Ziel formuliert wird, den Abstand jeder Alternative von einer negativen idealen Lösung zu maximieren und den Abstand von einer positiven idealen Lösung zu minimieren. Schließlich wird eine auf MULTIMOORA basierende MAGDM-Methode vorgestellt, die unter Berücksichtigung verschiedener sozialer, wirtschaftlicher, ökologischer und technologischer Faktoren bei der Einstufung verschiedener Abfallwirtschaftstechniken angewendet wird. Die Zuverlässigkeit und Wirksamkeit der vorgeschlagenen Methodik wird durch den Vergleich der erhaltenen Ergebnisse mit mehreren bestehenden Studien untersucht. Die Sensitivitätsanalyse wird durchgeführt, indem verschiedene Parameterwerte genommen werden, um die Stabilität der vorgeschlagenen Methode zu zeigen.;-;-;-;https://link.springer.com/article/10.1007/s10489-021-02541-w 943a6016221d350f0b8d9513f56cbe0d;de;;;5.1.;;;Automatische Kategorisierung von Tags in kollaborativen Umgebungen Tagging ermöglicht es Einzelpersonen, beliebige Begriffe zu verwenden, die ihrer Meinung nach zur Beschreibung eines Artikels geeignet sind. Mit der wachsenden Popularität des Taggings wurden immer mehr Tags von einer Vielzahl von Anwendungen gesammelt. Ein Artikel kann mit Tags verknüpft sein, die seine verschiedenen Aspekte beschreiben, wie beispielsweise Aussehen, Funktionalität und Standort. Der Organisation von Tags wurde jedoch wenig Aufmerksamkeit geschenkt. In den meisten Tagging-Systemen werden alle Tags, die einem Artikel zugeordnet sind, unabhängig von ihrer Bedeutung zusammen aufgelistet. Wenn die Anzahl der Tags groß wird, wird es schwierig, nützliche Informationen in Bezug auf einen bestimmten Aspekt eines Artikels zu finden. Die Verbesserung der Organisation von Tags in bestehenden Tagging-Systemen ist daher stark erwünscht. In diesem Papier schlagen wir einen hierarchischen Ansatz vor, um Tags zu organisieren. Bei unserem Ansatz werden Tags basierend auf ihrer Bedeutung in verschiedene Kategorien eingeordnet. Um Informationen zu einem bestimmten Aspekt eines Artikels zu finden, muss man nur auf die zugehörigen Tags in der entsprechenden Kategorie verweisen. Da bestehende Anwendungen bereits eine große Anzahl von Tags gesammelt haben, ist eine manuelle Kategorisierung aller Tags nicht möglich. Wir schlagen vor, Data-Mining- und Machine-Learning-Techniken zu verwenden, um Tags in Tagging-Systemen automatisch und schnell zu klassifizieren. Ein Prototyp unserer Ansätze wurde für ein Real-Word-Tagging-System entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03354-4_48 f6a833684c0270dbac74e50fc98b614d;de;;;5.1.;;;Vorläufige Entwicklung eines linienmerkmalsbasierten Objekterkennungssystems für texturlose Indoor-Objekte Dieses Papier präsentiert vorläufige Ergebnisse eines texturlosen Objekterkennungssystems für einen mobilen Indoor-Roboter. Unser Ansatz basiert auf 1) segmentierten linearen Features und 2) paarweisen geometrischen Beziehungen zwischen Features. Dieser Ansatz wird durch den Bedarf an Erkennungsstrategien motiviert, die viele Indoor-Objekte handhaben können, die keine oder keine Texturinformationen auf ihren Oberflächen aufweisen, aber eine starke geometrische Konsistenz innerhalb derselben Objektklasse aufweisen. Unsere Matching-Methode besteht aus zwei Schritten. Zuerst finden wir Korrespondenzkandidaten zwischen linearen Fragmenten. Zweitens wird ein Spektralanpassungsalgorithmus verwendet, um die Untermenge von Korrespondenzen zu finden, die am konsistentesten ist. Beide Matching-Methoden werden mithilfe von logistischen Klassifikatoren erlernt. Das entwickelte Erkennungssystem haben wir mit unserer eigenen Datenbank evaluiert, die sich aus acht Indoor-Objektklassen zusammensetzt. Wir haben auch die Leistung unseres linienmerkmalsbasierten Erkennungsansatzes mit einem SIFT-merkmalsbasierten Verfahren verglichen. Experimentell stellte sich heraus, dass die Linieneigenschaften in unserem Problemaufbau – der Erkennung von texturlosen Objekten – überlegen sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76729-9_20 11a55f31381c4d6c71abde361f640e4c;de;;;5.1.;;;Eine Methode zur Rekonstruktion von Dreiecksnetzen unter Berücksichtigung von Silhouettenbildern In diesem Beitrag schlagen wir einen neuartigen Ansatz vor, um Dreiecksnetze aus Punktmengen zu rekonstruieren, indem wir die Silhouette des Zielobjekts berücksichtigen. In letzter Zeit wurden viele Ansätze für eine vollständige 3D-Rekonstruktion von bewegten Objekten vorgeschlagen. Beispielsweise werden Bewegungserfassungstechniken verwendet, um 3D-Daten der menschlichen Bewegung zu erfassen. Es müssen jedoch Markierungen an den Gelenken angebracht werden, wodurch die Aufnahmeumgebung und die Anzahl der zu erfassenden Daten eingeschränkt werden. Im Gegensatz dazu ist das Multi-View-Stereo-Scansystem eine der leistungsfähigsten Methoden, um dichte Daten von 3D-Objekten zu erhalten. Es verwendet Bilder, die aus mehreren Richtungen aufgenommen wurden, und ermöglicht die Rekonstruktion von 3D-dichten Punktmengen unter Verwendung der Epipolar-Geometrie. Es ist jedoch immer noch ein schwieriges Problem, ein 3D-Dreiecksnetz aus den 3D-Punktsätzen zu rekonstruieren, da die zahlreichen Punkte durch nicht übereinstimmende Punkte zwischen den Bildern entstehen. Wir schlagen einen neuen Ansatz vor, um eine genauere Methode zur Rekonstruktion von Dreiecksnetzen als die vorherige zu erhalten. Wir nutzen Silhouettenbilder, die beim Rekonstruieren von 3D-Punktsätzen gewonnen werden, die zur Entfernung von Rauschen und zum Ausgleich von Löchern führen. Schließlich zeigen wir, dass die vorgeschlagene Methode die Details der Oberfläche erzeugen kann, wo die vorherige Methode aus einer kleinen Anzahl von Punkten verliert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-29451-3_46 801bab9c474a01cb462cfd1bfb92e816;de;;;5.1.;;;Ein schneller 3D-Ansatz zur Indoor-Lokalisierung basierend auf Videoabfragen Bildbasierte Lokalisierungssysteme werden typischerweise im Außenbereich eingesetzt, da insbesondere in der Nähe von hohen Gebäuden mit schwachem GPS-Signal eine hohe Lokalisierungsgenauigkeit erreicht werden kann. Ein schwaches GPS-Signal ist auch ein kritisches Problem für Innenumgebungen. In diesem Artikel stellen wir einen neuartigen, schnellen 3D-Struktur-aus-Bewegungs-(SfM)-Modell-basierten Ansatz zur Indoor-Lokalisierung vor, der Videos als Abfragen verwendet. Anders als in einer Außenumgebung enthalten die aufgenommenen Bilder in einer Innenumgebung normalerweise Personen, was oft zu einer falschen Einschätzung der Kamerapose führt. In unserem Ansatz segmentieren wir Personen in den Videos mittels einer Optical-Flow-Technik. Auf diese Weise filtern wir Personen im Video und vervollständigen das aufgenommene Video für die Lokalisierung. Eine auf Graphenabgleich basierende Überprüfung wird angewendet, um sowohl die Anzahl der registrierten Bilder als auch die Schätzung der Kamerapose zu verbessern. Darüber hinaus schlagen wir ein anfängliches Korrespondenzauswahlverfahren vor, das auf einem lokalen Merkmalsverhältnistest anstelle des traditionellen RANSAC basiert, was zu einer viel schnelleren Bildregistrierungsgeschwindigkeit führt. Die umfangreichen experimentellen Ergebnisse zeigen, dass unser vorgeschlagener Ansatz in Bezug auf Genauigkeit und Geschwindigkeit gegenüber bestehenden Indoor-Lokalisierungssystemen mehrere Vorteile hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27674-8_20 9108ec68341eab5087d8012d28f6d3a8;de;;;5.1.;;;Design und Implementierung eines speziellen statischen Programmanalysators für sicherheitskritische Echtzeit-Embedded-Software Wir berichten über erfolgreiche Vorerfahrungen in der Konzeption und Implementierung eines speziellen auf Abstract Interpretation basierenden statischen Programmanalysators zur Verifikation sicherheitskritischer eingebetteter Echtzeitsoftware. Der Analysator ist sowohl präzise (kein Fehlalarm im betrachteten Experiment) als auch effizient (weniger als eine Minute Analyse für 10.000 Zeilen Code). Auch wenn es auf einer einfachen Intervallanalyse basiert, wurden viele Features hinzugefügt, um die gewünschte Genauigkeit zu erreichen: Erweiterung kleiner Arrays, Erweiterung mit mehreren Schwellwerten, Schleifen-Entrollen, Trace-Partitionierung, Beziehungen zwischen Schleifenzählern und anderen Variablen. Die Effizienz des Tools beruht hauptsächlich auf einer geschickten Darstellung abstrakter Umgebungen basierend auf ausgewogenen binären Suchbäumen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36377-7_5 e28fa222eb465b607a4acc1cfd1dfa30;de;;;5.1.;;;Sensoreinfluss auf die Leistung der simultanen mobilen Roboterlokalisierung und Kartenerstellung Die Navigation mobiler Roboter in unbekannten Umgebungen erfordert die gleichzeitige Schätzung der Lokalisierung des mobilen Roboters in Bezug auf eine Basisreferenz und die Erstellung einer globalen Karte des Navigationsbereichs. In diesem Beitrag präsentieren wir eine vergleichende Untersuchung der Leistung der Lokalisierungs- und Kartenerstellungsprozesse unter Verwendung zweier unterschiedlicher sensorischer Systeme: eines rotierenden 2D-Laserentfernungsmessers und eines trinokularen Stereo-Vision-Systems.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0119407 b9ce715587e165534ea4a101d78dbcdb;de;;;5.1.;;;Signalanalyse und -synthese mit 1-D quasi-kontinuierlicher Wavelet-Transformation Die Wavelet-Transformation ist ein weit verbreitetes Zeit-Frequenz-Werkzeug für die Signalverarbeitung. Da kontinuierliche Versionen zeitaufwendig, auf einige Arten von Wavelets beschränkt oder zu ungefähr sind, ist die Verwendung von Wavelets in der Signalverarbeitung normalerweise auf zeitdiskrete kritisch abgetastete Transformationen beschränkt. Dieses Papier formalisiert die quasi-kontinuierliche Wavelet-Transformation. Ein schneller quasi-kontinuierlicher Algorithmus zur Analyse wird vorgeschlagen. Es ist für fast jedes erzeugende Analyse-Wavelet gültig. Danach wird ein Synthesealgorithmus mit Filterbankimplementierungen beschrieben. Es hat die Besonderheit, jedem Punkt der Zeitskalenebene das gleiche Gewicht zu geben, wie es für selektive Rekonstruktionen von Teilen dieser Ebene erforderlich ist.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-76076-8_128 1446a52c241b01474bf830877a584020;de;;;5.1.;;;Eine dynamische gewichtete OWA-Fusion für Ensemble-Clustering In dieser Arbeit wird ein neuer Bildsegmentierungsalgorithmus vorgestellt. Der vorgeschlagene Algorithmus kombiniert die Ergebnisse eines hybriden Clustering-Ensembles. Das Ensemble-Clustering besteht aus einem Fuzzy-C-Means-(FCM)-Algorithmus und Fuzzy-Local-Information-C-Means-Algorithmen (FCM_S1 und FCM_S2) mit unterschiedlichen Werten des Nachbareffekts. Die Konsensus-Technik wird nach der Methode der geordneten gewichteten Mittelung (OWA) durchgeführt. Die jedem Klassifikator zugeschriebene Gewichtung kann während des Klassifizierungsprozesses modifiziert werden und wird durch die Klassifikatorergebnisse der Pixelnachbarklassifizierung bestimmt. Dynamische Gewichtungen geben dem Verfahren die Möglichkeit, die zeitlich beste Leistung während des Klassifizierungsprozesses auszuwählen. Experimente, die an einem synthetischen Bild und realen Bildern durchgeführt wurden, zeigen, dass der vorgeschlagene Algorithmus effektiv und effizient ist und einen guten Rauschunterdrückungseffekt bietet.;-;-;-;https://link.springer.com/article/10.1007/s11760-013-0499-1 59851c22c1bfd1d7b21a8a9cf7ef0c9f;de;;;5.1.;;;Klassifizierungs- und Bewertungstools für Algorithmen zur Entdeckung von Strukturmotiven Motivfindung ist das Problem, wiederkehrende Muster in biologischen Daten zu finden. Muster können sequentiell sein, hauptsächlich wenn sie in DNA-Sequenzen entdeckt werden. Sie können auch strukturell sein (z. B. bei der Entdeckung von RNA-Motiven). Das Auffinden gemeinsamer Strukturmuster hilft, den Wirkmechanismus (z. B. posttranskriptionelle Regulation) besser zu verstehen. Im Gegensatz zu DNA-Motiven, die sequenziell konserviert sind, weisen RNA-Motive eine Konservierung in der Struktur auf, die selbst bei unterschiedlichen Sequenzen üblich sein kann. In den letzten Jahren wurden Hunderte von Algorithmen entwickelt, um das Problem der sequentiellen Motiverkennung zu lösen, während für den strukturellen Fall weniger Arbeit geleistet wurde.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-14-S9-S4 c753a2aa3ace1437ce7e9ff7b2cf4138;de;;;5.1.;;;Was Google Maps für die Verbreitung biomedizinischer Daten leisten kann: Beispiele und eine Designstudie Biologen müssen oft beurteilen, ob unbekannte Datensätze den Zeitaufwand für eine detailliertere Untersuchung rechtfertigen. Solche Bewertungen auf Kurzbeschreibungen von Datenherausgebern zu stützen, ist bei großen Datensätzen, die Erkenntnisse enthalten, die von bestimmten wissenschaftlichen Fragen abhängen, unhandlich. Alternativ kann der Einsatz komplexer Softwaresysteme für eine Voranalyse an sich als zu zeitaufwändig erachtet werden, insbesondere bei unbekannten Datentypen und -formaten. Dies kann dazu führen, dass Analysezeit verschwendet und potenziell nützliche Daten verworfen werden.;-;-;-;https://link.springer.com/article/10.1186/1756-0500-6-179 11b06a24d1fc45d568f43386b5b97ccf;de;;;5.1.;;;Sichere Nachbarschaftserstellung in drahtlosen Ad-hoc-Netzwerken mithilfe von Hop-Count-Diskrepanzen Eine grundlegende Anforderung an Knoten in Ad-hoc- und Sensornetzwerken ist die Fähigkeit, ihre Nachbarschaft korrekt zu bestimmen. Viele Anwendungen, Protokolle und netzwerkweite Funktionen beruhen auf der richtigen Nachbarschaftserkennung. Schädliche Knoten, die Nachbarschaftsinformationen mithilfe von Wurmlöchern manipulieren, können den Betrieb von Ad-hoc-Netzwerken erheblich stören. Protokolle, die nur von kryptografischen Techniken (z. B. Authentifizierung und Verschlüsselung) abhängen, können solche Angriffe möglicherweise nicht erkennen oder verhindern. In diesem Papier schlagen wir SECUND vor, ein Protokoll zum Erstellen einer SICHEREN Nachbarschaft, das Diskrepanzen beim Routing von Hop-Count-Informationen an;-;-;-;https://link.springer.com/article/10.1007/s11036-011-0334-2 953b025dea9cd076c6ea16781e734eca;de;;;5.1.;;;Energieeffizientes optimales Routing für die Kommunikation in VANETs über Clustering-Modell Vehicular Ad Hoc Network (VANET) ist eine Art außergewöhnliches Remote-Ad-hoc-Netzwerk, das eine hohe Knotenportabilität und schnelle Topologieänderungen aufweist. Clustering ist ein System zum Sammeln von Knoten, wodurch das Netzwerk immer leistungsfähiger wird. Ohne sich der Knoten bewusst zu sein, fehlt es irgendwann an Energie, was zu Ausführungsproblemen bei Netzwerk- und Topologieänderungen führt. An diesem Punkt taucht ein Hauptproblem der Energie im Routing-Protokoll auf, das sich mit der Lebensdauer von Knoten und der Lebensdauer von Verbindungen im Netzwerk befasst. Um die Energieeffizienz der V2V-Kommunikation zu erweitern, wurde eine auf Clustering basierende Optimierungstechnik vorgeschlagen. Dieses Papier stellt das K-Medoid Clustering-Modell vor, um die Fahrzeugknoten zu gruppieren, und danach werden energieeffiziente Knoten für eine überzeugende Kommunikation erkannt. Mit der Erwartung, eine energieeffiziente Kommunikation zu erreichen, werden effiziente Knoten von jedem Cluster durch einen metaheuristischen Algorithmus erkannt, zum Beispiel Enhanced Dragonfly Algorithm (EDA), der den Parameter als minimalen Energieverbrauch in VANET optimiert. Das Ergebnis zeigt, dass die V2V-Kommunikation die Energieeffizienz in allen Fahrzeugknoten verbessert und im Gegensatz zu bestehenden Algorithmen weniger Ausführungszeit erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-22773-9_1 a579e90f6ec33c933edf4e1c1361d79f;de;;;5.1.;;;Vorhersage der Tertiärstruktur von Proteinen mit dem flexiblen Neuralbaum Die Vorhersage der Tertiärstruktur von Proteinen aus seiner primären Aminosäuresequenz ist eine Herausforderung für die Bioinformatik. In diesem Artikel schlagen wir einen neuartigen Ansatz zur Vorhersage der Tertiärstruktur von Proteinen unter Verwendung des flexiblen Neuralbaums (FNT) vor, um ein Baumklassifikationsmodell zu konstruieren. Zwei Merkmalsextraktionsverfahren (die physikalisch-chemische Zusammensetzung (PCC)) und die Wiederholungsquantifizierungsanalyse (RQA)) werden verwendet, um die Merkmale der Proteinsequenz zu extrahieren. Um die Effizienz der vorgeschlagenen Methode zu bewerten, wählen wir zwei Benchmark-Proteinsequenz-Datensätze (1189 Datensätze und 640 Datensätze) als Testdatensatz aus. Die experimentellen Ergebnisse zeigen, dass die vorgeschlagene Methode für die Vorhersage der Proteinstruktur effizient ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31576-3_42 f9764e432cfe60db7631f7d3b8b315ae;de;;;5.1.;;;Luftverkehrsflussmanagement in Europa Zwischen dem ersten informellen Treffen zu Flow Control Measures 1970 und dem Beschluss von 23 Verkehrsministern der European Civil Aviation Conference (ECAC) im Oktober 1988 haben sich die Anforderungen des Luftverkehrs hinsichtlich Volumen, Zeit und geografischer Verteilung distribution systemtechnisch gesehen nie wirklich mit der Abfertigungskapazität der Flugsicherungsdienste und der Flughäfen korreliert.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0023010 530ab487bf116b4bd59f61ab02f92d4b;de;;;5.1.;;;DNA-LCEB: ein hochkapazitäts- und mutationsresistenter Ansatz zum Verbergen von DNA-Daten durch den Einsatz von Verschlüsselung, fehlerkorrigierenden Codes und hybrider zwei- und vierfacher codonbasierter Strategie für synonyme Substitution in Aminosäuren Das Verbergen von Daten in Desoxyribonukleinsäure (DNA)-Sequenzen kann verwendet werden, um ein organisches Gedächtnis zu entwickeln und Elterngene sowohl bei Nachkommen als auch bei genetisch veränderten Organismen zu verfolgen. Die Hauptsorgen bezüglich des Verbergens von Daten in DNA-Sequenzen sind jedoch das Überleben des Organismus und die erfolgreiche Extraktion von Wasserzeichen aus der DNA. Dies impliziert, dass der Organismus selbst in Gegenwart der eingebetteten Daten ohne jegliche Funktionsstörung leben und reproduzieren sollte. Folglich wird die Durchführung einer synonymen Substitution in Aminosäuren für die Wasserzeichenmarkierung zu einer primären Option. In dieser Hinsicht wird eine hybride Wasserzeichen-Einbettungsstrategie vorgeschlagen, die synonyme Substitution sowohl in zweifachen als auch in vierfachen Codons von Aminosäuren verwendet. Diese Arbeit präsentiert daher eine leistungsstarke und mutationsresistente Wasserzeichentechnik, DNA-LCEB, zum Verbergen geheimer Informationen in der DNA lebender Organismen. Durch den Einsatz der unterschiedlichen Typen synonymer Codons von Aminosäuren wurde die Datenspeicherkapazität deutlich erhöht. Es wird weiterhin beobachtet, dass das vorgeschlagene DNA-LCEB, das eine Kombination aus synonymer Substitution, verlustfreier Komprimierung, Verschlüsselung und Bose-Chaudary-Hocquenghem-Codierung verwendet, sicher ist und sowohl in Bezug auf Kapazität als auch Robustheit im Vergleich zu bestehenden DNA-Datenverbergungsschemata besser abschneidet. Das vorgeschlagene DNA-LCEB wird gegen verschiedene Mutationen getestet, einschließlich stiller, missverständlicher und nicht wahrnehmbarer Mutationen, und bietet eine wesentliche Verbesserung in Bezug auf die Mutationserkennungs-/Korrekturrate und Bits pro Nukleotid. Eine Webanwendung für DNA-LCEB ist verfügbar unter;-;-;-;https://link.springer.com/article/10.1007/s11517-014-1194-2 1d3fc623f0e0ca2cd215156b9cda7a88;de;;;5.1.;;;TB-EDA: Ein vertrauenswürdiger Ereigniserkennungsalgorithmus zur Erkennung von falschen Ereignissen in einem softwaredefinierten Fahrzeugnetzwerk Die Verbreitung falscher Ereignisse ist einer der Hauptgründe für die Unterbrechung eines Netzwerks. Daher müssen falsche Ereignisse frühzeitig erkannt werden, um das Netzwerk vor dem Zusammenbruch zu schützen. In diesem Beitrag wird ein vertrauensbasierter Ereigniserkennungsalgorithmus (TB-EDA) für ein softwaredefiniertes Fahrzeugnetzwerk (SDVN) vorgeschlagen. Bei dem vorgeschlagenen Algorithmus vergleicht ein Bewerterknoten zuerst die Vertrauenswerte seiner Nachbarfahrzeuge mit dem berechneten Vertrauensschwellenwert. Ist diese Bedingung erfüllt, so prüft der Bewerterknoten die Richtigkeit der empfangenen Informationen mit dem Ähnlichkeitsverfahren. Nach Erfüllung dieser beiden Bedingungen nimmt dann nur der Bewerterknoten von seinen Umgebungsfahrzeugen empfangene Informationen an und handelt basierend darauf. Wenn eine der beiden Bedingungen nicht erfüllt ist, verwirft der Bewertungsknoten die Nachricht und stoppt die Verbreitung solcher falscher Ereignisnachrichten im Netzwerk. Aufgrund der zentralisierten Struktur und des Open-Flow-Charakters wählen wir das SDVN-basierte Netzmodell. Unsere Arbeit wird mit dem Hybridsimulator Veins umgesetzt, wobei OMNeT++ als Netzwerksimulator und Simulation der urbanen Mobilität (SUMO) als Straßenverkehrssimulator fungiert. Wir überprüfen die Leistung unserer Arbeit unter Berücksichtigung verschiedener Parameter wie Erkennungsgenauigkeit, Erkennungszeit und Energieverbrauch.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6081-5_37 550c465bce3f76eb3ef5a9d3eeeaf65b;de;;;5.1.;;;Eine effiziente Konflikterkennungsmethode zur Aufrechterhaltung der Konsistenz des mobilen Datenbanksystems In mobilen Datenbanksystemen kam es häufig zu einer freiwilligen oder unfreiwilligen Trennung. Dieses Problem verursacht Inkonsistenz. Dieses Papier hat vorgeschlagen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24669-5_90 e7e10ad29f63c7a217b0426e4c445f9f;de;;;5.1.;;;Frequenzbereichsidentifizierung von Hammerstein-Modellen In diesem Kapitel diskutieren wir einen Frequenzansatz für die Hammerstein-Modellidentifikation. Das Verfahren basiert auf der Grundfrequenz und daher keine;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84996-513-2_11 a0d8f0d691b6371d9f1c7aa24bd3223e;de;;;5.1.;;;Eine Implementierung eines mobilen Ad-hoc-Multi-Agenten-Systems für eine Sicherheitsinformation Mobile Ad-hoc-Netzwerk (MANET) ist ein Netzwerk, das mobile Geräte ohne zentrale Steuerung verbindet. Da MANET ein infrastrukturloses Netzwerk ist, das nur aus mobilen Geräten besteht, sollte es ein bequemes Mittel sein, temporäre Netzwerke als Teil des Notfallplans (im Falle einer Katastrophe) aufzubauen. In diesem Papier berichten wir über unsere Erfahrungen, die wir bei unserem Design und der Implementierung eines mobilen Software-Agentensystems gesammelt haben, das auf einem mobilen Ad-hoc-Netzwerk ausgeführt wird. Um die Nützlichkeit des mobilen Software-Agentensystems zu demonstrieren, haben wir als Beispielanwendung ein System zur Erfassung von Sicherheitsinformationen für Katastrophenopfer implementiert. Unsere Erfahrung legt nahe, dass die Kombination von mobilen Softwareagenten und Ad-hoc-Netzwerken den neuen Horizont eines temporären Kommunikationssystems ohne Infrastruktur eröffnet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-28561-0_16 2c7c56b707ecdde1ead62138ad32761b;de;;;5.1.;;;Skalierbarkeit und Leistung von Multithread-Algorithmen für den internationalen Fahrkartenbau auf Hochleistungsmaschinen Wir beschreiben die Konzeption, Umsetzung und Durchführung eines Projekts zum Aufbau internationaler Tarife bei United Airlines. Eine effiziente Engine für die Preisgestaltung ermöglicht es einer Fluggesellschaft, den Prozess der Preisgestaltung auf lukrativen internationalen Märkten zu vereinfachen und zu automatisieren. Der Einfluss eines Tarifmotors auf die Einnahmen einer großen Fluggesellschaft wird auf 20 bis 60 Millionen US-Dollar pro Jahr geschätzt. Ziel ist es, ein effizientes Softwaresystem für die Verarbeitung von 10 GB Daten zu Basistarifen aller Fluggesellschaften zu entwickeln und über 250 Millionen speicherresidente Datensätze (Tarife) zu generieren. Die Softwarearchitektur verwendet einen objektorientierten 64-Bit- und Multithread-Ansatz und die für das Benchmarking verwendeten Hardwareplattformen umfassen eine 24-CPU, IBM S-80 und 32-CPU, Hewlett-Packard Superdome. Zwei konkurrierende Softwaredesigns, die (i) dynamischen Speicher und (ii) statischen Speicher verwenden, werden verglichen. Ein kritischer Teil des Designs umfasst einen Scheduler, der eine Heuristik für den Lastausgleich verwendet, die nachweislich innerhalb eines konstanten Optimalitätsfaktors liegt. Leistungsergebnisse werden präsentiert und diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36265-7_43 22f7d3018a7c2cc71cfcc8d116f92355;de;;;5.1.;;;Vertrauenswürdigkeit von Informationsquellen und Informationsstammbäumen Um in einer offenen heterogenen Informationsaustauschumgebung zu überleben und tatsächlich zu gedeihen, ist die Fähigkeit eines Agenten, die Vertrauenswürdigkeit anderer Agenten zu bewerten, von entscheidender Bedeutung. In diesem Beitrag untersuchen wir ein Verfahren zur Bewertung der Vertrauenswürdigkeit eines Agenten als Informationsquelle. Durch die Aufteilung des Verfahrens in;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45448-9_21 7c51150c381c059a1b6365a8923c012d;de;;;5.1.;;;Ein neuartiger Ansatz zur Verbesserung der dynamischen biometrischen Authentifizierung und Verifizierung des Menschen durch Blinzelbewegungen Die biometrische Authentifizierung wird in Smart-Geräten zum Sperren und Entsperren von Geräten anstelle einer PIN verwendet. Die Verwendung von Geräten in unkontrollierten Umgebungen ist jedoch sehr anfällig für Spoofing durch Replay-Angriffe. Ein Beispiel für Biometrie ist eine statische Gesichtsauthentifizierung: Angreifer verwenden Gesichtsbilder von gefälschten Personen, um Geräte zu entsperren, was zu unsicheren Operationen und dem Fehlen vertraulicher Informationen ohne Wissen des Besitzers führt. Wir haben ein neuartiges dynamisches biometrisches Authentifizierungssystem (DBAS) vorgeschlagen, das auf der Erfassung von Augenblinzeln einer Person zusätzlich zur Gesichtsauthentifizierung basiert, anstatt eine statische Gesichtsauthentifizierung zu verwenden. Die vorgeschlagenen DBAS verwenden eine Sequenz, bei der Bilder als Eingabe verwendet werden, indem der Benutzer aufgefordert wird, einer Augenzwinkernsequenz zu folgen. Dann wird vorgeschlagen, dass DBAS die mobilen Geräte basierend auf der korrekten Augenzwinkern-Sequenz der Person entsperrt. Die Testergebnisse zeigen, dass unsere Methode für die Bildschirmentsperrung auf Smart-Geräten mit einer Genauigkeit von 98,4% effektiv und robust ist.;-;-;-;https://link.springer.com/article/10.1007/s11277-020-07601-x 8f7eddb2995c2102af8499d857a1518e;de;;;5.1.;;;Ein System zur Sturzerkennung/-erkennung und eine empirische Studie zu Gradienten-basierten Ansätzen zur Merkmalsextraktion Der physische Zusammenbruch unter der älteren hilflosen Partei ist eines der hartnäckigsten Probleme in der Ära der alternden Gesellschaft, die in der akademischen Welt von der klinischen Forschung bis hin zu Computer-Vision-Studien intensive Aufmerksamkeit auf sich gezogen hat. Dieses Papier schlägt ein System zur Erkennung/Erkennung von Stürzen im Bereich der Computer Vision vor. Das vorgeschlagene System integriert eine Gruppe von gradientenbasierten Ansätzen zur lokalen visuellen Merkmalsextraktion, einschließlich Histogramm von orientierten Gradienten (HOG), Histogramm von Bewegungsgradienten (HMG), Histogramm des optischen Flusses (HOF) und Bewegungsgrenzenhistogrammen (MBH). Basierend auf einem intern erfassten Datensatz wurde eine vergleichende Studie der Deskriptoren mit Unterstützung eines künstlichen neuronalen Netzes durchgeführt. Die experimentellen Ergebnisse zeigten die Wirksamkeit des vorgeschlagenen Systems und die Leistungsfähigkeit dieser Deskriptoren in realen Anwendungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-66939-7_24 e651d596fd815c7aa0528389deb5a6e0;de;;;5.1.;;;Virtuelle Lernumgebungen und Lernwandel in der modernen Hochschulbildung während der Covid-19-Coronavirus-Pandemie: Einstellungen von Hochschullehrern Die heutige Situation an den Universitäten der Welt ist virtuelles Lernen während der COVID-19-Coronavirus-Pandemie. Massenfernlehre und -lernpraktiken gab es vor der Pandemie nicht. Daher kann argumentiert werden, dass die wissenschaftlichen Quellen, die Fernlehre und -lernen analysieren, dazu gedacht waren, die Erfahrungen und Einstellungen von Technologiebegeisterten und Visionären zu diskutieren. Ziel dieses Artikels ist es, erzwungene Innovationen in virtuellen Lernmodellen zu diskutieren und die Einstellungen von Studierenden und Lehrenden gegenüber Fernunterricht und -lehre aufzuzeigen. Die Ansätze der Lehrkräfte beim Fernunterricht werden dazu beitragen, Aspekte des Fernunterrichts/-unterrichts zu identifizieren, die für sie wichtig, akzeptabel oder inakzeptabel sind. Dies kann in Zukunft der Entwicklung qualitativ neuer Lernumgebungen für Studierende dienen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72660-7_22 8798b4e234e188ce180e7c83fa23960a;de;;;5.1.;;;Erkennen von Antimustern und Analysieren ihrer Auswirkungen auf die Wartbarkeit von Software Ähnlich wie Entwurfsmuster und ihre inhärenten zusätzlichen Informationen über die Struktur und das Design eines Systems können auch Antimuster – oder schlechte Code-Gerüche – die Qualität von Software stark beeinflussen. Obwohl der Glaube, dass sie die Wartbarkeit negativ beeinflussen, weithin akzeptiert wird, gibt es noch relativ wenige objektive Ergebnisse, die diese Theorie stützen würden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09156-3_25 abb823f706fc4ec4c42b3db66f7a6bfb;de;;;5.1.;;;Natural Language Processing: Sprecher-, Sprach- und Geschlechtsidentifikation mit LSTM Das lange Kurzzeitgedächtnis (LSTM) ist ein hochmodernes Netzwerk, das für verschiedene Aufgaben im Zusammenhang mit der Verarbeitung natürlicher Sprache (NLP), Mustererkennung und Klassifikation verwendet wird. Es wurde auch erfolgreich zur Spracherkennung und Sprecheridentifikation eingesetzt. Die Menge der Trainingsdaten und das Verhältnis von Trainings- zu Testdaten sind nach wie vor die Schlüsselfaktoren für gute Ergebnisse, haben aber Auswirkungen auf die reale Nutzung. Der Hauptbeitrag dieses Papiers besteht darin, eine hohe Sprechererkennungsrate für textunabhängige kontinuierliche Sprache zu erreichen, indem ein kleines Verhältnis von Trainings- zu Testdaten verwendet wird, indem ein rekursives neuronales Netzwerk mit langem Kurzzeitgedächtnis angewendet wird. Zur Sprechererkennung sowie zur Geschlechts- und Sprachidentifikation wurde ein Vergleich mit dem probabilistischen Feed-Forward-Neuralnetzwerk angestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3702-4_9 8ca3d077c6e970d634e0e275389060e6;de;;;5.1.;;;Kosteneffektivität pharmakologischer und psychosozialer Interventionen bei Schizophrenie Informationen über die Kostenwirksamkeit von Interventionen zur Behandlung von Schizophrenie können gesundheitspolitische Entscheidungen unterstützen, insbesondere angesichts des Mangels an Gesundheitsressourcen in Entwicklungsländern wie Thailand. Diese Studie zielt darauf ab, das optimale Behandlungspaket, einschließlich medikamentöser und nicht-medikamentöser Interventionen, für Schizophrenie in Thailand zu ermitteln.;-;-;-;https://link.springer.com/article/10.1186/1478-7547-9-6 025dc0eb0a48bf03d4262d639eac046e;de;;;5.1.;;;Lernen von Bayes-Netzwerken mit einem angenäherten MDL-Score In diesem Papier präsentieren wir eine Annäherung an die gegenseitige Information zwischen einer einzelnen Variablen und einer Menge von Variablen. Das Hauptziel unseres Ansatzes besteht darin, die Menge an ausreichenden Statistiken (d. h. Häufigkeitszählungen) zu reduzieren, die zur Berechnung der gegenseitigen Informationen erforderlich sind. Dazu verwenden wir die Kettenregel und gehen von unterschiedlichen Unabhängigkeitsaussagen zwischen Variablen aus. Wir werden unsere Näherung verwenden, um die MDL eines gegebenen Bayes-Netzwerks zu berechnen. Wir werden zeigen, dass unser approximierter Ansatz für das MDL-Maß Score-Äquivalent ist und wir verwenden ihn, um Bayes-Netzwerke aus Daten zu lernen. Wir werden experimentell sehen, dass Lernalgorithmen, die unseren Ansatz verwenden, Bayessche Netze hoher Qualität erhalten. Wir weisen auch darauf hin, dass unser Ansatz für alle informationsbasierten Maßnahmen verwendet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68996-6_10 a885165f197625bf082e198103ee1d6b;de;;;5.1.;;;Die Rolle der IT-Governance bei der Leistungssteigerung intelligenter Universitäten Die IT ist das Rückgrat für alle Organisationen und hat die traditionelle Art der Geschäftsabwicklung in Frage gestellt. Universitäten konkurrieren heute weltweit und überschreiten praktisch ihre Grenzen. Die Hochschulleitung spielt im Allgemeinen eine sehr wichtige Rolle für den Betrieb einer Universität. Sie orientiert die Universität auf die Erreichung ihrer Ziele und wird durch das Umfeld beeinflusst. IT Governance ist eine Teilmenge der Corporate Governance der Universität und wird implementiert, um die IT effektiv zu steuern und zu verwalten. Menschen, Informationen, Technologiedienste, Infrastruktur, Anwendungen, Kulturethik, Prozesse, Prinzipien, Richtlinien, Rahmenbedingungen und Organisationsstrukturen sind die Werkzeuge für die IT-Governance. Die Umweltherausforderungen bedrohen die Existenz vieler Universitäten und erfordern eine zeitnahe Behandlung. IT Governance kann der Schlüssel für die Hochschulen sein, sich neu zu positionieren und existenzbedrohende Probleme zu überwinden. KI ist ein sehr wichtiges strategisches Werkzeug, das intelligenten Universitäten dabei helfen kann, ihre strategischen Ziele zu erreichen. KI bietet Herausforderungen und Chancen für die IT-Governance-Funktion. Die Literatur zeigt, dass Universitäten ihre IT-Fähigkeiten nicht voll ausschöpfen, und dies ist ein klarer Beweis dafür, dass sie ernsthafte Probleme mit ihren IT-Governance-Praktiken haben. Diese explorative Forschung zielt darauf ab, die Rolle der IT-Governance bei der Verbesserung der Hochschulleistung in Bereichen wie: Forschung, Lehre und Lernen, Wettbewerbsfähigkeit und Ressourcennutzung zu untersuchen. Wir entwickeln einen konzeptionellen Rahmen, der die Umweltfaktoren identifiziert, die sich auf die IT-Governance-Struktur der Universität auswirken, sowie strategische und politische Voraussetzungen und Vorteile der Implementierung eines IT-Governance-Systems in Universitäten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-44289-7_66 bbf0d37d414da9925c15e9d7c6e176b5;de;;;5.1.;;;Metazirkulare abstrakte Interpretation im Prolog Wir geben eine Einführung in den meta-zirkulären Ansatz zur abstrakten Interpretation logischer Programme. Dieser Ansatz ist besonders nützlich für das Prototyping und für Einführungskurse in die abstrakte Interpretation. Mithilfe von Dolmetschern können die Schüler sofort mit Dolmetschern und funktionierenden Datenflussanalysatoren schreiben, anpassen und mit ihnen experimentieren. Wir verwenden einen einfachen Meta-Circular-Interpreter, der auf einem „Nicht-Grund“ basiert;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36377-7_6 406a1844852beef2f60ebcdd52df389e;de;;;5.1.;;;Eingebettete Koordination in einem Unternehmensnetzwerk Die Informations- und Kommunikationstechnologie ermöglicht es einem Unternehmen, zu viel geringeren Kosten als zuvor mehr Verbindungen zu mehr Unternehmen zu unterhalten. Dies in Kombination mit der zunehmenden Standardisierung von Geschäftsprozessen und der Anwendung von Modularität auf Prozessebene führt zu einer eingebetteten Koordination. Diese Fallstudie beschreibt, wie drei nicht verbundene Geschäftsnetzwerke mithilfe von Modularität auf Geschäftsprozess- oder Aktivitätskomponentenebene integriert wurden und welche Rolle die Standardisierung bei der Implementierung der eingebetteten Koordination spielte. Die Fallstudie wurde bei ABZ durchgeführt, einem vertrauenswürdigen Anbieter von Unternehmensdienstleistungen in der niederländischen Versicherungsbranche. Diese Studie legt nahe, dass die eingebettete Koordination zu einer verbesserten Leistung des Unternehmensnetzwerks führt, sofern die Standardisierung durchgesetzt wird.;-;-;-;https://link.springer.com/article/10.1057/palgrave.jit.2000026 f7115ee7c3ca5858a79c6a294eca2a16;de;;;5.1.;;;Zur funktionalen Kennzeichnung von Nutzfahrzeug-Punktewolken für humanoides Fahren Wir präsentieren Arbeiten zur Analyse von 3D-Punktwolken eines kleinen Nutzfahrzeugs zum Zwecke des humanoiden Roboterfahrens. Der Umfang dieser Arbeit beschränkt sich auf eine Teilmenge von;-;-;-;https://link.springer.com/article/10.1007/s11370-014-0157-7 6d5898a6b4d8a7fc794efbbd2e57daf2;de;;;5.1.;;;Online Social Media Suchtverhalten: Fallstudie thailändischer Militäroffiziere Diese Forschung zielt darauf ab, die Ziele der Nutzung sozialer Medien und des Nutzungsverhaltens von thailändischen Militärs zu untersuchen. Die Daten wurden von 95 Offizieren und 190 Unteroffizieren, die beim 21. Militärkreis arbeiten, mithilfe eines Fragebogens gesammelt. Prozentsatz, Mittelwert, Standardabweichung und T-Test wurden für die Datenanalyse verwendet. Die Ergebnisse zeigten, dass die meisten Befragten zu Hause auf soziale Medien zugreifen. Die am häufigsten verwendeten sozialen Medien waren Facebook, YouTube, Line und Instagram. Die Nutzungshäufigkeit der Social-Media-Tage betrug 3–4 Tage/Woche, während der Arbeitszeit zwischen 08.01 Uhr und 11 Uhr morgens und mehr als 3 Stunden pro Tag die meiste Nutzungszeit war. Die Geräte, mit denen sie auf die sozialen Medien zugreifen, waren Smartphones, PC/Notebook, Tablets und Ipad. Ihr Hauptzweck der Nutzung sozialer Medien war Wissen und Selbstverbesserung. Der Vergleich der Social-Media-Nutzung zwischen Unteroffizieren und Unteroffizieren war mit .05 statistisch nicht signifikant unterschiedlich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94229-2_42 225e02dca153ac5c7c8cb11c8306d423;de;;;5.1.;;;Realitätsbasierte Modellierung mit ACME: Ein Fortschrittsbericht Wir beschreiben den aktuellen Stand von ACME, der UBC Active Measurement Facility, einer Teleroboteranlage, die zum Erstellen von Rechenmodellen alltäglicher physischer Objekte entwickelt wurde. Wir zeigen, wie ACME verwendet wird, um Modelle der Kontakttextur (einschließlich Reibung und Rauheit), Kontaktgeräusche und Kontaktverformung zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45118-8_13 c73a906d2cb0c46f289cf06ad119eb3f;de;;;5.1.;;;Übersetzen von XQuery in XSLT Das WWW-Konsortium (W3C) hat kürzlich einen Arbeitsentwurf von XQuery vorgelegt, der als standardisierte Abfragesprache für XML dienen soll. XQuery und andere High-Level-Abfragesprachen für XML-Dokumente werden noch nicht von kommerziellen Produkten implementiert. Viele Browser verfügen jedoch bereits über eine integrierte XSLT-Unterstützung für die Transformation von XML-Dokumenten. XSLT ist ein Standardverfahren zur strukturellen Neuordnung oder Präsentationstransformation von XML-Dokumenten, aber die Formulierung komplexer Abfragen ist im Vergleich zu XQuery schwierig und fehleranfällig. Wenn XQuery-Ausdrücke in XSLT übersetzt werden könnten (z. B. von einem in Java geschriebenen Übersetzer oder XSLT selbst), würden die Vorteile von XQuery sofort für eine Vielzahl kommerzieller Produkte verfügbar sein. In diesem Whitepaper wird ein Verfahren zum Übersetzen von in XQuery-Syntax formulierten Abfragen in XSL-Stylesheets vorgestellt. Der Prozess wird unabhängig von einer bestimmten Implementierung mittels einer ASM (Abstract State Machine) beschrieben. Das ASM durchläuft den Analysebaum einer bestimmten Abfrage und übersetzt jeden Knoten in entsprechende XSLT-Befehle. Das Ergebnis dieses Übersetzungsprozesses ist ein XSL-Stylesheet, das auf ein XML-Dokument angewendet werden kann, um die gegebene Abfrage auszuführen. Das vorgestellte ASM kann leicht in Java oder XSLT kodiert werden, um einen Prototyp eines XQ2XSL-Übersetzers zu implementieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-46140-X_19 f682bf4347594b3e17c1d141184904cf;de;;;5.1.;;;Cloud-Anwendungsmanagement – ​​Probleme und Entwicklungen Cloud Computing ist eine Plattform, die den Betriebsmodus in den meisten Rechenzentren bestimmt. Cloud Computing entlastet seine Verbraucher von Investitionen in die IT-Infrastruktur. Cloud-Kunden werden On-Demand-Dienste zu erschwinglichen Kosten bereitgestellt. Cloud-Dienstleister bieten maßgeschneiderte Anwendungen an, die von einer Vielzahl von Benutzern zur Erledigung von Routineaufgaben verwendet werden können. Cloud-Dienstleister bieten ihren Benutzern auch Programmierschnittstellen, die es Entwicklern ermöglichen, Anwendungen effizient zu entwerfen und bereitzustellen. Darüber hinaus ist es für Cloud-Dienstleister sehr wichtig, Ressourcen basierend auf der Auslastung der Anwendungen zu regulieren und Rechenressourcen und Speicher bereitzustellen. Trotz der Vorteile von Cloud-Computing ist es für Cloud-Benutzer schwierig, Anwendungen von einer Plattform auf eine andere zu portieren. Diese Schwierigkeit ist aufgrund der Kosten und der Komplexität der Portierung solcher Anwendungen unvermeidlich. Darüber hinaus ist es für die Cloud-Dienstleister unerlässlich, Ressourcen basierend auf Workloads oder Ausfällen auf dem System anzupassen. In diesem Papier werden Schlüsselkonzepte des Managements von Cloud-Anwendungen, Probleme und Entwicklung erörtert und auch aktuelle einschlägige Literatur zum Management von Cloud-Anwendungen überprüft. Dieses Papier untersucht aktuelle Trends im Bereich des Cloud-Anwendungsmanagements und bietet einen Leitfaden für die zukünftige Forschung. In diesem Beitrag geht es vor allem darum, die folgenden Fragen zu beantworten: Was ist die aktuelle Entwicklung und der Trend im Cloud-Anwendungsmanagement? In Zeitschriften, Konferenzen und Whitepapers veröffentlichte Artikel wurden analysiert. Das Ergebnis dieser Überprüfung zeigt, dass im Bereich Vertrauensmanagement und Sicherheit in Bezug auf das Management von Cloud-Anwendungen unzureichend diskutiert wird. Dies wäre für potenzielle Cloud-Nutzer, Forscher und Anbieter von Cloud-Diensten gleichermaßen von Vorteil.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-95171-3_54 d3cfa5aa18c27b1badb499c4b2e6b24b;de;;;5.1.;;;Glyphenbasierte Videovisualisierung auf Google Map zur Überwachung in Smart Cities Videovisualisierung (VV) gilt als wesentlicher Bestandteil der Multimedia Visual Analytics. Aus dem enormen Videoinhalt von Kameras ergeben sich viele Herausforderungen, die mit Hilfe von Data Analytics gelöst werden können und damit an Bedeutung gewinnen. Der schnelle Fortschritt der digitalen Technologien hat jedoch zu einer Explosion von Videodaten geführt, was den Bedarf an der Erstellung von Computergrafiken und Visualisierungen aus Videos stimuliert. Insbesondere im Paradigma der Smart Cities kann die Videoüberwachung als weit verbreitete Technologie eine riesige Menge an Videos aus einer 24/7-Überwachung generieren. In diesem Artikel wurde ein hochmoderner Algorithmus für die 3D-Konvertierung von Verkehrsvideoinhalten in Google Map vorgeschlagen. Die zeitgestempelte glyphenbasierte Visualisierung wird effektiv in Überwachungsvideos im Freien verwendet und kann für die ereignisbezogene Erkennung verwendet werden. Diese Form der Verkehrsvisualisierung kann potenziell die Datenkomplexität reduzieren und eine ganzheitliche Sicht aus einer größeren Sammlung von Videos ermöglichen. Die Wirksamkeit des vorgeschlagenen Schemas wurde durch den Erwerb mehrerer unbearbeiteter Überwachungsvideos und durch das Testen unseres Algorithmus an ihnen ohne ihre entsprechenden Feldbedingungen gezeigt. Experimentelle Ergebnisse zeigen, dass die vorgeschlagene Visualisierungstechnik vielversprechende Ergebnisse liefert und sich als effektiv erwiesen hat, sinnvolle Informationen zu übermitteln, während die Notwendigkeit der Suche nach enormen Videodatenmengen verringert wird.;-;-;-;https://link.springer.com/article/10.1186/s13640-017-0175-4 2e58af49bc6a6ff27982217ab47edb1b;de;;;5.1.;;;Was ist mit mir passiert, als ich im Krankenhaus war? Herausforderungen und Chancen für die Erstellung patientenfreundlicher Krankenhausübersichten Das Verstehen medizinischer Informationen ist eine herausfordernde Aufgabe, insbesondere für Menschen, die keine formale medizinische Ausbildung erhalten haben. Wenn Patienten aus dem Krankenhaus entlassen werden, erhalten sie lange medizinische Dokumente, die komplizierte Terminologien enthalten. Studien haben gezeigt, dass Menschen, die den Inhalt ihrer Gesundheitsdokumente nicht verstehen, weder nach neuen Informationen zu ihrer Krankheit suchen noch Maßnahmen ergreifen, um ihr Gesundheitsproblem zu verhindern oder sich davon zu erholen. In diesem Artikel heben wir die Notwendigkeit hervor, personalisierte Zusammenfassungen des Krankenhausaufenthalts zu erstellen, und verschiedene Forschungsherausforderungen, die mit dieser Aufgabe verbunden sind. Die vorgeschlagenen Anweisungen werden direkt durch unsere laufende Arbeit an der Erstellung prägnanter und verständlicher Zusammenfassungen von Krankenhausaufenthalten beeinflusst, die auf das Verständnis der Patienten für medizinische Terminologien und das Engagement zur Verbesserung ihrer eigenen Gesundheit zugeschnitten sind. Unsere vorläufige Auswertung zeigt, dass unsere Zusammenfassungen die erforderlichen medizinischen Konzepte effektiv darstellen.;-;-;-;https://link.springer.com/article/10.1007/s41666-018-0036-7 bb19a4c760e3f8601084267855505182;de;;;5.1.;;;Eine verallgemeinerte Soft-Likelihood-Funktion beim Kombinieren von Multi-Source-Vermutungsverteilungsfunktionen Die Likelihood-Funktion hat erhebliche Vorteile im Bereich der statistischen Inferenz. Basierend auf dieser Theorie schlug Yager eine weiche Wahrscheinlichkeitsfunktion vor, um sie breiter zu verwenden. Die Methode von Yager kann jedoch nur mit Wahrscheinlichkeiten umgehen, die durch scharfe Werte ausgedrückt werden, und unterliegt strengen Beschränkungen in Bezug auf die Form der Daten. Aufgrund der menschlichen Subjektivität und des Mangels an effektiven Informationen ist es unvermeidlich, dass Datenunsicherheiten mit sich bringen. Um mit den unsicheren Daten flexibler und intuitiver umzugehen und die komplexen Probleme in realen Anwendungen zu lösen, wird in diesem Beitrag eine verallgemeinerte Soft-Likelihood-Funktion bei der Kombination von Multi-Source-Belief-Verteilungsfunktionen vorgeschlagen. Im Gegensatz zu anderen bestehenden Methoden verwendet dieses Papier eine Verteilungsfunktion, um unsichere Informationen darzustellen, die ursprünglichere Informationen beibehalten und die Glaubwürdigkeit der Ergebnisse verbessern können. Der Erwartungswert und die Varianz werden verwendet, um die erhaltenen Beweise einzustufen, und die Beweise, die mehr zu den Ergebnissen beitragen, werden höher eingestuft. Schließlich werden die zuverlässigen Wahrscheinlichkeitsergebnisse erhalten. Die vorgeschlagene Methode erweitert die Methode von Yager und kann in unsichereren Umgebungen gut funktionieren. Mehrere numerische Beispiele und vergleichende experimentelle Simulationen werden verwendet, um die Effizienz der vorgeschlagenen Soft Likelihood-Funktion zu veranschaulichen.;-;-;-;https://link.springer.com/article/10.1007/s10489-021-02366-7 fc7c37aa470de27a1e0cc78fbce2079e;de;;;5.1.;;;Ein linearer Algorithmus zur Analyse von Array-CGH-Daten mithilfe der Log-Ratio-Triangulation Die DNA-Kopienzahl ist die Anzahl der Replikate eines zusammenhängenden DNA-Segments im Genom. Kopienzahländerung (CNA) ist eine genetische Anomalie, bei der die Anzahl dieser Segmente von der normalen Kopienzahl abweicht, die für menschliche chromosomale DNA zwei beträgt. Die Assoziation von CNA mit Krebs hat zu einer Zunahme der Forschung an algorithmischen Verfahren zum Nachweis dieser Regionen mit genetischer Abnormalität geführt. Wir schlagen einen Linear-Zeit-Algorithmus vor, um chromosomale Änderungspunkte unter Verwendung von Array Comparative Genomic Hybridization (aCGH)-Daten zu identifizieren. Dieses Verfahren behandelt log-2-Verhältniswerte als Punkte in einem Dreieck und segmentiert das Genom in Regionen mit gleicher Kopienzahl, indem die Eigenschaften von log-2-Verhältniswerten ausgenutzt werden, die häufig an Segmentgrenzen beobachtet werden. Die Anwendung unserer Methode auf reale und simulierte aCGH-Datensätze zeigt, dass die Triangulationsmethode schnell und robust für Daten mit geringem bis moderatem Rauschpegel ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01551-9_25 da1f1e72ba4093cf8a81b841b06ecfba;de;;;5.1.;;;Visuelles Tracking in Echtzeit basierend auf verbessertem wahrnehmungsbezogenem Hashing Die Verfolgung von Videoobjekten ist ein sehr wichtiger Bereich der Computer Vision. In diesem Artikel wird ein auf Wahrnehmungs-Hashing basierendes Template-Matching-Verfahren für die Objektverfolgung vorgeschlagen, um Objekte in anspruchsvollen Videosequenzen effizient zu verfolgen. Im Tracking-Prozess wenden wir zunächst drei bestehende grundlegende perzeptuelle Hashing-Techniken auf das visuelle Tracking an, nämlich Average Hash (aHash), Perceptive Hash (pHash) und Difference Hash (dHash). Verglichen mit bisherigen Tracking-Methoden wie Mean-Shift oder Compressive Tracking (CT) übertrifft das perzeptuelle Hashing-basierte Tracking die Effizienz und Genauigkeit. Um die Genauigkeit der Objektlokalisierung und die Robustheit des Trackings weiter zu verbessern, schlagen wir Laplace-based Hash (LHash) und Laplace-based Difference Hash (LDHash) vor. Durch einen qualitativen und quantitativen Vergleich mit einigen repräsentativen Tracking-Algorithmen zeigen experimentelle Ergebnisse, dass unsere verbesserten perzeptuellen Hashing-basierten Tracking-Algorithmen unter verschiedenen herausfordernden Umgebungen in Bezug auf Zeitaufwand, Genauigkeit und Robustheit gegenüber den hochmodernen Algorithmen günstig abschneiden. Da unser verbessertes wahrnehmungsbezogenes Hashing eine kompakte und effiziente Darstellung von Objekten sein kann, kann es weiter zur Verschmelzung mit Tiefeninformationen für eine robustere RGB-D-Videoverfolgung verwendet werden.;-;-;-;https://link.springer.com/article/10.1007/s11042-016-3723-5 56d5a6cffa2fffee79fcf491eb979541;de;;;5.1.;;;Einfluss der Finanzierung auf die optimale Allokation von F&E-Ressourcen Die wichtigsten Ergebnisse dieses Papiers sind: 1) die F&E-Anstrengungen in einer Organisation als finanzielle Investition zu betrachten und 2) Methoden für optimale F&E-Investitionen vorzuschlagen. Wenn der Return-on-Investment für die F&E leicht abgeschätzt werden kann, können die üblichen Investitionsbewertungsmethoden zur Optimierung erweitert werden. Wenn eine direkte Schätzung der Rendite schwierig ist, wird stattdessen eine Größe verwendet, die als äquivalenter Return-on-Investment bezeichnet wird. Es wird eine Methode zur Bestimmung des äquivalenten Return-on-Investment aus einer willkürlich skalierten Nutzenfunktion vorgeschlagen, die eine Möglichkeit zur Optimierung des Investitionsniveaus für F&E-Aktivitäten bietet, die nicht ausschließlich produktorientiert sind.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0006624 9c6e880d6511680d4ec18c4ddea5a4bd;de;;;5.1.;;;Neuronale Netzwerk-basierte Indoor-Positionierung mit virtuellen projektiven Invarianten Indoor Positioning Techniken sind aufgrund des hohen Marktwerts bei der Bereitstellung von standortbezogenen Diensten über Smartphones und On-Demand-Dienste zu einem zentralen Forschungsthema für zukünftige Smart Services geworden. Im Fall der Bildsensorkommunikation (ISC) besteht einer der Hauptvorteile des Indoor-Navigationssystems darin, dass die LED selbst ihre Standortinformationen über Kommunikation mit sichtbarem Licht übertragen kann. Darüber hinaus verfügt die Kamera in der Regel über einen Einfallswinkelsensor, der eine genaue Bestimmung der Benutzerposition, aber auch der Benutzerorientierung ermöglicht. Aufgrund der nichtlinearen und sehr komplizierten Beziehung zwischen 3D-Szenerie und einem abgebildeten 2D-Bild ist jedoch die Entwicklung eines komplexen mathematischen Modells erforderlich, um die Benutzerposition mit einer Kamera zu schätzen. Neuronale Netze sind ein guter Ansatz, um diese komplizierte Beziehung zu minimieren. Somit ist es möglich, eine präzise Positionierungstechnik ohne kompliziertes mathematisches Modell zwischen der 3D-Welt und den 2D-Bildkoordinaten zu entwickeln. In diesem Beitrag wird eine auf neuronalen Netzwerken basierende neuartige Positionierungstechnik vorgeschlagen. Das vorgeschlagene Verfahren nutzt die projektiv invarianten Eigenschaften einer Linie, die mit Hilfe von ISC virtuell konstruiert wird. Dann wird ein neuronales Netzschema verwendet, um die Kameraorientierungsinformationen aus dieser virtuellen Linie zu extrahieren. Als nächstes wird eine einfache mathematische Gleichung verwendet, um die Benutzerposition zu schätzen. Simulationsergebnisse zeigen, dass das vorgeschlagene Verfahren eine bessere Leistung als die vorherigen Verfahren aufweist.;-;-;-;https://link.springer.com/article/10.1007/s11277-016-3177-0 a51db9699fb6f511d1befa39da217056;de;;;5.1.;;;Metamodell-Matching basierend auf Planar Graph Edit Distance Voraussetzung für die Durchführung einer Modelltransformation ist ein Mapping zwischen Metamodellelementen. Ein Mapping besteht aus Übereinstimmungen und erfordert die Aufgabe, semantische Korrespondenzen zwischen Elementen zu entdecken. Diese Aufgabe wird als Metamodell-Matching bezeichnet. Kürzlich wurde halbautomatischer Abgleich vorgeschlagen, um die Transformationsentwicklung durch Mapping-Erzeugung zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13688-7_17 10a708f0994fd81e7c2bc4942c7c8ce8;de;;;5.1.;;;Abbildung molekularer Datensätze zurück zu den Gehirnregionen, die sie extrahiert haben: Erinnerung an die Heimatländer von Hypothalamus-Expatriates und Flüchtlingen Dieser Artikel konzentriert sich auf Ansätze, um transkriptomische, proteomische und peptidomische Datensätze, die aus Hirngewebe gewonnen wurden, mit den ursprünglichen Orten im Gehirn zu verknüpfen, aus denen sie mithilfe digitaler Atlas-Mapping-Techniken abgeleitet wurden. Als Beispiel verwenden wir die transkriptomischen, proteomischen und peptidomischen Analysen, die im Hypothalamus von Säugetieren durchgeführt wurden. Nach einem kurzen historischen Überblick heben wir Studien hervor, die biochemische und molekulare Informationen aus dem Hypothalamus gewonnen haben, und legen dann eine Strategie fest, wie diese Daten räumlich mit den kartierten Orten in einem kanonischen Gehirnatlas verknüpft werden können, aus denen die Daten stammen Forscher, diese Daten mit anderen Datensätzen über mehrere Skalen hinweg zu integrieren. Eine Schlüsselmethodik, die eine Atlas-basierte Kartierung extrahierter Datensätze ermöglicht – die Laser-Capture-Mikrodissektion – wird ausführlich diskutiert, um zu sehen, wie diese Technologie eine Brücke zwischen Systembiologie und Systemneurowissenschaften bildet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94593-4_6 aef23f6e0271fb8dfa201bde690d2f40;de;;;5.1.;;;Extrahieren von E-R-Modellen aus Collaboration Analysis Methods, MCM und CLM Damit Zusammenarbeitsaufgaben effektiv funktionieren, ist es sehr wichtig zu analysieren, was die Mitarbeiter tun, in welcher Position sie sich befinden und wie sie miteinander kommunizieren. Multi-Context Maps (MCM) und Collaborative Linkage Maps (CLM) bilden zusammen eine Lösung für solche Anforderungen. Diese Methoden analysieren die Position jedes Mitarbeiters genau, sodass diese Modelle wichtige Informationen im Prozess erfassen. In diesem Beitrag schlagen wir vor, E-R-Modelle, die in den frühen Phasen häufig zum Entwerfen von Datenbanken verwendet werden, aus MCM und CLM zu extrahieren. Der Prozess der Zusammenstellung von E-R-Modellen beruht immer noch auf der Erfahrung oder der Intuition der Designer, was oft zu einer unzureichenden Formalisierung komplexer Anforderungen führt. Unsere Extraktion bietet eine systematische Methode zum Entwerfen von Datenmodellen. Wir schlagen auch vor, wie das extrahierte Modell beim Entwurf von Datenbanken angewendet wird.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-46140-X_3 a91cea4bdd4ff1b1fefb59858a6c7caf;de;;;5.1.;;;Rekalibrierung des visuellen Stabilitätsmechanismus tritt in einem visuellen System höherer Ordnung auf Wir haben untersucht, ob ein Anpassungseffekt in einer virtuellen Umgebung auftritt, in der ein Ausmaß der durch die Kopfdrehung verursachten Netzhautbildbewegung in Abhängigkeit vom Ausmaß der Drehung moduliert wird. Wir haben den Wert #x201C,Gain#x201D, als das Verhältnis von #x201C,der Winkelgeschwindigkeit der Netzhautbewegung in der virtuellen Umgebung#x201D, zu #x201C,der Winkelgeschwindigkeit der Kopfbewegung in der realen Umgebung#x201D, definiert. In der Adaptationsphase, in der einer von drei Gains (0,5, 1,0 und 1,5) adaptiert wurde, drehten die Probanden den Kopf, die Phase dauerte eine Periode (3 min). Unmittelbar danach passten sie den Gain an, um in der Testphase eine #x201C,stabile Umgebung#x201D wahrzunehmen. Die Ergebnisse zeigten, dass sich die angepassten Gains in der Testphase tendenziell zu den angepassten Gains verschieben. Darüber hinaus testeten wir, ob der Anpassungseffekt im somatischen System auftritt und ob ein interokularer Transfer stattfindet, und stellten fest, dass das somatische System nicht durch Eintauchen in die widersprüchliche Umgebung moduliert wurde, sondern ein interokularer Transfer beobachtet wurde. Diese Ergebnisse zeigen, dass sich unser visuelles Stabilitätssystem innerhalb kurzer Minuten an solche virtuellen Umgebungen anpassen kann und dass der Anpassungseffekt in unserem binokularen visuellen System auftritt.;-;-;-;https://link.springer.com/article/10.1007/s10043-006-0111-9 c655a11d49c1a7b665412176c2597af1;de;;;5.1.;;;Agentenbasiertes Supportsystem für Projektteaming für Telearbeiter Telearbeit wird zu einem wichtigen Aspekt unseres sozialen Lebens und wirft viele neue Probleme auf, die wir lösen müssen, z.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-32128-6_21 2349a51b451867c8ff7ddcd0d0441c88;de;;;5.1.;;;Roboter, die Ratschläge annehmen Mobile Roboter müssen mit dem Menschen interagieren, wenn sie nützliche Aufgaben erfüllen und in offenen Umgebungen akzeptiert werden sollen. Die Reaktion des Roboters auf den Menschen bedeutet im Grunde genommen, ihn weder direkt noch indirekt zu verletzen, z. B. den Menschen als Hindernis bei der Ausführung einer Aufgabe zu behandeln. Roboter werden nützlicher sein, wenn sie auf raffiniertere Weise interagieren können. Hier identifizieren wir eine Reihe nützlicher Roboter/Mensch-Interaktionsmodi: Teilnahme, Beratung und Aufgaben. Alle drei beinhalten komplexe Erfassungs- und Planungsvorgänge seitens des Roboters, einschließlich der Verwendung von visueller Verfolgung von Menschen, Gestenerkennung sowie Spracherkennung und -verständnis. Wir zeigen, wie diese Fähigkeiten in die Saphira-Architektur auf Flakey, einem mobilen Robotertestbed, integriert werden. Wir demonstrieren ein Szenario, in dem ein ungeschulter Vorgesetzter Flakey in eine Büroumgebung einführen und ihm befehlen kann, Lieferaufgaben auszuführen.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0035228 c38fa0621e4604a9910864d95cd79edf;de;;;5.1.;;;Integrationsansatz zur formalen Verifizierung für DSML Die Anwendung formaler Methoden (insbesondere Model Checking und statische Analysetechniken) zur Verifikation sicherheitskritischer eingebetteter Systeme hat sehr gute Ergebnisse gebracht und das Interesse von Systemdesignern an der Anwendung dieser Technologien in realen Projekten geweckt. Diese Methoden beruhen jedoch in der Regel auf bestimmten verifikationsorientierten formalen Sprachen, die die meisten Designer nicht beherrschen. Daher ist es zwingend erforderlich, die zugehörigen Tools in automatisierte Verifikations-Toolchains einzubetten, die es Designern ermöglichen, sich auf ihre üblichen domänenspezifischen Modellierungssprachen (DSMLs) zu verlassen und gleichzeitig die Vorteile dieser leistungsstarken Methoden zu nutzen. Genauer gesagt schlagen wir eine Sprache vor, um Systemanforderungen formal auszudrücken und Verifikationsergebnisse zu interpretieren, damit Systemdesigner (DSML-Endbenutzer) die Last des Erlernens einiger formaler Verifikationstechnologien vermeiden. Formale Verifikation wird durch translationale Semantik erreicht. Diese Arbeit basiert auf einem Metamodellierungsmuster für ausführbare DSML, das die Definition generativer Werkzeuge begünstigt und somit die Integration von Werkzeugen für neue DSMLs erleichtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41533-3_21 e98608ababf00bd7f0253e53a291dc77;de;;;5.1.;;;Modellprädiktive Steuerung für das Internet der Dinge In diesem Kapitel argumentieren wir, dass die modellprädiktive Steuerung (MPC) eine sehr leistungsfähige Technik sein kann, um einige der Herausforderungen zu mildern, die beim Design und Einsatz von Steuerungsalgorithmen im Kontext des Internets der Dinge entstehen. Die Entwicklung neuer Low-Power-Kommunikationstechnologien und die weit verbreitete Verfügbarkeit von Sensor- und Rechenfähigkeiten, die für das Internet der Dinge charakteristisch sind, ermöglichen die Berücksichtigung einer Vielzahl von Verbindungs- und Rückkopplungsschleifen. Dies bringt jedoch auch wichtige Herausforderungen mit sich, wie die sehr begrenzten Kommunikationsfähigkeiten von Low-Power-Wide Area Networks oder die begrenzten Rechenressourcen von kostengünstigen Mikrocontrollern. Wir argumentieren, dass MPC als prädiktives Steuerungsschema eine leistungsstarke Technik ist, um mit begrenzten Kommunikationsfähigkeiten umzugehen und natürlich auf den Kontext der verteilten Steuerung für Fälle erweitert werden kann, in denen nicht alle Sensorinformationen zentralisiert werden können. Wir präsentieren auch einen Ansatz zur approximativen Lösung von MPC-Problemen mit Hilfe von tiefen neuronalen Netzen, die die eingebettete Implementierung komplexer Controller auch auf sehr begrenzter Hardware ermöglichen. Die Ideen werden am Beispiel einer verteilten modellprädiktiven Steuerung eines intelligenten Gebäudes veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63281-6_7 90e2d7f7fea1084746aeb16baf85c390;de;;;5.1.;;;Landnutzungsänderung und Landdegradation im südöstlichen Mittelmeer Spanien Das Ausmaß der ökologischen und sozialen Folgen von Bodenerosion und Landdegradation in semiariden Gebieten des Mittelmeerraums ist seit langem bekannt und wird untersucht. Dieses Papier untersucht die Wechselbeziehung zwischen Landnutzungs-/Bedeckungsänderungen (LULC) und Landdegradation anhand von Fernerkundungs- und Zusatzdaten für Südostspanien. Das Untersuchungsgebiet, das Einzugsgebiet des Xaló-Flusses im Norden der Provinz Alicante, war in der zweiten Hälfte des 20. Jahrhunderts einer Reihe von LULC-Änderungen wie der Aufgabe der Landwirtschaft, Waldbränden und der touristischen Entwicklung ausgesetzt. Zur Abgrenzung historischer LULC-Typen wurden Luftbilder aus dem Jahr 1956 verwendet, Landsat ETM+-Daten zur Analyse und Kartierung der aktuellen Verhältnisse. Zwei wichtige Indikatoren der Bodendegradation, nämlich die Anfälligkeit für Oberflächenabfluss und Bodenerosion, wurden für die beiden Daten mit leicht parametrisierbaren Modellen geschätzt. Der Vergleich der Verhältnisse von 1956 bis 2000 zeigt einen insgesamt „erholenden“ Trend über das Einzugsgebiet und eine erhöhte Anfälligkeit für Bodenerosion nur in 3% des Einzugsgebiets. Die Ergebnisse identifizieren auch potenzielle Hotspots der Verschlechterung, an denen Minderungsmaßnahmen ergriffen werden sollten, um eine weitere Verschlechterung zu verhindern. Die leicht implementierte Methodik, die auf den bescheidenen Datenanforderungen basiert, die in dieser Studie gezeigt wurden, ist ein nützliches Instrument für die Erfassung von Landnutzungsänderungen und Landdegradationsstudien auf regionaler Ebene sowie für die strategische Planung für das Umweltmanagement.;-;-;-;https://link.springer.com/article/10.1007/s00267-004-0059-0 739dc44bf46061e5d95075110a3430d1;de;;;5.1.;;;Leistungsmängel im KAD-Netzwerk nachschlagen Das KAD-Netzwerk ist eine der größten verteilten Hash-Tabellen (DHT), die in der realen Welt eingesetzt werden. DHT wurde entwickelt, um einen skalierbaren Peer-to-Peer-Suchdienst bereitzustellen. Seine Suchleistung in der realen Welt wird jedoch als ineffizient erkannt. Wir haben weitreichende Messungen im KAD-Netzwerk durchgeführt, um diese Ineffizienz zu bewerten, indem wir das Peer-Verhalten beim Veröffentlichen und Abrufen von Informationen mithilfe von Routing- und Publishing-Tabellen untersucht haben. Unsere Messungen zeigen, dass das derzeitige Aktualisierungsschema der Veröffentlichung von Tabellen und das Fehlen einer wirksamen Anreizpolitik zu Leistungseinbußen bei der Suche führen, obwohl Routing-Tabellen gut gepflegt sind. Basierend auf unseren Erkenntnissen schlagen wir drei Verbesserungskonzepte vor, analysieren deren Stärken und geben Vorschläge zur Umsetzung.;-;-;-;https://link.springer.com/article/10.1007/s11036-013-0492-5 6003e1a99da304f82e773343d746f7b8;de;;;5.1.;;;Zugangskontrolle im industriellen Internet der Dinge Das Industrial Internet of Things (IIoT) ist ein Ökosystem, das unter anderem aus verschiedenen vernetzten Sensoren und Aktoren besteht und vor allem Fortschritte in Bezug auf die Senkung der Produktionskosten und die Flexibilität der Arbeitsabläufe erzielt. Die Einführung der Zugangskontrolle in solchen Umgebungen wird als Herausforderung angesehen, hauptsächlich aufgrund der Vielfalt der Technologien und Protokolle in IIoT-Geräten und -Netzwerken. Daher sollten verschiedene Zugangskontrollmodelle und -mechanismen sowie die zusätzlichen Zugangskontrollanforderungen dieser industriellen Umgebungen untersucht werden. Um diese Ziele zu erreichen, erarbeiten wir bestehende State-of-the-Art-Zugangskontrollmodelle und -architekturen bzw. untersuchen Zugangskontrollanforderungen im IIoT. Diese Schritte liefern wertvolle Hinweise darauf, welche Art von Zugriffskontrollmodell und Architektur für die Anwendung im IIoT von Vorteil sein können. Wir beschreiben eine Zugangskontrollarchitektur, die eine Zugangskontrolle im IIoT mit einem mehrschichtigen Ansatz und basierend auf bestehenden Virtualisierungskonzepten (z. B. der Cloud) ermöglicht. Darüber hinaus geben wir Auskunft über die Funktionalität der einzelnen zugangskontrollrelevanten Komponenten und wo diese in der Gesamtarchitektur zu platzieren sind. Angesichts der Tatsache, dass dieses Forschungsgebiet eine Herausforderung darstellt, diskutieren wir schließlich offene Fragen und antizipieren diese Richtungen, um interessante multidisziplinäre Einblicke sowohl in die Industrie als auch in die Wissenschaft zu liefern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-12330-7_5 de6f5ce6ad4730d179a21c0944fba715;de;;;5.1.;;;Ein allgemeiner Rahmen für die Multi-Roboter-Kooperation und ihre Implementierung auf einem Set von drei Hilare-Robotern Wir präsentieren ein allgemeines Konzept zur Steuerung einer großen Flotte autonomer mobiler Roboter, das durch verschiedene Experimente entwickelt, implementiert und validiert wurde.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0035194 38372dc2be867146a3a4178d4085535a;de;;;5.1.;;;Fehlererkennung des DC-Leistungsflusses mittels Zustandsschätzung In den letzten Jahren haben der Energieverbrauch und seine Umweltauswirkungen, eine zuverlässige Energieversorgung und die nachhaltige Entwicklung von Energie- und Stromnetzen immer größere Bedenken gezogen. Diese Probleme motivieren die Entwicklung von Smart Grid (SG) als neuartiges Mittel für ein weltweites Stromnetz [1]. In diesem Zusammenhang hängt der optimale Betrieb der Stromversorgungssysteme davon ab, den Leistungsfluss durch die Übertragungsleitungen im Netz zu finden. Der Gleichstrom-Leistungsfluss wurde weit verbreitet verwendet, um das Leistungsflussproblem in den Übertragungsnetzen anzugehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-45050-6_3 5ac3b68b35ef18226295be5c657b2e95;de;;;5.1.;;;FPGA-Beschleuniger-Design mit OpenCL OpenCL-basiertes FPGA-Design umfasst mehrere Aufgaben wie Emulation, Profiling, Debugging und Optimierung. In diesem Kapitel wird der Entwurfsprozess im Detail erläutert. Außerdem wird beschrieben, wie verschiedene Berichte interpretiert werden, die in verschiedenen Phasen des Designprozesses generiert werden, und wie sie für das Debugging und die Leistungsoptimierung verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-68161-0_3 301755d454e67ccb2ce3f7e6196c4e88;de;;;5.1.;;;Diskriminierung von Erdbeben und Steinbrüchen im Distrikt Edirne (Türkei) und Umgebung durch Anwendung eines linearen Diskriminationsfunktionsverfahrens und künstlicher neuronaler Netze In dieser Studie wurden seismische Ereignisse im Distrikt Edirne (Türkei) und seiner Umgebung untersucht, um Erdbeben von Steinbruchsprengungen zu unterscheiden. Insgesamt 150 seismische Ereignisse mit Md ≤ 3,5 Dauermagnitude aus einem seismischen Aktivitätskatalog zwischen 2009 und 2014, aufgezeichnet von den Breitbandstationen Enez (ENEZ), Erikli (ERIK) und Gelibolu (GELI), die von der Boğaziçi University, dem Kandilli Observatory und der Erdbebenforschung betrieben werden In dieser Studie wurden die regionalen Erdbeben- und Tsunami-Überwachungszentren des Instituts verwendet. Das maximale S-Wellen- und maximale P-Wellen-Amplitudenverhältnis der Vertikalkomponentengeschwindigkeits-Seismogramme, das Leistungsverhältnis (Komplexität) und die Gesamtsignaldauer der Wellenform wurden berechnet. Erdbeben und Steinbruchsprengungen wurden unter Verwendung der linearen Diskriminationsfunktion (LDF) und rückausbreitenden Feed-Forward-Neuralnetzwerken, einem Lernalgorithmus für künstliche neuronale Netze (ANN), unter Berücksichtigung des Bestimmungskoeffizienten und der Varianzkontowerte zwischen diesen Parametern diskriminiert. Einundachtzig (54 %) der insgesamt 150 untersuchten seismischen Ereignisse wurden als Erdbeben bestimmt, und neunundsechzig (46 %) davon als Steinbruchsprengungen. Die Methoden LDF und ANNs wurden auf die Daten in Edirne und Umgebung mit einem Parameterpaar angewendet und erstmals miteinander verglichen. Die Genauigkeit der Methoden beträgt 95 % bzw. 99 % für LDF und KNN.;-;-;-;https://link.springer.com/article/10.1007/s11600-020-00519-9 fbb4a69751ac2d3837e9a97b57c9c54a;de;;;5.1.;;;Neuartige Ansätze zur eindirektionalen zweidimensionalen Hauptkomponentenanalyse im Hybridmuster-Framework In diesem Papier präsentieren wir Variationen der eindirektionalen zweidimensionalen Hauptkomponentenanalyse (2DPCA) im Hybridmuster-Framework. Unter Verwendung des Hybridmuster-Frameworks schlagen wir zwei neue Methoden vor, nämlich die erweiterte Sub-Image-Hauptkomponentenanalyse (ESIMPCA) und die erweiterte flexible Hauptkomponentenanalyse (EFLPCA). Die ESIMPCA arbeitet mit Teilbild und Vollbild gleichzeitig und erfasst die lokale und globale Variation von Bildern. Das Dimensionalitätsproblem von ESIMPCA-Merkmalsmatrizen wird durch weitere Anwendung von 2DPCA auf zweidimensionale ESIMPCA-Merkmalsmatrizen beseitigt, um EFLPCA-Merkmalsmatrizen zu erzeugen. Die Zusammenfassung von Varianzen, zeitlichen und räumlichen Komplexitäten der vorgeschlagenen Methoden und ihre Beziehung zu einigen bestehenden Variationen von unidirektionalen 2DPCAs werden behandelt. Das Experiment wird auf ORL- und YALE-Gesichtsdatenbanken mit unterschiedlichen Bildauflösungen durchgeführt. Die experimentellen Ergebnisse unter Verwendung von EFLPCA zeigen eine überlegene Leistung in Bezug auf Merkmalsdimension, Erkennungsgenauigkeit und Geschwindigkeit bei angemessenem Platzbedarf gegenüber einigen bestehenden Variationen von unidirektionalem 2DPCA.;-;-;-;https://link.springer.com/article/10.1007/s00521-018-3892-4 07cec0fd0a9b5bd477d0536cd311c425;de;;;5.1.;;;Ein probabilistisches Maß für die Zirkularität Der Kreis ist eine nützliche morphologische Struktur: In vielen Situationen konzentriert sich die Bedeutung auf die Messung der Ähnlichkeit eines perfekten Kreises mit dem interessierenden Objekt. Traditionell werden die wohlbekannten geometrischen Strukturen als nützliche geometrische Deskriptoren verwendet, aber eine adäquate Charakterisierung und Erkennung wird stark durch Szenarien und physikalische Beschränkungen (wie unter anderem Auflösung und Rauscherfassung) beeinflusst. Daher schlägt diese Arbeit ein neues Zirkularitätsmaß vor, das mehrere Vorteile bietet: Es wird nicht durch Überlappung, Unvollständigkeit von Grenzen, Invarianz der Auflösung oder Genauigkeit der Grenzerkennung beeinflusst. Der vorgeschlagene Ansatz behandelt das Problem als stochastische nicht-parametrische Aufgabe, die Maximierung der Wahrscheinlichkeit des Beweises wird verwendet, um die wahre Grenze der Daten zu entdecken, die den Kreis darstellen. Um die Wirksamkeit unseres Vorschlags zu validieren, haben wir ihn mit zwei kürzlich wirksamen Maßen verglichen: der mittleren Rundheit und dem Radiusverhältnis.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34732-0_6 305a6fceb2e9f791b5d0a7fcbd39fab2;de;;;5.1.;;;Ein Unterstützungssystem für gewohnheitsmäßiges Journaling Was ist „Tagebuch“? In Kojien, dem bekanntesten japanischen Wörterbuch, heißt es: „Ein Tagebuch ist eine Aufzeichnung der täglichen Ereignisse und ein Bericht über die Gefühle und Gedanken eines Besitzers.“;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-65796-3_23 11704ca82954deaaa6fdf0af33d2b91a;de;;;5.1.;;;Konsistenz von Feature-Markov-Prozessen Wir untersuchen die langfristige Sequenzvorhersage (Prognose). Wir nähern uns dem an, indem wir Kriterien für die Auswahl einer kompakten nützlichen Zustandsdarstellung untersuchen. Der Staat soll nützliche Informationen aus der Historie zusammenfassen. Wir wollen eine Methode, die in dem Sinne asymptotisch konsistent ist, dass sie nachweislich letztendlich nur zwischen Alternativen wählt, die eine Optimalitätseigenschaft in Bezug auf das verwendete Kriterium erfüllen. Wir erweitern unsere Arbeit auf den Fall, dass es Nebeninformationen gibt, die man sich zunutze machen kann, und diskutieren darüber hinaus kurz das aktive Setting, in dem ein Agent Maßnahmen ergreift, um wünschenswerte Ergebnisse zu erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16108-7_29 5a2dec91637a3f2c291fe3be7dff8765;de;;;5.1.;;;Eine stark konsistente Transformation von UML-Interaktionen zu PEPA-Netzen Ein nahtloser Ansatz, der sowohl für das Design als auch für die Analyse von mobilen und verteilten Softwaresystemen geeignet ist, ist eine Herausforderung. In diesem Papier stellen wir einen neuen konstruktiven Ansatz vor, der Interaktionsdiagramme in UML mit PEPA-Netzen verknüpft, einer Leistungsmodellierungstechnik, die Funktionen zur Erfassung von Begriffen wie Standort, Synchronisation und Nachrichtenweitergabe bietet. Unsere formal definierte Transformation ist so definiert, dass ein PEPA-Netzmodell dieselbe Sprache wie ein gegebenes Interaktionsübersichtsdiagramm in UML realisiert. Außerdem sind die Sprachen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09156-3_7 59f9d338d17af4a679293c524fcabeef;de;;;5.1.;;;Methoden zum Ausblenden von Quanteninformationen Die Revolution der digitalen Information hat tiefgreifende Veränderungen in der Gesellschaft und in unserem Leben bewirkt. Die vielen Vorteile der generierten digitalen Informationen sowie neue Herausforderungen und Chancen im Bereich Innovation. Neben der leistungsfähigen Software sind neue Geräte wie Drucker, Scanner, Digitalkameras, MP3-Player etc. für die Erstellung, Handhabung und Nutzung multimedialer Daten erschienen. Das Internet und das drahtlose Netzwerk boten Kanäle zum Austausch von Informationen. Die Sicherheit und die korrekte Verwendung von Multimediadaten sowie die Bereitstellung der Multimediainhalte an verschiedene Benutzer sind ein weiteres sehr wichtiges Thema. Die Lösung dieser Probleme trägt nicht nur zu unserem besseren Verständnis der Geschwindigkeit der Technologieentwicklung bei, sondern bietet auch neue Explorationsmöglichkeiten. Alles, was folgt, befasst sich mit dem Thema Verbergen von Daten in Multimediadateien und Anwendungen in der Multimedia- und Kommunikationssicherheit. Angesichts der Leichtigkeit, mit der digitale Daten bearbeitet oder reproduziert werden, kommt dem Schutz und der Verhinderung der unbefugten Nutzung der Multimediadaten (Audio, Bild, Video, Dokumente) eine große Bedeutung zu. Eines der am häufigsten verwendeten elektronischen Formate, in denen Informationen heutzutage gefunden werden können, ist das digitale Bild.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-3517-2_22 78a767b77626a8c6b046f971a1f8998f;de;;;5.1.;;;Sprachübertragung mit COFDM basierend auf verschiedenen diskreten Transformationen In letzter Zeit haben sich die Multimedia- und Mobilfunktechnologien dramatisch verbreitet. Daher ist die Nachfrage nach digitalen Informationen gestiegen. Die Sprachkompression ist eine der effektivsten Kommunikationsformen. In diesem Beitrag werden drei Ansätze für die Übertragung komprimierter Sprachsignale über ein faltungskodiertes Orthogonal-Frequenzmultiplexsystem (COFDM) mit einer chaotischen Verschachtelungstechnik vorgestellt. Das Sprachsignal wird mit dem Algorithmus Set Partitioning In Hierarchical Trees (SPIHT) komprimiert, der eine verbesserte Version von EZW ist und sich durch ein einfaches und effektives Verfahren zur weiteren Komprimierung auszeichnet. Zur Minderung des Schwunds aufgrund von drahtlosen Mehrwegekanälen schlägt dieses Papier ein COFDM-System basierend auf einer fraktionierten Fourier-Transformation (FrFT), ein COFDM-System basierend auf einer diskreten Kosinustransformation (DCT) und ein COFDM-System basierend auf einer diskreten Wavelet-Transformation (DWT) vor. . Die FrFT hat die Fähigkeit, das Frequenzversatzproblem zu lösen, das bewirkt, dass die empfangenen Unterträger im Frequenzbereich verschoben werden, und daher verschlechtert sich die Orthogonalität zwischen Unterträgern selbst bei Entzerrung. Die DCT hat den Vorteil einer erhöhten Rechengeschwindigkeit, da nur echte Berechnungen erforderlich sind. Die DWT ist spektral effizient, da sie kein zyklisches Präfix (CP) verwendet. Diese Systeme wurden unter der Annahme entwickelt, dass korrumpierende Hintergrundgeräusche fehlen. Daher werden Rauschunterdrückungstechniken, nämlich Wavelet-Entrauschungs- und Wiener-Filterverfahren beim Empfänger vorgeschlagen, um eine Verbesserung der Sprachqualität zu erreichen. Die Simulationsexperimente zeigen, dass das vorgeschlagene COFDM-DWT mit Wiener-Filterung am Empfänger einen besseren Kompromiss zwischen BER, spektraler Effizienz und Signalverzerrung aufweist. Daher wird die BER-Leistung bei geringer Bandbreitenbelegung verbessert. Darüber hinaus wird aufgrund der Entrauschungsstufe die Sprachqualität verbessert, um eine gute Verständlichkeit zu erreichen.;-;-;-;https://link.springer.com/article/10.1007/s10772-016-9348-2 a42206920b5008fa540c6b97c2bcc26d;de;;;5.1.;;;PSO-basierte Zeitreihenmodelle, die in der Wechselkursprognose für das Business Performance Management verwendet werden Diese Forschung verwendete den PSO-Algorithmus, um drei neue Modelle, PSOGARCH, PSOEGARCH und PSOGJR-GARCH, zur Verbesserung des Business Performance Managements zu entwickeln. Die Tracking-Error-Methoden werden zwischen den Modellen verglichen, um ein Prognosemodell mit besserer Leistung zu erhalten. Die drei traditionellen Zeitreihenmodelle GARCH, EGARCH und GJR-GARCH werden verwendet, um Devisenprognosen durchzuführen, und deren Ergebnisse werden mit denen der Modelle PSOGARCH, PSOEGARCH und PSOGJR-GARCH verglichen. Das PSOGJR-GARCH-Modell hatte den kleinsten Fehler und die beste Vorhersagefähigkeit, gefolgt von den PSOEGARCH- und PSOGARCH-Modellen, wobei die traditionellen GARCH-Modelle die schlechteste Leistung aufwiesen.;-;-;-;https://link.springer.com/article/10.1007/s10660-014-9144-5 02b6b08a3958d8e6caf7eac0e102cc05;de;;;5.1.;;;Statische Typanalyse des Mustervergleichs durch abstrakte Interpretation Pattern Matching ist eines der attraktivsten Merkmale funktionaler Programmiersprachen. In letzter Zeit wurde der Mustervergleich auf Programmiersprachen angewendet, die die wichtigsten aktuellen objektorientierten Merkmale unterstützen. In diesem Beitrag stellen wir eine statische Typanalyse vor, die auf dem abstrakten Interpretationsrahmen basiert und darauf abzielt, die Vollständigkeit von Mustervergleichen und die Sicherheit von Typumwandlungen zu beweisen. Die Analyse besteht aus zwei unterschiedlichen abstrakten Domänen. Die erste Domäne sammelt Informationen über die dynamische Typisierung, während die zweite die Typen verfolgt, von denen ein Objekt keine Instanz sein kann. Die Analyse wurde implementiert und auf alle;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13464-7_15 1ca1256d392d332a2896a3981fce7500;de;;;5.1.;;;End-to-End-Video-Hintergrundsubtraktion mit 3D-Convolutional Neural Networks Die Hintergrundsubtraktion in Videos ist per Definition eine sehr anspruchsvolle Aufgabe, da sie auf einer pixelweisen Klassifizierungsebene liegt. Daher ist viel Liebe zum Detail unerlässlich. In diesem Paper verfolgen wir den Erfolg von Deep Learning in Computer Vision und präsentieren ein End-to-End-System zur Hintergrundsubtraktion in Videos. Unser Modell ist in der Lage, zeitliche Änderungen in einer Videosequenz zu verfolgen, indem 3D-Faltung auf die neuesten Frames des Videos angewendet wird. Somit muss kein Hintergrundmodell beibehalten und aktualisiert werden. Darüber hinaus kann es mehrere Szenen verarbeiten, ohne dass jede einzelne Szene einzeln angepasst werden muss. Wir evaluieren unser System anhand des größten Datensatzes zur Änderungserkennung, CDnet, mit über 50 Videos, die sich über 11 Kategorien erstrecken. Die weitere Auswertung erfolgt im ESI-Datensatz, der extreme und plötzliche Beleuchtungsänderungen aufweist. Unser Modell übertrifft den Stand der Technik in beiden Datensätzen gemäß der durchschnittlichen Rangfolge der Modelle über eine Vielzahl von Metriken.;-;-;-;https://link.springer.com/article/10.1007/s11042-017-5460-9 8afd5680c4e975f90d0a4f88fbffc87b;de;;;5.1.;;;Design von seitlichen Bandbewegungs- und Steuerungssystemen in Bandspeichern Bei Bandspeichersystemen ist die seitliche Bandbewegung (LTM) des flexiblen beweglichen Mediums der Hauptbegrenzungsfaktor für die Erhöhung der Spurdichte auf einem Magnetband. Ein Spurfolgesteuersystem wird verwendet, um die Fehlausrichtung zwischen dem Medium und dem Aufzeichnungskopf durch Kompensieren der seitlichen Bandvibrationen zu verringern und dadurch die erreichbaren Positionierungsgenauigkeiten zu bestimmen. In diesem Kapitel werden Verbesserungen der Track-Following-Fähigkeiten von Bandspeichersystemen besprochen. Insbesondere werden die Eigenschaften von LTM, der Hauptstörung im Bandspurfolgesystem, beschrieben. Bewertet werden auch Leitsystemkonzepte, die die Spurfolgeleistung verbessern, entweder durch eine Reduzierung des LTM oder durch eine Verbesserung des Spurfolgeleitsystems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22173-6_15 1f14233e7c71caba6156dcb7564d4d9d;de;;;5.1.;;;Modellierung der Entwicklung des Stadtwachstums und der Landnutzungsänderungen mit GIS-basierten zellularen Automaten und SLEUTH-Modellen: der Fall der Metropole Sanaa, Jemen Eine effektive und effiziente Planung von Stadtwachstum und Landnutzungsänderungen und deren Auswirkungen auf die Umwelt erfordert unter anderem Informationen über Wachstumstrends und -muster. Im Laufe der Jahre wurden viele Stadtwachstumsmodelle entwickelt und in den entwickelten Ländern zur Vorhersage von Wachstumsmustern verwendet. In den Entwicklungsländern gibt es jedoch nur sehr wenige Studien, die die Anwendung dieser Modelle und ihre Leistungsfähigkeit belegen. In dieser Studie werden zwei Modelle wie zelluläre Automaten (CA) und die SLEUTH-Modelle in einem geografischen Informationssystem (GIS) angewendet, um das Stadtwachstum und die Landnutzungsänderung für die Stadt Sanaa (Jemen) für den Zeitraum zu simulieren und vorherzusagen 2004–2020. Für das urbane Wachstumsmuster der Stadt wurden GIS-basierte Karten erstellt, die mit geostatistischen Techniken weiter analysiert wurden. Während der Modellkalibrierung wurden insgesamt 35 Jahre Zeitreihendatensätze wie historische topografische Karten, Luftbilder und Satellitenbilder verwendet, um die Parameter zu identifizieren, die das Stadtwachstum beeinflussten. Das Validierungsergebnis ergab eine Gesamtgenauigkeit von 99,6 %, wobei die Herstellergenauigkeit 83,3 % und die Anwendergenauigkeit 83,6 % betrug. Das SLEUTH-Modell verwendete die am besten passenden Wachstumsregelparameter während der Kalibrierung, um das zukünftige Stadtwachstumsmuster vorherzusagen, und generierte verschiedene Wahrscheinlichkeitskarten, in denen die einzelnen Gitterzellen unter Annahme einzigartiger „Stadtwachstumssignaturen“ urbanisiert sind. Die Modelle generierten zukünftige städtische Wachstumsmuster und Landnutzungsänderungen im Zeitraum 2004–2020. Beide Modelle erwiesen sich als effektiv bei der Vorhersage von Wachstumsmustern, die bei der Planung und Entscheidungsfindung nützlich sein werden. Im Vergleich dazu zeigte das CA-Modell-Wachstumsmuster eine Entwicklung mit hoher Dichte, bei der Wachstumsränder gefüllt und Cluster zu einer kompakten bebauten Fläche zusammengefügt wurden, in der weniger landwirtschaftliche Flächen enthalten waren. Im Gegenteil, das Wachstumsmuster des SLEUTH-Modells zeigte eine stärkere Zersiedelung und eine Entwicklung mit geringer Dichte, die erhebliche landwirtschaftliche Flächen umfasste.;-;-;-;https://link.springer.com/article/10.1007/s12665-012-2137-6 56f2b2e6be1bc77eae4a89113485af0b;de;;;5.1.;;;Distriktentscheidungen in häuslichen Gesundheitsdiensten: Modellierung und Fallstudie Die Dienstleistungen der häuslichen Gesundheitspflege (HHC) sind ein wachsendes Segment in der globalen Gesundheitsbranche, in dem Patienten eine koordinierte medizinische Versorgung zu Hause erhalten. Bei der Gestaltung des Dienstes stehen HHC-Anbieter vor einer Reihe von Logistikentscheidungen, die die Distriktkonfiguration des Versorgungsgebiets umfassen. In HHC versucht das Distriktproblem, kleine geografische Basiseinheiten – BUs (d. h. Stadtviertel) in Distrikte mit ausgewogener Arbeitsbelastung zu gruppieren. In dieser Arbeit stellen wir einen Modellierungsansatz für das Problem vor, der eine Mixed-Integer-Linear-Programmierung (MILP) und ein gieriges randomisiertes adaptives Suchverfahren (GRASP) umfasst. Die MILP-Formulierung löst Instanzen bis zu 44 BUs, während GRASP Instanzen bis zu 484 BUs in weniger als 2,52 Minuten löst. Computerexperimente, die mit einer Reihe von realen Instanzen eines kolumbianischen HHC-Anbieters durchgeführt wurden, zeigen, dass GRASP Workload-Ungleichgewichte um 57% reduzieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00353-1_7 9ff03b8f3c277e373242a0841a584f53;de;;;5.1.;;;Informationsanforderungen zur Unterstützung der Politikgestaltung für positive Sicherheitslinsen Die Aufgabe der Nachrichtendienste besteht darin, Informationen zu sammeln, zu verarbeiten und zu analysieren, um politische Entscheidungsträger über Konflikte und Bedrohungen zu informieren. Insbesondere im Bereich der öffentlichen Sicherheit bietet diese Aktivität informative Unterstützung für strafrechtliche Ermittlungen und Analysen, um kriminelle Entwicklungen zu verstehen. Was wären jedoch die Informationsanforderungen eines Informationsdienstes auf Basis der positiven Sicherheitslinse? In diesem Kapitel kontextualisieren wir diese Informationsbedürfnisse mit einem konkreten Ereignis: der Ausbreitung von Gewalt in der Gesellschaft. Wir diskutieren, wie die Rolle der Polizei Abhilfe schafft, um die Symptome dieses Phänomens zu bekämpfen. Umgekehrt schlagen wir vor, dass die Verbesserung der Glücksbedingungen der Impfstoff sein könnte, der Menschen weniger anfällig für Gewaltausübung macht. Vor diesem Hintergrund argumentieren wir, dass aus einer positiven Sicherheitsperspektive auf strategischer Ebene Informationsanforderungen mit Indikatoren für Glück und Sicherheitsgefühl sowie mit Vorhersagen von Bedingungen zur Verbesserung des Glücks zusammenhängen. Auf taktischer Ebene argumentieren wir, dass die Polizei berücksichtigen sollte, dass kriminelle Netzwerke mit anderen Ebenen sozialer Netzwerke verbunden sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-42523-4_26 08585cc24b85887f1f8299d7fd557557;de;;;5.1.;;;3D-Rekonstruktion der Schweißumgebung basierend auf Spacetime Stereo In diesem Beitrag wird eine Technik zur 3D-Rekonstruktion der Schweißumgebung vorgestellt, um die Intelligenz des Schweißroboters zu verbessern. Basierend auf dem neuartigen Rahmen von Raumzeit-Stereo kann die Technik als eine Kombination aus strukturiertem Licht und traditionellem Stereosehen betrachtet werden. Um das Problem bei der Stereoanpassung des untexturierten Objekts in der Schweißumgebung zu überwinden, wurde eine Reihe von Lichtmustern entwickelt, um der Oberfläche eine künstliche „Textur“ hinzuzufügen. Das Ergebnis des Experiments zeigt, dass die Technik ein vielversprechendes Mittel ist, um die völlig unstrukturierte Schweißumgebung zu rekonstruieren;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73374-4_24 f314712a12a9768cd308b6cd67883a7d;de;;;5.1.;;;Personalisiertes Bewusstsein für periphere Informationen durch Informationskunst Dieser Artikel beschreibt die Entwicklung des Konzepts der Informationskunst, einer Art von Umgebungs- oder peripheren Displays mit benutzerspezifischen elektronischen Gemälden, bei denen residente Objekte Aussehen und Position ändern, um das Bewusstsein für persönlich relevante Informationen zu fördern. Unser Ansatz unterscheidet sich jedoch von anderen darin, dass er die Kontrolle und Flexibilität der Endbenutzer bei überwachten Informationen und deren resultierender Darstellung betont. Der Artikel gibt einen Überblick über die Fähigkeiten des Systems und beschreibt eine erste Pilotstudie, bei der vier Personen Displays über einen längeren Zeitraum nutzen konnten. Die Reaktionen waren recht positiv und der Probebetrieb lieferte Anregungen für Systemverbesserungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30119-6_2 0ec24c855cf51d6771aee59db4a24452;de;;;5.1.;;;Neue Visualisierungstechniken für dynamische Korrelationen im Service Portfolio Management Dieser Artikel schlägt neue Visualisierungsmethoden zur Entscheidungsunterstützung innerhalb eines Preisfindungsprozesses mit langfristigen Dienstleistungsverträgen vor. Dienstleistungen wie IT-Support, Kundenreservierungen oder Buchhaltung werden oft von einem oder mehreren Remote-Service-Delivery-Centern erbracht. Der Prozess der Preisgestaltung mehrjähriger Serviceverträge umfasst einen Schritt, bei dem die Anforderungen mit den qualifizierten Ressourcen abgeglichen werden. Bei Vertragsabschluss kommt es zu einer Erhöhung bzw. Verlagerung der Investitionen in die entsprechenden Lieferzentren. In diesem Artikel behandeln wir die Lieferzentren als Asset-Portfolio des Dienstleisters. Kosten und andere Risikomerkmale dieser Portfolios ändern sich mit der Zeit deutlich langsamer als die von Börsenaktien, aber kleine Veränderungen wirken sich erheblich auf die langfristige Rentabilität von Dienstleistungsgeschäften aus. Wir diskutieren neue Techniken auf der Grundlage von Korrelationstrends für das Management solcher Portfolios, um Risiken zu reduzieren und Kostenschätzungen zu verbessern. Insbesondere schlagen wir eine relativ einfache Portfolio-Visualisierungstechnik vor, die dazu dient, Entscheidungen über das Abgleichen von Geschäften mit Ressourcen und die Neuzuweisung von Investitionen in diese Ressourcen zu erleichtern. Unser Ansatz könnte auch in anderen Kontexten angewendet werden, beispielsweise beim Management von Investitionen in eine Hotelkette.;-;-;-;https://link.springer.com/article/10.1057/rpm.2010.8 64994d6f63f6c85ae8dbb5f248946630;de;;;5.1.;;;Unterstützung des Verständnisses unbekannter Programme durch Modellierung von Hinweisen Entwickler müssen ein Programm verstehen, bevor sie es ändern können. In solchen Fällen verwenden Entwickler Hinweise, um die Relevanz einer Information für eine Aufgabe zu ermitteln. Die Vertrautheit mit verschiedenen Arten von Hinweisen hilft den Entwicklern, ein Programm schneller zu verstehen. Aber im Gegensatz zu erfahrenen Entwicklern erkennen unerfahrene Entwickler die relevanten Hinweise nicht, weil (a) es viele Hinweise gibt und (b) sie mit den Artefakten nicht vertraut sein könnten. Über die Cue-Wahl der Entwickler ist jedoch nicht viel bekannt. Daher haben wir zwei unabhängige Studien durchgeführt, um zu verstehen, welche Art von Cues von den Entwicklern verwendet werden und wie ein Tool ihre Cue-Auswahl beeinflusst. Erstens haben wir aus unserer Benutzerstudie zu zwei gängigen Verständnisaufgaben herausgefunden, dass Entwickler aktiv nach Hinweisen suchen und ihre Auswahl an Hinweisquellen ähnlich, aber aufgabenabhängig ist. In unserer zweiten explorativen Studie haben wir untersucht, ob eine integrierte Entwicklungsumgebung (IDE) die Cue-Wahl eines Entwicklers beeinflusst. Durch die Beobachtung ihres Interaktionsverlaufs bei der Behebung von Fehlern in der Eclipse-IDE stellten wir fest, dass der Einfluss der IDE auf ihre Cue-Auswahl statistisch nicht signifikant war. Schließlich schlagen wir als Beispiel einen neuartigen aufgabenspezifischen Programmzusammenfassungsansatz vor, um unerfahrenen Entwicklern zu helfen, ein unbekanntes Programm zu verstehen. Bei unserem Ansatz verwendeten Entwickler Cue-Entscheidungen, um die Zusammenfassungen zu synthetisieren. Ein Vergleich der synthetisierten Zusammenfassungen mit den von den Entwicklern aufgezeichneten Zusammenfassungen zeigt, dass beide einen ähnlichen Inhalt hatten. Dieses vielversprechende Ergebnis ermutigt uns, aufgabenspezifische Cue-Modelle zu untersuchen, die unerfahrenen Entwicklern helfen können, komplexe Verständnisaufgaben schneller zu erledigen.;-;-;-;https://link.springer.com/article/10.1007/s11219-015-9303-5 14523a5cecf89a3e254474a9e104c9dc;de;;;5.1.;;;Strukturformoptimierung mit Bézier-Dreiecken und einer CAD-kompatiblen Grenzdarstellung Ein Verfahren zur Formoptimierung unter Verwendung von Bézier-Dreiecken wird vorgestellt. Das vorgeschlagene Verfahren nimmt als Eingabe eine CAD-kompatible Grenzdarstellung der Domäne und gibt ein optimales Design aus, während bei jeder Iteration eine exakte Geometriedarstellung beibehalten wird. Die Verwendung einer Dreiecksdiskretisierung ermöglicht die Modellierung komplexer geometrischer Domänen, einschließlich Leerstellen, unter Verwendung eines einzigen Patches. Einige Topologieänderungen, wie sie beispielsweise durch das Zusammenführen von Grenzen entstehen, können ebenfalls problemlos berücksichtigt werden. Ein automatischer Netzgenerator basierend auf einer Quadtree-Konstruktion wird verwendet, um das Netz zu erstellen. Ein Gradienten-basierter Optimierungsalgorithmus (das Verfahren zum Bewegen von Asymptoten) wird zusammen mit einem Empfindlichkeitsausbreitungsverfahren verwendet. Wir wenden die Methode auf einige Standard-Benchmark-Probleme an, die üblicherweise in der Literatur betrachtet werden, und zeigen, dass die vorgeschlagene Methode in nur wenigen Iterationen zu einer optimalen Form konvergiert.;-;-;-;https://link.springer.com/article/10.1007/s00366-019-00788-z a49e3d0b1ca733ca694512588705a16c;de;;;5.1.;;;Einige konkrete Beispiele für Angriffe auf Informationssysteme und Smart Cities-Anwendungen In diesem Kapitel sind einige konkrete Beispiele für Angriffe auf Informationssysteme und Smart Cities-Anwendungen aufgeführt. Das Kapitel besteht aus fünf Teilen. Im ersten und zweiten Teil werden die grundlegenden einführenden Überlegungen und einige unserer bisherigen Forschungen im Bereich der Sicherheit von Informationssystemen und des Sicherheitsmanagements im Cyberspace aufgelistet. Im dritten Teil werden konkrete Beispiele für XSS- und CSRF-Angriffe gegeben. Darüber hinaus ist eine spezifische Implementierung des Executive Scripts vorgegeben, die eine Aufgabe für die Sammlung vertraulicher Informationen in Smart Environments hat. Im vierten Teil wird das Verfahren zum Angriff auf Hash-Digest-Daten sowie das Verfahren zum Verbergen von Informationen mithilfe der Programmiersprache Python und der Kali Linux-Umgebung aufgeführt. Listet abschließend die abschließenden Überlegungen auf und gibt Anregungen für die weitere Forschung im Bereich Cybersicherheitsangriffe auf Smart Cities.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-16837-7_10 d3354e57ae81fb6c2a7d576f684f4c56;de;;;5.1.;;;Aufbau sozialer Netzwerke aus kognitiven Blöcken: Interessensfaktoren in agentenbasierten sozio-kognitiven Simulationen In diesem Beitrag wird untersucht, wie kognitive und Umweltfaktoren die Bildung dyadischer Bindungen beeinflussen. Wir verwenden in ACT-R instanziierte Agentenmodelle, die in einer sozialen Simulation interagieren, um die Auswirkungen von Speicherbeschränkungen auf Netzwerke zu veranschaulichen. Wir zeigen auch, dass Umweltfaktoren wichtig sind, einschließlich Bevölkerungsgröße, Laufzeit und Kartenkonfiguration. Um diese Beziehungen zu untersuchen, führten wir Simulationen von Netzwerken mit einem faktoriellen Design durch. Unsere Analysen legen drei interessante Schlussfolgerungen nahe: Erstens kommt die Bindungsbildung dieser Netzwerke einem logistischen Wachstumsmodell nahe, zweitens verändert die Qualität des Agentengedächtnisses (dh perfekt oder menschenähnlich) die Dichte und Struktur des Netzwerks stark, drittens, dass die drei Umwelt Faktoren alle beeinflussen sowohl die Netzdichte als auch einige Aspekte der Netzstruktur. Diese Ergebnisse deuten darauf hin, dass eine sinnvolle Varianz der Analyse sozialer Netzwerke in einem schmalen Band der Gedächtnisstärke (dem kognitiven Band) auftritt, der Schwellenwert für die Definition von Bindungskriterien wichtig ist und zukünftige Simulationen, die generative soziale Netzwerke untersuchen, diese Umwelt- und kognitiven Netzwerke kontrollieren und sorgfältig berichten sollten Faktoren.;-;-;-;https://link.springer.com/article/10.1007/s10588-014-9179-0 86b4e13dcb3b4501ec7984f79b3d407f;de;;;5.1.;;;Identifizieren von gefälschtem Feedback für ein effektives Vertrauensmanagement in Cloud-Umgebungen Der Umgang mit Vertrauen in Cloud-Umgebungen hat sich in den letzten Jahren zu einem wichtigen Thema entwickelt. Die hochdynamische, verteilte und intransparente Natur von Cloud-Diensten erschwert das Vertrauensmanagement dieser Dienste. Böswillige Benutzer können sich zusammenschließen, um mehrere irreführende Vertrauensrückmeldungen zu geben, um einen Cloud-Dienst zu benachteiligen, oder mehrere Konten erstellen und dann irreführendes Vertrauens-Feedback hinterlassen, um Benutzer dazu zu bringen, Cloud-Diensten zu vertrauen, die nicht wirklich vertrauenswürdig sind. In diesem Papier schlagen wir Techniken vor, die es ermöglichen, gefälschte Vertrauensrückmeldungen zu identifizieren und somit das Vertrauensmanagement in Cloud-Umgebungen deutlich zu verbessern. Insbesondere führen wir ein Glaubwürdigkeitsmodell ein, das nicht nur glaubwürdige Vertrauensrückmeldungen von gefälschten erkennt, sondern auch die Privatsphäre von Cloud-Service-Nutzern schützt. Die Techniken wurden durch eine prototypische Systemimplementierung und experimentelle Studien validiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37804-1_6 3735976add6aa403081aa16d0741c154;de;;;5.1.;;;Emotionserkennung in arabischer Sprache Die automatische Emotionserkennung aus Sprachsignalen ohne sprachliche Hinweise ist ein wichtiges aufstrebendes Forschungsgebiet. Die Integration von Emotionen in die Mensch-Computer-Interaktion ist von großer Bedeutung, um reale Szenarien effektiv zu simulieren. Die Forschung konzentrierte sich auf das Erkennen von Emotionen aus gespielter Sprache, während an natürlichen Äußerungen aus dem wirklichen Leben wenig Arbeit geleistet wurde. Zu diesem Zweck wurden englische, französische, deutsche und chinesische Korpora verwendet, während bisher kein natürliches arabisches Korpus gefunden wurde. In diesem Beitrag wird erstmals die Emotionserkennung in arabisch gesprochenen Daten untersucht. Ein realistischer Sprachkorpus aus arabischen Fernsehsendungen wird gesammelt. Die Videos werden durch ihre wahrgenommenen Emotionen gekennzeichnet, nämlich glücklich, wütend oder überrascht. Prosodische Merkmale werden extrahiert und 35 Klassifikationsmethoden werden angewendet. Die Ergebnisse werden in diesem Papier analysiert und Schlussfolgerungen und zukünftige Empfehlungen werden identifiziert.;-;-;-;https://link.springer.com/article/10.1007/s10470-018-1142-4 dc298d4dc1f83983bcb800fdc1c65208;de;;;5.1.;;;VisDrone-SOT2018: Die Vision trifft auf die Ergebnisse der Herausforderung der Drohnen-Single-Object-Tracking-Herausforderung Die Einzelobjektverfolgung, auch Visual Tracking genannt, auf der Drohnenplattform erregt in letzter Zeit bei verschiedenen Anwendungen in der Computer Vision, wie Filmen und Überwachung, viel Aufmerksamkeit. Das Fehlen allgemein akzeptierter annotierter Datensätze und standardisierter Auswertungsplattformen verhindert jedoch die Entwicklung von Algorithmen. Um dieses Problem anzugehen, wurde der Workshop Vision Meets Drone Single-Object Tracking (VisDrone-SOT2018) in Verbindung mit der 15. Europäischen Konferenz für Computer Vision (ECCV 2018) organisiert, um die Technologien in diesem Bereich zu verfolgen und voranzutreiben. Konkret erheben wir einen Datensatz mit 132 Videosequenzen, die in drei sich nicht überschneidende Sätze unterteilt sind,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-11021-5_28 51f1ff1e99f90e418e027ebf071a653d;de;;;5.1.;;;Stabilisierung vernetzter Regelsysteme durch nichtlineare modellprädiktive Regelung: Ein Set-Invarianz-Ansatz Die vorliegende Arbeit beschäftigt sich mit der robusten Zustandsrückkopplungsstabilisierung von unsicheren zeitdiskreten eingeschränkten nichtlinearen Systemen, in denen die Schleife durch ein paketbasiertes Kommunikationsnetzwerk geschlossen wird. Um Modellunsicherheit, zeitveränderliche Übertragungsverzögerungen und Paketausfälle, die typischerweise vernetzte Steuersysteme betreffen, zu bewältigen, wird eine robuste Steuerpolitik vorgeschlagen, die modellprädiktive Steuerung mit einer Netzwerkverzögerungskompensationsstrategie kombiniert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01094-1_15 5c63cb1061b3c6cd10039904284ef5db;de;;;5.1.;;;Identifizieren von Sicherheitslücken bei der Trennung von Berechtigungen in IoT-Firmware mit symbolischer Ausführung Mit der schnellen Verbreitung von IoT-Geräten haben wir zunehmende Sicherheitsverletzungen bei IoT-Geräten beobachtet. Um dies zu beheben, wurde der Schwachstellenerkennung von IoT-Firmware große Aufmerksamkeit geschenkt. Im Gegensatz zu den traditionellen Firmware-Bugs/-Schwachstellen (z. B. Speicherbeschädigung) wurde das Privilege-Separation-Modell in der IoT-Firmware jedoch noch nicht systematisch untersucht. In diesem Whitepaper haben wir eine eingehende Sicherheitsanalyse des Privilegientrennungsmodells der IoT-Firmware durchgeführt und eine bisher unbekannte Schwachstelle namens . identifiziert;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29959-0_31 0712050136d3f04f359489b55a2050b8;de;;;5.1.;;;Intelligente Geschwindigkeitsberatung basierend auf kooperativer Verkehrsszenarioermittlung Ein neuartiges System zur sicheren Geschwindigkeitsempfehlung, basierend auf einem kooperativen Verfahren zur Fahrzeugdichteschätzung und der intelligenten Bestimmung des Verkehrsszenarios, wird vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-05371-4_5 60d4c5398671590ea4cdd10f48b2659b;de;;;5.1.;;;Eine praktische Lösung zum Synchronisieren strukturierter und nicht strukturierter Repositories Die erhobenen Datenmengen sind in den letzten Jahren durch das Aufkommen neuer Datenquellen wie Sensoren, soziale Netzwerke u. a. gestiegen. Die gesammelten Daten haben ein vielfältiges Format (halbstrukturiert, unstrukturiert und strukturiert) und aufgrund der Geschwindigkeit, mit der sie generiert werden, können Organisationen keinen Wert aus ihren Daten ziehen, da die Daten in ihrer ursprünglichen Form wenig oder keinen Wert haben. Aufgrund dieser neuen Realität ist es für Unternehmen notwendig geworden, die großen Mengen an erzeugten Daten unabhängig von der Art des Formats (strukturiert oder unstrukturiert) zu verarbeiten und zu analysieren, um wichtige Informationen für die Geschäft. Darüber hinaus müssen einige Organisationen in der Lage sein, in Echtzeit auf Informationen zuzugreifen, um später rechtzeitig fundierte Entscheidungen treffen zu können. Daher liegt der Schwerpunkt dieses Artikels auf der Entwicklung eines Aktualisierungsmechanismus, der in der Lage ist, verschiedene Datentypen zu synchronisieren und dadurch einen globalen Mechanismus zu standardisieren. Die Zeit, die der Mechanismus benötigt, um alle Dimensionen zu durchlaufen und die Änderungen an einer bestimmten Dimension vorzunehmen, beträgt nicht eine Stunde - was einem Zeitunterschied von ungefähr 96% entspricht. Es ist ersichtlich, dass es eine ziemlich signifikante Verbesserung mit dem entwickelten Datenauffrischungsmechanismus gibt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72654-6_35 da80cb9ec736037a0b81cc6375f3819f;de;;;5.1.;;;Entwerfen Sie ein intelligentes Infrastrukturüberwachungssystem: eine Reaktion im Zeitalter der COVID-19-Pandemie Seit Ende 2019 stellt COVID-19 eine Herausforderung für die Welt dar, und es wird erwartet, dass die Welt Vorsichtsmaßnahmen ergreifen muss, um die Ausbreitung des Virus zu bekämpfen, bevor ein wirksamer Impfstoff hergestellt wird. Derzeit versuchen die meisten Regierungen, die Verbreitung des Coronavirus zu vermeiden und wahrscheinlich heiße Gebiete vorherzusagen. Am anfälligsten für eine koronare Infektion sind die Mitarbeiter des Gesundheitswesens aufgrund ihres täglichen Kontakts mit potenziellen Patienten. Dieser Artikel schlägt ein COVID-19-Echtzeitsystem zur Verfolgung und Identifizierung von Verdachtsfällen unter Verwendung einer Internet-of-Things-Plattform vor, um Benutzersymptome zu erfassen und die Behörde zu benachrichtigen. Der vorgeschlagene Rahmen befasste sich mit vier Hauptkomponenten: (1) Echtzeit-Symptomdatenerfassung über einen thermischen Scan-Algorithmus, (2) Gesichtserkennungsalgorithmus, (3) eine Datenanalyse, die einen Algorithmus der künstlichen Intelligenz (KI) verwendet, und (4) eine Cloud Infrastruktur. Ein Überwachungsexperiment wurde durchgeführt, um drei verschiedene Altersgruppen zu testen, Kinder, mittlere und ältere Personen, wobei der Einfluss der Abtastentfernung im Vergleich zu tragbaren Kontaktsensoren berücksichtigt wurde. Die Ergebnisse zeigen, dass eine Genauigkeit von 99,9 % innerhalb einer Entfernung von (500 ± 5) cm erreicht wurde und diese Genauigkeit tendenziell mit zunehmender Entfernung zwischen der Kamera und den Objekten abnimmt. Die Ergebnisse zeigten auch, dass sich die Genauigkeit des Scansystems leicht verändert hatte, als die Umgebungstemperatur unter 27 °C fiel. Basierend auf der simulierten Umgebung der Hochtemperatur-Präsenz zeigte das System eine effektive und sofortige Reaktion durch das Senden einer E-Mail und einer MQTT-Nachricht an die Person, die für die genaue Identifizierung potenzieller Fälle von COVID-19 verantwortlich ist.;-;-;-;https://link.springer.com/article/10.1007/s41062-021-00515-y b6d92e2dbaefc2f338b1437c044b4c05;de;;;5.1.;;;HelpMate®, der spurlose Roboterkurier: Ein Ausblick auf die Entwicklung eines kommerziellen autonomen mobilen Roboters HelpMate Robotics hat einen autonomen mobilen Roboter-Kurier für den Materialtransport in Krankenhäusern entwickelt. Diese Maschinen sind weltweit im Einsatz und arbeiten in unkontrollierten und unbeaufsichtigten Umgebungen bis zu 24 Stunden pro Tag. Die Geschichte und Technologie des HelpMate-Roboters werden in diesem Papier vorgestellt, um eine reale Perspektive des Technologieübergangs vom Labor auf den Markt zu bieten.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0030806 68cc72831af14b69ae2682efe9e39cc1;de;;;5.1.;;;Ein Framework für Multi-Attribute-Gruppen-Entscheidungsfindung unter Verwendung von Doppelhierarchie Zögernd Fuzzy Linguistic Ausdruckssatz Als Verallgemeinerung auf den zögerlichen Fuzzy-Sprachen-Ausdruckssatz (HFLTS) wird der zögerliche Fuzzy-Sprachen-Ausdruckssatz mit doppelter Hierarchie (DHHFLTS) vorgestellt, der die Schwäche von HFLTS bei der Darstellung komplexer linguistischer Begriffe umgeht. DHHFLTS hat zwei linguistische Hierarchien, wobei die zweite Hierarchie die primäre ergänzt, was es Entscheidungsträgern (DMs) ermöglicht, komplexe sprachliche Begriffe besser darzustellen. Motiviert durch die Kraft von DHHFLTS wird in diesem Beitrag ein neuer Entscheidungsrahmen im Kontext von DHHFLTS vorgestellt. Zunächst wird ein neuer Aggregationsoperator namens Double Hierarchy Hesitant Fuzzy Hybrid Aggregation (DHHFHA)-Operator für eine sinnvolle Aggregation der Präferenzinformationen von DMs vorgeschlagen. Außerdem werden die Gewichte von Attributen durch das Erweitern des statistischen Varianz(SV)-Verfahrens im DHHFLTS-Kontext berechnet. Objekte werden priorisiert, indem die beliebte WASPAS-Methode (gewichtete aggregierte Summenproduktbewertung) auf den DHHFLTS-Kontext erweitert wird. Die Anwendbarkeit und Nützlichkeit des vorgeschlagenen Rahmens werden durch die Demonstration eines Auswahlproblems einer Risikomanagementtechnik (RMT) für ein Bauprojekt realisiert. Abschließend werden die Überlegenheit und Schwäche des vorgeschlagenen Frameworks im Vergleich zu anderen Methoden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s40815-019-00618-w 1605f5eec78e6408dcebcb7a3f1aa169;de;;;5.1.;;;Abwägen von Granularität gegen Komplexität in Vorhersagemodellen für komplexe Domänen Die automatisierte Vorhersage der Interessen und Anforderungen eines Benutzers ist ein Interessengebiet der Künstlichen Intelligenz-Community. Derzeitige prädiktive statistische Ansätze unterliegen jedoch theoretischen und praktischen Beschränkungen, die ihre Fähigkeit einschränken, nützliche Vorhersagen in Bereichen wie dem WWW und Computerspielen zu treffen, die eine große Anzahl von Werten für interessierende Variablen aufweisen. In diesem Papier beschreiben wir eine automatisierte Abstraktionstechnik, die dieses Problem im Kontext von Dynamic Bayesian Networks adressiert. Wir vergleichen die Leistungs- und Rechenanforderungen von feinkörnigen Modellen, die mit präzisen Variablenwerten erstellt wurden, mit der Leistung und den Anforderungen eines grobkörnigen Modells, das mit abstrahierten Werten erstellt wurde. Unsere Ergebnisse zeigen, dass komplexe, grobkörnige Modelle Leistungs- und Rechenvorteile gegenüber einfacheren, feinkörnigen Modellen bieten.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44533-1_27 f0ad4a7d080bfaef4388bd709ae5e963;de;;;5.1.;;;Das Design von Navigationssystemen mit ultrahoher Integrität für große autonome Fahrzeuge Dieses Papier beschreibt das Design eines hochintegrierten Navigationssystems für den Einsatz in großen autonomen mobilen Fahrzeugen. Ein Frequenzbereichsmodell der Sensorbeiträge zur Navigationssystemleistung wird verwendet, um die Leistung einer herkömmlichen Navigationsschleife zu untersuchen. Darauf aufbauend wird eine neue Navigationssystemstruktur eingeführt, die in der Lage ist, Fehler in beliebigen Kombinationen von Navigationssensoren zu erkennen. Eine beispielhafte Implementierung dieser Prinzipien wird beschrieben, die eine zweifache GPS/IMU-MMW-Radar/Kodierer-Navigationsschleife verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0112967 0a3b5e20f0e299d11e57fbda0651aed5;de;;;5.1.;;;Die WebDataCommons Microdata, RDFa und Microformat Dataset Series Um Webanwendungen dabei zu unterstützen, den Inhalt von HTML-Seiten zu verstehen, haben immer mehr Websites damit begonnen, strukturierte Daten innerhalb ihrer Seiten mit Markup-Formaten wie Microdata, RDFa, Microformats zu kommentieren. Die Anmerkungen werden von Google, Yahoo!, Yandex, Bing und Facebook verwendet, um Suchergebnisse anzureichern und Entitätsbeschreibungen in ihren Anwendungen anzuzeigen. In diesem Beitrag präsentieren wir eine Reihe öffentlich zugänglicher Microdata-, RDFa- und Microformats-Datensätze, die wir aus drei großen Webkorpora aus den Jahren 2010, 2012 und 2013 extrahiert haben. Insgesamt bestehen die Datensätze aus fast 30 Milliarden RDF-Quads. Der aktuellste Datensatz enthält unter anderem über 211 Millionen Produktbeschreibungen, 54 Millionen Bewertungen und 125 Millionen Postanschriften von Tausenden von Websites. Die Verfügbarkeit der Datensätze bildet die Grundlage für weitere Forschungen zur Integration und Bereinigung der Daten sowie zur Untersuchung ihres Nutzens in verschiedenen Anwendungskontexten. Da die Datensatzreihe vier Jahre umfasst, kann sie auch verwendet werden, um die Entwicklung der Einführung der Markup-Formate zu analysieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11964-9_18 7f89f245bb24aabfe251afda56c8a7da;de;;;5.1.;;;Ein statistischer Rahmen für die Klassifizierung von Brusttumoren aus Ultraschallbildern Die Segmentierung und Klassifizierung von Ultraschall-Brustbildern ist für die medizinische Diagnose äußerst kritisch. Hierzu wurden in den letzten Jahren bereits verschiedene Techniken vorgestellt. In diesem Artikel wird ein vorgeschlagener Rahmen vorgestellt, um ein gegebenes Ultraschallbild mit einem Brusttumor zu segmentieren und den Tumor als gutartig oder bösartig zu klassifizieren. Der vorgeschlagene Rahmen hängt von einem aktiven Kontursegmentierungsmodell ab, um die Tumorregion zu bestimmen und sie dann aus dem Ultraschallbild zu extrahieren. Danach wird die Discrete Wavelet Transform (DWT) verwendet, um Merkmale aus den segmentierten Bildern zu extrahieren. Dann werden die Dimensionen der resultierenden Merkmale durch Anwendung von Merkmalsreduktionsansätzen reduziert, nämlich die Hauptkomponentenanalyse (PCA), die Lineare Diskriminanzanalyse (LDA) und beide zusammen. Die erhaltenen Merkmale werden einem statistischen Klassifikator vorgelegt und die Abstimmungsstrategie wird verwendet, um den Tumor zu klassifizieren. Bei der Simulationsarbeit werden 160 Bilder von benignen und malignen Brusttumoren verwendet, die von der Website des Sirindhorn International Institute of Technology (SIIT) gesammelt wurden. Die durchschnittliche Verarbeitungszeit für ein 256 × 256-Bild auf einem Laptop mit Core i5, 2,3 GHz Prozessor und 8 GB RAM beträgt 1,8 s. Aus den Simulationsergebnissen wird herausgefunden, dass die Verwendung des PCA-Ansatzes die beste Genauigkeit von 99,23 % unter den drei angewendeten Merkmalsreduktionsansätzen liefert. Schließlich wird das vorgeschlagene Framework mit der Klassifikation der Support Vector Machine (SVM) verglichen, um seine Leistung in Bezug auf Genauigkeit, Sensitivität, Präzision und Spezifität zu bewerten. Es wird darauf hingewiesen, dass das vorgeschlagene Rahmenwerk effizient und schnell ist und für die Ultraschallsegmentierung und -klassifizierung von Brustbildern angewendet werden kann und somit den Spezialisten bei der Segmentierung und der Entscheidung, ob ein Tumor gutartig oder bösartig ist, helfen kann.;-;-;-;https://link.springer.com/article/10.1007/s11042-020-08693-0 418ff4dd19fd1a174bfd03ca3c0f2db3;de;;;5.1.;;;Netzwerkausrichtung mit Graphlet-Signatur und Nähe hoher Ordnung Das Netzwerkausrichtungsproblem tritt bei der graphenbasierten Problemformulierung vieler Informatik- und biologischer Probleme auf. Die Ausrichtungsaufgabe besteht darin, die beste Eins-zu-Eins-Übereinstimmung zwischen Scheitelpunkten für ein Paar von Netzwerken zu identifizieren, indem die lokale Topologie oder Scheitelpunktattribute oder beide berücksichtigt werden. Vorhandene Algorithmen für die Netzwerkausrichtung verwenden eine Vielzahl von Methoden, wie beispielsweise die Eigenzerlegung einer Ähnlichkeitsmatrix, das Lösen eines quadratischen Zuweisungsproblems durch Subgradiantenoptimierung oder heuristikbasiertes iteratives Greedy-Matching. Diese Methoden sind jedoch entweder zu langsam oder haben eine schlechte Anpassungsleistung. Einige existierende Verfahren erfordern auch umfangreiche externe Knotenattribute als Vorinformation zum Zweck des Knotenabgleichs. In diesem Beitrag entwickeln wir einen neuartigen topologiebasierten Netzwerkausrichtungsansatz, den wir als;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37599-7_12 7463f56e69c0499ff0a0e643f7675ca8;de;;;5.1.;;;Antizipation des Bruttoinlandsprodukts anhand von Weltentwicklungsindikatoren Das Bruttoinlandsprodukt (BIP) ist eines der wichtigsten Instrumente, um die wirtschaftliche Lage einer Volkswirtschaft zu verstehen. Die wirtschaftliche Gesundheit eines Landes hängt von vielen Faktoren ab, nämlich. Konsum, Unternehmensinvestitionen, Staatsausgaben und Nettoexporte. Ziel dieser Studie ist es, die Korrelation zwischen Gesundheits-, Klima- und Bildungsindikatoren verschiedener Länder entsprechend ihrem Entwicklungsstand herauszufinden. Die ausgewählte und reduzierte Untergruppe von Indikatoren wurde für die Prognose des BIP für Länder mit hohem und mittlerem Einkommen verwendet, wobei die Indikatorensammlung der Weltbank verwendet wurde, die aus offiziell dokumentierten internationalen Quellen zusammengestellt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-6602-3_14 8702b63806257a93447f763be26d27a1;de;;;5.1.;;;Ein effizientes Zeicheneingabeschema mit einem Gyrosensor des Smartphones auf ubiquitärem Cluster-Computing In letzter Zeit sind Smartphones schnell populär geworden, und es wurde aktiv an Methoden geforscht, um die am häufigsten verwendeten Zeicheneingaben bequemer und schneller zu machen. Obwohl viele Zeicheneingabeschemata entwickelt wurden, benötigen Benutzer jedoch Zeit, um Zeicheneingabeverfahren zu erlernen, und es treten häufig Tippfehler auf. Außerdem sind viele Berührungen und Bewegungen für Zeicheneingaben erforderlich, und die Berührungserkennungselemente von Berührungsbildschirmen, die keine Hochdrucktypen sind, sind für behinderte Personen oder Patienten, die ihre Finger nicht richtig verwenden können, sehr unangenehm, da sie die entsprechenden Zeichen nicht eingeben können. Daher schlagen wir zum Schutz aktiver Medien eine virtuelle Tastatur vor, die einen Gyrosensor (VG) verwendet, ein effizientes Zeicheneingabeschema. Da die Zeicheneingabe durch Neigen des im Smartphone integrierten Gyrosensors in acht Richtungen erfolgt, beseitigt der VG die Unannehmlichkeiten im Zusammenhang mit der Zeicheneingabe vieler früherer Push-Methoden.;-;-;-;https://link.springer.com/article/10.1007/s10586-014-0382-z cdfb121c736fbbd27744bf837065fff7;de;;;5.1.;;;Erkennung von Ausreißern im Netzwerk in drahtlosen Sensornetzwerken Um das Problem der unüberwachten Ausreißererkennung in drahtlosen Sensornetzwerken anzugehen, entwickeln wir einen Ansatz, der (1) bezüglich der Ausreißerdefinition flexibel ist, (2) das Ergebnis im Netzwerk berechnet, um sowohl Bandbreite als auch Energieverbrauch zu reduzieren, (3) verwendet nur Single-Hop-Kommunikation, wodurch sehr einfache Knotenfehlererkennungs- und Nachrichtenzuverlässigkeitssicherungsmechanismen (z. B. Carrier-Sense) ermöglicht werden und (4) dynamische Aktualisierungen von Daten nahtlos unterbringen. Wir untersuchen die Leistung durch Simulation mit realen Sensordatenströmen. Unsere Ergebnisse zeigen, dass unser Ansatz genau ist und angemessene Anforderungen an Kommunikation und Stromverbrauch stellt.;-;-;-;https://link.springer.com/article/10.1007/s10115-011-0474-5 a2b02857976b5e2d0bbbf0a08d70ca24;de;;;5.1.;;;Gedanken zum Weg der neuen Medientechnologie zur Unterstützung der Transformation der Zeitungsindustrie Neue Medien haben einen gewissen Einfluss auf das Überleben und die Entwicklung der traditionellen Zeitungsindustrie. Die Transformation und Entwicklung der traditionellen Zeitungsindustrie ist unabdingbar. Gegenwärtig kann die neue Medientechnologie die Transformation und Entwicklung der traditionellen Zeitungsindustrie fördern, so dass der rationelle Einsatz der neuen Medientechnologie der Transformation und Entwicklung der traditionellen Zeitungsindustrie förderlich ist. Ausgehend von den Stadien und Problemen der Zeitungstransformation diskutiert dieser Beitrag kurz den Weg der Zeitungstransformation.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-15740-1_61 8f76ff50849ff95d2220754a6bcab17d;de;;;5.1.;;;Kooperative Steuerung eines Multi-Roboter-Systems mit Mobile Agent für die Lokalisierung mehrerer Quellen In diesem Papier schlagen wir einen neuen Ansatz für die Lokalisierungsaufgaben von mehreren Robotern mit mehreren Quellen vor. Unser Ansatz steuert Roboter durch mobile Agenten, die sich basierend auf der Partikelschwarmoptimierung verhalten. Der Schlüsselprozess unseres Algorithmus besteht darin, Untergruppen in der Population zu bilden. Um Untergruppen zu bilden, übermitteln wir Informationen indirekt über mobile Agenten anstatt über direkte Kommunikation. Wir haben unseren Ansatz in einem Simulator implementiert und Experimente durchgeführt, um die Wirksamkeit unseres Ansatzes zu zeigen. Durch die experimentellen Ergebnisse haben wir bestätigt, dass unser Ansatz effizienter und weniger anfällig für die anfängliche Platzierung ist als andere Ansätze.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-61833-3_22 ce5aec27b1ce8dc7616de78c9c3455ce;de;;;5.1.;;;Ein effektiver und effizienter Ansatz zur manuellen Verbesserung geokodierter Daten Der Prozess der Geokodierung erzeugt Ausgabekoordinaten unterschiedlicher Qualität. Frühere Studien haben gezeigt, dass das einfache Ausschließen von Datensätzen mit Geocodes geringer Qualität aus der Analyse zu erheblichen Verzerrungen führen kann, aber je nach Anzahl und Schwere der Ungenauigkeiten kann ihre Einbeziehung auch zu Verzerrungen führen. Zu den Kosten und/oder der Wirksamkeit der Korrektur von Geocodes durch manuelle interaktive Prozesse liegen nur wenige quantitative Untersuchungen vor, sodass die kosteneffektivsten Methoden zur Verbesserung geokodierter Daten unklar sind. Die vorliegende Arbeit untersucht den Zeit- und Arbeitsaufwand, der erforderlich ist, um Geocodes zu korrigieren, die in fünf gesundheitsbezogenen Datensätzen enthalten sind, die Beispiele für Daten darstellen, die häufig in Gesundheits-GIS verwendet werden.;-;-;-;https://link.springer.com/article/10.1186/1476-072X-7-60 187f95ee15a5d4bb6d39cdf3ad92d9d2;de;;;5.1.;;;Gruppenentscheidungsmethode mit mehreren Kriterien mit dreieckigen Typ-2-Fuzzy-Zahlen Typ-2-Fuzzy-Sets/Zahlen (T2FSs/T2FNs) ziehen im Fuzzy-Entscheidungsfeld immer mehr Aufmerksamkeit auf sich. Die vorliegenden Studien konzentrieren sich hauptsächlich auf die allgemeinen Eigenschaften von T2FS oder Intervalltyp-2-Fuzzy-Zahl, deren Zugehörigkeitsgrade durch Intervalle bezeichnet werden. Es wird eine neue Form von T2FN namens Triangular Type-2 Fuzzy Number vorgeschlagen, deren primäre und sekundäre Mitgliedschaften beide das kontinuierliche Dreiecksmerkmal aufweisen. Um die dreieckigen Fuzzy-Informationen vom Typ 2 zu aggregieren, werden auch zwei Operatoren definiert. Darauf aufbauend wird eine Methode entwickelt, um die multikriteriellen Entscheidungsfindungsprobleme der Duplex-Sprachgruppe zu behandeln und die Alternativen einzustufen. Schließlich wird ein Beispiel gegeben, um die Machbarkeit des Verfahrens zu zeigen.;-;-;-;https://link.springer.com/article/10.1007/s40815-015-0110-8 359c68a968f93b0e598cce315c7cdd43;de;;;5.1.;;;Ableiten von Benutzeroberflächenmustern aus Ausführungsspuren von Webanwendungen Dieses Whitepaper präsentiert einen dynamischen Reverse-Engineering-Ansatz zum Extrahieren von User Interface (UI) Patterns aus bestehenden Webanwendungen. Zunächst werden Informationen zur Benutzerinteraktion gespeichert, insbesondere: Benutzeraktionen und -parameter, die HTML-Quellseiten und die URLs. Zweitens werden die gesammelten Informationen analysiert, um mehrere Metriken zu berechnen (z. B. die Unterschiede zwischen nachfolgenden HTML-Seiten). Drittens werden die vorhandenen UI-Muster aus den Gesamtinformationen abgeleitet, die basierend auf einem Satz heuristischer Regeln berechnet werden. Der gesamte Reverse-Engineering-Ansatz wird mit einigen Experimenten über mehrere öffentliche Webanwendungen evaluiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09156-3_23 765cbc07c657d9c213b827f70375d9c3;de;;;5.1.;;;Design und Entwicklung eines Cyber-Sicherheits-Frameworks für die nationale Zeitverbreitung Die koordinierte Weltzeit (UTC) basiert auf der größtmöglichen Anzahl von Atomuhren verschiedener Kategorien, die in verschiedenen Regionen der Welt zu finden sind und durch ein Netzwerk verbunden sind, das präzise Zeitvergleiche zwischen entfernten Standorten ermöglicht. In Indien wird das UTC-System befolgt und Fragen der Cybersicherheit sind ein Problem. Diese Forschung erklärt die Sicherheitsprobleme, denen das UTC (k)-System gegenübersteht, und beschreibt, wie eine Verbesserung dieses Problem behebt. Es besteht die Notwendigkeit einer einzigen Zeitskala für die gesamte Nation. Diese Forschung verwendete einen qualitativen Ansatz und ein experimentelles Design für die Durchführung der Untersuchung. Die Daten werden vom National Physical Laboratory und dem National Measurement Institute of India gesammelt. Die vorgeschlagene Software, die in dieser speziellen Forschung zur Implementierung des Frameworks verwendet werden soll, ist archimate Open Source. Das Ziel dieser Forschung ist es, Cyber-Physical Security Framework für die nationale Zeitverbreitung zu entwerfen und zu entwickeln. Sicherheitsprobleme werden mit einem entwickelten Cyber-Physical-Security-Framework behoben. Das entwickelte Cybersicherheits-Framework erreicht Rückverfolgbarkeit und Synchronisation in der Cybersicherheitsumgebung. Diese Forschung wäre hilfreich für Praktiker, Akademiker, politische Entscheidungsträger und Kapitalisten, um die Notwendigkeit zu verstehen, einen Rahmen für die nationale Zeitverbreitung in einer cybersicheren Umgebung zu entwickeln.;-;-;-;https://link.springer.com/article/10.1007/s42979-021-00471-5 ea603d9375a2a9f8dd4b74560a08a871;de;;;5.1.;;;Erkennung menschlicher Handlungen mithilfe von Kurzzeit-Bewegungsenergievorlagenbildern und PCANet-Funktionen Die Erkennung menschlicher Handlungen hat aufgrund ihrer breiten Anwendung in der Mensch-Maschine-Interaktion, der visuellen Überwachung und der Videoindexierung große Aufmerksamkeit erhalten. Die jüngsten Fortschritte bei Deep-Learning-Algorithmen und Convolutional Neural Networks (CNNs) wirken sich erheblich auf die Leistung vieler Aktionserkennungssysteme aus. CNNs sind jedoch so konzipiert, dass sie Merkmale aus räumlichen 2D-Bildern lernen, während Action-Videos als raumzeitliche 3D-Signale betrachtet werden. Darüber hinaus wirken sich die komplexe Struktur der meisten tiefen Netzwerke und ihre Abhängigkeit vom Backpropagation-Lernalgorithmus negativ auf die Effizienz von Echtzeit-Erkennungssystemen für menschliche Handlungen aus. Um diese Einschränkungen zu vermeiden, schlagen wir eine neue Methode zur Erkennung menschlicher Handlungen vor, die auf einem Hauptkomponentenanalysenetzwerk (PCANet) basiert, einer einfachen Architektur von CNN, die unüberwachtes Lernen anstelle der üblicherweise verwendeten überwachten Algorithmen nutzt. PCANet wurde jedoch ursprünglich entwickelt, um Probleme bei der Klassifikation von 2D-Bildern zu lösen. Um es zum Lösen von Aktionserkennungsproblemen in Videos geeignet zu machen, wird die zeitliche Information des Eingangsvideos unter Verwendung von Bewegungsenergieschablonen geeignet dargestellt. Mehrere Kurzzeit-Bewegungsenergiebilder (ST-MEI) werden berechnet, um menschliche Bewegungsinformationen zu erfassen. Die tiefe Struktur von PCANet hilft dabei, hierarchische lokale Bewegungsmerkmale aus den eingegebenen ST-MEI-Vorlagen zu lernen. Die Dimension des aus PCANet gelernten Merkmalsvektors wird unter Verwendung eines Whitening-Hauptkomponenten-Analysealgorithmus reduziert und schließlich zur Klassifikation dem Klassifikator von Linear Support Vector Machines zugeführt. Die vorgeschlagene Methode wird anhand von drei verschiedenen Benchmark-Datensätzen evaluiert, nämlich KTH, Weizmann und UCF Sportaktionen. Experimentelle Ergebnisse unter Verwendung der Leave-One-Out-Strategie belegen die Wirksamkeit der vorgeschlagenen Methode im Vergleich zu anderen Methoden des Standes der Technik.;-;-;-;https://link.springer.com/article/10.1007/s00521-020-04712-1 cdfe72a47e009c84739e2853996d9953;de;;;5.1.;;;Integration von Standort- und Textinformationen zur Erkennung betroffener Personen im Krisenfall Soziale Netzwerke sind zu einer wichtigen Nachrichtenquelle geworden, bei der Millionen von Menschen täglich Nachrichten schreiben und handeln. Beim Auftreten eines Ereignisses verbreiten sich Nachrichten in sozialen Netzwerken im Vergleich zu anderen Nachrichtenquellen schneller, was sie zu einer guten Quelle für die Identifizierung von Ereignissen macht. Der gängigste Ansatz zur Ereigniserkennung aus sozialen Netzwerken ist die Textanalyse. Im Krisenfall spielt Social Media eine wichtige Rolle, um die Situation am Krisenort zu verstehen, da die Informationen direkt von den Betroffenen eingehen. Wenn die gesammelten Informationen effektiv genutzt werden, kann dies die Zahl der Opfer minimieren und bei der Versorgung mit Grundbedürfnissen und medizinischer Versorgung helfen. In diesem Beitrag schlagen wir einen hybriden Ansatz vor, der Textanalysetechniken und Standortidentifizierung kombiniert, um betroffene Personen effizient zu erkennen. Das Hinzufügen von Standortinformationen erfolgt, um Benutzer, die über die Krise schreiben, herauszufiltern, ohne betroffen zu sein. Die experimentellen Ergebnisse zu Twitter-Daten zeigten, dass die Kombination von Textanalyse und Standort eine Genauigkeit von 96% ergab, verglichen mit 87% bei ausschließlicher Verwendung der Textanalyse.;-;-;-;https://link.springer.com/article/10.1007/s13278-020-00715-x f3a80333ca09066288e683eb00eb3aa3;de;;;5.1.;;;LPV-Identifikation über OBFs Alle bisher vorgestellten Theorien haben ausschließlich dazu gedient, Werkzeuge zur Verfügung zu stellen, um die Identifizierung allgemeiner LPV-Systeme auf bewährte Weise zu formulieren. Aufbauend auf den entwickelten Werkzeugen wird in diesem Kapitel ein breit anwendbarer Identifikationsansatz vorgeschlagen, der Modellstrukturen verwendet, die aus verkürzten OBF-Erweiterungsdarstellungen von LPV-Systemen stammen. Zunächst werden für die eingeführten Modellstrukturen unter der Annahme einer statischen Abhängigkeit der Ausdehnungskoeffizienten zwei Identifikationsverfahren, ein lokales und ein globales, entwickelt. Während der lokale Ansatz das Gain-Scheduling-Prinzip nutzt: Identifikation mit konstanten Scheduling-Signalen und Interpolation der resultierenden LTI-Modelle, liefert der globale Ansatz eine direkte LPV-Modellschätzung durch lineare Regression basierend auf Datensätzen mit unterschiedlichen Scheduling-Trajektorien. Die Ansätze werden hinsichtlich Varianz, Verzerrung, Konsistenz und Anwendbarkeit zusammen mit der Validierung der Modellschätzungen analysiert. Um schließlich die Schätzung von Moden mit dynamischen Koeffizientenabhängigkeiten zu ermöglichen, wird eine modifizierte rückkopplungsbasierte OBF-Modellstruktur vorgeschlagen und die Schätzung in diesem Rahmen durch eine separierbare Methode der kleinsten Quadrate formuliert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13812-6_9 7feaa66742891d620cc12d175e3f9fe8;de;;;5.1.;;;Robustes kooperatives visuelles Tracking: Ein kombinierter Ansatz zur Reduzierung der nichtlinearen Dimensionalität/robusten Identifizierung In diesem Kapitel betrachten wir das Problem der robusten visuellen Verfolgung mehrerer Ziele mit mehreren, nicht unbedingt registrierten Kameras. Die Schlüsselidee besteht darin, die hohen räumlichen und zeitlichen Korrelationen zwischen Einzelbildern und Ansichten zu nutzen, indem (i) jedem Blickpunkt ein Satz intrinsischer Koordinaten auf einer niedrigdimensionalen Mannigfaltigkeit zugeordnet wird und (ii) ein Operator gefunden wird, der die dynamische Entwicklung von Punkten über Mannigfaltigkeiten, die verschiedenen Gesichtspunkten entsprechen. Sobald dieser Operator identifiziert wurde, werden Entsprechungen gefunden, indem einfach eine Sequenz von Frames, die aus einer Ansicht betrachtet werden, durch den Operator läuft;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74356-9_22 12ae0244a340db1a3f72fa749e0e450f;de;;;5.1.;;;Vorhersage der Ergebnisse der Schülerprüfung durch Analyse von Daten aus sozialen Netzwerken In dieser Arbeit schlagen wir eine neuartige Methode zur Vorhersage des Erfolgs einer Person in einem akademischen Kurs vor. Durch das Extrahieren von Protokolldaten aus der Website des Studiengangs und die Anwendung von Methoden der Netzwerkanalyse konnten wir die sozialen Interaktionen zwischen den Studierenden in einem Kurs modellieren und visualisieren. Für unsere Analyse haben wir eine Vielzahl von Merkmalen extrahiert, indem wir sowohl die Graphentheorie als auch die Analyse sozialer Netzwerke verwendet haben. Schließlich haben wir mehrere Regressions- und maschinelle Lerntechniken erfolgreich eingesetzt, um den Erfolg eines Schülers in einem Kurs vorherzusagen. Eine interessante Tatsache, die durch diese Forschung aufgedeckt wurde, ist, dass das vorgeschlagene Modell eine hohe Korrelation zwischen der Note eines Schülers und der seines „besten“ Freundes gezeigt hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35236-2_59 fba416d5fbc4f1cc4acc254c1cfe89af;de;;;5.1.;;;Ein allgemeiner Ansatz zur simultanen Modellanpassung und Variablenelimination in Antwortmodellen für biologische Daten mit viel mehr Variablen als Beobachtungen Mit dem Aufkommen biotechnologischer Datenerfassungsplattformen mit hohem Durchsatz wie Mikroarrays, SNP-Chips und Massenspektrometern werden nun routinemäßig Datensätze mit viel mehr Variablen als Beobachtungen gesammelt. Das Auffinden von Beziehungen zwischen interessierenden Antwortvariablen und Variablen in solchen Datensätzen ist ein wichtiges Problem, ähnlich dem Auffinden von Nadeln im Heuhaufen. Während Methoden für eine Reihe von Antworttypen entwickelt wurden, fehlte ein allgemeiner Ansatz.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-9-195 9c6f1a6fc955b687a0007cce994ad29a;de;;;5.1.;;;HL7-Engine-Modul für Gesundheitsinformationssysteme Die Integration von Anwendungen ist für ein Entwicklungsteam insbesondere im Gesundheitswesen immer das wichtigste Thema. In diesem Papier wird ein Engine-System der Gesundheitsstufe 7 (HL7) vorgeschlagen, um HL7-Herausforderungen zu lösen, die mit der Anwendung von HL7 in Gesundheitsorganisationen verbunden sind. Diese neue HL7-Engine wurde in einem Krankenhaus als Lösung für die Herausforderungen, mit denen wir konfrontiert waren, implementiert. Die Engine zeigt großen Erfolg bei der Überwindung bekannter HL7-Einschränkungen.;-;-;-;https://link.springer.com/article/10.1007/s10916-013-9986-8 e485c38b58c0fb5bcf13e1abf3d0a8b4;de;;;5.1.;;;Unterstützung für adaptive Navigation und Unterstützung für adaptive Zusammenarbeit in WebDL Dieser Artikel stellt adaptive Navigationsunterstützung und adaptive Zusammenarbeitsunterstützungsaufgaben in WebDL vor, einem interaktiven System zur Fokussierung des Unterrichts auf die Leistung der Schüler und zur Lösung von Problemen, die bei der Internetnutzung für Fernunterricht festgestellt wurden. Diese Anpassung erfolgt durch die Erfassung des Benutzermodells aus den verfügbaren Schülerdaten und die Interaktion mit dem System. WebDL kombiniert Techniken, die in intelligenten Nachhilfesystemen, adaptiven Hypermedia-Programmen und lernenden Lehrlingssystemen für die Softwarepersonalisierung verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44595-1_6 87503c3d7ecc06fa4bb11b3f56035101;de;;;5.1.;;;Verhaltensbasierte intelligente Robotertechnologien in industriellen Anwendungen Dieser Artikel gibt einen kurzen Überblick über intelligente Robotertechnologien in industriellen Anwendungen. Ziel ist es nicht, den Stand der Technik gründlich zu analysieren, sondern die Richtungen für die zukünftige Technologieentwicklung aufzuzeigen. Basierend auf dem Markterfolg von Kraftsteuerung und maschinellem Sehen in der Industrieautomatisierung behauptet dieses Papier die Ankunft der goldenen Ära der intelligenten Robotertechnologien. Die potentiellen Wachstumsmärkte sind gegenwärtig und in naher Zukunft vor allem die Montage und die Zerspanung, wo Vision und Force Sensing weiterhin die Schlüsseltechnologien sind. Da Roboterhersteller beginnen, sich dieser Technologiewelle zu stellen, müssen viele technische Herausforderungen gelöst werden. Das Hauptproblem für die industrielle F&E besteht darin, sensorgesteuerte Funktionalitäten sicher und kostengünstig in bestehende rein planungsbasierte Positionsregelungssysteme zu integrieren. Für die akademische Forschung sollten robuste, effiziente und effektive Sensorfusions- und Data-Mining-Methoden im Mittelpunkt stehen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73374-4_1 461e7fd386d169a3de90e6100461b475;de;;;5.1.;;;Bestimmung des Parameters der Distanzmessung zwischen zwei zögernden Fuzzy-Informationen bei der Entscheidungsfindung mit mehreren Attributen Um komplexe Entscheidungssituationen bewältigen zu können, entwickelt dieser Beitrag eine Methode zur Entscheidungsfindung mit mehreren Attributen mit dual zögerlichen Fuzzy-Elementen (DHFEs), die durch die Kombination der Vorteile von zögerlichen Fuzzy-Elementen mit denen von intuitiven Fuzzy-Zahlen erzeugt werden. Bei dem Verfahren wird ein verallgemeinertes Distanzmaß zwischen DHFEs mit einem Parameter entworfen, um die Nachteile der existierenden zögerlichen Fuzzy-Distanzmaße und DHF-Distanzmaße zu überwinden. Aufgrund begrenzter Kenntnisse, Erfahrungen und kognitiver Fähigkeiten ist es für einen Entscheidungsträger schwierig, Attributgewichte und den Parameter des Distanzmaßes bereitzustellen. Mit Hilfe des Closeness-Koeffizienten wird das vorgeschlagene Distanzmaß zur Bestimmung des Parameters und weiter zur Bestimmung von Attributgewichten verwendet. Um den Nähekoeffizienten jeder Alternative zu maximieren, wird zunächst ein Optimierungsmodell für jede Alternative konstruiert, um ihren günstigsten Parameter zu identifizieren. Mit dem Ziel, den optimalen Parameter zu bestimmen, der für jede Alternative fair ist, wird ein weiteres Optimierungsmodell konstruiert, um die Unterschiede zwischen dem optimalen Parameter und dem günstigsten Parameter jeder Alternative zu minimieren. Durch die Verwendung des optimalen Parameters können die Attributgewichte und der Näheskoeffizient jeder Alternative genau berechnet und verwendet werden, um alle Alternativen einzustufen und Lösungen zu generieren. Eine Effizienzbewertung des Technologietransferproblems wird durchgeführt, indem die vorgeschlagene Methode verwendet wird, um ihre Anwendbarkeit und Gültigkeit zu demonstrieren.;-;-;-;https://link.springer.com/article/10.1007/s40815-018-0512-5 63678e09e48e7c70a615ed17f6ba439d;de;;;5.1.;;;Google Maps Aided Land Availability System für die Gemeinde Chitungwiza Die derzeitige Bürokratie der Kommunen und die langsame manuelle Bearbeitung von Landanfragen und Statusprüfungen ist frustrierend. Erstens erfolgt die Informationsverbreitung in Bezug auf die Landverfügbarkeit hauptsächlich über staatliche Medien wie Zeitungen zu zufälligen Terminen und eine Online-Classified.co.zw-Plattform, die die meisten Menschen entweder nicht kaufen oder nur wenig Zugang haben. Zweitens verwendet die Gemeinde ein traditionelles Dateisystem mit vielen Details des Landes, das in die Dateien eingeprägt ist, was die Verfolgung des Landstatus sehr schwierig macht. Diese Untersuchung untersucht ausgewählte Warnsysteme und schlägt ein Land Availability Alert System (LAAS) vor. Zur Umsetzung wurde ein inkrementelles Vorgehensmodell verwendet, um sich ändernde Systemanforderungen sowie agile Methoden einzubeziehen. Die LAAS-Implementierung besteht aus einer dreistufigen Architektur mit einer zentralen Datenbank (MySQL-Datenbank), einer Web- und mobilen Anwendung (Android-App). Die vorgeschlagene Lösung ermöglicht es Benutzern (z. B. Landsucher, Vermesser, Mitarbeiter), sich in ihr Konto einzuloggen und alle Vorgänge durchzuführen (Landstatus überprüfen, beworbenes Land anzeigen usw.) und Warnungen über Google Cloud Messaging von einem entfernten Standort zu erhalten, ohne die Gemeinde zu besuchen Büros sparen Zeit und Transportkosten. Darüber hinaus führt eine Zentralisierung von Informationen zu einem besseren Wiederherstellungsplan und einem besseren Abruf von Informationen. Die Google Maps Application Programming Interface (API) wurde für die Visualisierung und die genaue Landortung mit dem Global Positioning System (GPS) Landortung verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-11196-0_96 d21887395e08c705ad252a767a5b6c41;de;;;5.1.;;;Steuerungskonfiguration linearer multivariabler Anlagen: fortschrittliche RGA-basierte Techniken Die in Kapitel 2 vorgestellte RGA stellt ein leistungsstarkes Werkzeug zur Messung der Regelkreisinteraktion dar und ist eine in der Industrie gut etablierte Paarungstechnik mit jahrzehntelangen erfolgreichen Anwendungen. Obwohl die vorgestellte RGA-Analyse für viele praktische Probleme ausreichend ist, ist es in einigen Fällen notwendig, das RGA-Konzept zu erweitern, um bestimmte Mängel zu beheben. Dieses Kapitel bietet einen Überblick über die fortgeschrittenen Pairing-Techniken basierend auf den verschiedenen RGA-Erweiterungen. Die vorgestellten Methoden sind:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03193-9_3 365d1d71f485e742e3cefa0ab44e6331;de;;;5.1.;;;Redundanz und Wahrnehmung In den Situationen, mit denen Kommunikationsingenieure konfrontiert sind, ist es relativ einfach, die Komponenten zu isolieren und zu identifizieren, auf die die Informationstheorie angewendet werden kann, nämlich eine Menge von Nachrichten, die dann codiert und über einen Kommunikationskanal übertragen werden. Es kann gezeigt werden, dass die statistischen Eigenschaften des Nachrichtenensembles eindeutig berechenbare Auswirkungen auf die Effizienz haben, mit der sie den Kanal durchgereicht werden können, wenn das Nachrichtenensemble nach der Codierung hochgradig redundant ist, können viel weniger Informationen übertragen werden. Redundante Nachrichten werden auch weniger durch Fehler bei der Übertragung gestört, aber dies ist viel komplizierter, und es gibt genug Probleme, die einfacheren Konzepte der Informationstheorie auf die Wahrnehmung anzuwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-80885-2_27 9d0d7ccd7f913ddddbd5ff2c4ed13ab8;de;;;5.1.;;;Adressierung dynamischer Probleme der Programmmodellprüfung Model Checking realer Programme ist in letzter Zeit zu einem aktiven Forschungsgebiet geworden. Programme weisen jedoch zwei Merkmale auf, die die Modellprüfung erschweren: die Komplexität ihres Zustands und die dynamische Natur vieler Programme. Hier behandeln wir beide Probleme im Kontext des Java PathFinder (JPF) Model Checkers. Zunächst werden wir zeigen, wie der Zustand eines Java-Programms effizient kodiert werden kann und wie diese Kodierung ausgenutzt werden kann, um die Modellprüfung zu verbessern. Als nächstes zeigen wir, wie Symmetriereduktionen verwendet werden, um einige der Probleme zu lindern, die durch die dynamische Natur von Java-Programmen verursacht werden. Schließlich zeigen wir, wie eine verteilte Modellprüfung eines dynamischen Programms erreicht werden kann und darüber hinaus, wie dynamische Partitionen des Zustandsraums die Modellprüfung verbessern können. Wir untermauern alle unsere Erkenntnisse mit Ergebnissen aus der Anwendung dieser Techniken innerhalb des JPF-Modellcheckers.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45139-0_6 a5415f4c80136a777ded61d551112a25;de;;;5.1.;;;ADA-INCVAE: Verbesserte Datengenerierung mit Variational Autoencoder für unausgewogene Klassifizierung Das Erhöhen der Anzahl von Minderheitenstichproben durch Datengenerierung kann die Leistung beim Mining von Minderheitsstichproben unter Verwendung eines Klassifikators bei unausgeglichenen Problemen effektiv verbessern. In diesem Papier haben wir einen effektiven Datengenerierungsalgorithmus für Minderheitsstichproben vorgeschlagen, der als Adaptive-Erhöhungs-Dimension von Variational AutoEncoder (ADA-INCVAE) bezeichnet wird. Ergänzend zu früheren Studien wird eine theoretische Studie aus der Perspektive des Multi-Task-Lernens durchgeführt, um den posterioren Kollaps bei VAE zu lösen. Anschließend schlug es unter Verwendung der theoretischen Unterstützung eine neuartige Trainingsmethode vor, indem die Datendimension vergrößert wurde, um das Auftreten eines posterioren Kollapses zu vermeiden. Mit dem Ziel, den Bereich der synthetischen Daten für verschiedene Minderheitsproben einzuschränken, wird ein adaptives Rekonstruktionsverlustgewicht entsprechend der Abstandsverteilung der Mehrheitsproben um die Minderheitsklassenproben vorgeschlagen. In der Datengenerierungsstufe wird der Generierungsanteil verschiedener Abtastpunkte durch die lokalen Informationen der Minderheitsklasse bestimmt. Die experimentellen Ergebnisse auf der Grundlage von 12 unausgeglichenen Datensätzen zeigten, dass der Algorithmus dem Klassifikator helfen könnte, das F1-Maß und den G-Mittelwert effektiv zu verbessern, was die Wirksamkeit der von ADA-INCVAE generierten synthetischen Daten bestätigt.;-;-;-;https://link.springer.com/article/10.1007/s10489-021-02566-1 dd91dcf9244b0859e21b143535a72e82;de;;;5.1.;;;Rolex: Resilienz-orientierte Spracherweiterungen für extrem skalierte Systeme Zukünftige Exascale-High-Performance-Computing-(HPC)-Systeme werden aus VLSI-Geräten aufgebaut, die weniger zuverlässig sind als die heute verwendeten, und Fehler werden zur Regel, nicht zur Ausnahme. Dies wird Systemdesigner und Programmierer vor erhebliche Probleme stellen, die seit einem halben Jahrhundert Freude an einem Ausführungsmodell haben, das ein korrektes Verhalten des zugrunde liegenden Computersystems voraussetzt. Die mittlere Zeit bis zum Ausfall des Systems skaliert umgekehrt zur Anzahl der Komponenten im System, und daher werden Fehler und daraus resultierende Ausfälle auf Systemebene zunehmen, da die Systeme in Bezug auf die Anzahl der verwendeten Prozessorkerne und Speichermodule skalieren. Jedoch muss nicht jeder erkannte Fehler einen katastrophalen Ausfall verursachen. Viele HPC-Anwendungen sind von Natur aus fehlerresistent. Es sind jedoch die Anwendungsprogrammierer, die über dieses Wissen verfügen, aber nicht über Mechanismen verfügen, um es an das System weiterzugeben. In diesem Whitepaper stellen wir neue Resilience Oriented Language Extensions (Rolex) vor, die die Integration von Fehlerresistenz als intrinsische Eigenschaft des Anwendungscodes erleichtern. Wir beschreiben die Syntax und Semantik der Spracherweiterungen sowie die Implementierung der unterstützenden Compiler-Infrastruktur und des Laufzeitsystems. Unsere Experimente zeigen, dass ein Ansatz, der die Erkenntnisse des Programmierers nutzt, um über den Kontext und die Bedeutung von Fehlern für das Anwendungsergebnis nachzudenken, die Wahrscheinlichkeit, dass eine Anwendung erfolgreich abgeschlossen wird, erheblich verbessert.;-;-;-;https://link.springer.com/article/10.1007/s11227-016-1752-5 197a4bd64434bff37d4b293dc204fc65;de;;;5.1.;;;Korpusbasierte Analyse japanischer Relativsatzkonstruktionen Japanische Relativsatzkonstruktionen (RCCs) werden als NPs der Struktur ‚S NP‘ definiert, wobei das Fehlen eines Relativpronomens oder einer anderen expliziten Form der Abgrenzung von Nomenklauseln festgestellt wird. Die japanische Relativsatzmodifikation sollte in mindestens zwei wichtige semantische Typen eingeteilt werden: case-slot-gapping und head-restriktiv. Diese Typen der Relativsatzmodifikation können jedoch anscheinend nicht unterschieden werden. In diesem Artikel schlagen wir eine Methode vor, um den Typ eines RCC mit einer maschinellen Lerntechnik zu identifizieren. Die in unserem Ansatz verwendeten Funktionen repräsentieren nicht nur die Merkmale von RCC, sondern werden auch automatisch von großen Korpora bezogen. Die Ergebnisse der Evaluierung zeigten, dass unsere Methode die traditionelle fallrahmenbasierte Methode übertraf und die von uns vorgestellten Merkmale bei der Identifizierung der RCC-Typen wirksam waren.;-;-;-;https://link.springer.com/chapter/10.1007/11562214_5 13eaa1e0556703b4f0c84d2b7971bb03;de;;;5.1.;;;IDM-PhyChm-Ens: Intelligente Entscheidungs-Ensemble-Methodik zur Klassifizierung von Brustkrebs beim Menschen anhand physikalisch-chemischer Eigenschaften von Aminosäuren Die Entwicklung einer genauen und zuverlässigen intelligenten Entscheidungsmethode für den Aufbau von Krebsdiagnosesystemen ist eines der schnell wachsenden Forschungsgebiete der Gesundheitswissenschaften. Ein solches Entscheidungsfindungssystem kann angemessene Informationen für die Krebsdiagnose und die Arzneimittelentdeckung liefern. Deskriptoren, die von physikalisch-chemischen Eigenschaften von Proteinsequenzen abgeleitet sind, sind sehr nützlich für die Klassifizierung von Krebsproteinen. Kürzlich wurde über mehrere interessante Forschungsstudien zur Brustkrebsklassifikation berichtet. Zu diesem Zweck schlagen wir die Nutzung der physikalisch-chemischen Eigenschaften von Aminosäuren in Proteinprimärsequenzen wie Hydrophobie (Hd) und Hydrophilie (Hb) für die Brustkrebsklassifikation vor. Hd- und Hb-Eigenschaften von Aminosäuren werden in der neueren Literatur als sehr effektiv bei der Charakterisierung der konstituierenden Aminosäuren beschrieben und werden verwendet, um Proteinfaltungen, Wechselwirkungen, Strukturen und Effekte auf die Sequenzreihenfolge zu untersuchen. Insbesondere anhand dieser physikalisch-chemischen Eigenschaften haben wir beobachtet, dass Prolin-, Serin-, Tyrosin-, Cystein-, Arginin- und Asparagin-Aminosäuren eine hohe Unterscheidung zwischen krebsartigen und gesunden Proteinen bieten. Im Gegensatz zu herkömmlichen Ansätzen zur Ensembleklassifikation ist die vorgeschlagene „;-;-;-;https://link.springer.com/article/10.1007/s00726-013-1659-x 4270f80af63e5bd8becae42e462397f7;de;;;5.1.;;;Eine Analyse von Informationen zum Erscheinungsbild von Objekten und kontextbasierter Klassifizierung Der Zweck der Kategorisierung von Objekten besteht darin, Instanzen einer Objektkategorie innerhalb eines Bildes zu identifizieren und zu lokalisieren. Es ist eine schwierige Aufgabe, Objekte in Bildern zu identifizieren, wenn solche Bilder schlechte Qualität, Okklusion, Hintergrundechos oder Rauschen enthalten. Schwieriger wird es, wenn zu viele Objekte in derselben Szene (Hintergrund) vorhanden sind. Die meisten Modelle zum Kategorisieren von Objekten nutzen Kontextinformationen und Erscheinungsinformationen von Objekten, um die Erkennungsgenauigkeit zu verbessern. In der Szene kann die Interaktion zwischen Objekten (Kontextinformationen) erfolgreich dazu beitragen, die Mehrdeutigkeit von Erscheinungseingaben während der Erkennungsaufgabe zu beseitigen. Aussehensinformationen können bis zu einem gewissen Grad dabei helfen, Objektklassen erfolgreich zu identifizieren. In diesem Beitrag wird das Problem der Integration verschiedener Arten von Kontextinformationen behandelt, um eine robuste Kategorisierung von Objekten zu erhalten. Es gibt verschiedene Verfahren zum Ausnutzen von Kontextinformationen zum Kategorisieren von Objekten.;-;-;-;https://link.springer.com/article/10.1007/s13319-014-0024-5 1d092416b75ba9f9d6f32ab1da9e8329;de;;;5.1.;;;Semantisches Monitoring und Kompensation in sozio-technischen Prozessen Sozio-technische Prozesse werden immer wichtiger, mit der zunehmenden Anerkennung der rechnerischen Grenzen der Vollautomatisierung, der wachsenden Popularität von Crowd Sourcing, der Komplexität und Offenheit moderner Organisationen usw. Eine zentrale Herausforderung beim Management sozio-technischer Prozesse ist der Umgang mit die flexible und manchmal dynamische Art der Ausführung von menschlich vermittelten Aufgaben. Es ist allgemein bekannt, dass die menschliche Ausführung nicht immer vorgegebenen Koordinationsmodellen entspricht und oft fehleranfällig ist. Dieses Papier befasst sich mit dem Problem der semantischen Überwachung der Ausführung sozio-technischer Prozesse zur Überprüfung auf Nichtkonformität und dem Problem der Wiederherstellung (oder Kompensation) von Nichtkonformität. Dieses Papier schlägt eine semantische Lösung des Problems vor, indem semantisch annotierte Prozessmodelle genutzt werden, um Nichtkonformitäten zu erkennen, und dieselben semantischen Annotationen verwenden, um kompensatorische, vom Menschen vermittelte Aufgaben zu identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12256-4_12 76e9638071e92364fe8e05094a721714;de;;;5.1.;;;Ein autonomes Transportfahrzeug für Frachtumschlaganwendungen Die Entwicklung des AGV hat eine Reihe wichtiger Probleme aufgezeigt, die von der Robotik-Gemeinschaft angegangen werden müssen, wenn im Labor entwickelte Techniken zu kommerziellen Systemen heranreifen. Insbesondere die Notwendigkeit, Zuverlässigkeit im Kontext autonomer Systeme zu entwickeln und aufzubauen, wird als entscheidend angesehen. Dies erfordert ein sorgfältiges Überdenken der Art und Weise, in der Techniken und Systeme implementiert werden, und die Entwicklung quantifizierbarer Leistungs- und Zuverlässigkeitsmaße sowohl auf Subsystemebene als auch als Teil eines Gesamtfahrzeugs.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0035227 985f01af33f4ea8ad71fd8bcad85e9a5;de;;;5.1.;;;Leistungsanalyse des Datenschutzsystems während der Datenübertragung in MANETs Die Offenheit eines Mobile Adhoc-Netzwerks (MANET) macht es anfällig für verschiedene Angriffe, die die Privatsphäre verletzen können, und dies erfordert ein Datenschutzsystem. In diesem Papier schlagen wir ein Datenschutzsystem mit flexiblen und anpassbaren Richtlinien vor, um die Privatsphäre während der Datenübertragung basierend auf Anwendungs- und Kontextattributen zu schützen. Wir stellen auch das Leistungsanalysemodell zur Verfügung, um die Eignung von Richtlinien für die Wahrung der Privatsphäre zu testen, was für die Echtzeitimplementierung dieses Systems in einem ressourcenbegrenzten MANET unerlässlich ist. Schließlich wird das vorgeschlagene Datenschutzsystem anhand von Simulationen mit früheren Arbeiten verglichen und die erhaltenen Ergebnisse zeigen die Wirksamkeit des vorgeschlagenen Datenschutzsystems.;-;-;-;https://link.springer.com/article/10.1007/s10776-017-0373-0 2fe6ff5c423ee6c57fdbf45dce53c47c;de;;;5.1.;;;Engineering-Agent-Organisationen in einem Geschäftsumfeld Motiviert durch die Nachfrage aus der kommerziellen Welt nach Softwaresystemen, die bei der Reorganisation von Prozessen zur Reduzierung der Geschäftskomplexität helfen können, diskutieren wir die Vorteile und Herausforderungen des Multi-Agenten-Ansatzes. Wir konzentrieren uns auf die technischen Aspekte großer Multi-Agenten-Systeme und beginnen unsere Erkundung mit einem realen Beispiel aus der Callcenter-Branche. Der kritische Call-Routing-Prozess erscheint bei der Präsentation unserer Ideen angemessen und nützlich und bietet einen guten Ausgangspunkt für die Entwicklung von Agentenorganisationen, die zur Selbstverwaltung und Koordination fähig sind. Die Hauptbeiträge dieser Arbeit können als Demonstration des Werts von Organisationsmodellen von Agenten zusammengefasst werden, die die typischen hierarchischen Strukturen menschlicher Organisationen nicht replizieren und dass eine recht einfache Peer-to-Peer-Struktur sehr ähnliche Leistungsindikatoren wie eine ausgereifte Simulator, der herkömmliche Techniken verwendet, was weitere Verbesserungen nahelegt, können leicht realisiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10203-5_5 3708d5628d76f9da9537565607c80023;de;;;5.1.;;;Dynamische Provenienz für SPARQL-Updates Während das Semantic Web derzeit Provenienzinformationen anzeigen kann, indem es die W3C-PROV-Standards verwendet, gibt es einen „fehlenden Link“ bei der Verbindung von PROV mit dem Speichern und Abfragen dynamischer Änderungen an RDF-Graphen mit SPARQL. Die Lösung dieses Problems wäre für so klare Anwendungsfälle wie die Erstellung von Versionskontrollsystemen für RDF erforderlich. Während einige Provenienzmodelle und Annotationstechniken zum Speichern und Abfragen von Provenienzdaten, die ursprünglich mit Blick auf Datenbanken oder Workflows entwickelt wurden, problemlos auf RDF und SPARQL übertragen werden können, passen sich diese Techniken nicht ohne weiteres an die Beschreibung von Änderungen in dynamischen RDF-Datensätzen im Laufe der Zeit an. In diesem Artikel untersuchen wir, wie das dynamische Copy-Paste-Herkunftsmodell von Buneman et al.[2] angepasst werden kann. auf RDF-Datensätze, die sich im Laufe der Zeit als Reaktion auf SPARQL-Updates ändern, wie die resultierenden Herkunftsdatensätze selbst als RDF in einer mit W3C PROV kompatiblen Weise dargestellt werden und wie die Herkunftsinformationen durch Neuinterpretation von SPARQL-Updates definiert werden können. Der Hauptbeitrag dieses Papiers ist ein semantisches Framework, das es ermöglicht, die Semantik von SPARQL Update auf prinzipielle Weise als Grundlage für ein „Cut-and-Paste“-Herkunftsmodell zu verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11964-9_27 bb91429159f49d2dfaa9f6a08f670491;de;;;5.1.;;;Secure Disintegration Protocol für datenschutzwahrenden Cloud-Speicher Cloud Service Provider bieten Infrastruktur, Netzwerkdienste und Softwareanwendungen in der Cloud an. Die Cloud-Dienste werden in einem Rechenzentrum gehostet, das von Benutzern mit Hilfe der Netzwerkkonnektivität genutzt werden kann. Daher besteht ein Bedarf an der Bereitstellung von Sicherheit und Integrität in Cloud-Ressourcen. Die meisten Sicherheitsinstrumente haben eine begrenzte Fehlerrate, und das Eindringen kommt mit komplexeren und ausgefeilteren Techniken, die Sicherheitsfehlerquoten explodieren. In diesem Papier haben wir ein sicheres Desintegrationsprotokoll (SDP) zum Schutz der Privatsphäre vor Ort und in der Cloud vorgeschlagen. Die in diesem Dokument vorgestellte Architektur wird für Cloud-Speicher verwendet und wird in Verbindung mit unserer einzigartigen Datenkompressions- und Codierungstechnik verwendet. Die Wahrscheinlichkeitsanalyse wird verwendet, um die Eindringtoleranzfähigkeiten für das SDP zu berechnen.;-;-;-;https://link.springer.com/article/10.1007/s11277-018-5284-6 77a60b339714831c605737ea004fe11c;de;;;5.1.;;;Quantenzustandstransfer mit begrenzten Ressourcen Auf der Suche nach realistischen Quantenzustandsübertragungsprotokollen ist die Lockerung der erforderlichen Bedingungen ein grundlegender Schritt. Der Einsatz von Mehrteilchensystemen zum Zwecke der Quanteninformationsverarbeitung wird durch eine Reihe technischer Schwierigkeiten erschwert, insbesondere im Zusammenhang mit der fehlenden Adressierbarkeit ihrer einzelnen Elemente. Wir müssen daher nach neuen Wegen suchen, um diese Probleme zu umgehen. Auch wenn es sicherlich interessant ist, die gesamte Evolution eines Quantensystems zu untersuchen, könnte uns die Betrachtung des Verhaltens einiger charakteristischer Merkmale helfen, im oben skizzierten Kontext auffällige Strategien zu finden. Genau dieser Gedanke liegt der in diesem Kapitel vorgestellten Methode zugrunde, die wir benennen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39937-4_4 7bbba2b8af62a0e2d3322c7f192bd4c8;de;;;5.1.;;;Soft Computing in Fernerkundungsanwendungen In diesem Übersichtsartikel werden aktuelle Entwicklungen bei Soft-Computing-Techniken und -anwendungen speziell für die Fernerkundung diskutiert, insbesondere in den letzten zwei Jahrzehnten. Obwohl die Anwendungen auf viele Bereiche der Fernerkundung verteilt sind, hat sich herausgestellt, dass der Einsatz dieser Techniken aufgrund ihrer Fähigkeit, gemischte Pixel und auch unterschiedliche räumliche Bereiche (im Bereich von 1–250 m .) zu verarbeiten, stark auf die Klassifizierung von Fernerkundungsdaten ausgerichtet ist ) und spektrale Auflösungen (von 1 bis 100 der Spektralbänder). Der Erfolg mit herkömmlichen Methoden für diese Probleme war nur mäßig. Dies hat zu mehr Forschung in der Soft-Computing-Datenklassifizierung geführt. Insbesondere die Soft-Computing-Verfahren übertreffen herkömmliche Verfahren, wenn sie auf komplexe Datenhandhabung angewendet werden, insbesondere für die Klassifikation von Daten mit mehreren Quellen und sehr hohen Dimensionen mit einer oder mehreren Kombinationen von Klassifikatoren. Relativ neue Soft-Computing-Konzepte wie Deep Learning, analytische hierarchische Prozesse und Merkmalsextraktion aus hyperspektralen Bildern sowie Anwendungen von Optimierungstechniken wie Partikelschwarmoptimierung, genetische Algorithmen zur Handhabung von Fernerkundungsproblemen wurden behandelt, um die Forschungsgemeinschaft zur weiteren Erforschung solch wichtiger Themen zu ermutigen.;-;-;-;https://link.springer.com/article/10.1007/s40010-017-0431-0 6a52e456cdb7a2fd59f74474a0dc8469;de;;;5.1.;;;Ein Fuzzy-Data-Warehouse-Ansatz für Webanalysen Die Analyse von Webdaten und -metriken wurde zu einer wichtigen Aufgabe des E-Business, um die Website, deren Nutzung und das Online-Marketing zu steuern und zu optimieren. Erstens zeigt dieses Papier den Einsatz von Webanalysen, verschiedenen Webmetriken von Google Analytics und anderen Key Performance Indicators (KPIs) des E-Business.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04754-1_29 c58c46e46ceab9cea5ca505493ff13a8;de;;;5.1.;;;Bewertung der Leistung von Such- und Rettungsrobotern mit T-sphärischen Fuzzy-Hamacher-Aggregationsoperatoren Der Entscheidungsfindungsansatz mit mehreren Attributen ist ein weit verbreiteter Algorithmus, der einige Aggregationswerkzeuge benötigt, und in den letzten Jahrzehnten wurden mehrere solcher Aggregationsoperatoren entwickelt, um diesen Zweck zu erfüllen. Der Hamacher-Aggregationsoperator ist ein solcher Operator, der auf der t-Norm und der t-Konorm von Hamacher basiert. Es wird beobachtet, dass die Hamacher-Aggregationsoperatoren der intuitionistischen Fuzzy-Menge, der Pythagoräischen Fuzzy-Menge und der Bild-Fuzzy-Menge einige Einschränkungen in ihrer Anwendbarkeit aufweisen. Um diesen Zweck zu erfüllen, werden in diesem Papier einige Hamacher-Aggregationsoperatoren basierend auf T-sphärischen Fuzzy-Zahlen eingeführt. Die Konzepte der T-sphärischen Fuzzy-Hamacher-gewichteten Mittelung und der T-sphärischen Fuzzy-Hamacher-gewichteten geometrischen Aggregationsoperatoren werden vorgeschlagen, die vier Aspekte der menschlichen Meinung beschreiben, einschließlich Ja, Nein, Abstinenz und Verweigerung ohne Einschränkungen. Diese Art von Aggregationsoperatoren beschreibt effizient die Fälle, die von den bestehenden Aggregationsoperatoren ungelöst blieben. Die Gültigkeit der vorgeschlagenen Aggregationsoperatoren wird untersucht und einige grundlegende Eigenschaften werden diskutiert. Die vorgeschlagenen neuen Aggregationsoperatoren von Hamacher werden verwendet, um die Leistung von Such- und Rettungsrobotern mit einem Multi-Attribute-Entscheidungsansatz zu analysieren, da ihre Leistung im Notfall hervorragend ist. Die vorgeschlagenen Hamacher-Aggregationsoperatoren haben zwei variable Parameter, nämlich;-;-;-;https://link.springer.com/article/10.1007/s40815-020-00803-2 fe914e058319d4d6fb869815c97f793e;de;;;5.1.;;;Gezielte Informationen zu abstrakten Räumen: Eigenschaften und Extremumprobleme Gerichtete Information ist ein informationstheoretisches Maß, das die Richtung des Informationsflusses über kausale Systeme mit Rückkopplung berücksichtigt, wie z. B. Netzwerkkommunikation und Kommunikation bei Steuerungsproblemen. In diesem Kapitel diskutieren wir mehrere funktionale und topologische Eigenschaften gerichteter Information für allgemeine polnische Räume (vollständige separierbare metrische Räume) unter Verwendung der Topologie der schwachen Konvergenz von Wahrscheinlichkeitsmaßen. Dazu gehören Konvexität/Konkavität gerichteter Information, schwache Kompaktheit von Familien kausal bedingter Faltungsverteilungen, niedrigere Semikontinuität gerichteter Information, Stetigkeit gerichteter Information und Extremumprobleme gerichteter Information, einschließlich Variationsgleichheiten [verwendet im Blahut-Arimoto-Algorithmus (BAA )], die bei der nicht-vorausschauenden oder Echtzeit-Joint-Source-Channel-Codierung (JSCC) wichtig sind. Diese grundlegenden funktionalen und topologischen Eigenschaften der gerichteten Information sind denen der gegenseitigen Information analog. In diesem Kapitel wird die Bedeutung der Eigenschaften von gerichteten Informationen im Zusammenhang mit extremen Problemen gerichteter Informationen, wie Punkt-zu-Punkt- und Netzwerkanwendungen, diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10407-2_36 41d1c810018993ca0d80411194811b20;de;;;5.1.;;;Ein kombiniertes Fehlererkennungs-, Identifizierungs- und Neukonfigurationssystem basierend auf einer optimalen Steuerungszuweisung Die hier vorgestellte Herangehensweise an das Problem der fehlertoleranten Regelung basiert auf langjähriger Forschung zu diesem Thema. Der Schwerpunkt dieser Forschung lag immer auf militärischen Kampfflugzeugen, wobei sich die Anwendung auf eine zivile Transportplattform als nützlich erwiesen hat, um die Algorithmen sowohl für zivile als auch für militärische Anwendungen weiter zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11690-2_14 bb8bada33dbeaca51d74bb0175b57939;de;;;5.1.;;;Eine Übersicht über Community-Erkennungsalgorithmen basierend auf Analyse-Intent Es gab eine beträchtliche Menge an Forschung, die sich der Identifizierung von Community-Strukturen innerhalb von Graphen widmet. Die meisten dieser Studien konzentrierten sich auf Partitionierungstechniken und die daraus resultierende Qualität der entdeckten Gruppierungen (Gemeinschaften) ohne Rücksicht auf die Absicht der durchgeführten Analyse (Analyse-Intention). In vielen Fällen kann eine gegebene Netzwerkgemeinschaft je nach Kontext, in dem eine Partitionierungstechnik verwendet oder angewendet wird, aus deutlich unterschiedlichen Elementen bestehen. Darüber hinaus variiert die Anzahl der Communities innerhalb eines Netzwerks stark in Abhängigkeit von der Analyseabsicht und somit variieren die Diskretionsqualität und die Leistung von Algorithmen in ähnlicher Weise. In dieser Umfrage überprüfen wir mehrere Algorithmen aus der Literatur, die entwickelt wurden, um die Community-Struktur in Netzwerken zu entdecken. Wir überprüfen diese Ansätze aus zwei Analyseperspektiven: rollen-/prozessfokussiert (kategoriebasierte Methoden) und topologisch struktur- bzw. verbindungsfokussiert (ereignisbasierte Methoden). Wir diskutieren die Stärken und Schwächen der einzelnen Algorithmen und geben je nach Analysekontext Vorschläge zum Einsatz der Algorithmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-14039-1_12 d4bcdf0ba3b38f53e350b0f9f66bed94;de;;;5.1.;;;Hierarchische Mesh-Netzwerke mit mehreren Auflösungen für die Gehirndekodierung Das menschliche Gehirn soll Informationen in mehreren Frequenzbändern verarbeiten. Daher können wir verschiedene Informationen aus funktionalen Daten der Magnetresonanztomographie (fMRI) extrahieren, indem wir sie mit mehreren Auflösungen verarbeiten. Wir schlagen ein Framework namens Hierarchical Multi-Resolution Mesh Networks (HMMNs) vor, das eine Reihe von Gehirnnetzwerken mit mehreren Auflösungen von fMRT-Signalen erstellt, um den zugrunde liegenden kognitiven Prozess darzustellen. Unser Framework zerlegt zunächst das fMRI-Signal in verschiedene Frequenzteilbänder unter Verwendung der Wavelet-Transformation. Dann wird an jedem Teilband ein Gehirnnetzwerk gebildet, indem ein Satz lokaler Maschen zusammengesetzt wird. Bogengewichtungen jedes lokalen Netzes werden durch Ridge-Regression geschätzt. Schließlich werden Adjazenzmatrizen von Maschennetzen, die an verschiedenen Teilbändern erhalten wurden, verwendet, um Klassifizierer in einer Ensemble-Lernarchitektur zu trainieren, die als Fuzzy Stacked Generalization (FSG) bezeichnet wird. Unsere Decodierungsleistungen im Task-fMRI-Datensatz des Human Connectome Project zeigen, dass HMMNs bei 808 Probanden Aufgaben mit einer Genauigkeit von 99% erfolgreich unterscheiden können. Die Informationsvielfalt, die in Maschennetzwerke aus mehreren Teilbändern eingebettet ist, ermöglicht es dem Ensemble von Klassifikatoren, bei der Gehirndecodierung zusammenzuarbeiten. Die vorgeschlagenen HMMNs decodieren die kognitiven Aufgaben besser als ein einzelner Klassifikator, der auf ein beliebiges Teilband angewendet wird. Auch Mesh-Netzwerke haben eine bessere Darstellungsleistung im Vergleich zu paarweisen Korrelationen oder durchschnittlichen Voxel-Zeitreihen. Darüber hinaus übertrifft die Fusion verschiedener Informationen mit FSG die Fusion mit Mehrheitsentscheidungen. Wir schließen daraus, dass fMRT-Daten, die während einer kognitiven Aufgabe aufgenommen wurden, vielfältige Informationen in multi-auflösenden Mesh-Netzwerken liefern. Unser Framework verschmilzt diese komplementären Informationen und steigert die Gehirn-Dekodierungsleistung, die bei einzelnen Subbändern erzielt wird.;-;-;-;https://link.springer.com/article/10.1007/s11682-017-9774-z b967bd3a0250a49428b0b138b25f4785;de;;;5.1.;;;Imputationsbasierte Inferenz lokaler Abstammung in gemischten Populationen Die genaue Schlussfolgerung der lokalen Abstammung aus genetischen Variationsdaten des gesamten Genoms ist entscheidend für das Verständnis der Geschichte gemischter menschlicher Populationen und das Erkennen von SNPs, die mit Krankheiten in Verbindung stehen, durch Beimischungskartierung. Obwohl mehrere existierende Methoden eine hohe Genauigkeit bei der Ableitung lokaler Vorfahren für Individuen erreichen, die aus der Vermischung genetisch entfernter Vorfahrenpopulationen (z. B. Afroamerikaner) resultieren, bleibt die Abstammungsableitung in dem Fall, wenn Vorfahrenpopulationen eng miteinander verwandt sind, eine Herausforderung. Überraschenderweise übertreffen Methoden, die auf der Analyse von Allelfrequenzen an nicht verknüpften SNP-Loci basieren, derzeit Methoden, die auf der Haplotypanalyse basieren, obwohl letztere Methoden anscheinend detailliertere Informationen über die genetische Ausstattung von Vorfahrenpopulationen erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01551-9_22 95c5a4860c19465bfe84beec71ab997f;de;;;5.1.;;;Drei- und mehrdimensionale Modellierung im Geo-Engineering Für viele Standorte, an denen Ingenieurbauwerke gebaut werden, wurde eine vollständige dreidimensionale Modellierung entwickelt und implementiert. Derartige Computermodelle des Untergrunds ermöglichen eine ausgefeiltere Handhabung von Untergrunddaten, was beispielsweise zu einer besseren Dimensionierung von geotechnischen Einheiten, der Bewertung von Gefahren und Risiken, Gründungsplanung, Tunnelführung, Planung und Bau usw. führt Rückanalyse für abgeschlossene Tiefbauprojekte zur Überprüfung der Richtigkeit angenommener und geschätzter Bodenmodelle und -parameter, Überprüfung der Richtigkeit von konstitutiven Modellen für das Bodenverhalten und Verwendung von Rückanalysen zur Verbesserung von Baumethoden oder -geräten. Der Beitrag veranschaulicht einige dieser Vorteile anhand einer Reihe von hochmodernen Anwendungen der dreidimensionalen Modellierung in der Ingenieurgeologie und Geotechnik und beleuchtet eine Reihe von Schlüsselfragen beim Einsatz computergestützter 3D-Modellierung: die Definition von geotechnischen (homogene) Zonen, Maßstab und Detail, Unsicherheit und Wahrscheinlichkeit des entwickelten Modells.;-;-;-;https://link.springer.com/article/10.1007/s10064-005-0021-2 a5c9f7c015e0af465f66d5045d0636a0;de;;;5.1.;;;Robuste Fehlererkennung von Systemen über Netzwerke mit Paketverlust Es ist klar, dass die Fehlerdiagnose (einschließlich Fehlererkennung und -isolierung, FDI) zu einem wichtigen Thema in der modernen Regelungstheorie und -praxis geworden ist. Seit Anfang der 1970er Jahre gewinnt die Forschung zur Fehlerdiagnose weltweit in Theorie und Anwendung zunehmend an Bedeutung [134, 47]. Diese Entwicklung wurde vor allem durch den Trend der Automatisierung zu mehr Komplexität und die steigende Nachfrage nach höherer Verfügbarkeit und Sicherheit von Leitsystemen stimuliert. Ein starker Impuls kommt jedoch auch von der modernen regelungstheoretischen Schätzung und Parameteridentifikation, die durch die spektakulären Fortschritte der Computertechnologie möglich wurde [26].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17925-9_9 c2e5fa944e371ba37425dd6a97e45c06;de;;;5.1.;;;Die emotionalen Mechanismen in NARS In diesem Beitrag werden das konzeptionelle Design und die experimentelle Implementierung der Komponenten von NARS erläutert, die in direktem Zusammenhang mit Emotionen stehen. Es wird argumentiert, dass Emotionen für ein AGI-System notwendig sind, das mit unzureichendem Wissen und Ressourcen arbeiten muss. Dieses Design wird auch mit den anderen Ansätzen der AGI-Forschung sowie den relevanten Aspekten im menschlichen Gehirn verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-41649-6_15 ef039bc2f811f4663361796a2806fb6b;de;;;5.1.;;;Lambda-Verschleierung Mit dem Aufkommen immer fortschrittlicherer Reverse-Engineering-Techniken, insbesondere skalierbarerer symbolischer Ausführungstools, steht die Software-Verschleierung vor großen Herausforderungen. Verzweigungsbedingungen enthalten eine wichtige Kontrollflusslogik eines Programms. Angreifer können leistungsstarke Programmanalysetools verwenden, um sensible Programmeigenschaften zu sammeln und die interne Logik eines Programms wiederherzustellen, indem sie geistiges Eigentum vom ursprünglichen Eigentümer stehlen. In diesem Artikel schlagen wir eine neuartige Kontrollverschleierungstechnik vor, die Lambda-Kalkül verwendet, um die ursprüngliche Berechnungssemantik zu verbergen und das ursprüngliche Programm für das Verständnis und das Reverse Engineering unübersichtlicher zu machen. Unser Obfuscator ersetzt die bedingten Anweisungen durch Lambda-Kalkül-Funktionsaufrufe, die das gleiche Verhalten mit einem komplizierteren Ausführungsmodell simulieren. Unser Versuchsergebnis zeigt, dass unsere Verschleierungsmethode sensible Verzweigungsbedingungen mit nur geringem Overhead vor modernsten symbolischen Ausführungstechniken schützen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-78813-5_11 146991dc15e2674a1691efb661c33167;de;;;5.1.;;;Verteilte Überwachung des Straßenoberflächenzustands mit Mobiltelefonen Das Ziel dieser Forschung ist die Verbesserung der Verkehrssicherheit durch das Sammeln und Verteilen aktueller Informationen über den Zustand der Straßenoberfläche mithilfe von Mobiltelefonen. Informationen über den Zustand der Straßenoberfläche werden sowohl für Reisende als auch für die Wartung des Straßennetzes als nützlich angesehen. Das Problem, das wir betrachten, besteht darin, Anomalien der Straßenoberfläche zu erkennen, die, wenn sie nicht gemeldet werden, zu Verschleiß von Fahrzeugen, geringerem Fahrkomfort und geringerer Beherrschbarkeit des Fahrzeugs oder zu einem Unfall führen können. In dieser Arbeit haben wir ein Mustererkennungssystem zur Erkennung des Straßenzustands aus Beschleunigungs- und GPS-Messwerten entwickelt. Wir präsentieren experimentelle Ergebnisse aus realen Stadtfahrdaten, die die Nützlichkeit des Systems demonstrieren. Unsere Beiträge sind: 1) Durchführen einer durchgehenden Spektralanalyse von dreiachsigen Beschleunigungssignalen, um zuverlässige Straßenoberflächenanomalieetiketten zu erhalten. 2) Umfangreiche Vorverarbeitung von GPS- und Beschleunigungssignalen. 3) Vorschlagen eines Ansatzes zur Entfernung von Geschwindigkeitsabhängigkeiten für die Merkmalsextraktion und Demonstration seiner positiven Wirkung in mehreren Merkmalssätzen für die Aufgabe zur Erkennung von Straßenoberflächenanomalien. 4) Ein Framework zum visuellen Analysieren der Klassifikatorvorhersagen über die Validierungsdaten und Labels.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23641-9_8 a8144b682569487667456988bcdcd3fc;de;;;5.1.;;;KI-basierte Unterstützung für Experimente in einem umweltbiotechnologischen Prozess Dieses Papier stellt ein KI-basiertes System vor, das Experimente und Kontrolle im Bereich der Umweltbiotechnologie unterstützt. Ziel der Experimente ist es, Hypothesen zur Biostimulation eines Belebtschlamms durch Aufrechterhaltung von Schwingungen in seinem Stoffwechsel zu überprüfen, um den Abbau eines schwer entfernbaren organischen Abfalls in den Kläranlagen zu verbessern. Das vorgestellte System beinhaltet die Anwendung eines Multi-Agenten-Systems (MAS), das Ontologien und Regeln verwendet, sowie ein intelligentes Bildverarbeitungsverfahren. Eine der Hauptaufgaben des MAS besteht darin, die Analyse der mikroskopischen Offline-Messungen zu unterstützen, die sowohl auf den Regeln zur Beschreibung der Trends der analytischen Messungen als auch auf den quantitativen mikroskopischen Online-Beobachtungen basiert. Schließlich kann die vorgeschlagene MAS die von den Sachverständigen vorgelegten Ergebnisse mit den auf der Grundlage von Regeln erzielten Ergebnissen nachverfolgen. Als Ergebnis kann eine geeignete Biostimulationssteuerung die Klimaveränderungen verhindern oder reduzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35455-7_15 98a72c20517ebfa58fc9edb385affd72;de;;;5.1.;;;Interaktive Fuzzy Cellular Automaten zur schnellen Personenidentifikation Person Eines der Ziele von Personen-Re-Identifikationssystemen besteht darin, Videoüberwachungsoperatoren und forensische Ermittler dabei zu unterstützen, eine interessierte Person in Videos zu finden, die von einem Netzwerk nicht überlappender Kameras erfasst wurden. Dies wird durch Sortieren von Bildern von zuvor beobachteten Individuen nach abnehmenden Werten ihrer Ähnlichkeit mit einem gegebenen Sonden-Individuum erreicht. Bestehende Erscheinungsdeskriptoren zielen zusammen mit ihren Ähnlichkeitsmaßen meist darauf ab, die Rankingqualität zu verbessern. Wir schlagen zwei Fuzzy-basierte Deskriptoren vor, die hinsichtlich der Verarbeitungszeit bei der Deskriptorgenerierung und der Matching-Score-Berechnung schnell sind. Anschließend evaluieren wir unseren Ansatz an drei Benchmark-Datensätzen (VIPeR, i-LIDS und ETHZ) mit Vergleich einiger Deskriptoren im Stand der Technik.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-74690-6_15 470206530fb60b2c8b50ac1e11f0f856;de;;;5.1.;;;PGP-Systeme und TrueCrypt PGP ist ein Sicherheitssoftwarepaket, das eine starke symmetrische und öffentliche Verschlüsselung und Entschlüsselung für Datenschutz, Vertraulichkeit und Authentifizierung von Daten- und Netzwerkkommunikation unterstützt, wobei digitale Signaturen ursprünglich auf einem Web of Trust-Zertifikaten basieren. Die Dienste umfassen Schlüsselverwaltung, Entitätsauthentifizierung und digitale Signaturen. Das Paket enthält die besten modernen kryptografischen Algorithmen und Protokolle. TrueCrypt ist heute eine der besten allgemein verfügbaren Anwendungen, um Daten vor dem Auslesen durch Unbefugte zu schützen. Das System sichert die Daten, indem es sie mit einem von drei Algorithmen verschlüsselt: AES, Serpent und Twofish oder sogar eine Kombination davon. Es ist ein leistungsstarkes Verschlüsselungstool, das seinen Benutzern viele Möglichkeiten im Bereich der Datensicherheit bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41386-5_6 23056d9a2a50ce5efb46709ca28d9617;de;;;5.1.;;;Rapid Prototyping von domänenspezifischen maschinellen Übersetzungssystemen Dieses Papier berichtet über ein Experiment beim Zusammenbau eines domänenspezifischen Prototypsystems für die maschinelle Übersetzung aus Standardkomponenten. Die Designziele dieses Experiments bestanden darin, vorhandene Komponenten wiederzuverwenden, Techniken des maschinellen Lernens zur Parser-Spezialisierung und zur Extraktion von Transferlexikonen zu verwenden und einen ausdrucksstarken, lexikalisierten Formalismus für die Transferkomponente zu verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-49478-2_9 761d0b7e82bc5cbed63eefb2d0f04f9c;de;;;5.1.;;;Image und Reputation gehen anders mit massivem Informationsbetrug um Multiagentenbasierte Simulation ist ein aufkommender wissenschaftlicher Trend, der natürlich mit Instrumenten ausgestattet ist, die mit komplexen Systemen, insbesondere den sozio-kognitiven komplexen Systemen umgehen können. In diesem Beitrag wird eine simulationsbasierte Untersuchung des Einflusses von Falschinformationen auf die soziale Bewertungsbildung vorgestellt. Wir führen simulative Experimente auf der RepAge-Plattform durch, einem Computersystem, mit dem Agenten kommunizieren und sowohl direkte (Bild) als auch indirekte und ungeprüfte (Reputation) Informationen erfassen können. Informationsbetrug, wenn die Zahl der Lügner beträchtlich wird, beeinträchtigt nachweislich die Qualitätsleistung, die durch den Ruf erreicht wird. In dem Beitrag werden nach einer kurzen Einführung in den theoretischen Hintergrund die Hypothesen und das Marktszenario vorgestellt und die Simulationsergebnisse im Hinblick auf den Entscheidungsfindungsprozess der Agenten diskutiert, wobei der Fokus auf Unsicherheit, Falschinformationsverbreitung und Vertragsqualität liegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04754-1_58 283cd01c8788df85e4cdba7044495373;de;;;5.1.;;;Erwerben von zweisprachigen Übersetzungen benannter Entitäten von Content-Aligned Corpora Wir schlagen eine neue Methode vor, um zweisprachige Übersetzungen von benannten Entitäten (NE) aus nicht wörtlichen, inhaltsorientierten Korpora zu erhalten. Es erkennt zuerst NEs in jedem eines zweisprachigen Dokumentenpaares unter Verwendung der NE-Extraktionstechnik, findet dann NE-Gruppen, deren Mitglieder denselben Referenten teilen, und korrespondiert schließlich zwischen zweisprachigen NE-Gruppen. Die erschöpfende Detektion von NEs kann potenziell Übersetzungspaare mit breiter Abdeckung erfassen. Die Entsprechungen zwischen zweisprachigen NE-Gruppen werden basierend auf der Ähnlichkeit der Erscheinungsreihenfolge in jedem Dokument geschätzt, und die entsprechende Leistung erreichte F;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30211-7_19 84b5e6820d43d73ad030d5ee0c6ab3c3;de;;;5.1.;;;Ein adaptives offenes Hypermedia-System im Web Ein Prototyp einer offenen und adaptiven Hypertext-Lernumgebung im Web wird vorgestellt. Die Knoten des Hypertextsystems werden in Clustern sortiert, die von einem selbstorganisierenden neuronalen Netz auf einer Karte geordnet werden. Diese Karte stellt das Information Domain Model dar, auf dem ein Overlay-Modell des Lernziels und des Benutzerwissens aufgebaut wird. Das Nutzermodell besteht aus einem Nutzerwissensmodell und einem Präferenzmodell, das die Einstellung des Nutzers zur Herangehensweise an die zum Erreichen des Lernziels notwendigen Informationen berücksichtigt. Das Informationsdomänenmodell ermöglicht es Benutzern, dem System neue Dokumente hinzuzufügen, die vom neuronalen Netz in den entsprechenden Clustern geordnet werden. Dadurch wird die Konsistenz des Benutzermodells und des Lernziels bei steigender Dokumentenanzahl gewahrt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44595-1_35 fe5c4d84438eabb0c5a281d07bb0ca6b;de;;;5.1.;;;Ein alternativer Ansatz für die Bildebenensteuerung von Robotern Der Artikel unterscheidet zwischen Camera-Space-Manipulation und Visual Servoing, er identifiziert Anwendungskategorien, die ersteres besonders begünstigen. Anhand eines 2-dimensionalen Beispiels mit 2 Freiheitsgraden wird ein Konvergenzpunkt zwischen den beiden Methoden identifiziert. Dies basiert auf einer Erweiterung der visuellen Servosteuerung, wobei ein Kalman-Filter verwendet wird, um das fortlaufende visuelle Fehlersignal aus zeitdiskreten, verrauschten, verzögerten und möglicherweise intermittierenden visuellen Eingaben kombiniert mit einer kontinuierlichen Gelenkdrehungseingabe zu schätzen. Um diese Erweiterung zu veranschaulichen und plausibel zu machen und den Vergleich zu verdeutlichen, wird ein funktionierendes, nichtholonomisches, visionsbasiertes Steuerungssystem vorgestellt, das eine ähnliche Schätzstrategie anwendet. Der Vergleich wird im Hinblick auf Vorteile/Nachteile diskutiert, die in der;-;-;-;https://link.springer.com/chapter/10.1007/BFb0109662 538e15a5b8ac4272de64ce69d19cf70e;de;;;5.1.;;;Intelligente Vorhersage-Engine zur kurzfristigen Vorhersage der Windgeschwindigkeit basierend auf gestapeltem Langzeit-Kurzzeitgedächtnis In diesem Artikel werden Techniken des maschinellen Lernens für die kurzfristige Vorhersage der Windgeschwindigkeit vorgestellt, indem ihre Fähigkeiten der Computerintelligenz wie Random Forest Regression (RFR), Support Vector Regression (SVR), Radial Basis Function Neural Networks (RBFNN) und langes Kurzzeitgedächtnis genutzt werden (LSTM) auf verschiedenen Windpark-Datensätzen in Pakistan. Zu Beginn werden Vorhersagen durch die Verwendung von Basisregressoren, RFR und RBFNN in Form von Fehlerindizes, erhalten. Später wurde eine gestapelte LSTM-Vorhersagemaschine (SLFE) vorgeschlagen, um die Wirksamkeit, Genauigkeit und Vorhersagefähigkeit der Vorhersagemaschine zu verbessern, indem undichte gleichgerichtete lineare Einheiten (Leaky ReLU) als Kernelfunktion verwendet werden. SLFE wurde an den Datensätzen von vier verschiedenen Windparks mit einer zeitlichen Lokalität von 10 min für die kurzfristige Vorhersage der Windgeschwindigkeit implementiert und getestet. Darüber hinaus wurde für den Vergleich ein Ensemble aus gestapelten LSTM mit RFR, SVR und RBFNN entwickelt. Die Stärke des SLFE wurde in Bezug auf verschiedene Leistungsmaße wie den mittleren absoluten Fehler (MAE), den quadratischen Mittelwert des Fehlers (RMSE),;-;-;-;https://link.springer.com/article/10.1007/s00521-021-06016-4 341c7fa81ca0341bb09eb54aded8d699;de;;;5.1.;;;Kreative Koproduktion: Die Adaption eines Open-Innovation-Modells in die Kreativwirtschaft Fortschrittliche Informationssysteme ermöglichen es digitalen Medien und der Kreativwirtschaft, kollaborative Netzwerke zu nutzen, um die kreative Koproduktion nicht nur über Unternehmensgrenzen hinweg, sondern auch über geografische Grenzen hinweg zu fördern. Der anfängliche Erfolg von Crowdsourcing und anderen offenen Innovationsstrategien ermutigt diese Industrien, kreative Koproduktion als gangbare Option für die zukünftige Entwicklung in Betracht zu ziehen. Dieses Kapitel schlägt einen allgemeinen theoretischen Rahmen für die Umsetzung von Koproduktion in der Kreativwirtschaft vor, der auf drei Komponenten basiert: Ko-Kreation-Umgebung, Netzwerkkoordination und Erfahrungskommunikation. Der vorgeschlagene Rahmen ist hinreichend allgemein gehalten, jedoch auf dem Phänomen begründet, um künftige Forschung und Entwicklung zu lenken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49407-4_6 b85bd0b34d9faab1f362d32a963947fc;de;;;5.1.;;;Bestimmung der Telefonnutzung durch den Fahrer mithilfe von Smartphone-Sensoren Die Ablenkung des Fahrers durch Mobiltelefone ist eine große Bedrohung, die zu unnötigen Unfällen und menschlichen Opfern führt, insbesondere bei gefährlichen Straßenbedingungen. In diesem Whitepaper befassen wir uns mit einem grundlegenden, aber kritischen Thema der Telefonnutzung während des Fahrers am Steuer. Wir schlagen vor, konzipieren und implementieren;-;-;-;https://link.springer.com/article/10.1007/s11042-015-2969-7 e9e6ea65a0805698e777c009f62418ad;de;;;5.1.;;;Die Auswirkungen von Datenschutzbedenken und persönlicher Innovation auf die Akzeptanz standortbasierter Dienste durch potenzielle und erfahrene Kunden customers Location-Based Services (LBS) verwenden Ortungstechnologie, um einzelnen Benutzern die Möglichkeit zu geben, ständig erreichbar zu sein und auf Netzwerkdienste zuzugreifen, während sie „unterwegs“ sind. Allerdings können Datenschutzbedenken im Zusammenhang mit der Nutzung von LBS die Verbraucher letztendlich davon abhalten, den Komfort personalisierter Dienste „jederzeit und überall“ zu nutzen. Wir untersuchen die Einführung dieser neuen Technologie im Hinblick auf den Datenschutz. Auf der Grundlage der Literatur zum Datenschutz und der Theorien zur Einführung von Technologien verwenden wir einen Umfrageansatz, um ein konzeptionelles Modell zu entwickeln und zu testen, um die Auswirkungen von Datenschutzbedenken und persönlicher Innovation auf die Akzeptanz von LBS durch die Kunden zu untersuchen. Da eine Reihe von IS-Forschern außerdem gezeigt haben, dass sich Kunden in ihrer Entscheidungsfindung für eine weitere Adoption von der anfänglichen Entscheidungsfindung unterscheiden, testen wir das Forschungsmodell getrennt für potenzielle und erfahrene Kunden. Die Ergebnisse zeigen, dass Bedenken hinsichtlich des Datenschutzes die weitere Einführung im Vergleich zur anfänglichen Einführung erheblich beeinflussen. Die Implikationen für Theorie und Praxis werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s12525-009-0012-4 0bab4d0a01fceaa10ac3aa7da7ad7d49;de;;;5.1.;;;Grundlagen der klassischen Informationstheorie In diesem Kapitel gehen wir kurz auf die grundlegenden Fakten der klassischen Informationskommunikationsprozesse ein. Die grundlegenden Aspekte der Informationstheorie nach Shannon (Bell Syst. Tech. J. 27:379–423, 623–656,;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-0171-7_6 262ed401f8236c0d0836ffcf5644f635;de;;;5.1.;;;Aktualisierungen der inkrementellen Mitgliedschaftsfunktion Viele Fuzzy-Anwendungen basieren heute auf großen Datenbanken, die sich dynamisch ändern. Dies stellt insbesondere in vielen flexiblen Abfragesystemen ein großes Problem dar, da das Ändern von Daten ohne geeignetes Umschulen zu schlechten Ergebnissen führen kann. In diesem Beitrag schlagen wir einen neuartigen inkrementellen Ansatz vor, um die Zugehörigkeitsfunktionen darzustellen, die die linguistischen Begriffe für eine sich dynamisch verändernde Datenbank beschreiben. Es nutzt zuvor bestimmte Fuzzy-Wissensmodelle, um den Modellierungsprozess zu vereinfachen. Es wird auch über Experimente berichtet, die die Effizienz der Methode testen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14058-7_11 2394abbc3fd59b899b2b9668d83c082a;de;;;5.1.;;;Einfluss von Nutzerfaktoren auf die Akzeptanz von Ambient Assisted Living-Technologien in professionellen Pflegekontexten Der demografische Wandel in Verbindung mit steigenden Anteilen älterer und pflegebedürftiger Menschen stellt die Pflegebranchen der heutigen Gesellschaft vor hohe Belastungen und Herausforderungen. In den letzten Jahrzehnten wird versucht, diesen Herausforderungen durch die Entwicklung technischer Lösungen im Bereich Ambient Assisted Living (AAL) zu begegnen. Neben technischen Funktionen und Möglichkeiten ist die Akzeptanz zukünftiger Nutzer entscheidend für den erfolgreichen Einsatz dieser Technologien im Alltag. Da AAL-Technologien ein enormes Potenzial haben, sowohl Pflegekräfte als auch Pflegekräfte in professionellen Pflegesituationen zu unterstützen, ist fraglich, inwieweit professionelle Pflegekräfte den Einsatz unterstützender Technologien im beruflichen Alltag akzeptieren und übernehmen. Im Detail ist es von großem Interesse zu analysieren, wie Pflegekräfte potenzielle Vorteile und Barrieren der Nutzung der AAL-Technologie wahrnehmen, spezifische Merkmale der Datenerhebung und -speicherung sowie ob individuelle Benutzerfaktoren von Pflegekräften die Wahrnehmung und Akzeptanz von AAL-Technologien beeinflussen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-15736-4_1 e7a4542d9b7931d9e5d7a24bf67ebfa5;de;;;5.1.;;;Mechanische Eigenschaften von mit Paraformaldehyd behandelten Einzelzellen, untersucht durch Rasterkraftmikroskopie und Rasterionenleitfähigkeitsmikroskopie Die Zellfixierung ist ein wesentlicher Schritt zur Konservierung von Zellproben für eine Vielzahl biologischer Assays, die histochemische und zytochemische Analysen beinhalten. Paraformaldehyd (PFA) wird häufig als Vernetzungsmittel zur Fixierung verwendet. In einem Goldstandardprotokoll wurde empirisch festgestellt, dass die PFA-Konzentration für die Zellfixierung,;-;-;-;https://link.springer.com/article/10.1186/s40580-017-0099-9 c01c79e6c118d281d6a5da262bfe95bb;de;;;5.1.;;;Darstellung und Verwaltung unausgeglichener Multi-Sets In wissensbasierten Systemen sollten Experten menschliches Wissen möglichst realitätsgetreu abbilden. Auf diese Weise ist es wichtig, die Unvollkommenheit des Wissens zu berücksichtigen. Mehrere Ansätze haben sich mit dieser Art von Daten befasst. Die bekanntesten sind Fuzzy-Logik und mehrwertige Logik. Letztere schlagen eine linguistische Modellierung unter Verwendung von linguistischen Begriffen vor, die auf einer Skala gleichmäßig verteilt sind. In einigen Fällen müssen wir jedoch qualitative Aspekte anhand von Variablen bewerten, die linguistische Ausdruckssätze verwenden, die nicht gleichmäßig verteilt sind. Wir haben in der Literatur festgestellt, dass sich viele Forscher im Kontext der Fuzzy-Logik mit diesen Ausdruckssätzen beschäftigt haben. Bei mehrwertiger Logik ist dies jedoch nicht der Fall. Dabei zielen wir in unserer Arbeit darauf ab, eine Methodik zu etablieren, um diese Art von Daten im Kontext der mehrwertigen Logik darzustellen und zu verwalten. Zwei Aspekte werden behandelt. Der erste betrifft die Darstellung von Begriffen innerhalb einer unausgeglichenen Mehrfachmenge. Der zweite beschäftigt sich mit der Verwendung symbolischer Modifikatoren innerhalb einer solchen Art von unvollkommenem Wissen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-52758-1_13 73eb735c82cc5e692a44e4bd00314ef7;de;;;5.1.;;;Vorhersage der Bindungsaffinitäten von Adenosin A Die Support Vector Machine (SVM) wurde verwendet, um ein nichtlineares quantitatives Struktur-Aktivitäts-Beziehungsmodell (QSAR) zur Vorhersage der Aktivitäten des Adenosins A . zu entwickeln;-;-;-;https://link.springer.com/article/10.1007/s00044-010-9431-1 2bcd26678391e907b2c618eee688d9ce;de;;;5.1.;;;Modellierung und Umsetzung von Unternehmensentscheidungen Die Erfassung von Geschäftsentscheidungen in Unternehmensmodellen wird seit Jahren nicht mehr gesondert behandelt. Vielmehr wurden Entscheidungen in Geschäftsprozessmodelle oder in Wissensmodelle und Ontologien aufgenommen. Dadurch bleibt die Gesamtansicht einer Entscheidung und ihr Zusammenspiel mit anderen Entscheidungs- und Datenanforderungen verstreut und schwer zu pflegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-39564-7_17 4892342de5c35f0418c72aa02e7c6f26;de;;;5.1.;;;Crowdsourcing für filminduzierten Tourismus: Ein Ansatz zur Geolokalisierung Dieses Papier präsentiert einen ersten Vorschlag für die Entwicklung einer Crowdsourcing-Plattform, die darauf abzielt, Informationen über audiovisuelle Produktionen zu sammeln. Unser Ziel ist es, die Aufgabe zu fördern, Filmausschnitte, die an einem bestimmten Ort gedreht wurden, zu identifizieren und diese Ausschnitte manuell zu geolokalisieren. Auf diese Weise ist es möglich, audiovisuelle Inhalte einem geografischen Gebiet zuzuordnen. Die Informationen werden verwendet, um ein Datenbanksystem zu füllen, das die Kernkomponente für den Entwurf neuartiger;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-68130-6_9 a7ee529c3d3062a5c8322f76502aced3;de;;;5.1.;;;Über den Entwurf und die Realisierung von nicht-synchronen Frequenzsprung-Spreizspektrum zur Sicherung von Daten über Mobilfunk- und Computernetze Wir schlagen und untersuchen das neuartige Schema der nicht-synchronen Methode der Frequenzsprung-Spreizspektrum-Modulation und -Demodulation. Das Frequenzsprung-Spreizspektrum ist aufgrund seiner zahlreichen Vorteile, wie der Eliminierung des Nah-Fern-Effekts bei der zellularen Mobilkommunikation, die am weitesten verbreitete Spreizspektrum-Technik in der drahtlosen Breitbandkommunikation. Die strikte Zeitsynchronisation ist eine Hauptanforderung beim Frequenzsprung-Spreizspektrum. Das Sprungmuster sowohl auf der Sende- als auch auf der Empfangsseite sollte synchron zueinander sein. Dies kann erreicht werden, indem sowohl auf der Sende- als auch auf der Empfangsseite dieselben Spreizcodes verwendet werden. In praktischen Kommunikationssystemen ist es sehr schwierig, eine Codesynchronisation zu erreichen, wenn das Signal über frequenzselektive Kanäle übertragen werden soll. In diesem Artikel wurde ein neuartiges Schema vorgeschlagen, bei dem zwei Frequenzmodulations-(FM)-Demodulatoren (CXA1619BS) einer am Sendeende und ein anderer am Empfangsende verwendet wurden, um aufgrund des zufälligen Verhaltens des Sprachsignals ein Sprachsignal mit derselben Frequenz und Amplitude zu erzeugen (nur der stimmlose Teil wurde genommen) ein chaotisches Signal wurde erzeugt und als Spreizcode verwendet. Der digital gesteuerte Chaososzillator wurde zur Spreizcodeerzeugung verwendet. Da in zwei unterschiedlichen geographischen Regionen FM-Signale, die sowohl auf der Sende- als auch auf der Empfangsseite gleichzeitig empfangen werden, dieselbe Frequenz und Amplitude haben, sind daher keine Synchroncodes für die richtige Erfassung der empfangenen Daten erforderlich. Somit löst die vorgeschlagene Technik eines der Hauptprobleme der Synchronisation in praktischen Kommunikationssystemen. Das vorgeschlagene Schema wurde experimentell unter Verwendung eines Hardwaremoduls getestet und die Ergebnisse werden in Form verschiedener Wellenformen präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29219-4_27 e367e48384edfdfa37864a6a85fac4b4;de;;;5.1.;;;Visuelle Fuzzy-Steuerung für Blimp-Roboter, um 3D-Luftobjekten zu folgen Diese Arbeit präsentiert ein neuartiges visuelles Servosystem, um einem sich bewegenden 3D-Luftobjekt mit einem Luftschiff-Roboter zu folgen und die metrischen Abstände zwischen beiden zu schätzen. Um die autonome Zielverfolgung aus der Luft zu realisieren, wird ein effizienter bildbasierter Objekterkennungs- und -lokalisierungsalgorithmus unter Verwendung der Speeded Up Robust Features-Technik und Inverse Perspective Mapping vorgeschlagen, die es dem Luftschiff-Roboter ermöglicht, eine Vogelperspektive zu erhalten. Das Fuzzy-Steuerungssystem basiert auf den visuellen Informationen, die durch den Computer-Vision-Algorithmus bereitgestellt werden. Das Fuzzy-Sets-Modell wurde imperial auf Basis von Möglichkeitsverteilungen und Häufigkeitsanalysen der empirischen Daten eingeführt. Das System ist darauf ausgerichtet, dem Luftziel kontinuierlich zu folgen und es in einem festen Sicherheitsabstand zu halten. Der Algorithmus zeigt Robustheit gegenüber Beleuchtungsänderungen, Rotationsinvarianz sowie Größeninvarianz. Die Ergebnisse zeigen, dass der vorgeschlagene Algorithmus für komplexe Kontrollmissionen geeignet ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08201-1_10 d4f262262fadcab44da79e20bbb25a45;de;;;5.1.;;;Mehrdimensionale Analyse politischer Dokumente Die automatische Inhaltsanalyse wird in den Sozialwissenschaften immer mehr zu einer anerkannten Forschungsmethode. In der Politikwissenschaft analysieren Forscher mit Parteiprogrammen und Transkripten politischer Reden die Positionen verschiedener Akteure. Bestehende Ansätze beschränken sich auf eine einzige Dimension, insbesondere können sie die Positionen zu einem bestimmten Thema nicht unterscheiden. In diesem Beitrag schlagen wir eine Methode zum Analysieren und Vergleichen von Dokumenten gemäß einer Reihe vordefinierter Themen vor, die auf einer Erweiterung der Latent Dirichlet Allocation basiert, um Wissen über relevante Themen zu induzieren. Wir validieren die Methode, indem wir zeigen, dass sie anhand eines Vergleichs der Wahlprogramme der Parteien mit dem Koalitionsvertrag zuverlässig erraten kann, welchem ​​Mitglied einer Koalition ein bestimmtes Ministerium zugewiesen wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31178-9_2 6dec34a19d11e31cef3c4cb41da149d5;de;;;5.1.;;;Schwachstellenbewertung basierend auf dem Angriffsdiagramm Vernetzte Hosts sind aufgrund von Software-Schwachstellen immer mehr Bedrohungen ausgesetzt. Jedes Jahr werden immer mehr Sicherheitslücken in Software entdeckt. Es ist unpraktisch, alle Schwachstellen zu patchen, da das Patching-Verfahren sehr teuer ist. In diesem Papier schlagen wir eine auf Benutzerumgebungen basierende Bewertungsmethode vor. Wir analysieren die Auswirkungen von Schwachstellen unter drei Aspekten: Vertraulichkeit, Integrität und Verfügbarkeit. Die Bewertung wird angepasst, um das Risiko der Schwachstelle unter bestimmten Sicherheitsanforderungen widerzuspiegeln, indem die Gewichtung der drei Aspekte entsprechend der Funktion des Hosts in einer Organisation zugewiesen wird. Wir verwenden Angriffsgraphen, um die Beziehungen zwischen Schwachstellen in einem Host zu analysieren und den Kontext zu berechnen, um die Bedrohung jeder Schwachstelle zu ermitteln. Die experimentellen Ergebnisse zeigen, dass unsere Scoring-Methode die reale Situation besser widerspiegeln kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35795-4_70 95313a9e0d9ba63ca9e6e52558a034c3;de;;;5.1.;;;Ein beschleunigter Ansatz zum Template-Matching für Rotations-, Skalierungs- und Beleuchtungsinvarianz Vorlagenvergleich ist der Prozess zum Bestimmen des Vorhandenseins und der Position einer bestimmten Referenz in dem Szenenunterbild. Der konventionelle Ansatz wie räumliche Korrelation, Kreuzkorrelation ist rechenaufwendig und fehleranfällig, wenn das Objekt im Bild gedreht oder verschoben wird. Der herkömmliche Ansatz führt zu einem falschen Ergebnis, wenn eine Variation in der Beleuchtung des Szenenunterbilds vorhanden ist. In diesem Beitrag wird ein Algorithmus für einen rotations-, maßstabs- und beleuchtungsinvarianten Template-Matching-Ansatz vorgeschlagen, der auf der Kombination von Multi-Resolution Wavelet-Technik, Projektionsverfahren und Zernike-Momenten basiert. Es ist ideal geeignet, um lokale Merkmalspunkte in den zerlegten Teilbildern hervorzuheben, und das Ergebnis wird beim Abgleichprozess rechnerisch eingespart. Wie das Ergebnis zeigt, macht die Wavelet-Zerlegung zusammen mit Zernike-Momenten das Template-Matching-Schema praktikabel und effizient für die Erkennung von Objekten in beliebiger Orientierung und Rotation.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19263-0_15 cc35979e7eef284d7e5190766fb217ec;de;;;5.1.;;;Argumentation über abstrakte offene Systeme mit generalisierter Modulprüfung Wir präsentieren einen Rahmen für die Argumentation über abstrakte offene Systeme. Offene Systeme, auch „reaktive Systeme“ oder „Module“ genannt, sind Systeme, die mit ihrer Umgebung interagieren und deren Verhalten von diesen Interaktionen abhängt. Eingebettete Software ist ein typisches Beispiel für offene Systeme. Modulprüfung [KV96] ist eine Verifikationstechnik, um zu prüfen, ob ein offenes System eine zeitliche Eigenschaft erfüllt, unabhängig davon, was seine Umgebung tut. Das Modul-Checking ermöglicht es, gegensätzliche Eigenschaften des „Spiels“, das vom offenen System gespielt wird, mit seiner Umgebung zu überprüfen (zB „Gibt es eine Gewinnstrategie für einen böswilligen Agenten, der versucht, in ein sicheres System einzudringen?“). Wir untersuchen, wie die Modulprüfung auf 3-wertige Abstraktionen offener Systeme so erweitert werden kann, dass sowohl Beweise als auch Gegenbeispiele, die durch die Überprüfung beliebiger Eigenschaften solcher Abstraktionen erhalten werden, garantiert stichhaltig sind, dh auf die konkretes System. Wir führen auch eine neue Verifikationstechnik ein, genannt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45212-6_15 01d8b7e2a6898186da0c6f3827236bb7;de;;;5.1.;;;Entwicklung von Quantenalgorithmen, -systemen und Prävention oder Eliminierung von Quantenfehlern Der Artikel schlägt die Struktur von Operatoren von Quantenalgorithmen, ihre mathematische und schematische Darstellung vor. Das Verfahren zur Entwicklung eines Quantencomputersystems oder -algorithmus beinhaltet das Vorhandensein von Interferenz, Quantenverschränkung und Überlagerung. Bei einem klassischen Computer wird die Datenmenge in Bits gemessen, bei einem Quantencomputer in Qubits. Ein Qubit ist eine Quantenentladung oder das kleinste Element zum Speichern von Informationen in einem Quantencomputer, sowie ein Quantenobjekt, das sich in einer Überlagerung von zwei Zuständen befinden kann, also gleichzeitig eine logische Einheit und eine Null kodieren kann. Die allgemeine Struktur des universellen Quantenalgorithmus ist als Diagramme implementiert, die die Grundelemente, ihre Eigenschaften, Funktionen und ihren Platz in der Arbeit des Quantenalgorithmus aufzeigen. Der Eingabewert für den Quantenalgorithmus ist eine binäre Funktion. Eine detaillierte Zerlegung jedes Blocks des schematischen Diagramms zur Beschreibung sequentieller Prozesse und Stufen von Quantenalgorithmen wurde durchgeführt. Für die sequentielle Verwendung von Quantenoperatoren und die anschließende Messung des Ergebnisses des gesamten Rechenprozesses ist ein n-mal laufender Quantenblock notwendig. Aufgrund der probabilistischen Natur des Quantencomputers enthalten die erhaltenen Basisvektoren einige der Informationen, die zur Lösung eines bestimmten Rechenproblems erforderlich sind. Klassische und quantenmechanische Fehlerarten und Methoden zu ihrer Beseitigung werden beschrieben und entwickelt. Die Haupthindernisse beim Schutz des Kanals vor Rauschen sind die Unfähigkeit, Daten und Informationen zu kopieren, die Kontinuität von Fehlern und die Zerstörung von Quanteninformationen während der Messung (nach den Prinzipien des Quantencomputings, Messen einer Menge von Qubits, ohne die darin codierten Informationen zu zerstören .) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ist unmöglich). Die Bit- und Phasenfehler wurden durch Modellieren von Quantenschaltungen, Drei-Qubit-Codierung und einer Reihe von Quantengattern korrigiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1483-5_1 49682ba5cee20cae2bd9f69bfff273a3;de;;;5.1.;;;Studie zu den wichtigsten Verknüpfungen der Datenfreigabe im chinesischen TMC Die Regierung und Unternehmen in China haben sich zum Ziel gesetzt, das Stauproblem mit effektiven Lösungen für intelligente Transportsysteme zu bewältigen. Sie verlangsamen nicht nur den Transportdruck, sondern reagieren auch auf umweltfreundliches Reisen, Energieeinsparung und Emissionsreduzierung. Dies ist eine neue digitale ökologische Technik. Der Verkehrsnachrichtenkanal wird als ein vollständiger Satz intelligenter Transportsysteme angesehen, die dynamische Informationen in Echtzeit freigeben. Es ist derzeit die beliebteste Lösung für Verkehrsstaus. Es leistet einen großen Beitrag für das digitale ökologische Engineering. In diesem Beitrag wird der Prozess der Datenfreigabe analysiert. Es ist von entscheidender Bedeutung, über neue Inhalte von Schlüsselverbindungen der Datenfreigabe in einem komplexen Umfeld des chinesischen Spezialtransportinfrastrukturbaus und der unsicheren Erhebungsweise nachzudenken. Es gibt drei Hauptaspekte wie Datenfusion, Datenabgleich, Datenfreigabe. Wir schlagen vernünftige Ansätze vor, um mit Problemen umzugehen, die uns durch eingehende Forschung zu drei Hauptaspekten begegnet sind. Die Experimente überprüften die Durchführbarkeit von Schemata, die die Genauigkeit und Effizienz bei der Veröffentlichung von TMC-Verkehrsinformationen verbessern und die technische Referenz liefern können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41908-9_37 6332a8e64e6c1e01c60006ebdbed94dd;de;;;5.1.;;;Einzelvektor-Kardinalitätsstruktur für große Daten zur Handhabung komprimierter Datenbanken in einer verteilten Umgebung Eine verlustfreie Datenkomprimierung ist in Datenbanksystemen attraktiv, da sie eine Verbesserung der Abfrageleistung und eine Reduzierung des Speicherplatzes erleichtern kann. Obwohl es viele Komprimierungstechniken gibt, die die gesamte Datenbank im Hauptspeicher verarbeiten, treten Probleme auf, wenn die Datenmenge im Laufe der Zeit allmählich ansteigt und auch wenn die Daten eine hohe Kardinalität aufweisen. Die skalierbare Verwaltung einer sich schnell entwickelnden großen Datenmenge ist eine große Herausforderung. Dieses Papier beschreibt einen plattenbasierten Single-Vector-Ansatz für große Datenkardinalität, der die Datenkomprimierung in einer verteilten Umgebung einschließt. Der Ansatz bietet eine wesentliche Verbesserung der Speicherleistung im Vergleich zu anderen Hochleistungsdatenbanksystemen. Die vorgestellte komprimierte Datenbankstruktur bietet eine direkte Adressierbarkeit in einer verteilten Umgebung und reduziert dadurch die Abruflatenz beim Umgang mit großen Datenmengen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05201-9_12 96708790ef40d43ed439320b7d43056f;de;;;5.1.;;;Ordinale Messungen basierend auf gerichteten ordinalen Wavelet-Filtern In diesem Kapitel wird das Design der neuen Klasse von Triplett-Halbband-Checkerboard-förmigen Filterbanken (THCSFB) vorgestellt, um das Problem beim Design vorgeschlagener nicht trennbarer FBs zu lösen. Dieses Kapitel beschreibt auch die direktionalen Ordinalmaße (DOMs) für die Irisbilddarstellung basierend auf THCSFB.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06767-4_5 3d6f293f2847abbb1be0294bbbbc7c52;de;;;5.1.;;;AHP-Modell zur Qualitätsbewertung des Gesundheitssystems Das Thema Gesundheitsqualität wird weltweit kontinuierlich analysiert, da es sich um eine kostspielige Investition handelt, die einen erheblichen Teil der Länderbudgets beansprucht. Die EU-weiten Gesundheitskosten haben bereits 1.400 Milliarden Euro pro Jahr überstiegen und weisen im Vergleich zum BIP der Mitgliedsländer einen schnelleren Anstieg auf. Die Modellvielfalt, die Fülle an Indikatoren und die Inkonsistenz statistischer Informationen zur Qualitätsbewertung im Gesundheitswesen führen in der wissenschaftlichen Literatur zu zahlreichen Lösungsversuchen für diese Aufgabe. Der Artikel zielt darauf ab, die Qualität der Gesundheitsversorgung unter Berücksichtigung der Bedeutung von Indikatoren zu bewerten, indem die Expertenmethode AHP (Analytic Hierarchy Process) und die Regressionsanalyse von Gesundheitsstatistiken angewendet werden. Die Rankings der EU-Länder nach Art und Kosten ihrer Gesundheitsinvestitionen wurden entwickelt und ausgewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67642-5_11 d1cc618ebceeb265e90b54f4d6b85ff7;de;;;5.1.;;;Score-Ausgleich in SVM Multimodal Fusion zur Personenerkennung Beim klassifikatorischen Ansatz für die multimodale Score-Fusion werden üblicherweise konventionelle Techniken zur Normalisierung von Merkmalen oder Scores verwendet. In dieser Arbeit werden zusätzlich zu den konventionellen Methoden zwei Entzerrungsmethoden, die Histogramm-Entzerrung, die kürzlich in multimodalen Systemen eingeführt wurde, und die Bi-Gauss-Entzerrung, die in diesem Beitrag vorgestellt wird, auf die Ergebnisse angewendet, die von prosodischen, Sprachspektrum geliefert werden und Experten in einem SVM-basierten multimodalen Personenverifizierungssystem gegenüberstehen. Die Entzerrungstechniken haben sowohl mit RBF- als auch mit polynomialen Kerneln die besten Ergebnisse erzielt. Konkret übertrifft die Bi-Gauss-Entzerrung für den RBF-Kernel die Ergebnisse der Min-Max-Normalisierung, der am häufigsten verwendeten Normierungstechnik bei der SVM-Fusion, um mehr als 22,19 % Systeme. Die prosodischen und Sprachspektrum-Scores wurden von Sprachexperten unter Verwendung von Aufzeichnungen der Switchboard I-Datenbank bereitgestellt, und die Gesichts-Scores wurden durch ein Gesichtserkennungssystem in der XM2VTS-Datenbank erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88653-2_11 2ab3da781bf37920c1efb1b70f17112f;de;;;5.1.;;;Staukontrollmanagement in Hochgeschwindigkeitsnetzen Hochgeschwindigkeitsnetzwerke sind eine Schlüsseltechnologie, die sehr innovative Lösungen in die Welt der Computernetzwerke gebracht hat und gleichzeitig Mobilität, Skalierbarkeit und Zuverlässigkeit bewahrt. Sie bietet einen sehr effizienten Service in Bezug auf Signalgeschwindigkeit und Optimalität. Solche Netzwerke mit einer solchen Leistung benötigen jedoch robuste Systeme, die sich an die verschiedenen Änderungen anpassen können, die eine Netzwerkverbindung erfahren kann. Darüber hinaus wurde die Notwendigkeit geboren, Algorithmen zur Überlastungssteuerung zu entwickeln, die die Netzwerkleistung erhalten und gleichzeitig eine hohe Geschwindigkeit mit geringer Latenz und einem guten Signal bieten Qualität. Die Analyse dieser Algorithmen ist übrigens der Hauptzweck dieser Arbeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6893-4_49 c9d75474bef76bfb18f91198a874a08c;de;;;5.1.;;;E-Mail-Spamfilterung: Ein Überblick über Techniken und Trends Wir präsentieren einen umfassenden Überblick über aktuelle und erfolgreiche inhaltsbasierte E-Mail-Spam-Filtertechniken. Unser Fokus liegt hauptsächlich auf Machine Learning basierenden Spamfiltern und davon inspirierten Varianten. Wir berichten über relevante Ideen, Techniken, Taxonomie, große Anstrengungen und den Stand der Technik auf diesem Gebiet. Die erste Interpretation der Vorarbeit untersucht die Grundlagen der E-Mail-Spamfilterung und des Feature-Engineerings. Wir schließen mit dem Studium von Techniken, Bewertungs-Benchmarks und erkunden die vielversprechenden Ableger der neuesten Entwicklungen und schlagen Linien für zukünftige Untersuchungen vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-4765-7_61 cfcaf6889d44a0a9d7e7dc5cfad176ad;de;;;5.1.;;;Auf intuitionistischen Fuzzy-Topologien basierend auf intuitionistischen Fuzzy-Reflexiven und transitiven Beziehungen Topologien und grobe Mengenlehre sind im Forschungsgebiet des maschinellen Lernens und der Kybernetik weit verbreitet. Ein intuitionistischer Fuzzy-Rough-Set, der das Ergebnis einer Approximation eines intuitionistischen Fuzzy-Sets in Bezug auf einen intuitionistischen Fuzzy-Approximationsraum ist, ist eine Erweiterung von Fuzzy-Rough-Sets. Um die Theorien und Anwendungen intuitionistischer Fuzzy-Rough-Sets weiter zu studieren, untersuchen wir in diesem Artikel die topologischen Strukturen intuitionistischer Fuzzy-Rough-Sets. Wir zeigen, dass ein intuitionistischer unscharfer grober Näherungsraum genau dann einen intuitionistischen unscharfen topologischen Raum im Sinne von Lowen induzieren kann, wenn die intuitionistische Fuzzy-Relation im Näherungsraum reflexiv und transitiv ist. Wir untersuchen auch die hinreichenden und notwendigen Bedingungen, dass ein intuitionistischer Fuzzy-topologischer Raum mit einer intuitionistischen Fuzzy-Reflexiv- und Transitiv-Relation verknüpft werden kann, so dass die induzierten unteren und oberen intuitionistischen Fuzzy-Grob-Approximationsoperatoren der intuitionistische Fuzzy-Innere- bzw gegebene Topologie.;-;-;-;https://link.springer.com/article/10.1007/s00500-010-0576-0 49ddf5052601e14fa0e103d5ee3215cf;de;;;5.1.;;;Andere Verhaltensbiometrie In diesem Kapitel beginnen wir mit der Einführung in den Hintergrund der Verhaltensbiometrie und geben einen kurzen Überblick über die Stimm- und Signaturbiometrie. Anschließend werden Tastendruck-, Gesten- und Gangbiometrie in den Abschnitten 2, 3 bzw. 4 beschrieben. Abschnitt 5 enthält die abschließenden Bemerkungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4519-4_11 64f8b71ac1fb1a705926ec4aa7689302;de;;;5.1.;;;Kontinuierlich messgeräteunabhängiges Quantenrelaisnetzwerk mit phasenempfindlichen Verstärkern Kontinuierlich-variable (CV) messgeräteunabhängige (MDI) Quantenkryptographie geht nun auf die Lösung des praktischen Problems der Implementierung skalierbarer Quantennetzwerke zu. In diesem Beitrag zeigen wir, dass eine Lösung durch den Einsatz eines optischen Verstärkers im CV-MDI-System entstehen kann, um ein hochratiges Quantennetzwerk aufzubauen. Wir schlagen ein verbessertes CV-MDI-Protokoll vor, das die EPR-Zustände in Verbindung mit optischen Verstärkern verwendet. Es kann ein praktisches Quantennetzwerkschema implementieren, bei dem die legalen Teilnehmer die geheimen Korrelationen erstellen, indem sie EPR-Zustände verwenden, die sich über unsichere Verbindungen mit einem nicht vertrauenswürdigen Relais verbinden, und die mehrfach verschränkte Greenberger-Horne-Zeilinger (GHZ)-Zustandsanalyse an der Relaisstation anwenden. Trotz der Möglichkeit, dass das Relais vollständig manipuliert werden könnte und unvollständige Verbindungen den mächtigen Angriffen ausgesetzt sind, sind die legalen Teilnehmer immer noch in der Lage, einen geheimen Schlüssel aus der Netzwerkkommunikation zu extrahieren. Die numerische Simulation zeigt, dass die Quantennetzwerkkommunikation in einem asymmetrischen Szenario erreicht werden kann und die Anforderungen eines praktischen Quantennetzwerks erfüllt. Darüber hinaus zeigen wir, dass die Verwendung von optischen Verstärkern die inhärenten Unvollkommenheiten kompensieren und die geheime Schlüsselrate des CV-MDI-Systems verbessern kann.;-;-;-;https://link.springer.com/article/10.1007/s10773-017-3545-x bea5f7e6a4de227d49e23fece5a8de8b;de;;;5.1.;;;Gewichteter durchschnittlicher Indoor-Positionierungsalgorithmus, der LEDs und Bildsensoren verwendet Wir schlagen einen gewichteten durchschnittlichen Indoor-Positionierungsalgorithmus vor, der eine verbesserte Version des M.S. Rahman-Algorithmus zur Berechnung unbekannter Positionen in einem Kommunikationssystem für sichtbares Licht, das aus Leuchtdioden (LEDs) und Bildsensoren besteht. Der Algorithmus betrachtet die LED-Beleuchtungsintensität als Schlüsselfaktor, und das verallgemeinerte Lambert-Beleuchtungsmodell wird verwendet, um die LED-Beleuchtungsintensität jedes Pixels in den an den Sensoren erhaltenen Bildern zu schätzen. Die LED-Beleuchtungsintensität wird nach der Bestimmung der Mittenposition des LED-Bildes als Gewichtungsfaktor normiert. Simulationen zeigten, dass das durchschnittliche Signal-Rausch-Verhältnis in unserem Ortungssystem 19,3 dB betrug. Die Simulationsergebnisse zeigten auch, dass der quadratische Mittelwert der Positionierungsfehler von 6,6 auf 3,7 cm reduziert wurde, wenn die Auflösung des Bildsensors 3000 Pixel pro cm betrug, was mit dem Fehler in der weit verbreiteten M.S. Rahmans Algorithmus. Auch der Abstand zwischen den Linsenmitten und die Brennweiten der Linsen beeinflusst den Positionierungsfehler. Nach den Simulationen wird der Zusammenhang zwischen dem Positionierungsfehler und dem Linsenabstand bzw. der Brennweite abgeleitet. Es wird beobachtet, dass dieser Algorithmus geringere Positionierungsfehler aufweist als der M.S. Rahmans Algorithmus.;-;-;-;https://link.springer.com/article/10.1007/s11107-016-0682-8 a2cf75071edbf70f5443c8ac70b734f8;de;;;5.1.;;;LGLMF: Lokales geografisches logistisches Matrixfaktorisierungsmodell für POI-Empfehlung Mit dem schnellen Wachstum standortbasierter sozialer Netzwerke ist die personalisierte Empfehlung von Points of Interest (POIs) zu einer wichtigen Aufgabe geworden, um Benutzern zu helfen, ihre Umgebung zu erkunden. Aufgrund der Knappheit von Check-in-Daten bietet die Verfügbarkeit von geografischen Informationen die Möglichkeit, die Genauigkeit der POI-Empfehlung zu verbessern. Darüber hinaus bieten Matrixfaktorisierungsmethoden effektive Modelle, die bei der POI-Empfehlung verwendet werden können. Es gibt jedoch zwei Hauptherausforderungen, die angegangen werden sollten, um die Leistung von POI-Empfehlungsverfahren zu verbessern. Erstens die Nutzung geografischer Informationen, um sowohl das persönliche geografische Profil des Benutzers als auch die geografische Popularität eines Standorts zu erfassen. Zweitens die Integration des geografischen Modells in die Matrixfaktorisierungsansätze. Um diese Probleme anzugehen, wird in diesem Papier eine POI-Empfehlungsmethode vorgeschlagen, die auf einem lokalen geografischen Modell basiert, das sowohl die Sichtweise der Benutzer als auch der Standorte berücksichtigt. Zu diesem Zweck wird ein effektives geografisches Modell vorgeschlagen, das die Hauptaktivitätsregion des Benutzers und die Relevanz jedes Standorts innerhalb dieser Region berücksichtigt. Dann wird das vorgeschlagene lokale geografische Modell mit der logistischen Matrixfaktorisierung verschmolzen, um die Genauigkeit der POI-Empfehlung zu verbessern. Experimentelle Ergebnisse an zwei bekannten Datensätzen zeigen, dass der vorgeschlagene Ansatz andere moderne POI-Empfehlungsmethoden übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-42835-8_7 cea0bf450782929129062c1be81169d7;de;;;5.1.;;;Verbesserung der Identifizierung von Code-Gerüchen durch Kombination struktureller und semantischer Informationen In der Softwareentwicklung ist ein Code-Geruch ein Hinweis auf ein tieferes Problem im Quellcode, das die Wartbarkeit und Weiterentwicklung des Systems behindert. In der Literatur wird die Erkennung von Code-Gerüchen aufgrund ihrer Bedeutung als Wartungsaufgabe besonders hervorgehoben. Die meisten bisherigen Studien konzentrieren sich in ihren Analysen auf eine Informationsquelle, d. h. auf strukturelle, historische oder semantische Informationen. Einige üble Gerüche können jedoch durch eine Art von Information identifiziert, aber durch eine andere übersehen werden. In diesem Beitrag schlagen wir einen verbesserten Erkennungsansatz vor, der strukturelle und semantische Informationen kombiniert, um ihre Komplementarität bei der Identifizierung von Code-Gerüchen voll auszuschöpfen. Beide Informationen werden separat mit konventionellen und Deep-Learning-Methoden extrahiert. Für die Evaluierung haben wir fünf Open-Source-Projekte ausgewählt, nämlich JHotDraw, Apache Karaf, Freemind, Apache Nutch und JEdit. Um unsere Leistungsergebnisse zu optimieren, haben wir vier verschiedene Experimente aufgebaut und vergleichen diese. Die erhaltenen Genauigkeitsergebnisse bestätigen die Wirksamkeit der Kombination struktureller und semantischer Informationen bei der Verbesserung der Erkennung von Code-Gerüchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36808-1_32 02fd95a7aef8fe834934352433e6de57;de;;;5.1.;;;Absicherung der Migration mobiler Agenten mit Tree Parity Machine mit neuem Tiny Encryption Algorithm A Mobile Agenten sind eine Kombination von Softwareprogrammen, die automatisch in einer homogenen und inhomogenen Umgebung von einem Host zum anderen arbeitet, um Informationen zwischen Benutzern auszutauschen. Mobile Agenten migrieren in unsicheren Netzwerken, daher ist die Sicherheit mobiler Agenten ein wichtiges Anliegen bei der Kommunikation und dem Austausch von Daten und Informationen. Die Migration von mobilen Agenten hat große Sicherheitsprobleme, d. h. Datenintegrität, Datenvertraulichkeit und Authentifizierung, Anfechtung, Denial-of-Service und Zugriffskontrolle. In diesem Artikel wird ein auf einem neuronalen Netzwerk basierender Synchronisationsschlüsselaustausch für die Verschlüsselung und Entschlüsselung vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6634-9_13 f7c85a0f1929c074d0defdd2300720e2;de;;;5.1.;;;Messungen der Elektronenrekonstruktion und der Identifizierungseffizienz mit dem ATLAS-Detektor unter Verwendung der Proton-Proton-Kollisionsdaten des LHC von 2011 Viele der am LHC zu messenden interessanten physikalischen Prozesse weisen eine Signatur auf, bei der ein oder mehrere isolierte Elektronen beteiligt sind. Die Elektronenrekonstruktions- und -identifizierungseffizienz des ATLAS-Detektors am LHC wurde anhand von Proton-Proton-Kollisionsdaten aus dem Jahr 2011 um evaluiert;-;-;-;https://link.springer.com/article/10.1140/epjc/s10052-014-2941-0 0baf2b87354fcba0a02143aaa05ebdd4;de;;;5.1.;;;Bayesian Target Identification and Classification: Anwendung von AIS, GMTI und BFT in Leit- und Kontrollsystemen Die Identifizierung und Klassifizierung von Zielen ist eine der Schlüsselfunktionen von bodengestützten C4ISR-Systemen, militärischen Befehls- und Kontrollsystemen und Kampfmanagementsystemen. Sie ist Voraussetzung für Situational Awareness und unterstützt operative Nutzer bei der Entscheidungsfindung. Eine korrekte Identifizierung ist eine wichtige Voraussetzung, um Brudermord und zivile Kollateralschäden zu verhindern und das Situational Awareness zu vervollständigen. Moderne Kampfmanagement- und Überwachungssysteme arbeiten mit Tausenden von verfolgten Objekten, und ein solcher Operator ist nicht in der Lage, die riesige Menge an Zielen und Daten in einem betrieblich akzeptablen Zeitrahmen zu handhaben. Daher ist in solche militärischen Systeme ein automatisierter Identifizierungs- und Klassifizierungsprozess integriert. Typische Sensoren, die für diese Aufgabe verwendet werden, sind Radare, IFF- und ESM-Sensoren, ergänzt durch Quellen wie Tactical Data Links, zivile und militärische Luftraumkontrollmittel und Flugpläne.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30110-1_8 af1104f5a00f3195e68911a5dc959fea;de;;;5.1.;;;Knotenaktivitätsbasiertes Routing in opportunistischen Netzwerken In Mobilfunknetzen führt das Problem der intermittierenden und verkürzten Konnektivität zum Wachstum opportunistischer Netze. In opportunistischen Netzwerken kommunizieren die getrennten mobilen Knoten, wann immer sie die Möglichkeit haben, die Informationen zu teilen oder ihre Konnektivität wieder aufgenommen wird. Aufgrund dieser intermittierenden Konnektivität wird das Routing in dieser Art von Netzwerken sehr schwierig. Eine effiziente Ressourcennutzung ist unter solchen Bedingungen äußerst wichtig. In dieser Arbeit schlagen wir eine innovative Routing-Strategie für opportunistische Netzwerke basierend auf den Aktivitäten des Knotens vor. In NABR berücksichtigen wir das Verhalten und die Aktivitäten des Knotens in der Vergangenheit, um das Nachrichtenübermittlungsverhältnis in einer opportunistischen Netzwerkumgebung zu maximieren. Wir schlagen auch ein Pufferverwaltungsschema vor, das die Pufferspeicherung von Knoten effizient nutzt, um die Nachrichtenverlustrate zu reduzieren. Um die Leistung des vorgeschlagenen NABR-Protokolls zu simulieren und zu demonstrieren, wird der ONE-Simulator verwendet und die Ergebnisse werden mit bestehenden Routing-Schemata verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3804-5_20 4dc61978030b15d4e94e364067b9d9f5;de;;;5.1.;;;Replikations- und Checkpoint-Schemata für Task-Fehler-Toleranz in einem campusweiten mobilen Grid Mobile Grid Computing ist eine Computerumgebung, die mobile Geräte in eine vorhandene Grid-Umgebung einbindet und die Mobilität der Benutzer unterstützt. Diese Umgebung ist jedoch nicht stabil, sodass Methoden zur Bewältigung des Zuverlässigkeitsproblems erforderlich sind. Fehlertoleranzansätze für die Aufgabenausführung im Grid-Computing können in Replikation und Checkpoint kategorisiert werden. Wir wenden diese Techniken auf einen SimGrid-Simulator an, um eine Fehlertoleranz für eine mobile Umgebung bereitzustellen, und zeigen die Ergebnisse in diesem Papier. Die Ergebnisse zeigen, dass die beste Lösung für die Fehlertoleranz im Mobile Grid Computing von den Situationen des Netzwerks abhängt. Der Beitrag dieses Papiers ist die Verwendung von realen Trace-Daten zur Simulation der Fehlertoleranz in einem mobilen Grid-Computing.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27180-9_56 3146f881e5a49265bae1b6e27cfe138e;de;;;5.1.;;;QoS Aware Layered Multicast mit Netzwerkcodierung in verlustbehafteten Netzwerken Dieses Dokument untersucht QoS-bewusstes geschichtetes Multicasting von Multimediadaten in einem verlustbehafteten Netzwerk, das durch einen statischen Netzwerkcode codiert ist. Die von einer Quelle zu heterogenen Zielen per Multicast übertragenen Datenpakete kommen mit einer gewissen Wahrscheinlichkeit erfolgreich an jedem Ziel an. Wir schlagen zwei Ansätze der Ressourcenzuweisung für geschichtetes Multicast von Multimediainhalten vor. Durch iteratives Lösen eines Optimierungsproblems gibt der erste Ansatz den unteren Multimediaschichten die zuverlässigsten Ressourcen, während die Verbindungskapazitäten für höhere Schichten erhalten bleiben. Der zweite Ansatz formuliert ein Optimierungsproblem, dessen Ziel es ist, den gesamten Netzwerkdurchsatz zu maximieren, während die Übertragungszuverlässigkeit jeder Multimediaschicht gewährleistet ist. Zur Bewertung der vorgeschlagenen Ansätze werden sowohl mathematische Analysen mit Hilfe der Delta-Stern-Transformation als auch Computersimulationen verwendet. Die Ergebnisse zeigen, dass die beiden Ansätze verwendet werden können, um Zuverlässigkeit bzw. QoS-Garantie für übertragene Multimediaschichten über ein verlustbehaftetes Netzwerk bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10467-1_37 51c65a8c289c8cfddf2f91448dd68172;de;;;5.1.;;;Quantenaddierer für Superpositionszustände Die Quantenüberlagerung ist eines der wesentlichen Merkmale, die Quantenberechnungen klassische Berechnungen in Bezug auf Raumkomplexität und Zeitkomplexität übertreffen. Es ist jedoch ein zweischneidiges Schwert. Beispielsweise ist es mühsam, alle in einem Überlagerungszustand gespeicherten Zahlen zu addieren. Die übliche Lösung besteht darin, die Zahlen einzeln herauszunehmen und hinzuzufügen. Wenn es gibt;-;-;-;https://link.springer.com/article/10.1007/s10773-018-3779-2 b06ed2b0e2762b7e98eee7ad123de876;de;;;5.1.;;;Die Genom-Atlas-Ressource Der Genom-Atlas ist eine Ressource zur Bewältigung der Herausforderungen bei der Synchronisierung von prokaryotischen Genomsequenzdaten aus mehreren öffentlichen Repositorien. Diese Ressource kann bioinformatische Analysen in verschiedenen Datenformaten und Qualitäten integrieren. Bestehende Open-Source-Tools wurden zusammen mit Skripten und Algorithmen, die in verschiedenen Programmiersprachen am Zentrum für Biologische Sequenzanalyse entwickelt wurden, verwendet, um eine dreistufige Softwareanwendung für die Genomanalyse zu erstellen. Die Ergebnisse werden über ein in Java, PHP und Perl CGI entwickeltes Webinterface zur Verfügung gestellt. Benutzerkonfigurierbare und dynamische Ansichten von Chromosomenkarten werden durch einen aktualisierten GeneWiz-Browser (Version 0.94) ermöglicht, der Java verwendet, um ein schnelles Ein- und Auszoomen der Atlanten zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16750-8_13 1eb3607ea6ceb355b505c954b5a2625a;de;;;5.1.;;;Maschinelles Bewusstsein des Geistes Modell CAM Mind Model Bewusstsein und Gedächtnis (CAM) ist ein biologisch inspiriertes Mind Model, das ein allgemeiner Rahmen für intelligente Systeme auf menschlicher Ebene ist. Das Bewusstseinsmodul spielt eine sehr wichtige Rolle im Mind Model CAM. Dieser Beitrag stellt die Architektur des Maschinenbewusstseins vor, die Bewusstseins-, Aufmerksamkeits-, Motivations-, Metakognitions-, introspektives Lernen und globale Arbeitsbereichsmodule umfasst. Das vorgeschlagene Maschinenbewusstsein wird in der Cyborg-Intelligenz zur Aktionsplanung eingesetzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-62698-7_2 f2aa8c3714ec5d8545436e6149536217;de;;;5.1.;;;Aktivitätsvorhersage Nach vollständiger Beobachtung des gesamten Videos klassifizieren Aktionserkennungsansätze die Videobeobachtung in eine der Aktionskategorien. Es sollte beachtet werden, dass bestimmte reale Anwendungen (z. B. Fahrzeugunfälle und kriminelle Aktivitäten) nicht den Luxus erlauben, auf die Ausführung der gesamten Aktion zu warten. Reaktionen müssen in einer Aufforderung zur Aktion ausgeführt werden. So ist es beispielsweise extrem wichtig, eine gefährliche Fahrsituation vorherzusagen, bevor es zu einem Fahrzeugcrash kommt. Leider ist eine Mehrheit der existierenden Aktionserkennungsansätze auf solche speziellen Szenarien beschränkt, da sie die aus dem Video extrahierte Aktionssequenz vollständig beobachten müssen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27004-3_6 722e8273ed83c84c9bd70742e2d76fa3;de;;;5.1.;;;Tracking mehrerer planarer Projektionstafeln für interaktive Mixed-Reality-Anwendungen Betrachtet wird der Fall von Mixed-Reality-Projektor-Kamera-Systemen und insbesondere solchen, die Handheld-Boards als interaktive Displays verwenden. Diese Arbeit konzentriert sich auf die genaue, robuste und zeitnahe Erkennung und Posenschätzung solcher Boards, um eine qualitativ hochwertige Erweiterung und Interaktion zu erzielen. Der vorgeschlagene Ansatz betreibt eine Kamera im nahen Infrarotspektrum, um die optische Projektion aus dem sensorischen Input herauszufiltern. Die Monochromatizität der Eingabe schränkt jedoch die Verwendung von Farbe für die Erkennung von Platinen ein. In diesem Zusammenhang werden zwei Methoden vorgeschlagen. Die erste betrifft die Pose-Schätzung von Boards, die, da sie rechenintensiv ist und vom System häufig verwendet wird, hochgradig parallelisiert ist. Die zweite verwendet diese Methode zur Posenschätzung, um Platinen zu erkennen und zu verfolgen, wobei sie die Rechenressourcen effizient nutzt, so dass genaue Ergebnisse in Echtzeit geliefert werden. Eine genaue Posenschätzung erleichtert die Berührungserkennung an bestimmten Bereichen auf den Tafeln und die hochwertige Projektion visueller Inhalte auf Tafeln. Eine Umsetzung des vorgeschlagenen Ansatzes wird umfassend und quantitativ auf Genauigkeit und Effizienz evaluiert. Diese Bewertung, zusammen mit Usability- und Pilotanwendungsuntersuchungen, zeigt die Eignung des vorgeschlagenen Ansatzes für den Einsatz in interaktiven Mixed-Reality-Anwendungen.;-;-;-;https://link.springer.com/article/10.1007/s11042-017-5313-6 7246dda2a439ddbbfd07528d57d97219;de;;;5.1.;;;ECGpp: Ein Rahmen für die Auswahl der Vorverarbeitungsparameter von EKG-Signalen, die für die Blutdruckklassifizierung verwendet werden Es gibt viele kommerziell erhältliche Sensoren zur Erfassung von Elektrokardiogramm-(EKG)-Signalen, und die prädiktiven Analysen sind für die Echtzeitüberwachung im öffentlichen Gesundheitswesen äußerst willkommen. Eine entscheidende Aufgabe einer solchen Analyse ist die Auswahl der Vorverarbeitungsparameter für die EKG-Signale, die die wertvollsten Informationen tragen. Aus diesem Grund haben wir unsere bisherige Arbeit erweitert, indem wir einen Rahmen vorgeschlagen haben, der als EKGpp bekannt ist und der zur Auswahl der besten Vorverarbeitungsparameter für EKG-Signale (wie Signallänge und Grenzfrequenz) verwendet werden kann, die in die prädiktive Analyse einbezogen werden . Die Neuheit des Frameworks liegt in der verwendeten Bewertungsmethodik, bei der ein Ensemble von Leistungsmaßen verwendet wird, um die vielversprechendsten Parameter einzustufen und auszuwählen. 30 verschiedene Kombinationen einer Signallänge und einer Grenzfrequenz wurden anhand eines Datensatzes ausgewertet, der Daten von fünf kommerziell erhältlichen EKG-Sensoren bei der Blutdruckklassifizierung enthält. Die Auswertungsergebnisse zeigen, dass eine Signallänge von 30 s die wertvollsten Informationen enthält, während gezeigt wurde, dass auch niedrigere Grenzfrequenzen, bei denen die EKG-Komponenten mit dem Basislinien-Wanderrauschen überlappen, vielversprechende Ergebnisse liefern können. Darüber hinaus wurden die Ergebnisse entsprechend der Auswahl der Leistungsmaße getestet und es zeigte sich, dass sie robust gegenüber Ein- und Ausschluss korrelierter Maßnahmen sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-46970-2_17 8960f978f6c99a9fa6c7ff2df79129c8;de;;;5.1.;;;Halbechtzeit-Hash-Vergleich zur Erkennung von Eindringlingen mithilfe von Blockchain Dieses Papier schlägt ein erweiterbares Blockchain-basiertes System zur Erkennung industrieller Anomalie (BIAD) für industrielle Szenarien vor. Dieser Ansatz besteht darin, Blockchain zu verwenden, um eine Reihe von Angriffen in Semi-Echtzeit durch den Vergleich von Protokollen zu verhindern. Außerdem berücksichtigt diese Lösung Änderungen der Angreifer-Firmware, die dem gleichen Vergleichsprinzip innerhalb derselben Infrastruktur folgen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-32213-7_13 e0427ae38509c613c1400b701a89d58b;de;;;5.1.;;;Umfragepapier zu einem neuen Ansatz für Standortempfehlungen mit skalierbarer inhaltssensitiver kollaborativer Filterung Die Standortempfehlung spielt eine wichtige Rolle bei der Suche nach interessanten Orten. Obwohl er in letzter Zeit recherchiert hat, hat er Orte beraten und Informationen sozial und geografisch bereitgestellt, von denen sich einige mit dem Problem des Starts des neuen kalten Benutzers befasst haben. Die Aufzeichnungen der Mobilität, die in sozialen Netzwerken geteilt werden. Kollaborative inhaltsbasierte Filter basieren auf expliziten Kommentaren, erfordern jedoch ein negatives Designbeispiel für eine verbesserte Leistung. negative Benutzerpräferenzen, die in Mobilitätsaufzeichnungen nicht beobachtbar sind. In früheren Studien funktionierten jedoch stichprobenbasierte Methoden und diese Methode nicht gut. Ein Vorschlagssystem basierend auf impliziten skalierbaren Kommentaren Ein inhaltsbasiertes kollaboratives Filter-Framework wird verwendet, um negative Stichproben zu vermeiden und semantisch basierte Inhalte zu integrieren. Der Optimierungsalgorithmus wird verwendet, um linear mit den Dimensionen der Daten und den Dimensionen der Merkmale zu arbeiten, die Dimensionen des Latentraums werden quadratisch dargestellt. Auch festgestellter Zusammenhang mit der Faktorisierung der Plattenmatrixplattierung. Die personalisierte Empfehlung empfiehlt die Point-of-Interest-Routen durch Mining-Benutzer-Reiseaufzeichnungen. Schließlich wurde das ICCF-Framework mit einem umfangreichen Datensatz für standortbasierte soziale Netzwerke bewertet, in dem Benutzer Text und Profile haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-8715-9_21 6e4a349041f488821fd1a53c4957016c;de;;;5.1.;;;Ping-Pong-Protokoll zur Stärkung gegen Pavičis Angriff Eine Quantenschaltung, die ein nicht nachweisbares Abhören von durch Bit-Flip-Operationen im Ping-Pong-Protokoll codierten Informationen ermöglicht, wurde kürzlich von Pavičić [Phys. Rev. A, vol. 87, S. 042326, 2013]. Eine Modifikation des Kontrollmodus des Protokolls wird vorgeschlagen. Die eingeführte Verbesserung behebt Mängel der bahnbrechenden Protokollversion und ermöglicht die Angriffserkennung von Pavičić mit überwältigender Wahrscheinlichkeit. Die verbesserte Version ist auch immun gegen den Angriff des berühmten Wójcik [Phys. Rev. Lett., vol. 90, S. 157901, 2003]. Als Ergebnis wird die asymptotische Sicherheit des Ping-Pong-Protokolls sowohl in perfekten als auch in verlustbehafteten Quantenkanälen wiederhergestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07941-7_21 252c46651220ab068d992c89ea108f9d;de;;;5.1.;;;Die Übernahme der TT&C und Verwaltung für SIN basierend auf dem TDRS SMA System In den letzten Jahren hat die Übertragung von Geoinformationen die Eigenschaften von Benutzeranzahl, breitem Abdeckungsbereich, Mehrfachservice und bequemem Zugang, die den Forschungsschwerpunkt für SIN (Spatial Information Network)-Benutzer im Bereich der intelligenten TT&C (Telemetrie, Tracking und Befehl) und Verwaltung. Basierend auf der eingehenden Analyse der Anwendungsmodi von TDRSS (Tracking and Data Relay Satellite System) wird eine Annahme von TT&C und Management für SIN basierend auf dem TDRS SMA (S-Band Multiple Access)-System vorgeschlagen. Die Analyse konzentriert sich hauptsächlich auf den Panoramastrahl, die Systemzusammensetzung und den Benutzerzugriff, auch die Protokollarchitektur, der Kommunikationsworkflow und das TDRS-Terminal sind originell gestaltet. Im Vergleich zum traditionellen Betriebsmodus könnte die vorgeschlagene Annahme eine allgegenwärtige Wahrnehmung, wahlfreien Zugriff, Online-Management und Satelliten-Boden-Kooperation für die Anwendung durch die Benutzer ermöglichen. Auf das relevante Ergebnis könnte in der Studie zu TT&C und Management für SIN verwiesen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-4403-8_20 59093dedcd187222b46b412c17d2c922;de;;;5.1.;;;Indexbasierter geordneter Broadcast mit Status-Algorithmus (IOBS) für konsistenten Daten-Broadcast Mobile Computersysteme werden immer beliebter, da die Menschen unterwegs Daten benötigen. Viele aufkommende mobile Datenbankanwendungen verlangen eine sendebasierte Datenverbreitung, dh die Daten werden ohne jede Anfrage an eine größere Anzahl von Clients gesendet. In diesem Papier behandeln wir das Problem der Wahrung der Datenkonsistenz und -währung zwischen mobilen Transaktionen, während die Broadcast- und Update-Transaktionen gleichzeitig auf dem Server ohne jegliche Kontrolle ausgeführt werden. Wir schlagen einen effizienten auf Serialisierbarkeit basierenden Algorithmus (IOBS) vor, um die Konsistenz der gesamten Datenbank sicherzustellen. Dieser Algorithmus hat die folgenden Eigenschaften.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24043-0_28 b171e38121c19820f007c38375478d9f;de;;;5.1.;;;Verwenden von Microsoft Office InfoPath zum Generieren von XACML-Richtlinien Wenn Unternehmen heute die Zugriffskontrolle auf ihre Ressourcen durchführen, interessieren sie sich nicht nur für die Identität des Benutzers, sondern auch für andere Daten wie Benutzerattribute oder Kontextinformationen. Diese Anforderungen finden sich beispielsweise in einem Netzzugangskontrollszenario, in dem Endbenutzer für eine bestimmte Zugangsebene bezahlen und abhängig davon unterschiedliche Netzdienstqualitäten erhalten können. Der Netzanbieter muss nicht nur die Benutzeridentität, sondern auch die Attribute des Benutzers überprüfen, um sicherzustellen, dass er auf die angegebene Ressource zugreifen kann. Diese Systeme basieren auf der Verwendung von Richtliniensprachen, um den Autorisierungsprozess zu definieren. Aufgrund der zunehmenden Komplexität aktueller Systeme werden Richtlinien jedoch immer komplexer und müssen von Systemadministratoren verwaltet werden. Daher stellen wir in diesem Papier einen benutzerfreundlichen Ansatz zur Richtlinienspezifikation vor, der auf der Verwendung von High-Level-Vorlagen und gängigen Desktop-Anwendungen basiert. Diese Vorlagen lassen sich einfach aus XML-Schemas erstellen, und sobald sie gefüllt sind, wird automatisch eine XACML-Richtlinie mithilfe einer XML-Transformation generiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-70760-8_11 8d69a963bd26b0c757416425208d8065;de;;;5.1.;;;Kombinierte auf Ähnlichkeit basierende automatisierte Programmreparaturansätze für Fehler auf Ausdrucksebene Die automatisierte Programmreparatur zielt darauf ab, mithilfe einer Spezifikation wie beispielsweise Testfällen den richtigen Patch eines Fehlers zu finden. Eine bestehende Studie ergab, dass fast 82,40 % Reparaturaktionen mit Ausdrücken wie Methodenaufrufen oder Zuweisungsausdrücken verbunden sind. Die Behandlung von Fehlern auf Ausdrucksebene erweitert jedoch den Suchraum und erhöht die Wahrscheinlichkeit, falsche plausible Patches vor dem richtigen zu finden. Folglich vermeiden bestehende Programmreparaturansätze entweder Fehler auf Ausdrucksebene oder konzentrieren sich nur darauf. Diese Studie schlägt zwei automatisierte Programmreparaturansätze vor, die sich ausführlich mit Fehlern auf Ausdrucksebene befassen. Die entwickelten Techniken kombinieren syntaktische und semantische Ähnlichkeiten, um den vergrößerten Suchraum zu handhaben und den richtigen Patch höher einzustufen. Genealogische und variable Ähnlichkeit werden verwendet, um die semantische Ähnlichkeit zu messen, da diese gut zwischen richtigen und falschen Patches unterscheiden können. Zwei beliebte Metriken, nämlich die normalisierte längste gemeinsame Teilsequenz und die Token-Ähnlichkeit, werden einzeln betrachtet, um syntaktische Ähnlichkeit zu erfassen. Um die vorgeschlagenen Techniken zu bewerten, werden diese mit Basisansätzen verglichen, die entweder semantische oder syntaktische Ähnlichkeit verwenden. Zum Vergleich werden einzeilige Fehler aus Defects4J und QuixBugs Benchmark verwendet. Das Ergebnis zeigt, dass die vorgeschlagenen Techniken Fehler auf der Expressionsebene 22 und 21 korrekt reparieren können, die höher sind als Ansätze, die nur semantische oder syntaktische Ähnlichkeit verwenden. Darüber hinaus erreichen die entwickelten Ansätze eine Präzision von 64,71 % und 61,76 % und übertreffen die Reparaturtechniken des Basisprogramms.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-70006-5_13 46c7159655d40cabdcc79d241f01a5aa;de;;;5.1.;;;Schwachstellen von Webanwendungen mithilfe von Penetrationstests erkennen und Bedrohungsmodellierung verhindern Die Zahl der Webangriffe nimmt allmählich zu, vor allem die Popularität von Webanwendungen in Unternehmen, Schulen und Hochschulen. Aus diesem Grund wird die Sicherheit ihrer sensiblen Informationen vor Angreifern für alle Organisationen und Unternehmen sehr wichtig. In diesem Whitepaper beschreiben wir verschiedene Arten von Webanwendungsangriffen wie SQL-Injection, XSS-Angriff, CSRF-Angriff und Pufferüberlauf. Außerdem diskutieren wir verschiedene Arten von Penetrationstools für Webanwendungen. Penetrationstests versuchen, die Schwachstellen von Webanwendungen zu finden, damit wir einen Abwehrmechanismus gegen Webangriffe entwickeln können. Schließlich erstellen wir Angriffsbäume und Verteidigungsbäume, um die Angriffe darzustellen und diese Angriffe zu verhindern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8752-8_3 bb994b8c1025048a76949852d40696ac;de;;;5.1.;;;Remote Data Authentication Scheme Based Balance Binary Sort Merkle Hash Tree Jetzt ist Cloud-Speicher die bevorzugte Möglichkeit für Benutzer, große Datenmengen zu speichern. Um die Integrität von Remote-Daten zu überprüfen, wird der Merkle-Hash-Baum häufig verwendet, um Datenfingerabdrücke zu generieren. Mit dem Ziel der Unzulänglichkeiten bestehender gemeinsamer Schemata für die Datenfernauthentifizierung basierend auf dem Merkle-Hash-Baum konstruiert dieses Papier basierend auf der Datenblock-Indexnummer den Merkle-Hash-Baum mit binärer Sortierung und verwendet zweischichtige Datenknoten, um den Authentifizierungspfad zu verkürzen. Gleichzeitig werden durch die Einführung von „virtuellen Knoten“ zur Aufrechterhaltung der binären Sortierung des Merkle-Baums und zur Vereinfachung des Einfügens zusätzlich unter Berücksichtigung der Anforderungen der Vertraulichkeit sensibler Informationen Gruppen-Hash für sensible Informationen und nicht sensible Informationen verwendet, um sicherzustellen, dass sensible Informationen im Verifizierungsprozess nicht durchgesickert. Die theoretische Analyse zeigt, dass die Authentifizierungsstruktur die Funktion der Datenintegritätsprüfung gut erfüllen und den dynamischen Betrieb von Datenblöcken unterstützen kann, während das Gleichgewicht des Merkle-Baums beibehalten wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1922-2_14 e15af96de386d9dbb24fc5d16f5705e9;de;;;5.1.;;;Interaktive Anpassung digitaler Felder im System GeoBazaDannych Das interaktive Computersystem GeoBazaDannych ist ein Komplex aus intelligenten Computer-Subsystemen, mathematischen, algorithmischen und Softwarewerkzeugen zum Füllen, Pflegen und Visualisieren von Eingabe- und Ausgabedaten, wodurch kontinuierlich aktualisierte Computermodelle erstellt werden. Der Zweck und die Funktionsweise der Hauptkomponenten des Systems GeoBazaDannych werden kurz beschrieben. Es werden Beispiele für die interaktive Bildung von digitalen Modellen geologischer Objekte in Computerexperimenten diskutiert, die den intuitiven Anforderungen des Experten gerecht werden. Methodische und algorithmische Lösungen, entsprechende Spezialwerkzeuge des Systems GeoBazaDannych zur Bildung digitaler Distributionen, die den vom Experten gestellten Anforderungen entsprechen, werden vermerkt. Die Ergebnisse des Vergleichs mit Standardlösungen im Komplex „Generator des geologischen Modells der Lagerstätte“ werden vorgestellt. Es werden Beispiele zur Annäherung und Rekonstruktion des digitalen Feldes und seiner interaktiven Anpassung mit Hilfe des Systems GeoBazaDannych gegeben und diskutiert, die erhaltenen Lösungen und deren Genauigkeit durch Isolinienkarten veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-60447-9_14 0b06eca892814e52176ffaa822ef4217;de;;;5.1.;;;Prototyp eines Empfehlungssystems basierend auf Multiagenten in der Analyse von Filmdatensätzen In diesem Beitrag wird ein Vorschlag für ein auf Multiagenten basierendes Empfehlungssystem gemacht, der die entworfene Architektur, den für die Entwicklung des Multiagentensystems verwendeten Server sowie die Kommunikation zwischen den notwendigen Agenten zur Durchführung einer empfohlenen Tour zeigt. Der implementierte Vorschlag ermöglicht es, Benutzern Vorschläge zu Filmen zu machen. Mittels neuronaler Netze wird festgestellt, ob die vorgeschlagene Route für den Benutzer richtig ist oder ob es notwendig ist, den Vorschlag für folgende Empfehlungen zu verbessern. Um die Empfehlungen zu generieren, wurde der kostenlose Datensatz von MovieLens verwendet, in dem eine Datenbank erstellt wurde, um diese zu analysieren und auch eine Reaktion auf neue Empfehlungen für die Benutzer zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00350-0_18 a863cda648c250d257f009857631c529;de;;;5.1.;;;Learning Intermediary Category Labels für persönliche Empfehlung In vielen Recommender-Systemen werden seit geraumer Zeit Kategorie-Informationen als Zusatzfeatures für Recommender verwendet, deren Anwendung eher darin besteht, Zusammenhänge zwischen Produkten zu verstehen, um kontextrelevante Empfehlungen aufzuzeigen. Dennoch werden die Kategorien als Vermittler nicht nur für Produktattribute, sondern auch für Präferenzmerkmale von Personen als Labels vernachlässigt. Hier schlagen wir einen Rahmen vor, um die vermittelnde Rolle von Kategorien zu lernen, die als Brücke zwischen Benutzern und Artikeln fungieren. Der Rahmen besteht aus zwei Teilen. Zuerst sammeln wir die vermittelnden Faktoren, die Kategoriebezeichnungen auf Attribute von Artikeln bzw. Benutzerpräferenzen beeinflussen. Zweitens integrieren wir das Kategoriemedium der Produktattribute und Benutzerpräferenzen in Online-Empfehlungssysteme, um Benutzern zu helfen, ähnliche oder komplementäre Produkte zu entdecken. Wir evaluieren unser Framework am Amazon-Produktkatalog und zeigen, dass Hierarchiekategorien gleichzeitig Merkmale von Benutzern und Artikeln erfassen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-63564-4_10 7b54a890ae531fe420afb1371e4933c4;de;;;5.1.;;;Abschätzen der Außenbeleuchtungsbedingungen basierend auf der Erkennung dynamischer Schatten Der Artikel schlägt eine Technik vor, um die Beleuchtungsbedingungen im Freien in Bezug auf Sonnen- und Himmelsstrahlung direkt aus Pixelwerten dynamischer Schatten abzuschätzen, die in Videosequenzen erkannt werden, die von einer kommerziellen Stereokamera erzeugt wurden. Die Technik wird auf das Rendern virtueller Objekte in den Bildstrom angewendet, um eine realistische Augmented Reality zu erreichen, bei der die Schattierung und Schattierung virtueller Objekte mit der realen Szene übereinstimmt. Andere Techniken erfordern das Vorhandensein eines bekannten Objekts, einer Lichtsonde, in der Szene, um die Beleuchtung abzuschätzen. Die hier vorgeschlagene Technik funktioniert in allgemeinen Szenen und erfordert keine High Dynamic Range-Bilder. Experimente zeigen, dass die Strahlung von Sonne und Himmel auf innerhalb von 7% der Ground-Truth-Werte geschätzt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32350-8_3 60f46c99aa0ff14143dcaba0c375b3d1;de;;;5.1.;;;Ein schneller und leistungsstarker Algorithmus zur Mehrfachdatenintegration zur Identifizierung menschlicher Krankheitsgene Die Integration mehrerer Datenquellen ist unverzichtbar, um die Identifizierung von Krankheitsgenen zu verbessern. Dies liegt nicht nur daran, dass Krankheitsgene, die mit ähnlichen genetischen Erkrankungen assoziiert sind, in verschiedenen biologischen Netzwerken tendenziell eng beieinander liegen, sondern auch daran, dass Gen-Krankheits-Assoziationen komplex sind. Obwohl verschiedene Algorithmen vorgeschlagen wurden, um Krankheitsgene zu identifizieren, sollten ihre Vorhersageleistung und die Rechenzeit noch weiter verbessert werden.;-;-;-;https://link.springer.com/article/10.1186/1755-8794-8-S3-S2 8c2f704064f640294b8257045f742abb;de;;;5.1.;;;Eine effektive Anpassung zur Verbesserung des Prozesses der Straßenerkennung auf Rasterkarten Dieses Forschungsziel besteht darin, den gesamten Prozess des Erkennens und Extrahierens von Straßenschichten aus Rasterkarten zu verbessern und den gesamten Prozess als geschlossenes Rückkopplungssystem mit messbarem, zustandskontrollierbarem und optimal anpassbarem Erkennungsteilprozess zu gestalten. Das Schema baut ein integriertes System auf, dessen Ausgabestraßenschicht messbar ist, indem zwei (oder mehr) Methoden perfekter vergleichender Identifizierungen mit ihren komplementären Mechanismen ausgewählt und dann parallel als kontrollierte Teilprozessobjekte des integrierten Systems gesammelt werden. Basierend auf dem Ansatz der mikroskopischen Identifizierung und der makroskopischen Eliminierung realisierte das System zuerst die anfängliche Erkennung der Straßenschicht und die letzte Straßenkartenebene vollständig, um über einige Ausgabeschichten eine Neugruppierung und eine Rückkopplungssteuerung zu entfernen. Im Hinblick auf die Standard-Kommunalverkehrskarte hat sich der Weg- und der Bereichsventilwertzustand bestimmt. Durch die Umgruppierung zum Rauschen kann die gesamte Karte vollständig in zwei Teile Straße und Nicht-Straße (Region) unterteilt werden. Die Rückkopplungs-Re-Clustering-Erkennungsstrategien für die Verkehrsstraßennetze basieren auf dem Kernmerkmal der Straßenverfassung. Die Konvergenz des Feedback-Re-Clustering der Straßenschicht garantiert die Optimierung auf Kartenebene map;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23321-0_47 47e255fb988e2fcf4b49241169261977;de;;;5.1.;;;MKL-basierte lokale Etikettendiffusion für automatische Bildkommentare Die Aufgabe der automatischen Bildannotation versucht, einen Satz semantischer Labels für ein Bild vorherzusagen. Die Mehrheit der existierenden Methoden entdeckt einen gemeinsamen latenten Raum, der Inhalt und semantische Bildähnlichkeit unter Verwendung des metrischen Lerntyps des globalen Lernrahmens kombiniert. Dies schränkt ihre Anwendbarkeit auf große Datensätze ein. Andererseits gibt es wenige Verfahren, die sich vollständig darauf konzentrieren, einen lokalen Latentraum für jedes Testbild zu lernen. Sie ignorieren jedoch die globale Struktur der Daten vollständig. In dieser Arbeit schlagen wir eine neuartige Bildannotationsmethode vor, die versucht, das Beste aus lokalen und globalen Lernmethoden zu kombinieren. Wir führen den Begriff der Nachbarschaftstypen ein, basierend auf der Hypothese, dass ähnliche Bilder im Inhalts-/Funktionsraum auch überlappende Nachbarschaften haben sollten. Wir verwenden auch Graphendiffusion als Mechanismus für den Labeltransfer. Experimente mit öffentlich verfügbaren Datensätzen zeigen eine vielversprechende Leistung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-0020-2_34 5180c7dee1ff624abed9eb91fa0a85b7;de;;;5.1.;;;Populationsgenetische Informationen zur regionalen Erhaltung eines tropischen Seegrases, Seegras sind marine Angiospermen und spielen in Küstenökosystemen eine wesentliche ökologische Rolle, Seegraswiesen sind jedoch lokal durch anthropogene Störungen bedroht. Das Verständnis der Ausbreitungsmuster von Seegras ist für ein angemessenes Ökosystemmanagement und die Einrichtung von Meeresschutzgebieten (MPAs) in Küstenökosystemen unerlässlich. In der Guimaras-Straße auf den Philippinen wurde Banate (BAN) als MPA gegründet. Es fehlen jedoch Informationen über die genetische Vielfalt von Seegras in BAN und Umgebung. In der vorliegenden Studie wird die populationsgenetische Analyse von;-;-;-;https://link.springer.com/article/10.1007/s10592-017-0927-9 78490d1f12b8d0a927eca463faadebe7;de;;;5.1.;;;Kooperative Arbeit zur räumlichen Entscheidungsfindung: Ein Fall für das Notfallmanagement Geografische Informationssysteme werden häufig verwendet, um Entscheidungsprozesse zu unterstützen, insbesondere solche, die das Notfallmanagement betreffen. Bei der Planung der Maßnahmen im Notfall müssen Experten viele Szenarien bewerten und vergleichen, die sich aus unterschiedlichen Hypothesen darüber ergeben, wo sich Menschen zum Zeitpunkt des Notfalls aufhalten und wie sie reagieren werden. Diese Arbeit stellt ein Werkzeug vor, das einer Expertengruppe dabei helfen kann, die Ergebnisse der verschiedenen Hypothesen zu generieren, zu visualisieren und zu vergleichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10166-8_11 f8088dffea366cc401b07433275cb21f;de;;;5.1.;;;Lokalisieren der Position eines Mobiltelefonbenutzers mithilfe von GSM-Signalen Mobile Geräte werden heute immer beliebter und mobile standortbasierte Dienste werden als gewinnbringende Chance für Service Provider angesehen. Die Positionsverfolgung ist bei der Implementierung vieler der neuen standortbasierten Dienste in Mobilfunknetzen wesentlich. Die mobile Ortungstechnologie ist zu einem wichtigen Forschungsgebiet auch für Rettungsdienste und kommerzielle Dienste geworden. Es gibt verschiedene Möglichkeiten, den genauen Standort eines Mobiltelefons oder eines Benutzers zu verfolgen. Die am weitesten verbreitete Methode ist die Verwendung des eingebauten GPS-Moduls oder die Mobilfunkmast-Triangulation. Die meisten Menschen verwenden jedoch nicht die ganze Zeit den GPS-Ortungsdienst, und als Ergebnis ist die mobile Positionsbestimmung auf Basis eines zellularen Mobilfunknetzes eine alternative Methode zur Verfolgung. Darüber hinaus weisen diese Verfahren viele Probleme auf, wie etwa geringe Genauigkeit, hohe Ausrüstungskosten, schnelle Modifikationen des Zellstandorts und die Notwendigkeit einer fortschrittlichen Infrastruktur. Daher besteht ein Bedarf, ein kosteneffektives, genaues, mobiles Positionierungsverfahren zu entwickeln, um die gegenwärtigen Verfahren mit geringer Genauigkeit und teuren Verfahren zu ersetzen, die ein zellulares mobiles Netzwerk verwenden. In diesem Forschungsprojekt wurde eine Android-Anwendung entwickelt, um Standortparameter von verbundenen nächstgelegenen Basisstationen eines Mobiltelefons abzurufen, um die Koordinaten jeder einzelnen Basisstation mithilfe der Google Geo-Location API zu lokalisieren. Dort wurden Kombinationen von drei Basisstationskoordinaten verwendet, um den ungefähren Standort unter Verwendung des Pearson-Korrelationskoeffizienten-Ansatzes zu berechnen. Die ungefähren Standorte wurden mithilfe eines genetischen Algorithmus optimiert, um den endgültigen geschätzten Standort zu lokalisieren. Dieses Papier diskutiert das vorgeschlagene System und die Implementierung des Proof of Concept.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9129-3_4 e42d565577e795d1f28a36a7854a1947;de;;;5.1.;;;Effiziente Stichprobenverfahren zur Charakterisierung von POIs auf Karten basierend auf Straßennetzen Mit der rasanten Entwicklung von Location Based Services ist es ein besonders wichtiger Aspekt der Start-up-Marketingforschung, Points of Interest (PoIs) wie Restaurants und Hotels auf Karten zu erkunden und zu charakterisieren. Aufgrund des fehlenden direkten Zugriffs auf PoI-Datenbanken ist es jedoch notwendig, auf vorhandene APIs zurückzugreifen, um PoIs innerhalb einer Region abzufragen und PoI-Statistiken zu berechnen. Leider begrenzen öffentliche APIs im Allgemeinen die maximale Anzahl von Abfragen. Aus diesem Grund schlagen wir effektive und effiziente Stichprobenverfahren auf der Grundlage von Straßennetzen vor, um PoIs auf Karten zu erfassen und stellen unverzerrte Schätzer zur Berechnung von PoI-Statistiken bereit. Generell gilt: Je intensiver die Straßen, desto dichter sind die PoIs innerhalb einer Region verteilt. Experimentelle Ergebnisse zeigen, dass unsere Stichprobenverfahren im Vergleich zu modernsten Methoden die Effizienz aggregierter statistischer Schätzungen verbessern.;-;-;-;https://link.springer.com/article/10.1007/s11704-016-6146-6 0e20c307dc011663cbd12ddf74260994;de;;;5.1.;;;Merkmale und vergleichende Analyse der rekonstruierten Dürre-/Hochwasser-Gradsequenz im östlichen Nordwesten Chinas von 1470 bis 1912 Die östliche nordwestchinesische Dürre-/Hochwassergradfolge wurde anhand historischer Daten zu Dürre- und Flutkatastrophen für den Zeitraum von 1470 bis 1912 rekonstruiert. Die sich über 443 Jahre verändernden Charakteristiken von Dürre-/Hochwasserkatastrophen im östlichen Nordwesten Chinas wurden mit Methoden wie der gleitende Durchschnitt, kumulative Anomalie, gleitend;-;-;-;https://link.springer.com/article/10.1007/s12665-019-8706-1 a4f5f0ac6e12d9096b613977b490a8a8;de;;;5.1.;;;Bewertung der Wiederverwendbarkeit von Lernobjekten, die in offenen Repositories gespeichert sind, basierend auf ihren Metadaten Wiederverwendbarkeit wird als die Schlüsseleigenschaft von Lernobjekten angesehen, die sich in offenen Repositorys befinden. In der Folge sollten Messinstrumente für die Wiederverwendbarkeit von Lernobjekten entwickelt werden. In dieser vorläufigen Forschung schlagen wir vor, die Wiederverwendbarkeit von Lernobjekten durch eine a priori Wiederverwendbarkeitsanalyse basierend auf ihren Metadatensätzen zu bewerten. Ein Satz von Wiederverwendbarkeitsmetriken, die aus Metadatensätzen extrahiert wurden, wird definiert und eine Qualitätsbewertung der Metadatenanwendungsprofile, die in den Repositories eLera und Merlot definiert sind, wird offengelegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04590-5_18 16793008cf766d0617f6bd97004a3efa;de;;;5.1.;;;Analysewerkzeuge in der Untersuchung verteilter Entscheidungsfindung: eine Metastudie der Command and Control Research Unser Verständnis der verteilten Entscheidungsfindung in professionellen Teams und ihrer Leistung stammt zum Teil aus Studien, in denen Forscher Informationen über die Kommunikation und das Handeln von Teams sammeln und verarbeiten. In vielen Fällen sind die zur Analyse zur Verfügung stehenden Datensätze groß, unhandlich und erfordern Methoden zur explorativen und dynamischen Datenverwaltung. In diesem Papier berichten wir über die Ergebnisse der Befragung von acht Forschern zu ihrem Arbeitsprozess bei der Durchführung solcher Analysen und ihrem Einsatz von Unterstützungsinstrumenten in diesem Prozess. Unser Ziel mit der Studie war es, ihren Workflow bei der Untersuchung verteilter Entscheidungsfindung in Teams zu verstehen und insbesondere, wie automatisierte Musterextraktionswerkzeuge für ihre Arbeit von Nutzen sein könnten. Auf der Grundlage einer Analyse der Interviews haben wir drei Probleme im Zusammenhang mit der Verwendung von Unterstützungsinstrumenten bei der Analyse erhoben:;-;-;-;https://link.springer.com/article/10.1007/s10111-011-0177-4 7a6e8f443a43a1d86cdfa5cedc723dd7;de;;;5.1.;;;Semi-Quanten-Kommunikation: Protokolle für Schlüsselvereinbarung, kontrollierte sichere direkte Kommunikation und Dialog Semi-Quanten-Protokolle, die es einigen Benutzern ermöglichen, klassisch zu bleiben, werden für eine große Klasse von Problemen vorgeschlagen, die mit sicherer Kommunikation und sicherer Mehrparteienberechnung verbunden sind. Insbesondere werden erstmals Semi-Quanten-Protokolle für Schlüsselübereinstimmung, kontrollierte deterministische sichere Kommunikation und Dialog vorgeschlagen, und es wird gezeigt, dass die Semi-Quanten-Protokolle für kontrollierte deterministische sichere Kommunikation und Dialog auf Semi-Quanten-Protokolle für e- Handels- und Privatvergleich (sozialistisches Millionärsproblem). In Ergänzung zu den früher vorgeschlagenen Semi-Quanten-Schemata für die Schlüsselverteilung, die gemeinsame Nutzung von Geheimnissen und die deterministische sichere Kommunikation haben die hier vorgeschlagenen Schemata und die nachfolgenden Diskussionen gezeigt, dass fast alle sicheren Kommunikations- und Rechenaufgaben, die unter Verwendung vollständiger Quantenprotokolle ausgeführt werden können, auch ausgeführt werden können in Halbquantenform. Einige der vorgeschlagenen Schemata sind vollständig orthogonal-zustandsbasiert und unterscheiden sich somit grundlegend von den existierenden Halbquantenschemata, die auf konjugierter Codierung basieren. Sicherheit, Effizienz und Anwendbarkeit der vorgeschlagenen Systeme wurden mit entsprechender Bedeutung erörtert.;-;-;-;https://link.springer.com/article/10.1007/s11128-017-1736-2 5098bac25e676edc3085ba6affdad168;de;;;5.1.;;;Ein neuartiges Anonymitätsquantifizierungs- und -erhaltungsmodell für UnderNet-Relaisnetzwerke Mit der breiten Verbreitung von Internetanwendungen sowohl im Surface Net (Internet) als auch im Darknet ist die Notwendigkeit, Privatsphäre und Anonymität zu wahren, wichtiger denn je. Bei dem Versuch, die Unauffindbarkeit und Unauffindbarkeit zwischen Entitäten als Teil des Kommunikationsprozesses sicherzustellen, haben sich herkömmliche Vertraulichkeitsmechanismen als unzureichend erwiesen, um Angriffen gegen diese Prinzipien entgegenzuwirken. Darüber hinaus werden unterschiedliche internationale Gesetze und kontinentalübergreifende Cyberkriminalität immun gegen eine globale öffentliche Richtlinie zur Behandlung des Datenverkehrs. In diesem Artikel wird ein ganzheitlicher Blick auf Ansätze und Techniken zur Erhaltung der Anonymität gegeben, wobei der Schwerpunkt auf der teilweisen Formulierung eines neuartigen Modells zur Erhaltung der Anonymität basierend auf Infrastrukturelementen, Schaltungsattributen und kontradiktorischen Engagement-Raten in geclusterten und nicht indizierten Teilen des Cyberspace liegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-51064-4_30 fd6df560062d98f18fbcb03b153a422a;de;;;5.1.;;;Atvis: Ein neues Verkehrsvisualisierungssystem In diesem Kapitel wird Atvis vorgestellt, ein System zur Visualisierung von Transitdaten. Atvis ist in der Lage, Busrouten- und Verkehrsinformationen auf abstrakter Ebene darzustellen. Im Vergleich zum traditionellen kartenbasierten geografischen Informationssystem konzentriert sich Atvis mehr auf Fahrgastzahlen, die Visualisierung von Verkehrsdaten an oder zwischen Haltestellen und Zwischenstopp-Beziehungen, wobei Informationen, die für einen Benutzer möglicherweise nicht wichtig sind, nicht berücksichtigt werden. Dieses Kapitel beschreibt das Design und die Implementierung des Atvis-Visualisierungssystems und diskutiert, wie es zur Beobachtung von Verkehrsmustern verwendet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22786-3_9 80d82ff036d57a2b0be4ddf7fdc492b9;de;;;5.1.;;;Gestenklassifizierung und -erkennung mittels Hauptkomponentenanalyse und HMM In diesem Artikel beschreiben wir die Methode, mit der Gestenmodelle automatisch erstellt und diese Gesten mithilfe von 2D-Funktionen erkannt werden können, die aus Gestenbildsequenzen extrahiert wurden. Bei den herkömmlichen Gestenerkennungsalgorithmen werden bisher wohlbekannte Muster durch die Hand oder den Modellindexierungsalgorithmus eingeführt. Unser Verfahren stellt jedoch automatisch den Modellraum zusammen, indem beliebige Eingabebildsequenzen geclustert werden. Die Modelle werden mittels Wahrscheinlichkeitsberechnung von HMM als Geste erkannt. Unsere Methode kann die Modelle schnell und robust zusammensetzen und ist leicht an neuen Bildsequenzen zu erlernen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45453-5_97 8d68a60cacfed985e7d8938bf68c70f8;de;;;5.1.;;;Zur Verletzlichkeit und Allgemeingültigkeit von Mit der Entwicklung von persönlichen Kommunikationsgeräten wurden standortbasierte Dienste weit verbreitet verwendet. Das Risiko des Verlusts von Standortinformationen ist jedoch ein grundlegendes Problem, das den Erfolg dieser Anwendungen verhindert. In letzter Zeit wurden einige standortbasierte Datenschutzsysteme vorgeschlagen, darunter;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-60290-1_28 2e07e305a1cfbf25d73e23ce28f05445;de;;;5.1.;;;Ein konsensbasierter verteilter Primal-Dual Perturbed Subgradient Algorithmus für DC OPF In diesem Beitrag wird ein konsensbasierter verteilter primal-dual gestörter Subgradienten-Algorithmus für das DC Optimal Power Flow (OPF)-Problem vorgeschlagen. Der Algorithmus basiert auf einer zweischichtigen Multi-Agenten-Struktur, bei der jeder Generatorbus und Lastbus im Stromnetz als Busagent betrachtet wird und sich über einen Netzagenten mit dem Netz verbindet. Insbesondere verwenden Netzwerkagenten das Durchschnittskonsensusverfahren, um die globalen Variablen zu schätzen, die für Busagenten notwendig sind, um ihre Erzeugung unter Verwendung eines lokalen primal-dual gestörten Subgradientenverfahrens zu aktualisieren. Der vorgeschlagene Ansatz ist vollständig verbreitet und realisiert den Datenschutz. Die Verwendung des primal-dual-Störungsverfahrens stellt die Konvergenz des Algorithmus sicher. Simulationsergebnisse demonstrieren die Wirksamkeit des vorgeschlagenen verteilten Algorithmus.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-6364-0_50 15d7f047fda68dae8ac15cd07b130e5d;de;;;5.1.;;;Ein neuartiger Multi-Ziel-Optimierungsalgorithmus für soziale Netzwerke In realen sozialen Netzwerken werden die Entscheidungen einzelner Akteure oft von mehreren Informationsquellen beeinflusst, deren relativer Einfluss von mehreren Faktoren abhängt, ähnlich wie bei vielen realen Netzwerken, wie der Verbreitung von Viren oder der Verbreitung des Rufs eines neuen Produkts durch eine bestimmte menschliche Bevölkerung. Bisherige Versuche, soziale Netzwerke zu modellieren, konzentrierten sich auf Single-Diffusion-Prozesse. Reale soziale Netzwerke sind jedoch normalerweise komplizierter, und der Versuch, sie mit Single-Diffusion-Prozessen zu modellieren, scheitert oft daran, Effekte höherer Ordnung zu erfassen, die in der realen Welt zu sehen sind. Multiple-Diffusion-Prozesse müssen nicht nur mehrere Informationsquellen berücksichtigen, sondern auch mehrere Arten von Informationsquellen, wobei sich jede der Informationsquellen potenziell widersprechen kann. Komplexe Berechnungen mit widersprüchlichen Informationsquellen müssen auf Heuristiken zurückgreifen, um die Ausführungszeit zu verkürzen. Diese Studie bietet einen multi-objektiven Optimierungsalgorithmus zur Lösung von Leistungsproblemen unter Verwendung eines kreativen und heuristischen Algorithmus. Die Ergebnisse liefern eine Motivation, den Algorithmus bei multiplen Diffusions- und Informationskonflikten sozialer Netzwerke einzusetzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-48319-0_3 18c9d1de73e578f44755e6b7fedcb59e;de;;;5.1.;;;Design und Implementierung eines Informationszugriffssystems für die Bildungsverwaltung basierend auf der Android-Plattform Um Lehrern und Schülern einen bequemeren Zugriff auf das Bildungsmanagement-Informationssystem (EMIS) zu ermöglichen, wird in diesem Papier ein Client basierend auf einer Android-Plattform entworfen und implementiert. Nach der Anmeldung kann diese Client-Software die Bildungsinformationen des Benutzers vom EMIS-Server mithilfe des HTTP-Auflösungsmechanismus abrufen, einschließlich grundlegender persönlicher Informationen, Schülerleistungen, Schülerkursverwaltung und Prüfungsanordnung usw. In der Entwicklungsphase wird regulärer Ausdruck angewendet, der eine effektive Entwicklungsmethode ist komplexe Daten zu analysieren. Die Testergebnisse zeigen, dass dieser Client sowohl hinsichtlich der Systemkompatibilität als auch der Terminalkompatibilität eine perfekte Leistung aufweist. Einerseits kann es die Größe und die Touch-Funktion verschiedener mobiler Endgeräte anpassen. Andererseits kann es aufgrund seines speziellen Designs der universellen Datenschnittstelle EMIS, die an verschiedenen Hochschulen und Universitäten eingesetzt wird, anpassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_315 993909f98cfd855dc1b1a8655e1ae9d0;de;;;5.1.;;;Eine Bitstream-Verlagerungstechnik zur Verbesserung der Flexibilität der teilweisen Neukonfiguration Das neueste kommerzielle Field Programmable Gate Array (FPGA) wie ein Virtex-6 kann eine partielle Rekonfiguration (PR) durchführen. PR kann die Rekonfigurierbarkeit von FPGA voll ausnutzen. Jedoch kann ein PR-Bitstrom (PRB), der durch einen autorisierten Entwurfsfluss erzeugt wird, nicht in andere teilweise rekonfigurierbare Regionen (PRRs) verschoben werden. Dies weist darauf hin, dass die Vorbereitung vieler PRBs erforderlich ist, um eine flexible teilweise Neukonfiguration durchzuführen. Dieses Papier stellt eine einheitliche Entwurfstechnik für PRRs vor, um ihre PRB zu verlagern. Darüber hinaus ermöglicht unsere Designtechnik die Implementierung großer Teilmodule durch Kombination benachbarter PRRs. Um versetzbar zu machen, beschränkt unsere Technik nur die Platzierung der rekonfigurierbaren Ressource und den Verbindungsweg. Daher kann unser Design nur mit Xilinx EDA-Tools erreicht werden. Durch die Verifizierung wird die korrekte Funktion der verlagerten PRBs bestätigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33078-0_11 92be0b6a1695ddea8183553e84ea2b79;de;;;5.1.;;;Algorithmus zur Berechnung der fraktalen Dimension der Internet-AS-Level-Topologie Ein kastenübergreifender Algorithmus zur Berechnung der fraktalen Dimension der Internettopologie auf AS-Ebene wurde eingeführt. Der Algorithmus wählt zuerst einige Knoten mit hohem Grad aus und legt sie in verschiedene Kästchen ein und verwendet dann den Knoten in jedem Kästchen als Seed, um das Netzwerk abzudecken. Der Zweck besteht darin, sicherzustellen, dass die Boxen zur Abdeckung des Netzwerks so gering wie möglich sind. Durch die Analyse einer großen Anzahl der tatsächlichen Messdaten der AS-Level-Topologie fanden wir den Zusammenhang zwischen der Anzahl der Knoten, die zuerst als Seeds ausgewählt wurden, und der Größe des Netzwerks. Die durch diesen Algorithmus erhaltene Anzahl der Boxen, die das Netzwerk abdecken, ist sehr nahe an der minimalen Anzahl von Boxen, die benötigt wird, um das gesamte Netzwerk abzudecken. Die Ergebnisse zeigen, dass der Algorithmus die nahezu optimalen Lösungen zur Abdeckung des Internet-Netzwerks auf AS-Ebene ohne eine erschöpfende Suche finden kann und somit effektiv Zeit für die Berechnung der fraktalen Dimension der Internet-Topologie auf AS-Ebene spart.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-0896-3_33 40081ee76917f6c299e14189f69c755d;de;;;5.1.;;;Trajektorien der Identitätserkundung mit quantitativen ethnografischen Techniken verfolgen: Eine Fallstudie Dieses Papier ist Teil eines 5-jährigen NSF CAREER-Projekts, das vergeben wurde, um projektive Reflexion (PR) als theoretischen und methodischen Rahmen zur Erleichterung des Lernens als Identitätserforschung in spielbasierten Umgebungen zu testen und zu verfeinern. 54 Gymnasiasten engagierten sich in;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-33232-7_7 d2ab8a947df10360bc56057a4e47ff89;de;;;5.1.;;;Auf dem Weg zum räumlichen Crowdsourcing in Fahrzeugnetzwerken mit mobilen Agenten In den letzten Jahren hat die Automobilindustrie dank der technologischen Fortschritte in diesen Bereichen, aber auch wegen der steigenden Nachfrage nach „vernetzten“ Anwendungen und Diensten, Interesse an der Ergänzung von Autos mit Computer- und Kommunikationsgeräten gezeigt. Obwohl Fahrzeugnetzwerke noch nicht vollständig entwickelt sind, könnten sie in naher Zukunft als Mittel verwendet werden, um eine Reihe interessanter Anwendungen und Dienste bereitzustellen, die den Austausch von Daten zwischen Fahrzeugen und anderen Datenquellen erfordern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-44066-8_10 7d008a480a2120c8c5ec5fd17587d06d;de;;;5.1.;;;Entwicklung einer Anwendung zum Zählen von Algen zur Unterstützung von Vegetationsuntersuchungen in Fischgründen In der Seetang- und Seeigelfischerei sind Fischereiuntersuchungen erforderlich, um die Freisetzungsorte für Seetang und junge Seeigel auszuwählen. Bei der Fischereiuntersuchung werden hauptsächlich Unterwasserbilder von im Wasser installierten Kameras verwendet. Unterwasserbilder werden verwendet, um Algeninformationen auszulesen und eine Algenverteilungskarte zu erstellen, die es ermöglicht, die Fischgründe zu verstehen. Dieser Prozess soll die Fischereierhebung vereinfachen und die Erhaltung und Nutzung der Fanggründe fördern. In diesem Artikel entwickeln wir eine Anwendung zum Zählen von Algen, die die Algenbedeckung anhand von Unterwasserbildern anhand von Benutzeranweisungen ableitet und aufzeichnet, um den Vermessungsprozess von Fischgründen zu vereinfachen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-81638-4_8 73b890237daf32148c59652cc730f8f3;de;;;5.1.;;;Empfehlungen in standortbasierten sozialen Netzwerken: eine Umfrage Jüngste Fortschritte bei Lokalisierungstechniken haben die sozialen Netzwerkdienste grundlegend verbessert, sodass Benutzer ihre Standorte und standortbezogene Inhalte, wie z. B. mit Geotags versehene Fotos und Notizen, teilen können. Wir bezeichnen diese sozialen Netzwerke als standortbasierte soziale Netzwerke (LBSNs). Standortdaten schließen die Lücke zwischen der physischen und der digitalen Welt und ermöglichen ein tieferes Verständnis der Vorlieben und des Verhaltens der Nutzer. Diese Hinzufügung umfangreicher Geodatensätze hat die Forschung zu neuartigen Empfehlungssystemen angeregt, die das Reisen und die sozialen Interaktionen der Benutzer erleichtern sollen. In diesem Artikel bieten wir einen systematischen Überblick über diese Forschung, fassen die Beiträge einzelner Bemühungen zusammen und untersuchen ihre Beziehungen. Wir diskutieren die neuen Eigenschaften und Herausforderungen, die der Standort für Empfehlungssysteme für LBSNs mit sich bringt. Wir präsentieren eine umfassende Umfrage, die 1) die verwendete Datenquelle, 2) die zur Erstellung einer Empfehlung verwendete Methodik und 3) das Ziel der Empfehlung analysiert. Wir schlagen drei Taxonomien vor, die die Empfehlungssysteme nach den oben aufgeführten Eigenschaften unterteilen. Zunächst kategorisieren wir die Empfehlungssysteme nach dem Ziel der Empfehlung, das Standorte, Benutzer, Aktivitäten oder soziale Medien umfassen kann. Zweitens kategorisieren wir die Empfehlungssysteme nach den verwendeten Methoden, einschließlich inhaltsbasierter, Linkanalyse-basierter und kollaborativer Filterung-basierter Methoden. Drittens kategorisieren wir die Systeme nach den verwendeten Datenquellen, einschließlich Benutzerprofilen, Online-Benutzerhistorien und Standorthistorien der Benutzer. Für jede Kategorie fassen wir die Ziele und Beiträge jedes Systems zusammen und heben den repräsentativen Forschungsaufwand hervor. Darüber hinaus bieten wir eine vergleichende Analyse der Empfehlungssysteme innerhalb jeder Kategorie. Schließlich diskutieren wir die verfügbaren Datensätze und die gängigen Methoden zur Bewertung der Leistung von Empfehlungssystemen. Abschließend weisen wir auf vielversprechende Forschungsthemen für zukünftige Arbeiten hin. Dieser Artikel präsentiert ein Panorama der Empfehlungssysteme in standortbasierten sozialen Netzwerken mit ausgewogener Tiefe und erleichtert die Erforschung dieses wichtigen Forschungsthemas.;-;-;-;https://link.springer.com/article/10.1007/s10707-014-0220-8 5cdb19c13dd6fd5eec4431b9964d0987;de;;;5.1.;;;Digitales Wasserzeichen für angereicherte Videostreams in Edge-Computing-Architekturen mit chaotischen Mischungen und physikalisch nicht klonbaren Funktionen Die Authentifizierung in fortschrittlichen Videoanwendungen ist eine anstehende Herausforderung, insbesondere in Szenarien, in denen Videostreams mit zusätzlichen Informationen von Sensoren und anderen ähnlichen Geräten angereichert werden. Herkömmliche Lösungen erfordern entfernte Geräte (wie Kameras), um private Schlüssel zu speichern, eine Situation, die sich als sehr riskant erwiesen hat. Andererseits verhindern Standard-Authentifizierungsmethoden, wie digitale Signaturen oder sichere Sitzungen, den Betrieb von Systemen in Echtzeit, da es sich um sehr rechenintensive Operationen handelt, die außerdem darauf ausgelegt sind, mit Informationsblöcken und nicht mit Streams zu arbeiten. Andere Lösungen erfordern darüber hinaus die Integration von Gateways oder Aggregation Points in Videoinfrastrukturen, was zu Engpässen führt und die dynamische Anpassung der Systeme an die Umgebungsbedingungen und den Lebenszyklus der Geräte erschwert. Daher gehen wir in diesem Papier dieses Problem an, indem wir ein Authentifizierungsverfahren basierend auf digitalem Wasserzeichen vorschlagen. In unserem Vorschlag sind Videoinfrastrukturen als Edge-Computing-Architekturen organisiert, bei denen angereicherte Videostreams durch Wasserzeichen geschützt sind und Geräte Funktionen dynamisch delegieren können. Diese neue Wasserzeichentechnologie basiert auf chaotischen Mischungen und geheimen Schlüsseln, die von Physical Unclonable Functions bereitgestellt werden. Um die Leistungsfähigkeit der vorgeschlagenen Lösung zu bewerten, wird auch eine experimentelle Validierung durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9609-4_9 c724beaf6697a8b4ebcd4456bc3741b6;de;;;5.1.;;;Modellierung und Analyse mehrerer Datenschichten in Assessments Geowissenschaftliche Informationen sind für die Bewertung nicht nur der Vorteilhaftigkeit von Mineralressourcen, sondern auch des geoökologischen Gefahrenpotenzials unerlässlich. Die Gesundheit eines Ökosystems hängt direkt mit seiner zugrunde liegenden Geologie zusammen. In jedem Einzugsgebiet sind die Konzentrationen von Metallen und anderen Elementen in Grund- und Oberflächenwasser, Sedimenten, Böden, Pflanzen, vielen Tieren und Menschen eng mit der geologischen „Landschaft“ des Gebiets verbunden. Umfassende und unverzerrte geowissenschaftliche Informationen sind daher von grundlegender Bedeutung, um aktuelle sowie vergangene und zukünftige Auswirkungen auf die Umwelt durch natürliche und/oder anthropogene Veränderungen effektiv abschätzen zu können.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0303-2_4 ff14e9cccadcef2f124f080513ccc0fb;de;;;5.1.;;;Untersuchung der Auswirkungen des Sybil-Angriffs auf die reine Ad-hoc-Bereitstellung von VANET Eine Art von Ad-hoc-Netzwerk, das zwischen sich bewegenden Fahrzeugen gebildet wird, die in die Funkreichweite eines anderen kommen, wird als Vehicular Ad-Hoc-Netzwerk (VANET) bezeichnet. VANET kann in drei Architekturen eingesetzt werden: rein ad hoc, WLAN und Hybrid. Vehicle to Vehicle (V2V) und Vehicle to Infrastructure (V2I) sind die beiden Modi in VANET, die für die Kommunikation zwischen Fahrzeugen verwendet werden. Diese Eigenschaften unterscheiden ein VANET nicht nur von anderen Ad-hoc-Netzwerken, sondern machen diese Netzwerke auch anfälliger für Angriffe und erhöhen ihre Komplexität. Da diese Netzwerke der Hauptmechanismus für die Kommunikation in VANETs sind, ist eine angemessene und rechtzeitige Bereitstellung von Informationen von größter Bedeutung. Aufgrund der Existenz verschiedener Fahrzeugverkehrsszenarien reicht eine einzige Kategorie von Routing-Protokollen für die VANETs nicht aus. Daher wurden verschiedene Kategorien von Routing-Protokollen zugeschnitten, um spezifische Arten von Routing-Anforderungen in diesem Rahmen zu erfüllen. Die wichtigsten sind ad-hoc/topologiebasierte, positionsbasierte, geocastbasierte, clusterbasierte, Broadcast-basierte Protokolle. Es gibt eine Reihe von Angriffen, die neben verschiedenen anderen Parametern auch Auswirkungen auf die Routing-Protokolle dieser VANETs haben. Die meisten dieser Angriffe können in allen oben genannten drei Architekturen gestartet werden. Einer der gefährlichsten Angriffe ist jedoch der Sybil-Angriff, der bei einem reinen Ad-hoc-Einsatz von VANET eingeleitet werden kann, bei dem Fahrzeuge eins zu eins unter Verwendung des Carry-Forward-Ansatzes miteinander kommunizieren. In diesem Artikel zeigen wir mit Hilfe von veranschaulichenden Beispielen für jede der fünf Kategorien von Routing-Protokollen, wie sich der Sybil-Angriff auf diese Protokolle auswirkt. In Anbetracht der Ad-hoc-Szenarien in VANETs diskutieren wir auch kurz einen Präventionsmechanismus für den Sybil-Angriff.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29407-6_26 1e6c20008fdb644c3a9e413b293b28d3;de;;;5.1.;;;Ein Blockchain-basiertes Schema für eine authentische Telefonidentität Die authentifizierte Telefonidentität ist eine wesentliche Voraussetzung, um Spoofing-Angriffe in VoIP-Systemen zu verhindern. Das Framework STIR/SHAKEN bietet ein standardisiertes Verfahren zur Sicherstellung der Authentizität der Rufnummer auf Basis von PKI. Leider wird es aufgrund seiner inhärenten Schwächen, wie dem Vertrauensproblem zwischen mehreren Zertifizierungsstellen, nicht weit verbreitet. In diesem Papier stellen wir ein neuartiges Schema vor, das für VoIP-Systeme verwendet wird, um die Telefonidentität basierend auf der Blockchain-Technologie zu validieren. Der wesentliche Vorteil des vorgeschlagenen Schemas besteht darin, dass diese im Framework STIR/SHAKEN dargestellten Schwächen abgemildert werden, da die Zertifikate aller Benutzer in der vertrauenswürdigen und unveränderlichen Blockchain aufgezeichnet werden. Darüber hinaus kann ein Ende-zu-Ende-Vertrauen bezüglich der anrufenden Identität erreicht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9213-3_52 aa5d0097de8e377507a0a1c3d9afe767;de;;;5.1.;;;Integration von Big Data: Eine Umfrage Die Datenintegration bietet Benutzern eine einheitliche Schnittstelle für mehrere heterogene Datenquellen. Dieses Problem hat sowohl in der Forschung als auch in der Industrie große Aufmerksamkeit auf sich gezogen. In diesem Beitrag geben wir einen Überblick über die aktuellen Ansätze der Datenintegration, die grob in fünf Teile gegliedert sind: Schemamatching, Entity Resolution, Data Fusion, Integration System und neu aufgetretene Probleme.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2203-7_9 a466ac42ad89134e527f7584d0c95c2c;de;;;5.1.;;;Verwendung von Diffusionsdistanzen für den flexiblen Vergleich der Molekülform Viele Moleküle sind flexibel und unterliegen als Teil ihrer Funktion einer erheblichen Formverformung, und dennoch behandeln die meisten existierenden molekularen Formvergleichsmethoden (MSC) sie als starre Körper, was zu einer falschen Formerkennung führen kann.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-11-480 c9933b23e9b73472c11c797a11e2871f;de;;;5.1.;;;Gesichertes Gesundheitsüberwachungssystem Das Healthcare IOT (Internet of Things) misst kontinuierlich die medizinischen Daten des Patienten und speichert diese in der Datenbank, sodass die medizinischen Daten für die Nutzer jederzeit einsehbar sind. Da die medizinischen Daten des Patienten sensibel sind, müssen sie gesichert werden. Daher wird das gesicherte Gesundheitsüberwachungssystem benötigt, um die Krankenakten zu verschlüsseln, und es kann von den autorisierten Benutzern sicher darauf zugegriffen werden. Die medizinischen Daten der Patienten werden aus dem Gesundheitswesen IOT gesammelt und diese Daten können zu Krankenakten zusammengefasst werden. Diese Dateien werden in der Datenbank gespeichert und dann sicher an die autorisierten Benutzer weitergegeben. Um die Privatsphäre der Patienten zu schützen, werden die medizinischen Akten der Patienten verschlüsselt, bevor die Dateien in der Datenbank gespeichert werden. Nur die autorisierten Benutzer können auf die medizinischen Daten des Patienten zugreifen. Das Lightweight Break-Glass Access Control (LiBAC)-System unterstützt zwei verschiedene Möglichkeiten zum Abrufen verschlüsselter medizinischer Akten, darunter den attributbasierten Zugriff und den Break-Glass-Zugriff. Unter normalen Umständen ermöglicht der attributbasierte Zugriffsmechanismus dem Datenbenutzer, die medizinischen Details des Patienten nur dann zu entschlüsseln, wenn sein Attributsatz mit der Zugriffsrichtlinie der medizinischen Akte übereinstimmt. In Notfallsituationen ignoriert der Break-Glass-Zugangsmechanismus die normale Zugangsrichtlinie der Krankenakte, ermöglicht jedoch den rechtzeitigen Zugriff auf die Krankenakte durch die Notfallkontaktperson (ECP), um das Leben des Patienten zu retten. Das LiBAC-System ist leichtgewichtig, da die Verarbeitungsgeschwindigkeit beim Speichern und Abrufen der Krankenakten sehr schnell ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8221-9_152 78522f8e6ad8bbc05762b8ad13887f88;de;;;5.1.;;;Aktivitätserkennung und -vorhersage in realen Häusern In diesem Papier stellen wir laufende Arbeiten zur Aktivitätserkennung und -vorhersage in realen Häusern vor, die entweder binäre Sensordaten oder Tiefenvideodaten verwenden. Wir stellen unseren Feldversuch und den Aufbau zum Sammeln und Speichern der Daten, unsere Methoden und unsere aktuellen Ergebnisse vor. Wir vergleichen die Genauigkeit der Vorhersage des nächsten binären Sensorereignisses mit probabilistischen Methoden und Long Short-Term Memory (LSTM)-Netzwerken, beziehen die Zeitinformationen ein, um die Vorhersagegenauigkeit zu verbessern, und sagen sowohl das nächste Sensorereignis als auch seinen Zeitpunkt des Auftretens mit einem voraus LSTM-Modell. Wir untersuchen Transferlernen zwischen Wohnungen und zeigen, dass es möglich ist, das Modell mit Daten aus anderen Wohnungen vorzutrainieren und in einer neuen Wohnung gleich eine gute Genauigkeit zu erreichen. Darüber hinaus präsentieren wir vorläufige Ergebnisse der Aktivitätserkennung anhand von Videodaten mit niedriger Auflösung aus sieben Wohnungen und klassifizieren vier Aktivitäten – keine Bewegung, Aufstehen, Sitzen und TV-Interaktion – indem wir eine relativ einfache Verarbeitungsmethode anwenden, bei der wir eine unendliche Impulse Response (IIR)-Filter zum Extrahieren von Bewegungen aus den Frames, bevor sie für die Klassifikation an ein Faltungs-LSTM-Netzwerk eingespeist werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-35664-4_2 ecdf140ed375fb4674534344b88ab01b;de;;;5.1.;;;Anfallsklassifikation im epileptischen EEG mit IMF-Entropie und Support Vector Machine Forscher haben verschiedene Methoden entwickelt, um Hirnanomalien anhand von EEG-Signalen zu erkennen. Eine der Erkrankungen oder Störungen des Gehirns sind Anfälle bei Epilepsie. EEG-Signale unter Anfallszuständen zeigen ein anderes Muster als EEG-Signale unter normalen Bedingungen. Die Forscher analysierten das EEG-Signal mit einer Vielzahl von beobachteten Ansätzen. Ein Phänomen, das zur Analyse von EEG-Signalen verwendet wird, ist die Signalkomplexität. Die Signalkomplexität erfasst fluktuierende Muster von EEG-Signalen und quantisiert sie, um normale und Anfallssignalzustände zu unterscheiden. In dieser Studie schlagen wir die geeignete Methode zur Merkmalsextraktion basierend auf der grundlegenden Charakteristik des Signals vor. Wir extrahieren die Informationen des EEG-Signals mittels Entropieberechnung aus der intrinsischen Modenfunktion (IMF-Entropie). Unser Hauptziel ist es, normale und Anfalls-EEG-Signale zu unterscheiden. Die Entropie wird aus der IMF berechnet, die aus der empirischen Moduszerlegung (EMD) resultiert, dann die Entropie aus der relativen Energie jeder IMF. Um die Leistungsfähigkeit des vorgeschlagenen Merkmalsextraktionsverfahrens zu testen, wird die Support Vector Machine (SVM) als Klassifikator verwendet. Die höchste Genauigkeit liegt bei 86,3 %, die Sensitivität bei 86,33 % und die Spezifität bei 93,17 % für drei Datenklassen: normal, interiktal und Krampfanfall. Die vorgeschlagene Methode hat das Potenzial, ihre Leistung zu verbessern, wenn man bedenkt, dass noch viele Variationen von EMD-Methoden und Zerlegungsstufen evaluiert werden können. Darüber hinaus ist es für die zukünftige Forschung interessant, an umfangreicheren Datensätzen zu testen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6926-9_33 b11e15d47b0da5cd4c8e9e730c763120;de;;;5.1.;;;Hope: Heatmap und Offset zur Posenschätzung Die Fortschritte bei der Schätzung der menschlichen Pose durch tiefe neuronale Netze wurden in den letzten Jahren erheblich vorangetrieben. Jedoch wurde das Problem des Präzisionsverlustes, der durch die Vorhersage der Koordinaten zurück zum Originalbild verursacht wird, vernachlässigt. In diesem Papier schlagen wir eine einfache, aber effektive Methode vor, die Heatmap und Offset for Pose Estimation (HOPE) verwendet. Um das Problem der Schätzung der menschlichen Haltung zu lösen, wird in HOPE zunächst ein allgemeines Top-Down-Verfahren verwendet, um die menschliche Erfassungsbox basierend auf einem Detektor zu erzeugen, und dann werden die Schlüsselpunkte in jedem zugeschnittenen Boxbild lokalisiert. Um den Präzisionsverlust des Mapping-Prozesses zu mindern, bettet HOPE den Koordinaten-Offset in die Struktur des neuronalen Netzes ein, so dass das Netzwerk den leichten Offset im Mapping-Prozess auf End-to-End-Weise selbst lernen kann, was die Genauigkeit verbessert das aktuelle Gebiet der Posenschätzung. Experimentelle Ergebnisse zum Datensatz MSCOCO für die Pose-Schätzung für mehrere Personen, den MPII-Datensatz für die Pose-Schätzung für eine Person und den Datensatz zur CrowdPose-Pose-Schätzung zeigen, dass unsere Methode in Bezug auf Genauigkeit und Rechenkomplexität auf dem neuesten Stand der Technik ist.;-;-;-;https://link.springer.com/article/10.1007/s12652-021-03124-w 98bfa182acd2df7be83f54634b660dbc;de;;;5.1.;;;Extrahieren von Verhaltensmustern aus einem Verhandlungsspiel Die vorgestellten Arbeiten konzentrieren sich nicht nur auf die Verhaltensmuster, die das Verhandlungsergebnis beeinflussen, sondern auch auf die Entdeckung von Möglichkeiten, die Art des Konflikts im Prozess und das Stressniveau der Akteure vorherzusagen. Nach dem Aufbau einer experimentellen intelligenten Umgebung, die mit Sensoren ausgestattet war, um Verhaltens- und Kontextinformationen zu erfassen, wurde eine Reihe relevanter Daten gesammelt und analysiert, mit dem zugrunde liegenden Ziel, die Verhaltensmuster (erhalten durch statistische/probabilistische Methoden) als Grundlage für das Design und die den assoziierten Teilnehmern Pläne und Vorschläge vorlegen. So können diese Vorschläge den Verlauf und das Ergebnis einer Verhandlungsaufgabe in vielerlei Hinsicht positiv beeinflussen. Diese Arbeit unterstreicht die Bedeutung von Wissen in Verhandlungen, wie auch in anderen sozialen Formen der Interaktion, und bietet auch einige neue Erkenntnisse für eine informierte Entscheidungsunterstützung in Situationen, in denen Unsicherheit und Konflikte vorhanden sein können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38061-7_29 e240e546921c86a6243e901980332fbe;de;;;5.1.;;;Kreditrisikobewertung basierend auf dem Modell des langen Kurzzeitgedächtnisses Gegenwärtig, mit der ständigen Expansion des chinesischen Kreditmarktes, wurden große Mengen an P2P-Plattformen (Person-to-Person-Krediten oder Geldleihen in Internet Finance) geboren und entwickelt. Die meisten P2P-Plattformen in China führen die Kreditrisikobewertung von Kreditantragstellern durch Data-Mining-Methoden durch. Als neues Data-Mining-Tool verfügt das künstliche neuronale Netz über eine bessere Klassifizierungsfähigkeit. Die Verbesserung der Risikobewertungsfähigkeiten des Antragstellers kann die Überfälligkeitsrate der Analyse effektiv reduzieren, daher wird in diesem Beitrag eine Art Kreditrisikobewertungsmodell basierend auf dem Long Short-Term Memory (LSTM)-Modell vorgestellt. Die Beispieldaten überfälliger und nicht überfälliger Kredite werden von Hengxin Investment Consulting Co., Ltd. in Jinan bereitgestellt, nach der das Modell aufgebaut ist. Nach der Erprobung wird dieses Modell mit höherer Genauigkeit auf den Aspekt der überfälligen Einstufung der Bonitätsbewertung angewendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-63312-1_62 e4ab5938560dcb80792c89e0a4a8dfa4;de;;;5.1.;;;Umgebungskommunikation und kontextbezogenes Präsenzmanagement Ambient Communication passt die zwischenmenschliche Fernkommunikation an die Aktivitäten der Nutzer an und unterstützt Interaktionen, die der Face-to-Face-Kommunikation möglichst nahe kommen. Elemente des Benutzers, der physischen Umgebung und des Systemkontexts werden berücksichtigt, um die Anpassung des Kommunikationsaufbaus zu unterstützen und eine implizite und intuitive Interaktion mit dem System zu ermöglichen. Benutzeranwesenheit und -verfügbarkeit sind zwei der Schlüsselelemente von Kontextinformationen, die von Umgebungskommunikationssystemen verwendet werden. In diesem Whitepaper diskutieren wir unseren Ansatz für kontextbezogenes Benutzerpräsenzmanagement und beschreiben eine Implementierung eines Präsenzmanagementdienstes. Diese Software nutzt Middleware und Dienste, die vom Amigo-Projekt entwickelt wurden, um die Benutzerpräsenz und -verfügbarkeit in Bezug auf Kommunikationsanwendungen abzuschätzen. Wir zeigen auch ein Beispiel für eine visuelle Kommunikationsanwendung, die in der Umgebung des Benutzers verteilte Schnittstellen verwendet, um räumliche Interaktionsfunktionen zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85379-4_44 2542da5ae9c24e433e2757c272aba411;de;;;5.1.;;;Eine informationstheoretische Maßnahme zur Ermöglichung von Kategoriebefreiungen mit einem Antrag auf Blasenfilter Filterblasen können unerwünschte Folgen für die Gesellschaft haben, indem sie die Empfehlungen der Benutzer auf diejenigen beschränken, die bereits ihren eigenen Überzeugungen entsprechen, anstatt einer Vielfalt von Meinungen. In dieser Arbeit betrachten wir das Problem, Benutzern die Wahl zu ermöglichen, in welchen Filterblasen sie sich befinden und welche sie eliminieren möchten. Wir schlagen eine Methode zur Eliminierung von Filterblasen in benutzerselektierten Themen vor, indem sie in Bezug auf ein bestimmtes Attribut, z. B. politische Neigung, unvoreingenommen werden, während Bias in den verbleibenden Themen/Kategorien ausgenommen werden. Wir weisen darauf hin, dass der Versuch, alle Empfehlungen ohne Vorkehrungen für Ausnahmen voreingenommen zu machen, sehr restriktiv sein kann. Ein Nutzer könnte beispielsweise in ein bestimmtes Thema investiert sein, beispielsweise in den Klimawandel, und möchte in einer Filterblase sein, die ihn motiviert. Bei anderen Themen möchte der Benutzer jedoch möglicherweise Filterblasen vermeiden und von allen Seiten der Debatte lernen. Wir schlagen zunächst eine Reihe wünschenswerter Eigenschaften vor, um Verzerrungen in Empfehlungen mit Themenausnahmen zu quantifizieren, und gelangen dann zu einem einfachen informationstheoretischen Maß – Value-based Conditional Mutual Information (VCMI) – das unsere vorgeschlagenen wünschenswerten Eigenschaften erfüllt. Als nächstes zeigen wir auch, wie man dieses Maß in der Praxis verwenden kann, um Modelle zu trainieren, die Verzerrungen in Empfehlungen eliminieren und gleichzeitig bestimmte Verzerrungen basierend auf bevorzugten Themen/Kategorien ausschließen. Wir betrachten zwei Datensätze: (i) einen vollständig synthetischen Datensatz und (ii) einen Datensatz, den wir auf Grundlage des öffentlich zugänglichen Datensatzes zum Nutzerverhalten bei Twitter News Sharing erstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-78818-6_11 135e3df85845cfd325eb6fbbe8f3e694;de;;;5.1.;;;Informationstechnologie und sinnstiftender Transfer - Led Explore Teaching Concepts Um sowohl beim Lernen als auch beim Lehren erfolgreich zu sein und die Vorteile sowohl des „Pass-Accept“-Typs als auch des „Self-Explore“-Stils zu nutzen, wurden die neuen Lehrkonzepte „sinnvolles Transfer-geführtes Erkunden“ vorgeschlagen. Noch wichtiger ist, dass die Integration der Informationstechnologie in die neuen Lehrkonzepte die komplementären Stärken wirklich steigern kann. Fortschrittliche Informationstechnologie bereichert nicht nur die Lehrmedien, insbesondere spielt die Optimierung der Unterrichtsgestaltung eine entscheidende Rolle. Der Beitrag analysiert auch die Rolle der Informationstechnologie bei der Prozessbewertung, die durch das neue Lehrkonzept und individualisierten Unterricht initiiert wird. Neue Lehrkonzepte unter Anwendung von Informationstechnologien können effektiv sein und die Lehreffektivität erhöhen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21802-6_45 c6f5e89adc5ba4bc6166aab9217949f0;de;;;5.1.;;;CO2-armes Architekturdesign und Datenanalyse auf Basis von BIM Durch eine Analyse der Entwurfsinhalte verschiedener Architekturdisziplinen unter den Anforderungen einer nachhaltigen und kohlenstoffarmen Entwicklung analysiert diese Studie den kohlenstoffarmen Architekturentwurfsprozess und die Zusammensetzung relevanter Informationen aus den verschiedenen Disziplinen mittels eines Building Information Modeling (BIM). System. Auf Basis von BIM haben wir eine CO2-Budgetierungsplattform aufgebaut, die den gesamten Gebäudelebenszyklus erfasst, und Bewertungskriterien für die quantitative Analyse kohlenstoffarmer Gebäude festgelegt. Vor dem Hintergrund der obigen Forschungen kann mit BIM eine Bewertung und Optimierung von kohlenstoffarmen Gebäudekonzepten sowie die anschließende Reduzierung der CO2-Emissionen während des Lebenszyklus von neu errichteten Gebäuden erreicht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-6370-1_39 099bf7097b2fd9073c0e6d02b8403417;de;;;5.1.;;;Region Growing: Wenn Einfachheit auf Theorie trifft – Region Growing im Feature-Space und Variations-Framework erneut untersucht Region Growing ist eine der intuitivsten Techniken zur Bildsegmentierung. Ausgehend von einem oder mehreren Seeds versucht es, sinnvolle Objekte zu extrahieren, indem es die umgebenden Pixel iterativ aggregiert. Ausgehend von dieser einfachen Beschreibung schlagen wir vor, zu zeigen, wie die Anbautechnik in Regionen mit neueren und ausgefeilteren Methoden gleichgestellt werden kann. Zur Beschreibung des Prozesses werden zwei Formalismen vorgestellt. Die erste, die aus nicht-parametrischer Schätzung abgeleitet wird, beruht auf Merkmalsraum- und Kernelfunktionen. Der zweite stammt aus einem Variationsrahmen, der die Regionsentwicklung als einen Prozess beschreibt, der ein Energiefunktional minimiert. Es beweist damit die Konvergenz des Prozesses und nutzt die enorme Menge an Arbeit, die bereits an Energiefunktionalen geleistet wurde. Im letzten Teil veranschaulichen wir das Interesse beider Formalismen im Kontext von Life Imaging. Es werden drei Segmentierungsanwendungen mit verschiedenen Modalitäten in Betracht gezogen, wie z. B. Ganzkörper-PET-Bildgebung, Kleintier;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38241-3_29 7b95ff04c8a42ec77fc69a88380406ca;de;;;5.1.;;;Überprüfung der Islanding-Erkennung mit Intelligence Classifier im Verteilungsnetzwerk Die Inseling-Erkennungsmethode ist der wichtigste Aspekt im Verteilungsnetz. Im Allgemeinen kann es in Remote-, Passiv-, Aktiv- und Hybridmethoden eingeteilt werden. Von all diesen Verfahren neigt die Inselbildung vorzugsweise zu der passiven Methode, da sie billiger ist und in der Lage ist, eine Netzqualität des Systems aufrechtzuerhalten. Es gibt wenige Nachteile von passiven Techniken, wie beispielsweise eine hohe Nicht-Erfassungszone und ihre erforderliche Anfangseinstellung. Um den Nachteil und die Einschränkung zu überwinden, werden verschiedene Signalverarbeitungs- und intelligente Techniken eingeführt. Intelligente Klassifikatortechniken sind speziell geeignet, um Probleme wie Erkennungsgenauigkeit, Erkennungsgeschwindigkeit und Kompatibilität bei der Erkennung von Inselbildung in hybriden verteilten Energieressourcen zu lösen. Dieses Papier bietet eine allgemeine Zusammenfassung der herkömmlichen Inselbildungs-Erkennungsmethoden und konzentriert sich auf die Inselbildungs-Erkennung mit Intelligenzklassifizierungsmethoden. Der Intelligenzklassifizierer wird die Fähigkeit üblicher passiver Inselbildungsverfahren erhöhen und somit die Signalverarbeitungstechniken verbessern. Ein Vergleich zwischen den Intelligenzklassifiziererverfahren mit bestehenden Techniken wird ebenfalls bereitgestellt. Zusammenfassend fasst dieses Papier die Vor- und Nachteile der Intelligenzklassifikatortechniken zusammen, um Forschern oder Energieingenieuren erste Strategien zur Auswahl der besten Option für ihr System bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0749-3_25 b50d73555ae5ac98da33adfc1c6ee8a8;de;;;5.1.;;;Ein effizienter mengenbasierter Algorithmus für das Clustering von variablem Streaming In diesem Papier wird ein neuer Algorithmus für das Data Streaming Clustering vorgeschlagen, nämlich der SetClust-Algorithmus. Das Clustering-Modell von Data Streaming konzentriert sich auf das Clustern der Daten, während sie ankommen, was in vielen praktischen Anwendungen nützlich ist. Der vorgeschlagene Algorithmus ist im Gegensatz zu anderen Streaming-Clustering-Algorithmen so konzipiert, dass er Fälle behandelt, in denen keine a-priori-Informationen über die Anzahl der zu bildenden Cluster verfügbar sind, mit dem zweiten Ziel, die beste Anzahl von Clustern zu ermitteln, die zur Darstellung der Punkte benötigt werden. Der SetClust-Algorithmus basiert auf Strukturen für disjunkte Mengenoperationen, wodurch das Konzept eines Clusters die Vereinigung mehrerer wohlgeformter Mengen ist, damit der Algorithmus auch in hochdimensionalen Punkten nicht-sphärische Muster erkennen kann. Dies ergibt eine quadratische Laufzeit über die Anzahl der gebildeten Mengen. Der Algorithmus selbst kann als effiziente Datenstruktur für das Streaming-Clustering interpretiert werden. Die Ergebnisse der Experimente zeigen, dass der vorgeschlagene Algorithmus sehr gut geeignet ist, um die Qualität von Clustern auf gut gespreizten Datenpunkten zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-46140-9_9 878fcf55885866ad035fe3be71f35086;de;;;5.1.;;;Evaluierung des sektorbasierten Routing-Ansatzes in mobilen Ad-hoc-Netzwerken Infrastruktur- und Ad-hoc-Netzwerkarchitekturen sind die beiden Hauptarchitekturen, die drahtlose Netzwerke verwenden können. Im Gegensatz zu einer Infrastrukturarchitektur, die die zentrale Basisstation verwendet, ist das mobile Ad-hoc-Netzwerk (MANET) eine infrastrukturlose Architektur, die ohne zentrale Steuerung verbunden werden kann. In MANET kann ein mobiles Gerät mit einem anderen Gerät innerhalb des entsprechenden Funkbereichs, der typischerweise 30 MHz bis 5 GHz beträgt, verbunden werden. Daher wird MANET als selbstorganisierendes Netzwerk betrachtet, in dem jeder Knoten als Teilnehmer und Router fungiert. Sektorbasiertes Routing ist eine Methode in MANET, mit der die Positionen jedes Knotens in einer Netzwerktopologie getrennt werden können. Außerdem kann unter den Knoten in jedem Sektor ein spezieller Knoten namens Serverknoten zugewiesen werden. Der Serverknoten ist dafür verantwortlich, die Pfadressourcen zu reservieren und die Informationen für seine zugehörigen Knoten und Verbindungen zu pflegen. Die Leistung des sektorbasierten Routings hängt von der Anzahl der im Sektor verfügbaren Knoten ab. Darüber hinaus kann der Routing-Ansatz im sektorbasierten MANET in verschiedenen Szenarien unter Verwendung von Serverknoten berücksichtigt werden. Unsere Forschung in diesem Papier besteht darin, die Effizienz des sektorbasierten Routings in MANET unter Berücksichtigung mehrerer Szenarien zu bewerten. Darüber hinaus adressieren wir die Variation der Leistung, während sich die Anzahl der Knoten ändert, mit verschiedenen Routing-Methoden im sektorbasierten MANET. In diesem Beitrag untersuchen wir die detaillierten Simulationsexperimente an einer unterschiedlichen Anzahl von Knoten und verschiedenen Szenarien des sektorbasierten Routings in MANET. Unsere Ergebnisse sind wie folgt. (1) Die durchschnittliche Kollisionsrate ist beim sektorbasierten Routing im Vergleich zu MANET deutlich niedriger. (2) Die Ressourceneffizienz beim sektorbasierten Routing ist deutlich höher. (3) Anders als bei einer kleinen Anzahl von Knoten kann die höhere Anzahl von Verbindungen bei einer großen Anzahl von in einem Sektor verteilten Knoten zugelassen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4692-1_43 0eef79ab597f35c96a8229b601188a86;de;;;5.1.;;;GNSS-5G Hybrid-Positionierung basierend auf TOA/AOA-Messungen Das globale Navigationssatellitensystem (GNSS) ist im Leben der Menschen weit verbreitet. Im Allgemeinen leiden GNSS-Signale in urbanen Canyon-Umgebungen unter einer starken Dämpfung. Die drahtlosen Systeme der 5. Generation (5G) und die hybride GNSS-Positionierungstechnik sind eine vielversprechende Ortungstechnik, da 5G-Basisstationen GNSS helfen können, das Problem des Mangels an sichtbaren Satelliten in städtischen Umgebungen zu lösen. Die 5G-GNSS-Hybridpositionierung steht jedoch vor dem Problem der Zeitsynchronisation. Die herkömmlichen Methoden, die auf der Ankunftszeit (TOA) oder der Zeitdifferenz der Ankunft (TDOA) basieren, erfordern, dass die Zeitsynchronisationsgenauigkeit zwischen zwei Basisstationen mindestens 30 Nanosekunden betragen sollte, um sicherzustellen, dass der Reichweitenfehler unter 10 m liegt, d in realen Anwendungen schwer zu erreichen. Diese Arbeit schlägt ein hybrides 5G-GNSS-Positionierungsschema vor, das auf AOA-TOA-Messungen basiert. Wir kombinieren die Schätzungen des Ankunftswinkels (AOA) von 5G-Basisstationen und TOA-Messungen von GNSS-Satelliten, um eine hybride Lokalisierung durchzuführen. Dann wird eine gleitende Mittelwertbildung an den Rohpositionsschätzungen durchgeführt, um den Rauscheffekt weiter zu reduzieren. Das Prinzip des vorgeschlagenen Algorithmus wird ausführlich erläutert. Numerische Ergebnisse zeigen, dass das vorgeschlagene Verfahren frei vom Einfluss des Zeitsynchronisationsfehlers sein kann und somit die Genauigkeit und Robustheit von Hybridpositionierungssystemen im Vergleich zu herkömmlichen Verfahren verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3715-8_47 bf60894f6470ca798d1c07abe66b718d;de;;;5.1.;;;Integrierte Bereitstellung von Cloud-Anwendungen: Verbindung von service- und skriptzentrierten Managementtechnologien Moderne Cloud-Anwendungen verwenden eine Vielzahl von Komponenten und XaaS-Angeboten, die während der Bereitstellung konfiguriert werden müssen. Durch die zunehmende Heterogenität wächst die Komplexität und bestehende Ansätze stoßen an ihre Grenzen, wenn mehrere unterschiedliche Bereitstellungs- und Konfigurationstechnologien involviert sind. Sie sind nicht in der Lage, sie automatisiert, flexibel und anpassbar zu integrieren. Insbesondere die Kombination proprietärer Management-Services mit skriptzentrierten Konfigurationsmanagement-Technologien ist derzeit eine große Herausforderung. Um die automatisierte Bereitstellung solcher Anwendungen zu ermöglichen, führen wir Generic Lifecycle Management Planlets ein, die eine Möglichkeit bieten, benutzerdefinierte Bereitstellungslogik mit allgemeinen Bereitstellungsaufgaben zu kombinieren. Wir haben Planlets für die Bereitstellung und Anpassung von Komponenten und XaaS-Angeboten basierend auf SOAP- und RESTful-Webservices sowie Konfigurationsmanagementtechnologien wie Chef implementiert, um die Machbarkeit des Ansatzes zu demonstrieren. Durch unseren Ansatz können mehrere Technologien nahtlos kombiniert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41030-7_9 c5a943684cd7884deecd1668e6a32445;de;;;5.1.;;;Fuzzing: eine Umfrage Sicherheitslücken sind eine der Hauptursachen für Cyber-Sicherheitsbedrohungen. Um Schwachstellen zu entdecken und im Voraus zu beheben, haben Forscher verschiedene Techniken vorgeschlagen, von denen Fuzzing die am weitesten verbreitete ist. In den letzten Jahren haben Fuzzing-Lösungen wie AFL große Verbesserungen bei der Erkennung von Schwachstellen erzielt. Dieses Papier präsentiert eine Zusammenfassung der jüngsten Fortschritte, analysiert, wie sie den Fuzzing-Prozess verbessern, und beleuchtet die zukünftige Arbeit im Fuzzing. Zunächst diskutieren wir den Grund, warum Fuzzing so beliebt ist, indem wir verschiedene gängige Techniken zur Erkennung von Schwachstellen vergleichen. Anschließend präsentieren wir einen Überblick über Fuzzing-Lösungen und diskutieren im Detail eine der beliebtesten Arten des Fuzzings, nämlich das Coverage-based Fuzzing. Dann stellen wir andere Techniken vor, die den Fuzzing-Prozess intelligenter und effizienter machen könnten. Schließlich zeigen wir einige Anwendungen des Fuzzings und diskutieren neue Trends des Fuzzings und mögliche zukünftige Richtungen.;-;-;-;https://link.springer.com/article/10.1186/s42400-018-0002-y 523a07fc41ed3dac4048cba9cc41403c;de;;;5.1.;;;Ein Verfahren zur Gruppenentscheidung mit intervallbewerteten intuitionistischen linguistischen Fuzzy-Präferenzbeziehungen Um die unsicheren bevorzugten und nicht bevorzugten qualitativen Urteile von Entscheidungsträgern auszudrücken, werden intervallbewertete intuitionistische linguistische Fuzzy-Sets (IVILFSs) ähnlich wie die intervallbewerteten intuitionistischen Fuzzy-Sets von Atanassov und Gargov vorgeschlagen. Unter Berücksichtigung der Anwendung von IVILFSs wird das Konzept der intervallbewerteten intuitionistischen linguistischen Fuzzy-Variablen (IVILFVs) definiert und eine Rangordnung angeboten. Dann führen wir intervallbewertete intuitionistische linguistische Fuzzy-Präferenzbeziehungen (IVILFPRs) ein, deren Elemente IVILFVs sind. Weiterhin wird ein additives Konsistenzkonzept vorgestellt und ein Modell zur Beurteilung der Konsistenz von IVILFPRs erstellt. Inzwischen werden Optimierungsmodelle zur Ableitung additiv konsistenter IVILFPRs bzw. zur Bestimmung fehlender linguistischer Variablen in unvollständigen IVILFPRs konstruiert. Für die Gruppenentscheidung werden Optimierungsmodelle zur Bestimmung der Gewichte der Entscheidungsträger bzw. zur Verbesserung des Konsensniveaus erstellt. Es wird ein Verfahren zur Gruppenentscheidung mit IVILFPRs entwickelt, das mit inkonsistenten und unvollständigen IVILFPRs umgehen kann. Schließlich wird ein praktisches Gruppenentscheidungsproblem zur Bewertung von Expressunternehmen ausgewählt, um die Anwendung der neuen Ergebnisse aufzuzeigen.;-;-;-;https://link.springer.com/article/10.1007/s10700-019-09304-w a0f4bb360cfeeb41db6c8348990de61e;de;;;5.1.;;;Auf dem Weg zur Sicherheitsanalyse von ERTMS/ETCS Level 2 in Echtzeit Maude ERTMS/ETCS ist ein europäisches Signal-, Kontroll- und Zugsicherungssystem. In diesem Beitrag modellieren und analysieren wir dieses komplexe System von Systemen einschließlich seiner hybriden Elemente auf Entwurfsebene in Real-Time Maude. Unsere Modellierung ermöglicht es uns, Sicherheitseigenschaften in physikalischer und nicht in logischer Hinsicht zu formulieren. Wir validieren unser Modell systematisch durch Simulation und Fehlerinjektion. Mit dem Real-Time Maude Model-Checker verifizieren wir effektiv eine Reihe kleiner Bahnsysteme.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-29510-7_6 b352a7eda65c3beccc38274a6e954686;de;;;5.1.;;;Hochauflösende Bildrekonstruktion basierend auf dem Merkmalskarten-Aufmerksamkeitsmechanismus Um das Problem zu verbessern, dass niederfrequente und hochfrequente Komponenten von Merkmalskarten in bestehenden hochauflösenden Bildrekonstruktionsverfahren gleich behandelt werden, schlug das Papier ein hochauflösendes Bildrekonstruktionsverfahren vor, das einen Aufmerksamkeitsmechanismus mit Merkmalskarte verwendet, um die Rekonstruktion von ursprünglichen niedrigen -Auflösung von Bildern zu hochauflösenden Bildern mit mehreren Maßstäben. Das vorgeschlagene Modell besteht aus einem Merkmalsextraktionsblock, einem Informationsextraktionsblock und einem Rekonstruktionsmodul. Erstens wird der Extraktionsblock verwendet, um nützliche Merkmale aus Bildern mit niedriger Auflösung zu extrahieren, wobei mehrere Informationsextraktionsblöcke mit dem Merkmalskarten-Aufmerksamkeitsmechanismus kombiniert und zwischen Merkmalskanälen weitergegeben werden. Zweitens wird die Interdependenz verwendet, um die Kanaleigenschaften adaptiv anzupassen, um mehr Details wiederherzustellen. Schließlich rekonstruiert das Rekonstruktionsmodul hochauflösende Bilder in verschiedenen Maßstäben. Die experimentellen Ergebnisse können zeigen, dass die vorgeschlagene Methode nicht nur die visuelle Wirkung von Bildern, sondern auch die Ergebnisse auf Set5, Set14, Urban100 und Manga109 effektiv verbessern kann. Die Ergebnisse können zeigen, dass das vorgeschlagene Verfahren eine strukturelle Ähnlichkeit mit den Bildrekonstruktionsverfahren aufweist. Darüber hinaus wurde der Bewertungsindikator des Spitzensignal-Rausch-Verhältnisses (PSNR) und des strukturellen Ähnlichkeitsindex (SSIM) bis zu einem gewissen Grad verbessert, während die Wirksamkeit der Verwendung des Merkmalskarten-Aufmerksamkeitsmechanismus in hochauflösenden Bildrekonstruktionsanwendungen nützlich und effektiv ist.;-;-;-;https://link.springer.com/article/10.1007/s10489-020-02116-1 e6b7bfcef8c326981973a40ef6eb0559;de;;;5.1.;;;Entwerfen eines Hadoop-Systems basierend auf Rechenressourcen und Netzwerkverzögerung für Weitverkehrsnetze Dieses Papier schlägt ein Hadoop-System vor, das sowohl die Verarbeitungskapazität des Slave-Servers als auch die Netzwerkverzögerung für Weitverkehrsnetze berücksichtigt, um die Auftragsverarbeitungszeit zu reduzieren. Das Aufgabenzuweisungsschema im vorgeschlagenen Hadoop-System teilt jeden einzelnen Auftrag unter Verwendung geeigneter Aufteilungsverhältnisse in mehrere Aufgaben auf und weist die Aufgaben dann verschiedenen Slaves entsprechend der Rechenleistung jedes Servers und der Verfügbarkeit von Netzwerkressourcen zu. Wir integrieren softwaredefinierte Netzwerke in das vorgeschlagene Hadoop-System, um Pfadberechnungselemente und Netzwerkressourcen zu verwalten. Die Leistung des vorgeschlagenen Hadoop-Systems wird experimentell mit vierzehn Maschinen, die sich in verschiedenen Teilen der Welt befinden, unter Verwendung eines Scale-Out-Ansatzes evaluiert. Ein Scale-Out-Experiment unter Verwendung der vorgeschlagenen und herkömmlichen Hadoop-Systeme wird durchgeführt, indem sowohl ein einzelner Job als auch mehrere Jobs ausgeführt werden. Die praktischen Testbed- und Simulationsergebnisse zeigen, dass das vorgeschlagene Hadoop-System im Vergleich zum herkömmlichen Hadoop-System in Bezug auf die Verarbeitungszeit effektiv ist.;-;-;-;https://link.springer.com/article/10.1007/s11235-018-0464-y 0f9f3c0870cf075c73a824cd5c9b383d;de;;;5.1.;;;Eine multimodale medizinische Bildfusionsmethode mit regionalbasiertem Ansatz Die Bildfusion ist ein Verfahren, bei dem die verschiedenen Modalitätsbilder kombiniert werden, um das zusammengesetzte Bild zu erhalten, das die nützlichen Informationen enthält. Die multimodale medizinische Bildfusion spielt eine entscheidende Rolle bei der Diagnose von Krankheiten und bei anderen klinischen Anwendungen. Diese Arbeit stellt einen Fusionsalgorithmus vor, der einen regionenbasierten Ansatz für medizinische Bilder verwendet. Die Quellbilder werden unter Verwendung des k-Means-Algorithmus partitioniert. Zur Rekonstruktion des Hintergrunds werden die Quadtree-Zerlegungs- und Bézier-Interpolationstechniken verwendet. Dann wird das Hintergrundbild aus segmentierten Eingabebildern extrahiert, um das Merkmalsbild zu erhalten. Die Merkmalsverbesserung erfolgt, um ein verfeinertes Merkmalsbild zu erhalten. Schließlich wird das fusionierte Ausgabebild gefunden, indem das Merkmalsbild mit dem anderen Eingabebild hinzugefügt wird. Die Fusionsergebnisse des vorgeschlagenen Schemas werden mit drei anderen Methoden verglichen. Die qualitativen und quantitativen Bewertungsergebnisse zeigen, dass das vorgeschlagene System im Vergleich zu den anderen Techniken besser abschneidet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1420-3_126 3e773bc179567c802bced458382a5977;de;;;5.1.;;;Ein Schema zum Extrahieren versteckter Dateien, das Malware mithilfe von Android Dynamic Loading bekämpft In letzter Zeit sind bösartige Android-Anwendungen intelligent geworden, um herkömmliche statische Analysen zu umgehen. Darunter, die mithilfe dynamischer Ladetechniken bösartigen Code verbergen, indem sie DEX-Dateien trennen. Diese zusätzlichen DEX-Dateien können während der Installationszeit zusammen in einem anderen Verzeichnis installiert oder vom Command and Control Server heruntergeladen werden. Intelligente Malwares löschen die DEX-Dateien jedoch nach der Ausführung, um eine Analyse zu vermeiden. Daher ist es schwierig, einige versteckte Verhaltensweisen herauszufinden, ohne Dateien zu extrahieren, die für das dynamische Laden verwendet werden. In diesem Papier schlagen wir einen Extraktionsalgorithmus vor, um die geladene oder gelöschte DEX-Datei mit Xposed zu speichern. Überprüfen Sie danach, ob die extrahierte DEX-Datei bösartig ist, indem Sie die vorgeschlagene Technik verwenden. Mit dieser Methode können Sie zusätzliche Aktionen von Malware durch Analyse analysieren. Als Ergebnis trägt es dazu bei, versteckte Funktionen der Anwendung zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9609-4_7 a65b83950002265a5fc7f35f00f216e8;de;;;5.1.;;;Gewichtungsbasiertes Routing von Kanälen in Cognitive Radio Networks In kognitiven Multi-Hop-Funknetzen versagen die Kommunikationsverbindungen zwischen den kognitiven Knoten leicht mit dem dynamischen Auftreten der lizenzierten Benutzer. Wir schlagen einen Ansatz vor, um das Gewicht der verfügbaren Kanalschnittpunkte zu berechnen. Die kognitiven Knoten vergleichen die Gewichte verschiedener Routing-Pfade und aktualisieren die Routing-Tabelle, um die Umleitungszeiten zu reduzieren, die durch die Netzwerkänderung verursacht werden, um die Paketverlustrate in kognitiven Funknetzwerken zu reduzieren. Simulationsergebnisse zeigen, dass unser Protokoll in einem kognitiven Multi-Hop-Funknetzwerk mit häufigem Wechsel der lizenzierten Benutzer und ungleichmäßiger Verteilung des verfügbaren Spektrums eine geringere Paketverlustrate in den Kommunikationskanälen und einen angemessenen Overhead im Kontrollkanal bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14171-3_16 e2efd2febb10bc10127fa93d4f459b5a;de;;;5.1.;;;Erkennung anormaler Ereignisse basierend auf einem mehrskaligen Markov-Zufallsfeld In diesem Beitrag stellen wir eine neuartige unüberwachte Methode zur Erkennung von abnormalem Verhalten vor, die sowohl lokale als auch globale Kontextinformationen berücksichtigt. Für die lokale kontextuelle Darstellung unterteilen wir zunächst Videoframes in lokale Regionen, dann extrahieren wir ein Merkmal auf niedriger Ebene wie ein Histogramm des orientierten optischen Flusses (HOF) und ein sequentielles Merkmal, das aus K zeitlich benachbarten Frames für jede Region besteht. Das globale kontextbezogene Merkmal kodiert die statistischen Merkmale dieser lokalen Merkmale wie Orientierungsentropie und Größenvarianz. Ein Online-Clustering-Algorithmus wird eingeführt, um Wörterbücher für die lokalen bzw. globalen Funktionen zu generieren. Dann wird für jedes neue eingehende Merkmal eine maximale posteriore Schätzung des Normalitätsgrads durch ein mehrskaliges Markov-Zufallsfeld (mMRF) basierend auf dem gelernten Modell berechnet. Die vorgeschlagene Methode wird anhand von stundenlangen Überwachungsvideos aus der realen Welt evaluiert. Experimentelle Ergebnisse bestätigen die Wirksamkeit der Methode und die Detektionsleistung ist vielversprechend.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-48558-3_38 017280d7d814a6420ca30b2ab0e1289c;de;;;5.1.;;;Ein computergestützter Prozess von Problemen zu Gesetzen im Requirements Engineering In der heutigen Welt sind viele Produkte und Dienstleistungen stark von Software und Informationssystemen abhängig. Mit der wachsenden Bedeutung von IT-Systemen hat der Gesetzgeber weltweit beschlossen, Gesetze für IT-Systeme zu regulieren und durchzusetzen. Vor diesem Hintergrund werden die Auswirkungen von Compliance auf die Entwicklung von IT-Systemen immer gravierender. Daher benötigen Software-Ingenieure Techniken, um mit Compliance umzugehen. Die Identifizierung relevanter Compliance-Vorschriften für IT-Systeme ist jedoch eine anspruchsvolle Aufgabe. Wir haben Muster und eine strukturierte Methode vorgeschlagen, um diese Probleme anzugehen [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44920-2_14 98a21cfed922159adcd5333bdd321a5f;de;;;6.1.;;;Wellness der nächsten Generation: Ein Technologiemodell zur Personalisierung des Gesundheitswesens Die Personalisierung oder Individualisierung der Versorgung ist für Verhaltensänderungen und Änderungen des Lebensstils, die zum Wohlbefinden des Patienten führen (für eine gute Gesundheit oder das Management chronischer Krankheiten) unerlässlich. Die Umsetzung einer effektiven personalisierten Versorgung wird durch das Fehlen zuverlässiger Mittel zur Sammlung und Verarbeitung von Echtzeitdaten zu individuellen Kontexten (Präferenzen, Einschränkungen) und zur Einhaltung von Pflegeprotokollen und -mechanismen behindert, um ein zeitnahes, maßgeschneidertes kognitives Coaching bereitzustellen, das strukturiert und konsistent ist und informativ für die Benutzer.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-20765-0_21 190e742c1bf374fe986d963ade919fe1;de;;;6.1.;;;Eine randomisierte Kontrollstudie zum Testen eines Peer-Selbsthilfegruppen-Ansatzes zur Verringerung der sozialen Isolation und Depression bei weiblichen mexikanischen Einwanderern Weibliche mexikanische Einwanderer (FMIs) leiden im Vergleich zu anderen Bevölkerungsgruppen unter hohen Depressionsraten. Bei dieser Bevölkerungsgruppe wird die Depression oft durch die soziale Isolation, die mit der Einwanderungserfahrung verbunden ist, verschlimmert.;-;-;-;https://link.springer.com/article/10.1186/s12889-020-09867-z 0956c1512e09cea2e583e94540eaf035;de;;;6.1.;;;Informationshandhabung in interdisziplinären, Hydroenvironment Engineering Projekten Der Umgang mit Informationen in wasserbezogenen interdisziplinären Ingenieurprojekten ist aufgrund der Datenmassen aus Feldforschung, Laborexperimenten und numerischer Simulation eine anspruchsvolle Herausforderung. Dieses Kapitel beschreibt ein allgemeines Konzept für den Umgang mit Informationen in einer interdisziplinären Forschungseinheit unter Verwendung eines generalisierten Informationsmodellierungsansatzes für mehrskalige physikalische Zustandsgrößen in Kombination mit Metadaten und Webservices-basierten Informationssystemen gemäß der INSPIRE-Initiative. Die Forschungseinheit beschäftigt sich mit der Kopplung von Strömungs- und Deformationsprozessen zur Modellierung der Bewegung natürlicher Hänge und integriert Daten und Modelle aus unterschiedlichen Disziplinen wie Hydrologie, Hydrodynamik, Geohydraulik, Geophysik und Bodenmechanik. Kernidee ist ein verallgemeinertes Informationsmodellierungskonzept für jede Art von physikalischen Zustandsvariablen auf unterschiedlichen räumlichen und zeitlichen Skalen unter Verwendung von Tensor- und Mengentheorie aus der Mathematik sowie objektorientierter Informationsmodellierungstechniken. Tensor-Objekte werden für den gesamten Informationsverarbeitungsprozess von der Felddatenerfassung und -verwaltung über die Informationsanalyse und Modellkopplung bis hin zur Informationsarchivierung und -speicherung verwendet. Ein Hydroinformatik-System namens Turtle wurde mit Standard-IC-Technologie wie XML-Schemata für Tensorobjekte (TensorML) und ISO 19115 und 19119 für die metadaten- und geoportalbasierte interdisziplinäre Zusammenarbeit und die langfristige Archivierung und Wiederverwendung der relevanten Informationen entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-4451-42-0_6 f2f5692b42b97ee1fec8c7c1546c0e7a;de;;;6.1.;;;Auf dem Weg zu einem vereinheitlichenden Framework für die Verarbeitung komplexer Abfragen über strukturierte Peer-to-Peer-Datennetze In dieser Arbeit untersuchen wir die Verarbeitung komplexer Anfragen in DHT-basierten Peer-to-Peer (P2P) Datennetzen. Abfragen erfolgen über Tupel und Beziehungen und werden in einer Abfragesprache wie SQL ausgedrückt. Wir beschreiben bestehende Forschungsansätze für die Abfrageverarbeitung in P2P-Systemen, schlagen Verbesserungen und Erweiterungen vor und schlagen ein vereinheitlichendes Framework vor, das aus einer modifizierten DHT-Architektur, Datenplatzierung und Suchalgorithmen besteht und die Verarbeitung einer Vielzahl von Abfragetypen effizient unterstützt, darunter Abfragen mit einem oder mehreren Attributen, Abfragen mit Auswahloperatoren (einschließlich Gleichheits- und Bereichsabfragen) und Abfragen mit Join-Operatoren. Unseres Wissens ist dies die erste Arbeit, die ein Framework erstellt, das all diese Abfragetypen unterstützt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24629-9_13 6b9d47975e6d91c89ea3e0188565550a;de;;;6.1.;;;Blockchain-basiertes öffentliches Rechnungsprüfungssystem für gemeinsam genutzte Daten Mit der rasanten Entwicklung des Cloud Computing speichern und teilen immer mehr Organisationen und Einzelpersonen ihre Daten in nicht vertrauenswürdigen Clouds. Daher ist die gemeinsame Datenprüfung zu einem wichtigen Thema im Bereich der Cloud-Speicherung geworden, das die Aufmerksamkeit der Forscher auf sich zieht. Die modernen Schemata können jedoch die Leistungs- und Sicherheitsanforderungen nicht vollständig erfüllen. Daher schlagen wir in diesem Papier ein gemeinsames Datenprotokoll für die öffentliche Prüfung für Cloud-Speicher vor, indem wir Blockchain und den rangbasierten Merkle-AVL-Baum (RB-MHT) verwenden, um die Wahrung der Privatsphäre und Batch-Audits zu erreichen, um den Systemaufwand zu reduzieren und die Sicherheit von Änderungen zu wahren. in diesem Blockchain-basierten Schema aufzeichnen. Aus Datenschutzgründen bezieht sich die Auditing-Signatur nur auf die Gruppenverwaltung während des Audit-Prozesses und die Daten werden durch einen zufälligen Wert blind. Darüber hinaus beweisen wir die Sicherheit unseres Systems und bewerten dessen Leistung durch die Implementierung. Die Ergebnisse zeigen, dass das vorgeschlagene System nachweislich sicher und effizient ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-22263-5_19 779419247012dff11b6f89fef6ac47b0;de;;;6.1.;;;Standards für wissenschaftliches Verhalten: Gibt es welche? Die Forschungspraxis ist voller ethischer Herausforderungen, von denen viele durch die Lehre von verantwortungsvollem Forschen (RCR) angegangen werden könnten. Obwohl eine solche Ausbildung zunehmend erforderlich ist, besteht kein klarer Konsens über die Ziele oder den Inhalt eines RCR-Curriculums. Die vorliegende Studie wurde entwickelt, um Gemeinschaftsstandards in drei Bereichen der Forschungspraxis zu bewerten: Autorenschaft, Zusammenarbeit und Datenmanagement. Im November 2010 wurde eine Umfrage an US-Fakultäten aus 50 Graduiertenprogrammen für jede der vier verschiedenen Disziplinen: Mikrobiologie, Neurowissenschaften, Krankenpflege und Psychologie verteilt, die durch Ratschläge von Inhaltsexperten, Fokusgruppen und Interviews entwickelt wurde. Die Umfrage befasste sich mit Praktiken und wahrgenommenen Standards sowie mit Wahrnehmungen zum Lehren und Lernen. Über 1.300 Antworten (Antwortquote 21 %) ergaben bei fast allen Fragen statistisch signifikante Unterschiede in den Antworten. Das Ausmaß dieser Unterschiede war jedoch in der Regel gering, was wenig Anlass für einen gemeinschaftlichen Konsens über Standards gab. Bei fast allen gestellten Fragen war das eindeutige Ergebnis, dass es keinen annähernd Konsens gab. Diese Ergebnisse können nicht so sehr nützlich sein, um zu vermitteln, was die Standards sind, sondern um das Bewusstsein der Schüler für die Vielfalt dieser Standards in der berichteten Praxis zu schärfen.;-;-;-;https://link.springer.com/article/10.1007/s11948-013-9500-1 24ada87730c8aac5f5d0bf3d52839daa;de;;;6.1.;;;Strategien unabhängiger weiblicher Escorts für den Umgang mit Stigma im Zusammenhang mit der Sexarbeit Trotz der Umformulierung von „Prostitution“ als „Sexarbeit“ in der Forschungs- und Anwaltsliteratur bleibt das mit dieser Aktivität verbundene Stigma bestehen. Diese Studie untersucht, wie unabhängige Sexarbeiterinnen, die online als „Escorts“ werben, das mit ihrer Arbeit verbundene Stigma wahrnehmen und bewältigen und wie sich diese Bewältigungsstrategien auf ihre persönlichen Beziehungen auswirken. Dreißig Begleitpersonen nahmen an halbstrukturierten qualitativen Interviews teil, Goffmans (;-;-;-;https://link.springer.com/article/10.1007/s12119-011-9120-3 13f489349f2e832440166ab47656231d;de;;;6.1.;;;Ethische Überlegungen Bei allen Forschungen und Bewertungen ist die tadellose Beachtung ethischer Erwägungen unabdingbar. Spezifische Überlegungen für Interventionseffektivitätsforschung, Qualitätsverbesserungsaktivitäten und Programmbewertung werden diskutiert, einschließlich Definitionen von minimalem Risiko, institutioneller Überprüfung und informierter Zustimmung. Datenschutz und Datensicherheit werden beachtet und Best Practices beschrieben. Spezielle Überlegungen für vorhandene Daten werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-61246-1_8 16c83669f86c4013ac06f97552a2bf43;de;;;6.1.;;;Eine vergleichende Studie über Vereinbarungen zum Informationsaustausch zwischen Unternehmen und Behörden für die Steuerberichterstattung Steuertransparenz wird immer wichtiger und wird von immer mehr Ländern auf der ganzen Welt durchgesetzt. Um Steuerhinterziehung zu bekämpfen, hat die OECD einen Standard für den automatischen Informationsaustausch (AIA) entwickelt. Die Umsetzung dieses Standards ist von Land zu Land unterschiedlich. In dieser Studie untersuchen wir Faktoren, die die Unterschiede zwischen zwei Vereinbarungen zum Informationsaustausch bei der Umsetzung des AIA-Standards erklären. In beiden Fällen werden die Architektur des Informationsaustauschs und die dazugehörige Governance-Regelung untersucht. Die Ergebnisse der explorativen Studie zeigen, dass die Unterschiede von den verfügbaren IT-Fähigkeiten, der Interoperabilität, dem Vertrauen zwischen den Partnern für den Informationsaustausch, den Machtunterschieden, den Beziehungen zwischen den Organisationen und den wahrgenommenen Vorteilen der Umsetzung solcher Vereinbarungen beeinflusst werden. Es werden zehn Vorschläge abgeleitet, die die Unterschiede erklären, die in weiteren Forschungen überprüft werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20671-0_11 5a646cec5e7921d1cc4b642141d5ad16;de;;;6.1.;;;FPGA-orientierte parallele Programmierung OpenCL für FPGA verwendet zwei Arten von Kerneln: NDRange-Kernel und Single-Work-Item-Kernel. Dieses Kapitel beschreibt, wie man parallele Berechnungen mit diesen Kernel-Typen und vielen Optimierungsstrategien für jeden Kernel-Typ implementiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-68161-0_4 677e352b394fc6a1cd33844c2458d4af;de;;;6.1.;;;Zur Integration sozialer und sensorischer Netzwerke für das Notfallmanagement Das Erdbeben in Haiti von 2010 wird oft als Wendepunkt bezeichnet, der die Nutzung sozialer Medien bei Katastrophen verändert hat. Die Entwicklung von Strategien, Technologien und Werkzeugen zur Verbesserung der Benutzerkollaboration bei Katastrophen ist zu einem aufstrebenden Feld geworden, und ihre Integration mit geeigneten Sensornetzwerken stellt sich als effektive Lösung dar, um die Entscheidungsfindung im Notfallmanagement voranzutreiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-49224-6_13 c7e370a2b5916d938f10c2108e68a183;de;;;6.1.;;;Presto – Eine Systemumgebung für unternehmenskritische Multimedia-Anwendungen In diesem Bericht wird ein mehrphasiges Forschungs- und Entwicklungsprogramm zusammengefasst, das zur Entwicklung einer Multimedia-Systemumgebung durchgeführt wurde, um eine Vielzahl geschäftskritischer Anwendungen zu unterstützen. Die Konzepte, das Softwaredesign und der Systemprototyp, die in der ersten Phase des Programms entwickelt wurden, werden vorgestellt. Insbesondere werden die Arbeiten zu Echtzeit-Scheduling, Multimedia-Speicherung und -Abruf und Anwendungsprogrammiermodell beschrieben. Die wichtigsten Ergebnisse des presto Phase-I-Programms sind eine Reihe neuer Techniken und Systemsoftware für QoS- und Kritikalitäts-basiertes, adaptives Multiressourcen-Management, Raw-I/O-basiertes kontinuierliches Multimedia-Dateimanagement und datenflussorientierte Programmierung mit integriertem Echtzeit-Planungsunterstützung.;-;-;-;https://link.springer.com/article/10.1023/A%3A1007929506385 e646bc50de739e778a9bb56d452f1c21;de;;;6.1.;;;In-vitro-Diagnostik-Produktentwicklung Der regulatorische Rahmen für In-vitro-Diagnostika in China hat sich schnell und grundlegend geändert. Neben dem Wissen über den Markt für In-vitro-Diagnostika in China ist es für internationale Unternehmen auch wichtig, die aktuellen Vorschriften und die klinischen Anforderungen zu kennen, die ihre Produkte effizient und erfolgreich auf dem chinesischen Markt platzieren können, wenn sie erfüllt werden. In diesem Kapitel geben wir einen kurzen Überblick über die wichtigsten Vorschriften und die entsprechenden klinischen Anforderungen im Zusammenhang mit der Entwicklung von In-vitro-Diagnostika. Der Überblick über die Vorschriften und Anforderungen für klinische Prüfungen von In-vitro-Diagnostika wird internationalen Antragstellern helfen, ihre Entwicklungsstrategien zu bestimmen und ihre klinischen Prüfungen mit In-vitro-Diagnostika in China durchzuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-15576-0_10 66d40eb745ceb51bc0273a4bc8db2e3d;de;;;6.1.;;;Minimierung der Zugriffslatenz auf Metadaten in Weitverkehrsnetzwerk-Dateisystemen Herkömmliche Netzwerkdateisysteme wie NFS erstrecken sich aufgrund der geringen Bandbreite und der hohen Netzwerklatenz nicht auf weite Bereiche. Wir präsentieren WireFS, ein Wide Area File System, das die Delegierung der Metadatenverwaltung an Knoten an Client-Sites ermöglicht (;-;-;-;https://link.springer.com/chapter/10.1007/11945918_32 e1d17b421f43a6ed394356544203fe20;de;;;6.1.;;;tOWL: Integrieren der Zeit in OWL Die Web Ontology Language (OWL) ist die ausdrucksstärkste Standardsprache zur Modellierung von Ontologien im Semantic Web. In diesem Kapitel stellen wir die temporale OWL (tOWL)-Sprache vor: eine zeitliche Erweiterung der OWL DL-Sprache. tOWL basiert auf drei Schichten, die über OWL DL hinzugefügt werden. Die erste Ebene ist die Ebene Konkrete Domänen, die die Darstellung von Restriktionen mithilfe von binären Prädikaten für konkrete Domänen ermöglicht. Die zweite Ebene ist die Zeitdarstellungsebene, die Zeitpunkte, Intervalle und Allens 13 Intervallbeziehungen hinzufügt. Die dritte Schicht ist die Change Representation-Schicht, die eine perdurantistische Sicht auf die Welt unterstützt und die Darstellung komplexer zeitlicher Axiome wie Zustandsübergänge ermöglicht. Ein Leveraged Buyout-Prozess wird verwendet, um die verschiedenen tOWL-Konstrukte zu veranschaulichen und die Anwendbarkeit der tOWL im Geschäftskontext zu zeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04329-1_11 6e0159d4be9344f35d64c10e8767f8af;de;;;6.1.;;;Überwachungsergebnisse Endlich haben wir die Tortur des Entdeckens, Entwerfens, Testens und Bereitstellens überstanden. Wir kennen unsere Daten in- und auswendig, wir haben Teams auf Unstimmigkeiten aufmerksam gemacht und es ist uns gelungen, die einmalige Migration und wiederholbare Integrationen (so weit wie möglich) zu automatisieren. Wir haben sogar ein Warnsystem eingerichtet, wenn wir auf Geschäftsregeln und technische Fehler stoßen. Was ist übrig?;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-5653-4_8 bf86d2b7f35f6522cd38ceb7bb0e29c2;de;;;6.1.;;;Kostenschätzung von Kohärenzprotokollen von Software Managed Cache auf einem verteilten Shared-Memory-System In den letzten Jahren werden Software-verwaltete Cache-Systeme aufgrund ihrer Portabilität und Anwendbarkeit in parallelen Computerumgebungen weit verbreitet verwendet. Die Kosten für die Cacheverwaltung auf diesen Systemen sind jedoch höher als bei hardwareverwalteten Cachesystemen. Daher schätzen wir die Cache-Verwaltungskosten des Cache-Systems, das wir auf einem verteilten Shared-Memory-System implementiert haben. Als Kohärenzprotokoll können Programmierer unseres Systems das Entwerten oder Aktualisieren auswählen. Wir schätzen die Cache-Verwaltungskosten für beide Protokolle. Als Beispielprogramm verwenden wir zwei Anwendungen, um unser System zu bewerten, die Gaußsche Elimination und die Summenberechnung. Aus dem Ergebnis können wir schlussfolgern, dass die Kosten der Cache-Informationsverwaltung bei der Schätzung eines softwareverwalteten Cache-Systems nicht ignoriert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0024228 8f71996c45cdd42632939bb91f8535c9;de;;;6.1.;;;Hochverteilbares assoziatives Speicherbasiertes Computational Framework für die parallele Datenverarbeitung in der Cloud Eine der größten Herausforderungen für große Computer-Clouds, die mit massiven Echtzeitdaten umgehen, besteht darin, mit der Geschwindigkeit fertig zu werden, mit der unverarbeitete Daten angesammelt werden. In dieser Hinsicht eröffnen assoziative Speicherkonzepte einen neuen Weg für den Zugriff auf Daten in einer stark verteilten Umgebung, der es einem parallel verteilten Rechenmodell ermöglicht, sich automatisch an die dynamische Datenumgebung für eine optimierte Leistung anzupassen. Vor diesem Hintergrund zielt dieses Papier auf eine neue Art von Datenverarbeitungsansatz ab, der Daten für Clouds effizient partitioniert und verteilt und ein paralleles Datenzugriffsschema bereitstellt, das die Datenspeicherung und den Datenabruf durch Assoziation ermöglicht, wobei Datensätze als Muster behandelt werden übergreifende Beziehungen zwischen verteilten Datensätzen werden für eine Vielzahl von Mustererkennungs- und Data-Mining-Anwendungen einfacher. Die Möglichkeit, Daten optimal und automatisch zu partitionieren, ermöglicht eine elastische Skalierung von Systemressourcen und beseitigt eines der Haupthindernisse bei der Bereitstellung von datenzentrierter Software-as-a-Service in Clouds.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11569-6_6 e90902af52ba55a64df2e8fb33e8399f;de;;;6.1.;;;Forschung zu einem intelligenten Zustandsüberwachungssystem für Schaltanlagen auf Basis von drahtlosen Sensornetzwerken Unter Bezugnahme auf die Merkmale der Technologie drahtloser Sensornetzwerke (WSNs) und die dreistufige Architektur von intelligenten Umspannwerken entwirft der Artikel ein Online-Zustandsüberwachungssystem für intelligente Umspannwerksausrüstung auf der Grundlage von WSNs. Das System ist als hierarchisch verteilte Struktur konzipiert und gliedert sich in Wahrnehmungsebene, Konvergenzebene und Anwendungsebene. Dann schlug das Papier einige der Schlüsselprobleme vor, die bei der Gestaltung des Überwachungssystems gelöst wurden. Zu diesen Schlüsselthemen gehören Sensorknotendesign, Netzwerktopologie, Fehlerbehandlung, Informationsmanagement, Netzwerksicherheit, zeitsynchronisiert, Integration in das Kommunikationsnetzwerk von Umspannwerken. Es bietet eine neue Lösung zur Verbesserung und Optimierung des Überwachungssystems für die Ausrüstung von Umspannwerken und trägt zur Verbesserung der Laufgeschwindigkeit und Flexibilität bei.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29157-9_8 2f92db1df0a9ee0239b7bf82b13b95f5;de;;;6.1.;;;Blockchain im IoT: Aktuelle Trends, Herausforderungen und zukünftige Roadmap Das Internet der Dinge (IoT) ist eine der vielversprechendsten Technologien im Zeitalter der Informationstechnologie. Das IoT ermöglicht die allgegenwärtige Datenerfassung und Netzwerkkommunikation, um sowohl im täglichen Leben als auch im industriellen Betrieb erheblichen und unverzichtbaren Komfort und Intelligenz zu bieten. Das IoT steht jedoch immer noch vor einer Reihe von Herausforderungen und zeigt eine Reihe von Problemen, die dringend angegangen werden müssen. Gefälschte Hardware, Softwarefehler, Sicherheitsprobleme bei der Kommunikation, Systemverwaltungsprobleme und Datenschutzprobleme sind wichtige Probleme für die aktuelle IoT-Infrastruktur. Inzwischen hat die Blockchain als aufkommende Informationstechnologie großes öffentliches Interesse auf sich gezogen und aufgrund ihrer Dezentralisierung, Transparenz und Sicherheit viel versprechend gezeigt. Die Funktionen der Blockchain scheinen ideal für das IoT zu passen, und durch die Anwendung von Blockchain auf eine IoT-Umgebung können einige der oben genannten Schwächen behoben werden. Der Zweck dieses Papiers besteht darin, die Verwendung von Blockchain in IoT-Anwendungen vorzustellen. Wir stellen verschiedene Herausforderungen für ein IoT-System vor und fassen die Vorteile der Einführung von Blockchain in die IoT-Infrastruktur zusammen. Wir konzentrieren uns hauptsächlich darauf, die Blockchain-Anwendungen im IoT mit verfeinerten Fähigkeiten und verbesserter Sicherheit zu veranschaulichen. Um die Blockchain in der IoT-Forschung zu beleuchten, diskutieren wir auch Grenzen und zukünftige Richtungen.;-;-;-;https://link.springer.com/article/10.1007/s41635-019-00079-5 7281e9882565dc20cf931b265e17e46d;de;;;6.1.;;;Transformatives und innovatives E-Gov für die nächste Generation: Verknüpfungen von Backoffices für ein One-Stop-Portal Es ist zwingend erforderlich, dass die e-Gov-Plattform für die nächste Generation integrative Verwaltungsdienste über ein zentrales Bürgerportal und Back-Office-Verbindungen zwischen Ministerien und externen Organisationen erreicht. Dieses Ziel zielt darauf ab, die Systemintegration und -koordination durch den Einsatz von Cloud Computing und serviceorientierter Architektur (SOA) weiter voranzutreiben. Um diese Ziele zu erreichen, muss Fachwissen als gut organisierte Bürgerdienste bereitgestellt werden, für die die e-Gov-Plattform auf lose Kopplung von Datenbanken aufgebaut werden sollte. Japans e-Gov-Politik hat sich diesen Bedürfnissen angenommen und seine nationale Serviceplattform entwickelt, die ein Master-Register für standardisierte Metadaten verwendet, was der weltweit erste Versuch ist. In diesem Papier werden die Ziele der japanischen e-Gov-Politik, die Architektur der One-Stop-Service-Plattform und ihr evolutionärer Prozess der Back-Office-Verknüpfungen unter Verwendung eines gemeinsamen Registers erörtert. Es wird vorgeschlagen, Metadaten arbeitssparend gemäß einer Matrix von Betriebs- und Offenlegungsklassen über zugewiesene Vor-/Nachbearbeitungsfilter zu verwalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15346-4_9 eb228a3db8cc20d90cf72ff0a5c4ba50;de;;;6.1.;;;Ein neuartiger zentralisierter Cloud-Informations-Zuständigkeitsintegrität mit einem neuronalen Netzwerk-basierten Ansatz zur Angriffserkennung für Cloud-Daten Hochgradig skalierbare Dienste werden durch Cloud Computing ermöglicht und können problemlos über das Internet genutzt werden. Benutzerdaten werden normalerweise aus der Ferne in Cloud-Diensten gespeichert. Benutzer besitzen oder bedienen die Maschinen nicht. Dies ist ein wichtiges Merkmal von Cloud-Diensten. Die Akzeptanz von Cloud-Diensten durch die Nutzer ist dadurch beeinträchtigt, dass die Nutzer Bedenken haben, die Kontrolle über ihre eigenen Informationen zu verlieren und von einigen Angreifern gehackt werden. Um die bestehenden Probleme zu überwinden, schlug diese Arbeit daher eine neue zentralisierte Cloud-Informations-Rechenschaftsintegrität mit imperialistischem wettbewerbsfähigen Schlüsselgenerierungsalgorithmus (CCIAI-ICKGA) vor, um die oben genannten Probleme zu lösen. Es bietet auch die Angriffserkennung, um die praktische Nutzung der Benutzerinformationen in der Cloud-Umgebung zu überwachen. Zweitens wird eine chiffrierte Text-Policy-attributbasierte Verschlüsselung (CP-ABE) mit Schlüsselgenerierung unter Verwendung von ICKGA und Trapdoor-Generator verwendet, um die öffentlichen und privaten Schlüssel für jeden Benutzer zu generieren. Drittens gewährleistet der Trapdoor-Generator die Datenintegrität auf Benutzerebene und auch auf Cloud-Server-Ebene. Schließlich wird ein dynamisch gewichtetes Ensemble Neural Networks (DWENN)-Klassifikator zur Angriffserkennung im Netzwerk verwendet. Zusätzliche Garantien für Integrität und Authentizität werden durch die Aktualisierung der Struktur der Protokolldatensätze bereitgestellt. Es wird das Framework erweitert, um die Sicherheitsanalyse bereitzustellen, die mehr mögliche Angriffe erkennt. Schließlich wird ein Simulationsergebnis durchgeführt und eine detaillierte Leistungsanalyse des Systems erstellt. Ein Ergebnis einer rigorosen experimentellen Bewertung zeigt die Wirksamkeit und den Einfallsreichtum des neuartigen CCIAI-ICKGA-Frameworks.;-;-;-;https://link.springer.com/article/10.1007/s12652-020-01916-0 b339b1a2fcb8c4f84aff0c04ca86ffa9;de;;;6.1.;;;Delegation von Zugriffsrechten In diesem Kapitel wird das kritische Problem der Übertragung von Zugriffsrechten von einer Entität auf eine andere im IoT-Kontext erörtert. Der Vorgang der Übertragung solcher Zugriffsrechte wird allgemein als Delegation bezeichnet. Es ist ein wesentlicher Bestandteil eines Zutrittskontrollsystems. Im Bereich der Delegation wurden beträchtliche Arbeiten durchgeführt, aber ein Großteil davon setzt ein zentralisiertes, gut ausgestattetes System voraus, und diese Lösungen sind im Kontext des IoT nur begrenzt anwendbar. Wo Delegationsmodelle für das IoT vorgeschlagen wurden, bieten diese typischerweise nur eine grobe Kontrolle über die Delegation von Rechten. Darüber hinaus erfordern viele von ihnen eine zentralisierte vertrauenswürdige Autorität, die als Single Point of Failure leiden kann. Wir zeigen, dass das IoT ein sicheres, flexibles und feinkörniges Delegationsmodell erfordert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-64998-2_6 54847b7944ecff033d48b27fa3bc501d;de;;;6.1.;;;Wartungsinformationssystem und Vorhersage der Ausfallrate Eine moderne Herangehensweise an das Wartungsproblem erfordert eine effiziente Unterstützung durch das Informationssystem. Es gibt viele artikulierte Daten, die berücksichtigt werden müssen. Ein System, das diese Informationen sammelt und organisiert, ist Voraussetzung für jede weitere Ausarbeitung. Heutzutage bietet die Informationstechnologie Wartungsingenieuren und Praktikern eine automatische Softwareplattform, die als „computergestütztes Wartungsmanagementsystem“ bezeichnet wird, mit einigen Vorteilen, aber auch einigen Auslassungen. Ingenieure und Praktiker können oft nicht auf die Implementierung des computergestützten Instandhaltungsmanagementsystems warten, ihre Richtlinien erfordern seit der Inbetriebnahme der Ausrüstung oder Anlage zuverlässige Informationen. Sie möchten möglicherweise schneller Zuverlässigkeitsergebnisse erhalten als bei Daten, die von Produkten stammen, die unter normalen Bedingungen betrieben werden. Diese Situation wird normalerweise mit der Erfahrung des Wartungspersonals konfrontiert, aber es treten mehrere Mängel an Robustheit der Daten auf. Alternative, genauere Ansätze sind beschleunigte Tests und Fehlerdatenvorhersage unter Verwendung einer vorhandenen Datenbank.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84882-575-8_7 ee56a9ffdd743eca0457541623972673;de;;;6.1.;;;Könnte die Blockchain-Technologie Patienten stärken, die Ausbildung verbessern und die Forschung in Radiologieabteilungen fördern? Eine offene Frage für zukünftige Anwendungen Blockchain kann als digitale Datenbank von kryptographisch validierten Transaktionen betrachtet werden, die als Datenblöcke gespeichert sind. Kopien der Datenbank werden in einem Peer-to-Peer-Netzwerk verteilt, das sich an ein Konsensprotokoll zur Authentifizierung neuer Blöcke in der Kette hält. Während diese Technologie in der Vergangenheit auf Finanzanwendungen beschränkt war, wird sie schnell zu einem heißen Thema im Gesundheitswesen und in der wissenschaftlichen Forschung. Mögliche Anwendungen in der Radiologie reichen von einer verbesserten Überwachung der Erreichung von Schulungsmeilensteinen für Assistenzärzte bis hin zu einer verbesserten Kontrolle der klinischen Bildgebungsdaten und einer einfacheren Erstellung sicherer gemeinsamer Datenbanken.;-;-;-;https://link.springer.com/article/10.1007/s10278-019-00246-8 83ac9fb955b11147d66f25d66292ea7a;de;;;6.1.;;;Optimierung der Speicherbandbreiteneffizienz mit vom Benutzer bevorzugten Kernel-Merge Erdsystemmodellierungsberechnungen verwenden häufig Schablonen, während viele Kernel ausgeführt werden. Eine optimale Codierung der Schablonen ist wesentlich, um die Speicherbandbreite einer zugrunde liegenden Hardware effizient zu nutzen. Dies ist wichtig, da Schablonenberechnungen speichergebunden sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-48340-1_6 a9b1fea5c553958f0ccf549f10bede7d;de;;;6.1.;;;Public Auditing Schemes (PAS) für dynamische Daten in der Cloud: Ein Rückblick Mit dem Aufkommen des Cloud Computing ist die Speicherung in der Cloud zu einem steigenden Trend geworden. Es erleichtert Benutzern, ihre Daten auf einem Remote-Server zu speichern. Sicherheit ist eines der wichtigsten Probleme beim Cloud Computing. Die Prinzipien der Sicherheit gespeicherter Daten sind ein blühendes Forschungsthema. In der Literatur wird über verschiedene Methoden für sichere und effiziente öffentliche Finanzkontrollen berichtet. Diese Methoden sind jedoch nicht gegen verschiedene Angriffe wie Sybil, Ressourcenerschöpfung und Cloud-Speicherverlust geschützt. Es hat sich herausgestellt, dass mehrere Schemata ein effizientes öffentliches Prüfungsschema auf der Grundlage von Vektorzusage, lokaler Verifizierungssperrung und Gruppensignatur bereitstellen können. Das vorliegende Papier konzentriert sich auf verschiedene Schemata, die für die Aufrechterhaltung der Sicherheit bei dynamischen Daten in der Cloud verfügbar sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1423-0_21 b222a0d3ebb4440961ecb25d90ea85d7;de;;;6.1.;;;Bereitstellung skalierbarer Datendienste in allgegenwärtigen Netzwerken Die Topologie ist ein grundlegender Teil eines Netzwerks, der die Konnektivität zwischen Knoten, die Menge des Datenflusses und die Effizienz des Datenflusses zwischen Knoten regelt. In traditionellen Netzwerken bleibt die Topologie aufgrund physikalischer Beschränkungen für den Verlauf des Netzwerkbetriebs statisch. Ubiquitäre Datennetzwerke (UDNs) sind alternativ anpassungsfähiger und können für Änderungen in ihrer Topologie konfiguriert werden. Diese Flexibilität bei der Steuerung ihrer Topologie macht sie sehr attraktiv und ein attraktives Medium, um die Kommunikation „überall, an jedem Ort“ zu unterstützen. Es wirft jedoch das Problem auf, eine dynamische Topologie zu entwerfen. Das Designproblem der dynamischen Topologie ist von besonderem Interesse für Anwendungsdienstanbieter, die kosteneffektive Datendienste in einem allgegenwärtigen Netzwerk bereitstellen müssen. In diesem Papier beschreiben wir Algorithmen, die entscheiden, wann und wie die Topologie als Reaktion auf eine Änderung der Datenkommunikationsanforderungen des Netzwerks neu konfiguriert werden sollte. Insbesondere beschreiben und vergleichen wir einen gierigen Algorithmus, der häufig zur Topologie-Rekonfiguration verwendet wird, mit einem nicht gierigen Algorithmus, der auf metrischen Aufgabensystemen basiert. Experimente zeigen, dass der auf einem metrischen Aufgabensystem basierende Algorithmus eine vergleichbare Leistung wie der gierige Algorithmus bei viel geringeren Rekonfigurationskosten aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14589-6_45 28b944096a140962b4ba3b6a0ca5da38;de;;;6.1.;;;IECS: Ein integriertes E-Community-System für Management, Entscheidung und Service Der Beitrag stellt ein integriertes E-Community-System (IECS) für Management, Entscheidung und Service vor, das für das E-Government-Projekt des Bezirks Haishu in Ningbo, Zhejiang, China, entwickelt wurde. Das Projekt muss die Integration von Managementinformationen und Serviceinformationen aller Gemeinden im Distrikt fördern, indem eine einheitliche Plattform bereitgestellt wird, auf der verschiedene Abteilungen der Distriktverwaltung Gemeindeinformationen austauschen und austauschen, Regierungsbenutzer Informationen analysieren und Entscheidungen treffen können, und externe Benutzer können auf Serviceinformationen zugreifen und diese anfordern. Um den Projektbedarf zu decken, besteht das IECS aus fünf Teilen: 1) Die Zentrale Datenbank (CDB), die alle Informationen im Zusammenhang mit Management, Entscheidung und Service der Gemeinden speichert, 2) Das Information Extracting Subsystem (IES), das Daten aus vielen extrahiert Datenquellen, wandelt sie um und lädt sie in die CDB für Systemadministratoren, 3) Das Informationsmanagement-Subsystem (IMS), das die Abfrage und den Austausch von Informationen für Regierungsbenutzer sowie die Informationspflege, Rechteverwaltung und Protokollverwaltung für Systemadministratoren ermöglicht, 4) Die Intelligente Analysis Subsystem (IAS), das analysebezogene Daten aus der CDB extrahiert und in ein Data Warehouse lädt und mehrdimensionale Analyse- und Entscheidungsfunktionen für Regierungsbenutzer bereitstellt, 5) Die Informationsdienst-Website (ISW), über die die Regierung Benutzer und Systemadministratoren können Verwaltungs- und Serviceinformationen sammeln und freigeben, und externe Benutzer können auf erforderliche Informationen zugreifen. Das IECS unterstützt Management, Entscheidung und Service einer Regierung auf der Grundlage einer einheitlichen Datenplattform – der CDB. Es gewährleistet auch die Datensicherheit, indem es unterschiedliche Arbeitsplätze und Rechte für verschiedene Benutzer bereitstellt. In der realen Anwendung funktioniert das System gut.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30466-1_50 83513cbd7a70c41c4079f74c0a20c9fd;de;;;6.1.;;;Verstehen und Vorbereiten der DNS-Evolution Das Domain Name System (DNS) ist ein wesentlicher Bestandteil des heutigen Internets. Die oberste Schicht der DNS-Hierarchie (die Root-Nameserver) steht vor dramatischen Veränderungen: kryptografisches Signieren der Root-Zone mit DNSSEC, Bereitstellung von Internationalized Top-Level Domain (TLD) Names (IDNs) und Hinzufügen weiterer neuer globaler Top Level Domains (TLDs). ). ICANN hat angekündigt, all diese Änderungen in den nächsten ein oder zwei Jahren umzusetzen, und es besteht ein wachsendes Interesse an Messungen, Tests und Vorkehrungen für vorhersehbare (oder unvorhergesehene) Komplikationen. Wir beschreiben die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12365-8_1 06d9e64eb12245d214b7c702f7457564;de;;;6.1.;;;Untersuchung der Erfahrungen und Wahrnehmungen von Hämodialysepatienten beim Fasten im Ramadan: eine qualitative Studie Das Fest Ramadan ist ein Monat der spirituellen Besinnung für Muslime weltweit. Während des Ramadan müssen Muslime tagsüber auf Essen und Trinken verzichten. Obwohl vom Fasten befreit, entscheiden sich viele Patienten, die sich einer Hämodialyse (HD) unterziehen, für diese religiöse Praxis. Viele Studien haben die Auswirkungen des Ramadan auf gesundheitliche Ergebnisse untersucht, jedoch fehlt es an einer Untersuchung aus der Sicht der Patienten in Bezug auf diese religiöse Praxis. Daher wollten wir die Erfahrungen und Wahrnehmungen von muslimischen Huntington-Patienten untersuchen, die das Ramadan-Fasten von drei Huntington-Zentren in Klang Valley, Malaysia, beobachteten.;-;-;-;https://link.springer.com/article/10.1186/s12882-021-02255-8 f86d32a27de2c9b3102dfe5c071e6720;de;;;6.1.;;;Wem gehört Ihr Kot?: Einblicke in die Schnittmenge der menschlichen Mikrobiomforschung und die ELSI-Aspekte des Biobankings und verwandter Studien Während die sozialen, ethischen und rechtlichen Auswirkungen von Biobanking und groß angelegtem Datenaustausch bereits kompliziert genug sind, könnten sie durch die Erforschung des menschlichen Mikrobioms noch verstärkt werden.;-;-;-;https://link.springer.com/article/10.1186/1755-8794-4-72 259531aa45db4bf3e5ca43915bca2c47;de;;;6.1.;;;Missbrauch von Computern Missbrauch von Computern ist eine Bedrohung, die sichere Computerpraktiken nicht abwehren können. Wenn Computer missbraucht werden, wird die Sicherheit normalerweise nicht verletzt. Stattdessen werden normalerweise legitime Computerkapazitäten verwendet, um Einzelpersonen und der Gesellschaft zu schaden. Viele Innovationen haben sowohl gute als auch schlechte Folgen. Heutzutage sind viele der schlimmen Folgen der Computernutzung, wie Computerbetrug und Fake News in den sozialen Medien, bekannt und unbestreitbar. Wir können Kinderpornografie nicht mit besseren Backup-Praktiken oder stärkeren Passwörtern stoppen. In vielen Fällen unterscheiden unsere Gesetze nicht klar zwischen schädlichen und harmlosen Praktiken. Mit einem besseren Verständnis der Probleme können wir jedoch Gesetze ändern und für eine bessere Zukunft planen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-2430-4_5 8fe878af4bd1f791b4f8c5c57e282953;de;;;6.1.;;;Verwaltung von Informationssicherheit und Datenschutz beim Data Mining im Gesundheitswesen In diesem Kapitel werden Probleme bei der Verwaltung des Datenschutzes und der Sicherheit von Gesundheitsinformationen untersucht, die zum Mining von Daten verwendet werden, indem deren Grundlagen, Komponenten und Prinzipien sowie relevante Gesetze und Vorschriften überprüft werden. Es enthält auch einen Literaturüberblick zu technischen Fragen der Datenschutzsicherung und eine Fallstudie, die einige potenzielle Fallstricke beim Data Mining von individuell identifizierbaren Informationen veranschaulicht. Das Kapitel schließt mit Empfehlungen für bewährte Datenschutz- und Sicherheitspraktiken für medizinische Data Miner.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-25739-X_4 629a5e52468d58f665f84f7475e732db;de;;;6.1.;;;Ein webbasiertes Revisionskontroll-Framework für 3D-CAD-Modelldaten Eine Kalibrierung der webbasierten Berechnung und Darstellung von Unterschieden zwischen 3D-CAD-Modellen ist eine wichtige und herausfordernde Aufgabe in verteilten, kollaborativen und integrierten Konstruktionsbereichen. Viele Entwickler von CAD-Anwendungen verfügen über verbesserte Benutzeroberflächen und Konnektivitätsunterstützung, die eine bequeme Einbindung von Online-Informationen und Webanwendungen ermöglichen. Die Darstellung des Unterschieds umfasst eine Reihe von Schritten wie das Hochladen der 3D-Modelldatendatei auf den STL-Konvertierungsserver, das Berechnen der Unterschiede und das Visualisieren auf der Webseite. Dieses Dokument beschreibt die Schritte eines beteiligten webbasierten Revisionskontrollsystems, das die meisten nativen CAD-Formate unterstützt. C#, JavaScript-Programmiersprache, PHP-Technik und MySQL-Datenbanksystem wurden verwendet, um das Framework zu entwickeln, und einige spezielle Techniken wie Constructive Solid Geometry (CSG) und WebGL-Technologie wurden im System verwendet. Wir schließen mit einer Erörterung einiger der durch das Projekt aufgeworfenen Probleme und der Schritte zu ihrer Lösung.;-;-;-;https://link.springer.com/article/10.1007/s12541-013-0240-6 a0f5775a090ccc2b2f77286c67298c7e;de;;;6.1.;;;Eine experimentelle Studie zu Datenübertragungsstrategien zur Ausführung wissenschaftlicher Arbeitsabläufe Der Beitrag untersucht den Einfluss von Datenübertragungsstrategien auf die Ausführung wissenschaftlicher Arbeitsabläufe. Es werden fünf Strategien beschrieben, die festlegen, wann und in welcher Reihenfolge Datentransfers während der Workflow-Ausführung erfolgen. Die Strategien werden experimentell mittels Simulation anhand eines realistischen Netzmodells evaluiert. Es wird gezeigt, dass die Ausführungszeit datenintensiver Workflows maßgeblich von der verwendeten Strategie abhängt. Insbesondere die Eager- und Lazy-Strategien, die in Theorie und Praxis der Workflow-Planung häufig verwendet werden, zeigen in den meisten Fällen die schlechten Ergebnisse. Die alternativen Strategien bieten eine Makespan-Verbesserung von bis zu 36 % durch überlappende Kommunikation und Berechnungen, Priorisierung von Datenübertragungen und Reduzierung von Netzwerkkonflikten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-25636-4_6 839c110483c82ebe20585fd4b73d7936;de;;;6.1.;;;Herausforderungen der Bioinformatik an die Informatik Der Workshop Bioinformatics’ Challenges to Computer Science umfasst die Themen Datenmanagement und -integration, Modellierung und Simulation biologischer Systeme sowie Datenvisualisierung und Bildverarbeitung. Dieses kurze Paper beschreibt die Anforderungen der Bioinformatik an die Informatik, fasst die für den Workshop angenommenen Papers zusammen und gibt einen kurzen Ausblick auf zukünftige Entwicklungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69389-5_9 92666880661920bb0fb5f417c6fc6d27;de;;;6.1.;;;Produktplattform Design Services Architektur und Schlüsseltechnologien basierend auf Cloud Computing Ein neuer Produktdesignmodus, der auf Cloud Computing basierende Produktplattformdesigndienstmodus, wird vorgeschlagen. Es kann die Produktentwicklungsressourcen von Unternehmen effektiv integrieren und auf dynamische und unvorhersehbare Marktanforderungen reagieren, indem es Serialisierungs-, personalisierte, diversifizierte und qualitativ hochwertige Produkte erstellt. Der Forschungshintergrund, Eigenschaften und Konnotationen des Plattform-Design-Dienstes werden kurz beschrieben. Die Aufmerksamkeit konzentriert sich auf das Plattformdienstanwendungsmodell. Der Schwerpunkt liegt auch auf dem technischen Architektur- und Design-Service-Prozess. Einige Schlüsseltechnologien wie Realisierungsverfahren, Dienstbeschreibung, Diensterkennung, Nachrichtenkommunikation und Dienstorganisation werden diskutiert. Der Zweck dieser Studie besteht darin, die Nutzungseffizienz verteilter Unternehmensproduktentwicklungsressourcen zu verbessern und die Fähigkeiten zur Servicezusammenarbeit zur Integration von Produktdesignressourcen zu stärken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38442-4_136 3d825b7fecbee6912982f3979409a667;de;;;6.1.;;;Erkennung von schlafbezogenen Atemstörungen durch gitterbasierte Biosignalverarbeitung Schlafbezogene Atmungsstörungen (SRBD) sind eine der Haupterkrankungen in der Schlafmedizin. Zur Diagnose und Therapienachsorge sind umfangreiche Untersuchungen über Nacht erforderlich, die eine Langzeitmessung mehrerer Biosignale in spezialisierten Schlafstörungszentren umfassen. Bisher erfolgt die Auswertung der Untersuchung durch eine umfassende Sichtprüfung der Daten durch einen Sachverständigen. Um die Diagnostik zu erleichtern und zu verbessern, werden in der Schlafforschung aktuelle Versuche unternommen, computergestützte Diagnosetools zu entwickeln sowie mobile Sensorgeräte zur Biosignalmessung in der Patientenumgebung bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03882-2_277 48fdc9e78c42b647b0567b1e8db6eb4f;de;;;6.1.;;;Die integrierte Informationsarchitektur: Ein Pilotstudienansatz zur Nutzung des Logistikmanagements im Hinblick auf die Influenza-Vorsorge Die Influenza-Pandemie gilt als katastrophal für die globale Gesundheit mit schwerwiegenden wirtschaftlichen und sozialen Auswirkungen. Folglich muss eine Strategie für die rasche Bereitstellung lebenswichtiger medizinischer Hilfsgüter zur Prävention der Influenza-Übertragung und zur Linderung der öffentlichen Panik aufgrund des erwarteten Mangels an solchen Hilfsgütern entwickelt werden. Daher entwickeln wir mit integrierten Informationskonzepten ein simuliertes Versorgungssystem für medizinisches Influenza-Material, um eine schnelle Reaktion auf eine solche Krise zu ermöglichen. Es werden verschiedene Szenarien analysiert, um die bei verschiedenen pandemischen Influenza-Ausbrüchen erforderliche angemessene Bestandspolitik abzuschätzen und einen Mechanismus zur Bewertung der notwendigen Medikamentenbestände und anderer Anforderungen in den verschiedenen Phasen der Pandemie zu etablieren. Diese Studie erstellte einen Rahmenprototyp eines webbasierten Entscheidungsunterstützungssystems, der transparente Daten zu medizinischen Vorräten in jedem Distrikt und integrierte Expertenmeinungen über die beste Verteilung dieser Vorräte in den Szenarien einer Grippepandemie anzeigte. Ein Datenerfassungssystem wurde auch entwickelt, um Informationen über ein tägliches VPN zu sammeln, das zu Berichts- und Verteilungszwecken in ein zentrales Repository übertragen wird. Diese Studie liefert zeitnahe und transparente Informationen zur Verteilung von medizinischem Material, die Entscheidungsträgern helfen können, die richtigen Entscheidungen bei verschiedenen pandemischen Influenza-Ausbrüchen zu treffen, und versucht auch, einen Mechanismus zur Bewertung der Bestände und des Bedarfs in den verschiedenen Phasen der Pandemie zu etablieren.;-;-;-;https://link.springer.com/article/10.1007/s10916-010-9458-3 d9a032ba1098eb4553fa7a28a6e7e60f;de;;;6.1.;;;PLM-Anwendungen Dieses Kapitel befasst sich mit den Anwendungen, die in der PLM-Umgebung verwendet werden. So wie es im Rahmen von PLM viele Prozesse und viele Arten von Produktdaten gibt, gibt es auch viele Anwendungen. In diesem Kapitel werden mehr als fünfzig verschiedene Anwendungsarten kurz beschrieben. Innerhalb einiger dieser Gruppen werden mehr als hundert verschiedene Anwendungen von verschiedenen Anbietern bereitgestellt. Insgesamt gibt es tausende verschiedene Anwendungen im PLM-Umfeld. Obwohl es Tausende von Anwendungen gibt und sie für viele verschiedene Dinge in sehr unterschiedlichen Situationen verwendet werden, haben sie einige gemeinsame Merkmale. Einer ist, dass sie reibungslos mit anderen Anwendungen verbunden sein müssen. Eine andere ist ihre Fähigkeit, riesige Mengen an Produktdaten zu erstellen, die dann verwaltet werden müssen. Dieses Kapitel bietet eine Einführung in Anwendungen in der PLM-Umgebung. Es vermittelt ein grundlegendes Verständnis von PLM-Anwendungen und verwandten Aktivitäten. Es bietet Anwendungsbeispiele und zeigt, warum diese für PLM relevant sind. Probleme mit Anwendungen werden angesprochen. Die Datenzuordnung wird eingeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24436-5_10 61d91cef6b377f8ab405ae8b229b2f81;de;;;6.1.;;;Outbound-Logistikmanagementpraktiken in der Automobilindustrie: eine Perspektive der Schwellenländer Outbound-Logistikmanagement-Praktiken, speziell für Indien, haben in der Vergangenheit nur wenig Aufmerksamkeit auf sich gezogen. In letzter Zeit hat dieser Sektor jedoch erneut die Aufmerksamkeit von Forschern und Praktikern auf sich gezogen. Durch eine explorative Studie versuchen wir, die Outbound-Logistikmanagementpraktiken der Automobilindustrie in Indien zu verstehen und zu veranschaulichen. Die Outbound-Logistik wird basierend auf einem Logistik-Framework in eine Reihe von miteinander verknüpften Funktionen unterteilt und entsprechend beschrieben. Basierend auf den Ergebnissen der explorativen Studie und der vorhandenen Literatur auf diesem Gebiet wird ein Rahmen für die Entwicklung integrierter Logistikmanagementpraktiken in der Automobilindustrie in Indien abgeleitet und mehrere Forschungsrichtungen vorgeschlagen.;-;-;-;https://link.springer.com/article/10.1007/s40622-015-0122-0 00acedb3415862c52725a502f492bf8b;de;;;6.1.;;;Implementierung von Mobile Computing in kanadischen Homecare-Programmen: Projektrisikomanagement und sein Einfluss auf den Projekterfolg Mobile Computing ist eine von einer wachsenden Zahl von Informationstechnologien, die im Kontext von häuslichen Pflegediensten eingesetzt werden. Während Home-Telemonitoring klinische Interventionen ermöglicht enables;-;-;-;https://link.springer.com/chapter/10.1007/8754_2011_24 487b97e4db61ff0d4942cdc2d58e6ff0;de;;;6.1.;;;Zugriffskontrolle für Webdaten: Modelle und Richtliniensprachen Das Web hat eine enorme Menge an Informationen in digitaler Form leicht zugänglich gemacht und den Austausch solcher Informationen erleichtert. In dieser Umgebung ist die Zugriffskontrolle ein Hauptanliegen. Die Schlüsselfrage besteht darin, einen Kompromiss zwischen der Maximierung des Informationsaustauschs und der Durchsetzung eines kontrollierten Zugriffs auf Webdaten zu finden. In diesem Dokument beginnen wir damit, die wichtigsten Anforderungen an die Zugriffssteuerung von Webdaten zu skizzieren. Anschließend überprüfen wir die auf diesem Gebiet durchgeführten Forschungen, wobei wir uns hauptsächlich auf XML konzentrieren. Schließlich diskutieren wir Politiksprachen für das Semantic Web und skizzieren die wichtigsten Forschungsrichtungen in diesem Bereich.;-;-;-;https://link.springer.com/article/10.1007/BF03219908 7c6699ccf2721d59fe1787c506d37ac3;de;;;6.1.;;;Geschäftsexperiment Schiffbau Werften in Europa können nicht allein aufgrund des Preises mit Konkurrenten aus Übersee konkurrieren, insbesondere denen, die von niedrigeren Arbeitskosten profitieren. Daher müssen sich europäische Schiffbauer auf hochwertige Bauprojekte konzentrieren, die hochqualifizierte Arbeitskräfte erfordern und speziell auf die Anforderungen ihrer Kunden zugeschnitten sind. Somit ist jedes Schiff ein Unikat, das nur einmal oder in Kleinstserien produziert wird. Um ihre Wettbewerbsposition zu verbessern, ist es für moderne Werften unerlässlich, die fortschrittlichsten Simulations- und Konstruktionswerkzeuge nutzen zu können, um komplexe Strukturen kostengünstig herzustellen. Ziel ist es, die technischen und wirtschaftlichen Risiken, die mit großen und komplexen Schiffbauprojekten verbunden sind, zu erkennen und zu reduzieren. Die Vision ist der komplette virtuelle Entwurf und Bau eines Schiffes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05193-7_10 f84f077ff87b31dcb68f0c924e7744ea;de;;;6.1.;;;Verlustfreie Verdichtung von Modellausführungsspuren Dynamische Verifikations- und Validierungstechniken (V&V) werden verwendet, um das Verhalten von Softwaresystemen früh im Entwicklungsprozess zu verifizieren und zu validieren. Im Kontext des modellgetriebenen Engineerings werden solche Verhaltensweisen in der Regel mit ausführbaren domänenspezifischen Modellierungssprachen (xDSML) definiert. Viele V&V-Techniken verlassen sich auf;-;-;-;https://link.springer.com/article/10.1007/s10270-019-00737-w 0d7603ef3b56a0f461b634fb6658aae1;de;;;6.1.;;;Studie zur intelligenten Management- und Steuerungstechnik für die Imkereiproduktion Mit Blick auf das Hauptschlachtfeld des modernen Agrarbaus führt die Wisdom Bee Industry Platform die Schlüsseltechnologieforschung und Produktentwicklung der intelligenten Verwaltung und Kontrolle der Bienenproduktion in der Imkereiindustrie durch. Ausgehend von der umfassenden Anwendung landwirtschaftlicher Informationstechnologien wie mobile Internet-Technologie, künstliche Intelligenz-Technologie und Internet-of-Things-Technologie, konzentriert sich dieser Beitrag auf die Informationssammlung und Überwachung des Internets der Dinge im Bienenhof, der Schlüsselausrüstung des intelligenten Bienenstocks , das Qualitäts- und Sicherheitskontrollsystem der Bienenprodukte und die Big-Data-Analysetechnologie der gesamten Industriekette. Durch intelligente Sensorik, Vernetzung und Big-Data-Analyse implementiert dieses Papier ein intelligentes Management von Informationen der Bienenindustrie und bietet Benutzern einen standardisierten, automatisierten und intelligenten Informationsdienstmodus für die Bienenindustrie.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8342-1_26 05e37ca5d9580862b31274f96ca84b22;de;;;6.1.;;;Digitale Bibliotheksspeicherung mit iRODS Data Grids Digitale Repository-Software bietet eine leistungsstarke und flexible Infrastruktur für die Verwaltung und Bereitstellung komplexer digitaler Ressourcen und Metadaten. Bei der Verwaltung der sehr großen, verteilten Datendateien, die diese Ressourcen bilden können, können jedoch Probleme auftreten. Dieses Papier beschreibt einen Implementierungsansatz, der die digitale Fedora-Repository-Software mit einer als Datengrid implementierten Speicherschicht kombiniert, wobei die von DICE (Data Intensive Cyber ​​Environments) entwickelte iRODS-Middleware als Nachfolger von SRB verwendet wird. Dieser Ansatz ermöglicht es uns, die flexible Architektur von Fedora zu verwenden, um die Struktur von Ressourcen zu verwalten und den Benutzern Dienste auf Anwendungsebene bereitzustellen. Die gitterbasierte Speicherschicht bietet eine effiziente Unterstützung für die Verwaltung und Verarbeitung der zugrunde liegenden verteilten Datenobjekte, die sehr groß sein können (z. B. audiovisuelles Material). Die in iRODS integrierte Rule Engine dient der Integration komplexer Workflows auf Datenebene, die für Benutzer nicht sichtbar sein müssen, z.B. digitale Langzeitarchivierungsfunktion.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-0046-3_11 6319a54acc32d27d8a2208a834054580;de;;;6.1.;;;Klinisches Studienmanagement und Datenferneingabe im Internet Trotz des weit verbreiteten Einsatzes von Informationstechnologie und Kommunikationsfortschritten in der pharmazeutischen Industrie gibt es immer noch einige Schritte des klinischen Prozesses, wie die Sammlung klinischer Daten, die diese technologische Revolution nicht nutzen. Um zu überprüfen, ob eine neue Technologie wie das Internet sowohl die Datenerfassung beschleunigen als auch die Gesamtqualität der Daten verbessern kann, haben das italienische Unternehmen Glaxo Wellcome und IBM ein Pilotprojekt namens CLINical Trial & Research Management via Internet (CLINT&RNET) gemeinsam gesponsert. Im Rahmen dieses gemeinsamen Projekts hat IBM die Internetanwendung zur Datenerfassung entwickelt und Glaxo Wellcome hat sich um die klinischen und organisatorischen Aspekte gekümmert, immer in Übereinstimmung mit den behördlichen Gesetzen. Dieses Papier fasst die technischen Aspekte des Projekts zusammen.;-;-;-;https://link.springer.com/article/10.1177/009286159903300410 5fc8afe31d9b2dde04a87cbf2cf06888;de;;;6.1.;;;Protokolle und Designstrukturen für Fahrzeugnetzwerke Mit der ständig steigenden Nachfrage nach durchdringender Verarbeitung von Big Data aus heterogenen Geräten und Netzwerken steigt die Nachfrage nach optimalen Netzwerken in Vehicle-to-Vehicle (V2V)-Kommunikationsmodellen. Eine effektive Kommunikation heterogener Geräte mit nicht-identischen Kommunikationskonsolen erfordert, dass die Geräte mit einer gut sortierten Software- und Hardware-Abstraktion verbunden sind, um eine nahtlose Interaktion und den Informationsaustausch zwischen den Technologien unterschiedlicher Art zu ermöglichen, die von verschiedenen Anbietern bereitgestellt werden. In den informationsintensiven Umgebungen von heute kann die Verarbeitung mehrdimensionaler Daten von heterogenen Smart Devices in einer vernetzten Umgebung eine große Herausforderung sein. Die Art des Netzwerks, das die V2V-Kommunikation unterstützt, ist entscheidend für die Gesamtfunktionalität der vernetzten Fahrzeugkommunikation. Obwohl über verschiedene V2V-Netzwerke ein beträchtlicher Wissensschatz vorliegt, gibt es nur begrenzte Forschung zu Komponenten für die Topologie und architektonische Anordnung für optimale Fahrzeugnetzwerke. Es besteht auch eine Wissenslücke darüber, was Topologien und Routing-Mechanismen in Fahrzeugnetzwerken beeinflussen soll. Dieses Kapitel ist das Ergebnis einer Forschung, die sich auf optimale Designs für Fahrzeugnetzwerke konzentriert, die aus einer Synthese von Wissen in verschiedenen Kontexten gipfeln. Diese Forschung rückt die Prinzipien, Protokolle, Topologien und Speicheroptionen in den Vordergrund, die Fahrzeugnetzwerken zugrunde liegen. Das Kapitel schlägt einen konzeptionellen Rahmen vor, der eine grundlegende Architekturkonfiguration artikuliert, die in mobilen Ad-hoc-Netzwerken (MANET) mit Schwerpunkt auf ressourcenbeschränkten Kontexten verwendet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36167-9_5 b30ca4a4cacfb3686d6d7094fe30ebc7;de;;;6.1.;;;TREatment of Atopic Eczema (TREAT) Registry Taskforce: Protokoll für eine internationale Delphi-Übung zur Identifizierung eines Kernsatzes von Domänen und Domänenelementen für nationale Register für atopische Ekzeme Patienten mit mittelschwerem bis schwerem atopischem Ekzem (AE) benötigen häufig photo- oder systemische immunmodulatorische Therapien, um eine Remission der Erkrankung zu induzieren und eine langfristige Kontrolle zu erhalten. Die aktuelle Evidenz für das klinische Management ist gering, trotz der häufigen und oft Off-Label-Anwendung dieser Behandlungen. Register von Patienten mit photo- und systemischen immunmodulatorischen Therapien könnten diese Lücke schließen, und die Sammlung eines Kernsatzes zu diesen Therapien bei AE wird direkte Vergleiche zwischen Registern sowie den Datenaustausch und das Pooling ermöglichen.;-;-;-;https://link.springer.com/article/10.1186/s13063-016-1765-7 d068c2ddc050772870a4f310e528df53;de;;;6.1.;;;Modellbasiertes formales Denken über Datenverwaltungsanwendungen Datenverwaltungsanwendungen konzentrieren sich auf sogenannte CRUD-Aktionen, die Daten aus dem persistenten Speicher erstellen, lesen, aktualisieren und löschen. Diese Operationen sind die Bausteine ​​für zahlreiche Anwendungen, zum Beispiel dynamische Websites, auf denen Benutzer Konten erstellen, Informationen speichern und aktualisieren und basierend auf ihren gespeicherten Daten angepasste Ansichten erhalten. Normalerweise sind die Daten der Anwendung erforderlich, um einige Eigenschaften zu erfüllen, die wir als Dateninvarianten der Anwendung bezeichnen können. In diesem Beitrag stellen wir eine toolgestützte, modellbasierte Methodik vor, mit der nachgewiesen werden kann, dass alle möglicherweise von einer Datenmanagementanwendung ausgelösten Aktionen tatsächlich die Dateninvarianten der Anwendung erhalten. Darüber hinaus berichten wir über unsere Erfahrungen mit der Anwendung dieser Methodik an einem nicht trivialen Fallbeispiel: nämlich einer Anwendung zur Verwaltung von Krankenakten, für die über achtzig Dateninvarianten nachgewiesen werden müssen, um sie zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46675-9_15 87fee153ad6f54a2e3717bfb5911f164;de;;;6.1.;;;Bewertung der Quelldatenverifizierung als Qualitätskontrollmaßnahme in klinischen Studien TransCelerate hat eine risikobasierte Überwachungsmethodik entwickelt, die die Überwachung klinischer Studien von einem Modell, das auf der Quelldatenverifizierung (SDV) basiert, in einen umfassenden Ansatz verwandelt, der funktionsübergreifende Risikobewertung, Technologie und adaptive Vor-Ort-, Off-Site- und Zentral- Überwachungsaktivitäten zur Gewährleistung der Datenqualität und der Themensicherheit. Es gibt Hinweise darauf, dass Überwachungsmethoden, die sich auf das Wesentliche für eine Studie und einen Standort konzentrieren, bessere Ergebnisse erzielen können als herkömmliche SDV-gesteuerte Modelle. Dieser Artikel bewertet den Wert von SDV bei der Überwachung klinischer Studien anhand einer Literaturrecherche, einer retrospektiven Analyse von Daten aus klinischen Studien und einer Bewertung wichtiger und kritischer Ergebnisse aus internen Audits von TransCelerate-Mitgliedsunternehmen. Die Ergebnisse stützen die Hypothese, dass generalisierte SDV als Qualitätskontrollmaßnahme begrenzten Wert hat und verstärken den Wert anderer risikobasierter Überwachungsaktivitäten.;-;-;-;https://link.springer.com/article/10.1177/2168479014554400 ab9a56e733c118c0339b68d67a27485e;de;;;6.1.;;;Ein Ansatz der Variationsungleichheit für marktfähige Emissionszertifikate In diesem Papier stellen wir einen Rahmen für Variationsungleichheit für die Modellierung, qualitative Analyse und Berechnung von Gleichgewichten auf Märkten für Verschmutzungszertifikate vor. Die hier entwickelten Modelle ermöglichen verschiedene Formen des Wettbewerbsverhaltens, einschließlich oligopolistischem Verhalten, während gleichzeitig die Kosten der Umweltverschmutzung zuzüglich der Preise für die Lizenzen für die Umweltverschmutzung an verschiedenen Annahmepunkten berücksichtigt werden. Die Modelle befassen sich explizit mit der räumlichen Differenzierung und stellen auch durch die erstmalige Vergabe von Genehmigungen sicher, dass die auferlegten Umweltqualitätsstandards eingehalten werden. Zusammen mit den Konvergenzergebnissen wird ein Algorithmus vorgeschlagen, um die gewinnmaximierten Produktmengen und Emissionsmengen der Unternehmen sowie die Gleichgewichtszuteilung von Lizenzen und deren Preise zu berechnen. Numerische Beispiele sind enthalten, um den Ansatz zu veranschaulichen. Dies ist das erste Mal, dass diese Methodik in der Umweltökonomie angewendet wird.;-;-;-;https://link.springer.com/article/10.1007/BF00119481 b3bdc9b784135ceb1fb76ece8c5bc947;de;;;6.1.;;;Stärkung mobiler Benutzer: Erstellen Sie Ihre eigene mobile Anwendung für die Datenerfassung in der Cloud In diesem Whitepaper wird eine Cloud-Infrastruktur vorgestellt, die es Benutzern ermöglicht, mobile Anwendungen zum Sammeln und Visualisieren von Daten zu erstellen. Das System bietet einfache und intuitive Schnittstellen zum Erstellen von Apps, ohne dass Programmierkenntnisse erforderlich sind, um sie zu entwickeln. Die Plattform ermöglicht das Sammeln konventioneller Daten wie Zahlen und Text, aber auch nicht-konventioneller Daten wie Multimediadateien, Standortinformationen, Barcodes usw. Die gesammelten Daten können zwischen Benutzern in einem sozialen Netzwerk geteilt werden, sodass Apps Extrahieren von Informationen aus den gesammelten Daten. Das System basiert auf freier Software und ist unter folgender Adresse erreichbar:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-05452-0_21 3fb16072995324da8cfb45605fbfc4c6;de;;;6.1.;;;Mobile Strategien für die globale Gesundheitsradiologie Ein wesentlicher Faktor für die Ungleichheit im Gesundheitswesen ist die geografische Isolation, die den Zugang der Patienten zu medizinischen Einrichtungen einschränkt. Die Weltbank schätzt, dass 900 Millionen bis 1 Milliarde Menschen ohne Zugang zu einer angemessenen Straßeninfrastruktur leben, wodurch Armut und schlechte Gesundheitsergebnisse aufrechterhalten werden. Solche Unterschiede können auch aus Naturkatastrophen und Krisengebieten resultieren, die zur physischen Isolation beitragen, oder aus langfristigen soziokulturellen Determinanten, einschließlich Bildungslücken, kultureller Wahrnehmung der medizinischen Versorgung und wirtschaftlichen Zwängen, resultieren. Mobile Health ist das Bestreben, Bedürftige mit Transportfahrzeugen wie Lastkraftwagen, Schiffen und Flugzeugen medizinisch zu versorgen, um geografische, infrastrukturelle und soziokulturelle Barrieren zu überwinden. Seit mehr als einem Jahrhundert wird die Radiologie auf Transportfahrzeugen mobilisiert, um isolierte Bevölkerungsgruppen zu erreichen. In diesem Kapitel wird die Rolle der Radiologie in mobilen Gesundheitslösungen für den Umgang mit Ungleichheiten im Gesundheitswesen analysiert. Diese Diskussion beschäftigt sich mit der Frage, warum Radiologie und medizinische Bildgebung für mobile Gesundheitsstrategien von entscheidender Bedeutung sind. Wir stellen die Komponenten vor, die bei der Umsetzung eines erfolgreichen mobilen Radiologie-Outreach-Programms angesprochen werden sollten, einschließlich ökonomischer Modellierung, technischer Planung, klinischer Arbeitsabläufe, Patientenzuweisungsnetzwerke und Geräteoptimierung. Transport- und radiologische Technologien haben sich durch die Weiterentwicklung von Bildgebungsgeräten und innovativen Flugzeug-, Automobil- und Computerfunktionen weiterentwickelt und eröffnen neue Möglichkeiten für die mobile Radiologie, medizinisch unterversorgte Bevölkerungsgruppen zu erreichen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98485-8_21 77038180d2a734dc5d58401cd415f006;de;;;6.1.;;;Verwendung semantischer Netze zur Suche nach Informationen Der Beitrag untersucht das Problem des Semantic Web, das den Ursprung und die Voraussetzung für das Verständnis von Kontext und Ideen lernen kann. Alle gängigen Suchalgorithmen in einer Vielzahl von Dokumenten basieren auf der Häufigkeit des Vorkommens der Suchphrase. Dieser Ansatz macht es unmöglich, Informationen über weniger bekannte Begriffe zu finden, die den bekanntesten ähnlich oder gleich sind. Daher wurde das Konzept entwickelt, eine Webseite von Webdokumenten in Webdaten umzuwandeln. Dieses Konzept wird als semantisches Web bezeichnet. Zukünftig soll die Seite strukturierte Daten über die Bedeutung der gespeicherten Daten enthalten. Ein Teil der Forschung in den theoretischen Abschnitten ist die Bewertung von Technologien, die in der Semantic-Web-Schicht enthalten sind. Es gibt stabile Formate zum Aufzeichnen von Wissen – RDF, RDFS, OWL und SPARQL-Protokoll. Strukturierte Daten können per RDF und Mikroformaten an Standard-HTML-Dokumente angehängt und per GRDDL extrahiert werden. Viele Wörterbücher wie FOAF, DOAC und SIOC sind weit verbreitet. Teil der Arbeit ist die Bewerbung, die sich in den Praxisteilen befindet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-62151-3_3 1c4f6a6ce7814ec984920a0b258381d9;de;;;6.1.;;;Prozesszentrierte Umgebungen föderieren: Die Oz-Erfahrung Wir beschreiben zwei Modelle für die Föderation prozesszentrierter Umgebungen (PCEs): homogene Föderation zwischen unterschiedlichen Instanzen desselben Umgebungsframeworks, die dieselben oder unterschiedliche Prozessmodelle umsetzen, und heterogene Föderation zwischen verschiedenen Prozessdurchführungssystemen. Wir identifizieren die Anforderungen und betrachten mögliche Architekturen für jedes Modell, wobei wir uns primär auf den homogenen Fall konzentrieren. Der Großteil des Papiers präsentiert unsere Wahl der Architektur und der entsprechenden Infrastruktur für eine homogene Föderation zwischen MARVEL-Umgebungsinstanzen, wie sie im OZ-System realisiert wird. Wir betrachten kurz, wie eine einzelne MARVEL-Umgebung oder eine OZ-Föderation von MARVEL-Umgebungen in eine heterogene Föderation basierend auf den Einrichtungen von ProcessWall für die Interoperabilität von PCEs integriert werden könnte.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008610426207 f9f253f0e2b6975de5cbc72a9e055a2f;de;;;6.1.;;;Zur Semantik von SPARQL Das Resource Description Framework (RDF) ist das Standarddatenmodell zur Darstellung von Informationen über World Wide Web-Ressourcen. Im Januar 2008 wurde die Empfehlung des W3C zum Abfragen von RDF-Daten, einer Abfragesprache namens SPARQL, veröffentlicht. In diesem Kapitel geben wir eine detaillierte Beschreibung der Semantik dieser Sprache. Wir konzentrieren uns zunächst auf die Definition einer formalen Semantik für den Kernteil von SPARQL und gehen dann zur Definition für die gesamte Sprache über, einschließlich aller Funktionen in der Spezifikation von SPARQL durch das W3C wie leere Knoten in Diagrammmustern und Tasche Semantik für Lösungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04329-1_13 d5f7ca2baa763cdadfb5e3f9a1eb8726;de;;;6.1.;;;Abrufen beliebiger XML-Fragmente aus strukturierten Peer-to-Peer-Netzwerken Dieses Papier schlägt eine neuartige Methode zum Speichern und Abrufen von XML in strukturierten P2P-Netzwerken vor. Peer-to-Peer (P2P), ein neues Paradigma im Bereich des verteilten Rechnens, erregt viel Aufmerksamkeit. Insbesondere DHT (Distributed Hash Table) bietet eine effektive und leistungsstarke Suche durch Peer-Collaboration. Das Abfragen beliebiger XML-Fragmente unter Verwendung von DHTs ist jedoch aufgrund der Impedanzfehlanpassung zwischen Hashing, dem Kernmechanismus der DHTs, und der komplexen Struktur von XML-Daten und dem XML-Abfragemodell eine Herausforderung. Um dieses Problem anzugehen, schlagen wir ein neuartiges Schema zum Verwalten von XML-Daten in DHT vor. Konkret setzen wir (virtuell) zwei Arten von DHTs ein, genannt Contents-DHT (C-DHT) und Structure-DHT (S-DHT), um Textinformationen bzw. Strukturinformationen abzubilden. Abfragen gegen gespeichertes XML werden unter Verwendung der DHTs gleichzeitig verarbeitet. Wir können daher beliebige XML-Fragmente abrufen. Die Wirksamkeit des vorgeschlagenen Schemas wird mit einer Reihe von Experimenten demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72524-4_34 eac5c8efbdb15c61cc19f3ce1434e600;de;;;6.1.;;;Einführung in die Datenqualität In diesem Kapitel haben wir erkannt, dass die Datenqualität ein multidisziplinäres Gebiet ist. Dies ist nicht verwunderlich, da Daten in verschiedenen Formaten und mit verschiedenen Medien in jeder realen oder geschäftlichen Aktivität verwendet werden und die Qualität von Prozessen, die Daten verwenden, stark beeinflussen. Viele private und öffentliche Organisationen haben die Auswirkungen der Datenqualität auf ihre Vermögenswerte und Aufgaben erkannt und daraufhin Initiativen mit großer Wirkung gestartet. Während gleichzeitig in monolithischen Informationssystemen Daten in kontrollierten Aktivitäten verarbeitet werden, werden mit dem Aufkommen von Netzwerken und dem Internet Daten mit viel „turbulenteren“ Prozessen erstellt und ausgetauscht, die ein ausgefeilteres Management erfordern.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-33173-5_1 4cbcd901647b9f23c7d571108a36a899;de;;;6.1.;;;Soziale, organisatorische und individuelle Auswirkungen der Automatisierung Gesellschaft und Information aus den evolutionären Anfängen. Die revolutionären Neuheiten unserer Zeit: die Möglichkeit des Aussterbens eines Menschen als Zugtier und die symbolische Darstellung des Individuums und seines Eigentums auf elektronischem Wege, frei von Distanz- und Zeitzwängen. Als Folge verändern sich die menschlichen Rollen in Produktion, Dienstleistungen, Organisationen und Innovation, verändern sich gesellschaftliche Schichtungen, menschliche Werte, Anforderungen an Fähigkeiten, individuelles Gewissen. Neue Beziehungen: Zentralisierung und Dezentralisierung, weniger Hierarchien, Disziplin und Autonomie, neue Arbeitsverhältnisse, weniger Arbeitsplatzsicherheit, mehr Freiberufler, Heimarbeit, strukturelle Arbeitslosigkeit, Verlierer und Gewinner, nach Alter, Geschlecht, Fähigkeiten, sozialer Herkunft. Allgemeine und berufliche Bildung, Niveaus, lebenslanges Lernen, sich ändernde Bildungsmethoden. Rolle des Gedächtnisses und der assoziativen Fähigkeiten. Veränderungen, die sich in den Sprachbeziehungen, der mehrsprachigen Weltgesellschaft, der Entwicklung und dem Verfall regionaler und sozialer Volkssprachen widerspiegeln. Gesellschaftspolitische Arena, Menschenrechte, Sozialphilosophien, Probleme und Perspektiven der Demokratie. Die globale Agora und die globale Medienregel. Eine gleichberechtigtere oder gespaltenere Gesellschaft. Einige typische Gesellschaftsmuster: USA, Europa, Fernost, Indien, Lateinamerika, Afrika.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78831-7_5 31a793bd67c8f24ecbbb76c502789d0d;de;;;6.1.;;;Ein QoS-fähiges Netzwerk, das ein E-Learning-Framework unterstützt Das Fernstudium hat weitgehend von den unglaublichen Fortschritten profitiert, die die Internetworking-Technologien in den letzten Jahren gemacht haben. Die Bereitstellung von Multimediadiensten mit garantierter QoS ist derzeit ein wichtiges Forschungsthema in der Computertechnik, insbesondere in den Bereichen Netzwerk und Informationsmanagement. In diesem Papier stellen wir eine italienische Forschungsstruktur (ITEM – CINI von Neapel) vor, die geschaffen wurde, um Fernzugriff auf reale Labors zu gewähren und Fernunterrichtsdienste wie die Entdeckung und Bereitstellung von Multimedia-Ressourcen im Bildungsanwendungsbereich bereitzustellen. Im ersten Teil des Beitrags stellen wir die Struktur und die Aktivitäten des ITEM-Labors vor und im zweiten Teil werden Metadatenmodelle für Quality of Software (QoS)-bewusste Informationsmanagementsysteme vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35700-3_9 2299b3e772d8f20b4cf24daad764f283;de;;;6.1.;;;Der Traum von einer nationalen Gesundheitsinformationstechnologie-Infrastruktur Die Transformation des US-Gesundheitssektors erfordert einen mehrgleisigen Ansatz, aber eine modernisierte Infrastruktur der Gesundheitsinformationstechnologie ist von zentraler Bedeutung für jede umfassende Strategie. Dem Affordable Care Act ging der Health Information Technology for Economic and Clinical Health (HITECH) Act voraus, der dazu beitrug, eine wesentliche Grundlage zu legen, indem er die Einführung und sinnvolle Nutzung elektronischer Patientenakten beschleunigte. Die Verknüpfung von Technologie und Zahlungsreform ist stark synergetisch. Gemeinden im ganzen Land nutzen aktiv die durch HITECH und den ACA geschaffenen Möglichkeiten, um die Gesundheit zu verbessern, die Pflege zu verbessern und die Bezahlbarkeit der Pflege zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-8351-9_8 9a34cba54a05ee9210e6b37f9a5559ee;de;;;6.1.;;;Transformation des indischen Sozialsektors mit Ontologie-basiertem Tantra-Framework Die zunehmende Akzeptanz des Wohlfahrtsstaatsmodells im Laufe der Jahrzehnte hat die Bürger in Indien entmachtet. Wir müssen den Menschen ermöglichen, ihre eigenen Entscheidungen zu treffen und ihr eigenes Schicksal zu bestimmen. Zu diesem Zweck haben wir ein Ontologie-basiertes Tantra Social Information Management Framework entwickelt. Tantra Framework kann verwendet werden, um gesellschaftliche Informationen ganzheitlich zu verwalten und eine gute Regierungsführung und sozialen Wandel herbeizuführen. Dieses Papier beschreibt das Tantra-Framework und wie es angewendet werden kann, um es der indischen Regierung zu ermöglichen, die Gelder, die sie im sozialen Sektor ausgibt, mithilfe eines neuartigen Systems namens Flexible Social Benefit Plan (FSBP) kreativ einzusetzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0882-7_69 62dec85095adcbc9127ba5216b2cd548;de;;;6.1.;;;Informationen zu Gesundheitsdiensten: Patientensicherheitsforschung mit Verwaltungsdaten Eine Vielzahl von Daten wird routinemäßig von Gesundheitsdienstleistern, Versicherern, Berufsverbänden und Regierungsbehörden zu Verwaltungszwecken gesammelt. Diese Daten sind leicht verfügbar, computerlesbar und decken große Bevölkerungsgruppen ab und sind zu wertvollen Ressourcen für die Forschung zur Patientensicherheit geworden. Es wurde eine große Anzahl beispielhafter Studien durchgeführt, die Art und Arten von Patientensicherheitsproblemen untersuchten, wertvolle Einblicke in die Auswirkungen und Risikofaktoren lieferten und in gewissem Umfang Benchmarks für die Verfolgung der Fortschritte bei den Bemühungen um Patientensicherheit auf lokaler, bundesstaatlicher, oder nationaler Ebene. Es wurden verschiedene Methoden und Werkzeuge entwickelt, um diese Forschung zu unterstützen. Der Hauptnachteil liegt in der Tatsache, dass diese Verwaltungsdaten häufig ohne Einhaltung eines Forschungsdesigns, Protokolls oder Qualitätssicherungsverfahrens erhoben werden. Daher müssen Forscher im Gesundheitswesen, die diese Datenquellen verwenden, zusätzliche Anstrengungen unternehmen, um geeignete Methoden zu entwickeln und ihre Ergebnisse mit besonderer Vorsicht interpretieren . Da immer mehr Verwaltungsdaten gesammelt und digitalisiert und maßgeschneiderte Methoden und Werkzeuge entwickelt werden, werden Forscher im Gesundheitswesen immer mehr Gelegenheiten haben, valide Informationen und Wissen zu Fragen der Patientensicherheit aus Verwaltungsdaten zu extrahieren.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-1-4899-7673-4_12-1 46efee8b2fb8a80698080a7c59fe4886;de;;;6.1.;;;Datenstrukturen und Workflows für ICME Integrated Computational Materials Engineering (ICME) stellt eine große Herausforderung in der Materialforschung und -entwicklung dar. Effektives ICME beinhaltet die Kopplung der Materialcharakterisierung und des Experimentierens mit Simulationswerkzeugen, um ein ganzheitliches Verständnis des Materialsystems zu erzeugen, das verspricht, die Materialentwicklung zu beschleunigen. Unter dem Center of Excellence on Integrated Materials Modeling (CEIMM) wurden bedeutende Fortschritte bei der Entwicklung modernster experimenteller Methoden und Simulationstechniken zur Untersuchung von Materialstruktur und -verhalten über mehrere Skalen hinweg erzielt. Parallel zu diesen Methodenentwicklungen wurden mehrere Fortschritte bei der Entwicklung von Datenstrukturen und Workflow-Tools erzielt, die die erforderliche Flexibilität und Erweiterbarkeit besitzen, um mit den durch solche fortschrittlichen Methoden erzeugten Daten zu arbeiten. Solche Softwaretools sind eine kritische Basiskomponente für effektives ICME. Die National Academy of Sciences hat die Cyberinfrastruktur als einen entscheidenden Faktor für ICME angemerkt, einschließlich Datenbanken, Software und Computerhardware [1]. Darüber hinaus ermöglichen diese Tools Arbeitsabläufe, die Modelle und Experimente in jeder Phase des Lebenszyklus der Materialentwicklung richtig integrieren. Abbildung 1 zeigt schematisch einen solchen Arbeitsablauf zur Optimierung von Mikrostruktur und Eigenschaften in einem Titanschmiedestück.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-40562-5_2 4713574b68d8bd32c9842fa37f018782;de;;;6.1.;;;Eine Umfrage: Sichere Indizierung und Speicherung von Big Data Der Gesundheitssektor umfasst viele Daten zur Gesundheit von Patienten, für die sich eine große Zahl von Personen einschreibt. Durch jede Organisation, die mit der großen Datenmenge zu tun hat, von der erwartet wird, dass sie ihre Kapazität in den nächsten Jahren erhöhen wird, in der noch große Datenmengen unstrukturiert sind, die sowohl in den Silos als auch in Form von Bildern, medizinischen Aufzeichnungen von Rezepte, Daten zu Versicherungsansprüchen, EPR (Elektronische Patientenakten) usw. Die Hauptaufgabe besteht darin, diese Daten zu integrieren und dann ein besseres Gesundheitssystem zu entwickeln, das in der Lage ist, viele Aspekte einfach zu handhaben. Da die Daten in isolierter Form vorliegen und nicht verwaltet werden, besteht ein Bedarf an einem persönlichen Gesundheitsaktensystem, das letztendlich die Faktoren, die die Daten beeinflussen, festhält und eine bessere Verwaltungsfähigkeit bietet. Big Data macht es aufgrund seiner Werkzeuge, seiner Transformationsfaktoren einfach und flexibel. Dieses Papier gibt eine allgemeine Erläuterung der Big-Data-Dienste für den medizinischen Bereich, bei denen Daten eine große Rolle spielen. Daher wird in diesem Papier auch ein aktualisierter Algorithmus vorgestellt, der komprimierte Speicherung sowie schnellen und sicheren Zugriff enthält.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-67187-7_5 dd2b96a59d927305e9b7f9f3c61719c1;de;;;6.1.;;;Veröffentlichen von E-RDF-verknüpften Daten für viele Agenten durch einen einzelnen Drittanbieter-Server Linked Data ist eine der erfolgreichsten Praktiken im Semantic Web, die zur Öffnung und Verknüpfung von Daten geführt hat. Obwohl viele Agenten (meist akademische Organisationen und Regierungen) eine große Menge an verknüpften Daten veröffentlicht haben, haben zahlreiche Agenten wie private Unternehmen und Industrieunternehmen entweder nicht die Möglichkeit oder möchten keine zusätzlichen Anstrengungen unternehmen, um verknüpfte Daten zu veröffentlichen. Für Agenten, die bereit sind, einen Teil ihrer Daten zu öffnen, aber keinen Aufwand betreiben möchten, kann die Aufgabe von einem professionellen Drittanbieter-Server (zusammen mit professionellen Experten) übernommen werden, der verknüpfte Daten für diese Agenten veröffentlicht. Wenn ein einzelner Drittanbieter-Server im Auftrag mehrerer Agenten ist, ist er daher auch dafür verantwortlich, diese Mehrfachquellen-URIs (Daten) systematisch zu organisieren, um sie referenzierbar zu machen, wobei die 4-Sterne-Datenprinzipien erfüllt werden, sowie die vertraulichen Daten dieser Agenten schützen. In diesem Papier schlagen wir ein Framework vor, um diese Herausforderungen zu nutzen und einen URI-Standard basierend auf unserem vorgeschlagenen E-RDF zu entwerfen, der die bestehenden 5-Sterne-Linked-Data-Prinzipien erweitert und optimiert. Außerdem führen wir einen angepassten Datenfiltermechanismus ein, um die vertraulichen Daten zu schützen. Zur Validierung implementieren wir ein Prototypsystem als Fremdserver, der verknüpfte Daten für eine Reihe von Agenten veröffentlicht. Es zeigt gut organisierte 5-Sterne-Linked-Data plus E-RDF und zeigt die zusätzlichen Vorteile der Datenintegration und -vernetzung zwischen den Agenten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-70682-5_10 3ea849aae4c90898ebc916b11071c9e0;de;;;6.1.;;;Bioinformatik: Datenbanken und Genannotation „Omics“-Experimente sammeln große Datenmengen an, die die Integration mehrerer Datenquellen zur Dateninterpretation erfordern. Beispielsweise können Mikroarray-, Metabolom- und Proteom-Experimente allenfalls eine Liste aktiver Gene, Metaboliten bzw. Proteine ​​liefern. Ganz allgemein ergeben die Experimente aktive Merkmale, die Teilsequenzen des Gens, eine chemische Verschiebung innerhalb einer komplexen Mischung bzw. Peptide darstellen. Somit bleibt es im besten Fall dem Untersucher überlassen, die funktionelle Signifikanz zu identifizieren, aber wahrscheinlicher muss der Untersucher zuerst den größeren Kontext des Merkmals identifizieren (z. B. welches Gen, welcher Metabolit oder welches Protein durch das Merkmal repräsentiert wird). . Um die Funktion vollständig annotieren zu können, sind mehrere verschiedene Datenbanken erforderlich, einschließlich Sequenz-, Genom-, Genfunktions-, Protein- und Proteininteraktionsdatenbanken. Aufgrund der begrenzten Abdeckung einiger Mikroarrays oder Experimente können im Fall von Mikroarrays biologische Datenarchive konsultiert werden, um die Ergebnisse zu ergänzen. Viele der für die Charakterisierung der Genfunktion verfügbaren Datenquellen und Datenbanken, einschließlich Tools des National Center for Biotechnology Information, Gene Ontology und UniProt, werden diskutiert.;-;-;-;https://link.springer.com/protocol/10.1007/978-1-60327-048-9_7 d0ba975cd190404c665d6c1c80c39006;de;;;6.1.;;;Datenlager des Hybridtyps: Konstruktionsmerkmale In dem Artikel wird die aktuelle wissenschaftliche und praktische Aufgabe der Erstellung von Informationstechnologie für den Aufbau von verteilten Data Warehouses vom Hybridtyp unter Berücksichtigung der Eigenschaften von Daten und der Statistik von Anfragen an den Speicher behandelt. Es erfolgt die Analyse der Problematik des Data Warehouse-Aufbaus unter Berücksichtigung von Dateneigenschaften und ausführbaren Abfragen. Die konzeptionellen, logischen und physikalischen Modelle von verteilten Speichern und Übergangsprozeduren zwischen den Ebenen werden vorgeschlagen. Die Position der Daten auf den Knoten, die Datenreplikationsrouten werden durch das Kriterium der minimalen Gesamtkosten der Datenspeicherung und -verarbeitung unter Verwendung eines modifizierten genetischen Algorithmus bestimmt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-16621-2_30 421aa329d3f37c10a36cdd4b3da50010;de;;;6.1.;;;SODA: Ein Framework für die Analyse von räumlichen Beobachtungsdaten Durch viele Beobachtungsprozesse in unterschiedlichen Anwendungsdomänen werden täglich sehr große Mengen an Geodaten erzeugt. Die Menge der produzierten Daten nimmt aufgrund der Fortschritte bei der Verwendung moderner automatischer Erfassungsgeräte und auch der verfügbaren Einrichtungen zur Förderung von Crowdsourcing-Datensammlungsinitiativen zu. Räumliche Beobachtungsdaten umfassen sowohl Daten konventioneller Entitäten als auch Abtastungen über mehrdimensionale Räume. Bestehenden Lösungen für das Management von Beobachtungsdaten fehlt eine deklarative Spezifikation der räumlich-zeitlichen Analyse. Auf der anderen Seite vermissen aktuelle Datenverwaltungstechnologien die Semantik von Beobachtungsdaten und integrieren die Verwaltung von Entitäten und Stichproben nicht in eine einzige Datenmodellierungslösung. Der vorliegende Beitrag stellt den Entwurf eines Frameworks vor, das eine raum-zeitliche deklarative Analyse über große Lagerhäuser von Beobachtungsdaten ermöglicht. Es integriert die Verwaltung von Entitäten und Stichproben in ein einfaches Datenmodell, das auf dem bekannten mathematischen Funktionskonzept basiert. Die Semantik der Beobachtungsdaten wird mit entsprechenden Metadatenstrukturen in das Modell integriert.;-;-;-;https://link.springer.com/article/10.1007/s10619-014-7165-7 2baf8015f06e0cdb8ffeb190de395b4b;de;;;6.1.;;;Ein ameisenbasierter Ansatz zum Clustern von Peers in P2P-Datenbanksystemen Peer-to-Peer (P2P)-Systeme mit deutlichen Vorteilen wie Skalierbarkeit, Robustheit und geringen Kosten haben sich in den letzten Jahren rasant entwickelt. Das Ressourcensuchproblem, das heißt, einen Peer mit einer gewünschten Ressource herauszufinden, ist ein grundlegendes Problem, das in den meisten P2P-Anwendungen anfänglich gelöst werden muss. P2P-Systeme können auch unter Datenbanksysteme kategorisiert werden. Eines der wichtigsten Probleme von P2P-Datenbanksystemen sind die Abfrageverarbeitungsalgorithmen. Selbst eine eher kleine Verbesserung dieser Algorithmen kann einen erheblichen Einfluss auf die Leistung eines P2P-Datenbanksystems haben. Eine der effektivsten Methoden zur Reduzierung der Abfrageverarbeitungskosten ist das Peer-Clustering. Das Clustern von Peers mit ähnlichen Inhalten führt daher dazu, dass die Anfragen an den entsprechenden Cluster gerichtet und somit effizient beantwortet werden. In diesem Papier stellen wir einen neuen Peer-Clustering-Algorithmus für P2P-Datenbanksysteme vor, der Ameisen-basierte Clustering-Algorithmen verwendet. Wir haben den ameisenbasierten Clustering-Algorithmus an das Peer-Clustering-Problem angepasst. Die Leistungsbewertung des Algorithmus zeigt seine Stärke beim Clustering von Peers in P2P-Datenbanksystemen, im Vergleich zu den bestehenden Systemen eine höhere Qualität und Genauigkeit zu haben, eine relativ kurze Laufzeit zu haben und schnell zu einem Optimum zu konvergieren. Darüber hinaus erreicht unser Algorithmus eine hohe Skalierbarkeit auf die zunehmende Problemgröße.;-;-;-;https://link.springer.com/article/10.1007/s10115-014-0743-1 e8fd31a14524c8cc5da5bf11c6b94fb9;de;;;6.1.;;;Sechs Bereiche der Forschungsethik Der Zweck dieses Papiers ist es, ein einfaches, aber umfassendes Organisationsschema für die verantwortungsvolle Durchführung von Forschung (RCR) bereitzustellen. Die hier angebotene Heuristik sollte sich in der forschungsethischen Ausbildung als hilfreich erweisen, wo die vielen und heterogenen Elemente von RCR verwirrend sein können, sowie bei der Forschung zur Integrität der Forschung und bei den Bemühungen, RCR-Richtlinien und -Regelungen zu gestalten. Die sechs Bereiche sind wissenschaftliche Integrität, Kollegialität, Schutz von Menschen, Tierschutz, institutionelle Integrität und soziale Verantwortung.;-;-;-;https://link.springer.com/article/10.1007/s11948-002-0018-1 ee21f92a303a2a6ac18f7090656fe9fc;de;;;6.1.;;;Governance und IT-Architektur Die personalisierte Medizin basiert auf der Integration und Analyse unterschiedlicher Gesundheitsdaten. Viele Patienten und Gesunde sind bereit, die Forschung aktiv zu unterstützen, vorausgesetzt, es gibt eine vertrauensfördernde Governance-Struktur für den Datenaustausch sowie die Rückgabe von Informationen und Wissen. MIDATA.coop bietet eine IT-Plattform, die personenbezogene Daten unter einer solchen Governance-Struktur verwaltet. Als gemeinnützige Genossenschaft in Bürgerbesitz besteht ihre Vision darin, Bürgern zu ermöglichen, bestimmte Sätze ihrer gesundheitsbezogenen Daten zu sammeln, zu speichern, zu visualisieren und mit Freunden und Angehörigen der Gesundheitsberufe zu teilen und anonymisierte Teile dieser Daten zugänglich zu machen zu medizinischen Forschungsprojekten in Bereichen, die sie ansprechen. Der durch diese Zweitverwendung von personenbezogenen Daten generierte Wert wird gemeinsam verwaltet, um die Plattform zu betreiben und zu erweitern und weitere Forschungsprojekte zu unterstützen. In diesem Kapitel beschreiben wir zentrale Funktionen von MIDATA.coop und Erkenntnisse, die seit dem Betrieb der Plattform gewonnen wurden. Als Beispiel für eine neuartige Patientenbeteiligung hat MIDATA.coop neben der formalen Einschreibung in klinische Studien oder epidemiologische Studien zu neuen Formen der Teilnahme an der Forschung geführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-11821-1_22 fd1bd177b59eeb30a27edb2b66c05f7e;de;;;6.1.;;;Von konzeptionellen Modellen zur Sicherheitsgarantie Safety Die Sicherheitsabsicherung oder -zertifizierung ist eine der kostspieligsten und zeitaufwendigsten Aufgaben in der Automobil-, Bahn-, Avionik- und anderen sicherheitskritischen Bereichen. Verschiedene Verkehrssektoren haben ihre eigenen spezifischen Sicherheitsstandards entwickelt, was eine große Herausforderung darstellt, vorzertifizierte Komponenten wiederzuverwenden und Fachwissen zwischen verschiedenen Verkehrssektoren auszutauschen. In diesem Papier schlagen wir vor, konzeptionelle Modelle in Form von Metamodellen zu verwenden, um die Wiederverwendung von Zertifizierungsdaten zu unterstützen und die Einhaltung der Sicherheitsbestimmungen zu erleichtern. Es wird ein Metamodelltransformationsansatz skizziert, um auf Basis eines generischen Metamodells domänen- oder projektspezifische Metamodelle abzuleiten. Darüber hinaus stellen wir eine Metamodell-Verfeinerungssprache vor, die eine domänenspezifische Sprache ist, die eine einfache Verfeinerung von Metamodellen ermöglicht. Schließlich verwenden wir zwei Fallstudien aus dem Automobilbereich, um unseren Ansatz und seine Fähigkeit, Metamodelle unternehmensübergreifend wiederzuverwenden, zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12206-9_16 b5b8ed572d627b853c0f2f1aee43921e;de;;;6.1.;;;Erstellen einer Strategie zur Integration klinischer Systeme, um Verbesserungen voranzutreiben Das Gesundheitswesen als Branche ist bei der Nutzung ihrer Daten zur Verbesserung hinter anderen Branchen zurückgeblieben. Dennoch haben beispielhafte Gesundheitsorganisationen erhebliche Verbesserungen für ihre Patienten gezeigt, indem sie Daten in ihre klinischen, betrieblichen und finanziellen Systeme integriert haben. Wir glauben, dass alle Anbieter ihre Daten verwenden können, um Verbesserungen in den Systemen voranzutreiben, in denen sie praktizieren. Hier erklären wir die Schritte, die das Texas Children’s Hospital unternommen hat, um die Versorgung durch die Macht der Daten zu verbessern. Die Grundlage der klinischen Systemintegration ist die Umwandlung der Fülle von Daten, die im täglichen Betrieb eines gesamten Unternehmens erfasst werden, in Analysen für aussagekräftige Interpretationen von Krankheitsspektren im gesamten Unternehmen. Das Texas Children's Hospital konzentrierte sich auf drei Bereiche dieser Stiftung: (1) wissenschaftliche und evidenzbasierte Praxis, (2) Qualitätsverbesserungsausbildung und -implementierung und (3) Datenanalyse und prädiktive Analyse. Infolgedessen haben wir Verbesserungen in der Betreuung von Kinderpopulationen festgestellt – die für Asthma, Blinddarmentzündung und übergreifende Zahlungsreformmodelle ausführlich beschrieben werden. Die Integration klinischer Systeme erfordert Investitionen in technische Ressourcen (d. h. Software und Hardware), Re-Engineering-Workflows und Humankapital. Die Investitionen müssen mit einer Führungskraft einhergehen, die die Transformation versteht und an ihr teilnimmt – zusammen mit einer Governance-Struktur, die dazu beitragen kann, Fragmentierung und Ineffizienzen zu verhindern, die in komplexen Systemen auftreten können. Schließlich sollte das System auch flexibel genug sein, um auf sich ändernde interne und externe Qualitätsanforderungen zu reagieren.;-;-;-;https://link.springer.com/article/10.1007/s40746-015-0031-7 dcf20afca11a53baebbed2945ce107a2;de;;;6.1.;;;Cloud-Machbarkeits- und Einführungsstrategie für das INDISCHE Schulbildungssystem Heutzutage gilt die Cloud-Computing-Technologie als entscheidend für den Erfolg jedes Unternehmens oder jeder Organisation. Diese Technologie ist nicht nur eine Infrastruktur, die verwendet wird, um verschiedene Strategien zu implementieren, sondern ermöglicht neue aufkommende Strategien. Um diese aufkommende Technologie, die Herausforderungen und Unsicherheiten in Bezug auf die erwartete wirtschaftliche, technische und betriebliche Durchführbarkeit und die damit verbundenen Sicherheits-, Datenschutz- und behördlichen Bedenken, einen erfolgreichen Übergang von der Planung zum Design und zur Implementierung sowie deren Gesamtauswirkungen auf die einzelne Organisation zu berücksichtigen , geschätzt oder identifiziert werden muss. Nichtsdestotrotz wurden solche Studien in anderen Sektoren als dem indischen Schulbildungssystem durchgeführt, um einzigartige Cloud-Computing-Lösungen an die Geschäftsanforderungen der einzelnen Organisationen anzupassen. Angesichts der einzigartigen Anforderungen des indischen Schulbildungssystems führt diese Studie daher eine Machbarkeitsanalyse durch, identifiziert verschiedene Herausforderungen und Hindernisse im Zusammenhang mit der Einführung und dem Übergang zur Cloud und bietet eine effiziente Strategie für die Einführung von Cloud-Computing mit Diensten und Lösungsangeboten zusammen mit verbesserter Sicherheit Rahmen.;-;-;-;https://link.springer.com/article/10.1007/s10639-020-10352-8 83921dd01db5dbc999e5f2ceb4571109;de;;;6.1.;;;Jüngste Fortschritte in der Arzneimittelentwicklung und Regulierungswissenschaft in China Als zweitgrößter Pharmamarkt mit großem Potenzial für zukünftiges Wachstum hat China viel Aufmerksamkeit in der globalen Pharma-Community auf sich gezogen. Mit zunehmenden staatlichen Investitionen in die biomedizinische Forschung richten die heimischen biopharmazeutischen (biotechnologischen) Unternehmen in China ihr Augenmerk auf die Entwicklung innovativer Medikamente und zielen auf den Weltmarkt ab. Um innovative Produkte bei chinesischen Patienten schneller einzuführen, die Effizienz ihrer Überprüfungs- und Zulassungsverfahren zu verbessern und ihre regulatorische Wissenschaft mit internationalen Standards in Einklang zu bringen, hat die China Food and Drug Administration (CFDA) eine Reihe wichtiger Änderungen ihrer Richtlinien eingeleitet und Vorschriften. Dieses Papier präsentiert eine Momentaufnahme des chinesischen Pharmamarktes sowie des Forschungs- und Entwicklungsstands und stellt technische Richtlinien zu klinischen Studien und neuen Arzneimittelanwendungen vor. Die jüngste Welle bahnbrechender Reformen in der Regulierungswissenschaft der CFDA wird diskutiert. Beispiele für klinische Studien und neue Arzneimittelanwendungen werden während der gesamten Diskussion bereitgestellt.;-;-;-;https://link.springer.com/article/10.1177/2168479018764661 780524ce1b455c63196d2e886382063d;de;;;6.1.;;;Ein zertifikatsloses Proxy-Neuverschlüsselungsschema für Cloud-basierte Blockchain Cloud Computing ist eine leistungsstarke Technologie, da sie den Benutzern attraktive Dienste zum Teilen von Online-Dateien bietet. Sicherheit und Datenschutz stellen jedoch erhebliche Herausforderungen dar, da der Cloud aufgrund des traditionellen zentralisierten Managementsystems nicht vollständig vertraut werden kann. Dieses Papier schlägt eine zertifikatslose Proxy-Neuverschlüsselung als effizienten Mechanismus vor, um den Zugriff über ausgelagerte Daten zu sichern. Das vorgeschlagene Schema stützt sich auf die Blockchain-Technologie für die dezentrale Sicherheitsverwaltung und den Datenschutz. Außerdem erreicht das Schema Datenvertraulichkeit und einen effizienten Widerrufsmechanismus. Darüber hinaus belegt die Sicherheitsanalyse die Vertraulichkeit und Integrität der auf dem Cloud-Server gespeicherten Daten. Schließlich bewerten wir die Leistung des vorgeschlagenen Systems.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0818-9_19 b7821424bc4614ad06f62abe3da779f8;de;;;6.1.;;;50 Jahre hydrographischer Abschnitt mit einer Wiederholung von 137°E im westlichen Nordpazifik Der 137 ° Ost-Hydrographische Abschnitt der Japan Meteorological Agency über den westlichen Nordpazifik wurde 1967 als Teil der Cooperative Study of the Kuroshio and Adjacent Regions begonnen und wurde alle zwei Jahre im Winter und Sommer fortgesetzt. Die öffentlich zugänglichen Daten des Abschnitts wurden häufig verwendet, um saisonale bis dekadische Schwankungen und langfristige Veränderungen von Strömungen und Wassermassen, biogeochemische und biologische Eigenschaften sowie Meeresschadstoffe in Bezug auf die Klimavariabilität wie die El Niño-Süd-Oszillation und die pazifische dekadische Oszillation. Anlässlich des 50-jährigen Jubiläums im Jahr 2016 fasst dieser Rückblick die Geschichte und die wissenschaftlichen Errungenschaften des Abschnitts 137°E in den Jahren 1967–2016 zusammen. Durch die Veröffentlichung von mehr als 100 Artikeln über diesen Zeitraum von 50 Jahren, wobei die Häufigkeit und Bedeutung der Veröffentlichung mit der Zeit zunimmt, hat der Abschnitt 137°E seine Bedeutung für zukünftige Untersuchungen physikalisch-biogeochemisch-biologischer Wechselwirkungen auf verschiedenen raumzeitlichen Skalen unter Beweis gestellt , und damit seine Nützlichkeit bei der Verbesserung des Prozessverständnisses, um Projektionen der Auswirkungen des zukünftigen Klimawandels auf Meeresressourcen und Ökosysteme im 21. Jahrhundert zu unterstützen.;-;-;-;https://link.springer.com/article/10.1007/s10872-017-0461-x 049a5b998e0c8332e4d828b296b00d4e;de;;;6.1.;;;Engineering Data Management durch ein relationales Datenbankmanagementsystem Bisher war die meiste Software, die für technische Anwendungen entwickelt wurde, eher programmorientiert als datenorientiert. Obwohl das Datenbankmanagementsystem (DBMS) im kommerziellen und geschäftlichen Umfeld weit verbreitet ist, hat es kaum einen bedeutenden Einzug in die Engineering-Umgebung für Engineering-Daten gehalten. Die Verwendung des relationalen Datenbankverwaltungssystems für die Engineering-Daten wird mit der Beschreibung des relationalen Datenbankverwaltungssystems besprochen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2817-9_26 e0da765f295e747861ba0b4ffb036ed9;de;;;6.1.;;;POPEYE: Bereitstellung von kollaborativen Diensten für Ad-hoc- und Spontangemeinschaften Kollaborative Systeme der nächsten Generation werden mobilen Benutzern eine nahtlose und natürliche Zusammenarbeit zwischen einer Vielzahl von Agenten in verteilten, wissensreichen und virtualisierten Arbeitsumgebungen bieten. Dieses ehrgeizige Ziel steht vor zahlreichen Herausforderungen, von der zugrunde liegenden Kommunikationsinfrastruktur bis hin zu den High-Level-Anwendungsdiensten, mit dem Ziel, Dienste mit der entsprechenden Qualität (wie Persistenz, Synchronisation und Sicherheit) bereitzustellen. Die meisten derzeit verfügbaren Tools zur Unterstützung der Zusammenarbeit adressieren entweder eher traditionelle und starre Szenarien der Zusammenarbeit innerhalb von Organisationen oder im Gegenteil völlig freie und unstrukturierte Interaktionen offener Gemeinschaften. Aufkommende dynamische, flexible und ad-hoc-Kollaborationsschemata werden kaum oder gar nicht unterstützt. Das POPEYE-Framework bietet kollaborative Dienste für Anwendungen, die darauf abzielen, spontane Zusammenarbeit über drahtlose P2P-Ad-hoc-Gruppen zu ermöglichen, bei denen eine feste Infrastruktur keine Voraussetzung ist, wo virtuelle Gemeinschaften spontan entstehen und Daten mit der entsprechenden Dienstqualität für Geschäftsanwendungen (Persistenz, Synchronisation, Sicherheit usw.).;-;-;-;https://link.springer.com/article/10.1007/s11761-009-0038-7 103ceb18228c58013ada7d538e0dcf74;de;;;6.1.;;;Big-Data-Analyse und -Vorverarbeitung Big Data ist ein Trendwort in Industrie und Wissenschaft, das für die riesige Flut an gesammelten Daten steht, diese Daten sind ihrer Natur nach sehr komplex. Big Data als Begriff zur Beschreibung vieler Konzepte im Zusammenhang mit den Daten von technologischer und kultureller Bedeutung. In der Big-Data-Community wird Big-Data-Analyse verwendet, um verborgene Muster und Werte zu entdecken, die eine genaue Darstellung der Daten ermöglichen. Die Big-Data-Vorverarbeitung gilt als wichtiger Schritt im Analyseprozess. Es ist ein Schlüssel zum Erfolg des Analyseprozesses in Bezug auf Analysezeit, Ressourcennutzungsgrad, Speicher, Effizienz der analysierten Daten und Ausgabe gewonnener Informationen. Die Vorverarbeitung von Daten beinhaltet den Umgang mit Konzepten wie Konzeptdrift, Datenströmen, die als erhebliche Herausforderungen angesehen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-59338-4_2 07cd2211e4b72890788c0620f3bc75ca;de;;;6.1.;;;Elektronische Vernetzung – unverzichtbar für ein verbessertes grenzüberschreitendes Wassermanagement auf dem Balkan Der Schutz und die weise Nutzung der Wasserressourcen sollten für jedes Land in jedem Teil der Welt oberste Priorität haben. Der kontinuierliche Zugang zu sauberem Wasser kann zum Aufbau gesunder Volkswirtschaften und stabiler politischer Systeme beitragen. Allerdings können einzelne Länder nur so weit gehen, es bedarf der Zusammenarbeit zwischen den Ländern zum Schutz von Wasserressourcensystemen, die nationale Grenzen überschreiten. Für eine optimale Versorgung und Nutzung lebenswichtiger Ressourcen ist ein koordiniertes internationales Vorgehen unabdingbar. Dies gilt insbesondere für Länder, die wie die Balkanländer Teil einer interdependenten hydrologischen Region sind, die jetzt und für immer durch ein ausgedehntes System von Flüssen, Seen und Meeren verbunden ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4367-7_3 e60ad1f4b84820fd1edcdf7be4013340;de;;;6.1.;;;Der lineare Transformations-Bildverbesserungsalgorithmus basierend auf dem HSV-Farbraum Für die komplexe und veränderliche Aufnahmeszene und Beleuchtungsbedingung, die Bilder im Licht ungleichmäßig und mit geringem Kontrastverhältnis macht, wird ein lineares Transformationsbildverbesserungsverfahren basierend auf der HSV-Farbraumtransformation vorgeschlagen, um die Bildqualität zu verbessern. Um die Farbinvariante des Bildes beizubehalten, zuerst den traditionellen RGB-Farbraum in den HSV-Farbraum umwandeln, dann die Beziehung der S- und V-Komponenten zwischen dem HSV-Farbraummodell und den Nummernschildfarben analysieren, den linearen Faktor berechnen und die of Beziehung zwischen den Komponenten,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-50212-0_3 3457b971fb19423f0d39e5e5851ccc34;de;;;6.1.;;;Digitaler historischer Gelber Fluss Der Gelbe Fluss wird seit mehr als 2.000 Jahren von Chinesen verwaltet. In der Qing-Dynastie (1644–1911 n. Chr.) konnte die Beziehung zwischen Umweltveränderungen und Managementstil basierend auf GIS und historischen Aufzeichnungen aufgedeckt werden. In diesem Teil (1) das Design und die Funktion des Systems „Digital Historical Yellow River“, (2) das Beispiel dieses Systems, das in der Finanzforschung des Yellow River verwendet wird. Die Veränderung des Gelben Flusses ist nicht nur eine Folge von Umweltveränderungen, sondern auch ein Problem der Managementmethoden. Die hydrologischen Veränderungen des Gelben Flusses in den 1820-1840er Jahren machten das Management des Gelben Flusses basierend auf Digital Humanities und GIS, mehr Materialien könnten verwendet werden, mehr Details werden enthüllt und mehr Fragen werden beantwortet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-52734-1_5 b546c30803a561928454addc2235953c;de;;;6.1.;;;Latenzkritische Datenverarbeitung in der Cloud für Smart Grid-Anwendungen Für den harmonischen Betrieb verschiedener Einheiten erfordert Smart Grid die gemeinsame Nutzung und Verarbeitung einer riesigen Menge an Daten und Informationen. In dieser Hinsicht kann Cloud-Computing die Vorteile der Speicherung, Verarbeitung und Verwaltung von Daten unter Verwendung eines gemeinsam genutzten Pools konfigurierbarer Ressourcen über das Internet bieten. In einigen Fällen von Kontrolle und Überwachung ist eine Datenverarbeitung mit geringer Latenz obligatorisch. Um dies zu adressieren, schlagen wir zwei Arten der vorrangigen Datenverarbeitung in der Cloud für die Smart Grid-Anwendungen vor. Bei der ersten Art der Datenverarbeitung, die als präemptive Priorität bezeichnet wird, werden die Prioritätsdaten verarbeitet, wobei die Verarbeitung eines laufenden allgemeinen Pakets beendet wird. Andererseits wird beim zweiten Typ, der als nicht-präemptive Priorität bezeichnet wird, das Prioritätspaket nach der Ausführung eines laufenden allgemeinen Pakets verarbeitet. Die allgemeinen Pakete werden verarbeitet, wer zuerst kommt, mahlt zuerst. In diesem Beitrag bewerten wir die Leistungsfähigkeit der beiden Datenverarbeitungsmethoden im Szenario eines Smart Grid. Basierend auf den Ergebnissen wird eine präemptive Datenverarbeitung für kritische Daten mit extremer Latenz empfohlen, während eine nicht präemptive Datenverarbeitung für kritische Daten mit hoher Latenz geeignet ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-73103-8_47 d15f97ee4bff28d37873e883c32dea22;de;;;6.1.;;;Studie zur Entwicklung und Anwendung von Online-FAQs in experimentellen Computerkursen Für das Online-Frage-Antwort-System auf Basis von ASP.net und c#-Technologie WEB-Anwendungen sowie für das Internet für Medien zur Fernbildung eine Lehrplattform zu realisieren. System diskutiert hauptsächlich die Designentwicklung, Design und Entwicklung des grundlegenden Prozesses der Hauptanwendung asp.net-Technologie und c#, SQL-Technologie, nach dem objektorientierten Entwicklungsprinzip, basierend auf S/W/S drei Schichten der Struktur von das Systementwicklungsmodellsystem. Für den Server zu IIS, SQL Server 2005 für die Datenbankplattform, die eine Kommunikation zwischen Lehrern und Schülern ermöglicht, die gegenseitige Diskussion des Netzwerkraums ermöglicht, machen die Schüler proaktiver Wissenserwerb. Dieses System umfasst die Verwaltung und Kontrolle von Sofortantworten, die Verwaltung der gemeinsamen Nutzung von Dokumenten, Probleme und Lösungen des Managements, das Management von Zweifelsnachrichten-Backend-Datenbankinformationen und die Wartung dieser Basismodule.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28655-1_34 d5b553d1026893f48bf01ddfe0ae0fb1;de;;;6.1.;;;Die Auswirkungen von Post-Tsunami-Umfragen auf die NCEI/WDS Global Historical Tsunami Database Seit dem späten 19. Jahrhundert sammeln Vermessungsteams nach dem Tsunami Daten zur Wasserhöhe (z. B. maximale Überschwemmung, Hochlauf, Fließtiefe) sowie andere Arten von Daten, einschließlich geologischer und sozioökonomischer Auswirkungen. Die Nationalen Zentren für Umweltinformationen (NCEI) der NOAA und der gemeinsame World Data Service (WDS) für Geophysik bieten Datenmanagement und Zugriff auf globale Tsunami-Daten. Die Global Historical Tsunami Database von NCEI enthält Informationen zu über 2200 Tsunami-Quellen und über 26.000 Anlaufpunkten. Die Tsunami-Datenbank wurde angepasst, um die Fortschritte der Erhebungs- und Verteilungsmethoden für Daten nach dem Tsunami zu erfassen. Das erste International Tsunami Survey Team (ITST), das die Auswirkungen des Tsunami vom 2. September 1992 in Nicaragua untersuchte, trieb die Formalisierung von Standards und Leitlinien für Nach-Tsunami-Erhebungen voran. Die analysierten Post-Tsunami-Erhebungsdaten leisten einen qualitativ und quantitativ signifikanten Beitrag zur Runup-Datenbank. Allein die Ereignisse vom 26. Dezember 2004 in Indonesien und vom 11. März 2011 in Japan machen über 25 % der Gesamtzahl der Anlaufpunkte in der Datenbank aus. Darüber hinaus zeigt die Analyse, dass die Erhebungsdaten nach dem Tsunami eine vollständigere Darstellung des dokumentierten Tsunamis erfassen und nicht nur die höchsten Hochlaufmessungen. Diese Spanne der Erhebungshöhen nach dem Tsunami für Ereignisse in der NCEI/WDS-Tsunami-Datenbank bietet einen zuverlässigeren historischen Tsunami-Datensatz zum Testen von Tsunami-Modellen. Diese Studie bietet den Lesern auch ein Verständnis der Entwicklung der Tsunami-Datenbank, insbesondere im Hinblick auf die anhaltende Notwendigkeit, sich an neue wissenschaftliche Fortschritte und Standards anzupassen.;-;-;-;https://link.springer.com/article/10.1007/s00024-019-02191-7 4dd368fbd35627220f74295fe1b53389;de;;;6.1.;;;Datenbanksysteme: vom Dateisystem zum modernen Datenbanksystem Datenbanksysteme haben sich von einfachen datensatzorientierten Navigationsdatenbanksystemen, hierarchischen und Netzwerksystemen zu mengenorientierten Systemen entwickelt, die relationalen Datenbanksystemen weichen. Die relationalen Datenbanksysteme entwickeln sich nun zu objektrelationalen und multimedialen Datenbanksystemen. Datenbanksysteme wurden in den letzten Jahren als Plattformen zur Datenverwaltung für konventionelle transaktionsorientierte Geschäftsanwendungen eingesetzt. Da Organisationen und Unternehmen immer anspruchsvoller geworden sind, ist der Druck gestiegen, die Datenintegration über verschiedene, heterogene Datenquellen hinweg bereitzustellen. Das Problem, einen organisationsweiten einheitlichen Zugriff auf heterogene und autonome externe Datenquellen (Dateisysteme, Datenbanken, Webseiten etc.) bereitzustellen, kann im Allgemeinen auf drei verschiedene Arten angegangen werden: föderierte Datenbanken, Data-Warehousing-Systeme und vermittelte Systeme .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24742-5_2 c74390c67addcc59a7a06f90fe7234c5;de;;;6.1.;;;Energiepolitik und Politik Mehrfache Veränderungen der politischen, wirtschaftlichen etc. Bedingungen der Entscheidungsfindung beeinflussten im Laufe der Zeit den Einfluss ausländischer Akteure in Aserbaidschan ebenso wie das Thema, das sie jeweils zu beeinflussen suchten. Oben wurde erwähnt, dass unterschiedliche Themen unterschiedliche Herausforderungen an die Akteure stellen, die sich damit befassen (siehe Teil 3.4.2.1). Die Länderanalyse des vorigen Kapitels zeigt detailliert, wie sich die politische Realität Aserbaidschans entwickelt hat, als die zufließenden ausländischen Investitionen und Ressourceneinnahmen den regierenden Politikern einen wachsenden Handlungsspielraum boten. Dies hat Auswirkungen auf die Chancenstruktur externer nichtstaatlicher Akteure.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-11404-6_5 ee648b1d31c3760f7f3fc4133871d0b7;de;;;6.1.;;;Modellierung eines Urheberrechtsschutzsystems für die BitTorrent-Umgebung In diesem Beitrag untersuchen wir das Problem der Urheberrechtsverletzung im Peer-to-Peer (P2P)-Umfeld und schlagen eine Methode zum Schutz vor Piraterie vor. Die P2P-Software BitTorrent ist zum Hauptwerkzeug für Raubkopien von urheberrechtlich geschütztem Material geworden. Daher untersuchen wir das Bit-Torrent-Paket selbst, um das Ziel und die Quelle der Piraterie zu erkennen. Die Torrent-Metadatei wird auch analysiert, um urheberrechtlich geschütztes Material zu identifizieren. Als Ergebnis schlagen wir ein Systemmodell zum Urheberrechtsschutz gegen BitTorrent-Piraterie vor. Unser System besteht aus einer Hash-Datenbank und einem Protokollanalysator, einem Torrent-Metadatei-Crawler und einer Copyright-Kennung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35264-5_7 95c39222a5bc8d0b2133fa1ea3069b34;de;;;6.1.;;;Die Anästhesie-Informationskonsole: Ein integriertes Informationssystem für die Anästhesieversorgung Bei chirurgischen Eingriffen sammelt der Anästhesist Daten aus unterschiedlichen Quellen und nutzt sie für die Patientenversorgung. In vielen Operationssälen sind jedoch diskrete Überwachungsinstrumente über den Arbeitsplatz des Anästhesisten verstreut, was die Datenerfassung sowohl zeitaufwändig als auch ablenkend macht. Um den Anästhesisten beim Sammeln und Verarbeiten von Daten während der Narkose zu unterstützen, wurde die Anesthesia Information Console (AIC) entwickelt. AIC ist ein computergestütztes Informationssystem, das verschiedene für die Anästhesieversorgung notwendige Daten integriert und auf einem einzigen CRT darstellt. Zu den Merkmalen des AIC-Systems gehören: 1) Integration von Daten von Überwachungsinstrumenten, 2) zentralisierte Alarme, 3) Bildschirmpräsentation von Datenbanken und Dienstprogrammen, die die Arbeit des Anästhesisten unterstützen, 4) Führen einer elektronischen Aufzeichnung der Anästhesie auf einer Diskette.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-68201-1_52 03f6994c8430c5540c502cf5192e8b65;de;;;6.1.;;;Eine webbasierte Plattform für kollaboratives Produktdesign, Review und Evaluation Dieses Papier stellt eine webbasierte integrierte Plattform namens Collaborative Prototype Designer (CPD) vor, die entwickelt wurde, um die kollaborativen Produktdesignaktivitäten zu unterstützen. Das CPD ist Teil einer Unterstützungsgruppe für eine integrierte kollaborative Fertigungsumgebung (CME), die in den Bereichen Produktentwicklung, Fabrikdesign und Mitarbeiterschulung im Rahmen einer Digital Factory arbeitet. Die CPD adressiert den Bedarf an Zusammenarbeit während des Produktentwicklungsprozesses, indem sie Funktionen für kollaboratives Produktdesign, Überprüfung, Bewertung und Demonstration bereitstellt. Das CPD besteht aus einer webbasierten Plattform für Content-Management und Benutzerinteraktion, einem Tool für die kollaborative Geometriemodellierung in Echtzeit, Virtual- und Augmented-Reality-Plattformen und einem Tool für die kollaborative Entscheidungsfindung. Der Einsatz der CPD wird anhand eines realen Konstruktionsbeispiels im Zusammenhang mit der Entwicklung einer neuen Lasermaschine demonstriert. Die CPD verfügt über eine flexible Architektur, die die Designanforderungen sowohl mechanischer als auch nicht mechanischer Produkte berücksichtigt, und gilt daher als auf eine breite Palette von Produkten anwendbar. Es integriert auch Designaktivitäten, Prozesse, Methoden und Werkzeuge in ein modulares Feature, das einfach zu verwenden und weiter zu erweitern ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84996-172-1_3 52c343f335fab26ed664628b69f79934;de;;;6.1.;;;Gesamttechnologie bemannter Raumfahrzeuge Bemanntes Raumschiff, auch bemanntes Raumschiff genannt, wird von einer Trägerrakete in den Weltraum geschossen, um die Erde zu umkreisen oder einen Manövrierflug in der Umlaufbahn durchzuführen. Das Raumfahrzeug verfügt über eine künstliche Umgebung, in der Astronauten arbeiten und leben können. Nach Abschluss der Mission kehrt ein Teil des bemannten Raumschiffs in die Atmosphäre zurück und erreicht mit Hilfe von Fallschirmen und Puffergeräten eine sanfte Landung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4898-7_2 2e4d02be1f841086c3c29116f0e779e2;de;;;6.1.;;;Das Fahrzeuginformationsraum-Framework Fahrzeugnetze sind verteilte, selbstorganisierende und hochmobile Ad-hoc-Netze. Sie ermöglichen es dem Fahrer, aktuelle Informationen über seine Umgebung bereitzustellen. Daher wird von ihnen erwartet, dass sie ein entscheidender Wegbereiter für die Steigerung von Fahrkomfort und Sicherheit sein werden. Dieser Artikel stellt das Vehicular Information Space Framework (VIS) vor. Fahrzeuge mit VIS bilden eine Art verteilte Datenbank. Es ermöglicht ihnen, Informationen wie vorhandene Gefahren, Parkplätze oder Verkehrsdichte ortsbezogen und vollständig verteilt bereitzustellen. Darüber hinaus können Fahrzeuge diese Informationen abrufen, ändern und löschen. Der zugrunde liegende Algorithmus basiert auf Features, die von bestehenden strukturierten Peer-to-Peer-Algorithmen abgeleitet und um die spezifischen Eigenschaften hochmobiler Ad-hoc-Netzwerke erweitert wurden. Wir präsentieren, implementieren und simulieren das VIS anhand einer Autobahn und einer städtischen Verkehrsumgebung. Simulationsstudien zum Auftreten von VIS-Nachrichten zeigen, dass das VIS einen angemessenen Verkehrsaufwand mit sich bringt. Außerdem ist der gesamte VIS-Nachrichtenverkehr unabhängig von der Anzahl der bereitgestellten Informationselemente.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17604-3_49 a3488b4f5fcd301b7e021076eea0825a;de;;;6.1.;;;Engineering von Signalsystemen Bahnsystemprodukte stellen hohe Ansprüche an Sicherheit, Schutz und Qualität. Um dies zu gewährleisten, muss das Design eines solchen Systems einschließlich seiner Prozesse, der verwendeten Engineering-Tools und der erzeugten Daten den strengen Anforderungen entsprechend freigegeben werden. Das Engineering von Signalsystemen kann als Anwendungsfall verwendet werden, um die Sicherheits- und Qualitätsherausforderungen der Industrie in Bezug auf Engineering-Tools und Datenflüsse abzuleiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-25312-7_4 6cf61c68d4fd3586dff742cfd5ab2989;de;;;6.1.;;;Auf dem Weg zu einem globalisierten Datenzugriff In diesem Kapitel behandeln wir verschiedene Lösungen, um einen reibungslosen Übergang von einem Hochleistungsspeichermodell, das aus mehreren Knoten an verschiedenen entfernten Standorten besteht, zu einem Modell zu initiieren, bei dem die Knoten zusammenarbeiten, um eine einzigartige, dateisystemartige, kohärente Ansicht ihres Inhalts zu ermöglichen. Diese historisch als sehr problematisch angesehene Aufgabe muss unter mehreren Gesichtspunkten betrachtet werden, funktional und nicht, um ein produktionsqualitätsfähiges System einsetzen zu können, bei dem die Funktionalitäten effektiv nutzbar sind und die Datenzugriffsleistung so nah ist wie möglich auf diejenige, die von der verwendeten Hardware erreichbar ist. Dies kann als die größte Herausforderung in solchen Systemen angesehen werden, auch weil die allgemeinen Erwartungen an Leistung und Robustheit sehr hoch sind und sehr oft mit verteilten Dateisystemen verglichen werden, deren Entwicklung im Laufe der Zeit recht vielversprechend, aber nicht auf den Punkt gebracht wurde die Anforderungen des Großrechners vollständig erfüllen zu können. Um dieses Ziel zu erreichen, muss sich ein Design unter anderem den Schwierigkeiten im Umgang mit der Netzwerklatenz stellen, die zwischen lokalem Netzwerkzugang und Weitverkehrsnetzzugang um mehr als zwei Größenordnungen variiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23157-5_10 c105685f69a52a1c0a368fcd9a9d3aa9;de;;;6.1.;;;Ein kostenorientierter Ansatz für die Gestaltung von IT-Architekturen Mehrere Kombinationen von Hardware- und Netzwerkkomponenten können ausgewählt werden, um eine IT-Infrastruktur zu entwerfen, die den organisatorischen Anforderungen gerecht wird. Das professionelle Kriterium für den Umgang mit diesen Freiheitsgraden ist die Kostenminimierung. Ein wissenschaftlicher Ansatz zur Kostenminimierung wurde jedoch selten angewandt und eine rigorose Überprüfung professioneller Gestaltungsrichtlinien fehlt noch. Der methodische Beitrag dieses Beitrags ist die Darstellung komplexer infrastruktureller Entwurfsprobleme als ein einziges Kostenminimierungsproblem. Der Ansatz zur Kostenminimierung wird mit einer im Rahmen dieser Forschung ebenfalls aufgebauten Kostendatenbank empirisch verifiziert. Der Beitrag zeigt, wie ein Gesamtansatz zur Kostenminimierung zu erheblichen Kostensenkungen führen kann, und weist darauf hin, dass zuvor in der Fachliteratur identifizierte Infrastrukturentwurfsregeln zu suboptimalen Lösungen führen können.;-;-;-;https://link.springer.com/article/10.1057/palgrave.jit.2000032 92f60077e4515004dddb13309663aefd;de;;;6.1.;;;Design der Informations- und Kommunikationstechnologieplattform für die Reform der öffentlichen Verwaltung: Spannungen und Synergien in Bangalore, Indien Die jüngste weltweite Verbreitung von Plattformen der Informations- und Kommunikationstechnologie (IKT) für die Reform des öffentlichen Sektors hat zu einem bereits wachsenden Literaturstrom über E-Government für die Entwicklung geführt und gegensätzliche Perspektiven geschaffen, in denen optimistischen, technokratischen Ansätzen weitaus skeptischere Standpunkte gegenüberstehen . Der jüngste Aufschwung öffentlich-privater Partnerschaften (ÖPP) zwischen nationalen Regierungen und Privatunternehmen hat dieser Debatte eine neue Dimension verliehen, da diese Projekte die kollaborative Beteiligung verschiedener Akteursgruppen erfordern, die von unterschiedlichen, manchmal widersprüchlichen Wertesystemen und Verhaltensmuster.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-05963-1_9 70512b54b77d5f5adc357c8420f6f108;de;;;6.1.;;;– Hin zu einer architektonischen Sicht auf die Datenqualität in Gesundheitsinformationssystemen Klinische Informationssysteme (CIS) sind zu einem zentralen Gerät in modernen Gesundheitssystemen geworden. Ihre Annahme und zunehmende Integration wird von Erwartungen in Bezug auf bessere Gesundheitsergebnisse und Kosteneffizienz getrieben. In der Praxis wird jedoch häufig eine mangelnde Datenqualität (DQ) als wesentlicher Hemmschuh bezeichnet, der die volle Realisierung dieser Vorteile verhindert. Obwohl viele Autoren über Probleme im Zusammenhang mit DQ berichtet haben, war das Erreichen und Erhalten von DQ in der GUS ein vielschichtiges und schwer fassbares Ziel. Die aktuelle Literatur zur DQ in der Gesundheitsinformatik besteht hauptsächlich aus empirischen Studien und Praxisberichten. Berichte konzentrieren sich oft auf ein bestimmtes Problem oder Qualitätsmerkmal, es fehlt jedoch ein ganzheitlicher Ansatz, um DQ „by-design“ anzugehen. Dieses Papier versucht, einen allgemeinen Rahmen für die klinische DQ zu präsentieren, der ingenieurwissenschaftliche Theorien mit Konzepten und Methoden der Gesundheitsinformatik verbindet. Wir definieren einen neuen architektonischen Standpunkt für das Entwerfen und Argumentieren von DQ in CIS. Wir führen auch den Begriff DQ-Sonden zur Überwachung und Sicherstellung der DQ während des Systembetriebs ein. Schließlich validieren wir unser Framework mit einer Fallstudie aus der Praxis.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-26585-8_10 9bd56a10a8a33ef9cefc7797ce6c3636;de;;;6.1.;;;Das Schicksal des digitalen Erbes aus Sicht von Softwareentwicklern: technische und kulturelle Aspekte Durch die Interaktion im Social Web werden Menschen, Gefühle und Eigenschaften miteinander verbunden und generieren ein digitales Erbe über das Leben hinaus. Das digitale Leben geht über das körperliche hinaus, und die Grenzen der Software erschweren es, diese Aspekte zu modellieren, insbesondere in Bezug auf Tabus und Überzeugungen im Zusammenhang mit dem Tod, die den Vorschlag von Lösungen für das digitale Erbe konditionieren können. Außerdem gibt es einen großen Unterschied zwischen den Kriterien zur Identifizierung von Bürgern in der realen und in der virtuellen Welt, einschließlich der Vorstellungen von Leben, Tod und posthumen Daten. Das Design interaktiver Systeme zu diesen Themen wird in diesem Kapitel diskutiert, basierend auf bibliographischen Recherchen, Beobachtungen des Webs und Feldforschungen zu den Meinungen von Softwareingenieuren. Hier besprechen wir auch die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-01631-3_1 aea2f4950ece2f57a48288deb3848539;de;;;6.1.;;;Die Rolle und der Umfang des Datenmanagements in einer sich ändernden Umgebung der Gesundheitsversorgung Datenmanagement ist die Analyse und Definition von Daten, die erfasst werden sollen, um die erforderlichen Informationen zu erzeugen, und die Identifizierung der Prozesse, die für die effizienteste Erfassung von Daten erforderlich sind. Das Datenmanagement muss in koordinierter Weise unter der Leitung von Daten- und Informationsmanagementspezialisten erfolgen, um den Wert der Daten zu maximieren und die Kosten für die Datenerfassung für das gesamte Gesundheitsversorgungssystem zu minimieren. Das Datenmanagement umfasst die Identifizierung von Standarddatendefinitionen und die entsprechenden Datenerfassungsprozesse sowie die Erleichterung der komplexeren Informations- und Datenmanagementaufgaben. Integrierte Informationssysteme erfordern neue Managementprozesse, um sicherzustellen, dass die Daten eine ausreichende Qualität aufweisen, ausreichend sicher sind, für die vereinbarten Zwecke verwendet und bei Nichtgebrauch sachgerecht entsorgt werden. Je mehr Daten für produktive Zwecke verwendet werden, desto mehr steigt ihr Wert und die Stückkosten der Erfassung sinken. Datenstandards stellen die Vergleichbarkeit über viele verschiedene Quellen hinweg sicher und verbessern administrative Prozesse, Rechenschaftspflichten, den Informationsaustausch von Dienstanbietern und Sicherheitsbestimmungen. Ein Mindestbestand an Standarddaten stellt zudem sicher, dass Informationsanbieter nicht durch redundante Datenanfragen belastet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-2182-1_45 326fc35d1c15337ef4f0167827d0a933;de;;;6.1.;;;SFTZ und „Die vier Zentren von Shanghai“ Mit der weiteren Verschärfung der globalen Finanzkrise beschleunigen die entwickelten Länder die „Reindustrialisierung“ und „die Rückkehr in die verarbeitende Industrie“. Vor diesem Hintergrund braut und gärt ständig die neue industrielle Revolution, die durch die Integration der digitalen Revolution und Schlüsseltechnologien wie Information, neue Energie und neue Materialtechnologie gekennzeichnet ist, und wird zu einem heißen Thema und in den Fokus von Regierungen und Wissenschaft.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0218-2_10 8493f196adc41b61603f691bd1d0ed41;de;;;6.1.;;;ABIDE: Ein auf Geboten basierendes wirtschaftliches Anreizmodell, um nicht kooperative Peers in Mobile-P2P-Netzwerke zu locken Wir schlagen ABIDE vor, ein neuartiges angebotsbasiertes wirtschaftliches Anreizmodell, um nicht kooperative mobile Peers dazu zu verleiten, Dienste in M-P2P-Netzwerken bereitzustellen. Die Hauptbeiträge von ABIDE sind dreifach. Erstens ermutigt es Relay-Peers, aufgrund von angebotsbasierten Anreizen als Vermittler für die Durchführung von Mehrwert-Routing (d. h. proaktive Suche nach Abfrageergebnissen) zu fungieren. Zweitens integriert es neu hinzugekommene Peers nahtlos in das System, indem es die Lasten mit den benachbarten Brokern teilt. Dies hilft den neuen Peers, Einnahmen zu erzielen, um Dienstleistungen beziehen zu können. Drittens wird ein effektiver Datenaustausch zwischen den Peers berücksichtigt. ABIDE berücksichtigt auch Dienstgüte, Last, Energie und Netzwerktopologie. Unsere Leistungsstudie zeigt, dass ABIDE tatsächlich die Anzahl der Dienstanbieter in M-P2P-Netzwerken erhöht und dadurch die Antwortzeiten und die Datenverfügbarkeit verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71703-4_59 6bbacc270f806ffae4780921d7f957e1;de;;;6.1.;;;Über die Umsetzung von In diesem Artikel wird HealthAgents vorgestellt, ein von der Europäischen Kommission finanziertes Forschungsprojekt zur Verbesserung der Klassifizierung von Hirntumoren durch Entscheidungsunterstützung durch mehrere Agenten über ein sicheres und verteiltes Netzwerk lokaler Datenbanken oder Data Marts. HealthAgents wird nicht nur neue Mustererkennungsmethoden für die verteilte Klassifizierung und Analyse von In-vivo-MRS- und Ex-vivo-/In-vitro-HRMAS- und DNA-Daten entwickeln, sondern auch eine Methode zur Bewertung der Qualität und Nutzbarkeit einer neuen lokalen Datenbank für Kandidaten mit einer Reihe von neue Fälle, basierend auf einem Kompatibilitäts-Score. Mit seiner Multi-Agent-Architektur beabsichtigt HealthAgents, modernste Wirkstofftechnologie im biomedizinischen Bereich anzuwenden und das HealthAgents-Netzwerk zu entwickeln, ein weltweit verteiltes Informations- und Wissensrepositorium für die Diagnose und Prognose von Hirntumoren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7643-8547-7_2 335644f06c9804c429198053e12dae15;de;;;6.1.;;;Aufbau von Resilienz durch grenzüberschreitendes Wasserressourcenmanagement Das Klima der Erde verändert sich und beeinflusst die Gesellschaft vor allem durch hydrologische Veränderungen, Überschwemmungen, Dürren und beeinträchtigte Wasserqualität. Ein verbessertes Wassermanagement, insbesondere die Wasserverwaltung, ist erforderlich, um diese Veränderungen zu bewältigen, insbesondere in grenzüberschreitenden Einzugsgebieten. Eine widerstandsfähige Wasserpolitik braucht ein förderliches Umfeld, das sowohl mit bestehenden Wassermanagementproblemen fertig wird als auch die Flexibilität besitzt, mit zukünftigen, unsicheren Situationen umzugehen. In diesem Kapitel wird erörtert, wie das förderliche Umfeld entwickelt und verbessert werden kann, um dem Klimawandel Rechnung zu tragen, und weist darauf hin, wie dies erreicht werden kann.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-030-32811-5_17-2 6476176de5e2f18480e4206858591867;de;;;6.1.;;;Business Intelligence in Organisationen des öffentlichen Sektors: Eine Fallstudie Die Informationstechnologie (IT) ermöglicht es, die zunehmende Komplexität zu bewältigen, mit der alle Unternehmen, sowohl öffentliche als auch private, konfrontiert sind. Eine der Folgen des zunehmenden IT-Einsatzes ist die große Menge an produzierten und gespeicherten Daten. Sehr oft werden diese Daten jedoch nicht in vollem Umfang ausgeschöpft. Ein bestehendes Werkzeug, das den Nutzen in Bezug auf die Verfügbarkeit von Daten insbesondere zur Unterstützung des Entscheidungsprozesses erhöhen kann, ist Business Intelligence (BI). BI kann definiert werden als „ein integrierter, unternehmensspezifischer, IT-basierter Gesamtansatz zur Unterstützung von Managemententscheidungen“ (Kemper et al. Business Intelligence and Performance Management: Theory, Systems, and Industrial Applications, Springer, UK, S. 3– 12, 2013). Wir untersuchen den Einfluss von BI auf das Verhalten von Managern. Genauer gesagt ist das Hauptziel unserer Forschung zu verstehen, wie die von BI bereitgestellten Informationen verwendet werden, welche Vor- und Nachteile ihrer Verwendung wahrgenommen werden und wie die Verwendung des BI-Moduls den Entscheidungsfindungsprozess des Managements beeinflusst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-26488-2_10 1bae71aea2353a198b9fc42d0e875d30;de;;;6.1.;;;Den Fluss umkehren: Decision-to-Data Wir wissen auch, dass, da Lernen als Fluss betrachtet werden kann, die Anwendung unserer Theorie des auf Beschränkungen basierenden Denkens impliziert, dass es zwangsläufig Engpässe geben wird, die den Lernfluss einschränken. Noch wichtiger ist, dass es Einschränkungen für die;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-3531-7_5 14c42e8ca1f1c9982b7bc7345f5614e6;de;;;6.1.;;;Computerinfrastruktur und grundlegende Datenanalyse für die Hochdurchsatzsequenzierung Die Sequenzierung der nächsten Generation erfordert enorme Recheninfrastrukturressourcen. Ein einzelner Sequenzierungslauf kann bis zu 100 Gigabasen an Sequenz generieren und erfordert fast 3 Terabyte an Datenspeicher. Um Daten dieser Größenordnung übertragen und analysieren zu können, muss die Dateninfrastruktur der Aufgabe gewachsen sein. Es gibt viele Lösungen, um diese Infrastruktur zu schaffen. Lokale Server und Datenspeicher können von der Gruppe gekauft und installiert werden, die das Sequenzierungsinstrument verwendet. Für den Aufbau der notwendigen Infrastruktur können gemeinschaftliche Ressourcen der Heimatinstitution genutzt werden oder neuere externe Cloud-basierte Lösungen zur Speicherung und Analyse von Daten genutzt werden. Jede Sequenzierungsplattform hat leicht unterschiedliche Infrastrukturanforderungen, und die IT-Lösung muss auf die verwendeten Systeme zugeschnitten oder verallgemeinert werden, um alle möglichen Instrumente abzudecken. Die Mehrheit der installierten Instrumente basiert auf der Illumina-Technologie, ein kleinerer Anteil ist ABI oder 454. Hier wird eine Lösung vorgestellt, die für jedes Instrument verallgemeinert ist, nicht nur die IT-Anforderungen, sondern auch die Bioinformatik-Anforderungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-0782-9_4 3148c17428685415ba13d1d01b1c5089;de;;;6.1.;;;Eine Softwarearchitektur für den XML-basierten Metadatenaustausch in Data Warehouse-Systemen Der Austausch von Metadaten zwischen Softwarekomponenten einer Data Warehouse-Umgebung ist die Grundlage, um die verschiedenen Vorteile eines integrierten Metadatenmanagements für Data Warehousing zu nutzen. Neben einem gemeinsamen Verständnis von Metadatensyntax und -semantik werden sowohl eine Standardaustauschsprache als auch ein Austauschmechanismus für Metadaten benötigt. Wir schlagen daher eine Softwarearchitektur für den Metadatenaustausch vor, die ein gemeinsames Metamodell zur Vereinbarung von Metadatensyntax und -semantik, XML als Standardaustauschsprache und XML Metadata Interchange (XMI) als Standardaustauschmechanismus umfasst.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36128-6_1 12146e290ea38626ba62aecfe5e25b8d;de;;;6.1.;;;: Führung, Methoden und Ergebnisse Die informationelle Privatsphäre (Selbstbestimmung) ist aufgrund technologischer, rechtlicher und kultureller Faktoren ständigen und sich weiterentwickelnden Bedrohungen ausgesetzt. Ansätze zur Wahrung und Förderung der informationellen Privatsphäre müssen sich auch mit sich ändernden Kontexten und Bedrohungen weiterentwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-5170-5_8 cb29afb4f2ad25b06eeeb093c908ee99;de;;;6.1.;;;Wie entwickelt man Chinas internationale Kommunikation von Rundfunkmedien? Seit der Reform und Öffnung hat China große Fortschritte in Bezug auf die Kommunikationskapazitäten für Rundfunk und Fernsehen gemacht. Im Vergleich zu den entwickelten Ländern bleibt jedoch eine große Lücke. Mit der raschen Integration von globaler Politik, Wirtschaft und Kultur sollen nun Chinas internationale Kommunikationskapazitäten von Radio und Fernsehen auf die Probe gestellt und herausgefordert werden. Die internationalen Kommunikationskapazitäten sind eng mit dem Aufbau nationaler Soft Power und kultureller Sicherheit eines Landes verbunden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-4460-1_4 34ffebca43b6b26bbe4bbf4d7016c4df;de;;;6.1.;;;Objektverwaltungsmaschinen: Konzept und Umsetzung Der Softwareentwicklungsprozess beschäftigt sich mit einer Vielzahl von Dokumenten. Sowohl für die Erstellung dieser Dokumente als auch für deren Pflege wird eine entsprechende Datenverwaltungsunterstützung angefordert, die zur Koexistenz mehrerer Objektverwaltungssysteme in einer einzigen fortschrittlichen Softwareentwicklungsumgebung führt. Um das Datenmanagement in Softwareentwicklungsumgebungen zu homogenisieren, präsentieren wir das Konzept der Object Management Machine (OMM) als Integrationsframework für bereits existierende Datenmanagementsysteme. Eine Objektverwaltungsmaschine ermöglicht die Erstellung einheitlicher Zugriffsmuster auf verschiedene Datenverwaltungssysteme, einschließlich der Abfrageschnittstelle und der Transaktionsverarbeitung. Das Konzept wird im Rahmen des EUREKA-Projekts ESF (EUREKA Software Factory) entwickelt.;-;-;-;https://link.springer.com/article/10.1007/BF02262721 58cf36826045fa08e9810fbf93e79233;de;;;6.1.;;;Blockchain-basierte Adaptive Federated Auto MetaLearning BigData- und DevOps-Cybersicherheitsarchitektur in der Industrie 4.0 Die Maximierung des Produktionsprozesses in der modernen Industrie, wie sie von Industrie 4.0 vorgeschlagen wird, erfordert einen umfassenden Einsatz von Cyber-Physical Systems (CbPS). Künstliche Intelligenztechnologien ermöglichen durch CbPS die Überwachung natürlicher Prozesse und treffen autonome, dezentrale und optimale Entscheidungen. Die Sammlung von Informationen, die die Effektivität von Entscheidungen optimiert, erfordert die Verwaltung und Analyse von Big Data. Diese Daten stammen normalerweise aus heterogenen Quellen und sind möglicherweise nicht interoperabel. Das Big-Data-Management wird durch die Notwendigkeit des Schutzes von Informationen, um die Geschäftsgeheimnis und den Datenschutz gemäß der jüngsten Datenschutz-Grundverordnung (DSGVO) zu gewährleisten, zusätzlich erschwert. Dieses Whitepaper stellt eine innovative ganzheitliche Blockchained Adaptive Federated Auto Meta Learning Big Data- und DevOps-Cyber-Sicherheitsarchitektur in der Industrie 4.0 vor. Ziel ist es, die Lücke im Umgang mit und in der Sicherung von Industriedaten zu schließen. Diese Architektur vereint modernste Softwareentwicklungstechnologien unter einem optimalen und effizienten Rahmen. Es ermöglicht erfolgreich die Vorhersage und Bewertung bedrohungsbezogener Bedingungen in einem industriellen Ökosystem und gewährleistet gleichzeitig Privatsphäre und Geheimhaltung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-80568-5_29 3fca25d519da7f53ffc381730d306f2f;de;;;6.1.;;;Objektverwaltungsmaschinen: Konzept und Implementierung Der Softwareentwicklungsprozess beschäftigt sich mit einer Vielzahl von Dokumenten. Sowohl für die Erstellung dieser Dokumente als auch für deren Pflege wird eine entsprechende Datenverwaltungsunterstützung angefordert, die zur Koexistenz mehrerer Objektverwaltungssysteme in einer einzigen fortschrittlichen Softwareentwicklungsumgebung führt. Um das Datenmanagement in Softwareentwicklungsumgebungen zu homogenisieren, präsentieren wir das Konzept der Object Management Machine (OMM) als Integrationsframework für bereits existierende Datenmanagementsysteme. Eine Objektverwaltungsmaschine ermöglicht die Erstellung einheitlicher Zugriffsmuster auf verschiedene Datenverwaltungssysteme, einschließlich der Abfrageschnittstelle und der Transaktionsverarbeitung. Das Konzept wird im Rahmen des EUREKA-Projekts ESF (EUREKA Software Factory) entwickelt. Um es betriebsbereit zu machen, demonstrieren wir die Eignung des MUSE Multidatabase Integrators als Implementierungsframework für das Object Management Machine-Konzept.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-3644-4_6 39a0af6f8d59cdc7f9095baa85606679;de;;;6.1.;;;Verwendung von Meddra bei unerwünschten Ereignissen in Krebsstudien: Erfahrungen, Vorbehalte und Ratschläge Das Medical Dictionary for Regulatory Activities (MedDRA) wird in Zukunft das Standard-Kodierungswörterbuch für unerwünschte Ereignisse sein. Wir werden über unsere Erfahrungen mit MedDRA Version 2.1 bei der Kodierung und Analyse von Nebenwirkungen aus zwei Krebsstudien berichten. Wir werden die Unterschiede zwischen MedDRA und herkömmlichen Wörterbüchern wie Coding Symbols for a Thesaurus of Adverse Reaction Terms (COSTART) hervorheben und unsere Erfahrungen mit der Lizenzierung, Installation sowie dem Durchsuchen und Codieren von Software für dieses neuartige Wörterbuch zusammenfassen. Wir konzentrieren uns auf unsere Erfahrungen mit der extremen Spezifität von MedDRA: Leicht unterschiedliche wörtliche Begriffe neigen dazu, in verschiedene bevorzugte Begriffe und sogar völlig unterschiedliche Systemorganklassen kodiert zu werden. Dies kann schwerwiegende Auswirkungen auf die statistische Analyse haben, die ebenfalls erörtert werden. Wir werden Empfehlungen erarbeiten, wie diese Probleme durch geeignete Schritte von der Überwachung klinischer Studien über das Datenmanagement bis hin zum statistischen Analyseplan vermieden werden können.;-;-;-;https://link.springer.com/article/10.1177/009286150103500322 36661bb42a6aa51056c32920c4d06d19;de;;;6.1.;;;Interne Untersuchungsansätze Traditionell wird der Verdacht einer Straftat behandelt, indem mit Personen gesprochen wird, die möglicherweise über relevante Informationen als Verdächtige und Zeugen verfügen. Darüber hinaus können eine Reihe weiterer Informationsquellen erkundet werden. Der Betrugsprüfer kann den methodischen Denkstil, den Herausforderungs-Denkstil, den Skill-Denkstil oder den Risiko-Denkstil hervorheben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-68916-6_5 01eb145fa0345eb5bb152408c3dee77b;de;;;6.1.;;;Europäisches DataGrid-Projekt: Erfahrungen mit der Bereitstellung eines groß angelegten Testbeds für E-Science-Anwendungen Das Ziel des European DataGrid (EDG)-Projekts besteht darin, die nächste Generation der wissenschaftlichen Exploration zu unterstützen, die eine intensive Berechnung und Analyse gemeinsamer großer Datensätze von Hunderten von Terabyte bis Petabyte in weit verteilten wissenschaftlichen Gemeinschaften erfordert. Wir sehen diese Anforderungen in vielen wissenschaftlichen Disziplinen, einschließlich Physik, Biologie und Geowissenschaften. Diese gemeinsame Nutzung wird durch die verteilte Natur der zu verwendenden Ressourcen, die verteilte Natur der Forschungsgemeinschaften, die Größe der Datensätze und die begrenzte verfügbare Netzwerkbandbreite erschwert. Um diese Probleme anzugehen, bauen wir auf aufkommenden Computational Grid-Technologien auf, um ein Forschungsnetzwerk aufzubauen, das die Technologiekomponenten entwickelt, die für die Implementierung eines weltweiten Daten- und Computational Grids in einem bisher nicht erreichten Umfang unerlässlich sind. Ein wesentlicher Bestandteil dieses Projekts ist die schrittweise Entwicklung und Bereitstellung eines groß angelegten Grid-Testbeds.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45798-4_20 094c74f48a2aa0748c6db2c14bc65340;de;;;6.1.;;;Blockchain- und IPFS-basierte Datenverteilung für das Internet der Dinge Die manipulationssichere und nachvollziehbare Verteilung von Daten ist in vielen Szenarien des Internet der Dinge (IoT) eine Notwendigkeit. Blockchain-Technologien werden häufig als Ansatz genannt, um solche Funktionen bereitzustellen. Trotzdem fehlen konkrete Lösungen, die das IoT zur Datenverteilung in die Blockchain integrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-44769-4_14 e59b921f155846044aba599a09c950dd;de;;;6.1.;;;Verbesserung der Immunisierung durch Informatik: Perspektiven aus der Partnerschaft der BID-Initiative mit Tansania und Sambia Die schlechte Durchimpfungsrate in Ländern südlich der Sahara und in Asien hat den weltweiten Fortschritt bei der Erreichung einer universellen Durchimpfungsrate blockiert. Diese Regionen verfügen über unzureichende Finanzierung, Infrastruktur und Humanressourcen. Folglich fehlen ihnen ausreichende Impfdaten, um die Verteilung von unter- und nicht geimpften Kindern zu analysieren, Gebiete mit schlechtem Zugang zu und die Inanspruchnahme von Impfdiensten zu priorisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-41215-9_26 8d705aa36fb65d8b188889c6bd58db9a;de;;;6.1.;;;Bairong Zhixin: Big Data und Aufbau von Kreditsystemen Finanzen, insbesondere Mikrofinanz, stellen hohe Anforderungen an glaubwürdige Kreditbewertungsdienste Dritter. Das rückständige Sozialkreditsystem in China ist jedoch weit davon entfernt, den Anforderungen gerecht zu werden. Neue Technologien wie Internet, E-Commerce und Big Data bieten eine neue Chance für die rasante Entwicklung der Kreditwirtschaft. Bairong Zhixin hat ein effektives Risikobewertungsmodell entwickelt, das auf seiner eigenen Big-Data-Technologie und mehrdimensionalen Online- und Offline-Daten aus Einzelhandel, sozialen Aktivitäten, Medien, Luftfahrt, Bildung, Betreibern und Marken usw. basiert. Wie der Fall von Bairong Zhixin beweist, Big-Data-Kreditbewertungstechnologie kann die traditionelle Kreditrisikobewertung auf der Grundlage des speziellen Mechanismus der „dynamischen Informationen“ verbessern, den Erfassungsbereich erweitern und die Informationsasymmetrie bei Finanzaktivitäten verringern. Durch die Anwendung der Big-Data-Technologie auf die Kreditbewertung wird es die Branche innovativ und voranbringen und eine äußerst wichtige Rolle bei der Erleichterung des Aufbaus des Sozialkreditsystems in China spielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1788-1_10 55a6931c0b2e16592fc9d49f9f3d1df0;de;;;6.1.;;;Halluzinogenwirkungen auf 5-HT-Rezeptoren zeigen unterschiedliche Mechanismen der Aktivierung und Signalgebung durch G-Protein-gekoppelte Rezeptoren Wir überprüfen die Auswirkungen einiger wichtiger Fortschritte bei der Charakterisierung molekularer Mechanismen der Signalübertragung durch G-Protein-gekoppelte Rezeptoren (GPCRs) auf unser aktuelles Verständnis der Mechanismen von Drogenmissbrauch. Diese Fortschritte werden durch die Ergebnisse unserer laufenden Arbeiten zur Wirkung von Halluzinogenen auf Serotonin (5-HT)-Rezeptoren veranschaulicht. Wir zeigen, wie ein kombinierter rechnerischer und experimenteller Ansatz spezifische Modi der Rezeptoraktivierung aufdecken kann, die den unterschiedlichen Eigenschaften von Halluzinogenen im Vergleich zu nicht halluzinogenen Kongeneren zugrunde liegen. Diese Aktivierungsmodi – die unterschiedliche ligandenabhängige Rezeptorzustände erzeugen können – werden anhand von Strukturmotiven (SM) in molekularen Modellen der Rezeptoren identifiziert, die konservierte funktionelle Mikrodomänen (FM) darstellen. Die Rolle mehrerer SM/FMs im Aktivierungsmechanismus der GPCRs wird im Detail dargestellt, um zu veranschaulichen, wie dieser Mechanismus zu ligandenabhängigen Signalwegen durch die Rezeptoren führen kann. Es werden neue bioinformatische Werkzeuge beschrieben, die entwickelt wurden, um die quantitative mathematische Modellierung von ligandenspezifischen Signalwegen zu unterstützen, die durch die 5-HT-Rezeptoren aktiviert werden, die von Halluzinogenen angesteuert werden. Die Ansätze zur mathematischen Modellierung von Signalwegen, die durch 5-HT-Rezeptoren aktiviert werden, werden im Rahmen der laufenden Arbeiten an detaillierten biochemischen Modellen von 5-HT2A und kombinierter 5-HT2A/5-HT1A, Rezeptor-vermittelter Aktivierung der MAPK 1 . kurz beschrieben ,2 Weg. Der anhaltende Bedarf an einer immer realistischeren Darstellung der Signalgebung in dynamischen Kompartimenten innerhalb der Zelle, die mit experimentell erhaltenen räumlich-zeitlichen Eigenschaften ausgestattet ist, wird betont. Solche Entwicklungen sind unerlässlich, um ein quantitatives Verständnis davon zu erlangen, wie die vielfältigen Funktionen einer Zelle koordiniert und reguliert werden, und um die Besonderheiten der Störungen zu bewerten, die durch Missbrauchsdrogen verursacht werden, die auf GPCRs abzielen.;-;-;-;https://link.springer.com/article/10.1208/aapsj070485 8abe6fd5074808da900a52ba9fcd263b;de;;;6.1.;;;Provenienz und Glaubwürdigkeit in wissenschaftlichen Datenarchiven Trotz einer langen Geschichte umfassender theoretischer Arbeiten zur Provenienz ist die empirische Forschung über die Interaktionen von Benutzern mit und Urteile auf der Grundlage von Provenienzinformationen in Archiven mit wissenschaftlichen Daten äußerst begrenzt. Dieser Artikel konzentriert sich auf die Beziehung zwischen Provenienz und Glaubwürdigkeit (d. h. Vertrauenswürdigkeit und Expertise) für Wissenschaftler. Zu diesem Zweck führten die Autoren halbstrukturierte Interviews mit siebzehn Proteomik-Forschern durch, die mit Daten von ProteomeCommons.org, einem großen Online-Repository, interagieren. Um die resultierenden Interviewdaten zu analysieren, wenden die Autoren den empirisch getesteten theoretischen Rahmen von Brian Hilligoss und Soo Young Rieh zur Bewertung der Benutzerglaubwürdigkeit an. Die Ergebnisse dieser Studie deuten darauf hin, dass die Provenienz zusammen mit anderen Informationen auf ProteomeCommons.org und den eigenen Erfahrungen und Vorkenntnissen der Probanden den Benutzern ermöglicht, die Glaubwürdigkeit von Datensätzen zu bestimmen. Die Implikationen dieser Studie unterstreichen die Bedeutung der archivarischen Perspektive der Provenienz und der archivarischen Bindung für die Unterstützung von Wissenschaftlern bei ihrer Glaubwürdigkeitsbewertung von Daten, die in wissenschaftlichen Datenrepositorien gespeichert sind.;-;-;-;https://link.springer.com/article/10.1007/s10502-012-9172-7 b0e083bc19934853adaed7af2722911d;de;;;6.1.;;;Sichere Datenherkunft In diesem Kapitel wird die sichere Datenherkunftstechnik vorgestellt. Wir konzentrieren uns hauptsächlich auf sichere Datenherkunftsschemata für Cloud-Speichersysteme. In den folgenden Abschnitten dieses Kapitels stellen wir zunächst die grundlegenden Paradigmen und Prinzipien der sicheren Datenherkunft vor. Anschließend geben wir einen umfassenden Überblick über die sicheren Datenherkunftsschemata. Schließlich überprüfen wir die neuesten Fortschritte bei der sicheren Datenherkunft und stellen vor, wie man ein sicheres Datenherkunftsschema auf einer öffentlichen Blockchain erstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4374-6_6 d2a01399601e4c4f5c8857e454725a79;de;;;6.1.;;;Die integrierte Analysefähigkeit (IAC Level 2.0) Die integrierte Analysefähigkeit (IAC) bietet eine Rechenumgebung, die die einzigartigen Bedürfnisse von Ingenieuranalysegruppen unterstützt, die sich mit interdisziplinären Problemen beschäftigen. Ein wesentlicher Bestandteil von IAS ist das Datenmanagementsystem, das sowohl die Recheneffizienz maximiert als auch eine breite Palette von Datenabfragen und -manipulationen unterstützt. In diesem Papier wurden Datenmanagementprobleme beschrieben, die unserer Meinung nach bei der IAC-Entwicklung von entscheidender Bedeutung sind. Da die Rechenumgebung eines Systems wie IAC einen starken Einfluss auf die Softwaredesign-Trades und -Entscheidungen hat, fasst das Papier auch die gesamte Systemarchitektur und einige der Entwicklungen in Bezug auf technische Module und Datenflussanforderungen zusammen. Die hier präsentierten Informationen sollen potentiellen Benutzern bei der Bewertung und Auswahl einer integrierten Fähigkeit sowie Softwareentwicklern, die vor der Aufgabe stehen, eine solche Fähigkeit zu erstellen oder zu erweitern, helfen.;-;-;-;https://link.springer.com/article/10.1007/BF01201472 4e0e1d86d1bea8b532b66b024396b434;de;;;6.1.;;;Bankstrategien im Lichte der Digitalisierung des Finanzwesens Auf die Herausforderungen der Digitalisierung reagieren etablierte Unternehmen mit einer Reihe von Strategien. Die großen internationalen Banken verfolgen eine gemischte Strategie, die Beteiligungen an FinTech-Unternehmen, Partnerschaften und auch Eigenentwicklungen in den verschiedenen Bereichen der Finanzintermediation umfasst, die von technologischen Innovationen betroffen sind. Viele Initiativen konzentrieren sich auf Kreditvergabe, Online-Banking und Zahlungsverkehr, aber auch Wealth-Management- und Support-Technologien für Middle- und Back-Office sind vorhanden. Der Grad der durch die Initiativen verursachten Störungen ist unterschiedlich, wobei sich viele Banken hauptsächlich auf die Digitalisierung von Kanälen konzentrieren. Kleinere Banken sehen sich aufgrund ihrer begrenzten Größe und ihres begrenzten Investitionspotenzials sowie ihrer traditionellen Bindung an das Gebiet, in dem sie tätig sind, und ihrer traditionellen Kundenansprache zusätzlichen Zwängen ausgesetzt. Auch für diese Intermediäre ist die Digitalisierung zu einem zentralen Thema geworden, um im Wettbewerb nicht nur von FinTechs und BigTechs, sondern auch von größeren Incumbents und Neueinsteigern bestehen zu können. Von letzteren haben Digital Native Banks begonnen, durch innovative Geschäftsmodelle und durch das Angebot hochdigitalisierter Inhalte und Dienstleistungen, die den Erwartungen der Kunden entsprechen, erfolgreich am Markt zu agieren. Diese können von etablierten Unternehmen, Neueinsteigern oder BigTech-Konglomerat-Spin-offs geschaffen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-22426-4_4 e81ebe917a14fa07dcd619473acc58b9;de;;;6.1.;;;Politische Fragen bei der Entwicklung von Informationssystemen für die öffentliche Gesundheitsüberwachung übertragbarer Krankheiten In vielerlei Hinsicht stehen das Health Provider Network (HPN) des New York State Department of Health und sein Health Information Network (HIN) als Vorbilder für integrierte öffentliche Gesundheitsnetze. Dieses Kapitel beginnt mit einer Erörterung der Art und des Zwecks von Systemen zur Überwachung der öffentlichen Gesundheit. Anschließend wird ein Überblick über die bei der Einrichtung solcher Systeme zu berücksichtigenden politischen Fragen und die Merkmale der zugrunde liegenden Informationsinfrastruktur für Überwachungssysteme gegeben. Nach der Behandlung der bei der Entwicklung des HPN und des HIN angewandten politischen Fragen und Architekturlösungen sowie der im Entwicklungsprozess gewonnenen Erkenntnisse präsentiert das Kapitel Fallstudien zu HIV-Überwachung und Partnerbenachrichtigung, elektronischer klinischer Laborberichterstattung und West Nile Überwachung von Viruserkrankungen. Die in diesen Fällen gewonnenen Erkenntnisse unterstreichen, wie wichtig es ist, Benutzer und Interessenvertreter in die Systemgestaltung einzubeziehen, die Bedürfnisse der Benutzer im Vordergrund der Überlegungen zu halten, Benutzerschulungen bereitzustellen und für die Sicherheit und Vertraulichkeit von Informationen zu sorgen. Die Fälle betonen auch die Notwendigkeit einer sorgfältigen Planung und einer angemessenen Vorlaufzeit bei der Entwicklung von Systemen. Schließlich betonen die Fälle die Bedeutung einer Informationsarchitektur, die Interoperabilität, zentrale Kontrolle und Benutzerfreundlichkeit bietet.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-22745-8_25 b37d66e678a27bb9c603786f20e63fca;de;;;6.1.;;;Absicherung der Gerätekonnektivität im Industrial Internet of Things (IoT) Die Internet-Revolution hat unsere Arbeitsweise und Kommunikation grundlegend verändert. Es hat Any-to-Any-Konnektivität ermöglicht. Diese Konnektivität hat sich in verschiedenen Phasen entwickelt. In der ersten Phase sahen wir Benutzerstandorte (Wohnungen und Büros), die über kabelgebundene Internetverbindungen mit Geschäftsstandorten verbunden waren. Im zweiten Schritt werden mobile Endgeräte (Laptops, Smartphones und Tablets) über drahtlose Internetverbindungen mit Unternehmen und untereinander verbunden. Die Transformation durch das Internet schreitet voran und das nächste Ziel sind intelligente vernetzte Geräte. Heute erleben wir die neueste Konnektivitätsstufe, bei der intelligente Geräte Menschen, Unternehmen und andere verschiedene intelligente Geräte über eine Mischung aus kabelgebundenen und kabellosen Internetverbindungen verbinden. Diese Geräte benötigen über die Vorstellungskraft hinausgehende Fähigkeiten, um erfolgreich mit anderen Geräten in der realen Welt zu interagieren. Das Internet der Dinge (IoT) erwartet tiefgreifende Veränderungen in der Welt um uns herum, und dazu muss das IoT Lösungen und Strategien entwickeln, um auf die dringenden Fragen der Gerätekonnektivität wie Sicherheit, Verfügbarkeit und Zuverlässigkeit zu reagieren. Dieses Kapitel bietet einen Überblick über verschiedene IoT-Konnektivitätsprotokolle und analysiert ihre Sicherheitsfunktionen. Das Kapitel enthält auch einige spezifische Empfehlungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-33124-9_1 7124a066d86b1785b718982a8791de42;de;;;6.1.;;;Forms-XML: Formularbasierte Benutzeroberflächen für XML-Vokabulare generieren Die Werkzeugunterstützung für Benutzeroberflächen für XML-Daten ist unzureichend. Forms-XML ist eine interaktive Komponente, die von Anwendungen aufgerufen wird, um automatisch formularbasierte Benutzeroberflächen für vorgeschriebene XML-Vokabulare zu generieren.;-;-;-;https://link.springer.com/chapter/10.1007/11563952_104 60f232656586587bad943e3bec814325;de;;;6.1.;;;Ein kompliziertes Geschäft: Die betrieblichen Realitäten der privatisierten elektronischen Überwachung von Straftätern Dieses Kapitel bietet eine detaillierte Untersuchung der Komplexität, die durch den Betrieb der elektronischen Überwachung (EM) durch den Privatsektor entsteht. In dem Kapitel wird behauptet, dass der privatisierte EM-Dienst, wie er derzeit in England und Wales betrieben wird, zu kompliziert ist und dadurch das Potenzial für ein wirksames und humanes Instrument der Strafjustiz beeinträchtigt. Bei der Entwicklung dieser Analyse deutet das Kapitel darauf hin, dass die Debatten über die Rolle des Privatsektors in der Strafjustiz bisher diese betriebliche Komplexität und ihre Auswirkungen auf die Leistungserbringung weitgehend nicht berücksichtigt haben. Wenn die Beteiligung des Privatsektors wirksam bekämpft und EM- und andere Strafjustizmaßnahmen auf humane und reaktionsschnelle Weise durchgeführt werden sollen, ist ein differenzierterer und evidenzbasierter Ansatz erforderlich.;-;-;-;https://link.springer.com/chapter/10.1057/978-1-137-37064-8_8 6ef408f9b533def121704a4eea27a5d8;de;;;6.1.;;;Notfallnetzwerke für Szenarien nach Katastrophen Der Schwerpunkt dieses Kapitels liegt auf Kommunikations- (und teilweise Computer-)Lösungen, die es ermöglichen, den Bedarf unmittelbar nach einer Katastrophe bis zur vollständigen Wiederherstellung der Kommunikationsinfrastruktur und -dienste vor der Katastrophe zu decken. Da die Verkehrsnachfrage aufgrund der spezifischen Bedürfnisse von Nachkatastrophenszenarien erheblich von der im Szenario vor der Katastrophe abweichen kann, scheint es offensichtlich, dass eine einfache Wiederherstellung der bestehenden Infrastruktur und Dienste möglicherweise nicht ausreicht, um diese zu decken, und zwar Lösungen sind gefragt. In diesem Kapitel werden die relevantesten Szenarien nach einer Katastrophe untersucht und eine Reihe von Referenzanwendungsfällen und deren Kommunikationsanforderungen skizziert. Anschließend wird ein Überblick über den Stand der Technik für die Notfall- und Postkatastrophenkommunikation gegeben. Schließlich konzentriert es sich auf eine Reihe spezifischer Lösungen von besonderer Relevanz für Katastrophenszenarien und skizziert die wichtigsten bisher offenen Forschungsherausforderungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-44685-7_11 136bcd4637bee6c9e8d6b0a5fd84ee95;de;;;6.1.;;;Konstruktion und Anwendung des Echtzeit-Überwachungssystems von Erdrutschen Echtzeit-Überwachung kann eine automatische kontinuierliche Überwachungsdatenerfassung erreichen, und zum ersten Mal werden die Informationen die Entscheidungsfindung für die Analyse erreichen. Daher wurde dies von immer mehr Menschen angesehen und wurde zum unvermeidlichen Trend der Überwachung der geologischen Katastrophe . Die Forschungsergebnisse werden systematisch aus dem Research and Demonstration about Technology & Method on Geological Hazard Monitoring and Prewarning des Ministry of Land and Resources PRC zusammengefasst, wobei darauf hingewiesen wird, dass die Eigenschaften des Echtzeit-Monitorings, die Methoden der Einzel- Kettengründung des Echtzeit-Überwachungssystems durch das Überwachungsnetz, Datenerfassungssystem, Datenübertragungssystem, Datenverarbeitungs- und Informationsverbreitungssystem. Und stellen Sie den Bauprozess des Systems der Demonstration vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-2386-6_3 355dc5c600a744a4d45ce6d0eff42012;de;;;6.1.;;;Herausforderungen für die Wasserqualität in Ägypten Wasser in ausreichender Menge und von ausreichender Qualität ist für das Wohlbefinden aller lebenden Organismen notwendig. Die Bedeutung und intensive Nutzung von Süßwasser macht es zu einer empfindlichen und immer knapper werdenden Ressource. Ein breites Spektrum menschlicher Aktivitäten kann direkt oder indirekt zu einer Verschlechterung der Umwelt von Oberflächen- und Grundwasser führen.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-2243-3_22 ff28999462abc78cf6fb8a6000bdc468;de;;;6.1.;;;Nutzung der Gruppensignatur zur Implementierung der Benutzerauthentifizierung in Cloud Computing Cloud Computing ist eine Technologie, die aus dem verteilten Computing entwickelt wurde. Der Cloud-Server-Anbieter sammelt die redundanten Speicher- und Rechenressourcen, um das Ziel zu verwirklichen, den Verbrauchern skalierbare Rechenressourcen bereitzustellen. Die Infrastrukturen des Cloud Computing sind virtualisiert und können als unendlich bezeichnet werden. Daher muss die Benutzerseite die lokalen Speicher- und Computerressourcen nicht berücksichtigen. Die Cloud-Dienste werden jedoch vom Drittanbieter bereitgestellt. In der Regel ist der Benutzer, der die Daten in der Cloud speichert, nicht sicher. Die Sicherheit der Daten liegt dem Benutzer wirklich am Herzen. Mit anderen Worten, die Cloud interessiert sich für die Daten. Wir haben ein Schema vorgeschlagen, das die Identitätsauthentifizierung von Cloud-Benutzern unterstützen kann, die auf der Gruppensignatur basiert. Aus der Sicherheitsanalyse kann unser Schema einigen möglichen Angriffen widerstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-3023-9_51 b1e649c0097859031fa8edbfafdb8fa7;de;;;6.1.;;;Eine auf Achtsamkeit basierende Live-Online-Intervention für Kinder mit Epilepsie und ihre Familien: Protokoll für eine randomisierte kontrollierte Studie zu Making Mindfulness Matter© Epilepsie geht weit über Anfälle hinaus, bis zu 80 % der Kinder mit Epilepsie (CWE) können komorbide kognitive oder psychische Gesundheitsprobleme haben und bis zu 50 % der Eltern von CWE haben ein Risiko für schwere Depressionen. Frühere Forschungen haben auch gezeigt, dass das familiäre Umfeld einen größeren Einfluss auf die gesundheitsbezogene Lebensqualität (HRQOL) und psychische Gesundheit von Kindern und Eltern hat als epilepsiebezogene Faktoren. Es besteht ein dringender Bedarf an kostengünstigen, innovativen Interventionen zur Verbesserung der HRQOL und der psychischen Gesundheit von CWE und ihren Eltern. Das Ziel dieser randomisierten kontrollierten Studie (RCT) ist es zu evaluieren, ob ein interaktives Online-Interventionsprogramm auf Achtsamkeitsbasis, Making Mindfulness Matter (M3), umsetzbar ist und ob es sich positiv auf die HRQOL und die psychische Gesundheit von CWE und Eltern auswirkt (insbesondere, Stress-, Verhaltens-, Depressions- und Angstsymptome).;-;-;-;https://link.springer.com/article/10.1186/s13063-020-04792-3 a258a18bae0a7ab67c63222be8533e8b;de;;;6.1.;;;Schutz von PLM-Daten während ihres gesamten Lebenszyklus Unternehmen operieren in einer globalen Wirtschaft, wobei ihre Aktivitäten auf interne Prozesse und externe Partner verteilt sind. Product Lifecycle Management (PLM)-Systeme spielen eine bedeutende Rolle in der modernen Produktentwicklung und -verwaltung. Es gibt mehrere Phasen im Produktlebenszyklus, die durch die gemeinsame Nutzung von Daten zwischen PLM-Einheiten rationalisiert werden. Geteilte Daten können hochsensible Informationen wie Geschäftsgeheimnisse, geistiges Eigentum, private organisatorische oder personenbezogene Daten enthalten. In großen Unternehmenssystemen ist es schwierig, die Datenverbreitung zu verstehen und zu verfolgen. Die gemeinsame Nutzung von Daten zwischen globalen Partnern verkompliziert und verschärft das Problem weiter. Die Auswirkung des Durchsickerns gemeinsam genutzter Daten ist eines der Hauptrisiken. Bestehende Ansätze gewährleisten die Sicherheit innerhalb der Domäne einer Organisation und befassen sich nicht mit dem Schutz in einer dezentralen Umgebung. Wir schlagen einen Ansatz für die sichere Datenverbreitung unter Verwendung des Active Bundle-Schemas vor. Dieser Ansatz ermöglicht es Unternehmen, Informationen in ihren PLM-Schritten sicher auszutauschen und während des gesamten Produktlebenszyklus zu schützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37949-9_55 ef48bdd0ef7557f7f287fd3e97d0edc5;de;;;6.1.;;;Effizientes Management eines öffentlich finanzierten Portfolios klinischer Krebsstudien Die Durchführung, Verwaltung und Berichterstattung einer einzelnen gut konzipierten klinischen Krebsstudie ist ein äußerst komplexes und kostspieliges Unterfangen. Innerhalb unserer Gruppe besteht jedoch die Möglichkeit, bis zu etwa 100 öffentlich finanzierte klinische Studien im gesamten Entwicklungsspektrum gleichzeitig zu entwerfen, durchzuführen, zu überwachen und zu analysieren. Operativ sind wir bestrebt, studienübergreifende Prozesse und Software zu optimieren und zu standardisieren, die Effizienz zu steigern und uns auf die Qualität und Zuverlässigkeit der Studienergebnisse zu konzentrieren. Die Implementierung neuartiger Softwareanwendungen erhöht die Qualität und Effizienz der Datenauswertung, Überwachung und statistischen Analyse über mehrere Krankheits- und Studientypen hinweg. Konventionen und studienübergreifende Instrumente sind der Schlüssel zur Qualitätsüberwachung und Analyse komplexer Studienportfolios. Eine Strategie der vollständigen Nutzung der Gemeinsamkeiten zwischen den Studien führt zu einer besseren Qualität der Ergebnisse einer bestimmten Studie im Portfolio sowie zu einer effizienteren Nutzung öffentlicher Mittel zur Durchführung der Studien.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-319-52677-5_61-1 332f875618342dff816f54abe30283c0;de;;;6.1.;;;Akteure in der Entwicklung der personalisierten Medizin Die Entwicklung der personalisierten Medizin ist ein multidisziplinäres Unterfangen und erfordert die Zusammenarbeit vieler Akteure. Pharma- und Biotechnologieunternehmen nehmen dabei eine führende Rolle ein, um ihrer Zukunft als Gesundheitsunternehmen und nicht nur als Entwickler von Technologien und Herstellern von Medikamenten gerecht zu werden. Die praktizierenden Ärzte werden eine entscheidende Rolle bei der Umsetzung der personalisierten Medizin spielen und mit den Patienten interagieren. Die Personalisierte Medizin-Koalition umfasst viele dieser Spieler.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-62080-6_23 2941f0a39836cf85b272eefac5eba9bb;de;;;6.1.;;;Auf dem Weg zu einer vertrauenswürdigen Unterstützungsplattform für die Jobvermittlungsaufgabe HR-Technologie ist ein neuer Trend im Einstellungsprozess, der noch immer mit einigen Ineffizienzen und Grenzen konfrontiert ist. Dieses Papier skizziert eine High-Level-Architektur einer vertrauenswürdigen Support-Plattform für die Jobvermittlungsaufgabe. Unser Design basiert auf einer facettenreichen Analyse aktueller Praktiken und Anforderungen aus technischer, rechtlicher und gesellschaftlicher Perspektive. Basierend auf den Eigenschaften intelligenter Datenanalyseansätze, Blockchain-Technologie und verteiltem Identitätsmanagement wird diese Lösung die Optimierung, Compliance und Verbesserung des Kandidatenauswahlprozesses für Stellenangebote ermöglichen. Die Ergebnisse der aktuellen Arbeiten werden weiter verwendet, um Datenformate und spezifische Technologien für die Implementierung zu identifizieren. Praktische Anwendungsfälle werden derzeit mit Industriepartnern entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-48340-1_16 863cecb9b10cd6bc6c30884f21520555;de;;;6.1.;;;Herausforderungen bei der Einführung menschzentrierter intelligenter Systeme: Ein Ansatz des organisatorischen Lernens Klinische Entscheidungsunterstützungssysteme (CDSSs) sind menschzentrierte intelligente Systeme (HCISs), die kodifiziertes medizinisches Fachwissen oder große Datensätze für medizinische Entscheidungsempfehlungen verwenden. Die meisten analytischen CDSS, die die Möglichkeiten großer Datensätze und analytischer Techniken nutzen, bleiben in einer Forschungs- und Entwicklungsumgebung und werden nicht im klinischen Kontext eingesetzt. Um dies zu verstehen, analysieren wir die CDSS-Einführung als organisationalen Lernprozess. Wir wenden ein Modell des organisatorischen Lernens auf den Fall einer analytischen CDSS-Implementierung an, die medizinische Daten analysiert, um die Wahrscheinlichkeit einer Sepsis bei Frühgeborenen vorherzusagen, um die Entscheidung der Ärzte über die Verabreichung von Antibiotika zu unterstützen. In unserer Diskussion vergleichen wir als nächstes unsere Fallergebnisse mit möglichen organisatorischen Lernherausforderungen für die Einführung anderer (medizinischer) HCIS und ziehen Konsequenzen für Projekte der HCIS-Einführung in Organisationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5784-2_2 dfb5602f406ca19e18edaba81d146d1d;de;;;6.1.;;;Der IT-Geschäftswert Die Rolle dieses Kapitels besteht darin, den Leser in den Bereich des Geschäftswerts der Informationstechnologie (IT) einzuführen. Der IT-Geschäftswert bezieht sich auf den Einfluss der Informationstechnologie auf die Unternehmensleistung und auf Parameter wie Kostensenkung und Produktivitätssteigerung unter anderem. In diesem Kapitel wird die Rolle der Technologie als entscheidende Quelle für Wettbewerbsvorteile analysiert. Die kritische Rolle der IT wird untersucht und Fragen im Zusammenhang mit der Frage, wann IT wichtig ist und wann IT keine Rolle spielt, werden dargestellt. Darüber hinaus werden auch die Quellen und Auswirkungen des IT-Geschäftswerts und der Zusammenhang zwischen strategischer Leistung und IT-Geschäftswert untersucht. Der letzte Teil des Kapitels führt in das Konzept des Informationsmanagements und die Beziehung zwischen Informationstechnologie und Informationsmanagement ein. Der Schwerpunkt und die weitere Analyse des Informationsmanagements erfolgt in den folgenden Kapiteln ab Kap. 2.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32698-1_1 02959cccb59f9c6018e37a306ddfe5e7;de;;;6.1.;;;Design und Implementierung des kooperativen Caches für PVFS In letzter Zeit wurden viele Anstrengungen unternommen, um mit kostengünstigen PCs, die über Hochgeschwindigkeitsnetzwerke verbunden sind, eine hohe Leistung beim Cluster-Computing zu erzielen. Einige von ihnen sollten eine hohe Bandbreite und Parallelität im Dateidienst unter Verwendung eines verteilten Dateisystems bereitstellen. Andere Forschungen zu verteilten Dateisystemen umfassen den kooperativen Cache, der die Serverlast reduziert und die Gesamtleistung verbessert. Der kooperative Cache teilt Datei-Caches zwischen Clients, so dass ein Client eine Datei an einen anderen Client anfordern kann, nicht an den Server, durch die Weitergabe von Nachrichten zwischen Clients. In verschiedenen verteilten Dateisystemen bietet PVFS (Parallel Virtual File System) eine hohe Leistung mit parallelem I/O in Linux, das im Cluster-Computing weit verbreitet ist. PVFS unterstützt jedoch keine Datei-Cache-Funktion. Dieses Papier beschreibt das Design und die Implementierung des kooperativen Caches für PVFS (Coopc-PVFS). Wir zeigen die Effizienz von Coopc-PVFS im Vergleich zu original PVFS. Als Ergebnis ist die Reaktionszeit von Coopc-PVFS kürzer oder ähnlich der des ursprünglichen PVFS.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24685-5_6 5d1026cf8db3f7d18c042e733315e7ec;de;;;6.1.;;;Composite CDE: Modellierung zusammengesetzter Beziehungen zwischen gemeinsamen Datenelementen zur Darstellung komplexer klinischer Daten Die semantische Interoperabilität ist für die Verbesserung der Datenqualität und des Datenaustauschs unerlässlich. Der ISO/IEC 11179 Metadata Registry (MDR)-Standard wurde als Lösung für die Standardisierung und Registrierung klinischer Datenelemente (DEs) hervorgehoben. Das Standardmodell weist jedoch sowohl strukturelle als auch semantische Einschränkungen auf, und die Anzahl der DEs nimmt aufgrund der schlechten Wiederverwendbarkeit von Begriffen weiter zu. Es fehlen semantische Typen und Einschränkungen, um DEs in realen klinischen Dokumenten umfassend zu beschreiben und zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s12911-020-01168-0 67b7ef9f18769141a2ea27bf133f39df;de;;;6.1.;;;Edge Intelligence: Eine robuste Verstärkung von Edge Computing und künstlicher Intelligenz Durch die Entwicklung schnellerer und verbesserter Kommunikationsmittel profitieren sowohl Technologien als auch Kunden. Die Welt bewegt sich rasant in Richtung Digitalisierung und die Konnektivität steht unter enormem Druck. Die Entwicklung und Implementierung von IoT-Geräten kommt allen Industriesektoren zugute und stimuliert mehr Bereiche in Bezug auf Komfort, Produktivität und Kommunikation. Aber eine so große Datenmenge, die von IoT-Geräten generiert wird, könnte zu einem Ausfall der IT-Infrastruktur führen. Um das gewünschte Ziel zu erreichen, reisen diese massiven Daten über einen Vermittler. Wenn sich der sogenannte Intermediator, also die Cloud-Datenbank, an einem entfernten Standort befindet, können die Daten eine gewisse Verzögerung erfahren, bevor sie zur Verarbeitung in die Cloud gelangen. Daher hat die IT-Branche in den letzten Jahren enorme Aufmerksamkeit auf die Verbesserung der Kommunikation zwischen diesen Technologien gelenkt. Und genau das ist das Ziel von Edge Computing (EC). Inzwischen haben auch Algorithmen und Modelle der künstlichen Intelligenz (KI) bahnbrechende Fortschritte gemacht, um den erfolgreichen Einsatz von Intelligenz in den Cloud-Diensten zu beschleunigen. Im Großen und Ganzen werden KI-Dienste in der Cloud ausgeführt, um den Anforderungen gerecht zu werden, da die meisten KI-Modelle kompliziert und schwer zu verarbeiten sind, um ihre Induktionsergebnisse zugunsten von Geräten mit begrenzten Ressourcen zu verarbeiten. Nichtsdestotrotz kann eine solche „End-Cloud“-Architektur die Probleme von Echtzeit-KI-Diensten wie Echtzeitanalysen und Smart Manufacturing nicht lösen. Dementsprechend kann der Einsatz von KI-Anwendungen am Edge die Anwendungssituationen von KI insbesondere im Hinblick auf die Eigenschaft der geringen Latenz erweitern. Durch die Kombination der beiden oben genannten Paradigmen, also EC und KI, kann ein neuer Ausblick entstehen: Edge Intelligence (EI). Dieses Papier bietet Einblicke in diese neue Perspektive, indem es Kerndefinitionen, Konzepte, Komponenten und Frameworks erörtert. Es beschreibt auch einige notwendige Hintergründe für zukünftige Forschungsbereiche und Herausforderungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-66218-9_55 595c1409ce2af35be2a2ffe9bca05f40;de;;;6.1.;;;Einsatz von RFID zur Reduzierung des Bullwhip-Effekts in einer FMCG-Lieferkette Dieses Papier bietet eine quantitative Analyse der Reduzierung des Bullwhip-Effekts und der potenziellen Vorteile dank der Echtzeit-Sichtbarkeit der Produktionsabläufe, die durch die Radiofrequenz-Identifikation (RFID)-Technologie und andere Technologien bereitgestellt werden. Dieses Papier basiert auf einer Fast Moving Consumer Goods (FMCG)-Lieferkette, die Lieferkette besteht aus ihren Ebenen, nämlich Herstellern, Distributoren und Einzelhändlern von FMCG, das RFID-basierte Intra-SC-System wird für das Lager des Unternehmens in Jiangsu . implementiert , China. Das Ergebnis zeigt, dass die RFID-Anwendung die Effizienz der FMCG-Lieferkette dramatisch verbessern kann und die Echtzeit-Sichtbarkeit der Lieferkette den Bullwhip-Effekt deutlich reduzieren und die wirtschaftliche Rentabilität der gesamten FMCG-Lieferkette erheblich beeinträchtigen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27957-7_24 7340f0ac69dce9e9b2185728786a8202;de;;;6.1.;;;Funktionale Datenintegration in einem verteilten Mediatorsystem Amos II (Active Mediator Object System) ist ein verteiltes Mediatorsystem, das ein funktionales Datenmodell verwendet und über eine relational vollständige funktionale Abfragesprache, AmosQL, verfügt. Durch seine verteilten Multi-Datenbank-Einrichtungen können viele autonome und verteilte Amos-II-Peers maßlos werden. Es können funktionale Multi-Datenbank-Abfragen und -Ansichten definiert werden, in denen externe Datenquellen unterschiedlicher Art durch Amos II übersetzt und durch seine funktionalen Mediationsprimitiven abgeglichen werden. Jeder Mediator-Peer bietet eine Reihe von transparenten Funktionsansichten von Daten, die von anderen Mediator-Peers, eingeschlossenen Datenquellen und in Amos II selbst gespeicherten Daten abgeglichen wurden. Die Zusammensetzung von Mediator-Peers in Bezug auf andere Peers bietet eine Möglichkeit, den Datenintegrationsprozess durch die Zusammenstellung von Mediationsmodulen zu skalieren. Der Amos II-Datenmanager und der Abfrageprozessor sind erweiterbar, sodass AmosQL neue anwendungsorientierte Datentypen und Operatoren hinzugefügt werden können, die in einer externen Programmiersprache (Java, C oder Lisp) implementiert sind. Die Erweiterbarkeit ermöglicht es, für verschiedene Anwendungsbereiche spezialisierte Datenrepräsentationen in Mediator-Peers zu verpacken. Das funktionale Datenmodell bietet sehr leistungsfähige Abfrage- und Datenintegrationsprimitive, die eine erweiterte Abfrageoptimierung erfordern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-05372-0_9 1d2f05e2070a797f3972e326a31df557;de;;;6.1.;;;WISE: Ein webbasiertes Intelligent Sensor Explorer Framework zum Veröffentlichen, Durchsuchen und Analysieren von Sensordaten über das Internet In diesem Beitrag stellen wir WISE vor, ein internetbasiertes Framework zum Veröffentlichen, Durchsuchen und Analysieren von Echtzeit-Sensordaten. Diese Umgebung ermöglicht es Anbietern, ihre Sensoren im Internet zu bewerben, und ungebetenen Benutzern, gewünschte Sensoren über eine skalierbare Peer-to-Peer-Suchfunktion zu finden. Ein spezieller Browser ermöglicht es einem Benutzer, die eingehenden Datenströme aus der Ferne zu steuern, wodurch entsprechende Plug-Ins, wie beispielsweise ein Visualisierungsmodul, aktiviert werden, um die Daten verständlich darzustellen. Daher ermöglicht WISE auch die gemeinsame Nutzung von Sensordaten-Analysetools in Form von Software-Plug-Ins.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27834-4_69 0e95149d50eaa8809fd7689832c4be0e;de;;;6.1.;;;Staatliche Programme zur Vermeidung von Umweltverschmutzung In den Vereinigten Staaten werden alle staatlichen Programme zur Vermeidung von Umweltverschmutzung gemäß den jeweiligen Landesgesetzen unabhängig erstellt. Jeder Staat muss jedoch Bundesgesetze und -verordnungen umsetzen. Staaten können ihre Regeln und Vorschriften strenger, aber nicht weniger streng als die der Bundesvorschriften und -vorschriften festlegen. Dieses Kapitel stellt Programme und Ansätze zur Vermeidung von Umweltverschmutzung in drei Staaten vor, um die Ähnlichkeiten und unterschiedlichen Schwerpunkte der Programme und Umsetzungen der einzelnen Staaten aufzuzeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-03110-0_16 12ceb0ffb47d7cc727706feacf6bfbff;de;;;6.1.;;;Eine Einführung in die Hardware-, Software- und andere Informationstechnologieanforderungen biomedizinischer Biobanken Biobanken unterstützen die medizinische Forschung, indem sie den Zugang zu Bioproben erleichtern. Bioproben, die mit klinischen und molekularen Informationen verknüpft sind, sind besonders nützlich für die translationale biomedizinische Forschung. Die Verfolgung und Verwaltung der Bioproben und der dazugehörigen Daten sind daher entscheidende Aufgaben für das Funktionieren einer Biobank. Für die ordnungsgemäße Verwaltung von Bioproben sind eine angemessene Computerhardware, eine effiziente und umfassende Biobanking-Software und eine kostengünstige Datenspeicherung erforderlich. Da Biobanken umfangreiche Bestände an Proben und Patientendaten aufbauen, stellen sich unweigerlich auch ethische Überlegungen. Hierin beschreiben wir einige grundlegende Überlegungen zum Aufbau einer Biobanking-Informationstechnologie-Infrastruktur, die ein angehender Biobanker benötigt. Schließlich diskutieren wir auch Trends und zukünftige Bedürfnisse in der Biobanking-Informatik.;-;-;-;https://link.springer.com/protocol/10.1007/978-1-4939-8935-5_3 557c7ff0d1029303b7c95382a95308a3;de;;;6.1.;;;Ausblenden eines Logo-Wasserzeichens in einem Bild zum Schutz des Urheberrechts Aufgrund der dringenden Notwendigkeit, das Urheberrecht digitaler Produkte in einer digitalen Bibliothek zu schützen, schlägt dieses Papier ein neuartiges öffentliches Wasserzeichenschema für ein Standbild vor. Zuerst wird das Bild in die Multiwavelet-Domäne zerlegt, in der es vier Unterblöcke in der gröbsten Auflösungsstufe gibt. Dann wird ein Logo-Wasserzeichen in das Niederfrequenzband eingebettet, indem der Differenzwert zwischen entsprechenden Koeffizienten in einem Paar von Unterblöcken in der gröbsten Auflösungsstufe quantisiert wird. Experimentelle Ergebnisse zeigen, dass das vorgeschlagene Schema den herkömmlichen quantisierungsbasierten Ansätzen in Bezug auf Robustheit überlegen ist.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36227-4_71 4d4243009342fb23bb83d146840c3ff0;de;;;6.1.;;;Pace: Datenschutz für die Durchsetzung der Zugriffskontrolle in P2P-Netzwerken In offenen Umgebungen wie Peer-to-Peer (P2P)-Systemen ist die Entscheidung, mit mehreren Benutzern zusammenzuarbeiten – z. B. durch die Gewährung des Zugriffs auf eine Ressource – in der Praxis aufgrund der extremen Dezentralisierung und des Fehlens vertrauenswürdiger Dritter schwer zu erreichen. Die Literatur enthält eine Fülle von Anwendungen, bei denen eine skalierbare Lösung für die verteilte Zugangskontrolle entscheidend ist. Diese Tatsache motiviert uns, ein Protokoll zur Durchsetzung der Zugangskontrolle vorzuschlagen, das auf Netzwerke anwendbar ist, die ausschließlich aus nicht vertrauenswürdigen Knoten bestehen. Das Hauptmerkmal unseres Protokolls besteht darin, dass es sowohl sensible Berechtigungen als auch sensible Richtlinien schützt und sich nicht auf eine zentrale Autorität verlässt. Wir analysieren die Effizienz (Rechenaufwand und Kommunikationsaufwand) sowie die Sicherheit unseres Protokolls.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03715-3_9 3b1e3c8abb209ae151bd12b885be0628;de;;;6.1.;;;Kostenmanagementsystem für Bauprojekte basierend auf Computertechnologie In den letzten Jahren, mit der rasanten Entwicklung der chinesischen Wirtschaft, immer mehr Ingenieurbau, steht das Projektkostenmanagement in direktem Zusammenhang mit den Vorteilen des Ingenieurbaus, aber es gibt immer noch viele Mängel im Informationsmanagement der Projektkosten, was zu einer ernsthaften Verschwendung von Projektkosten führt und schädigt den wirtschaftlichen Nutzen von Bauunternehmen. Daher wird mit der schnellen Entwicklung der Computerinformationstechnologie die Technologie auf das Projektkosten-Informationsmanagement angewendet, die traditionelle Form des Projektkostenmanagement-Informationssystems wird reformiert, das Projektkostenmanagement-Informationssystemmodell wird etabliert und die Projektkostenmanagement-Informationen wurde verwirklicht. Es verändert das dynamische Management und die terminliche Investitionskontrolle basierend auf der BIM-Technologie und bildet den Arbeitsmodus der kollaborativen Verwaltung und Kostenkontrolle der Projektmitglieder. Durch das effektive Management der Bauprojektkosten kann gesagt werden, dass es drei Zwecken dient. Im eigentlichen Bauprojekt gibt es aufgrund des umfassenden Einflusses verschiedener Faktoren viele Unsicherheitsfaktoren, die die Projektkosten beeinflussen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-74811-1_10 ffffa456e1bc2a3a9dc360a356068207;de;;;6.1.;;;Sozialkapital als Wertschöpfung und Lieferung eines nachhaltigen Geschäftsmodells: Eine Fallstudie aus Indonesien Dieses Kapitel verdeutlicht die Zusammenhänge zwischen Wertversprechen, Wertschöpfung und -bereitstellung sowie Werterfassung durch die Integration des Sozialkapitalkonzepts in ein nachhaltiges Geschäftsmodell. Anhand einer explorativen qualitativen Fallstudie wird untersucht, warum und wie ein Unternehmen seine Nachhaltigkeitsstrategie (Value Proposition) von 1980 bis 2011 in Unternehmensstiftungen umsetzt, die Sozialkapital (Wertschöpfung und -lieferung) und Nachhaltigkeitsleistung (Werterfassung) generieren Für eine fallübergreifende Analyse wurden Stiftungen ausgewählt, die sich mit der Entwicklung kleiner Unternehmen und qualifizierter Arbeitskräfte in einem der größten börsennotierten Unternehmen Indonesiens befassen. Primär- und Sekundärdaten aus Firmendokumenten, Archivalien, Interviews und Beobachtungen wurden analysiert, um ein theoretisches Modell zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-73503-0_14 eb6b18645c18bbe967bb420b61a527aa;de;;;6.1.;;;Pandemie-Influenza-Planung für die psychische Gesundheitssicherheit von Überlebenden von Massensterben Es wurde dokumentiert, dass Influenza-A-Pandemien in Abständen von 10 bis 50 Jahren auftreten – durchschnittlich drei Ereignisse pro Jahrhundert, die auf das 16. Jahrhundert zurückgehen. Jede aufgezeichnete Pandemie hat zu einem Anstieg der jährlichen Sterblichkeitsraten in der infizierten Bevölkerung geführt, wobei Massensterben in einer Pandemiewelle den Todesfällen entsprechen, die über sechs Monate einer Epidemiesaison hinweg erlitten wurden. Dieses Kapitel zielt darauf ab, die Aufsicht in Pandemie-Vorbereitungsplänen zu korrigieren, indem ein Kompendium von Leitlinien und Empfehlungen von internationalen Gesundheitsorganisationen, Experten für Pandemie-Todesfälle und erfahrenen Fachleuten im Bereich der Massensterblichkeitsbekämpfung vorgestellt wird. Ihr Ziel ist es, einen Rahmen für Massensterblichkeit zur Verfügung zu stellen, um die Vorbereitung und Reaktion der WHO auf Pandemie-Influenza (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27914-5_5 ab157a6c93d315e8b55a0c5b22504435;de;;;6.1.;;;Reibungslose Einführung von Semantic Tagging in Genotypisierungsverfahren Konzepte und Werkzeuge aus der Forschung im Semantic Web finden breite Anwendung bei der Klassifikation biomedizinischer Literaturwerke und Forschungsergebnisse. Ein wesentlicher Vorteil könnte sich aus der semantischen Klassifikation von Dokumenten jeglicher Art aus der Forschung oder sogar aus gewöhnlichen diagnostischen Tests ergeben: Dies kann den Weg zum Aufbau einer beeindruckenden, semantisch durchsuchbaren Wissensbasis ebnen. Die Verwendung von semantischem Tagging auf dieser Betriebsebene wird durch das Fehlen geeigneter Tools behindert. In diesem Beitrag stellen wir einen Ansatz vor, um semantisches Tagging in Genotypisierungstestverfahren einzuführen. Eine formale Analyse des Prozess-Workflows ist entscheidend, um die Phasen zu bestimmen, in denen Tagging angewendet werden könnte. Später ermöglicht ein angereichertes Enterprise Content Management System die Archivierung von Testdokumenten, deren Metadaten Begriffe aus beliebigen Ontologien umfassen können. Die Flexibilität und die Benutzerfreundlichkeit des Systems sind Schlüsselfaktoren für eine tatsächliche, flächendeckende Einführung von Semantic Tagging in diesem Bereich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15020-3_18 c644951c393cf7f3d77d90555c457a8b;de;;;6.1.;;;Auf dem Weg zum Aufbau einer generischen Grid-Services-Plattform: Ein komponentenorientierter Ansatz Grid-Anwendungen, die moderne Grid-Infrastrukturen verwenden, profitieren von einer Vielzahl von Funktionen, da sie mit einem umfassenden integrierten Funktionsumfang ausgestattet sind. Infolgedessen wurde das Konzept einer Leichtbauplattform noch nicht richtig berücksichtigt und aktuelle Systeme können nicht einfach übertragen, übernommen oder angepasst werden. Angesichts des Versprechens, dass das Grid allgegenwärtig sein wird, ist es an der Zeit, die Entwurfsmethodik für Grid-Infrastrukturen der nächsten Generation zu überdenken. Anstatt die zugrunde liegende Plattform mit einem erschöpfenden, reichhaltigen Satz von Funktionen aufzubauen, beschreiben wir in diesem Kapitel eine alternative Strategie, die einem komponentenorientierten Ansatz folgt. Eine leichtgewichtige, rekonfigurierbare und erweiterbare Kernplattform ist der Schlüssel zu unserem Design. Wir identifizieren und beschreiben die sehr minimalen und wesentlichen Eigenschaften, die ein modernes Grid-System immer bieten sollte, und stellen dann alle anderen Funktionen als steckbare Komponenten bereit. Diese steckbaren Komponenten können bei Bedarf online geschaltet werden, wie dies von der Anwendung implizit gefordert wird. Mit Unterstützung der Adaptivität sehen wir unseren Ansatz als Lösung für eine flexible, dynamisch rekonfigurierbare Grid-Plattform.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-23352-0_3 cf4f39474292c8c6661ab8ef71093476;de;;;6.1.;;;Stauprognose – eine gesellschaftliche Chance Informationstechnologische, wirtschaftliche, finanzielle, rechtliche und institutionelle Aspekte beeinflussen die Systemkonfigurationen von Stauvorhersagesystemen. Zunächst werden mehrere Lösungen für die einzelnen Problemfelder entwickelt und evaluiert. Dann werden Alternativen für Stauvorhersagesysteme als kohärente Lösungsmengen der abgebildeten Problemfelder definiert. Das informationstechnologische Kernthema ist die Datenqualität. Die wirtschaftliche und finanzielle erfolgreiche Einführung eines solchen Systems hängt maßgeblich von der erbrachten technologischen Leistung ab. Rechtliche und institutionelle Lösungen zielen in erster Linie auf Datenschutzanforderungen ab. Abschließend wird die attraktivste Lösung skizziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15220-7_4 2514543428133bfdcd101de7e50dccd0;de;;;6.1.;;;Die Chancen von Blockchain im Gesundheitswesen 4.0 Der nächste definitive Schritt in die Zukunft wird voraussichtlich einen Wechsel hin zu einer vollständig automatisierten Umgebung beinhalten, die exponentielle Technologien wie Künstliche Intelligenz (KI), Internet der Dinge (IoT), Sensornetzwerke und Blockchain-Paradigmen nutzt. Wir befinden uns mitten in der vierten industriellen Revolution, die die Art und Weise, wie wir leben, arbeiten und miteinander und mit Technologie interagieren, grundlegend verändert. Industrie 4.0 ist eine aufstrebende Ära der Konnektivität und Interaktion zwischen Teilen, Maschinen und Menschen, die das Potenzial haben, neben Verbesserungen der Lebensqualität und nachhaltigen Umweltergebnissen enorme Produktions- und Effizienzdividenden zu erzielen. Die Gesundheitsbranche ist dabei, Technologien einzuführen, die die Digitalisierung von Gesundheitsakten und die Automatisierung verschiedener plausibler klinischer Verfahren ermöglichen. Der Bereich hat eine eigene Entwicklung durchgemacht und steht jetzt in Healthcare Version 3.0, der Erweiterung von Web 3.0, die eine größere Transparenz der Gesundheitsdaten für Einzelpersonen beinhaltet, die personalisiert sind, um ihre Erfahrung mit der Schnittstelle zu optimieren. Bei der Verschmelzung der beiden Revolutionen zur Verwirklichung der neuen Ära von Gesundheit 4.0 könnte die aufkommende Blockchain-Technologie eine wichtige Rolle spielen. Die Notwendigkeit der Interoperabilität zwischen klinischen Abteilungen innerhalb desselben Krankenhauses, die Notwendigkeit aktualisierter Datensätze als Referenz für mehrere Gesundheitseinrichtungen und die Notwendigkeit einer vertrauenswürdigen und transparenten Dokumentation individueller Gesundheitsdaten drängen zur Verwendung von Blockchain-Konzepten bei unserem Versuch der Transformation Gesundheitsdienstleistungen. Dieses Kapitel untersucht den Wandel der Gesundheitsbranche, die Nachteile früherer Versionen und die Chancen von Blockchain-Konzepten, die dem medizinischen Bereich helfen würden, mit Industrie 4.0 Schritt zu halten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1137-0_8 7e084b792de61147a79e3781ac1b88fb;de;;;6.1.;;;Entwicklungsprozess: Chinesische E-Governance von der Erkundung bis zur umfassenden Förderung Wenn die Einführung von Computern durch die Regierung den Beginn der E-Governance darstellt, können Chinas E-Governance-Vorstöße bis in die 1970er Jahre zurückverfolgt werden. In mehr als 30 Jahren Konstruktion und Entwicklung seitdem hat China bedeutende Erfolge erzielt und wertvolle Erfahrungen im Bereich E-Governance gesammelt und damit begonnen, den Weg für eine E-Governance-Konstruktion zu ebnen, die den nationalen Bedingungen Chinas entspricht. Mit der Informationstechnologie der Regierung als Schnittpunkt und großen staatlich finanzierten Projekten als Verbindungen war die Förderung der Einführung der Informationstechnologie in der nationalen Wirtschaft und Gesellschaft der Schlüssel zum Erfolg der chinesischen E-Governance.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1014-0_1 116fbabd24878a595f07dfe494838873;de;;;6.1.;;;Eine Datenschutzmethode für das Big-Data-Management im Gesundheitswesen basierend auf der Risikozugriffskontrolle Mit der rasanten Entwicklung der modernen Informationstechnologie tritt die Gesundheitsbranche in eine kritische Phase der Intelligenz ein. Angesichts der wachsenden Big Data im Gesundheitswesen werden Fragen der Informationssicherheit beim Management der intelligenten Gesundheitsversorgung immer wichtiger, insbesondere das Problem der Datenschutzverletzung der Patienten ist das gravierendste. Daher ist die Stärkung des Informationsmanagements einer intelligenten Gesundheitsversorgung im Zeitalter von Big Data ein wichtiger Bestandteil der langfristig nachhaltigen Entwicklung von Krankenhäusern. Dieses Papier identifizierte zunächst die Schlüsselindikatoren, die die Offenlegung von Big Data im Gesundheitsmanagement beeinflussen, und etablierte dann das Risikozugangskontrollmodell basierend auf der Fuzzy-Theorie, das für das Management von Big Data in der intelligenten medizinischen Behandlung verwendet wurde und das Problem löst. von ungenauen experimentellen Ergebnissen aufgrund des Fehlens echter Daten bei der Behandlung tatsächlicher Probleme. Abschließend wird das Modell mit den vom Fuzzy-Toolset in Matlab berechneten Ergebnissen verglichen. Die Ergebnisse bestätigen, dass das Modell bei der Bewertung der aktuellen Sicherheitsrisiken und der Vorhersage der Bandbreite verschiedener Risikofaktoren effektiv ist und die Vorhersagegenauigkeit mehr als 90% erreichen kann.;-;-;-;https://link.springer.com/article/10.1007/s10729-019-09490-4 b8074333d2e72b5426dde364ee70a539;de;;;6.1.;;;SSD-fähige Richtlinie zur temporären Datenverwaltung zur Verbesserung der Abfrageleistung Da das Datenvolumen schnell anwächst und die Abfragen komplexer werden, muss die Datenbank-Engine bei Operationen wie Sortieren und Verknüpfen mit einer größeren Menge temporärer Daten umgehen. Im Allgemeinen werden diese temporären Daten als kleine temporäre Dateien organisiert, die auf der Festplatte gespeichert sind. Aufgrund der schlechten Zugriffsleistung auf HDD hat die Verarbeitungszeit von I/O-Operationen an diesen Dateien einen direkten Einfluss auf die Antwortzeit von Anfragen. Im Vergleich zu HDD bietet Solid State Drive (SSD) mehr zufällige IOPS und eine vergleichbare sequentielle Bandbreite. Die Verwendung von SSD zum Ersetzen der HDD kann daher ein ideales Muster beim Umgang mit temporären Daten sein. In diesem Whitepaper stellen wir fest, dass die Verbesserung der Abfrageverarbeitung nicht zufriedenstellend ist, wenn wir temporäre Dateien direkt in SSD speichern. Daher schlagen wir eine SSD-bewusste temporäre Datenverwaltungsrichtlinie namens STDM vor. STDM berücksichtigt sowohl das E/A-Verhalten temporärer Daten als auch die physischen SSD-Eigenschaften. Temporäre Daten werden zunächst im Arbeitsspeicher zwischengespeichert und dann nur durch Anhängen auf die SSD geschrieben. Auf diese Weise reduzieren wir zufällige Schreibvorgänge und nutzen die Vorteile schneller zufälliger Lesevorgänge auf SSD voll aus. Wir implementieren einen Prototyp auf Basis von PostgreSQL und evaluieren seine Leistung auf dem TPC-H-Benchmark. Das Ergebnis des Experiments zeigt, dass STDM die Leistung der Abfrageverarbeitung im Vergleich zur herkömmlichen Methode zum Organisieren temporärer Daten drastisch verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08010-9_44 a044c850ca51c0335cdaf050dff98a8e;de;;;6.1.;;;Rationelle Nutzung elektronischer Patientenakten für das Diabetes-Populationsmanagement Bevölkerungsmanagement wird zunehmend als Ansatz zur Verbesserung der Qualität und des Wertes der Diabetesversorgung herangezogen. Die jüngste Betonung wird durch einen verstärkten Fokus sowohl auf Kosten als auch auf Pflegemaßnahmen getrieben, da die USA von Gebühren für Dienstleistungen zu Zahlungsmodellen übergehen, bei denen Anbieter für die entstandenen Kosten und erzielten Ergebnisse für ihre gesamte Patientenpopulation verantwortlich sind. Die Fähigkeit elektronischer Patientenakten (EHRs) zur Erstellung von Patientenregistern, zur Anwendung von Analysewerkzeugen und zur Erleichterung von Interventionen auf Anbieter- und Patientenebene hat eine schnelle Entwicklung im Umfang von Bevölkerungsmanagementinitiativen ermöglicht. Die Ergebnisse zur Wirksamkeit dieser Bemühungen bei Diabetes sind jedoch gemischt, und es bleibt noch zu arbeiten, um das volle Potenzial eines EHR-basierten Bevölkerungsansatzes auszuschöpfen. Hier versuchen wir, Definitionen und Schlüsseldomänen zu klären, einen Überblick über die Evidenz für das EHR-basierte Diabetes-Populationsmanagement zu geben und zukünftige Richtungen für die Anwendung der beträchtlichen Macht von EHRs auf die Diabetesversorgung und -prävention zu empfehlen.;-;-;-;https://link.springer.com/article/10.1007/s11892-014-0479-z 0b1ee7d3a8c03611deda3de804f5a47f;de;;;6.1.;;;: ein feingranulares, sicheres und effizientes Datenherkunftssystem für Blockchains Der Erfolg von Bitcoin und anderen Kryptowährungen weckt großes Interesse an Blockchains. Ein Blockchain-System implementiert ein manipulationssicheres Ledger zum Aufzeichnen von Transaktionen, die einige globale Zustände ändern. Das System erfasst die gesamte Entwicklungsgeschichte der Staaten. Die Verwaltung dieser Geschichte, auch bekannt als Datenherkunft oder Abstammung, wurde in Datenbanksystemen eingehend untersucht. Das Abfragen des Datenverlaufs in bestehenden Blockchains kann jedoch nur durch das erneute Abspielen aller Transaktionen erfolgen. Dieser Ansatz ist auf groß angelegte Offline-Analysen anwendbar, ist jedoch nicht für die Online-Transaktionsverarbeitung geeignet. In diesem Papier identifizieren wir eine neue Klasse von Blockchain-Anwendungen, deren Ausführungslogiken zur Laufzeit von Herkunftsinformationen abhängen. Wir begründen zunächst die Notwendigkeit, Blockchains Unterstützung für native Provenienzen hinzuzufügen. Wir präsentieren dann;-;-;-;https://link.springer.com/article/10.1007/s00778-020-00646-1 f09a92286c0d799569d43199d63e78b7;de;;;6.1.;;;Exemplar S- und X-Klasse: 2. Generation von Hochleistungssystemen mit globaler Shared Memory Architektur Die Exemplar Technical Server von Hewlett-Packard adressieren große Computing-Herausforderungen wie Computing, Datei-, Produktdatenmanagement, Speicher- und Intranet-Anwendungen und reichen von den Einstiegs-D-Class-Systemen bis hin zu High-End-X-Class-Supercomputing-Level-Systemen. Im Fokus dieses Artikels stehen die Architektur und die Systemsoftware einer neuen Generation paralleler High-End-Systeme: der S- und X-Klasse.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-5514-4_4 49113fc470f494e6ea3552a5119d6b86;de;;;6.1.;;;Leistung von Scheduling-Richtlinien in gegnerischen Netzwerken mit nicht synchronisierten Uhren In diesem Beitrag verallgemeinern wir das Modell der Continuous Adversarial Queuing Theory (CAQT) (Blesa et al. in MFCS, Lecture Notes in Computer Science, Bd. 3618, S. 144–155,;-;-;-;https://link.springer.com/article/10.1007/s00224-009-9223-5 0e57c52774ff2307c5ff4efb93c9ee80;de;;;6.1.;;;Abbildung von Verbesserungsmodellen als Risikominderungsstrategie: ein theoretischer Vergleich für die Luft- und Raumfahrtindustrie Organisationen, die an Prozessverbesserungsprogrammen beteiligt sind, müssen sich mit verschiedenen Prozessverbesserungs- und Bewertungsmodellen auseinandersetzen. Da nicht alle Modelle zur Prozessverbesserung und -bewertung einen gleichwertigen Umfang haben, kann die Auswahl eines bestimmten Modells als Leitlinie für die Verbesserungsstrategie zu einer teilweise eingeschränkten Sicht auf die Bereiche führen, in denen die Organisation Wettbewerbsvorteile erzielen kann. Als Minderungsstrategie sollten Organisationen ein detailliertes Verständnis der Unterschiede im Umfang der verfügbaren Modelle haben. Welches Modell sie auch immer anwenden, Unternehmen sollten sich der relevanten Bereiche bewusst sein, die in den betrachteten Modellen möglicherweise übersehen oder mehr oder weniger detailliert behandelt werden. Darüber hinaus besteht die Notwendigkeit, sich mit unterschiedlichen Bewertungsmodellen auseinanderzusetzen, in der Regel bei Bewertungen durch Zweit- und Drittparteien, wenn potenzielle oder potenzielle Auftragnehmer beschließen, die Fähigkeiten des Unterauftragnehmers anhand eines Modells zu bewerten, das möglicherweise nicht mit dem Referenzmodell übereinstimmt vom Ziel-Subunternehmer ausgewählt. In diesen Situationen laufen Unternehmen Gefahr, relevante Prozesse und Praktiken zu übersehen. Dieses Papier beschreibt eine Fallstudie, die für die Luft- und Raumfahrtindustrie entwickelt wurde, basierend auf der Abbildung zweier Bewertungsmodelle, die in diesem Tätigkeitsbereich weit verbreitet sind: CMMI-DEV und SPICE for Space, eine Variante von ISO/IEC 15504 Aspekte, die sowohl als potenzielle Verbesserungsbereiche als auch als Risikoquellen betrachtet werden sollten. Es wird eine erweiterte Bewertungsaktivitätsmethodik vorgeschlagen, die die Ergebnisse der Modellrückverfolgbarkeitsanalyse als Schlüsselfaktor für die Durchführung der Bewertungen berücksichtigt.;-;-;-;https://link.springer.com/article/10.1007/s11334-014-0236-0 0a07d71de0b9501abb946cf323c59d3d;de;;;6.1.;;;Erweiterung der BIM-Datendarstellung in der Produkt-Prozess-Modellierung für die Gebäudesanierung Building Information Modeling (BIM) hat das Potenzial, eine Technologie zu werden, die dazu beiträgt, ein ganzheitliches Informationsrepository zu nutzen, um relevante Informationen in verschiedenen Lebenszyklusphasen von Gebäuden (BLCS) für bestimmte Interessengruppen zu generieren und darzustellen. Der Umfang der Modellkomponenten von BIM-Daten (z. B. IFC-Metadaten) ist jedoch begrenzt und einige Teile davon werden nicht so modelliert, dass die Vielfalt der Anwendungsfälle im Ingenieurwesen unterstützt wird. Dieses Papier zielt darauf ab, dieses Defizit zu beheben, indem die Fähigkeit zur Formulierung von Inferenzregeln als einer der Hauptvorteile des ontologiebasierten Informationsmodellierungsansatzes identifiziert wird. Bevor jedoch Inferenzregeln formuliert werden können, ist ein detailliertes und tiefes Verständnis erforderlich, wie der Informationsbedarf von Stakeholdern in verschiedenen BLCS definiert wird und wie verfügbare Open-BIM-Metadatenmodelle diese Informationsanforderungen unterstützen. Daher ging die Forschung zunächst an bestehenden Definitionen für Detailgenauigkeit (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-62807-9_58 4f7ee2b092d88c9944770b58088d9556;de;;;6.1.;;;Software ASPRO-NUC: Gammaspektrometrie, routinemäßige NAA, Isotopenidentifikation und Datenmanagement Die Software ASPRO-NUC basiert auf neuen verbesserten Algorithmen, die im Labor vorgeschlagen und getestet wurden und für die Routineanalyse bestimmt sind. Das Paket besteht aus dem Programm ASPRO zur Verarbeitung von Gammastrahlenspektren (Peak-Suche, Multiplett-Entfaltung mittels Momentenmethode, Berechnung des Korrekturkoeffizienten für Geometrie und Material der radioaktiven Quelle), einem Programm zur Isotopenidentifikation und einem Programm zur NAA mittels relative Standardisierung. Alle Ausgabeinformationen werden in eine Datenbank (Paradox v.3.5-Format) geladen, um Abfragen zu unterstützen, Berichte zu erstellen, Routineanalysen zu planen, Kosten zu schätzen, das Netzwerk analytischer Umfragen zu unterstützen usw. Das ASPRO-NUC-Paket umfasst auch also eine umfangreiche nukleare Datenbank mit ausgewerteten Zerfalls- und Aktivierungsdaten (Reaktor, Generator für schnelle Neutronen, Quelle Cf-252). Die Datenbankumgebung ermöglicht die einfache Integration eines Gammaspektrometers in eine flexible Informationsschale und den Aufbau eines logischen Systems für das Informationsmanagement.;-;-;-;https://link.springer.com/article/10.1007/BF02039875 5ac1a4ed4c4e7bbda8ed934ce1886d28;de;;;6.1.;;;Design eines intelligenten Musiksystems im Kulturzentrum basierend auf IoT Basierend auf der vollständigen Studie des IoT-Technologiesystems und dem Forschungsstand der intelligenten Gemeinschaft schlägt dieses Papier eine Reihe von musikintelligenten Systemdesignschemas basierend auf der IoT-Technologie vor. Im Gesamtdesign, basierend auf der Top-Level-Design-Idee der zentralisierten Überwachung, wird ein Satz intelligenter Gemeinschaftssysteme einschließlich Datenerfassungsschicht, Netzwerkübertragungsschicht, Middleware-Schicht und Datenverarbeitungsschicht entworfen. Unter dieser Architektur kann das Subsystem horizontal skaliert werden, und für jedes Subsystemdesign wird eine Fallanalyse intelligenter Systeme durchgeführt, wie z. B. die Datenüberwachung von Kulturmuseen, ein drahtloses Sensornetzwerk und ein intelligentes TPAD (Terminal). Zweitens werden drei Arten von IoT-Unterstützungstechnologien der ZigBee-Technologie, der RFID-Technologie und der Single-Chip/Embedded-Plattform-Technologie auf die Anwendungsszenarien intelligenter Systeme angewendet und mit anderen technischen Mitteln wie Fuzzy Control, Log Mining und Multi kombiniert -Zeitplanung von Aufgaben. Der Zweck der intelligenten Steuerung ist erreicht.;-;-;-;https://link.springer.com/article/10.1007/s00779-019-01245-w 0055f2f80158eba1688200ae1e4a89cc;de;;;6.1.;;;Open-Source-Softwarelösung für das Gesundheitswesen: Der Fall des Gesundheitsinformationssystems in Sansibar Anhand einer Fallstudie zum Gesundheitsinformationssystem in Sansibar, Tansania, diskutiert der Artikel die Einführung von freier und Open-Source-Software (FOSS) durch den strategischen Übergang von einer kostenlosen Microsoft-basierten Anwendung zu einer vollwertigen Java-basierten FOSS-Anwendung. In diesem Artikel werden die Herausforderungen und Chancen bei der Einführung erörtert. Der Artikel trägt zu Ansätzen zur Einführung von FOSS bei. Drei Bereiche werden identifiziert: die technische Kapazität der Software, die die Lizenzbedingungen übertrifft, die Rolle der lokalen Champions bei der Initiierung von Änderungen und die Bedeutung des Aufbaus von Benutzerkapazitäten vor der Projektübernahme, insbesondere für ein Übergangsprojekt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29093-0_14 44f64f0d55222397cf83ec804df14f6c;de;;;6.1.;;;Verteiltes Datenerfassungssystem für die Umgebungsüberwachung nichtlinearer Prozesse Das Hauptziel dieses Papiers ist es, eine Lösung zu beschreiben, um Online-Verbindungen zwischen Remote-Workstations an verschiedenen Standorten zu realisieren. Eine unidirektionale oder bidirektionale Informationsübertragung muss gewährleistet sein. Als Übertragungsunterstützung gelten lokale PC-Netzwerke oder Internet. Die durch ein virtuelles LabView-Instrument repräsentierte Softkomponente koordiniert und steuert die Zielkommunikation.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-33878-0_17 6ebc9c5a29312b658c09792a2af384cc;de;;;6.1.;;;SPIC - SRAM PUF-integriertes chipbasiertes Softwarelizenzmodell Ein Softwarelizenzschlüssel oder ein Produktschlüssel ist ein softwarebasierter Schlüssel, der während der Installation einer Software verwendet wird. Dieser Schlüssel autorisiert einen echten Kauf des Softwareprodukts durch den Benutzer und überprüft die Authentizität der Softwareinstallationskopie. Hacker haben erfolgreich versucht, die Überprüfung der Softwarelizenzschlüssel zu vereiteln, und daher werden geknackte Kopien der Originalversionen freigegeben. Sie verursachen nicht nur Verluste für die Unternehmen, sondern machen auch die harte Arbeit und das Engagement des Softwareentwicklungsteams nutzlos. Um solchen Hacks entgegenzuwirken, haben Unternehmen auf verschiedene Kontrollen und Gegenmaßnahmen zurückgegriffen, aber alle wurden auf die eine oder andere Weise geschlagen. In diesem Papier wird ein Softwarelizenzierungsmodell vorgeschlagen, das einen Schlüssel aus einer SRAM-PUF-Quelle generiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-5826-5_29 2acf65066a9f25ecd3306b7897908b9a;de;;;6.1.;;;Echtzeit-Suchtechnik für verteilte massive Daten mit Grid Computing Die Entwicklung gitterbasierter Suchtechniken für verteilte große Maßstäbe ist in letzter Zeit zum Trend geworden und wird in verschiedenen Arten von Domänen wie Informationsabruf, digitalen Bibliotheken und räumlichen Domänen angewendet. Es wurden mehrere Techniken vorgeschlagen, um flexible Verfahren zum Durchsuchen riesiger verteilter Daten bereitzustellen, indem Grid-Computing-Fähigkeiten genutzt werden. Trotz dieser bemerkenswerten Bemühungen bleibt die Leistung der Technik eine große Herausforderung im Bereich der Dateisuchsysteme. Dieses Papier schlägt Grid-Enabler Search Technique (GST) für massive Datensätze vor. GST wird als vernetzte Netzdienste implementiert, um ein Mittel zur Interaktion zwischen verschiedenen virtuellen Organisationen bereitzustellen. Die Experimente wurden durchgeführt, um die Leistung von GST durch Messung der Reaktionszeit, Geschwindigkeit und Effizienz zu bewerten. Das Ergebnis zeigt, dass GST eine angemessene Reaktionszeit hat, indem die Geschwindigkeit und Effizienz des GST erhöht sowie die Leistung des Systems verbessert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36365-9_11 4b04f7288a9f036823aa09efee2cc69d;de;;;6.1.;;;Die Auswirkungen von Routing-Angriffen auf Konditorei-basierte P2P-Online-Social-Networks Peer-to-Peer (p2p) Netzwerke sind mittlerweile in mehreren Bereichen weit verbreitet. Neben den bekannten Filesharing-Plattformen tauchen auch p2p-Overlays als Basis für dezentrale soziale Netzwerke auf. In diesen wird das Overlay als robuster Speicher für verschiedene Arten von sozialen Informationen verwendet. Mit zunehmender Relevanz könnten Angreifer ein Interesse daran haben, die Funktionalität des Overlays zu manipulieren. In diesem Paper untersuchen wir die Routing-Angriffe auf die verteilte Hash-Tabelle Pastry, die wir in unserem p2p-Social-Network LifeSocial als Basis verwenden. Wir ermitteln durch Simulationen die Auswirkungen von Routing-Angriffen auf die Performance des Overlays.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-14325-5_30 ce9c20e619a5bef6a0c4299eaeb3b77f;de;;;6.1.;;;Transparenter Datenzugriff für wissenschaftliche Workflows über Clouds Wir präsentieren eine wissenschaftliche Workflow-Datenmanagementlösung, die den globalen Datenzugriff mit einer Optimierung der Datenübertragung auf Blockebene kombiniert, wobei nur die Datenblöcke, die von einem Remote-Job verwendet werden, über das Netzwerk übertragen werden, wodurch die Datenbewegung für den spezifischen gemeinsamen Datenzugriff erheblich reduziert wird Muster. Wir schlagen die Implementierung der Lösung auf Basis des Workflow-Management-Systems HyperFlow und der Datenmanagement-Plattform Onedata vor. Vorläufige Ergebnisse bestätigen die Vorteile der vorgeschlagenen Lösung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-48340-1_62 4ad845f14e435a057a268c228b82e5b6;de;;;6.1.;;;Bewertung von RDF-Anfragen über Äquivalenz Leistung und Skalierbarkeit sind zwei Themen, die immer dringlicher werden, wenn das Datenmodell des Resource Description Framework (RDF) auf reale Anwendungen angewendet wird. Da weder vertikale noch flache Strukturen des RDF-Speichers häufige Schema-Updates bewältigen und dabei mögliche Long-Chain-Joins vermeiden können, gibt es keinen klaren Sieger zwischen den beiden typischen Strukturen. In diesem Papier schlagen wir ein alternatives offenes Benutzerschema vor. Das offene Benutzerschema besteht aus flachen Tabellen, die automatisch aus RDF-Abfrageströmen extrahiert werden. Eine Abfrage wird in zwei Teile geteilt und auf den flachen Tabellen im offenen Benutzerschema und auf der vertikalen Tabelle, die in einem Backend-Speicher gespeichert ist, erobert. Im Kern dieser Divide-and-Conquer-Architektur mit offenem Benutzerschema wird ein effizienter isomorpher Entscheidungsalgorithmus eingeführt, um eine Abfrage zu verwandten flachen Tabellen im offenen Benutzerschema zu leiten. Unser Vorschlag weicht im Wesentlichen von bestehenden Methoden ab, da er Schemaaktualisierungen ohne mögliche Long-Chain-Joins aufnehmen kann. Wir implementieren unseren Ansatz und stellen empirische Auswertungen zur Verfügung, um sowohl die Effizienz als auch die Effektivität unseres Ansatzes bei der Bewertung komplexer RDF-Anfragen zu demonstrieren.;-;-;-;https://link.springer.com/article/10.1007/s11704-012-1208-x 00a738c4e7b771a36bd353a57098356c;de;;;6.1.;;;Big-Data-Plattform für die Öl- und Gasförderung basierend auf Apache Spark Um den Bau intelligenter Ölfelder zu fördern und die Big-Data-Technologie auf die täglichen Produktionsaktivitäten des Ölfelds anzuwenden, schlägt dieses Papier eine Data-Mining-Plattform vor, die auf der multifunktionalen Big Data der Öl- und Gasförderung von Apache Spark basiert. Diese Plattform kombiniert Echtzeit- und historische Datenverarbeitungs-bezogene Frameworks und Machine-Learning-Frameworks, entwirft eine massive Öl- und Gasproduktionsdatenverarbeitung für verschiedene Ölfelder, unterstützt die Echtzeit- und Offline-Verarbeitung von Data Mining und andere Funktionen, unterstützt die Vorhersage einiger Daten unter Verwendung verwandter Machine-Learning-Algorithmen, unterstützt die Bereinigung großer Datenmengen, dient zum Trainieren verschiedener Deep-Learning-Modelle und stellt entsprechende Schnittstellen und Berechtigungen zu relevanten Ölfeldern bereit. Der Docker-Container wird verwendet, um die Trainingsumgebung für Deep Learning und Machine Learning aufzubauen, und das Kubernetes-Framework wird verwendet, um die Planungsfunktion abzuschließen. Struts, Spring und Hibernate werden relativ klassische Hintergrundverarbeitungs-Frameworks auf der Web-Framework-Ebene der Plattform übernommen, verschiedene Funktionen werden in unabhängige Funktionsmodule zerlegt, um die Kopplung zu reduzieren, und agile Entwicklung wird verwendet, um die erweiterte Leistung der gesamten Big-Data-Plattform zu verbessern. Diese Plattform ermöglicht es unseren Datenanalysten, sich auf die Datenanalyse und das Modelltraining zu konzentrieren, ohne viel Zeit und Mühe für die Bearbeitung von Datenproblemen aufwenden zu müssen, während die zugehörigen Berechnungsergebnisse über eine Schnittstelle an andere Ölgesellschaften zurückgegeben werden oder die entsprechenden Betriebsbefugnisse an das Außendienst- und Wartungspersonal, um auf die Datenplattform und die Datenanalyse zuzugreifen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6141-6_14 30900b00429b7bc01e341c116cc52651;de;;;6.1.;;;Ein analytisches, modellbasiertes Auto-Tuning-Framework für die ortsbezogene Schleifenplanung HPC-Entwickler streben danach, die allerbeste Leistung zu liefern. Um dies zu tun, denken sie ständig über Speicherbandbreite, Speicherhierarchie, Lokalität, Gleitkommaleistung, Leistungs-/Energiebeschränkungen und so weiter nach. Auf der anderen Seite zielen Anwendungswissenschaftler darauf ab, leistungsstarken tragbaren Code zu schreiben und gleichzeitig den reichen Funktionsumfang der Hardware zu nutzen. Durch Bereitstellung geeigneter Hinweise an die Compiler in Form von Direktiven wird entsprechender ausführbarer Code erzeugt. Es gibt enorme Vorteile bei der Verwendung einer direktivenbasierten Programmierung. Aber auch Anwendungen werden immer komplexer und wir brauchen ausgeklügelte Tools wie Auto-Tuning, um den Optimierungsraum besser zu erkunden. In Anwendungen bilden Schleifen normalerweise einen großen und zeitaufwendigen Teil des Codes. Das Planen dieser Schleifen umfasst die Abbildung vom Schleifeniterationsraum auf die zugrunde liegende Plattform – zum Beispiel GPU-Threads. Der Benutzer probiert verschiedene Scheduling-Techniken aus, bis die beste identifiziert ist. Dieser Vorgang kann jedoch sehr mühsam und zeitaufwendig sein, insbesondere wenn es sich um eine relativ große Anwendung handelt, da der Benutzer die Leistung jedes Zeitplans aufzeichnen muss. Dieses Papier zielt darauf ab, eine bessere Lösung anzubieten, indem ein Auto-Tuning-Framework vorgeschlagen wird, das ein analytisches Modell verwendet, das den Compiler und die Laufzeit anleitet, um automatisch einen geeigneten Zeitplan für die Schleifen auszuwählen und die Startkonfiguration für jeden der Schleifenzeitpläne zu bestimmen. Unsere Experimente zeigen, dass der von unserem Framework vorhergesagte Schleifenplan im Durchschnitt eine Geschwindigkeit von 1,29x gegenüber dem vom Compiler gewählten Standard-Schleifenplan erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-41321-1_1 9983b289ba02cd8910a8c748145496b7;de;;;6.1.;;;Design und Implementierung eines Electric Power Patrol Monitoring Systems basierend auf Beidou und Mobile Network Die meisten existierenden Kommunikationstechnologien, die für Power-Inspektionssysteme verwendet werden, können den Inspektionslinienbereich nicht nahtlos abdecken. Daher sind die Echtzeitübertragung von Inspektionsinformationen und die Sicherheit des Personals schwer zu gewährleisten. Basierend auf der aktuellen Forschung zur Stromüberwachung und dem dringenden Bedarf der Industrie an Echtzeit- und genauen Standortinformationen von Inspektoren wurde in diesem Papier ein Stromüberwachungs- und Überwachungssystem unter Verwendung des Beidou-Satellitensystems in Verbindung mit Mobilfunknetzen entworfen und entwickelt. Das Problem des Patrouillierens von Informationen in blinden Gebieten, in denen Bodenkommunikation nicht in Echtzeit erreicht werden kann, wird durch ein nahtloses Switching-Design zwischen Beidou-Kurznachrichten und Mobilfunknetzen effektiv gelöst. Die Übertragung von Kurznachrichten und die hochpräzise Rücksendung von Positionsinformationen des Inspektionspersonals wurden auch durch den Einsatz des unabhängig entwickelten Multimode-Datenübertragungsmoduls von Beidou realisiert. Das System nutzte die anwender- und funktionsorientierte Konzeption und das Browser/Server (B/S)-basierte Architekturdesign, sowie die Kombination mit SpringMVC + Spring + MyBatis (SSM), um die Qualität der Entwicklung zu verbessern Prozess. Einige Schlüsselfunktionen wie Echtzeit-Positionsanzeige, Titelwiedergabe, Benutzerinformationsverwaltung und andere Funktionen sind mit den implementierten visuellen Benutzeroberflächen interaktiv, was der Energieüberwachungsabteilung grundlegend hilft, visuelle Fernüberwachungsdienste bereitzustellen. Die Testergebnisse des Kernmoduls zeigten, dass das System insbesondere für tiefe Bergtäler, dichte Wälder und andere Gebiete ohne stabile Kommunikationssignale als Ergänzung zur Strominspektion und -überwachung eingesetzt werden kann.;-;-;-;https://link.springer.com/article/10.1007/s41651-020-00069-0 b0b2073db545310d6b1bdba3c9d61378;de;;;6.1.;;;Computergestützte Entscheidungsunterstützung in der Wasserressourcenplanung und -bewirtschaftung Alle lebenden Organismen auf diesem Planeten brauchen Wasser zum Überleben. Der Mensch gehört zu diesen lebenden Organismen, aber im Gegensatz zu anderen lebenden Pflanzen und Tieren benötigen und verbrauchen wir viel mehr Wasser, als für unser Überleben benötigt wird. Dabei verändern wir die zeitliche und räumliche Verteilung des Wassers und dessen Qualität.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-76048-8_1 8da34417f94868f7d058888250cd3c7c;de;;;6.1.;;;Eine moderne Perspektive auf Cloud-Testing-Ökosysteme Der Marktanteil von Cloud-Tests wird bis 2022 voraussichtlich über 10 Milliarden US-Dollar betragen. Die Cloud-Migration für Anwendungen ist zu einem attraktiven Phänomen geworden, und Endbenutzer haben dadurch verschiedene Vorteile wie Autonomie, Skalierbarkeit und Agilität sowie eine verbesserte Kapitalrendite erzielt durch die Migration in die Cloud. Die Cloud-Umgebung ist in Bezug auf Anwendungen, Infrastruktur und Plattformressourcen von Natur aus elastisch, was sich folglich in den genannten Vorteilen niederschlägt. Die schnelle Akzeptanz des Cloud-Paradigmas durch die Verbraucher erfordert Softwaretests, um sicherzustellen, dass Dienste über die Cloud wie erwartet funktionieren. Neben der Notwendigkeit, Cloud-Dienste und -Anwendungen zu testen, hat das Aufkommen von Cloud Computing neue Wege für die Bereitstellung von Testdiensten über die Cloud in Form von Testing as a Service (TaaS) eröffnet. Viele Prozesse der Qualitätssicherung (QA) mit direktem Einfluss auf Testzyklen, wie das Testumgebungsmanagement und das Testdatenmanagement, können über die Cloud bereitgestellt werden, was zu einem immensen Zusatznutzen führt. Dieses Kapitel stellt den Kontext von Cloud Computing und seine wachsende Bedeutung für die Softwareindustrie dar, bevor es sich auf Cloud TaaS konzentriert. Darüber hinaus werden in diesem Kapitel verschiedene Arten von Cloud-Bereitstellungen im Test-Ökosystem behandelt, darunter: Testen in der Cloud, Testen von Modellen, Testprozesse in Bezug auf die Cloud, Tools und Frameworks.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-33624-0_10 e07e04c9a5146f7aded05b248e38ea11;de;;;6.1.;;;Kapitel 6 Repressionssysteme Die Unterdrückung der Opposition wurde allmählich zum wichtigsten übergeordneten Ziel der Besatzungssysteme. Der bürokratische Fluss individueller Informationen von Staatsbürgern an die Dienste des Besatzers liefert wesentliche Kriterien, um die Art der Zusammenarbeit mit dem Besatzer zu analysieren. Aufgrund der unterschiedlichen nationalen bürokratischen und politischen Organisation dieser Informationsflüsse könnten Bürgermeister in diesen Systemen unterschiedliche Rollen spielen. Die Präsenz kollaborativer Parteien und ihr Kampf gegen die lokale Zivilgesellschaft verkomplizierten das Bild. Die Judenverfolgung ist ein (wesentliches) Thema, um dies zu beurteilen. Trotz grundlegender systemischer Unterschiede blieben die individuellen Entscheidungen von Bürgermeistern und anderen Schlüsselakteuren stets zentral.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-32841-6_7 be1a33cec4121cc3e330ea724c542d5a;de;;;6.1.;;;Nachhaltigkeit von Umweltregimen: Die Mekong River Commission Als natürliche Folge der Zunahme zwischenstaatlicher Vereinbarungen zu grenzüberschreitenden Umweltfragen oder -herausforderungen ist die Bewertung von Umweltregimen zu einem Studienthema von Wissenschaftlern in Politikwissenschaft, Internationalen Beziehungen, Geographie usw. geworden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68488-6_43 ff9dfc7fcc4ee83643128b0ad5044d79;de;;;6.1.;;;Mobile Cloud Computing: Eine Umfrage, Stand der Technik und zukünftige Richtungen In den letzten Jahren wurden Cloud-Computing-Frameworks wie Amazon Web Services, Google AppEngine und Windows Azure bei IT-Organisationen und Entwicklern immer beliebter. Gleichzeitig haben wir weltweit eine phänomenale Zunahme der Nutzung und Bereitstellung von Smartphone-Plattformen und -Anwendungen festgestellt. In diesem Beitrag wird der aktuelle Stand der Technik bei der Zusammenführung dieser beiden beliebten Technologien diskutiert, die wir als Mobile Cloud Computing (MCC) bezeichnen. Wir veranschaulichen die Anwendbarkeit von MCC in verschiedenen Bereichen, darunter mobiles Lernen, Handel, Gesundheit/Wellness und soziale Medien. Darüber hinaus identifizieren wir Forschungslücken, die kritische Aspekte der Realisierung und effektiven Nutzung von MCC im Maßstab abdecken. Dazu gehören eine verbesserte Ressourcenallokation in der MCC-Umgebung durch effiziente Aufgabenverteilung und -verlagerung, Sicherheit und Datenschutz.;-;-;-;https://link.springer.com/article/10.1007/s11036-013-0477-4 bdcf6f48c787c9a8996bb9d2d457a50e;de;;;6.1.;;;CROSS: Überwachter Austausch privater Daten über Blockchains Die transparente Eigenschaft der Blockchain garantiert die Unveränderlichkeit der Daten in der Kette, kann aber zu Datenschutzverletzungen führen. Andererseits wird die absolute Anonymität es der Regierung erschweren, die verschlüsselten Inhalte, die in der Kette gespeichert sind, zu überwachen. Darüber hinaus ist es für die Datenbesitzer unbequem, ihre Entschlüsselungsberechtigung an andere zu delegieren. Um das Problem der Datenschutzbedenken und -überwachung in der aktuellen Blockchain zu lösen, schlagen wir ein überwachtes Datenfreigabemodell namens CROSS vor, das den Proxy-Neuverschlüsselungsmechanismus mit dem Baumschlüsselverteilungsmechanismus kombiniert. Das Modell realisiert die hierarchische Überwachung und den horizontalen Austausch privater Daten auf der Blockchain, was die Privatsphäre der Blockchain unter Berücksichtigung der Sicherheit effektiv verbessert. Einige potenzielle Angriffe und entsprechende Abwehrmaßnahmen gegen unser vorgeschlagenes Modell sollten in Betracht gezogen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-21373-2_7 4332d808cf597f541a78595ef3721332;de;;;6.1.;;;Ein innovatives Wissenschaftsportal für das Cherenkov-Teleskop-Array Das Cherenkov Telescope Array (CTA) baut derzeit die nächste Generation von bodengestützten, sehr energiereichen Gammastrahlen-Instrumenten. Es wird erwartet, dass CTA sehr große Datensätze (in der Größenordnung von Petabytes) sammelt, die gespeichert, verwaltet und verarbeitet werden müssen. Dieses Papier stellt eine grafische Benutzeroberfläche vor, die in einem Wissenschafts-Gateway integriert ist und darauf abzielt, CTA-Benutzern einen gemeinsamen Arbeitsrahmen zur Verfügung zu stellen. Das Gateway ist WS-PGRADE/gUSE-Workflow-orientiert und mit einem flexiblen SSO (basierend auf SAML) ausgestattet, um den Benutzerzugriff zur Authentifizierung und Autorisierung zu steuern. Es wird eine interaktive Desktop-Umgebung bereitgestellt, die als Astronomical & Physics Cloud Interactive Desktop (ACID) bezeichnet wird. Benutzer können die grafische Benutzeroberfläche nutzen, die von den in ACID enthaltenen Tools nativ bereitgestellt wird. Ein Cloud-Datendienst teilt und synchronisiert Datendateien und Ausgabeergebnisse zwischen dem Benutzerdesktop und dem Wissenschafts-Gateway. Unsere Lösung ist ein erster Versuch in Richtung eines Ökosystems neuer Technologien mit einem hohen Maß an Flexibilität, um den aktuellen und zukünftigen Anforderungen der CTA-Community gerecht zu werden.;-;-;-;https://link.springer.com/article/10.1007/s10723-015-9330-2 6e68333e6935730f1743cfe6e1cfd7cf;de;;;6.1.;;;Ein branchenübergreifender Vergleich der organisationsübergreifenden Systemimplementierungsaktivitäten Das Motivationsmodell (IMM) für interorganisationale Systeme (IOS) wurde kürzlich als eine Theorie vorgeschlagen, die Variationen in von Organisationen initiierten IOS-Implementierungsprozessen erklärt. Das IMM klassifiziert IOS-Einführungsprojekte (unabhängig von der zugrunde liegenden Technologie) in vier generische Motivationsszenarien und erklärt unterschiedliche Implementierungsprozesse für jedes Motivationsszenario. Die Theorie wurde in der australischen Pharmaindustrie getestet und erhielt dort breite Unterstützung. Um ihre Allgemeingültigkeit zu erhöhen, untersuchen wir in dieser Studie die Anwendbarkeit eines Teils der IMM-Theorie auf einen anderen Branchenkontext, indem wir das Forschungsziel adressieren, dass Organisationen mit dem gleichen Motiv für die Implementierung eines IOS die gleichen Implementierungsaktivitäten unabhängig von Unterschieden in der Branchenkontexte, in denen sie tätig sind. Wir haben einen Ansatz mit mehreren Fallstudien verwendet und die Implementierung eines firmeneigenen E-Bestellsystems in einem großen australischen pharmazeutischen Hersteller mit der eines webbasierten EDI-Systems verglichen, das von einem großen Automobilhersteller verwendet wird, der IMM als a theoretisches Objektiv. Die empirischen Ergebnisse weisen auf eine auffallende Ähnlichkeit in den Implementierungsprozessen dieser beiden unterschiedlichen IOS-Anwendungen hin, die weitgehend mit der IMM-Theorie erklärt werden kann. Darüber hinaus scheinen die Unterschiede in den Branchenkontexten keinen direkten Einfluss auf die Aktivitäten im Zusammenhang mit der Implementierung dieser Systeme zu haben.;-;-;-;https://link.springer.com/article/10.1007/s10660-010-9074-9 c6e2f8c647b84573cfaad7216eeed965;de;;;6.1.;;;Die Auswirkungen einer kombinatorischen digitalen und organisatorischen Intervention auf das Management von Langzeiterkrankungen in der britischen Primärversorgung: eine nicht randomisierte Evaluierung Ein besseres Management von Langzeiterkrankungen bleibt eine politische Priorität, wobei der Schwerpunkt auf der Verbesserung der Ergebnisse und der Reduzierung der Inanspruchnahme teurer Krankenhausleistungen liegt. Eine Reihe von Interventionen wurde getestet, aber viele haben in einer strengen vergleichenden Forschung keinen Nutzen gezeigt. Im Jahr 2016 wurde das NHS-Testbetten-Programm eingeführt, um Interventionen zu implementieren und zu testen, die digitale Technologien und die Neugestaltung von Pfaden in der routinemäßigen Gesundheitsversorgung kombinieren, wobei jede Intervention mehrere Innovationen umfasst, um den Nutzen ihres „kombinatorischen“ Effekts besser zu nutzen. Wir präsentieren die Bewertung eines der NHS-Testbetten, die Risikostratifizierungsalgorithmen, praxisbasierte Qualitätsverbesserung sowie Gesundheitsüberwachung und -coaching kombinierten, um das Management von Langzeiterkrankungen in einer einzigen Gesundheitswirtschaft im Nordwesten Englands zu verbessern.;-;-;-;https://link.springer.com/article/10.1186/s12913-019-3984-6 f29ac68f478e99a4c83ae0a6ee370363;de;;;6.1.;;;Die Macht von Big Data in der Wissenschaft nutzen Big Data war bis zum letzten Jahrzehnt ein Modewort und hat eine enorme Entwicklung und Anwendung im Computerbereich und mehr noch in der Datenspeicherung, Datenanalyse und Datenfreigabe gezeigt. Gleichzeitig hat es aber auch in naturwissenschaftlichen Grundlagendisziplinen wie Physik, Chemie, Biologie etc. intensive Aufmerksamkeit auf sich gezogen. Da die Forschung in diesen Bereichen zunehmend digitalisiert wird, besteht die Notwendigkeit, diese Daten zu quantifizieren, damit sie verwaltet und in der gesamten wissenschaftlichen Gemeinschaft geteilt. Daher ist die Forschung in diesen Bereichen darauf ausgerichtet, die Leistungsfähigkeit von Data Science und Big Data Analytics zu nutzen, und daher stehen in diesem Bereich enorme Möglichkeiten zur Verfügung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-74690-6_47 3e26c0fa949426d0f3a73d2e23427743;de;;;6.1.;;;Verteilte Rechenmuster, die bei Big Data-Analysen nützlich sind Die Geschichte des Distributed Computing ist mehr als 40 Jahre alt. Im Laufe dieser Jahre wurden viele Konzepte entwickelt und in verschiedenen Computermodellen, Systemarchitekturen und Plattformen für die Entwicklung verteilter Systeme angewendet. Mehrere Big-Data-Frameworks von heute implementieren diese Konzepte verteilter Systeme für Datensynchronisation, Nachrichtenaustausch, Echtzeit-Datenverarbeitung und Transaktionssteuerung in Architekturen für Big-Data-Analytics-Anwendungen. Dieses Kapitel diskutiert grundlegende Muster verteilter Systeme, die diese Konzepte abstrahieren und in homogenen, heterogenen oder hybriden Umgebungen von Big Data Analytics-Implementierungen verwendet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-59834-5_3 bf85902d547f583ccd3bb3cc20d4ebe7;de;;;6.1.;;;Die neue Basis für multidisziplinäres Concurrent Engineering Als Hintergrund für die Diskussion der Technologiebasis und des Reifegrads werden einige Branchenperspektiven zu Concurrent Engineering beleuchtet. Integrierte multidisziplinäre Analysetools werden als wesentlicher Beitrag zur Parallelität dargestellt. Es werden Schlüsselinseln integrierter Technologie identifiziert und das Potenzial für die Verbindung dieser Inseln diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-78119-3_4 09b1a82400f79a139e26362b6db67f9f;de;;;6.1.;;;IT-Konsumerisierung Die Veränderungen, die im letzten Jahrzehnt im Bereich der Informationstechnologie (IT) stattgefunden haben, haben wichtige Auswirkungen auf die Strategien der Unternehmen, die neue Technologien produzieren. Consumerization ist einer der neuen Trends, die Unternehmen zu mehr Flexibilität gezwungen haben. Im 21. Jahrhundert werden viele der großen technologischen Innovationen zunächst kommerziell für den Consumer-Bereich entwickelt und finden dann ihren Weg in Geschäftsanwendungen. Folglich haben populäre kommerzielle Innovationen wichtige Auswirkungen auf die Art und Weise, wie die Unternehmen betrieben werden. Die Industrien lernen jetzt, dem Verhalten der Verbraucher nicht nur in ihren Märkten, sondern auch im Web zu folgen. Dieses Kapitel soll ein besseres Verständnis der Vorteile, Herausforderungen und Auswirkungen der IT Consumerization auf Unternehmen vermitteln. Außerdem werden die Treiber und Strategien von Unternehmen erörtert, die diesen Trend betreffen, und seine Auswirkungen auf die Unternehmen verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-04307-4_5 4142b7abb0708148a4aaf9e45c45f797;de;;;6.1.;;;Der Hans Cloos-Vortrag 2010 Die Entwicklung der Stadtgeologie begann in den 1950er Jahren, insbesondere in Kalifornien in Bezug auf die Landnutzungsplanung, und führte dazu, dass Robert Legget 1973 sein bahnbrechendes Buch „Städte und Geologie“ veröffentlichte. Die Stadtgeologie ist heute ein wichtiger Bestandteil der Ingenieurgeologie geworden. Forschung und Praxis haben die Entwicklung von einzelnen thematischen räumlichen Datensätzen zu multithematischen und mehrdimensionalen Ergebnissen für eine Vielzahl von Benutzern gesehen. Parallel zur Entwicklung dieser neuen Ergebnisse zur Unterstützung der Stadtentwicklung, -erneuerung und -erhaltung wurde zunehmend erkannt, dass die Stadtbehörden Zugang zu umfangreichen Datenbanken mit Geoinformationen benötigen, die langfristig gepflegt und regelmäßig aktualisiert werden. Ein weiterer wichtiger Fortschritt war die Erkenntnis, dass in der städtischen Umwelt das Wissen und das Verständnis der Geologie mit denen anderer Umweltthemen (z. B. Biodiversität) und zunehmend mit der Forschung von Sozialwissenschaftlern, Ökonomen und Andere. Trotz dieser Fortschritte wird vermutet, dass der Wert der Stadtgeologie von denen, die mit dem Management und der Verbesserung der Städte der Welt beauftragt sind, nicht vollständig erkannt wird. Dies kann daran liegen, dass Ingenieurgeologen die Vorteile städtischer geologischer Anwendungen in Bezug auf Kosten und Umweltverbesserung nicht ausreichend nachgewiesen haben, diese Vorteile nicht ausreichend kommuniziert und den langfristigen Beitrag von Geoinformationen zur städtischen Nachhaltigkeit nicht klar aufgezeigt haben. In diesem Zusammenhang werden künftige Maßnahmen zur Verbesserung der Situation vorgeschlagen.;-;-;-;https://link.springer.com/article/10.1007/s10064-011-0377-4 d18f676bccf186caf5caf5fe2e5eb908;de;;;6.1.;;;Methodik der Bestandsführung Bestandsführung und Auswertung sind ein wichtiger Bestandteil der Betriebsführung von Gasspeichern. Durch die theoretische Berechnung des Inventars und die Analyse der Multicycle-Betriebskurven können die Betriebseigenschaften eines Gasspeichers, einschließlich Mehrzyklus-Kapazitätserweiterung, Leckage und Wassereinbruch, gewonnen werden und somit eine Grundlage für die Simulation der technischen Kennziffern geschaffen werden des Gasspeicherinventars. Das Bestandsmanagement umfasst fünf Teile: Betriebsüberwachung und Datenmanagement, Bestandsmanagement und -bewertung, technische Indexvorhersage und Bestandsanalyse, Injektions- und Produktionskapazitätsvorhersage sowie Optimierung der Produktionszuordnung und Injektionszuordnung. In diesem Kapitel wird der Prozess der Bestandsführung nach den Grundprinzipien der Bestandsführung vorgestellt.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-981-15-7855-7_24-1 2a7e5cec6606edb445e083b2f46861f1;de;;;6.1.;;;Entwicklung und Nutzung einer flexiblen Datenharmonisierungsplattform zur Harmonisierung individueller Patientendaten für Metaanalysen Die Harmonisierung individueller Patientendaten (IPD) für die Metaanalyse hat klinische und statistische Vorteile. Die Harmonisierung von IPD aus mehreren Studien kann von einer flexiblen Datenharmonisierungsplattform (DHP) profitieren, die eine Harmonisierung von IPD bereits während der Datenerhebung ermöglicht. Dieses Papier beschreibt die Entwicklung und Anwendung eines flexiblen DHP, das ursprünglich für die Studie Predicting OptimaL Cancer RehabIlation and Supportive Care (POLARIS) entwickelt wurde.;-;-;-;https://link.springer.com/article/10.1186/s13104-019-4210-7 4bfb133ea7e36af67873be4a73e12f47;de;;;6.1.;;;Kollaboratives Arbeiten in einer BIM-Umgebung (BIM-Plattform) Im Vergleich zu früheren industriellen Revolutionen (18. Jahrhundert: mechanischer Webstuhl vs. Eisen und Stahl, 19. Jahrhundert: Produktionslinie vs. Stahlbeton, 20. Jahrhundert: Automatisierungsfertigung vs. Betonfertigteile) sind Gebäude heute neben allen vollständig in Industrie 4.0 eingebunden anderen Industriezweigen und Dienstleistungssektoren. Die neue Herangehensweise an die Produktion und die Verwendung von Produkten beinhaltet daher Objekte, Subjekte und Prozesse, die durch die Generierung gemeinsamer Informationen in einer kontinuierlichen Entwicklung miteinander integriert sind. Solche Informationen müssen (auf strukturierte Weise) gesammelt, (genau und statistisch) verarbeitet, (offen und transparent) weitergegeben werden. Hinsichtlich der Qualität der Arbeiten und der Wettbewerbsfähigkeit des Sektors ist die Verordnung Nr. 305/2011 (Europäische Kommission, Verordnung (EU) Nr. 305/2011 des Europäischen Parlaments und des Rates, Amtsblatt der Europäischen Union, Straßburg, [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-32889-4_4 dc0540a1de6424550e7c5a3b1aefcd25;de;;;6.1.;;;Privatisierung von Informationen und Datenschutzreform Strafverfolgungsbehörden verarbeiten häufig personenbezogene Daten, die sie von privaten Stellen wie Banken, Privatunternehmen usw. erhalten haben, zum Zwecke der Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder der Strafvollstreckung. Die Verarbeitung personenbezogener Daten durch EU-Strafverfolgungsbehörden und die Verarbeitung personenbezogener Daten durch private Stellen unterliegt jedoch unterschiedlichen Rechtsinstrumenten. Ein zusätzliches Problem ergibt sich, wenn diese Übermittlungen an eine Strafverfolgungsbehörde eines Drittstaats erfolgen. Somit besteht die Gefahr, dass bei der Übermittlung personenbezogener Daten von privaten Stellen an Strafverfolgungsbehörden eine Lücke zwischen zwei Rechtsinstrumenten entsteht. Im Zuge der Überarbeitung der derzeit geltenden datenschutzrechtlichen Instrumente könnten Regelungen zur Vermeidung dieses Risikos aufgenommen werden. In diesem Beitrag geht es daher um die Frage, wo diese Bestimmungen bei Verbringungen innerhalb der EU und in einen Drittstaat aufgenommen werden sollen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7540-4_8 0fa5bf7b58e03a2243665c8ec08fcb48;de;;;6.1.;;;Verteiltes attributbasiertes Zugangskontrollsystem mit autorisierter Blockchain Auditing bietet eine wesentliche Sicherheitskontrolle in Computersystemen, indem alle Zugriffsversuche verfolgt werden, einschließlich legitimer und illegaler Zugriffsversuche. Diese Phase kann im Zusammenhang mit Audits nützlich sein, bei denen eventuelle sich schlecht verhaltende Parteien zur Rechenschaft gezogen werden können. Die Blockchain-Technologie kann die vertrauenswürdige Überprüfbarkeit bieten, die für Zugangskontrollsysteme erforderlich ist. In diesem Papier schlagen wir ein verteiltes attributbasiertes Zugriffskontrollsystem (ABAC) basierend auf Blockchain vor, um eine vertrauenswürdige Prüfung von Zugriffsversuchen zu ermöglichen. Neben der Überprüfbarkeit bietet unser System ein Maß an Transparenz, von dem sowohl Zugriffsanfrager als auch Ressourcenbesitzer profitieren können. Wir präsentieren eine Systemarchitektur mit einer Implementierung basierend auf Hyperledger Fabric, die eine hohe Effizienz und einen geringen Rechenaufwand erreicht. Die vorgeschlagene Lösung wird durch einen Anwendungsfall unabhängiger digitaler Bibliotheken validiert. Es wird eine detaillierte Leistungsanalyse unserer Implementierung unter Berücksichtigung verschiedener Konsensmechanismen und Datenbanken vorgestellt. Die experimentelle Auswertung zeigt, dass unser vorgestelltes System einen Transaktionsdurchsatz von 270 Transaktionen pro Sekunde mit einer durchschnittlichen Latenz von 0,54 Sekunden pro Transaktion effektiv bewältigen kann.;-;-;-;https://link.springer.com/article/10.1007/s11280-021-00874-7 9f13730e240374967fa8866779e362b1;de;;;6.1.;;;Zugang des Anbieters zu älteren elektronischen Anästhesieunterlagen nach der Implementierung eines elektronischen Patientenaktensystems Viele Krankenhäuser sind dabei, ihr altes Anästhesie-Informationsmanagementsystem (AIMS) durch ein elektronisches Gesundheitsaktensystem (EHR) zu ersetzen, in das das AIMS integriert ist. Unter Verwendung der alten AIMS-Sicherheitszugriffsprotokolltabelle haben wir untersucht, inwieweit Anästhesieanbieter nach der Implementierung einer EHR (April 2017) auf historische Anästhesieaufzeichnungen (Januar 2006 – März 2017) zugreifen. Die statistische Analyse erfolgte durch segmentierte Regression. Zum Zeitpunkt der Einführung der EHR lag in 44,8 % (SE = 0,3 %) der Patienten eine Voranästhesieakte vor, die im Alt-AIMS dokumentiert war. Nach der EHR-Implementierung verringerte sich die durchschnittliche Anzahl präoperativer klinischer Ansichten aller früheren Anästhesieaufzeichnungen geteilt durch die Gesamtzahl der durchgeführten Fälle auf 2,3 % (0,3 %) gegenüber dem Ausgangswert von 25,1 % (0,8 %). Das geschätzte Verhältnis der beiden Mittelwerte betrug 0,18 (95%-KI 0,11 zu 0,31,;-;-;-;https://link.springer.com/article/10.1007/s10916-019-1232-6 72b449b22c8cf0fbceb9e2e1d3dbfe66;de;;;6.1.;;;Science Tour und Geschäftsmodell mit digitaler Zwillings-basierter Augmented Reality Der Zweck dieser Studie ist es, einen theoretischen Rahmen für ein digitales Zwillings-basiertes intelligentes Wissenschaftstourismussystem vorzuschlagen, das Augmented Reality auf dem Gwanghwamun-Platz verwendet. Bisher war ein intelligenter Tourismusservice nicht ausreichend entwickelt, um den Besuchern relevante touristische Informationen bereitzustellen, da die touristischen Inhalte durch das separate Informationssystem der einzelnen Institutionen verwaltet wurden. Die Touristen konnten keine idealen touristischen Routen basierend auf ihren Vorlieben und auch nach der Überlastung der einzelnen Institutionen erhalten. Darüber hinaus war das Geschäftsmodell mit bestehenden touristischen Dienstleistungen nicht gut entwickelt, so dass die derzeitigen touristischen Dienstleistungen nicht ausreichend zur Wiederbelebung der regionalen Wirtschaft beigetragen haben. Wir haben ein digitales Zwillings-basiertes Tourismus-Content-Management-System entwickelt, das ein integriertes Management von Tourismusinformationen und Augmented Reality (AR)-Wissenschaftstour-Diensten bietet, die mit Inhaltsempfehlung, bester Pfadfindung, Inhaltsfreigabe und Gamification enthalten sind. Wir haben auch ein Geschäftsmodell mit der AR-Tourismusplattform basierend auf der Digital-Twin-Technologie eingeführt, das zur Belebung der lokalen Wirtschaft beitragen könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-68086-2_20 88a9e1fd0047c4eadb0acc20da6ecaab;de;;;6.1.;;;Web-GIS-Design und Realisierung für Grundwasserressourcen im Becken des Gelben Flusses Dieser Artikel stellt ein Entwurfs- und Realisierungsschema von Web-GIS im Gelben Flussbecken für das Management von Grundwasserressourcen vor. Die Hauptziele sind die Verwaltung und der Austausch von Daten in großem Umfang, um die Erforschung der Grundwasserressourcen im Becken des Gelben Flusses zu unterstützen. In diesem Beitrag weisen wir auf die Notwendigkeit und Machbarkeit des Aufbaus des verteilten Web-GIS für geografische Forschungsobjekte in großem Maßstab hin. Wir haben einige Lösungen für den Aufbau dieser Art von System vorgeschlagen, darunter eine ganzheitliche Bereitstellungsstrategie im Internet, ein Schema der verteilten Datenspeicherung und -verwaltung, ein Design der Anwendungsstruktur basierend auf der Drei-Reifen-Architektur jeder Provinz und wie sie miteinander zusammenarbeiten Sonstiges. Es beleuchtet auch, wie der Anwendungsserver funktioniert, und legt die Beziehungen zwischen Datenbanken dar, die in diesem System zusammenarbeiten.;-;-;-;https://link.springer.com/article/10.1360/04ez0009 51581be08525b558af43ac2bc6d25505;de;;;6.1.;;;Verwalten von Beziehungen über den Lebenszyklus einer Outsourcing-Vereinbarung Wie im einleitenden Kapitel erwähnt, hat sich die IT-Outsourcing-Forschung von einem Fokus auf das Outsourcing von Unternehmen zu einem erfolgreichen Management von Outsourcing-Beziehungen entwickelt. In diesem Kapitel möchten wir einen Beitrag zur Praxis leisten, indem wir die zugrunde liegende Natur der Kunden-Lieferanten-Beziehung besser verstehen. Bei der Analyse unserer umfangreichen Forschungsbasis, die ausführliche Interviews mit leitenden Angestellten, CIOs, Lieferanten, IT-Mitarbeitern, IT-Benutzern und IT-Outsourcing-Beratern umfasst, haben wir festgestellt, dass die Dichotomie zwischen Kunde und Lieferant die Komplexität aller Stakeholder-Beziehungen im IT-Bereich nicht erfasst Auslagerung. Der „Kunde“ umfasst eigentlich leitende Geschäftsleiter, die für die IT bezahlen, leitende IT-Manager, die die IT verwalten, IT-Mitarbeiter, die die IT bereitstellen, und schließlich die Benutzer, die den IT-Service tatsächlich erhalten. Der „Lieferant“ umfasst die Geschäftsleitung, die Geschäfte aushandelt, Kundenbetreuer, die für die Erzielung eines Gewinns aus dem Geschäft verantwortlich sind, und die mit der Lieferung beauftragten IT-Mitarbeiter der Lieferanten. Wenn IT-Gewerkschaften, externe Berater, Rechtsanwälte, Subunternehmer oder Multi-Sourcing beteiligt sind, werden zusätzliche Interessengruppen zur Partei hinzugefügt. Indem wir uns um diese vielfältigen Interessengruppen kümmern, haben wir ein besseres Verständnis der komplexen Beziehungen zwischen den Interessengruppen und arbeiten von einer besser informierten Basis aus, um diese Beziehungen zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1057/9780230594838_12 7f278cb203ca67d7a0b18167e022bc6b;de;;;6.1.;;;Energiesparende mobile Cloud-Infrastruktur Mobile Cloud Computing ermöglicht es den Benutzern, die Produktivität zu verbessern, Daten auszutauschen und mit anderen mobilen Benutzern zusammenzuarbeiten. Mobile Benutzer können Ressourcen und Anwendungen ohne hohe Investitionen in Hardware- und Softwareressourcen gemeinsam nutzen. Obwohl dieses neue Phänomen begrüßt wird, stehen die Menschen seiner Wirksamkeit in der realen Welt skeptisch gegenüber. Mobile Ressourcen werden bei richtiger Nutzung ein Segen sein, da sie den Weg für ihren allgegenwärtigen Zugang ebnen können. Eine energieeffiziente Infrastruktur wird in der mobilen Cloud dringend benötigt, da Energie die Haupteinschränkung für mobile Benutzer ist. In diesem Beitrag wird eine energiekonservative mobile Cloud-Infrastruktur vorgeschlagen. Mobile Nodes werden nach dem Helferfaktor-Algorithmus klassifiziert, der auf Batterieverbrauch, Speicherkapazität, Netzwerkbandbreite und Zeitverzögerung basiert. Die Fähigkeit des mobilen Knotens, seine Ressource zu anderen mobilen Knoten in seinem Kreis beizutragen, wird bestimmt. Das Konzept des Peer-Datenaustauschs zwischen mobilen Geräten, um die Wiederverwendbarkeit von Daten im eigenen Kreis zu ermöglichen, wird ebenfalls vorgeschlagen. Der lokale Server-Cache wurde effektiv implementiert, um die zuletzt verwendeten Dateien schnell abzurufen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30767-6_13 b96b8aeb3575839e530b38dbea8d0275;de;;;6.1.;;;Voraussetzungen für den Erfolg? Gender in Technology-Intensivkurse an Sekundarschulen in British Columbia Geschlechterungleichheiten in der Technologie sind an kanadischen Schulen und Arbeitsplätzen systemisch (Status of Women Canada, 1997). Mehrere neuere Analysen der Teilnahme von Schülern in British Columbia (BC) an technologieintensiven Bereichen des Lehrplans öffentlicher Schulen haben eine Reihe dieser Ungerechtigkeiten dokumentiert (Braundy, O'Riley, Petrina, Dalley & Paxton, 2000, Bryson & de Castell, 1998, Schäfer, 2000). Im jüngsten technologiepolitischen Bericht des britischen Bildungsministeriums (BC MOE);-;-;-;https://link.springer.com/article/10.1080/14926150309556559 8986bcb6a34766ac0beb8d53bbf84b47;de;;;6.1.;;;Big Data im Cloud Computing: Ein Überblick über Schlüsseltechnologien und offene Fragen Auch Wissenschaft, Industrie und Regierung sind an Big-Data-Projekten beteiligt. Viele Forschungen zu Big-Data-Anwendungen und -Technologien werden aktiv betrieben. Dieser Beitrag präsentiert einen Literaturüberblick über aktuelle Forschungen zu Schlüsseltechnologien und offenen Fragen für das Big-Data-Management über Cloud Computing. Ziel ist es, die wichtigsten Technologiekomponenten und deren Auswirkungen auf Cloud-basierte Big-Data-Implementierungen zu identifizieren und zu bewerten. Dies wird durch die Überprüfung von 40 Publikationen erreicht, die in den letzten vier Jahren 2014–2017 veröffentlicht wurden. Wir haben die Ergebnisse nach den wichtigsten technischen Aspekten klassifiziert: Frameworks, Datenbanken und Datenverarbeitungstechniken sowie Programmiersprachen. Dieses Papier bietet auch eine Referenzquelle für Forscher und Entwickler, um die besten neuen Technologien für die Umsetzung von Big-Data-Projekten zu bestimmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-75928-9_45 2aa3e04242c8df34dd585aead7628975;de;;;6.1.;;;Herausforderungen von CE Trotz eines langen Stammbaums und vieler positiver Berichte über seine Anwendung und Vorteile erfahren Concurrent Engineering (CE) und die damit verbundenen Forschungs(sub)domänen immer noch eine bedeutende Entwicklung. In diesem letzten Kapitel wird ein sozio-technischer Rahmen angewendet, um Herausforderungen zu klassifizieren und zu analysieren, die als Teil der in diesem Buch diskutierten Grundlagen, Methoden und Anwendungen identifiziert wurden. Vorhandene Eigenschaften und Mittel von CE werden abstrahiert. Anschließend werden die wichtigsten Trends und Entwicklungen in der CE-Forschung und -Praxis diskutiert, gefolgt von Erwartungen für die Zukunft. Es wurden Erkenntnisse und Trends für strategische Probleme identifiziert, die in Produktanforderungen und Produktportfolios sichtbar sind, Interessengruppen wie beteiligte Unternehmen, mehrere Funktionen und Disziplinen, aktuelle und zukünftige Technologien, von denen erwartet wird, dass sie zumindest einige der bestehenden Probleme, Kenntnisse und Fähigkeiten lösen, die von Menschen und Teams und Strukturen, die für eine funktionierende Zusammenarbeit notwendig sind, und gleichzeitig mit den immer noch sehr schwierigen kulturellen Unterschieden umzugehen. Wie das Kapitel zeigt, ist CE als Konzept sehr lebendig und erfordert noch fortschrittlichere Werkzeuge, Techniken und Methoden, um weltweit zu weniger Ressourcen- und Arbeitsverschwendung beizutragen und die Qualität zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13776-6_28 7226a671e6e4460a190624fd6b94694e;de;;;6.1.;;;Design und Bewertung eines Echtzeit-Erfassungssystems für physiologische Signale, das in Multi-OP-Räumen für die Anästhesie implementiert ist Angesichts der entscheidenden Bedeutung der medizinischen Versorgung besteht dringender Bedarf an eingehenden medizinischen Studien, die auf spezifische physiologische Signale zugreifen und diese analysieren können, um eine theoretische Unterstützung für die praktische klinische Versorgung zu bieten. Daher ist es das erste Anliegen der Forscher, die wertvollen medizinischen Daten mit minimalen Kosten und Auswirkungen auf die Krankenhausarbeit zu erhalten. Die Anästhesie spielt bei Operationen eine weithin anerkannte Rolle, was Menschen anzieht, relevante Forschung zu betreiben. In diesem Beitrag wird ein Echtzeit-Datenerfassungssystem für physiologische medizinische Signale (PMSDA) für Anwendungen in mehreren Operationssälen mit hoher Universalität der praktischen Einstellungen und Forschungsanforderungen im Krankenhaus vorgeschlagen. Durch die Verwendung eines drahtlosen Kommunikationsansatzes bietet es eine leicht zugängliche Netzwerkplattform für die Erfassung physiologischer medizinischer Signale wie Photoplethysmogramm (PPG), Elektrokardiogramm (EKG) und Elektroenzephalogramm (EEG) während der Operation. Darüber hinaus werden die Rohdaten zur sicheren Sicherung und weiteren Analyse der Narkosetiefe (DoA) auf einem Server gespeichert. Die Ergebnisse zeigen, dass das PMSDA eine robuste, qualitativ hochwertige Leistung aufweist, die Kosten im Vergleich zu bisher manuellen Methoden effizient senkt und eine nahtlose Integration in die Krankenhausumgebung unabhängig von seiner Routinearbeit ermöglicht. Insgesamt bietet es ein pragmatisches und flexibles Systemmodell zur Erfassung von Operationsdaten mit geringen Auswirkungen und Ressourcenkosten, das für die Forschung unter kritischen und praktischen medizinischen Bedingungen anwendbar ist.;-;-;-;https://link.springer.com/article/10.1007/s10916-018-0999-1 a9a43c4e6c78b74c366833b69dcd4993;de;;;6.1.;;;Charakterisierung des Einflusses von Hardware-Inseln auf OLTP Moderne Hardware ist reichlich parallel und zunehmend heterogen. Die zahlreichen Verarbeitungskerne weisen ungleichmäßige Zugriffslatenzen auf den Hauptspeicher und die Prozessorcaches auf, was zu Schwankungen bei den Kommunikationskosten führt. Leider gehen Datenbanksysteme meistens davon aus, dass alle Verarbeitungskerne gleich sind und dass Unterschiede in der Mikroarchitektur nicht signifikant genug sind, um in kritischen Datenbankausführungspfaden zu erscheinen. Wie wir in diesem Papier demonstrieren, tritt jedoch eine ungleichmäßige Kerntopologie im kritischen Pfad auf und konventionelle Datenbankarchitekturen erzielen eine suboptimale und noch schlimmere, unvorhersehbare Leistung. Wir führen eine detaillierte Leistungsanalyse von OLTP-Bereitstellungen in Servern mit mehreren Kernen pro CPU (;-;-;-;https://link.springer.com/article/10.1007/s00778-015-0413-2 1d4c47d58743a3838017572f5059d01b;de;;;6.1.;;;Big Data und HPC-Konvergenz für intelligente Infrastrukturen: Eine Überprüfung und vorgeschlagene Architektur Die Welt hat aufgrund von sozialen Medien, Mobilität, E-Commerce und anderen Faktoren ein exponentielles Datenwachstum erlebt. Die Probleme im Zusammenhang mit der erzeugten Datenlawine sind immens und decken eine Vielzahl von Herausforderungen ab, die sorgfältig geprüft werden müssen. Der Einsatz von HPDA (High Performance Data Analytics) nimmt in vielen Branchen rasant zu und hat zu einer Expansion des HPC-Marktes in viele neue Gebiete geführt. HPC (High Performance Computing) und Big Data sind unterschiedliche Systeme, nicht nur auf technischer Ebene, sondern haben auch unterschiedliche Ökosysteme. HPC-Systeme werden hauptsächlich für rechenintensive Anwendungen entwickelt, aber in letzter Zeit gehören auch datenintensive Anwendungen zu den Hauptarbeitslasten in der HPC-Umgebung. Big-Data-Analysen sind aus unterschiedlichen Perspektiven gewachsen und haben separate Entwickler-Communitys. Auf dem Weg ins Exascale- und Smart Infrastructure-Zeitalter ist die notwendige Integration von Big Data und HPC derzeit ein heißes Forschungsthema, aber noch in den Kinderschuhen. Beide Systeme haben unterschiedliche Architekturen und ihre Integration bringt viele Herausforderungen mit sich. Ziel dieser Arbeit ist es, die treibenden Kräfte, Herausforderungen, aktuellen und zukünftigen Trends im Zusammenhang mit der Integration von HPC und Big Data zu identifizieren. Dieses Papier ist eine Erweiterung unserer früheren Arbeit. Wir haben Programmiermodelle und Frameworks von Big Data und HPC überprüft. Die Big-Data- und HPC-Herausforderungen im Exascale-Computing-Zeitalter werden diskutiert. Es werden zusätzliche Ausarbeitungen zu HPC und Big Data-Konvergenzforschungsbemühungen sowie zukünftige Richtungen bereitgestellt. Die in unserem früheren Artikel vorgeschlagene HPC-Big Data-Konvergenzarchitektur wurde verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-13705-2_23 54f0ad5e303ab48e12f16722086fa60d;de;;;6.1.;;;Datenschutz in Cloud-gestützten Gesundheitssystemen: Stand der Technik und zukünftige Herausforderungen Der weit verbreitete Einsatz und Nutzen von Wireless Body Area Networks (WBANs) in Gesundheitssystemen erforderte neue Technologien wie das Internet der Dinge (IoT) und Cloud Computing, die in der Lage sind, mit den Speicher- und Verarbeitungsbeschränkungen von WBANs umzugehen. Diese Verschmelzung von WBAN-basierten Gesundheitssystemen zu Cloud-basierten Gesundheitssystemen führte zu ernsthaften Bedenken hinsichtlich der Privatsphäre der sensiblen Gesundheitsdaten. Daher besteht ein Bedarf an einer proaktiven Identifizierung und wirksamen Abwehrmechanismen für die Datenschutzbedenken dieser Patienten, die die Integrität und Stabilität der Gesundheitsumgebung ständig gefährden. Zu diesem Zweck wurde eine systematische Literaturrecherche durchgeführt, die ein klares Bild der Datenschutzbedenken von Patientendaten in Cloud-gestützten Gesundheitssystemen liefert und die von der Forschungsgemeinschaft kürzlich vorgeschlagenen Mechanismen analysiert. Die zur Durchführung der Überprüfung verwendete Methodik basierte auf den Richtlinien von Kitchenham. Die Ergebnisse der Überprüfung zeigen, dass die meisten Datenschutztechniken der Patienten die Datenschutzbedenken nicht vollständig berücksichtigen und daher mehr Anstrengungen erfordern. Die in diesem Papier präsentierte Zusammenfassung würde dabei helfen, Forschungsrichtungen für die Techniken und Mechanismen festzulegen, die erforderlich sind, um die Datenschutzbedenken der Patienten auf ausgewogene und leichte Weise zu berücksichtigen, indem alle Aspekte und Einschränkungen der Cloud-gestützten Gesundheitssysteme berücksichtigt werden.;-;-;-;https://link.springer.com/article/10.1007/s10916-016-0509-2 75a3bd7fb5b872fcb466004af0a441cd;de;;;6.1.;;;Fehlertoleranz und QoS-Scheduling mit CAN im mobilen Social Cloud Computing Die Leistung mobiler Geräte wie Smartphones und Laptops steigt stetig, da die Preise stark sinken. Somit verändern sich mobile Geräte aufgrund der unermesslich verbesserten Leistung von einer bloßen Schnittstelle zum Anfordern von Diensten zu Rechenressourcen zum Bereitstellen und Teilen von Diensten.;-;-;-;https://link.springer.com/article/10.1007/s10586-013-0286-3 c5a77d9de9d1433b8c3628873ea5d2cc;de;;;6.1.;;;Lifecycle-Informationen vereinen – von Elementen zu Assets, von Konzepten zur Praxis Viele Produkte sind immer komplexer und maßgeschneiderter geworden. Folglich sind Produktdaten ein äußerst wichtiger Faktor, um den Erfolg und die Nachhaltigkeit eines Produktes sicherzustellen. Große und komplexe Produkte, Systeme oder Einrichtungen wurden in der Vergangenheit ohne die heute verfügbaren erweiterten informationstechnischen Systeme verwaltet. Zu einigen erfolgreichen Produkten oder Systemen zählen Raumfahrtprogramme wie das Apollo-Programm der NASA oder die ab den 1950er Jahren gebauten Teilchenbeschleuniger wie der des CERN, Genf, Schweiz, die als Fallstudie für diese Arbeit dienen. Einige der in diesen Epochen entwickelten Produkte sind noch heute in Betrieb. Es wurden Projekte und Praktikeransätze entwickelt und befinden sich noch in der Entwicklung, um das Problem der Migration von Daten, die mit unterschiedlichen Technologien erzeugt wurden, auf heutige Technologien zu lösen. Der ISO 10303-Standard – auch STEP-Standard (Standard for the Exchange of Product Data) genannt – bietet beispielsweise die Möglichkeit, CAD-Daten zwischen Systemen zu übertragen. Es wurde jedoch nur wenig darauf geachtet, zuverlässige Mittel bereitzustellen, um die Informationen aus verschiedenen Lebenszyklusphasen zusammenzuführen. Dieses Papier zielt darauf ab, die Aufmerksamkeit auf die Probleme zu lenken, die durch die Verwendung unterschiedlicher Terminologien und Systeme in verschiedenen Lebenszyklusphasen aufgeworfen werden, insbesondere das Konzept des Artikels während der Konzeptions- und Entwicklungsphase und das Konzept des Assets während des Betriebs und der Wartung sowie einige Probleme, die das kann bringen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41501-2_13 cff5aa1d6b7d5ad0f71b278e4f23b52f;de;;;6.1.;;;Die OpenFAM-API: Ein Programmiermodell für disaggregierten persistenten Speicher Jüngste Technologiefortschritte bei Byte-adressierbarem nichtflüchtigem Speicher (NVM) mit hoher Dichte und Verbindungen mit geringer Latenz haben den Aufbau großer Systeme mit einem großen disaggregierten Fabric-Attached-Memory-(FAM)-Pool ermöglicht, der von dezentralen Rechenknoten geteilt wird. Die OpenFAM-API ist eine API zum Programmieren mit persistentem FAM, die vom OpenSHMEM-Modell des partitionierten globalen Adressraums (PGAS) inspiriert ist. Im Gegensatz zu OpenSHMEM, bei dem jeder Knoten lokalen Speicher zu einem logisch gemeinsam genutzten globalen Adressraum beisteuert, ist FAM keinem bestimmten Knoten zugeordnet und kann direkt von jedem Knoten ohne Mitwirkung oder Beteiligung eines anderen Knotens adressiert werden. Die OpenFAM-API ermöglicht es Programmierern, FAM-Zuweisungen zu verwalten, auf FAM-residente Datenstrukturen zuzugreifen und FAM-Operationen anzuordnen. Da der Zustand in FAM eine Programmbeendigung überstehen kann, bietet die API auch Schnittstellen zum Benennen und Verwalten von Daten über die Lebensdauer eines einzelnen Programmaufrufs hinaus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-04918-8_5 41130bf6ecb6fef7d89f4139775b7c4b;de;;;6.1.;;;Data Pipeline Management in der Praxis: Herausforderungen und Chancen Datenpipelines umfassen eine komplexe Kette miteinander verbundener Aktivitäten, die mit einer Datenquelle beginnt und in einer Datensenke endet. Datenpipelines sind für datengesteuerte Unternehmen wichtig, da eine Datenpipeline Daten in mehreren Formaten aus verteilten Datenquellen mit minimalem menschlichen Eingriff verarbeiten, Datenlebenszyklusaktivitäten beschleunigen und die Produktivität in datengesteuerten Unternehmen steigern kann. Es gibt jedoch Herausforderungen und Chancen bei der Implementierung von Datenpipelines, aber über praktische Branchenerfahrungen wird selten berichtet. Die Ergebnisse dieser Studie werden durch die Durchführung einer qualitativen Fallstudie und Interviews mit Vertretern von drei Unternehmen abgeleitet. Zu den Herausforderungen zählen Probleme mit der Datenqualität, Probleme bei der Wartung der Infrastruktur und organisatorische Hindernisse. Auf der anderen Seite werden Datenpipelines implementiert, um Rückverfolgbarkeit und Fehlertoleranz zu ermöglichen und menschliche Fehler durch Maximierung der Automatisierung zu reduzieren, wodurch qualitativ hochwertige Daten erzeugt werden. Basierend auf mehreren Fallstudien mit fünf Anwendungsfällen von drei Fallunternehmen identifiziert dieses Papier die wichtigsten Herausforderungen und Vorteile, die mit der Implementierung und Nutzung von Datenpipelines verbunden sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-64148-1_11 978bd94ec952ca4765f383491f6e3607;de;;;6.1.;;;Abgleich inkonsistenter Daten in der probabilistischen XML-Datenintegration Das Problem des Umgangs mit inkonsistenten Daten bei der Integration von XML-Daten aus verschiedenen Quellen ist eine wichtige Aufgabe, die notwendig ist, um die Qualität der Datenintegration zu verbessern. Typischerweise werden zum Entfernen von Inkonsistenzen, d. h. Konflikten zwischen Daten, Verfahren zum Bereinigen (oder Reparieren) von Daten angewendet. In diesem Papier stellen wir eine probabilistische XML-Datenintegrationseinstellung vor. Jeder Datenquelle und ihren Wahrscheinlichkeitsmodellen wird eine Wahrscheinlichkeit zugeordnet;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-70504-8_8 5161367b94ac832ba29fa209e870523c;de;;;6.1.;;;Mit Geolympus ein umfassendes Spielerlebnis im Hochschulkontext schaffen Die Anzahl der Spielerlebnisse basierend auf dem Standort des Spielers hat in letzter Zeit aufgrund der Verbreitung und Innovation in verwandten Technologien zugenommen. Im pädagogischen Kontext war das Ziel dieser Spiele, die Fähigkeiten des Spielers in Bezug auf ein bestimmtes Thema zu verbessern. Wenn jedoch durchdringende oder narrative Komponenten hinzugefügt werden, nimmt die Komplexität der Konstruktion und der Unterstützung zu, was ein Werkzeug erfordert, um die Informationen sowohl angemessen als auch dynamisch zu verwalten. Raum und Durchdringung der sozialen Interaktion wirken zusammen, um Ziele durch den Austausch von Informationen zwischen mehreren durchdringenden Spielen zu erreichen, um ein besseres Spielerlebnis zu bieten. Dieses Papier stellt eine Plattform vor, die es ermöglicht, Spielerlebnisse basierend auf dem Standort des Spielers zu schaffen, um die Fähigkeiten der Schüler durch Anwendung der allgegenwärtigen Erzählung zu verbessern. Es validiert dann ein Spielerlebnis, das in einer Hochschulumgebung entwickelt und gebaut wurde.;-;-;-;https://link.springer.com/article/10.1007/s10209-021-00802-6 6c078ee726fc488a20f48ce93291935a;de;;;6.1.;;;Den Produktlebenszyklus verstehen In vielen Fällen ist der Produktlebenszyklus noch kein ganz klares und genaues Konzept. Der Lebenszyklusbegriff kann unter verschiedenen Aspekten betrachtet und je nach Bezugsrahmen der ihn definierenden Personen unterschiedlich verstanden werden. Ein weiterer sehr wichtiger Punkt ist hier, dass der Lebenszyklusstatus von Produktinformationen etwas ganz anderes ist als das Lebenszyklusmodell eines Produkts. In Bezug auf den Produktinformationslebenszyklus wäre ein passender Begriff der Status oder die Phase der Produktinformationen. (Die Grundprinzipien der Handhabung des Produktinformationsstatus werden in Kapitel 3 genauer beschrieben.);-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78172-1_11 d4b0bca00e5e262e266eb6b1dc064184;de;;;6.1.;;;Qualitätsbewusste Datenabstraktionsschicht für kollaborative 2-Tier-Sensornetzwerkanwendungen In diesem Papier wird PRIDE vorgestellt, eine neuartige Datenabstraktionsschicht für kollaborative 2-Tier-Sensornetzwerkanwendungen. PRIDE zielt insbesondere auf verteilte Echtzeitanwendungen ab, bei denen mehrere kollaborative mobile Geräte eine globale Situation analysieren müssen, indem sie Datenströme von massiven zugrunde liegenden Sensoren sammeln und verwalten. PRIDE bei diesen Geräten verbirgt die Details der zugrunde liegenden Sensoren und bietet einen transparenten, zeitnahen und robusten Zugriff auf globale Sensordaten in hochdynamischen und unvorhersehbaren Umgebungen aufkommender Sensornetzwerkanwendungen. Für einen transparenten und effizienten Austausch globaler Sensordaten wird ein modellbasierter prädiktiver Replikationsmechanismus vorgeschlagen und in ein konventionelles Datenmanagementsystem integriert, das verschiedene Arten von räumlichen und zeitlichen Abfragen unterstützt. Außerdem wird für eine robuste und zeitnahe Abfrageverarbeitung das prädiktive Replikationsschema auf das Problem der Gewährleistung der Dienstgüte (QoS) durch Einführung einer Rückkopplungssteuerung der Genauigkeitsgrenzen von Modellen erweitert. Wir zeigen die Realisierbarkeit der vorgeschlagenen Lösung, indem wir sie auf einem 2-Tier-Sensornetzwerk-Testbed implementieren und evaluieren und kollaborative Such- und Rettungsaufgaben mit realistischen Workloads emulieren. Unsere Bewertungsergebnisse zeigen, dass PRIDE einen zeitnahen Austausch von Sensordaten zwischen einer großen Anzahl von Geräten auf äußerst robuste und kontrollierte Weise erreichen kann.;-;-;-;https://link.springer.com/article/10.1007/s11241-012-9154-0 828cfdaf479a861bf4617b70268eb16d;de;;;6.1.;;;Ein Design einer Cyber-Physical System Architecture für Smart City Um die Entwicklung der Smart City zu fördern, soll das Cyber-Physical-System (CPS) in modernen Smart City-Informationsmanagementsystemen eingesetzt werden. Als Einheit aus Berechnung und physischem Prozess kann CPS den virtuellen Raum und die physische Welt verbinden, um eine reale Netzwerkverbindungswelt physischer Objekte zu schaffen. In diesem Papier untersuchen wir zunächst das Architekturdesign für CPS und betonen die Servicefunktion für das Informationsmanagementsystem der Smart City. Gemäß dem serviceorientierten Architektur-Framework von CPS präsentieren wir ein physisches Architekturmodell von CPS für Smart City. Es gibt fünf Schichten im Architektur-Framework, d. h. Wahrnehmungsverbindungsschicht, Netzwerkschicht, Konvergenzschicht, Kognitionsschicht und Konfigurationsschicht. Darüber hinaus werden vergleichende Studien diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9406-5_116 14220c13334a0a76a859d7bf05c02934;de;;;6.1.;;;Design eines Unternehmensnetzwerk-Informationssystems basierend auf industrieller Verbindung Der Aufbau eines Unternehmensdatensystems erfordert ein Architekturdesign auf oberster Ebene, um die Funktionen von Edge und Cloud zu teilen, sowie die spezifischen technischen Strategien für den Übergang von der bestehenden Informationssystemarchitektur zu der neuen Datensystemarchitektur. Mit Blick auf die Probleme des Datenflusses in der aktuellen Unternehmenssystemarchitektur wird der Entwurf einer Unternehmensdatensystemarchitektur basierend auf industrieller Vernetzung diskutiert und Praktiken in diesem Papier zusammengefasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1468-5_94 36f33d02e20158a1dbaf3c18c57835cb;de;;;6.1.;;;Automatische Konfliktlösung in einem CDSS Ein Collaborative Data Sharing System (CDSS) ermöglicht es Gruppen von Wissenschaftlern, zusammenzuarbeiten und ihre Daten in Gegenwart unterschiedlicher Datenbankschemata und Instanzen auszutauschen. Jede Gruppe kann ihre eigene Datenbankinstanz im getrennten Modus erweitern, kuratieren und überarbeiten. Zu einem späteren Zeitpunkt kann die Gruppe die von ihr vorgenommenen Aktualisierungen zum Nutzen anderer veröffentlichen und um Aktualisierungen von anderen Gruppen (falls vorhanden) zu erhalten. Alle widersprüchlichen Aktualisierungen werden von der Abgleichsoperation behandelt, die solche Aktualisierungen normalerweise vorübergehend ablehnt und sie als „zurückgestellt“ markiert. Der zurückgestellte Satz wird dann manuell gemäß vordefinierter Datenabgleichsrichtlinien, Prioritäten usw. für die gesamte Gruppe aufgelöst. In diesem Beitrag stellen wir einen Ansatz zur automatischen Konfliktlösung vor. Der Schwerpunkt liegt auf der Lösung von Konflikten in der verzögerten Menge, indem Feedback zur Qualität widersprüchlicher Updates von lokalen Benutzern gesammelt und dann die verschiedenen Feedbacks gewichtet und aggregiert werden, um das „vertrauenswürdigste“ Update zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31235-9_27 1418afeef1b89d781794e8f35973c19b;de;;;6.1.;;;Speicherstandards Speicher gibt es in Cloud-Systemen in drei Formen: Direct Attached Storage (DAS), Network Attached Storage (NAS) und Storage Area Networks (SANs). Diese Speichertypen teilen sich Standards, aber jeder verwendet die Standards auf unterschiedliche Weise. In diesem Kapitel werden drei Arten von Standards erörtert: Standards für Peripherieschnittstellen, Transportstandards und Dateisystemstandards. In diesem Kapitel wird nicht auf den Cloud Data Management Interface (CDMI)-Standard der Storage Networking Association (SNIA) eingegangen. CDMI mag für dieses Kapitel eine naheliegende Wahl sein, aber es passt besser zu den anderen Cloud-spezifischen Standards als zu diesen niedrigeren Speicherstandards.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-4111-9_8 3f556d4f020317c84546d4954a7e7452;de;;;6.1.;;;Zugang zu Kinderarzneimitteln in Großbritannien, Australien und Neuseeland in den Jahren 1998, 2002 und 2007 Beschreibung der Auflistung von verschreibungspflichtigen Wirkstoffen (einzigartige Wirkstoffe, die nur auf Rezept erhältlich sind) in Standardtexten, die für Kinder (0–18 Jahre) zugelassen sind, in kindgerechten Darreichungsformen und für Kinder subventioniert (staatlich finanziert) sind.;-;-;-;https://link.springer.com/article/10.1007/s11096-010-9383-z 8d01db82077b263587ea9cef3b322e32;de;;;6.1.;;;Ja heißt Nein(Ding): Überbrückung von Einwilligung in Vertragsrecht und Datenschutz im Kontext von Smart Mobility Dieser Beitrag geht von einer theoretischen Frage nach den Gemeinsamkeiten und Unterschieden zwischen informierter Einwilligung als Konzept des Vertragsrechts einerseits und als Konzept von Privatsphäre und Datenschutz andererseits aus. Da viele private urbane Mobilitätsinitiativen (z. B. Uber) darauf abzielen, Nutzer zu verfolgen und zu profilieren, um Datenanalysen durchzuführen, die den Kern ihrer Geschäftsmodelle bilden, spielt die informierte Einwilligung eine grundlegende Rolle bei den Transaktionen, über die diese Daten übermittelt werden erworben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-61920-9_14 9e6c08f92e3019898cf2b90f9326db36;de;;;6.1.;;;Mobile Technologielösung für COVID-19: Überwachung und Prävention Das 21. Jahrhundert, ein Jahrhundert, wäre bekannt für tiefgreifende technologische Fortschritte und leider auch für eine globale Wirtschafts- und Gesundheitskrise aufgrund von SARS-CoV2, dem Erreger des Atemwegssyndroms COVID-19. Aufgrund der riesigen Krise in jedem Sektor ist der „technologische oder digitale Weg“ die größte Hoffnung, diese Pandemie zu bekämpfen. Analyse der Daten aus den letzten Infektionsmonaten, wird die Ausbreitung eher zu einer saisonalen Bedrohung für die Menschheit. Um die Technologie und andere damit verbundene Aspekte zu verbessern, entwickeln verschiedene Forscher und Entwickler mobile Anwendungen und mobile steuerbare Geräte, um qualitativ hochwertige Informationen bereitzustellen, die dazu beitragen können, die Kurve dieser Pandemie abzuflachen. Praktisch wird es zu einer großartigen Methode, um enge Kontakte mit erkrankten Personen durch virtuelle Besuche und durch Robotertechnologien zu verhindern. Im aktuellen Kapitel wurden der technologische Hintergrund von Computer-Intelligenz-gesteuerten Smartphone-Anwendungen zur Überwachung der Gesundheit einer Person und zur Verfolgung der geografischen Ausbreitung des Virus sowie der Forschungsumfang und die Datensicherheit dieser Anwendungen diskutiert. Dies könnte der Regierung helfen, die potenziellen Risikoumstände einer frühzeitigen Exposition und einer rechtzeitigen medizinischen Intervention zu verstehen, um eine weitere Ausbreitung auf andere Regionen zu verhindern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8534-0_5 76fc5f6efe5a2312d1ee81e2a8eed6b4;de;;;6.1.;;;Laborunterstützung der globalen Gesundheitsforschung Im Labor generierte Daten werden zur Unterstützung verschiedener Arten der globalen Gesundheitsforschung verwendet. Routinemäßig gewonnene klinische Diagnosedaten werden für die Krankheitsüberwachung, epidemiologische Analysen von Häufigkeiten und Trends, Gesundheitsforschung und geförderte Forschungsprojekte verwendet. Zur Unterstützung geförderter Forschungsprojekte werden auch klinische Daten aus Forschungslabors erhoben. Unabhängig davon, ob der ursprüngliche Zweck des Tests die Unterstützung von Forschungsprotokollen ist oder die Daten nachträglich überprüft werden, ist die Qualität der Labordaten entscheidend, um korrekte Schlussfolgerungen zu ziehen. Die Art und die Verwendung von Daten, die von Laboren vor Ort, Routinediagnostik, Forschungsdiagnostik und Grundlagenforschung generiert werden, werden mit einem Fokus auf qualitätsbezogene Aspekte beschrieben. Die vollständige Integration des Labormanagements als Partner ist für eine erfolgreiche Forschungsplanung und -durchführung unerlässlich.;-;-;-;https://link.springer.com/article/10.1007/s11606-013-2458-5 97e84d7121cc3507c761ada366c9a1b9;de;;;6.1.;;;Kombination von Physiotherapie und kognitiven Verhaltenstherapietechniken zur Verbesserung des Gleichgewichtsvertrauens und der Gemeinschaftsbeteiligung bei Menschen mit einseitiger Unterschenkelamputation, die Prothesen der unteren Extremitäten verwenden: ein Studienprotokoll für eine randomisierte klinische Studie mit Scheinkontrolle Ein niedriges Gleichgewichtsvertrauen ist ein weit verbreitetes, aber übersehenes Problem bei Menschen, die Prothesen der unteren Extremitäten (LLP) verwenden, die die Integration in die Gemeinschaft und die Lebensqualität beeinträchtigen können. Es besteht dringender Bedarf, Rehabilitationsprogramme zu entwickeln, die speziell auf das Gleichgewichtsvertrauen von Menschen, die LLP anwenden, abzielen. Frühere Forschungen haben gezeigt, dass Mehrkomponenten-Interventionen, einschließlich Techniken der kognitiven Verhaltenstherapie (CBT) und Übungen, machbar und wirksam sind, um das Gleichgewichtsvertrauen bei älteren Erwachsenen zu verbessern.;-;-;-;https://link.springer.com/article/10.1186/s13063-019-3929-8 3cba85a812a1ecc9e14473a775973e8f;de;;;6.1.;;;Design Thinking und Building Information Modeling Building Information Modeling (BIM) ist ein Ansatz zur computergestützten multidisziplinären Zusammenarbeit, Kommunikation und Koordination. Ein BIM-Modell ist ein konsolidierter digitaler Datenspeicher eines Entwurfs, der den nahtlosen Informationsaustausch zwischen den Beteiligten während eines Projektlebenszyklus ermöglicht. BIM ist der Industriestandard in der Planungs- und Baubranche. Es hat starke Synergien mit dem aufkommenden Konzept eines „Digital Twin“, und BIM ist entscheidend für die Umsetzung von Innovationen, die aus diesem digitalen Ökosystem hervorgehen. Dieses Kapitel stellt einen neuen BIM-Wissensrahmen vor, der auf einem kollaborativen Design-Thinking-Ansatz basiert. Dieses neue Framework verwendet aufkommende Ontologien und Technologien, die kollaboratives Designdenken und Entscheidungsfindung durch bessere Unterstützung der Designdarstellung und Kommunikation zwischen den Benutzern ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-56558-9_6 80686bde7cad20f1e40951a3c009050d;de;;;6.1.;;;FDA engagiert Mitarbeiter, um Herausforderungen im Bereich nichtklinischer Daten anzugehen FDA und PhUSE veranstalteten 2012 gemeinsam ein Computational Science Symposium (CSS), bei dem Interessenvertreter aus der pharmazeutischen Industrie und der Regierung zusammenarbeiten, um gemeinsame Bedürfnisse und Herausforderungen zu lösen. Es wurde eine Arbeitsgruppe für nichtklinische Informatik gebildet, die sich der Verbesserung der nichtklinischen Bewertungen und der Regulierungswissenschaft widmet, indem sie die wichtigsten Bedürfnisse und Herausforderungen in diesem Bereich identifiziert, sammelt und priorisiert und dann einen innovativen Rahmen für deren gemeinsame Bewältigung schafft. Dieses Papier diskutiert den Prozess und die Ergebnisse der Arbeitsgruppe für nichtklinische Informatik während des CSS und beschreibt einen Ansatz, der organisatorische Barrieren überwindet, um Computerwissenschaften für die nichtklinische Bewertung zu optimieren.;-;-;-;https://link.springer.com/article/10.1177/0092861512466398 fb937255fc6aaa65c410b7d9e14844e5;de;;;6.1.;;;Nordic Innovative Trial to Evaluate osteoporotic Fractures (NITEP-Gruppe): Nicht-operative Behandlung versus Operation mit volarer Verriegelungsplatte bei der Behandlung von distalen Radiusfrakturen bei Patienten ab 65 Jahren – ein Studienprotokoll für eine prospektive, randomisierte kontrollierte Studie In der Literatur gibt es zahlreiche Studien, die verschiedene operative Verfahren bei der Behandlung von distalen Radiusfrakturen (DRF) vergleichen. Es ist jedoch nicht bekannt, ob eine operative Behandlung und bessere Wiederherstellung der Anatomie mit einer volaren Verriegelungsplatte bei älteren Patienten im Vergleich zu einer nicht-operativen Behandlung zu einem besseren funktionellen Ergebnis führt.;-;-;-;https://link.springer.com/article/10.1186/s12891-018-2019-5 425f5700cf3d87cb3d9695738af84bba;de;;;6.1.;;;Präpositionen und Ergebnisse in Italienisch und Englisch: Eine Analyse aus der Ereigniszerlegung In diesem Beitrag analysieren wir die Zielbildung der Bewegungsinterpretation in Englisch und Italienisch. Wir argumentieren, dass im Gegensatz zu dem, was argumentiert wurde, beide Sprachen Ziel-von-Bewegungs-Interpretationen bilden, obwohl sie durch die Prinzipien der Komposition von Ereignisstrukturen eingeschränkt sind. Die parametrische Variation zwischen den beiden Sprachen wird angetrieben durch: (i) die Natur der verfügbaren lexikalischen Präpositionen, (ii) die Methoden der syntaktischen Lizenzierung von Ergebnisprojektionen. Wir erweitern das Konto, um das Fehlen von AP-Ergebnissen auf Italienisch zu erklären.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-3232-3_5 8e2bcc1b6a47886af743c45dfa96f442;de;;;6.1.;;;Nachweislich sicheres, schlankes Client-Authentifizierungsschema mit Anonymität für TMIS mit chaotischer Hash-Funktion Das Telecare-Medizin-Informationssystem (TMIS) gilt als wichtiges Instrument zur Verbesserung der Qualität und des Schutzes von Gesundheitsdiensten. Neben dem Schutz der Privatsphäre von Patienten werden in TMIS viele Authentifizierungstechniken eingeführt. Nach Untersuchungen wird festgestellt, dass viele Authentifizierungstechniken Sicherheitslücken aufweisen. In diesem Artikel schlagen wir ein effizientes, sicheres und leichtgewichtiges Authentifizierungsschema für TMIS vor, das eine chaotische Hash-Funktion verwendet, um die Anonymität der Benutzer zu erreichen. Die chaotische Hash-Funktion stellt in der modernen Kryptographie mit ihrem zufälligen Verhalten eine potenzielle Sicherheit dar. Außerdem liefern wir den Sicherheitsbeweis im Random Oracle (RO)-Modell und der Beweis der Korrektheit des Algorithmus wird unter Verwendung der (Burrows-Abadi-Needham) BAN-Logik für das vorgeschlagene Schema präsentiert. Die umfassende formelle und informelle Sicherheitsüberprüfung zeigt, dass die Sicherheit unseres Systems gegen bekannte potenzielle Angriffe resistent ist. Darüber hinaus schneidet unser vorgestelltes Authentifizierungsschema im Vergleich zu anderen existierenden Schemata in der Literatur deutlich besser ab und ist auch auf der Grundlage hoher Sicherheit und niedriger Rechen- und Kommunikationskosten effizient.;-;-;-;https://link.springer.com/article/10.1007/s11227-020-03553-y 188e2677fa775289943938420daebfa9;de;;;6.1.;;;Erstellen von Produkten und Dienstleistungen in der Bioinformatik In diesem Kapitel wird die Bioinformatik definiert, wobei die interdisziplinären Aspekte betont werden. Ausführliche Informationen zu den Bereichen der Bioinformatik wie Datenbankdesign und Data Mining, Sequenzierung, Gen- und Proteinexpression, strukturelle Bioinformatik, phylogenetische Baumkonstruktion, biologische Netzwerke und deren praktische Anwendung. Darüber hinaus werden Werkzeuge der Bioinformatik beschrieben (Open-Source- und webbasierte Dienste in der Bioinformatik, Bildungsprogramme und Ausbildungsplattformen in der Bioinformatik). Das Kapitel analysiert den Weg eines Bioinformatikstudenten zum Unternehmertum im US-Kontext im Vergleich zum europäischen Kontext.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-22141-6_8 50facb9fc05ee103c7e1e41b72dafa50;de;;;6.1.;;;Kategorisierung von MDM-Funktionen Dieses Kapitel gibt einen Überblick über die wichtigsten Konzepte, Managementperspektiven, Sicherheitsbedenken und Hauptfunktionen, die berücksichtigt werden müssen, um ein Mobile Device Management Produkt einzuführen und eine klar definierte Mobilitätsstrategie in Organisationen zu verfolgen. Einige Konzepte beziehen sich auf Problembereiche und Vorteile des Mobile Device Managements, die in den folgenden Kapiteln behandelt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-15046-4_6 ed46b54bec8d8d96ef6744dbf289a214;de;;;6.1.;;;Eine mikroethnografische Studie zu Big Data-basierten Innovationen im Finanzdienstleistungssektor: Governance, Ethik und organisatorische Praktiken Unsere Studie betrachtet die Governance-, Ethik- und operativen Herausforderungen im Zusammenhang mit dem Erwerb, der Manipulation und der Kommerzialisierung von „Big Data“ im Finanzdienstleistungssektor. Soweit wir wissen, gibt es keine veröffentlichten Studien, die empirische Forschungen in Unternehmen dieser Branche beschreiben, um zu verstehen, wie diese auf solche Herausforderungen reagieren: Unsere feldbasierte Forschung ist in dieser Hinsicht ein wichtiger erster Beitrag. Wir beschreiben die Ergebnisse einer mikroethnografischen Studie, die in einem mittelständischen Unternehmen durchgeführt wurde, das disruptive, technologiebezogene Plattformen und Dienstleistungen im Banken- und Einzelhandelssektor auf der Grundlage von Big Data und zugehöriger Analytik entwickelt: Diese werden verwendet, um kommerziell abzuleiten wertvolle Erkenntnisse aus persönlichen Kundendaten im Austausch gegen Cashback und gezielte Prämien. Es wurde festgestellt, dass das Unternehmen einen mehrstufigen Innovations-Governance-Ansatz verfolgt, der von einer ethischen Strategie gestützt wird, die auf dem Prinzip des gegenseitigen Nutzens (unter den Interessengruppen) basiert. Opt-in und informierte Einwilligung zur Verwendung von Daten für bestimmte Zwecke wurden durch Grundsätze der Datenminimierung und Anonymisierung unterstützt, wobei sekundäre, anonymisierte und aggregierte Daten uneingeschränkt verwendet werden, um Erkenntnisse zu gewinnen. Governance, die kontextbezogene Datenschutzgesetze, Datennutzungsstandards der Zahlungskartenindustrie und interne Unternehmenskontrollen umfasste, präsentiert als maßgeschneiderte organisatorische Praktiken in Bezug auf Datensicherheit und Datenschutz. Diese bilden insgesamt den Governance- und Ethikrahmen für Big-Data-Innovationen im Unternehmen, innerhalb dessen es unter Bedingungen normativer und regulatorischer Unsicherheit sowohl anpassungsfähig als auch reaktionsfähig sein musste.;-;-;-;https://link.springer.com/article/10.1007/s10551-019-04203-x 541f35290a94222d1dd368f552c436d9;de;;;6.1.;;;Ein Framework für die Erkennung geklonter Fahrzeuge Ausufernde Straftaten mit geklonten Fahrzeugen haben dem Transportmanagement, der öffentlichen Sicherheit und sogar der Weltwirtschaft großen Schaden zugefügt. Es erfordert einen effizienten Erkennungsmechanismus, um die Fahrzeuge mit gefälschten Nummernschildern genau zu identifizieren und die Motive durch die Erkennung des Verhaltens geklonter Fahrzeuge weiter zu untersuchen. Die allgegenwärtigen Inspektionsstellen, die in der Stadt eingesetzt werden, sammeln Bewegungsinformationen von vorbeifahrenden Fahrzeugen, was eine neue Möglichkeit für die Erkennung geklonter Fahrzeuge eröffnet. Bestehende Erkennungsmethoden können das geklonte Fahrzeug nicht effektiv erkennen, da sie die feste Geschwindigkeitsschwelle verwenden. In diesem Papier schlagen wir ein zweiphasiges Framework namens CVDF vor, um geklonte Fahrzeuge zu erkennen und Verhaltensmuster von Fahrzeugen zu unterscheiden, die das gleiche Kennzeichen verwenden. In der Erkennungsphase werden geklonte Fahrzeuge basierend auf Geschwindigkeitsschwellen identifiziert, die aus einer historischen Trajektorie- und Verhaltensanomalieanalyse innerhalb der lokalen Nachbarschaft extrahiert wurden. Berücksichtigen Sie in der Verhaltensanalysephase, dass die Spuren von Fahrzeugen, die das gleiche Nummernschild verwenden, miteinander vermischt werden;-;-;-;https://link.springer.com/article/10.1007/s11704-019-9005-4 8900793a1efdc2289940ff8819bd4891;de;;;6.1.;;;Erleichterung der Evolution während des Designs und der Implementierung Das Volumen und die Komplexität der Daten, mit denen Unternehmen umgehen müssen, nehmen immer schneller zu. Um effektiv im Wettbewerb zu bestehen und ihre kommerzielle Nachhaltigkeit zu gewährleisten, wird es für sie immer wichtiger, eine robuste Rückverfolgbarkeit sowohl in ihren Daten als auch in den sich entwickelnden Designs ihrer Systeme zu erreichen. Dem begegnet die Software CRISTAL, die ursprünglich am CERN von UWE, Bristol, für einen der Teilchendetektoren am Large Hadron Collider entwickelt und anschließend in die kommerzielle Welt überführt wurde. Unternehmen konnten eine gesteigerte Agilität unter Beweis stellen, zusätzliche Einnahmen generieren und die Effizienz und Kosteneffizienz verbessern, mit denen sie Systeme in verschiedenen Bereichen entwickeln und implementieren, darunter Geschäftsprozessmanagement (BPM), Gesundheitswesen und Buchhaltungsanwendungen. Die Fähigkeit von CRISTAL, Daten und ihre semantische Provenienz im Terabyte-Bereich mit vollständiger Rückverfolgbarkeit über längere Zeiträume zusammen mit seinem beschreibungsorientierten Ansatz zu verwalten, bietet die flexible Anpassungsfähigkeit, die für eine zukunftssichere, sich dynamisch entwickelnde Software für diese Unternehmen erforderlich ist.;-;-;-;https://link.springer.com/article/10.1007/s13218-014-0324-1 55e134fac89b1215bb68323882075c2b;de;;;6.1.;;;Concurrent Engineering mechatronischer Produkte in virtuellen Unternehmen: Auswahl und Einsatz eines PLM-Systems für die Werkzeugmaschinenindustrie Die Entwicklung mechatronischer Produkte erfordert die Integration unterschiedlicher Fachdisziplinen durch räumlich getrennte Mitarbeiter, was insbesondere bei virtuellen Unternehmen deutlich wird. Das Concurrent Engineering dieser Produkte kann durch den Einsatz ausgefeilter Datenmanagement- und Visualisierungstools wie Product Lifecycle Management (PLM) erheblich verbessert werden. Der Hauptvorteil eines PLM-Systems ist seine Fähigkeit, die Koordination der Aktivitäten zwischen geografisch verteilten Teammitgliedern zu erleichtern. Dieses Papier beschreibt Modelle und Verfahren, die bei der Auswahl und Konfiguration einer PLM-Umgebung für die Konstruktion und Konstruktion von Werkzeugmaschinen in einem virtuellen Unternehmen entwickelt und implementiert wurden. Die Erfahrungen aus diesem Fall, insbesondere die Engpässe und deren Behebung, werden ausführlich diskutiert. Abschließend werden Empfehlungen für einen besseren Einsatz von PLM für ähnliche Bedingungen gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/11863649_39 14c90ac739fb66e971f81bebb5059910;de;;;6.1.;;;Servicebasierte verteilte Abfragen im Grid Service-basierte Ansätze (wie Web Services und die Open Grid Services Architecture) haben in letzter Zeit erhebliche Aufmerksamkeit für die Unterstützung der verteilten Anwendungsentwicklung in E-Business und E-Science gewonnen. Das Aufkommen einer serviceorientierten Sicht auf Hardware- und Softwareressourcen wirft die Frage auf, wie Datenbankmanagementsysteme und -technologien am besten eingesetzt oder für den Einsatz in einer solchen Umgebung angepasst werden können. In diesem Artikel wird ein Aspekt des servicebasierten Computings und des Datenmanagements untersucht, nämlich die Integration von Abfrageverarbeitungstechnologie in ein servicebasiertes Grid. Das Papier beschreibt detailliert das Design und die Implementierung eines servicebasierten verteilten Abfrageprozessors für das Grid. Der Abfrageprozessor ist in zwei orthogonalen Sinnen servicebasiert: Zum einen unterstützt er die Abfrage von Datenspeicher- und Analyseressourcen, die als Dienste zur Verfügung gestellt werden, und zum anderen berücksichtigt seine interne Architektur als Dienste die Funktionalitäten im Zusammenhang mit dem Aufbau verteilter Abfragen Pläne einerseits und deren Ausführung über das Grid andererseits. Das resultierende System bietet sowohl einen deklarativen Ansatz für die Service-Orchestrierung im Grid als auch demonstriert, wie die Abfrageverarbeitung vom dynamischen Zugriff auf Rechenressourcen im Grid profitieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24593-3_32 ed3b4a83592397e0b16f60a8ab8802fc;de;;;6.1.;;;Anwenden des Verschlüsselungsalgorithmus für die Datensicherheit in Cloud-Speicher Dieses Papier schlägt eine einfache, sichere und die Privatsphäre schützende Architektur für den Datenaustausch zwischen Clouds vor, die auf einem Verschlüsselungs-/Entschlüsselungsalgorithmus basiert, der darauf abzielt, die in der Cloud gespeicherten Daten vor unbefugtem Zugriff zu schützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-287-990-5_12 06393fdbfe26c60f60493a244a9ea9d4;de;;;6.1.;;;Geheimtext-Policy-attributbasierte Verschlüsselung mit versteckter Richtlinie mit Schlüsselwortsuche gegen Angriffe mit Schlüsselwortraten Die attributbasierte Verschlüsselung mit Schlüsselwortsuche (ABKS) ermöglicht es Datenbesitzern, anderen Benutzern ihre Suchfunktionen zu gewähren, indem sie eine Zugriffskontrollrichtlinie für die ausgelagerten verschlüsselten Daten durchsetzen. Bestehende ABKS-Systeme können jedoch die Vertraulichkeit der Zugangsstrukturen, die einige sensible private Informationen enthalten können, nicht garantieren. Darüber hinaus sind ABKS-Schemata aufgrund der Offenlegung der Zugriffsstrukturen anfällig für einen Offline-Angriff auf das Erraten von Schlüsselwörtern, wenn der Schlüsselwortraum eine polynomielle Größe hat. Um diese Probleme zu lösen, schlagen wir ein neuartiges Primitiv namens Hidden Policy Ciphertext-Policy attributbasierte Verschlüsselung mit Schlüsselwortsuche (HP-CPABKS) vor. Mit unserem Primitiven ist der Datenbenutzer nicht in der Lage, verschlüsselte Daten zu durchsuchen und Informationen über die Zugriffsstruktur zu erhalten, wenn seine/ihre Attributanmeldeinformationen nicht die vom Datenbesitzer festgelegte Zugriffskontrollrichtlinie erfüllen. Wir präsentieren eine rigorose selektive Sicherheitsanalyse des vorgeschlagenen HP-CPABKS-Schemas, die gleichzeitig die Ununterscheidbarkeit der Schlüsselwörter und der Zugriffsstrukturen beibehält. Schließlich verifiziert die Leistungsbewertung, dass unser vorgeschlagenes Schema effizient und praktikabel ist.;-;-;-;https://link.springer.com/article/10.1007/s11432-015-5449-9 881bb3bbfe4c41e50f7e4a036073de06;de;;;6.1.;;;Design der E-Commerce-Plattform für Informationen über landwirtschaftliche Produkte Mit der kontinuierlichen Entwicklung des Internet-E-Commerce im In- und Ausland entscheiden sich die Menschen dafür, ihre Lieblingswaren über die E-Commerce-Plattform einzukaufen. Dieses Papier für den Verkauf von landwirtschaftlichen Produkten, um eine E-Commerce-Plattform aufzubauen, können Händler Online-Handel mit landwirtschaftlichen Produkten sein, eine gute Lösung für die Benutzer- und Geschäftsanforderungen. Die Website der Verkaufsplattform für landwirtschaftliche Produktinformationen verwendet die ASP-Entwicklungstechnologie, der Hintergrund verwendet die Programmiersprache C, die Datenbank verwendet ACCESS zur Kompilierung und Speicherung gültiger Daten. Dieses Design beschreibt die wichtigsten Methoden und Schritte des Frontpage-Designs der E-Commerce-Plattform für landwirtschaftliche Produktinformationen und des Back-Office-Designs des Administrators, durch die Bedarfsanalyse und Machbarkeitsanalyse, durch das Gesamtdesign des Systems, um einen vollständigen Designplan für die Verkaufsplattform für landwirtschaftliche Produktinformationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-43309-3_46 9cb0ae09f4eba3edf19ddb3676758baa;de;;;6.1.;;;Anwendung und Strategie des Internets der Dinge (IOT) in der Hochschulbildungsinformation Das Internet der Dinge (IOT) spielt als brandneue strategische Industrie eine aktive Rolle bei der Entwicklung der Gesellschaft, und die Technologie des IOT hat einen tiefgreifenden Einfluss auf das moderne Bildungssystem. Dieses Papier stellt zunächst die Grundkonzepte der universitären Informationskonstruktion und der IOT-Technologie vor, analysiert den Anwendungsmodus der universitären Informationskonstruktion vor dem Hintergrund des IOT, untersucht sinnvolle Strategien und Schemata, um IOT schließlich auf die universitäre Bildungsinformation anzuwenden, die der Förderung förderlich ist den Entwicklungsprozess von IOT und IOT an Universitätscampus, um Referenzen für relevantes Personal bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1468-5_127 16cf74429c5df633cfd2e62c59b0b5e1;de;;;6.1.;;;Blockchain-basiertes datenschutzerhaltendes Benutzerauthentifizierungsprotokoll für verteilte mobile Cloud-Umgebungen Die Entwicklung von Cloud-Computing-Plattformen hat dazu geführt, dass viele alltägliche Dienstanwendungen in der Cloud gehostet werden. Um die Dienste verschiedener Cloud Service Provider (CSPs) nutzen zu können, muss sich der mobile Nutzer bei den CSPs registrieren. Der mobile Benutzer (MU) muss sich mehrere Identitäten und Anmeldeinformationen merken, um auf verschiedene CSPs zuzugreifen. In der Literatur wurden viele Single-Sign-On-Schemata vorgeschlagen, um Mehrfachregistrierungen durch mobile Benutzer für den Zugriff auf CSPs zu eliminieren. Die meisten dieser Schemata verlassen sich auf eine vertrauenswürdige dritte Partei, die als Registration Authority Center (RAC) bekannt ist, die eine zentralisierte Einheit ist, um die Identitätsinformationen aller bei ihr registrierten mobilen Benutzer zu verwalten. Der zentralisierte RAC hat zwei operative Probleme, d. h. der RAC hat die volle Kontrolle über die Daten, die er besitzt, was die Möglichkeit einer Datenverletzung und ein erhöhtes Risiko eines Single-Point-of-Failures zur Folge hat. In diesem Papier schlagen wir ein Blockchain-basiertes datenschutzwahrendes Benutzerauthentifizierungsprotokoll für eine verteilte mobile Cloud-Umgebung vor, das diese beiden traditionellen Probleme mit zentralisierten Registrierungszentren löst. Im vorgeschlagenen Protokoll wird die Registrierung von MU und CSP über ein öffentliches Blockchain-Netzwerk durchgeführt, damit MU auf CSPs zugreifen kann, und die Authentifizierung wurde zwischen MU und CSP über eine öffentliche Blockchain durchgeführt. Das öffentliche Blockchain-Netzwerk speichert Identitätsinformationen von MU und CSPs. Das öffentliche Blockchain-Netzwerk bietet Integrität der darin gespeicherten Daten und schützt das System vor Single-Point-of-Failure. Darüber hinaus wurden für das vorgeschlagene Protokoll auch Sicherheitsanalysen und Leistungsanalysen durchgeführt, die gezeigt haben, dass das vorgeschlagene Protokoll vor allen bekannten Angriffen mit besserer Leistungseffizienz sicher ist.;-;-;-;https://link.springer.com/article/10.1007/s12083-020-01065-3 1face0e3bc46c2366daf3828bdf4de4c;de;;;6.1.;;;Computersprachen im pharmazeutischen Design Merkmale von Computersprachen, die für das Arzneimitteldesign relevant sind, wie sie tatsächlich im öffentlichen Bereich verwendet (oder zumindest beschrieben) werden, werden überprüft. Idealerweise muss der aktuelle Molekulardesigner etwa acht verschiedene Sprachen beherrschen. Es gibt ein „Babel“ von Formularen, die in Verbindung verwendet werden, darunter Unix, C, C++, HTML, Java, VRML, SQL, PERL, Bearbeitungssprachen und spezifische CAD-Software-Befehls-/Steuerungssprachen. Es wird ein Single benötigt;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1120-3_19 3cc5edc8839af6483511e60832a23ad6;de;;;6.1.;;;Verbinden von Wissen mit Daten durch Transformationen in KnowID: Systembeschreibung Intelligente Informationssysteme setzen angewandte Ontologien oder logikbasierte konzeptionelle Datenmodelle für ein effektives und effizientes Datenmanagement und Entscheidungshilfen ein. Eine zentrale Überlegung beim Design solcher Systeme ist die Verknüpfung des Wissens mit den Daten. Wir haben kürzlich eine neuartige Knowledge-to-Data-Architektur (KnowID) entwickelt, die darauf abzielt, diesen kritischen Schritt durch eine Reihe von Transformationsregeln anstelle einer Mapping-Schicht zu lösen, die zwischen Modellen in EER-Notation und einem verbesserten relationalen Modell namens ARM operiert. Diese Systembeschreibung rückt das neuartige Werkzeug für die Kernkomponente der Transformation von der Künstlichen Intelligenz-orientierten Modellierung zum relationalen datenbankorientierten Datenmanagement näher. Es gibt einen Überblick über die Anforderungen, das Design und die Implementierung des modularen Transformationsmoduls, das eine einfache Erweiterung mit anderen Komponenten der modularen KnowID-Architektur ermöglicht.;-;-;-;https://link.springer.com/article/10.1007/s13218-020-00675-6 91ae9e76b7f0c3419b04dac4b1bab4ba;de;;;6.1.;;;Entwicklung der Verwendung relationaler und NoSQL-Datenbanken im ATLAS-Experiment Das ATLAS-Experiment nutzte viele Jahre lang eine große Datenbankinfrastruktur auf Basis von Oracle, um verschiedene Arten von Nicht-Ereignisdaten zu speichern: zeitabhängige Detektorkonfigurations- und Zustandsdaten, Kalibrierungen und Ausrichtungen, Konfigurationen von Grid-Standorten, Kataloge für Datenverwaltungstools, Job Datensätze für verteilte Workload-Management-Tools, Lauf- und Ereignismetadaten. Die rasante Entwicklung von „NoSQL“-Datenbanken (Structured Storage Services) in den letzten fünf Jahren ermöglichte eine erweiterte und komplementäre Nutzung traditioneller relationaler Datenbanken und neuer strukturierter Speichertools, um die Performance bestehender Anwendungen zu verbessern und deren Funktionalitäten mit den Möglichkeiten zu erweitern die modernen Speichersysteme bieten. Der Trend geht dahin, für jede Art von Daten das beste Tool zu verwenden, indem beispielsweise die intrinsisch relationalen Metadaten vom Payload-Speicher getrennt werden und Datensätze, die häufig aktualisiert werden und von Transaktionen aus archivierten Informationen profitieren. Der Zugriff auf alle Komponenten muss durch spezialisierte Dienste orchestriert werden, die auf Front-End-Rechnern laufen und den Benutzer von der Komplexität der Datenspeicherinfrastruktur abschirmen. Dieses Papier beschreibt diese technologische Entwicklung in der ATLAS-Datenbankinfrastruktur und präsentiert einige Beispiele für große Datenbankanwendungen, die davon profitieren.;-;-;-;https://link.springer.com/article/10.1134/S1547477116050083 2be2b17c2e86efa3f92681992c9661c7;de;;;6.1.;;;Konsolidieren von Daten aus unterschiedlichen Systemen für ein Analytics-Projekt Analytics entdeckt Muster in Daten, indem es Rohdaten in aussagekräftige Informationen umwandelt. Analytics impliziert die Möglichkeit, Erkenntnisse zu gewinnen, indem von Geschäftssystemen generierte Daten analysiert werden. Da jedes Unternehmen über mehrere Systeme verfügt, die jeden Geschäftsprozess unterstützen, ist es wichtig, dass Daten aus diesen verschiedenen Systemen zusammengeführt werden, bevor mit der Datenanalyse begonnen wird. Dies ist entscheidend für eine ganzheitliche Sicht auf Geschäftsprozesse und die daraus generierten Daten. In diesem Kapitel wird die Bedeutung des Zusammenführens von Daten sowie die damit verbundenen Herausforderungen und Lösungen erläutert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-1383-4_3 1d131921160d2e354b3fa1f9478b8d32;de;;;6.1.;;;Studie zur oralen Einzeldosis-Toxizität bei der Maus von DHU001, einer polyherbalen Formel Diese Studie wurde durchgeführt, um akute Informationen über die orale Dosistoxizität von DHU001, einer polyherbalen Formel, bei männlichen und weiblichen Mäusen zu erhalten. Um die tödliche Dosis von 50% (LD;-;-;-;https://link.springer.com/article/10.5487/TR.2010.26.1.053 24bf3b2a361895e8edcc157e690ddb3a;de;;;6.1.;;;Datenverwaltung in einer komplexen Systemumgebung Dieses Papier wurde als Ergebnis eines Forschungsprojekts erstellt, das von der Butler Cox Foundation finanziert wurde. Die Butler Cox Foundation ist ein exklusiver Service für Manager, die für Computer, Kommunikation und Bürosysteme verantwortlich sind. Es hilft ihnen, über wichtige Entwicklungen in der Technologie auf dem Laufenden zu bleiben und die damit verbundenen Auswirkungen auf technische und allgemeine Manager zu erkennen.;-;-;-;https://link.springer.com/article/10.1057/jit.1989.6 4eefbdf8289cf2e6354c5e61b845fea6;de;;;6.1.;;;Überwachung des strukturellen Infrastrukturzustands Dieses Kapitel bietet einen Überblick über ein Cyber ​​Physical System (CPS) für die Überwachung der zivilen Infrastruktur. Konkret wird ein prototypischer Entwurf und eine Implementierung eines Cyber-Infrastruktur-Frameworks für die Überwachung von Brücken entlang eines Autobahnkorridors beschrieben. Das Cyber-Infrastruktur-Framework umfasst zwei grundlegende Komponenten, nämlich eine Sensor- und Überwachungskomponente und eine Cloud-basierte Rechenplattform. Die Sensor- und Überwachungskomponenten umfassen ein Netzwerk von Sensoren und Kameras, die entlang des Autobahnkorridors instrumentiert sind, um Fahrzeugbelastungen und Brückenreaktionen zu erfassen. Die Rechenaufgaben umfassen Informationsmodellierung, Datenbankverwaltung und Webdienste zur Unterstützung von SHM-Anwendungen. Ausgewählte Beispiele werden vorgestellt, um den Einsatz des CPS zur Bewertung des grundlegenden Verhaltens von Brückenbauwerken zu veranschaulichen. Darüber hinaus bietet das CPS eine Plattform, die die Erforschung und Entwicklung neuer und innovativer datengetriebener Ansätze für SHM ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-41560-0_12 f2512dd8283c02e10144bb5a9e9e6643;de;;;6.1.;;;DIPSBC - Datenintegrationsplattform für systembiologische Kooperationen Moderne biomedizinische Forschung wird oft in Kooperationen mit Laboren weltweit organisiert. Insbesondere in der Systembiologie werden komplexe molekulare Systeme analysiert, deren Erklärung die Generierung und Interpretation heterogener Daten erfordert, beispielsweise von Genexpressionsstudien und massenspektrometrischen Messungen bis hin zu experimentellen Techniken zum Nachweis molekularer Wechselwirkungen und funktionellen Assays. XML hat sich zum bekanntesten Format für die Darstellung und den Austausch dieser Daten entwickelt. Neben der Entwicklung von Standards fehlt es jedoch grundsätzlich an Datenintegrationssystemen, die diese Austauschformate nutzen, die Daten integrativ organisieren und mit Anwendungen zur Dateninterpretation und -analyse verknüpfen.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-13-85 6f7630e7258967ac5589dc00c65c691a;de;;;6.1.;;;Ein generischer Ansatz zum Entwerfen und Abfragen von Mehrzweck-Datenbanken für menschliche Bewegungen Die Weiterentwicklung von Bewegungsaufzeichnungs-, Analyse- und Synthesetechniken sowie die Standardisierung entsprechender Datenformate bilden eine solide Grundlage für die Forschung auf Basis von Bewegungsdatensätzen im Kontext verschiedener Disziplinen. Die meisten verfügbaren Bewegungsdatensätze bieten jedoch Gruppen von Dateien, wie sie von den Bewegungserfassungssystemen erfasst wurden. Das Problem bei solchen Daten besteht darin, dass sie in der Regel einen einzigen Standpunkt darstellen, ihr Kontext variiert und mehr oder weniger implizit ist und das Fehlen von Funktionalitäten, die zusätzlich zu solchen Datensätzen implementiert werden, die Datenanalyse und das Suchpotenzial einschränkt. Dies ermutigt uns, diese Problemdomäne aus der Sicht des Stands der Technik von Datenbankmanagementsystemen (DBMS) zu betrachten. In diesem Papier skizzieren wir einige wichtige Aspekte der Anwendung eines DBMS auf Bewegungsdaten mit dem Ziel, eine hochgradig universelle, erweiterbare, gemeinsam nutzbare und durchsuchbare Ressource bereitzustellen. Um nicht auf einen bestimmten Anwendungsbereich festgelegt zu sein, nehmen wir eine sehr abstrakte Sicht auf die Daten ein und versuchen, eine Vielseitigkeit und Generizität des resultierenden Systems sicherzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15910-7_12 ac03bc2c5ed4baa62f89952d6bbfd430;de;;;6.1.;;;Identifizieren Sie attraktive Innovationsmöglichkeiten Innovationsmöglichkeiten entstehen nicht wie von Zauberhand aus heiterem Himmel, sei es in F&E-Labors oder Brainstorming-Sitzungen. Sie entstehen, wenn Organisationen aus mehreren internen und externen Quellen „lernen“, ihr Wissen und ihr intellektuelles Kapital durch „Denken in neuen Kisten“, das Mischen, Reifen und Kombinieren verschiedener Einsichten und Inspirationen erweitern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-77191-5_4 c1fbc32c8239871cf6a56f830ccccd6b;de;;;6.1.;;;Vom Silo- zum orchestrierten Marketing Bisher habe ich die Beobachtungsgabe und die Fähigkeit zur Zusammenarbeit mit Kunden erforscht. Aber wie setzen wir all dies in eine gestochen scharfe Fokussierung auf eine bestimmte Kundengruppe um? Der Vermarkter hat nun die Möglichkeit, diese Macht zu nutzen, um den Kunden zu einer positiven Entscheidung über ein Produkt zu bringen, sei es ein Erstkauf, ein Wiederholungskauf oder ein Tweet an Freunde, der die Vorzüge des kürzlich gekauften Produkts hervorhebt. Diese Entscheidungen fallen im Laufe der Zeit und erfordern eine Reihe von Kooperationen. Ohne einen richtigen Dirigenten können die zur Beeinflussung des Kunden engagierten Musiker bestenfalls musikalischen Lärm erzeugen. Wie orchestrieren wir diese leistungsstarken Tools für die Zusammenarbeit? In diesem Kapitel wird erläutert, wie Marketingbemühungen über die Silos hinweg gebündelt werden können, um einen Kunden in den Marketingphasen zu beeinflussen. Wie würden Marketer die Bemühungen zur Reduzierung der Kosten und des Ärgernisses koordinieren und die Kraft der Zusammenarbeit nutzen, um die Beziehung zu ihren Kunden zu verbessern?;-;-;-;https://link.springer.com/chapter/10.1057/9781137386199_5 be2e0db03c279413f746b4cd6e5c30a3;de;;;6.1.;;;Forschungsmethoden in der Aufzeichnung mündlicher Überlieferung: Die Wahl zwischen dem Verschwinden des Digitalen oder dem Altern des Analogen In diesem Kapitel werden Methoden vorgestellt, um geeignete Forschungsdaten zu erstellen, damit diese in Zukunft archiviert und wiederverwendet werden können, wobei der Schwerpunkt auf der linguistischen Feldforschung liegt, jedoch mit Prinzipien, die für eine Reihe von geisteswissenschaftlichen Disziplinen gelten. Unsere Forschungsgruppe in Australien hat ein Projekt eingerichtet, um Aufzeichnungen in den kleinen Sprachen der Welt zu bewahren, dies ist das Pacific and Regional Archive for Digital Sources in Endangered Cultures (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-96713-4_13 858c0d73806a9d8da23d177dc1e4a831;de;;;6.1.;;;Interaktionsdesignforschung basierend auf Big Data Rule Mining und Blockchain-Kommunikationstechnologie Da die Informationsmenge im Internet der Dinge zunimmt, neigt die Datenspeicherverwaltung dazu, verteilt zu werden, was zu Problemen wie schwieriger Datenkooperation und -interaktion zwischen Standorten, geringer Kommunikationseffizienz und geringer Zuverlässigkeit führt. Blockchain ist eine der neuen Informationstechnologien, die die Entwicklung von Management-Informationssystemen unterstützen. Es bietet eine Lösung für die Speicherung, Überprüfung, Übertragung und den Austausch von verteilten Daten. Um die Kommunikationsleistung aus zwei Aspekten der Kommunikationstopologie und des Kommunikationsmechanismus zu optimieren, wurde ein Baummodell mit mehreren Verbindungen und gleichzeitiger Kommunikation konstruiert. Um die Blockchain-Kommunikationstechnologie zu verbessern, wurde eine interaktive Designmethode basierend auf Big Data Rule Mining und Blockchain-Kommunikationstechnologie vorgeschlagen, die hauptsächlich die Optimierung der Übertragungsleistung von Blockchain-Daten löste. Ausgehend von der Gewährleistung der Stabilität und Zuverlässigkeit der Datenübertragung wurde die Effizienz der Datenübertragung in der Blockchain weiter optimiert und der integrierte Factor Communication Tree Algorithmus (IFT) vorgeschlagen. Um den Einfluss der Übertragungsverzögerung zwischen Knoten auf die Kommunikationsleistung zu lösen, wurde ein Multi-Link-Multifaktor-gewichteter Kommunikationsbaumalgorithmus (MMWT) unter Berücksichtigung der Gewichtung vorgeschlagen. Um die Effizienz der Datenkommunikation zu verbessern, die Zuverlässigkeit der Übertragung zu gewährleisten und die Fairness des Dienstes in der Blockchain zu verbessern, wurden außerdem verschiedene Strategien zur Optimierung der Leistung der Datenkommunikation in der Blockchain unter den Bedingungen von Faktoren wie der Kommunikationsfähigkeit des Knotens vorgeschlagen , Knotenvertrauen, Gewichtung und Dienstanforderungspriorität. Schließlich zeigten die Simulationsergebnisse, dass der MMWT-Algorithmus eine gute Kommunikationsleistung bei gleichzeitiger Kommunikationszeit, Kommunikationsbaumzuverlässigkeit, Kommunikationsbaumtiefe und anderen Aspekten aufwies.;-;-;-;https://link.springer.com/article/10.1007/s00500-020-04962-0 0a9c7e78237f24041eac170787c12371;de;;;6.1.;;;Datenschutz bei der Veröffentlichung von Daten In der modernen digitalen Gesellschaft können persönliche Informationen über Einzelpersonen leicht gesammelt, geteilt und verbreitet werden. Diese Datensammlungen enthalten oft sensible Informationen, die nicht in Verbindung mit der Identität der Befragten veröffentlicht werden sollten. Das Entfernen expliziter Identifikatoren vor der Datenfreigabe bietet keine Garantie für die Anonymität, da anonymisierte Datensätze normalerweise Informationen enthalten, die zur Verknüpfung der freigegebenen Daten mit öffentlich zugänglichen Sammlungen verwendet werden können, die die Identität der Befragten enthalten. Um diese Probleme zu überwinden, wurden neue Vorschläge entwickelt, um den Datenschutz bei der Datenfreigabe zu gewährleisten. In diesem Kapitel analysieren wir das Offenlegungsrisiko durch öffentliche oder halböffentliche Mikrodatenfreigaben und veranschaulichen die wichtigsten Ansätze zum Schutz vor unbeabsichtigter Offenlegung. Wir schließen mit einer Diskussion über einige offene Fragen, die weiter untersucht werden müssen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19348-4_2 1b7147899b9e6f18709a943bf05e1a5b;de;;;6.1.;;;Zum Verständnis der wirtschaftlichen und elastischen Herausforderungen bei der Bereitstellung von Geschäftsanwendungen in einer öffentlichen Cloud-Infrastruktur Die Exposition von Geschäftsanwendungen im Internet hat die Variabilität ihrer Arbeitslastmuster und -volumina erheblich erhöht, da die Anzahl der Benutzer/Kunden oft in unterschiedlichen Geschwindigkeiten und Zeiten wächst und schrumpft. Solche Anwendungsmerkmale haben zunehmend den Bedarf an einer flexiblen und dennoch kostengünstigen Computerinfrastruktur gefordert, um variable Arbeitslasten zu bewältigen. Das On-Demand- und Per-Use-Cloud-Computing-Modell, insbesondere das von Public Cloud Infrastructure Service Offerings (CISOs), hat sich schnell weiterentwickelt und von den meisten Hardware- und Software-Computing-Unternehmen übernommen, mit dem Versprechen, nutzerähnliche Computerressourcen zu enormen Einsparungen bereitzustellen von Maßstab. Die Bereitstellung von Geschäftsanwendungen in einer öffentlichen Cloud-Infrastruktur führt jedoch nicht zu den gewünschten wirtschaftlichen und Elastizitätsgewinnen, und einige Herausforderungen blockieren den Weg zur Realisierung der tatsächlichen Vorteile. Diese Herausforderungen sind auf mehrere Unterschiede zwischen CISOs und den Anforderungen und Eigenschaften der Anwendung zurückzuführen. Dieser Artikel führt eine detaillierte Analyse und Diskussion der wirtschaftlichen und elastischen Herausforderungen von Geschäftsanwendungen ein, die in einer öffentlichen Cloud-Infrastruktur bereitgestellt und betrieben werden sollen. Dazu gehören die Analyse verschiedener Aspekte öffentlicher CISOs, die Modellierung und Messung der Wirtschaftlichkeit und Elastizität von CISOs, Anwendungsworkloadmustern und deren Auswirkungen auf das Erreichen von Elastizität und Wirtschaftlichkeit, wirtschaftsbasierte Entscheidungen und Richtlinien zur Elastizität sowie SLA-gesteuerte Überwachung und Elastizität von Cloud-basierten Geschäftsanwendungen. Die Analyse und Diskussion werden durch motivierende Szenarien für Cloud-basierte Geschäftsanwendungen unterstützt. Das Papier bietet einen mehrdimensionalen Überblick, der Cloud-Nutzern und potenziellen Besitzern von Geschäftsanwendungen dabei helfen kann, wichtige wirtschaftliche und Elastizitätsfunktionen verschiedener CISOs und ihre Eignung zur Erfüllung der Anforderungen ihrer Geschäftsanwendung zu verstehen, zu analysieren und zu bewerten.;-;-;-;https://link.springer.com/article/10.1007/s13174-011-0050-y c801006b7e70dc2142057cfee6e960b1;de;;;6.1.;;;Bereitstellung digitaler Geodaten für Ingenieurgeologen Bis vor kurzem lagen die meisten räumlichen geologischen Informationen in analoger Form (hauptsächlich in Papierform) vor, was ihre Speicherung teuer und aufgrund ihrer zunehmenden Fragilität oft schwierig zu verwenden war. Mit den rasanten Fortschritten in der Informationstechnologie in den letzten 20 Jahren ist es jedoch nicht nur relativ einfach geworden, historische Informationen zu digitalisieren oder digital zu scannen, sondern zunehmend produzieren Datenlieferanten selbst die Rohdaten in digitaler Form. Dies bringt eine Vielzahl neuer Probleme für die Beschaffung, Verwaltung und Verbreitung der Informationen mit sich. Zu diesen Themen gehören die Datenerhebung (was, wo, wie und von wem), Datenmanagement und -sicherheit (Metadaten, Validierung, Backup, Zugriff), Datenzugriff (wie, wo und zu welchem ​​Preis) und die Bereitstellung von Mehrwertprodukten basierend auf die auf die Bedürfnisse bestimmter Nutzer zugeschnittenen Daten. Für Ingenieurgeologen steht die historische Erfassung geologischer Daten in unterschiedlicher Form kurz davor, eine ganze Reihe neuer Produkte zu liefern, die die Art und Weise der Standorterkundung verändern sollen.;-;-;-;https://link.springer.com/article/10.1007/s10064-005-0034-x 10f48e085fd8c22c3cdf8aa94e8b8144;de;;;6.1.;;;Potenzielle Bewertungsindikatoren für Cyberversicherungen: Eine explorative qualitative Studie In diesem Beitrag präsentieren wir die Ergebnisse einer explorativen qualitativen Studie mit Experten. Ziel der Studie war es, potenzielle Ratingvariablen zu identifizieren, anhand derer eine Prämie für Cyberinsurance-Deckungen berechnet werden kann. Dazu haben wir teilstrukturierte qualitative Interviews mit einer Stichprobe von 36 Experten aus der DACH-Region durchgeführt. Die gesammelten Aussagen wurden konsolidiert und weiter auf eine Untergruppe von Indikatoren reduziert, die verfügbar und schwer zu manipulieren sind. Das reduzierte Indikatorenset wurde den 36 Experten noch einmal vorgelegt, um sie nach ihrer relativen Bedeutung zu ordnen. In diesem Beitrag beschreiben wir die Ergebnisse dieser explorativen qualitativen Studie und diskutieren abschließend die Implikationen unserer Ergebnisse für Forschung und Praxis.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-6967-5_13 381def5c08989e7715e487ddb7800dbe;de;;;6.1.;;;Entwicklung von Qualitätsmanagementkapazitäten in gemeinnützigen Kinderbetreuungseinrichtungen Qualitäts- oder Leistungsmanagementfunktionen ermöglichen es den Behörden, effektive Praktiken in der Routineversorgung zu identifizieren, neue Praktiken zu implementieren und zu lernen, Praktiken an sich ändernde Kontexte anzupassen. Innerhalb der Kinderbetreuungssysteme gibt es kein vorherrschendes Modell von Qualitätsmanagementfähigkeiten und deren Einsatz. Die Fähigkeiten des Qualitätsmanagements und ihre Entwicklung wurden in neun verschiedenen Kinderbetreuungseinrichtungen untersucht. Die Befragten der Agentur beschrieben vier neue Kernfunktionen des Qualitätsmanagements: gemeinsame Ziele generieren, Informationen verwalten, Problemlösungen routinieren und eine Qualitätskultur verbreiten. Keine der neun von uns untersuchten Agenturen ragte bei allen vier heraus. Jede Fähigkeit wird beschrieben und Implikationen für Forschung, Politik und Praxis werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s10488-019-00971-w 402ee361f11f8c820e793b6c5d4036d1;de;;;6.1.;;;Der Einfluss der Cloud-Infrastruktur auf den Geschäftswert: Eine qualitative Analyse Die Interpretation von Organisationen als dynamische Einheiten stellt die Manager von heute vor einige grundlegende Herausforderungen. Unternehmen haben keinen Wert allein durch die Verknüpfung der IT mit ihren Geschäftsprozessen gewonnen: Sie haben gelernt, wie sie von der IT profitieren können, indem sie eine Kompetenz zur Erstellung und Weiterentwicklung einer IT-Architektur entwickelt haben, die in der Lage ist, die strategischen Ziele des Unternehmens zu identifizieren und umzusetzen. Cloud Computing stellt eine mögliche Antwort auf das Flexibilitätsbedürfnis von Unternehmen dar und gibt ihnen die Chance, neue Services schneller als bisher und ohne teure Investitionen zu implementieren. Ziel dieser Arbeit ist es, den Einfluss der Cloud (kurz, der Begriff „Cloud“ wird fortan als „Cloud Computing“ verwendet) auf die Wertschöpfungschancen von Unternehmen zu analysieren, die sich für eine Migration ihrer IT-Infrastruktur in Richtung;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49538-5_6 d388fb7ca9ada7baea925d6a730e387a;de;;;6.1.;;;Design eines Informationsmanagementsystems zur Überwachung von Ölquellen basierend auf IOT-Technologie Die Methoden des Informationsmanagements der Ölproduktionsanlage der traditionellen Art sind rückständig. Alle Abteilungen sind im Stand-Alone-Modus, ohne eine einheitliche Informationsnetzwerkplattform, wodurch große Mengen an Informationsinseln entstehen. Dieses rückständige Arbeitsmodell hat die Entwicklung von Ölförderanlagen ernsthaft behindert. Dieses Dokument verwendet einen Mehrphasen-Strömungsmonitor vom Typ LC-40DR-A als Ferndatenerfassungsterminal und konzentriert sich auf drei Aspekte der Datenerfassung, Datenverwaltung und Datenanwendung, um die Ferndatenerfassung und das Steuerungssystem zu verbessern. Die Realisierung der fünf Hauptfunktionen – Echtzeitüberwachung, automatischer Alarm, Benutzerverwaltung, Berichtsverwaltung und Geräteverwaltung – kann nicht nur die Messgenauigkeit verbessern, sondern auch das tägliche Produktionsmanagement in Ölförderanlagen stark unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0072-0_78 bc9b7fbd2ac068da8662753497be6b32;de;;;6.1.;;;Teilen von Wearable-Gesundheitsdaten mithilfe benutzerdefinierter Blockchain-Richtlinien Mit den jüngsten Fortschritten in der Wearable-Technologie und der raschen Akzeptanz von Wearables ergeben sich zunehmend Möglichkeiten für den Aufbau innovativer Datenmärkte, über die Gesundheitsforschern große Mengen an nutzergenerierten physiologischen Daten zu relativ geringen Kosten zur Verfügung gestellt werden können. Angesichts des sensiblen Charakters solcher Daten besteht jedoch eine große Herausforderung bei der Realisierung eines vertrauenswürdigen Marktplatzes für tragbare Daten darin, eine feinkörnige Zugriffskontrolle sicherzustellen und deren Konformität zu gewährleisten. In diesem Papier schlagen wir einen politikbasierten Ansatz vor, um den sicheren Datenaustausch zwischen einem Wearable-Besitzer und einem Gesundheitsforscher zu erleichtern. Benutzerdefinierte Datenfreigaberichtlinien werden in ausführbare Smart Contracts übersetzt, die eine deterministische und transparente Ausführung von Transaktionen gemäß den Bedingungen der Datenfreigabevereinbarung ermöglichen. Um die Machbarkeit des Ansatzes zu veranschaulichen, präsentieren wir eine Proof-of-Concept-Implementierung des vorgeschlagenen richtlinienbasierten Zugangskontrollmechanismus unter Verwendung der Open-Source-Multichain-Plattform.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-76066-3_5 b8a57b8cc5ab2c4c5d9c478d7c5f09bc;de;;;6.1.;;;Salesforce-Datenarchitektur Die Menge an Daten, die wir täglich verbrauchen, ist überwältigend. Laut Jeff Desjardins, Gründer und Herausgeber von Visual Capitalist, gibt es weltweit geschätzte 44 Zettabyte an Daten. Ein Zettabyte ist 1.000 hoch 7 oder 1 mit 21 Nullen. Glücklicherweise müssen die meisten Architekten keine so großen Daten verwalten, aber die Größe der von uns verwalteten Daten ist immer noch atemberaubend.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-6631-1_4 447e6a48f32fb539caa460bc916bf109;de;;;6.1.;;;Publish/Subscribe-System basierend auf Ereignisberechnung zur Unterstützung der Echtzeit-Evakuierungssimulation für mehrere Agenten Katastrophen großen Ausmaßes erfordern oft die Evakuierung betroffener Regionen, um Leben zu retten. Katastrophenschutzbehörden benötigen Evakuierungssimulationstools, um die Effizienz verschiedener Evakuierungsszenarien und die Auswirkungen verschiedener Umwelt- und Sozialfaktoren auf den Evakuierungsprozess zu bewerten. Daher sollten fundierte Simulationsmodelle die relevanten Einflussfaktoren auf den Evakuierungsprozess einbeziehen. Um in kritischen Situationen zuverlässig zu sein, müssen Evakuierungssimulationen insbesondere Informationen über zeitveränderliche Phänomene integrieren, die den Evakuierungsprozess beeinflussen können, wie beispielsweise die Auswirkungen von Wetterbedingungen, Straßenunfällen oder anderen relevanten Ereignissen. Sensornetzwerke stellen eine effiziente Lösung dar, um Daten zu solchen Ereignissen zu sammeln und die Evakuierungssimulation einzuspeisen. Die Kopplung von Sensoren mit Multi-Agenten-Simulationswerkzeugen ist jedoch nicht einfach. In diesem Kapitel stellen wir ein auf Event Calculus basierendes Publish/Subscribe-System vor, das Echtzeit-Evakuierungssimulationen mit mehreren Agenten unterstützt. Das System identifiziert relevante Ereignisse aus Sensordaten, die über einen Sensor Event Service gesammelt wurden, der die OGC SWE-Standards und die Event Pattern Markup Language (EML) implementiert. Dann fungiert das Publish/Subscribe-System als Middleware zwischen den Sensordatenherausgebern und der Evakuierungssimulation mit mehreren Agenten durch einen Sensorverarbeitungsdienst basierend auf Ereignisberechnung, der die Auswirkungen von Ereignissen auf die Eigenschaften des Straßennetzes ableitet. Das Ergebnis ist eine Evakuierungssimulation, mit der verschiedene Evakuierungsszenarien in Echtzeit während der Krisenreaktion bewertet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-00615-4_19 42e3263cce8089e3c307f4e200ad6d0e;de;;;6.1.;;;Podiumsdiskussion: Was sind die wichtigsten Herausforderungen bei verteilter Sicherheit? Die Hauptmotivation für die Organisation einer Podiumssitzung auf der DBSEC’08 bestand darin, eine Reihe renommierter Forscher im Bereich Datensicherheit einzuladen, ihre Gedanken zu präsentieren und eine Konferenzdiskussion zu einer wichtigen Frage anzuregen: Was sind die wichtigsten zukünftigen Herausforderungen der verteilten Datensicherheit? Die Gedanken der Panelisten zu diesem Thema sind in diesem Artikel zusammengefasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-70567-3_17 9e34da5d2d65e4fd17702a65fb10e541;de;;;6.1.;;;Verwendung von komponentenbasierter Entwicklung und Webtechnologien zur Unterstützung eines verteilten Datenmanagementsystems In den letzten Jahren wurden „internetfähige“ Anwendungen verwendet, um Domänen zu unterstützen, in denen verteilte Funktionalität unerlässlich ist. Diese Flexibilität ist auch in Situationen relevant, in denen Daten gesammelt und abgeleitet werden, um eine verteilte Gruppe von Interessengruppen zu unterstützen. In diesem Szenario der verteilten Datenverwaltung gibt es große Probleme. Ein Problem ist die Änderung, die in solchen Domänen auftritt. Sowohl das Schema der Daten als auch die individuellen Bedürfnisse der Stakeholder entwickeln sich im Laufe der Zeit. Jede Architektur, die diese verteilte Datenverwaltungsdomäne unterstützt, muss so ausgelegt sein, dass sie diese spezifischen Änderungen unterstützt. Ein solcher Ansatz für diese Architektur ist die Verwendung von „plug-fähigen“ webbasierten Komponenten. Wenn neue Rechenanforderungen entstehen, können neue Komponenten in die Architektur eingefügt werden. Ein weiterer Aspekt dieser Lösungsarchitektur ist ein zur Laufzeit evolvierbarer Prozess, um die Änderung der Datenschemata zu unterstützen. Bei der MITRE Corporation wurde diese Architektur entworfen, bereitgestellt und getestet, um den internen Bedarf an einem zusammengesetzten Daten-Repository zu unterstützen. Dieses Papier stellt die Motivation und Architektur dieses verteilten Datenmanagementsystems vor, das das Center for Advanced Aviation System Development (CAASD) unterstützt. Diese komponentenbasierte, zur Laufzeit konfigurierbare Architektur wird mit webbasierten Technologien wie der Extensible Markup Language (XML), Java Servlets und einem relationalen Datenbankmanagementsystem (RDBMS) implementiert.;-;-;-;https://link.springer.com/article/10.1023/A%3A1016537224754 8dd63d89f23912fccdae30a3f6a93162;de;;;6.1.;;;Design des DRM Middleware Player Systems in IPTV basierend auf JSE In diesem Artikel wird ein Design eines DRM-Middleware-Playersystems in IPTV basierend auf JSE vorgestellt. Dieses Design zielt auf die Frage der schlechten Kompatibilität und unfreundlichen UI-Schnittstelle in DRM ab und präsentiert die Middleware-Schnittstellenmethode für IPTV DRM mit JSE. Diese Methode ist perfekt erweiterbar, kann auf verschiedenen Plattformen ausgeführt und in verschiedenen DRM-Agententerminals basierend auf der B/S-Architektur verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24022-5_5 72b65f1df0ab7be50c43656af1afed6c;de;;;6.1.;;;Kleinsatelliten, Sicherheitsherausforderungen und Reformen im Zusammenhang mit strategischen Weltraumverteidigungssystemen Die Frage, wie die zunehmende Überlastung im Orbit bewältigt und bewältigt werden kann, um einen sicheren Weltraumbetrieb aufrechtzuerhalten, ist nun in den Vordergrund gerückt. Dies ist in den USA der Fall, wo Politik und Industrie an der Überarbeitung der geltenden Weltraumgesetze beteiligt sind, sowie in internationalen Foren, in denen normative Diskussionen vorherrschen.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-030-36308-6_49 b5bde27e63f6b3c5d0c94107f494dbf3;de;;;6.1.;;;Anwendungsanalyse der Informationstechnologie im Kostenmanagement der Elektroenergietechnik Computertechnologie, Informationstechnologie und verschiedene Industrien entwickeln sich immer enger zusammen, was für Elektrizitätsunternehmen keine Ausnahme ist. Kostenmanagement-Mitarbeiter, verwenden fortschrittliche Informationstechnologie, verfügen über ein perfektes Managementsystem und stärken das Kostenmanagement der Elektrotechnik in China. Dieser Beitrag befasst sich hauptsächlich mit der aktuellen Situation und bestehenden Problemen der Informationstechnologie im Kostenmanagement der Energietechnik und macht Lösungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-70042-3_63 c94b41aec7d87603d66c878be5a428ad;de;;;6.1.;;;Mit Active XML das Netzwerk in eine Datenbank verwandeln Aufgrund der Informationsallgegenwart ist ein wichtiger Trend zur Verlagerung von Aufgaben des Informationsmanagements von Datenbanksystemen auf Netzwerke zu beobachten. Wir führen den Begriff des Datenrings ein, der als Netzwerkversion einer Datenbank oder eines Content Warehouse betrachtet werden kann. Ein Hauptziel besteht darin, eine bessere Leistung für das Content-Management zu erreichen, ohne dass eine explizite Kontrolle über die Informationsressourcen erforderlich ist. In diesem Papier diskutieren wir die Hauptmerkmale von Datenringen und argumentieren, dass Active XML eine geeignete Grundlage für solche Systeme bietet.;-;-;-;https://link.springer.com/chapter/10.1007/11785477_14 fc38df93e280f1ece19a4b77f527d191;de;;;6.1.;;;Simulation im Webdatenmanagement Die enorme Zunahme der Zahl der über das Web verbreiteten Dokumente erhöht den Bedarf an verbesserten Web-Datenverwaltungssystemen. Um die Leistungsfähigkeit dieser Systeme zu bewerten, müssen verschiedene Simulationsansätze verwendet werden. In diesem Papier untersuchen wir die wichtigsten Simulationsmodelle, die für das Web-Datenmanagement eingesetzt wurden. Konkret untersuchen wir die neuesten Simulationsansätze zur Web-Datendarstellung und -speicherung (in Bezug auf Caching) sowie zur Web-Daten-Trace-Auswertung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-9218-5_8 9555a1185134ef707020f7d6425b5532;de;;;6.1.;;;Data Fusion Protocols für Cloud-Infrastrukturen In diesem Beitrag wird eine neue Klasse von Sicherheitsprotokollen für Cloud-Infrastrukturen vorgestellt. Die Fusionstechnologie in verschiedenen Arten von Daten und Managementprozessen wird beschrieben. Insbesondere werden Auswirkungen von Beschreibungs-, Interpretations- und Analyseprozessen sowie Sicherungsprozessen dargestellt. Sicherheitsprozesse, die auf Fusionsmethodik basieren, beinhalten auch Datenaustauschtechnologien. Datenfusionsprotokolle können in unterschiedlichen Infrastrukturen eingesetzt werden, daher werden die Auswirkungen dieser Prozesse analysiert und dargestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-61108-8_19 39f70cb19bc25aa56b1abfec45da747c;de;;;6.1.;;;Datenmanagement-Tools für wissenschaftliche Anwendungen: Framework, Status und genomische Anwendungen Datenmanagementsysteme für wissenschaftliche (z. B. genomische) Anwendungen bieten Wissenschaftlern die Möglichkeit, Daten zu pflegen, zu manipulieren und zu analysieren. Diese Systeme verwenden normalerweise Fähigkeiten, die von Datenbankverwaltungssystemen (DBMSs) zum Speichern, Zugreifen und Manipulieren von Daten bereitgestellt werden, und benötigen häufig Einrichtungen zum Handhaben anwendungsspezifischer Konstrukte und Operationen, die von DBMSs nicht unterstützt werden. Die Diskrepanz zwischen den Konstrukten und Operationen der Anwendung und des DBMS ist die Hauptursache für die Schwierigkeit, Datenmanagementsysteme für wissenschaftliche Anwendungen zu entwickeln und zu warten sowie diese Systeme an strukturelle Veränderungen anzupassen, die durch die Evolution der zugrunde liegenden Anwendungen verursacht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-2451-9_3 b999050025df0c0496b4d21bc53b8a0d;de;;;6.1.;;;Leichte Verschlüsselungsalgorithmen, Technologien und Architekturen im Internet der Dinge: Eine Umfrage A Das Internet der Dinge ist ein schnell wachsendes Industriegebiet, da viele IoT-Anwendungen auf dem Markt eingeführt werden. Seine Popularität wächst auch wegen seiner Benutzerfreundlichkeit und seiner Anwendungen, die in großen Domänen eingesetzt werden. Die Nachfrage nach IoT-Bereitstellung in großem Maßstab steigt rasant. Viele Probleme und Herausforderungen wurden bearbeitet, und vieles muss noch erforscht und gelöst werden. Es ist zu einem Forschungsschwerpunkt geworden. Eine beträchtliche Anzahl von Forschungen hat viel im Bereich des IoT beigetragen. Im Sicherheitsbereich hinkt es jedoch immer noch hinterher, was vielen Forschern Anlass zur Sorge gibt. Es gibt wenige andere Bedenken im IoT, die sich auf die Sicherheitsziele, Anforderungen, Herausforderungen und Probleme beziehen. Dieses Whitepaper bietet einen Überblick über das IoT und stellt verschiedene Datenschutz- und Sicherheitsaspekte vor. Das Papier zeigt auch, wie sich die Sicherheit im IoT von der Sicherheit in herkömmlichen Systemen unterscheidet. Im Beitrag werden verschiedene leichtgewichtige Verschlüsselungstechniken für das IoT, Einschränkungen des IoT, IoT-Technologien und Architekturen diskutiert und verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2043-3_39 0d9acd9ca922486e57c6d8866368cb96;de;;;6.1.;;;Industrielles Internet der Dinge und Cyber-Fertigungssysteme Das Internet der Dinge (IoT) ist ein Informationsnetzwerk physikalischer Objekte (Sensoren, Maschinen, Autos, Gebäude und andere Gegenstände), das die Interaktion und Kooperation dieser Objekte ermöglicht, um gemeinsame Ziele zu erreichen [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-42559-7_1 8a95472dc98913be98d001dab306886b;de;;;6.1.;;;Auswirkungen der jüngsten Hardware- und Softwaretrends auf die Hochleistungs-Transaktionsverarbeitung und -analyse In diesem Whitepaper überblicke ich kurz einige der jüngsten und aufkommenden Trends bei Hardware- und Softwarefunktionen, die sich auf Hochleistungsanwendungen für die Transaktionsverarbeitung und Datenanalyse auswirken. Zu diesen Funktionen gehören Multicore-Prozessorchips, ultragroße Hauptspeicher, Flash-Speicher, Speicherklassenspeicher, Datenbankanwendungen, feldprogrammierbare Gate-Arrays, Transaktionsspeicher, Schlüsselwertspeicher und Cloud-Computing. Während einige Anwendungen, z. B. Web 2.0-Anwendungen, ursprünglich ohne Berücksichtigung traditioneller Transaktionsverarbeitungsfunktionen entwickelt wurden, beginnen Systemarchitekten und -designer langsam, sich mit solchen zuvor ignorierten Problemen zu befassen. Den Anforderungen an Verfügbarkeit, Analyse und Reaktionszeit dieser Anwendungen wurde anfänglich mehr Bedeutung beigemessen als ACID-Transaktionssemantik und Ressourcenverbrauchseigenschaften. Ein Projekt bei IBM Almaden untersucht die Auswirkungen des Phasenwechselspeichers auf die Transaktionsverarbeitung im Kontext eines Schlüsselwertspeichers. Auch das bitemporale Datenmanagement ist zu einer wichtigen Anforderung geworden, insbesondere für Finanzanwendungen. Leistungsaufnahme und Wärmeableitungseigenschaften sind ebenfalls wichtige Überlegungen bei der Entstehung moderner Software- und Hardwarearchitekturmerkmale. Überlegungen zur einfachen Konfiguration, Installation, Wartung und Überwachung sowie zur Verbesserung der Gesamtbetriebskosten haben dazu geführt, dass Datenbankanwendungen sehr beliebt sind. Das MapReduce-Paradigma ist trotz der damit verbundenen erheblichen Ineffizienzen mittlerweile sehr beliebt für umfangreiche Datenanalysen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18206-8_7 0a4940e32d22f9514341cc310150fc4b;de;;;6.1.;;;Auf dem Weg zu datengestützten Entscheidungen: Von der Politik des Ministeriums zur Schulpraxis In diesem Kapitel wird beschrieben, wie die Provinz Ontario, Kanada, eine groß angelegte Initiative strukturiert hat, um sicherzustellen, dass alle Schulen in der Provinz Zugang zu qualitativ hochwertigen Daten haben, und um eine Forschungskultur zu entwickeln, in der es weit verbreitet ist, mit Daten zu arbeiten und data wo die Nutzung von Daten zu einem routinemäßigen Bestandteil des Betriebs des Bildungssystems auf allen Ebenen wird. Diese Initiative – das Management Information for Student Achievement/Professional Network Centers (MISA/PNC) wurde ins Leben gerufen, um die Entwicklung in Schulbezirken zu unterstützen, um Datensysteme einzurichten und Kapazitäten für die Nutzung von Daten aufzubauen. Dieses Kapitel verfolgt den Einfluss dieser politischen Initiative von der Ministeriumspolitik über ihre Umsetzung in einer regionalen MISA/PNC und in einem der Schulbezirke in der PNC, um ihren Einfluss auf Bezirks- und Schulebene zu veranschaulichen. Die Ergebnisse dieser Studie zeigen beispielsweise, dass Politik einen großen Einfluss auf die Datennutzung in Schulen haben kann, wenn sie Druck mit Unterstützung verbindet. In Ontario müssen Distrikte und Schulen dem Bildungsministerium über ihre Datensysteme unterschiedliche Daten zur Verfügung stellen (z. B. Druck). Das Ministerium bietet Distrikten und Schulen berufliche Entwicklungsmöglichkeiten (z. B. Unterstützung).;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-4816-3_9 e213b6bb53513b00a1d10f867f785db6;de;;;6.1.;;;Datenschutzerhaltende Abfrageverarbeitung auf geheimer, gemeinsam genutzter Datenspeicherung Database as a Service (DaaS) ist ein Paradigma für das Datenmanagement, bei dem der Database Service Provider (DSP), normalerweise ein professioneller Dritter für das Datenmanagement, die Datenbank als Service hosten kann. Viele Sicherheits- und Abfrageprobleme werden in diesem Zusammenhang durch den möglicherweise nicht vertrauenswürdigen oder bösartigen DSP verursacht. Die meisten der vorgeschlagenen Papiere konzentrieren sich auf die Verwendung einer symmetrischen Verschlüsselung, um die Vertraulichkeit der delegierten Daten zu gewährleisten, und auf die Verwendung eines partitionsbasierten Index, um die Ausführung der datenschutzwahrenden Bereichsabfrage zu unterstützen. Allerdings sind Verschlüsselungs- und Entschlüsselungsvorgänge bei großen Datenmengen zeitaufwendig, und Abfrageergebnisse bestehen immer aus vielen irrelevanten Datentupeln. Im Gegensatz zu einem verschlüsselten Schema präsentieren wir in diesem Papier ein geheimes Share-basiertes Schema, um die Vertraulichkeit delegierter Daten zu gewährleisten. Und was noch wichtiger ist, wir erstellen einen datenschutzwahrenden Index, um die Abfrage zu beschleunigen und die genau erforderlichen Datentupel zurückzugeben. Abschließend analysieren wir die Sicherheitseigenschaften und demonstrieren die Effizienz und Antwortzeit unseres Ansatzes durch empirische Daten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20149-3_10 e84e6fb0ad94f041fde7be720bbe9d31;de;;;6.1.;;;Ein Vorschlag zur Integration von Informationsanforderungen in das digitale Bauen der Infrastruktur Der digitale Bauprozess hat weltweit eine rasante Entwicklung und Akzeptanz erfahren, und dies hat zur Produktion großer Mengen von Asset-Informationen geführt. Nach der Implementierung des Prozesses bei einem Autobahnprojekt im Vereinigten Königreich wurde beobachtet, dass der aktuelle BIM-Prozess möglicherweise zu einer Informationsüberflutung führen könnte, die den Wert der Implementierung des Prozesses mindern könnte. Es wurde auch festgestellt, dass einige der Vermögensinformationen von großem Wert sein könnten, jedoch nicht in den Informationspflichten aufgeführt waren. Um diese Probleme anzugehen, wird ein Forschungsprogramm vorgeschlagen, das in drei Hauptphasen unterteilt wird. Dazu gehören eine Überprüfung der Umsetzung des Prozesses in einem bestehenden Infrastrukturprojekt, die Etablierung eines formalisierten Ansatzes zur Festlegung dieser Anforderungen durch Diskussionen mit Branchenexperten und die Entwicklung eines Rahmens, der die Gewinnung von Informationen erleichtert, die den größten Nutzen bringen Wert für den Benutzer. Dieses Papier stellt die erste dieser Phasen vor und stellt dann die Ansätze vor, die verfolgt werden, um die nächsten beiden Phasen anzugehen, um den Rahmen für die Generierung wertvoller Informationsanforderungen zu schaffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-91638-5_21 fad08f2f6cdaae4a05d4c3a6b7632538;de;;;6.1.;;;Kettenbasierte Big Data-Zugriffskontrollinfrastruktur Technologische Fortschritte haben den Anstieg von Daten und anderen digitalen Assets in unserer heutigen Welt bewirkt. Die größten Probleme mit Daten heute sind deren Sicherheit und Verwaltung, und noch wichtiger die Zugriffskontrolle. Diese Faktoren können, wenn sie nicht effektiv angegangen werden, zu vielen Kompromissen führen. Die Blockchain ist eine effektive Technologie, die höchste Sicherheit, Vertrauen und maximale Zugriffskontrolle in Big-Data-Systemen gewährleistet. Fast alle Transaktionen in einem Blockchain-Netzwerk werden jedoch auf der Plattform gespeichert. Dieser Vorgang reduziert die Datenspeicherung, da die Speicherung aller Transaktionen mitunter unnötigen Overhead verursacht. In diesem Papier wird eine Off-Chain-basierte souveräne Blockchain vorgeschlagen, bei der ein virtueller Container erstellt wird, in dem Parteien Transaktionen durchführen können. Am Ende einer Transaktion und zur Zufriedenheit jeder Partei wird der Container zerstört, aber die Ergebnisse werden auf dem souveränes Blockchain-Netzwerk. Dies verringert effektiv die Datenmenge, die im Netzwerk gespeichert worden wäre. Die Wirksamkeit unseres Systems wird mit anderen Systemen verglichen, und wir können daraus schließen, dass unser vorgeschlagenes System die bereits bestehenden übertrifft.;-;-;-;https://link.springer.com/article/10.1007/s11227-018-2308-7 ed3819c07b7e82dd2d75b2613f2c745c;de;;;6.1.;;;Nutzung vielfältiger Datenquellen in der Simulationsforschung im Gesundheitswesen Dieses Kapitel bietet dem Leser eine Einführung in einige der verschiedenen Datenquellen, die Simulationsforschern zur Verfügung stehen. Dieses Kapitel ergänzt die vorherigen Kapitel (z. B. Kap. 4,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-26837-4_32 dc7c71a505d3e3bf4a98bcbb17cc2d20;de;;;6.1.;;;Fähigkeiten und Denkweisen für eine analytisch innovative Organisation Zu Faktoren, die die Akzeptanz, den Erfolg und die Verbreitung von Business Intelligence (BI) und Analytik in Unternehmen beeinflussen, wurde viel geforscht. Diese Studie konzentriert sich auf die Bandbreite von Fähigkeiten/Kompetenzen und Einstellungen/Mindsets, die dazu führen können, dass eine Organisation durch BI und Analytics (BI&A) nachhaltig datengetrieben und innovativ wird. Nach einer Literaturrecherche wurden Unternehmensmanager, Benutzer und Entwickler von BI&A-Systemen in Südafrika zum Beitrag von Fähigkeiten und Denkweisen zu durchdringender BI&A befragt. Die thematische Analyse der Gespräche deckte fünf Hauptthemen auf: Gute Kommunikation, Priorisierung von BI, verschiedene Fähigkeiten, Einführung von BI&A und Hunger nach BI&A, alle mit Unterthemen. Es wurde gezeigt, dass viele der wichtigen Fähigkeiten und Denkweisen sowohl BI&A-Praktikern als auch ihren Benutzern und dem Management gemeinsam sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-90315-6_9 1727b7b5d915cce195c766627c558d43;de;;;6.1.;;;Grünes Design der gleichzeitigen Entwicklung von Seidenraupenmaschinen Das Design von Seidenraupenmaschinen beeinflusst Aspekte wie den technischen Herstellungsprozess, den Herstellungszeitraum, den Verwendungsprozess und den Umgang mit nutzlosen Produkten. Durch die Analyse von Problemen der gegenwärtigen und traditionellen Praxis des seriellen Designs unter dem Gesichtspunkt, wie Seidenraupenmaschinen die Umwelt während der gesamten Lebensdauer beeinflussen, stellt dieser Beitrag das grüne Design des Concurrent Engineering vor. Diese Entwurfsmethode kann die Qualität von Seidenraupenmaschinen verbessern und die Produkte umweltfreundlicher machen, die Entwicklungszeit verkürzen und die Lebensdauer der umfassenden Produkte reduzieren. Die Umsetzung des grünen Designs von Concurrent Engineering ist der einzige Weg der landwirtschaftlichen Fertigungsindustrie, eine nachhaltige Entwicklungsstrategie umzusetzen, die Umwelt zu lösen und einen neuen Sprung zu realisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-25128-4_186 b08d120dcf2a823111683da78e73ceb3;de;;;6.1.;;;Auf dem Weg zu Sensordatenbanksystemen Sensornetzwerke werden häufig für Mess-, Erkennungs- und Überwachungsanwendungen eingesetzt. In diesen neuen Anwendungen stellen Benutzer lang andauernde Abfragen über eine Kombination aus gespeicherten Daten und Sensordaten. Die meisten bestehenden Anwendungen verlassen sich auf ein zentralisiertes System zum Sammeln von Sensordaten. Diesen Systemen fehlt es an Flexibilität, da Daten auf vordefinierte Weise extrahiert werden, und sie können nicht auf eine große Anzahl von Geräten skaliert werden, da große Mengen an Rohdaten unabhängig von den gesendeten Abfragen übertragen werden. In unserem neuen Konzept des Sensordatenbanksystems bestimmen Abfragen, welche Daten aus den Sensoren extrahiert werden. In diesem Papier definieren wir das Konzept von Sensordatenbanken, die gespeicherte Daten, die als Relationen dargestellt werden, und Sensordaten, die als Zeitreihen dargestellt werden, mischen. Jede über eine Sensordatenbank formulierte Abfrage mit langer Laufzeit definiert eine persistente Ansicht, die während eines bestimmten Zeitintervalls aufrechterhalten wird. Außerdem beschreiben wir das Design und die Implementierung des Sensordatenbanksystems COUGAR.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44498-X_1 aae5d738adfbe6883080c5effcf7e7a7;de;;;6.1.;;;Von „Zu viel, zu spät“ zu „Richtig beim ersten Mal“: Der Rat von Qualitätsguru Deming für klinische Studien Das Datenmanagement in klinischen Studien ist eine Aktivität mit hohen Ambitionen, jedoch unter undefinierten regulatorischen Anforderungen an die Qualität der in den Studienberichten präsentierten Daten. Der Begriff Qualität ist nicht definiert, aber seine Verwendung impliziert eine gewisse Abwesenheit von Messfehlern. Der Begriff Fehler ist nicht definiert, aber seine Verwendung weist auf einen unerklärlichen Unterschied zwischen der ursprünglichen Messaufzeichnung und den im Abschlussbericht präsentierten Daten hin. Ein Überblick über moderne Qualitätsmanagementmethoden im Vergleich zu Standardverfahren im klinischen Datenmanagement zeigt, dass es in vielen Aspekten auffallende Unterschiede bei der Qualitätssicherung gibt. Auf der Grundlage dieser Überprüfung wird vorgeschlagen, dass das Haupthindernis für die Erzielung einer hohen Qualität die traditionelle Abhängigkeit von wiederholten Überprüfungen inkonsistenter Daten spät nach Durchführung der ursprünglichen Messungen ist. Erfahrungen und Ressourcen, insbesondere für die Ausbildung von Ermittlern, sollten systematischer genutzt werden, um Fehler zu vermeiden.;-;-;-;https://link.springer.com/article/10.1177/009286150003400439 3cb8beecb61ab8f3fa02095ad97f5cfe;de;;;6.1.;;;Feldmessungen in Flussböschungen: Validierung und Management mit Geodatenbank und WebGIS Diese Studie konzentriert sich auf die Entwicklung eines Systems mit einer räumlichen Datenbank und einem WebGIS, das die Daten speichern, validieren und anzeigen kann, um die Entscheidungsträger bei der Verwaltung von Frühwarnsystemen für das Versagen von Flussufern zu unterstützen. Um genaue Ergebnisse zu erhalten, ist es unabdingbar, über ein Werkzeug zu verfügen, das in der Lage ist, eine große Anzahl von Daten zu verwalten, um ihre Zuverlässigkeit zu überprüfen und sie im Raum zu lokalisieren. In diesem Beitrag wurde besonderer Wert auf die Entwicklung von Verfahren zur Bewertung der Zuverlässigkeit der Maßnahmen gelegt. Zu diesem Zweck enthält die Datenbank alle Informationen, die zur Beschreibung der Geräteleistung erforderlich sind, wie Sandpackungsgröße und Gehäusedurchmesser von Standrohr-Piezometern zur Auswertung ihrer Zeitverzögerung und die Kalibrierkurven von Aufnehmern mit der Möglichkeit ihrer Aktualisierung. Die Position der nicht funktionierenden Instrumente wird durch die Analyse des elektrischen Signals und der räumlichen Darstellungen identifiziert, während die Analyse der Redundanz und Kohärenz von Maßnahmen zur Erkennung zweifelhafter Daten verwendet wird. Datenbank und WebGIS wurden auf die Überwachungsdaten eines Damms der Etsch in Norditalien angewendet. Das Datenbank- und WebGIS-System hat sich als geeignetes und effektives Werkzeug für die Verwaltung und Validierung von Echtzeitdaten und periodischen Feldmessungen erwiesen.;-;-;-;https://link.springer.com/article/10.1007/s11069-013-0955-9 abb48ceb1e09afcdc956939d331de18e;de;;;6.1.;;;IKT als Wegbereiter für intelligentes Wassermanagement Die Wasserwirtschaft in städtischen Gebieten geht über die Trinkwasserversorgung oder die Sammlung und Behandlung von Abwasser hinaus. Das Interesse an der Nutzung von Informations- und Kommunikationstechnologien (IKT) wächst, was zu einer Vielzahl neuer Anwendungen führt, die den Zugang zu riesigen Informationsmengen ermöglichen, die von den verschiedenen Einrichtungen vor einigen Jahren undenkbar generiert wurden und die den Betrieb erheblich erleichtern, Instandhaltungs- und Managementaufgaben im Kontext einer effizienten und nachhaltigen Stadtentwicklung. In diesem Zusammenhang kommt dem Wassermanagement eine besondere Bedeutung zu, insbesondere wenn man bedenkt, dass in den letzten Jahren die Nachfrage in entwickelten Gebieten mit zunehmendem Wasser-Fußabdruck enorm gestiegen ist. Der richtige Einsatz von IKT für das städtische Wassermanagement ermöglicht es, Daten zu sammeln, um in Echtzeit über Angebot und Nachfrage zu erfahren, und diese Informationen in die Hände von Managern zu legen, um sie bei der Vorhersage der Nachfrage zu unterstützen oder die Preise basierend auf der Nachfrage anzupassen. Das Zusammenfassen aller Aspekte im Zusammenhang mit Wassermanagement und -überwachung in einer globalen Plattform wird als IWRM (Integrated Water Resources Management) bezeichnet. Diese IWRM-Systeme benötigen eine große Menge an Informationen, um Wassersysteme in städtischen Umgebungen präzise zu verwalten. Diese Informationen lassen sich in drei Hauptkategorien einteilen: Erzeugung, Transport und Verbrauch, die jeweils unterschiedliche Eigenschaften aufweisen und daher unterschiedliche Behandlungslösungen erfordern. Derzeit gibt es zahlreiche Initiativen im Bereich der IKT für die Wasserwirtschaft, von denen einige in diesem Kapitel skizziert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37006-9_11 c82e11896f02a00a4001477e2dda790f;de;;;6.1.;;;Skalierbare Verwaltung von Zugriffsrichtlinien (Eingeladenes Papier) Die aufstrebende Welt der großen, lose gekoppelten Informationssysteme erfordert grundlegende Veränderungen in unserer Herangehensweise an die Sicherheitsforschung. Seit vielen Jahren haben wir Konstrukte nach Konstrukten vorgeschlagen, um die Macht und den Umfang von Richtliniensprachen zu erweitern. Leider hat dieser Fokus zu Modellen geführt, deren Komplexität unüberschaubar ist, Technologien neu zu erfinden, die andere Teildisziplinen besser gemacht haben, und zu Annahmen, die große Unternehmen einfach nicht erfüllen. Wir argumentieren, dass es an der Zeit ist, eine andere Herausforderung hervorzuheben: radikales Scale-up. Um dies zu erreichen, wird es entscheidend sein, Einfachheit, Integration mit (nicht sicherheitsrelevantem) Unternehmenswissen und Modularität sowohl für Modelle als auch für die Verwaltung zu betonen. Dieses Positionspapier wird die Probleme veranschaulichen und mögliche Wege beschreiben, um die gewünschten Fähigkeiten zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-31167-X_23 1d92e9075c2f1fc976c986ab9b814619;de;;;6.1.;;;Einheitlicher und effizienter Zugriff auf Daten in organisatorisch verteilten Umgebungen In diesem Artikel präsentieren die Autoren eine Lösung für das Problem des einheitlichen und effizienten Zugriffs auf Daten in organisatorisch verteilten Umgebungen wie Grids und Clouds. Es wird ein Überblick über bestehende Speicherlösungen, insbesondere leistungsfähige Dateisysteme und Datenmanagementsysteme, hinsichtlich der bereitgestellten Funktionalität, Skalierbarkeit und Konfigurationselastizität beschrieben. Als nächstes wird eine neuartige Lösung namens VeilFS in Bezug auf die zu erreichenden Ziele, ihre Architektur und den aktuellen Implementierungsstatus beschrieben. Insbesondere werden die Mechanismen zum Erreichen eines gewünschten Leistungs- und Fehlertoleranzniveaus diskutiert und vorläufige Overhead-Tests vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10894-0_13 427410228d80d6e32e2e690fc7baeb1f;de;;;6.1.;;;Von Trade Finance über Supply Chain Finance bis hin zu Beschaffungsfinanzierung Trade Finance ist ein seit langem etabliertes Finanzprodukt. Im Laufe der Zeit wurde es auf die Finanzierung der gesamten Lieferkette ausgeweitet. Eine moderne Vision betrachtet den gesamten End-to-End-Beschaffungsprozess. Es ist das, was dieses Buch als Beschaffungsfinanzierung definiert. Die Beschaffungsfinanzierung umfasst eine ganzheitliche Betrachtung der Handelsfinanzierung und der Lieferkettenfinanzierung. Es erstreckt sich auch auf die Verwaltung der Zahlungen im Zusammenhang mit der Beschaffung. Als solches ist es auch für die Organisationen ein wesentlicher Bestandteil des Treasury Managements. Sein Hauptziel besteht darin, den gesamten Prozess so zu steuern, dass die Beziehungen zu den Lieferanten verbessert, das Betriebskapital und die Liquidität optimiert, effektive Zahlungssysteme unterstützt und einen Mehrwert für die Kunden und das Unternehmen geschaffen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-02140-5_3 9411b2852fc24bc0a3f0ef8173dee926;de;;;6.1.;;;Organisation der Informatik Der Einfluss von Computern auf die Unternehmensorganisation und das Management hängt notwendigerweise von der Art der Prozesse und Techniken ab, die sie ersetzen, und vom Ausmaß der Veränderungen, die sie mit sich bringen. Zwischen den gegensätzlichen Extremen eines kleinen Personal-Mikrocomputers, der ein effizienteres persönliches Unterstützungswerkzeug darstellt, und einem großen Computersystem, das als Teil eines Maschinenkomplexes installiert ist, der die wichtigste Kapitalressource darstellt, um die sich der Rest der Organisation gruppiert, gibt es eine große verschiedene Größe und Verwendung von Computern und verwandten Maschinen. Aufgrund dieser Vielfalt in einer Zeit sich schnell ändernder Technologien wäre es irreführend, Geschäftscomputersysteme in irgendeiner Form von organisatorischen Stereotypen zu sehen. Es finden sich Situationen, die denen der ersten Tage des Business-Computers vor 30 Jahren entsprechen und die immer noch durchaus angemessen erscheinen, aber auch ganz neue Innovationen, die die meisten heutigen Konzepte in Frage stellen. Der „Tod“ des Mainframes und der Datenverarbeitungsabteilung droht seit einigen Jahren, aber beide gedeihen immer noch. Fest steht nur, dass sich die Computerindustrie insgesamt im Aufschwung befindet und sich weiter verändern wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-18419-4_12 44abac1327474410764409fd5e51a76e;de;;;6.1.;;;Die Einbettung von Ringen und Maschen in RP(k)-Netzwerke In diesem Beitrag werden zunächst die topologischen Eigenschaften von RP(k)-Netzwerken untersucht. Konzentriert man sich dann auf die Einbettung von Ringen und 2-D-Netzen in das RP(k)-Netz, so wird bewiesen, dass das RP(k)-Netz ein Hamilton-Graphen ist und der Ring mit 10*;-;-;-;https://link.springer.com/article/10.1360/01yf0434 32aee36e0cf9e13bb383f84dc0e2a271;de;;;6.1.;;;Datenschutz vor Big Data in Cloud-Systemen Cloud Computing und Big Data, zwei derzeit disruptive Trends, haben einen erheblichen Einfluss auf die aktuelle IT-Branche und die Forschungsgemeinschaften. Cloud Computing bietet enorme Rechenleistung und Speicherkapazität, die es Benutzern ermöglicht, Anwendungen ohne Infrastrukturinvestitionen bereitzustellen infrastructure;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38586-5_8 e6daeace4264da2812072afec9e6ec09;de;;;6.1.;;;Verteilte Objekttechnologien, Datenbanken und Sicherheit Verteilte Objekttechnologien versprechen Verbesserungen der Systemflexibilität und -entwicklung, stellen jedoch neue Herausforderungen sowohl an das Datenmanagement als auch an die Sicherheit. Die Datenverwaltung kann entweder durch verteilte Objektschnittstellen implementiert werden, die einer herkömmlichen Datenbanksystemarchitektur hinzugefügt werden, oder durch entkoppelte, verteilte Komponenten, die sich koordinieren, um Datenbankfähigkeiten bereitzustellen. Zu den wichtigsten Sicherheitsaspekten gehören Sicherheitskontext und Verantwortlichkeiten in n-tiered-Architekturen und in entkoppelten Datenverwaltungskomponenten, Sicherheitsbewusstsein von Anwendungen und Assurance.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35285-5_2 3db6263d08328d2770033e6d0afa23c0;de;;;6.1.;;;Einbeziehung einer Perspektive der Gesundheitsforschung auf persönliche Gesundheitsakten: Lehren aus der VA My Health Persönliche Gesundheitsakten (PHRs) sollen Menschen dabei helfen, Informationen über ihre Gesundheit zu verwalten. In den letzten zehn Jahren gab es eine starke Verbreitung von PHRs, aber die Forschung zu ihren Auswirkungen auf klinische, verhaltensbezogene und finanzielle Ergebnisse bleibt begrenzt. Das Potenzial von PHRs, die patientenzentrierte Pflege und die Transformation des Gesundheitssystems zu erleichtern, unterstreicht die Bedeutung einer breiteren Perspektive auf die PHR-Forschung.;-;-;-;https://link.springer.com/article/10.1007/s11606-009-1114-6 34ef08887f018ec805a49bdd8829902b;de;;;6.1.;;;Entwicklung auf Salesforce Die Entwicklung auf Salesforce bedeutet, die Plattform so zu konfigurieren, dass sie die Anforderungen Ihres Unternehmens erfüllt. Dies kann in Form von Klicks oder Code erfolgen, ist jedoch häufig eine Kombination aus beidem. Der Umfang kann von winzigen Änderungen bis hin zu anspruchsvollen Anwendungen reichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-5473-8_4 4268242c5e41aa46d095cffea499f8a8;de;;;6.1.;;;Verbreitung der Bereitstellung von Anwendungsdiensten unter KMU Dieses Papier bietet einen explorativen empirischen Überblick über die Verbreitung von Application Service Providern (ASPs). Dazu stellt sie eine Web-Umfrage unter kleinen und mittleren Unternehmen (KMU) vor. Darüber hinaus präsentiert es eine Studie zu einem bestimmten ASP und seinen Kunden. Die Forschungsfragen lauten: Wie verbreitet sich das ASP-Konzept im Mittelstand und wer sind die Nutzer im Mittelstand? Das Konzept, ASP, umfasst Softwareanbieter und ein ASP-Unternehmen, das als Drittanbieter in einem Geschäftsmodell agiert. Für seine Kunden bildet das Konzept eine Strategie, um Anwendungen zu mieten und die Wartung ihrer Informations- und Kommunikationstechnologie (IKT) zu organisieren. Die Web-Umfrage zeigt, dass ein gewisses Wissen über das ASP-Konzept unter KMU weit verbreitet ist. Bei näherer Betrachtung zeigt sich jedoch, dass das Wissen darüber, was das ASP-Konzept konkret bedeutet, begrenzt ist. Dies wird als ein Grund dafür gesehen, dass sich das ASP-Konzept bei KMU nicht durchgesetzt hat. Dieser Grund hängt mit der Frage nach dem Vertrauen zusammen, um einer Innovation zu vertrauen, muss man über die Innovation Bescheid wissen. Die Schlussfolgerung ist, dass ASPs ihr Angebot deutlicher machen müssen. Sie müssen auch zeigen, wie sich die Übernahme des ASP-Konzepts auf die übernehmende Organisation auswirkt.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-8000-X_21 74ee2dd75b157aaab6d2f0ae6a8dfa9b;de;;;6.1.;;;Kollaborative Entwicklung von Werkzeugen und Formen in KMU-Netzwerken Dieses Papier stellt die Forschungsarbeit einer Gruppe von KMU aus verschiedenen Regionen in Europa zur Entwicklung und Unterstützung von kollaborativen Engineering-Gruppen vor, die denselben oder verschiedenen Unternehmen angehören können, die bei der Herstellung von Werkzeugen und Formen zusammenarbeiten. Um dies zu erreichen, mussten verschiedene Aspekte umgangen werden: Definition eines Organisationsmodells, Spezifikation eines gemeinsam nutzbaren Informationsmodells, um eine gemeinsame Sicht auf das in Entwicklung befindliche Projekt zu ermöglichen und Implementierung der erforderlichen Softwareinfrastruktur für die Arbeitsgruppeninteroperation.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-2256-8_29 e2d1a32dad9d61a1173082327e84fb31;de;;;6.1.;;;Produkt-Roadmap und zukünftige Ausrichtung für SAC Das Innovationstempo und die technologische Weiterentwicklung in Verbindung mit einer dynamischen Geschäftsumgebung machen es für jedes Unternehmen absolut unerlässlich, die IT und die damit verbundenen Risiken und deren Auswirkungen auf das Geschäft zu verstehen und zu verwalten. Mit einer ständig wachsenden Akzeptanz und Anwendung von Technologie in allen Unternehmensfunktionen wird die Notwendigkeit von Bewusstsein für das Management der IT von grundlegender Bedeutung. Eine der besten Möglichkeiten, Risiken zu minimieren und optimale Gewinne aus Investitionen in Technologie zu erzielen, besteht darin, die Technologie-Roadmap und ihre Entwicklungsrichtung besser bekannt und klarer zu gestalten. Das Verständnis der Roadmap und der zukünftigen Ausrichtung hilft, die Risiken einer möglichen Lücke zu mindern und Geschäftspläne und -strategien mit den bevorstehenden Fähigkeiten und Veränderungen der Technologie abzustimmen. Ein Blick auf die Produkt-Roadmap stellt auch sicher, dass alle Beteiligten auf bevorstehende Veränderungen achten und sich auch weiterbilden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-6097-5_10 fc407346eae661c7ccc50318167cdcae;de;;;6.1.;;;Verstehen datenbezogener Konzepte in Smart Manufacturing und Supply Chain durch Text Mining Min Data Science ermöglicht die Nutzung von Daten zur Verbesserung von Herstellungsprozessen und Lieferketten. Dies hat sowohl in der Forschung als auch in der Industrie Aufmerksamkeit erregt. Allerdings scheint es in der wissenschaftlichen Literatur keinen Konsens über die Definitionen einiger datenbezogener Konzepte zu geben, was ihr Verständnis durch Praktiker erschweren kann. Darüber hinaus neigen diese Begriffe dazu, Definitionen zu haben, die sich im Laufe der Zeit entwickeln. Daher untersucht diese Studie den Einsatz von sechs Data-Science-Konzepten in der Forschung im Rahmen von Industrie 4.0 und Supply Chain Management. Um dieses Ziel zu erreichen, wird ein Text-Mining-Ansatz verwendet, um sowohl zur Begriffsklärung dieser Begriffe beizutragen als auch zukünftige Forschungstrends zu identifizieren. Die wichtigsten Ergebnisse deuten darauf hin, dass, auch wenn Konzepte wie maschinelles Lernen, Data Mining und künstliche Intelligenz häufig synonym verwendet werden, es wesentliche Unterschiede zwischen ihnen gibt. Im Hinblick auf zukünftige Trends scheinen Themen wie Blockchain, Internet of Things und Digital Twins das aktuelle Forschungsinteresse zu wecken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-69373-2_37 c56701d919e145588d60f9b494f1fa90;de;;;6.1.;;;Studie zur Entwicklung und Konstruktion von Zielprüfungssystemen in der Luftfahrt Das objektive Untersuchungssystem für die Luftfahrt basiert auf aufgezeichneten objektiven Daten, die den Menschen technische Unterstützung bieten, um die Praxis luftfahrtwissenschaftlicher Vorurteile zu entdecken und zu korrigieren und die wissenschaftliche Verwendung und Wartung von Waffen und Ausrüstung zu leiten. Die Entwicklung dieses Systems verbessert die Kampf- und Unterstützungsfähigkeit der Luftwaffe, aber es gibt immer noch Probleme mit unabhängigen Datenaufzeichnungsmethoden, einer geringen Unfallüberlebensrate und einem Anwendungseffekt der schlechten Datenintegration, und daher sind verschiedene Flugdatenerfassungs-, -übertragungs- und -anwendungsanforderungen erforderlich in Betracht gezogen werden, ein umfassendes objektives Prüfungssystem für die Luftfahrt aufzubauen und die wissenschaftliche Entwicklung der Flugausbildung in der Luftfahrt zu fördern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54233-6_33 dbc1f136e2d6d8e7aa8c019594034fe0;de;;;6.1.;;;Peer-to-Peer und Semantic Web So wie die Industriegesellschaft des letzten Jahrhunderts von natürlichen Ressourcen abhängig war, ist die heutige Gesellschaft von Informationen abhängig. Ein Mangel an Ressourcen in der Industriegesellschaft behinderte die Entwicklung ebenso wie ein Mangel an Informationen die Entwicklung in der Informationsgesellschaft behinderte. Folglich wird der Informationsaustausch für immer mehr Bereiche der Gesellschaft unverzichtbar: Unternehmen kündigen ihre Produkte auf Online-Marktplätzen an und tauschen elektronische Bestellungen mit ihren Lieferanten aus, im medizinischen Bereich werden Patienteninformationen zwischen Hausärzten, Krankenhäusern und Krankenkassen, der öffentlichen Verwaltung ausgetauscht Steuerinformationen von Arbeitgebern erhalten und ihren Bürgern Online-Dienste anbieten. Als Antwort auf diese zunehmende Bedeutung des Informationsaustauschs werden neue Technologien entwickelt, die einen schnellen und genauen Informationsaustausch unterstützen. Prominente Beispiele für solche neuen Technologien sind sogenannte;-;-;-;https://link.springer.com/chapter/10.1007/3-540-28347-1_1 5bffee32f59570ef2486ecb5c8db8987;de;;;6.1.;;;Raytracing-Programme und Plug-ins Es stehen etwa 70 Raytracing-Programme zur Verfügung sowie Raytracing-Funktionen in vielen gängigen CAD-, 3D-Modellierungs- und Inhaltserstellungsprogrammen. Die Idee, ein fotorealistisches, physikalisch genaues synthetisches Bild zu erstellen, ist so überzeugend und aufregend, buchstäblich, dass Hunderte von Menschen in den letzten 60 Jahren versucht haben, es umzusetzen. Es erfordert so viel Fachwissen und eine so umfangreiche Materialbibliothek, dass kein einzelnes Programm alle Anforderungen aller Anwendungen oder Projektphasen erfüllen kann. Es ist nicht ungewöhnlich, dass ein Film- oder Designstudio zwei bis fünf verschiedene Raytracing-Programme in einem Projekt einsetzt. Das zeigt, wie groß die Anforderungen sind und warum es so viele Programme gibt. Und viele der Programme sind kostenlos, sodass der Verwendung von Raytracing kein wirtschaftliches Hindernis entgegensteht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-17490-3_8 8272cec527faa470232341e3e89612d6;de;;;6.1.;;;Ausgereifte Tools in prozesszentrierte Umgebungen einbinden Wir präsentieren eine Tool-Integrationsstrategie, die darauf basiert, bereits vorhandene Tools ohne Quellcode-Änderungen oder Neukompilierung zu umhüllen und ohne eine Erweiterungssprache, Anwendungsprogrammierschnittstelle oder andere spezielle Fähigkeiten des Tools anzunehmen. Diese Black Box-Umhüllungs- (oder Verpackungs-) Idee gibt es schon lange, war aber bisher auf relativ einfache Werkzeuge beschränkt. Wir beschreiben das Design und die Implementierung sowie das Experimentieren mit einer neuen Black-Box-Hüllkurve für anspruchsvolle Tools – mit besonderem Augenmerk auf die aufkommende Klasse von Groupware-Anwendungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-1439-4_7 db6c546c29cb4550e191c05599c96d86;de;;;6.1.;;;Der Wert des Lungenverletzungs-Scores bei der Beurteilung des Outcome von Patienten mit Rippenfraktur Das Management von Rippenfrakturen macht einen Großteil der Traumaarbeitsbelastung jeder Abteilung aus. Rippenfrakturen führen zu einer gestörten Brustwandmechanik und einer Ateminsuffizienz. Es wurde die Fähigkeit eines Bewertungssystems für Lungenverletzungen bewertet, den Grad der respiratorischen Dysfunktion nach Rippenfrakturen vorherzusagen.;-;-;-;https://link.springer.com/article/10.1007/s00068-005-1392-6 a47135aa8908d84e39d98723c8760390;de;;;6.1.;;;Entdeckungspfade: Erforschung von Emergenz und evolutionärem IT-Design bei grenzüberschreitenden M&As. Analyse des Erwerbs der Abtei durch die grupo Santander (2004–2009) In diesem Papier stellen wir den Begriff der Entdeckungspfade vor, der aus unserer Studie der M&A zwischen Grupo Santander (GS) und Abbey (2004–2009) stammt, bei der die resultierenden Synergien nach der Fusion um 35 % besser waren als erwartet. Tatsächlich erreichte GS im Jahr 2012 ein einzigartiges Effizienzniveau in der Bankenbranche, das wir als Zeichen für radikale Neuheit betrachten. Während des M&A entschied sich das GS-Management, sein kundenzentriertes Modell durch den Transfer der Informations- und Kommunikationstechnologie (ICT)-Plattform Partenón anzuwenden. Diese ungewöhnliche Entscheidung führte zur Endogenisierung kritischer IKT-Funktionen, um dieses Modell auf Abbey zu übertragen. In der Arbeit argumentieren wir, dass einige Schritte, die zu Synergien führen, im Voraus geplant werden können, andere wesentliche Variationen jedoch erst während des M&A-Prozesses selbst erlernt und entdeckt werden und so zu entstehenden Synergien führen. In dem vorgestellten Modell erklärt ein Entdeckungspfad die Entwicklung des Unternehmens anhand von Variationen in der strategischen Interaktion zwischen der Organisation und der Technologie. Diese Variationen führten zu neuen Designprinzipien, die sich aus Problemlösung und Modularität ergeben, die wiederum zu (1) Skalen- und Verbundvorteilen, (2) hybriden Strukturen, die IKT- und organisatorische Wissensdomänen kombinieren, die durch schnelle Integrationen Effizienz erzeugen, und (3) organisatorische Morphogenese – das heißt die Schaffung neuer Organe wie IKT-Fabriken –, die Effizienz durch Vermeidung von Skaleneffekten durch Kapselung der inhärenten Komplexität der Technologie erzeugt und steigende Renditen bietet.;-;-;-;https://link.springer.com/article/10.1057/ejis.2014.38 9379f4e60246e701fa37eaeeea4e738e;de;;;6.1.;;;Einbindung anspruchsvoller Tools in prozesszentrierte Umgebungen Wir präsentieren eine Tool-Integrationsstrategie, die darauf basiert, bereits vorhandene Tools ohne Quellcode-Änderungen oder Neukompilierung zu umhüllen und ohne eine Erweiterungssprache, Anwendungsprogrammierschnittstelle oder andere spezielle Fähigkeiten des Tools anzunehmen. Diese Black Box-Umhüllungs- (oder Verpackungs-) Idee gibt es schon lange, war aber bisher auf relativ einfache Werkzeuge beschränkt. Wir beschreiben das Design und die Implementierung sowie das Experimentieren mit einer neuen Black-Box-Hüllkurve für anspruchsvolle Tools – mit besonderem Augenmerk auf die aufkommende Klasse von Groupware-Anwendungen.;-;-;-;https://link.springer.com/article/10.1007/BF00132571 c88fab2cf761f178d5d94f13367d1e5b;de;;;6.1.;;;Die Grundsituation von ZLCs, deren Umsatz- und Nettogewinnwachstumsrate in den letzten drei Jahren 30 % überstiegen Als Branchenführer und Marktführer in der Industriekette umfassen ZLCs reife Großunternehmen wie Baidu und JD sowie wachstumsstarke Unternehmen wie China Transinfo, Lakala und Leyard. Um das hohe Wachstum von ZLCs aufzuzeigen, Um die grundlegenden Aussichten von wachstumsstarken Unternehmen und die Faktoren hinter ihrer schnellen Entwicklung darzustellen, beginnt dieser Abschnitt mit Umsatz- und Nettogewinnindikatoren und wählt dann Unternehmen mit einer durchschnittlichen Wachstumsrate von mehr aus als 30 % des Betriebsergebnisses und des Nettogewinns in den letzten drei Jahren und analysiert die grundlegenden Informationen und die Kernwettbewerbsfähigkeit des Unternehmens. Die Daten zeigen, dass es 26 ZLCs gibt, die die oben genannten Kriterien erfüllen. Ohne Glory Sun Land, dessen Performance aufgrund der Hintertürnotierung deutlich gestiegen ist, werden die verbleibenden 25 wachstumsstarken börsennotierten Unternehmen wie folgt vorgestellt (in keiner bestimmten Reihenfolge aufgeführt);-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6908-5_7 4c6f5fd0c6db459c04df4236812f105a;de;;;6.1.;;;Von Innovationen profitieren: eine Taxonomie von FinTech In diesem Artikel stellen wir eine Taxonomie der verschiedenen Arten von Innovationen im Finanzdienstleistungsbereich vor, ein Rahmenwerk, das wir als unser FinTech-Ökosystem bezeichnen. Wir nutzen dieses FinTech-Ökosystem, um die verschiedenen Bereiche mit potenziellem Wert für Investoren aufzuzeigen, die in diesem Bereich Ventures als alternative Investitionen suchen. Unser konzeptioneller Rahmen ermöglicht es Anlegern, aufstrebende Technologien und FinTech-Vertikalen durch die Linse einer Sektoranalyse zu untersuchen. Um besser zu verstehen, wo die FinTech-Revolution begann und wohin sie geht, wenden wir das Konzept der digitalen Transformation auf die Finanzdienstleistungsbranche an, wodurch wir das empfindliche Risiko-Ertrags-Verhältnis bei FinTech hervorheben können.;-;-;-;https://link.springer.com/article/10.1057/s41260-020-00163-4 eb9e0ec32b7f5c754dd4f82324d817ae;de;;;6.1.;;;Konfigurationsorientierte Produktmodellierung und Wissensmanagement für auftragsbezogene Fertigungsunternehmen In auftragsbezogenen (MTO) Manufacturing Enterprises (ME) werden Produktarchitekturen in der Regel modularisiert und Komponenten standardisiert. Die Produktkonfiguration ist eine Schlüsseltechnologie für die Auftragsrealisierung in MTO-ME und eine typische wissensbasierte Anwendung. Durch einen Konfigurationsprozess werden Produktmodule oder Komponenten nach Kundenwunsch ausgewählt und zusammengestellt. Die Produktkonfiguration bezieht sich auf ein umfangreiches Wissen, das Komplexitätsbeziehungen zwischen Komponenten oder Modulen darstellt, wie beispielsweise Konfigurationsregeln und Montagebeschränkungen. Herkömmliche Produktmodellierungstechniken konzentrieren sich hauptsächlich auf die physische Produktmodellierung und die geometrische Darstellung, was sie für den Produktkonfigurationsprozess unzureichend macht. In diesem Papier werden die konfigurationsorientierte Produktmodellierung und das Wissensmanagement für MTO-ME behandelt. Ein allgemeiner Prozess der Produktkonfigurationsmodellierung wird vorgeschlagen. Das Konfigurationsmodell stellt eine Produktfamilie dar, aus der eine spezifische Konfigurationslösung oder Produktvariante abgeleitet werden kann. Tatsächlich ist die Konfigurationsmodellierung ein Prozess, der Produktwissen erfasst und repräsentiert. In diesem Dokument wird Produktwissen durch eine Wissenskomponente (KCOM) organisiert und verwaltet, die Konfigurationsregeln und Einschränkungen enthält. Ein KCOM-basiertes Produktwissensdarstellungsmodell wird vorgestellt. Schließlich wird ein PDM-System erweitert, um Produktmodellierung und Wissensmanagement für MTO-konfigurierbare Produkte zu unterstützen.;-;-;-;https://link.springer.com/article/10.1007/s00170-003-1871-z 000d837c1b958131dfa0d80471ac892a;de;;;6.1.;;;Eine Umfrage zu Schemata zum Schutz der Privatsphäre in der IoE-fähigen Smart Grid Advanced Metering Infrastructure Die Integration erneuerbarer Ressourcen und der steigende Energieverbrauch haben das traditionelle Stromnetz vor neue Herausforderungen gestellt. Um diesen Herausforderungen gerecht zu werden, hat das Internet of Everything (IoE) das bestehende Stromnetz in ein modernisiertes Stromnetz namens Smart Grid umgewandelt. Ein wesentlicher Bestandteil dieser Transformation ist die Advanced Metering Infrastructure (AMI), die eine bidirektionale Kommunikation für den Informationsfluss zwischen Energieverbrauch, Ausfällen und Stromtarifen zwischen intelligenten Zählern und den Versorgungsunternehmen ermöglicht. Diese verbesserten AMI-Funktionen und -Privilegien haben zu einer größeren Oberfläche für Cyber-Angriffe geführt und ermöglichen die Remote-Ausnutzung dieser intelligenten Geräte ohne physischen Zugriff. Daher sind die Privatsphäre und Sicherheit der Verbraucher aufgrund der Verbindung verschiedener intelligenter Geräte in verschiedenen Kommunikationsnetzwerken und der darin enthaltenen Informationen zu einem kritischen Thema geworden. In diesem Papier präsentieren wir eine umfassende Übersicht über die datenschutzbezogene Forschung in der IoE-fähigen Smart-Grid-Umgebung. Die Umfrage präsentiert eine detaillierte Analyse von Datenschutzproblemen und deren entsprechenden Lösungen in AMI. Unser Ziel ist es, ein tiefgreifendes Verständnis des Smart Grid zu vermitteln und zukünftige Forschungsrichtungen zu beleuchten.;-;-;-;https://link.springer.com/article/10.1007/s10586-018-2820-9 6b7f0afb88f9ca76f8e6f725214c9aac;de;;;6.1.;;;Integrierbarkeit und Interoperabilität von Geodaten im Kontext von GDI Die Zahl der heterogenen Geodatensätze aus mehreren Quellen nimmt weiter zu und die Fragmentierung der organisatorischen Anordnungen hat zu einer großen technischen und nicht-technischen Heterogenität geführt. Geodateninfrastrukturen sollen die Nutzung und den Austausch von Geodaten erleichtern und können eine effektive Plattform zur Unterstützung der Datenintegration sein. In diesem Beitrag werden die technischen und nicht-technischen Heterogenitäten von Geodaten aus mehreren Quellen im ganzheitlichen Rahmen der Geodateninfrastruktur diskutiert. Das Papier basiert auf Forschung und Fallstudien, die in Australien durchgeführt wurden. Das Papier stellt auch Geo-WebServices als Mittel vor, um die Integration und Interoperabilität von Geodaten zu erleichtern. Geo-WebService kann eine Plattform bieten, um den Grad der Integrierbarkeit und Bereitschaft von Datensätzen aus mehreren Quellen zu bewerten. Die Ergebnisse dieser Forschung sollen Praktiker bei der Entwicklung der notwendigen technischen Werkzeuge unterstützen, einschließlich Geo-Web-Services und Richtlinien für eine effektive Datenintegration.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78946-8_21 f60324c4a9cff3e29c384ce23e7a39a5;de;;;6.1.;;;Metadatenmanagement für Ad-hoc-InfoWare – Ein Rettungs- und Notfallanwendungsfall für mobile Ad-hoc-Szenarien In diesem Papier stellen wir einen mehrschichtigen Data Dictionary-Ansatz für das Metadatenmanagement in mobilen Ad-hoc-Netzwerken (MANETs) vor. Unsere Arbeit ist Teil des Ad-Hoc InfoWare-Projekts, das darauf abzielt, Middleware-Lösungen für den Informationsaustausch in MANETs zu finden, die in Rettungs- und Notfallszenarien verwendet werden. Solche Szenarien zeichnen sich durch hochdynamische und zeitkritische Probleme aus und stellen neue Herausforderungen an Lösungen für den Informationsaustausch und die Integration. Wir stellen das Rettungs- und Notfallszenario, die Ergebnisse der Anforderungsanalyse und einige aus dieser Analyse resultierende Use Cases vor. Wir beschreiben das Design einer Wissensmanagerkomponente und deren Lösungsansätze, wobei der Schwerpunkt auf dem Metadatenmanagement und der Verwendung globaler und lokaler Datenwörterbücher liegt. Wir stellen den Stand unserer Arbeit vor, einschließlich der detaillierten Konzeption und der laufenden Implementierung eines Data Dictionary Managers.;-;-;-;https://link.springer.com/chapter/10.1007/11575801_27 6384bad22ebf96b75ca8a927eeaf4590;de;;;6.1.;;;Redundanter paralleler Dateitransfer mit antizipativem rekursiv-anpassendem Schema in Datengrids Die Co-Allocation-Architektur wurde entwickelt, um das parallele Herunterladen von Datensätzen/Servern von ausgewählten Replikatservern zu ermöglichen, und die Bandbreitenleistung ist der Hauptfaktor, der die Internetübertragung zwischen dem Client und dem Server beeinflusst. Daher ist es wichtig, die Differenz der Endzeit zwischen den Replikatservern zu verringern und auch während der Übertragung eine sich ändernde Netzwerkleistung zu verwalten. In diesem Papier haben wir ein Antizipativ-rekursiv-anpassendes Co-Allocation-Schema vorgeschlagen, um die Arbeitslast jedes ausgewählten Replikatservers anzupassen, das nicht gewarnte unterschiedliche Netzwerkleistungen der ausgewählten Replikatserver handhabt. Der Algorithmus basiert auf der zuvor abgeschlossenen Rate der zugewiesenen Übertragungsgröße, um diesen Bandbreitenstatus im nächsten Abschnitt zum Anpassen der Arbeitslast zu antizipieren und weiter die Dateiübertragungszeit in einer Grid-Umgebung zu reduzieren. Unser Ansatz ist nützlich in einer instabilen Gird-Umgebung, die die verschwendete Leerlaufzeit für das Warten auf den langsamsten Server reduziert und die Abschlusszeit der Dateiübertragung verkürzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72905-1_22 0c274be3c2c8e220f2df2425a731b02d;de;;;6.1.;;;Analyse der Fähigkeiten von Managementanwendungen — II In diesem Kapitel wird die Analyse von Verwaltungsanwendungen fortgesetzt. Zwei Hauptkategorien werden analysiert: umgebungsspezifische Verwaltungsanwendungen und verteilte Dienstanwendungen. Umgebungsspezifische Anwendungen können in zwei Hauptgruppen unterteilt werden: netzwerkorientierte Verwaltungsanwendungen und systemorientierte Verwaltungsanwendungen. Jede dieser Gruppen enthält mehrere Arten von Anwendungen. Das Ziel dieses Kapitels besteht darin, alle Komponenten dieser Anwendungen zusammen mit den damit verbundenen Problemen zu identifizieren, wobei der Schwerpunkt auf Integrationsaspekten mit Plattformdiensten und anderen Verwaltungsanwendungen liegt. Die meisten Fähigkeiten werden in tabellarischer Form dargestellt, die leicht lesbar ist und zum Abhaken der Fähigkeiten verschiedener Anwendungen verwendet werden kann, die behaupten, die Anforderungen eines oder mehrerer Anwendungstypen zu erfüllen. Die vollständige Liste dieser Arten von Anwendungen ist in Abschnitt 13.1 enthalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-6299-3_14 1ed3866ebd47cddf45a96f8b7cf8b3a1;de;;;6.1.;;;Zeitgenössische Computertechnologien zur Verarbeitung großer räumlich-zeitlicher Daten Geographische Phänomene entwickeln sich in einer vierdimensionalen raumzeitlichen Welt. Um die geographischen Phänomene auf verschiedenen Skalen zu erfassen, werden große Datenmengen (Big Data) mit spezifischen raumzeitlichen Mustern erzeugt. Die Phänomenevolution und die Prinzipien, die die Evolution vorantreiben, bieten Wege für die Entwicklung methodischer Lösungen zur Verarbeitung der großen raumzeitlichen Daten. Basierend auf den Erfahrungen aus mehreren Projekten wie Klimastudien und Cloud Computing stellen wir in diesem Kapitel moderne Computertechnologien vor, die für die Verarbeitung von Big Data erforderlich sind, darunter (1) Sensor Web, Erdbeobachtung und Modellsimulationen zur Sammlung und Generierung von Big Data, (2) flexible und standardbasierte Systeme zur Verwaltung von Big Data für eine einfache Erkennung und einfachen Zugriff, (3) multidimensionale visuelle Analysen zur Untersuchung und Analyse großer räumlich-zeitlicher Daten und (4) Grid-, Cloud- und GPU-Computing zur Bewältigung der rechenintensiven Herausforderungen . Wir diskutieren anhand von Beispielprojekten, wie diese hochmodernen Computertechnologien genutzt werden, um große raumzeitliche Daten zu verarbeiten. Wir erwarten, dass dieses Kapitel einen Kontext für die Computerforschung für die zukünftige Handhabung von Big Data in unterschiedlichen raumzeitlichen Granula bildet.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-9205-9_18 714c890a6227054eb93b4cd286fc4e80;de;;;6.1.;;;Staatliche, städtische und lokale Programme zur Vermeidung von Umweltverschmutzung In den Vereinigten Staaten haben staatliche Umweltprogramme durch ihren direkten Kontakt mit der Industrie und das Bewusstsein für lokale Bedürfnisse einen einzigartigen Beitrag zur Vermeidung von Umweltverschmutzung (P2) geleistet. Die meisten staatlichen Programme konzentrieren sich darauf, Unternehmen durch Öffentlichkeitsarbeit und technische Hilfe in Sachen Umweltverschmutzung zu unterrichten. Auf diese Weise versuchten die Staaten, die Ethik der Umweltverschmutzung in der gesamten Geschäftswelt zu vermitteln. Viele Staaten haben verstärkte Anstrengungen unternommen, um die Vermeidung von Umweltverschmutzung in die staatlichen Umweltschutzprogramme und -umsetzungen zu integrieren. Zu den Initiativen gehörten die Schulung von staatlichen und regionalen Aufsichtsbehörden in der Vermeidung von Umweltverschmutzung, die Überprüfung staatlicher Vorschriften, um Hindernisse für die Vermeidung der Umweltverschmutzung zu identifizieren, die Erhöhung der Verweise vom Regulierungsprogramm auf das technische Hilfsprogramm und die Einbeziehung von Erwägungen zur Vermeidung von Umweltverschmutzung in Genehmigungen, Mitteilungen über Verstöße und Vergleichsvereinbarungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-03864-2_10 05c82c1dcfd55a1bb4359436404ca5a6;de;;;6.1.;;;Architektur der Gerätedatenintegration basierend auf der Data Middle-Plattform Dieses Papier schlägt eine Lösung für die Echtzeit-Datenintegration komplexer Geräte in einer Cloud-Computing-Umgebung vor, die Datenerfassung, Vorverarbeitung, Integration, Speicherung, intelligente Analysedienste und andere Lebenszyklusverwaltung umfasst. Zuerst analysiert es den Entwicklungsstand und die gravierenden Herausforderungen bei der Integration bestehender Gerätedaten, legt die Entwicklungsrichtung dar, dass Daten aus dem Geschäft kommen und auch dem Geschäft dienen werden, dann analysiert es die Vorteile der Data-Middle-Plattform in der Cloud-Computing-Datenverarbeitung, die Entwicklungsperspektive Edge-Computing integriert mit intelligenter Verarbeitung sowie die Schlüsseltechnologien der Kombination von Edge-Computing und Data-Middle-Plattform, schließlich nach Gerätemanagement. Entsprechend den Anwendungsanforderungen und Fusionsmerkmalen der Geschäfts- und Datenfusion wird das Entwurfsschema der Data-Middle-Plattform basierend auf Edge-Computing vorgeschlagen und die Architektur der Gerätedatenintegration basierend auf der Data-Middle-Plattform entworfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4572-0_192 22af446f379b9b49ca67f2c61a6ca674;de;;;6.1.;;;Ein Cloud-Manager-basiertes Neuverschlüsselungsschema für mobile Benutzer in einer Cloud-Umgebung: ein hybrider Ansatz Cloud Computing ist ein aufkommendes Computing-Paradigma, das den Endbenutzern bedarfsgerechte, flexible und elastische Rechen- und Speicherdienste bietet. Kleine und mittelständische Unternehmen mit begrenztem Budget können die skalierbaren Dienste der Cloud nutzen. Die Migration der Unternehmensdaten in die Cloud wirft jedoch Sicherheits- und Datenschutzprobleme auf. Um die Vertraulichkeit der Daten zu wahren, sollten die Daten mit einem Kryptografieverfahren verschlüsselt werden, das einen fein abgestimmten und effizienten Zugriff auf hochgeladene Daten bietet, ohne die Skalierbarkeit des Systems zu beeinträchtigen. In einer mobilen Cloud-Computing-Umgebung sollte das ausgewählte Schema rechensicher sein und muss die Fähigkeit haben, rechenintensive Sicherheitsoperationen auf die Cloud in einem vertrauenswürdigen Modus aufgrund der Ressourcenbeschränkung mobiler Geräte auszulagern. Die bestehenden Manager-basierten Neuverschlüsselungs- und Cloud-basierten Neuverschlüsselungsschemata sind rechentechnisch gesichert und in der Lage, die rechenintensiven Datenzugriffsvorgänge auf die vertrauenswürdige Entität/Cloud auszulagern. Trotz des Auslagerns der Datenzugriffsoperationen in managerbasierten Neuverschlüsselungs- und Cloud-basierten Neuverschlüsselungsschemata führt der mobile Benutzer immer noch rechenintensive paringbasierte Verschlüsselungs- und Entschlüsselungsoperationen unter Verwendung begrenzter Fähigkeiten des Mobilgeräts durch. In diesem Papier haben wir ein Cloud-Manager-basiertes Neuverschlüsselungsschema (CMReS) vorgeschlagen, das die Eigenschaften der managerbasierten Neuverschlüsselung und der Cloud-basierten Neuverschlüsselung kombiniert, um bessere Sicherheitsdienste mit minimalem Verarbeitungsaufwand für das mobile Gerät bereitzustellen . Die experimentellen Ergebnisse zeigen, dass das vorgeschlagene Cloud-Manager-basierte Neuverschlüsselungsschema eine signifikante Verbesserung der Durchlaufzeit, des Energieverbrauchs und der Ressourcennutzung auf dem mobilen Gerät im Vergleich zu bestehenden Neuverschlüsselungsschemas zeigt.;-;-;-;https://link.springer.com/article/10.1007/s10723-015-9352-9 42e47205d46df0e2d1e6396030410e62;de;;;6.1.;;;Anwendungen künstlicher Intelligenz für das Katastrophenmanagement Naturgefahren können katastrophale Schäden und erhebliche sozioökonomische Verluste verursachen. Die tatsächlich beobachteten Schäden und Verluste der letzten Jahrzehnte zeigen einen steigenden Trend. Infolgedessen müssen Katastrophenmanager eine wachsende Verantwortung übernehmen, um ihre Gemeinden proaktiv zu schützen, indem sie effiziente Managementstrategien entwickeln. Eine Reihe von Forschungsstudien wendet Techniken der künstlichen Intelligenz (KI) an, um katastrophenbezogene Daten zu verarbeiten, um ein informiertes Katastrophenmanagement zu unterstützen. Diese Studie bietet einen Überblick über die aktuellen Anwendungen von KI im Katastrophenmanagement während seiner vier Phasen: Mitigation, Vorbereitung, Reaktion und Wiederherstellung. Es präsentiert Beispielanwendungen verschiedener KI-Techniken und deren Vorteile zur Unterstützung des Katastrophenmanagements in verschiedenen Phasen sowie einige praktische KI-basierte Tools zur Entscheidungsunterstützung. Wir stellen fest, dass sich die meisten KI-Anwendungen auf die Phase der Katastrophenhilfe konzentrieren. Diese Studie identifiziert auch Herausforderungen, um die Fachwelt zu inspirieren, KI-Techniken zu entwickeln, um sie in der zukünftigen Forschung anzugehen.;-;-;-;https://link.springer.com/article/10.1007/s11069-020-04124-3 1890d82d040d1ab75680567a0eb96432;de;;;6.1.;;;Aufbau einer Smart Carbon Monitoring Platform für kleine Städte in China basierend auf dem Internet der Dinge Die rasante Entwicklung des Internets der Dinge hat den Bau von Smart Cities auf der ganzen Welt gefördert. Die Erforschung des CO2-Reduktionspfads basierend auf der Internet-of-Things-Technologie ist eine wichtige Richtung für die globale kohlenstoffarme Stadtforschung. Die Kohlendioxidemissionen in Kleinstädten sind in der Regel höher als in Groß- und Mittelstädten. Aufgrund der großen Unterschiede in der Datenumgebung zwischen Kleinstädten und Groß- und Mittelstädten, der schwachen Hardwarebasis des Internets der Dinge und der hohen Eingabekosten wurde der Aufbau einer Smart-Carbon-Monitoring-Plattform für Kleinstädte jedoch noch nicht durchgeführt ausgetragen. Dieses Papier schlägt eine intelligente CO2-Überwachungsplattform vor, die traditionelle CO2-Kontrollmethoden mit IoT-Technologie kombiniert. Es kann vorhandene Langzeitdaten korrigieren, indem es Echtzeitdaten verwendet, die vom Sensorgerät erfasst werden. Daher kann die dynamische Überwachung und Steuerung einer kohlenstoffarmen Entwicklung in kleinen Städten realisiert werden. Die Schlussfolgerung ist wie folgt zusammengefasst: (1) Intelligente thermoelektrische Systeme, industrielle Energieüberwachungssysteme und intelligente Verkehrssysteme sind die drei Kernsysteme der Überwachungsplattform. (2) Der anfängliche wirtschaftliche Aufwand der Monitoring-Plattform kann durch die Einrichtung von IoT-Identifikationsgeräten in Abteilungen und Unternehmen mit Datengrundlagen und die Auswahl von Stichproben durch Klassifikation und geschichtete Stichproben reduziert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63941-9_20 5c5453623efd5fca8750081083da1a7c;de;;;6.1.;;;Identifizierung der Awareness-Mechanismen für mobile kollaborative Anwendungen Die Komplexität der Modellierung kollaborativer Systeme wurde von der CSCW-Gemeinschaft allgemein anerkannt. Mobile kollaborative Anwendungen sind ein besonderer Fall dieser Systeme, bei denen die Designanforderungen und Einschränkungen noch komplexer sind als bei stationären Lösungen. Die Designkomplexität in mobilen Anwendungen nimmt zu, da die Mobilität die Interaktionsanforderungen nomadischer Benutzer und die Fähigkeiten der Geräte, die sie unterstützen, verändert. Folglich sollte auch die Awareness-Unterstützung dieser Systeme an den Kontext der nomadischen Nutzer angepasst werden. Dieser Artikel stellt eine Methode vor, die hilft, die Bewusstseinsmechanismen zu identifizieren, die von nomadischen Benutzern zur Unterstützung einer bestimmten Aktivität benötigt werden. Die Methode mit dem Namen Awareness Identification Method for Mobile Applications (AIMMA) schlägt spezielle Awareness-Komponenten vor, die in mobile kollaborative Anwendungen eingebettet sind und die Interaktionsmöglichkeiten der an einem kollaborativen Prozess beteiligten Benutzer erhöhen. AIMMA kann von Softwareentwicklern als Designrichtlinie verwendet werden. Dieser Artikel berichtet über die Ergebnisse eines Machbarkeitsnachweises, bei dem die vorgeschlagene Methode dabei half, geeignete Awareness-Mechanismen zu identifizieren, um die Zusammenarbeitsunterstützung einer mobilen Anwendung zu verbessern. Diese Methode könnte auch erweitert werden, um beispielsweise die Dienste zu identifizieren, die mobile Mitarbeiter benötigen, um ihre Interaktionen zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41347-6_18 ec265c82c089e18538f6c42555902f79;de;;;6.1.;;;Entwerfen einer „Concept of Operations“-Architektur für multiorganisationale Servicenetzwerke der nächsten Generation Vernetzte Serviceorganisationen verfolgen bei der Gestaltung agiler und kundenorientierter Liefermodelle zunehmend eine „Smarter Networking“-Philosophie. Das sich ändernde Verbraucherverhalten und das Aufkommen transformativer Technologien – Industrie 4.0, künstliche Intelligenz, Big Data Analytics, das Internet der Dinge – treiben eine Reihe von Innovationen in Bezug auf „Produkte“ und Geschäftsmodelle mit erheblichen Auswirkungen auf Industrieunternehmen, bei der Gestaltung von stärker „digitalisierten“ Lieferketten. Für B2B-Systeme erfordern aufkommende „Produkt-Service“-Angebote eine größere Sichtbarkeit, Ausrichtung und Integration über ein immer komplexer werdendes Netzwerk mehrerer Partner und Mitarbeiter, um einen besseren Service und ein besseres „Kundenerlebnis“ zu bieten. Um Design und Betrieb dieser multiorganisationalen Servicenetze zu unterstützen, skizzieren wir hier ein auf Literatur und Netztheorie untermauertes Konzept der Betriebsarchitektur und demonstrieren die Anwendung anhand einer Reihe beispielhafter Fallstudien. Die Fälle konzentrieren sich auf relationale Elemente und die Prozesse, die für die Netzwerkintegration innerhalb von Dienstleistungsnetzwerken von entscheidender Bedeutung sind, und informieren über eine Reihe von Betriebsprinzipien und Protokollen, die für alle Beteiligten in einer „gemeinsamen“ Umgebung anwendbar sind. Ebenso wichtig ist es zu verstehen, wie digitale Technologien zukünftige Betriebsphilosophien beeinflussen können. Dieser Artikel erweitert unser theoretisches Verständnis von Netzwerkorganisationen von einer traditionellen „Produkt“-Perspektive auf die von „Diensten“ und präsentiert Argumente für die Entwicklung eines gemeinsamen, einheitlichen Ansatzes für die Gestaltung unterschiedlicher Formen von Multi-Partner-Dienstleistungsnetzen.;-;-;-;https://link.springer.com/article/10.1007/s00146-016-0664-5 abf3c41627e67248d09f387ab7304e79;de;;;6.1.;;;Überlegungen zur Koordinierung und Verbindung von Brandschutz- und Lebenssicherheitssystemen Brandschutz- und Lebenssicherheitsstrategien für moderne Gebäude und Einrichtungen werden entwickelt, um spezifische Ziele zu erreichen, die von den relevanten Interessengruppen vereinbart wurden. Die wirksame Umsetzung solcher Strategien erfordert nicht nur eine solide Planung und Installation der relevanten Gebäudesysteme und -funktionen, sondern auch die ordnungsgemäße Integration und Koordination solcher Systeme und Funktionen. Der Gesamtprozess zur ordnungsgemäßen Integration und Koordinierung der anwendbaren Systeme erfordert oft erhebliche Anstrengungen und Konzentration, da die verschiedenen Systeme oft von verschiedenen Ingenieur- und Vertragsdisziplinen entworfen und installiert und von verschiedenen Durchsetzungsbehörden genehmigt werden. Daher ist es von entscheidender Bedeutung, dass der Integrations- und Koordinierungsprozess des Gebäudesystems während des gesamten Projekts angemessen berücksichtigt wird. Dieses Kapitel gibt einen Überblick über den Systemintegrations- und Koordinationsprozess während der Planung, Installation,;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4939-2565-0_49 fc603de98800a8070a78c9396eabe89a;de;;;6.1.;;;Einführung: Pädagogik in Analytics und Data Science Passend zum Thema „Exploring the Information Frontier“ der ICIS 2015 Konferenz suchte der Pre-ICIS Business Analytics Congress Workshop nach zukunftsweisender Forschung in den Bereichen Data Science, Business Intelligence, Analytics und Decision Support mit besonderem Fokus auf den Staat von Business Analytics aus der Perspektive von Organisationen, Lehrenden und Studierenden. Der Lehrpfad zielte darauf ab, umfassende Forschung oder laufende Forschung im Bereich Lehren und Lernen zu fördern, die Themen wie die Entwicklung von Lehrplänen für Geschäftsanalysen, pädagogische Innovationen, organisatorische Fallstudien, Übungsaufgaben und den Einsatz von Analysesoftware im Klassenzimmer anspricht. Diese Arbeit wurde in diesem Kapitel zusammengefasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-58097-5_16 3005ab3b1a90975451f058349f4e6681;de;;;6.1.;;;PRODNET-Koordinationsmodul Das in PRODNET II entwickelte Koordinationsmodell für die virtuelle Unternehmensinfrastruktur wird vorgestellt. Die wichtigsten Aspekte der Koordination werden diskutiert, wie Flexibilität und Konfigurierbarkeit, hierarchische Modelle, Ereignisse, Synchronisation, Schleifen und Zyklen usw. Die an der Koordinierung beteiligten Softwaremodule werden beschrieben: das Lokale Konfigurationsmodul und das Lokale Koordinierungsmodul. Es werden verwandte Arbeiten diskutiert und einige Hinweise für weitere Forschungen gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35577-1_10 8d8abda8f39d70d11a7d1cc9df9ff3ef;de;;;6.1.;;;Sollten Ökonomen Open-Source-Software für ihre Forschung verwenden? Wir durchsuchen die Literatur zur Genauigkeit ökonometrischer Software. Wir bewerten auch die Vorteile von Open-Source-Software unter dem Gesichtspunkt der Zuverlässigkeit und diskutieren ihr Potenzial in der angewandten Ökonomie, die jetzt vollständig von Computern abhängig ist. Als Fallstudie wenden wir verschiedene Genauigkeitstests auf GNU Regression, Econometrics and Time-series Library (gretl) an und zeigen, dass der Open-Source-Charakter des Programms es ermöglichte, die Ursache zu erkennen, eine schnelle Behebung zu ermöglichen und die Überprüfung der Korrektur einer Reihe von Fehlern, die wir aufgedeckt haben. Wir führen die gleichen Tests auch an vier weit verbreiteten proprietären ökonometrischen Paketen durch und beobachten die bekannten Genauigkeitsfehler, die mehr als 5 Jahre lang unkorrigiert blieben.;-;-;-;https://link.springer.com/article/10.1007/s10614-010-9204-4 553f59ca939ea9f20a44b72f7dcf8b09;de;;;6.1.;;;Herausforderungen und Lösungen für den Einsatz von Remote Study Monitoring in einem transkontinentalen Projekt In den letzten vier Jahren setzt Bayer in Europa und Übersee eher Remote Study Monitoring (RSM) als Remote Data Entry ein. Obwohl der Start mit RSM sicherlich Vorleistungen erfordert, hat sich Bayer entschieden, RSM bei der Entwicklung von Phase 2 und Phase 3 eines neuen Antiinfektivums einzusetzen. Der Antrag wurde in weniger als drei Jahren eingereicht und das Medikament (Avelox®) ist bereits auf dem Markt.;-;-;-;https://link.springer.com/article/10.1177/009286150003400117 96cf4b0b8ddc612874032400ff3f6260;de;;;6.1.;;;SparkRDF: In-Memory Distributed RDF Management Framework für große soziale Daten In Anbetracht der Skalierbarkeit und semantischen Anforderungen eignen sich Resource Description Framework (RDF) und die De-facto-Abfragesprache SPARQL gut für die Verwaltung und Abfrage von Online-Social-Network-(OSN)-Daten. Obwohl einige vorhandene Arbeiten ein verteiltes Framework für die Abfrage umfangreicher Daten eingeführt haben, ist die Verbesserung der Online-Abfrageleistung immer noch eine schwierige Aufgabe. Um dieses Problem anzugehen, schlägt dieses Papier ein skalierbares RDF-Daten-Framework vor, das einen Schlüssel-Wert-Speicher für die Offline-RDF-Speicherung und eine Pipeline-In-Memory-basierte Abfragestrategie verwendet. Das vorgeschlagene Framework unterstützt effizient SPARQL Basic Graph Pattern (BGP)-Abfragen bei großen Datensätzen. Experimente mit dem Benchmark-Datensatz zeigen, dass die Online-SPARQL-Abfrageleistung unseres Frameworks vorhandene verteilte RDF-Lösungen übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-21042-1_27 2c2e9d16d9ed08763cd738fc1f88db0c;de;;;6.1.;;;Koordination der sektorübergreifenden integrierten Jugendhilfe In diesem Kapitel beschreiben wir einen Fall, der Bosheit atmet, nämlich eine Politik, die sich auf den Umgang mit Komplexität und Fragmentierung im Jugendpflegesektor konzentriert. Die untersuchte Koordinierungspraxis ist ein politisches Programm, das darauf abzielt, eine „integrierte Jugendfürsorge“ (IJT) zu erreichen, die die Leistungserbringung für junge behinderte Menschen und ihre nächsten Angehörigen verbessert. Die Governance des IJT ist ein interessanter Fall für die Analyse, da sie eine gemischte horizontale und vertikale Koordinierungsstrategie beinhaltete, um Akteure aus mehreren Politikbereichen aufeinander abzustimmen, d. h. um eine gemeinsame Regierung innerhalb von Regierungsteilen zu erreichen. Ausgehend von einer Koordinationsperspektive analysieren wir, wie die flämische Regierung ein Governance-Modell entwickelt und implementiert hat, das die Zusammenarbeit betont. Die in diesem Kapitel beschriebene Koordinierungspraxis wurde speziell entwickelt, um eine stärker horizontale und vertikale Koordinierung zwischen allen relevanten Akteuren zu erreichen, um eine integrierte Dienstleistungserbringung für in Not geratene Jugendliche zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1057/9781137359636_11 7073c55cb6e0f98377453c31e0577ffe;de;;;6.1.;;;Aktivieren Sie Ihren Markeninhalt Nach vielen Monaten der Diskussion saß ich mit dem Senior Vice President of E-Commerce in den New Yorker Büros eines der weltweit größten Konsumgüterunternehmen (CPG) zusammen. Das Ziel des Treffens war herauszufinden, ob unsere Plattform (genannt Master Catalog) ihre Anforderungen an ein Produktinformationsmanagementsystem (PIM) erfüllen würde. Ihre Bilder, Videos, Produktbeschreibungen und anderen Markeninhaltsdateien wurden auf lokale Festplatten, Google Drive, Dateiserver und ältere Content-Management-Systeme verteilt. Es war überall – und nirgendwo.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-2805-0_5 f00881a3f6790bdce794ad888fd70b35;de;;;6.1.;;;Untersuchung von Datenschutzverletzungen zur Reaktion auf Vorfälle nach dem Gesetz zum Schutz personenbezogener Daten Die Verbreitung von Big Data entwickelt sich mit erheblichen Fortschritten, um in eine glorreiche Zukunft einzusteigen, aber die Verwundbarkeit personenbezogener Daten war schon immer eine Katastrophe für diesen Traum. Um das Vertrauen in Informationssysteme zu stärken, wird eine neuartige Untersuchung des Ansatzes zur Reaktion auf Vorfälle anhand eines Hacking-Ring-Falls in Taiwan evaluiert. Mit der Anleitung dieser Fallstudie können wir den normalen Informationsaustausch von der Verletzung der Privatsphäre im Internet unterscheiden. Die Verbesserung des Datenschutzes ist aufgrund seiner Neuheit und technologischen Weiterentwicklung eine verwirrende Aufgabe. Es wird davon ausgegangen, dass diese Studie die unklaren technologischen und sozialen Aspekte der Verbesserung des Datenschutzes klären wird. Die vorgeschlagenen Sicherheitsmaßnahmen können Einzelpersonen oder Organisationen das Risiko von Verletzungen ausschließen, es erleichtern, ihre Wurzeln zu beschneiden und ihr Fundament zu entfernen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40861-8_50 7621bc74598a35d330862c214b054728;de;;;6.1.;;;Entwicklung und Realisierung einer Produktkonfigurationsmanagement-Funktion im Mass Customization Die Produktkonfiguration in der Mass Customization spielt eine sehr wichtige Funktion bei der effektiven Verwaltung von Produktdaten, bei der vollen Nutzung vorhandener Ressourcen und bei der schnellen Realisierung kundenspezifischer Produkte. In diesem Artikel wird die Modellierung des Produktstruktursymbols und das Transformationsmodell mehrerer Ansichten der Produktstruktur beschrieben. Die Verwendung der azyklischen Graphversion implementiert die Version von Teilen und die Verwaltung des aktuellen Zustands. Der Autor gibt eine detaillierte Analyse der Entwicklung und Rolle verschiedener Konfigurationsregeln und veranschaulicht die Wirkungsweise von Konfigurationsregeln im Konfigurationssuchprozess. Die Datenintegration und der Datenaustausch zwischen Multisystemen und ein verstärktes Konfigurationsmanagement können durch die Verbesserung des Konfigurationsmanagementmodells und der Implementierung erreicht werden, wodurch die Unterstützung des Managements und der Unterstützung von Produktdaten und -informationen gestärkt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31698-2_109 8585912c8328f0956f2a252d6fc4728c;de;;;6.1.;;;Ein Ansatz der halbautomatischen öffentlichen Stimmungsanalyse für Meinung und Distrikt Die von Internetnutzern generierten Inhalte können in hohem Maße die öffentliche Meinung widerspiegeln, daher ist die Analyse dieser Inhalte für Regierungsbehörden sehr nützlich, um ihre öffentlichen Informationen, Propagandaprogramme und Entscheidungshilfen zu leiten. Aufgrund der Zivilisationsvielfalt und der wirtschaftlichen Unterschiede können die Internetnutzer, die in verschiedenen Bezirken leben oder arbeiten, unterschiedliche Ansichten zu demselben Thema oder Ereignis haben. Die Analyse der Stimmungsunterschiede verschiedener Bezirke wird Regierungsbehörden helfen, sachdienlichere Entscheidungen zu treffen. Aktuelle Forschungen in diesem Bereich haben jedoch die Meinungsverteilung auf verschiedene Bezirke weniger berücksichtigt. In diesem Papier schlagen wir einen Ansatz der halbautomatischen öffentlichen Stimmungsanalyse für Meinungen und Bezirke vor, der automatische Datenerfassung, Stimmungsmodellierung, Meinungsclustering und Bezirksclustering sowie manuelle Schwellenwerteinstellung und Ergebnisanalyse umfasst. Im Detail gruppieren wir einerseits die öffentliche Meinung mittels Clustering-Technik in einige Meinungscluster. Andererseits unterteilen wir anhand der Meinungscluster jedes Meinungscluster zum Bezirk weiter in Bezirksmeinungen und analysieren das Ergebnis. Die Versuchsergebnisse in Tencent-Kommentaren zeigen die Machbarkeit und Gültigkeit unseres Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28635-3_20 1a4d8cb23a8904c84074698e6c4973ae;de;;;6.1.;;;Das Fähigkeitsprofil der PLA Navy Das vorliegende Kapitel beschreibt den Entwicklungsstand, den die PLA Navy ab 2014 in Bezug auf die in den vorangegangenen Kapiteln skizzierten Kriterien erreicht hat. Anstatt einen rein numerischen Kräfte-Größen-Vergleich mit anderen Marinen anzustellen oder lediglich die aktuell im Einsatz befindliche Ausrüstung aufzulisten (wie es der Einfachheit halber oft getan wird), werde ich eine Reihe qualitativer Kriterien als Richtlinie für die Organisation und Bewertung der verfügbare Daten über den Stand der Marineentwicklung Chinas: Truppenstruktur (dh Flottengröße, Schiffstyp und Altersverteilungsmuster), technologische Faktoren, die die Kampffähigkeiten beeinflussen, die Hauptfunktion, die Hauptaufgabe und die Gesamtkompetenz der Marine sowie die Nachhaltigkeit der Flotte fleet durch Logistik, Wartung und Schulung. Diese Faktoren werden separat bewertet, wobei auf die in Kapitel beschriebenen heuristischen Werkzeuge zurückgegriffen wird;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-47127-2_5 e4d0de5692fd893a072b8f89fe5fe785;de;;;6.1.;;;Genetisches Wasserzeichen zum Schutz des Urheberrechts Anwendungen für robuste Wasserzeichen sind einer der Hauptzweige in Digital Rights Management (DRM)-Systemen. Basierend auf bestehenden Erfahrungen zur Bewertung, wie gut ein robustes Wasserzeichen ist, besteht allgemein Einigkeit darüber, dass drei Parameter oder Anforderungen, einschließlich der Qualität der mit Wasserzeichen versehenen Inhalte, der Überlebensfähigkeit des extrahierten Wasserzeichens nach absichtlichen oder unbeabsichtigten Angriffen und der Anzahl der eingebetteten Bits, in Betracht gezogen werden. Jedoch kollidieren die Leistungen in Bezug auf diese drei Parameter miteinander, und es muss nach einem Kompromiss gesucht werden. In diesem Kapitel berücksichtigen wir diese Anforderungen und finden die optimierte Kombination der drei Parameter. Mit Hilfe des genetischen Algorithmus entwerfen wir ein anwendbares System, das nach dem Wasserzeichen die gute Qualität, akzeptable Überlebensfähigkeit und angemessene Kapazität erreicht. Simulationsergebnisse zeigen die Effektivität in der praktischen Umsetzung und mögliche Anwendung des vorgeschlagenen Algorithmus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02335-4_1 b8f4c854d935117f4f9da2d8f84f386a;de;;;6.1.;;;Virtualisierung für Datenverwaltungsdienste Virtualisierung ist das Schlüsselkonzept zur Bereitstellung einer skalierbaren und flexiblen Computerumgebung im Allgemeinen. In diesem Kapitel konzentrieren wir uns auf Virtualisierungskonzepte im Kontext von Datenmanagementaufgaben. Wir überprüfen bestehende Konzepte und Technologien über mehrere Softwareschichten hinweg.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-6856-1_2 db4448f717a2720509d4ed1a471cb71e;de;;;6.1.;;;Datenharmonisierung im Kontext der europäischen Geodateninfrastruktur: Der HUMBOLDT-Projektrahmen und -Szenarien Harmonisierte Geoinformationen sind eine Grundvoraussetzung für die Erfüllung der Aufgabe, eine zuverlässige und effiziente Geodateninfrastruktur zu schaffen, die unterschiedliche Datenquellen und unterschiedliche Dienste zur Entdeckung, Darstellung und Abfrage von Geodaten als entscheidendes Gut verarbeitet. Auf europäischer Ebene folgt der Weg zu einer ESDI den Richtlinien der ISPIRE-Richtlinie der EG. Mit dem Ziel, einen Rahmen für die Harmonisierung von Daten und Diensten im Geoinformationsbereich zu implementieren, hat die Europäische Gemeinschaft die Entwicklung des HUMBOLDT-Projekts im Rahmen der INSPIRE-Richtlinie und im Kontext der GMES-Initiative unterstützt. Der zweigleisige Ansatz zur Geodatenharmonisierung von HUMBOLDT umfasst eine technische Seite der Framework-Entwicklung und eine Anwendungsseite von Szenariotests und -validierung. Dieses Papier bietet einen Überblick über den Harmonisierungsrahmen des HUMBOLDT-Projekts, ergänzt durch zwei kurze Anwendungsfälle basierend auf thematischen Szenarien des Projekts, einer zum Thema Schutzgebiete und der andere zu maritimen Anwendungsfällen. Das Schutzgebietsszenario zielt darauf ab, Geoinformationen, die von Parkbehörden verwaltet werden, in einen nahtlosen Fluss umzuwandeln, der mehrere Informationsquellen aus verschiedenen Regierungsebenen (europäisch, national, regional) kombiniert und diese neu kombinierten Informationen für Planungs-, Management- und Tourismusförderung. Ocean Scenario hingegen besteht im Wesentlichen aus einem zentral betriebenen Geoportal, das es den Benutzern ermöglicht, Informationen zu Ölverschmutzungen in 3 Regionen über europäischen Meeren anzuzeigen, wobei die HUMBOLDT-Framework-Komponenten verwendet werden und eine Gesamtdarstellungsschnittstelle bereitgestellt wird. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Beide Szenarien demonstrieren die Nützlichkeit und Möglichkeiten der Geodatenharmonisierung nach dem HUMBOLDT-Ansatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32714-8_12 e679fd28743470830ad38b28684dbe66;de;;;6.1.;;;Forschung zur Sicherheit der Benutzer-Privatsphäre von Chinas Top-Ten-Online-Spielplattformen Die den Benutzern von Online-Spielen vorgelegte Datenschutzvereinbarung ist die grundlegende Garantie für den Betrieb eines Online-Spiels. Eine Online-Spielplattform kann Zugriff auf die privaten Informationen der Benutzer haben, indem sie verschiedene obligatorische Klauseln setzt. In diesem Papier werden die zehn beliebtesten Online-Spieleplattformen in China der letzten Jahre als Beispiele herangezogen, um ihre Datenschutzklauseln anhand von Dokumentenanalysen und quantitativen Analysen zu analysieren. Die Forschungsergebnisse zeigen, dass es Lücken beim Schutz der privaten Informationen der Nutzer durch Online-Plattformen gibt, die Zugang und Nutzungsrechte erhalten haben. Auf dieser Grundlage trägt es zum Schutz der privaten Informationen der Benutzer bei, indem es das Informationssicherheitsschutzsystem von Online-Spielplattformen verbessert, die Option zur Verweigerung des Zugriffs auf Datenschutzinformationen im Prozess der Benutzerregistrierung hinzufügt und die den Benutzern zugewiesene Zeit obligatorisch verlängert um die Datenschutzbestimmungen zu lesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72802-1_12 67505c7a4822c619aee484391a14e5c0;de;;;6.1.;;;Einsatzmöglichkeiten von E-Government Entwicklungsherausforderungen, bewährte Verfahren und Zukunftsvisionen sollten dazu beitragen, die allgemeinen Ziele der Reformen und der Transformation des öffentlichen Sektors zu definieren. Reformziele wiederum sollten den Transformationsprozess und den Einsatz von Informationstechnologie leiten, um diese Transformation zu ermöglichen. Visionen sollen die Koalitionsbildung unterstützen und die Nachfrage nach Reformen mobilisieren. Durch die Ableitung der IKT-Nutzung aus den Reformzielen des öffentlichen Sektors können Regierungen angebotsorientierte Ansätze vermeiden und die Abstimmung zwischen IKT-Investitionen und Reform- und Entwicklungszielen des öffentlichen Sektors fördern.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-1506-1_4 e6af75bb32cbec42baaf5061b9fe759e;de;;;6.1.;;;PDA-basiertes persönliches Asthma-Management-System Das Selbstmanagement des chronischen Asthmas ist von großer Bedeutung, da die Krankheit den Patienten in eine Notfallsituation führen könnte. In der vorliegenden Studie beschreiben wir das Design und die Implementierung eines auf einem Personal Digital Assistant (PDA) basierenden Asthma-Management-Systems für die persönliche Anwendung, einschließlich Symptomen und Medikamenten, um eine potenzielle Exazerbation der Krankheit zu verhindern. Das Softwareprogramm wurde mit dem Tool Visual C++ in der mobilen Computerumgebung geschrieben und Object Store wurde für die Datenverwaltung verwendet. Eine benutzerfreundliche GUI-Umgebung wurde für den Patienten bereitgestellt, um seinen/ihren täglichen Zustand und seine Selbstbehandlung wie Medikamente für eine erfolgreiche Behandlung einzugeben. Das Design des Eingabebildschirms ersetzte die Tastatureingabe mit einer Maus, um ein Element leicht auszuwählen und die Tastatureingabe zu minimieren. Die Implementierungsergebnisse dieses Systems., Echtzeit-Datenerfassung und -prozess waren möglich und konnten effektiv durchgeführt werden, ein kontinuierliches Symptom, eine Medikation von Asthmapatienten, Risikomanagement.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36841-0_1034 45896f4586a031aad0a2178259ab53c1;de;;;6.1.;;;Effiziente Verarbeitung von Kundentransaktionen in Echtzeit In herkömmlichen Client-Server-Datenbanken müssen eine Transaktion und ihre erforderlichen Daten an einem einzigen Standort zusammengeführt werden, damit die Operation fortgesetzt werden kann. Dies wurde normalerweise erreicht, indem entweder die Daten oder die Transaktion verschoben wurden. Die Verfügbarkeit von Netzwerkoptionen mit hoher Bandbreite hat jedoch dazu geführt, dass Benutzer heutiger Systeme Echtzeitgarantien bezüglich der Ausführungszeit ihrer Aufgaben erwarten. Um solche Garantien in einem Client-Server-Datenbanksystem anzubieten, sollte eine Transaktion mit allen Mitteln verarbeitet werden, die es ihr ermöglichen, ihre Frist einzuhalten. Zu diesem Zweck prüfen wir die Möglichkeit, sowohl Transaktionen als auch Daten für einen erfolgreichen Abschluss auf die vielversprechendsten Websites zu verschieben. Wir schlagen ein Load-Sharing-Framework vor, das den Versand von Daten und Transaktionen überwacht, um die Effizienz eines Clusters, bestehend aus einem Server und einer Reihe von Clients, zu erhöhen. Hier wird Effizienz als der Prozentsatz der Transaktionen definiert, die innerhalb ihrer Fristen vom Cluster erfolgreich abgeschlossen wurden. Die Eignung eines Clients zur Verarbeitung einer Transaktion wird in Bezug auf die Verfügbarkeit der erforderlichen Daten der Transaktion in seinem lokalen Cache gemessen. Zusätzlich zum Load-Sharing-Algorithmus verwenden wir das Konzept der gruppierten Sperren zusammen mit Transaktionsfristinformationen, um die Bewegung von Datenobjekten im Cluster effizienter zu planen. Wir evaluieren die Echtzeit-Verarbeitungsleistung der Client-Server-Architektur mit detaillierten experimentellen Testbeds. Unsere Auswertung zeigt, dass es in vielen Situationen möglich ist, eine bessere Leistung als ein zentralisiertes System zu erzielen.;-;-;-;https://link.springer.com/article/10.1023/B%3ADAPD.0000045367.53244.c1 cc68c86ade2274db9f6ce05981199c1c;de;;;6.1.;;;Diskussionen zum Bau des Digitalen Campus in den Fachhochschulen Der Bau eines digitalen Campus ist für die höheren Berufsschulen von großer Bedeutung, um die beherrschenden Höhen der Bildungsinformatisierung zu erreichen und die sprunghafte Entwicklung der höheren Berufsbildung zu realisieren. In Kombination mit der aktuellen Situation beim Bau des digitalen Campus des Changzhou College of Information Technology diskutierte der Autor die relevanten Fragen und Angelegenheiten, die beim Bau beachtet werden müssen, und legte einige neue Ideen und Gesamtpläne für den Bau vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3648-5_87 eef932dfa84278bdf6cc82f96eabdcac;de;;;6.1.;;;Wasserressourcen für ein nachhaltiges Chiang Mai Das ultimative Ziel der Studie war es, die menschliche Störung in einem städtischen System zu bewerten und valide Informationen für eine nachhaltige Stadtplanung bereitzustellen. In diesem Kapitel werden aktuelle Hauptprobleme in Chiang Mai, Thailand, in Bezug auf Wasserangebot und -nachfrage, Abwassermanagement und Wasserqualität aufgezeigt. Bestehende institutionelle und staatliche Strukturen im Hinblick auf eine umweltverträgliche Entwicklung werden analysiert, um Akteure in der nachhaltigen Stadtplanung und -entwicklung zu identifizieren. Felddaten zeigen, dass die Qualität des Oberflächenwassers durch die Urbanisierung von Chiang Mai negativ beeinflusst wurde. Das Kapitel untersucht die Natur der Degradation von Stadtbächen und die Beziehungen zwischen dieser Degradation und spezifischen städtischen Aktivitäten oder „menschlichen Faktoren“. Derzeit reagiert die Wasserversorgung nur auf die Nachfrage aus der Landentwicklung. Es gibt keinen Gesamtplan, um die Entwicklung zu lenken. Die Autoren empfehlen der Gemeinde Chiang Mai, ein Wasserqualitätsüberwachungssystem einzurichten, die Wasserversorgungsplanung und das Wasserqualitätsmanagement in die Landnutzungsplanung zu integrieren und GIS zum Austausch von Daten und zur Unterstützung der Entscheidungsfindung zu verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-2170-7_9 a7f5731cf9c1342b2e9a7160001bd486;de;;;6.1.;;;Ein transaktionales asynchrones Replikationsschema für mobile Datenbanksysteme In mobilen Datenbanksystemen hat die Mobilität der Benutzer einen erheblichen Einfluss auf die Datenreplikation. Infolgedessen sind die verschiedenen Replikatkontrollprotokolle, die heute in traditionellen verteilten und Multidatenbankumgebungen existieren, nicht mehr geeignet. Um dieses Problem zu lösen, wird in diesem Beitrag ein neues mobiles Datenbankreplikationsschema, das Transaction-Level Result-Set Propagation (TLRSP)-Modell, vorgestellt. Die auf TLRSP basierende Konflikterkennungs- und -lösungsstrategie wird ausführlich diskutiert und der Implementierungsalgorithmus vorgeschlagen. Um die Leistung des TLRSP-Modells mit der anderer mobiler Replikationsschemata zu vergleichen, haben wir ein detailliertes Simulationsmodell entwickelt. Experimentelle Ergebnisse zeigen, dass das TLRSP-Modell eine effiziente Unterstützung für replizierte mobile Datenbanksysteme bietet, indem es den Wiederverarbeitungsaufwand reduziert und die Datenbankkonsistenz aufrechterhält.;-;-;-;https://link.springer.com/article/10.1007/BF02943279 d177191829ab4aeb9ad5c0af7666f725;de;;;6.1.;;;Ein Jahrzehnt der Überwachung von HIV-Epidemien in Nigeria: Positionierung für die Post-2015-Agenda Nigeria macht 9% der weltweiten HIV-Belastung aus und hat die Millenniums-Entwicklungsziele sowie die Ziele für nachhaltige Entwicklung nach 2015 unterzeichnet. In diesem Papier werden die Reifung ihres HIV-M&E-Systems und die Bereitschaft zur Überwachung der Post-2015-Agenda untersucht.;-;-;-;https://link.springer.com/article/10.1007/s10461-016-1603-7 f0ec281e9534650eeb7e3ee8ae206d76;de;;;6.1.;;;DICOM für die klinische Forschung: PACS-integrierte elektronische Datenerfassung in multizentrischen Studien Als Ersatz-Endpunkte in klinischen Studien hat die medizinische Bildgebung in der menschzentrierten Forschung zunehmend an Bedeutung gewonnen. Heutzutage werden elektronische Datenerfassungssysteme (EDCS) verwendet, aber binäre Bilddaten werden nur unzureichend integriert. Es gibt keinen strukturierten Weg, weder digitale Bildgebungs- und Kommunikationsdaten in der Medizin (DICOM) im EDCS zu verwalten noch EDCS mit Bildarchivierungs- und Kommunikationssystemen (PACS) zu verbinden. Manuelle Umwege im Testworkflow führen zu Fehlern, Verzögerungen und Kosten. In diesem Beitrag werden Anforderungen an eine DICOM-basierte Systemvernetzung von EDCS und Forschungs-PACS analysiert. Es werden mehrere Workflow-Architekturen verglichen. Optimiert für multizentrische Studien schlagen wir eine vollständig webbasierte Lösung vor, die EDCS, PACS und DICOM-Viewer integriert und mit den Open-Source-Projekten OpenClinica, DCM4CHEE bzw. Weasis implementiert wurde. Das EDCS bildet den primären Zugangspunkt. Der Austausch von EDCS zu PACS ist nahtlos auf Daten- und Kontextebene integriert. DICOM-Daten werden direkt aus dem elektronischen Fallberichtsformular (eCRF) angezeigt, während die PACS-basierte Verwaltung dem Benutzer verborgen bleibt. Der Datenschutz wird durch automatische Anonymisierung und Umetikettierung mit Studienkennungen gewährleistet. Unser Konzept wird anhand einer Vielzahl von 13 DICOM-Modalitäten und Übertragungssyntaxen evaluiert. Wir haben das System in einer laufenden Investigator-Initiated Trial (IIT) implementiert, in der bisher fünf Zentren 24 Patienten rekrutiert haben und ein dezentrales Computertomographie-Screening (CT) durchgeführt haben. Mit unserem System liest der Leitende Radiologe DICOM-Daten direkt aus dem eCRF. Fehler und Workflow-Bearbeitungszeit werden reduziert. Darüber hinaus wird eine Bilddatenbank aufgebaut, die zukünftige Forschungen unterstützen kann.;-;-;-;https://link.springer.com/article/10.1007/s10278-015-9802-8 cf9af39e9b75521cb6909fbebf2374e0;de;;;6.1.;;;Eine Tablet-PC-Anwendung für den Individual Family Service Plan (IFSP) Im Jahr 2000 wurden bei etwa 2 % der Kinder von der Geburt bis zum Alter von 2 Jahren Behinderungen festgestellt. Es ist wichtig, jedem Kind wirksame Interventionsdienste zu bieten. Kinder mit Behinderungen von der Geburt bis zum Alter von 3 Jahren, die Frühförderungsdienste erhalten, haben einen individualisierten Familiendienstplan (IFSP). In einigen Frühinterventionsprogrammen der Gemeinde werden IFSP-Daten gesammelt und in Papierform gespeichert, was den effizienten Abruf von Informationen erschwert. Informationstechnologiestrategien könnten diese Probleme angehen und so die Effizienz des Informationsmanagements verbessern. In diesem Artikel werden eine Analyse der Benutzeranforderungen, das Design und die Entwicklung einer Tablet-PC-Computeranwendung zum Sammeln von IFSP-Daten für Kleinkinder in Milwaukee, Wisconsin, erörtert. Ein früher Prototyp für die Tablet-PC-Computeranwendung für das IFSP wurde erfolgreich entwickelt und eine vorläufige Evaluierung bei zwei Frühinterventionsprogrammen durchgeführt.;-;-;-;https://link.springer.com/article/10.1007/s10916-007-9095-7 881c5fc313d07a948f597afbf537d5fa;de;;;6.1.;;;Ein effizienter Modellierungsansatz für Echtzeit-Überwachungssysteme mit Metadatenhierarchie Ein Echtzeit-Datenzugriff eines Überwachungssystems ist für die Bewertung seiner Fähigkeit zur Interaktion mit realen Umgebungen erforderlich. Basierend auf der Metadatenhierarchie wird dem Echtzeit-Überwachungssystem ein neuartiges Datenorganisations- und Zugriffsmodell (NDOAM) präsentiert. Dieses Modell nutzt die Echtzeit-Datenbank im Hauptspeicher und bildet die Sensordaten für den Gerätestatus ab. Das Modell muss nur eine geringe Menge an Informationen verwalten, und die Frontanwendung könnte mit dem Metadaten-Mapping schnell auf Echtzeit- und historische Daten zugreifen. Gleichzeitig ist die Komplexität des Datenmapping-Prozesses recht gering. Simulationsergebnisse zeigen, dass das Modell die Leistung des Datenzugriffs verbessert und die Anzahl der E/A signifikant verringert. Im Vergleich zum traditionellen Datenorganisations- und Zugriffsmodell (TDOAM) zeigt es, dass das Modell die verteilte Umgebung und die offenen Industriestandards aktiv unterstützt und sich im Vergleich zu den bestehenden Modellen gut auf die Umgebung großer Echtzeit-Datenobjekte auswirkt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-4856-2_37 b072ba1d8c39b161c6a0df3824b6bba3;de;;;6.1.;;;Leistungsbewertung von Unified Memory mit Prefetching und Oversubscription für ausgewählte parallele CUDA-Anwendungen auf NVIDIA Pascal- und Volta-GPUs Das Papier präsentiert eine Bewertung der Unified Memory-Leistung mit Datenvorabruf und Speicherüberbelegung. Es werden mehrere Codeversionen verwendet mit: Standardspeicherverwaltung, Standard Unified Memory und optimiertem Unified Memory mit programmierergestütztem Datenvorabruf. Die Auswertung der Ausführungszeiten wird für vier Anwendungen bereitgestellt: Sobel- und Bildrotationsfilter, Stream-Bildverarbeitung und numerische Strömungssimulation, ausgeführt auf GPUs mit Pascal- und Volta-Architektur – NVIDIA GTX 1080 und NVIDIA V100-Karten. Darüber hinaus prüfen wir die Möglichkeit, mehr Speicher zuzuweisen, als auf GPUs verfügbar ist, und bewerten die Leistung von Codes mithilfe der drei oben genannten Implementierungen, einschließlich der in CUDA verfügbaren Speicherüberbelegung. Die Ergebnisse dienen als Empfehlungen und Hinweise für andere ähnliche Codes in Bezug auf die erwartete Leistung auf modernen und bereits weit verbreiteten GPUs.;-;-;-;https://link.springer.com/article/10.1007/s11227-019-02966-8 0d4589cabb6889ed59c10bc183f9004a;de;;;6.1.;;;Visualisierung der Labormaus: Erfassung von Phänotypinformationen Eine konzertierte Anstrengung zur Entwicklung unzähliger neuer phänotypischer Allele durch Mutagenese-Programme stellt die biomedizinische Gemeinschaft und die zur Unterstützung dieser Arbeit erforderliche Informatik-Infrastruktur vor neue Herausforderungen. Um umfangreiche Behandlungs-, Zucht- und sequentielle oder Längsschnitttests für eine Vielzahl offensichtlicher und subtiler Merkmale abzuwickeln und zu koordinieren, ist eine ausgeklügelte Datenverwaltungssoftware erforderlich. Darüber hinaus müssen Merkmalsanalysen, Vererbungstests sowie die Verfügbarkeit und der Status von Tieren erfasst und an die breitere Gemeinschaft weitergegeben werden. Die Mouse Genome Database (MGD) wird als zentraler Integrationspunkt für die verschiedenen Mutageneseprogramme dienen, neue Allele registrieren, Zugangsidentifikatoren bereitstellen und phänotypische Beschreibungen erfassen. Darüber hinaus wird MGD den öffentlichen Zugang zu einer einheitlichen Suche über alle Allele mit Links zu den Herkunftszentren für detaillierte Testdaten bereitstellen.;-;-;-;https://link.springer.com/article/10.1007/s10709-004-1435-7 da1c039a8ec4fa188885a4f6457c10a9;de;;;6.1.;;;Mining von Assoziationsregeln zum Schutz der Privatsphäre in einer Umgebung mit verteilten Datenbanken: Ein Rückblick Die Forschung in diesem Papier analysiert die Herkunft der erzeugten und als Big Data behandelten Daten und diskutiert die Hypothese über den Konflikt, der durch das Management des Datenschutzes erzeugt wird. Es basiert auf einem Modell zur Identifizierung der Managementpraktiken und -ressourcen, die sich aus der Integration von Richtlinien, Normen, Standards und vertraglichen Verpflichtungen ergeben, die für die Sicherheit personenbezogener Daten und die Schaffung von Vertrauen in die Umwelt relevanter sind. Die Feldstudie zeigt die Bedeutung und Dringlichkeit dieses Themas, da Innovationen in der Unternehmensführung, der Bereitstellung öffentlicher Dienstleistungen und der Gestaltung und Umsetzung regionaler Entwicklungspolitiken erforderlich sind. Durch seine Schlussfolgerungen wird bewiesen, dass es eines intelligenten Managements bedarf, um den Kurs in Bezug auf das Auffinden und Erkennen von Mustern, Zusammenhängen und die Formulierung von Modellen aus diesen gigantischen Datenbanken zu korrigieren. Diese Arbeit präsentiert ein generisches Modell für das Management der Privatsphäre in der Cloud von riesigen Datenmengen. Die Auswirkungen des Datenschutzes werden analysiert, Risiken identifiziert und von Standards bereitgestellte Lösungen untersucht, um Kontrollen zu entwickeln, die in ein Modell integriert werden können, um die Schritte festzulegen, damit jede Art von öffentlicher oder privater Organisation die organisatorischen Auswirkungen ihrer Produkte überprüfen kann. Prozesse oder Dienstleistung bei der Erfüllung ihrer strategischen Ziele.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4788-5_12 1cf05c824e5d2ba0ae483cab83b3b6c9;de;;;6.1.;;;Einfluss künstlicher Intelligenz auf Aktivitäten und Wettbewerbsfähigkeit einer Organisation Das vorangegangene Kapitel widmete sich den wichtigsten Konzepten, Methoden und Technologien der Künstlichen Intelligenz (KI). Dies gibt Anlass für die Darstellung des Einflusses, den diese Systeme auf die heutigen Organisationen und Märkte haben könnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-91596-8_3 6afe0be8f6afec44f94396194e20a5bb;de;;;6.1.;;;Virtuelle Umgebungen – der umweltfreundliche Ansatz für das Produktdesign? Der Einsatz von virtuellen Umgebungen und Rapid Prototyping in der Produktentwicklung nimmt rasant zu, wobei mittlerweile in den unterschiedlichsten Produktbereichen geforscht wird. Dieses Papier konzentriert sich auf einige der virtuellen Technologien und Anwendungen, die angewendet wurden und derzeit sowohl in Forschungslabors als auch in der Industrie verwendet werden. Es wird auch die Schlüsselfragen hervorheben, die nach Ansicht des Autors erforscht werden sollten, um die effektive Gestaltung umweltfreundlicher Produkte zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-2933-0_5 1840def8c9f76a043f001aa17be9ecff;de;;;6.1.;;;Die Proteindatenbank, 1999– 1998 übernahmen Mitglieder des Forschungsverbundes für Strukturelle Bioinformatik die Leitung des Archivs der Proteindatenbank. In diesem Kapitel werden die Systeme beschrieben, die für die Hinterlegung, Annotation und Verteilung der Daten im Archiv verwendet werden. Dieses Kapitel ist auch erhältlich als;-;-;-;https://link.springer.com/referenceworkentry/10.1107/97809553602060000722 c7559fd07fb7a56d6b3b6e118c0fc377;de;;;6.1.;;;Vorbereitung vor der Abreise Dieses Kapitel enthält Anleitungen zur Vorbereitung der Abreise. Die persönliche Vorbereitung vor der Abreise wird oft als episodisch, ad hoc und außergewöhnlich wahrgenommen. Es sollte kontinuierlich, iterativ und routinemäßig sein. Detaillierte Kernpakete und Aufgabenlisten sind von entscheidender Bedeutung. Der Aufwand, solche Listen zu erstellen, zahlt sich aus – weniger Packfehler, weniger Stress und mehr Vertrautheit mit der Ausrüstung. Sie kennen Ihre Ausrüstung nicht wirklich, bis Sie ihre Funktionen und Fehler kennen und sie im Dunkeln, in der Kälte und in Eile finden können. Eine disziplinierte persönliche Vorbereitung verleiht dem Anbieter diese Fähigkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-69871-7_1 980b39368ae1c33336c38effb5e01a18;de;;;6.1.;;;EFFIZIENTES STRICHCODE-WASSERZEICHENSYSTEM ZUM SCHUTZ VON LANDWIRTSCHAFTLICHEN PRODUKTEN INFORMATIONEN UNDURHEBERRECHTE Um Informationen über landwirtschaftliche Produkte und das Urheberrecht zu schützen, schlägt dieses Papier ein effizientes Strichcode-Wasserzeichensystem mit digitaler Signatur vor. Das vorgeschlagene System verwendet eine digitale Signatur, um einen Käufer vor nicht autorisierten Kopien und einen Verkäufer vor gefälschten nicht autorisierten Kopien zu schützen. Das vorgeschlagene System codiert auch die Unterschrift mit Strichcode und bettet das Strichcodebild in das Originalbild ein. Solange die Ähnlichkeit der Wasserzeichenauszüge aus dem beschädigten Bild einen Schwellenwert überschreitet, kann die Signatur vollständig wiederhergestellt werden. Es ist eine neue Idee, das Strichcode-Konzept in ein Wasserzeichensystem zu integrieren, um Informationen über landwirtschaftliche Produkte und das Urheberrecht zu schützen. Detaillierte Simulationsergebnisse zeigen, dass das vorgeschlagene System viel bessere Ergebnisse erzielt als das mit Fehlerkorrekturcodeschema und beweisen, dass das vorgeschlagene System landwirtschaftliche Produktinformationen und Urheberrechte effektiv schützen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-0213-9_14 4b75da99ad873c66b6d16da267b44f31;de;;;6.1.;;;Die Lücke zwischen Politik und Praxis: Beschreibung von Diskrepanzen zwischen der Regulierung auf Papier und der Praxis in spezialisierten Drogerien in Kenia Specialized Drug Shops (SDB) sind in Subsahara-Afrika beliebt, weil sie bequemen Zugang zu Medikamenten bieten. Es besteht ein zunehmendes Interesse daran, wie politische Entscheidungsträger mit ihnen zusammenarbeiten können, aber wenig Wissen darüber, wie ihre Arbeitsweise mit den rechtlichen Rahmenbedingungen zusammenhängt. Ziel dieser Studie war es, Merkmale und Prädiktoren der Regulierungspraxis bei SDB in Kenia zu beschreiben.;-;-;-;https://link.springer.com/article/10.1186/1472-6963-14-394 82cf04a1a74aebc6a2ac6667491f6c75;de;;;6.1.;;;Digitales Modellock Die Produktentwicklung in der Mobilitätsbranche ist geprägt von extremer Time-to-Market, hoher Produktkomplexität, Kostendruck und vielen geografisch verteilten Stakeholdern. Somit sind effiziente Kontrollmechanismen notwendig, um ein scheinbar unüberschaubares Projekt erfolgreich zu managen und einen starken Abschluss zu erreichen. Digital Mock-up (DMU) dient als zentrales Validierungsinstrument in einem solch komplexen Szenario nicht nur der räumlichen Visualisierung des aktuellen Zustands des virtuellen Produkts, sondern auch der Bewertung des Projektfortschritts. In Verbindung mit einer variantenreichen Produktstruktur, wie sie in modernen Fahrzeugen der Fall ist, ermöglicht der Einsatz von DMU die Prüfung der räumlichen Durchgängigkeit des Gesamtprodukts und übernimmt das, was heutige CAD- und PDM-Systeme allein nicht leisten können. Unter Berücksichtigung der Funktion des Produkts entsteht die sogenannte funktionale DMU (FDMU), die das direkte Erleben von Funktionen am virtuellen Modell im Gesamtkontext des Produkts ermöglichen soll. Während DMU eine visuell übersichtliche Benutzeroberfläche zur Steuerung bietet, lassen sich DMU-Erstellung, Berechnung und Prozesse gut automatisieren, sodass die räumliche Prüfung (Kollisionsprüfung, Montageprüfung) für alle denkbaren Produktvarianten in der Nacht im Batch durchgeführt werden kann. Dennoch ist zur Lösung von Designkonflikten weiterhin menschliches Eingreifen erforderlich. Obwohl noch nicht alle aktuellen Probleme im Kontext von DMU gelöst sind, bieten führende PLM-Anbieter leistungsstarke Tools zur Unterstützung des DMU-Prozesses an. Aufgrund seiner zentralen Rolle im Entwicklungsprozess wird DMU intensiv geforscht und entwickelt, um den Prozess zu beschleunigen und die Genauigkeit zu erhöhen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13776-6_13 d9f1b533e29c220fc0f8cd221c85d735;de;;;6.1.;;;Zusammensetzungsanalyse kohärenter Nanoinsertionen von Mischkristallen auf Basis von hochauflösenden elektronenmikroskopischen Aufnahmen Es wird ein Programmpaket vorgestellt, das schnelle direkte und inverse Fourier-Transformationen von Bildern, verschiedene Methoden der Rauschfilterung und Verwendung von Spektralfenstern sowie die Bestimmung lokaler interplanarer Abstände (LIS) aus hochauflösenden elektronenmikroskopischen Querschnittsaufnahmen gewährleistet. Der Algorithmus zum Bestimmen des LIS besteht darin, durch doppelte schnelle Fourier-Transformation ein hochauflösendes Bild zu erhalten, das durch Auswahl einer geeigneten Kombination von Reflexionen gefiltert und dieses Bild verwendet wird, um das charakteristische LIS zu finden. Ein besonderes Merkmal dieses Algorithmus besteht darin, dass er eine Gewichtung mit Korrektur des Integrationsbereichs verwendet. Die resultierenden Karten von LIS können verwendet werden, um die chemische Zusammensetzung zu bestimmen, z. B. in substituierten festen Lösungen wie A;-;-;-;https://link.springer.com/article/10.1134/1.1356160 692ff36c5c9ab09e664e70768866e16f;de;;;6.1.;;;Datenschutz und Sicherheit von Big Data in Cyber-Physical-Systemen mit Weibull-Verteilungs-basierter Intrusion Detection Das Datenvolumen, das von Cyber-Physischen Systemen (CPS) gesammelt wird, ist riesig, und wir verwenden Big-Data-Techniken, um die Daten zu verwalten und zu speichern. Big Data in CPS befasst sich mit den massiven heterogenen Datenströmen, die aus autonomen Quellen gewonnen und in verteilten Datenspeichersystemen berechnet werden. Um die Größe, Komplexität und Verfügbarkeit von Daten zu bewältigen, sind neue Techniken erforderlich, die nützliches Wissen aus großen Informationsströmen untersuchen und interpretieren können, was das Design und das Management von CPS in vielerlei Hinsicht wie Leistung, Energie vor Herausforderungen stellt Effizienz, Sicherheit, Datenschutz, Zuverlässigkeit, Nachhaltigkeit, Fehlertoleranz, Skalierbarkeit und Flexibilität. Dieses Papier konzentriert sich auf die Sicherheits- und Datenschutzaspekte bei der Verwaltung von Big Data für CPS und befasst sich mit den jüngsten Herausforderungen beim Datenschutz. Darüber hinaus präsentieren wir ein Schutz-Framework zur Intrusion Detection und analysieren die Leistungsparameter, Zuverlässigkeit und Ausfallrate in einem bösartigen Big-Data-Kontext.;-;-;-;https://link.springer.com/article/10.1007/s00521-018-3635-6 0f04aef1c98ba21ef5d42f64edbff789;de;;;6.1.;;;Eisenbahnzug-Arbeitsplan-Plansystem Der Forschungshintergrund und die Bedeutung des Plansystems für Zugarbeitsdiagramme werden vorgestellt, und es wird ein Systemforschungsprozess mit sechs Phasen vorgeschlagen, und es wird darauf hingewiesen, dass sich die Forschung des Zugarbeitsdiagrammplanungssystems derzeit in der fünften Phase befindet. Anschließend wird das derzeit entwickelte Zugarbeitsdiagramm-System 4.0 vorgestellt und die Wirkung des Systems vorgeschlagen. Darüber hinaus werden die Schlüsseltechnologie des Systems und die wichtigsten Innovationen analysiert, einschließlich des einheitlichen Algorithmus, der sowohl für Einzellinien als auch für Doppellinien gilt, das allgemeine Datenmodell und die computergestützte kooperative Arbeitsmethode für das Zugarbeitsdiagrammplansystem. Basierend auf dem sich ständig ändernden Schienennetzbau- und Transportmarktumfeld werden dann die Herausforderungen der Hochgeschwindigkeits-Schienentransportorganisation und der Gütertransportorganisation auf Basis von Grenzlieferzeiten analysiert. Abschließend werden Forschungsperspektiven des Systems vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-70730-3_8 766ddac81a771944be6ae7606f08e418;de;;;6.1.;;;Ein semantikbasierter Ansatz für das Datenmanagement in einem P2P-System Das Datenmanagement in P2P-Systemen ist aufgrund der hohen Anzahl autonomer und heterogener Peers ein herausforderndes Problem. In einigen Peer-Datenverwaltungssystemen (PDMSs) werden Peers semantisch im Overlay-Netzwerk geclustert. Ein dem System beitretender Peer wird einem geeigneten Cluster zugewiesen, und eine von einem Benutzer bei einem gegebenen Peer ausgegebene Anfrage wird an semantische Nachbarcluster geleitet, die relevante Antworten liefern können. Um die Sache zu erleichtern, wurde semantisches Wissen in Form von Ontologien und Kontextinformationen erfolgreich verwendet, um die Techniken zu unterstützen, die zum Verwalten von Daten in solchen Systemen verwendet werden. Ontologien können verwendet werden, um die Heterogenitäten zwischen den Peers zu lösen, während kontextbezogene Informationen es einem PDMS ermöglichen, mit Informationen umzugehen, die während der Ausführung einer bestimmten Abfrage dynamisch erfasst werden. Das Ziel dieses Papiers ist es aufzuzeigen, wie die von Ontologien und Kontextinformationen bereitgestellte Semantik verwendet werden kann, um die Ergebnisse von zwei wichtigen Datenmanagementproblemen in PDMSs zu verbessern, nämlich Peer-Clustering und Abfrageneuformulierung. Wir präsentieren einen semantikbasierten Ansatz zur Unterstützung dieser Prozesse und berichten über einige experimentelle Ergebnisse, die zeigen, wie Semantik sie verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23074-5_3 2e592691d1daf2e6e01ec75e48107ec0;de;;;6.1.;;;Multitier Intelligent Computing und Storage für IoT-Sensordaten Die mobilen Systeme der nächsten Generation werden Städte schon bald in intelligente und gut aufeinander abgestimmte Infrastrukturen verwandeln. Dies schafft eine neue Art von Möglichkeiten für innovative Anwendungen in verschiedenen Sektoren wie Gesundheitswesen, Transport, Energie, Fertigung, Landwirtschaft, Finanzen und Wohnen, um nur einige zu nennen. Darüber hinaus werden mit den Fortschritten in der drahtlosen Kommunikation die Geräte des Internets der Dinge (IoT) die Welt erobern. Das Verhältnis der IoT-Geräte zur Bevölkerung ist drastisch gewachsen und dieser Trend wird sich fortsetzen. Dieses Wachstum der Anzahl vernetzter IoT-Geräte führt zu einer enormen Menge an generierten Daten, die Herausforderungen in Bezug auf Übertragung, Verarbeitung und Speicheranforderungen darstellen. Um diese Herausforderungen zu meistern, kann ein mehrschichtiges intelligentes Computing- und Speicher-Framework diese Spektrumsverschiebung des Datenwachstums bewältigen. In diesem Kapitel werden zunächst mehrere IoT-Anwendungen für Smart Cities vorgestellt. Als nächstes stellt das Kapitel ein mehrschichtiges Framework vor, das die Computing- und Speicheranforderungen intelligenter IoT-Anwendungen adressiert. Schließlich wird die Sicherheit der IoT-Daten in Bewegung und im Ruhezustand diskutiert.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-030-15145-4_49-1 37b7a7d4b2c555e353df99b4c0aebb75;de;;;6.1.;;;Erstellen eines Online-Cyberkartografischen Atlas zum Wissen und zur Nutzung des Inuit-Meereises Ein Team aus Community- und Universitätsforschern, Inuit-Experten, Inuit-Organisationen und Softwareentwicklern entwickelt einen Cyberkartografischen Atlas des Wissens und der Nutzung von Inuit-Meereis. Im Einklang mit einem cyberkartografischen Ansatz kombiniert der Atlas Karten mit Text- und Multimedia-Darstellungen einschließlich Bild, Ton, Video und Visualisierungen. Letztendlich sind die Mitglieder der Gemeinschaften, die am Inuit-Meereisnutzungs- und Occupancy-Projekt beteiligt sind, daran interessiert, den Nutzen solcher Ansätze für ihr Bildungspotenzial als Unterrichtswerkzeuge zu bewerten und dynamischere Formen der Wissensdokumentation zu gewährleisten, die leicht aktualisiert werden können und im Laufe der Zeit abgerufen. Auf Benutzeroberflächenebene präsentiert der Atlas dokumentiertes Inuit-Wissen auf neue und innovative Weise. Die Fähigkeit, innovative Darstellungen zu unterstützen, wird durch ein flexibles Datenmodell untermauert, das mit Wissen gefüllt wird, das durch einen partizipativen Mapping-Prozess dokumentiert wurde. Der Atlas präsentiert eine Vielzahl von Themen, darunter „Unsere Partnergemeinschaften“, „Unsere Mitwirkenden“ und Inuit-Wissen über „Eisbedingungen“ und „Verwendungen“. Zukünftige Iterationen des Atlas werden ein neu strukturiertes und stark erweitertes Inhaltsverzeichnis und möglicherweise das Hinzufügen von Inhaltsfunktionen, die von Benutzern beigesteuert wurden, enthalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-8587-0_10 0c2baf8471cbdd21bbd431791c6005b0;de;;;6.1.;;;Entmystifizierung der Qualitätskontrolle von Bohrlochprotokollen Bohrlochprotokolle sind wesentliche Daten, die während des gesamten Lebenszyklus von Öl- und Gas-Upstream-Anlagen verwendet werden, von der ersten Bewertung einer Lagerstätte bis zur Planung ihrer Entwicklung und Bewirtschaftung. Es gibt jedoch keine branchenüblichen Prozesse, wie die Qualität der in den Systemen von Organisationen gespeicherten Protokolldaten und verwendeten Entscheidungsprozesse am besten sichergestellt werden kann. Folglich sind Protokolle oft nicht bereit für eine sichere Nutzung, wenn sie von Geowissenschaftlern und Ingenieuren benötigt werden. Wenn die Protokolldaten nicht überprüfbar, unvollständig, falsch oder ungültig sind, wird viel Zeit für kritische Pfade aufgewendet und zusätzliche Unsicherheit in Kauf genommen. Dies setzt Unternehmen erheblichen unnötigen versteckten Risiken und Kosten aus.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2485-1_330 5c2a27861b60b6e8b59f477ce2b8189d;de;;;6.1.;;;Multiskaliges Europäisches Bodeninformationssystem (MEUSIS): eine mehrskalige Methode zur Ableitung von Bodenindikatoren Das Multiskalen-Bodeninformationssystem (MEUSIS) kann ein geeigneter Rahmen für den Aufbau eines verschachtelten Bodendatensystems sein, das die Interoperabilität durch ein gemeinsames Koordinatenreferenzsystem, eine einzigartige Rasterkodierungsdatenbank, einen Satz detaillierter und standardisierter Metadaten und eine offenes austauschbares Format. Im Kontext der INSPIRE-Richtlinie kann MEUSIS als System implementiert werden, das die Aktualisierung vorhandener Bodeninformationen erleichtert und die Harmonisierung verschiedener Bodeninformationssysteme beschleunigt. Bei Umweltdaten wie Bodendaten ist es üblich, genaue Daten, die auf dem Feld gewonnen wurden, auf gröbere Skalen zu verallgemeinern, indem entweder die Pedotransfer-Regeln oder das Wissen von Experten oder sogar einige statistische Lösungen verwendet werden, die einzelne Werte räumlich verteilter Daten kombinieren. Das gebräuchlichste statistische Verfahren zur Generalisierung ist die Mittelung der Werte innerhalb des Untersuchungsgebiets. In diesem Beitrag präsentieren wir keine einfache Mittelwertbildung von Zahlenwerten ohne weiterverarbeitete Informationen. Der Upscaling-Prozess wird von einer aussagekräftigen statistischen Analyse begleitet, um die Methodeneignung nachzuweisen. Die verschachtelten Gitterzellen mit gröberer Auflösung (10 × 10 km) stellen breite Regionen dar, in denen die berechnete Bodeneigenschaft (z. B. organischer Kohlenstoff) genau hochskaliert werden kann. Mehrskalige Ansätze sind dringend erforderlich, um verschiedene Disziplinen (wie Statistik) zu integrieren und eine Metamodellplattform bereitzustellen, um aktuelle mechanistische Modellierungsrahmen zu verbessern, neue gesammelte Daten anzufordern und kritische Forschungsfragen zu identifizieren. In früheren Arbeiten wurde die Upscaling-Methodik ausführlich beschrieben, während unser gegenwärtiger Ansatz darin besteht, eine wichtige Anwendung dieser Methodik zusammen mit statistischen Nachweisen zu demonstrieren.;-;-;-;https://link.springer.com/article/10.1007/s10596-010-9216-0 785d349600fdb5a9e1cc619b4df876b1;de;;;6.1.;;;Eine Studie zum Mechanismus der virtuellen SAN-basierten räumlichen Datenspeicherung mit Double-Thoroughfare in Grid Indem die Vorteile der Netzwerk- und der virtuellen SAN-Technologie kombiniert werden, konzentriert sich der Artikel auf die Eigenschaften der Geodatenspeicherung, indem eine virtuelle SAN-basierte Architektur der Grid-GIS-Datenspeicherung vorgeschlagen wird. Inzwischen wurde ein entsprechendes experimentelles System entwickelt, um diesen Vorschlag zu verifizieren. Für die Speichereinrichtungen wurden in dem vorgeschlagenen System FC- und iSCSI-datenbasierte Doppelwege entwickelt, um die effiziente Speicherung und den Abruf riesiger Geodatenmengen zu gewährleisten. Diese Lösung besitzt bestimmte praktische und anwendbare Werte, da sie eine technologische Grundlage für den exponierbaren Zugang und die offene Interoperabilität von Geodaten realisiert und bedient.;-;-;-;https://link.springer.com/chapter/10.1007/11527503_85 d78d4091133d82581ae4e7cd4998c5dd;de;;;6.1.;;;Neue Interessen an alten Themen: Anti-Protection und das Ende der Herstellungsklausel des US-Urheberrechts Die Herstellungsklausel des US-amerikanischen Urheberrechtsgesetzes, die den Import der meisten Bücher von US-Autoren, die nicht in den Vereinigten Staaten oder Kanada gedruckt wurden, verbot, lief am 1. Juli 1986 aus. Sie lief trotz anfänglicher Unterstützung durch den Kongress und starker Bemühungen der Druckindustrie und Gewerkschaftsinteressen, seinen Geltungsbereich zu erweitern und ihn dauerhaft zu machen. Das Auslaufen erfolgte hauptsächlich aufgrund des Aufkommens neuer Interessen: Industrien, deren Exporte durch mögliche Vergeltungsmaßnahmen der Europäischen Gemeinschaft bedroht waren, und solche, die sich Sorgen um internationale Eigentumsrechte machten. Diese Gruppen haben sich mit Spitzenbeamten der Reagan-Administration zusammengetan, um das Auslaufen der Klausel zu erreichen.;-;-;-;https://link.springer.com/article/10.1007/BF02678330 3e0a42eb7b3b301f0c1f259da6be2bc9;de;;;6.1.;;;Die Unsichtbarkeit der Fischerei im Prozess der Wasserkraftentwicklung im Amazonasgebiet Wir analysieren die Unsichtbarkeit der Fischerei und die unzureichende Beteiligung der Fischer am Prozess der Wasserkraftentwicklung im Amazonasgebiet und konzentrieren uns dabei auf Lücken zwischen gesetzlich vorgeschriebenen und tatsächlichen Ergebnissen. Unter Verwendung der institutionellen Gestaltungsprinzipien von Ostrom zur Bewertung des Ressourcenmanagements in gemeinsamen Pools haben wir fünf Fallstudien aus brasilianischen Amazonas-Wasserscheiden ausgewählt, um eine explorative vergleichende Fallstudienanalyse durchzuführen. Wir identifizieren ähnliche Probleme in allen Einzugsgebieten, darunter Mängel im Genehmigungsverfahren für Staudämme, kritische Datenlücken, unzureichende Beteiligung der Interessengruppen, Verletzung der Menschenrechte, Vernachlässigung des Wissens der Fischer, mangelnde Organisation und Vertretung durch Fischergruppen sowie fehlende Regierungsstrukturen und Fähigkeit, den Bau von Staudämmen zu verwalten oder Fischer nach dem Bau des Staudamms zu unterstützen. Fischer wurden im Allgemeinen an den Rand gedrängt oder von der Entscheidungsfindung in Bezug auf Planung, Bau, Minderung, Entschädigung und Überwachung der sozial-ökologischen Auswirkungen von Wasserkraftwerken ausgeschlossen. Um diese Mängel zu beheben, sind konzertierte Investitionen und Anstrengungen seitens der Entwickler von Staudämmen, Regierungsbehörden und der Zivilgesellschaft sowie die Förderung des sektorübergreifenden Dialogs und der skalenübergreifenden partizipativen Planung und Entscheidungsfindung unter Einbeziehung der Fischer und ihrer Verbände erforderlich.;-;-;-;https://link.springer.com/article/10.1007/s13280-017-0994-7 f2e50180ec0e4c93f851002ea1db19c5;de;;;6.1.;;;Architektur des Internets der Dinge: State of the Art Das Internet der Dinge (IoT) ist eine der wichtigsten technologischen Entwicklungen des letzten Jahrzehnts. Es hat das Potenzial, unseren Lebensstil tiefgreifend zu beeinflussen. Der Erfolg hängt jedoch stark von einer gut definierten Architektur ab, die eine skalierbare, dynamische und sichere Basis für die Bereitstellung bietet. Tatsächlich stehen zwischen der konzeptionellen Idee des IoT und der vollständigen Bereitstellung seiner Anwendungen in unserem täglichen Leben mehrere Herausforderungen. Die IoT-Bereitstellung steht in engem Zusammenhang mit der Etablierung einer Standardarchitektur. Diese Architektur sollte zukünftige Erweiterungen unterstützen und deckt IoT-Eigenschaften wie Verteilbarkeit, Interoperabilität und Skalierbarkeit ab. Um das IoT-Konzept der Realität näher zu bringen, ist eine gut definierte, skalierbare, abwärtskompatible und sichere Architektur erforderlich. In der Literatur wurden mehrere Architekturen vorgeschlagen. Dennoch bringt jede Architektur einige Nachteile mit sich und deckt nicht alle IoT-Eigenschaften ab. In diesem Kapitel überprüfen wir die wichtigsten vorgeschlagenen Architekturen für das Internet der Dinge und heben ihre Angemessenheit in Bezug auf die IoT-Anforderungen hervor. Zunächst stellen wir IoT-Bausteine ​​vor. Dann stellen wir die High-Level-Architektur des IoT vor, bevor wir in die Details jeder vorgeschlagenen Architektur eintauchen. Darüber hinaus führen wir eine Klassifizierung der geprüften Architekturen nach ihren technischen Aspekten und ihrer Fähigkeit zur Anpassung an IoT-Eigenschaften ein. Basierend auf den Hauptmängeln der vorgeschlagenen Architekturen schließen wir schließlich mit einigen Designideen für die Gestaltung des zukünftigen IoT.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22168-7_3 251ad8542eb386e64d3fd0f6f8f4a916;de;;;6.1.;;;Die Implementierung von Künstlicher Intelligenz in Unternehmenssystemen: Chancen und Herausforderungen Heutzutage spielt die Revolution der Technologie eine wichtige Rolle für den Erfolg von Unternehmen. Künstliche Intelligenz ist in den meisten Geschäftsbereichen weit verbreitet und wurde in einigen Unternehmen zu einem entscheidenden Bestandteil. Künstliche Intelligenz (KI), komplexe Algorithmen, maschinelles Lernen und Datenanalyse beeinflussen das menschliche Leben und die Gesellschaften heute noch stärker als früher. Die Vorteile von KI-Anwendungen sind breit gefächert und finden ihren Platz in verschiedenen Domänen und die Möglichkeiten sind sogar weitreichend. Die KI-Anwendung hat sich in Form von unbemannten Fahrzeugen, medizinischer Diagnose, Transportmanagement, Flugverkehrsmanagement, Umweltverträglichkeit und vielem mehr bewährt. Dank der neuesten Fortschritte bei der Computerhardware haben einige KI-Fortschritte bereits die Kapazitäten der menschlichen Experten überschritten. Der Zweck dieses Forschungspapiers besteht darin, die Leistungsfähigkeit der Künstlichen Intelligenz im Betrieb von Unternehmen aufzuzeigen, die aktuellen Vorteile der KI-Technologie aufzuzeigen und auch einen Einblick in die möglichen Herausforderungen und Risiken dieser Technologie zu geben. Die Forschung basiert auf früheren Forschungen, Artikeln und Expertenmeinungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-69221-6_12 0019efd5ff595185738e56af3eab94a5;de;;;6.1.;;;Computational Neuroscience Gateway: Ein Science Gateway basierend auf dem WS-PGRADE/gUSE Computational Neurowissenschaftler stehen vor der Herausforderung, immer größere Datenmengen zu verwalten und mit Anwendungen zu verarbeiten, die eine hohe Rechenleistung erfordern. Das Brain Imaging Center des Akademischen Medizinischen Zentrums der Universität Amsterdam ist eine Gemeinschaft von Neurowissenschaftlern, die an verschiedenen Forschungsstudien zu Computational Neuroscience beteiligt sind. Sie stehen vor verschiedenen Herausforderungen bei der Verarbeitung und Verwaltung einer wachsenden Menge an Neuroimaging-Daten. Ziel des Computational Neuroscience Gateway ist es, die groß angelegte Datenverarbeitung in verteilten Infrastrukturen zu erleichtern und das Datenmanagement und die Zusammenarbeit für die wissenschaftliche Forschung zu verbessern. Das Gateway basiert auf dem generischen Wissenschafts-Gateway-Framework WS-PGRADE/gUSE als Plattform für verteiltes Rechnen und ist mit einem Datenserver auf Basis des eXtensible Neuroimaging Archive Toolkit (XNAT) verbunden. In diesem Kapitel werden das Design und die Architektur des Gateways vorgestellt, wobei der Schwerpunkt auf der Nutzung des WS-PGRADE/gUSE-Frameworks und den bei seiner Implementierung und Betrieb gewonnenen Erkenntnissen liegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11268-8_10 1471ed6c2b9fc1de617ebb94cc710b17;de;;;6.1.;;;Der Privatsektor und die Strafjustiz: Eine Einführung Dieses einleitende Kapitel kontextualisiert die breite Palette von Entwicklungen und Debatten, die in dieser Sammlung von Aufsätzen diskutiert werden. Dies geschieht auf drei Arten. Die erste besteht darin, den strittigen Charakter von Debatten hervorzuheben, in denen die Beziehung zwischen dem Privatsektor und der Strafjustiz untersucht wird. Der zweite ist, dass die Entwicklungen des zeitgenössischen Rechts und der Politik in der Strafjustiz und die Rolle des Privatsektors maßgeblich durch den kritischen Wandel der postmodernen Ära von „Regierung hin zu Governance“ beeinflusst wurden. Dieser Schritt hat dazu geführt, dass das Regieren nicht mehr an monopolistische „Befehls- und Kontrollformen“ der Regierung gebunden ist, sondern sich stattdessen auf die Kapazitäten einer stärker pluralisierten oder „Knoten“-Gruppe institutioneller Formationen stützt, einschließlich öffentlicher, privater und gemeinnütziger Organisationen . Die dritte besteht darin, die Parameter von Schlüsseldebatten und konkurrierenden Perspektiven zu identifizieren. Dabei zeigt das Kapitel, dass die Verflechtungen von Staat und Markt bei der Formulierung und Operationalisierung strafrechtlicher Reaktionen zu Debatten führen, die sich auf den Kern der politischen, rechtlichen und gesellschaftlichen Ordnung beziehen.;-;-;-;https://link.springer.com/chapter/10.1057/978-1-137-37064-8_1 d898ab881dd49924b24957bedd28fa4a;de;;;6.1.;;;KM und Web 2.0 Der Begriff Web 2.0 wurde erstmals von O’Reillys Dale Dougherty in einer Brainstorming-Sitzung geprägt. Es war im Grunde eine Brainstorming-Sitzung, in der dieser Begriff geprägt wurde. Web 2.0 ist viel mehr als nur eine neue Oberfläche, sondern ein neues Denken und eine neue Perspektive auf das gesamte Softwaregeschäft – vom Konzept bis zur Auslieferung. Web 2.0 besteht aus Datenbanken, die umso reicher werden, je mehr Menschen mit ihnen interagieren, Anwendungen, die intelligenter werden, je mehr Menschen sie nutzen, Marketing, das von User-Stories und -Erfahrungen angetrieben wird, und Anwendungen, die miteinander interagieren, um eine breitere Computerplattform zu bilden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-33894-1_8 950a7f42644a6f5e332ccda7e93099ef;de;;;6.1.;;;Integrierte Fertigungssysteme Dieses Kapitel beschreibt die Entwicklung des Herstellungsprozesses seit Mitte der 1960er Jahre, als sich das Management einem wissenschaftlicheren Ansatz zuwandte. Die Einführung von Computern fand den Boden für ihre Implementierung. Computer ermöglichten den Einsatz komplexer Algorithmen zur Regelung und Steuerung des Fertigungsprozesses und führten damit zu einer besseren Planung und Kontrolle. Bis Anfang der 80er Jahre dominierten diese Fertigungsleitsysteme die Branche. Die dominierenden Methoden und Konzepte waren: Management Information System (MIS), Produktions- und Warenwirtschaftssysteme (PICS), Material Requirement Planning (MRP) und Computer Integrated Manufacturing (CIM). Die Tatsache , dass diese Systeme nicht die erforderliche Kontrolle und den erforderlichen Nutzen bieten konnten , erforderte ein neues Paradigma für Herstellungsverfahren . Darüber hinaus stellte der wettbewerbsintensive Markt der späten 1980er und frühen 1990er Jahre neue Anforderungen und Ziele an den Herstellungsprozess, die ein ähnliches Paradigma erforderten. Es wurden mehr als 140 Vorschläge vorgelegt, von denen keiner „das“ Herstellungsverfahren wurde. Die meisten von ihnen machten von „Routine“ Gebrauch, die das System komplex macht und die Kostenkontrollanforderungen des Systems nicht erfüllt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-50702-6_4 10fa180d362e4bd46b2b74fa18dff907;de;;;6.1.;;;Eine prospektive Studie zur heilsamen Intervention mit ICS/LABA zur Reduzierung der Exazerbation der chronisch obstruktiven Lungenerkrankung unter schwerer Luftverschmutzung (SIRCAP) in Peking: Protokoll einer multizentrischen randomisierten kontrollierten Studie Die chronisch obstruktive Lungenerkrankung (COPD) ist weltweit eine der Hauptursachen für Morbidität und Mortalität. Eine akute Exazerbation der COPD (AECOPD) beschleunigt nicht nur das Fortschreiten der Krankheit, sondern verursacht auch Krankenhauseinweisungen und Todesfälle. Epidemiologische Studien haben gezeigt, dass Luftverschmutzung ein hoher Risikofaktor für AECOPD ist. Es gibt jedoch seltene Techniken oder Behandlungsstrategien, die empfohlen werden, um schwere luftverschmutzungsbedingte AECOPD zu reduzieren.;-;-;-;https://link.springer.com/article/10.1186/s12890-018-0771-9 65b8876c3c344ea2952f8b4b222569c6;de;;;6.1.;;;Supply Chain Management im E-Commerce mit Blockchain Mit der Zunahme des Internet- und Online-Shopping-Zeitalters sind Online-Shopping und E-Commerce für Kunden und Verkäufer die bequemste Möglichkeit geworden, das Produkt online über das Internet zu kaufen und zu verkaufen. Mit diesen zunehmenden E-Commerce-Diensten ist es obligatorisch geworden, dem Kunden und Verkäufer das vertrauenswürdige Liefernachweissystem zur Verfügung zu stellen. Das vorhandene System ist ein zentralisiertes System, das sich für den Liefernachweis vollständig auf den Drittanbieter verlässt, was zu einem Single Point of Failure führen kann. Bestehende Proof-of-Delivery-Systeme führen zurück in Glaubwürdigkeit, Transparenz und Rückverfolgbarkeit. Blockchain ist das dezentralisierte verteilte Hauptbuch, das dafür sorgt, dass das System transparent, nachvollziehbar und glaubwürdig ist. Supply Chain Management mit Ethereum Blockchain ist eine der Lösungen, die gegeben werden können. Dieses System ist das dezentrale Liefernachweissystem, das den Smart Contract von Ethereum verwendet, um die Lieferung eines versandten Artikels zwischen Verkäufer und Käufer nachzuweisen. Jeder Kunde, Verkäufer und Kurierdienst registriert sich in der Webanwendung. Später lädt der Verkäufer einen Katalog der zu verkaufenden Waren hoch, die Kunden kaufen möchten. Kurierdienste werden diesem Paket basierend auf der Sentimentanalyse zugewiesen, und später, zum Zeitpunkt der Lieferung, erfolgt die Zahlung über Ether.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4542-9_6 c599332ddee54b9ab892a0add2381f78;de;;;6.1.;;;Ein neues Sharing-Paradigma für die Personal Cloud Angetrieben durch die jüngsten Gesetze und Initiativen zur intelligenten Offenlegung entstehen persönliche Cloud-Lösungen, die das Versprechen enthalten, der Person die Kontrolle über ihre Daten zurückzugeben. Diese Verschiebung überlässt jedoch die Datenschutz- und Sicherheitsprobleme in den Händen der Benutzer, eine Rolle, die nur wenige Menschen richtig unterstützen können. Angesichts der Unzulänglichkeit bestehender Sharing-Modelle befürworten wir die Definition eines neuen Sharing-Paradigmas, das dem persönlichen Cloud-Kontext gewidmet ist. Dieses Sharing-Paradigma namens SWYSWYK (Share What You See with Who You Know) ermöglicht es, intuitive Sharing-Regeln aus den persönlichen Cloud-Inhalten abzuleiten, die Themen und die sensiblen Berechtigungen selbst zu verwalten und die Nettoeffekte der Sharing-Richtlinie zu visualisieren in der persönlichen Cloud des Benutzers. Anschließend schlagen wir eine Referenzarchitektur vor, die den Benutzern konkrete Garantien für die Durchsetzung der SWYSWYK-Richtlinien bietet. Eine Instanz dieser Architektur wurde auf einer bestehenden persönlichen Cloud-Plattform implementiert, um die Praktikabilität des Ansatzes zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-64483-7_12 a4c62b792695f1e5a81f7c0d0ee79b92;de;;;6.1.;;;Verwendung von Ontologien zur Unterstützung dezentraler Produktentwicklungsprozesse Adaptive und offene Plattformen für die organisationsübergreifende kollaborative Produktentwicklung (CPD) benötigen flexible Architekturen und Netzwerklösungen sowie neuartige Datenintegrationskonzepte, die eine verteilte, dezentrale Zusammenarbeit unterstützen. Bisherige Ansätze zur Lösung dieses Problems haben die Anforderung, interoperable Formate für Produktmodelldaten bereitzustellen, die die Unterstützung kollaborativer Produktentwicklungsaktivitäten ermöglichen, weitgehend ignoriert. Dieses Papier schlägt den Einsatz von Ontologie-Technologie vor, um dieses Problem anzugehen, es stellt die Integration der Ontologie-Technologie in bestehende modellgetriebene Ansätze zur Produktentwicklung vor und bewertet die Anwendbarkeit des Ansatzes durch die Beschreibung eines Anwendungsfalls mit eingeschränkter CPD-Plattform-Funktionalität.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28563-9_7 c002f8b6f320df0d7824663f8ef702e3;de;;;6.1.;;;ROSATOMs NPP Development System Architecting: Systems Engineering zur Verbesserung der Anlagenentwicklung Dieser Artikel ist der Architektur des KKW-Einheitsentwicklungssystems (NPPDS) für die ROSATOM Corporation in einer neuen KKW-Designinitiative VVER TOI . gewidmet;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25203-7_18 890e390fdbf33448b67299a174bdd59f;de;;;6.1.;;;Für eine rigorosere Blockchain-Forschung: Empfehlungen zum Schreiben von Blockchain-Fallstudien Vor etwa einem Jahrzehnt wurde das grundlegende Funktionsprinzip der Blockchain eingeführt. Es dauerte mehrere Jahre, bis die Technologie außerhalb der Informatik in der Industrie und in akademischen Kreisen breite Anerkennung fand. Seitdem haben viele akademische Gemeinschaften das Thema aufgegriffen, aber bisher hat sich keine klar definierte Forschungsagenda herausgebildet: Forschungsthemen sind verstreut und strenge Ansätze sind rar. In den meisten Fällen wenden von der Industrie implementierte Anwendungsfälle einen Trial-and-Error-Ansatz an, und es besteht ein Mangel an theoriebasierten wissenschaftlichen Arbeiten zu diesem Thema, die robusten Methoden folgen. Als aufstrebendes Forschungsthema sind Fallstudien zu Blockchain-Anwendungen ein geeigneter Ansatz, um Branchenerfahrungen systematisch in Forschungsagenden zu überführen, die sowohl der Theorieentwicklung und -prüfung als auch der designwissenschaftlichen Forschung zugutekommen. In diesem Papier biete ich Richtlinien und Vorschläge zur Gestaltung und Strukturierung von Blockchain-Fallstudien, um einen Mehrwert für Wissenschaft und Industrie zu schaffen. Genauer beschreibe ich Blockchain-Eigenschaften und -Herausforderungen, präsentiere bestehende Blockchain-Fallstudien und diskutiere verschiedene Arten von Fallstudienforschung und wie sie für die Industrie und die akademische Forschung nützlich sein können. Ich schließe mit einem Rahmen und einer Checkliste für die Blockchain-Fallstudienforschung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-44337-5_1 e8068e35b19f7ea74adc4744d416a827;de;;;6.1.;;;Auf dem Weg zum Verständnis natürlicher Sprache und zur automatisierten Durchsetzung von Datenschutzbestimmungen und -vorschriften in der Cloud: Umfrage und Literaturverzeichnis In diesem Papier betrachten wir bestehende Arbeiten zur automatischen Verarbeitung von Rechts-, Regulierungs- und anderen Richtlinientexten zur Extraktion und Darstellung von Datenschutzwissen und -regeln. Unser Ziel ist es, einige dieser Techniken mit der Durchsetzung und Einhaltung von Richtlinien zu verknüpfen und anzuwenden, um ein zentrales Mittel zur Erreichung und Aufrechterhaltung des Kundendatenschutzes im Unternehmenskontext bereitzustellen, insbesondere wenn Daten in Cloud-Rechenzentren gespeichert und verarbeitet werden. Wir skizzieren unsere Überlegungen dazu, wie dies angesichts der vielen verschiedenen, aber bisher streng voneinander getrennten Ansätze zur natürlichsprachlichen Analyse von Rechts- und anderen Vorschriftentexten, Ansätzen zur Wissensextraktion, semantischen Repräsentation und automatisierten Durchsetzung der Privatsphäre erfolgen könnte Regeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22365-5_20 613776fb7a0978a22dc42f888f90dcc4;de;;;6.1.;;;Entwicklung des systematischen Objektereignisdatenmodells für ein integriertes Punktquellen-Belastungsmanagement Frühere Arbeiten zur Datenbankintegration konzentrierten sich hauptsächlich auf die Schaffung von Transformationsschnittstellen zwischen inkompatiblen Datenbanken, die von verschiedenen Abteilungen der taiwanesischen Umweltschutzbehörde aufgebaut wurden, und ignorierten die Anforderungen systematisch und flexibel integrierter Informationen für eine fortschrittliche Verschmutzungskontrolle von Punktquellen. Um einen systematischen Rahmen für die flexible Integration verteilter Daten bereitzustellen, stellt dieser Artikel ein allgemeines Modell als das systematische Objektereignisdatenmodell basierend auf Systemdenken vor, um die Integrationsfähigkeit von Datenbanken zu verbessern. Der konzeptionelle Datenbankrahmen für den integrierten Immissionsschutz wurde als Ergebnis der Anwendung des systematischen Objektereignisdatenmodells vorgeschlagen. Der grundlegende Teil des systematischen Objektereignisdatenmodells, die Erstellung der Objektregisterdatenbank, wurde ab dem Jahr 2008 in die Praxis umgesetzt. Die Objektdatenbank der Verschmutzungsquellen steht Fabriken im Jahr 2009 zur Verfügung, die Fabriken bei der Gründung und der taiwanesischen Umweltschutzverwaltung unterstützen um die konsistenten Objektdaten durch die elektronischen Antragsverfahren von Genehmigungen aufrechtzuerhalten. Der Aufbau verschiedener Ereignisdatenbanken, die sich systematisch mit der Objektdatenbank verbinden, wäre der nächste Schritt, um systematischere Informationen aus einer systematischen Datenintegration effizienter bereitzustellen.;-;-;-;https://link.springer.com/article/10.1007/BF03326151 f11201291aa7d350d20756b5fe977d7b;de;;;6.1.;;;Neue Datenerfassungs- und Analysemethoden bieten aussagekräftige Einblicke in die Leistung Bei einem kürzlichen Besuch bei meinem Hausarzt habe ich eine merkwürdige Veränderung in seiner Beziehung zu meiner Gesundheit und mir festgestellt. Während unserer gesamten halbstündigen Interaktion schien er viel intensiver auf den Laptop vor ihm konzentriert zu sein als auf mich, und als ich das kommentierte, sagte er mir, dass er mich so gut wie möglich behandeln kann war, indem ich mir die vielen Daten anschaute, die von meinen verschiedenen Ärzten und meinen früheren Besuchen gesammelt wurden, anstatt mich körperlich zu berühren. Mir wurde klar, dass der Goldstandard der Patientenversorgung in der modernen Medizin heute darin besteht, die Beziehung zwischen verschiedenen Datenpunkten in der Anamnese eines Patienten zu verstehen. Wo er früher ein Stethoskop oder Otoskop verwenden musste, um Beweise für seine Analyse zu sammeln, konnte mein Arzt jetzt historische Daten nach Beweisen dafür suchen, wie ich Fortschritte machen oder nicht funktionieren kann. Im Gesundheitswesen geht es heute weniger um „Pflege“ als vielmehr darum, wie der Arzt durch Analyse die „Gesundheit“ des Patienten informieren und verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1057/9781137519962_7 7f657cb2020ed22f93fe7d8ac1f35fe6;de;;;6.1.;;;Ungefähre allgemeine Strukturen beim XML-Schemaabgleich Dieses Dokument beschreibt einen Matching-Algorithmus, der genaue Matches finden und auf große XML-Schemas mit Hunderten von Knoten skalieren kann. Wir modellieren XML-Schemas als beschriftete, ungeordnete und verwurzelte Bäume und verwandeln das Schema-Matching-Problem in ein Tree-Matching-Problem. Wir entwickeln einen Tree-Matching-Algorithmus basierend auf dem Konzept der Approximate Common Structures. Verglichen mit dem Tree-Edit-Distanz-Algorithmus und anderen Schema-Matching-Systemen ist unser Algorithmus schneller und besser für den großen XML-Schema-Matching geeignet.;-;-;-;https://link.springer.com/chapter/10.1007/11563952_100 e3b33dc4461f7a4552252634fa58284c;de;;;6.1.;;;Zugreifen auf Daten in der Gesundheitsanwendung Datenzentrierte Anwendungen generieren in kürzester Zeit große Datenmengen. Je nach Anwendung können die Daten einen Schutz vor unbefugter Nutzung erfordern. Daher ist der Datenschutz in einem System mit heterogenen Benutzern eine Herausforderung. Der Schutz sensibler Daten erfordert möglicherweise nicht nur eine gültige Authentifizierung, sondern auch eine ordnungsgemäße Autorisierung. Im Falle einer Anwendung im Gesundheitswesen, die in dieser Arbeit betrachtet wird, darf die Autorisierung nicht das direkte Ergebnis einer gültigen Authentifizierung sein. Stattdessen muss möglicherweise eine Autorisierung unter Berücksichtigung der Beziehung zwischen Benutzer und Information erteilt werden. Wir schlagen einen neuartigen Weg vor, ein System zu entwerfen, das sensible Informationen basierend auf der Beziehung enthält und schützt. Dieses Design ermöglicht das Speichern und Abrufen von Informationen mehrerer Empfindlichkeitsstufen in einer hierarchischen Weise.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-5826-5_23 d4aa5cdfb13a71edb932e1b2da2aa413;de;;;6.1.;;;Musiktanz-Fernlehrsystem basierend auf dem Ologit-Modell und maschinellem Lernen Mit dem kontinuierlichen Fortschritt der Zeit neigt auch die Entwicklung der Hochschulbildung dazu, sich zu bereichern und zu diversifizieren. Im Rahmen des Curriculums wird der Vermittlung von Musiktanzkursen von Studierenden immer mehr Aufmerksamkeit geschenkt. Bei der Einrichtung und dem Lehrprozess dieses Kurses folgen wir noch dem traditionellen Lehrmodus, ohne den praktischen Übungen der Studenten mehr Aufmerksamkeit zu schenken. Betrachtet man die von vielen Hochschulen und Universitäten ausgewählten Lehrbücher für Musiktanzkurse für Studierende, so ist zu erkennen, dass die meisten Lehrbücher sich noch immer darauf konzentrieren, einige Übungen aus der Perspektive der Musiktanz-Studiengänge zu arrangieren, und es fehlen die grundlegenden Kenntnisse des Curriculums. Da das Verständnis und die Recherche des Musik-Tanz-Kurses nicht tief genug sind, ist die durch den Kurs erzielte Lehrwirkung nicht ideal. Dieser Artikel, der das relevante Wissen über maschinelles Lernen und einige wichtige Aspekte bei der Entwicklung des Ologit-Modells untersucht, schlägt einige konkrete Ideen für die Gestaltung eines Fernunterrichtssystems für Musiktanzkurse auf der Grundlage des aktuellen Lehrplansystems an Hochschulen vor und analysiert die spezifische Situation des Musiktanz-Fernausbildungssystems Verbesserung der Lernqualität von Musiktanzkursen und Hoffnung, dass ein abweichendes Lernmodell entwickelt werden kann, um das Interesse der Schüler an Musiktanzkursen zu steigern.;-;-;-;https://link.springer.com/article/10.1007/s12652-021-03221-w 25758312f88e4995397c73332f91beea;de;;;6.1.;;;Verbesserung des Schutzes kritischer Finanzinfrastrukturen durch Trust Management Der Schutz der Finanzinfrastruktur vor Fehlern und böswilligen Angriffen ist für die Stabilität, Verfügbarkeit und Kontinuität wichtiger Finanzmärkte und Unternehmen weltweit von entscheidender Bedeutung. Herkömmliche Schutzansätze haben sich auf den Schutz einzelner Finanzinstitute (FIs) konzentriert, während die Bedrohungen aus domänenübergreifenden Interaktionen sowie aus anderen kritischen Infrastrukturen ignoriert werden. Mit der zunehmenden Komplexität der organisationsübergreifenden Grenzen und deren zunehmender Interdependenz reichen solche isolierten Ansätze nicht mehr aus. Der Austausch von Informationen zwischen FI in Bezug auf kritische Ereignisse und das Vertrauen auf die Dienstqualitätsattribute anderer wie Sicherheit erfordert jedoch je nach den Anforderungen jedes einzelnen FI und der Sensibilität der ausgetauschten Informationen ein unterschiedliches Maß an Vertrauen zwischen ihnen. Dieses Papier beschreibt ein Vertrauensmanagementsystem, das entwickelt wurde, um die Bewertung, Überwachung und Verwaltung der Vertrauenswürdigkeit von FIs beim Austausch kritischer Ereignisse und Informationen zu ermöglichen. Vertrauenswürdigkeitsstufen werden verwendet, um die gegenseitige Verlässlichkeit der FIs zu gewährleisten und die verarbeiteten Ereignisse und Daten zu filtern. Das System führt eine neuartige wiederverwendbare Architektur ein, die Flexibilität und Erweiterbarkeit von Vertrauensmetriken und Vertrauensalgorithmen ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22365-5_19 051a2bae1c8aae741d64c880170ec6aa;de;;;6.1.;;;Kreislaufwirtschaft mit Software ermöglichen: Ein mehrstufiger Ansatz für Vorteile, Anforderungen und Hindernisse Digitale und softwarebasierte Lösungen wurden als Schlüsselfaktoren der Kreislaufwirtschaft identifiziert, einem kürzlich aufgetretenen Phänomen, das durch eine bessere systemische Materialeffizienz nachhaltigeres Wirtschaften verspricht. Chancen liegen auf mehreren Implementierungsebenen. Zum Beispiel die Optimierung der Ressourcennutzung innerhalb von Prozessen, die Beteiligung an Geschäftsmodellen, die durch Softwareentwicklung ermöglicht werden, der Austausch von Informationen zur Optimierung der Ressourcennutzung auf Netzwerkebene und die Schaffung von Infrastrukturen, die die systemische Verfolgung und Optimierung der Ressourcennutzung unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-33742-1_20 23e8f59bcc4ffdf7dfd91b0b0010f8c7;de;;;6.1.;;;Dynamischer sicherer Cloud-Speicher mit Provenance Ein Bedenken bei der Verwendung von Cloud-Speicher besteht darin, dass die sensiblen Daten gegenüber den Servern, die sich außerhalb der Vertrauensdomäne der Datenbesitzer befinden, vertraulich sein sollten. Ein weiteres Problem besteht darin, dass der Benutzer möglicherweise seine Anonymität beim Teilen oder Zugreifen auf die Daten wahren möchte (z. B. in Web 2.0-Anwendungen). Um die Vorteile des Cloud-Speichers in vollem Umfang nutzen zu können, benötigen wir einen fein abgestuften Mechanismus zum Teilen vertraulicher Daten (man kann spezifizieren;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28368-0_28 038a2bacbe39c3eb164046e201ea9528;de;;;6.1.;;;Das elektronische Bietersystem auf Basis einer Public-Key-Infrastruktur Die Verbesserung der Effizienz und Effektivität des Beschaffungsprozesses hat im öffentlichen und privaten Sektor große Aufmerksamkeit erregt. Diese Studie verwendet das digitale Zertifikat, um ein elektronisches Bietersystem zu präsentieren, das beide Parteien des Bieters und des Käufers in der Umgebung der Public Key Infrastructure (PKI) umfasst. Das durchdachte Design erfüllt Anforderungen der Informationssicherheit, nämlich Vertraulichkeit, Integrität, Nichtabstreitbarkeit und Authentifizierung, wodurch die Nutzungsrate des elektronischen Bietersystems erhöht und das Sicherheitsbewusstsein digitaler Zertifikate gefördert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-5083-8_35 781c06e6115f50a6648928d55d44ea49;de;;;6.1.;;;Ein neuer Memory-Mapping-Mechanismus für die Stencil-Berechnung von GPGPUs Beim Optimieren der Leistung auf einer GPU kann die Divergenz des Kontrollflusses von Threads in einem Warp die möglichen Leistungsengpässe ausgleichen. In unserer handcodierten GPU-Schablonenberechnungsoptimierung entwickeln wir einen neuen Mapping-Mechanismus, indem wir die zusammengeführten Speicherzugriffe von GPU-Threads und den ausgerichteten Geist modellieren, um diese Kontrollflussdivergenz zu beseitigen, die durch konventionelle Abbildungsverfahren zwischen globalem Speicher und gemeinsam genutztem Speicher verursacht wird Zonen-Overheads, um bedingte Anweisungen der Berechnungspunkte der XY-Kachel-Grenzschablone für eine verbesserte Leistung zu entfernen. Darüber hinaus verwenden wir nur eine XY-Kachel, die in jeder Iteration der Schablonenberechnung in Register geladen wird, die Eliminierung gemeinsamer Unterausdrücke und Software-Prefetching, um den Overhead zu reduzieren. Schließlich zeigt eine detaillierte Leistungsbewertung, dass der globale Speicherzugriffsverkehr durch unsere optimierten Richtlinien nahe am idealisierten unteren Grenzwert liegt, d. h. an jedem berechneten Punkt einer XY-Kachel beträgt der Speicherzugriffsverkehr ungefähr 6 und 4 % mehr als 8 Byte pro XY-Kachelpunkt des idealisierten unteren Speicherzugriffsverkehrs, bei dem die Overheads der Geisterzone bei Tesla C2050 bzw. Kepler K20X nicht berücksichtigt werden.;-;-;-;https://link.springer.com/article/10.1007/s00607-014-0434-5 f1cff5b05dcf4456dd695534676a13af;de;;;6.1.;;;Verbesserung der Datenschutzrichtlinien im modernen Informationszeitalter Anonymisierungs- oder De-Identifikationstechniken sind Methoden zum Schutz der Privatsphäre von Personen in sensiblen Datensätzen, während der Nutzen dieser Datensätze erhalten bleibt. Im Fall von Gesundheitsdaten können Anonymisierungstechniken verwendet werden, um Patientenidentitäten zu entfernen oder zu maskieren, während die Gesundheitsdateninhalte von der medizinischen und pharmazeutischen Forschungsgemeinschaft verwendet werden können. Die Wirksamkeit von Anonymisierungsmethoden wurde wiederholt angegriffen und mehrere Forscher haben gezeigt, dass anonymisierte Daten erneut identifiziert werden können, um die Identität der betroffenen Personen über Ansätze wie „Linking“ zu enthüllen. Trotz dieser Mängel hängen jedoch viele staatliche Datenschutzrichtlinien von Anonymisierungstechniken als primärem Ansatz zum Schutz der Privatsphäre ab. In diesem Bericht untersuchen wir die Anonymisierungslandschaft und betrachten die Bandbreite der Anonymisierungsansätze, die verwendet werden können, um Daten mit personenbezogenen Daten zu anonymisieren. Wir überprüfen dann mehrere bemerkenswerte Datenschutzrichtlinien der Regierung, die die Anonymisierung nutzen. Insbesondere prüfen wir die Datenschutz-Grundverordnung (DSGVO) der Europäischen Union und zeigen, dass diese einen zielgerichteteren Umgang mit dem Datenschutz verfolgt. Es definiert den Datenschutz in Bezug auf das gewünschte Ergebnis (d. h. als Abwehr des Risikos der Offenlegung personenbezogener Daten) und ist gegenüber der tatsächlichen Methode zur Wahrung der Privatsphäre agnostisch. Und die DSGVO geht weiter, um ihre Datenschutzbestimmungen in Bezug auf den Stand der Technik, die Implementierungskosten, die eingegangenen Risiken und den Kontext der Datenverarbeitung zu gestalten. Dies hat potenzielle Auswirkungen auf die Robustheit der DSGVO gegenüber zukünftigen technologischen Innovationen – ganz im Gegensatz zu Datenschutzbestimmungen, die explizit von genaueren technischen Spezifikationen abhängen.;-;-;-;https://link.springer.com/article/10.1007/s12553-018-0250-6 3ac8d4b4b16f3b6a456105379793fe1e;de;;;6.1.;;;Teilen von Daten und Privatsphäre in der Plattformökonomie: Das Recht auf Datenübertragbarkeit und „Portierungsrechte“ In diesem Kapitel werden das Recht auf Datenübertragbarkeit und seine Besonderheiten in der Plattformökonomie analysiert, wobei dieses Recht aufgrund der starken direkten und indirekten Netzwerkeffekte und der daraus resultierenden hohen Wechselkosten für das Wettbewerbsrecht, den Schutz und die Privatsphäre der Nutzer von grundlegender Bedeutung ist. Sie analysiert insbesondere das Recht auf Datenübertragbarkeit gemäß der DSGVO zusammen mit der Auslegung durch die Artikel-29-Arbeitsgruppe und die anderen „Portierungsrechte“ in der Strategie für den digitalen Binnenmarkt und in den Vorschlägen der Europäischen Kommission „für a Verordnung über einen Rahmen für den freien Verkehr nicht personenbezogener Daten in der Europäischen Union“, „für eine Verordnung zur Förderung von Fairness und Transparenz für gewerbliche Nutzer von Online-Vermittlungsdiensten“ und in der vorgeschlagenen „Richtlinie über bestimmte Aspekte von Verträgen für die“ Bereitstellung digitaler Inhalte“. Darin werden sechs kritische Aspekte im Zusammenhang mit dem Recht auf Datenübertragbarkeit hervorgehoben: (1) ein Datenschutzproblem aufgrund der enormen Weitergabe von Daten durch andere Personen, (2) die Notwendigkeit, die Übertragbarkeit nicht personenbezogener Daten zu gewährleisten, (3) die Notwendigkeit, die Übertragbarkeit für professionelle Nutzer, die keine natürlichen Personen sind, herzustellen, (4) die Notwendigkeit, die Rechte des Verantwortlichen und seiner Investitionen zu schützen, wenn Daten nicht nur gesammelt, sondern auch überarbeitet werden, (5) das Risiko eines verringerten Wettbewerbs mit einem starken und nicht skalierbare Regulierung, (6) die Notwendigkeit, auf die verfügbaren technischen Lösungen zu achten, um praktikable Anwendungsmethoden zu gewährleisten, insbesondere unter Berücksichtigung der Bedürfnisse kleinerer Betreiber.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-6265-279-8_8 d35652700a5c816fa7f2cc4f547e6584;de;;;6.1.;;;SWYSWYK: Ein neues Sharing-Paradigma für die Personal Cloud Angetrieben von der jüngsten Gesetzgebung und Initiativen zur intelligenten Offenlegung, entsteht die Personal Cloud und verspricht, der Person die Kontrolle über ihre Daten zurückzugeben. Diese Verschiebung überlässt jedoch die Datenschutz- und Sicherheitsprobleme in den Händen der Benutzer, eine Rolle, die nur wenige Menschen richtig unterstützen können. Diese Demonstration veranschaulicht ein neues Sharing-Paradigma namens SWYSWYK (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-69179-4_59 8064113a66a7829597a0c3236683dbf7;de;;;6.1.;;;FMS-Integrationsprojekte In der Tschechoslowakei wurden in letzter Zeit viele industrielle Anwendungen sowohl der vertikalen als auch der horizontalen Integration umgesetzt. Diese Integrationsprojekte befassten sich hauptsächlich mit der Identifizierung diskreter Subsysteme, der funktionalen Spezifikation, dem Design der Computernetzwerkarchitektur, dem Design von Informationsschnittstellen und den Kommunikationsaspekten. Schlussfolgerungen zu bestimmten Ergebnissen in Bezug auf Art, Umfang und Form stehen zur Diskussion.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-38009-3_46 62c4e69739e3db3bf1d0dad50b27ef62;de;;;6.1.;;;„Alles persönlich, nicht nur geschäftlich:“ Verbesserung der Benutzererfahrung durch regelbasierte Serviceanpassung Das Paradigma von Web und konvergenten Diensten verspricht eine enorme Flexibilität bei der Erstellung umfangreicher zusammengesetzter Dienste für Unternehmen und Endbenutzer. Die Flexibilität und Vielfalt bietet die Möglichkeit hochgradig angepasster, individualisierter Dienste für den Endnutzer und damit umsatzgenerierende Dienste für Dienstanbieter (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24593-3_11 20d76a8481f5fa820cb04cd1facea9ed;de;;;6.1.;;;Erweiterung einer verteilten deduktiven Datenbank mit Mobile Computing Mobile Computing ist eine Komponente, die in vielen zukünftigen Computerumgebungen enthalten sein wird. Dieses Papier stellt ein Schema vor, das das Hinzufügen einer mobilen Komponente zu einer bestehenden verteilten deduktiven Datenbank ermöglicht. Dieses Schema ermöglicht die folgenden Merkmale: 1) Datenreplikation auf der mobilen Einheit, 2) Transaktionsprotokollierung, um Änderungen sowohl in der Datenbank des mobilen Benutzers als auch in der Datenbank des Netzwerks zu protokollieren, 3) Gleichzeitigkeitskontrolle, um zu verhindern, dass beide Kopien denselben Datensatz aktualisieren, und 4) Wiederverbindungsprozeduren, um beide Kopien bei Wiederverbindung zu aktualisieren. Um die Datenreplikation und Neuverbindungsaktualisierungen zu erleichtern, haben wir in der Netzwerkdatenbank „Proxy-Knoten“ eingerichtet, um die für den mobilen Benutzer interessanten Daten zu verfolgen.;-;-;-;https://link.springer.com/article/10.1007/BF01299652 aafe06f6b607c36ec18d46471bbe29ad;de;;;6.1.;;;Hybridisierung Ihres Systems Wir haben viel Zeit damit verbracht, den Komfortfaktor beim Übergang von Linux zu Mac OS X zu erhöhen. Es ist klar, dass vieles von dem, was auf einem System getan werden kann, auf einem anderen erledigt werden kann, obwohl der Weg zu ähnlichen Aufgaben ist variieren. Schließlich haben die Systeme in UNIX einen gemeinsamen Vorfahren. BSD ist UNIX. Mac OS X basiert auf BSD, enthält aber auch einiges an proprietärem Code. Und Linux ist wirklich ein enger Verwandter. BSD kann Linux-Anwendungen ausführen, vorausgesetzt, die optionale Linux-Emulationsschicht ist als Installationskomponente ausgewählt. Linux kann jedoch keine BSD-Anwendungen ausführen. Hinzu kommen grundlegende Unterschiede bei Binärformaten, und es ist nicht immer klar, wie ein bestimmtes Tool oder ein bestimmter Prozess von einer Plattform auf die andere übertragen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-1651-3_9 ff2589185b597f65ed0cfdebafe8e5ab;de;;;6.1.;;;Datenmodelltransformation im CAD-System für Multi-View-Modellierung Dieses Papier beschreibt die Multi-View-Modellierung und die Datenmodelltransformation für die Modellierung. Wir haben ein Referenzmodell der CAD-Systemgenerierung vorgeschlagen, das auf verschiedene domänenspezifische Sprachen angewendet werden kann. Die aktuelle CAD-Systemgeneration kann jedoch keine Daten mehrerer Domänen integrieren. Generell hat jede Domain ihre eigene Produktansicht. Im Bereich der Architekturstruktur zum Beispiel extrahieren Designer die notwendigen Daten aus den Daten des Architekturentwurfs. Domänenexperten übersetzen eine Sichtweise in eine andere Sichtweise jenseits von Domänen mit ihrem eigenen Gehirn. Die Multi-View-Modellierung ist eine Möglichkeit, Produktdaten mehrerer Domänen zu integrieren und es möglich zu machen, Ansichten zwischen verschiedenen Domänen durch Computer zu übersetzen.;-;-;-;https://link.springer.com/article/10.1007/BF03160277 233c76171e3ee34cd95bfd986741bf17;de;;;6.1.;;;Studie über aktuelle Methoden des sicheren nachweisbaren Datenbesitzes auf mehreren Blockebenen in verteilten Cloud-Servern mit der Cloud-MapReduce-Methode Cloud Computing ist eine sich entwickelnde Computerwelt, die es Benutzern ermöglicht, ihre Daten aus der Ferne in einer Cloud zu speichern, um vielseitige Dienste auf Anfrage zu nutzen. Es hat sich herausgestellt, dass die Aufrechterhaltung der Sicherheit der Daten eines nicht genehmigten Benutzers ein äußerst bemerkenswerter Test ist. Dies ist eine bemerkenswerte Sorge, da die Daten umverteilt werden, um den Speicher bei Dritten zu behalten – die als Cloud-Spezialisten-Kooperationen bezeichnet werden. Es ist besonders wichtig, eine vielversprechende Strategie zu verwenden, die eine Verschlüsselung solcher Daten durchführt, bevor sie wirklich für Dritte geeignet sind. Darüber hinaus müssen andere Schlüsselthemen wie die erfolgreiche Ablehnung von Clients und die Skalierbarkeit bei der Schlüsselverwaltung angegangen werden, während gleichzeitig eine feinkörnige und flexible Zugriffskontrolle auf Cloud-Speicher erreicht wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1632-0_24 4273a2b8e259e30b4ecdae1824796588;de;;;6.1.;;;Eine Ära von Big Data auf Cloud-Computing-Diensten als Nutzen: 360°-Überprüfung, Herausforderungen und ungelöste Explorationsprobleme Cloud Computing ist eine innovative Technologie für die Bereitstellung von Computing als Dienstprogramm für die digitale Welt. Es bietet Plattform und Dienste für die Massenspeicherung und den Datenaustausch. Big Data in der Cloud-Umgebungsanalyse, Speicherung, Verwaltung, Visualisierung und Sicherheit sind einige herausfordernde Techniken, die mehr Timing und eine große Recheninfrastrukturverarbeitung erfordern. Dieses Papier dient hauptsächlich der Auffrischung einer Ära der 360°-Vision von massiven Daten über Cloud-Service-Computing. Die Bedeutung, Taxonomie und Literaturübersichten für einige Cloud-Papiere sowie einige Big-Data-Modelle werden vorgestellt. Der Zusammenhang und die Rolle von Deluge Computing und Cloudy Data sowie Big Data Open Source Tools werden ebenfalls diskutiert. Nicht zuletzt werden Forschungsherausforderungen und ungelöste Explorationsprobleme verkürzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30927-9_57 6320fe3d4312dd07770b93481d663386;de;;;6.1.;;;Auf dem Weg zu einer offenen Informationsinfrastruktur für Katastrophenforschung und -management: Datenmanagement und Informationssysteme im DFNK Die Entwicklung neuer und besserer Methoden zur Verhütung und Bewältigung von Naturkatastrophen erfordert eine Vielzahl unterschiedlicher Datensätze, die das Spektrum von referenzierten Daten abdecken, z. topografische Daten und digitale Höhenmodelle bis hin zu verschiedenen thematischen Daten, z.B. Daten über Boden, Vegetation und Landnutzung sowie Monitoringdaten wie Niederschlag und Wasserstand. Ausschlaggebend für den Erfolg des Deutschen Forschungsverbundes Naturkatastrophen (DFNK) waren daher ein gut organisiertes Daten- und Informationsmanagement und die Implementierung einer modernen Verarbeitungsumgebung zur Erfassung, Speicherung, Analyse und Visualisierung von Daten. Zur Unterstützung der Datenverwaltung und des Informationsflusses innerhalb des Netzwerks wurde eine Informationsinfrastruktur aufgebaut. Ein webbasiertes Portal bietet der Öffentlichkeit allgemeine Informationen und der Projektgemeinschaft interne Dokumente, Daten und Softwaretools. Ein Katalogservice ermöglicht den Überblick über vorhandene, aber verteilte Daten in Kombination mit flexibler Datenabfrage. Basierend auf Internettechnologie und globalen Standards tragen diese Konzepte zu einer überlegenen Informationsinfrastruktur bei und begründen schließlich die Entwicklung von Geodateninfrastrukturen (GDI). Ziel von SDI ist es, die Verfügbarkeit und Nutzbarkeit von Geodaten für die vielfältigen Anwendungsbereiche zu verbessern. Katastrophenmanagement ist ein Feld, das von einem sehr hohen Niveau an hochwertiger Datenausrüstung und einer funktionierenden SDI abhängt.;-;-;-;https://link.springer.com/article/10.1007/s11069-005-8606-4 e3a44a4f335bcdf79016945d0467214a;de;;;6.1.;;;Ethische, rechtliche und soziale Fragen (ELSI) in der klinischen Genetikforschung ELSI (Ethical, Legal, and Social Issues) ist ein weit verbreitetes Akronym in der Bioethikliteratur, das ein breites Forschungsspektrum umfasst, das die verschiedenen Auswirkungen von Wissenschaft und Technologie auf die Gesellschaft untersucht. In Kanada, GE;-;-;-;https://link.springer.com/protocol/10.1007/978-1-0716-1138-8_5 2d5d0abb02301921ef9fbd8fbd742eed;de;;;6.1.;;;Erkennen von falscher Freigabe in OpenMP-Anwendungen mit dem DARWIN-Framework Das Schreiben einer parallelen Shared-Memory-Anwendung, die eine gute Leistung erzielt und gut skaliert, wenn sich die Anzahl der Threads erhöht, kann eine Herausforderung darstellen. Einer der Gründe ist, dass mit zunehmender Vermehrung von Threads der Konflikt zwischen gemeinsam genutzten Ressourcen zunimmt und dies zu Leistungseinbußen führen kann. Insbesondere Multithread-Anwendungen können unter dem Problem der falschen gemeinsamen Nutzung leiden, das die Leistung einer Anwendung erheblich beeinträchtigen kann. Die Arbeit in diesem Papier konzentriert sich auf die Erkennung von Leistungsengpässen, die durch falsche Freigabe in OpenMP-Anwendungen verursacht werden. Wir führen ein dynamisches Framework ein, das Anwendungsentwicklern hilft, Fälle von falscher Freigabe zu erkennen und die Datenobjekte in einem OpenMP-Code zu identifizieren, die das Problem verursachen. Das von uns entwickelte Framework nutzt Funktionen der OpenMP-Collector-API, um mit der Laufzeitbibliothek des OpenMP-Compilers zu interagieren, und nutzt die Informationen von Hardware-Zählern. Wir demonstrieren die Nützlichkeit dieses Frameworks bei tatsächlichen Anwendungen, die aufgrund falscher Freigabe eine schlechte Skalierung aufweisen. Um den Nutzen unserer Technik zu demonstrieren, modifizieren wir den identifizierten Problemcode manuell, indem wir die Ausrichtung der Daten anpassen, die eine falsche Freigabe verursachen, und vergleichen dann die Leistung mit der Originalversion.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36036-7_19 0e39286948383bcb762812b045eba8ec;de;;;6.1.;;;Simulationsbasierte Analyse und internetbasierte Realisierung kollaborativer Produktentwicklungsprozesse Die Kombination computergestützter Werkzeuge zur Unterstützung der Planung und Durchführung von Produktentwicklungsprozessen eröffnet neue Möglichkeiten insbesondere für die Zusammenarbeit in virtuellen Unternehmen und global verteilten Lieferketten. Der Einsatz von Simulationswerkzeugen zur Prozessanalyse ermöglicht es den Unternehmen nicht nur, über Unternehmensgrenzen hinweg optimierte Produktentwicklungsprozesse zu gestalten, sondern kann auch die Grundlage für die Ausführung dieser Prozesse bilden. Die Unterstützung durch Produktbibliotheks- und Workflow-Management-Funktionalitäten stellt sicher, dass geplante Prozesse effektiv durchgeführt werden, ohne sich mit den üblichen Problemen des Informationsmanagements herumschlagen zu müssen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35351-7_19 d973fb05cabbac1be194754b7719a102;de;;;6.1.;;;Forschung und Design des Integrierten Verwaltungsmanagementsystems für Unternehmen Das Verwaltungsmanagement ist ein wichtiger Bestandteil des Unternehmensmanagements. Basierend auf den kleinen und mittleren Privatunternehmen des chinesischen Festlandes und in Kombination mit ihrem Managementmodell und -modus werden die Designprobleme des integrierten Verwaltungsmanagement-Softwaresystems für Unternehmen beschrieben. Das Entwurfsmodell des objektorientierten integrierten Verwaltungsmanagementsystems für Unternehmen wird erstellt und ein Gesamtentwurf eines Softwaresystems vorgeschlagen, der die Methodengrundlage für die Forschungs- und Entwicklungsarbeit des integrierten Verwaltungsmanagementsystems für Unternehmen legte. Es hat auch eine große Führungsrolle in der späteren Softwareentwicklung und eine gewisse referenzielle Bedeutung für das integrierte Managementsystem in anderen Bereichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25553-3_5 a563dbc736a6110db12a256ebbe8ddef;de;;;6.1.;;;Eine Puffermethode für parallelisierte Schleifen mit ungleichmäßigen Abhängigkeiten in der High-Level-Synthese In letzter Zeit hat sich die polyedrische Optimierung als Parallelisierungsmethode für Nested-Loop-Kernels konzentriert. Zugriffskonflikte auf einen Off-Chip-RAM waren jedoch der Leistungsengpass beim Anwenden der polyedrischen Optimierung auf die Synthese auf hoher Ebene. In diesem Artikel schlagen wir ein Verfahren vor, um synthetisierte Schaltungen durch Puffern von RAM-Zugriffen außerhalb des Chips zu beschleunigen. Die Puffer sind aus chipinternen RAM-Blöcken aufgebaut, die auf jedem der Verarbeitungselemente (PEs) platziert sind und auf die in weniger Zyklen als auf den chipexternen RAM zugegriffen werden kann. Unsere Methode unterscheidet sich von verwandten Arbeiten in der Unterstützung ungleichmäßiger Datenabhängigkeiten, die nicht durch konstante Vektoren dargestellt werden können. Das experimentelle Ergebnis mit praktischen Kerneln zeigt, dass die gepufferten Schaltkreise mit 8 PEs im Durchschnitt 5,21-mal schneller sind als die ursprünglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03859-9_34 59a6ff9a528130c2358f2412d13adaae;de;;;6.1.;;;Herausforderungen mit Forschungsdaten zu Behavioral Health Services Dieses Kapitel untersucht die Komplexität der Daten, die von einer Vielzahl von Einzelpersonen und Organisationen in den verschiedenen Bereichen der Verhaltensforschung (Alkohol, Drogenmissbrauch und psychische Gesundheit) generiert werden. Außerdem wird die Rolle der Technologie in der Dienstleistungsforschung und beim Zugang zu Forschungsdatenbanken untersucht. Darüber hinaus werden in diesem Kapitel einige der wichtigsten Datenbanken in der Forschung zu verhaltensbezogenen Gesundheitsdiensten identifiziert und die Komplexität der Sammlung, Organisation und des Zugriffs auf Informationen aus einer Vielzahl von Datensammlungsquellen veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-18435-3_6 e2ae89de8f26c8e6cb2e7f7c7a97356b;de;;;6.1.;;;Datenschutz und Biometrie Wir berücksichtigen die weit verbreitete Erosion der Privatsphäre und stellen den Kompromiss mit der wahrgenommenen Sicherheit in Frage und bekräftigen in diesem Zusammenhang die Forderung nach Datenschutz. Die Einführung der biometrischen Technologie bringt zusätzliche Herausforderungen mit sich, nicht nur aus Sicht des Datenmanagements, sondern insbesondere im Hinblick auf die Annahmen zur Wirksamkeit einer biometrischen Match-Transaktion. Wir betrachten daher sowohl den Fluss einer Biometrie durch ein typisches System als auch die unrealistischen Annahmen, die oft in Bezug auf das Ergebnis einer biometrischen Abgleichstransaktion und die Gültigkeit einer zugehörigen Identität gemacht werden. Wir bieten Vorschläge für eine bessere Nutzung der Biometrie in diesem Zusammenhang und bekämpfen die massive Aushöhlung der Privatsphäre. Neben der Betrachtung praktischer Fragen, wie der Vorlagenspeicherung, überdenken wir das gesamte Konzept der Identität und unseren oft unrealistischen Fokus darauf. Dies ist ein komplexes Gebiet, das im Allgemeinen noch wenig verstanden wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-04159-9_13 948f96069d0650b1ea235c3bcabb7481;de;;;6.1.;;;Analyse der Faktoren, die die erfolgreiche Einführung und Akzeptanz elektronischer Patientenakten in Krankenhäusern beeinflussen Es gibt zahlreiche Belege dafür, dass elektronische Patientenakten (EHRs) in vielerlei Hinsicht sowohl den Gesundheitsdienstleistern als auch den Patienten zugute kommen. Daher prüfen Gesundheitsdienstleister in Praxen, Kliniken und Krankenhäusern auf der ganzen Welt zunehmend, die Potenziale von HER-Systemen zu nutzen. Obwohl das Wissen über EHR-Initiativen immer größer wird, zeigen anekdotische Belege, dass eine beträchtliche Anzahl von EHR-Initiativen die Phase nach dem Experimentieren nicht überleben. Dies hat uns zu der Untersuchung veranlasst, warum EHR-Initiativen trotz des Potenzials von EHRs, eine Reihe von Vorteilen zu bieten, die Phase nach dem Experimentieren nicht überdauern. In diesem Papier untersuchen wir Faktoren, die eine erfolgreiche Anpassung und Akzeptanz von EHRs beeinflussen. Im Gegensatz zu der spannenden Forschung, die sich weitgehend auf die technischen Faktoren konzentriert, werden wir die nicht-technischen Faktoren berücksichtigen, die eine erfolgreiche Adaption und Akzeptanz von EHRs in Krankenhäusern und Kliniken verhindern. Wir führen umfangreiche Literaturanalysen durch, um die Forschungslandschaft zu untersuchen, wobei wir uns auf nicht-technische Faktoren konzentrieren, die die Akzeptanz von EHRs durch die Gesundheitsdienstleister beeinflussen. Unsere Ergebnisse zeigen, dass soziale, kulturelle und verhaltensbezogene Faktoren ebenso wichtig sind wie die technischen Faktoren für eine erfolgreiche HER-Implementierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-80216-5_21 44d13df628353bcf1f2d3bbb4b93e5d6;de;;;6.1.;;;Produktarchitektur und IT-Strategie Unternehmen erkennen zunehmend die strategischen Auswirkungen des Front-End-Produktdesigns, um die Gesamtkosteneffizienz zu verbessern. Über seine traditionelle Funktion als Produktdesign-Tool hinaus wird Computer-Aided Design (CAD) zu einer Wettbewerbswaffe für Unternehmen. Es ist jedoch unklar, wie das volle Potenzial von IT-Systemen, insbesondere der Einsatz von 3D-CAD-Systemen, durch organisatorische Fähigkeiten ausgeschöpft werden kann. In diesem Kapitel wird ein Modell für IT-Systemkonfigurationen und CAD-Nutzungsmuster vorgestellt. Als nächstes wird eine Typologie von IT-Systemkonfigurationen präsentiert, basierend auf: (1) dem Grad der CAD-Integration zwischen Montageherstellern und Zulieferern und (2) der Struktur der Produktkonstruktionsinformationen oder der Produktarchitektur. Die Produktarchitektur von vier Elektronikfirmen zeigt, dass die organisatorische Fähigkeit, das Potenzial von IT-Systemen voll auszuschöpfen, entscheidender ist als Investitionen in die IT-Entwicklung selbst.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-5535-5_6 ddf706d2d463fc2bc543ec004a4d7e0a;de;;;6.1.;;;Sprachliche Methoden in der Anwendung im Gesundheitswesen und Klassifizierung von COVID-19-Varianten Eines der wichtigsten Ziele der modernen Medizin ist die Prävention von Pandemie- und Zivilisationskrankheiten. Für solche Aufgaben werden fortschrittliche IT-Infrastrukturen und intelligente KI-Systeme verwendet, die es ermöglichen, die Diagnose und Behandlung der Patienten zu unterstützen. In unserer Forschung versuchen wir auch, effiziente Werkzeuge zur Coronavirus-Klassifizierung zu definieren, insbesondere mit mathematisch-linguistischen Methoden. In diesem Beitrag werden die Anwendungsmöglichkeiten linguistischer Techniken zur Unterstützung eines effektiven Managements medizinischer Daten, die während der Coronavirus-Behandlungen gewonnen werden, sowie die Anwendungsmöglichkeiten solcher Methoden bei der Klassifizierung verschiedener Varianten der bei bestimmten Patienten nachgewiesenen Coronaviren vorgestellt. Derzeit werden mehrere Coronavirus-Typen unterschieden, die sich durch Unterschiede in ihrer RNA-Struktur auszeichnen, was wiederum eine Zunahme der Mutations- und Infektionsrate mit diesen Viren bewirkt.;-;-;-;https://link.springer.com/article/10.1007/s00521-021-06286-y 8dea939dc05585e1d95412bf357b1173;de;;;6.1.;;;Spektren, Chromatogramme, Metadaten: mzML – Das Standarddatenformat für die Massenspektrometerausgabe Dieses Kapitel beschreibt die Mass Spectrometry Markup Language (mzML), ein XML-basiertes und herstellerneutrales Standarddatenformat zum Speichern und Austauschen von Massenspektrometer-Ausgaben wie Rohspektren und Peaklisten. Es soll seine beiden Vorgänger-Datenformate (mzData und mzXML) ablösen, die einige Jahre zuvor unabhängig voneinander entwickelt wurden. Somit wird mit der Veröffentlichung von mzML das Problem gelöst, zwei verschiedene Formate für die gleichen Zwecke zu haben, und damit der doppelte Aufwand, zwei Datenformate zu pflegen und zu unterstützen. Das neue Format wurde von einem breit aufgestellten Konsortium großer Instrumentenhersteller, Softwarehersteller und akademischer Forscher unter der Ägide der Human Proteome Organization (HUPO), Proteomics Standards Initiative (PSI), unter voller Beteiligung der Hauptentwickler von . entwickelt die Vorläuferformate. Dieser umfassende Ansatz verhalf mzML zu einem allgemein anerkannten Standard. Darüber hinaus stellte die kollaborative Entwicklung sicher, dass mzML die besten Eigenschaften seiner Vorläuferformate übernommen hat. In diesem Kapitel diskutieren wir die Entwicklungsgeschichte von mzML, seine Entwurfsprinzipien und Anwendungsfälle sowie seine wichtigsten Gebäudekomponenten. Wir präsentieren auch die verfügbare Dokumentation, eine Beispieldatei und Validierungssoftware für mzML.;-;-;-;https://link.springer.com/protocol/10.1007/978-1-60761-987-1_11 9a5793adacf9e44b91c123c385a278ca;de;;;6.1.;;;Schmetterlingsüberwachung für den Naturschutz Die Überwachung von Schmetterlingspopulationen ist ein wesentlicher Bestandteil ihrer Erhaltung. Einige Erhebungstechniken messen die Belegung und bestimmen einfach das Vorhandensein oder Fehlen von Arten, während andere Techniken die Schmetterlingshäufigkeit messen. Techniken zur Markierungsfreisetzung umfassen das Markieren der Flügel einer Untergruppe einer Population, das Freisetzen und anschließende Wiedereinfangen und das Bestimmen des Anteils der markierten Individuen bei der erneuten Probenahme. Die Entfernungsstichprobe nutzt die Abnahme der Wahrscheinlichkeit der Entdeckung einzelner Schmetterlinge als Funktion der zunehmenden Entfernung vom Beobachter. Diese Techniken können beide verwendet werden, um die tatsächliche Populationsgröße abzuschätzen. Die Wiederaufnahme der Markierungsfreigabe ist die rigoroseste, aber auch arbeitsintensivste Technik. Es birgt auch das Risiko einer Beschädigung von Personen während des Markierungsprozesses. Die Entfernungsstichprobe ist statistisch robust und riskiert nicht, Schmetterlinge zu beschädigen, indem sie sie markieren. In einigen Fällen schränken die Forderung nach einer zufälligen Platzierung der Vermessungstransekte innerhalb der Population und die Annahme einer gleichmäßigen Verteilung der Schmetterlinge die Anwendung der Technik ein. Bei Pollard-Wanderungen gehen Vermesser eine festgelegte Route in einem einheitlichen Tempo. Sie zählen alle Schmetterlinge innerhalb einer vorgeschriebenen Entfernung (in der Regel etwa 20 m). Zusätzlich zu diesen systematischen Erhebungstechniken werden auch eine Vielzahl weniger formaler Überwachungsprotokolle verwendet. Dazu gehören Zählkreise, Exkursionen und Wanderumfragen. Darüber hinaus gibt es vielfältige Online-Möglichkeiten für Interessierte, Schmetterlingsbeobachtungen einzureichen. Forscher sollten bei der Auswahl einer Technik die Annahmen, Vor- und Nachteile berücksichtigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-9852-5_3 cf8d06c639a1013a5b1e7b3512b3abda;de;;;6.1.;;;Verwaltung von Pervasive Environments durch Datenbankprinzipien: Eine Umfrage Wie von Mark Weiser ursprünglich vorgestellt, sind Pervasive Environments der Trend für die Zukunft der Informationssysteme. Heterogene Geräte, von kleinen Sensoren bis hin zu Rahmencomputern, sind alle durch allgegenwärtige Netzwerke verbunden, die von lokalen drahtlosen Peer-to-Peer-Verbindungen bis zum weltweiten Internet reichen. Die Verwaltung solcher Umgebungen, um das volle Potenzial der verfügbaren Ressourcen für die Bereitstellung von Informationen und Diensten zu nutzen, ist ein anspruchsvolles Thema, das mehrere Forschungsbereiche wie Datendarstellung, Netzwerkmanagement und Diensterkennung umfasst. . . Einige Themen wurden jedoch bereits von der Datenbank-Community eigenständig angegangen, z.B. für verteilte Datenbanken oder Datenintegration. In dieser Umfrage analysieren wir aktuelle Trends im Pervasive Environment Management anhand von Datenbankprinzipien und skizzieren die Hauptkomponenten unseres laufenden Projekts SoCQ, das sich der Überbrückung der Lücke zwischen Pervasive Environments und Datenbanken widmet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02190-9_13 745458d642dbac3b748b8074fb6e6779;de;;;6.1.;;;Ein agentenbasiertes System, das kollaboratives Produktdesign unterstützt Kollaboratives Design kann einen Mehrwert im Design- und Produktionsprozess schaffen, indem es den Vorteil von Teamarbeit und Zusammenarbeit auf eine gleichzeitige und koordinierte Weise bringt. Die Schwierigkeiten, die sich aus den Unterschieden zwischen heterogenen Systemarchitekturen und Informationsstrukturen ergeben, untergraben jedoch die Effektivität und den Erfolg des kollaborativen Designs. Dieses Papier stellt einen neuen Rahmen für kollaboratives Design vor, der einen agentenbasierten Ansatz verfolgt und Designer, Manager, Systeme und unterstützende Agenten in einem einheitlichen Wissensrepräsentationsschema für das Produktdesign verlagert. Es wird ein agentenbasiertes System beschrieben, das Designer bei der Verwaltung und Koordination eines kollaborativen Designprozesses durch die Zusammenarbeit eines Netzwerks von Agenten unterstützen kann, das hauptsächlich Managementagenten, Kommunikationsagenten und Designagenten usw. umfasst.;-;-;-;https://link.springer.com/chapter/10.1007/11893004_86 80d4960f075a30cab2637f1270776a0e;de;;;6.1.;;;HECTOR: Ermöglichung von Microarray-Experimenten über die Hellenic Grid Infrastructure Biologen, Mediziner, Biochemie-Ingenieure und Forscher, die an DNA-Microarray-Experimenten arbeiten, wenden sich zunehmend dem Grid-Computing zu, um die Rechenleistung des Grids, die immensen Speicherressourcen und die Servicequalität für die sinnvolle Verarbeitung einer Vielzahl von Datensätzen zu nutzen. In diesem Beitrag präsentieren wir die kombinierte Erfahrung von Grid-Anwendungsexperten und Bioinformatikern bei der Bereitstellung eines Pilotdienstes, der eine recheneffiziente Verarbeitung und Analyse von Daten aus Microarray-Experimenten ermöglicht. Dieser Pilotdienst ist über den hellenischen Teil des EGEE-Netzes zugänglich und wurde im Rahmen mehrerer öffentlicher Veranstaltungen demonstriert. Wir beleuchten den Prozess der Aktivierung von Grid-Anwendungen, Herausforderungen bei der Grid-Bereitstellung sowie Erkenntnisse aus einer halbjährlichen Anstrengung zur Portierung und Bereitstellung einer MATLAB-DNA-Microarray-Anwendung auf einem Produktions-Grid. Neben der Beschreibung der Parallelisierung der Anwendung liegt unser Schwerpunkt auch auf der Entwicklung einer verteilten föderierten Datenbank zur Speicherung und Nachbearbeitung der Ergebnisse der Microarray-Experimente. Insgesamt glauben wir, dass unsere Erfahrung nicht nur für Microarray-Datenwissenschaftler, sondern auch für andere Grid-Benutzer, die Grid-fähig machen und ihre Anwendungen bereitstellen möchten, wertvoll sein könnte.;-;-;-;https://link.springer.com/article/10.1007/s10723-009-9123-6 0569929f36b866f3e7f7c155d43ca562;de;;;6.1.;;;Sicherheit und Datenschutz für Webdatenbanken und -dienste Ein semantisches Web kann man sich als ein hochintelligentes und ausgeklügeltes Web vorstellen, bei dem Aufgaben wie Terminplanung, Koordination von Aktivitäten, Suche nach komplexen Dokumenten sowie die Integration unterschiedlicher Datenbanken und Informationssysteme mit nur wenigen oder gar keinen menschlichen Eingriffen ausgeführt werden können. Obwohl bei der Entwicklung eines solchen intelligenten Webs bereits große Fortschritte erzielt wurden, bleibt noch viel zu tun. Zum Beispiel gibt es wenig Arbeit zu Sicherheit und Datenschutz für das Semantic Web. Bevor wir jedoch die Sicherheit des semantischen Webs untersuchen, müssen wir sicherstellen, dass seine Schlüsselkomponenten wie Webdatenbanken und -dienste sicher sind. Dieses Papier konzentriert sich hauptsächlich auf Sicherheits- und Datenschutzfragen für Webdatenbanken und -dienste. Schließlich werden einige Anweisungen zur Entwicklung eines sicheren semantischen Webs gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24741-8_3 673413a4bd34cdc38c6d5bca567f5cb7;de;;;6.1.;;;Vorhersagebemühungen vor dem Erdbeben in Wenchuan In der Geschichte Chinas gab es viele große Erdbeben (Abbildung 3.1). Chinesische Seismologen beschäftigen sich seit einem halben Jahrhundert mit Forschung und Praxis zur Erdbebenvorhersage, konnten jedoch das Erdbeben in Wenchuan nicht vorhersagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21159-1_3 35e4ba00b32c0062356d45b4afaf29ea;de;;;6.1.;;;Funktionsübergreifende Prozessintegration und die integrierte Datenumgebung Die Planungskonzepte werden detailliert entwickelt und fokussieren gezielt auf funktionsübergreifende Prozesse. Der Schwerpunkt liegt auf der vertikalen Integration der Organisation auf verschiedenen Ebenen, einschließlich der Ebenen der strategischen Planung, der Anforderungsdefinition (Geschäftsprozess), der Designspezifikation und der Beschreibung der Implementierung. Der Ansatz umfasst die Verknüpfung von Geschäftszielen mit Funktionen, die in Prozesse eingebettet sind, die horizontal über Unternehmensdomänen hinweg fließen. Der Eigenname für die vertikale und horizontale (funktionsübergreifende) Integrationsmethodik lautet Integrated Process Engineering (IPE).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5091-4_3 fb5735e5fe41f7676605fa2cfd54a1e2;de;;;6.1.;;;Nutzung des Internets der Dinge zur verbesserten Unterstützung von Arbeitern in der Fertigung Arbeitsprozesse wie die Montage in der Fertigung sind oft hochkomplex und ändern sich aufgrund der heutigen hohen technologischen Innovationsrate häufig. So kann der Einsatz von Assistenzdiensten zur Unterstützung der Montagearbeiter erhebliche Vorteile bringen. Eine angemessene Hilfeleistung erfordert jedoch Kenntnisse über die tatsächlichen Handlungen der Arbeitnehmer. In diesem Kapitel stellen wir einen Anwendungsfall aus der Luftfahrt vor, bei dem eine Fertigungsumgebung ohne Sensoren um handelsübliche Sensoren erweitert wird, die es ermöglichen, die Wirkung physikalischer Einwirkungen und damit adäquate Reaktionen eines Unterstützungssystems zu erfassen . Außerdem geben wir einen Überblick über Technologien des Internet of Things und eine Kategorie menschlicher Fehler in der Industrie, um die Replikation der beschriebenen Digitalisierung an anderen Arbeitsplätzen zu vereinfachen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-64301-4_7 19e4f4e42883d9f48693a09691afd0ef;de;;;6.1.;;;Fallstudie: Datenmanagementstrategien in einem integrierten Pathway-Tool Dieses Papier beschreibt die Entwicklungsstrategien für ein integriertes Werkzeug zur Unterstützung von Wissenschaftlern bei der kreativen Erforschung von Daten zu biochemischen Signalwegen. Die vielfältigen Benutzergruppen, unterschiedlichen Funktionalitäten und viele Arten und Quellen von Daten erforderten einen flexiblen und dennoch kohärenten Ansatz. Dieses Papier fasst die Softwareanforderungen und die implizierten Module und Funktionen zusammen und konzentriert sich auf die Designentscheidungen, die für die Darstellung, Verwaltung und den Fluss von Daten relevant sind. Abschließend werden mehrere Fallstudien zum Einsatz der Software beschrieben und ausgewertet sowie Empfehlungen für die zukünftige Arbeit gegeben.;-;-;-;https://link.springer.com/article/10.2165/00822942-200403010-00008 a8fe45f80b09b099c345ffa1a3868a4e;de;;;6.1.;;;Eine Anleitung zum Aufbau bildzentrierter Datenbanken Trotz des offensichtlichen Bedarfs an Automatisierung und Integration experimenteller Ergebnisse besteht ein Mangel an bildzentrierter Neuroinformatik-Infrastruktur im Labor des einzelnen Forschers. Dennoch können Lösungen oft ohne weiteres mit Standarddatenbanken und zugehörigen Tools erstellt werden. Dies vereinfacht den täglichen Forschungsbetrieb und erhöht den Durchsatz. Der richtige Aufbau interner Lösungen kann auch die gemeinschaftsweite Integration privater und öffentlicher Datenspeicher beschleunigen. Hier beschreiben wir neuroinformatische Ansätze auf verschiedenen Funktionalitätsebenen, erforderliches Fachwissen und Größe der Bilddatensätze. Der einfachste Ansatz bietet einfaches Durchsuchen von Bildern und eine rudimentäre Suche. Anspruchsvollere Systeme bieten leistungsstarke Suchfunktionen, ein Mittel zur Verfolgungsanalyse und sogar automatisierte serielle Verarbeitungspipelines. In diesem Praktikum geben wir Anleitungen bei der Auswahl zwischen den verschiedenen Optionen.;-;-;-;https://link.springer.com/article/10.1385/NI%3A1%3A4%3A359 0cd8b41a4756b5c30471a887a6a2673f;de;;;6.1.;;;Datenfusion: Lösen von Konflikten aus mehreren Quellen Viele Datenverwaltungsanwendungen, wie das Einrichten von Webportalen, die Verwaltung von Unternehmensdaten, die Verwaltung von Community-Daten und die gemeinsame Nutzung wissenschaftlicher Daten, erfordern die Integration von Daten aus mehreren Quellen. Jede dieser Quellen stellt eine Reihe von Werten bereit, und verschiedene Quellen können oft widersprüchliche Werte liefern. Um den Benutzern Qualitätsdaten zu präsentieren, ist es entscheidend, Konflikte zu lösen und Werte zu entdecken, die die reale Welt widerspiegeln;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38562-9_7 66f67a7d5f47b2b1367d76d7c9d50869;de;;;6.1.;;;Eine Umfrage zur Provenienz: Wozu? Welche Form? Von was? Provenienz bezieht sich auf alle Informationen, die den Produktionsprozess eines Endprodukts beschreiben, das von digitalen Daten bis hin zu einem physischen Objekt reichen kann. Während sich diese Umfrage auf die ehemalige Art des Endprodukts konzentriert, lässt diese Definition noch Raum für viele verschiedene Interpretationen und Herangehensweisen an die Provenienz. Diese werden typischerweise durch unterschiedliche Anwendungsdomänen für die Herkunft (z. B. Verantwortlichkeit, Reproduzierbarkeit, Prozess-Debugging) und unterschiedliche technische Anforderungen wie Laufzeit, Skalierbarkeit oder Datenschutz motiviert. Dabei beobachten wir unterschiedlichste Provenienzarten und herkunftsgenerierende Methoden. Diese Umfrage gibt einen Überblick über das Forschungsfeld Provenienz, wobei der Schwerpunkt darauf liegt, wofür Provenienz verwendet wird (;-;-;-;https://link.springer.com/article/10.1007/s00778-017-0486-1 0084e532fe38898f6810cb4f788e4005;de;;;6.1.;;;Ein flexibles Präsentationsmodell für verteilte Informationssysteme Eine der Visionen des Mobile Computing ist es, dem Benutzer „alle Informationen zur Verfügung zu stellen“ – damit er jederzeit und überall mit allen Daten arbeiten kann. Die Idee ist, eine Informationsumgebung zu schaffen, die den homogenen Zugriff auf alle Daten und Dienste bietet, die in der verteilten, mobilen Computerinfrastruktur verfügbar sind. Eine grundlegende Voraussetzung für den Zugriff auf ein solches offenes, verteiltes Informationssystem ist eine intelligente Auswahl von Methoden zur Informationsvisualisierung basierend auf den Benutzeranforderungen und der verfügbaren Anzeigefunktionalität.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-9472-0_1 3b025a80b235b3f304a9488d01cc632f;de;;;6.1.;;;Wiederverwendung, Zusammensetzung und Anpassung von Modellen Oftmals werden Modelle und Simulationen von Teilsystemen wie den Komponenten eines Fahrzeugs isoliert erstellt und müssen später mit anderen Modellen zu einem Modell des Gesamtsystems integriert werden. Die Wiederverwendung vorhandener Modelle und Simulationen kann jedoch kostspielig und zeitaufwändig sein und zu unsicheren Ergebnissen führen. Es sind Fortschritte erforderlich, um eine kosteneffektive Wiederverwendung von Modellen und Simulationen zu ermöglichen und sicherzustellen, dass integrierte Modelle zuverlässige Ergebnisse liefern. Zu den wichtigsten in diesem Kapitel erörterten Ergebnissen gehören die Notwendigkeit von Fortschritten in der Theorie der Wiederverwendung, um eine solide theoretische Grundlage für die Erstellung robuster und zuverlässiger Wiederverwendungspraktiken zu schaffen, die Notwendigkeit von Leitfäden, die bewährte Verfahren zur Wiederverwendung dokumentieren, und die Notwendigkeit von Forschungsfortschritten im Bereich der sozialen, Verhaltens- und kulturelle Aspekte der Wiederverwendung zusätzlich zu technischen Fragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-58544-4_6 2c0edec0a39551b48b83b30c09da2395;de;;;6.1.;;;Ein mehrstufiger Ansatz für die Datenbeschreibung und das Management einer großen hierarchischen Datenbank, die ein Krankenhaus-Patienteninformationssystem unterstützt Das Papier beschreibt einen systematischen Ansatz, um die verschiedenen – und teilweise widersprüchlichen – Datenverarbeitungsanforderungen zu erfüllen, die in einer großen operativen Krankenhausdatenbank auftreten.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-08934-9_88 43138567810432dd5746194b226a901a;de;;;6.1.;;;Wirksamkeit einer Gruppenintervention zur Tabakentwöhnung bei Tabakkonsumenten mit begleitenden psychischen Erkrankungen in Kenia: Protokoll für eine kontrollierte klinische Studie Die Rate des Tabakkonsums bei Menschen mit psychischen Erkrankungen ist fast doppelt so hoch wie in der Gesamtbevölkerung. Psychopharmaka zur Tabakentwöhnung sind für die meisten Kenianer relativ teuer. Verhaltensberatung und Gruppentherapie sind wirksame kostengünstigere Strategien zur Förderung der Tabakentwöhnung, wurden jedoch in Kenia bei Personen mit begleitenden psychischen Erkrankungen nicht untersucht.;-;-;-;https://link.springer.com/article/10.1186/s12889-019-8040-2 37c7d1538e7f2ef503eda9115060674d;de;;;6.1.;;;Vorteile der Datenschutz-Compliance für Unternehmen – eine Studie zu Cyber-Physical Systems und dem Internet der Dinge Der Schutz der Privatsphäre von Personen ist in vielen Rechtsordnungen sowohl eine gesetzliche Anforderung als auch ein Schlüsselfaktor für die Geschäftstätigkeit. Unternehmen haben daher eine rechtliche Verpflichtung, ihre Datenschutz-Compliance aus geschäftlicher Bedeutung in Ordnung zu bringen. Dies gilt nicht nur für den täglichen Geschäftsbetrieb von Organisationen, sondern auch für die IT-Systeme, die sie verwenden, entwickeln oder einsetzen. Die Einhaltung des Datenschutzes wird jedoch wie alle anderen gesetzlichen Compliance-Anforderungen oft als zusätzliche Belastung angesehen, die sowohl unnötig als auch kostspielig ist. Eine solche Sichtweise der Compliance kann für Unternehmen zu negativen Konsequenzen und entgangenen Chancen führen. Dieses Papier versucht, die Datenschutz-Compliance als Wertbeitrag für Unternehmen zu positionieren, indem es sich auf die Vorteile konzentriert, die sich aus der Datenschutz-Compliance in Bezug auf eine bestimmte Untergruppe von IT-Systemen, nämlich Cyber-Physical Systems und Internet of Things-Technologien, ableiten lassen. Es wird eine Basisliste der Vorteile der Datenschutz-Compliance vorgeschlagen, die für CPS und IoT mit der südafrikanischen Rechtslandschaft kontextualisiert ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-43276-8_12 4b05bacbb408d5be4cd2583b255928ab;de;;;6.1.;;;Grenzen und Zyklen der Umweltpolitik Das OLG-Modell analysiert die Emissionen eines kumulativen Schadstoffs in einer Laissez-faire-Wirtschaft und einer Wirtschaft, die durch einen staatlich kontrollierten Lizenzmarkt reguliert wird. Der Staat nimmt entweder den Preis auf dem Lizenzmarkt als gegeben an oder verkauft die nachgefragten Lizenzen zum Cournot-Preis. Die erste Art der Regulierung wird als „liberale Umweltpolitik“ und die zweite als „monopolistische Umweltpolitik“ bezeichnet. Die zukunftsgerichteten temporären und stationären Gleichgewichte sowie die Belastungsgrenzen der Mechanismen werden untersucht. Wenn man zwischen Laissez-faire und Regulierung (oder zwischen liberalem und monopolistischem Umweltregime) wählen kann, dann existiert im Allgemeinen kein Steady State. Stattdessen können endogene Politikzyklen zwischen Laissez-faire und Regulierung oder zwischen liberaler und monopolistischer Regulierung wechseln.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008218114525 a4877758dc3f0ce3d149f9d653c3e020;de;;;6.1.;;;Feldversuchsnetzwerk Das ultimative Ziel der Forschung und Entwicklung und Bewertung der Mobilfunktechnologie ist die Anwendung. Der Feldversuch ist der letzte und zugleich wichtigste Teil der Technologie von der Forschung bis zur Anwendung. Während des F&E-Prozesses der 5G-Schlüsseltechnologie muss auch die technologische Machbarkeit durch den Feldversuch nachgewiesen werden, der experimentelle Grundlagen für die Standardisierung liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-61869-2_7 6f063ec5a16a72ff8a1d1c6fc4bb514a;de;;;6.1.;;;Forschung zu synthetischen Datenwürfeln für natürliche Umgebungen basierend auf XML B+ Baumstruktur Da die synthetischen natürlichen Umgebungsdaten viele Merkmale von mehreren Quellen aufweisen, heterogen und massiv sind, wird die Datenwürfeltechnologie, die mehrdimensionale Daten verarbeiten kann, auf das synthetische natürliche Umgebungsdatenmanagementsystem angewendet. Während die traditionelle Datenwürfeltechnologie das Problem einer geringen Konstruktions- und Abfrageeffizienz hat. Dieses Papier stellt einen Datenwürfel vor, der auf der XML B+ Baumstruktur basiert. Der Datenwürfel führt in XML-Datendateien. Durch die dimensionsmäßige Unterteilung der Quelldaten wird der B+-Baum Schicht für Schicht aufgebaut, und für jeden Hierarchieknoten wird eine Binärkodierung eingerichtet, um die Assoziations- und Vererbungsbeziehung zwischen den Dimensionen zu bewahren. Gleichzeitig ist der Konstruktions- und Abfragealgorithmus vorgegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-6502-6_60 ab9013c634a045a13c3b5e70e10d66bd;de;;;6.1.;;;Standardisiertes Multiprotokoll-Datenmanagement für Grid- und Cloud-GridRPC-Frameworks GridRPC ist ein internationaler Standard des Open Grid Forums, der eine API definiert, die die nahtlose Einreichung von Anwendungen auf großen, heterogenen und geografisch verteilten Computerplattformen ermöglicht. Erste Versionen des Standards berücksichtigten keine Datenverwaltungsfunktion. Daten waren Parameter der Remote-Prozedur-Aufrufe, ohne die Möglichkeit, sie vorab abzurufen, um Persistenz, Replikation, externe Quellen,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10067-8_6 81188136ce82092cf241f259010da8ee;de;;;6.1.;;;Reifegradmodelle von Gesundheitsinformationssystemen und -technologien: ein Literaturüberblick Die Reifegradmodelle sind Instrumente zur Erleichterung des Organisationsmanagements, einschließlich des Managements seiner Informationssystemfunktion. Diese Instrumente werden auch in Krankenhäusern verwendet. Ziel dieses Artikels ist es, Reifegradmodelle für das Management von Informationssystemen und -technologien (IST) im Gesundheitswesen zu identifizieren und zu vergleichen. Für jedes Reifegradmodell wird die Methodik der Entwicklung und Validierung sowie der Umfang, die Stufen und deren Eigenschaften nach Dimensionen oder Einflussfaktoren identifiziert. Aus dieser Studie ergab sich die Notwendigkeit, ein Reifegradmodell zu entwickeln, das auf einem ganzheitlichen Ansatz basiert. Es wird ein umfassendes Set von Einflussfaktoren beinhalten, um alle Bereiche und Teilsysteme von Gesundheitsorganisationen zu erreichen.;-;-;-;https://link.springer.com/article/10.1007/s10916-016-0486-5 f36e2ff715105b763094bc86631361e4;de;;;6.1.;;;Kritische Fragen für das langfristige Klimamonitoring Auch nach umfangreicher Aufarbeitung vergangener Daten sind wir in vielen Fällen nicht in der Lage, wichtige Aspekte zu Klimawandel und Variabilität aufzuklären. Nahezu jedes Monitoringsystem und jeder Datensatz erfordert eine bessere Datenqualität, Kontinuität und Homogenität, um schlüssige Antworten auf Fragen zu geben, die sowohl für Wissenschaftler als auch für politische Entscheidungsträger von Interesse sind. Dies ist darauf zurückzuführen, dass meteorologische Langzeitdaten (sowohl Satellit als auch konventionell) sowohl in der Gegenwart als auch in der Vergangenheit in erster Linie zur Wettervorhersage und nur in einigen Fällen zur Beschreibung des aktuellen Klimas erhoben werden und wurden. Eine langfristige Klimaüberwachung, die in der Lage ist, Klimaveränderungen im Maßstab von Jahrzehnten bis Jahrhunderten aufzulösen, erfordert unterschiedliche Betriebsstrategien. Darüber hinaus ist die anhaltende Verschlechterung konventioneller oberflächenbasierter Beobachtungssysteme in vielen Ländern (sowohl in den Industrie- als auch in den Entwicklungsländern) ein unheilvolles Zeichen für die Aufrechterhaltung der gegenwärtigen Fähigkeiten in der Zukunft. Satellitengestützte Beobachtungsplattformen allein werden und können nicht alle erforderlichen Messungen liefern.;-;-;-;https://link.springer.com/article/10.1007/BF01095146 69f0ad2d92a9d97cf8fc5344146ed364;de;;;6.1.;;;Die Reaktion der öffentlichen Gesundheit auf potentiellen Bioterrorismus durch Toxinangriff Ob in großen oder kleineren, gezielten Angriffen verteilt, biologische Toxine stellen eine erhebliche Bedrohung für die Gesundheit der amerikanischen Öffentlichkeit dar. Bei verdeckten Angriffen kann es aufgrund des verzögerten Auftretens klinischer Anzeichen und Symptome bei den betroffenen Personen schwierig sein, festzustellen, ob eine Exposition überhaupt stattgefunden hat. Obwohl in der Vergangenheit erhebliche Anstrengungen unternommen wurden, um die Verbreitung von Toxinen und anderen biologischen Bedrohungsstoffen zu verhindern, sind ihre relativ leichte Beschaffung, ihre geringen Kosten, ihre Fähigkeit, Krankheiten und den Tod zu verursachen, und die Leichtigkeit, mit der sie in kleinem Maßstab verbreitet werden können Angriffe machen sie zu attraktiven Waffen der Wahl für diejenigen, die Angst machen und die soziale und wirtschaftliche Stabilität untergraben wollen. Die Symptomatik einer Toxinvergiftung wird in der Regel um mehrere Stunden bis Tage nach der Exposition verzögert und kann von natürlich auftretenden Krankheiten nicht zu unterscheiden sein. Um zu erkennen, dass ein biologisches Ereignis mit einer absichtlichen Freisetzung von Toxin eingetreten ist, ist ein hohes Bewusstsein und eine niedrige Verdachtsschwelle für Toxin-Ätiologien durch Ärzte, einschließlich derer in der Notaufnahme von Krankenhäusern und in der niedergelassenen Praxis, erforderlich. Wo hochempfindliche und spezifische diagnostische Assays nicht verfügbar sind, kann eine syndromale Überwachung eingesetzt werden und erfordert die Beteiligung des gesamten Gesundheitswesens. Regierungen auf allen Ebenen (Bund, Länder und Gemeinden) können die Bemühungen um den Schutz der öffentlichen Gesundheit unterstützen, indem sie sicherstellen, dass die erforderliche Infrastruktur gut auf den Umgang mit Toxinangriffen vorbereitet ist, und auch indem sie Mittel für die Gesundheitssicherheit so ausgibt, dass die bestmöglichen Ergebnisse erzielen.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-94-007-5869-8_24 6b25b2fbb56da2cc2c8d8de8a410b5c7;de;;;6.1.;;;Kritische Fragen für die langfristige Klimaüberwachung Auch nach umfangreicher Aufarbeitung vergangener Daten sind wir in vielen Fällen nicht in der Lage, wichtige Aspekte zu Klimawandel und Variabilität aufzuklären. Nahezu jedes Monitoringsystem und jeder Datensatz erfordert eine bessere Datenqualität, Kontinuität und Homogenität*, wenn wir erwarten, dass Fragen von Interesse sowohl für Wissenschaftler als auch für politische Entscheidungsträger schlüssig beantwortet werden. Dies ist darauf zurückzuführen, dass meteorologische Langzeitdaten (sowohl Satellit als auch konventionell) sowohl in der Gegenwart als auch in der Vergangenheit in erster Linie zur Wettervorhersage und nur in einigen Fällen zur Beschreibung des aktuellen Klimas erhoben werden und wurden. Eine langfristige Klimaüberwachung, die in der Lage ist, Klimaveränderungen im Maßstab von Jahrzehnten bis Jahrhunderten aufzulösen, erfordert unterschiedliche Betriebsstrategien. Darüber hinaus ist die anhaltende Verschlechterung konventioneller oberflächenbasierter Beobachtungssysteme in vielen Ländern (sowohl in den Industrie- als auch in den Entwicklungsländern) ein unheilvolles Zeichen für die Aufrechterhaltung der gegenwärtigen Fähigkeiten in der Zukunft. Satellitengestützte Beobachtungsplattformen allein werden und können nicht alle erforderlichen Messungen liefern.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-0323-7_6 d0c8494e62fa5c6d726760d7bc6e5b92;de;;;6.1.;;;Ein Tool zum Verwalten sich entwickelnder Sicherheitsanforderungen Das Management der Anforderungsentwicklung ist ein anspruchsvoller Prozess. Anforderungen ändern sich ständig, was die Nachvollziehbarkeit von Anforderungen erschwert und die Überwachung von Anforderungen unzuverlässig macht. Darüber hinaus können sich ändernde Anforderungen auf die Sicherheitseigenschaften auswirken, die ein Systemdesign erfüllen sollte: Bestimmte Sicherheitseigenschaften, die vor der Evolution erfüllt waren, sind möglicherweise nicht mehr gültig oder neue Sicherheitseigenschaften müssen nach Einführung von Änderungen erfüllt werden. In diesem Beitrag wird SeCMER vorgestellt, ein Tool für das Anforderungsevolutionsmanagement, das im Rahmen des SecureChange-Projekts entwickelt wurde. Das Tool unterstützt die automatische Erkennung von Anforderungsänderungen und Verletzungen von Sicherheitseigenschaften durch änderungsgesteuerte Transformationen. Das Tool unterstützt auch Argumentationsanalysen, um zu überprüfen, ob Sicherheitseigenschaften durch die Evolution erhalten bleiben, und um neue Sicherheitseigenschaften zu identifizieren, die berücksichtigt werden sollten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29749-6_8 d390afa34fa7711e99eef9441eb259fd;de;;;6.1.;;;Die Reaktion der öffentlichen Gesundheit auf einen potenziellen Toxinbioterrorismus Ob in großen oder kleineren, gezielten Angriffen verteilt, biologische Toxine stellen eine erhebliche Bedrohung für die Gesundheit der amerikanischen Öffentlichkeit dar. Bei verdeckten Angriffen kann es aufgrund des verzögerten Auftretens klinischer Anzeichen und Symptome bei den betroffenen Personen schwierig sein, festzustellen, ob eine Exposition überhaupt stattgefunden hat. Obwohl in der Vergangenheit erhebliche Anstrengungen unternommen wurden, um die Verbreitung von Toxinen und anderen biologischen Bedrohungsstoffen zu verhindern, sind ihre relativ leichte Beschaffung, ihre geringen Kosten, ihre Fähigkeit, Krankheiten und den Tod zu verursachen, und die Leichtigkeit, mit der sie in kleinem Maßstab verbreitet werden können Angriffe machen sie zu attraktiven Waffen der Wahl für diejenigen, die Angst machen und die soziale und wirtschaftliche Stabilität untergraben wollen. Die Symptomatik einer Toxinvergiftung wird in der Regel um mehrere Stunden bis Tage nach der Exposition verzögert und kann von natürlich auftretenden Krankheiten nicht zu unterscheiden sein. Um zu erkennen, dass ein biologisches Ereignis mit einer absichtlichen Freisetzung von Toxin eingetreten ist, ist ein hohes Bewusstsein und eine niedrige Verdachtsschwelle für Toxin-Ätiologien durch Ärzte, einschließlich derer in der Notaufnahme von Krankenhäusern und in der niedergelassenen Praxis, erforderlich. Wo hochempfindliche und spezifische diagnostische Assays nicht verfügbar sind, kann eine syndromale Überwachung eingesetzt werden und erfordert die Beteiligung des gesamten Gesundheitswesens. Regierungen auf allen Ebenen (Bund, Länder und Gemeinden) können die Bemühungen um den Schutz der öffentlichen Gesundheit unterstützen, indem sie sicherstellen, dass die erforderliche Infrastruktur gut auf den Umgang mit Toxinangriffen vorbereitet ist, und auch indem sie Mittel für die Gesundheitssicherheit so ausgibt, dass die bestmöglichen Ergebnisse erzielen.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-94-007-6645-7_24-1 75012654a9c0c2dfa9a12c573178f182;de;;;6.1.;;;Einführung in die relationale Theorie Anschließend haben Sie sich die Leistungsfähigkeit und die Risiken der Denormalisierung angesehen, dem Prozess, bei dem Sie die Normalisierungsregeln brechen, um die Anwendungsleistung zu verbessern. Dies ist etwas, das Erfahrung erfordert, um seine Verwendung für eine bestimmte Anwendung angemessen anzupassen, aber es kann sich als von unschätzbarem Wert erweisen, um die Benutzerfreundlichkeit Ihrer Anwendung zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-0015-4_2 f2627eff05cf658a0a312bc23efc0080;de;;;6.1.;;;Verwalten und kollaborative Verarbeitung medizinischer Bilder über das Web Dieser Artikel stellt eine Strategie für das medizinische Bildmanagement vor. Basierend auf der von der Beihang University entwickelten Datenbank namens AUDR (Advanced Unstructured Data Repository) wird ein webbasiertes System für das medizinische Bildmanagement und die kollaborative Verarbeitung aufgebaut. Der Zugriff auf das System erfolgt im Gegensatz zu anderen Anwendungen über einen Webbrowser und ermöglicht sowohl den textbasierten als auch den inhaltsbasierten Abruf medizinischer Bilder im DICOM-Format. Außerdem ermöglicht das System geografisch getrennten Radiologen, dasselbe medizinische Bild gleichzeitig zu verarbeiten und zu interpretieren. Um medizinische Bilder in AUDR zu importieren, wird eine Strategie für den DICOM-Bildimport vorgeschlagen. Um das System zu implementieren, wird ein Kollaborations-Framework und ein Verfahren zur Bildübertragung vorgeschlagen. Um die Verfügbarkeit des Systems nachzuweisen, wurde eine Systembewertung hinsichtlich Funktionalität und Performance durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33050-6_25 e72e9453f9346025dd6fe35d1cb87894;de;;;6.1.;;;Computer-/Programmierbare Steuerung einer flexiblen Fertigungszelle Dieses Kapitel präsentiert die Untersuchung und Realisierung einer flexiblen Regelschleifenzelle. Der erste Teil ist eine Beschreibung der funktionalen Anforderungen, die die Funktionen definieren, die das physische Fertigungssystem, das industrielle Informationssystem und die Fertigungssteuerung erfüllen müssen. Die strukturellen Anforderungen werden im zweiten Teil beschrieben. Sie spezifizieren sowohl die verteilte Steuerungsarchitektur auf Zellen- und Maschinenebene als auch die Kommunikationsarchitektur. Der Regelkreis der Zelle wird durch die Qualitätskontrolle der Produkte und die Überwachung der Ausrüstung erreicht. Der dritte Teil umfasst die Untersuchung und Realisierung einer Versuchszelle im Labor. Viele Funktionen bilden den Ablauf auf Zellebene. Wir stellen lediglich die Koordination zwischen Zelle und Station sowie die Planung des Teilehandlings vor. Die Realisierung der Kommunikationsfunktionen wird vorgestellt, es kommen MAP-, Ethernet-, 3+ Open- und Bitbus-Netzwerke zum Einsatz. Die Maschinenebene besteht aus drei Hauptkomponenten: dem Maschinenrechner, der die Überwachung unterstützt, der numerischen Steuerung und dem Feldbus, der beispielsweise die Steuerung und Überwachung der Spannvorrichtung übernimmt. Der Regelkreis des Bearbeitungsprozesses durch Maßvermessung, erfolgt direkt an der Maschine durch eine Lehre oder durch ein Vision-System. Es ermöglicht, den Bearbeitungsprozess in Echtzeit zu korrigieren, um eine optimale Qualität zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-3812-3_13 f3f7f84206160702786a824552ded071;de;;;6.1.;;;Effizientes und sicheres Big-Data-Speichersystem mit Leakage-Resilienz im Cloud-Computing Mit den jüngsten Fortschritten bei der Herstellung von drahtlosen intelligenten Endgeräten und Kommunikationstechnologien werden riesige Datenmengen aus einer Vielzahl von Quellen einschließlich Softwareanwendungen und Hardwaregeräten erzeugt. Um Big Data optimal zu nutzen, kann Cloud Computing genutzt werden, um die Daten zu speichern, zu teilen und zu verarbeiten. Datenschutzprobleme sind jedoch in der Praxis immer noch eine große Herausforderung, da Benutzergeheimnisse aufgrund verschiedener Software-Schwachstellen und Hardware-Angriffe durchsickern können. In diesem Papier schlagen wir zur Bewältigung der oben genannten Sicherheitsherausforderung von Big Data ein effizientes und sicheres Big Data-Speichersystem im Cloud-Computing vor, bei dem ein lecksicheres Verschlüsselungsschema als Hauptbestandteil dient. Darüber hinaus zeigt unsere formale Analyse der Sicherheitsnachweise, dass das vorgeschlagene Schema den Datenschutz der Benutzer gewährleisten kann, selbst wenn der Teilschlüssel im Cloud-Computing durchgesickert ist. Schließlich zeigt die Analyse der Leakage-Resilienz, dass das Leakage-Verhältnis in unserem Schema etwa 1/3 erreichen kann und höher ist als bei anderen Schemata. Leistungsvergleiche zeigen die Praktikabilität unseres Schemas zur Big-Data-Sicherheit im Cloud-Computing.;-;-;-;https://link.springer.com/article/10.1007/s00500-018-3435-z 6380bba854e7be39f12b703406012603;de;;;6.1.;;;Zukunftsperspektiven landwirtschaftlicher Informationssysteme Farm Management Information Systems (FMIS) haben sich von einfachen Aufzeichnungen zu ausgeklügelten Lösungen entwickelt, die in der Lage sind, neue Trends in Bezug auf räumliches und zeitliches Management, verteilte Sensoren mit Interoperabilität von Sensorgeräten, zukünftige Internetanwendungen und Webdienste zu erfassen. Das FMIS wurde ursprünglich entwickelt, um den Landwirt als Hauptfokus des Systems zu behandeln, während jetzt der Datenfluss von und zur Traktor-Informationstafel und Verbindungen zu anderen Geräten wie Geräten für die Präzisionslandwirtschaft über ein FMIS verwaltet werden können. Dieser Evolutionspfad hat zur Aufnahme einer Vielzahl von Funktionalitäten geführt und die Möglichkeit eröffnet, die Kostenkontrolle der landwirtschaftlichen Betriebe zu verbessern. In diesem Kapitel stellen wir den Stand der Technik zu diesen Themen vor, indem wir die neuen Funktionalitäten des weiterentwickelten FMIS darstellen und wie sie den Betrieb mit dem externen Kontext und den Stakeholdern verbinden können. Anschließend vertiefen wir uns in die Kostenrechnungsfunktionalität von FMIS, um zu verstehen, wie Präzisionslandwirtschaft die Kostenaufteilung auf Endprodukte verbessern kann. Schließlich schließen wir unsere Diskussion über den Prozess der Einführung von FMIS in europäischen landwirtschaftlichen Betrieben ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-68715-5_9 abb04c20c4b77998dcc410dbb60cd7da;de;;;6.1.;;;Verknüpfungsmuster für die Modellierung von Informationsgittern und P2P-Netzwerken Kollaboratives Arbeiten erfordert mehr denn je den Zugriff auf Daten, die sich auf mehreren autonomen und heterogenen Datenquellen befinden. Die Entwicklung dieser neuartigen Informationsplattformen, die als Informations- oder Datengrids bezeichnet werden, und die sich entwickelnden Datenbanken auf der Grundlage von P2P-Konzepten erfordern geeignete Modellierungs- und Beschreibungsmechanismen. In diesem Beitrag schlagen wir den Link Pattern Catalog als Modellierungsleitfaden für wiederkehrende Probleme vor, die bei der Gestaltung oder Beschreibung von Informationsgittern und P2P-Netzwerken auftreten. Zu diesem Zweck stellen wir die Data Link Modeling Language vor, eine Sprache zur Beschreibung und Modellierung praktisch jeder Art von Datenflüssen in Informationsaustauschumgebungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30464-7_31 82809e37928330089a972a21140325c3;de;;;6.1.;;;Kontext und Definitionen Der Zweck dieses Kapitels ist dreifach. Erstens wird es die Dissertation im Bereich der Entrepreneurship-Forschung positionieren. Die Entrepreneurship-Forschung hat in den letzten Jahren an Bedeutung gewonnen, und es gibt zahlreiche Bereiche der Entrepreneurship-Wissenschaft, die sich von der reinen Exploration zu einer fundierteren Theorie entwickelt haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-5572-8_2 ba1270836fcf9bfeae08d84266b72e17;de;;;6.1.;;;Computergestützte kollaborative Produktentwicklung Die Entwicklung eines Produkts umfasst mehrere Phasen (siehe Abbildung 1). Im ersten Schritt wird eine Markterhebung für potenzielle Produkte durchgeführt. Daran schließt sich die Konzeptualisierungsphase an, in der ein Produkt entweder aufgrund eines Bedarfs oder eines potentiellen Gewinnmotivs (ermittelt in der Markterhebungsphase) konzipiert wird. In der Forschungs- und Entwicklungsphase werden die für die Produktgestaltung notwendigen Informationen erarbeitet. Design beinhaltet die Konfiguration des Produkts basierend auf mehreren Einschränkungen. Der Herstellungsprozess ergibt das eigentliche Produkt. In der Testphase wird das Produkt dann auf Qualität geprüft und in der Vermarktungsphase vermarktet. Die Wartung des Produkts ist eine Dienstleistung, die von den meisten Organisationen bereitgestellt wird. Der obige Prozess ist iterativ (durch gebogene Pfeile dargestellt) und kollaborativ.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-2784-1_7 5ecd3292d900692829e66d42d6c43e08;de;;;6.1.;;;Netzwerk-Middleware für erweiterten Betrieb im Unternehmen Unternehmen stehen vor der Herausforderung, die Kosten für F&E und Produktentwicklung zu senken. Ein effizienterer Know-how-Transfer von F&E ins Engineering und zwischen (Generationen von) Ingenieuren erleichtert die Bewältigung der Herausforderung. Unternehmens-Know-how muss in Unternehmen in Form von Software, zB für Simulation, elektronische Dokumente und Daten, erhalten bleiben. Die IT kann den Unternehmensbetrieb verbessern, indem sie Ingenieuren, die im oder für das Unternehmen arbeiten, einen einfachen Zugang zum Unternehmens-Know-how ermöglicht. Dies erfordert eine Kombination aus verteiltem und zentralisiertem Computing, einer geeigneten Netzwerkstrategie und IT-Tools zur Verwaltung, Kontrolle und Nutzung des konservierten Unternehmens-Know-hows. In dem Papier wird die Middleware SPINE für UNIX-Netzwerke beschrieben, bei der sich das Netzwerk den Ingenieuren als ein einziger virtueller Computer präsentiert. In dem Beitrag werden die Überlegungen und die technischen Grundlagen anhand von Beispielen aus zwei Anwendungen illustriert: einem nationalen virtuellen Zentrum für Computational Fluid Dynamics für das Engineering und einem IT-Framework für verteiltes multidisziplinäres Design, Analyse und Optimierung von Industrieprodukten. Es wird eine Abschätzung des Aufwandes zur Realisierung und Wartung solcher virtueller Einzelrechner für eine kooperierende Gruppe gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35291-6_48 cd4bc3f7e947f21d4b442f6bd2efbbdf;de;;;6.1.;;;Die Ethik der Unterrichtstechnologie: Probleme und Bewältigungsstrategien, die professionelle Technologen in Gestaltungs- und Ausbildungssituationen im Hochschulbereich erfahren experienced In Übereinstimmung mit dem Code of Professional Ethics der Association for Educational Communication Technology (AECT) und den Ethikkolumnen der Fachzeitschrift TechTrends bietet dieses Papier empirische Daten zu ethischen Fragen im Zusammenhang mit dem Einsatz von Unterrichtstechnologie in Gestaltungs- und Trainingssituationen. Es wurden ausführliche Interviews mit 20 professionellen Technologen durchgeführt. Die drei wichtigsten gemeldeten ethischen Bedenken waren Urheberrecht, Privatsphäre der Lernenden und Zugänglichkeit. Die Ergebnisse dieser Studie identifizierten auch drei ethische Fragen, die in der Literatur nicht ausführlich diskutiert wurden: Vielfalt, Interessenkonflikte und Professionalität/Vertrauen. Neben der Identifizierung ethischer Probleme tragen die Ergebnisse der Studie auch zur aktuellen Literatur bei, indem sie von professionellen Technologen übernommene Bewältigungsstrategien für ethische Probleme identifizieren. Schließlich wurden Implikationen für Forscher, Manager und Praktiker diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s11423-006-9029-y cc593b02e87bbf2faebccca58105105e;de;;;6.1.;;;Eliminierung der Malaria in der Volksrepublik Laos: Herausforderungen im Zusammenhang mit der Mobilität der Bevölkerung population Obwohl die Demokratische Volksrepublik Laos (DDR Laos) ein vergleichsweise kleines Binnenland mit Ein- und Auswanderungsmustern ist, wurde ihre menschliche Migrationssituation kaum untersucht. Dies, obwohl alle 18 Provinzen des Landes sowohl offizielle als auch inoffizielle Grenzkontrollpunkte mit den Nachbarländern teilen. Die Wirtschaftsreformen des letzten Jahrzehnts haben zu einer allmählichen Förderung ausländischer Investitionen geführt, und die wichtigsten Städte und Verkehrsnetze wurden erweitert und bieten so neue Möglichkeiten für den Lebensunterhalt und die wirtschaftlichen Aktivitäten.;-;-;-;https://link.springer.com/article/10.1186/s40249-017-0283-5 85fdfc5afb90af472f15ccf52fce6814;de;;;6.1.;;;Konzepte und Gestaltungsraum für ein besseres Verständnis von geräteübergreifenden Benutzeroberflächen In diesem Papier werden die Motivationen und die charakterisierenden Konzepte von Benutzerschnittstellen für mehrere Geräte erörtert, indem die wichtigsten angesprochenen Designprobleme und die verschiedenen vorgeschlagenen Lösungen betrachtet werden. Die Diskussion relevanter Systeme und Frameworks beleuchtet deren Hauptmerkmale, die dann als Grundlage für eine vergleichende Diskussion dienen. Es vergleicht unterschiedliche Ansätze und Perspektiven in diesem Bereich (z.B. Responsive Design, Cross-Device, verteilte, migrierende Benutzeroberflächen). Die Features bilden einen Entwurfsraum, der verwendet werden kann, um die Analyse und den Vergleich von Werkzeugen und Frameworks für geräteübergreifende Benutzerschnittstellen zu erleichtern. Solche Aspekte können von Benutzeroberflächen-Designern und -Entwicklern genutzt werden, um verschiedene Optionen beim Umgang mit bestehenden und neuen Anwendungen zu analysieren und zu vergleichen. Die bereitgestellte Analyse kann auch das Design und die Entwicklung neuer Tools und Frameworks inspirieren.;-;-;-;https://link.springer.com/article/10.1007/s10209-019-00650-5 6bc2320268fe70c745a502f8f1993a90;de;;;6.1.;;;Design und Entwicklung eines klinischen Datenaustauschsystems basierend auf der Ensemble-Integrationsplattform Mit dem Tempo der neuen Medizinreform in China haben sich medizinische Informationssysteme rasant entwickelt und dadurch enorme klinische Daten generiert, die eine große Menge an Informationen enthalten. Der klinische Datenaustausch ist eine der wichtigsten Grundlagen, um klinische Daten voll auszuschöpfen. Vor dem gesamten Hintergrund von Global Dolphin (einem internationalen Datenaustauschsystem zwischen China und Japan) zeigt dieses Papier eine Methode zum Erreichen eines standardisierten klinischen Datenaustauschs basierend auf der Ensemble Integration Platform und unter Verwendung von Health Level Seven International (HL7) als Datenaustauschstandard. HL7 hilft bei der Standardisierung des Datenaustauschprozesses, Ensemble Platform trägt zur losen Kopplung medizinischer Informationssysteme und zum Aufbau einer einheitlichen Datenmanagementschicht in der Logik bei, um letztendlich das Ziel der gemeinsamen Nutzung klinischer Daten zwischen einem Rechenzentrum und medizinischen Einrichtungen zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_37 4e57e27094101de952fc01d4dcbc6ca2;de;;;6.1.;;;Ursodeoxycholsäure versus Placebo bei der Behandlung von Frauen mit intrahepatischer Schwangerschaftscholestase (ICP) zur Verbesserung der perinatalen Ergebnisse: Protokoll für eine randomisierte kontrollierte Studie (PITCHES) Die intrahepatische Schwangerschaftscholestase (ICP) ist die häufigste schwangerschaftsspezifische Lebererkrankung und zeigt sich mit mütterlichem Pruritus, erhöhten Konzentrationen von Serumgallensäuren und abnormalen Leberfunktionstests. ICP ist mit einer erhöhten Rate spontaner und iatrogener Frühwehen, fetaler Hypoxie, mekoniumgefärbtem Fruchtwasser und intrauterinem Tod verbunden. Einige Kliniker behandeln ICP mit Ursodeoxycholsäure (UDCA), um den mütterlichen Pruritus und biochemische Anomalien zu verbessern. Derzeit gibt es jedoch keine Daten, die den Einsatz von UDCA zur Verbesserung des Schwangerschaftsausgangs unterstützen, da keine der bisher durchgeführten Studien diese Frage beantworten konnte.;-;-;-;https://link.springer.com/article/10.1186/s13063-018-3018-4 6c281de8cc51554a9eb63742b4de782c;de;;;6.1.;;;Chloroplasten-DNA und das Studium der Pflanzenphylogenese: Gegenwärtiger Status und Zukunftsaussichten Seit der Veröffentlichung des bahnbrechenden Artikels von Zuckerkandl und Pauling (1965) über die evolutionären Implikationen makromolekularer Sequenzdaten ist mehr als ein Vierteljahrhundert vergangen. In diesem Artikel wurden zwei grundlegende Vorschläge gemacht: Erstens wiesen Zuckerkandl und Pauling darauf hin, dass molekulare Veränderungen (Nukleotid- oder Aminosäuresubstitutionen) mit einer Geschwindigkeit auftreten könnten, die proportional zur Uhrzeit ist (die Hypothese der molekularen Uhr), und zweitens stellten sie fest, dass die Topologie der evolutionären Verzweigungen (Phylogenien) konnte aus dem Muster der molekularen Veränderung abgeleitet werden. Diese beiden verwandten Vorschläge bilden die theoretische Grundlage der Wissenschaft der molekularen Evolution.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-3276-7_1 ce868f93eb879c3aea1f87dc3c998df2;de;;;6.1.;;;Die automatisierte Betriebs- und Wartungslösung für Cloud-Rechenzentren basierend auf Multi-Station-Integration Die Integration mehrerer Stationen als wesentlicher Bestandteil des leistungsstarken Internets der Dinge kann die tiefgreifende Integration der Energie- und Informationsindustrie und die schlanke Nutzung von Kommunikationsressourcen realisieren. In diesem Beitrag wird hauptsächlich eine automatisierte Betriebs- und Wartungslösung vorgeschlagen, die gemäß den Eigenschaften und technischen Anforderungen des Betriebs und der Wartung von Rechenzentrumsstationen effizient, skalierbar und stabil ist. Die Lösung verwendet ein hierarchisches, modulares Designkonzept und verwendet Cloud-Computing- und Virtualisierungstechnologie. Dieses entwickelte System kann eine automatische Ressourcenverwaltung realisieren und die Betriebs- und Wartungseffizienz verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63784-2_56 5d6b08fd1d546c2404a27320894b79f7;de;;;6.1.;;;DataOps-Technologie Technologie wird bewusst bis zum letzten Kapitel belassen, denn sie ist zwar essenziell, aber weniger kritisch als Menschen, Kultur und Prozesse. Wenn nur Tools erforderlich wären, um erfolgreich zu sein, würden die Giganten des Silicon Valley ihre Kronjuwelen wie Kubernetes, TensorFlow, Apache Kafka und Apache Airflow nicht als Open Source verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-5104-1_9 328fbc3631ea72e23550fab49f60a5c2;de;;;6.1.;;;Social-Media-Strategie Dieses Kapitel erörtert die Social-Media-Strategie im öffentlichen Sektor und betont, dass die Social-Media-Bemühungen strategisch ausgerichtet werden sollten, um die bestehenden Ziele der Agentur zu unterstützen. Zu den behandelten Themen gehören das Verständnis von Social Media und der Ausrichtung von Agenturen, die Social Media Engagement Matrix, Schritte bei der Formulierung einer Social Media Strategie sowie die Rollen und Verantwortlichkeiten des Chief Information Officer (CIO) der Regierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-2942-4_7 f3a1acf7188e7c7e74b9a54ba27e9066;de;;;6.1.;;;Organisieren von Daten im Ackerbau: Auf dem Weg zu einer Ontologie der Kartoffelverarbeitung Ackerbauern und ihre Lieferanten, Berater und Einkäufer haben es zunehmend mit der Erfassung und Verarbeitung großer Datenmengen zu tun. Die Datenquellen beziehen sich auf die obligatorische und freiwillige Registrierung (Zertifizierung, Rückverfolgung und Verfolgung, Qualitätskontrolle). Neben den zu Registrierungszwecken erhobenen Daten liefern Entscheidungsunterstützungssysteme für strategische, taktische und operative Aufgaben enorme Mengen an hauptsächlich digitalen Informationen. Daten ähnlicher Art, aber mit oft unterschiedlichen Definitionen werden für verschiedene Zwecke getrennt erhoben und verarbeitet. In diesem Beitrag wird für eine wichtige Ackerkultur – die verarbeitende Kartoffel – beschrieben, welche Datenanforderungen und -flüsse derzeit existieren und wie diese möglicherweise in einer vereinheitlichenden Ontologie beschrieben werden könnten. Eine Ontologie beschreibt die Konzepte, Attribute und Beziehungen in einer bestimmten Wissensdomäne unter Verwendung einer standardisierten Darstellungssprache. Wichtige Konzepte in diesem Bereich sind beispielsweise Acker, Parzelle, Boden, Behandlung und Betrieb. Die Ontologie – einmal ausgearbeitet – wird die Überlappung zwischen Informationsmodellen reduzieren und hilft, das Problem der Datendefinition und -darstellung zu überwinden. Es ist ein Schlüsselelement für die Entwicklung von Systemen, die entweder mit Hilfe von Expertenwissen oder durch geeignete numerische Verfahren automatisch lernen können.;-;-;-;https://link.springer.com/article/10.1007/s11540-006-9016-z 74233578e1cc49d4ea2095f36bcc4036;de;;;6.1.;;;Modulare Normmodelle: Praktische Darstellung und Analyse vertraglicher Rechte und Pflichten Die Compliance-Analyse erfordert Rechtsberatung, ist aber in vielen Softwareprojekten im Allgemeinen nicht verfügbar. Die Analyse von Rechtstexten mit logikbasierten Modellen kann Entwicklern helfen, die Anforderungen für die Entwicklung und Nutzung softwareintensiver Systeme während ihres gesamten Lebenszyklus zu verstehen. Wir skizzieren einen praktischen Modellierungsprozess für Normen in rechtsverbindlichen Vereinbarungen, die vertragliche Rechte und Pflichten beinhalten. Ein computergestütztes Normmodell analysiert verfügbare Rechte und erforderliche Pflichten basierend auf der Erfüllbarkeit von Situationen, einem Sachverhalt, in einem gegebenen Szenario. Unsere Methode ermöglicht eine modulare Extraktion, Darstellung und Argumentation von Normmodellen. Für die Normextraktion konstruieren wir unter Verwendung der Theorie der Rahmensemantik zwei grundlegende Normvorlagen für die linguistische Führung. Diese Vorlagen entsprechen Hohfelds Konzepten des Anspruchsrechts und seiner juristischen Korrelation, Pflicht. Jede Template-Instanziierung führt zu einem Normmodell, gekapselt in einer modularen Einheit, die wir eine Supersituation nennen, die einem atomaren Gesetzesfragment entspricht. Für hierarchische Modularität enthalten Supersituationen eine Primärnorm, die an Beziehungen zu anderen Normmodellen teilnimmt. Normkonformitätswerte werden logisch aus den zugehörigen Situationen abgeleitet und an die die Norm enthaltende Supersituation propagiert, die wiederum an anderen Supersituationen beteiligt ist. Diese Modularität ermöglicht eine bedarfsgesteuerte inkrementelle Modellierung und Argumentation unter Verwendung einfacherer Modellprimitive als frühere Ansätze. Während wir die Nützlichkeit unserer Normmodelle durch empirische Studien mit Vertragserklärungen in Open-Source-Software und Datenschutzdomänen demonstrieren, ermöglicht ihre rechtstheoretische und linguistische Grundlage eine breite Anwendbarkeit.;-;-;-;https://link.springer.com/article/10.1007/s00766-019-00323-y 2b89c0baf4147d67b7f9bebaa94eea83;de;;;6.1.;;;Regulierung von Robo-Advisory in Europa und Deutschland Um die zivilrechtlichen und aufsichtsrechtlichen Fragestellungen in einer überschaubaren Form darzustellen, haben wir versucht, Ihnen auf den folgenden Seiten einen strukturierten Überblick über die aktuellen rechtlichen Rahmenbedingungen auf Basis nationaler und europäischer Vorschriften, insbesondere der MiFID II Richtlinie und die dazugehörigen deutschen Ausführungsgesetze: Wertpapierhandelsgesetz (WpHG), Kreditwesengesetz (KWG) und Geldwäschegesetz (GWG). Aufgrund der vielfältigen Anforderungen und der hohen Marktzugangsbarrieren muss sich jedes Unternehmen genau überlegen, welche Dienstleistungen es anbieten möchte, welche Lizenzen es braucht und welche regulatorischen Anforderungen an seine Tätigkeit gestellt werden. Die Bereiche Vermögensverwaltung und Anlageberatung unterliegen einem komplizierten Regelwerk. Es ist daher ratsam, sich sowohl auf die angebotenen Dienstleistungen als auch auf das Produktangebot zu konzentrieren. Als Reaktion auf die Zulassungsvoraussetzungen kann ein Unternehmen als Anlagevermittler im Sinne der Gewerbeordnung oder als Finanzdienstleistungsinstitut mit einer Zulassung nach dem Kreditwesengesetz auftreten. Letztere bietet mit dem Haftungsdach eine weitere Alternative. Neben den regulatorischen Anforderungen an Lizenzen und Aktivitäten wirft das Onboarding auch erhebliche praktische Probleme auf. Identifizierungspflichten nach dem GWG und der digitale Vertragsabschluss müssen technisch durchdacht und gelöst sein. Darüber hinaus sind die strengen Vorgaben der Datenschutzgrundverordnung zu beachten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-40818-3_8 b4bba2f11d373c80c990fdfa868ae26f;de;;;6.1.;;;Optimierung der Vertriebs- und Marketingleistung durch Computerisierung Die Informationstechnologie hat einen erheblichen Einfluss auf den Informations- und Entscheidungsfindungsprozess des Managements im pharmazeutischen Vertriebs- und Marketingumfeld. Computergestützte Vertriebsmanagementsysteme haben sich zu unseren aktuellen elektronischen Gebietsmanagementsystemen entwickelt. Die Mehrheit der Unternehmen glaubt, dass dies zu einer Umsatzverbesserung geführt hat. Die neue Herausforderung ist das Kundeninformationsmanagement, um sicherzustellen, dass ein genaues Kundenuniversum durch Potenziale, Einflüsse, Forschung und Leistung ergänzt wird. Zukünftig werden wir umfassende computergestützte Vertriebs- und Marketingsysteme sehen, deren erste Stufe marketingorientierte Führungsinformationssysteme sein werden. Das sich ändernde Umfeld, der Geschäftsdruck und die Komplexität des Kundenstamms werden diesen Prozess beschleunigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-90784-4_31 3a4afcae232485a71887b52a68a551a8;de;;;6.1.;;;Gerichtliche Überprüfung Die drei Gemeinschaftsverträge beginnen alle mit der Übertragung weitreichender Aufgaben an die neu gegründeten Gemeinschaften, die in den Verträgen genau umrissen sind. Die möglichen Durchführungsmethoden und die Art der zu treffenden Entscheidungen sind eng vorgegeben. Die den Gemeinschaften übertragenen Aufgaben müssen von den vier Organen wahrgenommen werden, die jeweils im Rahmen der ihnen durch die Verträge übertragenen Befugnisse handeln. Es ist von großer Bedeutung für die Mitgliedstaaten, die den Gemeinschaften die Souveränität übertragen haben, für die Organe, die jeweils ihre eigenen Zuständigkeiten haben, und für die Bürger der Mitgliedstaaten, in deren Interesse die Gemeinschaften arbeiten sollen, dass alle Entscheidungen der Gemeinschaft respektiert werden den in den Verträgen festgelegten Anforderungen entsprechen und keine Befugnisse ausgeübt werden, es sei denn, dies wird ausdrücklich in den Verträgen begründet. Ohne eine gewisse Garantie für die Einhaltung der Grenzen der Verträge wären die Mitgliedstaaten möglicherweise nicht bereit gewesen, den Gemeinschaften so weitreichende Befugnisse zu übertragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-4412-6_3 452ff8174c5b7d996bbca49a3661593a;de;;;6.1.;;;Werkzeugverwaltung Das Tool Management umfasst die Charakterisierung und Steuerung von Werkzeugen. Die erfolgreiche Ausführung eines CAD-Tools kann sehr kompliziert sein, da der Konstrukteur viele Details kennen muss, z. B. wo sich das Tool befindet, die vom Tool benötigte Laufzeitumgebung, wie das Tool aufgerufen wird, die Befehlssyntax des Tools, welche Übersetzer vorher ausgeführt werden müssen und welche Computerressourcen benötigt werden. Zu einem bestimmten Zeitpunkt war die Anzahl der Werkzeuge, die in einer bestimmten Designumgebung verwendet wurden, klein genug, damit Designer sie alle verstehen konnten. In dieser Situation war keine Charakterisierung erforderlich, da keine automatisierten Einrichtungen zur Steuerung der Sequenzierung von Werkzeugen vorhanden waren. Die Anzahl der Tools ist in den letzten Jahren jedoch erheblich gestiegen, und es ist für einen Designer schwierig geworden, alle für Design und Analyse verfügbaren Tools zu verstehen. Daher wurde daran gearbeitet, einheitliche Schnittstellen für Werkzeuge aufzubauen und konsistente Ansätze zur Werkzeugkapselung bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-3558-4_5 8dda22b74d91fde854e938e8e5c121dd;de;;;6.1.;;;Die WISER Art, ökologische Daten aus europäischen Flüssen, Seen, Übergangs- und Küstengewässern zu organisieren Die Umsetzung der Wasserrahmenrichtlinie hat in Europa intensive Forschung in der angewandten Gewässerökologie erfordert und damit Herausforderungen für das Datenmanagement in internationalen Forschungsprojekten geschaffen. Im Projekt Waterbodies in Europe: Integrative Systems to Assessment Ecological Status and Recovery (WISER) wurden biologische und ökologische Daten aus Flüssen, Seen, Übergangs- und Küstengewässern in 26 europäischen Ländern zusammengetragen. In der zentralen Datenbank des Projekts wurden mehr als eine Million Datensätze biologischer Beobachtungen gespeichert, die Phytoplankton, Makrophyten, Makroalgen, Angiospermen, Phytobenthos, Wirbellose und Fische repräsentieren. Die zentrale Datenbank enthält neue Daten aus der WISER-Feldkampagne in Seen und Übergangs-/Küstengewässern 2009–2010 (mehr als 6.000 biologische Proben aus 58 Gewässern in 14 Ländern). Der Zweck dieses Papiers ist es, einen Überblick über die in WISER gesammelten Daten zu geben, um die zukünftige Wiederverwendung dieser Daten durch andere Wissenschaftler zu erleichtern. Die Ziele sind insbesondere, (1) das Datenmanagement in WISER zu beschreiben, (2) die Struktur und Inhalte der zentralen WISER-Datenbank zu beschreiben und (3) Erfahrungen auszutauschen und Empfehlungen für das Datenmanagement in großen ökologischen Forschungsprojekten zu geben.;-;-;-;https://link.springer.com/article/10.1007/s10750-012-1337-0 2a2da652eb5fdcf3e02791d537f6b252;de;;;6.1.;;;IT-Plattformen für die Unternehmensmodellierung Die Informationstechnologie (IT) wird zu einem wichtigen Faktor, um Unternehmen bei der Erreichung ihrer Geschäftsziele zu unterstützen. Die rasante Entwicklung der IT in der Fertigungsindustrie hat zur Folge, dass die meisten Unternehmen in einer zunehmend verteilten und heterogenen Umgebung agieren müssen. Anwendungen laufen nicht mehr nur auf einem Rechner, sondern auf mehreren Rechnern mit Middleware als IT-Plattform. Middleware wurde entwickelt, um die Anwendungsentwicklung zu vereinfachen, Benutzer von den Feinheiten von IT-Lösungen zu isolieren, Anwendungen interoperabel zu machen und Daten gemeinsam zu nutzen (Vernadat, 1996).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4475-3_18 b0c73b010d3629db775b2274ba226f73;de;;;6.1.;;;Clio: Schema-Mapping-Erstellung und Datenaustausch Das Clio-Projekt stellt Tools bereit, die die Informationsintegration erheblich vereinfachen. Die Informationsintegration erfordert Datenkonvertierungen, um Daten in unterschiedlichen Darstellungen in eine gemeinsame Form zu bringen. Wesentliche Beiträge von Clio sind die Definition von nicht-prozeduralen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02463-4_12 1201a2dbc0a68caaae4910edc6e949a7;de;;;6.1.;;;Perspektiven der Analyse von Satellitenbildern zur Überprüfung des Atomwaffensperrvertrags Im Rahmen des Atomwaffensperrvertrags (NVV) wurde ein Sicherungssystem unter der Verantwortung der Internationalen Atomwaffenbehörde (IAEA) eingerichtet [1]. Mit der „Renaissance“ der Kernenergie [2, 3, 4] wird die Zahl der nuklearen Anlagen unter IAEO-Sicherung in Zukunft zunehmen. Für Anlagen, die sowohl in Betrieb als auch im Bau oder in Planung sind, wird erwartet, dass die Ziele des NVV durch die Stärkung der Sicherungsverfahren durch umfassende Sicherungsvereinbarungen, ergänzt durch zusätzliche Protokollratifizierungen, erreicht werden [5, 6, 7]. Diese sogenannten „integrierten Sicherheitsvorkehrungen“ zielen darauf ab, die Wirksamkeit und Effizienz der IAEO-Sicherheitsvorkehrungen durch die Entwicklung und Umsetzung neuer Technologien und Methoden zu verbessern, wie z. B. spezielle Vor-Ort-Inspektionen, Umweltproben und Open-Source-Informationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79132-4_3 21d42839af1a2d428fe321c6bd51e7d1;de;;;6.1.;;;Regionale Klimasimulationen zu EU-INDIA-Netzinfrastrukturen: Methoden und Leistung In diesem Beitrag stellen wir einen möglichen Ansatz zur Nutzung verschiedener Grid-Infrastrukturen in Europa und Indien für regionale Klimasimulationen vor und diskutieren im Detail die Vorteile und Grenzen ihrer Nutzung. Die in Betracht gezogene Anwendung ist das Regionale Klimamodell RegCM4, das kürzlich neu geschrieben wurde, um es effizienter und einfacher zu machen, um es auf jeder Art von Recheninfrastruktur vollständig auszunutzen. Wir beschreiben hier die Methoden, die angewendet werden, um dieses Paket auf die Grid-Infrastrukturen zu portieren, die vom EU-IndiaGrid-Projekt bereitgestellt werden. Wir diskutieren auch verschiedene Ansätze, die Art und Weise, wie das Modell sowohl auf europäischen als auch auf indischen Infrastrukturen ausgeführt werden kann, und unseren vielversprechenden Ansatz zum Umgang mit Datenmanagementproblemen. Die Nutzung von RegCM auf der Grid-Infrastruktur wurde weiter mit der auf HPC-Ressourcen verglichen. Als Domäne für diese Tests wurde die CORDEX-Domäne Südasien bearbeitet, die für den Indian Summer Monsun von großer Bedeutung ist. Unsere abschließende Schlussfolgerung ist, dass das RegCM4-Modell für bestimmte Klassen von Experimenten mithilfe der in diesem Papier beschriebenen Verfahren effizient und einfach in Grid-Infrastrukturen integriert werden kann.;-;-;-;https://link.springer.com/article/10.1007/s10723-013-9286-z 698d2adb9b0bb61b5ee40657c3c8a1ad;de;;;6.1.;;;Forschung zum Datenschutz in IoT-Systemen basierend auf Blockchain Das Internet der Dinge (IoT) ist ein wichtiger Bereich der Informationstechnologie der nächsten Generation, und sein Wert und seine Bedeutung sind weithin anerkannt. Das IoT bietet neben Entwicklungsmöglichkeiten auch große Herausforderungen. Sicherheit und Datenschutz sind zu ernsten Problemen geworden, die bei der Entwicklung des IoT in diesem Papier nicht ignoriert werden können, daher werden wir ein IoT-Informationssicherheitsschutzschema basierend auf der Blockchain-Technologie vorschlagen. Das Schema nutzt die Sicherheitsfunktionen der Blockchain in Kombination mit dem AES-Verschlüsselungsalgorithmus, um die ursprünglichen IoT-Informationen zu verschlüsseln, und der verteilte Geheimtextspeicher kann das Problem der IoT-Datenspeicherung effektiv lösen. In diesem Schema gezeigte Experimente könnten die Betriebs- und Kreditkosten des zentralisierten Netzwerks reduzieren. Gleichzeitig kann das Blockchain-basierte IoT-Informationssicherheits-Schutzschema in Kombination mit Kryptographie-Wissen das Big-Data-Management und das Vertrauen, mit dem die Entwicklung von IoT-, Sicherheits- und Datenschutzproblemen konfrontiert ist, effektiv lösen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-34083-4_1 6ab33f9708b41aba7e5c8b88490099ec;de;;;6.1.;;;Eine Sicherheits- und Hochverfügbarkeitsschicht für Cloud-Speicher Cloud Computing als Service-on-Demand-Architektur ist in den letzten Jahren zu einem interessanten Thema geworden. Die Auslagerung von Aufgaben und Infrastruktur an Externe ermöglicht die schnelle Etablierung neuer Services, die bedarfsgerecht skaliert und mit geringem finanziellem Risiko. Cloud-Speicher ermöglicht es Unternehmen, ihre Daten mit geringen Betriebskosten zu verwalten. Dennoch sollten vor dem Einstieg in die Cloud einige Aspekte wie Sicherheit und das Risiko, von einem Anbieter für seinen Service abhängig zu werden, bedacht werden. Im Allgemeinen ist ein Wechsel eines Speicheranbieters mit hohen Kosten für die Anpassung neuer APIs und zusätzlichen Gebühren für ein- und ausgehende Bandbreite und Anfragen verbunden. In diesem Papier verwenden wir das Prinzip der RAID-Technologie in der Cloud-Infrastruktur, um die Datenverteilung zwischen Cloud-Speicheranbietern zu verwalten. Die Verteilung basiert auf den Erwartungen der Benutzer in Bezug auf den geografischen Standort des Anbieters, die Servicequalität, den Ruf des Anbieters und die Budgetpräferenzen. Unser Ansatz ermöglicht es Benutzern, Anbieterbindung zu vermeiden, die Kosten für den Anbieterwechsel zu senken und die Sicherheit und Verfügbarkeit ihrer Daten zu erhöhen. Wir erklären auch, wie das vorgeschlagene System die Komplexität der Interaktion mit mehreren Speicheranbietern beseitigt und gleichzeitig die Sicherheit gewährleistet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24396-7_36 87c5916fed142fce5d7b6d8ce03ab5b3;de;;;6.1.;;;Verwalten von SharePoint-Daten: Teil 1 Lassen Sie mich raten, jedes Softwareprogramm, mit dem Sie jemals gearbeitet haben, speichert Daten. SQL-Server speichert Daten, Excel speichert Daten, sogar Notepad speichert Daten. Was ein Programm von einem anderen unterscheidet, ist die Fähigkeit, die von ihnen gespeicherten Daten zu verwalten. Ganz vereinfacht ausgedrückt ist SharePoint nichts anderes als eine riesige Datenverwaltungs- und Speicher-Engine. Es sind jedoch die Verwaltungsaspekte der Datenspeicherung, bei denen SharePoint wirklich glänzt. Die SharePoint-Plattform bietet viele Funktionen, mit denen Sie die Erfassung, den Lebenszyklus und die Präsentation dieser Informationen in Ihrer Organisation effektiv verwalten und steuern können. Es sind all diese Funktionen zusammen, die es SharePoint ermöglichen, als sehr effektives Content-Management-System zu fungieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-2866-0_6 924231678089c30d2d3ea45fb0c944d6;de;;;6.1.;;;Die Zukunft intelligenter Gebäudesysteme In diesem Buch haben wir eine Vielzahl aktueller Technologien vorgestellt, bei denen künstliche Intelligenz auf moderne Gebäudesysteme angewendet wird, wie z. B. HLK-Systeme, elektrische Versorgungssysteme, vertikale Transportsysteme und Feuerwehren usw. Es ist absehbar, dass sich die Technologien in der Zukunft schnell entwickeln werden der nächsten Dekade und deren erfolgreiche Umsetzung werden effektive, zuverlässige, robuste und energieeffiziente Gebäudesysteme gewährleisten. In diesem Kapitel werden wir verschiedene Fortschritte in verwandten Bereichen betrachten, einschließlich der zentralen Datenverwaltung, der Anbindung an die Datenautobahn, der verteilten Intelligenz, des Konzepts des offenen Systems, der auf menschlichem Komfort basierenden Steuerung, der Heimautomatisierung, der Multimedia-Benutzeroberfläche.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5019-8_17 697af8e80b71dc3bc26a6b279864b23d;de;;;6.1.;;;Engineering Cost Management-Strategie basierend auf Data Mining Mit der Vertiefung der nationalen Informationsarbeit und der Reform des Baukostenmanagements ist die beschleunigte Erstellung von Baukosteninformationen zu einem unvermeidlichen Trend für eine nachhaltige Entwicklung im Bereich der Baukosten geworden. Als Kernbestandteil der Baukosteninformation wird der Baustoffpreis zunehmend von Betroffen von den zuständigen Abteilungen für Ingenieurkostenmanagement haben die Ingenieurkostenmanagement-Agenturen jeder Provinz und Stadt Informationsnetzwerke für Ingenieurkosten eingerichtet, um regelmäßig den Informationspreis zu veröffentlichen von Ingenieurmaterialien als Bezugsgrundlage für die Bewertung aller Beteiligten des Bauvorhabens. Durch Recherchen wurde jedoch festgestellt, dass der von der Regierung veröffentlichte Informationspreis für technische Materialien stark vom tatsächlichen Marktpreis abwich, was zu einer ungenauen Projektbewertung führte, die viele Probleme und Baustreitigkeiten bei der Verwaltung des Baumarktes verursachte. Dieses Papier untersucht die Erforschung von Engineering-Kostenmanagement-Strategien basierend auf Data-Mining-Technologie. In diesem Artikel wird der Materialpreis in den Konstruktionskosten als Forschungsobjekt verwendet und die normalisierten Daten verwendet, um das BP-Netzwerk durch Datenanalyse zu trainieren. Ein Optimierungsverfahren wird verwendet, um die Trainingseffizienz zu verbessern, und das Verfahren der frühen Beendigung wird verwendet, um die Netzgeneralisierungsfähigkeit zu verbessern. Aufgeteilt in 4 Gruppen, von denen 96 Datensätze als Trainingssatz verwendet wurden, wurden 64 als Testsatz verwendet und der Fehlerbereich lag zwischen 0,005.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-43306-2_39 d3100a64eab76165fa727dbe1b3181e0;de;;;6.1.;;;Bürgerschaftliches Engagement und Elitenentscheidungen in Europa: Neugestaltung der öffentlich-rechtlichen Nachrichten Da die zentrale Stellung der Lobbyindustrie im Entscheidungsapparat der Europäischen Union (EU) langsam klarer wird, kann ihre politische Funktion auch außerhalb der Parameter der normalen demokratischen Kontrolle gesehen werden. Um sich am Prozess der Entwicklung von Gesetzen und Vorschriften zu beteiligen, die die Regierungsführung von 500 Millionen Bürgern in einer 13 Billionen Euro teuren Wirtschaft betreffen, sind schätzungsweise 15.000 Vollzeit-Lobbyisten damit beschäftigt, Einfluss von Unternehmen auf die Arbeit einer Reihe von EU-Institutionen zu nehmen. Diese sind in etwa 1000 Lobbygruppen organisiert, darunter Public-Relations- und Public-Affairs-Unternehmen, Lobbying-Dienste von Anwaltskanzleien, von der Industrie finanzierte Think-Tanks und Büros für europäische Angelegenheiten, die von privaten Unternehmen betrieben werden. Der Jahresumsatz all dieser intensiven Werbeaktivitäten, die darauf abzielen, ein komplexes Regulierungssystem zu seinem eigenen Vorteil zu gestalten und seine Auswirkungen auf die Kunden zu verbessern, beträgt fast 1 Milliarde Euro. Ihr Erfolg, ins Herz der EU-Politik vorzudringen, zeigt sich anschaulich in den Fällen, in denen konkrete Textänderungen von Industrielobbyisten in EU-Recht münden, wenn Parlamentarier faktisch zu Vermittlern werden und die Forderungen der Lobbyisten in die Gesetzgebung überführen (Hoederman, 2007). Einige dieser Lobbyisten sind Teil globaler Informationsmanagement-Giganten, die Dinan und Miller (2007: 15) als „zutiefst obskure Organisationen“ bezeichnen, von denen in der Öffentlichkeit selten gehört wird (wie WPP, Omnicom oder Interpublic). Wenn Lobbying eine kritische Masse an Überzeugungskraft erreicht, untergräbt es für einige Beobachter die Demokratie.;-;-;-;https://link.springer.com/chapter/10.1057/9780230277113_7 8eb635edf75ce63691ff597382ce93de;de;;;6.1.;;;Mehrdimensionales Designprozessmanagement durch erweiterte Produktmodellierung für die parallele Verfahrenstechnik Herkömmliche Produkt- und Prozessmodelle haben sich auf statische Merkmale konzentriert. Das heißt, Produktmodelle basieren hauptsächlich auf der strukturellen Zerlegung von Produkten und Prozessmodelle werden oft auch durch Aktivitätszerlegung wie etwa Projektstrukturpläne beschrieben. Aus Sicht des Designprozessmanagements ist es schwierig, dynamische Merkmale von Designprozessen mit herkömmlichen Methoden angemessen zu beschreiben. In diesem Papier wurde ein mehrdimensionaler Ansatz für das Designprozessmanagement untersucht, um die Eigenschaften von Designprozessen für das Design von Chemieanlagen zu manifestieren. Der parallelisierte Entwurfsprozess für die parallele Verfahrenstechnik sollte durch zweidimensionale Entwurfsaktivitätsflüsse verwaltet werden. Das Prozessmanagement ermöglicht es, den Fortschritt von Konstruktionsprozessen in einer Helixstruktur durch gleichzeitige horizontale und vertikale Aktivitätssteuerung zu steuern. Sie stehen für teleologische bzw. kausale Beziehungen zwischen Designaktivitäten. Dies kann auf Basis eines erweiterten Produktmodells erreicht werden, das verschiedene Designperspektiven explizit aus einem konventionellen Design-Aktivitätsmodell abbildet. Das erweiterte Produktmodell besteht aus Produktdaten, Designaktivitäten und Aktivitätstreibern. Dynamische Merkmale des erweiterten Produktmodells werden durch ein Aktivitätskettenmodell ausgedrückt. Diese Konzepte werden die Realisierung einer parallelen Verfahrenstechnik für das Design chemischer Anlagen in dem Sinne unterstützen, dass sie Strategien für das Designprozessmanagement bereitstellen.;-;-;-;https://link.springer.com/article/10.1007/BF02706376 95900b3aa1e43134b065243273ac4ae4;de;;;6.1.;;;Die Rolle der Ausbildung zum Management von geistigem Eigentum in einem Lehrplan für Technologiemanagement Sollte das Management von geistigem Eigentum (IP) als obligatorischer Kurs in den Lehrplänen für Technologiemanagement angesehen werden? Wenn ja, welche Kenntnisse und Fähigkeiten sollen in einem einsemestrigen Studium vermittelt werden? Wie vermittelt man dieses Material am besten? Dieses Papier präsentiert Beweise dafür, dass das Management von geistigem Eigentum von zentraler Bedeutung für Technologiemanagement (TM)-Programme sein sollte und dass beruflich wichtiges Wissen MBA- und Management of Technology (MOT)-Studenten ohne juristischen Hintergrund vermittelt werden kann. IP-Management kann als curricularer Ort gesehen werden, der Themen wie Unternehmertum, Technologiestrategie und Technologietransfer zusammenführt. Am Stevens Institute of Technology haben wir die Position eingenommen, dass IP-Management als eigenständiger Kurs in einem Technologiemanagement-Programm auf Augenhöhe mit traditionelleren Kursangeboten wie Marketing und Finanzen gelehrt werden sollte. Wir reflektieren 4 Jahre Lehrerfahrung und präsentieren Beweise von ehemaligen Studenten, dass der Kurs seine Mission erfüllt, beruflich relevant zu sein und sich pädagogisch mit Technologiemanagementprogrammen zu vereinen.;-;-;-;https://link.springer.com/article/10.1007/s10961-009-9145-z df9992e483f8774062e89e22980b22ae;de;;;6.1.;;;Probleme und Techniken bei der Arbeitsablaufplanung im Cloud Computing: Eine systematische Literaturübersicht Eines der schwierigsten Probleme beim Cloud Computing ist die Arbeitsablaufplanung. Workflow-Anwendungen haben eine komplexe Struktur und viele einzelne Aufgaben. Jede Aufgabe kann die Eingabe von Daten, die Verarbeitung, den Zugriff auf Software oder Speicherfunktionen umfassen. Aus diesen Gründen wird die Ablaufplanung als NP-schweres Problem angesehen. Dann sind effiziente Planungsalgorithmen erforderlich, um die am besten geeigneten Ressourcen für die Workflow-Ausführung auszuwählen. In diesem Papier führen wir eine SLR (Systematic Literatur Review) von Workflow-Scheduling-Strategien durch, die für Cloud-Computing-Plattformen vorgeschlagen wurden, um Forschern zu helfen, systematisch und objektiv Forschungsergebnisse zu diesem Thema zu sammeln und zu aggregieren. Anschließend präsentieren wir eine vergleichende Analyse der untersuchten Strategien. Schließlich beleuchten wir Probleme bei der Arbeitsablaufplanung für die weitere Forschung. Die Ergebnisse dieser Überprüfung bieten einen Fahrplan für die Entwicklung von Workflow-Planungsmodellen, der Forscher dazu motivieren wird, bessere Algorithmen zur Workflow-Planung für Dienstverbraucher und/oder Versorgungsanbieter im Cloud-Computing vorzuschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-97719-5_16 fd2cf82e5e7072f55b3dd9b8c26fc8da;de;;;6.1.;;;Mehrwert für die Kundenbindung durch effektive Daten-Compliance Die Erlaubnis zur Vermarktung ist eine wichtige Ressource für Unternehmen, die sie pflegen müssen. In diesem Artikel werden einige der Methoden betrachtet, die Marketer aufgrund gesetzlicher Vorschriften anwenden müssen, und andere, die sie anwenden sollten, um ihre Berechtigungsraten zu optimieren und die Anzahl der Abmeldungen zu reduzieren.;-;-;-;https://link.springer.com/article/10.1057/dddmp.2015.37 e6b436f6868f1196b87a6707ce170f65;de;;;6.1.;;;Einbeziehung der Öffentlichkeit in ethische Überlegungen zu Big Data Die Öffentlichkeit ist ein wichtiger Akteur in der Debatte über und der Lösung von Datenschutz- und ethischen Fragen in der Big-Data-Forschung zu menschlichen Angelegenheiten. Daher müssen Wissenschaftler lernen, die Bedenken der Öffentlichkeit gegenüber der Big-Data-Forschung ernst zu nehmen und Botschaften zu kommunizieren, die darauf abzielen, Vertrauen in bestimmte Big-Data-Projekte und die Wissenschaft im Allgemeinen aufzubauen. Dieses Kapitel untersucht die Implikationen verschiedener Beispiele für die Beteiligung der Öffentlichkeit an Online-Aktivitäten wie Wikipedia, die im Gegensatz zu „Benachrichtigungs- und Einwilligungsformularen“ stehen, und bietet Modelle an, die Wissenschaftler berücksichtigen können, wenn sie sich ihren potenziellen Forschungsthemen nähern. Zeichnung von Lessig,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-28422-4_4 697f0d201d4ad51829c85058e2906fa1;de;;;6.1.;;;Computer im Lebensmittelanalyselabor Analysis Das heutige Lebensmittelanalytiklabor hat keine andere Wahl, als das elektronische Labor zu umarmen. Angesichts enormer rechtlicher und steuerlicher Notwendigkeiten muss der Laborleiter einige Entscheidungen treffen, die eine synergetische Interaktion zwischen Hardware, Betriebssystemen und Software beinhalten. Dieses Ensemble muss die von seinen bedrängten Mitarbeitern geforderten Dienste erbringen. Bei der Umsetzung müssen die psychologischen, politischen, diplomatischen und steuerlichen Rahmenbedingungen berücksichtigt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-7379-7_3 8bcf9d1324f6f1e8535245207c241c88;de;;;6.1.;;;Healthcare-related Data Integration Framework und Knowledge Reasoning Process In diesem Beitrag veranschaulichen wir ein auf Sensordaten basierendes Framework zur Integration von Gesundheitsinformationen mit semantischer Erkenntniskraft. Heutzutage beginnen immer mehr Menschen, mobile Anwendungen zu verwenden, die Daten von einer Vielzahl von Gesundheits- und Wohlbefindensensoren sammeln können und signifikante Korrelationen zwischen den Sensorsystemen aufweisen. Es ist jedoch schwierig, Daten aus diesen Sorten zu korrelieren und zu integrieren, die den Benutzern ein Gesamtbild des Wohlbefindens und verborgene Einblicke in systematische Gesundheitstrends bieten. Der Beitrag stellt eine datensemantische Integrationslösung unter Verwendung semantischer Webtechnologien vor. Der Prozess umfasst einen Prozess zum Heben von Wissen und zum Schlussfolgern, der viele versteckte Gesundheitsfaktoren und eine persönliche Lebensstilanalyse unter Verwendung der semantischen Regelsprache (SWRL) zurückmelden könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-62698-7_32 9593d1445c6184241b5d0bb4b45e6c3e;de;;;6.1.;;;Verwalten Sie die OpenMP-GPU-Datenumgebung unter einem einheitlichen Adressraum OpenMP unterstützt seit Version 4.0 die Auslagerung von Berechnungen an Beschleuniger wie GPUs. Ein entscheidender Aspekt beim OpenMP-Offloading ist die Verwaltung der Accelerator-Datenumgebung. Derzeit muss dies von den Benutzern explizit programmiert werden, was nicht trival ist und oft zu einer suboptimalen Leistung führt. Die in neueren GPU-Architekturen verfügbare einheitliche Speicherfunktion bietet eine weitere Option, die implizite Verwaltung. Unsere Experimente zeigen jedoch, dass es zu mehreren Leistungsproblemen kommt, insbesondere bei einer Überbelegung des GPU-Speichers. In diesem Whitepaper schlagen wir einen kollaborativen Ansatz für Compiler und Laufzeit vor, um OpenMP-GPU-Daten unter einem einheitlichen Speicher zu verwalten. In unserem Framework führt der Compiler eine Datenwiederverwendungsanalyse durch, um das Laufzeitdatenmanagement zu unterstützen. Die Laufzeit kombiniert statische und dynamische Informationen, um optimierte Entscheidungen im Datenmanagement zu treffen. Wir haben die vorgeschlagene Technologie im LLVM-Framework implementiert. Die Auswertung zeigt, dass unsere Methode eine signifikante Leistungssteigerung für das OpenMP-GPU-Offloading erzielen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98521-3_5 0bca910200cd2f57884831ae66db21ce;de;;;6.1.;;;Entwicklung von Sicherheitsintelligenz in Big Data In der heutigen Welt, in der das Volumen digitalisierter Daten exponentiell wächst, wachsen gleichzeitig der Bedarf und die Möglichkeit, große Datensätze zu speichern und rechnerisch zu analysieren. Der Begriff „Big Data“ bezieht sich auf sehr große oder komplexe Datensätze, sodass klassische Softwareanwendungen zur Datenverarbeitung nicht ausreichen, um sie zu verwalten. Ein großartiges Beispiel für ein Unternehmen, das die moderne Massendaten-gesteuerte Welt symbolisiert, ist Google. Es ist das möglicherweise erfolgreichste IT-Unternehmen der Welt sowie das größte Datenverarbeitungsunternehmen der Neuzeit. Im April 2004 schrieben Larry Page und Sergey Brin ihren ersten und mittlerweile berühmten „Gründerbrief“ an ihre Mitarbeiter, in dem es hieß: „Google ist kein konventionelles Unternehmen. Wir beabsichtigen nicht, einer zu werden.“ Zwölf Jahre später, mit einem Führungswechsel, schrieb der neue CEO Sundar Pichai 2016 einen Brief an die Mitarbeiter und schloss ihn mit „Google ist ein Informationsunternehmen. Es war, als es gegründet wurde und ist es heute. Und was die Leute mit diesen Informationen machen, erstaunt und inspiriert mich jeden Tag aufs Neue.“ Bei der Analyse großer Datenmengen gibt es viele Herausforderungen, darunter Datenerfassung und -speicherung, Datenanalyse, Kuratierung, Suche, gemeinsame Nutzung und Übertragung, Datenvisualisierung, Datenabfrage und -aktualisierung, unter anderem. Die größte Herausforderung ist jedoch die Informationssicherheit und der Datenschutz von Big Data [;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-6680-1_2 beaeacb22d5726d892d71f687767d67e;de;;;6.1.;;;Perspektiven der Gemeindevorsteher zur Einbindung von Afroamerikanern in Biobanken und andere humangenetische Initiativen Es gibt nur begrenzte Informationen darüber, was Afroamerikaner über Biobanken und die damit verbundenen ethischen Fragen denken. Ebenso besteht eine Kapazitätslücke, um Afroamerikaner erfolgreich als Biobank-Spender zu registrieren. Die Zwecke dieser gemeinschaftsbasierten partizipativen Studie waren: (a) die Perspektiven der Afroamerikaner zur Genetik/Genomforschung zu erkunden, (b) die Vermittler und Hindernisse für die Teilnahme an solchen Studien zu verstehen und (c) ihre Ideen einzubringen, wie man und das Engagement von Afroamerikanern in genetischen Initiativen aufrechtzuerhalten. Als erste Phase einer Mixed-Methods-Studie führten wir vier Fokusgruppen mit 21 afroamerikanischen Gemeindeleitern in einer Stadt im Mittleren Westen der USA durch. Die Stichprobe bestand aus Geschäftsführern von Gemeindeorganisationen und prominenten Gemeindeaktivisten. Die Daten wurden thematisch analysiert. Skepsis gegenüber biomedizinischer Forschung und mangelndes Vertrauen prägten die Diskussionen um biomedizinische Forschung und Biobanken. Die Tuskegee-Studie über unbehandelte Syphilis und der Fall Henrietta Lacks beeinflussten ihren Wunsch, ihre Gemeinschaft vor Schaden und Ausbeutung zu schützen. Verbindungen zwischen Genetik und Familiengeschichte machten die Genetik/Genomikforschung persönlich und stellten Einmischung in private Angelegenheiten gegen Lösungen. Die Teilnehmer äußerten auch Bedenken hinsichtlich ethischer Fragen im Zusammenhang mit der Genomforschung und machten darauf aufmerksam, wie die Forschung in ihrer Gemeinschaft zuvor durchgeführt wurde. Die Teilnehmer hofften, dass die personalisierte Medizin ihren Leuten gesundheitliche Vorteile bringen könnte, und vorgeschlagenen afroamerikanischen Gemeinschaften würden einen „Platz am Tisch“ haben. Sie forderten grundlegenden Respekt, authentische Zusammenarbeit, bidirektionale Bildung, Transparenz und Vorrechte sowie sinnvolle Leistungen und Vergütungen. Der Schlüssel zum Aufbau von Vertrauen und zur Überwindung der Angst und des Widerstands der Afroamerikaner gegen die Teilnahme an Biobanken sind ein frühzeitiges und anhaltendes Engagement mit der Gemeinschaft, Partnerschaften mit Interessenvertretern der Gemeinschaft, um Forschungsprioritäten zu ermitteln, eine ethische Durchführung der Forschung und eine Garantie für eine gerechte Verteilung der Vorteile aus Genomforschungen .;-;-;-;https://link.springer.com/article/10.1007/s12687-013-0155-z a9c37f6e4faab0cab49abc4c2f763ccf;de;;;6.1.;;;Persönliche Gesundheitsinformatik Die Rolle von Menschen und ihren Betreuern im Gesundheitssystem hat sich in den letzten zwei Jahrzehnten stark ausgeweitet und nimmt weiter zu, wodurch der Einfluss der biomedizinischen Informatik auf die Person, die Informationen oder Pflege sucht, immer stärker wird. In diesem Kapitel wird das wichtige Konzept von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58721-5_11 00423f2b67087ab9ff4f8ab18a7b33c1;de;;;6.1.;;;Datenzusammenführung Datenfusion ist ein Begriff, der neuerdings für die Nutzung von Informationen aus verschiedenen Quellen zur Interpretation angeboten wird. Die Daten können unabhängig oder redundant sein. Die Daten können mit unterschiedlichen Methoden (Fernerkundung, Geophysik, Hydrogeologie etc.), unterschiedlichen Sensoren (zB Spektralscanner, Magnetometer, Grundwassernivelliergeräte) gleichzeitig oder zu unterschiedlichen Zeitpunkten sowie A-priori-Informationen gewonnen werden (zB Stand der Technik, Informationen aus Aufschlüssen und Bohrlöchern, Kontrollpunkte). Durch die geeignete Kombination von Untersuchungsmethoden kann der Informationsgewinn im Vergleich zum kumulierten Informationsgewinn einzelner Methoden erheblich gesteigert werden. Die Begriffe „Datenfusion“ und „Informationsfusion“ können synonym verwendet werden. Anstelle von Fusion werden die Begriffe „Kombination“, „Integration“, „Assimilation“, „Merging“, „Synergie“ und „Interaktion“ verwendet. Je nach Grad der Wissensextraktion und -repräsentation sind unterschiedliche Ebenen der Datenfusion im Einsatz. Bei der Pixel-Level-Fusion werden die Daten (z. B. Bilder) von verschiedenen Sensoren auf Pixel-Ebene kombiniert. Bei der Fusion auf Attributebene werden die Merkmale und Objekte aus verschiedenen Darstellungen (z. B. Bildern, Karten, geophysikalischen und/oder geochemischen Ergebnissen) extrahiert und kombiniert. Fusion auf Entscheidungsebene erfolgt beispielsweise mit Schlussfolgerungen oder Aktionen. In allen Fällen wird eine Verbesserung der Genauigkeit der Interpretation angestrebt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74671-3_19 aec764fed0432b7c4779670292dc4dbc;de;;;6.1.;;;Moral delegieren und verteilen: Können wir Datenschutz in eine Maschine schreiben? Dieser Beitrag befasst sich mit der Frage der Delegation von Moral an eine Maschine, indem er überlegt, ob Nicht-Menschen als moralisch betrachtet werden können oder nicht. Der hier betrachtete Aspekt der Moral ist der Schutz der Privatsphäre. Das Thema wird anhand von zwei Fällen eingeführt, in denen die Weitergabe und Speicherung personenbezogener Daten, die durch das britische Datenschutzrecht geschützt sind, mit tragischen Folgen versäumt wurde. In gewisser Weise kann dies als Fehlschlag beim Delegieren von Moral an eine Computerdatenbank angesehen werden. Im Vereinigten Königreich haben die Probleme, die diese Fälle aufwerfen, zu einer Gesetzgebung zum Schutz von Kindern geführt, die die Einrichtung einer riesigen Datenbank für Kinder ermöglicht. Paradoxerweise haben wir es versäumt, digitale Daten bei der Durchsetzung des Gesetzes zum Schutz von Kindern zu verwenden, aber wir können uns jetzt stark auf digitale Technologien verlassen, um sich um Kinder zu kümmern. Dabei greife ich auf die Arbeiten von Floridi, Sanders, Collins, Kusch, Latour und Akrich zurück, ein Spektrum reicht von der Philosophie über die Techniksoziologie bis hin zum „seamless web“- oder „actor-network“-Ansatz der Technikforschung. Intentionalität wird zwar berücksichtigt, aber nicht als notwendig für sinnvolles moralisches Verhalten erachtet. Das Konzept der „verteilten Moral“ von Floridi und Sanders entspricht dem von Akteur-Netzwerk-Ansätzen geprägten Handlungsnetzwerk. Das Papier kommt zu dem Schluss, dass es nicht unbedingt problematisch ist, Nichtmenschen in Form von Computerdatenbanken mit personenbezogenen Daten als moralische Akteure zu berechtigen, sondern ein Gleichgewicht der Delegation von Moral zwischen menschlichen und nichtmenschlichen Akteuren hergestellt werden muss.;-;-;-;https://link.springer.com/article/10.1007/s10676-006-0013-3 3e65e6b97faf1db8c02d9ed057e52ba8;de;;;6.1.;;;Ersetzen eines Chief Information Officer Nichts ist wichtiger für den Erfolg eines Unternehmens als Führung. Egal wie groß oder stark eine Organisation ist, egal wie viel Geld und Ausrüstung oder wie viele Mitarbeiter sie hat, der einzige Faktor, der diese Ressourcen zusammenbringen und am besten einsetzen kann, ist die Führung. In jedem Bereich entscheidet die richtige Person zur richtigen Zeit über Erfolg und Misserfolg. Führung ist im Informationsmanagement besonders wichtig, da das Feld tendenziell als technisch und kalt wahrgenommen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-4043-1_26 24ef0b251cdeb7324f87d1bfede25cd5;de;;;6.1.;;;Blockchain-Anwendungen in Microgrid-Clustern Es besteht Bedarf an einem neuen Marktansatz, um die Stromerzeugung und den Lastausgleich zu erleichtern und die CO2-arme Energieerzeugung optimal zu nutzen. Basierend auf hoher Sicherheit, hoher Transparenz, hoher Manipulationssicherheit und Dezentralisierung eignet sich Blockchain für Microgrids mit hoher erneuerbarer Durchdringung und fortschrittlichen Supervisory Control and Data Acquisition (SCADA)-Sensoren. Microgrids mit Blockchain können ein widerstandsfähigeres, kosteneffizienteres, verlustarmes und umweltfreundlicheres Netz ergeben. In diesem Kapitel werden zunächst die Beweggründe für den Blockchain- und Peer-to-Peer (P2P)-Energiehandel vorgestellt. Der technische Hintergrund inklusive Grundlagen der Blockchain-Technologie wird vermittelt. Zweitens gibt das Kapitel einen Überblick über Blockchain-Anwendungen speziell für Microgrids durch einen Überblick über den Stand der Technik. Drittens werden der Rahmen und die Komponenten eines P2P-Energiehandelsmodells für Microgrids und Microgrid-Cluster untersucht. Ein auf Smart Contracts basierendes hybrides P2P-Energiehandelsmodell mit Kryptowährung namens Localized Renewable Energy Certificate (LO-REC) wird diskutiert. Die Vorteile und Herausforderungen der Kombination von Blockchain mit Microgrids werden identifiziert. Dieser Abschnitt dient als Leitfaden für zukünftige Forschungen zu Blockchain-Anwendungen in Microgrids.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-52155-4_3 ffd0b6dc91a7027555df7dc69e57c4a5;de;;;6.1.;;;Implementierung eines Datenerfassungssystems mit skalierbarer intelligenter Steuerungsarchitektur Dieses Papier beschreibt ein System namens „Glue Logic“, bei dem es sich um ein Infrastruktursystem handelt, das für ein Fabrikautomatisierungssteuerungssystem entwickelt wurde, und eine Beispielimplementierung einer schichtstrukturierten Steuerungsarchitektur mit dem Namen „Scalable Intelligent Control Architecture“, über die im DIISM2000 berichtet wird. Die „Glue Logic“ unterstützt das Echtzeit-Steuerungs- und Überwachungssystem durch die Realisierung der Kommunikation und Synchronisation zwischen mehreren Agenten. Unter Verwendung der aktiven Datenbanktechnik umfasst dieses System das Senden von Ereignisbenachrichtigungsnachrichten und Zustandsüberwachungsfunktionen, um Datenabfragen zu vermeiden. Dieses System unterstützt auch eine effiziente Programmierumgebung, indem es die Modularität und Wiederverwendbarkeit der Software-Assets erhöht. Mit der Glue Logic konzipieren wir nun ein Echtzeit-Datenerfassungssystem in praxisgerechten Fertigungslinien nach der Scalable Intelligent Control Architecture, das eine Erweiterung der Steuerungssysteme nicht nur in räumlicher Dimension, sondern auch intelligenz ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-23852-2_30 e8efccf96e17b79d01ed21a4202dd8b8;de;;;6.1.;;;Europäische Banken und die grenzüberschreitende Erbringung von Dienstleistungen über das Internet: Geschäftspraktiken und regulatorische Bedenken Immer mehr europäische Bankinstitute bieten in ihren Heimatmärkten und im Ausland Bank- und andere Finanzdienstleistungen über das Internet an. In diesem Beitrag werden zwei zentrale Fragen angegangen: die Implikationen dieser Strategie für die jeweils geltenden Genehmigungspflichten und darüber hinaus die Lösung des Problems der Zuweisung regulatorischer Zuständigkeiten angesichts der unsicheren territorialen Elemente eines grenzüberschreitenden Internet-Transaktion. Die Analyse basiert auf rechtlichen Entwicklungen in drei wichtigen europäischen Rechtsordnungen, nämlich Großbritannien, Frankreich und Deutschland, sowie auf dem gemeinschaftlichen Regulierungsrahmen.;-;-;-;https://link.springer.com/article/10.1057/palgrave.jbr.2340116 f13b4307e7fe7d943744b8c15c72de37;de;;;6.1.;;;Operationalisierung von Datenschutz- und Sicherheitsanforderungen für eHealth-IoT-Anwendungen im Kontext von DSGVO und CSL Die vierte industrielle Revolution stellt eine Reihe beispielloser gesellschaftlicher Herausforderungen, die zunehmend durch Regulierung angegangen werden. Dies wiederum belastet die Annahme und Umsetzung der unterschiedlichen Konzepte und Prinzipien (z. B. Privacy-by-Design) mit Praktikern. Diese Konzepte und Prinzipien werden jedoch von Rechtsexperten so formuliert, dass sie von Software-Ingenieuren und -Entwicklern nicht direkt verwendet werden können, und die praktischen Implikationen sind daher nicht immer offensichtlich und eindeutig. Darüber hinaus existieren viele komplementäre Regulierungsrahmen, deren Einhaltung in einigen Fällen gleichzeitig erreicht werden sollte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-55196-4_9 2514b6a0116924ddd63648965c547f25;de;;;6.1.;;;Strategie für die Entwicklung von Datenbankanwendungen: Der DB-MAIN-Ansatz Während neuere Datenverwaltungstechnologien, z. B. objektorientiert, das Problem der Evolution von Datenbankschemata ansprechen, werfen gegenwärtig verwendete Standardinformationssysteme herausfordernde Probleme auf, wenn es um die Evolution geht. Dieser Artikel untersucht die Datenbankentwicklung aus der Sicht des Entwicklers. Es zeigt, wie Anforderungsänderungen durch eine allgemeine Strategie an die Datenbankschemata, an die Daten und an die Programme weitergegeben werden. Diese Strategie erfordert die Dokumentation des Datenbankdesigns. Bei Abwesenheit muss diese Dokumentation durch Reverse-Engineering-Techniken neu erstellt werden. Der Ansatz basiert auf einem generischen Datenbankmodell und auf dem Transformationsparadigma, das besagt, dass Datenbank-Engineering-Prozesse durch Schematransformationen modelliert werden können. Tatsächlich stellt eine Transformation sowohl strukturelle als auch Instanzzuordnungen bereit, die formal definieren, wie Datenbankstrukturen und -inhalte geändert werden. Das Papier analysiert dann das Problem der Programmänderung und beschreibt ein CASE-Tool, das Entwickler bei ihrer Aufgabe der Systemevolution unterstützen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39648-2_24 8b881fb069b53e73397ccb514aa438c3;de;;;6.1.;;;Überwachung von Mikroben in den Großen Seen Die Umweltbehörden von Great Lakes möchten die Kapazitäten aufbauen, um Bedrohungen durch Mikroben zu verstehen und im Vorfeld von Krisen wie dem großen Fischsterben Reaktionen und Eindämmungspläne zu entwickeln. Wir haben einen gemeinsamen Plan zur Überwachung von Mikroben in den Großen Seen Nordamerikas entwickelt, um den praktischen Anforderungen mit den neuesten wissenschaftlichen und Testtechnologien gerecht zu werden. Ziel war es, ein Verständnis für schädliche Mikroben aufzubauen und Bedrohungen schnell, relevant und robust zu bekämpfen. Das Programm war auf die Anpassungsfähigkeit an sich ändernde Bedrohungen ausgerichtet und zielt auf Bereiche menschlicher Aktivität, insbesondere Schifffahrtshäfen und Invasions-Hotspots. Die Probenahme wird auf Fische und Wasser ausgerichtet, wobei molekulare Testverfahren angewendet werden, die einen schnellen, effizienten und sehr empfindlichen Nachweis von Mikroben ermöglichen. Im Vergleich zu anderen Programmen mit ähnlichen Zielen ist unsere Agenda breiter angelegt, konzentriert sich auf den Aufbau von Wissen, verwendet ein repräsentatives Stichprobendesign und liefert Erkenntnisse für eine proaktive Management- und Reaktionsplanung. Das Vertrauen auf molekulare Testverfahren, Probenarchivierung und schnelle und breit verteilte Ergebnisse unterscheidet unseren Ansatz von anderen ähnlichen Programmen. Es wird erwartet, dass die Mikrobenüberwachung in die Umweltmanagement-Agenda der Großen Seen eine wichtige neue Dimension der Ökosystemüberwachung hinzufügt und neue Erkenntnisse von Bedeutung für die Bewirtschaftung liefert.;-;-;-;https://link.springer.com/article/10.1007/s10661-011-1887-z ec41798ec9e274991fe1c01f48ef07fe;de;;;6.1.;;;2-Layered Metadata Service Model in Grid Environment Datenintensive Aufgaben werden zu einer der wichtigsten Anwendungen im Grid-Umfeld. Der Umfang der Datensätze betrug Hunderte von Terabyte und wird bald Petabyte sein. Das Hauptproblem, mit dem wir konfrontiert sind, besteht darin, die geografisch verteilten Speichergeräte zu organisieren, um die kollaborativen Operationen an Daten in diesen Ressourcen zu unterstützen. Einerseits ist die Leistung für eine solche Anwendung entscheidend, andererseits verhindern die unterschiedlichen Netzwerkbedingungen, dass Benutzer die gleiche Servicequalität erhalten. Dieses Papier konzentriert sich auf die Lösung des oben genannten Problems und stellt ein zweischichtiges Metadatendienstmodell in einer Grid-Umgebung vor, das die besondere Lokalität der Verteilung der Benutzer nutzt und eine Plattform für das Grid-Datenmanagement bietet. Wir haben dieses zweischichtige Metadatendienstmodell in model implementiert;-;-;-;https://link.springer.com/chapter/10.1007/11564621_11 c0b5bd5e077d7aa414364de0075ff26e;de;;;6.1.;;;Ein visuelles Modell für Datenschutzbewusstsein und -verständnis in sozialen Online-Netzwerken Die Zahl der Nutzer, die an sozialen Online-Netzwerken teilnehmen, nimmt in letzter Zeit deutlich zu. Infolgedessen explodiert die Menge der von ihnen erstellten und geteilten Informationen. Einerseits hilft der Online-Informationsaustausch den Menschen, miteinander in Kontakt zu bleiben, wenn auch virtuell. Auf der anderen Seite kann die Weitergabe von zu vielen Informationen dazu führen, dass sensible personenbezogene Daten unerwartet durchsickern. Um die privaten Informationen ihrer Nutzer zu schützen, setzen Anbieter sozialer Online-Netzwerke häufig technische Methoden wie Zugangskontrolle und Kryptographie unter anderem ein. Obwohl diese Ansätze für ihre vorgesehenen Zwecke gut genug sind, bieten sie bei falscher Verwendung wenig bis gar keinen Schutz. Um die Anzahl der Fehler zu reduzieren, die Benutzer machen können, bieten die Anbieter sozialer Online-Netzwerke ihnen auch visuelle Schnittstellen für die Auswahl und Konfiguration von Datenschutzeinstellungen anstelle von langwierigen und langweiligen Texten. Leider werden private Informationen immer noch öffentlich geteilt, mit oder ohne Kenntnis der Eigentümer. In diesem Papier versuchen wir, das Problem des Datenschutzverlusts zu mildern, indem wir ein neuartiges visuelles Modell zur Messung und Darstellung der Privatsphäre von Benutzern in der Online-Social-Network-Umgebung und den zugehörigen Datenschutzbeauftragten zu deren Schutz vorschlagen. Eine konkrete Instanz des Modells wurde entworfen und implementiert. Eine Demonstration der Modellinstanz wurde für eines der größten sozialen Netzwerke, Facebook, durchgeführt. Erste Ergebnisse zeigen die Wirksamkeit des vorgeschlagenen Modells und seiner konkreten Instanz. Ein wichtigeres und schwierigeres Problem ist jedoch, ob Anbieter sozialer Online-Netzwerke bereit sind, diese Ergebnisse anzuwenden, die sich auf die Sharing-Aktivitäten auswirken und ihren Geschäftszielen zuwiderlaufen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-35653-8_26 bf4771834592c6a0b3816d72060f072c;de;;;6.1.;;;Auf dem Weg zu einem langfristigen integrierten Monitoring-Programm in Europa: Netzwerkdesign in Theorie und Praxis Die integrierte Langzeitüberwachung ist ein wichtiger Ansatz, um die Auswirkungen von Umweltveränderungen zu untersuchen, zu erkennen und vorherzusagen. Derzeit werden europäische Süßwasser, Gletscher, Wälder und andere natürliche und naturnahe Ökosysteme und Lebensräume von einer Reihe von Netzwerken überwacht, die von verschiedenen Organisationen eingerichtet wurden. Viele Überwachungsprogramme haben jedoch einen engen Fokus (z. B. auf einzelne Ökosysteme) und die meisten haben unterschiedliche Messprotokolle und Stichprobendesigns. Dies hat zu einer schlechten Integration der Ökosystemüberwachung auf europäischer Ebene geführt, was zu einigen Überschneidungen der Bemühungen und zu einem Mangel an harmonisierten Daten für die Politik geführt hat Entscheidungen. In der wissenschaftlichen Gemeinschaft wird die Notwendigkeit eines einheitlichen gesamteuropäischen Programms zur langfristigen integrierten Überwachung terrestrischer Systeme anerkannt. Der Entwurf eines solchen Systems kann jedoch problematisch sein, nicht zuletzt aufgrund der Einschränkungen durch die Notwendigkeit, vorhandene Standorte und Netzwerke optimal zu nutzen. Basierend auf den Ergebnissen des NoLIMITS-Projekts (Networking ofLong-term Integrated Monitoring in Terrestrial Systems) , behandelt dieser Artikel Fragen, die bei der Gestaltung eines Programms auf der Grundlage bestehender Überwachungsstellen und -netze angegangen werden sollten. Dabei werden vier wesentliche Designaspekte berücksichtigt: (i) Anforderungen der Nutzer, (ii) die Notwendigkeit, mehrere Ziele anzugehen, (iii) Rolle bestehender Standorte und (iv) betriebliche Aspekte.;-;-;-;https://link.springer.com/article/10.1023/A%3A1019934919140 3e6735ba679c80ca5553e7827d83ad94;de;;;6.1.;;;Verhaltenssicherheit in Cloud- und Fog-Computing In diesem Beitrag werden verschiedene Anwendungsmöglichkeiten von kognitiven und verhaltensbezogenen Ansätzen im Fog- und Cloud-Computing beschrieben. Insbesondere werden die Möglichkeiten zur Verwendung ausgewählter Verhaltensmerkmale für die Erstellung von Sicherheits- und kryptografischen Protokollen vorgestellt, die der sicheren Verteilung und Verwaltung strategischer Daten in Nebel- und Cloud-Umgebungen gewidmet sind. Es werden auch einige mögliche Anwendungen der Verwendung von Bewegungs- und Gestenfunktionen vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-75928-9_77 b2432f3d4391b577f80e0cc66ced905d;de;;;6.1.;;;Physikalisches Datenbankdesign lehren Datenbankdesign wird traditionell als ein Prozess gelehrt, bei dem Anforderungen in einem konzeptionellen Modell erfasst, dann in ein logisches Modell umgewandelt und anschließend in ein physisches Modell implementiert werden. Konzeptionelle Modelle sollen abstrakt und plattformunabhängig sein und somit Aspekte der zu modellierenden Anwendung ausdrücken, ohne die Designauswahl vorzeitig einzuschränken. Die frühen Phasen des Prozesses sind in der Pädagogik etablierter, während die letzte Phase, das physische Design, in der Literatur zur Informatikausbildung weitgehend unerforscht zu sein scheint. Wenn die Wahl des logischen Modells zudem relational ist, gibt es mehrere mögliche Implementierungsmodelle, und der Entwurfsraum erweitert sich nach der Phase der Transformation eines konzeptionellen Modells in ein logisches Modell wieder. In diesem Artikel geht es darum, Studenten den Entwurfsraum für die physische Modellierung beizubringen. Die Inhalte der Lernmodule zum physikalischen Design werden präsentiert, einschließlich der abstrakten (konzeptuellen) Gerüstbildung technischer Inhalte, gefolgt von der Verbindung mit realen Analoga, die in einem Projekt gipfelt, das die Anwendung von konzeptionellem Wissen erfordert, um die Auswirkungen des physikalischen Designs zu untersuchen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Alternativen. Das Erreichen von Lernergebnissen mit und ohne Abschlussprojekt wird für Lehrveranstaltungen in zwei aufeinanderfolgenden Studiensemestern bewertet. Zukünftige Forschungsfelder werden diskutiert, wie die Erweiterung und Verfeinerung des physikalischen Gestaltungsraums, die studentische Vorbereitung und die untersuchten Wirkungsarten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-01391-2_22 e5862ae88c48b2a4b75cbc3671f41f59;de;;;6.1.;;;Könntest du mich jemals vergessen? Warum Menschen online vergessen werden wollen Das Konzept des Gedächtnisses der Menschen hält die Endlichkeit von Zeit und Kapazität aufrecht. Mit dem technologischen Fortschritt hat sich jedoch die Menge an Speicherplatz, die eine Person verwenden kann, dramatisch erhöht. Angesichts der Tatsache, dass digitale Spuren kaum gelöscht oder vergessen werden können, haben Einzelpersonen begonnen, ihren Wunsch zu äußern, in der digitalen Welt vergessen zu werden, und Regierungen und Wissenschaft erwägen Methoden, diesen Wunsch zu erfüllen. Wir erfassen die Schwierigkeiten im Hinblick auf eine kulturelle Verzögerung zwischen technologischem Fortschritt und Vorschriften bezüglich der Datenschutzbedürfnisse von Einzelpersonen, identifizieren sechs Motive für Einzelpersonen, die online vergessen werden möchten, und untersuchen die erwarteten Auswirkungen auf die Erstellung von Online-Inhalten durch eine qualitative Inhaltsanalyse von 222 Antworten von offene Umfragen in Korea. Unsere Ergebnisse liefern Implikationen für die Literatur über die Privatsphäre des Einzelnen und das Recht auf Vergessenwerden unter Ausnutzung des kulturellen Lags und gehen weiter auf den Zusammenhang zwischen dem Online-Vergessenwerden und der Legitimität solcher Anfragen von Einzelpersonen ein. Darüber hinaus werden Konsequenzen für Datenanbieter, Verantwortliche/Auftragsverarbeiter und Regierungen aufgezeigt, um diese Verzögerung zu beheben und ein ausgewogenes System personenbezogener Daten aufzubauen.;-;-;-;https://link.springer.com/article/10.1007/s10551-021-04747-x 48538f6ce2e91a20df266350f1c1c583;de;;;6.1.;;;Veröffentlichen oder untergehen: Die Uhr tickt für unveröffentlichte Werke Für Verlage oder Autorennachlässe, die Rechte an Werken von 2003 oder Werken nach 2003 besitzen, drängt die Zeit. Das Urheberrechtsgesetz bietet die Möglichkeit, das Urheberrecht an diesen Werken zu verlängern, aber die Frist dafür ist weder flexibel noch weit entfernt, und Urheberrechtsinhaber, die diese Möglichkeit nicht nutzen, werden wahrscheinlich keine zweite Chance bekommen.;-;-;-;https://link.springer.com/article/10.1007/s12109-001-0020-5 e738715254ee08c8e46fca7c21e302d6;de;;;6.1.;;;„Wir sind nur Geeks“: Disziplinarische Identifikationen bei Wirtschaftsstudenten und ihre Implikationen für die persönliche Verantwortung Diese Forschung zeigt, wie sich die disziplinären Spezialisierungen von Wirtschaftsstudenten auf ihr persönliches Verantwortungsbewusstsein auswirken können, indem sie Rationalisierungen für die moralische Distanzierung liefern. Dabei werden die fachlichen Spezialisierungen von BWL-Studenten als zentrale Dimension der verantwortungsvollen Lernumgebung der Business School konzipiert. Die Studierenden verwenden vier Hauptrationalisierungen, um die Verantwortung auf verschiedene Weise von ihren eigenen disziplinären Spezialisierungen zu verlagern, um Verantwortung als Vorrecht ihrer Spezialisierung zu beanspruchen und zu verschieben;-;-;-;https://link.springer.com/article/10.1007/s10551-021-04759-7 52367d5115ebc95900e7b57c1cdb4399;de;;;6.1.;;;Syntaktische Effekte des morphologischen Falls Wie im vorigen Kapitel diskutiert, wurden die Verteilungseigenschaften nominaler Argumente weitgehend mit dem theoretischen Konzept von;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0604-0_3 9a2595feedce8e3e628934a8cc14ba16;de;;;6.1.;;;Forschung zum Kuh-Epidemie-Monitorsystem basierend auf ArcGIS Engine Um die Arbeitsumgebung für den Epidemiemonitor von Kühen zu verbessern und die Arbeitseffizienz zu steigern, schlägt dieser Beitrag ein allgemeines Entwurfsschema für dieses System vor und entwickelt Teilfunktionen unter Verwendung der Methoden der Funktionsanalyse. Das Design der Informationssystemanalyse mit dem VS.NET, der ComGIS-Entwicklungsplattform (ArcGIS Engine) und der Datenbanktechnologie realisierte unter Verwendung verschiedener Methoden der räumlichen Analyse die umfassende Analyse der historischen Kuhkrankheit und der Raum-Zeit-Verteilung, die einen bestimmten Effekt zur Verbesserung der Ebene der Bekämpfung von Kuhkrankheiten, Bereitstellung einiger Referenzen für den Aufbau von geographischen Informationssystemen für Kuhkrankheiten der entsprechenden Abteilungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37502-6_111 f28226896992cc5e3242cbf372646376;de;;;6.1.;;;Wurzeln und Zukunft der Epidemiologie Der erste Zweck dieses Kapitels besteht darin, die Wurzeln der Epidemiologie als methodische Disziplin zu skizzieren, wobei ein historischer Ansatz mit mehreren Fäden verwendet wird. Wir entwirren, was wir als die wichtigsten historischen Fäden für die Entwicklung aktueller Methoden der Gesundheitsforschung am Menschen sehen, und achten dabei auf ethische, wissenschaftlich-theoretische und praktische Aspekte. Die Wurzeln epidemiologischer Konzepte und Methoden reichen weit zurück, bis die Epidemiologie eine eigene Disziplin wurde und formale statistische Vergleiche von Auftretenshäufigkeiten angestellt wurden. Wir vertreten die Auffassung, dass antike Denker, die mindestens bis Aristoteles zurückreichen, frühe Konzepte entwickelt haben, die für die Entwicklung der modernen Epidemiologie, wie wir sie kennen, wesentlich waren. Daher behandeln wir solche kritischen Entwicklungen als unmittelbar relevant für die Geschichte der Epidemiologie. Als Einführung beginnen wir mit einer Diskussion über Glaubenssysteme. Anschließend diskutieren wir eine Reihe historischer Fäden, beginnend mit Themen der Gesundheitsforschung, über Wege des kausalen Denkens über Gesundheit bis hin zum Design empirischer Informationen, Forschungsethik und Stakeholderbeteiligung. Andere für die Epidemiologie relevante Themen wie die Geschichte des Datenmanagements, der Analyse und der Studienberichterstattung werden nicht behandelt. Schließlich untersuchen wir einige mögliche und wünschenswerte zukünftige Entwicklungen in der epidemiologischen Forschung.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-5989-3_3 ebd33bbbbfe82cb45abc2d095fb8546f;de;;;6.1.;;;Vergleichsstudie zur 3D-Managementsoftware von Umspannwerken Beim Entwurf und Bau von Umspannwerken wurde dreidimensionale digitale Technologie angewendet, die die Planungseffizienz verbessert und den Visualisierungsgrad für den Ingenieurbau in China erhöht hat. Die Anwendung von 3D-Konstruktionssoftware löste jedoch hauptsächlich das Konstruktionsproblem zu einem bestimmten Zeitpunkt. Aber der gesamte Lebenszyklus wird bei der dreidimensionalen Technologie nicht mehr berücksichtigt, und es gab weniger Studien und Anwendungen auf der Plattform für das vollständige Lebenszyklusmanagement. Dieses Papier basiert auf einer Literaturübersicht über 3D-Anwendungen im Bereich der Umspannwerkstechnik und gängiger 3D-Konstruktionssoftware. Vergleichen Sie bestehende 3D-Konstruktionsplattformen für Umspannwerke und analysieren Sie deren Stärken und Schwächen in Bezug auf Funktionalität und Professionalität. Darüber hinaus wird die dreidimensionale Entwurfssoftware nach dem grauen Gesamtbewertungsverfahren bewertet und analysiert. Jede Softwarelösung wird anhand der Gewichte und Werte von sechs Indikatoren berechnet, um die optimale Lösung zu erhalten. In Kombination mit der optimalen Lösung und den tatsächlichen Managementanforderungen des Umspannwerks werden die Funktionsmodule und die Plattformarchitektur der digitalen 3D-Managementplattform des Umspannwerks basierend auf dem gesamten Prozessmanagement erforscht, um einen grundlegenden Rahmen für die spezifische Gestaltung und Implementierung der Plattform bereitzustellen in der Zukunft.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8892-1_86 fdfcb3702ae2c7f645feef5b33007c84;de;;;6.1.;;;Kohortenstudien zu Ätiologie und Überleben nach Krebs: der einzigartige Bedarf an ununterbrochener Finanzierung Die bestehenden prospektiven Kohorten liefern Schlüsseldaten, die in vielen verschiedenen Bereichen als Orientierungshilfe für die öffentliche Gesundheit und die klinische Praxis dienen. Die bestehenden Kohorten können auch die biologischen Proben und Daten bereitstellen, um die genetische Determinante von Krebs jetzt und nicht erst in einem Jahrzehnt zu untersuchen, und das zu weitaus geringeren Kosten als für eine neue nationale US-Kohorte vorgeschlagen. Überprüfungs- und Finanzierungsmechanismen sind erforderlich, um Unterbrechungen der Nachsorge und den damit verbundenen Schaden für bestehende Kohorten zu vermeiden.;-;-;-;https://link.springer.com/article/10.1007/s10552-007-0114-2 141f877d223a3220e67df49884ec2520;de;;;6.1.;;;Riskantes Fahrverhalten in Abu Dhabi, Vereinigte Arabische Emirate: eine querschnittliche, umfragebasierte Studie Die Zahl der Todesopfer bei Verkehrsunfällen pro gefahrener Meile ist in Abu Dhabi ähnlich wie in vielen Industrieländern zurückgegangen. Dennoch liegt die Quote immer noch deutlich über dem Durchschnitt von Ländern mit ähnlichen BIP- und soziodemografischen Indikatoren. Die Literatur zu diesem Thema in den Vereinigten Arabischen Emiraten ist insbesondere im Bereich der Untersuchung des Fahrverhaltens begrenzt. Diese Studie zielt darauf ab, Determinanten für riskantes Fahrverhalten zu finden, die zu einer Straßenverkehrskollision (RTC) in den Vereinigten Arabischen Emiraten (VAE) führen.;-;-;-;https://link.springer.com/article/10.1186/s12889-020-09389-8 70156d783b87486b2f7bf284f92d51ca;de;;;6.1.;;;Design und Implementierung eines Self-Service-Tourismusmanagement-Informationssystems basierend auf der B/S-Architektur Tourismusinformation ist ein Trend in der heutigen Gesellschaft. Touristen geben sich nicht mehr mit Reisen mit Reisegruppen zufrieden, sondern hoffen, ihre eigene Reise in Form von Selbsthilfe zu erleben. Ausgehend von diesem Anspruch entwickelt dieser Beitrag ein SB-Tourismus-Management-Informationssystem auf Basis der B/S-Struktur mit objektorientierter Analyse und Gestaltung. Durch das in diesem Artikel entwickelte Self-Service-Tourismusmanagement-Informationssystem ist es für Touristen, die alleine reisen möchten, bequem, damit sie alle relevanten Tourismusfragen durch das System bestimmen und das Managementniveau des Tourismus verbessern können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-62746-1_11 969175a18482e187b997311275488b43;de;;;6.1.;;;Netzgestütztes virtuelles Screening mit hohem Durchsatz Großmaßstäbliche Raster für die Wirkstoffforschung in silico eröffnen Möglichkeiten von besonderem Interesse für vernachlässigte und neu auftretende Krankheiten. In den Jahren 2005 und 2006 konnten wir im Rahmen der WISDOM-Initiative gegen Malaria und Vogelgrippe groß angelegtes virtuelles Docking einsetzen, das etwa 100 Jahre CPU auf den EGEE-, Auvergrid- und TWGrid-Infrastrukturen erfordert. Diese Errungenschaften demonstrierten die Relevanz von großskaligen Gittern für das virtuelle Screening durch molekulares Andocken. Dies ermöglichte es auch, die Leistung der Netzinfrastrukturen zu bewerten und spezifische Probleme zu identifizieren, die durch den groß angelegten Einsatz aufgeworfen wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69968-2_5 ab1d7dd67126204b62bd55c058f78a1c;de;;;6.1.;;;Die Infrastrukturlandschaft Die Praxis der modernen Medizin ist ohne Technologie einfach nicht machbar oder nachhaltig. Diese Technologie wird für diagnostische Tests, den Informationsaustausch zwischen Klinikern, die Analyse bewährter Verfahren, die Patientenüberwachung, die Bereitstellung von Behandlungen und in jüngerer Zeit für Expertensysteme verwendet, um die ländliche und entfernte Praxis zu unterstützen und die berufliche Entwicklung und das lebenslange Lernen zu erleichtern. Die Patienten werden immer selbstbestimmter und fordern einen besseren Zugang zu Informationen und globalen Best Practices, was sowohl eine Herausforderung als auch eine Chance darstellt. Es gibt weltweite Beweise für die positiven Auswirkungen, die Technologie unabhängig vom soziodemografischen Status auf die Gesundheit der Bevölkerung haben kann, aber bevor eine technologische Lösung implementiert werden kann, muss eine geeignete Hardware, Software und professionelle Infrastruktur zur Verfügung stehen. In diesem Kapitel wird der Stand der Vorbereitungen für die Anwendung technischer Gesundheitslösungen in Vietnam untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-287-709-3_4 a1dc4a9dfa77c1ad5c25c6ce7a3a0095;de;;;6.1.;;;Ein Hinweis zur elementaren Ausführungseinheit in einer parallelen Inferenzmaschine Wenn wir eine parallele Inferenzmaschine entwerfen, die logische Programme ausführt, gibt es einige wichtige Probleme, die die Maschinenleistung stark beeinflussen. Das wichtigste Problem besteht darin, die elementare Ausführungseinheit (Granulat) zu bestimmen. Je geringer die Größe der elementaren Ausführungseinheit ist, desto geringer ist der Overhead beim Kopieren und Übertragen, aber die Steuerung zwischen den Einheiten wird komplizierter.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-16479-0_3 ea096ae6e2763f533557c22b8259581c;de;;;6.1.;;;Eine sichere Multi-Owner-Multi-Copy-Funktion mit Datenschutz bei dynamischen Daten der öffentlichen Speicher-Cloud Die meisten Unternehmen haben riesige sensible Daten produziert und verwenden teure Anwendungen. Beides ist aufgrund der Anforderungen an eine hohe Speicherkapazität und der Installation derselben Anwendung auf verschiedenen Computern ziemlich teuer. Cloud Service Provider (CSPs) boten kostenpflichtige Storage-as-a-Service (SaaS) und Platform-as-a-Service (PaaS) Dienste an, die es ermöglichen, große Datenmengen zu speichern und viele Anwendungen in geringerem Umfang zu nutzen. Manchmal müssen Unternehmen Daten auf mehreren Servern replizieren, um die Skalierbarkeit, Verfügbarkeit und Haltbarkeit zu erhöhen, und müssen die Unversehrtheit und Konsistenz dynamischer Mehrfachdatenkopien überprüfen. Das implementierte System liefert den Nachweis, dass alle Datenkopien tatsächlich gespeichert sind und intakt bleiben. Darüber hinaus unterstützt das implementierte System dynamisches Verhalten bei Cloud-Daten, wobei die Datenbesitzer in der Lage sind, die von CSP gespeicherten Datenkopien zu archivieren, darauf zuzugreifen, zu aktualisieren und zu skalieren. Darüber hinaus ermöglicht das System den Eigentümern, einen externen Verifizierer zu benennen und beschädigte Kopien zu identifizieren und zu rekonstruieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-5427-3_46 8082c2d907d4da12ad6c16e81e98ff6c;de;;;6.1.;;;Ein Informations- und Kommunikationstechnologie (IKT)-gesteuertes Katastrophenmanagementsystem: Ein Fall von Brandbekämpfung in Mumbai Die zunehmende Häufigkeit und Intensität von Katastrophen stellt eine große Herausforderung beim Aufbau widerstandsfähiger Städte dar. Ungeplante Urbanisierung hat die Sache noch komplizierter gemacht. Im Zeitalter gebäudetechnologiegetriebener intelligenter Städte fehlt es an effektiver Implementierung und strategischer Planung des Katastrophenmanagements auf der Grundlage von Informations- und Kommunikationstechnologien (IKT). Um diese Bedenken auszuräumen, wird ein IKT-basiertes System entwickelt und während der Feuerübungen getestet. Das Testen des Systems erfolgte synchron mit dem Workflow eines vorgeschlagenen Frameworks für die Stadt Mumbai. Das Framework besteht aus einem verbesserten lokalen Katastrophenorgan, nämlich dem Smart Disaster Management Body (SDMB). Der Körper ist auf der Idee der IKT aufgebaut. Rahmenkomponenten und Lücken werden durch die Teilnahme an Brandschutzübungen, die Durchsicht der vorhandenen Literatur und die Durchführung kontrollierter Gruppenbefragungen vor und nach der Systemimplementierung mit Interessengruppen identifiziert. Die Ergebnisse der Stakeholder-Befragungen zeigen, dass die Lösung im Katastrophenmanagement effizienter ist. Und es kann die Herausforderungen bewältigen, die sich in Situationen mit schneller Reaktion ergeben, und kann daher beim Aufbau widerstandsfähiger intelligenter Städte helfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71945-6_18 b3decf025fe415a380e586feefadee0f;de;;;6.1.;;;Informationsmanagement zur Ökobilanzierung mit Smart Agents Eine umweltfreundliche und effektive Kreislaufwirtschaft erfordert eine offene Informationsverbindung zu den Designern, den Recyclern und den Herstellern von Recyclingtechniken. Für die Gestaltung, einschließlich der Produktbewertung, müssen Entsorgungs- und Recyclinginformationen zur Verfügung stehen. Der Recycler und der Hersteller von Recyclingtechniken benötigen Rahmenbedingungen und Produktinformationen aus der Konstruktion. Daraus leiten sich die Anforderungen an das Informationssystem ab. Das Konzept bezeichnet ein standardisiertes Datenmodell. Für die Datenorganisation wird ein föderalisiertes Datenbanksystem mit entsprechenden Transformationen vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35351-7_65 da3d9ecc60a11367acbb7e9b860f70a6;de;;;6.1.;;;HealthChain: Ein sicheres skalierbares Gesundheitsdatenmanagementsystem mit Blockchain Using Elektronische Gesundheitsakten (EHRs) wurden entwickelt, um die Komplexität von einrichtungsübergreifenden und lebenslangen Krankenakten zu verwalten. Wenn Patienten zwischen den Anbietern wechseln, werden ihre Daten über verschiedene Organisationen verstreut und verlieren den einfachen Zugriff auf frühere Aufzeichnungen. Die Aufzeichnungen sollten in digitalisiertem Format mit dem erforderlichen Schutz vor unbefugtem Zugriff aufbewahrt werden. Es gibt viele Schemata zur Lösung dieser Probleme, darunter zentrale serverbasierte Systeme, Cloud-basierte Systeme und Blockchain-basierte Systeme. Die Trendlösungen sind Cloud-basierte und Blockchain-basierte Lösungen. Obwohl ein Cloud-basiertes System durch verschiedene Mechanismen viel Skalierbarkeit bietet, wird es als sicheres System angesehen, in dem Daten mit oder ohne Wissen des Cloud-Anbieters beschädigt werden können. Die Blockchain-Technologie überwindet die Barriere, einem Agenten zu vertrauen. Dem Blockchain-basierten System fehlt es jedoch an Skalierbarkeit und es benötigt viel Speicherplatz. Das vorgeschlagene System HealthChain bietet ein sicheres System zur Verwaltung von Gesundheitsakten mit Skalierbarkeit und geringem Speicherplatz. HealthChain unterteilt das gesamte System in Regionen und verwendet zwei Arten von Blockchains, Private Blockchain: für die intraregionale Kommunikation und Consortium Blockchain: für die interregionale Kommunikation. Das vorgeschlagene System verwendet einen Konsensmechanismus für das Mining.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36987-3_25 a8ddf062cff6f35439358ae7d0718302;de;;;6.1.;;;Koordination von Peer-Datenbanken mithilfe von ECA-Regeln Peer-Datenbanken sind eigenständige, unabhängig entwickelte Datenbanken, die über Bekannte miteinander verbunden sind. Sie enthalten jeweils lokale Daten, eine Reihe von Zuordnungstabellen und Ausdrücken sowie eine Reihe von ECA-Regeln, die für den Datenaustausch zwischen ihnen verwendet werden. Die Menge der Bekannten und Peers bildet ein dynamisches Peer-to-Peer-Netzwerk, in dem Bekanntschaften kontinuierlich auf- und abgebaut werden. Wir stellen Techniken vor, um Richtlinien für den Datenaustausch im laufenden Betrieb festzulegen, basierend auf Einschränkungen, die der Art und Weise, wie Peers Daten austauschen und teilen, auferlegt werden. Wir realisieren die On-the-Fly-Spezifikation von Datenaustauschrichtlinien, indem wir ECA-Koordinierungsregeln zum Zeitpunkt der Bekanntschaft erstellen. Abschließend beschreiben wir anhand von Beispielen Mechanismen zum Auf- und Abbau von Bekanntschaften. Konkret betrachten wir syntaktische Konstrukte und Ausführungssemantiken des Auf- und Abbaus von Bekanntschaften.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24629-9_9 4c74c94457b0d242247140981a1f9bb9;de;;;6.1.;;;SEE-GRID eInfrastruktur für regionale eScience In den letzten 6 Jahren haben eine Reihe gezielter Initiativen, die von der Europäischen Kommission über ihre Programme zur Informationsgesellschaft und FTE sowie Maßnahmen zur Entwicklung der griechischen Infrastruktur finanziert wurden, erfolgreiche regionale Entwicklungsmaßnahmen in Südosteuropa hervorgebracht, die als Vorbild für andere internationale Entwicklungen. Das Projekt SEEREN (South-East European Research and Education Networking Initiative) etablierte in seinen zwei Phasen das SEE-Segment des paneuropäischen G´EANT-Netzwerks und verband erfolgreich die Forschungs- und Wissenschaftsgemeinschaften in der Region. Derzeit arbeitet das SEE-LIGHT-Projekt daran, ein Dark-Fibre-Backbone aufzubauen, das die meisten nationalen Forschungs- und Bildungsnetzwerke in der Region miteinander verbinden wird. Auf der verteilten Computer- und Speicherbereitstellung, dh Grid-Ebene, hat das Projekt SEE-GRID (South-East European GRID e-Infrastructure Development) in ähnlicher Weise in seinen beiden Phasen ein starkes menschliches Netzwerk im Bereich des wissenschaftlichen Rechnens aufgebaut und aufgebaut set eine leistungsstarke regionale Netzinfrastruktur und zog eine Reihe von Anwendungen aus verschiedenen Bereichen aus Ländern in ganz Südosteuropa an. Das aktuelle SEEGRID-SCI-Projekt, das im April 2010 endet, befähigt die regionalen Nutzergemeinschaften aus den Bereichen Meteorologie, Seismologie und Umweltschutz zur gemeinsamen Nutzung und gemeinsamen Nutzung der regionalen e-Infrastruktur. Aktuelle technische Initiativen in der Formulierung konzentrieren sich auf eine Reihe koordinierter Maßnahmen im Bereich HPC und Anwendungsfelder, die HPC-Initiativen nutzen. Schließlich bringt das aktuelle SEERA-EI-Projekt politische Entscheidungsträger zusammen – Programmmanager aus 10 Ländern der Region. Das Projekt zielt darauf ab, eine Kommunikationsplattform zwischen Programmmanagern zu schaffen, den Weg zu einer gemeinsamen Strategie und Vision für die e-Infrastruktur zu ebnen und konkrete Maßnahmen zur gemeinsamen Finanzierung elektronischer Infrastrukturen auf regionaler Ebene umzusetzen. Die regionale Vision, eine mit europäischen Entwicklungen kompatible e-Infrastruktur aufzubauen und die Wissenschaftler in der Region zu einer gleichberechtigten Beteiligung an der Nutzung paneuropäischer Infrastrukturen zu befähigen, wird durch die oben genannten Initiativen verwirklicht. Dieses Modell enthält eine Reihe konkreter operativer und organisatorischer Richtlinien, die angepasst werden können, um die Entwicklung der e-Infrastruktur in anderen Weltregionen zu unterstützen. In diesem Papier fassen wir die wichtigsten Entwicklungen und Beiträge des SEEGRID-SCI-Projekts zusammen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-8014-4_7 1d2dd1077ee12ff29bbe73557546d5d1;de;;;6.1.;;;Bericht über den Transparenzindex des Gerichts in Peking (2015) Im Jahr 2015 setzte das Innovationsprojektteam zum Rechtsstaatsindex des Instituts für Recht der Chinesischen Akademie der Sozialwissenschaften die Evaluierung des Justiztransparenzindexes am Obersten Volksgericht von Peking und anderen 22 Gerichten der Stadt Peking fort. Entsprechend dem Stand der justiziellen Offenheit in Peking wurden die Prioritäten auf die Genauigkeit der Offenlegung von Informationen und den Import von Informationen verlagert, um den Fortschritten und Herausforderungen im Jahr 2015 Rechnung zu tragen. Das Projektteam gab auch Ratschläge zur Verbesserung der justiziellen Offenheit im kommenden Jahr .;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-6907-9_8 820ad254cf1f5d0d78f87be6f41d9b1b;de;;;6.1.;;;Forschung zu Konzepten und Technologien des kollaborativen Grid-Designs zur Unterstützung der unternehmensübergreifenden Zusammenarbeit Das ursprüngliche Cross Enterprises Grid Collaborative Designing System konnte die industriellen Anforderungen an die dynamische gemeinsame Nutzung verschiedener und vorübergehender Fertigungsressourcen und die Zusammenarbeit aufgrund ihrer inhärenten Schwächen nicht erfüllen. Das Konzept der kollaborativen Designtechnologie unter Anleitung der Grid-Theorie basiert auf dem Prinzip der Kontaktaufnahme mit Geschäftsbenutzern und unterstützt „Integration on Demand“ und „Instantaneous Integration“. Während des Anwendungsintegrationsprozesses durchbricht die Business-driven Grid-Technologie die Barrieren zwischen Computerexperten, Domänenexperten, Geschäftsdesignern und Geschäftsleitern und unterstützt die sofortige Integration. Im Gegensatz zu herkömmlichen kollaborativen Netzwerkdesign-Technologien wird Resources sofort gemäß den Anweisungen seiner Geschäftsbenutzer integriert, und daher kommt das Konzept Grid Collaborative Designing. Dieses Papier analysiert den Unterschied zwischen Fertigungs- und Computerressourcen, gibt die Definition, Konnotation und das Problem, das Grid Collaborative Designing zu lösen versucht, diskutiert die Unterschiede und Ähnlichkeiten zwischen Grid Collaborative Designing und anderen verwandten Technologien, analysiert die Grenzen traditioneller Technologien, die übergreifende Unternehmenszusammenarbeit. Schließlich wird eine Architektur von WSRF-basiertem OGSA geliefert, die Fertigungsressourcen unter Verwendung der WSDL-Beschreibung, der Dienstzuordnungs- und Bereitstellungsmethode in Dienste kapselt, und die Kernforschungsthemen in Grid Collaborative Designing werden eingereicht und die zugehörigen Technologien werden zusammengefasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84628-976-7_65 7a5b1b4fdb87642d02e92c5dbd9254d2;de;;;6.1.;;;Reduzierung der semantischen Heterogenität unstrukturierter P2P-Systeme: Ein Beitrag basierend auf einem Verbreitungsprotokoll In P2P-Systemen mit gemeinsamer Ressourcennutzung mit autonomen Teilnehmern kann jeder Peer die Ontologie verwenden, mit der er seine Ressourcen annotiert. Semantische Heterogenität tritt auf, wenn die Peers nicht dieselbe Ontologie verwenden. Zum Beispiel ein beitragender Peer;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35332-1_3 6f4ad4028db0a23060c85a7f7e4d9263;de;;;6.1.;;;Eine Studie über die Anwendungsplattform für die auf Smart Contract-Visualisierung basierende Blockchain In den letzten Jahren hat sich die Blockchain, die Basistechnologie der 4. industriellen Revolution, rasant als Alternative zur zentralisierten Datenverwaltungsmethode entwickelt. Eine Anwendungsplattform für die Bereitstellung von Blockchain-Netzwerken und -Diensten sowohl für die breite Öffentlichkeit als auch für benachteiligte Personen (ältere Menschen, Landwirte, Menschen mit Behinderungen) ist unerlässlich. Insbesondere die sozial Schwachen (defekte Familien, Großeltern, Kinder, multikulturelle Familien, Siedler, Einzelpersonen, die in elementaren Verhältnissen leben) brauchen klare Leitlinien für komplexe und hochrangige Verträge. Daher haben wir in dieser Studie eine Anwendungsplattform für die intelligente Vertragsvisualisierung entwickelt, um den Benutzerkomfort zu verbessern. Dieses System bietet eine einfach zu bedienende Schnittstelle für sozial Schwache und Benachteiligte und präsentiert Richtlinien für die Unterzeichnung komplexer und hochrangiger Verträge. Darüber hinaus haben wir eine mobile UI/UX für Smart Contracts entworfen und die automatische Erstellung von Ricardian-Verträgen ermöglicht.;-;-;-;https://link.springer.com/article/10.1007/s11227-021-03879-1 20509f0617d5235abfdb199f245fd3eb;de;;;6.1.;;;Advanced Boiling Water Reactor (ABWR) First-of-a-Kind Engineering (FOAKE) Programm Passend zum Thema dieser Konferenz bietet dieses Papier eine kurze Zusammenfassung des aus unserer Sicht aktuellen Trends beim Energiebedarf und der Rolle, die die Kernenergie planen kann, um einen Teil dieses zukünftigen elektrischen Energiebedarfs zu decken. Es wird auch kurz auf die technischen Vorteile eingegangen, die der Advanced Boiling Water Reactor von GE zu dieser Erfüllung des Energiebildes bringt, und dann detaillierter die verschiedenen Programme beschreiben, die GE im Gange hat, die direkt den strategischen Plan der Branche für den Bau neuer Kernkraftwerke unterstützen und Teil davon sind Kraftwerke. Es werden insbesondere die Bemühungen von GE im Rahmen des Utility/DOE FOAKE-Programms und die Ziele beschrieben, die erforderlich sind, um die Tragfähigkeit der Kernenergie für die Zukunft zu demonstrieren. Der Wettbewerb ist eindeutig wirtschaftsgetrieben. Andere Themen wie Umwelt, Sicherheit und Lizenzierung, Abfallmanagement spielen alle eine Schlüsselrolle, aber die Kosten sind der Schlüssel.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-1048-6_13 c2b340a9fefa6c1ca3a7470f9b63a0e2;de;;;6.1.;;;Engineering Change Management in der Engineer-to-Order-Produktionsumgebung: Erkenntnisse aus zwei Fallstudien Technische Änderungen (ECs) sind Teil jedes Engineer-to-Order (ETO)-Projekts. Die Literatur zum Engineering Change Management (ECM) bietet verschiedene Tools, Methoden und Best Practices, und diese Studie untersucht ECM-Praktiken in der ETO-Produktionsumgebung. Anhand von zwei explorativen Fallstudien identifizieren wir fünf Hauptherausforderungen im Bereich ECM: EC Impact Analysis, EC Data Management, interne und externe Zusammenarbeit und Kommunikation sowie EC Post-Implementation Review. Beide Unternehmen haben die wichtigsten in der Literatur empfohlenen ECM-Schritte umgesetzt, es gibt jedoch erhebliche Schwächen bei der Durchführung des Überprüfungsprozesses nach der Implementierung. Weitere ETO-Fälle sind erforderlich, um die Ergebnisse zu bestätigen und zu untersuchen, wie sich ECM-Tools und -Ansätze in verschiedenen Dimensionen unterscheiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99704-9_17 c8ad39e451c8de8889f6ce08ea92496a;de;;;6.1.;;;Eine serviceorientierte Gesundheitsarchitektur (SOHA-CC) basierend auf Cloud Computing Gesundheitssysteme sind so konzipiert, dass sie den Endbenutzern die Aufrechterhaltung der Gesundheit und die Vorhersage zukünftiger Trends für Sicherheitsmaßnahmen erleichtern. Die meisten der derzeit laufenden Systeme unterstützen die Benutzer mit einer Reihe von Diensten wie M-Health, E-Health. Obwohl viele der Systeme betriebsbereit sind, sind noch viele Probleme zu lösen. Die Daten im Zusammenhang mit der Gesundheitsbranche sind äußerst sensibel und können von keiner Quelle geändert oder bearbeitet werden, und wahrscheinlich bleiben in den aktuellen Systemen noch viele Datenschutz- und Sicherheitsprobleme bestehen. Viele Systeme arbeiten zwar noch an den Sicherheitsherausforderungen, haben jedoch Schwierigkeiten, die damit verbundenen Probleme zu lösen. Die Sicherheit der Patientendaten ist die größte Lösung, die es zu lösen gilt. Wir werden versuchen, das Sicherheitsproblem zu lösen, indem wir ein Framework vorschlagen, das als Service Oriented Architecture for Health Care basierend auf Cloud Computing (SOHA-CC) bezeichnet wird. Dieses Framework enthält vier Schichten, nämlich Anwendungsschicht, Cloud-Anwendungs- und Serviceschicht, Netzwerk-Computing-Schicht und schließlich Healthcare-Schicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-05345-1_7 cae74dda7819d9f427aaf7cdc363e87f;de;;;6.1.;;;Identifizieren des Schlammrutschbereichs und Erhalten der vorgewarnten Zeit mithilfe des AMI-verbundenen Sensornetzwerks Eine berechenbare Katastrophenvorhersage und die angemessene Vorwarnzeit sind die Schlüsselthemen, um die möglichen Schäden zu reduzieren. Erdrutsche und Schlammlawinen sind weltweit schwerwiegende geologische Gefahren für den Menschen und verursachen jedes Jahr erhebliche Schäden. Die Stabilität eines Hangs änderte sich von einem stabilen zu einem instabilen Zustand, der einen Erdrutsch oder Schlammlawine hervorruft. In den meisten von Schlammlawinen beschädigten Wohnhäusern werden die Stromgeräte, insbesondere Strommasten, normalerweise gekippt oder verschoben. Da der Standort und der Status jedes Strommastes normalerweise in AMI (Advanced Metering Infrastructure) MDMS (Meter Data Management System) aufgezeichnet werden, ist das AMI-Kommunikationsnetzwerk ein wesentlicher Kandidat für den Aufbau des Schlammlawinen-Erkennungsnetzwerks. Um die möglichen Schlammlawinenbereiche aus den zahlreichen gesammelten Daten zu identifizieren, schlägt dieser Beitrag eine Datenanalysemethode vor, die den Schweregrad und einen Mechanismus zur Erkennung der Bewegung anzeigt. Anhand des Erkennungsergebnisses und der gesammelten Daten berechnet diese Studie die verbleibende Vorwarnzeit, wenn eine Anomalie auftritt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12179-1_31 97d47431860ab530dad0202226ee4699;de;;;6.1.;;;Eine Plattform zur Überwachung des öffentlichen Gesundheitswesens, die Freitextquellen über die Verarbeitung natürlicher Sprache und verknüpfte Daten nutzt: Anwendung bei der Erkennung von Signalen unerwünschter Arzneimittelwirkungen mit PubMed und Twitter Dieses Papier stellt eine Plattform vor, die die systematische Nutzung verschiedener Freitext-Datenquellen für Anwendungen der öffentlichen Gesundheitsüberwachung ermöglicht. Die Plattform basiert auf Natural Language Processing (NLP) und einer Micro-Services-Architektur und nutzt Linked Data als Datenrepräsentationsformalismus. Um NLP erweiterbar und modular durchzuführen, verwendet die vorgeschlagene Plattform die Apache Unstructured Information Management Architecture (UIMA) und kommentiert die Ergebnisse semantisch durch einen neu entwickelten UIMA Semantic Common Analysis Structure Consumer (SCC). Die SCC-Ausgabe ist ein Diagramm, das im Resource Description Framework (RDF) basierend auf dem W3C Web Annotation Data Model (WADM) und SNOMED-CT dargestellt wird. Wir präsentieren auch die Verwendung der vorgeschlagenen Plattform durch ein beispielhaftes Anwendungsszenario zur Erkennung von Signalen von unerwünschten Arzneimittelwirkungen (UAW) unter Verwendung von Daten, die von PubMed und Twitter abgerufen wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-55014-5_4 8915f2ef21c55ef4a301f270f35676bd;de;;;6.1.;;;ESPRESSO: Eine Verschlüsselung als Service für Cloud-Speichersysteme Cloud-Speichersysteme sind zum primären Speicherplatz für die Daten von Cloud-Benutzern geworden. Trotz der enormen Vorteile und Flexibilität der Cloud-Speicherdienste behindern viele Herausforderungen die Migration der Benutzerdaten in die Cloud. Unter ihnen muss der Datenschutz berücksichtigt werden. In diesem Whitepaper entwerfen und implementieren wir einen Verschlüsselungsdienst, nämlich ESPRESSO (Encryption as a Service for Cloud Storage Systems), um die Daten der Benutzer mithilfe fortschrittlicher Verschlüsselungsalgorithmen zu schützen. Das flexible Design und die eigenständige Eigenschaft von ESPRESSO ermöglichen Cloud-Speicherdienstanbietern eine einfache Integration ohne umfangreiche Änderungen und Implementierung ihrer Infrastrukturen. ESPRESSO wurde in zwei Open-Source-Cloud-Speicherplattformen integriert: OpenStack/Swift und Nimbus/Cumulus. Die realen Experimente wurden durchgeführt und die Ergebnisse bewerten die Leistung und Wirksamkeit von ESPRESSO.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-43862-6_2 6487a3e28bce1e6b8ae70ff9fe978ada;de;;;6.1.;;;Design von PeerSum: Ein Zusammenfassungsdienst für P2P-Anwendungen Die gemeinsame Nutzung riesiger Datenbanken in verteilten Systemen ist von Natur aus schwierig. Da die Menge der gespeicherten Daten zunimmt, reichen Datenlokalisierungstechniken nicht mehr aus. Ein effizienterer Ansatz besteht darin, sich auf kompakte Datenbankzusammenfassungen statt auf rohe Datenbankdatensätze zu verlassen, deren Zugriff in großen verteilten Systemen kostspielig ist. In diesem Whitepaper schlagen wir PeerSum vor, einen neuen Dienst zum Verwalten von Zusammenfassungen über gemeinsam genutzte Daten in großen P2P- und Grid-Anwendungen. Unsere Zusammenfassungen sind synthetische, mehrdimensionale Ansichten mit zwei Hauptvorteilen. Erstens können sie direkt abgefragt und verwendet werden, um eine Abfrage ungefähr zu beantworten, ohne die Originaldaten zu untersuchen. Zweitens unterstützen sie als semantische Indizes das Auffinden relevanter Knoten basierend auf dem Dateninhalt. Unser Hauptbeitrag besteht darin, ein Summenmodell für P2P-Systeme und die Algorithmen für das Summenmanagement zu definieren. Unsere Leistungsbewertung zeigt, dass die Kosten für das Abfrage-Routing minimiert werden, während die Kosten für die zusammenfassende Wartung gering sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72360-8_2 5b6f8b7aba99bf1e47932582341896d9;de;;;6.1.;;;Ein kollaboratives Designstudio: Architektur und Prototyp In diesem Artikel diskutieren wir das Drexel Collaborative Design Studio (DCDS), eine Umgebung für verteiltes Engineering, die am Geometric and Intelligent Computing Laboratory der Drexel University entwickelt wird. DCDS soll die kollaborative Designarbeit verbessern und sich insbesondere auf das Design elektromechanischer Artefakte konzentrieren. Unser Ziel ist es, transparente Zusammenarbeit und Archivierungsdienste zur Dokumentation des Entwurfsprozesses bereitzustellen. Die DCDS-Umgebung besteht aus IP-basierten Kommunikations- und Kollaborationstools, einem Design-Wissens-Repository und einem designspezifischen Nachrichtenmodell zur Erfassung der Kommunikation während des Designprozesses.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0779-8_41 8ac097dbcae40ee610283d2416b19b48;de;;;6.1.;;;Anwendungsmodellierung Nachdem die erste Schlussfolgerung definiert wurde, dass PLM eine Notwendigkeit für global eingesetzte Produkte und Prozesse ist, wird LCM (Lifecycle Manager) allgegenwärtig sein, um die exponentiellen Probleme bei den nächsten komplexen und leistungsfähigen Produkten zu vermeiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-56449-0_22 75505d0f1b659bd51c4133fdd728df60;de;;;6.1.;;;Personal Health Train zu FHIR: Ein föderaler Ansatz zur Wahrung der Privatsphäre zur Analyse von FAIR-Daten im Gesundheitswesen Big-Data- und Machine-Learning-Anwendungen konzentrieren sich auf das Abrufen von Daten an einem zentralen Ort zur Analyse. Gesundheitsdaten können jedoch sensibler Natur sein und können daher nur schwer weitergegeben und für sekundäre Zwecke verwendet werden. Anbieter im Gesundheitswesen sind darauf beschränkt, Daten ohne die ordnungsgemäße Zustimmung des Patienten weiterzugeben. Aufgrund ethischer, rechtlicher und gesellschaftlicher Probleme besteht auch bei einzelnen Patienten ein zunehmendes Bewusstsein für die Weitergabe ihrer persönlichen Daten. Die aktuellen Datenaustauschplattformen im Gesundheitswesen behandeln diese Probleme nicht ausreichend. Das Grundprinzip des Personal Health Train (PHT)-Ansatzes verlagert den Fokus von der gemeinsamen Nutzung von Daten auf die gemeinsame Nutzung von Verarbeitungs-/Analyseanwendungen und ihren jeweiligen Ergebnissen. Voraussetzung für die PHT-Infrastruktur ist, dass die Daten FAIR (findbar, zugänglich, interoperabel, wiederverwendbar) sind. Das Ziel des Papiers ist es, eine Methodik zur Ermittlung der Anzahl von Patienten mit diagnostizierter Hypertonie zu beschreiben und Kohortenstatistiken auf datenschutzwahrende föderative Weise zu berechnen. Der gesamte Prozess wird abgeschlossen, ohne dass einzelne Patientendaten die Quelle verlassen. Dabei setzen wir auf den Standard Fast Healthcare Interoperability Resources (FHIR).;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6315-7_7 3eb2cd827511ec85d0be391930c0ed67;de;;;6.1.;;;Ein DaaS-basiertes Framework für die Bereitstellung von IoT-Daten Aufgrund der bemerkenswerten Fortschritte in der Sensorik und digitalen Kommunikationstechnologien werden riesige Datenmengen von Geräten des Internet der Dinge (IoT) generiert. In diesem Whitepaper schlagen wir ein Framework für die Datenbereitstellung vor, das auf dem Cloud-Bereitstellungsmodell Data-as-a-Service (DaaS) basiert. IoT-Daten werden am Rande ihrer Erzeugung verarbeitet und aggregiert und anschließend in der Cloud gespeichert. Da sich smart vernetzte Geräte in einem noch nie dagewesenen Tempo verbreiten, gehen wir davon aus, dass auch die Zahl der DaaS-Anbieter in gleichem Maße wachsen wird. Daher werden Datenkonsumenten nach geeigneten DaaS-Anbietern suchen, die ihnen qualitativ hochwertige Daten zur Verfügung stellen können. DaaS-Broker werden entstehen, um zwischen Datenanbietern und Datenkonsumenten zu vermitteln und Datenkonsumenten zu helfen, geeignete DaaS-Anbieter mithilfe verschiedener Ranking-Algorithmen zu finden. Wir schlagen einen Algorithmus vor, um die Angebote potenzieller DaaS-Anbieter basierend auf den Anforderungen der Datenqualität (QoD) des Datenkonsumenten und unter Verwendung von Fitnessfunktionen, die mit jeder QoD-Dimension verbunden sind, zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67618-0_34 44614729f4be9a4211c5a44f75f593ed;de;;;6.1.;;;"Nachbarschaftskonsistentes Transaktionsmanagement für Pervasive Computing-Umgebungen Dieser Artikel untersucht das Problem des Transaktionsmanagements in Pervasive Computing-Umgebungen und stellt einen neuen Ansatz vor, um diese anzugehen. Wir repräsentieren jede Einheit als mobiles oder statisches halbautonomes Gerät. Der Zweck jedes Geräts besteht darin, Benutzeranfragen basierend auf seinem lokalen Datenspeicher und Interaktionen mit anderen Geräten, die sich derzeit in seiner Nähe befinden, zu erfüllen. Pervasive Umgebungen unterscheiden im Gegensatz zum traditionellen Mobile-Computing-Paradigma nicht zwischen Clients und Servern, die sich in einer festen, kabelgebundenen Infrastruktur befinden. Folglich modellieren wir alle Geräte als Peers. Diese Umgebungen lockern auch andere Annahmen des Mobile-Computing-Paradigmas, wie die Möglichkeit der Wiederverbindung mit einem bestimmten Gerät, Unterstützung durch eine kabelgebundene Infrastruktur oder das Vorhandensein eines globalen Schemas. Diese grundlegenden Eigenschaften von Pervasive Computing-Umgebungen schränken die Verwendung von Techniken ein, die für Transaktionen in ""mobilen"" Computerumgebungen entwickelt wurden. Wir definieren ein alternatives optimistisches Transaktionsmodell, dessen Hauptaugenmerk auf einer hohen Rate erfolgreicher Transaktionsabbrüche und der Wahrung einer nachbarschaftsbasierten Konsistenz liegt. Das Modell erreicht dies mit Hilfe aktiver Zeugen und durch den Einsatz eines epidemischen Abstimmungsprotokolls. Der Vorteil unseres Modells besteht darin, dass es zwei oder mehr Peers ermöglicht, in einer allgegenwärtigen Umgebung eine zuverlässige und konsistente Transaktion durchzuführen, ohne davon auszugehen, dass sie über Infrastrukturen wie Basisstationen miteinander kommunizieren können. Der Vorteil der Verwendung aktiver Zeugen und eines epidemischen Abstimmungsprotokolls besteht darin, dass die Beendigung der Transaktion nicht von einem einzelnen Fehlerpunkt abhängt. Darüber hinaus erfordert die Verwendung eines Epidemie-Abstimmungsprotokolls nicht, dass alle beteiligten Einheiten zu jeder Zeit gleichzeitig verbunden sind, und überwindet daher die dynamische Natur der Umgebungen weiter. Wir präsentieren die Implementierung des Modells und Ergebnisse aus Simulationen.";-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45227-0_28 a38aca9d74d883d3aa1231518a6f88d1;de;;;6.1.;;;Designprinzipien für die Sicherheit in der Mensch-Roboter-Interaktion Die Interaktion von Mensch und Roboter hat das Potenzial, sowohl in der Industrie als auch in der Servicerobotik neue Wege zu beschreiten, da sie die Stärken des Menschen wie Flexibilität und Anpassungsfähigkeit mit den Stärken von Robotern wie Kraft und Präzision vereint. Für eine erfolgreiche Interaktion muss jedoch die Sicherheit des Menschen jederzeit gewährleistet sein. Dieses Ziel kann durch den Einsatz spezieller Roboterhardware erreicht werden, aber wir argumentieren, dass die Sicherheit in der Mensch-Roboter-Interaktion auch mit normalen Industrierobotern erreicht werden kann, wenn diese mit zusätzlichen Sensoren ausgestattet sind, um die Position des Menschen zu verfolgen und die verbalen und nonverbale Äußerungen und wenn die Software, die den Roboter steuert, speziell auf Sicherheit in der Interaktion ausgelegt ist. Aus diesem Grund schlagen wir drei Konstruktionsprinzipien für eine erhöhte Sicherheit in Roboterarchitekturen und jeder anderen Softwarekomponente vor, die einen Roboter für die Mensch-Roboter-Interaktion steuert:;-;-;-;https://link.springer.com/article/10.1007/s12369-010-0052-0 ef9e1a9c8cc235db06c437e5f9af3b1b;de;;;6.1.;;;Implementierung einer webbasierten Architektur für die DICOM-Datenerfassung in klinischen Studien Die medizinische Bildgebung spielt eine wichtige Rolle in klinischen Studien, die qualitative und quantitative Erkenntnisse liefern. Patientendaten in Studien werden in elektronischen Fallberichtsformularen (eCRFs) anstelle von papierbasierten CRFs erfasst, die von elektronischen Datenerfassungssystemen (EDCS) bereitgestellt werden. EDCS unterstützt jedoch nur unzureichend die Integration von Bilddaten in das eCRF des Patienten. Weder die Anbindung an Bildarchivierungs- und Kommunikationssysteme (PACS) noch die Verwaltung digitaler Bildgebungs- und Kommunikationsdaten in der Medizin (DICOM) in eCRFs ist möglich. Daher erhöhen manuelle Umwege für Bilddaten im Datenerfassungsworkflow der Studie die Fehleranfälligkeit, Latenz und Kosten. In dieser Arbeit wird eine vollständig webbasierte Systemarchitektur implementiert, die EDCS und PACS miteinander verbindet. Unser Ansatz nutzt die Open-Source-Projekte OpenClinica, DCM4CHEE und Weasis als EDCS-, PACS- bzw. DICOM-Webviewer. Im optimierten Workflow findet die Benutzerinteraktion vollständig im eCRF statt. Das Speichern und Abrufen von DICOM-Daten erfolgt durch Middleware-Komponenten, die vor dem Benutzer verborgen sind und die Datenkonsistenz und -sicherheit durch Identifier-Synchronisation bzw. -De-Identifikation gewährleisten. Das verkürzt Wege zur Bilddatenerfassung im Workflow, reduziert Fehler und spart Zeit und Kosten. Darüber hinaus werden wertvolle Daten für weitere Recherchen zentral und anonym in einem Recherche-PACS gespeichert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46224-9_48 4187d316557b9a3c91b48d519dedb1ba;de;;;6.1.;;;Verwenden von Daten aus einem AMI-assoziierten Sensornetzwerk zur Identifizierung von Schlammlawinen Ein Taifun kann extrem starke Winde und sintflutartigen Regen erzeugen. Am 8. August 2009 traf Taifun Morakot Südtaiwan. Der Sturm brachte einen rekordverdächtigen Niederschlag, fast 3000 mm (fast 10 Fuß) Niederschlag sammelten sich in 72 Stunden. Starker Regen verändert die Stabilität eines Hangs von einem stabilen in einen instabilen Zustand. Schlammlawinen ereigneten sich und richteten in mehreren Dörfern verheerende Schäden an und begruben Hunderte von Menschenleben. In den meisten von Schlammlawinen beschädigten Wohnhäusern werden die Stromgeräte, insbesondere Strommasten, normalerweise gekippt oder verschoben. Da der Standort und der Status jedes Strommastes normalerweise in AMI (Advanced Metering Infrastructure) MDMS (Meter Data Management System) aufgezeichnet werden, ist das AMI-Kommunikationsnetzwerk ein wesentlicher Kandidat für den Aufbau des Schlammlawinen-Erkennungsnetzwerks. Um die möglichen Schlammlawinenbereiche aus den zahlreichen gesammelten Daten zu identifizieren, schlägt dieser Beitrag eine Datenanalysemethode vor, die den Schweregrad und einen Mechanismus zur Erkennung der Bewegung anzeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12145-6_39 3d766ed5e0a8b26f20705a1ae0b168b3;de;;;6.1.;;;Kooperierende Agenten, die ein verteiltes Patientenmanagement implementieren Die Behandlung von Patienten ist eine wissensintensive Tätigkeit, die eine hohe Interoperabilität zwischen den beteiligten medizinischen Fachkräften erfordert. Um die kooperative Arbeit in der medizinischen Versorgung zu unterstützen, sollte die Computertechnologie daher entweder die Fähigkeiten der einzelnen Spezialisten erweitern und ihre Fähigkeit zur Interaktion untereinander und mit Rechenressourcen verbessern. Trotz der in den letzten Jahren im Forschungsbereich Künstliche Intelligenz unternommenen Anstrengungen zur Entwicklung innovativer Werkzeuge gibt es jedoch noch sehr wenige Fälle von Systemen, die routinemäßig für die Erbringung gesundheitsbezogener Dienstleistungen kompetent eingesetzt werden. Eine Möglichkeit, diese Einschränkungen zu überwinden, besteht darin, den Satz von Softwarewerkzeugen neu zu gestalten, damit sie besser für eine interoperable Umgebung geeignet sind, und der vielleicht vielversprechendste Ansatz heutzutage basiert auf dem sogenannten verteilten Computing-Paradigma, das auf künstliche Intelligenz angewendet wird. In diesem Papier beschreiben wir eine Methodik zur Implementierung eines Netzwerks kooperierender Softwareagenten mit dem Ziel, den Prozess der Gesundheitsversorgung zu verbessern. Darüber hinaus werden wir auch einige Beispiele aus einer Reihe von Tools veranschaulichen, die wir zur Evaluierung dieser Methodik entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0031858 8b1413256dd3f5c01bb26b3e2faf67b7;de;;;6.1.;;;Enabler-Technologien für zukünftige Engineering-Prozesse Nach der Definition der Anforderungen an zukünftige Engineering-Prozesse werden Enabler-Technologien erläutert. Sie gliedern sich in die Basistechnologien globales Produktdatenmanagement, verteilte Systemplattformen, generisches Produktdatenmodell und Integrationsarchitektur sowie in mehrere anwendungsorientierte Technologien wie Feature-Technologie oder Agent-Technologie. Diese Technologien sind die Basis, um den Anforderungen der Zukunft gerecht zu werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-84821-5_5 f9a50da9df4822f7ef402b50a4d2c49e;de;;;6.1.;;;Set-Based Prototyping mit Digital Mock-Up Technologien Ein Prototyp ergibt sich aus der Notwendigkeit, verschiedene Qualitäten des Produkts in verschiedenen Stadien seiner Entwicklung zu verifizieren. Beim mengenbasierten Design ist die Multiplikation von Prototypen besonders wichtig, um eine breite Erkundung des Designraums zu ermöglichen, bevor man sich auf eine Lösung einlässt. Die Exploration zielt einerseits auf die Auswahl der besten aller tragfähigen Konzepte, andererseits aber auch darauf ab, diese zu dokumentieren, um die Suche bei den nächsten Versuchen besser orientieren zu können. Dies trägt letztlich dazu bei, das Ingenieurwissen des Unternehmens sukzessive zu verbessern. In Übereinstimmung mit den aktuellen Praktiken der Luft- und Raumfahrtindustrie und unter Berücksichtigung des satzbasierten Entwicklungsparadigmas im Lean-Denken wird in diesem Papier ein Ansatz zum Umgang mit Informationen aus mehreren Prototypen mit Digital Mock-Up (DMU)-Technologien vorgestellt. Dieser Ansatz postuliert, dass Prototyping- und Testaktivitäten durch eine Manufacturing Process Management (MPM)-Lösung mit einer speziellen Nutzung von drei Schlüsselfunktionen unterstützt werden können, nämlich: Produktdatenmanagement (PDM) und MPM-Instanziierung, MPM-Links und Konfigurationsmanagement (CM). . Diese Aspekte sind beim Umgang mit mehreren Prototyping-Sets zusammen mit ihren Testergebnissen unerlässlich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35758-9_26 345cbf6e65da592a2b7bd1a2d27a78b8;de;;;6.1.;;;Forschung zur normalisierten Netzwerkinformationsspeichermethode basierend auf Deep Reinforcement Learning Dieses Papier führt eine eingehende Untersuchung der standardisierten Netzwerkinformationsspeichermethode durch, wendet Deep Reinforcement Learning auf die standardisierte Netzwerkinformationsspeicherung an und schlägt eine standardisierte Netzwerkinformationsspeichermethode basierend auf Deep Reinforcement Learning vor. Jede zu archivierende Datei wird zunächst entsprechend ihrem Informationsgehalt in nicht überlappende semantische Fragmentdatenblöcke unterteilt. Jeder Datenblock verschlüsselt seinen Inhalt durch eine Hash-Funktion und erhält eine Signatur als Kennung für die Datenarchivierung. Die archivierten Daten werden in Aufgabendaten, Ressourcendaten und Belegdaten unterteilt. Die Rack-bewusste Datenplatzierungsstrategie wurde basierend auf dem Deep Reinforcement Learning-Algorithmus entwickelt, um die Datenzuverlässigkeit, Verfügbarkeit und Netzwerkbandbreitenauslastung zu verbessern, und das Cloud-Speichermodell wurde entwickelt, um die Netzwerkinformationsspeicherung klassifizierter archivierter Daten zu normalisieren. Experimente zeigen, dass diese Methode eine hohe durchschnittliche Lese- und Schreibgeschwindigkeit von Festplatten aufweist und die Anforderungen erfüllen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-82562-1_56 c0a342bd7d3c8fda179100b6a0fc7840;de;;;6.1.;;;Reduzierung der Komplexität der Kernel-Entwicklung in verteilten Umgebungen Das Einrichten von generischen und vollständig transparenten verteilten Diensten für Cluster erfordert komplexe und langwierige Kernel-Entwicklungen. Flexiblere Ansätze wie z. B. Bibliotheken im Benutzerbereich werden normalerweise bevorzugt, mit dem Nachteil, dass eine Neukompilierung der Anwendung erforderlich ist. Ein zweiter Ansatz besteht darin, spezielle Kernel-Module (wie FUSE im Gnu/Linux-System) zu verwenden, um die Kernel-Komplexität in den Benutzerbereich zu übertragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85451-7_61 643e2212e2ab0387d37c18915b2b2a96;de;;;6.1.;;;Fortschritte bei der Implementierung von Geschäftsprozessmanagement basierend auf einer Reifegradbewertung und dem Austausch von Best Practices Der Beitrag stellt die Implementierung von Business Process Management in einem großen internationalen Unternehmen vor. Der Business Case veranschaulicht die wichtigsten Ziele und den Ansatz der BPM-Initiative. Zentrales Element der BPM-Implementierung war die Entwicklung eines Prozess-Frameworks, das aus einem Referenzprozesshaus (RPH) und gemeinsamen Methoden für das unternehmensweite Prozessmanagement besteht. Um die Implementierung von Business Process Management und die Erfolge zu bewerten, wurde eine Prozessmanagement-Reifegradbewertung entwickelt und implementiert. Das Reifegradmodell basiert auf neun Kategorien, die alle erfolgsrelevanten Aspekte des Geschäftsprozessmanagements umfassend abdecken. Einige Ergebnisse des ersten Bewertungszyklus werden konkretisiert, um den Nutzen und den Austausch bewährter Verfahren als Ergebnis der Bewertung zu veranschaulichen.;-;-;-;https://link.springer.com/article/10.1007/s10257-010-0137-1 b8f38d20515ec358f964c2b0062110c1;de;;;6.1.;;;INTEGRIERTE URBANE WASSERZYKLUS-MODELLIERUNG Im Softwareentwicklungsgeschäft werden zunehmend neue Trends erkannt. Diese Trends folgen den grundlegenden Begriffen „Integration“ und „Offenheit“ und entstammen dem langjährigen Bedarf der Anwender nach Softwaretools mit integrierter Funktionalität und offener Benutzeroberfläche. Im Mittelpunkt des Beitrags stehen aktuelle Erfahrungen mit Softwareprodukten und grundlegende Anforderungen aus dem praktischen Softwareeinsatz. Anschließend wird ein Grundkonzept der „integrierten und offenen“ Softwarearchitektur vorgestellt und am neuen Produkt MIKE URBAN zur integrierten Modellierung des urbanen Wasserkreislaufs dokumentiert. In dem Papier wird argumentiert, dass eine „integrierte und offene“ Architektur die meisten aktuellen Benutzerbedürfnisse erfüllt und den Benutzern gleichzeitig eine höhere Effektivität und einen höheren Arbeitskomfort bietet.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-4685-5_6 7a30d9c00740d74e336b14e00993b85d;de;;;6.1.;;;Forschung zu Schlüsseltechnologien des intelligenten Verkehrs auf Basis von Bilderkennung und ermüdungsfreiem Fahren Intelligente Transportsysteme müssen die Hauptprobleme der Verkehrssicherheit lösen. Dieser Beitrag konzentriert sich auf die Verkehrssicherheit durch Ermüdungsfahrten basierend auf der Bilderkennung von Schlüsseltechnologien für Forschung und Analyse. Dieses Papier schlägt vor, dass die Position von Gesichts- und Gesichtsmerkmalspunkten und die Klassifizierung der Ermüdungserkennung die Schlüsselverbindungen zur Bestimmung der Erkennungsrate von Ermüdung beim Fahren sind. Bei der Analyse des Gesichtslokalisierungsalgorithmus basierend auf der Hautfarbenmodellierung wird ein auf Ecken basierendes Optimierungsverfahren vorgeschlagen, um den Gesichtsbereich zu optimieren. Basierend auf der Analyse des binären Algorithmus des Lokalisierungsalgorithmus des menschlichen Auges wird ein bidirektionales integrales Projektionsverfahren vorgeschlagen, um eine genaue Lokalisierung des menschlichen Auges zu erreichen. Anschließend wird der häufig verwendete Ermüdungsklassifizierungsalgorithmus (KNN-Algorithmus) analysiert. Abschließend wird das vorgeschlagene Verfahren durch den Simulationstest des Ermüdungsfahrens verifiziert. Experimentelle Ergebnisse zeigen, dass der auf Hautfarbenmodellierung basierende Algorithmus die Gesichtsregion des Fahrers genau lokalisieren kann. Der auf dem zweiwertigen Algorithmus basierende Augenortungsalgorithmus kann auch den Augenort des Testers genau lokalisieren. Die Genauigkeit des KNN-Ermüdungserkennungsmodells beträgt 87,82%. Es kann den Ermüdungszustand des Fahrers mit hoher Genauigkeit erkennen.;-;-;-;https://link.springer.com/article/10.1186/s13640-018-0403-6 e71105d4f093be51d5eb2f0e2ed916f3;de;;;6.1.;;;Wortreihenfolge, Vereinbarung und Fall In diesem Kapitel spreche ich drei wichtige und verwandte Themen in der Theorie der arabischen Satzstruktur an: (a) Wortstellung, (b) Verbübereinstimmungsmuster und (c) Fälle von Subjekten. Ich stelle fest, dass Arabisch im Wesentlichen eine VSO-Sprache ist, obwohl es auch zu einem „gemischten“ VSO/SVO-Typ zu gehören scheint. Diese Typologie korreliert mit Eigenschaften von Flexionskategorien-Überschriftssätzen, insbesondere den Eigenschaften von AGR(eement)-Morphemen. Ich behaupte, dass AGR in VSO-Sprachen beides ist;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1986-5_2 0be65051ba1fb8191691444f549894c8;de;;;6.1.;;;Übungsverordnung nach Fragilitätsfraktur bei älteren Erwachsenen: eine Überprüfung des Umfangs Der Zweck dieser Studie besteht darin, Forschungsliteratur zur Sicherheit, Wirksamkeit oder Wirksamkeit von Trainingsverschreibungen nach Fraktur bei älteren Erwachsenen zu identifizieren und aufzuzeichnen. Wir führten eine systematische, von den Forschungsnutzern informierte Scoping-Überprüfung durch. Die interessierende Population waren Erwachsene im Alter von ≥ 45 Jahren mit jeglicher Fraktur. „Übungsverordnung“ umfasste therapeutische Übungen nach einer Fraktur, körperliche Aktivität oder Rehabilitationsmaßnahmen. Geeignete Designs umfassten Wissenssynthesestudien, primäre Interventionsstudien und Beobachtungsstudien. Ausgebildete Gutachter bewerteten unabhängig voneinander Zitate für die Aufnahme. Insgesamt wurden 9.415 Zitate überprüft, wobei 134 Zitate (119 einzigartige Studien) identifiziert wurden: 13 Wissenssynthesen, 95 randomisierte oder kontrollierte klinische Studien und 11 „andere“ Designs, die 74 Artikel zu Frakturen der unteren Extremität, 34 zu oberen Extremitäten, acht auf Wirbelkörper und drei bei Frakturen der gemischten Körperregion. Die Verschreibungsmerkmale von Belastungen fehlten oft oder wurden schlecht beschrieben. Es entstanden sechs allgemeine Kategorien, die die Merkmale der Übungsverschreibung beschreiben: Timing nach der Fraktur, Verschreibung durch die Person, Programmdesign, funktioneller Fokus, Übungsskriptparameter und Co-Interventionen. Studien zu Frakturen der oberen Extremität und des Sprunggelenks konzentrierten sich auf die Ergebnisse der Frakturheilung oder strukturelle Beeinträchtigungen, während sich Studien zu Hüftfrakturen eher auf die Ergebnisse der Aktivitätsbeschränkung konzentrierten. Die Vielfalt der verwendeten Ergebnismaße erschwerte die Zusammenführung oder den Vergleich von Ergebnissen. Es gab keine ausreichenden Informationen, um evidenzbasierte Parameter für eine sichere und wirksame Bewegungsverordnung für ältere Erwachsene nach einer Fraktur zu identifizieren. Zu den wichtigsten Lücken in der Literatur zählen eine begrenzte Anzahl von Studien zur Trainingsverordnung nach Wirbelfrakturen, eine unzureichende Abgrenzung der Wirksamkeit verschiedener Strategien zur frühen Mobilisierung nach einer Fraktur nach einer Fraktur der oberen Extremität und uneinheitliche Details der Charakteristika der Trainingsverordnung nach einer Fraktur der unteren Extremität.;-;-;-;https://link.springer.com/article/10.1007/s00198-010-1408-x 5473c075a8eccfc846bc844bbbd43fd2;de;;;6.1.;;;Umgang mit Datenquellen für das Notfallmanagement: Unterstützung der Verfügbarkeit und Zugänglichkeit von Informationen für Notfallhelfer Informationen sind ein wesentlicher Bestandteil für eine bessere Notfallreaktion. Obwohl während eines Notfalls an verschiedenen Orten viele Informationen verfügbar sind, verwenden viele Notfallhelfer (ERs) nur eine begrenzte Menge der verfügbaren Informationen. Der Grund dafür ist, dass die verfügbaren Informationen in unterschiedlichen Formaten heterogen verteilt sind und ERs keinen Zugang zu den relevanten Informationen haben. Darüber hinaus sind viele Einsatzkräfte ohne Zugang zu den erforderlichen Informationen nicht in der Lage, sich ein ausreichendes Verständnis der Notfallsituation zu verschaffen. Folglich wird viel Zeit verwendet, um nach den benötigten Informationen zu suchen, und es können falsche Entscheidungen getroffen werden. Daher konzentriert sich unsere Forschung in diesem Papier darauf, die verfügbaren heterogen verteilten Informationen zusammenzuführen, um die Zugänglichkeit von Informationen für ERs zu verbessern. In dieser Studie präsentieren wir einen Ansatz zur Integration heterogener Datenbanken im Semantic Web-Kontext unter Verwendung eines modellgetriebenen Datenintegrationsansatzes basierend auf einem Informationsmodell. Wir schlagen eine Architektur vor, die den Enterprise Services Bus (ESB) und Webservice-Technologien verwendet, um den Wissensaustausch und den Datenaustausch zwischen verschiedenen ERs zu erleichtern. Basierend auf der vorgeschlagenen Architektur entwickelten wir einen Systemprototyp und präsentierten ihn mit einem Indoor-Brand-Notfall-Szenario.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-58524-6_21 100622c066eb8243725fc9d0051be87e;de;;;6.1.;;;MBWU: Nutzenquantifizierung für das Offloading von Datenzugriffsfunktionen Die Speicherindustrie erwägt neue Arten von Speichergeräten, die das Offloading von Datenzugriffsfunktionen unterstützen, d. h. die Fähigkeit, Datenzugriffsfunktionen auf dem Speichergerät selbst durchzuführen, anstatt sie auf einem separaten Rechensystem auszuführen, mit dem das Speichergerät verbunden ist. Aber was ist der Vorteil der Auslagerung auf ein Speichergerät, das von einer eingebetteten Plattform gesteuert wird, ganz anders als eine Host-Plattform? Um den Nutzen zu quantifizieren, benötigen wir eine Messmethodik, die Apfel-zu-Apfel-Vergleiche zwischen verschiedenen Plattformen ermöglicht. Wir schlagen eine medienbasierte Arbeitseinheit (MBWU, ausgesprochen „MibeeWu“) und eine MBWU-basierte Messmethodik vor, um die Bewertung der Plattformeffizienz zu standardisieren, um den Nutzen des Offloading zu quantifizieren. Um die Vorzüge dieser Methodik zu demonstrieren, haben wir einen Prototyp implementiert, um den Nutzen der Auslagerung der Schlüsselwert-Datenzugriffsfunktion automatisiert zu quantifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-34356-9_17 aec56e24802de90959dbabffddc522c0;de;;;6.1.;;;Eine Fallstudie zur Integration der IoT-Technologie in das Bridge Health Monitoring Health Die Forschung zum Internet der Dinge (IoT) und relevanten Anwendungen hat sowohl in akademischen als auch in industriellen Kreisen immer mehr Aufmerksamkeit auf sich gezogen. In diesem Whitepaper konzentrieren wir uns auf einen bestimmten Anwendungsfall von IoT, das Bridge-Health-Monitoring, das die Bridge-Health-Sicherheit gewährleistet und versteckte Defekte der Infrastruktur erkennt. Mittels Totalstationstechnik, Beschleunigungssensorik und Fasergittertechnik überwacht diese Anwendung verschiedenste Parameter, z.B. Verformung der Brückenstruktur, relative Verschiebung des Fußgewölbeniveaus, Schrägstellung ungleichmäßiger Setzung, Hauptträgerverzerrung, Aufhängungskraft, Temperatur und Belastung des Hauptträgers, in Echtzeit und online, um den Brückenzustand zu erfassen, zu übertragen, zu speichern und statistisch zu analysieren Informationen und führen eine Fernüberwachung und Warnung rechtzeitig und genau durch.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37015-1_80 f58e2b9c20a82ad1b60dbcd20ecd28f6;de;;;6.1.;;;Überprüfung der Synergien zwischen computergestützter Modellierung und experimenteller Charakterisierung von Materialien über Längenskalen Mit der zunehmenden Wechselwirkung zwischen experimentellen und computergestützten Ansätzen auf mehreren Längenskalen entstehen neue Forschungsrichtungen in den Materialwissenschaften und der computergestützten Mechanik. Solche kooperativen Wechselwirkungen finden viele Anwendungen in der Entwicklung, Charakterisierung und Konstruktion komplexer Materialsysteme. Dieses Manuskript bietet einen breiten und umfassenden Überblick über die jüngsten Trends, in denen Vorhersagemodelle in Verbindung mit Experimenten und fortgeschrittener Charakterisierung entwickelt werden, um einen besseren Einblick in Struktur-Eigenschafts-Beziehungen zu gewinnen und verschiedene physikalische Phänomene und Mechanismen zu untersuchen. Der Schwerpunkt dieses Aufsatzes liegt auf den Schnittpunkten von Multiskalen-Materialexperimenten und Modellierung, die für die Werkstoffmechanik-Community relevant sind. Nach einer allgemeinen Diskussion über die Perspektive verschiedener Communities konzentriert sich der Artikel auf die neuesten experimentellen und theoretischen Möglichkeiten. Der Schwerpunkt liegt auf der Rolle von Experimenten in Multiskalenmodellen, einschließlich Erkenntnissen darüber, wie Berechnungen als Entdeckungswerkzeuge für die Werkstofftechnik verwendet werden können, anstatt „nur“ experimentelle Arbeiten zu unterstützen. Dies wird anhand von Beispielen aus mehreren Anwendungsbereichen von Baustoffen veranschaulicht. Dieses Manuskript endet mit einer Diskussion über einige Probleme und offene wissenschaftliche Fragen, die erforscht werden, um dieses relativ neue Forschungsgebiet voranzubringen.;-;-;-;https://link.springer.com/article/10.1007/s10853-015-9551-6 a58629544030357c8648d9e04013ec12;de;;;6.1.;;;„Ich weiß, dass diese Leute ansprechbar sind und uns nicht misshandeln“: eine qualitative Studie über die Ansichten von Inspektoren und privaten Drogenverkäufern zur Peer-Supervision im ländlichen Uganda Peer Supervision verbessert die Gesundheitsversorgung durch das Gesundheitspersonal. Im ländlichen Uganda ist die Selbstkontrolle jedoch durch gesetzliche Richtlinien für lizenzierte private Arzneimittelverkäufer vorgeschrieben. Es gibt Belege dafür, dass Selbstüberwachung die unangemessene Behandlung von Kindern unter 5 Jahren durch private Drogenverkäufer fördert. Diese Studie konstruierte ein Modell für einen geeigneten Peer-Supervisor, um die Selbstkontrolle, die derzeit von Drogenverkäufern auf Distriktebene im ländlichen Uganda praktiziert wird, zu erweitern.;-;-;-;https://link.springer.com/article/10.1186/s12992-020-00636-6 2d066325db4f335dcedc33b9a4915bc7;de;;;6.1.;;;Das Design und die Realisierung eines städtischen Masseninformations-Publishing-Systems Mit der Befürwortung des kohlenstoffarmen Verkehrs- und Transportkonzepts entscheiden sich täglich mehr und mehr Stadtbewohner für die urbane Masse als Hauptverkehrsmittel. Gleichzeitig drängt die Entwicklung des städtischen Nahverkehrs Massenstrecken zu einem komplizierten Massennetz. Basierend auf dem städtischen Massennetz soll in diesem Papier diskutiert werden, wie ein städtisches Masseninformationsveröffentlichungssystem entworfen und realisiert werden kann, um hauptsächlich Informationen zum Fahrgastfluss zu veröffentlichen, einschließlich Zustandsinformationen des städtischen Massennetzes, Fahrgastflusskontrollinformationen, Betriebssituationsinformationen des ersten und letzten Zuges , Notfallinformationen usw. Gemäß der Analyse der Systemgeschäftsanforderungen wird die Systemarchitektur in drei Schichten unterteilt: Präsentationsschicht, Geschäftsdienstleistungsschicht und Datenschicht. Auf Basis der Anforderungsanalyse wird auch die Funktionsarchitektur konzipiert. Anschließend gestalten wir den Geschäftsablauf und die Datenorganisation des Systems. Abschließend wird ein Demosystem als Fallanwendung realisiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34651-4_33 b8c93e718c3ef8b18cce8a565c87fec5;de;;;6.1.;;;FluxMED: Ein anpassungsfähiges und erweiterbares elektronisches Patientenaktensystem Die Datenmenge, die von medizinischen und labortechnischen Diensten generiert wird, wächst täglich. Die Zahl der Patienten steigt, moderne Untersuchungsmethoden erzeugen große Datenmengen und die zunehmende Spezialisierung der Ärzteschaft macht das Problem der Speicherung und Verwaltung dieser Daten sehr komplex. Computeranwendungen, die als Laborinformationsmanagementsysteme (LIMS) bekannt sind, wurden als Werkzeuge vorgeschlagen, um dieses Problem anzugehen. In dieser Arbeit schlagen wir das FluxMED-System vor, ein vollständig anpassbares EHR-System mit einer einfach anzupassenden Schnittstelle für die Datenerfassung und den Abruf. FluxMED kann leicht angepasst werden, um verschiedene Arten von medizinischen Daten zu verwalten. Die Anpassung an eine neue Krankheit kann mit Hilfe eines Spezialisten in wenigen Stunden erfolgen. Wir haben FluxMED verwendet, um Daten von Patienten mit drei komplexen Krankheiten zu verwalten, Neuromyelitis óptica, Parakokzidioidomykose und Adreno-Leukodistrophie. Diese Krankheiten haben sehr unterschiedliche Symptome, verschiedene Untersuchungen werden durchgeführt, um zu einer Diagnose zu kommen und haben unterschiedliche Behandlungen. FluxMED ist jedoch in der Lage, diese Daten hochspezialisiert zu verwalten, ohne dass Änderungen am Code vorgenommen werden müssen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12418-6_5 df7aab9eba7c4bee4e219a5625a19ee8;de;;;6.1.;;;Globale Trends beim Arbeitseinkommensanteil: Länderebene Dieses Kapitel kombiniert Makrodaten aus verschiedenen Quellen, darunter dem Penn World Table (PWT) und der Organisation der Vereinten Nationen für industrielle Entwicklung (UNIDO) und zeigt Korrelationen des Arbeitseinkommensanteils für eine Stichprobe von 93 Ländern. Zwischen dem BIP pro Kopf und dem durchschnittlichen Anteil des Arbeitseinkommens besteht eine positive Korrelation, während zwischen dem Anteil des informellen Sektors am BIP und dem durchschnittlichen Anteil des Arbeitseinkommens eine schwache negative Korrelation besteht. Die Korrelation zwischen selbstständiger Erwerbstätigkeit und durchschnittlichem Anteil des Arbeitseinkommens zeigt einen ähnlichen negativen Zusammenhang, jedoch mit einer starken Anpassungsfähigkeit und klaren regionalen Mustern zwischen den oberen und unteren Ländern mit mittlerem Einkommen. Handelsmaßnahmen sind positiv mit dem Anteil des Arbeitseinkommens korreliert, und die Anpassungsfähigkeit ist für Länder mit oberem mittleren Einkommen im Vergleich zu Ländern aus anderen Einkommensgruppen höher. Auch zwischen dem nichtlandwirtschaftlichen Exportvolumen und dem durchschnittlichen Arbeitseinkommensanteil besteht ein positiver Zusammenhang.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6860-2_3 03123a8e1e19463d56b99bcd6a39ddcc;de;;;6.1.;;;Kollaborative Cyberinfrastruktur für die transnationale digitale Regierung In diesem Kapitel werden Probleme diskutiert, die auftreten, wenn sowohl die IT-Infrastruktur der Regierungsbehörden verschiedener Länder als auch vorhandene Softwareanwendungen unverändert wiederverwendet werden müssen, um eine Cyberinfrastruktur für die transnationale digitale Regierung zu entwickeln. Die Quellen der Heterogenität zwischen IT-Infrastrukturen und Softwareanwendungen werden identifiziert und die Auswirkungen dieser Quellen auf die Interoperabilität und Kompatibilität von Hardware, Software, Kommunikation, Daten und Sicherheitsmechanismen werden analysiert. Virtualisierungstechnologien werden eingeführt, um mit der Heterogenität der Infrastruktur fertig zu werden und die Bereitstellung unveränderter Anwendungen auf bestehenden Infrastrukturen zu ermöglichen. Ein konkreter Fall von digitaler Regierung, der den Austausch von Einwanderungsinformationen zwischen Belize und der Dominikanischen Republik beinhaltet, wird beschrieben. Dieses Beispiel wird auch verwendet, um die Vorteile von Virtualisierungstechnologien bei der Entwicklung und Bereitstellung der Cyberinfrastruktur zu validieren und zu bewerten, die für die Implementierung eines transnationalen Informationssystems für die Grenzkontrolle erforderlich ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-71611-4_15 8bed2f9976aec2335bb591bc97a5d5ba;de;;;6.1.;;;FCC-SDP: Ein schneller, eng gekoppelter gemeinsamer Datenpool für Multi-Core-DSPsSP Digitale Mehrkern-Signalprozessoren (DSP) haben erhebliche Anforderungen an die Datenspeicherung und Speicherleistung für Hochleistungs-Embedded-Anwendungen. Scratch-Pad-Speicher (SPM) sind Hochgeschwindigkeits-On-Chip-Speicher mit geringer Kapazität, die mit globalen Adressen abgebildet sind und von eingebetteten Anwendungen aufgrund ihrer besseren Echtzeit-Charakterisierung gegenüber herkömmlichen Caches bevorzugt werden. Wir bauen einen neuen Fast Close-Coupled Shared Data Pool (FCC-SDP) für unser Multi-Core-DSP-Projekt auf Basis von SPMs auf. FCC-SDP ist als Multibank-Parallelstruktur mit Doppelbank-Interleaving-Zugriffsmodi organisiert und bietet einen schnellen Übertragungsweg für feinkörnige gemeinsam genutzte Daten zwischen DSP-Kernen. Wir bauen den Verhaltenssimulator von FCC-SDP und realisieren die Designrealisierung. Simulationsexperimente mit mehreren typischen Benchmarks zeigen, dass FCC-SDP die feinkörnigen gemeinsam genutzten Daten in Multi-Core-Anwendungen gut erfassen kann und im Vergleich zu herkömmlichen gemeinsam genutzten L2-Caches bzw. DMA-Übertragungsmodi ein durchschnittliches Geschwindigkeitsverhältnis von 1,1 bzw. 1,14 erreichen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74309-5_10 5596af7edd5d522ba42b266bdd799d54;de;;;6.1.;;;Effizientes nicht fusioniertes Winograd auf GPUs Dieses Papier präsentiert eine optimierte Implementierung für Winograd Non-Fused-Faltung. Unsere Optimierungen umfassen anwendungsunabhängige gruppierte Erzeuger-Verbraucher-Ketten und eine Reihe von Winograd-spezifischen Softwaretechniken, einschließlich spezialisierter Schnittstellen-Kernel-Datenformate, die die Speicherzugriffseffizienz verbessern, Warp-Spezialisierung und Doppelpuffer-Vorabruf, die Rechenressourcen und Speicherbandbreite effektiv ausnutzen „Shuffle“-Anweisung, die Hardwareressourcen schont. Das Papier bietet auch eine ergänzende Erläuterung der Kachelextraktion von Winograds, die Speicher- und Rechenressourcen spart.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-61864-3_35 60d8bb18ac04764a392fb836263eaed6;de;;;6.1.;;;Vom Industriezeitalter zum Informationszeitalter Um die Jahrhundertwende lebten wir noch auf dem Land. Wir haben vielleicht vom ersten Flugzeugflug (1903) gehört und unsere komplexeste Büromaschine war die manuelle Schreibmaschine. In unseren Büros befanden sich „Informationsmanagement-Tools“ wie ein Rolodex und Ledger, um numerische Informationen zu verfolgen. Die Postzustellung war langsam, und die elektronische Post (;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-24869-8_1 98bb872fb506124cbed78e56dac1333b;de;;;6.1.;;;Argumentative SOX-konforme und intelligente Entscheidungsunterstützungssysteme für den Lieferantenvertragsprozess Unsere Gesellschaft ist immer mehr mit der Stabilität der Finanzmärkte verbunden und diese Stabilität hängt von Schlüsselakteuren wie Privatunternehmen, Finanzmärkten, Investoren, Analysten, staatlichen Kontrollbehörden usw. ab. Der Sarbanes-Oxley Act ist ein zwingendes Gesetz auf dem EEUU-Markt und ein Faktum-Standard im Rest der Welt und hat als Hauptziel den Wunsch nach finanzieller Stabilität zu wahren. In diesem Kapitel wird ein neues entscheidungsunterstützendes intelligentes Finanzmodell über SOX-Kompatibilität basierend auf künstlicher intelligenter Technologie zusammen mit Argumentationstheorie gezeigt. Das Hauptziel dieses Modells besteht darin, Privatunternehmen, Wirtschaftsprüfern, Vorständen und Aufsichtsbehörden zu helfen und zu unterstützen, eine SOX-konforme Entscheidung über einen bestimmten Prozess eines typischen Einkaufsfinanzzyklus zu treffen:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-17906-3_14 2c0bda994ddc81e5ba9309ac7a915bc6;de;;;6.1.;;;Unklarheiten in den frühen Phasen der Implementierung einer Unternehmensarchitektur im öffentlichen Sektor: Umreißen der Komplexität der Interoperabilität In den letzten Jahren hat sich die Entwicklung des eGovernment zunehmend von der Leistungserbringung zum Streben nach einem interoperablen öffentlichen Sektor verlagert, wobei Enterprise Architectures ein immer beliebter werdender Ansatz sind. Ein zentrales Thema ist jedoch die Koordination der Arbeit aufgrund unterschiedlicher Wahrnehmungen der beteiligten Akteure. Dieses Papier bietet ein vertieftes Verständnis dafür, indem es der Frage nachgeht, wie sich unterschiedliche Interpretationen von Interoperabilitätsvorteilen auf die Koordination in den frühen Phasen der Implementierung einer Unternehmensarchitektur des öffentlichen Sektors auswirken. Als Fallstudie werden die Interoperabilitätsbemühungen im schwedischen eHealth durch Interviews mit Schlüsselakteuren untersucht. Der theoretische Rahmen ist ein Reifegradmodell mit fünf Stufen von Interoperabilitätsproblemen und -vorteilen. Die Ergebnisse unterstreichen die Notwendigkeit der Klärung von Entscheidungsrollen, Unklarheiten in Bezug auf Zuständigkeiten zwischen Behörden und darauf, dass unterschiedliche Wahrnehmungen der IT-Infrastruktur mit den Gesamtzielen verbunden sind. Das Papier schlägt auch eine Neukonzeption der E-Government-Reife vor, indem man sich von sequentiellen Modellen abwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22878-0_31 c5213ed9cbb0339dddb512c45471652d;de;;;6.1.;;;Blockchain-basierter Zugangskontrollmechanismus in elektronischen Beweismitteln Mit der rasanten Entwicklung des Informationszeitalters ist der Anteil elektronischer Beweismittel in Gerichtsverfahren gestiegen, und die Bedeutung elektronischer Beweismittel gewinnt zunehmend an Bedeutung. Im echten Gerichtsverfahren werden strenge Anforderungen an die Echtheitsidentifizierung, die manipulationssichere Aufbewahrung und die legalen Methoden zur gemeinsamen Nutzung elektronischer Beweismittel gestellt, was viele Sicherheitsherausforderungen mit sich bringt. Werden diese Bedingungen nicht erfüllt, wird die Rechtskraft elektronischer Beweismittel stark eingeschränkt. Die bestehenden technischen Lösungen können diese obigen Anforderungen jedoch nicht erfüllen. Die Blockchain-Technologie hat die Merkmale der Dezentralisierung und der Manipulationssicherheit, die eine neue Methode zur Speicherung und Extraktion elektronischer Beweise bietet. Um diese Probleme zu lösen, schlägt dieses Papier ein Blockchain-basiertes Speicherzugriffskontrollmodell für elektronische Beweise vor und entwirft das entsprechende Speicherzugriffskontrollprotokoll. In diesem Schema ist es der Zusammenarbeit mehrerer Entitäten erlaubt, Beweise zu speichern, und es wird ein Protokoll zum Nachweis von Nullwissen angewendet, um eine Zugangskontrolle und eine gemeinsame Datennutzung zu erreichen. Durch die Sicherheits- und experimentelle Analyse kann bewiesen werden, dass das Schema Sicherheitsmerkmale wie bekannte Schlüsselsicherheit und Nichtabstreitbarkeit erfüllt und Kollusion, Tarnung, Wiederholung und Man-in-the-Middle-Angriffen effektiv widerstehen kann. Schließlich zeigen verwandte Experimente, dass das Schema eine hohe Rechen- und Kommunikationseffizienz aufweist. Auf diese Weise wird das Problem der sicheren Speicherung und gemeinsamen Nutzung von elektronischen Beweismitteln lobenswert gelöst, was den Sicherheitsanforderungen in der tatsächlichen Szene gerecht wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6478-3_2 df339aa3363c7af5fd9a6413e4a9acce;de;;;6.1.;;;Forschung zu Big Data unter Enterprise Technological Innovation Management Ausgehend von den tatsächlichen Bedürfnissen des Unternehmens im technologischen Innovationsmanagement soll dieser Artikel die praktischen Probleme herausarbeiten, wie man sich effektiv in die neue Umgebung der „Big Data“-Ära einfügt und wie man mit der ideologischen und technologischen Revolution, die durch „ Big Data“ bis hin zum traditionellen technologischen Innovationsmanagement und wie man Unternehmen zu Durchbrüchen im technologischen Innovationsmanagement verhilft. Um dieses Ziel zu erreichen, untersucht der Beitrag mit den neuesten Forschungsfortschritten im In- und Ausland die Auswirkungen der Big-Data-Technologie auf Unternehmen im Sinne des technologischen Innovationsmanagements und sucht nach neuen Konzepten auf Basis der Big-Data-Technologie, um die Probleme in technologisches Innovationsmanagement des Unternehmens, in der Erwartung, die praktische Arbeit des Unternehmens im Bereich des technologischen Innovationsmanagements zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55182-6_38 74058aa31e9f32f3d2e956f58008e9c8;de;;;6.1.;;;Ein RFID-basiertes Fernüberwachungssystem für das unternehmensinterne Produktionsmanagement Der unzusammenhängende Bestands- und Informationsfluss führt zu einem Mangel an Echtzeitinformationen und einem Aufbau von Überbeständen, um Unsicherheiten bei Angebot und Nachfrage abzufedern. In diesem Beitrag wird ein auf Funkfrequenzidentifikation (RFID) basierendes Fernüberwachungssystem über das Internet vorgeschlagen, um einen transparenten und sichtbaren Informationsfluss für die Lieferkette und das unternehmensinterne Ressourcenmanagement bereitzustellen. Die RFID-Technologie war in den letzten Jahren eine heiße Technologie, um Barcodes im Supply Chain Management zu ersetzen. Tatsächlich wurde es 1991 von der US-Armee erfolgreich in der Militärlogistik eingesetzt. Kürzlich ordnet der Superman des Supermarkts Wal-Mart an, dass seine Top-100-Lieferanten ihre gelieferten Artikel mit RFID-Tags versehen müssen. Allerdings ist die RFID-Technologie noch immer keine für den weltweiten Einsatz akzeptable Standardform. Das erste große Problem besteht darin, eine weltweite universelle Radiofrequenz (RF) für aktive und passive RFID-Systeme auszuwählen, aber aufgrund der Vorteile der RFID-Technologie ist es unanfechtbar, dass sie sehr bald in verschiedenen Bereichen, wie z Management, Enterprise Resource Planning (ERP), Vertriebsmanagement usw. In diesem Beitrag wird das RFID-basierte Überwachungssystem für das unternehmensinterne Produktionsmanagement vorgestellt. Die RFID-Technologie, Bluetooth und Internet-Technologie bilden ein Remote-System zur Überwachung des Produktionsstatus einer Fabrik. Basierend auf diesem System kann die Managementabteilung den Status der Produktionslinie und der Lieferkette, einschließlich Rohstoff- und Outsourcing-Versorgungs-/Verbrauchsstatus, Produktionsstatus von Teilen und Komponenten, Produktionsstatus der fertigen Produkte usw. transparent überwachen und steuern. Dies Das System wird von Vorteil sein, um die Produktivität erheblich zu verbessern und die Kosten für das Unternehmen zu senken.;-;-;-;https://link.springer.com/article/10.1007/s00170-006-0506-6 57f9ddadecd6139b639e4a13c5d693cd;de;;;6.1.;;;Datenverstecken ein Schlüsselmanagement für interoperable städtische Dienste Die Verfügbarkeit zuverlässiger Stadtdienstleistungsdaten ist die Schlüsselkomponente für ein industrialisiertes Gebiet. Städtische Umgebungen sind herausfordernde Orte für Experimente und Einsätze, und neben ihrer Komplexität trägt auch die Unsicherheit zu einer größeren Herausforderung bei. Um solche Probleme anzugehen, hat dieses Papier die Implementierungsprobleme bei der Integration von Geodatendienstdaten und Webdiensttechnologien definiert und eine Methodik zur Sicherung der Systeme vorgeschlagen. Der zuvor präsentierte Vorschlag ist eine symmetrische Verschlüsselung, die den gemeinsamen Schlüssel zum heimlichen und periodischen Durchführen von sowohl Verschlüsselung als auch Entschlüsselung teilen soll.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16444-6_21 1bbd3e1418022abb169cdeedc91b4686;de;;;6.1.;;;Standards, Datenbanken und Modellierungswerkzeuge in der Systembiologie Die Modellierung ist ein Mittel, um die Ergebnisse von Genomik-, Transkriptomik-, Proteomik- und Metabolomik-Experimenten zu integrieren und Erkenntnisse über das Zusammenspiel der Bestandteile biologischer Systeme zu gewinnen. Die gemeinsame Nutzung solch großer Mengen von häufig heterogenen und verteilten experimentellen Daten erfordert jedoch sowohl Standarddatenformate als auch öffentliche Repositories. Auch für die Modellierung sind Standardisierung und ein öffentliches Speichersystem wichtig, da Modelle unabhängig von den verwendeten Softwarewerkzeugen gemeinsam genutzt werden können. Darüber hinaus profitiert die schnelle Modellentwicklung stark von verfügbaren Softwarepaketen, die den Modellierer von wiederkehrenden Aufgaben wie der numerischen Integration von Geschwindigkeitsgleichungen oder der Parameterschätzung entlasten.;-;-;-;https://link.springer.com/protocol/10.1007/978-1-60761-987-1_26 f1d7f2834385da5839888a4696a6eb24;de;;;6.1.;;;Einführung in das einzigartige Produktionssystem Jason Myers, Präsident der Canadian Manufacturers and Exporters (CME), sagte in einer Rede im Oktober 2008: „Um angesichts dieser neuen globalen Marktrealitäten wettbewerbsfähig und zu wachsen, müssen sich Hersteller in Kanada auf die schnelle Entwicklung und Kommerzialisierung konzentrieren von neuen Produkten. Sie müssen flexible, automatisierte, integrierte und rekonfigurierbare Technologien und Produktionssysteme einsetzen.“;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84996-531-6_1 d61f4cf9cfa936ff5f947c25d9bf5c7a;de;;;6.1.;;;Fortschrittliche, leichtgewichtige Verschlüsselungsalgorithmen für IoT-Geräte: Umfrage, Herausforderungen und Lösungen Es gibt viele neue Bereiche, in denen stark eingeschränkte Geräte miteinander verbunden und kommuniziert werden, um einige Aufgaben zu erfüllen. Heutzutage ermöglicht das Internet der Dinge (IoT) vielen geringen Ressourcen und eingeschränkten Geräten, im Kommunikationsnetzwerk zu kommunizieren, zu berechnen, zu verarbeiten und Entscheidungen zu treffen. In den heterogenen Umgebungen für das IoT gibt es viele Herausforderungen und Probleme wie den Stromverbrauch von Geräten, begrenzte Batteriekapazität, Speicherplatz, Leistungskosten und Sicherheit im Netzwerk der Informationskommunikationstechnologie (ICT). In diesem Papier diskutieren wir den Stand der Technik von leichten kryptografischen Primitiven, die leichte Blockchiffren, Hash-Funktion, Stream-Chiffren, Hochleistungssysteme und ressourcenarme Geräte für die IoT-Umgebung umfassen. Wir analysieren viele leichtgewichtige kryptografische Algorithmen basierend auf ihrer Schlüsselgröße, Blockgröße, Anzahl der Runden und Strukturen. Darüber hinaus diskutieren wir die Sicherheitsarchitektur im IoT für eingeschränkte Geräteumgebungen und konzentrieren uns auf Forschungsherausforderungen, Probleme und Lösungen. Schließlich werden ein vorgeschlagenes Sicherheitsschema mit einem Service-Szenario zur Verbesserung einer ressourcenbeschränkten IoT-Umgebung und offene Probleme diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s12652-017-0494-4 eb19efcd66b426cc69a25792114b8f12;de;;;6.1.;;;Ein intelligentes RDF-Managementsystem mit hybridem Abfrageansatz Die Verwaltung einer großen RDF ist ein herausforderndes Problem im Bereich der Semantic Web-Forschung, da es schwierig ist, Effizienz und Skalierbarkeit zu erreichen, wenn ihr intelligentes Niveau gehalten wird. Um RDF erfolgreich zu verwalten, wurden verschiedene Ansätze einschließlich Indexierung und Schlüsselwortabfrage angewendet. Jedoch geht keiner von ihnen das Problem von der höheren Ebene aus an und unterstützt gleichzeitig eine massive RDF und eine große Benutzeranfrage. In diesem Whitepaper stellen wir unseren hybriden Ansatz mit Cache und Ranking vor, um Effizienz, Skalierbarkeit und Intelligenz zu erreichen. In unserem Ansatz kann eine Anfrage schnell aus dem Cache beantwortet werden, der die Ergebnisse der vorherigen Anfragen enthält. Die auf Entitäten basierende Cache-Struktur ist so ausgelegt, dass sie verteilt ist, um Benutzeranfragen in großem Umfang zu bedienen. Ein Ranking-System wird hinzugefügt, um die Genauigkeit der zurückgegebenen Ergebnisse aus dem Cache zu verbessern. Wir präsentieren empirische Bewertungen unseres Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34630-9_42 02851ad5e18ca046f411b566d4ccbc11;de;;;6.1.;;;Bewertung und Verbesserung der Datenqualität von öffentlichen Kreditinformationen Öffentliche Kredite sind ein wichtiger Bestandteil der Sozialkredite, die eine wichtige Rolle bei der Beschleunigung der Umwandlung staatlicher Funktionen, der Innovation von Aufsichtsmethoden, der Verbesserung des Marktkreditumfelds und der Förderung der sozialen Governance spielen. Beim Sammeln, Teilen und Austauschen öffentlicher Kreditinformationen haben die „Müllinformationen“ und die falschen, unvollständigen und inkonsistenten Daten die Qualität der öffentlichen Kreditdaten ernsthaft beeinträchtigt, was der vollen Ausschöpfung des Wertes und der Vorteile nicht förderlich ist der öffentlichen Kreditauskunft. Daher ist es dringend erforderlich, die Qualität der öffentlichen Kreditdaten zu verbessern, einen wirksamen Mechanismus für das Datenqualitätsmanagement einzurichten und die Verfügbarkeit und den Nutzungswert von Daten zu verbessern. In diesem Papier stellen wir unter dem Gesichtspunkt der Datenstandardisierung, Vollständigkeit, Genauigkeit, Konsistenz, Zugänglichkeit und Aktualität die allgemeinen Bewertungsindizes der Datenqualität der öffentlichen Kreditwürdigkeit vor. Anschließend stellt das Papier Strategien zur Verbesserung der Qualität öffentlicher Kreditdaten aus der Perspektive der Etablierung des öffentlichen Kreditinformationsdaten-Standardsystems und der kontinuierlichen Verbesserung der Datenqualität mit dem PDCA-Zyklus vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-62743-0_102 6f2943d67f3ca9317be8664a58d47633;de;;;6.1.;;;Identitätserkennung mit demselben Gesicht in einem anderen Kontext Das menschliche Gesicht ist ein Geschenk Gottes an einen menschlichen Körper. Es macht wirklich Sinn, Ausdrücke zu verwenden. Die Eigenschaften des menschlichen Gesichts haften an den Eltern und werden verwendet, um die Person zu erkennen. Es gibt viele Forschungen über Gesicht Eigentum. Heute ist das Gesicht ein sehr wichtiger menschlicher Körperteil, der für maschinelles Lernen verwendet wird. Das Hauptziel der Forschung ist es, das aktuelle Szenario des Systems zu präsentieren, den Menschen an seinem Gesicht zu erkennen und es mit seinem Foto auf dem Personalausweis abzugleichen. Es gibt viele Fälle, in denen ein Mensch seinen Lichtbildausweis nicht erkennt. In einigen Situationen, in denen eine Person echt ist, aber ein Foto auf dem Personalausweis nicht klar ist, gibt es aufgrund dieses Problems viele Sicherheitslücken. Diese Forschung konzentriert sich stark auf diese Probleme und die Lösungsfindung. Einige Literatur wurde von ausländischen Autoren zum gleichen Problem überprüft, sie klären auch das identische Problem. Um das Problem in Bezug auf die Bildverarbeitung deutlich auszudrücken, haben wir MatLab verwendet und Beispielfotos gemacht. Diese Bilder wurden gründlich analysiert und die Region of Interest erhalten. Die sehr einfache Konvertierung von ROI-Bildern in Schwarzweißbilder gibt den echten Unterschied zwischen Bildern desselben Gesichts. Einige weitere Techniken können angewendet werden, um verschiedene zusätzliche Ergebnisse und Auswirkungen zu erzielen. Das Ergebnis des Papiers ist es, ein reales Beispiel für ein Gesichtsbild und seine Verarbeitung in MatLab zu präsentieren. Um dieses Identifikationssystem insgesamt zu verbessern, kann man sein Gesichtsfoto im Personalausweis aktualisieren, aber manchmal ist es machbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4936-6_58 e94e06da630f464c63775a300168e083;de;;;6.1.;;;Anlagensicherheit In diesem Kapitel erfahren Sie Tipps zu folgenden Bereichen: Was sind Assets, Asset-Sicherheit, Schutz von Assets, Datenschutz, Speicher- und Datenverwaltung, Datenhandhabung als Teil der Asset-Sicherheit und die zum Schutz von Assets verwendete Public-Key-Infrastruktur.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-6225-2_2 23e2a4d6f03063ee9c27e21b5c222e2b;de;;;6.1.;;;APPLaUD: Zugang für Patienten und Teilnehmer zu uninterpretierten Genomdaten auf individueller Ebene Es gibt eine wachsende Unterstützung für die Haltung, dass Patienten und Forschungsteilnehmer sowohl im klinischen als auch im Forschungskontext einen besseren und einfacheren Zugang zu ihren rohen (uninterpretierten) Genomsequenzdaten haben sollten.;-;-;-;https://link.springer.com/article/10.1186/s40246-018-0139-5 95dda0932df6d88ce2a90b712f873be3;de;;;6.1.;;;Bericht über die Entwicklung der sozialen Sicherheit in Chinas Sonderwirtschaftszonen Soziale Sicherheit dient als „Stabilisator“ im sozialen Betrieb, als „Regler“ der Einkommensverteilung und als „Sicherheitsnetz“ für die Menschen, sie kann soziale Gerechtigkeit fördern, die Ressourcenallokation optimieren und eine dauerhafte nationale Stabilität garantieren. Gegenwärtig befindet sich die chinesische Gesellschaft in einer Zeit beispielloser großer Veränderungen und einer Ära zunehmender Unsicherheiten und Risiken. Es gibt Risiken in der Marktwirtschaft, die Struktur der sozialen Ressourcenallokation ist nicht rational, Vor- und Nachteile bestehen in der familiären „Vererbung“ und die persönlichen Fähigkeiten sind unterschiedlich, so dass die Mitglieder der Gesellschaft zwangsläufig verschiedenen Überlebens- und Entwicklungsrisiken ausgesetzt sind. Daher ist es notwendig, dass die Gesellschaft ein soziales Sicherungssystem einrichtet und verbessert, das Sozialversicherung, Sozialhilfe, Sozialhilfe und soziale Sonderfürsorge umfasst, um sicherzustellen, dass die Mitglieder der Gesellschaft soziale Risiken auf einem angemessenen Grundniveau effektiv bewältigen können Lebensstandards.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6705-2_6 33edb7c105f87e4cf5f74da6023b3f18;de;;;6.1.;;;Architekturkonzepte für große Wissensdatenbanken Wir beschreiben Erfahrungen in der Strukturierung von Wissen aus zwei parallelen Projekten. Frühere KBMS-Projekte konzentrierten sich auf die Vereinfachung des Zugriffs und die Verbesserung der Leistung von Datenbanken mit Konzepten der künstlichen Intelligenz. Das Rx-Projekt hat Methoden entwickelt, um Wissen aus Datenbanken zu extrahieren. Die aktuelle Forschung (KSYS) nutzt diese Erfahrung, um neue Konzepte und Techniken für das Management großer Wissens- und Datensammlungen zu entwickeln und zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-73005-4_39 6c0f0170f49eacccf2edf31bff20ba9b;de;;;6.1.;;;Potenzielle Trendentdeckung für Autobahnfahrer auf raumzeitlichen Daten Der Überlandverkehr spielt in modernen Städten eine wichtige Rolle und hat durch IoT-Technologien (Internet of Things) massive raum-zeitliche Daten von verschiedenen Sensoren gesammelt. Fahreigenschaften und zukünftige Trends von Autobahnen hinter Daten sind für die Verkehrsführung und den personalisierten Service wertvoll. Als routinemäßige Domänenanalyse steht die Trenderkennung für Autobahnfahrer vor Herausforderungen in Bezug auf Verarbeitungseffizienz und Vorhersagegenauigkeit. Unzureichende Profile dieser Treiber sind direkt verfügbar, eine vernünftige Latenz der Führungskräfte bei riesigen Datenmengen ist schwer zu garantieren und unzureichende Funktionen bei räumlich-zeitlichen Korrelationen behindern die analytische Genauigkeit. In diesem Beitrag wird eine auf Reisemerkmalen basierende Methode vorgeschlagen, um den potenziellen Trend der Zahlungsidentität für Autobahnfahrer zu entdecken. Unter Berücksichtigung von Zeit, Raum, subjektiver Präferenz und objektiver Eigenschaft werden die Fahreigenschaften auf monatlichen Daten von Autobahnmautstellen modelliert, wodurch Vorhersagefehler durch steigungsverstärkende Klassifizierung reduziert werden können. Mit realen Daten eines chinesischen Provinzautobahnnetzes zeigen umfangreiche Experimente und Fallstudien, dass unsere Methode eine Executive-Latenz der zweiten Ebene mit mehr als 85 % F1-Score für die Trenderkennung aufweist.;-;-;-;https://link.springer.com/article/10.1007/s11276-020-02536-4 0417e554d7edaed2d5e9804e0f6fcd82;de;;;6.1.;;;Veränderung meistern Nahezu alles, was wir in der Zahnheilkunde in Forschung, Lehre, Verwaltung oder Patientenversorgung tun, basiert auf der Generierung, Speicherung und Manipulation von Informationen (Informationsmanagement). Das gegenwärtige Paradigma für die Verwaltung von Informationen in der Zahnmedizin ist, wie in der meisten Gesundheitsversorgung, das menschliche Gedächtnis, das durch gedruckte oder geschriebene Informationen in Büchern oder Zeitschriften unterstützt wird. Wir verteilen und kommunizieren Informationen über gedruckte oder mündliche Kanäle.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-9160-9_1 99538261bd9f3a722232445d7a9ef9b4;de;;;6.1.;;;NCL: Eine gemeinsame Sprache zum Erreichen einer regelbasierten Interoperabilität zwischen heterogenen Systemen Um die Interoperabilität zwischen heterogenen Computersystemen zu erreichen, hat die Object Management Group (OMG) die Common Object Request Broker Architecture (CORBA) und die Verwendung einer Interface Definition Language (IDL) zum Spezifizieren von Objekteigenschaften und Operationen, die die Daten und Programme von heterogene Systeme. Dieses Papier beschreibt eine gemeinsame Sprache, die eine Erweiterung von IDL darstellt, um Folgendes zu umfassen: 1) den semantischen Reichtum von EXPRESS, eine von der ISO/STEP-Community angepasste Informationsmodellierungssprache, um Produktmodell- und Datenaustausch zu erreichen, und 2) die Erweiterbarkeitsfunktionen und das Wissen Regelspezifikation des objektorientierten Semantischen Assoziationsmodells (OSAM .);-;-;-;https://link.springer.com/article/10.1007/BF00122127 1ce0f41b70e3f97e8b7ad9893203975e;de;;;6.1.;;;NCL: Eine gemeinsame Sprache zum Erreichen einer regelbasierten Interoperabilität zwischen heterogenen Systemen Um die Interoperabilität zwischen heterogenen Computersystemen zu erreichen, hat die Object Management Group (OMG) die Common Object Request Broker Architecture (CORBA) und die Verwendung einer Interface Definition Language (IDL) zum Spezifizieren von Objekteigenschaften und Operationen, die die Daten und Programme von heterogene Systeme. Dieses Dokument beschreibt eine gemeinsame Sprache, die eine Erweiterung von IDL darstellt, um Folgendes zu umfassen: 1) den semantischen Reichtum von EXPRESS, eine von der ISO/STEP-Community angepasste Informationsmodellierungssprache, um Produktmodell- und Datenaustausch zu erreichen, und 2) die Erweiterbarkeitsfunktionen und das Wissen Regelspezifikation des objektorientierten Semantischen Assoziationsmodells (OSAM*). Diese gemeinsame Sprache mit dem Namen NIIIP Common Language (NCL) ist Teil der F&E-Bemühungen eines Projekts mit dem Titel National Industrial Information Infrastructure Protocols (NIIIP). Das Design von NCL ist;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0467-8_5 653a6d0a3253461747925eebd8de3be7;de;;;6.1.;;;Studie zu Mobile Electronic Business basierend auf einem kollaborativen Framework Die rasante Entwicklung der mobilen Kommunikationstechnologie, Electronic Business Enterprise ist allmählich in die Ära des mobilen E-Commerce eingetreten. Die kollaborative Commerce-Anwendung der Theorie im Konzept des mobilen elektronischen Geschäfts stellt die Synergie des mobilen elektronischen Geschäfts (CMEC) dar. Gleichzeitig untersucht dieses Papier den gesamten Betriebsmechanismus und die Plattform beim mobilen elektronischen Geschäft. Kollaboratives mobiles elektronisches Geschäft ist nicht nur ein komplettes elektronisches Geschäft, sondern auch eine Art fortschrittlicher Managementkonzepte.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-4796-1_41 493ef5b26cc1646ca9daad81569aeb40;de;;;6.1.;;;"Einführung in das Social Web (Web 2.0, Social Media, Social Software) Web 2.0 ist ein weit verbreiteter und weitreichender Begriff (in Bezug auf Interpretationen), der von Tim O’Reilly populär gemacht wurde, der einen Artikel über die sieben Merkmale oder Prinzipien des Web 2.0 verfasst hat. Für viele Menschen kann Web 2.0 viele verschiedene Dinge bedeuten. Die meisten stimmen darin überein, dass es als die zweite Phase der Architektur- und Anwendungsentwicklung für das Web angesehen werden kann und dass der verwandte Begriff ""Social Web"" ein Web beschreibt, in dem Benutzer sich treffen, zusammenarbeiten und Inhalte in sozialen Räumen über markierte Elemente teilen können. Aktivitätsstreams, Social-Networking-Funktionen usw. Es gibt viele beliebte Beispiele, die mit diesem Kollaborations- und Sharing-Meme funktionieren: MySpace, del.icio.us, Digg, Flickr, Upcoming.org, Technorati, orkut, 43 Things und Wikipedia.";-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01172-6_3 6436d632477a22fd0cfa9adf015e7017;de;;;6.1.;;;Testen und Bewerten eines sicherheitsbewussten Pub- und Subprotokolls in einer nebelgetriebenen IoT-Umgebung Die kontinuierliche Verbreitung innovativer Anwendungen und Dienste, basierend auf dem aufkommenden Internet of Things (IoT)-Paradigma, führt zur Notwendigkeit noch effizienterer Netzwerkarchitekturen/Infrastrukturen, um die riesige Menge an Informationen, die in Echtzeit übertragen werden sollen, zu unterstützen . Daher müssen neue Protokolle und Mechanismen konzipiert werden, die es dem IoT-Netzwerk ermöglichen, auf Umweltveränderungen reagieren zu können und die Anforderungen der IoT-Benutzer zeitnah zu erfüllen. Mit dem Ziel, die aufgetretenen Probleme zu lösen, stellt das Papier eine effiziente IoT-Plattform vor, die dank Fog-Computing-Prinzipien als Middleware-Schicht zwischen Datenproduzenten und -verbrauchern fungiert, ein sicherheitsbewusstes Publish&Subscribe-Protokoll verwendet, basierend auf MQTT, gekoppelt mit ein Netzwerk von Maklern, um die verarbeiteten Informationen effizient mit Endbenutzern zu teilen. Übertragene Daten werden unter einem Durchsetzungsrahmen auf der Grundlage von klebrigen Richtlinien sicher aufbewahrt. An einer prototypischen Implementierung der eben genannten Plattform wird eine Testkampagne durchgeführt, um deren Effizienz hinsichtlich Rechenaufwand und Latenz vorab zu evaluieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-61746-2_14 27afcb5424eed59d1cdb4e99d3737b75;de;;;6.1.;;;Die medizinische Bibliothek „Noch dramatischere Veränderungen bei Bibliotheksdiensten und Informationsmanagement finden statt und werden in den nächsten zehn Jahren eintreten.“ Mit dieser Stellungnahme wurde das Kapitel „The Institutional Medical Library“ in der ersten Ausgabe von;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-21784-0_5 b714cd851fdf8dfd9d3c8b03d59d2f56;de;;;6.1.;;;Ein leichtes mehrstufiges Verschlüsselungsmodell für IoT-Anwendungen Das Internet der Dinge (IoT) sieht vernetzte, intelligente und allgegenwärtige Knoten vor, die kommunizieren und dabei alle Arten von Unterstützung bieten. Offenheit, vergleichsweise kolossale Verarbeitungsgeschwindigkeit und weite Verbreitung von IoT-Objekten boten ihnen ein absolutes Ziel für Cyber-Angriffe. Bei dem enormen Potenzial des IoT treten alle möglichen Schwierigkeiten auf. In diesem Artikel wurde eine IoT-Umgebung in drei primäre Schichten unterteilt (i) Geräteschicht, (ii) Kommunikationsschicht, (iii) Cloudschicht. Benutzer, Geräte, Gateway, Verbindung, Cloud und Anwendung werden kombiniert, um die verschiedenen Ebenen für die IoT-Umgebung zu erstellen. Die Sicherheitsprobleme in der Cloud-Schicht für das IoT wurden durch ein vorgeschlagenes mehrstufiges Verschlüsselungsschema mit flexibler Schlüsselverwaltung in der Cloud-Umgebung angegangen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-16837-7_2 a3bd1914099ee4c861fa50df696037bf;de;;;6.1.;;;Virtuelle menschliche Problemlösungsumgebungen Das Interesse an komplexer integrierter digitaler oder virtueller Menschmodellierung hat in den letzten zehn Jahren stark zugenommen. Gleichzeitig mit diesem gestiegenen Interesse initiierte das Oak Ridge National Laboratory (ORNL) die Entwicklung eines menschlichen Simulationstools, des Virtual Human. Der Virtual Human umfasst eine Problemlösungsumgebung (PSE) zur Implementierung der Integration physiologischer Modelle in verschiedene Programmiersprachen und zur Verbindung von physiologischer Funktion und Anatomie. Die Virtual Human PSE (VHPSE) bietet den Rechenrahmen, mit dem das Konzept eines „Virtual Human“ entwickelt werden kann. Unterstützt wird das Framework durch eine Datendefinition für Modellierungsparameter, PhysioML, eine Virtual Human Database (VHDB) und eine mit Java entwickelte webbasierte grafische Benutzeroberfläche (GUI). Nach der Beschreibung des VHPSE diskutieren wir vier beispielhafte Implementierungen von Modellen innerhalb des Frameworks.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89430-8_7 949f6b4ecc02f4b3363d8faba9661aa3;de;;;6.1.;;;Design und Implementierung eines Internet of Healthcare Things Systems für Atemwegserkrankungen Das Paradigma des Internet of Things (IoT) erweitert sich auf mehrere Forschungsfelder. Daher wurde das Wireless Body Area Network (WBAN) als Standard angenommen, um ein IoT-Schema zu erstellen, das im Gesundheitssystem implementiert wird. Darüber hinaus kann das IoT zur Messung verschiedener Krankheiten wie Schlaganfall, Diabetes sowie Atemwegserkrankungen eingesetzt werden, um den Zustand des Patienten und Veränderungen der Umgebung zu überwachen, die für Patienten schädlich sein könnten. Die Implementierung und Realisierung von IoT zur Überwachung von Atemwegserkrankungen ist erforderlich, da in Taiwan das Risiko, durch diese Erkrankungen schwerwiegendere Symptome zu bekommen, angesichts der zunehmenden Luftverschmutzung relativ hoch ist. In dieser Studie basiert das IoT-System auf der Integration mehrerer unabhängiger Anwendungen. Darüber hinaus besteht unser Schema aus vier Hauptkomponenten wie einer Umgebungssensorbox, Patientenüberwachungstools, Android-Apps und einer grafischen Benutzeroberfläche (GUI). Die Web-GUI ist für medizinisches Fachpersonal wie Ärzte und Pflegepersonal nützlich, um den Zustand von Patienten zu überwachen, der durch Patientenüberwachungstools ermittelt wird. Darüber hinaus können Patienten und Ärzte den Zustand des Wetters und der Umweltbedingungen beurteilen, ob es für Patienten sicher oder schädlich ist. Schließlich sind Android-basierte Apps für Patienten erforderlich, um alle Systeme zu verbinden und alle Bedingungen einschließlich des Gesundheits- und Umweltzustands zu überwachen. Die Bewertung unserer Tools zeigt, dass das implementierte Schema konsistent genug ist, was durch einen niedrigen Root Mean Square Error (RMSE) und Mean Average Percentage Error (MAPE) gezeigt wird, die von unserem IoT-System erreicht werden.;-;-;-;https://link.springer.com/article/10.1007/s11277-020-07871-5 e4e9f93e206862d53801780975398d38;de;;;6.1.;;;Aktuelle Trends und Schwierigkeiten bei wissensbasierten elektronischen Gesundheitssystemen In diesem Papier wird eine Diskussion über Fragen vorgestellt, die sich aus aufgetretenen Problemen bei der Gestaltung und Einführung von E-Health-Systemen ergeben. Insbesondere wurden einige Schwierigkeiten bei der Anpassung der IKT an elektronische Gesundheitssysteme hervorgehoben. Darüber hinaus wird die Zukunftsvision der Evolution des Gesundheitswesens mittels Informationstechnologie analysiert. Zu den wichtigsten Herausforderungen für die Gesundheitssysteme stellten sich sowohl technologische als auch nicht-technologische Fragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35879-1_16 8efcff88293df3e8eec976afd2fc5705;de;;;6.1.;;;I-BiDaaS: Industrial Driven Big Data als Self-Service-Lösung Die Konvergenz von Internet of Things (IoT), Cloud und Big Data schafft neue Herausforderungen und Chancen für die Datenanalyse. Von Menschen und Maschinen erstellte Daten werden kontinuierlich aggregiert und verändern unsere Wirtschaft und Gesellschaft. Um diesen Herausforderungen zu begegnen, greifen Unternehmen auf fachkundige Analysten und Berater zurück.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63161-1_17 e0c797a951eed7b449b5cc431859fae9;de;;;6.1.;;;Dynamische Datenbankgenerierung für mobile Anwendungen Mobile Geräte können als Komponenten verteilter Informationssysteme angesehen werden, wobei Anwendungen, die auf diesen Geräten ausgeführt werden, ein Fragment des globalen Schemas erfordern, das dem Gerät zugewiesen und durch materialisierte Ansichten implementiert wird. Da mobile Geräte immer leistungsfähiger werden, möchten wir Änderungen am Anwendungscode minimieren und so die Migrationskosten für eine große Anzahl von Anwendungen auf mobile Geräte reduzieren. Idealerweise sollte eine Anwendung mobil ohne Änderungen ausgeführt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45275-1_17 2387f242ea507df2269f649f886326d9;de;;;6.1.;;;Der Innovationskapazitätsindex: Faktoren, Richtlinien und Institutionen, die Länderinnovationen vorantreiben Die relative Bedeutung verschiedener Triebkräfte für Wirtschaftswachstum und Wohlstand hat sich im Laufe der Zeit weiterentwickelt, und für eine wachsende Zahl von Ländern entwickelt sich Innovation in ihren vielen Dimensionen jetzt zu einem führenden Faktor.;-;-;-;https://link.springer.com/chapter/10.1057/9780230285477_1 a77e165758b169fcd845ce098e06d09d;de;;;6.1.;;;Bestehende Middleware-Lösungen für drahtlose Sensornetzwerke Heutzutage finden sich heterogene Sensornetzwerke in Anwendungskontexten wie Umgebungsüberwachung, Landwirtschaft, Lagerverfolgung, Transportlogistik, Überwachung und Gesundheitsversorgung, wie in Kap.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09280-5_4 ae963ce7e032a0507900100199429b37;de;;;6.1.;;;Infrastruktur und Architektur Da Gesundheitsorganisationen begonnen haben, die Notwendigkeit zu erkennen, Informationstechnologie (IT) zu entwickeln, um wettbewerbsfähig zu werden oder zu bleiben, ist eine solide Infrastrukturimplementierung zu einem vorrangigen strategischen Ziel geworden. Es gibt unzählige Aspekte der Infrastruktur in diesem neuen Informationszeitalter, und selbst der gelegentlichste Rezensent kann schnell in einem Meer von Infrastrukturinformationen versinken. Wenn wir mit so komplexen Problemen wie Internet, Intranets, Architekturdesign, Sicherheit und verschiedenen Topologien konfrontiert werden, können wir leicht anfangen zu sinken und nicht wissen, wohin oder wann wir eine S.O.S. Der Aufstieg über die Informationsflut muss jedoch nicht überwältigend sein. Der Schlüssel liegt darin, einen Kurs zu setzen, der von grundlegenden strategischen Prinzipien, soliden Grundsätzen der Unternehmensarchitektur und einer auf Standards basierenden Implementierung bestimmt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-3439-3_17 43a6d483a695987251d6b9b5d658c112;de;;;6.1.;;;Durchflusszytometrie in Multicenter- und Längsschnittstudien Im Zeitalter von konsortialen Studien, „Omics“ und Datenaustausch muss die Durchflusszytometrie in Bezug auf Standardarbeitsabläufe, reduzierte Variabilität und Reproduzierbarkeit mit anderen technologischen Plattformen mithalten. Während sich Werkzeuge wie Genexpressionsplattformen als robust und reproduzierbar erwiesen haben, ist die Durchflusszytometrie bei der Entwicklung von Antikörper-Panels sowie detaillierten experimentellen Verfahren immer noch stark von Wissenschaftlern abhängig. Dies wird voraussichtlich mehrere Jahrzehnte anhalten, da die Grenze der in einer einzigen Färbung zu bewertenden Marker nicht das Erreichen des „omic“-Niveaus anderer technologischer Plattformen ermöglicht. Dieses Kapitel präsentiert eine nicht erschöpfende Reihe von multizentrischen und Längsschnittstudien und deren Integration durchflusszytometrischer Maßnahmen. Wir diskutieren auch Empfehlungen wichtiger Konsortien zur Minimierung der Variabilität in Durchflusszytometrie-Experimenten. Dieses Kapitel zielt auch darauf ab, das Bewusstsein für Faktoren zu schärfen, die in großen Studien gewonnene durchflusszytometrische Daten beeinflussen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-4499-1_5 487bf60dce7d833ba6497fda3a96a79b;de;;;6.1.;;;Tools, Anwendungsfälle und Diskussionen Dieses Kapitel bietet einen Überblick über Open-Source- und kommerzielle Software für die Prozessanalyse. Die Software für Prozessanalyse kann auf die reichhaltige Quelle von Ereignissen angewendet werden, die die Ausführung von Prozessen und Aktivitäten innerhalb von BPM-Systemen dokumentieren, um die Entscheidungsfindung in Organisationen zu unterstützen. Nach einer Zusammenfassung und einem Vergleich bestehender Open-Source- und kommerzieller Software für die Prozessanalyse, einschließlich realer Anwendungsszenarien, beginnt das Kapitel eine Diskussion und zukünftige Richtungen zu einigen der aufkommenden und heißen Trends im Bereich des Geschäftsprozessmanagements, wie z Prozessräume, Big Data für Prozesse, Crowdsourcing, Social BPM und Prozessmanagement in der Cloud.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25037-3_6 f5b33ef0a45c3322cfb2d0d69200ee75;de;;;6.1.;;;MultiDataSet: ein R-Paket zur Kapselung mehrerer Datensätze mit Anwendung auf die Omic-Datenintegration Die Reduzierung der Kosten für genomische Assays hat zu großen Mengen biomedizinischer Daten geführt. Infolgedessen führen aktuelle Studien mehrere Experimente zu denselben Themen durch. Während die Methoden und Klassen von Bioconductor, die in verschiedenen Paketen implementiert sind, einzelne Experimente verwalten, gibt es keine Standardklasse, um verschiedene Omic-Datensätze von denselben Probanden richtig zu verwalten. Darüber hinaus verwenden die meisten R/Bioconductor-Pakete, die für die Integration und Visualisierung biologischer Daten entwickelt wurden, häufig grundlegende Datenstrukturen ohne klare allgemeine Methoden, wie z. B. Untergruppen oder Auswahl von Proben.;-;-;-;https://link.springer.com/article/10.1186/s12859-016-1455-1 6e40c6b89f1577b5ab4fe776d02f68a2;de;;;6.1.;;;Das verteilte Designstudio Designstudios, die jetzt mit umfangreichen Computereinrichtungen ausgestattet sind, sind Orte, an denen Designer interagieren und Designprojekte diskutieren, die Projektdaten organisieren und strukturieren, Designdarstellungen übertragen und teilen und Designdokumentationen entwickeln und veröffentlichen. Bei all diesen Aktivitäten können Informationen in elektronischer Form gehandhabt werden. Dem traditionellen Office-Paradigma folgend, wandern große Mengen von Projektdatendateien (wie Zeichnungen, Dokumente, Tabellenkalkulationen, Datenbanken, Handbücher, Formulare, Mitteilungen, Zeitpläne und Diskussionen) im Studio von einem Computerarbeitsplatz zum anderen, wo sie auf dem Computer verarbeitet werden individuellen „Desktop“. Die Verwendung der Dateiservertechnologie beschränkt sich normalerweise auf die rudimentärsten Vorgänge zum Verschieben von Dateien von einer gemeinsam genutzten Festplatte auf eine andere. Manchmal werden dieselben Informationen unnötigerweise dupliziert, manchmal bleiben wichtige Dateien entweder auf dem PC gesperrt oder gehen irgendwo in einer kaum navigierbaren Liste von freigegebenen Verzeichnissen auf einem Dateiserver verloren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0729-3_6 4062aaf4e77a928b78c6703eb61e2958;de;;;6.1.;;;Kapitel D Perspektiven und Verbesserungsvorschläge Wie aus der vorstehenden Analyse hervorgeht, hat sich der Informationsaustausch im RFSR in den letzten Jahren zu einem wesentlichen Instrument entwickelt, um zur Politik der inneren Sicherheit der EU beizutragen. Die Zusammenarbeit der Strafverfolgungsbehörden zwischen Mitgliedstaaten, EU-Agenturen, -Einrichtungen und -Informationssystemen basiert weitgehend auf dem Austausch von (personenbezogenen) Daten und spielt im RFSR eine zunehmende Rolle. Sowohl Den Haag als auch das Stockholmer Programm fordern eine zunehmende Interoperabilität der RFSR-Datenbanken, was in einigen Fällen zu einer fragwürdigen Verbindung von Systemen, die für verschiedene Zwecke eingerichtet wurden, führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22392-1_5 9de91270b2d31d683ebc297569330288;de;;;6.1.;;;IoT im Gesundheitswesen Das Zusammenspiel von Technologie und Gesundheitswesen hat eine lange Geschichte. Die letzten Jahre haben jedoch das schnelle Wachstum und die schnelle Aneignung des Internet of Things (IoT)-Paradigmas, das Aufkommen von tragbaren Miniatur-Biosensoren und Forschungsfortschritte bei Big-Data-Techniken zur effektiven Manipulation großer, multiskaliger, multimodaler, verteilter und heterogener Daten erlebt setzt. Dieser Fortschritt hat neue Möglichkeiten für maßgeschneiderte Gesundheitsdienstleistungen geschaffen. Das IoT hat für das Gesundheitswesen einen Paradigmenwechsel signalisiert, der Vorteile wie Zugänglichkeit, Verfügbarkeit, personalisierte Inhalte und kosteneffiziente Bereitstellung mit sich bringt. Das IoT im Gesundheitswesen hat zwar die Zahl der Möglichkeiten zur Deckung des Gesundheitsbedarfs stark erhöht, es müssen jedoch noch einige Herausforderungen angegangen werden, um anpassungsfähige, geeignete, energieeffiziente und sichere Systeme zu schaffen, die den Gesundheitsbedürfnissen gerecht werden. Um diese Transformation zu ermöglichen, müssen sich die Software- und Hardware-Communitys zusammenschließen, um umfassende technologische Fortschritte zu erzielen. Dieses Kapitel befasst sich mit all diesen wichtigen Aspekten neuartiger IoT-Technologien für das intelligente Gesundheitswesen – tragbare Sensoren, Körperbereichssensoren, fortschrittliche durchdringende Gesundheitssysteme und Big-Data-Analysen. Es identifiziert neue Perspektiven und beleuchtet überzeugende Forschungsfragen und Herausforderungen wie Skalierbarkeit, Interoperabilität, Geräte-Netzwerk-Mensch-Schnittstellen und Sicherheit. Schließlich wird die Machbarkeit des IoT im Gesundheitswesen anhand einer neuartigen Fallstudie untersucht, der EKG-basierten Arrhythmie-Erkennung, basierend auf Deep-Learning- und Convolutional Neural Network (CNN)-Methoden, die über Edge-Fog-Cloud verteilt sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30367-9_11 55da63f1288d0827fae4f76f5807a81c;de;;;6.1.;;;Wasserpolitik in Alberta Dieses Kapitel konzentriert sich auf die Auswirkungen landwirtschaftlicher und industrieller Aktivitäten auf die Wasserressourcen in der Provinz Alberta und wie diese Aktivitäten die Trinkwasserqualität beeinträchtigen könnten. Dieses Kapitel bietet ein Profil des Wassersektors und der Wasserpolitik in Alberta. Wir diskutieren auch die Änderung und Umsetzung der Leitlinie der Weltgesundheitsorganisation mit dem Titel „Water Safety Plan“ in der Provinz Alberta und bewerten, inwieweit Wassersicherheitspläne wahrscheinlich sauberes Trinkwasser verbessern. Eine Risikomatrix aus dem Trinkwassersicherheitsplan wird erstellt, um den Schweregrad vorhandener oder neu auftretender chemischer, mikrobiologischer, physikalischer oder radiologischer Parameter zu bewerten. Das Hauptproblem besteht jedoch darin, dass bei der Definition der verschiedenen Arten von „Wahrscheinlichkeiten“ keine empirischen Daten zur Quantifizierung von Risikoparametern verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-15883-9_7 349ca4ae4869f567c4a47838efed71de;de;;;6.1.;;;Maßnahmen zum Aufbau von Kapazitäten durch das AFHSC-GEIS-Programm Initiativen zum Kapazitätsaufbau im Bereich der öffentlichen Gesundheit sind definiert als die Entwicklung einer Laborinfrastruktur, die Stärkung von Initiativen zur Überwachung von Krankheiten im Gastland, die Weitergabe von technischem Fachwissen und die Ausbildung von Personal. Diese Initiativen stellten einen wichtigen Beitrag des Gesundheitsüberwachungszentrums der Streitkräfte, Division of Global Emerging Infections Surveillance and Response System (AFHSC-GEIS) zur weltweiten Überwachung und Reaktion auf neu auftretende Infektionskrankheiten (EID) dar. Mit über 80 lokalen und regionalen Gesundheits-, Landwirtschafts- und Verteidigungsministerien sowie anderen Regierungsstellen und Institutionen weltweit wurden Initiativen zum Kapazitätsaufbau durchgeführt. Die Bemühungen unterstützten mindestens 52 nationale Influenzazentren und andere länderspezifische Influenza-, regionale und US-basierte EID-Referenzlabors (44 zivile, acht militärische) in 46 Ländern weltweit. Ebenso wichtig: Referenztests, Laborinfrastruktur und Geräteunterstützung wurden von Oktober 2008 bis September 2009 an über 500 Feldstandorten in 74 Ländern weltweit bereitgestellt. Diese Aktivitäten ermöglichten es den Ländern, die Meilensteine ​​der Umsetzung der Internationalen Gesundheitsvorschriften von 2005 besser zu erreichen, und ergänzten viele Initiativen von anderen US-Regierungsbehörden durchgeführt werden, wie dem US-Gesundheitsministerium, der US-Agentur für internationale Entwicklung und dem US-Außenministerium.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-11-S2-S4 f21811928792c771917bc8403a3dcbc0;de;;;6.1.;;;Design und Implementierung einer multimedialen Lehrplattform auf Basis der SOA-Architektur Der Musikunterricht spielt als wichtiger Bestandteil einer qualitativ hochwertigen Bildung eine wichtige Rolle bei der Ausbildung hochwertiger innovativer Talente im 21. Jahrhundert. Aufgrund der Abhängigkeit des Musikinstrumentenunterrichts von Musikinstrumenten ist es schwierig, den Musikinstrumentenunterricht bei bestimmten Gelegenheiten populär zu machen. Um einen besseren Instrumentenunterricht auf Basis von Multimedia-Technologie und SOA-Architektur zu erreichen, entwirft dieser Beitrag eine multimediale Lehrplattform für den Indoor-Instrumentenunterricht auf Basis von SOA. Zunächst werden aus den spezifischen Anforderungen die Eigenschaften und Anforderungen von Multimedia analysiert und die dazugehörigen Funktionen für jeden Betreiber konzipiert und implementiert. Zweitens werden mit der aktuellen Mainstream-SOA-Architektur, zentralem Management und verteiltem Deployment die effiziente Anwendung, flexible Erweiterung und komfortable Wartung des Systems realisiert. Schließlich wird eine kleine multimediale Lehrplattform aufgebaut und die Wirksamkeit der in dieser Arbeit entworfenen Lehrplattform durch den eigentlichen Test überprüft. Durch die Analyse der Leistung der Plattform wurde festgestellt, dass die in diesem Papier entworfene Lehrplattform die Schüler dazu bringen kann, ihr Wissen zu meistern, und der Verwirklichung des Musikunterrichts in Innenräumen förderlich ist.;-;-;-;https://link.springer.com/article/10.1007/s11042-020-08735-7 14bedf3ba7ed68503a31968b2e51ae07;de;;;6.1.;;;Die REstart oder STOP Antithrombotics Randomized Trial (RESTART) nach Schlaganfall aufgrund einer intrazerebralen Blutung: Statistischer Analyseplan für eine randomisierte kontrollierte Studie Bei Erwachsenen, die einen Schlaganfall aufgrund einer spontanen (nicht-traumatischen) intrazerebralen Blutung (ICH) überlebten und die vor der ICH ein antithrombotisches (dh gerinnungshemmendes oder thrombozytenaggregationshemmendes) Medikament eingenommen hatten, ist unklar, ob die Einleitung einer thrombozytenaggregationshemmenden Therapie die Risiken einer rezidivierenden ICH, schwerer hämorrhagischer Ereignisse, schwerer okklusiver vaskulärer Ereignisse oder einer Kombination aller größeren vaskulären Ereignisse im Vergleich zur Vermeidung einer Thrombozytenaggregationshemmer-Therapie.;-;-;-;https://link.springer.com/article/10.1186/s13063-019-3270-2 1aff88a5974ce39281ca5fa16ea89eb3;de;;;6.1.;;;Paradigmenwechsel bei Dateninhalten und Informatikinfrastruktur für die generalisierte konstitutive Modellierung des Materialverhaltens erforderlich Informationen zu Materialeigenschaften wie Zusammensetzung und thermophysikalische/mechanische Eigenschaften sind in der Literatur reichlich vorhanden. Oft fehlen jedoch die entsprechenden Antwortkurven, aus denen diese Daten ermittelt werden, oder sind zumindest schwer abzurufen. Weiterhin hat sich das Paradigma zum Sammeln von Materialeigenschaftsinformationen historisch auf (1) Eigenschaften für Materialvergleichs-/Auswahlzwecke und (2) Eingabeanforderungen für konventionelle Konstruktions-/Analyseverfahren konzentriert. Da jedoch nicht alle Materialien gleich oder gleich sind und auch nicht alle konstitutiven Modelle (und damit Konstruktions-/Analysemethoden) gleich sind, hat jedes Modell typischerweise seine eigenen spezifischen und oft einzigartigen erforderlichen Materialparameter, von denen einige direkt und andere indirekt messbar sind. Daher reichen Art und Umfang der routinemäßig gesammelten Materialinformationen nicht immer aus, um die aktuellen und noch weniger die zukünftigen Bedürfnisse der Materialmodellierungsgemeinschaft zu erfüllen.;-;-;-;https://link.springer.com/article/10.1557/mrs2006.230 f1ab63e27bde90007ea73d3ed81856fc;de;;;6.1.;;;Auswirkungen des institutionellen Client-Server-Geografischen Informationssystems: Ein Fall der Mzuzu Agriculture Development Division Eigenständige GIS-Anwendungen bei Mzuzu ADD machen es dem Top-Management schwer, wenn nicht sogar unmöglich, auf Daten zuzugreifen und entsprechende Entscheidungen zu treffen. Die Anwendungen erschweren den Mitarbeitern den Austausch von Geodaten, zudem kommt es zu Doppelarbeit und Inkonsistenz bei den vom Ministerium erhobenen Geodaten. Das aktuelle Setup beeinflusst die sogenannte institutionelle Herausforderung. Diese Situation entsteht dadurch, dass GIS-Experten nicht in der Lage sind, effektiv mit den Entscheidungsträgern zu kommunizieren. Dies ist auf die fehlende Verbindung oder Verfügbarkeit der GIS-Anwendungen und ihrer Daten zu den Entscheidungsträgern zurückzuführen. Institutionelle Herausforderungen sind eine der vielen Herausforderungen bei der Einführung der GIS-Nutzung. Um die oben genannten Probleme zu beseitigen oder zu reduzieren, schlägt diese Studie eine Client-Server-GIS-Anwendung vor. Eine solche Anwendung kann eine Geodateninfrastruktur auf institutioneller Ebene sein. Das Ziel dieser Forschung war es, Implikationen zu identifizieren, die sich aus der Einführung einer institutionellen GIS-Client-Server-Anwendung gegenüber eigenständigen GIS-Anwendungen ergeben können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16886-9_20 123210726ba91a47cda90839ad270cb3;de;;;6.1.;;;Accessibility-by-Design: Ein Framework für die Bereitstellung kontextabhängiger personalisierter Medieninhalte zur Neuverwendung Dieses Papier beschreibt eine Rahmenarchitektur für die automatisierte Wiederverwendung und effiziente Bereitstellung von Multimedia-Inhalten, die in CMS gespeichert sind. Es setzt speziell entworfene Vorlagen sowie Anpassungsregeln ein, die auf einer Hierarchie von Profilen basieren, um Benutzer-, Geräte- und Netzwerkanforderungen zu erfüllen, die als Einschränkungen im Anpassungsprozess aufgerufen werden. Das Nutzerprofil liefert Informationen nach dem Opt-In-Prinzip, während die Geräte- und Netzwerkprofile die betrieblichen Randbedingungen wie beispielsweise Auflösungs- und Bandbreitenbeschränkungen liefern. Die Profilhierarchie stellt sicher, dass die Anpassung die Präferenzen der Benutzer privilegiert. Im Rahmen der Anpassung haben wir die Unterstützung für die besonderen Bedürfnisse der Benutzer berücksichtigt und daher einen vorlagenbasierten Ansatz gewählt, der den Anpassungsprozess vereinfachen könnte, indem wir Barrierefreiheit durch Design in die Vorlage integrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10308-7_14 073c6f8fc58c51e681c3ae8934d30d17;de;;;6.1.;;;Big Data und Datenschutzprobleme Privacy Mit dem Aufkommen von sozialen Netzwerken, mobilen Technologien, Smartphones, Tablet-Geräten, Web 2.0, zukünftigem Semantic Web, Geolocation-Technologien und Machine-to-Machine-Kommunikation (M2M) sind wir mit einer noch nie dagewesenen Menge an Daten konfrontiert - also Big Data. Wir erleben auch sprunghafte Verbesserungen beim Data Mining und maschinellen Lerntechniken, die es ermöglichen, dass die Analyse dieser Big Data zu Ergebnissen führt, die von Einzelpersonen, Unternehmen und sogar Regierungen für eine Vielzahl von Zwecken verwendet werden können. Als Ergebnis dieser großen Veränderungen betreten wir aus Sicht der Privatsphäre und des Datenschutzes des Einzelnen Neuland. Die ordnungsgemäße Minderung der oben genannten Probleme erfordert kohärente Anstrengungen innerhalb der Bereiche Technologie und Politik, um Gesetze und Vorschriften zu erarbeiten, die die technischen Entwicklungen unterstützen, aber gleichzeitig die Datenschutz- und Datenschutzanforderungen des Einzelnen erfüllen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33299-9_3 f0e638f50aebe1a40707f46c06c5850f;de;;;6.1.;;;GIDBS: Ein Datenbanksystem für hierarchisch dargestellte Graustufenbilder Eines der wesentlichen Probleme im Zusammenhang mit den meisten Graustufen-Bildverarbeitungssystemen besteht darin, dass normalerweise eine große Menge an Bilddaten gespeichert und verarbeitet werden muss. Zur Verbesserung der Raum/Zeit-Leistung haben wir eine neue hierarchische Darstellungsmethode namens G-Quadtree/G-Octree für 2D/3D-Graustufenbilder vorgeschlagen. Um ein auf einem solchen Ansatz basierendes integriertes Graustufen-Bildverarbeitungssystem zu entwickeln, sollten einige neue Datenverwaltungstechniken verwendet werden, um die interne Datenstruktur vor Benutzern zu verbergen und die Entwicklung von G-Quadtree/G-Octree-Bildverarbeitungsdienstprogrammen zu erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-2556-7_17 9069049bd0150496b95aef57df04dc22;de;;;6.1.;;;Ein Paket schreiben Pakete sind die grundlegende Methode zum Dokumentieren, Freigeben und Verteilen von R-Code und -Daten. Unser Ziel ist es, unsere eigenen Pakete zu schreiben, und unsere Warnung ist, dass dieses Kapitel aufgrund der vielen Softwaretools, die während der Entwicklung von R-Paketen verwendet werden, besonders komplex ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-2077-1_6 03c35c636f6effd4103d531109fef1cc;de;;;6.1.;;;Die menschliche Benutzeroberfläche Was erhalten Sie, wenn Sie eine menschzentrierte Technologie in eine menschzentrierte Organisation integrieren? Die Antwort ist das Human User Interface (HUI). Freiwillige Organisationen sind fast per Definition menschzentriert. Dieses Kapitel befasst sich mit einigen der Probleme, die bei der Einführung von PC-Level-Computing in solchen Organisationen aufgetreten sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-3299-8_19 2bc035249b762c997f72e7353dba93af;de;;;6.1.;;;Kollaborative Datenanalyse für intelligente Gebäude: Chancen und Modelle Intelligente Gebäude, die mit modernsten Sensoren und Zählern ausgestattet sind, werden immer häufiger. Von diesen Geräten werden große Datenmengen gesammelt. Damit ein einzelnes Gebäude von seinen eigenen gesammelten Daten profitieren kann, muss es lange warten, um genügend Daten zu sammeln, um genaue Modelle zu erstellen, die zur Verbesserung der intelligenten Gebäudesysteme beitragen. Daher müssen mehrere Gebäude zusammenarbeiten, um den Nutzen aus den gesammelten Daten zu verstärken und die Modellbildungsprozesse zu beschleunigen. Das ist anscheinend nicht so trivial und es gibt damit verbundene Herausforderungen. In diesem Papier untersuchen wir die Bedeutung kollaborativer Datenanalysen für intelligente Gebäude, ihre Vorteile sowie derzeit mögliche Modelle zu ihrer Durchführung. Darüber hinaus präsentieren wir ein Framework zur kollaborativen Fehlererkennung und -diagnose als Beispiel für kollaborative Datenanalyse für intelligente Gebäude. Wir bieten auch eine vorläufige Analyse des Energieeffizienzvorteils eines solchen kollaborativen Rahmens für intelligente Gebäude. Das Ergebnis zeigt, dass mit kollaborativer Datenanalyse erhebliche Energieeinsparungen für intelligente Gebäude erzielt werden können.;-;-;-;https://link.springer.com/article/10.1007/s10586-017-1362-x 221e0299bde6e7240f9568532b0622f8;de;;;6.1.;;;KI und Governance Obwohl KI bereits in einer Vielzahl von Anwendungsfällen weit verbreitet ist, werden wir feststellen, dass sie in allen Branchen der Branche immer häufiger eingesetzt wird und unsere Gesellschaften beeinflusst. Rückschlüsse auf prädiktive und ML-gesteuerte Einblicke in Geschäftsprozesse können durch ein hohes Maß an autonomer Entscheidungsfindung gekennzeichnet sein, die von einigen Benutzern als unverständlich oder schwer fassbar wahrgenommen werden. Da KI-basierte Entscheidungsfindung sinnvoll und für den Menschen nachvollziehbar sein soll, kommt mit KI eine neue Dimension von Governance-Imperativen, die Transparenz, Vertrauen und Rechenschaftspflicht unter Berücksichtigung von Erklärbarkeit, Fairness und Nachvollziehbarkeit gewährleisten sollen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-6206-1_8 88f23ccaa08895cef3593ea05aa5b730;de;;;6.1.;;;Kreuzterme in den thermodynamischen Diffusionsgleichungen für Mehrkomponentenlegierungen Die kinetischen Gleichungen für die Atomflüsse in einer Mehrkomponentenlegierung werden als atomare Triebkräfte für ein zufälliges Legierungsmodell abgeleitet. In diesem Modell ist der Beitrag des Leerstellenwindeffekts zu jedem Atomfluss direkt proportional zum Leerstellenfluss. Die kinetischen Gleichungen in der gleichen Form wie die thermodynamischen Diffusionsgleichungen erlauben die;-;-;-;https://link.springer.com/article/10.1007/BF02811561 5ee6be70c31541b66c284684083156a9;de;;;6.1.;;;Konzeptualisierung der Digitalisierung und Bewahrung indigenen Wissens: Die Bedeutung von Einstellungen In diesem Beitrag diskutieren wir Faktoren, die die Digitalisierung von Kulturerberessourcen beeinflussen, und skizzieren Unterschiede bei den Herausforderungen, denen sich Gedächtnisinstitutionen in Industrie- und Entwicklungsländern gegenübersehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-70232-2_6 bb11e7543464f83e015bcc9ba054551a;de;;;6.1.;;;STEP-NC-System Mit dem rasanten Fortschritt der mit der NC-Technologie verbundenen Informationstechnologie hat sich die Fertigungsumgebung seit dem letzten Jahrzehnt stark verändert. Der Low-Level-Standard G&M-Codes wird jedoch seit über 50 Jahren als Schnittstelle zwischen CAM und CNC verwendet und gilt heute als Hindernis für eine globale, kollaborative und intelligente Fertigung. Ein neues Modell der Datenübertragung zwischen CAD/CAM-Systemen und CNC-Maschinen, bekannt als STEP-NC, wird weltweit entwickelt, um G&M-Codes zu ersetzen. In diesem Kapitel geben wir einen Überblick über STEP-NC und die dazugehörige Technologie, einschließlich Datenmodelle für STEP-NC, CNC-Systeme auf Basis von STEP-NC, nämlich STEP-konforme CNC-Systeme, zusammen mit weltweitem Forschungsstand und Zukunftsaussichten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84800-336-1_11 0b7065dffd6e789f8467b31dce854d18;de;;;6.1.;;;Anwendungen künstlicher Intelligenz in der Geologie: Eine Fallstudie mit EXPLORER Der moderne Explorationsgeologe hat mit großen Datenmengen zu tun. Dieses Papier beschreibt ein System, EXPLORER, das entwickelt wurde, um die bei der Goldexploration in Nordirland gesammelten Daten zu verwalten. Das System verwendet geologische Explorationsheuristiken und kann erweitert werden, um nach Basismetallen und Edelmetallen in vergletscherten Gebieten zu suchen. EXPLORER erstellt Berichte über jeden Quadratkilometer der Lizenz. Es verwendet eine Forward-Chaining-Inferenzstrategie, bei der die Regeln aus Lizenzdaten in einer Prolog-Datenbank ausgelöst werden, um die Berichte zu erstellen. Die Daten umfassen Informationen zu Geologie, Geomorphologie, Geophysik und empirische Daten werden sowohl für Ziel- als auch für Pfadfinderelemente analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-3542-5_7 725ec3e969314aa11c20b136df454a69;de;;;6.1.;;;Empirische Datenanalyse: Das E-Mail-Korpus Dieses Kapitel befasst sich mit der Frage nach empirischen Daten bei der Exploration primärer Unternehmenskommunikation und berichtet über die Ergebnisse der kritischen, sozio-pragmatischen, lexik-grammatischen und inhaltlich/quantitativen Analysen (u.a. Schlagworte, häufigste Begriffe und Cluster) einer E-Mail Korpus, der hauptsächlich aus den E-Mails der Vertriebsabteilungen dreier globaler IT-Konzerne zusammengestellt wurde. Insbesondere werden Führungsdiskurse und interne Machtverhältnisse sowie die Ergebnisse der Kodierung des Gesamtkorpus kritisch analysiert. Im Management-Diskurs wird auf Richtlinien sowie auf Dringlichkeit, schlechte Nachrichten und andere repräsentative Kodizes geachtet, die auf wesentliche Treiber in der internen und externen Kommunikation des Vertriebs hinweisen. Top-Keywords aus dem Korpus werden diskutiert und mit den ausgewählten Referenzkorpora verglichen.;-;-;-;https://link.springer.com/chapter/10.1057/978-1-137-55813-8_4 ec216c5e2d420fb727bc83da4bfb76f5;de;;;6.1.;;;Vertrauenswürdige Urheberrechtsbestätigung für digitale Assets und Transaktionsmechanismus basierend auf Konsortium-Blockchain Dieses Papier zielt auf die Probleme der geringen Transaktionseffizienz, des Urheberrechts digitaler Vermögenswerte und des Transaktionsgeheimnisses in traditionellen Handelsplattformen für digitale Vermögenswerte ab und schlägt auf der Grundlage der Allianzkettentechnologie einen dezentralisierten vertrauenswürdigen Mechanismus zur Urheberrechtsbestätigung und Transaktion für digitale Vermögenswerte vor, der die gemeinsame digitale Wasserzeichentechnologie in . kombiniert der Bereich der traditionellen Urheberrechtsbestätigung digitaler Assets und die übliche homomorphe Verschlüsselungstechnologie im Bereich Cloud Computing lösen das Problem des Datenschutzes der Benutzer bei der Einbettung digitaler Wasserzeichen in die Kette. Und kombiniert mit intelligenter Vertragstechnologie, um das Problem der Sicherheit und Glaubwürdigkeit digitaler Vermögenswerte bei der Bestätigung der Kette und der Transaktionen zu lösen, die Bestätigung des digitalen Urheberrechts und die Rückverfolgbarkeit von Transaktionen in der Kette zu realisieren. Schließlich beweisen experimentelle Simulationen, dass der Reformmechanismus die Urheberrechtsbestätigung von Transaktionen mit digitalen Vermögenswerten unter normalen Umständen stabil handhaben kann und im Wesentlichen die Anforderungen der Benutzer an Transaktionen mit digitalen Vermögenswerten erfüllt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-78612-0_57 dd347bb6f05fb6296249eb796cd59797;de;;;6.1.;;;Oracle Datenschutzsystem der virtuellen Datenbank Mit der Zunahme der Informationsexplosion wird der Trend zum Datenaustausch und zum Informationsaustausch allmählich offensichtlich, und der Privatsphäre wird immer mehr Aufmerksamkeit geschenkt. Eines der Hauptziele der Forschung zum Schutz der Privatsphäre von Datenbanken besteht darin, sensible Informationen, die in Datenbanken gespeichert sind, vor Rückschlüssen durch normale Datenbankbenutzer zu schützen. In diesem Beitrag wird ein auf einer Oracle-Datenbank basierendes Framework vorgeschlagen, um die formale Analyse des Datenbank-Inferenzproblems zu unterstützen. Das Framework basiert auf Assoziationsnetzwerken, die aus Ähnlichkeitsmetriken und Bayesschen Netzwerkmodellen (BNM) bestehen, und zielt darauf ab, das Problem des Datenschutzes von Datenbanken anzugehen. Zunächst wird die Ähnlichkeitsanalyse der Daten verwendet, um ähnliche Attribute zu unterscheiden und zu überprüfen. Zweitens wird die Wahrscheinlichkeitsabhängigkeit von Attributen analysiert. Blockieren und Aggregation werden verwendet, um die Zuordnung von Daten zu verhindern, und das zugehörige Netzwerk wird zur Analyse verwendet. Die Ergebnisse zeigen, dass das aufgebaute Datenbank-Privatsphärenschutzsystem in vielen Aspekten wie Umfangsreduzierung, Blockierung, Aggregation usw. realisiert werden kann und schließlich den effektiven Schutz der Datenbankprivatsphäre gewährleisten kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-3150-4_30 be4279caa03aeedc6f86ad02265df27e;de;;;6.1.;;;Ein hybrider Systemansatz zur Unterstützung digitaler Bibliotheken Eine digitale Bibliothek (DL) besteht aus einer Datenbank, die Bibliotheksinformationen enthält, und einer Benutzerschnittstelle, die ein visuelles Fenster für Benutzer bereitstellt, um in der Datenbank gespeicherte relevante Informationen zu durchsuchen. Somit kann eine abstrakte Struktur einer digitalen Bibliothek definiert werden als a;-;-;-;https://link.springer.com/article/10.1007/s007990050040 05340c7792540159959c6ce57e0e45fc;de;;;6.1.;;;Konzeption eines neuartigen Open-Source-Umweltmanagement-Informationssystemdesigns zur Bewertung der Ressourcenverfügbarkeit: Status Quo und Richtungen für die zukünftige Forschung Ressourcen für neue Technologien sind von entscheidender Bedeutung und in ihrer Verfügbarkeit begrenzt. Gründe für die eingeschränkte Verfügbarkeit sind politische Spannungen, Angebotskonzentrationen oder eingeschränkte Substitutions- und Recyclingpotenziale. Die Berücksichtigung von Informationen zur Verfügbarkeit erfordert die Abbildung dieser Informationen in betriebswirtschaftliche Informationssysteme. Wissenschaft und Praxis fehlen ganzheitliche und integrierte Lösungen, deren Einsatz die Verfügbarkeit und Bewertung nachhaltiger Entwicklungen unterstützt. Unter Berücksichtigung von Open Source Software wird ein Konzept von Umweltmanagement-Informationssystemen entwickelt, um eine nachhaltige Verfügbarkeit zu messen. Die Integration bestehender IT-Systeme und Datenquellen ermöglicht eine verbesserte Risikobewertung. Der Beitrag zeigt ein Konzept einer IT-Architektur, die als Open Source Software im Regelwerk von Umweltmanagement-Informationssystemen eingesetzt werden kann, um die Verfügbarkeit von Ressourcen und Handlungsmöglichkeiten zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07055-1_11 021b5c4814bf7a950c1b540b2f4acfe1;de;;;6.1.;;;Speicher- und Analyseinfrastruktur für Datenerfassungssysteme mit hohen Datenraten Zweck der Prozessdatenverarbeitung ist die Analyse von Prozessdaten. Diese Daten werden normalerweise mit einem Datenerfassungssystem gemessen. Mehrere Projekte verwenden verteilte Systeme, was die Steuerung von einer zentralen Instanz mit sicherem Zugriff auf die Infrastruktur notwendig macht. Speziell für mehrere Projekte sind auch sehr hohe Ressourcenanforderungen, z.B. die erzeugten Datenraten. Um den Anforderungen solcher Projekte gerecht zu werden, ist die Entwicklung eines Datenerfassungssystems notwendig. Die Hauptanforderungen sind der sichere Zugang zur Infrastruktur, der Umgang mit hohen Datenraten und die Ad-hoc-Analyse der Messdaten. Um das System skalierbar und zuverlässig zu machen, sollte es auf offenen Standards basieren. In diesem Kapitel werden bereits existierende Fernwirksoftwarepakete und Datenmanagementsysteme für die Entwicklung verteilter Datenerfassungssysteme bewertet, um die Anforderungen von Prozessdatenverarbeitungsprojekten zu erfüllen. Die Bewertung stellt fest, dass die Nutzung von Grid-Technologien die erforderlichen Funktionen bereitstellt, die das Grid bietet, z. B. Grid-Sicherheit und Zugriff auf Speicher- und Recheninfrastruktur. Die bereitgestellte Architektur verwendet das GRIDCC-Framework zur Steuerung der Detektoren, die Kommunikation mit Datenmanagementsystemen zur Handhabung der Messdatenmenge und die Kommunikation mit serviceorientierten Architekturen zur Ad-hoc-Analyse.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-5574-6_7 099462913ff5fbb7214ec9e56a099945;de;;;6.1.;;;Kapitel 2 Qualitativer methodischer Ansatz In diesem Kapitel werden die Methoden zum Sammeln und Analysieren von Daten für die HIV Prevention Trials Network (HPTN) 064-Studie erörtert. Vier Studienzentren (die Bronx, NY, Washington, DC, Raleigh/Durham, NC, und Atlanta/Decatur, GA) führten zwischen Juni 2009 und August 2010 halbstrukturierte Interviews (SSIs) und Fokusgruppen (FGs) durch, um soziale , strukturelle und kontextuelle Faktoren im Zusammenhang mit dem HIV-Risiko bei den Teilnehmern. Wir führten 120 SSIs (30 pro Standort) und 32 FGs (6–12 pro Standort) durch. SSI-Teilnehmer wurden mittels sequenzieller Stichprobenauswahl ausgewählt und Quotenstichproben wurden verwendet, um FG-Teilnehmer zu identifizieren. Alle Transkripte wurden strukturell kodiert, eine Methode, die den mit jeder Frage im SSI/FG-Leitfaden verbundenen Text identifizierte. Eine Zufallsstichprobe von Transkripten (36 [30 %] der SSIs, 16 [51 %] der FGs) wurde für die erweiterte systematische Kodierung und Analyse ausgewählt. Die Sättigung (d. h. es traten keine neuen Codes auf) wurde erreicht, sobald 90 % der Stichprobe codiert waren. Zwanzig Prozent der Transkripte waren doppelt codiert und die Intercoder-Reliabilität (ICR) wurde während der gesamten Codierung bewertet. Der endgültige ICR war ein kombinierter durchschnittlicher Kappa-Score von 0,92. Die Daten wurden mit NVivo (QSR International Zty Ltd. Version 9.0) analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-43833-7_2 b6c5704f2ae03fa8fb508f469301ccde;de;;;6.1.;;;Fallstudie Teil I: Lithium Governance in Bolivienoli Das folgende Fallstudienkapitel gibt einen Überblick über verschiedene Dimensionen der Governance des Lithiumprojekts. Zwei Aspekte sind zu berücksichtigen. Erstens die Eigentümerstruktur des Projekts und zweitens die Visionen, die mit der Lithium-Initiative verbunden sind und wie verschiedene Interessengruppen sie gestalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-27236-4_5 77d7307c50ee1a52b16ffe8ef9a2319b;de;;;6.1.;;;Kernkompetenzen der Gemeindeentwicklung Gemeindeentwicklung erfordert unzählige Kompetenzen, um einkommensschwache Gemeinden wiederzubeleben. Dieses Kapitel untersucht eine Reihe wichtiger Kompetenzen in der Gemeindeentwicklung und baut auf Bob Zdeneks Arbeitspapier auf, das im September 2013 von der Federal Reserve Bank of San Francisco mit dem Titel „Comparative Advantages: Creating Synergy in Community Development“ veröffentlicht wurde und als Grundlage für dieses Buch. Die Diskussion über Kompetenzen in der Gemeindeentwicklung ist organisiert um: Organisationsentwicklung und -management, Gemeindeengagement und öffentliche Politik, Machbarkeitsplanung, Projektentwicklung, Kreditvergabe, Immobilien- und Vermögensverwaltung, Programmmanagement, Ressourcenentwicklung, Kommunikation, Zusammenarbeit und Partnerschaft sowie Leistungsmessung und Leistungskriterien. Jede der oben aufgeführten Kompetenzkategorien hat eine Reihe von Unterkategorien, die in diesem Kapitel beschrieben werden.;-;-;-;https://link.springer.com/chapter/10.1057/978-1-137-47701-9_5 2eb1e3d76e6eaee842d64b0399947dcf;de;;;6.1.;;;Datensätze mit Geobasisdaten in ausgewählten Ländern der Europäischen Union Die Grundlage für den Aufbau einer qualitativ hochwertigen europäischen Dateninfrastruktur, die auf unterschiedlichen nationalen Dateninfrastrukturen basiert, sind gute Geobasisdaten einzelner europäischer Länder. Zweck der Nutzung dieser Infrastruktur ist insbesondere die europäische Umweltpolitik. Die erwartete Qualität erfordert geeignete Methoden der Datenerhebung, ihres Inhalts und ihrer Verwaltung. Auf nationaler Ebene ist der Bedarf an aktuellen Daten mit garantierter Qualität für die Entscheidungsfindung in der öffentlichen Verwaltung viel wichtiger. Geografische Daten, die solche Anforderungen erfüllen, sollten sich durch einen hohen Detaillierungsgrad, Informationen über die Eigentumsverhältnisse oder eine höhere Genauigkeit auszeichnen. Aktivitäten in passiver Infrastruktur, Verkehrsinfrastruktur, Raumplanung und anderen Dienstleistungen erfordern solche Geodaten ausdrücklich. Ziel dieser Arbeit ist es, den Inhalt nationaler Datensätze, den Detaillierungsgrad und die Qualität, die Erhebungsmethode und das Datenmanagement in den Niederlanden, im Vereinigten Königreich und in der Tschechischen Republik nach ausgewählten Kriterien zu vergleichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-45123-7_23 f12cccc9e81de50bd2fe24ea36ac82dc;de;;;6.1.;;;Politiken und Institutionen, die Länderinnovationen untermauern: Ergebnisse des Innovationskapazitätsindex Unser Verständnis davon, was den nationalen Wohlstand antreibt, hat sich im Laufe der Zeit weiterentwickelt. Natürliche Ressourcen, Bevölkerungswachstum, Industrialisierung, Geographie, Klima und Militär könnten in der Vergangenheit eine Rolle gespielt haben. Wir wissen auch, dass sich die relative Bedeutung dieser Triebkräfte im Laufe der Zeit verschoben hat und dass in den letzten Jahrzehnten der Kohärenz und Qualität der Politiken und der Entwicklung unterstützender Institutionen mehr Bedeutung beigemessen wurde. Ein relativer Neuling in dieser Debatte – die als vielleicht einer der wichtigsten modernen Motoren für Produktivität und Wachstum identifiziert wurde – war die Innovationskraft eines Landes, d. h. seiner Industrien, Forscher, Entwickler, kreativen Denker, aufgeklärten Politiker, Manager und Cluster.;-;-;-;https://link.springer.com/chapter/10.1057/9780230299269_1 9ef92ee4f19e2d45c2c3bdf69286a15c;de;;;6.1.;;;Dynamische Metamodell-Erweiterungsmodule zur Unterstützung des adaptiven Datenmanagements Datenbanken werden heute in einer Vielzahl von Umgebungen verwendet, was zu Anforderungen führt, die sich von Anwendung zu Anwendung erheblich unterscheiden können, bis hin zu Konflikten. Folglich gibt es kein Datenbankprodukt, das alle Formen von Informationssystemen unterstützen kann, von Unternehmensanwendungen bis hin zu persönlichen Informationssystemen, die auf mobilen Geräten ausgeführt werden. Darüber hinaus haben Domänen wie das Web die Notwendigkeit gezeigt, mit sich schnell entwickelnden Anforderungen fertig zu werden. Wir definieren dynamische Metamodell-Erweiterungsmodule, die ein adaptives Datenmanagement unterstützen, indem wir ein System bei sich ändernden Anforderungen weiterentwickeln und zeigen, wie diese Technik angewendet wurde, um spezifische Anwendungseinstellungen zu berücksichtigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13094-6_29 679f2d448d09fa4565dbe0308cf701d4;de;;;6.1.;;;DECIDE: Eine neue Big-Data-Entscheidungsmethodik für eine bessere Daten-Governance Big-Data-Technologien und -Ansätze haben einen wichtigen Einfluss auf die Organisation und Governance des Unternehmens. Bei einem so hohen Volumen an strukturierten und unstrukturierten Daten, Echtzeit- und Mutualisierungsanforderungen ist es ziemlich kompliziert, eine hohe Datenqualität durch Einhaltung der Governance-Regeln und Best Practices zu gewährleisten. Darüber hinaus müssen neue Teamrollen und -organisationen angewendet werden, um sich an die neuen Entscheidungszwänge von Big Data anzupassen. In dieser Richtung präsentieren wir in diesem Beitrag einen Überblick über DECIDE, eine entscheidungsorientierte Big-Data-Methodik. Wir konzentrieren uns insbesondere auf die Teammitarbeiter, Datenqualität, Speicherung und Governance-Grundlagen, Regeln und Schritte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63396-7_5 f9e1f22e4c294cafbcf964a2d769bf24;de;;;6.1.;;;Industrie 4.0 neu entdecken: Eine neue Definition Die wachsende Bedeutung von Big Data in der modernen Industrie wird zu einer ernsthaften Herausforderung. Die Fertigung speichert Daten mehr als jeder andere Sektor. Daher wird Industrie 4.0 eingeführt. Dieses Phänomen und die meisten seiner Grundlagentechnologien sind jedoch nicht genau definiert und werden noch nicht erforscht. Es herrscht eine große Verwirrung, um zu verstehen, was Industrie 4.0 ist. Folglich schließt diese Studie diese Lücke, indem sie hauptsächlich die bestehenden Definitionen von Industrie 4.0 diskutiert und eine neue Definition vorschlägt, die ein Verständnis für das Thema für Akademiker und Industrie schaffen soll. Darüber hinaus werden einige der wichtigsten Herausforderungen bei der Umsetzung der Industrie 4.0-Strategie erörtert, darunter Bedenken hinsichtlich Datensicherheit und Datenschutz, Technologiestandardisierung, mangelnde Erfahrung, Implementierungskosten, Stabilität und Zuverlässigkeit. Darüber hinaus untersucht die Studie die Hauptvorteile der Industrie 4.0-Implementierung, darunter ein besseres Gesundheits- und Sicherheitssystem der Belegschaft, reduzierte Arbeitskosten, höhere Produktivität, effizientere Lieferketten, Big-Data-Management und damit höhere Umsätze und Gewinne.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-01174-1_88 b1887d5f800b266699b87cb076591e58;de;;;6.1.;;;Teilen von Ressourcen in einem P2P-Netzwerk mit künstlichen Ameisen Da Netzwerke wachsen, werden jeden Tag mehr und mehr Informationen verfügbar. Trotz des Vorhandenseins von Software, die die Kommunikation und die gemeinsame Nutzung von Inhalten ermöglicht, werden sie nicht immer von Personen innerhalb von Netzwerken geteilt. Wir präsentieren hier eine Architektur, die Menschen dabei helfen soll, Informationen auszutauschen und Mitarbeiter innerhalb einer Organisation zu finden. Es ist Teil unseres PIAF-Frameworks, einem intelligenten Agentensystem zur Entwicklung von Empfehlungs- und Personalisierungssoftware. Der Hauptbeitrag dieses Papiers ist die Einführung von Prinzipien der Stigmergie und künstlichen Ameisen, um Datenflüsse in einem sozialen Netzwerk zu modellieren.;-;-;-;https://link.springer.com/article/10.1007/s10852-007-9062-9 045eb3a8ccf5c7c67b6642a063c5c1a1;de;;;6.1.;;;Risikobewertung zu Chinas landwirtschaftlicher Dürrekatastrophe in der Kreiseinheit China ist aufgrund des sich ändernden Klimas von Dürrekatastrophen bedroht. Die Risikoanalyse ist ein geeigneter Ansatz, um Ex-ante-Maßnahmen zu entwerfen, die die Auswirkungen von Dürren auf die landwirtschaftliche Produktion antizipieren können. In diesem Artikel wurde mit Unterstützung historischer Dürrekatastrophendaten aus 583 agrarmeteorologischen Beobachtungen (1991–2009) eine Risikoanalysemethode basierend auf der Informationsdiffusionstheorie angewendet, um ein neues Dürrerisikoanalysemodell und das Risiko der chinesischen Landwirtschaft zu erstellen Dürrekatastrophe wurde auf eine höhere räumliche Auflösung der Kreiseinheit ausgewertet. Die Ergebnisse zeigen, dass in mehr als 300 Bezirken Chinas die Risikowahrscheinlichkeit zweijährlich oder jährlich lag, wenn der Drought Affected Index (DAI) über 5 % lag. Als der DAI bis zu 40 % betrug, waren jährlich oder alle 5 Jahre mehr als 100 Landkreise anfällig für Dürrekatastrophen. Dies zeigte, dass die Auswirkungen der Dürrekatastrophe auf Chinas Landwirtschaft, ob in Häufigkeit oder Intensität, groß waren. Mit dem unterschiedlichen Niveau des DAI zeigte Chinas landwirtschaftliches Dürrerisikomuster variable Mustermerkmale. Als der DAI niedrig war, zeigte die Verteilung des landwirtschaftlichen Dürrerisikos in China das Ost-West-Differenzierungsmuster, und ein hohes Risiko lag hauptsächlich im Osten, ein niedriges Risiko hauptsächlich im Westen. Auf der anderen Seite, wenn der DAI hoch war, schien die Verteilung des Bezirksrisikos in der Mitte ein Muster von hoch zu sein, und die nördlichen Gebiete, die höher als der Süden waren, nahmen allmählich von Südwesten nach Nordosten zu. Das Dürrerisiko stellt eine klare Zonendifferenzierung dar, die sich aus gestufter Topographie, unterschiedlichen Niederschlägen und gefährdeten Körpern ergeben kann. Die Ausbreitung von Gebieten mit hohem Dürrerisiko im Norden kann mit dem Südostmonsun und der ökologischen Degradation im Norden von Ecotone zusammenhängen.;-;-;-;https://link.springer.com/article/10.1007/s11069-011-0066-4 e84c1ee2436e74be5adb5e530f6d73d1;de;;;6.1.;;;Gruppen- und Einzelzeitmanagement-Tools: Was Sie bekommen, ist nicht das, was Sie brauchen In einigen Studien zu Tagebüchern und Terminplanungssystemen wurde untersucht, wie Einzelpersonen Tagebücher verwenden, um Anforderungen an computergestützte Zeitmanagementinstrumente vorzuschlagen. Andere haben sich auf die Erfolgskriterien von Gruppenplanungssystemen konzentriert. Nur wenige haben darauf geachtet, wie Menschen eine Reihe von Werkzeugen als Ensemble verwenden. Diese Interviewstudie berichtet, wie Benutzer Papier, Personal Digital Assistants (PDAs) und ein Gruppenplanungssystem für ihr Zeitmanagement nutzen. Wie bei früheren Studien finden wir viele Unzulänglichkeiten verschiedener Technologien, aber die Untersuchung des Ensembles und nicht der einzelnen Tools führt zu einem anderen Schluss: Anstatt elektronische Zeitmanagementtools zu entwickeln, die bestehende papierbasierte Tools ersetzen, sollten wir darauf abzielen, zu verstehen die relativen Stärken und Schwächen jeder Technologie und streben eine nahtlosere Integration zwischen den Tools an. Insbesondere die Anforderungen an die Terminplanung und die Anforderungen an ein reaktionsschnelleres, flüssigeres Zeitmanagement kollidieren in einer Weise, die verschiedene Arten von Unterstützung erfordert.;-;-;-;https://link.springer.com/article/10.1007/PL00000020 d5177c06f7ed997c1b79e407994f8d5f;de;;;6.1.;;;Blockchains-Technologieanalyse: Anwendungen, aktuelle Trends und zukünftige Richtungen – ein Überblick Einer der vielversprechendsten technischen Trends, der die Welt im Sturm erobert hat, ist die Blockchain-Technologie, die der Bitcoin zugrunde liegt. Es handelt sich um eine verteilte, dezentrale und innovative Technologie, von der prognostiziert wird, dass sie einen großen Wandel in der Welt bewirken wird. Diese Technologie ist analog zum Internet mit eingebauter Robustheit. Obwohl es derzeit eines der am besten erforschten Gebiete im Bereich der Informationstechnologie ist, hat es seine eigenen Grenzen. Dieses Papier diskutiert die Blockchain-Technologie von Grund auf, beginnend mit der allgemeinen Einführung, gefolgt von der Präsentation eines umfassenden Einblicks in Blockchain-Anwendungen, die aktuellen Forschungstrends, Grenzen und mögliche zukünftige Richtungen. Das Papier kommt zu dem Schluss, dass Blockchain-Netzwerke wahrscheinlich die Perspektiven, Perspektiven und Nutzungstechniken der Informationstechnologiebranche in Zukunft verändern werden, indem sie das World Wide Web dezentralisieren und das traditionelle Geschäft aufgeben. Darüber hinaus wird die Verschmelzung der Blockchain-Technologie mit IoT und Data Science neue Horizonte für Forschung und Entwicklung in der Tech-Welt eröffnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3284-9_47 0ec0d2673c0c674bd145a3993b18df08;de;;;6.1.;;;Zeitlicher Kontext-Manager Der zeitliche Datenbankansatz ist einer der wichtigsten Bereiche der Datenverarbeitung, der grundlegende Teil ist die genaue Zeitverwaltung, Änderungen und Fortschrittskontrolle im Laufe der Zeit. Herkömmliche Datenbanken unterstützen kein Zeitmanagement, historische Daten können nur teilweise durch schwierige und zeitraubende Transformationen verarbeitet werden. Das Prinzip auf Objektebene verwendet Zustandsgranularität, sodass der gesamte Zustand aktualisiert wird, wenn ein Attributwert geändert wird. Dieser Ansatz kann unangemessen sein, wenn die Häufigkeit und Granularität der Änderungen nicht gleich sind und sogar zeitlich variieren. Dieses Papier befasst sich mit der temporalen Architektur auf Objektebene und Attributebene. Normalerweise werden Daten geteilt, jedoch sollten nicht alle Daten für alle Benutzer zugänglich sein, und daher wird das Konzept der Indexdefinition unter Verwendung von Kontexten vorgeschlagen. Aus Effizienzgründen werden Indizes mittels Pointer-Mapping umstrukturiert, hybride Kontextbäume definiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-46535-7_14 0e9068a5f399b144f40777a081b9d962;de;;;6.1.;;;Bewertung der organisatorischen Fähigkeit zur Datennutzung – ein Readiness-Modell im Kontext von Industrie 4.0 Der verstärkte Einsatz digitaler Elemente und Computerassistenz in Industrieunternehmen führt zu einer alle Unternehmensebenen und -bereiche umfassenden Datenerfassung. In der Folge sehen sich produzierende Unternehmen mit großen Mengen an gesammelten Daten aus verschiedenen Quellen und in verschiedenen Formaten konfrontiert. Heute werden diese Daten als Ressource betrachtet, vergleichbar mit Material oder Maschinen. Daher wird die Fähigkeit, interne und externe Daten effektiv zu sammeln und zu nutzen, ein immer wichtigerer Faktor für den wirtschaftlichen Erfolg.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-31343-2_21 291cd51d00af3ae8b44fee5890b25f3c;de;;;6.1.;;;Vertrauen in Informationsaustauschsysteme zum Schutz kritischer Infrastrukturen verwalten In Nordamerika und im asiatisch-pazifischen Raum entwickeln Unternehmen des Privatsektors, gemeinnützige Organisationen und Regierungen Partnerschaften zum Schutz nationaler kritischer Infrastrukturen wie Elektrizität, Energie, Finanzdienstleistungen, Gesundheitswesen, Informationstechnologie, Telekommunikation, Transport und Wassersysteme. In diesem Papier wird der Betrieb von Informationsaustausch- und Analysezentren (ISACs) in den Vereinigten Staaten erörtert, vertrauenswürdigen Informationsaustauschsystemen, die Warnungen, Schwachstellen und Best Practices kommunizieren und eine koordinierte Reaktion auf Vorfälle in kritischen Infrastruktursektoren sicherstellen. Es beschreibt operative und politische Anforderungen und Probleme, die vom Council of Information Sharing and Analysis Centers (ISAC Council) für den erfolgreichen und vertrauenswürdigen Einsatz solcher Informationsaustauschsysteme identifiziert wurden, einschließlich der operativen Beziehung von ISACs zu US-Regierungssystemen. Außerdem werden Sicherheits- und Datenschutzfragen erörtert, die diese Systeme angehen müssen, um eine breite Akzeptanz und Wirksamkeit zu gewährleisten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-84984-7_27 d698732db71f6e36b19eff6a5ae63293;de;;;6.1.;;;Integriertes Daten- und Aufgabenmanagement für wissenschaftliche Anwendungen Mehrere aufkommende Anwendungsbereiche erfordern eine intelligente Verwaltung verteilter Daten und Aufgaben, die Ausführungseinheiten für die Sammlung von Prozessoren oder Prozessorgruppen kapseln. Dieses Papier beschreibt eine Integration von Daten- und Aufgabenparallelität, um die Anforderungen solcher Anwendungen im Kontext des Global Array (GA)-Programmiermodells zu erfüllen. GA bietet Programmierschnittstellen zum Verwalten gemeinsam genutzter Arrays basierend auf nicht partitionierten Programmiermodellkonzepten für den globalen Adressraum. Die Kompatibilität mit MPI ermöglicht es dem wissenschaftlichen Programmierer, von den Leistungs- und Produktivitätsvorteilen dieser High-Level-Programmierungsabstraktionen unter Verwendung von Standardprogrammiersprachen und -Compilern zu profitieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69384-0_6 25fdc530d68adca35eac9b5dfa2e3b08;de;;;6.1.;;;Zur Modellierung der Datenvariabilität in Softwareproduktlinien In diesem Papier stellen wir einen Ansatz zur Modellierung der Datenvariabilität als Teil des gesamten Modellierungsansatzes für Softwareproduktlinien vor. Die Modellierung der Datenvariabilität in Softwareproduktlinien ermöglicht die Anpassung der Daten an die Variabilität eines Produkts. Zu diesem Zweck haben wir unsere Feature-Assembly-Modellierungstechnik um das Konzept von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21759-3_33 1a3c388c181443ec01e9443c3619d56d;de;;;6.1.;;;Datenqualität und das Internet der Dinge Das Internet der Dinge (IoT) treibt den technologischen Wandel und die Entwicklung neuer Produkte und Dienstleistungen voran, die stark von der Qualität der von IoT-Geräten gesammelten Daten abhängen. Es gibt eine große Menge an Forschung zum Datenqualitätsmanagement und zur Verbesserung im IoT, jedoch ist bis heute kein systematischer Überblick über die Datenqualitätsmessung im IoT verfügbar. Dieser Beitrag präsentiert eine systematische Literaturübersicht (SLR) zur Datenqualität im IoT von der Entstehung des Begriffs IoT in den Jahren 1999 bis 2018. Wir haben 45 empirische Studien gesichtet und analysiert, um Forschungsthemen zur Datenqualität im IoT zu identifizieren. Basierend auf dieser Analyse haben wir die Verbindungen zwischen Datenqualitätsdimensionen, Manifestationen von Datenqualitätsproblemen und Methoden zur Messung der Datenqualität hergestellt. Die Ergebnisse dieses SLR schlagen neue Forschungsbereiche für weitere Untersuchungen vor und identifizieren Implikationen für Praktiker bei der Definition und Messung der Datenqualität im IoT.;-;-;-;https://link.springer.com/article/10.1007/s00607-019-00746-z b6bf323f603be8e79abb21346edcee8f;de;;;6.1.;;;Ein ausfallsicheres lokales Kommunikationssystem ohne Abhängigkeit von der Internetverbindung Derzeit sind Netzwerke für das Leben der Menschen unverzichtbar und haben sich als wichtige Informationsinfrastruktur weit verbreitet. Viele Menschen nutzen Netzwerke, um mit anderen in Kontakt zu treten, beispielsweise über Telefonanrufe, E-Mails und soziale Netzwerkdienste (SNS). Daher kann ein Kommunikationsausfall, der durch eine Beschädigung von Netzwerksystemen oder eine Netzwerküberlastung verursacht werden kann, wenn viele Personen im Notfall gleichzeitig versuchen, das Netzwerk zu nutzen, während einer Katastrophe Angst oder Verlegenheit hervorrufen. Daher zielen wir in dieser Forschung darauf ab, ein Informationskommunikationssystem zu konstruieren, das bei großen Katastrophen zwischen Subnetzen nützlich ist, die in Notzeiten unter Verwendung dieser Umgebung gesammelt werden. Insbesondere mit dem Fokus auf das Chat-System per P2P-Kommunikation haben wir eine Kommunikationsinfrastruktur entwickelt, die auch ohne Internet kommuniziert, und eine darauf platzierte Anwendung entwickelt. Wir zeigen auch die Nützlichkeit des Systems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-19063-7_1 59b0a02e6bd49ba20ffde3fbb2f59828;de;;;6.1.;;;Grid-Technologien für die Krebsforschung im ACGT-Projekt Das ACGT-Projekt konzentriert sich auf den Bereich der Krebsforschung mit dem ultimativen Ziel, eine integrierte Grid-fähige Plattform zu entwerfen, zu entwickeln und zu validieren, die postgenomische, multizentrische klinische Studien zu Krebs unterstützt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-0046-3_8 99fcb18a03c7e1532052220a6111c7ae;de;;;6.1.;;;VO-Aktivitäten am Harvard-Smithsonian CfA Dieser Artikel fasst die VO-Aktivitäten am Harvard-Smithsonian Center for Astrophysics (CfA) zusammen. Cfa verfügt über Expertise, die praktisch alle Zweige der beobachtenden Astronomie und der astrophysikalischen Forschung sowie des Daten- und Informationsmanagements abdeckt (das Chandra X-ray Center - CXC und das Astrophysical Data System - ADS). Bei CfA haben wir eine führende Rolle im Team des US National Virtual Observatory (NVO) für die Entwicklung des/der VO-Datenmodell(s) in Zusammenarbeit mit dem European Astrophysical Virtual Observatory (AVO). Zu diesem Zweck validieren wir unser Design mit einem lokalen Prototyp, der die CfA-Datenarchive zusammenführen wird, beginnend mit den Röntgen- (Chandra) und optischen (Telescope Data Center - TDC) Archiven.;-;-;-;https://link.springer.com/chapter/10.1007/10857598_12 105f4cbe67f81f07e5f7a06ef9c43ed6;de;;;6.1.;;;Big Data Computing und HPC im Vergleich: Von einem parallelen Programmiermodell zur Clusterarchitektur Mit dem rasanten Wachstum von künstlicher Intelligenz (KI), dem Internet der Dinge (IoT) und Big Data stellen aufkommende Anwendungen, die Stapel mit verschiedenen Techniken kreuzen, neue Herausforderungen an parallele Computersysteme. Diese Cross-Stack-Funktionalitäten erfordern, dass ein System mehrere Eigenschaften besitzt, wie z. B. die Fähigkeit, Daten mit hohem Durchsatz und geringer Latenz zu verarbeiten, die Fähigkeit, iterative und inkrementelle Berechnungen durchzuführen, transparente Fehlertoleranz und die Fähigkeit, heterogene Aufgaben auszuführen, die sich weiterentwickeln dynamisch. High Performance Computing (HPC) und Big Data Computing als zwei Kategorien von Parallel-Computing-Architekturen sind jedoch nicht in der Lage, all diese Anforderungen zu erfüllen. Daher untersuchen wir durch eine vergleichende Analyse von HPC und Big Data Computing aus der Perspektive der parallelen Programmiermodellschicht, Middlewareschicht und Infrastrukturschicht die Entwurfsprinzipien der beiden Architekturen und diskutieren eine konvergente Architektur, um die oben genannten Herausforderungen anzugehen.;-;-;-;https://link.springer.com/article/10.1007/s10766-021-00717-y 1d4a5609679a20bbb9da36b5d34c6622;de;;;6.1.;;;Volumenerhaltende Wirksamkeit von Knochenersatzmaterial bei der Eingliederung einer Oberkiefer-Sofort-Totalprothese: Studienprotokoll für die randomisierte kontrollierte Studie PANORAMIX Der Knochenerhalt ist ein wesentliches Thema im Zusammenhang mit der letzten Zahnextraktion und der vollständigen Bezahnung. Die beabsichtigte Behandlung, ob Totalprothese oder Implantatinsertion, wird durch einen voluminösen Restkamm erleichtert. Die Knochenresorption nach mehreren Extraktionen wurde nicht so gut untersucht wie die Knochenresorption, die nach der Extraktion eines einzelnen Zahns auftritt. Jüngste Fortschritte bei Knochenersatzmaterialien haben dieses Problem wiederbelebt. Der Zweck dieser Studie besteht darin, das Interesse an der Verwendung von Knochenersatzmaterial zur Füllung der Alveole nach der letzten Zahnextraktion bei einem sofortigen Totalprothesenverfahren im Oberkiefer im Vergleich zum konventionellen Protokoll ohne Alveolenfüllung zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s13063-016-1380-7 5ac6a4d3fee70729101d238491461c51;de;;;6.1.;;;Service-Optimierung In der sozialistischen Marktwirtschaft ist das Anbieten öffentlicher Dienstleistungen ein wichtiger Aspekt der umfassenden und ordnungsgemäßen Wahrnehmung staatlicher Aufgaben. Auf der dritten Plenartagung des 18. Nationalkongresses der KPCh wurde vorgeschlagen, dass die Regierung das Angebot und den Einkauf verschiedener öffentlicher Dienstleistungen stärken sollte.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4011-0_4 62a32b5cfcc2b362aaf407979cc20b2a;de;;;6.1.;;;Datenbankansatz für das Management multimedialer Informationen Heute befinden wir uns in einer Informationsflut, da Computer und Kommunikation mehr Informationen verfügbar machen als je zuvor. Hypermedia-, Multimedia- und Datenbanktechnologien sind leistungsstarke Werkzeuge, die den Zugang und die Verwaltung von Informationen erleichtern. In diesem Beitrag untersuchen wir die Rolle von Datenbanksystemen bei der Verwaltung von Multimediadaten. Datenbanksysteme müssen mehr tun, als ein Dokumentenmodell oder binäre große Objekte bereitzustellen, um Multimedia-Datenbanksysteme zu implementieren. Sie müssen die Rolle von Medienservern übernehmen, bei denen es sich um Erweiterungen herkömmlicher Dateiserver mit isochroner Multimedia-Datenbereitstellungsfähigkeiten handelt. Um dies zu unterstützen, schlagen wir eine neuartige temporale Abfrageskript-Methodik vor, um das Datenbanksystem mit Informationen über zukünftige Anfragen zu versorgen. Das Datenbanksystem kann diese Informationen verwenden, um den Abruf und die Lieferung von Multimedia-Streams zu optimieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0463-0_2 3256ae9f2c794249655e55a690b5adc2;de;;;6.1.;;;Forschung zur Anwendung von Data-Mining-Technologie in Smart Transportation Der Grad der Automobilisierung in China nimmt von Jahr zu Jahr zu, und der Druck des Stadtverkehrs nimmt von Tag zu Tag zu, was viele Unannehmlichkeiten für das tägliche Reisen der Menschen mit sich bringt. Intelligenter Verkehr auf der Grundlage von Big Data kann die Aktualität und Genauigkeit der Erfassung von Verkehrsinformationen verbessern, sein diversifizierter Aufbau bietet das Verkehrsdatennetz Voraussetzungen für den Bau intelligenter Verkehrsmittel, und der Einsatz von Big Data-Technologie ist zum Schlüssel zur Verbesserung des städtischen Verkehrsumfelds geworden . Dieser Artikel erläutert den Zusammenhang zwischen Big Data-Technologie und intelligentem Verkehr, analysiert die Vorteile der Big-Data-Technologie, zeigt die Veränderungen, die Big Data im Verkehr mit sich bringt, und erforscht die Anwendung von Big Data im Bereich des intelligenten Verkehrs.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-69999-4_39 356c866e38f6d404574943084dc715dc;de;;;6.1.;;;Embedded Systems Security für Cyber-Physical Systems Eingebettete Systeme sind im heutigen technologischen Zeitalter zu einer Kernkomponente geworden. Eingebettete Systeme sind eine Kombination aus Hardware und Software, die speziell für eine bestimmte Aufgabe entwickelt wurde. Sie können viele gängige Systeme steuern, die heute verwendet werden und in verschiedenen Bereichen wie Transport, Gesundheitswesen, Kommunikation und vielen mehr eingesetzt werden. Eingebettete Systeme haben auch über das Internet funktionierende Funktionen erhalten, und dies wird oft als Cyber-Physical Systems (CPS) bezeichnet. Dieses Kapitel zielt darauf ab, die Wechselbeziehungen zwischen eingebetteten Systemen und CPS zu untersuchen. Es untersucht auch die wichtigsten Sicherheitsbereiche in beiden Bereichen und hebt einige Herausforderungen und Lücken in diesen beiden Bereichen in Bezug auf ihre Komplexität, Kompromisse für das effiziente Funktionieren solcher Systeme und Vertrauens- und Reputationsansatz hervor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-75880-0_6 3ec1fe9212c2e24224621de047d5843c;de;;;6.1.;;;Bau einer Big-Data-Verarbeitungsplattform für die intelligente Landwirtschaft Agrardaten wachsen geometrisch und entsprechen den Eigenschaften von Big Data aufgrund der Agrarinformatisierung. Angesichts einiger Merkmale der Landwirtschaft selbst, wie z. B. vielfältiger Bodenarten, komplexer Kulturpflanzensorten und der Beziehung und des Einflusses zwischen Dünger, Wasser und Klima, machen die oben Genannten darüber hinaus die Datenbank und die Wissensbasis über sie groß, multi- dimensional, dynamisch, unvollständig und unsicher. Der Einsatz von Big-Data-Verarbeitungsmethoden kann potenzielle Korrelationen und Regeln extrahieren und ausgraben, die bei der Erkundung landwirtschaftlicher Informationen helfen. Dieser Artikel entwirft und realisiert den Prozess des Aufbaus einer Verarbeitungsplattform für intelligente landwirtschaftliche Big Data basierend auf Hadoop, die auf die Merkmale der Landwirtschaft und den Datenforschungsstand von landwirtschaftlichen Big Data aus dem In- und Ausland abzielt, mit dem Ziel, die moderne landwirtschaftliche Effizienz in einem all- um Weg.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4572-0_173 729183610f9c82f2fed7a50718c7bd1b;de;;;6.1.;;;Auswirkungen von Freigabealgorithmen für das Cloud-Service-Management In diesem Beitrag wird eine Klassifikation von Sharing-Algorithmen vorgestellt, die für das sichere Dienstmanagement im Cloud Computing bestimmt sind. Insbesondere wird ein Einfluss von Sharing-Prozessen in Serviceprotokollen beschrieben, die in der Cloud realisiert werden. Service-Management-Verfahren können auf verschiedenen Ebenen eingesetzt werden, sodass die Auswirkungen von Service-Management-Prozessen auf allen Ebenen analysiert werden. Außerdem werden die Auswirkungen von Dienstmanagement- und Cloud-Datenaustauschprotokollen auf Entscheidungsprozesse in Management-Unterstützungssystemen unter Verwendung linguistischer und biometrischer Schwellenwertschemata vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-33506-9_37 a62550e322ee68fb9461b63ca79a6150;de;;;6.1.;;;Elektronische Patientenakten in der Zahnheilkunde: Klinische Herausforderungen und ethische Fragen Heutzutage erfreuen sich elektronische Patientenakten (EHRs) einer breiten Akzeptanz als optimale Wahl für die Verwaltung von Gesundheitsinformationen von Patienten (PHI). EHRs bieten mehrere deutliche Vorteile gegenüber der Verwendung von Papierunterlagen oder einer Kombination aus elektronischen und gedruckten Optionen. Die Möglichkeit, den Komfort von Computer- und Softwarefunktionen mit großen PHI-Mengen zu verbinden, die für alle Patienten verwaltet werden müssen, die von einer Vielzahl von Angehörigen der Gesundheitsberufe, einschließlich Zahnärzten, behandelt werden, macht die Verbindung von elektronischem Datenmanagement mit der Patientenakte zu einem logische Wahl. Der Einsatz von EHRs in Krankenhäusern, Institutionen, Kliniken und Privatpraxen birgt jedoch auch viele klinische Herausforderungen sowie das Potenzial für einen Verstoß gegen die ethische Patientenversorgung. In diesem Kapitel werden die Auswirkungen der Einbeziehung des Computers in den Bereich der Patientenbehandlung und seine Auswirkungen auf die Arzt-Patienten-Beziehung, den Datenschutz und die Sicherheit von PHI, ethische Fragen und klinische Herausforderungen, die Verwendung von EHRs für die Forschung und Entwicklung von Cloud-basierten EHRs, sowie die Zukunft dieser Technologie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08973-7_1 5f0e035801f2fca8392c17ec76406ed8;de;;;6.1.;;;E-Learning-Standards für Content Management Dieses Kapitel zeigt, dass Standardisierung ein sehr wichtiges Thema im E-Learning-Kontext ist. In den letzten zehn Jahren sind viele E-Learning-Systeme und -Ressourcen entstanden. Dabei wurden oft sowohl wirtschaftliche als auch technische Probleme aufgrund fehlender Standards bedeutsam. Wirtschaftliche Gründe (z. B. hohe Kosten für die Herstellung von Lernmaterialien) erfordern oft die Wiederverwendbarkeit von Lernressourcen. Dies wiederum verlangt sofort nach technischen Aspekten wie Interoperabilität zwischen Systemen verschiedener Anbieter und Auffindbarkeit von Lerninhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-6959-0_8 a6d9f03acc8048bd658e6947a0a31c89;de;;;6.1.;;;Scale-up der PrEP integriert in HIV-Kliniken des öffentlichen Gesundheitswesens: ein Protokoll für einen Stepped-Cluster-randomisierten Rollout in Kenia Die antiretrovirale Therapie (ART) für HIV-Infizierte und die Präexpositionsprophylaxe (PrEP) für Nicht-Infizierte sind außerordentlich wirksame Strategien der HIV-Prävention. In Afrika, der Region mit der höchsten HIV-Belastung, wird die HIV-Behandlung hauptsächlich über öffentliche HIV-Kliniken durchgeführt, die eine bestehende Plattform bieten, um die PrEP-Verabreichung zu integrieren und die ART- und PrEP-Synergien zu maximieren. Um diesen integrierten Ansatz erfolgreich skalieren zu können, ist jedoch eine wissenschaftliche Evaluierung der Implementierung im öffentlichen Gesundheitswesen erforderlich.;-;-;-;https://link.springer.com/article/10.1186/s13012-018-0809-7 3b6a712be551e285a1c400fbc1aa0e61;de;;;6.1.;;;Energiemanagementsystem zur Analyse und Berichterstattung im Advanced Metering Ein Smart Meter ist ein Gerät, das verwendet wird, um die Verbrauchsbedarfsdaten von Haushaltsgeräten zu sammeln. Das Energiemanagementsystem zur Analyse und Berichterstattung ist eine auf Datenkommunikation basierende Software, die verschlüsselte Daten von elektronischen Energiezählerablesungsinstrumenten und elektronischen Energiezählern empfängt. Es zeigt Daten in einem vom Benutzer lesbaren Format nach einigen erforderlichen Konvertierungen an. Dieses Papier gab einen Überblick über die Infrastruktur und das Energiemanagementsystem von Advance Metering. Später die Sicherheit und Funktionalität des Energiemanagementsystems beschrieben. Danach zeigt es die verschiedenen vom Energiemanagementsystem erhaltenen Berichte an, die sechs Monate Abrechnungshistorie, Manipulationsdetails, Lastübersicht bis zu sechzig Tage und mehr je nach Benutzeranforderung mit Crystal Reports umfassen. Die Daten der Lasterhebung werden in tabellarischer und grafischer Form dargestellt. Der Benutzer kann alle, täglichen, monatlichen und viele weitere Präsentationsformate anzeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3140-4_5 e4153d53df563ce168cfb0822387a1f9;de;;;6.1.;;;Verwaltung von staatlichen Informationsressourcen basierend auf Metadaten In diesem Papier wurden die derzeit populären Methoden der Organisation und Suche von staatlichen Informationsressourcen unter dem Umstand des Aufbaus einer praktischen E-Government-Integrationswebsite analysiert und ihre Metadaten diskutiert. Um das Problem der Informationstrennung zu lösen, wurde der Rahmen des E-Government-Informationsressourcenmanagements unter Verwendung von Metadaten vorgeschlagen. Darüber hinaus wurde ein Prototyp eines staatlichen Informationsressourcenregistrierungs- und Verzeichnisdienstsystems entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75494-9_40 f66abc0f71f34c244c25aa070aff924f;de;;;6.1.;;;Ist das EU-Urheberrecht eine Gefahr für die Meinungsfreiheit im Internet? Das vorliegende Papier erörtert die jüngsten Entwicklungen in der Rechtsprechung zur Durchsetzung von Online-Urheberrechtsrechten in Europa und betont die Konsequenzen für die Meinungsfreiheit. Es wird diskutiert, ob die freie Meinungsäußerung durch die Anwendung dieser Rechtsprechung gefährdet ist. Zunächst wird auf die einschlägige Rechtsprechung auf europäischer Ebene verwiesen. Zweitens verweist der Autor auf einstweilige Verfügungen gegen Vermittler und kommt zu dem Schluss, dass die Gefahr für die Meinungsfreiheit vom Gericht erkannt und berücksichtigt wurde. Schließlich verweist der Autor auf die parallele rechtswissenschaftliche Entwicklung des Urheberrechts in Bezug auf Hyperlinks und zeigt, dass hier die Frage der Meinungsfreiheit nicht ausreichend berücksichtigt wurde, was verheerende Folgen haben kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-71117-1_9 126b4f658a9a04df4711e4f6638d3641;de;;;6.1.;;;Testende und Abschluss der Datenerfassung Der Studienabschluss bezieht sich auf die Aktivitäten, die in Vorbereitung auf die Einstellung der Studienrekrutierung bis hin zur Archivierung der Studie stattfinden. Der Abschluss einer Studie kann begrifflich in fünf Phasen unterteilt werden: Ende der Rekrutierung, Ende der Studie Intervention, Ende der Studie, Bericht und Veröffentlichung der Studie und Archivierung. Die Dauer und Planung jeder Phase des Studienabschlusses wird durch das Studiendesign und das Betriebsmodell bestimmt. Mit dem Herannahen des Studienabschlusses wird verstärkt Wert auf Überwachung und Kontrolle gelegt, um sicherzustellen, dass die richtige Anzahl von Teilnehmern rekrutiert wird und die Datensammlung und -bereinigung als Vorbereitung für die endgültige Datenbanksperre und -analyse abgeschlossen ist. Das Ende der Studie ist ein wichtiger ethischer und regulatorischer Meilenstein, der im genehmigten Studienprotokoll definiert ist und zeitabhängige Melde- und Berichtspflichten an die unabhängige Ethikkommission und bei regulierten Studien an die Aufsichtsbehörde(n) hat. Schlüsselschritte des Studienabschlusses, der Berichterstattung, der Veröffentlichung und des Datenaustauschs sind wichtige Mechanismen, um die Transparenz in klinischen Studien zu unterstützen. Ein Plan zum Abschluss der Studie kann verwendet werden, um die Aktivitäten zu unterstützen, die eine angemessene Kontrolle über die letzten Phasen der Studie gewährleisten.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-319-52677-5_41-1 4878c13f97a57cf6c56adfe645e0f537;de;;;6.1.;;;Qualitätsverbesserung Qualitätsverbesserung (QI) ist eine Kernkomponente der Gesundheitsversorgung und ist der Prozess, mit dem Anbieter und Organisationen danach streben, Ergebnisse zu verbessern, Kosten zu senken, die Zugänglichkeit zu verbessern und die Pflegeerfahrung für Anbieter und Personal zu verbessern. Es gibt vier Schlüsselprinzipien, die Verbesserungsprojekte leiten: Das Gesundheitswesen ist ein komplexes System, der Patient steht im Mittelpunkt, Teamarbeit ist entscheidend und Daten sind unerlässlich. Mehrere QI-Modelle und -Frameworks sind im Gesundheitswesen anwendbar. Das Verbesserungsmodell konzentriert sich auf die Beschleunigung der Verbesserung durch wiederholte Plan-Do-Study-Act-Zyklen. Lean versucht, Verschwendung in einem System zu reduzieren und dem Kunden einen Mehrwert zu bieten, während Six Sigma eingesetzt wird, um die Variabilität in einem Prozess zu verringern. Das Erlernen des Umgangs mit Veränderungen und Daten ist entscheidend für erfolgreiche Initiativen zur Qualitätsverbesserung. Mit dem Übergang von leistungsbasierten zu wertbasierten Zahlungsmodellen müssen sich Gesundheitsdienstleister mit Fähigkeiten zur Qualitätsverbesserung vertraut machen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-71812-5_35 e3fac4707ac9e2d701c54bf4ae5ec7b7;de;;;6.1.;;;Modernisierung der Züchtung für verwaiste Pflanzen: Werkzeuge, Methoden und mehr Trotz der begrenzten Investitionen in verwaiste Pflanzen öffnet der Zugang zu neuen Technologien wie Bioinformatik und kostengünstige Genotypisierung neue Türen für eine effektive Modernisierung ihrer Züchtung.;-;-;-;https://link.springer.com/article/10.1007/s00425-019-03200-8 c5da3cc736ce20fbc0c0e6bd970c7ff4;de;;;6.1.;;;Wissensmanagement für modellierte Heritage-Objekte, Anforderungsspezifikationen an ein Werkzeug zur Heterogenitätsumfassung Da Informationstechnologien in den Geisteswissenschaften allgemein angenommen werden, bleibt die Erforschung des Kulturerbes ein besonderer Bereich. Grundsätzlich interdisziplinär, artikulieren die Arbeiten zum Kulturerbe mehrere spezifische Herausforderungen: Unvollständigkeit, enge Verbindung zur Dokumentation und die Notwendigkeit der Zusammenarbeit vieler Bereiche. Modellierungswerkzeuge und -methoden wurden in den letzten zwanzig Jahren dynamisch weiterentwickelt. Während jedoch viele Anstrengungen zur Überwindung praktischer Probleme unternommen wurden, erfordern ethische und methodische Fragen heute weitere Fortschritte. Das;-;-;-;https://link.springer.com/article/10.1007/s12008-020-00712-6 1e55da73b2ef2f5345ff7993e2402bc9;de;;;6.1.;;;Mobile Geräte in Fertigungsumgebungen: eine BMW Anwendbarkeitsstudie Mit dem wachsenden Bedarf an mobilen Geräten in der Fertigungsindustrie sind neue Anwendungsgebiete für deren Einsatz bei Automobilherstellern entstanden. Die Advent-Technologie hat die Entwicklung von Geräten wie ultramobilen Personalcomputern ermöglicht, die die Funktion eines Computers in einer kompakten, mobilen Konfiguration und Augmented Reality (tragbare mobile Geräte) in einer Produktionsumgebung bieten, in der freihändiges Arbeiten unerlässlich ist. Die Verwendung mobiler Geräte ermöglicht eine effektivere Kommunikation und Datenfreigabe/-aufzeichnung. Dieses Papier beschreibt die vorläufige Untersuchung und Anwendbarkeitsstudie von BMW zur Implementierung mobiler Geräte in ihre Fertigungsumgebung, um die möglichen Vorteile aufzuzeigen, die erzielt werden könnten. Die Fertigungsindustrie ist durch viele unterschiedliche und kritische Prozesse gekennzeichnet, und zwischen diesen kritischen Prozessen muss ein effektiver Kommunikationsmechanismus verfügbar sein. Es wird anerkannt, dass das Potenzial für mobile Geräte im Herstellungsprozess, obwohl es durch die derzeitige Verwendung von Mobiltelefonen und PDAs realisiert wird, mit neueren Technologien nicht vollständig ausgeschöpft wurde. Durch die Nutzung der mobilen Breitbandkommunikation können mobile Geräte für die Audio- und visuelle Kommunikation verwendet werden und bieten die Möglichkeit, große Datenmengen ohne Standortbeschränkungen zu übertragen. BMW untersucht den Einsatz mobiler Geräte in zwei Fertigungsprozessen: Montageschulung und Pruefcubing. Durch eine interne Studie wurde festgestellt, dass der Einsatz mobiler Geräte Verbesserungen innerhalb des Fertigungsprozesses in Bezug auf Zeiteffizienz, Qualität und Kommunikationsfähigkeit zeigt. Die Risiken und Grenzen der Implementierung solcher Systeme haben jedoch ihren Einstieg in die Montageschulung und -prüfung verhindert. Die Grenzen der Abschreckung werden diskutiert und zukünftige Arbeiten werden zur Neubewertung vorgeschlagen.;-;-;-;https://link.springer.com/article/10.1007/s12008-012-0148-x f49774f9f74973129406e6acebc5fbc6;de;;;6.1.;;;Das IP/Standards-Subsystem In der heutigen Zeit, in der Wissensökonomie und Informationstechnologie eine dominierende Rolle spielen, sind geistige Eigentumsrechte und technische Standards in den Mittelpunkt des internationalen Wettbewerbs gerückt und dienen als strategische Ressourcen für die wirtschaftliche, technische, Investitions- und Handelsentwicklung jedes Landes. Die Industrieländer setzen energisch IP- und standardrelevante Strategien um, um ihre führende Wettbewerbsposition im Technologiebereich zu behaupten, was chinesische Unternehmen vor Herausforderungen stellt, wenn sie global in Bezug auf geistiges Eigentum und technische Standards agieren. In Bezug auf geistiges Eigentum finden große Veränderungen bei den internationalen IP-Regeln statt – der Trend der Internationalisierung des geistigen Eigentums scheint sich zu beschleunigen. Globale Herausforderungen wie die Finanzkrise und der Klimawandel stellen auch das IP-System vor neue Herausforderungen, und die Industrieländer verbessern den IP-Schutz weiter, um Innovationsvorteile in Wettbewerbsvorteile auf den globalen Märkten zu verwandeln. In Bezug auf Normen haben die Industrieländer einen wettbewerbsorientierten Ansatz gewählt, der durch patentierte Technologien, die Umwandlung von Patenten in Normen und das Monopol über Normen gekennzeichnet ist, während sie gleichzeitig darauf hinarbeiten, eine dominante Position bei der Entwicklung internationaler Normen zu erlangen oder zu halten und dadurch ihre Interessen zu maximieren durch eine Kombination von IP mit Standards. In einer Zeit, in der sich China im Bereich IP und Standards zunehmend in die internationale Gemeinschaft integriert, wird die Erforschung der Definition von Chinas IP- und standardrelevanten Strategien wichtige und weitreichende Auswirkungen auf die Förderung des technologischen Fortschritts, die Regulierung von Märkten, die Steigerung der die globale Wettbewerbsfähigkeit relevanter Industrien und Produkte und die Förderung von Auslandsinvestitionen chinesischer Unternehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45631-6_5 406fe900a85e535cc57885863f948720;de;;;6.1.;;;Fortschritte in der nachhaltigen Landwirtschaft: Computer- und Bioinformatik-Tools Eine nachhaltige landwirtschaftliche Produktion ist angesichts des globalen Klimawandels und des Bevölkerungswachstums ein dringendes Thema. Darüber hinaus hat die in letzter Zeit gestiegene Nachfrage nach Biokraftstoffpflanzen einen neuen Markt für Agrarrohstoffe geschaffen. Eine mögliche Lösung besteht darin, den Pflanzenertrag zu steigern, indem Pflanzen auf der Grundlage eines molekularen Verständnisses der Genfunktion und der regulatorischen Netzwerke entwickelt werden, die an Stresstoleranz, Entwicklung und Wachstum beteiligt sind. Die jüngsten Fortschritte in der Pflanzengenomik haben es uns ermöglicht, wichtige Gene zu entdecken und zu isolieren und Funktionen zu analysieren, die den Ertrag und die Toleranz gegenüber Umweltstress regulieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-8840-8_10 523c4d5477c8df8a0c7cbd20d3405c3b;de;;;6.1.;;;Aspekte des datenintensiven Cloud Computing Das Konzept des Cloud Computing steht mittlerweile auf dem Höhepunkt der öffentlichen Aufmerksamkeit und Akzeptanz. Angetrieben von mehreren wirtschaftlichen und technologischen Wegbereitern wird Cloud Computing die Art und Weise verändern, wie wir in Zukunft große datenintensive Softwaresysteme entwerfen, warten und optimieren müssen. Die Verlagerung großer, datenintensiver Systeme in die Cloud ist möglicherweise nicht immer möglich, würde aber viele der heute typischen Probleme lösen. In diesem Beitrag konzentrieren wir uns auf die Chancen und Einschränkungen aktueller Cloud-Lösungen in Bezug auf das Datenmodell solcher Softwaresysteme. Wir identifizieren die technologischen Probleme, die dieses neue Paradigma mit sich bringt, und diskutieren die Anforderungen an Cloud-Lösungen, um eine sinnvolle Alternative zu On-Premise-Konfigurationen bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17226-7_4 5ac1d8a3e5846c2885759144fb6037db;de;;;6.1.;;;Entwicklung eines aktiven medizinischen Notfalldienstes basierend auf der WiMAX-Technologie Die Bevölkerungsstruktur hat sich mit der Alterung der Bevölkerung verändert. Gegenwärtig machen ältere Menschen 10,63 % der einheimischen Bevölkerung aus, und der Anteil steigt immer noch allmählich an. Mit anderen Worten, es wird erwartet, dass die Nachfrage nach Notdiensten unter älteren Menschen im häuslichen Umfeld in Zukunft zunehmen wird. Um die Effizienz und Qualität der Notfallversorgung zu verbessern, sollte die Informationstechnologie effektiv genutzt werden, um medizinische Systeme und Einrichtungen zu integrieren, menschenzentrierte Betriebsdesigns zu stärken und die Gesamtleistung zu maximieren. Die Verbesserung der Qualität und Überlebensrate der Notfallversorgung ist eine wichtige Grundlage für ein besseres Leben und die Gesundheit aller Menschen. Durch die integrierte Anwendung von medizinischen Informationssystemen und Informationskommunikationstechnologie schlägt diese Studie ein WiMAX-basiertes Notfallversorgungssystem vor, das den öffentlichen Anforderungen nach Komfort, Geschwindigkeit, Sicherheit und menschenzentriertem Betrieb der Notfallversorgung gerecht wird. Dieses System besteht aus einem Gesundheitsdienstleistungszentrum, Rettungskrankenhäusern und Rettungswagen. Mit der drahtlosen Übertragungsfähigkeit von WiMAX können physiologische Daten von Patienten von medizinischen Messeinrichtungen in die Notaufnahme übertragen werden und Notärzte können per Video- und Audioübertragung sofort online Anweisungen zur Notfallbehandlung geben. Die WiMAX-Technologie ermöglicht den Aufbau eines aktiven Rettungsdienstes.;-;-;-;https://link.springer.com/article/10.1007/s10916-011-9809-8 64671893202d0536f86d496d022a4925;de;;;6.1.;;;Ein statistischer Ansatz zur Eigentumsidentifizierung digitaler Bilder In diesem Papier schlagen wir ein Eigentumsidentifizierungsschema für digitale Bilder mit binären und Graustufen-Eigentumsangaben vor. Das vorgeschlagene Verfahren nutzt die Theorien und Eigenschaften der Stichprobenverteilung von Mittelwerten, um die Anforderungen an Robustheit und Sicherheit zu erfüllen. Im Wesentlichen fügt unsere Methode die Ownership-Anweisung nicht wirklich in das Host-Image ein. Stattdessen wird der Eigentumsanteil durch die Stichprobenmethode als Schlüssel zur Offenlegung der Eigentumserklärung generiert. Außerdem erlaubt unsere Methode jede beliebige Größe von Eigentumsangaben und vermeidet, dass die versteckten Eigentumsangaben durch letztere zerstört werden. Wenn das rechtmäßige Eigentum an dem Bild identifiziert werden muss, kann unsere Methode die Eigentumserklärung offenlegen, ohne auf das Originalbild zurückzugreifen. Schließlich werden mehrere übliche Angriffe auf das Image durchgeführt, um die Robustheit zu überprüfen und die Sicherheit wird ebenfalls analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/11864349_61 fc30c9f1062d954bdb8bb13c75371a90;de;;;6.1.;;;Medizinisches Wissen austauschen Genomdaten liegen in vielen verschiedenen Formaten in verteilten Datenquellen vor. Aufgrund der vielfältigen Einsatzmöglichkeiten wurden verschiedene Werkzeuge zur Analyse und Visualisierung geschaffen. Die enorme Größe der Datensätze in Verbindung mit der begrenzten Netzwerkkapazität macht die Nutzung von Cloud-Anwendungen sehr zeitaufwändig. In diesem Beitrag schlage ich vor, stattdessen Anwendungslogik auf die Daten zu übertragen. Dies kann erreicht werden, indem die Apps unabhängig davon funktionieren, wie und wo die Daten gespeichert sind. In-Memory-Datenbanken ermöglichen dies durch spontane Datentransformationen und spezielle Abfrageausführungspläne für verteilte Daten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03035-7_4 8341f6cb63514297b36b77fb6aad34af;de;;;6.1.;;;Klinische Informationsplattformen: Infrastruktur für die klinische Entwicklung In den letzten Jahren haben wir das Aufkommen einer Reihe neuer Technologien erlebt – das Internet, Hochgeschwindigkeitsleitungen, drahtlose Netzwerke, implantierte Überwachungsgeräte usw. –, die das Potenzial haben, klinische Entwicklungsprozesse zu revolutionieren. Die unbeantwortete Frage ist, wie wir diese Technologien am effektivsten integrieren, um Prozesse zu beschleunigen, die Genauigkeit zu verbessern, die Kommunikation zu verbessern und Datensilos zu beseitigen. Die zur optimalen Nutzung dieser Technologien notwendige Integration bleibt nicht verfügbar. In diesem Papier werden die Probleme erörtert, die mit der Bereitstellung einer solchen Integration verbunden sind, sowie ein Ansatz zur Bereitstellung einer vollständig integrierten klinischen Entwicklungsumgebung, von der wir glauben, dass sie in den kommenden Jahren immer häufiger werden wird.;-;-;-;https://link.springer.com/article/10.1177/009286150103500316 b7cbf33a08cb848a9a2e0dc42d703352;de;;;6.1.;;;Verbesserung der kulturellen Metadaten durch Verwendung eines gemeinschaftsorientierten Ansatzes zur Schaffung eines digitalen ganzheitlichen Kulturerhaltungssystems Das größte Problem bei der Konservierung kultureller Informationen in digitaler Form besteht darin, herauszufinden, wann die gespeicherten Informationen gut strukturiert sind und den Bedürfnissen des kulturellen Informationssuchenden entsprechen. Mehrere Untersuchungen haben gezeigt, dass die Gemeinschaft bei der Erstellung von Metadaten als kulturelle Datenstruktur beteiligt ist. Das Problem besteht nun darin, wie die Metadaten aufgebaut sein sollten, um den Bedürfnissen des kulturellen Informationssuchenden gerecht zu werden, die sich im Laufe der Zeit ändern können. Die Struktur sollte die ganzheitlichen Elemente der Kultur abdecken, nicht nur ein kulturelles Element. Diese vorläufige Forschung soll ermitteln, inwieweit ein gemeinschaftsgetriebener Effekt kulturelle Metadatenstrukturprozesse als Erhaltungsstandard für die kulturelle Informationsstruktur durch Studienprozesse der Literatur verbessern kann. Durch die Kenntnis der aktuellen kulturellen Metadatenstrukturen und Erfahrungen mit der Beteiligung der Gemeinschaft können eine ganzheitliche Metadatenstruktur und ein digitales ganzheitliches Kulturerhaltungssystem aufgebaut werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6031-2_10 095c9d1c76e1f08f9aa86b89f9bba36e;de;;;6.1.;;;Verständnis der Benutzerakzeptanz von Personal Cloud Computing: Verwenden des Technologieakzeptanzmodells Personal Cloud Computing (PCC) ist eine schnell wachsende Technologie, die die Marktnachfrage einzelner Benutzer nach Zugang zu verfügbaren und zuverlässigen Ressourcen erfüllt. Aber wie bei anderen neuen Technologien sind mit der Einführung von PCC Bedenken und Probleme aufgetaucht. Benutzer, die sich für die Einführung von PCC entscheiden, haben möglicherweise Bedenken hinsichtlich der Benutzerfreundlichkeit, der Nützlichkeit oder der Sicherheitsrisiken in der Cloud. Es wurde festgestellt, dass negative Einstellungen gegenüber der Verwendung einer Technologie den Erfolg dieser Technologie negativ beeinflussen. Der Zweck dieser Studie war es, die Akzeptanz von PCC durch die Benutzer zu verstehen. Die Bevölkerungsstichprobe bestand aus einzelnen Benutzern in den Vereinigten Staaten zwischen 18 und 80 Jahren. Der in dieser Studie verwendete theoretische Rahmen basierte auf dem Technology Acceptance Model (TAM). Eine Web-Umfrage wurde durchgeführt, um die Messung und das Verständnis der von den Teilnehmern demonstrierten Muster zu bewerten. Unsere Ergebnisse zeigen, dass trotz der potenziellen Vorteile von PCC Sicherheits- und Datenschutzrisiken viele Benutzer davon abhalten, auf PCC umzusteigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-32467-8_1 0b8666c53f2b9fe3a0373ebfae3e65a9;de;;;6.1.;;;Einbeziehung von Indianern und Ureinwohnern Alaskas in große nationale Studien: Ethische Überlegungen und Implikationen für die Bioprobensammlung in der Studie zur Entwicklung von gesundem Gehirn und Kind Dieses Manuskript ist das Ergebnis eines interdisziplinären Teamansatzes zur Untersuchung der ethischen und kulturellen Erwägungen der Bioprobensammlung in Indianer- und Alaska-Indianergemeinschaften (AIAN) für die geplante Studie zur gesunden Gehirn- und Kinderentwicklung (HBCD). Wir beginnen mit einem kurzen Überblick über die Behandlung von AIAN-Gemeinschaften durch die US-Regierung und im Rahmen von Forschungsstudien. Zum Teil basierend auf dieser Geschichte heben wir die sich überschneidenden und sich überschneidenden Schwachstellen der AIAN-Gemeinschaften hervor, darunter historische Traumata, Armut, fehlender Zugang zur Gesundheitsversorgung und Umweltgefahren. Nach Abwägung ethischer und rechtlicher Implikationen stellen wir unsere Empfehlungen zur Bioprobensammlung/Biobanking mit AIAN-Gemeinschaften im Rahmen bevölkerungsrepräsentativer, standortübergreifender, nationaler Studien vor. Wir empfehlen die folgenden Schlüsselüberlegungen: (1) authentische Partnerschaftsentwicklung, (2) Wohlfahrt für die Gemeinschaft, (3) kulturell respektvolles Forschungsdesign, (4) sinnvolle Zustimmung zur Unterstützung der Einschreibung und Aufbewahrung, (5) kulturell angemessenes Datenmanagement. Die Einhaltung eines kulturbewussten Ansatzes zur Einbeziehung unterrepräsentierter Gemeinschaften sichert die externe Validität der nationalen Studien und erhöht die Wahrscheinlichkeit eines bidirektionalen Werteaustauschs.;-;-;-;https://link.springer.com/article/10.1007/s42844-020-00020-8 e52ec9cb8af468f1e38f3b878736ed5d;de;;;6.1.;;;Entwicklung eines integrierten Laborinformationsmanagementsystems in den Vereinigten Arabischen Emiraten In diesem Beitrag wird ein integriertes Laborinformationsmanagementsystem (LIMS) vorgestellt, das für ein in Abu Dhabi in den Vereinigten Arabischen Emiraten tätiges Gasherstellungs- und Vertriebsunternehmen entwickelt und implementiert wurde. Konkret wurde LIMS für alle im ADGAS-Labor verfügbaren Analysebereiche entwickelt, einschließlich der marktgängigen Produkte (LNG, Propan, Butan, paraffinischer Naphtha-Schwefel und Rohöl), Schmieröl, Wasser, Rohstoffe, Gase und andere Produkte/ Dienstleistungen. Seit seiner Einführung im Januar 2008 werden jeden Morgen automatisch Routineprüfpläne erstellt und die von den wichtigsten Geräten generierten Datendateien automatisch übertragen. Auch komplizierte nachgelagerte Berechnungen werden automatisch durchgeführt. Der Probenlebenszyklus durchläuft Schritte wie die Eingabe von Variablen, Berechnungen, Datenkontrolle und Validierung der Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9282-5_59 51a3dcf643796fac24b101b01df1dbc0;de;;;6.1.;;;BigData orientiert an Geschäftsentscheidungen: eine echte Fallstudie in constructel Analysieren und verstehen, wie Data Warehouse mit Business-Intelligence-Tools kombiniert werden kann, und andere nützliche Informationen oder Tools zur Visualisierung von KPIs sind kritische Faktoren, um das Ziel der Steigerung der Kompetenzen und Geschäftsergebnisse einer Organisation zu erreichen Das Hauptziel dieses Dokuments ist es, die Entwicklung von eine BI-Plattform, die DW-Tools verwendet, um Diagramme und detaillierte Berichte für das Unternehmen Constructel zu erstellen. Die Entwicklung dieser Arbeit wurde in Etappen gedacht und entwickelt, beginnend mit der Analyse des Themas, der Analyse der Literaturrecherche zur Unterstützung der Fallstudie, den verwendeten Tools, der Anforderungserfassung, dem Architekturdesign und endend mit der Entwicklung und Implementierung einer Plattform mit Dashboards und Berichte für das Management der Organisation. Mit der Verfügbarkeit dieser Plattform sollen Geschäftsleiter in der Lage sein, Lösungen und Anomalien aufschlussreicher und schneller zu identifizieren und so die Produktivität und Geschäftsqualität zu verbessern, ohne die Zufriedenheit der internen Mitarbeiter der Organisation zu vernachlässigen, mehr Flexibilität und Verfügbarkeit, damit Manager mit anderen Situationen umgehen können, die eher technischer Natur sind und mit dem Geschäft selbst verbunden sind.;-;-;-;https://link.springer.com/article/10.1007/s10588-021-09330-3 5d3af9aae651be0ae7419322f5d2fad2;de;;;6.1.;;;Datenschutzerhaltende öffentliche Rechnungsprüfung für gemeinsame Daten von Nicht-Manager-Gruppen Durch die weit verbreitete Nutzung von Cloud-Speicherdiensten erhalten Benutzer viele Annehmlichkeiten wie einen kostengünstigen Datei-Remote-Speicher und eine flexible Dateifreigabe. Zu den Forschungsschwerpunkten im Cloud Computing gehören die Überprüfung der Datenintegrität, der Schutz der Privatsphäre und der flexible Datenzugriff. Die Integrität der Daten wird durch ein Challenge-and-Response-Protokoll auf Basis der von Gruppenbenutzern generierten Signaturen sichergestellt. Viele bestehende Schemata verwenden Gruppensignaturen, um sicherzustellen, dass die in der Cloud gespeicherten Daten aus Datenschutz- und Anonymitätsgründen intakt sind. Gruppensignaturen berücksichtigen jedoch nicht die Benutzergleichheit und das von Gruppenmanagern verursachte Problem der Frameability. Daher schlagen wir ein Datenaustauschschema PSFS vor, um die Gleichberechtigung und Rückverfolgbarkeit der Nutzer zu unterstützen, basierend auf unserer früheren Arbeit HA-DGSP. PSFS hat einige sichere Eigenschaften wie Korrektheit, Rückverfolgbarkeit, homomorphe Authentifizierung und praktische gemeinsame Datennutzung. Der praktische Datenaustausch stellt sicher, dass der Dateneigentümer während des Teilens nicht die Kontrolle über die Dateidaten verliert und der Dateneigentümer einen effektiven Anreiz zum Datenaustausch erhält. Der effektive Anreiz wird durch die Technologie der Blockchain realisiert. Die experimentellen Ergebnisse zeigen, dass der Kommunikations- und Rechenaufwand von PSFS akzeptabel ist.;-;-;-;https://link.springer.com/article/10.1007/s11277-018-5634-4 280934ac282b9d7e5db4e68eb091823b;de;;;6.1.;;;Das italienische Katasterinformationssystem: Ein reales räumlich-zeitliches DBMS In diesem Papier beschreiben wir die technische und organisatorische Lösung, die in Italien für die Verwaltung von Katasterdaten konzipiert und implementiert wurde. Das System mit dem Namen „Sistema di Interscambio Catasto-Comuni“ (SICC) ermöglicht den Austausch von Katasterdaten zwischen den wichtigsten an der Behandlung von Katasterinformationen in Italien interessierten Unternehmen, dh dem Finanzministerium, den Gemeinden, Notaren und Landvermessern. Das System ist seit September 1998 landesweit über eine WEB-basierte Schnittstelle zugänglich und die Wirksamkeit seiner Nutzung zeigt sich in der starken Zunahme der Anzahl der verwalteten Anfragen in den ersten Monaten: Im Januar 1999 wurde es von mehr als 15.000 . genutzt Endnutzer.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48344-6_5 66cd0d8fe228767afbbdc22b196a16ab;de;;;6.1.;;;Entdeckung und Entwicklung neuer Medikamente: Indische Pharmaindustrie Das Wachstum der Industrie, insbesondere der Pharmaindustrie, erfordert intensive und innovative Forschung. Das Kapitel versucht, diese im Wachstum der indischen Pharmaindustrie im Laufe der Jahre, beginnend mit Acharyas Streifzug im Jahr 1901, zu erfassen und verfolgt den Eintritt indischer und multinationaler Unternehmen in Produktionsaktivitäten, letztere abgesichert durch Schutzmaßnahmen wie MRTP ACT und Patent ACT von 1970 Die Umsätze waren bescheiden, aber eine kleine Zahl indischer Unternehmen und sogar sehr wenige multinationale Konzerne begannen mit der neuen Wirkstoffforschung (NDDR). Andererseits baute die Regierung als Maß für die Selbstversorgung nationale Einrichtungen wie das Central Drug Research Institute mit multidisziplinären Einrichtungen für NDDR und die Prozessentwicklung von Medikamenten. Inzwischen ist Indian Pharma unter dem Dach des Indian Patent Act 1970 stark gewachsen und hat sich als Anbieter von bezahlbaren Generika von Qualitätsmedikamenten etabliert. Der Hatch-Waxman Act 1984 der USA mit dem Versprechen einer Zulassung für verkürzte neue Arzneimittelanwendungen (ANDA) öffnete die Tore für den lukrativen US-amerikanischen Generika-Markt, den Indien mit seiner etablierten Kompetenz in der Herstellung von Wirkstoffen und Formulierungen gut nutzen konnte . Viele indische Unternehmen hatten nun die Mittel, sich an NDDR zu wagen, was nach der Einführung des Produktpatentsystems seit 2005 zu einer Notwendigkeit wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8002-4_13 07a1de3c8586ddcc6912508437a257d4;de;;;6.1.;;;Urheberrechtsschutzmethode basierend auf dem Hauptmerkmal digitaler Bilder Mit der rasanten Entwicklung der Informationstechnologie können Bilder leicht kopiert, geändert und wieder freigegeben werden. Dieses Papier schlägt eine Urheberrechtsschutzmethode vor, die auf den Hauptmerkmalen digitaler Bilder basiert und den SIFT-Algorithmus verwendet. Es soll verhindern, dass das Bild, dessen Hauptmerkmalsinformationen in der Datenbank gespeichert sind, missbraucht wird. Der Innovationspunkt besteht darin, Merkmalsinformationen anstelle von Bildern mit vielen redundanten Informationen zu speichern, was den Abgleich beschleunigen kann. Es kann beurteilt werden, ob ein Bild das Urheberrecht verletzt, indem seine Hauptmerkmalsinformationen extrahiert und dann mit denen in der Datenbank verglichen werden. Die Versuchsergebnisse zeigen, dass diese Methode Manipulationsangriffen wie JPEG-Komprimierung, Rauschen und geometrischer Verzerrung widerstehen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-50209-0_18 88f82429c4f2c0252a2e6073095cc6a2;de;;;6.1.;;;Datenmanagement im akademischen Umfeld: Eine Perspektive des geistigen Eigentums Geistiges Eigentum kann für akademische Einrichtungen ein wichtiges Gut sein. Gute Datenverwaltungspraktiken sind wichtig für die Erfassung, Entwicklung und den Schutz von geistigem Eigentum. Ausgewählte Fragestellungen zum Zusammenhang zwischen Datenmanagement und geistigem Eigentum werden besprochen sowie eine These, dass akademische Einrichtungen und Wissenschaftler ihrer Verpflichtung zum verantwortungsvollen Umgang mit Daten nachkommen sollten.;-;-;-;https://link.springer.com/article/10.1007/s11948-010-9240-4 203f108ebf50923d57d1d7ecfb277397;de;;;6.1.;;;Autonome Datenbanken Wie Sie bereits wissen, hat Oracle seit einigen Jahrzehnten Datenmanagementsysteme und Innovationen für On-Premise-, Cloud- und Hybrid-Bereitstellungen bereitgestellt. Die neueste Cloud-Version der Datenbank heißt die;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-6011-1_7 d9d7ada33a2184688e45b2dae1e8f785;de;;;6.1.;;;Verbesserung der Erkennung persönlicher Informationen mithilfe der Erkennungsrate von OCR-Funktionen Mit den jüngsten Fortschritten in den Informations- und Kommunikationstechnologien wurde die Erstellung und Speicherung von Dokumenten digitalisiert. Daher werden viele Dokumente auf Computern gespeichert. Dokumente mit persönlichen Informationen können durch interne oder externe böswillige Handlungen durchsickern, und das Problem des Informationsverlusts für Einzelpersonen und Unternehmen nimmt allmählich zu. Dieses Papier schlägt eine Methode vor, um das Vorhandensein persönlicher Informationen in Dokumenten, die in Bilddateien auf Personal- und Unternehmenscomputern gespeichert sind, effizienter und schneller zu identifizieren, um deren Verlust im Voraus zu verhindern. Wir haben die Effizienz der Erkennung persönlicher Informationen verbessert, indem wir die Merkmale der optischen Zeichenerkennung (OCR) nach Erkennungsrate klassifizieren und überflüssige löschen, um die Erkennungsgeschwindigkeit zu erhöhen. Außerdem wurde die Erkennungszeit durch die Referenzhäufigkeit der klassifizierten OCR-Merkmale reduziert. Experimente bestätigen eine Verbesserung der Leistung des vorgeschlagenen Verfahrens im Vergleich zu der des bestehenden Systems.;-;-;-;https://link.springer.com/article/10.1007/s11227-018-2444-0 6141294d27c30d941c59b2a1db4c9d0f;de;;;6.1.;;;Neuartiges Blockchain-Referenzmodell für Regierungsdienste: Fallstudie der Regierung in Dubai Blockchain, eine Distributed-Ledger-Technologie, ist eine disruptive und revolutionäre Technologie, die es ermöglicht, Daten in einer dezentralen Struktur abzuwickeln, ohne dass vertrauenswürdige zentrale Behörden erforderlich sind. Viele Branchen haben Schritte unternommen, um das Potenzial der Blockchain-Technologie zu entfesseln, einschließlich des Regierungssektors, und Early Adopters untersuchen den Einsatz von Blockchain als eine der entscheidenden Fähigkeiten, die erforderlich sind, um neue Geschäftsmodelle zu schaffen und Regierungsdienste und -funktionen radikal zu verändern. Trotz dieses Interesses an der Einführung der Blockchain-Technologie mangelt es jedoch an Blockchain-Frameworks oder Referenzmodellen/Architekturen, die sich in der Literatur mit Regierungsdienstleistungen befassen. In diesem Papier schlagen wir ein neuartiges Blockchain-Modell vor, das von Regierungen übernommen werden kann, um ein regierungsgeführtes Blockchain-Ökosystem für Regierungsdienste zu etablieren. Das Blockchain-Modell wird basierend auf den Ergebnissen unserer Analyse der zugelassenen Blockchain-Plattform und der Analyse des von der Regierung von Dubai implementierten Anwendungsfalls für die Wohnungsvermietung mit Blockchain-Technologie vorgeschlagen. Die vorgeschlagenen Ergebnisse des Blockchain-Modells umfassen eine Blockchain-Governance-Struktur, die Definition von Teilnehmern und Rollen sowie das Design der Netzwerkarchitektur, das die Bereitstellungsoptionen und -komponenten erläutert. Wir erklären auch den Modelllebenszyklus und die Blockchain-Dienste und beleuchten die Sicherheit und Leistung des Modells. Die Studie umfasst auch die Untersuchung vieler Blockchain-Anwendungsfälle, die von Regierungen durch Machbarkeitsnachweise oder Prototypen verwendet werden. Unsere Analyse der Designfunktionen von Hyperledger Fabric zeigt die Relevanz der Plattform für Regierungsdienste und Anwendungsfälle. Die Hyperledger Fabric-Analyse identifiziert auch die Akteure der Plattform, Dienste, Prozesse und Datenstruktur von Hyperledger Fabric.;-;-;-;https://link.springer.com/article/10.1007/s13198-020-00971-2 db8f63019e54b9d656200c885088d0fe;de;;;6.1.;;;ICT-Systemanforderungen im kollaborativen Design mit Lieferanten Um von den möglichen Vorteilen einer frühzeitigen Lieferanteneinbindung (Kosteneinsparungen, Verkürzung der Time-to-Market) zu profitieren, haben viele Unternehmen Aktivitäten ausgelagert und eine langfristige Zusammenarbeit mit ihren Lieferanten angestrebt. Im Laufe des letzten Jahrzehnts wurde immer mehr Verantwortung in der Konstruktion und Konstruktion von Komponenten auf Lieferanten übertragen. Das Ziel dieses Papiers ist es, sich auf den Bedarf an Informationsmanagement-Tools im Rahmen von Co-Design-Aktivitäten zu konzentrieren. Diese Forschung ist ein Ziel des Forschungsprojekts ISOCELE Rhône Alpes. In diesem Papier stellen wir zwei Modelle vor, die bei der Definition eines geeigneten kollaborativen IKT-Systems (Informations- und Kommunikationstechnologie) helfen sollen. Der erste besteht darin, die verschiedenen Situationen der frühen Lieferanteneinbindung in die Entwicklung neuer Produkte (NPD) zu analysieren. Diese Situationen sind durch zwei Achsen gekennzeichnet: Risiko der Produktentwicklung und Lieferantenautonomie. Jede Situation erfordert einen spezifischen Koordinationsansatz zwischen dem Designteam des Lieferanten und des Kunden. Das zweite Modell schlägt einen vierstufigen Rahmen vor, der den Austausch vorläufiger Informationen innerhalb eines kollaborativen Designprozesses ermöglicht. Dieser Rahmen wird durch ein Tool PIQUANT veranschaulicht. Im Fall von a;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-6761-7_13 583119915014e0d3963f395bc9e3bfad;de;;;6.1.;;;Magnetisches Detektionsverfahren für Meeresbodenkabel in der Schiffsvermessung Das Aufspüren und Identifizieren des Meeresbodenkabels wird zu einer wichtigen Aufgabe in der Schiffstechnik. Die Merkmale der magnetischen Anomalie können verwendet werden, um das Vorhandensein des Meeresbodenkabels zu erkennen. Das Magnetfeldmodell wird vorgestellt und die Konsistenz der magnetischen Anomalieverteilung zwischen der Simulation des Modells und den beobachteten Daten wird überprüft. Der Vergleich zeigt, dass das Meeresbodenkabel mit vernünftigen Methoden effektiv erkannt und identifiziert werden kann.;-;-;-;https://link.springer.com/article/10.1007/s11806-007-0085-1 da168c801ae3b7570c52388ed3e6465b;de;;;6.1.;;;Stammdatenmanagement für die Fertigung von Big Data: eine Auswertungsmethode für das Datennetz Im Fertigungsprozess wird eine große Menge an Fertigungsdaten von verschiedenen Abteilungen und unterschiedlichen Domänen produziert. Um den Datenaustausch und die Verknüpfung zwischen Lieferketten zu realisieren, wurde die Methode des Stammdatenmanagements verwendet. Durch das Stammdatenmanagement können die Schlüsseldaten einheitlich geteilt und verteilt werden. Da diese domänenübergreifenden Daten jedoch durch die Assoziation von Stammdaten ein Datennetz bilden, wird die Bewertung der Effektivität und Rationalität dieses Netzes zum Hauptproblem des vorgeschlagenen Verfahrens. In diesem Beitrag wird ein Modell des Stammdatennetzes basierend auf der Theorie der Mengenpaaranalyse erstellt. Zur Verifizierung der Stammdaten wird eine Bewertungsmethode für das Netzwerk vorgeschlagen. Schließlich wurde ein Fall vorgestellt, um dieses Netzwerkmodell und die Bewertungsmethode zu validieren.;-;-;-;https://link.springer.com/article/10.1007/s11280-019-00707-8 a22c80756bb3aa682cecd1fcd4fe157d;de;;;6.1.;;;Die Forderungen der Gesellschaft Unternehmen sind zunehmend einer kritischen Öffentlichkeit ausgesetzt, die gleichzeitig immer besser informiert ist. Damit entwickeln sich auch in der Gesellschaft neue Erwartungen an Ihr Unternehmen.;-;-;-;https://link.springer.com/chapter/10.1057/9780230271746_9 62387d78f8904376ed574fbd7659d999;de;;;6.1.;;;Aufbau eines Ökosystems vertrauenswürdiger Dienste durch Benutzerkontrolle und Transparenz bei personenbezogenen Daten Die Menge an täglich generierten und gesammelten personenbezogenen Daten nimmt aufgrund der zunehmenden Anzahl von Online-Aktivitäten und insbesondere im Bereich Mobilität rapide zu. Die Verfügbarkeit solch riesiger Datenmengen stellt eine unschätzbare Chance für Organisationen bzw. Einzelpersonen dar, präzise Business Intelligence und innovative Dienste zu ermöglichen. Dennoch stellt es das Gut eines florierenden „Datenmarktes“ dar, der hauptsächlich von den größten IKT-Unternehmen gefördert wird, von dem die Nutzer fast ausgeschlossen sind, was die öffentliche Besorgnis über den Datenschutz erheblich verstärkt. In diesem Szenario haben wir ein Framework entwickelt, das auf einem persönlichen Datenspeicher basiert und die Entwicklung eines Ökosystems vertrauenswürdiger Anwendungen ermöglicht, das den Benutzern volle Transparenz und Kontrolle über die Nutzung ihrer Daten ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-18491-3_20 4b79d7c38b359f2f3769e0e16519a74c;de;;;6.1.;;;Rollenbasiertes Peer-to-Peer-Modell: Erfassen Sie globale Pseudonymität zum Schutz der Privatsphäre Die Peer-to-Peer (P2P)-Ressourcenverbreitung hat neben der Ressourcenverbreitung über das Netzwerk einige Sicherheitsbedenken hinsichtlich des Datenschutzes und der Rechte des geistigen Eigentums aufgeworfen. Um diese Herausforderungen zu lösen, schlagen wir das rollenbasierte P2P-Modell vor, bei dem die;-;-;-;https://link.springer.com/chapter/10.1007/11775300_17 904476391e05c0613888958a72061b63;de;;;6.1.;;;Bürgern die Möglichkeit geben, personalisierte Dienste selbst zusammenzustellen: Ein Cloud-Computing-Modell Dieses Papier stellt ein Cloud Computing (CC)-Modell vor, das für den von der öffentlichen Verwaltung bereitgestellten Service-to-Citizens entwickelt wurde, und untersucht die serviceorientierte Architektur (SOA) als den geeigneten Architekturansatz, skalierbar und interoperabel, um es jedem zu ermöglichen, einen wünschenswerten Service zu entwerfen . Zusammen mit der umfangreichen Verwendung von Mashup zeigt es seine Fähigkeit, Benutzern zu ermöglichen, ihre Dienste zu personalisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16961-8_12 9ef06d2219aac4302a662dddb64a8aae;de;;;6.1.;;;Führung und Kontrolle autonomer unbemannter Fahrzeuge Motiviert durch die innovativen Führungstechniken der Generäle Rommel und Guderian, die 1940 in Europa eingesetzt wurden, beginnt dieses Kapitel mit der Verwendung der Informationstheorie, um die Führung und Kontrolle unbemannter Luftfahrzeuge (UAV) (C2) zu untersuchen. Die informationstheoretische Analyse liefert eine Begründung und Anwendungsfälle für;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-90-481-9707-1_110 9bf53d248855c50ebe5a84528c45bd74;de;;;6.1.;;;LabelECG: Ein webbasiertes Tool für verteilte Elektrokardiogramm-Anmerkungen Die Elektrokardiographie spielt eine wesentliche Rolle bei der Diagnose und dem Screening von Herz-Kreislauf-Erkrankungen im täglichen Gesundheitswesen. Tiefe neuronale Netze haben gezeigt, dass die Genauigkeit der Erkennung von Arrhythmien auf der Grundlage von Elektrokardiogrammen (EKGs) verbessert werden kann. Es werden jedoch mehr EKG-Aufzeichnungen mit Ground Truth benötigt, um die Entwicklung und Weiterentwicklung von Deep-Learning-Techniken in der automatischen EKG-Analyse zu fördern. Hier schlagen wir ein webbasiertes Tool zum Anzeigen und Kommentieren von EKGs vor, LabelECG. Durch die Erleichterung des einheitlichen Datenmanagements ist LabelECG in der Lage, große Kohorten von EKGs an Dutzende von Technikern und Ärzten zu verteilen, die gleichzeitig über Webbrowser auf PCs, Tablets und Mobiltelefonen Anmerkungen machen können. Zusammen mit den Ärzten aus vier Krankenhäusern in China haben wir LabelECG angewendet, um die Anmerkungen von etwa 15.000 12-Kanal-Ruhe-EKG-Aufzeichnungen in drei Monaten zu unterstützen. Diese kommentierten EKGs haben den intelligenten Wettbewerb First China ECG erfolgreich unterstützt. LabelECG wird im Internet frei zugänglich sein, um ähnliche Forschungen zu unterstützen, und wird auch durch zukünftige Arbeiten verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-33327-0_13 92f7bc2c2bc6fecd627d10da336cd767;de;;;6.1.;;;Mining krimineller Datenbanken, um Ermittlungshinweise zu finden – am Beispiel einer Datenbank für gestohlene Autos Während Unternehmen Data Mining intensiv nutzen, um dauerhaften Wohlstand zu erreichen, ziehen wir diese Technik selten in öffentlichen Angelegenheiten in Betracht. Die Regierung verfügt über eine große Menge an Daten, die Aufzeichnungen über offizielle Operationen oder private Informationen der Menschen sind. Diese Daten können verwendet werden, um den Nutzen für die Menschen zu erhöhen oder die Effizienz staatlicher Operationen zu steigern. In diesem Artikel werden wir diese Technik auf die Daten gestohlener Autos anwenden, um das in den Daten verborgene unbekannte Wissen zu erforschen und dieses Wissen dem Transportwesen, der Versicherung sowie der Strafverfolgung zur Entscheidungsunterstützung zur Verfügung zu stellen. Die von uns verwendeten Daten stammen aus 378.000 Datensätzen über gestohlene Autos in den letzten elf Jahren in Taiwan. Nach dem Aufbau eines Data Warehouse wenden wir die Technik der Klassifikation, Assoziationsregel, Vorhersage, Datengeneralisierung und verdichtungsbasierten Charakterisierung an, um neues Wissen zu entdecken. Unsere Ergebnisse umfassen das Verständnis von Autodiebstahl, die Möglichkeit, gestohlene Autos zu finden, Intrigen bei Diebstahlsansprüchen usw. Das erworbene Wissen ist nützlich bei der Entscheidungsunterstützung und zeigt die Anwendbarkeit von Data Mining in öffentlichen Angelegenheiten. Die Erfahrungen, die wir in dieser Studie gesammelt haben, würden den Einsatz dieser Technik in anderen öffentlichen Sektoren unterstützen. Zusammen mit den Forschungsergebnissen schlagen wir den Strafverfolgungsbehörden vor, Data Mining als neues Mittel zur Untersuchung von Kriminalfällen in Betracht zu ziehen, ein Team zur Analyse krimineller Daten einzurichten, ein neues Programm zur Bekämpfung von Autodiebstählen zu starten und die Qualität zu verbessern improve des kriminellen Datenmanagements.;-;-;-;https://link.springer.com/chapter/10.1007/11734628_12 cca287b61f4e87b063b4c639b9255324;de;;;6.1.;;;Brandstiftung: Wessen Problem? Eine Frage des administrativen Versagens oder der beruflichen Zuständigkeit? In diesem Beitrag wird das Potenzial untersucht, die Wirksamkeit der Maßnahmen zur Bekämpfung von Brandstiftung durch eine bessere Zusammenarbeit zwischen den verschiedenen beteiligten Diensten, insbesondere Feuerwehr, Polizei, Forensik und Versicherungen, zu verbessern. Obwohl eine solche Zusammenarbeit von wesentlicher Bedeutung ist und Vorteile bringen kann, wird im Lichte der umfangreichen amerikanischen Initiativen bei behördenübergreifenden Maßnahmen der Schluss gezogen, dass dieser Ansatz vor allem mittelfristig scheitern kann. Es wird die Alternative einer unabhängigen Branduntersuchungs- und Brandbekämpfungsbehörde vorgeschlagen, und es wird vorgeschlagen, dass dies die Schwächen des behördenübergreifenden Ansatzes beheben würde.;-;-;-;https://link.springer.com/article/10.1057/palgrave.cpcs.8140071 27e3e65b3453cf4bdb906d459b21e640;de;;;6.1.;;;Spezialisiertes multidisziplinäres Informationssystem als Instrument zur Unterstützung der Überwachung des Meeresökosystems Die Überwachung und Erhaltung der biologischen Vielfalt sowie die Analyse ihrer Trends über verschiedene Zeitskalen sind zu einem globalen Anliegen geworden. Die Vielfalt der Methoden und Probenahmetechniken, die geringe Menge an Beobachtungsdaten und das Fehlen einheitlicher Checklisten für Arten führen jedoch zu Kontroversen bei der Einschätzung der Entwicklungstendenz mariner Ökosysteme. Darüber hinaus fehlen im Vergleich zu anderen Gebieten der Ozeanographie spezialisierte Informations- oder Datenbankmanagementsysteme, die es ermöglichen, Trends in der Biodiversität und verwandter Daten hochzuladen, Qualität zu prüfen, zu analysieren und zu präsentieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-6575-0_31 9e748aa1953f15e084db6354fd7a8d26;de;;;6.1.;;;Umgebungsadaptives Anti-Personen-Minenerkennungssystem: Advanced Mine Sweeper In diesem Kapitel stellen wir ein umgebungsadaptives Antipersonenminenerkennungssystem namens Advanced Mine Sweeper (AMS) vor. Das fortschrittliche Minensuchgerät basiert auf Sensortechnologien, Zugangskontrolltechnologien und Systemintegrationstechnologien für sichere und effektive Minenräumverfahren nach der Level-II-Vermessung. Das fortschrittliche Minensuchgerät besteht aus einem Sensorfahrzeug/einer Einheit, einem Zugangsfahrzeug und einem Hilfsfahrzeug. Das Sensorfahrzeug/die Sensoreinheit besteht aus einem integrierten Sensor und einem Sensorkopfmanipulator mit kleiner Reaktion. Das Zugangsfahrzeug wird mit Blick auf ein Minenfeld geparkt, um mit seinem Ausleger die Position der Sensoreinheit in einem globalen Gebiet zu kontrollieren. Das Hilfsfahrzeug wird in einiger Entfernung vom Minenfeld geparkt. Es steuert das Sensorfahrzeug/die Sensoreinheit und das Zugangsfahrzeug und zeigt dann die verarbeiteten Sensorinformationen für die Landminenerkennung, den Empfang von Sensorinformationen und die Positionserkennung an. Unter Verwendung dieses Systems wurden Feldversuche mit vergrabenen Attrappen von Landminen zur Bewertung des Nutzens und der Leistung durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84882-346-4_6 528054e958de9417dc9647c5a42304cc;de;;;6.1.;;;Design eines Sicherheits-Produktionsüberwachungs- und Datenmanagementsystems basierend auf einer Cloud-Plattform Sicherheitsproduktion bezieht sich auf die Unfallverhütungs- und Kontrollmaßnahmen in den Produktions- und Betriebstätigkeiten, um Personen- und Sachschäden zu vermeiden. Dieses Papier analysiert zunächst die Leistung und Funktion des Sicherheitsüberwachungs- und Managementsystems für die Produktion und weist auf die Probleme hin, die im bestehenden Sicherheitsüberwachungs- und -managementsystem bestehen. Big-Data-Analysetechnologie ist ein effektiver Weg, um diese Probleme zu lösen und kann die rechtzeitige und genaue Erkennung versteckter Gefahren sowie die Verbesserung der Untersuchungs- und Managementfähigkeiten ermöglichen. In diesem Papier wird das Design eines Sicherheits-Produktionsüberwachungs- und Datenmanagementsystems auf der Grundlage einer Cloud-Plattform vorgestellt. Das System ist die einheitliche Unterstützungssystemplattform basierend auf Cloud-Computing und intelligenter Terminaltechnologie und kann die Effizienz der Datenerfassung verbessern und die Vorhersage und Frühwarnung des Realen durch Big-Data-Technologie realisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-25128-4_72 f88c005cdc23acede47635fcd0499c9c;de;;;6.1.;;;Wörterbuch A–Z (AfDB). Die Ziele der Bank bestehen darin, einzeln und gemeinsam zum wirtschaftlichen und sozialen Fortschritt ihrer Mitgliedsländer beizutragen, indem sie Entwicklungsprojekte finanziert, öffentliche und private Investitionen fördert und die wirtschaftliche Zusammenarbeit zwischen afrikanischen Ländern anregt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-22478-4_2 8b5cbc7cbc4bca6f48bd9967e0cdb633;de;;;6.1.;;;Definition einer zentralen Überwachungsfunktion: Erfahrungsaustausch mit dem Ansatz von TransCelerate BioPharma, Teil 1 Zentrale Überwachung, Überwachung vor Ort und Überwachung außerhalb des Standorts bieten einen integrierten Ansatz für das Qualitätsmanagement klinischer Studien. TransCelerate unterscheidet das zentrale Monitoring von anderen Arten der zentralen Datenüberprüfungsaktivitäten und stellt es in den Kontext einer Gesamtüberwachungsstrategie. Jede Organisation, die eine zentrale Überwachung implementieren möchte, braucht Mitarbeiter mit den richtigen Fähigkeiten, Technologieoptionen, die eine ganzheitliche Überprüfung studienbezogener Informationen unterstützen, und anpassungsfähige Prozesse. Es gibt verschiedene Ansätze, die aktiv genutzt werden, um ein zentrales Monitoring zu implementieren. Dieser Artikel enthält eine Beschreibung, wie Unternehmen eine zentrale Überwachung bereitstellen, sowie Beispiele für die Workflows, die veranschaulichen, wie einige es implementiert haben. Zu den gewünschten Ergebnissen gehört eine frühere, vorausschauendere Erkennung von Qualitätsproblemen. In diesem Papier werden die ersten Implementierungsschritte beschrieben, um zu erfahren, welche organisatorischen Fähigkeiten erforderlich sind.;-;-;-;https://link.springer.com/article/10.1177/2168479014546335 50e8796aa26928f52e5baf1dc98ac9ee;de;;;6.1.;;;"Auf eine effektive Anonymisierung von Überwachungsdaten hinarbeiten: Innovation auf der südafrikanischen Agincourt Health and Socio-Demographic Surveillance Site Die Verknüpfung von Menschen und Orten ist für die Bevölkerungs-Gesundheits-Umwelt-Forschung unerlässlich. Diese Datenintegration erfordert jedoch eine geografische Codierung, damit Informationen, die Einzelpersonen oder Haushalte widerspiegeln, angemessen mit Merkmalen ihrer unmittelbaren Umgebung verbunden werden können. Das Anbieten des Zugangs zu einer solchen Geokodierung erhöht jedoch das Risiko der Identifizierung des Befragten erheblich und birgt daher das Potenzial, die Vertraulichkeit zu verletzen. Als Reaktion darauf wurden verschiedene ""geographische Maskierungs""-Techniken entwickelt, um Fehler in die geografische Codierung einzuführen und dadurch die Wahrscheinlichkeit einer Identifizierung zu verringern. Wir berichten über Ergebnisse aus Analysen des Fehlers, der durch verschiedene Maskierungstechniken eingeführt wurde, die auf Daten aus dem Agincourt Health and Socio-Demographic Surveillance System im ländlichen Südafrika angewendet wurden. Anhand eines Vegetationsindex (Normalized Difference Vegetation Index (NDVI)) auf Haushaltsskala werden die „echten“ NDVI-Werte und die nach Maskierung berechneten verglichen. Wir untersuchen auch die Kompromisse zwischen Genauigkeit und dem Schutz der Privatsphäre der Befragten. Die Exploration legt nahe, dass in diesem Studienumfeld und für NDVI Geomaskierungsansätze, die Puffer verwenden und die Bevölkerungsdichte berücksichtigen, die genauesten Ergebnisse liefern. Die Untersuchung zeigt jedoch auch deutlich den Kompromiss zwischen Genauigkeit und Datenschutz, wobei eine höhere Genauigkeit zu einem höheren Maß an potenzieller Identifizierung der Befragten führt. Es ist wichtig anzumerken, dass diese Analysen einen Prozess veranschaulichen, der rauminformierte Forschung charakterisieren sollte, innerhalb dessen jedoch bestimmte Entscheidungen durch das Forschungsumfeld und die Forschungsziele geprägt werden müssen. Langfristig wollen wir Einblicke in das Potenzial und die Gefahren der Maskierung geben, um die Bevölkerungs-Umwelt-Gesundheitsforschung zu erleichtern.";-;-;-;https://link.springer.com/article/10.1007/s11111-020-00372-4 0e0c5bcc8cab72154935865db0da1244;de;;;6.1.;;;Die Rolle der RDF-Stream-Verarbeitung in einer Smart City ICT-Infrastruktur - Der Aspern Smart City Use Case In diesem Papier diskutieren wir die Möglichkeiten der Einführung von RDF-Stream-Processing im Kontext von Smart Cities. Als konkretes Beispiel nehmen wir das Projekt Aspern Smart City Research – eines der größten Smart-City-Projekte in Europa – das darauf abzielt, Silos in den Bereichen Smart Grid und Smart Building zu überwinden. Wir stellen die geplante intelligente ICT-Infrastruktur vor und identifizieren, wie die RDF-Stream-Verarbeitung in den verschiedenen Interaktionen zwischen Datenquellen, Speicherzentren und Anwendungen/Diensten untersucht werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25639-9_47 46dc2c3a2370e320cb0e8d7f829142d1;de;;;6.1.;;;Rezepte für Schleifentransformationen für Codegenerierung und Auto-Tuning In diesem Papier beschreiben wir Transformationsrezepte, die eine High-Level-Schnittstelle zur Codetransformation und Codegenerierungsfähigkeit eines Compilers bereitstellen. Diese Rezepte können von Compiler-Entscheidungsalgorithmen oder versierten Softwareentwicklern generiert werden. Diese Schnittstelle ist Teil eines Auto-Tuning-Frameworks, das eine Reihe verschiedener Implementierungen derselben Berechnung untersucht und automatisch die leistungsstärkste Implementierung auswählt. Zusammen mit der ursprünglichen Berechnung spezifiziert ein Transformationsrezept eine Reihe von Implementierungen der Berechnung, die sich aus dem Zusammensetzen eines Satzes von High-Level-Codetransformationen ergibt. In unserem System nimmt ein zugrundeliegendes polyedrisches Framework, das mit Transformationsalgorithmen gekoppelt ist, diesen Satz von Transformationen, setzt sie zusammen und generiert automatisch korrekten Code. Wir beschreiben zunächst eine abstrakte Schnittstelle für Transformationsrezepte, die wir vorschlagen, um die Interoperabilität mit anderen Transformationsframeworks zu erleichtern. Wir konzentrieren uns dann auf die spezifische Transformationsrezeptschnittstelle, die in unserem Compiler verwendet wird, und präsentieren Leistungsergebnisse zu seiner Anwendung auf Kernel- und Bibliothekstuning und das Tuning von Schlüsselberechnungen in High-End-Anwendungen. Wir zeigen auch, wie dieses Framework verwendet werden kann, um parallelen OpenMP- oder CUDA-Code aus einer High-Level-Spezifikation zu generieren und automatisch abzustimmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13374-9_4 766bc9147c2980b9a2f2bf3b4bccc589;de;;;6.1.;;;Attributbasierter Speichermechanismus mit Deduplizierungsfilter: Ein Review Paper Cloud Computing basiert auf der gemeinsamen Nutzung von Ressourcen, um Kohärenz und Skaleneffekte zu erzielen, ähnlich wie bei einem Versorgungsunternehmen. In bestehenden Systemen wird ABE (attributbasierte Verschlüsselung) verwendet, um die Sicherheit aufrechtzuerhalten. Die attributbasierte Verschlüsselung ist eine Art der Verschlüsselung mit öffentlichem Schlüssel, bei der der geheime Schlüssel eines Benutzers und der Chiffretext von Attributen abhängig sind. In der Datenverarbeitung ist die Datendeduplizierung eine spezialisierte Datenkomprimierungstechnik zum Eliminieren doppelter Kopien von sich wiederholenden Daten. Verwandte und teilweise synonyme Begriffe sind intelligente Komprimierung und Einzelinstanzspeicherung. In diesem Papier haben wir die verschiedenen Attributspeichermechanismen sowie das Deduplizierungssystem untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-0586-3_9 8d2c169b33c89fd1b1a2b44f2c3f91d8;de;;;6.1.;;;Designidee eines professionellen Talentbewertungssystems basierend auf mobilem Internet Mit der Entwicklung der Informationsanwendung und Popularisierung der gesamten Gesellschaft, dem Einsatz moderner Informationstechnologie auf der Grundlage des mobilen Internets in Form von Online-Lernen und -Bewertungen, die die Schüler zu einer angemessenen Nutzung der Lernzeit führen, den Gedanken der Internetbildung und fortgeschrittenen Online-Lehre nutzen Plattformsystemarchitektur, um Lehr- und Lern-, Prüfungs-, Management- und andere Mehrfachfunktionen zu realisieren, die zu einem wichtigen Lehrmittel an höheren Berufsschulen geworden ist. Das auf dem mobilen Internet basierende professionelle Talentbewertungssystem verwendet Big Data und KI-Technologie, realisiert durch das Online-Lehrplattformsystem quantitative Statistiken zur Lernsituation der Schüler und hilft beim Aufbau eines professionellen Talentbewertungssystems, um einen mehrdimensionalen Bewertungsbericht zu erstellen, so wie die empfohlene Grundlage für die zukünftige Beschäftigung der Studierenden zu schaffen. Durch die Analyse der Zuverlässigkeit und Sicherheit des professionellen Talentbewertungssystems und Einführung der umfassenden Testmethode der Systemleistung bilden Sie die Designkonzeption des professionellen Talentbewertungssystems. In naher Zukunft wird das System der beruflichen Begabungsbewertung weiterentwickelt und genutzt, das in der Berufsausbildung der höheren Berufsschulen eine große Rolle spielen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1468-5_109 7a3e09bcf21109d972596013cb81144c;de;;;6.1.;;;Intelligente Engineering-Assets durch strategische Integration: Blick über die Konvention hinaus Heute gibt es verschiedene institutionelle Ansätze zur Vermögensverwaltung. Dieses Kapitel skizziert den Ansatz des Centre for Industrial Asset Management in Norwegen für die Offshore-Öl- und -Gasproduktion, die Land-, Wind- (und zukünftige Maritime)-Sektoren.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-2724-3_2 50ecde50c215dcb9fe9b5aacce3f70fa;de;;;6.1.;;;Eine gründliche Analyse paralleler Verarbeitungsalgorithmen für Big-Image-Anwendungen Gegenwärtig hat die Entwicklung von Cloud-Computing und Big-Data-Anwendungen mit der zunehmenden Zunahme von Datenansammlungen in der ganzen Welt in der Vielzahl von Bildern und Videos den Bedarf an neuen Bildverarbeitungsverfahren mit dem Ziel der Nutzung des verarbeiteten Bildes für verschiedene Anwendungen geebnet. Es entsteht ein Bedarf an neuen Bildverarbeitungsverfahren, die das verarbeitete Bild für viele Anwendungen verwenden, obwohl verschiedene Techniken mit unterschiedlichen Unterschieden existieren. Letztlich besteht die anhaltende Krise darin, die Kompetenz der enormen Bildbearbeitung voranzutreiben und die Kombination derselben mit früheren Werken zu erhalten. Diese Übersichtsarbeiten präsentieren eine detaillierte Analyse verschiedener Entwicklungen in der Forschung zu Parallelverarbeitungsalgorithmen zur Verarbeitung von Big-Image-Data-Anwendungen. Zunächst werden in diesem Review die Details verschiedener paralleler Verarbeitungsalgorithmen diskutiert, wie die Darstellung des MapReduce (MR)-Frameworks, verteilte, parallele Methoden und das Hadoop-Framework, das kürzlich in verschiedenen Bereichen verwendet wurde. Anschließend wurden der Fokus auf das Studium und die Betrachtung der Fragestellungen und vielversprechenden Lösungen paralleler Rechenmethoden auf Big Data in mehreren Anwendungen und auf Bildverarbeitungsanwendungen gelegt und mit einer Übersicht über eine Reihe offener Fragen und Forschungsbereiche abgeschlossen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4936-6_28 a4d6d2a20c2a58340ae650c24df99a6e;de;;;6.1.;;;Betriebsplanung in Energiesystemen: Eine Literaturübersicht Die operative Planung ist der Prozess der Planung und Organisation der Ressourcen, um den strategischen Plan der Organisation zu erreichen. Die Planung der Lieferkette, der Wartung, des Marketings und der Produktion sind die Hauptbestandteile der Betriebsplanung. Die operative Planung von Energieinvestitionen ist von entscheidender Bedeutung, da diese Investitionen kostspielig sind und die Effizienz der Investitionen einen umfangreichen Planungsprozess erfordert. Auch die Art der Energiequelle verändert den Bedarf an Betriebsplanung. Das Verständnis dieser Bedürfnisse und der Forschungslücken kann die Effizienz der Energiesysteme steigern. Ziel dieses Kapitels ist es, die primären Bedürfnisse und Forschungsschwerpunkte der Betriebsplanung in Energiesystemen aufzuzeigen. Eine umfassende Literaturrecherche wird durchgeführt, um die Forschungsschwerpunkte und die Lücken in der Betriebsplanung in Energiesystemen zu identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-75690-5_15 8571b0077aaff4ece2148e2294caddae;de;;;6.1.;;;Big Data – ein neuer Technologietrend und Faktoren, die die Implementierung von Big Data in der australischen Industrie beeinflussen Big Data ist ein neuer Technologietrend und bietet immense Vorteile. Es gibt zu viele Social-Networking-Websites, die Menschen nutzen, diese Websites mehr als je zuvor. Die Daten, die in den letzten 5 Jahren erstellt wurden, sind größer als die Gesamtmenge der in den vorangegangenen Jahren angesammelten Daten. Dies deutet darauf hin, dass Menschen wissentlich oder unbewusst Big Data produzieren. Darüber hinaus erhält jedes Unternehmen auf vielfältige Weise eine enorme Datenmenge. Diese Daten können in Informationen umgewandelt und Informationen in Wissen umgewandelt werden. Dieses Wissen kann im Produktmarketing sehr hilfreich sein. Australische Industrien können Big Data nutzen. Das Hauptziel dieser Forschung ist es, mehr Informationen über Big Data zu liefern, das noch in den Kinderschuhen steckt, und die Faktoren zu finden, die die Implementierung von Big Data in australischen Industrien beeinflussen können. Big Data ist vor allem in Australien noch ein relativ neues Feld. Es ist verständlich, dass Big Data in australischen Industrien zu einem bedeutenden Akteur werden wird, und deshalb ist es für diese Industrien wünschenswert, Big Data zu nutzen. Big Data ist der Schlüssel zu Business Intelligence und deshalb ist es wichtig, zu diesem speziellen Thema zu forschen. Diese Forschungsstudie hat einen positivistischen Ansatz und eine Kombination von Methoden verwendet. Es wurden qualitative und quantitative Methoden verwendet, und die Erhebung diente als Instrument zur Datenerhebung. Die Umfrage besteht aus fünf Abschnitten. Im ersten Abschnitt sollen die demografischen Daten der Teilnehmer erhoben werden. Die anderen vier Abschnitte basieren jeweils auf einem der vier mit Big Data verbundenen Faktoren: Kosten, Technologie, Fähigkeiten und Wartung. Die Umfrage wurde entwickelt, um diese vier Faktoren zu berücksichtigen. Bei dieser Forschungsmethode wurde die Likert-Skala verwendet. Das Forschungsdesign wurde ausführlich erläutert. Die Ziele dieser Forschungsstudie sind: (1) Faktoren zu finden, die die Implementierung von Big Data in australischen Industrien bestimmen, und (2) den allgemeinen Trend von Big Data und die Technologie zu verstehen, die zur Analyse von Big Data verwendet werden kann. Diese Forschung liefert sehr wichtige Informationen darüber, wie Big Data von verschiedenen Organisationen genutzt werden kann. Die Teilnehmer sind Mitarbeiter der IT-Abteilung verschiedener Branchen wie Handel, IT, Bildung, Öl-Gas und Gesundheitswesen. Die Positionen dieser Teilnehmer reichen von der Einstiegs- bis zur Führungsebene. Die Antworten der Teilnehmer, die die Daten darstellen, wurden dann in IBMs SPSS Version 24 eingegeben. Die Daten wurden mit der Methode der Faktorenanalyse eingegeben und analysiert. Generell wurde festgestellt, dass mehrere Faktoren die Umsetzung von Big Data beeinflussen können. Diese Faktoren sind: Kosten, Wartung, Fähigkeiten und Technologie. Die Analyse hat gezeigt, dass statistische Fähigkeiten, IT-Kenntnisse, Projektmanagement-Kenntnisse und Kommunikationsfähigkeiten für die Menschen, die mit Big Data arbeiten, wichtig sind. Darüber hinaus wirken sich auch Hard- und Softwarekosten, Hard- und Softwarewartung, Hard- und Softwaretechnologie auf die Umsetzung von Big Data aus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67925-9_11 57b6ad19eea94588732e8c62b9997e82;de;;;6.1.;;;RFID-gestützte Multiagenten-basierte Steuerung für ein Bearbeitungssystem Neuere Forschungen zu hochverteilten Steuerungsmethoden für komplexe Systeme haben eine Reihe von verhandlungsbasierten Philosophien hervorgebracht, die Verfahrenstechnik mit Informatik verbinden. Unter diesen Steuerungsphilosophien haben diejenigen, die auf Multi-Agenten-Systemen (MAS) basieren, besondere Bedeutung erlangt. Darüber hinaus werden unter einer Reihe von MAS-Implementierungen häufig solche verwendet, die unterschiedliche Typen von Agenten auf unterschiedlichen konzeptionellen/Verwaltungsebenen verwenden. Diese MAS-Modelle haben jedoch den Nachteil einer übermäßigen Abhängigkeit von aktuellen Informationen über die Produkte und andere Elemente, die sich innerhalb des Systems bewegen. Eine neue Technologie ist auf den Markt gekommen, die dieses Problem lösen kann: Radio-Frequency Identification Enhanced Information Management Systems (RFID-IMS). Eine davon ist die Auto-ID/EPCglobal-Technologie. Dieser Beitrag zeigt, wie ein MAS-Modell zur Steuerung eines Bearbeitungssystems mit RFID-IMS-Technologie verwendet werden kann. Das resultierende System wird zu einem RFID-gestützten intelligenten Fertigungssystem (RFID-IMS II).;-;-;-;https://link.springer.com/article/10.1007/s10696-007-9018-4 3bc2cfd5d23d16f2d5c13d840343f1b3;de;;;6.1.;;;Business Intelligence-Systeme Dieses Kapitel befasst sich mit Business Intelligence (BI)-Systemen, fasst die wichtigsten Anforderungen zusammen, die Unternehmen zur Implementierung eines BI-Systems veranlassen können, und schlägt eine Reihe kritischer Erfolgsfaktoren vor, die eine effektive Implementierung eines BI-Systems ermöglichen, das die Anforderungen der Unternehmen erfüllen kann. Schließlich werden die wichtigsten Reifegradmodelle von BI-Systemen vorgestellt, wobei der Schwerpunkt auf dem Lebenszyklus von BI-Systemen und der Notwendigkeit liegt, diese auf dem neuesten Stand zu halten. Im ersten Teil des Kapitels umfasst die Zusammenfassung der Anforderungen von Unternehmen an BI die Anforderungen an Managementinformationssysteme, strategische Planungsanforderungen, kommerzielle und Marketinganforderungen, Regulierungsanforderungen und Betrugserkennungsanforderungen. Der zweite Teil dieses Kapitels befasst sich mit den kritischen Erfolgsfaktoren der BI-Implementierung. Mehrere Wissenschaftler haben verschiedene Faktorengruppen vorgeschlagen, die es Unternehmen ermöglichen, die Effektivität der Implementierung von BI-Systemen zu maximieren. Dieser Teil des Kapitels betrachtet die wichtigsten Studien zu kritischen Erfolgsfaktoren in der Literatur und zeigt die wichtigsten Aspekte auf, die ein Unternehmen für eine effektive BI-Implementierung berücksichtigen sollte. Zu diesen kritischen Erfolgsfaktoren zählen die in Kap.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-77679-8_3 1d339d8697c3c29b3b26159ca66edcd2;de;;;6.1.;;;Sicherheit und Datenschutz im IoT: Eine Umfrage Das Internet der Dinge (IoT) ist ein Netzwerk global verbundener physischer Objekte, die über das Internet miteinander verbunden sind. Das IoT sieht die Verbindung von wenigen Billionen intelligenter Objekte um uns herum vor, die jeden Tag einzigartig und adressierbar sind. Diese Objekte haben die Fähigkeit, Prozessdaten zu sammeln und Daten über sich selbst und ihre Umgebung zu kommunizieren. Die besten Beispiele für IoT-Systeme sind das Gesundheitswesen, der Bau einer intelligenten Stadt mit einem fortschrittlichen Baumanagementsystem, die Überwachung der Öffentlichkeit und des Verteidigungssektors sowie die Datenerfassung. Die jüngsten Fortschritte in der Technologie haben intelligente und intelligente Sensorknoten entwickelt und RFIDs führen zu einer großen Anzahl von drahtlosen Netzwerken mit intelligenten und intelligenten Geräten (Objekte oder Dinge), die mit dem Internet verbunden sind, die Daten kontinuierlich übertragen. Daher ist die Bereitstellung von Sicherheit und Datenschutz für diese Daten im IoT eine sehr anspruchsvolle Aufgabe, die für mehrere aktuelle und zukünftige Anwendungen des IoT mit höchster Priorität behandelt werden muss. Geräte wie Smartphones, WSNs und RFIDs usw. sind die Hauptkomponenten des IoT-Netzwerks, bei denen es sich im Grunde um ressourcenbeschränkte Geräte handelt. Das Design und die Entwicklung von Sicherheits- und Datenschutzmanagementschemata für diese Geräte wird von Faktoren wie guter Leistung, geringem Stromverbrauch, Robustheit gegenüber Angriffen, Manipulation der Daten und End-to-End-Sicherheit geleitet. Sicherheitsschemata im IoT bieten unbefugten Zugriff auf Informationen oder andere Objekte, indem sie vor Veränderungen oder Zerstörung schützen. Datenschutzsysteme behalten sich das Recht vor, die gesammelten Informationen für deren Verwendung und Zweck zu kontrollieren. In diesem Whitepaper haben wir die wichtigsten Herausforderungen wie Vertraulichkeit, Integrität, Authentifizierung und Verfügbarkeit für das IoT kurz zusammengefasst.;-;-;-;https://link.springer.com/article/10.1007/s11277-020-07649-9 0df68a0814031217bf6378f858b2f93e;de;;;6.1.;;;Metadaten aus Daten: Feiertage aus Anästhesiedaten identifizieren Die immer umfangreicheren Datenbanken, die Forschern zur Verfügung stehen, erfordern qualitativ hochwertige Metadaten, die nicht immer verfügbar sind. Wir beschreiben eine Methode zur eigenständigen Generierung dieser Metadaten. Clusteranalyse und Erwartungsmaximierung wurden verwendet, um Tage in Ferien/Wochenenden und reguläre Arbeitstage zu unterteilen, wobei Anästhesiedaten des Vanderbilt University Medical Center von 2004 bis 2014 verwendet wurden. Diese Klassifikation wurde dann verwendet, um die Unterschiede zwischen den beiden Tagessätzen im Zeitverlauf zu beschreiben. Wir haben 3802 Tage ausgewertet und 3797 basierend auf der Anästhesiefallzeit richtig kategorisiert (was einer Fehlerrate von 0,13 % entspricht). Die Verwendung anderer Metriken zur Kategorisierung, wie abgerechnete Anästhesiestunden und Anzahl der Anästhesiefälle pro Tag, führte zu ähnlichen Ergebnissen. Die Analyse der beiden Kategorien zeigte, dass das Operationsvolumen mit der Zeit für Nicht-Ferien schneller zunahm als Feiertage (;-;-;-;https://link.springer.com/article/10.1007/s10916-015-0232-4 a5fe59f1545899c09a047b6926b88a8e;de;;;6.1.;;;Agentenbasierte Simulationen des Softwaremarktes unter verschiedenen Preisschemata für Software-as-a-Service und Perpetual Software In diesem Papier stellen wir agentenbasierte Simulationen vor, die die Interaktionen zwischen Softwarekäufern und -anbietern in einem Softwaremarkt modellieren, der Software-as-a-Service (SaaS) und unbefristete Software (PS) Lizenzen zu unterschiedlichen Preismodellen anbietet. Insbesondere werden Szenarien simuliert, in denen Vendor Agents dynamisch Preise festlegen. Die Agenten des Kunden (oder Käufers) reagieren auf diese Preise, indem sie das Softwarelizenzschema nach vier grundlegenden Kriterien auswählen, wobei der analytische Hierarchieprozess (AHP) als Entscheidungshilfemechanismus verwendet wird. Diese Kriterien beziehen sich auf Finanzen, Softwarefähigkeit, Organisation und Anbieter. Für unsere Simulationen werden drei Preisschemata implementiert: Derivative-Follower (DF), nachfragegesteuert (DD) und wettbewerbsorientiert (CO). Die Ergebnisse zeigen, dass das DD-Schema die effektivste Methode ist, jedoch schwer zu implementieren ist, da es eine perfekte Kenntnis der Marktbedingungen erfordert. Dieses Ergebnis wird durch eine Preissensitivitätsanalyse gestützt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15681-6_5 1abdf8101fa22d17a88d3268e1301041;de;;;6.1.;;;Der aktuelle Stand der Open-Source-Hardware: Die Notwendigkeit einer Open-Source-Entwicklungsplattform Open Source Hardware (OSHW) ist ein neues Paradigma, das versucht, die Open-Source-Software-Bewegung zu emulieren. Obwohl es mehrere OSHW-Vorzeigeprojekte gibt, muss dieses Produktentwicklungsparadigma noch sein volles Potenzial ausschöpfen. Dieses Papier gibt einen Überblick über den aktuellen Stand von OSHW und zeigt, dass das Fehlen einer robusten und einfachen Entwicklungsplattform ein Haupthindernis für die Einführung von OSHW darstellt. Die Autoren argumentieren, dass eine Cloud-basierte Open-Source-Plattform die praktikabelste Richtung wäre.;-;-;-;https://link.springer.com/chapter/10.1007/978-81-322-1050-4_77 659f5a1888df52d2dbe0bbfe705fb8c4;de;;;6.1.;;;Lehren aus dem Papierkram: Entwerfen eines kooperativen Shared Object Service Die gemeinsame Nutzung von Informationen spielt in den meisten Arbeitsumgebungen eine zentrale Rolle, und viele Anwendungen erfordern Einrichtungen, die den kooperativen Zugriff auf gemeinsame Informationen fördern. Es ist wichtig, dass diese Einrichtungen aus dem Verständnis der Art der Dokumentenverwendung in Arbeitsumgebungen informiert sind. Dieses Papier wendet sich der Verwendung von Dokumenten zu, um die Verwendung gemeinsam genutzter Informationen zu verstehen. Die relevanten Merkmale von Dokumenten werden skizziert, bevor eine kritische Überprüfung einer früheren Feldstudie vorgelegt wird. Schließlich werden einige der von einem Shared Object Service bereitgestellten Einrichtungen skizziert. Dieser Dienst wurde durch viele der in der Feldstudie vorgestellten Beobachtungen motiviert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5499-8_5 793c51ec16f56fa569e191713b0a8890;de;;;6.1.;;;Ein Wert von Data Science in der Medizininformatik: Ein Überblick Der Einsatz von Data Science und prädiktiver Modellierung für die klinische Entscheidungsfindung in Echtzeit wird zunehmend anerkannt. Der erste Schritt auf dem Weg zur Einführung von Echtzeit-Vorhersage und -Prognose ist die Erstellung und Bewertung von Vorhersagemodellen für die klinische Praxis. Eine Ausbildung in Medizininformatik ist nicht nur für Medizinstudenten notwendig, sondern für alle medizinischen Fachkräfte aller Fachrichtungen. Ein entscheidender Schritt für das Erlernen und Anwenden der klinischen Medizin ist die Eingliederung der Medizininformatik in das breite Spektrum der Medizininformatik. Aktuelle Forschungsschwerpunkte lassen sich nach Organisation, Durchführung, Bewertung, Darstellung und Interpretation medizinischer Informationen kategorisieren. Aufgrund vieler treibender Kräfte hinter der Weiterentwicklung der Methoden des Informationsmanagements und ihrer Innovationen, der Entwicklungen in der Medizin und des Gesundheitswesens sowie der sich ständig weiterentwickelnden Bedürfnisse, Anforderungen und Bestrebungen der menschlichen Gesellschaften sind viele Veränderungen in der medizinischen Informatik zu erwarten. Data Science und Predictive Analytics bieten unterschiedliche Methoden, um riesige Datensätze medizinischen Wissens aus der Intelligenz zu erschließen. Diese Ansätze bieten viele Möglichkeiten, z. B. Muster zu erkennen, Ergebnisse vorherzusagen und Algorithmen besser zu optimieren. Aber die Sammlung und Verwaltung medizinischer Daten hat oft nur wenige Probleme, wie Datengröße, Datenkonsistenz, Dauerhaftigkeit und Datenvollständigkeit. Diese Forschung bietet einen umfassenden Überblick über medizinische Datenverarbeitung, Predictive Analytics und Data Science, um einen Beitrag im Bereich der medizinischen Informatik und Datenwissenschaft zu leisten. Es bietet Erklärungen zu grundlegenden Prinzipien der Datenwissenschaft im sich entwickelnden Gebiet der medizinischen Informatik. Die Forschung umfasst auch eine Überprüfung des Nutzens, der Anwendungen und der Zukunft der Datenwissenschaft im Gesundheitswesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-3029-3_1 a08bff9518e8387565cd6532d33850c0;de;;;6.1.;;;Ein leichtes mobiles Webservice-Framework basierend auf Axis2 Mobile Computing hat sich in den letzten zehn Jahren exponentiell entwickelt, und heutzutage befindet sich die Welt weit im mobilen Zeitalter. Intelligente Mobilgeräte wie Tablets, Pads und Smartphones haben die Labore verlassen und sind aus dem Leben der Menschen nicht mehr wegzudenken. Mobile Computing wird in den nächsten Jahren an Leistung und Verbreitung weiter zunehmen und ist bereit, die dominierende Computertechnologie zu werden. Aufgrund von Leistungs- und Bandbreitenbeschränkungen, die dem mobilen Computing inhärent sind, ist es unerlässlich, mit Webdiensten so effizient wie möglich zu kommunizieren. Dieses Bedürfnis nach Effizienz motiviert unsere Forschung. In diesem Papier entwickeln wir ein theoretisches Light-Web-Service-Framework und ein praktisches System zum Testen vorhandener Technologien und der Leistung mobiler Geräte. Außerdem beschreiben wir eine neue Servicearchitektur und eine mobile Portalschnittstelle.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-6516-0_107 78964c9d5c3c382c5653f0466e66e9ce;de;;;6.1.;;;Abfragebasiertes Workload-Management-System für die Cloud-Umgebung Das Workload-Management für gleichzeitige Abfragen ist einer der herausfordernden Aspekte bei der Ausführung von Abfragen über die Cloud-Computing-Umgebung. Das Kernproblem besteht darin, jedes unvorhersehbare Lastungleichgewicht in Bezug auf unterschiedliche Ressourcenfähigkeiten und -leistungen zu verwalten. Die Hauptherausforderungen dieses Problems bestehen darin, die Kontrolle über die laufenden Ressourcen zu erhöhen, um die Gesamtleistung und Antwortzeit der Abfrageausführung zu verbessern. Dieses Papier schlägt ein effizientes Workload-Management-System zur Steuerung der Abfrageausführung über die Cloud-Umgebung vor. Das Papier stellt eine Architektur vor, um die Antwortzeit von Abfragen zu verbessern, indem jedes Lastungleichgewicht über die Ressourcen erkannt wird. Außerdem können Sie dynamisch auf die Abfragen antworten, indem Sie die Abfrageausführungen über die Ressourcen hinweg neu verteilen. Die Ergebnisse zeigen, dass die Anwendung dieses Workload-Management-Systems die Antwortzeit von Abfragen um 68 % verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13461-1_9 6dcf6df34953f57b6517c4b68aa5fd1c;de;;;6.1.;;;Von Zellen zu Systemen: Logos und Metalogos Neurowissenschaftler untersuchen verschiedene anatomische, physiologische und funktionelle Komponenten des Nervensystems, um besser zu verstehen, wie die „niedrige“ Aktivität einzelner Zellen auf das Verhalten abgebildet wird. In diesem Forschungsprozess werden riesige Mengen komplexer Daten gesammelt, aber die Technologie hat noch keine Systeme bereitgestellt, die diese Informationen integrieren, um Wissenschaftlern zu helfen, die Daten zu analysieren, zu visualisieren und zu verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4831-7_104 bfaf0343e119652becab47383680ea45;de;;;6.1.;;;Welcher XML-Speicher für Wissens- und Ontologiesysteme? Neue Forschungen zu Wissens- und Ontologie-Managementsystemen benötigen in vielen Fällen die Vielseitigkeit nativer XML-Speicher für Manipulationen mit vielfältigen und sich ändernden Datenstrukturen. Innerhalb der DEB-Entwicklungsplattform (Dictionary Editor and Browser) ist die Effizienz der Hintergrunddatenspeicherung für alle Arten von Strukturen und Diensten, einschließlich Wörterbüchern, semantischen Wortnetzen, klassischen Ontologien oder lexikalischen Datenbanken, tendenziell eine entscheidende Eigenschaft des Systems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15387-7_47 801bd861969b39689b15290080962b70;de;;;6.1.;;;Internationaler Workshop zur Insektizidresistenz bei Vektoren von Arboviren, Dezember 2016, Rio de Janeiro, Brasilien Durch Vektoren übertragene Krankheiten, die durch Insektenvektoren wie Mücken übertragen werden, treten in über 100 Ländern auf und betreffen fast die Hälfte der Weltbevölkerung. Dengue ist derzeit die häufigste arbovirale Erkrankung, aber Chikungunya, Zika und Gelbfieber zeigen eine zunehmende Prävalenz und Schwere. Die Vektorkontrolle, hauptsächlich durch den Einsatz von Insektiziden, spielt eine Schlüsselrolle bei der Krankheitsprävention, aber die Verwendung der gleichen Chemikalien seit mehr als 40 Jahren führte zusammen mit der Verbreitung von Mücken durch Handel und Umweltveränderungen zur weltweiten Ausbreitung der Insektizidresistenz . In diesem Zusammenhang werden dringend innovative Werkzeuge und Strategien zur Vektorkontrolle einschließlich des Resistenzmanagements benötigt. Dieser Bericht fasst die wichtigsten Ergebnisse des ersten internationalen Workshops über Insektizidresistenz bei Vektoren von Arboviren zusammen, der vom 5. bis 8. Dezember 2016 in Rio de Janeiro, Brasilien, stattfand. Die Hauptziele dieses Workshops waren die Identifizierung von Strategien für die Entwicklung und Umsetzung standardisierter Insektizide Resistenzmanagement, auch um Vergleiche zwischen Nationen und Zeiträumen zu ermöglichen und um Forschungsprioritäten für die Kontrolle von Vektoren von Arboviren zu definieren. Der Workshop brachte 163 Teilnehmer aus 28 Nationalitäten zusammen und war live über das Web zugänglich (> 70.000 Webzugriffe über 3 Tage).;-;-;-;https://link.springer.com/article/10.1186/s13071-017-2224-3 d9b663b51a01af94e3328b2c2f0d66e4;de;;;6.1.;;;Systeme im agilen Einkauf In diesem Kapitel werden die Anwendungen detailliert analysiert, die die digitale Transformation der agilen Beschaffung unterstützen können. Am Anfang steht die Analyse von „klassischen“ ICT-Lösungen wie dem ERP und seinen Hauptkomponenten, die den Einkauf vor allem aus administrativer und buchhalterischer Sicht unterstützen können. Als nächstes analysiert es im Detail das E-Procurement und seine Komponenten, die sowohl bei operativen Aktivitäten als auch bei Schnittstellen zu Lieferanten helfen können. Das Kapitel befasst sich mit den Hindernissen und den Vorteilen der elektronischen Beschaffung sowie den Herausforderungen bei ihrer Umsetzung. Der Ansatz basiert auf einer innovativen Architektur, die eine Analyse der bereits verfügbaren und der noch nicht verfügbaren Komponenten ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-61085-6_3 756e3ddc784304ca8a94313bf3d5ca08;de;;;6.1.;;;Ein DCT-basiertes Verfahren zur Eigentumsidentifizierung mit Graustufen- und farbigen Signaturen In diesem Beitrag schlagen wir eine Methode zur Eigentumsidentifizierung vor, die auf der diskreten Kosinustransformation (DCT) basiert. Der Urheberrechtsinhaber kann ein Graustufen- oder ein farbiges Bild als Eigentumserklärung auswählen, das als Anspruch auf das Eigentum an seinem Werk verwendet wird. Im Gegensatz zu herkömmlichen Wasserzeichenschemata wird die Eigentumserklärung nicht in das zu schützende Bild eingebettet. Stattdessen erstellt unsere Methode einen Eigentumsanteil für den Autor gemäß den Merkmalen des Originalbilds und der Eigentumserklärung. Die Merkmalskarte des Originalbildes besteht aus DC-Koeffizienten verschiedener DCT-Blöcke. Wenn Piraterie passiert, kann der Autor seinen Eigentumsanteil zeigen, um die Eigentumserklärung zu enthüllen, um sein Urheberrecht zu beweisen. Beachten Sie, dass die Größe der Besitzanweisung nicht darauf beschränkt ist, kleiner als die des Host-Images zu sein. Darüber hinaus können mehrere Eigentumserklärungen für ein einzelnes Bild registriert werden, ohne sich gegenseitig zu zerstören. Die experimentellen Ergebnisse werden die Robustheit unseres Schemas gegenüber mehreren gängigen Angriffen zeigen. Schließlich werden wir einige Diskussionen und Vergleiche mit der Studie anderer Forscher geben.;-;-;-;https://link.springer.com/article/10.1007/s10044-006-0039-5 3734711d4188180cc46fc4eefbea4f05;de;;;6.1.;;;INSTANCE: Das Konzept der Zwischenspeicherknoten Ziel des Projekts INSTANCE (Intermediate Storage Node Concept) ist es, die asynchrone Kommunikation in serverbasierten Systemen wie World-Wide Web und Video-on-Demand durch eine neue Struktur für serverbasierte Systeme effizienter zu unterstützen. Der vorgeschlagene Ansatz wird zu einer Struktur führen, die in der Lage ist, gleichzeitig eine größere Anzahl von Kunden zu niedrigeren Kosten (im Vergleich zu herkömmlichen Ansätzen) zu unterstützen. Server, die aufgerufen werden;-;-;-;https://link.springer.com/chapter/10.1007/3-540-63875-X_50 90dec8e61aa8c03f0a60898d7aab9bdd;de;;;6.1.;;;Paneldaten verwalten Paneldaten sind in der Regel komplexer als Querschnittsdaten. Daher ist es vor Beginn einer statistischen Analyse erforderlich, die relevanten Informationen aus einer größeren Datenbank zu extrahieren, die oft aus mehreren Dateien besteht. Paneldaten können für statistische Analysen entweder im breiten oder im langen Format gespeichert werden. Das Kapitel stellt die wichtigsten Datenmanagementoperationen vor, um solche Analysedateien aus einer größeren Paneldatenbank wie dem Deutschen Sozio-oekonomischen Panel (SOEP) zu erstellen. In drei Fallstudien wird gezeigt, wie Softwarebefehle, die in allen gängigen Statistikprogrammpaketen verfügbar sind (wie Merge und Append), auf SOEP-Daten angewendet werden können. Das Kapitel schließt mit einer Erörterung von ausgeglichenen und unausgeglichenen Paneldaten und möglichen Gegenmaßnahmen gegen eine solche Einheitsantwort.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32914-2_2 058c88bcf29ea272a7b3819c2788524f;de;;;6.1.;;;New Technology Briefing: Kundenerkennungssysteme: Voraussetzung für effektives CRM? Heutzutage ist es für die meisten großen Unternehmen üblich, ihre Anforderungen in erster Linie in Bezug auf Softwarefunktionalität, System- und Datenintegration und Änderungsmanagement zu berücksichtigen, wenn sie eine wesentliche Erweiterung ihrer CRM-Fähigkeit erwägen. Das Anheben der Datenqualitätsstandards, einschließlich beispielsweise der Genauigkeit und Aktualität von Kundennamen und -adressen, wurde in der Regel entweder als nicht mit CRM zusammenhängend oder für das Datenintegrationselement von CRM als von untergeordneter Bedeutung angesehen. Dies könnte sich jetzt ändern. In den USA beginnen viele Organisationen mit den größten Volumina an ausgehender Direktwerbung und eingehendem Callcenter-Verkehr jetzt, externe Systeme für die unterschiedlichen Bezeichnungen „Identity Linking“, „Customer Recognition“ und Customer Data Integration („CDI“) einzuführen. . Zusätzlich zur Durchführung eines routinemäßigen Adressabgleichs gleichen diese Systeme Namens- und Adressdatensätze mit einem zentralisierten universellen Register bekannter Namen und Adressen ab, standardisieren, verifizieren und aktualisieren sie. Die Bedeutung solcher Systeme geht, wie frühe Implementierungen zeigen, weit über die Verbesserung der Datenqualität hinaus. Befürworter – Anbieter und Anwender – sehen in diesen Verknüpfungstechnologien zunehmend einen entscheidenden Einfluss auf das Design der Datenmanagementsysteme, auf denen ihre CRM-Systeme basieren. Dieses Papier untersucht die Ursprünge und Bedeutung dieser neuen Systeme, erklärt, wie sie sich von traditionellen „Merge-Purge“- und Adressverwaltungsdiensten unterscheiden, liefert Beispiele dafür, wie sie traditionelle Datenverwaltungsprozesse verändern könnten, und erwägt, wie wahrscheinlich ihr Einsatz ist auf andere Länder als die USA ausbreiten.;-;-;-;https://link.springer.com/article/10.1057/palgrave.im.4340149 b5e9e12e93bd4d455f8c8c89f84c7e09;de;;;6.1.;;;Open Source ERP-Systeme für KMU entwickeln: Ist das noch interessant? Das Interesse an ERP-Systemen (Enterprise Resource Planning) für kleine und mittlere Unternehmen (KMU) steigt. Dieses Interesse hat neue Liefermodelle von ERPs geschaffen, und eines ist das Open-Source-ERP. Die in diesem Papier behandelte Frage lautet: Welche Rolle hat die Entwicklung von Open-Source-ERPs bei der Verbreitung von ERPs unter KMU gespielt? Es kann festgestellt werden, dass Open Source heute in Unternehmen an Bedeutung gewonnen hat, jedoch ist nicht so klar, welche Rolle Open Source für bestimmte Geschäftsanwendungen wie ERPs spielt. Um dies zu untersuchen, wurde eine Kombination aus Literaturrecherchen und einer Untersuchung eines Vertriebskanals von Open-Source-Projekten durchgeführt. Darauf aufbauend wird diskutiert, ob Open-Source-ERP-Systeme für den Mittelstand noch interessant sind. Dies wird dann mit Herausforderungen verglichen, die ein proprietärer ERP-Anbieter in der ERP-Entwicklung vorschlägt, wenn er auf den KMU-Markt abzielt. Daraus kann geschlossen werden, dass die Open-Source-ERP-Entwicklung viel zu bieten hat, aber die wichtigste Schlussfolgerung ist, dass der Unterschied hauptsächlich auf der Entwicklungsseite liegt, was bedeutet, dass angenommen werden kann, dass dies für die tatsächliche Verbreitung von ERPs unter KMU der Fall ist unabhängig davon, ob das ERP Open Source oder proprietär ist, jedoch haben Open Source ERPs für KMU wahrscheinlich dazu geführt, dass neue „Geschäftsmodelle“, die die Möglichkeit für KMU erhöhen, auf ERPs zuzugreifen, das Licht erblickt haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40823-6_11 460b94fbf83ccced5ff20356a00e3bb8;de;;;6.1.;;;Die RO-Theorie, Entdeckung von BUI und IS Diese kurze, aber eingehende Analyse und Vorschläge waren ein ehrgeiziges Bestreben des Autors, wissenschaftlich fundierte Grundlagen für die Organisationstheorien, die Dr. Elliott Jaques in den letzten fünfundfünfzig aufgestellt hat, zu überprüfen, zu analysieren, zu verstehen, zu erhalten und zu entdecken Jahre Forschung. Dieses Bemühen dauerte über zwei Jahre und begann mit dem Interesse des Autors, an der School of Business and Public Management der George Washington University, einer bekannten Schule in Washington, DC, an einer Doktorarbeit auf der Grundlage der Theorie der Requisite Organization zu arbeiten die es ermöglicht hat, skurrile, originelle und nicht-traditionelle Ideen zu untersuchen und für Doktorarbeiten zu bearbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-4852-9_6 99e1cf907a969c195ed137e655f61903;de;;;6.1.;;;PiMS: Ein Datenmanagementsystem für strukturelle Proteomik PiMS (Protein Information Management System) ist ein Laborinformationsmanagementsystem für Proteinwissenschaftler. Es ermöglicht Forschern, während der Produktion rekombinanter Proteine ​​für strukturelle und funktionelle Anwendungen Daten einzugeben, Proben zu verfolgen und Ergebnisse zu melden. PiMS ist das einzige kundenspezifische LIMS für die Proteinproduktion, das Daten vom ausgewählten Ziel bis zur Probe des löslichen Proteins aufzeichnet. Die xtalPIMS-Erweiterung unterstützt die Kristallogenese und wurde kürzlich erweitert, um das Kristallfischen und die Kristallbehandlung zu unterstützen. PiMS kann durch die Definition von Protokollen an lokale Arbeitsweisen angepasst werden. Diese werden verwendet, um Vorlagen für die Aufzeichnung von Details der Experimente bereitzustellen. PiMS wird weiterhin als Reaktion auf die Bedürfnisse der Benutzer entwickelt, um einen einheitlichen und erweiterbaren Satz von Softwarewerkzeugen für die Proteinwissenschaften bereitzustellen. Die Vision für PiMS ist es, der Laborstandard für proteinbezogenes Datenmanagement zu werden. Der Science and Technology Facilities Council (STFC) verteilt PiMS kostenlos an akademische Nutzer im Rahmen des Community-Modells.;-;-;-;https://link.springer.com/protocol/10.1007/978-1-4939-2230-7_2 8501914e8d738d6fc697c1e2eff98491;de;;;6.1.;;;Der neue verwaltete Überprüfungsprozess von CBER: Ein verwalteter und integrierter Regulierungsprozess, der von der Entdeckung bis zum Post-Marketing kontinuierlich ist Eines der Ziele der strategischen Vision des Center for Biologics Evaluation and Research (CBER) für 2004 ist: „ein gesteuerter und integrierter Regulierungsprozess, der von der Entdeckung bis zur Post-Marketing-Phase kontinuierlich ist.“ Eine Strategie, um dieses Ziel zu erreichen, besteht darin, die Prinzipien der Managed Review auf den gesamten Regulierungsprozess anzuwenden. Zu den Managed-Review-Prinzipien gehört die Gestaltung eines Review-Prozesses, der rationalisiert, konsistent und effizient ist. Die Steuerung dieses Überprüfungsprozesses erfolgt durch Leistungsziele in Form von Überprüfungsereignissen, die den Prozess voranbringen. CBER hat seinen aktuellen Managed Review Process erweitert und verbessert, um dieses Ziel zu erreichen. Dieser neue Managed Review Process wird derzeit im Zentrum implementiert. Es erstreckt sich von der Entdeckung bis zum Post-Marketing, umfasst alle regulatorischen Mechanismen, die für die Prüfung und Genehmigung der Einreichung verwendet werden, schlägt eine Änderung der Führungsstruktur des Prüfteams vor, unterstreicht die Bedeutung von Projektmanagementaktivitäten und verbessert die Leistungsziele durch das Hinzufügen neuer Prüfmeilensteine ​​und -ziele Termine.;-;-;-;https://link.springer.com/article/10.1177/009286159803200423 be77373683116d6cdd053bcd151e83ea;de;;;6.1.;;;Unwillkürliche motorische Phänomene beim Locked-in-Syndrom Mehrere unwillkürliche Bewegungen wurden bei Patienten beobachtet, die mit Ausnahme des vertikalen Blicks aufgrund einer bilateralen pyramidalen Querläsion auf der Ebene des Pontins oder des Mittelhirns völlig immobil waren. Bei diesen bewusst eingeschlossenen Patienten konnten Streckspasmen und Beugerspasmen durch unspezifische Stimulation ausgelöst werden. Mimische Schmerzreaktionen, pathologisches Weinen und ursprüngliches Schreien („Katzenschreien“) wurden ebenfalls beobachtet. Andere motorische Muster waren Jammern, Stöhnen, Stöhnen, Seufzen und Gähnen. Die pathophysiologischen Implikationen dieser Beobachtungen werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF00313183 d083d5133048b3a05115fb4f7aba7ae6;de;;;6.1.;;;Verwendung von Risikobewertungen zur Bewertung der Versicherbarkeit im Kontext von Cyber-Versicherungen Im aktuellen Globalisierungsrahmen, in dem elektronische Transaktionen und Datenaustausch eine gemeinsame Aktivität sind, sind die Analyse, der Schutz und die Vermeidung von Cyber-Risiken zu einem Schlüsselaspekt geworden, der auf der Geschäftsagenda von Unternehmen berücksichtigt und priorisiert werden muss. Dennoch ist diese Frage angesichts der Dimension des Problems und der betroffenen Unternehmenseinheiten und Einzelpersonen und Infrastrukturen schwer zu analysieren. Folglich wird Cyber-Versicherung als geeignetes Mittel angesehen, um finanzielle Verluste zu vermeiden, die durch Sicherheitsverletzungen der IT-Infrastrukturen und -Verfahren verursacht werden. Dieses Papier analysiert und beschreibt, wie Kunden und ihre Cyber-Risiken von einem Versicherungsunternehmen bewertet werden sollten, um den Unternehmensstatus zu ermitteln und die erforderlichen Maßnahmen zur Behebung des Problems umzusetzen. Diese Arbeit beschreibt die drei Phasen, die erforderlich sind, um eine vollständige Cyber-Risikobewertung und die Risikobewertung abzuschließen. Darüber hinaus hebt das Papier die Ressourcen hervor, die der Versicherer in seiner Roadmap zur Umsetzung der Risikobewertung und damit zur Bestimmung des Unternehmens vorhalten sollte;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-11039-0_16 ab8945107abdc7b802ffe0b278ae4818;de;;;6.1.;;;IFC Model Restructuring Framework für effizientes Massenladen auf objektrelationalen IFC Model Server Diese Studie schlägt einen IFC-Modellrestrukturierungsrahmen zum Importieren eines großen IFC-Modells in einen auf Objektbeziehungsdatenbanken basierenden Industry Foundation Classes (OR-IFC)-Server vor. Der Zweck der Verwendung eines IFC-Servers besteht darin, die Zusammenarbeit durch den Austausch von Building Information Modeling (BIM)-Daten zwischen den Bauprojektteilnehmern zu erleichtern. Die große Größe von IFC-Dateien kann jedoch mehrere Tage zum Hochladen auf den Server benötigen und zu einer Zeitverzögerung beim Informationsaustausch führen. Bei einem nicht optimierten Algorithmus kann es beispielsweise mehrere Tage dauern, eine 111-MB-Modelldatei in den IFC-Server zu importieren, und bei großen Modelldateien, die 300 MB überschreiten, kann es aufgrund der vielen Iterationszyklen bei der Suche zu einem Importfehler kommen und Abbildungsprozess für IFC-Entitäten und Objektkennungen. Daher schlugen die Autoren einen neuen Restrukturierungsalgorithmus und eine Bulk-Loading-Methode vor, um IFC-Daten zeitnah in den Server zu importieren. Die Idee des Massenladens besteht darin, alle IFC-Instanzen nach IFC-Klasse vorzusortieren und in Blöcke zu gruppieren. Als Ergebnis benötigte die Importzeit für ein 61-MB-Modell 56 Sekunden, und ein 111-MB-Bürogebäudemodell und ein 346-MB-Gebäudemodell wurden in 2 Min. 37 Sek. bzw. 14 Min. 11 Sek. importiert. Die experimentellen Ergebnisse haben gezeigt, dass die Importgeschwindigkeit um das 30-fache gegenüber dem bisherigen NoSQL-basierten Ansatz verbessert wurde. Daher wird erwartet, dass die vorgeschlagene Methode einen effizienten Informationsaustausch zwischen den Projektbeteiligten in zukünftigen BIM-Projekten ermöglicht.;-;-;-;https://link.springer.com/article/10.1007/s12205-017-1977-8 201f947cd63d5e040e5855f2322d6612;de;;;6.1.;;;Ubiquitären Datenbankzugriff mit XML ermöglichen Dieses Whitepaper beschreibt das Design und die Implementierung von DataX, einer Middleware zur Ermöglichung des Remote-Datenbankzugriffs von heterogenen Thin Clients. Im Gegensatz zu bestehenden kommerziellen Angeboten, die auf der Client-Seite eine eigenständige Datenbank erfordern, repliziert DataX die Serverdatenbank teilweise in Form von XML unter Verwendung eines schwachen Konsistenzkriteriums. Es passt auch die Datenreplikation an Geräteeigenschaften und Benutzerpräferenzen an. Es verwendet einen gerätespezifischen Renderer, um Daten in einem Formularlayout darzustellen, wodurch die Datenzugriffssemantik von Benutzerinteraktionsdetails getrennt und unabhängig vom Gerätetyp ist. Es ermöglicht die schnelle Entwicklung von End-to-End-Lösungen und die Portabilität von Anwendungen über mehrere Client- und Serverplattformen hinweg.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-46669-X_11 296732a78c4d3377f50032ce091099ca;de;;;6.1.;;;Big Data fördert die Wissenschaft des tibetischen Plateaus und des Pan-Drittpol-Erdsystems Der Pan-Dritte Pol umfasst das tibetische Plateau und die nördliche intrakontinentale Trockenregion Asiens, die sich im Westen bis zum Kaukasus und im Osten bis zum westlichen Löss-Plateau erstreckt. Diese Region umfasst 20 Millionen Quadratkilometer und beeinflusst die Umwelt, in der drei Milliarden Menschen leben. Zwei Sonderprojekte wurden durchgeführt, um eine wichtige wissenschaftliche Unterstützung für die Öko-Umwelt-Veredelung und die nachhaltige wirtschaftliche und soziale Entwicklung der Region des Pan-Dritten-Pols mit dem Zentrum des tibetischen Plateaus zu leisten: das zweite wissenschaftliche Expeditionsprogramm des tibetischen Plateaus (ein nationales Sonderprojekt) ) und Pan-Third Pole Environmental Change and Construction of the Green Silk Road (im Folgenden als Seidenstraße und Umwelt bezeichnet), ein strategisches wissenschaftliches und technologisches Pilotprojekt (Kategorie A) der Chinesischen Akademie der Wissenschaften. Das Big-Data-System Pan-Third Pole ist eine wichtige Datenunterstützungsplattform für diese beiden großen Forschungsprogramme und hat mehrere Zwecke: die Speicherung, Verwaltung, Analyse, Gewinnung und Weitergabe wissenschaftlicher Daten für verschiedene Disziplinen wie Ressourcen, Umwelt, Ökologie und atmosphärische Wissenschaft des Pan-Dritten Pols, Erstellung wichtiger wissenschaftlicher Datenprodukte des Pan-Dritten Pols, die schrittweise Entwicklung von Funktionen wie Online-Big-Data-Analyse und Modellanwendung, der Aufbau einer Cloud-basierten Plattform zur Integration von Daten, Methoden, Modelle und Dienstleistungen für die Pan-Drittpol-Forschung und die Förderung der Anwendung der Big-Data-Technologie in der wissenschaftlichen Forschung in der Region. Dieses Papier zeigt im Detail verschiedene Aspekte des Pan-Third Pole-Big-Data-Systems, einschließlich der Systemarchitektur, der Datenressourcenintegration und der Big-Data-Analysemethoden. Das System verbessert die Verarbeitungsfähigkeit von Big Data in den Geowissenschaften, dient als neues Paradigma der geowissenschaftlichen Forschung, die von Big Data angetrieben wird, und erleichtert die wissenschaftliche Erforschung des Erdsystems des Pan-Dritten-Pols.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8342-1_7 fc07307c5b28b2b38a579717433b95b0;de;;;6.1.;;;Verteiltes Design – Aktuelle Ansätze und Entwicklungstendenzen Design ist ein wichtiges industrielles Thema, bei dem Menschen aus verschiedenen Fachgebieten stark zusammenarbeiten müssen, um ein gemeinsames Ziel zu erreichen. Dieser Beitrag schlägt eine Analyse bestehender Forschungsprojekte und Anwendungen im Bereich des kollaborativen Designs auf Basis von Internet-Technologien vor, um die wichtigsten Trends bei Techniken, Methoden und Werkzeugen für internetgestütztes kollaboratives Arbeiten im Design aufzuzeigen. Nach einer historischen Erinnerung an Tools zur Unterstützung des Designs und der Entstehung spezifischer Umgebungen für kollaboratives technisches Produktdesign über das Internet werfen wir einen Blick auf die aktuellen Praktiken des Industriedesigns und geben einen Überblick über einige verfügbare kommerzielle Tools. Es folgt eine Analyse der Haupttrends akademischer Forschungsprojekte und wir schließen mit einigen Ideen für zukünftige Tendenzen der kollaborativen Designforschung.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-2256-8_35 aae8c12465bd7123e414cfa92e4081d3;de;;;6.1.;;;NUTORC – ein transdisziplinäres Forschungsteam für Gesundheitsdienste und Ergebnisse in der Transplantation Das Gebiet der Transplantation solider Organe hat sich historisch auf die Grundlagenforschung und translationale Studien konzentriert. Das Interesse an Gesundheitsdiensten und der Ergebnisforschung ist jedoch gestiegen. Ziel war es, ein effektives und nachhaltiges, inter- und transdisziplinäres Forschungsteam für Gesundheitsdienstleistungen und Ergebnisse (NUTORC) aufzubauen, das institutionelle Stärken in Sozialwissenschaften, Ingenieurwissenschaften und Managementdisziplinen in Verbindung mit einem international anerkannten Transplantationsprogramm nutzt. Im Jahr 2008 wurden universitätsweit führende Methodenexperten identifiziert und eine interne Finanzierung für die NUTORC-Initiative erhalten. Innerhalb der Universität wurden inter- und transdisziplinäre Kooperationsteams abteilungs- und schulübergreifend gebildet. Innerhalb von 3 Jahren wurde NUTORC steuerlich nachhaltig und erzielte eine mehr als zehnfache Rendite der ursprünglichen Investition. Die akademische Produktivität umfasste die Finanzierung von 39 Stipendien, die Veröffentlichung von 60 Manuskripten und 166 nationale Präsentationen. Es wurden nachhaltige Bildungsangebote für Studierende geschaffen. Inter- und transdisziplinäre Versorgungs- und Ergebnisforschung in der Transplantation kann innovativ und nachhaltig sein.;-;-;-;https://link.springer.com/article/10.1007/s13142-012-0176-x 838d656ebf279b323bac3f33ab93a0bb;de;;;6.1.;;;Projektmanagement Die Bewältigung des Umfangs an Reorganisation, Innovation und Herausforderungen, mit denen NHS-Führungskräfte konfrontiert sind, führt unweigerlich dazu, dass sie in Besprechungssituationen geraten und Entscheidungen treffen müssen, für Bereiche, in denen es wenig Präzedenzfälle oder etablierte Praktiken gibt. Für diese Bereiche ist es unwahrscheinlich, dass Ergebnisse verlässlich vorhergesagt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-3144-3_14 2989123e044d037527275ca933332753;de;;;6.1.;;;Wasserzeichen-Software zur Signalisierung des Kopierschutzes Die Durchsetzung der Urheberrechte von Softwareprodukten wird in erster Linie auf legale Weise verwaltet, da die verfügbaren technologischen Lösungen nicht stark genug sind, um die illegale Verbreitung und Nutzung von Software zu verhindern. Diese Situation ist auf dem wachsenden Markt der mobilen Softwareprodukte besonders gefährlich: Der fehlende Schutz kann der größte Rückschlag bei der Expansion dieses Marktes sein, obwohl wir alle notwendigen Komponenten haben, um eine vertrauenswürdige Umgebung auf Mobiltelefonen zu gewährleisten. In diesem Papier stellen wir unser Kopierschutzschema namens . vor;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73986-9_36 865a0c842ce769c3785ba0d50157f142;de;;;6.1.;;;Entwicklung des Informationsmanagementsystems zur Überwachung gebietsfremder invasiver Arten Eine der wirksamsten Methoden, um die übermäßige Ausbreitung gebietsfremder invasiver Arten zu verhindern, besteht darin, ihre epidemischen Trends wirklich zu beherrschen und geeignete Maßnahmen zu ihrer Bekämpfung zu ergreifen. So wurde das Informationsmanagementsystem zur Überwachung gebietsfremder invasiver Arten basierend auf der integrierten Technologie entwickelt, um die Informationsdienste für Regierungen, Experten und Landwirte bereitzustellen. Die Hauptmodule des Systems sind das Untersystem des Untersuchungsdatenmanagements und das Untersystem der Echtzeitmeldung von Epidemien in einem neuen Erweiterungsgebiet. Im Untersystem Untersuchungsdatenmanagement können die dynamischen Daten der invasiven Arten in Invasionsgebieten in das System eingegeben werden. Und im Subsystem der Echtzeit-Epidemieberichterstattung in einem neuen Erweiterungsgebiet können die Epidemieinformationen per E-Mail, Telefonstimme, Kurznachricht, Voicemail, Videokonferenz oder einem anderen Format mit dem Telefon, Mobiltelefon, Personalcomputer und Personal Digital Assistant (PDA) basierend auf der integrierten Technologie. Das System baute die Informationsaustauschbrücken zwischen Regierungen, Experten und Landwirten und ermöglichte es ihnen, effektivere Entscheidungen zu treffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18333-1_72 4fbc10a836314bfa385a8dbd0c63e8d7;de;;;6.1.;;;Eigene Interessen und Zusammenarbeit in der Stammzellforschung: Vermeidung von Anticommons, Bekämpfung von Kanalysierung In diesem Kapitel untersuche ich, wie proprietäre Interessen und Kommerzialisierungsnormen die Zusammenarbeit in der Stammzellforschung behindern können. Ich beginne damit, drei Eigenschaftsebenen in der Stammzellforschung zu skizzieren – Stammzelldaten, Stammzellmaterialien und Stammzellpatentierung – und erkläre, wie sie in der Praxis miteinander verflochten sind. Anschließend stelle ich zwei Stammzellforschungsinitiativen vor, das Cancer Stem Cell Consortium (CSCC) und Stem Cells for Safer Medicines (SC4SM). Anhand zweier konzeptioneller Rahmen, der „Tragödie der Anticommons“ und der „Patentkanalisierung“, analysiere ich, inwieweit CSCC und SC4SM proprietäre oder kommerzialisierungsbedingte Hindernisse für die Zusammenarbeit anzugehen scheinen. Während der Anticommons-Rahmen und die empirischen Methoden, die er bis heute hervorgebracht hat, dazu neigen, die Kosten zu erfassen, die den wissenschaftlichen Bereichen insgesamt auferlegt werden, konzentriert sich die Patentkanalisierung auf den einzelnen Wissenschaftler und stellt die Hypothese auf, dass Patentierung und andere Kommerzialisierungsverhalten das wissenschaftliche Selbst (wieder) konstituieren können . Das Kapitel schließt mit der Hervorhebung von drei Best Practices im Zusammenhang mit geistigem Eigentum, die die Zusammenarbeit in der Stammzellforschung erleichtern sollen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-60761-959-8_21 b21f4995276092b2ded9af67c9c52751;de;;;6.1.;;;Cloud-Speichersystem mit mehreren Sicherheitsstufen basierend auf verbesserter Proxy-Neuverschlüsselung Basierend auf den Eigenschaften und Datensicherheitsanforderungen der Cloud-Umgebung präsentieren wir ein Schema für ein Cloud-Speichersystem mit mehreren Sicherheitsstufen, das mit einer symmetrischen AES-Verschlüsselung und einem verbesserten identitätsbasierten Proxy-Re-Encryption (PRE)-Algorithmus kombiniert wird. Unsere Optimierung umfasst die Unterstützung für eine feinkörnige Steuerung und Leistungsoptimierung. Durch eine Kombination attributbasierter Verschlüsselungsverfahren fügen wir unserem Algorithmus einen feinkörnigen Kontrollfaktor hinzu, bei dem jede Autorisierungsoperation nur für einen einzigen Faktor gültig ist. Durch die Reduzierung der Anzahl der bilinearen Abbildungen, die die zeitaufwendigsten Prozesse sind, erreichen wir unser Ziel der Leistungsoptimierung. Nicht zuletzt implementieren wir den sicheren Datenaustausch zwischen heterogenen Cloud-Systemen. Wie ein Experiment gezeigt hat, implementiert unser vorgeschlagenes Cloud-Speichersystem mit mehreren Sicherheitsstufen Dienste wie die direkte Speicherung von Daten, transparente AES-Verschlüsselung, PRE-Schutz, der eine feingranulare und heterogene Chiffretext-Transformation unterstützt, und andere Funktionen wie Authentifizierung und Datenverwaltung . In Bezug auf die Leistung erreichen wir Zeitkosteneinsparungen von 29,8 % für den gesamten Prozess, 48,3 % für die Delegation und 47,2 % für die Entschlüsselung.;-;-;-;https://link.springer.com/article/10.1186/s13638-019-1614-y 5b1254290dc3d5a6ee45a583de427dd6;de;;;6.1.;;;Zur Bewertung der Kontextqualität Hochwertige Kontextinformationen spielen eine entscheidende Rolle bei der Anpassung eines Systems an die sich schnell ändernden Situationen. Die Vielfalt der Quellen von Kontextinformationen und die Eigenschaften der Computergeräte wirken sich jedoch stark auf die Qualität von Kontextinformationen in durchdringenden Computerumgebungen aus. Kontextqualitätsparameter können verwendet werden, um die Qualität von Kontextinformationen unter verschiedenen Aspekten zu charakterisieren. In diesem Papier quantifizieren wir die Parameter der Qualität des Kontexts, um sie in einer geeigneten Form für den Einsatz mit den Anwendungen in durchdringenden Umgebungen darzustellen. Wir präsentieren auch einen Mechanismus, um die Quality of Context-Parameter an die Anforderungen einer Anwendung anzupassen und diese Parameter dann zu bewerten. Die Anreicherung von Kontextinformationen mit Quality of Context-Parametern verbessert die Fähigkeiten von kontextsensitiven Systemen, die Kontextinformationen effektiv zu verwenden, um sich an aufkommende Situationen in durchdringenden Computerumgebungen anzupassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88793-5_11 50add5fc8d8c5b31455638b2390ab770;de;;;6.1.;;;Ein Blockchain-basiertes Datenspeicher-Framework: Ein rotierender multipler Zufallsmaster und ein fehlerkorrigierender Ansatz Eine Blockchain ist resistent gegen Modifikationen, die auf dem Konsens der Netzwerkmehrheit basieren, was eine große Menge an Kommunikation zwischen verteilten Knoten erfordert. Das vorhandene Datenverbreitungsprotokoll löst das Problem des falschen Blocks auch mit hohen Kommunikationskosten. Dieses Papier untersucht das Problem der fehlerkorrigierenden manipulationssicheren Datenspeicherung und schlägt ein dreischichtiges Framework vor, um die Daten in der Blockchain zu speichern, um die Datenintegrität zu erreichen. Die Daten werden als Blöcke gespeichert und wir entwerfen eine zweidimensionale Kettendatenstruktur bestehend aus horizontalen und vertikalen Ketten. Dieses Papier schlägt ein auf Blockchain (RMEC) basierendes Datenspeicher-Framework mit Rotating multiple Random Masters und Error-Correcting vor, um einen Kompromiss zwischen Systemdezentralisierung und Kommunikationsumfang zu finden. Der vorgeschlagene Rotating Multiple Random Sampling Consensus-Mechanismus (RMRS) wählt zufällig mehrere temporäre Master-Knoten aus, um jede Datenzugriffsanforderung zu bearbeiten, um die Kommunikationskosten zu reduzieren. Wir schlagen auch zwei Fehlerkorrekturmechanismen vor, um die falschen Datenblöcke zu validieren und zu korrigieren. Abschließend implementieren wir einen Prototypen und führen Analysen zur Systemperformance durch. Die Experimente zeigen, dass das Framework Datenmanipulationssicherheit erreichen und die Kommunikationskosten effektiv senken kann.;-;-;-;https://link.springer.com/article/10.1007/s12083-020-00895-5 d0db7425ea69518835ae3275b0d05eef;de;;;6.1.;;;FAIRSCAPE: ein Framework für FAIRe und reproduzierbare biomedizinische Analytik Ergebnisse computergestützter Analysen erfordern eine transparente Offenlegung ihrer unterstützenden Ressourcen, während die Analysen selbst oft sehr umfangreich sein können und mehrere zeitlich getrennte Verarbeitungsschritte umfassen. Der Nachweis für die Richtigkeit einer Analyse sollte nicht nur eine textliche Beschreibung umfassen, sondern auch eine formale Aufzeichnung der Berechnungen, die zu dem Ergebnis geführt haben, einschließlich zugänglicher Daten und Software mit Laufzeitparametern, Umgebung und beteiligtem Personal. Dieser Artikel beschreibt FAIRSCAPE, ein wiederverwendbares Rechen-Framework, das einen vereinfachten Zugriff auf moderne skalierbare Cloud-basierte Komponenten ermöglicht. FAIRSCAPE setzt die FAIR-Datenprinzipien vollständig um und erweitert sie, um vollständig FAIR Evidence bereitzustellen, einschließlich maschineninterpretierbarer Provenienz von Datensätzen, Software und Berechnungen, als Metadaten für alle berechneten Ergebnisse. Das FAIRSCAPE-Microservices-Framework erstellt einen vollständigen Evidence Graph für jedes Berechnungsergebnis, einschließlich persistenter Identifikatoren mit Metadaten, auflösbar für die Software, Berechnungen und Datensätze, die in der Berechnung verwendet werden, und speichert einen URI an der Wurzel des Graphen in den Metadaten des Ergebnisses. Eine Ontologie für Evidenzgraphen, EVI (;-;-;-;https://link.springer.com/article/10.1007/s12021-021-09529-4 ed31d4ebe037787462e658c17e8c6645;de;;;6.1.;;;IKT-Anforderungen in einer Smart-Grid-Umgebung Energiesysteme bewegen sich in Richtung flexiblerer und verteilterer Strukturen, da der Anteil verteilter Energieressourcen größer wird. Neue an das Verteilnetz angeschlossene Ressourcen bieten Zusatzdienste für das Engpassmanagement und den Ausgleich, darunter z.B. Frequenzsteuerung, aFRR/mFRR und Spannungssteuerung. Die neuen ÜNB-VNB-Koordinationsschemata, die in Kap.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29203-4_4 f37eef0aac964458ee2dc49d46066122;de;;;6.1.;;;Neutrophile Leukozytenmembranproteine Von Kaninchenexsudat stammende PMN wurden homogenisiert und die Zellmembranen auf einem wässrigen Zweiphasensystem isoliert. Glykoproteine ​​wurden mit Lithiumdiiodosalicylat aus Zellmembranen extrahiert. Die SDS-Polyacrylamid-Gelelektrophorese-Analyse zeigte ein konsistentes Muster von drei Haupt-Glykoprotein-Einheiten. Zellen, die supravital radioiodiert wurden, zeigten den größten Teil der Radioaktivität, die mit größeren Glykoproteineinheiten verbunden ist, wohingegen PMN-Membranen, die nach der Isolierung radioaktiv markiert wurden, einen einzelnen Hauptpeak der mit einer viel kleineren Proteineinheit verbundenen Radioaktivität ergaben. Heterologe Antiseren gegen Kaninchen-PMN, PMN-Membranen und Membran-Glykoproteine ​​waren alle für PMN in Gegenwart von Komplement zytotoxisch und alle banden sich an die PMN-Oberfläche, wie mit immunkolloidalem Gold im Elektronenmikroskop nachgewiesen wurde. Die Daten legen nahe, dass eine oder mehrere Glykoproteineinheiten membranassoziierte Ektoglykoproteine ​​sind, die supravital radioaktiv markiert werden können.;-;-;-;https://link.springer.com/article/10.1007/BF00917324 6771ec2d76142148d87f69eb658b7020;de;;;6.1.;;;Mediationsgesetz – ein bedeutender Schritt auf einem langen Weg, um Mediation in der Tschechischen Republik erfolgreich zu machen Dieses Kapitel bietet einen allgemeinen Überblick über die Gesetzgebung zur Mediation in der Tschechischen Republik. Die Umsetzung der Richtlinie 2008/52/EG des Europäischen Parlaments und des Rates vom 21. Mai 2008 über bestimmte Aspekte der Mediation in Zivil- und Handelssachen hat in der Tschechischen Republik Interesse an dem Konzept der Mediation geweckt, das keine lange Tradition der Mediation hat in zivil- und handelsrechtlichen Streitigkeiten aufzubauen. Seit der Verabschiedung des Mediationsgesetzes im Jahr 2012 ist die Mediation neben der Schiedsgerichtsbarkeit die einzige Form der außergerichtlichen Streitbeilegung, die durch spezielle Gesetze geregelt ist. Die Mediation ist freiwillig, wenn sie als effizient und angemessen erachtet wird, liegt es im Ermessen des Gerichts, die Parteien zu einem dreistündigen Informationsgespräch mit einem Mediator zu beauftragen. Gemäß dem Mediationsgesetz beginnt die Mediation mit der Unterzeichnung des Mediationsvertrags und führt im Erfolgsfall zum Abschluss des Mediationsvertrags, der den Willen aller Parteien zum Ausdruck bringt, die bereit sind, ihre Pflichten aus diesem Vertrag freiwillig zu erfüllen. Nach dem tschechischen Mediationsgesetz sind Mediationsvereinbarungen nicht direkt vollstreckbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-18135-6_6 1ca34482c08a83ec1219911e885a299e;de;;;6.1.;;;BIM-orientierte Modellierung und Verwaltung strukturierter Informationen für das Kulturerbe Dieses Papier schlägt eine Analyse der Degradation unter Verwendung eines BIM-Entwurfsansatzes mit Hilfe von Parametern vor, um das Ad-hoc-Modell mit Informationen zu füllen, die für die Analyse des Artefakts erforderlich sind. Im Herzen von Salerno wird ein Gebäude mit bescheidener historischer Relevanz, aber großer struktureller und geometrischer Einfachheit ausgewählt, um die Aufmerksamkeit auf die Darstellungsmethoden der individuellen Degradation zu lenken. Die Stärke der vorgeschlagenen Methodik ist die Möglichkeit, die Wartungsphasen zu überwachen, Informationen über Materialien und Lieferanten bereitzustellen und, falls erforderlich, Struktur- und Energieanalysen durchzuführen. Andererseits stellen das Vorhandensein von nicht standardmäßigen Architekturelementen, die nicht auf vordefinierte Bibliotheken zurückführbar sind, und das Fehlen von Parametern bezüglich der Verschlechterung einige Hauptprobleme der untersuchten Fallstudie dar. Diese Probleme werden durch die Implementierung einer Projektdatenbank und Softwarebibliotheken überwunden, die auch für Folgeprojekte verwendet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-47979-4_54 9eb695bc05247c71ac37f3c5e396a55f;de;;;6.1.;;;Datenethik: Fakten und Fiktion Datenethik ist wahrscheinlich einer der Bereiche im Bereich Big Data, in denen die zwingendsten Fragen noch unbeantwortet sind. Da die Technologie rasant voranschreitet, besteht die Gefahr, dass die Datenethik hinterherhinkt. Wir leben immer mehr in einer Welt, in der es schwer ist, das Echte von dem Fake und die Fakten von der Fiktion zu unterscheiden. Von Deep Learning bis Deep Fake, von Virtual Reality bis Fake Reality ist es fast möglich, jede Realität und jede Nachricht zu erschaffen. Fragen des Datenschutzes, wem die Daten wirklich gehören, des Profiling, was und unter welchen Bedingungen zulässig sind, sind nur die wenigen Fragen, die noch vollständig beantwortet werden müssen. Ohne die richtigen Regeln, Richtlinien, Schulungen, Schulungen und Tools – und das schnell – laufen wir Gefahr, uns selbst überflüssig zu machen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-76990-1_7 ab2e47b96f3a27bf04ebf9c5a4bd5262;de;;;6.1.;;;Anwendung von Blockchain als Lösung für die realen Probleme im Gesundheitswesen Die Blockchain-Technologie wird heutzutage zu einem sichereren und effektiveren Weg für den Informationsaustausch in verschiedenen Bereichen wie dem Finanzsektor, SCM in verschiedenen Branchen und auch im Bereich des IoT. Neben diesen Bereichen spielt die Blockchain-Technologie derzeit eine wichtige Rolle im Bereich des Gesundheitswesens. Diese Technologie lenkt die Aufmerksamkeit des Forschers auf das Gesundheitssystem, da sie darauf abzielt, verschiedene Probleme wie Interoperabilität und Informationssicherheit beim Informationsaustausch und Datenmanagement zu lösen. Die Interoperabilität und Sicherheit ermöglichen es der HCS-Anwendung, die Informationen fehlerfrei zwischen Patienten und Anbietern auszutauschen. Das Fehlen solcher Merkmale zeigt die Schwierigkeit für den Patienten, auf seinen eigenen Gesundheitszustand zuzugreifen. Daher wird die Implementierung der Blockchain-Technologie einen solchen Nachteil beseitigen, um das HCS effektiver und effizienter zu machen. Aufgrund dieses potenziellen Nutzens kann es auf verschiedene Aspekte wie Patientendatenverarbeitung, SCM von medizinischen Geräten und pharmazeutischen Dingen, Abrechnungs- und Telemedizinsysteme usw. angewendet werden. In diesem Buchkapitel haben wir versucht, uns auf die verschiedenen Themen zu konzentrieren various im HCS zusammen mit der detaillierten Studie der potenziellen Vorteile, die bei der Integration der Blockchain in das Gesundheitssystem erzielt wurden. In diesem Kapitel wird auch die systematische Überprüfung verschiedener Anwendungsszenarien für Blockchain in der Gesundheitspraxis dargestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-69395-4_8 43e86be65d6a48b576c1971b1130e493;de;;;6.1.;;;Intelligentes Überwachungssystem für Straßenkreuzungen basierend auf Big Data Angesichts der aktuellen Situation, dass das Überwachungsmanagement für städtische Kreuzungen immer noch ein manuelles Identifikationsmanagement verwendet und das vorhandene System die Anwendungsanforderungen nicht vollständig erfüllen kann, entwirft und entwickelt dieses Papier einen Satz von Überwachungssystemen für städtische Kreuzungen basierend auf der Verwendung der Big-Data-Technologie, um die Videoüberwachungsdaten jedes Kontrollpunkts in der Stadt zu verarbeiten und die Fahrzeuginformationen, den Fahrweg und andere hochwertige Daten zu erhalten. Schließlich werden die Datenverarbeitungsergebnisse mit einem mehrdimensionalen Visualisierungsdiagramm präsentiert, um Informationsressourcen für die Fahrzeugüberwachung und -verwaltung bereitzustellen. Das System liefert genaue Informationen für die Sozialdienste, um die Aktivitäten der Parteien und Fahrzeuge zu erfassen und die Unfallursachen aufzuspüren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-70042-3_82 04604a307314b85e44d6c4804aeb2143;de;;;6.1.;;;Die interaktive Abfragemethode mit Clustering und differenziellem Datenschutzmodell in Big-Data-Umgebungen Zur Verbesserung des Datenschutzes sowie zur Verbesserung der Datenverfügbarkeit wird ein differenzierter Datenschutzansatz vorgeschlagen. Durch plattformübergreifende Big-Data-Abfragen wird die differenzielle Datenschutzmethode auf den Ergebnissen von ICMD (insensitive Clustering-Methode für gemischte Daten) basierend auf dem insensitiven Clustering-Algorithmus durchgeführt. Die Kombination aus Clustering und differenziellem Datenschutz ermöglicht die Unterscheidung der Abfragesensitivität von einem einzelnen Datensatz zu einer Gruppe von Datensätzen. Um den Anforderungen der Aufrechterhaltung des differenziellen Datenschutzes für gemischte Daten gerecht zu werden, verwendet dieses Papier außerdem verschiedene Methoden zur Berechnung des Abstands und des Schwerpunkts von Klassifikations- und numerischen Attributen. Schließlich zeigt das Experiment die Validität der Methode, die das Risiko von Informationsverlust und -verlust reduziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-3150-4_28 016d0e21778f1dfe845ec4fb38a65412;de;;;6.1.;;;Verknüpfung von Daten aus verschiedenen Datenquellen (LDS): Ein Datenkombinationsmodell liefert klinische Daten entsprechender Proben im Biobanking-Informationssystem Bereitstellung ausreichender klinischer Daten für entsprechende Proben aus diversen Datenbanken, die vor der Einführung von Biobanken für Forschungszwecke im Hinblick auf datenschutzrechtliche Bestimmungen angelegt wurden. Dazu haben wir ein Datenmodell namens „Linkage of Data from diverse Data Sources (LDS)“ entwickelt. Das Datenmodell wurde entwickelt, um klinische Daten aus einer bestehenden lokalen Datenbank mit Bioproben-Repository-Daten in unserer Serumbank für die Uro-Onkologie zusammenzuführen. Dieses Konzept kombiniert zwei auf XML basierende Datenmodelle: Das erste speichert Informationen, die erforderlich sind, um mehrere Datenquellen zu verbinden und klinische Daten abzurufen, und das zweite bietet eine Datenarchitektur zum Erfassen von klinischen und Repository-Daten. Alle Daten wurden anonymisiert und mit dem Advanced Encryption Standard verschlüsselt. Für den sicheren Datenzugriff wurden X.509-Zertifikate verwendet. Darüber hinaus haben wir die Umsetzbarkeit dieser Modelle im Informationsmanagementsystem für Biobanking getestet. Das Datenkonzept kann klinische und Repository-Daten von Bioproben bereitstellen. Nur autorisierte Empfänger können auf diese Daten zugreifen. Sensible und personenbezogene Daten sind für die Datenempfänger nicht zugänglich. Der Datenempfänger kann anhand des Datenmodells nicht zum einzelnen Spender zurückverfolgen. Die erfassten Daten können in ein Textdateiformat umgewandelt werden, das von einer bekannten Statistiksoftware unterstützt wird. Ergänzende Tools wurden implementiert, um XML-Dokumente basierend auf diesen Datenmodellen zu generieren und anzuzeigen. Dieses Datenmodell bietet einen effektiven Ansatz, um klinische und Repository-Daten aus verschiedenen Datenquellen zu verteilen, um eine datenschutzkonforme Datenanalyse zu ermöglichen.;-;-;-;https://link.springer.com/article/10.1007/s10916-013-9975-y e8530dc83ac3f6ea596b752f744845f6;de;;;6.1.;;;Integration von Sensoren und sozialen Netzwerken Eine Reihe von Sensoranwendungen in den letzten Jahren sammeln Daten, die direkt mit menschlichen Interaktionen in Verbindung gebracht werden können. Einige Beispiele für solche Anwendungen umfassen GPS-Anwendungen auf Mobilgeräten, Beschleunigungsmesser oder Standortsensoren, die zum Verfolgen von Personen- und Fahrzeugverkehr ausgelegt sind. Solche Daten eignen sich für eine Vielzahl von reichen Anwendungen, bei denen man die Sensordaten verwenden kann, um die zugrunde liegenden Beziehungen und Interaktionen zu modellieren. Dies führt auch zu einer Reihe von Herausforderungen, da solche Daten oft privat sein können und es wichtig ist, den Mining-Prozess durchführen zu können, ohne die Privatsphäre der Benutzer zu verletzen. In diesem Kapitel geben wir einen umfassenden Überblick über die Arbeit in diesem wichtigen und sich rasch entwickelnden Bereich. Wir diskutieren auch die zentralen Probleme, die sich in diesem wichtigen Bereich stellen, und die entsprechenden Lösungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-8462-3_14 26e3d94fb26febdc10e9a87f3e85ac55;de;;;6.1.;;;Das Recht der Schüler auf Zugang, Wahl und Benachrichtigung zurückzugeben: ein vorgeschlagener Ethikkodex für Lehrer, die Turnitin . verwenden In diesem Papier werden die ethischen Probleme identifiziert, die mit der Verwendung von Plagiatserkennungssoftware (PDS) durch Hochschullehrer verbunden sind, insbesondere dem Turnitin-Programm. Er spricht die Vor- und Nachteile der Verwendung solcher Software in der Hochschulbildung an und argumentiert, dass ihre Verwendung dadurch gerechtfertigt ist, dass sie das institutionelle Vertrauen stärkt, und zeigt, dass zwei gängige Kritikpunkte an solcher Software nicht universell gültig sind. Eine Analyse der rechtlichen Probleme im Zusammenhang mit Turnitin zeigt jedoch, dass die Art und Weise, wie es konzipiert und betrieben wird, einige ethische Probleme aufwirft, da es den Schülern die Kenntnis, den Zugang und die Wahl bei der Behandlung ihrer personenbezogenen Daten verweigert. Der Artikel schließt mit einer Reihe von Richtlinien für Lehrkräfte, die Turnitin im Unterricht verwenden.;-;-;-;https://link.springer.com/article/10.1007/s10676-011-9277-3 831b77f70b167c16e4a04c43b5cfe5a3;de;;;6.1.;;;Parallele Dateisysteme in europäischen Grid-Projekten High Performance Computing hat sich nach und nach aus dem Bereich der Forschung in die Entwicklung und teilweise sogar in die Produktionszyklen der Industrie verlagert. Hochleistungsrechner müssen daher in Produktionsumgebungen integriert werden, die die gleichzeitige Lösung multidisziplinärer physikalischer Probleme erfordern. Supercomputerzentren können von diesen neuen Herausforderungen der Industrie lernen. Die Konzepte Workflow und Produktionszyklus eröffnen einen neuen Horizont für die Integration von Systemen und Software in einen sogenannten verteilten „Teraflop-Workbench“-Ansatz. Um eine solche Umgebung zu unterstützen, werden Speicher- und Kommunikationsinfrastrukturen im Tera- bzw. Exascale-Bereich benötigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85869-0_8 96b4ddbd0badde29decce4ce84d0ef66;de;;;6.1.;;;Kernelisierte MLS-Datenbankarchitekturen im Kontext von Cloud-Scale-Datenspeichern überdenken Wir bewerten das Kernelized, Multilevel Secure (MLS) relationale Datenbankdesign im Kontext von verteilten Datenspeichern im Cloud-Maßstab neu. Die Transaktionseigenschaften und globalen Integritätseigenschaften für schemalose Cloud-Datenspeicher sind im Vergleich zu relationalen Datenbanken deutlich gelockert. Dies ist eine neue und interessante Einstellung für obligatorische Zugriffskontrollrichtlinien und wurde in früheren Forschungen nicht untersucht. Wir beschreiben das Design und die Implementierung eines Prototyps eines MLS-Spaltenspeichers nach dem Kernelized Design Pattern. Unser Prototyp ist der erste Cloud-Scale-Datenspeicher, der einen architektonischen Ansatz für hohe Sicherheit verwendet. Er erzwingt eine gitterbasierte obligatorische Informationsflussrichtlinie ohne zusätzliche vertrauenswürdige Komponenten. Wir zeigen mehrere vielversprechende Wege für die praktische Systemforschung in sicheren, verteilten Architekturen auf, die obligatorische implementieren Richtlinien, die Java-basierte nicht vertrauenswürdige Subjekte verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-15618-7_7 2f44fcd8a33584102229ee634e3c53d6;de;;;6.1.;;;XML-Abfragesprachen in der Praxis: Eine Evaluierung Die Popularität von XML als Datenrepräsentationsformat hat zu einem erheblichen Interesse an der Abfrage von XML-Dokumenten geführt. Obwohl noch eine „universelle“ Abfragesprache entwickelt wird, werden zwei Sprachvorschläge, XQL und XML-QL, implementiert und angewendet. Die Erfahrung mit diesen frühen Implementierungen und Anwendungen war aufschlussreich, um die Anforderungen einer XML-Abfragesprache zu bestimmen. In diesem Papier diskutieren wir Probleme beim Versuch, XML abzufragen, analysieren die Stärken und Schwächen aktueller Ansätze und schlagen eine Reihe von Erweiterungen vor. Wir hoffen, dass dies sowohl bei der Gestaltung des kommenden Sprachstandards XML Query als auch bei der Ergänzung bestehender Sprachen hilfreich sein wird.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45151-X_3 5f3fc20643f4369f9e6ca8a3294233b4;de;;;6.1.;;;Policy Design for Human Embryo Research in Canada: A History (Teil 1 von 2) Dieser Artikel ist der erste einer zweiteiligen Übersicht über die Politikgestaltung für die Forschung an menschlichen Embryonen in Kanada. In diesem Artikel erläutern wir, wie dieser Forschungsbereich durch das Gesetz des Bundesparlaments (der;-;-;-;https://link.springer.com/article/10.1007/s11673-009-9135-8 3fbcef40c7da7ae466f2a3d407fc9e68;de;;;6.1.;;;Argumentation in Semantic Web-basierten Systemen In diesem Kapitel führen wir die Grundlagen formaler Sprachen und des Argumentierens im Web-Kontext ein. Die Kennzeichnung von Informationen durch einen logischen Formalismus ermöglicht es, etablierte Techniken aus dem Bereich des automatisierten Schließens anzuwenden. Die Argumentation im Kontext webbasierter Systeme stellt jedoch verschiedene Anforderungen in Bezug auf;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04329-1_7 c82aabfb8793ee269e3371fe07a169a1;de;;;6.1.;;;Cybersicherheit & Versicherung Ein verwandtes Diskussions- und potenzielles Gebiet von Umsatz- und Beratungsdienstleistungen, das Finanzdienstleister traditionell möglicherweise übersehen haben, ist die Bedeutung von Cybersicherheitsberatungsdiensten in einem zunehmend digitalisierten Geschäftsumfeld. Cybersicherheitsrichtlinien und -schulungen haben sich in der Vergangenheit möglicherweise darauf konzentriert, sicherzustellen, dass das Unternehmen über ausreichende Passwortkontrollen und Schutzmaßnahmen zum Schutz der Daten vor unbefugtem Zugriff auf Kundeninformationen verfügt und die Antivirensoftware auf dem neuesten Stand gehalten wird. Diese sind zwar immer noch ziemlich offensichtlich für jede Organisation wichtig, stellen aber jetzt einfach einen guten Ausgangspunkt im Gespräch dar und nicht mehr den Endpunkt der Debatte. Anders gesagt, Cybersicherheit hat sich über ein reines IT- oder technisches Anliegen hinaus entwickelt und ist zunehmend ein Anliegen für das gesamte Unternehmen (McLane 2018). Nichts davon ist neu, aber jeder Profi wird sich bewusst sein, wie wichtig Datenintegrität und Cybersicherheit sind. Lassen Sie uns diesen Trend und Themenbereich mit den gleichen Themen verbinden, die wir in diesem Buch diskutiert haben, Blockchain, künstliche Intelligenz und Cybersicherheitstools (Abb. 15.1).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29761-9_15 c51394bee760b1c59d16bb9b3ef2055b;de;;;6.1.;;;Führen mit Lean: Mit der Finanzierung, die wir haben, die Ergebnisse erzielen, die wir brauchen Lean und andere Qualitätsmanagementmethoden werden seit vielen Jahren von Industrie und Fertigung eingesetzt. In jüngerer Zeit wurden sie vom Gesundheitswesen übernommen. Die Autoren beschreiben ihre Erfahrungen mit der schlanken Methode der kontinuierlichen Qualitätsverbesserung, die zuerst von Toyota in einer der größten Verhaltensgesundheitsabteilungen New Yorks entwickelt wurde. Die Relevanz und Anwendung dieser Methoden auf den Sektor der psychischen Gesundheit wird vorgestellt.;-;-;-;https://link.springer.com/article/10.1007/s11126-015-9376-0 c4a15f51f042f36c168bec975676445a;de;;;6.1.;;;Was ist Open Source? Eine Studie über die Vista Electronic Medical Record Software Genau genommen ist Open Source Software jedes Programm, das durch eine Open Source Softwarelizenz abgedeckt ist. Der Begriff der Open-Source-Softwareentwicklung beschwört jedoch Bilder von hochwertigen, marktbeherrschenden Produkten herauf, die von Armeen freiwilliger Programmierer entwickelt wurden, die nur aus Freude am Programmieren arbeiten. Banner-Projekte wie Apache, der Linux-Kernel und Mozilla/Firefox ähneln sicherlich dieser Vorstellung, auch wenn sie eine beträchtliche Anzahl bezahlter Programmierer beschäftigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02032-2_27 93a4016f19f8896eedb6a844bdc359ea;de;;;6.1.;;;Entwicklung der chinesischen Hafenlogistik Die Hafenlogistik ist eine bedeutende Stütze für Chinas internationale Wirtschaft und Handel und auch ein wichtiger Wachstumspunkt der wirtschaftlichen Entwicklung in seinen Küsten- und Hinterlandregionen. In den letzten Jahren hat die chinesische Regierung ihre Bemühungen um die Entwicklung von Hafenanlagen und die Verbesserung des logistikpolitischen Umfelds verstärkt, so dass die Hafenlogistik derzeit in eine schnelle Entwicklungsphase eingetreten ist. Die Hafenlogistik wird in Chinas Volkswirtschaft und gesellschaftlicher Entwicklung immer wichtiger.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55282-3_8 321d55c222547a00342ecd9f748982a2;de;;;6.1.;;;Biomarker bei Autismus-Spektrum-Störung: das Alte und das Neue Die Autismus-Spektrum-Störung (ASS) ist eine komplexe heterogene neurologische Entwicklungsstörung, die in der frühen Kindheit beginnt und typischerweise ein Leben lang verläuft. Die Mehrheit der ASS-Fälle geht auf komplexe, „multiple-hit“-, oligogene/polygene Untermauerungen zurück, die mehrere Loci und möglicherweise Gen-Umwelt-Interaktionen beinhalten. Diese vielschichtigen Komplexitätsebenen wecken das Interesse an der Identifizierung von Biomarkern, die in der Lage sind, biologisch homogene Untergruppen zu definieren, das Autismusrisiko vor dem Auftreten von Verhaltensauffälligkeiten vorherzusagen, Frühdiagnosen zu unterstützen, den Entwicklungsverlauf von ASS-Kindern vorherzusagen, das Ansprechen auf die Behandlung vorherzusagen und Kinder im Alter zu identifizieren Risiko für schwere Nebenwirkungen von Psychopharmaka.;-;-;-;https://link.springer.com/article/10.1007/s00213-013-3290-7 e6ffd1ff4e0465050da583adf417a9cf;de;;;6.1.;;;American BRCA Outcomes and Utilization of Testing (ÜBER)-Studie: Ein pragmatisches Forschungsmodell, das personalisierte Medizin/patientenzentrierte Ergebnisse in eine reale Umgebung einbezieht Die bisherige Forschung zur Identifizierung und Behandlung des hereditären Brust- und Ovarialkarzinomsyndroms (HBOC) in den USA beschränkte sich in erster Linie auf akademische Studien mit begrenzter Patientenbeteiligung. Um die aktuellen Lücken und Ungleichheiten bei der Bereitstellung von Dienstleistungen für die angemessene Identifizierung und das optimale Risikomanagement von Personen mit HBOC zu verstehen und zu beheben, haben wir die amerikanische BRCA Outcomes and Utilization of Testing (ABOUT)-Studie konzipiert und initiiert. ABOUT verlässt sich auf eine kooperative Patientenvertretung, akademische und industrielle Partnerschaft, um US-Personen mit erhöhtem HBOC-Risiko zu rekrutieren und zu engagieren und ihre Erfahrungen, Entscheidungen und Ergebnisse zu untersuchen. Es nutzt eine umfangreiche Forschungsinfrastruktur, darunter ein interaktives webbasiertes Datensystem und elektronische Schnittstellen für eine sichere Online-Teilnahme und einen automatisierten Datenaustausch. Wir beschreiben den neuartigen Rekrutierungsansatz, der für die Zusammenarbeit mit einem nationalen kommerziellen Gesundheitsplanpartner entwickelt wurde, um alle Personen zu identifizieren, für die ein Gesundheitsdienstleister einen BRCA-Test bestellt, und senden jedem Einzelnen eine Einladung zur Teilnahme und ein Studienpaket. Das Studienpaket enthält detaillierte Informationen über die Studie, einen Basisfragebogen und eine informierte Einwilligung zur Teilnahme an der Studie, zur Herausgabe relevanter Kranken- und Krankenversicherungsunterlagen und für laufende Forschungsarbeiten. Dieser Ansatz verwendet von Patienten gemeldete, laborgemeldete und vom Gesundheitsplan gemeldete Ergebnisse und erleichtert das Längsschnitt-Engagement. Wir glauben, dass die Art der innovativen Methodik und des kollaborativen Rahmens, die wir für ABOUT entwickelt haben, eine ideale Grundlage für ein patientenorientiertes Forschungsnetzwerk ist. Dieser Ansatz kann einen wesentlichen Beitrag zur Identifizierung aktueller und bewährter Verfahren bei HBOC leisten, was zu verbesserten Strategien für die klinische Versorgung und optimalen Gesundheitsergebnissen bei Personen mit hohem erblichen Krebsrisiko führt.;-;-;-;https://link.springer.com/article/10.1007/s10897-014-9750-3 19853271810b05a30cddf9ab8d5d1523;de;;;6.1.;;;Geografische Intelligenz für die Regionalplanung Die regionale Ebene von Governance, Verwaltung und Planung hat in Westeuropa zunehmend an Bedeutung gewonnen, gefördert durch die politische Dezentralisierung innerhalb der Staaten und durch die Versuche europäischer Institutionen, ihre politischen Fähigkeiten und Rahmenbedingungen zur Bewältigung spezifischer regionaler Probleme zu verbessern. Parallel dazu wurden neue Forderungen nach mehr Informationen über Regionen oder Ortschaften und nach konsistenteren, harmonisierten Daten gestellt, die als Grundlage für eine echte vergleichende räumliche Analyse verwendet werden können. Allerdings bestehen Unterschiede in den strukturellen Rahmenbedingungen, den Verfahren und den Inhalten der Raumordnung sowohl zwischen den Bundesländern als auch zwischen den Regionen innerhalb eines Bundeslandes. Im Vereinigten Königreich unterscheiden sich die Verwaltungssysteme in Schottland und Nordirland von denen im Rest des Vereinigten Königreichs, wo es schon immer eine traditionelle Polarisierung der Raumplanung auf lokaler Ebene und der Wirtschaftsplanung auf nationaler Ebene gegeben hat. In England und Wales hat dies dazu geführt, dass es keine regionalen Planungsbehörden mit erheblichen finanziellen Mitteln oder administrativer Schlagkraft und einen Mangel an gesetzlichen Raumordnungsdokumenten gibt. Der erste Teil dieses Kapitels enthält einen Überblick über den Kontext der Regionalplanung in England und insbesondere in der Region Yorkshire und Humberside zu einer Zeit, in der Regionalismus wieder fest auf der Tagesordnung steht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-03954-0_14 e5c9e7379458af9ddea076314b64ac39;de;;;6.1.;;;Integriertes Modell der Betriebseffektivität kleiner und mittlerer Fertigungsunternehmen Das kleine bis mittlere Fertigungsunternehmen (KMU) hat durchweg die Fähigkeit bewiesen, innovativ zu sein und neue Technologien und Fortschritte in der Fertigung auf den Markt zu bringen. Als Zuliefererbasis für die heimische Fertigung fungieren mittelständische Unternehmen in Industrienationen. Da jedoch immer mehr Unternehmen global agieren, stehen KMU im Wettbewerb auf dem wettbewerbsintensiven globalen Markt vor einer neuen Herausforderung. In dieser Studie wollen wir folgende Frage beantworten: Wie KMU sich neu positionieren können, um auf dem Weltmarkt wettbewerbsfähiger zu sein, indem sie die Herausforderung als neue Chance nutzen. Wir analysieren die gesammelten Daten von über 3000 KMU mit einem integrierten produktivitätsorientierten Modell. Die Ergebnisse liefern uns Informationen über den Betrieb und die Leistung von KMU. Wir sind in der Lage, sowohl qualitative als auch quantitative Faktoren mehrerer Produktionsinput/Output zu verknüpfen, um die Leistung von KMU weiter zu bewerten, und stellen eine Reihe von Effizienz-Benchmarks zur Verfügung. Diese Informationen können verwendet werden, um KMU dabei zu helfen, die Probleme und Chancen ihrer Geschäftstätigkeit besser zu verstehen. So können ihre Geschäftstransformationen kostengünstig durchgeführt werden, um Wettbewerbsvorteile zu erzielen.;-;-;-;https://link.springer.com/article/10.1007/s10845-008-0105-5 2d0b82cf4980c9075aa3ca3664fd5932;de;;;6.1.;;;Aufbau der Plattform für phylogenetische Analyse Basierend auf der Diskussion des Fortschritts beim Bau des Lebensbaums unter Verwendung genetischer und genomischer Informationen, effektiver Strategien und Methoden zum Bau des Lebensbaums wurden in diesem Papier Geschäftsprozessanalysen und Anwendungsdesigns durchgeführt. Basierend auf dieser Analyse implementiert es eine phylogenetische Analyseplattform für die Landpflanzen. Die Plattform extrahiert molekulare Daten aus den internationalen öffentlichen Datenbanken im Batch, was eine automatisierte Erfassungs- und Reinigungsfunktion darstellt, damit Benutzer die Situation von Peer-Daten verstehen können. Der Prozess der phylogenetischen Rekonstruktion umfasst mehrere öffentliche Modi und Werkzeuge, wie Batch-Extraktion, multiples Sequenz-Alignment, Bereinigung und Bearbeitung, Baumrekonstruktion, phylogenetische Bewertung und Visualisierung. All diese Verfahren erfordern eine Reihe interaktiver Schnittstellen für die automatische Generierung von Stammbäumen und das Experiment mit Entscheidungshilfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-8014-4_38 629408592c29da769561f6d1fefd67b3;de;;;6.1.;;;Datenanalyse und die P2P-Cloud: ein integriertes Modell zur Strategieformulierung basierend auf dem Kundenverhalten Damit Unternehmen Wettbewerbsvorteile erzielen können, ist ein effektiver Ansatz für das Customer Relationship Management (CRM) erforderlich. Basierend auf dem Kaufverhalten der Kunden und dem Bestellverhalten können Unternehmen in verschiedene Kategorien eingeteilt werden, um maßgeschneiderte Verkaufs- und Werbeaktionen für Kunden anzubieten. Unternehmen, denen eine effektive CRM-Strategie fehlt, können jedoch allen Kunden nur die gleichen Vertriebs- und Marketingstrategien anbieten. Darüber hinaus wird der traditionelle Ansatz zur Kundenverwaltung über ein zentralisiertes Verfahren gesteuert, bei dem die Informationen zur Kundensegmentierung nicht an das Kundennetzwerk weitergegeben werden. Folglich können wertvolle Kunden vernachlässigt werden, was zum Verlust von Kundenbindung und Kundenaufträgen und einer Schwächung des Vertrauens in die Kunden-Unternehmen-Beziehung führt. Dieses Papier entwirft ein integriertes Datenanalysemodell (IDAM) in einer Peer-to-Peer-Cloud, das einen RFM-basierten K-Means-Clustering-Algorithmus, analytische Hierarchieverarbeitung und Fuzzy-Logik integriert, um Kunden in verschiedene Segmente zu unterteilen und so eine maßgeschneiderte Vertriebsstrategie zu formulieren. In einem auf die Bereitstellung fortschrittlicher Fertigungstechnologie spezialisierten Handelsunternehmen wird eine Pilotstudie zu IDAM durchgeführt, um zu zeigen, wie IDAM zur Formulierung einer effektiven Verkaufsstrategie zur Gewinnung von Kunden eingesetzt werden kann. Insgesamt untersucht diese Studie den effektiven Einsatz von CRM in der Peer-to-Peer-Cloud, um die Formulierung von Vertriebsstrategien und das Vertrauen zwischen Kunden und Unternehmen im Netzwerk zu erleichtern.;-;-;-;https://link.springer.com/article/10.1007/s12083-020-00960-z 1f18a43d6f7fd6e4a96fd11d4f248b1b;de;;;6.1.;;;Der neue Community-Bewertungsprozess Die Komponente der Gemeindebewertung ist ein wichtiger Bestandteil des gemeindeweiten Planungsprozesses, da sie Planern ein Verständnis für die Umwelt und die Einzigartigkeit der Gemeinde vermittelt. Der erste Schritt beinhaltet die Entwicklung eines allgemeinen Bildes der Gemeinde und ihres Gesundheitssystems. Dieser Prozess umfasst eine Durchsicht relevanter Hintergrundmaterialien und Interviews mit wichtigen Teilnehmern innerhalb und außerhalb des Gesundheitswesens. Angesichts des zunehmenden Interesses an den sozialen Determinanten von Gesundheit ist es wichtig, auch Vertreter anderer Sektoren (z. B. Bildung, Wohnungswesen, Strafjustiz) einzubeziehen. Diese Informationen bilden die Grundlage für eine Umweltbewertung umfassender Trends, die auf gesellschaftlicher Ebene beginnt und dann ähnliche Entwicklungen auf lokaler Ebene identifiziert. Die wichtigsten Ergebnisse sind Profile der Gemeinde und ihrer Bevölkerung. Kritische Komponenten sind Einschätzungen des Gesundheitszustands der Bevölkerung und ihrer Gesundheitsverhaltensmuster. Die Ressourcen der Gemeinschaft werden inventarisiert und diese Informationen mit den identifizierten Bedürfnissen verknüpft, um Lücken zwischen Bedarf und Ressourcen zu ermitteln. Die Gemeindebewertung bildet die Grundlage für nachfolgende Planungsaktivitäten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-0716-1076-3_7 f5c5a6200843eaa74ccee75c2304b965;de;;;6.1.;;;Enge Grenzen für die Leistung des längsten im System auf DAGs In den letzten Jahren wurde immer mehr Arbeit in die Analyse von Paketvermittlungsnetzen unter Worst-Case-Szenarien investiert, anstatt unter probabilistischen Annahmen. Die meisten dieser Arbeiten verwenden das Modell der „Adversarial-Queuing-Theorie“ von Borodin et al. [;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45841-7_6 4db5ee1e5824874acb4953658d710631;de;;;6.1.;;;Bedeutung von Daten bei der Entscheidungsfindung Die Fähigkeit, effektive Entscheidungen zu treffen, ist entscheidend für das Überleben eines Unternehmens im heutigen turbulenten Geschäftsumfeld. Damit Unternehmen Alternativen bewerten und fundierte Entscheidungen treffen können, müssen sie über zuverlässige und aktuelle Daten verfügen, auf deren Grundlage sie ihre Entscheidungen treffen können. Folglich ist die Entwicklung effektiver Datenmanagementtechniken von zentraler Bedeutung für eine Organisation. Viele Unternehmen lernen jedoch, dass dies keine leichte Aufgabe ist, da sie mit fast überwältigenden Datenmengen überflutet werden. Die Bewertung der spezifischen Probleme des Datenmanagements, mit denen Unternehmen konfrontiert sind, und die Entwicklung einer effektiven Methodik, um diese Probleme anzugehen, ist ein zentraler Schwerpunkt dieses Kapitels. Dieses Kapitel untersucht insbesondere das Datenmanagement aus einem kybernetischen Ansatz und konzentriert sich auf Methoden zur Umwandlung verschiedener Formen strukturierter und halbstrukturierter Daten in strukturierte, nützliche Daten, die ein Unternehmen nutzen kann, um effektive, fundierte Entscheidungen zu treffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24700-5_2 8d9af5c818e0c8c5e9419f06a022845a;de;;;6.1.;;;Eine Studie zur Entscheidungsfindung in der Lebensmittelversorgungskette basierend auf Big Data Da immer mehr Unternehmen riesige Datenmengen erfasst und analysiert haben, um die Leistung der Lieferkette zu verbessern, entwickelt dieser Artikel ein Big Data Harvest-Modell, das Big Data als Input nutzt, um fundiertere Produktionsentscheidungen in der Lebensmittelversorgungskette zu treffen. Durch die Einführung einer Methode des Bayesschen Netzwerks integriert dieses Papier Beispieldaten und findet eine Ursache und Wirkung zwischen den Daten, um die Marktnachfrage vorherzusagen. Anschließend wird das Deduktionsgraphenmodell vorgestellt, das die Produktnachfrage in Prozesse umwandelt und Prozesse in Aufgaben und Vermögenswerte aufteilt, und ein Beispiel dafür, wie Big Data in der Lebensmittelversorgungskette mit dem Bayesschen Netzwerk und dem Deduktionsgraphenmodell kombiniert werden kann, um Produktionsentscheidungen zu leiten. Unsere Schlussfolgerungen zeigen, dass der analytische Rahmen ein enormes Potenzial hat, die Entscheidungsfindung zu unterstützen, indem der Wert aus Big Data gewonnen wird.;-;-;-;https://link.springer.com/article/10.1007/s11518-016-5320-6 33138841ca4c993f3957ee001993bd1b;de;;;6.1.;;;Multi-Authority-Based File Hierarchy Hidden CP-ABE Scheme for Cloud Security Die Cloud-Technologie hat sich in den letzten Jahren aufgrund ihrer Robustheit zu einer weithin akzeptierten Technologie entwickelt. Cloud Computing basiert im Wesentlichen auf der Tatsache, dass die Ressourcen zwischen zahlreichen Geräten geteilt werden können, um einen effizienten Netzwerkbetrieb zwischen Geräten mit minimiertem Rechenaufwand zu erreichen. Die gemeinsame Nutzung stellt jedoch ein Sicherheitsrisiko für die Geräte dar, deren Ressourcen gemeinsam genutzt werden. Fast in allen bestehenden Arbeiten zur Cloud-Sicherheit wird ein einziger vertrauenswürdiger Dritter (TTP) für die Schlüsselausgabe und -autorisierung verwendet. Die Verwendung eines einzelnen TTP kann jedoch zu Einzelfehlern und Sicherheitsrisiken führen. Die meisten früheren Arbeiten zur Cloud-Sicherheit konzentrieren sich eher auf die Speichersicherheit als auf die Rechensicherheit. Um diese Probleme zu lösen, wird in diesem Papier ein auf mehreren Autoritäten basierendes, verstecktes CP-ABE-Schema für die Dateihierarchie für die Cloud-Sicherheit vorgeschlagen. In diesem Schema sind die Dateien basierend auf ihren Attributgewichten in hierarchischer Reihenfolge angeordnet. Wenn ein Cloud-Benutzer dann bestimmte Ressourcen benötigt, fordert er den Cloud-Service-Provider (CSP) an. Der CSP verbindet sich mit dem Cloud-Besitzer, um die angeforderte Datei nach der Verschlüsselung bereitzustellen. Der Cloud-Server verschlüsselt und platziert die verschlüsselte Datei im CSP, die später vom Cloud-Benutzer abgerufen wird. Auf diese Weise werden alle verwendeten Dateien zusammen mit einer strengen Authentifizierung verschlüsselt, um die Cloud-Sicherheit zu gewährleisten.;-;-;-;https://link.springer.com/article/10.1007/s11761-018-0240-6 66ef32d0abc4801740377ff8d5e6b97b;de;;;6.1.;;;Untersuchen der gruppierten Kohärenz für geclusterten hierarchischen Cache Die Branchentrends bei Prozessoren gehen dahin, immer mehr Kerne in einem einzigen Chip zu integrieren. Forscher müssen sich mit der häufigen Datenmigration über Network-on-Chip und dem zunehmenden On-Chip-Datenverkehr auseinandersetzen. Die Innovation von flach zu Hierarchie ist wahrscheinlich eine natürliche Entwurfsmethodik für skalierbare Systeme (Martin et al. in Commun ACM, 55(7):78–89,;-;-;-;https://link.springer.com/article/10.1007/s11227-017-2024-8 b37a0dffe82c53f05424a251b4153c23;de;;;6.1.;;;Ein wasserbezogenes webbasiertes Informationssystem für die nachhaltige Entwicklung des Mekong-Deltas Ein Ziel des Projekts WISDOM (Water-related Information System for the Sustainable Development of the Mekong Delta) liegt in der Entwicklung und Implementierung eines innovativen Wasserinformationssystems, das alle Ergebnisse und Ergebnisse der unterschiedlichen Forschungsdisziplinen der bilateralen Deutsch-vietnamesisches Projekt. Die Themen stammen aus den Natur- und Sozialwissenschaften und decken alle wesentlichen Fragestellungen ab, die in einem Integrierten Wasserressourcen-Management (IWRM) eine Rolle spielen. Gemäß den IWRM-Prinzipien kommuniziert das vorgesehene Informationssystem alle Forschungsergebnisse an lokale Akteure und Entscheidungsträger. Es ist ein webbasiertes Geoinformationssystem, das zusätzlich nicht-geografische Daten wie Statistiken, Literatur und Berichte, Rechtsdokumente, institutionelle Kartierungen und andere einbezieht. Eine große Herausforderung besteht daher darin, heterogene Daten für einen einfachen Zugriff zu verwalten, damit Nicht-GIS-Experten Informationen zur Entscheidungsunterstützung leicht finden können. Dieses Kapitel gibt einen Überblick über die wichtigsten Anforderungen, die die Architektur des Systems ausmachen, und beschreibt die geschichtete Architektur mit ihrer Datenverwaltungsschicht, Logikschicht und Präsentationsschicht. Eine kurze Diskussion zum nachhaltigen Betrieb nach Projektende findet sich auch im Ausblick.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-3962-8_16 24c663ef4df590c009c1e607061dc4ba;de;;;6.1.;;;Situationsanalyse Im vorigen Kapitel wurden einige Definitionen und Beispiele des Nachhaltigkeitsbegriffs und wahrscheinliche Trends in Umweltbelangen und -vorschriften vorgestellt. Kapitel 2 dient als Rahmen, um die aktuelle Situation eines Unternehmens zu analysieren und Stärken und Schwächen zu identifizieren. Das Ergebnis dieser Situationsanalyse wird die Grundlage für die Strategieentwicklung in Kapitel 3 sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-9127-7_2 cb04101366b1fa8bac5c9c6928ea8c07;de;;;6.1.;;;Cloud Computing und Big Data Analytics: Was ist neu aus Datenbanksicht? Viele Branchen wie Telekommunikation, Gesundheitswesen, Einzelhandel, Pharmazie, Finanzdienstleistungen usw. erzeugen große Datenmengen. Die Gewinnung kritischer Geschäftseinblicke durch das Abfragen und Analysieren solch riesiger Datenmengen wird zum Gebot der Stunde. Die um sie herum aufgebauten Warehouses und Lösungen sind nicht in der Lage, angemessene Reaktionszeiten im Umgang mit wachsenden Datenmengen zu bieten. Man kann entweder einmal in Tagen Analysen für große Datenmengen durchführen oder Transaktionen mit kleinen Datenmengen in Sekundenschnelle durchführen. Mit den neuen Anforderungen muss man die Echtzeit- oder nahezu Echtzeit-Reaktion für riesige Datenmengen sicherstellen. In diesem Papier skizzieren wir Herausforderungen bei der Analyse von Big Data für beide;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35542-4_5 37ec24211f029181485da155cab128be;de;;;6.1.;;;Ansätze der Bürgerbeteiligung im Bereich Umweltgesundheit Umweltgesundheit ist ein sehr komplexes Thema, da eine ganze Reihe von Faktoren beteiligt sind, von denen viele mit hohen Risiken und Unsicherheiten behaftet sind. Die Kombination aus Komplexität und Unsicherheit erfordert einen anderen Ansatz zur Unterstützung der Entscheidungsfindung, als dies die traditionelle Wissenschaft bisher bietet. Die letzten Jahrzehnte haben gezeigt, dass zur Unterstützung wissensbasierter Entscheidungsfindung und Problemlösung Wissen und Erfahrungen unterschiedlicher Akteure durch partizipative Ansätze berücksichtigt werden müssen, sowohl in der traditionellen Wissenschaft als auch in der breiten Öffentlichkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-43142-0_11 2d01056beada93bd61e337d454c4ee7a;de;;;6.1.;;;Fallstudie zu Livecycle-Datendiensten In diesem Kapitel erstellen wir eine Flex-Anwendung, die die Data Management Services von LiveCycle Data Services (LCDS) verwendet. Mit dem Data Management Service können Sie Anwendungen erstellen, die mit verteilten Daten arbeiten. Es kann die Client- und Serverversionen der Daten synchronisieren und Datenaktualisierungen in Echtzeit durchführen. Der Data Management Service gibt Ihnen auch die Möglichkeit, On-Demand-Daten-Paging durchzuführen und mit gelegentlich verbundenen Clients zu arbeiten. In unserer Fallstudie verwenden wir eine HSQL-Datenbank als Datenquelle.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-0444-2_16 4aef035cfd8243ec2d955f9168162620;de;;;6.1.;;;Ein integrierter kollaborativer Ansatz für FM – Sydney Opera House FM Exemplar Dieses Papier stellt einen integrierten kollaborativen Ansatz für Facility Management (FM) vor, der das Sydney Opera House als beispielhafte Fallstudie verwendet. Das Projekt hat drei (3) Forschungsströme,;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84628-814-2_124 d8600f818edfefca613b583c2da484fb;de;;;6.1.;;;PathSimExt: PathSim in heterogenen Informationsnetzwerken erneut besuchen Information Ähnlichkeitsabfragen in Graphdatenbanken wurden in den letzten Jahrzehnten untersucht. Typischerweise werden die Ähnlichkeitsabfragen in homogenen Netzwerken verwendet, in denen Random-Walk-basierte Ansätze (z. B. personalisierter PageRank und SimRank) die repräsentativen Verfahren sind. Diese Ansätze eignen sich jedoch nicht gut für heterogene Netzwerke, die aus mehrfach typisierten und miteinander verbundenen Objekten bestehen, wie z. B. bibliografische Informationen, Social Media-Netzwerke, Crowdsourcing-Daten usw. Intuitiv ähneln sich zwei Objekte in heterogenen Netzwerken, wenn sie starke Verbindungen untereinander haben die heterogenen Verhältnisse. PathSim ist die erste Arbeit, die dieses Problem anspricht und die Ähnlichkeit zweier Objekte basierend auf ihrer Konnektivität entlang eines semantischen Pfads erfasst. PathSim berücksichtigt jedoch nur die Informationen im semantischen Pfad, lässt jedoch andere unterstützende Informationen (z. B. Anzahl der Zitate in bibliografischen Daten) einfach weg. Daher überdenken wir die Definition von PathSim, indem wir externe Unterstützung einführen, um das Ergebnis von PathSim zu bereichern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08010-9_6 608a18a11dcdcf8cdceaecf93bd675b8;de;;;6.1.;;;Das FARSEEING-Repositorium für reale Stürze: eine große kollaborative Datenbank zum Sammeln und Teilen von Sensorsignalen von realen Stürzen Reale Sturzereignisse, die objektiv von am Körper getragenen Sensoren gemessen werden, können das Verständnis von Sturzereignissen bei älteren Menschen verbessern. Diese Ereignisse sind jedoch selten und daher schwierig zu erfassen. Daher begannen das Konsortium FARSEEING (FAll Repository for the design of Smart and Self-adaptive Environments prolonging Independent livinG) und assoziierte Partner mit dem Aufbau einer Metadatenbank von Stürzen in der realen Welt.;-;-;-;https://link.springer.com/article/10.1186/s11556-016-0168-9 18197a0e215131af9fb2759584f714fb;de;;;6.1.;;;Human Security Intelligence: Hin zu einem umfassenden Verständnis komplexer Notfälle Humanitäre Krisen können durch Naturkatastrophen wie Dürren, Überschwemmungen und Erdbeben entstehen oder durch bewaffnete Konflikte von Menschen verursacht oder verschärft werden. Letztere werden oft als „komplexe Notfälle“ bezeichnet. Diese Notfälle erfordern ganzheitliche internationale Reaktionen, die über die Vielfalt humanitärer und militärischer Akteure hinweg koordiniert werden müssen. Die Antworten erfordern eine große Menge an Informationen, die situationsbezogen sind. ness und gelegentlich geheime Intelligenz. Aber die in offenen Quellen enthaltenen Informationen bieten in der Regel eine ausreichende Grundlage für diejenigen Organisationen, die versuchen, positiv auf diese Krisen zu reagieren.;-;-;-;https://link.springer.com/chapter/10.1057/9781137353320_8 ad9423f0392e1318a44fbb942ac6badd;de;;;6.1.;;;Schnelle und genaue Berechnung der Rollenähnlichkeit über Vertex Centrality Es gibt zunehmend Hinweise darauf, dass Vertex-Ähnlichkeit basierend auf strukturellem Kontext die Grundlage vieler Link-Mining-Anwendungen in komplexen Netzwerken ist. Als Spezialfall der Vertex-Ähnlichkeit kann eine Rollenähnlichkeit, die die Ähnlichkeit zwischen zwei Vertices gemäß ihrer Rollen in einem Netzwerk misst, die Suche nach Peer-Vertices erleichtern. In;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-21042-1_10 ff04a03d067af4f396ddbde110f5134f;de;;;6.1.;;;Entscheidungsoptimierung in der Service-Supply-Chain: die Auswirkungen von nachfrage- und angebotsgesteuertem Datenwert und altruistischem Verhalten Die rasante Entwicklung der Informationstechnologie hat die digitale Transformation der Service Supply Chain vorangetrieben. Mitglieder können den Wert von Daten sammeln, speichern und transformieren, um Gewinne zu erzielen. Aufgrund der unterschiedlichen Rollen bei der Servicebereitstellung transformieren Serviceintegratoren (SIs) und Serviceprovider (SPs) den Datenwert aus unterschiedlichen Quellen, was zu bedarfs- bzw. angebotsgesteuerten Daten führt. Als Leiter der Service-Lieferkette kann der SI altruistisches Verhalten zeigen und den Datenwert mit SPs teilen. Diese Studie konstruiert eine Service Supply Chain bestehend aus zwei SPs und einem SI und erstellt fünf analytische Modelle. Es werden mehrere wichtige Schlussfolgerungen gezogen. Erstens führt der nachfragegesteuerte Datenwert zu einer Verringerung der optimalen Preisgestaltung des SI und des optimalen Mehrwertdienstleistungsniveaus des SP, was zum „Paradox des nachfragegesteuerten Datenwerts“ führt. Zweitens führt der angebotsgesteuerte Datenwert zu einer Erhöhung der optimalen Entscheidungen von SI und SPs, und SI kann ohne Kosten einen höheren erwarteten Nutzen erzielen, wodurch der Trittbrettfahrereffekt erzielt wird. Schließlich gibt es einen Transmissionseffekt zwischen dem altruistischen Verhalten, dem nachfragegesteuerten und dem angebotsgesteuerten Datenwert. Wenn die Parameter eine bestimmte Bedingung erfüllen, können Kunden einen optimalen Einkaufsbereich und einen höherwertigen Mehrwertdienst zu einem niedrigeren Preis erhalten.;-;-;-;https://link.springer.com/article/10.1007/s10479-021-04018-y 0fb567992d814a01138638df82e51b93;de;;;6.1.;;;Öffentliche Prüfung der Protokollintegrität für gemeinsam genutzte Cloud-Speichersysteme über Blockchain Die Sicherheit von Cloud-Speichern hat in der Industrie und in der Wissenschaft große Aufmerksamkeit auf sich gezogen. Wenn Cloud-Daten durch verschiedene Arten von Sicherheitsangriffen beschädigt und manipuliert werden, ist dies eine der gängigsten Methoden, um Unfälle durch Protokollanalyse zu verfolgen. Um eine glaubwürdige forensische Analyse von Protokollen des Benutzerbetriebsverhaltens in einer gemeinsam genutzten Cloud-Umgebung zu unterstützen, die es mehreren Benutzern ermöglicht, Daten zu verarbeiten, stellt dieses Papier ein sicheres und effizientes öffentliches Prüfschema für Protokolle des Benutzerbetriebsverhaltens vor. Konkret wurde eine Blockchain-basierte Protokollierungsstrategie entwickelt, um die selektive Überprüfung der Protokolldatenintegrität zu unterstützen und Kollusionsangriffen zwischen böswilligen Benutzern und dem Cloud-Dienstanbieter zu widerstehen. Basierend auf der Multi-User-Logging-Strategie wurde außerdem ein öffentlicher Auditing-Ansatz vorgestellt, um die Integrität von Log-Daten in der Cloud aus der Ferne zu überprüfen, ohne dass Log-Inhalte preisgegeben werden. Wir beweisen formal die Sicherheit des vorgestellten Schemas und bewerten seine Leistungsfähigkeit durch theoretische Analysen und umfassende Experimente. Die Ergebnisse zeigen, dass unser Schema ein sicheres und effektives Auditing für Protokolle im gemeinsam genutzten Cloud-Speicher erreichen kann.;-;-;-;https://link.springer.com/article/10.1007/s11276-020-02373-5 3c8d7252844e10b4e2a52179943cde8e;de;;;6.1.;;;Die Komponentenarchitektur In diesem Kapitel stellen wir die Komponentenarchitektur des CAD-Frameworks vor. Diese Architektursicht identifiziert die einzelnen Framework-Komponenten und die Abhängigkeiten zwischen ihnen. Es bietet zusätzliche Details zur logischen Struktur des Frameworks.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-2768-8_6 5d932d73e8a3fba908c3238cc7d65d2f;de;;;6.1.;;;Sicheres und datenschutzfreundliches Ausführungsmodell für Datendienste Datendienste sind fast zu einer Standardmethode für die Veröffentlichung und gemeinsame Nutzung von Daten über das Web geworden. In diesem Papier stellen wir ein sicheres und datenschutzwahrendes Ausführungsmodell für Datendienste vor. Unser Modell steuert die während der Dienstausführung zurückgegebenen Informationen basierend auf der Identität des Datenkonsumenten und dem Zweck des Aufrufs. Wir haben das vorgeschlagene Modell im Anwendungsbereich des Gesundheitswesens implementiert und evaluiert. Die erzielten Ergebnisse sind vielversprechend.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38709-8_3 d833e4de3632ee7f96404d2b5d9b1864;de;;;6.1.;;;Prototyp eines zentralen Alarm- und Notfallsystems für das digitale terrestrische Fernsehen in Ecuador Lateinamerika lebt die Migration zum digitalen terrestrischen Fernsehen (DTT) mit dem ISDB-Tb-Standard. Einige Länder hatten sogar den analogen Blackout. In Bezug auf das Emergency Warning Broadcast System (EWBS) ist der Sende- und Empfangsvorgang definiert. In den letzten Jahren wurden Tests für den Prozess der Implementierung von EWBS für DTT koordiniert. Das Common Alert Protocol (CAP) ermöglicht den Austausch von Notfallalarmen zwischen verschiedenen Kommunikationssystemen. Dieser Artikel stellt die Implementierung eines CAP-Moduls in einer Geodateninfrastruktur für das Risikomanagement und die Integration des EWBS für DTT in eine einzige Plattform für Notfallwarnungen vor. Es wurde ein Webservice erstellt, der die Codes der Kantone Ecuadors enthält, die mit einem Kartenviewer ausgewählt und in eine Anwendung integriert wurden, die diese Informationen verarbeitet und die über das DTT zu übertragende Warnung generiert. Das Hauptziel ist die Speicherung der Informationen in einer Datenbank und einem WEB-RSS-Dienst, der die Informationen im CAP-Format enthält. Eine Reihe von Experimenten zeigt erfolgreiche Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-68080-0_14 687b530aa791ce00061539cd6768c52b;de;;;6.1.;;;Anwendungsspezifische Sensor-Cloud: Architekturmodell In den letzten Jahren hat die Sensor-Cloud-Infrastruktur in vielen Echtzeitanwendungen enorme Fortschritte gemacht. Der Hauptnachteil des Wireless Sensor Network (WSN) ist seine begrenzte Verarbeitungskapazität, Bandbreitenknappheit, unzureichender Speicher usw. In Wirklichkeit erfassen die Sensoren (EEG, EKG usw.) kontinuierlich die hochsensiblen Daten und senden sie an das medizinische Fachpersonal Server führt zu zahlreichen Herausforderungen. Die Integration von Cloud Computing und WSNs mit dem Internet ermöglicht die Abdeckung und Bereitstellung eines Dienstes für die ganze Welt sowie die Überwindung des Mangels der WSNs. Dieses Kapitel gibt einen Auftakt zur Integration von Cloud Computing mit WSNs und diskutiert die funktionalen Architekturen, Designfragen, Vorteile und Anwendungen der Sensor-Cloud-Infrastruktur. Darüber hinaus haben wir ein allgemeines Architekturmodell für die Anwendung in der Präzisionslandwirtschaft und die Sensibilisierung der Landwirte mithilfe der Sensor-Cloud entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-57277-1_12 c20ab9c1897d4e949098e2fe7343d7bc;de;;;6.1.;;;Erstellen von Self-Cluster-RDF-Datenbanken mit Tunable-LSH Das Resource Description Framework (RDF) ist ein W3C-Standard zur Darstellung von graphisch strukturierten Daten, und SPARQL ist die Standard-Abfragesprache für RDF. Jüngste Fortschritte bei der Informationsextraktion, dem Linked-Data-Management und dem Semantic Web haben zu einem schnellen Anstieg sowohl der Menge als auch der Vielfalt der öffentlich verfügbaren RDF-Daten geführt. Da Unternehmen beginnen, aus RDF-Daten Kapital zu schlagen, werden RDF-Datenverwaltungssysteme Arbeitslasten ausgesetzt, die weitaus vielfältiger und dynamischer sind, als sie dafür ausgelegt sind. Folglich besteht ein wachsender Bedarf an der Entwicklung von Workload-adaptiven und selbstabstimmenden RDF-Datenmanagementsystemen. Um dieses Ziel zu erreichen, führen wir eine schnelle und effiziente Methode zum dynamischen Clustern von Datensätzen in einem RDF-Datenmanagementsystem ein. Insbesondere gehen wir von der Workload im Voraus nicht aus, aber während der Ausführung von SPARQL-Abfragen verfolgen wir Datensätze, auf die von den Abfragen in der Workload gemeinsam zugegriffen wird, und gruppieren sie physisch. Um dynamisch und in konstanter Zeit zu entscheiden, wo ein Datensatz im Speichersystem abgelegt werden muss, entwickeln wir ein neues lokalitätsabhängiges Hashing-Schema (LSH).;-;-;-;https://link.springer.com/article/10.1007/s00778-018-0530-9 794b01ade3a1ca50b4976f0fb6724cb5;de;;;6.1.;;;Identifizieren von Objektisomerie in Multidatenbanksystemen In einem Multidatenbanksystem, das aus Objektdatenbanken besteht, kann dieselbe reale Entität als Objekte in verschiedenen Datenbanken mit inkompatiblen Objektkennungen gespeichert werden. Wie diese Objekte, die dieselben Entitäten darstellen, identifiziert und integriert werden können, sodass (a) Objektduplizierungen im Abfrageergebnis vermieden werden, (b) Informationen für die Entität gesammelt werden können und (c) die Spezialisierung mehrerer Klassen erstellt werden kann, ist ein wichtiges Thema, um ein gut strukturiertes globales Objektschema und ein informativeres Abfrageergebnis bereitzustellen. In diesem Papier erweitern wir unsere Ergebnisse zur probabilistischen Abfrageverarbeitung und zum Verbinden von Beziehungen auf inkompatiblen Schlüsseln, um das Problem zu lösen. Bei der Identifizierung werden verschiedene Daten- und Schemakonflikte wie fehlende Daten, inkonsistente Daten und Domänen-Mismatch, die in Klassen aus verschiedenen Datenbanken vorliegen können, berücksichtigt.;-;-;-;https://link.springer.com/article/10.1007/BF00204905 d0c393c81fe8edbf731c748ccfd5b0fb;de;;;6.1.;;;Speichersysteme für mobile Umgebungen Die gemeinsame Nutzung von Daten in einer mobilen Umgebung wird durch eine Reihe von Techniken realisiert, die eine Reihe von Netzwerkausfällen bewältigen können. Die Herausforderung besteht darin, gemeinsam genutzte Daten hochverfügbar und transparent zugänglich zu machen, selbst wenn sich ein Benutzer im Bereich der Netzabdeckung bewegt. Drei verschiedene Mechanismen, die in der Vergangenheit vorgeschlagen wurden, sind: (i) verlagerbare dynamische Objekte (RDO), (ii) repliziertes Speichersystem und (iii) verteiltes Dateisystem mit Unterstützung für Mobilität und Trennung. In diesem Kapitel liegt unser Fokus hauptsächlich auf CODA. Es bietet ein vollständig mobilitätstransparentes Dateisystem, das aus Sicht der Anwendungsentwickler ideal ist. Es erfordert jedoch beträchtliche Unterstützungsmechanismen, um physikalische Eigenschaften des drahtlosen Kommunikationsmediums zu verbergen. CODA führte Warteschlangen-Remote-Procedure-Calls (QRPC), optimistisches Replikatmanagement und Prefetching (Hoarding) ein, um ein hochverfügbares, mobilitätstransparentes Dateisystem basierend auf dem bekannten verteilten Dateisystem AFS bereitzustellen. InterMezzo ist eine leichte filternde Dateisystemschicht, die zwischen VFS und einem nativen Dateisystem sitzt. In Wirklichkeit handelt es sich also um eine gestapelte Dateisystemschicht über dem nativen Dateisystem. Es bewahrt hauptsächlich Protokolle von CODA und AFS. Daher konzentriert sich dieses Kapitel hauptsächlich auf CODA.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-3941-6_15 b272b1b13332a6e4eeb89cafa18a1049;de;;;6.1.;;;Intelligentes Multimedia-Service-System basierend auf Kontextbewusstsein im Smart Home Aufgrund des schnellen Wandels einer Computerumgebung kommt ein Zeitalter des Ubiquitous Computing, in dem wir jederzeit und überall Informationsdienste als Paradigma der digitalen Konvergenz wie Rundfunk, Kommunikation und Geräte nutzen können. Folglich wird die Smart Home Umgebung im Haus aufgebaut. Verschiedene Dienstleistungen wie Sicherheit/Automatisierung, Gesundheitsüberwachung, medizinische Untersuchung und Behandlung, Unterhaltung, Bildung und E-Business werden zu Hause realisiert. Sowohl affektive, systematische Verwaltungen als auch Dienste, die der obigen Umgebung entsprechen, werden auch in Multimediadiensten benötigt. In diesem Papier schlagen wir ein Intelligent Multimedia Service System (IMSS) vor, das auf Kontextbewusstsein in Smart Home basiert, das Multimedia-Interoperabilität zwischen inkompatiblen Multimedia-Spielgeräten bietet, Kontextbewusstseinsinformationen intelligent verarbeitet, transparent ist und sichere Dienste bereitstellt.;-;-;-;https://link.springer.com/chapter/10.1007/11552413_163 460d4ac919482ee2639937998c5ce96e;de;;;6.1.;;;BIM-basierte Kosten-Nutzen-Bewertung in öffentlich-privaten Partnerschaften Neue Urbanisierungsansätze im Sinne von Public-Private-Partnership (PPP), die Anfang der 1990er Jahre entstanden, haben sich zu akzeptablen und noch besseren Lösungen für herausragende städtische Kommunalbauten entwickelt. PPPs sind jedoch immer noch problematisch hinsichtlich des Preis-Leistungs-Verhältnisses (VFM), das die wichtigste treibende Kraft für die Erbringung öffentlicher Dienstleistungen ist. Die aktuelle VFM-Struktur erfordert eine integrierte Plattform, um Multi-Performance- und Kooperationsbeziehungen in Projektlebenszyklen zu verwalten. Building Information Modeling (BIM), ein beliebter Beschaffungsansatz in AEC-Sektoren, bietet das Potenzial, VFM sicherzustellen und gleichzeitig mit dem semantischen Ansatz zusammenzuarbeiten, um die Lebenszyklusleistung ganzheitlich zu messen. Dieses Papier schlägt vor, dass BIM, angewendet auf den PPP-Lebenszyklus, die Entscheidungsfindung in Bezug auf VFM unterstützen und somit Serviceziele erreichen könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-65151-4_5 2a58e154cef2c0e6416e4ed540331bb8;de;;;6.1.;;;Eine kontextsensitive Überwachungsarchitektur zur Unterstützung der Systemanpassung und Neukonfiguration Moderne Dienste und Anwendungen müssen auf Veränderungen in ihrem Kontext (z. B. Standort, Speicherverbrauch, Anzahl der Benutzer) reagieren, um die Benutzererfahrung zu verbessern. Um diesen Kontext zu erhalten, ist eine Monitoring-Infrastruktur mit ausreichender Funktionalität und Qualität erforderlich. Aber auch diese Überwachungsinfrastruktur muss auf den Kontext reagieren, was den Bedarf an kontextsensitiven Überwachungstools erhöht. Stellen Sie eine generische Lösung für kontextbezogenes Monitoring bereit, die effektiv auf kontextbezogene Änderungen reagieren kann. Wir haben CAMA entwickelt, eine serviceorientierte, kontextbezogene Überwachungsarchitektur, die einfach konfiguriert, angepasst und an Kontextänderungen weiterentwickelt werden kann. CAMA implementiert eine entkoppelte Architektur und verwaltet eine Kontextdomänenontologie zum Modellieren der Eingaben, Ausgaben und Fähigkeiten von Überwachungstools. CAMA wurde in drei realen Anwendungsfällen demonstriert. Darüber hinaus haben wir verschiedene Evaluationen durchgeführt, darunter eine empirische Studie. Die Ergebnisse der Evaluierungen zeigen, dass (1) der durch die Architektur verursachte Overhead das Verhalten des Systems außer unter extremen Bedingungen nicht verschlechtert, (2) die Verwendung von Ontologien für Praktiker kein Hindernis darstellt, selbst wenn sie nur über geringe Kenntnisse verfügen über dieses Konzept und (3) die Argumentationsfähigkeiten von CAMA ermöglichen kontextbezogene Anpassungen. CAMA ist eine Lösung, die sowohl für Forscher als auch für Praktiker nützlich ist. Forscher können diese Architektur als Grundlage für die Bereitstellung verschiedener Erweiterungen oder die Implementierung neuer Ansätze zusätzlich zu CAMA verwenden, die eine kontextbezogene Überwachung erfordern. Praktiker können CAMA auch in ihren Projekten verwenden, um kontextbezogene Veränderungen effektiv zu bewältigen.;-;-;-;https://link.springer.com/article/10.1007/s00607-021-00923-z 4f7109e9cf709c02fb1c6f3e8e35a842;de;;;6.1.;;;Outsourcing im privaten und öffentlichen Sektor: eine unberechenbare IT-Strategie Das IT-Outsourcing hat in der Privatwirtschaft stark zugenommen, wobei IT-Software- und Serviceanbieter höhere Umsätze vermelden. Auch im öffentlichen Sektor wird die Einführung von Markttests und obligatorischen wettbewerblichen Ausschreibungen (CCT) unweigerlich dazu führen, dass erhebliche Mengen an IT-Arbeiten vergeben werden. Dies kann zum Untergang einiger IT-Abteilungen des öffentlichen Sektors führen, in denen externe Angebote gegenüber denen des internen Teams bevorzugt werden. Dieses Papier ist in zwei Abschnitte unterteilt. Zunächst wird ein Teil der einschlägigen Literatur zum IT-Outsourcing in britischen und amerikanischen Organisationen des privaten und öffentlichen Sektors betrachtet. Es fasst wichtige Themen zusammen, die die Attraktivität von IT-Outsourcing für Führungskräfte erklären. Zweitens werden die Ergebnisse einer Fragebogenerhebung unter fast 200 britischen Organisationen des privaten und öffentlichen Sektors zum IT-Outsourcing vorgestellt. Insbesondere werden der Anteil der Unternehmen, die behaupten, Outsourcing zu nutzen, wie Verträge ausgehandelt werden und welche Art von IT-Lösungen von IT-Managern bevorzugt werden. Das zentrale Argument ist, dass IT-Outsourcing sowohl private als auch öffentliche Unternehmen vor große Herausforderungen stellt und nicht nur ein Allheilmittel für schnelle Lösungen ist. Darüber hinaus täten IT-Manager des öffentlichen Sektors gut daran, einige der weniger positiven Berichte über das Outsourcing des privaten Sektors zu analysieren, während sie sich in den kommenden Monaten auf CCT vorbereiten.;-;-;-;https://link.springer.com/article/10.1057/ejis.1996.4 d9d654a7dc949b000c92e8ac340c492b;de;;;6.1.;;;GIS-Aktualisierungsalgorithmus für räumliche Daten basierend auf digitaler Wasserzeichentechnologie Die Notwendigkeit, GIS-Geodaten automatisch und effektiv zu aktualisieren, insbesondere die Datensicherheit zu gewährleisten, hat uns dazu motiviert, ein auf der digitalen Wasserzeichentechnologie basierendes Schema vorzuschlagen, das Änderungsdaten mit hoher Genauigkeit erkennt und lokalisiert und gleichzeitig eine genaue Wiederherstellung des ursprünglichen Inhalts und der aktualisierten Daten garantiert. In diesem Artikel wird der Datenaktualisierungsalgorithmus auf der Grundlage der digitalen Wasserzeichentechnologie untersucht. Die Copyright- und Versionsinformationen sind in den Prozess der Datenverteilung eingebettet. Dann wird der Algorithmus zum Entfernen von Wasserzeicheninformationen nach dem Aktualisieren der Daten entworfen. Experimentelle Ergebnisse zeigen, dass das vorgeschlagene Schema eine gute Leistung bei der Unsichtbarkeit aufweist und garantieren kann, dass die Daten legal und sicher verwendet werden. Somit können die Autorität und Wirksamkeit der Datenaktualisierung aufrechterhalten werden und die Anforderungen der Speicherung der qualifizierten Daten in der Datenbank werden erfüllt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45737-5_14 877b548a3e09554887f2dc0f594b8759;de;;;6.1.;;;Maße für finanzbezogene Einstellungen und Verhaltensweisen Dieses Kapitel enthält von Experten begutachtete, empirisch abgeleitete Instrumente, die verwendet werden können, um Einstellungen und Verhaltensweisen zu bewerten, die mit finanziellem Stress, Belastung, Wohlbefinden, Zufriedenheit, Ersparnissen, Ausgaben und Vertrauen zusammenhängen. Diese Instrumente, die Skalen, Indizes und Ein-Item-Maßnahmen umfassen, haben das Potenzial, sowohl in der Forschung als auch in der Praxis eingesetzt zu werden. Eine Beschreibung jedes Bewertungsinstruments wird bereitgestellt. Zu den beschreibenden Informationen gehören Hintergrundinformationen zur Probennorm sowie zur Zuverlässigkeit und Validität jedes Instruments.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-6908-8_4 4ae5cc761c6de0e28d21449cd2220b7d;de;;;6.1.;;;Forschung zur dynamischen epistemisch relevanten Multi-Agenten-Logik für Flugsicherungssysteme Herkömmliche interaktive Flugsicherungssysteme können den Anforderungen der zunehmenden Komplexität des Flugverkehrsnetzes nicht gerecht werden. In diesem Papier schlagen wir eine neue Generation von Flugsicherungssystemen vor und etablieren ein Logiksystem namens Dreidimensionale multi-agent dynamische epistemisch relevante Logik (kurz: 3DMDERL), um die Anforderungen zu erfüllen. Außerdem beschreiben wir detailliert die Anwendung der von uns etablierten Logik im Bereich der Flugsicherung. Das logische System in Kombination mit dem Flugsicherungssystem der neuen Generation verhindert viele Ausfälle, die durch Fehler beim Informationsaustausch und Datenaustausch verursacht werden, und trägt dazu bei, die Sicherheit und Effizienz des Flugverkehrs zu gewährleisten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25002-6_39 c703acd0376cae53035519488f103c84;de;;;6.1.;;;Leistungsbewusstes Schlüsselmanagement in verschlüsselten Datenbanken In diesem Papier untersuchen wir die Probleme der Schlüsselverwaltung in verschlüsselten Datenbankumgebungen. Wir untersuchen die Probleme im Kontext des Database-as-a-Service (DAS)-Modells, das es Unternehmen ermöglicht, ihre Datenmanagement-Infrastrukturen an einen Datenbank-Dienstleister auszulagern. Beim DAS-Modell verwendet ein Dienstanbieter Datenverschlüsselungstechniken, um die Vertraulichkeit der gehosteten Daten zu gewährleisten. Die Sicherheit von Verschlüsselungstechniken beruht auf der Vertraulichkeit der Verschlüsselungsschlüssel. Die dynamische Natur der verschlüsselten Datenbank im DAS-Modell erhöht die Komplexität und erhöht spezifische Anforderungen an die Schlüsselverwaltungstechniken. Schlüsselaktualisierungen sind aufgrund ihrer potenziellen Auswirkungen auf die Gesamtsystemleistung und Ressourcennutzung besonders kritisch. In diesem Papier schlagen wir spezialisierte Techniken und Datenstrukturen vor, um die Schlüsselaktualisierungen zusammen mit den anderen Schlüsselverwaltungsfunktionen effizient zu implementieren, um die Nebenläufigkeitsleistung der Systeme im DAS-Modell zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-8128-6_7 658905d66d44dd5b16a9416ea0eea71d;de;;;6.1.;;;Eine bundesweite Vergleichsstudie zu den Soft Skills privater und öffentlicher Hochschulstudenten Die Hauptfunktion von Hochschuleinrichtungen (Hochschulen) besteht darin, qualifizierte und sachkundige Arbeitskräfte zu schaffen, die nicht nur mit minimaler Anleitung arbeiten, sondern auch effektiv zu den einstellenden Organisationen beitragen können. Viele Studien haben gezeigt, dass die meisten Hochschulen ähnliche Studieninhalte haben und erfolgreich Studenten mit guten akademischen Leistungen hervorbringen. Was sie jedoch voneinander unterscheidet, ist ihre Fähigkeit, Wissensarbeiter mit den richtigen Beschäftigungsfähigkeits-Fähigkeiten oder „Soft Skills“ wie Kommunikation, Problemlösung, zwischenmenschliche und andere Fähigkeiten zu entwickeln, die als die Grundlage für ihre Arbeit unabhängig erachtet werden von der Art der Beschäftigung. Dieser Beitrag berichtet über die Ergebnisse einer groß angelegten Studie, die sich mit den Soft Skills von malaysischen Hochschulabsolventen befasst. Es wurde ein quantitatives Erhebungsdesign verwendet, bei dem die Daten durch die Verwaltung eines Instruments namens Malaysian Soft Skills Scale (My3S) gewonnen wurden. My3S besteht aus 180 Elementen, die sieben Elemente abdecken, nämlich Kommunikation, kritisches Denken und Problemlösung, Teamarbeit, Moral- und Berufsethik, Führung, lebenslanges Lernen und unternehmerische Aspekte. Die Mittelwerte für die sieben My3S-Subskalen lagen zwischen 6,3 und 7,8 von der maximal möglichen Punktzahl von 10. Konkret wurden Vergleiche zwischen Absolventen öffentlicher und privater Einrichtungen in Bezug auf die sieben Elemente angestellt. Die Ergebnisse der Studie deuten darauf hin, dass Studierende öffentlicher Hochschulen in allen sieben Kompetenzen im Allgemeinen besser abschneiden. In Bezug auf das Geschlecht schnitten männliche Studierende in allen Elementen besser ab als weibliche Studierende, mit Ausnahme der Teamfähigkeit sowie der Moral- und Berufsethik. Ein Vergleich zwischen den Studienrichtungen zeigte, dass für beide Arten von Hochschulen technische Studenten in allen Fähigkeiten mit Ausnahme von Moral und Berufsethik die besten Ergebnisse erzielten. Basierend auf den Ergebnissen dieser Studie wird vorgeschlagen, dass Hochschulen neben dem Angebot spezifischer Kurse zur Verbesserung des Erwerbs von Soft Skills auch Soft Skills in ihre akademischen Lehrpläne einbetten müssen.;-;-;-;https://link.springer.com/article/10.1007/s12564-012-9205-1 fb5d9c3fc6bbbdbadd9b0651a54faca6;de;;;6.1.;;;Adaptiver Overlay-Ansatz in der Inter-Cloud-Umgebung Obwohl die Inter-Cloud-Umgebung neue Möglichkeiten für datenintensive e-Sciences-Anwendungen ermöglicht, bleiben einige schwierige Probleme wie die dynamische Änderung der Computerressourcen und die Verwaltungskomplexität großer Netzwerke bestehen. Wir schlagen ein neuartiges strukturiertes Overlay-Netzwerk für Inter-Cloud-Umgebungen vor, das als „Multi-Ring Structured Network“ bezeichnet wird. Die Ziele bestehen darin, das Konsistenzmanagement globaler Informationen zwischen Clouds zu unterstützen und die Abwanderungsresistenz zu erhöhen. Knoten werden in einem Teilring organisiert und alle Teilringe werden dann zusammengesetzt, um ein großes strukturiertes Netzwerk mit einem einzelnen Ring zu bilden. Die globalen Informationen werden innerhalb des Teilrings verwaltet, so dass die Kosten und die Verwaltungskomplexität deutlich reduziert werden können. Wir bewerten die Effizienz mithilfe eines Overlay-Simulators. Die Ergebnisse zeigen, dass die Kosten für das globale Informationsmanagement reduziert werden, während die Stabilität des Overlay-Netzwerks unter Abwanderung aufrechterhalten werden kann. Die durchschnittliche Erreichbarkeit des Netzes wird bei über 89,2% gehalten und unter Berücksichtigung der Knotenlokalität sinkt auch die Anzahl der entfernten Nachrichten um 58,4%.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-2326-3_3 a3ac538c6256f89073ef2b816ca0af2b;de;;;6.1.;;;Blockchain-basiertes, dezentrales und sicheres, leichtgewichtiges E-Health-System für elektronische Patientenakten Elektronische Gesundheitsakte (EHR) ist ein digitales Format von Patientengesundheitsinformationen, das in der Regel Patientenkontaktinformationen, Vitalparameter, Krankengeschichte, aktuelle und frühere Medikamente enthält, die in die Cloud ausgelagert werden. Aber der Datenverlust in der Cloud-basierten EHR verursacht bei verschiedenen Gesundheitsorganisationen ernsthafte Datenschutz- und Sicherheitsprobleme. Bestehende kryptografische Methoden reichen nicht aus, um Datenschutzverletzungen von EHR-Daten in der Cloud zu beheben. Die Blockchain-Technologie ist eine aufstrebende Technologie, um Datenschutz- und Sicherheitsprobleme von EHR-Daten dezentral in der Cloud zu lösen. In diesem Papier haben wir eine sichere dezentrale Cloud-basierte medizinische Blockkette (CMBC) entwickelt, um Datenschutz- und Sicherheitsprobleme beim Austausch von Gesundheitsdaten von Patienten an verschiedene medizinische Organisationen zu lösen. Vor dem Hochladen der EHR-Daten in die Cloud-basierte Blockchain werden die Daten mit dem leichten Authentifizierungsalgorithmus AES_256_GCM verschlüsselt, um eine bessere Leistung im Gesundheitswesen zu erzielen. Basierend auf den verschlüsselten Daten auf Blockchain, Etherum-basiertem Solidity-Smart-Code, um den Zugriff auf EHR-Daten in der Cloud einzuschränken. Die medizinische Blockchain gewährleistet auch die Interoperabilität, Rückverfolgbarkeit und Anonymität der EHR-Daten von Patienten zwischen verschiedenen Organisationen. So visualisiert die sichere dezentrale Cloud-basierte medizinische Blockchain die Patienten-EHR-Daten in einer dezentralen, verteilten und unveränderlichen Umgebung mit verbesserter Sicherheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3914-5_21 c2e19d72a5a680ca73e60e874481eb16;de;;;6.1.;;;Healthcare 4.0: Eine Reise im Nebel-Computing mit IOT, Cloud Computing, Big Data und Machine Learning Die Gesundheitsbranche hat mit einer Reihe von Revolutionen, angefangen von Healthcare 1.0 bis hin zu Healthcare 4.0, einen langen Weg zurückgelegt, wo Innovationen Anstrengungen unternommen haben, um Menschenleben besser als in der Vergangenheit zu retten. Heutzutage erzeugen IoT-Geräte auf der ganzen Welt und insbesondere im Gesundheitswesen eine riesige Datenmenge mit 3 V Big Data, d. h. Geschwindigkeit, Vielfalt und Volumen. Hier sind Fog Computing und Cloud Computing entstanden, um Daten zu verwenden, die für Analyse- und Modellierungszwecke verwendet werden können, die Aufzeichnungen führen und die Gesundheit der Patienten durch Analyse vorhersagen können. Im Zeitalter von IoT und KI, das in verschiedenen Branchen erstaunliche Möglichkeiten und Intelligenz mit sich bringt, hat es auch im Gesundheitswesen Revolutionen gebracht, indem es mit Hilfe von Fog Computing und Cloud Computing fehlerfrei Echtzeit-Analysen von Patientendaten ermöglicht. In diesem Kapitel wurde die Rolle von IoT, Fog Computing und Cloud Computing zusammen mit Anwendungen des maschinellen Lernens und Big Data, die auf diesen Paradigmen ausgeführt werden, beschrieben. Auch Fragen im Zusammenhang mit Cloud Computing und die Motivation hinter dem Fog-Computing-Paradigma wurden ausführlich erläutert. In diesem Kapitel werden auch mehrere Architekturen des Fog-Computing sowie deren Anwendung und Vergleich diskutiert. Die Anwendung von Big Data- und Machine-Learning-Modellierung wurde ebenfalls im späteren Teil des Kapitels erläutert. Schließlich wurden Fallstudien zu Fog Computing, Big Data und maschinellem Lernen im Gesundheitswesen erläutert und verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-46197-3_8 f23a506404ea3513d61a570d93301841;de;;;6.1.;;;Human Centered Automation System für ELV-Demontagelinie Da es so viele Arten von Altfahrzeugen gibt, muss am Demontageband gearbeitet werden. Insbesondere die Parameter und der Zustand sind unterschiedlich, so dass es schwierig ist, allgemein als Automatisierung für Demontagearbeiten zu verwenden. In diesem Beitrag wird das Konzept der Human Centered Automation erläutert und auf den Bereich der Demontagelinie für Altfahrzeuge angewendet. Zunächst werden die Zustandsinformationen des Altfahrzeugs durch den menschlichen Sachverständigen erfasst. Und dann werden mit RFID-Technologie und Expertensystem die Betriebsinformationen erstellt und auf dem Bildschirm jedes Arbeitsplatzes der Demontagelinie angezeigt. Auf diese Weise können die Demontagearbeiten von den Arbeitern gemäß den grundlegenden Informationen abgeschlossen werden. Die detaillierte Demontage wurde aufgrund der Erfahrung und des Wissens der Arbeiter noch abgeschlossen. Am Ende wird eine Fallstudie gegeben und diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-5768-7_37 53641d59eb13c2a4261d6e0591eeb3c2;de;;;6.1.;;;Eine Überprüfung der Design-Frameworks für Gastgewerbe-Websites Eine effektive Website ist für ein Hotel von entscheidender Bedeutung, um seine Kundenbeziehungen zu stärken und Online-Verkäufe zu erzielen. Trotz der Verbreitung von Hotelwebsite-Studien scheint die Forschung jedoch einen grundlegenden ersten Schritt, die Entwicklung valider und zuverlässiger Konstrukte und Funktionen zur Bewertung von Websites, unterschätzt zu haben. Basierend auf einer Literaturrecherche, Expertenurteilen und ausführlichen Interviews schlägt diese Studie einen Rahmen für die Bewertung von Hotelwebsites vor. Die Ergebnisse sind fünf Dimensionen der Website-Qualität – Informationen und Prozesse, Mehrwert, Beziehungen, Vertrauen sowie Design und Benutzerfreundlichkeit –, die sich in 74 Website-Funktionen widerspiegeln. Das Papier schließt mit einem vorgeschlagenen Prozess zur Entwicklung eines Website-Evaluierungsrahmens und zukünftigen Forschungsmöglichkeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-211-69566-1_21 dd7c38e6d0e46d9f1b0eaacc066768bd;de;;;6.1.;;;Mobiles Datenmanagement mit Sound Diese Studie stellt ein klangbasiertes mobiles Bezahlsystem vor. Die Nutzung des Mobiltelefons zum Bezahlen für den mobilen Handel ist für den Erfolg von entscheidender Bedeutung. Das vorgeschlagene System verwendet Ton, der von dem vorhandenen Mobiltelefon erzeugt wird, und der Ton kann durch das vorhandene Kreditkartenlesegerät des Ladens mit der Installation eines gewöhnlichen Mikrofons und einer einfachen Software zur Verarbeitung der Toneingabe erkannt werden. Dieses System ist ein besseres System, da die Kunden kein neues Mobiltelefon kaufen müssen und die Kosten für das Mikrofon und die Software sehr niedrig sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27772-9_61 c11014f6e21a753fc4d7beda7dfedce3;de;;;6.1.;;;Daten beschaffen und Marketing richtig betreiben Sarah Calhoun, die Gründerin von Red Ant Pants um die 30, ist eine ehemalige Outward Bound-Lehrerin und Wildnis-Enthusiastin. Sie war so frustriert über schlecht sitzende Arbeitshosen, die ohne die weibliche Figur entworfen wurden, dass sie ihre eigene Firma gründete. Es verkauft jetzt 70 Größen der Doppelknie- und Doppelsitz-Arbeitshosen mit niedrigerer Vorder- und höherer Rückenhöhe. Durch den Import von 12-Unzen-Baumwoll-Canvas aus Indien und deren Zuschneiden und Nähen in einer Fabrik in Seattle kann Calhoun die hochpreisigen Hosen (129 US-Dollar pro Paar) an ihren Zielmarkt verkaufen – Frauen, die für ihren Lebensunterhalt in der Landwirtschaft arbeiten , das Bauhandwerk oder jede andere Tätigkeit im Freien.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-0385-9_8 b561fb2cd6ac83025c692da299571beb;de;;;6.1.;;;Übersicht über die Anonymisierung von Patientendaten Dieses Kapitel gibt einen Überblick über Anonymisierungstechniken, die zum Schutz verschiedener Arten von Patientendaten verwendet werden können. In Abschnitt 1 diskutieren wir zunächst Anonymisierungsprinzipien, die die Offenlegung von Identität und sensiblen Informationen bei der Veröffentlichung demografischer Daten verhindern können, sowie Algorithmen zur Durchsetzung dieser Prinzipien. Anschließend wenden wir uns in Abschnitt 2.2 der Anonymisierung des Diagnosecodes zu, die überraschenderweise von der Medizininformatik-Community nicht in Betracht gezogen wurde. Nachdem wir die Notwendigkeit der Anonymisierung von Diagnosecodes begründet haben, stellen wir verschiedene verwandte Prinzipien und Transformationsmodelle vor, die von der Datenmanagement-Community vorgeschlagen wurden. Anschließend überprüfen wir die Anonymisierungsalgorithmen und beschreiben, wie diese Prinzipien und Algorithmen von ihnen verwendet werden. Schließlich untersuchen wir in Abschnitt 2.3 genomische Daten, die ebenfalls anfällig für Angriffe auf die Privatsphäre sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-5668-1_2 553bda288e3149f0b14b51e9a73d6b23;de;;;6.1.;;;Supply Chain Management: Ein Lehrexperiment Wie Unternehmen ihre Bestände auswählen und verwalten, ist für Akademiker und Praktiker in vielen Bereichen von Interesse, darunter Operations Management, Marketing und Informationstechnologie. In letzter Zeit hat sich viel Aufmerksamkeit auf die Möglichkeiten von Informationsaustauschsystemen zur Unterstützung dieser Situation konzentriert, einschließlich des Austauschs von Inventarinformationen zwischen Unternehmen (SAP) und des Austauschs von Point-of-Sale-Daten (EDI). Diese Übung im Klassenzimmer veranschaulicht die Existenz und die Auswirkungen begrenzter Rationalität auf Seiten von Bestandsmanagern und zeigt, wie Systeme wie diese bei der Bestandsentscheidung helfen können.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-24244-9_13 cf02b37efb23b1dfb0120eaad0fde59a;de;;;6.1.;;;Forschung zur Mautplattform-Technologie für Schnellstraßennetze basierend auf GIS+BIM Die Architektur der Autobahnnetz-Mautplattform wird auf der Grundlage von GIS+BIM vorgestellt, die Echtzeit-Mautgebührenberechnung für jedes vernetzte Fahrzeug und die Vorwarnung von Geräten und Einrichtungen sowie die Datenanalyse und das Mining werden untersucht, das grundlegende Netzwerkdiagramm von GIS+BIM vorgestellt, Datenbank und Datenwörterbuch recherchiert. Leistungsanforderungen der Plattform wie hohe Effizienz der Gebührenberechnung, Transparenz der Betriebsführung, Datenidentifikation, hohe Fehlertoleranz der Speicherung und schnelle Reaktion werden untersucht. Die Forschung dieses Papiers wird eine gewisse Referenz für den Bau von Schnellstraßenmautsystemen liefern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-7542-2_24 9c1a68a090eae73b16e7a548b2ef75fc;de;;;6.1.;;;Integration und formale Vertretung in der Bauaufsicht auf Basis datengetriebener In der Bauaufsicht sind die Managementprozesse zu Personal, Material, Qualität, Sicherheit, Terminplanung etc. komplex, beinhalten große Datenmengen, beinhalten mehr Teilnehmer und eine zeitnahe Abstimmung und Rückmeldung ist schwierig. In diesem Beitrag schlagen wir die Idee der datengetriebenen Datenintegration vor, die den gesamten Lebenszyklus der Bauaufsicht von der obersten Datenorganisation, der Überwachung der Geschäftsprozesse, den interaktiven Einheiten und den Benutzern, den vier Elemente Methode TDTM und so weiter. Anschließend werden die Datenintegrationsalgorithmen der Bauaufsicht vorgestellt, um die Daten der Bauaufsicht von außen nach innen und von grobkörnig zu feinkörnig zu integrieren, Widersprüche und Redundanzen zu beseitigen und die Datenkonsistenz sicherzustellen. Schließlich werden die Datenentitäten der Bauaufsicht bestimmt, und wir analysieren und diskutieren deren Abfrage und Bericht, Datenpflege und -konvertierung und vergleichen die Funktionen in den verschiedenen Überwachungsplattformen. Die vorgeschlagene einheitliche Datenplattform der Bauaufsicht könnte die Unabhängigkeit der Daten wahren, eine gute Skalierbarkeit aufweisen und mehr Funktionen unterstützen.;-;-;-;https://link.springer.com/article/10.1007/s10586-018-2277-x cc9a1f413373c8e12b510cc77ebbabc7;de;;;6.1.;;;Für ein effizientes und informatives Omni-Channel-Kundenbeziehungsmanagement Kunden erwarten heute eine nahtlose Interaktion mit Unternehmen über alle verfügbaren Kommunikationskanäle. Viele Unternehmen setzen jedoch auf unterschiedliche Softwarelösungen, um jeden Kanal zu handhaben, was zu heterogenen IT-Infrastrukturen und isolierten Datenquellen führt. Omni-Channel CRM ist ein ganzheitlicher Ansatz für eine einheitliche Sicht auf den Kunden über alle Kanäle hinweg. In diesem Papier werden drei Fallstudien vorgestellt, die die Herausforderungen von Omni-Channel-CRM und den Wert, den es bieten kann, demonstrieren. Die erste Fallstudie zeigt, wie Daten aus verschiedenen Quellen integriert und visualisiert werden können, um operative und strategische Entscheidungen zu unterstützen. In der zweiten Fallstudie wird ein Social-Media-Analyseansatz diskutiert, der Vorteile bietet, indem er Berichte über die Serviceleistung über alle Kanäle hinweg anbietet. Die dritte Fallstudie wendet die Kundensegmentierung auf einen Online-Modehändler an, um Kundenprofile zu identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-70625-2_7 36f1d21fea1f62c2ba7035b6c77eecdb;de;;;6.1.;;;Über das anfängliche Ersatzteilsortiment für Investitionsgüter: Ein strukturierter Ansatz zur Unterstützung der Entscheidungsfindung im anfänglichen Ersatzteilsortiment (SAISAD) In der kapitalintensiven Industrie kann sich der Wartungsaufwand auf ein Mehrfaches der Anfangsinvestition summieren. Um in ihrem Geschäft wettbewerbsfähig zu sein, müssen Eigentümer und Nutzer dieser Investitionsgüter die Gesamtlebenszykluskosten bei der Investition (z. B. die Lebensdauer einer Hauptstadt beträgt oft mehr als mehrere Jahrzehnte), die Erneuerungsentscheidungen für ihre Anlagen und die logistische Verwaltung der Ersatzteile. Eine fehlerhafte oder unstrukturierte Erstauswahl des Ersatzteilsortiments im Logistikmanagement kann zu unerwünschten Ausfallzeiten führen und erhöht das Risiko veralteter oder nicht verfügbarer Komponenten. Die Entscheidungsfindung wird durch nicht vorhandene Daten in der frühen Entwurfsphase und mehrere Probleme beim Informationsmanagement erschwert. Basierend auf einer Fallstudie bei den Niederländischen Eisenbahnen (dem größten Instandhalter von Schienenfahrzeugen in den Niederlanden) und einer Literaturrecherche wird ein Entscheidungsunterstützungsmodell zur Strukturierung und Verbesserung der Datenerfassung für eine effektivere anfängliche Entscheidungsfindung im Ersatzteilsortiment vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49938-3_26 a12083595e153795012043ae81bb0295;de;;;6.1.;;;Effiziente schlüsselisolierte attributbasierte Signatur ohne bilineare Paarungen für die mobile Kommunikation Die attributbasierte Signatur (ABS) ist ein wichtiges kryptografisches Konzept, das eine sichere Authentifizierung während des Datenaustauschs ermöglicht. Ein Unterzeichner kann eine Nachricht mit den von ihm verarbeiteten privaten Schlüsseln signieren. Es kann jedoch von Zeit zu Zeit zu einer Offenlegung des privaten Schlüssels des Benutzers kommen, was eine potenzielle Bedrohung für das gesamte System darstellt. Daher sollten wichtige Entwicklungsmechanismen in ABS-Programme eingeführt werden. Außerdem kann die Effizienz bestehender ABS-Schemata weiter verbessert werden, da der Prozess des Signierens und Verifizierens massive bilineare Paarungen erfordert, was kostspielige Rechenressourcen auf mobilen Endgeräten beansprucht. Um die oben genannten Probleme besser anzugehen und ein sichereres Datenauthentifizierungsverfahren in Mobilkommunikationssystemen bereitzustellen, schlagen wir in diesem Papier zunächst ein schlüsselisoliertes attributbasiertes Signaturschema ohne Paarungen (KI-ABS-WP) vor. Dann geben wir die formalisierte Definition sowie die konkretisierten Konstruktionen unseres Schemas an. In unserem KI-ABS-WP müssen die Anwendungen keine bilinearen Paarungen ausführen, wodurch der Gesamtberechnungsaufwand erheblich reduziert wurde. Wenn ein Schlüssel freigelegt wird, garantiert der Schlüsselisolationsmechanismus sowohl die Rückwärts- als auch die Vorwärtssicherheit des Systems. Schließlich erweist sich unser KI-ABS-WP durch Sicherheitsnachweise und Effizienzvergleiche als überlegen für die Datenauthentifizierung in mobilen Kommunikationssystemen.;-;-;-;https://link.springer.com/article/10.3103/S0146411617030038 2aac7683cb614365e619ea733b1426a5;de;;;6.1.;;;System zur Klassifizierung und Erkennung von Anomalieereignissen in einer kritischen industriellen Infrastruktur des Internets der Dinge mit maschinellen Lernalgorithmen Das industrielle Steuerungssystem wird im industriellen Prozess verwendet, um die Belastung durch den menschlichen Faktor zu reduzieren und den komplexen industriellen Systemprozess und die Kommunikation zwischen ihnen effizient zu handhaben. Internet of Things (IoT) ist die Verschmelzung von Geräten und Sensoren durch ein Informationsnetzwerk, um neue und autonome Fähigkeiten zu ermöglichen. Die Integration von IoT in industrielle Anwendungen, bekannt als Industrial Internet of Things (IIoT). Das IIoT findet sich in mehreren kritischen Infrastrukturen wie Wasserverteilungsnetzen. Heutzutage ist ICS anfällig für die Verwendung der Internetverbindung, um es industriellen IoT-Sensoren zu ermöglichen, in Echtzeit miteinander zu kommunizieren. Daher präsentiert dieses Papier eine analytische Studie zur Erkennung von Anomalien, bösartigen Aktivitäten und Cyberangriffen in einer Cyber-Physischen kritischen Wasserinfrastruktur in der IIoT-Infrastruktur. Die Studie verwendet verschiedene Algorithmen des maschinellen Lernens, um die Anomalieereignisse einschließlich mehrerer Angriffe und IIoT-Hardwarefehler zu klassifizieren. Ein realer Datensatz, der 15 Anomaliesituationen mit normaler Systemaktivität abdeckt, wurde für die Forschungsüberprüfung des vorgeschlagenen Ansatzes analysiert. Die Testsituationen umfassten eine Vielzahl von Vorfällen, von Hardwareausfällen bis hin zur Sabotage von Wasser-SCADA-Geräten. Um die bösartigen Aktivitäten zu klassifizieren, werden verschiedene maschinelle Lernmethoden wie Logistic Regression (LR), Linear Discriminant Analysis (LDA), k-nearest Neighbors (KNN), Naïve Bayes (NB), Support Vector Machine (SVM) und Classification und Regressionsbaum (CART) verwendet werden. Die Ergebnisse zeigen, dass CART und NB die besten Ergebnisse in Bezug auf Genauigkeit, Präzision, Recall und F1-Score aufweisen.;-;-;-;https://link.springer.com/article/10.1007/s11042-020-10354-1 d948f92a181fa2bda60a176fa03edf18;de;;;6.1.;;;P-STORE: Erweiterung der STORE-Methodik zur Erhebung von Datenschutzanforderungen Die Umsetzung von Sicherheits- und Datenschutzanforderungen auf jeder Ebene des Softwareentwicklungszyklus ist unerlässlich, um eine optimale Benutzerfreundlichkeit sowie die Zufriedenheit der Benutzer zu gewährleisten. Die Softwareentwicklung muss die Risiken, die mit der Privatsphäre und dem Schutz vertraulicher Daten verbunden sind, berücksichtigen und wirksam einhalten. Diese Forschungsstudie ist bestrebt, die Standards des Datenschutzes zusammen mit der Methodik des Security Threat Oriented Requirements Engineering (STORE) zu integrieren, um potenzielle Bedrohungen für Datenschutzanforderungen zu erkennen. Die vorgeschlagene Erweiterung der STORE-Methodik, genannt P-STORE, wird durch eine Fallstudie des Systemprojekts Healthcare Management Software (HMS) validiert. Darüber hinaus haben wir die integrierte Fuzzy-AHP mit Fuzzy-TOPSIS-Technik für die Usability-Bewertung verschiedener Ansätze des Privacy Requirements Engineering einschließlich der P-STORE-Methodik verwendet. Die Studie zeigt, dass der P-STORE-Ansatz in der Lage ist, effizientere Datenschutzanforderungen zu ermitteln und es dem Softwareentwickler ermöglicht, Datenschutzanforderungen wirksam zu gestalten.;-;-;-;https://link.springer.com/article/10.1007/s13369-021-05476-z c47a8ce2c15319f38aed4438a7b60991;de;;;6.1.;;;Smart Workplaces für ältere Erwachsene: „ethischer“ Umgang mit der Technologiedurchdringung Allgegenwärtige Technologien wie Künstliche Intelligenz, Virtual Reality und das Internet der Dinge bergen trotz ihres großen Potenzials für eine verbesserte Arbeitsfähigkeit und das Wohlbefinden älterer Arbeitnehmer weitreichende ethische Bedenken. In Übereinstimmung mit diesen Überlegungen betonen wir die Notwendigkeit, aus ethischer Sicht die Risiken personalisierter IKT-Lösungen darzustellen, die darauf abzielen, die Gesundheit zu verbessern und das Wohlbefinden der alternden Bevölkerung am Arbeitsplatz zu unterstützen. Die ethischen Grenzen digitaler Technologien sind undurchsichtig. Die Hauptmotivation besteht darin, mit den Unsicherheiten der Digitalisierung von Arbeitsplätzen fertig zu werden und einen Ethikrahmen namens SmartFrameWorK für eine personalisierte Gesundheitsunterstützung durch IKT-Tools in Arbeitsplatzumgebungen zu entwickeln. SmartFrameWorK basiert auf einem fünfdimensionalen Ansatz ethischer Normen: Autonomie, Datenschutz, Transparenz, Vertrauenswürdigkeit und Verantwortlichkeit, um Vertrauen in digitale Arbeitsplatztechnologien zu wecken. Eine Typologie untermauert diese Prinzipien und leitet den ethischen Entscheidungsprozess in Bezug auf die besonderen Bedürfnisse älterer Arbeitnehmer, den Kontext, datentypbezogene Risiken und die Nutzung digitaler Tools während ihres gesamten Lebenszyklus. Die Risikoanalyse des allgegenwärtigen Technologieeinsatzes und der multimodalen Datensammlung hob die Notwendigkeit ethisch bewusster Praktiken für die Aktivitäts- und Verhaltensüberwachung älterer Arbeitnehmer hervor. Die SmartFrameWork-Methodik wurde in einer Fallstudie angewendet, um den Nachweis zu erbringen, dass personalisierte digitale Dienste durch einen klar definierten Rahmen Vertrauen bei den Benutzern wecken können. Ethik-Compliance ist ein dynamischer Prozess vom Engagement der Teilnehmer bis zum Datenmanagement. Die Definition ethischer Determinanten ist entscheidend für den Aufbau von Vertrauen und die Stärkung der Arbeitsfähigkeit und des Wohlbefindens älterer Arbeitnehmer.;-;-;-;https://link.springer.com/article/10.1007/s10209-021-00829-9 deb4b6b2a0a5a47291ee38bd35037296;de;;;6.1.;;;Anwendung der Big-Data-Technologie im nationalen Notfallmanagementsystem Chinas Notfallmanagementsystem ist erst seit kurzer Zeit etabliert und entwickelt sich relativ langsam. Im chinesischen Notfallmanagementsystem gibt es viele Probleme, wie zum Beispiel fehlende Mechanismen zum Informationsaustausch, große Abweichungen bei der Notfallreaktion und schlechte Entscheidungsqualität. Im Zeitalter von Big Data ist es ein wichtiges Problem, mit dem das Notfallmanagement konfrontiert ist, wie die Big-Data-Technologie zur Integration mehrerer Ressourcen zum Aufbau einer Big-Data-Notfall-Sharing-Plattform genutzt werden kann. Durch Literaturrecherche und Feldforschung fasst diese Studie die dringenden Probleme in Chinas aktuellem Notfallmanagement zusammen und zeigt den Implementierungspfad der Anwendung von Big Data-Technologie auf Chinas Notfallmanagementsystem auf. B. das Big-Data-Denken so früh wie möglich aufzubauen, damit die entsprechenden Praktiker ein systematisches Big-Data-Wissenstraining durchführen, die organische Integration von Big-Data-Technologie und Notfallmanagementsystem realisieren. Darüber hinaus sollte die Sicherheitstechnologie für Computernetzwerke weiter verbessert und Firewall-Technologie verwendet werden, um die Kontrolle der Benutzerinformationen beim Netzwerkzugriff effektiv zu stärken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-51431-0_101 1d96ed87b15b88a1dfcdd9b68ef66c19;de;;;6.1.;;;Bewertung der Daten der öffentlichen Verhaltensgesundheitsdienste: eine Analyse mit gemischten Methoden Die Messung der Zugänglichkeit zu verhaltenstherapeutischen Behandlungen erfordert eine zeitnahe, umfassende und genaue Datenerhebung. Vorhandene öffentliche Datenquellen haben inkonsistente Metriken, verzögerte Veröffentlichungszeiten und messen nicht alle Faktoren im Zusammenhang mit der Zugänglichkeit. Diese Studie versucht, diese zusätzlichen Informationen zu erfassen und ihre Bedeutung für die Erreichbarkeit und die Koordination der Versorgung zu bestimmen.;-;-;-;https://link.springer.com/article/10.1186/s13011-020-00328-9 56dc7103e500e8fe71dad8f06cd27388;de;;;6.1.;;;Manufacturing Execution System State-Of-The-Art: Entwicklung und Dynamik mit Fokus auf Industrie 4.0 Die Nutzung von angewandtem Wissen, speziell im Zusammenhang mit Informations- und Kommunikationstechnologien (IKT) zur Unterstützung von Produktionsprozessen, vom Top-Management bis hin zur operativen Ebene, ist ein Trend, der sich im Laufe der Zeit verstärkt hat. Seine Verwendung sucht Unterstützung bei Funktionen wie Organisationsplanung, Management und Steuerung von Geräten im Zusammenhang mit Herstellungsprozessen. Ebenso hat sich das Manufacturing Execution System (MES) zu einer Brücke entwickelt, die Enterprise-Resource-Planning-Systeme mit den Abläufen innerhalb von Organisationen verbindet und zu einem;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71579-3_11 a72c3e0f2ce2da968944019bd2064057;de;;;6.1.;;;Datenbanken in der CLP-Psychiatrie Die Epoche der 1990er Jahre hat die Notwendigkeit der Dokumentation und Aufzeichnung von Informationen in fast allen Bereichen von Unternehmen verkündet: Wirtschaft, Gesundheitswesen, Lehre, Regierung. Diese Nachfrage erfordert eine Entwicklung hin zur Schaffung computergestützter Datenbanksysteme, um relevante Daten zu sammeln, zu aggregieren und in nutzbare Informationen umzuwandeln. Auf allen Ebenen der Gesundheitsversorgung müssen wir nicht nur verstehen, was wir tun, sondern auch, was wir nicht tun sollten. Nie zuvor gab es eine solche Möglichkeit, ein Unternehmen zu dokumentieren und anschließend zu überprüfen, was von wem und auf welche Anhaltspunkte getan wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-2588-2_15 22154da191bc37d9977a717170616bf6;de;;;6.1.;;;Verwalten von versionierten Webressourcen im Dateisystem Während der WebDAV-Standard einen etablierten Lese-/Schreibmechanismus für Webressourcen sowie eine Versionsverwaltung durch seine Delta-V-Erweiterung bietet, schränkt die Komplexität des zugrunde liegenden Protokolls seine praktische Anwendung ein. Die Linked Data Platform (LDP) des W3C bietet neuerdings einen alternativen Ansatz für die gleichzeitige Verwaltung von Ressourcen und semantischen Metadaten im Web. In Kombination mit dem HTTP-Memento-Protokoll wird es seit kurzem erfolgreich im Rahmen des interoperablen Datenmanagements eingesetzt. Inspiriert von Dateisystemschnittstellen für WebDAV präsentieren wir;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-74296-6_41 75ae83a534da0b0ac3b08c5f8ffeb037;de;;;6.1.;;;Herausforderungen bei der Einführung des Internets der Dinge in Enterprise Asset Management-Organisationen Enterprise Asset Management (EAM) wird verwendet, um die strategische Planung und Budgetierung, Wartung, Reparatur und den Betrieb von Unternehmensanlagen während des gesamten Anlagenlebenszyklus zu unterstützen. Der Zweck von EAM besteht darin, die Zuverlässigkeit und Leistung der Anlagen zu verbessern, ohne die Gesundheit, Sicherheit und Umwelt zu beeinträchtigen, wobei Geräte des Internets der Dinge (IoT) nützlich sind, um Anlagenzustände in Echtzeit mit minimalem Aufwand zu erfassen, zu überwachen, darauf zu reagieren oder zu melden menschliches Eingreifen. IoT wird in der Regel in einen bestehenden Geschäftsprozess in einer EAM-Organisation übernommen oder integriert, ohne den gesamten Geschäftsprozess neu zu gestalten. Da IoT-Technologien normalerweise nicht auf bestimmte Geschäftsprozesse zugeschnitten sind, ist eine angemessene Governance für den Erfolg der IoT-Einführung entscheidend. In diesem Papier werden die Einführung von IoT in EAM-Organisationen und ihre Herausforderungen aus der Perspektive des Datenmanagements diskutiert. Literaturrecherchen und akademische Fallstudien sind ebenfalls enthalten, um Forschungslücken und Herausforderungen bei der Data Governance im Zusammenhang mit der Einführung von IoT-Technologien in EAM-Organisationen zu identifizieren. Die Faktoren, die die IoT-Einführung beeinflussen, werden aus technologischer, organisatorischer und personeller Perspektive vorgestellt. Es wurden verschiedene Kategorien von Herausforderungen identifiziert, darunter Standardisierung, Sicherheit und Datenschutz, Datenqualität, Unternehmenskultur, Geschäftskontinuität und Ausfallsicherheit. Das Papier schließt mit einigen Empfehlungen zur Verbesserung der IoT-Einführung in EAM-Organisationen sowie Vorschlägen für zukünftige Forschungsrichtungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-64228-0_16 88531b2bcf63a99cc3f30c5331eb382b;de;;;6.1.;;;Ein verbessertes System zum Schutz medizinischer Daten in öffentlichen Clouds Public Clouds bieten eine bequeme Möglichkeit, die großen Mengen medizinischer Daten, die beispielsweise von tragbaren Gesundheitsüberwachungsgeräten generiert werden, zu speichern und zu teilen. Dennoch wirft die Verwendung einer öffentlichen Infrastruktur erhebliche Sicherheits- und Datenschutzbedenken auf. Auch wenn die Daten in verschlüsselter Form gespeichert werden, sollte der Dateneigentümer einige Informationen an den Cloud-Anbieter weitergeben, damit dieser die Zugriffskontrolle durchführen kann, da medizinische Daten aufgrund der hohen Sensibilität der Daten selbst eine Gefahr für den Endnutzer darstellen können Privatsphäre. In diesem Papier verwenden wir ein Delegierungsschema für die Zugriffssteuerung, damit die Benutzer selbst die Zugriffskontrolle auf ihre Daten durchführen können, auch wenn diese in einer öffentlichen Cloud gespeichert sind. In unserem Schema werden Zugriffskontrollrichtlinien von einem benutzergesteuerten Gateway bewertet und Cloud-Anbietern werden nur die Entscheidungen des Gateways anvertraut. Da medizinische Daten häufig mit Gesundheitsdienstleistern der Wahl des Benutzers geteilt werden müssen, verlassen wir uns außerdem auf eine Proxy-Neuverschlüsselungstechnik, um eine solche Weitergabe zu ermöglichen. Unser Schema verschlüsselt Daten, bevor sie in der Cloud gespeichert werden, und wendet eine Proxy-Neuverschlüsselung unter Verwendung von Cloud-Ressourcen an, um Daten für jeden (autorisierten) Benutzer separat zu verschlüsseln. Unser Proxy-Neuverschlüsselungsschema stellt sicher, dass Cloud-Anbieter, die sich schlecht benehmen, keine Neuverschlüsselungsschlüssel verwenden können, um Inhalte mit nicht autorisierten Clients zu teilen, während die kostspieligen Neuverschlüsselungsvorgänge an die Cloud delegiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-62704-5_5 ecc8846a66b1d03b5e437390fb9ea217;de;;;6.1.;;;Öffentliche Verifizierbarkeit für gemeinsam genutzte Daten im Cloud-Speicher mit Abwehr von Kollusionsangriffen 群用户可以利用云存储服务实现数据共享和更新。 而为了确保共享数据的完整性, 国内外学者提出了相应的验证方案。 但当撤销用户和云端存在共谋时, 就会存在撤销用户任意篡改数据内容而不被发现的问题。 本文针对群用户成员撤销带来的数据完整性验证问题, 特别是云端和撤销用户之间存在共谋的威胁, 提出一种抗共谋攻击的共享数据动态完整该方案基于Merkle Hash Tree (MHT)结构和代理重签名技术, , 而且可以有效防止撤销用户通过篡改共享数据达到欺骗验证方的目的。 通过, 在安全实现群用户撤销的基础上, 本文提出的方案在完整性验证过程中产生的开销是可以接受的。;-;-;-;https://link.springer.com/article/10.1007/s11432-016-5519-7 8e1e9622af0d79cc0bc2fa40c140e88d;de;;;6.1.;;;Sicherheit für Enterprise Cloud Services Unternehmen und Einzelpersonen haben natürliche Bedenken hinsichtlich der Sicherheit ihrer Daten. Der Begriff „Sicherheit“ ist insofern mehrdeutig, als er „Vertraulichkeit“, „Authentizität“, „Pünktlichkeit“, „Verfügbarkeit“ oder viele andere Definitionen bedeuten kann. Wir verwenden den Begriff „Sicherheit“, um sicherzustellen, dass die Daten nur von;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-9846-7_9 82acfd45f5ef04de48524a3e3c4cb02b;de;;;6.1.;;;Schemalabels zur Verbesserung der Dataset-Suche nutzen Die Fähigkeit einer Suchmaschine, wünschenswerte Datensätze abzurufen, ist wichtig für die gemeinsame Nutzung und Wiederverwendung von Daten. Vorhandene Dataset-Suchmaschinen verlassen sich normalerweise darauf, Abfragen mit Dataset-Beschreibungen abzugleichen. Ein Benutzer verfügt jedoch möglicherweise nicht über ausreichende Vorkenntnisse, um eine Abfrage mit Begriffen zu schreiben, die mit dem Beschreibungstext übereinstimmen. Wir schlagen ein neues Modell zur Generierung von Schemalabels vor, das mögliche Schemalabels basierend auf dem Inhalt von Datensatztabellen generiert. Wir binden die generierten Schema-Labels in ein gemischtes Ranking-Modell ein, das nicht nur die Relevanz zwischen den Abfrage- und Datensatz-Metadaten berücksichtigt, sondern auch die Ähnlichkeit zwischen der Abfrage und den generierten Schema-Labels. Um unsere Methode an realen Datensätzen zu evaluieren, erstellen wir einen neuen Benchmark speziell für die Dataset Retrieval-Aufgabe. Experimente zeigen, dass unser Ansatz die Präzision und die NDCG-Werte der Dataset-Retrieval-Aufgabe im Vergleich zu Baseline-Methoden effektiv verbessern kann. Wir testen auch eine Sammlung von Wikipedia-Tabellen, um zu zeigen, dass die aus Schemalabels generierten Funktionen auch die Aufgabe des unbeaufsichtigten und überwachten Abrufens von Webtabellen verbessern können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-45439-5_18 3b539cd2dc89bc4100deb88972c6c888;de;;;6.1.;;;Künstliche Intelligenz und integrierte intelligente Systeme in Produktdesign und -entwicklung Produkt-Prozess-Design in der Produktentwicklung schafft eine gestalterische Einheit entsprechend den marktbezogenen, funktionalen, technischen, fertigungstechnischen, ergonomischen und ästhetischen Anforderungen. Es ist ein sehr komplexer Prozess mit vielen ausgeklügelten Verfahren und erfordert die Zusammenarbeit eines Teams von Designern und Ingenieuren mit unterschiedlichen Kenntnissen und Erfahrungen. Computergestützte Konstruktion und Fertigung (CAD/CAM) sowie Produktdatenmanagement (PDM) und deren Integration waren in den letzten Jahren die Forschungsschwerpunkte bei der Weiterentwicklung der Konstruktions- und Fertigungsautomatisierung. Viele CAD-Systeme haben einige der funktionalen Anforderungen integriert, die zur Unterstützung des integrierten Designs erforderlich sind, z. B. eine direkte Schnittstelle zu analytischem, parametrischem Feature-basiertem Design oder CAM (wie Pro/Engineer und CADDS) und anderen Designtechniken. Die meisten existierenden CAD-Systeme verwenden jedoch immer noch die traditionellen Konstruktionsmethoden, wobei verschiedene Konstruktionsaktivitäten nacheinander ausgeführt werden. Die Integration der Designaktivitäten und Produktlebenszyklusaspekte wurden noch nicht ausreichend und intelligent berücksichtigt. Die sequentiellen und nicht intelligenten Ansätze sind kostspielig, mühsam und könnten nicht zur Optimierung des Produkt-Prozess-Designs beitragen. Sie werden auch relativ spät im Designprozess verwendet, im Allgemeinen während der detaillierten Designphase, und es werden keine intelligenten und kollaborativen Aktionen zwischen Designern oder Teilnehmern unterstützt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-7829-3_32 111a9d7f6005e3b3a254b98a05bacb28;de;;;6.1.;;;Roadmap für On-Board-Processing- und Data-Handling-Systeme im Weltraum Die Domäne der Raumfahrt-Avioniksysteme verändert sich im Vergleich zu anderen technischen Domänen der Raumfahrtindustrie unter dem Druck eines intensiven Wettbewerbs, der ständigen Entstehung neuer Märkte und Akteure, der Notwendigkeit zur Kostensenkung sowie einer zunehmenden Veralterungsrate von Komponenten und Prozessen. Diese sich schnell verändernde Landschaft eröffnet auch den Raumfahrt-Avionik-Systemen eine Vielzahl von Möglichkeiten: die neuen Hochleistungsprozessorarchitekturen und Siliziumprozesse, die die Möglichkeit bieten, verschiedene Funktionen, die bisher auf mehreren Boards implementiert sind, entweder in einem einzigen Chip ( SoC) oder in anwendungsspezifischen Standardprodukten (ASSP) oder in neuen großen FPGAs ermöglichen eine mehrfache Leistungssteigerung und Miniaturisierung elektronischer Systeme. Ein weiteres Beispiel sind digitale Sensorbusse, die bereits stark in Automobil- und Embedded-Anwendungen eingesetzt werden und nun auch in Raumfahrtsystemen eingeführt werden, um Masse, Leistungsreduzierung, Genauigkeitssteigerung und Testbarkeit zu verbessern. Zuverlässigkeits- und Verfügbarkeitsbeschränkungen bleiben die wichtigsten treibenden Anforderungen für etablierte Hersteller von Raumfahrthardware. Der Großteil der vernetzten Weltinfrastruktur sowie kritischer Dienste in kommerziellen und staatlichen Bereichen sind immer noch stark von Weltraumressourcen abhängig, und avionikbezogene Ausfälle können einen Großteil der Ausfallzeiten des Systems ausmachen. In diesem Zusammenhang hilft das Aufkommen von Weltraumsystemen, die nur auf Commercial-Off-The-Shelf (COTS) basieren (wie Cubesats), nicht unbedingt, da aus Kostengründen auf die strengen Test- und Qualitätssicherungsverfahren bei größeren Satelliten verzichtet wird unterschätzen, wie gnadenlos die Weltraumumgebung für die Elektronik sein kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-54422-9_10 2d8d9690cc8f6e75e6c254520d369235;de;;;6.1.;;;Application Service Provider-Technologie im Gesundheitswesen Mit der Weiterentwicklung der Medizintechnik und damit der Komplexität der von ihnen betreuten Geräte müssen Clinical Engineering Departments (CEDs) auch weiterhin computergestützte Werkzeuge zur Verwaltung der Abteilungsaktivitäten einsetzen. Forscher des ISPJAE haben auf Laborebene ein Modell des Anwendungsdienstanbieters entworfen, installiert und implementiert, um CEDs häufig Mehrwert-Management-Tools in einem Online-Format zu bieten. Dieses abgeschlossene Projekt, das dazu beitragen soll, die Anforderungen mehrerer Gesundheitsorganisationen zu erfüllen und einen Zugang für Organisationen zu schaffen, die sonst möglicherweise nicht in der Lage wären, die Vorteile dieser Instrumente zu nutzen oder ohne Weiteres daran teilzuhaben, wurde gut angenommen. Zehn (10) Krankenhäuser haben den Service angefordert und fünf (5) davon sind bereit, mit der Implementierung des ASP fortzufahren. Mit der vorgeschlagenen zentralisierten Systemarchitektur hat sich das Modell bei der Reduzierung der Arbeits- und Ausrüstungskosten für die Netzwerkinfrastruktur, beim Benchmarking der Leistungsindikatoren der Ausrüstung und der Entwicklung von Wegen für eine ordnungsgemäße und rechtzeitige Problemberichterstattung als vielversprechend erwiesen. Im Folgenden wird der Designprozess von der Konzeption bis zur Implementierung der fünf (5) Hauptsoftwaremodule und der unterstützenden Systemarchitektur detailliert beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-49009-0_11 aca71787a261bdb89a5a376e04983f42;de;;;6.1.;;;Studium der Software-as-a-Service-Supportplattform für kleine und mittlere Unternehmen Software as a Service (SaaS) bietet Anbietern von Softwareanwendungen ein webbasiertes Bereitstellungsmodell, um eine große Anzahl von Kunden mit einer mandantenfähigen Infrastruktur und einer Architektur für die gemeinsame Nutzung von Anwendungen zu bedienen, um große Vorteile durch Skaleneffekte zu erzielen. In diesem Papier beschreiben wir die Entwicklung des auf kleine und mittlere Unternehmen (KMU) ausgerichteten SaaS-Ökosystems und seine wichtigsten Herausforderungen. Ein besonderes Problem, auf das wir uns konzentrieren, ist die Nutzung einer massiven Mandantenfähigkeit, um die Kosteneffizienz, die durch eine hohe gemeinsame Effizienz erreicht wird, und die daraus resultierenden Probleme bei der Isolierung von Sicherheit, Leistung und Verfügbarkeit unter den Mietern auszugleichen. Auf dieser Grundlage untersuchen wir weiter die Konzepte, das Kompetenzmodell und das Enablement-Framework der Anpassung und Konfiguration im SaaS-Kontext, um die Anforderungen der Mieter so gut wie möglich zu erfüllen. Wir untersuchen auch die Themen zum Service-Lebenszyklus und zum Abonnement-Management-Design von SaaS.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19294-4_1 7e42291f54aee089ef94cb2a9bc663c3;de;;;6.1.;;;Attributbasierte Verschlüsselung mit elliptischen Kurven für die Sicherheit in der Sensor Cloud Sicherheit ist eine der großen Herausforderungen im Bereich Sensor Cloud. Es besteht ein Bedarf, Sicherheit über Sensor-Cloud mit einer Technik zu implementieren, die einen fein abgestuften Zugriff in virtualisierten drahtlosen Sensornetzwerken beinhaltet. Das bestehende Sicherheitsmodell zur Sicherung der Datenübertragung und der gespeicherten Daten in der Sensor-Cloud-Umgebung verwendet verschiedene Verschlüsselungstechniken, aber seine Effektivität, Effizienz und Leistung können weiter gesteigert werden. Frühere Ansätze stellten einen fein abgestuften Zugriff bereit, wie z. B. Ciphertext-Policy Attribute-Based Encryption (CP-ABE), die einige komplexe Berechnungen beinhaltet. In diesem Papier haben wir ein Sicherheitsmodell basierend auf Elliptic Curve Encryption (ECC) und Attributen vorgeschlagen, um die Gesamtsicherheit der Sensordaten zu gewährleisten, die Vertraulichkeit und Integrität garantiert. Es bietet auch eine feinkörnige Zugangskontrolle. Der vorgeschlagene Ansatz reduziert den gesamten Rechenaufwand im Vergleich zu anderen bestehenden Ansätzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0694-9_42 8cb6523c710ee821c957d5a341c0402b;de;;;6.1.;;;Analyse von Open Source Software in der Unternehmensinformatisierung Die Unternehmensinformatisierung umfasst drei Phasen der Informationsinselmodellierung, der Intranetmodellierung und der integrierten Unternehmensmodellierung. Das traditionelle Argument des Marktversagens legt nahe, dass Innovation durch hohe Investitionen und niedrige Kopierkosten gekennzeichnet ist und Unternehmen Schwierigkeiten haben, die Früchte ihrer Innovationsbemühungen zu internalisieren. Daher suchen Technologieunternehmen nach mehr Patenten, erweitern ihren Anwendungsbereich und überarbeiten ihre Geschäftsmodelle rund um geistiges Eigentum. Paradoxerweise spielt Open-Source-Software (OSS) mit dem Fortschritt und der Entwicklung der Informationstechnologie jedoch eine wichtige Rolle bei der Ausweitung der Unternehmensinformatisierung. Linux wird beispielsweise auf diesem offenen Weg schnell entwickelt. Einige Firmen haben Wege gefunden, Geld zu verdienen, indem sie ihren Innovationsschatz öffnen und mit anderen teilen. Der Aufstieg von Open-Source-Software ist ein Beispiel dafür.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75902-9_75 b4f1e018877ae194b2bbc8529a6155d7;de;;;6.1.;;;Der Aufbau einer Online-Video-Ressourcenbibliothek mit Streaming-Medien Mit dem Charakter des „Abspielens beim Herunterladen“ wird die Streaming-Media-Technologie zur wichtigsten Transporttechnologie von Online-Multimedia-Informationen, insbesondere Video-Informationen. Die Anwendung der Streaming-Media-Technologie in der Datenverarbeitung verändert den Ressourcenmodus in der Online-Lehre.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27708-5_97 7d1229ca9dad2916cdf747e28206afd6;de;;;6.1.;;;Logische Datenunabhängigkeit überdacht (erweiterte Zusammenfassung) Die logische Datenunabhängigkeit ist von zentraler Bedeutung für eine Reihe von Problemen der Datenbankforschung, einschließlich Datenintegration und Stichwortsuche. In diesem Beitrag wird ein Datenmodell untersucht, das mehrere der am weitesten verbreiteten Datenmodelle vereint. Der Schlüssel besteht darin, Metadaten von bestimmten Rollen zu trennen. Eine kontextbasierte (oder semantisch basierte) Abfragesprache auf hoher Ebene wird eingeführt und Anwendungen auf die oben genannten Forschungsbereiche werden kurz demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/11425274_70 408a4090fdf7658774ba407315752499;de;;;6.1.;;;Schutz der Privatsphäre basierend auf Schlüsselattribut und Strukturverallgemeinerung des sozialen Netzwerks für die Veröffentlichung medizinischer Daten Der Schutz der Privatsphäre im Gesundheitswesen veröffentlichter Daten ist die Forschung, um das Problem der Offenlegung sensibler Daten im Gesundheitswesen zu verhindern. Der Health Insurance Portability and Accountability Act (HIPPA) in den USA ist die aktuelle Praxisregelung zum Datenschutz. Kürzlich kam jedoch der Ausschuss für Gesundheitsforschung und den Datenschutz von Gesundheitsinformationen des Institute of Medicine zu dem Schluss, dass HIPPA die Privatsphäre nicht angemessen schützen und es Forschern ermöglichen kann, sie gleichzeitig für Entdeckungen effektiv zu nutzen. Die auf Clustering basierende Datenschutzmethode ist der Prozess der Entwicklung von Methoden und Algorithmen, um sicherzustellen, dass die veröffentlichten Daten nützlich und geschützt bleiben. In diesem Papier haben wir einen Algorithmus basierend auf Greedy Clustering entwickelt, um die Datenpunkte nach den Attributen und den Verbindungsinformationen der Knoten im veröffentlichten sozialen Netzwerk zu gruppieren. Während des Clustering-Verfahrens behandelten wir den Informationsverlust und bewerteten den vorgeschlagenen Ansatz in Bezug auf Klassifikationsgenauigkeit und Informationsverlustraten an realen medizinischen Datensätzen. Die experimentellen Ergebnisse in unserem vorgeschlagenen Ansatz zeigen, dass der Datenschutz mit weniger Informationsverlust geschützt werden kann. Abschließend zeigen wir einen Visualisierungsprozess für das Clustering.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-26763-6_38 bc0ee16c98341112a0add90b82de3cd7;de;;;6.1.;;;Das Nationale Methadon-Erhaltungsbehandlungsprogramm Der Drogenkonsum tauchte in China wieder auf, nachdem 1978 der durch die Politik der „Öffnung und Reform“ eingeleitete umfassende wirtschaftliche Wandel eingeleitet wurde, und das risikoreiche Verhalten von Drogenkonsumenten war der Hauptgrund für Chinas frühe HIV-Epidemie. Um sowohl den wachsenden Drogenkonsum als auch die HIV-Epidemien zu bekämpfen, wurde Chinas National Methadon Maintenance Treatment (MMT)-Programm im Jahr 2004 in einem Pilotprojekt eingeführt und ab 2006 ausgeweitet. Bis Ende 2015 umfasste das Programm 785 Kliniken mit umfassendem Service, 29 mobile Transporter, und 325 Satellitenstandorte im ganzen Land, die MMT-Dienste für mehr als 170.000 Stammkunden, die ehemalige Heroin-Injektoren waren, anbieten. Chinas Nationales MMT-Programm war das größte Opioid-Substitutionstherapieprogramm der Welt. Dieses wichtige Programm zur Schadensminderung hat den illegalen Drogenkonsum, die HIV-Inzidenz, die Sterblichkeit und die Kriminalität erfolgreich reduziert und die Lebensqualität verbessert. Es bleiben jedoch noch eine Vielzahl von Herausforderungen und Lücken, und es sind weitere Anstrengungen zur Stärkung dieses Programms erforderlich, damit HIV in dieser wichtigen Schlüsselgruppe eliminiert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-8518-6_9 e527f0542a32fc2ff4c4f8576d7b991e;de;;;6.1.;;;Sicherung der Wettbewerbsfähigkeit neuer Kernkraftwerke in einem deregulierten US-Markt Die Deregulierung der US-amerikanischen Stromindustrie wird sich dramatisch auf die Art und Weise auswirken, wie zukünftige Anlagenkäufer Technologien bewerten, die für den Ausbau neuer Erzeugungskapazitäten verfügbar sind. Im Vergleich zu den regulierten Versorgern der Vergangenheit werden künftige Anlagenkäufer eher abgeneigt sein, in kapitalintensive Technologien zu investieren. Darüber hinaus prognostizieren neue Kostenprognosen für die Stromerzeugung aus Technologien, die auf anderen Brennstoffquellen als der Kernenergie basieren, erhebliche Kostensenkungen in den nächsten zwanzig Jahren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4679-5_6 d1e9512985af15d3273affcbeca4bc9a;de;;;6.1.;;;Eine Studie zu verschiedenen Techniken im ALPR-System: Die Systemleistungsanalyse Kennzeichenerkennung und -lokalisierung sind bei den meisten Transportanwendungen entscheidende Schritte. Zum Beispiel Verfolgung von gestohlenen Fahrzeugen, Geschwindigkeits- oder Flughafen-Gate-Überwachung, Straßenverkehrsüberwachung und Parkplatzkontrolle. Dazu ist ein System erforderlich, das automatisch den Charakter des Nummernschilds aus dem aufgenommenen Bild extrahiert und erkennt. Das System der automatischen Nummernschilderkennung (ALPR) hat in der Forschungsgemeinschaft großes Interesse geweckt, da in bestimmten Regionen, Städten oder Ländern bestimmte Einschränkungen und Unähnlichkeiten zwischen verschiedenen Nummernschildern bestehen. Das ALPR-System umfasst drei wichtige Komponenten: Der erste Schritt ist die Nummernschildlokalisierung, der zweite Schritt die Zeichensegmentierung und der dritte Schritt die Zeichenerkennung. Dieses Papier soll einen umfassenden Überblick über die Lokalisierungs- und Erkennungstechniken des Nummernschilderkennungssystems geben und bestehende effektive Lösungen vergleichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4597-3_56 6a358e928d400405dbcc26506fed22f8;de;;;6.1.;;;Rückkehr des WISMUT-Erbes zur produktiven Nutzung Das vorrangige Ziel des Wismut-Umweltsanierungsprojektes (ER) ergibt sich aus der gesetzlichen Vorgabe, Gesundheitsrisiken zu mindern, bestehende Umweltschäden zu mindern und zukünftigen Gefahren vorzubeugen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-28367-6_2 ed86c0086d8726968cd4b321c5dde8d4;de;;;6.1.;;;Datenbank und Managementsystem für klinische Studien zur Positronen-Emissions-Tomographie (PET) Für die klinische Positronen-Emissions-Tomographie (PET) wurde eine Datenbank und ein Verwaltungssystem entwickelt und verwendet, das mit einem Bildanalysesystem verbunden ist. Dieses Datenbanksystem, 1) basiert auf „GBASE“, einer Universaldatenbank, die auf einer UNIX-Workstation läuft, 2) arbeitet auf einem Netzwerk-Dateisystem und ist mit PET-Kameras und anderen Datenerfassungsgeräten verbunden sowie zu einem Bildanalysesystem „Dr.View“, 3) verwaltet zentral die in einer Datenspeichereinheit gespeicherten Daten, 4) ist leicht änderbar und erweiterbar und 5) verfügt über eine benutzerfreundliche Oberfläche, die einen minimalen Arbeitsaufwand für Registrierung, Abruf und Verwaltung erfordert . Wir verwenden dieses System seit sieben Jahren zur Verarbeitung klinischer PET-Daten und haben das Datenbankschema optimiert. Dadurch ist dieses System zu einem wirklich praktischen Werkzeug für den täglichen Betrieb geworden und wird von Technologen, Nuklearmedizinern und behandelnden Ärzten gut angenommen.;-;-;-;https://link.springer.com/article/10.1007/BF03164840 3c7f9894f77c71d21a9fc1e3e1e6a5ea;de;;;6.1.;;;Unterstützung von Abfragen über die dynamische Kombination von Datenquellen für Social Media Metasuche und Social Media werden in unserer Arbeit kombiniert, um eine Plattform zum Austausch medienübergreifender Daten aufzubauen. Die Daten werden mit einer Metasuchmaschine aus dem Web nach Bedarf extrahiert, da genauere und vollständigere Abrufergebnisse als mit einer einzelnen SE bereitgestellt werden können. Der Schlüssel zur Beeinflussung der Leistung der Datenextraktion ist der Zeitplan der Datenquellen, um Daten effizient bereitzustellen. Ein einheitliches Modell zur Beschreibung von Datenquellen wird vorgeschlagen, mit diesem Modell werden eine Methode zur Konstruktion eines Abfrageplangraphen und ein Algorithmus zum Ermitteln des optimalen Abfrageplans vorgeschlagen. Ein dynamischer und adaptiver Anpassungsansatz für die Ausführung von Abfrageplänen wird beschrieben, um unerwartete Fehler bei der Datenquellenverbindung oder Datenextraktion zu behandeln. Die Details des Wrapper-Managers, der Datenquellen kapselt, werden am Ende des Papiers erläutert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28635-3_18 2363d0f3df479edbf75434b281bf8beb;de;;;6.1.;;;Datenschutzbewusste Zugriffskontrolle in sozialen Netzwerken: Probleme und Lösungen Die Zugriffskontrolle in sozialen Online-Netzwerken (OSNs) wird aufgrund der von sozialen Netzwerken verwalteten Datenmenge und ihrer Sensibilität zu einem dringenden Bedarf. Die Durchführung der Zugangskontrolle in einem sozialen Netzwerk weist viele Unterschiede in Bezug auf die Durchführung der Zugangskontrolle in einem herkömmlichen Datenverwaltungssystem auf, sowohl in Bezug auf die zu unterstützende Richtliniensprache als auch die Referenzarchitektur für die Durchsetzung der Zugangskontrolle. Darüber hinaus ist es von grundlegender Bedeutung, auch Datenschutzfragen im Zusammenhang mit der Zugangskontrolle zu berücksichtigen und geeignete and;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84996-238-4_9 cf7a56dc448859732aa91d5fa28579b3;de;;;6.1.;;;Bewertung der geschlechtsspezifischen Unterschiede in der Selbstregulierungswirksamkeit von Computerfachleuten in Bezug auf Datenschutzpraktiken Bedenken hinsichtlich der unsachgemäßen Erfassung und Verwendung personenbezogener Daten durch Unternehmen oder Regierungen wurden als entscheidend für den Erfolg des aufkommenden elektronischen Geschäftsverkehrs angesehen. In dieser Hinsicht haben Computerfachleute die Aufsichtsverantwortung für den Datenschutz, da sie über die umfassendsten Kenntnisse der Systeme und Programme ihrer Organisation sowie über ein genaues Verständnis der Daten verfügen. Daher ist die Kompetenz dieser Fachleute bei der Gewährleistung einer soliden Praxis des Datenschutzes sowohl für Forscher als auch für Praktiker von großer Bedeutung. Diese Studie befasst sich mit der Frage, ob sich männliche Computerfachleute von ihren weiblichen Kollegen in ihrer selbstregulierenden Wirksamkeit zum Schutz der Privatsphäre unterscheiden. Insgesamt 103 männliche und 65 weibliche Probanden, die in Taiwan befragt wurden, beantworteten einen 10-Punkte-Fragebogen, der drei Maßnahmen umfasst:;-;-;-;https://link.springer.com/article/10.1007/s10551-006-9179-1 dad30630811cffeccb394c61d56843e3;de;;;6.1.;;;TALE – Ein zeitlich aktives Sprach- und Ausführungsmodell Komplexe Anwendungen in Domänen wie Entscheidungsunterstützungssystemen und Echtzeitsystemen erfordern eine Funktionalität, die durch die Kombination der aktiven und zeitlichen Datenbanktechnologien erreicht wird. In diesem Papier stellen wir TALE vor, ein Temporal Active Language and Execution Modell. TALE ist eine zeitlich aktive Datenbankprogrammiersprache, kombiniert mit einem Ausführungsmodell, das eine korrekte und effiziente Verarbeitung von Operationen ermöglicht. Als solches ist TALE ein Schritt, um den Herausforderungen der Softwareentwicklung in modernen Informationssystemen gerecht zu werden. TALE-Primitive werden anhand von Beispielen und einer EBNF vorgestellt. Der Laufzeitsteuerungsmechanismus des Modells wird vorgestellt und TALE-Eigenschaften, nämlich aktive und zeitliche Fähigkeiten, sowie reflexive Programmierfähigkeiten werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-61292-0_4 c108f8ec62e7eb86f278020dea9b4cef;de;;;6.1.;;;Datendokumentationssysteme Eine große und zunehmende Datenmenge, die bei der Kleintierbildgebung anfällt, muss gehandhabt werden. Außerdem ist es oft wünschenswert, dass diese Daten für einen späteren Abruf und eine erneute Untersuchung sicher gespeichert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12945-2_28 9406105abf13636b07e76b8056b1287c;de;;;6.1.;;;TPCx-BB (Big Bench) in einer Single-Node-Umgebung Big Data konzentriert sich tendenziell auf das Datenvolumen und die Vielfalt, was große Clusterkapazitäten erfordert, um vielfältige und heterogene Daten zu verarbeiten. Derzeit sind NoSQL/Hadoop-basierte Cluster-Frameworks dafür bekannt, dass sie diese Form von Daten durch Skalierung über Knoten hinweg und verteilte Abfrageverarbeitung hervorragend verarbeiten. Bei bestimmten Datengrößen können jedoch auch relationale Datenbanken diese Workloads unterstützen. In diesem Whitepaper unterstützen wir diese Behauptung über eine beliebte relationale Datenbank-Engine, Microsoft* SQL Server* 2019 (Pre-Release-Kandidat) unter Verwendung eines Big-Data-Benchmarks, BigBench. Unsere Arbeit in diesem Papier ist die branchenweit erste Fallstudie, die BigBench auf einer von Intel unterstützten Single-Node-Umgebung ausführt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-55024-0_5 ec7462aa47e3055ade6b05c064051633;de;;;6.1.;;;Verarbeitung groß angelegter, hochdimensionaler genetischer und Genexpressionsdaten Die inzwischen routinemäßige Generierung von groß angelegten Hochdurchsatzdaten in mehreren Dimensionen (Genotyp, Genexpression usw.) stellt Forscher, die Daten über diese Dimensionen hinweg integrieren möchten, in der Hoffnung, ein umfassenderes Bild komplexer Systemverhalten. Diese Art der Integration verspricht, Netzwerke aufzuklären, die Krankheitsmerkmale beeinflussen, die mit häufigen menschlichen Krankheiten wie Fettleibigkeit, Diabetes und Arteriosklerose verbunden sind. Die effektive Durchführung dieser Art von Forschung erfordert jedoch nicht nur die Generierung großmaßstäblicher Genotyp- und molekularer Profilierungsdaten, sondern auch die Entwicklung und Anwendung von Methoden und Software sowie eine Computerinfrastruktur, die in der Lage ist, die großmaßstäblichen Datensätze zu verarbeiten . Die Beherrschung der Methoden und Werkzeuge sowie der Zugang zu einer geeigneten Computerumgebung, die in der Lage ist, große Datenmengen zu verarbeiten, wird entscheidend sein, um einen Wettbewerbsvorteil zu erhalten, da zukünftige Erfolge in der biomedizinischen Forschung wahrscheinlich einen umfassenderen Blick auf die komplexen Wechselwirkungen in biologische Systeme und wie solche Interaktionen durch genetischen Hintergrund, Infektionen, Umweltzustände, Lebensstilentscheidungen und soziale Strukturen im Allgemeinen beeinflusst werden. In diesem Kapitel werden die methodischen und rechnerischen Probleme im Zusammenhang mit der Durchführung groß angelegter genomweiter Assoziationsstudien an Zehntausenden von Phänotypen beschrieben, bei denen es darum geht, diejenigen Phänotypen zu identifizieren, die zwischen DNA-Variationen und Krankheitsphänotypen liegen. Diese Art der Analyse kann Einblicke in die molekularen Netzwerke liefern, die durch DNA- und Umweltvariationen gestört werden, und als Ergebnis Veränderungen in krankheitsassoziierten Merkmalen herbeiführen, was einen Weg zur Interpretation genomweiter Assoziationsstudiendaten sowie zur Aufdeckung von Netzwerken bietet, die Krankheitsprozesse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69264-5_11 d5efe63c7e888573e1d9171a036bb42e;de;;;6.1.;;;Schnelle Zersetzung von Siliziumnitrid für die Herstellung von keramischen Nanopulvern Die schnelle Zersetzung von Siliziumnitrid bei hohen Temperaturen wurde erfolgreich verwendet, um keramische Nanopulver in den Si-C-N- und Si-O-N-Systemen herzustellen. Für die Pulververarbeitung wurde die sogenannte selbstpropagierende Hochtemperatursynthese (SHS) realisiert und untersucht. Die gut gemischten pulverförmigen Reaktanten wurden in einen porösen Behälter gegeben, dann wurde die Reaktion lokal gezündet und die Verbrennung wurde in einem selbsterhaltenden Regime fortgeführt, wobei Temperaturen von über 2000°C erreicht wurden. In all diesen Experimenten breitete sich die Verbrennung unter Bildung des transienten Si . aus;-;-;-;https://link.springer.com/article/10.1007/s10720-005-0070-4 fa2c5f0cd027d9e4c23679e20ff5d698;de;;;6.1.;;;Geschichte der Entscheidungsfindung Der Autor blickt auf über 40 Jahre Recherchen und Überprüfungen wichtiger polizeilicher Ermittlungen wie The Yorkshire Ripper Case zurück. Der Autor identifizierte 7 Themen, die sich durch 40 Jahre historischer Ermittlungen erstrecken, und zwar: Klarheit und Führung unter leitenden Beamten, Fähigkeiten von SIOs, Systematische Fehler, schrittweises Aussetzen von Ermittlungen, Die Rolle des Raums für schwerwiegende Vorfälle, Informationsmanagement, Fehler bei der individuellen Ermittlungsstrategie . Frühere Untersuchungen können dazu beitragen, aktuelle oder zukünftige Ermittlungsstrategien zu informieren, indem sie Best Practices bereitstellen und potenzielle Fallstricke aufzeigen. Die Rolle der MIR und Holmes seit dem Fall Yorkshire Ripper veranschaulicht die Fortschritte, die gemacht wurden, obwohl der Verdächtige im Fall der Morde an Harper, Maxwell und Hogg nicht im System war. Das Thema Führung zwischen Senior Management Teams und SIOs wurde in den recherchierten Anfragen diskutiert.;-;-;-;https://link.springer.com/chapter/10.1057/978-1-349-95847-4_2 2a52ad211b943f43cc100c8aa8871771;de;;;6.1.;;;Herdenmonitoring in der traditionellen Rinderhaltung als Instrument der Produktivitätsforschung und Nutztierentwicklung In der Westprovinz Sambias wurde eine Produktivitätsstudie in traditionell geführten Rinderherden durchgeführt. Der organisatorische Aufbau der Studie und die Verfahren zur Verwaltung der Daten werden beschrieben. Einige Nutzungsmöglichkeiten der Daten werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF02240816 e1527406a2d1cd662a757717b994ecf6;de;;;6.1.;;;Anwendung synthetischer Patientendaten bei der Bewertung von Protokollen zur schnellen Ausschlussdiagnostik mittels Point-of-Care-Tests während der Brustschmerzdiagnose in einer britischen Notaufnahme Klinische Forschung wird oft durch fehlende Daten und die Notwendigkeit einer ethischen Zulassung verzögert. Wir schlagen vor, dass dieser Bedarf zunächst durch synthetische Daten gedeckt werden könnte, die dieselben Merkmale wie die aus Patientenakten aufweisen. Die Generierung dieser Daten erfordert einige Domänenkenntnisse, um ein angemessenes Datenmanagement zu gewährleisten. Als Beispiel für dieses Konzept generieren wir Patienten mit undifferenzierten Brustschmerzen in der Notaufnahme (ED). Ihre Diagnose verwendet biochemische Marker, die auf eine Schädigung von Myokardzellen hinweisen. Eine effiziente Diagnose ist von größter Bedeutung, und es wurde eine Reihe verschiedener konkurrierender Protokolle befürwortet. Die Analyse der resultierenden Daten zeigt, dass, während die Messung von Herzmarkern möglicherweise nicht über einem Cut-Off-Wert liegt, die zeitdifferenzierten Ausschlussprotokolle wertvolle Indikatoren für die Krankheit sind. Wir demonstrieren daher sowohl das Konzept als auch den Wert der Verwendung synthetischer Daten, deren Erfassung Jahre gedauert hätte und die nicht reproduzierbar oder wiederholbar gewesen wären.;-;-;-;https://link.springer.com/article/10.1057/jos.2009.4 1ecaabdc46bdee9145fa44b4613c4e2f;de;;;6.1.;;;Hinzufügen von Steuerungsintegration zu PCTE Die PCTE-Schnittstellen stellen Datenintegrationsdienste bereit. In einem guten Software Engineering Environment (SEE) wird jedoch mehr benötigt: Steuerungsintegration, um Tools automatisch zu starten und Dienste zu teilen. Wir berichten über unsere zwischenzeitlichen praktischen Erfahrungen mit dem Hinzufügen von Steuerungsintegration zu PCTE. Genauer gesagt zeigen wir, wie Broadcast Message Services auf der PCTE-Plattform geschichtet werden können und so ein SEE-Framework bilden, das die Dimensionen der Tool-Integration umfasst.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-54194-2_26 d55855200b95a4f2dc9f4aa5b3c73567;de;;;6.1.;;;Ein Überblick über digitale K-12-Inhalte in Nordamerika Mit der Entwicklung und dem Wachstum von Online- und gemischten Umgebungen in ganz Nordamerika steigt der Bedarf an hochwertigen digitalen Inhalten. Dieses Kapitel bietet eine kurze Beschreibung des Bereichs K-12 Online und Blended Learning in den Vereinigten Staaten, gefolgt von einem Überblick über die Arten von digitalen Inhalten, die K-12 Schülern und Lehrern zur Verfügung stehen. Als Nächstes wird in diesem Kapitel erläutert, wie Inhalte entwickelt werden, sowie die Vor- und Nachteile der Erstellung eigener Inhalte gegenüber dem Kauf bei einem Verlag. Schließlich wird ein Überblick über Qualitätsstandards gegeben, die entwickelt wurden, um Schulen und Bezirke bei der Bewertung digitaler Inhalte zu unterstützen. Es werden Ressourcen für Schulen und Bezirke für die Entwicklung, den Kauf und die Bewertung digitaler Inhalte bereitgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-47956-8_7 1118c1411a6be48f7e6054ab6ee67c06;de;;;6.1.;;;Erweiterte Unternehmensintegration In diesem Papier wird der Wettbewerbsdruck erörtert, der große Unternehmen dazu zwingt, bei der Entwicklung, Herstellung und dem Support neuer Produkte und wichtiger Vermögenswerte immer enger zusammenzuarbeiten. Es erläutert die daraus resultierenden Geschäfts- und Integrationsprobleme und präsentiert eine potenzielle Lösung basierend auf dem Einsatz von Produktdatenmanagement-Technologie, unterstützt durch Unternehmensberatung und flexible kommerzielle Modelle, die Investitionskosten und -nutzen teilen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1026744905380 fd173c8448a4c7bcd3d3a64b1c3ed0c7;de;;;6.1.;;;Chemische und biologische Risiken im 21. Jahrhundert Fortschritte in Chemie, Biologie und verwandten Technologien haben viel zum Wohlergehen der menschlichen Gesellschaft beigetragen. Gleichzeitig haben sie jedoch den Einsatz von Giftgas auf dem Schlachtfeld im Ersten Weltkrieg, die Einrichtung chemischer und biologischer Waffenprogramme in einer Reihe von Ländern im 20 solche Waffen am Ende dieses Jahrhunderts. Gleichzeitig haben sich die Risiken der unbeabsichtigten Freisetzung gefährlicher chemischer und biologischer Arbeitsstoffe mit den Entwicklungen in Industrie und Handel weiterentwickelt, und die Risiken im Zusammenhang mit natürlichen Krankheitserregern und Giften werden durch das Bevölkerungswachstum und den zunehmenden Personen- und Güterverkehr verstärkt. Diese Risikolandschaft wird sich erneut ändern: Fortschritte in den Lebenswissenschaften und in den Basistechnologien führen zu einem technologischen Wandel, wie er zu Beginn des 19. Jahrhunderts die industrielle Herstellung von Chemikalien ermöglichte. Das aufkommende Wissenschafts-, Technologie- und Industrieumfeld wird sich stark von der Vergangenheit unterscheiden, mit globaler Verbreitung von Technologien und Fähigkeiten, einer Verlagerung von Materialien und Ausrüstung zu Informationen und künstlicher Intelligenz und sich verändernden Beziehungen zwischen Herstellern und Endnutzern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-28285-1_4 87f0aaa3ff88807652422a35bfa95bfd;de;;;6.1.;;;Die Rolle und Bedeutung von Vertrauen: Eine Studie über die Bedingungen, die den Austausch sensibler Informationen erzeugen und untergraben In diesem Artikel wird die Rolle von Vertrauen in einem bestimmten Bereich der Sicherheitsaktivität, dem Austausch vertraulicher Informationen, bewertet. Es beginnt mit der Untersuchung des Wesens von Vertrauen und geht dann weiter, um einerseits einige der Sicherheitsvorteile hervorzuheben, wenn Vertrauen offensichtlich ist, und andererseits die Risiken, die entstehen können, wenn Vertrauen fehl am Platz ist. Anschließend wird über die Ergebnisse einer empirischen Studie berichtet, indem erörtert wird, wie drei Schlüsselelemente: Prozessfragen, Personalfragen und Technologie, wenn sie gut gemacht werden, die Sicherheit des Informationsaustauschs verbessern können, tatsächlich zusätzliche Sicherheitsmöglichkeiten schaffen können, und wenn sie fertig sind kann es schlecht untergraben. Zusammenfassend stellt der Artikel fest, dass die Schaffung von Vertrauen von grundlegender Bedeutung für einen effektiven Austausch sensibler Informationen ist, dies jedoch eine echte Herausforderung darstellt, einschließlich der Entscheidung, wie viel Vertrauen angemessen ist.;-;-;-;https://link.springer.com/article/10.1057/sj.2015.13 2ef98a07bd5cc8fea5a46b8329fae9ca;de;;;6.1.;;;Falsche Erinnerungen und professionelle Kultur: Die australischen Streitkräfte, die Regierung und die Medien im Krieg in Afghanistan Eine der bemerkenswerteren Auswirkungen der Anschläge vom 11. September auf das Festland der Vereinigten Staaten war ihre scheinbar revolutionäre Wirkung auf die Beziehungen zwischen Militär und Medien in den USA und wie dies angeblich eine Liberalisierung der Informationsmanagementpolitik bei Militärs auf der ganzen Welt katalysierte. Dieses Kapitel wird erklären, warum die radikalen Veränderungen, die in den USA und weit darüber hinaus erfolgten, viel später und in stark verwässerter Form in Australien umgesetzt wurden und wie sie nur im Kontext der Geschichte des militärisch-medialen Engagements bis in die 1980er Jahre verstanden werden können und 1990er Jahre. Anschließend wird untersucht, wie das fortgesetzte Bekenntnis der australischen Streitkräfte zu restriktiven und straff verwalteten Beziehungen zwischen Militär und Medien auf einer hartnäckigen Treue zu falschen Erinnerungen an die Vietnam-Erfahrung beruhte und wie diese die australische Berichterstattung über den Krieg in Afghanistan beeinflussten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-56976-5_2 dc468bb6fc0ed6a2d77293f1ff9d9b53;de;;;6.1.;;;Großbritannien während des Auftakts des Kalten Krieges: Aufbau eines antikommunistischen Konsens Das Hauptmerkmal der britischen Außenpolitik der Nachkriegszeit, unabhängig davon, ob eine konservative oder eine Labour-Regierung an der Macht war, blieb immer gleich: Großbritanniens Rolle als Weltmacht zu behaupten. Großbritanniens lange Tradition des Nachrichten- und Informationsmanagements und das ausgeklügelte globale Mediensystem, das sie im Laufe der Zeit aufgebaut hatte, ermöglichten es ihr, die Initiative zur Beeinflussung globaler Entwicklungen zu behalten.;-;-;-;https://link.springer.com/chapter/10.1057/978-1-137-55155-9_2 42db06f234b96bd293b45f64c54f98bd;de;;;6.1.;;;Unesco-Richtlinie zum Datenaustausch: Schwere Unterschiede beim Zugang zu wissenschaftlichen Daten Aktuelle Veränderungen im Zusammenhang mit der elektronischen Revolution und der Informationsrevolution lassen den Einzug einer „Wissensgesellschaft“ im 21. Jahrhundert erahnen. Neue Technologien sollten die üblichen Barrieren, die den Informationsaustausch zwischen Ländern verhindern, rasch beseitigen. Derzeit erleben jedoch einige Länder gravierende Verzögerungen und sind tatsächlich eine neue Klasse von „Informationsbedürftigen“. Die UNESCO will regionale Informationsunterschiede schrittweise beseitigen, indem sie in drei Richtungen handelt: Entwicklung eines internationalen physischen Übertragungsnetzes, Übertragung von Daten von Land zu Land und damit eine Politik, die auf echte Unterstützung abzielt. Aus diesen Gründen erwägt die UNESCO die Einrichtung eines „UNESCO-Wissenschaftskanals“ und fördert die Einrichtung einer „virtuellen globalen Bibliothek“ mit elektronischem Publizieren. In interdisziplinären Wissenschaften und globalen Projekten unterstützt die UNESCO viele Aktionen. Zu nennen sind unter anderem das MAB-Programm QAan and Biosphere) und sein GTOS-System (Global Terrestrial Observing System), das derzeit in Entwicklung befindliche Programm zu Biodiversität und Biosphärenreservaten, sowie das Internationale Hydrologische Programm zur Erforschung des Klimas. Globale Ökosysteme werden von der IOC (International Oceanographic Commission) angegangen, an der 123 Mitgliedstaaten beteiligt sind. Unter anderen Anwendungssystemen können wir das IODE (International Oceanographic Data and Information Exchange System) erwähnen, das dreizehn verantwortliche Zentren umfasst, die Daten verwalten und Weltdatenzentren unterstützen. Ziel der UNESCO ist es, Netzwerke von Spezialisten zu schaffen, um die Kommunikation und einen fairen Wissensaustausch weltweit zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-85248-0_18 aaffe789372289f3ef71e066366acf9b;de;;;6.1.;;;Adaptives Wassermanagement: Stärkung von Gesetzen und Institutionen zur Bewältigung von Unsicherheit Wir leben in einer komplexen Welt voller Unsicherheit. Dies gilt insbesondere für hydrologische Systeme und die unzähligen anderen Faktoren, die die Wasserwirtschaft beeinflussen. Die nichtlineare Natur des Wasserkreislaufs ist gut dokumentiert (Gleick, 1987, Lewin, 1992, Nonlinear Processes in Geophysics, 2006, Ruhl, 1997). Wie die Debatte um Klimawandel und Klimamodelle zeigt, kann es notorisch schwierig sein, Modelle zu entwickeln, die den Wasserkreislauf und die ihn beeinflussenden Faktoren genau widerspiegeln, selbst wenn die Phalanxen der weltweit führenden Wissenschaftler und Computermodellierer ihre Aufmerksamkeit auf die Aufgabe richten (IPCC, 2007a).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89346-2_4 c057f4c26ddceb093e706372ef17e07a;de;;;6.1.;;;Bewertung zum tragbaren Antennendesign Mit der raschen Popularisierung von Mobilfunknetzen der 5. Generation (5G) wurden tragbare Geräte auch in der militärischen Kommunikation, medizinischen Versorgung und Unterhaltung weit verbreitet. Nach der anfänglichen Entwicklung einer tragbaren Form werden mehr implantierbare und befestigte tragbare Geräte entwickelt. Die Fortschritte bei tragbaren Antennen haben einen wichtigen Einfluss auf die Entwicklung tragbarer Geräte. Dieser Beitrag diskutiert den wichtigen Leistungsindex und die Neuentwicklung der tragbaren Antenne, stellt die Forschungsergebnisse der tragbaren Antenne der letzten Jahre vor und analysiert den Entwicklungstrend der tragbaren Antenne.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8411-4_98 633c7191c3a8543d4d77f76ced134a65;de;;;6.1.;;;Nicht-technologische Aspekte in der Atlaskartographie basierend auf dem tschechischen Ansatz Der Beitrag konzentriert sich auf die nicht-technologischen Aspekte der Kartenerstellung in der Atlaskartographie, während die Auswertung hauptsächlich im Hinblick auf die traditionelle tschechische Kartographie durchgeführt wurde. Das Konzept der nicht-technologischen Aspekte wird dort vorgestellt: Es werden 14 Aspekte identifiziert (ökonomisch, ästhetisch, ethisch, geoinformatisch, historisch, konzeptionell, gesetzgeberisch, methodisch, organisatorisch, politisch, psychologisch, soziologisch, Benutzer und Visualisierung), die in drei Hauptaspekte unterteilt sind Gruppen – soziale Aspekte, berufliche Aspekte und Nutzeraspekte. Im Ergebnis der Fragebogenstudie wurde die Bedeutung dieser nicht-technologischen Aspekte nach Meinung der Nutzer, Schöpfer und Produzenten kartografischer Werke bewertet. Der Nutzen dieser Arbeit ist eine Reihe von Erkenntnissen, die die Einstellungen und Meinungen von Autoren und Produzenten kartografischer Werke beeinflussen können. Ein weiterer potenzieller Vorteil ist die Popularisierung der Forschungsmethoden, durch die verschiedene Aspekte der Kartenerstellung bewertet werden können und die gewonnenen Erkenntnisse dann möglich sind, den Prozess der kartografischen Produktion umzusetzen, um die Effizienz, Nützlichkeit und Klarheit der Werke für ihre Benutzer zu erhöhen .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07926-4_6 7e59f6384ee55f08a69fc62082bc429b;de;;;6.1.;;;Verwaltung des Cashflows und Kontrolle der Risiken von Finanzkontrakten In diesem Kapitel wird das Financial Contracting aus der Sicht des Unternehmens untersucht. Es wird davon ausgegangen, dass das Unternehmen als Prinzipal angesehen werden kann und versucht, das Verhalten seiner Anleger zu kontrollieren. Der Zweck dieses Kapitels besteht daher darin, einige übliche rechtliche Möglichkeiten für Unternehmen zu untersuchen, die Agenturkosten zu senken und das Risiko im Umgang mit Anlegern zu steuern. Es wird ferner angenommen, dass die charakteristischen finanzrechtlichen Rechtsprobleme eines Nicht-Finanzunternehmens eher auf die Verfügbarkeit und Kosten der Finanzierung und den Abgang von Investoren als auf die Wertentwicklung der eigenen Finanzanlagen zurückzuführen sind. Das Kapitel konzentriert sich auf die typischsten strategischen Fragen im Zusammenhang mit Finanzierung und Exit: der Finanzierungsmix, die Verfügbarkeit von Finanzierungen, die Hebelwirkung, die Beteiligungsstruktur und die Entscheidung, ob an der Börse oder privat gehandelt werden soll.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04349-9_10 e808efd8f5681cdde91d61058258e467;de;;;6.1.;;;Bestimmung geeigneter großer Objektspeicher mit einem Ansatz mit mehreren Kriterien Der Bereich der Speicherlösungen wird immer heterogener. Auch bei relationalen Datenbanken gibt es mehrere Angebote, die sich von Anbieter zu Anbieter unterscheiden und für unterschiedliche Deployments wie On-Premises oder in der Cloud, als Platform-as-a-Service (PaaS) oder als spezielles Virtual angeboten werden Maschine auf Infrastructure-as-a-Service (IaaS)-Ebene. Jenseits traditioneller relationaler Datenbanken hat die NoSQL-Idee viel Anziehungskraft gewonnen. Tatsächlich gibt es verschiedene Dienste und Produkte von mehreren Anbietern. Jede Speicherlösung hat in bestimmten Aspekten auch innerhalb derselben Produktkategorie ihre eigenen Tugenden. Einige Systeme werden beispielsweise als Cloud-Dienste angeboten und verfolgen ein Pay-as-you-go-Prinzip ohne Vorabinvestitionen oder Lizenzkosten. Andere können vor Ort installiert werden, wodurch eine höhere Privatsphäre und Sicherheit erreicht wird. Einige speichern redundant, um eine hohe Zuverlässigkeit zu höheren Kosten zu erreichen. Dieses Papier schlägt einen multikriteriellen Ansatz vor, um einen geeigneten Speicher für;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94809-6_7 b53cf17e3923cc47864f1a7708fb76fe;de;;;6.1.;;;Schnelle Einzelfertigung Um die Zykluszeit der Produktentwicklung zu verkürzen und gleichzeitig die Kosten zu senken, was für das Überleben dieser kleinen und mittleren Unternehmen der Einzelfertigung (SMOKP) sehr entscheidend ist, werden verschiedene Computerkommunikation, Simulation und Computer Aided Engineering- und Management-Techniken sind in diesen SMOKP-Unternehmen weit verbreitet. Laut unserer Studie sind die Anwendungen dieser fortschrittlichen Computertechnologien in diesen SMOKP-Unternehmen jedoch mangelnde Systemintegration und Synergie, was zu Kommunikationsfehlern, Nacharbeiten, Duplikaten und damit zu einer längeren Vorlaufzeit der Produktentwicklung und höheren Kosten führt. Um dieses Problem zu lösen, wird in diesem Beitrag ein Inter-/Intranet-basiertes computergestütztes System zur schnellen Produktentwicklung vorgestellt. Dieses System besteht aus einer Reihe von Inter-/Intranet-basierten Computermodellen oder Subsystemen zur Unterstützung der schnellen Entwicklung eines einzigartigen Produkts. Es verwendet auch eine neuartige parallele Produktentwicklungsstrategie namens „prototypbasierte inkrementelle Produktentwicklungsstrategie“ und eine integrierte Produktdatenstruktur namens „Produktproduktionsstruktur“. In dem Papier wird auch über einige industrielle Implementierungen des vorgeschlagenen Systems, der Produktentwicklungsstrategie und der Produktdatenstruktur berichtet.;-;-;-;https://link.springer.com/article/10.1007/s00170-005-2534-z c00f3005e47061ac3cc79531e776db8d;de;;;6.1.;;;Roadmap für Technologierichtlinien: Big Data-Datenschutz Big Data wird immer reifer und gehört in fast allen Branchen zum Geschäftsalltag. Dies ist auf die wertvollen Erkenntnisse und Analysen zurückzuführen, die Big Data Unternehmen bieten kann. Der erweiterte Einsatz von Big Data ist jedoch nicht ohne Risiken. Ein großes Risiko dieser Art ist die Verletzung der Privatsphäre und der Sicherheit von Personen und deren Daten. In diesem Kapitel wird untersucht, wie die Datenschutzbedenken angegangen werden können, die die Allgegenwärtigkeit der Datenerfassung, -analyse und -speicherung in Bezug auf die Fähigkeit von Einzelpersonen zur Kontrolle ihrer Daten mit sich bringt. Um diese Analyse durchzuführen, nutzten die Autoren eine Technology Roadmapping (TRM)-Analyse in Kombination mit Quality Function Deployment (QFD), um die datenschutzrelevanten Faktoren zu bewerten. Der Fokus lag auf den gesellschaftlichen Problemen, Technologien, Ressourcen und Branchen, die für dieses Thema am relevantesten sind. Die Ergebnisse zeigten, dass die Gesundheitsbranche aufgrund der Art der durch medizinische Prozesse und Technologien erzeugten Daten in Bezug auf den Datenschutz eine der kritischsten Branchen ist. Darüber hinaus stellte das Papier fest, dass Durchsetzungsmechanismen, insbesondere in Form von Bundesvollzugsbehörden, die wirksamsten Ansätze sind, um die Einhaltung durch die Akteure sicherzustellen. Es wird auch erkannt, dass mildernde politische Umstände und erhöhte Kosten die Umsetzung dieser Richtlinien in den Vereinigten Staaten erschweren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-50502-8_2 1a661f90821749f544c8ff32481a6105;de;;;6.1.;;;Verwendung von Objektspeichertechnologie im Vergleich zu herstellerneutralen Archiven für eine Bilddaten-Repository-Infrastruktur Die Absicht dieses Projekts bestand darin, den Objektspeicher und seine Datenbank zu verwenden, die in der Lage ist, einem im System gespeicherten Bildgebungsobjekt benutzerdefinierte erweiterbare Metadaten hinzuzufügen, die Leistungsfähigkeit seiner Suchfunktionen zu nutzen und die Technologielücke zu schließen, die das Gesundheitswesen Gesichter. Dadurch entsteht ein unterbrechungsfreies Tool, das sowohl von Altsystemen als auch den heutigen Gesundheitssystemen, die fortschrittlichere Speichertechnologien nutzen, nativ verwendet werden kann. Die Basisinfrastruktur kann neben aktuellen Arbeitsabläufen ohne Unterbrechung der Leistungserbringung bestückt werden. In bestimmten Anwendungsfällen kann diese Technologie als echte Alternative zu den heute im Gesundheitswesen eingesetzten VNA-Systemen (Vendor Neutral Archive) angesehen werden. Die Skalierbarkeit, Sicherheit und die Fähigkeit, komplexe Objekte zu verarbeiten, machen dies zu mehr als nur zur Speicherung von Bilddaten und zu einem Gut für PACS (Picture Archiving and Communication System) und Workstations. Object Storage ist eine intelligente Technologie, die genutzt werden kann, um Herstellerunabhängigkeit, die Einhaltung von Standards und ein Daten-Repository zu schaffen, das nach wirklich relevanten Inhalten durch Hinzufügen von zusätzlichem Kontext zu den Suchfunktionen durchsucht werden kann. Diese Funktionalität kann zu effizienteren Arbeitsabläufen und einer Fülle von gewinnbaren Daten führen, um die Ergebnisse in der Zukunft zu verbessern.;-;-;-;https://link.springer.com/article/10.1007/s10278-016-9867-z fdc244353a5d3659dfa5d217ee90b6d4;de;;;6.1.;;;Priorisieren und Bereitstellen von Aktivitäten zur Verbesserung der Datenqualität Datenqualität ist ein Thema, das in Kundenmanagementkreisen derzeit viel Aufmerksamkeit auf sich zieht. Eine Reihe von erheblichen Projektfehlern im Customer Relationship Management (CRM) wurde auf Schwächen in der Datenqualität zurückgeführt. Branchenkommentatoren greifen diesen Trend auf: Gartner vertrat kürzlich die Ansicht, dass etwa 25 Prozent der Daten in Großkonzernen ungenau seien und dies wohl noch einige Zeit so bleiben werde. Dass die Datenqualität ein Problem ist, steht außer Frage. Dieses Papier versucht, einen Schritt zurückzutreten und den Kontext zu überprüfen, in dem Datenqualität existiert, und diesen Kontext zu verwenden, um eine Anleitung zu geben, wie Verbesserungsaktivitäten priorisiert und dann umgesetzt werden könnten.;-;-;-;https://link.springer.com/article/10.1057/palgrave.dbm.3240248 136f753040857f94404e391eb5b990d9;de;;;6.1.;;;Auswertung der ERA-zwischenzeitlichen monatlichen Temperaturdaten über dem tibetischen Plateau In dieser Studie werden die Oberflächenlufttemperaturen von 75 meteorologischen Stationen über 3000 m auf dem tibetischen Plateau für die Evaluierung des European Center for Medium-Range Weather Forecasts (ECMWF) der dritten Generation des Reanalyseprodukts ERA-Interim im Zeitraum 1979–2010 verwendet . Hohe Korrelationen von 0,973 bis 0,999 deuten darauf hin, dass ERA-Interim den Jahreszyklus sehr gut erfassen könnte. Ein durchschnittlicher quadratischer Fehler (;-;-;-;https://link.springer.com/article/10.1007/s11629-014-3013-5 762d11e0758efbc8924a0c2c54a60696;de;;;6.1.;;;Computergestütztes Prozessplanungssystem basierend auf Workflow-Technologie und integriertem Stücklistenbaum Es ist extrem wichtig für das Verfahren des Prozessdesigns und die Verwaltung von Prozessdaten für den Produktlebenszyklus im Computer Aided Process Planning (CAPP)-System, aber es gibt in dieser Hinsicht viele Mängel beim traditionellen CAPP-System. Um diese Fragen zu lösen, wird die Anwendung der Workflow-Technologie im CAP-System auf der Grundlage eines webintegrierten Stücklistenbaums (BOM) diskutiert und ein Konzept eines integrierten Stücklistenbaums vorgestellt. Ausgehend von der integrierten Stückliste als Faden wird der systematische technologische Prozess von CAP analysiert. Die Funktion, die Systemarchitektur und der Implementierungsmechanismus des CAP-Systems basierend auf dem Browser/Server- und dem Kunden/Server-Modell werden erweitert. Darauf aufbauend wurden die Schlüsseltechnologien von Workflow-Management-Geräten analysiert. Schließlich wurde der Implementierungsmechanismus des integrierten Stücklistenbaums unter den Gesichtspunkten der Materialinformationscodierung, des Organisationsknotendesigns des integrierten Stücklistenbaums, der Transformation von der Konstruktionsstückliste (EBOM) in die Prozessstückliste (PBOM) und der Programmierimplementierungstechnologie analysiert.;-;-;-;https://link.springer.com/article/10.1007/s11465-006-0039-6 84ca3d4cdf8a819e7b731ff9e5df0ab2;de;;;6.1.;;;Analyse des Betriebs der Cloud-Lieferkette: Akzeptanzbarrieren und Geschäftsmodell Obwohl On-Demand-Cloud-Dienste als kostensparende Lösung für kleine und mittlere Unternehmen gelten, bleiben Datensicherheit und Cloud-Interoperabilität die größten Hindernisse für die Einführung von Cloud-Diensten. Darüber hinaus kann der Betrieb einer Cloud-Lieferkette, die aus einem unabhängigen Softwareanbieter (ISV) und einem Software-as-a-Service-Anbieter besteht, ohne eine automatische zentralisierte Plattform zur Bündelung und Bereitstellung der Anwendungen von ISVs an Abonnenten ineffizient sein. Tatsächlich können diese Bedenken ausgeräumt werden, wenn alle Anwendungen denselben Verfahren folgen, um zusammenzuarbeiten. Daher untersucht diese Studie den Betrieb einer Cloud-Lieferkette, in der ein Vermittler einen Verpackungsservice anbietet. Der Service hilft ISVs, ihre Anwendungen nach einem bestimmten Industriestandard zu verpacken. Dadurch können Kosten und Zeitaufwand für die Bereitstellung und Aktualisierung von Anwendungen reduziert werden. Durch die Untersuchung der Kanalauswahl eines ISV und des Preisangebots eines Vermittlers hilft unser Ansatz dabei, die Bedingungen zu ermitteln, unter denen der Verkaufskanal für den ISV rentabler ist. Darüber hinaus wird die Bedeutung von Dual Channel hervorgehoben, wenn der Vermittler Cloud-Partner des ISV wird. Die Einführung von Dual Channel führt jedoch nicht zu den höchsten Gewinnen, wenn die Qualität des Softwareprodukts ungenügend ist. Wir stellen auch fest, dass der Vermittler die Servicegebühr senken muss, wenn es viele Hindernisse für die Cloud-Einführung gibt, selbst wenn die Bedeutung des Paketierungsdienstes mit den Einführungskosten zunimmt. Schließlich stellen wir fest, dass die vom ISV ​​durchgeführte Forschung und Entwicklung zum Abbau von Akzeptanzbarrieren den Gewinn des Vermittlers erhöhen oder schädigen kann, der von den Vorteilen abhängt, die er aus seinem Verpackungsservice erzielt.;-;-;-;https://link.springer.com/article/10.1007/s10660-016-9238-3 375da4c16e9aff34343146e7009eb931;de;;;6.1.;;;Geburt einer Disziplin: Personalisierte und Präzisionsmedizin (PPM) Informatik Dieses einführende Kapitel bietet einen Überblick über das Gebiet von PPM, einschließlich grundlegender Konzepte von PPM sowie etablierter und neu entstehender Frameworks von PPM. Durch die Annahme einer paradigmenbasierten Beschreibung umfasst das Buch scheinbar unterschiedliche, aber letztendlich stark miteinander verbundene Formate von Arbeitsabläufen sowohl für die Entwicklung als auch für den Einsatz von PPM-Modalitäten in der Forschung und im klinischen Umfeld. Das Kapitel beschreibt die kritischen Wege, mit denen die Informatik PPM unterstützt und ermöglicht, und bereitet dem Leser die Bühne, um in die Details der folgenden Kapitel einzutauchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-18626-5_1 eaf9119fe27af18dfb17137db86ced52;de;;;6.1.;;;Risikomanagement: Allgemeine Bemerkungen Ein Großteil des Corporate-Finance-Rechts befasst sich mit dem Risikomanagement. In diesem Kapitel werden die Natur von Rechtsrisiken sowie die allgemeinsten Möglichkeiten zum Umgang mit Rechtsrisiken und anderen Risiken mit rechtlichen Mitteln erörtert. So wird beispielsweise die Bedeutung von Legal-Compliance-Programmen für das Management von Rechtsrisiken erläutert. Es wird auch argumentiert, dass die Gründung und der Vertrag die zwei allgemeinsten Möglichkeiten sind, andere Risiken auf rechtlichem Weg im Corporate Finance-Recht zu steuern. Das Kapitel über das Risikomanagement von Unternehmen bietet eine umfassendere und detailliertere Darstellung der Risikomanagementprozesse von Unternehmen und der rechtlichen Regulierung des Risikomanagements. Die Bände II und III bieten Leitlinien zum Risikomanagement im Zusammenhang mit Verträgen und bestimmten Finanztransaktionen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02750-5_4 872c2687c7aaa49fbae20667e46741c9;de;;;6.1.;;;As We May Link: Ein allgemeines Metamodell für Hypermedia-Systeme Viele Hypermedia-Modelle wurden vorgeschlagen, einschließlich solcher, die speziell entwickelt wurden, um Navigationsaspekte von Websites zu modellieren. Aber nur wenige Hypermedia-Systeme wurden auf der Grundlage von Metamodellierungsprinzipien implementiert, die der Datenbankgemeinschaft bekannt sind. Oftmals gibt es in den Modellen keine klare Trennung zwischen konzeptionellen und technischen Fragen und ihre Implementierungen basieren nicht auf einer expliziten Darstellung eines Metamodells. Dies führt zu einem Verlust an Allgemeingültigkeit und Einheitlichkeit über die Systeme hinweg. Basierend auf den Prinzipien der metamodellgetriebenen Systementwicklung haben wir eine Plattform implementiert, die durch die Allgemeinheit und Erweiterbarkeit des Metamodells verschiedene Kategorien von Hypermedia-Systemen unterstützen kann. Wir präsentieren unser Metamodell und zeigen, wie es Konzepte verallgemeinert, die in einer Reihe von Hypermedia- und Linkserversystemen vorhanden sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75563-0_25 a08299e86e7aaa8cda4f777f15d5dfbe;de;;;6.1.;;;Controller für mehrere Geräte: Eine Bibliothek zur Vereinfachung der parallelen heterogenen Programmierung Aktuelle HPC-Cluster bestehen aus mehreren Maschinen mit unterschiedlichen Rechenfähigkeiten und unterschiedlichen Arten und Familien von Beschleunigern. Die effiziente Programmierung dieser heterogenen Systeme ist zu einer wichtigen Herausforderung geworden. Es gibt viele Vorschläge zur Vereinfachung der Programmierung und Verwaltung von Beschleunigervorrichtungen und der Hybridprogrammierung, Mischbeschleuniger und CPU-Kerne. In vielen Fällen beeinträchtigt jedoch die Portabilität die Effizienz auf verschiedenen Geräten, und es gibt Details bezüglich der Koordination verschiedener Gerätetypen, die vom Programmierer noch in Angriff genommen werden sollten. In dieser Arbeit stellen wir die;-;-;-;https://link.springer.com/article/10.1007/s10766-017-0542-x 8f8acee553db0a13a006b37193571665;de;;;6.1.;;;Ein Vergleich zwischen den Ergebnissen der Fissurektomie und der lateralen inneren Sphinkterotomie bei der chirurgischen Behandlung der chronischen Analfissur Wir vergleichen die laterale interne Sphinkterotomie als wirksame Behandlung der chronischen Fissur in Ano mit der Fissurektomie als alternative chirurgische Behandlung.;-;-;-;https://link.springer.com/article/10.1007/s11605-009-0908-5 bdf7cad1c64ce1c22b78facdf53fa256;de;;;6.1.;;;Überbrückung der Datenverwaltungslücke zwischen Service- und Desktop-Grids Freiwillige Computerplattformen sind zu einem beliebten Mittel geworden, um wissenschaftlichen Anwendungen enorme Rechenleistung durch den Einsatz von Heimcomputern zur Verfügung zu stellen. Bis heute konzentrierten sich diese Systeme mit wenigen Ausnahmen ausschließlich auf die Ausnutzung von CPU-Leerlaufzyklen und mussten noch andere verfügbare Ressourcen wie leistungsstarke Grafikkartenprozessoren, Festplattenspeicherkapazitäten und Hochgeschwindigkeits-Netzwerkverbindungen voll ausnutzen. Im Rahmen des EDGeS-Projekts arbeiten wir daran, diesen engen Anwendungsbereich zu erweitern, um auch vorhandene Netzwerk- und Speicherkapazitäten zu nutzen. In diesem Papier skizzieren wir die Rechtfertigungen für diesen Ansatz und stellen vor, wie im Projekt dezentrale P2P-Netzwerke aufgebaut werden, um wissenschaftliche Daten derzeit im Grid zu verteilen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-79448-8_2 3df7323e88f415d17ec7c42957372695;de;;;6.1.;;;Vom Stadtmodell zum urbanen Informationssystem: Das SIUR 3D des Schlosses von Pietrabuona Trotz umfangreicher Forschungen zu diesem Thema ist das Problem der dreidimensionalen Informationssysteme für historische Städte eigentlich noch ungelöst. Darüber hinaus scheint kommerziell verfügbare Software zunehmend auf eine schnelle Entwicklung unspezifischer urbaner Umgebungen zu zielen, anstatt auf eine metrisch und wahrnehmungsgetreue Abbildung der Realität. In diesem Szenario ist die SIUR 3D-Software (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13695-0_12 afbb641eed43c9e7ba69c56be6cd21ad;de;;;6.1.;;;Aktueller Status von Überwachungsnetzwerken und Designverfahren Angesichts der aktuellen Probleme im Wasserqualitätsmanagement soll in diesem Kapitel der aktuelle Stand von Messnetzen und Gestaltungsverfahren anhand von Beispielen aus Industrie- und Entwicklungsländern überprüft werden. Diese Überprüfung behandelt Details des Netzwerkentwurfsproblems in Bezug auf Überwachungsziele, Probenahmestellen, Zeitintervalle, Probenahmedauer und zu beprobende Variablen. Mängel aktueller Überwachungsprogramme und Konstruktionsverfahren werden bewertet, um daraus Anforderungen für bessere Konstruktionen abzuleiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-9155-3_2 4041ca1cc4a69af80bb085730b1a73e8;de;;;6.1.;;;Herausforderungen bei EHR-Design und Benutzerfreundlichkeit In den 1950er Jahren wurden die klinischen Daten in den Krankenakten von Patienten in den Vereinigten Staaten meist in natürlicher, englischsprachiger Textform aufgezeichnet. … Solche Patientendaten wurden in der Regel von Angehörigen der Gesundheitsberufe als handschriftliche Notizen oder als diktierte Berichte aufgezeichnet, die dann auf Papierbögen transkribiert und getippt wurden, die alle in papierbasierten Diagrammen zusammengestellt wurden, und die Krankenakten dieser Patienten wurden dann in Regalen im Krankenaktenraum gelagert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-17662-8_9 62c37c44042a253e97372aea2588491f;de;;;6.1.;;;Verteilte Datenbanken, Interoperabilität und ACE ACCIS Das Allied Command Europe Automated Command and Control Information System (ACE ACCIS) wird eine der größten Herausforderungen der NATO bei der Interoperabilität geografisch verteilter Datenbanken sein. Die Verbreitung dieser ACE-ACCIS-Datenbanken erstreckt sich über den gesamten europäischen Kontinent und darüber hinaus.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-3815-1_7 9bee8d7bd221f37e708e12dec8be8c45;de;;;6.1.;;;Forschungskern des Wissensmanagements Marktwirtschaftlich funktionierende Unternehmen müssen Veränderungen in ihren Organisationssystemen und der von ihnen eingesetzten Führung vornehmen. In der wirtschaftlichen Praxis wird die Entscheidungsfindung in einem Unternehmen durch das Handeln der Wettbewerber und sich ändernde Umweltfaktoren, z. B. den technischen Fortschritt und die Ergebnisse von Forschungsanstrengungen, bedingt. Der Mehrwert für ein Unternehmen kann bestimmt werden durch Wissen, Fähigkeiten und Fertigkeiten der Mitarbeiter, soziale Beziehungen, Know-how und vor allem effektive Investitionen in intellektuelles Kapital. Unternehmen, die in Humankapital und Arbeitssysteme investieren, erzielen einen Wettbewerbsvorteil durch die Lern- und Leistungsbereitschaft ihrer Arbeitnehmer sowie durch effektiven Informations- und Kommunikationstransfer (Edvinsson und Malone 1997).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36600-0_2 b83a2a8a14ce42f807da44aff3b130cd;de;;;6.1.;;;Frameworks und Referenzarchitekturen Im Bereich Enterprise Modeling wurde umfangreiche Arbeit an der Definition von Frameworks und Architekturen geleistet. Im Gegensatz zu EM-Methoden (siehe Kap. 13) konzentrieren sich Frameworks und Architekturen nicht auf Verfahren für den eigentlichen Modellierungsprozess, Notationen oder Modellierungssprachen, sondern adressieren die Modellierungsdomäne bzw. die Ergebnisse des Modellierungsprozesses. Die in diesem Kapitel vorgestellten Frameworks und Referenzarchitekturen sind Zachman’s Framework, GERAM und TOGAF.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-43725-4_15 04fa5315e9e32733d0b38433c7d178cd;de;;;6.1.;;;Produktionsplanung und -steuerung in einem virtuellen Unternehmen Das Produktionsplanungs- und -steuerungssystem (PPC) spielt normalerweise eine wichtige Rolle unter den Legacy-Anwendungen eines Unternehmens, das einer industriellen virtuellen Unternehmensumgebung beitritt. Die PPC ist sowohl Quelle als auch Ziel der meisten Informationen, die zwischen Partnerunternehmen ausgetauscht werden. Um den Betrieb in einer virtuellen Unternehmensumgebung zu unterstützen, müssen typische Legacy-PPC-Systeme erweitert und überarbeitet werden. Einige Vorschläge und gewonnene Erfahrungen in diese Richtung werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35577-1_14 8e2d2d61f42656d8a5f223043615e7a2;de;;;6.1.;;;Kollaborative Simulationsumgebung für mechanische Systeme für das Produktdesign Die weit verbreitete Anwendung der Produktleistungsanalyse in der mechanischen Produktentwicklung erfordert die effiziente Verwaltung von Simulationsabläufen und Konstruktionsdaten. Dazu wurde die Lösung der Collaborative Simulation Environment (CSE) vorgestellt und deren Funktionsrahmen und Systemarchitektur analysiert. Erforscht wurden die Schlüsseltechnologien Multi-Hierarchie Engineering Data Management und Simulation Flow Control. Engineering-Daten können durch eine auf XML basierende Multi-Hierarchie-Engineering-Data-Management-Technologie klassifiziert und hierarchisch verwaltet werden. Ein effektives Management für den Simulationsfluss kann durch eine Simulationsflusssteuerungstechnologie basierend auf einer Workflow-Management-Technologie durchgeführt werden. Basierend auf der Architektur und Schlüsseltechnologie der CSE-Lösung wurden eine Strömungsmodellplattform und ein Webportal einiger kollaborativer Simulationsumgebungen für Federungssysteme entwickelt, mit denen die Produktsimulationszeit erheblich verkürzt und die Designeffizienz erhöht werden kann. Die Ergebnisse der Anwendung zeigen die Validität der Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84800-239-5_85 b47602b26e4cdc39849fa8b3f17420e6;de;;;6.1.;;;Aspekte des Informationsmanagements im Straßengüterverkehr Für den Güterverkehr (und insbesondere den Straßengüterverkehr) ist die Verfügbarkeit eines geeigneten (in- und interorganisationalen) Informationsmanagements von entscheidender Bedeutung. Dazu werden die technischen (und organisatorischen) Rahmenbedingungen sowie die wesentlichen Instrumente vorgestellt und analysiert. Daran schließt sich eine Betrachtung der Betriebsplanung und des Betriebs des Straßengüterverkehrs an, wobei neben ökologischen Aspekten auch ökonomische Faktoren in die Diskussion einfließen. Es wird gezeigt, dass eine intelligente Verknüpfung verschiedener Elemente der Informations- und Kommunikationstechnik und der Fahrzeugtechnik sowie mit der Verkehrsinfrastruktur zu einer deutlichen Verbesserung der betrieblichen Abläufe im Straßengüterverkehr führt. Dies bezieht sich nicht nur auf die Transportkosten, sondern spiegelt auch positive ökologische Effekte und Verbesserungen der Transportsicherheit wider.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24264-9_3 e16396f54b00d67b545c9f5198ea9897;de;;;6.1.;;;Strategien und Lösungen zur Pflege und Aufbewahrung von Daten aus High-Content-Imaging-, Analyse- und Screening-Assays Die Datenanalyse und -verwaltung beim High Content Screening (HCS) hat in den letzten 10 Jahren erhebliche Fortschritte gemacht. Die Analyse der großen Datenmengen, die bei HCS-Experimenten anfallen, stellt eine große Herausforderung dar und ist derzeit ein Flaschenhals in vielen Screening-Projekten. In den meisten Screening-Labors hat sich HCS zu einer Standardtechnologie entwickelt, die routinemäßig für verschiedene Anwendungen von der Zielidentifikation über die Trefferidentifikation bis hin zur Lead-Optimierung angewendet wird. Eine von mehreren Forschungsgruppen geteilte HCS-Datenmanagement- und Analyseinfrastruktur kann eine effiziente Nutzung vorhandener IT-Ressourcen ermöglichen und stellt unternehmensweite Standards für Datenqualität und Ergebnisgenerierung sicher. Dieses Kapitel skizziert typische HCS-Workflows und stellt die IT-Infrastrukturanforderungen für HCS auf Multi-Well-Platten-Basis vor.;-;-;-;https://link.springer.com/protocol/10.1007/978-1-4939-7357-6_9 656ed5dd20708229456bcd936b9b47a0;de;;;6.1.;;;Räumlich-zeitliche Verteilung und historische Entwicklung der Polder im Gebiet des Dongting-Sees, China Der Dongting-See ist der größte See im Mittellauf des Jangtse in China. Seit Jahrhunderten haben die Bewohner des Dongting-Sees Land zurückerobert und Dämme gebaut, um Hochwasserschutz, landwirtschaftliche Produktion und ländliche Besiedlung zu gewährleisten und geographische Einheiten zu bilden, die als Polder bekannt sind. In dieser Studie wurden die regionalen räumlichen Verteilungen der Polder im Gebiet des Dongting-Sees in den Jahren 1949, 1998 und 2013 mit historischen Karten und modernen Fernerkundungsdaten ermittelt, die Veränderungen seit der Gründung der Volksrepublik China aufzeigen. Der Kreis Nanxian wurde dann ausgewählt, um die Polderveränderungen auf Kreisebene zu demonstrieren, da er die dramatischsten Veränderungen in der Region durchgemacht hat. Verschiedene Polderänderungsmodelle für die Polder Datonghu, Yule und Renhe wurden für acht Perioden analysiert: 1644 (die frühe Qing-Dynastie), 1911 (die späte Qing-Dynastie), 1930 (die Republik China), 1949 (die Volksrepublik China Republic ), 1963, 1970, 1998 und 2013. Drei daraus resultierende Polderentwicklungsmodelle sind: 1) Rückgewinnung von Poldern aus Seen, 2) Integration von Poldern durch Zusammenführung von Flüssen und 3) Aufgabe von Poldern für Hochwasserfreisetzungen. Die Polderentwicklungsmodelle zeigen die Weisheit der Einheimischen bei der Nutzung von Landressourcen gemäß den spezifischen regionalen Bedingungen. Während ihrer langjährigen historischen Entwicklung war die räumliche Verteilung der Polder im Gebiet des Dongting-Sees tendenziell homogen und der Grad der menschlichen Störung tendenziell stabil. Es kam jedoch zu einer Verschiebung vom reinen Wachstum oder der Entfernung von Poldergebieten hin zu einem umfassenderen Management und Schutz der regionalen Umwelt.;-;-;-;https://link.springer.com/article/10.1007/s11442-016-1344-6 d6634772467ea8fde92735b083fee311;de;;;6.1.;;;Anwendung der Risk-Remedy-Methode zur Bewertung von Outsourcing-Angeboten Die Risikoabhilfemethode beginnt, Kosten-Nutzen- oder gewichtete Scoring-Methoden bei der Bewertung von IT-Outsourcing-Ausschreibungen durch den australischen öffentlichen Dienst zu ersetzen. Dieses Papier beschreibt die Anwendung der Methode. Es beschreibt auch einige der Lehren, die aus der Anwendung der Methode in sechs Angebotsbewertungen gezogen wurden: Verwenden Sie die richtigen Anforderungen, verwenden Sie die Anforderungen richtig, berücksichtigen Sie die Kosten des Bietens, berücksichtigen Sie die Kosten der Verzögerung, prüfen Sie die Angebote sorgfältig und verwenden Sie a Design statt Auswahlverfahren.;-;-;-;https://link.springer.com/article/10.1080/026839699344692 98ecc4c81f474431d4889e7381a6f741;de;;;6.1.;;;Ontologiebasierte Modellierung von Webinhalten: Beispiel Gesundheitsatlas Leipzig Die Realisierung eines komplexen Webportals inklusive der Modellierung von Inhalten ist ein anspruchsvoller Prozess. Die Inhalte beschreiben verschiedene miteinander verbundene Einheiten, die eine komplexe Struktur bilden. Die Entitäten und ihre Beziehungen müssen systematisch analysiert, die Inhalte spezifiziert und in ein Content Management System (CMS) integriert werden. Ontologien bieten eine geeignete Lösung, um komplexe Entitäten und deren Beziehungen zu modellieren und zu spezifizieren. Die Funktionalität zum automatisierten Import von Ontologien ist jedoch in aktuellen Content-Management-Systemen nicht verfügbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-55433-3_9 fb0cd4111cc85af15861b2f2d791742e;de;;;6.1.;;;Update zu genomischen Datenbanken und Ressourcen des National Center for Biotechnology Information Das National Center for Biotechnology Information (NCBI) sammelt und verwaltet als primäres öffentliches Repositorium für genomische Sequenzdaten enorme Mengen heterogener Daten. Daten für Genome, Gene, Genexpressionen, Genvariationen, Genfamilien, Proteine ​​und Proteindomänen werden über die NCBI-Website in die Analyse-, Such- und Abrufressourcen integriert. Das textbasierte Such- und Abrufsystem bietet eine schnelle und einfache Möglichkeit um durch verschiedene biologische Datenbanken zu navigieren.;-;-;-;https://link.springer.com/protocol/10.1007/978-1-4939-3572-7_1 710aaaa32de2b31aad35c16639b6546c;de;;;6.1.;;;Adaptive, gültige, zeitraumbasierte Parallelitätssteuerung ohne Sperren in mobilen Umgebungen In einer mobilen Computerumgebung können Clients unabhängig von ihrem physischen Standort auf Daten zugreifen. Die Daten werden von mehreren Clients gemeinsam genutzt und können von jedem Client unabhängig aktualisiert werden. Dies führt zu Inkonsistenzen der Daten. Aufgrund von Einschränkungen der mobilen Computerumgebung können herkömmliche Techniken nicht verwendet werden. In der Literatur werden mehrere Parallelitätskontrolltechniken vorgeschlagen, um Dateninkonsistenzen zu vermeiden. In diesem Papier analysieren wir zunächst das bestehende Schema der Parallelitätssteuerung ohne Sperren und begründen seine Leistungseinschränkungen. Es wird ein neues Schema vorgeschlagen, das die Gültigkeitsdauer der zwischengespeicherten Datenelemente basierend auf der Anzahl der erforderlichen Datenelemente und der aktuellen Last des Datenbankservers adaptiv festlegt. Experimentelle Ergebnisse zeigen Leistungsvorteile und eine Erhöhung der Commit-Rate der Transaktionen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14493-6_36 d175e69ac8593644dd0c9e0e6952923a;de;;;6.1.;;;TEODOOR: eine verteilte Geodateninfrastruktur für terrestrische Beobachtungsdaten Im Rahmen der TERENO-Initiative werden seit 2008 vier terrestrische Observatorien aufgebaut, die riesige Mengen an Umweltdaten sammeln. Um diese Daten zu verwalten, zu beschreiben, auszutauschen und zu veröffentlichen, wird die verteilte Geodateninfrastruktur TEODOOR (;-;-;-;https://link.springer.com/article/10.1007/s12665-013-2370-7 274b59d70359ecc020cb2638ea3441a1;de;;;6.1.;;;System-, Markt- und Regulierungsaspekte für die persönliche Satellitenkommunikation Das Papier berührt eine Reihe von Themen, die für die persönliche Kommunikation über Satellit relevant sind. Anstatt auf technologische Fragen einzugehen, die in der Literatur ausführlich behandelt werden, wird versucht, kritische System-/Dienstaspekte im Zusammenhang mit dem Einsatz von satellitengestützten Personal Communication Networks (S-PCN) zu identifizieren. Markt- und Regulierungsaspekte gelten als Schritt halten mit den technologischen Durchbrüchen, die für die physische Implementierung und Bereitstellung der Systeme erforderlich sind. Derzeit vorgeschlagene „kleine LEOs“, „große LEOs“ und „Super-LEOs“ werden kurz zusammengefasst, und der Standpunkt der Europäischen Kommission zu diesen Systemen wird vorläufig skizziert. Die Pläne von Inmarsat, das „Standard-P“-System einzusetzen, sind ebenfalls angegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-3023-9_1 c82f6fbbda6b2968d69602d427d6878a;de;;;6.1.;;;Bereitstellung und Verwaltung In diesem Kapitel werden die Bereitstellungs- und Verwaltungsaspekte von Systemen erörtert, die In-Memory-OLTP verwenden. Es enthält eine Reihe von Richtlinien zu Hardware- und Serverkonfigurationen und behandelt In-Memory-OLTP-bezogene Datenbankverwaltungs- und Verwaltungsaufgaben. Schließlich gibt dieses Kapitel einen Überblick über die Änderungen und Erweiterungen in den Katalog- und Datenverwaltungsobjekten im Zusammenhang mit In-Memory-OLTP.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-2772-5_12 174398bd1560d29b7cb5fea23ca27b28;de;;;6.1.;;;Playout-Management in Multimedia-Datenbanksystemen Das Vorhandensein mehrerer Multimedia-Datenströme, z. B. eines Audio-Datenstroms in Verbindung mit mehreren Video-Datenströmen innerhalb einer komplexen Werbeshow, deren Präsentation wechselseitig synchronisiert ablaufen muss, ist eines der einzigartigen Merkmale, das digitale Multimediadaten von herkömmlichen unterscheidet , konventionelle, alphanumerische Daten. Beispielanwendungen, bei denen diese Eigenschaft des digitalen Multimedias besonders wichtig ist, sind elektronisches Publizieren, digitale Bibliotheken, computergestütztes Training oder Unterricht (Edutainment), Werbung, Unterhaltung und Infotainment. Hier werden multimediale Informationen zu modular aufgebauten Präsentationen von Gestaltern (d.h. Präsentationsautoren) in a;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0463-0_12 d5e353934d0e7c9ec8a9302f3676371a;de;;;6.1.;;;Web Engineering: Jenseits von CS, IS und SE evolutionäre und nicht-technische Perspektiven Mit dem Aufkommen des World Wide Web ist die „Computing“ über die traditionelle Informatik, Informationssysteme und Softwaretechnik hinausgegangen. Das Web hat Computer zu weit mehr Menschen gebracht, als Computerfachleute je zu tun hatten, und führte zu einem rasanten Wachstum webbasierter Anwendungen. Implizit sind Computerfachleute nicht mehr die privilegierten Vermittler zwischen Computern und anderen Menschen, da die Endbenutzer und der technologische Fortschritt ihren Tribut fordern. Andererseits müssen die neuen Anwendungen noch diszipliniert entwickelt werden. Engineering verkörpert solche disziplinierten Methoden. Während der Oberbegriff Engineering, der eine systematische Anwendung wissenschaftlichen Wissens bei der Schaffung und Entwicklung kostengünstiger Lösungen für praktische Probleme bedeutet, in vielen Disziplinen ein integraler Bestandteil ist, wird der Begriff Web Engineering an sich in dieser Phase möglicherweise nicht allgemein verstanden oder akzeptiert. Dieser Beitrag vertieft das Konzept des Web Engineering, bezieht es auf Informatik, Software Engineering und Wirtschaftsinformatik, greift auf bisherige Erfahrungen in der Softwareentwicklung zurück und analysiert es kritisch aus der Sicht von Informatikern, die selbst keine Ingenieure sind.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45144-7_3 e7eec5ae5b4de3ad07980552810dd299;de;;;6.1.;;;Mikropublikationen: ein semantisches Modell für Behauptungen, Beweise, Argumente und Anmerkungen in der biomedizinischen Kommunikation Wissenschaftliche Veröffentlichungen sind dokumentarische Darstellungen anfechtbarer Argumente, unterstützt durch Daten und wiederholbare Methoden. Sie sind die wesentlichen vermittelnden Artefakte im Ökosystem der Wissenschaftskommunikation. Das institutionelle „Ziel“ der Wissenschaft ist die Veröffentlichung von Ergebnissen. Das lineare Dokumentpublikationsformat aus dem Jahr 1665 hat den Übergang zum Web überlebt.;-;-;-;https://link.springer.com/article/10.1186/2041-1480-5-28 f45c28f90561b8560f1b02682ae7caaa;de;;;6.1.;;;Anwendung nachhaltiger Logistik im Zeitalter der Industrie 4.0 Nachhaltigkeit und Industrie 4.0 sind heutzutage sehr gängige Begriffe, die in fast allen Bereichen verwendet werden. Industrie 4.0 hat aufgrund ihrer zahlreichen neuen Anwendungen, die sich aus der jüngsten technologischen Revolution ergeben, großen Einfluss und Wirkung. Das führte zu den intelligenten Technologien, die im Internet gebaut wurden und mehrere Bereiche miteinander verbinden und die Bereiche Informationstechnologie, künstliche Intelligenz, Logistiksysteme und Umwelttechnik miteinander verbinden. Auf der anderen Seite ist Nachhaltigkeit ein integrativer Begriff, der viele Dimensionen umfasst, viele Bereiche wie Wirtschaft, Industrie, Mensch, Umwelt und Energie umfasst. Daher wächst das Interesse daran, Nachhaltigkeit anzuwenden, um eine bessere Welt zu erreichen. Der Logistikbereich ist stark von Industrie 4.0 betroffen und es besteht ein anhaltender Bedarf, diese neuen Technologien zu nutzen, um die Nachhaltigkeit durch Erhöhung der Effizienz, Zuverlässigkeit und Flexibilität sowie Energie- und Zeiteinsparungen zum Schutz der Umwelt zu unterstützen. Im Rahmen dieses Beitrags stellen die Autoren einen Ansatz vor, der Nachhaltigkeit und Industrie 4.0 im Logistikbereich verbindet. Nach einer Einführung und einem theoretischen Hintergrundgespräch zu Kreislaufwirtschaft, Reverse Logistics, Nachhaltigkeit und Industrie 4.0 zeigen die Autoren moderne Anwendungen, die darauf abzielen, Kreislaufwirtschaft und Reverse Logistics anzuwenden, um Daten zu sparen, Abfälle zu sammeln, zu transportieren und zu behandeln, um sie wiederzuverwenden, zu recyceln und regenerieren Materialien und Energie. Anschließend werden die erwarteten Ergebnisse und Ergebnisse dieser Anwendungen zu verschiedenen Aspekten wie Nachhaltigkeit, Umwelt und Wirtschaft diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9529-5_19 6cb6481ccc551eb26130edd40e649b03;de;;;6.1.;;;HTTP für global verteilte Anwendungen Für jede verteilte Anwendung spielt das Netzwerk eine bedeutende Rolle für die Leistung. Im Web ist das zentrale Protokoll HTTP (Hypertext Transfer Protocol), das bestimmt, wie Browser mit Webservern kommunizieren und das als Grundlage für REST-APIs verwendet wird (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-43506-6_3 497c681c6c57317007c76ea070386f63;de;;;6.1.;;;Entwicklung und Implementierung eines Sicherheitsmanagementsystems in einer Lean Airline Aufgrund der Auswirkungen aus dem künftigen Konzept des einheitlichen europäischen Luftraums und der neuen Anforderung an ein Sicherheitsmanagementsystem (SMS) sehen sich alle Akteure im Luftfahrtsektor derzeit mit immensen Systemänderungen konfrontiert. Gleichzeitig steht die Luftfahrtindustrie unter großem finanziellen Druck. Es gibt also keine Spielräume für das Versäumnis, diese Systemänderungen anzupassen und einzuhalten. Dennoch ist die berichtete Erfolgsrate von organisatorischen Veränderungen in der Industrie gering. Das Projekt MAnaging System Change in Aviation (MASCA – EU FP7 2010–2013) ging auf diese industriellen Bedürfnisse ein. MASCA wurde durch industriebasierte Fallstudien vorangetrieben. Der in diesem Papier beschriebene Änderungsfall ist eine laufende Entwicklung und Implementierung eines SMS bei einer großen europäischen Fluggesellschaft. Das übergeordnete Ziel in diesem Fall für die Industrie bestand darin, ein SMS zu entwickeln, das die Sicherheitsleistung demonstriert, um neuen Vorschriften zu entsprechen. In früheren Forschungen wurde ein neuer Ansatz für menschliche Faktoren und Sicherheit entwickelt. Im Rahmen dieser System- und Prozessanalyse wurde ein Konzept namens System Change and Operations Evaluation (SCOPE)-Modell entwickelt. Der Ansatz in diesem Fall bestand darin, mit dem SCOPE die Kernfunktionalitäten zu erweitern und das Airline-SMS weiterzuentwickeln. Im Rahmen eines Aktionsforschungsansatzes arbeiteten die Forscher eng mit der Sicherheitsabteilung der Fluggesellschaft zusammen, um die Entwicklung des SMS zu unterstützen und diesen Systemwechsel zu untersuchen. Das Forschungsziel von MASCA bestand darin, eine Theorie für den Wandel zu entwickeln, die eine Methodik zur Bewertung des Wandels zur Unterstützung der Umsetzung beinhaltet. Dieser Fall trug zur Multi-Fall-Studie in MASCA bei, in der ein Rahmen für die Bewertung von Veränderungen entstand, der als Structured Inquiry (SE) bezeichnet wird. Die SE wurde beantragt, um ergänzende Empfehlungen zum vorgeschlagenen erweiterten SMS zu geben. Die SE unterstützte die Tatsache, dass, selbst wenn alle Teile, die für ein konformes SMS erforderlich sind, vorhanden sind, viele andere wesentliche Bereiche angesprochen werden müssen, damit alle Teile zusammenarbeiten, wie z. B. Informations- und Wissenszyklen und Teams zum Aufbau sozialer Beziehungen relations und Vertrauen. Die Ergebnisse zeigen die Vorteile der Kombination von SCOPE und SE beim Systemwechsel in der Luftfahrt, um identifizierte wesentliche Komponenten für die Sicherheitsleistung zu erfassen und die Chancen für einen erfolgreichen Wechsel zu erhöhen.;-;-;-;https://link.springer.com/article/10.1007/s10111-014-0297-8 0ddba5c90aa2effb3d9fe34ab3486de7;de;;;6.1.;;;Verfolgen und Vergleichen von Augenbewegungsmustern beim Ansehen interaktiver und nicht interaktiver Videos In diesem Artikel zeigen wir, wie sich unsere Augenmomente unterscheiden, wenn wir nicht interaktive Videos (Sportclips) und interaktive Videos (Videospielclips) ansehen. Wir erhielten die Eye-Tracking-Daten aus dem Data-Sharing-Set von Collaborative Research in Computational Neuroscience (CRCNS) und analysierten die Teilmengen der Augenbewegungsdaten, die verfolgt wurden, während die Testpersonen Sportclips (Videos, deren Inhalt nicht interaktiv ist) und Videospiele ansahen Clips (Videos, deren Inhalt interaktiv ist). Wir vergleichen dann die Variationen der Augenbewegungen der x- und y-Koordinaten zwischen dem Ansehen von echten Videos und dem Ansehen von animierten Videos, um den Unterschied in den Augenbewegungsmustern zwischen den Fällen zu identifizieren. Darüber hinaus haben wir auch Tests durchgeführt, um zu sehen, ob es Unterschiede in der Verteilung des Augenstatus der Fixation oder Sakkade zwischen den Fällen gibt. Unsere Ergebnisse geben Einblicke in die kognitiven Prozesse beim Anschauen von Videos. Wir diskutieren auch die Auswirkungen unserer Ergebnisse auf die verschiedenen Anwendungen im IS-Bereich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-01087-4_22 2cee14c05d4187a0ef8ceaa53d16aa64;de;;;6.1.;;;Epidemiologie in Entwicklungsländern Die moderne Epidemiologie kann sich einer präzisen Definition, klar formulierten Grundkonzepten und gut ausgearbeiteten Methoden rühmen, die an anderer Stelle in diesem Handbuch beschrieben werden. Diese sind in Entwicklungs- und Industrieländern grundsätzlich gleich. Was ist anders ist die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-26577-1_39 512633ab5ba8ea1b3c2b81fc0515eb86;de;;;6.1.;;;Wie Berufspsychologen in der K-12-Ausbildung einen Unterschied machen können Im Allgemeinen haben sich Berufspsychologen nicht mit angewandter Forschung beschäftigt, die zeigt, wie Karriereinterventionen Bildungsprobleme verbessern können, die für relevante Entscheidungsträger und Interessengruppen von Bedeutung sind. Dieser Artikel beschreibt, wie die Berufspsychologie einen Unterschied in der K-12-Ausbildung machen kann, indem sie einen interdisziplinären, gemeinschaftsbasierten Ansatz verfolgt. Um diesen Ansatz zu veranschaulichen, wird eine quasi-experimentelle Auswertung von mehreren außerschulischen Programmen vorgestellt, die einer Stichprobe hispanischer Amerikaner zur Verfügung gestellt wurden. Diese Studie bietet ein realistisches Beispiel dafür, wie Forscher auf diesem Gebiet durch die Entwicklung sinnvoller Partnerschaften innerhalb der Gemeinschaft Veränderungen herbeiführen können.;-;-;-;https://link.springer.com/article/10.1007/s10775-016-9335-9 480bc124cf5e60f271b42a033bb7b8cf;de;;;6.1.;;;Servicearchitekturen für e-Science Grid Gateways: Chancen und Herausforderungen Ein e-Science Grid Gateway ist ein Portal, das es einer wissenschaftlichen Zusammenarbeit ermöglicht, die Ressourcen eines Grids so zu nutzen, dass sie von den komplexen Details der Grid-Software und -Middleware befreit werden. Das Ziel eines solchen Gateways ist es, den Benutzern Zugang zu Community-Daten und Anwendungen zu ermöglichen, die in der Sprache ihrer Wissenschaft verwendet werden können. Jeder Benutzer hat einen privaten Daten- und Metadatenbereich, Zugriff auf Datenherkunft und Tools zur Verwendung oder Zusammenstellung experimenteller Workflows, die Standard-Datenanalyse-, Simulations- und Nachbearbeitungstools kombinieren. In diesem Vortrag beschreiben wir die zugrunde liegende Grid-Service-Architektur für ein solches eScience-Gateway. In diesem Beitrag beschreiben wir einige der Herausforderungen, mit denen das Design von Grid Gateways konfrontiert ist, und skizzieren einige neue Forschungsrichtungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76843-2_2 0b95c54954c17ccf1b27264554debe11;de;;;6.1.;;;Verbesserter Butterfly-Optimierungsalgorithmus für die Datenplatzierung und -planung in Edge-Computing-Umgebungen Mobile Edge Computing (MEC) ist eine interessante Technologie, die darauf abzielt, verschiedene Verarbeitungs- und Speicherressourcen am Rand von mobilen Geräten (MDs) bereitzustellen. MECs enthalten jedoch begrenzte Ressourcen und sollten angemessen verwaltet werden, um Ressourcenverschwendung zu vermeiden. Die Workflow-Planung ist ein Prozess, der versucht, Aufgaben basierend auf bestimmten Zielen den am besten geeigneten Ressourcen zuzuordnen. Dieses Papier stellt DBOA vor, eine diskrete Version des Butterfly Optimization Algorithm (BOA), der die Levy-Flugmethode anwendet, um seine Konvergenzgeschwindigkeit zu verbessern und lokale Optima-Probleme zu vermeiden. Wir haben auch eine Methode zur Aufgabenpriorisierung verwendet, um die Reihenfolge der Aufgabenausführung in den wissenschaftlichen Arbeitsabläufen zu finden. Dann verwenden wir DBOA für die dynamische Spannungs- und Frequenzskalierung oder DVFS-basierte datenintensive Arbeitsablaufplanung und Datenplatzierung in MEC-Umgebungen. Um die Leistungsfähigkeit des vorgeschlagenen Schemas zu bewerten, werden umfangreiche Simulationen an verschiedenen bekannten wissenschaftlichen Arbeitsabläufen unterschiedlicher Größe durchgeführt. Die erhaltenen experimentellen Ergebnisse zeigen, dass unsere Methode andere Algorithmen in Bezug auf Energieverbrauch, Datenzugriffs-Overhead usw. übertreffen kann.;-;-;-;https://link.springer.com/article/10.1007/s10723-021-09556-0 c75ec909b95f6afb9e40566da49da820;de;;;6.1.;;;Informatik des öffentlichen Gesundheitswesens Public-Health-Informatik wendet Computer- und Informationswissenschaftsmethoden an, um die Gesundheit der Bevölkerung zu fördern und das Geschäft der öffentlichen Gesundheit zu unterstützen. Obwohl Computer seit langem zum Erfassen, Verwalten und Verarbeiten von Informationen über Bevölkerungsgesundheitsstatistiken verwendet werden, ist der Bereich der Public-Health-Informatik eine aufstrebende Disziplin, die über Zahlen hinausgeht. Informationssysteme, die Daten empfangen und an elektronische Patientenakten senden, werden zunehmend in staatlichen Gesundheitsbehörden in den USA und auf der ganzen Welt implementiert. Diese Systeme unterstützen eine Reihe von Kerngeschäftsprozessen im Bereich der öffentlichen Gesundheit, einschließlich Überwachung, Prävention und Gesundheitsbewertung in der Gemeinde. Ähnlich wie im klinischen Kontext machen Informationssysteme die Geschäftsprozesse im Bereich der öffentlichen Gesundheit effizienter, was zu einem besseren Verständnis des Gesundheitszustands der Bevölkerung sowie zur Identifizierung neu auftretender Gesundheitsgefahren führt. In diesem Kapitel wird der Anwendungsbereich der Public-Health-Informatik definiert und diskutiert, wie das neue Feld die klinische Informatik ergänzt und mit ihr in Verbindung steht. Klinische Informatiker werden wahrscheinlich mit öffentlichen Gesundheitsbehörden interagieren, um einen Informationsaustausch über die Einhaltung von Gesetzen zur öffentlichen Gesundheit sowie einen Kanal zu schaffen, um Wissen über den Gesundheitszustand und die Bedrohungen ihrer Bevölkerung und Gemeinschaften zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22753-5_20 778d6e356eec54fde4bb995160822f6e;de;;;6.1.;;;Rufen Sie Detaildatensätze auf, um Schätzungen von zwangsvertriebenen Bevölkerungsgruppen zu erhalten Call Detail Records haben ein großes Potenzial, humanitäre Maßnahmen zur Frühwarnung, Überwachung, Entscheidungsfindung und Bewertung voranzutreiben. Die Data For Development Challenge nutzte Mobiltelefondaten für die Entwicklung im Senegal. Wir untersuchten ferner Methoden und Protokolle, um diese Daten zur Unterstützung humanitärer Maßnahmen für Flüchtlinge zu verwenden. Um Schätzungen der zwangsweise vertriebenen Bevölkerung zu erhalten, bedarf es nicht nur einer Datenanalyse, sondern auch eines soliden Protokolls, um den Datenschutz und die richtigen Ergebnisse des Projekts zu gewährleisten. Wenn keine Daten mit Flüchtlingskennzeichnung verfügbar sind, ist ein Rahmen zur Identifizierung der vertriebenen Bevölkerung erforderlich. Wir präsentieren eine Methodik zur Analyse der Mobilität, die Datenschutzrisiken minimiert, indem die Mobilitätsmuster der Bevölkerung abgezogen werden, bis diese Muster gefunden werden, die auf die vertriebene Bevölkerung hinweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-12554-7_2 78702352b24cd30ba1c6f7d1c4c2ca7b;de;;;6.1.;;;Verwendung mehrerer Datenspeicher in der Cloud: Herausforderungen und Lösungen Cloud Computing hat sich in letzter Zeit als ein neues Computing-Paradigma entwickelt. Letzteres bietet die Bereitstellung von dynamisch skalierbaren und oft virtualisierten Ressourcen, die als Dienste angeboten werden. In diesem Zusammenhang gibt es einen Service-Pool, der Plattformen und Mechanismen unterstützt, um die Anwendungsentwicklung und -ausführung zu gewährleisten. Diese Reihe von Diensten wird als Plattform als Service (PaaS) bezeichnet. Eines der Hauptziele von PaaS ist die Unterstützung großer Datenspeicher durch Sicherstellung von Elastizität, Skalierbarkeit und Portabilität. Viele Anwendungen müssen verschiedene Datentypen verwalten, die ein einzelner Speicher nicht effizient unterstützen kann. Folglich müssen Clouds mehrere Datenspeicher bereitstellen, sodass Anwendungen diejenigen auswählen können, die ihren Datenanforderungen entsprechen. In diesem Beitrag stellen und diskutieren wir die Anforderungen solcher Umgebungen und analysieren den aktuellen Stand der Technik.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40053-7_8 0e1f69069b0fb6a3655664e94b415db1;de;;;6.1.;;;Auswahl von Computergeräten zur Unterstützung der mobilen Zusammenarbeit Die von mobilen Geräten unterstützte Zusammenarbeit hat sowohl den Benutzern Vorteile als auch Herausforderungen für Softwareentwickler und Hersteller von mobilen Computergeräten gebracht. Jede Art von Gerät, das zur Unterstützung der mobilen Zusammenarbeit verwendet wird, hat je nach Arbeitskontext, in dem es verwendet wird, Stärken und Schwächen. Die Idee ist, ein bestimmtes Gerät zu verwenden, wenn die Vorteile am relevantesten sind und die Nachteile die Teamarbeit nicht beeinträchtigen. Dieses Papier schlägt einen Bewertungsrahmen vor, der Entwicklern hilft, den Gerätetyp zu identifizieren, der zur Unterstützung der mobilen Zusammenarbeit in bestimmten Arbeitskontexten verwendet werden kann. Darüber hinaus werden drei mobile kollaborative Anwendungen anhand des Bewertungsrahmens analysiert. Die Ergebnisse der Analyse werden dann mit der empirisch beobachteten Eignung verglichen.;-;-;-;https://link.springer.com/article/10.1007/s10726-006-9020-3 8afc92de90e0c36237993be047d51dd1;de;;;6.1.;;;IT auslagern oder nicht?: Neuere wirtschaftswissenschaftliche Forschung und Bewertungspraxis Das Papier berichtet über Ergebnisse aus 26 Längsschnittstudien zum Outsourcing von Informationstechnologie (IT), die im Zeitraum 1993-95 untersucht wurden. Der Schwerpunkt liegt auf Bewertungspraktiken im Vorfeld von IT-Sourcing-Entscheidungen. Als Grundlage für die Bewertung von Angeboten von Outsourcing-Anbietern erwies sich das bereits vorhandene IT-Bewertungssystem als hilfreich bzw. als wesentliches Hindernis. Schwierigkeiten bei der Bewertung der internen Leistung werden hervorgehoben. Zu den Themen gehören die Bewertung des gesamten IT-Beitrags, die Ermittlung der Vollkosten, Benchmarking und externe Vergleiche, die Rolle von Abrechnungssystemen und die Annahme von Service Level Agreements durch den internen Betrieb. Anschließend werden die organisatorischen Erfahrungen bei der Bewertung von Anbieterangeboten im Vergleich zu internen Optionen detailliert beschrieben. Diese werden in destillierter Form als repräsentative Fallstudie „ein reichhaltiges Bild“ präsentiert, zusammen mit zusätzlichen Erkenntnissen aus der Forschung. Schließlich heben wir den aufkommenden Bewertungsansatz hervor, der von Organisationen geteilt wird, die effektive Sourcing-Entscheidungen getroffen haben.;-;-;-;https://link.springer.com/article/10.1057/ejis.1996.21 6304ee4e07bac7ab209c6a6d4e3214b5;de;;;6.1.;;;Abfragen über Webdienste Heutzutage sind Technologien wie Grid- und Cloud-Computing-Infrastrukturen sowie serviceorientierte Architekturen ausreichend ausgereift und werden von einer Vielzahl von Unternehmen und Organisationen übernommen [2,19,36]. Ein Webservice (WS) ist ein Softwaresystem, das zur Unterstützung einer interoperablen Maschine-zu-Maschine-Interaktion über ein Netzwerk entwickelt wurde und unter Verwendung offener Standards und Protokolle implementiert wird. WSs wurden zu beliebten Datenverwaltungseinheiten, einige ihrer Vorteile sind Interoperabilität und Wiederverwendbarkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17551-0_6 7e4dad2316a5291c8ef38b097319f7ce;de;;;6.1.;;;Photovoltaik-Informatik: Energiewissenschaft mit datengetriebenen Ansätzen nutzen Wir diskutieren unseren aktuellen Forschungsschwerpunkt in der Photovoltaik (PV)-Informatik, der sich der Funktionsverbesserung von Solarmaterialien durch Datenmanagement und Data-Mining-unterstütztes, integriertes Computational Materials Engineering (ICME) für schnelles Screening und Identifizierung von Multiskalen-Prozessen/Strukturen widmet /Eigenschaft/Leistungsbeziehungen. Unsere aktuelle PV-Informatikforschung reicht von transparenten leitfähigen Oxiden (TCO) bis hin zu Solarabsorbermaterialien. Als Testumgebung berichten wir über Beispiele unseres aktuellen Datenmanagementsystems für die PV-Forschung und Advanced Data Mining zur Leistungssteigerung von Solarzellen wie CuIn;-;-;-;https://link.springer.com/article/10.1557/opl.2012.76 d0b04c2cd89963a8389678736d6a7996;de;;;6.1.;;;Werkstoffinformatik Die globalen Märkte setzen die Materialindustrie unter Druck, die Zeitspanne zwischen Materialforschung und Materialentwicklung zu verkürzen. Insbesondere aktuelle Ansätze zur Entwicklung und Einbringung (Einsatz) von fortschrittlichen Materialien in militärische Systeme sind zu zeitintensiv und teuer. Trotz der hohen Investitionen in Verteidigungssysteme ist der Einsatz nicht sicher, da die Materialentwicklung oft nicht an die Bedürfnisse des Systemdesigners gekoppelt ist und die Materialien häufig nicht ihren Anforderungen entsprechen. Die Entwicklung von Methoden, die das Einfügen von Materialien beschleunigen und dadurch Millionen von Investitionssummen einsparen, kann sich möglicherweise sehr lohnen. Alle Branchen, die sich mit der Entwicklung fortschrittlicher Materialien befassen, suchen nach neuen Methoden, um diese Probleme zu lösen.;-;-;-;https://link.springer.com/article/10.1557/mrs2006.223 c6f9fb64b179ab227ba15885baefb09e;de;;;6.1.;;;Smart City Adoption: Ein Zusammenspiel von konstruktiven und ungünstigen Faktoren Digitale Technologien verändern nicht nur die Art und Weise, wie Geschäftsprozesse auf Organisationsebene durchgeführt werden, sondern auch unsere Lebensweise ständig. Die digitale Transformation betrifft viele Bereiche. Städte und das Leben in Städten ist keine Ausnahme. Smart Cities entwickeln sich immer schneller. Neue Konzepte und Technologien wie Cloud Computing, Mobiltechnologie, 5G-Netze und die Integration mit Social Media bringen Informationslösungen näher an die Endnutzer und sorgen auch für mehr Flexibilität für Geschäftslösungen. Die technologischen Aspekte von Smart Cities sind bereits umfassend erforscht, jedoch stellt die Entwicklung von Smart Cities auch erhebliche Herausforderungen in Bezug auf Bürger, Lebensqualität, persönliche Vorlieben, Privatsphäre und andere. Dieses Papier konzentriert sich daher auf das Zusammenspiel verschiedener Faktoren, die für die Einführung einer Smart City wichtig sind. Die Wirkung dieses Zusammenspiels wird empirisch mit Strukturgleichungsmodellen anhand von Daten von 203 Millennials getestet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-44322-1_14 70eccfb207e179d0d2d61796d7cea299;de;;;6.1.;;;Rolle von Computational Intelligence gegen COVID-19 Die jüngste COVID-19-Pandemie, die durch das berüchtigte SARS-CoV-2-Virus verursacht wurde, hat weltweit viele Menschenleben gefordert. Laut WHO-Bericht vom 9. Juli 2020 waren mehr als 213 Länder betroffen, mit 11.669.259 Fällen und 539.906 Todesfällen. Die Epidemie hat die Welt zum Stillstand gebracht und auf die Mängel des Gesundheitssystems und die Mängel in Epidemie-Management. Die traditionellen Wege des Gesundheitsmanagements sind unter diesen schwierigen Umständen zusammengebrochen. In diesen schwierigen Zeiten besteht ein dringender Bedarf an einer besseren Umsetzung der verfügbaren Ressourcen und Technologien, um die Bewältigung der Pandemie zu beschleunigen. Daher wird uns eine systematische und gründliche Bewertung der verfügbaren Technologien, Ressourcen, Werkzeuge und Techniken in die richtige Richtung weisen, um potenzielle Lösungen zur Kontrolle der Schwere oder Ausbreitung der Krankheit zu finden und letztendlich eine Heilung zu finden. Die Nutzung des fortgeschrittenen Bereichs der Computational Intelligence, zu der künstliche Intelligenz, maschinelles Lernen und Big-Data-Analysen gehören, für klinische/Gesundheitsdaten kann in den aktuellen Szenarien substanzielle Lösungen bieten. Dieses Kapitel zielt darauf ab, die Rolle von KI, ML sowie Big Data Analytics im Gesundheitswesen und im Epidemiemanagement zu diskutieren. Das Kapitel befasst sich mit verschiedenen Anwendungen von Computerintelligenz bei der Geschwindigkeitsverfolgung der Ausbreitung, der Identifizierung von Patienten mit kritisch niedriger Immunität/Hochrisikopatienten, der Unterstützung bei der Behandlung und Diagnose, der Kontrolle der Ausbreitung und zukünftigen Vorhersagen unter Verwendung des aktuellen Datensatzes. Das Kapitel befasst sich mit einer bedeutenden Anwendung von Computational Intelligence im Forschungsbereich der Wirkstoffentdeckung und der Umnutzung bei der Suche nach einem Heilmittel. Es werden kurz Technologien wie Blockchain und KI-unterstützte Bilderfassung diskutiert, die ihre Bedeutung in der Diagnose und Behandlung in verschiedenen Ländern weltweit bewiesen haben. Das Kapitel schlägt kurzfristige Aktionspläne zur Bekämpfung des Virus mithilfe von Computerintelligenz vor und skizziert gleichzeitig zukünftige Strategien zur Anwendung von CI im Gesundheitsmanagement und ihre langfristigen Vorteile.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8534-0_2 22b157654f0928236dcf7582fbb6660e;de;;;6.1.;;;Gesundheitsintegration in der Praxis: Ein institutionalisiertes Dilemma Die Integration in das Gesundheitswesen ist ein normatives Ziel, aber die rechtliche Regulierung des staatlichen Handelns über Sektoren hinweg ist komplex. Viele Werte müssen geschützt werden und sind daher rechtlich geschützt. Interoperabilität kann jedoch Wertekonflikte schaffen und es gibt wenig empirische Forschung zu den konstruktiven Versuchen, solche tiefgreifenden Konflikte zu lösen. Dieses Papier befasst sich mit dieser Lücke durch eine eingehende Untersuchung der Institutionalisierung von Werten in Gesetzen und Regierungsorganisationen. Die Datenerhebung erfolgte durch teilnehmende Beobachtung und narrative Interviews. Die Studie zeigte, dass Wertkonflikte schwer zu lösende Integrationsbarrieren darstellen. Ein großes Problem bestand darin, dass die notwendige Diskussion über den Umgang mit den Konflikten nicht geführt werden konnte, weil eine solche Arena fehlte. Verschiedene Behörden wurden von unterschiedlichen Werten regiert, die tief institutionalisiert waren, während Dienste integriert werden sollten, die gesetzlichen Regulierungsbehörden jedoch nicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22961-9_1 7e9f850d5876e782565b1581f53c65f0;de;;;6.1.;;;Anwendung eines nationalen BIM-Modells auf die nationale BIM-Implementierung in Vietnam: Lehren aus der britisch-vietnamesischen Zusammenarbeit für die Industrie Dieses Papier wendet die von der EU BIM Task Group und dem britischen Centre for Digital Built Britain beschriebene Methode der nationalen BIM-Strategie auf die Entwicklung einer nationalen Digitalisierungsvision in Vietnam an. Es wird die britische Erfahrung bei der Förderung des digitalen Bauens durch BIM-Anwendungen in Bau- und Facility-Management-Aktivitäten in Richtung Smart City auf der Grundlage von 4 strategischen Bereichen beschreiben: Gründung der öffentlichen Führung, Vision kommunizieren und Gemeinschaften fördern, Aufbau eines gemeinsamen, kollaborativen Rahmens und Ausbau der Industriekapazität. Die internationale Zusammenarbeit bei der nationalen Einführung von BIM wächst zwischen Ländern und zwischen Regierungen. Im Jahr 2018 unterzeichneten Großbritannien und Vietnam eine Absichtserklärung über die Zusammenarbeit bei der Einführung von BIM in den nationalen Plan Vietnams, der unter der Entscheidung des Premierministers Nr. 2500/QĐ-TTg vom 22. Dezember;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0802-8_6 3d291765e1e145d0b3dbd70957c966ff;de;;;6.1.;;;Modellierung koordinierter Arbeit: Definition und Anwendung des Modells „Koordinierte Arbeitsumgebung“ Dieses Papier beschreibt ein Koordinationsmodell für kollaboratives Arbeiten. Das Modell mit dem Namen „Koordinierte Arbeitsumgebung“ verwendet eine Zusammenstellung mehrerer Organisationseinheiten mit spezifischen Zielen und Strukturen, die von Akteuren, Arbeitspraktiken und Artefakten bevölkert sind. Die Koordinationsarbeit wird durch die in den Arbeitspraktiken bestehenden Interdependenzen definiert, die als Voraussetzung, gleichzeitig oder durch die gemeinsame Nutzung von Ressourcen erfolgen können. Die Koordination zwischen Praxisgemeinschaften wird durch Interaktionen zwischen ihnen unter Verwendung von Artefakten aus Objektwelten hergestellt. Interaktionen sind unterschiedlicher Art: Interaktionen zum Handeln, Möglichkeiten, Klärung und Orientierung. Die Arbeit basiert sowohl auf mehreren ethnographischen Studien, die in radiologischen Abteilungen in Österreich, Dänemark und Schweden durchgeführt wurden, als auch auf der Analyse und Bewertung von Computersystemen (Bildarchivierungs- und Kommunikationssysteme, Radiologie und Krankenhausinformationssysteme) und Artefakten, die zur Unterstützung der Kommunikation verwendet werden , Koordination und Zusammenarbeit in der radiologischen Gesundheitsversorgung. Es beschreibt detailliert die Elemente einer koordinierten Arbeitsumgebung und illustriert einige praktische Beispiele aus der Radiologie.;-;-;-;https://link.springer.com/article/10.1023/A%3A1021750826139 93f3f8712e114c2d37a435e63513f332;de;;;6.1.;;;Verknüpfung von Sterbeurkunden, postmortaler Toxikologie und Verschreibungsanamnese zur besseren Identifizierung von Bevölkerungsgruppen mit erhöhtem Risiko für Todesfälle durch Drogenvergiftung Unser Ziel war es, die Vollständigkeit drogenbezogener Informationen zu bewerten und zu verbessern, das Risiko für Todesfälle durch Drogenintoxikationen im Zusammenhang mit bestimmten Drogen in verschiedenen demografischen Gruppen zu bewerten und den Nutzen der Überwachung aus mehreren Quellen aufzuzeigen, um Interventionen besser zu zielen und die Politik zu informieren. Auswertung.;-;-;-;https://link.springer.com/article/10.1007/s40290-017-0185-7 f240bdc89fa9174bb88806588b2a2557;de;;;6.1.;;;Ein Schritt in die richtige Richtung: Frühe Erkenntnisse aus einer Längsschnittstudie zur Tanzpädagogik als Entwicklungskatalysator Dieses Kapitel berichtet über die Entwicklung und Durchführung einer 10-jährigen Längsschnittstudie einer außerschulischen Organisation mit intensiver Tanzausbildung für Jugendliche im Alter von 8 bis 18 Jahren Entwicklungskatalysator, um Jugendliche mit unterschiedlichem Hintergrund zu befähigen, ihr Selbstwertgefühl, ihre Selbstdisziplin und ihr Erfolgserlebnis durch Tanz-, akademische und Familienprogramme zu stärken. Die Datenerhebung begann im Februar 2014 und wurde 2016 wiederholt, wodurch das erste und zweite von sechs geplanten Datenpanels eingerichtet wurden. Dieses Kapitel beschreibt den Hintergrund der Studie und ihre theoretischen Grundlagen und berichtet vorläufige Ergebnisse von Skalenanalysen für die 2014er Kohorte von 375 Studierenden durch die ersten beiden Datenpanels.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-64116-4_2 d67d24fe78dd2232914fc2a345f6f745;de;;;6.1.;;;Grüne Statistik: Essenz der schlanken, grünen und sauberen Wissenschaften Qualitätsmanagement wird für viele Unternehmen und Organisationen zunehmend zu einem Werkzeug zur Prozess-/Produktverbesserung. Ein Qualitätskonzept schafft Zielstrebigkeit zur Verbesserung von Produkten und Dienstleistungen, um wettbewerbsfähig zu werden, im Geschäft zu bleiben und Arbeitsplätze zu schaffen. Dies steigert das gemeinsame Interesse an besseren Zielen bei der Produkt- und Servicequalität sowie ein langfristiges Loyalitäts- und Vertrauensverhältnis.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1835-2_6 3b810f8d0a8e98b8c136f682adbe1e65;de;;;6.1.;;;Community-basierte Spammer-Erkennung in sozialen Netzwerken Soziale Netzwerke (kurz SNS) wie Sina Weibo gehören mittlerweile zu den beliebtesten Internetanwendungen. Eine große Herausforderung für soziale Netzwerke ist die große Anzahl von Spammern oder gefälschten Accounts, die von Computerprogrammen generiert werden. Herkömmliche Ansätze zur Bekämpfung von Spammern beruhen meist auf Benutzermerkmalen, wie der Vollständigkeit der Benutzerprofile, der Anzahl der Benutzeraktivitäten, dem Inhalt der geposteten Tweets usw. Diese Methoden können bei der Gestaltung gute Ergebnisse erzielen. Spammer werden sich jedoch weiterentwickeln, um zu überleben. Daher werden die merkmalsbasierten Ansätze nach und nach an Bedeutung verlieren. Nach sorgfältiger Analyse eines echten SNS stellen wir fest, dass Menschen in sozialen Netzwerken ihre Gemeinschaften in der physischen Welt wieder aufbauen werden. Interessanterweise müssen Spammer auch ihre Communities aufbauen, um sich zu verstecken, denn getrennte Benutzer werden von Anti-Spam-Tools leicht erkannt. Darüber hinaus ist es für Spammer sehr schwierig, sich in die Communitys normaler Benutzer einzuschleichen, da ein Community-Mitglied mit den meisten anderen Mitgliedern verbunden sein muss. Basierend auf dieser Beobachtung schlagen wir einen neuartigen Ansatz vor, um einen Benutzer nach den Merkmalen seiner selbst und der Konten innerhalb derselben Gemeinschaften wie er/sie zu beurteilen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-21042-1_61 c00c3bffdfd8408cc09027e710eb1d7f;de;;;6.1.;;;Polizei (3): Datenerhebung und -speicherung Die Polizei sammelt und speichert personenbezogene Daten in verschiedenen Datenbanken, einschließlich der PNC und der PND, neue Datenbanken werden regelmäßig gestartet. Persönliche biometrische Informationen, einschließlich Fingerabdrücke und DNA-Proben, werden ebenfalls gesammelt und in digitaler Form aufbewahrt. Bei der Verwaltung dieser personenbezogenen Daten wurden eine Reihe von Problembereichen identifiziert, und hier haben wir die Frage der missbräuchlichen Verwendung durch Beamte mit Zugang zu den Datenbanken, Fragen der Datenqualität und Debatten darüber, wie lange einige dieser personenbezogenen Daten sein sollten, festgestellt zur Verwendung für die Polizei aufbewahrt. Die zukünftige Entwicklung und Ausweitung der digitalen Technologie dürfte der Polizei mehr Möglichkeiten bieten, personenbezogene Daten aufzubewahren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-64912-2_5 843c2f6304a4ad7f4205ba84ff1d7824;de;;;6.1.;;;Bewegte Objekte in Netzwerken modellieren und abfragen Datenbanken mit bewegten Objekten sind in den letzten Jahren zu einem wichtigen Forschungsthema geworden. Für die Modellierung und Abfrage von beweglichen Objekten existiert ein umfassendes Framework abstrakter Datentypen zur Beschreibung von frei in der 2D-Ebene beweglichen Objekten, die Datentypen wie;-;-;-;https://link.springer.com/article/10.1007/s00778-005-0152-x e20dddadb78f01b59e51e81697b8562c;de;;;6.1.;;;Forschungs- und Innovationsaspekte Das dritte Kapitel enthält die Beschreibung der wichtigsten Forschungs- und Innovationsaspekte in Bezug auf Cybersicherheit und Datenschutz. Die ersten beiden Abschnitte haben überwiegend deskriptiven Charakter und beziehen sich auf den Bereich der Forschungsförderung und den Bereich der inhaltlichen Forschungsrichtungen. Die letzten beiden Abschnitte hingegen liefern einige Schlussfolgerungen zur Forschung in den Bereichen Cybersicherheit und Datenschutz und enthalten auch einige Vorschläge zu zukünftigen gemeinsamen Interessen zwischen der Europäischen Union und Japan.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-62312-8_3 ed28e5a5aef11cc0cbc67717c596f536;de;;;6.1.;;;Resilienzmanagement zur Katastrophenvorsorge bei medizinischen Unfällen Die Veröffentlichung von medizinischen Unfällen als gesellschaftliches Thema ist das Zeichen einer medizinisch fortgeschrittenen Nation, die die Demokratisierung der medizinischen Behandlung begleitet. Andererseits besteht in Ländern mit weniger entwickelten medizinischen Behandlungssystemen die Tendenz, dass medizinische Unfälle nicht veröffentlicht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-5805-0_1 8ef13bce0a44db9fc791f5f15790f661;de;;;6.1.;;;Sich ändernde Anforderungen im Supply Chain Management: Curriculum-Design, das den sich ändernden Bedürfnissen Rechnung trägt Qualität ist ein notwendiges Element bei der Erfüllung von Anforderungen, einschließlich internationaler und lokaler Anforderungen, Branchen- und Organisationsanforderungen, mit einem System, das von der obersten Leitung und allen Mitarbeiterebenen unterstützt wird.;-;-;-;https://link.springer.com/chapter/10.1057/9781137324245_10 2086fce97faf9c469bf7ddfde901954f;de;;;6.1.;;;Schwedische Studienpläne für Wirtschaftsinformatik: Eine vergleichende Studie Die Autoren führen einen umfassenden Vergleich der schwedischen Wirtschaftsinformatik-Studiengänge durch, um einerseits besser zu verstehen, wie der schwedische Lehrplan im Vergleich zu den australischen und US-amerikanischen Pendants abschneidet und andererseits auch, wo die IS Feld hat sich im Laufe der Zeit verändert. Diese Änderung wird diskutiert, um eine klarere Vorstellung davon zu bekommen, welche Kurse in einem Lehrplan nach 2020 im Mittelpunkt stehen sollten. Die Studie weist auf einige signifikante Überschneidungen hin, bei denen Grundlagen von Informationssystemen, Daten- und Informationsmanagement sowie Systemanalyse und -design sowohl für schwedische, australische als auch für US-amerikanische Bachelor-IS-Programme wichtig sind. Die Studie zeigt auch Unterschiede im Schwerpunkt in den Lehrplänen der verschiedenen Länder, wobei die schwedischen Programme im Vergleich zu den australischen und den US-amerikanischen Pendants einen klaren Fokus auf Unternehmensarchitektur und Anwendungsentwicklung haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-49644-9_8 ecc657b8cd9220816eaa2d85cdaa5ae9;de;;;6.1.;;;Ringen mit einem Paradox: Komplexität der Interoperabilitätsstandards für Informationssysteme im Gesundheitswesen Medizinische Eingriffe werden oft verzögert oder fehlerhaft, wenn die für die Diagnose oder Verschreibung erforderlichen Informationen fehlen oder nicht verfügbar sind. Zur Unterstützung des erhöhten Informationsflusses hat die Gesundheitsbranche erheblich in Standards investiert, die die Art und das Format medizinischer Informationen in klinischen Gesundheitsinformationssystemen wie elektronischen Patientenaktensystemen (EMRs) spezifizieren, routinieren und vereinheitlichen sollen. Allerdings haben weniger als einer von vier kanadischen Ärzten EMRs angenommen. Eine eingehendere Analyse zeigt, dass Ärzte in standardisierten EMRs Wert sehen können, wenn sie Informationen in stark strukturierten Situationen zwischen ähnlichen Teilnehmern und ähnlichen Umgebungen austauschen müssen. Standards stellen jedoch für Praktiker restriktive Barrieren dar, wenn sie mit unklaren Situationen, unvorhergesehenen Eventualitäten oder dem Austausch von Informationen in verschiedenen Umgebungen konfrontiert sind. Diese Hindernisse sind eine zwingende Erklärung für zumindest einen Teil der beobachteten niedrigen EMR-Annahmeraten. Unsere Empfehlungen zur Verbesserung des wahrgenommenen Wertes standardisierter klinischer Informationssysteme befürworten eine Neukonzeption der Rolle von Standards, um in einigen Bereichen mehr Flexibilität zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01187-0_10 fda048c28ba45f88bd41bb5240368cf6;de;;;6.1.;;;Herausforderungen und Empfehlungen für die Politik und Praxis von Intimate Partner Stalking: eine Perspektive des Praktikerns Ausgehend von den Perspektiven zweier Praktiker mit über zehn Jahren Erfahrung im Umgang mit Stalking-Themen und eines Forschers aus dem Bereich Gewalt gegen Frauen wird dieser Beitrag die Entwicklung der US-amerikanischen Reaktion auf Stalking in der Partnerschaft beleuchten, indem zunächst Fortschritte diskutiert werden, die in Stalking-Gesetzen gemacht. Darauf folgen die praktischen Herausforderungen, denen sich Strafverfolgungsbehörden und Dienstleister trotz dieser Fortschritte weiterhin gegenübersehen, wenn sie dieser Straftat begegnen. Es gibt vier große Herausforderungen bei der Bekämpfung von Stalking mit Intimpartnern: a) Stalking bleibt ein sehr missverstandenes Verbrechen, b) der Aufbau von Stalking-Fällen erweist sich als schwierig, c) Dienstanbietern fehlen möglicherweise die Kenntnisse und/oder Ressourcen, die erforderlich sind, um effektiv auf Stalking-Opfer zu reagieren, und ) ist die Forschung zu Stalking begrenzt. Das Manuskript schließt mit praktischen Empfehlungen zur Bewältigung einiger dieser Herausforderungen.;-;-;-;https://link.springer.com/article/10.1007/s10896-020-00164-2 4da28015674b6eb26104235cc97acb7f;de;;;6.1.;;;Rassen- und Geschlechtsunterschiede in Bezug auf Gemüse, Obst und Carotinoide mit Lungenkrebsrisiko in New Jersey (USA) Wir verwendeten Daten aus einer Fall-Kontroll-Studie, die zwischen 1980 und 1983 in New Jersey durchgeführt wurde, um Rassen- und Geschlechtsunterschiede in Verbindung von Gemüse-, Obst- und Carotinoidkonsum mit Lungenkrebs zu bewerten. Die Fälle umfassten 736 weiße Männer, 860 weiße Frauen, 269 schwarze Männer und 86 schwarze Frauen mit einem Vorfall, histologisch bestätigt, primärem Krebs der Luftröhre, des Bronchus oder der Lunge. Die Kontrollen wurden durch Führerschein- und Gesundheitsfinanzierungsverwaltungsakten identifiziert und umfassten 548 weiße Männer, 473 weiße Frauen, 170 schwarze Männer und 47 schwarze Frauen. Die übliche Aufnahme von Gemüse (überwiegend gelb/grün) und Obst (überwiegend gelb/orange) sowie anderen Nahrungsquellen von Carotinoiden wurde durch einen Nahrungsfrequenzfragebogen ermittelt. Weiße Frauen zeigten signifikante inverse Assoziationen von Lungenkrebs mit Gemüse, Obst und Carotinoiden. Weiße Männchen zeigten nicht signifikante inverse Assoziationen mit Gemüse und Carotinoiden und schwarze Weibchen nur mit Gemüse. Für schwarze Männer wurden keine inversen Assoziationen gefunden. Der Verzehr von Gemüse war mit dem Risiko für alle histologischen Lungenkrebsarten verbunden, aber das Muster des steigenden Risikos mit abnehmender Aufnahme war auf Raucher beschränkt. Wir folgern, dass der Verzehr von gelbem/grünem Gemüse und Carotinoiden weißen männlichen und weißen Rauchern Schutz vor Lungenkrebs verleihen kann. Weitere Studien sind erforderlich, um die Wirkung bei Schwarzen zu klären.;-;-;-;https://link.springer.com/article/10.1007/BF00051322 e3ec144abb2bd5d29e8eb5c121ffd015;de;;;6.1.;;;Entwerfen von Informationssystemen, die Datenschutzvorfälle verwalten oder vermeiden In diesem Papier betrachten wir ein Informationssystem (IS) als eine Reihe von Technologien zusammen mit einer Reihe von Regeln für diese Technologien. Ein IS gilt als anfällig für Datenschutzvorfälle, wenn er die privaten Informationen eines Benutzers nicht vollständig schützt oder wenn ein unehrlicher Benutzer den vom IS gebotenen Datenschutz nutzen kann. Diese Arbeit identifiziert die potenziellen Datenschutzvorfälle, die in einem IS auftreten können, und schlägt ein Framework vor, das MAPI-Framework (Manage or Avoid Privacy Incidents), das IS entwickelt, um Datenschutzvorfälle zu verwalten oder zu vermeiden. Das MAPI-Framework kann auch zur Bewertung von IS verwendet werden, indem fehlende oder ungeeignete Technologien identifiziert werden, die zu Datenschutzvorfällen führen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89900-6_15 6caca15e3111b322b87e4f95d3e02b96;de;;;6.1.;;;mrgs: Ein Multi-Robot-SLAM-Framework für ROS mit effizientem Informationsaustausch Die Erkundung unbekannter Umgebungen ist ein besonders intuitiv lösbares Problem, das es ermöglicht, Roboterteams in kleinere Gruppen oder sogar in Einzelpersonen aufzuteilen, die verschiedene Bereiche der Umgebung erkunden. Während der Erkundung kann das Team diskret eine gemeinsame Darstellung der Region zusammenstellen und aufbauen. Dieser Ansatz führt jedoch zu einer Reihe neuer Probleme wie Kommunikation, Synchronisation und Informationsfusion. Diese Arbeit präsentiert;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-45956-7_3 8ecfb2cec791dcaad63ff1c08a7a1e69;de;;;6.1.;;;Bildklassifizierung als Service In diesem Kapitel besprechen wir die Aufgabe, eine Bildklassifizierung als Dienst zu erstellen. Wir decken alle Schritte dieses Prozesses ab, angefangen bei ethischen Überlegungen, Datenerhebung und Annotation, Metriken und Bewertungsverfahren, wir überprüfen verschiedene Modelltrainingsansätze und Modelltrainingsrahmen. Schließlich beschreiben wir den Modellbereitstellungsprozess.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-66741-2_9 f36e93d8030e987a3247bc29f9c7a152;de;;;6.1.;;;Flughafentechnologiemanagement Flughäfen und Fluggesellschaften, die ihre Technologie betreiben, verbesserten das Geschäft innerhalb von Flughäfen als einzigartige Einheiten und als Gruppe mehrerer und unterschiedlicher Interessengruppen mit dem Fokus, einen kostengünstigen, termingerechten und sicheren zivilen Luftverkehr zu gewährleisten. Daher müssen Flughafenbetreiber die notwendigen Maßnahmen für ein proaktives Flughafentechnologiemanagement ergreifen, um das Potenzial für Betriebsausfälle zu minimieren und die Zusammenarbeit zwischen Flughafenbehörden, Fluggesellschaften, Bodenabfertigung und Flugsicherung innerhalb der Flughäfen zu erleichtern. Darüber hinaus sind Flughafenbetreiber verpflichtet, den zukünftigen Flughafenbetrieb zu planen und zu prognostizieren, um Einnahmenpotenziale zu nutzen und die Service- und Sicherheitsqualität zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-81-322-0792-4_8 df29342f96aedf477a4b9377e16e3114;de;;;6.1.;;;Ein skalierbarer FPGA-Beschleuniger für Convolutional Neural Networks Convolution Neural Networks (CNN) haben in vielen praktischen Anwendungen, wie der Bildklassifizierung, Gesichtserkennung und Spracherkennung, unbestrittene Erfolge erzielt. Wie wir alle wissen, ist die FPGA-basierte CNN-Vorhersage effizienter als GPU-basierte Schemata, insbesondere im Hinblick auf den Stromverbrauch. Darüber hinaus werden OpenCL-basierte High-Level-Synthesetools in FPGA aufgrund der schnellen Verifikations- und Implementierungsabläufe weit verbreitet verwendet. In diesem Papier schlagen wir einen FPGA-Beschleuniger mit einer skalierbaren Architektur von tief gepipelineten OpenCL-Kerneln vor. Das Design wird durch die Implementierung von drei repräsentativen Groß-CNNs, AlexNet, VGG-16 und ResNet-50, auf Altera OpenCL DE5-Net FPGA Board verifiziert. Unser Design hat eine Spitzenleistung von 141 GOPS für den Faltungsbetrieb und 103 GOPS für das gesamte VGG-16-Netzwerk erreicht, das die ImageNet-Klassifizierung auf der DE5-Net-Platine durchführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2423-9_1 829e6c35b9bd5bedfe044dd52b956c59;de;;;6.1.;;;Eine adaptive Datenversandarchitektur für Client-Caching-Datenmanagementsysteme Der Datenversand ist eine wichtige Form der Datenverteilungsarchitektur, bei der Datenobjekte vom Server abgerufen und zwischengespeichert und an den Clientknoten bearbeitet werden. Diese Architektur reduziert die Netzwerklatenz und erhöht die Ressourcenauslastung beim Client. Objektdatenbankverwaltungssysteme (ODBMS), Dateisysteme, mobile Datenverwaltungssysteme, mehrschichtige Webserversysteme und hybride Architekturen für Abfrageversand/Datenversand verwenden alle eine Variante des Datenversands. Trotz eines Jahrzehnts der Forschung herrscht unter den Befürwortern von ODBMS immer noch ein Uneinigkeit über die Art der Datenversandarchitekturen und -algorithmen, die verwendet werden sollten. Das Fehlen sowohl robuster (in Bezug auf die Leistung) Algorithmen als auch eine umfassende Leistungsstudie, die die konkurrierenden Algorithmen vergleicht, sind die Hauptgründe für diese fehlende Übereinstimmung. In diesem Beitrag gehen wir auf beide Probleme ein. Wir präsentieren zunächst eine adaptive Datenversandarchitektur, die adaptive Datenübertragung, Cache-Konsistenz und Wiederherstellungsalgorithmen verwendet, um die Robustheit (in Bezug auf die Leistung) eines Datenversand-ODBMS zu verbessern. Anschließend präsentieren wir eine umfassende Leistungsstudie, die die konkurrierenden Client-Server-Architekturen und -Algorithmen bewertet. Die Studie verifiziert die Robustheit der neuen adaptiven Data-Shipping-Architektur, liefert neue Einblicke in die Leistung der verschiedenen konkurrierenden Algorithmen und hilft, einige bestehende Vorstellungen über einige der Algorithmen umzukehren.;-;-;-;https://link.springer.com/article/10.1023/B%3ADAPD.0000013069.97679.62 32ce6f3b0a95df05539149a415f7d975;de;;;6.1.;;;Datenstandardisierung geologischer Informationen für den Felstunnelbau Um die geologischen Informationen des Tunnelbaus im Gebirge effektiver zu verwalten und zu teilen, wird in der Studie eine Datenstandardisierung auf Basis der Struktur von AGS4.0 (Dokumentenstandardformat, Version 4.0) angewendet und erweitert, die vom Verband der Geotechnische und Geoumweltspezialisten (AGS). Durch die Datenstandardisierung werden die gewonnenen geologischen Informationen über den gesamten Lebenszyklus des Tunnelbaus ausgedrückt und gespeichert. Anschließend wird ein detaillierter Prozess der Datenstandardisierung für die Bauzeit vorgestellt. Am Beispiel des Yanjingwan-Tunnels aus der Provinz Guizhou in China wird die Datenstandardisierung von geologischen Informationen wie Gesteinsstärke, Gesteinsstrukturniveau, Diskontinuitätszustand usw. Schritt für Schritt zusammengestellt und markiert. Darüber hinaus werden mehrere Datenstandards für die geologischen Informationen hinzugefügt, um den Anforderungen des Tunnelbaus über den gesamten Lebenszyklus gerecht zu werden. Schließlich wird ein integriertes System zur Datenstandardisierung auf Basis des SQL-Servers (Structured Query Language) realisiert. Das Studium schafft theoretische Grundlagen und praktische Grundlagen für das intelligente Bauen und informationsorientierte Bauen im Gebirgstunnelbau.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-32029-4_19 6790262dabcdd70d5b609d962c423f6b;de;;;6.1.;;;Standortdatenschutz bei Vorliegen von Benutzerpräferenzen Der Standortgeheimhaltung wird bei neuen standortbasierten Diensten erhebliche Aufmerksamkeit geschenkt. Die meisten aktuellen Praktiken berücksichtigen jedoch nicht die Präferenzen der Benutzer. In diesem Papier schlagen wir eine Datenschutzlösung vor, um Benutzerpräferenzen bei der grundlegenden Abfrage von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23535-1_30 c16a67ffa081041719bc010a19ceedac;de;;;6.1.;;;Portierung eines globalen Ozeanmodells auf einen Shared-Memory-Multiprozessor: Beobachtungen und Richtlinien Ein dreidimensionales globales Ozeanzirkulationsmodell wurde so modifiziert, dass es auf dem Parallelcomputer BBN TC2000 mit mehreren Befehlsströmen/Mehrfachdatenströmen (MIMD) läuft. Zwei parallele Programmiermodelle mit gemeinsamem Speicher wurden verwendet, um das globale Ozeanmodell auf dem TC2000 zu implementieren: das TCF (TC2000 Fortran) Fork-Join-Modell und das PFP (Parallel Fortran Preprocessor) Split-Join-Modell. Die für die Parallelisierung dieses globalen Ozeanmodells auf einer Shared-Memory-MIMD-Maschine gewählte Methode wird diskutiert. Die Leistung jeder Codeversion wurde gemessen, indem die Prozessoranzahl für einen Testfall mit fester Auflösung variiert wurde. Die statisch geplante PFP-Version des Codes erreicht eine höhere parallele Recheneffizienz als die dynamisch geplante TCF-Version des Codes. Die beobachteten Unterschiede in der Leistung der TCF- und PFP-Versionen des Codes werden diskutiert. Die parallele Rechenleistung der Shared-Memory-Implementierung des globalen Ozeanmodells wird durch mehrere Faktoren begrenzt, insbesondere durch Lastungleichgewicht und Netzwerkkonflikte. Die Erfahrungen, die bei der Portierung dieser großen Anwendung in der „realen Welt“ auf einen Multiprozessor mit gemeinsam genutztem Speicher gewonnen wurden, werden ebenfalls vorgestellt, um dem Leser, der ein solches Unternehmen in Betracht zieht, einen Einblick zu geben.;-;-;-;https://link.springer.com/article/10.1007/BF01206241 35ebc4e50cd750c9846aa161531e364b;de;;;6.1.;;;Datenqualität in Registern für seltene Krankheiten Im Bereich seltener Krankheiten gelten Register als wichtiges Instrument zur Entwicklung klinischer Forschung, zur Erleichterung der Planung geeigneter klinischer Studien, zur Verbesserung der Patientenversorgung und Gesundheitsplanung. Daher werden qualitativ hochwertige Daten aus Registern für seltene Krankheiten als eines der wichtigsten Elemente bei der Einrichtung und Pflege eines Registers angesehen. Datenqualität kann als die Gesamtheit der Merkmale und Merkmale eines Datensatzes definiert werden, die seine Fähigkeit zur Befriedigung der Bedürfnisse, die sich aus der beabsichtigten Verwendung der Daten ergeben, beeinflussen. Im Kontext von Registern sind das „Produkt“ Daten, und Qualität bezieht sich auf die Datenqualität, d. h. die Daten, die in das Register eingehen, wurden validiert und können für Analysen und Forschung verwendet werden. Die Bestimmung der Datenqualität ist durch die Datenbewertung anhand einer Reihe von Dimensionen möglich: Vollständigkeit, Validität, Kohärenz und Vergleichbarkeit, Zugänglichkeit, Nützlichkeit, Aktualität, Vermeidung von Doppelerfassungen. Viele andere Faktoren können die Qualität eines Registers beeinflussen: Entwicklung eines standardisierten Formulars für Fallberichte und Sicherheitskontrollen der Informatikinfrastruktur. Angesichts der wachsenden Zahl von Registern für seltene Krankheiten, die eingerichtet werden, besteht die Notwendigkeit, einen Qualitätsvalidierungsprozess zu entwickeln, um die Qualität jedes Registers zu bewerten. Eine klare Beschreibung des Registers ist der erste Schritt bei der Bewertung der Datenqualität oder des Registerbewertungssystems. Hier berichten wir über eine Vorlage als Leitfaden zur Unterstützung von Registrierungsinhabern bei der Beschreibung ihrer Registrierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67144-4_8 acd843f934d2947e1bf631d11430566c;de;;;6.1.;;;Probleme bei der Datenerfassung Wie bei jeder Aufgabe gibt es auch bei der Datenerfassung einige Probleme, die zu weiteren Problemen führen können. Die folgende Themenliste ist zwar nicht vollständig, umfasst jedoch die häufigsten Probleme, die bei der Datenerhebung auftreten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-5494-3_3 29fcb4eac68d945be42a218e3d318960;de;;;6.1.;;;Wie sich E-Business auf den IT-Manager auswirkt Nachdem wir einige Zeit damit verbracht haben, zu definieren, was e-Business ist und wie sich neue kommerzielle Modelle auf ganze Unternehmen auswirken werden, können wir die täglichen Auswirkungen für den IT-Manager betrachten. Obwohl dies eine wesentliche Voraussetzung für die Erzielung eines echten Geschäftsnutzens in der Zukunft ist, reicht es nicht aus, die vor uns liegenden allgemeinen Herausforderungen zu verstehen, wenn nicht erkannt wird, wo Änderungen an der traditionellen IT-Praxis erforderlich sein könnten und welche Mittel oder Methoden erforderlich sind, um diese Änderungen zu bewirken.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0081-2_3 aff24fe3cc9ead501132c57a7ceeabd8;de;;;6.1.;;;Die TaxisDL Softwarebeschreibungssprache Der Zweck der Sprache TaxisDL besteht darin, den konzeptionellen Entwurf eines Informationssystems auszudrücken. Der Fokus des Designprozesses umfasst die Datenklassen des vorgeschlagenen Systems, die Funktionen und Transaktionen, die sie manipulieren, und die größeren konzeptionellen Gruppierungen dieser Aktionen zu langfristigen Aktivitäten, die wir Skripte nennen. Das Design der Sprache basiert auf Ideen aus semantischen Datenmodellen und formalen Spezifikationssprachen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-84875-9_3 684c5267a2194e2014e35a097cd8fe95;de;;;6.1.;;;Verwendung der DHCP-Technologie in einer anderen öffentlichen Umgebung Der Indian Health Service (IHS) ist Teil des US-Gesundheitsministeriums und wie die National Institutes of Health (NIH) und die Centers for Disease Control (CDC) eine Behörde des US-amerikanischen Public Health Service. Es ist verantwortlich für die umfassende Gesundheitsversorgung von etwa 1 2 Millionen Indianern und Ureinwohnern Alaskas, oft von der Geburt bis zum Tod, in ländlichen und im Allgemeinen abgelegenen Regionen des Landes, die über die kontinentalen Vereinigten Staaten und Alaska verstreut sind. Dies wird durch ein System von IHS-Direktversorgungseinrichtungen (47 Krankenhäuser und 122 ambulante Zentren), vom IHS finanzierte Stammesprogramme (weitere 7 Krankenhäuser und 149 ambulante Einrichtungen) und Dienstleistungen erreicht, die vom privaten Sektor in Auftrag gegeben werden. Die Organisation hat etwa 15.000 Mitarbeiter und ein Budget von etwa 1,7 Milliarden US-Dollar. Die Programme reichen von der Installation grundlegender sanitärer Infrastrukturen wie Wasser- und Abwassersystemen bis hin zu zahnärztlicher und medizinischer Versorgung in Einrichtungen, Gemeinden, Schulen und Heimen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-0655-2_26 1454ce11702679ef6587592a301aa485;de;;;6.1.;;;Intelligentes Kontrollsystem der Aquakulturumgebung Das Papier hat die aktuellen Aquakulturbedingungen und Kontrollprobleme der Wasserumgebungsfaktoren der Aquakultur analysiert und ein effektives Sicherheitskontrollsystem für die Zuchtintelligenz der Aquakultur entwickelt, das für die chinesische Situation geeignet ist, und die Kontrollstrategie des neuronalen Netzwerks vorgestellt, die eine dynamische Entkopplung für die Fabrikaquikultur realisiert und speziell gelöst die Wasserumweltkontrolle und so weiter die Schlüsselfragen. Die langjährige Praxis hat gezeigt, dass der Systembetrieb einfach und effektiv ist, sicher durch die Anwendung einiger Zuchtbasen in Zhenjiang, das System hat die Anforderungen der Züchter erfüllt und den internationalen Marktwettbewerb für die Aquakultur verstärkt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12220-0_33 52c8cd0b132649ee07631b307f8888a1;de;;;6.1.;;;Forschungsbedarf und -chancen: die Antwort der Waldbiodiversität auf den globalen Wandel Die Biodiversität ist in den letzten 20 Jahren zu einem wichtigen globalen Umweltproblem geworden, in einer Zeit, in der zunehmend erkannt wurde, dass Wälder und Klima auf globaler, regionaler und lokaler Ebene untrennbar miteinander verbunden sind und eine entscheidende Rolle bei der Bereitstellung von ökologischen und wirtschaftlichen Vorteilen für die Menschen auf der ganzen Welt spielen (Weltnaturschutzunion);-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-78972-4_22 f813766eeac957e8f771c7b7b5049db4;de;;;6.1.;;;Forschung zu einem Blockchain-Konsensalgorithmus basierend auf digitalem Urheberrecht Die Blockchain-Technologie ist eine dezentrale Netzwerkstruktur, die auf dem p2p-Netzwerk und der Kryptographie-Technologie als Kern basiert. Es baut Vertrauensbeziehungen im Netzwerk mit rein mathematischen Methoden auf, ohne sich auf zwischengeschaltete Plattformen zu verlassen, um Vertrauensbeziehungen aufzubauen. Um die subjektiven Rechte und Interessen des digitalen Urheberrechts besser zu schützen und das Auftreten verschiedener Verletzungsvorfälle zu reduzieren, wird ein digitaler Urheberrechtskonsensalgorithmus auf Basis der Blockchain-Technologie vorgeschlagen. Mit Hilfe von Map-Funktionsbedingungen wird die interne Datenübertragungsrate des Mehrkanalmodells verbessert, um genaue Zeitkomplexitätswerte zu erhalten und das Design des digitalen Copyright-Blockchain-Konsensalgorithmus abzuschließen. Experimentelle Ergebnisse zeigen, dass im Vergleich zum APBFT-Algorithmus der Maximalwert des DPA-Zulassungswiderstandsindex in dieser Arbeit auf 83% erhöht wird, während die gerichtete Übertragungszeit von Dateninformationen auf 0,08 s verkürzt wird, was die Wahrscheinlichkeit von verschiedenen digitale Urheberrechtsverletzungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9213-3_43 7028223395140ad89843672b12b8ff5f;de;;;6.1.;;;Internet-Web- und St.-Datenmanagement: Harmonisierung und neue Horizonte Das Internet und das World Wide Web, ein multimedialer Raum, sind zu einem populären Erfolg geworden, der für diese Art der Dokumentation überraschend ist. Dieser Erfolg ist auf die Wahl einfacher Indexierungswerkzeuge und auf eine Organisation basierend auf Hypermedia-Links und Methoden der visuellen Navigation zurückzuführen. Wir präsentieren hier einerseits eine kritische Analyse der Vor- und Nachteile dieser multimedialen Methoden, andererseits suchen wir nach möglichen Synergien mit weniger delokalisierten Specialted Information Systems (SIS), die für den Umgang mit wissenschaftlichen und technischen Daten verfügbar sind;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-85248-0_5 f66e689be4871551feff7aefe7e651e5;de;;;6.1.;;;Anfragebearbeitung in IRO-DB Es besteht ein wachsender Bedarf an Werkzeugen, die das enge Zusammenspiel von bereits existierenden relationalen Datenbanken und sich entwickelnden objektorientierten Datenbanken und Anwendungen erleichtern. Das ESPRIT-Projekt IRO-DB ist so definiert, dass es diesen Anforderungen gerecht wird. Es entwickelt Werkzeuge für den integrierten Zugriff auf relationale und objektorientierte Datenbanken und für den Entwurf und die Wartung integrierter Anwendungen in großen Föderationen heterogener Datenbanken. Dieses Papier konzentriert sich auf die Abfrageverarbeitung in IRO-DB. Der Abfrageprozessor verwaltet Abfragen gegen integrierte Objektansichten. Um seine Effizienz zu untermauern, schlägt der Anfrageprozessor verschiedene Alternativen zur Anfrageauswertung vor, indem er mehrere Optimierungsregeln definiert, die Fernzugriffe und Objektübertragungen minimieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-60608-4_47 a9dd7d593e29242ff201fad79ea31803;de;;;6.1.;;;Verfeinerung der Prozesslogik aus CNC-Teileprogrammen für die integrierte STEP-NC-konforme Fertigung prismatischer Teile Die Wiederverwendung von Bearbeitungsprozessinformationen bietet der Industrie Möglichkeiten, die Rückverfolgbarkeit, Standardisierung, Qualität und Kontrolle der Fertigung zu verbessern und gleichzeitig Kosten und Zeit zu sparen. Eine schnelle Produktentwicklung hängt stark von einer schnellen und zuverlässigen Prozessplanung und der Wiederverwendung von Wissen ab, um die Erstellung von Prozessplänen effizient und effektiv zu erleichtern. STEP-NC als STEP-konformer Standard für die CNC-Fertigung bietet eine vielversprechende Möglichkeit für die Wiederverwendung von Wissen und den Informationsaustausch über die CAx-Fertigungskette von CAD bis CNC. Die weit verbreitete Verwendung von G&M-Codes erschwert jedoch die Rückmeldung von Shopfloor-Wissen. In dieser Forschung wird zur Erfassung von Werkstatt-Know-how eine Universal Process Comprehension-Schnittstelle (UPCi) verwendet, um den Prozessplan aus Lowlevel-G&M-Codeprogrammen, die für CNC-Maschinen geschrieben wurden, zu verstehen und in einem standardisierten STEP-NC-Format darzustellen. In diesem Beitrag wird eine neuartige Methode vorgeschlagen, um das Wissen über den Bearbeitungsprozess aus CNC-Teileprogrammen mit UPCi zu erfassen und für neue Fertigungsressourcen wiederzuverwenden. Ein Beispielteil wird als Fallstudie verwendet, um das Verständnis des Prozessplans zu veranschaulichen und wie der gleiche Prozessplan verwendet werden kann, um das Produkt mit neuen Ressourcen herzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23860-4_55 0e41c92e1ac9c5d1060b179ea1a2ebc4;de;;;6.1.;;;Neue Energiepläne von Ölunternehmen Die Entwicklung der sozialen Zivilisation treibt die Entwicklung des Energiebedarfs in eine saubere, effiziente und bequeme Richtung. Der Fortschritt von Wissenschaft und Technik treibt die Transformation der Energieerzeugung voran und erreicht letztendlich eine ausgewogene Entwicklung der menschlichen Zivilisation und des Energiebedarfs.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2728-9_6 9f6dc95b354db8436f4fe68d7c8a452a;de;;;6.1.;;;Semantische Interoperabilität basierend auf Ontologie-Mapping in einer verteilten kollaborativen Designumgebung Angesichts des zunehmenden globalen Wettbewerbs ist es wichtig, den Produktdesignprozess so schnell und effizient wie möglich zu gestalten. Eine Möglichkeit, Effizienz- und Innovationsverbesserungen zu erreichen, besteht darin, dass Designer, die an einer gemeinsamen Designaufgabe arbeiten und im Designprozess interagieren, besser zusammenarbeiten, sodass unnötige Rückverfolgung und Verzögerungen vermieden werden. In einer integrierten und gleichzeitigen Designumgebung interagieren Designer und erzielen eine Vereinbarung, indem sie gemeinsame Informationen teilen. Aufgrund der Heterogenität der Informationsressourcen ist dies jedoch keine leichte Aufgabe. Wir müssen zuerst die semantische Interoperabilität lösen, um die „Kooperation“ zwischen verschiedenen Informationssystemen zu implementieren. Es gibt viele Legacy-Systeme, die auf widersprüchlichen Ontologien basieren, die die Kommunikation zwischen ihnen behindern und zum Hindernis für die Wiederverwendung von Software und die Systeminteroperabilität werden. Durch die Analyse der Beziehungen zwischen Agenten und Ontologien wird in der Arbeit ein semantischer Interoperabilitätsalgorithmus basierend auf Ontologie-Mapping vorgeschlagen. Und das hier vorgestellte DCDP-Framework bietet eine Softwarearchitektur für synchrone Groupware-Anwendungen, um mit Heterogenität umzugehen. Das Hauptmerkmal des Frameworks ist die Datenzentrierung. Die Benutzer arbeiten an und tauschen Daten aus, und die Daten werden dynamisch transformiert, um sich an die jeweilige Computerplattform anzupassen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44831-4_22 b50eeddbe0fc68bfc6083143bd6aacd7;de;;;6.1.;;;Chinesisches Satellitenprogramm Die chinesische Regierung betrachtet die Raumfahrtindustrie als einen wichtigen Teil der gesamten Entwicklungsstrategie des Landes. Nach Generationen harter Arbeit hat Chinas Raumfahrtindustrie einen einzigartigen Entwicklungsansatz entwickelt, der den nationalen Bedingungen entspricht, brillante Errungenschaften erzielt, die durch die erfolgreiche Umsetzung mehrerer Großprojekte symbolisiert wurden, und viele innovative Ergebnisse in der Weltraumforschung erzielt. Dieses Kapitel konzentriert sich auf Chinas Satellitenprogramme und führt kurz in die Entwicklungsgeschichte ein und skizziert dann spezifische Satellitenprogramme: Erdbeobachtung, Kommunikation und Rundfunk, Navigation und Positionierung sowie wissenschaftliche und technologische Testsatelliten. Schließlich geht es um die Zukunftsperspektiven des Satellitenprogramms und den internationalen Austausch und die Zusammenarbeit Chinas.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-030-22786-9_118-1 81cbbbb7b04448ae59bfd12d0e76f63a;de;;;6.1.;;;Quantifizierte Analyse von Sicherheitsproblemen und deren Abschwächung in Blockchain mithilfe von Spieltheorie Das Speichern von Daten in der Blockchain ist in der Tat eine der guten Sicherheitsmaßnahmen für Daten. Die Blockchain selbst könnte jedoch verschiedenen Arten von Sicherheitsbedrohungen ausgesetzt sein. Das Mining des Blocks in die längste Kette ist eine eingeschränkte Aufgabe. Typischerweise werden die Knoten mit hohen Investitionen als potenzielle Miner in der Blockchain ausgewählt. Für diesen Mining-Job wird ein Miner oder ein Pool von Minern zugewiesen. Die Herausforderung besteht darin, mit den ehrlichen Bergleuten gegen den anhaltenden negativen Einfluss unehrlicher Bergleute zusammenzuarbeiten. In der vorhandenen Literatur wurden erhebliche Anstrengungen unternommen, um solche Sicherheitsbedrohungen zu überwinden. Die Spieltheorie wird dabei von vielen Forschern verwendet und integriert. Dieses Manuskript zielt darauf ab, verschiedene Sicherheitsbedrohungen des Blockchain-Mining und die möglichen Ansätze zu analysieren, die behauptet haben, diese zu überwinden. Wir haben auch einige der ausgewählten, gut zitierten Lösungsansätze analysiert und korreliert, die sich der Spieltheorie bedienen, und eine vergleichende Leistungsanalyse zwischen diesen vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-75529-4_1 88c18725983b735d5af84e106e2420a5;de;;;6.1.;;;Aufkommende Technologien Wenn neue Technologien auftauchen, arbeitet das Gesundheitswesen daran, die Möglichkeiten zu nutzen, die sie bieten. Intranets, das Internet und das World Wide Web, unterstützen eine zunehmend robuste Kommunikationsumgebung. Drahtlose und tragbare Technologien bieten Zugang am Point-of-Care. Es ist klar, dass technische Innovationen weiterhin mit der Entwicklung des Gesundheitswesens Schritt halten und diese unterstützen. Wir sehen unglaubliche Möglichkeiten für Synergien zwischen diesen beiden Branchen, die sich jeweils mit erstaunlicher Geschwindigkeit verändern.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-0519-7_13 3c7b336258975219c102391ff4851525;de;;;6.1.;;;Anwendungs- und Informationsintegration Anwendungsintegration beschreibt die vernetzte Nutzung moderner Anwendungssysteme zur durchgängigen Computerunterstützung innerhalb der IDE. Die Anwendungsintegration stellt sicher, dass für jede Aufgabe und zu jedem Zeitpunkt das passende IT-Anwendungssystem zur Verfügung steht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-19357-7_18 c590579da6e9e02573dd3079cbc7377b;de;;;6.1.;;;HoCaMA: Hybrid-Multiagent-Architektur für die häusliche Pflege Die häusliche Pflege ist eines der Hauptziele von Ambient Intelligence. Die behinderte und ältere Bevölkerung, die einen bedeutenden Teil unserer Gesellschaft ausmacht, benötigt heute neue Lösungen für eine effektive häusliche Pflege. In diesem Kapitel stellen wir HoCaMA vor, eine hybride Multiagenten-Architektur, die Fernüberwachungs- und Pflegedienste für behinderte Patienten zu Hause ermöglicht. HoCaMA kombiniert Multiagentensysteme und Webdienste, um die Kommunikation und Integration mit mehreren Gesundheitssystemen zu erleichtern. Darüber hinaus konzentriert sich HoCaMA auf die Entwicklung von reaktiven Agenten, die in der Lage sind, mit verschiedenen in der Umgebung vorhandenen Sensoren zu interagieren, und umfasst ein Alarmsystem über SMS- und MMS-Mobiltechnologien. Schließlich verwendet es Radio Frequency IDentification und JavaCard-Technologien, um fortschrittliche Ortungs- und Identifikationssysteme sowie automatische Zugangskontrolleinrichtungen bereitzustellen. HoCaMA wurde in einer realen Umgebung implementiert und die erzielten Ergebnisse werden in diesem Kapitel vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84882-599-4_12 25cac8d2f10edddd52f13414417ee012;de;;;6.1.;;;Informationsdienste großer Fernerkundungsdaten Mit der rasanten Entwicklung der Erdbeobachtungstechnologien stehen verschiedene Arten von Fernerkundungsdaten zur Verfügung, darunter SAR, multispektrale optische Daten und hyperspektrale optische Daten. Die Fernerkundung befindet sich bereits im Zeitalter von Big Data, was zu großen Herausforderungen an Informationsdienste führt. Einerseits wurde der potenzielle Wert von Fernerkundungsdaten für die thematischen Anwendungen noch nicht effektiv ausgeschöpft, andererseits für einige Notfallanwendungen wie die schnelle Reaktion auf Naturkatastrophen (Erdbeben, Waldbrände usw.), Fernerkundungsdaten und daraus abgeleitete Informationen sollten sofort verarbeitet und bereitgestellt werden. Der traditionelle Datendienstmodus der Fernerkundung ist jedoch nicht in der Lage, die Anforderungen dieser Art von Anwendungen zu erfüllen. Dieses Papier schlägt ein Konzept von Informationsdiensten für große Fernerkundungsdaten vor, das auf den Anforderungen von Fernerkundungsanwendungen basiert. Zunächst werden die Herausforderungen eines großen Fernerkundungsdatendienstes diskutiert, dann werden auch das Konzept, der Rahmen und die Schlüsseltechnologien des Informationsdienstes für große Fernerkundungsdaten angesprochen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-28061-1_4 fbaa9e93d356b5f0bede07dff29a8781;de;;;6.1.;;;Innovative Qualitätsstrategien für globale Wertschöpfungsnetzwerke Viele Unternehmen agieren nicht mehr lokal in ihren Heimatmärkten, sondern haben ein globales Netzwerk von weltweiten Produktionsstandorten aufgebaut. Aufgrund der langen und diversifizierten Strukturen von Lieferketten und unterschiedlichen Reifegraden der Lieferanten entwickeln verteilte Netzwerke verschiedene Schwankungen hinsichtlich unterschiedlicher Produktqualität und Lieferzeiten, die zu Imageverlusten und finanziellen Einbußen für die Unternehmen des Netzwerks führen können . Darüber hinaus führt eine falsch umgesetzte Qualitätsstrategie in einem Netzwerk zu höheren Kosten. Die erste Idee ist, diese Netze unempfindlich gegenüber solchen Schwankungen zu machen, indem geeignete Qualitätsstrategien identifiziert und bewertet werden. Aufgrund fehlender standortspezifischer Optimierung und der komplexen Strukturen von Netzwerken ist es schwierig, geeignete Qualitätsstrategien für Produktionsnetzwerke zu finden. Die Komplexität in den Netzwerken beinhaltet unbekannte Fehlerausbreitung, begrenzte Einflussnahme durch dezentrale Strukturen und Zielkonflikte sowie unbekannte Zusammenhänge zwischen den verschiedenen Mitgliedern der Lieferkette. Das Forschungsprojekt IQ.net beschäftigt sich mit dieser Problematik, indem es innovative Methoden, Modelle und praxistaugliche Werkzeuge zur Planung, Optimierung und Steuerung von Qualitätsstrategien für global verteilte Produktionsnetzwerke entwickelt und so Null-Fehler-Produktionsnetzwerke erhält. Dieses Kapitel zielt darauf ab, verschiedene Aspekte von IQ.net zu diskutieren, darunter die Definition von Qualität in Netzwerken, die Analyse und Bewertung verschiedener Systeme zur Verwaltung netzwerkweiter Qualitätsdaten unter Berücksichtigung lokaler und globaler Daten sowie drei Kernmethoden zur Identifizierung robuster Qualitätsstrategien für spezifische Netzwerkkonfigurationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30749-2_20 89053aad22683d5aed28b8d4d10d3d0b;de;;;6.1.;;;Eine Echtzeit-Multiagenten-Informationssystemarchitektur zur aktiven Überwachung chronischer Krankheiten Im E-Health-Bereich sind Data Warehouse-Systeme zu einer wichtigen Strategie geworden, um heterogene Datenquellen zu integrieren. Für Telecare, Arzneimittelinteraktionen bei Patienten mit Mehrfachsymptomatik, elektronische Verschreibungen und Notfalldatensätze werden Data Warehouse-Technologien benötigt, bei denen eine massive Überwachung der Prozesse in Echtzeit eine proaktive Reaktion auf außergewöhnliche und zeitkritische Krisensituationen ermöglicht. Aktuelle Data-Warehousing- und Business-Intelligence-Technologien adressieren jedoch nicht direkt zeitkritisches Monitoring, Echtzeit-Datenverarbeitung und die Anpassung von Daten an analytische Anforderungen. Typischerweise wird ein Data Warehouse (DW) auf der Grundlage historischer Informationen entworfen und aufgebaut. In diesem Beitrag wird ein neues Informationssystemdesign für eine adaptive Echtzeit-Data-Warehouse-Architektur beschrieben, das den Prozess der Vorhersage und Reaktion auf E-Health-Anforderungen abdeckt, um die Reaktionszeit zu verkürzen und aktive Reaktionen von E-Health-Akteuren und operativen Mitarbeitern zu ermöglichen Systeme.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-9790-6_13 f436f94ef7a8a92271928716e7912734;de;;;6.1.;;;Bau und Entwicklung eines digitalen seismologischen Beobachtungsnetzes in China Das seismologische Beobachtungssystem in China hat sich im Zeitraum des Zehnten Fünfjahresplans rasant entwickelt. Die China Earthquake Administration (CEA) hat die Einrichtung eines digitalen seismologischen Beobachtungsnetzes in China abgeschlossen. CEA hat die Analog-Digital-Umwandlung der bestehenden seismischen Beobachtungssysteme durchgeführt und eine Reihe neuer digitaler seismischer Stationen eingerichtet. Dies deutet auf eine vollständige Digitalisierung der seismischen Beobachtung in China hin. Dieses Papier bietet einen Überblick über den Maßstab, das Layoutprinzip und die wichtigsten Funktionen des aktualisierten nationalen digitalen Seismographennetzes, des regionalen digitalen Seismographennetzes und des digitalen Seismographennetzes für die Vulkanüberwachung und mobiler digitaler Seismographennetze in China.;-;-;-;https://link.springer.com/article/10.1007/s11589-008-0535-3 f017f58f81f13bd27af934de5a1be695;de;;;6.1.;;;Virtuelle zwischenstaatliche Verknüpfung durch das Netzwerk zum Austausch von Umweltinformationen In den letzten zehn Jahren haben die US-Umweltschutzbehörde (EPA) und die Bundesstaaten bei der Entwicklung einer webbasierten Initiative zum Informationsaustausch zusammengearbeitet, die den Umweltbehörden der Bundesstaaten einen einfachen Zugang zu den Umweltüberwachungsdaten des Bundes und zu den Umweltdaten anderer Bundesstaaten bietet und den EPA-Zugriff auf Daten aus staatlichen Quellen. Das Environmental Information Exchange Network (EIEN) hat in jedem Bundesland grundlegende Knotenpunkte für den Datenaustausch eingerichtet. Mittels multipler Regressionsanalyse untersuchen wir die Faktoren, die für die Anzahl und den Entwicklungsstand des Datenaustauschs verantwortlich sind, an dem sich die Staaten ab 2009 beteiligen. Insgesamt stellen wir fest, dass administrative Faktoren, insbesondere das Förderprogramm der EPA, wichtiger sind als politische oder ökologische Bedingungen. Die Teilnahme an dem Austausch ist nicht nur wichtig, um die Kosten für die Datenberichterstattung und -kommunikation zu senken, sondern auch als Vorbote für eine eventuell stärkere zwischenstaatliche Umweltzusammenarbeit. Auch wenn hier noch keine eindeutigen Hinweise auf einen Übergang zur Zusammenarbeit zu erkennen sind, gibt es einige Hinweise darauf, dass er sich mit der Zeit ergeben könnte.;-;-;-;https://link.springer.com/article/10.1007/s00267-011-9760-y 90e412177cfcc8fa5154ca817f9519fa;de;;;6.1.;;;Auf dem Weg zu Modellen zur Wahrung der Privatsphäre angesichts der Ausbeutung von Metadaten Es ist allgemein bekannt, dass die heutige Gesellschaft enorme Datenmengen erzeugt, von denen ein Großteil verwendet wird, um die entstehende digitale Datenwirtschaft voranzutreiben. Aufgrund der Datenüberwachung und der damit verbundenen Bedenken haben der Umfang und die Spezifität dieser Daten jedoch gut dokumentierte Datenschutzbedenken hervorgerufen. Zu diesen Bedenken gehört die ungeregelte Sammlung von Online-Metadaten. Obwohl Metadaten häufig verwendet werden, sind sie ein Begriff, den nur wenige verstehen. Doch sein Reichtum, seine Verbreitung und seine Sammlung haben für viele ernsthafte Auswirkungen. In diesem Papier beschreiben wir erste Arbeiten in Bezug auf eine Möglichkeit, Benutzern die Kontrolle des Zugriffs auf sie betreffende Metadaten zu ermöglichen, um diese Auswirkungen zu adressieren. Dazu nutzen wir die Arbeit des Solid-Datendezentralisierungsprojekts und bauen auf dem Konzept der kategoriebasierten Zugriffskontrolle auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72465-8_14 ea33e79b4c25d94288a277c00ec8b631;de;;;6.1.;;;Ein BMS-Client und -Gateway mit BACnet-Protokoll Ein Gebäudemanagementsystem (BMS) ist ein computergestütztes Kontrollsystem, das in Gebäuden installiert ist und die mechanische und elektrische Ausrüstung des Gebäudes wie Lüftung, Beleuchtung, Energiesysteme, Feuersysteme und Sicherheitssysteme steuert und überwacht. Ziel ist es, Elemente des BMS über einen offenen Standard namens BACnet zu integrieren. BACnet steht für Building Automation Control and Network. Es ist das in der Industrie am weitesten verbreitete Protokoll für die Automatisierungssteuerung, das zur Steuerung/Überwachung des Status verschiedener Einheiten verwendet wird. Mit der gleichen Philosophie kann auch jedes in einem Unternehmen installierte Sicherheitssystem gesteuert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22555-0_45 1ce0002582d5fe8229af9ffbdc8860d8;de;;;6.1.;;;Auswahl eines ETL-Tools In den vorherigen Kapiteln haben wir nicht nur die Grundlagen der Migration/Integration erörtert, sondern auch die Arten von Dokumenten, die für die Entwicklung eines Kommunikationsflusses und eines strategischen Plans erforderlich sind. Das zentrale Thema bei all dem ist, dass;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-5653-4_5 9cd90f3548720249fdb2e13f3fdcebaf;de;;;6.1.;;;Die Fallstudien Die Accenture-Fallstudie, die die organisatorischen Best Practices eines bekannten internationalen Dienstleisters analysiert, ermöglicht die detaillierte Untersuchung der Strategie der Bereitstellung von Offshoring/Outsourcing-Dienstleistungen über einen westlichen Vermittler.;-;-;-;https://link.springer.com/chapter/10.1057/9780230594166_7 47800acc2792f3bb89c800af65970a50;de;;;6.1.;;;Wo soll man anfangen und wie man vorgeht In diesem Kapitel wird davon ausgegangen, dass Sie ein OBE-Produzent sind und wissen möchten, wo Sie mit der Evaluierung Ihres Programms beginnen und wie Sie logisch vorgehen müssen. Die meisten meiner Freunde als Programmadministratoren wollen oder müssen ihre Programme evaluieren, wissen aber oft nicht, was das eigentlich bedeutet. In diesem Zusammenhang gibt es zwei Fragen, die Sie sich stellen möchten. Erstens: „Zu welchem ​​Zweck werde ich die Ergebnisbewertungsdaten verwenden?“ Um diese Frage zu beantworten, müssen Sie proaktiv sein und wissen, wohin Sie mit Ihrer Bewertung gehen. Wie wir in Tabelle 1.2 gesehen haben, sind die drei Hauptzwecke der OBE Effektivität, Auswirkung und Nutzen-Kosten-Analyse.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-2399-1_2 17029d12ba681390c59467ae0d2c5852;de;;;6.1.;;;Einführung eines Wissensmanagementsystems für den technischen Support in der Bauwirtschaft Das „Wissensmanagementsystem“ wurde aus der Notwendigkeit einer komfortablen Kommunikation und Produktivitätssteigerung eingeführt, die bestehenden Altsysteme haben Einschränkungen wie die geringe Effektivität beim Informationsaustausch und solche Funktionen. Diese Studie entwickelte ein verbessertes Bauinformationsmanagementsystem, das die Funktionen des Speicherns, Suchens und Teilens der Informationen verbesserte. Das vorgeschlagene „Knowledge Document Management (KDM) Portal“ kann Wissensmanagement über verschiedene Zugriffsmethoden durchführen. Persönliche Dateien können mit einem Dateibetrachter und erweiterten Ansichtsfunktionen verwaltet werden. Das System ermöglicht auch eine „Schnellsuche“ mit einem Hervorhebungssystem innerhalb der Textdateisuche.;-;-;-;https://link.springer.com/chapter/10.1007/11596981_110 6082fb59cd17a4daa334b38aa7837413;de;;;6.1.;;;Integriertes biomedizinisches System für die ubiquitäre Gesundheitsüberwachung Wir schlagen ein verteiltes System vor, das eine globale und ubiquitäre Gesundheitsüberwachung von Patienten ermöglicht. Die biomedizinischen Daten werden von tragbaren Gesundheitsdiagnosegeräten erfasst, die verschiedene Arten von Sensoren umfassen, und an die entsprechenden Gesundheitsüberwachungszentren übermittelt. Die permanenten medizinischen Daten der Patienten werden in den entsprechenden Home-Datenbanken gespeichert, während die gemessenen biomedizinischen Daten an das Visitor Health Monitor Center und die Besucherdatenbank gesendet werden, die den Bereich des aktuellen Aufenthaltsorts des Patienten versorgt. Durch die Kombination der gemessenen biomedizinischen Daten und der permanenten medizinischen Daten können Gesundheitszentren die erforderlichen Maßnahmen koordinieren und den lokalen medizinischen Teams helfen, schnell die besten Entscheidungen zu treffen, die für die Gesundheit des Patienten entscheidend sein können und die Kosten senken können des Gesundheitsdienstes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74573-0_41 c181e6164fe59968022acd622f7b47c3;de;;;6.1.;;;Ein CH-basiertes integratives Management-Framework zum Aspekt der Wertpriorität Die Denkmalpflege ist nicht nur ein internationaler Trend des 21. Jahrhunderts, sondern eine der wichtigsten Politiken jedes Landes. In der Vergangenheit wurde es einst in die Disziplinen Literatur, Geschichte, Kunst und Ingenieurtechnik eingeteilt. Den Fortschritten der Digitaltechnologie folgend, wurden Anwendungen der Technologie in vielen verschiedenen Bereichen weit verbreitet. Der Einsatz dieser Technologie wird jedoch selten in die Denkmalpflege und Integrationsstudie aufgenommen. Der Zweck dieses Projekts besteht darin, zu zeigen, wie die fortschrittliche Technologie vollständig genutzt werden kann, um einen effektiveren Weg zur Erhaltung historischer Monumente für die zukünftige Wiederverwendung zu finden. Dieses Papier soll über ein vorläufiges Ergebnis eines Projekts mit dem Titel „Ein CH-basierter integrativer Managementrahmen zum Wertprioritätsaspekt“ berichten, das hauptsächlich darauf abzielt, eine Informationsaustauschplattform zusammen mit einem mobilen Mechanismus für die Verwaltung historischer Denkmäler und die Wiederverwendung von Sicht der Regierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34234-9_90 49ce1c35a1bb2ed04586dc932589425d;de;;;6.1.;;;Aspekte des Produktlebenszyklus Parametrisches CAD ist heute in vielen Unternehmen, einschließlich KMU, ein etablierter Weg, um Routinekonstruktionen zu führen. Dennoch besteht noch eine Lücke vor dem Umstieg auf diese Bemessungsmethode. Bei der Auswahl der richtigen Parameter, der richtigen einzustellenden Werte oder ihrer Variationsskalen stellen sich viele Fragen. Dieser Artikel stellt die Möglichkeiten dar, die eine CAD-Lösung in Verbindung mit einem PLM-Tool (nämlich ACSP) und einer KM-Lösung gewinnen kann. Es werden praktische Praxisbeispiele für den Einsatz einer solchen Lösung gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-2-287-48370-7_9 589bff49f47a6b5e26666ee320d2b59a;de;;;6.1.;;;Social CRM-Fähigkeiten und -Bereitschaft: Erkenntnisse griechischer Tourismusunternehmen Technologische Fortschritte und Veränderungen im Verbraucherverhalten verwandeln CRM von einem transaktionalen zu einem dialogorientierten Ansatz (sogenanntes Social CRM), der Kunden als Mitgestalter von Beziehungen befähigt. Begrenzte Untersuchungen haben die Fähigkeiten der Unternehmen untersucht, die erforderlich sind, um Social Media effektiv in CRM zu integrieren. Um diese Lücke zu schließen, erstellte eine Literaturrecherche eine vorläufige Liste von Social CRM-Funktionen, die durch die Erhebung von Daten aus der griechischen Tourismusbranche weiter verfeinert und angereichert wurde. Die Erkenntnisse verschiedener Interessengruppen (Tourismusfachleute, Wissenschaftler und IT-Anbieter) und Quellen (Beobachtungen, Dokumente, Stellenbeschreibungen) ergaben eine umfassende Liste der Social-CRM-Fähigkeiten und zeigten die Social-CRM-Bereitschaft griechischer Tourismusunternehmen. Die folgenden Fähigkeiten werden diskutiert: Organisationskultur und -management, Informationsressourcenmanagement, IT-Infrastruktur, Geschäftsstrategie, kundenzentrierte Prozesse, Kommunikation, Leistungsmessung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-28231-2_23 e3d398810efd1dff9a4cd8de7bf7d4f3;de;;;6.1.;;;PowerApps und Flow Wir beginnen mit der Verwendung von Microsoft PowerApps und Microsoft Flow mit SharePoint Server 2019 über das Microsoft On-Premises Data Gateway. Microsoft Flow und PowerApps sind die empfohlene Methode zum Automatisieren von Geschäftsprozessen und zum Erstellen von Apps für SharePoint 2019-Hybridumgebungen und SharePoint Online. Diese Dienste sind immer noch reine Cloud-Dienste, d. h. sie werden nur in der Cloud ausgeführt, aber Sie können sie in lokale Daten integrieren. In diesem Kapitel werden die Installation eines hochverfügbaren Datengateways sowie Beispiele für die Verwendung von PowerApps und Flow mit lokalen SharePoint-Daten behandelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-4526-2_15 0a3a260081c03d41f96d690fc39865b5;de;;;6.1.;;;Trends in der Prozessanalytik: Aktueller Stand in der Bioprozesstechnik Prozessanalytische Technologie (PAT), die regulatorische Initiative zur Einbeziehung von Qualität in die pharmazeutische Herstellung, ist ein Gebiet von intensiver Forschung und Interesse. Wenn PAT effektiv auf Bioprozesse angewendet wird, kann dies das Prozessverständnis und die Kontrolle verbessern und das Risiko von minderwertigen Arzneimitteln für Hersteller und Patienten mindern. Um die Vorteile von PAT zu optimieren, muss das gesamte PAT-Framework betrachtet und jedes Element von PAT sorgfältig ausgewählt werden, einschließlich Sensor- und Analysetechnologie, Datenanalysetechniken, Regelstrategien und -algorithmen sowie Prozessoptimierungsroutinen. In diesem Kapitel wird der aktuelle Stand der PAT in der biopharmazeutischen Industrie erörtert, einschließlich mehrerer Fallstudien, die den Reifegrad verschiedener PAT-Tools demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/10_2017_18 8569675f9f9222d4007d507d6f86d6e6;de;;;6.1.;;;Bereitstellung von Definition und zeitlicher Struktur für Multimediadaten Derzeit werden Multimedia-(MM)-Anwendungen ad hoc vorbereitet. Bilder oder Videos werden normalerweise vom MM-Autor produziert. Die MM-Anwendung selbst besteht aus einer spezifischen Kombination aus einer Hardwareplattform und einer Autorensoftware und enthält typischerweise ihre eigenen spezifischen Daten. Heutzutage sind MM-Daten normalerweise mit einer bestimmten Plattform oder Anwendung verbunden, aber zukünftige MM-Entwickler werden Repositorys mit wiederverwendbaren Daten verwenden, die von verschiedenen Anwendungen und über verschiedene Plattformen hinweg geteilt werden. Das Layered Multimedia Data Model (LMDM) betont die gemeinsame Nutzung von Daten und Komponenten, indem es den Prozess der MM-Anwendungsentwicklung in kleinere, überschaubarere Teile aufteilt. Insbesondere betont das LMDM die konzeptionelle Trennung, Manipulation und Präsentation von Daten. In Kombination mit einer Sammlung von MM-Daten ermöglicht das LMDM die Beschreibung einer Vielzahl von MM-Zusammensetzungen. Dieses Papier beschreibt die ersten beiden Schichten des LMDM, die sich mit der Datendefinition und der Spezifikation von zeitlichen Strukturen befassen, die von verschiedenen MM-Präsentationen wiederverwendet werden können. Mehrere Beispiele demonstrieren die Vorteile des geschichteten Paradigmas: modulare, wiederverwendbare Komponenten und Isolierung von Plattformabhängigkeiten.;-;-;-;https://link.springer.com/article/10.1007/BF01832142 87dd2130ff50fe0fbbe8f761546e411b;de;;;6.1.;;;Hochauflösendes Bilddatenerfassungsschema für die Straßenerfassung unter Verwendung von Weitwinkelkameras für allgemeine Fahrzeugkriterien, um gesammelte Bilder für Superauflösung einzuschließen/auszuschließen Fisheye-Kameras oder Weitwinkelkameras im Automobilbereich werden künftig als „verteilte Sensoren im täglichen Transport“ vielfältige Anwendungen haben – Objekte am Straßenrand werden häufig von mehreren Fahrzeugen mehrfach beobachtet. Obwohl die Objektbereiche aufgrund des Charakters des Objektivs oft mit relativ geringer Bildqualität (geringe Auflösung und große Unschärfe) erfasst werden, ist es möglich, ihre Qualität durch Nachbearbeitung mit Super Resolution (SR)-Technologie zu verbessern. Hier muss entschieden werden, welche Bilder als Eingaben für SR verwendet werden sollen: eine größere Anzahl von Bildern geringerer Qualität oder weniger Bilder höherer Qualität. Wir haben die Qualität des Eingangsbildes bewertet und diskutiert, die notwendig ist, um die effektivsten SR-Ergebnisse zu erzielen, wobei wir uns insbesondere auf den Grad der Bildunschärfe konzentriert haben. Als Schlussfolgerung haben wir ein Kriterium gefunden, das sich auf den Unschärfegrad des anfänglichen Eingabebilds von SR bezieht. Dann betrachteten wir seine potenzielle Verwendung als Voraussetzung für die Beobachtung von Straßenumgebungen.;-;-;-;https://link.springer.com/article/10.1007/s13177-020-00243-0 1fcda092015944c5e098ab73227cc213;de;;;6.1.;;;Einführung in Azure Cosmos DB Der Datenbankbereich wurde stark von relationalen Datenbankverwaltungssystemen (oder RDBMSs) wie Microsoft® SQL Server oder Oracle dominiert. Diese Dominanz wurde zum Teil durch die breite Palette an Lösungen ermöglicht, die auf diesen Systemen aufgebaut werden können, aber auch durch die verfügbaren leistungsstarken Produkte. Es gibt jedoch einen anderen Ansatz für die Datenverwaltung, der allgemein als NoSQL bekannt ist. Der Begriff;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-3351-1_1 3160565d2ff7e163d4345eeec8ac3016;de;;;6.1.;;;Initiierung und Organisation eines Datenbankprogramms für Lebensmittelzusammensetzungen Die Erstellung einer Datenbank zur Lebensmittelzusammensetzung erfordert idealerweise einen integrierten Ansatz für die Generierung, Erfassung, Verarbeitung, Verbreitung und Nutzung von Daten zur Lebensmittelzusammensetzung. Der organisatorische Rahmen eines solchen Programms hängt von den Richtlinien und Verfahren ab, die in dem Land oder der Region, in dem das Programm eingerichtet wird, bereits befolgt werden. Tatsächlich kann die nationale Lebensmittel- und Ernährungspolitik des betreffenden Landes bereits die Einrichtung oder Aktualisierung einer Datenbank über die Zusammensetzung der Lebensmittel begünstigen (z. B. Langsford, 1979). Jedes neue Programm sollte darauf abzielen, sich in den Rahmen der bestehenden nationalen Politik einzufügen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-3544-7_3 38f8b64ffc8dcfa2f8f9880c7a6af4d9;de;;;6.1.;;;Corporate Social Responsibility und Corporate Governance: Rolle des Kontexts im internationalen Umfeld Diese Forschung zielt darauf ab, die Beziehung zwischen Corporate Governance und CSR zu untersuchen: Welches sind die wichtigsten Faktoren, die eine direkte Rolle bei der Etablierung dieser Beziehung spielen? Wie wirken sich Kontext und institutioneller Hintergrund auf das Verhältnis von CSR und Governance aus? Anhand eingehender halbstrukturierter Interviews aus zwei Arten von Governance-Systemen in drei Ländern über einen Zeitraum von drei Jahren hat diese Studie gezeigt, dass CSR in der Praxis in unterschiedlichen Settings sowohl als Strategie als auch als Reaktion auf unterschiedliche Triebkräfte eingesetzt wird. Wir nennen dies adaptive Governance, bei der Governance als ein flexibles Handlungssystem definiert werden kann, das strategische und überwachende Aktivitäten umfasst, das die Art und Weise bestimmt, wie ein Unternehmen seine Verantwortung gegenüber seinen Aktionären und Stakeholdern wahrnimmt und das zu jedem Zeitpunkt durch die Wechselbeziehung institutioneller Treiber und Verhaltensnormen. Governance-Systeme und ihre Wechselbeziehungen zu CSR werden entsprechend dem nationalen und institutionellen Kontext, der wirtschaftlichen Situation und den Auswirkungen auf die Branche als fließend gezeigt. In den Augen der Praktiker umfasst Corporate Governance sowohl strukturelle und verhaltensbezogene Faktoren als auch Verantwortlichkeiten und Handlungen gegenüber Aktionären und Stakeholdern. Kontextfaktoren, die diese Studie als wichtig für die Einbeziehung von CSR in die Governance hervorhebt, umfassen das wirtschaftliche Umfeld, das nationale Governance-System, Regulierung und Soft Law, Aktionäre, nationale Kultur, Verhaltensnormen und Auswirkungen auf die Branche. Hypothesen zu den Auswirkungen institutioneller Kontexte, Branchenauswirkungen und wirtschaftlicher Situationen auf verschiedene Arten von CSR-Maßnahmen werden für die weitere Forschung vorgeschlagen.;-;-;-;https://link.springer.com/article/10.1007/s10551-013-1745-8 09acc7259a41afa6a5d6a2d9e05374ce;de;;;6.1.;;;Erhaltung und nachhaltiges Management lokaler Hotspots der Biodiversität Der Erhalt und die nachhaltige Bewirtschaftung von Ökosystemen sind die wesentlichen Bestandteile bei der Verfolgung ökologisch, ökonomisch und sozial nachhaltiger Entwicklungsziele. Dies erfordert ein Verständnis der komplexen Funktionsweise von Ökosystemen und die Anerkennung der gesamten Bandbreite und Vielfalt der Ressourcen, Werte und ökologischen Dienstleistungen, die sie darstellen. Die ökologisch sensiblen Regionen (ESR) oder die „ökologischen Einheiten“ sind die Hotspots der Biodiversität mit außergewöhnlichen biotischen und abiotischen Elementen. Die Identifizierung von ESRs unter Berücksichtigung räumlicher sowohl ökologischer als auch sozialer Dimensionen von Umweltvariablen hilft bei der ökologischen und Erhaltungsplanung gemäß dem Biodiversity Act, 2002, Government of India. Die aktuelle Forschung versucht, ökologische und umweltbezogene Überlegungen in die Verwaltung zu integrieren und priorisiert Regionen als ESR 1–ESR 4 durch Gewichtungsbewertungsmetriken auf lokaler Verwaltungseinheit – Panchayat-Ebenen im Bezirk Uttara Kannada, Central Western Ghats, Bundesstaat Karnataka unter Berücksichtigung von Attributen wie biologischen, geo -klimatisch, sozial usw. Die Priorisierung von ESRs hilft bei der Umsetzung des Rahmens für nachhaltige Entwicklung mit den geeigneten Erhaltungsstrategien durch die Einbeziehung lokaler Interessengruppen. Die Geovisualisierung von Hotspots der Biodiversität auf lokaler Ebene ermöglicht es dem Regionalplaner, geeignete Erhaltungsstrategien für eine nachhaltige Bewirtschaftung insbesondere in einem definierten geografischen Gebiet zu entwickeln. Webbasiertes SDSS wird durch FOSS implementiert: Freie und quelloffene Software würde bei der umsichtigen Nutzung natürlicher Ressourcen helfen und gleichzeitig die Vision des Biodiversity Act von 2002 zur Stärkung von Biodiversity Management Committees in Panchayat auf der Grundlage des Wissens über den lokalen Artenreichtum mit ökologischen Zustand.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2330-0_27 b184a110f1734869a96c3715224788d3;de;;;6.1.;;;Personalisierte Kryptographie im kognitiven Management Eines der bestehenden Probleme des Informationsmanagements ist die Informationssicherheit. In diesem Aspekt besteht eine mögliche Lösung darin, Informationen zwischen einer Gruppe von Personen aufzuteilen, die berechtigt sind, diese Informationen zu verwalten. Informationsaustauschprozesse ermöglichen es, die Informationen vor der Offenlegung zu schützen. In diesem Papier wurde der Prozess der Aufteilung der Informationen durch die Phase der biometrischen Identifizierung verbessert. Zur Verwaltung sehr wichtiger und strategischer Daten werden sichere Informationsprozesse mit biometrischer Identifikation eingesetzt. In diesem Beitrag werden die Fragen der persönlichen Kryptographie vorgestellt, die als Kombination der Aufgaben der Informationsklassifizierung und biometrischer Verfahren, die für diese Aufgaben verwendet werden, verstanden werden. Die Techniken der biometrischen Datenkennzeichnung werden an den Beispielen von Datenteilungs- und Freigabeprotokollen vorgestellt, erweitert um die Stufen der Personenidentifikation und -verifizierung. Diese Art von Lösungen wird für die Aufgaben einer geeigneten Aufteilung der gemeinsam genutzten geheimen Informationen vorgestellt. Darüber hinaus stellen wir den Verwaltungsprozess von Schattensätzen vor, d. h. von Teilen der geteilten, geheimen Informationen. Die Prozesse des geheimen Datenmanagements beziehen sich auf Aufgaben des kognitiven Managements, verstanden als Management, das auf der Grundlage des Verständnisses der Bedeutung der verarbeiteten Daten ausgeführt wird.;-;-;-;https://link.springer.com/article/10.1007/s00500-017-2546-2 1e583d83d03a8ffec3549418c2dd0d4b;de;;;6.1.;;;Beweiserhebung für den Internationalen Strafgerichtshof mit Daten und quantitativer Analyse Die Justizsysteme vieler Länder erkennen den Wert wissenschaftlicher Beweise an, einschließlich statistischer Datenanalysen in vielen Zivil- und Strafsachen. Quantitative Analysen von Menschenrechtsverletzungen können auch Beweiskraft haben, die mit DNA-Tests, Forensik und chemischen Analysen vergleichbar ist. In diesem Kapitel beschreiben und diskutieren wir Beweisfragen, die in Internationalen Strafgerichtshöfen auftreten, die mutmaßliche Täter schwerer Menschenrechtsverbrechen vor Gericht stellen. Unser Ziel ist es, die effektive Nutzung statistischer und demografischer Daten und Methoden in diesen Einstellungen zu fördern. Zu diesem Zweck erläutern wir deren potenzielle Vorteile in diesem speziellen Rechtsumfeld und diskutieren Probleme bei deren Anwendung in der Hoffnung, eine offene Diskussion zwischen verschiedenen Akteuren anzuregen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-72837-7_10 38f970c69b765aa0442b20f9d62447cb;de;;;6.1.;;;Informationsbedarf und Forschungsprioritäten Der US Global Research Plan (Committee on Earth Sciences, 1989) und das International Geosphere-Biosphere Program (IGBP, 1988) wurden geschaffen, um die Auswirkungen des globalen Klimawandels zu bewerten, konnten jedoch den Folgen des Klimawandels nicht viel Aufmerksamkeit schenken auf die menschliche Gesundheit und das Wohlergehen haben. Obwohl Forscher und politische Entscheidungsträger erkennen, dass der Klimawandel komplexe Auswirkungen auf die Ressourcen haben wird (Abb. 1), haben die Sozial- und Medizinwissenschaften im Allgemeinen keine angemessene nationale Aufmerksamkeit unter dem Banner des globalen Wandels erhalten. Um dieses Ungleichgewicht zu beseitigen, muss die Forschungsgemeinschaft im Bereich der öffentlichen Gesundheit eine koordinierte nationale Anstrengung unternehmen, damit die Sozial- und Medizinwissenschaften ebenso umfassend vertreten sind wie andere wissenschaftliche Disziplinen. Gegenwärtig haben die Sozialwissenschaften vor allem durch politische und sozioökonomische Analysen Fuß gefasst, doch wird der öffentlichen Gesundheit wenig Aufmerksamkeit geschenkt. Tatsächlich ist die Finanzierung der Public-Health-Forschung selbst im Vergleich zur Förderung anderer Sozialwissenschaften gering.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-0443-9_17 4cc47345cbc87e02210e14fed4b87562;de;;;6.1.;;;Trust Management Framework zur Abwehr von DDoS-Angriffen auf Anwendungsebene im Cloud Computing Es gibt eine neue Art von Denial-of-Service-Angriffen, die darauf abzielen, Ressourcen zu missbrauchen und die Kosten für Cloud Computing in die Höhe zu treiben. Obwohl die Auswirkungen weniger weit verbreitet sind als bei einem herkömmlichen DDoS auf Netzwerkebene. Der Absturz eines Servers ist in der Cloud nicht immer einfach, da bei Bedarf zusätzliche Ressourcen bereitgestellt werden können, um starke Nachfragespitzen zu unterstützen. Diese Ressourcen sind jedoch nicht kostenlos und ein Angriff könnte es wirtschaftlich unerschwinglich machen, die angegriffene Cloud oder ihre Dienste am Laufen zu halten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29852-3_14 d4ac1f2fa4700dcdbe8d8e1d948b5ebd;de;;;6.1.;;;Probabilistische Quoren für dynamische Systeme Ein Quorumsystem ist ein Satz von Sätzen, bei dem sich alle zwei Sätze im Quorumsystem überschneiden. Quorum-Systeme sind wohlbekannte Bausteine ​​zum Verwalten von Informationen in einem verteilten System, während gleichzeitig eine hohe Verfügbarkeit und ein guter Lastausgleich bereitgestellt werden. Probabilistische Quorumsysteme (PQS) sind Varianten von Quorumsystemen, die die strenge Schnittmengenanforderung lockern. Sie sind aufgrund ihrer Einfachheit und hocheffizienten Verfügbarkeit – Lastausgleichskompromisse – besonders attraktiv für Großsysteme. Wir führen skalierbare Techniken ein, die ein PQS in einer stark dezentralisierten und hochdynamischen Umgebung aufrechterhalten. Wir stellen uns zwei Herausforderungen. Zunächst zeigen wir, wie PQS effizient realisiert werden kann, auch wenn jeder Prozess nur eine konstante Anzahl anderer Mitglieder kennt. Zweitens stellen wir Algorithmen bereit, die die Quoren adaptiv weiterentwickeln, um sich an die Veränderungen im System anzupassen, die durch Prozesse verursacht werden, die das System im Laufe der Zeit verlassen und dem System beitreten.;-;-;-;https://link.springer.com/article/10.1007/s00446-005-0139-2 5b4bd95034d4c028ed06b71333e632d6;de;;;6.1.;;;Blockchain in verteilten CAD-Umgebungen Verteilte und kollaborative CAD-Umgebungen (Computer Aided Design) haben in letzter Zeit in technischen Bereichen wie BIM (Building Information Modelling) und GIS (Geographical Information Systems) im Bauwesen oder PDM/PLM (Produktdatenmanagement/Produktlebenszyklusmanagement) große Popularität erlangt. im Maschinenbau. Eines der Schlüsselprobleme bei diesen Anwendungen ist die Datenintegrität und das Vertrauen in die in Informationssystemen gespeicherten Informationen. Die Blockchain-Technologie, die ursprünglich zur Unterstützung der vertrauenswürdigen Behörde für Kryptowährungen erfunden wurde, öffnete ihren Weg für andere Bereiche und könnte die Lösung für das Problem der Datenintegrität in verteilten CAD-Umgebungen sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-18072-0_3 40e09d9d4173859308bcea57e0b52505;de;;;6.1.;;;Auf dem Weg zu einer pfadbasierten klinischen Krebsregistrierung in Krankenhausinformationssystemen Die klinische Krebsregistrierung ist eine wichtige Datenquelle zur Unterstützung der Krebsforschung. Die Bereitstellung von Daten an Krebsregister erfordert jedoch in der Regel einen zusätzlichen Aufwand, da die automatisierte Extraktion der benötigten Daten aus der bereits vorhandenen klinischen Dokumentation oft nicht möglich ist. In diesem Beitrag zeigen wir, wie die konzeptionellen Modelle von Clinical Pathways (CPs), die unter Verwendung der domänenspezifischen Modellierungssprache erstellt wurden, erweitert um die auf der Grundlage des gemeinsamen onkologischen Basisdatensatzes rekonstruierten Datenmodelle, ein modellbasiertes Design und die Entwicklung von prozessorientierte Krankenhausinformationssysteme und tragen zur Steigerung der Datenqualität und Effizienz der klinischen Krebsregistrierung bei.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-26585-8_6 aee2244682706ae7a774cc45d832447a;de;;;6.1.;;;Das Planungsaudit Bei der Planung auf Organisationsebene wird der Datenerhebungsprozess oft als „Planungsaudit“ bezeichnet. Das Planungsaudit kann verschiedene Formen annehmen und umfasst typischerweise ein internes Audit und ein externes Audit. Die Art der Prüfung hängt von der Art der durchgeführten Planung ab. Die Prüfung für ein strategisches Planungsprojekt unterscheidet sich von der für einen Marketingplan. Andererseits betonen die strategische Planung und die Marketingplanung die externe Revision gegenüber der internen Revision, während die Finanzplanung, die Personalplanung und die Betriebsplanung mehr Gewicht auf die interne Revision legen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-306-47890-1_7 9fda19fc20b1866d6504479e4af3a961;de;;;6.1.;;;Systeme für ein datenschutzfreundliches Mobilitätsdatenmanagement Die zunehmende Verfügbarkeit von Daten aufgrund der Explosion mobiler Geräte und Ortungstechnologien hat zur Entwicklung effizienter Management- und Mining-Techniken für Mobilitätsdaten geführt. Die Analyse solcher Daten kann jedoch erhebliche Risiken für die Privatsphäre von Personen mit sich bringen. Ein typischer Ansatz für die datenschutzbewusste gemeinsame Nutzung von Mobilitätsdaten zielt darauf ab, eine anonymisierte Version des Mobilitätsdatensatzes zu veröffentlichen, wobei davon ausgegangen wird, dass die meisten Informationen im Originaldatensatz offengelegt werden können, ohne dass eine Verletzung der Privatsphäre verursacht wird. Andererseits wird bei einer alternativen Strategie davon ausgegangen, dass die Daten intern bei der aufnehmenden Organisation verbleiben und dass datenschutzwahrende Mobilitätsdatenmanagementsysteme für den datenschutzbewussten Austausch der Mobilitätsdaten zuständig sind. In diesem Kapitel stellen wir den Stand der Technik des letztgenannten Ansatzes vor, einschließlich Systemen wie HipStream, Hermes++ und Private-Hermes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98161-1_11 92a06fe0331b5fab2006d52b3577ec91;de;;;6.1.;;;Datenmanagementpläne, Institutional Review Boards und der ethische Umgang mit Big Data über menschliche Subjekte Dieses Kapitel bietet Ermittlern eine Reihe von Entscheidungsbäumen mit detaillierten Fallbeispielen, die ihnen bei der Erstellung von Datenmanagementplänen (DMP) helfen, die ethische und Informationsschutzfragen in Big-Data-Forschungsprojekten behandeln. Es beginnt mit einer Erläuterung der 4Rs der Big-Data-Forschung, d. h. Wiederverwendung, Umnutzung, Rekombination und Reanalyse. Die 4R heben die Bedeutung der ethischen Herkunft und des ethischen Horizonts hervor, d. h. die ethischen Implikationen der Möglichkeit, dass Forscher, die Big Data für die Humanforschung verwenden, ihre Quellen aus bereits vorhandenen Daten aus verschiedenen Quellen beziehen und dass andere Forscher ihre Daten verwenden Daten in Folgestudien. Der DMP-Entscheidungsbaum ermutigt die Ermittler, den ethischen Status einer Einwilligung der untersuchten Personen zu reflektieren, sofern diese bekannt oder potenziell bekannt ist, sowohl für vorhandene als auch für zur Erhebung vorgeschlagene Daten. Der Entscheidungsbaum ermutigt Forscher auch, über die Bandbreite ethischer Implikationen ihrer Forschung nachzudenken, einschließlich potenzieller Vorteile und Schäden sowie Auswirkungen auf die Autonomie von Einzelpersonen und Gruppen, soziale Gerechtigkeit und das Vertrauen in die Institution der Wissenschaft. Wir bieten den DMP-Entscheidungsbaum als Werkzeug an, um Ermittler und ihre Organisationen dabei zu unterstützen, die Datenschutz- und ethischen Risiken der Big-Data-Forschung mit Menschen besser einzuschätzen und so die Akzeptanz und Beteiligung der Öffentlichkeit an den von ihnen geplanten Zukunftsprojekten sicherzustellen . Das Durcharbeiten der Schritte der Entscheidungsbäume unterstreicht auch die Notwendigkeit für Ermittler, Rat bei verschiedenen institutionellen Ressourcen einzuholen, die für den Schutz von Menschen und ihren Informationen in der Big-Data-Forschung relevant sind, insbesondere das Institutional Review Board, das Office of General Counsel und das Personal für Computersicherheit . Aus dieser Perspektive empfehlen wir dringend, die Rolle solcher Organisationen bei der Verwaltung von Big Data-Forschungen am Menschen herabzustufen, bis die wissenschaftliche Gemeinschaft insgesamt mehr Erfahrung mit ihrer Komplexität hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-28422-4_10 7af171b15260fde766affe9d2ecd9ed3;de;;;6.1.;;;Business Intelligence Taxonomie Die Tourismusbranche ist weltweit stetig gewachsen und hat in vielen Ländern neue Beschäftigungsmöglichkeiten geschaffen. Heutige Informationsmanagement-Lösungen für die komplexen Aufgaben der Tourismusbranche stehen noch am Anfang. In diesem Beitrag werden einige vorläufige Ergebnisse zur State-of-the-Art-Analyse der bestehenden Tourismus-Ontologien und Unternehmensarchitekturen vorgestellt. Das erste in diesem Papier vorgestellte Ergebnis identifiziert die Taxonomie für Business Intelligence im Tourismusbereich. Wir identifizieren mehrere touristische Standards, die sich als Grundlage für Business Intelligence eignen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-53737-0_10 77a87ef8cddd1e8bce34bfcb35ad915a;de;;;6.1.;;;Eine medizinische Ontologiebibliothek, die den UMLS Metathesaurus™ integriert Papierbasierte Terminologiesysteme können die neuen Anforderungen von Gesundheitsinformationssystemen nicht mehr erfüllen: die Forderung nach Wiederverwendung und gemeinsamem Austausch von Patientendaten, deren Übermittlung und die Notwendigkeit semantikbasierter Kriterien für eine zielgerichtete statistische Aggregation. Die eindeutige Kommunikation komplexer und detaillierter medizinischer Konzepte ist heute ein wesentliches Merkmal medizinischer Informationssysteme. Ontologien können einen effektiveren Daten- und Wissensaustausch in der Medizin unterstützen. In diesem Beitrag befassen wir uns mit der ontologischen Analyse auf den obersten Ebenen einiger wichtiger medizinischer Terminologiesysteme (ein Ergebnis der ONIONS-Methodik) und skizzieren die ontologische Analyse, die mit dem UMLS Metathesaurus™ durchgeführt wurde. Wir zeigen die Bequemlichkeit eines ontologischen Ansatzes im Umgang mit den unterschiedlichen Konzeptualisierungen hinter medizinischen Terminologien und der Polysemie von Begriffen. Die multiple Klassifikation in UMLS erweist sich als ein Phänomen der Polysemie und nicht als eines der multiplen Subsumtion.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48720-4_26 f968d8c83546452ca08472a76be6844c;de;;;6.1.;;;Der vernetzte Patient Das Patient Gateway (PG)-System von Partners Healthcare war eines der ersten Patientenportale, die in den USA implementiert wurden. Es bietet Patienten die Möglichkeit, ihre medizinischen Informationen („Gesundheitsakte“) einzusehen, auf relevante medizinische Auskunftsdienste („Gesundheitsbibliothek“) zuzugreifen und mit ihren Ärzten zu kommunizieren („Mail Center“) (Abb. 9.1).Abb. 9.1 Startseite von Patient Gateway, einschließlich der Menüoptionen für Mail Center, Patientenakte und Gesundheitsbibliothek Neben diesem Patientenportal gab es zwei weitere wichtige Portale für verschiedene Benutzergruppen, die Teil von Patient Gateway sind. Für das Personal wurde ein Support-Portal erstellt, um die Praxiseinstellungen in Vorbereitung auf den „Go-Live“ einer Praxis zu konfigurieren und alle über Online-Webformulare eingereichten Patientenaufnahmeanträge zu verfolgen und zu verwalten. Ein Praxisportal mit Nachrichten- und Workflow-Tools wurde für Ärzte und Praxispersonal erstellt, um eingehende Patientenanfragen zu verwalten, ausgehende Antworten zu erstellen, Abwesenheits- und andere automatisierte Antworten festzulegen und den im Patientenportal angezeigten Webseitentext zu ändern.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-4327-7_9 ee72b2c123a441da3e40dfabc6377d83;de;;;6.1.;;;Forschung zu Cloud-Computing-Technologie für Weltraum-TT&C-Anwendungen Die in der Weltraum-TT&C eingesetzten Technologien werden vielfältig und komplex. In diesem Fall erfordert es die Entwicklung einer neuartigen Serviceumgebung mit Scale-out-Fähigkeit, allgemeinen Zugangsschnittstellen und mehreren Technologien, um Prozesse der Informationsherstellung und Informationsanalyse in besserer Qualität zu bedienen. Cloud Computing verwendet ein Modell, das auf gemeinsam genutzten Ressourcen basiert, die aus Massenspeichergeräten, Computerausrüstungen, Software und Netzwerken bestehen, von denen der Dienst flexibel gemäß den Anforderungen der Aufgaben bezogen werden kann. In dieser Forschung schlagen wir ein Methodendesign der Weltraum-TT&C-Cloud-Service-Plattform (STCSP) basierend auf Cloud-Computing-Technologie vor. Bei der Analyse des Entwurfszwecks und der Dienstmodi werden die Schlüsseltechnologien des Weltraum-TT&C-Clouddienstes hervorgehoben. Anschließend werden der Systemrahmen von STCSP sowie vorgeschlagene Einsatzstrategien und enthaltene Funktionen beschrieben. Schließlich werden drei Fallstudien vorgestellt, um zu veranschaulichen, wie STCSP Weltraum-TT&C-Anwendungen dient.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44687-4_49 9a36e925cf37e96b664b8dafbca1c710;de;;;6.1.;;;Entwicklung und Implementierung einer integrierten mobilen Situationsbewusstseins-iPhone-Anwendung VigiVU Wir beschreiben die Entscheidungstreiber, Entwicklung und Implementierung einer integrierten mobilen Situationsbewusstseinsanwendung für das perioperative Umfeld. Dieses digitale OP-Tool für Anästhesisten ermöglicht die direkte Überwachung des Personals im Raum, ohne an einen stationären Computerarbeitsplatz gebunden zu sein.;-;-;-;https://link.springer.com/article/10.1007/s11548-012-0683-8 8c894b96110f107c7fd9a4dfef687509;de;;;6.1.;;;Integrierte Zusammenfassungen und Metaanalysen zur klinischen Arzneimittelentwicklung Integrierte Zusammenfassungen von Sicherheit und Wirksamkeit werden seit langem für regulatorische Zwecke in der klinischen Arzneimittelentwicklung verwendet, wobei das Hauptziel darin besteht, die Ergebnisse eines Arzneimittelentwicklungsprogramms gemäß der E9-Leitlinie der International Conference on Harmonization (ICH) zusammenzufassen. Seltsamerweise scheint der Einsatz metaanalytischer Techniken auf den Einreichungsprozess beschränkt zu sein, und kumulative Daten werden für das Lebenszyklusmanagement von Arzneimitteln kaum verwendet. In diesem Papier werden wir Optionen für einen umfassenden Ansatz zur Unterstützung der Entwicklung, Registrierung und des Lebenszyklusmanagements von Humanarzneimitteln untersuchen.;-;-;-;https://link.springer.com/article/10.1177/009286150203600116 ddb0cfa4a923d426a09b80793723de69;de;;;6.1.;;;Management großer Wasserkraftwerke in der Umgebung mit GIS und Fernerkundung Die Bewirtschaftung großer Wasserreservoirs ist kostspielig. Der lange Umfang von Seen und die Notwendigkeit einer effektiven Kontrolle ihrer Umgebung verhindern die Erfüllung der Überwachungsaufgabe durch Feldingenieure. Dieses Papier stellt eine GIS-basierte Unternehmens-IT-Lösung vor, die das Management von sozialen, patrimonialen und umweltbezogenen Ereignissen im Zusammenhang mit der Landnutzungsänderungserkennungsmethodik integriert. Die vorgeschlagene Lösung zielt darauf ab, die Nutzung und Besetzung von Permanent Preservation Areas (PPA) um verschiedene Wasserreservoirs herum zu überwachen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22389-6_19 9e89a92fc10c9463bf034cfb6dbed47a;de;;;6.1.;;;Künstliche Intelligenz in der Medizin: Diabetes als Vorbild Trotz des späten Einstiegs in die klinische Medizin findet Künstliche Intelligenz (KI) in verschiedenen Bereichen eine Rolle: in der Bildgebung (Radiologie, pathologische Bilder, Hauterkrankungen, Netzhauterkrankungen des Auges), in der Krankheitsdiagnose, Vorhersage des Krankheitsbeginns, Behandlungsergebnisse und vor kurzem das Aufdecken zuvor verborgener Assoziationen. Zur Erkennung diabetischer Augenveränderungen stehen KI-basierte Anwendungen zur Verfügung. Mit dem Einzug von KI in die Schulmedizin müssen Fragen der Privatsphäre, Sicherheit und Ethik angegangen werden. KI-Systeme versprechen, die medizinische Versorgung zu verbessern, indem sie menschliche Eingriffe eher ergänzen als ersetzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0415-7_14 f09a217a8e490466030b9e60f57d0342;de;;;6.1.;;;Fehlerhafte Menschen und verwundbare Systeme: Lehren aus der Luftfahrt 1959 begann mit der Boeing 707 die Ära des kommerziellen Jet-Transports in den Vereinigten Staaten. Bald darauf ereignete sich ein ziemlich ernster Zwischenfall über Neufundland. Eine 707, die in einer Höhe von 35.000 Fuß flog, erlebte eine Unterbrechung des Autopiloten und begann eine Abwärtsspirale. Der Kapitän befand sich in der Kabine, der Copilot und der Flugingenieur bemerkten den Kontrollverlust auch nach dem schnellen Sinkflug des Flugzeugs nicht und waren bis dahin von g-Kräften überwältigt und nicht in der Lage, sich zu erholen. Irgendwie kehrte der Kapitän zu seinem Sitz zurück und holte das Flugzeug etwa 6000 Fuß über dem Atlantik (Civil Aeronautics Board, 1959). Bei all seiner elektronischen Raffinesse war der Autopilot in der Lage, sich abzukoppeln, und was vielleicht noch wichtiger war, die Besatzung war anscheinend nicht in der Lage, die Situation zu erkennen und zu beheben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83091-4_17 d3174d77623dbe09f21096ad158f7af4;de;;;6.1.;;;Rasterbasierte genomweite Studien zu Vorhofflattern Die genetische Kopplungsanalyse von SNP-Markern (Single Nucleotide Polymorphism) ermöglicht die Entdeckung genetischer Korrelationen bei komplexen Krankheiten nach ihrer Übertragung durch Familiengenerationen. Alle in der Literatur vorgeschlagenen Hauptalgorithmen erfordern jedoch eine hohe Rechenleistung und Speicherverfügbarkeit, was die Analyse großer Datensätze auf einer einzelnen CPU sehr schwierig macht. Eine Einrichtung zur Durchführung einer Whole-Genome Linkage Analysis wurde als Webanwendung auf einer stark verteilten Infrastruktur eingerichtet: dem EGEE Grid. Es wurden Testfälle mit 10.000 bis einer Million SNPs pro Chip durchgeführt und die Anwendung wurde nach der Validierung effektiv für eine Studie zu kardialen Reizleitungsstörungen eingesetzt.;-;-;-;https://link.springer.com/article/10.1007/s10723-010-9163-y 9b2c0bb811e9a50f2cae2e312a2fef60;de;;;6.1.;;;Fallstudien zum Einsatz von Workflow-Technologien für die wissenschaftliche Analyse: Das Biomedizinische Informatik-Forschungsnetzwerk und das Telescience-Projekt Das Aufkommen von „Grids“ oder Grid-Computing hat zu einem grundlegenden Wandel in der Entwicklung von Anwendungen zur Verwaltung und Durchführung rechen- oder datenintensiver Analysen geführt. Eine aktuelle Herausforderung für die Grid-Community besteht darin, die Arbeitsmuster von Domänen- oder Bench-Wissenschaftlern zu modellieren und robuste Lösungen unter Verwendung verteilter Infrastrukturen bereitzustellen. Diese Herausforderungen führten zu Bemühungen, „Workflows“ zu entwickeln, um Programme und Daten im Auftrag des Endbenutzers zu verwalten. Die Technologien stammen aus mehreren wissenschaftlichen Bereichen, oft mit unterschiedlichen Definitionen, und haben je nach Art des wissenschaftlichen Prozesses, in dem sie verwendet werden, einzigartige Vor- und Nachteile. In diesem Kapitel argumentieren wir, dass es zur Maximierung der Wirkung dieser Bemühungen sinnvoll ist, die Verwendung von Workflows innerhalb einer abgestuften, hierarchischen Struktur zu fördern, in der jeder dieser neu entstehenden Workflow-Teile interoperabel ist. Wir präsentieren Workflow-Modelle des Telescience™-Projekts;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84628-757-2_8 6e46c01fe530e7ef6dc1f47eaa80a74d;de;;;6.1.;;;Dateireplikations-, Wartungs- und Konsistenzverwaltungsdienste in Datengrids Datenreplikation und -konsistenz beziehen sich auf dieselben Daten, die in verteilten Sites gespeichert und konsistent gehalten werden, wenn eine oder mehrere Kopien geändert werden. Eine gute Strategie zur Dateipflege und -konsistenz kann Dateizugriffszeiten und Zugriffslatenzen reduzieren und Download-Geschwindigkeiten erhöhen, wodurch die Gesamtrechenzeiten verkürzt werden. In diesem Whitepaper schlagen wir dynamische Dienste vor, um Daten in Grid-Umgebungen zu replizieren und zu pflegen und Replikate zur Verwendung an geeignete Orte zu leiten. Um ein Problem mit dem Bandwidth Hierarchy-based Replication (BHR)-Algorithmus zu lösen, einer Strategie zur dynamischen Pflege von Replikaten, schlagen wir den Dynamic Maintenance Service (DMS) vor. Wir schlagen auch einen One-Way Replica Consistency Service (ORCS) für Data Grid-Umgebungen vor, ein positiver Ansatz zur Lösung von Konsistenzwartungsproblemen, von dem wir hoffen, dass er ein Gleichgewicht zwischen der Verbesserung der Datenzugriffsleistung und der Replikatkonsistenz findet. Experimentelle Ergebnisse zeigen, dass unsere Dienstleistungen effizienter sind als andere Strategien.;-;-;-;https://link.springer.com/article/10.1007/s11227-009-0302-9 302bcf60041eada0e4d5adfdad4e8768;de;;;6.1.;;;Ereignisverarbeitung in Sensorstreams Sensoren, einschließlich RFID-Tags, wurden weit verbreitet zum Messen von Umgebungsparametern wie Temperatur, Feuchtigkeit, Sauerstoffkonzentration, zur Überwachung des Ortes und der Geschwindigkeit von sich bewegenden Objekten, zum Verfolgen von markierten Objekten und vielem mehr eingesetzt. Um eine effektive, effiziente und nahezu in Echtzeit erfolgende Phänomenuntersuchung und Objektüberwachung zu unterstützen, müssen Streaming-Sensordaten in einer ereignisverarbeitenden Weise verwaltet werden. Im Gegensatz zu den traditionellen Ereignissen kommen Sensorereignisse mit zeitlichen oder räumlich-zeitlichen Einschränkungen und können nicht spontan auftreten. In der Zwischenzeit können Sensorereignisströme wie allgemeine Ereignisströme mit sehr hohen Volumina und Raten generiert werden. Primitive Sensorereignisse müssen gefiltert, aggregiert und korreliert werden, um semantisch reichhaltigere komplexe Ereignisse zu generieren, um die Anforderungen von Upstreaming-Anwendungen zu erleichtern. Motiviert durch solche Herausforderungen wurden in der Vergangenheit viele neue Verfahren vorgeschlagen, um die Ereignisverarbeitung in Sensorereignisströmen zu unterstützen. In diesem Kapitel fassen wir den aktuellen Stand der Forschung zur Ereignisverarbeitung in Sensornetzen zusammen und geben einen breiten Überblick über wichtige Themen in.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-6309-2_4 fa31c915e14efc0c046234810a10d57e;de;;;6.1.;;;Vergleichende klinische Wirksamkeit und Sicherheit des vorgeschlagenen Biosimilars ABP 710 mit Infliximab-Referenzprodukt bei Patienten mit rheumatoider Arthritis ABP 710 wird als Biosimilar zum Infliximab-Referenzprodukt (RP) entwickelt. Analytische Ähnlichkeit und pharmakokinetische Äquivalenz zwischen den beiden wurden zuvor gezeigt. Hier berichten wir über Ergebnisse einer vergleichenden klinischen Studie, die die Wirksamkeit und Sicherheit von ABP 710 im Vergleich zu RP bei Patienten mit rheumatoider Arthritis (RA) bewertete.;-;-;-;https://link.springer.com/article/10.1186/s13075-020-2142-1 d739ab4df5b059442fdf3aa3b7298a28;de;;;6.1.;;;Gleichzeitiges Engineering In diesem Kapitel werden die Philosophie hinter Concurrent Engineering sowie aktuelle Ansätze zur Implementierung von Concurrent Engineering vorgestellt. Concurrent Engineering Design fördert die gleichzeitige Berücksichtigung aller Aspekte des Produktlebenszyklus in der Designphase. Es hat sich als erfolgreich erwiesen, Produktentwicklungszeit und -kosten zu verkürzen, indem die typischen Probleme im Zusammenhang mit sequenziellem Design vermieden werden. Unternehmen, die auf dem heutigen globalen und volatilen Markt konkurrieren, können sich lange Entwicklungsvorlaufzeiten oder hohe Kosten nicht leisten. Erfolgsgeschichten im Concurrent Engineering haben sich in erster Linie auf den Design-Team-Ansatz verlassen, eine Zusammenarbeit von Personen aus verschiedenen Abteilungen, die unterschiedliche Lebenszyklus-Perspektiven repräsentieren. Der Entwurfsteamansatz und andere Ansätze leiden jedoch unter ihrer Unfähigkeit, die immense Menge an Daten und Informationen zu verwalten (d. h. zu speichern, darauf zuzugreifen, zu aktualisieren usw.), die für die Durchführung von Concurrent Engineering erforderlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-60286-0_116 a3dc41029ba0136ddc4419f96e41073d;de;;;6.1.;;;Entführung durch Berechnung gemeinsamer Erklärungen lösen: Formalisierung der Logikprogrammierung, Anwendungen auf Application Es wird eine Erweiterung der Entführung untersucht, bei der Erklärungen für Bündel von Beobachtungen durch Gruppen interagierender Agenten gemeinsam berechnet werden können. Einerseits dürfen Agenten teilweise zur Schlussfolgerungsaufgabe beitragen, so dass;-;-;-;https://link.springer.com/chapter/10.1007/11663881_8 67cc9c8b4b2e4e97f3afb086b7cd3d19;de;;;6.1.;;;Expertennetzwerke als wissenschaftspolitische Gesprächspartner bei der Implementierung eines Monitoring Reporting and Verification (MRV) Systems Das 2016 in Kraft getretene Pariser Abkommen legt einen klaren Zeitplan für die Kommunikation und Aufrechterhaltung von aufeinanderfolgenden national festgelegten Beiträgen (NDCs) fest, die es zur Bekämpfung des Klimawandels zu erreichen beabsichtigt. Dies erfordert die Entwicklung eines Mess-, Melde- und Verifikationssystems (MRV) und einer Initiative zum Kapazitätsaufbau für Transparenz (CBIT). Obwohl solche Maßnahmen von den Vertragsparteien des Pariser Abkommens allgemein akzeptiert werden, haben frühere Studien gezeigt, dass technologische, soziale, politische und finanzielle Zwänge bestehen bleiben, die die Entwicklung und Einführung eines solchen Systems beeinträchtigen werden. In diesem Beitrag wird anhand einer Fallstudie zur MRV-Implementierung in Bogor City in Indonesien skizziert, wie die oben genannten Herausforderungen durch einen technologischen und politischen Innovationsprozess bewältigt werden können, bei dem Wissenschaftler und Technologen (gemeinsam als Expertennetzwerke bezeichnet) Hand in Hand gehen können lokale Regierungen und nationale politische Entscheidungsträger bei der Konzeption, Entwicklung und Implementierung eines MRV-Systems, das den lokalen, nationalen und globalen Anforderungen entspricht. Durch die Fallstudie wird ferner beobachtet, dass Expertennetzwerke als interaktive Wissensgeneratoren und politische Gesprächspartner fungieren können, um Technologie und Politik zu überbrücken. Konkret wird zunächst eine kurze Geschichte des internationalen Kontexts von MRV und CBIT skizziert. Als nächstes wird die theoretische Untermauerung der Studie innerhalb der bestehenden Theorien zu Politik und internationalen Beziehungen kontextualisiert. Schließlich wird die Fallstudie skizziert und untersucht, wobei das Engagement eines Expertennetzwerks und politischer Entscheidungsträger bei der Gestaltung, Entwicklung und Implementierung eines MRV-Tools gezeigt wird.;-;-;-;https://link.springer.com/article/10.1007/s11708-018-0559-x 19171d868872ca6647634186dcf7a1dc;de;;;6.1.;;;Anwenden des auf Lagrange-Interpolation basierenden Zugangskontrollmechanismus in einem medizinischen System für die persönliche Krankenakte In dieser Studie wurde ein auf Lagrange-Interpolation basierender Zugriffskontrollmechanismus im Cloud-System für persönliche Gesundheitsdaten (PHR) angewendet. Wir haben einen Zugangskontrollmechanismus vorgeschlagen, um sicherzustellen, dass der Austausch von Gesundheitsinformationen durch das Kryptosystem mit öffentlichem Schlüssel und die Lagrange-Interpolation sicher ist. Darüber hinaus müssen die Zugangsberechtigung und die Datenschutzeinstellungen streng eingeschränkt werden, wenn wir persönliche Gesundheitsakten und private Informationen berücksichtigen. Der PHR sollte verhindern, dass unbefugte Benutzer darüber hinaus den Benutzern die Zugriffsberechtigung geben. Als Ergebnis haben wir die Sicherheit des Mechanismus der Netzwerkangreifer analysiert. Basierend auf unserer Analyse kann der von uns vorgeschlagene Zugangskontroll- und Schlüsselverwaltungsmechanismus die Gesundheitsinformationen, die zwischen medizinischen Einrichtungen ausgetauscht werden können, effizient und effektiv schützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-33506-9_29 8c9e2ef09ddc4d7e3d2ca427dea3aabe;de;;;6.1.;;;Eine Anwendung fortgeschrittener raumzeitlicher Formalismen auf die Verhaltensökologie Es besteht großes Potenzial für die Entwicklung vieler neuer Anwendungen mit Daten zu mobilen Objekten und mobilen Regionen. Um diese Art von Anwendungen zu fördern, werden fortschrittliche Datenmanagementtechniken für die Darstellung und Analyse von mobilitätsbezogenen Daten benötigt. Gemeinsam mit Anwendungsexperten (Verhaltensökologen) untersuchen wir, wie zwei neuartige Datenmanagement-Ansätze helfen können. Wir konzentrieren uns auf eine Fallstudie zur Analyse des Verhaltens von Fauna, insbesondere von Stachelschweinen, die ein typisches Beispiel für mobile Objektüberwachung darstellt. Die erste Technik, mit der wir experimentieren, ist ein kürzlich entwickelter konzeptioneller Ansatz zur räumlich-zeitlichen Datenmodellierung, MADS. Dies wird verwendet, um das Schema der Datenbank zu modellieren, das für unsere Fallstudie geeignet ist. Ausgehend von diesem ersten Ergebnis wird eine Teilmenge des Problems in der logischen Sprache MuTACLP dargestellt. Dies ermöglicht es uns, die Fragen zu formalisieren und zu lösen, die es den Verhaltensökologen ermöglichen, das Verhalten von Stachelschweinen mit Haube aus den Rohdaten über Tierbewegungen abzuleiten. Schließlich untersuchen wir die Unterstützung eines kommerziellen Geographischen Informationssystems (GIS) für die Analyse raumzeitlicher Daten. Wir präsentieren eine Möglichkeit, MuTACLP und ein GIS zu integrieren und die Vorteile der GIS-Technologie mit der Ausdruckskraft von MuTACLP zu kombinieren.;-;-;-;https://link.springer.com/article/10.1007/s10707-006-0016-6 8b9c903e28b4d005937ef6e79002bafa;de;;;6.1.;;;Einheitlicher Zugang zu heterogenen Netzinfrastrukturen mit JSAGA Grids wurden entwickelt, um einen einheitlichen Zugang zu Rechen- und Speicherressourcen zu ermöglichen, aber da bestehende Grid-Infrastrukturen im Rahmen unterschiedlicher Projekte eingesetzt wurden, waren die technologischen Entscheidungen oft unterschiedlich. Viele Benutzer müssen mehrere Grid-Infrastrukturen verwenden und sind aufgrund dieser Unterschiede mit Komplexität konfrontiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-0046-3_15 16abffe9c752ddd8143adbdcc099f4bb;de;;;6.1.;;;Design und Implementierung eines Systems zur Identifizierung schwerer Gefahren für spezielle Geräte Durch die Identifizierung einer größeren Gefahr mit einer Vielzahl von Spezialgeräten können die zuständigen Abteilungen die große Gefahr effektiv überwachen. In diesem Dokument wird ein System zur Identifizierung der Hauptgefahren von Spezialgeräten vorgestellt. Basierend auf der B/S-Struktur der J2EE-Plattform verwendet das System einen MVC-Designmodus und Technologien wie S2SH (Struts2, Spring, Hibernate) und Webservice. Die Funktionen Geräteinformationsmanagement, Identifikationseinheitenmanagement und Bewertungsdatenmanagement wurden implementiert. Basierend auf DW (Data Warehouse) kann die OLAP-Technologie (On-line Analytical Processing) dem Entscheider helfen, die Sicherheitslage von Spezialgeräten zu analysieren. Durch die Microsoft SQL Server 2005 Analysis Services-Tools wird die mehrdimensionale Analyse der Daten zur Identifizierung der Hauptgefahren von Spezialgeräten unter Verwendung von OLAP implementiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34447-3_26 b55afee3a3deb460e6149b486d8d9a49;de;;;6.1.;;;Aktueller Status Das vietnamesische Gesundheitsumfeld ist komplex und verflochten. Es ist fast unmöglich, die wichtigsten Interessengruppen zu isolieren, und es gibt ein breites Spektrum an Rollen und Verantwortlichkeiten, die von Einzelpersonen und nicht nur innerhalb des Gesundheitsministeriums oder innerhalb Vietnams wahrgenommen werden. Infolgedessen ist der Fortschritt langsam, und die Debatte ist ständig. Vietnamesische Entscheidungsträger sind es nicht gewohnt, Input von externen Akteuren einzuholen, möchten jedoch den Erfolgen ihrer Nachbarn und darüber hinaus nacheifern. Dies führt auch zu Konflikten, verzögert den Fortschritt und führt zu oft zu suboptimalen, engstirnigen Entscheidungen. Dieses Kapitel präsentiert und analysiert den aktuellen Zustand des Gesundheitswesens in Vietnam, einschließlich der finanziellen, politischen und externen Faktoren, die eine Rolle spielen. In diesem Kapitel werden auch die Chancen und Hindernisse erörtert, die einer zukünftigen Entwicklung im vietnamesischen Gesundheitswesen gegenüberstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-287-709-3_5 92790cb312cfbe341536fb2993805780;de;;;6.1.;;;Materialisierte Ansichtspflege in Peer-Datenmanagementsystemen Das Problem der gemeinsamen Nutzung von Daten in Peer-Data-Management-Systemen (PDMS) hat in den letzten Jahren erhebliche Aufmerksamkeit erfahren. Dem Update-Management in PDMSs wurde jedoch nur sehr wenig Aufmerksamkeit geschenkt. Dieses Papier schlägt eine Strategie vor, um Ansichten in unserem SPDMS aufrechtzuerhalten. Basierend auf Anwendungen erweitert dieses Papier die Definition von Ansichten und schlägt die Peer-Ansicht, die lokale Ansicht und die globale Ansicht vor. So wird die Pflege einer globalen Ansicht zur Pflege aller zugehörigen lokalen Ansichten, wenn Join-Operationen auf jedes lokale PDMS beschränkt sind. Darüber hinaus schlägt dieses Papier eine ECA-Regel zur Pflege der Definitionskonsistenz und eine Push-basierte Strategie zur Pflege der Datumskonsistenz vor. Schließlich führen wir umfangreiche Simulationsexperimente in unserem SPDMS durch. Die Simulationsergebnisse zeigen, dass die vorgeschlagene Strategie eine bessere Leistung aufweist als die von Mork.;-;-;-;https://link.springer.com/chapter/10.1007/11610113_65 5fa566374abb3f6c40704c2cba1eb484;de;;;6.1.;;;GIMIAS: Ein Open-Source-Framework für die effiziente Entwicklung von Forschungswerkzeugen und klinischen Prototypen GIMIAS ist eine Workflow-orientierte Umgebung für fortschrittliche biomedizinische Bildverarbeitung und den Aufbau personalisierter Rechenmodelle, die durch die Entwicklung anwendungsspezifischer Plug-Ins erweiterbar ist. Darüber hinaus bietet GIMIAS ein Open-Source-Framework für die effiziente Entwicklung von Forschungs- und klinischen Software-Prototypen, das Beiträge aus der Virtual Physiological Human Community integriert und gleichzeitig einen unternehmensfreundlichen Technologietransfer und kommerzielle Produktentwicklung ermöglicht. Dieses Framework wurde vollständig in ANSI-C++ auf Basis bekannter Open-Source-Bibliotheken wie VTK, ITK und wxWidgets unter anderem entwickelt. Basierend auf GIMIAS wird in diesem Beitrag ein Workflow zur medizinischen Bildanalyse und Simulation des Herzens vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01932-6_45 b457f56e6b2238a617e633dd984011fb;de;;;6.1.;;;Umgang mit den Auswirkungen der E-Entwicklung in der wissensbasierten Wirtschaft und Gesellschaft: Outputs, Outcomes und Impacts Die Analyse befasst sich hier hauptsächlich mit e-Development-Anwendungen, die die Entwicklung des Privatsektors erleichtern. Die Analyse wird sich auf die wichtigsten quantitativen und qualitativen Daten zu IKT-Anwendungen stützen, die aus verschiedenen Quellen verfügbar sind, vom privaten Sektor bis zum öffentlichen Sektor sowohl in Industrie- als auch in Entwicklungsländern. Die Rolle des öffentlichen Sektors als Vermittler bei der Förderung und Einführung von Informationstechnologien ist sehr wichtig. Während der Privatsektor die entscheidende Rolle bei der Einführung von Innovation und Technologie behält, ist der öffentliche Sektor dafür verantwortlich, Reformen zu konzipieren und umzusetzen, die ein wachstumsfreundliches Umfeld schaffen. e-Development ist ein wertvolles Instrument zur Förderung der Interaktion zwischen dem öffentlichen und dem privaten Sektor. Unternehmen sind Lieferanten, Partner und Kunden von und gelegentlich Konkurrenten der Regierung. Ein Rahmen zur Überwachung und Bewertung der e-Entwicklung wird eine Reihe von Indikatoren umfassen, die verwendet werden können, um den Nutzen der Umsetzung von e-Entwicklungsprojekten zu bewerten. Während eine Kosten-Nutzen-Analyse nicht das Hauptaugenmerk dieser Studie ist, hängt die Bewertung von e-Development davon ab, Kosten und Nutzen technologiebasierter Anwendungen mit traditionellen Interaktionsmitteln zu vergleichen. Es sollten sowohl direkte als auch indirekte Kosten berücksichtigt werden, wobei die direkten Kosten durch die Ressourcen repräsentiert werden, die sowohl vom Anbieter als auch vom Benutzer für die Implementierung und Nutzung von e-Development-Programmen und -Systemen benötigt werden. Technologie bietet ein beispielloses Potenzial, um die Interaktionen zwischen dem öffentlichen und dem privaten Sektor einfacher, effizienter und transparenter zu gestalten. Daher fließen diese Indikatoren in die Evaluierung ein, um festzustellen, ob und wie e-Development Interventionen der Weltbank in Kundenländern unterstützen und die operative Nachhaltigkeit von durch e-Development unterstützten Interventionen testen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4939-1028-1_3 ab94a00183a529b9401bc9a13bcb91d4;de;;;6.1.;;;Öffentliche Einrichtungen als Lernumgebungen in Finnland Öffentliche Kultureinrichtungen werden in diesem Artikel als Teil der bebauten Umwelt verstanden. Die von diesen angebotenen Dienste stehen allen Bürgern in Finnland zur Verfügung. Dazu gehören: Bibliotheken, Museen, verschiedene Kunstinstitutionen, Theater, Musikinstitute und Wissenschaftszentren. Die Expertise der Autoren des Artikels basiert auf Museen und Bibliotheken als Lernumgebungen, so dass sich der Inhalt des Artikels auf sie konzentriert. Finnland verfügt über ein breites Netz an öffentlichen Bibliotheken und Museen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-6091-811-7_17 86076d07d928b2b284be8434aca14fa8;de;;;6.1.;;;Der Aufstieg freiwilliger personenbezogener Daten In seiner Geschichte hat das Marketing nur mit zwei Arten von Informationen gespielt: Marktforschung (die hauptsächlich qualitativ und/oder statistisch ist) und Transaktions-/Interaktionsdaten (die granular und persönlich identifizierbar sind). Als Transaktionsdaten vor rund 50 Jahren zum ersten Mal auftauchten, schickten sie Schockwellen durch das Marketing, als sich neue Erkenntnisse und Möglichkeiten eröffneten. Direkt- und Datenbankmarketing, Kundenbeziehungsmanagement und Treueprogramme sind einige seiner Nachkommen. Jetzt kommt eine dritte Form von Marktinformationen – freiwillige personenbezogene Daten – ins Spiel. Seine Auswirkungen könnten genauso weitreichend oder sogar noch weitreichender sein als die Revolution der Transaktionsdaten davor.;-;-;-;https://link.springer.com/article/10.1057/dddmp.2010.28 ac68b3ea3ed6fd328db8536e2a898bb8;de;;;6.1.;;;Paralleles, verteiltes und Grid-Computing Das Kernziel des Parallel Computing besteht darin, Berechnungen zu beschleunigen, indem unabhängige Rechenaufgaben gleichzeitig („parallel“) auf mehreren Einheiten in einem Prozessor, auf mehreren Prozessoren in einem Computer oder auf mehreren vernetzten Computern ausgeführt werden, die sogar über große geografische Skalen verteilt sein können (Distributed und Grid Computing) ist es das dominierende Prinzip hinter „Supercomputing“ bzw. „High Performance Computing“. Seit mehreren Jahrzehnten verdoppelt sich die Dichte der Transistoren auf einem Computerchip alle 18–24 Monate („Moore's Law“), bis vor kurzem konnte diese Rate direkt in eine entsprechende Erhöhung der Taktfrequenz eines Prozessors und damit in eine automatische Leistung umgesetzt werden Gewinn für sequentielle Programme. Da jedoch mit der Taktfrequenz auch der Stromverbrauch eines Prozessors steigt, wurde diese Strategie der „Frequenzskalierung“ endgültig unhaltbar: Seit 2004 sind die Taktfrequenzen im Wesentlichen stabil geblieben und zusätzliche Transistoren werden hauptsächlich verwendet, um mehrere Prozessoren auf einem einzigen Chip zu bauen (multi -Core-Prozessoren). Deshalb muss heute jede Art von Software (nicht nur „wissenschaftliche“) parallel geschrieben werden, um von neuerer Computerhardware zu profitieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02127-5_8 215804a703ab75cee360f540beb808ae;de;;;6.1.;;;Kontextsensitive Middleware und Anwendungen Dieses Kapitel konzentriert sich darauf, über einige kontextbezogene Middleware und Anwendungen zu berichten, die sich seit Jahrzehnten auf die Vielfalt der Anwendungsdomänen des kontextbezogenen Computing auswirken, damit die Leser in der Lage sind, diese Art von Anwendung angemessen zu nutzen. Der Schwerpunkt liegt jedoch auf Smart Environments wie Smart Home und personalisierten Umgebungen. Am Ende dieses Kapitels werden die zukünftigen Trends in intelligenten Umgebungen für Gesundheits- und Bildungsbereiche auf der Grundlage der Entwicklung bestehender Werke und einiger wichtiger Bedenken vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-59035-6_6 8f9a91f2f1e6dc7b7466e19039c79672;de;;;6.1.;;;Das CAISIS-Forschungsdatensystem CAISIS ist ein Forschungsdatensystem, das zur Unterstützung der prädiktiven Modellentwicklung in der urologischen Onkologie am Memorial Sloan-Kettering Cancer Center (MSKCC) gestartet wurde und in verschiedenen Abteilungen und Institutionen weit verbreitet ist, um biomedizinische Forschungsdaten für eine Vielzahl von Krankheiten, hauptsächlich Krebs, zu verwalten . Es wurde unter Verwendung von ASP.NET/C# und Microsoft SQL Server entwickelt und wird unter der Open-Source-Lizenz GPL frei verteilt. Dieses System ergänzt sowohl klinische Systeme als auch klinische Datenarchive und seine Funktionalität wurde kürzlich erweitert, um Biorepositorys und prospektive klinische Studien zu verwalten. Die Datenbankstruktur ist zeitlich und patientenbezogen organisiert und nicht nach Protokollen oder einzelnen Projekten, was eine Erweiterung auf die Verwaltung von Daten für mehrere Krankheiten und medizinische Fachgebiete ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-5714-6_11 8812b63a2cc827d3d8afc310899144d2;de;;;6.1.;;;Entwicklung und Anwendung von WebGIS Middleware in der Ölförderungstechnik WebGIS ist das Ergebnis der Kombination der Technologie des Internets mit der von Geographischen Informationssystemen (GIS). Dieses Papier zielt auf einige Probleme bei der Entwicklung von GIS ab, wie z. B. das System der Entwicklung ist instabil, und stellt die Methode zur Übernahme von Komponententechnologie vor, um eine WebGIS-Middleware zu realisieren, die erfolgreich auf das Informationssichtsystem der Ölproduktionstechnik angewendet wurde. In der Praxis hat sich gezeigt, dass die WebGIS-Middleware problemlos in die Webseiten eingebettet werden kann, um ein GIS-Anwendungssystem in einer Netzwerkumgebung zu realisieren. Einerseits kann seine Anwendung die Komplexität des Systems reduzieren und das Entwicklungstempo beschleunigen. Auf der anderen Seite ist es sicher, die Entwicklungskosten zu senken und die Wartbarkeit zu verbessern.;-;-;-;https://link.springer.com/article/10.1007/BF02831668 93ced14ae9ff26295b56d34d9cbc3d96;de;;;6.1.;;;Gedanken zu Software Craftsmanship Warum sollten wir uns um Code-Handwerk kümmern? Die lange Antwort ist in diesem Kapitel. Sehen wir uns zunächst an, was ein französischer Philosoph namens Guillaume Ferrero entdeckt hat: das Prinzip des geringsten Aufwands. Er schrieb 1894 darüber – lange bevor eine einzige Zeile Computercode, wie wir ihn heute kennen, geschrieben wurde. Dennoch können wir nicht umhin zu denken, dass er, wenn er am Leben gewesen wäre und miterlebt hätte, wie der meiste Code geschrieben wird, er das Codieren als Inbegriff des Prinzips des geringsten Aufwands demonstriert hätte: „[Coding] hört auf, sobald minimal akzeptable Ergebnisse gefunden werden .“;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98149-9_15 b3daed52cd492e97e0207ef6cee803a6;de;;;6.1.;;;Berechtigungen für verteilte Daten verwalten: Factoring und automatisierte Inferenz Wir erweitern das Grant/Revoke-Modell von SQL, um die gesamte Verwaltung von Berechtigungen in einer verteilten Datenbank zu übernehmen. Die Schlüsselidee besteht darin, Berechtigungen in einfachere Entscheidungen zu „faktorisieren“, die separat verwaltet werden können und für die wir solide Inferenzregeln entwickeln können. Das Modell ermöglicht es uns, die Verwaltung durch die Trennung von Bedenken (zwischen technischen DBAs und Domänenexperten) zu vereinfachen und für einige Berechtigungsfaktoren vollautomatisierte Rückschlüsse zu rechtfertigen. Wir zeigen, wie dieser Ansatz mit aktuellen Praktiken basierend auf SQL-Berechtigungen koexistieren würde.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35587-0_7 6641bc77cb8e89518c4a6970b97475d4;de;;;6.1.;;;Professionelle Einstellungen zum Umgang mit Daten in England Englische Schulen verfügen wohl über ausgefeiltere Datensätze als jede andere Gerichtsbarkeit der Welt. Diese Datensätze sammeln die akademischen Ergebnisse und eine Reihe demografischer Daten für alle jungen Menschen in England im Alter von 4 bis 16 Jahren. Sie werden verwendet, um Schulen eine breite Palette von Maßnahmen auf Schul- und Schülerebene in Bezug auf akademische Leistungen und Mehrwert bereitzustellen Fortschritte bei der Selbstevaluation der Schule. In diesem Kapitel werden einige der Möglichkeiten erörtert, wie diese Daten in englischen Sekundarschulen verwendet werden, um die Schulentwicklung zu verbessern. Es präsentiert Ergebnisse einer landesweiten Umfrage unter Lehrern zu ihrer selbstberichteten Nutzung von und ihrer Einstellung zu Leistungs- und Fortschrittsdaten auf Schüler- und Schulebene. Der Zweck der Umfrage bestand darin, zu untersuchen, inwieweit Lehrer in Schulen diese Daten verwenden, ob sie mit ihrem Verständnis der Daten zufrieden sind und wie oft sie ihrer Meinung nach Schulungen benötigen, um sie sowohl zu interpretieren als auch zu nutzen. Die Umfrage ergab, dass die Datennutzung in englischen Sekundarschulen hoch ist und dass die Zufriedenheit mit der Datennutzung mit der Verantwortung der Lehrer zusammenhängt. Stellvertretende und stellvertretende Schulleiter berichten von der umfangreichsten Datennutzung und der größten Zufriedenheit mit ihrer Datennutzung . Die Häufigkeit von Schulungen in der Datennutzung scheint in positivem Zusammenhang mit dem von den Lehrkräften selbst angegebenen Datenverständnis zu stehen. Die Ergebnisse legen nahe, dass Lehrkräfte ohne formelle Führungsrolle mindestens einmal jährlich Schulungen benötigen, um ihr Datenverständnis deutlich zu verbessern. Die Lehrer sind der festen Überzeugung, dass die Datenanalyse und -interpretation stärker an das gesamte Personal der Schule delegiert werden sollte. Es besteht auch die Auffassung, dass die Abteilungsleiter die führende Rolle bei der Datenanalyse und -interpretation einnehmen sollten, mehr als dies in vielen Schulen der Fall ist, wo die Analyse und Interpretation von Daten oft in die Zuständigkeit höherrangiger Mitglieder des Schulleitungsteams fällt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-4816-3_5 f3b06086d682a6e152026499c1413a04;de;;;6.1.;;;Ein computergestütztes System zum organisierten Abrufen von Informationen zur Lebensgeschichte Dieses Papier beschreibt ein computergestütztes System zum Speichern und Abrufen von Informationen über die Lebensgeschichte und Umweltgrenzen von Organismen, das wir auf die Mündungs- und Nearshore-Organismen der texanischen Küste angewendet haben. Das System verwendet eine standardmäßige biologische Nomenklatur anstelle von Codes und bietet große Flexibilität sowohl bei den Suchkriterien als auch beim Ausgabeformat. Jeder Eintrag für einen Organismus stammt aus einer separaten Literaturstelle. Es werden 40 Deskriptoren verwendet, die taxonomische Identifizierung, Umweltklassifizierung, zeitliche Verteilung, Umweltgrenzen, trophische Beziehungen und Referenzidentifikation abdecken. Das gleiche Format wird auch verwendet, um aus Laborexperimenten abgeleitete Umweltgrenzwerte wie LD50-Werte aufzuzeichnen. Für den schnellen Zugriff auf die Datenbank kann ein interaktives Terminal verwendet werden. Das System wird sowohl von Planern des Küstenzonenmanagements als auch von Ästuarökologen verwendet.;-;-;-;https://link.springer.com/article/10.2307/1350980 c640c3a8846b6a92f82755158e9458fb;de;;;6.1.;;;Entwicklung und Innovation von Bildungsmanagementinformationen in Hochschulen mit Big Data Die Suche nach relevanten Inhalten oder Systemen reicht nicht aus, und sie waren nicht in der Lage, diese ordnungsgemäß zu integrieren und zu verwalten, sodass die einschlägigen Hochschulen Dateninformationsinhalte nicht besser nutzen können. Daher diskutiert dieser Artikel zunächst die aktuelle Informationsentwicklung mit Big Data. Es bestehen Probleme einer geringen Standardisierung der Lehre und des wissenschaftlichen Forschungsmanagements, eines geringen anwendungstechnischen Bewusstseins und unabhängiger Managementdaten verschiedener Fachbereiche. Zweitens hat die Hochschulbildung als Reaktion auf verwandte Probleme innovative Anwendungsansätze für das Informationsmanagement vorgeschlagen, z. B. den Aufbau einer standardisierten Netzwerk-Informationsplattform, die korrekte Anwendung von Big Data-Technikerteams, um eine hohe Lehrqualität an Hochschulen zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-62743-0_44 b66fdcbe85b7a7dc7252ac0bbd512795;de;;;6.1.;;;IoT-Architekturen und ihre Sicherheit: Ein Rückblick Das Internet der Dinge (IoT) ist ein technologischer Fortschritt, der Dinge überall miteinander verbindet, die untereinander kommunizieren können, um verschiedene wertvolle Anwendungen zu entwickeln. IoT hat normalerweise eine dreischichtige Architektur, die aus Wahrnehmungsschicht, Netzwerkschicht und Anwendungsschicht besteht. Diese komplexe Architektur macht die IoT-Umgebung jedoch anfällig für potenzielle Sicherheitsbedrohungen. Auch aufgrund des Mangels an Batterieleistung, Speicher und Rechenkapazität werden IoT-Knoten anfällig für Sicherheitsangriffe. Daher erfordert jede Schicht Sicherheitsprotokolle, um eine sichere IoT-Umgebung zu erreichen. Dieses Papier bietet einen Überblick über das IoT, seine verschiedenen Architekturen, Sicherheitskonventionen, technologischen und Sicherheitsherausforderungen in IoT-Architekturen. Es überprüft, diskutiert und analysiert auch die aktuellen Szenarien und Bedenken der IoT-Sicherheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9689-6_10 d31d23866d8c54a3931a7c44f82f104e;de;;;6.1.;;;Verkehrssysteme für Menschen bauen Alles wurde von Menschen und für Menschen gebaut. Der Transport, ein besonders komplexes System, ist das Mittel, mit dem alle sozialen Aktivitäten wie das Reisen von Personen und die Beförderung von Gütern erfolgen. Wie kann der Verkehr besser gebaut und entwickelt werden, um den Bedürfnissen des menschlichen Lebens gerecht zu werden, um die steigende Nachfrage der Gemeinschaft bei der Ausübung all ihrer Aktivitäten zu befriedigen? Um dies zu lösen, wird eine Reihe von Maßnahmen diskutiert – vom nicht-motorisierten zum motorisierten Verkehr, von öffentlichen Massenverkehrsmitteln wie Bahn, Bus, Stadtbahn bis hin zum Privatbesitz. Dabei werden alle Seiten berücksichtigt: vom Bau von Infrastrukturen wie Schnellstraßen, Ringstraßen bis hin zur Entwicklung von Gesetzen. Wir werden auch die Erfahrungen (Erfolge und Misserfolge) von entwickelten und sich entwickelnden Städten wie Tokio, Hongkong, Seoul, Bangkok, Manila, Nagoya und Jakarta beim Aufbau nachhaltiger Verkehrssysteme für Menschen analysieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-93954-2_4 c45e3aec4d9ee65e40466ebac0c91bef;de;;;6.1.;;;Ein zukünftiges Cloud-verbundenes Fahrzeuginformationssystem für C-ITS-Anwendungsdienste in einer vernetzten Fahrzeugumgebung Im Zeitalter des Internets der Dinge (IoT) entstehen durch die Bedürfnisse der Menschen schnell verschiedene Anwendungen, die Menschen mit Dienstprogrammen versorgen. In letzter Zeit fördert die Kombination von Cloud-Computing, IoT-Technologien und Fahrzeuganwendungen das Intelligent Transportation System (ITS). Mit anderen Worten, dies dient der Sicherheit von Fahrzeugen und Fahrern sowie der Bequemlichkeit der Fahrer. Vehicular Ad-hoc Network (VANET) ist eine Anwendung des Mobile Ad-hoc Network (MANET), einer Netzwerktechnologie, die Fahrzeug-zu-Fahrzeug (V2V) und Fahrzeug-zu-Infrastruktur (V2I) mit drahtloser Kommunikation umfasst. Im realen Leben generieren Fahrzeuge und Infrastrukturen mit vielen Sensoren je nach Sensortyp verschiedene Daten für die Anwendungsdienste des kooperativen intelligenten Verkehrssystems (C-ITS). Daher erfordert das Sammeln, Verarbeiten und Speichern einer Reihe von Daten, die von verschiedenen Sensoren in Fahrzeugen und Infrastrukturen erzeugt werden, eine große Rechenkapazität und Speicherressourcen. In diesem Papier schlagen wir eine Architektur eines zukünftigen Cloud-verbundenen Fahrzeuginformationssystems für C-ITS-Anwendungsdienste in einer vernetzten Fahrzeugumgebung vor und beschreiben die Vorgehensweise unseres lokalen und globalen Fahrzeuginformationssystems in Bezug auf das Fallszenario.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-38904-2_18 0156a40fbc4ba0ae9b5352fca14acedf;de;;;6.1.;;;Vorschriften und Regulierungsmechanismen im Zusammenhang mit der Transfusionsmedizin in den Vereinigten Staaten von Amerika In den Vereinigten Staaten von Amerika (USA) begann die bundesstaatliche Regulierung von Blutprodukten mit „therapeutischem Serum“, das im Virus, Serum and Toxins Act von 1902 definiert wurde und als Reaktion auf ein Auftreten von Tetanus-kontaminiertem Diphtherie-Antitoxin verabschiedet wurde . Anschließend verabschiedete der US-Kongress als Reaktion auf die schockierende öffentliche Enthüllung wertloser und gefährlicher Patientenmedikamente den Food and Drug Act von 1906. Dieses Gesetz lieferte die erste gesetzliche Definition eines Arzneimittels, das einer Regulierung unterliegt, und erklärte, dass Arzneimittel, die im zwischenstaatlichen Handel vertrieben werden, nicht falsch gekennzeichnet, verfälscht, giftig oder schädlich sein. Eine zusätzliche Befugnis zur Regulierung von Blut und Blutprodukten wurde durch die Berücksichtigung von Blut als Droge gemäß diesem Gesetz abgeleitet, obwohl diese indirekte Befugnis später erfolgreich vor Gericht angefochten wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-3504-1_7 5b5c549163d4809b1fe5e770cb43374e;de;;;6.1.;;;Die aufkommende Rolle digitaler Technologien im Kontext humanitärer Lieferketten: eine systematische Literaturübersicht Die Rolle digitaler Technologien (DTs) in humanitären Lieferketten (HSC) ist ein zunehmend erforschtes Thema in der Operationsliteratur. Während sich zahlreiche Veröffentlichungen mit dieser Konvergenz beschäftigt haben, haben sich die meisten Studien auf die Untersuchung der Implementierung einzelner DTs im HSC-Kontext konzentriert und die einschlägige Literatur bis heute verstreut und fragmentiert belassen. Diese Studie bietet durch eine systematische Literaturrecherche von 110 Artikeln zu HSC, die zwischen 2015 und 2020 veröffentlicht wurden, einen einheitlichen Überblick über den aktuellen Stand der Technik von DTs, die im HSC-Betrieb eingesetzt werden. Die Ergebnisse der Literaturrecherche belegen die wachsende Bedeutung von DTs innerhalb des HSC, indem sie ihre Hauptziele und Anwendungsbereiche sowie ihren Einsatz in Bezug auf die verschiedenen HSC-Phasen (d. h. Mitigation, Preparedness, Response und Recovery) identifizieren. Darüber hinaus bieten die Ergebnisse auch Einblicke in die Art und Weise, wie teilnehmende Organisationen ein technologisches Portfolio konfigurieren könnten, das darauf abzielt, operative Schwierigkeiten bei HSC-Bemühungen zu überwinden. Diese Arbeit ist neu, da sie sich von der bestehenden traditionellen Perspektive auf die Rolle einzelner Technologien in der HSC-Forschung unterscheidet, indem sie mehrere DTs innerhalb des HSC-Bereichs untersucht.;-;-;-;https://link.springer.com/article/10.1007/s10479-021-04079-z 357c6f642b84a720979915194fceb93b;de;;;6.1.;;;Wachstum indischer Biotech-Unternehmen im Kontext der internationalen Biotechnologie-Industrie Das Papier diskutiert die Entwicklung und das Wachstum indischer Biotech-Unternehmen in den letzten Jahren. Es konzentriert sich auf die alternativen Geschäftsmodelle, die die wichtigsten Akteure der Branche übernommen haben, und hebt die Aktivitäten und Leistungen einiger weltweit wettbewerbsfähiger Unternehmen in verschiedenen Marktsegmenten hervor. Das Papier berichtet auch über die jüngsten Entwicklungen in der Branche in Bezug auf internationale Allianzen, Produktentwicklung sowie Investitionen und Expansion. Indien wird zunehmend als ein Land anerkannt, das kostengünstige Forschungs- und Produktionskapazitäten mit einem sich schnell verbessernden Klima für die Schaffung und den Schutz von geistigem Eigentum (IP) verbindet. Indische Unternehmen bemühen sich, in Nischenbereichen der Biotechnologie in der Wertschöpfungskette aufzusteigen. Es gibt in der Tat eine klare Chance für Global Player, den Vorteil Indiens zu nutzen, indem sie mit indischen Unternehmen zusammenarbeiten und potenzielle Marktchancen ausloten.;-;-;-;https://link.springer.com/article/10.1057/palgrave.jcb.3040112 5bb3de913c8cf6fb15ddf41805e8cd9d;de;;;6.1.;;;Fortschrittlicher Siedewasserreaktor (ABWR) Erstklassige Technik (FOAKE) Zwei fortgeschrittene Siedewasserreaktoren (ABWRs), die im Kernkraftwerk Kashiwazaki-Kariwa in Japan gebaut werden, repräsentieren die neuesten Entwicklungsstufen der Konstruktionsentwicklung in der Technologie von Siedewasserreaktorkraftwerken. Diese Einheiten (K-6 und K-7) haben eine Nennleistung von 1356 MWe und gehören damit zu den größten der Welt. Diese Einheiten werden von der Tokyo Electric Power Company (TEPCO), dem Eigentümer, und von General Electric International, Inc. (GEII, früher bekannt als GETSCO), Hitachi Ltd. und Toshiba Corporation im Rahmen einer Joint-Venture-Vereinbarung gebaut. Durch den Einbau dieser beiden neuesten Blöcke wird die Gesamtzahl der SWR in der Nuklearflotte von TEPCO auf 17 Blöcke mit einer elektrischen Gesamtkapazität von mehr als 17.000 MWe erhöht. K-6 und K-7 werden voraussichtlich 1996 bzw. 1997 in den kommerziellen Betrieb eintreten. Zum Zeitpunkt dieses Schreibens (Januar 1996) wurden bei der K-6-Einheit die Brennstoffladung und die erste Synchronisierung mit dem Netz erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-585-34288-7_14 50a5ed6ffc92d7c2bf2a16ded7395d95;de;;;6.1.;;;SCALEUS: Semantic Web Services Integration für biomedizinische Anwendungen In den letzten Jahren haben wir eine Explosion biologischer Daten erlebt, die hauptsächlich aus den Anforderungen der Life-Science-Forschung resultiert. Die überwiegende Mehrheit dieser Daten ist über verschiedene Bioinformatik-Plattformen, einschließlich relationaler Datenbanken und konventioneller Stichwortsuche, frei verfügbar. Diese Art von Ansatz hat in den letzten Jahren großartige Ergebnisse erzielt, erwies sich jedoch als nicht praktikabel, wenn Informationen kombiniert oder zwischen verschiedenen und verstreuten Quellen geteilt werden müssen. In den letzten Jahren wurden viele dieser Herausforderungen bei der Datenverteilung durch die Einführung des Semantic Web gelöst. Trotz der offensichtlichen Vorteile dieser Technologie brachte ihre Einführung neue Herausforderungen im Zusammenhang mit dem Migrationsprozess von bestehenden Systemen auf die semantische Ebene mit sich. Um diesen Übergang zu erleichtern, haben wir Scaleus entwickelt, ein semantisches Web-Migrationstool, das auf traditionellen Systemen eingesetzt werden kann, um Wissen, Inferenzregeln und Abfrageföderationen in die vorhandenen Daten einzubringen. Diese auf den biomedizinischen Bereich ausgerichtete webbasierte Plattform bietet in einem einzigen Paket eine einfache Datenintegration und semantische Webdienste, die Entwicklern und Forschern bei der Erstellung neuer semantisch verbesserter Informationssysteme helfen. SCALEUS ist als Open Source verfügbar unter;-;-;-;https://link.springer.com/article/10.1007/s10916-017-0705-8 1664ff306a7aaafa1668e5f190ad8105;de;;;6.1.;;;Blockchain- und Distributed-Ledger-Technologieanwendungen In etwa einem Jahrzehnt ihres Bestehens hat die Blockchain-Technologie ein gewisses Maß an Innovationsdiffusion in viele andere Sektoren als ihre ursprüngliche Anwendung von Kryptowährungen erlebt (siehe Abbildung 4-1). Dieses Kapitel präsentiert einen objektiven Blick auf die Entwicklungen von Blockchain- und Distributed-Ledger-Technologien jenseits der Kryptowährungen. Anhand des aktuellen Stands der Technik werde ich eine detaillierte Analyse bestehender und potenzieller Anwendungsfälle präsentieren, darunter E-Commerce, Vickrey-Auktion, selbstverantwortliches digitales Identitätsmanagement und wichtige Statistikaufzeichnungen. Das Kapitel enthält außerdem wichtige Punkte, die für die Anwendung von Blockchain- und Distributed-Ledger-Technologien in Unternehmen zu berücksichtigen sind. Ausgehend von der Begründung, warum Blockchain ein potenzielles Lösungskonzept für ein Unternehmen ist, werde ich hier Punkte wie Asset-Digitalisierung, Teilnehmeridentifikation und Berechtigungsgrade, Tokenisierung, dezentrale Anwendungen, intelligente Verträge und robuster Konsensalgorithmus, Skalierbarkeit des Datendurchsatzes, Zahlungskanäle, sowie eine Geschäftsmodellentwicklung für den Token-Verkauf.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-6005-0_4 90ca9d85efda03166040083ed43f3408;de;;;6.1.;;;HydroCube: ein hydrogeologisches Datenmodell mit Entitätsbeziehung Die Verwaltung, Handhabung und der Zugriff auf hydrogeologische Informationen hängen stark von den angewandten hydrogeologischen Datenmodellen ab, die sich zwischen Institutionen und Ländern unterscheiden. Die effektive Verbreitung hydrogeologischer Informationen erfordert die Konvergenz solcher Modelle, um hydrogeologische Informationen mehreren Nutzern wie Universitäten, Wasserversorgern sowie Verwaltungs- und Forschungseinrichtungen zugänglich zu machen. Da hydrogeologische Studien zudem komplex sind, benötigen sie eine Vielzahl qualitativ hochwertiger hydrogeologischer Daten mit entsprechenden Metadaten in klar gestalteten und kohärenten Strukturen. Es besteht daher die Notwendigkeit, hydrogeologische Datenmodelle zu entwickeln und zu implementieren, die so weit wie möglich den gesamten hydrogeologischen Bereich abdecken. 2005 wurde für die wallonische Region in Belgien ein neues Datenmodell namens HydroCube entwickelt. Das HydroCube-Modell stellt einen innovativen ganzheitlichen projektbasierten Ansatz dar, der eine vollständige Palette hydrogeologischer Konzepte und Funktionen abdeckt und ein effektives hydrogeologisches Projektmanagement ermöglicht. Das Modell speichert Daten in Bezug auf die Projektlokalität, hydrogeologische Ausrüstung und zugehörige Beobachtungen und Messungen. Ein besonderer Schwerpunkt liegt auf spezialisierten hydrogeologischen Feldversuchen wie Pump- und Tracertests. Dieses logische Datenmodell verwendet Entity-Relationship-Diagramme und wurde in der Microsoft Access-Umgebung implementiert. Es wurde mit einer voll funktionsfähigen Benutzeroberfläche angereichert.;-;-;-;https://link.springer.com/article/10.1007/s10040-010-0653-6 06c74e2464541cd4abab2e949afdebbe;de;;;6.1.;;;Intermolekulare Dynamik und paramagnetische Eigenschaften des heterometallischen Tm-Na-Komplexes mit makrocyclischem Liganden durch dynamische 23Na-NMR Die Temperaturabhängigkeit von Lanthanoid-induzierten Verschiebungen (LIS) und chemischen Austauschratenkonstanten werden untersucht. Die Analyse der chemischen Austauschratenkonstanten wurde mit der Methode der Analyse der Bandform unter Berücksichtigung der Temperaturänderung im LIS durchgeführt. Der Wert der freien Gibbs-Energie für die Aktivierung der intermolekularen Dynamik ist ΔG;-;-;-;https://link.springer.com/article/10.1007/s10847-021-01061-x cac7128e4481f5cfd1d27e4f46feecff;de;;;6.1.;;;Verhindern von datenschutzinvasiver Software durch kollaborative Reputationssysteme In die Privatsphäre eindringende Software, lose als Spyware bezeichnet, ist ein immer häufiger auftretendes Problem für Computerbenutzer von heute, für das es keine absolute Heilung gibt. Die meisten datenschutzverletzende Software befindet sich in einer rechtlichen Grauzone, da der Benutzer das bösartige Verhalten akzeptiert, wenn er dem Endbenutzer-Lizenzvertrag zustimmt. Dieses Papier schlägt die Verwendung eines spezialisierten Reputationssystems vor, um Informationen über das Softwareverhalten zwischen Community-Benutzern zu sammeln und auszutauschen. Eine Client-Anwendung hilft dem Benutzer beim Ausführen der Software auf dem lokalen Computer und zeigt das Feedback anderer Benutzer zum erwarteten Verhalten der Software an. Wir diskutieren wichtige Aspekte, die beim Aufbau eines solchen Systems zu beachten sind, und schlagen mögliche Lösungen vor. Basierend auf den gemachten Beobachtungen implementierten wir ein Client/Server-basiertes Proof-of-Concept-Tool, mit dem wir demonstrieren konnten, wie ein solches System funktionieren würde. Wir vergleichen diese Lösung auch mit anderen, konventionelleren Schutzmethoden wie Antiviren- und Anti-Spyware-Software.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75248-6_10 f9aeab770743d2b78df28a40a721dc57;de;;;6.1.;;;Einführung: Was ist Modern Spin? 1945-51 war eine bahnbrechende Periode in der Entwicklung der Kommunikation zwischen der Regierung, den Medien und den Menschen in Großbritannien. Die Regierung Attlee war die erste britische Regierung, die sich vollständig mit dem Dilemma auseinandersetzte, wie eine Regierung mit ihren Bürgern kommuniziert, um eine glaubwürdige Demokratie aufrechtzuerhalten. Die von ihr entwickelten Konzepte und Methoden wurden dann zum organisatorischen Rahmen für alle nachfolgenden britischen Regierungen. Dieses Buch erzählt die Geschichte der Reise dieser Regierung vom Idealismus zum Pragmatismus, von der Vision einer informierten Wählerschaft zu einer weltlichen Akzeptanz der Manipulation der Kommunikation, um Zustimmung zu schaffen – was heute als moderner „Spin“ bekannt ist.;-;-;-;https://link.springer.com/chapter/10.1057/9780230625549_1 8681ad227d23de5294d49eca06606a65;de;;;6.1.;;;Informationstechnologie als Enabler für Innovation in Government-to-Citizen-Prozessen Ziel dieses Papiers ist es zu analysieren, inwieweit Informationstechnologie als Wegbereiter für die Transformation von Produktionsprozessen im Zusammenhang mit den Aktivitäten von Regierungsorganen eingesetzt werden kann, wobei der Schwerpunkt auf der Nutzung der Internet-Technologie liegt, in der Regierung-zu-Bürger Prozesse im brasilianischen Kontext. Dazu wird der vom Verkehrsministerium des Bundesstaates Rio de Janeiro in Brasilien koordinierte Prozess zur Erteilung und Erneuerung von Führerscheinen vorgestellt, um zu zeigen, wie durch die Neugestaltung des bisherigen Produktionsprozesses mit Hilfe der Informationstechnologie Verbesserungen für die Bürger.;-;-;-;https://link.springer.com/chapter/10.1007/10929179_77 292d25fccf0ca5f5282161cf3097f1a9;de;;;6.1.;;;Politische und Marktherausforderungen in Bezug auf Dienstleistungen mit intelligenten Verkehrssystemen Die Entwicklung intelligenter Verkehrssysteme (ITS) ist eines der Instrumente, um die langfristigen Ziele der EU-Verkehrspolitik zu erreichen. Die neue EU-Strategie legt die Weichen für einen saubereren, umweltfreundlicheren und effizienten Verkehr, fördert intelligente Mobilität, um die Standards der Mobilitätsmuster zu ändern. Die Entwicklung von Technologien für mobile Geräte und den gemeinsamen Zugang zum Internet (jederzeit und an jedem Ort) bildet die Grundlage für die Schaffung neuer Dienste auch im Verkehrssektor. Ihre Weiterentwicklung erfordert jedoch eine Integration in den institutionellen, technologischen und operativen Bereich. Beispiele für Maßnahmen in dieser Richtung sind die C-ITS-Plattform, eine EU-Initiative, und ein neuer Dienst namens Mobility as a Service (MaaS). Begründung und Wirkung dieser innovativen Lösungen sind das Hauptüberlegungsthema dieses Artikels.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-66251-0_22 f2cd47dfe53a443acc529e8ac37ddb43;de;;;6.1.;;;Cockpit-Optimierung für eine zukünftige SESAR/NextGen-Betriebsumgebung Single European Sky ATM Research (SESAR) und Next Generation Air Transportation System (NextGen) sind ATM-Modernisierungsprogramme, die auf ein ATM-System abzielen, das eine größere Kapazität und Effizienz bietet und gleichzeitig das aktuelle Sicherheitsniveau beibehält. Das aktuelle Papier beschreibt und vergleicht die Veränderungen im Flugdeckbetrieb, die in der angedachten zukünftigen ATM-Umgebung auftreten werden. Die Meinungen von Sachverständigen werden eingeholt, um mögliche Auswirkungen auf das Cockpit durch menschliche Faktoren zu bewerten. Sowohl SESAR als auch NextGen beschreiben den Flugdeckbetrieb, der durch strengere Trennungsparameter und eine größere Delegation der Flugbahnkonformität für die Flugbesatzung definiert ist. Wichtige Aspekte des menschlichen Faktors waren die Sicherstellung einer klaren Kommunikation der Verantwortungsdelegation an die Flugbesatzung und die Auswirkungen einer verstärkten Nutzung von Echtzeitinformationen (z. B. meteorologische (MET), Verkehrsströme) auf das Flugplanungsverhalten. Weitere Ähnlichkeiten zwischen SESAR und NextGen und die damit verbundenen Auswirkungen auf den menschlichen Faktor werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-93885-1_13 f6be41f19218e9e7764de040503e79b2;de;;;6.1.;;;State-of-the-Art im strukturellen Gesundheitsmonitoring großer und komplexer ziviler Infrastrukturen Forschung und Verwaltung haben seit langem die Bedeutung der Implementierung von Langzeit-Structural Health Monitoring (SHM)-Systemen für zivile Infrastrukturen, insbesondere großspannige Weltraumstrukturen oder andere komplexe Infrastrukturen, erkannt, um die bauliche Sicherheit zu gewährleisten und vor Bauschäden zu warnen teure Reparatur oder gar Einsturz. Dieses Papier beginnt mit einer kritischen Überprüfung der SHM-Ziele und der Standardisierung für das SHM in zivilen Infrastrukturen. Gleichzeitig präsentieren die Autoren ihre Erfahrungen am Fallbeispiel von SHM-Anwendungen für große und komplexe zivile Infrastrukturen durch ein maßgeschneidertes polytypisches und synchrones Datenerfassungsgerät, das im SHM der Großraumturnhalle in Dalian. Das Papier schließt mit einer Diskussion des Stands der Technik im SHM für zivile Infrastrukturen und zeigt Bereiche auf, in denen weitere Arbeit erforderlich ist.;-;-;-;https://link.springer.com/article/10.1007/s13349-015-0108-9 4440618fe1e329a97ce41e14a4d72048;de;;;6.1.;;;Geregelte digitale Apotheke basierend auf elektronischer Krankenakte zur Verbesserung der Verschreibungsdienste In Japan führt der papierbasierte Prozess der Beschaffung verschreibungspflichtiger Medikamente zu Problemen wie Unannehmlichkeiten für Patienten, hohen Staatsausgaben und fehlender Regulierung von Online-Transaktionen mit gefälschten Arzneimitteln, insbesondere da Japan eine alternde Gesellschaft und eine seit langem bestehende staatliche Krankenversicherung hat ( NHI)-System. Eine regulierte digitale Apotheke (RDP) könnte eine innovative Lösung sein, die auf elektronischen Gesundheitsakten (EHR) und computergestützten Systemen zur Eingabe von Arztaufträgen (CPOE) basiert. Um die Implementierung von EPLR effektiver und sicherer zu gestalten, haben die Autoren die Wirksamkeit von drei Systemen zur Verwaltung von EHR überprüft und ein optimales System als Grundlage für EPLR in Japan empfohlen. Die Autoren schlagen auch eine Integration mit dem kürzlich vorgeschlagenen Adaptive Integrated Digital Architecture Framework (AIDAF) vor, und Integrationsschemata werden diskutiert. Darüber hinaus werden die Herausforderungen und die zukünftige Forschung angesprochen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-3013-2_13 c3f4ff53ef15788a256a108894188851;de;;;6.1.;;;Numerische Abdeckungsschätzung für die symbolische Simulation von Echtzeitsystemen Es werden drei numerische Abdeckungsmetriken für die symbolische Simulation dichter Zeitsysteme und deren Schätzverfahren vorgestellt. Es wurden auch spezielle Techniken entwickelt, um numerische Schätzungen von Zustandsräumen mit dichter Zeit abzuleiten. Eigenschaften der Metriken werden auch in Bezug auf vier Kriterien diskutiert. Anschließend wird über Implementierung und Experimente berichtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39979-7_11 6a222710d2a1ea0cf80346a42a8649d4;de;;;6.1.;;;Neue Tools und Techniken für die Minensicherheit und das Katastrophenmanagement Das Management von Katastrophen in Minen ist sowohl proaktiv als auch reaktiv. Das proaktive Management befasst sich mit verschiedenen Maßnahmen, die ergriffen werden, um Katastrophen durch rechtzeitiges Handeln des Betriebs- und Notfallpersonals zu verhindern und zu beseitigen. Reaktives Management hingegen befasst sich mit den Maßnahmen, die ergriffen wurden, um den durch eine Katastrophe verursachten Schaden zu verringern, Leiden zu lindern, Bergungsmaßnahmen zu ergreifen, die Rehabilitation zu organisieren, die Normalität der verschiedenen Operationen in der Mine zu bringen, die Angehörigen der Opfer umgehend zu informieren , Behörden, Print- und elektronische Medien und Anwohner. Es gibt detaillierte und umfassende Gesetze, Geschäftsordnungen, Rundschreiben, Vorschriften, verschiedene Verhaltenskodizes und Pläne für den Umgang mit verschiedenen Situationen, die zu einer Katastrophe in Bergwerken führen können (;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-2498-5_15 2db062719d6a925ad4676d4ed7484738;de;;;6.1.;;;Ereignisbasierte Kontrolle der Datenverbreitung im Gesundheitswesen Im Gesundheitswesen gibt es eine Bewegung in Richtung Prävention. Dieser Wandel beinhaltet den Einsatz von Technologie zur Unterstützung der Pflegeversorgung außerhalb traditioneller Pflegeeinrichtungen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00413-1_21 ae1cbdd850b35192560d8f165a274fd9;de;;;6.1.;;;Operative Plattform und Wachstum: Eine strategische Herausforderung Die globale Finanzkrise war hart und Experten haben unterschiedliche Ansichten über die Zukunftsaussichten. Einige der optimistischeren Analysten gehen davon aus, dass die Märkte 2013 oder 2014 die Niveaus von 2007 übertreffen werden. Aus dem Vergleich der verschiedenen Analysen kann nur geschlossen werden, dass die Märkte noch nicht stabil sind und die höhere Volatilität der Die Märkte der letzten Jahre werden sich fortsetzen.;-;-;-;https://link.springer.com/chapter/10.1057/9781137328878_23 266c9727290642eea1047eecefdb8c62;de;;;6.1.;;;Ein Blockchain-Framework für das Datenmanagement im Gesundheitswesen mit konsensbasiertem Selective Mirror Test-Ansatz Die Blockchain-Technologie gewinnt als eine der aufregendsten technologischen Entwicklungen schnell an Bedeutung in der Gesundheitsbranche. Die Blockchain-Technologie im Gesundheitswesen hat sich in erster Linie auf den komplexen medizinischen Prozess wie klinische Studien und Operationen konzentriert, der unter den Nachteilen der Zulassungserlangung leidet. Daher sind Fehlertoleranz und sichere Blockchain erforderlich, um den Anforderungen des Gesundheitswesens gerecht zu werden. Wir empfehlen einen Konsensmechanismus für das Datenmanagement im Gesundheitswesen, der die Fehlertoleranz verringert und zu einem besseren Datenmanagement führt. Neben Fehlertoleranz bieten wir eine Lösung für die Verwaltung und den Zugriff auf eine große Menge medizinbasierter Daten. Das Ergebnis dieser Arbeit erwartet zahlreiche Stack-Halter, die sich im medizinischen System engagiert haben, um überlegene Dienstleistungen für das Datenmanagement zu erbringen. Die Ergebnisse zeigen, dass der vorgeschlagene Ansatz einen besseren Kompromiss bieten kann, indem verschiedene Parameter wie Transaktionsrate, Datenverschlüsselung und Fehlertoleranz analysiert werden. Diese Studie zeigt, dass die Bemühungen zur Nutzung der Blockchain-Technologie im Gesundheitsbereich exponentiell wachsen. Es gibt Bereiche im Gesundheitsbereich, die von der Blockchain-Technologie stark betroffen sein könnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-69395-4_5 9f99c56ab85ae844cf1a083d304cb76a;de;;;6.1.;;;Übersetzen von Bayes-Netzwerken in Entity-Relationship-Modelle Big-Data-Analyseanwendungen fördern die Konvergenz von Datenmanagement und maschinellem Lernen. Aber es gibt keine Begriffssprache, die in beiden Welten gesprochen wird. Der Hauptbeitrag des Papiers ist eine Methode zur Übersetzung von Bayesschen Netzwerken, einer zentralen Begriffssprache für probabilistische grafische Modelle, in verwendbare Entity-Relationship-Modelle. Die transformierte Darstellung eines Bayesschen Netzes lässt mathematische Details über probabilistische Zusammenhänge aus, entfaltet aber alle für Datenmanagementaufgaben relevanten Informationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-46397-1_5 c4a5e55c591dfb2646851e7ce853abba;de;;;6.1.;;;Effiziente Ausführung wissenschaftlicher Workflows in der Cloud durch adaptives Caching Viele wissenschaftliche Experimente werden heute mit wissenschaftlichen Workflows durchgeführt, die immer datenintensiver und komplexer werden. Wir betrachten die effiziente Ausführung solcher Workflows in der Cloud. Da Workflow-Benutzer häufig andere Workflows oder von anderen Workflows generierte Daten wiederverwenden, besteht ein vielversprechender Ansatz für eine effiziente Workflow-Ausführung darin, Zwischendaten zwischenzuspeichern und zu nutzen, um eine erneute Ausführung von Aufgaben zu vermeiden. In diesem Whitepaper schlagen wir eine adaptive Caching-Lösung für datenintensive Workflows in der Cloud vor. Unsere Lösung basiert auf einer neuen wissenschaftlichen Workflow-Management-Architektur, die die Speicherung und Wiederverwendung von Zwischendaten automatisch verwaltet und sich an die Variationen der Aufgabenausführungszeiten und der Ausgabedatengröße anpasst. Wir haben unsere Lösung evaluiert, indem wir sie in das OpenAlea-System implementiert und umfangreiche Experimente an realen Daten mit einer datenintensiven Anwendung in der Pflanzen-Phänotypisierung durchgeführt haben. Die Ergebnisse zeigen, dass adaptives Caching zu erheblichen Leistungssteigerungen führen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-62271-1_2 bbec3c82858b04e398e4869992b8ef78;de;;;6.1.;;;Prioritäten des Geodatenmanagements für die Bewertung von Europas Küsten und Meeren Systemisches Verständnis der Meeres- und Küstenumwelt erfordert eine Datenintegration nach einem entsprechenden Konzept, z.B. mehrdimensionale und funktionale Abbildung. Eine Reihe neuer Aktivitäten wird die Datenversorgung von Küsten und Meeren verbessern. Diese Daten müssen integriert und mit sozioökonomischen Faktoren und den daraus resultierenden Belastungen kombiniert werden. Die daraus resultierende Wissensbasis sollte in der Lage sein, wirksame ökosystembasierte Managementmaßnahmen wie integriertes Küstenzonenmanagement, maritime Raumplanung, Erweiterung von Natura-2000-Gebieten oder Anpassung an den Klimawandel in Küstenregionen und maritimen Sektoren zu unterstützen. Eine Bewertung, die darauf abzielt, solche Prozesse zu informieren, erfordert ein Überdenken der Prioritäten für die Erhebung und Analyse von Geodaten, insbesondere aufbauend auf der gemeinsamen Nutzung und Standardisierung von Daten, einer verbesserten Integration von Geodaten, der Förderung der Interoperabilität relevanter Informationssysteme und der Möglichkeit, verschiedene Datentypen in Modelle zu integrieren. Bei der kohärenten Umsetzung der Geodateninfrastruktur sollten verschiedene Aspekte von Geodaten berücksichtigt werden.;-;-;-;https://link.springer.com/article/10.1007/s11852-011-0173-0 90f17d23322755f55ff5d9cabfff9781;de;;;6.1.;;;Das persönliche Archiv von Robert: Zur Konservierungsplanung In diesem Kapitel untersuchen wir das Muster „Erhaltungsplanung“. Die Episode beschreibt die Abenteuer von Robert, als er beschloss, sein gesamtes digitales Erbe zu bewahren. In den technischen Abschnitten werden komprimierungsbezogene Risiken, Aufbewahrungsplanung, Datenverwaltungsplanung, Datenreplikation und Blog-Aufbewahrung behandelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98488-9_17 e2d65e922ed69d8e40619236ba88d484;de;;;6.1.;;;Ein neuartiger Original-Streaming-Video-Wavelet-Domain-Wasserzeichen-Algorithmus im Urheberrechtsschutz In der Veröffentlichung wird ein neuartiger Algorithmus zum Original-Streaming-Video von Wavelet-Domain-Wasserzeichen mit Independent Component Analysis (ICA) vorgeschlagen, der bei der Signalblinderkennung verwendet wird. In diesem Algorithmus besteht er darin, das Modell der Wavelet-Niederfrequenzkoeffizientendifferenz im Videohintergrund zu regulieren, die von ICA aufgenommen wird, und die Quantisierungsmodulierung der Wavelet-Niederfrequenzkoeffizientendifferenzen von 8 Pixelblöcken in einem MB. Dieser Algorithmus hat eine gute Stabilität gegenüber einigen gängigen Videoangriffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89796-5_107 4b86f1b36cfe9b3be0d6f74dbd6929f7;de;;;6.1.;;;Integration von BIM in Bauverträge Der Einsatz von BIM-Planungstechnologien wirft eine Vielzahl rechtlicher Fragen auf. Kernaufgabe des Bauvertragsrechts ist es, die zur Anwendung dieser Planungsmethodik erforderlichen Prozesse sowie die Rechte und Pflichten der Vertragsparteien zu regeln. Nach einer ersten Diskussion der neuen Vertragsstrukturen im internationalen Kontext behandeln die Autoren die regulatorischen Aspekte der Arbeitsorganisation/Prozessdetails, Datenrechte, Haftung, BIM-Management und Vergütung. Die Autoren legen den Schwerpunkt auf die aus ihrer Sicht wesentlichen Interessen, die es bei der Vertragsgestaltung zu berücksichtigen gilt. Lösungsansätze internationaler Standardvertragsmodelle (AIA, ConsensusDocs, CIC) werden vorgestellt und verglichen. Die Autoren kommen zu dem Schluss, dass BIM weder ein neues Paradigma bei den Vertragsarten noch ein neues Haftungsregime erfordert. Einzelheiten zum Einsatz von BIM können in BIM-spezifischen Vertragsanhängen geregelt werden, die den einzelnen Verträgen beigefügt sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-92862-3_17 6648d713dfc5eac5b4e405d2196244a4;de;;;6.1.;;;Über den Entwurf und die Spezifikation von nachrichtenorientierten Programmen Prozesse sind Bausteine ​​zur Modellierung von Umgebungen, in denen parallele und verteilte Verarbeitung stattfindet. In der parallelen Programmierung spielen sie die Rolle von Standardeinheiten (wie auch Unterprogramme oder Prozeduren in der sequentiellen Programmierung). Die Prozesskommunikation und -synchronisation kann entweder über Shared Variables (gemeinsamer Adressraum) oder durch Nachrichtenübertragung erfolgen. Es hat sich gezeigt, dass der Nachrichtenübertragungsmechanismus zu einer allgemeineren Rechenstruktur führt. In diesem Beitrag entwickeln wir die Anfänge einer Methodik zum Umgang mit dem, was wir nachrichtenorientierte Programmierung nennen. Nebenbei bemerken wir, dass die Methodik für die Programmierung mit gemeinsamen Variablen gut entwickelt ist und eine Entwicklung zeigt, die von operationellen (automatischen) Konstrukten (Semaphoren) zu höheren Programmierkonstrukten (kritische Regionen und dann Monitore) führt. Neuere mathematische Theorien der nachrichtenorientierten Programmierung behandeln das Thema aus operativer Sicht. Die Modelle sind jedoch zu weit von den Kontroll- und Datenstrukturen von Programmen entfernt, um den Designer bei der Konstruktion eines Prozesses anzuleiten. Um diese Lücke zwischen Programmspezifikation und Programmimplementierung (ausgedrückt in der von uns verwendeten Hochsprache) überbrücken zu können, greifen wir auf eine definierende Spezifikationstechnik zurück, die auf dem Konzept des abstrakten Datentyps basiert. Die Spezifikationstechnik wird in Verbindung mit einigen nützlichen Designprinzipien verwendet, um unsere Ideen durch Lösungen für bekannte Probleme zu veranschaulichen. Die zwei Hauptprinzipien, die wir diskutieren, sind: Unterschiede (und Bedürfnisse) für Definitionen von Prozess- und Nachrichtenstrukturen in einer gegebenen Anwendung und die Konzepte der Modulstärke und Modulkopplung, wie sie von Myers vorgebracht wurden. Schließlich veranschaulichen wir, wie uns die High-Level-Definitionstechnik zu einer unkomplizierten Methode zum Studium einiger Eigenschaften von nachrichtenorientierten Programmen führt. Wir geben ein Beispiel für den Beweis der Deadlock-Freiheit einer Lösung des Verbraucher- und Produzentenproblems.;-;-;-;https://link.springer.com/article/10.1007/BF00977783 161307793e325f34df49fe7fe978e195;de;;;6.1.;;;Expansion über das Sonnensystem hinaus: Aktuelle Beobachtung und Theorie Galaxien, Sterne und Planeten haben den menschlichen Geist seit Jahrhunderten fasziniert und inspiriert. Eine relativ junge Entdeckung in unserem Universum sind sogenannte extrasolare Planeten. Diese Planeten wurden erstmals 1995 entdeckt und bewegen sich in großen Entfernungen weit außerhalb unseres Sonnensystems. Eine große Herausforderung in der extrasolaren Planetenforschung besteht darin, dass diese Planeten extrem schwer zu entdecken sind. Tatsächlich erfordert diese Herausforderung in vielen Situationen großen Einfallsreichtum bei der Datenanalyse und Informationsverarbeitung. Die Motivation in diesem Kapitel besteht darin, das allgemeine Umfeld zu beschreiben, in dem diese Herausforderungen stattfinden. Im Zuge dieser Erkundung wird der Leser tief in unser Universum reisen, wo stille Boten wie die Weltraumsatelliten COROT oder Kepler lautlos, zuverlässig und kontinuierlich mit uns kommunizieren, um unser Verständnis über die Entstehung von Planeten, unseren Sonnensystem und unser Universum im Allgemeinen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-59090-5_2 c83acf517c906df9f430d9d0800ac7aa;de;;;6.1.;;;Strukturdesign und Aufbau eines Datenbankanwendungssystems für gebietsfremde Arten in der Provinz Shandong, China Dieses Papier präsentiert eine Fallstudie über das Strukturdesign und die Einrichtung eines Datenbankanwendungssystems für gebietsfremde Arten in der Provinz Shandong, das mit dem geografischen Informationssystem, Computernetzwerk und Datenbanktechnologie zur Erforschung gebietsfremder Arten integriert wird. Die Module der Datenbank für gebietsfremde Arten, einschließlich der Eingabe von klassifizierten Daten, Statistiken und Analysen, Artenbildern und Verbreitungskarten sowie der Eingabe veralteter Daten, wurden von Visual Studio.net 2003 und Microsoft SQL Server 2000 angesprochen. Die Informationen zu gebietsfremden Arten enthalten die Informationen zur Klassifizierung , Artenunterscheidungsmerkmale, biologische Merkmale, ursprüngliches Gebiet, Verbreitungsgebiet, Eintrittsart und -route, Invasionszeit, Invasionsgrund, Interaktion mit der endemischen Art, Wachstumszustand, Gefahrenzustand und räumliche Informationen, dh Verbreitungskarte. Basierend auf den obigen Grundlagen wurden mehrere Modelle entwickelt, einschließlich Anwendungs-, Prüf-, Änderungs-, Druck-, Hinzufügen- und Rückgabemodelle. Darüber hinaus können wir durch die Einrichtung von Indextabellen und Indexkarten die Daten wie Bild-, Text- und GIS-Kartendaten auch räumlich abfragen. Diese Forschung schuf die technologische Plattform für den Austausch von Informationen über wissenschaftliche Ressourcen gebietsfremder Arten in der Provinz Shandong und bietet die Grundlage für die dynamische Untersuchung gebietsfremder Arten, die Warntechnologie der Prävention und das schnelle Reaktionssystem. Das Datenbankanwendungssystem besaß die Prinzipien der guten Praktikabilität, der benutzerfreundlichen Oberfläche und der bequemen Bedienung. Es kann den Benutzern vollständige und genaue Informationsabfragedienste über gebietsfremde Arten bereitstellen und dem Administrator Funktionen zur dynamischen Verwaltung der Datenbank bereitstellen.;-;-;-;https://link.springer.com/article/10.1007/s11676-007-0002-3 a77b2eed693cb0a307b1d80fce73cfa3;de;;;6.1.;;;Eine Lösung für die Registrierung des Urheberrechts digitaler Bilder basierend auf der Konsortium-Blockchain Zuverlässige Aufzeichnungen über die Namensnennung sind ein wirksames Mittel, mit dem Urheberrechtsinhaber digitaler Bilder Eigentumsnachweise vorlegen, um ihre Rechte und Interessen zu verteidigen. Die zentralisierte Registrierung vom Urheberrechtsamt weist Nachteile in Form hoher Servicekosten, langer Verarbeitungszeit und Anfälligkeit für Manipulationen von Registrierungsaufzeichnungen auf. Die dezentrale Lösung auf Basis öffentlicher Blockchain hat den Nachteil, dass die Registrierungskosten und die Verfügbarkeit der Dienste von den Preisen der jeweiligen digitalen Währungen sowie den Kosten für die Transaktionsabwicklung abhängig sind. In diesem Papier schlagen wir ein Anwendungsmuster der Konsortium-Blockchain vor und schlagen dann eine dezentralisierte Architektur der Urheberrechtsregistrierung für digitale Bilder basierend auf dem Anwendungsmuster vor. Außerdem wird basierend auf der Architektur und dem Design der Registrierungslogik ein dezentraler Anwendungsprototyp implementiert, der stabile niedrige Servicekosten, sofortige Registrierungsverarbeitung und manipulationssichere Registrierungsinformationen für das Urheberrecht digitaler Bilder berücksichtigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1702-6_23 e1db64d566e4524d26b494c27efca175;de;;;6.1.;;;Nicht unterscheidbarer binärer Baum mit variabler Länge für die Schlüsselwortsuche über verschlüsselte Daten Wir betrachten das Problem der datenschutzwahrenden Stichwortsuche in den Clouds. In diesem Papier schlagen wir ein neues durchsuchbares Verschlüsselungsschema vor, das eine effiziente und sichere Abfrageverarbeitung erfüllt. Insbesondere verwendet unser Schema eine neuartige Datenstruktur namens;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-60029-7_51 cb377773dd9fc6f54d643c78f1ed1b57;de;;;6.1.;;;Krebsdaten, Informationsstandards und konvergente Bemühungen Der Krebsgemeinschaft sind Informatik oder Datenstandards nicht fremd. Tatsächlich kündigten Tumorregister und klinische Behandlungsprotokolle innerhalb des Gesundheitswesens eine Strenge der Datendarstellung und -struktur an, für die der Rest des Gesundheitswesens Jahrzehnte brauchte. Sobald jedoch der größere Bereich der Gesundheitsstandards in Gang gekommen war, umfasste er die Prinzipien der Interoperabilität und des Datenaustauschs in einem Umfang, für den die Vorlagen, Codes und Profile für frühe Krebserkrankungen nicht ausgelegt waren. Das Universum der Krebsinformationen bleibt jedoch sehr groß, und die Nützlichkeit kirchlicher Standards bleibt bestehen. Die Frage ist, wie die domänenspezifischen Datenstandardanforderungen der Krebsgemeinschaft durch die bestehenden und neuen Gesundheitsinformationsstandards, die sie umgeben, genutzt werden können. Da der Bereich Krebs zu den auffallendsten Multisystem- und Multiorgandisziplinen in der klinischen Medizin gehört, welche Vorteile könnten sich aus der Übernahme von Gesundheitsinformationsstandards mit einem größeren Spektrum ergeben? Einige dieser Fragen werden in diesem einleitenden Kapitel beantwortet, es genügt, dass sie aufgeworfen, in eine historische Perspektive geworfen und von einer maßgeblichen Reihe von Kapiteln gefolgt werden, die Tiefe und Einblicke in die Beziehung zwischen Krebsinformatik und der größeren Welt der Gesundheitsinformationsstandards bieten provide .;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0063-2_10 2ce09e4bf69aca2634d1cb52a88a527f;de;;;6.1.;;;Eine Web- und Virtual Reality-basierte Plattform für die kollaborative Produktprüfung und -anpassung and In diesem Kapitel werden der konzeptionelle Rahmen und die Entwicklung einer webbasierten Plattform zur Unterstützung der kollaborativen Produktprüfung, Anpassung und Demonstration in einer virtuellen/augmented-Reality-Umgebung beschrieben. Zunächst wird der industrielle Bedarf im Zusammenhang mit dieser Plattform skizziert und ein kurzer Überblick über die jüngsten Forschungsarbeiten gegeben. Anschließend wird der konzeptionelle Rahmen der webbasierten Plattform vorgestellt. Das Design und die Implementierung werden diskutiert und geben einen Einblick in die Architektur- und Kommunikationsaspekte, die Bausteine ​​der Plattform und ihre Funktionalität. Ein indikativer „Anwendungsfall“ veranschaulicht, wie dieser Ansatz und diese Instrumente auf die gemeinsame Überprüfung, Demonstration und Anpassung von Produkten aus der Textilindustrie angewendet wurden. Abschließend werden Schlussfolgerungen zu den potenziellen Vorteilen der Nutzung der webbasierten Plattform im Hinblick auf die Bedürfnisse kollaborativer Produktentwicklungsaktivitäten gezogen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84882-287-0_6 b637ce10cf2cb01019a490fe744a6bf9;de;;;6.1.;;;Sekundärmedizinische Forschungsdatenbanken Sekundäre medizinische Datenbanken werden in diesem Buch nach ihren Zielen klassifiziert, die normalerweise darin bestehen, die klinische Forschung, administrative Funktionen, die medizinische Ausbildung oder das öffentliche Gesundheitswesen zu unterstützen. Da sehr große medizinische Datenbanken Daten aus verschiedenen Quellen sammeln, integrieren, speichern und bereitstellen können und mehrere Zwecke unterstützen können, können sie sowohl als primäre Datenbanken dienen, wenn die Daten zunächst für die direkte Patientenversorgung gesammelt werden, als auch als sekundäre Datenbanken wenn die Daten auch für andere Zwecke verwendet werden (Glichlich 2007). Nachdem in den 1960er Jahren mit dem Aufbau primärer medizinischer Datenbanken begonnen wurde, wurde bald klar, dass die sekundären Sammlungen von Informationen, die aus primären klinischen Datenbanken extrahiert wurden, von großem Wert sein könnten, um die klinische Forschung zu unterstützen, den klinischen Entscheidungsprozess zu verbessern und die Qualität Gesundheitsvorsorge. Als Computerspeichergeräte größer und kostengünstiger wurden, entstand in diesen sechs Jahrzehnten eine große Vielfalt sekundärer klinischer Datenbanken.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-85729-962-8_6 7f56997d18de0a64f01c503b9c2193cc;de;;;6.1.;;;Benutzeranforderungen für ein mobiles Katastrophendokumentationssystem Für ein erfolgreiches Katastrophenmanagement ist die Analyse der Katastrophe erforderlich. Dazu ist die Dokumentation der Katastrophe notwendig. Bisher beschäftigen sich viele Studien mit unterschiedlichen Aspekten mobiler Systeme für das Katastrophenmanagement. Sie werden für Katastrophenschutzaktivitäten von öffentlichen Sicherheitseinheiten entwickelt, es gibt jedoch keine Anwendungen für den Dokumentationsprozess während und nach einer Katastrophe. In diesem Beitrag beschreiben wir einen Ansatz für ein mobiles Katastrophendokumentationssystem. Das Hauptaugenmerk liegt auf den Nutzeranforderungen der unterschiedlichen Nutzergruppen. Die Katastrophendokumentation konzentriert sich hauptsächlich auf Informationen über eine Katastrophe und mögliche Aktivitäten von Katastrophen- und Sicherheitsexperten. Die Dokumentationsstruktur sollte eine gemeinsame Sprache verwenden, die auf einer Standardterminologie basiert. Eine einheitliche Dokumentationsstruktur würde helfen, die Informationsgrundlage, Zugänglichkeit und bessere Einbindung in räumliche Entscheidungsprozesse zu harmonisieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-27468-5_21 c335e6985128fc4c5906c4b72dc4d5b9;de;;;6.1.;;;BASIC: Auf dem Weg zu einem blockchainbasierten agentenbasierten Simulator für Städte Autonome Fahrzeuge (AVs), Drohnen und Roboter werden unsere Art zu reisen und den urbanen Raum zu verstehen revolutionieren. Um zu funktionieren, wird von all diesen Geräten erwartet, dass sie viele sensible Daten über unsere täglichen Aktivitäten sammeln und analysieren. Aktuelle Betriebsmodelle für diese Geräte stützen sich jedoch weitgehend auf zentralisierte Modelle zur Verwaltung dieser Daten. Die Sicherheit dieser Modelle hat erhebliche Probleme aufgedeckt. Dieses Papier schlägt BASIC vor, den auf Blockchain-Agenten basierenden Simulator für Städte. Dieses Tool zielt darauf ab, die Machbarkeit des Einsatzes von Blockchain in simulierten urbanen Szenarien zu überprüfen, indem die Kommunikation zwischen Agenten durch betrachtet wird;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20937-7_10 2c69213e472c086eaca1179a699e47d4;de;;;6.1.;;;Ein kurzes Verständnis des Blockchain-basierten Gesundheitsdienstleistungsmodells über eine remote Cloud-verbundene Umgebung Die Blockchain-Technologie steht aufgrund ihrer unveränderlichen und anonymen Datenerfassung ohne zentrale Instanz im Rampenlicht. In diesem Papier stellen wir ein Blockchain-basiertes Gesundheitsmodell vor, um eine groß angelegte Blockchain zu demonstrieren. Das Blockchain-basierte Modell deckt zahlreiche Sektoren wie Finanzen, IoT, Gesundheitswesen usw. ab. Die Blockchain-Technologie hat ihre Authentizität als praktisch unbestechlicher kryptografischer Datenspeicher bewiesen, der dem Endbenutzer auf sichere Weise zur Verfügung gestellt wird. Das Blockchain-Modell besteht aus einer Reihe von Maschinen, die On-Demand-Dienste über das Sicherheitsnetz bereitstellen können. Der Zugangspunkt zu heterogenen Krankenakten über das Netzwerk wird von einem Computer-Hub verwaltet, der als pseudo-anonymes System arbeitet. Die Voraussetzung für medizinisch sensible Daten ist ein Wert aus allen Aspekten, die von Patientensymptomen, ärztlichen Attesten, Transaktionsdetails usw. reichen. Die Schönheit des Blockchain-Modells ist seine Dezentralisierung, mit der es gegen einen Single-Point-Angriff kämpfen kann. Der Bedarf an sensiblen Daten wird von Tag zu Tag größer, was einen ausgefeilteren Service für Geräte erfordert, die persönliche Informationen über webbasierte Anwendungen oder die Cloud sammeln. Dieses Papier beleuchtet einen umfassenden Einblick in den Zugriff auf strukturierte medizinische Daten über Blockchain. Durch Prototyping wird dieses Modell den realen Datenmetrikpunkt in der weiteren Implementierung identifizieren, extrahieren und analysieren. Ein ärztliches Attest wurde von einer bestimmten Personengruppe gefälscht, wodurch sie der Regierung Kopfschmerzen bereiten und verschiedene Dienste für eine körperbehinderte Person von ihnen unsachgemäß missbraucht werden. Elektronische Krankenakten verwenden uralte Technologien zur Speicherung, sie müssen modifiziert und streng gesichert werden, um unsere technologische Weiterentwicklung zu präsentieren. In diesem Papier macht die Blockchain, das musterbasierte Modell, das medizinische Datenmanagement für Leistungssuchende und -anbieter transparenter. Der riesige Schritt der Blockchain wird die zukünftige elektronische Gesundheitsversorgung revolutionieren, wie sie mit Daten interagiert und diese speichert. Aber am nächsten Tag wird es nicht passieren. Es kann mit bestimmten kleineren Problemen konfrontiert werden, die in seiner Entstehungsphase langsam gemildert werden können. Dieses Modell hofft also, die regulatorischen Hürden zu lösen. Blockchain entwickelt sich als das Plateau der Produktivität für die Verteilung von Informationen im Gesundheitswesen. In diesem Papier wird ein Modell vorgestellt, das kryptografische Beweise für die Arbeit an mehreren Standorten enthält. Diese starke Spionage zwischen Datenblöcken überprüft Daten gegen Diebstahl. Sie könnte einen Konvergenzpunkt über ein interoperables Netzwerk beeinflussen und die zentrale administrative Kontrolle verringern. Eine elektronische Gesundheitsakte, die Blockchain verwendet, ist eine Integration von klinischen Daten, ärztlichen Attesten usw., die vollständig erstellt werden, medizinische Daten, die über eine Reihe von intelligenten Geräten gesammelt werden, und Krankenhausdatenbanken über die Cloud und andere Quellen können alle sicher verschlüsselt werden auf individuelle Anforderungen an einen vollständigen Kettenzugriff. Jede Serviceinteraktion wird mit intrinsischer Sicherheit und durch die Implementierung einer Blockchain im Gesundheitswesen hinzugefügt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5258-8_87 c0fb5c1d26831f9d93638d3f4f634418;de;;;6.1.;;;Für Resilienz regieren: eine neue Epoche in der US-Umweltpolitik und -politik? Die Entwicklung der US-Umweltpolitik erfolgte durch eine Reihe von drei sich überschneidenden Epochen, die sich jeweils durch Unterschiede in der Problemdefinition und politischen Zielsetzungen, Umsetzungsphilosophien, Interventionspunkten, politischen Instrumenten, Daten- und Informationsbedürfnissen, politischen und institutionellen Kontexten und Schlüsselfaktoren auszeichneten Veranstaltungen und öffentliche Aktionen. In der dritten Umweltepoche wurden die politischen Bemühungen hauptsächlich im Kontext der Nachhaltigkeit ausgerichtet und konzentrierten sich auf die Anwendung umfassender, von unten nach oben gerichteter Politik- und Planungsinitiativen. Trotz seines praktischen Ansatzes zur Bewältigung übergreifender Umweltfragen hat das Paradigma der „nachhaltigen Gemeinschaften“ keine Transformation ermöglicht, bei der die US-Gesellschaft innerhalb der ökologischen Grenzen des Erdsystems lebt. Als Folge des politischen Versagens der Nachhaltigkeitsepoche haben Umweltpolitiker zunehmend das Konzept der Resilienz in den Rahmen politischer Diskussionen angewendet. Diese Studie stützt sich auf die Resilienztheorie und wendet den Rahmen der Umweltepoche an, um die Entstehung einer vierten Epoche in der US-Umweltpolitik und -politik zu konzeptualisieren, die für Resilienz regiert. Eine Untersuchung der Merkmale, die eine auf Resilienz ausgerichtete Umweltepoche auszeichnen, trägt zur Theorie bei und bietet politischen Entscheidungsträgern praktische Einblicke, indem sie Möglichkeiten aufzeigt, sich auf laufende und beispiellose Umweltherausforderungen vorzubereiten.;-;-;-;https://link.springer.com/article/10.1007/s13412-021-00685-2 236166dd7890fe552f8e9cf39b08654e;de;;;6.1.;;;Die NoSQL-Toolbox: Die NoSQL-Landschaft in Kürze In diesem Kapitel beleuchten wir den Entwurfsraum verteilter Datenbanksysteme und unterteilen ihn in die vier Dimensionen Sharding, Replikation, Speicherverwaltung und Abfrageverarbeitung. Ziel ist es, umfassende Anforderungen an das Datenmanagement bereitzustellen, die beim Design eines flexiblen Backends für global verteilte Webanwendungen berücksichtigt werden müssen. Daher untersuchen wir die Implementierungstechniken von Systemen und diskutieren, wie sie mit unterschiedlichen funktionalen und nichtfunktionalen Eigenschaften (Zielen) von Datenmanagementsystemen zusammenhängen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-43506-6_8 1f2ccaa91a7b8317859dd4a06630aab0;de;;;6.1.;;;Cloud-Lösungen für IoT Das Internet der Dinge (IoT)-Paradigma ebnet den Weg, jedes Objekt mit der Internetumgebung zu verbinden, um Informationen auszutauschen, die die Lebensqualität verbessern. Auf der anderen Seite erleichtert das Cloud-Computing das Pay-per-Use-Modell, indem es die Bereitstellung von Computerressourcen auf Abruf bereitstellt. Das IoT kann unbegrenzte Ressourcen und Rechenkapazitäten aus der Cloud gewinnen und die Cloud kann auf dynamische und verteilte Weise den realen Szenarien voranschreiten. In diesem Kapitel wird die Rolle von Cloud Computing im IoT vorgestellt und die Notwendigkeit der Integration von IoT und Cloud erörtert, wobei die Vorteile und Herausforderungen bei der Implementierung hervorgehoben werden. Es betont auch die Rolle der Evolution von Cloud-basierten IoT-Systemen hin zu föderierten Ökosystemen und deren Architektur, Anforderungen und Herausforderungen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30945-9_2 d9d23853b597d928c974bfbd79b56505;de;;;6.1.;;;Modellierung eines flexiblen Replikations-Frameworks für raumbasiertes Computing Große verteilte Systeme erfordern oft eine komplexe Interaktion zwischen dynamisch hinzukommenden und austretenden Teilnehmern. Im Vergleich zu klassischen Ansätzen, die von einer zentralen Instanz koordiniert werden, haben sich Peer-to-Peer-Systeme als hoch skalierbare und flexible Architektur für solche Szenarien erwiesen. Koordinations-Middleware wie Tuple Spaces kann Entwicklern dabei helfen, die Komplexität der verteilten Koordination zu bewältigen, indem sie einfache Abstraktionen für die entkoppelte Interaktion autonomer Peers anbietet. Ein fehlertolerantes Peer-to-Peer-System kann jedoch nur aufgebaut werden, wenn Replikationsmechanismen vorhanden sind, um Daten auf mehreren Peers gleichzeitig zu speichern. Um weltraumbasierte Middleware mit einem flexiblen Replikationsmechanismus anzureichern, haben wir ein generisches, Plugin-basiertes Replikations-Framework entwickelt, das eine einfache Anpassung über konfigurierbare Replikationsschemata unterstützt. Das Framework kann als Testumgebung dienen, um die Effizienz und Zuverlässigkeit verschiedener Replikationsstrategien zu analysieren. Seine Architektur basiert auf hochgradig zusammensetzbaren Koordinationsmustern, die intern über Raumcontainer interagieren. Anhand des generischen Frameworks zeigt dieser Beitrag, wie verschiedene Varianten der Multi-Master-Replikation realisiert und für verschiedene Szenarien angepasst werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44920-2_16 c17473b857282381a8033c565897d159;de;;;6.1.;;;Generierung mehrerer Wasserzeichen mit Dot Code A und Hadamard Transform für Audioinhalte In diesem Papier schlagen wir einen Audio-Wasserzeichen-Algorithmus zum Einbetten von Informationen mehrerer Benutzer in Audioinhalte vor, um eine illegale Verbreitung zu verfolgen. Die Informationen werden von Dot Code A generiert, der mehrere Benutzerinformationen mit Fehlerkorrektur ausdrücken kann. Eine Hadamard-Transformation wird verwendet, um Punktcode A zu verbreiten. Dies stellt auch sicher, dass der Algorithmus robust ist. Der Einbettungsbereich der AC-Koeffizienten liegt innerhalb von [-0.5, -0.3] und [0.3, 0.5] im Bereich der diskreten Kosinustransformation. Bei einer Einbettungsstärke von 0,7 liegt der Signal-Rauschabstand des Testaudios bei über 53 dB, und wir sind in der Lage, den Dot Code A aus dem mit Wasserzeichen versehenen Audio exakt zu extrahieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35264-5_6 2032ef33a4554366f453de2bcb20a132;de;;;6.1.;;;Dokumentenanalyseforschung im Jahr 2021 Trotz enormer Fortschritte in der Computersoftware und -hardware haben sich bestimmte Schlüsselaspekte der experimentellen Forschung in der Dokumentenanalyse und der Mustererkennung im Allgemeinen in den letzten 50 Jahren nicht wesentlich verändert. Dieses Papier beschreibt eine Zukunftsvision, in der von der Gemeinschaft geschaffene und verwaltete Ressourcen grundlegende Veränderungen in der Art und Weise ermöglichen, wie Wissenschaft in diesen Bereichen betrieben wird. Wir diskutieren auch aktuelle Entwicklungen, die uns in diese Richtung führen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21822-4_27 05cc42742e0338bf2d5950e16ae1880d;de;;;6.1.;;;Die Gründe für den Erfolg nicht-pharmakologischer Interventionen Nicht-pharmakologische Interventionen (NPIs) sind zu wesentlichen Lösungen für Pflege, Krankheitsprävention, besseres Leben und menschliche Leistungsfähigkeit geworden. Seit 2010 scheint nichts die Entwicklung von NPIs weltweit aufgehalten zu haben. Ihr Erfolg ist so groß, dass kein Tag vergeht, an dem nicht eine Originalstudie in einer wissenschaftlichen Zeitschrift, zehn Artikel in einer Zeitung und Hunderte von Beiträgen in sozialen Netzwerken veröffentlicht werden. Es vergeht keine Woche ohne einen Fernsehbericht oder ein Sonderbeitrag in einem Magazin darüber und kein Monat ohne Konferenz oder Ausstellung. Das Kapitel erläutert die Gründe für diesen Erfolg von NPIs.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-60971-9_2 68b4e9083f8f18145859ee2d110c7a49;de;;;6.1.;;;Beschleunigung der Deep-Learning-Inferenz mit schichtübergreifender Datenwiederverwendung auf GPUs Die Beschleunigung der Deep-Learning-Inferenz ist für Echtzeitanwendungen sehr wichtig. In diesem Papier schlagen wir eine neuartige Methode vor, um die Schichten von Convolutional Neural Networks (CNNs) auf Graphics Processing Units (GPUs) zu verschmelzen, die Datenwiederverwendungsanalyse und Zugriffsoptimierung auf verschiedenen Ebenen der Speicherhierarchie anwendet. Um das Gleichgewicht zwischen Berechnung und Speicherzugriff zu erreichen, untersuchen wir die Fusionsmöglichkeiten im CNN-Berechnungsgraphen und schlagen drei Fusionsmodi von faltenden neuronalen Netzen vor: Straight, Merge und Split. Dann wird ein Ansatz zum Generieren eines effizienten fusionierten Codes entworfen, der tiefer in die Mehrebenen-Speichernutzung für die schichtübergreifende Datenwiederverwendung geht. Die Effektivität unserer Methode wird mit den Netzwerkschichten modernster CNNs auf zwei verschiedenen GPU-Plattformen, NVIDIA TITAN Xp und Tesla P4, evaluiert. Die Experimente zeigen, dass die durchschnittliche Beschleunigung 2,02 . beträgt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-57675-2_14 6ac8fac1afffb45cb237757cbe7eb93a;de;;;6.1.;;;Ein sequenzbasiertes objektorientiertes Modell für Videodatenbanken Strukturierung, Annotation und Komposition gehören zu den wichtigsten Modellierungsproblemen, die Videobearbeitung und Abfragen im Kontext einer Datenbank mit sich bringen. In diesem Beitrag schlagen wir ein sequenzbasiertes, objektorientiertes Datenmodell vor, das sie auf einheitliche, aber orthogonale Weise anspricht. Dank dieser Orthogonalität werden die Interaktionen zwischen diesen drei Aspekten richtig erfasst, d. h. Anmerkungen können auf jeder Ebene der Videostrukturierung angebracht werden und alle Kompositionsoperatoren bewahren die Strukturen und Anmerkungen der Argumentvideos. Wir schlagen auch vor, sowohl die Strukturierung als auch die Annotationen von Videos mit einer Erweiterung von ODMGs OQL abzufragen, die einen Satz algebraischer Operatoren für Sequenzen integriert. Der Gesamtvorschlag wird auf einem objektorientierten DBMS formalisiert und implementiert.;-;-;-;https://link.springer.com/article/10.1023/A%3A1019948901229 fb93a6a2da43d1712988cd63237cf794;de;;;6.1.;;;Ein räumlich-zeitliches Themensegmentierungsmodell für das menschliche mobile Verhalten Die Erforschung des menschlichen mobilen Verhaltens wird immer verfügbarer und wichtiger. Eine der größten Herausforderungen besteht darin, lange und kontinuierliche Trajektoriensequenzen in sinnvolle Segmente zu unterteilen, die eine Grundlage für die Messung der Benutzerähnlichkeit, das Trajektoriendatenmanagement und das routinemäßige Mining bilden. Während in der traditionellen Forschung die Trajektoriensequenz nach festen Zeitfenstern oder raumzeitlichen Kriterien segmentiert wird. In diesem Artikel schlagen wir ein probabilistisches Themenmodell vor, das die räumliche Eigenschaft und die zeitliche Markov-Eigenschaft der menschlichen Mobilität berücksichtigt, um das Problem der Themensegmentierung im menschlichen mobilen Verhalten anzugehen: automatische Segmentierung der Trajektoriensequenz in sinnvolle Segmente. Die Trajektoriensegmente spiegeln eine Semantik auf hoher Ebene zum Verständnis des menschlichen mobilen Verhaltens wider und können für Anwendungen auf höherer Ebene verwendet werden. Wir betrachten einen synthetischen Datensatz und einen realen menschlichen Datensatz, die von Mobiltelefonen gesammelt wurden, um unser Modell zu evaluieren. Die Ergebnisse zeigen, dass unser Modell gute Ergebnisse bei der Segmentierung liefert und traditionelle Methoden für praktische Zwecke übertrifft, insbesondere beim Erlernen von Routinen mit langer Dauer.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08010-9_28 35e8d7ae66e77d6114ac1aa10b1bbf0a;de;;;6.1.;;;Mehrere politische Ansätze zur Verbesserung der Praxis der Gemeinschaftsapotheke: der Fall in Indonesien Die Gesundheitsreform ist in vielen Ländern eine fortlaufende Agenda, wobei die öffentliche Apotheke zunehmend Aufmerksamkeit erhält, um zur Verbesserung der Gesundheitsversorgung beizutragen. Ebenso wurden mehrere politische Ansätze eingeführt, um die Praxis der Gemeinschaftsapotheke in Indonesien zu verbessern, aber keine Studien haben ihre Wirksamkeit bewertet. Daher zielte diese Studie darauf ab, Informationen zu Ansätzen zu identifizieren und zu sammeln, die die Praxis in der indonesischen Gemeinschaftsapotheke verbessern sollen, und anschließend die Wahrnehmung der wichtigsten Interessengruppen im Gesundheitswesen und der Gemeinschaftsapotheke zu diesen Ansätzen und dem Ausmaß zu untersuchen, in dem sie den Beruf der Gemeinschaftsapotheker beeinflusst haben.;-;-;-;https://link.springer.com/article/10.1186/s12913-018-3258-8 ecc3c8bf17a12db32fc70bf1a95a0d81;de;;;6.1.;;;Ein Architekturmodell für Informationssysteme zum Management mehrerer Krankheiten Disease Management ist ein Programm, das versucht, die Fragmentierung des Gesundheitssystems zu überwinden und die Versorgungsqualität zu verbessern. Viele Studien haben die Wirksamkeit des Krankheitsmanagements bewiesen. Allerdings verbrachten die Fallmanager die meiste Zeit mit der Dokumentation und der Koordination der Mitglieder des Betreuungsteams. Sie brauchen ein Werkzeug, das sie bei der täglichen Praxis unterstützt und den ineffizienten Arbeitsablauf optimiert. Mehrere Diskussionen haben gezeigt, dass die Informationstechnologie im Zeitalter des Krankheitsmanagements eine wichtige Rolle spielt. Während Anwendungen entwickelt wurden, ist es ineffizient, ein Informationssystem für jedes Krankheitsmanagementprogramm einzeln zu entwickeln. Das Ziel dieser Forschung ist es, die Arbeit des Krankheitsmanagements zu unterstützen, den ineffizienten Arbeitsablauf zu reformieren und ein Architekturmodell vorzuschlagen, das die Wiederverwendbarkeit und Zeitersparnis bei der Entwicklung von Informationssystemen verbessert. Das vorgeschlagene Architekturmodell wurde erfolgreich in zwei Krankheitsmanagement-Informationssysteme implementiert, und das Ergebnis wurde durch Wiederverwendbarkeitsanalyse, Zeitverbrauchsanalyse, Workflow-Analyse vor und nach der Implementierung und Benutzerfragebogen-Umfrage bewertet. Die Wiederverwendbarkeit des vorgeschlagenen Modells war hoch, es wurde weniger als die Hälfte der Zeit verbraucht und der Workflow wurde verbessert. Der Gesamtnutzeraspekt ist positiv. Die Unterstützung im täglichen Arbeitsablauf ist hoch. Das System befähigt die Fallmanager mit besseren Informationen und führt zu einer besseren Entscheidungsfindung.;-;-;-;https://link.springer.com/article/10.1007/s10916-013-9931-x 75404635badc2ce490cbeb5982ef118a;de;;;6.1.;;;Die Essenz durch das Phänomen entdecken, welche großen Veränderungen haben sich in den industriellen Werten vollzogen? Durch die Analyse einer Vielzahl typischer Fälle werden vom Autor folgende Fragen illustriert: Warum ist das Internet eine neue Wirtschaftstheorie? Was sind die treibenden Kräfte des Entwicklungsmodus „Deindustrialisierung“ und „Asset-Light“? Warum unterliegen die Fertigungs-, Finanzanlagen- und Dienstleistungsbranchen großen Veränderungen? Warum werden die Kernwerte von Industrie und Wirtschaft in die Internetindustrie, Softwareindustrie, Chipindustrie und High-End-Fertigungsindustrie fließen? Die Kernwerte der Internetökonomie werden in diesem Kapitel erläutert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5025-6_6 c99c9da67fc2bcacade21e2c5bcc00f7;de;;;6.1.;;;Vertraulichkeitsmaßnahmen in Einrichtungen der psychischen Gesundheitsversorgung: Bericht von US-amerikanischen Gesundheitsinformationsmanagern Gesundheits- und Personaldienstleistungsorganisationen haften zunehmend für Verletzungen der Privatsphäre von Patienten aufgrund der jüngsten Bundesmandate sowohl auf Landes- als auch auf Bundesebene. Unter solchen Bedingungen wäre es wahrscheinlich, dass Manager handeln würden, um solche Richtlinien und Mandate, insbesondere in sensiblen Fachgebieten wie der psychischen Gesundheit, schnell umzusetzen. Ziel dieser Studie war es, den Grad und die Art der Vertraulichkeitsmaßnahmen von Patienteninformationen in Einrichtungen der psychischen Gesundheitsversorgung durch eine nationale Umfrage unter akkreditierten US-Gesundheitsinformationsmanagern zu untersuchen. Die Ergebnisse deuten darauf hin, dass trotz gegenteiliger bundesstaatlicher Mandate weiterhin erhebliche Vertraulichkeitsmaßnahmen zur Vertraulichkeit bestehen. Weiterhin wurde untersucht, inwieweit das Vertraulichkeitsmanagement je nach Akzeptanzgrad computergestützter Patientenakten variiert. Bei der Annahme von Maßnahmen zur Vertraulichkeit der Patienten wurden erhebliche Unterschiede zwischen hochgradig computerisierten und papierbasierten Krankenaktenfunktionen festgestellt. Es wurden auch ähnliche Unterschiede bei der Akzeptanz in den verschiedenen Praxisumgebungen festgestellt. Auswirkungen auf die nationale Politik und den Schutz von Patienteninformationen werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF02287382 eb3f8f09f3ae542e185e7334457c48cf;de;;;6.1.;;;Aufbau professioneller Fähigkeiten: ePortfolios als Entwicklungsökosysteme In diesem letzten Kapitel untersuchen wir das Konzept des Portfolios „Ökosystem“ in Bezug auf die Entwicklung der beruflichen Identität von Studenten. Der Nachweis, wie die Erstellung eines elektronischen Portfolios zu einer komplexen Beziehung zum Lernen und zur Entwicklung der Schüler beiträgt, wird durch die Kommentare der Schüler geliefert. Darüber hinaus schlagen wir ein Modell vor, das den Aufbau wünschenswerter Absolventenfähigkeiten durch die Erfahrung der Studierenden zeigt, ihr ePortfolio während ihres gesamten Studiums schrittweise zu entwickeln – und so das Lernen und die Identitätsentwicklung der Studierenden zu unterstützen. Im Kontext der breiteren Lehr- und Lernliteratur fasst das Kapitel die vorherigen 11 Kapitel zu einem konzeptionellen theoretischen Rahmen über relevante Bereiche hinweg zusammen, um Aspekte der Portfolionutzung in der Hochschulbildung zu reflektieren. Dieses abschließende Kapitel bewertet kritisch die Stimme der Studierenden bei der Entwicklung einer professionellen Identität und stützt sich auf aktuelle Daten von Studierenden, die sich disziplinübergreifend mit der kreativen Entwicklung von E-Portfolios beschäftigen. Wir schlagen vor, dass die Einbeziehung von Lehrkräften in die Entwicklung von E-Portfolios dazu beitragen kann, unser Verständnis einiger der grundlegenden Verpflichtungen und Dynamiken des Lernens zu verbessern. Das Kapitel schließt mit der Hervorhebung einer Reihe von Lernpfaden, die das Selbstwirksamkeitsgefühl von Hochschulstudenten und lebenslangen Lernenden verbessern können.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-1732-2_12 de9b00759015f799f345dc08e304da12;de;;;6.1.;;;Entwicklung von Data-Governance-Komponenten mit DEMATEL und Inhaltsanalyse Unternehmen gewinnen Einblicke und schöpfen Wert aus Daten, die ihre Richtung vorgeben. Daher wird Data Governance, eine Methode zur Verwaltung von Wettbewerbsdaten, immer wichtiger. Forscher haben die Bedeutung von Data Governance erkannt und verschiedene Lösungen eingeführt, aber die Standards und der Umfang der Data Governance variieren, und es müssen integrierte Standards für Data Governance-Komponenten festgelegt werden. Ziel dieser Studie ist es, das Konzept der komplexen Data Governance zu definieren und einen Rahmen dafür zu entwickeln, indem die Komponenten der Data Governance definiert werden. Mit der Methode des Entscheidungs- und Evaluierungslabors sowie der Inhaltsanalyse haben wir die Komponenten der Data Governance identifiziert und den Einfluss ihrer Beziehungen analysiert.;-;-;-;https://link.springer.com/article/10.1007/s11227-020-03405-9 41b45cd5bdc0943078db51f2ec2f8ed2;de;;;6.1.;;;Semantisches Datenmanagement in Peer-to-Peer-E-Commerce-Anwendungen Eine schwach organisierte Struktur von Peer-to-Peer-Systemen kann schwerwiegende Datenverwaltungsprobleme und einen hohen Kommunikationsaufwand verursachen. Wir lösen diese Probleme teilweise, indem wir einen neuartigen semantischen Ansatz entwickeln, um Datenobjekte in E-Commerce-Peer-to-Peer-Anwendungen effizient zu erstellen, zu durchsuchen und zu organisieren. Der Ansatz basiert auf dem Konzept der Unspecified Ontology (UNSO). Im Gegensatz zu vielen existierenden Systemen, die eine globale vordefinierte Ontologie verwenden, geht der UNSO-Ansatz davon aus, dass die Ontologie nicht vollständig definiert ist, sodass einige Teile davon von den Benutzern dynamisch spezifiziert werden müssen. Die in das System eingefügten Datenobjekte organisieren eine mehrschichtige Hypercube-Graph-Topologie und bieten eine stabile Infrastruktur für effiziente semantische Such- und Routing-Operationen. Die vorgeschlagene Methode hat das Potenzial, eine praktische Infrastruktur für Peer-to-Peer-Datenverwaltungsanwendungen zu werden.;-;-;-;https://link.springer.com/chapter/10.1007/11803034_6 f73ed9835f8c56e7f0539380544d580d;de;;;6.1.;;;mSSL: Ein Framework für vertrauenswürdigen und anregenden Peer-to-Peer-Datenaustausch zwischen misstrauischen und egoistischen Kunden Herkömmliche Client-Server-Anwendungen können verbessert werden, indem ein Peer-to-Peer-Datenaustausch zwischen den Clients ermöglicht wird, wodurch die Bedenken hinsichtlich der Skalierbarkeit stark reduziert werden, wenn eine große Anzahl von Clients auf einen einzelnen Server zugreifen. Für diese „hybriden Peer-to-Peer-Anwendungen“ ist es jedoch möglicherweise nicht sicher, Daten von Peer-Clients zu erhalten, und es gibt möglicherweise keine Anreize für Clients, Daten von ihren Peers bereitzustellen oder zu erhalten. In diesem Whitepaper beschreiben wir unser mSSL-Framework, das wichtige Sicherheits- und Anreizfunktionen umfasst, die hybride Peer-to-Peer-Anwendungen je nach Bedarf selektiv aufrufen können. Im Gegensatz zum herkömmlichen SSL-Protokoll, das nur Client-Server-Verbindungen schützt, unterstützt mSSL nicht nur die Client-Authentifizierung und Datenvertraulichkeit, sondern stellt auch die Datenintegrität durch einen neuartigen Exploit von Merkle-Hash-Bäumen sicher, alles unter der Annahme, dass der Datenaustausch zwischen nicht vertrauenswürdigen erfolgen kann Kunden. Darüber hinaus kann jeder Kunde, der seinen Kollegen Daten zur Verfügung stellt, mit den Anreizfunktionen von mSSL auch sichere und zuverlässige Beweise oder digitales Geld für seinen Dienst erhalten. Unsere Auswertung zeigt weiter, dass mSSL nicht nur schnell und effektiv ist, sondern auch einen angemessenen Overhead hat.;-;-;-;https://link.springer.com/article/10.1007/s12083-010-0087-x d051859799cb660cfcadb42b627ff5a6;de;;;6.1.;;;Ein effizientes Schlüsselzuweisungsschema basierend auf einer Einweg-Hash-Funktion in einer Benutzerhierarchie Um die aus der dynamischen Zugangskontrolle in einer Benutzerhierarchie resultierenden Probleme zu lösen, wird von Prof. Lin ein kryptographisches Schlüsselvergabeschema vorgeschlagen, um die Leistungsfähigkeit zu fördern und das Verfahren zu vereinfachen. Es kann jedoch die Sicherheit gefährden, wenn der Benutzer seinen geheimen Schlüssel ändert, außerdem können einige geheime Schlüssel aufgrund der ungeeigneten Auswahl der Identitäten der Sicherheitsklassen offengelegt werden. Durch das Einrichten einer Einweg-Hash-Funktion auf Lins Schema kann die vorgeschlagene Modifikation die Sicherheit von Lins Schema erheblich verbessern.;-;-;-;https://link.springer.com/article/10.1007/BF02948886 7a129750979934d9cd85f83da6a8809e;de;;;6.1.;;;Bericht über IKT im Bildungswesen in der Republik Nordmazedonien Nordmazedonien ist ein Land in Südosteuropa mit den geografischen Koordinaten 41° 50′ N 22° 00′ E und grenzt im Norden an Serbien und Kosovo, im Osten an Bulgarien, im Süden an Griechenland und im Westen an Albanien. Das Land ist ein wichtiger Transportkorridor von West- und Mitteleuropa nach Südeuropa und der Ägäis. Nordmazedonien ist ein Binnenland, hat aber drei große natürliche Seen: den Ohridsee, den Prespasee und den Dojransee. Es hat eine Fläche von 25.713 km²;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6879-4_13 e9c9db82ec8691b40876f94746e9965f;de;;;6.1.;;;Entwirren des Exposoms: Schlussfolgerungen und Gedanken für die Zukunft Seit seiner ersten Definition durch Christopher Wild hat sich das Konzept des Exposoms bis heute zu einem wertvollen Instrument zur Bewertung der Exposition des Menschen und der Gesundheit entwickelt. In den Kapiteln dieses Buches wird die Definition des Exposom-Paradigmas und -Konzepts diskutiert. Die neuesten Techniken basierend auf OMICs, gezielte und ungezielte Analyse zu ihrer Charakterisierung werden beschrieben. Die Herausforderungen, die sich aus der Datenmenge ergeben, die verarbeitet werden muss, um den komplexen Mechanismus der Exposition und des Gesundheitszustands zu verstehen, sowie die neuesten statistischen und Datenanalysemethoden wurden diskutiert. Schließlich beschäftigen sich mehrere Projekte auf der ganzen Welt oder derzeit mit der Anwendung des Exposom-Konzepts auf reale Studien, und diese Studien wurden in diesem Buch vorgestellt. In diesem Abschnitt werden wir eine Kapitelzusammenfassung geben und beschreiben, wie sich das Exposom-Paradigma seit seiner Definition entwickelt hat. Wir werden auch Fragen wie: Was haben wir bisher gelernt? Liefert das Exposom-Paradigma wertvolle Informationen? Und was muss verbessert werden? Schließlich werden wir die Möglichkeit zukünftiger Anwendungen des Exposoms in der Krankheitskausalität und in der personalisierten Medizin diskutieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-89321-1_17 b0c57b97c57eb42fe969cff5085a4722;de;;;6.1.;;;Das Gesetz und der Datenschutz Dieses Kapitel gibt einen Überblick über die Bandbreite der Rechtsvorschriften im Zusammenhang mit der Regulierung des Datenmanagements. Von besonderem Interesse ist hier der Status von personenbezogenen Bildern als „Daten“. Die Frage, ob fotografische oder digitale Bilder tatsächlich Daten sind, führt zu Spannungen, die es bis vor kurzem nicht gab. Mit anderen Worten, die Technologie hat den juristischen Diskurs überholt und verlangt, dass entweder die Bilddaten im Einzelfall in bestehendes Recht übernommen werden oder neue Gesetze erarbeitet werden. Da die Gesichtserkennung ein bildgebendes Verfahren ist, sind die bisherigen Rechtsverordnungen daher unzureichend, und dieses Kapitel bildet den Hintergrund für den laufenden Rechtsdiskurs.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36887-6_7 2eade6858b03e9042f3ce61366d4416f;de;;;6.1.;;;Einheitliche Plattform für die Interoperabilität virtueller M2M-Objekte Sensornetzwerke tragen zur Vernetzung verschiedenster Geräte (d.h. Messumformer, Sensoren, Aktoren) bei und ermöglichen so Überwachungs- und Steuerungsprozesse. Während neue drahtlose Technologien entstehen, muss ein wichtiges Thema der Interoperabilität in Bezug auf Datenkommunikation, Steuerung und Schnittstellen angegangen werden, um der Heterogenität von Netzwerken und verbundenen Geräten zu begegnen und eine Ende-zu-Ende-Kommunikation sowie eine effiziente Ressourcennutzung zu ermöglichen Management. Eine vorgeschlagene Lösung für dieses Problem ist die Bereitstellung einer einheitlichen Dienstzugangsarchitektur, die gemeinsame Schnittstellen für die Datenkommunikation sowie eine auf offenen Standards basierende Geräteverwaltung und -steuerung unterstützt. Zur Lösung von Interoperabilitätsproblemen wird das Konzept der Objektvirtualisierung und des IP-basierten Netzwerks eingeführt. Dabei kann die Architektur Anwendungen bedienen, die den Konzepten Machine-to-Machine (M2M) und Internet-of-Things (IoT) entsprechen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06704-9_23 71caa44300a2c8f7f7f3b6192c72ea4d;de;;;6.1.;;;Blockchain-basiertes Multimedia-Sharing in sozialen Fahrzeugnetzwerken mit Datenschutz Die rasante Entwicklung des Fahrzeug-Ad-hoc-Netzwerks (VANET) fördert die Entwicklung von Fahrzeugelektronik, Vernetzung und Intelligenz. Darüber hinaus kann jedes Fahrzeug in Fahrzeugen sozialen Netzwerken (VSNs) frei soziale Beziehungen zu anderen aufbauen. Multimedia spielt auch beim Datenaustausch von Fahrzeugen eine wichtige Rolle. VSNs befinden sich jedoch noch in einem frühen Entwicklungsstadium und können viele Sicherheitsherausforderungen bei der gemeinsamen Nutzung von Multimediadaten mit sich bringen. Sowohl die Privatsphäre der Benutzer als auch der Fahrzeuge können durchgesickert sein, und die Kommunikationsgewohnheiten der Benutzer können von Gegnern leicht analysiert werden. Darüber hinaus ist es wahrscheinlicher, dass die freigegebenen Multimediadaten böswillig manipuliert oder gefälscht werden. In diesem Papier schlagen wir ein auf Blockchain basierendes Schema zum Schutz der Privatsphäre für die gemeinsame Nutzung von Multimediadaten in VSNs vor. Wir verwenden kryptografische Primitive, um die wahre Identität von Benutzern, Fahrzeugen und RSUs zu verbergen. Gleichzeitig nutzen wir Blockchain, um zuverlässige Datenquellen zu gewährleisten und Angreifer davon abzuhalten, Multimediadaten zu manipulieren oder zu fälschen. Schließlich wird die Machbarkeit unseres Schemas durch theoretische Sicherheitsanalysen und umfassende experimentelle Auswertungen bewiesen.;-;-;-;https://link.springer.com/article/10.1007/s11042-019-08284-8 ad8cf552c7698597037e8e5cc61cbb87;de;;;6.1.;;;Die Herausforderung, die Vertrauenswürdigkeit von Daten zu gewährleisten Angesichts des zunehmenden Bedarfs an Datenaustausch zwischen mehreren Organisationen wie Regierungsorganisationen, Finanzunternehmen, medizinischen Krankenhäusern und akademischen Einrichtungen ist es entscheidend, sicherzustellen, dass die Daten vertrauenswürdig sind, damit effektive Entscheidungen auf der Grundlage dieser Daten getroffen werden können. In diesem Beitrag diskutieren wir zunächst Motivationen und Voraussetzungen für die Vertrauenswürdigkeit von Daten. Anschließend präsentieren wir einen architektonischen Rahmen für ein umfassendes System zur Vertrauenswürdigkeitssicherung. Anschließend diskutieren wir in unserem Framework ein wichtiges Thema, nämlich die Bewertung der Datenherkunft und erheben ein Vertrauensmodell zur Schätzung des Vertrauensniveaus der Daten und des Vertrauensniveaus von Datenanbietern. Durch die Berücksichtigung des Vertrauens in die Datenherkunft führen wir einen Ansatz für die politikbeobachtende Abfrageauswertung ein. Wir heben offene Forschungsfragen und Forschungsrichtungen während des gesamten Papiers hervor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00887-0_2 acceb2c4ea2386bb3bd5a835444faaeb;de;;;6.1.;;;Vergleich von Hadoop- und Fat-Btree-basierten Zugriffsmethoden für I/O-Anwendungen mit kleinen Dateien Hadoop wird häufig in verschiedenen Clustern verwendet, um skalierbare und leistungsstarke verteilte Dateisysteme zu erstellen. Das Distributed File System (HDFS) von Hadoop ist jedoch für die Verwaltung großer Dateien konzipiert. Bei Anwendungen mit kleinen Dateien überfluten diese Metadatenanforderungen das Netzwerk und verbrauchen den größten Teil des Speichers in Namenode, wodurch die Leistung stark beeinträchtigt wird. Daher profitieren viele Webanwendungen nicht von Clustern mit zentriertem Metaknoten wie Hadoop. In diesem Papier vergleichen wir unsere Fat-Btree-basierte Datenzugriffsmethode, die den zentralen Knoten in Clustern ausschließt, mit Hadoop. Wir zeigen ihre unterschiedliche Leistung in verschiedenen Datei-I/O-Anwendungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14246-8_20 5646fab2de3b67291e87e756914fc27f;de;;;6.1.;;;Beschreibung von Smart City-Problemen mit verteilter Anfälligkeit Moderne materielle und immaterielle Infrastrukturen haben sowohl an Komplexität als auch an Kritikalität der Rolle in dieser vernetzten Gesellschaft zugenommen. Ein solches Wachstum hat zu einem Schutzbedarf insbesondere lebenswichtiger Dienste (z. B. Strom, Wasserversorgung, Computernetze usw.) geführt. In diesem Kapitel wird das Problem der mathematischen Definition einer nützlichen Definition von Verwundbarkeit für verteilte und vernetzte Systeme vorgestellt: Diese Definition wird dann auf den wohlbekannten Formalismus der Bayesschen Netzwerke abgebildet. Eine Demonstration der Anwendbarkeit dieses theoretischen Rahmens wird durch die Beschreibung des Problems der verteilten Autoerkennung, eines der möglichen Gesichter des Smart City-Modells, gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-51870-7_9 4565c7c82120ade5a714aa6dcd46b17f;de;;;6.1.;;;Totholzvolumenermittlung in der dritten Schweizerischen Bundeswaldinventur: Methoden und erste Ergebnisse Das Schweizerische Landesforstinventar (LFI) soll verlässliche Daten über den aktuellen Zustand des Schweizer Waldes und die jüngsten Veränderungen liefern. Seit dem ersten Schweizer LFI (1982–1986) gehört eine Totholzbewertung zum Inventar. Allerdings wurde die Definition des verwendeten Totholzes eingeschränkt und es wurden nur Teile des gesamten Totholzvolumens bewertet. Daher wurde im zweiten LFI (1993–1995) eine weiter gefasste Definition verwendet und im dritten LFI (2004–2006) auch Grobholzschutt (CWD) mittels Line Intersect Sampling bewertet. In diesem Beitrag werden die Entwicklung der Totholzdefinition vom ersten bis zum dritten Schweizer LFI sowie die Tally-Regeln und -Schätzer für die Bewertung von Totholz im laufenden dritten LFI diskutiert. In zwei Schweizer Regionen wurden unterschiedliche Definitionen von Totholz verwendet und die daraus resultierenden Mengenschätzungen verglichen. Die Definition von Totholz scheint entscheidend für die Schätzung der Totholzmengen zu sein, die im ersten und zweiten schweizerischen LFI deutlich unterschätzt wurden. Der Mindestdurchmesser und andere angewendete Grenzen müssen mit besonderer Sorgfalt gewählt werden. Bis zu 30 m;-;-;-;https://link.springer.com/article/10.1007/s10342-007-0169-3 eac9cff1aea242251c4864cd66f66442;de;;;6.1.;;;Überwachung des Zustands natürlicher Ressourcen in US-Nationalparks Der National Park Service hat ein langfristiges ökologisches Monitoringprogramm für 32 ökoregionale Netzwerke mit mehr als 270 Parks mit bedeutenden natürlichen Ressourcen entwickelt. Das Monitoringprogramm unterstützt Parkmanager dabei, ein breit angelegtes Verständnis des Zustands und der Entwicklung der Parkressourcen als Entscheidungsgrundlage zu entwickeln und mit anderen Behörden und der Öffentlichkeit zusammenzuarbeiten, um die Parkökosysteme langfristig zu schützen. Wir fanden heraus, dass die grundlegenden Schritte bei der Planung und Gestaltung eines langfristigen ökologischen Überwachungsprogramms für eine Reihe von Ökosystemen, darunter Korallenriffe, Wüsten, arktische Tundra, Präriegrasland, Höhlen und tropische Regenwälder, dieselben waren. Diese Schritte beinhalten (1) klare Definition von Zielen und Zielsetzungen, (2) Zusammenstellung und Zusammenfassung vorhandener Informationen, (3) Entwicklung von konzeptionellen Modellen, (4) Priorisierung und Auswahl von Indikatoren, (5) Entwicklung eines allgemeinen Stichprobendesigns, (6) Entwicklung von Monitoring Protokolle und (7) Etablierung von Datenverwaltungs-, Analyse- und Berichtsverfahren. Die breit angelegten, wissenschaftlich fundierten Informationen, die durch dieses systembasierte Überwachungsprogramm gewonnen werden, werden vielfältige Anwendungen für Managemententscheidungen, Forschung, Bildung und die Förderung des öffentlichen Verständnisses der Parkressourcen haben. In Kombination mit einem effektiven Bildungsprogramm können die Überwachungsergebnisse nicht nur zu Parkproblemen beitragen, sondern auch zu größeren Problemen der Lebensqualität, die sich auf die umliegenden Gemeinden auswirken und erheblich zur Umweltgesundheit des Landes beitragen können.;-;-;-;https://link.springer.com/article/10.1007/s10661-008-0257-y a002cc071bd8293a84214ca125289e24;de;;;6.1.;;;Unterstützung multidisziplinärer Teams im Concurrent Engineering Dieses Whitepaper beschreibt eine Architektur zur Unterstützung der Echtzeit-Zusammenarbeit beim Concurrent Engineering innerhalb einer verteilten virtuellen Umgebung. Diese Architektur integriert eine multiperspektivisch verteilte virtuelle Umgebung mit einem Standardproduktmodell und unterstützt die Interaktion zwischen Benutzern durch gemeinsame Objekte. Die anfängliche Implementierung dieser Architektur unterstützt eine genaue Montagemodellierung und kinematische Simulation für virtuelle Prototypen und läuft auf einem Netzwerk von SGI Indy-Workstations über ein ATM-Netzwerk. Diese Umgebung ermöglicht es Designern, die Montage- und Demontageaufgabe in einer verteilten virtuellen Umgebung zu testen. Die realistische Manipulation der Baugruppenmodelle innerhalb der virtuellen Umgebung wird durch Constraint-basierte 3D-Manipulationstechniken unterstützt. Die Shared Objects, die die Zusammenarbeit unterstützen, kapseln Produktinformationen in einem Standardformat basierend auf dem sich entwickelnden ISO-Standard STEP (einem Standard für den Austausch von Produktdaten).;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34904-6_13 9a6167e6a771cc08342ca63f9afb4913;de;;;6.1.;;;Mikroelektronik und Markteffizienz Die Globalisierung des 20. Jahrhunderts wurde als „viel Lärm um nichts“ beschrieben, weil das Vierteljahrhundert vor dem Ersten Weltkrieg durch traditionelle Maßnahmen des Handels und der finanziellen Offenheit genauso, wenn nicht sogar noch mehr integriert war wie unsere heutige Zeit.;-;-;-;https://link.springer.com/chapter/10.1057/9780230609761_2 696b94b826eba6d51ef7080e45b8be9c;de;;;6.1.;;;Ontologiebasierte semantische Indizierung für MPEG-7- und TV-Anytime-Audiovisuelle Inhalte In diesem Papier beschreiben wir ein Framework, das wir zur Unterstützung der ontologiebasierten semantischen Indexierung und des Abrufens von audiovisuellen Inhalten gemäß den MPEG-7- und TV-Anytime-Standardspezifikationen für Metadatenbeschreibungen entwickelt haben. Unsere Arbeit zielt darauf ab, eine Methodik bereitzustellen, um die Abrufeffektivität von audiovisuellen Inhalten zu verbessern und gleichzeitig die Kompatibilität mit den internationalen Multimedia-Standards zu wahren.;-;-;-;https://link.springer.com/article/10.1007/s11042-005-0894-x eae89d6654d3fd82ac2582feb0d01af4;de;;;6.1.;;;Big Data Analytics zur Verbesserung der Datenqualität zur Verbesserung der evidenzbasierten Gesundheitsversorgung in Entwicklungsländern Unternehmen müssen alle Datenanalyse-Barrieren überwinden, um den Wert von Daten zu nutzen, indem sie sie in Erkenntnisse umwandeln, die zu Maßnahmen führen, die ihrem Unternehmen einen Mehrwert verleihen können. Einige dieser Barrieren sind auf die bestehenden Anwendungen und Technologien zurückzuführen, die zu starr sind und nicht an die steigenden Anforderungen der Benutzer angepasst wurden, während andere auf Schwächen in Kultur, Verantwortung und Governance zurückzuführen sind, die bei Bedarf deutlich werden Qualitätsdaten für die Entscheidungsfindung steigen. Das Erreichen und Aufrechterhalten der Datenqualität ist eines der rätselhaftesten Governance-Probleme in Unternehmen, die Datenqualitätsfehler verursachen, die die Entscheidungsfindung behindern. Viele Gesundheitseinrichtungen in Entwicklungsländern, wie auch in Afrika, sehen sich mit verschiedenen Herausforderungen konfrontiert, wie zum Beispiel begrenzten Ressourcen, einschließlich Personal, nicht geteilten Informationen, fehlender Privatsphäre, unzureichender Erkenntnisgewinnung aus einer Vielzahl strukturierter und unstrukturierter Daten und unzureichender Budgets. Ziel dieser Forschungsarbeit ist es, darüber zu berichten, wie Big Data Analytics von diesen Institutionen genutzt werden könnte, um diesen potenziellen Herausforderungen zu begegnen. Vielen Gesundheitseinrichtungen fehlt jedoch noch die Klarheit darüber, wie Big-Data-Analysen genutzt werden könnten, um die für eine evidenzbasierte Gesundheitsversorgung erforderliche Datenqualität zu verbessern. Diese Forschungsarbeit führte eine quantitative Analyse von Daten durch, die von einer Gesundheitseinrichtung in Südafrika gesammelt wurden. Die Ergebnisse zeigten, dass Umgebung, Aufgaben, Data Governance und Strukturen, Datenqualitätsmanagement und Technologie bei der Verbesserung der Datenqualität von Bedeutung sind. Dies bedeutet, dass Unternehmen, um Datenqualität zu erreichen und aufrechtzuerhalten, auf die Elemente wie Personen, Prozesse, Technologien und bewährte Verfahren achten müssen, die die Data Governance vorantreiben. Diese Studie trägt zur anhaltenden Debatte über den Einsatz von Big Data Analytics zur Verbesserung der Datenqualität bei.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-8253-6_4 ada5dd6fb300691942793484b3af7210;de;;;6.1.;;;Ein Sicherheitsproblem, das durch die Zustandsdatenbank in Hyperledger Fabric verursacht wird Die Blockchain-Technologie ist in vielen Anwendungen weit verbreitet, aber ihre manipulationssichere Fähigkeit ist immer noch ein Problem. Hyperledger Fabric ist eine typische Allianzkettenplattform für den zuverlässigen Datenaustausch zwischen mehreren Unternehmen. Um die Datenabfrage und Transaktionsüberprüfung zu erleichtern, führt Fabric das Konzept der Zustandsdaten ein. Die Zustandsdaten werden jedoch nicht in der Kette, sondern in der lokalen Datenbank gespeichert. Durch die Analyse des Fabric-Quellcodes haben wir festgestellt, dass die abgefragten Daten aus der lokalen Datenbank nicht durch Vergleich mit den Daten in der Kette überprüft werden manipulierte Daten. Dieses Problem wird durch Laborversuche bestätigt. Im Test haben wir die Zustandsdaten der indossierenden Peers über die Datenbankschnittstelle modifiziert und die auf den manipulierten Daten basierenden Transaktionen wurden erfolgreich mit allen Knoten im selben Kanal synchronisiert. Diese Arbeit zeigt, dass die Off-Chain-Daten eine große Sicherheitsbedrohung für kleine Fabric-Netzwerke darstellen könnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9739-8_28 f5378c9af9d663dceb43f2810f8eb632;de;;;6.1.;;;Interoperabilitätsanforderungen für automatisierte Fertigungssysteme im Bauwesen Multidisziplinäre Software-Interoperabilität in der Architektur-, Ingenieur-, Bau- und Betriebsbranche wird zu einer neuen und weit verbreiteten Unternehmenskultur. Technische Fortschritte bei Interoperabilitätsarchitekturen, Frameworks, Methoden und Standards im letzten Jahrzehnt führten zu einer höheren Reife von Produkt- und Prozessmodellen. Tatsächlich ermöglichen ausgereifte Modelle den Datenaustausch durch eine zunehmende Anzahl von Softwareanwendungen in der Industrie. Dies schafft Vertrauen in den Datenaustausch und führt zu geringeren Kostenauswirkungen einer ineffizienten Interoperabilität. Der negative Kosteneffekt steigt mit fortschreitender Lebenszyklusphase, von der Planungs- und Entwurfsphase über die Bauphase bis hin zur Betriebs- und Wartungsphase. Die Interoperabilität in der Planungs- und Entwurfsphase ist am ausgereiftesten und am besten veröffentlicht, während die Interoperabilität in der Konstruktionsphase und für die automatisierte Fertigung weniger erforscht ist. Dieses Papier gibt einen Überblick über modernste automatisierte Fertigungssysteme im Bauwesen und erforscht die Interoperabilitätsanforderungen für das automatisierte Bauen im Kontext des gesamten Gebäudelebenszyklus. Unsere Forschung basiert auf experimentellem Lehmbau in Freiform, konstruiert mit eingebetteten einfachen HLK-Komponenten und hergestellt mit additiver Schichttechnologie. Die Schlussfolgerungen liefern wertvolle Ergebnisse für die Interoperabilitätsforschung und -praxis in Bauprojekten mit automatisierten Fertigungssystemen.;-;-;-;https://link.springer.com/article/10.1007/s10845-013-0862-7 1be68d223d7d73acdd446bc8f3b7e544;de;;;6.1.;;;Merkmale von Fallstudien mit mehreren Fällen Im Folgenden werden Fallstudien zur Lieferkette vorgestellt und analysiert, die eine ungewöhnliche Anzahl von Fallbeobachtungen in ihrer Forschung verwenden. Es werden neue Ansätze identifiziert, um die Fallzahlen zu erhöhen, die für den Aufbau zukünftiger Forschungsprojekte verwendet werden können. Fallreiche Studien betonen die Bedeutung von Datenerfassungsansätzen und Datenspeicherungsmethoden. Aus der Perspektive der Branchenentwicklung zeigt sich, dass in Studien der Lebensmittelindustrie häufig Fallstudien verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-71658-9_6 32aeb8ccbbb580edcd77ed97a5f604f4;de;;;6.1.;;;Aktueller Stand und Entwicklungstrend der chinesischen Möbelindustrie Die chinesische Möbelindustrie ist nicht nur für die Entwicklung der Möbelindustrie, sondern auch der Sozialwirtschaft von Bedeutung. Aus Sicht des aktuellen Zustands der Möbelindustrie in China analysiert diese Übersicht den aktuellen Zustand der regionalen Gesamttätigkeit der Branche, des industriellen Vertriebs, des Verbrauchermarktes, der Entwicklung der Industrietechnologie und der Informationsindustriekette im Detail. Nach der Analyse des Produktmarkenaufbaus und des Marktwettbewerbs, der Branchenkosten, der Kundennachfrage und des Verbraucherschutzes, der Industrialisierung und Informationsintegration, der Ressourcen- und Umweltherausforderungen bietet dieser Artikel eine detaillierte Interpretation eines neuen Zustands und einer neuen Herausforderung, der sich die chinesische Möbelindustrie in der Zukunft stellen wird Zukunft. Inzwischen schlagen die Autoren auch mehrere Maßnahmen vor, darunter die Förderung der Entwicklung von Industrieclustern und die Verbesserung der gesamten Industriekette, der technologischen Inhalte und der Wertschöpfung der Möbelproduktion. Die Ergebnisse dieses Artikels sollten praktische Bedeutung für die nachhaltige Entwicklung der chinesischen Möbelindustrie sowie der weltweiten Möbelindustrie haben.;-;-;-;https://link.springer.com/article/10.1007/s10086-017-1643-2 365d50f8bf3756c1dd786a24aea02caa;de;;;6.1.;;;Einstellungen von Studierenden zur Weitergabe personenbezogener Daten im Kontext von E-Assessment: Einwilligungserklärung oder Datenschutzparadoxon? Moderne Technologien nutzen zunehmend personenbezogene Daten, um bessere Dienste bereitzustellen. Ein Beispiel dafür sind Technologien, die biometrische Daten zur Identitäts- und Autorenschaftsprüfung im Rahmen von E-Assessment verwenden. Frühere Studien im Bereich E-Health beschrieben ein Datenschutzparadox in Bezug auf die Einwilligung zur Verwendung personenbezogener Daten: Selbst wenn Menschen den Schutz ihrer personenbezogenen Daten als wichtig erachten, stimmen sie der Nutzung personenbezogener Daten relativ leicht zu. Die neue europäische Datenschutzverordnung (DSGVO) geht jedoch davon aus, dass Menschen kostenlos und informiert einwilligen. Im Zusammenhang mit E-Assessment untersucht diese Studie die Einstellung von Studierenden zum Austausch personenbezogener Daten zum Zwecke der Identitäts- und Verifizierung der Urheberschaft mit dem Ziel, die Praxis der Einwilligungserklärung zu optimieren. Schüler mit sonderpädagogischem Förderbedarf oder Behinderungen (SEND) wurden als spezifische Zielgruppe aufgenommen, da sie sich möglicherweise stärker von E-Assessment abhängig fühlen. Die Ergebnisse legen nahe, dass auch im Zusammenhang mit E-Assessment ein Datenschutzparadoxon besteht. Darüber hinaus deuten die Ergebnisse darauf hin, dass SchülerInnen eher zurückhaltend sind, Videoaufnahmen ihres Gesichts zu teilen als andere personenbezogene Daten. Schließlich bestätigen unsere Ergebnisse den in früheren Studien zu E-Health gefundenen Effekt: Wer einen stärkeren Bedarf an Technologien verspürt, in diesem Fall SEND-Studierende, ist eher geneigt, der Nutzung personenbezogener Daten zuzustimmen. Implikationen für die Einwilligungspraxis werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-25264-9_2 111f49c276be0bbd131bbbde5d523cd4;de;;;6.1.;;;Design des Platzierungs-Delivery-Arrays für das codierte Caching-Schema bei der gemeinsamen Nutzung medizinischer Daten In diesem Beitrag wird ein codiertes Caching-Schema für die effiziente Speicherung und den Zugriff auf medizinische Daten diskutiert. Als inspirierende Technologie zur Verbesserung der Verfügbarkeit und des Austauschs medizinischer Daten ist das codierte Caching-Schema für medizinische Daten nicht nur für das medizinische Personal praktisch, um den Gesundheitszustand und die Behandlungsgeschichte der Patienten rechtzeitig zu erfassen, sondern auch für die Patienten effektiv, um es zu erhalten verbesserte Qualität der medizinischen Leistungen. In diesem Beitrag wird das codierte Caching-Schema für das Kombinationsnetzwerk untersucht, das das Modell für die gemeinsame Nutzung medizinischer Daten ist. In dem Kombinationsnetzwerk kommuniziert der Server mit den Benutzern über mehrere Relais, und die Relais sowie die Benutzer haben Cache-Speicher. Unter Verwendung der maximal abstandstrennbaren Codes und des Algorithmus zur Platzierungsabgabeanordnung (PDA) werden die kodierte Platzierungsphase und die Abgabephase für Kombinationsnetzwerke entworfen. Darüber hinaus erweitern wir für Kombinationsnetzwerke, die die Auflösungseigenschaft erfüllen, den PDA-Algorithmus auf den Fall, in dem die Priorität der Benutzer berücksichtigt wird. Das vorgeschlagene Schema reduziert das Unterpaketisierungsniveau stark, wobei die Übertragungsrate leicht erhöht wird. Die Benutzer mit höherer Priorität können die angeforderten Inhalte schneller erhalten. Wir zeigen, dass Relais mit Cache-Speichern die Datenübertragung in Spitzenzeiten reduzieren können. Die Lücke zwischen der Obergrenze und der Untergrenze der Übertragungsrate wird mit zunehmendem Gedächtnis der Benutzer allmählich verringert. Das vorgeschlagene Schema wird die Latenzzeit des Systems verkürzen und die Systemeffizienz für die Speicherung und den Zugriff auf medizinische Daten verbessern.;-;-;-;https://link.springer.com/article/10.1007/s00521-019-04042-x 5616419fd41a33feba23fc640c704b03;de;;;6.1.;;;Software-Defined Dew, Roof, Fog and Cloud (SD-DRFC) Framework für das IoT-Ökosystem: Die Reise, neuartige Framework-Architektur, Simulation und Anwendungsfälle Das Internet der Dinge (IoT) ist zu einem der bekanntesten Begriffe der Gegenwart geworden, erreicht neue Ebenen und setzt einen Trend in der Welt. Offensichtlich ist es die Zukunft der Konnektivität, die physische Objekte in intelligente Objekte verwandelt hat. Daher ist die Neugier im IoT-Bereich gewachsen und dies führt zum Konzept des IoT-Ökosystems. Aber das moderne fragmentierte Ökosystem aus Vorschriften, Technologien und Systemen verlangsamt IoT-Bereitstellungen. Daher betrachten wir eine mehrschichtige Recheninfrastruktur, die machbar wäre, um Dienste vom nächstmöglichen Standort von Endgeräten bereitzustellen. Um mehrschichtige Infrastrukturprobleme zu mildern, greift Software-Defined Networking (SDN) ein. Der Weg hinter der SDN-unterstützten mehrschichtigen Recheninfrastruktur lässt sich aus der ausführlichen Studie dieses Papiers nachvollziehen. Als nächstes wird eine vergleichende Analyse zu Tau, Dach, Nebel und Wolke durchgeführt und der Einfluss des Internets auf diese Computerparadigmen kurz erläutert. Dann wird ein neuartiges Framework namens „SD-DRFC (Software-Defined Dew, Roof, Fog and Cloud Computing)“ für das heutige IoT-Ökosystem vorgeschlagen. Die Rolle und Funktionalität jeder Schicht des SD-DRFC-Frameworks werden angemessen erklärt. Anschließend wird ein Anwendungsfall, der sich auf das SD-DRFC-Framework konzentriert, präsentiert und mithilfe des iFogSim-Simulators simuliert. Um die Effizienz des vorgestellten SD-DRFC-Frameworks zu bewerten, werden in diesem Papier vier QoS-Parameter (Latenz, Netzwerknutzung, Kosten und Energieverbrauch) betrachtet. Beim Vergleich der Simulationsergebnisse schneidet das vorgestellte SD-DRFC-Framework deutlich besser ab als die reine Cloud-Implementierung. Die Vorteile und Eignung der Nutzung dieses vorgeschlagenen Frameworks wurden durch mehrere Anwendungsfälle demonstriert, die von konzeptionellen Visionen bis hin zu bestehenden laufenden Systemen reichen.;-;-;-;https://link.springer.com/article/10.1007/s42979-021-00521-y cba7d10b5237035bee6bdf7998b4d143;de;;;6.1.;;;Anwendungen der Metaprogrammierungsmethodik Dieses Kapitel fasst die analysierte Methodik aus Sicht der Anwendung und Anwendbarkeit zusammen. Obwohl unsere Methodik innerhalb eines bestimmten Kapitels durch zahlreiche anschauliche Beispiele aus verschiedenen Anwendungsdomänen veranschaulicht wurde, fanden wir die Notwendigkeit, die Methodik in einem breiteren Kontext zu motivieren, der sich mit den realen Aufgaben befasst. Da unsere Forschung rein akademisch ist, sind die Aufgaben, die wir als Fallstudien umgesetzt haben, nur Bestandteile größerer Systeme, die jedoch aus der realen Welt stammen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-4126-6_16 e819b4e7bdd128a14edb9be48d2c5f29;de;;;6.1.;;;Einfluss der Technologie auf die Wettbewerbsfähigkeit: eine Fallstudie zu indischen kleinen Autokomponenteneinheiten Die Phänomene Globalisierung, Liberalisierung und rasante technologische Entwicklungen verändern das Geschäftsumfeld weltweit. Die Weltwirtschaften, insbesondere die Entwicklungsländer, verlagern sich seit den 1980er Jahren weg von der „politischen Regulierung“ hin zur „Marktorientierung“ durch die Liberalisierung der staatlichen Kontrolle der Wirtschaftstätigkeit und auch die Globalisierung im Sinne einer stärkeren Integration. Gleichzeitig verändern die rasanten technologischen Entwicklungen die Geschäftsmethoden drastisch. Grundlage des technologischen Fortschritts ist die Revolution der Informations- und Kommunikationstechnologien (IKT). Die Globalisierungs- und Liberalisierungsprozesse setzen Unternehmen nicht nur stärker dem Marktwettbewerb aus, sondern intensivieren diesen auch.;-;-;-;https://link.springer.com/chapter/10.1057/9780230287709_9 071bb035983e61c368a531aaebf96778;de;;;6.1.;;;Die Transformers für Polystores - Die nächste Grenze für die Polystore-Forschung Was wäre, wenn wir eine der komplexesten Herausforderungen der Polystore-Forschung lösen könnten, indem wir eine Technik anwenden, die aus einem ganz anderen Bereich stammt und ursprünglich entwickelt wurde, um ganz andere Probleme zu lösen? Was wäre, wenn wir viele der Komponenten, die den heutigen Polystore ausmachen, durch Komponenten ersetzen könnten, die Abfragesprachen und Daten nur in Form von Matrizen und Vektoren verstehen? Dies ist die Vision, die wir als nächste Grenze für die Polystore-Forschung vorschlagen und als Gelegenheit, die aufmerksamkeitsbasierte Transformer-Deep-Learning-Architektur als Mittel für die automatisierte Quell-Ziel-Abfrage und Datenübersetzung zu erkunden, ohne oder mit minimaler manueller Codierung. und nur durch Training und Transfer Learning.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71055-2_7 9130c857a03f532db762dfcabc3c725f;de;;;6.1.;;;Anwendung von Big Data Analytics in der Gesundheitsbranche zusammen mit ihren Sicherheitsproblemen Big-Data-Analysen finden in jüngster Zeit eine Anwendung bei der Unterstützung von Pflegeleistungen und der Erforschung verschiedener Krankheiten. Obwohl die Gesundheitsbranche immer noch nicht in der Lage war, den richtigen Arbeitsnutzen aus dem Einsatz von Big Data Analytics in ihrem Arbeitsprozess zu erkennen, wurde mit dem jüngsten Anstieg der akademischen Studien zur Big Data Analytics der Prozess richtig implementiert, um zu helfen die Gesundheitsbranche. Es wurde immer noch festgestellt, dass die Akzeptanzrate der Big-Data-Analyse in der Gesundheitsbranche gering ist. Big Data Analytics bietet Werkzeuge für die Verwaltung, Sammlung und Analyse der Daten durch aktuelle Gesundheitssysteme. Dieses Papier besteht aus der Darstellung der Vorteile des Big-Data-Analyseprozesses in der Gesundheitsbranche. Die Aufnahme wichtiger Strategien, die von der Gesundheitsbranche zur Implementierung geeigneter Big-Data-Technologien übernommen werden können, wurde aufgenommen. In diesem Papier wird auch die potenzielle Anwendung von Big Data Analytics im Gesundheitswesen diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1007-3_8 33439b4e45e636945645070865dac6b8;de;;;6.1.;;;: Ein Komponentenmodell für die mobile Selbstorganisation In letzter Zeit beobachten wir ein wachsendes Interesse an selbstorganisierenden Systemen, sowohl in der Forschung als auch in der Praxis. Diese Systeme reorganisieren sich als Reaktion auf neue oder sich ändernde Bedingungen in der Umgebung. Der Bedarf an Selbstorganisation findet sich häufig bei mobilen Anwendungen, diese Anwendungen werden typischerweise in Umgebungen mit eingeschränkten Ressourcen gehostet und müssen sich möglicherweise als Reaktion auf geänderte Benutzeranforderungen, Heterogenität und Konnektivitätsherausforderungen sowie Änderungen in der Ausführung dynamisch neu organisieren Kontext und physische Umgebung. Wir argumentieren, dass physisch mobile Anwendungen von der Verwendung von Selbstorganisationsprimitiven profitieren. Wir zeigen, dass ein Komponentenmodell, das Code-Mobilitäts-Primitive enthält, beim Aufbau selbstorganisierender mobiler Systeme hilft. Wir präsentieren;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30469-2_31 e7fdc3d4e6cc9a2e55abce5f27889b13;de;;;6.1.;;;Umweltmanagement Eine sorgfältige Anwendungsentwicklung erfordert, dass unterschiedliche Umgebungen unterschiedliche Rollen wie Entwicklung, Test, Schulung und Produktion spielen. Der Lebenszyklus der Softwarebereitstellung ist im Wesentlichen ein Prozess zur Förderung von Änderungen durch diese Umgebungen. Daher ist es wichtig, mit einem Überblick über die verschiedenen Arten von Salesforce-Umgebungen und deren Verwaltung zu beginnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-5473-8_6 7bbef4cb037d20ddca6c25fb3f31cfee;de;;;6.1.;;;Anforderung und Gestaltung eines Betriebsleitsystems für Eisenbahnen In diesem Beitrag diskutieren wir computerbasierte Systeme, die die Betriebssteuerung von Eisenbahnen unterstützen. Konkret fokussieren wir uns auf die Gestaltung von Entscheidungshilfen für Disponenten. Für die Deutsche Bahn AG haben wir die Anforderungen an Systeme zur Unterstützung von Betriebsleitprozessen aus Experten-/Anwendersicht untersucht. Hauptziel ist es, den Disponenten dabei zu helfen, in einem dichten Netz mit täglich mehr als 30.000 Fahrten den Personenverkehr in bestmöglicher Qualität sicherzustellen. Wir schlagen vor, dass ein solches computergestütztes System den Disponenten dabei unterstützen muss, anstehende Konflikte möglichst frühzeitig zu erkennen, Fahrgastverbindungen unter Berücksichtigung der Kundenakzeptanz und Kosten umzuplanen und Fahrzeuge/Besatzungen komfortabel umzuverteilen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-85970-0_18 83ab562d57a72a938a34e313608fa571;de;;;6.1.;;;Datenmanagement in großen P2P-Systemen Peer-to-Peer (P2P) Computing bietet neue Möglichkeiten für den Aufbau stark verteilter Datensysteme. Im Gegensatz zum Client-Server-Computing kann P2P ohne zentrale Koordination arbeiten und bietet wichtige Vorteile wie eine sehr dynamische Umgebung, in der Peers jederzeit dem Netzwerk beitreten und es verlassen können, direkte und schnelle Kommunikation zwischen Peers und Skalierung auf eine große Anzahl von Peers. Die meisten bereitgestellten P2P-Systeme weisen jedoch schwerwiegende Einschränkungen auf: gemeinsame Nutzung auf Dateiebene, schreibgeschützter Zugriff, einfache Suche und schlechte Skalierung. In diesem Papier diskutieren wir die Probleme der Bereitstellung von High-Level-Datenverwaltungsdiensten (Schema, Abfragen, Replikation, Verfügbarkeit usw.) in einem P2P-System. Dies impliziert, dass die Technologie der verteilten Datenbanken grundlegend überarbeitet wird. Wir veranschaulichen, wie wir einige dieser Probleme im APPA-Datenmanagementsystem angehen, das in der Atlas-Gruppe entwickelt wird.;-;-;-;https://link.springer.com/chapter/10.1007/11403937_9 426fbab3edd91124c0d758bb7856da8a;de;;;6.1.;;;Die Wirkung von Treueprogrammen für Einzelhandelskunden — Detaillierte Messung oder transformierendes Marketing? In diesem Papier wird der Ansatz zur Bewertung von Treueprogrammen für Privatkunden untersucht. Traditionell werden diese Programme nach ihren finanziellen und Marketingeffekten auf die Akquisition, Bindung und Entwicklung (Up-Selling, Cross-Selling) von Kunden und die damit verbundene Effizienz bewertet. In diesem Papier wird argumentiert, dass die Bewertung auch dahingehend erfolgen sollte, inwieweit ein Kundenbindungsprogramm die Art und Weise, wie die verschiedenen Partner ihr Marketing und allgemein ihr Geschäft betreiben, verändern kann und/oder sollte.;-;-;-;https://link.springer.com/article/10.1057/palgrave.jt.5740117 f951b8a301263e079602a9e898f32fd5;de;;;6.1.;;;Nebelunterstütztes personalisiertes Gesundheitsunterstützungssystem für entfernte Patienten mit Diabetes Diabetes zeichnet sich durch eine hohe Prävalenz und eine geringe Kontrolle aus, was zu einer hohen vorzeitigen Sterblichkeitsrate führt. Die Aufrechterhaltung des Blutzuckerspiegels kann einen erheblichen medizinischen Nutzen bringen und das Diabetesrisiko reduzieren. In Echtzeit ist die kontinuierliche Überwachung des Blutzuckerspiegels die größte Herausforderung. Wenn Sie jedoch nur den Glukosespiegel überwachen, ohne andere Faktoren wie EKG und körperliche Aktivitäten zu berücksichtigen, kann dies zu einer falschen Medikation führen. Daher hat der ständig wachsende Bedarf an einem allgegenwärtigen Gesundheitssystem vielversprechende Technologien wie das Internet der Dinge und Cloud Computing in Anspruch genommen. Die Verwendung dieser Techniken führt zu Rechenkomplexität, hoher Latenz und Mobilitätsproblemen. Um die oben genannten Probleme anzugehen, schlagen wir ein energieeffizientes nebelunterstütztes Gesundheitssystem vor, um den Blutzuckerspiegel aufrechtzuerhalten. Der J48Graft-Entscheidungsbaum wird verwendet, um das Diabetesrisiko mit höherer Klassifikationsgenauigkeit vorherzusagen. Durch den Einsatz von Fog Computing wird sofort ein Notfallalarm für Vorsichtsmaßnahmen generiert. Experimentelle Ergebnisse veranschaulichen die verbesserte Leistung des vorgeschlagenen Systems in Bezug auf Energieeffizienz, Vorhersagegenauigkeit, Rechenkomplexität und Latenz.;-;-;-;https://link.springer.com/article/10.1007/s12652-019-01291-5 d85e795b8ecd68aab5301f333104168a;de;;;6.1.;;;Methoden zum Mining häufiger Elemente in Datenströmen: ein Überblick an In vielen realen Anwendungen erscheinen Informationen wie Web-Klickdaten, Börsentickerdaten, Sensornetzwerkdaten, Telefongesprächsaufzeichnungen und Verkehrsüberwachungsdaten in Form von Datenströmen. Die Online-Überwachung von Datenströmen hat sich zu einem wichtigen Forschungsunternehmen entwickelt. Die Schätzung der Häufigkeit der Elemente in diesen Streams ist eine wichtige Aggregations- und Zusammenfassungstechnik sowohl für Stream-Mining- als auch für Datenmanagementsysteme mit einem breiten Anwendungsspektrum. Dieses Papier gibt einen Überblick über den Stand der Technik bei Methoden zur Identifizierung häufiger Elemente aus Datenströmen. Es beschreibt verschiedene Arten von Modellen für häufige Item-Mining-Aufgaben. Für allgemeine Modelle wie;-;-;-;https://link.springer.com/article/10.1007/s10115-009-0267-2 5a8e9b277a8b1d2af3ab4adfb245e5dc;de;;;6.1.;;;Technikfolgenabschätzung im Softwaresektor In diesem Kapitel wurde ein ganzheitlicher Ansatz verfolgt, das Problem als organisatorische Entscheidungsfindung zu betrachten, die technische, persönliche und organisatorische Faktoren einbezieht, die in Wirklichkeit den Entscheidungsprozess beeinflussen, ob dies anerkannt wird oder nicht. Das hierarchische Entscheidungsmodell (HDM) wurde verwendet, um die Perspektiven der Entscheidungsfindung in einer Organisation zu strukturieren und die Faktoren, die für die Auswahl eines ETL-Tools wichtig sind, wurden unter die entsprechenden Perspektiven gelegt. Ein Expertengremium bestehend aus fünf erfahrenen Datenbank- und Datenintegrationsexperten wurde gebildet, um die Faktoren zu bewerten. Der Ansatz zur Auswahl eines ETL-Tools wurde demonstriert, ohne dass notwendigerweise irgendwelche Kandidaten-ETL-Tools ausgewählt wurden. Es wurden jedoch wichtige Erkenntnisse zur Auswahl eines ETL-Tools abgeleitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-54537-0_3 9a096844c96e770f0d1ad704c3e1d278;de;;;6.1.;;;Eine Überprüfung und Analyse der wichtigsten Vorschriften und Richtlinien zu den Sicherheitsabschnitten der Prüferbroschüre Jüngste regulatorische Initiativen und Konsensdokumente haben den herkömmlichen Ansatz zur Bewertung und Kommunikation von Pharmakovigilanz-Informationen verändert. Während diese Trends zunächst die Möglichkeit zu bieten scheinen, bestimmte Aspekte der Sicherheitsbewertungsfunktionen vor und nach der Markteinführung zu kombinieren, können sie auch die erheblichen Unterschiede zwischen einer umfassenden Risikobewertung im Rahmen von Studien und nach der Markteinführung verschleiern. Personal, das an der Bewertung von Sicherheitsdaten aus klinischen Studien (einschließlich Studien für neue Indikationen für derzeit auf dem Markt befindliche Produkte) beteiligt ist, muss die regulatorischen, rechtlichen, wissenschaftlichen und ethischen Fragen, die für das Umfeld vor der Markteinführung einzigartig sind, besonders berücksichtigen. In diesem Beitrag nähern wir uns diesem komplexen Thema, indem wir der Risikobewertung von Prüfpräparaten, wie sie in der Prüferbroschüre zusammengefasst ist, ähnliche, gut beschriebene Risikobewertungsverfahren gegenüberstellen, die für vermarktete Produkte durchgeführt werden.;-;-;-;https://link.springer.com/article/10.1177/009286150103500204 943123f5311d4b6bdb132c712b230b4c;de;;;6.1.;;;Verwendung von Verwaltungsaufzeichnungen zur Vorhersage des Wohnsitzes am Volkszählungstag Administrative Aufzeichnungen sind eine vielversprechende Datenquelle, um den Erfassungsbereich der Volkszählung zu schätzen oder Personen zu identifizieren, die bei der Volkszählung übersehen wurden. Ein wichtiges ungelöstes Problem bei der Verwendung von Datensätzen besteht darin, festzustellen, welche von ihnen den Personen entsprechen, die am Tag der Volkszählung tatsächlich ansässig sind. Wir schlagen ein hierarchisches Modell vor, bei dem eine Ebene den Migrationsprozess beschreibt und die andere die Beobachtungswahrscheinlichkeiten in jedem der verfügbaren Datensatzsysteme beschreibt. Das Beobachtungsmodell verwendet die vollständigen Informationen in den Datensätzen, einschließlich der mit den Datensätzen verknüpften Daten und verfügbaren Kovariateninformationen, und kann eine Vielzahl von Datensatztypen berücksichtigen, z. B. Steuerunterlagen, Medicare-Ansprüche und Schulanmeldungslisten. Darüber hinaus können mehrere Datensatzsysteme gleichzeitig modelliert werden. Es werden nachträgliche Verteilungen der Ein- und Auswanderungsdaten erhalten, die zu einer Schätzung der Aufenthaltswahrscheinlichkeit in dem Gebiet am Tag der Volkszählung führen. Diese Arbeit könnte im Zusammenhang mit einer Erhebung von Verwaltungsakten nützlich sein oder um die Rolle der Verwaltungsakten bei der Schätzung des Dreifachsystems zu erweitern.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-2078-7_18 8b6031701f15d616a570b5123dacf837;de;;;6.1.;;;Stand der Technik und zukünftige Richtungen Die Möglichkeit, Kunden über Änderungen ihrer kritischen Daten zu benachrichtigen, ist zu einem wichtigen Merkmal sowohl für Datenspeichersysteme als auch für Anwendungsentwicklungs-Frameworks geworden. Im letzten Kapitel dieses Buches fassen wir den Stand der Technik beim Push-basierten Datenzugriff zusammen und identifizieren mögliche nächste Schritte in der Anwendungs- und Technologieentwicklung im Bereich des Echtzeit-Datenmanagements.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-10555-6_6 52e0c8a88ab0e1da458218a90ef456f6;de;;;6.1.;;;Strategische Informationstechnologie für ein integriertes Liefersystem Das EHS-Gesundheitssystem begann in den 1980er Jahren mit einem selbst entwickelten Krankenhausinformationssystem (KIS), das die Kundenbedürfnisse nicht erfüllen konnte und ein ständig wachsendes Personal benötigte, um mit den lokalen und regulatorischen Anforderungen Schritt zu halten. 1987 wandte die Strategie der Informationssysteme das Krankenhaussystem von der Mainframe- und Selbstentwicklungsphilosophie ab. Der Fünfjahresplan sah die Entwicklung eines Weitverkehrsnetzes (WAN) vor, die Verbindung einzelner lokaler Netze (LAN) und den Aufbau einer verteilten Plattform mit offener Architektur. Dieses Design würde es EHS ermöglichen, auszuwählen;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-2402-8_4 49f3b3f091e02394a6568a0d80a9ef5f;de;;;6.1.;;;Einigung über die Prozessorgruppenmitgliedschaft in synchronen verteilten Systemen erzielen Eine Einigung über die Identität korrekt funktionierender Prozessoren eines verteilten Systems bei zufälligen Kommunikationsverzögerungen, Ausfällen und Prozessorverbindungen zu erzielen, ist ein grundlegendes Problem in fehlertoleranten verteilten Systemen. Unter der Annahme eines synchronen Kommunikationsnetzwerks, das keinen Partitionsereignissen unterliegt, spezifizieren wir das Problem der Prozessorgruppenmitgliedschaft und schlagen drei einfache Protokolle vor, um es zu lösen. Die Protokolle bieten allen korrekten Prozessoren konsistente Ansichten der Prozessorgruppenmitgliedschaft und garantieren eine begrenzte Erkennung von Prozessorfehlern und Join-Verzögerungen.;-;-;-;https://link.springer.com/article/10.1007/BF01784719 65a5a4e8ab2127fef4db93932e548be1;de;;;6.1.;;;Systematische Methodik zur Ausgrabung von Dornröschen-Publikationen und ihren Prinzen aus dem Medizin- und Bioingenieurwesen Von 2010 bis 2014 veröffentlichte das Journal of Medical and Biological Engineering (JMBE) mehr als doppelt so viele Artikel wie in den vorangegangenen fünf Jahren. Dieser Anstieg hat erhebliche Probleme bei der Informationsverwaltung und -abfrage im Zusammenhang mit dem Aufkommen von „Big Data“ aufgeworfen. Generell hat jede Veröffentlichung einen wissenschaftlichen Wert und sollte den Forschenden zugänglich sein. Statistische Auswertungen zeigen jedoch, dass 95 % der Studien nicht von anderen Publikationen zitiert werden. Einige dieser ruhenden Artikel könnten bedeutende Beiträge zur medizinischen und biologischen Ingenieurforschung leisten. Solche Studien werden als „schlafende Schönheiten“ bezeichnet. Die vorliegende Studie entwickelt einen Informations-„Erwachens“-Rahmen, um zu erklären, wie man Wert aus schlafenden Schönheiten herausholt. Der vorgeschlagene Rahmen implementiert ein webbasiertes System, durch das Forscher effektive Strategien zum Erwachen vorschlagen können, die als „Prinzen“ bezeichnet werden. Eine Analyse der experimentellen Ergebnisse fand 14 schlafende Schönheiten in JMBE, von denen einige von den beiden vorgeschlagenen Prinzen, nämlich „Stichwort Prinz“ und „H-Index Prinz“ geweckt wurden. Die Ergebnisse sollen Zeitschriften eine klare Möglichkeit bieten, veröffentlichte Studien zu fördern und ihre Ergebnisse Wissenschaftlern leichter zugänglich zu machen.;-;-;-;https://link.springer.com/article/10.1007/s40846-015-0091-y 02bb5a71a9a8447f607a34a424e8e01e;de;;;6.1.;;;MoDeNA: Verbesserung der Benutzersicherheit für Geräte in drahtlosen persönlichen und lokalen Netzwerken Heutzutage sind die meisten verwendeten Geräte miteinander verbunden und bilden das Internet der Dinge (IoT). Abhängig von der zugrunde liegenden Netzwerkinfrastruktur, Anwendung (z. B. Smart City, eHealth) und Gerätefähigkeit werden verschiedene Protokolle verwendet. Die Beurteilung des Sicherheitsgefühls des Datenaustauschs hängt von persönlichen Einstellungen ab (z. B. einfache Bedienung, verschlüsselte Übertragung, Anonymisierungsunterstützung). MoDeNA – ein Mobile Device Network Assistant – wurde entwickelt, um die Einschätzung der Sicherheit zu verstehen, indem die Bedenken der Benutzer und ihr technologisches Verständnis der verwendeten Geräte und Protokolle in Beziehung gebracht werden. MoDeNA bietet einen transparenten Überblick über die genutzte WLAN-Sicherheit des Endgerätes des Nutzers und gibt konkrete Hinweise zur Verbesserung der Verbindungssicherheit und Bedienbarkeit der mobilen Gerätesicherheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-60774-0_10 eae480279b60d3ccf31bf351db88ad47;de;;;6.1.;;;Augmented Reality unterstützte interaktive manuelle Montagekonstruktion Augmented Reality (AR) ist eine neuartige Technologie, die computergenerierte Informationen nahtlos in die reale Umgebung überlagert. AR-Technologien haben ein mächtiges Werkzeugset für die computergestützte Montageplanung eröffnet. Dieses Papier stellt ein manuelles Konstruktionssystem für Baugruppen vor, das AR-Technologien verwendet. Eine Baugruppendatenstruktur wird für das Baugruppeninformationsmanagement entwickelt. Es wurden auch Algorithmen für die Erkennung von Montagebeschränkungen und die Verfeinerung des Montageorts vorgeschlagen. Ein auf diesen Methoden basierender hybrider Ansatz wurde formuliert und implementiert, um es den Benutzern zu ermöglichen, eine manuelle Montage zu simulieren, ohne dass zusätzliche computergestützte Konstruktionsinformationen bei der Baugruppenkonstruktion benötigt werden. Dies würde zu einer verbesserten Benutzererfahrung und einer kürzeren Vorbereitungszeit führen. Eine Methodik für die 3D-Bare-Hand-Interaktion ist in dieses interaktive manuelle Konstruktionssystem für Baugruppen integriert, damit die Benutzer die virtuellen Komponenten auf natürliche und effektive Weise manipulieren können. Ein Prototypsystem für interaktives manuelles Baugruppendesign wurde entwickelt. Ein Beispiel wurde bereitgestellt, um das entwickelte Prototypsystem zu demonstrieren.;-;-;-;https://link.springer.com/article/10.1007/s00170-013-5091-x 45717bec2ba308e652c82dea0df7e9e9;de;;;6.1.;;;Automatisierung von Hochwasser-Notfallplänen In den Niederlanden sind die Wasserbehörden für die Durchführung von Hochwasserschutzarbeiten zuständig. Sie verwenden Notfallpläne, um die komplexe Situation in Hochwassergefahrensituationen zu bewältigen. Je nach zu erwartendem Wasserstand ändern sich die Verantwortlichkeiten und es müssen Maßnahmen ergriffen werden. Die jüngsten Hochwassergefahren haben das Bewusstsein dafür geweckt, dass der Faktor Mensch ein wichtiges Risiko darstellt. Folglich wurde ein automatisiertes Tool namens Geautomatiseerd Draaiboek Hoogwater (GDH/Automated Flood Contingency Plan) entwickelt können sich auf das konzentrieren, was sie besser können: mit unerwarteten Entwicklungen umgehen und Entscheidungen nach unvergleichlichen Kriterien treffen Bei der Entwicklung des Tools ist eine intensive Einbindung der Hochwassermanager unabdingbar. Sie beteiligen sich an der Entwicklung von Pflichtenheften, dem Testen des Tools, der Implementierung und schließlich der Evaluierung, die zur Verbesserung führt. Das Ergebnis ist GDH: ein generisches Tool, mit dem jede Hochwasserrisikomanagementorganisation ihren eigenen Notfallplan automatisieren kann und das als Information dient Management-Tool bei Hochwasser. Hauptmerkmale: – Darstellung aller relevanten Informationen in konsistenter Form, – Warnung an den Hochwassermanager, wenn erforderliche Maßnahmen nicht rechtzeitig ergriffen werden, – automatische Kommunikation per Fax, SMS oder E-Mail, – automatische Protokollierung aller Maßnahmen (beides per System und Betreiber), die eine vollständige Bewertung nach dem Ereignis ermöglichen, – grundlegende Bestandteile von Lageberichten. Es wird daran gearbeitet, die GDH-Benutzeroberfläche einschließlich der vollständigen GIS-Funktionalität zu verbessern. Die Implementierung des Tools ist eine wichtige Aktivität. Es erfordert eine gründliche Analyse der bestehenden Notfallpläne, denn die GDH fordert Konsistenz in der Basisdokumentation. Infolgedessen führt die Umsetzung der GDH häufig zu einer Verbesserung der Notfallpläne. Nach der technischen Umsetzung folgt als nächster Schritt die organisatorische Umsetzung;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-4200-3_10 287d1e589e270293b8311921eeb78a91;de;;;6.1.;;;Integration großer und verteilter Biowissenschaften-Ressourcen für die systembiologische Forschung: Fortschritte und neue Herausforderungen Forscher in der Systembiologie greifen routinemäßig auf eine riesige Sammlung versteckter Web-Recherche-Ressourcen zu, die im Internet frei verfügbar sind. Diese Sammlungen umfassen Online-Datenspeicher, Online- und herunterladbare Datenanalysetools, Publikationen, Text-Mining-Systeme, Visualisierungsartefakte usw. Fast immer haben diese Ressourcen komplexe Datenformate, die in Repräsentation, Datentyp, Interpretation und sogar Identität heterogen sind. Sie sind oft gezwungen, Analysepipelines und Datenverwaltungsanwendungen zu entwickeln, die umfangreiche und unerschwingliche manuelle Interaktionen erfordern. Solche Ansätze wirken als Barriere für eine optimale Nutzung dieser Ressourcen und behindern damit den Fortschritt der Forschung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23074-5_9 3bdf03922f1ee0a6104576b4ab3500b0;de;;;6.1.;;;Gesamtnetzmanagement im digitalen öffentlichen Fernsprechnetz von British Telecom Die Vorteile eines integrierten digitalen Netzes sind bekannt, jedoch erfordert ein solches Netz eine sorgfältige Überwachung und Verwaltung, um den vollen Dienst und die Kostenvorteile zu erhalten. In diesem Papier wird die Strategie beschrieben, die British Telecom zur Verwaltung seines digitalen Fernverkehrsnetzes verfolgt hat.;-;-;-;https://link.springer.com/article/10.1007/BF02999671 c31127bf2dbe50183e39bd8313d82f74;de;;;6.1.;;;Semantische Integration von Unternehmensinformationen: Herausforderungen und Grundprinzipien Um die Herausforderungen von EII (Enterprise Information Integration) zu meistern, schlagen wir SGII vor, das als erstes System an der Schnittstelle von semantischem Grid und P2P-Datenintegration forscht, ihre Stärken in einem gemeinsamen Rahmen nutzt und ihre Anwendbarkeit im Bereich EII erweitert . Wir diskutieren zunächst, wie die P2P- und Semantic-Grid-Technologien aktuelle EII-Systeme zu einem neuen dezentralen, flexiblen, skalierbaren System führen können, basierend auf einem kurzen Überblick über den Stand der Technik von EII und seine aktuellen Herausforderungen. Anschließend werden durch eine Diskussion der grundlegenden formalen Architektur im Allgemeinen und ihrer Komponenten im Besonderen die grundlegenden Integrationsprinzipien sowohl aus P2P- als auch aus semantischer Grid-Perspektive dargestellt. Die wichtigsten Beiträge dieses Papiers sind ein P2P-semantisches Grid-Service-orientiertes Framework für EII, das hauptsächlich aus drei semantischen Grid-Services (Daten-Peer-, Semantic-Peer- und Anwendungs-Peer-Diensten), grundlegenden Integrationsprinzipien besteht, die mit der OGSA-DAI-Infrastruktur kompatibel sind und P2P-Datenintegrationsparadigma und Mehrwert gegenüber dem Stand der Technik von EII.;-;-;-;https://link.springer.com/chapter/10.1007/11836025_23 9f7b8e02448c42b27c5e72900736a909;de;;;6.1.;;;Bewegungsbasiertes Checkpointing und Logging für die Fehlerwiederherstellung von Datenbankanwendungen in mobilen Umgebungen In diesem Papier stellen wir ein effizientes Fehlerwiederherstellungsschema für mobile Datenbankanwendungen vor, das auf bewegungsbasiertem Checkpointing und Logging basiert. Aktuelle Ansätze nehmen regelmäßig Checkpoints ohne Rücksicht auf das Mobilitätsverhalten mobiler Nutzer. Unser bewegungsbasiertes Checkpointing-Schema nimmt einen Checkpoint erst, nachdem ein Schwellenwert für Mobilitätsübergaben überschritten wurde. Der optimale Schwellenwert wird durch die Ausfallrate, die Protokollankunftsrate und die Mobilitätsrate des mobilen Hosts bestimmt. Dies ermöglicht die Abstimmung der Checkpointing-Rate pro Benutzer. Wir identifizieren den optimalen Bewegungsschwellenwert, der die Wiederherstellungskosten pro Ausfall als Funktion der Mobilitätsrate, Ausfallrate und Log-Ankunftsrate des mobilen Knotens minimiert. Wir leiten die Wiederherstellbarkeit der mobilen Datenbankanwendung ab, d. h. die Wahrscheinlichkeit, dass die Wiederherstellung innerhalb einer festgelegten Wiederherstellungsfrist durchgeführt werden kann. Numerische Daten werden präsentiert, um die Machbarkeit unseres Ansatzes mit seiner gegebenen Anwendbarkeit zu demonstrieren.;-;-;-;https://link.springer.com/article/10.1007/s10619-008-7026-3 44361e9b0d5f66b725e97da729d228b9;de;;;6.1.;;;Eine Umfrage zu Architektur, Protokollen und Herausforderungen im IoT Das Internet der Dinge (IoT) ist ein aufkommendes Paradigma, das darauf abzielt, alle intelligenten physischen Geräte miteinander zu verbinden, damit die Geräte zusammen den Benutzern intelligente Dienste bereitstellen können. Einige der IoT-Anwendungen umfassen Smart Homes, Smart Cities, Smart Grids, Smart Retail usw. Da IoT-Systeme mit heterogenen Hardware- und Netzwerktechnologien aufgebaut sind, ist eine Verbindung mit der Software-/Anwendungsebene, um Informationen aus großen Datenmengen zu extrahieren, eine komplexe Aufgabe. In diesem Beitrag haben wir verschiedene Architekturen und Protokolle, die in IoT-Systemen verwendet werden, untersucht und geeignete Taxonomien zu deren Klassifizierung vorgeschlagen. Wir haben auch die technischen Herausforderungen wie Sicherheit und Datenschutz, Interoperabilität, Skalierbarkeit und Energieeffizienz diskutiert. Wir haben für jede der genannten Herausforderungen eine ausführliche Berichterstattung über aktuelle Forschungsarbeiten bereitgestellt. Ziel dieser Umfrage ist es, zukünftigen Forschern zu helfen, IoT-spezifische Herausforderungen zu identifizieren und je nach Anwendungsanforderung geeignete Technologien einzusetzen.;-;-;-;https://link.springer.com/article/10.1007/s11277-020-07108-5 1e6296836c4946e68d12f32c55d71fac;de;;;6.1.;;;Wirtschaftlichkeit von aktiviertem Protein C in der klinischen Praxis Rekombinantes humanes aktiviertes Protein C (rhAPC) hat sich in Studien mit Daten aus einer randomisierten Zulassungsstudie bei schwerkranken septischen Patienten als kosteneffektiv erwiesen. Wir haben die Kosteneffektivität von rhAPC bei Patienten mit schwerer Sepsis und multiplem Organversagen in der intensivmedizinischen Praxis untersucht.;-;-;-;https://link.springer.com/article/10.1186/cc6116 d53b6266857641bc8dd4f9265afbfa08;de;;;6.1.;;;Kritische Erfolgsfaktoren und vertraglicher Rahmen für Bauprojekte mit Building Information Modeling in Vietnam Die Anwendung von Building Information Modeling (BIM) in der vietnamesischen Bauwirtschaft steht in Wahrnehmung und Praxis noch am Anfang. Daraus ergibt sich die Notwendigkeit eines effektiven Rechtssystems und Standards für die BIM-Implementierung. In dieser Studie wurde eine systematische Literaturrecherche durchgeführt, die relevante Referenzen aus Zeitschriften, Konferenzbänden und Diplomarbeiten von 2008 bis heute umfasst, um rechtliche Probleme und deren mögliche Lösungen zu identifizieren. Die identifizierten Rechtsfragen wurden in Bezug auf den vietnamesischen Bausektor analysiert und anschließend durch eine Umfrage verifiziert und bewertet. Sowohl der Friedman-Test als auch der Wilcoxon-Vorzeichen-Rang-Test wurden angewendet, um die BIM-Rechtsfragen einzustufen. Die Ergebnisse zeigen, dass das größte Hindernis bei der Einführung von BIM die mangelnde Konsistenz und Beteiligung der Stakeholder am BIM-Implementierungsprozess ist. Es wurde ein Experteninterview durchgeführt, um die Lösungen für BIM-Rechtsfragen auf dem vietnamesischen Baumarkt zu bewerten. Durch Umfragen und Experteninterviews wurden verschiedene rechtliche Fragen, Risiken und Hindernisse im Zusammenhang mit der Einführung von BIM in der vietnamesischen Bauindustrie identifiziert und angegangen. Es wurden auch Informationen über BIM-Vertragsbewusstsein und -Erfahrungen bekannt gegeben, die dazu beitragen würden, die Risiken zu überprüfen, die die Parteien in einem BIM-inklusiven Bauprojekt betreffen, sowie diejenigen, die den Informationsaustausch und die geistigen Eigentumsrechte in Vietnam betreffen. Schließlich schlägt das Papier eine Reihe von kritischen Erfolgsfaktoren und einen vertraglichen Rahmen vor, die zu einem erfolgreichen BIM-inklusiven Bauvertrag in Vietnam führen würden.;-;-;-;https://link.springer.com/article/10.1007/s40999-020-00542-3 70e593db4f383c9b70ef6a1aef2c7116;de;;;6.1.;;;Eine Architektur für offene medienübergreifende Annotationsdienste Das Aufkommen neuer Medientechnologien in Kombination mit verbesserten Informationsaustauschfunktionen, die das Web bietet, bietet neue Möglichkeiten für medienübergreifende Anmerkungen. Dies wirft wiederum neue Herausforderungen in Bezug auf die Erzielung einer echten Integration über verschiedene Medientypen hinweg und die Entwicklung von Annotationsdiensten auf, die ausreichend flexibel und erweiterbar sind, um neue Dokumentformate zu berücksichtigen, sobald sie entstehen. Wir stellen ein allgemeines Modell für medienübergreifende Annotationsdienste vor und beschreiben, wie es verwendet wurde, um eine Architektur zu definieren, die Erweiterbarkeit auf Datenebene sowie innerhalb von Autoren- und Visualisierungstools unterstützt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04409-0_39 d0425f596c65393ccc782d55427e0879;de;;;6.1.;;;Verwenden von Office 365 Compliance Center Office 365 ist eine Suite von Softwareprodukten, die Microsoft über ein Software-as-a-Service-Abonnement anbietet. Ziel des Dienstes ist es, die IT-Kosten für Geschäftsimplementierungen zu reduzieren. Das Security & Compliance Center ist ein Admin Center, das Sicherheits-Dashboards für das von Ihnen erworbene Abonnement bereitstellt. Eine gute Möglichkeit, das Security & Compliance Center anzuzeigen, ist eine Datenaggregationswebsite der verschiedenen Sicherheitsdienste in Office 365. Der treibende Faktor für die Sicherheitsfeatures von Office 365 sind regulatorische Standards und Benutzerfeedback. Beispielsweise werden Dienste so eingerichtet, dass sie die Anforderungen des National Institute of Standards and Technology Cybersecurity Framework (NIST-CSF) oder des NIST-800-53-Compliance-Standards für staatliche Auftragnehmer erfüllen (siehe Microsoft Compliance Manager). Wenn Sie den NIST-CSF-Standard erkunden, der auf den Säulen Identifizierung, Schutz, Erkennung und Reaktion basiert, werden Sie eine detaillierte Beziehung zu den Sicherheitsfunktionen von Office 365 sehen. In Abbildung 6-1 sind beispielsweise die vier Säulen in Windows Defender ATP (Teil des Microsoft 365 E5-Abonnements) integriert, um Angriffe abzuwehren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-4230-8_6 01d419947fbcbddb811f8d71aaf79763;de;;;6.1.;;;Abdeckung der Schemazuordnung In diesem Whitepaper stellen wir die Schema-Mapping-Abdeckung für relationale Datenbanken vor und untersuchen sie. Bei einer relationalen Schemazuordnung mit sowohl Quellenabhängigkeiten als auch Zielabhängigkeiten besteht das Abdeckungsproblem darin, zu entscheiden und zu beschreiben, welche Quelleninstanzen Lösungen unter der Zuordnung haben. Unsere Hauptmotivation besteht darin, die Grenzen von Schema-Mappings zu beschreiben und somit effektiv zu bestimmen, ob die Mappings ihre Benutzererwartungen für die gegebenen Aufgaben erfüllen können. Wir schlagen zunächst vor, Datenbankabhängigkeiten zu verwenden, um Benutzererwartungen von Schemazuordnungen zu modellieren. Dann definieren wir formell den Begriff der Schema-Mapping-Coverage und schlagen vor, eine Reihe von Abhängigkeiten in der Quellschemasprache zu verwenden, um die Coverage darzustellen. Wir untersuchen, wie Zielabhängigkeiten indirekt Abhängigkeiten über Mapping-Spezifikationen auf Quellinstanzen erzwingen und so ermitteln, welche Quellinstanzen Lösungen haben. Wir beweisen, dass das Problem der Berechnung der Schema-Mapping-Überdeckung im Allgemeinen unentscheidbar ist. Wir präsentieren Algorithmen zur Berechnung der Abdeckung für Schema-Mappings, bei denen sowohl die Quellabhängigkeiten als auch die Zielabhängigkeiten aus funktionalen Abhängigkeiten und azyklischen Einschlussabhängigkeiten bestehen. Schema-Mapping-Coverage beschreibt die Fähigkeit, Quellinstanzen Zielinstanzen für Mappings zuzuordnen. Es bietet eine Möglichkeit, Einschränkungen von Schema-Mappings zu beschreiben, was besonders nützlich für das Mapping-Design und die Entwicklung sein kann.;-;-;-;https://link.springer.com/article/10.1007/s10472-020-09720-4 5dd7f8f41eb2f58b41de0896fc38051a;de;;;6.1.;;;Charakterisierung von Managementplattformen Was unterscheidet die Managementplattformen von anderen Managementsystemen? Wer sind die wichtigsten Player in diesem Bereich? Wie haben sich Management-Plattformen entwickelt? Was ist ihre Zukunft? Wie sollten Managementplattformen analysiert und bewertet werden? Dieses Kapitel wird all diese Fragen beantworten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-6299-3_3 fdb83d757ad4ed9be4b899880ba41aff;de;;;6.1.;;;Die Forschung zur Optimierungsstrategie des touristischen Verkehrssystems von Wuhan vor dem Hintergrund des intelligenten Tourismus In den letzten Jahren hat sich die Tourismusbranche in Wuhan rasant entwickelt. Im Prozess der intelligenten Tourismusentwicklung ist es notwendig, den Bau von touristischen Transportmitteln zu stärken, um den reibungslosen Fluss von touristischen Zielen und Landschaftsrouten zu gewährleisten und eine stabile Entwicklung der Tourismusbranche zu fördern. Der intelligente Tourismustransport ist auch ein Teil, der bei der Entwicklung der Tourismusbranche nicht ignoriert werden kann. Die Perfektionierung der Verkehrsinfrastruktur steht in engem Zusammenhang mit der touristischen Attraktivität und Servicequalität der touristischen Destinationen. Ausgehend von der Ist-Situation diskutiert dieser Artikel die Bedeutung des touristischen Verkehrsbaus für die Tourismusentwicklung, analysiert die aktuellen Probleme des touristischen Verkehrsbaus und schlägt Strategien zur Optimierung des touristischen Verkehrssystems Wuhans im Kontext des Smart Tourism vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1726-3_10 ee8a518f522cf4a35d62c8e195efff47;de;;;6.1.;;;Evidenzbasierte Praxis in der Ernährung: Was sind die Hindernisse für die Verbesserung der Evidenz und wie kann man ihnen begegnen? Die evidenzbasierte klinische Forschung stellt im Ernährungsbereich besondere Hürden. Die vorliegende Übersicht fasst die Haupthindernisse für die Ernährungsforschung zusammen, die nicht allen randomisierten klinischen Studien oder Studien zu seltenen Krankheiten gemeinsam sind, und zeigt Verbesserungsmöglichkeiten auf.;-;-;-;https://link.springer.com/article/10.1186/s13063-017-2160-8 660525c368c29759ba22c37322748d54;de;;;6.1.;;;Datenschutz in seinen drei Formen – eine systematische Überprüfung Das ständige Wachstum großer Datenmengen hat viele Bereiche wie Gesundheitswesen, Wirtschaft, E-Commerce, Bildung, soziale Websites und andere dazu befähigt, zeitnahe Entscheidungen zu treffen und ihre Dienste für ihre Benutzer zu verbessern. Die beträchtliche Menge der Daten dieser Anwendungen ist jedoch personenbezogener Natur. Daher sollten die sensiblen Informationen jedes Einzelnen geschützt werden, um das Vertrauen der Benutzer zu gewinnen, wie ihre privaten Informationen mit den Organisationen geteilt werden. Der Datenschutz und die Sicherheit der Daten sind die dominierenden Herausforderungen und haben in letzter Zeit viel Aufmerksamkeit auf sich gezogen. Sie untersuchten Datenschutzbedrohungen und führten auch viele Techniken zum Schutz der Privatsphäre ein, um mit einer Vielzahl von Datenbedrohungen umzugehen. In diesem Papier präsentieren wir eine systematische Übersicht über die Techniken, die verwendet wurden, um diese Bedrohungen in Abhängigkeit vom Zustand der Daten zu bekämpfen – sei es im Ruhezustand (in Datenspeichern), während der Übertragung (über das Netzwerk) oder in verwenden (während der Analyse). Dies hat sehr interessante Rückschlüsse auf den Datenschutz und die Sicherheit im Hinblick auf Big-Data-Eigenschaften ergeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4370-2_30 24304a7b10c9c61ba31dbe527a078e66;de;;;6.1.;;;Strafverfolgung in der Cloud: Ist der EU-Datenschutzrahmen der Aufgabe gewachsen? Cloud Computing findet vor dem Hintergrund der rechtlichen Komplexität des Internets statt und trägt noch dazu bei. Diese Situation muss nicht nur angegangen werden, um alle potenziellen Vorteile des Cloud Computing zu nutzen, sondern auch, weil die Cloud sowohl zu einer Quelle als auch zu einem Ziel für Kriminalität, insbesondere Cyberkriminalität, geworden ist. Folglich lenkt die Nutzung von Cloud-Computing die Aufmerksamkeit der Strafverfolgungsbehörden (LEAs) auf sich, während sie die in der Europäischen Charta der Grundrechte anerkannten Rechte wie Privatsphäre und Datenschutz beeinträchtigt. Der Zweck dieses Kapitels besteht darin, die Auswirkungen des Zugangs zu und der Nutzung von Daten, die in Cloud-Computing-Diensten gespeichert sind, durch LEAs auf den Datenschutz zu analysieren, mit besonderem Fokus auf den Rechtsrahmen der Europäischen Union, und Fragen zur Angemessenheit der Rahmen selbst. Dazu ist es erforderlich, das Zusammenspiel von Datenschutz und Cloud Computing nicht nur nach, sondern auch vor Beginn eines Ermittlungsverfahrens zu untersuchen. Die Analyse zeigt, dass die durch Cloud Computing aufgezeigten Unzulänglichkeiten des datenschutzrechtlichen Rahmens eine Radikalisierung bestehender Probleme in Bezug auf Datenschutz und LEA darstellen. Um jedoch einen angemessenen Schutz für Einzelpersonen zu gewährleisten, müssen verschiedene Aspekte der geltenden Datenschutzgesetze aktualisiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-2903-2_10 db3e0f7b7ac3fc5b8b90f02d8d141a5e;de;;;6.1.;;;Evolutionäre Sequenzanalyse und Visualisierung mit Wasabi Wasabi ist eine webbasierte Open-Source-Grafikumgebung für die evolutionäre Sequenzanalyse und -visualisierung, die entwickelt wurde, um mit mehreren Sequenzausrichtungen innerhalb ihres phylogenetischen Kontexts zu arbeiten. Die interaktive Benutzeroberfläche bietet bequemen Zugriff auf externe Datenquellen und Berechnungstools und lässt sich mithilfe eines Plugin-Systems leicht um benutzerdefinierte Tools und Pipelines erweitern. Wasabi speichert Zwischenbearbeitungs- und Analyseschritte als Workflow-Historien und bietet direkten Zugriff auf Weblinks zu Datensätzen, was eine reproduzierbare, kollaborative Recherche und eine einfache Verbreitung der Ergebnisse ermöglicht. Neben gemeinsamen Analysen und einer installationsfreien Nutzung ermöglicht das webbasierte Design den Betrieb von Wasabi als plattformübergreifende, eigenständige Anwendung und die einfache Integration in andere Webdienste.;-;-;-;https://link.springer.com/protocol/10.1007/978-1-0716-1036-7_14 aa8708dca6a6818a8b06d18302358691;de;;;6.1.;;;Verbessern der Gewinnchancen durch den Assistenten für den Erfolg der Zusammenarbeit Zusammenarbeit ist zu einem vorherrschenden Modus wissenschaftlicher Forschung geworden, und gute Zusammenarbeitsprozesse sind wichtig, um wissenschaftliche Qualität und Produktivität sicherzustellen. Oftmals sind die Teilnehmer dieser Kooperationen nicht am gleichen Ort, dennoch bringt die Distanz Herausforderungen mit sich. Es besteht weiterhin Bedarf an Bewertungswerkzeugen, die potenzielle Probleme bei der Zusammenarbeit frühzeitig erkennen und Strategien für das Management und die Lösung von Problemen bei der Zusammenarbeit bereitstellen können. Dieses Papier stellt ein neues Forschungs- und Diagnosewerkzeug vor, den Collaboration Success Wizard (CSW), und bietet zwei Fallstudien zu seiner Verwendung bei der Bewertung laufender Kooperationsprojekte in den Gesundheitswissenschaften. Das CSW soll sowohl bestehende Theorien über die Faktoren, die eine erfolgreiche Zusammenarbeit fördern, validieren und verfeinern als auch gute Kooperationspraktiken in geografisch verteilten teambasierten wissenschaftlichen Projekten fördern. Diese Fälle zeigen, dass die CSW Reflexion und positive Veränderungen in der kollaborativen Wissenschaft fördern kann.;-;-;-;https://link.springer.com/article/10.1007/s13142-012-0174-z 12dd620ba9de1318a2f5bcecb4a3a0e4;de;;;6.1.;;;Technische Effizienz der Hummerfischerei im Connecticut Long Island Sound: ein nichtparametrischer Ansatz zur aggregierten Grenzanalyse In diesem Beitrag gehen wir der Frage nach, ob die technische Effizienz einer Fischereiindustrie von den Determinanten der Umgebungswasserqualität des aquatischen Ökosystems beeinflusst wird. Unter Verwendung zonenspezifischer Daten von 1998 bis 2007 für die Hummerfischerei im Connecticut Long Island Sound und eines Ansatzes, der eine Bootstrapping-Technik mit einer Dateneinschlussanalyse kombiniert, erhielten wir die DEA-Schätzungen der technischen Effizienz für jede Fangzone. Anschließend verwendeten wir die Bootstrapped-DEA-Ergebnisse und die zensierte Quantilregression, um den Einfluss der Umgebungsvariablen auf verschiedene Effizienzperzentile zu bewerten. Ein wichtiges Ergebnis zeigt an, dass bei günstigen Umweltbedingungen (hoher Gehalt an gelöstem Sauerstoff) die Effizienz niedrig ist und wenn die Umweltbedingungen weniger günstig sind (hohe Stickstoffgehalte), die Effizienz hoch ist. Die Ergebnisse zeigen, dass die Intensität der signifikanten Auswirkungen angesichts der kontextuellen Variablen zwischen Hoch- und Niedrigeffizienz-Zeiträumen variieren kann.;-;-;-;https://link.springer.com/article/10.1007/s11069-015-2144-5 eebafc1ace16be1e12fff1eaa276830b;de;;;6.1.;;;Forschung zum CAD-System zur Standortoptimierung von Stationen basierend auf dem kooperativen Modus Derzeit ist das Mobilfunkgeschäft zu einer wichtigen treibenden Kraft der chinesischen Informationskommunikationsbranche geworden. Dies bedeutet, dass ein drahtloses Kommunikationsnetz eine bessere Dienstqualität bereitstellen muss. Eine ausgezeichnete Basisstandortplanung ist die Grundlage für den Aufbau eines hochwertigen drahtlosen Kommunikationsnetzes. Frühzeitig ist die von Erfahrung und Feldmessungen abhängige Weise kostspielig und ineffizient. Vor diesem Hintergrund schlagen wir eine neue Idee vor – ein CAD-System zur Standortoptimierung von Stationen, das auf dem kooperativen Modus HOOPS basiert. Dieses CAD-System zur Standortoptimierung der Station nutzt effektiv die Vorteile der CAD-Technologie und der geografischen Informationssysteme und macht die Rapid-Configuration-Technologie und Multi-Target-Lösungstechniken kooperativ basierend auf dem HOOPS-Flow.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-31854-7_102 62bfebd6ce7568aa493af2b3d0ecb923;de;;;6.1.;;;Qualitätsmessung in der Pädiatrie: Floridas frühe Erfahrungen mit dem CHIPRA Core Measure Set Der im Jahr 2009 in Kraft getretene Children’s Health Insurance Program Reauthorization Act (CHIPRA) zielt unter anderem darauf ab, die staatliche Rechenschaftspflicht für die Bereitstellung einer qualitativ hochwertigen Gesundheitsversorgung für alle Kinder in den Vereinigten Staaten zu erhöhen. Obwohl es wichtig ist, dass Staaten über die Maßnahmen berichten, ist es wichtig, aus ihren Erfolgen und Misserfolgen zu lernen, um die Maßnahmen zu erstellen, damit die Staaten auf zukünftige Regelungen vorbereitet sind. Florida umfasste 2010 rund 2,59 Millionen Kinder. Verwaltungs-, Krankenakten-, Register- und Umfragedaten wurden verwendet, um über 20 der 24 CHIPRA-Kernmaßnahmen zu berichten. Es wurden technische Spezifikationen der Centers for Medicare und Medicaid Services verwendet. Etwa 10 Monate wurden benötigt, um die erforderlichen Daten zu identifizieren, zu sammeln, zu sichern und zu verarbeiten. Florida konnte auf seine Erfahrungen aus der Vergangenheit mit Berichten und Vermessungen zur Leistungsmessung aufbauen. Die Durchführung von Überprüfungen der Krankenakten auf Landesebene und die Erstellung von Maßnahmen, die Registerdaten erforderten, erwies sich als Herausforderung. Obwohl Florida im ersten Jahr der Berichterstattung über die CHIPRA-Kernmaßnahmen erfolgreich war, wurden bestimmte Bevölkerungsgruppen nicht in einige der Maßnahmen einbezogen. Die nächste Phase des CHIPRA-Projekts in Florida wird sich darauf konzentrieren, einen Verbreitungsplan zu entwickeln und umzusetzen und Möglichkeiten zur Verbesserung der Maßnahmen zu schaffen. Florida hat in den frühen Phasen der Berichterstattung über die CHIPRA-Maßnahmen erhebliche Fortschritte gemacht. Da Florida mehr Erfahrung mit der Berichterstattung über die Maßnahmen sammelt und Ergebnisse aus anderen Bundesstaaten veröffentlicht werden, wird es einfacher, die Ergebnisse der landesweiten Maßnahmen in einen Kontext zu setzen. Sobald aussagekräftige Vergleiche angestellt werden können, wird Florida in der Lage sein, die Zukunft der Kindergesundheit und der Gesundheitsergebnisse besser zu planen.;-;-;-;https://link.springer.com/article/10.1007/s10995-013-1379-6 851abae93045c118169098539d48c93b;de;;;6.1.;;;Grid und Datenbanken: BaSTI als praktisches Integrationsbeispiel Stellare Astrophysik und insbesondere stellare Evolutionsberechnungen sind extrem wichtig, um einer Fülle astrophysikalischer Probleme zu begegnen, aber sie stellen auch extrem hohe Anforderungen an Rechenleistung und Datenspeicherung. Die Datenbank Bag of Stellar Tracks and Isochrones (BaSTI) ist ein theoretischer astrophysikalischer Katalog, der grundlegende Datensätze zur Sternentstehung und -entwicklung sammelt. Um diese Datenbank zu erstellen, ist es notwendig, eine große Anzahl von stellaren Evolutionsberechnungen durchzuführen. Die Grid-Technologie scheint eine vielversprechende Antwort auf die Datenspeicherungs- und -verarbeitungsanforderungen des BaSTI-Katalogs zu sein. Im Rahmen der EGEE Grid-Infrastruktur ist es uns gelungen, eine Reihe von Experimenten durchzuführen, die darauf abzielten, eine anwendungsspezifische Umgebung für die stellare Simulationssoftware und ihre Interaktion mit der BaSTI-Datenbank zu entwerfen und zu definieren. Unsere erfolgreiche Implementierung zeigt, dass die „Gridifizierung“ des stellaren Evolutionscodes nicht nur möglich, sondern auch äußerst praktisch in Bezug auf Datenverarbeitungsgeschwindigkeit und Datenaustausch ist und ein wertvolles Instrument zur Unterstützung der astrophysikalischen Forschung sein kann.;-;-;-;https://link.springer.com/article/10.1007/s10723-010-9154-z fb85f606b50f427ca6170ce2078b3547;de;;;6.1.;;;Peer-to-Peer-Overlay-Netzwerke der nächsten Stufe unter hoher Abwanderung: eine Umfrage Die Peer-to-Peer (P2P)-Technologie hat aufgrund ihres dezentralen und verteilten Ansatzes bemerkenswerte Fortschritte gemacht. Eine breite Palette von Anwendungen wie soziale Netzwerke, Filesharing, interpersonelle Kommunikation über große Entfernungen usw. werden durch den Einsatz von P2P-Protokollkandidaten problemlos durchgeführt. Es gibt eine große Bandbreite solcher P2P-Protokolle. In diesem Artikel besprechen wir fortgeschrittene Protokolle wie ZeroNet, Dat, Ares Galaxy, Accordion usw., die aus klassischen Peer-to-Peer (P2P) Overlay-Netzwerken entwickelt wurden. Wir verwenden den Begriff klassisch, um Protokolle wie Chord, Pastry, Tapestry, Kademlia, BitTorrent, Gnutella, Gia, NICE usw. anzuspielen. Bei der Entwicklung des Designs gab es mehrere Herausforderungen mit dem klassischen Ansatz in einer Umgebung mit hoher Abwanderung und wachsender Netzwerkkommunikationsrate. Um diese vielfältigen Netzwerkprobleme mit klassischen P2P-Systemen anzugehen, entwickelten sich neue Ansätze, die den Forschern halfen, neue Anwendungsschichtnetzwerke auf bestehenden P2P-Netzwerken aufzubauen. In diesem Beitrag leisten wir einen Beitrag, indem wir Next-Level-P2P (NL P2P) systematisch charakterisieren und deren Schlüsselkonzepte untersuchen. Die Anordnung verteilter Netze wird von zahlreichen Analysten komplettiert, die klassische P2P-Systeme einbezieht. In dieser Arbeit wollen wir daher einen weiteren Schritt machen, indem wir bewusst über Protokolle sprechen, die aus klassischen P2P-Systemen erstellt wurden, und deren Leistungsvergleich in einer sich dynamisch ändernden Umgebung. Darüber hinaus werden verschiedene Aspekte von P2P-Overlay-Frameworks wie Routing, Sicherheit, Abfrage, Anpassung an unkritische Fehler usw. in Abhängigkeit von entwickelten Konventionen untersucht. Darüber hinaus haben wir basierend auf unserer Überprüfung und Studie einige der Erkundungsherausforderungen mit NL P2P-Frameworks vorgestellt.;-;-;-;https://link.springer.com/article/10.1007/s12083-019-00839-8 97283c3d5969abfc8f8894e8f09e5524;de;;;6.1.;;;Zuverlässige semantische Systeme für die Entscheidungsfindung: Definition einer Geschäftsregel-Ontologie für ein Umfrageentscheidungssystem Konzepte wie „Entscheidungsanalyse“ und „Data Mining“ beziehen sich auf wissenstechnische Techniken, die von Forschern verwendet werden, um Statistiken zu sammeln und Entscheidungen über Anforderungen zu beeinflussen. Diese Konzepte sind auch relevant, wenn es darum geht, sinnvolle Geschäftsregeln als Bewertungskriterien für die Entscheidungsfindung zu definieren. In diesem Kapitel wird ein Entscheidungsbereich für eine Umfrage zur Gesundheitsversorgung in der Gemeinde modelliert. Der grundlegende semantische Rahmen wird in Form von Inferenzaussagen, Fakten und Geschäftsregeln angegeben. Das semantische Web, Web-Ontologien und verknüpfte Datenmodelle werden bei der Architektur eines wünschenswerten Systems referenziert. Ein Beispieldatensatz für Umfragen wird ebenfalls überprüft, um die Geschäftsregeln, die das Design von Entscheidungskriterien, Kategorien und Variablen beeinflussen, explizit zu verstehen. Aus diesem Grund ist die Bewertung der Stichprobengröße, der Entscheidungskriterien und der typischen Erhebungsstrukturen wichtig, um eine semantische Basisentscheidungsdomäne zu erstellen. Geschäftsanwender können Einschränkungen und Bedingungen in Bezug auf empirische Ergebnisse ableiten, die in der Datenanalyse erscheinen, indem sie semantische Entwurfsmuster überprüfen. Data-Mining-Konstrukte werden auch auf die Daten angewendet, um Muster innerhalb der Stichprobengröße zu erkennen und neue Bewertungskriterien einzuführen, um Umfragefragen zu klären. In dieser Diskussion werden die Best Practices für die Anwendung von Geschäftsregeln identifiziert, um Planungsentscheidungen zu treffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16658-2_8 b34f3cae527921e3af1435e5c683b5e2;de;;;6.1.;;;Workflow für die Veröffentlichung dynamischer und statischer Inhalte Dynamic Content Publishing ist eine Methode zum Entwerfen von Publikationen, bei der Layoutvorlagen erstellt werden, die unterschiedliche Inhalte in verschiedenen Publikationen enthalten können. Bei dieser Methode arbeiten Seitendesigner nicht an fertigen Seiten, sondern an verschiedenen Layoutvorlagen und Inhalten, die dann zu mehreren fertigen Seiten kombiniert werden können. In Fällen, in denen derselbe Inhalt in mehreren Layouts verwendet wird, dasselbe Layout für mehrere verschiedene Inhaltssätze verwendet wird oder beides dynamische Seitenveröffentlichungen erhebliche Effizienzvorteile gegenüber einem herkömmlichen System des seitenweisen Designs bieten können. Diese Technologie wird häufig in Web-to-Print-Lösungen für Unternehmens-Intranets eingesetzt, um die Anpassung und Bestellung von Drucksachen, Werbeautomatisierungs-Workflows innerhalb von Werbeagenturen, Katalogerstellungslösungen für Einzelhändler und variable digitale Print-on-Demand-Lösungen für hochgradig personalisierte Eins-zu-eins-Marketing. Eine Digitaldruckmaschine druckt oft die Ausgabe dieser Lösungen. Das Dynamic Content Publishing ist ein Tool, das das Business Resilience System (BRS) verbessern kann, um alle Warnungen und Ereignisse innerhalb von ABS über das Enterprise Content Management (ECM) in Unternehmen oder Organisationen für Stakeholder und Entscheidungsträger zu veröffentlichen sowie eine Datenbank für Wissensdatenbank (KB) für seine Infrastruktur. KB ist eine Technologie, die verwendet wird, um komplexe strukturierte und unstrukturierte Informationen zu speichern, die von einem Computersystem verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-53417-6_5 f72c215490ddfbebe8cb3019d3b6d80b;de;;;6.1.;;;Kontrolle der Einhaltung des Verbots illegaler Arbeit und illegaler Beschäftigung im Straßengüterverkehr Die Form der Tätigkeit für einen Transportunternehmer als Selbständiger/Firma hängt im Wesentlichen von der Art der ausgeübten Tätigkeit ab. In den meisten Fällen hat ein Spediteur zwei Möglichkeiten: einen Arbeitnehmer zu beschäftigen (Arbeitsverhältnis) oder einen Selbstständigen zu beauftragen, der für ihn einen Auftrag ausführt. Nach dem Arbeitsgesetzbuch darf Arbeitnehmerarbeit (abhängige Arbeit) nur im Rahmen des Arbeitsverhältnisses ausgeübt werden. Das Arbeitsgesetzbuch verbietet ausdrücklich, dass die abhängige Arbeit durch ein vertragliches Handels- oder zivilrechtliches Verhältnis ersetzt wird. In der Praxis gibt es jedoch Fälle, in denen die abhängige Arbeit, hauptsächlich das Arbeitsverhältnis, mit der Einstellung von Selbstständigen verwechselt wird. Die Gesetzgebung verbietet eine solche Zusammenarbeit (Zusammenarbeit mit Merkmalen der abhängigen Arbeit). Eine unselbständige Tätigkeit kann im Rahmen eines zivilrechtlichen Vertragsverhältnisses oder eines kaufmännischen Rechtsverhältnisses nach Sonderregelungen nicht erbracht werden. In diesem Fall kann dies einen Verstoß gegen das Gesetz Nr. 82/2005 Slg. darstellen. über illegale Arbeit und illegale Beschäftigung, die illegale Beschäftigung definiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-27547-1_31 bf11e0c41b5407fe50793f5ceaad094c;de;;;6.1.;;;Systemintegrationstechniken der gemeinsamen Nutzung und Zusammenarbeit zwischen Arbeitsgruppen, Computern und Prozessen Systems Engineering (SE) und Concurrent Engineering (CE) implizieren den Austausch von Informationen, Daten, Prozessen und Wissen [20] über verschiedene Ebenen in einem Unternehmen. Die Aufteilung der Arbeit in Klassen und dann in die Arbeitsgruppen oder in die gleichzeitigen Unterteams ist eine Form des Teilens, die große Organisationen wie Ford Motor und General Motors verwendet haben [29]. Andere Formen der gemeinsamen Nutzung richten sich nach dem Stand der Computerkommunikation, der Workstation- und Datenbanktechnologien [9]. Um die erforderliche Zusammenarbeit zu erreichen (und um gleichzeitiges Engineering zu erleichtern), wurden verschiedene Konzepte und Modelle für Arbeitsgruppen-Computing in den Delphi-Abteilungseinheiten von Electronic Data Systems (EDS) und General Motors erprobt. Basierend auf solchen Erfahrungen beschreibt das Papier Systems Engineering und CE-Techniken für den Informationsaustausch in einer Concurrent Engineering Organisation, die sich als am effektivsten für die Zusammenarbeit von Wissen zwischen einer Reihe von multidisziplinären Arbeitsgruppen, einer Reihe von Computern und Prozessen erwiesen haben.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008458626272 602d9a89aa0dcddb6511b46194be910f;de;;;6.1.;;;Data Science-Strategien, die zur Entwicklung der Fähigkeiten von Data Scientists in Organisationen führen Der Zweck dieses Papiers ist es, die Strategien von Unternehmen mit Data-Science-Praktiken und -Methoden sowie die Datenspezifitäten/Variablen zu vergleichen, die die Definition einer Data-Science-Strategie in Pharmaunternehmen beeinflussen können. Das vorliegende Papier ist eine empirische Studie, und der Forschungsansatz besteht darin, die Unterschiede zwischen Unternehmen mit einer Data-Science-Strategie und Unternehmen ohne Data-Science-Strategie anhand einer Reihe von statistischen Tests zu überprüfen. Wir haben einen speziellen Fragebogen entworfen und auf eine Stichprobe von 280 Pharmaunternehmen angewendet. Die wichtigsten Ergebnisse basieren auf der Analyse dieser Variablen: Überwältigendes Volumen, Verwaltung unstrukturierter Daten, Datenqualität, Verfügbarkeit von Daten, Zugriffsrechte auf Daten, Probleme mit dem Dateneigentum, Datenkosten, Mangel an Vorverarbeitungseinrichtungen, Mangel an Technologie, Mangel an Talenten/Fähigkeiten, Datenschutzbedenken und regulatorische Risiken, Sicherheit und Schwierigkeiten bei der Datenübertragbarkeit in Bezug auf Unternehmen mit einer Data-Science-Strategie und Unternehmen ohne Data-Science-Strategie. Das Papier bietet eine eingehende vergleichende Analyse zwischen Unternehmen mit oder ohne Data Science-Strategie, und die Haupteinschränkung betrifft die Literaturrecherche als Folge der Neuheit des Themas, es fehlen wissenschaftliche Studien zu diesem spezifischen Aspekt von Datenwissenschaft. In Bezug auf die praktischen geschäftlichen Auswirkungen hat eine Organisation mit einer Data Science-Strategie bessere Ausrichtungs- und Managementpraktiken, da der Entscheidungsprozess auf genauen und wertvollen Daten basiert, aber es braucht Data Scientists-Fähigkeiten, um diese Ziele zu erreichen.;-;-;-;https://link.springer.com/article/10.1007/s00521-021-06095-3 eaf07a0fe41c3d2572fc349a50a14c92;de;;;6.1.;;;Bauen Sie eine gemeinsame strategische Vision von Innovation auf Innovation wird heute von vielen Unternehmen als ein zentrales strategisches Thema angesehen. Diese Organisationen starten jedoch oft kostspielige Innovationsinitiativen, ohne eine klare Vorstellung davon zu haben, was sie erreichen wollen (daher sind sie ineffizient) oder warum (daher sind sie ineffektiv). Zu oft verstehen sie nicht oder sind sich nicht einig, was Innovation ist oder warum und wie sie innovativ sein wollen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-77191-5_2 a494456225d37ecc3372240e5c83e796;de;;;6.1.;;;Doppeltes Wasserzeichen für die Bildauthentifizierung von handgeschriebenen Dokumenten und Urheberrechtsschutz für JPEG-Kompressionsangriffe Für die Authentifizierung und den Urheberrechtsschutz von handgeschriebenen Dokumentenbildern wird ein dualer Wasserzeichen-Algorithmus vorgestellt, der den robusten Wasserzeichen-Algorithmus basierend auf Krawtchouk-Momenten mit einem fragilen Wasserzeichen-Algorithmus basierend auf der MD5-Hash-Funktion verbindet. Daher wird der robuste Wasserzeichen-Algorithmus verwendet, um Robustheit durch Modifizieren von Frequenzkoeffizienten in Krawtchouk-Momenten zu gewährleisten. Daher schlägt diese Studie einen fragilen Wasserzeichen-Algorithmus vor, der rechtzeitig erkennen kann, wenn das geschützte Bild manipuliert wird. Experimentelle Ergebnisse zeigen, dass der vorgeschlagene Algorithmus für den Urheberrechtsschutz für JPEG-Kompressionsangriffe und die Manipulationserkennung dieser Bilder verwendet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-33904-3_62 3a4c8cf5ed0e386569d907b857bf39e5;de;;;6.1.;;;Datenbanken für zwei- und dreidimensionale mikroskopische Bilder in der Biologie Moderne computergestützte und automatisierte Mikroskoptechnologie ermöglicht es Forschern, Technikern und Qualitätssicherungspersonal, eine große Anzahl hochwertiger Bilder zu sammeln. Trotz der Hinzufügung des digitalen Speichers (siehe Kapitel 32,;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-45524-2_50 acd6eede9f7fd44786f0f9e48c5dbba7;de;;;6.1.;;;Herkunft auf Attributebene in unsicheren Daten mit Abhängigkeiten Beim unsicheren Datenmanagement werden Linien häufig zur Wahrscheinlichkeitsberechnung von Ergebnistupeln verwendet. Die meisten existierenden Arbeiten konzentrieren sich jedoch auf die Abstammungslinie auf Tupelebene, was zu einer ungenauen Datenableitung führt. Außerdem können Korrelationen zwischen Attributen nicht erfasst werden. In diesem Papier definieren wir für Basistupel mit mehreren ungewissen Attributen eine Annotation auf Attributebene, um jedes Attribut mit Anmerkungen zu versehen. Die Verwendung dieser Annotationen zum Generieren von Abstammungslinien von Ergebnistupeln kann eine genauere Ableitung realisieren. Gleichzeitig können sie für die Konstruktion von Abhängigkeitsgraphen verwendet werden. Unter Verwendung des Abhängigkeitsgraphen können wir nicht nur Einschränkungen von Schemas, sondern auch Korrelationen zwischen Attributen darstellen. Durch die Kombination des Abhängigkeitsgraphen und der Abstammungslinie auf Attributebene können wir Wahrscheinlichkeiten von Ergebnistupeln korrekt berechnen und Daten präzise ableiten. In Experimenten, die die Abstammung auf Tupel- und Attributebene vergleichen, zeigt sich, dass unsere Methode Vorteile hinsichtlich der Ableitungsgenauigkeit und der Speicherkosten hat.;-;-;-;https://link.springer.com/article/10.1007/s11859-016-1184-3 732b1c0573ab6f6a6719696a83b7f3d4;de;;;6.1.;;;Eine interaktive Webanwendung zur Verbreitung von Humansystemimmunologiedaten Ansätze der Systemimmunologie haben sich in der translationalen Forschung als unschätzbar erwiesen. Die derzeitige Geschwindigkeit, mit der große Datensätze generiert werden, bietet einzigartige Herausforderungen und Chancen. Das Mining von Aggregaten dieser Datensätze könnte das Entdeckungstempo beschleunigen, aber es werden neue Lösungen benötigt, um die heterogenen Datentypen mit den für die Interpretation notwendigen Kontextinformationen zu integrieren. Darüber hinaus müssen Werkzeuge und Technologien entwickelt werden, die die Interaktion der Ermittler mit umfangreichen Datensätzen erleichtern, um Erkenntnisse zu gewinnen und die Wissensentdeckung zu fördern.;-;-;-;https://link.springer.com/article/10.1186/s12967-015-0541-x 80115dc431540c48d1749b26023c4e31;de;;;6.1.;;;Vereinbaren von Konflikten in der Provenienzrichtlinie durch die Erfindung anonymer Knoten In wissenschaftlichen Kooperationen wird die Provenienz zunehmend verwendet, um die Verarbeitungshistorie von Daten zu verstehen, zu debuggen und zu erklären sowie die Validität und Qualität von Datenprodukten zu bestimmen. Während die Provenienz von wissenschaftlichen Workflow-Systemen leicht erfasst werden kann, kann es unmöglich oder unerwünscht sein, Provenienzdetails für alle Datenprodukte eines Workflow-Laufs zu veröffentlichen. Wir haben entwickelt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25953-1_14 c46eae2f77c7d9a365d357fb1c9421f4;de;;;6.1.;;;Zulassungsanträge: Von Canda/Capla bis 2002 und darüber hinaus In der biopharmazeutischen Industrie werden riesige Mengen an wissenschaftlichen Informationen und wissenschaftlich-regulatorischen Dokumentationen generiert. Die positiven Auswirkungen der jüngsten technologischen Fortschritte auf die Erstellung, gemeinsame Nutzung, Speicherung, Zusammenstellung und Präsentation regulatorischer Dokumentationen sind allgemein anerkannt. In den Vereinigten Staaten ist der Endkunde und Verbraucher dieser unzähligen Informationen die Food and Drug Administration (FDA), deren Charta es ist, den Zustand der menschlichen Gesundheit zu schützen und zu fördern. Es gibt eine positive Geschichte über die Interaktionen zwischen der Industrie und der FDA, die dazu geführt haben, dass Hunderte von sicheren und wirksamen, lebensverbessernden medizinischen Behandlungen der Öffentlichkeit zugänglich gemacht wurden. Es gibt auch eine Geschichte in der Geschichte darüber, wie die Parteien, die auf ein gemeinsames Ziel hinarbeiten, den Stand des Informationsaustauschs verbessert haben, von einem vollständig papierbasierten zu einem, der jetzt das Potenzial hat, vollständig digitalisiert zu werden. Die Absicht der Autoren ist es, diese Geschichte zu erzählen und Beweise für die Annahme zu liefern, dass die Verfeinerung der Praxis des digitalen Informationsaustauschs den regulatorischen Überprüfungsprozess weiter rationalisieren wird.;-;-;-;https://link.springer.com/article/10.1177/009286150003400312 d15b62c1ea68fa078e3754d1bc1225c7;de;;;6.1.;;;Handelshemmnisse und Handelserleichterungen in Bezug auf die SAARC-Region Eine der wichtigsten Möglichkeiten, durch die Handelsgemeinschaften auf der ganzen Welt ihren grenzüberschreitenden Handel gesteigert haben, besteht darin, verschiedene Handelshemmnisse zu beseitigen, die üblicherweise in Form von Zollschranken und heute in Form von nichttarifären Handelshemmnissen (NTBs) auftreten. . Handelserleichternde Maßnahmen zielen darauf ab, Handelshemmnisse zu beseitigen oder zu minimieren und Transparenz, Verfahrensminimalismus und regulatorische Einheitlichkeit bei bilateralen, regionalen und multilateralen Handelstransaktionen zwischen den Handelspartnern zu erreichen. Es gleicht auch die legitimen regulatorischen Bedenken verschiedener Nationen aus, indem es die regulatorische Schnittstelle zwischen den staatlichen Behörden und ausländischen Händlern verbessert. Für Ökonomen und Handelsrechtswissenschaftler ist die Existenz von Handelshemmnissen das „Hardwareproblem“ des internationalen Handels, das bis zu seiner Lösung die Software-Aktualisierung im internationalen Handelsregime in Form eines politischen Instruments wirkungslos machen wird. Der intraregionale Handel in der südasiatischen Region war schon immer düster und betrug im Durchschnitt weniger als 5 % des Welthandels der Region. Seit der Gründung der SAARC betrug der intraregionale Handel in Südasien die meiste Zeit der 90er Jahre weniger als 4 %. Selbst nach einer erheblichen Senkung der Zollsätze in der gesamten Region konnte aufgrund der Bemühungen der WTO und regionaler Initiativen wie SAPTA und SAFTA aufgrund der Prävalenz einer großen Anzahl von NTBs keine wesentliche Verbesserung des intraregionalen Handels erreicht werden in der Region.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6777-7_3 b9bcb21ac065ace31b09f0c696a91730;de;;;6.1.;;;Diskursmacht von Think Tanks: Track II Diplomacy of Belt and Road kommt gerade rechtzeitig Auf dem Belt and Road Forum for International Cooperation schlug Generalsekretär Xi Jinping vor, dass Länder entlang der Belt and Road-Route den Dialog zwischen Think Tanks stärken, Think Tanks eine Rolle spielen lassen und gute Think Tank-Allianzen sowie Austausch- und Kooperationsnetzwerke aufbauen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-7701-3_9 b0d7b580d5e1496e4919a745a7212bb5;de;;;6.1.;;;Ökologische Theorie und Praxis in ariden und semiariden Ökosystemen: Eine Geschichte von zwei LTER-Standorten Das Kapitel vergleicht die konzeptionelle Geschichte von zwei Long Term Ecological Research (LTER)-Programmen an Forschungsstandorten des US-Landwirtschaftsministeriums (USDA), die nach der Übernutzung von Land Anfang des 20. Jahrhunderts eingerichtet wurden. Frühe USDA-Studien basierten auf einem Clements-Modell, bei dem erwartet wurde, dass die Vegetation nach Störungen zu dem durch Klima und Böden bestimmten Höhepunkt zurückkehrt. Managementbasierte Alternativen zum Clements-Modell wurden entwickelt, nachdem sich die dominante Vegetation nicht erholt hatte und alternative Zustände beobachtet wurden. Das LTER-Programm Central Plains Experimental Range (später Shortgrass Steppe LTER) begann 1981 an einem Standort im Norden Colorados. Frühe Studien konzentrierten sich auf die Unfähigkeit der dominanten Spezies, Blue Grama (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-66933-1_6 8e0d3a715ac6acf4fa14f70e8785bc29;de;;;6.1.;;;Echtzeit-Qualitätskontrolle der Daten von Sea-Wing-Unterwassersegelflugzeugen, die mit dem Glider Payload CTD-Sensor installiert sind Profile, die von Sea-Wing-Unterwassergleitern beobachtet werden, werden in der wissenschaftlichen Forschung häufig angewendet. Der Qualitätskontrolle (QC) dieser Daten wurde jedoch wenig Aufmerksamkeit geschenkt. Die Fehlanpassung zwischen den Reaktionszeiten der Temperatursonde und der Leitfähigkeitszelle erzeugt falsche Salzgehalte, insbesondere bei einer starken Thermokline. Bei mehrmonatigem Segelflugbetrieb kann es durch Biofouling und Biozidaustritt in die Leitfähigkeitsmesszelle zu einer Sensordrift kommen. Daher ist es wichtig, ein ausgereiftes Echtzeit-QC-Verfahren zu entwerfen und eine Toolbox für die QC von Sea-Wing-Segelflugzeugdaten zu entwickeln. Auf der Grundlage von Temperatur- und Salzgehaltsprofilen, die von mehreren Sea-Wing-Segelflugzeugen, die jeweils mit einem Sea-Bird Glider Payload CTD-Sensor ausgestattet sind, beobachtet wurden, einer Echtzeit-QC-Methode einschließlich einer Korrektur der thermischen Verzögerung, Argo-äquivalenten Echtzeit-QC-Tests und a Es wird ein einfaches Nachbearbeitungsverfahren vorgeschlagen. Das Verfahren kann auch für Petrel-Segelflugzeuge übernommen werden.;-;-;-;https://link.springer.com/article/10.1007/s13131-020-1564-6 3420cf54b70d853c3b7d7adfb6f2f032;de;;;6.1.;;;Einstellbare Zugriffskontrolle für die Datenfreigabe in der Cloud Die attributbasierte Verschlüsselung (ABE) leidet unter Kommunikations- und Rechenaufwand aufgrund der linear variierenden Größe des Chiffretexts und des geheimen Schlüssels, abhängig von der Anzahl der Attribute in der Zugriffsrichtlinie. Dieses Papier schlägt ein mehrstufiges attributbasiertes Zugriffskontrollschema für den sicheren Datenaustausch in der Cloud vor, um den Overhead zu reduzieren. Es erzeugt einen Chiffretext konstanter Größe und einen kompakten geheimen Schlüssel, um den Speicherplatz effizient zu nutzen und die Kommunikationskosten zu reduzieren. Dieses Verfahren teilt flexibel Geheimtextklassen unter den zufällig ausgewählten Benutzern mit einem spezifischen Satz von Attributen. Alle anderen Geheimtextklassen außerhalb der Menge bleiben vertraulich. Es ermöglicht dynamische Datenaktualisierungen und bietet Zugriffskontrolle unterschiedlicher Granularität auf Benutzer-, Datei- und Attributebene. Granularitätsstufen können basierend auf Anwendungen und Benutzeranforderungen ausgewählt werden. Dieses Schema behebt Probleme mit der Sperrung von Benutzern und Attributen und verhindert Probleme mit der Geheimhaltung vorwärts und rückwärts. Es ermöglicht dem Dateneigentümer, einen bestimmten Benutzer oder eine Benutzergruppe zu widerrufen. Es ist sehr nützlich für die sichere Datenspeicherung und -freigabe.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5258-8_85 431cd63736ecc24d0ef7ec5a45e25310;de;;;6.1.;;;Taxonomie, Technologie und Anwendungen von Smart Objects Der Einsatz eingebetteter Technologien wird zunehmend in industriellen Lieferketten als Mittel zur Effizienzsteigerung durch bessere Kontrolle über Bestellungen, Lagerbestände und produktbezogene Informationen untersucht. Von zentraler Bedeutung für diese Entwicklung war das Aufkommen von Technologien wie Barcodes, Radiofrequenz-Identifikationssystemen (RFID) und drahtlosen Sensoren, die, wenn sie an einem Produkt angebracht sind, Teil der eingebetteten Systeminfrastruktur des Produkts sind. Die zunehmende Integration dieser Technologien trägt dramatisch zur Entwicklung des Begriffs eines „intelligenten Produkts“ bei, eines Produkts, das sich sowohl in physische als auch in Informationsumgebungen integrieren kann. Die Zukunft dieser Revolution bei mit intelligenten eingebetteten Technologien ausgestatteten Objekten liegt darin, dass sich Objekte nicht nur selbst identifizieren können, sondern auch ihren Zustand erfassen und speichern, mit anderen Objekten und verteilten Infrastrukturen kommunizieren und Entscheidungen im Zusammenhang mit der Verwaltung ihres Lebenszyklus treffen können. Das Objekt kann sich im Wesentlichen selbst in eine kompatible Systeminfrastruktur „einstecken“, die verschiedenen Partnern in einer Lieferkette gehört. Wie bei jedem Entwicklungsprozess, an dem mehr als ein Endbenutzer beteiligt ist, ist jedoch die Schaffung einer gemeinsamen Grundlage und eines gemeinsamen Verständnisses für die Interoperabilität, eine effiziente Kommunikation zwischen den beteiligten Parteien und die Entwicklung neuer Anwendungen unerlässlich. In diesem Papier tragen wir dazu bei, diese gemeinsame Basis zu schaffen, indem wir eine Charakterisierung bereitstellen, die die Spezifikation und Konstruktion von „intelligenten Objekten“ und deren zugrunde liegenden Technologien unterstützt. Darüber hinaus bietet unsere Arbeit ein umfangreiches Set an Beispielen und Anwendungsmöglichkeiten verschiedener Kategorien von Smart Objects.;-;-;-;https://link.springer.com/article/10.1007/s10796-009-9218-4 7b3e965b69cf3737a9cc6ee0d248a7ac;de;;;6.1.;;;Intelligentes Informationsmanagementsystem basierend auf Hadoop Um das Informationsmanagement zu erforschen, wird die Cloud-Computing-Technologie auf den Bereich der geografischen Informationssysteme angewendet und ein auf Hadoop basierendes Fernerkundungsdatenspeicher- und -managementsystem untersucht und realisiert. Die Hauptfunktion dieses Systems umfasst, dass das Fernerkundungsdatenspeichermodul die Fernerkundungsdaten-Download-Funktion für Datenadministratoren bereitstellt, das HTTP-Protokoll und das FTP-Protokoll Multithreaded verteiltes HTTP-Download unterstützt. Der parallele Konstruktionsalgorithmus des Fernerkundungsbildes von Pyramid basierend auf Map Reduce wird durch das Modul realisiert, und es werden geschichtete Schnitte und Blockspeicherung von massiven Fernerkundungsdaten durchgeführt. Es wird die Open-Source-Bibliothek GDAL verwendet, die für schnelles Lesen von Rasterdaten geeignet ist und eine Datenquelle für das parallele Schneiden von Fernerkundungsdaten bietet. Darüber hinaus wird die Open-Source-Middleware für den Kachelkartendienst Geo Web Cache übernommen und HBase als Speicherunterstützung für Kacheln eingeführt, die eine große Anzahl von Benutzerbesuchen, einschließlich des Ladens und Ziehens von Karten, bewältigen kann. Der Systemtest wird durchgeführt, um die Wirksamkeit und Praktikabilität der vorgeschlagenen Methode zu überprüfen. Die Testergebnisse können zeigen, dass das auf Hadoop basierende Fernerkundungsdatenspeicher- und -verwaltungssystem effektiv mit Fernerkundungsdaten umgehen und die Benutzererfahrung verbessern kann. Es wird der Schluss gezogen, dass das Informationsmanagementsystem eine hohe Effektivität und gute Praktikabilität aufweist.;-;-;-;https://link.springer.com/article/10.1007/s11277-018-5411-4 ad5dcccee5fb86767c3c5a2c5aac8470;de;;;6.1.;;;Der Einfluss von Transportalternativen auf die Entscheidung, das Autofahren bei älteren Erwachsenen in Japan aufzugeben In dieser Studie wurde untersucht, ob die Verfügbarkeit von Transportalternativen für ältere Fahrer eine Determinante für die Entscheidung zur Einstellung des Fahrens ist. Wir rekrutierten Teilnehmer aus insgesamt 7827 Fahrern im Alter von 69 Jahren oder älter, die in der Präfektur Ibaraki, Japan, lebten und zwischen Februar und April 2011 ihren Führerschein erneuern sollten. und erneut im Dezember 2012, um festzustellen, wer tatsächlich aufgehört hat zu fahren. Anschließend wurden die relativen Auswirkungen von Faktoren im Zusammenhang mit der Einstellung des Autofahrens geschätzt. Von den 3089 Befragten haben 157 ihre Lizenz nicht verlängert. Die stärksten Determinanten dieser Entscheidung waren, dass ihnen geraten wurde, mit dem Autofahren aufzuhören, und wenn sie weniger Vertrauen in ihre Fähigkeit entwickelt hatten, sicher zu fahren. Dennoch war die Wahrscheinlichkeit, dass die Befragten das Autofahren aufgegeben haben, weitaus wahrscheinlicher, wenn sie sicher waren, dass jemand anderes für eine Mitfahrgelegenheit zur Verfügung stand, wenn sie eine brauchte. Die endgültige Entscheidung, mit dem Fahren aufzuhören, wird stark von der persönlichen Bequemlichkeit auf der Grundlage des Individualverkehrs beeinflusst, insbesondere bei Fahrern, denen ein Anhalten empfohlen wurde. Die Verfügbarkeit öffentlicher Verkehrsalternativen spielt bei dieser Entscheidung keine so große Rolle.;-;-;-;https://link.springer.com/article/10.1007/s11116-015-9583-4 a6a40554f88506308a8313ee4fe974dc;de;;;6.1.;;;Strategien und Herausforderungen bei Big Data: Ein kurzer Rückblick Big Data ist die neue Trendtechnologie im Bereich der Forschung der letzten Jahre und wird nicht nur großformatig, sondern auch in rasanter Geschwindigkeit und Vielfalt generiert, die den Forschungsaufschwung in multidisziplinären Bereichen wie Regierung, Gesundheitswesen und Unternehmensleistungsanwendungen anstrebt. Aufgrund der Hauptmerkmale (Volumen, Geschwindigkeit und Vielfalt) von Big Data ist es schwierig, mit herkömmlichen Tools und Techniken zu speichern und zu analysieren. Es kennt einzigartige Herausforderungen in Bezug auf Skalierbarkeit, Speicherung, Rechenkomplexität, analytische, statistische Korrelation und Sicherheitsprobleme. Daher beschreiben wir die herausragenden Merkmale von Big Data und wie sich diese auf Speichertechnologien und Analysetechniken auswirken. Anschließend stellen wir die Taxonomie der Big Data-Subdomänen vor und diskutieren die verschiedenen Datensätze basierend auf Datenmerkmalen, Datenschutzbedenken sowie Domänen- und Anwendungswissen. Darüber hinaus untersuchen wir auch Forschungsfragen und Herausforderungen in den Bereichen Big Data-Speichertechnologien, Datenschutz und Datenanalyse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-16660-1_4 2050585e3d62f64d300765466cdd7d25;de;;;6.1.;;;ACAM: Application Aware Adaptive Cache Management für Shared LLC Moderne Chip-Multiprozessoren (CMPs) sind typischerweise Multicore-Systeme mit gemeinsam genutztem Last-Level-Cache (LLC). Die effektive Nutzung der gemeinsam genutzten Cache-Ressource kann eine Herausforderung sein, wenn die Anforderungen konkurrierender Anwendungen miteinander in Konflikt geraten. Um neue Daten aufzunehmen, die von einer Anwendung benötigt werden, können manchmal die nützlichen Daten der anderen Anwendung entfernt werden. Solche negativen Interferenzen führen zu einer Zunahme von Speicherfehlern und beeinträchtigen die Leistung des Systems. Daher ist eine Technik erforderlich, die die LLC selbst bei Vorhandensein solcher widersprüchlicher Anforderungen optimal verwaltet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7470-7_32 64d6d1088690e9f0a87c5de69fc58514;de;;;6.1.;;;Identitätsbasierte Verschlüsselung mit autorisiertem Äquivalenztest für Cloud-gestütztes IoT Die steigende Popularität von Cloud Computing wird mittlerweile von vielen Branchen weitgehend übernommen, darunter auch ressourcenbeschränkte Datenbesitzer, d. h. mit den intelligenten Sensoren im Internet der Dinge (IoT), um ihre Daten in der Cloud zu speichern. Angesichts der nicht vertrauenswürdigen Natur von Cloud-Servern sollten die von intelligenten Sensoren gesammelten Daten verschlüsselt werden, bevor sie in die Cloud ausgelagert werden. Dies wirft leider Bedenken hinsichtlich der Durchführung von Suchfunktionen für verschlüsselte Daten in der Cloud auf. Um dieser Herausforderung zu begegnen, wird in diesem Papier ein identitätsbasiertes Verschlüsselungsschema mit autorisiertem Äquivalenztest (IBE-AET) vorgeschlagen, um gleichzeitig Verschlüsselungs- und Suchfunktionen über ausgelagerte Daten im Cloud-unterstützten IoT zu erreichen. In IBE-AET darf ein autorisierter Cloud-Server die Äquivalenzprüfung von zwei mit derselben Identität verschlüsselten Nachrichten sowie von Nachrichten, die mit unterschiedlichen Identitäten verschlüsselt sind, durchführen. Darüber hinaus ist der Autorisierungsmechanismus in IBE-AET so vielseitig, dass ein Benutzer die Testfähigkeit feingranular an den Cloud-Server delegieren kann. Im Random-Orakel-Modell ist die vorgeschlagene IBE-AET formal äquivalent zur bilinearen Diffie-Hellman (BDH)-Annahme. Die Praktikabilität des vorgeschlagenen Schemas wird sowohl durch die theoretische Analyse als auch durch die Experimentsimulation demonstriert.;-;-;-;https://link.springer.com/article/10.1007/s10586-019-02979-1 6e3f3e386160fef43afd6dfee7b74d4f;de;;;6.1.;;;Perspektiven der pharmazeutischen Industrie In diesem Kapitel werden die indische Pharmaindustrie im Gesamtszenario, die technische, rechtliche und wirtschaftliche Infrastruktur, die Qualität der Arzneimittelherstellung und Qualitätsprüflabore erörtert. Es bietet eine detaillierte Analyse des Entwurfs der Arzneimittelpolitik 2017, der National Essential List of Medicines, der Notwendigkeit rationaler Formulierungen, der Abschreckung von Profitgier und der Herstellung kostengünstiger Generika für alle. Er erörtert auch die Regulierung der Arzneimittelpreise, die Position des Westens, die Auswirkungen der von der Zentralregierung vorgenommenen Kostensenkungen und Bedenken hinsichtlich des Wachstums der Branche. Darüber hinaus untersucht das Kapitel die Probleme der Tausenden von „Me-Too“- und Kombinationsarzneimitteln, ihrer Registrierung, Sanktionierung und Authentizität, verbotener Arzneimittel und des Kreditlizenzsystems. Die Abschaffung des letzten wird empfohlen. Es analysiert das historische Verständnis sensibler Patentfragen und interpretiert das frühere und geänderte Patentrecht, Verfahrens- und Produktpatente. Neuere Technologien wie Quality by Design und Blockchain-Technologie für qualitativ bessere Medikamente und Forschung werden ebenso diskutiert wie Fragen der Umweltverschmutzung und des Umweltschutzes in der Pharmaindustrie.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9778-7_4 a8dc08ac564fe0d5ea52bda8ef9077c7;de;;;6.1.;;;Beobachtungen zu Objektmanagementsystemen und Prozessunterstützung in Umgebungen Während der Entwicklung einer Schemadesign-Methode für ein Datenmanagementsystem für eine Software-Engineering-Umgebung haben wir beobachtet, dass wir zum Zeitpunkt des Schemadesigns Softwareprozessentscheidungen treffen. Der Code der Werkzeuge würde Aspekte des Schemaentwurfs verkörpern und somit die Annahmen des Softwareprozesses, die zum Zeitpunkt des Schemaentwurfs gemacht wurden. Wenn diese Beobachtung im Allgemeinen zutrifft, müssen wir entweder damit beginnen, neue Datenmanagementsysteme zu entwickeln, die keine Bindung von Softwareprozessentscheidungen zum Zeitpunkt des Schemaentwurfs erzwingen, oder explizit anerkennen, dass der Entwurf eines Schemas einen Softwareprozess entwirft oder zumindest einschränkt .;-;-;-;https://link.springer.com/chapter/10.1007/3-540-57209-0_14 839b12e99990ad5669f8babe5475217c;de;;;6.1.;;;Das Kyoto-Protokoll und die Privatwaldpolitik der lokalen Regierungen in Japan Nationale Regierungspolitiken zur Verhinderung der globalen Erwärmung werden in Japan immer wichtiger, insbesondere seit das Kyoto-Protokoll 2005 in Kraft trat und die erste Verpflichtungsperiode 2008 begann. Die Forstbehörde hat Maßnahmen zur Förderung der heimischen Forstwirtschaft mit Maßnahmen zur Verhinderung der globalen Erwärmung kombiniert und hat einen 10-Jahres-Aktionsplan entwickelt. Die Datenbank für Waldressourcen und zugehörige Statistiken stellen jedoch ernsthafte Probleme im Waldbewirtschaftungssystem in Japan und in der Verwaltungsarbeit der Präfekturregierungen dar, die die Datenbank verwalten. Die Datenbank enthält viele fehlerhafte Daten, die aufgrund von unzureichendem Budget und Personal schwer zu korrigieren sind. Die Haushaltsproblematik hat den gesamten Verwaltungsbereich des Forstamtes seit den 1990er Jahren stark in Mitleidenschaft gezogen. In vielen Präfekturen wurden kürzlich Umweltsteuern für Wälder eingeführt, obwohl die Gesamteinnahmen gering sind. Das grundlegende Problem mit der Datenbank besteht darin, dass die Nationale Landvermessung unvollständig ist und folglich die Angaben zur Waldfläche in der Datenbank unzuverlässig sind. Da die Präfekturregierungen außerdem keine Statistiken über die Holzernte vorlegen müssen, ist das Holzeinschlagsvolumen in jeder Gemeinde unsicher. Angesichts dieser Situation kann es für den privaten Forstsektor schwierig sein, einen großen Beitrag zum Kyoto-Protokoll zu leisten, ohne das Waldbewirtschaftungssystem sowohl durch die Regierungen auf nationaler als auch auf Präfekturebene zu ändern.;-;-;-;https://link.springer.com/article/10.1007/s11842-010-9128-9 0470f76901ae745a5b2625d1406622a9;de;;;6.1.;;;Montagezellensteuerungen mit flexiblen Softwaretools und einer übergeordneten Steuerungskonfigurationssprache Im Technischen Forschungszentrum Finnlands wurde eine flexible, automatische Montagezelle für die Forschung und Entwicklung von automatischen Montagesystemen und für Machbarkeitsstudien industrieller Baugruppen gebaut. Die Hauptkomponenten der Zelle sind zwei Industrieroboter mit dedizierten Mikroprozessorsteuerungen, ein Fördersystem und eine hydraulische Presse mit Mehrzweck-Mikroprozessorsteuerungen und ein vertikaler Karussellspeicher mit speicherprogrammierbarer Steuerung (SPS). Darüber hinaus enthält die Zelle Hilfseinrichtungen wie automatische Werkzeugwechsler, Zuführungen und Schrauber, die hauptsächlich durch binäre Signale gesteuert werden. Der Zellencontroller ist ein gängiges 80186-basiertes Controllersystem für die Automatisierung mit einigen Softwareerweiterungen, um auch Fertigungszellensteuerungen abzudecken. Die Steuerungssoftware im Zellencontroller besteht aus einer Echtzeitdatenbank mit Softwareblöcken für Steuerungen, Maschinenkommunikation, Bedienerkommunikation und Datenverwaltung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-38009-3_6 dcac09fbdb0ce2242c77cc110ee54b9c;de;;;6.1.;;;LAPCHAT: Ein Content-Sharing-Management-System für computergestütztes kollaboratives Lernen Der Zweck dieser Studie besteht darin, die Architektur für eine kollaborative Lernumgebung zu untersuchen, in der individuelles Lernen und kollaboratives Lernen reibungslos miteinander verbunden sind. Wir schlugen ein Kompositionsmodell eines kollaborativen Arbeitsplatzes und ein Managementmodell für Aktionen im kollaborativen Lernraum und den Zustand des Lernkontexts vor. Basierend auf den Ideen beschreiben wir in diesem Papier einen Mechanismus zum Teilen von Inhalten zwischen einem privaten Arbeitsplatz und einem kollaborativen Arbeitsplatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-69312-5_5 758df4921eefb281cd23d3b570a36308;de;;;6.1.;;;Ein generisches Modell der klinischen Praxis – das COSMOS-Projekt Eines der Ziele des COSMOS-Projekts ist die Entwicklung eines generischen Modells der klinischen Praxis, das ein logisches Design liefern soll, das die Grundlage für die Entwicklung einer umfassenden Computeraufzeichnung aller gewählten klinischen Aktivitäten bildet. Das Modell, das die klinische Sichtweise der Common Basic Specification des britischen NHS werden soll, ist Teil einer funktionalen Spezifikation, die es ermöglicht, Systeme als integrale Bestandteile viel größerer, komplexer Gesundheitssysteme zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-93503-9_126 8777a0cfafedd1ed17894d76d405daf3;de;;;6.1.;;;Big Data und das Internet der Dinge Fortschritte in den Sensor- und Rechenfähigkeiten machen es möglich, zunehmende Rechenleistung in kleine Geräte zu integrieren. Dies hat es den Sensorgeräten ermöglicht, nicht nur passiv Daten mit sehr hoher Auflösung zu erfassen, sondern auch als Reaktion darauf ausgeklügelte Maßnahmen zu ergreifen. In Kombination mit Fortschritten in der Kommunikation führt dies zu einem Ökosystem hochgradig vernetzter Geräte, das als Internet der Dinge – IoT – bezeichnet wird. In Verbindung damit haben die Fortschritte beim maschinellen Lernen es ermöglicht, Modelle auf dieser ständig wachsenden Datenmenge zu erstellen. Folglich können Geräte, von schweren Anlagen wie Flugzeugtriebwerken bis hin zu Wearables wie Gesundheitsmonitoren, nicht nur riesige Datenmengen generieren, sondern auch auf aggregierte Analysen zurückgreifen, um ihre Leistung im Laufe der Zeit zu „verbessern“. Big Data Analytics wurde als Schlüsselfaktor für das IoT identifiziert. In diesem Kapitel diskutieren wir verschiedene Wege des IoT, bei denen Big Data Analytics entweder bereits einen signifikanten Einfluss hat oder kurz davor steht. Wir diskutieren auch soziale Implikationen und Problembereiche.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-26989-4_9 af32dea6daf0a475e86e4258317542f0;de;;;6.1.;;;Erkundung der Informationstechnologie Informationstechnologie ist ein Ausdruck, der verwendet wird, um sich auf bestimmte technische Komponenten zu beziehen, die normalerweise als Hardware, Software und Kommunikation organisiert sind und ein Informationssystem bilden. Aber das ist eine fast hoffnungslos vereinfachende Sichtweise dessen, was Informationstechnologie ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11909-0_3 bd91fca3813733100f71b9ceb39fce53;de;;;6.1.;;;Fallanalyse: Einbettung und Auswirkungen von CRM bei Loccioni In diesem Kapitel analysieren wir die Einbettung des CRM-Systems von Loccioni sowohl auf intra- als auch auf organisationsübergreifender Ebene. Mit „Einbettung“ meinen wir die Entstehung von Verbindungen zwischen dem System und den anderen technischen und organisatorischen Ressourcen (Baraldi und Waluszewski, 2005). Diese Verbindungen zwischen Ressourcen (auch als „Schnittstellen“ bezeichnet, Håkansson und Waluszewski, 2002, Baraldi, 2003) beeinflussen die Nutzung des neuen IT-Tools und damit das Erscheinungsbild seiner Wirkungen innerhalb und außerhalb von Loccioni. Günstige Ressourcenanbindungen (bzw. Schnittstellen) wirken sich positiv auf deren Nutzung und Wirkungsschaffung aus, während ungünstige Verbindungen deren Nutzung und Wirkung behindern. Abschnitt 9.1 konzentriert sich zunächst auf die Faktoren, die die Installation von CRM bei Loccioni beeinflusst haben, wie die Visionen des Top-Managements und die Einstellung des Unternehmens zum Einsatz von CRM, um zu beurteilen, inwieweit Loccioni bereit ist, ein solches IT-System einzusetzen.;-;-;-;https://link.springer.com/chapter/10.1057/9781137335661_9 4de36dcb38f33f6f7a82b4759d9ab6d2;de;;;6.1.;;;Mikrofluidische Geräte für Chemotaxis-Studien mit Neutrophilen Die Chemotaxis von Neutrophilen spielt eine wichtige Rolle im menschlichen Immunsystem. Im Vergleich zu herkömmlichen Zellmigrationsassays bietet das Aufkommen der Mikrofluidik aufgrund der Vorteile der Visualisierung, der präzisen Kontrolle des chemischen Gradienten und des geringen Reagenzienverbrauchs eine neue Forschungsplattform für die Untersuchung von Zellchemotaxis. Eine Reihe von mikrofluidischen Geräten wurde hergestellt, um das Verhalten von Neutrophilen zu untersuchen, die kontrollierten, stabilen und komplexen Profilen chemischer Konzentrationsgradienten ausgesetzt sind. Darüber hinaus bietet die Mikrofluidik-Technologie eine vielversprechende Möglichkeit, die anderen Funktionen wie Zellkultur, Separation und Analyse auf einem einzigen Chip zu integrieren. Daher wird ein Überblick über die jüngsten Entwicklungen in mikrofluidischen Studien zur Chemotaxis von Neutrophilen gegeben. Inzwischen werden die Stärken und Nachteile dieser Geräte verglichen.;-;-;-;https://link.springer.com/article/10.1186/s12967-020-02335-7 20ddb3bd78d415d7fa84f14ba342a626;de;;;6.1.;;;Die Rolle von Informationen im adaptiven Grundwassermanagement Dieses Kapitel stützt sich auf eine Fallstudie über ländliche Wasserversorgungssysteme in Indien, um die Bedeutung von Informationen zur Erleichterung der adaptiven Bewirtschaftung von Grundwasserressourcen hervorzuheben. Das Kapitel beginnt mit einer Diskussion der Vielfalt staatlicher Strukturen und Prozesse der Informationsbeschaffung, die die Formulierung öffentlicher Politik unterstützen. Das Kapitel skizziert die öffentlichen politischen Reaktionen des indischen Bundesstaates auf die Herausforderung des sinkenden Wasserspiegels und der sinkenden Qualität. Einige der Lücken in Wissenschaft und Praxis des Grundwassermanagements werden diskutiert, indem einige der Annahmen, die politischen Interventionen in der ländlichen Wasserversorgung zugrunde liegen, kritisch untersucht werden. In der anschließenden Diskussion wird die potenzielle Rolle erörtert, die Informationen bei der Erleichterung eines adaptiven Grundwassermanagements spielen können, Verbindungen zwischen Grundwasserleitereigenschaften, Wasserqualität und Auswirkungen auf die Gesundheit sowie das Potenzial von IKT zur Erleichterung der Rechenschaftspflicht werden erörtert. Die Bedeutung lokaler Kapazitäten für das Informationsmanagement wird hervorgehoben, um die Diskussionen über die Entwicklung von Anreizsystemen zu unterstützen, die ein adaptives Wasserressourcenmanagement ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-9425-4_8 20aa4fe26171c89a1f6efe16e457165c;de;;;6.1.;;;Gesundheitsinformatik als Service Cloud Computing hat eine bedeutende Rolle bei der Verbesserung der Verwaltung und Kontrolle des Informationszugriffs gespielt. Gesundheitseinrichtungen verwenden Cloud-Computing, um nicht nur die Daten von Patienten, sondern auch die Referenzierungsplattformen für Ärzte zu verwalten. Gegenwärtig hat das Management von Informationssystemen eine schwierige Geschichte im Hinblick auf den Verlust der Vertraulichkeit des Arztes und des Patienten nach erfolgreichen Hacks durch gezielte Online-Malware. In dieser Hinsicht wurde die Gesundheitsinformatik im Gesundheitswesen als Dienstleistung mit drei wesentlichen Anwendungen und Vorteilen anerkannt. Erstens haben Gesundheitsinformatiker, die Cloud Computing nutzen, als Dienstleistung eine allgemeine Versicherung ihrer Dienstnutzung. Zweitens kann mit dem Cloud-Zugriff auf Informationen von einem Arzt oder einer Institution auf eine andere verwiesen werden. Drittens unterstützt Cloud Computing als Innovation beim Informationszugang die Serviceintegration mehrerer Ärzte und ermöglicht so bessere Patientenergebnisse. Cloud Computing in der Gesundheitsinformatik garantiert bessere Gesundheitsdienstleistungen wie die Bereitstellung von Patientenakten auf Abruf. Daher wird in dieser Arbeit ein detaillierter Einblick in die Bedeutung und Implementierung der Gesundheitsinformatik und der Anpassungsgrad der Gesundheitsinformatik im Cloud Computing im Laufe der Zeit auf ihre Anwendbarkeit und Relevanz heute und in Zukunft überprüft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-40037-8_10 f82decd1bad74ed67734ffc3b018da02;de;;;6.1.;;;Übersichtsartikel: Die sich entwickelnde Rolle der Informationstechnologie für die perioperative Patientensicherheit Die Übernahme neuer Technologien in die Medizin stößt häufig sowohl auf Begeisterung als auch auf Widerstand. Die allgemeine Akzeptanz von Gesundheitsinformationstechnologie (IT) und Anästhesieinformationsmanagementsystemen (AIMS) bleibt trotz der potenziellen Vorteile gering. Elektronische Krankenakten und damit AIMS stehen an der Schnittstelle der Patientensicherheit. Dieser Artikel hebt die Vorteile und Hindernisse bei der Einführung und Implementierung von IT im Allgemeinen und AIMS im Besonderen hervor, wobei der Schwerpunkt auf klinischen Entscheidungsunterstützungssystemen (CDSS) und computergestützter Arztauftragserfassung (CPOE) als Kennzeichen liegt, die zu einer Verbesserung der Patientensicherheit und -qualität führen können im perioperativen Setting.;-;-;-;https://link.springer.com/article/10.1007/s12630-012-9851-0 ccefdc2343312584309c3a405b9a93b4;de;;;6.1.;;;Profilierung des neuen Flaggschiff-Modells Was sind die gegenwärtigen Merkmale, Werte und Praktiken einer Gruppe von Institutionen, die wir als Flagship-Universitäten identifizieren können? Dieses Kapitel bietet ein erstes Profil des Modells, eingerahmt von der dreigliedrigen Mission forschungsintensiver Universitäten: Lehre und Lernen, Forschung und Wissensproduktion sowie öffentlicher Dienst.;-;-;-;https://link.springer.com/chapter/10.1057/9781137500496_3 3ba41a02f3d081646a1ab6977b8cb2e2;de;;;6.1.;;;Texturbasierter Musterabruf aus Bilddatenbanken Neuere technologische Fortschritte haben es möglich gemacht, große Mengen an Bilddaten zu verarbeiten und zu speichern. Das vielleicht beeindruckendste Beispiel ist die Ansammlung von Bilddaten in wissenschaftlichen Anwendungen wie medizinischen oder Satellitenbildern. Um ihr volles Potenzial auszuschöpfen, müssen jedoch Werkzeuge zur effizienten Extraktion von Informationen und zur intelligenten Suche in Bilddatenbanken entwickelt werden. Dieses Papier beschreibt einen neuen Ansatz zum Abrufen von Bilddaten, der es ermöglicht, Abfragen aus lokalen Intensitätsmustern zusammenzusetzen. Das Intensitätsmuster wird in eine Merkmalsdarstellung mit reduzierter Dimensionalität umgewandelt, die zum Suchen ähnlich aussehender Muster in der Datenbank verwendet werden kann. Diese Darstellung wird durch Filtern des Musters mit einer Reihe von Skalen- und orientierungsselektiven Filtern erhalten, die unter Verwendung von Gabor-Funktionen modelliert wurden. Es werden experimentelle Ergebnisse präsentiert, die veranschaulichen, dass die vorgeschlagene Darstellung die Wahrnehmungsähnlichkeiten beibehält und ein leistungsstarkes Werkzeug für die inhaltsbasierte Bildsuche bereitstellt.;-;-;-;https://link.springer.com/article/10.1007/BF00717822 9f3a1b0ca5a7923e99370cdc64cddade;de;;;6.1.;;;Unabhängige Updates und inkrementelle Vereinbarung in replizierten Datenbanken Aktualisierungsweitergabe und Transaktionsatomizität sind die Haupthindernisse für die Entwicklung replizierter Datenbanken. Viele praktische Anwendungen, wie zum Beispiel Geldautomatennetzwerke, Flugreservierung und Teilebestandskontrolle, erfordern diese Eigenschaften nicht. In diesem Papier stellen wir einen Ansatz vor, um eine verteilte, replizierte Datenbank inkrementell zu aktualisieren, ohne dass atomare Commit-Protokolle für mehrere Standorte erforderlich sind. Wir beweisen, dass der Mechanismus korrekt ist, da er asymptotisch alle Aktualisierungen auf allen Kopien durchführt. Unser Ansatz hat zwei wichtige Eigenschaften: Er ist progressiv und nicht blockierend.;-;-;-;https://link.springer.com/article/10.1007/BF01418058 19ad1d987e8d55a3454989d00313f4fa;de;;;6.1.;;;Ausgelagerter Datenmodifikationsalgorithmus mit Unterstützung von Multi-Assistenten im Cloud Computing Die rasante Entwicklung von Cloud-Speichern in diesen Jahren hat eine Welle des Forschungswahns ausgelöst. Um die Cloud-Benutzererfahrung zu verbessern, wird eine große Anzahl von Schemata mit verschiedenen praktischen Leistungen vorgeschlagen, zum Beispiel langfristige korrekte Datenspeicherung und dynamische Datenmodifikation. In den meisten Arbeiten scheinen die Autoren jedoch die harte Tatsache völlig zu ignorieren, dass der Dateneigentümer allein nicht genug Energie haben könnte, um all die unangemessenen Daten zu entdecken und zu korrigieren, die in die Cloud ausgelagert wurden. Andere haben es in Betracht gezogen und mehr als einem Benutzer sowohl Lese- als auch Schreibberechtigungen erteilt, was zu einer chaotischen Verwaltung von Mehrbenutzern führt. In diesem Papier schlagen wir einen neuartigen Algorithmus vor, bei dem der Datenbesitzer und mehrere authentifizierte Assistenten ein Team bilden, um gemeinsam die dynamische Datenänderung zu unterstützen. Assistenten sind dafür verantwortlich, Probleme in Cloud-Daten zu erkennen und einen entsprechenden Änderungsvorschlag zu diskutieren, während der Data Owner für die Umsetzung der Änderung verantwortlich ist. Darüber hinaus unterstützt unser Algorithmus die Identitätsauthentifizierung, den effizienten Widerruf von böswilligen Assistenten sowie das Lazy-Update. Eine ausreichende numerische Analyse validiert die Leistung unseres Algorithmus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48671-0_35 f6d8a9b6baa5b3cfb44b678b8311df8b;de;;;6.1.;;;Voraussetzungen für die Implementierung Dieses Kapitel beschreibt sechs Voraussetzungen für einen Wassermarkt. Die ersten fünf dieser Voraussetzungen sollten auch dann erfüllt sein, wenn die Politik nicht das Ziel eines aktiven Marktes hat, sondern einfach gutes Management. Erstens sollten die Beteiligten Vertrauen teilen. Zweitens muss die Regulierungsbehörde über ein hydrologisches Modell verfügen, das die Wasserflüsse mit einer für die Gemeinde akzeptablen Genauigkeit beschreibt. Drittens muss die Regulierungsbehörde die erforderlichen Umweltströme spezifizieren. Viertens müssen die Benutzer ihren Wasserverbrauch messen. Fünftens muss die Regulierungsbehörde die Wasserrechte und -nutzung erfassen und verwalten. Sechstens muss die Regulierungsbehörde den betroffenen Parteien die volle rechtliche Geschäftsfähigkeit mit so wenig Hindernissen wie vernünftigerweise möglich einräumen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-55008-4_5 ff70935d785f88400b7c026ad4bdc519;de;;;6.1.;;;Ein Governance-Betriebsmodell für Einrichtungen des offenen und Fernunterrichts Dieses Papier beschreibt ein effektives Governance-Betriebsmodell, das dazu beitragen würde, eine verbesserte Good Governance während der gesamten Arbeit von Einrichtungen des offenen und Fernunterrichts (ODL) zu erreichen. Es wird vorgeschlagen, dass das Betriebsmodell aus drei Netzwerkschichten besteht, nämlich dem Organisationsdesign und dem Governance-System, das die institutionelle Governance-Struktur und das Governance-Netzwerk von Personen, Governance-Betriebssysteme und die IT-Infrastruktur umfasst. Diese drei Schichten bestehen weiterhin aus Teilkomponenten, die in gut organisierter und strukturierter Weise eine deutliche Verbesserung der Lehr-Lern-Aktivität sowie der Qualität des Fernunterrichts bewirken würden. All diese Systeme und Strukturen werden durch IKT-gestützte Operationen unterstützt, um eine verbesserte Good Governance in der Praxis zu erreichen. Das so auf der Grundlage der vorhandenen Literatur zur strukturellen und institutionellen Governance entwickelte vorgeschlagene Governance-Betriebsmodell würde die Effizienz, Effektivität und Gesamtleistung der betreffenden ODL-Institution verbessern.;-;-;-;https://link.springer.com/article/10.1007/s10639-018-9790-7 de6718fbe25bf2a4f137802de746a729;de;;;6.1.;;;Parallelitätskontrolle in hierarchischen Multidatenbanksystemen In den letzten zehn Jahren wurden bedeutende Forschungsarbeiten zur Entwicklung von Transaktionsverwaltungsalgorithmen für Multidatenbanksysteme durchgeführt. Die meisten dieser Arbeiten gehen von einer monolithischen Architektur des Multidatenbanksystems mit einem einzigen Softwaremodul aus, das einem einzigen Transaktionsverwaltungsalgorithmus folgt, um die Konsistenz der in den lokalen Datenbanken gespeicherten Daten sicherzustellen. Diese monolithische Architektur ist in einer Umgebung mit mehreren Datenbanken nicht geeignet, in der das System mehrere verschiedene Organisationen umfasst, die über verschiedene geografisch entfernte Standorte verteilt sind. In diesem Papier schlagen wir eine alternative Architektur für das Transaktionsmanagement mit mehreren Datenbanken vor, bei der das System hierarchisch ist. Die hierarchische Architektur hat Konsequenzen für das Design von Transaktionsverwaltungsalgorithmen. Eine Folge der Architektur ist, dass die Transaktionsverwaltungsalgorithmen, denen ein Multidatenbanksystem folgt,;-;-;-;https://link.springer.com/article/10.1007/s007780050038 98cfb771eec0da41209eba9c91affb34;de;;;6.1.;;;Leitlinien für die Anästhesiepraxis – Überarbeitete Ausgabe 2020 Die Leitlinien zur Praxis der Anästhesie, überarbeitete Ausgabe 2020 (die Leitlinien) wurden von der Canadian Anesthesiologists’ Society (CAS) erstellt, die sich das Recht vorbehält, ihre Veröffentlichung und Verbreitung zu bestimmen. Die Richtlinien unterliegen der Überarbeitung und werden jährlich aktualisiert. Die Richtlinien für die Praxis der Anästhesie, überarbeitete Ausgabe 2020, ersetzen alle zuvor veröffentlichten Versionen dieses Dokuments. Obwohl das CAS kanadische Anästhesisten ermutigt, sich an seine Praxisrichtlinien zu halten, um eine qualitativ hochwertige Patientenversorgung zu gewährleisten, kann das CAS kein spezifisches Patientenergebnis garantieren. Anästhesisten sollten ihr eigenes professionelles Urteilsvermögen fällen, um die richtige Vorgehensweise für die Umstände jedes Patienten zu bestimmen. Das CAS übernimmt keine Verantwortung oder Haftung für Fehler oder Auslassungen, die sich aus der Verwendung von Informationen ergeben, die in seinen Richtlinien für die Anästhesiepraxis enthalten sind.;-;-;-;https://link.springer.com/article/10.1007/s12630-019-01507-4 0a540252aaa4d20dc68672feb70a6727;de;;;6.1.;;;Schutz der Sicherheitsstufe für intelligente Terminals basierend auf Differential Privacy In der Internet-of-Things-Architektur ist die verteilte Verwaltungsstruktur des Rechenzentrums-Mikro-Rechenzentrums (MDC)-intelligenten Terminals die Grundlage für den intelligenten Terminalzugriff, die Echtzeit-Dateninteraktion und die Datenfreigabe. Es ist notwendig, eine Sicherheitsstufenerkennung durchzuführen, bevor intelligente Terminals auf die MDCs zugreifen, was es MDCs erleichtern kann, die Fähigkeit zu verstehen, böswilligen Angriffen zu widerstehen und eine angemessene Verwendung von Terminals in verschiedenen Sicherheitsstufen zu realisieren. Der Datensatz der Sicherheitsstufen wird jedoch in MDCs gespeichert und beim Entfernen der Terminals übertragen. Daher ist eine schnelle Datenschutzmethode für diesen Datensatz erforderlich. Dieses Papier untersucht die Datenschutzschemata basierend auf dem differenziellen Datenschutz (DP) und schlägt eine stufenproportionale differenzielle Datenschutzmethode vor, die das Sicherheitsniveau und den Niveauanteil der intelligenten Endgeräte als Parameter verwendet, um DP-Schutz mit unterschiedlichen Intensitäten anzuwenden , damit die statistischen Eigenschaften des Datensatzes nicht zerstört werden. Simulationsergebnisse zeigen, dass unsere Methode DP-Schutz für intelligente Endgeräte mit unterschiedlichen Stufen diskriminierend implementieren kann. Darüber hinaus kann es die statistischen Eigenschaften des Datensatzes zur weiteren Verwendung enthalten.;-;-;-;https://link.springer.com/article/10.1007/s11235-020-00665-x a8903d8e0734f227a364944061769135;de;;;6.1.;;;Die Beziehung zwischen städtischer Umwelt und Gesundheit Feinstaub, Stickstoffdioxid und Ozon wirken sich nachteilig auf die Gesundheit aus. Die erhöhte Sterblichkeit während der Londoner Smog-Episode von 1952 zeigte schädliche gesundheitliche Auswirkungen der Kohleverbrennung. Die jüngste massive Urbanisierung in Entwicklungsländern wird von Verkehrsstaus und Umweltzerstörung begleitet. In den Industrieländern sind Anwohner und Pendler verkehrsbedingten Emissionen im Zusammenhang mit Herz-Kreislauf- und Atemwegserkrankungen ausgesetzt, die Zersiedelung wird mit Fettleibigkeit bei Kindern und Erwachsenen und damit verbundenen Erkrankungen in Verbindung gebracht, während das Fahren die psychische Gesundheit wie Stress beeinträchtigt und den Verkehr und die Fußgänger/innen erhöht. Unfallgefahr für Radfahrer. Städtische Umweltbelastungen bergen Gesundheitsrisiken für Schwangerschaften, einschließlich niedrigem Geburtsgewicht und Frühgeburten. In Memphis, TN, werden Unterschiede in den Geburtsergebnissen zwischen Gebieten mit hoher und niedriger Exposition analysiert. Aufgrund von Bedenken hinsichtlich der öffentlichen Gesundheit trägt die Untersuchung der negativen Auswirkungen der Urbanisierung und des Verkehrs zur Verbesserung der öffentlichen Gesundheit bei.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-74198-7_6 7f7bf5cae8b0dac54da3e54fba61866e;de;;;6.1.;;;Netzwerk des American Journal of Nursing (AJN) Im September 1993 erhielt das American Journal of Nursing Company (AJN) von der Division of Nursing, Department of Health and Human Services, ein dreijähriges Sonderprojektstipendium zur Entwicklung eines elektronischen Informationsdienstes zur Weiterbildung und Information von Pflegekräften in medizinisch unterversorgte ländliche Gebiete. AJN;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-2402-8_5 4d4d72b2c69b6ea5812f3a874e94b2cc;de;;;6.1.;;;Möglichkeiten und Grenzen interdisziplinärer, nutzerorientierter Forschung: Erfahrungen aus dem Deutschen Forschungsverbund Naturkatastrophen Das Deutsche Forschungsnetzwerk Naturkatastrophen (DFNK) vernetzte 15 Partner mit wissenschaftlicher Expertise im Bereich Naturgefahren. Hauptziele waren die Entwicklung und Bereitstellung der wissenschaftlichen Grundlagen für ein fortschrittliches Risikomanagement wichtiger Naturkatastrophen in Deutschland, d. h. Überschwemmungen, Erdbeben, Stürme und Waldbrände. Dazu gehörten Risikoanalysen, die Entwicklung von Informationssystemen zur Unterstützung des Katastrophenmanagements und Empfehlungen für Maßnahmen zur Risikominderung. Dieses Papier gibt einen Überblick über das DFNK und fasst seine Erfahrungen bezüglich Multidisziplinarität und Nutzerorientierung zusammen. Es veranschaulicht das Konzept der Risikoketten, das die unterschiedlichen Prozesse von Gefahr zu Risiko kausal verknüpft. Der Schritt vom Risiko zum Risiko erfordert interdisziplinäre Forschungsteams. Die Erfahrungen zeigen, dass integrative Konzepte Ergebnisse ermöglichen, die mit monodisziplinären Ansätzen nicht erreichbar sind. Integrative Ansätze ebnen den Weg zu harmonisierten Sicherheitsüberlegungen unter Berücksichtigung der unterschiedlichen Gefahren in einer Region in einem gemeinsamen Rahmen. Nutzerorientierung, Politikberatung und Entwicklung operativer Instrumente sind zentrale Themen der Katastrophenforschung. Die Erfahrungen des DFNK verdeutlichen die Grenzen eines Forschungsverbundes bei der Überbrückung der Lücke zwischen Forschung und Anwendung in eher kurzfristigen Projekten. Eine erfolgreiche Zusammenarbeit mit Nutzern konnte durch solche Aktivitäten aufgebaut werden, bei denen zu Beginn des Projekts ein Nutzer identifiziert wurde, der ein starkes Interesse an der Lösung eines dringenden Problems hatte.;-;-;-;https://link.springer.com/article/10.1007/s11069-005-8597-1 1adf33971622ff2ad97cb02c3ee0c6c8;de;;;6.1.;;;Digitale Transformation und softwaredefiniertes Geschäft In einer Welt, die zunehmend durch Informations- oder Digitaltechnologie verändert wird, ist die Notwendigkeit, technologische Entwicklungen und ihre Anwendung in der Wirtschaft aufeinander abzustimmen, zu einem zentralen Gebot geworden. Dieses Kapitel motiviert die Rolle der Informationsmanagementfunktion in diesem Prozess und beschreibt die Herausforderungen des ständigen Wandels und des zuverlässigen Betriebs als antidromal. Es fordert Lösungen, die es Unternehmen ermöglichen, diesen offensichtlichen Kompromiss zu bewältigen, und führt DevOps als einen Ansatz ein, um den Übergang zu kontinuierlicher Innovation und softwaredefiniertem Geschäft zu meistern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72705-5_1 3bfc14e6b9c2f5ccf56b74e84a6a7c3a;de;;;6.1.;;;Design und Implementierung eines serviceorientierten Manufacturing Grid Systems Ein serviceorientiertes Manufacturing Grid (MG) System nach OGSA namens MGRID wird vorgestellt und ausführlich diskutiert. In MGRID bilden verschiedene Fertigungsressourcen die Grundlage der darüber liegenden Anwendungen. Um die Ressourcen zu virtualisieren, präsentieren wir ein Kapselungsmodell basierend auf der Spezifikation des Web Service Resource Framework (WSRF). Um das Problem der dynamischen Organisation von Fertigungsjobs zu lösen, entwerfen wir ein Jobmanagementsystem, das eine dynamische Zusammensetzung von Fertigungsdienstleistungen ermöglicht. Zuletzt wird ein Prototyp gegeben, um unsere Methode zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/11610496_85 c876ab8d05a8ecbf5348c4ed7b17f995;de;;;6.1.;;;Big-Data-Warehousing In diesem Kapitel werde ich erörtern, wie Big Data (und insbesondere Cloudera Enterprise) das Data Warehousing stört. Ich gehe davon aus, dass die Leser mit Data Warehousing vertraut sind, daher werde ich die Grundlagen und die Theorie des Data Warehousing nicht behandeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-3147-0_8 ace53c42f92a979a72c93ff32e2a29ab;de;;;6.1.;;;Das Projekt der internen Auftragsforschungsorganisation von Merck Eine regelmäßige Neubewertung der Effizienz des Personal- und Finanzressourceneinsatzes in der klinischen Arzneimittelentwicklung ist für eine anhaltende Rentabilität unerlässlich. Mit einem sauberen Blatt anzufangen, zu wissen, was zu tun ist und zu wissen, dass dies effizient getan werden muss, kann Verfahren oder nützliche Verfeinerungen bestehender Verfahren besser identifizieren als formalisierte „kontinuierliche Verbesserungsaktivitäten“. Es wurde eine interne Merck-Auftragsforschungsorganisation (mICRO) geschaffen, die als unabhängige Einheit fungieren sollte, deren Ziel es war, einen Auftrag zur Datenverarbeitung und -analyse gewinnbringend und in akzeptabler Qualität anzubieten und auszuführen. mICRO war nicht verpflichtet, Merck-Praktiken oder -Verfahren zu befolgen oder Merck-Standards einzuhalten, die nicht im Vertrag festgelegt sind. Ein wesentlicher Bestandteil der mICRO-Aktivität war die Identifizierung und Erprobung verschiedener Ideen zur Verbesserung der Effizienz bei der Datenverarbeitung und -analyse sowie bei der Interaktion mit CROs.;-;-;-;https://link.springer.com/article/10.1177/009286150003400212 346c086e0d314360daef9dfeb97acbcf;de;;;6.1.;;;Beurteilung des Aussehens von parenteralen pharmazeutischen Produkten In diesem Kapitel werden der aktuelle Stand der Technik und die Erwartungen an die Durchführung von Arzneimittelinspektionen beschrieben, wobei der Schwerpunkt auf den mit dem Auge sichtbaren Mängeln liegt. Sichtbare Attribute decken kosmetische und funktionelle Mängel ab, die sowohl manuelle als auch automatisierte Techniken verwenden, die das Erscheinungsbild als Schlüsselmerkmal verwenden. Der Abschnitt behandelt Inspektionsattribute, vergleicht und kontrastiert manuelle und maschinenbasierte Inspektionen mit regulatorischen Erwartungen, Einschränkungen und Technologien und bietet mehrere Beispiele anhand von Fallstudien.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-7978-9_15 196779058dfd4972ca023899723e6df7;de;;;6.1.;;;Die elektronische Patientenakte: Eine neue Form der Interaktion Informationstechnologien wie das Internet, das World Wide Web, interaktives Fernsehen und Medienkioske haben den Zugang der Verbraucher zu Gesundheitsinformationen verbessert und einen Paradigmenwechsel in der Gesundheitsversorgung bewirkt. Datenschutzrichtlinien, die als Ergebnis des Health Insurance Portability and Accountability Act (HIPAA) entwickelt wurden, haben den Verbrauchern auch mehr spezifische Rechte und Befugnisse eingeräumt [1]. Die Verbraucher von heute haben das Recht, auf ihre Gesundheitsakten zuzugreifen, Kopien dieser Aufzeichnungen zu erhalten, diese Aufzeichnungen zu ändern und zu korrigieren und den Zugriff durch Dritte zu kontrollieren. Die Möglichkeit, die Kontrolle über Gesundheitsinformationen zu erlangen und auszuüben, hat Verbraucher in die Lage versetzt, bei der Entscheidungsfindung Partner mit ihren Gesundheitsdienstleistern (HCP) zu werden. Kurz gesagt, Informations- und Kommunikationstechnologien haben Verbraucher (Patienten) von passiven Empfängern zu aktiven Teilnehmern gewandelt [2]. In diesem Kapitel wird beschrieben, wie Verbraucher Eigentümer ihrer Gesundheitsinformationen werden. Es wird das Potenzial der elektronischen Gesundheitsakte (EHR) sowie deren Vorteile, Herausforderungen und Bereiche für die zukünftige Forschung erörtert. Verschiedene Wege, über die Verbraucher auf Gesundheitsinformationen zugreifen und mit ihren Gesundheitsdienstleistern kommunizieren können, sind in anderer Literatur gut beschrieben und werden in diesem Kapitel nicht näher erläutert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-4041-7_25 cc1643c6a757e783625fed912390d7cb;de;;;6.1.;;;Generisches Reporting-Tool mit modernen Technologien für das Design von Benutzeroberflächen In diesem Kapitel werden Fragen zur Software, dem Schnittstellensystem für Internetanwendungen, GWT im Kontext der Entwicklung komplexer Internetanwendungen auf Basis der AJAX-Technologie untersucht. Darüber hinaus zeigt work kurz Webanwendungen – die Oberfläche, die auf Webbrowser-Ebene verfügbar ist. Gleichzeitig weist es auf die Nielsen-Heuristik-Interaktion hin, die die benutzerfreundliche und ergonomische Oberfläche jeder Anwendung darstellt. Anschließend versucht die Publikation, eine Geschäftsstrategie namens PLM am Beispiel von PTC Windchill zu erläutern. Als nächstes werden die Möglichkeiten der Windchill-Plattform gesammelt und diskutiert. Die Arbeit zeigt, wie eine eigene Anwendung entwickelt wird, die in PTC Windchill integriert wurde. Darüber hinaus wurden GWT und andere verwandte Technologien vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-62151-3_2 f7ac301d5a63ee763be6c9d12558a6f8;de;;;6.1.;;;Intelligenter automatisierter Betrieb und Betriebsmanagement von Cloud-Rechenzentren großer Unternehmen basierend auf künstlicher Intelligenz Mit dem Aufkommen des Zeitalters von Big Data und Information achten die Menschen immer mehr auf Informationssicherheit und Datenschutz. Die Art und Weise, wie Sie Ihre Daten in der Cloud verarbeiten, ist nicht mehr neu. Bereits 2010 hat die Regierung die Cloud-Computing-Branche als strategisch aufstrebende Branche gelistet, auf deren Pflege und Entwicklung sich der Staat konzentriert. Der Zweck dieses Papiers besteht darin, künstliche Intelligenz zu kombinieren, um das intelligente Automatisierungsbetriebsmanagement großer Enterprise-Cloud-Rechenzentren zu untersuchen. Basierend auf der Sicherheit von künstlicher Intelligenz und dem Schutz der Datensicherheit zielt dieses Papier darauf ab, die Rechengeschwindigkeit des Algorithmus unter Berücksichtigung des Datenmanagements zu verbessern und sammelt, organisiert und analysiert dann die relevanten Informationen, übernimmt die in- und ausländische Literaturanalysemethode, Sandbox-Simulation Bedienung und eine Vielzahl intelligenter Algorithmen liefern schließlich die Ergebnisse. Experimentelle Ergebnisse zeigen, dass der Einsatz von Künstlicher Intelligenz Cloud-Daten sicher schützen und gleichzeitig ein automatisiertes Betriebs- und Wartungsmanagement realisieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1726-3_65 122a1464289cd999d95997acdc5e945d;de;;;6.1.;;;Analyse der Effektivität der Projektorganisation der BIM-Implementierung Die Zusammenarbeit mit Planungs-, Ingenieur- und Baubeteiligten zum Aufbau einer effektiven Projektorganisation zur Förderung der Implementierung von Building Information Modeling (BIM) bleibt eine Herausforderung. Für die BIM-Implementierung in der Entwurfs- und Bauphase von Projekten, die mit der Design-Bid-Build-Methode geliefert werden, gibt es viele Arten von BIM-Implementierungsorganisationen. Die Effektivität der Organisation spiegelt die Fähigkeit einer Organisation wider, ihre BIM-Anwendungsziele zu verwirklichen. Ziel dieser Arbeit ist es, die Effektivität verschiedener Organisationstypen zu analysieren und zu vergleichen. Basierend auf der Theorie der Organisationseffektivität und unter Verwendung von Methoden der sozialen Netzwerkanalyse schlugen die Autoren einen quantitativen Ansatz vor, um die Wirksamkeit der verschiedenen Arten von BIM-Implementierungsorganisationen zu analysieren. Dieser Ansatz wurde anhand einer Fallstudie validiert. Die empirischen Ergebnisse zeigen, dass der inhabergeführte und architektengeführte Organisationstyp am effektivsten ist und die Leistung von inhabergeführten Organisationstypen besser ist als die von Architekten oder Auftragnehmern. Bei der Implementierung von BIM sollten Projektorganisationen Teilnehmer aus einer größeren Anzahl unterschiedlicher Disziplinen einbeziehen. Projektorganisationen sollten auch mehr direkte soziale Beziehungen zwischen allen Projektbeteiligten aufbauen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8892-1_81 d02a5d6cc186fb99d5d5f8442a36afa1;de;;;6.1.;;;Teilnahme einer offenen Universität an der Gemeinschaftsbildung basierend auf intelligenten Netzwerken und künstlicher Intelligenz Wie man künstliche Intelligenz kombiniert, um Hochschulen und Universitäten zu fördern, um an der Gemeinschaftsbildung in einer intelligenten Netzwerkumgebung teilzunehmen, ist ein Problem, auf das sich viele Universitäten konzentrieren müssen. Aus der Perspektive der praktischen Anwendung und unter Bezugnahme auf die von Wissenschaftlern im In- und Ausland analysierte Literatur integriert dieser Beitrag die Entwicklungs- und Verbesserungsmethoden der aktuellen Community Education. Gleichzeitig analysierte dieser Beitrag die aktuelle Situation von Hochschulen und Universitäten und die Praxis des Community Education, ermittelte die Probleme, die die Entwicklung des Community Education beeinflussen, und schlug vernünftige Lösungen vor, die nicht nur der Förderung des Community Education förderlich sind, sondern hat aber auch eine gewisse praktische Bedeutung für die Transformation und Aufwertung der Gemeinschaftsbildung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-25128-4_243 5c268fb433263aecd69898dcc3377a5d;de;;;6.1.;;;Risikokontrollsystem des Bauingenieurwesens basierend auf Data Mining und Künstlicher Intelligenz Cloud Computing bietet eine Anzeige- und Freigabeplattform für Data-Mining-Technologie. Um die Offenlegung der Privatsphäre zu verhindern, enthalten diese Daten oft künstlich hinzugefügte Risikokontrolldaten, wodurch der Prozess der Datenfreigabe mit dem Problem des Deep-Mining von Daten konfrontiert wird. Im Hinblick auf den Datenschutz ist das Risikokontrollsystem im Bauingenieurwesen in der Regel durch den Generalisierungsweg, um den Austausch der genauen Daten abzuschließen, was eine Voraussetzung für den anschließenden genauen Abfrageprozess darstellt. Gleichzeitig stellt es auch sicher, dass diese Daten effektiv vorhergesagt werden können. Entsprechend der möglichen Schnitt- oder Einschlussbeziehung zwischen den verallgemeinerten Werten werden die verallgemeinerten Werte geschichtet und geclustert, um die damit verbundenen wichtigen Informationen der Bauprojektrisikosteuerung zu speichern. Auf dieser Grundlage verwendet dieser Beitrag die Data-Mining-Technologie (DMT), um ein auf Data-Mining-Technologie basierendes Bauprojekt-Risikokontrollsystem (CPRCS) zu entwerfen. Schließlich demonstriert diese Arbeit durch theoretische Analyse und experimentelle Vergleiche die Durchführbarkeit und Wirksamkeit des Systems.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1468-5_226 4451ddcd744dc1922276ebd6328007c8;de;;;6.1.;;;Stressulkus-Prophylaxe mit einem Protonenpumpenhemmer versus Placebo bei kritisch kranken Patienten (SUP-ICU-Studie): Studienprotokoll für eine randomisierte kontrollierte Studie Bei kritisch kranken Patienten auf der Intensivstation (ICU) besteht das Risiko klinisch bedeutsamer gastrointestinaler Blutungen, und Säuresuppressiva werden häufig prophylaktisch eingesetzt. Allerdings kann die Stressulkus-Prophylaxe das Risiko schwerwiegender unerwünschter Ereignisse erhöhen und zudem ist die Quantität und Qualität der Evidenz, die den Einsatz einer Stressulkus-Prophylaxe stützt, gering. Ziel der SUP-ICU-Studie ist es, den Nutzen und Schaden einer Stressulkus-Prophylaxe mit einem Protonenpumpenhemmer bei erwachsenen Patienten auf der Intensivstation zu bewerten. Wir gehen davon aus, dass die Stressulkus-Prophylaxe die Rate gastrointestinaler Blutungen reduziert, aber die Rate nosokomialer Infektionen und myokardialer Ischämie erhöht. Die Gesamtwirkung auf die Sterblichkeit ist nicht vorhersehbar.;-;-;-;https://link.springer.com/article/10.1186/s13063-016-1331-3 ad84be669db143e2b0094df9822e6037;de;;;6.1.;;;Statistische Probleme bei der Datenprüfung klinischer Studien Datenbanken für klinische Studien werden normalerweise vor der Datenbanksperre geprüft, um sicherzustellen, dass die Daten bestimmte gewünschte Qualitätsstufen erfüllen. Das Audit kann entweder basierend auf allen Datenelementen in der Datenbank oder auf Stichproben von Datenelementen durchgeführt werden. Wenn Stichproben von Datenelementen geprüft werden, treten Probleme des Typs I und des Typs II auf, und die Bestimmung des Stichprobenumfangs wird für die Kontrolle dieser Fehler von entscheidender Bedeutung. In diesem Papier erörtern wir die statistischen Fragen im Zusammenhang mit der Datenprüfung und konzentrieren uns dabei auf die Kontrolle von Fehlern des Typs I und II. Es werden Formeln zur Ermittlung des Stichprobenumfangs vorgeschlagen, Verfahren zur Durchführung von Datenaudits empfohlen und verschiedene Stichprobenschemata diskutiert.;-;-;-;https://link.springer.com/article/10.1177/009286150403800408 b04d52a756076ba83bfed82129e5d790;de;;;6.1.;;;Kanonische Formen von XML-Schemas Dieser Artikel untersucht bestimmte Transformationen von XML-Schemas, die in Algorithmen des XML-Datenmanagements weit verbreitet sind. Da sich die Eigenschaften und Funktionsmerkmale der XML-Dokumente erheblich von denen anderer Datentypen unterscheiden, sind die Lösungen einiger typischer Datenmanagementprobleme (wie XML-Datenvalidierung, Schemainferenz und Datenübersetzung in/ von anderen Modellen) für sie sind komplizierter. Die allgemeine Idee unseres Ansatzes zur Lösung dieser Probleme besteht darin, die ursprüngliche Struktur (d. h. strukturelle Schemabeschränkungen) in eine andere Struktur umzuwandeln, ohne Informationen über Eigenschaften der ursprünglichen Daten zu verlieren, die für Anwendungen wichtig sind. Die vorgeschlagene Technik wurde erfolgreich in verschiedenen Algorithmen zur Lösung derartiger Probleme eingesetzt. In diesem Beitrag wird ein systematischer Ansatz zur Lösung dieser Probleme diskutiert. Es werden Verfahren zum Reduzieren der XML-Schemas auf mehrere kanonische Formen vorgestellt und Algorithmen zum Lösen der Verwaltungsprobleme für Daten untersucht, die Schemata erfüllen, die in den kanonischen Formen dargestellt sind.;-;-;-;https://link.springer.com/article/10.1023/A%3A1025741309518 563769b3b0c00a6c75f48738eff3561d;de;;;6.1.;;;Eine IoT- und drahtlose Sensornetzwerk-basierte Technologie für eine kostengünstige Präzisionsimkerei Die aktuellen Umweltauswirkungen durch industrielle Landwirtschaft, Klimawandel und Krankheitserreger haben den Lebensraum zerstört und die Artenvielfalt verloren. Diese ökologischen Veränderungen haben die Imkerei einschließlich der Bienen und Wildbestäuber bedroht, die eine wichtige Rolle spielen und in den terrestrischen Ökosystemen unverzichtbar sind. Dieses Kapitel stellt den grundlegenden Raum der Imkerei, Herausforderungen und neue Techniken der Imker in der Imkerei vor, einschließlich der Präzisionsimkerei, und einer kostengünstigen IoT- und Fernerkundungstechnologie, die für die Datenerfassung und Überwachung der Vitalität und Produktivität von Bienenvölkern eingesetzt wird. Das System verfügt über Redundanzkomponenten und verwendet das dreistufige hierarchische Modell mit drahtlosem Knoten, lokalem Informationsserver und Cloud-Datenserver. Das System besteht auch aus Sensoren, die an verschiedenen Standorten eingesetzt werden, um die Temperatur, die relative Luftfeuchtigkeit und die Beladung der Bienenstöcke und Waben zu erfassen und auf dem lokalen und Cloud-Server zu speichern. Dieses System wird die dringende Notwendigkeit ergänzen, dem Zusammenbruch der Honigbienenvölker entgegenzuwirken, indem es den Imkern, dem Teilsektor der Imkerei und dem Landwirtschaftssektor hilft, neue Präzisions-Imkereitechnologien einzuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0663-5_4 613c9f5ba956719709c9fea446da32fa;de;;;6.1.;;;Provenienzmodell für randomisierte kontrollierte Studien Dieses Kapitel schlägt ein Provenienzmodell für den Bereich der klinischen Forschung vor, das sich auf die Planung und Durchführung randomisierter kontrollierter Studien und die anschließende Analyse und Berichterstattung über die Ergebnisse dieser Studien konzentriert. Wir betrachten die Provenienzanforderungen für die klinische Forschung und das Studienmanagement verschiedener Interessengruppen (Forscher, Kliniker, Teilnehmer, IT-Mitarbeiter), um Elemente zu identifizieren, die auf mehreren Ebenen und Phasen des Prozesses benötigt werden. Um diesen Herausforderungen zu begegnen, wird ein Provenienzmodell definiert, indem das Open Provenance Model um domänenspezifische Ergänzungen erweitert wird, die die Darstellung näher an die Expertise medizinischer Anwender binden, und mit dem ultimativen Ziel, das erste OPM-Profil für randomisierte kontrollierte klinische Anwendungen zu erstellen Versuche. Als Ausgangspunkt haben wir das an der Universität Düsseldorf entwickelte Domäneninformationsmodell verwendet, das dem Standard der ICH Guideline for Good Clinical Practice (GCP) entspricht und so eine breitere Anwendbarkeit unserer Arbeit sicherstellt. Die Anwendung des Modells wird anhand mehrerer Beispiele und Abfragen anhand der integrierten Versuchsdaten demonstriert, die im Rahmen des EU-FP7-Projekts TRANSFoRm erfasst werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29931-5_1 8a5dceb3e13d0f90321b3e2c2736d8b7;de;;;6.1.;;;Eine Methode zur Wiederverwendung von Daten für die schnelle Schätzung von Suchbewegungen Bei der Bewegungsschätzung weisen die Suchbereiche zweier benachbarter aktueller Blöcke überlappende Daten auf. In Anbetracht dessen schlägt das Papier ein Datenwiederverwendungsverfahren für die schnelle Suchbewegungsschätzung vor. Das Verfahren verwendet die überlappenden Daten zwischen den Suchbereichen zweier benachbarter Blöcke wieder. Die überlappenden Daten werden weiter in zwei Teile unterteilt, einen bestimmten Datenwiederverwendungsbereich und einen möglichen Datenwiederverwendungsbereich. Mit diesem Verfahren wird die Speicherzugriffszeit des Algorithmus reduziert und die Leistung des Algorithmus weiter verbessert. Und das vorgeschlagene Wiederverwendungsverfahren kann das Laden redundanter Daten effektiv reduzieren. Ein typischer schneller Suchalgorithmus, die Diamantsuche, wird als Fallstudie verwendet, um die Wirksamkeit der Methode zu überprüfen. Das Verfahren wird auf einer GPU-Plattform implementiert. Die experimentellen Ergebnisse zeigen, dass die Datenwiederverwendungsmethode die Laufzeit im Vergleich zum Algorithmus der Datenwiederverwendung ohne Verwendung um 40%–60% reduzieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-05234-8_4 db774fbb40b4674ef11cde2bb240854e;de;;;6.1.;;;Bau einer neuen Netzwerk-Sharing-Plattform für Heimdekorationsdesign Die Informatisierung der Dekorationsplattform ist eine komplexe Systemtechnik. Ihr Zweck besteht darin, die Kosten zu senken, den Verwaltungsmechanismus zu reformieren, die Organisationsstruktur zu verbessern und die Wettbewerbsfähigkeit der Plattform im Kern zu verbessern. Modernes Plattformmanagement braucht Informationstechnologie. Plattforminformationsmanagement ist der einzige Weg für das Überleben und die Entwicklung der Plattform. Heutzutage hat die Plattform zum Teilen chinesischer Einrichtungsgegenstände die Experten der China Interior Decoration Association präsentiert und die großen Cafés der nationalen Einrichtungsbranche frisch gemacht, große Aufmerksamkeit der Branche erregt und die bisherige kognitive Grenze völlig gekippt, auch wenn es ein Revolution der Einrichtungsbranche. Noch wichtiger ist, dass das Teilen auch die Schmerzen beim Konsum von Haushaltsdekoration lindert. Dieses Papier stellt zunächst die Netzwerkfreigabeplattform für das neue Heimdekorationsdesign vor. Durch die Implementierung einer Plattform zum Teilen von Heimtextilien können Verbraucher den Schmerz des Heimdekorationsverbrauchs befreien und die Interessen der Verbraucher maximieren. Schließlich, wie man eine neue Netzwerk-Sharing-Plattform für Einrichtungsdesign baut, damit die Plattform zum Teilen von Einrichtungsdesign einen besseren Entwicklungstrend aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1468-5_148 dd933aec535ee18ec674f5b94968c767;de;;;6.1.;;;Systemtechnik Im Gegensatz zu den ersten Autos, die im Wesentlichen mechanische Systeme waren, sind Autos heute sehr komplexe mechatronische Systeme geworden, die Teilsysteme integrieren, die in einer Synergie zwischen Menschen aus verschiedenen Bereichen wie Maschinenbau, Softwaretechnik und Elektrik und Elektronik (E/E) entstanden sind. . Diese Tatsache hat in den letzten Jahrzehnten die Produktkomplexität und damit die Produktentwicklungskomplexität erhöht. Komplexität ist mehrdimensional und besteht aus Produkt-, Prozess-, Organisations-, Markt- sowie Anwendungskomplexität. Eine Methode zur Beherrschung von Komplexität ist Systems Engineering, was eigentlich bedeutet, Systemdenken anzuwenden, um die Herausforderungen bei der Erstellung komplexer Produkte zu bewältigen. Der Fokus dieses Kapitels liegt auf einem tiefen Verständnis von Systems Engineering (SE) sowie einer groben Empfehlung für Unternehmen, die an einer SE-Implementierung interessiert sein könnten. So werden Konzepte zur Umsetzung vorgeschlagen. Als Einstiegspunkt wird der Kontext der Produktentstehung mit den damit verbundenen Herausforderungen dargestellt. Die Notwendigkeit geeigneter Methoden wird betont und die Anwendung von SE motiviert. Um SE in der Praxis darzustellen, werden SE-Prozesse detailliert beschrieben und die Artefakte der verschiedenen Schritte beleuchtet. Zur Durchführung der beschriebenen Prozesse werden SE-Tools und -Methoden vorgestellt. Die wichtige Rolle, die die Unternehmensorganisation und das Projektmanagement sowohl für SE-Projekte als auch für SE-Erfolgsfaktoren spielen, wird hervorgehoben. Darüber hinaus wird ein Vorschlag für einen Einführungsprozess für SE erarbeitet. Eine Auswahl von Funktionsmerkmalen, die beim Üben von SE einen entscheidenden Vorteil bieten können, wird vorgestellt und diskutiert. Zwei Fallstudien werden dargestellt, um reale Anwendungen von SE und damit eine zusätzliche Orientierung für die SE-Implementierung bereitzustellen. Die Beziehung zwischen SE und Concurrent Engineering wird angesprochen und einige zukünftige Herausforderungen von SE werden identifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13776-6_9 cf19ae1de4f921ab6997c7e530717ae0;de;;;6.1.;;;Ein GIS-Ansatz mit mehreren Fenstern für die Analyse von Wasserqualitätsdaten Bei vielen Wasserqualitätsstudien muss ein Datenanalyst oder Modellierer möglicherweise die räumlich-zeitlichen Muster der Datensätze und ihre Beziehungen sowohl in der Vor- als auch in der Nachverarbeitung kennen. Das geografische Informationssystem (GIS) kann mit seiner Fähigkeit zur räumlich-zeitlichen Datenabfrage, logischen und arithmetischen Operationen, Visualisierung und den integrierten statistischen Funktionen eine explorative Umgebung für die räumlich-zeitliche Datenanalyse bereitstellen. Dieser Beitrag stellt das Grundkonzept und den Rahmen eines GIS-Moduls zur explorativen Datenanalyse (GISEDA) vor, wobei der Schwerpunkt auf einem Multi-Window-Ansatz für die räumlich-zeitliche Musteranalyse von Wasserqualitätsdaten liegt. Eine Wasserqualitätsdatenbank von GEO-WAMS, einem GIS-basierten Unterstützungssystem für die Modellierung von Wassereinzugsgebieten, wurde verwendet, um den Prototyp von GISEDA zu testen.;-;-;-;https://link.springer.com/article/10.1007/BF02665582 b1b1d2a62975f2df1a348fa1d0c48199;de;;;6.1.;;;Implementierungserfahrungen und Perspektiven Die Disziplin der Datenbanksicherheit entstand kurz nach der Einführung der ersten Datenbankmanagementsysteme. Es ist eine pragmatische und praktische Disziplin, in der sich der Wert theoretischer Konzepte letztendlich in der tatsächlichen Umsetzung zeigt. Implementierungen wiederum legen neue theoretische Probleme und Fragestellungen nahe.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35167-4_16 dd6b1c66cf7b90931d8c014261602832;de;;;6.1.;;;Biometrisches Signaturauthentifizierungsschema für die Datensicherheit im Gesundheitswesen in der Cloud Cloud Computing ist ein neuer und am schnellsten wachsender Entwicklungsbereich im Gesundheitswesen. Cloud-basierte Gesundheitsmanagementdienste gelten als effektive Möglichkeit, die Daten im Gesundheitswesen zu verwalten. Das Hauptproblem im Zusammenhang mit dem Gesundheitsmanagementdienst ist jedoch die Datensicherheit. Es führt zu Steuer-, Bank-, Versicherungs- und Arztbetrug. Daher ist ein Abrufen von Daten über einen gesicherteren Zugang erforderlich, um die Sicherheit der Krankenakten von Gesundheitsdiensten zu verbessern. In dieser Studie wurde ein biometrisch basiertes Signaturauthentifizierungsschema mit neuronalem Netzwerk für die Cloud-Datensicherheit im Gesundheitswesen vorgeschlagen. Das neuronale Netz wird in diesem Schema für die Genauigkeit des Abrufens der klinischen Daten in der Cloud verwendet. Das neuronale Netzwerk erfasst die biometrische Signatur durch einen biometrischen Sensor, der mit einem Qualitätsprüfer für eine effektive Authentifizierung verarbeitet wird. Dieses Netzwerk unterstützt auch beim statistischen Lernen der klinischen Datensätze. Nach verschiedenen Experimenten kommt man zu dem Schluss, dass die vorgeschlagene Methode schnellere Ergebnisse mit höherer Sensitivität und Spezifität mit Genauigkeit liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99007-1_52 e298ad6d6c53ea79eb014159cbf841fe;de;;;6.1.;;;Interaktive narrative und integrierte Anwendungen in einem Museum Von der Sammlungsverwaltung über Kiosk-Informationssysteme bis hin zum Web stellt die Verwaltung aller Aspekte der Datenqualität, des Arbeitsablaufs und der unterschiedlichen Veröffentlichungsprozesse eine Herausforderung für Museen dar, die ihre reichhaltige visuelle Dokumentation einem allgemeinen Publikum zugänglich machen möchten. Anwendungen mit offener Architektur und ein gutes Verständnis des Publikums tragen wesentlich dazu bei, diese Herausforderung zu meistern, und haben bei Getty dazu beigetragen, die kritische Infrastruktur zu schaffen, die die Bereitstellung nichtlinearer, interaktiver Erzählungen für ein allgemeines Publikum unterstützt. Der 1996–1997 geschaffene ArtAccess des Getty Museums ist eine Antwort auf diese Herausforderung. Die Backoffice-Arbeit der Autoren- und Inhaltserstellung ist in standardbasierten Daten verankert, die von vielen Museumsanwendungen gemeinsam genutzt werden. Die Front-End-Präsentation über die Benutzeroberfläche verwandelt die Erfahrung des Lesens von Daten in eine Erfahrung, die hochwertige Audio- und Videoqualität nahtlos mit den üblichen Bildern und Texten in einer Weise integriert, die den Bedürfnissen unseres Publikums entspricht, ansprechende Geschichten zu empfangen und zu erstellen, die auf der Museumssammlungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18663-9_9 b523e1740254c383fcfa069bf898258a;de;;;6.1.;;;Genomanalyse in der Klinik: Vorteile und Herausforderungen für medizinisches Fachpersonal und Patienten in Brasilien Trotz erheblicher Fortschritte in der Diagnose und Behandlung genetischer Erkrankungen in den letzten zwei Jahrzehnten gibt es immer noch einen erheblichen Anteil, bei dem eine ursächliche Mutation nicht identifiziert werden kann und eine definitive genetische Diagnose schwer fassbar bleibt. Neue genomweite oder Hochdurchsatz-Multiple-Gen-Tests haben neue Hoffnung in das Feld gebracht, da sie eine schnelle, kostengünstige und umfassende Analyse der genetischen Variation ermöglichen. Dies ist insbesondere bei Erkrankungen mit hoher genetischer Heterogenität interessant. Es gibt jedoch Einschränkungen und Bedenken hinsichtlich der Implementierung von Genomanalysen in die tägliche klinische Praxis, insbesondere in Schwellen- und Entwicklungsländern wie Brasilien. Dazu gehören die begrenzte Anzahl von umsetzbaren genetischen Varianten, die bisher bekannt sind, Schwierigkeiten bei der Bestimmung der klinischen Validität und des Nutzens neuer Varianten, die Zunahme von Gentests für den direkten Verbraucher unter Verwendung eines genomischen Ansatzes und das Fehlen einer angemessenen Ausbildung von Angehörigen der Gesundheitsberufe, um entsprechende Anforderungen zu stellen , interpretieren und nutzen genetische Informationen. Trotz all dieser Bedenken und Einschränkungen hat die Verfügbarkeit von Genomtests extrem schnell zugenommen, und kommerziell verfügbare Dienste umfassen Initiativen in fast allen Bereichen der klinischen Genetik, einschließlich Neugeborenen- und Träger-Screening. Wir diskutieren die Vorteile und Grenzen von Genomtests sowie die ethischen Implikationen und Herausforderungen für die genetische Aufklärung und genügend verfügbares und qualifiziertes medizinisches Fachpersonal, um einen angemessenen Prozess der Einwilligung nach Aufklärung, eine sinnvolle Interpretation und Verwendung von Genomdaten und die Definition von einen klaren Rechtsrahmen im besonderen Kontext Brasiliens.;-;-;-;https://link.springer.com/article/10.1007/s12687-015-0238-0 3d55aa76e6ccf71ad8b20fb3d5ca4259;de;;;6.1.;;;Verteilte attributbasierte Verschlüsselung mit mehreren Autoritäten für eine sichere Freundeserkennung und Datenfreigabe in mobilen sozialen Netzwerken Mit der rasanten Entwicklung von mobilen sozialen Netzwerken und Cloud-Servern werden immer mehr Menschen ihre persönlichen Profile für die gemeinsame Nutzung in der Cloud auslagern. Im Vergleich zu traditionellen webbasierten sozialen Online-Netzwerken können die mobilen sozialen Netzwerke Benutzern dabei helfen, neue soziale Interaktionen mit anderen leicht zu entdecken und zu machen. Um die geteilten Daten gegenüber nicht vertrauenswürdigen Cloud-Dienstanbietern vertraulich zu halten und das Problem des Single-Point-Failures sowie des Leistungsengpasses zu lösen, schlagen wir ein sicheres verteiltes, attributbasiertes Verschlüsselungsschema mit mehreren Autoritäten ohne zentrale Autorität vor, um nicht nur feine- granulare Zugangskontrolle, aber auch hohe Sicherheit und Performance. Durch die Verwendung dieses Schemas können Benutzer eine fein abgestufte Zugriffskontrolle und die Wahrung der Privatsphäre erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49148-6_31 47881912c827839dd50e696dfdb39629;de;;;6.1.;;;Eine grafische Benutzeroberfläche für eine kooperative Designdatenbank Zuerst wird eine Zusammenfassung eines Modells der gemeinsamen Nutzung von Objekten in kooperativen Anwendungen präsentiert, gefolgt von einer kurzen Beschreibung einer kooperativen Entwurfsumgebung. Anschließend werden Informationsmanagementtools (Knotenbrowser, Knoteneditoren, Ereignis-/Statusmonitore) und deren Benutzeroberflächen vorgestellt. Der Entwurf kooperativer Benutzerschnittstellen basierend auf dem angenommenen Modell der Objektfreigabe wird ausführlicher erörtert, wobei der Schwerpunkt auf der Überwachung von Objektänderungen, der physischen und logischen Objektsperre, der Aktualisierung des Anwendungscaches, der Unterstützung der Änderungsweitergabe und der Aufrechterhaltung der Datenkonsistenz liegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-3818-1_16 e0ef254e26b90e659021df9a61e2faaa;de;;;6.1.;;;Statische Analyse parametrisierter Schleifennester zur energieeffizienten Nutzung von Datencaches Caches sind ein wichtiger Bestandteil von Architektur- und Compiler-Energiesparstrategien, indem sie Speicherzugriffe und Energie pro Zugriff reduzieren. In diesem Kapitel untersuchen wir die effiziente Nutzung von Datencaches für geringen Stromverbrauch in einer adaptiven Speicherhierarchie. Wir konzentrieren uns auf die Optimierung der Datenwiederverwendung durch die statische Analyse der Liniengrößenanpassung. Wir präsentieren einen Ansatz, der die Quantifizierung von Datenfehlschlägen in Bezug auf die Cachezeilengröße zur Kompilierzeit ermöglicht. Diese Analyse ist in einem Softwarepaket STAMINA implementiert. Experimentelle Ergebnisse belegen die Effektivität und Genauigkeit der analytischen Ergebnisse im Vergleich zu alternativen simulationsbasierten Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-9292-5_11 6d7349e646cab19de8411d3b787fd361;de;;;6.1.;;;Vergleichende Übersicht über die Forschung zur Gesundheitsinformationstechnologie in der biomedizinischen Informatik und der Mensch-Computer-Interaktion Dieses Papier bietet einen vergleichenden Überblick über die Literatur in biomedizinischen Informatik (BI) und Mensch-Computer-Interaktion (HCI) Gemeinschaften, die Mensch-Subjekt-Studien zur Gesundheitsinformationstechnologie (HIT) durchgeführt haben, um zu verstehen, welche Arten von Wissen diese beiden Bereiche entwickeln und verbreiten. Wir durchsuchten systematisch 8 Datenbanken, um relevante Artikel zu finden, die zwischen 2007 und 2016 veröffentlicht wurden. Artikel, die Human-Subjekt-Studien zur HIT beinhalten, kamen für die Aufnahme in Frage. Von 1.355 Artikeln, die durch die Suchstrategie identifiziert wurden, wurden 593 Artikel für die endgültige Analyse ausgewählt. Text-Mining-Techniken wurden verwendet, um die ausgewählten Artikel in fünf Themen zu clustern, gefolgt von einer thematischen Analyse von zufällig ausgewählten 3 Artikeln pro Cluster, durch die eine hierarchische Taxonomie von Forschungsbereichen erstellt wurde. Die Ergebnisse verdeutlichen, dass BI hauptsächlich dazu beiträgt, Wissen im Zusammenhang mit dem Einsatz von HIT im klinischen Umfeld zu generieren, während sich HCI hauptsächlich auf das Design und die Bewertung von Anwendungen für das persönliche Gesundheitswesen konzentriert. Wir glauben, dass ein besseres Verständnis und die Zusammenführung der Stärken der Perspektiven der einzelnen Bereiche zu Ergebnissen führen würden, die verallgemeinerbarer sind und eine größere potenzielle Auswirkung auf die Gesundheitsforschung haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-22636-7_2 904525c39542e9586165162437a021ac;de;;;6.1.;;;Sicherstellung der promovierten Entwicklung eines verantwortungsvollen Verhaltens in der Forschung: Wer ist verantwortlich? Die Bedeutung des öffentlichen Vertrauens in wissenschaftliche Erkenntnisse und des Vertrauens in die Wissenschaftler kann nicht hoch genug eingeschätzt werden. Daher wird es für die wissenschaftliche Gemeinschaft von entscheidender Bedeutung, sich auf die Verbesserung der Strategien zu konzentrieren, die verwendet werden, um zukünftige Wissenschaftler über ethisches Forschungsverhalten aufzuklären. Was uns fehlt, ist Wissen darüber, wie Fakultätsmitglieder mit ihren Studierenden ethische Forschungsstandards gestalten und weiterentwickeln. Wir präsentieren die Ergebnisse einer Umfrage unter 3.500 wissenschaftlichen Fakultätsmitgliedern. Wir glauben, dass dies der erste Bericht darüber ist, wie Fakultäten mit ihren Doktoranden arbeiten und sie über Grundlagenforschungsstandards ausbilden. Konkret wollten wir feststellen, ob einzelne Fakultätsmitglieder, die als Berater oder Mentoren tätig sind, sich in der Umsetzung von Komponenten verantwortungsvoller Forschung (RCR) mit ihren Doktoranden unterscheiden. Mentoren gaben häufiger als Berater oder Supervisoren an, mit allen ihren Doktoranden, die in den letzten 5 Jahren ihren Abschluss gemacht haben, an den 17 anerkannten kritischen Komponenten der RCR-Ausbildung und der Entwicklung von Forschungskompetenzen gearbeitet zu haben. Wir fanden auch heraus, dass etwa die Hälfte der Fakultätsmitglieder glaubt, dass RCR eine institutionelle Verantwortung gegenüber einer Fakultätsverantwortung ist. Weniger als ein Viertel hatte die Möglichkeit, an einer Dozentenausbildung teilzunehmen, um ein besserer Mentor, Berater oder Forschungslehrer zu werden, und etwa ein Drittel der Dozenten wusste oder konnte sich nicht erinnern, ob sie Richtlinien in Bezug auf ihre Verantwortung gegenüber Doktoranden hatten. Wir diskutieren die Implikationen unserer Ergebnisse und konzentrieren uns auf Möglichkeiten, wie das Mentoring der PhD-Forschung verbessert werden kann.;-;-;-;https://link.springer.com/article/10.1007/s11948-013-9437-4 13711db57cb624b666a7d9399201ca09;de;;;6.1.;;;Die Studie zur Integration zwischen allgemeinem Mobilgerät und Desktop-Virtual-Reality-System In diesem Artikel wurde ein leichtes, kostengünstiges, verteiltes virtuelles Realitätssystem in Quasi-Echtzeit vorgestellt, um die Machbarkeit der Idee der Navigation für Studienanfänger zu überprüfen. Ein Desktop-Virtual-Reality-System mit Virtools wurde mit der realen Größe der Web-3D-Szenen und dem virtuellen 3D-Charakterverhalten erreicht. Basierend auf iOS und Android, mobile Plattform wurde eine benutzerdefinierte Google Map Web-2D-Szenen und 2D-Charaktere erreicht. Durch die gemeinsame VR-Datenbank und die lokale VR-Bibliothek des mobilen Terminals wurde die Datensynchronisation im System realisiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34396-4_19 47068a3a03fb7d12a5d5a707f5e236cf;de;;;6.1.;;;Datenqualitätsprobleme bei der elektronischen Datenerfassung Elektronische Datenerfassungssysteme (EDC) haben das Potenzial, den Zeit- und Arbeitsaufwand für die Erfassung und Verarbeitung von Daten aus klinischen Studien drastisch zu reduzieren. Diese Systeme werfen jedoch eine Reihe von Problemen mit der Datenqualität auf. Dieses Papier präsentiert einige historische Hintergründe für EDC-Systeme, wirft und diskutiert die Frage „Ist die Datenqualität wichtig?“, präsentiert eine gründliche Diskussion der Methodik zur Bewertung der Datenqualität klinischer Studien und fasst die Verwendung dieser Methodik für EDC-Systeme zusammen.;-;-;-;https://link.springer.com/article/10.1177/009286150103500320 3f48923871a5ae204cd76cc446a1f91b;de;;;6.1.;;;Sensoren und drahtlose Sensornetzwerke als Datenquellen: Modelle und Sprachen Drahtlose Sensornetzwerke (WSNs) sind ein klares Beispiel für die verschwindende Technologie von Mark Weiser [49], da sie es dem Menschen ermöglichen, mit der Umgebung zu interagieren und den Benutzer mit einer großen Menge heterogener Daten zu versorgen. Gleichzeitig wuchs die Komplexität der angestrebten WSN-basierten Systeme von einer Handvoll homogener Sensoren zu Hunderten oder Tausenden von Geräten, die sich in ihren Fähigkeiten, Technologien, Architekturen und Sprachen unterscheiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-20062-0_4 21fabc658e2b3e1c09d84c2428f4234c;de;;;6.1.;;;P2Prec: Ein P2P-Empfehlungssystem für die gemeinsame Nutzung von Daten in großem Maßstab Dieses Papier schlägt P2Prec vor, ein P2P-Empfehlungs-Overlay, das die gemeinsame Nutzung von Dokumenten für Online-Communitys erleichtert. Bei einer Abfrage besteht das Ziel von P2PRec darin,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23074-5_4 53865c73e5e6b8812192ad69238ae78e;de;;;6.1.;;;Eine adaptiv CCA-sichere Ciphertext-Policy-attributbasierte Proxy-Neuverschlüsselung für die gemeinsame Nutzung von Cloud-Daten Eine Ciphertext-Policy Attribute-Based Proxy Re-Encryption (CP-ABPRE) verwendet die PRE-Technologie in der kryptografischen Einstellung der attributbasierten Verschlüsselung, in der der Proxy eine Verschlüsselung unter einer Zugriffsrichtlinie in eine andere Verschlüsselung unter einem neuen Zugriff umwandeln darf Politik. CP-ABPRE ist auf viele reale Anwendungen anwendbar, wie z. B. die gemeinsame Nutzung von Netzwerkdaten. Die bestehenden CP-ABPRE-Systeme lassen jedoch die Erzielung einer adaptiven CCA-Sicherheit als ein interessantes offenes Problem. Dieses Papier schlägt zum ersten Mal ein neues CP-ABPRE vor, um das Problem durch die Integration der dualen Systemverschlüsselungstechnologie mit selektiver Beweistechnik anzugehen. Das neue Schema unterstützt alle monotonen Zugriffsstrukturen. Obwohl unser Schema in der bilinearen Gruppe zusammengesetzter Ordnung aufgebaut ist, hat es sich im Standardmodell als adaptiv CCA-sicher erwiesen, ohne die Aussagekraft der Zugriffsrichtlinie zu gefährden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06320-1_33 401697a8ced2bd8ebb055be043361542;de;;;6.1.;;;Angriffe auf das Anti-Collusion-Data-Sharing-Schema für dynamische Gruppen in der Cloud Da der Hype um die Entwicklung des Cloud Computing in den modernen Outsourcing-Szenarien zu einer realen Möglichkeit geworden ist, können Benutzer von Cloud Computing profitieren, indem sie Dokumente auf die Cloud-Server hochladen, um sie mit einer Gruppe legitimer Benutzer zu teilen. Aber obwohl die Cloud heute eine praktikable Option für elastische Speichereinrichtungen ist, ist ihre Sicherheit immer noch ein ernstes Problem. Um die sichere Kommunikation zwischen den Gruppenmitgliedern zu verbessern, haben Zhu und Jiang daher ein Protokoll vorgeschlagen und behauptet, dass die Schlüsselverteilung an die Gruppenbenutzer ohne sichere Kommunikationskanäle erfolgen kann. Sie haben behauptet, dass ihr Schema resistent gegen Kollusionsangriffe und alle anderen Angriffe ist, wodurch auch Vorwärts- und Rückwärtsgeheimnisse gewährleistet werden. Erstens haben wir in dieser Forschungsarbeit nach ausführlicher Analyse mehrere Probleme in dem von Zhu und Jiang vorgeschlagenen Protokoll identifiziert, die es anfällig für verschiedene Angriffe machen. Zweitens haben wir bewiesen, dass ein Angreifer den Man-in-the-Middle-Angriff verwenden und das Protokoll brechen kann, wodurch die geheimen Schlüssel zwischen dem Gruppenmanager und dem Gruppenbenutzer geteilt werden. Drittens haben wir genügend Beweise dafür geliefert, dass das Schema auch anfällig für Angriffe zur Nachrichtenänderung ist. Schließlich behaupten wir, dass das früher vorgeschlagene Protokoll nicht sicher ist und ein neues Protokoll mit verbesserter Sicherheit das Gebot der Stunde ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-72395-2_42 e0af12e62f0c75c1e7b6b1867785cd26;de;;;6.1.;;;Anonymisieren von Gruppendatenaustausch in opportunistischen mobilen sozialen Netzwerken Die Sicherheits- und Datenschutzrisiken von Gruppenbenutzern sind bei opportunistischen mobilen sozialen Netzwerkplattformen (OMSN) ein wichtiges Anliegen, insbesondere wenn die Benutzer Daten öffentlich in einem Nahbereich teilen. Bestehende Schemata zur gemeinsamen Nutzung von Gruppendaten erzwingen jedoch normalerweise nicht die Eigenschaften der Anonymität und/oder des Schutzes der Privatsphäre und machen sie für eine groß angelegte Implementierung relativ ungeeignet. In diesem Papier konstruieren wir ein überzeugendes, leichtgewichtiges kryptografisches Verschlüsselungsprotokollschema, um die Identität und den Datenschutz der Benutzer für ein groß angelegtes OMSN zu anonymisieren und zu bewahren. Die Benutzer werden authentifiziert, um Datenpaketbenachrichtigungen über Bluetooth-fähige Smartphones weiterzuleiten, über das 4G-Mobilfunknetz zu antworten und können die Benachrichtigung ohne Erkennung ablehnen. Die Benachrichtigungsverzögerung des Schemas verringert sich mit der Einführung einiger Passanten erheblich und erreicht somit eine hohe Zuverlässigkeit der Paketbenachrichtigungsweiterleitung in einem 1000 m² großen Nahbereich. Simulationen und Tests der Leistungsanforderungen mit der Proverif-Software beweisen, dass das Schema für groß angelegte OMSN einfach zu implementieren ist. Darüber hinaus demonstriert die Sicherheitsanalyse mit Beweisen basierend auf der Härte der entscheidungsbilinearen Diffie-Hellman-Bedingung das Schema als semantisch sicher unter Choled-Plaintext- und Chosed-Ciphertext-Angriffen. Dennoch wurde das Management von Ressourcenbeschränkungen in der vorliegenden Studie nicht behandelt.;-;-;-;https://link.springer.com/article/10.1007/s11276-020-02524-8 7f558e2074d84979909c81688d1c3139;de;;;6.1.;;;"Konfiguration der Datenmonetarisierung: Ein Literaturüberblick mit thematischer Analyse Aufgrund der zunehmenden Menge und Vielfalt von Daten im Internet sowie in Organisationen hat sich die Rolle von Daten von einer passiven Einheit zu einem aktiven Asset gewandelt. Daten gelten als neue Einnahmequelle, und der Prozess der Schaffung von Wohlstand wird als „Datenmonetarisierung“ bezeichnet. Die Monetarisierung von Daten wird verwendet, um eine Art Wettbewerbsfähigkeit für Unternehmen zu realisieren. Es bietet Unternehmen Flexibilität bei der Nutzung von Informationsressourcen als Reaktion auf Kundenerwartungen und Umweltbelastungen. Ziel der vorliegenden Studie ist es daher, die Konfiguration der Datenmonetarisierung durch eine systematische Übersichtsarbeit zu klären. Die thematische Analyse basierend auf dem induktiven Ansatz wurde verwendet, um die Konfiguration zu konstruieren. Die globalen Themen, nämlich ""Monetarisierungsschicht"", ""Datenverfeinerungsprozessschicht"", ""Basisschicht"" und ""Zugriffs- und Verarbeitungsbeschränkungsschicht"" mit ihren verwandten Themen als Teilmengenkomponenten wurden erhalten. Jedes dieser globalen Themen repräsentiert die konstruktiven Schichten, die eine wichtige Rolle im Mechanismus der Datenmonetarisierung spielen. Alle extrahierten Themen wurden als Konfigurationsmodell namens „Data Monetization Configuration“ (DaMoC) synthetisiert. Diese vorgeschlagene Konfiguration wird durch eine reale Anwendung validiert, d. h. Cardlytics.";-;-;-;https://link.springer.com/article/10.1007/s40171-019-00228-3 628166c7d4566389a2b3681b2532a902;de;;;6.1.;;;Die Kraft des Wissens: Eine Fallstudie zur KM-Implementierung im Marineministerium Das Marineministerium ist ein anerkannter Vorreiter bei der Umsetzung von Wissensmanagement. Die facettenreiche Veränderungsstrategie des DON wird in zwölf Elementen diskutiert: gemeinsame Vision schaffen, Business Case aufbauen, Führungsengagement demonstrieren, gemeinsames Verständnis ermöglichen, Grenzen setzen, neue Ideen, Worte und Verhaltensweisen teilen, strategisches Vorgehen identifizieren , Entwicklung der Infrastruktur, Messung und Anreize, Bereitstellung von Werkzeugen, Förderung des Lernens und Vision einer noch größeren Zukunft. Zusammenfassend wird als theoretische Kraft hinter dieser Veränderungsstrategie ein Modell der Veränderungsstrategie vorgestellt, das Wachstum von Wissen und Teilen schafft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24748-7_21 cf8615b1133b2d4a59af9c030e66a114;de;;;6.1.;;;Visualisierung Die Ursprünge räumlicher Informationssysteme liegen teilweise in der digitalen Kartographie. Der Wunsch, die manuelle Arbeit des Kartographen durch digitale Lösungen zu ergänzen oder sogar zu ersetzen, die den Kartenerstellungsprozess nachbilden, kostete in den 1970er und 1980er Jahren viel Forschungs- und Entwicklungszeit (;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-1504-9_10 66a9b14bb9a0d62dc1816a838ecac9db;de;;;6.1.;;;Der Einfluss der Asymmetrie des Bankensystems der Russischen Föderation auf den Interbankenwettbewerb unter den Bedingungen der Digitalisierung der Bankaktivitäten Ziel der Studie ist es, den Grad der Asymmetrie des russischen Bankensystems zu bewerten sowie die Einflussfaktoren auf den Stand des Interbankenwettbewerbs im Kontext der Digitalisierung der Bankaktivitäten zu identifizieren. Als Informationsgrundlage dienten die statistischen Daten 2011–2019 der Bank of Russia. Die Studie ermöglichte es, den gegenwärtigen Binnenmarkt für Bankdienstleistungen als einen Oligopolmarkt mit einem Wettbewerbsumfeld und einer Konzentration im Bundeszentrum zu bewerten, was sich negativ auf die Entwicklung des Interbankenwettbewerbs im Land auswirkt. Die aufgedeckten externen und internen Faktoren, die den Zustand des Interbankenwettbewerbs beeinflussen, ermöglichen es, mögliche Richtungen zur Verbesserung des regulatorischen Rahmens und der Struktur des russischen Bankensystems im Kontext der Digitalisierung der Gesamtwirtschaft und der Banktätigkeit im Besonderen zu identifizieren, insbesondere in die Richtung der Entwicklung des Interbankenwettbewerbs mit dem Ziel, die Bankdienstleistungen für den Realsektor der Wirtschaft zu verbessern. Die Autoren argumentieren, dass eine Dezentralisierung der Zahlungsströme der Kreditorganisationen unter Berücksichtigung der regionalen Komponente erfolgen soll.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-40749-0_28 99d8049e7b933135df4257f7c8c183ce;de;;;6.1.;;;Integration von UAVs in die SWIM-basierte Architektur für ATM Der Ansatz des systemweiten Informationsmanagements (SWIM) wurde konzipiert, um die Kapazitäts- und Flexibilitätsbeschränkungen der gegenwärtigen ATM-Systeme zu überwinden. Andererseits erfordern die kommerziellen Anwendungen von unbemannten Luftfahrzeugen (UAVs) die Integration dieser Fahrzeuge in den ATM. Aus dieser Perspektive wird die unumgängliche Modernisierung des ATM als Chance gesehen, die UAVs in den restlichen Flugverkehr zu integrieren. Dieses Papier widmet sich der Untersuchung der Durchführbarkeit und der Auswirkungen der Aggregation von UAVs auf den zukünftigen Geldautomaten, der von einer SWIM-inspirierten Architektur unterstützt wird. Ausgehend von den bestehenden technischen Dokumenten, die die Grundlagen von SWIM beschreiben, haben wir die Kompatibilität mit einer möglichen UAV-Integration untersucht und auch untersucht, wie die UAVs zur Verbesserung des zukünftigen ATM-Systems beitragen könnten. Als Beispiel nehmen wir in beiden Fällen die Wetteranwendung.;-;-;-;https://link.springer.com/article/10.1007/s10846-008-9254-1 13d85860a876c9fb0abcd5cf9ec87d4f;de;;;6.1.;;;Kombinieren von Websites Informationen über die Bindungsstellen von Lektinen stammen aus röntgenkristallographischen Untersuchungen ihrer Komplexe mit Liganden, aus Bindungsexperimenten mit Zuckern und ihren Derivaten, aus ortsgerichteter Mutagenese und in begrenztem Umfang auch aus molekularen Modellen. Solche Studien haben gezeigt, dass die Stellen wie die Lektine selbst verschieden sind, selbst wenn ihre Spezifität gleich ist, obwohl die Stellen innerhalb einer bestimmten Lektinfamilie ähnlich sein können (Sharon, 1993). Die Stellen scheinen vorgebildet zu sein, da bei der Ligandenbindung nur wenige Konformationsänderungen auftreten, jedoch wurden kürzlich Beweise für ihre mögliche Plastizität vorgelegt (Swaminathan, C. P. et al., 2000). Sie liegen meist in Form flacher Vertiefungen auf der Proteinoberfläche vor, an denen typischerweise nur eine oder zwei Kanten oder Flächen des Liganden gebunden sind, und ähneln damit denen von Anti-Kohlenhydrat-Antikörpern oder Glycosidasen wie Lysozym (Kabat, 1962, Quiocho, 1993, Bundle, 1998). Bei einigen Lektinen liegen die Bindungsstellen jedoch in Form von tiefen Spalten vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-6953-6_6 3c2a6a3af23be3aef5f12d70c08cfebe;de;;;6.1.;;;Die Entkopplung der Wertschöpfung vom Umsatz: Eine strategische Analyse der Märkte für reine Informationsgüter Informations- und Telekommunikationstechnologien haben die verfügbaren Vertriebskanäle für eine Vielzahl von Waren und Dienstleistungen grundlegend verändert. In diesem Beitrag analysieren wir eine bestimmte Klasse von Produkten, Informationsgütern und entwickeln einen ersten Rahmen für die Vorhersage, welche Informationsgüter ihre Produktions-, Verteilungs- und Konsummuster am wahrscheinlichsten durch das Netz verändern, bei denen es wahrscheinlich zu Machtverschiebungen kommt und Rentabilität und dürften auf absehbare Zeit unverändert bleiben. Wir konzentrieren uns auf Musik und Nachrichten als ausgewähltes Paar sehr unterschiedlicher Informationsgüterbranchen, die zwei sehr unterschiedliche Wege verfolgen. Unsere Ergebnisse legen nahe, dass sich die Machtstruktur in der Nachrichtenverteilung wahrscheinlich nicht schnell ändern wird. Im Gegensatz dazu verändert sich die Machtstruktur in der Musik rasant. Star-Acts brauchen ihre Plattenfirmen nicht mehr, um ihren Fans ihre Musik zu zertifizieren, und die digitale Produktion und der Vertrieb haben den Wert anderer Vermögenswerte im Besitz der Plattenfirmen reduziert oder eliminiert. Der Rahmen, den wir zur Analyse dieser beiden Industrien verwenden, kann ohne weiteres auf eine Reihe anderer Industrien angewendet werden ... von der Produktion von Fernsehserien bis hin zur Veröffentlichung wissenschaftlicher Zeitschriften zur Polymerchemie.;-;-;-;https://link.springer.com/article/10.1023/A%3A1022958530341 c4e91da0d01ae57219158849c4a2492e;de;;;6.1.;;;Auswahl an freier Software, die für Business Intelligence nützlich ist. Perspektive der Lehrmethodik Moderne Entscheidungsprozesse werden durch fortschrittliche Informationstechnologien unterstützt. Es gibt viele Produkte auf dem Markt, die immer intelligentere Lösungen darstellen, daher ist die Auswahl der richtigen Software nicht einfach, insbesondere wenn die Manager auf die Minimierung der Kosten in der Computerinfrastruktur ausgerichtet sind. Es ist von großer Bedeutung für Vertreter kleiner und mittlerer Unternehmen. Auf der anderen Seite wird von Hochschulabsolventen häufig von gut ausgebildeten Mitarbeitern erwartet. Dies ist eine sehr wesentliche Annahme für den Bildungssektor, in dem Lehrmethoden und definierte Softwarepakete diskutiert und vorgeschlagen werden. Ausgangspunkt der Forschung ist die Diskussion des Wesens und der Diversifikation der Lehrmethodik. In unserem Beitrag schlagen wir eine Methodik zur Auswahl freier Softwaretools vor, die für die Ausbildung, die auf den Unterricht von Business Intelligence beschränkt ist, unerlässlich sind. Besonders der von Gartner erstellte Magic Quadrant wird sorgfältig analysiert. Es wurden die wichtigsten Softwareprodukte verschiedener Unternehmen berücksichtigt und ein Auswahlverfahren einschließlich einer Liste von Kriterien definiert, die für die Auswahl eines Produkts wesentlich sind. Der Kriterienkatalog umfasst unterschiedliche Perspektiven der Auswahl. Power BI als ausgewähltes Tool wird ausführlicher vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-92928-6_6 d239016f2e2f3d497544fd41e51850fc;de;;;6.1.;;;Ein Reifegradmodell für die Implementierung von Enterprise Business Intelligence Systemen Im Zeitalter der Datenexplosion konzentrieren sich Unternehmen stark auf das systematische Management von Geschäftsinformationen. Zu diesem Zweck existieren verschiedene BI-Modelle, deren Verlässlichkeit jedoch aufgrund der geringeren Konzentration auf technische Aspekte fraglich ist. Der Zweck dieser Forschung ist es, ein umfassendes und zuverlässiges Enterprise Business Intelligence Maturity (EBIM)-Modell zu erstellen, indem systematisches und methodisches Design verwendet wird. Diese Forschung untersuchte und erklärte Probleme bestehender BI-Modelle und löste sie durch den Einsatz systematischer Prozesse durch Delphi-Technik. Zur Entwicklung eines ausgereiften Modells wurden drei Dimensionen, nämlich Prozess, Technologie und Organisation, betrachtet. Diese Studie kam zu dem Schluss, dass die Vollständigkeit und Zuverlässigkeit des EBIM-Modells es BI-Organisationen ermöglicht, ihre BI-Initiativen besser zu planen, zu bewerten und zu verwalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-5281-1_49 82f540c8559b9d302a77aebbd77c8978;de;;;6.1.;;;Ein ECC-basiertes Zugangskontrollschema mit leichter Entschlüsselung und bedingter Authentifizierung für die gemeinsame Nutzung von Daten in Fahrzeugnetzwerken Heutzutage werden immer mehr Daten für die gemeinsame Nutzung in Fahrzeugnetzwerken in der Cloud gespeichert, aber die zunehmende Anzahl von Cloud-Datensicherheitsvorfällen macht es zu einem der Hauptanliegen, die Vertraulichkeit des Datenaustauschs zu gewährleisten. Als geeignete Methode zur Lösung dieses Problems wird die attributbasierte Verschlüsselung angesehen. Jedoch machen es die Anforderungen an Leichtbau und Privatsphäre schwierig, die existierenden attributbasierten Verschlüsselungsschemata direkt in Fahrzeugnetzwerken anzuwenden. In diesem Papier stellen wir ein Zugangskontrollschema mit leichter Entschlüsselung und bedingter Authentifizierung für den sicheren Datenaustausch in Fahrzeugnetzwerken vor. In diesem Schema erweitern wir das auf der elliptischen Kurvenkryptografie basierende schlüsselrichtlinienattributbasierte Verschlüsselungsschema um eine tokenbasierte Entschlüsselung für eine leichte Zugriffskontrolle. Darüber hinaus integrieren wir das implizite Elliptic Curve Qu-Vanstone-Zertifikat mit dem ELGamal-Verschlüsselungsalgorithmus, um sowohl gegenseitige Authentifizierung als auch bedingten Datenschutz zu erreichen. Die Leistungsanalyse zeigt, dass das vorgeschlagene Schema weniger Zeit sowohl für die Verschlüsselung als auch für die Entschlüsselung auf der Benutzerseite benötigt. Die Sicherheitsanalyse zeigt, dass das vorgeschlagene System bedingte Anonymität bieten kann.;-;-;-;https://link.springer.com/article/10.1007/s00500-020-05117-x 44799370d44b2a25d15f469fa7bfbe38;de;;;6.1.;;;Omics-Datenverwaltung und -Anmerkung Technologische Durchbrüche von Omics, einschließlich der Sequenzierung der nächsten Generation, bringen Datenlawinen mit sich, die einem effektiven Datenmanagement unterzogen werden müssen, um Integrität, Sicherheit und maximales Wissen zu gewährleisten. Zu den Anforderungen an ein Datenmanagementsystem gehören flexible Eingabeformate, vielfältige Dateneingabemechanismen und -ansichten, Benutzerfreundlichkeit, Beachtung von Standards, Hardware- und Softwareplattformdefinition sowie Robustheit. Relevante Lösungen, die von der wissenschaftlichen Gemeinschaft ausgearbeitet wurden, umfassen Laborinformationsmanagementsysteme (LIMS) und Standardisierungsprotokolle, die die gemeinsame Nutzung und Verwaltung von Daten erleichtern. Bei der Projektplanung muss bei der Auswahl relevanter Omics-Annotationsquellen besonderes Augenmerk gelegt werden, da sich viele von ihnen überschneiden und ausgefeilte Integrationsheuristiken erfordern. Der Datenmodellierungsschritt definiert und kategorisiert die Daten in Objekte (z. B. Gene, Artikel, Störungen) und erstellt einen Anwendungsfluss. Es muss ein Datenspeicher/Warehouse-Mechanismus ausgewählt werden, wie z. B. dateibasierte Systeme und relationale Datenbanken, wobei letztere typischerweise für größere Projekte verwendet werden. Überlegungen zum Lebenszyklus von Omics-Projekten müssen die Definition und Bereitstellung neuer Versionen umfassen, die entweder vollständige oder teilweise Updates enthalten. Schließlich müssen Qualitätssicherungsverfahren (QA) die Daten- und Funktionsintegrität sowie die Systemleistungserwartungen validieren. Wir veranschaulichen diese Prinzipien des Datenmanagements mit Beispielen aus dem Lebenszyklus des GeneCards Omics-Projekts (http://www.genecards.org), einem umfassenden, weit verbreiteten Kompendium annotativer Informationen über menschliche Gene. Beispielsweise wurde die GeneCards-Infrastruktur vor kurzem von Textdateien auf eine relationale Datenbank umgestellt, was eine bessere Organisation und Ansicht der wachsenden Daten ermöglicht. Die Datenverarbeitung von Omics profitiert von der Fülle an webbasierten Informationen, der großen Menge an gemeinfreier Software, immer erschwinglicherer Hardware und der effektiven Nutzung der Datenverwaltungs- und Annotationsprinzipien, wie in diesem Kapitel beschrieben.;-;-;-;https://link.springer.com/protocol/10.1007/978-1-61779-027-0_3 00ee98dac5964f50a9750db61bf88a50;de;;;6.1.;;;Das Paradigma der Flussdatenverarbeitung und seine Anwendung in der Smart City mit einem Clusteranalyse-Ansatz Im Zeitalter der digitalen Revolution verwandelte sich der Arbeitsstil der Menschen in reale und lebendige kommunikative Systeme. Smart Cities haben sich aus dem Smart Ecosystem mit verschiedenen Domänen wie Gesundheitswesen, Informationsaustausch, Transport, Gebäude usw. entwickelt. Das Vorhandensein mehrerer Informationssysteme macht diese Smart Cities zu einer heterogenen, die mehrere Datenübertragungen basierend auf der großen Anzahl miteinander verbundener Subsysteme umfasst . Da die Systeme dem Host Daten von verschiedenen Terminals zur Verfügung stellen, ist die Menge der erzeugten Informationen genauso groß wie die Chancen, die Herausforderungen und Probleme in der Smart City zu erhöhen. Diese Flussdaten aus verschiedenen Quellen werden mithilfe von Cluster-Computing verarbeitet und diese vorgeschlagene Forschung liefert den Datenfluss in der Smart City mithilfe von Cluster-Computing. Apache Spark ist das Werkzeug, das verwendet wird, um die Probleme in der Smart City zu lösen, das viel besser ist als Hadoop. Die Ergebnisse diskutieren den Vergleich zwischen den Anwendungen in derselben Umgebung auf beiden Tools.;-;-;-;https://link.springer.com/article/10.1007/s10586-018-2839-y aee87f8eaa0e8d7403703d3aba9c2f93;de;;;6.1.;;;Software zur genetischen Kopplungsanalyse Zu den jüngsten Entwicklungen in der humangenetischen Verknüpfungsanalyse gehört das Aufkommen neuer Software und Sammlungen von Daten und Programmressourcen, die über das Internet zugänglich sind. Viele dieser neuen Programme und Sammlungen werden beschrieben, einschließlich ihrer Verfügbarkeit, des Literaturhintergrunds und spezifischer technischer Informationen.;-;-;-;https://link.springer.com/article/10.1007/BF02762412 9795cbb4e49bb8348b2794ba3ffaded2;de;;;6.1.;;;Computational Intelligence Framework für kontextbewusste Entscheidungsfindung Das Erlernen von kontextsensitiven Systemen ist notwendig, um Wissen über die Eigenschaften der Umgebung aufzubauen, um eine effiziente Entscheidungsfindung innerhalb multiobjektiver Anforderungen zu ermöglichen. Da die industriellen Systeme von Tag zu Tag komplex werden, müssen intelligente maschinelle Lerntechniken in entsprechenden kontextsensitiven Situationen implementiert werden, um Empfehlungen mit Soft-Computing-Methoden basierend auf dynamischen Benutzerspezifikationen zu ermöglichen. In diesem Papier wird ein Framework für eine Metadatenbank entworfen, die durch kontextuelle Informationen mehrerer Peers mit Was-wäre-wenn-Bedingungen und regelbasierten Ansätzen generiert wird und somit eine Entscheidungsfindung unter Verwendung mehrerer bestehender Soft-Computing-Algorithmen ermöglicht.;-;-;-;https://link.springer.com/article/10.1007/s13198-014-0320-8 d6ee023e82a73a7a1f0138d4fa0f1da8;de;;;6.1.;;;Kollaborative Geodaten für die Katastrophenhilfe: Haiti 2010 Die Nachwirkungen des Erdbebens in Haiti vom 12. Januar waren typisch für die Katastrophenhilfe, da Effizienz und Situationsbewusstsein durch den chaotischen, unkoordinierten Zustrom von Hilfe und Hilfe beeinträchtigt wurden. Das Fehlen einer Umgebung, in der Informationen ausgetauscht werden könnten, war ein wesentlicher Bestandteil dieses Chaos. Die Anwendung der Geoinformationstechnologie (GIS) war aufgrund der zentralen Lage des Standorts in Bezug auf Gefahren, Ressourcen, Sicherheit, Kommunikation usw. und aufgrund des universellen Verständnisses von Informationen, die mit 3 -D Globen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17610-4_29 e22b5a2733615ea293fbf563eb5d177b;de;;;6.1.;;;Über die Vorteile einer transparenten Komprimierung für eine kostengünstige Cloud-Datenspeicherung Infrastructure-as-a-Service (IaaS)-Cloud-Computing hat die Art und Weise revolutioniert, wie wir über den Erwerb von Rechenressourcen denken: Es ermöglicht Benutzern, virtuelle Maschinen (VMs) in großem Umfang bereitzustellen und nur für die Ressourcen zu bezahlen, die während der Laufzeit von tatsächlich genutzt wurden die VMs. Dieses neue Modell wirft neue Herausforderungen beim Design und der Entwicklung von IaaS-Middleware auf: Überhöhte Speicherkosten im Zusammenhang mit Benutzerdaten und VM-Images könnten die Cloud weniger attraktiv machen, insbesondere für Benutzer, die riesige Datensätze und eine große Anzahl von VM-Images manipulieren müssen . Speicherkosten resultieren nicht nur aus der Speicherplatzauslastung, sondern auch aus dem Bandbreitenverbrauch: In typischen Deployments werden viele Datenübertragungen zwischen den VMs und dem persistenten Speicher durchgeführt, alles unter hohen Leistungsanforderungen. In diesem Artikel wird der Kompromiss bewertet, der sich aus der transparenten Anwendung der Datenkomprimierung ergibt, um Speicherplatz und Bandbreite auf Kosten eines geringen Rechenaufwands zu sparen. Unser Ziel ist es, den Speicherplatz- und Bandbreitenbedarf mit minimalen Auswirkungen auf die Datenzugriffsleistung zu reduzieren. Unsere Lösung baut auf BlobSeer auf, einem verteilten Datenverwaltungsdienst, der speziell entwickelt wurde, um einen hohen Durchsatz für gleichzeitige Zugriffe auf riesige Datensequenzen zu gewährleisten, die in großem Maßstab verteilt werden. Umfangreiche Experimente zeigen, dass unser Ansatz große Reduzierungen (mindestens 40%) der Bandbreiten- und Speicherplatznutzung erreicht und dennoch hohe Leistungsniveaus erreicht, die in mehreren datenintensiven Szenarien sogar die ursprünglichen Leistungsniveaus (ohne Komprimierung) übertreffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23074-5_7 bf7b6ac4e2eb9115c02352f8a7a5c93d;de;;;6.1.;;;Leistungsprobleme in Parallelverarbeitungssystemen Einfach ausgedrückt besteht das Ziel der Leistungsanalyse darin, die Daten und Erkenntnisse bereitzustellen, die zur Optimierung des Ausführungsverhaltens von Anwendungs- oder Systemkomponenten erforderlich sind. Mithilfe dieser Daten und Erkenntnisse können Anwendungs- und Systementwickler Software und Ausführungsumgebungen entlang vieler Achsen optimieren, einschließlich Ausführungszeit, Speicheranforderungen und Ressourcennutzung. Angesichts der Vielfalt der Leistungsoptimierungsziele und des breiten Spektrums möglicher Probleme umfasst ein vollständiges Leistungsanalyse-Toolkit notwendigerweise ein breites Spektrum an Techniken. Diese reichen von Mechanismen für einfache Code-Timings bis hin zu mehrstufigen Hardware-/Software-Messungen und Korrelationen über Netzwerke, Systemsoftware, Laufzeitbibliotheken, Codetransformationen zur Kompilierzeit und adaptive Ausführung.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-46506-5_6 c883c0784618bcd7dcae07e2bf4ea1c3;de;;;6.1.;;;Data Mining für Sicherheitsanwendungen Dr. Bhavani M. Thuraisingham ist die eingeladene Hauptrednerin der WISI 2006. Sie ist Professorin an der Eric Jonsson School of Engineering and Computer Science, University of Texas in Dallas. Sie ist außerdem Direktorin des Cyber ​​Security Research Center und Präsidentin von Bhavani Security Consulting.;-;-;-;https://link.springer.com/chapter/10.1007/11734628_1 14d918a00e42ee8547ac306993a961ed;de;;;6.1.;;;Text objektiv verwalten Komplexe Entwicklungsumgebungen, die Sprachen unterschiedlicher Stile und Zwecke verwenden, haben besondere Probleme, ihre Daten effizient zu verwalten. Grundsätzlich gibt es zwei Alternativen, erstens den Text mit Zusatzcodes zu markieren und zweitens ein Werkzeug zu verwenden, das die Daten strukturieren kann, wie beispielsweise ein Objektverwaltungssystem. Für viele Zwecke ist etwas dazwischen geeignet, bei dem Klartextdateien gelesen und verwendet werden können, als ob sie in einem Objektverwaltungssystem gespeichert wären. Dieses Papier beschreibt eine Technik, die verwendet werden kann, um diese Art von Datenverwaltungssubstrat zu implementieren, und wie sie verwendet werden kann, um beim Aufbau einer solch komplexen Umgebung, der Vital-Workbench, zu helfen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-57234-1_48 1602ed5a1dc2a1e51609b75fe4652d1b;de;;;6.1.;;;Eine effiziente Sensornetzwerkarchitektur mit offener Plattform in der Fahrzeugumgebung Fahrzeuge wurden mit dem Ziel der Sicherheit entwickelt. In Advanced Safety Vehicles wird eine große Anzahl von Sensoren benötigt, die unter zukünftigen ITS-Umständen (Intelligent Transport Systems) intelligente und automatische Dienste bereitstellen. Da aktuelle fahrzeuginterne Netzwerke geändert werden müssen, um neue Sensoren hinzuzufügen, ist die Anzahl der Sensoren, die hinzugefügt werden können, in aktuellen fahrzeuginternen Netzwerken beschränkt. Um die Sensoren effizienter zu verwalten und Erweiterbarkeit bereitzustellen, schlagen wir ein SCSN (Smart Car Sensor Network) vor, eine fahrzeuginterne Architektur basierend auf AMI-C- und OSGi-Standards. In dieser Architektur fungiert die im AMI-C-Standard definierte Fahrzeugschnittstelle (VI) als Gateway in einem AMI-C-Netzwerk. Es wurde eine integrierte VI-Struktur entwickelt, um einen Vehicle Service (VS) auf einer Standardplattform bereitzustellen. Eine Interworking-Struktur mit einer CAN(Controller Area Network)-Schnittstelle ist implementiert, um ein effizientes VI bereitzustellen. In der aktuellen Telematikarchitektur tritt eine Zeitverzögerung zwischen der Startzeit des CAN-Netzwerks und der Bootzeit der Plattform auf. Während dieser Zeitverzögerung tritt ein Nachrichtenverlust auf. In diesem Papier schlagen wir eine effiziente Gateway-Architektur vor, um den Nachrichtenverlust aufgrund dieser Zeitverzögerung zu minimieren. Die Effizienz dieser Plattform wurde mit CANoe, einem Simulationstool für Fahrzeugnetzwerke, verifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71789-8_24 b3e060ecb054305dd773fc9953372879;de;;;6.1.;;;Kontrolle von alkoholischen Getränken, Privatisierung und geografische Verteilung von Alkoholverkaufsstellen Da Pennsylvania derzeit den Übergang von einem Staat zur Kontrolle von Alkoholgetränken zu einem privatisierten Alkoholverteilungssystem in Betracht zieht, verwendet diese Studie einen raumanalytischen Ansatz, um potenzielle Auswirkungen der Privatisierung auf die Anzahl und die räumliche Verteilung von Alkoholverkaufsstellen in der Stadt Philadelphia über einen langen Zeitraum zu untersuchen Zeithorizont.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-12-1015 20212a2721b0dcb046ebf1e3835ddf3a;de;;;6.1.;;;Robustes maschinelles Lernen mit Diversity und Blockchain Algorithmen des maschinellen Lernens (ML) werden in mehreren Smart City-basierten Anwendungen verwendet. ML ist jedoch anfällig für gegnerische Beispiele, die die gewünschte Ausgabe erheblich verändern. Daher ist es ein wichtiges Forschungsproblem, ML sicher zu machen, um Smart City-basierte Anwendungen zu ermöglichen. In diesem Kapitel wird ein Mechanismus beschrieben, der ML robust gegen gegnerische Beispiele für prädiktive Analytics-basierte Anwendungen macht. Das Kapitel stellt das Konzept der Diversität vor, bei dem eine einzelne prädiktive analytische Aufgabe separat mit heterogenen Datensätzen oder ML-Algorithmen oder beidem durchgeführt wird. Die gegebenen Diversity-Komponenten werden in verteilten Plattformen unter Verwendung von föderiertem Lernen und Edge-Computing implementiert. Die Diversity-Komponenten verwenden Blockchain, um sicherzustellen, dass die Daten sicher zwischen verteilten Komponenten wie Edge- und föderierten Lerngeräten übertragen werden. Das Kapitel beschreibt auch einige der Herausforderungen, die bei der Einführung von Diversity-Mechanismen, verteilter Berechnung und Blockchain zur Sicherung von ML gemeistert werden sollten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-55692-1_6 80eccd148438fa679849f3bd7231ec78;de;;;6.1.;;;Zur Korrektheit der Programmausführung, wenn Cache-Kohärenz lokal an Datenfreigabegrenzen in verteilten Shared-Memory-Multiprozessoren aufrechterhalten wird Aufkommende Multiprozessorarchitekturen wie Chip-Multiprozessoren, eingebettete Architekturen und massiv parallele Architekturen erfordern schnellere, effizientere und skalierbarere Cache-Kohärenzschemata. Bei der Entwicklung kosteneffizienterer Schemata werden formale Einblicke in ein Systemmodell als nützlich erachtet. In diesem Papier bauen wir Formalismen für die Ausführung in Cache-basierten verteilten Shared-Memory-Multiprozessoren (DSM) auf, die dem Release-Konsistenzmodell gehorchen, und leiten Bedingungen für die Cache-Kohärenz ab. Es wird ein kosteneffizientes Cache-Kohärenzschema ohne Verzeichnisse entworfen. Unser Ansatz beruht auf prozessorgesteuerten Kohärenzaktionen, die in der Natur schon früh sind. Das Schema nutzt die gemeinsame Nutzung von Informationen, die von einem programmiererzentrierten Framework bereitgestellt werden. Kohärenzpuffer (CB) pro Prozessor werden verwendet, um den gemeinsam genutzten Live-Variablen zwischen aufeinanderfolgenden Freigabepunkten in der Ausführung Kohärenz aufzuerlegen. Die Simulation eines 4-Wege-assoziativen CB-basierten Systems mit 8 Einträgen erreicht eine Geschwindigkeitssteigerung von 1,07–4,31 gegenüber dem 3-Hop-Verzeichnisschema mit voller Karte für sechs der SPLASH-2-Benchmarks.;-;-;-;https://link.springer.com/article/10.1023/B%3AIJPP.0000038070.79088.0b 719267b654bea43ec249d0b9ae1fe093;de;;;6.1.;;;Ein sozio-technischer und ko-evolutionärer Rahmen zur Reduzierung von menschenbezogenen Risiken in Cyber-Sicherheits- und Cybercrime-Ökosystemen Die Fokussierung auf Cyber-Sicherheit als Interaktion zwischen technischen Elementen und Menschen hat sich in der Regel auf praktische Fragen der Umsetzung beschränkt, konventionell auf die „menschlichen Leistungsfaktoren“ der Wachsamkeit usw., der „Sensibilisierung“ und/oder der „Anreize“ für Menschen und Organisationen zu beteiligen und ihr Verhalten anzupassen. Dies ist jedoch eine viel zu enge Sichtweise, die die Fähigkeit der Cybersicherheit als Ganzes ernsthaft einschränkt, sich anzupassen und weiterzuentwickeln, um mit anpassungsfähigen, innovativen Angreifern in einer sich schnell ändernden technologischen, geschäftlichen und sozialen Landschaft Schritt zu halten, in der die persönlichen Vorlieben der Benutzer sind auch dynamisch entwickelnd.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1304-6_22 3be2777a404c39254dcd0db8d4a42024;de;;;6.1.;;;Vorhersage des Cricket-Match-Ergebnisses mithilfe des ANFIS-Klassifikators für die Meinungen der Zuschauer auf Twitter-Daten Glücklicherweise oder leider hat die neue Ära des webabhängigen Lebens unsere Entscheidung getroffen, mit dem Webranking zu beginnen, man kann Gefühle mit Gelegenheit ausdrücken. Die Entscheidung wird zusätzlich über webbasierte Vernetzungsmedien, beispielsweise Twitter, überprüft. In diesem Artikel werden Anstrengungen unternommen, um die Praktikabilität der Verwendung von aggregierten, erworbenen Mikroposts zu untersuchen, die auf Twitter präsentiert werden, um den Sieger einer Cricket-Koordinate zu antizipieren. Für Prognosen verwenden wir drei einzigartige Strategien, die auf dem umfassenden Tweet hinter der Belustigung für die Gruppe, den Bewertungen der Fans gegenüber der Gruppe und den Erwartungen der Fans auf Twitter beruhen. Indem wir uns diesen Strategien anschließen, arrangieren wir die Gewinnerwartung der Gruppe in einer Cricket-Ablenkung vor Beginn der Unterhaltung. Unsere Ergebnisse sind vielversprechend genug, um für die Gewinnung der Gruppenfigur verwendet zu werden. Außerdem besteht die Angemessenheit des adaptiven Neuro-Fuzzy-Interferenzsystems (ANFIS) darin, Tweets von Twitter wiederzugewinnen, bewusst zu untersuchen und ein genaues Ergebnis zu ziehen, das von seiner Inspiration und seinem Zynismus abhängt. In diesem haben wir eine Ausführung einer unbeaufsichtigten Technik zur nostalgischen Untersuchung für das IPL 2019-Match gezeigt. Hier können wir das Ergebnis der Cricket-Koordinate vor der Initiierung antizipieren, angesichts der Tweets, die von ihren Fans über Twitter geteilt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5616-6_12 7b7b9c5cc3216ea13c5cdfd49bfdd302;de;;;6.1.;;;Verwaltung strukturell heterogener Datenbanken in Softwareproduktlinien Datenvariationen sind bei der Entwicklung von Softwareproduktlinien (SPLs) weit verbreitet. Eine SPL ermöglicht es einem Softwareanbieter, schnell verschiedene Varianten seiner Software zu produzieren, die auf die unterschiedlichen Geschäftsanforderungen, Konventionen, gewünschten Funktionssätze und Bereitstellungsumgebungen seiner Kunden zugeschnitten sind. Bei datenbankgestützter Software kann die Datenbank jeder Variante ein anderes Schema und einen anderen Inhalt aufweisen, wodurch zahlreiche Datenvarianten entstehen. Benutzer müssen oft alle Varianten in einer SPL gleichzeitig abfragen und/oder analysieren. Ein Softwarehersteller möchte beispielsweise gemeinsame Tests oder Abfragen über alle Varianten durchführen. Leider gibt es keinen systematischen Ansatz zum Verwalten und Abfragen von Datenvariationen und Benutzer müssen ihre Intuition verwenden, um solche Aufgaben auszuführen, und greifen oft darauf zurück, eine Aufgabe für jede Variante zu wiederholen. Wir stellen vor;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-14177-6_6 9b67148a23c88b083b760d5fb6d5ccb6;de;;;6.1.;;;Protokollieren von Benutzeraktivitäten und Sensordaten auf mobilen Geräten Das Ziel dieser Arbeit ist ein einheitlicher Ansatz, um Daten über Benutzeraktionen auf mobilen Geräten in einer für die Benutzermodellierung geeigneten Granularität zu sammeln. Um dieses Ziel zu erreichen, haben wir basierend auf dem MyExperience-Projekt ein Framework für die Protokollierung von mobilen Benutzeraktivitäten auf Windows Mobile PDAs entworfen und implementiert. Wir haben dieses System um Hardware- und Softwaresensoren erweitert, um Telefongespräche, Messaging, Peripheriegeräte, Mediaplayer, GPS-Sensoren, Netzwerke, persönliche Informationsverwaltung, Webbrowsing, Systemverhalten und Anwendungsnutzung zu überwachen. So kann beispielsweise erkannt werden, wann, an welchem ​​Ort und wie ein Nutzer eine Anwendung einsetzt oder auf bestimmte Informationen zugreift. Um unser Framework zu evaluieren, haben wir es in mehreren Nutzungsszenarien angewendet. Wir konnten validieren, dass unser Framework in der Lage ist, aussagekräftige Informationen über den Benutzer zu sammeln. Außerdem skizzieren wir Vorarbeiten zur Analyse der protokollierten Datensätze.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23599-3_1 02d3a14173ab8c11c24d535d9f8a7d16;de;;;6.1.;;;Fälle untersuchen: Problembasiertes Lernen und die Bibliothek Jo-Anne Naslund, wissenschaftliche Bibliothekarin an der Education Library der University of British Columbia, ist Spezialistin für ressourcenbasiertes Lernen, Recherche und Befürworterin des problembasierten Lernens. In diesem Kapitel werden die wichtigen Rollen skizziert, die akademische Bibliothekare in der problembasierten Bildung spielen können, von Ressourcenberatern über Sammlungsentwickler, Lehrplandesigner bis hin zu Kursmitarbeitern und Informationskompetenz-Coaches bis hin zu PBL-Tutoren. Die zugrunde liegenden Pädagogiken von PBL, die für das Engagement der Studierenden und das fallbasierte Lernen grundlegend sind, stimmen mit der akademischen Mission von Bibliotheken, Bibliothekaren und Informationskompetenzprogrammen in der Hochschulbildung überein und ergänzen sie. Ihre positiven Erfahrungen mit einer PBL-Kohorte werden durch eine Erzählung über die Bibliotheksdienste, Sammlungen und den Unterricht geteilt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-02003-7_10 51d879d3b335ea590790cb575fc2eedc;de;;;6.1.;;;Auf dem Weg zu einer einheitlichen Smart-Grid-ICT-Infrastruktur In den vorangegangenen Kapiteln haben wir die Schlüsseltechnologien skizziert, die die Entwicklung des Smart Grids prägen werden. Innovative neue Energietechniktechnologien werden benötigt, um Flexibilität einzuführen, damit das Energieverteilungsnetz neue verteilte Erzeugungssysteme integrieren und die Lieferung in einer reaktionsschnelleren und dynamischeren Umgebung optimieren kann. Darüber hinaus wird eine völlig neue Ebene in Form von Smart Metering eingeführt, die von Endverbrauchern zu Energieversorgern und Netzbetreibern zurückgeführt werden und letztendlich einen Endpunkt für die dynamische Zwei-Wege-Kommunikation zwischen Erzeugern, Anbietern und Verbrauchern darstellen. Wie wir gesehen haben, erfordert die Bereitstellung dieser neuen Technologien die Bereitstellung von ubiquitären Datenkommunikationsnetzen, die weit über das derzeit Bestehende hinausgehen, und dies war der Schwerpunkt dieser Arbeit. Während wir jedoch gesehen haben, wie Kommunikationsnetze um die hier betrachteten Technologien herum aufgebaut werden können, müssen wir noch zeigen, wie diese Systeme zusammengebaut werden könnten und welche Funktionen erforderlich sind, um die Interaktion zwischen diesen unterschiedlichen Elementen zu steuern.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4939-2184-3_7 4ccffa203a3bd5a899b4a3d68cc44f38;de;;;6.1.;;;Ein verteilter Datenserver in einer Grid-Umgebung In diesem Whitepaper wird ein leistungsstarker verteilter Datenserver namens DRB (Data Request Broker) vorgestellt. DRB ist der Kern des GridDaEn-Systems, einer allgemeinen Data Grid-Middleware, die einen einheitlichen Zugriff und eine einheitliche Verwaltung von verteilten und heterogenen Speicherressourcen ermöglicht. DRB bietet die meisten Kernfunktionen von GridDaEn, einschließlich seines einheitlichen Zugriffs auf alle Arten von geografisch verteilten, heterogenen Speicherressourcen aus einer einheitlichen und virtuellen Sicht und seiner Unterstützung der einfachen und komplizierten Koordination über mehrere administrative Domänen hinweg, um einen Verbund zu bilden usw. DRB hat die Fähigkeit, leistungsstarke und föderierte Datendienste für datenintensive Anwendungen und Forschungen über Weitverkehrsnetze bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30207-0_95 e2714b2d3eeaa6f26708e56124e6797a;de;;;6.1.;;;Ein Datenschutzbeauftragter in kontextsensitiven allgegenwärtigen Computerumgebungen Dieses Dokument zielt auf den Schutz der Privatsphäre in kontextsensitiven allgegenwärtigen Computerumgebungen ab. Es schlägt eine Datenschutz-Agent-Technologie vor, um Menschen über die Offenlegung relevanter Informationen zu informieren und sie in die Lage zu versetzen, den Datenschutz relativ einfach zu verwalten. Im Wesentlichen verwendet die Entwicklung der Datenschutzagent-Technologie Datenschutzterminologie und -richtlinien, die im Platform for Privacy Preferences Project (P3P) [1] festgelegt sind, und verwendet ontologische Modellierungstechniken, um automatisierte Prozesse datenschutzrelevanter Interaktionen im Namen von Einzelpersonen zu erleichtern. Die Entwicklung eines Datenschutzagenten ist ein integrierter Bestandteil unserer laufenden Bemühungen um die Entwicklung einer kontextbewussten Infrastruktur, die den Datenschutz respektiert.;-;-;-;https://link.springer.com/chapter/10.1007/11909033_18 3946ca902097969db5d19a50bf255533;de;;;6.1.;;;Eine verteilte geschäftsorientierte Speicherausführungsumgebung für große Anwendungen Application Die rasante Entwicklung der verteilten Speichertechnologie hat sowohl in der Industrie als auch in der Wissenschaft wachsende Aufmerksamkeit auf sich gezogen. Obwohl verteilte Systeme seit vielen Jahren untersucht werden, werden sie seit dem Aufkommen des Cloud Computing in letzter Zeit weit verbreitet in der Ingenieurpraxis angewendet. Cloud-Speicher baut über Netzwerke einen Speicherressourcenpool mit massiven gemeinsamen Speichergeräten auf, die bei Bedarf autorisierten Benutzern zugewiesen werden können. In diesem Whitepaper stellen wir eine verteilte geschäftsorientierte Speicherausführungsumgebung für große Anwendungen vor. Zunächst präsentieren wir die Gesamtheit unserer vorgeschlagenen Speicherausführungsumgebung und verschiedene Datenbereitstellungsmodelle entsprechend den entsprechenden Geschäftsanforderungen. Darüber hinaus konzipieren wir einen global geteilten und überregional bereitgestellten Metadatendienst, um die Zugriffsverzögerung auf Metadaten zu minimieren. Schließlich wurde der in diesem Papier vorgestellte Ansatz durch eine Reihe von Evaluierungsexperimenten und tatsächlichen Anwendungsfällen als effektiv validiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-60239-0_10 bada2e54e0865df4333aabd019dbb391;de;;;6.1.;;;Anonymous-CPABE: Offenlegung von Inhalten mit Datenschutz für die Datenfreigabe in der Cloud Gesundheitsdienstleister nutzen Cloud Computing in großem Umfang, um die elektronische Gesundheitsakte (EHR) sicher zu teilen. Die gesamten EHR-Daten können nicht an alle Benutzer mit unterschiedlichen Berechtigungsstufen weitergegeben werden, da sie datenschutzempfindlicher sind. Daher muss der Gesundheitsdienstleister einen Zugangskontrollmechanismus mit Schutz der Privatsphäre durchsetzen, um EHR effizient zu teilen. Der sichere Datenaustausch unter Wahrung der Privatsphäre ist eines der schwierigsten Probleme in der Cloud-Umgebung. Bestehende Zugriffskontrollmechanismen für die gemeinsame Nutzung von Daten berücksichtigen nicht die Privatsphäre von Personen, die Gegenstand der gemeinsam genutzten Daten sind, während sie Probleme mit dem Widerruf von Benutzern verhindern. Um diese Probleme anzugehen, schlagen wir eine neuartige Idee vor, bei der Benutzer, deren Attribute die Zugriffsrichtlinie erfüllen und Zugriffsrechte in der Zugriffszeit wirksam sind, die entsprechenden Daten wiederherstellen können. Das vorgeschlagene Schema ist in der Lage, Sicherheit, Integrität und Datenschutz zu gewährleisten, eine feingranulare Zugriffskontrolle zu gewährleisten und Data-Mining-Angriffe auf gemeinsam genutzte Daten zu verhindern. Obwohl sich dieses Papier auf die gemeinsame Nutzung von EPA konzentriert, kann es auf die gemeinsame Nutzung von Daten unter Wahrung der Privatsphäre verallgemeinert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16086-3_12 20a9055551cef61f3358766e08d568b5;de;;;6.1.;;;Auf dem Weg zu einem Framework für die datenschutzwahrende Datenfreigabe in tragbaren Clouds Cloud-Speicher ist eine kostengünstige und zuverlässige Lösung für Benutzer, um Daten mit ihren Kontakten zu teilen. Das Fehlen von Standardisierungs- und Migrationstools erschwert es Benutzern jedoch, zu einem anderen Cloud Service Provider (CSP) zu migrieren, ohne Kontakte zu verlieren, was zu einem Vendor-Lock-in-Problem führt. In dieser Arbeit wollen wir einen generischen Rahmen mit dem Namen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-62594-2_14 550d877a3803f7a12a5037dfd44d14ca;de;;;6.1.;;;Wiederverwendung historischer Messdaten und Ähnlichkeitsanalyse zur dimensionalen Produktionstoleranz von gespritzten Kunststoffteilen Geometrische Abweichungen sind in jedem Produktionsprozess vorhanden und müssen kontrolliert werden, um die Einhaltung der Designanforderungen zu gewährleisten und die Kosten zu minimieren. Die Toleranzen von Kunststoffspritzteilen (IPPs) werden in der Praxis meist ohne einheitliche Kriterien durchgeführt, was oft zu unnötig engen und mit den jeweiligen Fertigungsverfahren unvereinbaren Toleranzen führt. In diesem Papier wird eine neue Methode vorgeschlagen, um die dimensionale Produktionstoleranz von IPPs in frühen Designphasen zu unterstützen, basierend auf der Wiederverwendung historischer Messdaten und Ähnlichkeitsanalysen. Regelbasierte Schlussfolgerungen wurden zusammen mit einem Bewertungssystem verwendet, um zuverlässige und ähnliche Fälle zu identifizieren, die in einer Datenbank gespeichert sind und Attribute sowohl der Teile als auch der Dimensionsmerkmale beinhalten. Es wurden zwei verschiedene Ansätze für die Datenwiederherstellung in Betracht gezogen, die die Wahl zwischen einer vereinfachten und einer genaueren Analyse ermöglichen. Die Machbarkeit der Methode wird anhand einer Fallstudie mit 20 verschiedenen IPPs und 24 Dimensionsmerkmalen von drei Anbietern demonstriert. Die vorgeschlagene Methode übertraf die Anwendung der Norm DIN 16742 zur Abschätzung von Fertigungstoleranzen. Vergleiche zwischen den geschätzten Produktionstoleranzen und den jeweiligen Prozessfähigkeiten ergaben eine maximale mittlere absolute Abweichung von 10 % und Pearsons;-;-;-;https://link.springer.com/article/10.1007/s40430-017-0888-4 0672bb4cd58ebbedc0201a4c0a42dfac;de;;;6.1.;;;Fallstudien - Informationssystembasiertes Asset Management In Kapitel 5 wurden die Forschungsmethodik und Datenerhebungsmethoden für diese Forschung beschrieben. Dieses Kapitel berichtet über die drei Fallstudien, die in australischen Vermögensverwaltungsorganisationen durchgeführt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-4234-0_6 5bb94113ee74f2050a8248bb6d361310;de;;;6.1.;;;Intrusion Detection and Prevention-Systeme: Eine aktualisierte Überprüfung Die Entwicklung der Informationstechnologie (IT), die in unseren täglichen Bemühungen mehrere Grenzen durchdringt, ermöglicht es uns, mit allen Formen von Daten auf verschiedenen OSI-Modellebenen von der Anwendung bis zur Physik zu interagieren. Diese Daten sind anfällig für Eindringlinge, die darauf abzielen, ihre Integrität zu gefährden. Daher kann die Notwendigkeit, diese Daten zu schützen, ihre Integrität, Vertraulichkeit und Verfügbarkeit zu wahren, nicht genug betont werden. Intrusion Detection and Prevention System (IDPS) ist ein Gerät oder eine Softwareanwendung zur Überwachung eines Netzwerks oder Systems. Es erkennt Schwachstellen, meldet böswillige Aktivitäten und ergreift Präventivmaßnahmen, um mit der Weiterentwicklung computerbezogener Kriminalität mit verschiedenen Reaktionstechniken Schritt zu halten. Dieses Papier präsentiert eine aktualisierte Überprüfung zu IDPSs, da die letzte Überprüfung zu diesem Thema im Jahr 2016 durchgeführt wurde. Es wird auch die Verwendung von IDPSs zur Identifizierung von Schwachstellen in verschiedenen Kanälen erörtert, über die auf Daten in einem Netzwerk oder System zugegriffen wird, und Präventionsmechanismen zur Abwehr von Eindringlingen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9949-8_48 2f8ca55ba6b91276377d789ab0dfbb0a;de;;;6.1.;;;Die Ich-Leitlinie für Stabilitätstests – welche Matrixing erlaubt sie? Dieses Papier untersucht die Zulässigkeit von Matrixdesigns bei Stabilitätstests, die in der internationalen Richtlinie der International Conference on Harmonization (ICH) von 1993 für Stabilitätstests von neuen Arzneimittelsubstanzen und -produkten enthalten sind. Der Artikel stellt zunächst einige Konzepte verschiedener Arten von statistischen Designs für Stabilitätstests vor, einschließlich der allgemeinen Konzepte von Bracket- und Matrixdesigns. Zweitens wird die Definition von Matrixbildung in der Leitlinie und die damit verbundene Definition eines Arzneimittels neu formuliert. Es versucht dann zu verstehen, was die Matrixdefinition tatsächlich in einem Design für Stabilitätstests zulässt. Schließlich schlägt das Papier vor, dass die Definition der ICH-Leitlinie von Matrixing den neuen Arzneimittelsponsor zweifeln lässt, was Matrixing wirklich ist oder was in einem statistischen Design für Stabilitätstests unter der Bezeichnung „Matrixing“ erlaubt sein könnte. Die Interaktion mit der Food and Drug Administration (FDA) wird zitiert, um die Sicht der Agentur auf die ICH-Zulassung für Matrixdesigns darzustellen.;-;-;-;https://link.springer.com/article/10.1177/009286159803200229 61e6e005d12317199d907dbcb4a265e8;de;;;6.1.;;;Umweltbewertung und Wiederherstellung der Taifun-Katastrophe Morakot: Eine Fallstudie in Kaohsiung, Chinese Taipei Im August 2009 erlebte Chinesisch Taipeh die schlimmsten Überschwemmungen seit 50 Jahren, nachdem der Taifun Morakot fast die gesamte südliche Region heimgesucht hatte. Während des dreitägigen Ereignisses brachte der Taifun Morakot reichlich Niederschlag mit einem Höchstwert von 2.500 mm, der schwere Überschwemmungen in der gesamten Region auslöste. Das Kaoping-Flussbecken war eine der am stärksten betroffenen Regionen im Süden Taiwans. Im oberen Einzugsgebiet des Kaoping-Flussbeckens wurde das Shaolin-Dorf durch die Überschwemmungen vollständig zerstört und mehr als 500 Dorfbewohner wurden durch den Schlammfluss begraben. Nach der Überschwemmung initiierten Forscher und Freiwillige lokaler Universitäten, Regierungsbehörden und Nichtregierungsorganisationen (NGOs) gemeinsam ein Umweltverträglichkeits-, Überwachungs- und Wiederaufbauprojekt und bildeten ein Untersuchungsteam für das Katastrophengebiet. Die Hauptaufgaben des Freiwilligenteams bestanden darin, (1) Feld- und Umweltdaten zu sammeln, (2) ein geografisches Informationssystem (GIS) für Katastrophengebiete aufzubauen, (3) umweltsensible Gebiete abzugrenzen, (4) Opferberatung und -hilfe zu leisten, und (5) Entwicklung von Umweltsanierungsplänen. Die Ergebnisse der Felduntersuchungen zeigen, dass es innerhalb des Beckens mehr als 15 potenzielle Gefahrenbereiche gibt, die hauptsächlich (1) potenzielle Überschwemmungs- und Erdrutschgebiete, (2) potenzielle Verschmutzungsgebiete (einschließlich Mülldeponien und überflutete Industriestandorte) sind und (3) Quellwasseraufnahmebereich. Da sich das Shaolin Village in einem potentiellen Überschwemmungs- und Erdrutschgebiet befindet, wurde in einem tieferen Einzugsgebiet außerhalb des abfallenden Feldes ein neues grünes und nachhaltiges Dorf (Shaolin Green Village) gebaut. Im grünen Dorf verfügt jedes Haus über eine Solaranlage zur Stromerzeugung und ein Regenwasserauffangsystem zur Bewässerung. Für die Abwasserbehandlung wurden ein Vor-Ort-Behandlungssystem und ein unterirdisches Feuchtgebietssystem entwickelt, und das aufbereitete Wasser wurde zu Bewässerungszwecken recycelt. Die Erfahrungen und Erkenntnisse aus dieser Studie wären hilfreich bei der Entwicklung von Strategien zur Minimierung der Auswirkungen von Überschwemmungen auf das Kaoping-Flussbecken und andere ähnliche Wassereinzugsgebiete.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-4223-9_8 d580b79722e88db0c60458542501d40a;de;;;6.1.;;;Die Rolle von Datenbanken in wissensbasierten Systemen Dieses Papier untersucht die Anforderungen an Datenbanktechniken beim Aufbau wissensbasierter Systeme. Drei wissensbasierte Systeme werden überprüft: XCON/R1, ISIS und Callisto, um die Datenbankanforderungen zu ermitteln. Diese Anforderungen führen zur Einführung der Organisationsebene und zur Erweiterung der von Newell eingeführten Symbol- und Wissensebene. Eine Umsetzung dieser Anforderungen wird im SRL-Wissensrepräsentations- und Problemlösungssystem untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-4980-1_32 28429dd531210c0a73306715da1057d0;de;;;6.1.;;;E-Health: Hintergrund, heutige Umsetzung und zukünftige Trends Die Analyse wird den Gesamtkontext, einschließlich sozialer, ethischer und technologischer Aspekte, angemessen berücksichtigen. Es zeichnet ein „großes Bild“, bei dem wir verschiedene Regionen der Welt und unterschiedliche Bedürfnisse berücksichtigen. Das Kapitel skizziert, inwieweit E-Health echte Innovation darstellt, dh positive Auswirkungen auf die Gesellschaft hat und das Leben der Bürger im weitesten Sinne verbessert. Wir alle wissen, dass sich der Gesundheitssektor von Land zu Land als einzigartige Mischung aus öffentlichen, nicht lizenzierten privaten, privaten und sogar freiwilligen Dienstleistungen unterscheidet, nicht zu vergessen Versicherungsunternehmen. Ausgehend von den heutigen Mehrwertanwendungen werden wir versuchen, zukünftige Trends und Ziele zu identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-01842-9_1 31020afa949a3277cf976e42c3382212;de;;;6.1.;;;G-Grid: Eine Klasse skalierbarer und selbstorganisierender Datenstrukturen für mehrdimensionale Abfragen und Content-Routing in P2P-Netzwerken Peer-to-Peer (P2P)-Technologien versprechen eine effiziente Verteilung, gemeinsame Nutzung und Verwaltung von Ressourcen wie Speicher, Verarbeitung, Routing und andere verschiedene Servicefunktionen über autonome und heterogene Peers. Die meisten aktuellen P2P-Systeme unterstützen jedoch nur rudimentäre Abfrage- und Inhaltsweiterleitung über ein einzelnes Datenattribut, wie beispielsweise die in Napster, Gnutella und so weiter verbreiteten Filesharing-Anwendungen. Vollwertige Anwendungen im verteilten Datenmanagement und Grid-Computing erfordern komplexere Funktionen, einschließlich Abfragen und Inhalts-Routing über mehrere Attribute. In diesem Beitrag stellen wir eine Klasse skalierbarer und selbstorganisierender mehrdimensionaler verteilter Datenstrukturen vor, die in der Lage sind, Reichweitenabfragen in vollständig dezentralisierten dynamischen P2P-Umgebungen effizient durchzuführen. Diese Strukturen werden dem Peer-Netzwerk nicht a priori auferlegt. Sie entstehen vielmehr aus den unabhängigen Interaktionen autonomer Peers. Sie sind auch an unvorhergesehene Änderungen in der Netzwerktopologie anpassungsfähig. Diese Robustheitseigenschaft erweitert ihren Nützlichkeitsbereich auf viele Anwendungsbereiche wie mobile Ad-hoc-Netzwerke.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-25840-7_13 62625008cfb646bfeb2ceb2052d500eb;de;;;6.1.;;;Aufbau interaktiver Beziehungen zwischen Kunden und Lieferanten Eine der wichtigsten Investitionen in die Informationstechnologie besteht heute darin, Unternehmen beim Einstieg in den E-Business zu unterstützen. Dies ist teilweise auf Markt- und Geschäftsveränderungen zurückzuführen, die die Etablierung einer schnellen, kontinuierlichen und sicheren Interaktion zwischen Handelspartnern erfordern. Es wurden bereits verschiedene E-Business-Frameworks vorgeschlagen, die auf alternativen Standards zum Ausdruck und Austausch von Geschäftsdokumenten basieren. Allerdings sollte man bedenken, dass viele Unternehmen bereits Legacy-Systeme einsetzen und keine Lust auf ein Reengineering ihrer bestehenden Geschäftsanwendungen haben, während andere keine Erfahrung mit der Nutzung eines Unternehmenssystems oder gar der elektronischen Abwicklung jeglicher Art von Geschäften haben. Dieses Papier beschreibt ein offenes Informationsmanagementsystem, das darauf abzielt, die oben genannten Probleme anzugehen. Das vorgeschlagene Framework ist internetbasiert, nutzt die Extensible Markup Language (XML) und integriert effizient Standardanwendungen, um die Interaktion zwischen Parteien mithilfe ihrer eigenen, auf Electronic Data Interchange (EDI) basierenden Unternehmenssysteme und anderer, die nur eine Verbindung zum Internet haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-0595-2_46 464583c6cd1ebf70ab0facdd39166c59;de;;;6.1.;;;Die Common Instrument Middleware-Architektur Aus der Zahl der E-Science-Projekte mit Fernzugriff auf Instrumente geht klar hervor, dass der Fernzugriff und die gemeinsame Nutzung von Einrichtungen ein wachsendes Problemfeld sind. In diesem Kapitel diskutieren wir das Common Instrument Middleware Architecture (CIMA)-Projekt, das von der US National Science Foundation (NSF) über die NSF Middleware Initiative finanziert wird. CIMA zielt darauf ab, ein Middleware-Set bereitzustellen, das die Entfernung von Instrumenten und Sensoren als Gemeinschaftsressourcen und den Aufbau von Kooperationen um gemeinsam genutzte Einrichtungen erleichtert. Wir geben einen Überblick über CIMA, diskutieren seine Beziehung zu einigen anderen Instrumenten-Fernzugriffsprojekten, untersuchen unsere Erfahrungen bei der Entwicklung und Anwendung der Architektur und freuen uns auf zukünftige Entwicklungsrichtungen für CIMA und seine Anwendungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09663-6_26 052b3d3d11cacd81ba66aac4515adc74;de;;;6.1.;;;Abfrageumformulierung in PDMS basierend auf sozialer Relevanz Wir betrachten Peer-to-Peer-Datenmanagementsysteme (PDMS), bei denen jeder Peer Zuordnungen zwischen seinem Schema und einigen Bekannten pflegt, zusammen mit sozialen Verbindungen zu Peer-Freunden. In diesem Zusammenhang beschäftigen wir uns mit der Umformulierung konjunktiver Anfragen aus dem Schema eines Peers in die Schemata eines anderen Peers. Genauer gesagt werden Abfragen an einen Peer-Knoten in Abfragen an andere Knoten unter Verwendung von Schema-Mappings umgeschrieben, wodurch Abfrage-Neuschreibungen erhalten werden. Leider sind nicht alle erhaltenen Umschreibungen für eine bestimmte Abfrage relevant, da der Informationsgewinn vernachlässigbar sein kann oder der Peer nicht erkundet werden sollte. Andererseits kann die Existenz sozialer Verbindungen zu Gleichaltrigen nützlich sein, um relevante Neufassungen zu erhalten. Daher schlagen wir einen neuen Begriff der „Relevanz“ einer Anfrage in Bezug auf eine Zuordnung vor, der sowohl eine lokale Relevanz (die Relevanz der Anfrage für die Zuordnung) als auch eine globale Relevanz (die Relevanz der Anfrage für das gesamte Netzwerk) umfasst. . Basierend auf dieser Idee haben wir einen neuen Ansatz zur Neuformulierung von Abfragen für soziales PDMS konzipiert, der eine hohe Genauigkeit und Flexibilität erreicht. Zu diesem Zweck kombinieren wir mehrere Techniken: (i) soziale Links werden als FOAF (Friend of a Friend)-Links ausgedrückt, um die Freundschaft von Gleichaltrigen zu charakterisieren, (ii) kurze Mapping-Zusammenfassungen werden verwendet, um Mapping-Beschreibungen zu erhalten, (iii) lokale semantische Ansichten ( LSV) sind spezielle Ansichten, die Informationen über Zuordnungen enthalten, die mithilfe von Klatschtechniken aus dem Netzwerk erfasst wurden. Unsere experimentelle Bewertung, die auf einem Prototyp auf PeerSim und einem simulierten Netzwerk basiert, zeigt, dass unsere Lösung im Vergleich zu den in der Literatur vorgeschlagenen traditionellen Ansätzen zur Übersetzung von Abfragen einen höheren Wiedererkennungswert bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54426-2_3 5859334d1b21a3345c15f5f55729d226;de;;;6.1.;;;Eine Übersicht über den spieltheoretischen Datenschutz für die gemeinsame Nutzung und Veröffentlichung von Daten Der Schutz der Privatsphäre ist eines der größten Anliegen beim Teilen und Veröffentlichen von Daten. Die weit verbreitete Anwendung der gemeinsamen Nutzung und Veröffentlichung von Daten trägt zur Nutzung von Daten bei, birgt jedoch ein erhebliches Risiko für Datenschutzverluste. Obwohl die entsprechenden Techniken zum Schutz der Privatsphäre vorgeschlagen wurden, ist es unvermeidlich, die Genauigkeit der Daten zu verringern. Noch wichtiger ist, dass es eine Herausforderung ist, das Verhalten und die Interaktionen zwischen verschiedenen Teilnehmern, einschließlich Datenbesitzern, Sammlern und Gegnern, zu analysieren. Dateneigentümer und -sammler müssen geeignete Mechanismen und Parameter zum Schutz der Privatsphäre auswählen, um ihren Nutzen unter einer bestimmten Datenschutzgarantie zu maximieren. Für Datengegner besteht das Ziel darin, durch verschiedene Angriffsmessungen an die sensiblen Informationen zu gelangen. In diesem Papier untersuchen wir die verwandte Arbeit des spieltheoretischen Datenschutzes unter Datenfreigabe und -veröffentlichung. Wir diskutieren auch mögliche Trends und Herausforderungen der zukünftigen Forschung. Unsere Umfrage bietet ein systematisches und umfassendes Verständnis von Problemen beim Schutz der Privatsphäre bei der Datenfreigabe und -veröffentlichung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9129-7_15 3dd712d4d4a361b4d8f0fd532d1a0409;de;;;6.1.;;;Der Stand der Technik der China-Seismo-Elektromagnetischen Satellitenmission Die Mission China Seismo-Electromagnetic Satellite (CSES) wurde 2003 vorgeschlagen und nach zehnjähriger wissenschaftlicher und technischer Demonstration im Jahr 2013 genehmigt. Um den wissenschaftlichen Anforderungen gerecht zu werden, soll sich der Satellit in einer sonnensynchronen Umlaufbahn mit einer Höhe von 507 km und einer absteigenden Knotenzeit von 14:00 LT befinden. Der CSES-Satellit trägt 8 Instrumente, darunter ein Suchspulen-Magnetometer (SCM), ein elektrischer Felddetektor (EFD), ein hochpräzises Magnetometer (HPM), ein GNSS-Okkultationsempfänger (GOR), ein Plasmaanalysatorpaket (PAP), eine Langmuir-Sonde (LAP), hochenergetisches Teilchenpaket (HEPP) und Detektor (HEPD) und Tri-Band Beacon (TBB), unter denen HEPD von der italienischen Weltraumorganisation bereitgestellt wird. Der Satellit CSES wurde am 2. Februar 2018 erfolgreich gestartet und ist für 5 Jahre geplant. Die CSES-Mission ist der erste Satellit in China, der geophysikalische Felder misst, was viele Anwendungsperspektiven in der Seismologie, Geophysik, Weltraumwissenschaften usw. bieten wird.;-;-;-;https://link.springer.com/article/10.1007/s11431-018-9242-0 ecc766db2e622e3bf5b884e1fd871ce0;de;;;6.1.;;;Experimentelle Identifizierung von technischen und datenbankbasierten Faktoren, die den Erfolg klinischer Computersysteme beeinflussen können Die Eingabe klinischer Daten in Computersysteme ist eine äußerst anspruchsvolle Form der Transaktionsverarbeitung. Hohe Geschwindigkeit ist wichtig, insbesondere wenn es sich bei der Erfassung um Echtzeitdaten handelt. Kliniker müssen das Gefühl haben, dass sie ein System intuitiv verstehen und dass es reagiert. Medizinische Daten müssen leicht untergebracht werden können, ohne an Genauigkeit oder Vollständigkeit einzubüßen. Die meisten Systeme können dies nicht. Klinische Systeme, die eine Online-Speicherung von Patientendaten beinhalten, sollten Datenbanktechnologie verwenden. Systeme, denen eine der folgenden Fähigkeiten fehlt, werden nicht erfolgreich sein: manuelle Dateneingabe, ein Datenwörterbuch, ein Dateisystem, Dienstprogrammfunktionen, Ad-hoc-Abfragen und ein Generator für statistische Berichte. Diese allgemeinen Fähigkeiten müssen eine Reihe spezifischer funktionaler Anforderungen erfüllen, wenn das Gesamtsystem erfolgreich sein soll. Eine Gruppe solcher Anforderungen wurde experimentell validiert. Diese werden besprochen und eine umfassendere Liste präsentiert.;-;-;-;https://link.springer.com/article/10.1007/BF02915909 99ac64b20fd5ec4d3c759c2cbce2da78;de;;;6.1.;;;Auf dem Weg zu einer Bioinformatik-Pipeline mit mehreren Ansätzen auf der Grundlage von Big Data und Cloud Computing für die Sequenzierungsdatenanalyse der nächsten Generation Bioinformatik-Pipelines sind ein wesentlicher Bestandteil der Sequenzierung der nächsten Generation. Trotz der rasanten Entwicklung von Open-Source-Software für die Datenanalyse bleibt der Einsatz dieser Werkzeuge durch die Entwicklung von Bioinformatik-Pipelines für die Sequenzanalyse eine Herausforderung und zeitraubende Aufgabe für akademische Forschungseinrichtungen und klinische Labore. Die Auswahl geeigneter analytischer Softwaretools, Big-Data-Speicherlösungen und Cloud-Infrastruktur zur Verwaltung der großen Menge an biologischen Daten, die durch experimentelle Hochdurchsatztechnologien generiert werden, erfordert umfangreiches Bioinformatik-Know-how. Wir schlagen ein bioinformatisches Pipeline-Framework für die DNA-Sequenzierungsanalyse vor. Diese Pipeline ist eine Lösung für die schnelle und effiziente Bereitstellung der Workflow-Pipeline in Institutionen und Labors, die reproduzierbare Ergebnisse basierend auf virtuellen Maschinentechnologien ermöglicht. Es ist in der Lage, die Referenzsequenz und den De-novo-Assembly (ohne Referenzgenom) für Krankheitsstudien zu unterstützen. Die Pipeline ist flexibel und bietet die Möglichkeit, drei Ansätze für die DNA-Sequenzierung zu verwenden, wie das gesamte Genom, das gesamte Exom und die gezielte Sequenzierung. Die Pipeline berücksichtigt sowohl die Ganz- als auch die Exom-Sequenzierung, um signifikante Analyseergebnisse zu ermöglichen und gleichzeitig hohe positive Vorhersagen zu erhalten. Wenn die Analyse fehlschlägt oder Forscher die Wahl haben, die Ergebnisse zu interpretieren, müssen gezielte Resequenzierungen untersucht werden. Die unterstützten Analysen sind: funktional, strukturell und statistisch. Aufgrund unterschiedlicher Datenquellen, Speicheranforderungen und der Notwendigkeit einer skalierbaren Analyse biologischer Daten nutzte die Pipeline Big-Data-Technologien für die Speicherung und Verwaltung und kann auch in der Cloud bereitgestellt werden, was den Zugriff ohne Investitionsaufwand für zusätzliche Hardware ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36664-3_43 08cef379ff98e5760ca392c86de8ff20;de;;;6.1.;;;Zukünftige Anwendungsarchitektur für die Pharmaindustrie Wie in Kapitel 2 beschrieben, finden im Informationszeitalter tiefgreifende Veränderungen in der Art und Weise statt, wie Geschäfte abgewickelt werden. Ein hervorragendes Beispiel liefert Cisco, der führende Anbieter von Internet-Equipment wie Routern, Switches und dergleichen. Der Umsatz von rund 8 Milliarden US-Dollar zeigt, dass nur wenige Unternehmen die weitreichenden Management-Konsequenzen neuer Technologien besser verstanden haben als Cisco. Das Unternehmen war immer an vorderster Front, wenn es darum ging, Managementpraktiken durch den Einsatz neuer Technologien zu verändern. Cisco ist durch und durch als Netzwerk organisiert. Bestehende und potenzielle Kunden, Lieferanten, weitere Geschäftspartner und Mitarbeiter sind eng miteinander verzahnt. In diesem Jahr erwartet Cisco, Produkte für mehr als 5 Milliarden US-Dollar (mehr als die Hälfte des Gesamtumsatzes) über das Internet zu verkaufen. Die Business-Networking-Lösung von Cisco verbindet die Systeme von Zulieferern, Auftragsfertigern und Monteuren mit den Produktionsabläufen von Cisco. Nach außen, also gegenüber Kunden, erscheint Cisco als ein einziges Unternehmen. Über das Cisco Intranet bearbeiten die Vertragspartner direkt die Bestellungen der Kunden von Cisco und liefern die Auswahl der bestellten Artikel direkt an den Käufer, häufig ohne dass Cisco die Artikel überhaupt sieht. Durch die Auslagerung von 70 % der Produktion konnte Cisco seinen Umsatz ohne zusätzliche Anlagen vervierfachen und obendrein die Time-to-Market für neue Produkte um zwei Drittel verkürzen. Gleichzeitig werden sieben von zehn Kundenanfragen zur technischen Hilfeleistung elektronisch bearbeitet, und dies bei hoher Kundenzufriedenheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-56502-1_8 6cda95eb492b0a34410aa9c301592e6e;de;;;6.1.;;;Chitotriosidase-Aktivität im Plasma im Vergleich zum CCL18-Spiegel zur Beurteilung des Schweregrads der Gaucher-Krankheit Typ I: Protokoll für eine systematische Überprüfung mit Metaanalyse der Daten einzelner Teilnehmer Die Gaucher-Krankheit (GD) ist eine autosomal-rezessiv vererbte lysosomale Speicherkrankheit, die durch einen Mangel an saurer Beta-Glucosidase verursacht wird. GD weist ein breites klinisches Spektrum an Schweregrad der Erkrankung mit einem unvorhersehbaren natürlichen Verlauf auf. Die Plasma-Chitotriosidase-Aktivität und der CC-Chemokinligand 18 (CCL18) wurden austauschbar zur Überwachung der GD-Aktivität und des Ansprechens auf eine Enzymersatztherapie in Verbindung mit der klinischen Bewertung verwendet. Ein groß angelegter Head-to-Head-Vergleich dieser beiden Biomarker fehlt jedoch derzeit. Wir schlagen eine kollaborative systematische Überprüfung mit Meta-Analyse der individuellen Teilnehmerdaten (IPD) vor, um die Genauigkeit der Plasma-Chitotriosidase-Aktivität und CCL18 bei der Beurteilung des Schweregrads der GD vom Typ I (d. h. nicht-neuropathisch) zu vergleichen.;-;-;-;https://link.springer.com/article/10.1186/s13643-017-0483-x ab3e85780a1d97d4362bbb0e9073863f;de;;;6.1.;;;Verknüpfung von Partnergewaltüberlebenden mit unterstützenden Diensten: Auswirkungen des M Health Community Network-Projekts auf die Inanspruchnahme der Gesundheitsversorgung Gewalt in der Partnerschaft (IPV) ist mit negativen Auswirkungen auf die Gesundheit und einer erhöhten Inanspruchnahme der Gesundheitsversorgung verbunden. Es hat sich gezeigt, dass Interventionen auf Systemebene bei der Identifizierung und Überweisung von Überlebenden wirksam sind, aber es ist wenig darüber bekannt, wie sich diese Strategien auf die zukünftige Nutzung auswirken.;-;-;-;https://link.springer.com/article/10.1186/s12913-019-4313-9 a1f61085bb7066987a5d7b7f53b0809e;de;;;6.1.;;;Das einheitliche Konzept Komplexe Systeme bestehen aus einer Vielzahl von Objekten/Agenten/Komponenten, die auf komplizierte Weise interagieren. Das dynamische Verhalten solcher Systeme kann nur mit einem korrekten Modell verstanden werden, das gründlich in handhabbare Teile zerlegt wird. Heutzutage werden mit der Leistungsfähigkeit von Computersimulation und Software immer komplexere Systeme in vielen Bereichen versucht, die sich über Natur-, Wirtschafts-, Sozialwissenschaften usw. erstrecken. Darüber hinaus sind die Techniken zur Komplexitätsreduktion, die zur Analyse komplexer Systeme erforderlich sind, in allen Disziplinen grundsätzlich gleich. Derzeit besteht großes Interesse daran, Forscher mit unterschiedlichem Hintergrund für eine wirklich multidisziplinäre Zusammenarbeit zusammenzubringen. Die Frage lautet: „Können wir uns wirklich einen vereinheitlichenden Modellierungsformalismus vorstellen, der über mehrere Disziplinen hinweg verwendet werden kann?“ Unser Forschungsversuch zielt darauf ab, das Objektparadigma als Ausgangspunkt zu nutzen. Da die UML eine grafische Notation implementiert, die mit dem Objektparadigma verwendet wird, ist es natürlich, die UML in das Originalpaket aufzunehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-5977-3_6 b8a07e8ec34f6ee6d367313b03a66d82;de;;;6.1.;;;Formale Spezifikation der Ein wichtiges Thema bei Systemarchitekturen ist die Gewährleistung, dass das ausführbare Verhalten eines bestimmten Modells genau dem vom Systemarchitekten beabsichtigten entspricht. Grafische Notationen erscheinen intuitiv genug, um fast auf den ersten Blick gut verstanden zu werden. Ihnen fehlt jedoch typischerweise die genaue mathematische Grundlage, die erforderlich ist, um sie wirklich eindeutig zu machen. Im Gegenteil, Formalisierungsversuche können leicht recht komplex werden. Aus diesem Grund verwenden wir den Begriff der ASMs, um die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30496-0_7 b532355d38cb473e0ea670f26e80d0a1;de;;;6.1.;;;Pekings öffentliche Dienste auf einer neuen Stufe der Qualitätsverbesserung Peking erfährt im Zuge seiner Entwicklung eine Transformation und Aufwertung. Eine neue Stufe der Qualitätsverbesserung für öffentliche Dienstleistungen wurde eingeleitet, und Reformen in den Bereichen Wissenschaft und Technologie, Bildung und Kultur wurden beschleunigt und wirksamer. Parallel zu den Reformen des Krankenversicherungssystems wurde die soziale Sicherheit stetig verbessert. Die Fähigkeiten zur Unterstützung der Stadtoperationen wurden verbessert, und die Regierung der öffentlichen Sicherheit ist weiterhin stabil. Im Bereich der Luftreinhaltung wurden wichtige Fortschritte erzielt, und der Umweltschutz ist für die Stadt zu einer Priorität geworden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6752-6_3 9bafba48e322b858720424753e23eefb;de;;;6.1.;;;Die Architektur von HRIS Obwohl dies ein sehr technisches Kapitel für öffentliche Administratoren ist, ist es für öffentliche Administratoren von entscheidender Bedeutung, zu verstehen, was HRIS ist und wie es funktioniert. Wie von SHRM angegeben:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-75111-1_4 9bea2afc0132e7e4109616fbf46728e9;de;;;6.1.;;;Fachbuchverlage in Deutschland: Kurzbericht 2011 In ihrem Artikel stellt Veronika Licher einige Trends und Entwicklungen in der deutschen Verlagsbranche im Jahr 2011 vor. Sie berichtet, wie der Deutsche Buchhandelsverband einschließlich des Buchgroßhandels versucht, neue Dienstleistungen hinzuzufügen, um sich an die herausfordernden sich verändernden Märkte anzupassen – was nicht immer gelingt erfolgreich zu sein und Anlass zu vielen internen und externen Diskussionen zu geben. Immer mehr Nicht-Publisher treten auf die Bühne. Es gibt einen Trend, in die deutsche Hauptstadt Berlin als Basislager oder Standort für publikationsnahe Dienstleistungen und in einigen Fällen auch für Verlage selbst zu ziehen.;-;-;-;https://link.springer.com/article/10.1007/s12109-012-9259-2 6b8abfbc5ec9e1f6f8070e2a53725a31;de;;;6.1.;;;Der Allen-Gehirn-Atlas: Bereitstellung von Neurowissenschaften für das Web auf einer genomweiten Skala Der Allen Brain Atlas (ABA), öffentlich zugänglich unter http://www.brain-map.org, präsentiert die Expressionsmuster von mehr als 21.500 Genen im erwachsenen Mausgehirn. Das Projekt hat mehr als 600 Terabyte In-situ-Hybridisierungsdaten auf zellulärer Ebene produziert, deren Bilder rekonstruiert und in 3D-Vollhirnvolumen zum Suchen und Betrachten abgebildet wurden. In diesem Anwendungspapier skizzieren wir den Bioinformatik-, Datenintegrations- und Präsentationsansatz für die ABA und die Erstellung einer vollautomatischen Hochdurchsatz-Pipeline, um diesen Datensatz ins Web zu liefern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73255-6_4 519fde464a5a19002e4f05846eee09a6;de;;;6.1.;;;Festkörperelektrolyte für Lithium-Ionen-Batterien: Grundlagen, Herausforderungen und Perspektiven Mit der schnellen Popularisierung und Entwicklung von Lithium-Ionen-Batterien haben die damit verbundenen Sicherheitsprobleme, die durch die Verwendung von brennbaren organischen Elektrolyten verursacht werden, zunehmende Aufmerksamkeit auf sich gezogen. Um dies anzugehen, sind Festkörperelektrolyte aufgrund ihrer hohen Sicherheit und Energiedichte in den Fokus der Forschung sowohl für wissenschaftliche als auch für industrielle Gemeinschaften gerückt. Trotz dieser vielversprechenden Aussichten stehen Festkörperelektrolyte jedoch mehreren erheblichen Hindernissen gegenüber, die eine Kommerzialisierung behindern, einschließlich unzureichender Lithiumionenleitung und Überspannungsimpedanz an der Grenzfläche zwischen Festkörperelektrolyten und Elektroden. Darauf aufbauend bietet dieser Aufsatz eine Einführung in typische Lithium-Ionen-Leiter mit anorganischen, organischen und anorganisch-organischen Hybridelektrolyten sowie die Mechanismen der Lithium-Ionen-Leitung und entsprechende Einflussfaktoren auf die Leistung. Darüber hinaus wird dieser Aufsatz aufkommende und fortgeschrittene Charakterisierungstechniken umfassend diskutieren und zugrunde liegende Strategien zur Verbesserung der Ionenleitung zusammen mit zukünftigen Entwicklungstrends vorschlagen.;-;-;-;https://link.springer.com/article/10.1007/s41918-019-00048-0 35d8a560ce4f94ec890730052d2acf82;de;;;6.1.;;;Systemnetzwerkarchitektur von IBM Ein Netzwerk ist mehr als nur eine Ansammlung von Maschinen und Kommunikationsleitungen. Ein richtig entworfenes Netzwerk dient einem bestimmten Zweck für einen bestimmten Benutzer oder eine bestimmte Benutzerklasse. Um Netzwerke für verschiedene Benutzer und Zwecke zu entwerfen und gleichzeitig den Entwurfsaufwand zu minimieren, kann man eine Netzwerkarchitektur verwenden. In diesem Kapitel betrachten wir die von einem Netzwerk bereitgestellten Dienste, untersuchen, was eine Architektur ist, und betrachten dann die Systemnetzwerkarchitektur (SNA)*, ihre Entwurfsprinzipien und wie sie es einem Netzwerk ermöglicht, die erforderlichen Dienste bereitzustellen. Unsere Diskussion der Architektur erfolgt in zwei Hauptabschnitten, dem Transport von Daten und der verteilten Programmierung. Wir haben versucht, die Menge an Fachjargon in dieser Beschreibung von SNA zu minimieren. Notwendige neue Begriffe werden kursiv eingefügt. Nach einem Blick auf die Architektur schließen wir mit einer Diskussion darüber, wie SNA die zugrunde liegenden Prinzipien angewendet hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0809-6_16 60ee5705f66c47dd6cd84c137127a627;de;;;6.1.;;;Ein agentenbasiertes Active Portal Framework Das Papier stellt ein agentenbasiertes aktives Portal-Framework vor. Ziel ist es, den Aufbau aktiver Portale für verschiedene Zwecke zu unterstützen, beispielsweise für öffentliche Internetnutzer, für bestimmte Gruppennutzer, für die Lehre oder für die Finanzierung. Agenten in einem Portal können autonome Aktionen ausführen, um die gemeinsam nutzbaren Ressourcen zu erfassen, auszuwählen, zu organisieren und zu analysieren. Diese Aktionen werden traditionell von einer Reihe von Personen durchgeführt, die als Informationsingenieure oder Wissensingenieure bezeichnet werden. Durch den Einsatz der Agenten kann das Portal den Benutzern die neu erstellten und geänderten Ressourcen an unterschiedlichen Stellen verteilt schnell zur Verfügung stellen und die Kosten für die Aktionsausführungen werden erheblich reduziert. Das Framework wird auf die aktive Portalentwicklung angewendet, um die Entwicklungszeit und -kosten zu reduzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39597-3_19 959b50fcc711bf7e91d8b21e9bcbfd01;de;;;6.1.;;;Referenzmodelle der kanadischen Regierungen Seit über 20 Jahren verwenden kanadische Regierungen auf allen Ebenen einen gemeinsamen Satz von Referenzmodellen, um die Regierungsgeschäfte zu beschreiben. Nach umfangreichen Erfahrungen auf allen Regierungsebenen in Kanada haben sich diese Modelle im Laufe der Zeit bewährt, haben sich in vielen Rechtssystemen als nützlich erwiesen und bieten durchweg bessere Einblicke als andere Modelle, die weniger auf die besonderen Merkmale der Regierung abgestimmt sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-54267-4_7 abd6a4021c579538f5406389846dd6d6;de;;;6.1.;;;Agentenserviceorientiertes Detaildesign Im vorherigen Kapitel wurde das auf Agentendienste ausgerichtete Architekturdesign vorgestellt. In diesem Kapitel wird die Detailplanung behandelt. Wir beschreiben zunächst die Agentendienst-Ontologie, die der Schlüssel zur Darstellung von Agentendiensten mit dem Ziel einer generischen und konsistenten Anwendung ist. Endpunktschnittstellen für den Agentendienst werden ebenfalls beschrieben. Die Managementarbeit zu Verzeichnis, Kommunikation, Transport, Vermittlung, Ermittlung und anderen Themen wird basierend auf der Diskussion in Kap.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-6551-4_11 fb6360a010706c53d5ba5d96ab0e6b5e;de;;;6.1.;;;Studie zur Klassifikation verteidigungswissenschaftlicher und technischer Informationen in Korea Die koreanische Regierung hat 2015 das Gesetz zur Sicherheit von Verteidigungsindustrietechnologien erlassen und die Liste der für die nationale Sicherheit zu schützenden industriellen Verteidigungstechnologien bekannt gegeben. Dementsprechend sollten Unternehmen der Verteidigungsindustrie das wehrtechnische Schutzsystem einrichten und die gesetzlich vorgesehenen wehrtechnischen Informationen schützen. Derzeit versucht die koreanische Regierung, ein Klassifikationssystem für verteidigungswissenschaftliche und technische Informationen zu entwickeln. In diesem Papier untersuchen wir ein Klassifikationssystem verteidigungswissenschaftlicher und technischer Informationen. Dazu analysieren wir die derzeit vom koreanischen Verteidigungsministerium betriebenen Richtlinien und das Klassifikationssystem für wissenschaftliche und technische Informationen des US-Verteidigungsministeriums. Dann schlagen wir ein Klassifikationssystem vor, das auf dem koreanischen System basiert und das US-System übernimmt, um die Mängel zu ergänzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-95174-4_11 37264915cdbda6257b3d1a37c6bca16f;de;;;6.1.;;;Allgegenwärtiges RFID: Wo stehen wir? Nach über einem halben Jahrhundert der Entwicklung beginnt die Radiofrequenz-Identifikation (RFID) sich in Mainstream-Anwendungen für die automatische Identifikation zu etablieren. RFID wird heute allgemein als eine der Schlüsseltechnologien des „Internet der Dinge“ angesehen. Es müssen jedoch noch viele Herausforderungen angegangen werden, bevor wir vollständig von dieser aufkommenden und allgegenwärtigen Technologie profitieren können. In diesem Papier stellen wir den Stand der Technik der RFID-Technologie vor und diskutieren die Herausforderungen und offenen Fragen bei der Entwicklung von RFID-Anwendungen der nächsten Generation.;-;-;-;https://link.springer.com/article/10.1007/s10796-009-9212-x 7930ad682bcb7624f09e0409cfb95b94;de;;;6.1.;;;Robotersysteme für die kombinatorische Elektrochemie Ziel dieses Kapitels ist es, den aktuellen Stand der Technik auf dem Gebiet der kombinatorischen Elektrochemie mit dem Schwerpunkt auf plattenbasierten Technologien darzustellen. Es konzentriert sich insbesondere auf die Entwicklung und den Einsatz elektrochemischer Robotersysteme.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-73713-3_14 1ff71c9ab42fefc7bbe86249a58ff6a3;de;;;6.1.;;;Einsatz elektronischer Patientenakten und Pflegebeurteilung zur Neugestaltung klinischer Früherkennungssysteme Da Gesundheitsorganisationen von Papier- auf elektronische Dokumentationssysteme umstellen, kann die elektronische Erfassung der Pflegebewertung eine grundlegende Rolle bei der Transformation der Gesundheitsversorgung spielen. Insbesondere in der Gesundheitsprävention kann die elektronische Erfassung der Pflegebeurteilung in Kombination mit einer Vitalparameter-basierten Überwachung die Früherkennung einer physiologischen Verschlechterung von Patienten unterstützen. Während lebenszeichenbasierte Frühwarnsysteme das Potenzial haben, Signale einer physiologischen Verschlechterung zu erkennen, bleiben ihre klinische Interpretation und Integration in den Arbeitsablauf in der Krankenhausversorgung eine Herausforderung. Diese Studie präsentiert einen klinischen Früherkennungsalgorithmus, der elektronische Gesundheitsakten (EHRs) in Verbindung mit einem elektronischen Nurse Screening Assessment (NSA) verwendet, das auf verschiedene Gesundheitsbewertungskategorien und seine Integration in den Pflegeworkflow abzielt. Die Daten wurden retrospektiv von einer einzigen Institution erhoben (;-;-;-;https://link.springer.com/article/10.1057/hs.2015.19 aa3272a9f05b97e791dba582a174dfee;de;;;6.1.;;;NAB (B): Akquisitionsstrategie der NAB Die Akquisitionsstrategie der NAB war im Allgemeinen darauf ausgerichtet, die Position des Konzerns in den ausgewählten Märkten durch den Kauf von Privatkundenbanken mit einem starken Privatkundengeschäft zu stärken. Sie hatte sich auch auf den Aufbau von Schlüsselkompetenzen und die Entwicklung einer kritischen Masse bei ausgewählten Finanzdienstleistungsaktivitäten durch Akquisitionen und internes Wachstum konzentriert. Die Fähigkeit der NAB, sich an der weiteren Rationalisierung des Bankensektors in Australien zu beteiligen, war durch das Verbot der Fusion großer Banken in Australien durch die Commonwealth-Regierung eingeschränkt worden. Also sah es woanders aus. Bis zum Ende des letzten Jahrhunderts wurde ein internationales Netzwerk aufgebaut, und Pläne für ein weiteres Wachstum waren im Gange.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9430-4_7 45c7eec450c51d3caed2afc19768c9ca;de;;;6.1.;;;Die unverzichtbare Toolbox der Data Science: Python, R, Git und Docker Die tägliche Arbeit in Data Science umfasst eine Reihe wesentlicher Werkzeuge: die Programmiersprachen Python und R, das Versionskontrolltool Git und das Virtualisierungstool Docker. Für Data Science sind Kenntnisse in mindestens einer Programmiersprache erforderlich. R ist an eine Computerumgebung gebunden, die sich auf Statistik konzentriert, in der viele neue Algorithmen der Genomik und Biomedizin erstmals veröffentlicht werden. Python hat seine Wurzeln in der Systemadministration und ist eine hervorragende Sprache für die allgemeine Programmierung. Versionskontrolle ist für die Verwaltung komplexer Projekte von entscheidender Bedeutung, auch wenn keine Softwareentwicklung beteiligt ist. Docker-Container werden zu einem wichtigen Werkzeug für Bereitstellung, Portabilität und Reproduzierbarkeit. Dieses Kapitel bietet einen eigenständigen praktischen Leitfaden zu diesen Themen, damit der Leser es als Nachschlagewerk verwenden und seine Ausbildung planen kann.;-;-;-;https://link.springer.com/protocol/10.1007/978-1-0716-0239-3_15 fe5d296288655358ff2bea7347d83e18;de;;;6.1.;;;Explorative Studie zur vom Benutzer wahrgenommenen Wirksamkeit der Integration von unbemannten Flugzeugsystemen (UAS) bei visuellen Inspektionen von Verkehrsbehörden Diese Forschung bewertet die Wirksamkeit unbemannter Flugzeugsysteme (UAS) und liefert weitere Implikationen und Empfehlungen für UAS-basierte visuelle Inspektionen im Bau- und Infrastrukturumfeld. Diese Studie umfasst Feldtests bei Infrastrukturprojekten des Georgia DOT sowie halbstrukturierte Interviews und Umfragebögen nach den Feldtests. Insgesamt wurden drei Feldteststandorte ausgewählt, darunter ein Flughafen, eine Brücke und eine Straße. Während der Feldtests wurden acht UAS-Plattformen verwendet, um verschiedene Daten zu sammeln, darunter Standbilder, Infrarotbilder und Videos. Um die Effektivität der UAS-Integration in ihre baubezogenen Aufgabenumgebungen zu messen, wurden Interviews und eine Befragung von Branchenexperten durchgeführt, die an den Feldtests teilnahmen. Die Ergebnisse dieser Studie werden bei der Implementierung von UAS im Infrastrukturbau und -betrieb helfen. Da nur wenige potenzielle UAS-Nutzer aus den Feldtests und Post-Test-Interviews stammen, beschreibt diese Studie qualitativ weitere Implikationen basierend auf der Wahrnehmung der Nutzer, die eine Integration von UAS in den Bereich des Infrastrukturbaus und -betriebs anregen.;-;-;-;https://link.springer.com/article/10.1007/s41062-020-00355-2 4b42c831ea79c88c029b3ccf0525bc4c;de;;;6.1.;;;Der Politikrahmen GMES als Leitfaden für die Integration von Umweltsicherheitsforschung und Landschaftswissenschaften „Umweltsicherheit“ ist ein relativ neues Konzept. Es könnte als eine Untermenge des umfassenderen Begriffs „menschliche Sicherheit“ angesehen werden. In diesem Abschnitt beginnen wir mit einer kurzen theoretischen Diskussion der zugrunde liegenden Konzepte. Dann gehen wir davon aus, dass Überwachungskapazitäten für die Umweltsicherheit zunehmend benötigt werden. Wir argumentieren, dass diese Überwachungsaufgaben nicht nur technische Mittel erfordern, sondern auch eine solide Methodik, um Veränderungen in einer sicheren und lebendigen Umwelt eines Bürgers zu analysieren und vorherzusagen. Um zu verstehen, was ein „sicheres und lebendiges Umfeld“ für (europäische) Bürger bedeuten kann, sollen gesellschaftspolitische Ziele definiert werden. Wir nutzen die 2001 in Göteborg formulierten politischen Ziele der Europäischen Kommission und das sich daraus ergebende GMES-Programm als Leitlinie und stellen diese eher positivistische politische Sichtweise dem Stand der Monitoring-Kapazitäten und zugrundeliegenden Methodiken gegenüber. In der Praxis ist GMES heute eine gemeinsame Initiative der Europäischen Kommission und der Europäischen Weltraumorganisation mit dem Ziel, eine europäische Kapazität für die operative Bereitstellung und Nutzung von Informationen zur Unterstützung der Umwelt- und Sicherheitspolitik aufzubauen. Trotz der Fortschritte in der Sensorik, Beobachtungsnetzwerken, Datenauswertungstechniken und Informationstechnologie bleibt die Gewinnung von Informationen, die für wirksame politische Entscheidungen in Umwelt- und Sicherheitsfragen erforderlich sind, oft unter ihrem vollen Potenzial. Politisch ist es besonders besorgniserregend, dass Europa nicht über die unabhängige Fähigkeit verfügt, die wichtigsten Triebkräfte und Auswirkungen des Wandels in diesen Bereichen zu bewerten und seine politischen Antworten zu bewerten. Dennoch gibt es eine sehr begrenzte Anzahl unabhängiger, kritischer und wissenschaftlich fundierter Untersuchungen zu GMES, die über etwas positivistische „offizielle“ EU-Publikationen hinausgehen. Dieser Beitrag untersucht die Verknüpfungen und zukünftigen Konsequenzen dieses Programms mit der Umweltsicherheitsforschung und der Rolle der Landschaftswissenschaften. Aufbauend auf laufenden Arbeiten innerhalb des GMES-Exzellenznetzes – GMOSS und auf Studien innerhalb der NATO-Arbeitsgruppe für Landschaftswissenschaften erläutern wir die technischen Fähigkeiten von Erdbeobachtung und GIS. Wir schließen daraus, dass die wissenschaftlichen Herausforderungen hauptsächlich methodischer Natur sind. Abschließend skizzieren wir, welche zukünftigen Rahmenbedingungen für die Integration von Umweltsicherheitsforschung und Landschaftswissenschaften berücksichtigt werden sollten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-6594-1_4 bda3216065c5eaea9500c0ed1dbf3f2a;de;;;6.1.;;;Anlagenlebenszyklus in der Bergbauindustrie Das Verständnis der Wechselwirkungen zwischen Erdsystemen und sozialen Wirtschaftssystemen ist von entscheidender Bedeutung, um nachhaltige ökologische und soziale Wirtschaftssysteme zu bewerten, zu steuern und zu steuern. Dies gilt insbesondere für sozialwirtschaftliche Aktivitäten, die die Erdsysteme als natürliche Ressource ausbeuten, wie beispielsweise der Abbau natürlicher Ressourcen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0303-2_14 ce77c28ed01296d26f2664b6879398c2;de;;;6.1.;;;Neue Ansätze für die Umweltüberwachung: der Einsatz von IKT zur Erkundung freiwilliger geografischer Informationen Bürgerbeteiligung am Umweltmonitoring ist keine neue Idee. Jüngste Entwicklungen in den Informations- und Kommunikationstechnologien (IKT), wie das Social Web und die Miniaturisierung von Sensoren, haben jedoch neue Möglichkeiten zur Förderung der Bürgerbeteiligung an der Umweltüberwachung geschaffen. Die Analyse bestehender Bürgerinitiativen, die IKT-Instrumente verwenden, ergab die Notwendigkeit eines Rahmenkonzepts, das Möglichkeiten zur Erhöhung des Beitrags freiwilliger geografischer Daten zur Umweltüberwachung aufzeigt. In diesem Beitrag werden kollaborative Umweltüberwachungsnetze (ECMN) als Rahmen vorgeschlagen, der die Konzepte traditioneller Umweltüberwachungsnetze mit den Idealen der Open-Source-Bewegung kombiniert. Ein solches Rahmenwerk kann die Schaffung fester und mobiler Überwachungsnetze leiten und basiert auf drei Bausteinen: (1) Motivierte Bürger, (2) Erfassungsgeräte und (3) Back-End-Informationsinfrastruktur. Um die Probleme bei der Implementierung der Bausteine ​​des ECMN zu veranschaulichen, wird das Projekt Senses@Watch vorgestellt, das die Nutzung sensorischer Daten als Quelle für Überwachungsdaten untersucht hat.;-;-;-;https://link.springer.com/article/10.1007/s10708-008-9183-3 5cbcfaadee0d6d98f5320be84dd5524e;de;;;6.1.;;;Kooperationsmodelle in Peer-to-Peer-Netzwerken – Eine Umfrage Peer-to-Peer-Systeme (P2P) haben sowohl aus Sicht der einzelnen Anwender als auch im industriellen Einsatz immer mehr Erfolg. P2P bringt ursprüngliche Kapazitäten, indem es den Endbenutzern eine wichtigere Rolle als einem einfachen „Kunden“ gibt. Obwohl sich viele Arbeiten mit den verschiedenen Austauschtechniken in diesen Netzwerken befassten, untersuchten einige sie unter dem Gesichtspunkt der Zusammenarbeit mit Endnutzern. Dies erscheint notwendig, da es offensichtlich ist, dass der Datenfluss von Netzwerken ihre Wurzeln im menschlichen Austausch und in der Zusammenarbeit hat. Das Ziel dieses Artikels ist es daher, die Formen der Zusammenarbeit in P2P-Systemen im Lichte eines allgemeineren Modells der Zusammenarbeit in Netzwerken unter Berücksichtigung des Einflusses des menschlichen Faktors zu analysieren. Wir versuchen auch, den Zweck jeder Anwendung zu verdeutlichen, indem wir verschiedene Klassifizierungsarten vorschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30197-4_33 abbbba631dce6ac64539073a450ce765;de;;;6.1.;;;Gesetzeskonformes Cloud Computing: Ein Überblick Cloud Computing hat in den letzten Jahren eine strategische Bedeutung in der Entwicklung der ICT-Branche gewonnen. Cloud Services werden von Unternehmen, öffentlichen Verwaltungen und Privatkunden eingesetzt, um Daten zu speichern und zu verarbeiten. Mit den steigenden Anforderungen an die Zuverlässigkeit, Zugänglichkeit und Verfügbarkeit von Informationen steigen auch die Anforderungen an die Vertraulichkeit und Sicherheit sensibler und klassifizierter Daten (E-Mail, Krankenakten etc.). Diese werden daher in gesetzliche Auflagen umgesetzt. Wenn Daten von einer Cloud-Anwendung verwendet werden, können aufgrund der geografischen Verteilung des Rechenzentrums der Cloud-Anbieter Sicherheits- und Vertraulichkeitsprobleme auftreten. Tatsächlich ist es eine sehr gängige Praxis, dass ein Cloud-Anbieter seinen Sitz in einem Land hat, während sich die mehreren von ihm kontrollierten Rechenzentren auf verschiedenen Kontinenten der Welt befinden. Diese Geschäftsstrategie, die eindeutig auf Gewinnmaximierung durch Reduzierung der Kosten (insbesondere der Steuern) abzielt, steht im Gegensatz zu den vielfältigen nationalen Gesetzen, die spezifische Anforderungen und Sicherheitsmaßnahmen für den Umgang mit verschiedenen Arten von Daten vorsehen können. Dieses Kapitel gibt einen Überblick über die aktuellen Initiativen zur Sensibilisierung für die Gesetzgebung im Cloud Computing und berichtet über die wichtigsten Aspekte, die bei der Herangehensweise an ein solches Thema zu berücksichtigen sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49538-5_5 5f010d3168594c25fb0ba0b7323bf6c8;de;;;6.1.;;;Zuverlässiger und datenschutzerhaltender Blockchain-basierter medizinischer Datenaustausch Digital Ledger Der sichere Austausch von Gesundheitsdaten über elektronische Medien ist eine Herausforderung und dennoch eine unvermeidliche Sache im digitalen Zeitalter. Während Valetudinarians zwischen Beitragenden wechseln, werden die medizinischen Dokumente der Patienten über verschiedene Organisationen verbreitet, was auf drastische ethische Probleme in Bezug auf Zuverlässigkeit und Sicherheit zurückzuführen ist. Der dezentrale und verteilte Mechanismus der Blockchain gibt der digitalen Sparsamkeit eine neue Haltung. Blockchain erlaubt es weder, dass sich die Teilnehmer kennen müssen, noch müssen sich externe Zertifizierungsstellen engagieren. Es gewährleistet die Datenzuverlässigkeit und -sicherheit durch kryptografische Algorithmen und Konsens, die von der Blockchain-Technologie verwendet werden, um medizinische Daten über die Blockchain auszutauschen. In diesem Papier verwenden wir eine private Blockchain, die den Smart Contract von Ethereum und Hyperledger Fabric nutzt. Auf medizinische Datendienste kann nur von Personen zugegriffen werden, die die Erlaubnis zum Eindringen haben. Das System verwendet einen sicheren Hash-Algorithmus, einen Proof of Stake (PoS)-Konsensalgorithmus, der für die Datenherkunft verwendet wird, und macht somit den Block mit manipulationssicheren Krankenakten als bestehende Systeme. Hier wird der Zugriff nur für gültige Benutzer gewährt. Blockchain verbessert die Sicherheit, Anonymität und den Datenschutz für medizinische Vermögenswerte.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5546-6_12 65b5970ec13ac7083ebc1a9ef9ea09ab;de;;;6.1.;;;Richtlinien für die Verwaltung und Aufbewahrung elektronischer Patientenakten in Kolumbien Viele Länder, darunter auch Kolumbien, sind dabei, die elektronische Gesundheitsakte einzuführen. Derzeit gibt es jedoch keine Richtlinien zur Gewährleistung der Sicherheit und Vertraulichkeit der Aufzeichnungen. Dieser Artikel enthält eine Analyse der bestehenden Lücken in den kolumbianischen Vorschriften zur Sicherheit von Gesundheitsakten. Basierend auf dieser Analyse wird eine Reihe von Leitlinien für die ordnungsgemäße Verwaltung und Aufbewahrung elektronischer Patientenakten vorgeschlagen. Diese Richtlinien basieren auf internationalen Standards und Vorschriften in diesem Bereich. Schließlich wird eine Bewertung der Einhaltung der vorgeschlagenen Richtlinien von zwei Softwareplattformen vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-66562-7_53 82492c8277cd5414c5f3406c0ee2d59a;de;;;6.1.;;;Die Technologie und ihre Anwendungen Hier werden nur die relevanteren technologischen Innovationen und technologischen Schlüsselanwendungen von Kunden-Compliance-Geschäften berichtet und bewertet. Der Schwerpunkt liegt auf der Art und Rolle von Daten, Datenbanken, Datenbankmarketing, Call-Center-Technologien und internetbezogenen Technologielösungen, insbesondere der Gestaltung und Nutzung von Websites für das Kundenbeziehungsmanagement, die durch sehr innovative Backoffice-Software angetrieben werden.;-;-;-;https://link.springer.com/chapter/10.1057/9781137271150_4 a2116bd1eb4265b370d9085b0d6aa63f;de;;;6.1.;;;Pooling in integrierten Sicherheitsdatenbanken Neue Arzneimittelanträge erfordern die Erstellung einer integrierten Sicherheitszusammenfassung als Teil der Zulassungseinreichung. Das Ziel dieser Zusammenfassung ist es, wichtige schwerwiegende unerwünschte Ereignisse zu identifizieren und häufigere, nicht schwerwiegende unerwünschte Ereignisse zu charakterisieren. Bei dieser Überprüfung werden in der Regel die Daten aus verschiedenen Studien zusammengeführt und die Ereignisraten des Arzneimittels mit einem gemeinsamen Vergleichspräparat (Placebo oder aktiv) verglichen. Der gebräuchlichste Ansatz besteht darin, Daten aus allen Studien zusammenzufassen und zusammenzufassen, als ob sie aus einer einzigen Studie stammten. Aus wissenschaftlicher Sicht ist dies nicht optimal, da die Variabilität zwischen den Studien nicht berücksichtigt wird. Die Gefahren des einfachen Poolings werden an einem realen Beispiel demonstriert. Es wird argumentiert, dass gegebenenfalls stärker statistische Verfahren eingesetzt werden sollten, die die Variabilität zwischen den Studien berücksichtigen. Dies ist besonders relevant, wenn das Behandlungszuteilungsverhältnis zwischen den Studien unausgewogen ist.;-;-;-;https://link.springer.com/article/10.1177/009286150003400218 8432b94b9e4d77a8c8098b3e8c77e6be;de;;;6.1.;;;Datenqualität der Überwachung am Krankenbett auf einer Intensivstation Computergestützte Aufzeichnungen versprechen eine vollständige, genaue und lesbare Dokumentation. Zuverlässige Messungen sind eine Voraussetzung, um diese Erwartungen zu erfüllen. Wir analysierten die physiologischen Variablen, die von bettseitigen Überwachungsgeräten bei 657 Besuchen am Krankenbett bereitgestellt wurden, die von einer erfahrenen Intensivpflegekraft während 75 Intensivpflegerunden durchgeführt wurden. Wir haben registriert, welche Variablen angezeigt wurden. Wenn eine Variable angezeigt wurde, haben wir beurteilt, ob sie zur Dokumentation verwendet werden kann oder abgelehnt werden sollte. Wenn ein Wert abgelehnt wurde, wurde der Grund registriert als: die Messung war nicht beabsichtigt (überflüssige Anzeige), die aktuelle klinische Situation ließ eine ordnungsgemäße Messung nicht zu oder andere Gründe.;-;-;-;https://link.springer.com/article/10.1007/BF01259562 d9182ab07674ae2a969a3f721ac0aa78;de;;;6.1.;;;Sicheres und effizientes hierarchisches Schlüsselmanagement und kollaborative Signaturschemata der Blockchain Als Kern der Blockchain ist ein zuverlässiges Schlüsselmanagement der notwendige Garant für die Sicherheit des Blockchain-Geschäfts. Bestehende Schlüsselverwaltungsmethoden der Blockchain umfassen jedoch hauptsächlich lokale Speicherung, Offline-Speicherung und Wallet-Speicherung und können die Anforderungen an Sicherheit, Benutzerfreundlichkeit und Kosten nicht gleichzeitig erfüllen. Darüber hinaus fehlt dem Schlüsselverwaltungsschema der Blockchain selbst eine sichere und effiziente Lösung, um den Schlüssel des Benutzers zu verwalten. Darüber hinaus sollte die Situation von kollaborativen Signaturen in der Blockchain berücksichtigt werden, um den Bedürfnissen der Benutzer gerecht zu werden. Zu diesem Zweck ist Secure Multi-Party Computing (SMPC) die am häufigsten verwendete Technologie, und die Sicherheit dieser Schemata kann weiter verbessert werden. Um die Sicherheit und Effizienz der Blockchain-Schlüsselverwaltung zu verbessern und den Anforderungen der kollaborativen Arbeit gerecht zu werden, werden hierarchische Schlüsselverwaltung und kollaborative Signaturschemata vorgeschlagen, die SMPC und Feature-Verschlüsselung beinhalten. Bei diesem Schema werden die Schlüssel in drei Schichten unterteilt, und die Schlüssel der oberen Schicht werden verwendet, um die Schlüssel der unteren Schicht zu verschlüsseln, wodurch die Sicherheit aller Schlüssel gewährleistet wird. Darüber hinaus werden die Prozesse der Schlüsselgenerierung, -wiederherstellung, -widerrufung und -aktualisierung sowie der Mehrparteiensignatur detailliert entworfen. Im Vergleich zu anderen Schemata durch Theorieanalyse und Experiment können unsere Schemata die Dateifreigabezeit und den Speicheraufwand des Benutzers reduzieren. Dies kann die Auslastung der Systemressourcen und die Systemeffizienz verbessern und gleichzeitig ein hohes Maß an Sicherheit gewährleisten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-78612-0_27 42d68d697ce08a412205126bf13e42ac;de;;;6.1.;;;Adaptives Management Die konventionelle Managementpraxis hat sich traditionell darauf konzentriert, die beste verfügbare Politikoption zu finden. Angesichts der ungewissen und sich ständig ändernden Umwelt- und Sozialbedingungen hat sich dies jedoch als eine gewaltige Aufgabe erwiesen. Adaptives Management erkennt an, dass keine einzelne Richtlinie ausgewählt werden kann, sondern eine Reihe von Alternativen dynamisch verfolgt werden sollte, um die jeweils beste Vorgehensweise zu ermitteln. Obwohl adaptive Managementkonzepte vor mehr als zwanzig Jahren eingeführt wurden, ist ihre Umsetzung in der Regel stückweise, voll entwickelte adaptive Planungs- und Verfahrensrahmen sind auf Großprojekte im langfristigen Naturmanagement beschränkt, bei denen die Unsicherheit oft überwältigt. Trotzdem sind auch konventionelle Manager kleinerer Projekte mit den gleichen Problemen konfrontiert und können die frustrierende Erfahrung machen, ihre Managementstrategie zu ändern, wenn diese scheitert. In diesem Kapitel untersuchen wir regulatorische Richtlinien und Implementierungen von adaptivem Management in einer Vielzahl von Projekten und Anwendungsbereichen. Unsere Überprüfung zeigt die Notwendigkeit, adaptives Management mit einer Reihe von Entscheidungsfindungswerkzeugen zu integrieren, die es ermöglichen, auf aktuellen Managementansätzen aufzubauen. Wir schlagen daher eine Lösung vor, bei der wir ein starkes adaptives Management-Framework wählen, für das es in der Literatur viele unterstützende Instrumente gibt, und es mit der multikriteriellen Entscheidungsanalyse (MCDA) als Methode zum Umgang mit Unsicherheit bei der Auswahl eines Managements integrieren Möglichkeit. Die beiden Methoden ergänzen sich und fügen sich nahtlos ineinander und bilden einen umfassenden Managementrahmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-48857-8_4 09b93fd243912aa547aa3156828d1cad;de;;;6.1.;;;Hierarchische Parallelisierung und Optimierung von Schablonenberechnungen höherer Ordnung auf Multicore-Clustern Wir präsentieren ein skalierbares Parallelisierungsschema für Schablonenberechnungen höherer Ordnung, das auch das Speicherverhalten auf Multicore-Clustern optimiert. Unser Multilevel-Ansatz kombiniert: (i) Parallelisierung zwischen Knoten durch räumliche Dekomposition, (ii) Parallelisierung zwischen Kernen durch Multithreading und explizite ungleichförmige Speicherzugriffssteuerung (NUMA), (iii) Optimierung der Datenlokalität durch automatisch abgestimmte Kacheln für effizientes Verwendung eines hierarchischen Speichers und (iv) Registerblockierung und Datenparallelität über Einzelbefehl-Mehrdaten-Techniken, um Register zu verwenden und die Datenlokalität auszunutzen. Das Schema wird auf einen Schablonen-basierten Finite-Differenz-Zeitbereichscode sechster Ordnung angewendet. Die Paralleleffizienz bei schwacher Skalierung liegt bei über 98 % auf 32.768 BlueGene/P-Prozessoren. Multithreading mit expliziter NUMA-Steuerung erreicht eine 9,9-fache Geschwindigkeit auf einem Dual-12-Core-AMD Opteron-System. Datenlokalitätsoptimierungen erreichen eine 7,7-fache Reduzierung der Cache-Miss-Rate der letzten Ebene von Intel Nehalem, während die Registerblockierung die Datenparallelität erhöht und dadurch eine Leistung von 5,9 Gflops auf einem einzelnen Kern erreicht. Registerblockierung + Multithreading-Optimierungen erzielen eine 5,8-fache Geschwindigkeit auf einem einzigen Quadcore-Nehalem.;-;-;-;https://link.springer.com/article/10.1007/s11227-012-0764-z 8572f5695582f3daa829199e4a92dfcd;de;;;6.1.;;;Ressourcenmanagement im Internet der Dinge: Clustering, Synchronisation und Softwareagenten Die Objekte des Internets der Dinge werden durch eingebettete Geräte gestärkt, deren begrenzte Ressourcen effizient verwaltet werden müssen. Es ist vorgesehen, dass diese Geräte in der Lage sein werden, Ad-hoc-Netzwerke zu bilden, und dass die Verbindung von diesen Netzwerken zur Infrastruktur des Internets der Dinge nicht immer möglich sein wird. In diesem Kapitel schlagen wir die Verwendung von Clustering, Softwareagenten und Synchronisationstechniken vor, um die Herausforderungen bei der Verwaltung der Ressourcen von Objekten des Internets der Dinge zu überwinden. Wir argumentieren, dass Clustering von Vorteil sein wird, um den Energieverbrauch zu reduzieren und die Skalierbarkeit und Robustheit der Objektnetzwerke zu verbessern. Softwareagenten werden bei der Automatisierung von Aufgaben helfen, sowohl für die Benutzer von Objekten als auch für das Internet der Dinge. Schließlich werden Synchronisierungstechniken erforderlich sein, um die verschiedenen Herausforderungen bei der Harmonisierung vieler Kopien von Objektdaten mit potenziell teilweise getrennten Architekturkomponenten des Internets der Dinge zu bewältigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19157-2_7 9804d74b812719d4412a8a1390ee45be;de;;;6.1.;;;Etablierung und Pflege multizentrischer Studien in der Healthcare-Simulationsforschung Multizentrische Forschungsstudien sind ein robustes Forschungsinstrument, das bei guter Durchführung eine Reihe von Vorteilen gegenüber Single-Center-Studien bietet, darunter eine größere Stichprobengröße, eine größere Generalisierbarkeit der Ergebnisse und gemeinsame Ressourcen. Eine erfolgreiche multizentrische Forschungsstudie erfordert jedoch bedeutende Vorbereitungs- und Durchführungsstrategien, von denen viele einzigartige Überlegungen in der simulationsbasierten Forschung berücksichtigen. In diesem Kapitel bieten wir einen Rahmen für die Konzeption und Durchführung multizentrischer simulationsbasierter Studien: (a) Vorplanungsphase (Definition der Fragestellung, Durchführung von Pilotarbeiten, Zusammenstellung des Teams), (b) Planungsphase (Entwicklung von Protokollen, Identifizierung und Rekrutierung von Mitarbeitern, Erledigung von Papierkram, Verbreitung von Protokollen, Schulungsstätten zur Einhaltung von Protokollen), (c) Studiendurchführung (Rekrutierung, Einschreibung, Qualitätssicherung, Compliance), (d) Studienpflege (Kommunikation, Pflege, Konsistenz) und (e ) Datenanalyse und Verbreitung (Abstracts, Social Media, Manuskripte). Dieses Kapitel dient als Leitfaden für die Durchführung multizentrischer, simulationsbasierter Forschungsstudien mit Fokus auf quantitative Forschungsfragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-26837-4_38 e92f1b17f2d92253b8fb0e0eaba7c97d;de;;;6.1.;;;Der Entwicklungsmechanismus hydrometeorologischer Elemente unter dem Klimawandel und die Interaktionseffekte im Xin’anjiang-Becken, China Um den Entwicklungsmechanismus hydrologischer Elemente unter dem Klimawandel und die Wechselwirkungen zu untersuchen, werden in diesem Beitrag die hydrometeorologischen Elemente wie Temperatur, Niederschlag, Abfluss und Verdunstung durch statistische Analysemethoden und Ursachenanalyseverfahren untersucht. In Bezug auf den Klimawandel in der Provinz Anhui werden zunächst die durchschnittlichen Temperaturdaten von 1960 bis 2009 an 15 meteorologischen Stationen aus dem China Meteorological Data Sharing Network ausgewählt, um die raum-zeitlichen Variationen der Temperatureigenschaften zu analysieren. Zweitens werden aus Sicht des Xin’anjiang-Beckens Evolutionsregeln hydrometeorologischer Elemente durch Abweichungsvariation alle 10 Jahre und den langfristigen Entwicklungstrend von 1981 bis 2010 an 9 hydrologischen Stationen untersucht. Und der Einfluss des Klimawandels auf den Abfluss wird nach dem Prinzip der Abflussbildung analysiert und die Reaktion des Abflusses auf Niederschlag und Temperatur mit der Simulation des zukünftigen Klimawandels durch Klimamodelle vorhergesagt. Die Ergebnisse zeigen, dass die durchschnittliche Temperatur in der Provinz Anhui von 1960 bis 1990 nach Statistik schwankt. Nach 1990 ist der Aufwärtstrend signifikant. Im Xin’anjiang-Becken nimmt der jährliche Niederschlag insgesamt ab, vor allem an einigen Stationen ist es offensichtlich. Die Variation des Abflusses verläuft im Einklang mit dem Niederschlag in einem Abwärtstrend, ist aber insgesamt nicht wahrnehmbar. Die durchschnittliche Verdunstung ändert sich unauffällig, außer im Sommer und Winter. In den drei Szenarien A1B, A2 und B1 wird angenommen, dass Temperatur, Niederschlag und Abfluss in Zukunft zunehmen. Durch Ursachenanalyse scheinen diese hauptsächlich durch die Zirkulation des Wetterhintergrunds und der Meeresoberflächentemperatur beeinflusst zu werden. Basierend auf der Analyse hydrometeorologischer Elemente des Klimawandels und der Vorhersage ihrer zukünftigen Veränderungen kann die Entwicklung der regionalen Wasserressourcen erfasst werden, die für die Wasserversorgung, die Wasserschutzprojektplanung und die Wirtschaft von großer Bedeutung ist -soziale Nachhaltigkeit.;-;-;-;https://link.springer.com/article/10.1007/s00477-019-01693-z f72ffe7e55d6af2055e202e1478cc38b;de;;;6.1.;;;Die Bedeutung grundlegender Einblicke in Enterprise Governance und Enterprise Engineering Eine ausgezeichnete Unternehmensleistung hängt entscheidend von der richtigen Organisation ab. Allzu oft ist die Organisation unzureichend, getrieben von Management-Hypes oder Pseudotheorien. Für eine ordnungsgemäße Organisation bietet dieses Kapitel Gründe, die grundlegenden Erkenntnisse, die in unserer begleitenden Veröffentlichung skizziert wurden, in den Bereichen Enterprise Governance (Umgang mit Unternehmensveränderungen) und Enterprise Engineering (Umgang mit Unternehmensdesign) zu praktizieren. Nachdem die verschiedenen Formen des Organisierens und der entscheidende Begriff des entstehenden Organisierens skizziert wurden, wird die Bedeutung von Design – dem kreativen Scharnierpunkt zwischen Unternehmensabsichten und ihrer Verwirklichung – als Grundlage für die Unternehmensleistung skizziert. Design gewinnt angesichts der Trends und Besonderheiten des modernen Unternehmenskontextes noch mehr an Bedeutung. Implikationen von Entwicklungen in den Bereichen Technologie, Information, Wirtschaft und Organisation werden skizziert. Es wird argumentiert, dass diese Entwicklungen sowie die Ziele der Corporate Governance (Compliance) und der IT-Governance („Business and IT Alignment“) nur durch eine unternehmensweite Gestaltung innerhalb des übergreifenden Rahmens der Enterprise Governance angemessen berücksichtigt werden können. Eine solche ganzheitliche, integrative Perspektive wird durch theoretische Fragmentierung und Unvollständigkeit ernsthaft behindert, was zu partiellen und inkohärenten Ansätzen führt, während integrale und kohärente Ansätze benötigt werden. Dies behindert das Üben grundlegender Einsichten zusätzlich. Zur Überwindung dieser Probleme argumentiert das Kapitel die entscheidende Bedeutung der Enterprise Design Science, die es ermöglicht, die Erkenntnisse der Grundlagenwissenschaften mit Konzepten für das Enterprise Design zu verknüpfen und ein kohärentes und konsistentes unternehmensweites Design zu ermöglichen, die kritische Voraussetzung für die operative und strategische Leistung von Unternehmen. Das Kapitel schließt mit einem Überblick über die Themen der nachfolgenden Kapitel.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-73658-7_1 7f8493cc45bfffbd075c675ad947559a;de;;;6.1.;;;Zusammenführen von Dateisystemen und Datenbanken passend zum Raster Grids werden häufig von CPU-intensiven Anwendungen verwendet, die einen Zugriff auf Daten mit Abfragen auf hoher Ebene sowie auf Dateibasis erfordern. Zu ihren Anforderungen gehört der Zugriff auf Daten über Metadaten unterschiedlicher Art, System- oder Anwendungsmetadaten. Darüber hinaus bieten Grids große Speicherkapazitäten und unterstützen die Zusammenarbeit zwischen Standorten. Diese Lösungen sind jedoch nur relevant, wenn sie eine gute Leistung liefern. In diesem Beitrag wird Gedeon vorgestellt, eine Middleware, die einen hybriden Ansatz für das wissenschaftliche Datenmanagement für Grid-Infrastrukturen vorschlägt. Dieser hybride Ansatz besteht darin, verteilte Dateisysteme und verteilte Datenbankfunktionen zu verschmelzen, die ein so semantisch angereichertes Datenmanagement bieten und die Benutzerfreundlichkeit und Bereitstellung beibehalten. Unter Ausnutzung dieses hybriden Ansatzes werden fortschrittliche Cache-Strategien auf verschiedenen Ebenen eingesetzt, um Effizienz zu erzielen. Gedeon wurde im bioinformatischen Bereich implementiert, getestet und verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15108-8_2 d278b22c44f0676c4adbf56b1ca44255;de;;;6.1.;;;Sektoren und ihre Champions Das Drei-Sektor-Modell unterteilt Volkswirtschaften in drei Tätigkeitsbereiche: Primär-, Sekundär- und Tertiärbereich. Der Primärsektor besteht aus der Gewinnung von Rohstoffen und der Landwirtschaft von Agrarrohstoffen. Der Sekundärsektor ist die Fertigung, in der den Primärprodukten Wert hinzugefügt wird. Die tertiären Sektoren sind Dienstleistungen. Afrikanische Länder haben sich auf ihre Vorräte an Bodenschätzen und Agrarrohstoffen verlassen, um ihre Wirtschaft anzukurbeln, aber zunehmend stimulieren Investitionen von African Lions das Wachstum des verarbeitenden Gewerbes und des Dienstleistungssektors. Afrikanische Lions haben bereits führende Positionen als Führungspersönlichkeiten und Branchenmeister auf dem afrikanischen Markt eingenommen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-33096-5_9 6ee5b87bbb987ed26e780a9525329506;de;;;6.1.;;;Erstellen neurowissenschaftlicher Ontologien Die Unzulänglichkeit terminologischer Standards in den Neurowissenschaften wird zunehmend als ernsthaftes Hindernis für die Interoperabilität erkannt. Die Einführung eines kontrollierten Vokabulars ist eine erfolgreiche Lösung für eine kleine Anzahl von Gruppen, die eng zusammenarbeiten, ist jedoch für eine große Anzahl von Gruppen unpraktisch, die verschiedene Forschungsbereiche repräsentieren, Informationen nach verschiedenen legitimen Nomenklaturen indexieren oder in verschiedenen Sprachen veröffentlichen. Die Interoperabilität zwischen solchen unterschiedlichen Datenbanken erfordert einen Übersetzungsmechanismus oder „Vermittler“, um die Kommunikation und den Datenaustausch zwischen Datenbanken zu ermöglichen. Gemeinsame Ontologien sind wesentliche Bestandteile eines Mediators. Eine Ontologie kodifiziert die Beziehungen zwischen Begriffen multipler Nomenklaturen und den Konzepten, die sie repräsentieren. Die Neuroanatomie ist von zentraler Bedeutung für die Neurowissenschaften, und die neuroanatomische Terminologie stellt einen Kernbestandteil des Vokabulars der Neurowissenschaften dar. Wir haben in NeuroNames eine Ontologie von 2500 neuroanatomischen Konzepten erstellt, auf die 15.000 Begriffe in sieben Sprachen verweisen. NeuroNames ist der Vermittler für BrainInfo, ein Portal zur Neuroanatomie im Web. Wir hoffen, dass eine Beschreibung unserer Erfahrungen bei der Herstellung der Interoperabilität zwischen BrainInfo und anderen neurowissenschaftlichen Websites für andere hilfreich sein kann, die sich mit der Entwicklung von Ontologien für die Neurowissenschaften befassen.;-;-;-;https://link.springer.com/protocol/10.1007/978-1-59745-520-6_5 f59b969bd8a103eb5d68ab26066755f5;de;;;6.1.;;;Der HaLoop-Ansatz zur groß angelegten iterativen Datenanalyse Die wachsende Nachfrage nach groß angelegten Data-Mining- und Datenanalyseanwendungen hat sowohl Industrie als auch Hochschulen dazu veranlasst, neue Arten von hochskalierbaren datenintensiven Computerplattformen zu entwickeln. Besonders erfolgreich ist MapReduce. MapReduce fehlt jedoch die integrierte Unterstützung für iterative Programme, die in vielen Anwendungen wie Data Mining, Web-Ranking, Graphanalyse und Modellanpassung natürlich vorkommen. Dieses Papier (Dies ist eine erweiterte Version des VLDB 2010-Papiers „HaLoop: Efficient Iterative Data Processing on Large Clusters“ PVLDB 3(1):285–296,;-;-;-;https://link.springer.com/article/10.1007/s00778-012-0269-7 4fde11bbe64b61101b5c5dadbd65cbff;de;;;6.1.;;;Relevante bestehende Praktiken Das Requirements Engineering legt fest, wie das System die Aktivitäten des Benutzers unterstützen soll und liefert eine Designstrategie für den Aufbau des Systems. Das Requirements Engineering besteht aus zwei wichtigen Aktivitäten: der Anforderungsdefinition, die normalerweise vom Kunden durchgeführt wird, und der Anforderungsspezifikation, die normalerweise vom Auftragnehmer durchgeführt wird.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45582-5_4 45e35f0c84c5d1265241c4cca0ef54eb;de;;;6.1.;;;Der Einfluss von Big Data auf die Qualität der Entscheidungsfindung in Regierungsorganisationen von Abu Dhabi Eines der wichtigen Forschungsthemen und -bereiche, das weltweit auf großes Interesse und Aufmerksamkeit stößt, ist „Big Data“. Big Data trägt nicht nur zur Qualität der Entscheidungsfindung bei, sondern hilft auch beim Auf- und Ausbau des Wissens in diesem Bereich durch die Nutzung verfügbarer Technologien. Diese Forschung präsentiert und diskutiert die Literatur zur Qualität von Big Data und deren Einfluss auf die Qualität der Entscheidungsfindung. Es wurde auch ein deskriptiver methodischer Ansatz gewählt, indem die Literatur veröffentlichter und unveröffentlichter wissenschaftlicher Forschungen zusammen mit einer Umfrage in Form eines Fragebogens unter Beteiligung von Teilnehmern der Polizeibehörden von Abu Dhabi überprüft wurden, um ihre Ansichten und Meinungen in diesem Bereich zu sammeln. Die Ergebnisse der Literaturrecherche und -übersicht führten zu einem theoretischen, konzeptionellen Modell nach quantitativer und numerischer Methodik. Die Ergebnisse dieser Studie haben gezeigt, dass die Qualität von Big Data die Qualität der Entscheidungsfindung vorhersagt und dass die Qualität von Big Data in den Regierungsorganisationen von Abu Dhabi (ADGO) eine bedeutende Rolle für die Qualität der Entscheidungsfindung spielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9364-8_18 9a045ce40167941fb14ef6be6a40d956;de;;;6.1.;;;Strukturelle Variationen in Chlorit und Illit in einer diagenetischen Sequenz aus dem Imperial Valley, Kalifornien Bohrlochproben aus dem Bohrloch Borchard A-2, Imperial Valley, Kalifornien, wurden über ein gemessenes Bohrlochtemperaturintervall von 135 °C bis 275 °C entnommen. Die Fraktion < 0,5 µm (e.s.d.) wurde unter Verwendung von Hochgradient-Magnetseparation (HGMS) getrennt, um eine an Illit reiche nichtmagnetische Fraktion und eine an Chlorit reiche magnetische Fraktion zu erzeugen. Chlorit wurde in Proben mit niedrigerer Temperatur (<200 °C) weniger leicht von Illit getrennt, vermutlich aufgrund der Anwesenheit polymineralischer Chlorit- und Illitkörner. Körner in Proben höherer Temperatur waren eher monomineralisch und leichter zu trennen.;-;-;-;https://link.springer.com/article/10.1346/CCMN.1990.0380311 d2eb1a97020218074a9d09c991291e8b;de;;;6.1.;;;Anwendung von Kommunikations-, Navigations- und Überwachungsgeräten der Flugsicherung im Luftfahrtbereich basierend auf Datenanalyse Kommunikations-, Navigations- und Überwachungsgeräte sind das Herzstück von Luftraummanagement- und Kommandoflugzeugen. Ob ihr Management effizient und vernünftig ist, hat direkte Auswirkungen auf die Flugsicherheit und die Passagiersicherheit. Jeder Fehler in einem Link kann katastrophale Folgen haben. In den letzten Jahren hat sich Chinas zivile Luftfahrtindustrie rasant entwickelt, und der Druck des Flugverkehrsmanagements ist mit der Zunahme der Flugzahlen weiter gestiegen. Probleme wie die unvollständige Umsetzung können den Anforderungen der aktuellen Entwicklung des Flugsicherungsausrüstungsmanagements nicht mehr gerecht werden. Auf dieser Grundlage, kombiniert mit dem aktuellen Stand des Betriebs von Kontrollgeräten für die Zivilluftfahrt, schlägt dieser Beitrag die Anwendungsforschung von Kommunikationsnavigationsüberwachungsgeräten der Flugsicherung auf der Grundlage von Datenanalysen vor. Dieser Beitrag analysiert das Flugsicherungssystem, verwendet objektorientiertes Denken, um das System zu entwerfen, und realisiert schließlich das datenbasierte Flugsicherungskommunikations- und Navigationskonstruktionssystem. Schließlich zeigen die Ergebnisse der Leistungs- und Funktionstests des Systems, dass das auf Datenanalyse basierende Kommunikationsnavigationsüberwachungssystem der Flugsicherung schnelle Verarbeitungsfähigkeiten wie die Sammlung und Integration von Flugsicherungsausrüstungsdaten, Datenanalyse und Risikovorhersage erreicht hat .;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1726-3_76 1d9bf94c4ea9c335ed0f93e33310d8f9;de;;;6.1.;;;Forschung zu einem intelligenten Überwachungssystem für Anti-Diebstahl-Strom Im täglichen Betrieb des Stromnetzes kommt es häufig zum Diebstahl von Strom, wodurch die Energieversorgungsunternehmen und das Land enorme wirtschaftliche Verluste erleiden. Angesichts dieser Reihe von Situationen analysieren und studieren auch die Energieversorgungsunternehmen und der Staat die Anti-Diebstahl-Technologie. In dieser Arbeit werden, basierend auf dem K-Means-Algorithmus und dem LSTM-Algorithmus des Stromdiebstahl-Erkennungssystems für das Versuchsobjekt, die üblichen Methoden zum Diebstahl von Elektrizität und die Eigenschaften des Diebstahls von Elektrizität untersucht. Zweitens wird das datengetriebene Entscheidungsmodell der Stromdiebstahlprävention etabliert. Der K-Means-Clustering-Algorithmus wird verwendet, um die Big Data der Stromverbrauchsinformationen zu clustern, und das Entscheidungsfindungsmodell zur Verhinderung von Stromdiebstahl basierend auf K-Means wird erstellt. Die experimentellen Ergebnisse zeigen, dass das intelligente Erkennungssystem auf Basis von K-Means und LSTM-Algorithmus eine gewisse Rolle bei der zukünftigen Verhinderung von Stromdiebstahl zwischen Energieversorgungsunternehmen und Menschen spielt und durch seine erfolgreiche Anwendung den Verlust vieler Stromdiebstähle reduzieren kann und personelle, materielle und finanzielle Ressourcen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4572-0_103 788165e20e235cd7f5554b4453668270;de;;;6.1.;;;Anwendungen von Tabellenkalkulationen in den Geowissenschaften Es ist unmöglich, den vollen Umfang und die Möglichkeiten von Tabellenkalkulationen, die auf alle Gebiete der Geowissenschaften angewendet werden, in einem einzigen Kapitel abzudecken. Aus diesem Grund wird nur eine begrenzte Anzahl typischer Anwendungen ausführlich besprochen, der Leser wird jedoch in jedem Abschnitt auf ergänzendes Material in der Literatur verwiesen. Der Inhalt ist so strukturiert, dass er nur für Benutzer mit sehr grundlegenden Kenntnissen im Umgang mit Tabellenkalkulationen zugänglich ist, er deckt jedoch die meisten wesentlichen Konzepte ab und bietet eine Grundlage für fortgeschrittene Operationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-80249-2_4 d2a55a6ea031a2a3525d557e3c27e876;de;;;6.1.;;;Ein Referenzmodell virtueller Service-Produktionsnetzwerke Die virtuelle Organisation kollaborativer Netzwerke erfordert häufig Informations- und Kommunikationstechnologien, um die Koordination organisationsübergreifender Geschäftsprozessketten zu unterstützen. Serviceorientierte Softwaretechnologien bieten vielversprechende Mittel zur Regulierung und Durchsetzung der Koordination von organisationsübergreifenden Softwareservice-Interaktionen, verfehlen jedoch organisatorische Abstraktionen und Methodik. Dieses Papier schlägt ein konzeptionelles Referenzmodell der kollaborativen Netzwerkkoordination vor, das die Flexibilitäts- und Agilitätsanforderungen virtueller Organisationen erfüllt, indem es auf gängigen Software-Service-Abstraktionen und Lebenszyklus-Methodik aufbaut. Das Modell fokussiert insbesondere kollaborative Servicenetzwerke und führt das Konzept des virtuellen Geschäftsservices ein, der Geschäftsserviceprozesse als Softwareservice-Abstraktionen abbildet und eine flexible Regulierung und agile Durchsetzung ihrer Koordination mittels Software Service Lifecycle Methodik unterstützt. Zu Demonstrations- und Evaluierungszwecken präsentieren wir eine Fallstudie zur serviceorientierten Systemanalyse für die virtuelle Organisation eines kollaborativen E-Science-Netzwerks, die unser konzeptionelles Referenzmodell übernimmt.;-;-;-;https://link.springer.com/article/10.1007/s11761-008-0025-4 0a2e78c13f38597ea88607430fb45c2b;de;;;6.1.;;;Ein objektorientiertes Konzeptmodell eines kollaborativen Produktentwicklungsmanagementsystems (CPDM) Es ist offensichtlich, dass die Entwicklung oder Implementierung eines kollaborativen Produktentwicklungsmanagementsystems (CPDM) in einem Unternehmen auf dem richtigen Verständnis der Kerndomänenobjekte, ihrer Hauptattribute und ihrer Beziehungen zu anderen Objekten in der Produktentwicklungsdomäne basieren sollte. Dazu wird in diesem Beitrag ein objektorientiertes konzeptionelles Modell eines CPDM-Systems basierend auf einem Top-Down-Ansatz vorgestellt. Für den systematischen Aufbau des konzeptionellen Modells schlägt dieses Papier die 4P2C-Modellierungsansichten vor, bei denen es sich um facettenreiche Ansichten von Konstruktionsinformationen handelt, die eine integrierte und konsistente Perspektive auf Konstruktionsinformationen bieten. Das 4P2C steht für Produkt, Prozess, Projekt, Teilnehmer, Kosten und Zusammenarbeit. Basierend auf den 4P2C-Modellierungsansichten werden sechs Untermodelle konstruiert, die schließlich ein vollständiges konzeptionelles CPDM-Modell bilden. In jedem Teilmodell werden die Zerlegung von Kerndomänenobjekten, ihre Hauptattribute und ihre Beziehungen zu anderen Objekten detailliert dargestellt. Ein Anwendungsprototyp zusammen mit einem veranschaulichenden Kostenberechnungsbeispiel wird ebenfalls präsentiert, um zu demonstrieren, dass das vorgeschlagene CPDM-Modell es Unternehmen ermöglicht, die Konsistenz der Produktdaten während des gesamten Produktlebenszyklus effizient aufrechtzuerhalten.;-;-;-;https://link.springer.com/article/10.1007/s00170-004-2424-9 a99b805eaddb8c76c171d46975aaf559;de;;;6.1.;;;Zeit- und ortsbezogene Points of Interest-Empfehlung in standortbasierten sozialen Netzwerken Die weite Verbreitung von standortbasierten sozialen Netzwerken führt zu einer großen Menge an Benutzer-Check-in-Daten, die die Empfehlung von Points of Interest (POIs) erleichtern. Jüngste Fortschritte bei der verteilten Darstellung werfen Licht auf das Erlernen von niederdimensionalen dichten Vektoren, um das Problem der Datenknappheit zu mildern. Aktuelle Studien zum Repräsentationslernen für die POI-Empfehlung betten sowohl Benutzer als auch POIs in einen gemeinsamen latenten Raum ein, und die Präferenz der Benutzer wird basierend auf der Entfernung/Ähnlichkeit zwischen einem Benutzer und einem POI abgeleitet. Ein solcher Ansatz entspricht nicht der Semantik von Benutzern und POIs, da sie von Natur aus unterschiedliche Objekte sind. In diesem Beitrag stellen wir eine neuartige translationsbasierte, zeit- und ortsbezogene Darstellung (TransTL) vor, die die räumlichen und zeitlichen Informationen als eine Beziehung zwischen Benutzern und POIs modelliert. Unser Modell verallgemeinert die jüngsten Fortschritte bei der Einbettung von Wissensgraphen. Die Grundidee ist, dass die Einbettung eines -Paares einer Übersetzung von Einbettungen von Benutzern in POIs entspricht. Da die POI-Einbettung nahe an der Benutzereinbettung plus dem Beziehungsvektor liegen sollte, kann die Empfehlung durch Auswahl der obersten;-;-;-;https://link.springer.com/article/10.1007/s11390-018-1883-7 30e5767e172114cb978fe7a89caa4eea;de;;;6.1.;;;Ein Multi-Paradigma-Videoabfragesystem über das Web Die Verwaltung von Videodaten über das Web wird immer mehr zu einem der wegweisenden Themen für moderne Multimedia-Informationssysteme. In diesem Kapitel stellen wir eine Architektur eines Multiparadigmen-Videoabfragesystems vor, zusammen mit seinen webbasierten Mechanismen, die eine Reihe wichtiger Funktionen bieten können. Um die praktischen Faktoren und Bedenken (wie Ressourcenkosten und/oder Bedenken hinsichtlich des geistigen Eigentums) zu berücksichtigen, werden Videobeschreibungen von den Roh-/Quellvideodateien getrennt. Für eine bessere Zugänglichkeit und Interoperabilität verwenden wir XML-Technologie, um unser System standardkompatibel (oder XML-powered) zu machen. Insbesondere wird die Videobeschreibung aus dem zugrunde liegenden Speichersystem (OODB) extrahiert und das Abfrageergebnis als XML-Datenbeschreibung an den Client zurückgesendet. Als Ergebnis kann unser System einen effizienten Abfrageserver bereitstellen und schwere Clients unterstützen. Auf Basis von OMG-CORBA und einer objektorientierten Datenbank-Engine wurde ein Prototypensystem entwickelt, das diese Eigenschaften manifestiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-0435-1_3 f8b7ea4dfeb5500adf96762a78bb94a5;de;;;6.1.;;;Ein neues effizientes Authorized Private Set Kreuzungsprotokoll von Schnorr Signature und seinen Anwendungen Die Verschneidung privater Mengen (PSI) wurde vorgeschlagen, um den Austausch sensibler Informationen mit der Privatsphäre zu erreichen, was es zwei Teilnehmern ermöglicht, die Überschneidung ihrer privaten Mengen zu berechnen, ohne andere Informationen preiszugeben. Authorized Private Set Kreuzung (APSI) ist eine Variante von PSI, so dass APSI erfordert, dass Client-Sets für die Kreuzung autorisiert werden müssen. Obwohl in den bestehenden APSI-Veröffentlichungen viele Schemata zur linearen Optimierung vorgeschlagen wurden, wurde noch nicht vorgeschlagen, wie das APSI-Protokoll basierend auf der Schnorr-Signatur linear optimiert wird. In diesem Papier schlagen wir ein neues effizientes APSI-Protokoll mit linearer Komplexität vor (bezeichnet mit;-;-;-;https://link.springer.com/article/10.1007/s10586-017-0940-2 1cf6e65c9f76afbf6c136ca3e5e94c01;de;;;6.1.;;;Algorithmen und Werte in Justiz und Sicherheit Dieser Artikel stellt eine konzeptionelle Untersuchung der Wertwirkungen und -beziehungen von Algorithmen im Bereich Justiz und Sicherheit vor. Als konzeptionelle Untersuchung stellt sie einen Schritt in einer wertsensitiven Design-basierten Methodik dar (hier werden empirische und technische Untersuchungen nicht berücksichtigt). Hier erklären und analysieren wir den Ausdruck der Werte Genauigkeit, Privatsphäre, Fairness und Gleichheit, Eigentum und Eigentum sowie Rechenschaftspflicht und Transparenz in diesem Zusammenhang. Wir stellen fest, dass Werte empfindlich auf Wertminderung reagieren, wenn Algorithmen unangemessen oder ohne ausreichende Berücksichtigung ihrer Wertauswirkungen entworfen, implementiert oder eingesetzt werden, was möglicherweise zu Problemen wie Diskriminierung und eingeschränkter Autonomie führt. Darüber hinaus skizzieren wir einen Rahmen konzeptioneller Wertebeziehungen, die sich aus unserer Analyse ergeben, und potenzieller Wertspannungen bei ihrer Implementierung und Anwendung im Hinblick auf die Unterstützung der zukünftigen Forschung und die Unterstützung der wertsensitiven Gestaltung von Algorithmen in Justiz und Sicherheit.;-;-;-;https://link.springer.com/article/10.1007/s00146-019-00932-9 c27e3e46121d9f6dd1aa25709ff3aa94;de;;;6.1.;;;Über die Nutzung der Grid-Computing-Technologie für die Videokonvertierung und das 3D-Rendering In diesem Artikel untersuchen wir die jüngste populäre Computertechnik namens Grid Computing und verwenden Videokonvertierungs- und 3D-Rendering-Anwendungen, um die Effektivität und hohe Leistung dieser Technologie zu demonstrieren. Wir berichten auch über die Entwicklung eines Ressourcenbrokers namens Phantom, der auf unserem Grid-Computing-Testbed läuft und dessen Hauptfunktion darin besteht, Knoten in Grid-Computing-Umgebungen abzufragen und deren Systeminformationen anzuzeigen, um die Auswahl der besten Knoten für Jobzuweisungen zu erleichtern, damit die Jobs im am wenigsten Zeit.;-;-;-;https://link.springer.com/chapter/10.1007/11576235_47 ca64f7102b2f8042678d0ed7d540ad12;de;;;6.1.;;;E-Government-Vision-Ermittlung Strategische Planung ist die relevanteste Phase des Lebenszyklus von eGovernment-Informationssystemen, um ein klares Verständnis der Übereinstimmung zwischen der politischen Vision, dem Interventionskontext und den tatsächlichen IKT-Zielen, -Architekturen und -Infrastrukturen zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13571-2_4 5da5c8e9a9ec3aeee8f974da67a16a1b;de;;;6.1.;;;Universitätskrankenhaus Pompidou in Frankreich: Ein komponentenbasiertes System für klinische Informationen und elektronische Patientenakten Die Gründung des Universitätskrankenhauses Pompidou [oder Hôpital Européen Georges Pompidou (HEGP), wie es auf Französisch genannt wird] im Südwesten von Paris aus der Verschmelzung dreier alternder Einrichtungen bot die Gelegenheit, COHERENCE, ein brandneues komponentenbasiertes klinisches Informationssystem (CIS). COHERENCE bietet generische gesundheitsbezogene und generische Komponenten. Die gesundheitsbezogenen Komponenten umfassen die Patientenakte, die Aktivität und die Komponenten des Ressourcenplaners. Als das Krankenhaus im Juli 2000 eröffnet wurde, waren wichtige Funktionen des CIS in Betrieb. Zu den generischen Komponenten gehören ein Referenzmanager, ein Sicherheitsmanager, ein Dokumentenmanager, ein Corba-Bus sowie verschiedene Vermittlungs- und Überwachungstools. Drei Jahre später werden die eindeutige Patientenakte und die Auftragserfassungssysteme der Anbieter in 100 Prozent der relevanten Gesundheitseinrichtungen eingesetzt. 74 Prozent der biologischen Verordnungen und 66 Prozent der bildgebenden Verordnungen werden direkt von Ärzten eingegeben. In 100 Prozent der Einheiten wird die gemeinsame, multimediale lebenslange Gesundheitsakte einschließlich der Online-Verfügbarkeit von Bildern durch Ärzte und Pflegepersonal geteilt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-4041-7_32 f320e41f9943a2afb3df90ce51db3621;de;;;6.1.;;;Computergestützte Pharmakogenomik Nach dem Aufkommen der Hochdurchsatzforschung in den biomedizinischen Wissenschaften, die mit dem Aufkommen von Genomik, Proteomik und Metabolomik stark verstärkt wurde, ist es eine anerkannte Tatsache, dass auch die Wissenschaft der Pharmakologie dramatische Veränderungen erfahren wird. Die Suche nach therapeutischen Zielen ist viel zu komplex geworden, um geleitet zu werden, entweder durch eine erhöhte Form von;-;-;-;https://link.springer.com/chapter/10.1007/978-81-322-1184-6_9 2b497876db45c4d09d2575c18dd43a31;de;;;6.1.;;;Die Rolle des Benutzers im Entwicklungsprozess eines klinischen Informationssystems: Ein Beispiel in der Hämophilieversorgung Diese Arbeit beschreibt den Entwicklungsprozess eines webbasierten Informationssystems zur Verwaltung klinischer Informationen in der Hämophilieversorgung, wobei die Rolle der Benutzer bei einer menschzentrierten Entwicklung betont wird. Um all diesen Prozess zu verstehen, stellen wir zunächst die relevanten Konzepte zum Human-Centered Design vor, als nächstes beschreiben wir die Webanwendung zur Verwaltung der klinischen Informationen in der Hämophilieversorgung sowie den Entwicklungsprozess, der bei ihrer Entwicklung verfolgt wurde, und schließlich illustrieren wir die Bedeutung der Beteiligung des Benutzers in kritischen Phasen durch die Demonstration einiger Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02806-9_106 37c5a99e4c1869c7e04c9f601157edb8;de;;;6.1.;;;Sichere Big-Data-Deduplizierung mit Dynamic Ownership Management im Cloud Computing Aufgrund der enormen Datenmenge können herkömmliche Datenbanksysteme die Big Data nicht verarbeiten. Die Cloud ist die geeignete Plattform zum Speichern und Verarbeiten von Big Data, aber das Verschieben von Daten in die Cloud bringt Datenschutzprobleme mit sich. Die Vertraulichkeit der Daten kann durch die Speicherung verschlüsselter Daten in der Cloud geschützt werden. Verschlüsselte Daten stellen jedoch eine neue Herausforderung für die Cloud dar, nämlich die Datenduplizierung, die für die Speicherung von Big Data am wichtigsten ist, da das Speichern redundanter Kopien viel Speicherplatz verschwendet und die Datenverwaltung erschwert. Kürzlich wurden mehrere Schemata vorgeschlagen, um die sichere Datendeduplizierung anzugehen. Bestehende Schemata weisen jedoch Sicherheitsschwächen auf und unterstützen keine Datenzugriffskontrollen. In diesem Papier schlagen wir eine sichere Big-Data-Deduplizierung mit dynamischer Eigentumsverwaltung in der Cloud vor, die auf identitätsbasierter Verschlüsselung und Proxy-Neuverschlüsselung basiert. Durch die Sicherheits- und Leistungsanalyse beweisen wir, dass unser System sicher und effizient ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1483-8_22 e5ff1672f179da62883ef33530d61b8b;de;;;6.1.;;;Register und Big Data Dieses Kapitel gibt einen Überblick über die Entwicklung prospektiver klinischer Register, die für den Einsatz in der Neurochirurgie geeignet sind, und die Nutzung vorhandener großer Datenbanken, um Fragen zu beantworten, die für Forscher von Interesse sein könnten. Die Herausforderungen, Einschränkungen, Fallstricke und Arbeit, die für die Verwendung solcher Systeme erforderlich sind, werden erörtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-34906-6_38 12499bf6db88ef4fb74ac0dca4ccf4d9;de;;;6.1.;;;Forschung zu Bildungs- und Lehrressourcenmanagementsystem basierend auf ASP.NET Das System verwendet populäre B/S (Browser/Server) der dreischichtigen Struktur der Softwarearchitektur, zu Microsoft Windows Server 2003 Netzwerkbetriebssystem, basierend auf C# ASP.Net Anwendungsentwicklungsumgebung, für SQL Server 2005 für die Hintergrundnummer gemäß die Datenbank während des Abschlusses der Entwicklung. Das System in Theorie und Technologie ist fortschrittlich, es bietet Bildungs- und Lehrpersonal eine editierbare und kann den Hintergrund der Lehrmanagement-Plattform überprüfen und die gemeinsame Nutzung und effektive Nutzung von Lehrinformationsressourcen garantieren. Das System richtet sich an Nicht-Computer-Profis, daher ist das Design der Mensch-Maschine-Schnittstelle einfach und intuitiv, einfach zu bedienen, klar, funktional und praktisch. In diesem Papier stellen wir zunächst die Bildungs- und Lehrmanagementplattform des Entwicklungshintergrunds und die Bedeutung vor, gefolgt von der Einführung der Entwicklungsumgebung der Bildungs- und Lehrmanagementplattform und der Implementierungstechniken, einer detaillierten Beschreibung des Systemdesignprinzips und der Systemkomponenten und -module der Datenbankstruktur, und erläutert dann die Plattformrealisierung in drei Schichten von Strukturlösung und Test, hat schließlich die Zusammenfassung und den Ausblick gemacht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-60744-3_46 d39b1f8f519f42b4149ed5912da60c34;de;;;6.1.;;;Nachdenken über den Aufbau von Informationstechnologie in der Universitätsbibliothek Mit der rasanten Entwicklung der Computernetzwerk-Informationstechnologie sind Bibliotheken von Hochschulen und Universitäten bereits in ein Internetzeitalter eingetreten. Digitalisierung, Vernetzung, Intellektualisierung sind die Zeichen der modernen Bibliothek. Im Netzwerkumfeld spiegelt sich der Wert der Universitätsbibliothek nicht nur in ihrem Bestand wider, sondern auch darin, ob sie den Anforderungen der Nutzer an Wissensinformationen gerecht werden kann. Der Autor erläuterte die aktuelle Situation und Probleme beim Aufbau der Informationstechnologie der Universitätsbibliotheken und die konkreten Maßnahmen, die ergriffen werden sollten, und schlug zwei wichtige Probleme vor, die beim Aufbau der Informationstechnologie der Universitätsbibliotheken beachtet werden sollten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27945-4_9 b4a13a374725b20db23b558a384cd18f;de;;;6.1.;;;Selbstorganisierende Anwendungen mit Lightweight Agents Die Selbstorganisation in der Natur ist für viele komplexe und anhaltende Phänomene verantwortlich. Dies legt nahe, dass Selbstorganisation bei der Erstellung komplexer Anwendungen nützlich sein kann. Multiagentensysteme verwenden mehrere Agenten, um komplexe Aktivitäten auszuführen, und können somit eine Grundlage für selbstorganisierende Anwendungen sein. In diesem Papier beschreiben wir Anwendungen mit Selbstorganisation basierend auf der DIET Multi-Agenten-Plattform, die leichtgewichtige Agenten unterstützt. Es können Multi-Agenten-Systeme geschaffen werden, die Dezentralisierung, Skalierbarkeit und Anpassungsfähigkeit unterstützen. Wir zeigen, dass diese Anwendungseigenschaften für den Informationsaustausch in mobilen Gemeinschaften durch Selbstorganisation zwischen Mittelagenten und durch Peer-to-Peer-Interaktion zwischen Agenten nützlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/11734697_9 32b0003e02f9ee9716ece1244d552051;de;;;6.1.;;;Datenfreigabesystem mit integrierter Zugangskontrolle basierend auf Smart Contracts für IoT Die Entwicklung des Internet of Things (IoT)-Netzwerks bringt ein neues Konzept des Internets. Das dramatische Wachstum des IoT erhöhte seine Nutzung. Das IoT-Netzwerk erleichtert auf verschiedene Weise insbesondere die Zugriffskontrolle und den Datenaustausch zwischen IoT-Geräten. Es gibt jedoch viele Herausforderungen, wie zum Beispiel: Sicherheitsrisiken, Datenschutz und Privatsphäre, Single Point of Failure durch Zentralisierung, Vertrauens- und Datenintegritätsprobleme usw. Diese Arbeit präsentierte ein blockkettenbasiertes Zugangskontroll- und Freigabesystem. Das Hauptziel dieser Arbeit ist es, die Probleme im Zugangskontroll- und Freigabesystem in IoT-Netzwerken zu überwinden und Authentifizierung und Vertrauenswürdigkeit zu erreichen. Die Blockchain-Technologie ist in das IoT integriert, was die Zugriffskontrolle und das Teilen vereinfacht. Mehrere Smart Contracts: Access Control Contract (ACC), Register Contract (RC), Judge Contract (JC) werden verwendet, die eine effiziente Zugriffsverwaltung ermöglichen. Darüber hinaus verwendet das Fehlverhaltensbeurteilungsverfahren einen Strafmechanismus. Darüber hinaus werden Berechtigungsstufen für die gemeinsame Nutzung von Ressourcen zwischen Benutzern festgelegt. Simulationsergebnisse zeigen den Kostenverbrauch. Balkendiagramme veranschaulichen die Transaktions- und Ausführungskosten von Smart Contracts und die Funktionen des Hauptvertrags.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-33509-0_81 887fa9b459bc7376b8622fc01d27e861;de;;;6.1.;;;Datenspeicherung und -abruf in der Astronomie Dieses Übersichtspapier beschreibt die verfügbaren Quellen gespeicherter astronomischer Daten: Archive, Kataloge und Bibliographie. Nach einem kurzen Überblick über den aktuellen Stand dieser Daten werden die Anforderungen an die Zuverlässigkeit diskutiert, einschließlich der Qualitätsschätzer. Die Organisation der verschiedenen Quellen in Datenbanken wird zusammengefasst. Probleme und Einschränkungen beim Zugriff und der Pflege dieser Daten werden aus der Sicht des Benutzers diskutiert, es werden lang- und kurzfristige Lösungen vorgeschlagen, um den Zugriff und die Pflege gespeicherter astronomischer Daten zu erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2249-8_28 7cd20f8b1de0ee98c63ffd08d8bbbc59;de;;;6.1.;;;Messungen negativer Verbindungswahrscheinlichkeiten in einem optischen Quantensystem Die Quanteninformationswissenschaft basiert auf dem Superpositionsprinzip und der nicht-lokalen Quantenkorrelation von Quantenzuständen. Diese nichtklassischen Eigenschaften sind immer noch mysteriös und werden als physikalische Phänomene nur unzureichend verstanden. Der Hauptgrund für die Unlösung solcher Probleme ist, dass wir nicht direkt alle nackten Informationen über die Quantenzustände erhalten können, da eine Aktion durch jede Messung die Quantenzustände absolut ändert. Vor kurzem haben wir eine Messung der Photonenpolarisation mit variabler Stärke realisiert, die in der Lage ist, die Messstärke von Null (keine Messung) bis zur vollständigen Projektion (vollständig destruktive Messung) zu steuern. Diese Vorrichtung ermöglicht es, eine sequentielle Messung von zwei nicht kommutierenden Observablen mit einem Fehler und den durch die Messung erzeugten Rückwirkungseffekten durchzuführen, die niemals gleichzeitig genaue Werte ergeben. Wir haben die Rolle der Messunsicherheiten der ersten variablen Festigkeitsmessung untersucht. Die experimentell ermittelten gemeinsamen Wahrscheinlichkeiten können als statistische Mischung erkannt werden, die durch zufällige Polarisationswechsel erhalten wird, die die Messunsicherheiten aus einer intrinsischen gemeinsamen Wahrscheinlichkeitsverteilung ergeben. Diese natürliche Annahme führte dazu, dass der Rückwirkungseffekt aus den experimentellen Wahrscheinlichkeiten entfernt wurde und die erhaltenen intrinsischen Wahrscheinlichkeiten negativ waren. Diese Analyse zeigt auch, wie die negativen Wahrscheinlichkeiten durch variable Kombinationen von Auflösungs- und Rückwirkungsunsicherheiten in beobachtbare positive Statistiken umgewandelt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-55429-5_4 bb860a082f44f719bf5c2da5731ae6be;de;;;6.1.;;;Vorbereitung für die Raumstation Im April 1990 brachte die NASA das erhoffte Juwel in der Krone der Astronomie auf den Markt: das 1,5 Milliarden Dollar teure Hubble-Weltraumteleskop (lIST). Heute hat sich das Teleskop natürlich einen wohlverdienten Ruf als eines der erfolgreichsten weltraumgestützten Observatorien aller Zeiten erworben. In mehr als zwei Jahrzehnten Betrieb haben seine Instrumente tiefer in den Kosmos geblickt als je zuvor. Es hat Bilder von fernen Galaxien aufgenommen, Durchbrüche in Physik und Kosmologie durch die genaue Bestimmung der Expansionsrate des Universums erzielt, Planeten um weit entfernte Sterne entdeckt, den Einschlag eines Kometen auf Jupiter beobachtet, Wolkenbewegungen in den Atmosphären von Uranus und Neptun verfolgt und erstellte die beste derzeit erreichbare 'Karte' der Oberfläche von Pluto.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4939-1307-7_3 8ebd68d2246cc9ff2b197895818d1ffe;de;;;6.1.;;;Integrierte Geländeeinheitskartierung auf der Beaufort Coastal Plain, North Slope, Alaska, USA Die Kartierung der Integrated Terrain Unit (ITU) ist eine Technik, die verwendet wird, um Karten zu entwickeln, die spezifische Ökosystemdienstleistungen und Landschaftsempfindlichkeitsmessungen darstellen, die für die Landnutzungsplanung und Stichprobenentwürfe für räumlich geschichtete Studien nützlich sind.;-;-;-;https://link.springer.com/article/10.1007/s10980-020-01154-x 6d2505b10579954c747b0351a6c61199;de;;;6.1.;;;Die Studie zu Management und Entwicklung der Wertschöpfungskette Aufbau staatlicher Waldressourcen Betriebsorganisation Mit Chinas Forstreform stehen Theorie und Praxis des Zustands der Waldressourcenbewirtschaftung vor einem historischen Wendepunkt, da der Kern des Wirtschaftswachstums, die optimierte Allokation staatlicher Waldressourcen, die Verbesserung der betrieblichen Effizienz und die Optimierung der Managementstruktur der Organisation sein wird im Fokus der Entwicklung des Waldressourcenmanagements. Durch den Aufbau der Wertschöpfungskette staatseigener Forstwirtschaftsorganisationen würde der Wert des Hauptgeschäfts eines Unternehmens ermittelt, die staatliche Forstressourcen dynamische Organisation, Koordination und Verwaltung angeregt, die Wettbewerbsfähigkeit der Betriebsorganisationen in der Forstwirtschaft verbessert und ein schnelle und nachhaltige Entwicklung der Forstwirtschaft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29452-5_75 22939773af1a9c4d388b62f557dc0b04;de;;;6.1.;;;Geschäftsmodell des mobilen Dienstes zur Gewährleistung der Sicherheit von Schülern sowohl in Katastrophen- als auch in Nicht-Katastrophen-Situationen während Schulausflügen Wir entwickeln einen mobilen Dienst zur Gewährleistung der Sicherheit der Schüler während der Klassenfahrten, der den aktuellen Standort und eine Bewegungshistorie während ihrer Fahrten für Nicht-Katastrophensituationen bereitstellt und im Katastrophenfall zur Flucht beiträgt. Seit dem Großen Erdbeben in Ostjapan sind die Lehrer nun verpflichtet, die Sicherheit der Schüler während der Schulausflüge zu gewährleisten. Wir haben den mobilen Service entwickelt, um diesen steigenden sozialen Bedürfnissen gerecht zu werden. Während der Entwicklung fanden wir neben den technischen Problemen einige Probleme, die gelöst werden mussten. Nämlich (1) Monetarisierung des Geschäfts, (2) eingeschränkter Vertriebskanal, (3) Angst vor dem Umgang mit personenbezogenen Daten und (4) negative Neigung der Lehrer zu neuen technischen Hilfsmitteln. In diesem Papier wird aus Sicht des Unternehmens unser Ansatz zur Realisierung der Dienstleistung beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03973-2_8 457e3b950b7053060577e6a7bf9dd707;de;;;6.1.;;;Einige Modelle und Frameworks überprüft Das IMBOK könnte nur als ein weiteres Management-Framework angesehen werden, es gibt mehr als ein paar solcher Frameworks. Dies war nicht das erste und es wird sicherlich nicht das letzte sein. Daher ist es wichtig zu prüfen, wie sich das IMBOK in das Gesamtkonzept einfügt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11909-0_11 b7a5e8f3ee5bdca936a810a16b173066;de;;;6.1.;;;Beobachtung der Charakteristika der Multi-Activity-Trip-Chain und ihres Einflussmechanismus Das Verständnis der Mechanismen der täglichen Reisekette, insbesondere der Reisekette mit mehreren Aktivitäten, ist für das Reisenachfragemanagement und die Stadterneuerung von Bedeutung. In diesem Artikel wird das Verhalten der Multi-Activity-Trip-Kette anhand einzelner Attribute und räumlicher Attribute untersucht. Multiaktivitäts-Reiseketten werden aus den ganztägigen Reisetagebüchern der Menschen identifiziert und dann in intermittierende Multiaktivitäts-Reiseketten und kontinuierliche Reiseketten kategorisiert, um die Eigenschaften und Einflussfaktoren der verschiedenen Ketten zu unterscheiden. Unter Verwendung von Reiseerhebungsdaten von Einwohnern des Bezirks Xiaoshan in Hangzhou, China, werden ein multinomiales logistisches Regressionsmodell, eine Übergangswahrscheinlichkeitsmatrix und Methoden zur Aktivitätsanalyse verwendet, um Analysen durchzuführen. Zu den Ergebnissen gehören: 1) Die Erstellung einer Reisekette mit mehreren Aktivitäten kann mehrere Zwecke mit einer geringeren durchschnittlichen Reisezeit für jeden Zweck erfüllen, aber öffentliche Verkehrsmittel werden weniger genutzt. 2) Die Wahl zwischen einer Reisekette mit einer oder mehreren Aktivitäten und einer intermittierenden oder kontinuierlichen Reisekette mit mehreren Aktivitäten wird hauptsächlich von verschiedenen individuellen Merkmalen wie Beruf, Bildung, Haushaltseinkommen usw. beeinflusst. Darüber hinaus werden Haushaltsregistrierung, Führerschein, Geschlecht und, Pkw-Besitz im Haushalt hängen mit der Wahl der Aktivitätssequenz zusammen. 3) Bei einer typischen Reisekette mit den Zwecken Arbeit, Einkaufen/Essen und Zuhause wird die Aktivitätsabfolge offensichtlich auch durch die räumliche Distanz zwischen Start- und Zielort beeinflusst, insbesondere bei der Kette Arbeit-Einkaufen/Essen-Zuhause.;-;-;-;https://link.springer.com/article/10.1007/s12205-020-1927-8 a74820f3993f3daefd1eeaa3ad90ba66;de;;;6.1.;;;Das Warum, Was und So Was von Computern auf der Intensivstation Es besteht weiterhin Interesse und Entschlossenheit, „Freitext“-Aufzeichnungen für computergestützte Intensivstationen zu verwenden. Kürzlich haben Hohnloser und Purner [0] auf mehrere Vorteile der Verwendung von handelsüblichen Textverarbeitungssoftwarepaketen zur Unterstützung der Patientenversorgung hingewiesen. Ein solches Aufzeichnungssystem auf der Intensivstation ermöglicht es Ärzten, Fortschrittsnotizen in einem „Freitext“-Format einzugeben. Darüber hinaus ist ihr System in der Lage, die Aufnahmediagnose des Patienten zu codieren (mittels ICD-9) und Daten von einem Laborcomputersystem zu sammeln. Eine nützliche Innovation dieser und anderer ähnlicher Systeme ist die Integration von „Hypertext“-Softwaretools, um Freitextnotizen in der Patientenakte zu bearbeiten. Viele wünschenswerte Merkmale von ICU-Systemen werden jedoch durch Systeme ausgeschlossen, die hauptsächlich auf Freitext basieren. Wir haben starke emotionale und wissenschaftliche Unterstützung für unseren Standpunkt, dass codierte und integrierte computergestützte Intensivstationen „Freitext“-Systemen überlegen sind. Die Entwicklung computergestützter Kartierungen auf der Intensivstation ist seit zwei Jahrzehnten im Gange. Daher werden wir an den Kommentar des Philosophen George Santayana (1863-1952) erinnert: „Diejenigen, die sich nicht an die Vergangenheit erinnern, sind dazu verdammt, sie zu wiederholen. ”;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-2698-7_22 cb968284d51bfb7fdefbd19438bacc3a;de;;;6.1.;;;Datenqualitätsprojekte und -programme Projekte und Programme sind zwei grundlegende Wege, um Datenqualität in die Praxis umzusetzen. Ein Datenqualitätsprojekt (DQ) umfasst einen Arbeitsplan mit klaren Anfangs- und Endpunkten und spezifischen Leistungen und verwendet Datenqualitätsaktivitäten, Methoden, Werkzeuge und Techniken, um ein bestimmtes Geschäftsproblem anzugehen. Ein Datenqualitätsprogramm hingegen, oft angeführt von einem ersten Projekt, sorgt dafür, dass die Datenqualität auch langfristig praktiziert wird. Dieses Kapitel konzentriert sich auf die Komponenten, die für erfolgreiche Datenqualitätsprojekte und -programme erforderlich sind, und stellt verschiedene Frameworks vor, um diese Komponenten zu veranschaulichen, einschließlich der Zehn Schritte zu Qualitätsdaten und vertrauenswürdigen Informationen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36257-6_3 db7143ee515d0441d832a112eb8b24b5;de;;;6.1.;;;Unterstützung des Übergangs von inhaftierten Jugendlichen zurück in die Gemeinschaft: Ein multisystemischer Rundum-Ansatz Die oft komplexen Bedürfnisse junger Menschen zu erfüllen, die von Jugendstrafanstalten zurück in die Gemeinschaft wechseln, kann eine entmutigende Aufgabe sein, aber gut geplante Übergänge, die alle Interessengruppen über einen multisystemischen Rundum-Ansatz einbeziehen, führen zu erheblich verbesserten Ergebnissen. In diesem Kapitel wird ein multisystemischer Ansatz beschrieben und als Best Practice angeboten. Es ist gut auf die letzten beiden Bereiche des ausgerichtet;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-0752-2_6 ed55c0160aba5b5a0fbd1d225776b277;de;;;6.1.;;;Was Versicherungen tun müssen Naylor bietet eine nützliche Analyse und Zusammenfassung dessen, was etablierte Versicherer tun müssen, um die drohenden Wellen disruptiver technologischer Innovationen und den Wettbewerb durch InsurTech-Teilnehmer zu überleben. Dies wird in den Rahmen der Innovation Disruption Theory gestellt und nutzt eine Reihe von Industriestudien. Das Kapitel analysiert jede Phase des Versicherungsprozesses und skizziert, was erforderlich ist. Die Versicherungsbranche gilt als änderungsbedürftig in Bezug auf ihre Leistung, ihren Managementstil und ihre Kundenbindung. Das Hauptthema des Kapitels ist, dass eine intensive End-to-End-Automatisierung die Produktionskosten verändern wird. In dem Kapitel wird argumentiert, dass die Kombination mit telematikbasierten Big Data- und KI-Analysen dazu führt, dass das aktuelle Versicherermodell wahrscheinlich veraltet ist. Naylor argumentiert, dass der Weg in die Zukunft darin besteht, die Versicherung von einem produktbasierten Modell zu einem datenbasierten Servicemodell zu transformieren. Dies wird es den etablierten Anbietern ermöglichen, zu überleben und die Gewinnströme zu steigern. Das Kapitel skizziert den Bedarf an erhöhter Flexibilität und schneller Reaktion auf sich ändernde Kundenerwartungen. Das Kapitel legt dann eine Reihe von Transformationspfaden dar. Dazu gehören eine aktivere Einbeziehung der Kunden und die Schaffung eines breiteren Geschäftsökosystems. Die Managementanforderungen für den Übergang zu einem datenbasierten KI-Ansatz werden untersucht. Die Lehren aus einer Reihe erfolgreicher und erfolgloser Business Case Studies sind durchgehend integriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-63835-5_5 e2f3783afb55a2c20a14e76465817759;de;;;6.1.;;;Inhalte erstellen Nachdem Sie nun die Grundlagen im Griff haben und einen Rahmen für Ihre Dokumente geschaffen haben, kann der eigentliche Spaß beginnen: Es ist an der Zeit, Ihren Webseiten Inhalte hinzuzufügen. In diesem Kapitel lernen Sie die meisten HTML-Elemente kennen, die Sie benötigen, um Ihren Inhalten eine organisierte und sinnvolle Struktur zu geben. Wir haben die Elemente je nach Zweck in allgemeine Kategorien unterteilt, von der Unterteilung eines Dokuments in logische Abschnitte bis hin zur Hervorhebung einzelner Wörter. Auf dem Weg sehen Sie Beispiele dafür, wie Webbrowser die verschiedenen Elemente mit ihrem Standardstil rendern. Dann zeigen wir Ihnen einige Möglichkeiten, wie Sie mit CSS die Darstellung Ihres Textes verbessern können.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-3877-5_4 5588cade77a15f16f88956aad9a44829;de;;;6.1.;;;Design und Implementierung eines Performance Measurement Systems für den deutschen Handel Führungskräfte in Handelsunternehmen benötigen heute Informationsmanagement-Tools, die ihnen relevante Informationen flexibel zur Verfügung stellen. In diesem Kapitel wird diesem Bedarf Rechnung getragen, indem ein System zur Leistungsmessung vorgeschlagen wird, das besonders auf die Informationsbedürfnisse von Managern im deutschen Handel zugeschnitten ist. Ihr Informationsbedarf wird durch die Anwendung der Erfolgsfaktormethode und durch die Analyse empirischer Erfolgsfaktorenforschung zum deutschen Handel ermittelt. Entsprechend dem ermittelten Informationsbedarf wird die Trade Scorecard (TSC) vorgeschlagen, ein Leistungsmessungssystem für Führungskräfte im deutschen Handel. Anschließend wird das TSC als Prototyp in eine Business-Intelligence-Umgebung implementiert, die einen flexiblen Echtzeitzugriff auf Unternehmensdaten unterstützt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-15696-5_3 96679c239add884e88e36c44e90d0771;de;;;6.1.;;;Experimentelle Integration der Planung in ein verteiltes Leitsystem Dieses Papier beschreibt eine komplette Systemarchitektur, die die Planung in eine zweiarmige Roboterarbeitszelle integriert. Das System besteht aus vier Hauptkomponenten: Benutzeroberfläche, Planer, der zweiarmigen Robotersteuerung und -sensorik sowie einem Online-Simulator.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0027584 2e4a001f3d4b89cc7874aaf955403d42;de;;;6.1.;;;Regulatory Affairs und Biotechnologie in Europa Die hohen Kosten und Risiken, die mit der Erforschung und Entwicklung neuer Medikamente verbunden sind, erfordern eine aufmerksame und realistische Gesetzgebungspolitik auf nationaler und internationaler Ebene. Die Registrierung eines neuen Arzneimittels vor Erteilung einer Zulassung ist für alle Branchen der pharmazeutischen Industrie wichtig, aber entscheidend für den Erfolg im innovativen biotechnologischen Bereich.;-;-;-;https://link.springer.com/article/10.1007/BF02170136 1f894ab69cc7ca2c338a089798121619;de;;;6.1.;;;Charakterisierung von Bustransaktionen für SPECweb96 Benchmark In diesem Kapitel haben wir den durch den SPECweb96-Benchmark erzeugten Busverkehr in einem Vier-Prozessor-SMP-System mit NT/4-Betriebssystem charakterisiert. Wir stellen fest, dass der Benchmark sehr netzwerkintensiv ist, was den Rechen- und Bandbreitenverbrauch betrifft. Die Studie zeigt, dass die Transaktionen über die vier Prozessoren hinweg gut ausbalanciert sind und keine langfristigen Abhängigkeiten aufweisen. Im Benchmark gibt es erhebliche Sperrkonflikte, was sich in einer großen Anzahl von treffermodifizierten Transaktionen widerspiegelt. Außerdem existiert in den Bustransaktionen ein beträchtliches Maß an räumlicher Lokalität, die durch eine effiziente Cache-Organisation ausgenutzt werden kann. Die Schlussfolgerungen aus dieser Studie können für die Gestaltung effizienter Internetserver verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4387-9_4 eee4ab4388ae977ff48f8a50b0b403ac;de;;;6.1.;;;Evaluieren des computergestützten Unterrichts Mit dem Aufkommen kostengünstiger Mikrocomputer wurde der computergestützte Unterricht (CAI) als Unterrichtsstrategie in der Krankenpflegeausbildung wiederbelebt. Die Sorge um einen kosteneffektiven, qualitativ hochwertigen Unterricht erfordert von Pflegepädagogen, CAI zu bewerten, sie mit anderen Methoden zu vergleichen und Entscheidungen über ihren Einsatz in einem bestimmten Kurs oder Lehrplan zu treffen. Evaluationen dieser Art beschränken sich oft auf die Messung des Wissensgewinns der Studierenden durch zielorientierte Evaluation. Dieser Bewertungsansatz liefert zwar Informationen über einige Aspekte der CAI, schränkt jedoch andere Aspekte ein, die berücksichtigt werden sollten, wenn Entscheidungen mit weitreichenden und langfristigen Konsequenzen getroffen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-3622-1_42 a38cf624a626b97c9443ad5a8a10a479;de;;;6.1.;;;Globale Parallelitätssteuerung mit Nachrichtenreihenfolge der Gruppenkommunikation in Multidatenbanksystemen Ein Multidatabase-System (MDBS) wurde entwickelt, um universellen Zugriff auf verteilte Daten über mehrere autonome und möglicherweise heterogene lokale Datenbanksysteme hinweg bereitzustellen. In diesem Papier schlagen wir einen neuen globalen Parallelitätskontrollalgorithmus namens GCC-M im MDBS vor. GCC-M ist der erste Algorithmus, der die Idee der Nachrichtenreihenfolge der Gruppenkommunikation in die globale Parallelitätssteuerung integriert. Die Nachrichtenreihenfolge ermöglicht die einfache Bestimmung der relativen Serialisierungsreihenfolge globaler Transaktionen und kann somit den globalen Parallelitätskontrollalgorithmus einfach machen und auch verteilte Deadlocks vermeiden. Anhand eines verteilten Datenbanksimulationsmodells zeigen wir, dass GCC-M die bisherigen globalen Parallelitätskontrollalgorithmen in einer Vielzahl von Datenbank-Workloads übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24767-8_73 8b9eb2d3372b6c52a58ed070aec17e7e;de;;;6.1.;;;Eine skalierbare, ledgergestützte Architektur für die sichere Abfrageverarbeitung über verteilte IoT-Daten Riesige Mengen an IoT-Daten stellen in zentralisierten Datenmanagementsystemen einzigartige Herausforderungen. Insbesondere können IoT-Daten aus heterogenen und verteilten Quellen stammen, und im Allgemeinen verbieten Vorschriften, dass Daten von verschiedenen IoT-Stakeholdern über eine zentrale Governance verwaltet werden. Um für IoT-Anwendungen zu dienen, nutzen jüngste Vorschläge verteilte Ledger (z. B. Blockchains), um auf der verteilten Datenspeicherung mit verbesserter Dateninteroperabilität zu funktionieren. Leider berücksichtigen die meisten von ihnen Datensicherheit und Datenschutz gar nicht erst. Zusammen mit diesem transformativen Paradigma schlagen wir in diesem Papier eine Ledger-gestützte Architektur für ein sicheres verteiltes IoT-Datenmanagement vor. Diese Architektur passt die durchsuchbare Verschlüsselung an ein dezentralisiertes Speichernetzwerk an, um eine verschlüsselte Abfrageverarbeitung zu ermöglichen. Inzwischen ist es darauf ausgelegt, das verteilte Hauptbuch zu nutzen, um sowohl die Daten- als auch die Abfrageintegrität zu stärken. Um mit kontinuierlich generierten IoT-Daten umzugehen, entwickeln wir außerdem ein effizientes sicheres Dateneinfügungsprotokoll und verwenden eine aktuelle Blockchain-Variante, damit Benutzer aktualisierte Abfrageergebnisse skalierbar validieren können. Bewertungen zum Azure Blockchain-Dienst bestätigen die Praktikabilität unserer vorgeschlagenen Architektur.;-;-;-;https://link.springer.com/article/10.1007/s42045-020-00038-7 2e3b81c5176df254d091ffc652f6917a;de;;;6.1.;;;IoT-Anwendungen in der Lieferkette Egal, ob Sie in der Fertigung, im Einzelhandel, in der Landwirtschaft, im Finanzwesen oder in einer anderen Branche tätig sind, Sie planen und steuern zu jedem Zeitpunkt den Fluss von Rohstoffen, Fertigwaren oder beidem durch Ihre Lieferkette. IoT-Geräte wie intelligente Thermostate, Haushaltsgeräte und Fitnessbänder haben allmählich einen deutlichen Einfluss auf den Alltag der Verbraucher, aber jetzt ist es an der Zeit zu verstehen, wie das IoT das Lieferkettenmanagement und die Geschäftswelt erheblich verändert. In diesem Kapitel werde ich IoT-Anwendungen bereitstellen, um verschiedene Bereiche zu verbessern, in denen wir die meisten Fortschritte und Veränderungen sehen werden, mit dem ständig voranschreitenden IIoT bei Supply-Chain-Management-Lösungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-6041-8_9 b2cb9e12345521c16ea7a1704f28b3d7;de;;;6.1.;;;Grid Service Implementierung von Aerosol Optical Thickness Retrieval über Land von MODIS Um die tatsächlichen Landoberflächeninformationen quantitativ abzuleiten, sollten die atmosphärischen Effekte korrekt entfernt werden. Atmosphärische Effekte abhängig von Aerosolpartikeln, Wolken und anderen Atmosphärenbedingungen. Aerosolparameter können aus den fernerfassten Daten abgerufen werden. Die wiedergewonnenen Aerosolcharaktere können auch zur Umgebungsüberwachung verwendet werden. Um die optische Aerosoldicke über Land zu ermitteln, wurden viele Verfahren entwickelt. Die beliebteste Methode ist die dunkle dichte Vegetationsmethode. Aber es ist auf Vegetationsfelder beschränkt. Die SYNTAM-Methode kann verwendet werden, um die optische Aerosoldicke über Land aus MODIS-Daten zu ermitteln, unabhängig davon, ob das Land dunkel oder hell ist. In diesem Artikel wird die SYNTAM-Methode auf MODIS-Daten angewendet, um die optische Dicke von Aerosolen über China abzurufen. Der Abrufprozess ist kompliziert. Und der erforderliche EMS-Speicher ist zu groß, als dass ein Personal Computing erfolgreich ausgeführt werden könnte. Um dieses Problem zu lösen, wird die Grid-Umgebung verwendet. Unsere Experimente wurden auf dem High-Throughput Spatial Information Processing Prototype System basierend auf der Grid-Plattform im Institute of Remote Sensing Applications der Chinesischen Akademie der Wissenschaften durchgeführt. Das Verfahren zur Ermittlung der optischen Dicke des Aerosols wird in diesem Papier beschrieben. Und die Detaildatenabfrage, Datenvorverarbeitung, Jobüberwachung und Nachverarbeitung wird besprochen. Darüber hinaus werden in diesem Papier auch Testergebnisse berichtet.;-;-;-;https://link.springer.com/chapter/10.1007/11751632_117 7a22d27798be4781d405e061c29b94ed;de;;;6.1.;;;Mikroprozessoren für die Datenbankverwaltung und -analyse in der biomedizinischen Forschung Die Softwareanforderungen des biomedizinischen Forschungsdatenmanagements werden diskutiert, insbesondere die Komplexität und Vielfalt biomedizinischer Daten, mit einigen möglichen Lösungsansätzen. Statistikpakete, Datenverwaltungs- und Datenbankverwaltungssysteme können miteinander verbunden werden, sowie Berichtsgeneratoren und Tabellenerstellungsprogramme.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-51461-6_14 a3a3b48db32a6d11037bce8a3ba66202;de;;;6.1.;;;Das globale Bild: Grenzen des Wachstums versus Wachstum ohne Grenzen Umweltveränderungen, ob natürlich oder vom Menschen verursacht, lösen komplexe Folgenkaskaden aus. Solche Kaskaden spielten eine Rolle beim Zusammenbruch vergangener Zivilisationen. Diese Veranstaltungen liefern Lehren für aktuelle ökologische Herausforderungen, insbesondere den globalen Klimawandel und den Verlust der biologischen Vielfalt. Die wirtschaftliche Notwendigkeit eines konstanten Wachstums stellt eine große Herausforderung für den globalen Naturschutz dar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-46773-9_11 14f17671e75e8847da4533642bfe6050;de;;;6.1.;;;Synchronisierung von verteilten Konfigurationstools mithilfe von Feature-Modellen Die strategische Marktpositionierung von Werkzeugmaschinenherstellern in Hochlohnländern zeichnet sich durch eine Kombination aus Configure-to-Order auf Basis vordefinierter Varianten und einer anschließenden Anpassung (Engineer-to-Order) an individuelle Anforderungen aus. Da die produktbestimmenden Daten geändert werden, muss jedes beteiligte Engineeringsystem mit einer global konsistenten Konfiguration initialisiert werden. Aufgrund fehlender Toolunterstützung und Systematik sind Hersteller mit einer hohen Komplexität hinsichtlich Datenmanagement und Workflows konfrontiert. In diesem Beitrag wird ein Konzept zur effizienten Verwaltung von Engineering-Daten für Produktfamilien vorgestellt. Die Lösung basiert auf verteilten toolinternen Konfiguratoren, aus denen automatisch standardisierte Merkmalsmodelle erstellt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23860-4_56 0b6e2fcbb18a5a8861bdce79c3471830;de;;;6.1.;;;Die Prozessmodellierung des kollaborativen Fertigungsprogrammgeschäfts basierend auf UML Mit der Globalisierung der Fertigung und der netzwerkbasierten Fertigung wird die traditionelle zentralisierte Organisationsform der Fertigung durch eine verteilte netzwerk-kollaborative Organisationsform abgelöst, die projektgetrieben und auf moderner Informationstechnologie, insbesondere Netzwerktechnologien, basiert. Um das kollaborative Fertigungsnetzwerkprojekt (im Folgenden: Verbundprojekte) effektiv zu managen, zielt dieser Beitrag darauf ab, auf UML basierende Modellierungssprache für den eigentlichen netzwerk-kollaborativen Fertigungsprozess einer zentralen Produktkomponente zu machen, in der Hoffnung, eine gute Methode für die Realisierung interaktiver Sicht, Kooperation und einheitlicher Datenverwaltung unternehmensübergreifend.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24273-1_55 723c343faeccbfb9a1e909d54fb6ffc1;de;;;6.1.;;;Kontrolle des Cloud-Datenzugriffs basierend auf der Reputation Cloud Computing bietet eine neue Art der Servicebereitstellung und wird in den Mobilfunknetzen und -diensten der nächsten Generation (kurz 5G) eine wichtige Rolle spielen. Datenschutz und Sicherheit in der Cloud sind ein entscheidendes Thema, das sich auf den Erfolg von Cloud Computing auswirkt und die Entwicklung von 5G behindern kann. Die Literatur hat eine Reihe von Cloud-Datenzugriffssteuerungsschemata vorgeschlagen. Bestehende Lösungen leiden jedoch unter einer hohen Rechenkomplexität und hohen Kosten und daher wurden nur wenige von ihnen in der Praxis wirklich eingesetzt. In diesem Papier schlagen wir ein praktisches Schema vor, um sicher auf Cloud-Daten zuzugreifen und das Zugriffsrisiko entsprechend dem Ruf von Cloud-Computing-Einheiten effektiv zu reduzieren, indem wir eine Proxy-Neuverschlüsselung anwenden, wenn der Dateneigentümer nicht online verfügbar ist oder nicht weiß, wie es geht den Zugang kontrollieren. Die Vorteile, Sicherheit und Leistung des vorgeschlagenen Systems werden durch umfangreiche Analysen, Sicherheitsnachweise und Implementierungen bewertet und begründet. Die Ergebnisse zeigen die Effizienz und Effektivität unseres Konzepts für den praktischen Einsatz.;-;-;-;https://link.springer.com/article/10.1007/s11036-015-0591-6 ffcf766a149a112f925796ab19e4d519;de;;;6.1.;;;Energiebewusster Datenaustausch in mobilen Ad-hoc-Netzwerken In mobilen Ad-hoc-Netzwerken (MANET) sind Computergeräte batteriebetrieben. Die begrenzte Energie in der Batterie schränkt die Berechnung und Kommunikation jedes Geräts ein. Daher werden Dienste wie das Teilen von Daten oder Informationen zwischen Benutzern in kritischen Umgebungen wie militärischen Anwendungen, Rettungseinsätzen usw. zu einer Herausforderung. Um dies zu überwinden, haben wir ein Replikationsmodell vorgeschlagen, das gemeinsam genutzte Daten in geeigneten Knoten repliziert. Es geht darum, wie die gemeinsame Nutzung von Daten effektiv erfolgen kann, indem die verbleibende Energie jedes Knotens, der das Replikat enthält, regelmäßig überprüft wird. Wenn die verbleibende Energie unter einen Schwellenwert fällt, kann die Replik zu geeigneten Knoten mit der maximalen Energie verschoben werden. Daher stellt unser Vorschlag die Dateiverfügbarkeit sicher, verbessert die Netzwerklebensdauer, verringert die Abfrageantwortzeit, erhöht den Energieverbrauch, verringert die Anzahl der Paketverluste aufgrund der Batterieentladung eines Knotens.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14493-6_39 a9950ebb6cc70e8378e7ad852cad95f9;de;;;6.1.;;;Eine C++-Bindung für Penguin: ein System für den Datenaustausch zwischen heterogenen Objektmodellen Das relationale Modell unterstützt das Ansichtskonzept, aber relationale Ansichten sind in ihrer Struktur begrenzt. OODBMSs unterstützen das View-Konzept nicht, sodass alle Anwendungen die gleiche Anordnung von Objektklassen und Vererbung haben müssen. Wir beschreiben das Penguin-System und seine Unterstützung für das View-Konzept. Jede Anwendung kann ihre eigene Anordnung von Objektklassen und Vererbung haben, und diese werden als Ansichten eines integrierten, normalisierten konzeptionellen Datenmodells, in unserem Fall des Strukturmodells, definiert. Wir definieren View-Objekte sprachunabhängig über das konzeptionelle Datenmodell. Diese Ansichtsobjekte können komplexe Objekte sein, die eine Verbundstruktur unterstützen. Wir diskutieren die Erweiterung von Penguin um PART-OF (Referenz) und IS-A Graphen für zusammengesetzte Ansichtsobjekte zu unterstützen. Wir besprechen auch die C++-Bindung an Penguin, bei der C++-Code für Objektklassen generiert wird, die den Ansichtsobjekten entsprechen, zusammen mit grundlegenden Operationen auf ihnen (Erstellung, Abfrage, Navigation, Durchsuchen und Aktualisieren).;-;-;-;https://link.springer.com/chapter/10.1007/3-540-57301-1_13 6582dcd8c963aa20ad690e40d4cfa38b;de;;;6.1.;;;Datenstandards für Omics-Daten: Die Grundlage für die gemeinsame Nutzung und Wiederverwendung von Daten Um den Austausch von Omics-Daten zu erleichtern, haben viele Wissenschaftlergruppen daran gearbeitet, die entsprechenden Datenstandards festzulegen. Die Hauptkomponenten von Standards für die gemeinsame Nutzung von Daten sind Standards für die Beschreibung von Experimenten, Standards für den Datenaustausch, Terminologiestandards und Standards für die Durchführung von Experimenten. Hier geben wir einen Überblick über bestehende und aufkommende Standards, die den freien und offenen Austausch großformatiger Daten unterstützen sollen.;-;-;-;https://link.springer.com/protocol/10.1007/978-1-61779-027-0_2 bde52800864c36cf7f8c1c31f34703aa;de;;;6.1.;;;Systematische Methode für Big Manufacturing Data Integration und Sharing Manufacturing Data Integration and Sharing (MDIS) ist eine wesentliche und Schlüsseltechnologie im Big Data-gesteuerten intelligenten Fertigungsmodus. Die Voraussetzungen von MDIS sind die Generierung von Produktlebenszyklusszenarien, Strategien zur Datenbeschaffung und Nutzung von Diensten gemäß den generierten Szenarien, um die Interessen von Benutzern, Herstellern und Umweltauswirkungen auszugleichen, sowie die Standardisierung von Datendiensten. Zunächst wird in diesem Papier der Integrationsprozess innerhalb des Unternehmens von der internen Ausrüstung-Zellen-Shop-Anlage-Unternehmen und dann in die externe Cloud diskutiert. Entsprechend den verschiedenen Szenarien oder Phasen werden drei Arten von MDIS-Methoden vorgeschlagen, dh physische Zentralisierung durch Zusammenführen mehrerer Datenquellen zu einer einzigen Quelle zur Sicherstellung der Korrektheit von Meta- oder allgemeinen Daten, physische Zentralisierung durch Pflege mehrerer Datenquellen zur Förderung zusammengesetzter Dienste von heterogene oder verschiedene thematische Daten und logische Zentralisierung durch die Entwicklung eines Datenverzeichnisses zur Gewährleistung der privaten Datensicherheit und der Interessen von Abteilungen oder Unternehmen. Dann wird eine hybride Cloud-Architektur für die Fertigung vorgeschlagen und lokale kritische Daten werden sicher über die private Cloud, externe erforderliche Daten oder die eigenen bereitgestellten Dienste verwaltet, die über die öffentliche Cloud verfügbar sind. Am Beispiel von Werkzeugmaschinen und Magnetlagerressourcen werden schließlich auf semantischer Ontologie basierende Unified-Service-Modellierungsmethoden verwendet, um die Verbindung und Interoperabilität zwischen Cyberspace und physischem Raum zu erleichtern.;-;-;-;https://link.springer.com/article/10.1007/s00170-017-0575-8 d3468d9feb20e26fef48d12932d965a5;de;;;6.1.;;;Verteiltes intelligentes Rentensystem basierend auf dem neuronalen Netzwerk von BP Das verteilte intelligente Rentensystem ist ein neues Altersrentensystem, das entwickelt wurde, um das Problem zu lösen, das in dezentralen Verwaltungssystemen in traditionellen Pflegeheimen bestand, wie z. B. Informationsisolierung und unvollkommene Renteneinrichtungen. Das System vereint die Vorteile der RFID-Technologie und der Videoüberwachung. Um zu wissen, ob ältere Menschen gut versorgt sind, müssen beide Arten von Informationen verarbeitet und analysiert werden. Die Datenfusionstechnologie ist ein effektives Werkzeug, um die optimale Entscheidung von Multiattributdaten zu lösen. Bei dem Algorithmus der Datenfusion weist der neuronale Netzwerkalgorithmus eine gute Fehlertoleranz und Anpassungsfähigkeit auf und erfordert eine kleine Wahrscheinlichkeitsverteilung des Systems von vornherein. Es kann mit unvollständigen und ungenauen Informationen umgehen. In Kombination mit den vielfältigen und massiven Eigenschaften der Daten des verteilten intelligenten Rentensystems hat die Datenverarbeitung die Eigenschaften von Echtzeit und Genauigkeit. Darüber hinaus zeichnet sich das neuronale BP-Netz durch eine einfache Realisierung und hohe Erkennungsgenauigkeit in einem bestimmten Bereich aus. Der neuronale BP-Algorithmus wird als Untersuchung verwendet, und die zusätzliche Impulsmethode wird verwendet, um den traditionellen BP-Algorithmus zu verbessern. In der gleichen Richtung wird der Gradient zu Gewicht und Schwellenwert addiert, und der Algorithmus wird in Konvergenzrichtung garantiert.;-;-;-;https://link.springer.com/article/10.1007/s11277-018-5394-1 9a5d38b46e78e0e2c203bfbb52577df3;de;;;6.1.;;;Roadmap zur Hochdurchsatz-Phänotypisierung für die Pflanzenzüchtung Bevölkerungswachstum und Klimaunsicherheit erhöhen die Nachfrage nach mehr Nahrungsmitteln, um die Welt zu ernähren. Die Suche nach einer neuen Sorte und die Entdeckung neuer genetischer Merkmale, die Stresstoleranz verleihen, werden die zukünftige Pflanzenproduktion für eine nachhaltige Landwirtschaft entscheidend verändern. Die Entwicklung und Implementierung von Technologien und Fähigkeiten zur Hochdurchsatz-Phänotypisierung (HTP) wird für diejenigen, die sich mit der Anwendung der Genomik in der Züchtungs- und Biotechnologieforschung beschäftigen, immer wichtiger. Viele Institute und private Unternehmen initiieren HTP-Programme, um die Qualität und Geschwindigkeit der Pflanzenzüchtung und Biotechnologie zu verbessern. Züchter und Pflanzenwissenschaftler müssen über jahrelange Zuchtprogramme hinweg solide Datenpipelines von Phänotypen sichern, ihnen fehlt jedoch ein technischer Hintergrund in den Bereichen Sensoren, Bildverarbeitung, Datenmanagement und Cloud-laufende Architektur.;-;-;-;https://link.springer.com/article/10.1007/s42853-020-00043-0 5e87770a1729d5b4853ceb1df84559c0;de;;;6.1.;;;Inter-Firm Relationship Governance im Internet-Zeitalter: Beweise aus einer italienischen Umfrage Dieser Beitrag präsentiert einige Ergebnisse der Studie „Internet und Supply Chain Management: Neue Organisations- und Führungsmodelle“ basierend auf einer Umfrage unter 1458 in Italien tätigen Firmen mit mehr als 50 Millionen Euro Umsatz. 463 Firmen haben an der Studie teilgenommen, mit einer Rücklaufquote von 31,8 %.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-6000-9_23 c2d3c7c011f02caa9f375db4c4d80253;de;;;6.1.;;;Datenanalyse zur Verbesserung der Gesundheitsqualität Die Transformation des Gesundheitswesens erfordert und wird auch weiterhin eine sinnvolle Integration von Daten in die Krankenbettpflege, Modelle zur Bevölkerungsgesundheit und ausgeklügelte Strategien erfordern, um Analysen in bessere Ergebnisse zu übersetzen. Die Möglichkeit, auf Daten zuzugreifen, sie richtig zu analysieren und effektiv zu nutzen, um Verbesserungen voranzutreiben, ist jedoch für viele Gesundheitsorganisationen immer noch eine Herausforderung. Die Nutzung der Datenkraft zur Qualitätsverbesserung erfordert einen Kulturwandel in vielen Institutionen und Praktiken. Gesundheitssysteme profitieren von der Anwendung von Gesundheitsinformatik und der Umwandlung von Daten in verwertbare Informationen mit rechtzeitiger Bereitstellung. Diese Transformation erfordert sowohl Technologie als auch Fachwissen. Organisationen müssen funktionsübergreifende Teams mit klinischem, operativem und finanziellem Know-how mit einer Data-Governance-Struktur unterstützen, um ihre Funktionen zu unterstützen. Mit der Verlagerung der Zahlungsmodelle im Gesundheitswesen von leistungsabhängigen zu wertbasierten Zahlungen (niedrigere Kosten für bessere Ergebnisse) besteht ein zunehmender Bedarf, sowohl Ergebnisse als auch Kosten genauer und präziser zu messen. In diesem Kapitel werden die wichtigsten strategischen Elemente untersucht, die erforderlich sind, um die Analytik im Gesundheitswesen voranzutreiben, und wie Analytik auf die klinische Entscheidungsunterstützung, Strategien zur Bevölkerungsgesundheit und die Messung des Werts der Versorgung angewendet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-48080-6_6 80777d4cdf1df1ba41bb7acd0de56798;de;;;6.1.;;;Kooperative Produktentwicklung mit heterogenen CAD-Systemen über EDM und Breitbandkommunikationstechnik Die folgende Exposition stellt einen Vorschlag für eine multimediale Arbeitsumgebung vor, der im Rahmen des Verbundforschungsprojekts SEBID (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-60718-9_5 a80485cd0518d7b87b4db85878597d1d;de;;;6.1.;;;Anwendung der Big-Data-Technologie für massive Datenmengen über den gesamten Lebenszyklus der EMU Im Hinblick auf die EMU-Produkte verfügen die Produkte über die riesigen Datenmengen aus verschiedenen Fertigungsinformationssystemen. In den Konstruktions-, Herstellungs-, Betriebs- und Instandhaltungsprozessen des gesamten Lebenszyklus. Herkömmliche Tools und Methoden können die Datenverwaltungsaufgaben mit riesigen Daten aufgrund ihrer Mängel nicht erfüllen. In diesem Papier stellen wir den k-means-Algorithmus auf der Grundlage des parallelen Programmiermodells MapReduce vor, der die Datenverarbeitungs- und Data-Mining-Effizienz verbessern kann. Experimente am Hadoop-Cluster zeigen, dass der vorgeschlagene Algorithmus machbar, stabil und effizient ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49568-2_31 e5ad8896dd56d1fe05237a5717b3fcbf;de;;;6.1.;;;Framework-Architektur In diesem Kapitel stellen wir eine konzeptionelle Rahmenarchitektur für Webanwendungen vor. Das Ziel einer solchen Architektur ist zweierlei: als Orientierungshilfe und als Nutzwert zu dienen. Eines der Ziele jeder Framework-Architektur ist es, den Prozess des Webanwendungsdesigns durch eine Art „Leitfaden“ zu unterstützen. Warum müssen wir eigentlich einen Design-„Prozess“ im Bereich Web-Anwendungen berücksichtigen? Ist es nicht so einfach, einen Webserver zu installieren, ein PHP-Skript zu schreiben und die Daten in einer Datenbank zu speichern? Eine typische 30-Minuten-Aufgabe, mögen manche Leser denken. In diesem Kapitel versuchen wir zu zeigen, dass der Prozess der Erstellung von Webanwendungen sehr viel komplexer sein kann und viel mehr Planung und Architektur erfordert, als es auf den ersten Blick erscheinen mag. Die technologische Vielfalt, all diese konkurrierenden Ansätze und die Allgegenwart des Webs tragen sicherlich dazu bei.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-07631-6_2 bcd40d607fb53014e3a71148b1aa4541;de;;;6.1.;;;Verwendung der Data Grid-Technologie zum Aufbau des MODIS-Datenmanagementsystems in der Landwirtschaftsanwendung MODIS-Daten sind die weltweit besten Fernerkundungsdaten des freien Empfangs. Es spielt eine wichtige Rolle in der Agrarwissenschaft und -anwendung. Es gibt jedoch ein ernstes Problem bezüglich der doppelten Einrichtung von MODIS-Datenempfangsstationen in China, und dies hat eine enorme Geldverschwendung mit sich gebracht. In diesem Beitrag werden Forschungsarbeiten zur Nutzung der Data-Grid-Technologie zur Integration heterogener verteilter MODIS-Datenquellen vorgestellt. Wir haben eine dreischichtige Struktur für die Dateninteroperation untersucht und implementiert und die erweiterbare XML-basierte Sprache für den räumlichen Datenzugriff entworfen, um die grenzüberschreitende Datenberechnung zu unterstützen. Wir haben den MODIS-Datenkatalogdienst entwickelt, um Benutzern zu helfen und die Systemleistung zu verbessern. Die Forschung trägt dazu bei, den Konflikt zwischen der doppelten Einrichtung von MODIS-Empfangsstationen und dem weniger effektiven Datenaustausch zu lösen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18354-6_30 cd3c800b360a648f9bf36d4635f9ece6;de;;;6.1.;;;Eine Implementierung von InfluxDB für Monitoring und Analytics in verteilten IoT-Umgebungen Heutzutage kann es ohne Echtzeiteinblicke irrelevant sein, Sensoren zu haben und mehr Daten zu erhalten. Dieser Prozess ist in einem „intelligenten“ städtischen Ökosystem nicht trivial, sowohl für Unternehmen als auch für öffentliche Verwaltungen (PAs). Die Nutzung des Internets der Dinge (IoT) zusammen mit dem Datenaustausch sowohl auf der Front-End- als auch auf der Back-End-Seite verspricht Vorteile für das gesamte;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-21005-2_15 f01eeb5180e6448e849c44686efa76ad;de;;;6.1.;;;Die Rolle der schnellen Reaktion für ein bedarfsorientiertes globalisiertes Supply Chain Management für Bekleidung Der Zweck dieses Kapitels besteht darin, die Auswirkungen von Quick-Response-Problemen (QR) auf das bedarfsgesteuerte Lieferkettenmanagement (SCM) zu untersuchen und eine objektive Maßnahme für die Implementierung von QR in der Bekleidungslieferkette festzulegen, um auf dem globalen Modemarkt wettbewerbsfähig zu bleiben. Diese Forschungsarbeit basiert auf einer kritischen Überprüfung und Synthese aus früheren Konzeptpapieren, um ein Maß für QR zu erhalten. Dieses Kapitel stellt die Eignung der QR-Geschäftsstrategie in SCM her, um mit dem sich ändernden Verhalten der Verbraucherpräferenzen fertig zu werden und das Geschäft gemäß den Verbraucheranforderungen zu entwickeln. Um die Unsicherheiten und Nachfrageschwankungen zu minimieren, werden in diesem Papier Elemente und Dimensionen von QR bestimmt, indem die wesentlichen Tugenden der Lieferkette identifiziert werden. Dieses Kapitel widmet sich auch der Empfehlung des Treibers und der Tools zum Zusammenführen von QR mit bedarfsgesteuertem Bekleidungs-SCM. Diese Arbeit erweitert die bisherige Forschung zur Bedeutung der QR-Strategie im SCM und schließt eine Lücke im traditionellen Rahmen der nachfragegesteuerten Lieferkette. Es veranschaulicht, wie diese Strategie durch ihre Komponenten befähigt und in verschiedene Dimensionen, Tugenden und Elemente unterteilt wird, die ein kundenorientierteres SCM ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-4600-1_55 ced9ca23f3e60530fbdfe73de61f255b;de;;;6.1.;;;Ein neuartiges hybrides Bildauthentifizierungsschema basierend auf der Absolutmoment-Block-Trunkation-Codierung Wir schlagen ein neuartiges hybrides Bildauthentifizierungsschema vor, um die Integrität von Bildern zu schützen, die durch Absolute Moment Block Trunkation Coding (AMBTC) komprimiert wurden. In diesem Papier verwenden wir eine Hybridstrategie zum Einbetten der Authentifizierungscodes mit AMBTC, die gleichzeitig die Einbettungseffizienz verbessert. Alle Blöcke eines komprimierten Bildes werden in zwei Gruppen eingeteilt, glatt und komplex, die unterschiedliche Eigenschaften haben und für unterschiedliche Einbettungsverfahren geeignet sind. Bei glatten Blöcken wird der Authentifizierungscode in die Bitmap (BM) jedes Blocks eingebettet. Bei komplexen Blöcken wird der Authentifizierungscode gemäß einer Referenztabelle in die Quantisierungsebenen jedes Blocks eingebettet. Im Gegensatz zum vorherigen Ansatz ermöglicht die Hybridstrategie eine hohe Nutzung von Blöcken, die eine hohe Einbettungseffizienz für die Einbettung aufweisen, wodurch sich eine deutlich verbesserte Einbettungskapazität als der vorherige Ansatz ergibt. Die Leistung wird experimentell bewertet, um zu zeigen, dass unser vorgeschlagenes Schema eine verbesserte Bildqualität bietet und im Vergleich zu bestehenden Verfahren weniger anfällig für Manipulationen ist.;-;-;-;https://link.springer.com/article/10.1007/s11042-015-3059-6 ff75d9b0d41a9e3a032acc430a30d1a8;de;;;6.1.;;;Das kooperative Informationsmanagement PRODNET für industrielle virtuelle Unternehmen Bei der Entwicklung einer IT-Plattform zur Unterstützung von industriellen virtuellen Unternehmen (VEs) werden bestimmte Probleme im Zusammenhang mit den Anforderungen an das Informationsmanagement besonders herausfordernd, wie z. B. die physische Verteilung von Daten, die Unternehmensautonomie und die Durchsetzung des Datenschutzes, Zugriffsrechte auf gemeinsame Informationen und Datensichtbarkeit Ebenen, unter anderem. Im ESPRIT-Projekt PRODNET II wurde eine föderierte Datenbankarchitektur als Basis-Support-Framework entworfen und implementiert, um diese Probleme im Zusammenhang mit der gemeinsamen Nutzung und dem Austausch von Informationen in der VE-Umgebung effektiv zu bewältigen. In diesem Papier werden zunächst die allgemeinen Anforderungen an das Informationsmanagement beschrieben, die für das VE-Netzwerk im PRODNET II-Projekt identifiziert wurden, und dann werden die herausfordernden Designfragen hinter der Entwicklung der Komponenten des föderierten Informationsmanagementsystems vorgestellt.;-;-;-;https://link.springer.com/article/10.1023/A%3A1011252510739 bed300ee2d86d6b1b9f004e3d062bd99;de;;;6.1.;;;Datenmanagement zur Wildtierverfolgung: Chancen ergeben sich aus Schwierigkeiten In den letzten Jahren sind neue Wildtier-Tracking- und Telemetrie-Technologien verfügbar geworden, die zu einem erheblichen Wachstum der Menge an Wildtier-Tracking-Daten geführt haben. In Zukunft ist mit einer nahezu exponentiellen Zunahme der gesammelten Daten zu rechnen, da neue Sensoren in aktuelle Tracking-Systeme integriert werden. Eine entscheidende Einschränkung für die effiziente Nutzung von Telemetriedaten ist ein Mangel an Infrastruktur zum Sammeln, Speichern und effizienten Teilen der Informationen. Große Datensätze, die von Wildtier-Tracking-Geräten erzeugt werden, stellen eine Reihe von Herausforderungen: Um diese Datenmenge zu bewältigen, ist ein spezifischer Datenmanagement-Ansatz erforderlich, der auf Datenskalierbarkeit, automatische Datenerfassung, Langzeitspeicherung, effiziente Datenabfrage ausgelegt ist , Verwaltung räumlicher und zeitlicher Informationen, Mehrbenutzerunterstützung sowie gemeinsame Nutzung und Verbreitung von Daten. Modernste Technologie zur Bewältigung dieser Herausforderungen sind relationale Datenbankmanagementsysteme (DBMS) mit ihrer dedizierten räumlichen Ausdehnung. DBMSs sind effiziente, branchenübliche Werkzeuge für die Speicherung, den schnellen Abruf und die Bearbeitung großer Datensätze sowie die Weitergabe von Daten an Client-Programme oder Web-Schnittstellen. Für die Zukunft erwarten wir die Entwicklung von Werkzeugen, die gleichzeitig mit räumlichen und zeitlichen Dimensionen von Tierbewegungsdaten umgehen können, wie z. B. raumzeitliche Datenbanken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03743-1_1 9d783b04fcd2ae8b50bedd6d0aba4e52;de;;;6.1.;;;XMIDDLE: Eine Middleware für den Datenaustausch für mobiles Computing Eine zunehmende Anzahl verteilter Anwendungen wird für mobile Hosts geschrieben, wie etwa Laptop-Computer, Mobiltelefone der dritten Generation, persönliche digitale Assistenten, Uhren und dergleichen. Anwendungsingenieure müssen sich mit einer neuen Reihe von Problemen auseinandersetzen, die durch Mobilität verursacht werden, wie etwa geringe Bandbreite, Kontextänderungen oder Verbindungsverlust. Während der Trennung aktualisieren Benutzer in der Regel lokale Repliken gemeinsam genutzter Daten unabhängig voneinander. Daraus resultierende inkonsistente Replikate müssen bei der erneuten Verbindung abgeglichen werden. Um die Entwicklung mobiler Anwendungen zu unterstützen, die sowohl Replikation als auch Abgleich über Ad-hoc-Netzwerke verwenden, haben wir xmiddle, eine Mobile-Computing-Middleware, entwickelt. In diesem Whitepaper beschreiben wir xmiddle und zeigen, wie es Reflexionsfunktionen nutzt, um Anwendungsingenieuren die Beeinflussung von Replikations- und Abstimmungstechniken zu ermöglichen. xmiddle ermöglicht das transparente Teilen von XML-Dokumenten über heterogene mobile Hosts hinweg und ermöglicht den Online- und Offline-Zugriff auf Daten. Wir beschreiben xmiddle anhand einer Fallstudie zum kollaborativen Einkaufen über mobile Clients.;-;-;-;https://link.springer.com/article/10.1023/A%3A1015584805733 7a11287fe5a71e111393fc61babc26d0;de;;;6.1.;;;Die Wirksamkeit des positiven Datenaustauschs bei der Kontrolle des Schuldenwachstums in der Hongkonger Kreditkartenindustrie Um die steigende Zahl von Privatkreditinsolvenzen einzudämmen, hatte die Hongkonger Regierung Anfang 2002 einen Plan vorgestellt, der es den Banken ermöglicht, mehr Kreditinformationen über ihre Kunden zu teilen. In diesem Papier wird analysiert, wie effektiv das positive Datenaustauschsystem sein wird, und untersucht, ob andere persönliche Kreditmerkmale dem gleichen Zweck dienen können. In unserer Arbeit wurde eine Umfrage durchgeführt, um die Wahrnehmung der Branche zu überprüfen, welche Attribute für die Kreditrisikobewertung wesentlich sind. Das Ergebnis wurde mit der Implikation aus dem Neuro-Fuzzy-Data-Mining auf reale Transaktionsdaten verglichen. Der Vergleich legt nahe, dass die Wahrnehmung positiver Daten nicht absolut korrekt ist und der positive Datenaustausch seine Ziele nicht immer erreichen kann.;-;-;-;https://link.springer.com/chapter/10.1007/11677437_25 ebb19e5ee49515fa0b508ccb16cdf59f;de;;;6.1.;;;Studie zu einer intelligenten Inferenzmaschine im Frühwarnsystem der Staudammgesundheit Dam Mit Systems Engineering und künstlichen intelligenten Methoden wird ein Frühwarnsystem der Dammgesundheit (EWSDH) entwickelt. Dieses System besteht aus einem Integrationssteuermodul, einer intelligenten Inferenzmaschine (IIE), einem Unterstützungsbasiscluster, einem Informationsmanagement und Eingabe-/Ausgabemodulen. Als zentrale Recheneinheit von EWSDH ist IIE ein Entscheidungsunterstützungssystem zur Überwachung der Betriebseigenschaften und zur Diagnose unerwarteter Verhaltensweisen der Dammgesundheit. Mit den Lokalisierungseigenschaften im Zeit-Frequenz-Bereich und der Selbstlernfähigkeit von Wavelet-Netzwerken basierend auf Wavelet-Frames erstellt IIE einige neue Überwachungsmodelle für den Zustand von Staudämmen. Die Modelle werden verwendet, um die Betriebseigenschaften des Damms zu approximieren und vorherzusagen. Die Methoden der Attributionsreduktion in der Grobmengentheorie werden vorgestellt, um das unerwartete Verhalten adaptiv zu diagnostizieren. Das vorgeschlagene System wurde zur erfolgreichen Überwachung der Dammgesundheit verwendet.;-;-;-;https://link.springer.com/article/10.1007/s11269-010-9760-3 83173314c5906586e99c6f2cfe94133d;de;;;6.1.;;;Forschung zu agiler Satellitenbild-Simulationstechnologie basierend auf STKX Simulationstechnologie wird aufgrund ihrer Wirtschaftlichkeit und Schnelligkeit in der Luft- und Raumfahrt weit verbreitet eingesetzt. Die auf STKX basierende Simulationstechnologie erbt nicht nur die Professionalität und Zuverlässigkeit von STK (Satellite Tool Kit), sondern lässt sich auch nahtlos in die Software integrieren, die sich zu einer Schlüsseltechnologie in der Simulationsforschung in der Luft- und Raumfahrt entwickelt hat. Der agile Satellit ist eine Art Satellit, der das Bodenziel schnell und flexibel beobachten kann. Es ist von großer Bedeutung, moderne Landwirtschaft, Katastrophenvorsorge und -bekämpfung, Ressourcenforschung, Umweltschutz und nationale Sicherheit in China zu gewährleisten. Dieser Artikel nimmt die agile Satelliten-Bodenbeobachtung als technischen Hintergrund, erläutert die Grundprinzipien der STKX-Technologie, erklärt die technischen und technischen Aspekte wie die Erstellung von Satelliten, Kameras und Beobachtungszielen in der Szenensimulation und verwendet Cesium, um den Simulationseffekt zu demonstrieren von Bodenbeobachtungsbildern. Es zielt darauf ab, Referenzen für die technische Anwendung der STKX-Technologie bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4102-9_21 afcc59e55d442e0fb2d7f63102e60fdd;de;;;6.1.;;;Sicherer Datenaustausch mit interplanetarem Dateisystem für pharmazeutische Daten Wachstum der Internet-Technologie kennzeichnet das Internet der Dinge als vierte industrielle Revolution. Es ermöglicht die Kommunikation zwischen Geräten ohne menschliche Unterstützung. Eingebettete Geräte mit Smart Sensor extrahieren Daten aus der externen Umgebung und führen eine Aktivierung entsprechend der Anwendung durch. Trotz des Erhaltens zeitgesteuerter Daten hat diese Technologie aufgrund verschiedener Sicherheitsprobleme Nachteile, da sie für die Gerätekommunikation auf drahtlose Technologie basiert. Daher bedarf es einer Sicherheitslösung, um dieses Problem anzugehen. In diesem Beitrag werden die Sicherheitslücken in der pharmazeutischen Lieferkette untersucht. Diese Studie analysiert das Problem mit bestehenden Systemen bei der Fälschung von Datenmanipulation und der Privatsphäre der Benutzer für den sicheren Austausch von Benutzerdaten. Die Datensicherheit wird durch die Einführung von Blockchain verbessert, wobei hier das Interplanetary File System (IPFS) verwendet wird, um manipulationssichere Datenspeicherung und Datenabruf zu ermöglichen. Kryptografische Smart Contracts für die Geräteauthentifizierung und das Benutzerzugriffskontrollschema werden in Solidity Language geschrieben und auf Remix IDE ausgeführt. Transaktions- und Ausführungskosten werden für den Advanced Encryption Standard (AES)-Algorithmus und den Rivest-Shamir-Adelman (RSA)-Algorithmus in Bezug auf Ether als Gasverbrauchseinheit bewertet. Künstliche Intelligenz (KI) wird hier verwendet, um die Nachfrageproduktion mit genauen Lieferketteninformationen aus der Blockchain ohne betrügerische Aktivitäten zu prognostizieren. Die Regressionsanalyse wird mit Metriken wie Mean Square Error (MSE), Root Mean Square Error (RMSE) und R-Quadrat-Wert für drei Regressionsmodelle wie Long-Short Term Memory (LSTM), Ordinary Least Square (OLS) und Entscheidungsbaum. Aus der Studie geht hervor, dass LSTM andere Modelle mit einem MSE-Wert von 0,375 übertrifft, während OLS und Decision Tree mit 1,375 bzw. 2,58 MSE ausgeben. Die Integration von KI mit Blockchain bietet eine Geschäftslösung gegen Datenmanipulation im Lieferkettenprozess.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72236-4_11 5782d16059978a39243b1c75f1b9220e;de;;;6.1.;;;Fallstudie der irischen Immobilienbranche Dieses Kapitel liefert Branchennachweise durch eine detaillierte Fallstudie der irischen Immobilienbranche. Diese Fallstudie liefert empirische Belege für die Gründe für das Aufkommen des Franchising und seine Auswirkungen auf die Entwicklung der Branche. Dieses Kapitel präsentiert eine Industriegeschichte der irischen Immobilienwirtschaft vom Anfang des 20. Jahrhunderts bis heute und präsentiert die Veränderungen auf Unternehmens- und Branchenebene im Laufe der Jahrzehnte in einer chronologischen Darstellung. Das historische Konto basiert auf Primär- und Sekundärdaten, die von der irischen Immobilienwirtschaft erhoben wurden. Der Fokus dieser Studie liegt auf Immobilienmaklern, die überwiegend auf dem Wohnimmobilienmarkt tätig sind. Es gibt sieben führende Wohnimmobilienmakler in Irland, nämlich Sherry FitzGerald, Douglas Newman Good (DNG), RE/MAX, Hamilton Osbourne King (HOK), Gunne, Lisney und Property Partners (eine genossenschaftliche Organisation mit Sitz in Galway) unabhängiger Immobilienmakler). In den letzten Jahren haben sich Sherry FitzGerald und DNG jedoch zu den beiden Branchenführern entwickelt, wobei beide Firmen behaupten, 60 Prozent des Gesamtmarktanteils zu halten (siehe Tabelle 6.1). Die beiden Firmen sind in Irland landesweit präsent und haben Franchising als Geschäftsmodell genutzt Sherry FitzGerald führte das Franchising erstmals 1999 in der Branche ein, bis die internationale Franchise-Kette RE/MAX unmittelbar bevorstand, die in den irischen Markt eintrat Im selben Jahr (2004) führte DNG das Franchising ein. Heute behauptet Sherry FitzGerald, die führende Position in der Branche zu halten, während DNG an zweiter Stelle liegt, basierend auf der Verkaufs- und Outlet-Präsenz. Die Branche besteht aus einer großen Anzahl kleiner unabhängiger Immobilienmakler, die sich in ihrer Region einen Namen gemacht haben. In den letzten Jahren haben sich viele in Kooperations- oder Netzwerkverbindungen engagiert, wie Property Partners, REA Ireland und Property Team. Diese kooperativen Netzwerke haben unabhängigen Immobilienmaklern geholfen, gemeinsame Marketingkampagnen zu entwickeln und Marktkenntnisse zu teilen, die für den Erfolg in einer so wettbewerbsintensiven Branche unerlässlich sind. In diesem Kapitel werden all diese Veränderungen bis heute verfolgt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49064-9_6 73e58b6bf7c8f3bea70ef84303fb5ac5;de;;;6.1.;;;Netzwerkzentrierte serviceorientierte Unternehmen Die Realisierung der netzwerkzentrierten serviceorientierten Architektur für ein Unternehmen hat sowohl kulturelle als auch technische Herausforderungen. Obwohl SOA als das ultimative Framework der Softwaretechnologie angesehen wird, das eine vollständige Service-Transformation in einer vielfältigen Netzwerkumgebung erreichen kann, müssen sich Unternehmen aufgrund praktischer Zeit- und Budgetbeschränkungen jedoch mit enormen betrieblichen Leitlinien auseinandersetzen, die die IT-Kräfte dazu veranlassen, Legacy-Systeme mit die neuen Dienste und Anwendungen. Ein typischer IT-Ansatz für die enthaltene Methode besteht darin, einige geschäftsrelevante Dienste über bestehende Anwendungen zu legen und die Interoperabilität des Datenmanagements durch Standardisierung von Datenelementen zu fördern. Dies minimiert ihre Duplizierung zwischen Organisationen. Infolgedessen zeigt der Abstraktionsprozess, der die Servicedaten in eine flache und Peer-Ebene verwandelt, die Unfähigkeit von SOA, hohe Leistungsanforderungen und unerwartete Komplexität zu erfüllen, um den alten Wasserfall-Geschäftsprozess zu reproduzieren. Beide Nachteile können die Unternehmensinhaber an den wahren Werten der Transformation zweifeln lassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-6456-2_10 b089bf212b64748c41323f59dbd4b2f5;de;;;6.1.;;;Sinnes- und Wahrnehmungsmodule In jeder Art von Lebewesen sind sowohl die Mechanismen der Empfindung als auch der Wahrnehmung für ein kontinuierliches Leben unabdingbar, z.B. um essbare Pflanzen/Früchte im Wald zu finden oder sich vor Angriffen durch herannahende Feinde zu schützen. Um diese Ziele zu erreichen, werden zwei verschiedene Arten von Informationsprozessen im Gehirn betrachtet: 1) Extraktion nützlicher Merkmale aus der Informationsflut der ausgestatteten Sinnesorgane und 2) Wahrnehmung der aktuellen Umgebung anhand der Merkmale so in 1) erkannt, um die nächsten zu ergreifenden Maßnahmen zu planen. Für ersteres ist nämlich der Empfindungsmechanismus verantwortlich, während letzteres die Rolle des Wahrnehmungsmechanismus übernimmt.;-;-;-;https://link.springer.com/chapter/10.1007/10997444_6 b5879e6ada2b57eb7b83a47aab6894f0;de;;;6.1.;;;Überprüfung der Microarray-Software Information ist der König und Wissen ist die Königin in dieser postgenomischen Ära. Derjenige, der die nützlichen Informationen aus den unordentlichen Rohdaten gewinnen und in Wissen umwandeln kann, ist Gott. Die Software, die den Bergbauprozess unterstützt, ist Michael der Erzengel, der den siegreichen Kampf gegen die komplexen biologischen Probleme führt. Wenn Sie den Kampf gewinnen möchten, beginnen Sie jetzt mit Ihrem Engel zu arbeiten!;-;-;-;https://link.springer.com/chapter/10.1007/0-306-47815-3_19 9c7ec5334bb3358b816c004ad9f31ada;de;;;6.1.;;;Implementierung des RTP Grundsätzlich ist CESAR RTP eine generische Integrationsplattform, die sich auf einen modellgetriebenen Entwicklungsprozess für sicherheitskritische eingebettete Systeme konzentriert. Der Prozess der Realisierung und Implementierung einer spezifischen Toolkette (RTP-Instanz) wird als RTP-Tailoring bezeichnet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-1387-5_7 f63459c6ea309d85c5476f9d22e76f60;de;;;6.1.;;;Design einer Sicherheitsplattform für CORBA-basierte Anwendungen Dieses Papier schlägt eine Sicherheitsplattform, SCAP (Sicherheitsplattform für CORBA-basierte Anwendungen), vor, um potenzielle Bedrohungen in einem verteilten Objektsystem zu bewältigen. SOAP unterstützt die von OMG angekündigte CORBA-Sicherheitsspezifikation. SOAP besteht aus vier Funktionsblöcken, die mit ORB zusammenarbeiten, um Sicherheitsdienste bereitzustellen: Authentication Block, Security Association Block, Access Control Block und Security Information Management Block. Es wurde entwickelt, um die Common Secure Interoperability-Funktionalitätsebene 2 zu unterstützen, die für große netzwerkbasierte Anwendungen innerhalb oder zwischen Unternehmen nützlich ist. Tatsächliche Sicherheitsdienste, die auf unterstützende Sicherheitstechnik angewiesen sind, werden zur Ersetzbarkeit als externe Sicherheitsdienste bereitgestellt. Es werden auch Implementierungsprobleme beschrieben, wie beispielsweise die Simulation eines Abfangmechanismus mit einem kommerziellen ORB-Produkt ohne Quellcode und die Erweiterung des für Sicherheitsdienste erforderlichen Current-Objekts.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0028466 d6bdd58c49bc5dbc09476ad0db93d682;de;;;6.1.;;;Architektur und Implementierung Basierend auf dem Ort, an dem die Datenquellen gesammelt und analysiert werden, kann das IDS in zentralisiert, verteilt und agentenbasiert eingeteilt werden. In diesem Kapitel besprechen wir jede Kategorie im Hinblick auf ihre Architektur und Implementierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-88771-5_5 7e33fb1b50f390d7a28fd8e65c4c233a;de;;;6.1.;;;Lavoisier: Auswahl und Aufbereitung von Daten für die Analyse auf hoher Ebene Die meisten Data-Mining-Algorithmen erfordern, dass ihre Eingabedaten in einem ganz bestimmten Tabellenformat bereitgestellt werden. Data Scientists erreichen diese Aufgabe normalerweise, indem sie lange und komplexe Skripte erstellen, die in Datenverwaltungssprachen wie SQL, R oder Pandas geschrieben sind und in denen verschiedene Low-Level-Datentransformationsvorgänge ausgeführt werden. Das Schreiben dieser Skripte kann sehr zeitaufwendig und fehleranfällig sein, was die Produktivität der Data Scientists verringert. Um diese Einschränkung zu überwinden, präsentieren wir;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-32065-2_4 50b2202ec74aaae20ab06d0bf8cbc35d;de;;;6.1.;;;Schlüsselindikatoren für die gemeinsame Nutzung von Daten – in Verbindung mit digitalen Diensten Das schnelle Wachstum datenintensiver digitaler Dienste birgt potenzielle Risiken der Verletzung des verbraucherorientierten Datenschutzes. Der Datenschutz wird für die meisten Big-Data-Unternehmen zu einer der zentralen Herausforderungen. Dank Big Data werden Empfehlung und Personalisierung im digitalen Raum immer beliebter. Es ist jedoch schwer, eine klar definierte Grenze zu finden, die die Bedrohung der Privatsphäre der Verbraucher im Zusammenhang mit der Verbesserung bereits angemeldeter Kommunikationsdienste veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-40973-3_35 40cef5b20eaf4aef9d3c063635200fa2;de;;;6.1.;;;Gesicherte Datenfreigabe in Gruppen mit attributbasierter Broadcast-Verschlüsselung in der Hybrid Cloud Die gemeinsame Nutzung von Daten in der Cloud hat sowohl für das Unternehmen als auch für die Benutzer mehrere Vorteile. Mit dem Aufkommen von Cloud-Diensten bietet Google Docs die gemeinsame Nutzung von Daten, sodass die Benutzer die Dokumente teilen und effektiv mit den anderen Benutzern zusammenarbeiten können. In diesem Whitepaper haben wir die anspruchsvollen Sicherheitsprobleme im Zusammenhang mit dem Datenaustausch in der Cloud angesprochen. Broadcasting ist eine effiziente Möglichkeit, Dateien sicher an mehrere Empfänger weiterzugeben. In unserer vorgeschlagenen Arbeit haben wir eine Lösung vorgeschlagen, die auf der attributbasierten Broadcast-Verschlüsselung basiert, einem sicheren Datenaustausch in Gruppen mithilfe der attributbasierten Broadcast-Verschlüsselung, die sowohl sicher als auch effizient ist. Die Bedeutung der gemeinsamen Nutzung von Daten und die Notwendigkeit, Sicherheit und Datenschutz zu gewährleisten, wird mit der vorhandenen Literatur diskutiert. Es wird eine Überprüfung bestehender Methoden zur Erreichung des Datenaustauschs in der Cloud diskutiert. Der Hauptunterschied zwischen der vorgeschlagenen Lösung und der herkömmlichen Rundsendeverschlüsselung besteht darin, dass die Sicherheit dynamisch basierend auf den Parametern erreicht wird, die während des Verschlüsselungs- und Entschlüsselungsprozesses geliefert werden. Unsere Lösung ermöglicht die Auswahl und den Widerruf der Benutzer anhand der Attribute. Wir schlagen drei Algorithmen vor, nämlich Gesicherte Verschlüsselung mit gruppenbasierter Signaturgenerierung (SEGB-SG), sichere Verifizierung mit gruppenbasierter Signaturprüfung (SVGB-SV) und Sperrliste basierend auf Gruppensignatur (RL-GS). Die Ergebnisse der vorgeschlagenen Lösung zeigen eine deutliche Verbesserung der Sicherheit beim Datenaustausch in der Cloud. Die Experimente wurden durchgeführt und die Ergebnisse mit den bestehenden Arbeiten zu KP-ABE verglichen, und die vorgeschlagene Lösung zeigt, dass unsere Lösung sowohl sicher als auch effizient ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2285-3_83 ec064ddca12a80b45ec371df6ed6421d;de;;;6.1.;;;Design und Implementierung eines einheitlichen Serviceadapters für MG Als zukünftiger Entwicklungstrend fortschrittlicher Fertigungstechnologien zieht das Manufacturing Grid (MG) immer mehr Interesse auf sich und es wurden massive Ergebnisse erzielt. Da jedoch gegenwärtig existierende Service-MG-Plattformen auf unterschiedlichen Standards und Spezifikationen basieren, bleibt der Zugang zu Herstellungsressourcen dieser Plattformen inkompatibel. Um die Anpassungsfähigkeit von MG mit unterschiedlichen Standards zu verbessern, wird ein einheitlicher Herstellungsressourcen-Dienstadapter für MG vorgeschlagen, der als einheitlicher Dienstadapter (UA) bezeichnet wird. Zunächst werden die bestehenden Dienstzugriffsmechanismen aktueller MG kurz analysiert. Anschließend werden die Frameworks von UA ​​vorgestellt, die aus drei Teilen bestehen, nämlich dem Serviceadapter, dem Datenmanagementadapter und dem Binding-Adapter. Als nächstes wird jeder Teil von UA ​​im Detail realisiert. Schließlich wird eine einfache Testszene von UA ​​bereitgestellt. Die in dem Papier vorgestellte UA kann der Dynamik, Komplexität und Heterogenität der Situation Rechnung tragen und bietet eine einheitliche Schnittstelle für die oberen Anwendungen, um die Inkompatibilität der Dienste mit unterschiedlichen Standards zu überwinden.;-;-;-;https://link.springer.com/article/10.1007/s00170-014-5631-z 7928e19dfdaf69882f3d4d2492af9756;de;;;6.1.;;;Der Entwurf und die Anwendung des Rahmenwerks des umfassenden Informationssystems für Kohlebergwerke basierend auf 3DGIS In diesem Artikel haben wir zunächst die Entwicklungsrichtung und -trends der Informationsanwendung von Kohlebergwerksunternehmen analysiert und den Status der Verwendung von 3DGIS in der Bergbauinformationsentwicklung vorgestellt. Zweitens haben wir das Prinzip der umfassenden Informationssystementwicklung des Kohlebergwerks gegeben und einen Rahmen für die umfassende Informationssystemplattform des Kohlebergwerks auf der Grundlage dieses Prinzips vorgelegt. Diese Plattform generiert die 3D-Topographie, die stereoskopische Zeichnung des Minentunnels und die stereoskopische Zeichnung des Aushubs auf der Grundlage der Daten der geologischen Untersuchung und des Engineerings und zeigt die Produktionsinformationen, dynamische Echtzeitüberwachungsinformationen in 3D auf der stereoskopischen Zeichnung des Minenaushubs und die Gesamtdarstellung an Die reale Perspektive der Mine, einschließlich des Bodens und des Untergrunds, wird ausgebreitet. Schließlich haben wir einen Pilotversuch unternommen, um eine Informationssystemplattform basierend auf diesem Plattform-Framework zu entwickeln und anzuwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38427-1_139 f7ef90048c44672c2c05cd92946830cb;de;;;6.1.;;;Eco Global Evaluation: Gegenseitige Vorteile der ökonomischen und ökologischen Evaluation Dieses Papier beleuchtet die Komplementaritäten der Kosten- und Umweltbewertung in einem nachhaltigen Ansatz. Ausgehend von den Anforderungen und Grenzen für die Bewertung des gesamten Produktlebenszyklus beginnt dieses Dokument mit den Aspekten Modellierung, Datenerfassung und Leistungsindikatoren. In einem zweiten Schritt wird die Informationsfrage über den gesamten Lebenszyklus des Produkts adressiert. Um über die wirtschaftliche Bewertung hinauszugehen, wird der Wertbegriff (für ein Produkt oder eine Dienstleistung) diskutiert. Der Wert könnte funktionale Anforderungen, Kostenziele und Umweltauswirkungen kombinieren. Schließlich werden Wissensfragen diskutiert, die sich mit der Komplexität der Integration multidisziplinärer Expertise in den gesamten Lebenszyklus eines Produkts befassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19692-8_118 5b89ab9bb89d605b714bffa9973f2abb;de;;;6.1.;;;Europäische Politik für Ernährungssicherheit: Die Option zur Umverteilung von Nahrungsmittelüberschüssen Ernährungssicherheit ist zu einem zentralen Thema in internationalen politischen Debatten und in der wissenschaftlichen Literatur geworden. Obwohl Länder mit hohem Einkommen ihre Bevölkerung lange Zeit als vor Ernährungsunsicherheit geschützt betrachteten, hat die jüngste Wirtschafts- und Finanzkrise diese Annahme in Frage gestellt, und Nahrungsmittelarmut ist in ganz Europa zu einem immer wichtigeren politischen Thema geworden. In diesem Zusammenhang hat sich die Rückgewinnung von Nahrungsmittelüberschüssen und die Spende an Bedürftige als eine mögliche Antwort auf die Nahrungsmittelarmut in Wohlstandsgesellschaften herausgestellt. Basierend auf akademischer und grauer Literatur veranschaulicht das Kapitel den Regulierungsrahmen auf europäischer Ebene zur Reduzierung von Lebensmittelverschwendung und zur Rückgewinnung von essbaren überschüssigen Lebensmitteln. Er hebt die wichtigsten Stärken und Schwächen der Politik auf EU-Ebene und in ganz Europa hervor und erörtert bewährte Verfahren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-56555-2_2 6660815a4bcc813b38735de0ee5d2f0a;de;;;6.1.;;;Übung: Case Rent-A-Car Der Fall Rent-A-Car ist eine Übung zur Herstellung des wesentlichen Modells eines Unternehmens, das den Nießbrauch an materiellen Dingen anbietet: Rent-A-Car ist ein Unternehmen, das Autos an Kunden vermietet. Durch die Anwendung der OER-Methode auf die narrative Fallbeschreibung erwirbt man das Wissen, um das wesentliche Modell des Unternehmens zu erstellen. Alle vier Aspektmodelle (CM, AM, PM und FM) werden vorgestellt. Zusammen bilden sie ein zusammenhängendes Ganzes, das einen vollständigen Einblick und Überblick über das Wesen der Autovermietungen bietet. Die erstellten Aktionsregeln können direkt in ausführbaren Computercode umgewandelt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-38854-6_15 9376110d6ab8a7e71ffa79d5105f9deb;de;;;6.1.;;;Kombinieren von klinischen Bild- und Nicht-Bilddaten: Eine Infrastruktur, die Studien zum maschinellen Lernen in einer Krankenhausumgebung ermöglicht In den letzten Jahren zeigen Machine Learning und Deep Learning Techniken ihr enormes Potenzial in der medizinischen Forschung. Diese Forschung erfolgt jedoch hauptsächlich unter Verwendung öffentlicher oder privater Datensätze, die zu Studienzwecken erstellt wurden. Trotz der Gewährleistung der Reproduzierbarkeit müssen diese Datensätze ständig aktualisiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94649-8_39 be1f86d74a8ba88ba3912140d5901436;de;;;6.1.;;;Statistische Überwachung in klinischen Studien: Best Practices zur Erkennung von Datenanomalien, die auf Fabrikation oder Fehlverhalten hindeuten Herkömmliche Site-Monitoring-Techniken sind nicht optimal, um die Datenherstellung und andere nicht-zufällige Datenverteilungen mit dem größten Potenzial zur Gefährdung der Validität von Studienergebnissen zu finden. TransCelerate BioPharma führte ein Experiment durch, das die Nützlichkeit statistischer Methoden zum Erkennen von implantierten fabrizierten Daten und anderen Signalen der Nichtkonformität testete.;-;-;-;https://link.springer.com/article/10.1177/2168479016630576 36374b47ad1562d4890615a1c72a93d5;de;;;6.1.;;;Digital Science Library in Remote Instrumentation Systems Dieses Kapitel ist der Analyse des Datenmanagements in entfernten Instrumentierungssystemen gewidmet. Die Speicherung und Verwaltung bedeutender Datenmengen sind entscheidende Themen in jedem System, bei dem Daten von verschiedenen wissenschaftlichen Geräten gesammelt und anschließend zur Analyse oder Weiterverarbeitung verwendet werden müssen. Die Autoren schlagen eine eigene Lösung namens Digital Science Library (DSL) vor und analysieren eine spezifische Implementierung von DSL, die für die Kernspinresonanzspektroskopie (NMR) entwickelt wurde. DSL, basierend auf dem Datenmanagementsystem, ist eine verteilte Datenzugriffsumgebung. Seine Hauptfunktion besteht darin, Daten in der Grid-Umgebung zu speichern und zu präsentieren. Darüber hinaus werden in diesem Kapitel Ergebnisse der konzeptionellen Arbeit vorgestellt, beginnend mit der Anforderungsspezifikation bis hin zum architektonischen Entwurf.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09663-6_37 f1ec187c0a0610c3bfb811aa7a81bda6;de;;;6.1.;;;Wichtige Entwicklungen in der politischen Kommunikation in Afrika Der Hauptzweck dieser Studie besteht darin, politische Kommunikation zu konzeptualisieren, die über die Bewertung der Rolle der Massenmedien im Wahlkampf in Afrika hinausgeht. Wir beschäftigen uns damit, wie die Medien die Beteiligung an politischen Entscheidungen, Produktion, Veröffentlichung, Verarbeitung und Verteilung von Medienbotschaften unter interaktiven Bürgern beeinflussen und untersuchen, wie diese Mechanismen politische Prozesse in Afrika beeinflussen. Wir untersuchen in einem pietistisch-politischen Kontext die Manipulation von massenmedialen Botschaften, Informationszensurtechniken unter den politischen Eliten, das diskursive politische Potenzial von Social-Media-Plattformen und die Fülle einer politisierten öffentlichen Meinung und ermitteln lückenlos Analyse von Geschichte, Ritualen, Konzepten und theoretischen Erkenntnissen politischer Kommunikation im afrikanischen Kontext. Aus mehreren Gründen, von denen einige hier gewissenhaft analysiert werden, war das formale Ende des Kolonialismus durch eine lähmende Verzögerung der Demokratisierung gekennzeichnet, wobei Journalisten und Medienschaffende versuchten, der regierenden Partei, die normalerweise die Medien kontrolliert, die Treue zu halten, als Gegenleistung für entweder politischer Schutz oder journalistische Privilegien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-62057-2_1 6fc262bcd276c7f8b64749f0e583b69f;de;;;6.1.;;;Datenschutz und Datenaustausch in der Telematik Automobiltelematik kann als die informationsintensiven Anwendungen definiert werden, die für Fahrzeuge durch eine Kombination von Telekommunikations- und Computertechnologie ermöglicht werden. Telematik erfordert naturgemäß die Erfassung, Speicherung und den Austausch von Sensordaten, um Ferndienste zu erhalten. Zu diesen Daten gehören wahrscheinlich persönliche, sensible Informationen, die zum Schutz der Privatsphäre des Fahrers eine angemessene Handhabung erfordern. Einige bestehende Ansätze konzentrieren sich auf den Schutz der Privatsphäre durch anonyme Interaktionen oder durch das vollständige Stoppen des Informationsflusses. Wir ergänzen diese, indem wir uns stattdessen darauf konzentrieren, verschiedenen Interessengruppen die Kontrolle über die gemeinsame Nutzung und Nutzung von Daten zu geben. In diesem Papier identifizieren wir mehrere Datenschutzherausforderungen, die sich speziell auf den Bereich der Automobiltelematik beziehen, und schlagen einen allgemeinen Datenschutzrahmen vor, um einige dieser Herausforderungen anzugehen. Das Framework ermöglicht die Aggregation von Daten, bevor Daten an Dienstanbieter freigegeben werden, wodurch die Offenlegung von sensiblen Datenschutzinformationen minimiert wird. Wir haben die Kernkomponente, die Datenschutz-Engine, implementiert, um Benutzern bei der Verwaltung ihrer Datenschutzrichtlinien zu helfen und Datenanfragen basierend auf dem Richtlinienabgleich zu autorisieren. Der Richtlinienmanager bietet ein flexibles Datenschutzrichtlinienmodell, das es den betroffenen Personen ermöglicht, umfassende beschränkungsbasierte Richtlinien auszudrücken, einschließlich ereignisbasierter und räumlich-zeitlicher Beschränkungen. Somit kann die Policy Engine ohne Benutzerunterstützung über eine große Anzahl von Anfragen entscheiden und verursacht keine Unterbrechungen während der Fahrt. Eine Leistungsstudie zeigt, dass der Overhead bei einer steigenden Zahl von Betroffenen stabil ist.;-;-;-;https://link.springer.com/article/10.1023/B%3AMONE.0000042507.74516.00 575f8b6cbaf0a959b06396f17bc2b661;de;;;6.1.;;;Oblivive Zugriffskontrollrichtlinien für Cloud-basierte Datenfreigabesysteme Herkömmliche Verfahren zum Sicherstellen des autorisierten Datenzugriffs unter Verwendung von Zugriffskontrollrichtlinien sind für Cloud-Speichersysteme nicht geeignet, da diese Verfahren einem Cloud-Dienstanbieter gültige Zugriffsparameter offenbaren können. In diesem Papier haben wir die Oblivious Access Control Policy Evaluation (O-ACE) vorgeschlagen, ein Datenfreigabesystem, das die Zugriffskontrollpolitik auf einem Cloud-Server blind bewertet und den Zugriff auf die ausgelagerten Daten bereitstellt. O-ACE gibt weder dem Cloud-Dienstleister noch den nicht autorisierten Benutzern nützliche Informationen über die Zugangskontrollrichtlinie preis. Durch die Sicherheitsanalyse von O-ACE wurde beobachtet, dass die Rechenkomplexität, um die Privatsphäre der ausgelagerten Daten zu gefährden, gleichbedeutend ist mit der Umkehrung der asymmetrischen Verschlüsselung ohne gültiges Schlüsselpaar. Wir haben O-ACE für Google Cloud realisiert. Unsere Bewertungsergebnisse zeigen, dass die CPU-Nutzungskosten von O-ACE 0,01–0,30 US-Dollar pro 1.000 Anfragen betragen.;-;-;-;https://link.springer.com/article/10.1007/s00607-012-0206-z f9df4fe58009e9667639020fd3555386;de;;;6.1.;;;Ein Fall für automatisiertes Tape in der klinischen Bildgebung Die elektronische Archivierung von Radiologiebildern über viele Jahre hinweg erfordert viele Terabyte an Speicherplatz mit der Notwendigkeit eines schnellen Abrufens dieser Bilder. Wenn immer größere PACS-Installationen installiert und implementiert werden, kommt es zu einer Datenkrise. Die Möglichkeit, diese große Datenmenge allein mit der traditionellen Methode optischer Jukeboxen oder Online-Disk zu speichern, wird zu einer unpraktikablen Lösung. Der Platzbedarf, die Anzahl der optischen Jukeboxen und der Offline-Regalspeicher, der zum Speichern der Bilder erforderlich ist, werden unüberschaubar. Mit den jüngsten Fortschritten bei Band- und Bandlaufwerken wurde die Verwendung von Bändern für die Langzeitspeicherung von PACS-Daten zur bevorzugten Alternative. Ein PACS-System bestehend aus einem zentral verwalteten System von RAID-Platte, Software und dem Herzstück des Systems, Band, stellt eine Lösung dar, die zum ersten Mal die Probleme von multimodalem High-End-PACS, Nicht-DICOM-Bild, elektronischer Medizin löst Aufzeichnung und ADT-Datenspeicherung. In diesem Beitrag werden die Installation des PACS-Systems der Universität von Utah, Department of Radiology und die Integration eines automatisierten Bandarchivs untersucht. Das Bandarchiv kann auch andere Daten als herkömmliche PACS-Daten speichern. Auch die Implementierung eines automatisierten Datenarchivs für die vielen anderen Bedürfnisse eines großen Krankenhauses wird diskutiert. Dies beinhaltet die Integration einer filmlosen Kardiologieabteilung und die Backup-/Archivierungsanforderungen einer traditionellen MIS-Abteilung. Der Bedarf an hoher Bandbreite auf Band mit einem großen RAID-Cache wird untersucht und wie Band mit einer Schnittstelle zu einer RIS-Vorabruf-Engine eine überlegene Lösung gegenüber optischen Platten oder anderen Archivierungslösungen sein kann. Die Datenverwaltungssoftware wird ausführlich besprochen. Die Leistung und Kosten von RAID-Disk-Cache und automatisiertem Band im Vergleich zu einer Lösung mit optischem System werden untersucht.;-;-;-;https://link.springer.com/article/10.1007/BF03168257 9d58bb10f66b8986124b7c6bbf0c100c;de;;;6.1.;;;Der Prozess der Umstellung auf eine nahezu filmlose Operation an der University of Utah, Department of Radiology Die Abteilung für Radiologie am Health Sciences Center der University of Utah hat den Übergang von einer traditionellen filmbasierten Abteilung zu einer nahezu filmlosen Operation vollzogen. Die University of Utah ist ein großes Lehrkrankenhaus und der Übergang vom Film in eine Bildungseinrichtung wird diskutiert. Dieser Übergang hatte seine Schwierigkeiten und sein Erfolg hängt von der Unterstützung der Abteilungsleitung und der Krankenhausverwaltung ab. Wir haben mehr als 100 Jahre Erfahrung mit Film und die aktuellen Verfahren waren angesichts der Grenzen des Mediums effizient. Während wir von den traditionellen Gründen für den Wechsel zu einem Bildarchivierungs- und Kommunikationssystem (PACS) motiviert waren, wie Filmeinsparungen, nicht verfügbare Filme und schnellere Berichte, stellten wir fest, dass die immateriellen Werte das größere Problem und die Quelle für den größten Nutzen sind . In diesem Bericht werden der Implementierungsprozess und seine Auswirkungen auf alle Bereiche des Krankenhauses erörtert, einschließlich seiner Auswirkungen auf Krankenhausärzte, Radiologen, Aktenpersonal und Techniker. Verfahrensänderungen im Patienten-, Film- und elektronischen Bildfluss werden ebenfalls beschrieben. Dieser Prozess kann nicht als einmalige Änderung angesehen werden, sondern muss als kontinuierlicher Prozess betrachtet werden, wenn Verbesserungsbereiche identifiziert und neue und verbesserte Technologien entwickelt werden.;-;-;-;https://link.springer.com/article/10.1007/BF03168752 49e96aa68cb26690cdd50303f8fc9cf1;de;;;6.1.;;;Definition von Vereinbarungen über die gemeinsame Nutzung von Daten Der elektronische Datenaustausch zwischen verschiedenen Parteien, einschließlich Gruppen von Organisationen und/oder Einzelpersonen, ist bei gleichzeitigem Schutz ihrer legitimen Rechte an diesen Daten sowohl für geschäftliche als auch für gesellschaftliche Transaktionen von entscheidender Bedeutung. Klauseln zur gemeinsamen Nutzung von Daten sind jedoch in der Regel in Rechtsdokumenten enthalten, die einer automatisierten Verarbeitung durch die elektronische Plattform, die sie durchsetzen sollte, bei weitem nicht zugänglich sind. Außerdem verfolgen verschiedene Parteien in der Regel unterschiedliche Interessen. Dies kann zu Konflikten führen, die gelöst werden müssen, damit die Vereinbarungen erfolgreich sind. Um dieses Problem anzugehen, diskutieren wir in diesem Papier (i) einen Vorschlag für die Definition eines maschinenverarbeitbaren multilateralen Vertrages zur gemeinsamen elektronischen Datennutzung (e-DSA), (ii) erinnern an eine kontrollierte natürliche Sprache (CNL4DSA), die zum Ausdruck von e-DSA-Klauseln entwickelt wurde , insbesondere Richtlinien zu Berechtigungen und Verpflichtungen in Bezug auf Daten, (iii) einen Lösungsprozess instanziieren, der potenzielle Konflikte lösen kann, die durch Klauseln verschiedener Interessengruppen, zB rechtliche, organisatorische und Endnutzerklauseln, nach bestimmten Kriterien entstehen. Wir veranschaulichen unseren Ansatz an einem realistischen E-Health-Szenario, das von einem von einer spanischen medizinischen Einrichtung beschriebenen abgeleitet wurde. Die Hauptneuheit dieses Papiers ist der Verweis auf das spanische Datenschutzgesetz (S)DPL als grundlegende Quelle für Richtlinien zur Regulierung des Datenaustauschs und die Idee einer mehrstufigen e-DSA-Definitionsphase, die die Vertragsgranularität schrittweise erhöht. Nach unserem besten Wissen ist dies einer der ersten Versuche zu untersuchen, wie eine echte DPL in Datenschutzregeln übersetzt werden kann, die von einer speziellen e-DSA-basierten Infrastruktur elektronisch verwaltet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-17199-9_11 a7c69da8606a5a92a53805db3b6b5c02;de;;;6.1.;;;Blockchain-basiertes Framework zur gemeinsamen Nutzung von Forschungsdaten zur Förderung von Anreizen für die Dateneigentümer Datenaustauschpraktiken sind dringend erforderlich, um den Wissensgewinn von Forschern zu maximieren. Wann und welche Daten an wen weitergegeben werden sollen und wie dem Dateneigentümer jedoch eingeräumt werden soll, muss klar geregelt werden, um einen individuellen Anreiz für Dateneigentümer zu schaffen, ihre Daten zu teilen. Eine Plattform, die es Eigentümern ermöglicht, ihre Daten zu kontrollieren und Belohnungen zu erhalten, wäre ein wichtiger Wegbereiter für die gemeinsame Nutzung von Forschungsdaten, da derzeit solche Anreize für Forscher zum Teilen ihrer Daten weitgehend fehlen. Unser Ansatz liefert ein verwendbares Blockchain-basiertes Modell für eine Sammlung von Forscherdaten, das die Rechenschaftspflicht für den Zugriff, die Pflege der vollständigen und aktualisierten Informationen und eine überprüfbare Aufzeichnung der Herkunft, einschließlich aller Zugriffe/Freigaben/Verwendungen der Daten, bereitstellt. Dateneigentümer genießen nicht nur eine erhöhte Transparenz und den Schutz der Daten, die in falsche Hände geraten, sondern erhalten auch einen Anreiz mit digitalen Token, Bestätigungen oder beidem, ihre Daten mit den interessierten Datensuchenden zu teilen, und werden so zu aktiven Teilnehmern, die sich aufhalten von der Forschungsdatenökonomie profitieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94478-4_19 7b4d8ff9e871f7a8d0d50235af4397a2;de;;;6.1.;;;Kombinieren des Datenaustauschs mit dem Master-Worker-Paradigma in der gemeinsamen Komponentenarchitektur Softwarekomponententechnologien werden als adäquate Lösung zur Bewältigung der Komplexität von Anwendungen akzeptiert. Bestehende Softwarekomponentenmodelle neigen jedoch dazu, auf einige Arten von Ressourcenarchitekturen (z. B. prozessinterne, verteilte Umgebungen usw.) spezialisiert zu sein und/oder bieten keinen sehr hohen Abstraktionsgrad. Dieses Papier konzentriert sich auf die Handhabung;-;-;-;https://link.springer.com/article/10.1007/s10586-007-0034-7 93d5f7e2c33908a729992161563ed6df;de;;;6.1.;;;Aufbau eines hierarchischen Grid-Speichers mit dem Da immer mehr Großanwendungen sehr große Datenmengen generieren und verarbeiten müssen, wächst der Bedarf an adäquaten Speichermöglichkeiten. Es wird entscheidend, große Datenmengen, die weltweit gemeinsam genutzt werden können, effizient und zuverlässig zu speichern und abzurufen. Basierend auf früheren Systemen für den globalen Datenaustausch (globale Dateisysteme, Grid-Datenaustauschdienste) schlägt dieses Papier einen hierarchischen Ansatz für Grid-Speicher vor, der die Zugriffseffizienz von RAM-Speichern mit der Skalierbarkeit und Persistenz des globalen Dateisystem-Ansatzes kombiniert. Unser Vorschlag wurde durch einen Prototyp validiert, der die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85451-7_50 4e06e7bb0b9ce227bd56853a484d0baf;de;;;6.1.;;;Personenbezogene Daten: Wie der Kontext den Datenaustausch von Verbrauchern mit Organisationen aus verschiedenen Sektoren beeinflusst Daten – insbesondere personenbezogene Daten – werden in immer mehr Branchen jenseits des Internetsektors zu einem kritischen Gut. Anwendungen auf Basis solcher Daten, um bestehende Produkte und Prozesse zu verbessern oder ganz neue zu schaffen, gelten als wesentlicher Treiber des Wirtschaftswachstums. Gleichzeitig wächst die Sorge der Verbraucher hinsichtlich der ordnungsgemäßen Verwendung ihrer Daten durch Unternehmen. Wir haben eine gemeinsame Studie mit mehr als 3000 Teilnehmern durchgeführt, um die Sensibilität der Verbraucher beim Datenaustausch in sechs Kontextdimensionen und in zehn privaten und öffentlichen Sektoren der gesamten Wirtschaft zu untersuchen. Wir stellen fest, dass fast alle Verbraucher (99,9 % unserer Stichprobe) personenbezogene Daten an Unternehmen weitergeben möchten, wenn die Vorteile und Bedingungen ihren Bedürfnissen genügen. Zweitens zeigen wir, dass Verbraucher in Bezug auf ihre Bereitschaft zur Weitergabe ihrer Daten eindeutig zwischen Unternehmen aus verschiedenen Branchen unterscheiden. Drittens stellen wir fest, dass der Kontext der Weitergabe personenbezogener Daten für die Entscheidungsfindung der Verbraucher wichtiger ist als die eigentlichen Daten selbst. Darüber hinaus weisen wir nach, dass das Recht auf Vergessenwerden die Bereitschaft der Verbraucher zur Weitergabe ihrer Daten erheblich steigern kann.;-;-;-;https://link.springer.com/article/10.1007/s12525-015-0183-0 46e0fc1189582c4b4ffca058b2faea74;de;;;6.1.;;;Benutzerzentrierter Schutz der Privatsphäre in Anwendungen zur Datenfreigabe Während des Datenfreigabeprozesses zwischen Personen möchten Benutzer nicht, dass die Informationen, die Datenschutz enthalten, mit allen anderen geteilt werden, manche Personen möchten sie möglicherweise nur mit jemandem teilen, mit dem sie vertraut sind. Um dieses Problem des Datenschutzes in Anwendungen zum Teilen von Daten zu lösen, schlagen wir eine neuartige benutzerzentrierte Methode vor. Unsere Hauptbeiträge umfassen die folgenden. (1) Benutzer können Schlüsselwörter oder Zeichen für ihre eigenen Datenschutzinformationen auswählen, was eine benutzerorientierte Methode zum Schutz der Privatsphäre darstellt. (2) Während des Datenaustauschprozesses kann die Datensubstitution verwendet werden, um die Wahrung der Privatsphäre sowie eine hohe Erfolgsrate des Datenaustauschs zu gewährleisten. (3) Unsere Methode kann flexibel in verschiedenen Datenaustauschanwendungen eingesetzt werden. Simulationsergebnisse zeigen, dass unsere Methode unser Ziel zum Schutz der Privatsphäre erreichen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15672-4_35 f77d0a7136562d0f467f58fd4bcd4668;de;;;6.1.;;;Biometrische Blockchain: Eine sichere Lösung für die intelligente gemeinsame Nutzung von Fahrzeugdaten Das intelligente Fahrzeug (IV) ist zu einer vielversprechenden Technologie geworden, die früher oder später unser Leben in Smart Cities revolutionieren könnte. Es leidet jedoch noch unter vielen Sicherheitslücken. Herkömmliche Sicherheitsmethoden sind nicht in der Lage, den IV-Datenaustausch vor böswilligen Angriffen zu schützen. Blockchain hat sich, wie sowohl von der Forschung als auch von der Industrie erwartet, als eine gute Lösung für diese Probleme herausgestellt. Die Hauptprobleme beim IV-Datenaustausch sind Vertrauen, Datengenauigkeit und Zuverlässigkeit des Datenaustauschs im Kommunikationskanal. Die Blockchain-Technologie, die zuvor für die Kryptowährung arbeitete, wurde kürzlich angewendet, um Vertrauen und Zuverlässigkeit in Peer-to-Peer-Netzwerken mit ähnlichen Topologien des IV-Datenaustauschs aufzubauen. In diesem Kapitel stellen wir ein neues Framework vor, nämlich die biometrische Blockchain (BBC) für den sicheren IV-Datenaustausch. In unserem neuen Schema werden biometrische Informationen als Hinweis verwendet, um festzustellen, wer für die Datenaustauschaktivitäten verantwortlich ist, während die vorgeschlagene BBC-Technologie als Rückgrat der IV-Datenaustauscharchitektur dient. Daher bietet die vorgeschlagene BBC-Technologie eine zuverlässigere Vertrauensumgebung zwischen den Fahrzeugen, während persönliche Identitäten in dem vorgeschlagenen neuen Schema zurückverfolgt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-32583-1_11 1dac73aab522ff48cfea9a2d348b27cf;de;;;6.1.;;;Komponentenleasing im World Wide Web MMM ist eine Infrastruktur zum Verwalten der Bereitstellung und Nutzung von verteilten Anwendungsdiensten im WWW. MMM propagiert ein Paradigma, das im Gegensatz zum klassischen Softwarelizenzmodell das Leasing von Softwarekomponenten ermöglicht. Anwendungen befinden sich auf den Plattformen des Softwareanbieters und werden dort ausgeführt, werden jedoch über die MMM-Infrastruktur verwaltet. Benutzer interagieren mit den Anwendungsdiensten über einen Standard-Internetbrowser und benötigen keine zusätzliche Software. Die MMM-Benutzeroberfläche bietet Benutzern einen virtuellen Dateibereich, Funktionen zur Komposition von Anwendungsdiensten, Ausführungsunterstützung und Visualisierungsfunktionen. Die MMM-Implementierung basiert auf Standard-Webtechnologien wie HTML, XML und MetaHTML, verteilten Objekt-Computing-Frameworks wie CORBA und Datenbanktechnologie wie ODBC. In diesem Papier geben wir einen technischen Überblick über die MMM-Architektur und diskutieren ihre Hauptmerkmale.;-;-;-;https://link.springer.com/article/10.1023/A%3A1019190830481 a1398b30bba8ebc17250602c018482b1;de;;;6.1.;;;Der GAAIN Entity Mapper: Auf dem Weg zur praktischen Anwendung der Medizininformatik Wir diskutieren unsere laufenden Arbeiten zur praktischen Anwendung eines von uns entwickelten Systems zum automatisierten Schema-Mapping medizinischer Datensätze. Während wir mit einem rein wissensgetriebenen Ansatz für das Schema-Mapping-Problem beginnen, der auf Informationen in Datenwörterbüchern basiert, integrieren wir jetzt die maschinelle Lernklassifikation zur Bestimmung von Mappings. Wir integrieren das Mapping-System weiter in eine Produktionsumgebung der Medizininformatik. Wir besprechen unseren aktuellen Ansatz und unsere Fortschritte in diesen Bereichen sowie aktuelle Herausforderungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-21843-4_22 9b699c59be5ba510cd9c430a31843b23;de;;;6.1.;;;Datenmigration In diesem Kapitel werden Sie eine der entmutigenden Aufgaben von Dynamics 365 untersuchen: die Datenmigration. Die meisten Projekte, die Sie durchführen, erfordern eine gewisse Datenmigration, hauptsächlich weil Ihre Kunden mit einem Altsystem gearbeitet haben und die Altdaten auf dem neuen System benötigen, um ihren Betrieb effektiv und effizient fortzusetzen. In den meisten Fällen hängt der Erfolg des Projekts von der Datenmigration ab. Das heißt, erst nachdem Sie die Daten migriert haben, können Sie sehen, wie das von Ihnen entworfene und entwickelte System funktioniert. Unnötig zu erwähnen, dass sich diese Aktivität auf alle Beteiligten auswirkt, vom Entwicklungsteam bis hin zu den Endbenutzern.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-4379-4_9 20d853240613ed4f2d6a649d0db7d9a0;de;;;6.1.;;;Entwicklung und Evaluierung eines Thin Client-Systems vom Typ Virtual PC PC In den letzten Jahren wurde angenommen, dass die Virtualisierung des Desktops als wirksame Lösung für verschiedene Probleme eines Unternehmens wichtig ist, wie z. B. die Senkung der Gesamtkosten der Desktop-PCs, die das Unternehmen besitzt, das Erzielen von Effizienz im operativen Management und das Erzielen erfolgreicher Sicherheitsmaßnahmen, Compliance-Maßnahmen und Business-Continuity-Pläne. Wir haben ein Thin Client-System vom Typ Client Blade eingeführt, das als „CB-System“ bezeichnet wird, und ein Thin Client-System vom Typ Terminaldienst, das als „TS-System“ bezeichnet wird. Die Zahl der Nutzer in allen unseren derzeitigen Konzerngesellschaften beträgt ca. 70.000. Als neue Virtualisierungstechnologie für den Desktop haben wir ein virtuelles PC-ähnliches Thin-Client-System aufgebaut, das als „virtuelles PC-System“ bezeichnet wird. In diesem Papier geben wir die Probleme an, die wir bei der Verwaltung großer Benutzer in einem virtuellen PC-System hatten, und schlagen die Lösung vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40053-7_10 cd4729e1efe684b7ceaf4d8f332de8de;de;;;6.1.;;;Geodateninfrastrukturen in Santiago de Compostela Geodateninfrastrukturen stellen eine organisatorische und technologische Wette der öffentlichen Verwaltungen dar, um die von ihnen gesammelten oder generierten geografischen Informationen Institutionen und Bürgern zur Verfügung zu stellen. In Spanien wurden verschiedene Initiativen auf staatlicher, regionaler, lokaler und grenzüberschreitender Ebene entwickelt, die in die Geodateninfrastruktur Spaniens integriert wurden. Im Fall von Santiago de Compostela, einer historischen Stadt des Weltkulturerbes, haben zwei Erfahrungen stattgefunden: das Heritage Information System (SIP, nach seiner spanischen Abkürzung) und kürzlich das Geoportal des Stadtrats von Santiago de Compostela. Ziel dieser Arbeit ist es, die Erfahrungen beider Initiativen als Instrumente für das Kulturerbemanagement und die öffentliche Kenntnis zu präsentieren. Eine Evaluation des Designs und der Funktionalität des SIP über die 7 Jahre seit seiner Implementierung wurde ebenfalls durchgeführt. Dazu wurden vier Indikatoren festgelegt: Nutzung internationaler und europäischer Standards, Kompatibilität, Proaktivität und Synergien zwischen Dokumentationszentren. Die Studie ergab, dass trotz der Funktionalität, die das SIP bei seiner Erstellung hatte, der Mangel an Voraussicht, seine Systematisierung und Aktualisierung aufrechtzuerhalten, dazu führte, dass es veraltet war. Das Geoportal der Stadtverwaltung von Santiago de Compostela wurde jedoch als neues Instrument zur Verbreitung und Verwaltung von Kulturerbe- und Gemeindediensten unter Institutionen, Fachleuten und Bürgern geschaffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-92099-3_2 bd0b3447a6697f2fdf7667279b35cd3a;de;;;6.1.;;;Kryptowährung: Die Geburt eines ICO Durch die Fortsetzung der Reise durch die Definition, Einführung und das Erreichen einer kritischen Masse einer Kryptowährung wird auf natürliche Weise eine symbiotische Beziehung zwischen der Währung und dem Marktplatz entwickelt. Kryptowährungen existieren nur innerhalb der Netzwerke, in denen sie konzipiert sind. Jene Netzwerke, die einer bestimmten Währung Leben einhauchen, werden überleben oder haben eine Lebensfähigkeit im Verhältnis zum Nutzwert des Marktes. Zumindest wird dies zunächst offensichtlich sein. Die gesamte Beziehung als Kryptowährung zu verwechseln ist einfach. Die Dekonstruktion aller Komponenten ist jedoch unerlässlich, um Klarheit zu schaffen, wenn ein Initial Coin Offering (ICO) eingeführt wird und die Zahl der Kryptowährungen steigt. Da ICO die bevorzugte Wahl ist, um eine Kryptowährung online zu stellen, werden in diesem Kapitel die Details der Einführung eines ICO unter Verwendung des Arbeitsmodells der LUCKY DOG-Münze als Referenz erläutert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00135-3_6 e9c77b9f5ebd6875f0aac9baa3008f04;de;;;6.1.;;;Finanzielle Integration und Innovation in Europa Die Schaffung eines Binnenmarktes für Finanzdienstleistungen durch die Europäische Union wird zusammen mit den technologischen Veränderungen in der Kommunikation und im Datenmanagement starke Auswirkungen auf die Banken- und Finanzmärkte in Europa haben. Dieser Beitrag gibt einen selektiven Überblick über die Diskussionen über die resultierenden Anpassungsprozesse und deren Ergebnisse. Zu den behandelten Themen gehören Auswirkungen auf Kosteneffizienz, Wettbewerbsproduktion und Handelsmuster sowie die Dynamik der Finanzregulierung in der offenen, integrierten Wirtschaft.;-;-;-;https://link.springer.com/article/10.1007/BF01000914 392aa790111f9c50fc7744f0378248e3;de;;;6.1.;;;Soziales Lernen durch lokale Wasser-Governance-Institutionen Dieses Papier versucht, die Frage zu beantworten, hat die Schaffung lokaler Wasser-Governance-Gruppen die Wasser-Governance durch soziales Lernen verbessert? Die Studie überprüft und bewertet eine Stichprobe lokaler Wasser-Governance-Gruppen in den drei kanadischen Prärieprovinzen Alberta, Saskatchewan und Manitoba auf der Grundlage ihrer gesetzlichen und politischen Mandate, Planungen und Aktivitäten in Bezug auf soziales Lernen. Wichtig für die Anpassung an den Klimawandel sind Prozesse des sozialen Lernens, die über die Produktion von neuem und zusätzlichem Wissen hinausgehen, sondern Reflexion und Neubewertung, Kapazitätsaufbau, Vertrauensbildung, Einbeziehung lokaler Kenntnisse und Internalisierung externer Effekte in Entscheidungen zur Wasserpolitik beinhalten. Die drei in jeder der drei Prärieprovinzen untersuchten lokalen Wasser-Governance-Gruppen zeigen positive Entwicklungen im sozialen Lernen und eine verbesserte Wasser-Governance. Es gibt Hinweise auf neue Datensammlung, Anwendung vorhandener Daten und lokales Wissen auf Entscheidungen, Kapazitäts- und Vertrauensaufbau sowie laufende Planung und Neubewertung. Diese Überprüfung und vergleichende Analyse bietet wichtige Einblicke in die Entwicklung der Politik rund um die Mandate und Aktivitäten lokaler Beratungsgruppen für Wassereinzugsgebiete, um ihre Wirksamkeit zu verbessern, das soziale Lernen rund um ihre Aktivitäten zu fördern und die Anfälligkeit für den Klimawandel zu verringern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22266-5_41 ca15e0bdbd521c911b840f5e6aabef36;de;;;6.1.;;;Middleware für drahtlose Sensornetzwerke: Die komfortable Art der Anwendungsentwicklung Die Anwendungsentwicklung für drahtlose Sensornetzwerke (WSNs) erfordert Fachwissen sowohl in verteilter als auch in eingebetteter Programmierung. Um die Aufgabe der Anwendungsentwicklung zu erleichtern und diesen Bereich für Laien zugänglicher zu machen, werden häufig Middleware-Abstraktionen verwendet. Middleware ist definiert als Software, die sich zwischen Softwareanwendungen befindet. Ähnlich wie Betriebssysteme stellen Middleware-Systeme Anwendungen zusätzliche Dienste zur Verfügung, um ihre Funktionalität abstrakter zu implementieren. Da Geräte, die ein WSN bilden, in Bezug auf Rechenleistung und Speicher nur geringe Fähigkeiten haben, bieten die entsprechenden Betriebssysteme nur eine sehr grundlegende Unterstützung für die Anwendungsentwicklung. Gleichzeitig stellen verschiedene Arten von Anwendungen zusätzliche Anforderungen, um ihre Implementierung zu vereinfachen. Um diese Lücke zu schließen, steht eine Vielzahl von Middleware-Ansätzen zur Verfügung, die eine komfortable Anwendungsentwicklung unterstützen. Wir werden gängige Anwendungsbausteine ​​in diesem Bereich diskutieren, eine Auswahl verfügbarer Middleware-Ansätze besprechen und ihre Anwendbarkeit bewerten, indem wir die Anwendungsanforderungen auf Middleware-Dienste abbilden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84882-218-4_23 3effb6b0ef05a2916a95171561c9884b;de;;;6.1.;;;Wettbewerbsvorteile in der KI-Welt neu denken KI als Forschungs- und Faszinationsbereich gibt es schon lange. Es ist ein Feld, das einst seine Befürworter in Bezug auf den Fortschritt enttäuscht hat und jetzt an vorderster Front bei der Lösung realer Probleme steht. Es hält schnell Einzug in unser tägliches Leben, da es sich auf Aktivitäten ausdehnt, die üblicherweise von Menschen ausgeführt werden, was oft Bedenken hinsichtlich unserer Existenz aufkommen lässt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-3808-0_2 a9ec272b62d50b7a954c74a8f902fd91;de;;;6.1.;;;Modellieren und Manipulieren mehrerer Darstellungen von räumlichen Daten Eine der Anforderungen, die von räumlichen Datenmodellen nur wenig unterstützt wird, ist eine konsistente Verwaltung unterschiedlicher Darstellungen derselben räumlichen Phänomene aus verschiedenen Blickwinkeln oder bei unterschiedlichen Auflösungen. Dieses Bedürfnis ist bei Benutzern und Designern wohlbekannt. Die Modellierung von Anwendungen, bei denen Benutzer dieselbe Datenbank für verschiedene Kontexte verwenden, und kartografische Anwendungen sind Beispiele für Umgebungen, in denen ein solcher Bedarf auftritt. Dieses Papier schlägt ein konzeptionelles Datenmodell vor, das vollständige Unterstützung für mehrere Darstellungen derselben realen Daten bietet. Das Modell befasst sich mit zwei komplementären Aspekten: dem integrierten Ansatz, der zur Definition benutzerdefinierter Datenbankelemente führt, und dem Inter-Relationship-Ansatz, bei dem die Repräsentationen durch Inter-Repräsentations-Links verknüpft sind. Beide Ansätze verwenden die Stempeltechnik, um zwischen mehreren Darstellungen eines gegebenen Phänomens zu unterscheiden und auf eine bestimmte Darstellung zuzugreifen. Schließlich konzentrieren wir uns auf die Konsequenzen mehrerer koexistierender Repräsentationen auf die Datenmanipulation. Dieser Vorschlag wurde mit Benutzern getestet und validiert und als Front-End für vorhandene DBMS implementiert;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-56094-1_7 03a89e6f6518e91836dadd7d71d5519d;de;;;6.1.;;;Ein neues Bodenerosionsmodell für hügelige Regionen basierend auf Informationstechnologie Die Erforschung und Entwicklung von Bodenerosionsmodellen im Wassereinzugsgebietsmaßstab war in den letzten 50 Jahren führend auf dem Gebiet der Bodenerosion und wurde von Wasser- und Bodenschutzarbeitern auf der ganzen Welt konzentriert. Allerdings können die vorliegenden Modelle die tatsächlichen Bedingungen der Bodenerosion in hügeligen Gebieten nicht gut simulieren. Das Bodenerosionsmodell für kleine Wasserscheiden hügeliger Gebiete (SEM-SHA) ist ein neues verteiltes hydrologisches Modell, das gemäß dem physikalischen Prozess der Sedimentausbeute in hügeligen Gebieten entwickelt wurde. In diesem Beitrag wurden Entwicklung, Eigenschaften, Struktur und Funktion sowie Input und Output des Modells vorgestellt. Das Modell wurde auch in der Wasserscheide des Lizi-Flusses in den hügeligen Gebieten des Jialing-Flusses verwendet. Die Simulationsergebnisse zeigten, dass das SEM-SHA-Modell für die hügelige Region geeignet war.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21411-0_77 4e274c0f958e4c9bc0be8631cf18dbef;de;;;6.1.;;;HIPACS: Krankenhaus-integriertes Bildarchivierungs- und Kommunikationssystem Derzeit wird ein PACS-Forschungsprojekt unter dem Namen „Foundations for a Hospital Integrated Picture and Communications System“ (HIPACS) durchgeführt. Übergeordnetes Ziel ist die modulare Konzeption eines experimentellen wissensbasierten medizinischen Informationsmanagement- und Verteilungssystems. Der Zugriff und die Anzeige von Bild-/Textdokumenten basieren auf einer intelligenten Benutzeroberfläche für diagnostische Bild-Workstations. Das Konzept sieht eine Schnittstelle zum Krankenhausinformationssystem vor. Es basiert auf Standards und wird durch eine interaktive Zusammenarbeit zwischen 8 europäischen Forschungsgruppen aus Universitäten, Krankenhäusern und Industrie realisiert. Die pluridisziplinären Gruppen bestehen aus Ingenieuren, Informatikern, Medizinern und Physikern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-76566-7_44 9ed97b8965ef4985fd981480840d5e71;de;;;6.1.;;;Inkrementelles Sammeln von Rezeptdaten aus dem WWW Das WWW hat sich als das größte jemals verfügbare Datenarchiv in der Geschichte der Menschheit präsentiert. Die Nutzung des Internets als Datenquelle scheint selbstverständlich zu sein, und es wurden viele Anstrengungen unternommen. In diesem Papier konzentrieren wir uns auf die Einrichtung eines robusten Systems zur inkrementellen Erfassung strukturierter Rezeptdaten aus dem Web, was unserer Meinung nach ein entscheidender Schritt in Richtung praktischer, kontinuierlicher und zuverlässiger Web-Datenextraktionssysteme ist und daher das WWW als Datenquelle für verschiedene Datenbanken nutzt Anwendungen. Es gibt zwei Gründe für einen solchen inkrementellen Ansatz: (1) Es ist nicht praktikabel, alle Rezeptseiten relevanter Websites zu crawlen, da das Web sehr dynamisch ist, (2) es ist fast unmöglich, einen allgemeinen Wrapper für die Zukunft zu erstellen Extraktion aus dem ersten Batch von Rezept-Webseiten. In dieser Arbeit beschreiben wir ein solches System namens;-;-;-;https://link.springer.com/chapter/10.1007/11775300_23 14b633e83476085a2c612b86af66e561;de;;;6.1.;;;Auf dem Weg zu integrativem Risikomanagement und widerstandsfähigeren Gesellschaften Die Gesellschaft hängt entscheidend von der Verfügbarkeit von Infrastruktursystemen wie Energie, Telekommunikation, Verkehr, Bank- und Finanzwesen, Gesundheitswesen sowie staatlicher und öffentlicher Verwaltung ab. Selbst punktuelle Schäden an einer dieser Infrastrukturen können zu Störungen staatlicher, industrieller oder öffentlicher Funktionen führen. Die Verwundbarkeit von Infrastrukturen bietet daher einen spektakulären Hebel für Naturkatastrophen sowie kriminelle und terroristische Aktionen. Bedrohungen und Risiken sind Teil der technologischen, wirtschaftlichen und gesellschaftlichen Entwicklung. Im Fokus dieses Beitrags steht die Entwicklung und Charakterisierung eines integrativen Risikomanagements, das aus der Perspektive „resilienter Systeme“ als innovativer und proaktiver Krisenmanagement-Ansatz verstanden werden kann, der der zunehmenden Komplexität in Gesellschaften umfassend begegnet , agil und anpassungsfähig.;-;-;-;https://link.springer.com/article/10.1140/epjst/e2012-01706-0 88739e56a30189401dbd5ee5a8c99da2;de;;;6.1.;;;Science Gateways in HPC: Benutzerfreundlichkeit trifft auf Effizienz und Effektivität Die Menge an verfügbaren Daten sowie rechnergestützten Methoden für die Forschung ist im letzten Jahrzehnt schneller gewachsen als je zuvor. Methoden, die rechenintensive und datenintensive Herausforderungen angehen, verwenden oft ausgeklügelte Computer- und Dateninfrastrukturen wie High-Performance Computing. Effektivität und Effizienz sind die Basis, um in solchen Infrastrukturen in angemessener Zeit aussagekräftige Ergebnisse zu erzielen, und Science Gateways berücksichtigen zusätzlich die Usability, um die Nutzer bei ihrer Forschung zu unterstützen. Die Hauptziele von Science Gateways sind es, die Barriere für den Einsatz komplexer Methoden und Infrastrukturen zu senken, Rechen- und Datenressourcen nahtlos hinter einer einfach zu bedienenden Oberfläche zu verbinden und Methoden und Daten in einer Community zu teilen. Wir gehen detailliert auf das Konzept von Science Gateways und deren Designanforderungen ein. Darüber hinaus diskutieren wir die Herausforderungen für die gemeinsame Nutzung von Forschung in Science Gateways und damit das Ziel der Wiederverwendbarkeit wissenschaftlicher Methoden und der Reproduzierbarkeit von Wissenschaft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-73767-6_5 1f45e28a9d81674cdcef27d41d212f23;de;;;6.1.;;;Optimaler Überbuchungsmechanismus beim Teilen von Datentarifen Für Benutzer mobiler Geräte werden die Unannehmlichkeiten, die durch die festen Datentarife verursacht werden, zu einem beliebten Thema. Mit Hilfe des persönlichen Hotspots (pH) können sich die Smartphone-Benutzer jedoch die Netzwerkverbindung mit anderen Benutzern in der Nähe teilen. In diesem Beitrag wird eine Plattform zum Teilen von Datentarifen mit Reservierungsmechanismus vorgeschlagen. Die Benutzer dieser Plattform können ihren überschüssigen Datentarifverkehr verkaufen, um Gewinn zu erzielen. Es wurde ein Markov-Entscheidungsprozessmodell für das Revenue Management der Datenplan-Sharing-Plattform durch einen Überbuchungsmechanismus formuliert und analysiert. Die Ergebnisse von Experiment und Simulation zeigen, dass der Plattformumsatz mit diesem Modell ein beträchtliches Wachstum aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0118-0_13 4bf768d8fadd5293a68903e88c12cb38;de;;;6.1.;;;Ein verbesserter Kommunikationsmechanismus für partitionierte soziale Overlay-Netzwerke mit modifiziertem mehrdimensionalem Routing P2P-Social-Overlay-Netzwerke bieten einen umfangreichen Datenaustausch über das Internet. Die Maßnahmen der Regierung oder Naturkatastrophen können soziale Netzwerkpartitionen (SNP) zwischen verschiedenen geografischen Gebieten verursachen. Das auf einem einzelnen Attribut basierende Routing innerhalb von Chord-Netzwerken über solche SNPs wird ineffektiv. Daher schlagen wir ein Social Interest Overlay (SIO)-Netzwerk vor, das auf der Chord-Netzwerkarchitektur aufgebaut ist und einen modifizierten multidimensionalen Routing-Algorithmus (mMDR) verwendet. Die Gewichtungsfunktion mehrerer Dimensionen, d. h. geografischer Standort, soziales Interesse und Zeitzonen, wird berechnet, um die besten Pfade innerhalb von SNPs zu erhalten. Die resultierenden topologischen und Routing-Kommunikationswahrscheinlichkeiten beweisen, dass der mMDR-Algorithmus, der für das vorgeschlagene SIO-Netzwerk angewendet wird, die Kommunikation innerhalb von SNPs stark verbessert.;-;-;-;https://link.springer.com/article/10.1007/s10586-018-1999-0 5f91dde1acb66ad05a2fd67991d7ee69;de;;;6.1.;;;Entwicklung von Smart Grid Architekturen Durch neue Producer-, Storage- und Demand-Side-Management-Systeme, die für ein Smart Grid eingeführt werden, entstehen neue Datenpools, Schnittstellen und Prozesse. Bestehende Altsysteme müssen mit neuen Systemen interagieren, daher wird die Funktions- und Prozesslogik des Stromnetzes komplexer verteilt. Um diese komplexen Interaktionen zu realisieren, werden Informations- und Kommunikationstechnologien benötigt. Die Entwicklung einer solch komplexen Systemarchitektur erfordert einen strukturierten Ansatz, der die Anliegen der verschiedenen Stakeholder berücksichtigt. Dementsprechend ist ein grundlegendes Architekturmanagement der Systemlandschaft sowie eine Prozessübersicht durch Energieversorger zu etablieren. Dieses Kapitel bietet eine Einführung und Grundlagen zu diesem Thema.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34916-4_4 3d32a618700ae245bfce835543826600;de;;;6.1.;;;Cloud-basiertes Überwachungssystem für das Gesundheitswesen mit Storm und Kafka Mit der bedeutenden Entwicklung der Technologie im Bereich der Informatik gewinnt das Konzept der Telemedizin an Popularität. Telemedizin ermöglicht es dem Gesundheitssektor und seinen Stakeholdern wie Ärzten und Pflegepersonal, Patienten zu überwachen. Es ermöglicht eine qualitativ hochwertige Behandlung unabhängig von geografischen Bedingungen und aus der Ferne. Die wichtigste Voraussetzung für die Telemedizin ist jedoch eine gut ausgestattete Infrastruktur für die Fernüberwachung und -analyse. Cloud Computing mit den Schlüsselmerkmalen Skalierbarkeit, dynamische Bereitstellung und Service-Cloud-Modelle verspricht die Infrastruktur für diese Anforderung zu sein. In diesem Beitrag wurde ein auf dem Gesundheitswesen basierendes Automatisierungssystem mit Cloud vorgeschlagen, das die erforderlichen Gesundheitsdaten für die Analyse sammelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2348-5_8 ac00ab95911356cfbde94c4c226819a9;de;;;6.1.;;;Anwendung der Big Data Technologie im Chain Operation Management Operation Der Kettenbetrieb von Unternehmen wurde in der heutigen Gesellschaft schrittweise verbessert und hat jetzt bereits einen ausgezeichneten Managementmodus. Im Betrieb der Kettenunternehmen spielt die Konzernzentrale eine entscheidende Rolle. Es ist die Flagge aller Tochtergesellschaften und Unterorganisationen. Daher ist es notwendig, dass die Konzernzentrale eine exzellente Führungsfunktion übernimmt und die exzellenten Unternehmenskulturen in die Kettenunternehmen einbringt. Dieses auf der Big-Data-Technologie basierende Papier analysiert deren Anwendungsstrategien in der Kettenbetriebsführung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-15235-2_52 caead67be8437e5cbe86db242e961155;de;;;6.1.;;;Potenzielle Erkundung des Parallelismus auf Thread-Ebene mit Superblock-Neuordnung Die wachsende Anzahl von Prozessorkernen in einer einzigen CPU verlangt von sequentiellen Programmen mehr Parallelität. Aber in den letzten Jahrzehnten ist es nur wenigen Arbeiten gelungen, automatisch genügend Parallelität auszunutzen, was einen Schatten auf die Many-Core-Architektur und die automatische Parallelisierungsforschung wirft. Es wurden jedoch nur wenige Arbeiten unternommen, um die Natur oder den Umfang der potenziell verfügbaren Parallelität in Programmen zu verstehen. In diesem Papier werden wir zur Laufzeit die dynamischen Datenabhängigkeiten zwischen Superblöcken sequentieller Programme analysieren. Um die verfügbare Parallelität zu messen und auszunutzen, haben wir einen Meta-Rearrange-Puffer entworfen, mit dem die Superblöcke dynamisch analysiert, neu geordnet und verteilt werden, um auf einem idealen Vielkernprozessor parallel zu laufen, während die Datenabhängigkeiten und die Programmkorrektheit erhalten bleiben. In unseren Experimenten haben wir beobachtet, dass bei der Neuordnung des Superblocks die potenzielle Beschleunigung zwischen 1,08 und 89,60 lag. Die Ergebnisse zeigten, dass die potenzielle Parallelität normaler Programme von bestehenden Technologien noch lange nicht ausgeschöpft wurde. Diese Beobachtung macht die automatische Parallelisierung zu einer vielversprechenden Forschungsrichtung für Many-Core-Architekturen.;-;-;-;https://link.springer.com/article/10.1007/s00607-014-0387-8 7f271179a457c2abcaa80290478b25fb;de;;;6.1.;;;Erraten der Extremwerte in einem Datensatz: eine Bayes'sche Methode und ihre Anwendungen Bei einer großen Anzahl von Datenverwaltungsproblemen wäre es sehr nützlich, in der Lage zu sein, einige Stichproben aus einem Datensatz zu erhalten und die Stichproben zu verwenden, um den größten (oder kleinsten) Wert im gesamten Datensatz zu erraten. Min/Max-Online-Aggregation, Top-k-Abfrageverarbeitung, Ausreißererkennung und Distance Join sind nur einige der möglichen Anwendungen. Dieses Papier beschreibt einen statistisch rigorosen, Bayes'schen Ansatz, um dieses Problem anzugehen. Ebenso wichtig ist, dass wir die Nützlichkeit unseres Ansatzes demonstrieren, indem wir zeigen, wie er auf vier spezifische Probleme angewendet werden kann, die im Kontext des Datenmanagements auftreten.;-;-;-;https://link.springer.com/article/10.1007/s00778-009-0133-6 66b5ab298ca7e618dcd5bc6053cbcde4;de;;;6.1.;;;Ein kooperatives System zur Gestaltung mechatronischer Produkte mit multidisziplinärer Optimierung Heute erreichen multidisziplinäre Teams die integrierte Entwicklung eines Produkts und seines Herstellungsprozesses. Um den gemeinsamen Ansatz dieser Teams zu unterstützen, haben wir ein interdisziplinäres Kommunikationsmedium entwickelt. Dieser Artikel beschreibt die Anwendung eines kooperativen Konstruktionssystems zur Optimierung eines mechatronischen Produkts aus multidisziplinärer Sicht. Dieses System wird gemeinsam vom Soils, Solids, Structures Laboratory in Grenoble und der Polytechnischen Universität Bukarest entwickelt. Diese Anwendung unterstreicht die Realität unseres Ansatzes und ermöglicht es, verschiedene Netzwerkprobleme, Plattformheterogenität und Datenaustausch zu lösen. Verbindungen zum Netzwerk verwenden die ILOG-Software und basieren auf dem Standard CORBA. Die Umgebung von MECA-CoDeMo erlaubt verschiedene Simulationen und den Einsatz von Modellierungswerkzeugen im Zusammenspiel mit dem kooperativen Konstruktionssystem. Auf technischer Ebene erfordert die Verwirklichung dieser Ziele die Integration der Modellierungs- und Simulationswerkzeuge der verschiedenen technischen Disziplinen in den Bereichen Konstruktion, Analyse, Fertigung, Elektrotechnik, Steuerung, ...;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-2256-8_24 274d2de020ffba3cff83e460cb7d7b36;de;;;6.1.;;;Mehrfarben-FLUOROSPOT-Zählung mit ImmunoSpot Mehrfarbige FLUOROSPOT-Assays zum gleichzeitigen Nachweis mehrerer T-Zell-Zytokine und/oder Klassen/Unterklassen von Immunglobulinen, die von B-Zellen sezerniert werden, sind in letzter Zeit ein wichtiger neuer Entwicklungsweg der ELISPOT-Technologie geworden. Fortschritte bei den Assay-Techniken und die Verfügbarkeit kommerzieller Testkits stimulierten die Entwicklung von mehrfarbigen FLUOROSPOT-Datenanalyseplattformen. Der ImmunoSpot;-;-;-;https://link.springer.com/protocol/10.1007/978-1-4939-8567-8_10 9cf6abd86249e1797a66cca5a06fbb1e;de;;;6.1.;;;Ein integriertes Pflegemanagement-Informationssystem: Vom Konzept zur Realität Das Gesundheitsumfeld von heute unterscheidet sich grundlegend von dem der nahen Vergangenheit. In dieser Zeit der Kostenbeschränkungen sind Informationen zur Entscheidungsfindung ein wichtiges Gut. Der Mangel an solchen wesentlichen Informationen ist unerträglich. Admiral Grace Hopper [1] der US-Marine, ein früher Pionier in der Entwicklung von Informationssystemen, weist darauf hin, dass die Kosten für den Verzicht auf Informationen bei der Berechnung der Kosten für die Erstellung von Informationen normalerweise übersehen werden. Man muss nicht lange suchen, um die erheblichen Kosten nachzuweisen, die durch unangemessene, unvollständige oder ungenaue Daten entstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-2182-1_20 54e28a3855fbc8aae9dfe0ce9a30e389;de;;;6.1.;;;Paradigmenwechsel in der Fertigung hin zu besserem Cloud-Computing im militärischen Umfeld: Ein neues Modell für die Zusammenarbeit in operativen Informationsaustauschnetzwerken Die heutigen Budgets sind knapper als je zuvor in der jüngeren Geschichte. Trotz strenger Budgetbeschränkungen steigen die militärischen Forderungen nach hochdynamischen föderierten Missionen jedoch immer noch, insbesondere in Richtung Informationstechnologie (IT). Dies stellt Organisationen vor neue Herausforderungen. Sie bewegen sich von einer gerätezentrierten Sicht der IT hin zu einer anwendungs-, personen- und informationszentrierten Sichtweise. Militärische Organisationen sind von diesem neuen Prozess nicht ausgeschlossen, der die Grundlage einer neuen Theorie namens Network Enabled Capability (NEC) bildet. Darüber hinaus sind die Anforderungen an Aktualität, Genauigkeit, Allgegenwart, Gewissheit und Sicherheit, ein schneller Informationsaustausch auf dem Schlachtfeld über alle Teile und Organisationen hinweg der Hebel zur Erfüllung der militärischen Mission und grundlegend für den Befehls- und Kontrollprozess, der auch mit dem Observe, Zyklus ausrichten, entscheiden, handeln ( OODA). Cloud Computing ist einerseits auf diese neue Weltsicht und Herausforderungen ausgerichtet, da die bestehenden Infrastrukturen effizienter genutzt und schneller erweitert werden können und die Implementierung von NEC in militärischen Operationen genutzt werden kann, bei denen Konzepte wie Informationssicherung, Informationsaustausch, Flexibilität und Skalierbarkeit werden immer wichtiger. Auf der anderen Seite wirft es neue Bedrohungen und Probleme auf, wie die Erosion von Vertrauensgrenzen, allgegenwärtige Konnektivität, die amorphe Natur des Informationsaustauschs, die Ineffektivität herkömmlicher statischer Sicherheitskontrollen und die dynamische Natur von Cloud-Diensten. All dies erfordert ein neues Denken und einen neuen Wissensmanagement-Ansatz. Die neuen Servicemodelle, Betriebsmodelle und neuen Technologien, die zur Implementierung von Cloud Computing eingesetzt werden, können jedoch andere Risiken und zusätzliche Anforderungen für das Unternehmen darstellen. Insbesondere militärspezifische Anforderungen und Prioritäten müssen bei der Umstellung auf die taktische Collaborative Cloud berücksichtigt werden. Die Anforderungen an den Informationsaustausch in der militärischen Operation/Mission wachsen und werden komplexer. Darüber hinaus erschweren Sicherheitsmechanismen und -prozesse oft die Mission, mit den Umweltbedingungen Schritt zu halten. Methoden wie Reach Back oder Home Base verdeutlichen, dass sich auch der militärische Perimeter verändert hat und moderne Command, Control and Information System (CCIS) Best Practice für Cloud Computing sind. Dieses Kapitel wird die Landschaft des Cloud Computing beschreiben und den Blick auf die Möglichkeit richten, dieses neue Konzept in der militärischen Welt zu implementieren. Die Stärken und Schwächen, die die Einführung von Cloud Computing in die militärischen Operationen mit sich bringen kann, werden aufgezeigt. Darüber hinaus wird eine Analyse dessen, was Cloud Computing im NEC einführt, als Ausgangspunkt für zukünftige und spezifischere Studien vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-4935-4_11 94c84e4a31c5051e25c2d4788a0d010e;de;;;6.1.;;;Untersuchung der Quellwasserqualität im Einzugsgebiet Natuv, Palästina: ein Baustein für das regionale Umweltmanagementsystem Grundwasserqualitätsindikatoren wurden kartiert und mit räumlichen Informationen über die Umgebung für das Grundwasserschutzmanagement integriert. An 17 Quellen im Natuv-Oberflächenwasserbecken im Westen von Ramallah/Palästina wurden drei Probennahmekampagnen durchgeführt (48 Proben). Die Proben wurden auf physikalisch-chemische Parameter analysiert: Hauptionen, Spurenelemente sowie Gesamt- und fäkale coliforme Bakterien. Die Analysen umfassten physikalische Parameter pH, Temperatur und EC sowie Konzentrationen der chemischen Bestandteile Na;-;-;-;https://link.springer.com/article/10.1007/s41207-018-0091-8 0d281d2209e2df287505fd42e5f78f67;de;;;6.1.;;;Die Notwendigkeit eines datenschutzfreundlichen Identitätsmanagements Im vorherigen Kapitel wurden aktuelle Entwicklungen im Identitätsmanagement beschrieben. Identitätsmanagementsysteme bewegen sich weg von unternehmenszentrierten „Silo“-Systemen hin zu föderierten und benutzerzentrierten Systemen. Die traditionellen Einzelunternehmenslösungen mit ihren Identitätsdaten-Silos werden aufgrund der Zusammenarbeit zwischen den Dienstanbietern obsolet und weil sie sowohl für den Einzelnen als auch für Organisationen eine Belastung darstellen. Aktuelle Entwicklungen in Richtung Single Sign-On und Identitätsföderation erkennen die Beschwerden über die Unannehmlichkeiten traditioneller Identitätsmanagementsysteme an. Sie konzentrieren sich jedoch immer noch hauptsächlich auf die Anforderungen des Enterprise Identity Management: Zugriffskontrolle auf Ressourcen. An der Spitze der IdM-Entwicklungen beobachten wir Projekte, bei denen der Mensch und nicht das Unternehmen zunehmend in den Mittelpunkt gestellt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19050-6_4 5daf96281b9862747567ffd748cbf1a7;de;;;6.1.;;;HealthED: Eine offene integrierte IT-Architektur für das Gesundheitswesen Neue Informationstechnologien bieten die technische Möglichkeit, Probleme des Informationsaustauschs im Gesundheitswesen und der Prozessintegration zu lösen. Dieses Papier schlägt eine offene Architektur vor, um die Registrierung medizinischer Dienste zu unterstützen und Gesundheitsinformationslösungen für die neuen Anforderungen aus der Sicht von Patienten und Ärzten bereitzustellen. Es kann als ergänzender Teil des aktuellen klinischen Informatiksystems dienen, das die anbieterbasierten Integrationsansätze mit patientenzentrierten Ansätzen kombiniert und die einrichtungsübergreifende Zusammenarbeit unterstützt. Mehrere Demonstrationsanwendungen für das Gesundheitswesen werden entwickelt, um die Benutzerfreundlichkeit und Leistung dieser Architektur zu testen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79039-6_148 3a9e2946f7b8182ed11981f6aaeb7b6f;de;;;6.1.;;;Basismodellstudie zur Effizienzbewertung im kollaborativen Entwurfsarbeitsprozess Während des Effizienzbewertungsprozesses kollaborativer Entwurfsarbeit wird in diesem Papier aufgrund des Fehlens von Effizienzbewertungsmodellen ein grundlegendes analytisches Modell für die Effizienzbewertung kollaborativer Entwurfsarbeit vorgeschlagen. Zunächst wurden die Merkmale des Arbeitsprozesses des vernetzten kollaborativen Entwurfssystems untersucht, dann wird entsprechend diesen Merkmalen ein grundlegendes analytisches Modell erstellt. Dieses Modell, das für die zentralisierte kollaborative Konstruktionsarbeit entwickelt wurde, umfasst einen analytischen Rahmen, ein Prozessansichtsmodell, ein Funktionsansichtsmodell und ein Informationsansichtsmodell. Schließlich werden der Anwendungsprozess und die Schritte dieses grundlegenden analytischen Modells ausgearbeitet, wenn es zur Effizienzbewertung durch ein Experiment verwendet wird.;-;-;-;https://link.springer.com/article/10.1007/s11465-007-0060-4 bc4f54b52fcc9b962e03770151d1f39d;de;;;6.1.;;;Ein Datenmodell mit mehreren Versionen und ein semantikbasiertes Transaktionsverarbeitungsprotokoll Verzögerungen bei der Datenverarbeitung werden zu einem der schwerwiegendsten Probleme in einer mobilen Umgebung. Eine nicht die neueste Version des Datenelements kann aufgrund von Datenschwankungen in nachfolgenden Versionen nicht eingefügt werden. In diesem Papier wird ein Datenmodell mit mehreren Versionen vorgestellt, das in der Lage ist, den vollständigen Versionsverlauf zu bewahren. Ein solches Modell erlaubt Updates, die nicht chronologisch geordnet sind. Es wird durch die Verwendung von Semantiken erhalten, die von Anwendungen erhalten werden. Die Version des Datenelements wird durch eine Operation mit einem Satz von Attributen und einem Akzeptanzzeitstempel definiert. Konsistenzanforderungen „nach Bedarf“ ermöglichen konfliktfreie kommutative Versionen, die durch kommutative Operationen definiert sind. Das mit dem präsentierten Datenmodell zu verwendende Transaktionsprotokoll wird ebenfalls beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/11547686_7 741c5b9a6ae8dc199c0ba704aa3fbe30;de;;;6.1.;;;Big-Data-Experimente auf Smartphones verwalten Die explosionsartige Zahl von Smartphones mit ständig wachsenden Sensor- und Rechenfähigkeiten hat einen Paradigmenwechsel in vielen traditionellen Domänen des Computerbereichs bewirkt. Die Neuprogrammierung von Smartphones und deren Instrumentierung für Anwendungstests und Datenerfassung in großem Maßstab ist derzeit ein mühsamer und zeitaufwändiger Prozess, der erhebliche logistische Herausforderungen mit sich bringt. Smartphone-Anwendungen der nächsten Generation werden voraussichtlich viel umfangreicher und komplex sein und erfordern, dass diese unter verschiedenen realen Datensätzen, Geräten und Bedingungen bewertet und getestet werden. In diesem Papier stellen wir eine Architektur vor, um solche groß angelegten Datenmanagementexperimente auf realen Smartphones zu verwalten. Wir präsentieren insbesondere die Bausteine ​​unserer Architektur, die Smartphone-Sensordaten umfasst, die von der Crowd gesammelt und in unserem Big-Data-Repository organisiert sind. Die gegebenen Datensätze können dann auf unserem Testbed, bestehend aus realen und simulierten Smartphones, abgespielt werden, auf die Entwickler über eine webbasierte Schnittstelle zugreifen können. Die Anwendbarkeit unserer Architektur stellen wir anhand einer Fallstudie dar, bei der einzelne Komponenten eines komplexen Indoor-Positionierungssystems für Smartphones namens Anyplace evaluiert werden, das wir über die Jahre entwickelt haben. Die vorliegende Studie zeigt, wie unsere Architektur es uns ermöglicht, neue Erkenntnisse über die Leistung unserer Algorithmen und Anwendungen zu gewinnen, indem die Verwaltung großer Datenmengen auf Smartphones vereinfacht wird.;-;-;-;https://link.springer.com/article/10.1007/s10619-014-7158-6 6e636707f44e5faa4e9e201804325288;de;;;6.1.;;;Gedanken über Datenschutzfragen in der Gesundheitsforschung mit disaggregierten geografischen Daten über Einzelpersonen Dieses Papier bietet einen aktuellen Überblick über die miteinander verflochtenen Datenschutz-, Vertraulichkeits- und Sicherheitsprobleme, die häufig in der Gesundheitsforschung mit disaggregierten geografischen Daten über Einzelpersonen auftreten. Es werden Schlüsseldefinitionen sowie einige Beispiele für tatsächliche und potenzielle Sicherheits- und Vertraulichkeitsverletzungen und damit verbundene Vorfälle bereitgestellt, die in den letzten Monaten und Jahren das Interesse der Mainstream-Medien und des öffentlichen Interesses erregt haben. Anschließend wird ein kurzer Überblick über die Forschungsliteratur zum Thema Datenschutz/Vertraulichkeit am Standort und zu Lösungen zum Schutz der Privatsphäre in der konventionellen Gesundheitsforschung und darüber hinaus gegeben, wobei die aufkommenden Datenschutzprobleme im Zusammenhang mit Online-Verbraucher-Geoinformatik und standortbasierten Diensten angesprochen werden. Auch der „fehlende Ring“ (in vielen Behandlungen des Themas) der Datensicherheit wird thematisiert. Es werden Gesetze zu personenbezogenen Daten und Datenschutz in zwei Ländern, Kanada und Großbritannien, sowie einige Beispiele für aktuelle Forschungsprojekte und Veranstaltungen zu diesem Thema behandelt. Anschließend werden ausgewählte Höhepunkte eines URISA (Urban and Regional Information Systems Association)-Workshops im Juni 2009 mit dem Titel „Schutz der Privatsphäre und Vertraulichkeit geografischer Daten in der Gesundheitsforschung“ vorgestellt. Das Papier schließt mit einer kurzen Darstellung der Komplexität der Domäne und den vielen damit verbundenen Herausforderungen und schlägt einen neuartigen, fallbasierten Argumentationsrahmen aus einer Hand vor, um die Bereitstellung klarer und individueller Leitlinien für die Gestaltung und Genehmigung neuer approval Forschungsprojekte (mit geografischen Identifikatoren von Einzelpersonen), einschließlich klarer Empfehlungen, welche spezifischen Lösungen und Ansätze zum Schutz der Privatsphäre jeweils geeignet wären.;-;-;-;https://link.springer.com/article/10.1186/1476-072X-8-46 fa1779de9ea4f4b4ea0296757034e0a2;de;;;6.1.;;;Verwalten von Sammlungen von XML-Schemas in Microsoft SQL Server 2005 Es gibt zwei Arten von Schemaentwicklungen: (a) solche, die eine Instanztransformation erfordern, weil die Anwendung einfacher zu entwickeln ist, wenn sie nur mit einer Version des Schemas funktioniert, und (b) solche, bei denen die alten Daten beibehalten und die Instanztransformation vermieden. Letzteres ist in der Praxis wichtig, hat aber in der Literatur kaum Beachtung gefunden. Daten, die mehreren Versionen des XML-Schemas entsprechen, müssen mit derselben Abfrage verwaltet, indiziert und bearbeitet werden. SQL Server 2005 von Microsoft führt XML-Schemasammlungen ein, um beide Arten der Schemaentwicklung zu adressieren.;-;-;-;https://link.springer.com/chapter/10.1007/11687238_69 900063711e132472437d63c85683f131;de;;;6.1.;;;Verteilung von Sacchariden in hochendothelialen Venolen von Schweinelymphknoten und assoziierten Lymphozyten, visualisiert mit Fluoreszenzlektinen und konfokaler Mikroskopie Die Verteilung von Sacchariden in Schweinelymphknoten, insbesondere im Endothel der hochendothelialen Venolen (HEV) und auf Lymphozyten in diesen Gefäßen, wurde durch Untersuchung der Bindung von fluoreszierenden Konjugaten von 18 verschiedenen Lektinen untersucht. Es wurde gefunden, dass acht der Lektine, insbesondere mit einer auf Mannose- und Polyacetyllactosamin-Determinanten beschränkten Glykanspezifität, mit hoher Affinität an diese Strukturen binden. Kompetitive Hemmexperimente zeigten, dass polylactosaminhaltige Glykane auf Endothelien und Lymphozyten unter Verwendung von Lektinen aus;-;-;-;https://link.springer.com/article/10.1007/BF00211768 6a903030eaf7b5d13394686e2d7f38e9;de;;;6.1.;;;Aufbau von Kapazitäten im Bereich der öffentlichen Gesundheit in Zeiten der Sparpolitik: Eine Fallstudie der University of East London Die University of East London (UEL) bietet einen BSc und MSc of Public Health (PH). Die Programme zielen darauf ab, die Arbeitskräftekapazität aufzubauen, indem sie zukünftigen PH-Praktikern und -Spezialisten den Zugang zur Hochschulbildung (HE) ermöglichen und Aufstiegsmöglichkeiten innerhalb der aktuellen Beschäftigung erleichtern. 2009/10 hatten die Studiengänge MSc und BSc 143 bzw. 70 Studierende, wobei 209 Studierende ein PH-Kombistudium auf BSc-Niveau absolvierten.;-;-;-;https://link.springer.com/article/10.1007/BF03391630 aff66aa0782343e8d72d9379d153f365;de;;;6.1.;;;Interdisziplinäre Entscheidungen in Produktion, Logistik sowie Verkehr und Transport: Maßnahmen zur Überwindung von Barrieren in der interdisziplinären Entscheidungsfindung Die Entscheidungsfindung in Wertschöpfungsnetzwerken wird immer komplexer. Damit sich getroffene Entscheidungen nicht kontraproduktiv gegenseitig beeinflussen, sollte eine interdisziplinäre Entscheidungsfindung ermöglicht werden. Was aus theoretischer Sicht einfach klingt, zeigt die Praxis, dass Entscheidungen meist in funktionalen Silos getroffen werden, ohne Berücksichtigung bestehender Abhängigkeiten. Um die interdisziplinäre Entscheidungsfindung zu erleichtern, stützt sich das Kapitel daher zunächst auf die deskriptive Entscheidungstheorie, um eine allgemeine Struktur der Barrieren interdisziplinärer Entscheidungsfindung bereitzustellen. Im zweiten Schritt wird eine Typologie interdisziplinärer Entscheidungszusammenhänge abgeleitet, die dann die Grundlage für ein normatives Entscheidungsmodell bildet. Dieses Modell bietet Ratschläge zum bedingten Einsatz von Instrumenten zur interdisziplinären Entscheidungsunterstützung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-41097-5_2 1a33c58cc23c528dbc683674cca90d52;de;;;6.1.;;;Echtzeit-Datenanalysen in weiterführenden Schulen mit einer blockbasierten Programmiersprache Datenmanagement steht im Mittelpunkt vieler CS-Innovationen: Smart-Home-Technologien und das Internet der Dinge zum Beispiel basieren auf der Verarbeitung von Daten mit hoher Geschwindigkeit. Eines der interessantesten Themen, das mehrere Herausforderungen in diesem Bereich hervorhebt, ist die Echtzeit-Datenanalyse. In der Sekundarstufe CS wird sie nur am Rande berücksichtigt. Für eine universelle Echtzeit-Datenanalyse in der Schule gibt es bisher keine geeigneten Tools. In diesem Papier diskutieren wir dieses Thema aus der Perspektive der Sekundarschulbildung. Neben zentralen Konzepten und Unterschieden zur traditionellen Datenanalyse mit relationalen Datenbanken beschreiben wir die Entwicklung eines universellen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-71483-7_17 e05510789eb08a4ce0cddc5ce3336fed;de;;;6.1.;;;Transparenter Nachzügler-Support für synchrone Groupware In einer kollaborativen Sitzung können Benutzer beitreten und austreten. Ein Benutzer, der einer Sitzung beitritt, wird als Nachzügler bezeichnet. Ein Nachzügler benötigt den aktuellen Stand der kollaborativen Sitzung, um an der Sitzung teilnehmen zu können. Es gibt verschiedene Ansätze, um einem Nachzügler gerecht zu werden. Das Laufzeitsystem kann z.B. den Zustand an den Nachzügler weitergeben oder nachspielen, wie der Sitzungszustand erreicht wurde. Wird der Zustand auf einem bekannten Server gepflegt, ist es recht einfach, den Nachzügler mit dem aktuellen Zustand zu versorgen. Wenn der Server jedoch nicht verfügbar ist, kann der Nachzügler nicht beitreten. Um die Fehlertoleranz zu erhöhen, muss das Laufzeitsystem einen dezentralen Ansatz verfolgen. In diesem Fall müssen die Rennbedingungen berücksichtigt werden. DreamObjects ist eine Plattform, die die Entwicklung gemeinsam genutzter Datenobjekte vereinfacht. Es unterstützt eine direkte Statusübertragung sowie eine Wiedergabe und lässt einen Nachzügler wählen, wie er einer Sitzung beitreten möchte. Beide Ansätze sind vollständig in das Laufzeitsystem integriert, arbeiten komplett dezentral und blockieren die anderen Teilnehmer nicht in ihrer aktuellen Arbeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39850-9_3 445471be9bfa3f798417a7405d3bbd1c;de;;;6.1.;;;Big Data Analytics und Sicherheit: Eine große Auswahl und Herausforderung für die Generation Das Konzept von Big Data kommt in Frage, wenn Herausforderungen in Bezug auf die digitale Kapazität, Geschwindigkeit und Art der gesammelten Daten identifiziert wurden. Der Bereich der Datenquellen ist vielfältig: soziale Netzwerke, Mobiltelefone, Sensoren, Satelliten und verschiedene Arten von Organisationen. Die Daten werden mit hoher Geschwindigkeit gesammelt/generiert und sind komplex (strukturiert, unstrukturiert und halbstrukturiert). Big Data Analytics ist der Prozess, um versteckte Muster und geheime Korrelationen aufzudecken, der dazu dient, Erkenntnisse aus diesen überwältigenden Daten vorherzusagen und zu erfassen, Standardtechnologien erzwingen, aktualisiert oder durch Big Data-Technologie ersetzt zu werden, und hat eine Vielzahl von Vorteilen und Anwendungen. In diesem Papier werden die Vorteile und insbesondere die Herausforderungen von Datenschutz und Sicherheit bei Big Data behandelt und Lösungen vorgeschlagen. Parallel zur Erfassung von Erkenntnissen aus solch massiven und gemischten Daten, die auch aus einer Vielzahl von IoT-Geräten stammen, bieten die Prinzipien von Big Data fortschrittliche Sicherheitslösungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-5547-8_22 7ded7b3eaedc92b35e949b01b9dd9139;de;;;6.1.;;;Neuausrichtung der gemeinsamen Nutzung von Geschäftsökosystemen zur Unterstützung der Betriebsplanung von Hotels in der Stadt Die Komplexität einer erfolgreichen touristischen Betriebsplanung stellt eine immerwährende Herausforderung dar. Es erfordert eine Vielzahl von Daten, die von mehreren Akteuren des touristischen Geschäftsökosystems verwaltet und verwaltet werden. Insbesondere die Dienstpläne – die Personal- und Materialplanung – ist besonders schwer zu handhaben. In diesem Papier erarbeiten wir Informationsressourcen, die das Potenzial haben, die Planungsgenauigkeit in einem gut entwickelten touristischen Ökosystem mit sich ständig weiterentwickelnden Informationssystemen zu erhöhen. Zuerst identifizieren wir die wichtigsten Akteure des touristischen Geschäftsökosystems, gehen auf ihre informationsbezogenen Ressourcen und Bedürfnisse ein und untersuchen dann ihre Beziehungen mithilfe der Systemdynamik. Basierend auf dem entwickelten Modell wird eine Reihe von Aktivitäten vorgeschlagen, die es allen Akteuren ermöglichen, das volle Potenzial der verfügbaren Daten unter Berücksichtigung der bestehenden rechtlichen und ethischen Überlegungen auszuschöpfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-45096-0_49 bc32861feb7683099a68d2576c883bf3;de;;;6.1.;;;Datenaustausch und -abruf mit OAI-PMH Es besteht ein wachsender Konsens über die Notwendigkeit, digitale Daten zu speichern und zu archivieren, insbesondere für die öffentlich finanzierte Forschung. Die Langzeitarchivierung dieser Daten erfordert im Allgemeinen eine Form von institutionellen Archiven, wie sie beispielsweise an bestimmte wissenschaftliche Praxisgemeinschaften gerichtet sind. Da Daten häufig für mehrere Praxisgemeinschaften von Nutzen sind, die unterschiedliche Normen für Daten- und Metadatenstruktur und -semantik haben können, sind effektive Standards für den Daten- und Metadatenaustausch wichtige Faktoren für das Auffinden und Abrufen von Daten durch die Benutzer. Toolsets, die eine kohärente Präsentation von Informationen über mehrere Standards hinweg bereitstellen, sind wichtig für die Datensuche und den Datenzugriff. Ein solches Toolset, Mercury, ist ein Open-Source-System zum Sammeln von Metadaten, zum Auffinden von Daten und zum Zugriff auf Forscher, um raumzeitliche Daten zu suchen, zu teilen und zu erhalten, die in einer Reihe von Klima- und Umweltwissenschaften verwendet werden. Mercury wird in mehreren Projekten verwendet, um eine kohärente Suchoberfläche für raumzeitliche Daten bereitzustellen, die in einem von mehreren Metadatenformaten beschrieben werden. Mercury wurde kürzlich erweitert, um das Sammeln und Verteilen von Metadaten mithilfe des Open Archive Initiative Protocol for Metadata Handling (OAI-PMH) zu ermöglichen. In diesem Dokument beschreiben wir die Fähigkeiten von Mercury mit mehreren Metadatenformaten im Allgemeinen und insbesondere die Ergebnisse unserer OAI-PMH-Implementierungen und die gewonnenen Erkenntnisse.;-;-;-;https://link.springer.com/article/10.1007/s12145-010-0073-0 8f68f8dc0c0cfe62062a6a03f9d50584;de;;;6.1.;;;Multimedia-Erhaltung: Warum die Mühe? Multimediale Inhalte und insbesondere persönliche Multimediainhalte werden heute in Hülle und Fülle erstellt. Die kurz- bis mittelfristige Speicherung dieser Inhalte ist aufgrund der niedrigeren Speicherpreise und der Verfügbarkeit von Speicherdiensten in der Regel kein Problem. Für die langfristige Perspektive, d. h. die Bewahrung, fehlen jedoch noch adäquate Technologien und Best Practices, um die Inhalte zugänglich und sinnvoll zu halten. Stattdessen führen der Zusammenbruch von Geräten und Änderungen der Technologien zu einer Form des zufälligen Überlebens und des zufälligen Vergessens digitaler Inhalte. In diesem Kapitel motivieren wir einen intelligenteren und selektiveren Ansatz für die persönliche Multimedia-Aufbewahrung. Dieser Ansatz führt drei Schlüsselbausteine ​​ein und kombiniert sie: (a) „Managed Forgetting“ zur Konzentration auf wichtige und nützliche Inhalte, die vom menschlichen Vergessen und Erinnern inspiriert sind, (b) „kontextualisiertes Erinnern“, um mit der Evolution umzugehen und Inhalte im Laufe der Zeit sinnvoll zu halten, und (c) „synergetische Bewahrung“ zur Überbrückung der Kluft zwischen aktiver Informationsnutzung und langfristigem Informationsmanagement.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-73465-1_1 b000f5b62877d885b49e3f6ba8710598;de;;;6.1.;;;Eine Überwachungsplattform für den Stromnetzbetrieb basierend auf Big Data-Technologie Derzeit befindet sich die Bewertung des Netzbetriebs noch im qualitativen Stadium, das an quantitativen Bewertungs- und Analysemethoden fehlt und den Anforderungen des modernen Stromnetzausbaus und den Anforderungen des Lean Managements der Power Grid Corp. nicht gerecht werden kann. Basierend auf der Eigenschaften des Stromnetzbetriebs ist der Aufbau der Überwachungsplattform für den Stromverteilungsnetzbetrieb auf der Grundlage der Big-Data-Technologie ein effektiver Weg, um eine quantitative Bewertung der Betriebseffizienz, der Stromversorgungskapazität und der Regionsüberwachung zu erzielen. Dieses Papier stellt den Aufbau und die Anwendung einer Big-Data-basierten Überwachungsplattform für den Stromnetzbetrieb vor, einschließlich der Systemarchitektur der Überwachungsplattform für den Stromverteilungsnetzbetrieb, des Bewertungsmodells der Stromversorgungskapazität und der Betriebseffizienz des Verteilungsnetzes, Funktionen des Datenzugriffs und Qualitätskontrolle, Stromnetzbetrieb visuelle Online-Überwachungsanalyse und Betriebsüberwachung und Zusammenarbeit bei der Steuerung. Der tatsächliche Betrieb des Systems zeigt, dass die Monitoring-Plattform Stromnetzbetrieb eine quantitative Bewertungs- und Entscheidungsgrundlage für die Stromnetzplanung, den Bau und den Produktionsbetrieb bietet, den vorhandenen Datenwert voll ausschöpft, Entscheidungshilfen für die Wirtschaft bietet und weiter verbessert die Fähigkeit zur strategischen Entscheidungsfindung und Betriebsüberwachung des Zentrums zur Betriebskontrolle und zur Risikoprävention. Gleichzeitig hat die Strombetriebsüberwachungsplattform auch eine gute Referenzrolle für den Bau anderer Strombetriebsüberwachungsplattformen gespielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-24265-7_45 5934c40950f4aa021f7987f69f671b7f;de;;;6.1.;;;Datenschutz und personenbezogene Daten im Besitz der Regierung: Eine vergleichende Studie, Japan und Neuseeland Dieses Kapitel berichtet in einer transnationalen, interkulturellen Studie über die Konzepte des Datenschutzes und des Vertrauens in die Regierung bei Bürgern in Japan und Neuseeland. Es werden Daten aus beiden Ländern präsentiert und kulturelle und andere Faktoren gesucht, die Unterschiede in den gezeigten Einstellungen erklären könnten. In beiden Ländern zeigen die Bürger eine Reihe von Ansichten, die nicht mit Alter oder Geschlecht zusammenhängen. Neuseeländische Bürger äußern Bedenken hinsichtlich des Datenschutzes in Bezug auf Informationen im Besitz der Regierung, zeigen jedoch insgesamt ein höheres Maß an Vertrauen in die Regierung und führen Verletzungen der Privatsphäre eher auf Inkompetenz als auf vorsätzliches Fehlverhalten zurück. Die befragten japanischen Bürger gaben auch an, dass sie große Bedenken hinsichtlich des Datenschutzes haben und der Regierung deutlich weniger Vertrauen entgegenbringen als die neuseeländischen Befragten. Sie neigten eher dazu, Verletzungen der Privatsphäre auf laxes Verhalten einzelner Personen zurückzuführen als auf Regierungssysteme. In beiden Ländern zeigten die Bürger ein Bewusstsein für den notwendigen Kompromiss zwischen der Privatsphäre und den Bedürfnissen des Staates, Informationen zum Nutzen aller Bürger zu speichern, wussten jedoch wenig über den Schutz, den die Datenschutzgesetze bieten, und äußerten sich insgesamt besorgt über die Datenschutzpraktiken in den USA moderner Staat. Die Studie liefert auch Hinweise auf kulturelle Unterschiede, die mit Hofstedes Kulturdimensionen in Verbindung gebracht werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-7533-1_6 bda16f1c80ed7e341cf753caa6d84b78;de;;;6.1.;;;IoT: Vogelperspektive, Megatrends und Perspektiven Dieses Kapitel eröffnet das Buch und bietet eine Zusammenfassung der Herausforderungen und Chancen, die das Internet der Dinge (IoT) bietet, mit Schwerpunkt auf den Aspekten, die für das Design integrierter Schaltungen und Systeme von der Schaltung bis zum Gehäuse für IoT-Knoten relevant sind. Das Kapitel ist nach einer chronologischen Perspektive gegliedert, wobei zunächst technologiehistorische Trends jenseits des Mooreschen Gesetzes untersucht und die jüngsten Errungenschaften und Fähigkeiten zusammengefasst werden, die das IoT möglich machen. Anschließend werden aktuelle Herausforderungen als Weg für kommende Fortschritte und Entwicklungen beim Design von IoT-Knoten beschrieben. Schließlich werden Megatrends untersucht, um Hinweise auf die längerfristige Entwicklung des IoT und die Auswirkungen auf das integrierte Systemdesign zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-51482-6_1 471b20f455d20909917d3f94377e27a6;de;;;6.1.;;;Audio-Wasserzeichen basierend auf HAS und neuronalen Netzen im DCT-Bereich Wir schlagen eine neue intelligente Audio-Wasserzeichen-Methode vor, die auf den Eigenschaften des HAS und den Techniken neuronaler Netze im DCT-Bereich basiert. Das Verfahren macht das Wasserzeichen nicht wahrnehmbar, indem es die Audiomaskierungseigenschaften des HAS verwendet. Darüber hinaus nutzt das Verfahren ein neuronales Netz zum Speichern der Beziehungen zwischen den ursprünglichen Audiosignalen und den mit Wasserzeichen versehenen Audiosignalen. Daher ist das Verfahren in der Lage, Wasserzeichen ohne ursprüngliche Audiosignale zu extrahieren. Schließlich sind auch die experimentellen Ergebnisse enthalten, um zu veranschaulichen, dass das Verfahren eine signifikante Robustheit besitzt, um gegen übliche Angriffe zum Urheberrechtsschutz von digitalem Audio immun zu sein.;-;-;-;https://link.springer.com/article/10.1155/S1110865703208027 9cd292a0806b465e22529bbb684e0bb5;de;;;6.1.;;;Integration über Daten- und Mediendienste Bisher wissen Sie, wie Sie Flex und Java mithilfe von HTTP und Webdiensten kombinieren. Das letzte Kapitel hat eine Reihe von alternativen Mechanismen untersucht, um dies zu erreichen. Die meisten dieser Mechanismen beinhalten lose gekoppelten textbasierten Datenaustausch. Die meisten von ihnen interagieren, indem sie Daten abrufen. Nur einer von ihnen, Hessian, überträgt binäre Daten. Nur einer, wiederum hessisch (mit zusätzlicher Infrastruktur, angetrieben durch das neue Java IO), erlaubt Daten-Push.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-1028-3_7 102c76d86d81ae63ec299dc5c208525b;de;;;6.1.;;;Instrumentelle Hindernisse für den Empfang von Klimaschalltechnologie Partizipative Entwicklung ist weithin anerkannt als ein Weg, um einen wirksamen Technologietransfer auf allen Entwicklungsstufen zu erreichen. Um dies zu erreichen, hat die UNFCCC eine breite Grundlage für multilaterale Maßnahmen in Bezug auf ein förderliches Umfeld für den Technologietransfer geschaffen. Dies schließt die Bemühungen von Industrie- und Entwicklungsländern sowie des öffentlichen und privaten Sektors ein. Obwohl ein günstiges Umfeld für den internationalen Transfer von Klimaschalltechnologie hauptsächlich von den Anbietern abhängt, ist es in Ermangelung geeigneter indigener Umgebungen schwierig, die gewünschte Technologieförderung in der gewünschten Weise durchzuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6139-5_4 1acf897ecd1903194a7d756833cc8909;de;;;6.1.;;;Hierarchien des Verstehens: Vorbereitung auf K.I. Diese Arbeit beschreibt das Vision Hierarchy Model (VHM) und zeigt, wie es effizientes Human-Computer Interaction (HCI) Design, Decision Support System (DSS) Design und pädagogisches Design beeinflussen kann. Das VHM ist ein Mitglied einer Klasse von kognitiven Modellen, die informell als Hierarchien des Verstehens (HoU) bezeichnet werden und aus Verständnisebenen (Daten, Informationen, Wissen, Weisheit, Vision und möglicherweise andere) in hierarchischer Weise bestehen, wobei die Daten normalerweise auf der Höhe der Unterseite. Die Vision HoU informiert speziell über Designmethoden für HCI, DSS und Pädagogik für das Zeitalter der allgegenwärtigen künstlichen Intelligenz (U.A.I.). U.A.I. könnte die Zivilisation in den 2020er Jahren auf turbulente Weise verändern. Neben mehreren wichtigen kognitiven Hierarchien beschreibt diese Arbeit auch das Konzept „Allocation of Understanding (AoU)“, das eine theoretische Verteilung des menschlichen Verständnisses auf die Daten-, Informations-, Wissens-, Weisheits- und Visionsschichten der kognitiven Hierarchien darstellt. Die Vision HoU und die AoU veranschaulichen zusammen, wie semantische Technologien das menschliche Verständnis vertiefen und wie sich solche Trends bis in die 2020er Jahre fortsetzen können, einem Zeitalter, in dem sich viele Menschen unter anderem um die menschliche Arbeitskraft sorgen. Anschauliche Beispiele zeigen, wie die VHM und AoU die Kluft zwischen Benutzeroberfläche, Anfänger-Experte, Schüler-Lehrer-Kluft und die kommende Mensch-KI verdeutlichen. Teilen. Diese Arbeit diskutiert zwei Hauptansätze, um HCI-, DSS- und pädagogischen Designern zu helfen, Menschen auf den Arbeitsplatz der 2020er Jahre vorzubereiten: (1) Komplexität und Einfachheit sind relativ zu den Beobachtern und (2) vereinfachen die Quelle des Verständnisses (SoU).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-91743-6_2 c49ec5fdac2da8c1f32e974efc196501;de;;;6.1.;;;Kollaborativer räumlicher Datenaustausch zwischen mobilen, leichten Geräten Mobile Geräte werden zunehmend mit drahtlosen Peer-to-Peer (P2P)-Netzwerkschnittstellen ausgestattet, was den Datenaustausch zwischen mobilen Geräten möglich und vorteilhaft macht. Im Vergleich zum traditionellen Client/Server-Funkkanal haben die P2P-Kanäle eine deutlich höhere Bandbreite. Motiviert durch diese Beobachtungen schlagen wir ein kollaboratives Schema zur gemeinsamen Nutzung von Geodaten vor, das die P2P-Fähigkeiten mobiler Geräte nutzt. Durch die Verwendung sorgfältig gepflegter Routing-Tabellen ermöglicht dieses Schema mobilen Geräten, nicht nur ihren lokalen Speicher für die Abfrageverarbeitung zu verwenden, sondern auch mit nahegelegenen mobilen Peers zusammenzuarbeiten, um deren Daten zu nutzen. Dieses Schema ist in der Lage, die Kosten der Kommunikation zwischen mobilen Clients und dem Server sowie die Antwortzeit der Anfrage zu reduzieren. Das Papier beschreibt detailliert das Design des Schemas zur gemeinsamen Nutzung von Daten, einschließlich der Pflege der Routingtabelle, der Abfrageverarbeitung und der Aktualisierungsbehandlung. Ein analytisches Kostenmodell, das auf die Benutzermobilität anspricht, wird vorgeschlagen, um die Ersetzung des Speicherinhalts und die Pflege der Routingtabelle zu leiten. Die Ergebnisse umfangreicher Simulationsstudien basierend auf einer Implementierung des Schemas zeigen, dass das Schema bei der Verarbeitung von ortsabhängigen Abfragen effizient ist und robust gegenüber Datenaktualisierungen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73540-3_21 eac88a62bfc606173496b2b87898fba5;de;;;6.1.;;;Bekanntschaftsbasierte Konsistenz in einem auf Instanzen abgebildeten P2P-Datenfreigabesystem während der Transaktionsverarbeitung Das Papier stellt einen Transaktionsverarbeitungsmechanismus in einer Peer-to-Peer (P2P)-Datenbankumgebung vor, der sowohl P2P- als auch Datenbankmanagementsystemfunktionen kombiniert. Wir gehen davon aus, dass jeder Peer über eine unabhängig erstellte relationale Datenbank verfügt und die Datenheterogenität zwischen zwei Peers durch Zuordnungen auf Datenebene aufgelöst wird. Für eine solche Umgebung stellt das Papier zunächst die Ausführungssemantik einer Transaktion vor und zeigt die Herausforderungen für die gleichzeitige Ausführung von Transaktionen, die von einem Peer initiiert werden, über das Netzwerk. Später stellt das Papier ein Korrektheitskriterium vor, das die korrekte Ausführung von Transaktionen über das P2P-Netzwerk gewährleistet. Wir stellen zwei Ansätze zur Sicherstellung des Korrektheitskriteriums vor und diskutieren abschließend die Umsetzungsfragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76848-7_12 612f89a100fabbed0dc4cfb0cd467306;de;;;6.1.;;;Offene Standards und Open Source in schwedischen Schulen: Zur Förderung von Offenheit und Transparenz Wir stützen uns auf eine Studie, die darauf abzielte, den Stand der Praxis in Bezug auf die Erwartungen der Schulen und die Bereitstellung von IT- und Softwareanwendungen in schwedischen Schulen zu ermitteln. Die Analyse konzentriert sich auf offene Standards und Open-Source-Software (OSS) und berücksichtigt den pädagogischen Lock-in. Die Ergebnisse berücksichtigen die Erwartungen der Schulen und die Bereitstellung von Software und Standards für digitale Artefakte und zeigen, dass die Schulen von den Schülern erwarten, dass sie eine Vielzahl verschiedener Softwaresysteme verwenden, darunter eine Reihe bekannter OSS. Die Studie deckt erhebliche Missverständnisse bezüglich Standards und Softwareanwendungen auf, charakterisiert Probleme und gibt Handlungsempfehlungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38928-3_15 d88c7ff2640c72af7d812195ebbd05ab;de;;;6.1.;;;Infosicherheitsfinanzierung Obwohl Informationssicherheit heute eine Herausforderung für praktisch jede Organisation ist, wird die Finanzierung für die Entwicklung neuer Mechanismen zu ihrer Verbesserung nicht zentralisiert und jede Institution muss für sich selbst sorgen. Das Hauptproblem in der westlichen Welt besteht darin, dass die Informationsinfrastruktur in Privatbesitz ist und die Regierungen keine Verordnungen über Verbesserungen der Informationssicherheit erlassen können, ohne riesige Summen an den Privatsektor zu zahlen, um solche Verbesserungen zu implementieren und aufrechtzuerhalten. Daher ist es nicht verwunderlich, dass Organisationen mit nachfolgend aufgeführten F&E-Charta zu infosec-Themen ihre Mission aus einer kirchlichen Perspektive wahrnehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13547-7_7 3aad3603d3e7051eaa0447886e70ffef;de;;;6.1.;;;Forschung zum Umgang mit zeitgenössischen College-Studenten unter Big Data Mit der kontinuierlichen Verbesserung des modernen sozialistischen Wirtschaftssystems hat sich China allmählich in eine informationsorientierte und wissenschaftliche Richtung entwickelt. Die elektronische High-Tech-Informationswissenschaft und -technologie wurde auf allen Ebenen der gesellschaftlichen Entwicklung angewendet. Das Aufkommen des Big Data-Zeitalters hat neue Chancen und Herausforderungen für die Entwicklung der Hochschulen geschaffen. Um ein standardisiertes Management von College-Studenten zu erreichen, müssen Hochschulen und Universitäten aktiv ein korrektes Managementbewusstsein aufbauen, Managementziele klären und Managementmodelle aktiv innovieren, die auf einem umfassenden Verständnis der Merkmale der gesellschaftlichen Entwicklung und ihrer eigenen wirtschaftlichen Stärke basieren. Den Entwicklungsprozess der Professionalisierung der Managementarbeit stärken und die solide Entwicklung der Studierenden fördern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3588-8_30 97d9eeb23147a1df225b0c1558e5ab19;de;;;6.1.;;;Hydrologische Vorhersage Hydrologische Modellierungstechniken umfassen Niederschlags-Abfluss- und Strömungsführungsmodelle sowie einfachere statistische Ansätze. Zusätzliche Komponenten können erforderlich sein, um bestimmte Merkmale eines Einzugsgebiets wie Stauseen und Seen darzustellen. Für den Echtzeiteinsatz werden Modelle typischerweise innerhalb eines automatisierten Vorhersagesystems betrieben, das die Datensammlung, die Planung von Modellläufen und die Datenassimilation steuert. Dieses Kapitel bietet eine Einführung in diese Themen und in die allgemeinen Fragen der Vorhersageverifikation sowie der probabilistischen und Ensemble-Flow-Vorhersage.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23546-2_5 ae3a2f5b6d3090da86c52ca52e317475;de;;;6.1.;;;Abfragekoordination für verteilte Datenfreigabe in P2P-Netzwerken Organisationen speichern häufig Informationen über dieselben Entitätsobjekte oder -funktionen in unterschiedlichen Formaten. Der Zugriff auf und die Integration dieser verteilten Informationen kann aufgrund von Schemaunterschieden und Problemen mit der Datenbankplattform eine schwierige Aufgabe sein. In diesem Papier wird eine Diskussion über die Abfragekoordination in Datenbanken mit Schemakonflikten von Peer-to-Peer (P2P)-Systemen vorgestellt. Der Koordinationsmechanismus mit einer globalen Abfrage zur Lösung des Problems wird vorgeschlagen. Der Koordinationsmechanismus wird durchgeführt, ohne dass Peers die Schemata des anderen kennen, indem die globale Abfrage gemäß dem zugrunde liegenden Datenbankschema in die lokale Abfrage übersetzt wird, während ein Wrapper verwendet wird, um Datenbankplattformprobleme zu behandeln. Das Papier simuliert eine reale Anwendung und zeigt, dass die Schemaauflösung durch einen Abfragekoordinationsmechanismus in P2P-Systemen effektiv ist und die meisten der bei Schemaintegrationssystemen auftretenden Komplexitäten minimiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71661-7_36 636efeebe6ceca2382f608904c8314df;de;;;6.1.;;;TMDS: Thin-Model-Datenfreigabeschema zur Unterstützung der Schlüsselwortsuche in Cloud-Speicher Auf Cloud-Speicher basierende Datenaustauschsysteme haben in letzter Zeit viel Aufmerksamkeit auf sich gezogen. In solchen Systemen werden normalerweise Verschlüsselungstechniken verwendet, um die Privatsphäre ausgelagerter sensibler Daten zu schützen. Um jedoch die gemeinsame Nutzung von Daten zu unterstützen und gleichzeitig die Vertraulichkeit der Daten zu wahren, sollten Verschlüsselungsschlüssel von autorisierten Benutzern geteilt werden. Infolgedessen müssen viele Schlüssel im Datenfreigabesystem gespeichert und von den Benutzern geteilt werden, was für die Benutzer ein Flaschenhals wäre. Um die oben genannten Herausforderungen zu bewältigen, schlagen wir ein sicheres Thin-Model-Datenaustauschschema vor, das ein Schlüsselwortsuchschema namens . unterstützt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08344-5_8 ab4c45c414971657f3eb9a44945999fb;de;;;6.1.;;;Statistische Analyse und Software Statistik ist die Wissenschaft des Sammelns, Zusammenfassens, Analysierens, Präsentierens und Interpretierens von Daten für die Entscheidungsfindung unter Unsicherheit. Statistik ermöglicht das „Lernen aus Erfahrung“ und spielt eine zentrale Rolle in der biomedizinischen Forschung. Statistische Instrumente sind notwendig, um (1) zu entscheiden, wie Daten erhoben werden sollen, (2) zu entscheiden, wie die gesammelten Daten analysiert und zusammengefasst werden sollen, und (3) die Genauigkeit der Datenzusammenfassung zu messen. Dieser letzte Schritt ist Teil des Inferenzprozesses, bei dem die Ergebnisse der statistischen Analyse es dem Forscher ermöglichen, eine allgemeine Aussage über eine breitere Palette von Themen zu treffen. All diese drei grundlegenden statistischen Konzepte (Datensammlung, Zusammenfassung und Inferenz) sind tief in jeden Forschungsworkflow eingebettet.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4939-3469-0_3 b8c760b9ab24b7a77f9ccde478788437;de;;;6.1.;;;Dynamische Online-Umfragen und Experimente mit der kostenlosen Open-Source-Software Da Computer und das World Wide Web weit verbreitet sind, ist das Sammeln von Daten über Webbrowser eine attraktive Methode, die von den Sozialwissenschaften verwendet wird. In diesem Artikel PC- und webbasierte Tests mit dem Softwarepaket durchführen;-;-;-;https://link.springer.com/article/10.3758/BF03193011 eebdc71e5d270e3fadd97c9586fde007;de;;;6.1.;;;Klimawandel in der Landwirtschaft und Gestaltung einer E-Commerce-Handelsplattform für landwirtschaftliche Produkte basierend auf Fernerkundungstechnologie Natürliche Bedingungen können einen erheblichen Einfluss auf die landwirtschaftliche Entwicklung haben. Seit dem 20. Jahrhundert haben die Umweltauswirkungen der globalen Erwärmung die Aufmerksamkeit aller Lebensbereiche auf sich gezogen. Viele Nutzpflanzen können sich nicht an den aktuellen Klimawandel und die aktuellen Pflanzmuster anpassen. Zu den schädlichen Auswirkungen des Klimawandels auf die Landwirtschaft gehören vor allem ein Rückgang der landwirtschaftlichen Produktionsstabilität, eine Zunahme der Variabilität der Ernteerträge und eine Erhöhung der Agrarkosten. Um sich an den Klimawandel anzupassen, achten die Menschen stark auf die Auswirkungen des globalen Klimawandels auf die landwirtschaftliche Entwicklung. Der Online-Verkauf von Agrarprodukten hat das Zukunftspotenzial des ländlichen Raums deutlich erhöht und die ländlichen Einkommen erhöht. Allerdings gibt es noch viele Probleme beim Verkauf von Agrarprodukten, so dass die Erforschung der Entwicklung des elektronischen Handels mit Agrarprodukten eine wichtige Rolle für die zukünftige Entwicklung des ländlichen Raums spielt. Es gibt jedoch noch einige Mängel beim Aufbau einer Online-Handelsplattform in China, die den Handelsanforderungen von mehr Agrarprodukten nicht gerecht werden kann, und es gibt auch Mängel in der Bergbauplattform bezüglich der Eigenschaften von Agrarprodukten. China hat in den letzten Jahren begonnen, dem Aufbau einer E-Commerce-Plattform für Agrarprodukte Aufmerksamkeit zu schenken und auf Basis der aktuellen Probleme der Plattform adäquat zu unterstützen. In diesem Beitrag wird die Entwicklung einer E-Commerce-Plattform für landwirtschaftliche Produkte unter Verwendung von Fernerkundungsbildtechnologie entsprechend den Eigenschaften der globalen Umwelt geplant.;-;-;-;https://link.springer.com/article/10.1007/s12517-021-06805-0 286d7af41b4266eed4ad52a55686f8a5;de;;;6.1.;;;Verabschiedung eines Wissensmanagementkonzepts zur Sicherung der Privatsphäre elektronischer Patientenaktensysteme Da die Weiterentwicklung der Informationstechnologie (IT) in verschiedenen Managementbereichen eskaliert, wird die Umsetzung des Wissensmanagement-Konzepts (WM) als bedeutsam angesehen. Dieses Konzept kann angewendet werden, um den Datenschutz als eine Komponente beim Entwurf eines computergestützten Systems zu betrachten. Folglich schlägt dieses Papier die Annahme expliziter und stillschweigender Wissenskonzepte bei der Identifizierung der Vertraulichkeit von Informationskomponenten vor, um ein gesichertes elektronisches Patientenaktensystem (EMR) aufzubauen. Zuvor wurde eine Voruntersuchung mit Interviews mit einer ausgewählten Gruppe von Entwicklern von Krankenhausinformationssystemen (KIS) durchgeführt. Die Ergebnisse dieser Studie zeigten, dass vier wichtige Komponenten in jedem Rahmen für den Schutz der Privatsphäre für HIS berücksichtigt werden müssen. Sie sind nämlich Gesetzgebung, Ethik, Technologie und Kultur. Durch die Anwendung des KM-Konzepts auf diese vier Komponenten kann es weiter systematischere Richtlinien ableiten, um die Wahrung der Privatsphäre von Informationen zu erreichen. Nichtsdestotrotz müssen weitere Forschungen entwickelt werden, um eine umfassendere Leitlinie für die Entwicklung eines zuverlässigen EMR-Systems zu liefern, insbesondere im Hinblick auf die Notwendigkeit, den Schutz der persönlichen medizinischen Daten des Patienten zu gewährleisten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30867-3_49 0f51ad65f51c0a00a434c542b2b02273;de;;;6.1.;;;Elektronische Krankenakte für eine ländliche Hausarztpraxis: Eine Fallstudie zur Systementwicklung In diesem Papier beschreiben wir die Planung, Entwicklung und die allgemeine Auswirkung von Electronic Medical Records (EMRs) auf Dryden Family Medicine (DFM), eine ländliche Hausarztpraxis in Dryden, New York. Das EMR-System wurde im Juli 2003 installiert und die vollständige Umstellung auf das neue System erfolgte in drei Phasen. Deutliche Effizienzgewinne wurden bei der Abrechnung, der Rezeptbestellung und anderen Routineprozessen erzielt. Es wurden Protokolle entwickelt, um das Qualitätsmanagement, die Präventivmedizin und das Krankheitsmanagement zu verbessern. Die beruflichen Verantwortlichkeiten änderten und erweiterten sich für alle Mitglieder der Praxis, und Codierungsfragen wurden vorrangig. Die Praxiserlöse stiegen im zweiten Jahr nach Einführung der EMRs aufgrund der verbesserten Abrechnungsdokumentation um etwa 20 Prozent und der durchschnittliche „Case-Mix“ um 10 Prozent. Wir konzentrieren uns auf den Umsetzungsprozess, die gewonnenen Erkenntnisse, die aufgetretenen Hindernisse und die Erfolge einer ländlichen Familienpraxis.;-;-;-;https://link.springer.com/article/10.1007/s10916-006-9040-1 be7d9c6e8a406c0d8aa75c100d2d99fe;de;;;6.1.;;;Die fünf Fallstricke von Softwareimplementierungen Die Studie von Graesser zu Fehlern von Softwareimplementierungen (durchgeführt im Jahr 2018) ergab fünf Fehlercluster, die im Folgenden als „Fünf Fallstricke von Softwareimplementierungen“ bezeichnet werden. Angeführt wird die Liste von der „Unterschätzung von Systemleistungsproblemen“ im Zuge der Softwareimplementierung. Normalerweise beeinträchtigte die Systemleistung die Benutzerfreundlichkeit von Softwareanwendungen stark. Die „Weak Program Governance and Leadership“ umfasst den zweitrangigen Fehlerblock. Die Hauptursache war der Mangel an qualifizierten Führungskräften und erfahrenen Führungspersönlichkeiten, die im Lenkungsausschuss saßen. Die operativen Themen wie „Operational Unreadiness“, das „Mismanagement fehlender Software-Features“ und der große Bereich „Testing and Defect Resolution“ runden die Liste der fünf Fallstricke bei der Softwareimplementierung ab. Die Ergebnisse dieser Muster umfassen das Fehlen einer proaktiven Systemüberwachung, eine schlecht verwaltete Testausführung und eine nicht effizient gehandhabte Fehlerbehebung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-14219-3_3 d1bd168d76d65e4b24571654ebe6e1d0;de;;;6.1.;;;Grundlegende Konzepte und Rahmen In diesem Kapitel werden die Begriffe und Konzepte vorgestellt, die wir für das Verständnis des restlichen Buches für den Leser als grundlegend erachten. Es liefert einen Hintergrund und stellt einen allgemeinen Rahmen vor, der relevante Dimensionen einer wertorientierten und intelligenten Vermögensverwaltung bietet. Erstens ist es von grundlegender Bedeutung, den Wert zu verstehen, den ein Vermögenswert bieten kann und wie eine wertorientierte Vermögensverwaltung implementiert werden kann. Zweitens ist es wichtig zu verstehen, dass die Realisierung des Wertes, den ein Vermögenswert für ein Unternehmen bietet, auch auf einer anderen Vertragsebene erfolgen kann als der, auf der der Betrieb und die Wartung der Vermögenswerte verwaltet werden. Das Verständnis der systemischen Dimension des Problems ist daher auch ein grundlegender Aspekt. Ebenso wichtig ist die Betonung, die das Asset Management auf einen Asset-Life-Cycle-Ansatz legt, um viele strategische Entscheidungen in Bezug auf Investitionen und Reinvestitionen in neue Kapazitäten, Verlängerung der Nutzungsdauer, Analyse des Zustands der Vermögenswerte, Identifizierung möglicher großer Instandhaltungsbedarfe usw. Drittens müssen wir in einer Welt, die einer umfassenden digitalen Transformation unterliegt, auch bessere Methoden, Fähigkeiten und Fertigkeiten einsetzen, die uns helfen, unsere Intelligenz im Management zu verbessern und es uns ermöglichen, die uns zur Verfügung stehenden Daten und Informationen zu nutzen, um zu erreichen ein noch nie da gewesenes Asset Management. Der letzte Teil dieses Kapitels ist der Darstellung des allgemeinen Rahmens gewidmet, um das Verständnis dieser Asset-Management-Dimensionen zu erleichtern und jede einzelne von ihnen in geeigneter Weise für die langfristige Vision zu behandeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20704-5_1 438fba0aa8f16982214c121c357c2a65;de;;;6.1.;;;Forschung und Entwicklung zu Schlüsselmodellen und Technologien des PDM-Systems Heutzutage wird die Einführung eines Produktdatenmanagementsystems (PDM) zur Unterstützung der Produktentwicklung und -herstellung immer wichtiger. Die bestehenden PDM-Systeme sind jedoch allgemein und ihre Informationsmodelle und Objekte sind nicht verfügbar. Dieses Papier beschreibt die Modellierung und Modellobjekte mehrerer Schlüsselmodelle des PDM-Systems, die das Wesen des PDM-Systems darstellen. In diesem Beitrag wird ein neues PDM-systemorientiertes Metadatenmodell kreativ vorgestellt und die Eigenschaften des vom PDM-System orientierten Metadatensatzes detailliert beschrieben. Die Merkmale, die vereinheitlichte Beschreibung, das Objektinformationsmodell, die Implementierung des rekursiven Stücklisten- (BOM) und des Traversalalgorithmus werden im Produktstrukturmanagementmodell beschrieben. Ein neues Modell des Workflow- und Lifecycle-Managements basierend auf digraph, den Objekten des Modells und den Beziehungen zwischen den Objekten wird angezeigt. Um den Anforderungen der Datensicherheit und der komplexen Personalorganisation in Unternehmen gerecht zu werden, wird ein spezielles rollenbasiertes Zugriffskontrollmodell (RBAC) mit Relation Tree vorgeschlagen. Schließlich wird das IntePDM-System nach diesen Modellierungen und Objekten speziell für den allgemeinen Fertigungsbetrieb und Gießereibetrieb entwickelt. Mehrere typische Softwareschnittstellen demonstrieren die Praxistauglichkeit dieses Systems.;-;-;-;https://link.springer.com/article/10.1007/s00170-014-6765-8 bedb40d3409cebad856172b8c9134af8;de;;;6.1.;;;HAL: Ein Framework für die automatisierte Analyse und das Design von Hochleistungsalgorithmen Anspruchsvolle empirische Methoden treiben die Entwicklung leistungsfähiger Löser für immer mehr Problemstellungen aus Industrie und Wissenschaft voran. Automatisierte Tools, die diese Methoden implementieren, sind jedoch oft schwer zu entwickeln und zu verwenden. Diesem Thema widmen wir uns mit zwei Beiträgen. Zuerst entwickeln wir eine formale Beschreibung von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25566-3_47 38737b9ff1bda07821c8375bd43134bb;de;;;6.1.;;;Callisto: Fusionen ohne Schmerzen Während sich Wertschöpfungsnetzwerke weiterentwickeln, beobachten wir das Phänomen, dass sich Unternehmen durch Fusionen konsolidieren und Unternehmen auflösen und dann praktisch dynamisch „wiederverschmelzen“, um auf neue Chancen zu reagieren. Aber diese Einzelunternehmen wurden nicht standardmäßig aufgebaut, ebensowenig wie ihre IT-Systeme. Ein Beispiel im Industriebereich ist die Notwendigkeit, Produkt- und Teilekataloge zusammenzuführen und Kundendaten gezielt auszutauschen. Unternehmen, die fusionieren, können ein Jahr damit verbringen, ihre Kataloge zu integrieren, bis es Zeit für den nächsten Deal ist. Als solche ist die Integration von Geschäftsobjekten zu einem Schlüsselaspekt des heutigen Unternehmens geworden. In diesem Whitepaper beschreiben wir eine Innovation, bei der wir durch die Integration von Produktdatenmanagementsystemen (PDM) zur Verwaltung von Geschäftsobjekten in die Extract-Transform-Load (ETL)-Technologie eine neuartige branchenübergreifende Lösung bereitstellen können, die in einer Vielzahl von Anwendungen eingesetzt werden kann Branchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73950-0_8 4dfd60d5270bc7ee09a0bfb12c60f192;de;;;6.1.;;;Anwendungsforschung von Künstlicher Intelligenz in medizinischen Informationssystemen Mit der rasanten Entwicklung der Gesellschaft hat Chinas moderne Informationstechnologie auch einen guten Raum für Entwicklung gewonnen und verschiedene Industrien in China dazu veranlasst, in das Zeitalter der Intelligenz einzutreten. Angetrieben von der Aufmerksamkeit nationaler Ministerien und Krankenhausleiter verbessert sich der derzeitige Aufbau der Krankenhausinformation in China allmählich in Bezug auf Datenverbindung und -freigabe, Internet + medizinische, mobile medizinische und medizinische Big Data sowie mit künstlicher Intelligenz in verschiedenen Bereichen der Gesellschaft. Die boomende Verbindung von KI und medizinischer Versorgung rückt immer enger zusammen, was die Entwicklung der Medizinbranche massiv beeinflusst hat. Dieses Papier stellt kurz den aktuellen Stand des Informationsaufbaus und zukünftige Entwicklungstrends von Krankenhäusern in China vor und skizziert einige Schlüsseltechnologien der künstlichen Intelligenz, die im medizinischen Bereich angewendet werden. Ausgehend von den drei Phasen des medizinischen Behandlungsprozesses konzentriert sich dieser Beitrag auf die Anwendung der Konstruktion künstlicher Intelligenz in medizinischen Informationssystemen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1468-5_228 4d3cafb63a6af800309a7a4e69f59281;de;;;6.1.;;;Kümmern Sie sich nicht um Ihr Vokabular: Datenaustausch zwischen heterogenen Peers Die starke Dynamik von Peer-to-Peer-Netzwerken, gepaart mit der Vielfalt der Peer-Vokabulare, macht die Abfrageverarbeitung in Peer-Datenbanksystemen zu einer sehr anspruchsvollen Aufgabe. In diesem Papier schlagen wir einen Rahmen für die Übersetzung ausdrucksstarker relationaler Abfragen in heterogenen Peer-Datenbanken vor. Unser Framework vermeidet ein integriertes globales Schema oder zentrale Strukturen, die den beteiligten Peers gemeinsam sind. Der Eckpfeiler unseres Ansatzes ist die Verwendung von Schemazuordnungen auf Syntax- und Instanzebene, die jeder Peer erstellt und mit anderen Peers teilt. Basierend auf diesen vom Benutzer bereitgestellten Zuordnungsinformationen wendet unser Algorithmus generische Übersetzungsregeln an, um SQL-Abfragen zu übersetzen. Unser Ansatz unterstützt sowohl die Übersetzung von Abfragen als auch die Weitergabe unter den Peers, wobei die Autonomie der einzelnen Peers gewahrt bleibt. Der Vorschlag kombiniert sowohl Syntax- als auch Instanzebenenzuordnungen zu einem allgemeineren Rahmen für die Abfrageübersetzung über heterogene Grenzen hinweg. Wir haben einen Prototypen als Query-Service-Layer entwickelt, der um einen Basisdienst gewickelt ist, der Heterogenitätsmanagement bietet. Der Prototyp wurde in einem kleinen Peer-to-Peer-Netzwerk evaluiert, um die Realisierbarkeit des Ansatzes zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/11575771_20 38fb7c8ffe3db11621e4d738120c5fe4;de;;;6.1.;;;Auswirkungen der Chelatbildung auf die Wechselwirkung von substituierten 3-Hetaryl-4-thioxochromonen mit Lanthanoid-Shift-Reagenzien Ungewöhnliche Fälle einer effektiven Koordination von substituierten 4-Thioxochromonen mit Lanthanoid-Shift-Reagenzien wurden untersucht. Es wird gezeigt, dass die notwendige Bedingung für eine solche Koordination das Vorhandensein eines Stickstoffatoms vom Pyridintyp im 3-Hetarylsubstituenten neben der Bindung zwischen den heterocyclischen Fragmenten ist. Die Koordination mit den Lanthanoid-Shift-Reagenzien wird durch die Bildung von Chelaten der Shift-Reagenzien mit dem Substratmolekül erklärt. Es wurden Berechnungen über die Strukturen dieser Komplexe durchgeführt.;-;-;-;https://link.springer.com/article/10.1007/BF02290838 1885763d82eccf017f7433275f5250ca;de;;;6.1.;;;Vorschlag für ein Notfallevakuierungsunterstützungssystem mit Beacon In dieser Studie haben wir ein Evakuierungsunterstützungssystem mit Beacon implementiert. Während einer groß angelegten Naturkatastrophe evakuieren viele Bewohner in ein Evakuierungszentrum. In einer solchen Situation erfordert das Erstellen einer Liste der Evakuierten viel Mühe und Zeit. Aus diesem Grund haben wir uns auf Beacons konzentriert und ein Evakuierungsunterstützungssystem entwickelt, um eine schnelle Registrierung und Verwaltung von Evakuierungsinformationen zu ermöglichen. Mit diesem System kann das Hauptquartier der Katastrophenhilfe in jedem Evakuierungszentrum genaue Informationen über die Evakuierten erfassen. Dies führt auch zu einer genauen Verteilung der Hilfsgüter an das Evakuierungszentrum.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-50399-4_11 6519c40c98cf6a622bf567ddc784db36;de;;;6.1.;;;Importieren von Daten aus anderen Programmen und Datenbanken: HL7-Schnittstellen Die rechtzeitige und genaue Erfassung von Informationen (Daten) aus mehreren Quellen ist für die gute Versorgung eines Patienten wichtig. Betrachten Sie als Beispiel einen Kinderarzt, der ein 6-jähriges Mädchen mit kleiner Statur untersucht, das gerade in die Stadt gezogen ist. Die erste Information, die Sie erhalten müssen, ist das Wachstumsdiagramm des Mädchens von ihrer vorherigen Bezugsperson. Die nächsten zu erfassenden Informationen sind alle Laborwerte von früheren Kleinwuchsuntersuchungen – diese Werte können sich in der Papiertabelle der vorherigen Pflegekraft befinden oder sie können sich auf einem oder mehreren zentralisierten Laborcomputern befinden. Ausgestattet mit diesen Informationen kann der Kinderarzt die nächsten Schritte in der Untersuchung einleiten, die einige Standardtests umfassen können, die im örtlichen Krankenhaus durchgeführt werden, einige viel seltenere endokrine Tests, die an ein nationales Labor gesendet werden, und Röntgenuntersuchungen einschließlich möglicherweise einfacher Röntgenaufnahmen für Knochenalter und ggf. MRT der Hypothalamus-Hypophysen-Region. Je nahtloser der Kinderarzt auf die Ergebnisse dieser diagnostischen Abklärung zugreifen kann, desto effizienter kann die Versorgung durchgeführt werden – zum Beispiel die Wiederholung von Tests, wenn die Ergebnisse nicht vorliegen und der Nachweis einer Übersendung einer Probe nicht verfügbar ist. In der Papierwelt erfolgen Transport, Import und Integration dieser Informationen per Fax, Post, manuellem Zusammentragen von Papier und Ablegen des Papiers in die Papierakte. Die Analoga in der elektronischen Welt werden in diesem Kapitel beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0069-4_3 296a247befe78cdad92f1d97f3d413cf;de;;;6.1.;;;Einrichtung eines touristischen geografischen Informationssystems zur Förderung der Feldarbeit im Major Tourismusmanagement Als angewandte Disziplin soll die grundständige Tourismusausbildung in der praktischen Lehre verbessert werden. Beim Entwurf des touristischen geografischen Informationssystems werden alle Studenten an der Untersuchung, dem Entwurf, der Datenerfassung, der Wartung und dem Management des Informationssystems teilnehmen, was zweifellos die Beschäftigungsfähigkeit der Studenten verbessern kann. Insbesondere bei der Organisation von Daten für das Tourismusinformationssystem erhalten die Teilnehmer umfassendes Wissen über touristische Ressourcen in der Region, um eine vollständige Datenbank aufzubauen. Als angewandte Disziplin soll die grundständige Tourismusausbildung in der praktischen Lehre verbessert werden. Beim Entwurf des touristischen geografischen Informationssystems werden alle Studenten an der Untersuchung, dem Entwurf, der Datenerfassung, der Wartung und dem Management des Informationssystems teilnehmen, was zweifellos die Beschäftigungsfähigkeit der Studenten verbessern kann. Insbesondere bei der Organisation von Daten für das Tourismusinformationssystem erhalten die Teilnehmer umfassendes Wissen über touristische Ressourcen in der Region, um eine vollständige Datenbank aufzubauen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38786-9_45 d31cbe0794f6d22a030957f45f1aa04f;de;;;6.1.;;;Der Einfluss technologischer Turbulenzen auf unternehmerisches Verhalten, soziale Normen und Ethik: Drei internetbasierte Fälle Wir untersuchen die unternehmerischen Chancen und ethischen Dilemmata technologischer Turbulenzen. Genauer untersuchen wir die Linie zwischen Baumols [;-;-;-;https://link.springer.com/article/10.1007/s10551-005-5354-z e7e27f49cfbf47e5ff59135fddd3e426;de;;;6.1.;;;Technische und öffentliche Ansätze zur Einbeziehung von Baggerakteuren und Bürgern in die Entwicklung eines Hafengebiets Die an einem Baggervorgang beteiligten Akteure sind vielfältig, von denen einige speziell an den technischen Aspekten beteiligt sind (Auftraggeber und Baggerbetreiber, Organisationen, die mit Gesetzgebungsangelegenheiten und/oder Umweltüberwachung befasst sind) und andere weniger (öffentliche Öffentlichkeit). Interessengruppen benötigen unterschiedliche Informationen und folglich müssen unterschiedliche Arten von Daten erstellt werden (Beschreibung von Baggerzielen und -umfang, technische Baggermerkmale, einschlägige Rechtsvorschriften, Umweltüberwachungsdaten, Arbeitsfortschritt usw.), die verwaltet werden müssen, um Baggerinformationen und -wissen auszutauschen . Hier veranschaulichen wir zwei Beispiele für eine Kommunikationsstrategie, die im Fall der Ausbaggerung des Hafens von Genua (Italien) angewendet wurde, um die korrekte Datenverbreitung zwischen den Projektpartnern und der Öffentlichkeit sicherzustellen. Das erste wurde mit einem WebGIS (MArine Coastal Information SysTEm – Port Section, MACISTE-PS) realisiert, einer Technologie bestehend aus Datenverarbeitungswerkzeugen für die Speicherung, Wiederherstellung, Verwaltung und Analyse von Geodaten, und das zweite mit einer Reihe verschiedener Kommunikationsprodukte ( Poster, Artikelveröffentlichungen, Kongressteilnahmen, Website, etc.). Die Annahme dieser beiden Strategien sichert uns die Verbreitung von Baggerinformationen an ein breites Spektrum von Menschen.;-;-;-;https://link.springer.com/article/10.1007/s12665-014-3222-9 e82fac5be59650d4d8151ee4215c9540;de;;;6.1.;;;Ein Rahmen für die Leistungsbewertung einer Energie-Blockchain In dieser Studie diskutieren wir zunächst die Disruption und ihre Auswirkungen auf den Strom- und Versorgungssektor. Wir identifizieren die Treiber der Störung und die Auswirkungen, die sie auf den Sektor haben werden. Dann untersuchen wir als einer der Treiber der Disruption die Blockchain-Technologie, ihre Funktionen, Vorteile und Grenzen. Wir identifizieren einen Leistungsbewertungsrahmen für eine Strom- und Versorgungsblockkette in einer Umgebung mit verteilter Erzeugung. Schließlich bewerten wir die Zusammenhänge der Leistungsfaktoren auf die Leistung des Blockchain-Systems und untersuchen die Bedeutung und die Ursache-Wirkungs-Gruppen der Faktoren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-75690-5_23 3960b5c44803440e9f329f725b76f074;de;;;6.1.;;;Design Verifizierung durch virtuelle Prototyping-Techniken basierend auf Systems Engineering Das zunehmende Angebot an Softwaretools für die Produktentwicklung stellt Konstrukteure vor methodische Fragen hinsichtlich der Einfachheit der Werkzeugintegration und der Abfolge von Konstruktionsaktivitäten. Heutzutage wurde die Designverifizierung und -validierung durch Prototyping-Techniken mit Softwarelösungen angereichert, die es ermöglichen, beim virtuellen Prototyping mehr Produktverhalten während der Analyse und Simulation zu berücksichtigen. Dies ist der Fall des Systems Engineering-Moduls in CATIA™ V6, das einen sequenziellen Ansatz „Anforderungen – Funktionales – Logisches – Physikalisches Design“ (RFLP) vorschlägt, um konzeptionelle Konstruktionsaktivitäten mit 3D-Modellen und Simulation zu verknüpfen. Da einige Praktiker diese Konzepte traditionell verwenden, präsentiert dieser Artikel eine auf Aktionsforschung basierende Analyse zur Bewertung der Design Verification-Aktivitäten sowie der Werkzeugintegration, die durch die neue Product Lifecycle Management-Vision von CATIA™ V6 geboten wird. Die Analyse ermöglichte es den Autoren, die naturabhängige Entwurfsmethode eines Modells zu verfeinern und vorzuschlagen, die aus dem grundlegenden RFLP-Konzept bereichert wurde. Darüber hinaus zeigten die präsentierten Ergebnisse auch die Vorteile integrierter Ansätze bei der Entwicklung komplexer Produkte, dargestellt in einer Fallstudie zur virtuellen Designverifikation eines Automobil-Subsystems.;-;-;-;https://link.springer.com/article/10.1007/s00163-016-0247-y fe29469f0f9d6f64fb8f16f0b5e53a7c;de;;;6.1.;;;Teil V Designleitfaden Dieser Design Guide fasst die im Laufe des Projekts gewonnenen multidisziplinären Erkenntnisse zu einem Set von Vorschlägen zusammen, einer Anleitung zur Gestaltung des Umgangs mit Informationen unter besonderer Berücksichtigung der Rolle des Gedächtnisses im Zeitalter digitaler Technologien. Der Leitfaden beginnt mit der Benennung von Adressaten (Abschn. 1), Zielen und Umfang (Abschn. 2) und entwickelt einen Handlungsrahmen (Abschn. 5) basierend auf den wichtigsten Beobachtungen unserer Forschung (Abschn. 3) und deren Konsequenzen (Abschn .4).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-90230-2_18 bd2be7dff4ad246e6fe3595e3ef34cce;de;;;6.1.;;;Entwerfen Sie ein Grenzmanagement- und -kontrollsystem basierend auf BD-3 RDSS Chinas Grenzgebiet hat mehr Gebiete, weniger Menschen, unbequemen Verkehr und schlechte Kommunikation. Nehmen wir als Beispiel die chinesisch-russische Grenze in der Provinz Heilongjiang, die Grenze ist 2.981 km lang, wovon über 90% die Wassergrenze ausmacht. Es ist dringend erforderlich, wissenschaftliche und wirksame Überwachungsmaßnahmen zu ergreifen, um die illegale Fischerei und die grenzüberschreitende Fischerei einzudämmen und Zwischenfälle im Zusammenhang mit dem Ausland zu vermeiden. Zudem ist die Abdeckung des Bodennetzes in den Grenzgebieten lückenhaft. Es ist nicht einfach, Bodenmarkierungen zu finden, da im Winter Schnee und Eis den Boden bedecken und manchmal das Elend durch starke Schneefälle noch verstärkt wird. Verirrt sich der Grenzschutzbeamte, hat er zeitnah Notfälle oder braucht er Verstärkung, kann er keine rechtzeitige und genaue Kommunikationsverbindung mit der Leit- und Leitstelle herstellen. Dieses Papier präsentiert ein Grenzmanagement- und -kontrollsystem basierend auf der BD-3 RDSS-Funktion, das BDS-3-Positionierung, Kurznachrichtenkommunikation verwendet, um eine dynamische Echtzeitüberwachung von Patrouillen, Fahrzeugen, Schiffen, Patrouillenpfadnavigation, Grenzkommando und -disposition zu realisieren, Situationsbewusstsein und automatische Überwachung des Betriebs von Fischerbooten. Verwenden des PSDA-Algorithmus, um die optimale Strategie des Grenzpatrouillenpfads zu realisieren und die Patrouilleneffizienz zu verbessern. Das System führt auch das Konzept des Grid-Managements auf Basis der BD-Grid-Code-Technologie ein, das für das verbindliche Management von Schlüsselelementen der Grenzverteidigung, Fälle und Standorte verwendet wird. Die in diesem Papier vorgeschlagene Methode gewährleistet die Sicherheit und Stabilität von Grenzgebieten durch die zeitnahe Wahrnehmung der Grenzsituation, die Kontrolle von Patrouillenkräften und die rechtzeitige Warnung vor grenzbezogenen Fällen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-3138-2_25 23d187ad281214f7fbd85369b800f70c;de;;;6.1.;;;Sicherheitsherausforderungen in 5G-basierten IoT-Middleware-Systemen Das Aufkommen der 5G-Technologie in den kommenden Jahren wird wahrscheinlich viele neue Herausforderungen in mehreren Computing-Bereichen mit sich bringen. 5G wird voraussichtlich um 2020 eingeführt und gilt als wichtiger Baustein für die Konsolidierung des Internets der Dinge (IoT). IoT ist ein zeitgenössisches Computerparadigma, das dafür bekannt ist, die Verbindung der physischen und virtuellen Welt zu ermöglichen. Das Wachstum in mehreren Anwendungsdomänen erfordert jedoch eine gut definierte Infrastruktur von Systemen, die Dienste für die Geräteabstraktion und das Datenmanagement bereitstellt und auch die Entwicklung von Anwendungen unterstützt. IoT-Middleware wurde als das System erkannt, das diese notwendige Infrastruktur von Diensten bereitstellen kann, und hat in den letzten Jahren für das IoT zunehmend an Bedeutung gewonnen. IoT-Middleware-Systeme haben Sicherheit als eine ihrer größten Herausforderungen, und mit der Einführung von 5G werden diese Systeme Ziel neuer Sicherheitsbedrohungen. In diesem Kapitel stellen wir die wichtigsten Bedrohungen und Sicherheitsanforderungen vor, die von 5G in IoT-Middleware-Systemen eingeführt werden sollen. Darüber hinaus analysieren wir auch die aktuellen Sicherheitsansätze von IoT-Middleware-Systemen und stellen einige sicherheitsrelevante Herausforderungen mit dem Ziel der 5G-basierten IoT-Middleware-Technologien vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30913-2_17 99cebe1c4b002b389b935fcb51435a79;de;;;6.1.;;;Synthese sterisch gehinderter Benzodioxan-Analoga von Isoflavon und Untersuchung ihrer Atropisomerie Synthesen werden bisher sterisch gehinderte 2-substituierte Benzodioxan-Analoga von Isoflavon berichtet. Ein optisch aktives Lanthanoid-Shift-Reagens (LSR) wurde verwendet, um zu zeigen, dass diese Produkte als Gemische von Atropisomeren vorliegen. Der Unterschied in den chemischen Verschiebungen der enantiomeren Protonen in Gegenwart des LSR kann mit abnehmender Temperatur 2–3 ppm erreichen. Es wurden Rückschlüsse auf die Struktur der LSR-Substrat-Addukte und deren Konformationen gezogen.;-;-;-;https://link.springer.com/article/10.1007/BF01165717 10d154e995c10ae49a0bddc1a3671cee;de;;;6.1.;;;Einführung in das Testen Abschnitt 2.1 beschreibt die Herausforderungen beim Testen von IT-Systemen und -Anwendungen in großen Unternehmen, die geschäftskritische Legacy-Anwendungen parallel mit neuen strategischen Lösungen ausführen. Erneuerung der Bankplattform, SOA und globales Testen sind Schlüsselthemen für das Geschäfts- und IT-Management. Was ist der wahre Wert von Tests?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78504-0_2 d0fcd52f9504267ce4ac99266daa7ded;de;;;6.1.;;;Datenmanagement für Pflanzenphänomene Pflanzenphänomene ist ein Teilgebiet der Biologie, das sich mit der Analyse phänotypischer Merkmale von Pflanzen beschäftigt. Es kann mit anderen Omics wie funktioneller Genomik, Transkriptomik und Metabolomik usw. kointegriert werden. Phänotypische Merkmale werden durch Bilder von RGB, Hyperspektral, Nahinfrarot, Wärme, Fluoreszenz und so weiter erzeugt. Charakterisierte Phänotypen können in verschiedenen morphologischen und physiologischen Messungen von Größe, Wachstumsmuster, Biomasse und Farbe in Pflanzen aufgedeckt werden. Die bildbasierte automatisierte Pflanzen-Phänotypisierung wird als Hochdurchsatz-Anlage beschrieben. Trotz seiner Vorteile wie der zerstörungsfreien Phänotypisierung hat es seine eigenen Grenzen wie die komplexe Architektur der Pflanze und die Umgebungsbedingungen zum Zeitpunkt der Bildaufnahme, insbesondere im Feld. Phenomics generiert eine große Anzahl von Bildern und Metadaten durch Phänotypisierungsinstrumente, daher besteht Bedarf an einer ordnungsgemäßen Datenverarbeitung und -verwaltung. Neben der statistischen Auswertung ist auch eine standardisierte Datenhaltung und -freigabe für eine sinnvolle Datenerfassung notwendig. Prozesse des Datenmanagements bestehen im Wesentlichen aus der Datenerhebung, -speicherung, -dokumentation sowie der Verbesserung der Datenqualität. Zukünftig muss die Pflanzenphänomene effizient entwickelt werden, um die erfassten Daten zu speichern, zu analysieren, zu schützen und zu teilen. Moderne Pflanzen-Phänotypisierung mit hohem Durchsatz könnte effektiv in Pflanzenverbesserungsprogrammen verwendet werden.;-;-;-;https://link.springer.com/article/10.1007/s12374-017-0027-x 6f16e233f56c1a9b73da3311c677c254;de;;;6.1.;;;Datenmanagement im Gesundheitswesen mit Blockchain-Technologie Elektronische Gesundheitslösungen ermöglichen es, Krankenhäuser und Kliniken miteinander zu verbinden, um die gemeinsame Nutzung elektronischer Krankenakten gemäß Interoperabilität und gesetzlichen Standards zu ermöglichen. Die Daten der Gesundheitsakte werden jedoch in Krankenhäusern isoliert, und Datenaustauschprozesse sind nicht erfolgreich, um eine rechenschaftspflichtige Prüfung der Daten zu gewährleisten. Die Blockchain-Technologie wurde erfolgreich eingesetzt, um die Verwaltung verteilter Daten zu unterstützen. Seine Dezentralisierungs- und Unveränderlichkeitsmerkmale können die Entwicklung von Diensten der nächsten Generation für den Austausch von Gesundheitsdaten unterstützen. In diesem Kapitel werden die jüngsten Ergebnisse der Blockchain-Forschung in den rechtlichen und technischen Standardrahmen des Gesundheitswesens (z. B. IHE und FHIR) positioniert. Anschließend wird vorgestellt, wie Blockchain auf Praktiken zum Austausch von Gesundheitsdaten angewendet werden kann, um das Vertrauen durch automatisierte Herkunftsverfolgung und rechenschaftspflichtige Verifizierung von Anmeldeinformationen zu stärken. Die Praktiken des Datenaustauschs im Zusammenhang mit internationalen Organtransplantationsprozessen werden als Motivations- und Anwendungsfallstudie verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9547-9_1 c5b71e3cb7a2ef114a810ae0392f12f6;de;;;6.1.;;;Unterscheidbares Zero-Watermarking-Schema mit ähnlichkeitsbasiertem Abruf für digitale Rechte Management von Fundus Image Das Zero-Watermarking-Schema kann ein dauerhaftes und verzerrungsfreies Digital Rights Management (DRM) für Fundusbilder bereitstellen, das eine wichtige Rolle bei der Diagnose von Augenerkrankungen spielt. Bestehende Null-Wasserzeichen-Schemata identifizieren jedoch wahrscheinlich ein ähnliches Fundusbild als Kopie, da sie selten die Unterscheidbarkeit für das Bild berücksichtigen. Wenn die Anzahl von Fundusbildern groß ist, ist es außerdem schwierig, entsprechende Eigentumsanteile für die Urheberrechtsidentifizierung genau zu erhalten, da es in diesen Schemata keinen Abrufmechanismus gibt. Um diese Probleme anzugehen, wird ein unterscheidbares Null-Wasserzeichen-Schema vorgeschlagen, das eine ähnlichkeitsbasierte Wiedergewinnung für DRM von Fundusbildern fusioniert. In unserem vorgeschlagenen Schema werden unterscheidbare und robuste Merkmale von Fundusbildern basierend auf der Graustufenvariation extrahiert. Die Eigentumsanteile werden unter Verwendung von Visual Secret Sharing (VSS) konstruiert, indem Wasserzeichen und die aus diesen Funktionen generierten Masteranteile kombiniert werden. Sobald ein vermutetes Fundusbild gefunden wird, wird der auf Ähnlichkeit basierende Abruf durchgeführt, um den entsprechenden Eigentumsanteil basierend auf dem Merkmal des vermuteten Bildes abzurufen. Danach wird das Copyright identifiziert, indem der Master-Anteil des verdächtigen Bildes und der abgerufene Eigentumsanteil gestapelt werden. Experimentelle Ergebnisse in drei öffentlichen Datenbanken zeigen, dass 1) Eigentumsanteile, die bestimmten Fundusbildern entsprechen, genau abgerufen werden können. Wenn die Falsch-Positiv-Rate auf 0,001 festgelegt wird, sind die mittleren Falsch-Negativ-Raten nicht höher als 0,0693. 2) Urheberrechte von Fundusbildern können genau und zuverlässig identifiziert werden. Die mittleren Bitfehlerraten des wiederhergestellten Wasserzeichens sind nicht höher als 0,0460.;-;-;-;https://link.springer.com/article/10.1007/s11042-018-5995-4 6a3ed1bbcf2c93201e9be2267a78918b;de;;;6.1.;;;Maschinelles Lernen mit IoT und Big Data im Gesundheitswesen Gegen Ende des Jahres 2020 wird die Menschheit in ein weiteres Jahrzehnt des Jahrtausends eintreten. Als mächtiges Werkzeug des technologischen Fortschritts hat das Internet den Menschen viele große Dinge beigebracht, und im Laufe der Jahre wird sich schließlich noch eine weitere Veränderung ergeben. Maschinelles Lernen hat in fast allen Geschäftsbereichen hervorragende Konsequenzen mit sich gebracht und die Ausführung und Verwaltung verschiedener Prozesse revolutioniert. So sind beispielsweise Industrie 4.0, digitale Unternehmenstransformation, Gastgewerbe und Tourismus, Bildungs- und E-Learning-Plattformen, Krankenhäuser und Gesundheitssysteme vom maschinellen Lernen betroffen. Intelligentes Gesundheitswesen ist der führende Sektor, der den integrierten Ansatz von maschinellem Lernen und künstlicher Intelligenz nutzt. Die jüngste Coronavirus-Erkrankung (COVID-19) hat sich auf die Gesundheitsversorgung ausgewirkt. Die digitale Technologie spielte eine bedeutende Rolle bei der Sammlung von Daten über Krankheitssymptome, Statistiken und Kontaktverfolgung. Herkömmliche Gesundheitssysteme werden aufgerüstet und ihre Effektivität durch maschinelles Lernen gesteigert. In diesem Kapitel werden maschinelle Lerntechniken und Werkzeuge untersucht, die beim maschinellen Lernen verwendet werden, um die Effizienz der intelligenten Gesundheitsversorgung zu verbessern. Die hier besprochenen Inhalte erklären die extrem leistungsstarken Lernalgorithmen, die das Gesundheitswesen revolutionieren. In den späteren Abschnitten wird auf Big Data und IoT eingegangen. Big Data in Verbindung mit dem Internet der Dinge hat zu hervorragenden Ergebnissen im intelligenten Gesundheitswesen geführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-67051-1_5 176c9221efabfa35253b74378dbd9a25;de;;;6.1.;;;Eine verteilte Cluster-Speicheroptimierung in Echtzeit für massive Daten im Internet der Multimedia-Dinge Mit dem rasanten Wachstum massiver Datenmengen im Internet der Multimedia-Dinge gibt es einige Probleme mit unzureichendem Speicherplatz und unausgeglichener Last bei den aktuellen Verfahren. Für das Problem der massiven Echtzeit-Datenspeicherung wird ein Verfahren zur Optimierung des verteilten Clusterspeichers vorgeschlagen. Unter Berücksichtigung der Auswirkungen der Replikatkosten und der Generierung von Zwischendaten auf das Replikatlayout wird eine Replikagenerierungs- und -speicherstrategie unter Berücksichtigung von Kosten und Speicherplatz angegeben. Im Rechenzentrum werden die Datensensibilität und die Datenzugriffshäufigkeit als Migrationsfaktoren verwendet, um eine massive Datenmigration zu erreichen. Die verbesserte kollaborative Evolutionsmethode wird verwendet, um den Task-Scheduling-Partikelschwarm in massiven Datenspeichern zu codieren, um die optimale Lösung zu erhalten und massive Echtzeit-Datenverteilte Cluster-Speicher für das Internet der Dinge zu erreichen. Die experimentellen Ergebnisse zeigten, dass die Kosten für die Datenverwaltung mit dieser Methode nur zwischen 10 und 15 lagen, was zeigte, dass diese Methode die Datenzugriffsgeschwindigkeit effektiv verbessern, den Speicherplatz reduzieren, die Kosten senken und den Lastausgleich verbessern kann.;-;-;-;https://link.springer.com/article/10.1007/s11042-018-7006-1 c6597a0332b7befaa9f08263b5a5a96b;de;;;6.1.;;;Eine gute Praxis von IoT-Protokollen Internet of Things (IoT) ist ein modernes Konzept, das in den 90er Jahren auftauchte. IoT ist eigentlich eine der zukünftigen Herausforderungen und eröffnet Perspektiven für technologische und wissenschaftliche Entwicklungen. Der Erfolg des Internets der Dinge hängt stark von der Wahl des zu verwendenden Protokolls ab. Dennoch ist eines der Hauptprobleme von IoT das Fehlen geeigneter Benutzerhandbücher, die die Eigenschaften, Eigenschaften und Anforderungen von IoT-Systemen im Vergleich zu klassischen Anwendungen berücksichtigen. In einem früheren Papier haben wir eine vergleichende Studie der bestehenden IoT-Protokolle nach verschiedenen Kriterien vorgestellt, ihre Fähigkeiten bewertet und ihre Hauptmerkmale und Verhaltensweisen in Bezug auf verschiedene Metriken verglichen. In diesem Konzeptpapier schlagen wir ein Nutzungsmodell von IoT-Protokollen vor, das auf Kritikern basiert, die bereits in der Vergleichsstudie erwähnt wurden. Der Zweck dieser Modelle besteht darin, Forschern und Entwicklern die Auswahl der geeigneten Protokolle für eine IoT-Anwendung zu ermöglichen, indem diese Modelle vor der Veröffentlichung der Anwendung zugelassen werden. Dieser Artikel zielt darauf ab, zuerst IoT-Eigenschaften und dann die Bedeutung von Protokollen für die IoT-Anwendung bereitzustellen. Darüber hinaus präsentieren wir in diesen Modellen die Auswahl an Anwendungs- und Netzwerkschichtprotokollen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-62199-5_42 3283afbb084584427a9907967ab1cfd9;de;;;6.1.;;;Sicherheit zugelassener Impfstoffe bei HIV-infizierten Personen: ein systematisches Überprüfungsprotokoll Die Sicherheit von Impfstoffen ist nach wie vor ein Eckpfeiler für den Aufbau des öffentlichen Vertrauens in den Einsatz dieser kosteneffektiven und lebensrettenden Maßnahmen im Bereich der öffentlichen Gesundheit. In einigen Ländern, insbesondere in Afrika südlich der Sahara, gibt es eine hohe Prävalenz von HIV-Infektionen und eine hohe Belastung durch impfpräventable Krankheiten. Es gibt Hinweise darauf, dass die durch einige häufig verwendete Impfstoffe induzierte Immunität bei HIV-infizierten Personen nicht dauerhaft ist. Einige Impfstoffe, insbesondere Lebendimpfstoffe, können jedoch bei HIV-infizierten Personen unsicher sein. Es gibt keine Evidenz zum Sicherheitsprofil häufig verwendeter Impfstoffe bei HIV-infizierten Personen. Wir führen daher eine systematische Überprüfung durch, um das Sicherheitsprofil von Routineimpfstoffen, die HIV-infizierten Personen verabreicht werden, zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/2046-4053-3-101 c3bcd12c22dd8746e417fa1a79fa8c39;de;;;6.1.;;;Korrelationen der Erwerbstätigkeit bei Sozialhilfeempfängern: Spielen psychologische Eigenschaften und Einstellungen eine Rolle? Diese Studie untersucht, ob und wie ein breites Spektrum potenzieller Arbeitsbarrieren, einschließlich psychologischer Merkmale und Einstellungen, mit der aktuellen Beschäftigung in einer aktuellen Stichprobe von Sozialhilfeempfängern in Michigan (;-;-;-;https://link.springer.com/article/10.1023/A%3A1010413101010 852f8579e6da413f5a14820a3c3069bb;de;;;6.1.;;;Softwareleasing im Internet MMM (Middleware for Method Management) ist eine Infrastruktur zur Verwaltung der Bereitstellung, Integration, Verteilung und Nutzung von Anwendungsdiensten über das World Wide Web. Anwendungsdienste können von einem einfachen Datenbankzugriff bis hin zu einem vollwertigen Anwendungspaket reichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-8937-6_6 70e43b27e225921ba3ed3e49e3cdaa80;de;;;6.1.;;;Entscheidungsunterstützungsplattform für intelligente und nachhaltige Landwirtschaft In den letzten Jahren führte die wachsende Nachfrage nach tierischen Produkten zu einer Zunahme der Anzahl und Größe von Tierfarmen auf der ganzen Welt. Landwirte stehen vor einer Vielzahl von Herausforderungen, um ihr Geschäft richtig zu führen, da sie bei ihren Entscheidungen immer komplexere Faktoren berücksichtigen müssen, wie z Auswahl, Umweltbeschränkungen usw. Daher ist der Übergang von konventionellen landwirtschaftlichen Praktiken zu stärker technologiebasierten Ansätzen obligatorisch. In dieser Hinsicht werden die neuesten technologischen Fortschritte die Entwicklung von Precision Livestock Farming (PLF) ermöglichen. In diesem Beitrag stellen wir eine Blockchain-basierte Überwachungs- und Managementplattform vor, die Landwirten dabei helfen soll, ihre Aktivitäten zu verbessern, Kosten zu senken, den ökologischen Fußabdruck zu minimieren und ihre Ressourcen effizienter zu verwalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72654-6_39 4e015737ef194b5688e0758dafc94554;de;;;6.1.;;;Praxis der Standardüberwachung während der Anästhesie in Krankenhäusern von Nord-Kivu: eine Untersuchung der Gesundheitseinrichtungen der Gesundheitsantenne von Butembo Die Standardüberwachung während der Anästhesie ist ein Kernelement der Patientensicherheit und die Praxis einer sicheren Anästhesie hat die Morbidität und Mortalität weltweit reduziert. Das Hauptziel dieser Studie war es, die Praxis der Standardüberwachung während der Anästhesie in den Krankenhäusern von Nord-Kivu zu bewerten, um einen grundlegenden Überblick über die Situation zu erhalten und Pläne für eine sichere Anästhesie in der Region auszurichten.;-;-;-;https://link.springer.com/article/10.1186/s12913-020-05076-x 625d36d03bac06b6b49cd94bce328b93;de;;;6.1.;;;Verteilte Durchsetzung von Berechtigungen in PACS Wir präsentieren einen neuen Zugangskontrollmechanismus für P2P-Netzwerke mit verteilter Durchsetzung, das sogenannte P2P Access Control System (PACS). PACS erzwingt leistungsstarke Zugangskontrollmodelle wie RBAC mit administrativer Delegation innerhalb eines P2P-Netzwerks auf eine reine P2P-Weise, was in keinem der derzeit verwendeten P2P-Zugangskontrollmechanismen möglich ist. PACS verwendet clientseitige Durchsetzung, um die Replikation vertraulicher Daten zu unterstützen. Um einen Single Point of Failure bei der Durchsetzung von Berechtigungen zu vermeiden, verwenden wir Schwellenwertkryptografie, um die Durchsetzung unter den Teilnehmern zu verteilen. Unsere Analyse der erwarteten Nachrichtenanzahl und des Rechenaufwands in PACS zeigt, dass die erhöhte Flexibilität mit einem akzeptablen Mehraufwand verbunden ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03007-9_10 8717b273012a281df439a675981ffc97;de;;;6.1.;;;Augmented Reality in der medizinischen Aus- und Weiterbildung: Vom Arzt zum Patienten In diesem Kapitel wird die Schnittstelle von Augmented Reality (AR) und der Ausbildung von Medizinstudenten, Ärzten, Chirurgen und Patienten diskutiert. Für Medizinstudenten, die in kurzer Zeit ein großes medizinisches Wissen aufnehmen müssen, kann die AR-Technologie ihnen helfen, Anatomie zu lernen, Interaktionen mit Patienten aus neuen Perspektiven zu betrachten und neue Verfahren zusammen mit ihren Mentoren zu beobachten. Ärzte und Chirurgen können die AR-Technologie, die ihnen auch während des Medizinstudiums geholfen hat, weiterhin verwenden, insbesondere für laparoskopische Eingriffe, Neurochirurgie und Kardiologie. Augmented-Reality-Technologie wurde auch verwendet, um Patienten durch Behandlungen zu führen, wenn sie keinen Zugang zu medizinischem Fachpersonal haben, Patienten über medizinische Verfahren zu informieren und Patienten zu ermöglichen, sich über ihre Erkrankungen zu informieren. Da AR noch in den Kinderschuhen steckt, werden in diesem Kapitel die aktuellen Fähigkeiten von AR sowie potenzielle zukünftige Anwendungen in der medizinischen Aus- und Weiterbildung sowohl für Ärzte als auch für Patienten untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-42156-4_7 51f09550c91b8bf0f86bf6f5f3410c5f;de;;;6.1.;;;Entwicklung eines Parallel Task Combinators Die Entwicklung experimenteller Software ist selten einfach. Wenn Sie anfangen, etwas zu machen, das Sie noch nicht verstehen, ist es sehr unwahrscheinlich, dass Sie es beim ersten Versuch richtig machen. Das iTask-System ist diesem vorhersehbar unvorhersehbaren Weg gefolgt. In diesem System, in dem Kombinatorfunktionen verwendet werden, um interaktive Workflow-Unterstützungssysteme zu konstruieren, hat sich der Kernsatz der Kombinatorfunktionen zusammen mit dem fortgeschrittenen Verständnis der Domäne geändert. Kontinuierliche Arbeit an diesem System führte zur Entstehung eines neuen Programmierparadigmas für interaktive Systeme: Task-Oriented Programming (TOP). In diesem Papier rekonstruieren wir die Entwicklung eines der Kern-Kombinatoren von iTasks, um einen Blick auf diese Entwicklung zu erhaschen. Der Kombinator ist der;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40355-2_14 25f3b97e3df62529ea4fd00c4ca8e158;de;;;6.1.;;;Anwendung von verteilten Datensystemen und Fuzzy-Feature-Erkennung im kooperativen Talenttrainingsmodus von Schulunternehmen In den letzten Jahrzehnten hat sich die höhere berufliche und technische Bildung rasant entwickelt und im Laufe der Entwicklung einen Kooperationsmodus gefunden, der die Win-Win-Situation sowohl von Schulen als auch von Unternehmen-Schule-Unternehmen-Kooperation für Talente fördern kann. Nachdem dieses Modell vorgestellt wurde, wurde es von Universitäten und Unternehmen begrüßt. Gleichzeitig wurde das Modell auch von der Wissenschaft theoretisch anerkannt. Bei der Integration verteilter Daten stößt das Integrationspersonal häufig auf umständliche und veraltete Integrationsvorgänge und kann die verwendeten Daten nicht in kurzer Zeit freigeben. Um dieses Problem zu lösen, hat der Autor in diesem Artikel ein verteiltes Anwendungssystem zur Integration von Datensicherheit entworfen. Dieses System basiert auf der Fuzzy-Merkmalserkennung. Gemäß dem Rahmen der Fuzzy-Merkmalserkennung wird die Dienstmodulfunktion eingerichtet. Es gibt gewisse Grenzen zwischen verschiedenen Funktionen, und verschiedene Dienste sind miteinander verbunden, was einen großen Komfort bei der Entwicklung bietet und auch die Bereitstellung erleichtert. Dieses System weist eine starke Skalierbarkeit auf, und die Lastausgleichsstrategie und der Fehlertoleranzmechanismus sind ebenfalls sehr leistungsstark. Während des Bewerbungsprozesses klassifiziert das System die Daten. Damit Benutzer den Zugriff auf die Daten kontrollieren können, werden die Benutzerrollen aufgeteilt, um die Identitätsinformationen des Benutzers zu identifizieren. Bei der Rollenzuweisung wird das Zertifikatskettenmodell verwendet. Dies kann die Rollenzuweisung genauer machen, den Druck bei der Zuweisung von Cloud-Center-Knoten verringern und sie praktischer machen.;-;-;-;https://link.springer.com/article/10.1007/s12652-021-03206-9 650dea0889a78b5976981b3d8f09ac59;de;;;6.1.;;;Ein strategischer Ansatz für die Notfallvorsorge in den VAE Katastrophen haben weltweit erhebliche negative Auswirkungen, und diese weitreichenden Auswirkungen helfen bei der Formulierung von Richtlinien, Überprüfungen, Maßnahmen und Ansätzen für deren Bewältigung. Globale Bemühungen um das Notfallmanagement ermöglichen es Organisationen, sich die Hand zu reichen und Entwicklungsländern internationale Unterstützung in Form von Unterstützung durch internationale Organisationen oder Institutionen wie die Vereinten Nationen (UN) oder die Europäische Union (EU) bei der Planung, Reaktion oder Erholung von identifizierten Risiken oder Katastrophen. Während die entwickelten Länder im Bereich der EM erhebliche Fortschritte gemacht haben. Daher konzentriert sich dieses Papier auf ein entwickeltes Land, d. h. die Vereinigten Arabischen Emirate, das seine EM-Standards aus anderen Ländern wie Großbritannien, den USA und Australien übernommen hat. Um die EM-Standards zu verbessern, wenden die Länder einen Rahmen für die Durchführung der Vorbereitungsphase an, der von acht Schlüsselelementen abhängt. Die Literatur zeigt jedoch, dass die VAE zwar über Standards für das Notfallmanagement verfügen, jedoch in Bezug auf den Rahmen oder das System für die Notfallvorsorge hinterherhinken. Daher zielt das Papier darauf ab, die Standards für das Notfallmanagement in den Vereinigten Arabischen Emiraten zu untersuchen, festzustellen, ob eines der Elemente der Notfallvorsorge in irgendeiner Weise praktiziert wird, Hindernisse für die Vorbereitungsphasen zu identifizieren und Empfehlungen für die Regierung zu geben, den strategischen Ansatz zu übernehmen zur Verbesserung der Notfallvorsorge in den VAE.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-48465-1_40 430525e9a59bdfc9a2d787b55c1a4744;de;;;6.1.;;;Langzeitverlaufsdaten und integriertes Expertenwissen im Asset Lifecycle Management Modernes Asset Lifecycle Management muss sich mit einer Kombination aus Informationen auf strategischer Ebene zur Definition von Rechtezuweisungen, Zeitplänen und Ressourcen für Investitionen, Informationen auf taktischer Ebene zur Zuweisung von Wartungsaufgaben basierend auf ihrer Kritikalität, Wartungsfenstern und z.B. Produktionsschemata sowie Informationen auf Betriebsebene für die effektive Durchführung der täglichen Wartung. Es besteht Bedarf an einem Prozess, der Lebenszyklusdaten besser als integralen Bestandteil der Lebenszyklusentscheidung und damit für die Wartungs- und Investitionsplanung nutzt. Im aktuellen Papier konzentrieren wir uns auf die Aspekte des strategischen und taktischen Asset Managements, bei denen Entwicklungsziele für Instandhaltungsmaßnahmen und Investitionen identifiziert werden. Basierend auf früheren Forschungen und einer Interviewstudie schlägt das Papier einen Prozess für die Instandhaltungs- und Investitionsplanung vor, der eine Kombination aus Expertenwissen und Instandhaltungs- und Prozessereignisdaten nutzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-78170-5_1 8513345102dd1d1d2395c081d18d6d0e;de;;;6.1.;;;Suchmethoden in P2P-Netzwerken: Eine Umfrage Die Peer-to-Peer (P2P) Filesharing-Anwendungen haben eine enorme Popularität erlangt und haben seit ihrer Einführung im Jahr 1999 Millionen von Benutzern weltweit. Aufgrund der chaotischen Struktur, der erreichten Größe und der Netzwerkdynamik verwenden sie meist eine Überflutungs- basierte Suche, um benötigte Dateien zu finden, und sind daher die Hauptquelle des Internetverkehrs. Daher ist das Studium und die Entwicklung von P2P-Systemen eine wichtige Forschungsherausforderung.;-;-;-;https://link.springer.com/chapter/10.1007/11553762_6 f8f3d4a2e75df843b8bd3045f1b06e24;de;;;6.1.;;;Ein hybrides Workflow-Paradigma für die Integration selbstverwaltender domänenspezifischer Anwendungen Ein hybrides Workflow-System könnte als domänenübergreifende Infrastruktur behandelt werden, indem verschiedene Workflow-Systeme und WfMSs integriert werden, die an der komplexen Geschäftsabwicklung beteiligt sind. Um ein hybrides Workflow-System zu realisieren, wird die beim Autonomic Computing verwendete Selbstverwaltungsdisziplin domänenspezifischen Anwendungen auferlegt. Durch die Klassifizierung der Datenprobleme einer domänenspezifischen Anwendung in Prozessdaten und Anwendungsdaten und um die Einbindung in die selbstverwaltenden domänenspezifischen Anwendungen aus globaler Sicht zu verbessern, wird die Grundlage des selbstverwalteten Managements basierend auf dem Verhalten diskutiert Logik- und Steuerlogikanalyse. Abschließend wird eine Fallstudie zur Veranschaulichung der Szenarien vorgestellt und die Eigenschaften des hybriden Workflow-Paradigmas zusammengefasst.;-;-;-;https://link.springer.com/chapter/10.1007/11590354_131 7c14b1b80bb970d188aa49ec21749f4b;de;;;6.1.;;;The Advancing Understanding of Transportation Options (AUTO)-Studie: Design und Methoden einer multizentrischen Studie zur Entscheidungshilfe für ältere Fahrer Die Entscheidungsfindung darüber, wann das Autofahren für ältere Erwachsene beendet werden soll, beinhaltet die Einschätzung des Fahrrisikos, die Verfügbarkeit von Unterstützung oder Ressourcen und starke Emotionen über den Verlust der Unabhängigkeit. Obwohl das Risiko, in einen tödlichen Unfall verwickelt zu werden, mit dem Alter steigt, kann sich ein Fahrstopp negativ auf die Gesundheit und das Wohlbefinden älterer Erwachsener auswirken. Entscheidungshilfen können den Entscheidungsprozess verbessern, indem sie das Wissen über die Risiken und Vorteile einer Fahrerlaubnis erhöhen und die Entscheidungsqualität verbessern. Der Einfluss von Entscheidungshilfen in Bezug auf den Fahrstopp bei älteren Erwachsenen ist nicht bekannt.;-;-;-;https://link.springer.com/article/10.1186/s40621-021-00310-4 783bccf23579dea7e858d57663548f00;de;;;6.1.;;;Die GIS-Herausforderungen der ökoregionalen Naturschutzplanung Die Werkzeuge geographischer Informationssysteme (GIS) eignen sich gut für die Anwendung der Naturschutzplanung, eine Aufgabe, die die Überlagerung und Analyse von oft großen Mengen an geografischen Informationen erfordert, einschließlich der Standorte und Verteilung mehrerer Naturschutzziele und -bedrohungen. Während eines jeden Naturschutzplanungsprozesses sind Herausforderungen im Zusammenhang mit der Nutzung von GIS zu erwarten, insbesondere für große Planungsgebiete, die sich über mehrere Verwaltungsgebiete erstrecken. Zu erwartende Herausforderungen beziehen sich auf (1) die komplexe Natur von Geodaten, einschließlich Datenquellen, Zugang, Lizenzierung, Qualität und Kompatibilität, (2) die Notwendigkeit, für die Dauer des Planungsprozesses angemessene Kapazitäten für GIS zu entwickeln, und (3) Bereitstellung von durch den GIS-basierten Planungsprozess generierten Rauminformationen für Partner und Interessengruppen. Durch das Verständnis der Natur der zu erwartenden GIS-Herausforderungen können Naturschutzmanager und GIS-Experten die Ressourcen planen, die zum erfolgreichen Erreichen der Ziele des Planungsprozesses erforderlich sind. In diesem Kapitel teile ich die GIS-Erfahrungen, Herausforderungen und Lehren aus einer mehrjährigen Erhaltungsplanung mit mehreren Partnern für die grenzüberschreitende nördliche Appalachen/Akadische Ökoregion Nordamerikas.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-9575-6_12 1aab1de9c38587f81b17770d818d1170;de;;;6.1.;;;Ein sicheres Datenaustauschschema mit Betrugserkennung basierend auf dem Chaum-Pedersen-Protokoll für Cloud-Speicher Mit der Entwicklung der Cloud-Computing-Technologie können Daten in die Cloud ausgelagert und bequem zwischen Benutzern geteilt werden. In vielen Fällen können Benutzer jedoch Bedenken hinsichtlich der Zuverlässigkeit und Integrität ihrer Daten haben. Es ist von entscheidender Bedeutung, Datenaustauschdienste bereitzustellen, die diese Sicherheitsanforderungen erfüllen. Wir führen ein zuverlässiges und sicheres Schema für die gemeinsame Nutzung von Daten ein, das die Methode zur gemeinsamen Nutzung von Schwellenwerten und den Zero-Knowledge-Beweis von Chaum-Pedersen verwendet. Das vorgeschlagene Schema ist nicht nur effektiv und flexibel, sondern auch in der Lage, die semantische Sicherheitseigenschaft zu erreichen. Darüber hinaus ist unser Schema in der Lage, die Verantwortlichkeit der Entschlüsselungsschlüssel der Benutzer sowie die Identifizierung von Betrügern sicherzustellen, wenn sich einige Benutzer unehrlich verhalten. Die Effizienzanalyse zeigt, dass das vorgeschlagene Schema im Vergleich zu den entsprechenden Arbeiten eine bessere Leistung in Bezug auf den Rechenaufwand aufweist. Es eignet sich besonders für Anwendungen zum Schutz der Krankenversicherungsdaten der Nutzer über die Cloud.;-;-;-;https://link.springer.com/article/10.1631/FITEE.1800066 546040696e86bc25089436d4a6f31716;de;;;6.1.;;;Die Komplexität der Verarbeitung von Finanzdaten im großen Maßstab managen – Ein Erfahrungsbericht Finanzmärkte sind extrem datengesteuert und reguliert. Die Teilnehmer verlassen sich auf Benachrichtigungen über wichtige Ereignisse und Hintergrundinformationen, die ihren Anforderungen an Aktualität, Richtigkeit und Vollständigkeit entsprechen. Als einer der führenden europäischen Anbieter von Finanzdaten- und Regulierungslösungen verarbeitet vwd täglich durchschnittlich 18 Milliarden Meldungen aus über 500 Datenquellen für 30 Millionen Symbole. Unsere großflächigen geoverteilten Systeme verarbeiten tägliche Spitzenraten von mehr als 1 Million Benachrichtigungen/Sek. In diesem Papier geben wir praktische Einblicke in die verschiedenen Arten von Komplexität, mit denen wir in Bezug auf die von uns verarbeiteten Daten, die von uns betriebenen Systeme und die regulatorischen Auflagen konfrontiert sind, die wir einhalten müssen. Wir beschreiben die Menge, Vielfalt, Geschwindigkeit und Richtigkeit der von uns verarbeiteten Daten, die von uns betriebene Infrastruktur und die von uns verwendete Architektur. Wir veranschaulichen die durch den Handel erzeugten Lastmuster und wie die Aufmerksamkeit der Märkte auf das Brexit-Votum und ähnliche Ereignisse unsere Systeme belastet hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-34843-4_2 5ca4cacd33e66221a25c40f2cb89cde6;de;;;6.1.;;;Effizienter Datenaustausch über große verteilte Communities Die gemeinsame Nutzung von Daten in großen Peer Data Management Systemen (PDMS) ist aufgrund der übermäßigen Anzahl von Datenstandorten, ihrer autonomen Natur und der Heterogenität ihres Schemas eine Herausforderung. Bestehende PDMS-Abfrageanwendungen haben Schwierigkeiten, gleichzeitig eine hohe Rückrufrate und Skalierbarkeit zu erreichen. In diesem Kapitel schlagen wir ein ontologiebasiertes Sharing-Framework vor, um die Qualität des Datenaustauschs und der Abfrage über große verteilte Gemeinschaften zu verbessern. Insbesondere fügen wir den PDMSs eine semantische Schicht hinzu, die die semantische Heterogenität mildert und dem System hilft, seine Topologie so anzupassen, dass semantisch verwandte Datenquellen verbunden werden können. Darüber hinaus schlagen wir ein umfassendes Abfragerouting- und Optimierungsschema vor, um eine skalierbare und effiziente Abfrageauswertung zu ermöglichen. Simulationsstudien zeigen, dass unser vorgeschlagenes ontologiebasiertes Datenaustausch-Framework die Abfrageleistung in Bezug auf Rückruf und Skalierbarkeit effektiv verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21271-0_7 61fde79544dd5542e6556f7ca4437174;de;;;6.1.;;;Ontologiebasierte Richtlinienspezifikation und -verwaltung Das World Wide Web erleichtert die gemeinsame Nutzung von Informationen und Ressourcen, bietet jedoch nur wenige Möglichkeiten, die Art und Weise der gemeinsamen Nutzung dieser Ressourcen einzuschränken. Die Spezifikation und automatisierte Durchsetzung von sicherheitsbezogenen Richtlinien bietet eine vielversprechende Möglichkeit, eine kontrollierte gemeinsame Nutzung bereitzustellen, aber es stehen nur wenige Tools zur Verfügung, um die Richtlinienspezifikation und -verwaltung zu unterstützen, insbesondere in einem offenen System wie dem Web, in dem Ressourcenanbieter und Benutzer häufig unterwegs sind Fremde und eine genaue und korrekte Festlegung der Richtlinien sind von entscheidender Bedeutung. In diesem Papier schlagen wir die Verwendung von Ontologien vor, um die Aufgaben der Richtlinienspezifikation und -verwaltung zu vereinfachen, diskutieren die Darstellung von Richtlinienvererbung und -zusammensetzung auf der Grundlage von Credential-Ontologien, formalisieren diese Darstellungen und die entsprechenden Einschränkungen in Frame-Logic und präsentieren POLICYTAB, a prototypische Implementierung unseres vorgeschlagenen Schemas als Protégé-Plug-in zur Unterstützung der Richtlinienspezifikation.;-;-;-;https://link.springer.com/chapter/10.1007/11431053_20 d5ca4d21d2308cbc58b04f45f733fe87;de;;;6.1.;;;Patientenzentrierte Transparenzanforderungen für Systeme zur gemeinsamen Nutzung medizinischer Daten Wir erstellen, schlagen und diskutieren verschiedene Anforderungen, um die Transparenz in Systemen zum Austausch medizinischer Daten zu unterstützen. Transparenz ist eine Eigenschaft, die Offenheit und Einhaltung von Richtlinien, Praktiken und Prozessen zum Schutz von Daten suggeriert und eine gute Servicequalität im Gesundheitswesen fördert. Unsere Anforderungen zeigen, wie Transparenz bei modernen medizinischen Datenaustauschsystemen, wie der Verwaltung elektronischer Patientenakten, realisiert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-31232-3_102 270553fbf8c3911eb2b1b2a362ea38a1;de;;;6.1.;;;Entwicklung eines webbasierten GIS mit SDI für das Katastrophenmanagement Geodaten und verwandte Technologien, insbesondere Geoinformationssysteme (GIS) mit der Fähigkeit, Geodaten anzuzeigen, abzurufen, zu analysieren und zu verwalten, haben sich für das Katastrophenmanagement als entscheidend erwiesen. Allerdings gibt es derzeit unterschiedliche Probleme mit der Verfügbarkeit, dem Zugang und der Nutzung von Geodaten für das Katastrophenmanagement. Die Probleme mit Geodaten werden im Katastrophenschutz gravierender, in dem zuverlässige und aktuelle Geodaten zur Beschreibung der aktuellen Notfallsituation für die Planung, Entscheidungsfindung und Koordination von Aktivitäten benötigt werden. Es wird vorgeschlagen, dass durch einen effektiven und effizienten Geodatenrahmen und institutionelle Vorkehrungen sowie durch die Zusammenarbeit der beteiligten Organisationen im Katastrophenschutz zur Erstellung von Geodaten und der anschließenden gemeinsamen Nutzung dieser Daten die erforderlichen Informationen jederzeit verfügbar und für die Nutzung zugänglich sind . In dieser Hinsicht kann die Geodateninfrastruktur (GDI) ein geeignetes Umfeld bieten, um die Beteiligung von Organisationen am Produktionsprozess und am Austausch von Geodaten zu beeinflussen. Inzwischen kann ein webbasiertes GIS ein geeignetes Werkzeug für die Dateneingabe und -freigabe sowie die Datenanalyse zur Unterstützung der Entscheidungsfindung bieten.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-27468-5_43 f2202438a16230f0bd65c885d39046d9;de;;;6.1.;;;Kommunikationstechniken, Praktiken und Strategien der Generation „Web n+1“ Es kommt oft vor, dass die Besonderheit einzelner Stile, Techniken, Praktiken und Ausdrucksformen implizit bekannt, aber nicht explizit charakterisiert wird, nachdem eine neue Kulturtechnik aus ihrem entstehenden Zustand herauszutreten beginnt, um ihr volles Potenzial in einem breiten Anwendungsfeld zu entfalten unter den Prämissen der soziokulturellen Wirkung untersucht. Wir können auch sagen, dass eine Kulturtechnik, wenn sie erst einmal kanonisch im Sinne der Anerkennung und Anerkennung als soziokulturell verkörpertes Gemeinwohl geworden ist, nicht nur eine Gesellschaft insgesamt konstituiert, sondern auch den Wohlstand und die materiellen, geistigen und intellektuelles Wachstum von Staat, Nationen und Menschheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-0096-7_13 fa71f2b6426c1e7589bb3938bbb4f1d4;de;;;6.1.;;;Genotypisierung von Mikrosatelliten Die Genotypisierung von Mikrosatelliten ist in der wissenschaftlichen Gemeinschaft weit verbreitet und die Methode der Wahl für viele neuere Studien zur Kopplungsanalyse, insbesondere für Genomscans zur Identifizierung von Genen, die häufigen Krankheiten zugrunde liegen (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-56207-5_3 5537bf05e9dcc30dd638e6eb306a3c19;de;;;6.1.;;;Ein agentenbasierter Ansatz zur Verbesserung der Agilität der Lieferkette in einer heterogenen Umgebung Unternehmen durchlaufen einen großen Paradigmenwechsel und bewegen sich vom traditionellen Management hin zu einer Welt agiler Organisationen und Prozesse. Ein agiles Unternehmen sollte in der Lage sein, schnell auf Marktveränderungen zu reagieren. Aus diesem Grund haben Unternehmen versucht, zahlreiche Systeme der Informationstechnologie (IT) zu entwickeln, um ihre Geschäftsprozesse zu unterstützen. Informationen/Wissen in den Systemen sind jedoch naturgemäß disparat und heterogen und können auf verschiedene Weise (Text, pdf, html usw.) dargestellt werden und entweder strukturiert oder unstrukturiert sein. Daher ist es schwierig, Informationen/Wissen nur mit traditionellen Methoden der Informationstechnologie wie E-Mail oder Dateiservern zu beschaffen, zu organisieren oder zu verteilen. Aufgrund der autonomen und kollaborativen Aspekte der agentenbasierten Technologie kann dies eine mögliche Lösung für das Problem der Heterogenität sein. Die Agententechnologie verändert radikal nicht nur die Art und Weise, wie Computer interagieren, sondern auch die Art und Weise, wie komplexe Prozesse, z. B. Lieferketten, konzipiert und aufgebaut werden. Dieses Kapitel schlägt ein agentenbasiertes System vor und formuliert agile Interaktionen für die Zusammenarbeit von Supply-Chain-Entitäten in einer heterogenen Umgebung. Das agentenbasierte System erhöht die Agilität der Lieferkette durch den Ansatz, bei dem die Agenten ihre Ziele und Teilziele autonom planen und verfolgen, um mit anderen zu kooperieren, zu koordinieren und zu verhandeln und flexibel und intelligent auf dynamische und unvorhersehbare Situationen zu reagieren. Annotations- und Artikulationsmechanismen werden entwickelt, um das Heterogenitätsproblem von Informations-/Wissensressourcen anzugehen und zu lösen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84628-607-0_7 058b5bb5877f667d015fbb671c8d1f38;de;;;6.1.;;;Blockchain-basierte Zugriffskontrolle für IoT in Smart Home-Systemen Smart-Home-Systeme werden durch eine Vielzahl von vernetzten intelligenten Haushaltsgeräten gekennzeichnet, wobei das Internet der Dinge (IoT) einer der entscheidenden Enabler in der Smart-Home-Umgebung ist. Da diese Smart-Home-IoT-Geräte kollaborativ arbeiten, wird die Zugriffskontrolle zwischen den IoT-Geräten immer wichtiger, da ein nicht autorisierter Zugriff zu Ressourcenmissbrauch, Bedrohungen des Heims oder der Offenlegung privater Informationen führen kann. Daher ist eine effektive Zugangskontrolle in Smart-Home-Systemen unerlässlich, um eine unbefugte Nutzung der verfügbaren Ressourcen zu verhindern. Den meisten Zugangskontrollsystemen in Smart-Home-Systemen fehlt es jedoch immer noch an dezentralem Peer-Vertrauen und es ist schwer, die Sicherheit und Glaubwürdigkeit des Smart-Home-IoT-Netzwerks zu kontrollieren. Dieses Papier schlägt daher eine Blockchain-basierte Access Control (BAC)-Lösung vor, indem die Blockchain-Technik in IoT-Netzwerke integriert wird, wobei die agentenbasierte Richtlinie vorgeschlagen wird, um die Effizienz des Blockchain-Managements zu verbessern. Um die BAC-Lösung zu validieren, demonstrieren wir den Implementierungsprozess des vorgeschlagenen BAC im Szenario der elterlichen Kontrolle und bewerten auch die Leistung und Durchführbarkeit in einem simulierten Smart Home.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-59051-2_2 f819d5cbd6a51df7c819e0446e2727ca;de;;;6.1.;;;Das Design des NTCIP C2F-Modellsystems für ITS NTCIP (National Transportation Communications for ITS Protocol) ist das Standard-Kommunikationsprotokoll für Intelligent Transportation Systems (ITS) der Datenübertragung zwischen den Verkehrsleitgeräten und dem ITS-System. Das NTCIP-Protokoll für ITS wird in diesem Papier vorgestellt. Die Entwurfsmethoden von C2F (Center-to-Field), das der Hauptaspekt von NTCIP ist, werden beschrieben. Durch die Anwendung in einem Programm wird ein gemeinsames Modell des Center-to-Field-Designs vorgeschlagen. Alle zugehörigen Module können in einem tatsächlichen Programm verwendet werden, und die Details des Modells werden als Referenz analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11618-6_3 c5f478b40b9c604772224b8c49568e49;de;;;6.1.;;;Eine systematische Literaturübersicht über die Einstellung von Gesundheitskonsumenten zur Sekundärnutzung und zum Austausch von Gesundheitsverwaltungs- und klinischen Studiendaten: ein Fokus auf Datenschutz, Vertrauen und Transparenz Unser Ziel war es, Daten zu Fragen im Zusammenhang mit der Wahrnehmung von Privatsphäre, Vertrauen und Transparenz bei der Verwendung von Sekundärdaten durch Interessenvertreter zu synthetisieren. Es wurde eine systematische Literaturrecherche zur Einstellung von Verbrauchern im Gesundheitswesen gegenüber der sekundären Verwendung und dem Austausch von Gesundheitsverwaltungsdaten und klinischen Studien durchgeführt. EMBASE/MEDLINE, Cochrane Library, PubMed, CINAHL, Informit Health Collection, PROSPERO Database of Systematic Reviews, PsycINFO und ProQuest-Datenbanken wurden durchsucht. Zu den zugelassenen Artikeln gehörten Artikel, die qualitative oder quantitative Originalforschungen berichten und auf Englisch veröffentlicht wurden. Es wurden keine Beschränkungen hinsichtlich Veröffentlichungsdatum, Studiendesign oder Krankheitssetting auferlegt. Ein Autor überprüfte Artikel auf Eignung, und zwei Autoren waren an der Volltextprüfung beteiligt. Die Daten wurden unter Verwendung einer vorgefertigten Datenextraktionsvorlage von einem Autor extrahiert und von einem anderen überprüft. Konflikte wurden im Konsens gelöst. Qualität und Verzerrung wurden anhand der QualSyst-Kriterien für qualitative und quantitative Studien bewertet. Dieses Papier konzentriert sich auf eine Teilmenge von 35 Artikeln, die aus der breiteren Suche identifiziert wurden und sich auf Fragen der Privatsphäre, des Vertrauens und der Transparenz konzentrieren. Die Studien umfassten insgesamt 56.365 Teilnehmer. Die Ergebnisse dieser systematischen Literaturrecherche zeigen, dass die Befragten zwar Vorteile beim Austausch von Gesundheitsdaten identifizierten, jedoch Bedenken in Bezug auf Vertrauen, Transparenz und Datenschutz bestehen. Organisationen, die Gesundheitsdaten sammeln, und diejenigen, die Daten austauschen oder Sekundärdatenanalysen durchführen möchten, sollten durch offenen Dialog und Bildung weiterhin Vertrauen, Transparenz und Privatsphäre mit den Verbrauchern im Gesundheitswesen aufbauen. Diese Fragen sollten in allen Phasen der Datenerhebung, einschließlich der Konzeptions-, Entwurfs- und Implementierungsphase, berücksichtigt werden. Während Einzelpersonen die Vorteile der gemeinsamen Nutzung von Gesundheitsdaten zu Forschungszwecken verstehen, ist es wichtig, ein Gleichgewicht zwischen öffentlichem Nutzen und individueller Privatsphäre sicherzustellen. Forscher und diejenigen, die Sekundärdatenanalysen durchführen, müssen sich dieser Schlüsselfragen in allen Phasen ihrer Forschung bewusst sein. Systematische Überprüfungsregistrierung: PROSPERO-Registrierungsnummer CRD42018110559 (Aktualisierung Juni 2020).;-;-;-;https://link.springer.com/article/10.1186/s13643-020-01481-9 a9c4d74113aafbf294b418ae95ba4462;de;;;6.1.;;;Ein transparentes Grid-Dateisystem Vorhandene Datenverwaltungslösungen können die Anforderungen an die Datenverwaltung auf der Ebene zwischen Netzen (Interoperabilität) nicht angemessen unterstützen. Wir beschreiben eine mögliche Lösung, ein transparentes Grid-Dateisystem, und betrachten detailliert einen anspruchsvollen Anwendungsfall.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75755-9_38 bc80c4466a2730a1786ff3e85ac3fbd9;de;;;6.1.;;;Die alternativen Karrierewege für internationale Medizinabsolventen im Gesundheits- und Wellnesssektor Internationale medizinische Absolventen (IMGs) sind ein wichtiger Bestandteil des Gesundheitssystems der Vereinigten Staaten und Kanadas. Sie stoßen jedoch auf eine Vielzahl von Barrieren, um sich sowohl als niedergelassene Ärzte als auch als Nicht-Ärzte in verschiedenen alternativen Berufen, die ihren Kenntnissen und Fähigkeiten entsprechen, beruflich zu integrieren. Es gibt einige gemeinsame Barrieren für beide Wege, wie finanzielle Barrieren, lokale Arbeitserfahrung sowie Kommunikations- und Sprachschwierigkeiten. Bei alternativen Karrieren sind die IMGs jedoch mit einigen einzigartigen Problemen konfrontiert, darunter ein Mangel an Informationen über potenzielle alternative Karrieren und Möglichkeiten, diese zu erlangen, ihre übertragbaren Fähigkeiten von sich selbst und den Arbeitgebern nicht anzuerkennen und einen Mangel an professioneller Beratung, Unterstützung und Überbrückungsprogrammen . Es gibt verschiedene Arten potenzieller alternativer Karrieren, die klinisch oder nicht-klinisch sein können, eine Zulassung erfordern oder nicht und oft nach einer Weiterbildung fragen, die möglicherweise minimal ist, wie z. B. eine berufsbegleitende Ausbildung bis hin zu einer umfassenden Ausbildung wie einem Master-Abschluss oder einer Promotion .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-62249-7_18 749d57b0377fc09a263c3686ea35d23d;de;;;6.1.;;;Lokale Governance und Zugang zu städtischen Dienstleistungen: Politische und soziale Inklusion in Indonesien Diese Studie untersucht die Beziehungen zwischen lokaler Demokratie und den Hindernissen für die politische und soziale Inklusion marginalisierter Gemeinschaften in zwei Städten in Indonesien: Bandung als Beispiel für eine Metropole und Surakarta, um die Perspektive einer mittelgroßen Stadt zu zeigen. Seit Indonesien Dezentralisierungsreformen durchgeführt hat, führen lokale Regierungen grundlegende Dienstleistungen durch. Die Zentralregierung unterstützt in erster Linie die Kommunalverwaltung mit Finanzierung und Maßnahmen wie Slumverbesserungen und finanzieller Unterstützung für die Armen. Ein zentrales Thema sowohl in der Politik der Zentralregierung als auch in den Programmen der Kommunalverwaltung ist die Stärkung marginalisierter Gemeinschaften in Bezug auf ihre Denkweise und ihre Fähigkeiten, um zu verdienen. Die öffentliche Wahrnehmung der Regierungsleistung ist im Allgemeinen hoch, mit Ausnahme der Aspekte der Politisierung öffentlicher Dienste. Ein Unterschied zwischen Surakarta und Bandung besteht darin, dass die Befragten in Bandung glauben, dass die Stadt ein hohes Maß an Korruption hat. Im Allgemeinen sind die Befragten zufriedener mit der Leistungserbringung durch die verschiedenen Regierungsebenen innerhalb der Stadt im Vergleich zu den Provinz- und Zentralregierungen und NGOs. Dies scheint mit der stärkeren Interaktion mit lokalen Institutionen und ihren Dienstleistungen, die den Gemeinden zugute kommen, zusammenzuhängen. Beide Städte haben vor kurzem Dienste eingeführt, um die Beteiligung der Öffentlichkeit, die Rechenschaftspflicht, die Transparenz und den Zugang zu städtischen Diensten zu verbessern. Die Hauptfaktoren, die zu diesen Innovationen geführt haben, sind integrative Führung, ein gemeinschaftlicher Ansatz, der es den Bürgern ermöglicht, ihre Wünsche zu äußern, und das Konzept der Smart City. Die Information marginalisierter Gruppen über diese Dienstleistungen könnte sie stärken und zum Erfolg des Sustainable Development Goal (SDG) 11 beitragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2973-3_7 3703fd798f07803df9ecfdfb23381660;de;;;6.1.;;;Dringend!…Innovation in Informationstechnologien mit einem echten Fokus auf Wertschöpfung zu belohnen Innovation in den Informationstechnologien (IT) wird gemeinhin als Selbstzweck betrachtet, doch aus dieser Sicht berücksichtigen Führungskräfte, insbesondere die Chief Technology Officers oder IT-Manager, nicht unbedingt die Wertschöpfung der IT für ihre Organisationen in denen diese Art von Operationen und Projekten entwickelt und umgesetzt werden, was zu einem entsprechenden Wertverlust führt. In diesem Kapitel wird eine logische Abfolge zur Bewertung der Wertgenerierung von Innovationen in der IT vorgestellt, die aus folgenden Themen besteht: (1) Wie generieren Organisationen Wert? (2) Wie schaffen Innovationen in der IT Wert? (mit einer allgemeinen Literaturrecherche und einem Fokus auf Fälle aus Südamerika) und (3) Wie können Organisationen die Wertschöpfung von Innovationen in der IT berechnen? Abschließend werden einige Schlussfolgerungen und Empfehlungen für zukünftige Forschungen präsentiert.;-;-;-;https://link.springer.com/chapter/10.1057/978-1-137-57475-6_6 9d4afeebc00191a1ace880ce376310b8;de;;;6.1.;;;Big-Data-fähige Pflege: Möglichkeiten der Zukunft Als Ergebnis unseres Eintauchens in die Welt von Big Data und Data Science werden mögliche Zukunftsperspektiven für Bildung, Partnerschaften, Forschung und Praxis aufgezeigt. In jedem dieser Bereiche schlagen wir grundlegende und durchgreifende Veränderungen vor, insbesondere für die Pflege. Kuhns episodisches Modell der wissenschaftlichen Revolution, bei dem plötzlich die Entdeckung eines neuen Weges unsere Sichtweise und unser Leben in der Welt verändert, könnte einiges von dem erklären, was wir sehen und erleben. Dieses neue Paradigma stellt Fragen zu alten Daten, schlägt neue Wege zur Datenverwaltung vor und stellt Hypothesen auf, wo neue Daten gefunden werden könnten. Das Paradigma verschiebt sich vom „Puzzle-Lösen“ hin zur Änderung der Spielregeln und der Kartierung, die neue Operationen und Forschungen leitet (Kuhn, 1962, 2012).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-53300-1_23 fa9ce8f36ec581ba7a6c84a1061a8428;de;;;6.1.;;;Das Gebäuderegister Das Ziel des Kapitels ist die Analyse des als Datenbank interpretierten Gebäudekatasters, unterstützt durch geeignete Methoden zur Aufgliederung und Klassifizierung des Gebäudes und seiner Teile, das die notwendigen Informationen enthält, um die Konsistenz, die funktionalen und die technischen Eigenschaften zu beschreiben . Das Kapitel beleuchtet die Rolle des Registers innerhalb der FM-Dienste, seinen Inhalt und seine Beziehung zum Inventar und zum Informationssystem. Angesichts der Risiken der Ineffizienz, die mit dem Fehlen eines vorgegebenen Rahmens für die Sammlung und Organisation von Informationen verbunden sind, werden zunächst einige Schlüsselkonzepte vorgestellt: Das Register muss in der Lage sein, Dokumente und Informationen zu sammeln und zu verknüpfen, sowohl über Räume und technischen Elementen, das Register sollte nach dem Prinzip des Gradualismus erstellt werden und im Laufe der Zeit ausgehend von einem Mindestdatensatz wachsen, die Struktur des Registers hängt vom „Registersystem“ ab, das als ein Rahmen von Kriterien betrachtet werden kann nützlich für die Klassifizierung und Kodierung von räumlichen und technischen Elementen und eines Datenblattapparats, der zum Sammeln von Informationen nützlich ist Ausgehend von diesen Annahmen werden einige Themen analysiert: die Rolle der Dokumentenprüfung für die Sammlung einer großen Menge an Informationen, die im Gebäudelebenszyklus entwickelt und verwendet werden, die Kriterien für die Aufgliederung, Klassifizierung und Codierung des Gebäudes und seiner Teile. Ausgehend von dem vorherrschenden logischen Gliederungsschema, bestehend aus der Darstellung des Gebäudes als hierarchisch offene Struktur, die sowohl auf Räume als auch auf technische Elemente anwendbar ist, werden mehrere internationale Standardreferenzen eingeführt und analysiert, die Inhalte und der Aufbau des Datenblattsystems aufgelistet, , mit Unterstützung internationaler Standards, die Informationen, die im Laufe der Zeit erworben werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23959-0_3 a45040e4bfa3f58ce27b49e00b6f4c4f;de;;;6.1.;;;Blockchain-basierter sicherer und datenschutzwahrender Austausch und Integration klinischer Daten Dieses Papier ist eine Untersuchung zur sicheren Integration von geografisch verstreuten medizinischen Datensilos und zur Bereitstellung eines datenschutzwahrenden Datenaustauschs über Blockchain und Kryptographie. Wir setzen Broadcast-Verschlüsselung, Schlüsselregression, Datenschutzklassifizierung, Blockchain und Smart Contract ganzheitlich ein, um einer solchen Herausforderung zu begegnen. In unserem Design sind die Krankenakten eines Patienten in mehrere Teile mit unterschiedlichen Sensibilitäten gemäß den Datenschutzanforderungen unterteilt. Jeder Teil ist mit einem symmetrischen Verschlüsselungsschlüssel verschlüsselt und wird verschlüsselt an einen vordefinierten Benutzersatz gesendet. Datenverschlüsselungsschlüssel werden durch ein Schlüsselregressionsschema generiert, bei dem Schlüssel zum Verschlüsseln von Datenteilen mit geringer Sensibilität von Schlüsseln abgeleitet werden können, die zum Verschlüsseln von Datenteilen mit hoher Sensibilität verwendet werden. Mit einem solchen Mechanismus können wir eine strenge Zugriffs- und Datenschutzkontrolle für medizinische Daten durchsetzen. Darüber hinaus verwenden wir die Ethereum-Blockchain, um verschiedene Institutionen zu verbinden, um einen effizienten Datenaustausch zu ermöglichen, und wir entwerfen Smart Contracts, um die Geschäftslogik des medizinischen Datenaustauschs zu implementieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-60248-2_7 0885fb7a8a08e8586807953cdbcd206d;de;;;6.1.;;;Die Chicago Convention in der digitalen Welt Das aktuelle Luftrecht und die über 75 Jahre gewachsene Regulierung stehen an einem Wendepunkt, an dem diesbezügliche Grundsätze im Rahmen des digitalen Zeitalters interpretiert werden müssen. Beginnend mit Artikel 1, der den Eckpfeiler des Luftverkehrsrechts festlegt, der festlegt, dass die Vertragsstaaten des Übereinkommens anerkennen, dass jeder Staat die vollständige und ausschließliche Souveränität über den Luftraum über seinem Hoheitsgebiet besitzt, bis hin zu Artikel 2, der erklärt, dass das Hoheitsgebiet eines Als Staat gelten die Landgebiete und die daran angrenzenden Hoheitsgewässer, die unter der Souveränität, Oberhoheit, dem Schutz oder dem Mandat eines solchen Staates stehen, wobei Cyber-Interferenzen innerhalb dieser Parameter zu berücksichtigen sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-48218-3_8 d6ee7982af7901051f87ebdd0397a320;de;;;6.1.;;;Die Rolle von Standard-Informationsmodellen im Road Asset Management Geschäftsaktivitäten hängen vom Verständnis und der Interpretation von Informationen durch die Menschen ab. Bedeutung (Semantik) wird in die Art und Weise integriert, wie Informationen definiert und strukturiert werden. Aus semantischer Sicht reichen Informationsmodelle von Low-Level-Semantik wie Taxonomien und Datenwörterbüchern bis hin zu High-Level-Semantiken wie formalen Ontologien. Die Low-Level-Semantik-Informationsmodelle helfen Menschen, Informationen auf strukturierte Weise Bedeutung zu verleihen, während die High-Level-Semantik-Informationsmodelle für rechnergestützte Aktivitäten und die Automatisierung von Prozessen unerlässlich sind. Dieses Papier behandelt;-;-;-;https://link.springer.com/chapter/10.1007/978-0-85729-320-6_21 279e80af1e4114ebd70674a96b51a4ce;de;;;6.1.;;;Technologie zum Ausblenden digitaler Wasserzeichen für Copyright-Informationen Mit der breiten Anwendung der Informationstechnologie und der allmählichen Entwicklung des Informationsaufbaus der Armee, insbesondere mit der Entwicklung der Computernetzwerkkommunikationstechnologie, ist der Datenaustausch und die Übertragung zu einem relativ einfachen Prozess geworden. Menschen können Daten leicht über verschiedene Geräte übertragen, jedoch ist die Sicherheit ein Problem der Informationsübertragung aufgetreten ist. Die digitale Wasserzeichentechnologie entstand in den 1990er Jahren als wichtiger Zweig der Technologie zum Verbergen von Informationen. Es bestimmt das Eigentum an digitalen Produkten oder überprüft die Primitivität von digitalen Informationsinhalten durch Einbetten wahrnehmbarer oder nicht wahrnehmbarer Wasserzeicheninformationen in digitale Produkte. Zunächst werden in diesem Beitrag die grundlegende Theorie des Information Hiding und verwandte Theorien erläutert. Auf dieser Grundlage führt es die allgemeine Klassifizierung der digitalen Wasserzeichentechnologie ein und stellt verschiedene Formen digitaler Urheberrechtsinformationen vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1468-5_141 c30e26880e3dbe8e1127ba2fe00ab3ee;de;;;6.1.;;;Dichtebasierte lokale Ausreißererkennung bei unsicheren Daten Die Erkennung von Ausreißern ist eines der Hauptprobleme im Data-Mining-Bereich, das seltene Phänomene und Verhaltensweisen aufdecken kann. In diesem Artikel untersuchen wir das Problem der dichtebasierten lokalen Ausreißererkennung auf unsicheren Datensätzen, die durch einige diskrete Instanzen beschrieben werden. Wir schlagen ein neues dichtebasiertes lokales Ausreißerkonzept basierend auf unsicheren Daten vor. Um Ausreißer schnell zu erkennen, wird ein Algorithmus vorgeschlagen, der nicht die Entfaltung aller möglichen Welten erfordert. Die Leistungsfähigkeit unserer Methode wird durch eine Reihe von Simulationsexperimenten verifiziert. Die experimentellen Ergebnisse zeigen, dass unsere Methode ein effektiver Weg ist, um das Problem der dichtebasierten lokalen Ausreißererkennung auf unsicheren Daten zu lösen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08010-9_9 3a0ddf0e59a3fb92ebcf4787326f7891;de;;;6.1.;;;Multimodale Datenfusion in heterogenem Text-Bild-Diagramm für Social-Media-Empfehlung Jeden Tag werden Millionen von Texten, Bildern, Audios, Videos und anderen Informationen mit unterschiedlichen Modalitäten in den sozialen Medien veröffentlicht. Diese multimodalen Daten bieten reichlich Ressourcen für Informationsempfehlungen. In diesem Beitrag wird eine neue Methode basierend auf multimodaler Datenfusion für eine effektivere Empfehlung in sozialen Medien vorgeschlagen. Zunächst wird ein heterogener Graph aus Texten und Bildern erstellt, um die Beziehung multimodaler Daten effektiv darzustellen. Anschließend wird die Beziehung multimodaler Daten auf Basis von Graph-Clustering fusioniert, um die Qualität der Social Media-Empfehlung zu verbessern. Schließlich wird die multimodale Social-Media-Informationsempfehlung als ein Spaziergang auf dem vorgeschlagenen heterogenen Graphen durchgeführt. Das Experiment mit Texten und Bildern von Microblogs zeigt, dass die Empfehlung von Social Media mit multimodaler Datenfusion besser ist als die mit einer einzigen Modalität.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08010-9_12 6e8ef28c5798624502c0c018b6ab0296;de;;;6.1.;;;Stand und Trends von Machine-Learning-Ansätzen in der Wirtschaft: Eine empirische Überprüfung Der starke Wettbewerb zwingt Unternehmen dazu, unablässig mehr Geschäftswerte aus den gesammelten Daten zu extrahieren. Der Geschäftswert aktueller volatiler Daten ergibt sich hauptsächlich aus den Bedeutungen für Markttendenzen und das allgemeine Kundenverhalten. Mit dem ständigen Drang, wertvolle Muster aus Daten zu ermitteln, ist die Analytik an die Spitze der Forschungsthemen gesprungen. Eine Hauptlösung für die Analyse in einem solchen Kontext ist „Machine Learning“ (ML). Es gibt jedoch viele Ansätze und Heuristiken des maschinellen Lernens, und die meisten von ihnen erfordern äußeres Wissen und tiefes Nachdenken über den Kontext, um die Werkzeuge angemessen zu erlernen. Darüber hinaus hat die Anwendung von Vorhersagen in der Geschäftswelt bestimmte Überlegungen, die die Effektivität von ML-Techniken stark beeinflussen, wie z. B. Rauschen, Kritikalität und Ungenauigkeit von Geschäftsdaten aufgrund der menschlichen Beteiligung an einer Vielzahl von Geschäftsaufgaben. Ziel dieses Beitrags ist es, über die Trends und den Forschungsverlauf von Machine Learning-Ansätzen im Unternehmensbereich zu informieren. Das Verständnis der Vorteile und Vorteile dieser Methoden kann bei der Auswahl der geeigneten Technik für eine bestimmte Anwendung im Voraus helfen. Der Beitrag präsentiert einen umfassenden Überblick über die relevantesten wissenschaftlichen Publikationen zu diesem Thema, wobei eine Bewertungsmethodik auf der Grundlage von geschuppten Nomenklaturen durchgeführt wird. Die Ergebnisse können Akademiker und Industrielle bei ihren Anwendungen in Geschäftsanwendungen orientieren und leiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36178-5_1 e4f3d8fdf85802b26e70bc18391df872;de;;;6.1.;;;Der Hats Simulator und Colab: Ein integriertes Informationsfusions-Herausforderungsproblem und eine kollaborative Analyseumgebung Wir präsentieren einen Überblick über unsere Arbeit in der Informationsfusion für die nachrichtendienstliche Analyse. Diese Arbeit umfasst den Hats Simulator und das COLAB-System. Der Hats Simulator ist ein parametrisiertes Modell einer virtuellen Welt, in der Hunderttausende von Agenten individuelle und kollektive Aktivitäten ausführen. Im Spiel gegen den Simulator besteht das Ziel des Analytikers darin, schädliche Agenten zu identifizieren und zu stoppen, bevor sie Terroranschläge auf simulierte Landmarken ausführen. Das COLAB-System ermöglicht es mehreren menschlichen Analysten an verschiedenen physischen Standorten, kollaborative Intelligenzanalysen durchzuführen. COLAB besteht aus zwei Komponenten: einer instrumentierten Analyse-Arbeitsumgebung, die auf einem Blackboard-System aufgebaut ist, und einer webbasierten Benutzeroberfläche, die das Autoren- und Management-Tool für Trellis-Hypothesen mit einer Abfragesprache integriert. COLAB ist in den Hats Simulator integriert, um eine vollständige End-to-End-Analyseumgebung mit anspruchsvollen Problembereichen bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/11760146_10 d0e92576018a58ff2d53bde7e15b957f;de;;;6.1.;;;Compliance und Online-Schulungen Da Ethikschulungen für Gesundheitsberufe größtenteils online erfolgen, ist die Online-Sicherheit ein wichtiger Aspekt. Vertrauenswürdige Informationstechnologen bieten wichtige aktuelle Ratschläge und Dienstleistungen im Zusammenhang mit Online-Aktivitäten. Der Schulungsinhalt wird durch Vorschriften und Richtlinien bestimmt, ebenso wie die Häufigkeit der Umschulung und deren Dokumentation. Die üblichen Trainingsziele bestehen darin, die Kompetenz zu verbessern, Compliance zu erreichen und Verhaltensweisen zu ändern. Spezialisierungen haben unterschiedliche Ausbildungsanforderungen, Ärzte benötigen eine staatlich vorgeschriebene medizinische Weiterbildung (CME), examinierte Krankenschwestern benötigen eine ähnliche Weiterbildung (CE), Personen, die an klinischen Studien beteiligt sind, müssen die Anforderungen der FDA erfüllen und Forscher benötigen eine Ausbildung in Forschung und Veröffentlichung an Menschen und Tieren Ethik.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-56090-8_6 8fec5fc467a5165950f40e86bc4147ca;de;;;6.1.;;;Forschung zum Data-Sharing-Modell basierend auf Cluster Das Rechenzentrum ist das Herzstück des digitalen Campus, und die Qualität des Rechenzentrums hängt von der Zugriffseffizienz des Datenaustauschs ab. In diesem Papier untersuchen wir die Vor- und Nachteile der drei derzeit verbreiteten Sharing-Modelle und schlagen ein auf Cluster basierendes Sharing-Modell vor, das der Realität des digitalen Campus entspricht. Durch die Gegenüberstellung und Analyse der Performance zeigt das Ergebnis, dass das Modell die Anforderungen des Data Sharing gut erfüllen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19620-6_16 d70a92e5f682ee3cd709d6d35dfc930a;de;;;6.1.;;;DSM-5 unterstützende Technologietools: Ein Überblick Um über Tools zur Unterstützung von DSM 5 zu verfügen, müssen wir zunächst mit einem Verständnis der Validität und Reliabilität psychiatrischer Diagnosen beginnen. Der Erfolg dessen, was aufgebaut werden kann, liegt in der Fähigkeit, sowohl die Gesichtsvalidität als auch die Testvalidität des diagnostischen Schemas aufrechtzuerhalten. Die Autoren beginnen dieses Kapitel mit einer Diskussion über die Entwicklung von DSM 5. Sie überlegen, wie Technologie eine genaue Diagnose und Behandlungsplanung unterstützen kann. Bei der Planung der DSM-5-Revision wurde darauf geachtet, Bedenken bezüglich früherer Ausgaben auszuräumen. Untersuchungen zur Validität und Reliabilität der DSM-IV-Diagnostikkonstrukte ergaben Probleme hinsichtlich der Test-Retest-Reliabilität. Hinzu kam die logistische Herausforderung der genauen Datenerhebung über Tausende von Patienten und mehreren Zentren, die zweckdienliche Zusammenstellung und Analyse dieser Daten und die Anwendung der neuesten Fortschritte bei statistischen Messungen der Zuverlässigkeit und Validität. Zusammenfassend lässt sich sagen, dass die logistischen Herausforderungen bei der Erstellung und Koordination eines standortübergreifenden Systems zur Erhebung und Sammlung von Daten über Tausende von Patienten und Hunderten von Anbietern, Forschungskoordinatoren und Analysten unter Beteiligung von REDCap gelöst wurden. Das technologische Werkzeug zur Unterstützung bei der Datenerfassung und eine zentrale Datenverwaltungsfunktion erhob die Psychiatrie über das alte System eines Anbieters zu einem Patienten hinaus und schuf eine Fülle von Möglichkeiten, diese Daten über die Forschung für DSM 5 hinaus zu nutzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-14109-1_10 b1a04c3511beaad1b0e100a460c4109e;de;;;6.1.;;;Datenaustausch zur Wasserqualität im bulgarisch-rumänischen Einzugsgebiet des Donaueinzugsgebiets Dieses Papier beschreibt die Notwendigkeit, die Umweltgesetzgebung der osteuropäischen Länder (EWG) mit der der westeuropäischen Länder und der Europäischen Gemeinschaft zu harmonisieren, damit die Wasserqualität und andere Daten zwischen allen Ländern ausgetauscht werden können. Die Fortschritte des Umweltprogramms für das Donaueinzugsgebiet (EPDRB), der Donauschutzkonvention (Donaukonvention) sowie der Nationalen Aktionspläne sind die wichtigsten Stützen für eine nachhaltige Entwicklung in der Region. Ein gemeinsames Handeln über die Landesgrenzen hinweg ist erforderlich. Die Grenze zwischen Bulgarien und Rumänien im unteren Teil der Donau zeigt, wie wichtig es ist, harmonisierte und gegenseitig relevante Gesetze und Vorschriften zum Schutz der Wasserqualität der Flüsse, die aus jedem Land in die Donau münden, zu schaffen und zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-2805-8_19 cc0d21c91a49a247e2d3faf7c9452237;de;;;6.1.;;;Vertrauen Sie der Vorhersage mit zeitlicher Dynamik In Open-Society-basierten Anwendungen wird in den letzten Jahren der Rückschluss auf unbekannte Vertrauensbeziehungen zunehmend Beachtung geschenkt. Die meisten existierenden Arbeiten gehen davon aus, dass Vertrauensbeziehungen statisch sind. In diesem Papier beziehen wir die zeitliche Dynamik in die Vertrauensvorhersage ein, indem wir die Dynamik der Benutzerpräferenzen auf zwei prinzipielle Arten modellieren. Erste Experimente an einem realen Datensatz werden durchgeführt und die Ergebnisse zeigen die Wirksamkeit der vorgeschlagenen Modelle.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08010-9_72 e77ca4183dbaa5b2129029adcfae6f7c;de;;;6.1.;;;Führung und die Rolle von Informationen für Innovation, Sicherheit und wissensbasiertes Management Informationsmanagement ist ein wichtiger Faktor für Organisationen – ebenso wichtig wie Menschen, Kapital und Technologie. Die in diesem Artikel vorgestellten Forschungsergebnisse, die auf einer explorativen Studie der Autoren im Rahmen des Forschungsprojekts an der South-West University „Neofit Rilski“, Blagoevgrad, Bulgarien im Jahr 2016, basieren, geben Anlass zu der Annahme, dass die Kreativität von Managementprozessen nicht reflektiert wird nur in der Fähigkeit von Führungskräften, innovative situative Ansätze umzusetzen, sondern untergeordnetes Wissen für die Anwendung solcher Ansätze. Wir gehen davon aus, dass das Management von Informationen erst dann zum kreativen Management wird, wenn es auf relevantem Wissen basiert. Der gesamte Lebenszyklus von Informationen – ihre Existenz, Methoden der Sammlung, Klassifizierung, Speicherung, Verteilung, Nutzung usw. enthält das Potenzial für Kreativität und Innovation dient als Wissenswerkzeug. Wir argumentieren, dass Führung und wissensbasiertes Management mit der Unsicherheit jeglicher Art unvereinbar sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-60372-8_36 ab3b873878730d51073bc772f235339b;de;;;6.1.;;;Datenbewusste Servicechoreografien durch transparenten Datenaustausch Unser Fokus in diesem Beitrag liegt darauf, die Entkopplung von Datenfluss, Datenaustausch und -management vom Kontrollfluss in Servicekompositionen und Choreographien durch neuartige Middleware-Abstraktionen und -Realisierungen zu ermöglichen. Dies ermöglicht es uns, den Datenfluss von Choreografien Peer-to-Peer-Weise entkoppelt von ihrem Kontrollfluss durchzuführen. Unsere Arbeit ist motiviert durch die zunehmende Bedeutung und den geschäftlichen Wert von Daten in den Bereichen Geschäftsprozessmanagement, wissenschaftliche Workflows und Internet der Dinge, die alle von den jüngsten Fortschritten in Data Science und Big Data profitieren. Unser Ansatz umfasst einen Anwendungslebenszyklus, der den Datenaustausch und das Management von Natur aus als erstklassiger Bürger einführt und die Funktionen und Artefakte definiert, die für einen transparenten Datenaustausch erforderlich sind. Darüber hinaus stellen wir eine Architektur des unterstützenden Systems vor, die die Middleware Transparent Data Exchange enthält, die den Datenaustausch und das Management im Auftrag von Servicechoreographien ermöglicht und Methoden zur Optimierung des Datenaustauschs bei deren Ausführung bereitstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-38791-8_20 78fc6cd01c6887af61169533c8438ca3;de;;;6.1.;;;Hindernisse für die Erbringung von E-Government-Diensten in Entwicklungsländern: Der Fall Iran Ähnlich wie heute viele Industrie- und Entwicklungsländer verändert der Iran seine Bereitstellung öffentlicher Dienstleistungen durch eine Reihe von Projekten der elektronischen Regierung. Fast 80 % dieser Projekte stehen im Zusammenhang mit der Bereitstellung elektronischer Dienste. Die Realisierung und Weiterentwicklung dieser Projekte stellt aufgrund einer Vielzahl von technischen und nichttechnischen Barrieren, die eine erfolgreiche Einführung und Ausweitung von E-Government im Iran behindern, eine große Herausforderung dar. Ziel dieser Forschung ist es, die Hindernisse für E-Service-Entwicklungsprojekte im Iran zu untersuchen und zu analysieren. Die Forschung basiert auf Primärdaten, die aus elf halbstrukturierten Interviews mit hochrangigen Interessenvertretern in iranischen E-Government-Projekten gesammelt wurden, und auf Sekundärdaten aus Regierungsberichten. Die Interviews konzentrierten sich auf vier Arten von Hindernissen für Projekte zur Erbringung elektronischer Dienste, wie sie in der Literatur beschrieben werden. Dazu gehören strategische, technologische, politische und organisatorische Hindernisse. Basierend auf den Ergebnissen der durchgeführten Interviews folgt eine Diskussion, in der versucht wird, die Barrieren in jeder Kategorie einzuordnen und die Beziehungen zwischen ihnen zu identifizieren. Diese Analyse kann politischen Entscheidungsträgern im Iran helfen, die Bedeutung jeder Art von Barriere in Bezug auf aktuelle und zukünftige Projekte zur Bereitstellung elektronischer Dienste zu verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-2739-2_24 47ab21268c73631d7914ed3e7fcf65ba;de;;;6.1.;;;GLAM-Metadaten-Interoperabilität Sowohl digitalisierte als auch Born-Digital-Bilder sind ein wertvoller Bestandteil der Sammlungen des kulturellen Erbes in Galerien, Bibliotheken, Archiven und Museen (GLAM). Es wurden Anstrengungen unternommen, um diese verteilten Ressourcen zu aggregieren. Um die Interoperabilität und den optimalen Abruf digitaler Bilder zu gewährleisten, sind eine qualitativ hochwertige und konsistente Metadatenpraxis in diesen Institutionen erforderlich. Dieser Beitrag berichtet über eine Studie, die Interviews mit Mitarbeitern von zehn Institutionen aus dem GLAM-Sektor in Neuseeland umfasst, die für die Erstellung von Metadaten für digitale Bilder verantwortlich sind. Ziel ist es, zu verstehen, wie GLAM-Institutionen Metadaten für ihre Bildsammlungen erstellt haben, um den Zugang und die Interoperabilität (sofern vorhanden) zu erleichtern, und die Gründe für ihre Praxis sowie die Faktoren, die die derzeitige Praxis beeinflussen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13654-2_17 67fb8a80fce8a2ad250cb71af449408c;de;;;6.1.;;;Plattform-AIML Das Platforming von AI/ML (Artificial Intelligence/Machine Learning) im Kontext dieses Buches umfasst die Implementierung aller Komponenten, die für die Entwicklung und Bereitstellung künstlicher Intelligenz auf Basis von Machine Learning unter Nutzung von Kubernetes erforderlich sind. In diesem Kapitel werden spezifische Technologien verwendet, um allgemeine Konzepte zu veranschaulichen, von der Verteilung und Verwaltung von Datenerfassungsanwendungen auf IoT-Geräten und ETL-Vorgängen bis hin zum Erstellen und Trainieren von Machine Learning-Modellen mit lokalen GPUs und der Bereitstellung von inferenzbasierter künstlicher Intelligenz in einer verteilten Cloudumgebung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-5611-4_11 eeb46739f5ac4badc584156e8e9f4e98;de;;;6.1.;;;Skalierbarer und datenschutzschonender Datenaustausch basierend auf Blockchain Mit der Entwicklung der Netzwerktechnologie und des Cloud Computing wird die gemeinsame Nutzung von Daten immer beliebter, und viele Wissenschaftler haben eingehende Forschungen durchgeführt, um ihren Erfolg zu fördern. Da der Umfang der gemeinsamen Nutzung von Daten zunimmt, ist der Schutz der Privatsphäre zu einem heißen Thema in der Forschung geworden. Darüber hinaus werden die Daten bei der gemeinsamen Nutzung von Daten in der Regel von mehreren Parteien verwaltet, was neue Herausforderungen beim Schutz der Privatsphäre dieser Daten mit mehreren Parteien mit sich bringt. In diesem Papier schlagen wir ein vertrauenswürdiges Schema zur gemeinsamen Nutzung von Daten vor, das Blockchain verwendet. Wir verwenden Blockchain, um zu verhindern, dass die geteilten Daten manipuliert werden, und verwenden das Paillier-Kryptosystem, um die Vertraulichkeit der geteilten Daten zu gewährleisten. Im vorgeschlagenen Schema können die gemeinsam genutzten Daten gehandelt werden und die Transaktionsinformationen werden durch die Verwendung der (;-;-;-;https://link.springer.com/article/10.1007/s11390-018-1840-5 7384025bc85c0d672f04f23087556c24;de;;;6.1.;;;Ein internationaler Vergleich der Struktur nationaler Auslandsmarktbearbeitungsstrategien Der Zweck dieses Artikels ist es, die Struktur der ausländischen Marktdienstleistungsstrategien einer Reihe der weltweit führenden Handelsnationen zu vergleichen. Der gesamte Auslandsumsatz (TFS) einer Nation setzt sich aus ihren Exporten zusammen (;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-26646-3_13 5681850d19c7bfadb9ec51b9c49f467c;de;;;6.1.;;;Crisp Clustering-Algorithmus für die Quantisierung von 3D-Georäumvektordaten In den nächsten Jahren wird erwartet, dass 3D-Daten ein fester Bestandteil von Geodaten sein werden. Fragen zum 3D-Geodatenmanagement befinden sich jedoch noch im Forschungsstadium. Eines der Probleme ist die Leistungsverschlechterung beim 3D-Datenabruf. Somit ist für eine effiziente Datenkonstellation eine praxisgerechte 3D-Indexstruktur erforderlich. Aufgrund seines Rufs und seiner Einfachheit hat R-Tree zunehmende Aufmerksamkeit für das Management von 3D-Geodatendatenbanken erhalten. Der Übergang seiner Struktur von 2D zu 3D hatte jedoch zu ernsthaften Überschneidungen zwischen den Knoten geführt. Überlappende Knoten treten auch während des Aufteilungsvorgangs des überflogenen Knotens auf;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12181-9_5 acd4e0b17844d7c2b99b78088d9e0f2a;de;;;6.1.;;;Aufstieg und Erfolg des Strichcodes: Einige Lehren für Finanzdienstleistungen Dieser Artikel untersucht kritisch die Analogie zwischen dem Strichcode und der Standardisierung von Daten und Kommunikation in Finanzdienstleistungen, erzählt die Geschichte des Strichcodes und erwägt, welche Lehren dieser für die Regulierung und das Management von Finanzunternehmen bietet. Die anfängliche Entwicklung und Einführung des Barcodes verlief langsam und erforderte ein Jahrzehnt, bevor das Barcode-Scannen am Point-of-Sale weltweit voll aufkam und noch länger für die vollständige Anwendung in der globalen Lieferkette. Diese Erfahrung zeigt, dass selbst erhebliche wirtschaftliche und geschäftliche Vorteile keine schnelle Einführung effizienzsteigernder technologischer Innovationen gewährleisten. Dies erfordert Anreize für die Übernahme, und diese können schwach bleiben, bis ein nachweisbarer Business Case für eine Veränderung entsteht. Ein solcher Fall kann für eine ähnliche Standardisierung bei Finanzdienstleistungen schwierig sein, insbesondere wenn die Annahme als förderlich für den Abbau von Marktzutrittsschranken und die Stärkung des Wettbewerbs gilt.;-;-;-;https://link.springer.com/article/10.1057/jbr.2013.16 1a77704bdd5527a91db000a63d40e32f;de;;;6.1.;;;Migration von Softwaresystemen zu Cloud-nativen Architekturen für mittelständische Softwareanbieter Unabhängige Softwareanbieter (ISVs) stehen häufig vor der Notwendigkeit, ihre Softwareprodukte als Software-as-a-Service (SaaS)-Lösungen in die Cloud zu migrieren. Wir dokumentieren und bewerten vier Fallstudien unter Berücksichtigung verschiedener Faktoren, die die jeweiligen Unternehmen bei einem Cloud-Migrationsprozess berücksichtigen müssen. Wir betrachten Migrationsprojekte als Software-Re-Engineering-Aktivität, die Projektplanung, Cloud-Architekturdesign und Architekturtransformation umfasst. Speziell für Softwareanbieter eröffnet eine Cloud-Migration Chancen wie die Möglichkeit, ihre Software durch ein Re-Engineering ihrer Produktarchitektur zu modernisieren. Kleine und mittlere Unternehmen (KMU) verfügen jedoch häufig nicht über das erforderliche Cloud-Know-how, um eine Cloud-Migration zu planen und durchzuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-51963-0_39 b1b6b029f89e81e80c211c0660b21a41;de;;;6.1.;;;Informationssicherheit in der Lieferkette: Neue Herausforderungen in der Telekommunikationsbranche Angesichts der Auswirkungen der weit verbreiteten RFID-Implementierung im modernen Supply Chain Management besteht ein Bedarf an einem Bewusstsein für neu auftretende Sicherheitsbedrohungen und wirksame Selbstschutzmechanismen gegen Systemausfälle und Angriffe. Das Ziel dieses Kapitels ist es, die aufkommenden Herausforderungen der Informationssicherheit im Zusammenhang mit RFID-Anwendungen in der Telekommunikationsindustrie zu identifizieren. Mit politischen Entscheidungsträgern und Telekommunikationsbetreibern als Zielgruppe präsentiert dieses Kapitel einen konzeptionellen Rahmen für die Herangehensweise an Risikomanagementaktivitäten in Bezug auf Auto-ID/RFID-Anwendungen mit einem umfassenden und zeitgemäßen Verständnis von Informationsressourcen, Ökosystembedrohungen und Schwachstellen, die in ihre erweiterten Lieferketten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27914-5_10 9198096eb869379aa3cce70c8a9f97a6;de;;;6.1.;;;Eine Studie zu Big Data und ihren Herausforderungen Big Data ist ein aufstrebender Strom. Wir befinden uns in einem Datensee, dessen Intensität kontinuierlich zunimmt. Mit dem schnellen Wachstum vielversprechender Anwendungen wie soziale Medien, Web, mobile Dienste und andere Anwendungen in verschiedenen Organisationen gibt es ein schnelles Datenwachstum. So entsteht der Begriff „Big Data“. Datenanalyse, Abfrage, Speicherung, Abruforganisation und Modellierung sind die damit verbundenen grundlegenden Herausforderungen. Diese Herausforderungen ergeben sich aus der Tatsache, dass Big Data komplex ist. In diesem Papier behandeln wir die oben genannten Probleme und viele weitere, um die Engpässe zu erkennen. Wir glauben jedoch, dass eine entsprechende Forschung in Big Data zu einer neuen Welle von Fortschritten führen wird, die den Markt und die zukünftigen Analyseplattformen, Dienstleistungen sowie Produkte revolutionieren und alle Herausforderungen meistern wird.;-;-;-;https://link.springer.com/article/10.1007/s41870-018-0185-1 22fd311fdf76c516c8cada0e4c535263;de;;;6.1.;;;Optimierer und Scheduling für die Community Data Warehouse Architektur In der heutigen, mit dem Internet verbundenen, datengesteuerten Welt wächst die Nachfrage nach leistungsstarken Datenmanagementsystemen zunehmend. Das Data Warehouse (DW)-Konzept hat sich von einem zentralisierten lokalen Repository zu einem umfassenderen Konzept entwickelt, das einen Community-Dienst mit einzigartigen Speicher- und Verarbeitungsfunktionen umfasst. Diese Popularität hat zum Erscheinen neuer DWarchitectures und Optimierungen geführt. In diesem Kapitel schlagen wir zwei wichtige, miteinander verbundene Enabler-Technologien für diese Vision vor: einen parallelen Abfrageoptimierer, der Abfragen in jedem parallelen DW unabhängig vom zugrunde liegenden Datenbankmanagementsystem (DBMS) optimieren kann, und einen Scheduling-Ansatz für Grid-DWs, der entscheidet, in welcher Grid-Site eine Abfrage ausgeführt werden soll. Wir beweisen experimentell, dass die Ansätze dem Community Data Warehouse ermöglichen, effizient zu arbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02196-1_2 6fafccb7a817d3cd02c61ccc378bd167;de;;;6.1.;;;Secure Privacy Conserving Provable Data Possession (SPC-PDP)-Framework Die beharrliche Parade modernster, aufkeimender digitaler Technologien stört das reibungslose digitale Ökosystem des Gesundheitswesens und warnt uns davor, es präventiv zu verwalten, da Anpassung und Überleben des Stärkeren eine erwiesene Tatsache sind und wir brauchen and sich an die veränderte digitale Landschaft des Gesundheitswesens zu gewöhnen. In diesem Papier werden die verschärften Besorgnisse über die Cloud diskutiert, wobei der Schwerpunkt auf Integritäts- und Datenschutzlösungen liegt, die nützlich sind, um die Auswirkungen von Cloud-Computing-Technologien für das Gesundheitswesen zu erreichen. Eine allumfassende Würdigung der korrelierten aktuellen Forschungsarbeiten zu Provable Data Possession (PDP) beleuchtet den einstigen aktuellen Stand, die Forschungsherausforderungen und die zukünftige Ausrichtung der PDP-basierten Datenintegrität im Gesundheitswesen. Das Gebot der Stunde ist ein System, das als externer Prüfer hilft, die ausgelagerten Gesundheitsdaten des Benutzers in der Cloud zu prüfen, ohne die Weisheit des Gesundheitsdateninhalts. Die Beiträge in diesem Papier sind (1) eine umfassende Analyse der modernen Datenschutz-Schutz-PDP-Datenintegritätsschemata, (2) ein vorgeschlagener neuartiger generischer Unterstützungsrahmen, der nützlich ist, um gespeicherte Gesundheitsdaten abzuschirmen, eine Authentifizierung in der Cloud-Umgebung bereitzustellen, die , skalierbar und effizient ist, (3) Bereitstellung des Secure Privacy Conserving Provable Data Possession (SPC-PDP)-Frameworks. Die Ergebnisse bestätigen, dass das vorgeschlagene SPC-PDP-Framework sicheres Auditing kompetent durchführen und die bisherigen übertreffen kann. Das SPC-PDP-Framework ist ohne Zweifel eine vielversprechende Lösung für die Herausforderungen, die aufgrund der hochmodernen Verbesserungen der digitalen Technologie im Gesundheitswesen entstehen. Last but not least bietet dieses Papier auch einen Blick aus der Vogelperspektive auf die zukünftigen Richtungen der sicheren und datenschutzwahrenden Datenintegrität.;-;-;-;https://link.springer.com/article/10.1007/s10257-019-00417-8 70029c1ee44130c30f904b71fb2fe5c8;de;;;6.1.;;;Globalisierung der Sicherheitsabschnitte des Periodic Safety Update Report Die jüngste Umsetzung der E2C-Leitlinien der Internationalen Harmonisierungskonferenz war ein wichtiger Schritt zur Globalisierung der Aktivitäten der Abteilungen für Arzneimittelsicherheit. Auch wenn viele Details noch nicht geklärt sind, ist das Hauptziel dieser Initiative klar: die Erstellung und weltweite Einreichung standardisierter regelmäßiger Überprüfungen der Sicherheitsbilanz eines vermarkteten Produkts. Dieser Artikel stellt eine Strategie zur Integration von Suréillance-Aktivitäten und epidemiologischen Prinzipien in die periodische Sicherheitsberichterstattung (PSUR) vor, während gleichzeitig die regulatorischen Anforderungen der ICH E2C-Richtlinien erfüllt werden. Ein schrittweiser Ansatz bei der PSUR-Erstellung, Interpretationen kritischer Unterabschnitte der ICH E2C-Richtlinien und spezifische Aspekte der US-amerikanischen Berichterstattungsumgebung werden erörtert.;-;-;-;https://link.springer.com/article/10.1177/009286159903300330 bc23675a899728e518bf67236b13ccbd;de;;;6.1.;;;Damokles — Ein Datenbanksystem für Software-Engineering-Umgebungen Umfassende Software-Engineering-Umgebungen bestehen aus einer Vielzahl kooperierender Tools, um die verschiedenen Phasen eines Software-Lebenszyklus zu unterstützen. Die Zusammenarbeit hängt maßgeblich von der Verfügbarkeit grundlegender Mechanismen ab, die die großen Informationsmengen konsistent verwalten. Während Datenbankkonzepte hierfür wünschenswert sind, erweisen sich aktuelle Systeme als ungeeignet.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-17189-4_107 79147694513df9f906f7e097c7457667;de;;;6.1.;;;Black Spot Programm: Australien Das australische Black Spot-Programm versteht den ganzheitlichen Ansatz der Verkehrssicherheit und zielt darauf ab, diesen durch die Untersuchung von Trends im Fahrer- und Kollisionsverhalten zu bekämpfen. Hochrisikostandorte, die als Hochrisiko-, Gefahren- oder Black Spots bezeichnet werden, werden identifiziert. Dementsprechend sind Black-Spot-Projekte Maßnahmen zur Straßenverbesserung, die sich darauf konzentrieren, die Zahl der Verletzten an diesen bestimmten Orten in einem Straßennetz mit den kostengünstigsten Mitteln zu reduzieren. Typischerweise konzentrieren sich Black Spot-Programme auf Reduktionsfaktoren wie feststehende Objekte am Straßenrand, die Fahrspuren verletzen (große Bäume, Brückenwiderlager, Masten usw.), nicht versiegelte Seitenstreifen, hohes Verkehrsaufkommen und minimale Verkehrskontrolle, schlechte Sicht und Fußgänger (Streifens Einkaufszentren, Schulkreuzungen, Haltestellen für Schulbusse usw.). Die Bewertungen der Wirksamkeit des Programms basierten auf einer Vorher-Nachher-Bewertung der Behandlung mit schwarzen Flecken. Vergleicht man die Geschichte einer Absturzstelle nach der Behandlung mit der erwarteten Absturzgeschichte, wenn keine Behandlung durchgeführt wurde, ergab der Kosten-Nutzen-Standard des Black Spot-Programms einen Nettowert von 1,3 Milliarden US-Dollar. Insgesamt hat das Programm schätzungsweise 32 Todesfälle und 1539 schwere Verletzungen aufgrund von Unfällen über einen Zeitraum von 3 Jahren verhindert. Dies führt zu einer Reduzierung der Unfallzahlen um 31 % in den Hauptstädten und um 48 % in den Regionen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-27419-1_20 8771a2da61008f3b232b6dbc3b49f49f;de;;;6.1.;;;Auf dem Weg zu skalierbaren Architekturen für Clickstream Data Warehousing Click-Stream-Data Warehousing hat sich für Handelsunternehmen zu einer gewaltigen Herausforderung für das Informationsmanagement und die Verarbeitung entwickelt. Herkömmliche Lösungen, die auf kommerzieller DBMS-Technologie basieren, leiden oft unter schlechter Skalierbarkeit und großen Verarbeitungslatenzen. Eines der Hauptprobleme besteht darin, dass Clickstream-Daten von Natur aus auf verteilte Weise gesammelt werden, aber im Allgemeinen werden diese verteilten Clickstream-Protokolle kollationiert und stromaufwärts in einem zentralisierten Datenbankspeicher-Repository verschoben, was zu Speicherengpässen führt. In diesem Papier schlagen wir ein Design eines Ad-hoc-Retrieval-Systems vor, das für Click-Stream-Data Warehouses geeignet ist, in dem die Daten verteilt bleiben und Datenbankabfragen neu geschrieben werden, um gegen die verteilten Daten ausgeführt zu werden. Das Umschreiben von Abfragen beinhaltet keine zentrale Kontrolle und ist daher hoch skalierbar. Die Eliminierung der zentralisierten Kontrolle wird durch die Unterstützung einer eingeschränkten Teilmenge von SQL erreicht, die für die meisten Clickstream-Datenanalysen ausreichend ist. Auswertungen, die sowohl mit synthetischen als auch mit realen Daten durchgeführt wurden, belegen die Tragfähigkeit dieses Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75512-8_12 2e0bee1f2efd8324d5d653e4be570e8c;de;;;6.1.;;;Design und Implementierung des Home-Based Cooperative Cache für PVFS In letzter Zeit wurde viel über Cluster-Computing geforscht, um eine hohe Leistung zu erzielen, indem kostengünstige PCs verwendet werden, die mit Hochgeschwindigkeits-Verbindungsnetzwerken verbunden sind. In vielen Forschungsgebieten wurden viele verteilte Dateisysteme entwickelt. In vielen verteilten Dateisystemen bietet PVFS (Parallel Virtual File System) Benutzern eine hohe Bandbreite durch Strippen von Daten über I/O-Server. In PVFS gibt es keinen Dateisystem-Cache. Für einen neuen Dateisystem-Cache für PVFS haben wir einen kooperativen Cache für PVFS (Coopc-PVFS) entworfen und implementiert. Da das zuvor entwickelte Coopc-PVFS ein hint-basierter kooperativer Cache ist, liest/schreibt ein Cache-Manager Dateien mit ungefähr korrekten Informationen, sodass er einen geringen Lese-/Schreib-Overhead hat. Und frühere Studien zum kooperativen Cache konzentrieren sich nur auf freigegebene Lesedaten und kümmern sich nicht um die Schreibleistung. In diesem Papier beschreiben wir das Design und die Implementierung des home-based Coopc-PVFS, um die Lese-/Schreibleistung zu verbessern. Außerdem bewerten und analysieren wir die Leistung des homebased Coopc-PVFS im Vergleich zum PVFS und zum hint-basierten Coopc-PVFS.;-;-;-;https://link.springer.com/chapter/10.1007/11428862_56 86d01518d6b5d7bf84d11989aae5c51a;de;;;6.1.;;;Anwendung eines LIMS in einem pharmazeutischen Wirkstoffmetabolismus- und Pharmakokinetiklabor Eine der ersten großen Auswirkungen der gängigen kommerziellen Laborinformationsmanagementsysteme (LIMS) waren konventionelle Chemielabore, die Proben aus einer Form der Prozesschemie anhand einer Spezifikation analysieren, gefolgt von der Erstellung eines Analysezertifikats auf der Grundlage der Ergebnisse dieser Analyse und anschließende Freigabe dieser Probe zur weiteren Verwendung [1]. In solchen Fällen ist die Analyse einer bestimmten Probe im Allgemeinen unabhängig von der Analyse anderer Proben, die gleichzeitig analysiert werden. Dies bedeutete, dass die LIMS-Datenbanken sehr stark proben- und spezifikationsorientiert waren und wenig oder keine Funktionalität zur Verfügung gestellt wurde, um die Manipulation von Chargen verwandter Proben zu ermöglichen. Mit der Zeit, als die Akzeptanz dieser Anwendungen zur Tatsache geworden ist, haben einige Anbieter Versuche unternommen, die Marktattraktivität ihrer Systeme zu erhöhen, indem sie versuchten, eine breitere Anwendbarkeit zu fördern, ohne die grundlegende zugrunde liegende Struktur ihrer Systeme zu ändern. Sie haben dies getan, indem sie Funktionen hinzugefügt haben, um diese breitere Anwendbarkeit ihres Systems zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-0615-3_4 33eb43714a966b11646d11c3d0dabd6a;de;;;6.1.;;;Ein Grid-fähiges Sicherheits-Framework für kollaborative virtuelle Organisationen In der Branche Architektur / Ingenieurwesen / Bauwesen (AEC) werden Großprojekte von Konsortien aus Unternehmen und Einzelpersonen bearbeitet, die während der Projektdauer zusammenarbeiten. Planung, Implementierung und Durchführung dieser AEC-Industrieprojekte erfordern die Bildung sicherer virtueller Organisationen (VOs), um die Zusammenarbeit zwischen ihren Mitgliedern zu ermöglichen. Die Konsortien sind dynamisch und werden für die Laufzeit des Projekts gebildet. Das Papier betont die Sicherheitsprobleme von VOs in der AEC-Industrie. Es beschreibt das Design und die Implementierung des Grid-fähigen Sicherheitsmanagementdienstes, basierend auf Globus Security Infrastructure (GSI) [8] - einer Globus-Toolkit-Komponente der Product Supplier Catalog Database (PSCD)-Anwendung, einer ActivePlan Solutions Ltd. (APSL) 1 Software zur Unterstützung der Zusammenarbeit in mehreren Konsortien.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-8139-1_44 f47030ce531ab7eb11cf0eecfef22165;de;;;6.1.;;;UAS-Verkehrsmanagement im Luftraum in niedriger Höhe basierend auf einem dreidimensionalen digitalen Luftkorridorsystem Mit der rasanten Entwicklung des unbemannten Flugsystems wird die Flugumgebung im niedrigen Luftraum immer komplexer, was einige potenzielle Sicherheitsrisiken mit sich bringt. Es hat sich eine Vielzahl von Flugverkehrsmanagement für Drohnen in geringer Höhe herausgebildet, unter denen das dreidimensionale Flugkorridorsystem eine typische Art von Überwachungsmechanismus in geringer Höhe mit künstlicher intelligenter Theorie ist. Zunächst wurde das Prinzip des dreidimensionalen Flugkorridorsystems erläutert. Dann wurde der Prozess des Flugverkehrsmanagements in niedriger Höhe auf der Grundlage des Flugkorridorsystems beschrieben, die Mainstream-Anti-Drohnen-Technologie und die Visualisierungstechnologie diskutiert und die entsprechende Regulierung für die Flugverkehrsmanagement-Plattform für die Sicherheitsindustrie in niedriger Höhe analysiert. Schließlich wurden die zukünftigen Arbeiten für Flugverkehrsmanagementplattformen auf Basis von Flugkorridorsystemen entsprechend untersucht, was für die Weiterentwicklung der Tiefsicherheitsindustrie von positiver Bedeutung ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-45099-1_14 a3369ccf4086e3ce909e1bb458d24c66;de;;;6.1.;;;Francisella tularensis novicida proteomische und transkriptomische Datenintegration und Annotation basierend auf semantischen Webtechnologien Dieses Papier fasst die Lehren und Erfahrungen aus einer Fallstudie über die Anwendung von Semantic-Web-Technologien auf die Integration von Daten von Bakterienarten zusammen;-;-;-;https://link.springer.com/article/10.1186/1471-2105-10-S10-S3 9214b243ed37a307d4ab22e2a8a3f5b5;de;;;6.1.;;;Pflegeinformatikausbildung: Eine globale Perspektive Dieses Kapitel enthält Beispiele für die Vorbereitung auf digitale Fähigkeiten für Pflegekräfte in ganz Europa, Australien und Neuseeland durch die Aufnahme von Informatik in den Pflegelehrplan. Krankenschwestern haben eine einzigartige Rolle im Gesundheitswesen, sie sind der Gesundheitsberuf, der am meisten mit dem Patienten in Kontakt steht, und als solche sammeln, speichern und verwenden sie Patientendaten als Kernfunktion ihrer Rolle. Im einundzwanzigsten Jahrhundert ist ein Arbeiten ohne Technik nicht möglich und Pflegeinformatik ist somit kein „Spezialgebiet“, sondern ein Merkmal des modernen Gesundheitsberufs, jedoch muss man erkennen, dass es einen Unterschied zwischen dem Sein gibt digital fähig und informatisch glaubwürdig. Die drei Beispiele in diesem Kapitel geben Antworten auf die Herausforderungen, die sich aus der Anerkennung der Unterschiede zwischen digitaler Leistungsfähigkeit und Glaubwürdigkeit der Informatik ergeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-53813-2_12 cef71ca7bfca2c140ae49e570fb7cc41;de;;;6.1.;;;Vertragsfakultät in Kanada: Zugang zu Informationsanfragen nutzen, um versteckte Wissenschaftler an kanadischen Universitäten aufzudecken In Kanada durchlaufen die Universitäten einen Prozess der Unternehmensgründung, bei dem Geschäftsinteressen, Werte und Praktiken einen wichtigeren Platz in der Hochschulbildung einnehmen. Ein wesentliches Merkmal dieses Prozesses war die sich ändernde Zusammensetzung der akademischen Arbeit. Zwar ist allgemein anerkannt, dass sich Universitäten stärker auf Vertragsdozenten stützen, jedoch fehlen bislang Daten, um dies im kanadischen Kontext zu belegen. Dieses Papier schließt diese Lücke durch die Berichterstattung über einen einzigartigen Längsschnittdatensatz, den ich über akademisches Personal für 18 Universitäten in Ontario erstellt habe, der durch den Zugang zu Informationsanfragen gemäß dem Freedom of Information and Protection of Privacy Act gesammelt wurde. Ich analysiere diese Daten, um zwei zentrale Fragen zu beantworten. Erstens, inwieweit hat sich die Zusammensetzung des akademischen Personals in kunstbezogenen Disziplinen an den Universitäten in Ontario verändert? Zweitens, inwieweit sind frühere Behauptungen, dass Administratoren diese Art von Daten nicht bereitstellen konnten und/oder wollten, legitim? Ich komme zu dem Schluss, dass es in der Tat einen signifikanten Anstieg der Teilzeit- und Vollzeitvertragsstellen im Vergleich zu Tenure-Stream-Positionen an Universitäten in Ontario gegeben hat. Meine Forschung legt auch nahe, dass die Zurückhaltung von Universitäten, Daten über Vertragsdozenten auszutauschen, sowohl durch politische Erwägungen als auch durch die Natur des Universitätsdatenmanagements motiviert wurde, die durch die prekäre Beziehung zwischen Universitäten und ihren Vertragsbediensteten problematischer wurde.;-;-;-;https://link.springer.com/article/10.1007/s10734-015-9867-9 a444da6378c2d552dd84303c5134aa16;de;;;6.1.;;;Erforschung und Anwendung des Sammelns und Integrierens von Informationsfragmenten basierend auf Java Das Sammeln und Sortieren der von Benutzern ausgefüllten Formularinformationen nach den Anforderungen kostet normalerweise viel Zeit. Auf diese Weise kann es zu Problemen wie einer hohen Fehlerrate und einem inkonsistenten Format kommen. Um dieses Problem zu untersuchen und zu lösen, analysiert dieses Papier einige Möglichkeiten der Datensammlung und -zusammenstellung, wobei die JavaEE-Programmierung verwendet wird, um eine adaptive Benutzervorlagenschnittstelle zu erstellen und diese mit dem vorhandenen Informationssystem zu verknüpfen, das die erforderliche Informationstabelle durch Cloud-Dienste generieren kann . Diese Forschung erreicht die Funktion der informationellen Automatisierungssammlung und -integration und bildet die Grundlage für die Datenanalyse und das Mining.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0238-5_23 e3883fbad1e7ffac9f751b34cc2b0790;de;;;6.1.;;;Die Big-Data-Auswirkungs- und Anwendungsstudie zum Aufbau eines ähnlichen Ökosystems des offenen Internets der Dinge Gegenwärtig entwickelt sich die neue Generation der Informations- und Kommunikationstechnologie, die durch das Internet der Dinge, Big Data und Cloud Computing repräsentiert wird, rasant, was die Entwicklung von Intelligenz und Ökologie durch die Integration mit anderen neuen Technologien beschleunigt. Die Mobiltelefonkommunikation, Website-Besuche, Mikroblog-Nachrichten, Video-Uploads, Produktentwicklung und wissenschaftliche Experimente sowie die allgegenwärtigen sozialen und kommerziellen Aktivitäten erzeugen alle Arten von Daten, die erklären, dass Big Data in die Produktion und das Leben der Menschen eingedrungen ist. Daher untersuchen wir, dass große Datenmengen in der Kombination von großen Datenmengen und dem Internet der Dinge einen großen Wert haben. Dieser Beitrag erläutert das neue Ökosystem des offenen Internets der Dinge, diskutiert die neuen Anwendungen, die durch die Integration von Big Data und dem Internet der Dinge entstehen, und analysiert die Auswirkungen von Big Data auf den Aufbau des offenen Internets der Dinge. Die Integration von großen Datenmengen und dem Internet der Dinge wird die menschliche Gesellschaft intelligent machen und ihre zukünftige Entwicklung ist sehr vielversprechend.;-;-;-;https://link.springer.com/article/10.1007/s10586-018-2206-z 5a6f27d71b6e1c4807aefd87a7866920;de;;;6.1.;;;Konsortium zur Analyse der Gesamtexposition: eine Querschnittsstudie zur Tabakexposition Die Gesamtexpositionsstudie war eine geschichtete, multizentrische Querschnittsstudie, die darauf abzielte, die Höhe der Biomarker der tabakspezifischen und nicht-spezifischen Exposition und des potenziellen Schadens bei erwachsenen Zigarettenrauchern in den USA (≥eine hergestellte Zigarette pro Tag über die letztes Jahr) und Nichtkonsumenten von Tabakprodukten (kein Rauchen oder Konsum von nikotinhaltigen Produkten in den letzten 5 Jahren). Die Studie wurde von einem Tabakunternehmen konzipiert und gesponsert und 2002–2003 von Auftragsforschungsinstituten durchgeführt. Es wurden mehrere Analysen des Rauchverhaltens, der Demografie und der Biomarker durchgeführt. Studiendaten und gespeicherte Bioproben wurden 2010 vom Sponsor an das Virginia Tobacco and Health Research Repository und dann 2012 an SRI International zur unabhängigen Analyse und Verbreitung übertragen.;-;-;-;https://link.springer.com/article/10.1186/s12889-015-2212-5 24fec405ab29047ba0b71a4b9553ea70;de;;;6.1.;;;Wie sich Interviews zur psychischen Gesundheit, die allein, in Anwesenheit eines Erwachsenen, eines Kindes oder beider durchgeführt wurden, auf die Berichterstattung von Jugendlichen über psychische Symptome und riskantes Verhalten auswirkt Der normative Prozess der Autonomieentwicklung in der Adoleszenz beinhaltet Veränderungen im Informationsmanagement von Jugendlichen, die typischerweise durch abnehmende Offenlegung und zunehmende Verschleierung gekennzeichnet sind. Diese Veränderungen können einen wichtigen Einfluss auf die Früherkennung und rechtzeitige Behandlung von psychischen Erkrankungen und riskanten Verhaltensweisen haben. Daher war das Ziel, unser Verständnis dafür zu erweitern, wie sich diese entwicklungsbedingten Veränderungen bei der Offenlegung von Jugendlichen auf Interviews zur psychischen Gesundheit von Jugendlichen auswirken könnten. Insbesondere schätzten wir die Auswirkungen der Anwesenheit Dritter und der Art der Anwesenheit Dritter (Erwachsener, Kind oder beides) auf die Berichte von Jugendlichen über psychiatrische Symptome, Substanzgebrauch, suizidales Verhalten und kindliche Widrigkeiten. In dieser repräsentativen Stichprobe von 3005 Jugendlichen aus Mexiko-Stadt (52,1 % weiblich), die das World Mental Health Composite International Diagnostic Interview (WMH-CIDI-A) erhielten, beeinflusste die Anwesenheit von Erwachsenen die Berichterstattung am stärksten, in ihrer Anwesenheit berichteten Jugendliche mehr über ADHS, Eltern psychische Erkrankungen und wirtschaftliche Widrigkeiten, aber weniger Panikstörung, PTSD, Drogenkonsum und -störung sowie suizidales Verhalten. Die Anwesenheit von Kindern war mit einer erhöhten Wahrscheinlichkeit verbunden, Verhaltensstörungen, Gelegenheit zum Drogenkonsum, kriminelles Verhalten der Eltern, Vernachlässigung und den Tod eines Elternteils zu melden. Obwohl Informationsmanagementstrategien für Jugendliche normativ und sogar wünschenswert sind, um emotionale Autonomie zu erlangen, können sie auch die rechtzeitige Erkennung und Behandlung oder Intervention bei psychischen Erkrankungen und riskanten Verhaltensweisen beeinträchtigen. Forschung und praktische Implikationen dieser Ergebnisse werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s10964-016-0418-1 f6a6fca08ca8a6337ea6782f84aa0f0f;de;;;6.1.;;;ActiveXML: Zusammengesetzte Dokumente zur Integration heterogener Datenquellen Wir adressieren das Problem der automatischen Zusammenstellung von XML-Dokumenten mit Daten aus mehreren Quellen und deren Präsentation für große Benutzergruppen mit unterschiedlichen Informationsbedürfnissen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45268-0_45 6d131d897fea670276c1ecd9be842777;de;;;6.1.;;;Wasserzeichen in der biomedizinischen Signalverarbeitung In jüngster Zeit hat es durch technologische Innovationen in Kommunikationsnetzen und Informationen Gesundheitsexperten auf der ganzen Welt dabei unterstützt, qualitativ hochwertige Diagnosen zu stellen und sich gegenseitig als Zweitmeinungen zu kommunizieren, indem es einen umfassenden und schnelleren Zugriff auf die elektronische Krankenakte der Patienten ermöglicht. , wie zum Beispiel medizinische Bilder. Medizinische Bilder sind aufgrund ihrer Bedeutung für Diagnose, Ausbildung und Forschung äußerst wertvoll. In letzter Zeit spielen telemedizinische Anwendungen in der Telediagnostik, Telekonsultation, Telechirurgie und medizinischen Fernausbildung eine entscheidende Rolle für die Weiterentwicklung der Gesundheitsbranche. Nichtsdestotrotz sind medizinische Bilder einem Sicherheitsrisiko ausgesetzt, wie z. B. Bilder, die manipuliert werden, um falsche Daten zu enthalten, die zu einer falschen Diagnose und Behandlung führen können. Folglich bietet die Wasserzeichenmarkierung medizinischer Bilder die obligatorische Kontrolle über den Fluss medizinischer Informationen. Es ist die typischerweise verwendete Technik zum Verbergen von Daten im Bereich der biomedizinischen Informationssicherheit und der rechtlichen Authentifizierung. Im Bereich der Telemedizin ist der Austausch von medizinischen Signalen eine sehr gängige Praxis. Die Signale werden über das Web und die drahtlosen ungeführten Medien übertragen. Die Sicherheit und die Authentizität sind aufgrund der verschiedenen Angriffe auf das Web bedenklich. Jede Art der Signalanfälligkeit in den biomedizinischen Daten ist für eine ordnungsgemäße Diagnose nicht akzeptabel. Ein Wasserzeichen wird verwendet, um das Eigentum an den ausgetauschten Daten nachzuweisen. Zur Begründung des Schutzrechts können die Logos der Krankenhäuser oder medizinischen Zentren und das elektronische Patientenzeugnis als Wasserzeichen in die biomedizinischen Signale eingefügt werden. Diese Arbeit bietet einen umfassenden Überblick über die bestehenden Forschungsarbeiten auf dem Gebiet der Wasserzeichentechniken an verschiedenen biomedizinischen Signalen. Es enthält die Entwurfs- und Bewertungsparameter, die als Richtlinie für die Entwicklung und das Benchmarking von Wasserzeichensystemen dienen. Diese Arbeit bietet auch die vergleichende Studie zwischen verschiedenen Wasserzeichenverfahren. Es behandelt verschiedene Aspekte der digitalen Wasserzeichen im medizinischen Bereich. Außerdem wurden die Eigenschaften von Wasserzeichen und verschiedene Anwendungen von Wasserzeichen vorgestellt. In der Zwischenzeit werden die Anforderungen und Herausforderungen erörtert, mit denen der Prozess der biomedizinischen Wasserzeichenmarkierung konfrontiert ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-44790-2_16 9caf54e55261626bf3b48d0d9f278f0a;de;;;6.1.;;;Verteilte groß angelegte Informationsfilterung Wir untersuchen das Problem des verteilten Ressourcen-Sharings in Peer-to-Peer-Netzwerken und konzentrieren uns auf das Problem der Informationsfilterung. In unserer Einstellung werden Abonnements und Veröffentlichungen mithilfe einer ausdrucksstarken Attribut-Wert-Darstellung angegeben, die sowohl das Boolesche als auch das Vektorraummodell unterstützt. Wir verwenden eine Erweiterung der verteilten Hash-Tabelle Chord, um die Knoten zu organisieren und Benutzerabonnements zu speichern, und verwenden effiziente Veröffentlichungsprotokolle, die den Netzwerkverkehr und die Latenz beim Filtern niedrig halten. Um unseren Ansatz zu überprüfen, evaluieren wir die vorgeschlagenen Protokolle experimentell mit Tausenden von Knoten, Millionen von Benutzerabonnements und zwei verschiedenen realen Korpora. Wir untersuchen auch drei wichtige Facetten des Load-Balancing-Problems in einem solchen Szenario und stellen einen neuartigen Algorithmus vor, der es schafft, die Last gleichmäßig auf die Knoten zu verteilen. Unsere Ergebnisse zeigen, dass die entworfenen Protokolle skalierbar und effizient sind: Sie erreichen ausdrucksstarke Informationsfilterungsfunktionen mit geringem Nachrichtenverkehr und geringer Latenz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54426-2_4 3401a345c785f8e0010b4ba14b9da355;de;;;6.1.;;;Planung einer wissenschaftlichen klinischen Studie Klinische Studien werden durchgeführt, um die Wirksamkeit und Sicherheit eines oder mehrerer Prüfpräparate (IMP) zu entdecken oder zu überprüfen. Biologische Arzneimittel, einschließlich Gentherapien, bieten bahnbrechende neue Möglichkeiten für die Behandlung von Krankheiten und Verletzungen, sind aber auch stark reguliert, und die Vorbereitung und Durchführung von Studien mit diesen Produkten kann eine logistische Herausforderung darstellen. Um eine konforme und erfolgreiche Studie zu gewährleisten, ist es wichtig, den regulatorischen Rahmen zu kennen und zu verstehen und die verfügbaren Leitliniendokumente zu kennen, die veröffentlicht werden, um die verschiedenen Interessengruppen zu beraten, wie diese Produkte sicher entwickelt, hergestellt, gehandhabt, verabreicht oder vernichtet werden können und rechtlich. Dieses Kapitel fasst die Standardanforderungen und -überlegungen zusammen, die für klinische Studien mit IMPs gelten, und beschreibt darüber hinaus zusätzliche Anforderungen für Studien mit Gentherapien oder genetisch veränderten Mikroorganismen (GMM).;-;-;-;https://link.springer.com/protocol/10.1007/978-1-4939-2727-2_16 486b5de2c43409300aee96b918a1b44f;de;;;6.1.;;;Relevanz inländischer Gerichtsentscheidungen für die Sachlage bei Investitionsschiedsverfahren Die Beziehung zwischen Investitionsgerichten und innerstaatlichen Gerichtsentscheidungen ist wichtig. Investmentgerichte müssen häufig sowohl internationales Recht als auch nationales Recht anwenden. Die Parteien können ihren Standpunkt zum innerstaatlichen Recht auf der Rechtsprechung innerstaatlicher Gerichte zur Auslegung oder Anwendung des innerstaatlichen Rechts aufbauen, manchmal im Zusammenhang mit den staatlichen Maßnahmen, die das Investitionsschiedsverfahren ausgelöst haben. Daher müssen Investitionsgerichte häufig die Relevanz ermitteln;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-981-13-5744-2_122-1 002c01ab93bcd9ca85feaad33f010a37;de;;;6.1.;;;Datenzuverlässigkeit und -qualität in Body Area Networks für das Diabetes-Monitoring Im drahtlosen Body Area Network (WBAN) haben Daten, die von verschiedenen Arten von tragbaren, invasiven, minimal-invasiven oder nicht-invasiven Sensoren erfasst werden, das immense Potenzial, zu Echtzeitentscheidungen und effektiven Gesundheitsdiensten für eine bessere Diabetesüberwachung beizutragen. Daten von geringer Qualität können irreführend sein und somit zu ungenauen Diagnosen, ineffektiven Gesundheitsentscheidungen und sogar zum Verlust von Menschenleben führen. Eine hohe Datenzuverlässigkeit und -qualität ist in WBAN von größter Bedeutung, um eine breite Systemakzeptanz und technologische Akzeptanz sicherzustellen. Basierend auf der vorhandenen Literatur zu WBAN-Systemen, Sensortechnologien und Datenqualitätsdimensionen (DQ) wird ein Rahmen vorgeschlagen, um eine hohe Datenqualität und Zuverlässigkeit in WBANs für ein effektives Diabetes-Monitoring in Echtzeit zu gewährleisten. Das Framework besteht aus einer Reihe von DQ-Dimensionen, um zu überprüfen, ob die von den Sensoren erfassten, verarbeiteten und bereitgestellten Informationen von hoher Qualität sind, damit Diabetespatienten und medizinisches Fachpersonal zuverlässige, hochpräzise Diagnosen und eine Behandlung in Echtzeit stellen können Entscheidungen. Es werden potenzielle Forschungsrichtungen zur weiteren Optimierung der Datenqualität und -zuverlässigkeit im Body Area Network (BAN) auf Sensorebene, Netzwerkebene und menschzentrierter Ebene aufgezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00865-9_4 7d8c9ce68caddad9df1ec535bfa87876;de;;;6.1.;;;Enthüllung der Einführung von Big Data in Banken: Strategie für die Implementierung einer neuen Technologie Diese Studie beschreibt den Prozess der Einführung von Big Data in drei großen brasilianischen Banken und enthüllt den Prozess der Implementierung einer neuen Technologieplattform in einem „pluralistischen Kontext“. Die Implementierung von Big Data erfordert nicht nur enorme Investitionen, sondern auch eine Verbindung zwischen den vielen Machtzentren innerhalb der Bank und eine Neudefinition von Konzepten, die einst in der Organisation vorherrschten. Die vier Momente des von der Akteur-Netzwerk-Theorie vorgeschlagenen Übersetzungsmodells – Problematisierung, Interesse, Einschreibung und Mobilisierung – werden als Elemente zur Beschreibung und zum Verständnis des Weges der Einführung von Big Data verwendet. Eine fallübergreifende Analyse enthüllt ein ähnliches Modell zur Einbindung von Big Data in den drei untersuchten Banken. Ursprünglich von einer kleinen Gruppe von Pionieren in die Bank eingeführt, wird das neue Konzept von Big Data von Studiengruppen erforscht, die gegründet wurden, um das Wissen über das Konzept und die damit verbundenen Technologien zu erweitern. Diese Pioniergruppen arbeiten dann daran, sich mit anderen Geschäftsbereichen zu vernetzen, um den Bedarf an Big Data in der Bank zu konsolidieren. Ziel dieser Studie ist es daher, die Prozessmanager innerhalb der Organisation von dem Zeitpunkt an zu verstehen, an dem sie sich der Relevanz von Big Data für ihr Geschäft bewusst wurden und wie sie Bedingungen für ihre Einbindung in die Unternehmensstrategie der Bank schaffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-62051-0_13 7b3f3160b33769cdbd47b1f4da5fd459;de;;;6.1.;;;Management der Medizinischen Informationstechnologie Dieses Kapitel führt den Leser in den wachsenden Bereich der medizinischen Informationstechnologie (MedIT) und einige Aspekte ihres Managements im Gesundheitswesen ein. Wie ein Bienenstock auf dem Höhepunkt seiner Aktivität ist MedIT in einem phänomenalen Tempo gewachsen, begleitet und beeinflusst von der Entwicklung der Informationstechnologie, die uns in den letzten Jahren des 20. Jahrhunderts überkam.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5519-3_9 fd2ecb353c440051685b8b609d327169;de;;;6.1.;;;Eine kombinierte Hyperdatenbank und Grid-Infrastruktur für Datenstrommanagement und digitale Bibliotheksprozesse Digitale Bibliotheken im Gesundheitswesen beherbergen eine von Natur aus große und ständig wachsende Sammlung digitaler Informationen. Gerade in medizinischen digitalen Bibliotheken müssen diese Informationen zeitnah analysiert und verarbeitet werden. So müssen beispielsweise Sensordatenströme, die kontinuierlich Informationen über Patienten liefern, online verarbeitet werden, um kritische Situationen zu erkennen. Dies geschieht durch die Kombination bestehender Dienste und Betreiber zu Streaming-Prozessen. Da die einzelnen Verarbeitungsschritte recht komplex sind, ist es wichtig, die Ressourcen in einem verteilten System durch dynamische Parallelisierung von Operatoren und Diensten effizient zu nutzen. Die Grid-Vision berücksichtigt bereits das effiziente Routing und die Verteilung von Service-Anfragen. In diesem Beitrag stellen wir eine neuartige Informationsmanagement-Infrastruktur auf Basis eines Hyperdatenbanksystems vor, die die prozessbasierte Zusammensetzung von Diensten und Betreibern, die für die Verarbeitung von Sensordatenströmen erforderlich sind, mit erweiterten Grid-Funktionen kombiniert.;-;-;-;https://link.springer.com/chapter/10.1007/11549819_5 80e2bcad2e60856d5b655e2bb611bcaf;de;;;6.1.;;;Ein Blockchain-basiertes forensisches Modell für die Untersuchung von Finanzkriminalität: das Unterschlagungsszenario Die Landschaft der Finanzkriminalität entwickelt sich zusammen mit der Digitalisierung von Finanzdienstleistungen. Gesetze, Vorschriften und forensische Methoden können das Wachstumstempo neuartiger Technologien nicht effizient bewältigen, was zu einer verspäteten Annahme von Maßnahmen und rechtlichen Lücken führt und böswilligen Akteuren eine fruchtbare Landschaft bietet. In dieser Hinsicht erhöhen die Funktionen der Blockchain-Technologie wie Unveränderlichkeit, Verifizierbarkeit und Authentifizierung die Robustheit der Finanzforensik. Dieses Papier bietet eine Taxonomie der vorherrschenden Finanzermittlungstechniken und einen gründlichen Stand der Technik Blockchain-basierter digitaler forensischer Ansätze. Darüber hinaus konzipieren und implementieren wir ein forensisches Untersuchungs-Framework auf Basis standardisierter Verfahren und dokumentieren die entsprechende Methodik für die Untersuchung von Unterschlagungsplänen. Die Durchführbarkeit und Anpassungsfähigkeit unseres Ansatzes kann erweitert werden und umfasst alle Arten von Betrugsuntersuchungen und regelmäßigen internen Audits. Wir bieten eine funktionale Ethereum-basierte Implementierung und integrieren standardisierte forensische Abläufe und Mechanismen zur Erhaltung der Produktkette. Schließlich diskutieren wir die Herausforderungen der symbiotischen Beziehung zwischen Blockchain und Finanzermittlungen sowie die Auswirkungen auf das Management und zukünftige Forschungsrichtungen.;-;-;-;https://link.springer.com/article/10.1007/s42521-021-00035-5 4356975e3766b3d0a600fa10b776ddb4;de;;;6.1.;;;Design und Implementierung einer Audioprodukt-Verkaufswebsite In diesem Artikel wird eine wichtige Forschung zur Entwicklung der Assoziationsregeln auf der Grundlage von Daten durchgeführt. Audioprodukte starten seit einiger Zeit schnell. Der Artikel stellt hauptsächlich den Prozess der Informationsverwaltungsplattform für Audioprodukte vor. Diese Site verwendet eine modulare Designmethode, die den Anforderungen der Benutzer und der Einfachheit der Anwendung und Wartung des Programms entspricht und in verschiedenen Teilen des Systems zwischen verschiedenen Modulen platziert ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29087-9_54 b679048f8933772c346ee806fd735f20;de;;;6.1.;;;Prozessdatenmodellierung – neue Herausforderungen für die Ausbildung von Chemieingenieuren Die Prozessgestaltung stellt Chemieingenieure vor viele Herausforderungen. Heutzutage beziehen sie sich hauptsächlich auf Kundenanforderungen bezüglich Projektlaufzeit und Kosten. Es zwingt uns, die entsprechende Designphilosophie anzuwenden. Derzeit implementieren viele Länder ein Entwurfsprozesssystem namens Building Information Modeling (BIM). Gemäß der BIM-Methodik sollte die Objektkonstruktion die 2D-Dokumentation, 3D-Modelle und die geeignete Art der Verwaltung und Weitergabe der Konstruktionsdaten berücksichtigen. Auch für Hochschulen, die Verfahrens- und Chemieingenieure ausbilden, stellt die BIM-Methodik eine Herausforderung dar, da sich die Anlagen- oder Verfahrensplanung bisher auf die Erstellung von 2D-Dokumentationen beschränkt, ohne diese verwalten und mit anderen Branchen teilen zu können. Unter Berücksichtigung von BIM ist es daher ratsam, die Möglichkeit zur Erstellung von 3D-Modellen für die Ausrüstung und die gesamten Anlagen einzuführen sowie die Verwaltung von Konstruktionsdaten hervorzuheben. In diesem Kapitel wird das Management von Konstruktionsdaten vorgestellt, das an der Fakultät für Chemische Technologie der Technischen Universität Posen im Rahmen der studentischen Konstruktionskurse in Chemie- und Verfahrenstechnik eingeführt wurde. In diesem Rahmen wurde die bisherige Konstruktionsmethode durch die Erstellung von intelligenten P&ID (2D) Schaltplänen, 3D Modellen und Prozessdatenmanagement (1D) ergänzt. Das Datenmanagement ist verbunden mit der richtigen Konfiguration der Prozessdaten, der Einführung der Konstruktionsfortschrittskontrolle (Status) und der Erstellung von Datenblättern für jede konstruierte Ausrüstung. Das Kapitel präsentiert auch die Grundlagen für den Entwurf sowie Informationen zu BIM und seiner aktuellen Implementierung in Polen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-73978-6_31 68fbdb2d9ff4bf57d67bc40cf189a142;de;;;6.1.;;;Hin zu einer Sicherheits-EC-Transaktion im Web on In diesem Artikel stellen wir den Weg zu einer Sicherheits-EC-Transaktion im Web vor. Das Internet und der elektronische Handel bieten Unternehmen jeder Größe endlose Möglichkeiten und Möglichkeiten sowie Verbrauchern Bequemlichkeit. Diese Vorteile werden nicht ohne Gefahr für Händler und Verbraucher geerntet. Wenn eine Einkaufsliste oder eine Rechnung erstellt wird, kann sie von Eindringlingen mit einigen Modifikationen infiziert werden, bevor die Unterschrift an sie angehängt wird. Wir haben ein Signaturschema vorgeschlagen, das es ermöglicht, direkt nach der Erstellung für eine Sicherheits-EC-Transaktion über das Webprotokoll im atomaren Schritt zu signieren. Wir haben gesehen, wie der elektronische Handel mit dem EC-Web-Server als Enabler dem steigenden Verbraucherwunsch nach Online-Shopping und Internet-Handel Rechnung trägt. Die Daten mit einigen Änderungen durch Eindringlinge können vom EC-Webserver oder mobilen Agenten erkannt werden. Darüber hinaus haben wir die Möglichkeit zur Wiederherstellung von Nachrichten vorgeschlagen, um die ursprüngliche Kaufliste wiederherzustellen, um die infizierten Dateien zu speichern. Die natürlichste Erweiterung unseres Protokollschemas ist der mobile Agent mit anonymer Eigenschaft für den mobilen Agenten. Der mobile Agent verwendet eine zufällige ID, um im EC Web einzukaufen. Der EC-Webserver kann überprüfen, ob eine zufällige ID legal ist oder nicht. Mit EC-Anwendungspaketen können sich der mobile Agent und der EC-Webserver aneinander festmachen. Sicherheit ist der kritische Hintergrund, der für unsere EC-Transaktion über das Webprotokoll vorhanden sein muss.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45229-4_12 5a1f15428264e04658dd657ed725612b;de;;;6.1.;;;Grid-based Data Mining und Knowledge Discovery Der zunehmende Einsatz von Computern in allen Bereichen menschlicher Aktivitäten führt zu riesigen Sammlungen digitaler Daten. Datenbanken sind überall verbreitet und werden als Aufbewahrungsort für jede Art von Daten verwendet. Techniken und Werkzeuge zur Wissensermittlung werden heute verwendet, um diese sehr großen Datensätze zu analysieren, um interessante Muster und Trends darin zu identifizieren. Wenn Daten über geografisch verteilte Standorte verwaltet werden, kann die Rechenleistung verteilter und paralleler Systeme für die Wissensermittlung in Datenbanken genutzt werden. In diesem Szenario kann das Grid eine effektive Rechenunterstützung für die verteilte Wissensermittlung in großen Datensätzen bieten. Zu diesem Zweck haben wir ein System namens;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-07952-2_2 37fac08d16f47c5d406d38c2e5b7ea43;de;;;6.1.;;;shared.value.chain: Profitables Wachstum durch nachhaltige Wertschöpfung Die Frage, wie Unternehmen Nachhaltigkeit in ihr Kerngeschäft integrieren können, gewinnt in der öffentlichen Diskussion immer mehr an Bedeutung. Um die Frage zu beantworten, sollte man bedenken, dass Nachhaltigkeit nur dann real sein kann, wenn sie aus dem Inneren einer Organisation kommt. Eine Unternehmensstrategie manifestiert sich in ihrer Wertschöpfungskette, dh. in den Produkten, die geschaffen werden, und den globalen Lieferketten, die betrieben werden. Die Wertschöpfungskette ist damit der größte Hebel für den Wandel hin zu einer nachhaltigen Zukunft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12142-0_1 b8b388d265d7e5620ed6e9979f0d4b09;de;;;6.1.;;;Portierung von Adaptive Ensemble Molecular Dynamics Workflows auf den Summit Supercomputer Molekulardynamik (MD)-Simulationen müssen sehr kleine (Femtosekunden) Integrationsschritte in der Simulationszeit benötigen, um numerische Fehler zu vermeiden. Der effiziente Einsatz von parallelen Programmiermodellen und Beschleunigern in modernen MD-Programmen stößt jetzt an Moores Grenzen für die Zeit pro MD-Schritt. Infolgedessen wird die direkte Simulation von Zeitskalen über Millisekunden hinaus nicht direkt erreichbar sein, selbst bei Exa-Skala. Konzepte aus der statistischen Physik können jedoch verwendet werden, um viele parallele Simulationen zu kombinieren, um Informationen über längere Zeitskalen zu liefern und den Simulationsraum adäquat abzutasten, während Details über die Dynamik des Systems erhalten bleiben. Die Umsetzung eines solchen Ansatzes erfordert ein Workflow-Programm, das eine anpassungsfähige Steuerung von Aufgabenzuweisungen basierend auf einer umfangreichen statistischen Analyse von Zwischenergebnissen ermöglicht. Hier berichten wir über die Implementierung eines solchen anpassungsfähigen Workflow-Programms, um Simulationen auf dem Summit IBM Power System AC922, einem Prä-Exa-Supercomputer in der Oak Ridge Leadership Computing Facility (OLCF), durchzuführen. Wir vergleichen die Erfahrungen mit Titan, dem Vorgänger von Summit, berichten über die Leistung des Workflows und seiner Komponenten und beschreiben den Portierungsprozess. Wir stellen fest, dass die Verwendung eines Workflow-Programms, das von einer Mongo-Datenbank verwaltet wird, die Fehlertoleranz, skalierbare Leistung, Aufgabenverteilungsrate und Rekonfigurierbarkeit bieten kann, die für eine robuste und tragbare Implementierung von Ensemble-Simulationen erforderlich sind, wie sie in der molekularen Dynamik mit verbesserter Abtastung verwendet werden. Diese Art von Workflow-Generator kann auch verwendet werden, um eine adaptive Steuerung von Ensemble-Simulationen für andere Anwendungen zusätzlich zu MD bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-34356-9_30 8d8a67e80a00a37dd610c79e643e5481;de;;;6.1.;;;IT-Outsourcing als strategische Partnerschaft: der Fall des britischen Finanzamts Die Literatur zu Informationssystemen (IS) und die Industriesektoren, die mit dem Outsourcing von Informationstechnologie (IT) konfrontiert sind, beginnen, IT-Outsourcing als mehr als nur ein notwendiges Unternehmen zur Beschaffung von Ressourcen zu betrachten. Stattdessen haben Unternehmen begonnen, Anbieter als ihre Partner zu betrachten, was dazu führt, dass viele Unternehmen kompliziertere Geschäfte eingehen, die sowohl vertragliche als auch informelle Fragen beinhalten. Angesichts dieser Entwicklungen hat sich sowohl für Anbieter als auch für Kunden ein wachsendes Interesse an der Bildung engerer Kunden-Lieferanten-Beziehungen entwickelt. Dieser Beitrag untersucht im Kontext einer Fallstudie drei kritische Dimensionen, die sich aus früheren Studien ergeben haben. Diese sind: was ausgelagert wird, der Vertrag und die Beziehungsdimension. Wir untersuchen auch die Prozess- und Managementfragen, die diesen Dimensionen zugrunde liegen. Die Untersuchung wird durch zwei analytische Rahmen ermöglicht, von denen einer in früheren Untersuchungen nachgewiesen wurde, der andere explorativ, aber beide wurden speziell für IT-Outsourcing-Vereinbarungen entwickelt.;-;-;-;https://link.springer.com/article/10.1057/palgrave.ejis.3000284 d293a65a040592cd2d865c93b816623b;de;;;6.1.;;;Treiber und Hindernisse für die Einführung von EDI: eine Sektoranalyse der britischen Industrie In diesem Beitrag werden die Ergebnisse von Untersuchungen vorgestellt, die die Auswirkungen des elektronischen Datenaustauschs (EDI) auf sieben britische Industriesektoren vergleichen. Die untersuchten Sektoren waren Einzelhandel, Produktion, Vertrieb, Versorgungsunternehmen, Pharmazie, Regierung und Dienstleistungen. Die Analyse konzentriert sich insbesondere auf Gemeinsamkeiten und Unterschiede im Umsetzungsprozess und untersucht die Schwierigkeiten und den Nutzen der verschiedenen Industriezweige. Darüber hinaus wird der Grad der EDI-Integration mit internen Geschäftsprozessen untersucht. Es wird ein Framework beschrieben, das auf einer Umfrage, einer Fallstudie zur erfolgreichen EDI-Implementierung und Interviews mit Dienstleistern und Anwendern basiert. Es bietet ein potenzielles Werkzeug für Praktiker, das wichtige Aspekte der EDI-Implementierung und -Integration abdeckt.;-;-;-;https://link.springer.com/article/10.1057/ejis.1996.9 8769e633a72b694c5c62a5c56baa11da;de;;;6.1.;;;Produktentwicklung und PLM-Leistungskennzahlen: Eine Fallstudie in der Modebranche Die Leistungsmessung ist einer der wichtigsten Hebel zur Steigerung der Wettbewerbsfähigkeit von Unternehmen. Modeunternehmen zeichnen sich durch die Zentralität der Produkte aus, daher sollten Entwicklung und Engineering durch geeignete Leistungsmaßnahmen überwacht und gesteuert werden. Ziel der gesamten Studie ist es, zu diskutieren, wie die Leistungsmessung den Produktentwicklungsprozess innerhalb der Modelieferkette unter Berücksichtigung auch der Beteiligung von PLM adressieren und aufrechterhalten kann. Eine Fallstudienanalyse wurde durchgeführt, um die wichtigsten Maßnahmen im Zusammenhang mit Produktentwicklung und PLM auszuwählen und zu validieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-54660-5_36 b1c9bf57927c3fec27e75ba54ef6e6cb;de;;;6.1.;;;Die Wirkung von Stilllegungsauktionen Ich studiere die jüngste kanadische Lizenzauktion für Advanced Wireless Services (AWS), bei der 40 Prozent Megahertz-Spektrum für neue Marktteilnehmer reserviert werden, um den Neuzugang zu fördern. Ich zeige, dass die Flächenstilllegung in der Tat zu einer ineffizienten Allokation führt, da ein neues Unternehmen (obwohl seine Bewertung niedriger ist als die Zahlungsbereitschaft der etablierten Anbieter) in den Markt eintreten wird. Darüber hinaus verringert dieser ineffiziente Zugang die Sozialhilfe weiter. Aber unter Umständen beweise ich, dass ein reserviertes Spektrum die Einnahmen und die Konsumentenrente des Verkäufers erhöht. Auch die Simulation liefert das gleiche Ergebnis.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23020-2_44 b4e2c5b922f71d83d211c7b092369a6c;de;;;6.1.;;;Parametrisierung der diskreten Wavelet-Transformation: Eine Anwendung zur Verbesserung der Multimedia-Copyright-Sicherheit Für Multimedia-Copyright-Anwendungen ist eine Verbesserung der Wasserzeichensicherheit dringend erforderlich. Diese Arbeit verbessert die Sicherheit des Wasserzeichen-Algorithmus, ohne die Robustheit des Wasserzeichens zu beeinträchtigen, indem die Wavelet-Filter-Parametrisierung (WPF) implementiert wird. Die Speicherorte der eingebetteten Wasserzeicheninformationen sind durch WPF geschützt. Die experimentellen Ergebnisse zeigen, dass die auf dem Wasserzeichen-Algorithmus basierende WPF-Robustheit für das zu extrahierende Wasserzeichen geeignet ist. Wir haben mit dem Daubechies 1(Haar)-Wavelet gearbeitet, aber das Experiment kann mit anderen Daubechies-Wavelets durchgeführt werden.;-;-;-;https://link.springer.com/article/10.1007/BF03549425 6f1e0167d686e49e72751a6aa3d01e84;de;;;6.1.;;;Wetterdaten speichern und über das Web verbreiten Im Rahmen eines viel größeren Projekts wurden erhebliche Fortschritte bei der Bereitstellung lokalisierter Wetterdaten für die Forschungsgemeinschaft und sogar für die breite Öffentlichkeit über das Internet erzielt. Eine Wetterstation, installiert auf dem Dach der McNair Hall auf dem Campus der North Carolina A&T State University, erfasst Wetterdaten und ein C++-Programm greift auf die Daten zu und speichert sie in einer MySQL-Datenbank. Der Zugriff auf die Daten erfolgt ab sofort über PHP und wird in verschiedenen Formen zur Verfügung gestellt. Die Daten werden täglich in festen Abständen im Web veröffentlicht. Mit KML sind Wetterstatistiken auch auf Google Earth verfügbar. Dort haben Nutzer über ein Icon am Standort des Sensors Zugriff auf die Wetterdaten, das beim Anklicken einen Link zu unserer Wetterseite anzeigt. Nutzer haben auch die Möglichkeit, berechnete Statistiken oder aktuelle Wetterdaten der letzten 24 Stunden, 7 Tage, Wochen oder sogar Monate anzuzeigen. Diese Arbeit ist zwar bedeutend, aber nur ein kleiner erster Schritt zur Nutzung von Grid-Computing- und Multiagenten-Systemen für die Echtzeit-Sensorsteuerung und das Datenmanagement in großen Sensornetzwerken.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-88483-7_40 1d45a8f6131e39a76a2be9ecc493bf13;de;;;6.1.;;;Aufbau eines IoT-Ökosystem-Frameworks Transformative Technologien haben die Arbeitsweise der Industrie in der Vergangenheit revolutioniert, nicht weil eine einzelne neue Technologie geschaffen wird, sondern weil ein Konsens über eine Gruppe bestehender und neu entstehender Technologien entsteht, der eine zusammenhängende Möglichkeit bietet, über Geschäftsinnovationen nachzudenken. Mit Technologien rund um das Internet der Dinge (IoT) stehen wir jetzt an der Schwelle zu einer solchen Transformation [1-3].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-57391-5_1 12feead66361bf24b0102509c3a9a526;de;;;6.1.;;;Datengesteuerte Analyse für personalisiertes Gesundheitswesen Das Konzept der lernenden Gesundheitssysteme (LHS) gewinnt an Bedeutung, da immer mehr elektronische Gesundheitsdaten zugänglich sind. Die Kernidee besteht darin, das Lernen aus der kollektiven Erfahrung eines Versorgungsnetzwerks zu ermöglichen, wie sie in den Beobachtungsdaten aufgezeichnet ist, um die Versorgungsqualität iterativ zu verbessern, während die Versorgung in einer realen Umgebung erfolgt. Im Einklang mit dieser Vision wurden in jüngster Zeit viele Forschungsanstrengungen der Erforschung von Methoden des maschinellen Lernens, des Data Mining und der Datenvisualisierung gewidmet, die verwendet werden können, um reale Beweise aus verschiedenen Quellen von Gesundheitsdaten abzuleiten, um eine personalisierte Entscheidungsunterstützung für die Pflege und das Pflegemanagement zu bieten . In diesem Kapitel geben wir einen Überblick über eine breite Palette von Analyse- und Visualisierungskomponenten, die wir entwickelt haben, Beispiele für klinische Erkenntnisse, die aus diesen Komponenten gewonnen wurden, und einige neue Richtungen, die wir einschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-20765-0_31 5325ab35d50a9955cc772d512c569a59;de;;;6.1.;;;Ein auf Metadaten basierendes landwirtschaftliches universelles wissenschaftliches und technisches Informationsfusions- und Service-Framework In dem Papier wurde ein auf Metadaten basierendes Rahmenwerk für landwirtschaftliche wissenschaftliche und technische Informationsfusion und Dienste eingeführt. Durch agrarwissenschaftliche und technische Informationsdatensatz-Kernmetadaten und Dienste-Kernmetadaten kann die verteilte und plattformunabhängige Informationsfusion implementiert werden, basierend auf den informationsfusionierten Ressourcen in der Basisschicht des Frameworks können viele Anwendungen entwickelt werden, wie z mobiler Informationsdienst, Sprach-Textkonverter-basierter Sprachinformationsdienst, intelligente Q & A-Anwendung usw., und die Lösung ist eine verfügbare und effektive Lösung für die Zusammenführung und Dienstleistungen von landwirtschaftlichen wissenschaftlichen und technischen Informationsressourcen, da die Lösung die Daten mit integrieren kann unterschiedliches Format aus unterschiedlichen Datenquellen, sodass die Lösung zum Aufbau der Datenschicht landwirtschaftlicher wissenschaftlicher und technischer Universalinformationsdienste verwendet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18333-1_8 cb5798e9b3f5df2f449d092b1a23c57f;de;;;6.1.;;;2-SLIDS: Eine zweistufige Linked-Storage-Struktur mit Link-abhängigen Datenfähigkeiten Die zweistufige verknüpfte Speicherstruktur (2-SLIDS) ist eine physische Organisation, die die Flexibilität der Datendefinition, wie sie durch die Speicherstruktur des ASP-Datenbearbeitungspakets bereitgestellt wird, mit der physischen Kompaktheit einer Speicherstruktur, wie sie in der IDS oder APL zu finden ist, kombiniert Datenverwaltungssysteme. Außerdem ermöglicht 2-SLIDS, dass definierte Daten- und Zeigerfelder eines Datensatzes mehreren Werten zugewiesen werden und ermöglicht die Angabe von Intrabeziehungen zwischen solchen Werten. Ein analytischer Vergleich des Speicherverbrauchs einer ASP-ähnlichen Speicherstruktur, einer APL-ähnlichen Speicherstruktur und 2-SLIDS befindet sich im Anhang.;-;-;-;https://link.springer.com/article/10.1007/BF00995735 7a3be0b52c4f9cec347e02f9ceee9979;de;;;6.1.;;;Datenanalyse: Fallstudien Die Ergebnisse der Fallstudien, Interviews und der Entwicklung von BCM-Umsetzungsrichtlinien werden in diesem Kapitel vorgestellt. Die Fallstudien werden anhand verschiedener Evidenzquellen bei der Untersuchung der BCM-Implementierung in den ausgewählten Bauunternehmen vorgestellt. Die Erkenntnisse aus den Fallstudien und Interviews wurden qualitativ analysiert, um den BCM-Umsetzungsleitfaden zu entwickeln. Elemente der Leitlinien werden in diesem Kapitel vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-5487-7_11 c2e883fb5ecb743b918a1d2f27d3bc7b;de;;;6.1.;;;Die teilweise Offenlegung digitaler Beweise in Bezug auf das in . eingebettete Instant Messaging Da das Android-Betriebssystem (OS) für Smartphones allgegenwärtig wird, nutzen immer mehr Endbenutzer die Vorteile der modernen Instant Messaging (IM)-Tools mit hoher Verfügbarkeit und agiler Mobilität. Leider missbrauchen die Cyberkriminellen oder Hacktivisten dieses hochmoderne mobile Kommunikationsgerät, um illegale Verschwörungen zu erfüllen. Der Inhalt in Bezug auf die IM ist ein kritischer Erfolgsfaktor, um einige komplizierte Fälle von Cyberkriminalität rechtzeitig zu knacken. Das Papier trägt wesentlich zur Forschungsarena von Praktikern und Forschern der digitalen Forensik (DF) bei, die die teilweise Offenlegung digitaler Beweise in einem generischen Verfahren respektieren;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-5083-8_22 b4f7f2a9ba1ec9b77763db6d84610a2d;de;;;6.1.;;;SwinDeW-C: Ein Peer-to-Peer-basiertes Cloud-Workflow-System Workflow-Systeme wurden entwickelt, um die Prozessautomatisierung von großen geschäftlichen und wissenschaftlichen Anwendungen zu unterstützen. In den letzten Jahren wurden viele Workflow-Systeme in Hochleistungs-Computing-Infrastrukturen wie Cluster, Peer-to-Peer (p2p) und Grid-Computing eingesetzt (Moore, 2004, Wang, Jie & Chen, 2009, Yang, Liu, Chen , Lignier & Jin, 2007). Eine der treibenden Kräfte ist die steigende Nachfrage nach groß angelegten Instanz- und daten-/rechenintensiven Workflow-Anwendungen (kurz: Large Scale Workflow Applications), die sowohl im eBusiness- als auch im eScience-Anwendungsbereich üblich sind. Typische Beispiele (wird in Abschnitt 13.2.1 näher erläutert) sind beispielsweise das transaktionsintensive landesweite Antragsverfahren für Versicherungsfälle, das daten- und rechenintensive Pulsarsuchverfahren in der Astrophysik. Allgemein gesprochen sind instanzintensive Anwendungen solche Prozesse, die innerhalb eines sehr kurzen Zeitraums oder gleichzeitig mit einer großen Anzahl von Instanzen sehr oft nacheinander ausgeführt werden müssen (Liu, Chen, Yang & Jin, 2008, Liu et al. , 2010, Yang et al., 2008). Daher erfordern groß angelegte Workflow-Anwendungen normalerweise die Unterstützung von Hochleistungs-Computing-Infrastrukturen (z. B. fortschrittliche CPU-Einheiten, großer Speicherplatz und Hochgeschwindigkeitsnetzwerk), insbesondere wenn Workflow-Aktivitäten selbst daten- und rechenintensiv sind. In der realen Welt werden teure Computerinfrastrukturen, einschließlich Supercomputern und Datenservern, gekauft, installiert, integriert und mit enormen Kosten von den Systembenutzern gewartet, um einer solchen Anforderung gerecht zu werden;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-6524-0_13 9492e78ac21106c66c3b5346c24415a5;de;;;6.1.;;;Rechtliche Aspekte der Bekämpfung des transnationalen Fußball-Hooliganismus in Europa „Fußball-Rowdytum“ ist ein Begriff, der nicht einfach zu definieren ist. In den Medien wurde beispielsweise bei einer Vielzahl von Vorfällen das Etikett „Rowdytum“ auf ziemlich unbestimmte Weise verwendet. Das Konzept ist breit und diffus. Aus heutiger Sicht kann man sagen, dass Fußballhooliganismus mit Massenunordnungen zu tun hat, an denen Fußballfans beteiligt sind. Dabei handelt es sich in der Regel um kriminelle Aktivitäten, die kurz vor oder nach einem Fußballspiel stattfinden. Verhaltensauffälligkeiten im Zusammenhang mit dem Fußball sind in praktisch jedem EU-Mitgliedstaat in irgendeiner Form aufgetreten. Durch die verschiedenen internationalen und europäischen Wettbewerbe, an denen sowohl National- als auch Vereinsmannschaften beteiligt sind, und den damit verbundenen Reisen vieler Fans und den damit verbundenen sozialen und oft gewalttätigen Unordnungen hat Fußball-Rowdytum ein weithin sichtbares Profil. Diese internationale Dimension hat es erforderlich gemacht, die Sicherheit im Zusammenhang mit Fußballspielen über die Landesgrenzen hinaus anzugehen. In diesem Beitrag werden die rechtlichen Maßnahmen allgemeiner Art dargestellt, die im Hinblick auf transnationales Fußball-Rowdytum ergriffen wurden. Auch einzelne Länder in Europa haben Maßnahmen zur Bekämpfung des transnationalen Fußball-Rowdytums ergriffen. In diesem Beitrag werden zu gegebener Zeit die verschiedenen Arten von internationalen Maßnahmen sowie die einschlägige Rechtsprechung des Sportgerichtshofs (CAS) und Entscheidungen der Europäischen Kommission zum Ticketing in Bezug auf Sicherheitsaspekte bei Fußballspielen behandelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-6704-852-1_10 3df7114c9fdf45e60aa381904f12c84f;de;;;6.1.;;;Fog Computing: Anwendungen und sichere Datenaggregation Mit der rasanten Zunahme von Internet of Things (IoT)-Geräten werden riesige Datenmengen generiert, die geeignete Speicher- und Analyseanwendungen benötigen. Die intelligenten Geräte verfügen jedoch nicht über ausreichende Ressourcen, wodurch die Anwendungen meist von Cloud-Servern unterstützt werden, um bedarfsgerechten und skalierbaren Speicher sowie Rechenleistung im Pay-as-you-go-Modell bereitzustellen. Trotz der breiten Nutzung von Cloud-Computing sind nur wenige Anwendungen wie Gesundheitsüberwachung, Echtzeit-Spiele und Notfallreaktionen latenzsensitiv, um direkt in der Cloud bereitgestellt zu werden. Daher hat sich Fog Computing als vielversprechende Erweiterung des Cloud-Computing-Paradigmas herausgestellt, um eine bessere Reaktionszeit zu bieten. In der Fog-Computing-Architektur führen Anwendungen eine Vorverarbeitung in der Nähe des Endbenutzers durch. Die Kombination aus Fog und Cloud kann die Erfassung großer Datenmengen, sichere Aggregation und Vorverarbeitung bewältigen und somit die Kosten für den Datentransport und die Datenspeicherung reduzieren. Beispielsweise können in Umweltüberwachungssystemen gesammelte lokale Daten an Nebelknoten aggregiert und abgebaut werden, um insbesondere für Notfälle zeitnahes Feedback zu geben. Das Kapitel stellt die Konzepte des Fog Computing zusammen mit seinen Eigenschaften vor. Darüber hinaus werden in diesem Kapitel die Anwendungen von Fog Computing in verschiedenen Domänen erläutert, gefolgt von einer Diskussion über sichere Datenaggregationsmethoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-22277-2_19 12ede1e0818ba1df3a0f318410cbeac2;de;;;6.1.;;;Gestaltung des Fachinformationssystems „Fremdsprache und Literatur“ Fachbau“ ist die wichtigste und grundlegende Aufgabe der Hochschulen, die auf dem Fachinformationsmanagement basiert. Da es für das Fach „Fremdsprache und Literatur“ keine Fachinformationssysteme gibt und die bestehenden Systeme den heutigen Anforderungen nicht vollständig gerecht werden, wird in dieser Arbeit auf der Grundlage bisheriger Studien ein Fachinformationssystem „Fremdsprache und Literatur“ entworfen, das verbindet den Arbeitsprozess der Disziplin (als Organisation) und die Besonderheiten der Disziplin (als Forschungsfeld). Die Systemfunktionen umfassen Disziplinanzeige, Disziplininformationsmanagement, Disziplinplanung, interdisziplinäres Management und Systemmanagement. Entsprechend dieser Funktionen gliedert sich das System in 2 Teile: eine Website und ein Informationsmanagementsystem, jeder Teil besteht aus 4 Basismodulen, Lehrpersonal, Talentförderung, wissenschaftliche Forschung und Sozialdienste, in denen Internationalisierung und interdisziplinäre Besonderheiten durchlaufen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-38778-5_36 55ffcae6ccdf95cefbf27e0738e7a5fc;de;;;6.1.;;;Ein End-to-End-Framework für den produktiven Einsatz von Machine Learning in Softwareanalyse- und Business-Intelligence-Lösungen Maschinelles Lernen (ML) ist heute ein integraler Bestandteil in vielen Bereichen, darunter Software Analytics (SA) und Business Intelligence (BI). Infolgedessen steigt das Interesse an maßgeschneiderten ML-basierten Softwareanalyse- und Business-Intelligence-Lösungen. In der Praxis bleiben solche Lösungen jedoch oft in einem prototypischen Stadium stecken, da der Aufbau einer Infrastruktur für Bereitstellung und Wartung als komplex und zeitaufwändig gilt. Aus diesem Grund wollen wir den gesamten Prozess strukturieren und transparenter machen, indem wir aus der vorhandenen Literatur ein End-to-End-Framework für den Aufbau und den Einsatz von ML-basierten Software-Analytics- und Business-Intelligence-Lösungen ableiten. Das Framework ist in drei iterative Zyklen strukturiert, die verschiedene Phasen im Lebenszyklus eines Modells darstellen: Prototyping, Bereitstellung, Aktualisierung. Dadurch unterstützt das Framework gezielt die Übergänge zwischen diesen Phasen und deckt gleichzeitig alle wichtigen Aktivitäten von der Datenerhebung bis zum Umschulen eingesetzter ML-Modelle ab. Um die Anwendbarkeit des Frameworks in der Praxis zu validieren, vergleichen wir es mit einer realen ML-basierten SA/BI-Lösung und wenden sie an.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-64148-1_14 85cdc4e78a17e577671026e77d4b14ec;de;;;6.1.;;;Reaktion auf systemische Risiken Dieses abschließende Kapitel fasst die Haupttrends zusammen, die systemische Risikoentwicklungen zu bestimmen scheinen, und untersucht, wie Einzelpersonen und Organisationen im Finanzsektor am besten auf diese Trends reagieren könnten. Zu den untersuchten Themen gehören (a) die Interaktion mit Aufsichts- und Aufsichtsbehörden, (b) die Verwaltung von Daten, (c) die Reaktion auf Trends bei der Risikomessung und Risikomanagementdisziplinen, (d) die interne Struktur der Risikomanagementteams und (e) die Reaktion auf Veränderungen in der Marktstruktur.;-;-;-;https://link.springer.com/chapter/10.1057/978-1-137-56587-7_8 61062243826aff84b323229ff982ce5c;de;;;6.1.;;;Thema 105: Shells, Skripting und Datenbanken Mit diesem Kapitel erreiche ich das erste Material, das unter die LPIC-1 102-Prüfung fällt – die zweite von zwei Prüfungen, die für die Linux Server Professional-Zertifizierung des Linux Professional Institute erforderlich sind. Wenn Sie dieses Buch als Leitfaden für die Prüfungsvorbereitung verwenden, besteht eine gute Chance, dass Sie gerade die 101-Prüfung bestanden haben. Glückwünsche! Wenn nicht, stecke weiter weg, du wirst es schaffen. Und wenn Sie keine Zertifizierungen anstreben, sondern nur die IT-Kenntnisse erlernen möchten, die Sie im 21. Jahrhundert brauchen, dann herzlich willkommen: Schön, dass Sie hier sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-2358-1_5 f60cfd516f6ea6611999f1321e4c3629;de;;;6.1.;;;Ein unscharfer Ansatz zur Bewertung der Zuverlässigkeit der Zuschreibungen in den archäologischen Quellen Dieser Beitrag präsentiert eine Fallstudie zum Datenmanagement und zur Verarbeitung archäologischer Informationen durch eine relationale Datenbank. Die ungewöhnliche Typologie der archäologisch analysierten „Kleinfunde“ und die spezifische Geschichte der Ausgrabungen in Phaistos und Ayia Triada (Kreta, Griechenland) haben uns zu Fragen der Datenintegrität veranlasst. Wir versuchten, das Problem der Relevanz archäologischer Quellen zu lösen, indem wir einen Zuverlässigkeitsindex auf die subjektive Interpretation archäologischer Daten anwendeten, was schließlich zur Implementierung einer Fuzzy-Methode zur Bestimmung des Unsicherheitsgrades von funktionsbezogenen Zuschreibungen führte. Die resultierende Datenbank stellt einen „Behälter der Erinnerungen“ dar, der die Verarbeitung aller typologischen und funktionalen Zuschreibungen aus beliebigen Quellen ermöglicht, ohne die Informationen zwingend vereinfachen oder verwässern zu müssen, um sie handhabbar zu machen. Das Konzept der „Zugehörigkeitswahrscheinlichkeit“ und die Mehrfachzuordnung von Quellenzuordnungen scheinen plausible methodische Wege zur Bestimmung der Zuverlässigkeit archäologischer Daten darzustellen und rechtfertigen damit die hier vorgestellte Forschung.;-;-;-;https://link.springer.com/article/10.1007/s00799-020-00284-6 7d169638631537efe2ec2e26fe142dc1;de;;;6.1.;;;Protokoll für sicheren Zugriff in mobilen Ad-hoc-Netzwerken für Notdienste mit gruppenbasiertem Zugriffskontrollmodell Die Forschung zu MANET als Plattform zur Unterstützung von Notfall- und Rettungseinsätzen wurde von vielen Forschern untersucht. In Notfallsituationen ist der Informationsaustausch zwischen den Rettern enorm wichtig. Da dieses Netzwerk jedoch auf Basis einer drahtlosen Umgebung betrieben wird, ist es anfällig für Bedrohungen und Eindringlinge. Der Informationsfluss in MANET kann abgefangen und manipuliert werden. Dies führte zu Sicherheitsproblemen, da sichergestellt wurde, dass Informationen, die zwischen Knoten in Notsituationen mit MANET Secure ausgetauscht werden, als Ziel von Sicherheitslösungen für MANETs darin bestehen, Sicherheitsdienste wie Authentifizierung, Vertraulichkeit, Integrität, Vertrauen und auch Autorisierung oder Zugriffsberechtigungen für mobile Benutzer bereitzustellen. Um dieses Problem zu lösen, wird ein Protokoll für den sicheren Zugang in Notdiensten konstruiert und im gruppenbasierten Zugangskontrollmodell (GBAC) implementiert.;-;-;-;https://link.springer.com/chapter/10.2991/978-94-91216-71-8_8 e19e98a669ae21f94ffd1659998fd072;de;;;6.1.;;;Datenanalyse Analytics kombiniert den Einsatz von Mathematik und Statistik mit Computersoftware, um aus Daten Geschäftswissen abzuleiten. Analytics kann in vier Typen unterteilt werden – beschreibend, diagnostisch, prädiktiv und präskriptiv – wie von Gartner beschrieben. Deskriptive Analytik konzentriert sich darauf, etwas zu beschreiben, das bereits passiert ist, und auf seine Ursachen hinzuweisen. Dies beinhaltet die Beobachtung historischer Daten, um die Muster oder „Beschreibungen vergangener Ereignisse“ zu unterscheiden, um durch die Implementierung durchsuchbarer Datenbanken Erkenntnisse zu gewinnen. Deskriptive Analysen, die nach wie vor den Löwenanteil bilden, hängen in der Regel von grundlegenden Abfragen, Berichten und Visualisierungen historischer Daten ab. Deskriptive Analysen werden in der Regel von herkömmlichen Business-Intelligence-Plattformen ausgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-68993-7_13 c700d9495258ca14664786ef26a1944a;de;;;6.1.;;;Übersicht über die SharePoint-Governance In diesem Kapitel stellen wir den konzeptionellen Rahmen vor, der im gesamten Buch verwendet wird, und definieren die Terminologie, die zur Beschreibung und Steuerung von SharePoint-Lösungen verwendet wird. Am Ende dieses Kapitels werden Sie den Zweck und den Prozess von Governance verstehen und hoffentlich wissen, wo Sie dazu passen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-4078-5_2 ef44471b787687bc6d7bba25cf38f124;de;;;6.1.;;;Innovationsgetriebenes IT-Enablement – ​​An der Spitze der Geschäftswertschöpfung durch IT Es ist ein weit verbreitetes und weithin anerkanntes Phänomen, dass Geschäfts- und IT-Kollegen innerhalb von Unternehmen unterschiedliche Vorstellungen von der Verwaltung und Bereitstellung von Geschäftswert durch IT haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-8803-4_14 7f9eb40ab56c5870b38b63d34cd7eef4;de;;;6.1.;;;Internationale Harmonisierung von Messungen Die Grundlage der Metrologie liegt in der Realisierung von SI-Einheiten und einem weltweit anerkannten einheitlichen Maßsystem. In diesem Zusammenhang ist es angebracht, die internationalen und nationalen Messsysteme, verschiedene zuständige internationale und indische metrologische Organisationen für wissenschaftliches, gesetzliches und industrielles Messwesen zu überprüfen und zu beschreiben. In diesem Kapitel haben die Autoren versucht, einen kurzen Überblick über den internationalen Handel und verwandte Organisationen, z. B. WTO, ISO usw., das nationale Messsystem, seine Struktur, verantwortliche Organisationen wie CSIR-NPL für wissenschaftliche und industrielle Metrologie, BARC für ionisierende Strahlung, Legal Metrology Department, Govt. of India für gesetzliches Messwesen und BIS für Dokumentarnormen und Produktspezifikationen. Sobald SI-Einheiten eingerichtet sind, besteht das nächste Ziel der NMI darin, die SI-Einheiten an Benutzer und Kunden für barrierefreien internationalen Handel, wissenschaftliche und technische Entwicklungen und akademische Aktivitäten zu verbreiten. Damit soll die nationale Qualitätsinfrastruktur wie in Kap. 2 vorgeschlagen ergänzt, gestärkt und harmonisiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8872-3_3 f806fcb7618d7cd544a903f679b5882f;de;;;6.1.;;;Die Architektur verteilter Systeme, die von autonomen Mustern angetrieben wird Der Begriff des autonomen Rechnens hat das Konzept der selbstoptimierenden, selbstheilenden und automatischen Diagnoseanwendungen eingeführt. In diesem Artikel möchten wir vorstellen, wie sich diese Idee auf den Aufbau verteilter Systeme auswirkt. Als Referenzbasis nutzen wir das im Rahmen des PROGRESS-Projekts entwickelte Datenmanagementsystem (DMS). DMS ermöglicht die Erstellung einer Grid-Umgebung, die große Datenmengen speichern kann. Die komplexe Architektur dieses Systems, das ein Modell lose gekoppelter Komponenten darstellt, erfordert einen besonderen Ansatz bei der Wartung und Verwaltung. Um diese Probleme anzugehen, haben wir die autonomen Rechenmuster in der DMS-Architektur angewendet. Unsere Lösung wurde so konzipiert, dass sie in jedem Projekt mit denselben Problemen wiederverwendet werden kann. Es kann auch als autonomer Dienst für alle anderen Anwendungen und Dienste fungieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-39388-9_5 9ee067d498b96cb58a581767e7bd0d20;de;;;6.1.;;;Agile Fertigung: Die Implikationen für die Technologiestrategie Fertigungsunternehmen agieren in einem zunehmend volatilen Geschäftsumfeld. Geschäftserfolg wird durch das Unternehmen erzielt, das seine personellen und technischen Ressourcen ständig neu organisieren kann, um bessere Produkte und Dienstleistungen vor seinen Konkurrenten zu liefern. Agilität wird Ende der 90er Jahre zum kritischen Erfolgsfaktor für produzierende Unternehmen. Dieses Papier befasst sich mit der Schaffung eines agilen Fertigungsunternehmens. Die Rolle des Informationsmanagements in einem agilen Fertigungsunternehmen wird untersucht und einige der Fallstricke werden aufgezeigt. Anschließend analysiert das Papier eine beliebte Informationsmanagementstrategie britischer Unternehmen, um ihre Transformation zu agilen Fertigungsunternehmen zu erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5915-3_19 98986a0d60302ef89fab34cd436c0c57;de;;;6.1.;;;Einführung: Militärische Effektivität verstehen Militärische Effektivität manifestiert sich auf politischer, strategischer, operativer und taktischer Ebene. Es ist ein facettenreiches Phänomen, das nur sehr schwer quantitativ zu messen ist. Diese Studie analysiert mit qualitativen Methoden die organisatorische Effektivität der finnischen Armee in der Vorkriegsvorbereitung und im Winter 1939/40 und betrachtet die militärische Effektivität als Umwandlungsprozess verfügbarer Ressourcen in Kampfkraft. Neben der Definition der Schlüsselbegriffe und der Vorstellung des konzeptionellen Rahmens werden im einleitenden Kapitel auch Primärquellen vorgestellt und zwei Literaturübersichten angeboten. Der erste umfasst die wichtigsten theoretischen und methodischen Beiträge zu verschiedenen Aspekten der militärischen Effektivität und der zweite wesentliche Erkenntnisse zur finnischen militärischen Effektivität im Winterkrieg.;-;-;-;https://link.springer.com/chapter/10.1057/978-1-137-44606-0_1 5d30321a0a972ee17d5caad3b7b467f2;de;;;6.1.;;;Imaginierte Systeme: Wie die spekulative neuartige Infomokratie eine Simulation der Beziehung zwischen Demokratie, Technologie und Gesellschaft bietet Wir reflektieren die neuartige Infomocracy als eine Möglichkeit, das Verhältnis von Demokratie, Technologie und Gesellschaft zu simulieren. Während einige davon sprechen, dass Science-Fiction die Zukunft vorhersagt, wurde ihre Vorhersagekraft in Frage gestellt. Wir glauben, dass Science-Fiction ein größeres Potenzial hat, um zu verstehen, welche Art von Welt wir von der Gegenwart aus erschaffen wollen. Ein wesentlicher Teil unserer Gestaltung der Welt, in der wir leben wollen, besteht darin, Richtlinien zu schaffen, d. h. die Festlegung von Aktionsplänen und Governance-Prinzipien für die Art und Weise, wie Menschen sich selbst und Technologie regieren. Wir bieten einen Rahmen dafür, wie Science-Fiction dazu beitragen kann, Politik zu informieren, dienen als eine Art Simulation, um Werte zu testen und normative Aussagen über Governance zu begründen und Raum für Reflexionen über das Verhältnis von Technologie und Gesellschaft zu bieten. Um diesen Rahmen zu motivieren, werden wir uns maßgeblich auf Schlüsselthemen aus dem Roman Infomocracy des Erstautors aus dem Jahr 2016 stützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-70099-7_17 0a61579f4073661bcbc80dc50b18887b;de;;;6.1.;;;Modellbasiertes Data Engineering für Webdienste Der Einsatz der Extensible Mark-up Language (XML) und Webservices ermöglichte eine neue Ebene der Interoperabilität für heterogene IT-Systeme. XML ermöglicht zwar die Trennung von Datendefinition und Dateninhalt, stellt jedoch nicht sicher, dass die ausgetauschten Daten vom empfangenden System korrekt interpretiert werden. Dies motiviert das Datenmanagement, eine eindeutige Definition von Datenelementen für den Informationsaustausch zu unterstützen. Die Verwendung eines gemeinsamen Referenzmodells verbessert diesen Prozess und führt zu Model-based Data Engineering (MBDE). Die Ergebnisse können sofort verwendet werden, um Vermittlungsschichten zu konfigurieren, die Dienste in eine serviceorientierte Gesamtarchitektur integrieren. Letztendlich muss das Ziel darin bestehen, die Anforderungen an den Informationsaustausch, Kontexte und Einschränkungen von Webdiensten in Metadaten zu beschreiben, die es intelligenten Agenten ermöglichen, diese Entwicklungsschritte ohne menschliche Unterstützung durchzuführen. Dieses Kapitel beschreibt den aktuellen Stand der Technik von MBDE und seine Beziehung zu Service Oriented Architectures (SOA) im Allgemeinen und Web Services im Besonderen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79140-9_6 d5326620374da7b630a9985c276b2dca;de;;;6.1.;;;Der strategische Geschäftswert von Big Data Die meisten Informationen über Big Data haben sich auf die technische Seite des Phänomens konzentriert. In diesem Kapitel wird argumentiert, dass die geschäftlichen Auswirkungen der Nutzung von Big Data entscheidend sind, um einen Wettbewerbsvorteil zu erzielen. Um dieses Ziel zu erreichen, werden die organisatorischen Auswirkungen von Big Data auf den heutigen Geschäftswettbewerb und die Innovation analysiert, um verschiedene Strategien zu identifizieren, die ein Unternehmen implementieren kann, sowie den potenziellen Wert, den Big Data für Organisationen in verschiedenen Wirtschaftssektoren bieten kann, und verschiedenen Bereichen innerhalb solcher Organisationen. Ebenso werden verschiedene Big-Data-Strategien beschrieben, die ein Unternehmen für seine Entwicklung umsetzen kann, sowie Erkenntnisse darüber, wie Unternehmen wie Unternehmen, gemeinnützige Organisationen und Regierungen Daten nutzen können, um Erkenntnisse zu gewinnen und bessere Entscheidungen zu treffen. Aktuelle und potenzielle Anwendungen von Big Data werden für verschiedene private und öffentliche Sektoren vorgestellt sowie die Möglichkeit, Daten effektiv zu nutzen, um schnelle, präzise und gewinnbringende Entscheidungen zu treffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-45498-6_3 9861ef836fe683a8cfebdc4c1947bfbd;de;;;6.1.;;;Innovationsgetriebenes IT-Enablement – ​​An der Spitze der Wertschöpfung des Unternehmens durch IT Es ist ein weit verbreitetes und weithin anerkanntes Phänomen, dass Geschäfts- und IT-Kollegen innerhalb von Unternehmen unterschiedliche Vorstellungen von der Verwaltung und Bereitstellung von Geschäftswert durch IT haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-9786-9_5 51ff6c20bf693b3a6d371d47ab6b88ba;de;;;6.1.;;;Perspektive der Datenanalyse für das Weltraumteleskop Die Systeme, die entwickelt werden, um Datenverwaltungs- und Analysemöglichkeiten für das Hubble-Weltraumteleskop bereitzustellen, ähneln vielen, die ihnen vorausgingen, verwenden jedoch auch einige Techniken, die für die astronomische Datenverarbeitung relativ neu sind. Diese Systeme werden sowohl aus Gesamtsicht als auch aus Benutzersicht kurz betrachtet. Die verschiedenen Elemente, die bei der Konstruktion und Konstruktion der Systeme verwendet wurden, und die wichtigsten technologischen Merkmale werden ausführlich diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2249-8_12 870f30b05f2e7a618b3345d2990a60da;de;;;6.1.;;;Eine Prozessbewertung zur Umsetzung des Routineimpfprogramms in Hausarztpraxen in England In den letzten Jahren hat die Inzidenz mehrerer Krankheitserreger von Bedeutung für die öffentliche Gesundheit (Masern, Mumps, Keuchhusten und Röteln) in Europa zugenommen, was zu Ausbrüchen führte. Dazu gehört auch England, wo Hausärzte das Impfprogramm auf der Grundlage staatlicher Leitlinien umsetzen. Es wurde jedoch nicht untersucht, wie die Umsetzung erfolgt, was es schwierig macht, organisatorische Unterschiede zu erkennen und somit die Möglichkeit, Interventionen zur Verbesserung der Abdeckung zu empfehlen, einschränkt. Ziel dieser Studie ist eine vergleichende Prozessbewertung der Umsetzung des Routineimpfprogramms in Hausarztpraxen in England.;-;-;-;https://link.springer.com/article/10.1186/s13012-018-0824-8 a73aecd01616a5a518b69213ef0f799d;de;;;6.1.;;;Erkennen von Problemen mit der Datenqualität in klinischen Studien: Aktuelle Praktiken und Empfehlungen Datenqualitätsprobleme in klinischen Studien können durch eine Vielzahl von Verhaltensweisen verursacht werden, darunter Betrug, Fehlverhalten, vorsätzliche oder unbeabsichtigte Nichteinhaltung und erhebliche Nachlässigkeit. Unabhängig davon, wie diese Verhaltensweisen definiert sind, können sie die Validität der Studienergebnisse beeinträchtigen. Zuverlässige Studienergebnisse und Qualitätsdaten werden benötigt, um Produkte für die Marktzulassung zu bewerten und Entscheidungen über die Anwendung von Arzneimitteln zu treffen. Dieser Artikel konzentriert sich auf die Erkennung von Datenqualitätsproblemen, unabhängig von Herkunft oder Motiv. Die frühzeitige Erkennung von Datenqualitätsproblemen ist wichtig, damit während der Durchführung der Studie ergriffene Korrekturmaßnahmen ergriffen, ein erneutes Auftreten verhindert und die Datenqualität erhalten werden kann.;-;-;-;https://link.springer.com/article/10.1177/2168479015620248 549179bba24aba963d41409c0b9deb7b;de;;;6.1.;;;Bewertung der chiropraktischen Behandlung im aktiven Dienst, US-Militärpersonal mit Kreuzschmerzen: Studienprotokoll für eine randomisierte kontrollierte Studie Kreuzschmerzen sind weit verbreitet und eine der häufigsten Ursachen für Behinderungen beim Personal der US-Streitkräfte. Derzeit hat sich keine einzige therapeutische Methode als Goldstandard für diese immer häufiger auftretende Erkrankung etabliert. Eine häufig angewendete Behandlung, die in einer Zivilbevölkerung durchweg positive Ergebnisse in Bezug auf Schmerzen und Funktion gezeigt hat, ist die manipulative Therapie der Wirbelsäule, die von Ärzten der Chiropraktik durchgeführt wird. Chiropraktik, die in einem multidisziplinären Rahmen im militärischen Gesundheitswesen erbracht wird, hat das Potenzial, die klinischen Ergebnisse von Militärpersonal mit Kreuzschmerzen zu verbessern. Ihre Wirksamkeit in einem militärischen Umfeld ist jedoch nicht gut belegt. Das primäre Ziel dieser Studie ist es, Veränderungen der Schmerzen und Behinderungen bei aktiven Dienstdienstmitgliedern mit Kreuzschmerzen, die der üblichen medizinischen Versorgung plus chiropraktischer Versorgung zugeteilt werden, im Vergleich zu einer Behandlung mit alleiniger medizinischer Versorgung zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s13063-016-1193-8 a83bc5dd365ad7bff7af96bc4c478585;de;;;6.1.;;;Eine vergleichende Studie über drei aufstrebende Blockchain-Technologien: Bitcoin, Ethereum und Hyperledger Eine Blockchain ist ein dezentraler Peer-to-Peer-Datenaustauschmechanismus, der mithilfe kryptografischer Techniken schnelle und vertrauenswürdige Transaktionen zwischen Benutzern im Internet ermöglicht. Diese neue Technologie kann für die Datenkontrolle und Durchführung von Transaktionen, sichere Zahlungen und Smart Contracts und vieles mehr verwendet werden. Das Ziel dieses Artikels ist es, die wichtigsten Konzepte von Blockchains zu erläutern. Außerdem geben wir eine vergleichende Studie über drei bekannte neue Technologien, nämlich Bitcoin, Ethereum und Hyperledger.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36365-9_1 802f044d9bddcd5e6957749493680955;de;;;6.1.;;;Lernen von Story-Marketing durch praktische Erfahrung mit dem Story-Creation-System Dieses Papier stellt eine Anwendung zum Erlernen von Story-Marketing mit einem Story-Erstellungssystem, Anime de Blog, vor. Anime de Blog ist eine auf Animationen basierende Anwendung für Consumer Generated Media (CGM). Benutzer können animierte Geschichten über Affiliate-Werbung erstellen, indem sie einfach grundlegende Wörter mit Anime de Blog eingeben. Durch praktische Arbeitserfahrung von Affiliate-Werbung im Web von Bachelor-Studenten mit Anime de Blog lernten die Studierenden eine Internet-Anwendung, Story-Marketing und die Konzepte von Affiliates und Affiliate-Werbung kennen und konnten die Bewerbung auch kritisch bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16638-9_13 99c0035c5cd1557bc91d7fd2f324fdb4;de;;;6.1.;;;Ein leichter, effektiver, randomisierter Caesar-Verschlüsselungsalgorithmus für die Sicherheit von Daten In jeder Art von Organisation müssen im gegenwärtigen Szenario Rohdaten oder aussagekräftige Daten von verschiedenen Mitarbeitern geteilt werden, daher sind die Chancen von Betrug oder Verrat höher, was die Arbeitsumgebung angreifbar macht. Daher ist der Schutz vertraulicher und sensibler Daten von Unternehmen auf verschiedenen Ebenen von Mitarbeitern vor solchen Diebstählen oder illegalen Aktivitäten, die gegen die Sicherheitsrichtlinien des Unternehmens verstoßen, eine Voraussetzung. ABE als attributbasierte Verschlüsselung ausgesprochen wurde eingeführt. ABE ist ein Parameter, der eine entscheidende Rolle bei der Bereitstellung einer differenzierten Zugangskontrolle für die Auslagerung von Daten in einem Datenaustauschsystem spielt. Darüber hinaus wurde CP-ABE eingeführt, die eine Zugriffsrichtlinie definiert, um alle Attribute innerhalb des Systems abzudecken. In diesem Schema wird der private Schlüssel des Benutzers zu Verschlüsselungs- und Entschlüsselungszwecken der Gruppe von Attributen beigefügt. aber aufgrund seiner mangelnden Effizienz und mehrerer anderer Paradigmen erwies es sich als unwirksam. Um die bestehenden Probleme zu überwinden, haben wir daher einen neuen kryptografischen Algorithmus implementiert, der kompetent genug ist, um jede Art von Datei zu verschlüsseln und zu entschlüsseln, die jede Art von Daten enthält, die im Bereich von ASCII-Werten geschrieben sind. Wir haben diesen Algorithmus als randomisierten Caesar-Chiffrieralgorithmus bezeichnet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5258-8_39 8809d897a50bd99a55a74bb093559a00;de;;;6.1.;;;Die Data Aggregation Lab Software Dieses Papier beschreibt das Softwaretool Data Aggregation Lab, das den Metadaten-Aggregationsworkflow des Kulturerbes basierend auf semantischen Technologien implementiert. Es soll einen Rahmen bieten, um verschiedene Aspekte unserer Forschung zu unterstützen, z. B. die Durchführung von Fallstudien, die Bereitstellung von Referenzimplementierungen und die Unterstützung der Einführung von Technologien. Derzeit bietet es funktionierende Implementierungen von Datenaggregationsmethoden, mit denen die Europeana-Forschung positive Ergebnisse erzielt hat. Diese Methoden untersuchen Technologien wie Linked Data, Schema.org, IIIF, Sitemaps und RDF.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36599-8_38 5c13da9c04bc4ae776f04b9ac32c2220;de;;;6.1.;;;Komponenten der DRM-Systemidentifikation und Metadaten Bezeichner (eindeutige Labels für Entitäten) und Metadaten (strukturierte Beziehungen zwischen identifizierten Entitäten) sind Voraussetzungen für DRM. Der Begriff Identifikator kann ein Labelnummerierungsschema, eine Spezifikation oder ein vollständig implementiertes Identifikatorsystem in einer bestimmten Infrastruktur bedeuten. Implementierungen erfordern eine soziale Infrastruktur. In einer automatisierten Umgebung muss die verwaltete Entität strukturiert durch Attribute definiert werden. Verwaltete Entitäten sind oft Abstraktionen, und die Wahl, welche möglichen Entitäten als trennbar zu unterscheiden sind, ist nicht absolut, sondern hängt von Funktion und Kontext ab.;-;-;-;https://link.springer.com/chapter/10.1007/10941270_4 f5a5aa66f0ac54e49836b6f24c3b5915;de;;;6.1.;;;Entwicklung des menschlichen Gangs und die potenzielle Rolle von tragbaren Sensoren zur Überwachung von Stürzen Stürze und sturzbedingte Verletzungen sind die Hauptursachen für nicht tödliche Verletzungen bei älteren Erwachsenen. Angesichts der jüngsten Fortschritte in Mathematik, Naturwissenschaften und Technologie bemühen sich viele Wissenschaftler und Ingenieure, Stürze zu verhindern oder die negativen gesundheitlichen Folgen nach Stürzen zu verringern. In diesem Kapitel geben wir einen kurzen Überblick über die wichtigsten technischen Ansätze zur Wiederherstellung oder Verbesserung der menschlichen Gangfunktion vor und nach Stürzen. Angesichts der Verbreitung von tragbaren Sensoren und der Verfügbarkeit von Rechenressourcen im letzten Jahrzehnt haben wir uns auf die Rolle von tragbaren Sensoren bei der Überwachung von Ganginstabilitäten und der möglichen Sturzprävention konzentriert. Wir haben den allgemeinen Rahmen für die Gangüberwachung mit Wearables und seinen Nutzen in realen Umgebungen wie Häusern oder Seniorengemeinschaften überprüft. Im letzten Teil des Kapitels haben wir uns auf neuere Beiträge konzentriert, die tragbare Sensoren für die Gangüberwachung und Sturzinferenzen vorgeschlagen haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-24233-6_22 f084bdf95fa7059754c5e726a9b52f2e;de;;;6.1.;;;Aktuelle Fragestellungen in Nord-Süd-Gesundheitsforschungspartnerschaften: Perspektiven von Akteuren der Gesundheitsforschung in Sambia In den späten 1990er und frühen 2000er Jahren haben die Nord-Süd-Partnerschaften in der Gesundheitsforschung zugenommen, die auf wissenschaftliche Entwicklungen wie die in genetischen Studien und die Entwicklung statistischer Techniken und technologischer Anforderungen für die Analyse großer Datensätze zurückzuführen sind. Trotz dieser Bemühungen gibt es unzureichende Informationen, die die Stimme afrikanischer Forscher als Interessenvertreter, die Partnerschaftsvereinbarungen erleben, insbesondere in Sambia, repräsentieren. Darüber hinaus wurde der Erfassung der Leitlinienpraxis in Partnerschaften nur sehr wenig Aufmerksamkeit geschenkt. In diesem Papier stellen wir Errungenschaften und Herausforderungen vor, denen sich südliche Partner in Nord-Süd-Gesundheitsforschungspartnerschaften gegenübersehen.;-;-;-;https://link.springer.com/article/10.1186/s12961-018-0409-7 c89f4cb7a1931c9420f53bcba575aef3;de;;;6.1.;;;Verschlüsselte Daten verwalten und abfragen Verschlüsselung ist eine beliebte Technik, um die Vertraulichkeit sensibler Daten zu gewährleisten. Während die Datenverschlüsselung die Sicherheit erheblich verbessern kann, kann sie die Leistung eines Systems in Bezug auf das Datenmanagement erheblich beeinträchtigen. Bei der Verwaltung verschlüsselter Daten müssen mehrere neue Probleme angegangen werden, wie z. B. die Auswahl der geeigneten Verschlüsselungsalgorithmen, die Entscheidung über die Schlüsselverwaltungsarchitektur und die Schlüsselverteilungsprotokolle, die Ermöglichung einer effizienten verschlüsselten Datenspeicherung und -abfrage, die Entwicklung von Techniken zum Abfragen und Durchsuchen verschlüsselter Daten, die Gewährleistung der Integrität von Daten etc. In diesem Kapitel geben wir anhand von „Database as a Service“ (DAS) als Anwendungsprototyp einen Überblick über den Stand der Technik in einigen dieser Bereiche. Wir konzentrieren uns insbesondere auf Techniken zur Abfrage verschlüsselter Daten und fassen die vorgeschlagenen grundlegenden Techniken für SQL-Abfragen über verschlüsselte relationale Daten, Stichwortsuche über verschlüsselte Textdaten und XPath-Abfragen über verschlüsselte XML-Daten zusammen. Wir bieten auch kurze Zusammenfassungen von Werken zu anderen oben genannten Themen und verweisen auf weiterführende Literatur.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-48533-1_7 42576c8bbae928e4a001f60029c36f64;de;;;6.1.;;;Verbesserung der Wettbewerbsposition im Gesundheitswesen: ein hybrides metaheuristisches Ernährungsentscheidungsunterstützungssystem Im hart umkämpften Umfeld der Gesundheitsbranche integrieren Manager die patientenzentrierte Versorgung als wichtigen Bestandteil der Gesundheitsmission. Management-Informationssysteme gewinnen zunehmend an Aufmerksamkeit, um effektive Pläne für eine patientenzentrierte Versorgung und Qualitätsverbesserung in Gesundheitsorganisationen zu entwickeln. Die Verbraucher beteiligen sich aktiv an ihrer Gesundheit, was für die Patientenbeteiligung von Vorteil ist. Um dieser Nachfrage gerecht zu werden, müssen Gesundheitsdienstleister jedoch erhebliche Veränderungen vornehmen. Informationstechnologie und künstliche Intelligenz können Arbeitsabläufe für medizinisches Fachpersonal erheblich verbessern und die Entwicklung neuer Dienste unterstützen, um den sich ändernden Verbraucheranforderungen gerecht zu werden und gleichzeitig die Kosten zu halten. In dieser Studie zielten wir darauf ab, ein Entscheidungsunterstützungssystem mit genetischem Algorithmus und metaheuristischen maschinellen Lernmethoden für simuliertes Annealing für Ernährungswissenschaftler aufzubauen, um den Ernährungszyklus eines Krankenhauses zu regulieren und die bestmöglichen Diätmenülösungen bei gleichzeitiger Kostensenkung bereitzustellen. Unser Hauptgrund für die Verwendung hybrider metaheuristischer maschineller Lernmethoden besteht darin, eine qualitativ bessere Lösung für das untersuchte Problem zu erhalten. Experimentelle Ergebnisse zeigten, dass das vorgeschlagene System ein neuartiges, intelligentes, kostengünstiges, flexibles und auf maschinellem Lernen basierendes Entscheidungsunterstützungssystem für Ernährungswissenschaftler und Gesundheitsmanager ist.;-;-;-;https://link.springer.com/article/10.1007/s13042-018-0820-y 7cb9c9c72bbb2d1a46b124c0c8b61db8;de;;;6.1.;;;Entwicklung einer Multi-Agent-m-Health-Anwendung basierend auf verschiedenen Protokollen für das Selbstmanagement chronischer Krankheiten Disease Der Zweck dieser Studie war die Entwicklung und Bewertung einer mobilen Gesundheitsanwendung (Self-Management Mobile Personal Health Record: „SmPHR“), um die Interoperabilität verschiedener persönlicher Gesundheitsgeräte (PHDs) und elektronischer Patientenaktensysteme (EMRs) für eine kontinuierliche Selbständigkeit sicherzustellen -Behandlung von Patienten mit chronischen Erkrankungen. Das SmPHR wurde für Android 4.0.3 entwickelt und gemäß dem optimierten Standardprotokoll für jede Schnittstelle von Gesundheitsdiensten implementiert, das von der Continua Health Alliance (CHA) übernommen wurde. Das heißt, die Personal Area Network (PAN)-Schnittstelle zwischen der Anwendung und PHD implementiert ISO/IEEE 11073-20,601, 10.404, 10.407, 10.415, 10.417 und Bluetooth Health Device Profile (HDP) sowie EMRs mit einem Weitverkehrsnetz (WAN .). ) Schnittstelle implementiert HL7 V2.6, die Health Record Network (HRN) Schnittstelle implementiert Continuity of Care Document (CCD) und Continuity of Care Record (CCR). Außerdem haben wir für SmPHR die Übertragungsfehlerrate zwischen der Schnittstelle unter Verwendung von vier PHDs und persönlichen Gesundheitsdatensystemen (PHRs) aus früheren Forschungen mit 611 Benutzern und älteren Menschen nach Erhalt der Genehmigung durch das Institutional Review Board (IRB) bewertet. Bei der Auswertung zeigten die PAN-Schnittstelle 15 (2,4 %) Fehler, die WAN- und HRN-Schnittstelle 13 (2,1 %) Fehler bei insgesamt 611 Übertragungsversuchen. Außerdem haben wir Meinungen zu SmPHR von 15 Angehörigen der Gesundheitsberufe erhalten, die an der klinischen Studie teilgenommen haben. Somit kann SmPHR als vernetzter mobiler PHR-Gesundheitsdienst für Patienten bereitgestellt werden, der ein „Plug-and-Play“ von PHDs und EMRs über verschiedene Standardprotokolle ermöglicht.;-;-;-;https://link.springer.com/article/10.1007/s10916-015-0401-5 c20391d5b352fccad91221fee5a8a576;de;;;6.1.;;;Big Data-Sicherheit und Datenschutz Neuere Technologien wie IoT, soziale Netzwerke, Cloud Computing und Data Analytics machen es heute möglich, riesige Datenmengen zu sammeln. Damit Daten jedoch in vollem Umfang genutzt werden können, sind Datensicherheit und Datenschutz von entscheidender Bedeutung. Datensicherheit und Datenschutz wurden in den letzten dreißig Jahren umfassend untersucht. Heute stehen wir jedoch bei der Sicherung und dem Schutz von Daten vor neuen Herausforderungen, die zu neuen herausfordernden Forschungsrichtungen führen. Einige dieser Herausforderungen ergeben sich aus zunehmenden Bedenken hinsichtlich des Datenschutzes in Bezug auf die Verwendung solch riesiger Datenmengen und aus der Notwendigkeit, den Datenschutz mit der Verwendung von Daten in Einklang zu bringen. Weitere Herausforderungen ergeben sich, weil der Einsatz neuer Datenerfassungs- und -verarbeitungsgeräte, wie sie beispielsweise in IoT-Systemen zum Einsatz kommen, das Angriffspotenzial erhöht. In diesem Papier diskutieren wir relevante Konzepte und Ansätze für Big Data-Sicherheit und Datenschutz und identifizieren Forschungsherausforderungen, die angegangen werden müssen, um umfassende Lösungen für Datensicherheit und Datenschutz im Big-Data-Szenario zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-61893-7_25 f48ae836fa208196d81a8b57893a9bf7;de;;;6.1.;;;Analyse der Wahrnehmung von Tourismusagenten zum Einsatz künstlicher Intelligenz Im Tourismus hat Künstliche Intelligenz bereits zahlreiche Anwendungen, die Prozesse erleichtern, den Erlebniswert erhöhen und die Wettbewerbsfähigkeit verbessern. Sein Einsatz wirft jedoch für Unternehmen und touristische Destinationen mehrere Fragen auf. Da dieses Forschungsthema im Tourismus noch begrenzt ist, zielt die vorliegende Studie, basierend auf neun semistrukturierten Interviews, darauf ab, die Wahrnehmungen von Tourismusagenten (Unternehmen und Destinationen) zu den Vor- und/oder Nachteilen, Herausforderungen, Implikationen der Nutzung zu identifizieren und zu analysieren , sowie der Nichtverwendung von künstlicher Intelligenz in der aktuellen Situation von COVID-19 und in der Zukunft. Die Ergebnisse unterstreichen die einhellige Einschätzung, wie wichtig es ist, Technologien einzusetzen, die die menschliche Komponente nicht ersetzen, sondern aufwerten. Die Implikationen und Vorschläge für die zukünftige Arbeit werden ebenfalls vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4256-9_22 f411d964650a2392de0abd1a8c491ea0;de;;;6.1.;;;Holzverträge III Dieses Kapitel behandelt die Verträge, die sowohl für Weichholz als auch für Hartholz gelten, und beschreibt die wesentlichen oder wesentlichen Unterschiede zwischen ihnen und dem vorherigen Kapitel über die Albion- und Uniform-Verträge und deren Bedingungen. Es umfasst auch damit verbundene Weiterverkaufs- und Ex-Ship-Verträge. Kapitel 10 behandelt die Panelproduktverträge.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-03846-6_9 1f001836bf03b68ba18393e1ee4041da;de;;;6.1.;;;Federated Scientific Data Repositories für die Umwelt Auf dem Weg zu einem global skalierbaren Management von Umweltinformationen: Wie nützlich werden sie sein? Was ist ihre potenzielle Auswirkung? Sollen wir die Umwelt retten? Wir erleben derzeit eine Verbreitung des Internets, des World Wide Web und neuer Technologien für verteilte Systeme. Die Idee föderierter wissenschaftlicher Datenspeicher, die aus organisatorisch und geografisch verteilten Einheiten aufgebaut sind, gewinnt sowohl für Wissenschaftler als auch für Behörden zunehmend an Interesse. Bei entsprechendem Zugang könnte auch die breite Öffentlichkeit davon profitieren. Eine solche Entwicklung würde den Weg für den weltweiten Austausch und die Kombination von Umweltinformationen ebnen, wodurch die Zusammenarbeit zwischen Wissenschaftlern gefördert und das Umweltinformationsmanagement und die Entscheidungsfindung erheblich unterstützt werden. Aus technischer Sicht beinhaltet der Aufbau föderierter wissenschaftlicher Repositorien die Auseinandersetzung mit Problemen wie Heterogenität, Verteilung, Integration, Wissen, Authentifizierung, geeignete Schnittstellen und Leistung. Aus organisatorischer Sicht geht es dabei um interdisziplinäre Zusammenarbeit, organisationsübergreifendes Management sowie um wichtige rechtliche und wirtschaftliche Fragestellungen. Innerhalb der Informatik gibt es Lösungen für jedes der technischen Probleme, aber ihre Integration ist noch schwer zu fassen. Insbesondere die organisatorischen Probleme, die auf der Managementebene angegangen werden müssen, können sich als weitaus schwieriger erweisen. Wie sollen wir also vorgehen, wenn die Zutaten vorhanden sind? Und wird sich ein solcher Aufwand lohnen? Wollen wir am Ende die Umwelt retten?;-;-;-;https://link.springer.com/chapter/10.1007/3-540-49653-X_75 98a68cacadf417aa4b2f037b67133f21;de;;;6.1.;;;Hypertext-Prinzipien Die Idee des Hypertextes scheint eine starke Anziehungskraft auf die Computergemeinschaft zu haben, er ist zum Beispiel ein weitaus sichtbareres Thema in der populären Literatur als andere offensichtlich nützliche, aber weniger glamouröse Anwendungen. Eine Reihe von sehr unterschiedlichen Systemen werden unter dem Dach des Hypertexts zusammengefasst. Dieses Kapitel versucht aufzuzeigen, was sie gemeinsam haben und wo sie sich legitim unterscheiden können, indem Vergleiche und Verbindungen mit anderen Ansätzen des Informationsmanagements und des Abrufs gezogen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-3162-5_9 ec368618890ca3b4dcf1b3896835ca38;de;;;6.1.;;;Internet of Things (IoT) im Supply Chain Management in der Landwirtschaft: Eine Perspektive aus Entwicklungsländern Das Agrar-Supply-Chain-Management (ASCM) steht vor besonderen Herausforderungen wie der Abhängigkeit von Wetterbedingungen, der Einbeziehung einer sehr großen Zahl von Akteuren und mangelnder Alphabetisierung der Mehrheit der Arbeitskräfte, die zu einem Bedarf an Informations- und Kommunikationstechnologien (IKT) führen. Das Ziel dieses Kapitels ist es, auf dem Internet der Dinge (IoT) basierende Technologien vorzustellen und ihre Anwendungen im Kontext der landwirtschaftlichen Lieferkette in einem Entwicklungsland wie Indien zu beschreiben. Basierend auf der Literatur wurden in dieser Arbeit insgesamt sechs IoT-basierte Technologien im Kontext von ASCM identifiziert. Die Anwendung von IoT im Agrar- und Lebensmittelsektor in Indien kann die Entwicklung der landwirtschaftlichen Lieferkette fördern, indem die Verschwendung erheblich reduziert und die Anforderungen der Benutzer auf äußerst nachhaltige Weise erfüllt werden. IoT-basierte Technologie hat einen erheblichen Integrationsspielraum in verschiedene Funktionen von ASCM im industriellen Kontext in einem Entwicklungsland wie Indien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-75013-2_16 eecf956c8ae143567f1effdbf91bc01f;de;;;6.1.;;;KI und Justizpolitik Der Einsatz von KI in der Justiz beschränkt sich auf den Einsatz von IT und später IKT, und der Einsatz von KI für Richterfunktionen hat gerade erst begonnen. In diesem Beitrag über die gerichtliche IKT-Nutzung in Japan werden dann die Trends weltweit zusammengefasst: die der USA, Deutschlands und Spaniens. Dann werden neben gerichtlichen Fragen die Auswirkungen und das Potenzial der KI-Technologie über den tatsächlichen Einsatz hinaus diskutiert, insbesondere die Blockchain-Technologie und Legal-XML. Abschließend wird auf den aktuellen Stand der KI-Prozesse, die Probleme der KI-Richter und die Möglichkeit von ADR eingegangen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-79942-7_10 eff000eedd8a574fbd55a3a1ae15fa73;de;;;6.1.;;;Grundwasserbedarfsmanagement im Great Lakes Basin – Wegweiser für neue Politiken Um die Effizienz der Grundwassernutzung zu maximieren, sollte ein nachfrageseitiges Management eingesetzt werden. Die Umsetzung von Erhaltungsmaßnahmen würde den Wasserverbrauch verringern und auch weniger Druck auf das Wasserverteilungssystem sowie das Abwasserbehandlungssystem ausüben. Die Zuweisung von Grundwasser im Einzugsgebiet der Großen Seen muss den auf Gemeindeebene festgelegten Prioritäten entsprechen. Die Grundwasserpreise sollten die vollen Kosten widerspiegeln, die durch die Grundwassernutzung entstehen. Eine differenzierte Preisstruktur würde dazu beitragen, Wasser im Wohn- und Industriesektor zu sparen. Eine benutzerfreundliche Datenbank zu Grundwassernutzung, -qualität und -quantität für das gesamte Einzugsgebiet der Großen Seen ist ebenfalls unerlässlich. Neue Richtlinien für eine nachhaltige Grundwasserallokation, die Regulierung der Wasserpreise für Wasserschutz, Naturschutzerziehung, Umweltverschmutzung, Recycling und Wiederverwendung von Wasser sowie ein effektives Informationsmanagement bieten neue Richtungen für die Steuerung des Grundwasserbedarfs im Einzugsgebiet der Großen Seen.;-;-;-;https://link.springer.com/article/10.1007/s11269-008-9283-3 cad091755def2879efa0cdbe1194ada5;de;;;6.1.;;;Information Systems Engineering mit digitalen Schatten: Konzept und Fallstudien Der Produktionssektor hat viele Schwierigkeiten gehabt, die Möglichkeiten anderer Webanwendungsdomänen voll auszuschöpfen. Die Produktionsforschung hat sich auf anspruchsvolle mathematische Modelle konzentriert, die von der Modellierung molekularer Materialien über eine effiziente Produktionssteuerung bis hin zur zwischenbetrieblichen Liefernetzwerklogistik reichen. Oft haben diese Modelle keine geschlossenen Lösungen, was zu intensiver Simulationsforschung für einzelne Modellierungsgesichtspunkte führte, die oft als „Digitale Zwillinge“ bezeichnet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-49435-3_5 418ac341c4f402f7b5ae369e4ccdfb55;de;;;6.1.;;;Qualitative Untersuchung II: Erarbeitung der strategischen Rolle der Anpassung für die Softwareproduktentwicklung Die Studie in diesem Kapitel baut auf dem vorhandenen Wissen zur Softwareanpassung, den Konzepten von Ressourcen, Fähigkeiten und Werten des RBV sowie den Erkenntnissen aus der letzten Untersuchung auf. Es zielt darauf ab, ein detailliertes Verständnis der Softwareanpassungsaktivitäten und ihrer strategischen Rolle für das Softwareproduktmanagement eines Softwareanbieters zu vermitteln. Aufbauend auf dem theoretischen Konzept der dynamischen Fähigkeiten verwendet diese Studie ein qualitatives multiples Fallstudiendesign in zwei verschiedenen Softwareanbieterfirmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-14858-4_5 f967e982f3d024188cc9b78186a1bdd9;de;;;6.1.;;;Sichere Informationsteilung mit Grammatikschemata Informationssplitting wird bei vielen Aufgaben des intelligenten Teilens von Geheimnissen und Schlüsseldaten in Unternehmensorganisationen eingesetzt. Die Bedeutung der Informationsteilung hängt von ihrer Art ab, während die Bedeutung der Informationsteilung von ihrer Bedeutung und ihrer Bedeutung für die betreffende Organisation oder Institution abhängen kann. Diese Studie präsentiert und charakterisiert Modelle zur mehrstufigen Informationsteilung und zum Informationsmanagement unter Verwendung des linguistischen Ansatzes und formaler Grammatiken. Abhängig von dieser Struktur werden die geeigneten Methoden für die gemeinsame Nutzung von Geheimnissen identifiziert, die für den spezifischen Typ einer Organisationsstruktur zu wählen sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03958-4_28 bd99fa14c8fd9fbbca68ac2b06e32432;de;;;6.1.;;;Transparente medizinische Datensysteme Transparenz wird als die Qualität beschrieben, offen gegenüber Richtlinien und Praktiken zu sein. Es soll Endnutzer darüber informieren, was mit ihren Daten passiert. Es fördert eine gute Servicequalität und soll die Nachfrage der Menschen nach Privatsphäre stützen. Allerdings fehlt zumindest für medizinische Datensysteme eine klare Definition der Eigenschaft und es besteht keine Einigkeit darüber, welche Anforderungen sie qualifizieren. Wir gehen diesem Problem nach. Zunächst identifizieren wir Konzepte, die sich auf Transparenz beziehen: Offenheit, Ermächtigung, Überprüfbarkeit, Verfügbarkeit, Rechenschaftspflicht, Überprüfbarkeit. Wir diskutieren sie in Health Information Technology und klären so, was Transparenz ist. Anschließend erarbeiten wir eine Liste von Anforderungen, die aufzeigen, wie Transparenz in modernen medizinischen Datensystemen wie der Verwaltung elektronischer Patientenakten realisiert werden kann.;-;-;-;https://link.springer.com/article/10.1007/s10916-016-0653-8 20c2ce211a4eb1d667a017daa4ef6c74;de;;;6.1.;;;Die internationale Datenressource der politischen Ökonomie Quantitative Wissenschaftler in den internationalen Beziehungen greifen oft wiederholt auf dieselben Quellen von länderbezogenen Daten für eine Vielzahl von Projekten zurück. Die Datenressource der Internationalen Politischen Ökonomie zielt darauf ab, dem Feld ein öffentliches Gut bereitzustellen, indem 951 Variablen aus 78 Kerndatenquellen der Internationalen Politischen Ökonomie in einem einzigen Datensatz standardisiert und zusammengeführt werden, wodurch die Effizienz erhöht und das Risiko von Datenverwaltungsfehlern verringert wird. Der einfachere Zugang zu Daten ermutigt Forscher, mehr Robustheitsprüfungen in ihrer eigenen Arbeit durchzuführen und die veröffentlichten Ergebnisse anderer häufiger zu replizieren. Es erleichtert auch und erleichtert Lehrern quantitativer Forschungsmethoden, ihren Schülern realistische Übungen zuzuweisen. Diese Ressource wird jährlich aktualisiert und erweitert. Die vollständige Ressource ist über das Harvard Dataverse Network verfügbar, wobei Versionen auch über das Niehaus Center for Globalization and Governance an der Princeton University und NewGene erhältlich sind.;-;-;-;https://link.springer.com/article/10.1007/s11558-017-9285-0 7030378ea20eb717003d9d0d087f7813;de;;;6.1.;;;Datenverarbeitung in Industrie 4.0 Der Druck auf Unternehmen, ihre Flexibilität und Effizienz in der Fertigung zu erhöhen, steigt stetig. Fabrikmanager müssen daher in der Lage sein, Informationen in Echtzeit über physische Produktionssysteme hinweg zu erhalten, um bessere Entscheidungen zu treffen. Transparenz beispielsweise auf produktions- und strategischer Ebene bietet den Vorteil, schneller auf volatile Nachfragen reagieren zu können (Time-to-Market) und hilft, Vor- und Ausfallzeiten zu reduzieren. Dies kann zu einem erheblichen Produktionsgewinn und Wettbewerbsvorteil führen. Aktuelle Ansätze sind herausgefordert, Ergebnisse aus der IoT-Welt angemessen an Entscheidungsträger zu bringen. Wir stellen Datenmodelle vor, die als Vermittler dienen, um ein besseres Verständnis zwischen Fabrikbesitzern und Datenanalysten zu schaffen. Besondere Herausforderungen liegen in der Orchestrierung der komplexen Prozessschritte, der vertikalen Informationstransparenz sowie in sich widersprüchlichen Optimierungskalkülen (z. B. Kosten, Geschwindigkeit, Qualität, Nachhaltigkeit). Durch eine bessere Kommunikation zwischen Fabrikleitern, Datenanalysten und Mitarbeitern an der Linie können die zuvor genannten Konfigurationen transparenter und damit effizienter umgesetzt werden.;-;-;-;https://link.springer.com/article/10.1007/s13222-018-0277-x 7eda684287c3880e9fb139e766304a00;de;;;6.1.;;;HEDC++: Ein erweiterter Histogramm-Schätzer für Daten in der Cloud Angesichts der zunehmenden Popularität von Cloud-basiertem Datenmanagement ist die Verbesserung der Leistung von Abfragen in der Cloud ein dringend zu lösendes Problem. Zusammenfassungen der Datenverteilung und statistische Informationen werden in herkömmlichen Datenbanken häufig verwendet, um die Abfrageoptimierung zu unterstützen, und Histogramme sind von besonderem Interesse. Natürlich könnten Histogramme verwendet werden, um die Abfrageoptimierung und die effiziente Nutzung von Rechenressourcen in der Cloud zu unterstützen. Histogramme könnten hilfreiche Referenzinformationen zum Generieren optimaler Abfragepläne bereitstellen und grundlegende Statistiken generieren, die nützlich sind, um den Lastausgleich der Abfrageverarbeitung in der Cloud zu gewährleisten. Da es zu teuer ist, ein genaues Histogramm aus massiven Daten zu erstellen, ist die Erstellung eines ungefähren Histogramms eine praktikablere Lösung. Dieses Problem ist jedoch im Cloud-Umfeld aufgrund der speziellen Datenorganisation und Verarbeitung in der Cloud schwierig zu lösen. In diesem Artikel stellen wir HEDC++ vor, einen erweiterten Histogrammschätzer für Daten in der Cloud, der effiziente Approximationsansätze für Histogramme gleicher Breite und gleicher Tiefe bietet. Wir entwerfen den Workflow zur Histogrammschätzung basierend auf einem erweiterten MapReduce-Framework und schlagen neue Sampling-Mechanismen vor, um die Sampling-Effizienz und die Schätzgenauigkeit zu nutzen. Wir validieren unsere Techniken experimentell auf Hadoop und die Ergebnisse zeigen, dass HEDC++ vielversprechende Histogrammschätzungen für massive Daten in der Cloud liefern kann.;-;-;-;https://link.springer.com/article/10.1007/s11390-013-1392-7 a9bd99e43a983737a68f52bbdd4d2963;de;;;6.1.;;;Experimentelles DRM-Modell mit mobilem Code und White-Box-Verschlüsselung Aufgrund schwerwiegender DRM-Ausfälle und der dringenden Nachfrage nach einer besseren Lösung zur Behebung der bestehenden DRM-Systemschwachstellen diskutiert dieses Papier den aktuellen DRM-Status und betont die Ziele und Anforderungen der Systemsicherheit. Basierend auf der Analyse der entwickelten DRM-Lösungen und aufkommender DRM-Technologien versucht dieser Beitrag, die Ursachen von DRM-Ausfällen zu erklären und schlägt ein neues DRM-Sicherheitsparadigma vor. Wir präsentieren eine experimentelle Überarbeitung der DRM-Architektur, die darauf abzielt, die bestehenden Einschränkungen und Schwächen durch den Einsatz neuartiger technologischer Durchbrüche zu bewältigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34135-9_30 8a23d824465669abeaaa755f5a055434;de;;;6.1.;;;Eine rekursiv interpretierte Datenstruktur zur Darstellung klinischer Entitäten Klinische Untersuchungen erzeugen ein Spektrum an Daten und Datenbeziehungen, die nicht mehr in einfache Datenstrukturen passen. Daher ist es ein wichtiges Problem, eine Datenverwaltungseinrichtung aufzubauen, die ausreichend flexibel ist, um mit diesem Spektrum von Strukturen umzugehen. Es wird eine allgemeine tabellenbasierte Datenstruktur präsentiert, die dem klinischen Forscher ein Mittel zur Anpassung der Datenstruktur an die experimentell abgeleiteten Daten bietet. Die Verwendung einer solchen allgemeinen Struktur scheint auf Einstellungen beschränkt zu sein, in denen das Löschen von Dateninstanzen selten vorkommt. Diese Einschränkung stellt bei den meisten klinischen Untersuchungen keine ernsthafte Einschränkung dar.;-;-;-;https://link.springer.com/article/10.1007/BF00997052 0036bbf4ec445e01a2429ccde38e395c;de;;;6.1.;;;Trinkwasserversorgungssysteme – Evolution zur Effizienz In der gesamten Menschheitsgeschichte war die Trinkwasserversorgung überlebenswichtig für alle Gemeinschaften. In Rumänien haben Großstädte wie Bukarest, Timişoara, Iaşi, Cluj eine lange und reiche Wassergeschichte voller Errungenschaften. Der begrenzte Raum eines Kapitels erlaubt es uns, nur den Fall von Cluj zu diskutieren, insbesondere die Zeit nach 1989. Der erste Abschnitt dieses Kapitels beleuchtet die kritischsten Momente in der Geschichte der Wasserversorgung von Cluj-Napoca bis zum Ende des kommunistischen Regimes. Es werden viele technische Daten präsentiert, die das kontinuierliche städtische Bevölkerungswachstum zeigen, gefolgt von den Investitionen in die Wasserinfrastruktur. Zwischen 1945 und 1989 konzentrierte sich die Entwicklung vor allem auf die quantitativen Aspekte im Kontext der zentralisierten Wirtschaft, die Einfluss auf die gesamte Entwicklung der Stadt und auch auf die Tätigkeit der örtlichen Wasserversorgung hatte. Der zweite Abschnitt diskutiert die tiefgreifenden Veränderungen, die nach der Revolution (1989) im Bereich der Wasserversorgungssysteme stattgefunden haben: Marktwirtschaft, Inflation, Wasserzähler, Reorganisation von Wasserunternehmen, neue Materialien und Ausrüstung, Zugang zu europäischen Mitteln, starke Maßnahmen zur Effizienzsteigerung. Die folgenden drei Abschnitte sind den neuen Technologien und Paradigmen gewidmet, die einen enormen positiven Einfluss auf die Tätigkeit des regionalen Wasserunternehmens Cluj hatten. Der nächste Abschnitt beschreibt die Pläne für die Entwicklung der Wasserversorgungssysteme in der Region Someș-Tisa. Der Kampf gegen Wasserverluste wird höchste Priorität haben. Schließlich wurden mehrere Schlussfolgerungen und Empfehlungen vorgelegt, wobei der Schwerpunkt auf den Zielen eines modernen Wasserbetreibers und dem Wert von Wasser lag.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-22320-5_6 73b1667546912174f7fb5accc2c2e6c2;de;;;6.1.;;;Literatur- und Forschungsrückblick Qualitätsbewusstes Scheduling ist ein neuer Begriff, der in unserer Studie verwendet wird. Die diesbezüglichen Arbeiten zu diesem Thema erschienen jedoch in den 1990er Jahren. In diesem Kapitel fassen wir kurz die Literatur und Forschungsarbeiten zum qualitätsbewussten Scheduling zusammen. Einerseits geben wir einen Überblick über die typischen Metriken für qualitätsbewusstes Scheduling, einschließlich QoS-Metriken und QoD-Metriken. Zum anderen analysieren wir den Forschungsfortschritt zum qualitätsbewussten Scheduling in Datenmanagementsystemen wie Echtzeit-Datenbankmanagementsystemen, Datenstrommanagementsystemen, relationalen Datenbankmanagementsystemen und Schlüsselwertdatenspeichern. Insbesondere umfasst das Ziel der qualitätsbewussten Planung die Optimierung von QoS, die Optimierung von QoD sowie die Optimierung von sowohl QoS als auch QoD. Im Folgenden, Abschn.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-47306-1_2 a95e3ade87a533c7033f830d2ecf99bc;de;;;6.1.;;;Das Gesicht der elektronischen Datenerfassung im Wandel: Von der Datenferneingabe zur direkten Datenerfassung In den letzten 10 Jahren war die Remote Data Entry (RDE) die große weiße Hoffnung der Pharmaindustrie, um drei Hauptziele zu erreichen: Verkürzung der Dauer klinischer Studien, Einsparung von Ressourcen und Verbesserung der Datenqualität. Aber wo ist es? Wer verwendet es? RDE hat die drei Ziele nicht erreicht. Die Zeit des RDE-Paradigmas ist vorbei und die Zukunft wird von neuen Studienstandorttechnologien geprägt sein, die immer mehr in der Lage sind, viele der erforderlichen klinischen Daten direkt bereitzustellen, ohne dass die Transkription auf Papier und anschließende erneute Eingabe in ein anderes System erforderlich ist. Die direkte Datenerfassung (DDC) von Maschinen wie Patientenaktensystemen, MRT-Geräten, EKG- und EEG-Technologien, Labormessgeräten und einer zunehmenden Anzahl anderer bisher manueller Datenlieferanten wird eine fehlerfreie und ressourceneffiziente Datenerfassung ermöglichen. Die erhebliche Reduzierung und mögliche Beseitigung von Fehlern ermöglicht eine frühzeitige Sperrung der Datenbank und damit eine potenziell frühere Produkteinführung.;-;-;-;https://link.springer.com/article/10.1177/009286159803200429 e5b2cb26f56e398d3cbe98b506571bde;de;;;6.1.;;;Bereitstellung skalierbarer Datenbankdienste in der Cloud Die Cloud gewinnt als Plattform für die Bereitstellung von Software as a Service (SaaS)-Anwendungen schnell an Popularität. Im Prinzip stellt die Cloud unbegrenzte Rechenressourcen bereit, sodass bereitgestellte Dienste nahtlos skaliert werden können. Darüber hinaus reduziert das Pay-as-you-go-Modell in der Cloud den Wartungsaufwand der Anwendungen. Angesichts der Vorteile der Cloud ist es attraktiv, bestehende Software auf diese neue Plattform zu migrieren. Es bleiben jedoch Herausforderungen, da die meisten Softwareanwendungen neu gestaltet werden müssen, um die Cloud zu nutzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17616-6_1 6e8179426889579de4f5c32ea5b6d396;de;;;6.1.;;;Analytics mit NewSQL operationalisieren Betriebsdaten und analytische Daten sind keine zwei getrennten Disziplinen und Diskussionen mehr. Die Datenanalyse gewinnt immer mehr an Bedeutung und wird immer häufiger von Unternehmen nachgefragt, die beginnen, ihre Strategien – ebenso wie Decision Intelligence und Decision Management – ​​auf Fakten zu stützen. Bei der Untersuchung des Zustands der Datenindustrie und der Trends bei Datenverwaltungstechnologien scheinen NewSQL-Systeme präsenter zu sein. Sie sind in der Lage, die Frage der Überbrückung der Betriebsdatenspeicherung und -verwaltung mit dem Echtzeitzugriff auf analytische Daten zu beantworten. Dieses Whitepaper soll einen strukturierten Einblick in die Funktionen und Fähigkeiten von NewSQL-Systemen geben, die genutzt werden können, um eine Datenanalyse für eine Vielzahl von Datentypen zu ermöglichen. Darüber hinaus bietet es einen Überblick über Realtime Analytics-Angebote, Map Reduce-Funktionen und hybride (transaktionale und analytische) Funktionen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-77442-4_21 4f4aa2007cc1c2f3d2947b758a345288;de;;;6.1.;;;Forschung zum Drug Regulation Mode im Zeitalter des Internets der Dinge Das Internet der Dinge ist nach dem Computer und dem Internet die dritte Revolution der Informationstechnologie. Das Zentrum dieser technologischen Revolution ist die [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37337-5_33 d6708c71b50aa5c6a84243308bd38939;de;;;6.1.;;;Follow-up zur Umweltverträglichkeitsprüfung: Von den Erfahrungen der kanadischen Regierung lernen Das Verfahren zur Umweltverträglichkeitsprüfung für Projekte der kanadischen Bundesregierung wird kurz beschrieben. Im nicht gesetzlich geregelten kanadischen System ist die Weiterverfolgung von Prüfungen eines der wichtigsten Mittel, um die Durchführung von Umweltverträglichkeitsprüfungen und die Qualität der Umweltarbeit im Zusammenhang mit Entwicklungsprojekten zu fördern und zu verbessern. Die Ergebnisse einer Studie zum Status der Nachsorge in der kanadischen Regierung werden vorgestellt. Es werden Faktoren besprochen, die einschränken und für die Nachverfolgung förderlich sind. Die Wirksamkeit des Follow-up hängt sowohl von den Umständen eines Projekts und den betroffenen Parteien als auch von den verwendeten Follow-up-Techniken ab. Beide Aspekte können bei der Planung und dem Management des Follow-up und der Umweltverträglichkeitsprüfung insgesamt berücksichtigt werden . Bereiche zur Verbesserung des Follow-up-Managements werden identifiziert und diskutiert: Planung von Follow-up-Aktivitäten, Koordination der betroffenen Parteien, Generierung klarer Verständnisse, Informationsmanagement, Ressourcenzuweisung und Aufrechterhaltung der Glaubwürdigkeit. Es wird eine Methode zur Planung von Folgeaktivitäten für konkrete Projekte vorgestellt.;-;-;-;https://link.springer.com/article/10.1007/BF00404265 502d7bdd2915bae5ad8f503beff094e3;de;;;6.1.;;;Politisch-soziale Dynamik der Energiewende Jan Steens Gemälde in Abb. 3.1 illustriert die Herausforderung, kohärentes Lernen in Komplexität zu finden. Die Komplexität der Stromwende kann zum Scheitern führen. Der rapide Anstieg der Strompreise in Australien hat Australien von einem niedrigen Strompreis zu einem der höchsten der Welt gemacht. Die Folgen der hohen Strompreise für die Wirtschaft wurden ignoriert, da einige Teile der australischen Regierung die Dividenden aus der Überbauung von Vermögenswerten genossen (Wood et al. in Down to the wire: Ein nachhaltiges Stromnetz für Australien, 2018). In diesem Kapitel werden politische Optionen vorgestellt, die aus Interviews mit Energieexperten abgeleitet wurden. Diese Maßnahmen sind von entscheidender Bedeutung für die Moderation der Strompreise.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6145-0_3 30f91e61417617b69b7f47edf5df90dc;de;;;6.1.;;;PDGuard: eine Architektur zur Kontrolle und sicheren Verarbeitung personenbezogener Daten Personenbezogene Online-Daten werden selten, wenn überhaupt, von den betroffenen Benutzern effektiv kontrolliert. Schlimmer noch, wie die zahlreichen wöchentlich gemeldeten Lecks zeigen, gewährleisten die Organisationen, die sie speichern und verarbeiten, die erforderliche Vertraulichkeit nicht angemessen. In diesem Papier schlagen wir vor;-;-;-;https://link.springer.com/article/10.1007/s10207-019-00468-5 3d2d332affcb36373920b9833c67494c;de;;;6.1.;;;Adaptives Testen basierend auf der Wissensraumtheorie Derzeit wird in den meisten Tests noch das Leistungsniveau der Schüler geprüft, es fehlt die Diagnose der Wissensstruktur und des Wissensstands der Schüler. Diese Arbeit wird von der Wissensraumtheorie geleitet, um ein Testsystem für die Wissensstruktur von Studenten zu entwerfen und zu implementieren. Das System kann die Wissensstruktur der Schüler entsprechend den Antwortbedingungen der Schüler testen, sodass die Schüler die Schwachstellen verstehen, auf die sie beim Lernen gezielt werden können. Auf der anderen Seite können Lehrende für die jeweilige Situation der Studierenden geeignete Programme konzipieren, den Unterricht gezielt durchführen und in gewissem Sinne „Lehre entsprechend ihrer Begabung“ realisieren. Nach Abschluss der Systementwicklung werden einige Tests durchgeführt, um die Machbarkeit des Systems zu überprüfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-70042-3_60 08ec7376b6beb298933cf2c252d9ba60;de;;;6.1.;;;Technologie-Roadmap: Smart Apartments Unternehmen auf der ganzen Welt stehen unter dem Druck des Wettbewerbs und der endlosen Notwendigkeit, ihre Kosteneffizienz und Wirtschaftlichkeit zu verbessern. Insbesondere Technologieunternehmen stehen vor der Herausforderung, ihre Wettbewerbsfähigkeit angesichts der Geschwindigkeit des technologischen Fortschritts zu erhalten. Daher müssen Technologieunternehmen strategische Pläne für den technologischen Fortschritt erstellen, damit sie die Marktherausforderungen meistern können. Eine Technologie-Roadmap ist ein Werkzeug, mit dem Unternehmen kurz- und langfristige Ziele planen und diese auf die Einführung und den Fortschritt der Technologie ausrichten können. Dieses Kapitel ist eine Technologie-Roadmap für ABC Inc. ABC ist ein Technologie-Startup in Portland, Oregon, das intelligente Wohnungslösungen in Oregon und auf dem US-Markt anbietet. Bei der Entwicklung dieser Technologie-Roadmap wurden Branchenexperten gebeten, die wichtigsten Markttreiber im Smart-Apartment-Markt, die Produktmerkmale, Technologien und Ressourcen zu identifizieren. Die Studie identifizierte auch die Lücken bei Produktfunktionen, Technologien und Ressourcen, die behoben werden müssen. Wir haben dann die Methode der Qualitätsfunktionsentwicklung (QFD) verwendet, um die vier Komponenten mit einem 4-Skalen-Bewertungsmodell abzubilden. Schließlich wird ein Zeitplan für jeden der Treiber, Produktmerkmale, Technologien und Ressourcen erstellt, um das geeignete Markttiming für die Bereitstellung anzugeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-50502-8_7 b2d38386bfda3b7f001880c9f62d387a;de;;;6.1.;;;Parallele Optimierung für Sparse Matrix–Vektor auf GPU Grafikverarbeitungseinheiten (GPUs) wurden auf dem Gebiet der Universalberechnung verwendet. Der Sparse-Matrix-Vektor-Multiplikationsalgorithmus (SpMV) ist einer der wichtigsten Kernalgorithmen für wissenschaftliche Berechnungen. In diesem Papier diskutieren wir die Implementierung der Optimierung der Sparse-Matrix-Vektor-Multiplikation auf GPUs unter Verwendung des CUDA-Programmiermodells. Wir haben Methoden und Strategien verwendet, die das Mapping von Threads, das Zusammenführen des Zugriffs, die Wiederverwendung von Daten und das Vermeiden der Verzweigung umfassen. Die experimentellen Ergebnisse zeigen, dass die Optimierungsstrategie die SpMV-Leistung verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-4850-0_71 6182c09838bc205ae397fffbf4e69d4b;de;;;6.1.;;;Das Backend-Design eines Umweltüberwachungssystems nach Echtzeitvorhersage von Grundwasserspiegelschwankungen unter dem Hang Der Grundwasserspiegel stellt einen kritischen Faktor für die Beurteilung von Hangrutschungen dar. Ein Überwachungssystem auf der Echtzeit-Vorhersageplattform mit Online-Analysefunktionen ist wichtig, um den Grundwasserspiegel aufgrund sofort überwachter Daten vorherzusagen, wenn der starke Niederschlag den Grundwasserspiegel unter dem Hang anhebt und Instabilität verursacht. Diese Studie soll das Backend eines Umweltüberwachungssystems mit effizienten Algorithmen für maschinelles Lernen und einer Wissensdatenbank für die Vorhersage von Grundwasserspiegelschwankungen entwerfen. Eine webbasierte Plattform auf der Controller-basierten Architektur mit Modellansicht wird mit Technologie von Webservices und Engineering Data Warehouse eingerichtet, um Online-Analyseprozesse und Feedback-Risikobewertungsparameter für die Echtzeitvorhersage zu unterstützen. Das vorgeschlagene System umfasst Modelle hydrologischer Berechnungen, maschinelles Lernen, Webdienste und Online-Vorhersagen, um eine Vielzahl von Anforderungen an die Risikobewertung und Ansätze zur Gefahrenabwehr zu erfüllen. Die aufgezeichneten Niederschlagsdaten aus dem potenziellen Erdrutschgebiet bei Lu-Shan, Nantou und Li-Shan, Taichung, in Taiwan, werden verwendet, um das Systemdesign zu untersuchen.;-;-;-;https://link.springer.com/article/10.1007/s10661-011-1975-0 19870df092a104a5e39ad911bd130b6e;de;;;6.1.;;;Integration von Tsunami-Analysetools in einen GIS-Arbeitsbereich – Forschung, Modellierung und Gefahrenabwehr innerhalb des NOAA-Zentrums für Tsunami-Forschung Das Center for Tsunami Research (NCTR) der National Oceanic and Atmospheric Administration (NOAA) verwendet Geodaten und GIS-Analysetechniken, um ein genaues Tsunami-Vorhersagesystem für die US-Tsunami-Warnzentren aufzubauen. Die resultierenden Prognoseprodukte können in Anwendungen und Visualisierungen integriert werden, um Gefahrenrisiken zu bewerten und US-Küstengemeinden von kleinen Städten bis hin zu großen urbanen Zentren zu entschärfen. Das NCTR führt auch Grundlagenforschung über die Art der Tsunami-Ausbreitung und -Überschwemmung durch, die auf genauen Geoinformationen beruht. In diesem Kapitel diskutieren wir, wie wir sowohl Open-Source- als auch kommerziell verfügbare Geodatentechnologien eingesetzt haben, um Probleme in der Tsunami-Forschung und Gefahrenabwehr anzugehen – einschließlich Modellvisualisierung, Datenbereitstellung und Notfallmanagementprodukten. Darüber hinaus diskutieren wir die Entwicklung und Kopplung von Tsunami-Modellergebnissen mit Küstenrisiko-, Vulnerabilitäts- und Evakuierungsmodellen, wobei wir die Probleme der Integration, Visualisierung, Verbreitung von Kartierungsanwendungen sowie der Benutzerfreundlichkeit und der beabsichtigten Zielgruppe dieser Produkte aufwerfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-2238-7_14 77e08d6d8cb21ad92a92e1de79e574f8;de;;;6.1.;;;Gestaltung Ihres Datenbüros Effizientes Datenmanagement ist kein automatisches Ergebnis der Verpflichtung eines Unternehmens, das Thema ernst zu nehmen. Es bedarf einer bewussten Gestaltung, um systematisch und zukunftssicher alle relevanten Datenthemen zu adressieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-60304-8_3 4e21e78028363a3f42fe58428459ecc2;de;;;6.1.;;;Verbesserung der Anbieterleistung: Ein integrierter Ansatz und eine Fallstudie zu Privilegierung und Credentialing Das Military Health System (MHS) hat lange Zeit die umständliche und zeitaufwändige Aufgabe der Wartung verschiedener Prozesse und Systeme für die US-Armee, die Marine und die Luftwaffe überstanden. Vor dem Start des in diesem Kapitel besprochenen Projekts gab es kein System, auf das zugegriffen werden konnte, um anzuzeigen, dass ein Anbieter authentifiziert wurde und seine genauen Berechtigungen auflistete. Dieser Mangel an Integration verursachte für alle Beteiligten erhebliche Unannehmlichkeiten. Wenn ein Armeearzt über die Straße zu einer Marineeinrichtung gehen würde, hätten die Mitarbeiter keine Ahnung, wer er oder sie war, und der anschließende Antrag auf Zulassung und Privilegierung würde manchmal Wochen dauern.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-3439-3_12 4547bf6e7864caa7987068ea44ede2f7;de;;;6.1.;;;Bestimmung der Qualität der Produktdatenintegration Um den Kundenanforderungen gerecht zu werden, müssen Unternehmen zahlreiche Varianten und Versionen ihrer Produkte verwalten. Da produktbezogene Daten (z. B. Anforderungsspezifikationen, geometrische Modelle und Quellcode oder Testfälle) in der Regel über eine Vielzahl von heterogenen, autonomen Informationssystemen verstreut sind, wird deren Integration bei der Entwicklung komplexer Produkte einerseits und der Zielsetzung bei reduzierten Entwicklungskosten andererseits. Im Allgemeinen werden Produktdaten in verschiedenen Phasen des Produktentwicklungsprozesses erstellt. Darüber hinaus sollten sie an bestimmten Meilensteinen der Prozessentwicklung (z. B. Prototypenbau) vollständig und durchgängig integriert werden. Normalerweise wird dieser Datenintegrationsprozess manuell durchgeführt, was sowohl kostspielig als auch fehleranfällig ist. Stattdessen ist eine halbautomatische Produktdatenintegration erforderlich, die die Datenqualitätsanforderungen der verschiedenen Phasen der Produktentwicklung erfüllt. Dies wiederum erfordert eine genaue Überwachung des Fortschritts des Datenintegrationsprozesses basierend auf geeigneten Metriken. Moderne Ansätze konzentrieren sich ausschließlich auf Metriken zur Bewertung der Schemaintegration, ohne die Qualität und den Fortschritt der Datenintegration zu messen. Dieses Papier erhebt grundlegende Anforderungen, die in diesem Zusammenhang relevant sind. Darauf aufbauend entwickeln wir geeignete Metriken zur Messung der Produktdatenqualität und wenden diese in einer Fallstudie bei einem Automobil-Erstausrüster an.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-26148-5_16 f2b755d616053d39816393e7f8658a4d;de;;;6.1.;;;Verkauf und Distribution Die Hauptaufgabe von Vertrieb und Vertrieb besteht darin, den Kunden Waren und Dienstleistungen bereitzustellen. Um diese Aufgabe erfüllen zu können, muss der Vertrieb den Materialbedarf der Kunden steuern, indem er Kundenaufträge von der Auftragserfassung über die Kommissionierung und den Versand bis hin zur Rechnungsstellung abwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-08295-6_4 c6c2c0670d9f7c7b964838abf354e561;de;;;6.1.;;;Eine Load-Balancing-Methode mit Ringnetzwerk in der Grid-Datenbank In diesem Papier wird eine Lastausgleichsmethode vorgeschlagen, die ein Ringnetzwerk in der Grid-Datenbank verwendet. Frühere Forschungen schlugen vor, das Problem der unausgeglichenen Last zu lösen. Bisherige Techniken können jedoch nicht angewendet werden, da die Grid-Datenbank über eine Reihe von Systemen verfügt und sich die Anforderungen des Benutzers immer dynamisch ändern. Das vorgeschlagene Verfahren verbindet jeden Knoten mit den gleichen replizierten Daten durch ein Ringnetzwerk. Wenn die Arbeitslast in einem Knoten überläuft, wird die Anforderung des Benutzers an einen verknüpften Knoten übertragen, der die Zieldaten enthält. Außerdem stoppt dieser Knoten die Verarbeitung einer weiteren Anforderung, bis die Arbeitsbelastung deutlich abgenommen hat. Um die Anforderungsweiterleitung von einem vorherigen Knoten zu stoppen, ändert er dann die Verbindungsstruktur, indem er eine Nachricht an den vorherigen Knoten sendet. Durch Leistungsbewertung zeigt dieses Papier, dass die vorgeschlagene Methode eine höhere Leistung aufweist und besser für die Grid-Datenbank geeignet ist als die bestehenden Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72909-9_23 c7597c848aa71592a7cdc4ccec970d86;de;;;6.1.;;;Über Transparenz, Korruption und Integrität in der Kommunalverwaltung: Ein Blick aus Argentinien In diesem Kapitel wird untersucht, wie sich die Interessen der Akteure auf die politische Entscheidungsfindung und das Konzept der Integrität öffentlicher Bediensteter in der argentinischen Kommunalverwaltung auswirken. Es beginnt damit, einige der Bedingungen aufzudecken, die ihre Praxis-Realität gewöhnlich strukturieren. Im Wesentlichen lenkt ein System dominanter Beziehungen die lokale Regierungsführung, die eine eingebettete Korruptionspraxis in formellen und informellen Arenen umfasst. So üben beispielsweise die Aktionen von Wirtschaftslobbyisten und zunehmend organisierten sozialen Bewegungen sowie der Medien Druck auf Entscheidungsträger aus.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-030-03008-7_67-1 82e3164b81b7341153bea4be2edf3353;de;;;6.1.;;;Open-Source-Lehrbücher: Ein von Open-Source-Software abgeleitetes Paradigma Diese Arbeit enthüllt ein neues Paradigma für die Erstellung und Veröffentlichung von Lehrbüchern: Open Source. Der Begriff Open Source stammt aus der Computersoftwareindustrie, wo das Wort Quelle eine technische Bedeutung hat, die in diesem Papier erklärt wird. Open Source Software ist Software, die von vielen Mitarbeitern entwickelt wurde, die das Internet nutzen, um ein Endprodukt zu produzieren. Die Mitwirkenden erhalten keine finanzielle Entschädigung, dennoch gab es viele erfolgreiche Open-Source-Softwareprojekte (Linux, Open Office, Apache etc.). Open-Source-Lehrbücher verwenden ein ähnliches Finanzierungsmodell, die Autoren und Mitwirkenden erhalten keine direkte finanzielle Vergütung für ihre Arbeit. Die Mitwirkenden werden in der erstellten Arbeit als Hauptautor(en), Mitautoren, Mitwirkenden, Nebenautoren usw. entsprechend der Größe ihres Beitrags aufgeführt. Das erstellte Werk steht den Nutzern kostenlos im Internet zur Verfügung. Dieser Beitrag erläutert den Open-Source-Prozess und begründet Open Source als effektives Paradigma. Außerdem werden einige bestehende Open-Source-Lehrbuchprojekte sowie das eigene Open-Source-Lehrbuchprojekt des Autors vorgestellt.;-;-;-;https://link.springer.com/article/10.1007/s12109-014-9346-7 21875cf7c8fae5ff2bd77c490aa17ff4;de;;;6.1.;;;Kundenbeziehungsmanagement und das Wertschöpfungsnetzwerk Exzellenz im Servicegeschäft bedeutet, die Kundenanforderungen zu verstehen und zu managen. Im Gegensatz zu einem ingenieursorientierten reaktiven, transaktionsbasierten Produktgeschäft mit Gegenwert erfordert die Entwicklung und der Verkauf von Dienstleistungen erfolgreich den Wechsel zu einer proaktiven Beziehung mit kontinuierlicher Zusammenarbeit und einem im Einsatz bereitgestellten Wert. Folglich nehmen die Kontaktpunkte zwischen Unternehmen und Kunden dramatisch zu, was vom Hersteller die Einrichtung eines ausgeklügelten CRMs und die Professionalisierung der kundenorientierten Abläufe erfordert. Zudem verändern sich die Beziehungen eines Herstellers zu anderen Akteuren im Wertschöpfungsnetzwerk durch den Übergang zum Dienstleister. Je nachdem, ob ein Unternehmen auf eine Direktvertriebsansprache oder auf Vertriebspartner setzt, erfordern mehrere Dimensionen eine unterschiedliche Aufmerksamkeit. In diesem Kapitel werden daher die angesagtesten Themen im Bereich CRM und Wertschöpfungsnetzwerke für bedienende Hersteller diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72728-4_9 c19b88d1c8b7332e81b8252b72a4d486;de;;;6.1.;;;Mikrocomputergestützte klinische und Forschungslabore in psychiatrischen stationären Einrichtungen Mikrocomputer sind in klinischen Umgebungen immer nützlicher geworden und führen Funktionen aus, die von der Testverwaltung bis zum Verfassen von Erzählberichten reichen. Sie könnten in naher Zukunft an therapeutischen Verfahren beteiligt sein. Kliniker und Forscher fragen sich, ob ein Mikrocomputer eine breite Palette von Funktionen in der klinischen Psychiatrie übernehmen kann und zu einem vielseitigen und kostengünstigen Werkzeug wird. Dieser Beitrag beschreibt die Entwicklung eines umfassenden Systems für Forschung und klinisches Datenmanagement auf einer psychiatrischen Station. Das Herzstück des Systems ist ein Apple II-Plus Mikrocomputer, der mit PASCAL, Standardperipherie und einer kostengünstigen kundenspezifischen Schnittstelle ausgestattet ist. Das System erfüllt die aktuellen Anforderungen an das Datenmanagement der Abteilung und seine Erweiterbarkeit ermöglicht die Planung von beurteilungs- und behandlungsbezogenen Forschungen.;-;-;-;https://link.springer.com/article/10.3758/BF03203542 9efab7f7d757211794fb44e2055961a4;de;;;6.1.;;;Räumlich-zeitliche Statistik und Niederschlagsanalyse in der Provinz Jilin Niederschlag ist eines der wichtigen Umweltphänomene mit sowohl räumlichen als auch zeitlichen Eigenschaften. Sie kann als Realisierung einer räumlich-zeitlichen Zufallsfunktion angesehen werden. Um den Niederschlag in der Provinz Jilin zu analysieren, wird ein räumlich-zeitliches Kovarianzmodell angewendet, um die Raum-Zeit-Korrelation zu beschreiben, und das Kriging wird zur Schätzung und Vorhersage auf 3D erweitert. Die in dieser Arbeit verwendeten monatlichen Niederschlagsdaten wurden an 24 Messstationen von Januar 2001 bis Dezember 2008 aufgenommen. Während des Experiments wird zunächst die saisonale Komponente der Niederschlagsmessungen entfernt und die Residuen zur Modellierung der räumlich-zeitlichen Kovarianz generiert. Das 3-D-Kriging wird verwendet, um den Niederschlagswert für alle Stationen im März 2008 zu interpolieren. Und die Interpolationsgenauigkeit wird berechnet, was zeigt, dass die Methode bei der räumlich-zeitlichen Analyse des Niederschlags praktikabel ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22694-6_36 9fd7f4afdd87dbf630440ee55a6d0e9a;de;;;6.1.;;;IKT und ihre Rolle in der nachhaltigen Tourismusentwicklung Der Beitrag diskutiert eine Untersuchungsstudie über die Nutzung und Anwendung von Informations- und Kommunikationstechnologien für eine nachhaltige Tourismusentwicklung. Es entwickelt den Vorschlag, dass der Einsatz solcher Technologien ein praktischer Ansatz sein kann, mit dem Reiseziele einige der negativen Auswirkungen des Tourismus abschwächen können. Mit einer zielorientierten Perspektive und einer weltweiten Studie untersuchte diese Studie, wie IKT im Management eines nachhaltigen Tourismus eingesetzt werden kann. Es stellt eine Reihe von IKT-basierten Werkzeugen/Anwendungen für den Einsatz durch Destinationsmanager vor und diskutiert die Möglichkeiten des Destinationsmanagements für die Anwendung von IKT auf eine nachhaltige Tourismusentwicklung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-211-99407-8_40 d0cb66d732dadb2b70176160fae44771;de;;;6.1.;;;Die Analyse des prioritätsbasierten geschlitzten CSMA/CA-Algorithmus in einem IEEE 802.15.4-Sensornetzwerk Der Standard IEEE 802.15.4 bietet eine MAC- und PHY-Schichtspezifikation für ein drahtloses Personal Area Network (WPAN) mit niedriger Rate, geringem Stromverbrauch, geringer Komplexität und kurzer Reichweite. Der vom Standard verwendete grundlegende Zugriffsmechanismus ist die CSMA/CA. In diesem Artikel wird das Markov-Kettenmodell verwendet, um die Eigenschaften des IEEE 802.15.4-Medium-Access-Control-Protokolls widerzuspiegeln, und es wird ein verbesserter prioritätsbasierter geschlitzter CSMA/CA-Algorithmus vorgeschlagen. Die Simulationsergebnisse der verwendeten OMNET-Umgebung zeigen, dass der vorgeschlagene Algorithmus eine höhere Kanalzugriffsrate erreichen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33050-6_9 ada904f901e8d48055a7c13e3c470f1e;de;;;6.1.;;;Segregation von Single-Locus-DNA-Fragmenten in einer großen Familie Die getestete Familie ist kaukasischer Herkunft und lebt in allen Teilen Westdeutschlands. DNA wurde aus EDTA-Blut entweder durch Phenol-Choroform-Extraktion oder das Aussalzverfahren extrahiert (1). Nach Quantifizierung und Kontrolle von hochmolekularer DNA wurden mit Hinf I verdaut 5 ug DNA auf ein 0,7%iges Agarosegel aufgetragen. Nach Southern-Transfer auf Hybond N (Amersham) wurde die Hybridisierung in einem Hybridisierungsofen durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-75496-8_21 133b2b97119cc85cc18b01f93d512c5c;de;;;6.1.;;;DAS GLOBALE BILD Der Härtetest für jede Idee ist, ob sie in der Praxis funktioniert. Wie wir in diesem Buch gesehen haben, lehrt uns die Komplexitätstheorie viele Lektionen, die einen unmittelbaren praktischen Nutzen in der Landschaftsökologie, im Naturschutz und im Umweltmanagement haben. Wenn uns die Komplexitätstheorie jedoch überhaupt Lektionen lehrt, lehrt sie, dass wir Ökosysteme nicht verstehen können, indem wir sie isoliert studieren. Um ein vollständiges Bild zu erhalten, müssen wir jedes Ökosystem in den Kontext seiner umgebenden Region stellen. Wir können auch keine ganze Region verstehen, ohne zu verstehen, wie die Elemente in ihrem ökologischen Mosaik miteinander interagieren.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-4287-6_11 58f101a78948a8263a4ec046403271cd;de;;;6.1.;;;Räumliche und zeitliche Analyse für Energiesysteme In diesem Buch werden die Konzepte und Verfahren zur Bewertung von Energiesystemen diskutiert, um eine Reihe von räumlichen und zeitlichen Analysen mit geografischen Informationssystemen (GIS) durchzuführen. Neben der digitalen Kartierung kann GIS die Betrachtungsweise der Ressourcen unserer Erde auf komplexere Weise verändern, indem es Daten aus Fernerkundung, GPS und einer Vielzahl von Datenbanken integriert. Viele GIS-Pakete sind als offene Software oder als kommerzielle Software frei verfügbar, die in Industrie, Behörden und Hochschulen weit verbreitet ist. In diesem Kapitel werden einige grundlegende Konzepte vorgestellt, die in den nächsten Kapiteln behandelt werden. Nach der Identifizierung bestimmter offener Fragen in der räumlichen und zeitlichen Analyse wird ein fallorientierter Ansatz zur Bewertung von Energiequellen einschließlich nicht erneuerbarer Quellen und erneuerbarer Quellen mit ihrer zeitlichen Dynamik und räumlichen Muster vorgeschlagen. Auch die Präsentation neuer GIS-Technologien wird die Stärken und Schwächen sowie die Möglichkeiten und Grenzen des Einsatzes von GIS-Methoden für weitreichende Anwendungen bei der Bewertung von Energiequellen diskutieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-52694-2_2 54277690637928545adae1de83638259;de;;;6.1.;;;EntityManager: Verwalten von schmutzigen Daten basierend auf der Entitätsauflösung Die Datenqualität ist in vielen datengesteuerten Anwendungen wichtig, z. B. bei der Entscheidungsfindung, Datenanalyse und Data Mining. Neuere Studien konzentrieren sich auf Datenbereinigungstechniken, indem die schmutzigen Daten gelöscht oder repariert werden, was zu Informationsverlusten und neuen Inkonsistenzen führen kann. Um diese Probleme zu vermeiden, schlagen wir EntityManager vor, ein allgemeines System zur Verwaltung schmutziger Daten ohne Datenbereinigung. Dieses System verwendet eine reale Einheit als grundlegende Speichereinheit und ruft Abfrageergebnisse gemäß den Qualitätsanforderungen der Benutzer ab. Das System ist in der Lage, alle Arten von Inkonsistenzen zu verarbeiten, die durch die Entitätsauflösung erkannt werden. Wir erarbeiten das EntityManager-System und decken seine Architektur, das Datenmodell und die Abfrageverarbeitungstechniken ab. Um Abfragen effizient zu verarbeiten, verwendet unser System neuartige Indizes, Ähnlichkeitsoperatoren und Abfrageoptimierungstechniken. Schließlich verifizieren wir die Effizienz und Effektivität dieses Systems und stellen zukünftige Forschungsherausforderungen vor.;-;-;-;https://link.springer.com/article/10.1007/s11390-017-1731-1 471e5641be2a9c0a2e07915396b0abbd;de;;;6.1.;;;Leistungsoptimierung des auf fraktalen Dimensionen basierenden Merkmalsauswahlalgorithmus Die Merkmalsauswahl ist ein Schlüsselthema in den fortgeschrittenen Anwendungsfeldern wie Data Mining, mehrdimensionale statistische Analyse, Multimedia-Index und Dokumentenklassifizierung. Es ist ein neuartiges Verfahren, um fraktale Dimensionen auszunutzen, um die Dimension von Merkmalsräumen zu reduzieren. Der bekannteste ist der auf fraktalen Dimensionen basierende Merkmalsauswahlalgorithmus;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27772-9_82 d1491e4b7c137f2925e0283db4d3ef4f;de;;;6.1.;;;Archäologische Datenmodelle und Webpublikation mit XML Um die elektronische Veröffentlichung und Analyse archäologischer Daten im World Wide Web zu ermöglichen, ist ein geeignetes standardisiertes Datenmodell erforderlich. Es wird ein ''elementbasiertes'' Modell vorgeschlagen, das leicht als Extensible MarkupLanguage (XML)-Tagging-Schema implementiert werden kann, das jede Art von archäologischen Daten darstellen und plattformübergreifend und standardisiert an jeden Webbrowser liefern kann. Dieses Tagging-Schema und das darin implementierte Datenmodell ermöglichen eine nahtlose Integration und gemeinsame Abfrage von archäologischen Datensätzen aus vielen verschiedenen Quellen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1002471112790 2e2d543ce3c16f39f1089636aaf6abbc;de;;;6.1.;;;Bioinformatik in der Landwirtschaft: Alphabete für die Transformation im Feld übersetzen Die Wesentlichkeit der Bioinformatik wurde seit langem für die Förderung von Wissenschaft und Innovation wahrgenommen. Die Bioinformatik findet direkte Anwendung in den Programmen zur Verbesserung der Kulturpflanzen. Es hilft Forschern, die genetische Ausstattung mit kommerziellen Merkmalen zu verbinden. Die Verfügbarkeit vollständiger Genome zahlreicher wirtschaftlich wichtiger Nutzpflanzen und Fortschritte bei Einrichtungen und Experimenten für Hochdurchsatzstudien eröffnen neue Wege zur Verbesserung der Nutzpflanzen. Verschiedene Ansätze wie Pflanzengenomvergleiche, genetische Kartierungsstrategien, evolutionäre Analysen usw. im Rahmen von Pflanzenentwicklungsprogrammen sind heute durch bioinformatische Datenanalyse möglich. Für einige Wissenschaftler schienen die neuen Gene, neuartigen Proteine ​​und ihre Funktionen, einzigartigen Metaboliten, quantitativen Profile, Stoffwechselwege usw. weniger ergeben zu haben, als man früher in Bezug auf neue Ziele oder Strategien für die Entwicklung von . erwartet hatte Nutzpflanzen in der Agrarwissenschaft. Die jüngsten Arbeiten zu diesem Thema haben uns jedoch dabei geholfen, solche Themen realistischer und immer noch optimistischer in einer sozial verantwortlichen akademischen Übung zu behandeln. Während einige „Microarray“- oder „Bioinformatik“-Wissenschaftler als „Katalogisierungsforschung“ kritisiert wurden, sind viele Forscher der Ansicht, dass sie wirklich neue wissenschaftliche und technologische Systeme und Techniken erforschen, um die menschliche Gesundheit, die menschliche Nahrungs- und Futtermittelproduktion zu unterstützen , landwirtschaftliche Gesamtproduktivität und Umweltschutz. Tatsächlich sind die Komplexität, das Ausmaß und das Ausmaß der Wechselwirkungen in biologischen Systemen enorm, aber gleichzeitig müssen wir besser informiert und in der Lage sein, ehrlich und geschickt die wichtigen Fragen der globalen Landwirtschaft und der Umwelt anzugehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67156-7_7 f52e300ca718ef1d37afd47e44abc9f9;de;;;6.1.;;;Trends bei der Arbeitseffizienz auf den amerikanischen Krankenhausmärkten Der Gesundheitssektor ist einer der arbeitsintensivsten Wirtschaftszweige. Als wichtiger Akteur bei der Erbringung von Gesundheitsdienstleistungen müssen Krankenhäuser ihre größten Kosten – die Arbeitskosten – genau prüfen. Diese Studie bewertet Trends in der Effizienz der Arbeitskräfte im Gesundheitswesen auf den städtischen Krankenhausmärkten. Insbesondere wird die Hypothese bewertet, dass technologische Veränderungen sowie Markt- und Regulierungsdruck die gesamtwirtschaftliche Arbeitseffizienz erhöht haben. Unter Verwendung der Datenumschlagsanalyse (DEA) bewertet diese Studie die Arbeitseffizienz in den Jahren 1989 und 1993 in 298 statistischen Metropolregionen (MSA) mit zwei oder mehr Krankenhäusern. Die Ergebnisse dieser Studie deuten darauf hin, dass die Krankenhausmärkte zwischen 1989 und 1993 im Allgemeinen eine höhere Arbeitsineffizienz aufwiesen. Das US-Gesundheitssystem könnte 1993 etwa 16,6 Milliarden US-Dollar einsparen, indem es den übermäßigen Einsatz von Arbeitskräften des Gesundheitswesens durch Krankenhäuser beseitigt.;-;-;-;https://link.springer.com/article/10.1007/BF02187024 f05561229158c09d520fbf679c7534cf;de;;;6.1.;;;Studie zum Management von großflächigen Siedlungsabbruchabfällen basierend auf GIS Der Urbanisierungsprozess fördert nicht nur die Entwicklung und Transformation der Stadt, sondern produziert auch eine Vielzahl von Bauschutt. Aufgrund der Dezentralisierung der Basisdaten und der damit verbundenen technischen Unterstützung mangelt es derzeit jedoch an großflächigen Bauschuttmanagementmethoden, was zu großen Problemen bei der Entsorgung von Siedlungsabbruchabfällen führt. Der Zweck dieser Studie besteht darin, Entscheidungsträgern Informationsmanagement-Tools für städtische und projektbezogene Größenordnungen an die Hand zu geben. Basierend auf der Untersuchung der grundlegenden Eigenschaften, des wirtschaftlichen Nutzens und der Umweltverträglichkeitsanalyse von Abbruchabfällen verwendet dieses Papier die räumliche Analysefunktion von Web-GIS und verwendet JavaScript, HTML, JSP und andere Entwicklungssprachen. Der Texteditor EditPlus wird auch als Entwicklungswerkzeug verwendet. Gleichzeitig wird eine leichtgewichtige Visualisierungsmethode für massive digitale Oberflächenmodelldaten und städtische Abbruchabfalldaten in der Netzwerkumgebung vorgeschlagen. Die Datenressourcen der dreidimensionalen Visualisierung werden mit dem dreidimensionalen Datenformat G1TF organisiert und verwaltet. Diese Methode kann ein Informationsmanagement von Abbruchabfällen auf städtischer Ebene realisieren und den Akteuren theoretische und praktische Referenzen in Bezug auf wirtschaftlichen Nutzen und Umweltauswirkungen bieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8892-1_112 000fff4886e4b51b566dbd5dc11538f4;de;;;6.1.;;;Designstudie eines patientenorientierten Informationsdienstsystems für die Stationsschwesternstation am Beispiel des Vierten Volkskrankenhauses von Wuxi In diesem Beitrag werden die aktuelle Situation und die Entwicklung im Bereich des medizinischen Dienstes in China diskutiert. Um den Stationsinformationsdienst als aus verschiedenen Anlaufstellen des Pflegedienstes bestehend zu gestalten, ist es hilfreich, die Komplexitätsfragen des Krankenhausaufenthaltes zu optimieren. Aus der Perspektive des Informationsdienstes analysiert es tiefgreifend die geschäftlichen und pflegerischen Informationen des Stationskrankenhauses aus dem Serviceprozess und der Anlaufstelle des Informationsdienstes. Wir haben auch eine Recherche im Wuxi Vierten Volkskrankenhaus durchgeführt, um eingehende Kenntnisse über die Frage und die spezifischen Bedürfnisse von Krankenhauspatienten und Krankenschwestern im medizinischen Dienst auf der Station zu erhalten, die durch Benutzerinterviews von Krankenhauspatienten, Verhaltensbeobachtung und den Dienstplan untersucht werden und einige andere Methoden. Dann haben wir fünf Kategorien zusammengefasst, wie z. B. Service der Aufnahme und Entlassung von Patienten, Kostenabfrage, Rehabilitationspflege, Essensbestellung und Persönliches Zentrum. Schließlich formuliert es die Konstruktionsstrategien, einschließlich der Einrichtung der Serviceplattform der Arzt-Patient-Informationssymmetrie und der Bereitstellung diversifizierter Informationsserviceinhalte, sowie Kommunikationsstrategien, einschließlich Rich-Media-Ersatztext, unter Verwendung von Infografiken sowie Online-Informationsserviceplattformdesign für Patienten .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-40093-8_71 cb2952030614545e977a982e304ceda8;de;;;6.1.;;;Bibliotheks- und Literaturarbeit Literaturarbeit ist wichtig für das Wachstum von Gelehrten und Forschern. Ohne Lese- und Bibliothekskenntnisse kann man die für die experimentelle Arbeit entscheidende Schreibbegabung nicht entwickeln. Glücklicherweise haben in den letzten Jahren viele Bakkalaureatsprogramme das Lesen und Schreiben wieder betont. Dies ist von großem Wert für Studienanfänger.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-7410-5_7 c73bd5c8bac1302947e0c1da06b8a607;de;;;6.1.;;;Effektive Datensatzsuche und -aktualisierung mithilfe von Designmustern - Eine Fallstudie zur mobilen Anwendung von Blutbanken Dies ist die neue Ära des Umgangs mit Daten zur Entwicklung des Branchenwachstums durch Minimierung von Arbeitsaufwand und Fehlern, wodurch die Qualität erhöht und die Dienste zur Verbesserung der Gemeinschaft erweitert werden. Ebenso gibt es viele technologische Anpassungen im medizinischen Bereich durch die Verwaltung riesiger Datensätze und deren Digitalisierung. Digitalisierte Aufzeichnungen bieten einen effizienten Datenzugriff mit hoher Benutzerfreundlichkeit. Heute spielen digitalisierte Patientenakten und die dazugehörige Technologie eine wichtige Rolle in unserem täglichen Leben. Die Design Patterns wie Publisher-Subscriber-, Push- und Query Command Segregation Patterns können problemlos in verschiedene Anwendungen übernommen werden. Diese Fortschritte ermöglichen kommerzielle Datendienste und helfen auch Wohlfahrtsverbänden, der Gesellschaft zu dienen und einen Beitrag zur Gesellschaft zu leisten. Einer der Community-Dienste, die mithilfe von Design Pattern angesprochen werden, ist die Blutspende. In diesem Artikel werden verschiedene Designmuster kurz diskutiert und hauptsächlich die Idee der Anwendung der Designmuster zur Verbesserung des Such- und Vertriebsnetzes von Blutbanken und Blutspenden behandelt. Echtzeit-Blutbank benötigt ein dediziertes Managementsystem mit Hilfe von Technologie [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-43192-1_5 118a0b1d4dea989c0e89925a0cea467e;de;;;6.1.;;;Ethische Fragen bei Export, Lagerung und Wiederverwendung humanbiologischer Proben in der biomedizinischen Forschung: Perspektiven wichtiger Akteure in Ghana und Kenia Seit vielen Jahrzehnten ist der Zugang zu menschlichen biologischen Proben wie Zellen, Geweben, Organen, Blut und subzellulären Materialien wie DNA für den Einsatz in der biomedizinischen Forschung von zentraler Bedeutung für das Verständnis der Natur und Übertragung von Krankheiten auf der ganzen Welt. Die Einschränkungen der aktuellen ethischen und regulatorischen Rahmenbedingungen in Subsahara-Afrika zur Regelung der Sammlung, Ausfuhr, Lagerung und Wiederverwendung dieser Proben haben jedoch zu Widersprüchlichkeiten in der Praxis und einer Reihe von ethischen Bedenken für Probenspender, Forscher und Forschungsethikkommissionen geführt. Dieses Papier untersucht die Perspektiven und Antworten der Interessengruppen auf die ethischen Fragen, die sich aus diesen Forschungspraktiken ergeben.;-;-;-;https://link.springer.com/article/10.1186/1472-6939-15-76 5cde50b05995929fd6e068ef5d13b676;de;;;6.1.;;;Vom Gedanken zum Handeln: Die Lücke in der frühen Kindheit für unsere am stärksten gefährdeten Kinder und Familien schließen Die Bedeutung der frühen Betreuung und Bildung wurde von Forschern, politischen Entscheidungsträgern, Fürsprechern sowie staatlichen und lokalen Programmen stark beachtet. Dieses Kapitel befasst sich mit den besonderen Bedürfnissen der schutzbedürftigen kleinen Kinder und Familien, auf die das Kindeswohl aufmerksam gemacht wird, und zeigt den Nutzen von Frühbetreuungs- und Bildungsprogrammen auf. Bundesinitiativen werden überprüft, darunter Forschungs- und Demonstrationsprojekte, die darauf abzielen, den Zugang zu frühkindlichen Programmen für gefährdete Familien zu verbessern. Das Kapitel beleuchtet die bundesstaatliche Politik zur Stärkung der Verbindungen zwischen frühkindlicher Betreuung und Bildung, Kinderfürsorge und Eltern-, Familien- und Gemeindeengagement. Es wird ein Rückblick auf die bisherigen Erfahrungen, die laufenden Herausforderungen und die zukünftigen Möglichkeiten zur Förderung gemeinsamer Wohlergehensergebnisse diskutiert. Der letzte Abschnitt enthält Empfehlungen für einen systemischen und kollaborativen Ansatz, der Politik, Forschung, Praxis und Familienengagement verbindet, um die Lücke in der frühen Betreuung und Bildung für alle Kinder und Familien zu schließen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-39059-8_9 5b81031749a431752383911c7166f430;de;;;6.1.;;;Verbindungsmitglieder von ISO/TC211 Die ISO/TC211 (Geographic information / Geomatics) wurde 1994 gegründet, um geographische Informationen zu standardisieren. Allerdings wurden vor der Gründung des ISO/TC211 verschiedene Aspekte geographischer Informationen als ISO-, IEC- oder ITU-Standards veröffentlicht und andere relevante Standards werden während der Arbeit des ISO/TC211 entwickelt. Um die bestehenden Standards und laufenden Aktivitäten mit der Arbeit von ISO/TC211 in Einklang zu bringen, wurden formelle Beziehungen zu den zuständigen Gremien, sogenannte „interne Verbindungen“, aufgebaut.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-08039-9_6 4ff4928549009b5b4c7c99b76f7afbb4;de;;;6.1.;;;Nicht-interaktive widerrufbare identitätsbasierte Zugriffskontrolle auf e-Healthcare-Aufzeichnungen Der Widerruf der Zugriffskontrolle auf private E-Gesundheitsakten (EHRs) ermöglicht den Widerruf der Zugriffsrechte gültiger Benutzer. Die meisten bestehenden Lösungen verlassen sich zu sehr auf einen vertrauenswürdigen Dritten, um Entschlüsselungsschlüssel zu generieren und zu aktualisieren, oder erfordern die Berechnungen nicht gesperrter Benutzer während des Widerrufs, was sie für einige kompliziertere Szenarien unpraktisch macht. In diesem Papier schlagen wir ein neues Widerrufsmodell vor, das als nicht interaktive, widerrufbare identitätsbasierte Zugriffskontrolle (NRIBAC) auf EHRs bezeichnet wird. In NRIBAC muss ein vertrauenswürdiger Dritter nur geheime Schlüssel für Gruppenautoritäten generieren, und jede Gruppenautorität kann Entschlüsselungsschlüssel für die Benutzer in ihrer Domäne generieren. Der NRIBAC unterscheidet sich von anderen Sperrverfahren durch die vorteilhafte Eigenschaft, dass er keine Teilnahme nicht gesperrter Nutzer am Sperrvorgang erfordert. Wir konstruieren ein NRIBAC-Schema mit kurzen Chiffretexten und Entschlüsselungsschlüsseln, indem wir hierarchische identitätsbasierte Verschlüsselung nutzen und die Versionsinformationen einführen. Wir beweisen formell die Sicherheit des NRIBAC-Schemas und führen eine gründliche theoretische Analyse durch, um die Leistung zu bewerten. Die Ergebnisse zeigen, dass das Schema ein günstiges Sperrverfahren bietet, ohne nicht gesperrte Benutzer zu stören.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-17533-1_33 23a8f9910843614966c8a59bcc4bce55;de;;;6.1.;;;"Riposte: FDA-Antwort auf „Yin, Yang und die biopharmazeutische Industrie“ In seinem Leitartikel mit dem Titel ""Yin, Yang und die biopharmazeutische Industrie"" führt Henry Miller den dreijährigen Rückgang der Biotechnologie-Aktien auf zwei Faktoren zurück: den Wettbewerb zwischen Biotechnologie-Unternehmen um eine relativ kleine Anzahl von Produkten und die Food and Drug Administration (FDA) regulatorische Maßnahmen. Obwohl auch wir sehr besorgt über den jüngsten Rückgang sind, bestreiten wir sowohl die Behauptung, dass die FDA eine große Rolle bei diesem Rückgang gespielt hat, als auch die Behauptungen, diese Behauptung zu untermauern.";-;-;-;https://link.springer.com/article/10.1057/palgrave.jcb.3040053 ecfcfcc1f4e17957e0836174d0f8f2b5;de;;;6.1.;;;Ein börsennotiertes Unternehmen als Ziel Die Übernahme einer Gesellschaft, deren Aktien zum Handel an einem geregelten Markt zugelassen sind, unterliegt einer umfassenderen und detaillierteren Regelung des Gemeinschaftsrechts. In diesem Kapitel werden die wichtigsten Regeln zusammengefasst. Diese Fragen wurden teilweise in anderen Teilen dieses Buches diskutiert. Viele davon lassen sich in Fachwerken besser besprechen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03058-1_19 5670993498003faf6c3e21975ae05c66;de;;;6.1.;;;FedSmart: Ein sich automatisch aktualisierender Federated Learning-Optimierungsmechanismus Federated Learning hat einen wichtigen Beitrag zur Wahrung des Datenschutzes geleistet. Viele bisherige Arbeiten gehen davon aus, dass die Daten unabhängig identisch verteilt sind (IID). Als Ergebnis liegt die Modellleistung bei nicht identisch unabhängig verteilten (Nicht-IID) Daten über den Erwartungen, was die konkrete Situation darstellt. Einige bestehende Methoden zur Sicherstellung der Modellrobustheit bei Nicht-IID-Daten, wie die Datenfreigabestrategie oder das Vortraining, können zu Datenschutzverlusten führen. Darüber hinaus gibt es einige Teilnehmer, die versuchen, das Modell mit minderwertigen Daten zu vergiften. In diesem Beitrag wird eine leistungsbasierte Parameterrückgabemethode zur Optimierung vorgestellt, wir nennen sie;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-60259-8_52 fb870538ef210e02bb0219ae9b42a05b;de;;;6.1.;;;Zonendesign für Planung und Politikanalyse Die Revolution der geografischen Informationssysteme (GIS), die weit verbreitete Verfügbarkeit digitaler Kartendaten und die Möglichkeit, über Adresspunkt und die Postadressdatei genaue Ortsangaben an Adressdatenbanken anzuhängen, eröffnet Benutzern die Möglichkeit, ihre eigenen kundenspezifischen Zonensysteme in Großbritannien zu entwerfen. Zum ersten Mal ist es möglich, die Kontrolle über die Zonen zu übernehmen, die für die Berichterstellung, Kartierung und Analyse von Geoinformationen erforderlich sind. Diese Situation ist natürlich nicht ganz neu. Seit der erste Punkt in Polygonalgorithmen in den frühen 1970er Jahren verwendet wurde und Digitalisierer die Codierung von Polygonen als Strings von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-03954-0_16 325cfb95eb969c659c9a9b726629bd13;de;;;6.1.;;;Datenreplikation in mobilen Ad-hoc-Netzwerken Die Datenreplikation ist geeignet, um die Antwortzeit, den globalen Datenverkehr und die gemeinsame Nutzung von Daten zu verbessern, da auch im Falle einer Trennung eines Servers. Die Knoten können weiterhin auf Datenreplikate zugreifen. In einem Ad-hoc-Mobilfunknetz erschweren die häufige Aufteilung des Netzes und das Fehlen fester Infrastrukturen den Datenzugriff und die Sharing-Aufgabe.;-;-;-;https://link.springer.com/chapter/10.1007/11943952_58 4115ac4e32329730eb63eb1fe50f22c2;de;;;6.1.;;;Forschung zum intelligenten Robotersystem für die Parkinspektion Mit der Beschleunigung der Urbanisierung in China spielen Parks als wesentlicher Bestandteil eine wichtige Rolle bei der Verbesserung des Lebensumfelds, der Förderung der Stadtmarke und der Steigerung des Glücks- und Gewinngefühls der Bürger. Derzeit wendet die Verwaltung des Parks hauptsächlich die manuelle Inspektionsmethode an, die viele Nachteile hat. Dieses Papier schlägt ein Parkinspektionssystem vor, das auf künstlicher Intelligenz basiert. Das System hat die folgenden Hauptvorteile: Verwendung von Multi-Source-Sensortechnologie und Standortalgorithmus, Verwendung künstlicher Intelligenz, automatische Steuerung, unabhängig von Zeit, Ort und anderen externen Faktoren, kann die Arbeitseffizienz verbessern, die Abdeckung verbessern, die Inspektion durchführen genau und effektiv arbeiten. Es kann auch die Wartungskosten senken und den Aufbau intelligenter Überwachungsnetze an öffentlichen Orten wie Parks während der Zeit der Epidemieprävention und -kontrolle erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8462-6_22 0f57047b55452c9ecfcfee78d73c1d03;de;;;6.1.;;;Event-Cloud-Plattform zur Entscheidungsunterstützung im Notfallmanagement Die Herausforderung dieses Papiers besteht darin, die Fähigkeit einer Event-Cloud-Plattform hervorzuheben, eine Notfallsituation effizient zu unterstützen. Wir haben uns entschieden, uns auf einen Anwendungsfall einer Nuklearkrise zu konzentrieren. Der vorgeschlagene Ansatz besteht darin, einerseits die Geschäftsprozesse der Krisenreaktion zu modellieren und andererseits die Orchestrierung und Ausführung dieser Prozesse durch den Einsatz einer Event-Cloud-Plattform zu unterstützen. Dieses Papier zeigt, wie der Einsatz von Event-Cloud-Techniken Stakeholder des Krisenmanagements unterstützen kann, indem nicht wertschöpfende Aufgaben automatisiert werden und Entscheidungsträger darauf hingewiesen werden, was ihre Wahlfähigkeiten wirklich erfordern. Obwohl die Event-Cloud-Technologie ein sehr interessantes und aktuelles Thema ist, haben sich nur sehr wenige Forschungsarbeiten damit befasst, um das Notfallmanagement zu verbessern. Dieses Papier versucht, diese Lücke zu schließen, indem es diese Technologien auf einen Anwendungsfall einer Nuklearkrise betrachtet und anwendet.;-;-;-;https://link.springer.com/article/10.1007/s10796-013-9475-0 5718b87983519987780ee745cefef568;de;;;6.1.;;;Eine PLM-Vision für die Kreislaufwirtschaft Aufgrund der wachsenden Besorgnis über Nachhaltigkeitsthemen und des Aufkommens des Paradigmas der Kreislaufwirtschaft (CE) in Kombination mit den jüngsten technologischen Veränderungen und der daraus resultierenden Steigerung der Wettbewerbsfähigkeit besteht ein dringender Bedarf, den Ansatz des Product Lifecycle Management (PLM) neu zu definieren. PLM muss Aspekte einbeziehen, die den Wechsel zu diesem Paradigma ermöglichen würden, wie z. B. eine verbesserte Sammlung und Auswertung von Informationen aus Produktionsprozessen, Vertrieb, Einzelhandel, Verbrauchern und Zusammenarbeit in einem erweiterten Unternehmenskontext durch die Implementierung von Basistechnologien wie dem Internet of Dinge (IoT) und Big Data. Dieses Papier schlägt eine auf dem Stand der Technik basierende Vision für ein CE-fähiges PLM vor, wobei das Szenario der portugiesischen Schuhindustrie als Referenz dient.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-65151-4_52 1a8ee7288fd1f35213e11f61bb9d864b;de;;;6.1.;;;Managed Care: Geschäftliche und klinische Probleme Die Managed-Care-Branche und Managed-Care-Organisationen (MCOs) stehen für einen radikalen Wandel in der medizinischen Praxis und der Gesundheitsversorgung in den Vereinigten Staaten. In der Vergangenheit wurden die medizinische Praxis und die Erbringung der klinischen Versorgung getrennt vom Betrieb der Arztpraxis, des Krankenhauses oder einer anderen Gesundheitseinrichtung verwaltet. Dadurch entstanden im amerikanischen Gesundheitswesen zwei klare operative und administrative Schichten mit entsprechenden Organisationsstrukturen. Die klinische Ebene umfasste Operationen, die speziell auf die medizinische und medizinische Versorgung ausgerichtet waren. Dazu gehören die Patientendiagnostik und -behandlung sowie die Patientenversorgung im Krankenhaus (z. B. Verabreichung von Medikamenten und anderen Therapien, Füttern und Baden des Patienten usw.). Die Geschäfts- oder Verwaltungsebene bestand hingegen aus Verfahren, die den klinischen Betrieb unterstützten, beherbergten oder bezahlten: Patientenregistrierung, Versicherung, Abrechnung, Antragstellung und Erstattungsmanagement.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-0521-0_7 c91d7674b5954603be7f0a039d234b32;de;;;6.1.;;;Verbundbearbeitungsverfahren für die OKP-Produktentwicklung In der Blechbearbeitung und -herstellung gibt es viele kleine oder mittlere Unternehmen (KMU). Diese OKP-Fertigungsunternehmen sind auf dem Markt einem starken Wettbewerbsdruck ausgesetzt, der diese Unternehmen gezwungen hat, alle Anstrengungen zu unternehmen, um die PD-Durchlaufzeit zu verkürzen, die Produktionseffizienz zu verbessern, hohe Qualitätsstandards zu erreichen und gleichzeitig die Kosten zu senken. Um den Anforderungen dieser Unternehmen gerecht zu werden, wird in diesem Kapitel ein Verbundschneid- und Stanzfertigungsverfahren vorgestellt, das von einem integrierten CAD/CAPP/CAM-System für die Blechfertigung unterstützt wird. Viele existierende kommerzielle CAD/CAM-Systeme sind für dieses Herstellungsverfahren nicht geeignet, insbesondere unter gleichzeitigen und globalen Konstruktions- und Herstellungsumgebungen. Bevor diese CAD/CAM-Systeme eingesetzt und in dieses Verbundfertigungsverfahren integriert werden können, müssen einige Probleme gelöst werden. Dieses Kapitel befasst sich mit Lösungen für einige dieser Probleme. Die Lösungen umfassen eine integrierte Datenintegrationsplattform auf Basis von Pro/INTRALINK und STEP sowie ein wissensbasiertes Echtzeit-CAP-System (RTCAPP) zum Schneiden und Stanzen von Verbundblechen. Innerhalb des vorgeschlagenen CAD/CAPP/CAM-Systems wurden einige Schlüsselmodule entwickelt. Sie sind das Modul für die automatische Werkzeugauswahl und Fertigungssequenz, ein Modul zur Optimierung des kürzesten Werkzeugweges, ein Modul zur Kostenschätzung und ein Modul zum automatischen Einfügen von Hilfswegen auf Basis von Wissensdatenbanken. Diese Module werden in diesem Kapitel beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84996-341-1_5 e218ff5d304fb1245f30bf6f5bb30eef;de;;;6.1.;;;Bewertung mikrovaskulärer Veränderungen im perifovealen Gefäßnetz mittels optischer Kohärenztomographie-Angiographie (OCTA) bei Typ-I-Diabetes mellitus: eine groß angelegte prospektive Studie Die diabetische Retinopathie (DR) ist die häufigste Erblindungsursache bei Patienten mit Typ-1-Diabetes mellitus (DM) als Folge einer gestörten Durchblutung der Netzhaut. Die optische Kohärenztomographie-Angiographie (OCTA) ist ein neu entwickeltes, nicht-invasives bildgebendes Verfahren der Netzhaut, das eine adäquate Abgrenzung des perifovealen Gefäßnetzes ermöglicht. Es ermöglicht die Erkennung von paramakulären Bereichen mit kapillarer Nichtperfusion und/oder Vergrößerung der fovealen avaskulären Zone (FAZ), was ein hervorragendes Werkzeug zur Beurteilung von DR darstellt. Der Zusammenhang dieser mikrovaskulären Veränderungen mit systemischen Faktoren wie Stoffwechselkontrolle oder Krankheitsdauer muss noch aufgeklärt werden.;-;-;-;https://link.springer.com/article/10.1186/s12880-019-0391-8 92aba3ccadc7dbc69ff4b89e44da9fcf;de;;;6.1.;;;Ein lokalisierter Ansatz für die verteilte Abfrageverarbeitung Um Abfragen gegen ein globales Schema in einem verteilten Multidatenbanksystem zu verarbeiten, ist eine Abfrageumwandlung erforderlich, die die Abfrage gegen das globale Schema den lokalen Schemas zuordnet. In diesem Papier, a;-;-;-;https://link.springer.com/chapter/10.1007/BFb0022171 bd5bb379ea30f5dd3df0145b43184a18;de;;;6.1.;;;Ein skalierbares Inline-Cluster-Deduplizierungs-Framework für Big Data Protection Die Cluster-Deduplizierung hat sich zu einer weit verbreiteten Technologie in Datenschutzdiensten für Big Data entwickelt, um die Anforderungen von Service Level Agreements (SLA) zu erfüllen. Es bleibt jedoch eine große Herausforderung für die Cluster-Deduplizierung, einen vernünftigen Kompromiss zwischen den widersprüchlichen Zielen eines skalierbaren Deduplizierungsdurchsatzes und einer hohen Duplikat-Eliminationsrate in Cluster-Systemen mit Low-End-einzelnen sekundären Speicherknoten zu finden. Wir schlagen ∑-Dedupe, ein skalierbares Inline-Cluster-Deduplizierungs-Framework, als Middleware vor, die in Cloud-Rechenzentren bereitgestellt werden kann, um dieser Herausforderung zu begegnen, indem Datenähnlichkeit und Lokalität genutzt werden, um die Cluster-Deduplizierung in Inter-Knoten- bzw. In-Knoten-Szenarien zu optimieren. -Dedupe wird durch ein ähnlichkeitsbasiertes Stateful-Data-Routing-Schema gesteuert und weist demselben Backup-Server ähnliche Daten mit der Super-Chunk-Granularität zu, indem eine Handprinting-Technik verwendet wird, um eine hohe Effizienz der Cluster-Deduplizierung ohne knotenübergreifende Deduplizierung aufrechtzuerhalten, und gleicht die Arbeitslast von Server von Backup-Clients. In der Zwischenzeit erstellt ∑-Dedupe einen Ähnlichkeitsindex über dem traditionellen Caching-Design mit erhaltener Lokalisierung, um den Engpass bei der Chunk-Index-Suche in jedem Knoten zu verringern. Eine umfassende Bewertung unseres ∑-Dedupe-Prototyps anhand modernster Schemata, basierend auf realen Datensätzen, zeigt, dass ∑-Dedupe eine clusterweite Duplikateliminationsrate erreicht, die fast so hoch ist wie die hohe Overhead- und schlecht skalierbare traditionelle Stateful-Routing-Schema, jedoch mit einem Overhead, der nur geringfügig höher ist als der der skalierbaren, aber zustandslosen Routing-Ansätze mit niedrigem Duplikateeliminationsverhältnis.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35170-9_18 1be1f66d18900d34489b8d0178d43192;de;;;6.1.;;;Gleichzeitigkeitskontrollmechanismus für ein verfügbares verteiltes Datenbanksystem Dieses Papier stellt Algorithmen vor, die in einem verfügbaren Datenbanksystem verwendet werden, um Vorgänge zu verarbeiten und zu steuern. Die Struktur des Systems und die Algorithmen sind so ausgelegt, dass die Transaktionsverarbeitung im Falle eines Ausfalls einer Site fortgesetzt werden kann. Wir werden uns auf die erforderlichen Netzwerkfunktionalitäten, die Nebenläufigkeitskontrolle und Transaktionsatomizitätsprobleme konzentrieren. Die an jedem Standort verwendeten Protokolle werden unter Verwendung von Bewertungsnetzen formal beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-70285-3_11 22c7f25a2aebf39d352830af2ce8d9d8;de;;;6.1.;;;Über wissensbasierte Systemarchitekturen In diesem Kapitel werden Architekturprobleme von Knowledge-Base-Management-Systemen (KBMS) untersucht, die sich aus der Integration von Knowledge-Base-Systemen (KB) und Datenbank-Management-Systemen (DBMS) ergeben können. Es wird eine hypothetische KBMS-Architektur präsentiert, die die Zerlegung und aktuelle KB-Systeme und DBMSs in Komponenten annimmt, die selbst KB-Systeme sein können. Die Architektur ist für ein System von heterogenen, verteilten, kooperierenden KB-Komponenten, die aktiv an der Problemlösung beteiligt sind (zB Knowledge Management und KB-Anwendungskomponenten kooperieren, ein DBMS-Abfrageoptimierer kooperiert mit anderen KB-Planungskomponenten.) Die Architektur wird verwendet, um die Systemkonzept eines KBMS, seine potenzielle Funktionalität, verwandte Systemprobleme und Arten der Integration.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-4980-1_4 d2291ae5a750cc6aadca58de8d0679ea;de;;;6.1.;;;Pfadbasierte eingeschränkte Nächster-Nachbarn-Suche in einem Straßennetz Nearest Neighbor (NN)-Abfragen werden häufig für ortsabhängige Informationsdienste verwendet. In diesem Papier untersuchen wir eine neue NN-Abfrage namens Path-based Constrained Nearest Neighbor (PCNN)-Abfrage, die zusätzliche Einschränkungen für nicht-räumliche Attributwerte von Datenobjekten bei der Verarbeitung einer kontinuierlichen NN-Suche entlang eines Pfads beinhaltet. Für die Verarbeitung von PCNN-Abfragen schlagen wir eine effiziente PCNN-Abfragemethode vor, die auf der Transformationsidee basiert. Das vorgeschlagene Verfahren transformiert eine kontinuierliche NN-Suche in statische NN-Abfragen an diskreten Kreuzungsknoten. Wir nutzen außerdem Peer-to-Peer-Sharing, um die vorgeschlagene Methode zu verbessern. Umfangreiche Experimente werden durchgeführt und die Ergebnisse belegen die Wirksamkeit unserer Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32600-4_37 41174d9a1293be3ca904f1764fe29b24;de;;;6.1.;;;Identifizierung der „Quelle“- und „Senke“-Muster, die die Verschmutzung durch nicht-punktuelle Quellen im Drei-Schluchten-Stauseengebiet beeinflussen Die Verschmutzung durch nicht-punktuelle Quellen ist eines der hauptsächlich ökologischen Probleme, die das Drei-Schluchten-Stauseengebiet betreffen. In diesem Beitrag wurde der Landschaftswiderstands- und Motivationskoeffizient, der verschiedene Landschaftselemente wie Landnutzung, Boden, Hydrologie, Topographie und Vegetation integriert, basierend auf den Auswirkungen großräumigen Widerstands und Motivation auf die Bildung von Nicht-Punkten festgelegt Quellenverschmutzung. Darüber hinaus wurden Kostenmodelle der Landschaftswiderstands- und Motivationskoeffizienten basierend auf den Entfernungen der Landschaftseinheiten zu den Teileinzugsgebieten erstellt, um die „Quelle“- und „Senken“-Muster zu identifizieren, die die Bildung von nicht-punktuellen Quellenverschmutzungen beeinflussen . Die Ergebnisse zeigten, dass die Veränderungen der Landschaftswiderstands- und Motivationskoeffizienten der 16 Teileinzugsgebiete inverse Beziehungen zu ihren räumlichen Verteilungen aufwiesen. Die Kurven des Landschaftswiderstands und der Motivationskosten waren volatiler als die Kurven des Landschaftswiderstands und des Motivationskoeffizienten. Entlang des Jangtse-Flusses wurden die Landschaftsresistenz und Motivationskostentrends der 16 Teileinzugsgebiete immer deutlicher. Die in diesem Papier vorgeschlagenen Modelle für den Landschaftswiderstand und die Motivationskosten könnten verwendet werden, um großräumige, nicht punktuelle Verschmutzungsmuster „Quelle“ und „Senke“ zu identifizieren. Darüber hinaus könnte das vorgeschlagene Modell verwendet werden, um die großräumigen räumlichen Eigenschaften der Bildung von Verschmutzungen durch nicht-punktuelle Quellen basierend auf „Quelle“- und „Senken“-Landschaftsmusterindizes, räumlicher Lokalisierung sowie Landschaftswiderstands- und Motivationskoeffizienten zu beschreiben.;-;-;-;https://link.springer.com/article/10.1007/s11442-016-1336-6 eddd937cc2ff3bf782f63aae51368983;de;;;6.1.;;;Implementierung der OCTAVE-Methodik im Sicherheitsrisikomanagementprozess für Geschäftsressourcen Einer der wichtigsten Faktoren realer Live-Teleinformatiksysteme ist der Risikomanagementprozess. Es stellt sich die Frage, wie dieser Prozess in realen und großen Organisationen umgesetzt werden kann. Jeden Tag suchen die meisten technologischen Entscheidungsträger und Finanzentscheider nach Methoden für sichere Vermögenswerte und sichere Geschäfte. In diesem Kapitel führen die Autoren eine Diskussion über die Methodik, die das Informationsmanagement und den Entscheidungsfindungsprozess zum Schutz verbessert. Die Autoren beschreiben OCTAVE (The Operationally Critical Threat, Asset, and Vulnerability Evaluation) anhand von Praxisbeispielen und unter Bezugnahme auf die polnischen Rechtsvorschriften. Ziel des Kapitels ist es, eine Methodik vorzustellen, die in westeuropäischen Ländern, den Vereinigten Staaten von Amerika erfolgreich eingesetzt wird und die Möglichkeit ihrer Anwendung in Polen darstellt und sich gut in die Sicherheitspolitik vieler Organisationen einfügt. In diesem Artikel soll ein Beispiel der OCTAVE-Implementierung für kleine und mittlere Unternehmen nach polnischem Recht vorgestellt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25355-3_21 4b19153ac802c4d77132e267aa8f58d8;de;;;6.1.;;;Quellenauswahl in großen Datenkontexten: ein Optimierungsansatz Dieses Papier stellt OptiSource vor, einen neuartigen Ansatz zur Quellenauswahl, der die Anzahl der Datenquellen reduziert, auf die während der Abfrageauswertung in großen verteilten Datenkontexten zugegriffen wird. Diese Kontexte sind typisch für große virtuelle Organisationen (VO), in denen autonome Organisationen Daten über eine Gruppe von Domänenkonzepten (z. B. Patient, Gen) teilen. Die Instanzen solcher Konzepte werden aus nicht zusammenhangslosen Fragmenten erstellt, die von mehreren lokalen Datenquellen bereitgestellt werden. Solche Quellen überlappen sich auf eine nicht beherrschte Weise, was den Datenort unsicher macht. Diese Tatsache sowie das Fehlen zuverlässiger Statistiken über den Inhalt der Quellen und die große Anzahl von Quellen machen aktuelle Vorschläge in Bezug auf Antwortqualität und/oder Antwortzeit ungeeignet. OptiSource optimiert die Quellenauswahl, indem es organisatorische Aspekte von VOs nutzt, um den Nutzen der Verwendung einer Quelle vorherzusagen. Es verwendet ein Optimierungsmodell, um die Sätze von Quellen zu unterscheiden, die den Nutzen maximieren und die Anzahl der zu kontaktierenden Quellen minimieren, während Ressourcenbeschränkungen erfüllt werden. Die Präzision und der Wiedererkennungswert der Quellenauswahl werden stark verbessert, wie die mit dem OptiSource-Prototyp durchgeführten Tests belegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15364-8_4 f973444497f8b108057a4f2ec2f59e7d;de;;;6.1.;;;Multiflow-Optimierung durch horizontale Message Queue-Partitionierung Integration Flows werden zunehmend verwendet, um datenintensive Integrationsaufgaben zwischen heterogenen Systemen und Anwendungen zu spezifizieren und auszuführen. Es gibt viele verschiedene Anwendungsbereiche wie Near-Echtzeit-ETL und Datensynchronisation zwischen Betriebssystemen. Aufgrund steigender Datenmengen, stark verteilter IT-Infrastrukturen sowie hoher Anforderungen an die Aktualität der analytischen Abfrageergebnisse und die Datenkonsistenz werden viele Integrationsabläufe im Laufe der Zeit ausgeführt. Aufgrund dieser hohen Belastung ist die Leistungsfähigkeit der zentralen Integrationsplattform für eine IT-Infrastruktur entscheidend. Mit dem Ziel der Durchsatzmaximierung schlagen wir das Konzept der Multi-Flow-Optimierung (MFO) vor. Bei diesem Ansatz werden Nachrichten während einer Wartezeit gesammelt und in Batches ausgeführt, um Sequenzen von Planinstanzen eines einzelnen Integrationsflusses zu optimieren. Wir stellen einen horizontalen (wertbasierten) Partitionierungsansatz für die Nachrichten-Batch-Erstellung vor und zeigen, wie die optimale Wartezeit berechnet wird. Dieser Ansatz reduziert die Gesamtausführungszeit einer Nachrichtensequenz erheblich und maximiert daher den Durchsatz, während eine moderate Latenzzeit akzeptiert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19802-1_3 b58853edabf729e1285e4d80328a8606;de;;;6.1.;;;Verbesserung der Unternehmens-IT-Sicherheit mit einem visualisierungsbasierten Prozess-Framework Diese Arbeit stellt ein Prozess-Framework für die Sicherheitsvisualisierung vor, das die Wissensgenerierung in Organisationen unterstützt, die Benutzerfreundlichkeit von IT-operativen Aufgaben verbessert und die Verwaltbarkeit von Daten und Geräten verbessert. Das Framework, wie es aufgebaut wurde und wie es verwendet werden kann, wird beschrieben. Das Framework gibt detaillierte Anweisungen, macht den aktuellen Zustand der Umwelt sichtbar und fordert die Beteiligung von Stakeholdern. Mit diesem Konzept wird die Qualität der verwendeten Daten systematisch verbessert, aber auch das IT-Sicherheitsniveau der Organisation insgesamt. Es besteht aus einem Visualisierungsprozess (Daten abfragen, verwalten, visualisieren, interagieren) und einem Datenmanagementprozess (Daten definieren, Daten erfassen, Daten analysieren, Datenqualität sicherstellen, Daten entsorgen oder wiederverwenden). Dies wird anhand eines Proof-of-Concept-Prozesses veranschaulicht, der zum Schwachstellenmanagement ausgeführt wird. Außerdem wird ein Implementierungsleitfaden bereitgestellt, um die Anpassung des Prozessrahmens zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4825-3_18 09a9d7f56620e599c27235b240897b49;de;;;6.1.;;;Inhalte verwalten In diesem Kapitel werden die Rollen und Verantwortlichkeiten untersucht, die normalerweise der Abteilung für Informationstechnologie (IT) bei der Verwaltung einer SharePoint-Umgebung zugewiesen werden, und untersucht, wie eine IT-Abteilung Benutzern bei der Verwaltung ihrer Inhalte helfen kann. Dies umfasst das Erstellen, Organisieren und Aktualisieren von Inhalten. Aber genauso wichtig wie das Erstellen von Inhalten in SharePoint ist die Verwaltung der Entfernung alter, veralteter Daten. Daten, die nicht mehr benötigt werden, können Ressourcen- und Leistungsprobleme verursachen und das Unternehmen Datenkonsistenz- und Compliance-Problemen aussetzen. Dieses Kapitel konzentriert sich auf die von SharePoint bereitgestellten Tools zur Verwaltung des gesamten Inhaltslebenszyklus.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-4078-5_6 3bd7f296f799581b685f30afdd38bea5;de;;;6.1.;;;FDE: Ein System für Experimente an Schnittstellen zwischen Logikprogrammierung und Datenbanksystemen Die Flexible Deductive Engine (FDE) wurde entwickelt, um das Experimentieren mit einer Vielzahl von Suchstrategien zu erleichtern, um die Logikprogrammierung sowie Wissensmanagementanwendungen zu unterstützen. Neben der Unterstützung verschiedener deduktiver Strategien bietet FDE mehrere Möglichkeiten zum Speichern und Zugreifen auf Daten. Fakten können als Zusicherungen dargestellt und in der Regelbasis gespeichert werden, oder sie können in den Erweiterungen von Prädikaten dargestellt werden, die in einer Datenbank gespeichert sind. Es besteht auch eine beträchtliche Flexibilität in Bezug auf die Granularität und das Timing des Zugriffs auf relationale Datenbanken. Da FDE sowohl ein internes relationales Datenbankverwaltungssystem (DBMS) als auch Schnittstellen zu einer Reihe externer relationaler DBMS in einem lokalen Netzwerk enthält, können sich solche Erweiterungsdaten in derselben Umgebung wie FDE oder außerhalb davon befinden. Dieses Papier gibt einen kurzen Überblick über FDE und konzentriert sich auf seine Mechanismen für den Zugriff auf Daten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82937-6_20 dc283246c63557af8f435946aab8820a;de;;;6.1.;;;Probleme bei der Konfiguration von Sicherheitsrichtlinien in Grid-Computing-Umgebungen Ein Computational Grid ist eine Hardware- und Softwareinfrastruktur, die einen zuverlässigen, konsistenten, umfassenden und kostengünstigen Zugang zu High-End-Rechenfunktionen bietet. Ziel ist die flexible, sichere und koordinierte gemeinsame Nutzung dynamischer Sammlungen von Einzelpersonen, Institutionen und Ressourcen. Ohne ein angemessenes Verständnis der Sicherheitsauswirkungen eines Grids können jedoch sowohl der Eigentümer, der Ressourcen zum Grid beisteuert, als auch der Ressourcenanforderer erheblichen Sicherheitseinbußen ausgesetzt sein. Grundvoraussetzung für den Aufbau einer sicheren Grid-Umgebung ist die Definition und Umsetzung einer konkreten Sicherheitspolitik. Derzeit wird die Sicherheitsrichtlinie in den vorhandenen Grid-Umgebungen oft nur durch Konfigurieren von Zugriffssteuerungslisten festgelegt, die einzelnen Ressourcen zugeordnet sind. Es ist offensichtlich, dass in diesem Bereich erhebliche Arbeit erforderlich ist, die zur Spezifikation integrierter Sicherheitsrichtlinien in dieser speziellen Umgebung führen wird, in der Prinzipale aus mehreren Verwaltungsdomänen koexistieren. Der Zweck dieses Dokuments besteht darin, eine Reihe von Sicherheitsrichtlinien zu überprüfen, die bereits in bestehenden Grid-Umgebungen konfiguriert wurden, die Mängel zu identifizieren und eine Sammlung aller Probleme vorzustellen, die beim Aufbau einer integrierten Sicherheitsrichtlinie in einem Grid berücksichtigt werden sollten Computing-Umgebung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39878-3_26 b492dce19b8537622ef9679de9589679;de;;;6.1.;;;Hohe Coulomb-Effizienz von Lithiumplattierung/Stripping und Lithium-Dendriten-Prävention Die Morphologie der Li-Beschichtung und die Coulomb-Effizienz der Li-Abscheidung sind entscheidend für die Sicherheit und Zyklizität von Li-Metall-Batterien. Fast alle Faktoren, die zu einem signifikanten dendritischen Wachstum führen, führen auch zu einem niedrigeren CE und umgekehrt. In diesem Kapitel werden verschiedene Faktoren diskutiert, die sowohl die Li-Plattierungsmorphologie als auch die Coulomb-Effizienz des Li-Zyklus beeinflussen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-44054-5_3 7c7f5f394142dadd5eb1511d16eb93c7;de;;;6.1.;;;Untersuchung von Praktiken und Lücken bei der Regulierung des Gesundheitspersonals in Äthiopien: eine nationale Querschnittsstudie Die Regulierung des Gesundheitspersonals spielt eine Schlüsselrolle bei der Sicherstellung der Verfügbarkeit von kompetentem Gesundheitspersonal und der Verbesserung der Leistungsfähigkeit des Gesundheitssystems. Im Jahr 2010 richtete Äthiopien eine nationale Behörde ein, die die Kompetenz und Ethik von Angehörigen der Gesundheitsberufe sicherstellen soll. Anschließend wurden subnationale Regulierungsbehörden eingerichtet und Regulierungsrahmen entwickelt. Obwohl es anekdotische Berichte über Umsetzungslücken gab, fehlten empirische Beweise, um die Berichte zu untermauern. Wir haben eine nationale Studie durchgeführt, um die Regulierungspraktiken und Lücken im Gesundheitswesen zu untersuchen, die sich auf Registrierung, Lizenzierung, Ethik, Anwendungsbereich und kontinuierliche berufliche Entwicklung konzentrieren.;-;-;-;https://link.springer.com/article/10.1186/s41256-019-0127-x ffa1aed2ba836f9b76d5580980fea8da;de;;;6.1.;;;Wiederverwendung des klassischen Abfrageumschreibens in P2P-Datenbanken Die gemeinsame Nutzung strukturierter Daten in P2P-Overlays ist ein herausforderndes Problem, insbesondere wenn kein globales Schema vorhanden ist. Die Art der im Overlay gespeicherten strukturierten Daten erzwingt strenge Abfragemethoden. Die Absicht des Benutzers besteht jedoch in der Regel darin, Informationen zu erhalten, die für die gestellte Anfrage semantisch relevant sind, und nicht auf Informationen, die strikt strukturellen Randbedingungen entsprechen. Die Umschreibmechanismen für strukturierte Daten wurden zunächst für Aufgaben wie Datenintegration und -vermittlung entwickelt, die naturgemäß eine strikte Konsistenz vorschreiben. In dieser Arbeit schlagen wir Möglichkeiten vor, eine Anfrage vorzuverarbeiten, um eine Version zu erzeugen, die auf klassische Weise umgeschrieben werden kann. Wir schlagen Vorverarbeitungsrichtlinien vor, die eine neue Abfrage erzeugen, die der ursprünglich gestellten Abfrage am ähnlichsten ist. Dementsprechend diskutieren wir eingehend Fragen der Ähnlichkeitsaspekte aus struktureller Sicht. Schließlich präsentieren wir einen Algorithmus, der die am besten geeigneten Zuordnungen auswählt, um das Umschreiben von Abfragen durchzuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71661-7_28 99de2dc6f433b22d83582b2749df3a63;de;;;6.1.;;;Die Entwicklung der Vulnerabilität und Simulation sozial-ökologischer Systeme in einem semiariden Gebiet: Eine Fallstudie aus Yulin City, China Am Beispiel des semiariden Gebiets von Yulin City verbessert diese Studie die Methoden und Techniken der Vulnerabilitätsbewertung auf Kreisebene unter Verwendung des VSD-Bewertungsrahmens (Vulnerability Scoping Diagram), integriert den VSD-Rahmen und den SERV (Spatial Explicit Resilience-Vulnerability). )-Modell und zerlegt die Systemanfälligkeit in drei Dimensionen, dh Exposition, Empfindlichkeit und Anpassungsfähigkeit. Erstens wurden die Vulnerabilitätsindizes mit dem vollständigen Verständnis des Hintergrunds und der Expositionsrisikoquelle des Forschungsgebiets durch das SERV-Modell gescreent und das Indexsystem wurde konstruiert, um die Eigenschaften der lokalen Ökoumgebung zu bewerten. Zweitens hat diese Studie mit Hilfe von RS und GIS die räumliche Differenzierung und Entwicklung der sozial-ökologischen Systeme in Yulin City in den Jahren 2000–2015 gemessen und intrinsische Gründe für die räumlich-zeitliche Entwicklung von Vulnerabilität untersucht. Die Ergebnisse sind wie folgt: (1) Das räumliche Muster der SES-Verwundbarkeit von Yulin City ist „hoch im Nordwesten und Südosten und niedrig entlang der Großen Mauer“. Obwohl der Grad der Systemanfälligkeit während des Untersuchungszeitraums signifikant abgenommen hat und sich der Systementwicklungstrend verbessert hat, gibt es einen starken räumlichen Unterschied zwischen der Systemanfälligkeit und dem Expositionsrisiko. (2) Die Entwicklung der Systemvulnerabilität wird durch die Risikofaktoren der Exposition beeinflusst, und die regionale Vulnerabilität und die räumliche Heterogenität des Expositionsrisikos werden durch die soziale Sensibilität, die wirtschaftliche Anpassungsfähigkeit und andere Faktoren beeinflusst. Schließlich werden entsprechend der Unsicherheit der Entscheidungsträger die Zukunftsszenarien der regionalen Vulnerabilität unter verschiedenen Entscheidungsrisiken unter Nutzung des OWA-Multikriteriumsalgorithmus simuliert und die Verwundbarkeit des regionalen Systems unter verschiedenen Entwicklungsrichtungen basierend auf der Entscheidung vorhergesagt Rational-Risiko-Intervall der Macher.;-;-;-;https://link.springer.com/article/10.1007/s11442-018-1465-1 32e1e7d835d0936c65f8517a883438ed;de;;;6.1.;;;Die inhärenten Kosten einer stark-partial-ansichtssynchronen Kommunikation Wir untersuchen algorithmische Probleme im Zusammenhang mit der Gruppenmitgliedschaft der ansichtssynchronen Kommunikation (VSC) in großen verteilten Systemen, bei denen Netzwerkpartitionen dazu führen können, dass mehrere Ansichten gleichzeitig aktiv sind. Wir leiten zunächst notwendige Bedingungen für die Teilreihenfolge der installierten Ansichten ab, sodass VSC in Gegenwart von Partitionen sinnvoll und lösbar ist. Das beweisen wir dann;-;-;-;https://link.springer.com/chapter/10.1007/BFb0022139 178bd3c57e390d4a6e5ab590f5232b24;de;;;6.1.;;;Semantische Interoperabilität von Befehls- und Kontrollinformationssystemen unter Verwendung eines kanonischen Messaging-Ansatzes Angesichts der rasanten Entwicklung der Informations- und Kommunikationstechnologie (IKT), die die Datenverarbeitung steigern kann, können viel mehr Daten gespeichert, verwendet und/oder vermittelt und verbreitet werden. Heute werden Informationen und Wissen zu einer Ressource von strategischer Bedeutung in komplexen Systemen, sowohl in der Wirtschaft als auch im Militär. Auf der anderen Seite stellt sich die Frage nach der Glaubwürdigkeit der erhobenen Daten: Komplexe Systeme müssen mit einem zunehmenden Zugang zu Informationen mit weniger Wissen über deren Herkunft und deren Qualität umgehen. Aufgrund dieses Mangels an Informationen über Informationen leiden moderne Organisationen unter organisatorischer Gleichgültigkeit. In diesem Beitrag werden Wege und Mittel zur Gewährleistung der semantischen Interoperabilität untersucht, um eine Informationsüberlegenheit in komplexen Systemen zu erreichen, mit besonderem Augenmerk auf militärische Systeme, die Command and Control Information Systems (C2IS) verwenden. Kanonische Nachrichten (kanonische Vermittler) basierend auf kanonischen Formen (kanonischen Datenmodellen und -formaten) reduzieren die Anzahl der Transformationskarten, die das System erstellen und verwalten muss. Ein auf kanonischem Messaging basierender Ansatz im militärischen Bereich wird vorgestellt: Multilateral Interoperability Program (MIP). Bei richtiger und konsequenter Umsetzung sollte es zur Erlangung von Informationsüberlegenheit führen.;-;-;-;https://link.springer.com/article/10.2478/s13537-012-0021-9 360f662d352917a0a9a922cff3d82e0b;de;;;6.1.;;;Das verteilte Dateisystem Apollo DOMAIN Das Apollo DOMAIN®-System ist eine voll funktionsfähige verteilte Computerumgebung für ein Netzwerk von Personal Workstations und Netzwerkservern. Als es 1980 zum ersten Mal entwickelt wurde, lag sein Fokus auf verteilten Systemen auf einem Dateisystem, das Benutzern autonomer Workstations die gleiche Leichtigkeit des Dateiaustauschs ermöglichte, die sie mit zentralen Time-Sharing-Systemen hatten. Während das DOMAIN-System seitdem erweitert wurde, um eine stärkere Basis für zusätzliche verteilte Systemeinrichtungen bereitzustellen, wird sich diese Untersuchung des Apollo-DOMAIN-Systems hauptsächlich mit dem Entwurf und der Implementierung des verteilten DOMAIN-Dateisystems befassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-46604-5_9 18e0872bda1b6d950fdec8207cc246b0;de;;;6.1.;;;Anwendung der Modellprüfung auf die Sicherheit des AXML-Systems: Eine Fallstudie Ein Active XML (kurz AXML) wurde entwickelt, um eine effiziente Datenverwaltung und -integration zu ermöglichen, indem Webservice-Aufrufe in ein XML-Dokument eingebettet werden können. AXML-Dokumente weisen aufgrund der Möglichkeit bösartiger Dokumente und Angreifer neue Sicherheitsprobleme auf. Um dieses Sicherheitsproblem zu lösen, wurde eine Sicherheit auf Dokumentebene mit eingebetteten Dienstaufrufen vorgeschlagen, um die Beschränkung traditioneller Sicherheitsprotokolle zu überwinden.;-;-;-;https://link.springer.com/chapter/10.1007/11841197_16 a2f0a2c4b1340e790b4852a61b0353ea;de;;;6.1.;;;Zeitlich-räumliche Eigenschaften von Sturmfluten und rauer See in Küstengebieten Festlandchinas von 2000 bis 2019 Meereskatastrophen stellen eine ernsthafte Bedrohung für die wirtschaftliche und soziale Entwicklung dar. Daher ist es für die Katastrophenprävention und -minderung von großer Bedeutung, ihren Auftretensrhythmus zu verstehen. Als große Form von Meereskatastrophen in China verdienen Sturmfluten und raue See besondere Aufmerksamkeit. In dieser Studie wurden statistische Daten zu Sturmfluten und rauer See der letzten 20 Jahre gesammelt und ein visueller Ansatz verwendet, um deren Umfang, Verteilung und zeitlich-räumliche Eigenschaften zu erkennen. Anschließend wurde die Umsetzung der Katastrophenprävention und -minderung erörtert. Die Ergebnisse zeigten Folgendes: (1) Sturmfluten zeigten eine signifikante Saisonalität (im Sommer und Herbst), während das ganze Jahr über raue See auftrat. (2) Die Schäden durch Sturmfluten zeigten deutliche regionale Unterschiede. Insbesondere waren die wirtschaftlichen Verluste und die Zahl der Todesopfer in den südlichen Provinzen höher als in den nördlichen Provinzen, sie gingen jedoch von 2000–2009 bis 2010–2019 deutlich zurück. (3) Auch die Schäden durch raue See zeigten regionale Unterschiede mit höheren Schadenwerten in den südlichen Provinzen als in den nördlichen Provinzen. Der Gesamtschaden ist in den letzten Jahren deutlich zurückgegangen.;-;-;-;https://link.springer.com/article/10.1007/s11069-021-04628-6 f6ad23530c573a00ae83cbf278089a6c;de;;;6.1.;;;Wie Chinesen das Internet nutzen Dieser Teil des Buches untersucht die Rolle und die Rahmenbedingungen der chinesischen Zivilgesellschaft. Zunächst werden einige Übersetzungsprobleme definiert. Der zweite Teil dieses Abschnitts definiert einen allgemeinen Überblick über chinesische Internetnutzer, die die wichtigsten historischen Trends anhand der Sammlung der Berichte des China Internet Network Information Center (CNNIC) analysieren. Dieses Kapitel enthält auch 28 Interviews, die in drei Gruppen unterteilt sind: chinesische Wissenschaftler und Think Tanks, Mitarbeiter der damals beliebtesten chinesischen Internetplattformen, Medien- und Internetexperten. Darüber hinaus beinhaltet dieser Abschnitt auch die Darstellung von Schlüsselphänomenen wie z;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-60405-3_4 37a2fc8ce04a62b3e213bc50e29e45a6;de;;;6.1.;;;Effektives Source-to-Source-Outlining zur Unterstützung der empirischen Optimierung des gesamten Programms Obwohl die automatisierte empirische Leistungsoptimierung und -optimierung für Kernel und domänenspezifische Bibliotheken gut untersucht ist, besteht eine große Herausforderung der aktuellen Forschung darin, diese Methoden und Werkzeuge auf deutlich größere sequentielle und parallele Anwendungen auszudehnen. In diesem Zusammenhang stellen wir den ROSE Source-to-Source-Outliner vor, der das Problem des Extrahierens von einstellbaren Kerneln aus ganzen Programmen anspricht und dabei hilft, das schwierige Gesamtprogramm-Tuning-Problem in eine Reihe handlicherer Kernel-Tuning-Aufgaben umzuwandeln. Unser Outliner zielt darauf ab, groß angelegte C/C++-, Fortran- und OpenMP-Anwendungen zu handhaben. Eine Reihe von Programmanalyse- und Transformationstechniken wird verwendet, um die Portabilität, Skalierbarkeit und Interoperabilität des Source-to-Source-Umrisses zu verbessern. Noch wichtiger ist, dass die generierten Kernel die Leistungsmerkmale von Tuning-Zielen beibehalten und von anderen Tools leicht gehandhabt werden können. Vorläufige Auswertungen haben gezeigt, dass der ROSE-Outliner als Schlüsselkomponente innerhalb eines durchgängigen empirischen Optimierungssystems dient und vielfältige sequentielle und parallele Optimierungsmöglichkeiten ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13374-9_21 f507a1aa5954a8744f35d8c36f12c772;de;;;6.1.;;;Die Anwendung der Blockchain-Technologie in der maritimen Industrie Die maritime Industrie ist eine der umweltschädlichsten der Welt. In diesem Beitrag präsentieren wir neue Erkenntnisse im Zusammenhang mit der Anwendung der neuartigen Blockchain-Technologie zur Reduzierung von Umweltverschmutzungen. Wir analysieren aktuelle Literatur zur Blockchain-Technologie und schlagen Wege zur Nutzung der Blockchain-Technologie in der maritimen Industrie vor. Von besonderem Interesse für Fachleute der maritimen Industrie sind die Perspektiven der Nutzung der Blockchain-Technologie zur Verbesserung der Umwelteffizienz der maritimen Industrie. Die Technologie hat ein breites Anwendungsspektrum und ermöglicht eine effizientere Anbindung der Lieferkette, den Austausch und die Sichtbarkeit von mit Zeitstempeln geprüften Daten, senkt die Betriebskosten der Branche mit Zwischenhändlern und erhöht die Sicherheit. Es ermöglicht auch eine vollständige Transparenz für alle am Arbeitsnachweis beteiligten Parteien, was Inspektionen von Klassengesellschaften, die Hafenstaatkontrolle und die Einhaltung von Audits erleichtert. Die Ergebnisse der Studie zeigen auch, dass Fälle zur Blockchain-Anwendung in anderen Bereichen die Bereitschaft der Branche zu einer Anwendung in der maritimen Industrie erhöhen. Während die Blockchain-Implementierung durch spezialisierte Dritte die Implementierungsmöglichkeit und die Bereitschaft der Branche aufgrund geringerer Kosten und Reibungsverluste erhöhen würde. Die Studie wird für Wissenschaftler, politische Entscheidungsträger und Praktiker aus der maritimen Industrie interessant sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00253-4_24 378dfbdd4b497b0b9854ac05869480df;de;;;6.1.;;;Reversible Wasserzeichen in JPEG-Bildern basierend auf modifizierten RZL-Codes und Histogrammverschiebung Reversible Wasserzeichen haben umfangreiche Anwendungen in Bereichen wie der medizinischen Datenverwaltung und der forensischen Durchsetzung. In diesem Artikel schlagen wir ein modifiziertes Reverse-Zero-Run-Length-(RZL)-Codierungsverfahren für reversible Wasserzeichen vor, das bei gleicher Einbettungsrate weniger Modifikationen einführt als frühere. Durch die Kombination der Codierungsmethode mit der Histogrammverschiebungs- und Quantisierungstabellenmodifikationsstrategie schlagen wir einen neuartigen reversiblen Datenverbergungsalgorithmus für JPEG-Bilder vor. Im Vergleich zum Stand der Technik hat unsere Methode bei der Einbettung der gleichen Nutzlast eine Verbesserung der Qualität des Stego-Bildes von mindestens 2 dB, was die Wirksamkeit und den Vorteil unseres Algorithmus beweist.;-;-;-;https://link.springer.com/article/10.1007/s11859-013-0904-1 969cdb4dccf7ddddb9612b0ceaf8e482;de;;;6.1.;;;Entwicklung und Validierung einer Classified Information Assurance Scale für Hochschulen Die Forschung im Bereich Informationssicherheit wächst schnell. In einigen Nischen auf diesem Gebiet, insbesondere bei der Sicherheit von Verschlusssachen im Hochschulbereich, fehlen jedoch kontextspezifische Skalen, die Forscher ohne weiteres verwenden können. In dieser Studie haben wir eine Skala zur Bewertung der Sicherheit von Verschlusssachen (CI) für Hochschulen (IHL) entwickelt und validiert. Die Daten wurden von einem Gremium von 10 Experten gesammelt: 4 waren erfahrene Informationsmanager der Nigerian Army University und 6 waren hochrangige Akademiker, die die Universiti Teknologi Malaysia unter Verwendung von Veröffentlichungen in renommierten Zeitschriften als Auswahlkriterien ausgewählt hatten. Jedes Panelmitglied hat den initialen Itempool bewertet und auch kommentiert. Die so gesammelten Daten wurden zur Berechnung des Inhaltsvaliditätsindex (CVI) der Skala verwendet, während die Kommentare der Panelmitglieder zur Verbesserung der Items verwendet wurden. Das Ergebnis bestätigte fünf Dimensionen, nämlich Organisationsstruktur, regulatorische, menschliche, technologische und Risikomanagementfaktoren zur Sicherung von CI an Universitäten. Basierend auf diesen vier Dimensionen wurde eine 61-Item-Skala erstellt, die zur Beurteilung der CI-Sicherheit an Universitäten verwendet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-70713-2_77 5c2911dd25dd6af1b0d71e0d8466f79a;de;;;6.1.;;;Design und Implementierung des Bildverarbeitungsalgorithmus-Frameworks für die Fernerkundung Dieser Artikel gab eine detaillierte Einführung in das Design und die Implementierung des Bildverarbeitungsalgorithmus-Frameworks, mit Schwerpunkt auf datengesteuerter Bildverarbeitungsalgorithmus-, UI- und Verarbeitungsdialogoptimierung. Das durch die Programmiersprache C++ implementierte endgültige Framework bietet einen neuen Weg und einen Verweis auf die anpassbare Entwicklung von Fernerkundungsbildverarbeitungsalgorithmen die Geowissenschaften und verwandte Gebiete. Die meisten Praktiker sind in erster Linie Fachleute in Bereichen wie Hydrologie, Landwirtschaft, Ingenieurwesen, Forstwirtschaft, Geologie und Stadtforschung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27452-7_65 86626bff53e6309f5b3db7381618fe9e;de;;;6.1.;;;Zollkontingente in der Europäischen Gemeinschaft Verschiedene Verwendungen von Zollkontingenten durch Mitgliedstaaten der Europäischen Gemeinschaft oder durch die Gemeinschaft selbst wurden bereits in den letzten Jahren zur Veranschaulichung besonderer Aspekte der Anwendung von Zollkontingenten im Handelsverkehr herangezogen. Dies sind jedoch nur Vertreter des viel breiteren Spektrums, das sich innerhalb des Gemeinsamen Marktes entwickelt hat, und in diesem Kapitel wird dieses Gebiet ausführlicher behandelt, obwohl ihre Verwendung durch die Gemeinschaft zur Gewährung von Präferenzen für Entwicklungsländer erst in Kapitel 8 erörtert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-02431-5_4 61d9bb06fff4e40f522ce616090b6429;de;;;6.1.;;;Reflexionen über den Lernprozess Bis der Leser diesen Teil des Buches erreicht hat, ist zu hoffen, dass er viel über die Methodik der weichen Systeme gelernt hat. Es ist auch zu hoffen, dass das Lernen nicht mit dem einmaligen Durchlesen des Buches aufhört, sondern weitergeht und den Leser als Lernenden dazu ermutigt, wieder darauf zurückzukommen. Die Soft-Systems-Methodik ist ein Rahmen zum Verständnis eines Lernprozesses, der seiner Natur nach iterativ ist, d. h. der Weg der Schritte der Methodik kann viele Male zurückgekehrt werden, um die Lernreise erneut zu beginnen. Dieses Buch soll im gleichen Licht gesehen werden. Das Buch hat den Leser durch viele neue Konzepte geführt, sowohl in der Natur als auch in der Technik. Konzepte treten nicht ohne eine ständige Reflexion in den wertschätzenden Akt ein. Es ist zu hoffen, dass der kontinuierliche Lernprozess der angewandten und theoretischen Methodik inzwischen begonnen hat, aber hier noch nicht abgeschlossen ist. Um diesen iterativen Prozess zu unterstützen, reflektiert dieses letzte Kapitel den Lernprozess, der im Buch vorgestellt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-12698-9_8 5dfd23bb7b5043760758a31fb46e2935;de;;;6.1.;;;Abwehr statistischer Angriffe durch Cloud-basierte durchsuchbare Verschlüsselung Die durchsuchbare Verschlüsselung (SE) erscheint als eine prominente Lösung an der Schnittstelle zwischen Datenschutz und effizientem Abrufen von Daten, die in Cloud-Computing-Speicher ausgelagert wurden. Es schützt zwar die Privatsphäre durch die Verschlüsselung von Daten, unterstützt jedoch den Suchvorgang ohne Datenverlust. Aufgrund seiner Anwendbarkeit haben viele Forschungsgemeinschaften verschiedene SE-Schemata unter verschiedenen Sicherheitsdefinitionen mit zahlreichen üblichen Merkmalen vorgeschlagen (z. B. Suche mit mehreren Schlüsselwörtern, Suche nach Rang). Aufgrund der geordneten Suche mit mehreren Schlüsselwörtern offenbart SE jedoch eine verschlüsselte Dokumentenliste, die mehreren (sicheren) Abfrageschlüsselwörtern (oder Falltür) entspricht. Eine solche Offenlegung statistischer Informationen hilft einem Angreifer, den Inhalt der Daten zu analysieren und abzuleiten. Um statistischen Informationsverlusten in SE entgegenzuwirken, schlagen wir ein Schema vor, das als Countering Statistical Attack in Cloud-based Searchable Encryption (CSA-CSE) bezeichnet wird und auf Zufälligkeit in allen Komponenten einer SE zurückgreift. CSA-CSE verwendet einen invertierten Index, der mit einem Hash-Digest aus einem Paar von Schlüsselwörtern erstellt wird. Im Gegensatz zu bestehenden Schemata ordnen Rankingfaktoren (d.h. Relevanzbewertungen) die Dokumente ein und dann existieren sie nicht mehr im sicheren Index (weder um die verschlüsselte Form beizubehalten). Abfrageschlüsselwörter werden auch mit Zufälligkeit verstümmelt, um tatsächliche Abfrage-/Ergebnisstatistiken zu verbergen. Unsere Sicherheitsanalysen und Experimente auf Anfrage zur Kommentardatenbank gewährleisten die Sicherheit und Effizienz von CSA-CSE.;-;-;-;https://link.springer.com/article/10.1007/s10766-018-0584-8 ab18e7656700d6a7d91170896c7ab50c;de;;;6.3.;;;Datenkuration für präklinische und klinische multimodale Bildgebungsstudien In der biomedizinischen Forschung helfen bildgebende Verfahren, pathologische Mechanismen aufzudecken, um neue diagnostische und theranostische Ansätze zu entwickeln und zu evaluieren. Während jedoch Standards für die Datenspeicherung im Bereich der klinisch-medizinischen Bildgebung existieren, müssen noch Standards für die Datenpflege für die biomedizinische Forschung etabliert werden. Diese Arbeit zielte auf die Entwicklung eines kostenlosen sicheren Dateiformats für multimodale Bildgebungsstudien ab, das gängige;-;-;-;https://link.springer.com/article/10.1007/s11307-019-01339-0 862406bf5beeb334e3a5b6f04e259d25;de;;;6.3.;;;Ubiquitous Health Profile (UHPr): eine Big-Data-Kurationsplattform zur Unterstützung der Interoperabilität von Gesundheitsdaten Der Mangel an interoperablen Gesundheitsdaten stellt eine große Herausforderung dar, um eine allgegenwärtige Gesundheitsversorgung zu erreichen. Die Fülle unterschiedlicher medizinischer Standards statt gemeinsamer Standards vergrößert die Lücke in der Interoperabilität. Während viele Organisationen auf eine standardisierte Lösung hinarbeiten, besteht Bedarf an einer alternativen Strategie, die intelligent zwischen einer Vielzahl von medizinischen Systemen vermitteln kann, die keinen gängigen Gesundheitsstandards entspricht und gleichzeitig die Vorteile mehrerer Standard-Zusammenführungsinitiativen nutzt, um schließlich zu schaffen eventually digitale Gesundheitspersönlichkeiten. Die Existenz und Effizienz einer solchen Plattform hängt von der zugrunde liegenden Speicher- und Verarbeitungsmaschine ab, die die relevanten medizinischen Daten erfassen, verwalten und abrufen kann. In diesem Beitrag stellen wir das Ubiquitous Health Profile (UHPr) vor, eine multidimensionale Datenspeicherlösung in einer halbstrukturierten Datenkuratierungs-Engine, die eine grundlegende Unterstützung für die Archivierung heterogener medizinischer Daten und das Erreichen einer teilweisen Dateninteroperabilität im Gesundheitswesen bietet. Darüber hinaus präsentieren wir die Bewertungsergebnisse dieser vorgeschlagenen Plattform in Bezug auf Aktualität, Genauigkeit und Skalierbarkeit. Unsere Ergebnisse zeigen, dass der UHPr in der Lage ist, ein fehlerfreies umfassendes medizinisches Profil eines einzelnen Patienten aus einem Satz von etwas mehr als 116,5 Millionen serialisierten medizinischen Fragmenten für 390.101 Patienten abzurufen und dabei ein gutes Skalierbarkeitsverhältnis zwischen Datenmenge und Abrufgeschwindigkeit beizubehalten.;-;-;-;https://link.springer.com/article/10.1007/s00607-020-00837-2 a869c451765834fd149cd5a5ffe6fe04;de;;;6.3.;;;Standardisiertes Kartierungsmodell für die Erhaltung des Kulturerbes und Serendipity in Cloud In dieser Forschung umfasst der Vorschlag eines Modells und die Erklärung, wie ein genauer Rahmen für die Datenerhaltung konstruiert und entschieden wird. Die Beziehung zwischen Bewahrung und digitalen Mustern des Erbes ist aufgrund der beiden zu berücksichtigenden Aspekte gut miteinander verbunden: Zugänglichkeit und Kontext.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27340-2_15 a7c37188e2ab1c1d4b7b039408f99234;de;;;6.3.;;;Digitale Langzeitarchivierung: Wahrung der Authentizität und Nutzbarkeit von 3D-Daten Die digitale Langzeitarchivierung, der Prozess der Pflege digitaler Objekte im Laufe der Zeit, um einen dauerhaften Zugriff zu gewährleisten, ist in den letzten Jahren zu einem entscheidenden Thema geworden. Während die Menge digitalisierter Informationen ständig zunimmt, nimmt auch der Fortschritt in der Informationstechnologie stetig zu, was dazu führt, dass die für den Zugriff auf und die Anzeige digitaler Informationen erforderliche Software und Hardware veraltet ist. Obwohl viele Organisationen diese Bedrohung und die daraus resultierende Notwendigkeit von Schutzmaßnahmen erkennen, ist noch mehr Arbeit erforderlich, um das Problem effektiv anzugehen. Wir stellen in diesem Artikel einen Rahmen für die digitale Langzeitarchivierung von 3D-Daten vor. Dieses Framework basiert auf zwei relevanten Konservierungspraktiken, Emulation und Metadaten, die sicherstellen, dass die Authentizität bzw. Nutzbarkeit eines erhaltenen digitalen Objekts im Laufe der Zeit erhalten bleibt. Es wird eine Bewertung unseres Frameworks vorgestellt, die die Tragfähigkeit unseres Ansatzes zur Erhaltung der Zugänglichkeit, Authentizität und Benutzerfreundlichkeit für zukünftige Endbenutzer veranschaulicht.;-;-;-;https://link.springer.com/article/10.1007/s00799-009-0051-7 dc5d604e9e1fccc760c85d2a88a021b0;de;;;6.3.;;;Informatikinfrastruktur für die Materials Genome Initiative Eine Materialdateninfrastruktur, die den Austausch und die Transformation einer Vielzahl von Materialdaten ermöglicht, ist ein wesentlicher Bestandteil zur Erreichung der Ziele der Materials Genome Initiative. Wir beschreiben zwei hochrangige Anforderungen an eine solche Infrastruktur sowie eine aufkommende Open-Source-Implementierung, bestehend aus dem Materials Data Curation System und dem National Institute of Standards and Technology Materials Resource Registry.;-;-;-;https://link.springer.com/article/10.1007/s11837-016-2000-4 e64a4a0cadb46aade4b2fc29bf58e20a;de;;;6.3.;;;Ein Framework für Webarchivierung und garantierten Abruf Bis heute hat „web.archive.org“ mehr als 338 Milliarden archivierte Webseiten. Wie viele dieser Seiten sind zu 100 % wiederaufrufbar. Wie viele der Seiten wurden ausgelassen oder ignoriert, nur weil die Seite kein Kompatibilitätsproblem hat? Wie viele davon waren volkssprachlich und in verschiedenen Formaten kodiert (bevor UNICODE standardisiert wurde)? Wenn wir über den Inhaltstyp Text sprechen. Betrachten Sie andere Mime-Typen, die mit anderen Algorithmen kodiert und dekodiert wurden. Der wesentliche Grund dafür liegt in der grundsätzlichen Darstellung digitaler Daten. Wir alle wissen, dass eine Folge von 0 s und 1 s keinen Sinn ergibt, wenn sie nicht richtig dekodiert wird. Zum Zeitpunkt der Archivierung könnten die Browser, die richtig gerendert hätten werden können, veraltet oder weit über die Erkennung alter Formate hinaus aktualisiert worden sein, oder die Browserplattformen könnten aktualisiert worden sein, um alte Formate zu erkennen. Wir haben verschiedene Arbeiten zur Datenspeicherung und Webarchivierung untersucht und ein neues Framework vorgeschlagen, das die genauen Client-Browser-Details (Benutzer-Agent) im WARC-Datensatz speichern und damit den entsprechenden Browser @ Client-Seite laden und den archivierten Inhalt rendern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9364-8_16 3cf813cfa187d6de45d6b1ec7175e8b2;de;;;6.3.;;;Nutzung von Citizen Science-Projekten zur Entwicklung von Fällen für die Lehre der digitalen Kuration Frühere Forschungen deuten darauf hin, dass ein Citizen-Science-Projekt viele Fragen der digitalen Kuration beinhalten kann. Um praxisnahe Fälle für die Vermittlung digitaler Kuration zu entwickeln, wurden siebzehn Manager von Citizen-Science-Projekten interviewt. Nachdem Probleme der digitalen Kuration identifiziert wurden, wurden die Ergebnisse verwendet, um Lehrfälle für die digitale Kuration zu erstellen. Ein Fall im Zusammenhang mit der Konzeptualisierungsphase des DCC-Lebenszyklus wird beschrieben. Die Nutzung vorhandener Forschungsdaten zur Entwicklung von Fällen könnte für Forscher nützlich sein, die Konzepte vermitteln möchten, die durch Ereignisse der „realen Welt“ kontextualisiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-78105-1_69 1d97e1bfa4516a7e1b92503380cb2000;de;;;6.3.;;;Informationssystemansätze zur Unterstützung der Entdeckung in der landwirtschaftlichen Genomik Reduktionistische Ansätze zu biologischen Fragen haben wichtige Einblicke in genetische Mechanismen und Genomstrukturen geliefert. Diese Ansätze haben auch zur Entwicklung von Technologien geführt, die Daten mit Raten generieren, die unsere Fähigkeit, ihre Bedeutung zu verstehen, bei weitem übersteigen. Wenn Biologen die grundlegenden Fragen bezüglich der Komplexität, die Wachstum, Entwicklung und phänotypischer Variabilität zugrunde liegt, angehen wollen, dann besteht ein beispielloser Bedarf, hochwertige genomische Informationen zu erfassen, zu verstehen, zu manipulieren und zu nutzen. Damit die Genomik das Versprechen einlösen kann, durch biologische Prozesse landwirtschaftliche Systeme effizienter, nachhaltiger und umweltfreundlicher zu machen, müssen außerdem verschiedene Arten biologischer Daten integriert werden, um die funktionellen Beziehungen zwischen DNA, RNA, Proteinen, Umwelt und Phänotypen aufzudecken . Solche integrativen Ansätze werden sich stark auf die Entwicklung von Informationssystemen (IS) und Datenanalysemethoden stützen, die die gleiche Strenge und Ressourcen erfordern, die bei der Entwicklung von Laborversuchsprotokollen angewendet wurden. Darüber hinaus müssen Software- und Verfahrenstechnik auf die Entwicklung von Informationssystemen in ähnlicher Weise angewendet werden, wie Ingenieurprinzipien auf die Datenproduktion in biologischen Labors angewendet wurden, was zu einer Verlagerung von der Heimindustrie hin zu biologischen Datenfabriken im industriellen Maßstab führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-9815-6_8 147f2778632c876f6fa9f92088bfb0c8;de;;;6.3.;;;Gestaltung von Einreichungs- und Workflow-Services zur Bewahrung interdisziplinärer wissenschaftlicher Daten Entwicklungen in den Informations- und Kommunikationstechnologien bieten neue Möglichkeiten, wissenschaftliche Daten zu nutzen und zu integrieren, die von Forschern und Wissenschaftlern aus verschiedenen Forschungsbereichen gesammelt wurden. Datenarchive und digitale Aufbewahrungssysteme werden entwickelt, um aktuelle und ältere wissenschaftliche Daten und technische Informationen für die Nutzung durch andere zu bewahren. Für Datenproduzenten verschiedener Disziplinen werden jedoch Fähigkeiten benötigt, um ihre Daten einfach und effizient zur Aufbewahrung in Archivsysteme einzureichen. Die Analyse der Anforderungen an die digitale Bewahrung hat die Anforderungen an Dienstleistungen zur Unterstützung der Einreichung und Überprüfung wissenschaftlicher Daten zur Bewahrung identifiziert. Dateneinreichungs- und -begutachtungsprozesse sind in Dienste unterteilt, die definiert sind, um eine effiziente Aufbereitung wissenschaftlicher Daten für die Aufnahme in ein Archiv oder ein digitales Repositorium zu unterstützen. Es wird ein Modell vorgeschlagen, um die Gestaltung von Einreichungs- und Workflow-Diensten zur Erhaltung interdisziplinärer wissenschaftlicher Daten zu unterstützen. Es werden Empfehlungen zur Verbesserung des Designs und der Bewertung von Systemen und Diensten gegeben, um wissenschaftliche Daten für eine neue Nutzung durch interdisziplinäre Nutzergemeinschaften in der Zukunft aufzubereiten und zu erhalten. Die Verbesserung der Infrastruktur, die es Mitgliedern der wissenschaftlichen Gemeinschaft ermöglicht, ihre Daten zur Archivierung einzureichen, trägt zu den wissenschaftlichen Datenverwaltungs- und Datenpflegefähigkeiten bei, die erforderlich sind, um wissenschaftliche Daten für zukünftige Nutzergenerationen zu bewahren.;-;-;-;https://link.springer.com/article/10.1007/s12145-010-0051-6 9f99f4a0ae2cb1bd188d84e762e97f56;de;;;6.3.;;;Architektur der Dateninfrastruktur zum Klimawandel für Nevada Das von der NSF EPSCoR finanzierte Nevada Climate Change Project zielt darauf ab, eine zentrale, wiederverwendbare und erweiterbare Infrastruktur zu schaffen, die zum Sammeln von georäumlichen Klimadaten und -informationen verwendet werden kann. Wohnungsklimadaten für Nevada und seine umliegenden Regionen Während der ersten Bauphasen wird das neu geschaffene System (mit seiner zentralen Komponente: dem Nevada Climate Change Portal) letztendlich in der Lage sein, jegliche Art von Geodaten für verschiedene Arten von Forschung, Bildung und aufsuchende Aktivitäten. Um den vielfältigen Bedürfnissen der am Projekt beteiligten Klimaforscher, Pädagogen, Studierenden und politischen Entscheidungsträger gerecht zu werden, war es notwendig, eine neue Systemarchitektur zu erforschen und zu implementieren. Die Neuheit dieser Architektur besteht darin, dass sie auf eine erweiterbare und robuste Weise die End-to-End-Anforderungen aller Projektbeteiligten erfüllt und mehrere Unterebenen des Architekturdesigns implementiert, die die Datenerfassung von Sensornetzwerken, die Datenspeicherung mit High- leistungsgeografisch unterstützte Datenbanken, Asset-Tracking und -Management zur Verbesserung der Datenvalidierung und -verifizierung, Metadatensammlung und -verwaltung, Datenkuratierung und fortschrittliches webbasiertes Datenmanagement und -abruf. Das Papier beschreibt die vorgeschlagene Systemarchitektur, diskutiert die wichtigsten Designherausforderungen, geht auf einige Implementierungspunkte ein und hebt die Fähigkeiten des Nevada Climate Change Portals hervor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22056-2_38 340d57c28fc3fae5e91a2953cc555bbd;de;;;6.3.;;;Framework für eine selbstverwaltete Wireless Sensor Cloud für das Critical Event Management Drahtlose Sensornetzwerke (WSNs) können weit verbreitet verwendet werden, um verschiedene Szenarien zu verwalten, die in sozialen, industriellen und zahlreichen Umweltmanagementsystemen existieren. Sie werden häufig in Umweltüberwachungs- und -managementanwendungen eingesetzt und finden auch Anwendung in Katastrophenmanagementszenarien. Eines der größten Probleme der wissenschaftlichen Gemeinschaft bei der Organisation der Datenerfassung durch Sensornetzwerke in Katastrophengebieten ist die in solchen Situationen vorherrschende Unordnung und Zerstörung der Kommunikationssysteme. In diesem Papier wird eine wissenschaftliche Untersuchung der verschiedenen Szenarien, die nach einer Katastrophe auftreten könnten, und der verschiedenen Housekeeping-Funktionen bereitgestellt, die jeder Sensorknoten als Teil der Selbstverwaltungsanforderung übernehmen würde. Wir präsentieren auch ein Sensor-Task-Management-Framework, das implementiert werden könnte, um ein zuverlässiges Netzwerk mit geringem Energieverbrauch für WSNs bereitzustellen, die für das Management kritischer Infrastrukturen eingesetzt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32778-0_2 460969f1eb5129e6cf19498e9ecaba52;de;;;6.3.;;;Zielorientierte opportunistische Sensorwolken Aktivitäts- und kontextsensitive Systeme, wie sie seit Jahren und Jahrzehnten in kleinen Laborumgebungen etabliert und gut evaluiert werden, leiden unter der Tatsache, dass sie hinsichtlich der zugrunde liegenden datenliefernden Entitäten begrenzt sind. Die Sensorsysteme werden meist am Körper, an Objekten oder in der Umgebung angebracht, direkt um Personen oder Gruppen, deren Aktivitäten oder Kontextinformationen erfasst werden sollen. Für Sensoren, die in solchen Systemen verwendet werden, ist es wichtig, dass zunächst ihre Modalitäten, Positionen und technischen Details festgelegt werden, um eine stabile und genaue Systemausführung zu gewährleisten. Opportunistisches Sensing hingegen ermöglicht die Auswahl und Nutzung von Sensoren, da sie zufällig nach ihrer spontanen Verfügbarkeit zugänglich sind, ohne mutmaßlich die Eingabemodalitäten zu definieren, zielorientiert. Ein wesentlicher Vorteil dabei ist die Möglichkeit, Sensoren unterschiedlicher Art und Modalitäten, auch immaterielle Informationsquellen wie Webservices, durch Abstraktion von Zugangsdetails auf niedriger Ebene zu nutzen. Daraus ergibt sich die Notwendigkeit, die Datenföderationseinheit als dezentrale Sammelstelle einzuführen. Cloud-basierte Technologien ermöglichen die raum- und zeitfreie Nutzung einer Vielzahl heterogener Sensorgeräte, die von einfachen physischen Geräten (z. B. GPS, Beschleunigungsmesser, wie sie konventionell auf heutigen Smartphones enthalten sind) bis hin zu Social-Media-Sensoren wie Facebook, Twitter oder LinkedIn. Dieses Papier präsentiert einen opportunistischen, Cloud-basierten Ansatz zur groß angelegten Aktivitäts- und Kontexterkennung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33615-7_10 792754fd0df837d5c5f5d27d377e0ff9;de;;;6.3.;;;Langzeitarchivierungsdienste als Schlüsselelement der digitalen Bibliotheksinfrastruktur Das Ziel dieses Papiers ist es, Langzeitarchivierungsdienste vorzustellen, die im Pozna Supercomputing and Networking Center als Teil des SYNAT-Projekts entwickelt wurden. Die vorgeschlagene Lösung ist ein erweiterbares Framework, das Datenerhaltung, Überwachung, Migration, Konvertierung und erweiterte Bereitstellung ermöglicht. Seine Fähigkeit, Datenmanipulationsdienste und verwendete Semantic-Web-Lösungen, wie den OWL-S-Standard und das OWLIM-Lite-Semantik-Repository, gemeinsam zu nutzen, schaffen ein Potenzial für eine breite Anwendbarkeit der öffentlich zugänglichen Dienste und damit die Förderung und Verbesserung von Aktivitäten im Zusammenhang mit der Digitalisierung. METS- und PREMIS-Formate, begleitet von FITS-, DROID- und FFMpeg-Tools, sind die Kernelemente der WRDZ-Dienste und machen sie zu einem interoperablen und innovativen Beitrag zur digitalen Bibliotheksinfrastruktur in Polen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35647-6_7 256908e79e87d5bde76c606023b878b0;de;;;6.3.;;;Ein neuer Ansatz zur Erhaltung von Metadaten für wissenschaftliche Daten – ein Beispiel aus der Praxis Das Open Archival Information System (OAIS) Reference Model wurde Ende der 1990er Jahre vom Consultative Committee for Space Data Systems (CCSDS) entwickelt und 2003 als ISO-Standard übernommen (ISO14721:2003) (CCSDS 650.0-B-1, 2002 .). ). In letzter Zeit haben viele Bibliotheken, Rechenzentren und Archive auf der ganzen Welt damit begonnen, dieses Archivmodell zu übernehmen. Als bemerkenswertes Beispiel hat die National Oceanographic and Atmospheric Administration (NOAA) der Vereinigten Staaten von Amerika das Modell für ihr Comprehensive Large Array-Data Stewardship System (CLASS) übernommen. CLASS wird voraussichtlich das primäre Repository und Zugangsportal für die geowissenschaftlichen und satellitengestützten Daten der NOAA sein (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88264-0_7 4ce4e286a97c82495478f31af99a4bc2;de;;;6.3.;;;Softwaretools und Datenbanken zur Bakteriensystematik und deren Verbreitung Die dynamische Erweiterung der taxonomischen Wissensbasis ist grundlegend für die Weiterentwicklung der Biotechnologie und nachhaltige Naturschutzstrategien. Die große Auswahl an Softwaretools für die numerische Taxonomie und probabilistische Identifizierung in Verbindung mit automatisierten Systemen zur Datengenerierung ermöglicht den Aufbau großer computergestützter Stammdatenbanken. Neue Techniken zur Generierung chemischer und molekularer Daten, verbunden mit neuen Softwaretools zur Datenanalyse, führen zu einem Quantensprung in der Bakteriensystematik. Der einfache Datenaustausch über ein interaktives und stark verteiltes globales Computernetzwerk wie das Internet erleichtert die Verbreitung taxonomischer Daten. Relevante Informationen für vergleichende Sequenzanalyse, Ribotypisierung, Protein- und DNA-Elektrophorese-Musteranalyse sind online über computergestützte Netzwerke verfügbar. Für die Analyse molekularer Daten stehen mehrere Softwarepakete zur Verfügung. Nomenklatur- und taxonomische „Authority Files“ sind aus verschiedenen Quellen zusammen mit stammspezifischen Informationen erhältlich. Die zunehmende Verfügbarkeit von Public-Domain-Software führt zur Einrichtung und Integration von Public-Domain-Datenbanken auf der ganzen Welt und fördert kooperative Forschungsprojekte in einem noch nie dagewesenen Umfang.;-;-;-;https://link.springer.com/article/10.1007/BF00873083 fd1e52b3bd0a4d577cb44a2286a2dfb1;de;;;6.3.;;;Hinterfragen Sie die Idee des Hadoop-basierten Data Lake für Big Data Storage Daten sind die treibende Kraft für die Wirtschaft eines jeden Landes. Daten dienen als Treibstoff für die Wirtschaft. Die Hauptaufgabe der Organisation besteht darin, die Daten zu speichern und für den Entscheidungsprozess zu verwenden. In der Vergangenheit hat das Unternehmen Data Warehouse und Data Marts verwendet, um die Daten zu speichern und für Entscheidungszwecke zu verwenden, aber für den technologischen Fortschritt steht das Data Warehouse vor vielen Herausforderungen und kann die Marktanforderungen nicht erfüllen. Die größte Herausforderung für das Data Warehouse besteht darin, Big Data, Daten mit Geschwindigkeit, Daten mit großem Volumen, Daten mit Vielfalt, Daten mit Wahrhaftigkeit und Daten mit Wert zu verwalten. Zu Beginn des 21. Jahrhunderts erleben Welten viele neue Technologien wie KI, Deep Learning, maschinelles Lernen und viele mehr, die alle vollständig von Big Data abhängen. Data Warehouse erfüllt nicht die Anforderungen von Data Engineers, diese Technologien zu nutzen, um das Entscheidungsfindungssystem effektiver zu machen. Dateningenieure möchten ein neues Repository zum Speichern von Big Data, da das Data Warehouse nach dem Konzept des Schema-on-Write-Zustands arbeitet, der die Daten vor der Speicherung umwandelt, aber Ingenieure möchten Daten im Rohformat und später je nach Geschäftsanforderung, in die sie die Daten umwandeln können Holen Sie sich die verschiedenen Werte aus den Daten. Um die Herausforderungen zu meistern, mit denen das Data Warehouse konfrontiert war, kommt die Forschung mit einem neuen Konzept namens Data Lake, einer technologisch fortschrittlichen Version eines Data Warehouse. Data Lake arbeitet nach dem Konzept des Schema-on-Read. Das Ziel dieses Kapitels ist es, die Idee des Data Lake aus Benutzer- und Technologieperspektive zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3357-0_24 d5be57e19a9ec2232515e63994ae350c;de;;;6.3.;;;E-Science und das Netz Der unerbittliche Fortschritt des Mooreschen Gesetzes für Prozessor- und Speicherchips wird sowohl die akademische als auch die kommerzielle Welt in den kommenden Jahren weiter verändern. Multi-Teraflop-Parallelcomputer und Petabyte-Datenbanken werden bei Frontier-Forschungsproblemen zunehmend zur Norm. Noch verblüffender war das Bandbreitenwachstum, so dass jetzt ein „Trans-Atlantic Terabit Testbed“ auf Basis der WDM-Glasfasertechnologie und Erbium-dotierten Faserverstärkern diskutiert wird. Die Größe dieser Unternehmen wird auch bedeuten, dass solche großen wissenschaftlichen Probleme wahrscheinlich immer internationaler und multidisziplinärer werden. Dies ist die Vision von „e-Science“, die von John Taylor, Generaldirektor des britischen Office of Science and Technology, vorgeschlagen wurde. Um solche globalen e-Science-Kooperationen zu unterstützen, ist eine allgemeinere Infrastruktur erforderlich. Forscher müssen nicht nur auf HTML-Webseiten zugreifen, um Informationen zu erhalten, sondern sie benötigen auch einen transparenten Fernzugriff auf Computerressourcen, Datenspeicher und spezialisierte Versuchseinrichtungen. The Grid of Foster and Kesselman zielt darauf ab, eine solche Umgebung bereitzustellen. The Grid ist ein ehrgeiziges Projekt mit immenser Dynamik und weltweiter Unterstützung. In Großbritannien investieren das OST und das DTI über sp120M in die Verwirklichung dieser Grid-Vision. Es ist von entscheidender Bedeutung, dass vernünftige und sichere Infrastrukturstandards auf niedrigerer Ebene vereinbart und so schnell wie möglich qualitativ hochwertige Open Source/Open Standard Middleware geliefert werden. Sobald diese eingerichtet sind, besteht ein großer Spielraum für innovative Forschungen zu neuen Werkzeugen zur Unterstützung der Datenkuration, des Informationsmanagements und der Wissensentdeckung. Zuverlässige und sichere Grid-Software zur Verwaltung und Nutzung der intrinsisch dynamischen und heterogenen Grid-Umgebung zu entwickeln, ist für viele Teile der britischen akademischen Informatik-Community eine spannende Herausforderung.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45754-2_2 02f78f3e6160ffeeafe191f21bc4def7;de;;;6.3.;;;OSINT im Kontext von Cyber-Sicherheit Die Auswirkungen der Cyberkriminalität haben Geheimdienst- und Strafverfolgungsbehörden auf der ganzen Welt erforderlich gemacht, um Cyber-Bedrohungen zu bekämpfen. Alle Sektoren stehen nun vor ähnlichen Dilemmata, wie man Cyberkriminalität am besten eindämmen und die Sicherheit von Menschen und Organisationen effektiv fördern kann. Die Gewinnung einzigartiger und hochwertiger Informationen durch das Sammeln öffentlicher Aufzeichnungen, um ein umfassendes Profil bestimmter Ziele zu erstellen, entwickelt sich schnell zu einem wichtigen Mittel für die Geheimdienstgemeinschaft. Da die Zahl der verfügbaren Open Sources schnell zunimmt, hängt die Bekämpfung der Cyberkriminalität zunehmend von fortschrittlichen Softwaretools und -techniken ab, um die Informationen effektiv und effizient zu sammeln und zu verarbeiten. Dieses Kapitel gibt einen Überblick über die aktuellen Bemühungen, Open-Source-Daten für Ermittlungen gegen Cyberkriminalität einzusetzen, um ein integratives OSINT-Framework zur Ermittlung von Cyberkriminalität zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-47671-1_14 febfa4914c58eb3627e0e305bcb18d4c;de;;;6.3.;;;BigData: Verarbeitung datenintensiver Anwendungen in der Cloud Cloud Computing, das sich schnell als neues Rechenparadigma entwickelt, bietet einen agilen und skalierbaren Ressourcenzugriff auf eine Utility-ähnliche Weise, insbesondere für die Verarbeitung von Big Data. Die Notwendigkeit, große Datenmengen zu speichern, zu verarbeiten und zu analysieren, veranlasst Unternehmenskunden dazu, Cloud Computing in großem Umfang einzusetzen. Das Verständnis der Verarbeitung datenintensiver Anwendungen in der Cloud ist der Schlüssel zur Entwicklung von Cloud-Diensten der nächsten Generation. Hier wollten wir einen Überblick über Cloud Computing, Big Data und die Verarbeitung von Big Data in der Cloud sowie die neuesten Techniken und Technologien, die wir derzeit zur Bewältigung der Big Data-Probleme in der Cloud einsetzen, diskutieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16598-1_9 733db4a33a46902f557e31596ffc3860;de;;;6.3.;;;Analysieren unsicherer Tabellendaten Es ist gängige Praxis, vor Beginn einer Datenanalyse viel Zeit damit zu verbringen, Quelldaten zu verfeinern, um Probleme der Datenqualität zu beheben. Ein Analyst kann beispielsweise fehlende Werte imputieren oder doppelte Datensätze erkennen und fusionieren, die dieselbe reale Entität darstellen. Es gibt jedoch viele Situationen, in denen es mehrere mögliche Lösungskandidaten für ein Datenqualitätsproblem gibt, es jedoch keine ausreichenden Beweise dafür gibt, welche der Lösungen am besten geeignet ist. In diesem Fall besteht der einzige Weg darin, Annahmen zu treffen, um den Lösungsraum einzuschränken und/oder heuristisch eine Auflösung zu wählen, die auf Eigenschaften basiert, die als prädiktiv für „gute“ Auflösungen gelten. Obwohl es für die Analytikerin wichtig ist, die Auswirkungen dieser Annahmen und heuristischen Entscheidungen auf ihre Ergebnisse zu verstehen, kann die Bewertung dieser Auswirkungen höchst nicht trivial und zeitaufwändig sein. Auf den Gebieten der probabilistischen, unvollständigen und unscharfen Datenbanken werden seit mehreren Jahrzehnten Strategien entwickelt, um den Einfluss von Unsicherheit auf das Ergebnis von Analysen zu analysieren. Diese allgemeine Familie von unsicherheitsbewussten Datenbanken zielt darauf ab, Mehrdeutigkeiten in den Ergebnissen von Analysen zu modellieren, die in Standardsprachen wie SQL, SparQL, R oder Spark ausgedrückt werden. Eine unsichere Datenbank verwendet Beschreibungen potenzieller Fehler und Mehrdeutigkeiten in Quelldaten, um eine entsprechende Beschreibung potenzieller Fehler oder Mehrdeutigkeiten im Ergebnis einer auf diese Quelldaten zugreifenden Analyse abzuleiten. Je nach Technik können diese Unsicherheitsbeschreibungen entweder quantitativ (Grenzen, Wahrscheinlichkeiten) oder qualitativ (bestimmte Ergebnisse, unbekannte Werte, Erklärungen der Unsicherheit) sein. In diesem Kapitel untersuchen wir die Arten von Problemen, die Techniken aus unsicheren Datenbanken behandeln, untersuchen Lösungen für diese Probleme und heben ihre Anwendung zur Behebung von Datenqualitätsproblemen hervor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-03643-0_12 022f59de47ec25d54369e9a39e4e60fb;de;;;6.3.;;;Herausforderungen und Chancen des Polymerdesigns mit maschinellem Lernen und Experimenten mit hohem Durchsatz Aus dieser Perspektive hinterfragen die Autoren den Status Quo der Polymerinnovation. Die Autoren untersuchen zunächst, wie die Forschung im Polymerdesign heute durchgeführt wird, die sowohl zeitaufwändig ist als auch die Multiskalenkomplexität von Polymeren nicht erfassen kann. Die Autoren diskutieren Strategien, die verwendet werden könnten, um maschinelles Lernen, Datenkuration, Hochdurchsatz-Experimente und Simulationen zusammenzubringen, um ein System zu bauen, das Polymereigenschaften anhand ihrer Deskriptoren genau vorhersagen und inverses Design ermöglichen kann, das in der Lage ist, Polymere basierend auf gewünschten Eigenschaften.;-;-;-;https://link.springer.com/article/10.1557/mrc.2019.54 e17ee6edf6960b3caee23a707cd79b25;de;;;6.3.;;;ProSA – Verwenden von CHASE für das Provenienzmanagement Das Sammeln, Speichern, Verfolgen und Archivieren von wissenschaftlichen Daten ist die Hauptaufgabe des Forschungsdatenmanagements als Grundlage für wissenschaftliche Auswertungen. Neben der Auswertung (bei strukturierten Datenbanken eine komplexe Abfrage) und dem Ergebnis selbst muss auch der wichtige Teil der verwendeten Originaldatenbank archiviert werden. Um eine reproduzierbare und reproduzierbare Recherche zu gewährleisten, können die Auswertungsanfragen zu einem späteren Zeitpunkt noch einmal bearbeitet werden, um das Ergebnis zu reproduzieren. Die Herkunft einer Bewertung berechnen zu können, ist das Hauptproblem im Provenienzmanagement, insbesondere in;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-28730-6_22 9a4656410378a6ad5e3cde5b539bc788;de;;;6.3.;;;Animal QTLdb: jenseits eines Repositorys In den letzten zehn Jahren gab es eine Vielzahl von Veröffentlichungen, die Hunderte von quantitativen Trait-Loci (QTL) bei Nutztierarten beschrieben haben. Um den Vergleich von QTL-Ergebnissen zwischen Experimenten zu erleichtern, wurde die Animal QTL-Datenbank (QTLdb) entwickelt, um alle veröffentlichten QTL-Informationen als öffentliches Repository zu speichern. Die QTLdb wurde ursprünglich entwickelt, um der Genomforschung von Schweinen (früher bekannt als PigQTLdb) zu dienen. Wir haben die QTLdb weiterentwickelt, um QTL-Daten von mehreren Arten zu speichern, einschließlich, aber nicht beschränkt auf Rinder, Hühner und Schweine. Darüber hinaus wurden Werkzeuge entwickelt, um QTL-Karten-Alignments mit Konsensus-Verbindungskarten, Strahlungshybrid-(RH)-Karten, BAC-Fingerprinted-Contig-(FPC)-Karten, Single-Nukleotid-Polymorphismus-(SNP-)Positionskarten und Humankarten zu ermöglichen. Darüber hinaus haben wir die Fähigkeiten der Datenbank so erweitert, dass Recherchetools entwickelt wurden, bei denen „private“ vorläufige QTL-Daten eingegeben und mit allen öffentlichen Daten verglichen werden können. Dies ermöglicht es Forschern, Daten vor der Veröffentlichung zu visualisieren und mit veröffentlichten Ergebnissen zu vergleichen, um die Dateninterpretation zu unterstützen. Zu diesem Zweck enthalten die Datenbank-Kurator-/Editor-Tools auch Funktionen, die es registrierten Benutzern ermöglichen, ihre eigenen QTL-Daten einzugeben, die QTLdb-Tools zur Datenanalyse zu nutzen und die QTLdb als Publishing-Tool zu verwenden (URL:;-;-;-;https://link.springer.com/article/10.1007/s00335-006-0105-8 14620eebecf5ff80d436403a60cec440;de;;;6.3.;;;Datenschutzhinweise für den Austausch von Gesundheitsinformationen Health Der Austausch von Gesundheitsinformationen (Health Information Exchanges, HIEs) ist ein leistungsfähiger Mechanismus für den Austausch elektronischer Patientenakten (EHRs) über Organisationsgrenzen hinweg in Gesundheitssystemen. Die elektronische Sphäre von Patientendaten wächst, aber einige Patienten und medizinische Dienstleister zögern aus Datenschutz- und Sicherheitsbedenken weiterhin, vernetzte Informationstechnologie einzuführen. Die US-Regierung hat die Bedeutung des Schutzes und der Wahrung der Vertraulichkeit von Patientendaten in HIEs erkannt, indem sie Datenschutzstandards und Richtlinien für den Informationsaustausch festlegt und befürwortet. In diesem Kapitel werden die Probleme und Prinzipien untersucht, die HIE-Datenschutzlösungen prägen, und neue Trends erörtert, die das Design und die Implementierung von Technologien zum Schutz der Privatsphäre für HIEs beeinflussen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23633-9_12 f800814809b1621b1da662ed58fe0396;de;;;6.3.;;;Testumgebung der Europäischen Weltraumorganisation Der ausgewählte wissenschaftliche Datensatz der ESA besteht aus Daten von GOME (Global Ozone Monitoring Experiment), einem Sensor an Bord des ESA-Satelliten ERS-2 (European Remote Sensing), der seit 1995 in Betrieb ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16809-3_20 c1b6250db47cdf9c79227a15685adfc7;de;;;6.3.;;;Die Datenlieferkette Daten fallen nicht vom Himmel. Es wird erfasst oder erfasst, verwaltet, gespeichert, umgewandelt, weitergeleitet und schließlich verwendet. Das nenne ich die Data Supply Chain.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-6115-6_3 5cb933e8790e4a8164f8e01f4163ce26;de;;;6.3.;;;Ein hybrider Ansatz für aufschlussreiche Geschäftsauswirkungen Organisationen verschwenden häufig Speicherplatz, wenn sie mit Datensätzen umgehen, die als Code-Anwendungsprotokolle generiert wurden. Jeder Datensatz, ob halbstrukturiert oder unstrukturiert, wird überwacht und es werden Erkenntnisse gewonnen, sei es prädiktiv, präskriptiv oder deskriptiv.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-40907-4_15 1b3dea384d9bb07b72ce18ccb5d62e1a;de;;;6.3.;;;Wie viel kostet Speicher wirklich? Auf dem Weg zu einem Vollkostenrechnungsmodell für die Datenspeicherung In unserem Alltag erzeugen wir riesige Datenmengen. Aber wie viel kostet es wirklich, Daten zu speichern? Angesichts der ständig sinkenden Kosten für Speichermedien ist ein weit verbreiteter Irrglaube, dass die Kosten für die Speicherung billiger denn je geworden sind. Wir argumentieren jedoch, dass die Kosten für die Datenspeicherung nicht den Kosten für Speichermedien allein entsprechen – vielmehr tragen viele oft ignorierte Faktoren wie Personal-, Infrastruktur- und Umweltkosten zu den Gesamtkosten der Datenspeicherung bei. Leider wurden nur sehr wenige Untersuchungen durchgeführt, um die Gesamtkosten von Cloud-basierten Speichersystemen zu bestimmen. Die meisten bestehenden Studien berücksichtigen keine indirekten Faktoren und Determinanten der Lagerkosten. Um die wahren Kosten der Datenspeicherung vollständig zu ermitteln, müssen wir eine Vollkostenrechnung durchführen – eine bekannte Abrechnungstechnik. In diesem Beitrag präsentieren wir a;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-02414-1_3 a517c524e656cce15dd44d1461151eec;de;;;6.3.;;;Crowd-fähiges Kuratieren und Abfragen großer und verrauschter Text-Mining-Protein-Interaktionsdaten Die Fülle an gewonnenen, vorhergesagten und unsicheren biologischen Daten rechtfertigt massive, effiziente und skalierbare Kurationsbemühungen. Die für ein erfolgreiches Kuratoriumsunternehmen erforderliche menschliche Expertise ist oft wirtschaftlich unerschwinglich, insbesondere bei spekulativen Endbenutzeranfragen, die letztendlich möglicherweise keine Früchte tragen. Die Herausforderung besteht also weiterhin darin, eine kostengünstige Engine zu entwickeln, die eine schnelle, aber vorläufige Annotation und Kuratierung einer Reihe von Datenelementen ermöglicht, die später von Experten mit deutlich geringeren Investitionen verbindlich validiert werden können. Ziel ist es daher, eine große Menge prognostizierter Daten so früh wie möglich mit einem akzeptablen Maß an Vertrauen in ihre Genauigkeit zur Verfügung zu stellen, während die Kuratierung fortgesetzt wird. In diesem Beitrag stellen wir einen neuartigen Ansatz zur Annotation und Kuratierung biologischer Datenbankinhalte mittels Crowd Computing vor. Der technische Beitrag liegt in der Identifizierung und Verwaltung des Vertrauens mechanischer Türken und in der Unterstützung von ad-hoc deklarativen Abfragen, die beide genutzt werden, um zuverlässige Analysen mit verrauschten vorhergesagten Interaktionen zu ermöglichen. Während der vorgeschlagene Ansatz und die Crowd;-;-;-;https://link.springer.com/article/10.1007/s10619-017-7209-x acd61f7de31482e1f33b8dfbb3b91d90;de;;;6.3.;;;Link My Data: Community-basierte Kuratierung von Umweltsensordaten Eines der größten Hindernisse für die Wiederverwendung von Sensordaten von Drittanbietern ist fehlendes Wissen über Dateneigenschaften (z. B. Herkunft und Qualität), das zu einem Mangel an Vertrauen in die Daten führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40235-7_27 17633c85e91338f7aaeda442683db53d;de;;;6.3.;;;Big Data-Speicherung und -Verarbeitung in Azure Clouds: Experimente im großen Maßstab und gewonnene Erkenntnisse Das datenintensive Rechnen wird nun als Grundlage für ein neues, viertes Paradigma für die Wissenschaft betrachtet. Zwei Faktoren begünstigen diesen Trend. Erstens stehen in immer mehr Anwendungsbereichen riesige Datenmengen zur Verfügung. Zweitens werden die Infrastrukturen, die eine dauerhafte Speicherung dieser Daten zur gemeinsamen Nutzung und Verarbeitung ermöglichen, Realität. Dies ermöglicht es, Wissen, das durch die vorherigen drei Paradigmen für die wissenschaftliche Forschung (Theorie, Experimente und Simulationen) erworben wurde, mit riesigen Mengen multidisziplinärer Daten zu vereinen. Die technischen und wissenschaftlichen Fragestellungen in diesem Zusammenhang wurden als „Big Data“-Herausforderungen bezeichnet. In dieser Landschaft ist der Aufbau einer funktionalen Infrastruktur für die Anforderungen von Big-Data-Anwendungen entscheidend und nach wie vor eine Herausforderung. Dank des Aufkommens von Cloud-Infrastrukturen, die die ersten Bausteine ​​für die Herausforderungen der Big-Data-Vision bringen, ist ein wichtiger Schritt getan. Clouds erwecken die Illusion einer (mehr oder weniger) unendlich skalierbaren Infrastruktur zum Leben, die durch einen vollständig ausgelagerten ICT-Service verwaltet wird. Anstatt Hardware kaufen und verwalten zu müssen, „mieten“ Benutzer ausgelagerte Ressourcen nach Bedarf. Allerdings haben Cloud-Technologien ihr volles Potenzial noch nicht ausgeschöpft. Insbesondere die heute verfügbaren Möglichkeiten zur Datenspeicherung und -verarbeitung sind noch weit davon entfernt, die Anwendungsanforderungen zu erfüllen. In dieser Arbeit untersuchen wir mehrere heiße Herausforderungen im Zusammenhang mit dem Big-Data-Management in Clouds. Wir diskutieren den aktuellen Stand der Technik, ihre Grenzen und Möglichkeiten, sie zu überwinden. Wir illustrieren unsere Studie mit einer konkreten Anwendungsstudie aus dem Bereich der gemeinsamen genetischen und bildgebenden Datenanalyse. Das Ziel dieses Kapitels ist es, die Schlussfolgerungen dieser Studie zu präsentieren, die im Rahmen eines groß angelegten Experiments durchgeführt wurde, das in drei Rechenzentren der Azure-Cloud-Plattform von Microsoft während 2 Wochen durchgeführt wurde und ungefähr 200.000 Rechenstunden in Anspruch nahm.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4939-1905-5_14 568fe1eb2e3d694b1844495402f0bd2b;de;;;6.3.;;;MetaStore: ein adaptives Metadatenmanagement-Framework für heterogene Metadatenmodelle In diesem Beitrag stellen wir MetaStore vor, ein Metadaten-Management-Framework für wissenschaftliche Datenbestände. Wissenschaftliche Experimente erzeugen eine Flut von Daten, und der Umgang mit den zugehörigen Metadaten ist von entscheidender Bedeutung, da sie das Entdecken, Analysieren, Wiederverwenden und Teilen von wissenschaftlichen Daten ermöglichen. Darüber hinaus sind Metadaten aus wissenschaftlichen Experimenten heterogen und unterliegen häufigen Änderungen, was ein flexibles Datenmodell erfordert. Bestehende Metadaten-Management-Systeme bieten ein breites Spektrum an Funktionen für den Umgang mit wissenschaftlichen Metadaten. Die prinzipielle Einschränkung dieser Systeme ist jedoch ihr Architekturdesign, das sich entweder auf ein einziges oder höchstens auf einige wenige Standard-Metadatenmodelle beschränkt. Eine Unterstützung für den Umgang mit verschiedenen Arten von Metadatenmodellen, d. h. administrativen, beschreibenden, strukturellen und Provenienz-Metadaten, sowie die Einbeziehung gemeinschaftsspezifischer Metadatenmodelle ist mit diesen Systemen nicht möglich. Um dieser Herausforderung zu begegnen, präsentieren wir MetaStore, ein adaptives Metadaten-Management-Framework, das auf einer NoSQL-Datenbank und einem RDF-Triple-Store basiert. MetaStore bietet eine Reihe von Kernfunktionalitäten zum Umgang mit heterogenen Metadatenmodellen durch automatische Generierung des erforderlichen Softwarecodes (Dienste) und erweitert die Funktionalität des Frameworks on-the-fly. Um dynamische Metadaten zu verarbeiten und die Qualität der Metadaten zu kontrollieren, bietet MetaStore auch einen erweiterten Satz von Funktionalitäten, wie z. B. das Annotieren von Bildern und Text durch die Integration des Web-Annotations-Datenmodells, die Möglichkeit von Communities, disziplinspezifische Vokabulare mithilfe des Simple Knowledge Organization System zu definieren, und die Bereitstellung von erweiterte Such- und Analysefunktionen durch die Integration von ElasticSearch. Um die Nutzung der von NoSQL-Datenbanken unterstützten Datenmodelle zu maximieren, trennt MetaStore automatisch die verschiedenen Kategorien von Metadaten in ihren entsprechenden Datenmodellen. Komplexe Provenance-Graphen und dynamische Metadaten werden modelliert und in einem RDF-Triple Store gespeichert, während die statischen Metadaten in einer NoSQL-Datenbank gespeichert werden. Um ein umfangreiches Sammeln (Teilen) von Metadaten mit dem METS-Standard über das OAI-PMH-Protokoll zu ermöglichen, ist MetaStore OAI-kompatibel. Um schließlich die praktische Nutzbarkeit des MetaStore-Frameworks zu zeigen und die Umsetzung der Anforderungen aus den Forschungscommunities zu zeigen, beschreiben wir unsere Erfahrungen mit der Einführung von MetaStore für drei Communities.;-;-;-;https://link.springer.com/article/10.1007/s10619-017-7210-4 db7b7d98800e451d893f263e10c2bd30;de;;;6.3.;;;Daten- und Rechenbewegung in Nebelumgebungen: Der DITAS-Ansatz Datenintensive Anwendungen werden in mehreren Bereichen sehr wichtig, darunter E-Health, Regierung 2.0, Smart Cities und Industrie 4.0. Tatsächlich erfordert die deutliche Zunahme des Sensoreinsatzes im Internet der Dinge (IoT) in Verbindung mit den riesigen Datenmengen, die von intelligenten und intelligenten Geräten wie Smartphones generiert werden, ein angemessenes Datenmanagement. Das Ziel dieses Kapitels besteht darin, sich darauf zu konzentrieren, wie das Datenmanagement verbessert werden kann, wenn Daten in einer Fog-Computing-Umgebung erzeugt und verbraucht werden, in der sowohl Ressourcen am Rand des Netzwerks (z. B. Sensoren und Mobilgeräte) als auch Ressourcen in der Cloud (z , virtuelle Maschinen) beteiligt sind und nahtlos zusammenarbeiten müssen. Basierend auf dem im europäischen DITAS-Projekt vorgeschlagenen Ansatz können Daten- und Berechnungsbewegungen zwischen den;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94890-4_12 3e7a1fbde5cc12104c02ee8939a75759;de;;;6.3.;;;Erhaltung des Erbes von Steganographischen Daten mit der App zum Teilen von Bildern Mit dem Aufkommen von Smartphones haben wir die Möglichkeit, ein Foto zu machen und es jederzeit ins Internet hochzuladen. Daher kann es von entscheidender Bedeutung sein, Metadaten des Bildes für die Denkmalpflege einzubeziehen. Dieses Projekt konzentriert sich auf Erbekonzepte und ihre Bedeutung in jedem sich entwickelnden und sich verändernden digitalen Bereich, in dem Systemlösungen nachhaltig, gemeinsam nutzbar, effizient und für die grundlegenden Benutzerbedürfnisse geeignet sein müssen. Steganographie bietet eine praktikable und praktikable Lösung, um die sichere Erhaltung des Erbes der Multimedia-Inhalte zu gewährleisten. Durch das direkte Einbetten von Informationen in das Bild gehen die Informationen über das Bild nie verloren, da es nicht von seiner ursprünglichen Quelle getrennt ist. Ziel des Beitrags ist es, diesen Aspekt anhand einer Bildfreigabe-App zu demonstrieren, die es Nutzern ermöglicht, Nachrichten und personalisierte Informationen auszutauschen, die in das Bild eingebettet sind, so dass es ohne Kenntnis ihres Schlüssels nicht zugänglich ist. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-74718-7_18 535f11bfbf422a2b2d934490e3a779b1;de;;;6.3.;;;Implementierung der diffusionsgewichteten MRT für die Körperbildgebung in prospektiven multizentrischen Studien: aktuelle Überlegungen und Zukunftsperspektiven Für die Körperbildgebung kann die diffusionsgewichtete MRT zur Tumorerkennung, zum Staging, zur prognostischen Information, zur Beurteilung des Ansprechens und zur Nachsorge verwendet werden. Die Erkennung und das Staging von Krankheiten beinhalten eine qualitative, subjektive Beurteilung von Bildern, während für Prognose, Progression oder Ansprechen eine quantitative Bewertung des scheinbaren Diffusionskoeffizienten (ADC) erforderlich ist. Die Validierung und Qualifizierung von ADC in multizentrischen Studien umfasst die Prüfung von i) der technischen Leistung zur Bestimmung von Biomarker-Bias und -Reproduzierbarkeit und ii) der biologischen Leistung, um einen bestimmten Aspekt der Biologie zu untersuchen oder das Ergebnis vorherzusagen. Leider macht die Vielfalt der Erfassungs- und Analysemethoden, die an verschiedenen Zentren verwendet werden, die ADC-Werte zwischen ihnen nicht vergleichbar. Dies macht die Implementierung in multizentrischen Studien ungültig und schränkt den Nutzen von ADC als Biomarker ein. Dieser Artikel befasst sich mit den Faktoren, die zur ADC-Variabilität in Bezug auf die Datenerfassung und -analyse beitragen. Hardware- und Softwareüberlegungen werden bei der Implementierung standardisierter Protokolle auf Plattformen mehrerer Anbieter zusammen mit Methoden zur Qualitätssicherung und Qualitätskontrolle diskutiert. Bei der Durchführung multizentrischer Studien werden Prozesse der Datenerhebung, Archivierung, Kuratierung, Analyse, zentrale Auslesung und der Umgang mit Zufallsbefunden berücksichtigt. Datenschutz und gute klinische Praxis sind wesentliche Voraussetzungen. Die Entwicklung eines internationalen Konsens der Verfahren ist entscheidend für eine erfolgreiche Validierung, wenn ADC ein nützlicher Biomarker in der Onkologie werden soll.;-;-;-;https://link.springer.com/article/10.1007/s00330-017-4972-z f0342026c487b1baa74003ecb1466261;de;;;6.3.;;;Ein neuartiges rechnergestütztes Wissensbasis-Framework zur Visualisierung und Quantifizierung von Geometadaten in Geodateninfrastrukturen Fortschritte in der Metadatenforschung waren maßgeblich an Vorhersagen und „Evaluation der Gebrauchstauglichkeit“ für den effektiven Entscheidungsprozess beteiligt. In den letzten zwei Jahrzehnten wurde das Modell entwickelt, um visuelle Unterstützung bei der Bewertung der Qualitätsinformationen in Metadaten und der Quantifizierung des Metadatenbestands zu bieten. Dennoch besteht die Notwendigkeit, ein Framework zu entwickeln, das generisch sein kann, um alle verfügbaren Standards für Geospatial Metadata zu übernehmen. Die computergestützte Analyse von Metadaten für spezifische Anwendungen bleibt für Untersuchungen und Studien unerforscht. Diese Arbeit schlägt einen Berechnungsrahmen für Geospatial Metadata vor, indem TopicMaps und Hypergraphs (HXTM) basierend auf den Elementen und ihren Abhängigkeitsbeziehungen integriert werden. Ein speziell erstellter Datensatz, der aus Schemata verschiedener Standardisierungsorganisationen und vorhandenem Wissen in der Disziplin extrahiert wurde, wird verwendet, um das Framework zu modellieren und dadurch Ranking-Strategien zu bewerten. Hypergraph-Helly Property basierter Weight-Assignment Algorithm (HHWA) wurde für das HXTM-Framework vorgeschlagen, um stabile Gewichte für Metadatenelemente zu berechnen. Die rekursive Verwendung der Helly-Eigenschaft stellt die vorherrschenden Elemente sicher, während die Rank Order Centroid (ROC)-Methode verwendet wird, um Standardgewichtungen zu berechnen. Zur Validierung des vorgeschlagenen Frameworks wird ein echtes Korpus verwendet, das Fallstudien aus den FGDC-Standards für Geospatial Metadata, INSPIRE Metadata Standards und ISRO Metadata Content Standard (NSDI 2.0) verwendet. Die Beobachtungen zeigen, dass sich der Informationsgewinn (Entropie) des vorgeschlagenen Modells zusammen mit dem Algorithmus für Quantifizierungszwecke als rechnerisch intelligent erweist und die Stärke von Metadatenelementen für alle Anwendungen visualisiert. Ein Prototyp-Tool, ‚MetDEVViz-;-;-;-;https://link.springer.com/article/10.1007/s10707-018-0317-6 a2a1d62869b5b92a791c6d73aa01936b;de;;;6.3.;;;Zunehmende Nutzung elektronischer Ressourcen in den Geisteswissenschaften ELEKTRONISCHES PUBLISHING und die Nutzung elektronischer Quellen in den Geisteswissenschaften eröffnen neue Möglichkeiten der Forschung und des Gedankenaustauschs und bieten gleichzeitig Lösungen zur Bewältigung der Krise des wissenschaftlichen Publizierens. Um die Nutzung und wissenschaftliche Akzeptanz elektronischer Ressourcen in den Geisteswissenschaften zu verbessern, ist es notwendig, nicht nur digitale Daten bereitzustellen, die den gleichen Qualitätsansprüchen wie gedruckte wissenschaftliche Daten genügen, sondern auch die Aus- und Weiterbildung von Wissenschaftlern und Studierenden in den diese Quellen angemessen zu nutzen, ein System zu etablieren, das einen präzisen Langzeitzugriff auf diese Daten sicherstellt, und die Rolle elektronischer Quellen im wissenschaftlichen Publizieren zu erweitern. Letzteres beinhaltet die Art und Weise, wie elektronische Quellen im Tenure- und Post-Tenure-Prozess überprüft und bewertet werden. Wir müssen uns auch der Nutzeranforderungen und des Nutzerverhaltens bewusst sein, denn der Erfolg elektronischer Quellen hängt von ihrer praktischen Anwendung und Nutzbarkeit ab.;-;-;-;https://link.springer.com/article/10.1007/BF02940933 f02074173696113904aa0c727f4b08f1;de;;;6.3.;;;Herausforderungen bei der Speicherung multimedialer Daten für die Zukunft – ein Überblick Die dauerhafte Sicherung des Zugriffs auf Multimediadaten kann sich als die anspruchsvollste Aufgabe in allen Multimedia-Belangen erweisen. Den Zugriff auf Daten früherer technischer Generationen zu erhalten, war schon immer ein ziemlich schwieriges Unterfangen, aber multimediale Daten mit einer fast endlosen Abfolge von Verschlüsselungs- und Komprimierungsalgorithmen stellen noch mehr aufs Spiel, insbesondere wenn nicht nur die Migration der Daten von einer früheren Generation auf eine aktuelle in Betracht gezogen wird Technik, aber von vor Jahrzehnten. Die Zeit zum Nachdenken und Entwickeln von Techniken und Methoden, um Daten im Laufe der Zeit zugänglich zu halten, ist gerade jetzt, da die ersten Herausforderungen am Horizont sichtbar werden: Wie man die ständig wachsenden (und exponentiell wachsenden) Datenmengen ohne größere manuelle Eingriffe so schnell wie möglich archivieren kann da ein Speichermedium keinen freien Speicherplatz mehr hat. Gibt es so etwas wie „unendliche Speicherkapazität“? Würde eine „unendliche Speicherkapazität“ wirklich helfen? Oder brauchen wir ganz neue Denkansätze bei der Archivierung digitaler Daten für die Zukunft?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27355-1_75 2be5a3290826634d42fb5d4fa4c3711e;de;;;6.3.;;;Das CHAMP/GRACE-Benutzerportal ISDC Das Portal Information System and Data Center (ISDC) ist das Tor zu geowissenschaftlichen Daten, Informationen und Wissen, die von nationalen und internationalen Projekten des GFZ Potsdam, wie den Satellitenprojekten CHAMP und GRACE, bereitgestellt werden. Neben Datenmanagementprozessen wie Datenaufnahme, Katalogerstellung und Datenarchivierung ist ein weiterer wichtiger Teil des Datenlebenszyklus die Bereitstellung von Benutzeroberflächen für die Offenlegung, Entdeckung und Wiederverwendung von Daten. Dieses Kapitel beschreibt das ontologiegetriebene Metadatenkonzept, die Systemarchitektur inklusive Benutzeroberflächen und die Backend-Software für die operativen Dienste des ISDC-Portals.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10228-8_2 14bff9b0fe19eb45e1855e42670af360;de;;;6.3.;;;Rolle der Materialdatenwissenschaft und -informatik bei der beschleunigten Materialinnovation Das Ziel der Materials Genome Initiative ist es, den Zeit- und Kostenaufwand für Materialdesign und -einsatz erheblich zu reduzieren. Um dieses Ziel zu erreichen, müssen die jüngsten Fortschritte in den Daten- und Informationswissenschaften genutzt werden. Diese kritische Notwendigkeit hat die Entstehung einer neuen Disziplin namens Materialdatenwissenschaft und Informatik vorangetrieben. Diese aufstrebende neue Disziplin muss sich nicht nur den wissenschaftlich-technologischen Kernherausforderungen im Zusammenhang mit der Datenfizierung der Materialwissenschaften und -technik stellen, sondern auch einer Reihe ebenso wichtiger Herausforderungen rund um die datengesteuerte Transformation der aktuellen Kultur, Praktiken und Arbeitsabläufe, die für Materialien verwendet werden Innovation. Eine umfassende Anstrengung, die beide Aspekte in synergetischer Weise anspricht, wird wahrscheinlich erfolgreich sein, um die Vision einer maßstabsgetreuen Materialinnovation zu verwirklichen. In diesem Artikel werden die wichtigsten Toolsets identifiziert und diskutiert, die für die erfolgreiche Einführung von Materialdatenwissenschaft und -informatik in der Materialinnovation erforderlich sind. Prototypische Beispiele für aufkommende neuartige Toolsets und deren Funktionalität werden zusammen mit ausgewählten Fallstudien beschrieben.;-;-;-;https://link.springer.com/article/10.1557/mrs.2016.164 dd147cb6c2501d5c82e1f40aaad545f3;de;;;6.3.;;;Edge Computing für das industrielle IoT: Herausforderungen und Lösungen Die Entwicklung von lokaler hin zu virtualisierter Datenspeicherung, Computing, Anwendungen und Diensten – in Form von Internet der Dinge (IoT), Everything as a Service (EaaS) und Cloud Computing – hat die Art und Weise der Bereitstellung digitaler Dienste für Verbraucher und Unternehmen verändert . Diese Technologien haben gegenüber herkömmlichen Systemen deutliche Vorteile gebracht, wie z. B. einfache Verwaltung, universelle Verfügbarkeit und geringere Hardwareanforderungen für Endbenutzergeräte. Die Hauptherausforderungen der IoT-Dienste der ersten Generation liegen in der Kommunikationslatenz aufgrund der hohen physischen und logischen Distanz zwischen Endknoten und Serverressourcen und der Anfälligkeit für Netzwerkprobleme entlang der langen Routen. Dank der Einführung der fünften Generation der drahtlosen Technologie (5G) für Mobilfunknetze nimmt die Verbindungsleistung auf der letzten Meile – insbesondere die Kommunikationslatenz – einen enormen Sprung und eröffnet damit neue Möglichkeiten für industrielle Anwendungen. Edge Computing ist eine Schlüsseltechnologie, um das volle Potenzial der entstehenden industriellen drahtlosen Kommunikation auszuschöpfen, da es die Bereitstellung von Rechenaufgaben auf Rechenknoten in der Nähe der Endgeräte ermöglicht und damit neue Geschäftsmöglichkeiten rund um Echtzeit-Cloud-Dienste eröffnet. In diesem Kapitel stellen wir den aktuellen Stand der Technik vor und diskutieren verschiedene Herausforderungen, mit denen Edge-Computing-Systeme insbesondere im Bereich Industrial IoT (IIoT) konfrontiert sind, sowie stellen mögliche Lösungen für die identifizierten Herausforderungen vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-51473-0_12 50c4e33dec2a814904b02f5f415634a5;de;;;6.3.;;;Datenorganisation und -kuration in Big Data In diesem Kapitel werden fortgeschrittene Techniken der Big-Data-Analyse und der Abfrageverarbeitung behandelt. Da die Datenmenge immer größer wird und gleichzeitig Workloads und Analysen komplexer werden, werden die Fortschritte bei Big-Data-Anwendungen nicht mehr durch ihre Fähigkeit, Daten zu sammeln oder zu generieren, behindert. Sondern durch ihre Fähigkeit, die verfügbaren Daten effizient und effektiv zu verwalten. Daher wurden zahlreiche skalierbare und verteilte Infrastrukturen vorgeschlagen, um Big Data zu verwalten. In der Literatur ist jedoch bekannt, dass Skalierbarkeit und verteilte Verarbeitung allein nicht ausreichen, um eine hohe Leistung zu erzielen. Stattdessen muss die zugrunde liegende Infrastruktur für verschiedene Arten von Workloads und Abfrageklassen stark optimiert werden. Diese Optimierungen beginnen in der Regel auf der untersten Schicht des Datenverwaltungsstapels, der Speicherschicht. In diesem Kapitel behandeln wir zwei bekannte Techniken zur optimierten Speicherung und Organisation von Daten, die großen Einfluss auf die Abfrageleistung haben, nämlich die namely;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49340-4_5 b76507a6c40d8918299321d8c886c9de;de;;;6.3.;;;Klinische Bioinformatik zur Entdeckung von Biomarkern in der zielgerichteten Metabolomik In diesem Kapitel werden Methoden der klinischen Bioinformatik in der zielgerichteten Metabolomik diskutiert, wobei der Schwerpunkt auf der Entdeckung metabolischer Biomarker liegt. Der Leser wird in allgemeine Aspekte wie Initiativen zur Standardisierung der Metabolomik, regulatorische Richtlinien und Softwarevalidierung eingeführt und erhält einen Überblick über den Bioinformatik-Workflow in der Metabolomik. Engineering-basierte Konzepte der klinischen Bioinformatik zur Unterstützung der Lagerung und automatisierten Analyse von Proben, der Integration von Daten in öffentliche Repositorien und des Datenmanagements mit Metabolomics-Anwendungssoftware werden diskutiert. Chemometrische Algorithmen zur Datenverarbeitung werden zusammengefasst, Modalitäten der Biostatistik und Datenanalyse vorgestellt, sowie Ansätze von Data Mining und Machine Learning, die auf die Entdeckung von Biomarkern in der gezielten Metabolomik abzielen. Methoden der Dateninterpretation im Kontext annotierter biochemischer Stoffwechselwege werden vorgeschlagen, theoretische Konzepte des Metabolic Modeling und Engineering vorgestellt und die;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-7543-4_8 d02886720093d4b0dcc370040c4759d2;de;;;6.3.;;;Erfassung und Pflege eines Datensatzes in Facebook-Anwendungen Ein wichtiger und umfangreicher Teil dieser Dissertation bestand darin, einen Originaldatensatz zu Facebook-Entwicklern und -Anwendungen aufzubauen. Mit dem Start der Plattform im Mai 2007 führte Facebook ein Verzeichnis ein, in dem täglich Anwendungen mit Informationen zu ihrer Funktionalität, ihren Entwicklern, ihrer Nutzung und Nutzerbewertungen aufgelistet wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-3887-9_2 baafb403edcd364135a1c1c63e481fe4;de;;;6.3.;;;IBM PAIRS: Skalierbare Big Geospatial-Temporal Data und Analytics as a Service Das schnelle Wachstum von georäumlich-zeitlichen Daten aus Quellen wie Satelliten, Drohnen, Wettermodellen, IoT-Sensoren usw., die sich jährlich in einer Geschwindigkeit von PetaBytes bis ExaBytes ansammeln, eröffnet beispiellose Möglichkeiten sowohl für wissenschaftliche als auch für industrielle Anwendungen. Die schiere Größe und Komplexität solcher Daten stellt jedoch erhebliche Herausforderungen für konventionelle Geoinformationssysteme (GIS) dar, die von relationalen Geodatenbanken und Cloud-basierten Geodiensten basierend auf Dateisystemen (meist manifestiert als Objektspeicher oder „kalte“ Bandspeicher) unterstützt werden ).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-55462-0_1 a55819d121ae6904b5285b94f5658712;de;;;6.3.;;;Rechtliche Aspekte des Datenschutzes in Cloud Federations Cloud Computing bietet On-Demand-Zugriff auf Rechen-, Infrastruktur- und Datenressourcen, die von einer Remote-Quelle aus betrieben werden. Es verlagert auch Funktionen und Verantwortlichkeiten aus dem lokalen Eigentum und wirft mehrere rechtliche Fragen auf, beispielsweise den Datenschutz. In diesem Kapitel untersuchen wir Cloud-Architekturansichten, die von internationalen Organisationen definiert wurden, und zeigen allgemeine Nutzungsmuster in Cloud-Föderationen auf, bei denen rechtliche Probleme auftreten können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38586-5_15 e13bd1af3886c2f9e97f3e57715f8197;de;;;6.3.;;;Ein kombiniertes Framework aus interplanetärem Dateisystem und Blockchain zur sicheren Verwaltung elektronischer Krankenakten Blockchain hat sich seit seiner Einführung zu einem beliebten Forschungsgebiet entwickelt, da der Nutzen in verschiedenen Branchen gesehen wurde. Es könnte dem Gesundheitssektor von großem Nutzen sein, da es Anonymität, Unveränderlichkeit und Dezentralisierung von Daten bietet. Elektronische Patientenakten (EMR) stehen vor entscheidenden Problemen in Bezug auf Datensicherheit, Zugänglichkeit und Verwaltung. Viele Sicherheitsbedrohungen in Bezug auf die Privatsphäre von Patienten beinhalten den unbefugten Zugriff auf medizinische Aufzeichnungen, den Missbrauch von Krankheitsberichten von Patienten und so weiter. Um diese Probleme anzugehen, haben wir eine Blockchain in Kombination mit dem Lösungsframework InterPlanetary File System für EMR im Gesundheitswesen vorgeschlagen. Ziel ist es, die Blockchain für EMR zu implementieren und Zugriffsregeln für verschiedene Benutzer davon bereitzustellen. Der vorgeschlagene Rahmen schützt die Privatsphäre der Patienten und ermöglicht zugelassenen Behörden wie Gesundheitsdienstleistern einen bequemen Zugriff auf medizinische Daten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4673-4_40 06a2284f5798f345a8e3a6d407c3812a;de;;;6.3.;;;Hochgeschwindigkeits-Big-Data-Streams: Ein Literaturüberblick Heutzutage werden Hochgeschwindigkeitsdatenströme kontinuierlich über eine Vielzahl von Quellen wie Social Media und unternehmensbezogene geschäftsbezogene Daten generiert. Wir haben die grundlegenden Eigenschaften von Big Data und Herausforderungen im Umgang mit Big Data und Datenströmen aufgelistet. Dieses Papier zeigt aktuelle Arbeiten zur Verarbeitung und Analyse von Big Data und Datenströmen, Echtzeit-Datenanalyse, Entscheidungsfindung und Business Intelligence. Unser Ziel ist es, verschiedene Trends in der verteilten Datenanalyse, einer Studie zur Sicherheit von Big Data, Anwendungen von Big Data und der Verarbeitung von Datenströmen zu erforschen. Auch wenn im Bereich Big Data weltweit viel geforscht wird, gibt es in diesem Bereich immer noch Spielraum für Verbesserungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37051-0_36 bdbfd7c6867fab5771b2e947a8914d2b;de;;;6.3.;;;Eine Studie zur Betriebsanalyse von Katastrophenvorsorgesystemen und finanziellen Sicherheitsmaßnahmen großer Bankennetzwerke Der kürzliche Ausfall des Serversystems der Nonghyup Bank im April 2011 hat es in Schande hinterlassen, dass die Gesamtverwaltung des Serversystems im Bankennetzwerk insolvent ist. Es ist eines der dringendsten Probleme, die Verwaltung und Sicherheit von Computersystemen richtig zu verwalten, da sich die IT-Technologie blitzschnell entwickelt. In dieser Arbeit wird umfassend untersucht, wie die Finanzinstitute mit dem Managementsystem gegen den Computerausfall umgehen und die optimale Lösung zur Pflege ihrer Finanzcomputersysteme und Informationsschutzpolitiken. Für den optimierten Betrieb des Bankennetzwerksystems ist es notwendig, den Verbesserungsplan durch die quantitative Bewertung des zentralisierten und verteilten Verarbeitungssystems zu erstellen. Die Stabilität des Informationsschutzsystems muss mit der rollenbasierten Zugangskontrolle und dem verteilten Sicherheitsmanagementsystem gegen den Zugriff von internen & externen Benutzern oder illegalen Eindringlingen zurechtkommen. In dieser Umfrage wird hervorgehoben, dass die nächste Generation der Bankennetzwerkinfrastruktur in Bezug auf ihre Stabilität gestärkt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24106-2_22 15a0ffe8d6e826a6da57be1c621e73b4;de;;;6.3.;;;Forschung zu Status Quo und Problemen der Stromnetzproduktion in China Die intelligente Produktion des Stromnetzes ist der Kern der Entwicklung von Smart Grids. Der aktuelle Produktionsstatus des Stromnetzes befindet sich in einer Übergangsphase. In der Übergangszeit gibt es aufgrund des Einsatzes neuer Technologien viele Probleme in der Stromnetzgründung. Nach unserer Untersuchung sind die Big Data-Speicher- und -Schutzprobleme, das Problem der Koexistenz von Geräten verschiedener Generationen und die bei der Drohneninspektion auftretenden Probleme bei der Klassifizierung und Verarbeitung von Szenenbildern die wichtigsten Probleme im aktuellen Stromnetz. Dieses Papier geht auf die oben genannten Fragen ein und schlägt praktikable Lösungen entsprechend der Entwicklung der modernen Technologie vor. Die möglichen Lösungen für unsere beobachteten Probleme bestehen darin, eine Big-Data-Cloud-Plattform innerhalb des Stromnetzes einzurichten, einen einheitlichen Standard für das Stromnetzgerät vorzuschlagen und den zweidimensionalen Code effektiv zur Bildklassifizierung zu nutzen. Dies wird nicht nur die verschiedenen Probleme des Stromnetzes in der aktuellen Phase effektiv lösen, sondern auch die Grundlage für die Entwicklung von Smart Grids legen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3308-2_37 b626c2c5ca0f5a3463ef2092f57d9e46;de;;;6.3.;;;Upgrade von älteren EHR-Systemen auf intelligente EHR-Systeme Elektronische Patientenaktensysteme (EHR) sind ein Schlüsselelement der klinischen Praxis in den meisten Krankenhäusern und Gesundheitsorganisationen. Obwohl sich seine Rolle traditionell hauptsächlich auf die Speicherung und Kommunikation von Gesundheitsdaten von Patienten konzentriert hat, ergeben sich dank der jüngsten technischen Fortschritte eine Vielzahl neuer vielversprechender Möglichkeiten, darunter die Ermächtigung der Benutzer, die Entdeckung neuer medizinischer Erkenntnisse, klinische Entscheidungsunterstützungssysteme und Automatisierung von klinischen Aufgaben. In diesem Papier wird eine Reihe verschiedener Funktionen erörtert, die einem älteren EHR-System hinzugefügt werden können, um es zu einem intelligenten EHR-System aufzurüsten, wie (i) gesundheitsbezogene Datenkuration, (ii) regelbasierte Datenverarbeitung, (iii) Geschäftsprozesse Management und (iv) intelligente Agenten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-59397-5_24 4b64ff89141dd6f4f41bf8c652f55260;de;;;6.3.;;;Verteiltes Management und Analyse von Omics-Daten Der Begriff Omics bezieht sich auf verschiedene Biologiedisziplinen wie zum Beispiel Genomics, Proteomics oder Interactomics. Das Suffix -ome wird verwendet, um die Untersuchungsobjekte solcher Disziplinen wie Genom, Proteom oder Interaktom anzugeben, und bezieht sich normalerweise auf eine Art Gesamtheit. In diesem Artikel werden Omics-Daten und die wichtigsten Rechentechniken für deren Speicherung, Vorverarbeitung und Analyse vorgestellt. Die zunehmende Verfügbarkeit von Omics-Daten aufgrund des Aufkommens von Hochdurchsatztechnologien wirft neue Probleme bei der Datenverwaltung und -analyse auf, denen sich parallele und verteilte Speichersysteme und Algorithmen stellen können. Nach einem Überblick über die wichtigsten Omics-Datenbanken, Vorverarbeitungstechniken und Analyseansätze beschreibt der Artikel einige neuere bioinformatische Werkzeuge in der Genomik, Proteomik und Interaktomik, die einen verteilten Ansatz verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29740-3_6 eaba866cc304e00c319468a168382c36;de;;;6.3.;;;Big-Data-Technologien: Eine umfassende Studie Im letzten Jahrzehnt hat die Digitalisierung in allen Lebensbereichen zu einer explosionsartigen Datengenerierung geführt. Daher hatte der Begriff Big Data die Aufmerksamkeit von Forschern und der Unternehmenswelt auf sich gezogen. Dieses Umfragepapier stellt das Konzept und die Definition von Big Data vor, gefolgt von seinen Eigenschaften. Wir geben einen kurzen Überblick über die Herausforderungen von Big Data, deren Technologien und Tools, die eine wichtige Rolle bei der Speicherung und Verwaltung von Big Data spielen. Wir heben auch die Arbeit verschiedener Forscher bei der Speicherung und Analyse von Big Data hervor. Außerdem wird ein Vergleich von Speichertechnologien vorgestellt, der den Forschern helfen soll, eine angemessene Vorstellung von den unterschiedlichen Herausforderungen zu haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7345-3_9 e6c543c0d5cfc4c11684e3b9498ac83a;de;;;6.3.;;;Fluoreszenz-Anisotropie-basierter Assay zur Charakterisierung der Liganden-Bindungsdynamik an GPCRs: Der Fall von Cy3B-markierten Liganden, die an MC . binden In den letzten zehn Jahren haben sich Fluoreszenzmethoden zu wertvollen Werkzeugen zur Charakterisierung der Ligandenbindung an G-Protein-gekoppelte Rezeptoren (GPCRs) entwickelt. Allerdings ermöglichen nur wenige Assays die Untersuchung von Wildtyp-Rezeptoren und die Überwachung der Ligandenbindung in Echtzeit. Einer der für diesen Zweck von Natur aus geeigneten Ansätze ist der Fluoreszenz-Anisotropie-(FA)-Assay. Im FA-Assay kann die Änderung der Rotationsfreiheit des Liganden, die mit seiner Bindung an den Rezeptor verbunden ist, mit einem herkömmlichen Fluoreszenzplatten-Reader, der mit geeigneten optischen Filtern ausgestattet ist, verfolgt werden. Um die für den Assay erforderliche hohe Rezeptorkonzentration und die für zuverlässige Ergebnisse notwendigen niedrigen Autofluoreszenzniveaus zu erreichen, können knospende Baculoviren verwendet werden, die GPCRs auf ihren Oberflächen aufweisen. Der Überwachungsprozess erzeugt eine beträchtliche Menge an kinetischen Daten, die normalerweise in einem proprietären Dateiformat gespeichert werden, was die Flexibilität der Datenanalyse einschränkt. Um dieses Problem zu lösen, schlagen wir die Verwendung der Datenkuratierungssoftware vor;-;-;-;https://link.springer.com/protocol/10.1007/978-1-0716-1221-7_8 5ecafde14e292d2820249265295f5a71;de;;;6.3.;;;Screening von intrinsisch ungeordneten Regionen auf kurze lineare Bindungsmotive Die intrinsisch ungeordneten Regionen des Proteoms sind mit kurzen linearen Motiven (SLiMs) angereichert, die als Bindungsstellen für Peptidbindungsproteine ​​dienen. Diese Wechselwirkungen weisen häufig niedrige bis mittlere mikromolare Affinitäten auf und sind experimentell schwer zu durchsuchen. In letzter Zeit wurde jedoch eine Reihe spezieller Methoden entwickelt, die sich für das Screening von SLiM-basierten Wechselwirkungen im großen Maßstab öffnen. Besonders bewährt hat sich hierfür eine Variante des Phagen-Displays, die als proteomisches Peptid-Phagen-Display (ProP-PD) bezeichnet wird. Hier beschreiben wir ein komplettes Hochdurchsatz-ProP-PD-Protokoll zum Screening intrinsisch ungeordneter Regionen für SLiMs. Das Protokoll erfordert einige grundlegende bioinformatische Fähigkeiten für das Design der Bibliothek und für die Datenanalyse, kann aber in einem Standard-Biochemielabor durchgeführt werden. Das Protokoll beginnt mit dem Aufbau einer Bibliothek, gefolgt von der Hochdurchsatzexpression und -reinigung von Köderproteinen, der Phagenselektion und der Analyse der bindungsangereicherten Phagenpools mittels Next-Generation-Sequenzierung. Da das Protokoll ziemlich große Datensätze generiert, betonen wir auch die Bedeutung der Datenverwaltung und -speicherung.;-;-;-;https://link.springer.com/protocol/10.1007/978-1-0716-0524-0_27 7450a95e905eab10cfcd7e96d8d7756a;de;;;6.3.;;;Umgang mit Big Data in Astronomie und Astrophysik: Umfangreiche strukturierte Abfragen zu replizierten Wolkendaten mit XtreemFS Mit aktuellen Beobachtungsinstrumenten und Umfragekampagnen in der Astrophysik wird die effiziente Analyse großer strukturierter Daten immer relevanter. Obwohl sie eine gute Abfrageausdruckskraft und Datenanalysefähigkeiten durch SQL bieten, sind Standard-RDBMS noch nicht gut darauf vorbereitet, große wissenschaftliche Datenmengen zu verarbeiten, die über mehrere Knoten verteilt sind, weder für schnelle Datenaufnahme noch für schnelle räumliche Abfragen. Unser SQL-Abfrageparser und Jobmanager führt eine Abfrageumformulierung durch, um Abfragen auf Datenknoten zu verteilen, Ausgaben auf einem Hauptknoten zu sammeln und sie für nachfolgende Verarbeitungsschritte wieder an die Shards bereitzustellen. Wir kombinieren diese Datenanalysearchitektur mit der Cloud-Datenspeicherkomponente XtreemFS zur automatischen Datenreplikation, um die Verfügbarkeit und Zugriffslatenz zu verbessern. Mit unserer Lösung führen wir umfangreiche strukturierte Datenanalysen durch, die mithilfe von SQL ausgedrückt werden, an großen Mengen strukturierter astrophysikalischer Daten, die parallel über zahlreiche Speicherknoten verteilt sind. Die Cloud-Speichervirtualisierung mit XtreemFS bietet durch ihre Snapshot-Fähigkeit Elastizität und Reproduzierbarkeit von wissenschaftlichen Analyseaufgaben.;-;-;-;https://link.springer.com/article/10.1007/s13222-012-0099-1 938fce0018a9fff5ff9c1416e8d9dca3;de;;;6.3.;;;Datenbanken: Die integrative Kraft im Cyberspace Die Datenbanktechnologie hat einen langen Weg zurückgelegt. Ausgehend von Systemen, die nur ein wenig flexibler waren als Low-Level-Dateisysteme, haben sie sich zu leistungsstarken Programmier- und Ausführungsumgebungen entwickelt, indem sie die Ideen der Datenunabhängigkeit, nicht prozeduralen Abfragesprachen, erweiterbaren Typsystemen, automatischer Abfrageoptimierung (einschließlich paralleler Ausführung und Lastausgleich), automatische Kontrolle der Parallelität, automatische Wiederherstellung und Speicherverwaltung, transparente verteilte Ausführung – um nur einige zu nennen. Obwohl Datenbanksysteme (heute) die einzigen Systeme sind, die es normalen Anwendungsprogrammierern ermöglichen, Programme zu schreiben, die in einer massiv parallelen Umgebung auf gemeinsam genutzten Daten korrekt und sicher ausgeführt werden, wird die Datenbanktechnologie von vielen Menschen immer noch als Spezialisierung auf große kommerzielle Online-Anwendungen angesehen Anwendungen, die eher statisch aufgebaut sind und sich wesentlich von den „anderen“ IT-Komponenten unterscheiden. Genauer gesagt: Obwohl die Datenbanktechnologie für das Management persistenter Daten das ist, was Kommunikationssysteme für nachrichtenbasierte Systeme sind, gibt es immer noch viele Anwendungsentwickler, die stolz darauf sind, keine Datenbanken zu verwenden, sondern etwas anderes. Dies ist angesichts der Tatsache erstaunlich, dass die Datenmenge, die zuverlässig gespeichert (und schließlich wieder abgerufen) werden muss, aufgrund der dramatisch gesunkenen Speicherpreise exponentiell wächst – es ist schließlich das Mooresche Gesetz. Mehr noch: Dinge, die bis vor kurzem noch als wirklich volatil galten, wie zum Beispiel Prozesse, werden zum Beispiel im Workflow-Management zu persistenten Objekten.;-;-;-;https://link.springer.com/chapter/10.1007/11499923_1 3b1619f8151625bffe21134530dca0aa;de;;;6.3.;;;Kostengünstige Konzeptionierung durch Taxonomien Es ist bekannt, dass das Annotieren von Entitäten in unstrukturierten und halbstrukturierten Datensätzen nach ihren Konzepten die Effektivität der Beantwortung von Abfragen über diese Datensätze verbessert. Idealerweise möchte man Entitäten aller relevanten Konzepte in einem Datensatz annotieren. Es braucht jedoch viel Zeit und Rechenressourcen, um Konzepte in großen Datasets zu kommentieren, und eine Organisation verfügt möglicherweise über ausreichende Ressourcen, um nur eine Teilmenge relevanter Konzepte zu kommentieren. Natürlich möchte es eine Teilmenge von Konzepten annotieren, die die effektivsten Antworten auf Abfragen des Datensatzes bietet. Wir schlagen einen formalen Rahmen vor, der den Betrag quantifiziert, um den das Kommentieren von Konzeptentitäten aus einer Taxonomie in einem Datensatz die Effektivität der Beantwortung von Abfragen über den Datensatz verbessert. Denn das Problem ist;-;-;-;https://link.springer.com/article/10.1007/s00778-018-0501-1 a0517508250d1a4899cbe58b8db40fbc;de;;;6.3.;;;Vitalparameter in der Intensivpflege: Automatische Erfassung und Konsolidierung in elektronische Patientenakten Die Integration von Computersystemen in die klinische Praxis ist eine Folge der zunehmenden Komplexität medizinischer Maschinen. Die Tatsache, dass das Patientenmanagement in großen Einrichtungen durch komplexe Informationssysteme abgewickelt wird, erfordert eine Integration zwischen den Anwendungen auf beiden Seiten. Das Papier beschreibt einen Prototyp für die automatische Datenerfassung von Intensivpflegegeräten, der am Pedro Hispano Hospital in Portugal entwickelt wurde. Das System fungiert als Anwendungs-Gateway zwischen dem Netzwerk von Patientenüberwachungsgeräten und dem universellen Krankenhausnetzwerk. Die Einhaltung medizinischer Standards ist eines der Hauptanliegen. Der internationale Standard Health Level 7 (HL7) wurde übernommen, um Vitalparameter zu importieren, Daten für die Visualisierung in Abteilungsanwendungen aufzubereiten und Archive zu organisieren. Das Design hat sich eng an die administrativen und klinischen Prozesse im Krankenhaus angepasst, was zu einer erfolgreichen Interaktion mit den medizinischen Fachkräften führte. Die automatische Erfassung eliminiert Übertragungsfehler, verbessert die Qualität der Aufzeichnungen und ermöglicht die Zusammenstellung großer elektronischer Archive mit Vitaldaten. Die Beschäftigung mit der Datenarchivierung in Standardformaten eröffnet viele Möglichkeiten zur weiteren Analyse der gesammelten Datensätze. Die Möglichkeit der Kommunikation über den HL7-Standard macht das gesamte System problemlos mit Anwendungen in verwandten Domänen interoperabel.;-;-;-;https://link.springer.com/article/10.1007/s10916-008-9163-7 b915951d88c3bfc97564d5256a758e08;de;;;6.3.;;;High-Level-Programmierumgebungssystem für Proteinstrukturdaten In diesem Papier stellen wir ein Anwendungssystem vor, das das objektorientierte Datenbanksystem (OODB) erweitert, indem es domänenspezifische Schichten zur Verwaltung von Proteinstrukturdaten hinzufügt. Protein-QL, eine domänenspezifische Abfragesprache, und Protein-OODB-Schichten werden über der OODB hinzugefügt. Wir haben dieses System für Proteindomänen implementiert, können es jedoch leicht auf andere biologische Domänen erweitern, um ein Bio-OODBMS aufzubauen. Wir definieren die primären, sekundären und tertiären Strukturen von Protein als interne Datentypen, um Abfragen in Protein-QL so zu vereinfachen, dass die Domänenwissenschaftler die Abfragesprache leicht beherrschen und Datenanfragen formulieren können. Wir verwenden EyeDB als Basis-OODB, um mit Protein-OODB zu kommunizieren. Unser System verwendet Java RMI, um Ergebnisse an die Clients zurückzugeben, damit Transaktionen bequem von den Clients ausgeführt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72031-7_20 77026913bfee42b92af761a3661f846a;de;;;6.3.;;;Automatische Extraktion von Designentscheidungen aus Issue-Management-Systemen: Ein auf maschinellem Lernen basierender Ansatz Sowohl in der Forschung als auch in der Industrie wurde die Notwendigkeit betont, Designentscheidungen explizit zu dokumentieren. Um Designbedenken auszuräumen, erfassen Softwarearchitekten und -entwickler Designentscheidungen implizit in Tools wie Issue-Management-Systemen. Diese Designentscheidungen sind nicht explizit gekennzeichnet und nicht in die Architekturwissensmanagement-Tools integriert. Das automatische Extrahieren von Entwurfsentscheidungen hilft Architekturwissensmanagement-Tools, aus den vergangenen Entscheidungen zu lernen und Architekten bei der Entscheidungsfindung in einem ähnlichen Kontext zu unterstützen. In diesem Papier schlagen wir einen zweiphasigen, auf überwachtem maschinellem Lernen basierenden Ansatz vor, um erstens Designentscheidungen automatisch aus Problemen zu erkennen und zweitens die identifizierten Designentscheidungen automatisch in verschiedene Entscheidungskategorien zu klassifizieren. Wir haben mehr als 1.500 Issues aus zwei großen Open-Source-Repositories manuell analysiert und gekennzeichnet und diesen Datensatz zur Generierung der Machine-Learning-Modelle verwendet. Wir haben den Datensatz öffentlich zugänglich gemacht, der als Ausgangspunkt für Forscher dienen wird, um das Problem der Erkennung und Klassifizierung von Designentscheidungen weiter zu referenzieren und zu untersuchen. Unsere Auswertung zeigt, dass wir durch den Einsatz von Linear Support Vector Machines Konstruktionsentscheidungen mit einer Genauigkeit von 91,29 % erkennen und mit einer Genauigkeit von 82,79 % klassifizieren können. Dies bietet eine quantitative Grundlage für das Lernen aus früheren Designentscheidungen, um die Beteiligten dabei zu unterstützen, bessere und informierte Designentscheidungen zu treffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-65831-5_10 bb0eaef4899db96da54451e27457ad97;de;;;6.3.;;;Datenbankverwaltungssystem für Proteinstrukturdaten In diesem Anwendungssystem haben wir unsere domänenspezifischen Protein-QL und Protein-OODB zu objektorientierten Datenbanken, relationalen Datenbanken und XML-Datenbanken erweitert, um Proteinstrukturdaten zu verwalten. Wir verwenden EyeDB, Oracle und Oracle XML als Basisdatenbanken für die Kommunikation mit Protein-OODB. Unser System verwendet RMI, um die Ergebnisse an die Clients zurückzugeben, sodass Transaktionen bequem zwischen Client und Server umgewandelt werden können. In diesem System können Benutzer unsere Protein-QL-Abfragesprache leicht beherrschen und Hilfe von unseren Online-Hilfediensten erhalten. Dieses System wird für Proteindomänen implementiert, kann jedoch leicht auf andere biologische Domänen ausgedehnt werden, um ein Bio-OODBMS aufzubauen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-8735-6_98 cf91f681cd998db6630af2849ba8f24e;de;;;6.3.;;;Maschinelle Lernprozesse charakterisieren: Ein Reifegrad-Framework In der akademischen Literatur zur Modellierung des maschinellen Lernens wird nicht darauf eingegangen, wie Modelle des maschinellen Lernens für Unternehmen funktionieren. Bestehende maschinelle Lernprozesse können beispielsweise nicht darauf eingehen, wie Geschäftsanwendungsfälle für eine KI-Anwendung definiert werden, wie Geschäftsanforderungen von Produktmanagern in Datenanforderungen für Datenwissenschaftler umgewandelt werden und wie KI-Anwendungen hinsichtlich Genauigkeit und Fairness kontinuierlich verbessert werden können, wie um universelle Machine-Learning-Modelle mit branchen-, domänen- und anwendungsfallspezifischen Daten anzupassen, um sie für bestimmte Situationen usw. genauer zu machen. Damit KI für Unternehmen funktioniert, sind besondere Überlegungen, Tools, Methoden und Prozesse erforderlich. In diesem Papier stellen wir ein Reifegrad-Framework für das Lebenszyklusmanagement von Machine Learning-Modellen für Unternehmen vor. Unser Framework ist eine Neuinterpretation des Software Capability Maturity Model (CMM) für den Modellentwicklungsprozess für maschinelles Lernen. Wir präsentieren eine Reihe von Best Practices aus der persönlichen Erfahrung der Autoren beim Aufbau groß angelegter realer Machine-Learning-Modelle, die Unternehmen dabei helfen, unabhängig von ihrem Ausgangspunkt einen höheren Reifegrad zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58666-9_2 949d7445f94597d1f794379a2767f37d;de;;;6.3.;;;Reproduzierbare und nachvollziehbare Forschungsergebnisse durch dauerhaft verknüpfte und visualisierte numerische Simulationsdaten Die Forderung nach reproduzierbaren Ergebnissen bei der numerischen Simulation optoelektronischer Bauelemente oder allgemeiner bei der mathematischen Modellierung und Simulation erfordert die (langfristige) Verfügbarkeit von Daten und Software, die zur Generierung dieser Ergebnisse verwendet wurden. Darüber hinaus sind Datenvisualisierungen wie Videos sinnvoll, um diese Ergebnisse verständlich darzustellen. Persistente Identifikatoren können verwendet werden, um die dauerhafte Verbindung dieser verschiedenen digitalen Objekte zu gewährleisten und so alle Informationen im richtigen Kontext zu bewahren. Hier geben wir einen Überblick über den Stand der Technik der Datenhaltung, Daten- und Softwarezitierung und veranschaulichen die Vorteile und Möglichkeiten der Anreicherung von Publikationen mit visuellen Simulationsdaten anhand eines Anwendungsfalls aus der Optoelektronik.;-;-;-;https://link.springer.com/article/10.1007/s11082-018-1327-1 c3cf739df95ea4b9c863ed2aca9f939f;de;;;6.3.;;;Datenschutzerhaltendes Data Mining: Eine neue Methode für die Datentransformation Heutzutage ist die Wahrung der Privatsphäre eines der größeren Anliegen beim Data Mining. Während die Forschung zur Entwicklung verschiedener Techniken zur Datenkonservierung läuft, wird eine konkrete Lösung erwartet. Wir adressieren das Datenschutzproblem beim Data Mining durch eine neuartige Data Mining-Technik zur Wahrung der Privatsphäre. Wir entwickeln und führen eine neuartige ICT-Methode (inverse cosine based transformation) ein, um die Daten zu erhalten, bevor sie einem Clustering oder einer anderen Art von Analyse unterzogen werden. Durch die Einbettung unserer ICT-Methode in einen bestehenden K-Means-Clustering-Algorithmus wird ein neuartiger „privacy protected k-clustering algorithm“ (PrivClust) entwickelt. Dieser Algorithmus wurde explizit mit Blick auf die Konvertierung in eine datenschutzwahrende Version entwickelt. Die Herausforderung bestand darin, die Datenschutzanforderungen zu erfüllen und auch valide Clustering-Ergebnisse zu garantieren. Die Simulation wurde mit Matlab durchgeführt. Unsere Analyse und Simulation zeigen, dass dieser Algorithmus einerseits die beabsichtigten Informationen effizient bewahrt und andererseits valide Clusterergebnisse liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-81-8489-203-1_36 6c7b5575e933bebce46316a3cb46a8dc;de;;;6.3.;;;Noch ein weiteres ADNI-Dokument zum maschinellen Lernen? Wegbereiter für eine vollständig reproduzierbare Forschung zur Klassifikation der Alzheimer-Krankheit In den letzten Jahren hat die Zahl der Veröffentlichungen zur Klassifikation der Alzheimer-Krankheit dramatisch zugenommen, wodurch interessante methodische Ideen zum Einsatz von maschinellem Lernen und Methoden zur Merkmalsextraktion generiert wurden. Die praktischen Auswirkungen sind jedoch viel begrenzter, und letztendlich konnte man nicht sagen, welcher dieser Ansätze der effizienteste ist. Während über 90% dieser Arbeiten ADNI verwenden, ist ein objektiver Vergleich zwischen den Ansätzen aufgrund von Variationen in den eingeschlossenen Themen, Bildvorverarbeitung, Leistungsmetriken und Kreuzvalidierungsverfahren unmöglich. In diesem Papier schlagen wir einen Rahmen für reproduzierbare Klassifikationsexperimente mit multimodalen MRT- und PET-Daten von ADNI vor. Die Kernkomponenten sind: (1) Code zur automatischen Konvertierung der vollständigen ADNI-Datenbank in das BIDS-Format, (2) eine modulare Architektur auf Basis von Nipype, um verschiedene Klassifizierungs- und Merkmalsextraktionstools einfach einzubinden, (3) Merkmalsextraktionspipelines für MRT- und PET-Daten, (4) Basisklassifikationsansätze für unimodale und multimodale Merkmale. Dies bietet einen flexiblen Rahmen für das reproduzierbare Benchmarking verschiedener Tools zur Merkmalsextraktion und -klassifizierung. Datenverwaltungstools zum Erhalten der Fächerlisten in AD, MCI-Konverter, MCI-Nicht-Konverter, CN-Klassen werden ebenfalls bereitgestellt. Wir demonstrieren seine Verwendung auf allen (1519) Baseline-T1-MR-Bildern und allen (1102) Baseline-FDG-PET-Bildern von ADNI 1, GO und 2 mit SPM-basierten Merkmalsextraktionspipelines und drei verschiedenen Klassifikationstechniken (lineare SVM, anatomisch regularisierte SVM und multiple Kernel-Lern-SVM). Die höchsten erreichten Genauigkeiten waren: 91 % für AD vs. CN, 83 % für MCIc vs. CN, 75 % für MCIc vs. MCInc, 94 % für AD-A;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67389-9_7 92d64c4d717df8b21a0db7b1c35d6590;de;;;6.3.;;;Eine Modellierungssprache für die Darstellung, den Austausch und die Visualisierung von 3D-Prozessanlagen-Layouts In der Nuklearindustrie ist die Erzielung einer langfristigen Datenerhaltung eine Voraussetzung dafür, dass Kernkraftwerke sicher gebaut, über fünf oder sechs Jahrzehnte betrieben und stillgelegt werden. Unter anderem leiden CAD-Daten unter teilweise starken Abhängigkeiten von den Softwareanbietern und deren Datenmodell, was zu einer möglichen Schwäche im Aufbewahrungsworkflow führt. In diesem Beitrag wird eine Modellierungssprache vorgestellt, die für die 3D-Darstellung eines verfahrenstechnischen Anlagenlayouts geeignet ist und auf einem prozeduralen Constructive Solide Geometry (CSG)-Ansatz basiert. Die Sprachausführung sowie das Layout-Rendering und -Austausch werden mit einer plattformunabhängigen Implementierung, basierend auf freier Software und offenen Standards, experimentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35758-9_43 93766dbca9363c38d4f8b77a9e0be8c6;de;;;6.3.;;;Die Stärke in Zahlen: umfassende Charakterisierung von Hausstaub mit komplementären massenspektrometrischen Verfahren Eine nicht gezielte Analyse einer zusammengesetzten Hausstaubprobe wurde als Teil einer gemeinsamen Anstrengung durchgeführt, um den Fortschritt im Bereich des Screenings von verdächtigen und nicht zielgerichteten Stoffen zu bewerten und eine umfangreiche Datenbank organischer Schadstoffe in Innenräumen aufzubauen. 21 Teilnehmer berichteten von Ergebnissen, die von den Organisatoren des Ringversuchs kuratiert wurden. Insgesamt wurden fast 2350 Verbindungen identifiziert (18 %) oder vorläufig identifiziert (25 % bei Konfidenzniveau 2 und 58 % bei Konfidenzniveau 3), was den Ringversuch zu einem Erfolg macht. Allerdings wurde ein relativ geringer Anteil (37 %) aller Verbindungen von mehr als einem Teilnehmer gemeldet, was zeigt, dass im Bereich des Verdachts- und Non-Target-Screenings viel Raum für Verbesserungen besteht. Ein noch geringerer Anteil (5%) der Gesamtzahl der Verbindungen wurde sowohl mit Flüssigchromatographie-Massenspektrometrie (LC-MS) als auch mit Gaschromatographie-Massenspektrometrie (GC-MS) nachgewiesen. Somit sind die beiden MS-Techniken in hohem Maße komplementär. Die meisten Verbindungen wurden unter Verwendung von LC mit Elektrospray-Ionisation (ESI) MS und umfassender 2D-GC (GC × GC) mit chemischer Ionisation bei Atmosphärendruck (APCI) bzw. Elektronenionisation (EI) nachgewiesen. Zusammen machten die drei Techniken mehr als 75 % der berichteten Verbindungen aus. Glykole, Pharmazeutika, Pestizide und verschiedene biogene Verbindungen dominierten unter den von LC-MS-Teilnehmern gemeldeten Verbindungen, während Kohlenwasserstoffe, Kohlenwasserstoffderivate sowie chlorierte Paraffine und chlorierte Biphenyle hauptsächlich von GC-MS-Teilnehmern berichtet wurden. Sowohl von den LC-MS- als auch von den GC-MS-Teilnehmern berichteten Kunststoffadditive, Geschmacks- und Duftstoffe sowie Körperpflegeprodukte. Es wurde der Schluss gezogen, dass für eine umfassende Charakterisierung von Hausstaub-Kontaminanten der Einsatz mehrerer analytischer Techniken erforderlich ist. Darüber hinaus werden mehrere Empfehlungen für ein verbessertes Screening von Hausstaub und anderen Proben aus der Innenraumumgebung auf Verdachtsfälle und Nichtzielgruppen gegeben, einschließlich der Verwendung von Open-Source-Datenverarbeitungstools. Eines der Tools ermöglichte die vorläufige Identifizierung von fast 500 Verbindungen, die von den Teilnehmern nicht gemeldet worden waren.;-;-;-;https://link.springer.com/article/10.1007/s00216-019-01615-6 9b460224cce2ed0cd5adfdef0c0c4ab0;de;;;6.3.;;;Physische forensische Erfassung und Musterentsperrung auf Android-Smartphones Seit der Veröffentlichung des Android-Betriebssystems durch Google im Jahr 2007 hat es sich zu den Top-Smartphone-Verkäufern weltweit entwickelt. Inzwischen hat Android auch viele Sicherheitsmaßnahmen für die Benutzer entwickelt, und die Mustersperre ist eine der beliebtesten Möglichkeiten auf Android-Smartphones. Diese Art von Funktion kann jedoch als Schutzmaßnahme für Kriminelle angesehen werden. Daher besteht die Notwendigkeit der physischen Erfassung und Entsperrung der Mustersperre auf Android-Geräten für die digitale Forensik. Diese Forschung basiert auf dem vom National Institute of Standards and Technology bereitgestellten Prozess der mobilen Forensik, der für die physische Erfassung, das Erstellen von Bildern und das Entsperren von Mustern entwickelt wurde, wenn sich die Android-Smartphones unter der Mustersperre befinden. Die Beweise und Bilder können durch Computer analysiert werden und die Fähigkeit zum Wiederherstellen der gelöschten Daten erhöhen, und das entsperrte Mobiltelefon kann für logische Erfassungen verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-6516-0_96 308f02108dd40c389df5e5718bf67e79;de;;;6.3.;;;Das datengetriebene Festival: Aufzeichnungen und Archivierungspraktiken Filmfestivals wurden aus einer Vielzahl von Perspektiven untersucht, jedoch gibt es eine Lücke in unserem Verständnis darüber, wie Festivals Daten und Aufzeichnungen verwalten, einschließlich ephemerer Online-Materialien. Ein ganzheitliches Verständnis von Filmfestivalaufzeichnungen ist für Historiker und Filmwissenschaftler wichtig, die daran interessiert sind, die Geschichte von Festivals zu dokumentieren und zu bewahren. Dieses Kapitel untersucht Themen und Fragen im Zusammenhang mit den Artefakten von Filmfestivals, bietet eine Taxonomie der archivierbaren Materialien und stellt die Zusammenarbeit des Full Frame Documentary Film Festival und der Duke University als Fallstudie und mögliches Modell vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-17320-3_5 192f90424e30ed26f9e346b898d02a72;de;;;6.3.;;;TDM: Ein Tensor-Datenmodell für logische Datenunabhängigkeit in Polystore-Systemen Dieses Papier stellt ein Tensor-Datenmodell vor, um logische Datenunabhängigkeit in Polystore-Systemen zu erreichen. TDM ist ein ausdrucksstarkes Modell, das verschiedene Datenmodelle unterschiedlicher Datenbestände verknüpfen kann und Datentransformationen vereinfacht, indem es diese durch Operatoren ausdrückt, deren Semantik klar definiert ist. Unser Beitrag ist die Definition eines auf Tensoren basierenden Datenmodells, für das wir die Begriffe typisiertes Schema mit assoziativen Arrays hinzufügen. Wir beschreiben eine Reihe von Operatoren und zeigen, wie die Modellkonstrukte in einer Mediator/Wrapper-ähnlichen Architektur stattfinden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-14177-6_4 54031f89c6ce1d30ed973b19d1fa8590;de;;;6.3.;;;Prävalenz und Korrelate von Partnergewalt gegen Frauen in Konflikten im Norden Ugandas: eine Querschnittsstudie Gewalt in der Partnerschaft (IPV) ist ein wichtiges Thema der öffentlichen Gesundheit, da sie sich negativ auf die Gesundheit, die Wirtschaft und die Entwicklung auswirkt. Im konfliktbetroffenen Norden Ugandas ist die IPV-Prävalenz hoch und es existieren zusätzliche kontextspezifische Risikofaktoren. Menschen, die in dieser Region leben, wurden vertrieben, waren Krieg und Gewalt ausgesetzt und ihre Lebensgrundlage wurde zerstört. Es gibt nur wenige Studien, die IPV in dieser Umgebung untersuchen. In dieser Studie wollen wir die Prävalenz von IPV gegenüber Frauen und ihren Verbänden in von Konflikten betroffenen Norduganda weiter verstehen.;-;-;-;https://link.springer.com/article/10.1186/s13031-019-0219-8 28e9a4ddce7fea46937d1ded0d374192;de;;;6.3.;;;Wie bewertet man Cloud-Service-Verträge? Wie effektiv erfüllen die Verträge von Cloud-Dienstleistern die Bedürfnisse von Aktenverwaltern und Archivaren? Von InterPARES Trust durchgeführte Untersuchungen haben ergeben, dass die Fähigkeit, die Authentizität der Daten und Aufzeichnungen während ihres gesamten Lebenszyklus zu bewahren, in den Vertragsbedingungen nicht immer eindeutig nachgewiesen wird, insbesondere in Bezug auf Aufbewahrung und Verfügung, Eigentum, Standort, Aufbewahrung und Rückgabe von die Daten am Ende des Dienstes. In diesem Beitrag wird der methodische Ansatz der Autoren diskutiert, um die Wirksamkeit von Cloud-Dienstleistungsverträgen aus rechtlicher, archivarischer und informationsverwaltungstechnischer Sicht zu analysieren. Die Untersuchung basiert auf einer qualitativen Inhaltsanalyse ausgewählter Musterverträge, um Lücken oder Schwächen in Bezug auf die Belange von Aktenverwaltern und Archivaren zu identifizieren. Es berücksichtigt Standards und Grundsätze der Aufzeichnungen sowie rechtliche Aspekte wie Datenschutz, Informationsfreiheit, nationale Sicherheit und Dateneigentum. Diese interdisziplinäre Forschung hat zur Ausarbeitung eines a;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-78105-1_22 6e9c9ed3c0ee750736f491588a7fd952;de;;;6.3.;;;Ein immunitätsbasiertes System zur Erkennung von Sicherheitsbedrohungen für digitale virtuelle Assets im Cyberspace Mit einer schnellen Anhäufung von Cyberspace Digital Virtual Assets (CDVA) treten die ernsthaften Sicherheitsrisiken von CDVA seit dem Fehlen von Sicherheitsschutzmethoden für CDVA-Anwendungssysteme auf. Die gegenwärtigen CDVA-Sicherheitssysteme verwenden hauptsächlich die allgemeinen Verfahren zur Erkennung von Netzwerkbedrohungen, befassen sich nicht mit den Besonderheiten von CDVA und sind daher nicht für die Erkennung von CDVA-Sicherheitsbedrohungen geeignet. Dieses Papier stellt ein immunbasiertes Sicherheitsbedrohungserkennungssystem (IBSTDS) für CDVA vor. Das System sammelt den Datenfluss der grundlegenden Infrastruktur aus dem Internet, extrahiert und formalisiert die Merkmale, um Antigene zu bilden. Die Antigene werden nacheinander an die Speicherdetektoren und ausgereiften Detektoren zur Erkennung bekannter und unbekannter Bedrohungen gesendet. Die Immundetektoren werden durch die dynamische Entwicklung des Detektors und den Immun-Feedback-Mechanismus optimiert. Das Experiment beweist, dass das System die Fähigkeit besitzt, Bedrohungen zu erkennen und selbst zu lernen. Im Vergleich zu den aktuellen CDVA-Sicherheitssystemen unterstützt IBSTDS Anpassungsfähigkeit, Selbstorganisation, Robustheit und Selbstlernen und bietet eine gute Lösung, um die Sicherheitsbedrohung digitaler virtueller Assets zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00009-7_54 489c0b0ebecb47db3f10a8fadf17561a;de;;;6.3.;;;Agiles Konzept zur Entwicklung von Data Lake-basierten Systemen Das Kapitel stellt den inkrementellen Ansatz und agile Prinzipien als alternative Methodik für die Entwicklung eines analytischen Systems in einer Light-Data-Lake-Umgebung vor. Die Evaluierung des vorgeschlagenen LDL-Systemaufbauverfahrens erfolgte in einer Fallstudie in einem europäischen Restaurant, das in mehreren europäischen Ländern tätig ist. Die erhaltenen Modelle der in Sprints durchgeführten Datenanalyse sind zuverlässig und der gesamte Ansatz ist sehr effektiv. Darüber hinaus bietet dieser Ansatz Unternehmen eine große Flexibilität, da sie jede Dimension des Systems unabhängig und mit unterschiedlicher Intensität je nach Bedarf und finanziellen Ressourcen entwickeln können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-40417-8_12 e47d8adc2fa4d85044eabe9b0f33679c;de;;;6.3.;;;Erfahrung mit BXGrid: einem Datenspeicher und Rechengitter für die Biometrieforschung Die Forschung im Bereich der Biometrie hängt von der effektiven Verwaltung und Analyse vieler Terabyte digitaler Daten ab. Die Qualität eines experimentellen Ergebnisses hängt oft stark von der schieren Menge der Daten ab, die zu seiner Unterstützung bereitgestellt werden. Der aktuelle Stand der Technik erfordert jedoch, dass Forscher über ein heroisches Maß an Fachwissen in Bezug auf Systemsoftware verfügen, um groß angelegte Experimente durchzuführen. Um dies anzugehen, haben wir BXGrid entworfen und implementiert, ein Datenrepository und eine Workflow-Abstraktion für die Biometrieforschung. Das System besteht aus einer relationalen Datenbank, einem aktiven Speichercluster und einem Campus-Computing-Grid. Endbenutzer interagieren mit dem System über eine Abstraktion auf hoher Ebene in vier Phasen: Auswählen, Transformieren, Alle Paare und Analysieren. Ein hohes Maß an Verfügbarkeit und Zuverlässigkeit wird durch transparentes Failover, dreiphasigen Betrieb und unabhängiges Auditing erreicht. BXGrid wird derzeit von einer aktiven biometrischen Forschungsgruppe an der University of Notre Dame täglich in der Produktion eingesetzt. Wir diskutieren unsere Erfahrungen mit dem Aufbau und der Nutzung des Systems und bieten Erfahrungen aus der gemeinsamen Forschung im Bereich e-Science.;-;-;-;https://link.springer.com/article/10.1007/s10586-009-0098-7 743509c4acf0a06668619ed13935c9d6;de;;;6.3.;;;Polystore- und Tensor-Datenmodell für logische Datenunabhängigkeit und Impedanz-Mismatch bei Big-Data-Analysen Dieses Papier stellt ein Tensor-basiertes Datenmodell (TDM) für Polystore-Systeme vor, das zwei wichtige eng miteinander verbundene Probleme in Big-Data-Analysearchitekturen adressieren soll, nämlich logische Datenunabhängigkeit und Datenimpedanz-Fehlanpassung. Das TDM ist ein ausdrucksstarkes Modell, das traditionelle Datenmodelle subsumiert, es erlaubt, verschiedene Datenmodelle verschiedener Datenbestände zu verknüpfen und auch Datentransformationen durch die Verwendung von Operatoren mit klar definierter Semantik erleichtert. Unser Beitrag ist zweifach. Erstens ist es das Hinzufügen des Begriffs eines Schemas für das mathematische Tensorobjekt unter Verwendung typisierter assoziativer Arrays. Zweitens ist es die Definition einer Reihe von Operatoren, um Daten über das TDM zu manipulieren. Um unseren Ansatz zu validieren, zeigen wir zunächst, wie unser TDM-Modell in eine gegebene Polystore-Architektur eingefügt wird. Anschließend beschreiben wir einige Anwendungsfälle realer Analysen mit unserem TDM und seinen Betreibern im Kontext der französischen Präsidentschaftswahl 2017.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-60531-8_3 bf6f41a31decfbfcab2f490adffa4613;de;;;6.3.;;;Datensätze: Von der Erstellung bis zur Veröffentlichung Dieser Artikel beschreibt eine Fallstudie einer kleinen Forschungsgruppe, die Daten aus zwei langjährigen experimentellen Kampagnen sammelt und verwaltet, wobei die Datenverwaltungs- und Veröffentlichungsprozesse zum Zeitpunkt der Experimente detailliert beschrieben werden. Es zeigt die Gründe auf, warum Veröffentlichungen in der Vergangenheit von ihren zugrunde liegenden Daten getrennt wurden, und identifiziert die neuen Prozesse und Prinzipien, die darauf abzielen, diese Probleme anzugehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08425-1_1 cfbf8b39211e27c04ab58a843b75e872;de;;;6.3.;;;Semantische Vermittlung zur Verbesserung der Reproduzierbarkeit der biomolekularen NMR-Analyse Zwei Hindernisse für die rechnerische Reproduzierbarkeit sind die Möglichkeit, die kritischen Metadaten aufzuzeichnen, die für die erneute Ausführung einer Berechnung erforderlich sind, sowie die Übersetzung der Semantik der Metadaten, sodass alternative Ansätze leicht konfiguriert werden können, um die rechnerische Reproduzierbarkeit zu überprüfen. Wir adressieren dieses Problem im Kontext der biomolekularen NMR-Computeranalyse, indem wir eine Reihe verknüpfter Ontologien entwickeln, die die Semantik der verschiedenen Softwarewerkzeuge definieren, die von Forschern für die Datentransformation und -analyse verwendet werden. Aufbauend auf einer Kernontologie, die die primären Beobachtungsdaten von NMR darstellt, ermöglicht der Linked-Data-Ansatz die Übersetzung von Metadaten, um alternative Softwareansätze für bestimmte Rechenaufgaben zu konfigurieren. In diesem Papier veranschaulichen wir die Nützlichkeit davon anhand eines kleinen Beispiels der Kernontologie sowie der werkzeugspezifischen Semantik für zwei Softwaretools von Drittanbietern. Dieser Ansatz zur semantischen Vermittlung wird dazu beitragen, einen automatisierten Ansatz zur Validierung der Zuverlässigkeit von Berechnungen zu unterstützen, bei dem der gleiche Verarbeitungsworkflow mit verschiedenen Softwaretools implementiert wird. Darüber hinaus wird die detaillierte Semantik sowohl der Daten als auch der Verarbeitungsfunktionalitäten eine Methode zur Klassifizierung von Softwarewerkzeugen liefern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-78105-1_70 3f86ec77094bf282ba51d0652e42766b;de;;;6.3.;;;Prognose von Brustkrebs, diagnostiziert während der Schwangerschaft und früh nach der Geburt nach immunhistochemischem Subtyp: Eine abgestimmte Fall-Kontroll-Studie Schwangerschaftsassoziierter Brustkrebs (PABC) stellt eine klinische Herausforderung dar und seine Prognose bleibt umstritten. Während der Schwangerschaft und nach der Geburt durchläuft die Brust biologische Ereignisse, die das Krankheitsverhalten und das Ansprechen auf die Behandlung in einzigartiger Weise beeinflussen können. Diese Studie zielte darauf ab, zu beurteilen, ob eine PABC-Diagnose das Überleben im Vergleich zu Nicht-PABC beeinflusst.;-;-;-;https://link.springer.com/article/10.1007/s10549-021-06225-4 b777496d26c6f5545b2e12852a8ce90a;de;;;6.3.;;;Prädiktive QSAR-Modellierung: Methoden und Anwendungen in der Wirkstoffforschung und chemischen Risikobewertung Die Modellierung der quantitativen Struktur-Aktivitäts-Beziehung (QSAR) ist der wichtigste Ansatz der Cheminformatik zur Untersuchung und Nutzung der Abhängigkeit biologischer, toxikologischer oder anderer Arten von Aktivitäten oder Eigenschaften chemischer Verbindungen von ihren molekularen Eigenschaften. Die QSAR-Modellierung wird traditionell als Leitoptimierungsansatz in der Wirkstoffforschung verwendet. In den letzten Jahren fand die QSAR-Modellierung jedoch breitere Anwendungen in der Hit- und Lead-Erkennung durch virtuelles Screening sowie im Bereich der Vorhersage von arzneimittelähnlichen Eigenschaften und der chemischen Risikobewertung. Diese Fortschritte wurden durch die verbesserten Protokolle für die Modellentwicklung und vor allem durch die Modellvalidierung ermöglicht, die sich auf die Entwicklung von Modellen mit unabhängig validierter externer Vorhersagekraft konzentriert. Dieses Kapitel gibt einen Überblick über den in diesem Labor entwickelten und praktizierten prädiktiven QSAR-Modellierungsworkflow, der strenge Verfahren für die Entwicklung, Validierung und Anwendung von QSAR-Modellen für das virtuelle Screening umfasst. Wir stellen auch einige Beispiele für die Workflow-Anwendung zur Identifizierung experimentell bestätigter Hit-Verbindungen sowie zur Modellierung der chemischen Toxizität vor. Wir glauben, dass die in diesem Review behandelten Methoden und Anwendungen für Forscher von Interesse und Wert sein werden, die auf dem Gebiet der computergestützten Wirkstoffforschung und der umweltchemischen Risikobewertung arbeiten.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-94-007-6169-8_37-3 5eda4c91d487b543e6466c7e0dc91af7;de;;;6.3.;;;Das UK e-Science Core Program und das Grid e-Science umfasst Computational Science und fügt die neue Dimension des routinemäßigen Teilens von verteilten Computern, Daten, Instrumenten und Fachressourcen hinzu. Dieses Papier beschreibt die britische „e-Science“-Initiative im Wert von 120 Mio. GBP, die sich auf das „Kernprogramm“ konzentriert. Der Großteil der Förderung ist für groß angelegte e-Science-Pilotprojekte in vielen Bereichen der Natur- und Ingenieurwissenschaften vorgesehen. Die bisher angekündigten e-Science-Pilotprojekte werden kurz beschrieben. Diese Projekte umfassen eine Reihe von Disziplinen, von Teilchenphysik und Astronomie bis hin zu Ingenieurwesen und Gesundheitswesen, und veranschaulichen die Breite des britischen e-Science-Programms. Die Anforderungen dieser Projekte und die jüngsten Entwicklungsrichtungen von Open-Source-Middleware haben die Richtung für die Roadmap der Entwicklung innerhalb des Kernprogramms vorgegeben. Die zur Unterstützung von e-Science-Projekten erforderliche Middleware-Infrastruktur muss die routinemäßige gemeinsame Nutzung von Remote-Ressourcen sowie die Unterstützung einer effektiven Zusammenarbeit zwischen Wissenschaftlergruppen ermöglichen. Eine solche Infrastruktur wird allgemein als Grid bezeichnet. Der Fokus des Papers liegt auf dem Core Program, das geschaffen wurde, um die Entwicklung einer robusten und generischen Grid-Middleware in Zusammenarbeit mit der Industrie voranzutreiben. Die Schlüsselelemente des Kernprogramms werden umrissen, einschließlich Details eines britischen e-Science-Grids.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-46043-8_1 4c7bece9bcefdd4d74cf621d81e18062;de;;;6.3.;;;NoSQL Data Lake: Eine Big-Data-Quelle aus Social Media Big Data Analytics hat sich in letzter Zeit aufgrund des Aufkommens von User-Generated-Content-Plattformen zu einem wichtigen Forschungsgebiet entwickelt. In den letzten Jahren haben wir weltweit einen exponentiellen Anstieg der Datenproduktion erlebt. Dieses Phänomen wird als Big Data bezeichnet. Social-Media-Plattformen wie Facebook, Twitter und YouTube sind die beliebteste Quelle für Big Data. Big Data von Social-Networking-Sites kann für alle Unternehmen immens nützlich sein, indem sie wertvolle Einblicke in Verbraucherpräferenzen und sich ändernde Trends liefert. Diese Informationen bieten enorme Chancen für Unternehmen, die Big-Data-Managementlösungen implementiert haben. Aus diesem Grund wird die Speicherung, Verwaltung und Umwandlung von Social-Media-Beiträgen in Wissen für Entscheidungsträger zu einem wichtigen Forschungsproblem. Auf der anderen Seite hat die enorme Datenmenge, die von Benutzern, die Social-Media-Plattformen nutzen, generiert, zur Entstehung und Entwicklung neuer Technologien und Techniken des Datenmanagements geführt. Data Lake ist eine der neuesten Technologien, die in der letzten Zeit eingeführt wurde, um dieser Herausforderung zu begegnen. In diesem Whitepaper stellen wir einen NoSQL-Data-Lake-Designansatz vor. Genauer gesagt beginnen wir mit der Einführung in die wichtigsten Konzepte von Data Lake. Wir diskutieren auch die Vorteile von Data Lakes und deren Auswirkungen auf Big Data Analytics. Anschließend beschreiben wir einige der aktuellen Literaturrecherchen zu Ansätzen für das Data Lake-Design. Schließlich stellen wir mit MongoDB einen NoSQL Data Lake bereit, der es ermöglicht, Big Data zu speichern, die von sozialen Netzwerken wie Facebook, Twitter und Youtube gesammelt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-73050-5_10 5efdd0ecc2aa0e42ea9f554fa0709410;de;;;6.3.;;;Veterinary Biobank Facility: Entwicklung und Management für Diagnose- und Forschungszwecke Biobanking ist ein wesentliches Instrument, um die einfache Verfügbarkeit hochwertiger Biomaterialsammlungen zu gewährleisten, die wesentliche Proben und epidemiologische, klinische und Forschungsdaten für die wissenschaftliche Gemeinschaft kombinieren. Die Probensammlung ist ein wesentlicher Bestandteil der klinischen Forschung. Zwar werden weltweit jedes Jahr Millionen biologischer Proben für Diagnostik und Forschung eingelagert, doch in vielen Bereichen ist der Mangel an biologischem Material und Modellen ein großes Hindernis für die laufende Forschung. Eine Biobank-Anlage stellt geeignete Proben für groß angelegte Screening-Studien und Datenbank-Repositorien bereit. Spezielle Software für biologische Banken vereinfacht die Probenregistrierung und -identifikation, die Katalogisierung von Probeneigenschaften (Art der Probe/Probe, assoziierte Krankheiten und/oder therapeutische Protokolle, Umweltinformationen usw.), Probenverfolgung, Qualitätssicherung und Probenverfügbarkeit, die durch gut gekennzeichnet sind -definierte Funktionen. Biobank-Einrichtungen müssen gute Laborpraktiken (GLPs) und ein strenges Qualitätskontrollsystem anwenden und bei Bedarf auch ethische Aspekte einhalten.;-;-;-;https://link.springer.com/protocol/10.1007/978-1-4939-2004-4_4 062fa7e1d02e91d42c12d5c87064e788;de;;;6.3.;;;Big Data in Bibliotheken Der Begriff Big Data ist etwas locker. Grob definiert bezieht es sich auf alle Daten, die die Fähigkeit des Benutzers überschreiten, sie in einer von drei Dimensionen (den drei Vs) zu analysieren: Volumen, Geschwindigkeit und Vielfalt. Laney [1, 2] Jeder von ihnen hat andere Herausforderungen. Riesige Datenmengen erfordern die Fähigkeit, die Daten effizient zu speichern und abzurufen. Hochgeschwindigkeitsdaten erfordern die Möglichkeit, die Daten bei ihrer Erstellung aufzunehmen, im Wesentlichen sehr schnelle Internetverbindungen. Hochvariable Daten können aufgrund ihrer Unvorhersehbarkeit und ihrer unstrukturierten Natur schwierig zu organisieren und zu verarbeiten sein. Bieraugel [3] Auch können mehrere Datenströme kombiniert werden, um eine Vielzahl von Fragen zu beantworten. Alle Formen von Big Data können für die Analyse Hochleistungscomputer und spezialisierte Software erfordern. Angesichts der Unschärfe bei der Definition von Big Data,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-63917-8_11 15aca4999a6f19d382a1320c144cce59;de;;;6.3.;;;BioDQ: Datenqualitätsschätzung und -management für Genomik-Datenbanken Wir präsentieren BIODQ, ein Modell zur Schätzung und zum Management der Qualität biologischer Daten in Genomik-Repositorien. BIODQ verwendet unser Quality Estimation Model (QEM), das als Teil der Qualitätsmanagementarchitektur (QMA) implementiert wurde. Das QEM besteht aus einer Reihe von Qualitätsdimensionen und deren quantitativen Maßen. Der QMA kombiniert eine Reihe von Softwarekomponenten, die die Integration von QEM mit bestehenden Genomik-Repositorien ermöglichen. Grundlage unserer experimentellen Auswertung ist eine unter Biologen durchgeführte Forschungsstudie. Die Auswertungsergebnisse zeigen, dass die QEM-Dimensionen und -Schätzungen biologisch relevant und nützlich sind, um qualitativ hochwertige von minderwertigen Daten zu unterscheiden. Die wichtigsten Fähigkeiten des QMA werden ebenfalls vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79450-9_44 27b40099a30675c47e687a3a7d8cef62;de;;;6.3.;;;Wissensbasierte Entscheidungsunterstützungssysteme für personalisierte Das Aufkommen der Informations- und Kommunikationstechnologie (IKT) und der steigende Lebensstandard erfordern wissensbasierte Entscheidungsunterstützungssysteme, die jederzeit und überall Dienstleistungen zu geringen Kosten bereitstellen. Diese Dienste helfen Einzelpersonen, die richtigen Entscheidungen in Bezug auf ihren Lebensstil zu treffen (z. B. Ernährungsentscheidungen, Dehnung nach dem Training, Transportmöglichkeiten), was einen erheblichen Einfluss auf ihre zukünftigen gesundheitlichen Auswirkungen haben kann, die zu medizinischen Komplikationen führen und zu einer chronischen Krankheit führen können. Mit anderen Worten, die wissensbasierten Dienste helfen dem Einzelnen, eine persönliche und bewusste Entscheidung für ein Verhalten zu treffen, das das Verletzungs- oder Krankheitsrisiko erhöhen oder verringern kann. Das Hauptziel dieses Kapitels ist die Bereitstellung einer personalisierten ubiquitären Lebensversorgung (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-51905-0_9 7abda3c0d6fc38e8d52852b8548f3fb3;de;;;6.3.;;;Erkundung interdisziplinärer Data Science-Ausbildung für Studenten: Vorläufige Ergebnisse Dieser Artikel berichtet über eine systematische Literaturrecherche zur grundständigen Data Science-Ausbildung, gefolgt von halbstrukturierten Interviews mit zwei Frontier Data Science-Lehrern. Durch die Analyse der gastgebenden Abteilungen, der Gestaltungsprinzipien, der Lehrplanziele und der Lehrplangestaltung bestehender Programme zeigen unsere Ergebnisse, dass (1) der Bereich der Datenwissenschaft von Natur aus interdisziplinär ist und eine gemeinsame Zusammenarbeit zwischen verschiedenen Abteilungen erfordert. Die abteilungsübergreifende Verwaltung war eine der Lösungen, um eine interdisziplinäre Ausbildung anzubieten, aber auch bei der praktischen Umsetzung wurden einige Probleme identifiziert. (2) Die datenwissenschaftliche Ausbildung sollte den Schwerpunkt auf praktische Praxis und erfahrungsorientierte Lernmöglichkeiten legen, um die Studierenden auf Datenanalyse und Problemstellungen vorzubereiten - Lösungen in realen Kontexten und (3) obwohl die Bedeutung einer umfassenden Abdeckung verschiedener Disziplinen in den Lehrplänen der Data Science weithin anerkannt ist, bleibt die Frage, wie ein wirksames Gleichgewicht zwischen verschiedenen Disziplinen erreicht und wie Domänenwissen effektiv in den Lehrplan integriert werden kann, noch offen Offene Fragen. Die Ergebnisse dieser Studie können Erkenntnisse für die Gestaltung und Entwicklung neuer grundständiger Data-Science-Programme liefern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71292-1_43 0a4a634c96c9f68a9f6e4fc36131c822;de;;;6.3.;;;Business Intelligence und Analytics: On-Demand-ETL über Dokumentenspeicher Seit vielen Jahrzehnten wird Business Intelligence and Analytics (BI&A) mit relationalen Datenbanken in Verbindung gebracht. Im Zeitalter von Big Data und NoSQL-Speichern ist es wichtig, Ansätze und Systeme bereitzustellen, die diese Art von Daten für die Entscheidungsfindung analysieren können. In diesem Papier stellen wir einen neuen BI&A-Ansatz vor, der sowohl:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-50316-1_38 51eb92b70a65c2abbf947441df2b68b8;de;;;6.3.;;;Auf dem Weg zu einem vollständigen OWL-Ontologie-Benchmark Mit dem Ziel, einen vollständigen Benchmark zur besseren Bewertung bestehender Ontologiesysteme aufzubauen, erweitern wir den bekannten Lehigh University Benchmark in Bezug auf Inferenz- und Skalierbarkeitstests. Der erweiterte Benchmark namens University Ontology Benchmark (UOBM) umfasst sowohl OWL Lite- als auch OWL DL-Ontologien, die einen vollständigen Satz von OWL Lite- bzw. DL-Konstrukten abdecken. Wir fügen auch notwendige Eigenschaften hinzu, um effektive Instanzverknüpfungen zu erstellen und verbessern die Methoden zur Instanzgenerierung, um die Skalierbarkeitstests überzeugender zu machen. Auf dem erweiterten Benchmark werden mehrere bekannte Ontologiesysteme evaluiert und detaillierte Diskussionen sowohl zu bestehenden Ontologiesystemen als auch zu zukünftigen Benchmarkentwicklungen vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/11762256_12 0065a23b3862994b174bca9e29de8668;de;;;6.3.;;;Verwendung von Random Forests zur Unterstützung bei der Kuratierung von G-Protein-gekoppelten Rezeptordatenbanken Die Biologie erlebt einen allmählichen, aber schnellen Wandel von einer laborzentrierten Wissenschaft zu einer datenzentrierten. Als solches erfordert es ein robustes Data Engineering und den Einsatz quantitativer Datenanalysemethoden als Teil der Datenbankkuration. Dieser Artikel konzentriert sich auf G-Protein-gekoppelte Rezeptoren, eine große und heterogene Superfamilie von Zellmembranproteinen, die für die Biologie im Allgemeinen von Interesse sind. Eine ihrer Familien, Klasse C, ist von besonderem Interesse für die Pharmakologie und das Arzneimitteldesign. Diese Familie ist für sich genommen recht heterogen, und die Diskriminierung ihrer verschiedenen Unterfamilien ist ein schwieriges Problem. In Ermangelung einer bekannten Kristallstruktur muss sich eine solche Unterscheidung auf ihre primären Aminosäuresequenzen stützen.;-;-;-;https://link.springer.com/article/10.1186/s12938-017-0357-4 224b2f145ade50af02a11ec168f34314;de;;;6.3.;;;Das Hightech-Gesicht der E-Health Dieses Kapitel konzentriert sich auf die aktuelle und potenzielle Nutzung von e-Infrastrukturen im Bereich eHealth. Es beginnt mit der Identifizierung einer kleinen Anzahl spezifischer Anwendungsfälle und befasst sich dann mit der Frage, wie diese durch den Einsatz modernster Distributing Computing Infrastructures (DCIs) optimiert oder möglicherweise revolutioniert werden können. Spezifische Themen, die adressiert werden, sind die „langfristige“ Datenerhaltung (für die Dauer des Patientenlebens sowie (weit) darüber hinaus für kollektivorientierte Studien), die Föderierung heterogener Datenquellen, die Bereitstellung einer redundanten und hochverfügbaren Datenhaltung und föderiertes Identitätsmanagement. Die Arbeit stützt sich stark auf die Erfahrung des Autors mit verteilten Computerinfrastrukturen, um die Herausforderungen des Large Hadron Collider am CERN zusammen mit der Teilnahme an generischen e-Infrastrukturprojekten wie den EGEE-Projektdiensten und EGI anzugehen. Es profitiert auch von der Erfahrung in Hadronentherapie-orientierten Projekten, mit denen das CERN sowohl als Beschleunigerlabor als auch als Pionier bei DCIs Synergien hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-88-470-5253-6_9 08f5433c608b325c8357b6b5cd31979e;de;;;6.3.;;;Ein Arbeitsablauf zur Vorhersage der Auswirkungen von Restsubstitution auf die Proteinstabilität Die Auswirkungen der Restsubstitution in Proteinen können dramatisch sein, und die Vorhersage ihrer Auswirkungen kann Wissenschaftlern sehr zugute kommen. Wie in vielen wissenschaftlichen Bereichen stehen verschiedene Methoden und Werkzeuge zur Verfügung, um die möglichen Auswirkungen einer Mutation auf die Struktur eines Proteins zu untersuchen. Die Identifizierung dieser Methoden, ihre Verfügbarkeit, die Zeit, die benötigt wird, um sich mit ihnen und ihrer Schnittstelle vertraut zu machen, und die Schwierigkeit, ihre Ergebnisse in eine globale Sicht zu integrieren, in der alle Standpunkte visualisiert werden können, schränken ihre Verwendung oft ein. In diesem Whitepaper stellen wir den Structural Prediction for pRotein folding UTility System (SPROUTS)-Workflow vor und beschreiben unsere Methode zum Entwerfen, Dokumentieren und Verwalten des Workflows. Im Mittelpunkt des Arbeitsablaufs steht der thermodynamische Stabilitätsbeitrag, der für kleine Proteine ​​als akzeptabel angesehen werden kann. Es stellt die Vorhersagen aus verschiedenen Quellen zusammen, die den ΔΔG bei Punktmutation berechnen, zusammen mit einem Konsens von acht verschiedenen Algorithmen, mit einer Vorhersage der mittleren Anzahl von interagierenden Resten während des Faltungsprozesses und einer Subdomänen-Strukturanalyse in Fragmente, die möglicherweise als autonome Faltungseinheiten betrachtet werden, dh mit ähnlichen Konformationen allein und im Proteinkörper. Der Workflow ist implementiert und online verfügbar. Wir veranschaulichen seine Verwendung mit der Analyse der engrailed Homeodomäne (PDB-Code 1enh).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39159-0_23 a90db7381dc7a294fb98390a904d4905;de;;;6.3.;;;Linked Data und Ontologie-Referenzmodell für Meldesysteme für Infektionskrankheiten Linked Data und Ontologien sind in vielen Bereichen bereits weit verbreitet. Insbesondere auf medizinischen Daten basierende Systeme können durch die semantische Erweiterung ihrer Inhalte und Metamodelle mit Ontologien im Rückgrat wertvoll verbessert werden. Diese semantische Erweiterung bringt einen Mehrwert für Standardsysteme und ermöglicht ein insgesamt besseres Datenmanagement und eine intelligentere Datenverarbeitung. In unserer Arbeit konzentrieren wir uns auf ein solches Standardsystem, das wir semantisch erweitern, indem wir seine klassischen relationalen Modelle zusammen mit seinen Daten in ein semantisches Modell überführen. Dieses Informationssystem verarbeitet und analysiert Daten zu Infektionsmeldungen in Deutschland. Daten aus Meldungen zu Infektionskrankheiten enthalten nicht nur spezifische Teile mikrobiologischer und medizinischer Informationen, sondern auch eine Kombination verschiedener Aspekte des Kontextwissens, die benötigt werden, um Maßnahmen zu ergreifen, um eine weitere Verbreitung zu verhindern und weitere Übertragungen zu reduzieren. In diesem Papier beschreiben wir unseren praktischen Ansatz zur Übertragung der relationalen Datenmodelle in Ontologien, um einen verbesserten Datenstandard für das aktuell verwendete System zu etablieren. Darüber hinaus schlagen wir ein semantisches Referenzmodell vor, das auf verschiedenen Kontexten basiert und die Anforderungen an semantifizierte Daten aus Berichten über Infektionskrankheiten abdeckt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-69459-7_8 1a3ec74a9b1d7b38565524949b1f372c;de;;;6.3.;;;Phyloinformatik: Auf dem Weg zu einer phylogenetischen Datenbank Ein Großteil des Interesses am „Baum des Lebens“ wird durch die Vorstellung motiviert, dass wir biologische Informationen viel sinnvoller nutzen können, wenn wir die Informationen in einem phylogenetischen Rahmen abfragen. Das Zusammensetzen des Lebensbaums wirft zahlreiche Rechen- und Datenverwaltungsprobleme auf. Biologen erzeugen eine große Anzahl von Evolutionsbäumen (Phylogenien). Im Gegensatz zu Sequenzdaten werden nur sehr wenige Phylogenien (und die Daten, aus denen sie abgeleitet wurden) in öffentlich zugänglichen Datenbanken gespeichert. Ein Grund dafür ist die Notwendigkeit, neue Methoden zum Speichern, Abfragen und Visualisieren von Bäumen zu entwickeln. Dieses Kapitel untersucht einige dieser Fragen und diskutiert einige Prototypen, um festzustellen, wie weit die Phylogenetik ihrem Ziel einer phylogenetischen Datenbank näher ist.;-;-;-;https://link.springer.com/chapter/10.1007/1-84628-059-1_10 48bef057b7595754ddadd04766ae435f;de;;;6.3.;;;Eine semantische Big-Data-Plattform zur Integration heterogener tragbarer Daten in das Gesundheitswesen Fortschritte, die durch aufkommende tragbare Technologien im Gesundheitswesen unterstützt werden, versprechen Patienten eine hohe Versorgungsqualität. Wearable Computing-Systeme stellen einen der stärksten Bereiche dar, um traditionelle Gesundheitssysteme in aktive Systeme zu verwandeln, die in der Lage sind, die Gesundheit der Patienten kontinuierlich zu überwachen und zu kontrollieren, um ihre Versorgung in einem frühen Stadium zu verwalten. Ihre Verbreitung stellt jedoch Herausforderungen in Bezug auf das Datenmanagement und die Integration. Die Vielfalt und Vielfalt tragbarer Daten im Gesundheitswesen, ihr riesiges Volumen und ihre Verbreitung erschweren die Datenverarbeitung und -analyse. In diesem Papier schlagen wir eine generische semantische Big-Data-Architektur vor, die auf dem „Knowledge as a Service“-Ansatz basiert, um Heterogenitäts- und Skalierbarkeitsherausforderungen zu bewältigen. Unser Hauptbeitrag konzentriert sich auf die Anreicherung des NIST Big Data-Modells mit Semantik, um die gesammelten Daten intelligent zu verstehen und genauere und wertvollere Informationen zu generieren, indem verstreute medizinische Daten, die von mehreren tragbaren Geräten oder/und anderen verteilten Datenquellen stammen, korreliert werden. Wir haben implementiert und evaluiert a;-;-;-;https://link.springer.com/article/10.1007/s10916-015-0344-x a8cf3cd9f5f6478fd78629b3f000bcd8;de;;;6.3.;;;Präzise mikrobielle Genom-Annotation mit einer integrierten und benutzerfreundlichen Umgebung für Community-Know-how zu Genfunktionen: Die MicroScope-Plattform Die überwältigende Liste neuer Bakteriengenome, die täglich verfügbar werden, macht eine genaue Genom-Annotation zu einem wesentlichen Schritt, der letztendlich die Relevanz der Tausenden von Genomen bestimmt, die in öffentlichen Datenbanken gespeichert sind. Die Referenzdatenbanken und Berechnungsmethoden, die die Grundlage automatischer Genom-Annotation-Pipelines bilden, entwickeln sich ständig weiter: Zum einen kann die Annotation einzelner Genome nun durch die simultane Analyse mehrerer Genome in einem vergleichenden Kontext erfolgen, zum anderen wurde der Fokus der Genom-Annotation erweitert auf die Rekonstruktion von Stoffwechselnetzwerken auf Genomskala, die einen umfassenderen Überblick über die funktionellen Fähigkeiten des untersuchten Organismus ermöglichen. Ausgehend von den Ergebnissen struktureller, funktionaler und relationaler Annotationspipelines bietet MicroScope eine integrierte Umgebung für die Annotation und vergleichende Analyse prokaryontischer Genome durch die Kombination von Werkzeugen und grafischen Schnittstellen für die Genomanalyse und die manuelle Kuratierung von Genannotationen in einem vergleichenden Genomik-Kontext. In diesem Kapitel diskutieren wir die verschiedenen Stadien der Annotation mit der MicroScope-Plattform und veranschaulichen anhand von Beispielen von Abbauwegen in Bakterienarten einige der Funktionen, die zur Verbesserung der Qualität automatischer Genom-Annotationen nützlich sind. Somit zeigen wir, dass integrierte Umgebungen wie MicroScope mit Hilfe der Benutzergemeinschaft eindeutig dazu beitragen, akkurate Ressourcen zu verwalten.;-;-;-;https://link.springer.com/protocol/10.1007/8623_2015_179 e8e608b8d6b151286360b36ace407bbe;de;;;6.3.;;;Die Beziehung zwischen Sicherheit, Vorratsdatenspeicherung und Menschenrechten neu definieren Unter dem Druck, die Sicherheit der Bürger nach dem 11. September und den Bombenanschlägen von Madrid und London zu gewährleisten, haben die EU und die Mitgliedstaaten eine Vielzahl von Gesetzen durchgesetzt, die die Strafverfolgungsbehörden ermächtigen, manchmal mit hohen Kosten für die Grundrechte der Bürger. Die Kommission ist derzeit dabei, einige dieser Gesetze zu bewerten und zu überprüfen, darunter die Richtlinie zur Vorratsdatenspeicherung. In diesem Papier wird argumentiert, dass es angesichts der praktischen Erfahrungen mit der Richtlinie und der Durchführungsgesetze sowie der rechtlichen und politischen Veränderungen, die in den letzten sechs Jahren seit ihrem Inkrafttreten stattgefunden haben, an der Zeit ist, das Verhältnis zwischen Sicherheitsbedürfnissen und Grundrechten in Bezug auf Vorratsdatenspeicherung. Das Papier argumentiert zwar für diese Neudefinition, reflektiert aber auch die Chancen, dass dieser Prozess der Neudefinition tatsächlich zustande kommt: Meinungsverschiedenheiten zwischen den EU-Institutionen können bestenfalls zu einem weiteren Fall von opportunistischem Pragmatismus führen oder schlimmstenfalls zu keiner Reform führen .;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-7879-9_4 7639dbd4b249c70fd2f7b4716775dcd2;de;;;6.3.;;;"Eine semantische Grundlage für Provenienzmanagement Provenienz ist ein Begriff, der verwendet wird, um die Abstammung, Geschichte oder Herkunft eines Objekts zu beschreiben. Ursprünglich aus der Kunstwelt stammend, gewinnt sie im Kontext digitaler Objekte im World Wide Web zunehmend an Bedeutung. Groß angelegte wissenschaftliche Kollaborationen und Social-Media-Plattformen im Web haben die Produktion und den Austausch einer Vielzahl digitaler Objekte im Web ermöglicht. Mit der Verbreitung und Weitergabe solcher Objekte, die Dokumente, Bilder, Videos und mehr umfassen, stellen sich Fragen wie „Woher kommt dieses Objekt?“, „Wer verwendet dieses Objekt noch?“ und ""zu welchem ​​Zweck wurde es erzeugt?"" werden immer häufiger. Damit digitale Objekte aus unterschiedlichen Quellen vertrauenswürdig und angemessen genutzt werden können, ist es zwingend erforderlich, die Provenienz der digitalen Objekte zu verfolgen, zu erfassen und den Nutzern zur Verfügung zu stellen. In dieser Arbeit versuchen wir, eine Grundlage für das Verständnis der Provenienz zu schaffen, die Semantik der Provenienz klar zu definieren, Provenienz von „Gebrauch oder Anwendung“ der Provenienz zu unterscheiden, einen Mechanismus für das Provenienzmanagement vorzuschlagen und wichtige Richtungen für die Forschung im Provenienzmanagement zu geben.";-;-;-;https://link.springer.com/article/10.1007/s13740-012-0002-0 06ac3f9508805822233d70ca47dcd784;de;;;6.3.;;;Herausforderungen in der wertorientierten Data Governance Daten werden im Volksmund als das neue Öl angesehen, da sie zu einem wertvollen Gut geworden sind. Dies hat dazu geführt, dass viele Unternehmen und Unternehmen Daten horten, um sie zu nutzen. Die „einfache“ Nutzung von Daten führt jedoch dazu, dass Unternehmen nicht den größten Nutzen aus den Daten ziehen, die noch nicht als vollwertiges Unternehmensvermögen gelten. Solche Daten können in duplizierter, fragmentierter und isolierter Form vorliegen, und die schiere Menge an verfügbaren Daten verkompliziert die Situation zusätzlich. Themen wie letzteres verdeutlichen die Notwendigkeit einer wertorientierten Data Governance, bei der die Verwaltung von Datenbeständen auf der Quantifizierung des Datenwertes basiert. Dieses Papier hat den Zweck, ein Bewusstsein und ein besseres Verständnis für Herausforderungen zu schaffen, die zu ungenutztem Datenwert führen. Wir identifizieren Nischen in verwandten Bereichen und analysieren aufgrund unserer Erfahrung mit Unternehmen, die Datenbestände verwenden, hier vier kontextunabhängige Hauptherausforderungen, die Unternehmen daran hindern, den vollen Nutzen aus der Nutzung ihrer Daten zu ziehen. Dies wird zur Weiterentwicklung des Bereichs der wertorientierten Data Governance beitragen und sich daher direkt auf die Nutzung von Datenbeständen auswirken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-02671-4_33 506030111cd1385584c641d4287c935d;de;;;6.3.;;;Die Belastung durch Bluttumormutationen kann das klinische Ansprechen auf Immun-Checkpoint-Inhibitoren bei Patienten mit fortgeschrittenem nicht-kleinzelligem Lungenkrebs vorhersagen Die durch Whole-Exom-Sequenzierung (WES) bewertete Gewebetumormutationslast (tTMB), die als Goldstandardmethode für die tTMB-Messung gilt, kann den klinischen Nutzen von Immun-Checkpoint-Inhibitoren (ICIs) vorhersagen. Mehrere Studien haben die Durchführbarkeit der Verwendung großer Panels zur Bewertung von TMB untersucht, haben jedoch widersprüchliche Ergebnisse erzielt. Ob Blut-TMB (bTMB) auch ein prädiktiver Biomarker bei NSCLC sein kann, ist nicht geklärt.;-;-;-;https://link.springer.com/article/10.1007/s00262-021-02943-2 8baf410fa1888d184a8b2afe0d716cdc;de;;;6.3.;;;Gaschromatographie gekoppelt an Massenspektrometrie (GC-MS) zur Untersuchung des Stoffwechsels in kultivierten Zellen Krebszellen weisen charakteristische Stoffwechselverhaltensmuster auf, die für therapeutische Zwecke genutzt werden können. Es ist bekannt, dass Zustände in der Tumormikroumgebung, wie Hypoxie und selektive Nährstoffverfügbarkeit, den Stoffwechsel von Krebs- und Stromazellen beeinflussen. Das Verständnis des Krebsstoffwechsels erfordert den Einsatz analytischer Methoden, die den gleichzeitigen Nachweis und die Quantifizierung vieler Metaboliten ermöglichen. Gaschromatographie-Massenspektrometrie (GC-MS) ist eine vielseitige Methode zur Quantifizierung der Metabolitenhäufigkeit und kann in Kombination mit stabilen isotopenmarkierten Verbindungen wichtige Einblicke in die Aktivität von Stoffwechselwegen in Krebszellen liefern. Dieses Kapitel bietet einen Überblick über die Verwendung von GC-MS für die metabolische Analyse von adhärenten Krebszellen mit Schwerpunkt auf dem technischen Hintergrund, der bei der Konzeption und Durchführung von GC-MS-basierten Metabolomics-Experimenten berücksichtigt werden sollte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-26666-4_5 533ac0597ccf6795f1f0ef714ab44260;de;;;6.3.;;;Anonymisierung spanischer medizinischer Texte - Anerkennung von benannten Entitäten, die auf radiologische Berichte angewendet werden Medizinische Texte wie Radiologieberichte oder elektronische Patientenakten sind eine leistungsstarke Datenquelle für Forscher. Es müssen Anonymisierungsmethoden entwickelt werden, um Dokumente mit personenbezogenen Daten sowohl von Patienten als auch von medizinischem Personal zu anonymisieren. Zwar gibt es derzeit mehrere Anonymisierungsstrategien für die englische Sprache, diese sind jedoch auch sprachabhängig. Hier stellen wir eine Strategie zur Erkennung benannter Entitäten für spanische medizinische Texte vor, die in andere Sprachen übersetzbar ist.;-;-;-;https://link.springer.com/article/10.1186/s13326-021-00236-2 a8971b04700ad411eefc701b36231f06;de;;;6.3.;;;Ein Adaboost-modifizierter Klassifikator mit Partikelschwarmoptimierung und stochastischer Diffusionssuche in drahtlosen IoT-Netzwerken Das Hauptziel des Internet of Things (IoT) ist die Verbindung mit verschiedenen Objekten über das Internet ohne menschliches Zutun. Wireless Sensor Networks (WSNs), bei denen es um Ubiquitous Computing geht, durch die kleine Sensoren mit dem Internet verbunden sind und zum Sammeln von Daten verwendet werden. Ein Großteil der im Internet fließenden Informationen besteht aus sensorischen Daten. Um die Speicherprobleme der riesigen Datenmengen zu lösen, die durch das IoT generiert werden, wird das Hadoop Distributed File System verwendet, das Daten nach Bedarf an Benutzeranwendungen streamt. Die Analyse riesiger Datenmengen (Big Data) ist mit bestehenden Datenverarbeitungsmethoden schwierig zu bewerkstelligen. Um redundante und irrelevante Daten zu vermeiden, müssen die Daten klassifiziert werden. Diese Arbeit präsentiert die Verwendung von Support Vector Machine und Adaboost-Klassifikatoren sowie die Modifizierung von Adaboost-Klassifikatoren mit genetischem Algorithmus (GA), stochastischer Diffusionssuche (SDS) und Particle Swarm Optimization (PSO). Um redundante Klassifikatoren zu vermeiden, wird in dieser Arbeit ein Ensemble-Algorithmus vorgeschlagen, PSO mit Adaboost-Klassifikator und SDS-GA mit Adaboost-Klassifikator, der Attribute reinitialisieren kann, wodurch das Erreichen des lokalen Optimums vermieden und die Koeffizienten von Adaboost-Schwachklassifikatoren optimiert werden können. Die vorgeschlagenen Algorithmen klassifizieren effektiv die von WSN- und IoT-Anwendungen gesammelten Daten. Die Ergebnisse des Experiments zeigten, dass der vorgeschlagene SDS-GA-Algorithmus in Bezug auf Genauigkeit, Präzision, Erinnerung, f-Messung und Rate falscher Entdeckungen gegenüber anderen Algorithmen effizient ist.;-;-;-;https://link.springer.com/article/10.1007/s11276-020-02504-y e39f615d79a1ea1ef3a59a841aedbcee;de;;;6.3.;;;Eine Integrations- und Analysepipeline für die Systembiologie im Pflanzenstoffwechsel Um das Verständnis komplexer biologischer Prozesse in Kulturpflanzen (z. B. zur Verbesserung von Wachstum oder Ertrag) voranzutreiben, ist es von großem Interesse, detaillierte Stoffwechselmodelle zu rekonstruieren und zu analysieren. Aus diesem Grund haben wir eine Pipeline aufgebaut, die Softwaretools für (1) Speicherung von Stoffwechselwegdaten und Rekonstruktion von Stoffwechselmodellen von Nutzpflanzen, (2) Simulation und Analyse stöchiometrischer und kinetischer Modelle und (3) Visualisierung der mit diesen Modellen generierten Daten kombiniert. Die Anwendbarkeit des Ansatzes wird anhand einer Fallstudie zum Getreidesaatgutstoffwechsel demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02879-3_16 d1d942c3df16ab5b205428a86ee719e7;de;;;6.3.;;;Ein einfaches, webbasiertes Repository für die Verwaltung, den Zugriff und die Analyse von mikrografischen Bildern Die Mikroskopie schreitet in rasantem Tempo voran und ermöglicht schnelle, hochauflösende Analysen in einer Vielzahl von zellulären Kontexten. Die Fähigkeit, mit konfokaler Mikroskopie schnell hochauflösende Bilder von mehreren optischen Schnitten über mehrere Kanäle aufzunehmen, hat es Forschern beispielsweise ermöglicht, durch Techniken wie dreidimensionales Rendering ein tieferes Verständnis der Gewebemorphologie zu erlangen, ebenso wie neuere Fortschritte wie Gitterlicht Blattmikroskopie und hochauflösende strukturierte Beleuchtungsmikroskopie. Damit verbunden ist jedoch die Herausforderung, Daten zu speichern, zu kuratieren, zu analysieren und zu teilen. Obwohl dies bereits früher versucht wurde, haben nur wenige Ansätze ein zentrales Repository bereitgestellt, in das all diese verschiedenen Aspekte der Mikroskopie nahtlos integriert werden können. Hier beschreiben wir eine webbasierte Speicher- und Analyseplattform namens Microndata, die eine relativ einfache Speicherung, Annotation, Verfolgung, Analyse und Mehrbenutzerzugriff auf Mikrobilder ermöglicht. Dieses benutzerfreundliche Tool vereinfacht und harmonisiert die Arbeitsabläufe im Labor und bietet vor allem einen zentralen Speicherort, auf den selbst dann zugegriffen werden kann, wenn der für die Aufnahme der Bilder verantwortliche Forscher das Labor verlassen hat. Microndata ist Open-Source-Software, erhältlich unter;-;-;-;https://link.springer.com/article/10.1007/s10735-019-09850-y ffbca1b1c51a3a1741595e9c5f8c658b;de;;;6.3.;;;Prognostische Bewertung des kumulativen intrakraniellen Tumorvolumens: ein neuer Vorhersage-Score-Index für Patienten mit Hirnmetastasen, die durch stereotaktische Radiochirurgie behandelt werden radio Hirnmetastasen (BM) stellen die häufigste intrakranielle Malignität bei Erwachsenen dar. Einschränkungen existierender Prognosemodelle reduzieren ihre Vorhersagekraft und klinische Anwendbarkeit. Das Ziel dieser Studie ist die Validierung des kumulativen intrakraniellen Tumorvolumen-Prognose-Assessments (CITVPA) als neues prognostisches Score-System für Patienten mit BM, die mit stereotaktischer Radiochirurgie (SRS) behandelt werden. Zwischen Januar 2001 und Dezember 2015 wurden 1894 Patienten mit Gamma Knife SRS behandelt. Das CITVPA-Modell wurde wie folgt implementiert und validiert: Die CITV-Grenzwerte wurden dank einer Receiver-Operating-Characteristic-(ROC)-Kurvenanalyse identifiziert, die prädiktiven Überlebensfaktoren wurden durch ein Cox-Proportional-Hazard-Modell ausgewählt, seine prognostische Aussagekraft wurde mit RPA verglichen , SIR und GPA durch den Harrel-Konkordanzindex (HCI). Gemäß der ROC-Kurvenanalyse wurden die CITV-Cut-off-Werte auf 1,5 und 4,0 cc festgelegt. Basierend auf der multivariaten Analyse umfasste das CITVPA-Modell: Alter (OR 1.010, 95% CI 1.005–1.015,;-;-;-;https://link.springer.com/article/10.1007/s10585-020-10037-z 2a7e096309db82b93e1e3364322432fa;de;;;6.3.;;;ADVANCE integrierte Gruppenintervention, um sowohl den Drogenkonsum als auch den Missbrauch von Intimpartnern durch Männer in der Drogentherapie anzugehen: eine randomisierte kontrollierte Machbarkeitsstudie Drogenkonsum ist ein Risikofaktor für den Missbrauch von Intimpartnern (IPA). Die Durchführung von Täterinterventionen gleichzeitig mit der Behandlung des Substanzgebrauchs ist vielversprechend.;-;-;-;https://link.springer.com/article/10.1186/s12889-021-11012-3 a26cd03e9fa52e1333b0ec637ab770ce;de;;;6.3.;;;Die Verwendung des E-Portfolios für das Lernen außerhalb des Klassenzimmers In diesem Kapitel wird eine Fallstudie zur Verwendung von E-Portfolios für das Lernen in einem externen Klassenzimmer an einer Universität in Hongkong vorgestellt. Es umfasste zwei Studenten, die Mitglieder einer generationenübergreifenden Lerngemeinschaft waren, in der sie sich mit Problemen und Problemen befassten und gemeinsam daran arbeiteten, Veränderungen und Verbesserungen in der Gemeinschaft herbeizuführen. Gemeinsam mit dem Koordinator dieser Community und unter Verwendung von Weebly haben die Studierenden ein E-Portfolio aufgebaut, das eine Plattform für Dokumentation, Reflexion und Zusammenarbeit bietet. Interviews mit den Teilnehmern hoben den Beitrag des E-Portfolios zum Lernen der Schüler und zur Entwicklung von Kommunikations-, Teamarbeits- und Kreativitätsfähigkeiten hervor. Rahmen und Kontext des Portfolios wurden als förderlich für die metakognitive Reflexion und das affektive Lernen angesehen, während die Nutzung einer kostenlosen und benutzerfreundlichen Plattform nicht nur geschätzt wurde, sondern den Prozess auch effizienter machte.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-3803-7_8 98b3e092a87726691640e8105c649e1a;de;;;6.3.;;;Braucht eScience digitale Bibliotheken? eScience hat sich als wichtiger Rahmen für ein dramatisches Umdenken in der Durchführung wissenschaftlicher Forschung mit Informationstechnologie herausgebildet. Für die internationalen eScience- und digitalen Bibliotheksgemeinschaften bietet sich eine beispiellose Gelegenheit, eine gemeinsame Infrastruktur zu schaffen, um die Durchführung der Wissenschaft von Anfang bis Ende zu unterstützen, dh von der Hypothesengenerierung über die Sammlung und Analyse wissenschaftlicher Daten bis hin zur Berichterstattung über Forschungsergebnisse, und die Einbeziehung wissenschaftlicher Daten und Modelle in Lehr- und Lernprozesse. Damit diese Vision verwirklicht werden kann, müssen die beiden Gemeinschaften eine gemeinsame Vision und Forschungsagenda festlegen, die mehrere kritische Dimensionen umfasst, einschließlich unterschiedlicher theoretischer und methodischer Ansätze und Kooperationsziele. Damit die Vorteile von eScience und digitalen Bibliotheken voll ausgeschöpft werden können, ist es außerdem wichtig, eine gemeinsame Vision der breiteren Wirkung dieser Arbeit für Lehrende, Lernende und die breite Öffentlichkeit zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/11551362_42 e48daa91b87e595f28b9e26119b5f575;de;;;6.3.;;;Benutzerzentrierte schnelle Anwendungsentwicklung Dieses Papier beschreibt unsere Erfahrungen mit der Modifikation der Rapid Application Development Methodik für die schnelle Systementwicklung, um ein Datenerfassungssystem für mobile Außendienstmitarbeiter zu entwickeln, die Handheld-Computer unter rauen Umgebungsbedingungen verwenden. In unseren Entwicklungsprozess haben wir User-Centered Design als explizite Stufe in die Softwareentwicklungsmethodik Rapid Application Development (RAD) integriert. Wir beschreiben unseren Designprozess im Detail und präsentieren eine Fallstudie zu seiner Anwendung bei der Entwicklung eines funktionierenden Systems. Schließlich verwenden wir das Design des funktionierenden Systems, um einige der gewonnenen Erkenntnisse aufzuzeigen und Richtlinien für das Design von Softwaresystemen für die mobile Datenerfassung bereitzustellen. Bei der Verfolgung dieses Projekts haben wir mit Feldökologen zusammengearbeitet, die die Entwicklung von Küstenfeuchtgebieten in der San Francisco Bay Area beobachteten. Das übergeordnete Ziel des Ökologieprojekts war es, genaue Informationen über die Auswirkungen der Entwicklung auf diese Feuchtgebiete bereitzustellen. Während die Architektur unseres Systems auf die spezifischen Bedürfnisse der Ökologen, mit denen wir zusammengearbeitet haben, abgestimmt ist, sind der Designprozess und die Erkenntnisse, die wir während des Designs gelernt haben, für andere Softwareingenieure von Interesse, die für ähnliche Arbeitspraktiken entwerfen.;-;-;-;https://link.springer.com/chapter/10.1007/11751113_4 86468165c396bac952d62f7f64ef1a7b;de;;;6.3.;;;Ein einheitliches Evidenzprozessmodell für die forensische Analyse von Big Data Heutzutage bestehen Angriffe wie Advanced Persistent Threat (APT) in der Regel aus mehreren Angriffsschritten und tarnen sich als normales Verhalten, was die Erkennung erschwert und die Genauigkeit der Erkennungsergebnisse verringert. APT-Angriffe, die auf forensische Analysen abzielen, standen heute vor vielen Herausforderungen, insbesondere aufgrund der großen Datenmenge, die damit verbunden ist. Obwohl das Diagrammmodell die kausalen Beziehungen zwischen den Schritten in einem Angriffsfortschritt beschreiben kann, kann es aufgrund der Unsicherheit der Erkennungsergebnisse für jeden Schritt nicht genau auf die Absicht des Angreifers schließen. Dieses Papier schlägt ein einheitliches Evidenzprozessmodell für die forensische Big-Data-Analyse vor, mit dem der Angreifer identifiziert, der Angriffsprozess abgeleitet und das Angriffsszenario rekonstruiert werden kann. Unser vorgeschlagenes Modell umfasst insbesondere: (1) Beweiserhebung. Sammeln Sie alle nützlichen Informationen durch eine große Menge an Warnungen, Protokollen und Verkehrsnachweisen. (2) Beweisnormalisierung. Normalisieren Sie Daten für verschiedene Arten von Beweisinformationen. (3) Beweissicherung. Gehen Sie der Nachfrage nach zentralisierten Systemen nach, alle Informationen zu speichern, damit Benutzer die Informationen bei Bedarf abrufen können. (4) Beweisanalyse. Die geladenen relevanten Ressourcen werden analysiert, um das passierte Verbrechen zu verstehen und digitale Beweise zu sammeln, indem die Zeitleiste rekonstruiert, Fakten ermittelt und Verdächtige identifiziert werden. (5) Datenpräsentation und Visualisierung. Dabei geht es im Allgemeinen darum, die Ergebnisse des Ermittlungsverfahrens dem Gericht vorzulegen. Unsere vorgeschlagene Methode kann in der forensischen Analyse von Big Data verwendet werden und kann die Effizienz und Genauigkeit der forensischen Argumentation erheblich verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1328-8_82 216737248611a7ff94d7d9c5e7cdfc0c;de;;;6.3.;;;Das Mykologie-Sammlungsportal (MyCoPortal) Das Mycology Collections Portal (MyCoPortal) wurde 2011 gegründet, um Institutionen weltweit eine einfache und kostengünstige Lösung zur Online-Pflege und -Bereitstellung ihrer Pilzsammlungsdaten zu bieten. Obwohl das MyCoPortal in erster Linie als Webportal für Sammlungen zum Hochladen ihrer Probenmetadaten und Bilder fungiert, bietet es auch Datenpaketierung (z. B. Checklisten), Visualisierung (Kartierung und Zeitleisten), Lehrmaterial (Identifikationsschlüssel, Quiz) und einfachen Zugriff auf DwC-formatierte Datensätze als herunterladbare csv-Dateien. Das MyCoPortal bedient derzeit über 3,6 Millionen Datensätze von 84 Institutionen weltweit.;-;-;-;https://link.springer.com/article/10.1007/BF03449464 b785a790e82af699c898600750ed262c;de;;;6.3.;;;Benutzervertrauen und Urteile in einer kuratierten Datenbank mit expliziter Provenienz Wir konzentrieren uns auf Human-in-the-Loop- und Informationsintegrations-Settings, in denen Benutzer Daten aus einer Vielzahl von Quellen sammeln und auswerten und in denen sich das Vertrauen in Quellen und Benutzer dynamisch ändert. In solchen Einstellungen müssen Benutzer ihr Urteilsvermögen beim Sammeln und Ändern von Daten verwenden. Beispielsweise muss ein Gefechtsinformationsoffizier, der einen Bericht erstellt, um seine Vorgesetzten über den aktuellen Stand der Dinge zu informieren, Daten aus vielen (auch nicht computergestützten) Quellen sammeln und integrieren. Durch das Verfolgen mehrerer Quellen für einzelne Werte kann der Beamte einen Wert aus dem aktuellen Status entfernen, wenn alle Quellen, in denen dieser Wert gefunden wurde, nicht mehr vertrauenswürdig sind. Wir definieren ein konzeptionelles Modell für eine kuratierte Datenbank mit Provenienz für solche Settings, das Multi-granularity, Multi-provenance Model (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41660-6_5 1be33177d066b756941c897601cd4fbc;de;;;6.3.;;;Digitale Chronofiles der Lebenserfahrung Die Technologie hat uns an den Punkt gebracht, an dem wir in der Lage sind, Lebenserfahrungen in reichhaltigen Multimedia-Details digital abzutasten, was oft als Lifelogging bezeichnet wird. In diesem Beitrag untersuchen wir das Potenzial von Lifelogging für die Digitalisierung und Archivierung von Lebenserfahrungen in einem Längsschnitt-Medienarchiv für eine Person. Wir motivieren das historische Archivpotenzial für reichhaltige digitale Erinnerungen, ermöglichen es den digitalen Fußabdrücken von Einzelpersonen, zu gesellschaftlichen Erinnerungen beizutragen, und schlagen einen Datenrahmen vor, um die Lebensdauer des Themas zu sammeln und zu organisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-15168-7_33 e6127c0e5584ec2e5f4352b01f46ea3e;de;;;6.3.;;;Eine neuartige mobile CrowdSensing-Architektur für die Verkehrssicherheit Intelligente Verkehrssysteme sind zu einem wesentlichen Bestandteil heutiger Verkehrssysteme geworden, da sie darauf abzielen, Effizienz, Sicherheit und Mobilität zu verbessern. Um ihre Ziele zu erreichen, sind sie insbesondere auf verschiedene Kommunikations- und Sensortechnologien angewiesen. Auf dieser Ebene stellt Mobile CrowdSensing eine kosteneffiziente Lösung dar und bietet interessante Funktionen für die Datenerfassung, die ein wichtiger Bestandteil von ITS ist. Es steht jedoch noch vor einigen Herausforderungen, wie fehlende Anreizmechanismen, Datenvalidierung, Datenschutz und Sicherheit. Diese Herausforderungen motivieren uns, eine Mobile CrowdSensing-Architektur für unsere zukünftige SI-CAR-Anwendung (Secure and Intelligent Crowdsensing Application for Road Safety) vorzuschlagen, die Deep-Learning-basierte Datenvalidierung, Edge-Computing-basierte lokale Verarbeitung für den Datenschutz und spielbasierte Anreize integriert Mechanismus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-66840-2_24 ba740ce5506eda6039861f72331e9b58;de;;;6.3.;;;Partikelschwarm-basierte optimale Schlüsselgenerierung: Blockchain-unterstützter sicherer Informationsaustausch im Supply Chain Management Die Lieferkette ist im Wesentlichen ein Netzwerk von Unternehmen und Personen, die an der Herstellung oder Bereitstellung von Produkten und Dienstleistungen beteiligt sind. Mit der Vergrößerung der Unternehmen sind die Lieferketten komplexer geworden, was es schwierig macht, sie zu verwalten und zu optimieren. In diesem Szenario hat sich „Blockchain“ als Technologie herauskristallisiert, die beim effizienten Management dieser komplizierten Lieferketten hilft. In dieser Forschungsarbeit wird das blockkettengestützte „Supply Chain Management (SCM)“ vorgestellt. Mit der Absicht, die Sicherheit des vorgeschlagenen SCM zu erhöhen, wird ein neuer Ansatz zur Erhaltung der Privatsphäre verfolgt, bei dem die „Datenbereinigung und Datenwiederherstellung“ mit dem optimal ausgewählten Schlüssel erfolgt. Noch wichtiger ist, dass in beiden Prozessen der optimale Schlüssel über einen standardmäßigen „Particle Swarm Optimization Algorithm (PSO)“ generiert wird. Das vorgeschlagene sichere Blockchain-basierte PSCM-Modell wird validiert, indem es in Bezug auf die Angriffsanalyse mit den traditionellen Modellen verglichen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-3660-8_41 983afc12bcaaa6d41364bed3be77769c;de;;;6.3.;;;Jüngste Fortschritte in der Schema- und Ontologie-Evolution Schema-Evolution ist die immer wichtiger werdende Fähigkeit, bereitgestellte Schemas an sich ändernde Anforderungen anzupassen. Eine effektive Unterstützung der Schemaentwicklung ist eine Herausforderung, da Schemaänderungen möglicherweise korrekt und effizient an Instanzdaten und abhängige Schemas, Mappings oder Anwendungen weitergegeben werden müssen. Wir stellen die wichtigsten Anforderungen für eine effektive Schema- und Ontologie-Evolution vor, einschließlich Unterstützung für eine Vielzahl von Änderungsvorgängen, Einfachheit der Änderungsspezifikation, Evolutionstransparenz (z. B. durch Bereitstellung und Pflege von Ansichten oder Schemaversionen), automatisierte Generierung von Evolutionszuordnungen und vorhersehbare Instanzmigration, die Datenverlust und manuelle Eingriffe minimiert. Anschließend geben wir einen Überblick über den aktuellen Stand der Technik und aktuelle Forschungsergebnisse zur Evolution relationaler Schemata, XML-Schemata und Ontologien. Für zahlreiche Ansätze skizzieren wir, wie und inwieweit sie die eingeführten Anforderungen erfüllen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16518-4_6 3c4b9384a455ea166d9d1dc80e995f1c;de;;;6.3.;;;3D-Tool-Evaluation und Workflow für einen ökologischen Ansatz zur Visualisierung alter sozio-ökologischer Landschaften Architektonische Rekonstruktionen sind die Kernstücke der antiken Landschaftsvisualisierung. Wenn vorhanden, wird die Vegetation in den Hintergrund gedrängt, was zu einer unzureichenden Nutzung von Pflanzendaten – einer integralen Datenquelle für die archäologische Interpretation – führt, wodurch die Möglichkeit eingeschränkt wird, die 3D-Visualisierung für das Studium der antiken sozio-ökologischen Dynamik zu nutzen. Unser langfristiges Ziel ist es, Methoden der 3D-Landschaftsvisualisierung zu entwickeln, die einen Wert für die Untersuchung von Landnutzungs- und Siedlungsveränderungen haben. Um dieses Ziel zu erreichen, haben wir (1) 3D-Werkzeuge und -Techniken zur Vegetationsmodellierung und Landschaftsvisualisierung identifiziert, (2) die Vor- und Nachteile dieser Werkzeuge bewertet, (3) biologische und ökologische Ansätze zur Simulation von Pflanzenlebensräumen untersucht, die Datenanforderungen dieser Ansätze und die Vor- und Nachteile dieser Ansätze für die Rekonstruktion archäologischer Landschaften, und (4) dann aufbauend auf diesen Ergebnissen einen Arbeitsablauf vorzuschlagen, um archäologische, paläo-ökologische und ethnobotanische in geografische Informationssysteme (GIS) zu integrieren. für den Export in eine virtuelle Landschaft für Untersuchungen antiker sozio-ökologischer Interaktionen. Um mögliche digitale 3D-Werkzeuge und Arbeitsabläufe zur Visualisierung von Pflanzenverteilungsmodellen neben archäologischer Besiedlung zu identifizieren, berücksichtigen wir mehrere Schlüsselfragen: Kapazität, georeferenzierte Daten zu verarbeiten, Detaillierungsgrad, multiskalare Analyse und Verfügbarkeit quantitativer und qualitativer Daten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-40658-9_8 1e783b1dca2ec99a47947b5aef667c0e;de;;;6.3.;;;Die Religiosität der Nutzer sozialer Netzwerke und die Gestaltung von Post-Mortem-Aspekten Soziale Netzwerke erhöhen die Herausforderungen bei der Gestaltung realer Aspekte, deren rechnerische Abstraktion nicht einfach ist. Dazu gehören Tod und digitales Erbe, stark beeinflusst von kulturellen Phänomenen wie der Religion. Daher ist es wichtig, die Todesvorstellungen von Jugendlichen im Web zu analysieren, da die Internet-Generation andere Gruppen von Nutzern sozialer Netzwerke übertrifft. Außerdem sehen sich viele von ihnen aufgrund ihres Alters zum ersten Mal im Internet mit dem Tod anderer Menschen konfrontiert. Dieser Beitrag analysiert, inwieweit die Religion und der Glaube an das Leben nach dem Tod dieser Nutzer Leitlinien für ein soziales Netzwerkprojekt sein können, das den Willen zum digitalen Erbe berücksichtigt. Die hierin qualitativ und quantitativ analysierten Daten stammen aus einer umfragebasierten Untersuchung mit brasilianischen Gymnasiasten. Die Beiträge für Human-Computer Interaction (HCI)-Studien umfassen Designlösungen, die Aspekte von Religion, Tod und digitalem Erbe berücksichtigen und das Verständnis von Benutzern und Designern zu diesen Themen im Systemdesign verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40477-1_43 29eefd3b0a47119f336367a0efcf6e33;de;;;6.3.;;;Data City: Nutzung der Datenverkörperung, um das Gefühl des Dateneigentums zu stärken Die Mensch-Daten-Interaktion (HDI) ist ein aufstrebendes Forschungsgebiet, da personenbezogene Daten zunehmend gesammelt, analysiert und gehandelt werden. Wir haben eine kleine qualitative Forschung durchgeführt, um die Wahrnehmung, das Verhalten und die Einstellung der Menschen zu Daten durch Umfragen, Interviews und Workshops zu untersuchen. Die Ergebnisse zeigten, dass die Unklarheit des Dateneigentums das Hauptproblem darstellt. Um ein besseres Verständnis zu schaffen und auch unerfahrenen Benutzern zu einem besseren Bewusstsein für ihren Datenschutz zu verhelfen, nutzen wir zusammen mit den Ergebnissen die verkörperte Interaktion, die darauf abzielt, das Gefühl des Dateneigentums durch die Bereitstellung erweiterter physischer Darstellungen zu verbessern. Diesem Ansatz folgend schlagen wir als Beispielanwendung eine Augmented-Reality-Installation „DataCity“ vor, die die Anwendungsdaten des Smartphones des Nutzers mit physischen Objekten verbindet. Durch physische Manipulation und Augmented-Reality-Kontrolle liefert unser Design Beweise dafür, wie die Grenzen der persönlichen Daten der Benutzer aufgehoben, ihr Eigentumsgefühl gestärkt und schließlich eine bessere Datenschutzkompetenz entwickelt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-73426-8_22 395f96514d8c3a8d80cbd3bb157016b7;de;;;6.3.;;;Smart Manufacturing: Vergangene Forschung, aktuelle Ergebnisse und zukünftige Richtungen Die Fertigungsindustrie strebt heute eine Verbesserung der Wettbewerbsfähigkeit durch die Konvergenz mit modernsten IKT-Technologien an, um sich einen neuen Wachstumsmotor zu sichern. Smart Manufacturing, die vierte Revolution in der Fertigungsindustrie und auch als neues Paradigma gilt, ist eine Sammlung von Spitzentechnologien, die durch die Einführung verschiedener IKT-Technologien und die Konvergenz mit den bestehenden Fertigungstechnologien. In diesem Papier wurden verschiedene Artikel zum Thema Smart Manufacturing untersucht und analysiert, das vergangene und gegenwärtige Niveau identifiziert und die Zukunft vorhergesagt. Zu diesem Zweck wurden 1) die wichtigsten Schlüsseltechnologien im Zusammenhang mit Smart Manufacturing durch die Analyse der Richtlinien und Technologie-Roadmaps von Deutschland, den USA und Korea identifiziert, die regierungsgesteuerte führende Bewegungen für Smart Manufacturing haben, 2) die entsprechenden Artikel zu das Smart Manufacturing-Gesamtkonzept, die Schlüsselsystemstruktur bzw. jede Schlüsseltechnologie untersucht wurden und schließlich 3) die Smart Manufacturing-bezogenen Trends identifiziert und die Zukunft durch verschiedene Analysen zu den Anwendungsbereichen und Technologieentwicklungsstufen vorhergesagt wurden, die wurden in jedem Artikel angesprochen.;-;-;-;https://link.springer.com/article/10.1007/s40684-016-0015-5 60329533520670fc3bee475aa9742e78;de;;;6.3.;;;UniProv: Ein flexibles Provenance-Tracking-System für UNICORE In diesem Beitrag stellen wir ein flexibles Provenienzmanagementsystem namens UniProv vor. UniProv ist ein fortlaufendes Entwicklungsprojekt, das Provenienzverfolgung in wissenschaftlichen Arbeitsabläufen und Datenmanagement insbesondere im Bereich der Neurowissenschaften bietet und es Anwendern ermöglicht, Aufgaben und Ergebnisse ihrer Experimente zu validieren und zu reproduzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-53862-4_20 c306cb0013cc6bdb932356ff31c32550;de;;;6.3.;;;Ozeanobservatorien und -informationen: Aufbau eines globalen Ozeanbeobachtungsnetzwerks Ozeanobservatorien sind Sammlungen von Netzwerken von Sensoren, die eingesetzt werden, um die Ozeanphysik, -chemie und -biologie zu untersuchen. Ziel dieser Netzwerke ist es, die chronische Unterabtastung der Ozeane durch nachhaltige Messungen in Raum und Zeit zu überwinden. Die von diesen Netzwerken gesammelten Daten werden verwendet, um eine Reihe von Fragen der Grundlagen- und angewandten Forschung zu bearbeiten, die durch einen Mangel an Daten behindert werden. Die Ozeanobservatorien stellen Sammlungen von Plattformen dar, die in der Lage sind, Daten über eine Reihe von Skalen zu sammeln. Die Plattformen umfassen Schiffe, Satelliten, Radare und eine Reihe von Lagrange-Systemen. Daten von den einzelnen Plattformen werden durch ausgeklügelte Cyberinfrastruktur-Softwaresysteme aggregiert, die in Kombination mit globaler Kommunikation eine bidirektionale Kommunikation zwischen dem Landpersonal und den Netzwerken ermöglichen, die überall auf der Welt eingesetzt werden können. Diese Zwei-Wege-Kommunikation ermöglicht es, die Netzwerke adaptiv zu konfigurieren, um die Abtastung spezifischer Prozesse zu verbessern. Die Reifung dieser Systeme kommt zu einem zufälligen Zeitpunkt, da die Ozeane in den letzten Jahrzehnten zunehmend Anzeichen für Veränderungen in Physik, Chemie und Biologie aufweisen. Um diese Veränderungen zu verstehen, werden die von den Ozeanobservatorien gesammelten Daten benötigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-5684-1_14 535478f7d524d4ab083f7af14c66c411;de;;;6.3.;;;Data Mining im Clinical Data Warehouse der traditionellen chinesischen Medizin in der Praxis Die klinische Praxis in der Praxis ist der Hauptbereich der Traditionellen Chinesischen Medizin (TCM), da sie langjährige praktische klinische Aktivitäten erlebt und etablierte theoretische Kenntnisse und klinische Lösungen entwickelt hat, die für eine personalisierte Behandlung geeignet sind. Klinische Phänotypen waren die wichtigsten Merkmale, die von der TCM für Diagnosen und Behandlungen erfasst wurden, die vielfältig und dynamisch in der realen klinischen Umgebung veränderbar sind. Zusammen mit der klinischen Verschreibung mit mehreren pflanzlichen Inhaltsstoffen zur Behandlung enthalten die klinischen Aktivitäten der TCM immense wertvolle Daten mit hoher Dimensionalität für die Wissensdestillation und Hypothesengenerierung. In China ist die Umwandlung der Daten in klinisches aufschlussreiches Wissen mit der Kuratierung umfangreicher klinischer realer Daten aus regelmäßigen klinischen Aktivitäten zunehmend ein heißes Thema im TCM-Bereich. Dieses Kapitel stellt die Anwendung von Data-Warehouse-Techniken und Data-Mining-Ansätzen zur Nutzung von klinischen TCM-Daten aus der Praxis vor, die hauptsächlich aus elektronischen Krankenakten stammen. Der Hauptrahmen der klinischen Data-Mining-Anwendungen im TCM-Bereich wird ebenfalls mit Betonung auf verwandte Arbeiten in diesem Bereich vorgestellt. Die wichtigsten Punkte und Fragen zur Verbesserung der Forschungsqualität werden diskutiert und zukünftige Richtungen vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03801-8_11 b242579c39ba03753c7fe0948e69e2b5;de;;;6.3.;;;Architektur datenintensiver Softwaresysteme Datenintensive Software wird in der heutigen Welt immer wichtiger, in der die Erfassung, Verarbeitung und Verbreitung immer größerer Datenmengen zu Beginn des 21. Jahrhunderts zu einer treibenden Kraft für Innovationen geworden ist. Der Trend zur massiven Datenmanipulation ist breit angelegt und Fallstudien können in Bereichen von der Politik über die Informationsbeschaffung bis hin zur wissenschaftlichen und medizinischen Forschung untersucht werden. Insbesondere der wissenschaftliche Bereich bietet eine reiche Auswahl an Fallstudien, die einen schnellen Einblick in viele moderne Software-Engineerings bieten, und;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-1415-5_2 105da243556a7b16a62caf5a766b62d5;de;;;6.3.;;;Ressourcenzuweisung basierend auf dem Auktionsspiel des Satellitenavioniksystems Einhergehend mit der Entwicklung der Raumfahrzeugtechnologie treiben die Anforderungen an Intelligenz und Autonomie zukünftiger Satelliten voran. Die Betriebsfähigkeit des Prozessors und die Übertragbarkeit des Busses sind jedoch hauptsächlich die Faktoren, die der Förderung in bestehenden Satellitenavioniksystemen entgegenstehen. Darüber hinaus ist die effiziente Zuweisungsmethode für eine auf Rechen- und Speicherressourcen basierende verteilte Architektur auch die gültigen Maßnahmen zur Verbesserung der Effizienz von Satellitenavioniksystemen. In diesem Papier konzentrieren wir uns auf die Ressourcenbeschränkung von Verarbeitungseinheiten und erwähnen das auf der Ressourcenzuteilung basierende Auktionsspiel von Satellitenavioniksystemen, um das Nutzungsverhältnis freier Ressourcen zu verbessern und den Stromverbrauch zu optimieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-19156-6_44 474e613edb32bc2db6bb33dfd18d20e2;de;;;6.3.;;;Ein Blockchain-basiertes Speichersystem für die Datenanalyse im Internet der Dinge Ohne eine zentrale Autorität können Blockchains problemlos die Verwaltung von Transaktionen ermöglichen. Auf Blockchains gespeicherte Smart Contracts sind selbstausführende Vertragszustände, die von niemandem kontrolliert werden, sodass ihnen vertraut werden kann. Darüber hinaus verfügen IoT-Geräte (Internet of Things) aufgrund zunehmender Verbesserungen in der Prozessor- und Speichertechnologie über eine leistungsfähigere Rechenleistung und einen größeren Speicherplatz, die es ihnen ermöglichen, benutzerdefinierte Programme, z. B. Smart Contracts, auszuführen. Die Verlagerung eines Teils der Aufgaben von Anwendungen auf IoT-Geräte reduziert die übertragene Datenmenge über das IoT-Netzwerk. Die Parallelität großer Speichersysteme wird genutzt, um die Ausführungszeit vieler grundlegender Datenanalyseaufgaben zu verkürzen. Blockchain kann als Smart Contract verwendet werden, der die Vertragsverhandlung im IoT erleichtert und durchsetzt. In diesem Kapitel wird ein Blockchain-basiertes Speichersystem mit dem Namen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-58190-3_8 679e02e59b8cadc5955ccd36db5096c1;de;;;6.3.;;;Semantik und High Performance Computing Driven Approaches for Enhanced Exploration of Earth Observation (EO) Data: State of the Art Diese Übersichtsarbeit diskutiert den Stand der Technik beim Informations-Mining von Erdbeobachtungsbildern (EO) aus semantikbasierten Ansätzen. Der Bedarf für das Mining von RS-Daten ist aufgrund der ständig steigenden Datenmenge entstanden, die von verschiedenen EO-Plattformen gesammelt wird. Die EO-Datenarchive erreichen unüberschaubare Größen, und die Herausforderungen bei der Speicherung und Verbreitung dieser Informationen nehmen alarmierende Ausmaße an. Es wird angenommen, dass 90% dieser Daten unangetastet in den Archiven verbleiben. Dies hat verschiedene Gründe, wie zum Beispiel die Unfähigkeit, die Daten zu suchen und zu finden, die fehlende Kontextualisierung beim Suchen und Abrufen der relevanten Daten, der enorme Zeitaufwand für die Verarbeitung dieser Datensätze usw. Derzeit sind die Daten die dem Benutzer über Schnittstellen zur Verfügung gestellt werden, die nur syntaktische Abfragen unterstützen und denen die Intuitivität fehlt, die der Vermutung des Benutzers nicht gerecht wird. Diese einschränkenden Faktoren wirken sich stark auf die Verwendung dieser archivierten Datensätze aus. Diese auf ausgewählten Arbeiten basierende Übersicht deckt zwei Bereiche der Erdbeobachtung ab, die von der Integration semantischer Technologien profitieren können: (1) Daten aus EO-Bildern (2) EO-Daten in Form von thematischen Daten. Um an riesigen EO-Bilddatenbanken arbeiten zu können, muss die Rechenleistung exponentiell gesteigert werden. Das jüngste Aufkommen von grafischen Verarbeitungseinheiten (GPUs) für Allzweck-Computing hat enorm dazu beigetragen, schnelle Ansätze für die Mining-EO-Bildarchive zu entwickeln. Die verschiedenen Prozesse, die bei der Verwendung von GPU-Computing in einer Vielzahl von EO-Anwendungen beteiligt sind, werden zusammen mit den jüngsten Arbeiten in diesem Bereich diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s40010-017-0432-z ff9beab8586ee5f0987bdeac9bd6288a;de;;;6.3.;;;Datensatzanonymisierung in der Cloud: Offene Probleme und Perspektiven Datenanonymisierung ist der Vorgang, bei dem die in einer Datengruppe enthaltenen Informationen so gestaltet werden, dass es nach dem Vorgang nicht möglich ist, eindeutige Verweise auf einzelne Elemente in der Gruppe zu identifizieren. Diese Aktion, wenn sie an Datensätzen durchgeführt wird, die zur Erstellung statistischer Schlussfolgerungen verwendet werden, hat zwangsläufig ein analoges Verhalten bei bestimmten Indizes vor und nach dem Prozess selbst. In diesem Papier untersuchen wir die Pipeline des Anonymisierungsprozesses für Datensätze, wenn diese Pipeline auf Cloud-Technologie verwaltet wird, bei der Kryptographie überhaupt nicht anwendbar ist, für Datensätze, die in einer offenen Umgebung verfügbar sind. Wir untersuchen die offenen Probleme und entwickeln eine Methode, um diese Probleme in einem logischen Rahmen anzugehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-51253-8_9 86704c7c3e4485689afe686c9b00e5d7;de;;;6.3.;;;Auswirkung von Wasserzeichen auf die diagnostische Konservierung von atherosklerotischen Ultraschallvideos in der Schlaganfall-Telemedizin Das Einbetten von Diagnose- und Gesundheitsinformationen erfordert sichere Verschlüsselung und Wasserzeichen. Dieses Forschungspapier präsentiert eine umfassende Studie zum Verhalten einiger etablierter Wasserzeichen-Algorithmen im Frequenzbereich zur Erhaltung schlaganfallbasierter diagnostischer Parameter. Zwei verschiedene Sätze von Wasserzeichen-Algorithmen, nämlich: zwei korrelationsbasierte (binäres Logo-Ausblenden) und zwei auf Singulärwert-Zerlegung (SVD) basierende (graues Logo-Ausblenden) Wasserzeichen-Algorithmen werden zum Einbetten des Eigentumslogos verwendet. Die diagnostischen Parameter in atherosklerotischen Plaque-Ultraschallvideos sind nämlich: (a) Bulbus-Identifikation und -Erkennung, die darin besteht, die Bulbus-Randpunkte in den fernen und nahen Karotiswänden zu identifizieren, (b) Karotis-Bulbusdurchmesser und (c) Karotis-Lumendicke entlang der gesamten Halsschlagader. Der getestete Datensatz besteht aus atherosklerotischen Karotisfilmen, die nach dem IRB-Protokoll der gemeinsamen Pilotstudie des University of Indiana Hospital, USA-AtheroPoint™ (Roseville, CA, USA) aufgenommen wurden. Beim Glühbirnenerkennungsverfahren wurde eine ROC-Analyse (Receiver Operating Characteristic) durchgeführt, die eine Genauigkeit bzw. Empfindlichkeit von jeweils 100 % zeigte. Die diagnostische Konservierung (DP;-;-;-;https://link.springer.com/article/10.1007/s10916-016-0451-3 196acfab01e547d3718c46f91b6f580f;de;;;6.3.;;;E/A-Beschleunigung durch mehrstufiges Datenpuffern und Prefetching Moderne High-Performance Computing (HPC)-Systeme fügen der Speicher- und Speicherhierarchie zusätzliche Schichten hinzu, die als tiefe Speicher- und Speicherhierarchie (DMSH) bezeichnet werden, um die I/O-Leistung zu erhöhen. In Burst-Puffer-Installationen wurden neue Hardwaretechnologien wie NVMe und SSD eingeführt, um den Druck für die externe Speicherung zu reduzieren und die Burstiness moderner I/O-Systeme zu erhöhen. Die DMSH hat ihre Stärke und ihr Potenzial in der Praxis bewiesen. Jede Schicht von DMSH ist jedoch ein unabhängiges heterogenes System, und die Datenbewegung zwischen mehreren Schichten ist auch ohne Berücksichtigung der Heterogenität deutlich komplexer. Die effiziente Nutzung des DMSH ist Gegenstand der Forschung der HPC-Community. Darüber hinaus ist der Zugriff auf Daten mit hohem Durchsatz und geringer Latenz wichtiger denn je. Das Vorabrufen von Daten ist eine bekannte Technik zum Verbergen der Leselatenz durch Anfordern von Daten, bevor sie benötigt werden, um sie von einem Medium mit hoher Latenz (z. B. Platte) auf ein Medium mit niedriger Latenz (z. B. Hauptspeicher) zu verschieben. Bestehende Lösungen berücksichtigen jedoch nicht die neue tiefe Speicher- und Speicherhierarchie und leiden auch unter einer Unterauslastung von Prefetching-Ressourcen und unnötigen Räumungen. Darüber hinaus implementieren bestehende Ansätze ein Client-Pull-Modell, bei dem das Verständnis des E/A-Verhaltens der Anwendung Vorabrufentscheidungen vorantreibt. Auf dem Weg zu Exascale, bei dem Maschinen mehrere Anwendungen gleichzeitig ausführen, indem sie auf Dateien in einem Workflow zugreifen, löst ein stärker datenzentrierter Ansatz Herausforderungen wie Cache-Verschmutzung und Redundanz. In diesem Papier stellen wir das Design und die Implementierung von Hermes vor: ein neues, heterogenes, mehrschichtiges, dynamisches und verteiltes I/O-Puffersystem. Hermes ermöglicht, verwaltet, überwacht und erweitert in gewissem Sinne die I/O-Pufferung, um sie vollständig in das DMSH zu integrieren. Wir stellen drei neuartige Datenplatzierungsrichtlinien vor, um alle Schichten effizient zu nutzen, und wir stellen drei neuartige Techniken vor, um Speicher-, Metadaten- und Kommunikationsmanagement in hierarchischen Puffersystemen durchzuführen. Darüber hinaus demonstrieren wir die Vorteile eines wirklich hierarchischen Daten-Prefetchers, der einen Server-Push-Ansatz zum Daten-Prefetching verwendet. Unsere Auswertung zeigt, dass Hermes neben der automatischen Datenverschiebung durch die Hierarchie die I/O deutlich beschleunigen kann und um mehr als 2x hochmoderne Pufferplattformen übertrifft. Schließlich zeigen die Ergebnisse eine Leistungssteigerung von 10–35 % gegenüber bestehenden Prefetchern und über 50 % im Vergleich zu Systemen ohne Prefetching.;-;-;-;https://link.springer.com/article/10.1007/s11390-020-9781-1 86dec3ca32906838a27f812c41388614;de;;;6.3.;;;Fallstricke beim Erhalt von Geoinformationen - Lehren aus dem Schweizerischen Nationalpark Im Schweizerischen Nationalpark (SNP) ist die langfristige Forschung eines der Hauptziele. Seit fast 100 Jahren werden wissenschaftliche Daten gesammelt, viele davon in einem geografischen Kontext in dieser alpinen Umgebung. Das digitale Zeitalter begann 1992 mit der Einrichtung eines geografischen Informationssystems (GIS). Im Laufe der Jahre hat sich eine beträchtliche Menge an analogen und digitalen Daten angesammelt, die das SNP für zukünftige Forschungsgenerationen bereithalten muss. Als einer der wenigen ungestörten Referenzbereiche für den Globalen Wandel mit solchen Langzeitdatenreihen ist der Erhalt der Quelldaten von hoher Bedeutung, da der Wert der Daten mit der Zeitreihe steigt und kontinuierlich aktualisiert wird. Bei der Aufbewahrung von wissenschaftlichen Langzeitdaten in digitaler Form stößt man unweigerlich auf eine Vielzahl von Problemen, die in der klassischen (nicht-digitalen) Archivierung nicht zu finden sind. Wir haben eine Reihe von Hindernissen und Fallstricken identifiziert, die katastrophale Auswirkungen auf die Archiverstellung und -pflege in einer kleinen Organisation wie der SNP haben können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12733-5_7 d35152e328f170148d135ff9f81b212b;de;;;6.3.;;;Ein umfassendes und ganzheitliches Wissensmodell zum Schutz der Privatsphäre in der Cloud Obwohl Cloud Computing immer beliebter wird, da die Datenanalyse auf ausgelagerte und kostengünstige Weise unterstützt wird, bringt es beim Senden der Originaldaten an Cloud-Server ernsthafte Datenschutzprobleme mit sich. Sensible Daten haben einen erheblichen Wert, und jede Verletzung der Privatsphäre kann zu großen Geld- und Reputationsverlusten führen. Damit jedes Cloud-Ökosystem von verschiedenen Interessengruppen akzeptiert und leicht übernommen werden kann, sind Datenschutzbedenken von größter Bedeutung. Das Unbehagen der Benutzer ist hauptsächlich auf die fehlende Kontrolle über die ausgelagerten und in der Cloud-Umgebung verarbeiteten personenbezogenen Daten zurückzuführen. Das Fehlen von Cloud Data Governance und das Fehlen aktueller dedizierter Technologien stellen jedoch ernsthafte Hindernisse dar, um die Datenschutzanforderungen der verschiedenen Cloud-Stakeholder zu erfüllen. Folglich muss jede vorgeschlagene Cloud-Plattform oder -Technologie die erforderlichen technischen Maßnahmen und betrieblichen Sicherheitsvorkehrungen berücksichtigen, um mit sensiblen Daten umzugehen, Ausfälle zu vermeiden und durch aktuelle und zukünftige Forschungstrends intensiv untersucht werden. Mehrere Forscher haben Umfragen durchgeführt, um Datenschutzprobleme in der Cloud zu verstehen und gezielt anzusprechen. Ihre Forschung besteht jedoch hauptsächlich aus deskriptiven Literaturrecherchen. In diesem Whitepaper schlagen wir eine ganzheitliche und umfassende Taxonomie für den Datenschutz in der Cloud vor. Diese Studie wird durch die Ergebnisse einer systematischen Literaturrecherche unterstützt, die einen methodischen, strukturierten und rigorosen Ansatz bietet, der das Verständnis von datenschutzwahrenden Cloud-Strategien und -Techniken erleichtert. Das Ziel der Studie ist es, angehenden Forschern im Cloud-Datenschutz einen glaubwürdigen intellektuellen Leitfaden zu bieten und aktive Datenschutzforschungsbereiche zu identifizieren, die die größte Wirkung erzielen.;-;-;-;https://link.springer.com/article/10.1007/s11227-020-03594-3 a44c5dbb35dd933dc174b000677d0b67;de;;;6.3.;;;Übersicht über Felddaten zur Ablagerung von Aerosol-assoziierten Arten auf dem Oberflächenschnee von Polargletschern, insbesondere neuere Arbeiten in Grönland Dieser Beitrag gibt einen Überblick über neuere Feldexperimente, in denen der Zusammenhang zwischen der Zusammensetzung des Schnees, der auf Polargletscher fällt, und der Zusammensetzung der Aerosole in der darüber liegenden Atmosphäre untersucht wurde. Die begrenzten Daten, die vor den späten 1980er Jahren vorhanden waren, zeigten, dass Aerosolentfernungsverfahren eine Fraktionierung zwischen der Zusammensetzung von Aerosolen und Schnee bewirken sollten. Unsicherheiten bezüglich der relativen Bedeutung der Eiskeimbildung, des Einreibens von Schneeflocken in die Wolken und der trockenen Ablagerung über polaren Eisschilden schlossen eine Bewertung der Auswirkungen der wahrscheinlichen Fraktionierung auf die Bemühungen zur Rekonstruktion zeitlicher Variationen in der Aerosolchemie aus Aufzeichnungen der Eiskernchemie aus. Zwei große internationale Experimente auf dem grönländischen Eisschild nach 1988 konzentrierten sich auf diese und andere Fragen, die für das Verständnis von Luft-Schnee-Austauschprozessen von zentraler Bedeutung sind. Diese Experimente bestätigten, dass das Auffangen von Eiskeimen der Hauptprozess ist, der aerosolassoziierte Spezies in polaren Schnee einbringt. Dieser Prozess reichert Schnee in großen Aerosolen relativ zur Aerosolpopulation in der Höhe an. Trockene Ablagerungen spielen derzeit eine untergeordnete Rolle, reichern aber auch den Schnee in großen Aerosolen und den damit assoziierten Arten an. Da die großen Aerosole über Grönland überwiegend aus Meersalz und Staub stammen, während SO;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-61171-1_11 d6916ed36685a1dcc0e3ba699df3c7ae;de;;;6.3.;;;Ins Kino gehen: Lehren aus der Filmindustrie für 3D-Bibliotheken Die Filmindustrie kann Forschern im Bereich des Kulturerbes Erkenntnisse liefern. Moderne Filme erfordern die Verwaltung einer enormen Anzahl digitaler Assets, analog zur Verwaltung digitaler Assets im Kulturerbe. Darüber hinaus sind Filme an sich kulturelle Artefakte: Die Bewahrung von Filmen bietet Lehren für die Bewahrung anderer Ephemera, einschließlich all dieser digitalen Assets. Schließlich verwenden einige Filme historische Kontexte und es gibt Lehren, warum die Zusammenarbeit zwischen Kulturhistorikern und Filmemachern unbefriedigend sein kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44630-0_7 f6e79b48f85ec9c9d7f65792853c739c;de;;;6.3.;;;Ein dynamischer Multi-One-Class-Klassifikator für die adaptive Digitalisierung von Dokumentenströmen In diesem Beitrag stellen wir ein neues dynamisches Klassifikatordesign vor, das auf einem Satz von einklassenunabhängigen SVMs für die Kategorisierung von Bilddatenströmen basiert. Dynamisches oder kontinuierliches Lernen und Klassifizieren wurde kürzlich untersucht, um mit verschiedenen Situationen umzugehen, wie zum Beispiel das Online-Lernen fester Konzepte, das Lernen in nicht-stationären Umgebungen (Konzeptdrift) oder das Lernen aus unausgeglichenen Daten. Die meisten Lösungen sind nicht in der Lage, viele dieser Besonderheiten gleichzeitig zu bewältigen. Insbesondere das Hinzufügen neuer Konzepte, das Zusammenführen oder das Aufteilen von Konzepten werden meistens als weniger wichtig angesehen und werden daher weniger untersucht, während sie ein hohes Interesse für die strombasierte Dokumentenbildklassifizierung darstellen. Um mit dieser Art von Daten umzugehen, untersuchen wir ein Lern- und Klassifikationsschema basierend auf Ein-Klassen-SVM-Klassifikatoren, die wir mOC-iSVM (Multi-One-Class Incremental SVM) nennen. Auch wenn Einklassen-Klassifikatoren unter einem Mangel an Unterscheidungskraft leiden, haben sie als Gegenstück viele interessante Eigenschaften, die sich aus ihrer unabhängigen Modellierung ergeben. Die in der Arbeit vorgestellten Experimente zeigen die theoretische Durchführbarkeit an verschiedenen Benchmarks unter Berücksichtigung der Hinzufügung neuer Klassen. Experimente zeigen auch, dass das mOC-iSVM-Modell effizient für Aufgaben zur Dokumentenklassifizierung (nach Bildqualität und Bildinhalt) im Kontext von Streams verwendet werden kann und viele typische Szenarien für die Konzepte Erweiterung, Drift, Split und Merge handhabt.;-;-;-;https://link.springer.com/article/10.1007/s10032-017-0286-6 70d322908206e7d71fc82bbedf85427b;de;;;6.3.;;;Untersuchung von Cyberkriminalität und Intrusion Detection im Internet der Dinge basierend auf datenwissenschaftlichen Methoden In letzter Zeit hat das Internet der Dinge (IoT) von verschiedenen Organisationen, von der Wissenschaft bis zur Industrie, Aufmerksamkeit erregt. Das IoT ist ein Internetworking, bei dem verschiedene Arten von Geräten und Technologien verbunden und integriert werden, darunter Sensoren, Radio Frequency Identification (RFID), Cloud Computing, das Internet, Smart Grids und Fahrzeugnetzwerke sowie viele andere Geräte und neue Technologien. Das IoT wird zum Gegenstand illegaler und krimineller Aktivitäten. Cyberkriminelle und Terroristen sind hochqualifizierte Personen in den Bereichen Computer, Netzwerk, digitale Systeme und neue Technologien. Über das Internet werden enorme Datenmengen über Kriminelle und ihr Verhalten aus unterschiedlichen Datenquellen gesammelt, die mit Methoden der Data Science verarbeitet und in Echtzeit und online verfolgt und verfolgt werden können. Die riesige Datenmenge erfordert neue schnelle und effiziente Verarbeitungswerkzeuge und -techniken für die Datenextraktion und -analyse in kürzerer Zeit. Zu diesem Zweck können Data-Science-Methoden verwendet werden, um eine andere Art von schweren Angriffen und Einbrüchen zu untersuchen und zu erkennen. In diesem Kapitel werden die Prinzipien der digitalen Forensik, Intrusion Detection und des Internets der Dinge vorgestellt und Data Science-Konzepte und -Methoden untersucht, die digitalen Ermittlern und Sicherheitsexperten helfen können, neue Data Science-Techniken und -Methoden zu entwickeln und vorzuschlagen, die an den jeweiligen Kontext angepasst werden können der Internet-of-Things-Umgebung für die Durchführung von Intrusion Detection und digitalen Untersuchungsprozessen auf forensisch fundierte und zeitnahe Weise.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-70688-7_2 afb1785ba65886ce398df08ee0a0c504;de;;;6.3.;;;Prognostische Modellierung mit Anwendungen des Internet of Healthcare Things Mit einem verstärkten Fokus auf Wohlbefinden und personalisierte Gesundheitsversorgung steigt die Nachfrage nach intelligenter Technologie, die Behandlungsverfahren vorhersagen, diagnostizieren und unterstützen kann. Prognosemodelle bieten die Vorhersagefähigkeit für Diagnose und Behandlung. Es hat mehrere Methoden und Dimensionen, die basierend auf der Anwendung dieser Modelle angewendet werden. Das Internet der Dinge (IoT) hat mehrere Anwendungen in fast allen Bereichen, einschließlich der Medizin. IoT in Kombination mit prognostischer Modellierung bietet viele Anwendungsmöglichkeiten und schafft Spielraum für zukünftige Forschungen sowie klinische Anwendungen. Das folgende Kapitel betont die Bedeutung der prognostischen Modellierung und beleuchtet ihre Anwendung in jeder Branche. Klinische Anwendungen von IoT und prognostischer Modellierung wurden im späteren Abschnitt des Kapitels tabellarisch dargestellt. Die Methoden, Techniken und Kombinationen sowohl der prognostischen Modellierung als auch der prognostischen Gesundheitsmodellierung wurden ausführlich diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0538-3_7 558bd5d52d121d55514cd27dd1a10a61;de;;;6.3.;;;Animierte Statuen In diesem Beitrag präsentieren wir einen mehrschichtigen Rahmen für die Animation von hochauflösender menschlicher Geometrie, die mit aktiver 3D-Sensortechnologie erfasst wurde. Kommerzielle Scansysteme können jetzt hochpräzise Oberflächendaten über den gesamten Körper erfassen. Das Ergebnis ist jedoch ein dichtes, unregelmäßiges Oberflächennetz ohne jegliche Animationsstruktur. Wir stellen einen modellbasierten Ansatz zur Animation eines gescannten Datensatzes vor, indem wir ein generisches humanoides Kontrollmodell mit den Oberflächendaten abgleichen. Ein Satz manuell definierter Merkmalspunkte wird verwendet, um die Körper- und Gesichtspose zu definieren, und es wird ein neuartiger Algorithmus zur Anpassung mit eingeschränkter Form präsentiert, um das Kontrollmodell so zu verformen, dass es der gescannten Form entspricht. Dieser modellbasierte Ansatz ermöglicht es, die detaillierte Spezifikation der Oberflächenanimation einmalig für das generische Modell zu definieren und auf jeden erfassten Scan erneut anzuwenden. Das Detail der hochauflösenden Geometrie wird als Displacement Map auf der Oberfläche des Kontrollmodells dargestellt, was eine reibungslose Rekonstruktion der detaillierten Form auf der animierten Kontrolloberfläche ermöglicht. Das generische Modell bietet eine Animationssteuerung über den Scandatensatz, und die Displacement Map bietet die Steuerung der hochauflösenden Oberfläche zum Bearbeiten der Geometrie oder des Detailgrads bei der Rekonstruktion oder Komprimierung.;-;-;-;https://link.springer.com/article/10.1007/s00138-002-0080-3 a6f329a155519d8f33f3d09debb68ad5;de;;;6.3.;;;Analyse und Simulation einer konventionellen SRAM-Speicherzelle mit geringer Leckage im tiefen Submikrometerbereich Der hohe Leckstrom im tiefen Submikrometerbereich trägt wesentlich zur Verlustleistung in CMOS-Schaltungen bei, da die Schwellenspannung, die Kanallänge und die Gateoxiddicke reduziert werden. Da der Standby-Strom in Speichern bei Low-Power-Design kritisch ist. Durch Absenken der Versorgungsspannung (VDD) auf ihre Standby-Grenze, der Datenerhaltungsspannung (DRV), kann die SRAM-Leckleistung erheblich reduziert werden. Der DRV nimmt mit Transistorfehlanpassungen zu. In diesem Artikel haben wir die Drowsy-Cache-Technik demonstriert, die eine Abnahme der Leckstromdissipation in tiefen Submikrometer-Designs von Speicherzellen und eingebetteten Speichern zeigt. Der Schwerpunkt dieser Arbeit liegt auf der Simulation eines effektiven Schemas zur Unterdrückung von SRAM-Leckströmen in batteriebetriebenen mobilen Anwendungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12214-9_108 ccc5f029fccd0b299e4b50b662c61d6c;de;;;6.3.;;;Relationale Datenbanken und biomedizinische Big Data In verschiedenen biomedizinischen Anwendungen, die Daten sammeln, verarbeiten und manipulieren, neigen die Datenmengen dazu, sich anzuhäufen und in den als Bigdata bezeichneten Bereich vorzudringen. In solchen Fällen muss eine Entwurfsentscheidung getroffen werden, welche Art von Datenbank verwendet wird, um diese Daten zu verarbeiten. Die klassische und standardmäßige Lösung hierfür im biomedizinischen Bereich sind nach bisheriger Forschung in den meisten Fällen relationale Datenbanken. Während dies lange Zeit die Norm war, ist es offensichtlich, dass ein Trend weg von relationalen Datenbanken hin zu anderen Arten und Paradigmen von Datenbanken besteht. Es ist jedoch immer noch von größter Bedeutung, die Wechselbeziehung zwischen biomedizinischen Big Data und relationalen Datenbanken zu verstehen. In diesem Kapitel werden die Vor- und Nachteile der Verwendung relationaler Datenbanken zur Speicherung biomedizinischer Big Data untersucht, die in früheren Forschungen diskutiert und verwendet wurden.;-;-;-;https://link.springer.com/protocol/10.1007/978-1-4939-7046-9_5 c97d00124f28f2c92d6543a1769bc966;de;;;6.3.;;;Auf dem Weg zu einer Referenzarchitektur für Archivsysteme Die langfristige Aufbewahrung von Produktdaten ist für viele Unternehmen unerlässlich. Ein Produktdatenarchiv sollte so gestaltet sein, dass die Zugänglichkeit und das Verständnis von Informationen im Laufe der Zeit gewährleistet sind. Ansätze wie das Open Archival Information System (OAIS) Reference Model und das Audit and Certification of Trustworthy Digital Repositories (ACTDR) bieten einen Rahmen für die konzeptionelle Beschreibung und Bewertung von Archiven. Diese Ansätze sind generisch und konzentrieren sich nicht auf bestimmte Kontexte oder Inhaltstypen. Die Unternehmensarchitektur bietet eine Möglichkeit, Systeme in ihren potenziell komplexen Umgebungen zu beschreiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41501-2_8 74d45972aa4d2ece9f0e6e8ab2f8a500;de;;;6.3.;;;e-BioFlow: Verbesserung der praktischen Nutzung von Workflow-Systemen in der Bioinformatik Workflow-Management-Systeme (WfMS) sind nützliche Werkzeuge für Bioinformatiker. Da sich die Erfahrungen mit der Verwendung von WfMSs häufen, werden Unzulänglichkeiten der gegenwärtigen Systeme offensichtlich. In diesem Papier konzentrieren wir uns auf praktische Probleme, die WfMS-Benutzer behindern und die bei der Gestaltung und Ausführung von Arbeitsabläufen und beim Zugriff auf Webdienste auftreten. Wir präsentieren e-BioFlow, eine Workflow-Engine, die demonstriert, wie eine Reihe dieser Probleme gelöst werden können. e-BioFlow bietet eine verbesserte Benutzeroberfläche, kann mit großen Datenmengen umgehen, speichert alle Provenienzen und verfügt über einen leistungsstarken Provenienzbrowser. e-BioFlow bietet auch die Möglichkeit, Workflows Schritt für Schritt zu entwerfen und auszuführen, was seinen Benutzern einen explorativen Forschungsstil ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15020-3_1 71011ecd6bc62e10c2050308738439a4;de;;;6.3.;;;Fruchtwasserstoffwechselanalyse bei spontaner Frühgeburt Um metabolische Veränderungen im Zusammenhang mit einer frühen spontanen Frühgeburt (PTB, <34 Wochen) und Termingeburten zu identifizieren, unter Verwendung von Hochdurchsatz-Metabolomik von Fruchtwasser (AF) in der afroamerikanischen Bevölkerung.;-;-;-;https://link.springer.com/article/10.1177/1933719113518987 8245bb5ca4e7a07bae16f5da89c2f419;de;;;6.3.;;;Situationsbewusstsein in weltraumbasierten drahtlosen Blockchain-Netzwerken Blockchain ist eine neue Art von kryptografisch verteiltem Netzwerktransaktionsabrechnungssystem. Blockchain verwendet einige neue Sicherheitsideen, -methoden und -technologien in seinem Design, um die realen Sicherheitsanforderungen verschiedener Arten von groß angelegten Netzwerktransaktionen weltweit zu erfüllen. In diesem Papier diskutieren wir den Stand der Technik in weltraumbasierten drahtlosen Blockchain-Netzwerken und stellen die zukünftigen Herausforderungen in einem solchen Szenario dar, die zu zukünftigen Forschungen in diesem Bereich führen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-5937-8_3 31433579ff367006eb6a500f42433697;de;;;6.3.;;;Die NCI High Performance Computing and High Performance Data Platform zur Unterstützung der Analyse von Petascale-Umweltdatensammlungen Die National Computational Infrastructure (NCI) der Australian National University (ANU) hat einen prioritären Satz von über 10 PetaByte (PByte) nationaler Datensammlungen in einer HPC-Forschungseinrichtung untergebracht. Die Einrichtung bietet eine integrierte Hochleistungs-Rechen- und Speicherplattform oder eine High Performance Data (HPD)-Plattform, um die riesigen Datenmengen aus dem gesamten Spektrum der Umweltsammlungen – insbesondere aus den Bereichen Klima, Umwelt und Geowissenschaften – zu bedienen und zu analysieren. Die Daten werden in Zusammenarbeit mit Regierungsbehörden, großen akademischen Forschungsgemeinschaften und kooperierenden ausländischen Organisationen verwaltet. Durch die Zusammenlegung der riesigen Datensammlungen mit Hochleistungsrechenumgebungen und die Harmonisierung dieser großen wertvollen Datenbestände haben sich neue Möglichkeiten für eine datenintensive interdisziplinäre Wissenschaft in bisher nicht möglichem Maßstab und Auflösung ergeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-15994-2_58 cbaefbe6658d4e5e1c521d7a02729648;de;;;6.3.;;;Gespräche und Verbindungen: Verbesserung von Gesundheitsdaten in Echtzeit im Interesse des öffentlichen Interesses public Echtzeitdaten und Big-Data-Analysen stehen an der Spitze und Zukunft des Gesundheitswesens. Aktuelle Trends zeigen ein wachsendes Interesse und Engagement für den Aufbau von Echtzeit-Datenanwendungen und Big-Data-Unternehmen. Diese Bewegung muss von Unterstützung, Engagement und gründlicher Zusammenarbeit begleitet werden. Daten, die sich als wertvoll erweisen, müssen die Programmimplementierung, skalierte Initiativen und effektive Forschung vorantreiben. Auch die prädiktive Modellierung für Überwachung, öffentliche Gesundheit und klinische Anwendung muss sich als kosteneffizient erweisen. Die Unterstützung und Weiterentwicklung hierfür muss von allen im Gesundheitswesen angenommen werden, von der Erstanwendung bis hin zur Einbindung in alltägliche Anwendungen. Darüber hinaus kann die globale öffentliche Gesundheit unterstützt werden und sollte die Entwicklung von Echtzeit-Datensystemen für Transparenz, prädiktive Analysen und robuste Überwachung umfassen. Wenn Big Data zuverlässig aggregiert und angewendet wird, können alle Interessengruppen und die Öffentlichkeit von Big Data profitieren. Diese Chance sollte verbessert, realisiert und gepflegt werden.;-;-;-;https://link.springer.com/article/10.1007/s12553-019-00296-6 bfbd754f2f0840e28e377fdacb8b9ffa;de;;;6.3.;;;Einbeziehung von Bibliothekaren in den Prozess der Verknüpfung von RDF-Ressourcen Durch die Veröffentlichung von Metadaten als RDF und die Verknüpfung dieser Ressourcen mit anderen RDF-Datensätzen im Semantic Web haben Bibliotheken das Potenzial, ihre Sammlungen einem größeren Publikum zugänglich zu machen, die Nutzung ihrer Materialien zu erhöhen und eine effizientere Benutzersuche zu ermöglichen. Trotz dieser Vorteile gibt es viele Hindernisse für Bibliotheken, die vollständig am Semantic Web teilnehmen. Immer mehr Bibliotheken investieren wertvolle Zeit und Ressourcen in die Veröffentlichung von RDF-Datensätzen, werden aber aufgrund fehlender Vernetzung wenig sinnvoll genutzt. Das Ziel dieser Forschung ist es, die Barrieren zu untersuchen, mit denen Bibliothekare bei der Teilnahme am Semantic Web konfrontiert sind, mit besonderem Fokus auf den Prozess der Vernetzung. Wir werden auch untersuchen, wie die Verknüpfung für diesen Bereich ansprechender gestaltet werden könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-58451-5_16 fd40563172008b46817aac4aedf7568c;de;;;6.3.;;;Selektive Resektion des Cushing-Mikroadenoms durch präoperative Hybrid-18-Fluorethyl- Die 11-C-Methionin (MET)-Positronen-Emissions-Tomographie (PET) als Ergänzung zur Magnetresonanztomographie (MRT) wurde als geeignetes molekulares Bildgebungsverfahren zur Lokalisierung von Hypophysenadenomen bei Morbus Cushing vorgeschlagen. 18-F-Fluorethyl-;-;-;-;https://link.springer.com/article/10.1007/s11102-021-01160-5 7d4c4a811c536aac86ff0aedf83cf2d0;de;;;6.3.;;;Priorisieren von Aufgaben mithilfe des Aktivitätsmodells des Benutzer-Support-Mitarbeiters (USWAM) Service Desk ist weit verbreitet, um die Benutzerunterstützung in einer Organisation bereitzustellen. Im Bereich der e-Research gibt es jedoch nur wenige Studien, die durchgeführt wurden, um die Benutzerunterstützungsdienste oder Benutzerdienste zu verbessern. Es wurde wenig getan, um die Motivation der Mitarbeiter von e-Science-Infrastrukturen zu verbessern, eingehende Benutzeranfragen, sogenannte Incidents, zu bedienen. In diesem Beitrag wird das User-Support-Worker’s Activity Model (USWAM) vorgestellt, das die Interaktivität der Mitarbeiter von Cyber-Infrastrukturen mit den Vorfällen verbessert. Darüber hinaus verbessert das Modell nicht nur die Bearbeitung der eingehenden Benutzeranfragen, sondern auch die Verwaltung der den Mitarbeitern zugewiesenen Kernaktivitäten über Visualisierungswarteschlangen und Matrizen im UI. Anschließend hilft USWAM den Mitarbeitern, das Interesse an der Unterstützung der Benutzer zu behalten, ähnlich wie beim Spielen eines Spiels. Erfüllte Aufgaben können in Form von Geld/Geschenken oder Anerkennungen belohnt werden. Schließlich kann USWAM auf andere serviceorientierte Domänen übertragen werden, in denen eine Priorisierung oder Verwaltung von Aufgaben erforderlich ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-40397-7_36 e6c105988da7944c4809e301cdc98812;de;;;6.3.;;;Markerunterstützte Zucht Marker-Assisted Breeding (MAB) basiert auf den Theorien und Technologien der Molekularbiologie, um die Effizienz der konventionellen Züchtung zu verbessern. Molekulare Marker können bei der markergestützten Selektion (MAS) angewendet werden, die von der genetischen Verknüpfung zwischen Zielgen(en) oder quantitativen Trait-Loci (QTLs) und Phänotypen profitiert. Die Erstellung einer molekulargenetischen Karte und der Nachweis der mit dem Zielmerkmal verknüpften Marker sollten vor der MAS durchgeführt werden. Für quantitative Merkmale besteht das grundlegende Verfahren darin, DNA-Marker, die mit dem quantitativen Merkmal verknüpft sind, über QTL-Kartierung nachzuweisen. Molekulare Marker können auch für die Rückkreuzungszüchtung verwendet werden, die häufig verwendet wird, um in relativ kurzer Zeit ein einzelnes agronomisch wichtiges Merkmal von Spenderpflanzen in Elite-Empfängerpflanzen zu übertragen. Es müssen kostengünstige Hochdurchsatz-Assays für eine breite Anwendung von Marker-assisted Backcrossing (MABC)-Systemen entwickelt werden, und es wurden Strategien zur Optimierung solcher Systeme vorgeschlagen. Darüber hinaus verwendet MAB molekulare Marker zur Analyse der phylogenetischen Beziehungen des Keimplasmas und bei der Sortenidentifikation zum Schutz von Eigentumsrechten. In diesem Kapitel wird die allgemeine Anwendung molekularer Marker in der Pflanzenzüchtung erläutert, mit Schwerpunkt auf MAS, MABC, phylogenetische Analyse, Sortenidentifikation, Introgression von Genen aus exotischem Keimplasma und Techniken zur Hochdurchsatz-Markergenotypisierung. Mehrere Fallstudien zeigen praktische Anwendungen bei verschiedenen Pflanzenarten.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-9996-6_4 80a627fddbf607b88fff7e278fd897e5;de;;;6.3.;;;Schnelle Computerdiagnose für die tödliche zoonotische COVID-19-Infektion Der Lebenszyklus von SARS-CoV-2 ist komplex mit dem seines Wirts verknüpft, wodurch alle zukünftigen Behandlungen wirkungslos werden. In letzter Zeit kam es zu einer Verschiebung von Artenübergreifender Übertragung (Zoonose) → Intraspezies → Nosokomialer Übertragung, wodurch das Infektionsrisiko erhöht wurde. Im Konsortium mit der WHO war eine schnelle Computerdiagnose (RCD) dringend erforderlich, da sie die Wahrscheinlichkeit der Identifizierung von Verdachtsfällen erhöht und falsch positive Diagnosen minimiert. Etaware-CDT-2020 RCD-Modell „Y = α + β;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8534-0_12 6cc6d199de631ea502362d31800c460f;de;;;6.3.;;;Exom-Sequenzierung als Erkennungs- und Diagnosewerkzeug Die geschätzte Größe des menschlichen Genoms beträgt 2.872 Mbps, bestehend aus Genen und nicht-kodierenden DNA-Sequenzen. Ungefähr 1,5 % des menschlichen Genoms kodieren bekanntermaßen für Proteine, und dieser Teil ist das Exom. Es hat sich gezeigt, dass diese kodierende Sequenz evolutionär konservierter ist, also empfindlicher auf Veränderungen (Birney et al. 2007). Die sinkenden Kosten der Sequenzierung aufgrund der aufkommenden Next-Generation-Sequencing (NGS)-Technologien bieten die Möglichkeit, das Exom zu erschwinglichen Kosten für Genforschung und diagnostische Zwecke zu screenen. Die große Menge an Informationen, die aus dem Human Genom Sequencing, 1000 Genome Project, HapMap und Whole Exome Sequencing (WES)-Projekten gewonnen wurden, hat es uns ermöglicht, Sequenzänderungen mit einem höheren Maß an Sicherheit zu interpretieren (Abecasis et al. 2012, 2010, Tennessen et al.). al. 2012). Um mit den großen Sequenzierungsdatensätzen umzugehen, wurden verschiedene bioinformatische Werkzeuge entwickelt, um den Prozess der Annotation und Vorhersage von Sequenzänderungen zu automatisieren (Wang et al. 2010b). Aufgrund der massiven Parallelität von NGS umfassen Forschung und klinische Anwendungen von NGS die Sequenzierung vieler Gene, als gezielte Panels, Exome und sogar Genome. Eine Zunahme der veröffentlichten Ergebnisse hat die Katalogisierung von Polymorphismen und krankheitsassoziierten Mutationen in verschiedenen Datenbanken ermöglicht, darunter die Datenbank für Einzelnukleotidpolymorphismen (dbSNP), die Humangen-Mutationsdatenbank (HGMD), ENSEMBL, die 1000 Genome Project Database (;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-9032-6_8 99f2e5b7a907cc927e9db6fc7042cd76;de;;;6.3.;;;Anwendung der Bioinformatik und Systembiologie in der Heilpflanzenforschung Bioinformatik und Systembiologie haben heute eine wesentliche Rolle in der Erforschung von Heilpflanzen übernommen. Bei einer ständig wachsenden genomischen und proteomischen Information ist es notwendig, die Daten adäquat zu interpretieren. Die Bioinformatik hat zur Entdeckung neuer genetischer Akteure geführt und bei der Charakterisierung vieler neuer Gene und Proteine ​​geholfen. Darüber hinaus haben seine Werkzeuge dazu beigetragen, wichtige Beziehungen zwischen den verschiedenen molekularen Akteuren zu entschlüsseln. Da die Datenmenge jedoch exponentiell ansteigt, ist ein paralleles Wachstum der bioinformatischen Werkzeuge und Methoden unvermeidlich. Es besteht ständig die Notwendigkeit, neue Mittel zur Durchführung von Datenmanagement, -analyse, -visualisierung und -vorhersage zu entwickeln. In diesem Kapitel wurden die wichtigsten Anwendungen der Bioinformatik zum Verständnis der Heilpflanzenbiologie mit besonderem Schwerpunkt auf der Einbeziehung bioinformatischer Werkzeuge und Methoden diskutiert. Alle diese Aspekte wurden im Lichte der Omics-Technologien einschließlich Genomik, Transkriptomik, Proteomik und Metabolomik behandelt. Gegen Ende des Kapitels werden die aktuellen und zukünftigen Trends im Bereich der Bioinformatik für Heilpflanzen diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67156-7_15 b76a5efd669e76321de86479c654dd37;de;;;6.3.;;;Maskieren Sie R-CNN, um chemische Verbindungen in nanostrukturierten Materialien zu klassifizieren Künstliche Intelligenz ist heute das eiserne Pferd im Hochleistungsrechnen und löst Probleme, die vor 10 Jahren unmöglich waren. Diese Arbeit verwendet eine Deep-Learning-Technik namens Mask Region-Convolutional Neural Network (Mask R-CNN), die Bilder von nanostrukturierten Materialien verwendet, die von einem Transmissionselektronenmikroskop (TEM) mit einer räumlichen Auflösung im Nanobereich erhalten wurden. In diesen Bildern haben wir verschiedene Regionen mit spezifischer Struktur beobachtet, die dem Materialsystem Yttriumsilikat und Siliziumoxid entsprechen. Die Architektur Mask R-CNN wurde mit TEM-Bildern trainiert und führt die Klassifizierung, Lokalisierung und Segmentierung chemischer Verbindungen mit einem Datensatz von 26 Bildern durch und erreicht dabei eine Genauigkeit von über 90%.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30648-9_52 be17b8325d4347a155f7c60faaa9b0f4;de;;;6.3.;;;Der Roboter, der mich liebte: Aufbau von Bewusstseinsmodellen zur Verwendung in der Mensch-Roboter-Interaktion nach einem kollaborativen Systemansatz Wir bauen auf den Ergebnissen unseres MARIO-Projekts auf, um den Nutzen der Informationsforschung im Bereich der Entwicklung von Modellen für das menschliche Bewusstsein für den Einsatz durch Roboter zu unterstützen, um die Interaktion zwischen Mensch und Roboter mit Forschungsergebnissen aus dem Bereich kollaborativer Systeme zu erleichtern. Das Hauptergebnis einer solchen Forschung wäre ein Softwaremodell eines Roboterassistenten, das Funktionen und Merkmale eines „virtuellen Trainers“ mit eingebauter Evolutionsfähigkeit bieten könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99127-6_35 4ae886773fa473a4a177974d1574ab1d;de;;;6.3.;;;Wissensmanagement im Kontext von Tests auf humangenetische Variation (HGV) Obwohl Tests der humangenetischen Variation (HGV) für klinische und Forschungszwecke viele wertvolle Daten für das Gesundheitswesen und die Krankheitskontrolle liefern, wird die Fähigkeit zum Wissensmanagement (KM) in diesem Zusammenhang selten berichtet oder untersucht. Wir wenden organisatorische KM-Theorien an, um wesentliche Probleme beim Management von LKW-Wissen zu identifizieren. Wir überprüfen auch die wesentliche Qualität relevanter KM-Technologien wie Datenbank, Datenanalysetools, Suchmaschine, Groupware, Datenübermittlungstools und Workflow Management System (WfMS). Basierend auf der Prozessanalyse der wichtigsten Forschungsaktivitäten im Bereich der Lkw-Prüfung schlagen wir einen Ansatz für ein Wissensmanagementsystem (KMS) vor, um den Wissensfluss von Lkw zu erleichtern und die kooperative Lkw-Forschungsarbeit zu unterstützen. Durch die Erweiterung und Integration von KM-Tools soll eine Systemarchitektur entwickelt werden, um die wichtigsten Forschungsverfahren bei Lkw-Prüfungen zu unterstützen, die Qualität der Forschungsdokumentation zu verbessern, die Wissenserfassung und -verbreitung zu erhöhen und die Forschungskooperation und den Wissensaustausch in diesem Bereich zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72863-4_56 a73f5aa68f2bbfb2d75841a70b06778e;de;;;6.3.;;;Das Compact-City-Paradigma und seine zentrale Bedeutung für den nachhaltigen Urbanismus im Zeitalter der Big-Data-Revolution: Ein umfassender Literaturüberblick über den aktuellen Stand der Technik Nachhaltige Städte sind seit den frühen 1990er Jahren das führende globale Paradigma des Urbanismus, dank der verschiedenen Modelle einer nachhaltigen Stadtform, die als neue Rahmenbedingungen für die Neugestaltung und Umstrukturierung urbaner Orte vorgeschlagen wurden, um das urbane Leben nachhaltiger zu gestalten. Die kompakte Stadt ist das am meisten bevorzugte Modell für nachhaltigen Urbanismus, um auf die Herausforderungen einer nachhaltigen Entwicklung zu reagieren. Trotz der von den Befürwortern dieses Modells behaupteten Vorteile weisen seine Kritiker jedoch auf eine Reihe von Konflikten und Streitigkeiten hin. Dies ist mit mehreren Problemen, Fragen und Herausforderungen verbunden, wenn man das sehr fragmentierte Bild der Veränderungen vor Ort angesichts der Urbanisierung betrachtet. In diesem Zusammenhang wurde vorgeschlagen, dass die kompakte Stadt das, was fortschrittliche IKT zu bieten hat, nutzen und nutzen muss, um ihren Beitrag zur Nachhaltigkeit zu verbessern, voranzutreiben und aufrechtzuerhalten. Vor diesem Hintergrund bietet dieses Kapitel einen umfassenden Überblick über den kompakten Urbanismus als eine Reihe von Planungs- und Entwicklungspraktiken und -strategien, wobei der Schwerpunkt auf den drei Dimensionen der Nachhaltigkeit und dem bedeutenden, aber noch ungenutzten Potenzial großer Datentechnologie zur Verbesserung solcher Praktiken und Strategien im Rahmen des sogenannten „datengetriebenen intelligenten nachhaltigen Urbanismus“. In diesem Kapitel werden Kompaktheit, Dichte, Vielfalt, gemischte Landnutzung, nachhaltiger Verkehr und Grünflächen als die vorherrschenden Gestaltungsstrategien der kompakten Stadt identifiziert. Das Herzstück dieses Modells ist die klare Synergie zwischen den zugrunde liegenden Strategien in Bezug auf ihre Zusammenarbeit, um kombinierte Wirkungen zu erzielen, die im Hinblick auf den dreigliedrigen Wert der Nachhaltigkeit größer sind als die Summe ihrer Einzelwirkungen. Tatsächlich bestätigt dieses Kapitel, dass die kompakte Stadt durch ihre Fähigkeit gerechtfertigt ist, zu den ökologischen, wirtschaftlichen und sozialen Zielen einer nachhaltigen Entwicklung beizutragen. Dennoch scheinen die ökonomischen Ziele gegenüber den ökologischen und sozialen Zielen zu dominieren, ungeachtet der allgemeinen Behauptung, dass die drei Nachhaltigkeitsdimensionen gleich wichtig und sich gegenseitig bedingen. Darüber hinaus zeigt dieses Kapitel, dass die Big-Data-Technologie ein großes Potenzial zur Verbesserung des kompakten Urbanismus in Bezug auf Nachhaltigkeit birgt. Diese gründliche Überprüfung und Kritik der bestehenden Arbeiten zur kompakten Stadt bietet eine Referenz für Forscher und Praktiker in verwandten Gemeinschaften und das notwendige Material, um diese Gemeinschaften über die neuesten Entwicklungen auf dem Gebiet des kompakten Urbanismus und seiner Beziehung zu datengesteuertem Smart zu informieren Urbanismus. Diese Arbeit dient dazu, verschiedene städtische Akteure über die Vorteile datengetriebener intelligenter Lösungen zur Förderung der Nachhaltigkeit zu informieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-41746-8_2 baad2793d4d693d0ba2df70e7f87275b;de;;;6.3.;;;Ein statistischer Ansatz zur Identifizierung, Überwachung und Verwaltung unvollständiger kuratierter Datensätze Viele biologische Wissensdatenbanken sammeln Daten durch fachkundige Kuratierung veröffentlichter Literatur. Hohes Datenvolumen, selektive teilweise Kuration, Verzögerungen beim Zugriff und Veröffentlichung von Daten vor der Möglichkeit der Kuratierung können zu einer unvollständigen Kuration veröffentlichter Daten führen. Zu wissen, welche Datensätze unvollständig sind und wie unvollständig sie sind, bleibt eine Herausforderung. Das Bewusstsein, dass ein Datensatz unvollständig sein kann, ist wichtig für die richtige Interpretation, um eine fehlerhafte Hypothesengenerierung zu vermeiden, und kann eine weitere Untersuchung der veröffentlichten Literatur nach weiteren relevanten Daten rechtfertigen. Es werden Computermethoden benötigt, um die Vollständigkeit der Datensätze zu beurteilen. Eine solche Methode wird hier vorgestellt.;-;-;-;https://link.springer.com/article/10.1186/s12859-018-2121-6 bc698d114691fc201254dbc1c0408775;de;;;6.3.;;;Messung des globalen Geldflusses: Integrierter Rahmen, Datenquellen und Ansätze Dieses Kapitel zielt darauf ab, eine Probemessung für den globalen Mittelfluss (GFF) bereitzustellen, wie er in vier Abschnitten erörtert wird. Zunächst wird das Papier GFF definieren, um seine statistischen Domänen zu bestimmen. Zweitens legt das Dokument die Ideen und vorhandenen Datenquellen dar und integriert sie, um die GFF zu messen. Diese Konzepte und Datenquellen spiegeln sich in der Zahlungsbilanz, dem Auslandsvermögensstatus (IIP), der koordinierten Direktinvestitionserhebung (CDIS), der koordinierten Portfolioinvestitionserhebung, der konsolidierten Bankenstatistik (CBS) und der;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7720-8_7 18c96b82d922e74ce0169bad8fcbaff9;de;;;6.3.;;;Ein Vergleich überwachter Lernschemata zur Erkennung von Such- und Rettungsschiffsmustern (SAR) Das übergeordnete Ziel dieser Arbeit ist es, eine systematische Analyse mehrerer Standard-Klassifizierungsalgorithmen für maschinelles Lernen durchzuführen und ihre Fähigkeit zu bewerten, Such- und Rettungsmuster (SAR) aus verrauschten Daten des automatischen Identifikationssystems (AIS) zu klassifizieren. Insbesondere werten wir Entscheidungsbäume, Random Forests und Gradient Boosted Trees anhand einer großen Menge historischer AIS-Daten aus, um SAR-Aktivitäten von Schiffstrajektorien auf skalierbare, datengesteuerte und überwachte Weise zu erkennen, ohne auf externe Informationsquellen angewiesen zu sein ( zB Berichte der Küstenwache). Unsere Analyse bestätigt, dass es möglich ist, SAR-Muster zu identifizieren, während die Ergebnisse zeigen, dass, obwohl alle Algorithmen in der Lage sind, eine hohe Genauigkeit zu erreichen, Random Forests die anderen in Bezug auf Leistung und Ausführungsgeschwindigkeit geringfügig übertreffen.;-;-;-;https://link.springer.com/article/10.1007/s10707-019-00365-y 361154bc70a8a33ad1fba8d57a223eb0;de;;;6.3.;;;Einfluss molekularer Deskriptoren auf Rechenmodelle Molekulare Deskriptoren kodieren eine breite Vielfalt molekularer Informationen und sind zur Unterstützung vieler zeitgenössischer chemoinformatischer und bioinformatischer Anwendungen geworden. Sie erfassen spezifische molekulare Merkmale (z. B. Geometrie, Form, Pharmakophore oder atomare Eigenschaften) und wirken sich direkt auf Computermodelle in Bezug auf Ergebnis, Leistung und Anwendbarkeit aus. Dieses Kapitel zielt darauf ab, den Einfluss verschiedener molekularer Deskriptoren auf die erfassten Strukturinformationen und auf die wahrgenommene chemische Ähnlichkeit zwischen Molekülen zu veranschaulichen. Nach der Einführung in die grundlegenden Konzepte der Theorie und Anwendung molekularer Deskriptoren führt ein schrittweises retrospektives virtuelles Screening-Verfahren Benutzer durch die grundlegenden Verarbeitungsschritte und diskutiert die Auswirkungen verschiedener Arten von molekularen Deskriptoren.;-;-;-;https://link.springer.com/protocol/10.1007/978-1-4939-8639-2_5 33b2a9a37d75c3420dc3bfaaea22304e;de;;;6.3.;;;Verwaltung biologischer Netzwerke durch Text-Mining und computergestützte Kuration Um einen biologischen Mechanismus in einer Zelle zu verstehen, sollte ein Forscher eine Vielzahl von Proteininteraktionen mit experimentellen Daten aus Experimenten und der Literatur sammeln. Text-Mining-Systeme, die biologische Wechselwirkungen aus Papieren extrahieren, werden seit einigen Jahrzehnten zum Aufbau biologischer Netzwerke verwendet. Obwohl das Text-Mining von Literatur notwendig ist, um ein biologisches Netzwerk zu konstruieren, stehen Biologen, die ihre eigenen biologischen Netzwerke konstruieren möchten, nur wenige Systeme mit einem Text-Mining-Tool zur Verfügung. Wir haben ein biologisches Netzwerkkonstruktionssystem namens BioKnowledge Viewer entwickelt, das mithilfe eines Text-Mining-Tools und biologischer Tagger ein biologisches Interaktionsnetzwerk generieren kann. Es bietet auch eine Boolesche Simulationssoftware, um ein biologisches Modellierungssystem bereitzustellen, um das Modell zu simulieren, das mit dem Text-Mining-Tool erstellt wurde. Ein Benutzer kann PubMed-Artikel herunterladen und ein biologisches Netzwerk aufbauen, indem er das Multi-Level Knowledge Emergence Model (KMEM), MetaMap und A Biomedical Named Entity Recognizer (ABNER) als Text-Mining-Tool verwendet. Um das System zu evaluieren, haben wir durch manuelle Kuration ein alterungsbezogenes biologisches Netzwerk aus 9.415 Knoten (Genen) konstruiert. Mit der Netzwerkanalyse fanden wir heraus, dass mehrere Gene, darunter JNK, AP-1 und BCL-2, im alternden biologischen Netzwerk stark verwandt waren. Wir bieten eine halbautomatische Kurationsumgebung, damit Benutzer eine Graphdatenbank zur Verwaltung von Text-Mining-Ergebnissen erhalten, die im Serversystem generiert werden, und mit dem BioKnowledge Viewer, der unter http://bioknowledgeviewer.kisti frei verfügbar ist, im Netzwerk navigieren können. re.kr.;-;-;-;https://link.springer.com/article/10.3938/jkps.67.1692 e936c5c3b5754207eea3ba2881c905bd;de;;;6.3.;;;Die Herausforderung von Big Data und Data Mining in der Altersforschung Das Bevölkerungswachstum und die schnelle Entwicklung verschiedener Technologien in fast allen Bereichen menschlicher Aktivitäten sind heutzutage eine Konstante in der modernen Gesellschaft. Folglich werden jeden Tag eine enorme Menge an Informationen aus vielen Quellen generiert, wie z. B.: Webinformationen, Mobiltelefone, soziale Medien, wissenschaftliche Berichte, medizinische und Gesundheitsinformationen unter anderem, was zu sogenannten Big Data führt. Digitalisierung, Speicherung, Sammlung und insbesondere Analyse von Mustern dieser Daten haben zu Fortschritten in den Datenwissenschaften (Data Mining) geführt, um aus solchen Datenbanken täglich wertvolle Informationen über die Bedürfnisse, Bedürfnisse, Hobbys und Aktivitäten von Menschen zu gewinnen (Big Knowledge). Andererseits ist das Altern zu einer der Hauptherausforderungen moderner Gesellschaften geworden, da die Prävalenz chronischer pathologischer Erkrankungen und altersbedingter Folgen zunimmt. Die biomedizinische und klinische Forschung hat in den letzten Jahren mit der Implementierung von Omics-Technologien und der Digitalisierung des Gesundheitswesens mehrere Fortschritte gemacht. In diesem Zusammenhang werden Big Data und Data Mining zu einem leistungsstarken Werkzeug, um wertvolle Informationen zu gewinnen, mit denen die Komplexität der Alterungsprozess und die klinischen Implikationen für ältere Erwachsene. Mehrere Unternehmen und Regierungen auf der ganzen Welt haben bereits damit begonnen, diese Art von Technologien von der pharmazeutischen Entwicklung bis hin zu Fragen der öffentlichen Gesundheit erfolgreich umzusetzen. Obwohl die Zukunft vielversprechend erscheint, sind neue ganzheitliche Ansätze erforderlich, um eine multidisziplinäre Agenda umzusetzen, die uns helfen könnte, die Komplexität des menschlichen Alterns zu verstehen und geeignete Interventionen zu entwickeln, um die Gesundheit älterer Menschen in Gesundheitssystemen zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-95387-8_14 ce1d05c83010180e9e88f7364d9829eb;de;;;6.3.;;;Datenbanken für Pflanzenwege Pathway-Datenbanken liefern Informationen über die Rolle von Chemikalien, Genen und Genprodukten in Form von Protein oder RNA, deren Wechselwirkungen zur Formulierung von Stoffwechsel-, Transport-, Regulations- und Signalreaktionen führen. Die Reaktionen können dann durch das Prinzip der Eingaben und Ausgaben einer oder mehrerer Reaktionen angebunden werden, um Pfade zu schaffen. Dieses Kapitel enthält eine Liste verschiedener Online-Datenbanken, die Informationen über Pflanzenpfade enthalten, und bietet einen kurzen Überblick über die Verwendung der Pfaddatenbanken wie WikiPathways Plants Portal, MapMan und der Pfaddatenbanken für Getreidepflanzen wie RiceCyc und MaizeCyc, die mit Pathway-Tools-Software.;-;-;-;https://link.springer.com/protocol/10.1007/978-1-4939-3167-5_4 4d130bad44f8921216928a721cc47090;de;;;6.3.;;;EasyPath: Ein Open-Source-Tool für Human-in-the-Loop Deep Learning der Nierenpathologie In den letzten Jahren sind umfangreiche morphologische Phänotypisierungsstudien in der Nephrologie entstanden, die darauf abzielen, verborgene Gesetzmäßigkeiten zwischen klinischen und bildgebenden Phänotypen aufzudecken. Solche Studien wurden weitgehend durch eine auf Deep Learning basierende Bildanalyse ermöglicht, um spärlich lokalisierte Zielobjekte (z. B. Glomeruli) auf hochauflösenden Whole-Slide-Bildern (WSI) zu extrahieren. Solche Methoden müssen jedoch mit arbeitsintensiven, qualitativ hochwertigen Annotationen trainiert werden, die idealerweise von Pathologen beschriftet werden. Inspiriert von der jüngsten „Human-in-the-Loop“-Strategie haben wir EasierPath entwickelt, ein Open-Source-Tool zur Integration von Humanmedizinern und Deep-Learning-Algorithmen für eine effiziente groß angelegte pathologische Bildquantifizierung als Schleife. Mit EasierPath sind Ärzte in der Lage, (1) den Abruf und die Präzision von Ergebnissen der Deep-Learning-Objekterkennung adaptiv zu optimieren, (2) die Verfeinerung von Deep-Learning-Ergebnissen mithilfe unserer EasierPath- oder der gängigen ImageScope-Software nahtlos zu unterstützen, ohne die Benutzergewohnheiten des Arztes zu ändern, und (3) jedes Objekt mit benutzerdefinierten Klassen verwalten und phänotypisieren. Als Anwendungsfall von EasierPath präsentieren wir das Verfahren zur Kuratierung großflächiger Glomeruli in einer effizienten Human-in-the-Loop-Manier (mit zwei Schleifen). Aus den Experimenten sparte der EasierPath 57 % der Annotationsbemühungen ein, um 8.833 Glomeruli während der zweiten Schleife zu kuratieren. In der Zwischenzeit wurde die durchschnittliche Präzision der glomerulären Erkennung von 0,504 auf 0,620 erhöht. Die EasierPath-Software wurde als Open Source veröffentlicht, um das groß angelegte glomeruläre Prototyping zu ermöglichen. Den Code finden Sie in;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-61166-8_23 8c21114cde7d2faaea5fbc1eb3ca39ea;de;;;6.3.;;;Bioinformatik-Tools für die metagenomische Datenanalyse mit Schrotflinten Der enorme Fortschritt in der Next-Generation-Sequencing (NGS)-Technologie hat eine Lawine von sequenzbasierten Daten mit sich gebracht. Diese riesige Datenmenge hat zu neuen Herausforderungen für bestehende Bioinformatik-Tools in Bezug auf die Datenverarbeitung und anschließende Analysen geführt. Darüber hinaus erschwert die Komplexität solcher Daten die Aufgabe der Analyse metagenomischer Datensätze für verfügbare Bioinformatik-Pipelines. Hier beschäftigen wir uns mit verschiedenen bioinformatischen Tools, die online zur Analyse von WGS-basierten Metagenom-Datensätzen verfügbar sind und gleichzeitig deren Analysepipelines vergleichen. In den letzten zehn Jahren wurden über ein Dutzend solcher Online-Tools/Server entwickelt, die gemeinfrei zugänglich sind. IMG/M und MG-RAST sind zwei der beliebtesten Tools, gemessen an der Anzahl der Zitate, die sie in peer-reviewed wissenschaftlichen Zeitschriften bis Dezember 2016 erhalten haben. Dieses Kapitel diskutiert und vergleicht 11 Online-Bioinformatik-Tools, die ihre Handhabung von Sequenzdaten und Pipelines für Annotationen detailliert beschreiben , Sequenz-Clustering-Methoden, benutzerfreundliche Attribute und Machbarkeit des Datenrepositorys.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7455-4_6 7212e5ad7ca0dfd5375594207e43dcd1;de;;;6.3.;;;Australische Neuroinformatikforschung – Grid Computing und e-Research Die Australian National Neuroscience Facility (NNF) wurde gegründet, um australischen Neurowissenschaftlern den Zugang zu Netzwerken von Labors zu ermöglichen, die neurowissenschaftliche Beratung, technisches Fachwissen und modernste Ausrüstung anbieten. Die Einrichtung fördert neurowissenschaftliche Exzellenz und kombiniert Wissenschaft, Technologie, Innovation, Investitionen, Kreativität und die Möglichkeit, unser Verständnis und die Behandlung von Gehirn und Geist zu verbessern. Innerhalb der NNF wurde eine Neurowissenschaftsinformatik-Plattform mit dem Ziel eingerichtet, sowohl die nationalen neurowissenschaftlichen Forschungskapazitäten als auch die Kommerzialisierungsmöglichkeiten für die australische Gesundheits- und Biotechnologieindustrie zu verbessern. Die Plattform hat eine NeuroGrid-Einrichtung entwickelt, die aus Rechenressourcen und Grid-Middleware, über das Internet zugänglichen Neuroimage-Datenbanken und standardisierten Neuroimage-Analysetools besteht. Ein maßgeschneidertes NeuroGrid-Portal befindet sich derzeit in der Entwicklung. Es ist vorgesehen, dass die NeuroGrid-Einrichtung und die Softwaretools die Grundlage für die Anwendung von Grid-Computing-Technologien auf andere Bereiche der neurowissenschaftlichen Forschung bilden.;-;-;-;https://link.springer.com/chapter/10.1007/11539087_142 e19365633e2a57dad5ff5e71a617f3a1;de;;;6.3.;;;Die Rolle eines Ökosystems künstlicher Intelligenz in der Radiologie Die Übertragung von Werkzeugen der künstlichen Intelligenz für die diagnostische Bildgebung in die klinische Routinepraxis erfordert die Zusammenarbeit und Zusammenarbeit zwischen Entwicklern, Ärzten, Aufsichtsbehörden und Gesundheitssystemadministratoren. Radiologen können eine wichtige Rolle bei der Förderung dieses KI-Ökosystems spielen, indem sie KI-Anwendungsfälle für die diagnostische Bildgebung skizzieren und standardisierte Datenelemente und Schnittstellen zur Workflow-Integration entwickeln. Strukturierte KI-Anwendungsfälle, die spezifische Parameter für Datensätze für das Training und Testen von Algorithmen definieren, können mehrere Standorte für die Entwicklung von Trainings fördern, und Validierungsdatensätze, die dazu beitragen können, dass Algorithmen die technische, geografische und demografische Vielfalt in Patientenpopulationen und die Bilderfassung respektieren, sind frei von unbeabsichtigte Verzerrungen und sind auf die weit verbreitete klinische Praxis übertragbar. Medizinische Fachgesellschaften können durch die Entwicklung von Anwendungsfällen und die Entwicklung von Programmen zur unabhängigen Algorithmusvalidierung und Überwachung der Wirksamkeit und Sicherheit von KI-Tools in der klinischen Praxis durch KI-Register eine Rolle beim Schutz von Patienten vor unbeabsichtigten Folgen von KI spielen. Die Entwicklung und Implementierung von KI-Algorithmen für die medizinische Bildgebung wird von der Etablierung eines KI-Ökosystems profitieren, das Ärzte, Forscher, Softwareentwickler sowie staatliche Aufsichtsbehörden, die HIT-Branche und Krankenhausadministratoren umfasst, die alle daran arbeiten, KI-Tools sicher und effizient in den Markt einzuführen klinische Praxis.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94878-2_19 958bd7f79845c70ed2c27d58cade1d4d;de;;;6.3.;;;Historientabellenbasiertes lineares Analyseverfahren für DRAM-PCM-Hybridspeichersysteme Diese Forschung dient der Entwicklung eines auf Historientabellen basierenden linearen Analyseverfahrens für ein DRAM-PCM (Phase Change Memory) Hybridspeichersystem, das unregelmäßige und komplexe Speicherzugriffsmuster in Graphverarbeitungsanwendungen unterstützt. Diese lineare Analysemethode kann komplexe Speicherzugriffsmuster in Echtzeit durch unsere Verlaufstabellenstruktur analysieren und die vom LLC (Last-Level-Cache) angeforderten Adresswerte als die Prefetch-Kandidaten klassifizieren. Außerdem besteht das vorgeschlagene Verfahren darin, eine Vorabrufoperation vom Speicher auf den Hybrid-Hauptspeicher zu unterstützen, was erhebliche Latenzverluste verursacht. Insbesondere haben wir ein neues Speichermusteranalyseverfahren vorgeschlagen, das als lineare Analyse basierend auf einer Verlaufstabelle bezeichnet wird, um lineare Speicherzugriffsmuster aus Arbeitslasten zu erkennen, die unregelmäßige Zugriffseigenschaften aufweisen. Für den DRAM-PCM-Hybridspeicher werden dynamische Daten, auf die häufig zugegriffen wird, im DRAM gespeichert. Somit kategorisiert unsere lineare Analyse nicht nur Speicherzugriffsmuster in Form von Linienmustern, sondern trennt auch dynamische und statische Daten, sodass die Hybridspeichersysteme adaptiv und effizient verwaltet werden können. Unsere Experimente zeigen, dass unser Modell die Leistung und den Energieverbrauch um 60 bzw. 30 % im Vergleich zu denen des herkömmlichen DRAM-only-Speichermodells verbessern kann. Darüber hinaus kann unser Ansatz die Gesamtsystemleistung und den Energieverbrauch im Vergleich zu optimierten Prefetcher-basierten Modellen um 11,3 % bzw. 6,8 % steigern.;-;-;-;https://link.springer.com/article/10.1007/s11227-021-03786-5 211c8b4390e88cf544b1657ac27a6ae8;de;;;6.3.;;;The Materials Commons: Eine Kollaborationsplattform und ein Informationsspeicher für die globale Materialgemeinschaft Um das Tempo der Materialforschung und -entwicklung zu beschleunigen, sind neue Ansätze und Mittel für die Zusammenarbeit und den Informationsaustausch erforderlich. Um diesem Bedarf gerecht zu werden, entwickeln wir die Materials Commons, eine Kollaborationsplattform und ein Informationsrepositorium zur Nutzung durch die Baustoff-Community. The Materials Commons wurde als kontinuierlicher, nahtloser Teil des wissenschaftlichen Workflow-Prozesses konzipiert. Die Forscher laden die Ergebnisse von Experimenten und Berechnungen während der Durchführung, soweit möglich, automatisch zusammen mit den Herkunftsinformationen hoch, die die experimentellen und rechnerischen Prozesse beschreiben. Die Materials Commons-Website bietet eine benutzerfreundliche Oberfläche zum Hoch- und Herunterladen von Daten und Datenherkunft sowie zum Suchen und Teilen von Daten. Dieses Papier bietet einen Überblick über die Materials Commons. Es werden auch Konzepte für die Integration der Materials Commons in die breitere Materialinformationsinfrastruktur skizziert, die sich zur Unterstützung der Materials Genome Initiative entwickelt.;-;-;-;https://link.springer.com/article/10.1007/s11837-016-1998-7 e1ea58f4c614ac7aaf0bf7fa8ca7a9d2;de;;;6.3.;;;Molekulare Deskriptoren für Struktur-Aktivitäts-Anwendungen: Ein praktischer Ansatz Molekulare Deskriptoren erfassen verschiedene Teile der Strukturinformation von Molekülen und sind die Grundlage vieler moderner computergestützter toxikologischer und chemischer Anwendungen. Nach einer kurzen Einführung in einige grundlegende Konzepte von Struktur-Aktivitäts-Anwendungen (z. B. Dimensionalität molekularer Deskriptoren, klassische vs. Fingerabdruck-Beschreibung und Aktivitätslandschaften) führt dieses Kapitel die Leser durch eine schrittweise Erklärung der Begründung und Anwendung molekularer Deskriptoren. Zu diesem Zweck veranschaulicht das Kapitel eine Fallstudie einer kürzlich veröffentlichten Anwendung molekularer Deskriptoren zur Modellierung der Aktivität auf Cytochrom P450.;-;-;-;https://link.springer.com/protocol/10.1007/978-1-4939-7899-1_1 a7912c57b6f468d5683c2d060c610a9c;de;;;6.3.;;;Datenintegrationslösung für organspezifische Studien: Eine Anwendung für die Oralbiologie Die menschliche Mundhöhle ist ein komplexes Ökosystem, in dem mehrere Wechselwirkungen auftreten und dessen Verständnis für das Verständnis verschiedener Krankheitsmechanismen entscheidend ist. Um die Zusammensetzung der Mundhöhle auf molekularer Ebene zu verstehen, ist es notwendig, die biologischen Informationen, die sich aus spezifischen Techniken, insbesondere aus proteomischen Studien des Speichels, ergeben, zusammenzutragen und zu integrieren. Das Ziel dieser Arbeit war es, eine spezifische Gruppe von Proteinen im Zusammenhang mit der Mundhöhle zusammenzustellen und zu kuratieren, um ein Werkzeug für weitere Studien des Speichel-Proteoms bereitzustellen. In diesem Artikel stellen wir eine Plattform vor, die alle verfügbaren Informationen für Proteine, die mit der Mundhöhle assoziiert sind, in einem einzigen Endpunkt integriert. Das vorgeschlagene Werkzeug ermöglicht es Forschern in den biomedizinischen Wissenschaften, Mikroorganismen, Proteine ​​und Krankheiten zu erforschen, und stellt ein einzigartiges Werkzeug dar, um sinnvolle Wechselwirkungen für die Mundgesundheit zu analysieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38256-7_27 c2e1afb47d6756e6a51eb6b1b270fa97;de;;;6.3.;;;P-PIF: ein ProvONE Provenance Interoperability Framework zur Analyse heterogener Workflow-Spezifikationen und Provenance Traces Die Ermöglichung der Provenienzinteroperabilität durch die Analyse heterogener Provenienzinformationen aus verschiedenen wissenschaftlichen Workflow-Management-Systemen ist ein neues Forschungsthema. Mit dem Aufkommen des ProvONE-Modells ist es nun möglich, sowohl die prospektive als auch die retrospektive Provenienz in einem einzigen Provenienzmodell zu modellieren. Wissenschaftliche Workflows werden mithilfe einer deklarativen Definitionssprache wie BPEL, SCUFL/t2flow oder MoML erstellt. Mit der Ausführung eines Workflows verbunden ist seine entsprechende Provenienz, die in dem vom Workflow-System vorgegebenen Datenmodell modelliert und gespeichert wird. Die gemeinsame Nutzung der durch heterogene Workflows generierten Provenienz ist jedoch eine anspruchsvolle Aufgabe und verhindert die aggregierte Analyse und den Vergleich von Workflows und ihrer zugehörigen Provenienz. Um diesen Herausforderungen zu begegnen, stellt dieses Papier ein ProvONE-basiertes Provenance Interoperability Framework vor, das die Modellierung der Provenienz aus heterogenen WfMSs vollständig automatisiert, indem es: (a) die wissenschaftlichen Arbeitsabläufe automatisch in ihre äquivalente Darstellung in einem provONE prospektiven Graphen unter Verwendung des Prov2ONE-Algorithmus übersetzt, ( b) Anreichern des prospektiven ProvONE-Graphen mit der retrospektiven Provenienz, die von den WfMSs exportiert wurden, und (c) native Unterstützung zum Speichern der ProvONE-Herkunftsgraphen in einem Resource Description Framework-Triplestore, der die SPARQL-Abfragesprache zum Abfragen und Abrufen von ProvONE-Graphen unterstützt. Der Prov2ONE-Algorithmus basiert auf einer Reihe von Vokabelübersetzungsregeln zwischen den Workflow-Spezifikationen und dem ProvONE-Modell. Der Korrektheits- und Vollständigkeitsnachweis des Algorithmus wird gezeigt und seine Komplexität wird analysiert. Um die praktische Anwendbarkeit des gesamten Frameworks zu demonstrieren, werden außerdem ProvONE-Graphen für Workflows generiert, die in BPEL, SCUFL und MoML definiert sind. Schließlich werden die Provenance-Challenge-Abfragen um sechs zusätzliche Abfragen zum Abrufen der in ProvONE modellierten Provenance erweitert.;-;-;-;https://link.springer.com/article/10.1007/s10619-017-7216-y e698abc1d47e82e9f7b33770feff385c;de;;;6.3.;;;Modulräume phylogenetischer Bäume, die evolutionäre Muster von Tumoren beschreiben Krebserkrankungen folgen einer klonalen Darwinschen Evolution, bei der fittere Subklone mehr ruhende Zellen ersetzen, was letztendlich zu makroskopischen Krankheiten führt. Die Hochdurchsatz-Genomik bietet die Möglichkeit, diese Prozesse zu untersuchen und spezifische genetische Veränderungen zu bestimmen, die das Fortschreiten der Krankheit vorantreiben. Die genomische Probenahme des Krebses eines Patienten liefert eine molekulare Geschichte, die durch einen phylogenetischen Baum dargestellt wird. Kohorten von Patienten repräsentieren einen Wald verwandter phylogenetischer Strukturen. Um klinisch relevante Informationen zu extrahieren, muss man diese Baumsammlungen darstellen und statistisch vergleichen. Wir schlagen einen Rahmen vor, der auf einer Anwendung der Arbeit von Billera, Holmes und Vogtmann über phylogenetische Baumräume auf den Fall unbewurzelter Bäume von intraindividuellen Krebsgewebeproben basiert. Wir beobachten, dass diese Baumräume global nicht positiv gekrümmt sind, was statistische Rückschlüsse auf Populationen von Patientengeschichten ermöglicht. Ein projektiver Baumraum wird eingeführt, der die Visualisierung evolutionärer Muster ermöglicht. Veröffentlichte Daten von vier Arten menschlicher Malignome werden in unserem Rahmen untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09891-3_48 3ac2058d6551106ebb8c01e0027acca4;de;;;6.3.;;;Technologische Paradigmen In den vorangegangenen Kapiteln haben wir diskutiert, wie Philosophen, Wissenschaftler und Ingenieure gleichermaßen die Idee konstruieren, dass Computersimulationen eine „neue Erkenntnistheorie“ für die wissenschaftliche Praxis bieten. Damit meinten sie, dass Computersimulationen neue – und vielleicht noch nie dagewesene – Formen des Kennens und Verstehens der umgebenden Welt einführen, Formen, die vorher nicht verfügbar waren. Während Wissenschaftler und Ingenieure betonen,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-90882-3_6 c384e000d75da8077ea7cb485bbdc9d7;de;;;6.3.;;;Erhaltung von Geodaten: die Verbindung mit der Entwicklung offener Standards Bemühungen um die Erhaltung von Geodaten können von der Entwicklung und Implementierung offener Standards profitieren, die sicherstellen, dass Daten nicht nur über Softwaresysteme hinweg, sondern auch über die Zeit hinweg interoperabel sind. Das Open Geospatial Consortium (OGC) ist ein internationales Industriekonsortium aus Unternehmen, Regierungsbehörden und Universitäten, die gemeinsam an der Entwicklung öffentlich verfügbarer Schnittstellenspezifikationen arbeiten. Die OGC-Spezifikationen unterstützen interoperable Lösungen, die das Web, drahtlose und standortbasierte Dienste sowie die Mainstream-Informationstechnologie „geoaktivieren“. Beispiele für OGC-Spezifikationen sind Web Mapping Service (WMS), Web Feature Service (WFS), WebCoverage Service (WCS), Geography Markup Language (GML) und OGC KML.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12733-5_6 ffdeef978363f400e138f5f6719b8619;de;;;6.3.;;;Abschwächung posttraumatischer Belastungen mit mehrfach ungesättigten Omega-3-Fettsäuren bei Mitgliedern des medizinischen Katastrophenhilfeteams nach dem großen Erdbeben im Osten Japans: Die randomisierte kontrollierte APOP-Studie Am 11. März 2011 ereignete sich vor der Küste der Region Sanriku ein Erdbeben der Stärke 9,0, das stärkste jemals in Japan aufgezeichnete Erdbeben, und ein massiver Tsunami. Ein Disaster Medical Assistance Team, ein mobiles medizinisches Team mit Spezialausbildung, das während der Akutphase einer Katastrophe eingesetzt wird, wurde in Gebiete mit großen Zerstörungen und mehreren Verletzten und Kranken entsandt. Frühere Studien haben über Critical Incident Stress (d. h. Symptome einer posttraumatischen Belastungsstörung und depressive Symptome) bei Rettungskräften sowie über die Notwendigkeit von Screening und Prävention für posttraumatische Belastungsstörungen berichtet. Bisher haben wir in einer offenen Studie gezeigt, dass die Symptome einer posttraumatischen Belastungsstörung bei schwerverletzten Patienten durch die Einnahme von Omega-3-Fettsäuren, die die Hippocampus-Neurogenese stimulieren sollen, reduziert werden können.;-;-;-;https://link.springer.com/article/10.1186/1471-244X-11-132 249beda919b85e9b461852d9d846eebe;de;;;6.3.;;;Genetische Determinanten der erworbenen Immunität gegen Malaria in einer großen multizentrischen Studie Viele Studien berichten über Zusammenhänge zwischen menschlichen genetischen Faktoren und der Immunität gegen Malaria, aber nur wenige wurden zuverlässig repliziert. Diese Studien sind in der Regel länderspezifisch, verwenden kleine Stichproben und sind aufgrund methodischer Unterschiede nicht direkt vergleichbar. Diese Studie führt Proben und Daten zusammen, die an mehreren Standorten in Afrika und Asien gesammelt wurden, um mit standardisierten Methoden nach konsistenten genetischen Auswirkungen auf die Anti-Malaria-Antikörperspiegel zu suchen.;-;-;-;https://link.springer.com/article/10.1186/s12936-015-0833-x c72b80197b85d7e8b2bca88799e166a0;de;;;6.3.;;;Bewertung des Mechanismus von Hindernissen für grüne Finanzen und öffentliche Ausgaben in kleinen und mittleren Unternehmen aus Industrieländern Aufgrund ihrer unterschiedlichen Fähigkeiten zur Verbesserung des Finanzwachstums und der sozialen Entwicklung wurden kleine und mittlere Unternehmen (KMU) als das Rückgrat der Wirtschaft bezeichnet. Kleine und mittlere Unternehmen sind für die finanzielle Entwicklung von Ländern mit hohem und niedrigem Einkommen von entscheidender Bedeutung. Kunden werden sich ihrer Kaufentscheidungen, Präferenzen und Umweltfolgen bewusster. In diesem Papier werden die finanziellen Möglichkeiten für KMU in den Vereinigten Arabischen Emiraten untersucht, grüne Innovationsmethoden einzusetzen, um potenzielle Hindernisse für die Zunahme grüner Güter, Prozesse und Management zu überwinden. und mittelständische Unternehmen. Um wesentliche Hürden, Teilbarrieren und Wege zur Überwindung von Hindernissen für grüne Innovation in den Vereinigten Arabischen Emiraten zu identifizieren, wenden wir einen integrierten Entscheidungsprozess an. Nach einer detaillierten Literaturanalyse und der Unterstützung von zwölf Experten wurden sechs Haupthindernisse, fünfundzwanzig Unterhindernisse und Strategien zum Abbau der Barrieren identifiziert. Primäre und untergeordnete Barrieren wurden mit dem FAHP bewertet. Für das Ranking der Strategien wurde der (FTOPSIS)-Ansatz verwendet. Fünf KMU in den Vereinigten Arabischen Emiraten testen das vorgeschlagene integrierte Entscheidungsmodell. „Finanzinvestitionen von 0,646 bis 11 Prozent Wachstumsniveau“ sind laut FAHP die größten Hürden für KMU, die grüne Praktiken anwenden. Diese Forschung zeigte eine beträchtliche vorteilhafte Verbindung zwischen KMU und der finanziellen Entwicklung und Finanzierung in den Vereinigten Arabischen Emiraten. Laut dieser Studie ist der Einsatz von Forschungsmethoden zur Bereitstellung grüner Innovation in KMU die beste Strategie, um Hürden für grüne Innovation und Akzeptanz in kleinen und mittleren Unternehmen zu überwinden und ihre Wirtschaftlichkeit zu steigern.;-;-;-;https://link.springer.com/article/10.1007/s11356-021-14907-1 85bb01748cacfe4a0d6a4aed4f8a7c08;de;;;6.3.;;;Beachten Sie die (Verständlichkeits-)Lücke Verständlichkeit, Evolution und Emulation sind einige der Schlüsselbegriffe für die digitale Informationsbewahrung. In diesem Papier definieren wir diese Begriffe formal auf der Grundlage von Modulen und modulübergreifenden Abhängigkeiten. Anschließend diskutieren wir, wie wir mit der Evolution von Modulen und Abhängigkeiten umgehen können. Diese Arbeit kann für den Aufbau fortschrittlicher Informationssysteme und Register für die Bewahrung genutzt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74851-9_8 6b6efb95564bd970967526fbfcb63e01;de;;;6.3.;;;Ein verallgemeinertes Standort-Datenschutzsystem in standortbasierten Diensten Wenn der Benutzer standortbasierte Dienste durch die traditionelle Technologie erhält, werden seine Standortinformationen der Region immer offengelegt. In modernen Mobilfunknetzen ist jedoch sogar die aktuelle geografische Region Teil der Datenschutzinformationen. Um dieses Problem zu lösen, wird ein neues generalisiertes k-Anonymitäts-Location-Privacy-Schutzschema in ortsbasierten Diensten (LPPS-GKA) mit dem dritten Vertrauensdienst vorgeschlagen. Und es kann garantieren, dass die Benutzer gute standortbasierte Dienste (LBS) erhalten, ohne die Informationen der Geolokalisierungsregion zu verlieren, die die perfekte Privatsphäre geschützt hat. Die Analyse zeigt, dass LPPS-GKA beim Schutz der Standortdaten, einschließlich der Regionsinformationen, sicherer ist und in rechnerischen und kommunikativen Aspekten effizienter ist als andere ähnliche Schemata. Es eignet sich für dynamische Umgebungen für die verschiedenen Datenschutzanforderungen verschiedener Benutzer.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0457-5_20 98bbfd0022eeb0a089dcc602dde5a26c;de;;;6.3.;;;Forschung zur sicheren Speicherung von Multimediadaten basierend auf der Blockchain-Technologie Wenn das herkömmliche Multimedia-Datensicherheitsspeicherverfahren verwendet wird, um die Daten des elektronischen Handels zu speichern, gibt es einige Probleme, wie etwa unzureichende Sicherheit und langsame Verschlüsselungsgeschwindigkeit, die oft zu Datenverlust oder -verlust führen. Es wird ein sicheres Speicherverfahren für Multimediadaten basierend auf der Blockchain-Technologie vorgeschlagen. Als Beispiel dient diese Methode der Untersuchung von Multimediadaten im Bereich des elektronischen Handels. Zunächst die Schlüsseltechnologie dieses Verfahrens: Blockkette und Multimediadaten werden kurz vorgestellt, dann wird die Blockkette der Multimediadaten aufgebaut. Schließlich wird ein multimediales Datenspeichermodell des E-Commerce auf Basis der Blockchain-Struktur etabliert. Das Modell ist in zwei Teile gegliedert: Multimedia-Datenergänzung Geheime und Multimedia-Datenerhaltung. Der Schutz von Multimediadaten wird realisiert. Die Ergebnisse zeigen, dass im Vergleich zur herkömmlichen Multimedia-Datensicherheitsspeichermethode die Sicherheit dieser Methode um 15 % und die Verschlüsselungsgeschwindigkeit um 2 s erhöht wird. Es ist erwiesen, dass diese Methode die Mediendaten über viele Jahre hinweg effektiv schützen und die Häufigkeit von Datenverlusten oder -verlusten reduzieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-19086-6_28 9961c01c1c73997ebe231cebec20b888;de;;;6.3.;;;Erfüllung der Versprechen der verlustbehafteten Kompression für wissenschaftliche Anwendungen Viele wissenschaftliche Simulationen, Machine/Deep-Learning-Anwendungen und -Instrumente benötigen eine erhebliche Datenreduktion. Die fehlerbegrenzte verlustbehaftete Komprimierung wurde als eine Lösung identifiziert und für viele Anwendungsfälle getestet: Reduzierung der Streaming-Intensität (Instrumente), Reduzierung des Speicher- und Speicherbedarfs, Beschleunigung der Berechnung und Beschleunigung des Datenzugriffs und -transfers. Letztendlich hängt das Vertrauen der Benutzer in die verlustbehaftete Komprimierung von der Erhaltung der Wissenschaft ab: Dieselben Schlussfolgerungen sollten aus Berechnungen oder Analysen gezogen werden, die von verlustbehafteten komprimierten Daten durchgeführt wurden. Erfahrungen aus wissenschaftlichen Simulationen, Künstlicher Intelligenz (KI) und Instrumenten zeigen mehrere Punkte: (i) es gibt wichtige Lücken im Verständnis der Auswirkungen verlustbehafteter komprimierter Daten auf Berechnungen, KI und Analyse, (ii) jeden Anwendungsfall, jede Anwendung und Der Benutzer hat seine eigenen Anforderungen in Bezug auf Kompressionsverhältnis, Geschwindigkeit und Genauigkeit, und aktuelle generische monolithische Kompressoren reagieren nicht gut auf diesen Spezialisierungsbedarf. Diese Situation erfordert mehr Forschung und Entwicklung zu den verlustbehafteten Kompressionstechnologien. Dieses Papier befasst sich mit dem dringendsten Forschungsbedarf in Bezug auf die Anwendung von verlustbehafteter Kompression im wissenschaftlichen Kontext.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63393-6_7 09b6c0e710a28bcba8edaa039afdf270;de;;;6.3.;;;Über Methoden der Synthese von vollständigen Regressionsentscheidungsbäumen —In der Arbeit werden Algorithmen für das Regressionsproblem auf der Basis vollständiger Entscheidungsbäume untersucht. Die untersuchte Struktur des Entscheidungsbaums ermöglicht es, alle Merkmale, die das Verzweigungskriterium erfüllen, in jedem speziellen Knoten des Baums zu berücksichtigen. Neue Algorithmen zum Synthetisieren vollständiger Regressionsentscheidungsbäume werden vorgestellt. Die entwickelten Algorithmen werden an realen Problemen getestet und es zeigt sich, dass die Algorithmen effizient sind.;-;-;-;https://link.springer.com/article/10.1134/S1054661819030040 332eeb560ea6c3434dce06ece96929dc;de;;;6.3.;;;iDNABar: Eine Toolbox zur schnellen Speziesidentifizierung für DNA-Barcoding, Sammlung, Konservierung, Identifizierung und Rückverfolgung Die DNA-Barcoding-Technologie, die ein oder wenige DNA-Fragmente zur schnellen Identifizierung von Arten verwendet, ist ein Forschungsschwerpunkt im Bereich der Biodiversitätsinformationsstudien. In diesem Artikel wird eine Toolbox zur Datenanalyse, iDNABar, entwickelt und implementiert, um die Identifizierung von Spezies in allen Phasen des Analyseflusses zu unterstützen, von der Probensammlung bis hin zu einer streng validierten Barcode-Bibliothek für jedes DNA-Fragment. Die Identifizierungsmethode wird vorgeschlagen, Schlüsselelemente für Verwaltung und gemeinsame Nutzung werden ebenfalls vorgestellt, einschließlich der Benutzersicherheit, statistischen Funktionen und Anwendungsschnittstellen. In der Zwischenzeit werden die Anwendungen der Implementierung diskutiert, um die Entwicklung der Cloud zur Identifizierung von Arten voranzutreiben. (Zum Download: http://www.darwintree.cn/tools.htm);-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25658-5_42 f87404c55c03a82ce785089d5d39dc12;de;;;6.3.;;;Schichtenbasierter, optimaler Schutz der Privatsphäre der lokalen Daten, unterstützt durch die duale Authentifizierung und die Lightweight-on-Fly-Verschlüsselung im Cloud-Ökosystem Die in den Cloud-basierten Clustern von Knoten gespeicherten Big Data erfordern einen effizienten Mechanismus zum Schutz ihrer Datenschutzinformationen. Der traditionelle Anonymisierungsansatz zur Wahrung der Privatsphäre ist für Big Data aufgrund von Overheads nicht anwendbar, da der Datenspeichermechanismus einem verteilten Dateisystem im Cloud-Ökospeicher folgt. In diesem Whitepaper wird ein zweischichtiges Sicherheitsmodell vorgestellt, das die Auswirkungen der Angreifer auf den Zugriff auf private Informationen abschwächt. Die Modellarchitektur besteht aus einem starken Authentifizierungsmechanismus, bei dem die Schlüsselgenerierung für die Zugangskontrolle eine hohe Zufalls- und Anpassungsrichtlinie anwendet, so dass die Wahrscheinlichkeit des Eindringlings, in das Cloud-System einzudringen, aus erster Hand zunichte gemacht wird und den Anonymitätsangriff effektiv bewältigt Zweiter Teil des Sicherheitsmodells Der Teil der Datenschutzinformationen wird mit einer sehr einfachen Verschlüsselungsmethode verschlüsselt und mit der Datendeduplizierungsvorlage der Datenknoten in der Cloud synchronisiert, sodass das vorgeschlagene Modell eine höhere Sicherheit der Privatsphäre bietet provides Informationen in weniger Zeitkomplexität des kryptografischen Algorithmus, was die Modelle zuverlässiger und flexibler macht, um sie im Echtzeitszenario zu übernehmen. Die Verhaltensanalyse des vorgeschlagenen Auth-PP für das Datei-Token-Generierungssystem wird mit der inkrementellen Dateigröße stabil und zeigt ein Konsistenzmaß (Ct) = 0,56, was ein mittleres Orient-Muster ist, das eine starke Stabilität gegenüber der Dateigröße so recht zeigt anpassungsfähig für Big Data. Die Rechenleistungsanalyse zur Kostenbewertung des Verschlüsselungs- und Entschlüsselungsprozesses zeigt eine Leistungssteigerung von 72 % für die Laufzeit für variable Dateigrößen und zeigt auch das überlegene Ergebnis von insgesamt 69,9 % für das Datei-Chunking in den Datenknoten in der jeweiligen Cloud. Auch für den Entschlüsselungsprozess wird beobachtet, dass der formulierte Ansatz hinsichtlich der Zeitkomplexität eine überlegene Leistung erzielt.;-;-;-;https://link.springer.com/article/10.1007/s11277-021-08681-z 23cb24cc33f9a7117613705f17e428a1;de;;;6.3.;;;Steuermodus-Übergangsrauschen trat an Masseschiene im datenerhaltenden MTCMOS-Schieberegister auf Multi-Threshold-CMOS (MTCMOS) ist eine allgemein verwendete Technik, um den Sub-Threshold-Strom in einem Nicht-Betriebsmodus von beliebigen VLSI-Schaltungen zu verringern. Die allgemein verwendete MTCMOS-Technik kann in einer sequentiellen Schaltung wegen des Fehlens von Datenspeicherfähigkeiten im Nicht-Betriebsmodus nicht direkt verwendet werden. Hierin wird ein neues Design vorgeschlagen, um Daten zu speichern, wenn sich die Schaltung im Nichtbetriebsmodus befindet. Eine Analyse des Modenübergangsrauschens auf der Masseleitung wird ebenfalls durchgeführt. Das Modusübergangsrauschen ist nichts anderes als Fluktuationen, die an der Masseschiene während des Übergangs vom Nicht-Betriebsmodus in den Betriebsmodus aufgetreten sind. Dieses Rauschen kommt ins Bild, wenn das Erdpotential plötzlich abfällt. Die vorgeschlagene Technik wird auf ein 4-Bit-Schieberegister angewendet. Das Simulationsergebnis zeigte eine kleine Variation der Masseschienenspannung beim Modusübergang vom Nicht-Betriebsmodus in den aktiven Modus. Eine Verringerung der Erdleitungsfluktuation könnte auf die schrittweise Entladung der Erdungsschiene zurückgeführt werden. Der Ableitstrom im Ruhezustand ohne Betrieb wird ebenfalls berechnet. Die zusätzliche Stromsteuerschaltung in dem vorgeschlagenen Design bietet eine Datenerhaltung sowie Möglichkeiten zur Minimierung von Leckverlusten im Schlafmodus. Das vorgeschlagene Design reduziert Erdschienenfluktuationen (Modenübergangsrauschen) im Vergleich zu ähnlichen Techniken um bis zu 70 %.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8586-9_26 5802ad79dfcbdca32986b9dbbc3b896b;de;;;6.3.;;;Generative Adversarial Network for Heritage Image Super Resolution In diesem Artikel haben wir ein Generative Adversarial Network (GAN)-basiertes Super Resolution Rekonstruktionsverfahren (SRR) für die Schätzung von hochauflösenden (HR) Erbebildern vorgeschlagen. Die vorgeschlagene SRR-Methode über das GAN-Modell (SRRGAN) wird als Min-Max-Optimierungsprozess modelliert, indem einige neue Verlustfunktionen integriert werden, die es ermöglichen, die räumliche und strukturelle Homogenität in den geschätzten HR-Bildern beizubehalten. Zunächst haben wir das Eingangstestbild basierend auf ihren inhärenten Eigenschaften in texturierte und nicht texturierte Patches unterteilt, gefolgt von der Optimierung des GAN-Modells über Verlustfunktionen;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1092-9_14 e8a368ea14370296ee667463775e7884;de;;;6.3.;;;Natürliche Abflussveränderungen des Naryn-Flusses in den letzten 265 Jahren und ihre klimatischen Treiber Der im Tianshan-Gebirge im ariden Zentralasien entspringende natürliche Abfluss des Naryn-Flusses wird stark vom Klimawandel beeinflusst. Als wichtigste Wasserquelle für die Region ist dieser Fluss sowohl für die natürliche Umwelt als auch für die sozioökonomische Entwicklung von entscheidender Bedeutung. Um die Abflussaufzeichnungen zu erweitern und vergangene und zukünftige Veränderungen im Abfluss des Naryn River besser zu verstehen, entwickelten wir vier Jahrringbreitenchronologien und analysierten die Beziehung zwischen Baumwachstum und Abfluss. Die resultierende Rekonstruktion stammt aus dem Jahr 1753 und hat einen R;-;-;-;https://link.springer.com/article/10.1007/s00382-020-05323-1 1e32755eec4c39fd18196074494ea988;de;;;6.3.;;;Screening auf Adenokarzinom des Ösophagus und Krebsvorstufen (Dysplasie und Barrett-Ösophagus) bei Patienten mit chronischer gastroösophagealer Refluxkrankheit mit oder ohne andere Risikofaktoren: zwei systematische Übersichtsarbeiten und eine Übersicht über Übersichtsarbeiten als Grundlage für eine Leitlinie der Canadian Task Force on Preventive Health Care (CTFPHC .) ) Zwei Reviews und eine Übersicht wurden für die Leitlinie der Canadian Task Force on Preventive Health Care zum Screening auf Adenokarzinom des Ösophagus bei Patienten mit chronischer gastroösophagealer Refluxkrankheit (GERD) ohne Alarmsymptome erstellt. Das Ziel bestand darin, drei Schlüsselfragen (KQs) systematisch zu überprüfen: (1) Die Wirksamkeit des Screenings für diese Erkrankungen, (2) Wie Erwachsene mit chronischer GERD den Nutzen und Schaden des Screenings abwägen und welche Faktoren zu ihren Präferenzen und Entscheidungen beitragen, einem Screening unterzogen werden und (3) Behandlungsoptionen für Barrett-Ösophagus (BE), Dysplasie oder EAC im Stadium 1 (Übersicht der Reviews).;-;-;-;https://link.springer.com/article/10.1186/s13643-020-1275-2 631299c7ff484766d0505a88f09855d8;de;;;6.3.;;;Lochfüllung für die Ansichtssynthese Die auf Tiefenbildern basierende Tiefenwiedergabetechnik (DIBR) gilt als vielversprechendes Werkzeug zur Unterstützung fortschrittlicher 3D-Videodienste, die in Multiview-Videosystemen (MVV) erforderlich sind. Ein inhärentes Problem bei DIBR besteht jedoch darin, mit den neu belichteten Bereichen umzugehen, die in synthetisierten Ansichten erscheinen. Dies tritt auf, wenn Teile der Szene nicht in jedem Blickwinkel sichtbar sind und leere Stellen hinterlassen, genannt;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-9964-1_6 441472fed239cadd2e0205448260b4da;de;;;6.3.;;;Epidemiologie und Überwachung menschlicher Tierbissverletzungen und Tollwut-Postexpositionsprophylaxe in ausgewählten Landkreisen in Kenia, 2011–2016 Bissverletzungen beim Menschen stellen aufgrund des damit verbundenen Risikos für die Exposition gegenüber Tollwutviren ein ernstes Problem der öffentlichen Gesundheit dar. Tierbissverletzungen, insbesondere Hundebisse, sind nützliche Indikatoren zur Beurteilung des Risikos der Übertragung des Tollwutvirus und der Notwendigkeit einer Tollwut-Postexpositionsprophylaxe (PEP). Das Verständnis der Epidemiologie und Überwachung von Tierbissen und Tollwut-Postexpositionsprophylaxe ist entscheidend für die Umsetzung der nationalen Tollwut-Eliminationsstrategie Kenias. Unser Ziel war es, die Inzidenz von Tierbissverletzungen beim Menschen, die Merkmale von Patienten/beißenden Tieren, die Aufnahme von Tollwut-PEP und Faktoren zu beschreiben, die mit Tierbissvorfällen verbunden sind.;-;-;-;https://link.springer.com/article/10.1186/s12889-018-5888-5 4be31b5c73347baf337328043e4a7afa;de;;;6.3.;;;Wirkung einer kontinuierlichen Infusion von Dexmedetomidin auf den Blutverlust in der orthognathen Chirurgie: eine retrospektive Studie Patienten mit maxillofazialen Deformitäten benötigen orthognatische Operationen, um die Okklusion zu korrigieren. Der chirurgische Eingriff kann zu massiven Blutungen führen, die mit Hämatomen, Atemwegsobstruktion und Asphyxie einhergehen. Dexmedetomidin wurde bei kontrollierter Hypotonie angewendet und kann den Blutverlust bei orthognathen Operationen verringern. Wir führten eine retrospektive Kohortenstudie durch, um die Wirkung von Dexmedetomidin auf den Blutverlust bei orthognathen Operationen zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s40001-021-00551-5 b1ffc93449b34ebb713753d5631755b0;de;;;6.3.;;;Erfahrungen von Hebammen mit der Umsetzung von respektvollem Geburtshilfewissen in die tägliche Geburtshilfepraxis nach der Teilnahme an einem viertägigen RMC-Training In Ghana gibt es nur wenige Studien, die die Wirksamkeit evidenzbasierter spezialisierter Trainingsprogramme zur Förderung einer respektvollen Mutterschaftspflege (RMC) in Gesundheitseinrichtungen belegen. So haben wir einen viertägigen RMC-Trainingsworkshop konzipiert und mit ausgewählten Hebammen einer tertiären Gesundheitseinrichtung in Kumasi, Ghana pilotiert. Das vorliegende Papier bewertete die Auswirkungen des Trainings, indem es die Erfahrungen von Hebammen mit der Implementierung von RMC-Wissen in ihre tägliche Geburtshilfepraxis 4 Monate nach dem Trainingsworkshop untersuchte.;-;-;-;https://link.springer.com/article/10.1186/s12912-021-00559-6 8c38ff1d66cf27386cac5747b9ff9189;de;;;6.3.;;;Erste Ergebnisse einer multizentrischen, bevölkerungsbasierten, randomisierten Clusterstudie zur Früherkennung von Speiseröhren- und Magenkrebs in China Wir haben die erste multizentrische, randomisierte Cluster-Studie zum endoskopischen Screening auf Speiseröhren- und Magenkrebs in China initiiert. Das Ziel der Studie war es, die Ergebnisse des Baseline-Screenings in dieser Studie zu berichten.;-;-;-;https://link.springer.com/article/10.1186/s12876-020-01517-3 310309860e5bf77bb2bf2e030ef28b72;de;;;6.3.;;;Berichte von Interessenvertretern der Apotheke über ethische und logistische Überlegungen bei der Entwicklung von Anti-Opioid-Impfstoffen Da die Inzidenz von Opioidkonsumstörungen (OUD) und die damit verbundenen Todesfälle weiterhin mit erhöhten Raten bestehen, ist die Entwicklung neuer Behandlungsmodalitäten gerechtfertigt. Zu den jüngsten Fortschritten in diesem therapeutischen Bereich zählen neuartige anti-opioide Impfstoffansätze. Diese Arbeit vergleicht logistische und ethische Überlegungen zu derzeit verfügbaren Interventionen für Opioidkonsumstörungen mit einem anti-opioiden Impfstoffansatz.;-;-;-;https://link.springer.com/article/10.1186/s12910-021-00599-2 322a7f0470e53397e902419198da6041;de;;;4.2.;;;Suche nach Treibern der europäischen Wissensgesellschaft: Die Rolle der gesellschaftlichen Teilhabe Wissen ist ein relationales Gut. Der Fluss der Interaktionen zwischen den Individuen einer Gruppe bietet die notwendigen Möglichkeiten, das vorhandene Wissen zu teilen und es zu nutzen, um das (Human-)Kapital weiter zu akkumulieren, das der wichtigste produktive Input für die Entwicklung jeder Wissensökonomie ist. In diesem Sinne sind die Möglichkeiten der sozialen Interaktion per se eine Ressource und eine Dimension des Wissens. Die Analyse der individuellen Bürgerbeteiligung in verschiedenen Arten zivilgesellschaftlicher Organisationen in ganz Europa bestätigt außerdem die Existenz unterschiedlicher europäischer Sozialmodelle und weist auf eine mögliche positive Parallelität zwischen der Wirksamkeit von Wirtschaftspolitiken und Sozialpolitiken hin, die auf die Förderung der sozialen Teilhabe abzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04757-2_34 b21e0e1f965c0314e3da3c6e7ef6e13c;de;;;5.2.;;;Informationsbedarf bei Menschen mit Diabetes mellitus: eine systematische Übersicht Ziel dieser Studie war es, das derzeit verfügbare Wissen über den Informationsbedarf von Menschen mit Diabetes mellitus zu identifizieren und zu analysieren, auch unter Berücksichtigung möglicher Unterschiede zwischen Subgruppen und assoziierten Faktoren.;-;-;-;https://link.springer.com/article/10.1186/s13643-018-0690-0 cc6f74fc45f00d73133ca75b8b6ab0d0;de;;;5.2.;;;Eine vergleichende Studie zu nativem und nicht-nativem Informationssuchverhalten Die Verbreitung webbasierter Technologien hat dazu geführt, dass die meisten nationalen Regierungen mit dem Übergang zu einem sogenannten „E-Service“ beginnen, bei dem die Bereitstellung durch rein digitale Mittel erfolgt. Trotz ihrer offensichtlichen Vorteile für die meisten Benutzer stellen diese Online-Systeme Zugangsbarrieren für bestimmte Gruppen der Gesellschaft dar. In dieser Studie betrachten wir das Informationsverhalten von Englisch als Zweitsprache (ESL) und muttersprachlichen englischsprachigen Teilnehmern bei der Durchführung von Suchaufgaben, die die tatsächlichen Situationen der Informationssuche im Kontext der britischen Regierung widerspiegeln. Die Ergebnisse zeigen, dass die ESL-Benutzer mehr auf Abfrageunterstützung angewiesen sind, tiefer in die Search Engine Results Page (SERP) eintauchen und eine bessere Leistung erzielen, je länger sie Dokumente lesen. Dies war bei den Eingeborenen nicht der Fall, obwohl sie die meiste Zeit damit verbrachten, Dokumente zu lesen. Es gibt einige Ähnlichkeiten in ihrem Informationssuchverhalten, da beide Gruppen ähnlich lange Abfragen senden und gleichermaßen gut darin sind, zu erkennen, wann eine fehlgeschlagene Abfrage ihren Informationsbedarf nicht erfüllt. Diese Kompetenz spiegelte sich bei einigen Aufgaben nicht in ihrer Leistung wider, da beide Gruppen nicht in der Lage waren, konsistent vorherzusagen, wann sie keine guten Leistungen erbracht hatten. Die Ergebnisse dieser Arbeit haben potenziell tiefgreifende Auswirkungen darauf, wie E-Government-Dienste bereitgestellt werden und wie Benutzer bei deren Nutzung unterstützt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-76941-7_18 c84911f12edf9cdde704ac8d23172e5f;de;;;5.2.;;;Video-Suchverhalten junger Erwachsener für selbstgesteuertes Lernen Die Verbreitung des Internets hat vielen Menschen den Zugang zu Informationen erleichtert, einschließlich selbstgesteuerter Lernender, um ihre Lernbedürfnisse zu unterstützen. Mit der Allgegenwart der Technologie und des Internets sind die Schüler heute erwachsen geworden und haben sich in Technologien für Freizeit und Lernen vertieft. Diese jüngeren Informationssuchenden scheinen sich damit wohl zu fühlen, Informationen im Internet zu finden. Videos wurden in zahlreichen Umgebungen verwendet, um das Lernen zu unterstützen. Öffentliche Online-Video-Repositorys wie YouTube, Vimeo und andere dienen als gute Ressourcen für selbstgesteuertes Lernen (SDL). Dieser Artikel beschreibt einen Teil der Forschung zum Videosuchverhalten von postsekundären Schülern, wenn sie eine explorative Suche durchführen, um geeignete Videos für ihr Lernen zu finden. Bei der Videosuche zeigten die Teilnehmer der Studie mindestens zwei Bewertungsstufen, um das/die Video(s) zu bestimmen, die die Suchaufgabe erfüllen. Beide Bewertungsstufen legen nahe, dass die Videosucher nach Hinweisen und Videometadaten gesucht haben, die ihnen mit minimalem Aufwand den Inhalt des Videos näherbringen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-70232-2_27 1abb50607c2e65a4a10854477a9dae31;de;;;4.2.;;;Amerikanischer Dschihad: Die Rolle schiitischer Erzählungen über das politische und soziale Verhalten der Schiiten in den Vereinigten Staaten Das Interesse an der Politik der Schiiten nimmt ständig zu, zumal sich die Ereignisse angesichts der sogenannten arabischen Aufstände, der Ereignisse rund um den syrischen Bürgerkrieg und der Entstehung des Islamischen Staates im Irak und Syrien ändern ein wichtiger Akteur in Syrien und im Irak.;-;-;-;https://link.springer.com/chapter/10.1057/9781137554963_8 386cbedd3e2319db7c43c5e5a6ddd772;de;;;5.2.;;;Bewertung, wie der Gesundheitsinformationsbedarf von Personen mit Darmkrebs im gesamten Versorgungskontinuum gedeckt wird: eine internationale Querschnittserhebung Studien, die den Gesundheitsinformationsbedarf bei Darmkrebs (CRC) evaluieren, haben keine Spezifität in Bezug auf Studienproben, an denen Patienten beteiligt sind. Wir bewerteten, wie der Gesundheitsinformationsbedarf von Personen mit CRC im gesamten Versorgungskontinuum erfüllt wird.;-;-;-;https://link.springer.com/article/10.1186/s12885-020-07539-0 852a58f085e3fd597f2593def63e137e;de;;;5.2.;;;Suche nach schwangerschaftsbezogenen Informationen in Online-Gesundheitsgemeinschaften: Eine qualitative Studie Eine Schwangerschaft birgt oft Risiken für die Gesundheit von Frauen. Verbraucher wenden sich zunehmend an Online-Ressourcen (z. B. Online-Gesundheitsgemeinschaften), um nach schwangerschaftsbezogenen Informationen für ein besseres Pflegemanagement zu suchen. Um die Gestaltungsmöglichkeiten für Online-Unterstützungsmaßnahmen zu informieren, ist es wichtig, die Informationsbedürfnisse der Verbraucher während des gesamten Schwangerschaftsverlaufs, einschließlich der drei Hauptphasen, gründlich zu verstehen: vor der Schwangerschaft, während der Schwangerschaft und nach der Geburt. In dieser Studie präsentieren wir eine Inhaltsanalyse von schwangerschaftsbezogenen Frageposts auf Yahoo! Antworten, um zu untersuchen, wie sie ihre Anfragen formuliert haben und welche Arten von Antworten die Informationssuchenden erhalten haben. Diese Analyse ergab 14 Haupttypen von Informationsbedarf, von denen die meisten „stufenbasiert“ waren. Wir fanden auch heraus, dass Gleichaltrige aus Online-Gesundheitsgemeinschaften eine Vielzahl von Unterstützungsangeboten leisteten, darunter die Bestätigung einer Schwangerschaft, Meinungen oder Vorschläge, Gesundheitsinformationen, persönliche Erfahrungen und Hinweise auf die Dienste von Gesundheitsdienstleistern. Aus den Ergebnissen abgeleitete Erkenntnisse werden gezogen, um Gestaltungsmöglichkeiten für die Anpassung von Informatikinterventionen zu diskutieren, um den Informationsbedarf der Verbraucher in verschiedenen Schwangerschaftsstadien zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71305-8_2 0284e45c5127585aef5814a445e64cfc;de;;;5.2.;;;Informationsexploration in Search Computing Search Computing-Abfragen adressieren normalerweise Suchaufgaben, die über eine einzelne Interaktion hinausgehen. In diesem Artikel zeigen wir ein Abfrageparadigma, das eine mehrstufige, explorative Suche über mehrere Webdatenquellen hinweg unterstützt. Unser Paradigma erfordert, dass Benutzer sich der Suche nach „verbundenen Objekten“ mit gegebener Semantik bewusst sind, aber jeder Erkundungsschritt wird so weit wie möglich vereinfacht, indem den Benutzern bei jedem Schritt einfache Schnittstellen präsentiert werden, die einige Auswahlmöglichkeiten bieten, die vom System unterstützt werden können Zu den Auswahlmöglichkeiten gehören „vorwärts“, indem der Suche neue Objekte hinzugefügt werden, oder „rückwärts“, indem einige Objekte von der Suche ausgeschlossen werden, sowie die Auswahl und Aufhebung der angezeigten Ergebnisse, um die Ergebnismenge dynamisch zu manipulieren. Zur Unterstützung der Exploration haben wir ein neues Architekturelement namens Query Orchestrator entworfen, das das Benutzeroberflächenmodul mit der Ausführungs-Engine verbindet, der Orchestrator den Verlauf der Abfragesitzung verwaltet und Abfrageergebnisse zur Wiederverwendung bei nachfolgenden Interaktionen zwischenspeichert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19668-3_2 593c4fc00b0113dff1d50b8b97a69cfc;de;;;5.2.;;;Dokumente im Kontext zusammenfassen: Modellierung des Informationsbedarfs des Benutzers Die Popularität des Internets hat zu dem explosionsartigen Wachstum der Informationen beigetragen, die den Benutzern für den täglichen Gebrauch zur Verfügung stehen, und die Menschen sind mit Problemen der Informationsüberflutung konfrontiert, da die Informationen über verschiedene Arten von Quellen verbreitet werden – Dokumente, Webseiten, E-Mails, Faxe, Handbücher, Berichte, Bücher usw. In diesem Papier stellen wir ein Textzusammenfassungssystem vor, das die reale Anwendung modelliert, in der der Benutzer daran interessiert wäre, eine Abfolge von Ereignissen zu erfahren. Außerdem konzentrieren wir uns auf einige Bewertungsverfahren.;-;-;-;https://link.springer.com/chapter/10.1007/11816508_62 797a268aa55c23e94beb715d259cd2ed;de;;;5.2.;;;Informationsbedarf krisengeschüttelter Gemeinden adressieren: Das Zusammenspiel von Legacy Media und Social Media in einer ländlichen Katastrophe Da vernetzte Informations- und Kommunikationstechnologien (IKT) eine immer wichtigere Rolle in der Krisenkommunikation in von Katastrophen betroffenen Gemeinden einnehmen, verdient ihre Position in der breiten sozio-technischen Infrastruktur eine genauere Betrachtung. Die Autoren untersuchen das Zusammenspiel zwischen traditionellen Legacy-Medien und IKT, wie z. B. Social Media, um zu untersuchen, wie sie zusammen und getrennt den Informationsbedarf der von Katastrophen betroffenen Gemeinschaften decken. Sie betrachten speziell Beispiele während des Hurrikans Irene im Bundesstaat New York.;-;-;-;https://link.springer.com/chapter/10.1057/978-1-349-94925-0_18 bfedcafeafa130aa6010f442e4cbf319;de;;;5.2.;;;Zusammenarbeit bei der Informationssuche Dieses Papier betrachtet die Informationssuche als einen Kernbestandteil der Wissensarbeit. Eine Fallstudie wird verwendet, um zu veranschaulichen, wie Vermittler und medizinisches Fachpersonal zusammenarbeiten, um Evidenz zu finden, die die Entscheidungsfindung im Gesundheitswesen unterstützt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-0595-2_30 cfd7535d2ff19c2be5f677e125b28042;de;;;5.2.;;;Verhalten bei der Suche nach Informationen beim Online-Shopping Frühere Literatur hat festgestellt, dass die Informationssuche ein entscheidender Teil des Prozesses des Online-Shoppings ist. Allerdings wird das Informationssuchverhalten in der Regel als Blackbox behandelt und es fehlen Studien zum Informationssuchverhalten von Verbrauchern beim Online-Shopping und dessen Einfluss auf die Online-Kaufabsicht. Unsere Studie zielt darauf ab, diese Lücke zu schließen, indem wir das Modell des Informationssuchverhaltens von Ellis als unsere theoretische Linse verwenden, um dieses Phänomen zu verstehen. Das Modell von Ellis hat acht Merkmale oder Stufen, die sich auf das Informationssuchverhalten beziehen: Starten, Verketten, Durchsuchen, Differenzieren, Überwachen, Extrahieren, Verifizieren und Beenden. Wir haben zuerst eine Umfrage durchgeführt, um diese Merkmale zu messen. Anschließend haben wir ein Messmodell erstellt, um das Erhebungsinstrument zu validieren. Wir stellten fest, dass nur drei Funktionen die Gültigkeits- und Zuverlässigkeitstests bestanden, die gestartet, überwacht und verifiziert wurden. Wir verwendeten dann die Modellierung von Strukturgleichungen zum Testen von Hypothesen und fanden eine signifikante Beziehung nur für das verifizierende Merkmal. Mit anderen Worten, nur das Verifizieren war positiv mit der Online-Kaufabsicht verbunden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-64849-7_39 bc6936d8f1c0d193f50639a7e1b11fce;de;;;5.2.;;;Verhalten der Eltern bei der Suche nach Gesundheitsinformationen – spielt der Gesundheitszustand des Kindes eine Rolle? Digitale Medien sind immer häufiger verfügbar und bieten ein breites Spektrum an Gesundheitsinformationen. Bis heute ist nur sehr wenig über das Verhalten von Eltern, das Gesundheitsinformationen zur Kindergesundheit sucht, außerhalb des englischsprachigen und nordischen Landes bekannt. Unsere Studie „Digitale Elternberatung“ untersucht, wie Eltern in digitalen Medien, Printmedien und bei „persönlichen Kontakten“ nach Gesundheitsinformationen suchen. Dabei wird zwischen der Suche nach Informationen über die allgemeine Gesundheit und Entwicklung des Kindes und der akuten Erkrankung des Kindes unterschieden und das Informationssuchverhalten nach Behinderungsstatus des Kindes.;-;-;-;https://link.springer.com/article/10.1186/s12875-020-01342-3 8a406861af50abfae55fbfc259ff6f54;de;;;5.2.;;;Prädiktoren für die Bereitschaft der Nutzer, die Websuche zu personalisieren Die personalisierte Websuche bietet eine vielversprechende Lösung für die auf den Benutzer zugeschnittene Informationssuche. Einer der Gründe, warum sie von Benutzern jedoch nicht weit verbreitet ist, sind Datenschutzbedenken. In den letzten Jahren haben soziale Netzwerkdienste (SNS) das traditionelle Paradigma der Informationssuche neu geformt. Die Menschen neigen heute dazu, sowohl Websuchmaschinen als auch soziale Netzwerkdienste gleichzeitig zu nutzen, wenn sie mit einem Informationsbedarf konfrontiert werden. In diesem Beitrag präsentieren wir anhand von Daten aus einer Nutzerbefragung eine Analyse des Zusammenhangs zwischen der Bereitschaft der Nutzer, die Websuche zu personalisieren, und ihrem Nutzungsverhalten in sozialen Netzwerken. Die Antworten der Teilnehmer auf die Umfragefragen ermöglichten es uns, ein Regressionsmodell zu verwenden, um den Zusammenhang zwischen SNS-Variablen und der Bereitschaft zur Personalisierung der Websuche zu identifizieren. Wir führten auch eine Follow-up-Benutzerumfrage zur Verwendung in einem auf Support Vector Machines (SVM) basierenden Vorhersage-Framework durch. Die Vorhersageergebnisse führen zu der Beobachtung, dass SNS-Funktionen wie demografische Faktoren eines Benutzers (wie Alter, Geschlecht, Standort), die Anwesenheit oder Abwesenheit eines Benutzers auf Twitter und Google+, die Aktivität auf Twitter und Google+ zusammen mit der Neigung des Benutzers zu fragen Fragen in sozialen Netzwerken sind wichtige Prädiktoren bei der Charakterisierung von Benutzern, die bereit wären, sich für personalisierte Websuchergebnisse zu entscheiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40769-7_40 350a8fb34777865599228389ee8b5e78;de;;;5.2.;;;Single-Institution-Querschnittsstudie zur Evaluation des Informationsbedarfs und des Überweisungsbedarfs an psychoonkologische Versorgung im Zusammenhang mit Depressionen bei Hirntumorpatienten und deren pflegenden Angehörigen Die Prognose von Patienten mit Hirntumoren ist sehr unterschiedlich. Psychoonkologischer Bedarf und Depressionen sind bei diesen Patienten und ihren pflegenden Angehörigen hoch. Allerdings wird der Beratungsbedarf und der Überweisungsbedarf in die psychoonkologische Versorgung oft unterschätzt.;-;-;-;https://link.springer.com/article/10.1186/s40359-020-00460-y d2309e774c2d21afb65a3cce65d542c1;de;;;5.2.;;;Kommunikation der Identitätskongruenz bei der Informationssuche im Bereich E-Health: eine Voruntersuchung Die aktuelle Studie analysierte die Wahrnehmung von Online-Suchenden nach Gesundheitsinformationen in Bezug auf identitätskongruente Informationen, um herauszufinden, ob Identitätsabgleich ein Faktor für Motivation und Vertrauen bei der Suche und Verwendung dieser Informationen ist, falls möglich. Afroamerikaner und europäische Amerikaner wurden rekrutiert, um an einer Online-Umfrage teilzunehmen. Die Ergebnisse zeigten, dass der Grad der Identitätskongruenz zwischen den Gruppen variierte, ebenso wie die Motivation, Websites zu verwenden, die diese Identitäten repräsentieren. Beide Gruppen stellten eine starke Präferenz für das Suchen, Finden und Verwenden von Gesundheits-Websites fest, die ihre nachbarschaftliche oder ortsbezogene Identität repräsentierten. Die Bedeutung der ortsbezogenen Identität hat praktische Auswirkungen auf die Gestaltung webbasierter Gesundheitsinformationen und der Public-Health-Forschung, die den Einfluss von Nachbarschaften auf die individuelle Gesundheit untersucht.;-;-;-;https://link.springer.com/article/10.1057/hs.2014.24 04be12203b7776d2a4a227f25aad5f1b;de;;;5.2.;;;Das Verhalten der Eltern bei der Suche nach digitalen Gesundheitsinformationen in der Schweiz: eine Querschnittsstudie Digitale Medien werden immer häufiger genutzt, um Gesundheitsinformationen zu suchen, jedoch ist bisher nur sehr wenig über das Suchverhalten von Eltern im Zusammenhang mit der Gesundheit und Entwicklung von Kindern außerhalb des englischsprachigen und skandinavischen Landes bekannt. Durch die Untersuchung der Prävalenz und der Gründe für die Nutzung untersuchten wir die Wahrnehmung des Internets durch Eltern als Ressource zur Verbesserung ihres Gesundheitswissens.;-;-;-;https://link.springer.com/article/10.1186/s12889-019-6524-8 67c0f71bd513f316c47edb7dddaa5aab;de;;;4.2.;;;Erstellen personalisierter und verteilter virtueller Lernräume durch den Einsatz von i-Collaboration 3.0 Anders als noch vor einigen Jahren sind Fernlerner heute viel besser mit den Ressourcen des Internets (in seinen verschiedenen Plattformen und sozialen Netzwerken – und damit charakteristisch für das heutige digitale Nomadentum) vertraut und es gewohnt, in Gruppen zu arbeiten. Mit diesem Paradigmenwechsel wird es noch schwieriger, Studenten virtueller Kurse für ein traditionelles VLE zu interessieren, bei dem die Schnittstellen nicht für ihre besonderen Bedürfnisse geeignet sind und oft kollaborative Tools es diesen Studenten nicht ermöglichen, Beziehungen zu anderen Kollegen aufzubauen, im Gegensatz zu den anderen passiert natürlich in sozialen Netzwerken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33197-8_51 550400dc7b4ee84c917c4ea066a5acad;de;;;5.2.;;;Bedenken, Einstellungen, Überzeugungen und Praktiken der Informationssuche in Bezug auf ernährungsbezogene Fragen: eine qualitative Studie an französischen Schwangeren Aus der Lebenslaufperspektive führt eine Schwangerschaft zu einer Steigerung des Ernährungsbewusstseins und einer Zunahme des Informationsflusses zugunsten eines gesünderen Essverhaltens. Diese qualitative Studie wurde entwickelt, um die Determinanten des Essverhaltens französischer schwangerer Frauen besser zu verstehen, indem sie sich auf ihre Bedenken, Einstellungen und Überzeugungen sowie ihre ernährungsbezogenen Informationsbeschaffungspraktiken konzentriert.;-;-;-;https://link.springer.com/article/10.1186/s12884-016-1078-6 f6d0ad9d3dbf8321246d7a3ae6fb907c;de;;;5.2.;;;Mit Gesundheitsinformationen gut altern: Untersuchung der Gesundheitskompetenz und des Verhaltens bei der Informationssuche anhand eines Datensatzes einer nationalen Umfrage Gesundheitskompetenz ist von entscheidender Bedeutung für die Prävention von Krankheiten, insbesondere bei der älteren Bevölkerung. Diese Sekundärdatenanalyse einer nationalen Erhebung soll das Niveau der Gesundheitskompetenz bestimmen und untersuchen, wie es mit dem Suchverhalten nach Gesundheitsinformationen, dem Verhalten zur Krankheitsprävention und den persönlichen Merkmalen bei Erwachsenen ab 50 in Taiwan zusammenhängt. Die Daten stammen aus der 2015 durchgeführten Taiwan Longitudinal Study on Aging (TLSA).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-64452-9_18 ba98a3882cfbc9a643f04f3c86be5545;de;;;5.2.;;;Verhalten bei der Suche nach Gesundheitsinformationen bei Personen mit frühem und durchschnittlichem Kolorektalkarzinom: eine internationale Querschnittserhebung Unser Ziel war es, das Suchverhalten nach Gesundheitsinformationen bei yCRC (Darmkrebs im jungen Stadium, diagnostiziert 50 Jahre) und aCRC (Durchschnittsalter beginnender Dickdarmkrebs, diagnostiziert 50 Jahre) zu bewerten.;-;-;-;https://link.springer.com/article/10.1007/s00520-020-05446-5 84eb276dde67cffea7db866f72a4030e;de;;;4.2.;;;Internetnutzung und Teilnahme an öffentlichen Programmen: Beweise aus Chile Das Interesse an IKT-bezogenen Themen hat in den letzten Jahrzehnten deutlich zugenommen, was zu einer Fülle von Studien zu ihren Auswirkungen auf viele Dimensionen geführt hat. Trotz des Konsens über die Bedeutung von IKT-Effekten auf Mikroebene fehlt es an Analysen zu Existenz, Ausmaß und Richtung dieser Effekte. Dieser Artikel soll zur Literatur beitragen, indem er eine Analyse der Beziehung zwischen Internetnutzung und Informationsverbreitung auf Haushaltsebene in Chile durchführt. Unter Verwendung von Daten aus National Household Surveys schätzen wir den Effekt der Internetnutzung auf Haushaltsebene auf die Wahrscheinlichkeit, ein Stipendium für junge Studierende im Haushalt zu erhalten. Die Ergebnisse deuten darauf hin, dass die IKT-Nutzung signifikant und positiv mit der Wahrscheinlichkeit korreliert, dass Grundschüler ein Stipendienprogramm erhalten, was veranschaulicht, wie IKT den Kommunikationszugang und die Teilnahme an sozialen Programmen verbessert. Da die Verbreitung von IKT weitgehend von sozioökonomischen Dimensionen bestimmt wird, veranschaulichen die Ergebnisse auch, wie IKT bereits bestehende Ungleichheiten verstärken könnte. Dies unterstreicht die Notwendigkeit proaktiver öffentlicher Maßnahmen zur Bewältigung der digitalen Kluft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-56523-1_12 2bd4c3b51526721dda6eba8e54a0ed7d;de;;;5.2.;;;Geschlechterunterschiede in der Finanzkompetenz und im Finanzverhalten junger Erwachsener: Die Rolle der Eltern und der Informationssuche Diese Forschung zielte darauf ab, den Einfluss des Geschlechts auf den Mechanismus zu untersuchen, der die finanzielle Sozialisation der Familie in Finanzkompetenz und -verhalten unter malaysischen jungen Erwachsenen übersetzt, und auch die Rolle des Verhaltens der Suche nach Finanzinformationen und seiner Vorläufer in diesem Mechanismus zu untersuchen. Es wurde eine Querschnittserhebung durchgeführt. An der Studie nahmen insgesamt 572 junge malaysische Erwachsene von vier großen Universitäten teil. Die Ergebnisse zeigten, dass sowohl das Lehren als auch das Verhalten der Eltern direkt das Finanzverhalten der jungen Erwachsenen beeinflusst. Bei den Frauen hat jedoch der Unterricht der Eltern durch geplantes Verhalten ihr Suchverhalten nach Finanzinformationen beeinflusst, was wiederum ihre Finanzkompetenz beeinflusst hat. Entgegen landläufiger Meinungen hatte die Finanzkompetenz keinen Einfluss auf das Finanzverhalten. Darüber hinaus wurde ein negativer Zusammenhang zwischen elterlichem Unterricht und finanzieller Bildung bei Männern festgestellt.;-;-;-;https://link.springer.com/article/10.1007/s10834-020-09674-z d47b3389cc2d3a8ad3d4ab394ffea9e2;de;;;5.2.;;;Politische Ökonomie des Rent-Seeking unter alternativen Handelsregimen Die politische Ökonomie des „Rent-seeking“ unter alternativen Au\enwirtschaftssystemen. — Mit Hilfe eines berechenbaren Modells des allgemeinen Gleichgewichts zeichnen die Autoren den Typ einer Volkswirtschaft, in dem präferenzmaximierenden (rationale) Produzentenhaushalte einen Teil ihres nominalen Einkommens für „rent-seeking”-Aktivitäten (Bestechungen) aufwenden, um die Behörden bei der Wahl der exportfördernden Instrumente zu beeinflussen. Die Autoren nutzen Daten über die türkische Volkswirtschaft, um die Folgen alternativer Ma\nahmen einer au\enwirtschaftlichen Abschottung auf die „rent-seeking”-Aktivitäten zu analysieren. . Dabei stellt sich heraus, da\ die Instrumentenwahl der Behörden sowohl von den zugrundeliegenden Au\enwirtschaftssystemen als auch von den privaten „rent-seeking“-Aktivitäten beeinflu\t WIRD und da\ das PhÄnomen des „rent-seeking“ nicht notwendigerweise ein „geschlossenes ” ökonomisches Umfeld verlangt, sondern auch mit den sogenannten „offenen” Strategien des exportinduzierten Wachstums verbunden werden kann.;-;-;-;https://link.springer.com/article/10.1007/BF02707736 14227cacc13e3b42220dce96cffeda52;de;;;4.2.;;;Familienleben durch die Konstruktion einer Strukturgleichungsmodellierung Die Konstruktion einer Strukturgleichungsmodellierung kann verwendet werden, um die latenten Variablen zu identifizieren, die einem bestimmten Phänomen zugrunde liegen. Entwickelt durch die Impulse des Statistikers Psychometrie Karl Joreskog, finden solche Modelle zunehmend Anwendung im sozialen Bereich. Ziel der aktuellen Studie ist es, die latenten Variablen zu identifizieren, die der Veränderung des Familienlebensstils durch die wirtschaftliche Rezession zugrunde liegen, die sich in allen Ländern der Europäischen Union ausgebreitet hat und weiterhin ihre Auswirkungen hat. Genauer gesagt wurde eine Studie der Universität Bari berücksichtigt, um zu beobachten, wie sich der Lebensstil der in Bari lebenden Familien in Krisenzeiten entwickelt hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09150-1_15 2fedad34302dbd17fff086b014936311;de;;;5.2.;;;Narrative Exploration des Arbeitsbereichs: Überwindung von durch Unterbrechungen verursachten Kontextverlusten bei informationssuchenden Aufgaben Da digitale Bibliotheken immer häufiger werden und die Menge zugänglicher Online-Informationen wächst, müssen Benutzer bei der Durchführung von Aufgaben häufig verschiedene Informationssammlungen konsultieren. Gleichzeitig werden die Auswirkungen häufiger Unterbrechungen auf die Aufgabenleistung gravierender. Um die negativen Auswirkungen von Unterbrechungen auf die Arbeitsleistung zu bewältigen, engagieren sich Arbeitnehmer häufig in Aufgabenmanagement-Aktivitäten, um sicherzustellen, dass sie besser auf die Wiederaufnahme ausgesetzter Aufgaben vorbereitet sind. Das Verwalten von Aufgaben verursacht jedoch eine zusätzliche kognitive Belastung und verursacht einen Zeitaufwand für Benutzer, die ihre Aufmerksamkeit und Zeit bereits beansprucht haben. Wir beschreiben ein System, das es Benutzern ermöglicht, ihren vorherigen Arbeitsbereich intuitiv zu durchsuchen und die Kontinuität ihrer Aufgaben zu verbessern, indem es sie unterstützt, den gewünschten Arbeitskontext schneller und einfacher abzurufen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04346-8_52 3624596d65a37f53153edb465d0d2245;de;;;4.2.;;;Neuordnung von Behinderung und Lebensqualität: Kontextuelle Nuancen Die Forschung an Menschen mit einer Langzeiterkrankung oder Behinderung hat sich in erster Linie auf quantitative Instrumente zur Bestimmung der Lebensqualität verlassen. Während quantitative Instrumente eine zusammenfassende Bewertung der Auswirkungen von Gesundheitszuständen auf das Wohlbefinden, die körperliche Funktionsfähigkeit, die psychische und emotionale Gesundheit und die soziale Teilhabe von Menschen ermöglichen, können sie keine Erkenntnisse darüber liefern, wie und warum ihre Bedingungen unter verschiedenen persönlichen Umständen und gesellschaftlichen Bedingungen bewertet werden. Bevor wir die Kapitel in diesem Buch einführen, erläutern wir die Bedeutung ethnographischer und anderer qualitativer Forschung für ein umfassenderes Verständnis von Behinderung und Lebensqualität.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-3018-2_1 24980ed2c2f22ef3f9865402edad8f19;de;;;5.2.;;;Suche nach mathematischen Modellen für qualifizierte Aktionen Wir wollen Wahrnehmung und geschicktes Handeln in Mensch oder Maschine verstehen. Die Untersuchung, von der dieses Kapitel einen vorläufigen Teil zusammenfasst, zeigt einige neue mathematische Probleme auf, die für das Studium der gleichen Systeme wichtig sein können, die andere Personen bereits aus einem anderen Blickwinkel recht kompetent studieren. Dieses Papier enthält eine Erläuterung des Bereichs, in dem diese Probleme liegen, und der Gründe, warum sie wichtig erscheinen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-6558-1_15 2b728d408bd7b066ff720b8849648ea5;de;;;5.2.;;;Ein seroepidemiologisches Profil von Personen, die einen anonymen HIV-Test an alternativen Standorten im Bundesstaat New York anstreben Im Spätsommer 1985 wurden im Bundesstaat New York alternative Beratungs- und Teststellen für das humane Immunschwächevirus (HIV) eingerichtet. In einem Zeitraum von sechs Monaten zu Beginn des Jahres 1986 waren 14,4% der Personen, die HIV-Testergebnisse erhielten, seropositiv. Fragebogendaten wurden von 1.635 Personen zur Entwicklung eines epidemiologischen Profils der Teilnehmer erhoben: die meisten waren weiß (83%), männlich (72%), in den USA geboren (94%), gut (80%), die sich testen ließen, weil sie hatten Risikofaktoren (73 %) oder hatten Sex mit Risikopersonen (26 %). Bei Schwarzen (26 %), Hispanics (30 %), Männern (16 %) und Personen mit einem bekannten Risikofaktor (18 %) sowie bei Personen mit Symptomen (21 %) wurden höhere HIV-Seropositivraten festgestellt als bei die ohne diese Eigenschaften. Mit HIV-Seropositivität verbundene Faktoren werden beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0807-2_12 2765c509c15d6372412a0b98c233cca3;de;;;5.2.;;;Bewertung der sozialen Akzeptanz der sprachbasierten Smartwatch-Suche In letzter Zeit ist die Zahl der verfügbaren tragbaren Geräte (z. B. Smartwatch, interaktive Brillen usw.) gestiegen. In Verbindung damit ist die Zahl der Suchanfragen auf mobilen Geräten gestiegen. Angesichts dieser Trends ist es unvermeidlich, dass die Suche ein Teil der tragbaren Interaktion wird. Angesichts des Formfaktors und der Anzeigefähigkeiten von Wearables wird dies wahrscheinlich eine andere Art von Suchinteraktion erfordern, als sie derzeit in der mobilen Suche verwendet wird. In diesem Beitrag werden die Ergebnisse einer Nutzerstudie vorgestellt, die sich auf die Wahrnehmung der Nutzer von der Nutzung von Smartwatches für die Suche konzentriert. Besonderes Augenmerk legen wir auf die gesellschaftliche Akzeptanz verschiedener Suchszenarien, wobei wir uns auf Eingabemethode, Geräteform und Informationsbedarf konzentrieren. Unsere Ergebnisse zeigen, dass Zielgruppe und Standort einen großen Einfluss darauf haben, ob Personen eine sprachbasierte Suche durchführen. Die Ergebnisse werden Entwicklern von Suchsystemen helfen, die Suche auf Smartwatches zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48051-0_20 1d278d12b9434aea7565b3a84481b18d;de;;;4.2.;;;SNS-Kommunikationsmodell für das Netzwerkbildungssystem Social Network Service (SNS) ist ein aufkommendes Internet-Kommunikationsmodell. Es hat einzigartige Vorteile in der Kommunikation und Interaktion. In diesem Artikel werden die bestehenden Kommunikationsmodelle in der Netzwerkbildungsplattform analysiert und die Verwendung des SNS-Kommunikationsmodells erörtert. Es präsentiert ein Design der Rollen und Aktivitäten des SNS-Kommunikationsmodells in der Netzwerkbildungsplattform. Dieses Design verbessert die Probleme der mangelnden Kommunikation und des alleinigen Lernens unter den Fernlernenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22691-5_34 60bac5c970a93c1b3e38d3dad8fba26d;de;;;4.2.;;;Der soziale Charakter des Wassers Dieses Kapitel stellt unsere Hauptargumente bezüglich der Wechselbeziehung zwischen Wasserkonflikten und dem sozialen Kampf um das Territorium der Staatsbürgerschaft im mexikanischen Becken vor. Dieser Zusammenhang wurde in der Literatur aus einer Reihe von Gründen weitgehend vernachlässigt, möglicherweise hauptsächlich aufgrund des überragenden Gewichts physikalisch-natürlicher Beschränkungen bei der Kontrolle und Bewirtschaftung von Wasserressourcen und -diensten, was das Übergewicht technisch-wissenschaftlicher Problemerklärungen erklären könnte in diesem Bereich. Dieser vorherrschende Ansatz neigt jedoch dazu, die anhaltenden sozialen Ungleichheiten beim Zugang zu Wasser und sauberen Wasserdienstleistungen zu vernachlässigen, die für Millionen im Einzugsgebiet enormes Leid verursachen und ein wesentlicher Faktor dafür sind, dass sie die volle Mitgliedschaft in ihrer Gesellschaft ausschließen. Diese Arbeit versucht, einen Beitrag zu einem besseren Verständnis der wesentlichen Faktoren zu leisten, die diesen inakzeptablen Bedingungen zugrunde liegen.;-;-;-;https://link.springer.com/chapter/10.1057/9780230508811_2 5d51edd7d2e28513b377152ef5a213c3;de;;;4.2.;;;„Contextualizing Context“: Umweltbelastungen, soziale Netzwerke und Standortpräferenzen in der Gesundheitsforschung in Einklang bringen Das Ziel dieses Papiers ist es, die jüngsten Fortschritte in der Gesundheits- und Ortsforschung zu überprüfen und Konzepte zu diskutieren, die nützlich sind, um zu untersuchen, wie der Kontext die Gesundheit beeinflusst. Insbesondere werden Maßnahmen und Instrumente zur Berücksichtigung des Ortes, Konzepte in Bezug auf die tägliche Mobilität und die mehrfache Exposition gegenüber Orten überprüft und weiter auf die Verflechtung zwischen sozialen und räumlichen Netzwerken hingewiesen, um unser Verständnis dafür zu verbessern, wie sich der Kontext in Gesundheitsprofile niederschlägt.;-;-;-;https://link.springer.com/article/10.1007/s40572-017-0121-8 7a8d4601b5ab6dadd2b5fb3b3fbd1da9;de;;;4.2.;;;Folgen sozialer Ungleichheit für die Demokratie in Westeuropa Die Forschung zur sozialen Ungleichheit spricht von einer großen Veränderung der Einkommensungleichheit, die seit den 1970er Jahren stattfindet. Ungleichheit in der Einkommensverteilung trat zunächst hauptsächlich in angelsächsischen Ländern auf, hat aber in den letzten Jahrzehnten auch in Westeuropa zugenommen. Vor diesem Hintergrund fragen wir, wie sich Ungleichheit auf die politische Partizipation und die Einstellung zur Demokratie auswirkt. In unserem Artikel betrachten wir zunächst die zunehmende Einkommensungleichheit in den OECD-Ländern. Anschließend analysieren wir Daten aus 17 westeuropäischen Demokratien aus den;-;-;-;https://link.springer.com/article/10.1007/s12286-010-0086-6 7b62f8c4c67f768d9917e1fd112f80e9;de;;;4.2.;;;Verhandlungsmodellierung als soziale Interaktion für das ENS-Design: Der PROSPER-Ansatz Die Gestaltung elektronischer Verhandlungssysteme sollte ausreichend flexibel sein, um verschiedene Arten von Mechanismen sowie unterschiedliche Rollen der Teilnehmer zu berücksichtigen. Die aktuelle Arbeit stützt sich auf die Theorie der sozialen Interaktion, um Gestaltungsprinzipien und ein Modell für ein ENS vorzuschlagen. Das Modell wird anhand eines Repräsentationsrahmens für IS-Meta-Artefakte im Sinne der Design-Science-Forschung präsentiert. Die Merkmale und Funktionsweise des resultierenden Systems namens PROSPER (eine Plattform, die auf sozialer Beteiligung zur E-Markt-Realisierung basiert) werden vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07179-4_19 a9a9f28cbede5e39fbcdff640de638a7;de;;;5.2.;;;Einsatz der PERT/CPM-Technologie für die Entwicklung von Hochschulabsolventen, die eine Anstellung in der Projektplanung suchen Programmevaluation Research Technology (PERT) und die Critical Path Method (CPM) haben sich als wertvolle Werkzeuge für die Planung und Terminierung von Großprojekten durchgesetzt Einfluss ungewisser Faktoren und Kostenkontrolle. Wenn es schwierig ist, die Zeit einiger Aktivitäten genau abzuschätzen, können drei Schätzmethoden von PERT auch die ungefähre Wahrscheinlichkeit berechnen, das Projekt innerhalb der erforderlichen Zeit abzuschließen. Für den Einsatz der PERT/CPM-Technologie der Betriebsforschung hat dieses Papier die Anstellung in der Projektplanung für die Hochschulabsolventen gemacht, ihnen geholfen, verängstigte Gedanken zu beseitigen und Zeit und Gelegenheiten zu gewinnen, bevor sie einen Job bekommen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27452-7_39 ee7909405d6bb8666790e312c9897483;de;;;5.2.;;;Embodied Moving-Target Seeking mit Vorhersage und Planung Wir präsentieren eine bioinspirierte Kontrollmethode für die Suche nach beweglichen Zielen mit einem mobilen Roboter, die einem Räuber-Beute-Szenario ähnelt. Das motorische Repertoire eines simulierten Khepera-Roboters war auf eine diskrete Anzahl von „Gangarten“ beschränkt. Nach einer Erkundungsphase synthetisiert der Roboter automatisch ein Modell seines motorischen Repertoires und erwirbt ein Vorwärtsmodell. Für die Aufgabe, einen Beuteroboter zu fangen, wurden zwei zusätzliche Komponenten eingeführt. Zuerst ein inverses Modell zum Vorwärtsmodell, das verwendet wird, um die Aktion (den Gang) zu bestimmen, die erforderlich ist, um einen gewünschten Ort zu erreichen. Zweitens wird beim Jagen der Beute ein Modell des Verhaltens der Beute vom Jägerroboter online gelernt. Alle Modelle sind erlernt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13803-4_59 a461279ca191a6ffac8e74c7f43c06c9;de;;;4.2.;;;Die Rolle der Kinder bei der Gestaltung neuer Kontexte von Kinderrechten „Kinderrechte von unten“ verstehen wir im doppelten Sinne: Einerseits betonen wir, dass Kinder in den uns bekannten Gesellschaften – aus welchen Gründen auch immer – eine untergeordnete und machtlose soziale „Gruppe“ sind, die auf Rechte angewiesen ist, die sie können verwenden, um Generationen- und andere soziale Ungleichheiten zu überwinden. Andererseits betonen wir im Hinblick auf Kinder als Individuen, dass sie wie Erwachsene über spezifische Fähigkeiten verfügen, die sich im Laufe des Lebens ständig ändern und ihnen die Ausübung ihrer Rechte ermöglichen. Diese Fähigkeiten können sich von denen der Erwachsenen unterscheiden, können aber nicht als biologische Tatsache oder Ausdruck der körperlichen Entwicklung per se verstanden werden, sondern sind als kognitive, moralische und soziale Fähigkeiten auch Produkte spezifischer Lebens- und Generationenbeziehungen. Bei all ihren möglichen Unterschieden sind sie weder minderwertig noch „wertvoller“ als die Fähigkeiten, die Erwachsenen zugeschrieben werden. Ihr geringeres „Gewicht“ als typisches Merkmal von Kindern ist selbst Ausdruck der gesellschaftlichen Machtverhältnisse, denen die Anerkennung und „Gleichstellung“ von Kindern als Subjekten zu begegnen ist. Kinderrechte können dazu beitragen, diesen Wandel herbeizuführen.;-;-;-;https://link.springer.com/chapter/10.1057/9780230361843_13 ca15e97b91b9392ee5a846c9c411a0b3;de;;;4.2.;;;Menschliche Natur, Kommunikation und Kultur: demokratisches Denken in China und im Westen überdenken In den letzten zwei Jahrzehnten hat das Interesse an alternativen Formen demokratischer Regierungsführung enorm zugenommen. Dies gilt in den westlichen etablierten Demokratien und in einigen nichtdemokratischen Gesellschaften, insbesondere in China. Obwohl die Motive in diesen beiden Fällen divergieren, scheinen sich beide in die gleiche Richtung zu bewegen – die Erforschung partizipativer und deliberativer Formen der Demokratie. Mein Ziel in diesem Kapitel ist es, das vorherrschende westliche Konzept der deliberativen Demokratie kritisch zu untersuchen und vor diesem Hintergrund seine Anwendbarkeit sowohl in einem westlichen Umfeld als auch in China zu prüfen.;-;-;-;https://link.springer.com/chapter/10.1057/9780312376154_5 0f7aa19d6991d5420d6c1763de6668cb;de;;;5.2.;;;Die Auswirkung von Systemqualität, Wissensqualität und Wissensbeitragssignalen auf den Wissensbeitrag und das Suchverhalten der Mitglieder in professionellen virtuellen Gemeinschaften Professionelle virtuelle Gemeinschaften (PVCs) können als Plattformen für den Wissensaustausch dienen, die es den Mitgliedern der Gemeinschaft ermöglichen, freiwillig Beiträge zu leisten und gemeinsam nach Wissen zu suchen. Die vorhandene Literatur legt nahe, dass das Systemdesign von PVCs den Wissensbeitrag und das wissenssuchende Verhalten der Community-Mitglieder beeinflussen kann. Mit dem Erfolgsmodell des Informationssystems (IS) und der Signaltheorie als theoretische Linse schlagen und untersuchen wir die direkten Auswirkungen der Systemqualität, Wissensqualität und Wissensbeitragssignale von PVCs auf Wissensbeitrag und -suchverhalten. Empirische Daten wurden von einem PVC in Taiwan durch Umfragefragebögen gesammelt, 77 Teilnehmer beantworteten den Fragebogen zum Wissensbeitrag und 98 beantworteten den Fragebogen zur Wissenssuche. Die Ergebnisse zeigten, dass die Qualität des Wissensinhalts, der wahrgenommene virtuelle Belohnungsmechanismus, der wahrgenommene öffentliche Anerkennungsmechanismus und der wahrgenommene Wissensbewertungsmechanismus Bedeutung für das Wissensbeitragsverhalten haben. Die Qualität des Wissensinhalts, der wahrgenommene virtuelle Belohnungsmechanismus und der wahrgenommene Wissensbewertungsmechanismus haben Bedeutung für das wissenssuchende Verhalten. Zusammengenommen heben die Ergebnisse die Unterschiede in der Auswirkung von Systemartefakten auf diese Schlüsselverhaltensweisen in PVCs hervor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-81635-3_9 747005fda925821b59158ce4b5578aff;de;;;4.2.;;;Gesellschaftliche Entwicklung Die wichtigsten Dimensionen der nachhaltigen Entwicklung wurden in Kapitel 3 erörtert. Es wurde darauf hingewiesen, dass der nachhaltigen Entwicklung ursprünglich im Bericht der Weltkommission für Umwelt und Entwicklung (WCED) der Vereinten Nationen große Bedeutung beigemessen wurde.;-;-;-;https://link.springer.com/chapter/10.1057/9780230236677_7 cf7ac30380413c7af3b5d0e8294f12c0;de;;;4.2.;;;Lernen im Zeitalter der partizipativen Kultur: Ein Rückblick auf informelles Lernen durch soziale Medien Der Online-Teilnahme über soziale Medien wird ein großes Potenzial zur Förderung des Lernens zugeschrieben. Die Wirksamkeit hängt jedoch von mehreren Faktoren ab. Dieses Papier identifiziert (1) die Motivation des Lernenden zur Nutzung sozialer Medien für informelles Lernen und (2) die Chancen und Herausforderungen bei der Implementierung sozialer Medien für informelles Lernen durch die Überprüfung von 15 empirischen Artikeln. Die Überprüfung zeigt, dass Menschen aufgrund ihrer persönlichen Interessen und Erfahrungen, des Wunsches, Wissen zu teilen und Informationen auszutauschen, motiviert sind, am Lernen teilzunehmen. Ihre Motivation ist grundlegend für die Entstehung des informellen Lernens. Darüber hinaus könnten soziale Medien informelles Lernen als persönliches Lernen oder Lernen in einer Gemeinschaft erleichtern. Die Überlegungen dieser Studie können zum aktuellen Verständnis des informellen Online-Lernens beitragen und auch Auswirkungen auf die zukünftige Gestaltung von Unterrichtstechnologien haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8167-0_11 f896aca1e5fd88a90884e2f28df957c8;de;;;4.2.;;;Elektronische Partizipation mit besonderem Bezug zu Social Media - Ein Literaturüberblick Aufgrund der Interdisziplinarität der Elektronischen Partizipation (e-Participation) ist die aktuelle Forschung auf diesem Gebiet fragmentiert und verstreut. Die aufregenden verschwommenen Grenzen und die unausgereifte Identität des Feldes erschweren das Verständnis der wichtigsten untersuchten Domänenthemen, insbesondere für „Neophyten“-Forscher. In der Praxis ziehen mehrere e-Partizipation-Initiativen oft ein breites Publikum an, stoßen jedoch bei der Beteiligung der Interessenten an ernsthaften Einschränkungen. In jüngster Zeit wurde das Potenzial der Nutzung sozialer Medien zur Behebung des Defizits der Bürgerbeteiligung Gegenstand wissenschaftlicher Debatten. Durch die Konsultation von 44 Papieren zur e-Partizipation, die für die oben genannten Herausforderungen als sehr relevant erachtet werden, bietet dieses Papier einen allgemeinen Überblick über die Forschung zur e-Partizipation, insbesondere über soziale Medien. Die Ergebnisse zeigen, dass der Bereich e-Partizipation nach wie vor vor der Herausforderung der Identität steht und eine breitere Anerkennung als eigenständiger Forschungsbereich anstrebt. In Bezug auf die e-Partizipation durch soziale Medien, die in der Feldforschung teilweise übersehen zu werden scheint, hat die Interaktion zwischen Politikern und Bürgern die Aufmerksamkeit der Wissenschaftler dominiert, und die Annahme solcher Initiativen, die von Regierungen gefördert und vorangetrieben werden, wird selten untersucht. Basierend auf den Ergebnissen werden mehrere Forschungsvorschläge vorgeschlagen, die einen wesentlichen Beitrag zur Weiterentwicklung der zukünftigen E-Partizipationsforschung leisten könnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-45074-2_4 36e1a3d70bf6b76f597873390bce7c6e;de;;;4.2.;;;Ein theoretischer Rahmen für Vergleiche der Beteiligung an sozialen Bewegungen In diesem Artikel wird versucht, einen Rahmen für den Vergleich von Bewegungsbeteiligung zu entwerfen. Die von mir entwickelten Vergleichsmaßstäbe auf Bewegungsebene waren die Größe der Mobilisierungspotentiale, die Zusammensetzung multiorganisationaler Felder, Organisationsmerkmale und Handlungsorientierung. In diesem Rahmen habe ich Mobilisierungskampagnen für drei verschiedene Arten von Aktivitäten verglichen, die von drei verschiedenen Bewegungen durchgeführt wurden: eine Kampagne einer Gewerkschaft für möglicherweise einen Streik, eine Kampagne der niederländischen Friedensbewegung in einer lokalen Gemeinde für eine nationale Demonstration, und Kampagnen von Frauengruppen in einer Gemeinde für eine Vielzahl von Aktivitäten. Ich erkläre Unterschiede in der Motivationsdynamik und dem Grad der Beteiligung anhand unterschiedlicher Bewegungsmerkmale. Schließlich diskutiere ich die Vorteile der vergleichenden Arbeit zu sozialen Bewegungen.;-;-;-;https://link.springer.com/article/10.1007/BF01115051 b23941b53ce2295cd05f25f71b9735cc;de;;;5.2.;;;Beyond Expertise Seeking: Eine Feldstudie zu den informellen Wissenspraktiken von IT-Teams im Gesundheitswesen CSCW beschäftigt sich seit langem mit formellen und informellen Wissenspraktiken in Organisationen und untersucht sowohl die sozialen als auch die technischen Aspekte, wie Wissen gesucht, geteilt und genutzt wird. In dieser Studie sind wir daran interessiert, eine Reihe von Aktivitäten zu untersuchen, die auftreten, wenn Wissensarbeiter am gleichen Ort Probleme bewältigen und lösen, indem sie ihr informelles Wissen suchen, teilen und anwenden. Die informelle Wissenssuche umfasst mehr als die Identifizierung des Experten, der über das Wissen verfügt, oder den Zugriff auf das Wissen durch physische Artefakte. Dazu gehört auch, mit diesem Experten zusammenzuarbeiten, um das geeignete Wissen für die jeweilige Situation zu identifizieren und anzuwenden. Unser Verständnis davon, wie Menschen kollaborativ zusammenarbeiten, um dieses Wissen zu finden, zu teilen und anzuwenden, ist jedoch weniger gut verstanden. Um dieses Phänomen zu untersuchen, führten wir eine Feldstudie darüber durch, wie Fachleute in drei IT-Teams eines regionalen Krankenhauses IT-Probleme handhabten und lösten. Diese Wissensarbeiter nutzten verschiedene kollaborative Praktiken wie die Bildung von Ad-hoc-Teams und die Verwendung von E-Mail, um informelles Wissen zu identifizieren, zu teilen und zu nutzen, um IT-Probleme zu lösen. Darüber hinaus wirkten sich bestimmte Teampraktiken wie die Zuweisung von Themen auf diese Wissensaktivitäten aus. Unsere Ergebnisse heben hervor, wie informelle Wissensaktivitäten von einer Vielzahl impliziter und manchmal subtiler Merkmale der Organisation beeinflusst werden und dass organisationale Wissensmanagementsysteme informelle Aktivitäten zur Wissenssuche und die Zusammenarbeit zwischen den Wissensaustauschern unterstützen sollten.;-;-;-;https://link.springer.com/article/10.1007/s10606-011-9135-1 073c88320fb62f50565df2bfe4156684;de;;;5.2.;;;Sitzungssuchmodellierung durch teilweise beobachtbaren Markov-Entscheidungsprozess Die Sitzungssuche, die Aufgabe des Abrufens von Dokumenten für eine Reihe von Abfragen in einer Sitzung, hat in der Forschungsgemeinschaft zum Abrufen von Informationen zunehmende Aufmerksamkeit erfahren. Die Sitzungssuche weist die Eigenschaften umfangreicher Benutzer-System-Interaktionen und zeitlicher Abhängigkeiten auf. Diese Eigenschaften führen zu unserem Vorschlag, einen teilweise beobachtbaren Markov-Entscheidungsprozess zu verwenden, um die Sitzungssuche zu modellieren. Auf der Grundlage eines Design-Choice-Schemas für Zustände, Aktionen und Belohnungen evaluieren wir verschiedene Kombinationen dieser Entscheidungen über die TREC 2012- und 2013-Session-Track-Datensätze. Basierend auf den experimentellen Ergebnissen werden praktische Designempfehlungen für die Verwendung von PODMP in der Sitzungssuche diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s10791-017-9316-8 6abe7bbff001d059a493a09c739ca63e;de;;;5.2.;;;Warum folgen Patienten dem Rat der Ärzte? Der Einfluss des regulatorischen Fokus der Patienten auf die Adhärenz: eine empirische Studie in China Im Allgemeinen sind medizinische Behandlungen und Behandlungen mit größerer Wahrscheinlichkeit wirksam, wenn Patienten dem Rat ihres Arztes folgen. Allerdings haben sich begrenzte Studien auf die Beziehung zwischen regulatorischem Fokus und Patientenadhärenz konzentriert. Diese Studie untersucht die Vorläufer der Patientenadhärenz mithilfe der Theorie des regulatorischen Fokus.;-;-;-;https://link.springer.com/article/10.1186/s12913-019-4127-9 ab35e55c7ae989d0549172061295d736;de;;;5.2.;;;Ableiten von nicht beobachtbaren Lernvariablen aus dem Hilfesuchverhalten der Schüler Es werden Ergebnisse einer Evaluation der Einstellungen von Studierenden und ihrer Beziehung zum studentischen Verhalten innerhalb eines Tutorensystems präsentiert. Ausgehend von einer Korrelationsanalyse, die durch Umfragen erhobene Einstellungen der Schüler, Lernvariablen und Verhaltensweisen während der Verwendung des Tutors integriert, haben wir ein Bayes-Netzwerk aufgebaut, das Einstellungen und Wahrnehmungen gegenüber Hilfe und dem Tutorsystem ableitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30139-4_74 19c893a45676eda8d9a679e048ff04f6;de;;;5.2.;;;Eine Intervallmethode zur Suche nach den Nash-Gleichgewichten nicht-kooperativer Spiele Die Berechnung von Nash-Gleichgewichten in kontinuierlichen Spielen ist ein schwieriges Problem. Im Gegensatz zu diskreten Spielen sind Algorithmen, die für kontinuierliche Spiele entwickelt wurden, eher ineffizient. Dieses Papier schlägt einen neuen Ansatz vor – unter Verwendung von Intervallmethoden versuchen wir das Problem direkt zu lösen und suchen nach Punkten, die Nash-Bedingungen erfüllen. Wir betrachten auch eine Shared-Memory-Parallelisierung des vorgeschlagenen Algorithmus. Vorläufige numerische Ergebnisse werden präsentiert. Einige neue praktische Aspekte von Intervallmethoden werden berücksichtigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14403-5_47 36f59ac2ab50a1b6640103ecd4a0eb8f;de;;;5.2.;;;Proaktive Kommunikation in der Agenten-Teamarbeit Die Fähigkeiten für Agenten in einem Team, den Informationsbedarf von Teamkollegen zu antizipieren und relevante Informationen proaktiv anzubieten, sind äußerst wünschenswert. Allerdings sind solche Verhaltensweisen von bestehenden Agententheorien nicht vollständig vorgeschrieben. Um eine Theorie zum proaktiven Informationsaustausch zu etablieren, führen wir zunächst das Konzept des „Informationsbedarfs“ ein, identifizieren und definieren dann die intentionale Semantik zweier proaktiver kommunikativer Handlungen, die stark vom Bewusstsein des Sprechers für die Informationsbedürfnisse anderer abhängen. Es wird gezeigt, dass Kommunikationen, die diese proaktiven Performativen verwenden, als helfendes Verhalten abgeleitet werden können. Gesprächsstrategien mit diesen proaktiven Performativen werden ebenfalls diskutiert. Die Arbeit in diesem Dokument kann als Leitfaden für die Spezifikation und den Entwurf von Agentenarchitekturen, Algorithmen und Anwendungen dienen, die eine proaktive Kommunikation in der Teamarbeit von Agenten unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24608-4_16 e10b73c8eed6cb1f268e2d337c565806;de;;;5.2.;;;Untersuchung explorativer Suchaktivitäten basierend auf der Stratagem-Ebene in digitalen Bibliotheken In diesem Beitrag präsentieren wir die Ergebnisse einer Nutzerstudie zu explorativen Suchaktivitäten in einer sozialwissenschaftlichen digitalen Bibliothek. Wir führten eine Nutzerstudie mit 32 Teilnehmern mit sozialwissenschaftlichem Hintergrund – 16 Postdoktoranden und 16 Studenten – durch, die eine Aufgabe zur Suche nach verwandten Arbeiten zu einem bestimmten Thema lösen sollten. Die explorative Suchaufgabe wurde in einem 10-minütigen Zeitfenster durchgeführt. Die Nutzung bestimmter Suchaktivitäten wird gemessen und mit Blickdaten verglichen, die mit einem Eye-Tracking-Gerät aufgezeichnet wurden. Wir verwenden eine neuartige Baumdiagrammdarstellung, um die Suchmuster der Benutzer zu visualisieren und eine Möglichkeit vorzustellen, mehrere Suchsitzungsbäume zu kombinieren. Die Baumdiagrammdarstellung ist in der Lage, einen einzelnen Baum für mehrere Benutzer zu erstellen und gemeinsame Suchmuster zu identifizieren. Zudem wird das Informationsverhalten von Studierenden und Postdoktoranden verglichen. Die Ergebnisse zeigen, dass Suchaktivitäten auf Stratagem-Ebene häufig von beiden Nutzergruppen genutzt werden. Die am häufigsten genutzten Suchaktivitäten waren die Stichwortsuche, gefolgt vom Durchsuchen von Referenzen und Zitaten sowie der Autorensuche. Die Eyetracking-Ergebnisse zeigten eine intensive Auseinandersetzung mit den Metadaten von Dokumenten, insbesondere auf der Ebene der Zitate und Referenzen. Beim Vergleich der Gruppe der Studierenden und Postdoktoranden fanden wir signifikante Unterschiede hinsichtlich der Blickdaten im Bereich des Zeitschriftennamens des Seed-Dokuments. Generell fanden wir eine Tendenz der Postdoktoranden, die Metadatensätze hinsichtlich der Verweildauer und der Anzahl der Fixierungen intensiver zu untersuchen. Durch die Erstellung kombinierter Sitzungsbäume und die Ableitung von Teilbäumen daraus konnten wir gemeinsame Muster wie wirtschaftliches (exploratives) und erschöpfendes (Navigations-) Verhalten identifizieren. Unsere Ergebnisse zeigen, dass die Teilnehmer ausgehend vom Seed-Dokument mehrere Suchstrategien verwendeten, was bedeutet, dass sie verschiedene Wege untersuchten, um verwandte Publikationen zu finden.;-;-;-;https://link.springer.com/article/10.1007/s00799-017-0226-6 979282fec01287d3e59123f751bdf299;de;;;5.2.;;;Auswirkung der Direktwerbung von Arzneimitteln an den Verbraucher auf die Informationssuche Vergleich der Wirksamkeit von krankheitsspezifischer (hilfesuchender) Direktwerbung für Arzneimittel (DTCA) und produktspezifischer (Produktaussage) DTCA zur Stimulierung des Suchverhaltens externer Informationen nach Exposition in Bezug auf Arzneimittel- und Krankheitsinformationen von Ärzten, Apothekern, Pflegepersonal, Familie und Freunde sowie die Verwendung medizinischer Referenzen und des Internets in den Vereinigten Staaten.;-;-;-;https://link.springer.com/article/10.1177/009286151104500411 9f344abd15fc90539e29bcf52bbe7e8e;de;;;4.2.;;;Untersuchung der Wirkung einer multimodalen Mehrkanal-Lernumgebung auf die Motivation und Selbstwirksamkeit von Schülern Viele mehrkanalige multimodale Lernräume (MML) haben sich etabliert, seit sich die aktuelle Generation von Lernenden an eine mehrkanalige multimodale Art und Weise gewöhnt hat, ihre tägliche Umgebung zu erleben. Um die Wirksamkeit der MML-Raumimplementierung zu bewerten, wurde in der vorliegenden Studie als Interventionsforschung konzipiert, die das Lernen selbst untersucht, die Veränderung von Motivation und Selbstwirksamkeit von 48 Studenten der Shanghai Open University vor und nach ihrem Lernen in einer MML-Umgebung. Der Unterschied zwischen Selbstwirksamkeit/intrinsischer Lernmotivation der Schüler vor und nach der MML-Intervention zeigte sich signifikant (;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4594-2_14 210d600364fa571a98dd1971a6db4b77;de;;;4.2.;;;Dialogische Führung und IKT-intensive Arbeitsplätze: Wie man das Lernpotenzial steigert Arbeitsorganisationen stehen vor anspruchsvollen Herausforderungen, wie z. B. der Erwartung, kreativ, innovativ, agil, wettbewerbsfähig, effizient und geschickt darin zu sein, das Wissen der Mitarbeiter zu nutzen und gleichzeitig das Wohlergehen der Mitarbeiter zu verstehen und zu pflegen. Unternehmen implementieren aktiv neue IKT-Systeme und -Umgebungen, weil sie die Effektivität der Interaktion und Zusammenarbeit, des Lernens am Arbeitsplatz und der Arbeitsleistung zu erhöhen scheinen. Von den Mitarbeitern wird erwartet, dass sie ständig lernen und sich erneuern. Daher müssen Manager oft soziale Akrobaten sein, grundlegende Aufgaben kombinieren, Projekte leiten und innovative Ziele schaffen und erreichen. Arbeitseinheiten mögen potenzielle und vielseitige Lern- und Entwicklungsräume sein, aber gleichzeitig schaffen bestehende Routinen, Traditionen und Machtverhältnisse in Organisationen unterschiedlichste Grenzen und Konflikte. Dialogische Führung könnte einer der Schlüsselfaktoren in erfolgreichen modernen Organisationen sein. Dialogische Führung ist eine Voraussetzung, um die oben genannten Herausforderungen zu bewältigen. In diesem Papier untersuchen wir das Potenzial und die Herausforderungen von dialogischem Führen und Lernen bei der Einführung und Verwendung von e-Calendar (eC) in einer der professionellen Fallorganisationen des Dinno-Programms.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37285-8_8 852eccf596e7ffe48df6616affdf21a6;de;;;4.2.;;;Einfügung ins Soziale – Konstituierung von Publikum, Publikumskulturen und der Übergang vom Privaten zum Öffentlichen „Meine Worte sind aus dem Zusammenhang gerissen!“ ruft der Politiker mit Empörung auf der Stirn und Schmerz in der Stimme. Normalerweise meint er natürlich, dass Sie, wenn Sie die Worte vor oder nach dem zitierten Abschnitt wüssten, erkennen würden, dass er nicht von ganzem Herzen die Sterbehilfe befürwortet oder Rindfleisch auf den Knochen oder die Inhaftierung von Minderjährigen usw. Die Fähigkeit von Tonbandgeräten und Notizen, das gesprochene Wort einzufrieren und zu wiederholen, bedeutet in der Tat, dass Stücke extrahiert und in diesem Sinne „aus dem Zusammenhang gerissen“ werden können. Der nicht aufgezeichnete Sprechakt ist immer in einem Kontext und damit umgeben von einer Zeit, einem Ort, einem Ereignis und einem Publikum. Kaum ist der nicht aufgezeichnete Sprechakt artikuliert, ist er in eine Geschichte eingebettet, einen realen sozialen und kommunikativen Kontext, aus dem er nicht extrahiert werden kann. Man kann sich daran erinnern und es kann von denen, die dabei waren, rekonstruiert werden, indem man die Fiktion nutzt, dass die Rekonstruktion dem Original entspricht, aber nie wieder in seinem ursprünglichen Kontext rekonstruiert werden kann. Ein verdinglichtes Objekt wie ein gedruckter Text mag zwar konstantes Referenzpotential und beobachtbare Präsenz haben, lebt aber nur in seiner aktuellen Lesart, wie sie oft kommentiert wurde. Der aufgezeichnete Sprechakt hat wie der gedruckte Text das Potenzial, Gefühle, Reaktionen und Bedeutungen hervorzurufen, wie dies bei der ursprünglichen Darbietung/Lesung der Fall war.;-;-;-;https://link.springer.com/chapter/10.1057/9780230510111_4 9173e80e6d8cd757d72c950e2b966184;de;;;4.2.;;;Blended Learning als Werkzeug für Work-Life-orientierte Masterstudiengänge Masterstudiengänge an finnischen Fachhochschulen konzentrieren sich stark auf die realen Arbeitserfahrungen der Studierenden und beziehen diese in den Lehr- und Lernansatz ein. Die Studierenden dieser Programme verfügen über einen Hochschulabschluss und mindestens drei Jahre Berufserfahrung. Typische Studienaufträge sind echte Entwicklungsaufgaben für den eigenen Arbeitgeber und der Unterricht nutzt die vielfältigen Erfahrungen der Studierenden, um die Wissensbasis des Studiengangs zu erweitern. Diese Kurse erfreuen sich großer Beliebtheit, jedoch erweist sich die praktische Handhabung solcher Kurse (insbesondere mit zunehmender Zahl) als problematisch. Dieses Papier berichtet über Ergebnisse einer Pilotstudie, in der ein Blended-Learning-Ansatz für die Durchführung eines solchen Kurses verwendet wurde. „Blended“ bezieht sich in diesem Fall nicht nur auf die Mischung von Online- und Präsenzlernangeboten, sondern auf die Mischung von lehrergeleitetem Unterricht mit gemeinsamer Wissensbildung durch die Kursteilnehmer. Die im Rahmen der Studie erhobenen Daten weisen auf eine hohe Zufriedenheit sowohl der Studierenden als auch des Personals hin und weisen auf die besondere Eignung der eingesetzten Technologien für diese Interpretation von Blended Learning hin. Mangelnde technologische Fähigkeiten werden als potenzielles Problem identifiziert, das weitere Überlegungen erfordert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-62743-4_10 bcc5b7c8a2d0b206f4f3c7b2ea515905;de;;;4.2.;;;Organisatorisches Lernen, Agilität und soziale Technologien in modernen Arbeitsplätzen Die modernen Arbeitsplätze stehen vor anspruchsvollen Herausforderungen, wie z. B. der Erwartung, agil, wettbewerbsfähig, effizient zu sein und das Wissen der Mitarbeiter zu nutzen. Es gibt mehrere erforderliche Tugenden, um einen leitfähigen Arbeitsplatz zu haben, zum Beispiel organisatorisches Lernen und Agilität. Das Diskussionsforum zielte darauf ab, die wechselseitigen Rollen von organisationalem Lernen, Agilität und sozialen Technologien an modernen Arbeitsplätzen herauszustellen. Die Arbeitsweise in der Diskussionsgruppe bestand aus Brainstorming, Lerncafé und Mindmapping. Arbeitsorganisationen werden als potenzielle, aber widersprüchliche Lernräume untersucht. Agilität ist die Fähigkeit eines Unternehmens, schnell auf Nachfrageänderungen zu reagieren. Organisatorisches Lernen und Agilität werden zunehmend durch soziale Technologien ermöglicht. Die Fortschritte der sozialen Technologien in der modernen Gesellschaft verändern die modernen Arbeitsplätze rigoros. Soziale Technologien umfassen in das Internet eingebettete Kommunikations- und interaktive Mechanismen wie Wikis und Blogs. Wir schlagen vor, dass organisationales Lernen und Agilität zunehmend durch soziale Technologien ermöglicht werden könnten. Soziale Technologien haben jedoch das Potenzial, organisationales Lernen zu ermöglichen und zu deaktivieren. Der Einsatz von Social Technology und der Grad der Agilität hängen von kontextuellen Faktoren wie Organisationsform, Berufsfeld und Art der Arbeit ab. Unterschiedliche Arten von Organisationen und Arbeit haben unterschiedliche Bedürfnisse, soziale Technologien als treibende Kraft für organisationales Lernen und Agilität zu nutzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37285-8_24 33a2bbd48ddc2bca6ce2546f7dc755aa;de;;;5.2.;;;Begriffsklärung in arabischen Suchergebnissen: Eine Reihe von Benchmarks Websuchmaschinen zielen darauf ab, relevante Ergebnisse als Reaktion auf ein Informationsbedürfnis der Benutzer abzurufen. Die Abfrage, die den Benutzerinformationsbedarf ausdrückt, kann mehrdeutig sein, indem sie sich möglicherweise auf verschiedene Bedeutungen oder Sinne bezieht. Search Results Clustering (SRC) versucht, Abfrageergebnisse zu disambiguieren, indem sie in Gruppen sinnrelevanter Cluster gruppiert werden. Zu arabischen SRC wurde wenig geforscht, und ein wichtiger Grund könnte das Fehlen von Qualitätsmaßstäben für SRC-Tests und -Bewertung sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-32959-4_20 e330028b9b0aeced6152f758fe098338;de;;;4.2.;;;Die Anwendung der Sozialpsychologie Diese Beispiele sind typisch für Probleme, die in unserer Gesellschaft auftreten. Viele Sozialpsychologen meinen, sie sollten sich der Lösung solcher Probleme widmen. Kurt Lewin (1951) argumentierte, dass Sozialpsychologen sich aktiv für die Probleme der Gesellschaft interessieren und danach streben sollten, die Disziplin zur sozialen Verbesserung zu nutzen. Wie wir in Kapitel 1 erwähnt haben, widmeten viele Sozialpsychologen während des Zweiten Weltkriegs ihre Forschungsanstrengungen den Kriegsanstrengungen. Lewin zum Beispiel entwickelte Techniken, um Hausfrauen davon zu überzeugen, ihre Lebensmitteleinkaufsgewohnheiten zu ändern. Andere Psychologen halfen bei der Auswahl und Ausbildung von Undercover-Agenten, suchten nach Möglichkeiten, die Kampfermüdung zu reduzieren, und entwickelten Mittel zur Steigerung der Moral unter den Soldaten. Die Sorge um soziale Probleme wurde in den 1960er Jahren in den Vereinigten Staaten wiederbelebt. Die Proteste gegen die Unterdrückung schwarzer Bürger und die Opposition gegen den Vietnamkrieg erreichten einen Höhepunkt, was Sozialwissenschaftler dazu veranlasste, sorgfältiger über die Missstände der amerikanischen Gesellschaft nachzudenken. Psychologen begannen zu fragen, ob ihre Arbeit die Kultur in signifikanter Weise verändern könnte. Dieses Engagement, bei der Lösung praktischer Probleme mitzuhelfen, hat sich bis heute fortgesetzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-7866-6_13 7aa4606be3d12cf5f9d17aceb79bf097;de;;;4.2.;;;Zustand: Entwicklung oder Konkurrenz? Der Zweck dieses Buches ist es, die Schwächen des irischen Modells zu erklären. Die Kapitel 4 und 5 haben die wichtigsten theoretischen Ansätze zur Analyse dieses Modells untersucht und ihre Grenzen identifiziert. Für die vorherrschenden Lesarten beziehen sich diese Einschränkungen auf den engen und fragmentierten Fokus vieler wirtschaftlicher und soziologischer Analysen und die utilitaristischen und individualistischen Annahmen, die sie insbesondere in Bezug auf das Verhältnis von Wirtschaft und Gesellschaft prägen. Wie in Kapitel 5 argumentiert wurde, bieten die kritischen Lesarten eine breitere und zufriedenstellendere Untersuchung, die viele dieser Beschränkungen überwindet, dennoch bleiben Schwächen in Bezug auf die Theoretisierung des Wesens und der Rolle des Staates, des Verständnisses der produktiven Ökonomie, die informiert, einige, wenn auch nicht alle, der behandelten Werke und die kausalen Zusammenhänge zwischen Staat und Markt einerseits und gesellschaftlichen Ergebnissen andererseits. Kapitel 6 hat einen theoretischen Ansatz skizziert, der versucht, diese Beschränkungen zu überwinden, mit besonderem Fokus darauf, die Grundlagen für die Theoretisierung der Beziehung zwischen politökonomischen Konfigurationen (nämlich wie Staat und Markt in Wechselbeziehung stehen) und Prozessen egalitärer sozialer Entwicklung im Kontext von heutigen stärker globalisierten Welt, in der sich Nationales und Internationales durchdringen.;-;-;-;https://link.springer.com/chapter/10.1057/9780230278035_8 803d1edc8f3fc43c33e7c4a4ae3fed7c;de;;;4.2.;;;Die Rolle der Bürgerbeteiligung in kommunalen Smart City-Projekten: Lehren aus Norwegen In diesem Kapitel untersuchen wir die Rolle der Bürgerbeteiligung bei der Entwicklung von Smart Cities anhand von Literatur und Fallbeispielen aus norwegischen Städten. Wir geben einen Überblick über Technologien, die zur Partizipation eingesetzt werden, einschließlich ihrer Stärken und Schwächen, diskutieren, wie unterschiedliche Projekttypen im Entscheidungsprozess unterschiedlich gehandhabt werden sollten und geben Empfehlungen, wie Praktiker Bürgerbeteiligungsprojekte in Smart City-Initiativen aufsetzen können. Wir stellen drei verschiedene Kategorien von Partizipation vor: Bürgerkompetenz und Erfahrung, Datenerhebung durch die Nutzung von Technologie durch Bürger und Partizipation als demokratischer Wert. Darüber hinaus diskutieren wir, wie diese Kategorien im Hinblick darauf verstanden werden können, wer die Agenda festlegt und wer die endgültigen Entscheidungen trifft, um das Projekt intern in der Gemeinde und extern zu gestalten, damit die beteiligten Bürger wissen, was das Ergebnis des Projekts sein wird. Schließlich bieten wir Vorschläge für Technologien, mit denen Bürgerbeiträge in jeder der drei Beteiligungskategorien gesammelt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-17620-8_16 9a4cbd634ed78c3eb384d1f1c01fbccc;de;;;5.2.;;;Auf der Suche nach leistungsstarken Informationsträgern in sozialen Online-Netzwerken: eine dichte Gruppenperspektive Das schnelle Wachstum von sozialen Online-Netzwerken (OSNs) hat letztendlich die Verbreitung von Informationen erleichtert und die Wirtschaftlichkeit mobiler Netzwerke verändert. Es ist wichtig zu verstehen, wie Informationen so weit wie möglich verbreitet werden. In diesem Papier zielen wir darauf ab, auf effiziente Weise leistungsstarke Informationen zur Erstverbreitung zu suchen. Wir verwenden die Mean-Field-Theorie, um den Prozess der Informationsverbreitung basierend auf dem Susceptible Infected (SI)-Modell zu charakterisieren und zu validieren, dass die Informationsprävalenz von der Netzwerkdichte abhängt. Inspiriert von diesem Ergebnis suchen wir die ersten Spreizer aus eng integrierten Knotengruppen,;-;-;-;https://link.springer.com/article/10.1007/s11276-017-1478-1 a0530580f593f6929db61cd85a048a37;de;;;4.2.;;;Zivilgesellschaft und Online-Bürgerbeteiligung: Eine Fallstudie des Nossas Cidades-Netzwerks Der Artikel präsentiert eine Studie über den Einsatz von Informations- und Kommunikationstechnologien (IKT) durch die Zivilgesellschaft zur Förderung der E-Partizipation. Der Fokus liegt auf der;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99289-1_5 a7c713d280fa8e8d85ddca1eebd7036b;de;;;4.2.;;;SAFER-LIM: Eine Plattform für Hilfe, Pflege und soziale Integration für ältere Menschen El Der stetige Anstieg der älteren erwachsenen Bevölkerung der Welt wird zu einer der kritischsten sozialen Veränderungen des 21. Jahrhunderts, die erhebliche Anpassungen der Gesundheits- und Sozialsysteme jeder Nation erfordert. Aus den verschiedenen Bedürfnissen, die dieser demografische Wandel widerspiegelt, entsteht SAFER-LIM, eine Webplattform, die auf drei Achsen basiert, die die richtige Entwicklung jedes Einzelnen während seines Alterns garantieren: Verbindung mit der Gesellschaft, Interaktion mit Gleichaltrigen und Überwachung des Gesundheitszustandes. Von dort wird zentralisiert ein virtueller Raum geschaffen, der mit Ärzten, Pflegepersonal und Familienmitgliedern geteilt wird. Einerseits werden die sozialen Anforderungen durch die Aufnahme von Freunden, die Schaffung von Veranstaltungen und die Empfehlung von Orten erfüllt, indem die Aufwertung von Räumen und Orten für Senioren gefördert wird. Auf der anderen Seite hat er im Hinblick auf den Gesundheitszustand ein Netzwerk von e-Health-Sensoren für Ärzte entwickelt, die Messungen der biologischen Variablen jedes älteren Menschen nach einem auf Benutzerprofilen basierenden Modell verarbeiten und aufzeichnen. Schließlich können Pflegekräfte oder Angehörige im Allgemeinen in Echtzeit den geografischen Standort des älteren Erwachsenen sehen und Warnungen über die Änderung von Routen oder die Aufgabe von sicheren Bereichen (Geofences) erhalten. Die gewonnenen Ergebnisse zum Einsatz von SAFER-LIM in einer Seniorengemeinschaft zeigen positive Eindrücke über den Einsatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-42517-3_18 ef4b249f3d15ad702c441d80928f9c34;de;;;5.2.;;;Überblick über den INEX 2010 Ad-hoc-Track Dieses Papier gibt einen Überblick über den INEX 2010 Ad-hoc-Track. Die Hauptziele des Ad-hoc-Tracks waren dreifach. Das erste Ziel bestand darin, den gezielten Abruf unter ressourcenbeschränkten Bedingungen zu untersuchen, z. B. auf einem Mobilgerät mit kleinem Bildschirm oder einer Dokumentenzusammenfassung in einer Trefferliste. Dies führt zu Varianten der fokussierten Retrieval-Aufgaben, die sich mit den Auswirkungen von Ergebnislänge/Leseaufwand befassen, wobei man sich den fokussierten Retrieval als eine Form des „Snippet“-Retrievals vorstellt. Das zweite Ziel war es, die Ad-hoc-Retrieval-Testsammlung zur Wikipedia-Sammlung INEX 2009 um zusätzliche Themen und Urteile zu erweitern. Aus diesem Grund blieben die Themen und Bewertungen des Ad-hoc-Tracks unverändert. Das dritte Ziel bestand darin, den Trade-off zwischen Effektivität und Effizienz zu untersuchen, indem der Effizienz-Track als Aufgabe im Ad-hoc-Track fortgeführt wurde. Der INEX 2010 Ad Hoc Track umfasste vier Aufgaben: die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23577-1_1 ea1d6b1c6bd6e7874a11ddd2592d5230;de;;;5.2.;;;Sagt die soziale Unterstützung das Informationsverhalten schwangerer Mütter auf einer Bildungswebsite vorher? Wir untersuchen, wie soziale Unterstützung (empfohlene Unterstützung und Unterstützung durch einen Ehepartner oder engagierten Partner) das Informationsverhalten schwangerer Frauen auf einer Schwangerschaftswebsite beeinflussen kann. Wir bewerten das Informationssuchverhalten der Teilnehmer einer Studie, in der die Wirksamkeit einer webbasierten Intervention für eine angemessene Gewichtszunahme in der Schwangerschaft getestet wird. Teilnehmer waren schwangere Frauen (;-;-;-;https://link.springer.com/article/10.1007/s10995-014-1471-6 5aa998a1a091712f07f59cc8fa7e102e;de;;;5.2.;;;Modussuche Clustering nach KNN und Mean Shift ausgewertet Clustering nach Modussuche ist am beliebtesten unter Verwendung des Mean-Shift-Algorithmus. Eine weniger bekannte Alternative mit anderen Eigenschaften bezüglich der Rechenkomplexität ist die kNN-Modussuche, basierend auf der Nächster-Nachbar-Regel anstelle des Parzen-Kerneldichteschätzers. Es ist schneller und ermöglicht viel höhere Dimensionalitäten. Wir vergleichen die Leistungen beider Verfahren anhand einer Reihe von beschrifteten Datensätzen. Die abgerufenen Cluster werden mit den angegebenen Klassenlabels verglichen. Darüber hinaus werden die Eigenschaften der Verfahren für die Prototypenauswahl untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34166-3_6 358d4f542232cae969b182a8c1a91574;de;;;5.2.;;;Auto-Tuning-PID basierend auf einem Extremum-Suchalgorithmus für eine industrielle Anwendung Die Implementierung des PID-Reglers in der Industrie ist ein aktives Studiengebiet, jedoch ist es je nach verwendeter Technik möglich, dass aufgrund der Schwierigkeiten bei der Prozessidentifikation und Parameterabstimmung des Systems keine optimale und gute Leistung vorliegt, da keine vollständigen Informationen über der industrielle Prozess. In den letzten Jahren wurden PID-Autotuning-Methoden entwickelt, die es ermöglichen, effiziente Polynomregler zu synthetisieren, da die Parameter im Allgemeinen in gewissem Sinne optimal sind. In diesem Beitrag wird ein PID-Autotuning durch den Extremum-Suchalgorithmus (ES) in einer Flusssteuerungsanlage gezeigt, die mit Blockprogrammierung in einer speicherprogrammierbaren Steuerung (SPS) implementiert ist. Dieses Blocksystem erfasst in diesem Fall Eingangssignale, die von den Anlagensensoren erhalten werden B. einem Durchflusssensor, folglich wird ein Steuersignal an den frequenzvariablen Antrieb des Pumpensystems gesendet, die Zielsteuerung besteht darin, den Durchfluss durch das System konstant im gewünschten Sollwert zu halten. Im folgenden Abschnitt werden das Blockschaltbild der Regelstrecke, der Autotuning-ES-Algorithmus, die Simulationsergebnisse und die Echtzeitimplementierung auf den industriellen Prozess vorgestellt, schließlich werden einige Schlussfolgerungen und ein abschließender Implementierungskommentar unter Berücksichtigung einiger zukünftiger Arbeiten entwickelt .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-53021-1_24 1d7a8472509ac20e71d872cf405882d8;de;;;5.2.;;;Zu den Kommunikationsanforderungen für die Konsenssuche durch mehrere Agenten In der Literatur wurden mehrere Konsensusprotokolle vorgeschlagen und ihre Konvergenzeigenschaften mit einer Vielzahl von Methoden untersucht. Bei all diesen Methoden spielen die Kommunikationstopologien eine Schlüsselrolle bei der Konvergenz von Konsensprozessen. Das Ziel dieses Papiers ist zweifach. Zuerst untersuchen wir Kommunikationstopologien, wie sie durch die Kommunikationsannahmen impliziert werden, die zu einem Konsens zwischen Agenten führen. Dazu werden einige wichtige Ergebnisse in der Literatur untersucht und der Fokus liegt auf verschiedenen Klassen von Kommunikationsannahmen, wie Synchronismus, Konnektivität und Kommunikationsrichtung. Im letzten Teil dieses Beitrags zeigen wir, dass der konfluente Iterationsgraph verschiedene Kommunikationsannahmen vereint und sich als grundlegend für das Verständnis der Konvergenz von Konsensusprozessen erweist. Insbesondere basierend auf asynchronen Iterationsverfahren für nichtlineare Parakontraktionen, etablieren wir ein neues Ergebnis, das zeigt, dass Konsens unter gerichteten, zeitvariablen und asynchronen Topologien mit nichtlinearen Protokollen erreichbar ist. Dieses Ergebnis erweitert die bestehenden in der Literatur und hat viele potenzielle Anwendungen.;-;-;-;https://link.springer.com/chapter/10.1007/11533382_4 85789b9db7471b6349bd3794508a0b50;de;;;4.2.;;;Contestatory Urban Agency Mit einem größeren, potenziell vielfältigeren Publikum und Live-Shows, die eine kollektive Identitätserfahrung schaffen können, haben viele Hip-Hop-Künstler eine größere politische Aktualität als selbst die bekanntesten US-Dichter. Das dem Hip-Hop zugrunde liegende Verständnis von Agentur lässt sich am besten dadurch betrachten, wie es sich seinen Platz in der Welt durch die oft feindseligen, unwillkommenen Augen der Welt vorstellt. Dieses Verständnis gibt uns auch einige Hinweise darauf, wie Rapper geopolitische, wirtschaftliche und soziale Probleme sehen. Ihre Handlungsfähigkeit und Standpunkte sind eine wertvolle Gegenleistung für das, was die amerikanische Öffentlichkeit in den Nachrichten der meisten Medien hört und liest. Wie viele jugendliche Ansichten werden schließlich gehört? Wie viele afroamerikanische Ansichten? Wie viele Blicke aus verarmten Stadtvierteln, sogar aus Arbeitervierteln? Wie viele Ansichten, die das wirtschaftliche und politische System der Vereinigten Staaten selbst in Frage stellen? Wie oft betonen beispielsweise auf CNN oder NPR Experten, Politiker oder Künstler die gemeinschaftsbasierten Werte in Bezug auf gerechte Bildung und Gesundheitsversorgung, die in The Coup’s „Heven Tonite“ zu hören sind: „Lasst uns Gesundheitszentren in jedem Block bauen / Lasst uns allen geben Häuser und ein Gartengrundstück /geben wir allen Schulbüchern /zehn Kindern eine Klasse /und geben ihnen die Wahrheit für ihre Bleistifte und Blöcke“ (;-;-;-;https://link.springer.com/chapter/10.1057/9780230604308_5 a86cd2d180dc02a81335caf0c64d365d;de;;;4.2.;;;Soziale Netzwerke als wichtige Ressourcen für das Lernen von Erwachsenen Es ist klar, dass soziale Netzwerke, wenn sie kritisch erforscht und analysiert werden, ein allgegenwärtiges und mächtiges Werkzeug darstellen, um Einblicke in aktuelle und vergangene gesellschaftliche Trends und Perspektiven zu geben. Dieses Papier bietet ein Modell für das Nachdenken über und die Implementierung sozialer Netzwerke für Organisationen, die in virtuellen Räumen funktionieren und ihnen dienen. Von Fernunterricht über E-Commerce, B-Learning und Unternehmensschulungen bis hin zu informellem Lernen, Sport- und Unterhaltungsbranchen – Social Media ist ein leistungsstarker Kontext für Dialog, Ausdruck und gelebte Erfahrung. Wie gut sind unsere Organisationen darauf vorbereitet, aktuelle Trends und Perspektiven in virtuellen Räumen zu verstehen? Wo fangen wir an? Welche Fähigkeiten brauchen Mitarbeiter und Studierende, um die aus sozialen Medien und anderen virtuellen Räumen gesammelten Daten kritisch zu analysieren? Dieses Papier präsentiert spezifische Strategien, wertvolle Empfehlungen und weitere Richtungen für die Nutzung sozialer Netzwerke in diesen Bereichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31800-9_36 1f9844a96d315e2965f1d058c7a1d177;de;;;4.2.;;;Erkennung von Ereignisvorläufern in sozialen Netzwerken: Eine Graphlet-basierte Methode Die zunehmende Verfügbarkeit von Daten aus sozialen Online-Netzwerken weckt das Interesse von Forschern, die versuchen, Algorithmen und Modelle für maschinelles Lernen zu entwickeln, um die Interaktionen und das Verhalten der Benutzer zu analysieren. Es wurden verschiedene Methoden entwickelt, um bemerkenswerte Vorläufer von Ereignissen zu erkennen, indem Text-Mining- und Machine-Learning-Techniken für Dokumente verwendet oder Netzwerktopologie mit Graphmustern verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-75018-3_13 da9fdf0a91a27bf0dd2fc84bbad85770;de;;;5.2.;;;Suche nach möglichen Beiträgen zum zukünftigen Kohlenstoffhaushalt in zusammenhängenden US-Wäldern unter Berücksichtigung von Störungen Derzeit stellen US-Wälder eine große Kohlenstoffsenke dar, die etwa 9 % der globalen terrestrischen Kohlenstoffsenke ausmacht. Wildfire ist die bedeutendste Störung, die die Kohlenstoffdynamik in den US-Wäldern beeinflusst. Unser Ziel ist es, die Auswirkungen des Klimawandels, CO;-;-;-;https://link.springer.com/article/10.1007/s00704-016-1936-1 8aebfd3e06a077757b209648c735de6f;de;;;4.2.;;;Internationale multilaterale Verhandlungen und soziale Netzwerke Im Vergleich zu ihren bilateralen Pendants weisen multilaterale Verhandlungen in einem internationalen Umfeld ein äußerst komplexes Verhandlungsphänomen auf. Dieses Papier schlägt ein Verhandlungsmodell vor, das untersucht, wie sich nationale Kultur, organisationsspezifische Faktoren und individuelle Merkmale der Verhandlungsführer auf den multilateralen Verhandlungsprozess in einem länderübergreifenden Kontext auswirken. Insbesondere werden Theorie und Werkzeuge sozialer Netzwerke verwendet, um zu untersuchen, wie sich Koalitionen bilden und Rollen unter den Teilnehmern entstehen. Das Modell postuliert auch die Wirkung von Aktivitäten in sozialen Netzwerken auf die Verhandlungsergebnisse. Forschungsvorschläge werden in der Hoffnung übermittelt, eine Agenda für den durch das Modell implizierten Forschungsstrom festzulegen. Auch Methoden zur Erprobung des Modells und Implikationen für Akademiker und Führungskräfte werden diskutiert.;-;-;-;https://link.springer.com/article/10.1057/palgrave.jibs.8490048 86aa0ee67c00d5fe695216a4367bbd39;de;;;4.2.;;;PAKDD 2020 Alibaba AIOps Competition - Vorhersage von groß angelegten Festplattenausfällen: Drittplatziertes Team Dieses Papier beschreibt unsere Einreichung beim PAKDD 2020 Alibaba AIOps Competition: Large-scale Disk Failure Prediction. Unser Ansatz basiert auf dem LightGBM-Klassifikator mit Fokusverlust-Objektivfunktion. Die Methode belegt in der letzten Wettkampfsaison den dritten Platz mit einem F1-Ergebnis von 0,4047, während das siegreiche F1-Ergebnis 0,4903 beträgt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7749-9_2 7d29d5d5e4b9debe3cb3199dbb0a015b;de;;;5.2.;;;Individuelle Unterschiede in der Anfälligkeit für Drogenmissbrauch: d-Amphetamin und Sensationssuchstatus Während die Persönlichkeitsdimensionen der Suche nach Neuheit und Sensation mit der Anfälligkeit für Drogenmissbrauch verbunden sind, bleiben die mit dieser Anfälligkeit verbundenen Mechanismen unklar.;-;-;-;https://link.springer.com/article/10.1007/s00213-006-0487-z 658a5cb798b03d1ea7ecf6136d13fb37;de;;;5.2.;;;Dezentrale Extremum-suchende Kontrolle von nichtholonomen Fahrzeugen zur Bildung einer Kommunikationskette Electronic Chaining ist die Bildung einer verknüpften Kommunikationskette, die den End-to-End-Durchsatz mit einem kooperativen Team mobiler Fahrzeuge in einer unbekannten, dynamischen Umgebung maximiert. Ein dezentraler Extremum-Such-(ES)-Controller, der ein adaptiver modellfreier Controller ist, wird vorgestellt, um die Standorte der Mobilkommunikationsrelais basierend auf der empfangenen Signalstärke im Gegensatz zu der relativen Position zu steuern. Eine Kommunikationskette, die versucht, eine Verbindungsleistungsmetrik wie etwa Bandbreite oder Ende-zu-Ende-Verzögerung zu maximieren, bildet nicht notwendigerweise eine lineare, gleichmäßig beabstandete Formation der Knoten, wenn Störungen und Umgebungsgeländefaktoren berücksichtigt werden. Dieses Kapitel stellt einen ES-Controller vor, der speziell für die Verwendung mit Teams unbemannter Flugzeuge mit einem Lyapunov-Leitvektorfeld-Controller entwickelt wurde und sich insbesondere auf die Leistung und Stabilität des ES-Algorithmus aufgrund der Betriebsgrenzen und Einschränkungen eines unbemannten Flugzeugs konzentriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74356-9_19 093403607383fdcb582fe1e2440a6a69;de;;;5.2.;;;Extremum-Suchmethoden für die Online-Automobilkalibrierung Der automobile Kalibrierprozess wird immer schwieriger, da die Freiheitsgrade moderner Motoren mit der Anzahl der Aktuatoren steigen. Dies geht einher mit dem Wunsch, alternative Kraftstoffe zu Benzin und Diesel zu nutzen, um eine geringere;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-05371-4_2 f9871bbbdef09e5138d57a3cf369d259;de;;;5.2.;;;Die Anwendung von Artikel 7 des Schweizerischen Internationalen Privatrechtsgesetzes (Schweiz) Bevor auf die Analyse von Artikel 7 des Schweizerischen Internationalen Privatrechtsgesetzes (IPRG) zurückgegriffen wird, sind einige allgemeine Punkte zu beachten. Obwohl das vorliegende Kapitel ähnlich wie das vorherige Kapitel versucht, im Wesentlichen der gleichen Struktur zu folgen wie;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-00134-0_8 9ae6e61bced1a1c38c2652309152fd3e;de;;;5.2.;;;Überblick über den INEX 2009 Ad-hoc-Track Dieses Papier gibt einen Überblick über den INEX 2009 Ad-hoc-Track. Die Hauptziele des Ad-hoc-Tracks waren dreifach. Das erste Ziel war es, den Einfluss der Sammlungsskala und des Markups zu untersuchen, indem eine neue Sammlung verwendet wurde, die wiederum auf Wikipedia basiert, aber über viermal größer ist, mit längeren Artikeln und zusätzlichen semantischen Annotationen. Aus diesem Grund blieben die Ad-hoc-Track-Aufgaben unverändert und die Gründliche Aufgabe von INEX 2002–2006 kehrt zurück. Das zweite Ziel bestand darin, die Auswirkungen ausführlicherer Abfragen auf die Abrufeffektivität zu untersuchen, indem das verfügbare Markup als strukturelle Einschränkungen verwendet wurde – jetzt sowohl das layoutbasierte Markup von Wikipedia als auch das angereicherte semantische Markup – und die Verwendung von Phrasen. Das dritte Ziel bestand darin, verschiedene Ergebnisgranularitäten zu vergleichen, indem es den Systemen ermöglicht wurde, XML-Elemente, Bereiche von XML-Elementen oder beliebige Textpassagen abzurufen. Dies untersucht den Wert der internen Dokumentstruktur (wie durch das XML-Markup bereitgestellt) zum Abrufen relevanter Informationen. Der INEX 2009 Ad Hoc Track umfasste vier Aufgaben: Für die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14556-8_4 b07fc7c690ea2c36ff3542d46bb197f6;de;;;4.2.;;;Institutionelle Unterstützung der Moral In ihrer Untersuchung der Faktoren, die die Beteiligung der Amerikaner an kollektiven Aktionen erklären, hinterfragen Verba und seine Kollegen die Logik von Rational-Choice-Theorien, die davon ausgehen, dass Bürger von Aktivitäten zugunsten eines kollektiven Gutes Abstand nehmen. Da Individuen unabhängig davon, ob sie am politischen Prozess teilnehmen oder nicht, von den Vorteilen kollektiver Güter profitieren, legt die Rational-Choice-Theorie nahe, dass es für Bürger klug ist, ihre Ressourcen zu schonen und sich der Beteiligung der Gemeinschaft zu enthalten, um „eine freie Fahrt“ zu machen. Verbaet al. stellen: „Das Rätsel der Partizipation wird also: Wie ist die Tatsache zu erklären, dass Millionen von Bürgern scheinbar trotz dieser eleganten Logik verschiedene Arten von freiwilligen Aktivitäten für kollektive Zwecke wählen oder sich daran beteiligen?“ Die Antwort der Autoren lautet, dass der Nutzen der Partizipation die Zufriedenheit einschließt, die daraus entsteht, „seinen Beitrag zu leisten, um die Gemeinschaft, Nation oder Welt zu einem besseren Ort zu machen“. In diesem Kapitel wird argumentiert, dass die Teilnahme an gemeindebasierten oder nachbarschaftlichen Organisationen (im Folgenden als CBOs oder CBYOs für gemeindebasierte Jugendorganisationen bezeichnet) eine bürgerliche Ethik bei jungen Menschen fördert. Durch das Engagement in solchen Gruppen lernen Jugendliche, dass „das Tragen der Kosten Teil des Nutzens wird“ (Verba et al., 1995, S. 100–103).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-4163-6_10 de58213efd99583a311adac94609e08a;de;;;4.2.;;;Digital Power: Beteiligung der Öffentlichkeit an einer Umweltkontroverse Zu Beginn des 21. Jahrhunderts gab es überall in China Beweise für die wirtschaftliche Entwicklung, Xiamen war keine Ausnahme. Xiamen, eine wunderschöne Küstenstadt auf der anderen Seite der Taiwanstraße, war im Begriff, eine der führenden Städte in Chinas Wirtschaftsboom zu werden. Der Bezirk Haicang, der etwa 16 Kilometer vom Stadtzentrum von Xiamen entfernt liegt, erhielt eine einzigartige Gelegenheit, als ein taiwanesisches Unternehmen zustimmte, in Haicang mit einer Chemiefabrik namens PX Project zu investieren. Als sich die Gelegenheit bot, war es auch ungefähr zu der Zeit, als die Immobilienbranche von Haicang nach vielen Jahren der Ruhezeit wieder an Fahrt gewann. Da Xiamen schnell wuchs, mussten einige Einwohner von Xiamen in die Außenbezirke der Stadt ziehen, um genügend Wohnraum zu haben. Haicang erwies sich als nicht allzu weit weg und die dortigen Wohnungen nicht zu unerreichbar. Die Nachricht vom Bau einer PX-Anlage (Paraxylol) kam ungefähr zur gleichen Zeit, als viele Einwohner Xiamens begannen, nach Haicang zu ziehen.;-;-;-;https://link.springer.com/chapter/10.1057/9780230114364_8 75de304421df1ff54697e415e96c6c16;de;;;4.2.;;;Bewegung und Engagement in flexiblen, technologiegestützten Klassenzimmern: Untersuchung des kognitiven und emotionalen Engagements aus der Perspektive der Fakultät Das Hauptziel der Studie bestand darin, spezifische Möglichkeiten zu verstehen, wie ein flexibler, technologiegestützter Raum Möglichkeiten für das Engagement der Studierenden schaffen kann. Trotz einiger Studien, die sich mit Klassenzimmerelementen wie Möbeln befassen, plädieren Forscher für eine ganzheitlichere Aufmerksamkeit für die Materialien von Lernumgebungen, um die Aktivitäten, an denen sich die Schüler beteiligen, besser zu unterstützen. Um diese Lücke zu schließen, haben wir diese qualitative Fallstudie zur Rolle der physischen Struktur flexibler Klassenzimmer für das Engagement von College-Studenten entworfen. Die Ergebnisse der Analyse der Daten können in drei Bereiche eingeteilt werden: (a) flexible Raumaufteilung und bewegliche Möbel ermöglichten es den Teilnehmern, Umgebungen zu schaffen, die die Gruppeninteraktionen der Schüler unterstützen könnten, (b) flexible Raumaufteilung und bewegliche Werkzeuge ermöglichten den Menschen, sich zu bewegen um die Interaktion von Schüler zu Schüler und Lehrer zu Schüler zu verbessern, und (c) durch die Bewegung von Möbeln und Werkzeugen und die Bewegung von Menschen konnten die Teilnehmer leicht zwischen verschiedenen Aktivitäten wechseln. Die einfache Bewegung von Werkzeugen und Möbeln erweitert die Palette der verfügbaren Klassenzimmerkonfigurationen, um die Interaktionsmöglichkeiten zu optimieren. Ebenso ermöglicht die Flexibilität des Klassenzimmers eine relativ einfache Bewegung der Menschen. Unsere Daten legen nahe, dass eine solche Flexibilität die Interaktion und das Engagement zwischen Schülern und Lehrern erleichtern kann, um Möglichkeiten zu schaffen, sowohl das kognitive als auch das emotionale Engagement zu fördern. Die Ergebnisse unterstreichen die entscheidende Rolle von Raum, Möbeln und Werkzeugen bei der Schaffung von Lernumgebungen, die das Engagement der Studierenden in Hochschuleinrichtungen unterstützen.;-;-;-;https://link.springer.com/article/10.1007/s10984-021-09363-0 f1cf5bdaa28d7f36c29a5521e10761f4;de;;;4.2.;;;Merkmale lang anhaltender sozialer Bewegungen: der Fall der Proteste im Gezi-Park Dieses Kapitel zielt darauf ab, eine theoretische Perspektive auf das schwankende Ausmaß intensiven kollektiven Handelns während umstrittener sozialer Bewegungen zu geben. Während es in einigen Fällen zu einem allmählichen Rückgang der Proteste kommt, gibt es in anderen Fällen eine Fluktuation und ein Wiederaufflammen der Proteste. Dieses Kapitel versucht zu verstehen, warum sich die Proteste im Gezi-Park in der Türkei verlängert haben. Das Hauptargument, das wir vorbringen, befasst sich mit der zeitlichen Dimension sozialer Bewegungen. Konkret problematisiert sie die sequentielle Varianz von Intensität und Eskalations- und Mäßigungsmustern innerhalb einer sozialen Bewegung.;-;-;-;https://link.springer.com/chapter/10.1057/9781137530868_18 1ae656b38e1901ba28613d230492544c;de;;;4.2.;;;Moralisches Funktionieren in der Schule Um einen Beitrag zur Gesellschaft zu leisten, gehen die meisten Menschen über eine ausschließliche Beschäftigung mit moralischem Verhalten und Charakter hinaus und überlegen, wie institutionelle Praktiken moralische Funktionen erleichtern oder untergraben. Schulen können zu dieser Entwicklung beitragen, indem sie jungen Menschen helfen, ihr Wissen über Persönlichkeiten zu erweitern und ein Bewusstsein dafür zu schaffen, wie gesellschaftliche Institutionen Denken, Fühlen und Handeln beeinflussen. In Schulen können die Schüler mit Menschen interagieren, deren Familien sich von ihren eigenen unterscheiden, und sie sind neuen Gruppennormen und institutionellen Praktiken ausgesetzt. Schulen sind in erster Linie dafür verantwortlich, jungen Menschen beim Erlernen des Lesens, Schreibens und Rechnens zu helfen, aber viele Pädagogen übernehmen auch bewusst die Verantwortung dafür, Weisheit und Fairness zu fördern (z. B. Battistich, Solomon, Kim, Watson & Schaps, 1995).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-4163-6_8 5ceee799669b3f9c944e1acddd3a0ddd;de;;;5.2.;;;Wann Feedback im Dialog eingeholt werden sollte: Auf dem Weg zu einem Modell, das auf den Informationsbedürfnissen der Redner basiert Kommunikatives Feedback im Dialog ist ein wichtiger Mechanismus, der Gesprächspartnern hilft, ihre Interaktion zu koordinieren. Hörer geben proaktiv Feedback, wenn sie der Meinung sind, dass es für den Sprecher wichtig ist, ihren mentalen Zustand zu kennen, und Sprecher suchen proaktiv nach Feedback der Hörer, wenn sie Informationen darüber benötigen, ob ein Hörer ihre Botschaft wahrgenommen, verstanden oder akzeptiert hat. In diesem Papier werden erste Schritte zu einem Modell vorgestellt, das es aufmerksamen Sprechern ermöglicht, zu bestimmen, wann Feedback basierend auf der kontinuierlichen Bewertung ihres Informationsbedarfs über den Hörzustand eines Benutzers eingeholt werden muss.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09767-1_10 5ed567a1e530f93770490680f7a455f1;de;;;4.2.;;;Vom mexikanischen Onda zu McOndo: Die sich wandelnde Ideologie der Massenkultur Seit der Einführung des Radios in Lateinamerika in den 1930er Jahren – und später des Fernsehens in den 1950er Jahren – ist die Massenkultur ein wesentlicher Bestandteil der lateinamerikanischen Identität und als solcher auch ein wichtiger Bestandteil lateinamerikanischer Erzählungen geworden. Es lassen sich zwei unterschiedliche Reaktionen hinsichtlich der Bedeutung dieses neuen Mediums der Information und Muße in diesen Erzählungen erkennen. Einerseits geben die Texte der mexikanischen Onda-Autoren der 1960er Jahre, darunter José Agustín und Héctor Manjárrez, das kulturimperialistische Argument, in dem die Massenkultur als Teil der hegemonialen Herrschaft der westlichen oder nordamerikanischen Ideologie einen zentralen Stellenwert einnimmt . Als sich jedoch die Natur und der Zugang zur Massenkultur Anfang der 1990er Jahre änderten, verwarfen Autoren wie Alberto Fuguet die kulturimperialistische Kritik und wichen einer postmodernen Ästhetik, die sich mehr auf die Interaktion des Einzelnen mit dem Text als auf die damit verbundenen gesellschaftlichen Implikationen konzentrierte.;-;-;-;https://link.springer.com/chapter/10.1057/9781137444714_2 d25dbce6f097ef6375961cd13e62d191;de;;;4.2.;;;Können die sozialen Online-Netzwerke als Lernwerkzeug verwendet werden? Eine Fallstudie in Twitter Das Web 2.0 hat zu einer deutlichen Zunahme der Nutzung sozialer Online-Netzwerke geführt. In diesem Szenario wurde Twitter für die Zusammenarbeit, Kommunikation und den Austausch von Ideen zwischen Benutzern mit gemeinsamen Interessen verwendet. Folglich ist eine zunehmende Akzeptanz sozialer Netzwerke als Ressource zur Unterstützung des Lernens außerhalb des Klassenzimmers zu beobachten. Sie können Mechanismen für den Austausch von Ideen und Diskussionen über die Studienfächer bereitstellen. Allerdings besteht unseres Wissens in der Literatur kein Konsens darüber, ob Nutzer diese Ressourcen tatsächlich für diesen Zweck effizient einsetzen. Eine wichtige Frage ist: Können die sozialen Online-Netzwerke als effizientes Lernwerkzeug genutzt werden? Dieses Papier hilft uns, die Antwort zu finden, und präsentiert empirische Ergebnisse eines Experiments, das durchgeführt wurde, um die Wirksamkeit von Twitter zur Unterstützung des Lernens zu bewerten und auch das allgemeine Verhalten seiner Benutzer zu identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10671-7_11 4710e34b8a8d19aa6703cb04eb4f8052;de;;;5.2.;;;Instagram das! Teilen von Fotos auf Instagram Das Sharing-Verhalten ist ein wichtiges Element, um den Einfluss sozialer Netzwerkdienste zu verstehen. Das Ziel der vorliegenden Studie ist es, die Beweggründe zu untersuchen, die Benutzer dazu bewegen, Fotos auf Instagram, einem beliebten sozialen Netzwerkdienst zum Teilen von Fotos, zu teilen. Diese Studie wandte den Uses and Gratifications-Ansatz an, um die Gründe der Instagram-Mitglieder für das Teilen von Fotos zu ermitteln. Die Daten (N=115) wurden aus einer Online-Umfrage erhoben. Eine Hauptkomponenten-Faktorenanalyse zeigte, dass es vier Motive für das Teilen von Fotos gab: Informativität, Unterstützung durch die Gemeinschaft, Statussuche und Selbstdarstellung. Außerdem führten wir Korrelations- und Regressionsanalysen durch. Unsere Ergebnisse zeigen, dass das Alter, die Anzahl der Follower und die Anzahl der Follower auf Instagram mit den Befriedigungen zusammenhängt, die Benutzer auf Instagram suchen. Darüber hinaus stellten wir fest, dass das Teilen von Fotos durch die Benutzer hauptsächlich durch das Bedürfnis nach Selbstdarstellung und Statussuche motiviert war. Auch die Implikationen unserer Arbeit werden besprochen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27974-9_13 badf65039a3a4382cbb92496db4a2da0;de;;;5.2.;;;Auf dem Weg zur Zero-Input-Personalisierung: Referrer-basierte Seitenvorhersage Die meisten Webdienste verfolgen einen „one size fits all“-Ansatz: Alle Besucher sehen denselben generischen Inhalt, der auf dieselbe generische Weise formatiert ist. Aber natürlich hat jeder Besucher seine eigenen Informationsbedürfnisse und Vorlieben. Im Gegensatz zu den meisten Personalisierungssystemen interessiert uns, wie effektiv die Personalisierung ohne zusätzliche Benutzereingaben oder Feedback sein kann. Dieses Papier beschreibt;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44595-1_13 e9af41d1e9e44f53e56d0f14113a644e;de;;;4.2.;;;Wissensintegration in Problemlösungsprozesse Dieses Papier analysiert die Wissensintegration in Problemlösungssituationen, die ein hohes Maß an Interaktion und Vertrauen zwischen den Mitarbeitern erfordert. Die Literaturrecherche untersucht die Hauptbarrieren, die mit der Wissensintegration und -nutzung verbunden sind, auch wenn die meisten Problemsituationen unbewusst, automatisch und in wenigen Sekunden gelöst werden, andere Situationen erfordern mehr Zeit, Mühe, Teamarbeit, Zusammenarbeit und umfangreiches abstraktes Wissen. Dieses Forschungsziel ist es, die Wahrnehmungen der Mitarbeiter der Alpha Organisation zu analysieren. Die Forschungsergebnisse lassen den Schluss zu, dass der Bediener je nach Komplexität des Arbeitsplatzes entscheidet, ob er über das Wissen und die Werkzeuge zur Lösung des Problems verfügt oder ob er Hilfe von Managern benötigt. Die Nutzung und Weitergabe des Wissens der Mitarbeiter ist ein wichtiger Faktor, um Probleme zu lösen und die Leistungsfähigkeit zu stärken. Allerdings bedingen mehrere organisatorische und individuelle Barrieren den Prozess.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36981-0_10 bdc0f76ab7d2e715affdb2071355a446;de;;;4.2.;;;Forschung zur gesellschaftlichen Verantwortung von Künstlicher Intelligenz basierend auf ISO 26000 Aufgrund der Grenzen der Technologie der künstlichen Intelligenz (KI) sind die Richtlinien und Vorschriften verzögert, die soziale Verantwortung der künstlichen Intelligenz weist eine Reihe von Problemen auf, wie z. B. Menschenrechte, Umweltprobleme. Basierend auf ISO 26000, den sieben Kernthemen der sozialen Verantwortung: Organisationsführung, Menschenrechte, Arbeit, Umwelt, faire Betriebspraktiken, Verbraucherfragen, Beteiligung der Gemeinschaft und Entwicklung. In diesem Beitrag beschreiben wir die Probleme der künstlichen Intelligenz in diesen sieben Aspekten. Dann haben wir analysiert und entsprechende Gegenmaßnahmen besprochen. Abschließend können wir den Schluss ziehen, dass künstliche Intelligenz auf die Wahrnehmung gesellschaftlicher Verantwortung achten sollte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00214-5_17 3a65f5fd0cf20f7cb183e042ee215ace;de;;;5.2.;;;Teilen von Identitätsinformationen auf Dark Web Drug Boards Dieses Kapitel verwendet Elfreda Chatmans Konzept der kleinen Welten und Reijo Savolainens Konzept von Way of Life, um den Austausch von Identitätsinformationen auf einem finnischen Dark-Web-Drogenhandels-Image-Board zu untersuchen. Basierend auf einer kuratierten Reihe von Beiträgen zeigt es, wie sich der Austausch von Identitätsinformationen von Menschen in solchen anonymen Foren oft um Fragen des Vertrauens und der Sicherheit dreht. Das Kapitel stellt fest, dass auch diese wie andere virtuelle Kleinweltgemeinschaften informationsarme Umgebungen sind, in denen einige Teilnehmer aufgrund von Faktoren wie Alter, ethnischer Zugehörigkeit und Informationsaustausch als Außenseiter und andere als Insider angesehen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-68466-2_5 d8b2fd9223759aeeeef85295cc9b2cd1;de;;;4.2.;;;Social-Intelligence-Design – ein Überblick Das Aufkommen des Internets und der Informationstechnologie hat erhebliche Fortschritte bei der Erweiterung der Art und Weise, wie Menschen miteinander interagieren können, auf eine völlig neue Art und Weise gebracht, die in der Vergangenheit nicht möglich war. Beispiele für neue Technologien sind Konversationsagenten, die Menschen beim Kennenlernen und Kommunizieren vermitteln, eine kollaborative virtuelle Umgebung für groß angelegte Diskussionen, personalisierte Informationstools zur Unterstützung der kulturübergreifenden Kommunikation, interaktive Community-Medien zur Steigerung des Bewusstseins und des Gedächtnisses der Gemeinschaft, um nur ein paar zu nennen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45548-5_1 8fc19f26b25c0bb5e9ddaddd40e6159a;de;;;4.2.;;;„Sei still und hör zu“: Emotionen, öffentliche Ordnung und soziale Totalität Wir alle leben in einer Welt gelebter Erfahrung, die mehr oder weniger direkt von Politik und politischen Entscheidungsträgern geprägt wird. Unsere tägliche Erfahrung als Pendler, Eltern, Kinder, Bürger, Verbraucher, Patienten, Lernende, Lehrer, Nachbarn und Arbeitnehmer kann ohne einen Analyserahmen, der seinen politikverankerten Charakter offenbart, nicht vollständig lesbar gemacht werden. Politische Prozesse wurden jedoch in der Regel nicht danach befragt, wie sie die Erfahrungen und Beziehungen der politischen Akteure gestalten und von ihnen geprägt werden, wenn sie die Strömungen des politischen Wandels auslösen, interpretieren, ablehnen, befolgen oder ignorieren, die dazu beitragen, ihre eigenen und die anderer zu konstituieren. Lebenswelten.;-;-;-;https://link.springer.com/chapter/10.1057/9780230245136_13 63a0273ddbf2699877e42fa55907dd06;de;;;4.2.;;;Zusammenhänge zwischen körperlicher Aktivität von Jugendlichen, sitzendem Verhalten auf Bildschirmen und sozialer und psychischer Gesundheit Es sollte untersucht werden, wie sich körperliche Aktivität von Jugendlichen (PA) und bildschirmbasiertes, sitzendes Medienverhalten (SBM) auf die psychische und soziale Gesundheit beziehen und länderübergreifende Unterschiede in diesen Beziehungen identifizieren.;-;-;-;https://link.springer.com/article/10.1007/s00038-009-5410-z cbad32046bf1a73ed631c2c4dcbe6d47;de;;;4.2.;;;"„Meine rosa Uniform zeigt, dass ich einer von ihnen bin“: Soziokulturelle Dimensionen deutscher Friedensmissionen Als ich 2003 als wissenschaftlicher Mitarbeiter am Sozialwissenschaftlichen Institut der Bundeswehr anfing, meinten meine Anthropologen scherzhaft, ich hätte wohl einen neuen „Stamm“ gefunden. Und tatsächlich, wie schon bei meiner vorangegangenen ethnologischen Feldforschung unter ethnischen Gebirgsgruppen in Nordthailand, habe ich mich in den ersten Monaten bei der Bundeswehr in eine neue Kultur hineinversetzt - als Einstieg in meine spätere Forschungsarbeit zu Auslandseinsätzen: Ich wurde konfrontiert mit mir (noch) unbekannte Verhaltensmuster und Normen und musste während eines vierwöchigen Militärtrainings für ziviles Personal lernen, ""anders zu gehen, anders zu stehen, anders zu reden"" - von militärischen Fähigkeiten ganz zu schweigen. So bezog sich meine tägliche ethnographische Recherche in den Einsatzgebieten der Bundeswehr nicht nur auf die Bundeswehr selbst, sondern vor allem auf die friedenserhaltenden Kontingente, die für ihre interessanten Subkulturen bekannt sind, ganz anders als der deutsche Alltag. Da die Bundeswehr erst seit etwas mehr als 15 Jahren an Auslandseinsätzen teilnimmt, lassen sich Prozesse im Zusammenhang mit der Etablierung einer kollektiven Einsatzidentität sowie einsatzspezifische Verhaltensmuster analysieren: Erstaunlicherweise unterstrich ein Stabsfeldwebel in Kabul, dass ' meine rosa Uniform zeigte, dass ich einer von ihnen war“ in Anspielung auf seine verwaschene, leicht rosa gefärbte Tropenuniform, die deutsche ISAF-Soldaten absichtlich trugen, um sich von nicht zum Kontingent gehörenden Soldaten zu unterscheiden, die sich auf einem kurzen Besuch in den Missionsländern befanden. Die pinkfarbene Uniform ist nur eines von unzähligen Beispielen für kulturelle Innovation durch multiple Identitätsentwicklungsprozesse in Einsatzgebieten. Ziel des vorliegenden Beitrags ist es, die Grundzüge der Dynamik soziokultureller Praxis sowie Muster der institutionellen Konsolidierung kollektiver Identitäten im Zusammenhang mit friedenserhaltenden Einsätzen der Bundeswehr nachzuzeichnen.";-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-91409-1_2 57611a42976c8d7c6246b7321ce60eed;de;;;4.2.;;;Soziale Netzwerkanalyse des Wissensaufbaus in einer synergistischen Lernumgebung Wissensaufbau ist ein sinnstiftender Prozess mit sozialer Aushandlung und Dialog. In der neuen Umgebung, die sich an den Gruppenlernkontext anpasst, unterstützt durch synergistische Lerntoolkits, untersucht diese Studie die Gemeinschaftsstruktur, die sozialen Beziehungen und den Partizipationscharakter beim Wissensaufbau im Klassenzimmer durch Analyse sozialer Netzwerke. Diese Ergebnisse zeigen, dass ein soziales Beziehungsnetzwerk mit Wissenskonvergenz unter dem von Lehrern geleiteten Wissensaufbau der Lernenden entsteht, die Ansichten und Ideen von Lernenden machen, die sich versammeln, um den Wissensaufbau zu unterstützen, gleichzeitig beschreibt dieses Papier auch den Teilnehmercharakter beim Lernen Gemeinschaft. Diese Studie kann einen neuen Weg bieten, um technologische Innovation in einem anderen kulturellen Kontext zu lernen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24091-1_3 ea253c82d6d80dbf7934fdaeafd0b287;de;;;4.2.;;;Trailer Living: Ein Vertreibungsphänomen? Das dauerhafte Wohnen in Wohnmobilen ist in den USA weit verbreitet. Es ist ein Phänomen des 20. Jahrhunderts, dessen Wurzeln in den frühen 1920er Jahren und dem amerikanischen Traum von der grenzenlosen Reisefreiheit im eigenen Wohnwagen liegen. Im Laufe der Zeit wurden jedoch Anhänger, die früher zum Campen verwendet wurden, zu einer eher stationären Notlösung für Obdachlose in Großstädten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-20388-7_8 5aeeb172855a8ea270edd822fde195f7;de;;;5.2.;;;Ein Test der interpersonalen Theorie der Depression bei stationären jugendlichen psychiatrischen Patienten Coynes (1976b) interpersonale Theorie der Depression postulierte, dass die Kombination von depressiven Symptomen und exzessiver Beruhigungssuche zu zwischenmenschlichen Problemen (z. B. Einsamkeit, Abwertung) führt. Die vorliegende Studie ist eine der ersten, die dieses Modell bei Jugendlichen testet, insbesondere bei einer klinischen Stichprobe von Jugendlichen. 68 stationäre jugendpsychiatrische Patienten (35 Mädchen, 33 Jungen, Durchschnittsalter = 13,34 Jahre,;-;-;-;https://link.springer.com/article/10.1023/A%3A1022666424731 0fbb09d61aee00dbdb3527961ccd9458;de;;;5.2.;;;Datenbasierter Desktop-Ansatz zur Personalisierung von Abfrageempfehlungen Die Abfrageempfehlung ist eine effektive Methode, um Benutzern zu helfen, ihre Suchabsichten zu beschreiben. In einem personalisierten System waren Kaltstart und die Datenknappheit unvermeidlich, was direkt zu einer mangelhaften Personalisierungsleistung führte. Als bedeutender Teil des persönlichen Informationsraums eines Benutzers besitzt ein Personalcomputer viele Dokumente, die für seine Interessen relevant sind. Daher wurden Desktop-Daten eingeführt, um ein Präferenzmodell eines Benutzers zu erstellen. Darüber hinaus wurde angesichts der Vielfalt der Desktop-Daten gleichzeitig die Beziehung zwischen Suchaufgabe und Arbeitsaufgabe ausgenutzt, um den spezifischen Informationsbedarf eines Benutzers vorherzusagen. Zehn Freiwillige nahmen an Experimenten teil, um das Potenzial von Desktop-Daten zu evaluieren. Eine Reihe von Experimenten wurde durchgeführt und die Ergebnisse bewiesen, dass Desktop-Daten einen großen Beitrag zur Bereitstellung effektiver personalisierter Referenzwörter leisten. Außerdem zeigten die Ergebnisse, dass das langfristige Interessenmodell eines Benutzers stabiler war als der Arbeitsaufgabenkontext, aber die wertvollsten Wörter waren die Top-3-Wörter, die aus dem Arbeitskontext extrahiert wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-6385-5_9 8c2ebfde7fd9ab1f34130883a5c31b0f;de;;;4.2.;;;Eine Studie zu sozialer Unterstützung, Teilnahmemotivation und Lernzufriedenheit älterer Lernender Diese Studie konzentriert sich auf den Status und die Unterschiede zwischen sozialer Unterstützung, Teilnahmemotivation und Lernzufriedenheit älterer Lernender und untersucht ihre Relevanz anhand des Strukturgleichungsmodells. Mit den Senior Learners of Senior University als Forschungsobjekt wurde nach der Erhebung der Fragebögen eine statistische Analyse für die bestätigende Faktorenanalyse, den unabhängigen Stichprobentest, die Einzelfaktor-Varianzanalyse, das Schneeflockenvergleichsverfahren und das Strukturgleichungsmodell durchgeführt. Die Ergebnisse der Studie ergaben: 1. „Informationsunterstützung“ Level 3, der Rest liegt alle über 4, 2. Unterschiedliche Lebensbereiche wirken sich auf die soziale Unterstützung, die Teilnahmemotivation und die Lernzufriedenheit aus, 3. Die soziale Unterstützung beeinflusst die Teilnahmemotivation positiv. Soziale Unterstützung beeinflusst die Lernzufriedenheit positiv und die Teilnahmemotivation beeinflusst die Lernzufriedenheit positiv.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3648-5_253 7b09dc556f96873195a995546aeae8a3;de;;;4.2.;;;Nasyid, Dschihad und Hip-Hop Wie andere Jugendliche beschäftigen sich junge Muslime in Singapur und Sydney mit mehreren und sich oft überschneidenden Formen der Populärkultur. Aus den durchgeführten Interviews geht hervor, dass muslimische Jugendliche in Singapur und Sydney in fast;-;-;-;https://link.springer.com/chapter/10.1057/9781137542649_4 5ab8e6319b190482e675b1efedc5889c;de;;;4.2.;;;Geschlechtsunterschiede bei absichtlichem sozialem Handeln: Wir-Absicht, sich an einer durch soziale Netzwerke erleichterten Teamzusammenarbeit zu beteiligen Das Wachstum und die Popularität von Web 2.0-Anwendungen helfen den Menschen, ihre sozialen Netzwerke online aufzubauen und zu pflegen, und fördern die durch soziale Netzwerke erleichterte Zusammenarbeit im Team. In dieser Studie haben wir den Einsatz von Instant Messaging in der durch soziale Netzwerke unterstützten Teamzusammenarbeit als absichtliche soziale Aktion konzipiert und die Auswirkungen von Geschlechterunterschieden auf die Entwicklung der Wir-Intention (d. Ein Forschungsmodell wurde entwickelt und empirisch mit 482 Universitätsstudenten in Festlandchina getestet. Die Ergebnisse zeigten, dass die Auswirkungen von Einstellung, positiven antizipierten Emotionen und Gruppennormen auf die Wir-Intention für Männer wichtiger waren, während die Auswirkungen von sozialer Identität und negativen antizipierten Emotionen für Frauen signifikanter waren, um gemeinsam an einem durch soziale Netzwerke unterstützten Team teilzunehmen Zusammenarbeit. Wir glauben, dass die Implikationen dieser Studie ein erhebliches Licht auf Forschung und Praxis werfen würden.;-;-;-;https://link.springer.com/article/10.1057/jit.2010.12 ef2f1a65963c747c42636424ede72f84;de;;;5.2.;;;Persönlichkeit, soziale Kontrolle und Drogenkonsum in der frühen Adoleszenz Soziologische Theorien von Kriminalität und Delinquenz wurden dafür kritisiert, dass sie biologische und Persönlichkeitsfaktoren, die Menschen zu antisozialem Verhalten prädisponieren können, nicht berücksichtigen (Gottfredson & Hirschi, 1989, Wilson & Herrnstein, 1985). Nach Ansicht dieser Kritiker treten Dispositionsunterschiede, die durch Vererbung, Umweltbedingungen (z. B. Ernährung und Bleibelastung) und elterliches Verhalten hervorgerufen werden, auf und sind in der frühen Kindheit erkennbar. Kriminologen, die diese Dispositionsmerkmale nicht berücksichtigen, wird vorgeworfen, die Bedeutung späterer sozialer Erfahrungen in ihren Erklärungen von Kriminalität und Kriminalität zu überschätzen. Insbesondere differentielle Assoziations- und Bindungstheorien wurden in dieser Hinsicht kritisiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-0970-1_6 87ddb8aa1a307dbb441e01cd4a4dda7e;de;;;4.2.;;;Freizeitpolitik: Ein unauflösbarer Dualismus? Obwohl sich die Freizeitforschung außerhalb des Mainstreams der sozialpolitischen Analyse entwickelt hat, verbindet beide die Dualität ihrer Studiengegenstände. Dies wird normalerweise durch konzeptionelle Paare ausgedrückt – Sozialpolitik und „Befreiung und Kontrolle“, Freizeittheorie und „Freiheit und Zwang“.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-19527-5_7 2f8d0d22b314ca4b4f365fa6cba5da5e;de;;;4.2.;;;Soziale Muster des Substanzgebrauchs bei Menschen mit Doppeldiagnosen Eine Ethnographie, Teil der größeren New Hampshire Dual Diagnosis Study, entdeckte in einer kleinen Teilstichprobe (n = 16), dass Klienten an 1 (oder manchmal 2) von 4 unterschiedlichen und unterschiedlichen sozialen Mustern des Substanzkonsums teilnahmen. Diese 4 Muster, (1) „der einsame Konsument“, (2) „die kleine, geschlossene soziale Clique“, (3) „das große, offene Konsumentensyndikat“ und (4) der „unternehmerische Drogenanbieter“, manifestieren sich als wichtig sozialen Funktionen eines solchen Substanzgebrauchs. Diese sozialen Funktionen müssen berücksichtigt werden, wenn Fallmanager versuchen, Klienten vom Konsum von Substanzen zu überzeugen, da eine Änderung des Substanzkonsums unmittelbar die Teilnahme an diesen Benutzernetzwerken beeinflusst. Fallmanager können den sozialen Druck auf bestimmte Muster des Substanzkonsums verstehen, indem sie auf die sozialen Muster dieses Konsums achten. Viele soziale Funktionen, die von diesen sozialen Mustern bereitgestellt werden, müssen auf andere Weise fortgeführt werden, wenn Klienten, die einmal zur Abstinenz überredet wurden, in ihrer Nüchternheit wirksam unterstützt werden sollen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1010104317348 12ee65b3a03cf4817adfeae47e4551ba;de;;;5.2.;;;Fazit zum Buch: Die Sinnsuche und die offene Frage Wir beenden das Buch dort, wo wir in Abb. 17.1 begonnen haben, eine menschliche Figur, die ihre Erfahrung der Welt durch das Betreten einer Höhle gestaltet. Was trieb unsere kognitiv modernen menschlichen Vorfahren in Höhlen, durch die winzigen Gänge, die sie dort fanden, in versteckte Galerien zu kriechen und dann kunstvolle Episoden aus ihren Erfahrungen an Wände und Decken zu zeichnen?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-92457-1_17 d071ac4baa495957751332737e24fc3d;de;;;4.2.;;;Bäume und Wiedergeburt: Sozial-ökologische Symbole und Rituale in der Resilienz von Post-Katrina New Orleans In Anlehnung an frühere Arbeiten zu „Memorialisierungsmechanismen bei Katastrophenresistenz“ postuliere ich, dass Baumsymbole und Rituale und wie Baumsymbole und Rituale erinnert, rekonstituiert und reproduziert werden, eine Gruppe sozialer Mechanismen darstellen, die als „greifbar“ angesehen werden können Nachweis sozialer Mechanismen hinter sozial-ökologischen Praktiken, die mit Störungen umgehen und die Resilienz des Systems erhalten“. Ich stütze mich weiterhin auf das Argument von Berkes und Folke, dass einige sozial-ökologische Systeme durch die Erfahrung von Störungen Resilienz aufbauen, aber dafür muss ausreichend Erinnerung aus ökologischen und sozialen Quellen für die Reorganisation vorhanden sein. Ich argumentiere, dass die Konstellation sozial-ökologischer Erinnerungen, sozial-ökologischer Symbole und Rituale und die daraus resultierenden Beziehungen zwischen menschlichen Akteuren und anderen Systemkomponenten, Rückkopplungen und Zyklen, die durch diese Beziehungen katalysiert werden, alle zum Systemgedächtnis beitragen, Prozesse, die an Regeneration und Erneuerung, die die Gegenwart dieses Systems mit seiner Vergangenheit verbinden und dabei helfen, Widerstandsfähigkeit zu verleihen.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-9947-1_20 dabc84b016d14a742cf4865ea874bf3b;de;;;4.2.;;;Sozialkommunikation unterstützte Minimierung des Einflusses von Epidemien Diese Arbeit untersucht den Einsatz sozialer Kommunikation zur Seuchenbekämpfung. Da sich die meisten Infektionskrankheiten durch menschliche Kontakte verbreiten, konzentrieren wir uns auf die Modellierung der Verbreitung von Krankheiten durch die Analyse der sozialen Beziehungen zwischen Individuen. Mit anderen Worten, wir versuchen, anhand der sozialen Kontaktinformationen das Interaktionsmuster zwischen Menschen zu erfassen und seinen Einfluss auf die Verbreitung von Krankheiten zu untersuchen. Insbesondere untersuchen wir das Problem der Minimierung der zu erwartenden Zahl von Infizierten durch die Behandlung eines kleinen Teils der Bevölkerung mit Impfstoffen. Wir beweisen, dass dieses Problem NP-schwer ist und schlagen einen Näherungsalgorithmus vor, der eine präventive Strategie zur Krankheitsbekämpfung basierend auf den sozialen Mustern darstellt. Simulationsergebnisse bestätigen die Überlegenheit unserer Strategie gegenüber bestehenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39701-1_43 632281f68a8ad95079e87b2ed0a5cede;de;;;4.2.;;;Social Media in der Hochschulbildung: Ein Überblick über ihre Verwendung, Vorteile und Grenzen Als vorherrschende Art von Internettechnologie für soziale Interaktion und Zusammenarbeit werden Social Media zunehmend für Bildungszwecke eingesetzt. Der vorliegende Beitrag gibt einen Überblick über die Forschungsarbeiten zu ihrem Nutzen, ihrem Nutzen und ihren Grenzen für das Lehren und Lernen im Hochschulkontext. Es umfasst insgesamt 77 Artikel, die von 2010 bis 2019 veröffentlicht wurden und von Scopus und Google Scholar gesammelt wurden. Die Nutzung von Social Media drehte sich um zwei Hauptbereiche – als Lernmanagementsystem und als Mittel, um das Engagement der Schüler zu verbessern. Die Vorteile der Nutzung sozialer Medien umfassten die zufriedenstellende Erfahrung der Schüler beim kollaborativen Lernen, das Engagement in Lernaktivitäten, die Echtzeitkommunikation und den Wissensaustausch sowie Praxisgemeinschaften, und diese Vorteile stehen nachweislich in Zusammenhang mit der Verbesserung von Lernerfolge. Die Einschränkungen umfassten Bedenken hinsichtlich der Verwischung der Grenzen zwischen öffentlichem und privatem Leben sowie zwischen Lehrern und Schülern, der Effektivität bei der Konstruktion von Wissen, fehlender pädagogischer und technischer Fähigkeiten und der Vereinbarkeit mit der Unterrichtsgestaltung. Die Studien zeigen auch die sich wandelnde Rolle der Lehrkräfte und ihren Bedarf an innovativen Lehrmethoden mit effektiv genutzten Funktionen der sozialen Medien. Schließlich legen die Ergebnisse nahe, dass zukünftige Arbeiten zur Förderung der Nutzung sozialer Medien im Bildungsbereich und zur Verbesserung ihrer Wirksamkeit durchgeführt werden sollten, wie beispielsweise die Unterstützung durch institutionelle Richtlinien zum technologiegestützten Lernen und die Förderung von Lehrinnovationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4594-2_21 4c74d682b76480987cdefa85998ba158;de;;;4.2.;;;Einführung: Konsum und Staatsbürgerschaft in der neuen Regierungsführung Das Aufkommen neuer Regierungsmuster in den letzten dreißig Jahren hat die Beziehung zwischen Konsum und Bürgerschaft in den Mittelpunkt der wissenschaftlichen und öffentlichen Debatte gerückt.;-;-;-;https://link.springer.com/chapter/10.1057/9780230591363_1 31041ec9c6311df7000a454509c13193;de;;;4.2.;;;Lebensqualität, Nachhaltigkeit und Transport: Der Fall Melbourne, Australien Dieses Kapitel befasst sich mit den miteinander verbundenen Fragen der Nachhaltigkeit und der Lebensqualität durch einen Fokus auf die Zugänglichkeit und die entscheidende Rolle, die die Verkehrsversorgung dabei spielt. Es geht von der Prämisse aus, dass die Möglichkeit zur sozialen, wirtschaftlichen und gemeinschaftlichen Teilhabe ein wesentlicher Bestandteil der Lebensqualität ist und dass Teilhabe von Zugänglichkeit und Mobilität abhängt. Sie argumentiert, dass die Abhängigkeit vom Individualverkehr nicht nachhaltig ist – ökologisch, wirtschaftlich und sozial – und dass die Bereitstellung qualitativ hochwertiger öffentlicher Verkehrsmittel ein notwendiger Bestandteil einer nachhaltigeren und gerechteren Stadtentwicklung ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-50540-0_11 82812f565d6c6a3a28860b0593b9335b;de;;;5.2.;;;Vorhersage des Benutzerverhaltens anhand von Mausbewegungsinformationen: eine Perspektive der Informationssuche Die Vorhersage des Nutzerverhaltens ist unerlässlich, um nützliche Informationen im Web zu speichern. Frühere Studien haben Mauscursor-Informationen bei der Bewertung der Web-Usability und der Gestaltung benutzerorientierter Suchoberflächen verwendet. Wir wissen jedoch relativ wenig über das Benutzerverhalten, insbesondere das Klick- und Navigationsverhalten, für längere Suchsitzungen, die anspruchsvolle Suchnormen veranschaulichen. In dieser Studie führen wir eine umfassende Analyse eines Datensatzes für Mausbewegungsaktivitäten durch, um das Bewegungsmuster jedes Benutzers unter Verwendung der Effekte der Informationssuche-Theorie (IFT) zu erfassen. Der Datensatz mit Informationen über die Bewegung des Mauszeigers enthält die Zeit- und Positionsinformationen von Mauszeigern, die von mehreren Benutzern in verschiedenen Sitzungen gesammelt wurden. Die Aufgaben unterscheiden sich in zwei Dimensionen: (1) um die interaktiven Elemente (d. h. Informationsepisoden) der Benutzerinteraktion mit der Site zu bestimmen, (2) diese Ergebnisse zu übernehmen, um das Verhalten der Benutzer durch Nutzung des LSTM-Modells vorherzusagen. Unser Modell wurde entwickelt, um die Hauptbewegungsmuster des Benutzers auf der Website zu finden und das Verhalten der Mausbewegungen der Benutzer auf jeder Website zu simulieren. Wir validieren unseren Ansatz an einem Mausbewegungsdatensatz mit einer umfangreichen Sammlung von Zeit- und Positionsinformationen von Mauszeigern, in denen Suchende und Websites durch Webforager bzw. Informationspatches annotiert werden. Unsere Auswertung zeigt, dass die vorgeschlagenen IFT-basierten Effekte einem LSTM-Modell eine genauere interpretative Darstellung aller Muster in der Bewegung der Mauszeiger der Benutzer über den Bildschirm bieten.;-;-;-;https://link.springer.com/article/10.1007/s00521-020-05306-7 0811858d2ca5273b3ce4976731cfc916;de;;;5.2.;;;Erkennung von Markovaschen Folgen Eine Sequenz ist vielleicht die einfachste Struktur, die aus einer Reihe von Gründen für uns am besten geeignet ist, um unseren Vortrag über die strukturelle Erkennung zu beginnen. Auch in einem so einfachen Spezialfall kann gezeigt werden, wie man ein komplexes Objekt, das aus vielen Teilen besteht, erkennt und wie die Kenntnis der Beziehungen zwischen den Teilen dazu beiträgt, sowohl das Objekt als Ganzes als auch seine Komponenten besser zu erkennen. Wir werden sehen, dass die Algorithmen zur Erkennung komplexer Objekte zwar nicht immer trivial sind, bei ihrer Realisierung jedoch keine unüberwindlichen rechnerischen Komplikationen auftreten. Wir werden erkennen, dass die in der statistischen Mustererkennung formulierten Erkennungsprobleme, überwachtes und unüberwachtes Lernen, im untersuchten Einzelfall exakt und ohne zusätzliche vereinfachende Annahmen gelöst werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-3217-8_8 deca2a888a51108550cb558e89d27d99;de;;;4.2.;;;Digitales Gameplay für ältere Erwachsene: Eine Folgestudie zum sozialen Nutzen An dieser Studie nahmen 20 Wii-Bowling-Teams mit jeweils 3-4 Spielern an einem achtwöchigen Turnier in einer großen Stadt im Westen Kanadas teil. Dieses Papier fasst die ersten Ergebnisse zusammen, in denen eine Zunahme der sozialen Verbundenheit und eine Abnahme der Einsamkeit festgestellt wurden, und berichtet über eine Folgestudie drei Monate nach dem Turnier, die untersuchte, ob die Leute noch zusammen spielten und ihre sozialen Verbindungen aufrechterhielten. Das Follow-up bestand aus 14 Fokusgruppen mit 46 Wii-Bowling-Spielern mit mindestens einem Vertreter aus jedem Team. Viele Teilnehmer schienen auch drei Monate nach dem Turnier von ihren neuen sozialen Kontakten zu profitieren. Die Teilnehmer hatten jedoch einige Schwierigkeiten, neue Spieler zu rekrutieren und die Dynamik im Laufe der Zeit aufrechtzuerhalten. In Seniorenzentren und Einrichtungen mit geplanten Aktivitäten blieb Wii Bowling eine regelmäßige Quelle für soziale Interaktion und Spaß. Diese Befunde werden unter Berücksichtigung der sozio-emotionalen Selektivitätstheorie untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27695-3_12 297f277fc940d4e1d4c75a6ebdbc5ce2;de;;;5.2.;;;Eine Umfrage zum Online-Lernen und -Optimieren für die Zündverstellung von Ottomotoren Einer der wichtigsten Faktoren, die die Kraftstoffeffizienz und die Emissionen von Kraftfahrzeugmotoren beeinflussen, ist die Verbrennungsqualität, die normalerweise durch die Steuerung der Vorzündung (SA) in Ottomotoren (SI) gesteuert wird. Mit zunehmenden Sensorfähigkeiten und Verbesserungen der On-Board-Rechenfähigkeit sind Online-Lern- und Optimierungstechniken Gegenstand eines erheblichen Forschungsinteresses. Dieser Artikel gibt einen Überblick über die Literatur zu Lern- und Optimierungsalgorithmen mit Anwendungen zur Optimierung der Verbrennungsqualität und Steuerung von Ottomotoren. In diesem Artikel werden insbesondere Extremum-Such-Regelalgorithmen zur iterativen Lösung von Online-Optimierungsproblemen, stochastische Schwellen-Regelalgorithmen zur iterativen Lösung der Wahrscheinlichkeitsregelung von stochastischen Klopfereignissen sowie Feedforward-Lernalgorithmen zur iterativen Lösung betriebspunktabhängiger Feedforward-Adaption beschrieben Probleme. Schließlich werden zwei experimentelle Fallstudien, die eine klopfwahrscheinlichkeitsbedingte optimierte Verbrennungssteuerung und eine auf Kennfeldlern basierende Verbrennungssteuerung an Bord umfassen, an einem Ottomotor durchgeführt.;-;-;-;https://link.springer.com/article/10.1007/s11432-017-9377-7 e5222f8a071b2e41049c88607bd0e647;de;;;4.2.;;;Streit um Raum und Staatsbürgerschaft: Volkslegitimismus im Jahr 1848 18 Die Nachwirkungen der Revolution von 1848 sahen politischen Wettbewerb, öffentliche Meinungsverschiedenheiten und das Aufbrausen der Geselligkeit des Volkes. Im August kollidierten legitimistische Bewohner eines Viertels in Montpellier mit Behörden und Republikanern. Diese Vorfälle waren sowohl in die nationale Politik als auch in die Nachbarschaftspolitik verwickelt. Damit zeigten sie die ambivalente Haltung legitimistischer Honoratioren zur Wahlpolitik. Im Gegensatz dazu wollten die populären Legitimisten Mitglieder der politischen Nation sein und nicht gehorsame Kunden. Populäre Legitimisten wollten eher Bürger als Untertanen sein – etwas, das ihre selbsternannten Führer ausgeschlossen hatten. In vielerlei Hinsicht geschah das, was am Scheideweg des lokalen Legitimismus geschah. Während die Vorfälle die Bewegung auf ihrem Höhepunkt darstellen, offenbaren sie gleichzeitig die zugrunde liegenden Ursachen für ihren Niedergang.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-52758-7_2 81b97523ec69ddb62dbbc839fda283bb;de;;;4.2.;;;Die Transformation der Metropolitanstrategie in die koloniale Praxis: Die Parti Populaire Français und die Parti Social Français Anfang 1938 schien die politische Normalität in Algerien zurückgekehrt zu sein. Sichtbar gestärkt nach dem Wahlsieg der Volksfront im Juni 1936, wich die Linke im Gefolge des entschiedenen europäischen Widerstands gegen den Blum-Viollette-Plan, der zunehmenden Popularität der Etoile nord-africaine (ENA) und der „Ulamā unterā Muslime und die nachlassende Wirtschaftskrise. Von Juni bis Juli 1936 verzeichneten die Behörden in allen drei Departements fast 40.000 Ausfalltage durch Streiks, im Januar 1937 stellten sie in einer Chemiefabrik in Oran nur eine zweitägige Schieflage fest. Die PCA trat im Oktober 1937 zu den Kantonswahlen in Waterloo zusammen und verlor gleichermaßen ihre Macht über die Landarbeiter und das städtische Proletariat. Besonders schlecht erging es den Kommunisten bei den Muslimen, die nur 756 von 30.000 Stimmen erhielten. Die späteren Pläne der Partei, die Partei zu „arabisieren“, brachten wenig, da Nicht-Europäer zunehmend in das Lager von Messali Hadj überliefen und die Verkäufe der kommunistischen Presse einbrachen.;-;-;-;https://link.springer.com/chapter/10.1057/9781137307095_5 7cde8070239cb611bf859984ea7735e9;de;;;4.2.;;;Kulturelles Wissen koproduzieren: Kinder erzählen Geschichten auf dem Schulspielplatz Der Schulhof ist ein Ort, an dem Kinder sozial mit Gleichaltrigen in Kontakt treten und Mitgliedschaft und Teilnahme an Gruppenaktivitäten erlangen. Wenn kleine Kinder auf Spielplätzen über Beziehungen und soziale Ordnungen verhandeln, kann es zu Streitigkeiten kommen und Kinder könnten dem Lehrer Geschichten „erzählen“. Das gegenseitige Erzählen von Kindern ist für Lehrer und Kinder oft ein Grund zur Besorgnis, da das Erzählen innerhalb eines Streits stattfindet und den Zusammenbruch der Interaktion signalisiert. Die genaue Untersuchung einer videoaufgezeichneten Episode, in der Mädchen über einige Jungen erzählen, zeigt die Praktiken, die kulturelles Wissen über die Peer-Kultur von Kindern ausmachen. Diese ethnomethodologische Studie ergab ein sequentielles Erzählmuster mit drei unterschiedlichen Phasen: (1) eine Ankündigung des Erzählens nach einem vorausgegangenen Ereignis, (2) Gehen zum Lehrer, um über das vorausgegangene Ereignis zu berichten und (3) Ereignisse nach dem Erzählen. Diese Ergebnisse zeigen, dass das Erzählen von Kindern sorgfältig orchestriert wird, um ihre Kompetenz zur Koproduktion von kulturellem Wissen zu zeigen. Solche Verständnisse heben die vielfältigen und oft überlappenden Dimensionen des kulturellen Wissens hervor, wenn Kinder Gruppenmitgliedschaft und Teilnahme an ihren Peer-Kulturen aufbauen, üben und verwalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-1703-2_7 456343e95a5c9289234628e793ac8821;de;;;4.2.;;;Eine vergleichende Studie zum Einfluss von Interaktion und Leistung in postgradualen Präsenz- und Fernstudiengängen basierend auf der Analyse von LMS-Logs Der Einsatz von Learning Management Systemen hat in den letzten zehn Jahren stark zugenommen, hauptsächlich in Online-Fernstudiengängen, aber auch in Präsenzveranstaltungen. Parallel dazu hat es der technologische Fortschritt ermöglicht, alle im LMS stattfindenden Aktivitäten zu verfolgen und zu speichern und somit die Teilnahme und Interaktion der Studierenden zu registrieren. In diesem Beitrag werden zwei zentrale Fragen behandelt: a) Ist die Interaktion der Studierenden in der LMS ein Indikator für die abschließende Studienleistung in einem Studiengang? und b) Wird diese Interaktion im Fern- und Präsenzunterricht auf unterschiedliche Weise durchgeführt, mit unterschiedlichen Abschlüssen? Ergebnisse?. Um diese Frage zu beantworten, wurden in einem Masterstudiengang mit Online-Fernstudium und Präsenzunterricht an der Universidad Politécnica de Madrid während zwei Jahren verschiedene Interaktionsarten klassifiziert und aus den Aktivitätsprotokollen des Moodle LMS extrahiert. Die Ergebnisse zeigen teilweise oder keine Hinweise auf einen Einfluss zwischen Interaktionsindikatoren und Studienleistungen. Im letzten Abschnitt dieser Studie werden Ergebnisse und Implikationen diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13166-0_44 e2e4fb043b5dadcea1662525b9a7ac32;de;;;4.2.;;;Zusammenhaltende Gemeinschaften Sozialer Zusammenhalt ist eine Gruppeneigenschaft, bei der die Mitglieder gut gebunden sind, durch persönliche Beziehungen miteinander verbunden sind und einen gemeinsamen Zweck teilen. Zusammenhalt ist keine Eigenschaft oder ein Zustand, sondern ein Prozess, der im Laufe der Zeit als Reaktion auf viele Faktoren wie Gruppengröße, Führung und externe Bedrohungen zunehmen oder abnehmen kann. Soziale und physische Umgebungen spielen eine wichtige Rolle bei der Förderung oder Untergrabung der Fähigkeit, soziale Bindungen zu knüpfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-0364-8_5 9aa3fb7c1701fa772defa95ce496c857;de;;;4.2.;;;E-Partizipationsportale Automatisiertes Monitoringsystem für die Politik- und Sozialforschung In diesem Beitrag werden die Chancen, Vorteile und Grenzen des automatisierten Monitoring-Systems (AMS) von E-Partizipationsportalen in der Sozial- und Politikforschung vorgestellt. Das System wurde 2013 zunächst zur Analyse der Petitions- und Abstimmungsdynamik des russischen E-Petitionsportals – der Russian Public Initiative – entwickelt und dann weiter ausgebaut. In dem Papier werden die Architektur und die Arbeitsprinzipien des Systems beschrieben. Es wird argumentiert und exemplifiziert, dass die automatisch von E-Petitionsportalen erhobenen Daten genutzt werden können, um die Forschung in mehreren Bereichen voranzutreiben: Medien- und PR-Effekte auf politische Partizipation, Themensalienz sowie Faktoren des Wahlverhaltens und des politischen Online-Engagements.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49700-6_27 904d3af36592c2d23633c07ee8bf1206;de;;;4.2.;;;Die kulturübergreifende Beschäftigung mit Forschung verfeinern In diesem Kapitel wird eine achtjährige internationale Zusammenarbeit diskutiert, an der Forschungsteams aus drei Ländern beteiligt sind: Neuseeland, Thailand und den Vereinigten Staaten. Der Zweck der Forschung bestand darin, die Bedeutung der mit der Ernährung verbundenen Berufe, die mit starken kulturellen Festen (Weihnachten und Songkran, das thailändische Neujahrsfest) verbunden sind, für ältere Frauen zu erforschen und zu vergleichen. Die Forscher begannen mit einer scheinbar unkomplizierten Multi-Site-Studie in drei Ländern und stellten dann fest, dass der Reichtum und die Komplexität der Daten und Analysen die Entwicklung von Methoden erforderten, die in allen drei Kulturen funktionieren. Das Team erstellte und lebte einen langwierigen und strengen Prozess, während die Methoden implementiert und verfeinert wurden. Dieser Prozess wurde durch das wachsende Verständnis der kulturellen Einzigartigkeit unserer Teilnehmer sowie unserer eigenen kulturellen Unterschiede geprägt und bereichert. Wir besprechen unseren Teamprozess, wie wir gelernt haben, für unsere Studie effektiv und integer zu kommunizieren. Die Entwicklung des Teams wird mit einigen der Daten, Methoden und Erkenntnisse veranschaulicht, wie sie entstanden sind. Wir schließen das Kapitel mit einer Zusammenfassung dessen ab, was diesem Team von internationalen Forschern geholfen hat, auf vertrauenswürdige Weise über die Kulturen hinweg zu schauen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-8567-3_18 cb5cbc7fcd3d05f8f9c5a21e5c744269;de;;;4.2.;;;Die Kulturpsychologie amerikanischer Koexistenzprogramme für israelische und palästinensische Jugendliche li, ein junger palästinensischer Muslim, stellt ein grundlegendes Dilemma für friedenspädagogische Programme vor: Wie können im Kontext eines anhaltenden, hartnäckigen Konflikts Identitäten gepflegt werden, die auf ein friedliches Zusammenleben eingestellt sind? Welche Rolle kann Friedenspädagogik inmitten von Widerspenstigkeit spielen? Die ideologische Vertonung von Alis Lebensgeschichte im Alter von 16 Jahren, die nicht dem Friedensinteresse zu dienen scheint, stellt Theorie und Praxis der Friedenspädagogik vor große Herausforderungen. Ist es möglich, für das Zusammenleben zu erziehen, wenn es keine friedensfördernde Politik gibt (siehe Bar-Tal, 2004)? Oder ist es eher unvermeidlich, dass die narrativen Bedingungen des Konflikts nur von jungen Israelis und Palästinensern reproduziert werden (Bekerman & Maoz, 2005) bis zu dem Tag, an dem eine neue „Meister“-Friedensnarrative geboren wird (Hammack, 2008)?;-;-;-;https://link.springer.com/chapter/10.1057/9780230620421_9 04935f8917ac103cb49b84e9fdfb9db0;de;;;4.2.;;;PEER: Ein Blick auf das Verbraucherengagement in e-WOM durch Social Media Nach dem Philosophen Martin Heidegger (1927/1996) findet die menschliche Existenz durch die ständige, aktive und praktische Auseinandersetzung mit anderen Menschen, Dingen und der Welt als Ganzes statt. Mensch zu sein bedeutet, sich mit anderen Wesen in der Welt zu beschäftigen. Diese zentrale Rolle des Engagements im menschlichen Leben und Bewusstsein hat die Aufmerksamkeit von Wissenschaftlern verschiedener Disziplinen auf sich gezogen (Hollebeek, 2011). Eine Vielzahl von Studien hat das Konzept des Engagements in Bildung (Lutz et al., 2006), Organisationsverhalten (Noland und Phillips, 2010), Psychologie (Avery et al., 2007), Politikwissenschaften (Resnick, 2001) und Information untersucht (Wagner und Majchrzak, 2007). Im Marketing ist Consumer Engagement eine strategische Richtung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-10558-7_2 fd22d6b91628a042071122827f2ec184;de;;;4.2.;;;Technologieunterstützte Lerngemeinschaften auf einem Kontinuum zwischen spontanen und gestalteten Umgebungen Unser Ansatz zum Lernen in einer vernetzten Gesellschaft basiert auf der Annahme, dass „Schule“ und „Gesellschaft“ nicht als getrennte Einheiten betrachtet werden können. Folglich sollte die Forschung in diesem Bereich sowohl auf die Erziehungs- als auch auf die Sozialwissenschaften zurückgreifen. Die Zusammenführung der theoretischen und praktischen Werkzeuge beider Domänen ermöglicht es uns, die Arten von Interaktion, Wissenskonstruktion, sozialer Organisation und Machtstrukturen zu untersuchen, die: (a) spontan in technologiegestützten Lerngemeinschaften auftreten oder (b) durch Design geschaffen werden können . In diesem Kapitel stellen wir Themen vor, die das Lernen in einer vernetzten Gesellschaft charakterisieren, wie die digitale Trennung von Schule und Gesellschaft, digitale Kluften und die gezielte oder invasive Durchdringung von Ideen zwischen Gemeinschaften. Wir diskutieren die komplementären Rollen, die Bildungs- und Sozialwissenschaften bei der Untersuchung dieser Fragen spielen können. Wir schließen mit einem Überblick über jedes der Kapitel in diesem Buch und zeigen, wie sie disziplinäre Linsen integrieren oder gegenüberstellen, um verschiedene Aspekte des Lernens in einer vernetzten Gesellschaft zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-14610-8_2 474b7154c8e51ca0c919a899e9d8f63e;de;;;4.2.;;;Das National Assistance Board und die „Wiederentdeckung“ der Armut Dieses Kapitel berichtet zum ersten Mal über eine einzigartige Überprüfung der Angemessenheit der Sozialhilfeleistungen des Vereinigten Königreichs, die Anfang der 1960er Jahre durchgeführt wurde. Schon vor der Gründung der Child Poverty Action Group (CPAG) im Jahr 1965 wurde in immer mehr Berichten öffentlich das Fortbestehen der Armut „wiederentdeckt“. Sie schlugen auch vor, dass die Einkommen der Empfänger von Nationalhilfe (NA) unzureichend seien, in dem Sinne, dass sie nicht ausreichen, um die nationalen Standards einer minimalen sozialen Teilhabe zu erfüllen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-27322-5_7 2479ca97d8f8aca8dc3803c24b69695a;de;;;4.2.;;;Sozialkonstruktivistische Praxis mit Jugendlichen Der Sozialkonstruktivismus ist eine wichtige und kreative Perspektive, um SozialarbeiterInnen in ihrer Arbeit mit Jugendlichen zu unterstützen. Dieser Beitrag zeigt, wie theoretische Orientierungen und klinische Techniken, die einer sozialkonstruktivistischen Perspektive folgen, in die Entwicklungsrealitäten der Adoleszenz integriert werden können, um wirksame Interventionen der Sozialarbeit zu ermöglichen. Grundlegende Annahmen werden diskutiert und beziehen sich auf Probleme der Praxis. Fallstudien werden verwendet, um sozialkonstruktivistische Prinzipien in der klinischen Arbeit mit Jugendlichen aufzuzeigen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1024504925017 702cd851e00cceae85d0f6e5d1e25254;de;;;4.2.;;;Risikokommunikation und die soziale Verstärkung von Risiko Die meisten Gesellschaften haben sich stark mit dem Begriff des Risikos beschäftigt. Das Interesse öffentlicher Institutionen und Hochschulen an der Risikokommunikation ist in den letzten fünf Jahren stark gewachsen. Dementsprechend ist die Risikokommunikation zu einem beliebten Thema in der Literatur geworden. Obwohl ursprünglich als Fortsetzung von Studien zur Risikowahrnehmung konzipiert, hat die Arbeit zur Risikokommunikation die begrenzten Grenzen der PR-Beratung für Informationsprogramme zum Thema Risiko überschritten und ihren Fokus auf den Informationsfluss zwischen Teilsystemen der Gesellschaft erweitert (Jasanoff 1987, S. 116, Zimmermann 1987, S. 131, Kasperson 1986, S. 275).;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-1952-5_14 67e2d1f606ffbaf2b0c5b248255decfd;de;;;5.2.;;;Verbesserte Gleitmodussteuerung und Online-Schätzung des optimalen Schlupfverhältnisses für Schienenfahrzeugbremssysteme Dieses Papier schlägt ein optimales Antiblockierregelschema vor, um die Bremsleistung von Schienenfahrzeugen zu verbessern. Die Regelwirkung der Gleitmodusregelung wird verbessert und das optimale Schlupfverhältnis wird durch einen extremen Suchalgorithmus erreicht. Zunächst wird eine Ersatzfunktion für die herkömmliche Vorzeichenfunktion vorgeschlagen. Zweitens wird ein Closed-Loop-Beobachter für Bremssysteme verwendet, um den Schätzwert der Adhäsionskraft zu verbessern, der auch zur Berechnung der Referenzgeschwindigkeit verwendet werden kann. Schließlich muss ein auf der Gleitmodus-Steuerung basierender Regler ein Referenz-Schlupfverhältnis eingegeben werden, das als optimales Schlupfverhältnis bezeichnet wird und von einem Extrem-Suchalgorithmus aus der funktionalen Beziehung zwischen Schlupfverhältnis und Reibungskoeffizienten gesucht wird. So wird trotz Rad-/Schienen-Oberflächenwechsel die maximale Haftung erreicht. Das Simulationsergebnis demonstriert die Wirkung der Echtzeit-Anpassung des Bremsmoments, die die Bremsleistung garantiert.;-;-;-;https://link.springer.com/article/10.1007/s12541-018-0079-y 38a122600cb5f1ac6cf086f3bf1194c7;de;;;5.2.;;;Vorläufige Studie zum verbesserten kollaborativen Informationsextraktions- und -freigabesystem Die Websuche wurde in den letzten Jahren intensiv untersucht. Um die Nachfrage der Benutzer, die benötigte Informationen schnell über das Internet zu suchen, zu befriedigen, haben Suchende und Handelsunternehmen im In- und Ausland verschiedene Suchmaschinen entwickelt. Um die Sucheffizienz zu verbessern und benötigte Informationen umfassender, genauer und schneller zu finden, hatten Sucher und kommerzielle Unternehmen eine Reihe von kollaborativen Suchsystemen und einige kollaborative Algorithmen entworfen und entwickelt. Leider ist es für uns schwierig, diese Systeme sinnvoll zu vergleichen, da verschiedene Suchende die Zusammenarbeit auf unterschiedliche Weise definiert haben. In diesem Beitrag versuchen wir, ein relativ praktikables und einheitliches Kollaborationsmodell zu definieren. Dieses Modell enthält die folgenden sechs Dimensionen: Absicht des Kollaborateurs, geografische Verteilung des Kollaborateurs, Parallelität der Kollaboration, Beziehung des Kollaborateurs, Kollaborationstaktiken und Kollaborationsgeräte. Basierend auf diesem Modell werden wir einen objektiven Vergleich mit diesen Systemen durchführen und dann einen Prototyp des Group Search-Systems entwickeln, bei dem es sich um ein verbessertes kollaboratives Informationsextraktionssystem handelt, das wir erforschen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35795-4_88 20e668558ed695712493d1436dcffd5c;de;;;5.2.;;;Ein neues Framework für die Optimierung basierend auf hybrider Schwarmintelligenz In diesem Kapitel wird ein hybrider Optimierungsalgorithmus vorgeschlagen, der auf Cat Swarm Optimization (CSO) und Artificial Bee Colony (ABC) basiert. CSO ist ein Optimierungsalgorithmus, der zur Lösung numerischer Optimierungsprobleme entwickelt wurde, und ABC ist ein Optimierungsalgorithmus, der durch Simulation des Verhaltens von Bienen erzeugt wird, die Nahrung finden. Durch Hybridisieren dieser beiden Algorithmen wird der Hybrid-Algorithmus namens Hybrid PCSOABC präsentiert. Fünf Benchmark-Funktionen werden verwendet, um die Genauigkeit, Konvergenz, die Geschwindigkeit und die Stabilisierung des Hybrid PCSOABC zu bewerten. In diesem Kapitel wird zu Beginn die Literaturübersicht zu CSO, AS, ACS, BF, PSO, ABC und der parallelen Version von CSO gegeben. Das vorgeschlagene hybride Framework, das verschiedene Algorithmen kombiniert, wird im vierten Abschnitt vorgestellt. Und die experimentellen Ergebnisse werden am Ende des Kapitels mit den Schlussfolgerungen präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17390-5_18 728d04de1fbdf24e2b6da70c87ccce72;de;;;4.2.;;;Gamification als Trend in der Entwicklung bürgerlicher und politischer Teilhabe Der Beitrag analysiert die Methoden der Gamification in bürgerschaftlichen und politischen Partizipationspraktiken und identifiziert Forschungsfragen zu den Problemen und Perspektiven dieses Trends der sozialen Inklusion. Gamification schafft eine neue Erfahrung von politischen Akteuren, sei es eine Führungspersönlichkeit, ein politischer Berater oder ein Vertreter der Massen, ein Rückblick auf die Forschung ermöglicht es uns, die tatsächlichen „Wachstumspunkte“ der sozialen Analyse von Gamification zu klären. Besonderes Augenmerk wird auf Fälle im Zusammenhang mit Spielmechaniken urbaner Partizipation, immersivem Journalismus und der Nutzung digitaler Ressourcen durch politische Technologen im Wahlkampf gelegt. Die Analyse der wissenschaftlichen Diskussion um urbane partizipative Demokratie ergab, dass der Erfolg dieser Praktiken nicht nur vom politischen Willen des Koordinationspotentials der lokalen Sozialstruktur beeinflusst wird, sondern auch von der Autonomie und den finanziellen Möglichkeiten einer an Bürgerbeteiligung interessierten politischen Organisation und der Gestaltung des Beteiligungsprozesses. Mögliche Beispiele für immersiven Journalismus und sein gamifiziertes Produkt Newsgames in der russischen Realität sind Informationsquellen wie „Lentach“ und „Meduza“. Neue digitale Produkte werden von Politikern und Politiktechnologen auf Bundes- und Landesebene aktiv genutzt. Abschließend diskutierten die Autoren das Phänomen der Interpassivität.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-39296-3_10 e6bee1368ba84bdc0360b03ce02654b8;de;;;4.2.;;;Interaktionsstrukturen und Daten in städtischen Netzwerken: Der Fall von PortoAlegre.cc Städtische Räume wurden durch den massiven Einsatz neuer Informations- und Kommunikationstechnologien als digitale soziale Netzwerke und Plattformen besetzt. Die digitale Dimension der Städte wurde zu einem bidirektionalen und omnipräsenten Weg, der relationale und interaktionelle Strukturen zum Austausch von Daten und Medien schuf. Die vernetzte Stadt kann als komplexes System analysiert und debattiert werden, das unter Berücksichtigung der zunehmenden Informations- und Kommunikationsdichte eine Erforschung der kommunikativen Pluralität und der Entwicklung urbaner Raumrepräsentation erfordert. Als Dateneingabe für diese Untersuchung wurden digitale Spuren sozialer Netzwerke verwendet, die in PortoAlegre.cc, einer kollaborativen Webkarte zur Erfassung von Problemen und der Nutzung des städtischen Raums, entwickelt wurden. Als Ansatz zur Auswertung der Netzwerkstrukturen wurde die Analyse sozialer Netzwerke verwendet. Die Ergebnisse zeigen, dass kurze Wege existieren, wobei Strukturen vorherrschen, die dem Small World-Modell folgen. Die Analysen zeigten effiziente Netzwerke für den Datenaustausch mit steigender Informations- und Kommunikationsdichte. Diese Arbeit trägt zum Urban Computing bei und bringt alternative Ansätze und Perspektiven für diesen multidisziplinären Bereich mit Repräsentation und Wissen, die die Debatte über den städtischen Raum bereichern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-11238-7_10 b692963e6f9c05c2d8761dd73fd24315;de;;;4.2.;;;Leistungsstörung Die Präsentation konzentriert sich auf die Dialektik von Handlungsfähigkeit und Struktur, die soziale und kulturelle Praktiken im Kontext der Popularmusikwissenschaft umfasst. Die Idee dieses Beitrags ist es, die Perspektive eines Kulturanthropologen auf kollektive Interaktionen hervorzuheben. Wir wollen diese Methodik an den Situationen von Heavy Metal- und Hardrock-Konzerten veranschaulichen. Unser Ansatz konzentriert sich auf deutsche und anglophone Anfragen und Literatur zu Metal- und Hardrock-Shows. Konzerte sind hochperformative Veranstaltungen, die Praktiken der Kreativität, Aufmerksamkeit und Anerkennung vereinen, die sich in den Synergien zwischen Künstlern und Publikum manifestieren. Die Evokation von Atmosphären durch Klang und Bewegung schafft einen Raum der Unterscheidung und Identifikation. So erlaubt das Konzert als kulturelles Ereignis, die Prozesse der Bedeutungs- und Subjektivierung zu beobachten. Dieser Ansatz kann als Orientierung für ethnographische Arbeiten in der qualitativen Forschung gesehen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-17740-9_16 4abd52ec7851724b004501d49332fae9;de;;;4.2.;;;Subventionierte Hypothekendarlehen und Erschwinglichkeit von Wohnraum in Polen War Wohneigentum vor einigen Jahrzehnten noch ein Privileg der Wenigen, leben heute die meisten Haushalte in den Industrieländern in den eigenen vier Wänden. Einer der Gründe für diese Verschiebung sind staatliche Maßnahmen, die darauf abzielen, Wohneigentum zu fördern und finanziell machbar zu machen. Unter diesen Policen gibt es eine breite Palette von Instrumenten, die die Kosten der Hypothekendarlehenszinsen senken. In jüngster Zeit ist die Förderung von Wohneigentum auch in einigen der ehemals sozialistischen Länder zu einem wichtigen Thema geworden. Ein Beispiel dafür ist eine Politik der polnischen Regierung namens „Familienhaus“. Ziel dieser Politik war die finanzielle Unterstützung junger Haushalte, die besonders anfällig für die schwierige Wohnsituation in Polen sind. Aufgrund massiver Preissteigerungen zwischen 2006 und 2008 und in Verbindung mit einem knappen Angebot an Mietwohnungen haben viele Haushalte in den letzten Jahren keine bezahlbare Wohnung gefunden. Die 2007 ins Leben gerufene Politik des „Familienhauses“ war die Antwort der Regierung auf dieses Problem. Der Zweck dieses Papiers ist es, die Ergebnisse dieser Politik zu untersuchen, die Ende 2012 aufgrund einer Krise der öffentlichen Finanzen eingestellt wurde. Es werden drei Forschungsfragen behandelt: (1) Wie war der Zusammenhang zwischen staatlicher Förderung und Wohnungsbau, Wohnungspreisen und Hypothekarkreditzinsen, (2) wie war die räumliche Verteilung der staatlichen Förderung und (3) in welchem ​​Zusammenhang die räumliche Verteilung von Wohnungspreisen, Einkommen und Erschwinglichkeit von Wohnraum?;-;-;-;https://link.springer.com/article/10.1007/s10708-014-9533-2 d3c551b4140ddafed1dc1e3b051eb203;de;;;5.2.;;;Vetrina Attori: Unterstützungssystem für Szenensuche mit Fokus auf Charaktere in einem Video Bei den meisten Videodiensten sehen sich Benutzer nur die Szenen an, an denen sie interessiert sind, und blicken auf die Szenen zurück, die sie in der Vergangenheit gesehen haben. In diesen Situationen verwenden Benutzer typischerweise eine Suchleiste, um Szenen des Videos zu suchen. Sie müssen die Suchleiste oft mehrmals betätigen, um an die gewünschte Wiedergabeposition zu gelangen. In diesem Papier möchten wir die Suche nach bestimmten Szenen aus Videoinhalten unterstützen. In unserer Vorstudie haben wir festgestellt, dass Benutzer Szenen suchen, je nachdem, wann jeder Charakter im Video auftaucht. Aus diesem Grund haben wir ein System entwickelt, das die Suche nach Szenen mithilfe der Informationen von Charakteren unterstützt. Wir haben die Nützlichkeit unseres vorgeschlagenen Systems bewertet, indem wir es mit einem bestehenden System verglichen haben. Gemäß unserer qualitativen Bewertung bestätigen wir, dass unser vorgeschlagenes System die Szenensuche erleichtern könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-66715-7_37 8f770dc24d86dc5fc3628c6531105435;de;;;4.2.;;;Originäre Beteiligung: Die Sovereign National Conference Den Bürgern werden zu häufig Verfassungen auferlegt, und die Folgen für die Demokratie in Afrika können verheerend sein. James Tully argumentiert, dass „wenn die kulturellen Gewohnheiten der Bürger anerkannt und bei der Einigung über eine verfassungsmäßige Vereinigungsform berücksichtigt würden, die verfassungsmäßige Ordnung und die Welt der alltäglichen Politik, die sie konstituiert,“;-;-;-;https://link.springer.com/chapter/10.1057/9780230612075_4 d1d207aa5e8eb5d10a3de433248997e7;de;;;4.2.;;;Internetzugang und Meinungsäußerung: Die moderierende Rolle des Alters und der Volkswirtschaft Wir untersuchten den Zusammenhang zwischen Internetzugang und der Meinungsäußerung der Bürger gegenüber Amtsträgern und wie sich Alter und Volkswirtschaft auf diesen Zusammenhang im theoretischen Rahmen des bürgerschaftlichen Engagements auswirken. Für die Untersuchung wurden Umfragedaten aus repräsentativen Stichproben von Einwohnern von 126 Ländern analysiert (;-;-;-;https://link.springer.com/article/10.1007/s11205-020-02298-8 9bd0c7d2f399844a77bd5ed8076624fe;de;;;5.2.;;;Community-Suche: Eine kollaborative Such-Webanwendung mit einem Benutzer-Ranking-System Menschen verwenden Suchmaschinen im täglichen Leben. Aber die meisten Tools, die wir heute haben, behandeln informationssuchende Aufgaben als vorübergehende Aktivität. In diesem Forschungspapier stellen wir ein Webanwendungssystem vor, das eine kollaborative Funktion und ein Expertenfindungssystem bietet. Wir entwickeln ein System, das dem Benutzer hilft, Suchergebnisse zu organisieren und mit anderen zusammenzuarbeiten. Mit dem neuen iterativen Algorithmus erhalten die Benutzer auch einen höheren Prozentsatz des benötigten Ergebnisses und das System kann Experten für das Suchbegriff vorschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21796-8_41 82fc03d150d4f9a9ac5c5fc0b6c806cc;de;;;5.2.;;;Auf der Suche nach Freude: Die Bedeutung der Freizeit bei der Ansiedlung von Neuankömmlingen Dieser Artikel gibt einen Überblick über die Literatur zum Freizeit-, Siedlungs- und Informationsverhalten von Neuankömmlingen. Es hebt die wechselseitige Natur dieser drei Konzepte hervor und schlägt einen konzeptionellen Rahmen für das Studium von Freizeit und Information in allen Siedlungen vor. Der Artikel stellt fest, dass Freizeit eine aufschlussreiche Linse ist, durch die der Ansiedlungsprozess besser verstanden werden kann, und stützt sich auf Forschungen aus den Bereichen Freizeitforschung, Informationsforschung und Migrationsforschung, um diese Idee zu unterstützen. Dieser Artikel präsentiert Forschern und politischen Entscheidungsträgern neue Erkenntnisse, indem er die potenzielle Rolle von Freizeitaktivitäten bei der Stärkung der psychischen Gesundheit und dem Aufbau von Sozialkapital durch Neuankömmlinge skizziert.;-;-;-;https://link.springer.com/article/10.1007/s12134-014-0388-7 9a4d0813d999c4d7f744cc63394e0ba5;de;;;4.2.;;;Nutzer- und Community-Koproduktion von öffentlichen Diensten und Ergebnissen – eine Karte des aktuellen Stands der Dinge Dieses Kapitel skizziert die Struktur dieses Handbuchs und fasst die wichtigsten Punkte aus allen 36 Kapiteln in den acht Abschnitten des Handbuchs zusammen – diese Abschnitte behandeln Definitionen, disziplinäre Wurzeln der Koproduktion, unterschiedliche Perspektiven auf Koproduktion, gemeinsame Beauftragung von öffentlichen Dienstleistungen und Ergebnisse, gemeinsame Gestaltung öffentlicher Dienste und Ergebnisse, gemeinsame Bereitstellung öffentlicher Dienste und Ergebnisse, gemeinsame Bewertung öffentlicher Dienste und Ergebnisse, Umsetzung und Skalierung der Koproduktion in Organisationen und Systemen des öffentlichen Dienstes, Steuerung der Koproduktion und die zukünftige Forschungsagenda. Verbindungen zwischen den Abschnitten und Kapiteln werden identifiziert und diskutiert und die wichtigsten Gemeinsamkeiten und Unterschiede zwischen den Autoren werden hervorgehoben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-53705-0_1 5c59f74ef8800a4384a5c5cdf094b304;de;;;4.2.;;;Ein positiver Aspekt der Pflege: Der Einfluss sozialer Unterstützung auf den Pflegegewinn für Angehörige von Angehörigen mit Schizophrenie Diese Studie untersucht den Pflegegewinn von Angehörigen durch die Pflege ihrer Angehörigen mit Schizophrenie-Spektrum-Störungen und den Einfluss formeller und informeller sozialer Unterstützung auf diese positiven Erfahrungen. Die Ergebnisse aus Interviews mit 560 Familienmitgliedern belegen, dass die Erfahrung von Pflegezuwächsen weit verbreitet ist. Darüber hinaus haben formelle Unterstützung durch Fachkräfte der psychischen Gesundheit durch Informationsaustausch und gemeinsame Interaktionen mit Familienmitgliedern sowie informelle Unterstützung durch andere Familienmitglieder, Teilnahme an Selbsthilfegruppen und Beiträge von Angehörigen mit psychischen Erkrankungen alle signifikante positive Assoziationen mit den Erfahrungen der Familienmitglieder mit pflegerische Gewinne.;-;-;-;https://link.springer.com/article/10.1023/B%3ACOMH.0000040656.89143.82 71a5c09c71be57c8251fd8738b7074ff;de;;;5.2.;;;Benutzerorientierter Themenservice in Netzwerkumgebung In diesem Beitrag wurde der aktuelle Stand des Fachdienstes in Bibliotheken diskutiert, nach den statistischen Erhebungen zum Verhalten der Informationsnutzer an der North China Electric Power University wurde das neue Modul des nutzerorientierten Fachdienstes in Universitätsbibliotheken diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-4805-0_24 b73690ed9cf60a8cba7a433484f75f66;de;;;4.2.;;;Hin zu einem umfassenderen Hörverhalten: Jenseits des Wackelkopfes Die Realisierung eines effektiven Hörverhaltens bei virtuellen Menschen ist zu einem zentralen Forschungsbereich geworden, insbesondere da die Forschung versucht hat, komplexere soziale Szenarien mit mehreren Teilnehmern und Zuschauern zu realisieren. Das nonverbale Verhalten eines menschlichen Zuhörers wird durch eine Vielzahl von Faktoren bedingt, vom Verhalten des aktuellen Sprechers über die Rolle und den Wunsch des Zuhörers, am Gespräch teilzunehmen und das Verständnis des Sprechers zu entfalten. In ähnlicher Weise möchten wir virtuelle Menschen schaffen, die in der Lage sind, Feedback basierend auf ihren partizipativen Zielen und ihrem teilweisen Verständnis und ihrer Reaktion auf die Relevanz dessen zu geben, was der Sprecher sagt, während der Sprecher spricht. Basierend auf einem Überblick über die vorhandene psychologische Literatur sowie neuere technologische Fortschritte bei der Erkennung und dem partiellen Verständnis natürlicher Sprache beschreiben wir ein Modell, wie diese Faktoren in einen virtuellen Menschen integriert werden können, der sich konsequent mit diesen Zielen verhält. Anschließend diskutieren wir, wie das Modell in eine virtuelle menschliche Architektur implementiert wird, und präsentieren eine Bewertung der im Modell verwendeten Verhaltensweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23974-8_24 dddb01d12a3c6ad4c7813274941f2a29;de;;;4.2.;;;Fazit: Neurowissenschaften, Erfahrung und die größere Kultur Wir sind geboren, um sozial zu sein (Aristoteles, 1968), um mit anderen geerdet zu sein, die vielfältige und endlose Formen der Pädagogik fördern (Dewey, 1919, 1925, Premack, 1990). Was die lange Kindheit auszeichnet, ist die Chance, in der Welt um uns herum Fuß zu fassen. Die Suche nach Kohärenz beginnt hier, in einem sozialen Kontext von Normen und Praktiken, die uns binden und Wege anregen, auf andere zu reagieren.;-;-;-;https://link.springer.com/chapter/10.1057/9781137526731_9 8c7d550c83835e848e49e44bf0d3d8c3;de;;;4.2.;;;Nachhaltige Entwicklung: von der globalen zur lokalen Ebene In diesem Kapitel werden wir die Probleme diskutieren, auf die man stößt, wenn man das globale Konzept der nachhaltigen Entwicklung auf die regionale und lokale Ebene übertragen möchte. Bevor wir damit beginnen können, müssen wir jedoch zunächst unsere Analyse der aktuellen Umweltsituation verfeinern;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-9466-0_3 db114198bf525b53d3a8a6f3b1c25171;de;;;4.2.;;;MOOCs und die Integration von Social Media und Curation Tools in e-Learning MOOCs (Massive Open Online Courses) haben für E-Learning-Zwecke an Popularität gewonnen. Die Effektivität hängt von der Gestaltung und dem Management der Plattformschnittstellen ab, die den Zusammenhalt der Schüler fördern und die Zusammenarbeit optimieren sollen. Ein MOOC-Prototyp wurde entwickelt und E-Learning-Anwendungen ein Semester lang mit insgesamt 160 Studierenden aus Graduiertenstudiengängen einer französischen Business School pilotiert. Die Studierenden nutzten eine mobil unterstützte E-Learning-Umgebung und berichteten über ihre Erfahrungen durch das Verfassen einer Synthese, den Aufbau eines CMS (Content Management System) und die Ausarbeitung eines Content Curation Systems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22629-3_4 df279b7ed23a28085d6857d450cc4eae;de;;;5.2.;;;Landmark learning: Eine Veranschaulichung der assoziativen Suche In einer früheren Arbeit haben wir das assoziative Suchproblem definiert und ein System vorgestellt, das es unter bestimmten Bedingungen lösen kann. In diesem Beitrag interpretieren wir ein räumliches Lernproblem als assoziative Suchaufgabe und beschreiben das Verhalten eines adaptiven Netzwerks, das dieses lösen kann. Dieses Beispiel zeigt, wie selbstverständlich das assoziative Suchproblem auftreten kann und ermöglicht eine anschauliche Darstellung der Such-, Assoziations- und Generalisierungseigenschaften des adaptiven Netzes.;-;-;-;https://link.springer.com/article/10.1007/BF00335152 77a0966d857aeee7ba865463a29a032b;de;;;4.2.;;;Die Beziehung zwischen Computational Thinking und Computational Partizipation verstehen: eine Fallstudie der Scratch-Online-Community Die Theorie des sozialen Lernens geht davon aus, dass das Lernen am effektivsten ist, wenn es den Lernenden die Möglichkeit bietet, Gleichaltrige zu beobachten und mit ihnen zu interagieren. Leider überbetont die derzeitige K-12-Programmierausbildung das individuelle Lernen und hält die Lernenden davon ab, andere zu beobachten und mit ihnen zu interagieren. Die Scratch-Online-Community bietet Jugendlichen die Möglichkeit, sich aktiv an der Community zu beteiligen, indem sie ihnen ermöglicht, andere zu beobachten und mit ihnen zu interagieren. Es ist jedoch unklar, was die aktive Teilnahme der Lernenden an der Scratch-Online-Community motiviert. Mit einer umfangreichen Datenbank mit mehr als zweihunderttausend Scratch-Projekten untersuchte diese Studie die Auswirkungen des in Scratch-Projekten reflektierten computergestützten Denkens auf die Beteiligung der Benutzer. Wir untersuchten das Computational Thinking-Profil der Online-Benutzer von Scratch mittels Clustering-Analyse der von ihnen erstellten Projekte und untersuchten dann den Einfluss des in Projekten reflektierten Computational Thinking-Niveaus auf die Beteiligung der Benutzer durch Kausalanalysen. Die Clustering-Analyse ergab drei Gruppen von Lernenden, und die fortgeschrittenen Lernenden erstellten nicht mehr Projekte als andere, aber ihre Projekte ziehen mehr Beteiligung von Gleichaltrigen an. Unsere statistische Analyse findet eine geringe bis mäßige Korrelation zwischen dem in Projekten reflektierten Computational Thinking-Level und ihrer Popularität. Die weitere Kausalanalyse deutet jedoch darauf hin, dass das in Projekten reflektierte Computational Thinking-Niveau die Teilnahme der Lernenden nicht kausal beeinflusst. Unsere Ergebnisse legen nahe, dass Ausbilder nicht nur Wert auf die Entwicklung grundlegender CT-Fähigkeiten von Jugendlichen legen sollten, sondern auch gut daran tun sollten, Wege zu finden, um Jugendliche dazu zu bringen, während des Programmierprozesses aktiv an sozialen Interaktionsaktivitäten teilzunehmen.;-;-;-;https://link.springer.com/article/10.1007/s11423-021-10021-8 fc5d4da472d6b6f28764d025440c491d;de;;;4.2.;;;Entwicklung eines Dialogsystems, das die Genesung von Patienten mit Schizophrenie unterstützt Schizophrenie ist eine psychische Erkrankung, die durch wiederkehrende Episoden von Psychosen gekennzeichnet ist. Schizophrenie ist behandelbar und die Behandlung mit Medikamenten und psychosozialer Unterstützung ist wirksam. Schizophrenie ist jedoch eine der teuersten psychischen Erkrankungen in Bezug auf die gesamten erforderlichen medizinischen Kosten, einschließlich der Kosten für eine wirksame Behandlung und die erforderliche kontinuierliche Unterstützung und Überwachung. Es ist daher sinnvoll und förderlich zu erforschen, wie neue Technologien wie Dialogsysteme und soziale Roboter eingesetzt werden können, um sowohl dem Pflegepersonal als auch den Patienten bei der Behandlung und Genesung von der Krankheit Hilfe und Unterstützung zu bieten. In diesem Beitrag diskutieren wir verschiedene Fragestellungen im Zusammenhang mit der Entwicklung eines Dialogsystems, das in der Lage ist, die Charakteristika der Schizophrenie zu erkennen und Schizophreniepatienten rund um die Uhr zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8395-7_16 9628f6e0d98e3f6ad85285c4a595d981;de;;;4.2.;;;Menschliche Beschäftigung als komplexes System Die vorliegende Arbeit begründet die Änderung des theoretischen Ansatzes, der erforderlich ist, um die Konzepte, Prinzipien und Methoden der künstlichen Intelligenz und der Computerwissenschaften zu nutzen, um Probleme mit dem Zentrum sozialer Systeme zu behandeln, wie z. B. die Untersuchung des Zusammenhangs zwischen menschlicher Beschäftigung und sozialer Stabilität und die Validierung von Hypothesen über Strategien der Soziokybernetik, die auf die Regierungsbarkeit angewendet werden. Um die menschliche Besatzung als komplexes System zu modellieren und zu studieren, beschreibt dieses Dokument die autonomen Komponenten und die Reihe von Verhaltensweisen, deren gleichzeitiges und gleichzeitiges Auftreten dynamische Bifurkationen (Chaos) und aufkommende Ereignisse in der menschlichen Besatzung hervorruft, verstanden als komplexes System zwischen den Dreiklang: Menschen - Berufe - Kontexte, der sensible Phänomene ausdrückt, die nicht vollständig und eindeutig zu kennen sind. Die Komponenten der Berufstätigkeit werden konzeptionell entwickelt und Zusammensetzungs- und Zustandsbeziehungen der gegebenen Verhaltensweisen zwischen diesen Komponenten hergestellt, um die menschliche Berufstätigkeit als komplexes System zu etablieren und so die Entscheidungsfindung und die Vorhersage von Berufsdynamiken und Verhaltensweisen zu ermöglichen auf individueller und sozialer Ebene modelliert und simuliert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-93803-5_8 6ca8dccc0ae89e9a9d6271a63177e1b0;de;;;4.2.;;;Personalisierung und Gender: Gouverneurskandidaten 2014 in den sozialen Medien Am 25. Juni 2013 wurde die Senatskammer der texanischen Hauptstadt zum Schauplatz eines bemerkenswerten politischen Showdowns. 13 Stunden lang sahen die Bürger der Hauptstadt – zusammen mit über 100.000 Zuschauern über einen Live-Webstream und Tausenden mehr auf Twitter – zu und warteten auf den Abschluss eines umstrittenen Filibuster des Senatsgesetzes 5 (SB 5), der zahlreiche Einschränkungen auferlegen würde Zugang zu Abtreibungen und Klinikeinrichtungen. Im Zentrum des Filibuster-Showdowns wurde die Senatorin des Bundesstaates Wendy Davis buchstäblich über Nacht zu einer nationalen politischen Berühmtheit. Ihre pinkfarbenen Laufschuhe, getragen um Stunden zu überstehen, in denen sie das Podium nicht aufgeben konnte, wurden schnell zu einem Online-Meme.;-;-;-;https://link.springer.com/chapter/10.1057/9781137488015_11 87799b0139dda86617159e0cdc86fab2;de;;;4.2.;;;Optimierung der räumlichen Organisation ländlicher Siedlungen auf der Grundlage der Lebensqualität Die Optimierung der ländlichen Siedlungen ist eine wichtige Maßnahme, um dem Niedergang des ländlichen Raums zu begegnen und die Qualität des ländlichen Lebens und der Sehenswürdigkeiten zu verbessern. Diese Studie stellt die „Lebensqualitätstheorie“ vor. Ausgehend von den Mechanismen der Wechselwirkungen zwischen ländlichem Siedlungsraum und Lebensqualität wird in dieser Studie untersucht, wie die räumliche Organisation ländlicher Siedlungen optimiert werden kann. Drei Aspekte werden evaluiert – Integration ländlicher Siedlungsraumfunktionen, Optimierung der Raumstruktur und Regulierung des räumlichen Maßstabs – mit dem Ziel, einen Optimierungsmodus und einen Rahmen für die räumliche Organisation ländlicher Siedlungen mit hoher Lebensqualität zu schaffen. Unsere Ergebnisse legen folgendes nahe: (1) Die Siedlung ist der räumliche Träger der Lebensqualität, die ein wesentlicher Siedlungsbestandteil ist, und diese beiden Aspekte beeinflussen und verbessern sich gegenseitig. Daher ist vernünftiger ländlicher Siedlungsraum eine wichtige Voraussetzung für mehr Lebensqualität. (2) Die räumlichen Funktionstypen ländlicher Siedlungen lassen sich in solche einteilen, die den Lebensunterhalt erhalten, die Industrie entwickeln und die Lebensqualität verbessern. Die Optimierung der räumlichen Organisation ländlicher Siedlungen auf der Grundlage der Lebensqualität erfordert die Förderung der Erhaltung des Lebensunterhalts, die Integration der industriellen Entwicklung und die Verankerung der Qualitätsverbesserung. (3) Zur Optimierung der räumlichen Organisation ländlicher Siedlungen gibt es zwei wichtige Komponenten. Die eine fördert die organische Konzentration von Wohn-, Agrar- und Industrieräumen, die sinnvolle Verteilung von Sozial-, Erholungs- und Dienstleistungsräumen sowie die organische Balance von Wohn-, Produktions- und ökologischen Räumen, um die Kombination von Binnenflächen sinnvoll zu optimieren Raumtypen in Siedlungen. Die andere ist die Bildung einer funktionalen Strukturebene eines „umfassenden Dorfes mit Dorfcharakter“ und der Aufbau einer räumlichen Organisation von Siedlungsformen, die durch Landstraßen verbunden sind, durch Verlagerung und Anpassung der Funktion von Dörfern. Diese Veränderungen würden die Zerstörung unterentwickelter Dörfer, den Erhalt normaler Dörfer, die Vergrößerung wichtiger Dörfer und den Bau neuer Dörfer erfordern. (4) Als idealer Modus zur Optimierung des ländlichen Siedlungsraums auf der Grundlage der Lebensqualität sollte das Rural Road-Oriented Development Model (RROD-Modell) in einem rationalen Maßstab für die Siedlungseinheiten und die Entfernung zwischen den Siedlungen aufgebaut werden, was zu einem voll funktionsfähigen RROD-System führt mit rationaler Struktur, Hilfseinrichtung und gut organisierter Verteilung.;-;-;-;https://link.springer.com/article/10.1007/s11442-018-1499-4 eebac2b0a21eecc33ee12c95fda7e58e;de;;;4.2.;;;Persönlichkeitstheorie und klinische Sozialarbeitspraxis Dieser Beitrag untersucht die Relevanz von Persönlichkeitstheorien für die klinische Praxis der Sozialen Arbeit. Quellen sind Schriften zur vergleichenden Persönlichkeitstheorie und zur Erkenntnistheorie der klinischen Psychologie und der Sozialen Arbeit. Klinisches Handeln, die Zeit mit einem Klienten, und klinisches Nachdenken, das Nachdenken oder Präsentieren des Klienten, werden in der Praxis als wichtige unterschiedliche „Momente“ gesehen. Klinisches Handeln ist eher von humanistischen, narrativen Denkformen geprägt als von wissenschaftlichen, paradigmatischen. Die formale Theorie beeinflusst das Handeln indirekt durch ihre Gestaltung der Philosophie, Aufmerksamkeit und Prioritäten des Klinikers. Klinische Reflexion wird direkter von formalen Theorien geprägt und profitiert von der Haltung multipler Theorien.;-;-;-;https://link.springer.com/article/10.1007/BF00756140 71a7d3e68e0fdf287a37953e6fc0ca25;de;;;4.2.;;;Messung der Kommunikationsbeteiligung, um eine Konversation in der Mensch-Roboter-Interaktion zu initiieren Stellen Sie sich eine Situation vor, in der ein Roboter ein Gespräch mit einer Person einleitet. Was ist der richtige Zeitpunkt für eine solche Aktion? Wo ist eine gute Position für die Begrüßung? In dieser Studie analysieren wir menschliche Interaktionen und etablieren ein Modell für eine natürliche Art der Gesprächsinitiierung. Unser Modell bezieht sich hauptsächlich auf den Beteiligungszustand und die räumliche Gestaltung. Wenn sich eine Person auf die Teilnahme an einem Gespräch vorbereitet und eine bestimmte Raumformation auftritt, fühlt sie sich an dem Gespräch beteiligt, wenn sie ihre Teilnahme wahrnimmt, behält sie/sie bestimmte Raumformationen bei. Theorien haben sich mit der menschlichen Kommunikation im Zusammenhang mit diesen Konzepten befasst, aber sie haben nur Situationen behandelt, nachdem die Menschen zu sprechen begonnen haben. In dieser Forschung haben wir ein Partizipationszustandsmodell zur Messung der Kommunikationsbeteiligung erstellt und klare Richtlinien für die Strukturierung des Verhaltens eines Roboters bereitgestellt, um ein Gespräch basierend auf dem Modell zu beginnen und aufrechtzuerhalten. Unser Modell beschreibt genau die Einschränkungen und erwarteten Verhaltensweisen für die Phase der Gesprächsinitiierung. Wir haben unser vorgeschlagenes Modell in einem humanoiden Roboter implementiert und sowohl eine Systembewertung als auch eine Benutzerbewertung in einem Shop-Szenario-Experiment durchgeführt. Es wurde gezeigt, dass mit unserem vorgeschlagenen Modell eine gute Erkennungsgenauigkeit des Interaktionszustands in einem Gespräch erreicht wurde, und der mit unserem vorgeschlagenen Modell implementierte Roboter wurde im Hinblick auf die Angemessenheit des Verhaltens und die Interaktionseffizienz im Vergleich zu anderen beiden alternativen Bedingungen als am besten bewertet.;-;-;-;https://link.springer.com/article/10.1007/s12369-015-0285-z f4095641b3a2f2025b27d31756a3b7c1;de;;;4.2.;;;Verkörperter und moralischer methodologischer Kosmopolitismus im Gegensatz zum Aufstieg des Neonationalismus: Eine mikroanalytische Perspektive Dieses Kapitel diskutiert auf allgemeiner Ebene die Möglichkeit eines verkörperten und moralisch-methodischen Kosmopolitismus und die Bedeutung seiner Entwicklung und Verwendung in einem Forschungsumfeld, um den aufkommenden Neonationalismus zu bekämpfen. Ziel ist es, konkrete Beispiele für die Möglichkeiten bürgerschaftlichen Handelns und politischer Bürgerschaft in transnationalen und kosmopolitischen Sphären der Zivilgesellschaft vorzustellen und die Bedeutung und Schwierigkeit ihrer Analysen hervorzuheben. Die Perspektive kann als mikroanalytisch bezeichnet werden, d. h. das Kapitel untersucht etwas, das man als verkörperten und moralisch-methodischen Kosmopolitismus bezeichnen kann, und argumentiert für seine Bedeutung. Moralisch-methodischer Kosmopolitismus wird im Lichte der Soziologie der Abwesenheit diskutiert, die von Boaventura de Sousa Santos entwickelt wurde. Im Abschnitt zum verkörperten methodologischen Kosmopolitismus argumentiert der Autor, dass verkörperte Methoden für das Verständnis der kosmopolitischen Mikropolitik, also des Kosmopolitismus in der Praxis, von entscheidender Bedeutung sind. Damit tritt Laine in die Fußstapfen von Erving Goffman und nutzt die Interaktion zwischen kosmopolitischer Jugend und Polizei als Beispiel für verkörperte Mikroanalyse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-21804-5_5 f5cf4975077c05ef65085ec5626ceaa1;de;;;5.2.;;;Verwendung epistemischer Netzwerke zur Analyse von selbstreguliertem Lernen in einer offenen Problemlösungsumgebung Die Analysen auf Mikroebene, wie sich das selbstregulierte Lernverhalten (SRL) von Schülern im Laufe der Zeit entwickelt, bieten einen wertvollen Rahmen für das Verständnis ihrer Lernprozesse bei der Interaktion mit computerbasierten Lernumgebungen. In diesem Papier verwenden wir Log-Trace-Daten, um zu untersuchen, wie Schüler ihr Lernen in der Betty’s Brain-Umgebung selbstregulieren, wo sie drei Kategorien von offenen Problemlösungsaktionen durchführen: Informationssuche, Lösungskonstruktion und Lösungsbewertung. Wir verwenden die epistemische Netzwerkanalyse (ENA), um uns ein Gesamtverständnis des Zusammentreffens zwischen Aktionstypen sowohl innerhalb als auch zwischen den drei Aktionskategorien zu verschaffen. Vergleiche von epistemischen Netzwerken, die für zwei Gruppen von Schülern, solche mit geringer und hoher Leistung, generiert wurden, lieferten uns Einblicke in ihr selbstreguliertes Verhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-67788-6_13 71529a13f12c8134b5985b0140c30cb9;de;;;4.2.;;;Wettbewerbsbasiertes soziales Online-Lernen In diesem Papier stellen wir einen Rahmen für die Bereitstellung von wettbewerbsbasiertem sozialem Lernen vor. Wir diskutieren, dass der Wettbewerb bei Lernaktivitäten, insbesondere in Verbindung mit sozialem Lernen, sehr gut akzeptiert wird, dennoch fehlen den bestehenden Lösungen Werkzeuge zur Steuerung und Organisation von Lernaktivitäten. Wir bieten eine Beschreibung eines sozialen Lernportals www.arzinai.lt, das Wettbewerb beim Lernen implementiert und auch Merkmale von persönlichen und Gruppenlernumgebungen aufweist. Einige Nutzungsstatistiken, die bestätigen, dass Wettbewerbe eine starke Motivation für die Lernenden darstellen, werden ebenfalls bereitgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33308-8_32 2b96ab4c7d0669e06295ffb155401c9c;de;;;5.2.;;;Korrigierendes Feedback und seine Auswirkungen auf die vertrauensbasierte Beurteilung von Schülern Das Vertrauen der Schüler in ihr Wissen kann zu hohen oder geringen Abweichungen im Gegensatz zu den tatsächlichen Leistungen führen. Untersuchen Sie daher das Verhalten der Schüler in Bezug auf korrigierendes Feedback;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-25264-9_5 eb8a539af88168689e86a7791acdd864;de;;;4.2.;;;Doppelte Reflexivität: Freundschaftspolitik, Feldforschung und Repräsentation in der Ethnographischen Jugendforschung Dieses Kapitel ist eine Gemeinschaftsproduktion, die sich auf die Politik der Feldforschung und die Repräsentation junger Menschen in der Ethnographie konzentriert. Das Papier vereint die Ph.D. Betreuer und Doktorand, konzentrierten sich auf drei thematische Fragen, die sich aus ihrer getrennten Feldarbeit ergaben: Risiko, Freundschaft und Integrität. Wir betrachten die verschiedenen Forschungsstandorte und wählen Beispiele als Teil einer gemeinsamen Forschungsidee aus, bei der wir eine Gemeinsamkeit von Erfahrung und Verständnis identifiziert haben (Marcus, 1998). Über die Einzigartigkeit der ethnografischen Erfahrung hinaus möchten wir teilen, wie die Forschungsfreundschaft es uns ermöglicht hat, die Forschungsthemen in unser Leben zu integrieren, um authentische Stimmen zu erhalten. Im theoretischen Sinne haben wir versucht, dies durch Reflexivität in der Feldforschung zu erreichen, die das Gefühl der Forschungssubjekte berücksichtigt, die wir im Text darzustellen versuchen. Wir kamen zu der Erkenntnis, dass es zwei entscheidende Momente der Reflexivität gibt, eines in der Feldforschung und eines in der Repräsentation. Obwohl die Ethnographie verlangt, dass Feldforschung, Analyse und Schreiben gleichzeitig stattfinden, möchten wir darauf aufmerksam machen, dass der Ethnograph beim Schreiben durch das Forschungsimaginäre in das Feld zurückkehrt und auf die sogenannte doppelte Reflexivität stößt.;-;-;-;https://link.springer.com/chapter/10.1057/9780230355880_13 342125b080987181c99a4716c2c6df10;de;;;4.2.;;;Partizipative Modellierung zur Verbesserung des sozialen Lernens, des kollektiven Handelns und der Mobilisierung unter den Nutzern des Mafungautsi-Walds, Simbabwe Partizipative Modellierung kann ein nützlicher Prozess sein, um eine kritische Prüfung von Existenzgrundlagenoptionen zu fördern und eine nachhaltige Nutzung natürlicher Ressourcen durch verbessertes soziales Lernen, kollektives Handeln und Mobilisierung zu fördern. Die Ginstergrasgruppe im Mafungautsi Forest Reserve dient als Fallstudie über den Prozess und die Ergebnisse einer solchen partizipativen Modellierung. Innovative Methoden der Gruppenmoderation verbesserten die Beteiligung am Modellierungsprozess. Der Modellierungsprozess ergänzt umfassendere Bemühungen, ein höheres Maß an adaptivem kollaborativem Management zu erreichen.;-;-;-;https://link.springer.com/article/10.1007/s11842-003-0022-6 94981a2e60af8e6d66cc179d44664a80;de;;;4.2.;;;Designs for Heritage Language Learning: Ein Fotografieprojekt in der Zusatzausbildung im Vereinigten Königreich Ergänzungsschulen im Vereinigten Königreich bieten Bildungsmöglichkeiten für Kinder und Jugendliche außerhalb des Regelschulangebots. Das Papier berichtet über eine Untersuchung, die von Praktikern an griechischen Ergänzungsschulen im Vereinigten Königreich durchgeführt wurde, um zu untersuchen, wie Funktionen mobiler Technologien genutzt werden können, um das Erlernen von Herkunftssprachen zu fördern. Es basiert auf der Ansicht, dass mobiles Lernen eine Möglichkeit für Lernende sein kann, die Sprache informell zu erkunden und ihre eigene Entwicklung zu steuern (Kukulska-Hulme;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25684-9_15 0f8c8ea81a21438c89efabef2cee1f31;de;;;5.2.;;;Virtuelle Welten für die personalisierte Suche nutzen: Entwicklung des PAsSIVE-Frameworks Die Suchmaschinentechnologie hat unsere Fähigkeit, durch das Chaos beim Auffinden relevanter Informationen im Internet zu filtern, erheblich verbessert. Trotz der aktuellen Möglichkeiten verspricht man sich jedoch eine weitere Verbesserung durch den Einsatz von Personalisierung und alternativen Schnittstellen. In diesem Beitrag untersuchen wir eine solche Alternative namens PAsSIVE (Personalized Assisted Search in a Virtual Environment). PAsSIVE lässt den Benutzer in die virtuelle Welt von Second Life eintauchen, in der Ergebnisse gerendert werden. Im Rahmen dieser Forschung untersuchen wir den Entwurf und die Entwicklung einer 3D-Suchoberfläche und reflektieren die gewonnenen Erkenntnisse. In diesem Papier werden auch zukünftige Arbeiten im Zusammenhang mit Personalisierung und proaktiver Suche erörtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-20367-6_1 133508b7a4f0ca9fc3077c96245aa789;de;;;4.2.;;;Ein Rechenmodell zur Vertrauensmessung in mobilen sozialen Netzwerken mit Fuzzy-Logik Große mobile soziale Netzwerke (MSNs) erleichtern die Kommunikation über mobile Geräte. Die Benutzer dieser Netzwerke können mobile Geräte verwenden, um auf Informationen zuzugreifen, sie zu teilen und zu verteilen. Mit der steigenden Zahl von Nutzern in sozialen Netzwerken stellt die große Menge an geteilten Informationen und deren Verbreitung die Nutzer vor Herausforderungen. Eine dieser Herausforderungen besteht darin, ob Benutzer einander vertrauen können. Vertrauen kann eine wichtige Rolle bei der Entscheidungsfindung der Nutzer in sozialen Netzwerken spielen, so dass die meisten Menschen ihre Informationen aufgrund ihres Vertrauens an andere weitergeben oder Entscheidungen treffen, indem sie sich auf die Informationen anderer Nutzer verlassen. Angesichts der subjektiven und wahrnehmungsbezogenen Natur des Vertrauenskonzepts ist die Abbildung von Vertrauen in einem Computermodell jedoch eines der wichtigen Themen in Computersystemen sozialer Netzwerke. Darüber hinaus können in sozialen Netzwerken verschiedene Gemeinschaften bezüglich der Beziehungen zwischen Benutzern existieren. Diese Verbindungen und Gemeinschaften können das Vertrauen zwischen den Benutzern und seine Komplexität beeinträchtigen. In diesem Artikel wird unter Verwendung von Benutzermerkmalen in sozialen Netzwerken eine Fuzzy-Clustering-Methode vorgeschlagen und das Vertrauen zwischen Benutzern in einem Cluster mit einem Rechenmodell berechnet. Darüber hinaus wird durch die Prozesse der Kombination, des Übergangs und der Aggregation von Vertrauen der Vertrauenswert zwischen Benutzern berechnet, die nicht direkt verbunden sind. Die Ergebnisse zeigen die hohe Leistungsfähigkeit des vorgeschlagenen Vertrauensschlussverfahrens.;-;-;-;https://link.springer.com/article/10.1007/s11633-020-1232-5 8b8112cbfa07070f9073f6cd4f2ab56a;de;;;4.2.;;;Determinanten der Teilnahme an einer Inuit-Online-Community of Practice Eine Online-Community of Practice (OCoP) ist ein wichtiges Instrument zur Verwaltung und Verbreitung von Wissen innerhalb einer Gemeinschaft. Leider zeigt die Forschung, dass OCoPs oft erfolglos bleiben, weil die Mitglieder der Community nicht mitmachen. Dieses Papier beschreibt eine vorläufige Untersuchung der Determinanten, die die Teilnahme an einer OCoP innerhalb einer Inuit-Gemeinschaft beeinflussen. Ein offener Interviewfragebogen wurde entwickelt und Mitglieder der Inuit-Gemeinschaft wurden interviewt. Unsere Ergebnisse zeigen, dass Zeitmangel das Haupthindernis für die Teilnahme ist. Unsere Studie zeigt auch das Interesse vieler Mitglieder der Inuit-Gemeinschaft, sich an der Entwicklung des OCoP zu beteiligen. Die Inuit haben eine starke Kultur, die auf Wissensaustausch basiert, und dies ermöglicht offene Gespräche und größeres Vertrauen innerhalb der Gemeinschaft. In einer Kultur, die durch Wissensaustausch aufgebaut und aufrechterhalten wird, glauben wir fest daran, dass ein OCoP ein wertvolles Instrument sein kann, vorausgesetzt, dass die richtigen Schritte unternommen werden, um die Teilnahme zu erleichtern und zu fördern.;-;-;-;https://link.springer.com/article/10.1057/kmrp.2011.15 9abc6f07240a399ab9c374e2156be501;de;;;4.2.;;;Technologie und soziale Interaktion im multimodalen Multispace-Setting audiometrischer Tests Eine häufige Motivation für die Integration der Technik- und Sozialwissenschaften besteht darin, die Nutzer von Technologien zu verstehen, um Innovationen zu bewirken [1-3]. In diesem Beitrag wird argumentiert, dass eine Verschiebung vom „Benutzer“ hin zur „Interaktion im Beteiligungsrahmen“ notwendig ist, da hier die Interaktanten einander ihre Relevanz zeigen. Anhand der Konversationsanalyse [5-8] wird dieser Punkt exemplarisch an der Untersuchung der Interaktion in einer audiologischen Sprechstunde veranschaulicht, bei der die Schnittstelle von Sozialität und Technik als Barriere relevant ist. Die Analyse konzentriert sich darauf, an welchen Aspekten sich die Teilnehmer in ihrem Gespräch und ihrem nonverbalen Verhalten angesichts der Aufgabenstellung und der Technologie in dieser multimodalen, multiräumlichen Umgebung als problematisch orientieren. Die Analyseergebnisse werden für Innovationen im Rahmen von User-Centered Design diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32090-3_22 abe506168fa3f7b1654cef2b347f6fce;de;;;4.2.;;;Auf dem Weg zum vom Bürgerdialog geleiteten Umweltmanagement: Eine explorative Fallstudie in Japan nach Fukushima Dieser Beitrag berichtet über eine explorative Fallstudie, die dazu beitragen soll, eine Dialogkultur in Japan zu fördern. Ein Schwerpunkt liegt auf Vorschlägen für Methoden für den polyphonen Dialog zwischen Bürgern und zwischen Bürgern und Experten, um die Umwelt effektiv zu managen. In diesem Beitrag wird argumentiert, dass eine Kultur des Dialogs für eine pluralistische partizipative Umweltpolitik unerlässlich ist. In japanischen Städten fand ein stichprobenbasierter Bürgerdialog mit Experten und Bürgern zur Entsorgung radioaktiver Abfälle statt. Drei vorgeschlagene Methoden – auf Höflichkeit basierender Moderationsdialog, evidenzbasierte und positionsbezogene Präsentationen von Experten mit unterschiedlichen Ansichten und Experten, die zusammen mit den Bürgern reflektieren, die sich am Dialog beteiligen – könnten auch zu einer positiven Einstellung gegenüber dem Dialog mit anderen mit unterschiedlichen Ansichten führen views als bessere interne Selbstüberlegung. Einstellungen zum Dialog wurden empirisch gemessen. Die aktuelle Forschung legt nahe, dass die explizite Behandlung pluralistischer Positionen und Ansichten bei Bürgern und Experten ein Schlüsselfaktor für ein qualitativ hochwertiges soziales Lernen und eine Widerstandsfähigkeit gegenüber Unsicherheit wäre.;-;-;-;https://link.springer.com/article/10.1007/s00267-021-01433-6 65b4873928f64ff6a5601b87d5aa3253;de;;;5.2.;;;Approximation von zweimodalen Verteilungen zufälliger Größen Es werden ein Verfahren und ein Programm zur Approximation von zweimodalen Verteilungen von Zufallsgrößen mittels einer Linearkombination zweier einmodaler Wahrscheinlichkeitsdichtefunktionen beschrieben. Die Ergebnisse einer Analyse der Funktionsweise des Programms werden vorgestellt.;-;-;-;https://link.springer.com/article/10.1023/A%3A1015921618300 9cdafcf43da51d2314740e7472a336bc;de;;;5.2.;;;Kollektiver Rechtsschutz im Vorschlag für eine Brüssel I bis-Verordnung: Ein kohärenter Ansatz? In rund der Hälfte der EU gibt es bereits Regelungen zur kollektiven Rechtsdurchsetzung. Wenngleich die Herangehensweise an die komplexe Materie des kollektiven Rechtsschutzes national sehr unterschiedlich ist, steht doch ein Element stets im Zentrum des Regelungsbedürfnisses, nämlich sterben Einführung spezieller Verfahrensgarantien für die Kläger, sterben im Prozess nicht selbst auftreten. In Verfahren mit Auslandsbezug ist der Klägerschutz insbesondere im zentral auf das Exequaturverfahren. Der folgende Beitrag konzentriert sich auf die relevanten Bestimmungen der vorgesehenen Neufassung der Verordnung des Europäischen Parlaments des Rates über die gerichtliche Zuständigkeit und die Anerkennung und Vollstreckung von Entscheidungen in Zivil- und Handelssachen. Der kollektive Rechtsschutz ist eine der Materien, für die Verordnungsvorschlag das sonst abgeschaffte Exequaturverfahren laufend wird. Die Bestimmungen greifen allerdings zu kurz, vor allem insoweit sie nur bestimmte kollektive Klagen betreffen. Weiters diskutiert der Problematik paralleler kollektiver Verfahren, zu denen der Verordnungsvorschlag schweigt, und denen sich auch die anderen Beiträgen Kommissionsdokumente nur indirekt widmen.;-;-;-;https://link.springer.com/article/10.1007/s13590-012-0004-z 140c03b565bbb82211b1bd935994d938;de;;;4.2.;;;Zum Verständnis der IT-Bedürfnisse von Sozialaktivisten: Der Fall des Organisationsprozesses des Weltsozialforums 2006 Neuere Literatur hat gezeigt, dass die meisten Organisationen der Zivilgesellschaft in ihren Arbeitspraktiken keine IT-Aneignung haben. Es besteht dringender Bedarf, sich auf diesen Anwendungsbereich zu konzentrieren, um diese Organisationen durch IT-Fähigkeiten zu stärken. Da es nicht viel Literatur zur spezifischen Bedarfsanalyse von Freiwilligenorganisationen gibt, müssen ethnografische Studien durchgeführt werden, um die IT-Anforderungen dieses Sektors besser zu verstehen. In diesem Papier haben wir den Organisationsprozess der Veranstaltung des Weltsozialforums 2006 in Karachi, Pakistan, untersucht. Das Weltsozialforum ist eine wichtige Zusammenkunft von sozialen Bewegungen und Freiwilligenorganisationen auf der ganzen Welt, und die Organisation einer solchen Veranstaltung erfordert umfassende Kommunikations- und effektive Planungsfähigkeiten. Das Ziel dieser Arbeit ist es, die Notwendigkeit und Bedeutung dieser Forschungsfrage hervorzuheben. Unsere Absicht ist es, geeignete Technologien in den Organisationsprozess einzuführen, um soziale Aktivisten zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16318-0_68 2253849a1f971be7d2e910976579e58f;de;;;4.2.;;;„Sobald dieser Track beginnt, fühle ich mich …“ Mit „Music Elicitation“ die Bindungen an extreme Metal-Musik entwirren Musik ist im Leben vieler Menschen von Bedeutung und bietet eine Quelle des Vergnügens, der Flucht und der Identifikation. Musik bietet dem Hörer eine Begegnung mit dem Körper (der auf Rhythmus und Klangfarbe reagiert), eine Begegnung mit dem Selbst (Selbstgefühl erfahren und auf vertrauten Geschmack oder ungewohnten „Lärm“ reagieren) und bei Live-Musik eine Begegnung mit die Menge. Es mag daher nicht verwunderlich sein, dass manche Menschen ihre Identität rund um die Musik bilden und sich kollektiv in ihrem Geschmack identifizieren. Bei der Recherche mit Extreme Metal-Musikfans wollte ich etwas über die alltäglichen Praktiken der Extreme Metal-Fans und die ausgeprägten Investitionen und Bindungen der Fans an Extreme Metal sowohl als Musikgenre als auch als Musiksubkultur enthüllen. Ein solcher Fokus erforderte eine qualitative Methode, die die Offenlegung der Erfahrungen von Extreme-Metal-Fans beim Hören von Extreme-Metal-Musik unterstützte. Ich beschloss, Extreme Metal-Musik in Forschungsinterviews zu integrieren, um beschreibende Berichte über Erfahrungen und Bindungen an Musik zu erstellen und eine eingehende Diskussion zu provozieren.;-;-;-;https://link.springer.com/chapter/10.1057/9780230355880_2 065cd6478790bbfb5a927e72e605926b;de;;;5.2.;;;Risikopräferenzen von Softwareprojektmanagern Ein Fragebogen wurde an 68 Software-Projektmanager (SPMs) verteilt. Die Fragen wurden entwickelt, um zu testen, ob die riskanten Urteile von SPMs besser mit der Expected Utility Theory oder der Prospect Theory übereinstimmen. Obwohl die Ergebnisse eher mit der Prospektionstheorie übereinstimmten, unterschieden sie sich in wichtigen Punkten, was zeigt, dass die Urteile der SPMs weniger homogen sind, als von beiden Theorien angenommen wird. Diese Ergebnisse unterstreichen die potenzielle Bedeutung der Urteile von SPMs für das Ergebnis von Softwareentwicklungsprojekten.;-;-;-;https://link.springer.com/article/10.1057/jit.1996.3 30f46ad30e42d55cb828ff231c0673a5;de;;;4.2.;;;Trust of Nations: Auf der Suche nach universelleren Werten für zwischenmenschliche und internationale Beziehungen Ziel dieser Studie ist es, die bisherige Forschung zum Vertrauensempfinden von Menschen zu überprüfen, wie sie sich in den Daten aus Längsschnitt- und länderübergreifenden Vergleichsstudien des Instituts für Statistische Mathematik widerspiegelt. Zuerst erkläre ich etwas Geschichte unserer Umfrageforschung. Zweitens gebe ich einen kurzen Überblick über die Studien zum Vertrauensgefühl. Drittens fasse ich einige Aspekte der grundlegenden sozialen Werte der Japaner und ihres zwischenmenschlichen Vertrauens zusammen, wie sie in unserer japanischen National Character Survey identifiziert wurden. Viertens präsentiere ich eine länderübergreifende vergleichende Analyse des zwischenmenschlichen Vertrauens und des institutionellen Vertrauens, einschließlich des Seven Country Survey (Japan, USA und fünf europäische Länder) (1987–1993), japanischer Einwanderungsumfragen, des East Asia Values ​​Survey (2002–2005 .). ), den Pacific-Rim Values ​​Survey (2004–2009) und den Asia-Pacific Values ​​Survey (2010–2014). Um die Einschränkungen der Studien zu überwinden, die hauptsächlich auf den Items des General Social Survey oder des World Values ​​Survey basieren, untersuche ich grundlegendere soziale Werte in Bezug auf menschliche Bindungen, die dem Vertrauen der Menschen über Länder- oder Zeitunterschiede hinaus zugrunde liegen können. Der letzte Abschnitt enthält einige Anmerkungen für unsere zukünftige Forschung.;-;-;-;https://link.springer.com/article/10.2333/bhmk.42.131 102f558b07c09661b1ff5ef5e8b51afa;de;;;4.2.;;;Eine skalierbare Lösung für die adaptive Problemsequenzierung und deren Auswertung Wir schlagen einen assoziativen Mechanismus zur adaptiven Generierung von Problemen in intelligenten Tutoren vor. Unsere Bewertungen der Tutoren, die die assoziative Anpassung zur Problemsequenzierung verwenden, zeigen, dass 1) assoziative Anpassung auf Konzepte abzielt, die von den Schülern weniger gut verstanden werden, und 2) assoziative Anpassung den Schülern hilft, mit weniger Übungsproblemen zu lernen. Die Vorteile der assoziativen Adaption gegenüber anderen adaptiven Techniken sind neben der Domänenunabhängigkeit, dass sie einfacher zu bauen und skalierbar ist.;-;-;-;https://link.springer.com/chapter/10.1007/11768012_18 f07257e41954464aec650848f3d5f166;de;;;4.2.;;;Einfluss der von Social Networking Services abgeleiteten partizipativen Überwachungsumgebung auf den psychiatrischen Zustand von Individuen Diese Studie versucht, Hypothesen über den Zusammenhang zwischen der partizipativen Überwachungsumgebung, die wir durch die weit verbreitete Nutzung von Social-Networking-Diensten (SNS) geschaffen haben, und psychischen Störungen wie der dissoziativen Störung, die Jugendliche entwickeln würden, basierend auf individuellen und organisatorischen Beobachtungen, aufzustellen Überwachung im SNS-Bereich und Forschungsergebnisse im Bereich der Psychopathologie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-48319-0_45 715d77447dbdce429828f3dc66b18029;de;;;4.2.;;;Kunst, Forschung und Gesellschaft: Neue Ökologie: Die affektive Kraft Wir kommen an einen sehr interessanten Ort in der Geschichte, an dem eine neue Ökologie der Kunst, der wissenschaftlichen und technologischen Innovation und der Gesellschaft entsteht. Sie wird die Dynamiken und damit die Entwicklungspfade unserer Gesellschaft grundlegend verändern und entsprechende Veränderungen unserer Wahrnehmung, unseres Verständnisses und unserer Interaktion mit dieser entstehenden Ökologie erfordern. Die Neubetrachtung der Beziehungen von Kunst, technisch-wissenschaftlicher Forschung und Gesellschaft soll daher sowohl Künstlern, Wissenschaftlern, Politikern als auch der Öffentlichkeit helfen, das entstehende Ökosystem zu verstehen, um die große Chance voll auszuschöpfen und die neuen Herausforderungen besser zu bewältigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09909-5_5 47f6c9a5983388c051ed3fe9623e9875;de;;;4.2.;;;Flickr-Gruppenempfehlung basierend auf benutzergenerierten Tags und sozialen Beziehungen über Themenmodell Der Boom von Flickr, einem Social-Tagging-System zum Teilen von Fotos, führt zu einem dramatischen Anstieg der sozialen Online-Interaktionen. Es bietet beispielsweise Millionen von Gruppen, denen Benutzer beitreten können, um Fotos zu teilen und Beziehungen zu pflegen. Allerdings behindert die stark ansteigende Anzahl von Gruppen die Teilnahme der Benutzer, daher ist es notwendig, Gruppen entsprechend den Präferenzen der Benutzer vorzuschlagen. Durch die Analyse von benutzergenerierten Tags kann man potenzielle Interessen der Benutzer erkunden und die latenten Themen der entsprechenden Gruppen entdecken. Darüber hinaus wird das Verhalten der Benutzer von ihren Freunden beeinflusst. Basierend auf diesen Intuitionen schlagen wir ein themenbasiertes Gruppenempfehlungsmodell vor, um potenzielle Interessen von Benutzern vorherzusagen und Gruppenempfehlungen basierend auf Tags und sozialen Beziehungen durchzuführen. Das vorgeschlagene Modell bietet eine Möglichkeit, Tag-Informationen und soziale Netzwerkstruktur zu verschmelzen, um die zukünftigen Interessen der Benutzer genau vorherzusagen. Die experimentellen Ergebnisse an einem realen Datensatz demonstrieren die Wirksamkeit des vorgeschlagenen Modells.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39068-5_62 0da76172a14373407e995189d91c9390;de;;;4.2.;;;Das Prozessmodell der Corporate Social Responsibility (CSR)-Kommunikation: CSR-Kommunikation und ihre Beziehung zu CSR-Wissen, Vertrauen und Unternehmensreputationswahrnehmung der Verbraucher Anhand einer nationalen Umfrage unter US-Verbrauchern zeigt diese Studie die positiven Auswirkungen von Kommunikationsfaktoren der sozialen Verantwortung von Unternehmen (CSR) auf das CSR-Wissen, das Vertrauen und die Wahrnehmung der Unternehmensreputation der Verbraucher. Die Studie untersucht auch die Rolle eines akteursspezifischen Faktors der Verbraucher-Unternehmens-Identifikation im Prozess der CSR-Kommunikation. Die Ergebnisse legen nahe, dass die positiven Effekte der CSR-Informativität nachhaltig und unabhängig von der Identifikation der Konsumenten mit einem Unternehmen sind, während sich die positiven Konsequenzen der persönlichen Relevanz, Transparenz und Sachlichkeit der CSR-Kommunikation mit zunehmender Identifikation intensivieren. Obwohl CSR-Kommunikation, in der ein eigenwerbender Ton gewählt wird, ein negatives Verhältnis zum Verbrauchervertrauen und zur Unternehmensreputation hat, sind solche negativen Auswirkungen bei Verbrauchern mit sehr hoher Identifikation mit einem Unternehmen nicht offensichtlich. Tatsächlich verbessert eine solche CSR-Kommunikation das CSR-Wissen der Verbraucher und wirkt sich wiederum positiv auf die Unternehmensreputation aus.;-;-;-;https://link.springer.com/article/10.1007/s10551-017-3433-6 9112170b8d3f582af33b648aac5e24bc;de;;;4.2.;;;Kartierung und Gestaltung von Kindheitsräumen Die Beiträge zu diesem Buch haben einige der vielfältigen Möglichkeiten untersucht, in denen Emotionen in Politiken und Praktiken für Kinder positioniert werden. Die Beitragenden bieten nuancierte Verständnisse von Emotionen, die theoretische, empirische und angewandte Einblicke in die Funktionsweise von Emotionen in verschiedenen Kontexten fördern. In diesem abschließenden Kapitel versuchen wir, einige der wichtigsten Themen herauszugreifen, die im gesamten Band vorkommen. Das Kapitel hat zwei Ziele. Erstens soll es weitere Überlegungen anregen – insbesondere konzeptionell, aber in einigen Fällen methodisch – über zukünftige Forschungsagenden rund um die Emotionen von Kindern in Politik und Praxis. Zweitens zielt es darauf ab, auf den am Ende jedes Kapitels aufgeführten „Implikationen für Politik und Praxis“ aufzubauen, sodass in dieser Schlussfolgerung für politische Entscheidungsträger und Praktiker, die mit Kindern arbeiten, einige allgemeinere Überlegungen angestellt werden können. Mit diesem Fokus befasst sich das Kapitel mit den Vorschlägen aus Kapitel 1, indem es reflektiert, wie Räume der Kindheit durch Politik und Praxis „geschaffen“ werden, und indem Ansätze diskutiert werden, einen Weg durch – zur Kartierung – von Räumen der Kindheit als Inspiration für Erwachsene zu finden . Angesichts der Tatsache, dass diese Ziele im gesamten Buch sehr stark miteinander verwoben sind – und dass einige Leser durchaus an beiden interessiert sein könnten – führen wir keine künstliche Trennung zwischen „theoretischen“ und ansonsten „nützlichen“ Diskussionen ein (Horton und Kraftl, 2005).;-;-;-;https://link.springer.com/chapter/10.1057/9781137415608_18 eb7d624d398a67092041a6774e633beb;de;;;4.2.;;;Frauen, Repräsentation und gute Regierung: Perspektiven auf Indien und Chile Gutes Regieren als Konzept wurzelt in den Vorstellungen, Diskursen und der Politik der weltweiten Hilfsorganisationen. Dies geschah in einer Zeit, die durch die bröckelnden Polaritäten des weltpolitischen Systems als Folge des Untergangs der Sowjetunion und der Regime Osteuropas gekennzeichnet war. Die Idee scheint jedoch noch zaghaft und manchmal sogar verworren. Demokratie scheint beispielsweise ein Schlüsselelement guter Regierungsführung zu sein, aber es ist noch unklar, ob sie eine Voraussetzung für gute Regierungsführung ist oder ob gute Regierungsführung eine Folge des demokratischen Pluralismus ist (Burnell, 1994). Eine Auseinandersetzung mit Demokratie ist unvollständig, ohne die Ebenen und Formen der Partizipation in der Politik sowie die Übersetzung partizipativer Bewegungen in Institutionen, Organisationen und Regierungspraktiken zu untersuchen. In diesem Zusammenhang sind Rechenschaftspflicht und Zustimmung wesentliche Elemente einer guten und damit legitimen Staatsführung (Fierlbeck, 1995).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-25229-9_11 f3255252c064fcf7232aa378760e9249;de;;;4.2.;;;Auf dem Weg zum digitalen immersiven und nahtlosen Sprachenlernen Moderne Technologien ermöglichen neue Formen des Lernens. Das technologiegestützte Sprachenlernen (TELL) hat dramatische Veränderungen bei der Erleichterung von selbstgesteuerten Lernmöglichkeiten, aber auch bei der Verbesserung der Lernerfahrung beim formellen Sprachenlernen im Klassenzimmer erfahren. In unserer Studie untersuchen wir das Potenzial neuer Technologien und wollen herausfinden, wie der Immersionsunterricht durch nahtlose Lernansätze unterstützt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22017-8_5 7da1f59a9cc24040ce012dbb769c28fd;de;;;4.2.;;;Die zeitgenössische Familie in Polen: Neue Trends und Phänomene Zu Beginn des 21. Jahrhunderts kann Polen noch im Kontext einer politischen und wirtschaftlichen Transformation betrachtet werden. Der Aufbau der Demokratie und die bewusste, kontinuierliche Umgestaltung der polnischen Wirtschaft in Richtung Marktwirtschaft üben einen erheblichen Einfluss auf eine Vielzahl von Themen aus, die das heutige Leben beeinflussen. Dieser Artikel untersucht, wie sich diese Veränderungen auf Frauen, Männer und Kinder als Mitglieder moderner Familien ausgewirkt haben. Der Artikel stellt die Transformation zu Marktwirtschaft und Demokratie in den Kontext der historischen wirtschaftlichen und sozialen Kräfte, die alle modernen Staaten beeinflusst haben, und schließt mit einer Diskussion der möglichen kurz- und langfristigen Auswirkungen des Beitritts Polens zur Europäischen Union.;-;-;-;https://link.springer.com/article/10.1007/s10834-005-3522-z 428c28267f1e869f8468b76a7b4ba93f;de;;;5.2.;;;Umweltsanierung von Oberflächen- und Grundwasser im Oberen Theißbecken Das internationale Projekt TIBREG (Region Theiß-Bodrog) sucht nach Lösungen für geoökologische Probleme im Einzugsgebiet des Flusses Theiß-Bodrog. Dieser Fluss liegt an der Grenze zwischen der Slowakei, Ungarn und der Ukraine. Seine Oberflächen- und Grundwasser sind durch Produkte der Industrie und Landwirtschaft stark verschmutzt. Kontaminationen werden durch die chemische Industrie, Wärmekraftwerke und durch den Einsatz von Kunstdünger und Pestiziden in der Landwirtschaft verursacht.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-2894-2_13 e2acd104923900925c38615285d6aced;de;;;4.2.;;;Konfliktbewältigung in gespaltenen Gesellschaften: Lehren aus Tadschikistan Dieser Artikel stellt einen neuen Ansatz zur Konfliktbewältigung in gespaltenen Gesellschaften vor und beschreibt, wie dieser in Tadschikistan umgesetzt wird. Dieser Ansatz umfasst zwei miteinander verbundene Strategien: (1) einen fünfstufigen inoffiziellen Dialogprozess, der darauf abzielt, die Dynamik der konfliktreichen Beziehungen zwischen den Parteien zu untersuchen und eine Abfolge interaktiver Schritte zur Veränderung der Beziehungen zu entwerfen, und (2) eine zivilgesellschaftliche Strategie mit dem Ziel beim Aufbau von Institutionen der Zivilgesellschaft, die die traditionellen Spaltungen in der Gesellschaft überschreiten.;-;-;-;https://link.springer.com/article/10.1007/BF02187208 7fae644828c7e00b5e6925df3022b8d7;de;;;4.2.;;;ePartizipation: Die Forschungslücken ePartizipation ist eine anspruchsvolle Forschungsdomäne, die eine Vielzahl wissenschaftlicher Disziplinen umfasst und in einem komplexen gesellschaftlichen und politischen Umfeld existiert. In diesem Papier identifizieren wir den Forschungsbedarf und die Barrieren im Bereich der ePartizipation und weisen so auf die zukünftige Forschungsrichtung hin. Wir tun dies, indem wir zunächst den Kontext für die ePartizipationsforschung festlegen. Anschließend betrachten wir die aktuelle Situation und analysieren die Herausforderungen der zukünftigen Forschung. Die zukünftige Forschungsrichtung wurde durch die Durchführung von Workshops und die Analyse veröffentlichter Arbeiten identifiziert. Die Ergebnisse sind sechs zentrale Forschungsherausforderungen: Breite des Forschungsfelds, Forschungsdesign, Technologiedesign, institutioneller Widerstand, Gerechtigkeit und Theorie. Diese sechs Herausforderungen werden im Detail zusammen mit der Forschungsrichtung beschrieben, um sie anzugehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03781-8_1 8b35eff91ef4fe8d38bfa9a57d9d2a71;de;;;4.2.;;;Der soziale Zehnte Der Mensch des 20. Jahrhunderts hat eine Welt voller technologischer Fortschritte und komplexer sozialer Organisationen geschaffen. Wir denken jedoch selten über diese Strukturen nach, außer um zu bemerken, wie sie uns scheinbar immer mehr von der Natur entfernt haben. Die Realität ist jedoch, dass wir nicht unabhängig sind. „Wir“ (als Individuen) haben den Einsatz von Technologie genossen, um unsere Anfälligkeit für viele Gefahren der Natur zu verringern. Zum Beispiel würden nur wenige von uns hungern, wenn ein früher Frost unser Tomatenbeet auslöschte. Wir würden den Lebensmittelhändler einfach für Lebensmittel bezahlen, die anderswo angebaut wurden, wo die Natur kooperativer gewesen war. Fast jeder in der Gesellschaft ist jedoch auf anderswo angebaute Lebensmittel angewiesen. Dies macht uns immer noch abhängig von der Natur, aber unsere Abhängigkeit besteht darin, dass die Natur ausreichende Ernten für alle bereitstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-1057-0_9 53b751b8b3fa2da8028b34cd0d6b80af;de;;;4.2.;;;Worauf es in Gesundheits(pflege)universen ankommt: Wahnvorstellungen, Verwässerungen und Wege zu einer universellen Gesundheitsgerechtigkeit Der vermeintliche globale Konsens zur Erreichung einer universellen Gesundheitsversorgung (UHC) verschleiert entscheidende Fragen hinsichtlich der Prinzipien und der Politik dessen, was „Universalität“ ausmacht und was im Kampf um Gesundheits(versorgungs-)Gerechtigkeit in Vergangenheit und Gegenwart zählt. Dieser Artikel konzentriert sich auf drei Dimensionen der Problematik: 1) Wir entschlüsseln die Rhetorik der UHC in Bezug auf jede ihrer drei Komponenten: Universalität, Gesundheit und Abdeckung, 2) unter besonderer Berücksichtigung Lateinamerikas greifen wir den neoliberalen Staatsstreich erneut auf. état gegen vergangene und gegenwärtige Kämpfe für Gesundheitsgerechtigkeit, und wir überlegen, wie die aktuelle neoliberale Phase des Kapitalismus versucht hat, diese Kämpfe zu stoppen, ihre Sprache zu übernehmen und ihre Vision zu verengen, und 3) wir überdenken die zeitgenössischen Herausforderungen/Dilemmas Gesundheitsgerechtigkeit, den falschen technokratischen Konsens um UHC zu überwinden und den zutiefst politischen Charakter dieses Kampfes neu zu durchdringen. Zusammenfassend lässt sich sagen, dass, wie beim Universum groß geschrieben, eine Reihe von Angelegenheiten von Bedeutung ist: gesellschaftspolitische Kontexte auf nationaler und internationaler Ebene, Agenda-Setting-Macht, der Kampf um die Sprache, reale politische Auswirkungen, konzeptionelle Narrative und der Kampf der Menschen um Gerechtigkeit.;-;-;-;https://link.springer.com/article/10.1186/s12992-019-0521-7 e010cc53a06e9f0360f3966e3fd3dd65;de;;;5.2.;;;Dialogspiele: Konventionen der menschlichen Interaktion Natürlicher Dialog verläuft nicht zufällig, er hat eine leicht erkennbare „episodische“ Struktur und Kohärenz, die einem gut entwickelten Satz von Konventionen entspricht. Dieser Beitrag repräsentiert diese Konventionen formal in Bezug auf die Sprechakttheorie und eine Handlungstheorie.;-;-;-;https://link.springer.com/article/10.1007/BF00128990 9c0a85986b4f797ba95eae1563109e71;de;;;4.2.;;;Zonen der narrativen Sicherheit: Förderung der psychosozialen Widerstandsfähigkeit junger Menschen In diesem Essay wird das Potenzial des narrativen Ausdrucks als Methode der Primärprävention zur Förderung der psychosozialen Resilienz junger Menschen diskutiert. Konzeptuelle Perspektiven aus der Resilienzforschung werden als Begründungen für „Zonen narrativer Sicherheit“ untersucht, definiert als Orte des Ausdrucks, des Zuhörens und der Reflexion in formellen und informellen Aktivitäten, die unterstützend und fürsorglich strukturiert sind. Die Rolle des Narrativs in integrativen Prozessen wird beleuchtet und anhand praktischer Strategien in Schulen und Gemeinden veranschaulicht, wie narrative Formate zur Kompetenzförderung Jugendlicher eingesetzt werden. Für die Gestaltung wirksamer Präventionsprogramme in verschiedenen Kontexten sind weitere Untersuchungen solcher Strategien erforderlich.;-;-;-;https://link.springer.com/article/10.1023/B%3AJOPP.0000048026.99223.3b f3ec53493f7fe045170fb401455eabb7;de;;;4.2.;;;Elternbeurteilung der sozialen und emotionalen Anpassung von Kindern mit hohem Risiko für Schizophrenie Neuere Modelle der Schizophrenieentwicklung gehen von einem kontinuierlichen ätiologischen Prozess aus, der in der Kindheit, vielleicht schon bei der Empfängnis, beginnt (Garmezy & Streitman, 1974). Eine weitere Annahme ist, dass frühe Anzeichen dieser Entwicklung vor dem Auftreten akuter Symptome zu beobachten sind. Diese Orientierung war die Grundlage umfangreicher Forschungsanstrengungen, die darauf abzielten, die kindlichen Wurzeln der Schizophrenie zu entdecken. Ein solches Forschungsprogramm, das seit einem Jahrzehnt läuft, hat die Entwicklung einer Gruppe von Kindern untersucht, von denen angenommen wird, dass sie ein hohes Risiko für Schizophrenie haben (Erlenmeyer-Kimling, 1975). Mit einem breiten Spektrum kognitiver, psychophysiologischer, psychologischer und verhaltensbezogener Maßnahmen wurde die Entwicklung der Hochrisikogruppe (Kinder mit einem oder zwei schizophrenen Eltern) mit der einer psychiatrischen Kontrollgruppe (Kinder mit einem oder zwei depressiven Eltern) verglichen ) und eine normale Kontrollgruppe (deren Eltern keine psychiatrische Vorgeschichte hatten). Die Kinder waren zu Beginn der Studie in der Grundschule und befinden sich nun in der Altersgruppe, in der Schizophrenie am häufigsten vorkommt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-9811-0_5 1402dde9e041a77011dce7516778fa67;de;;;4.2.;;;Frauen und wirtschaftliche Sicherheit im Ruhestand: Auswirkungen auf die Reform der sozialen Sicherheit Social Geschlechtsbezogene Elternrollen senken das Einkommen von Frauen während der Jahre im erwerbsfähigen Alter und in den Rentenjahren. Nationale Renteneinkommensprogramme tragen zu diesem geschlechtsspezifischen Unterschied im Renteneinkommen in dem Maße bei, in dem sie das Lebenseinkommen bei der Berechnung der Leistungen berücksichtigen. In diesem Artikel werden zwei nationale Rentensysteme untersucht: die von Australien und Schweden. Die Rentensysteme dieser beiden Länder werden oft als die Extreme der Rentengroßzügigkeit angesehen und basieren auf unterschiedlichen Philosophien über die Rolle des Staates bei der Absicherung wirtschaftlicher Risiken. Aufgrund von steuerlichen Problemen und der sich ändernden Rolle der Frauen auf dem Arbeitsmarkt haben beide ihre Systeme reformiert. Es wird diskutiert, wie Systemreformen die Rolle des Staates bei der Absicherung von Einkommensrisiken und die zunehmende finanzielle Unabhängigkeit von Frauen in der Erwerbsbevölkerung ausgleichen können.;-;-;-;https://link.springer.com/article/10.1023/A%3A1009427530441 24259587ab16758e8057f045322781f8;de;;;4.2.;;;Der Einfluss von Twitter-Posts auf die Glaubwürdigkeit von Kandidaten: Die Michigan Midterms 2014 Die Zahl der Menschen, die aktiv an sozialen Online-Netzwerken teilnehmen, steigt ständig. Laut einer Umfrage des Pew Research Center (Smith, 2014) folgen 16 Prozent der registrierten Wähler politischen Kandidaten, Parteien oder Funktionären auf sozialen Netzwerkseiten wie Facebook und Twitter, dies ist seit 2010 von 6 Prozent gestiegen. Einundvierzig Prozent berichteten sie folgen politischen Persönlichkeiten in sozialen Medien, um sich vor anderen über politische Neuigkeiten zu informieren (Smith, 2014). Twitter, eine Microblogging-Site, die es Benutzern ermöglicht, 140 Zeichen oder weniger zu posten, wird sowohl in der Öffentlichkeit als auch bei aktuellen Amtsinhabern und politischen Kandidaten immer beliebter. Bei den Vorwahlen der Republikaner 2012 waren beispielsweise alle Kandidaten, die sich um ein Amt bewerben, auf Twitter präsent. Die Twitter-Nutzung ist jedoch nicht auf den oberen Rand des Tickets beschränkt. Twitter wurde auch häufig von Kandidaten verwendet, die 2010 um den US-Senat, das US-Repräsentantenhaus und den Gouverneur antraten (z. B. Hanna, Sayre, Bode, Yang & Shah, 2011, Parmelee & Bichard, 2012). Tatsächlich ist Twitter zu einem wichtigen Kommunikationsinstrument für Kampagnen, Politiker, politische Parteien, Demonstranten und Wähler geworden (Price, 2012, Vergeer, Hermans & Sams, 2013).;-;-;-;https://link.springer.com/chapter/10.1057/9781137488015_9 8b8d89add677f44a585a932721ee8208;de;;;4.2.;;;Datenschutzerhaltende Veröffentlichung in sozialen Netzwerken basierend auf Positionsunsichtbarkeit In diesem Papier befassen wir uns mit dem Thema Datenschutz im Zusammenhang mit der Veröffentlichung von Daten aus sozialen Netzwerken. Die Personen in veröffentlichten sozialen Netzwerken sind typischerweise anonym, jedoch kann ein Gegner die freigegebenen anonymen sozialen Netzwerkdaten mit öffentlich zugänglichen nicht sensiblen Informationen kombinieren, um die Personen in einem sozialen Netzwerk erneut zu identifizieren. In diesem Papier betrachten wir den Fall, dass ein Gegner solche öffentlich zugänglichen Datenbanken mit Beschreibungslogik(DL)-Konzepten abfragen kann. Um das Datenschutzproblem anzugehen, verwenden wir Techniken zur Analyse der sozialen Position, um die Ununterscheidbarkeit von Personen in einem sozialen Netzwerk zu bestimmen. Die soziale Positionsanalyse versucht, Personen zu finden, die die gleiche Position in einem sozialen Netzwerk basierend auf dem Muster ihrer Beziehungen zu anderen Akteuren einnehmen. Kürzlich wurde gezeigt, dass soziale Positionen durch Modallogiken charakterisiert werden können, so dass Personen, die dieselbe soziale Position einnehmen, dieselben Modalformeln erfüllen. Da DL eine enge Übereinstimmung mit der Modallogik aufweist, können Individuen, die dieselbe soziale Position einnehmen, nicht durch das in DL-Formalismen ausgedrückte Wissen unterschieden werden. Indem wir eine Gruppe von Personen auf diese Weise in nicht unterscheidbare Klassen unterteilen, können wir die Sicherheit der Veröffentlichung der Daten des sozialen Netzwerks leicht testen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40381-1_24 e774462278864abf8a80f9880821f1ae;de;;;5.2.;;;Eine Studie zur Agentenmodellierung des Evakuierungsverhaltens von Touristen bei einem Erdbeben: Eine Fallstudie einer Evakuierungssimulation der Burg Himeji Es ist ein dringendes Anliegen, die Sicherheit der Touristen bei einem Erdbeben zu gewährleisten. Wie verhalten sich Touristen unter der Katastrophe? Diese Studie konzentriert sich auf das Evakuierungsverhalten von Touristen, die nicht genügend Kenntnisse über Evakuierungsorte und -routen haben. Diese Studie zeigt eine Agentenmodellierungstechnik unter Verwendung einer Stichprobenerhebung des webbasierten Fragebogens unter Berücksichtigung des Informationsverhaltens und der Erdbebenerfahrungen und ein Touristenevakuierungsagentenmodell unter Verwendung dieser Technik. Wir analysieren das Evakuierungsverhalten der Touristen anhand von Stichproben von 1086 Befragten, die die Inlandsreise im Alter von 20 bis 69 Jahren durch die Web-Umfrage im November 2016 gemacht haben. Die Ergebnisse wurden in vier Orientierungskategorien zusammengefasst: Verkehrsinformationen, Sicherheitsbestätigung, persönliche Sicherheit, und ausgeglichen. Als als nächstes zwei Gruppen, eine Gruppe mit und eine ohne Erfahrung mit einem großen Erdbeben, mit vier Gruppen verglichen wurden, wurde ein signifikanter Unterschied in jedem Alter und Geschlecht jeder Gruppe festgestellt. Darüber hinaus verwendet diese Studie eine Entscheidungsbaumanalyse, um Evakuierungsverhaltensregeln zu modellieren, die Informationsverhalten beinhalten, und zeigt eine Touristen-Evakuierungssimulation unter Verwendung der Evakuierungsverhaltensregeln der Touristen. Die Ergebnisse bestätigen eine Agentenmodellierungstechnik, die eine Stichprobenerhebung und eine Entscheidungsbaumanalyse verwendet, und ein Agentenmodell für das Evakuierungsverhalten von Touristen, das Informationsverhalten durch die Agentenmodellierungstechnik enthält, wird ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1849-8_14 6595d296dbad49302c18bc17cfcef891;de;;;4.2.;;;Soziale Bewegungen, der Staat und externe Kräfte im modernen Iran In den folgenden Kapiteln analysiere ich den Aufstieg moderner landesweiter Bewegungen im Iran und in Ägypten ab dem späten 19. Jahrhundert. Aus einer sozialhistorischen Perspektive untersuche ich die gesellschaftlichen Kräfte, die an Bewegungen teilnahmen, ihre sich verändernde Politik und die von ihnen verwendeten Protestformen. Ich argumentiere, dass Frauen, Arbeitervereine, islamische Gruppen und Organisationen, nationale Minderheiten, Studenten und Intellektuelle in dieser Zeit Protestrepertoires und Formen des politischen Diskurses entwickelt und eingesetzt haben, die bis heute nachwirken. Dieses Kapitel wird eine Analyse der Rolle von Bewegungen, des Staates und externer Kräfte im modernen Iran präsentieren, wobei der Schwerpunkt auf der Zeit zwischen dem späten 19. Jahrhundert und dem Ende der 1980er Jahre liegt. Obwohl chronologisch, wird es keinen Überblick über die iranische Geschichte geben. Stattdessen konzentriert sich meine Analyse auf spezifische historische Wendepunkte und Wendepunkte, in denen nationale Bewegungen mit dem Staat und externen Kräften interagierten. Zu diesen Wendepunkten zählen der Tabakprotest von 1890, die konstitutionelle Revolution (1906–1911), die Öl-Nationalisierungsbewegung von 1951, die säkulare Linke, religiöse und nationalistische Bewegungen der 1960er und 1970er Jahre, die Revolution von 1979 und die Gründung der Reform Bewegung Ende der 1980er Jahre.;-;-;-;https://link.springer.com/chapter/10.1057/9781137379009_3 cad78aa506f4488e03320a45d5a0fb85;de;;;4.2.;;;Untersuchung der Selbst- und Sozialregulation von Englischlernern während wiki-unterstützter kollaborativer Leseaktivitäten Die Regulierung der Studierenden wurde als wichtiger Impuls für effektives und effizientes kollaboratives Lernen konzeptualisiert. Über das Regulierungsverhalten von Sprachlernern beim computergestützten kollaborativen Lernen (CSCL) liegen jedoch nur wenige empirische Belege vor. Ziel dieser Studie ist es, das Auftreten von Selbst- und Sozialaspekten der Regulation bei Wiki-gestützten kollaborativen Leseaktivitäten im Kontext des Erlernens von Englisch als Fremdsprache (EFL) zu untersuchen. Sechzig chinesische College-Studenten, die in zwölf Gruppen organisiert waren, nahmen über ein sechzehnwöchiges Semester an dieser Studie teil. Unter Verwendung einer integrierten Methode der Inhaltsanalyse und sequentiellen Analyse wurden die Chatprotokolle der Schüler kodiert und analysiert, um die Merkmale des selbst- und sozialregulierenden Verhaltens der Schüler in Bezug auf Regulierungstyp, Regulierungsprozess und Regulierungsfokus zu untersuchen. Die Ergebnisse zeigen, dass alle Gruppen eine aktive soziale Regulierung in den kollaborativen Aktivitäten zeigten. Im Vergleich zu leistungsschwachen Gruppen zeigten leistungsschwache Gruppen deutlich unterschiedliche Verhaltensmuster in den Bereichen „soziale Regulierung“, „Evaluierung“, „Inhaltsüberwachung“ und „soziale emotionale Regulierung“. Darüber hinaus zeigt die Analyse eine kontinuierlichere und reibungslosere Regulierung in den leistungsstärkeren Gruppen, während leistungsschwache Gruppen tendenziell in einem einzigen wiederholten regulatorischen Verhaltensmuster wie „Selbstregulierung“ oder „Organisieren“ verloren gehen. Diese Studie schließt nicht nur eine Lücke in der aktuellen Literatur zum kollaborativen Englischlernen, sondern trägt auch zu unserem Wissen über die soziale Regulierung bei CSCL bei. Auch pädagogische Implikationen und zukünftige Forschung werden angesprochen.;-;-;-;https://link.springer.com/article/10.1007/s11412-018-9269-y aee5b53daa0ab802fd49ee7786c0865b;de;;;4.2.;;;Aktivitätsbasierte Analyse Die aktivitätsbasierte Analyse (ABA) ist ein Ansatz zum Verständnis von Transport-, Kommunikations-, Stadt- und verwandten sozialen und physischen Systemen auf der Grundlage individueller Handlungen in Raum und Zeit. Obwohl die konzeptionellen Grundlagen, Theorie und Methodik eine lange Tradition haben, dominierte bis vor kurzem ein aggregierter reisebasierter Ansatz die Verkehrswissenschaft und -planung. Veränderungen im geschäftlichen und politischen Umfeld für den Verkehr und die zunehmende Verfügbarkeit disaggregierter Mobilitätsdaten haben dazu geführt, dass sich ABA als der vorherrschende Ansatz herauskristallisiert hat. Dieses Kapitel gibt einen Überblick über die konzeptionellen Grundlagen und Methoden der ABA. ABA-Techniken umfassen datengesteuerte Methoden, die Mobilitätsdaten direkt analysieren sowie Eingaben für die ABA-Modellierung entwickeln. ABA-Modelle umfassen ökonometrische Modelle, regelbasierte Modelle und Mikrosimulations-/agentenbasierte Modelle. Dieses Kapitel schließt mit der Identifizierung der wichtigsten Forschungsfelder im Bereich ABA.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-662-60723-7_106 b559beb0a59d4504169742b7547a1364;de;;;4.2.;;;#FewThingsAboutIdioms: Idiome und ihre Benutzer im sozialen Online-Netzwerk von Twitter verstehen Um Benutzern dabei zu helfen, beliebte Diskussionsthemen zu finden, veröffentlicht Twitter regelmäßig „Trendthemen“ (Trends), die zu einem bestimmten Zeitpunkt die am häufigsten diskutierten Schlüsselwörter (z. B. Hashtags) sind. Die Betrachtung der Trends über mehrere Monate zeigt, dass sich die meisten Trends zwar auf Ereignisse in der Offline-Welt beziehen, wie etwa populäre Fernsehsendungen, Sportveranstaltungen oder neue Technologien, aber ein erheblicher Teil davon ist;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-18038-0_9 f741a4c8685976cc6cec95f312163779;de;;;4.2.;;;Google geteilt. Eine Fallstudie zur sozialen Suche Die Websuche ist die vorherrschende Form des Informationszugriffs und täglich werden Millionen von Suchen von Mainstream-Suchmaschinen abgewickelt, aber die Benutzer haben immer noch Schwierigkeiten, das zu finden, wonach sie suchen, und es gibt viel Raum für Verbesserungen. In diesem Artikel beschreiben wir einen neuartigen und praktischen Ansatz für die Websuche, der Ideen aus der Personalisierung und sozialen Netzwerken kombiniert, um eine kollaborativere Sucherfahrung zu ermöglichen. Wir haben beschrieben, wie dies erreicht wurde, indem Mainstream-Suchmaschinen ergänzt und nicht mit ihnen konkurriert wurden, was ein beträchtliches Geschäftspotenzial auf einem von Google dominierten Suchmarktplatz bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02247-0_27 6c76ad26d79df2e60a12cabe07191343;de;;;4.2.;;;Bildung verantwortungsbewusster angehender Innovatoren: Praktische Beteiligung an der Biotechnologie Wie kann man verantwortungsvolle Innovatoren ausbilden? Welche Fähigkeiten und Sensibilitäten wollen wir bei unseren Studierenden, den verantwortungsvollen Innovatoren der Zukunft, schärfen, damit sie auf die Bedürfnisse einer komplexen und immer wieder konfliktreichen Gesellschaft eingehen können? Und wie tun wir dies auf ansprechende und effektive Weise? Dieses Papier befürwortet einen geisteswissenschaftlich fundierten Ansatz für eine verantwortungsvolle Innovationserziehung und trägt zu einer pädagogischen Haltung bei, die Erfahrungslernen und praktische Beteiligung betont. Angesichts der Domäne der Biotechnologie, einer boomenden Branche, die von rasanten technologischen Entwicklungen und anstehenden moralischen Herausforderungen geprägt ist, untersuchen wir DIY-Biologie und zeitgenössische Kunst als Mittel für eine verkörperte Auseinandersetzung mit den ethischen und gesellschaftlichen Anliegen der Biotechnologie. Das Papier dokumentiert Bildungsaktivitäten und Beobachtungen aus einem spezifischen Bildungsmodul, nämlich dem Kurs „Ethik, Kultur und Biotechnologie“, der von den Autoren im Rahmen des Hochschulprogramms Responsible Innovation organisiert und unterrichtet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-02242-6_7 00c3a3e7f442b1dd762a0ff4c87b784f;de;;;4.2.;;;Die Parteipolitik neuer sozialer Risiken in fortgeschrittenen postindustriellen Demokratien: Sozialer Schutz für Arbeitsmarktaußenseiter Die fortgeschrittene Postindustrialisierung stellt das europäische Sozialmodell vor zahlreiche Herausforderungen. Im Mittelpunkt dieser Herausforderungen stehen sinkende Einkommen, instabile Beschäftigung und unzureichende Ausbildung von angelernten und ungelernten Arbeitskräften. In diesem Kapitel bewerte ich die parteiische Grundlage der Unterstützung von Sozialpolitiken, die auf die Bedürfnisse dieser ausgegrenzten Arbeitnehmer eingehen. Ich betrachte insbesondere die Auswirkungen postindustrieller Spaltungen zwischen Kerngruppen sozialdemokratischer Parteien auf die Fähigkeit dieser Parteien, eine inklusive Sozialpolitik zu verfolgen. Ich argumentiere – und finde Unterstützung in empirischen Analysen –, dass eine umfassende Arbeitsorganisation der wichtigste Faktor ist, um die Fähigkeit linker Parteien zu stärken, erfolgreiche Koalitionen zur Unterstützung einer außenfreundlichen Politik aufzubauen. Ich gehe über bestehende Arbeiten zu diesem Thema hinaus, indem ich das gesamte Spektrum der postindustriellen Spaltungen, denen linke Parteien gegenüberstehen, betrachte, indem ich ausführlicher darlege, warum eine umfassende Arbeitsorganisation von entscheidender Bedeutung ist, und indem ich ein umfassenderes Paket von Maßnahmen der Außenseiterpolitik betrachte als bestehende Arbeiten. Ich vergleiche meine Argumente und Erkenntnisse mit wichtigen neuen Arbeiten, die Koalitionsbildung und Parteipolitik betonen, aber die Rolle der Klassenorganisation minimieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-27043-8_9 e098bfd979ec13180be8e836827df904;de;;;4.2.;;;Abhängigkeit: Alter und Behinderung In diesem Kapitel wird untersucht, wie aktuelle gesellschaftliche Debatten über Alter und Behinderung mit Gesundheit in Verbindung stehen und welche Fragen sie für diejenigen aufwerfen, die in der Gesundheitsarbeit tätig sind. Insbesondere werden wir die sich ändernden Vorstellungen von Abhängigkeit untersuchen und feststellen, wie diese die Betreuung und Behandlung von Klientengruppen, wie Menschen mit psychischen Gesundheitsproblemen, Menschen mit körperlichen Behinderungen und mit Lernschwierigkeiten, beeinflusst haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-23472-1_9 737ec9f5079b26937fb681e8d8023778;de;;;4.2.;;;Risikowahrnehmung und Bürgerbeteiligungspolitik: Der Fall der Entsorgung radioaktiver Abfälle In diesem Beitrag werden die politischen Auswirkungen von Diskrepanzen zwischen wahrgenommenem und tatsächlichem Risiko am Fall der Entsorgung hochradioaktiver Abfälle untersucht. Eine Inhaltsanalyse öffentlicher Zeugenaussagen bei vom Energieministerium gesponserten Anhörungen liefert mehrere wichtige Erkenntnisse. Die Öffentlichkeit war relativ gut über die technischen Aspekte der Abfallentsorgung informiert, hatte wenig Vertrauen in die Kompetenz des Energieministeriums und zeigte vielfältige Bedenken hinsichtlich der Auswirkungen der hochradioaktiven Abfallentsorgung auf Umweltqualität, Wirtschaft, Gesundheit, Tourismus und Lebensqualität. Ein beträchtlicher Prozentsatz der Zeugen äußerte sich zum unfreiwilligen Charakter der damit verbundenen Risiken, zu potenziell katastrophalen Auswirkungen der Abfallentsorgung und zu technischen Unsicherheiten im Zusammenhang mit dem Standortbewertungsprozess. Zusammengenommen deuten diese Aussagen darauf hin, dass die öffentliche Risikowahrnehmung nicht so einfach ist, wie oft angenommen. Die bei diesen Anhörungen vertretene aufmerksame Öffentlichkeit zeigt eine beträchtliche Fähigkeit zur Beteiligung an der Gestaltung der Risikopolitik. Basierend auf diesen Erkenntnissen müssen wir kreativer über Mechanismen der Bürgerbeteiligung an risikopolitischen Entscheidungen nachdenken, die sowohl zur politischen Legitimation als auch zur Verbesserung der Qualität der Entscheidungsfindung beitragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-2370-7_11 3ccbe717d1d188772a5f732eeb049519;de;;;4.2.;;;Erkunden des sozialen Kontexts mit dem drahtlosen Seil Das Wireless Rope ist ein Rahmen, um den Begriff des sozialen Kontexts und die Erkennung sozialer Situationen durch Bluetooth-Näherungserkennung mit Verbrauchergeräten und deren Auswirkungen auf die Gruppendynamik zu untersuchen. Benutzer können über eine GUI mit Mitgliedern einer bestehenden Gruppe interagieren oder eine neue Gruppe bilden. Verbindungsinformationen werden von stationären Tracking-Geräten gesammelt und eine Verbindungskarte aller Teilnehmer kann über das Web abgerufen werden. Neben der Interaktion mit vertrauten Personen beinhaltet das Wireless Rope auch fremde Personen, um eine reichhaltige Darstellung der umgebenden sozialen Situation zu bieten. Dieses Papier versucht, den Begriff der;-;-;-;https://link.springer.com/chapter/10.1007/11915034_112 bf26feead70921ad0b3c772b6a9c512f;de;;;4.2.;;;Metro: Erkundung der Teilnahme an öffentlichen Veranstaltungen Die Struktur eines sozialen Netzwerks ist zeitabhängig, da sich die Beziehungen zwischen Entitäten im Laufe der Zeit ändern. In großen Netzwerken reichen statische oder animierte Visualisierungen oft nicht aus, um alle Informationen über die Interaktionen zwischen Menschen im Laufe der Zeit zu erfassen, die durch interaktive Schnittstellen besser erfasst werden könnten. Wir schlagen ein neuartiges System zur Untersuchung der Interaktionen von Entitäten im Zeitverlauf vor und unterstützen es mit einer Anwendung, die Interaktionen von Persönlichkeiten des öffentlichen Lebens bei Veranstaltungen anzeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03260-3_4 9cf5bf1647fb917e47e6f25e0feb94ab;de;;;4.2.;;;Einwanderung, Sicherheit und soziale Risikowahrnehmung In diesem Kapitel werden europäische und amerikanische Ansichten zur Einwanderung verglichen und diese Ansichten mit politischen Entscheidungen auf beiden Kontinenten verknüpft. Es wird gezeigt, dass die Einwanderung zwar eine scheinbar universelle Dynamik von Risiko und Unsicherheit auslöst, die Regierungsinstitutionen in der EU und den Vereinigten Staaten diese Dynamik jedoch unterschiedlich abschwächen, indem sie sehr unterschiedliche politische Ergebnisse erzielen. Nach einer kurzen Einführung analysiert das Kapitel, warum Einwanderung ein Risiko für die Öffentlichkeit darstellt, und wägt den relativen Einfluss instrumenteller („rationaler“) und affektiver („emotionaler“) Faktoren ab, um die öffentliche Unsicherheit gegenüber Außenstehenden zu schüren. Da beide Arten von Faktoren die öffentliche Meinung zum „anderen“ zu treiben scheinen, stimmen wir mit Kaufman (2001) darin überein, dass eine synthetische Theorie von Ethnizität und Risiko erforderlich ist. Nachdem wir diese Theorie dargelegt haben, analysieren wir dann die Verbindung zwischen der öffentlichen Meinung und der Risikoregulierung durch Beamte und zeigen, wie die jeweiligen Institutionen des Föderalismus sowohl in den Vereinigten Staaten als auch in der EU politische Reaktionen auf Migrationsdruck und Fremdenfeindlichkeit gestalten, oft auf eine Weise, die das Konventionelle in Frage stellt Weisheit.;-;-;-;https://link.springer.com/chapter/10.1057/9780230109476_4 bba5760f3fc3122c5914719f6ad68c03;de;;;4.2.;;;Die Forschung auf dem Weg zur Kultivierung der kulturellen Identität von Studenten in Hongkong und Macau: gemäß der Analyse der Einzelfallumfrage der Jinan University In diesem Beitrag wird der Weg zur Kultivierung der kulturellen Identität der Studenten diskutiert, die aus Hongkong und Macau kommen. Als die moderne Gesellschaft, die die kulturelle Globalisierung und Diversifizierung unterstützt, scheint die kulturelle Identität ein symbolischer Wert zu sein, der die Kraft hat, Menschen zu vereinen. Und auf der realistischen Ebene wird es zu einer Grundlage, um den Anteil der Zivilisation, den Wertkonsens und den gemeinsamen Aufbau des Geistes zu fördern. China ist ein uraltes zivilisiertes Land und die Kultur weist eine äußerst komplexe und schichtweise auf beiden Seiten der diachronen und synchronen Kultur auf, was die Tiefenanforderung der kulturellen Identität erhöht. Durch die multithematische und groß angelegte Fallstudie innerhalb der Studenten aus Hongkong und Macau haben wir einige Schlüsselfaktoren der kulturellen Identität in einer solchen Gruppe zusammengefasst. Basierend auf der Forschung haben wir einige fokussierte Methoden zur Kultivierung kultureller Identität entwickelt, die mehrere nützliche, idiographische Vorschläge für pädagogische Gegenmaßnahmen auf der Makroebene der kulturellen Identität liefern können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27948-5_87 de443580b7673533f4dd7b83d011b457;de;;;4.2.;;;Digitalisierung und Evolution des bürgerschaftlichen Engagements: Neue Wege der Partizipation in der Politik Der gegenwärtige Entwicklungsstand der russischen Zivilgesellschaft zeichnet sich durch neue Ausdrucksformen und Verwirklichung der gesellschaftlichen Interessen aus. Die Begriffe der bürgerlichen Aktivität in Russland werden in erster Linie mit der verstärkten Aktivität von NGOs, dem Wachstum sozialer Bewegungen und vernetzter Bürgerbewegungen und der Entwicklung von Internettechnologien in Verbindung gebracht. Die vernetzte Bewegung nutzt die Prinzipien der Gleichheit, der Interaktion mit Ressourcen, der freiwilligen Teilnahme, der Entwicklung in der Geographie ihrer Aktivitäten und der Anzahl der teilnehmenden Bürger. Das Internet bietet neue Formen des bürgerschaftlichen Engagements. Bürgerschaftliches Engagement wird im Internet über Webportale und Websites, Bürgeranwendungen und soziale Netzwerke, Crowdsourcing und Crowdfunding-Plattformen sichtbar. Soziale Netzwerke und Online-Anwendungen bieten bedeutende Möglichkeiten für Kommunikation, Übermittlung von Informationen, Ressourcen, Forschung und werden zu einem wirklich effektiven Werkzeug für horizontale Beziehungen und Verbindungen in der Gemeinschaft. Mit Hilfe von Netzwerken werden Großproteste und zivilgesellschaftliche Unternehmen gegründet. Internet-Ressourcen ermöglichen die operative Verbreitung von Informationen über Aktivitäten und Ereignisse und helfen, Mitglieder der zivilen Aktivität effektiv zu mobilisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49700-6_25 1faba554955afa7854cdbd4728a557b5;de;;;4.2.;;;Frauenrecht auf Autofahren: Spillover von Maklern, Mobilisierung und Cyberaktivismusactiv Das Aufkommen moderner Formen der Informations- und Kommunikationstechnologien (IKT) wie Social Media hat die Art und Weise verändert, wie Menschen kommunizieren, sich verbinden und Informationen verbreiten. Soziale Medien haben eine beispiellose Rolle bei der Koordinierung und Mobilisierung sozialer Bewegungen gespielt. Darüber hinaus wurden während des Arabischen Frühlings 2011, der laufenden saudischen Frauenbewegungen gegen ungerechte Geschlechtergesetze und anderer sozialer Bewegungen gegenseitige Einflüsse zwischen sozialen Bewegungen beobachtet. Darüber hinaus war dies ein Forschungsthema in der Spillover-Literatur sozialer Bewegungen, wo Ressourcenteilung, Spillover von Aktivisten, Unterstützern und Koalitionen innerhalb sozialer Bewegungen im Mittelpunkt dieser Studien standen. Viele der in diesem Bereich veröffentlichten Arbeiten stammen jedoch aus den 1960er Jahren. Es ist von entscheidender Bedeutung, traditionelle Spillover-Theorien in der modernen IKT-Landschaft neu zu bewerten. Die Entwicklung internetgetriebener kollektiver Aktionen hat die Untersuchung und Entdeckung einiger wesentlicher Faktoren von Spillover ausgelöst, die theoretisch noch unterentwickelt sind, und erfordert innovative Grundlagenforschung, die Beobachtungen bei der Neukonzeption von Spillover-Effekten in Online-Umgebungen liefern kann. In dieser Studie untersuchen wir im Jahr 2013 drei Kampagnen zum laufenden Recht der Frauen auf Autofahren, nämlich die „Fahrkampagne am 26. Oktober“, die „Fahrkampagne am 31. November“ und die „Fahrkampagne am 28. Dezember“. Durch die Analyse der Twitter-Daten in den Netzwerken der drei Kampagnen identifizieren wir die Faktoren, die uns helfen, Spillover zwischen den Kampagnen zu untersuchen. Unser Ziel ist es, die Spillover-Effekte sozialer Bewegungen zu bewerten, indem wir – (1) gemeinsame Aktivisten und Unterstützer, (2) die Makler/Koalitionen zwischen den Kampagnen und (3) die Verbreitung von Hashtags und anderen Ressourcen identifizieren. Wir möchten, dass die Ergebnisse dieser Studie Erkenntnisse über die Informationsverbreitung und die gegenseitige Beeinflussung über Bewegungen hinweg liefern und ein tieferes Verständnis miteinander verbundener sozialer Bewegungen ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16268-3_24 2d826f7e76d8d4055934a98b5840ec52;de;;;5.2.;;;Rumänien: Auslegung und Auswirkungen fakultativer Gerichtsstandsvereinbarungen in internationalen Streitigkeiten Dieses Kapitel gibt einen Überblick über einige wesentliche Fragen der Zulässigkeit und der zwingenden und gerichtlichen Wirkungen von Vereinbarungen über nicht ausschließliche Zuständigkeiten in internationalen Streitigkeiten vor den rumänischen Gerichten. Es klärt die Regelung, die solche Vereinbarungen regelt, und betont die Schwierigkeiten, Unannehmlichkeiten und Unsicherheiten, die durch die geltenden geltenden Normen entstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-23914-5_13 c2c9603db7c8a392265efa7bc50bedf1;de;;;5.2.;;;Eine neu entdeckte GPD-GEV-Beziehung zusammen mit dem Vergleich ihrer Modelle zu extremen Niederschlägen im Sommer Es ist theoretisch bewiesen, dass bei einem hohen Schwellenwert ein ungefährer Ausdruck für ein Quantil der GEV-Verteilung (Generalized Extreme Values) aus der GPD (Generalized Pareto Distribution) abgeleitet werden kann. Anschließend wird ein Quantil von Extremniederschlagsereignissen in einer bestimmten Wiederkehrperiode mittels L-Moment-Schätzung und von GPD und GEV simulierten Extremniederschlagsereignissen gefunden und alle Aspekte ihrer Ergebnisse verglichen. Numerische Simulationen zeigen, dass die POT (Peaks Over Threshold)-basierte GPD in ihrer einfachen Bedienung vorteilhaft ist und praktisch keinem Einfluss der Stichprobengröße der primitiven Reihe unterliegt, wodurch im gesamten Wertebereich (einschließlich der hohen -Ende mit schwerem Schwanz). Im Vergleich dazu beschränkt sich die BM (Block Maximum)-basierte GEV teilweise auf die Wahrscheinlichkeits- und Quantilssimulation und zeigt damit, dass die GPD eine Erweiterung der GEV ist, die für die Klimaforschung im Vergleich zur Letztere.;-;-;-;https://link.springer.com/article/10.1007/s00376-008-0507-5 858784633fd56a11052816fc3c411bb2;de;;;4.2.;;;Data Jackets als kommunizierbare Metadaten für potenzielle Innovatoren – Auf dem Weg zur Öffnung für soziale Kontexte Data Jackets sind von Menschen erstellte Metadaten für jeden Datensatz, die die subjektiven oder potenziellen Interessen der Menschen widerspiegeln. Durch die Visualisierung der Relevanz unter DJs denken und sprechen Teilnehmer am Datenmarkt darüber nach, warum und wie sie die entsprechenden Datensätze kombinieren sollten. Auch wenn die Besitzer von Daten zögern, ihre Daten der Öffentlichkeit zu öffnen, können sie die DJs im Innovators Marketplace auf Data Jackets präsentieren, einer Plattform für Innovationen. Hier kommunizieren die Teilnehmer, um Ideen zur Kombination/Verwendung/Wiederverwendung von Daten oder zukünftigen Mitarbeitern zu finden. Darüber hinaus können explizit oder implizit benötigte Daten durch den Einsatz von auf DJs entwickelten Tools gesucht werden, die beispielsweise analoge Erfindungen von Datenanalysemethoden ermöglichten. Damit haben wir eine datenvermittelte Geburtsstätte von Saatgut in Wirtschaft und Wissenschaft realisiert. In diesem Papier zeigen wir eine neue Richtung auf, um DJs zu sammeln und zu nutzen, um sozialen Anforderungen gerecht zu werden, die externalisiert und in Living Labs gesammelt werden. Der Effekt von Living Labs besteht hier darin, die Sensibilität der Teilnehmer für die Kontexte in der offenen Gesellschaft gemäß den Praktiken des Autors zu erhöhen, und der Einsatz von DJs für diese Kontexte bedeutet, den Prozess der evidenzbasierten Innovation, dh den Loop of Living, zu entwickeln Interaktion von Menschen, um Leistungsdimensionen in Unternehmen zu schaffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-49342-4_1 1a3cd9855a3e24eb648068456487fe1d;de;;;4.2.;;;Fuzzy-Set-Entscheidungsunterstützung für eine belgische langfristige nachhaltige Energiestrategie Dieses Kapitel adressiert die methodischen Herausforderungen, auf innovative Weise relevante wissenschaftliche Erkenntnisse für eine nachhaltige Energiewende zu entwickeln. Wir argumentieren, dass wissenschaftliche Beiträge zu nachhaltiger Entwicklung nicht dem „linearen“ Verfahren von der empirischen Wissensproduktion bis zur Politikberatung folgen. Sie bestehen vielmehr aus problemorientierten Kombinationen von erklärendem, orientierendem und handlungsleitendem Wissen. Gesellschaft und Politik müssen nicht nur handlungsleitendes Wissen „versehen“ werden, sondern auch ein Bewusstsein dafür, wie dieses Wissen zu interpretieren ist und wo die unvermeidlichen Unsicherheiten liegen. Da die Nachhaltigkeitsfrage von Natur aus mehrdimensional ist, ist die Beteiligung gesellschaftlicher Gruppen ein wesentliches Element einer auf nachhaltige Entwicklung ausgerichteten Strategie. Die multikriterielle Entscheidungsunterstützung bietet eine Plattform, um einen Prozess der Beurteilung oder Lösung der Nachhaltigkeitsfrage basierend auf dem Input und dem Feedback mehrerer Personen zu ermöglichen. Gleichzeitig führen multikriterielle Probleme auf taktischer und strategischer Ebene in der Praxis oft zu Unschärfen in ihren Kriterien und Urteilen der Entscheidungsträger. Daher plädieren wir für die Verwendung von auf Fuzzy-Logik basierenden multikriteriellen Gruppenentscheidungshilfen als Entscheidungshilfeinstrument für langfristige strategische Entscheidungen im Kontext der belgischen Politik für nachhaltige Energie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78308-4_13 54513d2c1c08b891fdea86efe925e10e;de;;;4.2.;;;Die Auswirkung der Zentralität sozialer Netzwerke auf den Wissensaustausch Viele Unternehmen haben verschiedene Versuche zum Wissensmanagement unternommen, in der Hoffnung, dass Mitarbeiter ihr Wissen freiwillig mit anderen Mitgliedern teilen und Synergien erzielen. Aus dieser Sicht haben viele frühere Studien die Faktoren untersucht, die die Absicht des Einzelnen, Wissen zu teilen, beeinflussen. In dieser Studie haben wir versucht, die Faktoren zu entdecken, die die Rollen und Positionen von Individuen innerhalb des sozialen Netzwerks beeinflussen. Um die Rollen und Positionen zu identifizieren, haben wir drei Zentralitätsmaße (Grad/Nähe/Betweenness) verwendet, die mittels Social Network Analysis (SNA) berechnet werden können. Die Forschungsergebnisse zeigten, dass die Netzwerkrollen und -positionen von Einzelpersonen ihre Absichten zum Wissensaustausch innerhalb und außerhalb der Teams signifikant beeinflussen. Da die hohe Zentralität einem Mitglied die Position als Leader oder Hub verschafft, versucht man sich aktiv am Wissensaustausch innerhalb und außerhalb des Teams zu beteiligen, um die Netzwerkposition zu halten. Ein Mitglied, das schnell mit vielen anderen Mitgliedern innerhalb eines Teams interagieren kann (hohe Nähe-Zentralität), ist eher am Wissensaustausch innerhalb des Teams als am Wissensaustausch außerhalb des Teams interessiert. Da die Betweenness Centrality einem Mitglied verschiedene Ressourcen außerhalb des Teams bietet, spielt ein Mitglied mit einer hohen Betweenness Centrality eine entscheidende Rolle bei der Verbreitung und Regulierung von Wissen zwischen mehreren Teams. Die Mitglieder, die eine wichtige Rolle im Netzwerk spielen, möchten aktiver als andere Mitglieder an Aktivitäten zum Wissensaustausch teilnehmen, um die Vorteile, die sie im Netzwerk haben können, zu erhalten.;-;-;-;https://link.springer.com/article/10.1007/s12927-019-0009-2 44f796d3d68b1f38458267192bf5029c;de;;;4.2.;;;Engagement in medizinischen Online-Praxisgemeinschaften im Gesundheitswesen: Analyse von Nachrichten und sozialen Netzwerken Wir berichten über vorläufige Analysen zum Nutzerengagement in zwei medizinischen Online-Communitys of Practice. Obwohl die Gemeinschaften voneinander unabhängig sind und sich mit unterschiedlichen Bereichen (Feldepidemiologie und therapeutische Verordnungen für Augenoptiker) befassen, gibt es einige deutliche Ähnlichkeiten in den Netzwerken der Benutzer und in den Antwortmustern auf Benutzerpostings. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ? . . . . . . . . . . . . . . . . . . . Wir ziehen auch einige erste Schlussfolgerungen, um die Benutzerinteraktion auf diesen und ähnlichen Websites aufrechtzuerhalten, und schlagen einige zukünftige Forschungsrichtungen vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29262-0_22 0e936c16875cb85fa95128e40668b249;de;;;4.2.;;;Kritische Ethnographie im VMT-Projekt Der Ansatz des VMT-Projekts wurde in der Regel als designbasierte Forschung in den Lernwissenschaften beschrieben. Es kann jedoch auch als Ethnographie verstanden werden, die einen mikroethnographischen Stil der Interaktionsanalyse verwendet, um die Konstruktion sozialer Ordnung in der exotischen Kultur virtueller Mathematikteams zu untersuchen. Dieses Kapitel gibt einen Überblick über die Geschichte der Kritischen Ethnographie (CE), um die Ausrichtung und die Anliegen einer Strömung sozialwissenschaftlicher Theoriebildung zu beschreiben, die für die Arbeit des VMT-Forschungsteams besonders relevant zu sein scheint. CE übernahm die Ideen der kritischen Gesellschaftstheorie und Philosophie von Kant bis Habermas. Es ging durch zwei verschiedene Generationen des Denkens. Nach einem Rückblick auf diese Geschichte konzentriert sich das Kapitel auf drei Schlüsselphänomene, die für die CE-Analyse charakteristisch sind: Temporalisierung, Objektivierung und Intersubjektivität. Es legt dann nahe, dass diese Phänomene auch innerhalb der VMT-Analyse signifikant sind (z. B. Kapitel 6, Kapitel 7, Kapitel 8), wo sie eine detaillierte Analyse empirischer Daten erhalten. Das VMT-Projekt kann als produktive Erweiterung der CE-Arbeit in einem zeitgemäßen sozialen Umfeld gesehen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-0228-3_27 5706f1a1acffe5367e6513f706afc8e5;de;;;4.2.;;;Eine Studie zur Entwicklung der lokalen Kulturindustrie: Die Fallstudie von Community Colleges und Community Development Associations in Taiwan Die Studie ist eine explorative Studie zur Untersuchung der Wechselwirkungen zwischen den strategischen Allianzen von Community Colleges und Community Development Associations zur Entwicklung der lokalen Kulturindustrie. Ihre strategischen Allianzen werden durch Methoden wie Fuzzy-Set Qualitative Comparative Analysis (fs/qca) und Social Network Analysis etc. identifiziert. Gemäß der Ressourcenabhängigkeitstheorie wurde festgestellt, dass Community Colleges und Community Development Associations von dreigliedrigen Ressourcen beeinflusst werden wie die Stärkung der Gemeinschaft, lebenslanges Lernen und soziale Bürger in Bezug auf die Bedeutung von Ressourcen, und von diesen dreien macht lebenslanges Lernen die Mehrheit aus. Im Hinblick auf die Kontrolle des Ressourcenbesitzes können Community Colleges Community Development Associations administrative Unterstützung und Unterstützung bieten. In Bezug auf den Grad der Ressourcensubstitution werden Community Colleges und Community Development Associations von Faktoren wie Grundeinstellungen, Umweltveränderungen, Auftreten alternativer Institutionen usw. beeinflusst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45071-0_6 2cbe1c4fee17b7e505b692871cd85a21;de;;;5.2.;;;Ein Harmoniesuchalgorithmus für die Stundenplanung von Universitäten Eine der größten Herausforderungen für die Hochschulverwaltung besteht darin, einen Stundenplan für die Lehrveranstaltungen zu erstellen. Es geht nicht nur darum, einen funktionierenden, sondern einen möglichst guten Fahrplan zu erstellen. Im Allgemeinen handelt es sich bei der Kursplanung um die Zuweisung von Kursen zu bestimmten Räumen und Zeitfenstern unter bestimmten Bedingungen. Der Harmoniesuchalgorithmus ist ein neuer metaheuristischer bevölkerungsbasierter Algorithmus, der den musikalischen Improvisationsprozess nachahmt, bei dem eine Gruppe von Musikern die Tonhöhen ihrer Musikinstrumente zusammen spielt, um eine angenehme Harmonie zu erreichen. Die Hauptstoßrichtung dieses Algorithmus liegt in seiner Fähigkeit, die Schlüsselkomponenten von populationsbasierten Methoden und lokalen suchbasierten Methoden in ein einfaches Optimierungsmodell zu integrieren. In dieser Arbeit werden eine Harmoniesuche und ein modifizierter Harmoniesuchalgorithmus auf die Stundenplanung von Universitätslehrgängen gegen Standardbenchmarks angewendet. Die Ergebnisse zeigen, dass die vorgeschlagenen Methoden im Vergleich zu früheren Arbeiten tragfähige Lösungen bieten können.;-;-;-;https://link.springer.com/article/10.1007/s10479-010-0769-z 4b012b0090a11340a49b376fec508f32;de;;;4.2.;;;AIDS-Geschichten: Die Verwendung von Erzählungen als Ansatz zum Verstehen in einer AIDS-Selbsthilfegruppe Dieses Papier zeigt, wie die gemeinsame Erstellung und das Erzählen von Erzählungen Mitgliedern einer AIDS-Selbsthilfegruppe half, ihre einzigartigen und unterschiedlichen Leidenserfahrungen in gemeinsame Einsichten, intensive Verbindungen und Trost zu verwandeln. Beispiele für Erzählungen stammen aus der Erfahrung des Autors als Co-Leiter einer Selbsthilfegruppe für schwule Männer, die mit AIDS leben. Die aktuelle Literatur zur Gruppenarbeit mit AIDS-Kranken ist eingebettet in eine modernistische Orientierung, in der der Therapeut der Wissenschaftler/Experte ist, der Klient das Problem hat und der Therapeut dem Klienten hilft, indem er die Geschichte des Klienten nach einer ablösenden Theorie erforscht und interpretiert ( Gergen und Kaye, 1992). Dieser Ansatz betont die Notwendigkeit für Führungskräfte, Objektivität und emotionale Distanz zu wahren, um Burnout zu vermeiden (Gabriel, 1991, Grossman und Silverstein, 1993, Tunnell, 1991). Im Gegensatz dazu gibt es in einem postmodernen therapeutischen Ansatz keine Privilegierung der Erzählung des Therapeuten und die traditionelle hierarchische Beziehung wird durch eine gemeinsame Anstrengung ersetzt, während Therapeut und Klient gemeinsam Geschichten entwickeln, die Erfahrungen übersetzen und transzendieren. Anhand der AIDS-Arbeit als Illustration bietet dieser Beitrag einen postmodernen, narrativen Ansatz für die Gruppenarbeit und zeigt, wie AIDS-Kranke mit narrativen Mitteln über endliche Strukturen und die Grenzen des Lebens hinausgehen können.;-;-;-;https://link.springer.com/article/10.1007/BF02191752 46a2957fc17e7bce64d5e1ff93c754f8;de;;;4.2.;;;Nation, Migration, Identität: Der Fall der Puertoricaner Dieser Artikel untersucht die Auswirkungen transnationaler Migration auf die kulturelle Identität der Puertoricaner auf der Insel und auf dem US-amerikanischen Festland.1 Der Autor argumentiert, dass Puertoricaner, obwohl sie US-Bürger sind, bei ihrer Migration bedeutende geografische, kulturelle und sprachliche Grenzen überschreiten zwischen der Insel und dem Festland, und diese Verdrängung hilft, ihre nationalen Identitäten neu zu konfigurieren. Genauer gesagt schlägt der Autor vor, dass das Aufkommen des kulturellen Nationalismus als dominierender Diskurs in Puerto Rico teilweise das Ergebnis einer wachsenden Diaspora seit den 1940er Jahren ist. Die These des Autors ist, dass kultureller Nationalismus besser auf die weit verbreitete geografische Zerstreuung und den anhaltenden kolonialen Status von Puerto Rico abgestimmt ist als politischer Nationalismus. Dieser historische Trend hilft zu erklären, warum die meisten Puertoricaner heute keine politische Unabhängigkeit wünschen.;-;-;-;https://link.springer.com/article/10.1057/palgrave.lst.8600026 a1db96d3af838a59049921fb4fc9305a;de;;;5.2.;;;Gerichtete epistemische Netzwerkanalyse Quantitative Ethnographen in einer Reihe von Domänen untersuchen komplexes kollaboratives Denken (CCT): die Prozesse, durch die Mitglieder einer Gruppe oder eines Teams ein gemeinsames Verständnis entwickeln, indem sie kognitive Verbindungen aus den Aussagen und Handlungen der Gruppe herstellen. CCT ist schwer zu modellieren, da die Aktionen der Gruppenmitglieder voneinander abhängig sind – die Aktivität jedes Einzelnen wird durch die Aktionen anderer Mitglieder der Gruppe beeinflusst. Darüber hinaus müssen die Aktionen von Gruppenmitgliedern, die an einigen kollaborativen Aufgaben beteiligt sind, möglicherweise einem bestimmten;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-67788-6_9 d7cf4bd09f31fcd1fd30bf3076c98ed9;de;;;5.2.;;;Gesundheitsinformationskompetenz als Instrument zur Bewältigung des Verhaltens, des Wissens, der Fähigkeiten und des akademischen Werdegangs von Jugendlichen Gesundheitserziehungs- und Informationsprogramme, die im Rahmen von schulischen und außerschulischen Einrichtungen durchgeführt werden, können sich auf verschiedenen Ebenen positiv auf das Funktionieren von Jugendlichen auswirken. Dieses Kapitel gibt einen Überblick über die Forschung, die Gesundheitswissen mit Gesundheitsverhalten und -ergebnissen verbindet, und behauptet, dass die persönliche Gesundheit nur ein wünschenswertes Ergebnis der Gesundheitserziehung ist. Das Kapitel betrachtet Gesundheit in einem gemeinschaftlichen Kontext und wird weitgehend von sozialen und kulturellen Faktoren bestimmt und diskutiert die Auswirkungen einer wissenschaftlich fundierten, sozial orientierten Gesundheitserziehung auf Führung, informierte Bürgerschaft, gemeinschaftliche Interessenvertretung und Karriereinteressen. Es befasst sich auch mit der Rolle von Technologie und Gesundheitsinformatik bei der Bereitstellung einer wirksamen Gesundheitserziehung, indem hochwertige Inhalte sowie Werkzeuge für die kreativen Bemühungen von Jugendlichen bereitgestellt werden. Schließlich gibt das Kapitel einen Überblick über vier weitreichende Gesundheitsinformationsprojekte der National Library of Medicine (NLM), die sich an Jugendliche in überwiegend Minderheitengemeinschaften mit niedrigem Einkommen richten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-51732-2_6 a7171f4037277b41267eb833d4ee0549;de;;;4.2.;;;Entdecken Soziale Medien wachsen wesentlich schneller, wobei Millionen von Menschen auf der ganzen Welt Inhalte in einem Umfang generieren, teilen und verweisen, der vor ein paar Jahren scheinbar unmöglich war. Dies hat zu einer großen Beteiligung geführt, mit vielen Updates, Meinungen, Nachrichten, Blogs, Kommentaren und Produktbewertungen, die ständig auf sozialen Websites gepostet und aufgewühlt werden, wie z;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-1340-0_3 8ce8af9b738f9580ce5ccd97a057d1aa;de;;;5.2.;;;Menschliche Außergewöhnlichkeit: Wie wir uns in Bezug auf die Welt sehen Um die Rolle des Informationsbedarfs und der Informationssuche im menschlichen Leben besser zu untersuchen, nehmen wir in diesem Buch eine breite Perspektive auf Speziesebene ein. Wie und worüber denken Menschen in ihrer Beziehung zur Welt und ihrem Platz in der Welt? Dies untersucht den Informationsbedarf auf die grundlegendste Weise als Funktion des menschlichen Bewusstseins.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-92457-1_2 c806bec913391fd29c339868404190b3;de;;;5.2.;;;Nichtlineare zielgerichtete CPPI-Strategie Ein Anleger wird im Allgemeinen ein Ziel im Anlageprozess festlegen. Die traditionelle Portfolioversicherungsstrategie mit konstantem Anteil (CPPI) berücksichtigt nur die Untergrenze, aber nicht den Zielaspekt. Dieses Papier schlägt eine zielorientierte (GD) Strategie vor, um das zielgerichtete Handelsverhalten eines Anlegers auszudrücken und kombiniert es mit der Portfolioversicherungsperspektive, um eine stückweise lineare zielgerichtete CPPI (GDCPPI)-Strategie zu bilden. Diese stückweise lineare GDCPPI-Strategie zeigt, dass es eine Vermögensposition gibt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72821-4_12 4e0396d33c76f808dc475cbaa0940ce6;de;;;5.2.;;;Forschung zum Routing-Selektionsalgorithmus basierend auf genetischem Algorithmus Der erbliche Algorithmus ist eine Art zufällige Suche und Optimierungsmethode, die auf der natürlichen Selektion und dem erblichen Mechanismus von Lebewesen basiert. In den letzten Jahren wurde der hereditäre Algorithmus aufgrund der Möglichkeit zur Lösung komplizierter Probleme und der erfolgreichen Anwendung in den Bereichen industrieller Projekte von in- und ausländischen Wissenschaftlern weit verbreitet. Die Routing-Auswahl-Kommunikation wurde als Standard-Kommunikationsmodell der IP-Version 6 definiert. Dieses Papier schlägt ein Dienstmodell der Routing-Auswahl-Kommunikation vor und entwirft und implementiert einen neuen Routing-Auswahlalgorithmus basierend auf einem genetischen Algorithmus. Die experimentellen Simulationsergebnisse zeigen, dass dieser Algorithmus erreichen kann mehr Auflösung in kürzerer Zeit und ausgewogenere Netzwerklast, was das Suchverhältnis und die Verfügbarkeit von Netzwerkressourcen verbessert und die Dienstqualität verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18134-4_57 a3fe79a95e590604d0195919d9af3efc;de;;;5.2.;;;Entdeckung struktureller und zeitlicher Muster in MOOC-Diskussionsforen Ziel dieser Arbeit ist es, Methoden zu erforschen, um die Struktur des Wissensaustauschs in Diskussionsforen in Massive Open Online Courses (MOOCs) explizit unter Berücksichtigung sich ändernder Muster im Zeitverlauf zu untersuchen. Das Papier behandelt drei verschiedene Aspekte der Forumsanalyse, die unterschiedliche Methoden kombinieren. Zunächst wird ein Ansatz zur Extraktion dynamischer Kommunikationsnetze aus Forendaten basierend auf der Klassifizierung von Forenbeiträgen vorgestellt, der die Informationsaustauschbeziehungen zwischen Forennutzern berücksichtigt. Zweitens werden Maßnahmen eingeführt, die Nutzer nach ihrem Informationssuch- und Informationsangebotsverhalten charakterisieren und die Entwicklung einzelner Akteure analysiert. Drittens werden Blockmodellierungs- und Tensor-Dekompositionsansätze zur Reduktion eines dynamischen Netzwerks auf eine interpretierbare Makrostruktur evaluiert, die den Wissensaustausch zwischen Akteursclustern im Zeitverlauf widerspiegelt. Dies ermöglicht die Analyse der Kommunikationsstruktur im Zusammenhang mit dem Informationsaustausch zwischen den Teilnehmern großer Online-Kurse unter verschiedenen Aspekten. Die Nützlichkeit des Analytics-Frameworks wird anhand von zwei Fallstudien zu Forendiskussionen in zwei MOOCs demonstriert, die auf der Coursera-Plattform angeboten werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-51049-1_8 6fb7e9217adc3659820c7fee5a98f18d;de;;;4.2.;;;Nachhaltige Entwicklung – der formelle oder informelle Weg? Die umfangreiche Literatur zur nachhaltigen Entwicklung beruht auf einer fast unbestreitbaren Annahme, dass nämlich nachhaltige Entwicklung durch eine Vielzahl von Maßnahmen erreicht werden kann, die auf die;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0896-9_4 1547f420ee1ae407d47b90ca80f5f678;de;;;4.2.;;;Index der sozialen Desintegration und seine Anwendungen Dieser Artikel stellt die Berechnungsmethodik des sozialen Desintegrationsindex (SDIx) und eine Analyse seiner Anwendungen vor. Soziale Desintegration wird als mangelnde Integration interpretiert und der Social Disintegration Index als Wert berechnet, der den Durchschnitt verschiedener Indikatoren der sozialen Integration auf eins ergänzt. Dieser Index ermöglicht den Vergleich von Gruppen und Gesellschaften nach der Elastizität der Beziehungen zwischen ihren Mitgliedern und kann mit dem Social Network Index (SNI) oder dem Social, Cultural and Civic Integration Index (SCCII) verglichen werden. Eine weitere Anwendung von SDIx ist die Suizidanalyse. In diesem Fall kann der Social Disintegration Index verwendet werden, um die Suizidtheorie von Emile Durkheim zu validieren. Und schließlich kann SDIx auf die Konstruktion bestimmter Modelle menschlichen Verhaltens angewendet werden. In diesem Fall gehen wir davon aus, dass soziale Desintegration Verhaltensänderungen bedeutet, die ihrerseits durch die Veränderungen der Reize (typische Situationen) und Mentalitäten bestimmt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29862-3_1 81a012fa36753608021e18b4f2a9bc62;de;;;4.2.;;;Kostensenkung für Informationssicherheit durch soziale Mittel Da Datenschutzverletzungen in mittleren bis großen Unternehmen immer häufiger und öffentlicher werden, besteht die Notwendigkeit, sich weniger auf technologische Lösungen für das Informationssicherheitsmanagement und mehr auf soziologische Lösungen zu konzentrieren. In diesem Papier werden kostensparende Informationssicherheitsinitiativen identifiziert und ein Rahmen für organisatorische und Verhaltensänderungen im technischen Personal vorgeschlagen, um den Bedenken der Informationssicherheit besser Rechnung zu tragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-43276-8_1 a23f785c0527b6c62431087a47453cea;de;;;4.2.;;;Unterstützung partizipativer Bürgerschaftserkenntnisse von Die Beteiligung an Entscheidungen über stadtbezogene Interessen fördert die Transparenz des Regierens, ermöglicht Fortschritt, Demokratie und stärkt das Empowerment der Bürger als zentrale Elemente in einem politischen, wirtschaftlichen und kulturellen Kontext. Der Zweck dieses Papiers besteht darin, die Bedeutung digitaler Online-Plattformen zur Verbesserung der partizipativen Bürgerschaft im aktuellen sozialen, wirtschaftlichen und politischen Gefüge von Städten durch die Analyse einer Fallstudie hervorzuheben. Auf diese Weise konzentriert sich dieser Beitrag auf die Fallstudie der;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-61322-2_12 2bcde34adbf45971c91a6123034c7201;de;;;4.2.;;;Niederlande: Gewerkschaften und Renten Die zwei- und dreigliedrige (d. h. korporatistische) Verwaltung der sozialen Sicherheit ist in den Niederlanden wahrscheinlich mehr als in jedem anderen westeuropäischen Land institutionalisiert. Die Grundlagen dieses Ansatzes zur Verwaltung von Sozialprogrammen sind die konfessionelle Ausrichtung des niederländischen politischen Lebens und ein nationales Engagement für Solidarität. Darüber hinaus hat sich eine etablierte Tradition der Sozialdemokratie mit Konfessionalität und Solidarität kombiniert, um eine enge Verbindung zwischen sozialer Sicherheit und Arbeitsplatz zu festigen. Die Tendenz zum Arbeitsplatz zeigt sich insbesondere in der Verwaltung der staatlichen und betrieblichen Altersversorgungssysteme. Während die Regierung die Ziele und Standards der Renten festlegt, spielt der Staat eine begrenzte Rolle bei deren Verwaltung und noch weniger bei der Finanzierung. Um zu verstehen, warum, brauchen wir einen kurzen Überblick über die Politik und Wirtschaft der Niederlande.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-19155-0_6 c3c24d2bab943e9839945ca0b1d48fee;de;;;4.2.;;;Armut und Transferleistungen der sozialen Sicherheit — Ergebnisse für sieben Länder und Regionen in der EG Dieses Papier präsentiert vergleichende Ergebnisse zu Armut und sozialer Sicherheit in sieben Ländern und Regionen der Europäischen Gemeinschaft (EG). Die Länder und Regionen sind Belgien, Niederlande, Luxemburg, Lothringen (Region Frankreich), Irland, Katalonien (Region Spanien) und Griechenland. Wir vergleichen die Armutsrate in den einzelnen Ländern sowie die Verteilung der Armut auf die sozialen und wirtschaftlichen Bevölkerungsgruppen dieser Länder. Darüber hinaus wird der Einfluss von Sozialversicherungstransfers auf die Armut untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-50003-9_6 e69b2916169df1358a2ff72ac73e7bcb;de;;;4.2.;;;Technologievermitteltes Lernen: Status und Herausforderungen im Blick Technologie ist praktisch zu einem integralen Bestandteil aller Bereiche des Bildungsangebots geworden. Die Technologie bietet Schülern und Lehrern zwar neue Mittel und Wege des Lernens, stellt sie aber auch vor Herausforderungen. Dieser Beitrag versucht, anhand von Beispielen in drei Schlüsselbereichen einen Einblick in die Transformation des technologievermittelten Lernens zu geben: Lernräume, Lernmodi und Lernmaterialien. Es unterstreicht die allgegenwärtige Durchdringung der Technologie. Unter Hinweis auf die Herausforderungen, denen sich Pädagogen bei der Einführung der sich schnell ändernden Technologie gegenübersehen, schlägt sie ein Modell vor, um systematisch die Schwierigkeiten zu identifizieren, die jetzt und in Zukunft angegangen werden müssen. Das Modell berücksichtigt das allgemeine Umfeld, in dem die Bildungseinrichtung tätig ist, sowie die Bereitschaft der Einrichtung, des Lehrenden und des Lernenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-48978-9_1 988927d208b9b0fb6b729c114ba2bbe3;de;;;4.2.;;;Vergleichende Analyse von Anerkennung und Konkurrenz als Merkmale sozialen Einflusses mit Twitter In diesem Beitrag wird untersucht, wie und inwieweit die Gestaltungsprinzipien des sozialen Einflusses Menschen dazu bewegen können, sich an der Weitergabe ihres Feedbacks zu beteiligen. Aus diesem Grund wurde ein Twitter-basiertes System mit überzeugenden Softwarefunktionen mit sozialem Einfluss im Kern entwickelt. Die Wirkung von Erkennungs- und Wettbewerbsmerkmalen wurde in einer Pilotstudie in zwei Computerräumen gleichzeitig getestet. Ihre Auswirkungen auf das Verhalten simulierter Flugreisender wurden verglichen. Das Hauptergebnis dieser Studie belegt mehrere positive Effekte, insbesondere im Hinblick auf die Überzeugungskraft der Wiedererkennung im Design eines Systems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31037-9_26 eab71dc8f8c341f250fdbee10e851852;de;;;5.2.;;;Bildsegmentierungsmethode basierend auf dem Otsu ACO-Algorithmus Die Bildsegmentierung ist ein sehr wichtiger Forschungsinhalt in den Bereichen Computer Vision und Mustererkennung. Als Grundlage für das Bildverständnis und die Bildanalyse wird ihm stets hohe Aufmerksamkeit geschenkt. Gegenwärtig ist bei diesen üblicherweise verwendeten Segmentierungsverfahren der Kontrastverhältnis-, Rand- und Graustufenerkennung die Schwellenwertverarbeitung eine der effektivsten. Die Schwellenwertverfahren können auch in Otsu, minimale Fehlerschwelle, optimale Histogrammentropie und minimale Kreuzentropie usw. unterteilt werden. Durch die Kombination der Vorteile von ACO (Ant Colony Optimization) wurde in der vorliegenden Arbeit ein ACO-Segmentierungsalgorithmus zur Lösung von Varianzen der Extraklasse entwickelt Maximalwert, um den optimalen Schwellenwert zu bestimmen. Der Algorithmus kann schnell und stetig den optimalen Segmentierungsschwellenwert auf nichtlineare Weise finden, um das Ziel und seinen Hintergrund effektiv zu segmentieren und ein bestes Ergebnis bei der Bildsegmentierung zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19853-3_85 77fd000a10c1327839794c3d77264ca8;de;;;5.2.;;;Informationsbedarf und Kommunikationslücken zwischen Bürgern und Kommunalverwaltungen online bei Naturkatastrophen Eine wachsende Zahl von Bürgern und Kommunalverwaltungen nutzt Tweets, um bei Naturkatastrophen zu kommunizieren. Ein gutes Verständnis der Kommunikationsinhalte und Verhaltensweisen ist für die Katastrophenhilfe von entscheidender Bedeutung. Frühere Arbeiten haben Krisentaxonomien oder manuelle Kennzeichnungsmethoden verwendet, um den Inhalt zu verstehen. Solche Methoden erfordern jedoch in der Regel zusätzliche Anstrengungen, um Erkenntnisse zu bestimmten Ereignissen zu gewinnen. In diesem Papier verwenden wir ein halbautomatisches Framework, um spezifische Themen aus den Kommunikationsinhalten von Bürgern und Kommunalverwaltungen zu extrahieren, kombiniert mit den raumzeitlichen Informationen, um zu untersuchen: 1) die raumzeitlichen Themenexplosionen, 2) die Änderung von Themen in Bezug auf die Schwere der Katastrophe und 3) Kommunikationsverhalten. Wir verwenden Tweets, die während 18 Schneestürmen im US-Bundesstaat Maryland gesammelt wurden, als Fallbeispiel. Die Studie zeigt die Kommunikationsunterschiede aufgrund des Stadt-Land-Gefälles oder der Schwere der Schneestürme auf. Die Erkenntnisse deuten darauf hin, dass die Kommunalverwaltungen möglicherweise den Kontext der den Bürgern bereitgestellten Informationen so anpassen könnten, dass sie ihren Bedürfnissen entsprechen.;-;-;-;https://link.springer.com/article/10.1007/s10796-018-9832-0 d410e2907fcfb77a1cc308cf3e6328db;de;;;4.2.;;;Arbeitssicherheit und Gesundheitsschutz für die Entscheidungsfindung im Rahmen der Corporate Social Responsibility: Modelle, Leitlinien und Indikatoren Sicherheit und Gesundheitsschutz am Arbeitsplatz (OSH) ist ein Hauptanliegen in der Diskussion um die soziale Verantwortung von Unternehmen (CSR), da das Wohlergehen der Arbeitnehmer einer der Hauptaspekte für sozial verantwortliches Handeln ist. Bei der Suche nach Informationen zu Arbeitsschutzmanagementmodellen wird eine große Menge an Inhalten gewonnen, die jedoch nicht für ihre Analyse zusammengestellt oder synthetisiert wurden. Ziel dieser Studie ist es, die wichtigsten Modelle, Leitlinien und Indikatoren zu definieren, die es ermöglichen, einen konzeptionellen Rahmen für die Entscheidungsfindung zum Thema Arbeitsschutz als Komponente von CSR zu erstellen. Eine Literaturrecherchemethode wurde angewendet, um im Zeitraum 2009–2018 relevante Informationen zum Arbeitsschutz in der verarbeitenden Industrie auszuwählen. Diese Literaturübersicht ermöglichte die Analyse einer endgültigen Stichprobe von 96 Artikeln. Als Ergebnis identifiziert dieses Papier die am häufigsten angewandten Arbeitsschutzmodelle, ihre Vorteile und Herausforderungen sowie die wichtigsten Leitlinien und Indikatoren, die in ein Arbeitsschutz-basiertes Managementmodell aufgenommen werden müssen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-59194-6_14 373348e688bad1ee133faa13fc1c01f8;de;;;4.2.;;;Sympathie oder Strategie: Sozialkapitaltreiber für kollaborative Beiträge zur IS-Community Trotz des wachsenden Interesses an der Abgrenzung der sozialen Identität der Wirtschaftsinformatik (IS)-Forschung und der Netzwerkstrukturen ihrer wissenschaftlichen Gemeinschaft ist wenig darüber bekannt, wie das Netzwerk der IS-Community durch individuelle Vorstellungen geprägt ist und was IS-Forscher zu Forschungskooperationen motiviert. Unter Verwendung eines explorativen theoretischen Rahmens, der auf drei Dimensionen der Sozialkapitaltheorie basiert, haben wir 32 Jahre wissenschaftliche Co-Autorenschaft in einer internationalen IS-Forschergemeinschaft untersucht. Wir haben Vorschläge formuliert, um die vielschichtigen Beziehungen zwischen persönlichen Treibern und der daraus resultierenden komplexen Netzwerkorganisation der IS-Community empirisch zu untersuchen. Unsere Vorschläge werden mit qualitativen Interviews verfeinert und mit einer Umfrage überprüft. Dieser Prozess offenbarte eine kollaborative Forschungskultur mit mehreren individuellen Dispositionen, darunter ein strategischer struktureller Fokus, ein kognitiver Fokus und ein relationaler Fokus. Diese gibt es bei Akteuren, die eine Reihe unterschiedlicher Verhaltensweisen wie aktives Engagement und passiver Zufall zeigen. Unsere Studie zeigt, dass sich individuelle Unterschiede in der Konzeptionsphase des Engagements in der akademischen Zusammenarbeit auf die resultierende Konfiguration auf Netzwerkebene auswirken. Wir haben festgestellt, dass regionale Präferenzen, Reifezyklen und das Fehlen von Small-World-Immobilien die wichtige Rolle hochrangiger Mitglieder als strukturelles Rückgrat und Makler innerhalb der IS-Gemeinschaft unterstreichen.;-;-;-;https://link.springer.com/article/10.1057/ejis.2012.27 2bb670e82dd2368eb42f1d522accb0b0;de;;;4.2.;;;Politische Ökonomie der Sozialreform: Die Parlamentswahl 1996 in Tschechien Die Tschechische Republik hat, wie die meisten anderen MOE-Länder, ein zentralisiertes „staatspaternalistisches“ Sozialsystem von einem früheren kommunistischen Regime geerbt. Ein egalitäres Rentensystem, hoch subventionierte Preise für Wohnen, Energie, Transport und Nahrung, kostenlose Gesundheitsversorgung und leicht zugängliche Bildung bis hin zum Hochschulstudium, großzügige Sozialleistungen für Kinder und Familien, staatlich garantierte Vollbeschäftigung, all das zusammen mit a Die relativ bescheidene Besteuerung privater Einkünfte wurde als Standardgrundlage für die;-;-;-;https://link.springer.com/chapter/10.1057/9780230371514_8 ccdbbae2033b8f668491295d233bb7a8;de;;;4.2.;;;Soziale Identität und implizite Theorien über sexuelle Diskriminierung am Arbeitsplatz Vierhundertachtzig Universitätsstudenten beiderlei Geschlechts und bereits berufstätig wurden gebeten, ihre Zustimmung auf einer 5-Punkte-Skala mit einer Reihe von Items zu erklären. In diesen Items wurden fünf verschiedene implizite Theorien über die Diskriminierung von Frauen am Arbeitsplatz operationalisiert: progressiv, biologisch, liberal, traditionell und Frauen als Innovatoren. Der Fragebogen umfasste drei Subskalen der SOPOL-Skala für soziale und politische Einstellungen, die bereits in Portugal validiert wurden. Die Ergebnisse zeigten eine interne Validität in allen impliziten Theorien außer der progressiven. Darüber hinaus zeigten das Geschlecht der Probanden und ihre politischen Positionen signifikante Unterschiede in der Übereinstimmung mit diesen impliziten Theorien. Die Theorie der Intergruppenbeziehungen der sozialen Identität und implizite Theorie wie die soziale Repräsentation wurden als theoretischer Rahmen verwendet, um die Ergebnisse zu interpretieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-2802-2_22 9751ab74f03f21279f258b8fd87ba4a4;de;;;4.2.;;;Soziale Verantwortung des Unternehmens Die Idee der Corporate Social Responsibility (CSR) hat in den letzten Jahren sowohl in Geschäfts- als auch in Entwicklungskreisen einen beispiellosen internationalen Einfluss und Aufmerksamkeit erlangt. Neben der zunehmenden Integration in die Geschäftsstrategie wird CSR zu einem zentralen Anliegen der öffentlichen Politik auf lokaler bis globaler Ebene. Obwohl Theorie und Praxis von CSR tiefe historische Wurzeln haben, ist die aktuelle CSR-Agenda viel vielfältiger und komplexer und bleibt umstritten. Immer mehr Unternehmen stehen vor der Herausforderung, Formen sozialer und ökologischer Verantwortung in ihrer Geschäftspraxis zum Ausdruck zu bringen. Lokale, regionale und nationale Regierungen und internationale Organisationen sehen sich einem wachsenden Druck verschiedener nichtstaatlicher Akteure ausgesetzt, unterschiedliche und manchmal widersprüchliche Antworten zu entwickeln, wie freiwillige Verhaltenskodizes, Richtlinien für Sozial- und Umweltprüfungen und Berichterstattung, sektorübergreifende Partnerschaften, formelle Gesetzgebung/Regulierung Maßnahmen zu ergreifen und manchmal nur den Status quo zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1057/9780230236677_2 3521dbc9e6795770f41939fd0979c1ec;de;;;4.2.;;;Entdecken von Links zwischen sozialen Netzwerken Unterschiedliche soziale Netzwerke werden über Bridge-Nutzer miteinander verbunden, die somit eine Schlüsselrolle bei der Untersuchung von Crossing-Informationen im Rahmen der Social-Internetworking-Analyse spielen. Leider machen die Benutzer nicht immer ihre Rolle von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33486-3_30 06eab2c3b482e6d049d4c636d01cfcbf;de;;;4.2.;;;Warum waren die Sechziger so jüdisch? Ich muss mit einem Vorbehalt beginnen. Dies ist kein historisches Trainspotting-Kapitel darüber, wer in der amerikanischen Gegenkultur der sechziger Jahre jüdisch war. Wie wir sehen werden, war ein hoher Anteil der identifizierten jüdischen College-Studenten an radikalen politischen Aktivitäten beteiligt. Darüber hinaus war ein bemerkenswert hoher Prozentsatz der Juden im Vergleich zu ihrer Präsenz in der Gesamtbevölkerung führend in der politischen und gesellschaftspolitischen Arena.;-;-;-;https://link.springer.com/chapter/10.1057/9780230612747_9 9af058ed32a2ffa4dbfe240344627ceb;de;;;4.2.;;;Forschung zum Trust-Game-Modell der harmonischen Führung von Aktionären: aus Sicht des Sozialkapitals Nach einigen der Probleme, die in der Unternehmensführung bestehen, verwenden wir spieltheoretische Methoden, erhöhen das Soziale Netzwerk der Unternehmensführung aus der Perspektive des sozialen Kapitals gegenseitiges Vertrauen und harmonische Zusammenarbeit. Auf der Grundlage der Harmonie des Unternehmens und aller relevanten Aktionäre, um den Stand einer geordneten, koordinierten und komplementären Einrichtung eines Vertrauensspielmodells zu erreichen, sollte die Aufsicht helfen, die verschiedenen Probleme zu lösen, die in der Unternehmensführung bestehen, und eine harmonische Verwaltung zu erreichen des Unternehmens.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23023-3_80 a2174be90d2c46d5f513bc4a419d7279;de;;;4.2.;;;Die unverzichtbare Rolle der Sozialwissenschaften in der Energieforschung Die Beschränkung der Rolle der Sozialwissenschaften in der Energieforschung auf ihre traditionellen instrumentalen Funktionen der Akzeptanzforschung und Markteinführung ist für Forschung und Politik problematisch und den in Kapitel 2 beschriebenen aktuellen energiebezogenen – und grundsätzlich sozialwissenschaftlichen – Herausforderungen nicht gerecht Lernprozesse, die an der Koevolution von Technologie und einer liberalen Gesellschaft beteiligt sind. Die Energieforschung in den Sozialwissenschaften dient den Kernfunktionen der Generierung von Reflexions- und Zielwissen, Analyse- und Transformationswissen. Darüber hinaus erfordert eine nachhaltige Technologieentwicklung die Gleichberechtigung von Sozial- und Ingenieurwissenschaften. Schließlich erfordert das Management und die Integration von Wissen in Bezug auf Energie multi- und transdisziplinäre Rahmenbedingungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-2333-7_3 eec6ff6162d6416d0285b6c11884eae6;de;;;4.2.;;;Warum verschiedene Zines wichtig sind: Eine Fallstudie zum People of Color Zines-Projekt Historisch gesehen waren Zines ein alternatives Medium für Nischenthemen oder Schriftsteller und Schreiben, die von den Mainstream-Medien ignoriert werden. Zines sind von Bedeutung, weil sie die Möglichkeit zur Verbindung, Gemeinschaft und Vernetzung zwischen denjenigen bieten, die sich für diese vielfältigen Themen interessieren. Die Entwicklungen in der digitalen Technologie haben es den Zines ermöglicht, sich in den Online-Bereich auszudehnen: Dieser verbesserte Zugang hat zu einer erhöhten Beteiligung (von Lesern und Autoren) geführt. Dieses Papier konzentriert sich auf (digitale) Zines, die von People of Color (POC) erstellt werden. In den letzten Jahren gab es viele Diskussionen und Medienberichte über den Mangel an Vielfalt in der kulturellen Produktion, und es folgten verschiedene Kampagnen zur Förderung des vielfältigen Schreibens. Anhand einer Fallstudie zum POC Zines Project – einem Community-Building-Projekt, das Zines durch POC fördert – untersucht dieser Beitrag, wie Zines-Ersteller mit digitalen Formaten und sozialen Plattformen experimentieren, und erwägt, was Mainstream-Publisher daraus lernen können. Als Radway (in: Anouk (ed) From codex to hypertext. University of Massachusetts Press, Amherst,;-;-;-;https://link.springer.com/article/10.1007/s12109-017-9533-4 6f1aa94ad6c36287efcb4031442f4372;de;;;4.2.;;;Eine Analyse der Peer-Effekte bei wohltätigen Spenden: Der Fall Taiwan Der Zweck dieser Studie bestand darin, die Daten aus der Erhebung über Familieneinkommen und -ausgaben in Taiwan zu verwenden, um den Einfluss von Peer-Effekten auf das Verhalten karitativer Spenden zu untersuchen. Basierend auf den Definitionen der Referenzgruppe in dieser Studie legten die Schätzergebnisse nahe, dass die Peer-Effekte auf die Entscheidungen der Haushalte, ob sie wohltätige Spenden tätigen und wie viel sie spenden, recht bescheiden waren. Die Studie ergab auch, dass die Preiselastizität und die Einkommenselastizität von Spenden für wohltätige Zwecke in Taiwan größer waren als in den USA, was das niedrige Verhältnis von Spenden für wohltätige Zwecke zum BIP in Taiwan teilweise erklären könnte. Das Erdbeben im Jahr 1999 hat die Zahl der Spenden für wohltätige Zwecke erheblich erhöht, obwohl ihre Wirkung nach einiger Zeit nachließ.;-;-;-;https://link.springer.com/article/10.1007/s10834-004-5492-y bac2f6da0a096fc91f91521d1d9fbbf2;de;;;4.2.;;;Die spätere Gottesvorstellung Royce hat überlegt, wie der Vergleich von Ideen und gesellschaftliche Interpretation zusammenhängen. Der Ideenvergleich bildet ein Wahrheitsmodell für die Interpretationen, die in der sozialen Gemeinschaft vorkommen. Royce lenkt nun die Aufmerksamkeit auf die Beziehung zwischen den Wahrheitsanforderungen in der menschlichen Gemeinschaft und den Wahrheitsanforderungen im Universum des Seins. Der zugrunde liegende Gedanke, der die beiden verbindet, ist dieser. Alle menschlichen Bemühungen um Wahrheit setzen die Existenz einer menschlichen Interpretationsgemeinschaft voraus. Ohne Gemeinschaft hätte das menschliche Urteil keine Objektivitätsnorm. Wenn es also Wahrheit über die reale Welt gibt, muss es sein, dass die reale Welt die Form einer Interpretationsgemeinschaft hat. In dieser Welt sind die gegensätzlichen Ideen, die einer Interpretation bedürfen, die manchmal tragischen Gegensätze, die im Laufe der Zeit auftreten und Menschenleben heimsuchen. Dies sind Zeichen, die nach Interpretation verlangen. Wenn es Wahrheit über die wirkliche Welt gibt, gibt es eine Interpretation und einen Interpreten dieser Zeichen. Kurz, das Sein hat die Form einer Deutungsgemeinschaft.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-1659-9_4 c7eef06726ccf580218c71c1e4b8480b;de;;;4.2.;;;Gedächtnis, Arbeit und Autonomie Erinnerung bedeutet Arbeit. Es erfordert Körper und Objekte, die sich bewegen, performen und interagieren, um eine Erinnerungskomposition zu erreichen. Teilnehmende an Erinnerungspraktiken leisten eine materielle und immaterielle Arbeit, ihre auftauchenden Erfahrungen als Teil der Gesamtkomposition der Veranstaltung zu verweben. Ein materieller Umgang mit Raum, Objekten und Körpern strukturiert Partizipationserfahrungen. Verantwortlich für die Gestaltung und den Aufbau dieser Erfahrungsinfrastrukturen sind die Organisatoren von Erinnerungspraktiken, Gedächtnischoreografen. In diesem Kapitel stelle ich drei Fälle von Gedächtnisarbeit vor, die nach den Bombenanschlägen in London auftauchten. Jeder Fall enthält Auszüge aus Interviewdaten, um zu zeigen, wie die Menschen ihre Erinnerungserfahrungen auf unterschiedliche Weise beschrieben haben. Der erste Fall betrachtet eine Reihe von Gedenkveranstaltungen, die zusammen eine „offizielle“ Abteilung der Erinnerungsarbeit bilden. Dazu gehören der erste Gedenkgottesdienst, der im November 2005 in der St. Pauls Cathedral stattfand, und das einjährige Jubiläum am selben Ort. Die Datenextrakte zeigen, dass die Teilnehmer ihre Subjektivität in Bezug auf ein bestimmtes Ereignis durch Gesprächserinnerung verwalten. Damit gewinnen wir einen klareren Blick auf ein problematisches Gedenken und legen besonderen Wert auf den materiellen Umgang mit Erinnerung.;-;-;-;https://link.springer.com/chapter/10.1057/9781137341648_3 89eb948ff21f78ce30d6099e43ae5044;de;;;4.2.;;;Nutzung und Bedeutung von Social Media für die Unternehmenskommunikation und den Stakeholder-Dialog Mit der Popularisierung von Social Media mussten Unternehmen ihre Kommunikationsstrategien und ihren Ansatz ändern, um Kunden zu gewinnen. Soziale Medien sind webbasierte Medien und mobile Technologien für soziale Interaktion und Kommunikation und können soziale Netzwerke (Facebook, LinkedIn), Mikroblogs (Twitter, Tumblr), Blogs, Wikis, Video-Sharing-Sites (YouTube) umfassen Andere. Soziale Medien haben einen großen Vorteil, indem sie es den Benutzern ermöglichen, Informationen und Ideen auf unterschiedliche Weise einzubringen und zu teilen, die mit traditionellen Medien noch nie erreicht wurde. Mit anderen Worten, es präsentiert eine breite Palette neuer Online-Informationsquellen, die von Verbrauchern erstellt, entwickelt, geteilt und kommentiert werden, um Produkte, Dienstleistungen, Probleme und Marken kennenzulernen und zu erfahren (Blackshaw & Nazzaro, 2004). . Daher ist Social Media ein hervorragendes Instrument für Unternehmen, um Stakeholder-Dialog und -Engagement zu generieren (Fieseler, Fleck, & Meckel, 2010, Du, Bhattacharya, & Sen, 2010). Die Nutzung sozialer Medien für die Kommunikation bietet auch große Vorteile für Unternehmen wie Wettbewerbsvorteile, kostengünstige Zusammenarbeit, Echtzeitkommunikation und Online-Archivierung (Pressley, 2006, zitiert in Schneider, Stieglitz & Lattemann, 2007, Mangold & Faulds, 2010).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24148-7_18 5dbc9d2a7814b728c9d3c77113756a71;de;;;4.2.;;;Play It by Trust: Soziales Vertrauen, politische Institutionen und Freizeit Soziales Vertrauen ist in letzter Zeit zu einem Schwerpunktthema der politik- und sozialwissenschaftlichen Forschung geworden. Sie gewinnt auch in der politischen Philosophie oder politischen Theorie zunehmend an Bedeutung, da Vertrauen eine stabile oder zumindest menschenwürdige Gesellschaft gewährleistet. Der Zweck dieses Kapitels besteht darin, den Zusammenhang zwischen institutionellen Arrangements und sozialem Vertrauen zu untersuchen. Im ersten Teil des Kapitels diskutiere ich, warum Vertrauen in einem gesellschaftspolitischen Kontext wichtig ist. Soziales Vertrauen ist nicht nur für demokratische Institutionen wichtig, sondern ein unverzichtbares Element von Institutionen, die unser Wohlergehen sichern – wohlfahrtsstaatliche Institutionen. Zweitens versuche ich, verschiedene Aspekte und Verständnisse von Vertrauen zu skizzieren, mit besonderem Schwerpunkt auf sozialem Vertrauen. Im dritten Teil dieses Kapitels werde ich beschreiben, wie Institutionen dazu beitragen, soziales Vertrauen zu schaffen und zu erhalten. Besonderes Gewicht wird auf die Bedeutung wohlfahrtsstaatlicher Institutionen für die Sicherung des sozialen Vertrauens gelegt. Schließlich argumentiere ich, dass es gute theoretische und empirische Gründe gibt, verschiedene Auswirkungen von Institutionen auf unsere Freizeit zu berücksichtigen und sie als Katalysator sozialer Inklusion zu verstehen, die auch eine Voraussetzung für soziales Vertrauen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-32618-0_5 99f0ce570712e87afc8cbfe105e69fe2;de;;;5.2.;;;Sexuelle Kommunikation bei Copepoden und Rädertierchen Das Problem, Partner zu finden und sie als Artgenossen zu identifizieren, ist für Copepoda, Cladocera und Rotifera ähnlich, da es sich alle um relativ kleine Tiere handelt, die sich in einem großen Wasservolumen bewegen. Chemorezeption ist ein potenziell wirksames Mittel, um Partner in aquatischen Umgebungen zu identifizieren. Im Zooplankton haben sich auf Chemorezeption basierende Partnererkennungssysteme entwickelt, die Artgenossen von anderen Arten unterscheiden und Männchen von Weibchen unterscheiden können. Der Beweis für die Rolle chemischer Signale bei der Paarung von Copepoden ist indirekt, basierend auf Beobachtungen des Paarungsverhaltens. Die geringe Größe und die begrenzte metabolische Fähigkeit von Zooplankton sowie die hohen Diffusionsraten auf einer räumlichen Skala von 1–10 mm schränken das Volumen ein, durch das chemische Signale effektiv übertragen werden können. Eine Alternative zur Verwendung diffundierbarer Moleküle für die sexuelle Kommunikation besteht darin, Signalmoleküle an Zelloberflächen zu binden, wodurch energetisch teure Moleküle wie Proteine ​​​​als Signale dienen können, ohne dass sie durch Diffusion verloren gehen. Die Kontakt-Chemore-Eption wurde bei der Paarung von Copepoden und Rädertierchen beschrieben und stellt möglicherweise eine allgemeine Lösung für das Problem der chemischen Kommunikation durch kleine Zooplankter dar. Die Art der verwendeten Signale, ihre Übertragungs- und Empfangsmechanismen und ihre Rolle bei der Aufrechterhaltung der reproduktiven Isolation zwischen den Arten müssen noch für alle aquatischen wirbellosen Tiere charakterisiert werden. In diesem Review vergleiche ich die Methoden, die Copepoden und Rädertierchen zur Partnersuche und -erkennung verwenden, beschreibe die Verhaltensbeweise, die die Existenz chemischer Hinweise unterstützen, und untersuche Experimente, die die biochemischen Eigenschaften der Signalmoleküle beschreiben ohne vorherigen weiblichen Kontakt, was auf den Empfang eines diffusionsfähigen Signals hindeutet. Das Signalmolekül ist klein und weist keine Speziesspezifität in der untersuchten Spezies auf. Männliche Rädertierchen reagieren nicht auf Weibchen aus der Ferne. Die Partner werden durch zufälliges Schwimmen der Männchen und durch Kontaktchemorezeption eines artspezifischen Signals lokalisiert. Die Paarungserkennung sowohl bei Copepoden als auch bei Rädertierchen basiert auf der Kontakt-Chemorezeption eines artspezifischen Signals. Die verantwortlichen Pheromone sind für Copepoden nicht bekannt, aber Oberflächenglykoproteine ​​mit pheromonaler Aktivität wurden in Rädertierchen identifiziert. Die Struktur des Geschlechtspheromons der Rädertierchen wurde durch selektiven enzymatischen Abbau und Lektinbindung, elektrophoretische Charakterisierung und Anheftung an Agarosekügelchen untersucht, um seine biologische Aktivität zu bewerten. Glykoproteine ​​spielen eine Schlüsselrolle in der sexuellen Kommunikation einiger Algen- und Ciliatenarten und haben gut charakterisierte Rollen bei zellulären Erkennungsphänomenen wie der Sperma-Ei-Bindung. Die Bedeutung dieser Studien liegt in ihrem Beitrag zu unserem Verständnis der Reproduktionsbiologie von Zooplankton, der chemischen Ökologie der männlich-weiblichen Kommunikation, der molekularen Grundlagen der Chemorezeption in der aquatischen Umwelt und der Evolution der reproduktiven Isolationsmechanismen vor der Paarung im Zooplankton.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-1606-0_15 0aeda13495f0fd0e87e89d37827e445d;de;;;4.2.;;;Indikatoren: Vom Zählen zum Kommunizieren Der Einsatz von Indikatoren zur Analyse der Lebensqualität und des differenzierten Zugangs zu Ressourcen und Möglichkeiten hat sowohl in der Wissenschaft als auch in der Planungspraxis und Politik Aufmerksamkeit erregt. Die Vermittlung von Indikatormethoden und deren Verwendung ist jedoch eine Herausforderung, da es erforderlich ist, alle Schritte der Indikatorenentwicklung in kurzer Zeit zu durchlaufen. Diese Schritte reichen von der Zählung, Konstruktion und Operationalisierung der Indikatoren bis hin zu eher politik- und lernbezogenen Schritten, die einen kritischen und reflektierenden Prozess erfordern. Dieses Gefälle vom Traditionellen und Mechanischen zum Kritischen spiegelt sich auch in der Entwicklung der Indikatorenbewegung wider. Um diese Entwicklung zu analysieren und zu veranschaulichen, dokumentieren wir Lehre, Feldarbeit und Indikatorenforschung an unserer Fakultät in den letzten 20 Jahren. Unsere Erfahrung zeigt, dass Indikatoren ein großes Potenzial haben, die Welt der Forschung und Bildung sowie die Welt der Planung und Politik näher zusammenzubringen. Wir glauben, dass es im Bildungsprozess von größter Bedeutung ist, die Verschiebung der Rolle der Indikatoren von der traditionellen Zählung und Beschreibung hin zu einer kritischeren und kommunikativeren Rolle zu betonen. Wir präsentieren einen Rahmen, um die bestehenden Dichotomien aufzuzeigen und wie man diese Verschiebung in die Entwicklung von Indikatoren einbeziehen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0608-1_21 9f7087026347f804ccf53630f15b51ec;de;;;4.2.;;;Social-Media-Sentimentanalyse mit Kontextraummodell In diesem Artikel wird die Beschreibung des Algorithmus zur Einschätzung der Stimmung der Aussage mit dem Akzent auf den Kontext der Nachrichten des Benutzers in den sozialen Medien vorgestellt. Der Artikel konzentriert sich auf die Tatsache, dass Nachrichten, die identische Sentiment-Objekte enthalten, unterschiedliche Bedeutungen haben, die sich auf die Bewertung des Sentiments der Nachricht auswirken. Ein weiteres Forschungsziel ist die Identifizierung formaler Kriterien für die Zuordnung von Nachrichten zu den Klassen „Kern“, „Peripherie“, „nicht relevant“, um die Rolle der Forschungsrelevanz des Objektschlüssels in der Nachricht zu kennzeichnen. In diesem Artikel haben wir für jede Gruppe mehrere Beispiele für authentische Nachrichten gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-39296-3_29 b0f2339fb8f873d1e3e83f0779c834d0;de;;;4.2.;;;Zeitliche Kausalität sozialer Unterstützung in einer Online-Community für Krebsüberlebende Online-Gesundheitsgemeinschaften (OHCs) stellen eine nützliche Informationsquelle und soziale Unterstützung für Patienten dar. Das Cancer Survivor Network (CSN) der American Cancer Society, eine Community mit 173.000 Mitgliedern, ist das größte Online-Netzwerk für Krebspatienten, Überlebende und Pflegepersonal. Ein Diskussionsthread in CSN wird oft von Krebsüberlebenden initiiert, die Unterstützung von anderen Mitgliedern von CSN suchen. Es fängt ein Mehrparteiengespräch ein, das oft der Funktion der sozialen Unterstützung dient, indem es z. B. einen Stimmungswandel von negativ zu positiv auf Seiten des Thread-Erstellers bewirkt. Während frühere Studien zu Krebsüberlebenden gezeigt haben, dass Mitglieder von OHC Vorteile aus ihrer Teilnahme an solchen Gemeinschaften ziehen, fehlten kausale Erklärungen über die Faktoren, die zu den beobachteten Vorteilen beitragen. Dieser Artikel berichtet über die Ergebnisse einer Studie, die versucht, diese Lücke zu schließen, indem die zeitliche Kausalität der Dynamik der Stimmungsänderung (auf Seiten der Thread-Urheber) in CSN entdeckt wird. Die resultierenden Konten bieten neue Erkenntnisse, die die Designer, Manager und Moderatoren einer Online-Community wie CSN nutzen können, um die Interaktionen zu erleichtern und zu verbessern, um den sozialen Unterstützungsbedürfnissen der Community-Teilnehmer besser gerecht zu werden. Die vorgeschlagene Methodik hat auch breite Anwendungsmöglichkeiten bei der Entdeckung zeitlicher Kausalität aus Big Data.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16268-3_2 0255f7f9870d79990f2ba0ff30073c58;de;;;4.2.;;;Nichtdiskriminierung und Gerechtigkeit Die Nichtdiskriminierung ist natürlich das allgemeinere Ziel aller internationalen Rechtsvorschriften über psychisch Kranke. Infolgedessen ist die Notwendigkeit von Gerechtigkeit, nicht nur in abstrakten Begriffen, sondern mit den meisten praktischen Konsequenzen (Arbeit, Bildung, Freizeit, Gesundheit) in den letzten Jahrzehnten zur ersten Priorität von Interessengruppen geworden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-0673-7_10 bdf7555d2fb50be7ec9e574cbc169784;de;;;4.2.;;;Warum Industrie 4.0 Arbeitsplatzinnovationen braucht – ein kritischer Essay zur deutschen Debatte um Advanced Manufacturing Hinter Labels wie „Smart Manufacturing“ und „Advanced Manufacturing“ verbirgt sich der Versuch, die Digitalisierung der Produktion zu beschleunigen. In Deutschland ist die Zukunft der Fertigung eng mit der Vision „Industrie 4.0“ (Industrie 4.0) verbunden. Die breit angelegte Umsetzung dieser technologieorientierten Vision schien notwendig und entscheidend für die Wettbewerbsfähigkeit zu sein. Unsicherheiten und Risiken (z.B. hohe Investitionskosten, Datensicherheit, Auswirkungen auf Arbeitsplätze) werden unterschätzt und negative Erfahrungen mit solchen technologiezentrierten Ansätzen in der Vergangenheit (z.B. mit Konzepten wie der komplett computerintegrierten und automatisierten Fabrik) scheinen manchmal vergessen. Unser Essay soll zeigen, dass es Alternativen zu einem Politikkonzept gibt, das auf einem einseitigen, technologieorientierten Innovationsverständnis basiert. Es macht daher einen wichtigen Unterschied, ob „Industrie 4.0“ oder „Arbeiten 4.0“ und Arbeitsplatzinnovation im Zentrum des Digitalisierungsprozesses stehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-56333-6_4 1f42a54d95d260fb38e1cf7cd6251d7b;de;;;4.2.;;;Untersuchung der Einflussfaktoren der Teilnahmeabsicht von Live-Streaming-Zuschauern aus der Perspektive des Glaubwürdigkeitsmodells der Quelle und der kognitiven Belastung – ein Beispiel für Nutzer von Mobilgeräten In dieser Studie unterteilen wir verschiedene Verhaltensweisen von Live-Streaming-Zuschauern in drei Ebenen, die nicht-kreativ, beitragend und finanziell unterstützen, um die Einflussfaktoren der Teilnahmeabsicht der Live-Streaming-Zuschauer zu untersuchen. Streamer als Informationsquelle im virtuellen Live-Streaming-Raum, ihre Eigenschaften oder die von ihnen übermittelten Botschaften beeinflussen den psychologischen Zustand der Zuschauer und das Verhalten, das die Zuschauer auf der Live-Streaming-Plattform möglicherweise agieren können. Da der interaktive Modus von Live-Streaming-Programmen darin besteht, dass sich der Streamer gleichzeitig einer großen Anzahl von Zuschauern stellen muss, bedeutet dies, dass es fast keine direkte Interaktion zwischen dem Streamer und den Zuschauern gibt. Die Zuschauer stellen sich meist nur die interaktive Beziehung zwischen den beiden Parteien vor. Zusammenfassend untersuchen wir das Zusammenspiel von Quellenglaubwürdigkeitsmodell, parasozialer Interaktion, kognitiver Belastung und dem daraus resultierenden Ergebnis der Beteiligungsabsicht für Live-Streaming-Plattformen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1758-7_7 8834c88cd3bedd664e9eb1092a43682d;de;;;4.2.;;;Zur gesellschaftlichen Gestaltung von Quantentechnologien: Eine Analyse aufkommender Erwartungen durch Förderanträge 2002–2020 Der Begriff „Quantentechnologie“ wurde erstmals Mitte der 1990er Jahre von einem australischen Physiker populär gemacht. Diese Technologien nutzen die Eigenschaften der Quantenphysik und werden weltweit entwickelt und investiert, doch diese aufkommende Technologie wird in Wissenschafts- und Technologiestudien zu wenig erforscht. Dieser Artikel untersucht die Entstehung des Begriffs „Quantentechnologien“ und untersucht die Erwartungen, die diesen Bereich durch eine Analyse der Forschungsstipendien, die von einem nationalen Forschungsförderer, dem Australian Research Council, zwischen 2002 und 2020 finanziert wurden, formen. Ich untersuche, wie „Quantentechnologie“ und „Quantencomputing“ dominiert inzwischen die Ansprüche und Erwartungen an die Forschung in der Quantenwissenschaft. Diese Erwartungen bestimmen nicht nur die wissenschaftlichen Ziele des Fachgebiets. Sie liefern auch eine übergreifende, verbindende Rhetorik für einzelne Projekte und Personen und prägen die imaginierten Anwendungen von Quantentechnologien. Diese Analyse zeigt, wie die Behauptungen für diese aufkommende Technologie auf „Durchbruchs“-Metaphern zurückgreifen, um Forscher und Marschall-Investitionen zu engagieren, und schließt mit der Hervorhebung der Notwendigkeit einer größeren Klarheit über die Erwartungen an Quantentechnologien.;-;-;-;https://link.springer.com/article/10.1007/s11024-021-09438-5 3b2e4192850d670529d79e949975603e;de;;;4.2.;;;Demokratische Werte in einer sich globalisierenden Welt: Eine mehrstufige Analyse geografischer Kontexte Geographen behaupten, dass regionale und nationale Kontexte wichtige vermittelnde und steuernde Einflüsse auf Globalisierungsprozesse sind. Um zu dieser Schlussfolgerung zu gelangen, waren Geographen jedoch zu ziemlich komplizierten statistischen Manipulationen gezwungen, um zu versuchen, den sogenannten „geografischen Faktor“ zu isolieren. Neuere Entwicklungen in der mehrstufigen statistischen Modellierung bieten eine genauere und geeignetere Methodik zur Untersuchung kontextueller Faktoren im politischen Verhalten, wenn die Daten hierarchisch erhoben wurden, wobei die Befragten in untergeordnete und übergeordnete Bezirke gruppiert wurden. Die Daten der World Values ​​Survey (erhoben in drei Wellen von 1980 bis 1997) für 65 Länder sind ideal geeignet, um die Hypothese zu untersuchen, dass demokratische Überzeugungen und Praktiken globalisieren. Unter Verwendung von drei Schlüsselprädiktoren (Vertrauen in Mitbürger, politisches Interesse und Freiwilligenarbeit) für die Stichprobe von 91.160 Befragten wird deutlich, dass regionale (für die 550 Regionen) und Ländereinstellungen (zwischen 55 und 65 Ländern) wichtige Prädiktoren für politisches Verhalten sind , in der Größenordnung von etwa 10 % bzw. 20 %. Die Merkmale der Befragten machen etwa 70 % der erklärten Varianz aus. Die Ideologie ist weitaus wichtiger als viele der üblichen demografischen Merkmale, um politisches Verhalten länderübergreifend zu erklären. Dramatische Unterschiede zwischen etablierten und neuen Demokratien verdeutlichen den politischen Globalisierungsprozess und auch globale Regionen (Lateinamerika, Osteuropa, Westeuropa etc.) treten als wesentliche Faktoren hervor. Die Mehrebenenmodellierung von Umfragedaten bietet einen Kompromiss zwischen der von Geographen bevorzugten aggregierten Datenanalyse und der von Politikwissenschaftlern bevorzugten Betonung von Umfragen in einem nicht-geographischen Kontext.;-;-;-;https://link.springer.com/article/10.1023/B%3AGEJO.0000033581.20307.bc c73fe9a2544854d65cea31fdd0a9ee8a;de;;;4.2.;;;Einkommen und finanzielle Zufriedenheit älterer Erwachsener in den Vereinigten Staaten Unter Verwendung von Daten aus den Allgemeinen Sozialerhebungen vergleicht diese Studie die Auswirkungen verschiedener Einkommensvariablen auf die finanzielle Zufriedenheit von Menschen ab 65 Jahren in den Vereinigten Staaten. Die Ergebnisse deuten darauf hin, dass die einfache Verwendung des Haushaltseinkommens als Variable ohne jegliche Anpassung den tatsächlichen Effekt des Einkommens auf die finanzielle Zufriedenheit nicht erfasst. Einkommensäquivalenzskalen und Pro-Kopf-Einkommen sind bessere Prädiktoren für die finanzielle Zufriedenheit als das Familieneinkommen. Da es in der Finanzzufriedenheits- sowie in der subjektiven Wohlbefindensforschung nicht unüblich ist, die Variable Familieneinkommen ohne Anpassung zu verwenden, sind die Ergebnisse dieser Studien zum Einkommenseffekt mit Vorsicht zu interpretieren.;-;-;-;https://link.springer.com/article/10.1023/B%3ASOCI.0000003585.94742.aa 551bccff0211b62d004d700742a2d650;de;;;4.2.;;;Best Practice in der globalen Wissensstadt Es gibt eine Reihe von Städten, die bisher eine weltweit anerkannte prosperierende wissensbasierte Stadtentwicklung erreicht haben. In diesem Kapitel werden einige der führenden Beispiele für Best Practices in globalen Wissensstädten vorgestellt. Zu diesen Beispielen gehören Barcelona, ​​Austin, Singapur und Melbourne. Das Kapitel bietet eine detaillierte Analyse dieser bedeutenden Wissensstädte und liefert nützliche Erkenntnisse für andere Städte, die eine so erfolgreiche wissensbasierte Stadtentwicklungspraxis anstreben, um ihre Städte in wissensbasierte Städte umzuwandeln. Brisbane City aus Australien wird als Beispiel für eine dieser aufstrebenden Städte verwendet. Das Kapitel schließt mit einem Kommentar dazu, wie die aus den globalen Best Practices gewonnenen Erkenntnisse für diese besondere Stadt nützlich sein könnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-03207-4_11 1df6077014aa9735614e58d464e53b67;de;;;4.2.;;;Dateneingaben und Forschungsergebnisse: Soziale Netzwerkanalyse als Werkzeug für Stichproben- und Verbreitungsstrategien Dieses Papier untersucht die sozialen Aspekte im Zusammenhang mit der Datenerhebung und der Verbreitung von Ergebnissen in der partizipativen Modellierung und Forschung. Zwei Aspekte werden untersucht, nämlich: (1) wenn freiwillige Daten aus menschlichen Quellen in einer bestimmten Gemeinschaft gesammelt werden, besteht ein starkes Potenzial für Stichprobenverzerrungen und (2) die Übernahme von Forschungsergebnissen durch politische Entscheidungsträger und Interessengruppen ist nicht garantiert. Der Autor untersucht den Einsatz der Analyse sozialer Netzwerke und bestehender Theorien in der sozialwissenschaftlichen Forschung, um die Methoden der freiwilligen Datenerhebung und die Aufnahme von Forschungsergebnissen zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03449-2_36 4e6661b264877761fe01c8cd89e3779b;de;;;4.2.;;;Soziale Maßnahmen und soziale Verantwortung der Unternehmen in den öffentlich-rechtlichen Medien Spaniens, Frankreichs und Portugals Diese Untersuchung konzentriert sich auf die Bestimmung, wie die europäischen öffentlich-rechtlichen Rundfunkanstalten Spaniens, Frankreichs und Portugals derzeit das Modell der Leistungsindikatoren verwenden, wobei besonderes Augenmerk auf die Kategorie Gesellschaft und darin, insbesondere auf soziale Maßnahmen, gelegt wird. Die verwendete Methodik basiert auf der Inhaltsanalyse von Berichten und Bilanzen zur Corporate Social Responsibility der drei europäischen Körperschaften des öffentlichen Rechts wie Solidarität, Gleichstellung, Geschlechterrechte, Behinderung oder Umwelt, die sich aufgrund ihrer öffentlich-rechtlichen Funktion an die Bevölkerung richten, und andererseits der Umfang und die uneinheitliche Wirksamkeit der Programme und Praktiken zur Bewertung und Bewältigung der Auswirkungen der Tätigkeiten in den entsprechenden Gemeinden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72654-6_37 6924f8b908dc8acfcafc78f52e10dadf;de;;;4.2.;;;Krankenversicherung, soziale Integration und sozialer Zusammenhalt Obwohl irrationales wirtschaftliches Verhalten zu wirtschaftlicher Ineffizienz führen kann, haben Anthropologen und Soziologen seit langem beobachtet, dass ein solches Verhalten einen erheblichen psychologischen und sozialen Nutzen haben kann. Im vorigen Kapitel haben wir gesehen, dass die Krankenversicherung selbst dann, wenn sie aus ökonomischer Sicht irrational ist, positive Konsequenzen für den Einzelnen haben kann, die denen ähnlich sind, die in vorgebildeten Gesellschaften mit Ritualen verbunden sind. Einige Funktionstheoretiker argumentieren jedoch, dass Rituale einen wichtigeren Dienst leisten, als nur Angst zu lindern. (In der Tat argumentieren einige, dass nicht Angst, die zu ritualisiertem Verhalten führt, sondern das Versäumnis, ritualisiertes Verhalten auszuführen, zu Angst führt.) (Siehe Radcliffe-Brown, 1938: 46.) Obwohl ein Regentanz nicht zu dem Ziel führt, dass soll (zB Regen und damit einen guten Ernteertrag erzeugen), kann dennoch erhebliche soziale Vorteile haben. Es bringt Menschen zusammen, um an gemeinsamen Gruppenaktivitäten teilzunehmen und fördert so die soziale Integration. Dabei fördert es auch das Gefühl der Gruppenidentität oder des sozialen Zusammenhalts. Auch die Krankenversicherung kann die soziale Integration und den Zusammenhalt fördern, allerdings aus unterschiedlichen Gründen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-4231-8_7 081f359d67e2f0ad03b977fe9ff184d6;de;;;4.2.;;;Vorstudie zur Anwendung des Social-Skills-Kurses der virtuellen Realität zur Verbesserung der sozialen Fähigkeiten von Grund- und Mittelschülern mit hohem funktionellem Autismus Für die kognitive Stadt ist es sehr wichtig, außergewöhnliche Schüler durch assistierende Technologien zu unterrichten. Aufgrund des allmählichen Fortschritts der medizinischen Behandlung und der pädagogischen Diagnose steigt die Zahl der bestätigten Fälle von Schülern mit Autismus in Taiwan. Diese Schüler zeigten nicht nur gravierende Defizite in der sozialen Kompetenz, sondern auch einen enormen Mangel an Verständnis für abstrakte und kognitive Konzepte. Ausgehend von den oben genannten Gesichtspunkten ist das Hauptthema dieser Forschung die Verwendung von „Kunsttour mit Klassenkameraden“ als Thema einer Geschichte, die mit den Hauptideen des Lehrens im Rahmen des Lehrplans für soziale Kompetenzen für behindertenbezogene Sonderbedarfsbereiche in 12-Jahren kombiniert wird Nationales Bildungscurriculum zur Entwicklung von vier Virtual-Reality-Lehrsystemen. Diese Studie wurde an einer Gruppe von zehn autistischen Schülern der Grund- und Mittelschule durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6113-9_20 685d2219dc362628a445c2c7654a871b;de;;;4.2.;;;Ermöglicher egalitärer Teilhabe: Fallstudien in unterversorgten Gemeinschaften in Südafrika. Prozesse der Kreativität „Nicht um der Sache willen“ Obwohl ICT4D das Leben der Menschen beeinflusst, sind die Triebkräfte für Veränderungen oft eine eigennützige Perspektive und nicht nachhaltig, da die betroffenen Gemeinden nicht mitmachen. Um dies zu überwinden, muss ICT4D von Laboransätzen und Zusammenarbeit zu Basisinnovationen übergehen, wobei die Gemeinden ihren Einsatz von IKT gestalten. Diese Studie präsentiert drei Fälle von ICT4D-Projekten in unterversorgten Gemeinden in Kapstadt, Südafrika, mit dem Ziel, die Voraussetzungen für eine egalitäre Teilhabe zur Unterstützung von Basisinnovationen zu ermitteln. Egalitäre Partizipation fördert den Erwerb von Selbstvertrauen und Empowerment, während sie gleichzeitig motiviert bleibt, Teil des Prozesses zu sein. In den analysierten Prozessen ermöglichte ein emergenter Ansatz, der von Offenheit, lockeren Regeln und Flexibilität geprägt war, den Teilnehmern, an ihren Fähigkeiten zu arbeiten, um das Vertrauen in ihre Fähigkeiten zu stärken und neue Möglichkeiten zu bewerten. Das primäre Ergebnis eines auf Beziehungen und nicht auf Gestaltungsregeln basierenden Ansatzes förderte eine inklusive Beteiligung. Kollektive engagierten sich in Prozessen und entwickelten selbstbestimmtes Verhalten und Zusammenhalt bei der Unterstützung ihrer Gemeinschaften. Das soziale Ziel der Aktivitäten, bei denen sich Kreativität „nicht um ihrer selbst willen“ entwickelte, unterstützte das Hauptziel des egalitären Ansatzes, bezog die Gemeinschaft ein und schaffte Eigenverantwortung. Die Analyse der Fälle zeigte methodische Muster auf, die möglicherweise repliziert werden könnten und die als Wegbereiter für eine egalitäre Teilhabe in unterversorgten Gemeinschaften dargestellt werden. Im Gegensatz zum reinen Lösungsangebot wurde ein reflexiver, von den Prinzipien des gegenseitigen Lernens und Solidarität durchdrungener Ansatz beobachtet, der sich zu Basisinnovationen entwickelte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-11235-6_11 fb2f139ade33793237cbb004fa7cd5ab;de;;;4.2.;;;Grundbücher der Sozialkunde social Zu den jüngsten Kritiken an Lehrbüchern gehörten Vorwürfe der Bevorzugung der Breite gegenüber der Tiefe, des trockenen Schreibens, des Mangels an Kontext, der fehlenden Integration von Minderheiten und der Überillustration. Darüber hinaus werden sozialwissenschaftliche Texte für sinnlosen Inhalt, unklare Ziele, unzureichende Erklärungen, Trennung von Wissen und Können und anderen Mängeln kritisiert. Die Autoren dieses Artikels haben andere häufige Fehler angegeben. Als Korrektiv schlagen sie eine Rückkehr zum Konzept der Entwicklung von Lehrplänen als Mittel zur Erreichung wichtiger Ziele vor, die in Form von angestrebten Schülerergebnissen formuliert sind, und die Ausrichtung des sozialwissenschaftlichen Unterrichts an den wichtigsten sozialpädagogischen Zielen.;-;-;-;https://link.springer.com/article/10.1007/BF02680670 a347af257915619d3d9d49c55a817546;de;;;4.2.;;;Charakterisierung des Benutzerinteresses an NoSQL-Datenbanken mit sozialen Frage- und Antwortdaten Mit dem Aufkommen der Social-Media-Technologie zum Teilen häufig gestellter Fragen und Antworten unter Endbenutzern wächst das Interesse am Verständnis der Merkmale sowie der Nutzung von sozialen Frage-und-Antwort-Daten (QA) schnell. Nicht nur SQL (NoSQL) ist ein beliebtes technisches Thema auf Websites zur Beantwortung sozialer Fragen und wird mit der wachsenden Nachfrage nach skalierbaren Datenbanken für Big Data immer beliebter. Trotz des großen Interesses der Anwender an der NoSQL-Technologie wurde noch nicht versucht zu analysieren, wie die tatsächlichen Anwender auf NoSQL reagieren. Daher verwenden wir in der vorliegenden Arbeit die QA-Daten von Stack Overflow (einer QA-Website, die als große Wissensdatenbank fungiert), um zu verstehen, wie Menschen die NoSQL-Technologie wahrnehmen. Zu diesem Zweck werden Techniken der latenten Dirichlet-Allokation (LDA) zur Themenmodellierung verwendet, um den Trend von NoSQL-Datenbanken zu entdecken. Darüber hinaus untersuchen wir ein gewichtetes LDA-Modell, um den Einfluss von Antworten widerzuspiegeln und schlagen schließlich den Themendiskriminierungswert vor, um Themen zu finden, die jede NoSQL-Datenbank unterscheiden.;-;-;-;https://link.springer.com/article/10.1007/s11227-018-2293-x 6bb2f2a89338c949dee9ccbbc4b38e49;de;;;4.2.;;;Das Potenzial von Social Media zur Verbesserung des psychischen Wohlbefindens von Arbeitslosen In diesem Artikel werden Untersuchungen zum Kompensationspotenzial von Social Media für die psychologischen Folgen des Arbeitsplatzverlusts vorgestellt. Zu beantworten sind insbesondere die Fragen, ob das subjektive Wohlbefinden sowie die wahrgenommene Ausgrenzung durch das Engagement in sozialen Medien beeinflusst werden und ob das Alter als Kontextvariable diese Einflüsse moderieren kann. Wir zeigen anhand von 2.400 Telefoninterviews mit Arbeitslosen in Deutschland, dass die Nutzung von Social Media das Wohlbefinden von Arbeitslosen tatsächlich steigern kann, wenn sie ihre Online-Kontakte in reale soziale Aktivitäten übertragen können. Dieser Transfer ist für ältere Teilnehmer kurioserweise einfacher. Digital Immigrants weisen in ihren sozialen Online-Netzwerken eine andere Beziehungsstruktur auf, die es ihnen ermöglicht, die stärkeren Ausgrenzungseffekte zu mildern, während Digital Natives Gefahr laufen, sich aufgrund ihrer Social-Media-Nutzung stärker ausgegrenzt zu fühlen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32850-3_2 a26c9e4c1ae51cec505285b8e3591ae9;de;;;4.2.;;;Aquakultur und Umwelt: Auf dem Weg zur Nachhaltigkeit Der Beitrag der Aquakultur zur weltweiten Fischproduktion ist in den letzten zwanzig Jahren gestiegen, wobei das Produktionsniveau 2014 73,8 Millionen Tonnen erreichte, was etwa 44 % der gesamten Fischproduktion entspricht. Die asiatische und afrikanische Aquakulturproduktion macht einen größeren Anteil am Wachstum der Aquakulturproduktion aus. Die Aquakultur trägt in mehreren Ländern zum Lebensunterhalt und zum Einkommen bei, obwohl die wirtschaftlichen Bedingungen schlecht waren und die Umweltprobleme fortbestehen. Die Aquakultur muss weiter wachsen, um die steigende Nachfrage nach Fisch zu decken. Aber Wachstum wäre nicht nachhaltig, wenn Planung und Management nicht deutlich verbessert würden. Es besteht Bedarf an lokaler, nationaler und internationaler Planung und Verwaltung, um Umwelt-, Sozial-, Wirtschafts-, Gesundheits- und Tierschutzbelange zu berücksichtigen. Diese bilden den Kern der besten Managementpraxis in der Aquakultur. Aquakultur kann sich unter Berücksichtigung von Genetik, Wasserqualität, Ökologie, Gesundheit und Ressourcennutzung negativ auf die Umwelt auswirken, während die Umwelt die Aquakultur in dreierlei Hinsicht beeinflusst: die kultivierten Arten, das Kultursystem und die allgemeine Durchführbarkeit. Diese zusammengenommen erfordern einige Managementanstrengungen, um die Nachhaltigkeit der Aquakultur zu gewährleisten, abhängig von der Anwendung von Standortauswahl und Tragfähigkeitsbewertung, Gefahren- und Risikoanalyse für Aquakulturen, ökosystembasiertem Ansatz für die Aquakultur, Aquakultur-Governance und -Planung sowie Aquakulturzertifizierung und -standards . Diese werden in diesem Kapitel besprochen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-73257-2_1 aab7f6d70c1158cfd488eaa7fa2bd065;de;;;4.2.;;;Klassifikation von Karriere-Lebensstil-Mustern von Frauen Dieser Beitrag versucht, den Lebensstil von Frauen in ihrem Engagement für vier Aspekte des Lebens nach ähnlichen Mustern zu klassifizieren. Mittels Clusteranalyse analysieren wir die berufliche Vorgeschichte und Familiendaten sowie den materialistischen Wohlstand und den kulturellen Konsum von 644 Frauen im Alter zwischen 30 und 49 Jahren aus einer nationalen Stichprobe in Japan. Die Berufs-Lebensstil-Typologie von 8 Clustern wird vorgestellt. Durch die multiple Korrespondenzanalyse dieser Cluster und der sozialen Schichtungspositionen zeigen wir, dass die Unterschiede im Lifestyle-Engagement eng mit der sozialen Herkunft und Position der Frauen zusammenhängen. Unsere Ergebnisse legen nahe, dass die Konzentration nicht nur auf bezahlte Arbeit, sondern auch auf die Hingabe an andere Aspekte des Lebens dazu beiträgt, Frauen mit ähnlichen Karrierewegen, aber unterschiedlichen Lebensprioritäten zu identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-26981-9_42 54c16d01023a9829074657b9c7041023;de;;;4.2.;;;Mining sozialer Netzwerke aus literarischen Texten ressourcenarmer Sprachen Wir beschreiben unsere Arbeit zur automatischen Identifizierung von sozialen Ereignissen und zum Mining sozialer Netzwerke aus literarischen Texten in Tamil. Tamil gehört zur dravidischen Sprachfamilie und ist eine morphologisch reiche Sprache. Dies ist eine ressourcenarme Sprache, hochentwickelte Ressourcen für die Dokumentverarbeitung wie Parser, Phrasenstrukturbaum-Tagger sind nicht verfügbar. In unserer Arbeit haben wir flaches Parsing für die Dokumentenverarbeitung verwendet. Conditional Random Fields (CRFs), eine Technik des maschinellen Lernens, wird zur automatischen Identifizierung von sozialen Ereignissen verwendet. Wir haben ein F-Maß von 62 % bei der Identifizierung sozialer Ereignisse erhalten. Soziale Netzwerke werden abgebaut, indem Triaden der Akteure in den sozialen Ereignissen gebildet werden. Die Auswertung der sozialen Netzwerke erfolgt mittels Graphenvergleichstechnik. Die vom System generierten sozialen Netzwerke werden mit dem Goldnetzwerk verglichen. Wir haben einen sehr ermutigenden Ähnlichkeitswert von 0,75 erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-75487-1_31 b68b14811be43a7bab247b599eb7624c;de;;;5.2.;;;Zeitlicher Verlauf der Veränderungen des Kokain-Selbstverabreichungsverhaltens bei Ratten während der Immunisierung mit dem Kokain-Impfstoff IPC-1010 Nach einer 6-wöchigen Immunisierungsperiode, bestehend aus drei zweiwöchentlichen Injektionen des Kokain-Impfstoffs IPC-1010, wurde zuvor gezeigt, dass die Wiederaufnahme des Kokain-Selbstverabreichungsverhaltens bei Ratten in Abhängigkeit vom Serumantikörperspiegel reduziert wurde. Die vorliegenden Studien wurden durchgeführt, um zusätzliche Fragen zu untersuchen, die für die klinische Anwendung des Impfstoffs relevant sind.;-;-;-;https://link.springer.com/article/10.1007/s002130000555 f6d3397de0bed0e9bcd92d7ab7fc88af;de;;;5.2.;;;Metabotrope Glutamatrezeptoren der Gruppe III und Drogensucht Neuroadaptationen der glutamatergen Übertragung im limbischen Belohnungskreislauf sind mit einer anhaltenden Drogensucht verbunden. Die zunehmenden Daten haben gezeigt, dass in diesem Fall ionotrope Glutamatrezeptoren und metabotrope Glutamatrezeptoren der Gruppen I und II (mGluRs) eine Rolle spielen. Neue Erkenntnisse identifizieren auch Gαi/o-gekoppelte Gruppe-III-mGluRs (mGluR4/7/8-Subtypen, die im limbischen System angereichert sind) als direkte Substrate von Missbrauchsdrogen und aktive Regulatoren der Arzneimittelwirkung. Auto- und Heterorezeptoren von mGluR4/7/8 befinden sich überwiegend an den Nervenenden der glutamatergen kortikostriatalen bzw. GABAergen striatopallidalen Bahnen. Diese präsynaptischen Rezeptoren regulieren die basale und/oder phasische Freisetzung entsprechender Transmitter, um die Basalganglienhomöostase aufrechtzuerhalten. Als Reaktion auf die operative Verabreichung üblicher Suchtmittel wie Psychostimulanzien (Kokain und Amphetamin), Alkohol und Opiate unterliegen die limbischen mGluRs der Gruppe III drastischen Anpassungen, um zum dauerhaften Umbau erregender Synapsen beizutragen und in der Regel das Drogensuchverhalten zu unterdrücken. Infolgedessen fördert eine Funktionsverlust-Mutation (Knockout) einzelner Gruppe-III-Rezeptor-Subtypen häufig die Arzneimittelsuche. Dieser Review fasst die Daten aus neueren Studien zu drei Gruppe-III-Rezeptor-Subtypen (mGluR4/7/8) zusammen, die in den Basalganglien exprimiert werden, und analysiert ihre Rolle bei der Regulation der Dopamin- und Glutamat-Signalgebung im Striatum und ihre Beteiligung an den suchterzeugenden Eigenschaften von drei Hauptklassen von Drogen (Psychostimulanzien, Alkohol und Opiate).;-;-;-;https://link.springer.com/article/10.1007/s11684-013-0291-1 f527b10d30f0418f8661164be255d936;de;;;4.2.;;;Angst und Abscheu auf Twitter: Untersuchung negativer Rhetorik in Tweets während der Zwischenwahlen 2018 Dieses Kapitel trägt zur Erforschung des strategischen Einsatzes von Emotionen in politischen Kampagnen bei, indem es das Vorhandensein negativer Rhetorik in den Social-Media-Posts von Kongresskandidaten misst. Wir nutzen einen Datensatz von Tweets, die von Kandidaten für das US-Repräsentantenhaus in den letzten zwei Monaten der Zwischenwahlen 2018 veröffentlicht wurden, und verwenden ein wörterbuchbasiertes automatisiertes Textanalyseprogramm, um den Umfang der von den Kandidaten verwendeten negativen Sprache zu schätzen. Unsere Ergebnisse zeigen, dass der Kampagnenkontext die Wahrscheinlichkeit beeinflussen kann, dass Kandidaten in ihren Tweets negative Rhetorik verwenden, ebenso wie Geschlecht und Parteilichkeit. Herausforderer, Wettkämpfer, Verlierer, Frauen und Demokraten verwendeten im Vorfeld des Wahltages 2018 eher ängstliche, traurige und wütende Worte in ihren Tweets.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-19819-0_3 6bc0e271b8a3ef6110e2fd69413ca80a;de;;;4.2.;;;Kinder, Generationenbeziehungen und Generationengerechtigkeit Normalerweise verwendet die Forschung zu sozialer Ungleichheit soziale Merkmale wie Klasse, Geschlecht und Ethnizität, um ähnliche soziale Positionen innerhalb eines hierarchischen Verteilungssystems gesellschaftlicher Ressourcen zu charakterisieren. So findet beispielsweise die Einstufung von Kindern als abhängige Mitglieder von Familienhaushalten weitgehenden Konsens. Im Gegensatz dazu ist es weniger üblich, Alter oder Generation als konstituierendes Merkmal sozialer Ungleichheit zu betrachten. Das bedeutet, dass die sozialmerkmalsbasierte Forschung Kinder als Teil einer kollektiven Einheit aus Erwachsenen (Eltern) und Kindern begreift und nicht selbst als eigenständige Anspruchssteller in Bezug auf gesellschaftliche Ressourcen (z. B. Einkommen). Folglich ist Forschung, die die Position von Kindern im System der ungleichen Ressourcenverteilung aus einer Generationenperspektive analysiert, noch recht selten. In den letzten Jahrzehnten hat sich in der Kindheitsforschung unter dem Label „Neue Sozialstudien der Kindheit“ (Qvortrup et al., 1994) ein makrosoziologischer Ansatz entwickelt. Nach diesem Ansatz sind alle Kinder in einer Gesellschaft Teil der Generationseinheit Kindheit und damit verwandt mit anderen Generationseinheiten wie Erwachsensein und Alter, von denen sie systematisch abgegrenzt werden können. Als Mitglieder der Generationseinheit Kindheit haben sie mit allen anderen Kindern etwas gemeinsam, abgesehen davon, dass unterschiedliche Kindergruppen – zum Beispiel Jungen und Mädchen, Kinder aus ländlichen und städtischen Regionen, Kinder mit unterschiedlichen sozialen Hintergründen usw. – können unterschiedlichen Lebensbedingungen ausgesetzt sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-230-27468-6_13 b646e097075d82d099dd1d3885310456;de;;;4.2.;;;"Streitigkeiten und Rechtsstreitigkeiten Während Vertrauenszweifel erst nach einiger Zeit kulturell verankert wurden, erfolgte die enorme Zunahme der Streitigkeiten über gebrochene Kreditverträge viel unmittelbarer als Folge struktureller Probleme innerhalb der Kreditnetzwerke. Die meisten betrafen die im letzten Kapitel diskutierte einfache Nichtzahlung von Schulden, aber aufgrund der rudimentären Natur der Buchführung gab es auch viele Schnäppchen, die von den Beteiligten unterschiedlich in Erinnerung geblieben waren und auch Zahlungen an Dritte konnten schlecht kommuniziert werden. Auch Geldscheine gingen verloren und Zahlungen wurden vergessen. Streitigkeiten über die Beschaffenheit von Verträgen fanden ebenso statt wie Streitigkeiten über beschädigte oder minderwertige Ware oder über veränderte Umstände durch Mangel, Schiffsverlust oder Kriegseinwirkungen. Der Eisenhändler George Sitwell hat in seinen Briefen oft von solchen Problemen berichtet. Bei einer Gelegenheit antwortete er jemandem, der um die Zahlung einer Schuld von 8 8 s gebeten hatte, und behauptete, er schulde nichts, weil er es bereits an einen Herrn Wright gezahlt habe, und sagte: ""Sie haben mir einige Mühe gemacht, meine Papiere durchzusehen"". , und wenn Sie Ihre Rechnungen besser konsultieren, bezweifle ich, aber Sie werden es richtig finden, dass ich alles bezahlt habe.“ Bei einer anderen Gelegenheit berichtete er, wie er selbst eine Kaution über 100 Pfund verloren und dafür einen Freispruch unterzeichnen musste. Seine Briefe waren voller solcher Probleme, so dass er einmal schrieb: „Wir spielen die Narren grob über unsere Schulden“.";-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-26879-5_9 876e15a581da1ebff4038139d3d2f62f;de;;;4.2.;;;Social Networking Media: Nutzung durch Feldposts In diesem Kapitel wird beschrieben, wie Social-Networking-Medien derzeit genutzt werden, um die öffentliche Diplomatie bei amerikanischen Auslandsvertretungen voranzutreiben. Im folgenden Kapitel werden deren Vorteile sowie die Kosten und Einschränkungen analysiert, die solche Kanäle für die Praxis der Public Diplomacy darstellen.;-;-;-;https://link.springer.com/chapter/10.1057/9781137444158_7 b04479ae453fac9957cb938c4475cb11;de;;;4.2.;;;Internationale geschlechtsspezifische Unterschiede und Lücken in sozialen Online-Netzwerken Artikel 1 der Charta der Vereinten Nationen fordert „Menschenrechte“ und „Grundfreiheiten“ „ohne Unterschied des Geschlechts“. Doch 1995 kam der Bericht über die menschliche Entwicklung zu dem ernüchternden Ergebnis, dass „Frauen in keiner Gesellschaft die gleichen Chancen haben wie Männer“. Heute sind geschlechtsspezifische Unterschiede nach wie vor ein globales Problem, und ihre Beseitigung hat für Organisationen wie den Bevölkerungsfonds der Vereinten Nationen höchste Priorität. Um Fortschritte in dieser Angelegenheit zu verfolgen und die Auswirkungen neuer Richtlinien zu beobachten, veröffentlicht das Weltwirtschaftsforum jährlich seinen Global Gender Gap Report. Dieser Bericht basiert auf einer Reihe von Offline-Variablen wie dem Verhältnis des Erwerbseinkommens von Frauen zu Männern oder dem Anteil von Frauen in Führungspositionen in den letzten 50 Jahren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13734-6_9 691e70496fb45e3a1faca6a77c055d5f;de;;;5.2.;;;Einzelne Bitmap Block Trunkation Codierung von Farbbildern mit Cat Swarm Optimization In diesem Kapitel wird eine neuartige Farbbildkompressionstechnik vorgeschlagen, die auf Block Truncation Coding (BTC) mit Cat Swarm Optimization (CSO) basiert. Das ursprüngliche BTC-Verfahren komprimiert einen Block eines Graustufenbildes in eine Bitmap und ein Paar Quantisierungszahlen. Für ein Farbbild, das mit R-, G- und B-Kanälen codiert ist, verbessert das BTC-Verfahren die Komprimierungsrate unter Verwendung einer gemeinsamen Bitmap anstelle von drei natürlich gebildeten Bitmaps. Aufgrund ihrer Komplexität ist es jedoch schwierig, eine effiziente gemeinsame Bitmap zu finden. Der CSO-Algorithmus wird durch Modellieren des Verhaltens von Katzen generiert, die beim Erreichen des Ziels, die beste Lösung zu finden, eine bessere Leistung zeigen als andere Optimierungsalgorithmen. In diesem Kapitel verwenden wir Cat Swarm Optimization (CSO), um nach einer nahezu optimalen Lösung für dieses Problem zu suchen. Die experimentellen Ergebnisse zeigen, dass das vorgeschlagene Verfahren die dekomprimierte BTC-Farbbildqualität verbessern könnte, indem eine nahezu optimale Lösung der gemeinsamen Bitmap erhalten wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28580-6_6 98b2c33f94df2385897bdca882810bb7;de;;;4.2.;;;Die Korrelate der Haushaltsverschuldung im späten Leben Das Kapitel ist motiviert durch den Anstieg der Haushaltsverschuldung in den letzten Jahrzehnten in Israel, wie in den meisten wirtschaftlich entwickelten Gesellschaften. Dieses Phänomen, das durch die allgegenwärtige Konsumkultur und die zunehmende Kreditnutzung beflügelt wird, zeigt sich sowohl bei der alternden Bevölkerung als auch bei jüngeren Kohorten. Studenten der Konsumgesellschaft haben die schnell wachsende Kreditnutzung im Alter auf eine höhere Lebenserwartung und die größere Bedeutung, die ältere Menschen auf materiellen Komfort und Freizeitaktivitäten im Vergleich zu früheren Generationen legen, zurückgeführt. Der theoretische Rahmen für dieses Kapitel baut auf zwei zentralen Konzepten der sozialen Schichtung auf: Konsum und Risiko. Wir argumentieren, dass die Konsumgesellschaft und ihre institutionelle Struktur wichtige Triebkräfte hinter dem Phänomen der Haushaltsverschuldung und ihrer „Normalisierung“ sind. Während Schulden alltäglich geworden sind, bergen die Wechselfälle des späten Lebens (z. B. Krankheit und Einkommenseinbußen) neue Risiken und Belastungen, die in einigen Fällen zum wirtschaftlichen Ruin führen können.;-;-;-;https://link.springer.com/chapter/10.1057/9781137544810_2 beeb0e13e56ff2d3e43e6d4897e427d8;de;;;4.2.;;;Simulation nachhaltiger Stadtentwicklung durch Einbeziehung sozial-ökologischer Risiken in ein eingeschränktes CA-Modell Eine Schlüssellösung für urbane und globale Nachhaltigkeit ist die effektive Planung einer nachhaltigen Stadtentwicklung, für die Geotechniken, insbesondere zelluläre Automaten (CA)-Modelle sehr aufschlussreich sein können. Bestehende CA-Modelle zur Simulation nachhaltiger Stadtentwicklung erfassen jedoch hauptsächlich den Umweltaspekt der Nachhaltigkeit, obwohl sie zunehmend in der Modellierung des Stadtwachstums verfeinert werden. In dieser Studie wurde ein anpassungsfähiges risikobeschränktes CA-Modell unter Einbeziehung der sozial-ökologischen Risiken der Stadtentwicklung entwickelt. Es wurde ein dreidimensionaler Risikobewertungsrahmen vorgeschlagen, der die Umweltbeschränkungen, die Systemresistenz und die möglichen Auswirkungen der Stadtentwicklung explizit berücksichtigt. Das risikobeschränkte Modell wurde dann auf eine Fallstudie des Kreises Sheyang, Provinz Jiangsu im Osten Chinas, angewendet. Es wurden vergleichende Simulationen der Stadtentwicklung in vier gegensätzlichen Szenarien durchgeführt, nämlich dem Szenario mit eingeschränkter Umweltverträglichkeit, dem Szenario mit eingeschränktem ökologischen Risiko, dem Szenario mit eingeschränktem sozialen Risiko und dem integrierten sozial-ökologischen eingeschränkten Szenario. Die Simulationen legten nahe, dass die alleinige Betrachtung der Umweltverträglichkeit in der CA-Simulation der Stadtentwicklung das Potenzial eines nachhaltigen Stadtwachstums überschätzte und dass sich der Urbanisierungsmodus von einer Stadterweiterung, die stärker durch soziale Risiken eingeschränkt war, zu einem Stadtwachstum änderte, das stärker durch ökologische Risiken eingeschränkt war. Unser risikobeschränktes CA-Modell kann eine nachhaltige Stadtentwicklung besser simulieren, zusätzlich geben wir Anregungen zur nachhaltigen Stadtentwicklung in Sheyang und zur zukünftigen Modellentwicklung.;-;-;-;https://link.springer.com/article/10.1007/s11769-018-0977-z e8b30aebc1313f0245c831f1f0425465;de;;;5.2.;;;Ein agentenbasiertes Framework zur Abschätzung der Kosten einer verbindlichen Suche in Liefernetzwerken Die verbreitete Annahme unbegrenzter Rationalität übersieht die Tatsache, dass Entscheidungsträger Überzeugungen haben, die ihre Entscheidungen beeinflussen, und dass die Suche nach Vereinbarungen zwischen Akteuren mit widersprüchlichen Interessen an sich ein kostspieliger Prozess ist. Folglich werden die tatsächlichen Verhandlungskosten in der Optimierungsliteratur selten berücksichtigt. Das Ziel dieses Beitrags ist es, zur Entwicklung von Entscheidungsmethoden beizutragen, die zwischen den Kosten der intraagenten (deliberativen) und interagenten (verbindlichen) Suche nach Informationen unterscheiden, indem ein Verhaltensmodell verwendet wird, das durch die Optimierung des Gewinns von Cobb-Douglas-Produktionsfunktion. Wir schlagen und testen ein Rechenmodell von mietsuchenden, feilschenden Agenten zur expliziten Bewertung der Kosten einer Zwangsvollstreckung. Simulationsexperimente zeigen, dass der strategische Wert guter anfänglicher Preisschätzungen höher ist, wenn diese Schätzungen den tatsächlichen Gleichgewichtspreisen sehr nahe kommen, und dass Einigungen durch egoistischere Akteure schneller erzielt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13553-8_3 306bed29fab4881b7ec794df8b78730d;de;;;4.2.;;;Polyzentrische Governance Dieses Kapitel untersucht die Relevanz polyzentrischer Governance – ein Ansatz, bei dem mehrere, physisch benachbarte Rechtsordnungen Regeln und Richtlinien zur Lösung gemeinsamer Probleme aushandeln – für das Management von konvergierendem Wissen, Technologien und Gesellschaft (CKTS). Wir verfolgen die Ursprünge des Konzepts, seine Vorteile und Herausforderungen und wie diese überwunden werden können. Durch die Bereitstellung von Mitteln für innovative und improvisierte Zusammenarbeit, mehrere Zugangspunkte zur Überwachung von Problemen und Reduzierung von Risiken sowie integrative Entscheidungsfindungsansätze bietet polyzentrische Governance einen wertvollen Rahmen für das CKTS-Management. Die traditionelle Arbeitsteilung zwischen den intellektuellen Disziplinen – sowie andere Hindernisse – erfordern jedoch Anpassungen, um gemeinsame Ansätze in der intellektuellen Arbeit, verbesserte Kommunikationsmöglichkeiten zwischen den Akteuren und das Erreichen gemeinsamer, kollektiver Ziele zu ermöglichen, von denen große Gruppen von Mitarbeitern profitieren und der Gesellschaft als Ganzes – im Gegensatz zur bloßen Befriedigung der Bedürfnisse einzelner CKTS-Unternehmer oder Ermittler.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-319-07052-0_71 e6dc4cc36e2538bdf2a9073ee4257182;de;;;4.2.;;;IM-TAG: Informelles Mentoring durch Tagging von Social Web Contents verbessert Unternehmen stehen vor einer Ära, in der Humankapital für ihre Nachhaltigkeit entscheidend ist. In einem solchen Szenario ist die Personalentwicklung sowohl für Personal als auch für Organisationen entscheidend. Andererseits ist die Bedeutung des Social Web für Unternehmen in Bezug auf Wissensmanagement und Informationsaustausch unbestritten. In diesem Beitrag wird IM-TAG vorgestellt, ein Tool zur Nutzung von Web 2.0-Inhalten in informellen Mentoring-Prozessen. Dieses Tool basiert auf der Verarbeitung des semantischen Taggings von Blog-Inhalten sowie des Meinungs-Taggings von Nutzern. Das Ergebnis des Prozesses sind Empfehlungen von Mentoring-Inhalten, die auf persönlichen Merkmalen des Mentees aufbauen, kombiniert mit Content- und Opinion-Tagging.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35879-1_20 b3a3f07e2c7c0ae45832baa6939cc43b;de;;;4.2.;;;Partizipation, Leistung und Förderung von Frauen in Wissenschaft und Technik: Worum geht es und warum Unter Verwendung mehrstufiger Methoden, die in dieser Forschung zur Kodierung/Analyse von Interviewdaten entwickelt wurden, schildert dieser Artikel die von Frauen berichteten Erfahrungen mit Teilnahme, Leistung und Fortschritt in akademischen Wissenschaften und Ingenieurwissenschaften in einer großen technologischen Institution. Die Methoden und Ergebnisse haben Auswirkungen auf das Verständnis der Komplexität, die der Partizipation und Leistung von Frauen zugrunde liegt, sowie auf Praktiken und Strategien zur Förderung von Frauendozenten, insbesondere an Forschungsuniversitäten.;-;-;-;https://link.springer.com/article/10.1007/s10961-006-7209-x 3c83e9e39d92a08101f587d82d0207de;de;;;4.2.;;;Neue Methode zur Auswahl von Exemplarmerkmalen mit redundanten Merkmalen für biologische Daten Biologische Datenbanken zeichnen sich durch eine sehr große Anzahl von Merkmalen und wenigen Instanzen aus, die eine Klassifizierung erschweren und zeitaufwändig machen. Dieses Problem kann mit einem Merkmalsauswahlansatz gelöst werden. Die Auswahlmethode Filter-Feature ordnet Features nach ihrem Signifikanzniveau. Dann wählt es die wichtigsten Merkmale aus und verwirft den Rest. Die verworfenen Merkmale können einige nützliche Informationen liefern und könnten für weitere Überlegungen nützlich sein. Daher schlagen wir eine neue Methode zur Merkmalsauswahl vor, die diese eliminierten Merkmale verwendet, um die Klassifikationsleistung zu erhöhen und den Fluch der Dimensionalität zu vermeiden. Der neue Ansatz basiert auf der Idee, den Wert ähnlicher Features in neue Instanzen für die beibehaltenen Features zu transformieren. Unser Ziel ist es, den Funktionsraum zu reduzieren, indem wir eine Funktionsauswahl durchführen und den Lernraum beim Erstellen neuer Instanzen mit den redundanten Funktionen vergrößern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-32859-1_34 7576558ba839b72f395aea00338dceb7;de;;;4.2.;;;Puffer der Ablehnung durch Gleichaltrige bei Mädchen mit und ohne ADHS: Die Rolle der Popularität bei Erwachsenen und zielgerichtetem Einzelspiel Wir untersuchten ein Risiko-Resilienz-Modell bei 91 Mädchen mit ADHS und 58 alters- und ethnisch gleichgestellten Vergleichsmädchen, die an naturwissenschaftlichen Sommerforschungscamps für Frauen teilnahmen. Der hypothetische Risikofaktor war die Ablehnung durch Gleichaltrige (bewertet anhand soziometrischer Nominierungen), mit Kriterienmaßen, die multiinformante Kombinationen von aggressivem Verhalten und ängstlichen/depressiven Symptomen umfassten. Die beiden hypothetischen Schutzfaktoren waren die Popularität der Mädchen bei erwachsenen Mitarbeitern (bewertet über die Mitarbeiterbewertungen) und objektive Beobachtungen des zielgerichteten Einzelspiels. Die Ablehnung durch Gleichaltrige war mit einem höheren Maß an aggressivem Verhalten und depressivem/ängstlichen Verhalten verbunden, was seinen Status als Risikofaktor bestätigte. Als nächstes prognostizierte für alle Mädchen die Popularität bei Erwachsenen ein geringeres Maß an Aggression und zielgerichtetes Einzelspiel ein geringeres Maß an Angst/Depression. Während die Popularität bei Erwachsenen in der von Gleichaltrigen akzeptierten Untergruppe am meisten schützend war, war das Einzelspiel in der Untergruppe der Gleichaltrigen am meisten schützend. Der diagnostische Status (ADHS versus Vergleich) moderierte die Ergebnisse, so dass die Teilnahme an sinnvollen Einzelspielen ein stärkerer Prädiktor für ein geringeres Ausmaß an ängstlichen/depressiven Verhalten bei Mädchen mit ADHS war als bei Vergleichsmädchen. Wir diskutieren die Notwendigkeit der Replikation in der prospektiven Forschung und die Implikationen für Forschung und Intervention in Bezug auf das soziale Funktionieren von Kindern, die von Gleichaltrigen abgelehnt wurden, insbesondere solchen mit Verhaltensstörungen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1023839517978 5cea2b8b4db684c09d291132b759f0fa;de;;;4.2.;;;Methoden der visuellen Soziologie In diesem Kapitel besprechen wir eine Auswahl von Methoden, praktischen Fragen und Techniken, die von visuellen Soziologen verwendet wurden. Indem wir traditionelle Methoden in den Vordergrund stellen, die von einer produktiven Generation visueller Soziologen und visueller Kulturtheoretiker entwickelt wurden, bauen wir mit und vor allem auf diesen Ideen auf, um die Grundlage einer visuellen Soziologie zu bilden, die sich der neuen hyper-visuellen Welt, an der wir teilhaben, bewusst ist. Wir bieten eine Synthese der Entwicklungen der visuellen Methodik und fassen Techniken zur Bildanalyse und Ethik der visuellen Forschung zusammen. Das Kapitel endet mit einer Vignette zum Umgang mit Big Data in der visuellen Forschung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-54510-9_2 7a1abd84e65375e797c10271d4a0382d;de;;;4.2.;;;Soziale Netzwerke und berufliche Entwicklung von Lehrern Können Lehrkräfte technische Hilfsmittel nutzen, um ihre berufliche Entwicklung informell zu fördern? Einerseits erkennen wir den Nutzen von 2.0-Werkzeugen für das Lehren und Lernen an – verbinden, kommunizieren, teilen und kollaborieren, die Säulen der Wissensentwicklung in der globalen Gesellschaft. Auf der anderen Seite stehen Lehrkräfte als Pädagogen und Fachkräfte in der globalen Gesellschaft des 21. Jahrhunderts vor neuen Herausforderungen. Dies ist die zugrunde liegende Forschungsfrage zweier gemeinsamer Untersuchungen – einer Umfrage und einer Fallstudie –, die untersuchen sollen, inwieweit professionelle Netzwerke als informelle Lernumgebungen zum Wachstum von Lehrkräften beitragen können. Mit der Umfrage soll untersucht werden, ob die wahrgenommenen digitalen Fähigkeiten von Lehrkräften ihre Teilnahme an professionellen Online-Netzwerken beeinflussen, sowie die Bedeutung, die Lehrkräfte diesen Gemeinschaften für ihre berufliche Entwicklung beimessen, und die von ihnen wahrgenommenen Auswirkungen. Die Fallstudie analysiert ein Online-Lehrernetzwerk und untersucht die Gründe und Motivationen, die Lehrer dazu bewegen, der Gemeinschaft anzugehören, sowie die etablierten Interaktionen. Die gesammelten Daten werden zu einem besseren Verständnis des Potenzials beruflicher Netzwerke im lebenslangen Lernen für Lehrkräfte beitragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35879-1_13 15a83d84e7cda8efd1e6f1292e1ecc34;de;;;4.2.;;;Die sequentielle Kokonstruktion des gemeinsamen Problemraums Theorien des kollaborativen Lernens haben die zentrale Rolle des gemeinsamen Problemraums bei der Koordination der Arbeit und der Etablierung intersubjektiver Verständigung identifiziert. Das Konzept des Problemraums entstand in der informationsverarbeitenden Perspektive als Charakterisierung individueller Problemlösungsaktivitäten. Es wurde dann innerhalb der Lernwissenschaften umformuliert und erweitert. Basierend auf einer detaillierten Analyse der anhaltenden online kollaborativen Problemlösungsaktivität einer kleinen Gruppe von Studierenden über mehrere Sitzungen hinweg schlagen wir vor, die Theorie des gemeinsamen Problemraums nun weiter auszubauen. Neben den in den Lernwissenschaften zunehmend anerkannten Dimensionen der sozialen Beziehungen und Domäneninhalte plädieren wir für die Salienz der zeitlichen Dimension. Unsere Analyse zeigt, dass der gemeinsame Problemraum an der Gruppenanalyseeinheit durch die zeitliche und sequentielle Orientierung zur intersubjektiven Bedeutungsbildung mitkonstruiert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-0228-3_6 b4a15a4452a38b513533ff0b54d20791;de;;;5.2.;;;Kraft-Pareto-Fitness-Zuweisung zum Generieren von Erweiterungsfunktionen Aufgrund der zunehmenden Verwendung von mehrdeutigen und ungenauen Wörtern, um das Informationsbedürfnis des Benutzers auszudrücken, ist es notwendig geworden, die ursprüngliche Abfrage um zusätzliche Begriffe zu erweitern, die die tatsächliche Benutzerabsicht am besten erfassen. Die Auswahl der geeigneten Wörter, die als zusätzliche Begriffe verwendet werden sollen, hängt hauptsächlich vom Grad der Verwandtschaft zwischen einem Kandidatenerweiterungsbegriff und den Abfragebegriffen ab. In diesem Beitrag schlagen wir zwei Kriterien vor, um den Verwandtschaftsgrad zu beurteilen: (1) ordnen Begriffen, die in der größtmöglichen Anzahl von Dokumenten vorkommen, in denen die Suchschlüsselwörter vorkommen, mehr Bedeutung zu, (2) ordnen Sie Begriffen mit geringem Abstand mit more mehr Bedeutung zu die Abfragebegriffe in Dokumenten. Um beide Kriterien gleichzeitig zu erfüllen, verwenden wir die Kraft-Pareto-Fitness-Zuordnung. Unsere Computerexperimente zur OHSUMED-Testsammlung zeigen, dass unser Ansatz die Abrufleistung im Vergleich zum Ausgangswert signifikant verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16486-1_13 96ae2087e43bf4e9aa16bffdd882ffd3;de;;;4.2.;;;Governing Metropolitan Lissabon: Eine Geschichte fragmentierter Stadtverwaltung Dieser Artikel befasst sich mit der Natur des gegenwärtigen Governance-Rahmens in der Metropolregion Lissabon und mit den Bedingungen, die für das Fehlen einer kohärenten zwischenstaatlichen und ebenenübergreifenden Koordinierung verantwortlich sind. Es zeigt, wie sich Lissabon, wo erst 1991 eine Form der Metropolregion eingeführt wurde, von anderen europäischen Städten unterscheidet, aber gleichzeitig auch in Bezug auf die Grenzen des assoziativen oder (polyzentrischen) Modells ähnlich ist. Der Artikel schließt mit der Diskussion alternativer Szenarien für die Reform der Metropolregierung sowie der institutionellen und politischen Herausforderungen, denen sich die Metropolregion Lissabon gegenübersieht.;-;-;-;https://link.springer.com/article/10.1023/B%3AGEJO.0000006567.09464.56 18d8526073393eac12150e06b1f2ab24;de;;;5.2.;;;Profilanalyse mit dem NEO PI-R Die fünf Domänenbewertungen und 30 Facettenskalen im NEO PI-R bieten eine enorme Menge an Informationen über einen Kunden, die für den Anfänger von NEO PI-R überwältigend erscheinen können. Es kann schwierig sein, die Namen der Tonleitern griffbereit zu haben, und es ist noch schwieriger, sich an die Bedeutung jeder Tonleiter zu erinnern. Es ist immer empfehlenswert, diese Terminologie so häufig wie möglich zu verwenden, nicht nur bei der Interpretation eines Profils. Die Sprache des NEO PI-R ist nützlich, um die Motivationen von Menschen zu konzeptualisieren, und Sie sollten versuchen, diese Bezeichnungen zu verwenden, um das Verhalten anderer zu beschreiben. Je mehr Sie die Terminologie verwenden, desto geschickter werden Sie darin, sich an die Konstrukte zu erinnern und sie zu verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-3588-5_4 4a7a2a7d04ecf148cd9b423984f9509b;de;;;5.2.;;;Analyse sozialer Kompetenzen: Der Ansatz der Verhaltensanalyse Die Ideen und die Arbeit, die ich hier beschreiben werde, haben ihre Anfänge in der damaligen British Overseas Airways Corporation, etwa Ende 1968. Ich werde also versuchen, 10 Jahre ziemlich intensiven Denkens, Forschens und Entwickelns in Kürze zusammenzufassen Spanne dieses Papiers. Ich kann nur hoffen, einige der grundlegenden Konzepte zu skizzieren, die wir entwickelt haben, und eine sehr selektive Darstellung einiger Anwendungen der Konzepte zu geben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-3623-5_6 7e51f3cd88198bd09b056cad384e643e;de;;;4.2.;;;Vielfalt freiwilliger geografischer Informationen: Vergleich von OpenStreetMap und Wikimapia in Jerusalem Während der Begriff „freiwillige geografische Informationen“ (VGI) in der Debatte um Geoweb, Online-Kartografie und digitale Geoinformationen zu einem Modewort geworden ist, bleiben Umfang und Reichweite von VGI noch zu wenig erforscht. Anhand von Literatur zu sozialen Implikationen von VGI untersucht dieser Artikel zunächst die Unterschiede zwischen VGI-Initiativen am Beispiel einer vergleichenden Fallstudie zu sozialen Verzerrungen in Daten von OSM und Wikimapia im fragmentierten sozialen Umfeld von Jerusalem, Israel. Die Ergebnisse dieser Analyse stellen sich zwischen beiden Projekten als sehr widersprüchlich heraus, was weithin akzeptierte Annahmen über die Prägung sozialer Ungleichheiten und digitaler Kluften auf VGI in Frage stellt. Diese Beobachtung leitet zweitens eine Diskussion über Diversität innerhalb der Kategorie VGI. Mit der Argumentation, dass die Kartierungsgemeinschaften, Datenformate und Wissenstypen hinter VGI äußerst unterschiedlich seien, stellt der Beitrag die Konsistenz und Nützlichkeit von VGI als Kategorie in Frage. Auf der Suche nach einer umfassenderen Typologie von VGI wird Edneys Konzept kartografischer Modi als Ansatz für ein kontextualisierteres Verständnis von VGI-Projekten präsentiert, indem die zugrunde liegenden kulturellen, sozialen und technischen Beziehungen berücksichtigt werden. Folglich schlägt der Beitrag empirische Forschung zu den kartographischen Modi einer breiten Reihe von VGI-Projekten mit qualitativen und quantitativen Methoden vor.;-;-;-;https://link.springer.com/article/10.1007/s10708-016-9721-3 1a447846d749832855eacc9fb8b38502;de;;;4.2.;;;Individuelle Rechte und Gemeinschaftspflichten Hockings allgemeine Theorie der politischen Gemeinschaft hält Freiheit und Gemeinschaft in Spannung. Der Zweck der politischen Ordnung besteht darin, die Möglichkeiten ihrer Mitglieder zu entwickeln, und das zur Erreichung dieses Ziels und zur Lösung sozialer Probleme erforderliche gemeinsame politische Handeln erfordert die souveräne Durchsetzung der politischen Experimente der Gemeinschaft. Die politische Gemeinschaft muss aktiv und ihre Gesetze verbindlich sein, aber politische Institutionen müssen Grenzen haben, wenn die Freiheit gewahrt werden soll. Wegen dieser Spannung kommt Hocking um die Menschenrechtsfrage nicht herum. Es muss einen Maßstab geben, nach dem Einzelpersonen beurteilen können, ob der Staat über seine Grenzen hinaus handelt, aber es muss einen Maßstab geben, der die politische Beteiligung und die Erfüllung politischer Pflichten fördert, nicht den Rückzug. Eine angemessene Auffassung von Rechten schützt die Freiheit bei gleichzeitiger Wahrung der sozialen Einheit und des gemeinsamen politischen Handelns. Hocking entwickelt eine solche Menschenrechtstheorie. Sie gründet in seinem Konzept der ethischen Pflicht und in seiner Theorie der menschlichen Natur und Entwicklung.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-2798-4_5 4934b0ba86132117253d3bf35d62efca;de;;;4.2.;;;Zur Validität politik- und sozialwissenschaftlicher Laborforschung am Beispiel von Kriminalität und Bestrafung Kriminalitätsbekämpfungsmaßnahmen konzentrieren sich häufig auf umfassendere Kriminalitätskontrollsysteme und strengere Strafen (Foucault, 1977, Garland, 2001). Beispiele sind die „Null-Toleranz“-Politik oder das Programm „Three Strikes and you’re out“ (Cohen, 1985, Dreher und Feltes, 1997, Austin et al., 1999, Zimring, 2001, Hudson, 2002).;-;-;-;https://link.springer.com/chapter/10.1057/9781137016645_10 584bc82868b87396c281efdf2c49e1bc;de;;;4.2.;;;„Dornröschen“: Unternehmenskultur, Rasse und Realität in Michael Crichtons In den vorangegangenen Kapiteln habe ich die Entwicklung der Soft-Management-Theorie von der Entstehung menschlicher Beziehungen als Reaktion auf den Taylorismus bis hin zu Abraham Maslows Arbeit über Selbstverwirklichung und Synergie verfolgt. Ich habe untersucht, wie eine Reihe von Schriftstellern und Filmemachern diese Theorien und ihre Umsetzung am Arbeitsplatz als Anlass bedeutender Veränderungen der geschlechtsspezifischen Bedeutung von Arbeit in Amerika präsentiert haben – Veränderungen, bei denen männliche Arbeitnehmer als emotionale Verbraucher und weibliche Arbeitnehmer umgestaltet werden, die sich dem verpflichtet fühlen eine Workaholic-Art der Selbstverwirklichung im Gewand des liberalen Feminismus. Im vorigen Kapitel habe ich begonnen, die Umrisse der Unternehmenskultur zu skizzieren, der Schule der Managementtheorie, die sich in den 1980er Jahren durchsetzte und sowohl auf den psychologischen Erkenntnissen menschlicher Beziehungen als auch auf der Betonung von Synergie und persönlichem Wachstum im Selbstdiskurs aufbaute -aktualisierung. Der Rest dieses Buches untersucht Darstellungen der Auswirkungen der Unternehmenskultur auf die amerikanische Arbeit und betrachtet insbesondere, wie die Weichheit dieses Diskurses sowohl als feminisierender als auch rassisierender Einfluss auf die amerikanische Arbeit und Arbeiter dargestellt wurde.;-;-;-;https://link.springer.com/chapter/10.1057/9780230617919_6 ab2163ff1e4940c327d238f8dfac8af1;de;;;4.2.;;;Soziale Entscheidungen und Fairness ändern sich, wenn die Interessen der Menschen von autonomen Akteuren vertreten werden Das Interesse an Agenten, die die Interessen von Menschen vertreten oder in deren Namen handeln, wie automatisierte Verhandlungsführer, selbstfahrende Autos oder Drohnen, wächst. Auch wenn Menschen über diese oft mit anderen interagieren interact;-;-;-;https://link.springer.com/article/10.1007/s10458-017-9376-6 eee36cb41a6f6769888d4201c7576b10;de;;;4.2.;;;Muster in sozialen Netzwerken mit Graph-Matching-Algorithmen entdecken Social-Media-Daten können durch gerichtete Grafiken dargestellt werden. Ein Knoten repräsentiert eine Entität im sozialen Netzwerk wie eine Person, eine Organisation, einen Standort oder ein Ereignis. Eine Verbindung zwischen zwei Knoten repräsentiert eine Beziehung wie Kommunikation, Beteiligung oder finanzielle Unterstützung. Wenn sie in einer Datenbank gespeichert sind, können diese Graphen durchsucht und auf das Vorkommen verschiedener Untergraphenmuster von Knoten und Verbindungen analysiert werden. Dieses Papier beschreibt eine interaktive visuelle Schnittstelle zum Konstruieren von Teilgraphmustern, die als Graph Matching Toolkit (GMT) bezeichnet wird. GMT sucht mit dem TruST-Graph-Matching-Algorithmus (Trunkated Search Tree) nach Unterdiagrammmustern. GMT ermöglicht es einem Analysten, ein Unterdiagrammmuster zu zeichnen und Knoten und Links mithilfe einer Maus und Dropdown-Menüs Beschriftungen zuzuweisen. GMT führt dann den TruST-Algorithmus aus, um Vorkommen von Untergraphenmustern innerhalb des gerichteten Graphen zu finden. Es werden vorläufige Ergebnisse unter Verwendung von GMT zur Analyse einer simulierten Sammlung von Textnachrichten mit einer terroristischen Verschwörung berichtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37210-0_37 b9162dd7ea19aed5db0dfecc24927dfe;de;;;4.2.;;;Die Auswirkungen von Ethnizität und Akkulturation auf die Jugendkriminalität Wir untersuchten den Einfluss von Ethnizität und Akkulturationsstatus auf den Zusammenhang zwischen elterlicher Überwachung, Anfälligkeit für antisozialen Gruppenzwang und Delinquenz. Die Stichprobe bestand hauptsächlich aus kaukasischen (63%) und mexikanisch-amerikanischen (24%) frühen Jugendlichen. Von 1021 Sechst- und Siebtklässlern wurden Selbstberichtsdaten erhoben, die gleichmäßig nach Geschlecht aufgeteilt wurden (Durchschnittsalter = 12,7 Jahre). Die mexikanisch-amerikanischen Jugendlichen wurden in eine von drei Akkulturationsgruppen eingeteilt: (a) akkulturiert, (b) freiwillig nicht akkulturiert und (c) neue Einwanderer. Akkulturierte mexikanisch-amerikanische frühe Heranwachsende berichteten über signifikant mehr delinquente Verhaltensweisen als die kaukasischen, nicht akkulturierten und jungen Einwanderer. Jüngere junge Einwanderer berichteten von mehr elterlicher Überwachung als die akkulturierten mexikanisch-amerikanischen frühen Jugendlichen. Das Ausmaß der wahrgenommenen Anfälligkeit für antisozialen Gruppenzwang unterschied sich nicht zwischen ethnischen Gruppen oder Akkulturationsgruppen. Regressionsanalysen zeigten, dass der Zusammenhang zwischen elterlicher Überwachung und Delinquenz bei allen Gruppen unabhängig von ethnischer Zugehörigkeit oder Akkulturationsgrad durch die Anfälligkeit für antisozialen Gruppenzwang vermittelt wurde. Die Ergebnisse unterstreichen die Bedeutung von: (a) der Untersuchung des Akkulturationsniveaus bei der Stichprobenziehung ethnisch vielfältiger Bevölkerungen und (b) dem Vergleich globaler Durchschnittsniveauunterschiede und spezifischer Beziehungen zwischen unabhängigen Variablen.;-;-;-;https://link.springer.com/article/10.1007/BF02233955 cd3a723f608534ea9421e3e57be20e07;de;;;4.2.;;;PRIOR-WK&E: Soziale Software für die Politikgestaltung in der Wissensgesellschaft In diesem Papier wird eine Social-Software-Anwendung vorgestellt, die als PRIOR-WK&E bezeichnet wird. Es wurde von der Zaragoza Multicriteria Decision Making Group (GDMZ) mit dem Ziel entwickelt, auf die Herausforderungen der Politikgestaltung in der Wissensgesellschaft zu reagieren. PRIOR, das kollaborative Werkzeug der Forschungsgruppe (GDMZ) zur Betrachtung der multikriteriellen Auswahl eines diskreten Sets von Alternativen, wurde um drei spezifische Module erweitert. Das erste Modul (W), das sich mit der Entscheidungsfindung durch das Web mit mehreren Akteuren befasst, und das zweite (K), das die Extraktion und Verbreitung von Wissen im Zusammenhang mit der wissenschaftlichen Lösung des Problems betrifft, wurden in [1] erläutert. Die neue Anwendung stärkt die Verbriefung und enthält ein drittes Modul (E), das die Wirksamkeit der Politikgestaltung der öffentlichen Verwaltungen bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16318-0_16 7f44a31d6e21a2d8f7e34658a320bbe2;de;;;4.2.;;;Die Ethik der Online-Forensik in sozialen Netzwerken Soziale Online-Netzwerke (OLSNs) sind elektronisch basierte soziale Milieus, in denen sich Einzelpersonen virtuell versammeln, um Kontakte zu knüpfen. Das Verhalten und die Merkmale dieser Netzwerke können relevante Beweise für die Aufdeckung und Verfolgung von Richtlinienverstößen, Verbrechen, terroristischen Aktivitäten, subversiven politischen Bewegungen usw. liefern. Einige vorhandene forensische Methoden und Instrumente sind für solche Ermittlungen nützlich. Darüber hinaus entwickeln Forensiker neue Methoden und Werkzeuge speziell für die Untersuchung und Untersuchung sozialer Online-Netzwerke. Während die Persönlichkeitsrechte des Einzelnen weitgehend respektiert werden, sind die Persönlichkeitsrechte sozialer Gruppen weniger ausgeprägt. Bei der aktuellen Entwicklung von OLSNs und Computerforensik kann die Gefährdung der Privatsphäre von Gruppen zu einer Verletzung der Privatsphäre des Einzelnen führen. Dieser Artikel untersucht die Ethik in Bezug auf forensische Untersuchungen von sozialen Online-Netzwerken. Wie bei der Privatsphäre des Einzelnen bestehen auch in der Privatsphäre sozialer Gruppen ethische Spannungen zwischen den Persönlichkeitsrechten, die den Mitgliedern gewährt werden können, und den Rechten von Institutionen, Verschwörungen zu Subversion, Verbrechen, Diskriminierung usw.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-45408-5_9 57dee180d9ab578c9c37dea60873eca1;de;;;4.2.;;;Lang- und kurzfristige Armut: Ist Deutschland eine Zweidrittelgesellschaft? Sozialwissenschaftler und Medienkommentatoren haben ihre Besorgnis darüber geäußert, dass westliche Länder zu „Zwei-Drittel-Gesellschaften“ werden, in denen zwei Drittel die Vorteile des Wohlstands genießen, während ein Drittel in Armut oder Beinahe-Armut gefangen ist. Dieses Papier, basierend auf volkswirtschaftlichen Paneldaten, testet die Zwei-Drittel-Gesellschafts-Hypothese im Fall von (West-)Deutschland 1984–89. Das wichtigste Ergebnis ist, dass Armut (definiert als Einkommen von weniger als der Hälfte des durchschnittlichen Haushaltseinkommens) meist kurzfristig ist und nur ein Drittel von Armut betroffen ist. Andererseits sind weit mehr Menschen als bisher angenommen von Armut bedroht. 1984-89 waren nur 3 % jedes Jahr arm, aber etwa 25 % waren in mindestens einem Jahr arm. Deutschland scheint eine 75-15-10-Gesellschaft zu sein: 75 % nicht arm, 15 % gelegentlich arm, aber mit im Allgemeinen angemessenen Einkommen und 10 % häufig arm oder fast arm mit Einkommen, das als unzureichend angesehen werden kann. Die Analyse basiert auf dem Sozio-oekonomischen Panel (SOEP) und bezieht sich auf die 8.000 Personen, die von 1984 bis 1989 jährlich befragt wurden.;-;-;-;https://link.springer.com/article/10.1007/BF01086511 762e5bffb7cbe33f705dd03bb09c06db;de;;;4.2.;;;Die Konventionsmethode: Ein institutionelles Instrument zur Konsensbildung Die „Konvention zur Zukunft Europas“ versammelte 105 Vollmitglieder und 102 Stellvertreter sowie Beobachter und eine Vielzahl externer Akteure aus Think Tanks, NGOs oder Wirtschaftslobbys. Ihre Aufgabe war Herkules: „Schlüsselfragen für die künftige Entwicklung der Union zu erwägen“ und gleichzeitig „möglichst breit und offen den Weg für die nächste Regierungskonferenz zu ebnen“ (Erklärung von Laeken, 25). Hinsichtlich der Spaltungen war sie wohl komplexer als jede andere Institution, die mit der Vorbereitung von Vertragsänderungen beauftragt war, da sie nicht nur Regierungsvertreter der Mitgliedstaaten, Beitrittsländer und künftige Mitglieder umfasste, sondern auch Vertreter der nationalen Parlamente, des Europäischen Parlaments und der Kommission. Dieses Papier befasst sich mit einer grundlegenden Frage: Wie können wir den relativen Erfolg der Konvention verstehen? Was waren die Merkmale des Verfahrens des Konvents, die es endlich ermöglichten, einen „Konsens“ über einen einzigen Text mit dem Titel „Vertragsentwurf über eine Verfassung für Europa“ zu erzielen? Was waren die Bedingungen und Mechanismen, die es erlaubten, mit dem bisher am weitesten formulierten Mandat zur Vertragsänderung umzugehen?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-90095-7_4 c1de6d580f74fe5cbc46533d0a0c3785;de;;;4.2.;;;Der Drahtseilakt der Demokratie und Don Wests Don West komponierte Gedichte, um politische Aktionen zu katalysieren. Als Sohn eines kleinen Farmers, der aus den Bergen von North Georgia zum Pächter wurde, besuchte West zuerst die Lincoln Memorial University und dann Vanderbilt, wo er sich zum Prediger des Social Gospel ausbilden ließ. Nachdem er 1932 die Highlander Folk School mitbegründet hatte, war West bis 1937 als kommunistischer Organisator in Georgia, North Carolina und Kentucky tätig. Von 1938 bis 1941 arbeitete er als kongregationalistischer Geistlicher in Ohio und Georgia, und während des Zweiten Weltkriegs erlangte er nationale Anerkennung als Verwalter einer öffentlichen Schule, der im ländlichen Georgia Demokratie unterrichtete. Doch bei jedem Schritt seiner vielseitigen Karriere hatte West Gedichte geschrieben und veröffentlicht. Er mobilisierte all seine Fähigkeiten als Dichter (und als Aktivist und Organisator), um eine Gesellschaft zu schaffen, in der sich die Arbeiterklasse und die Unterschicht über Kategorien von Arbeit, Rasse, Geschlecht oder Ort hinweg zusammenschließen konnten, um für politische, soziale und wirtschaftliche Rechte zu kämpfen . Im Mai 1946 wurde Wests Poesie zum Mittelpunkt seiner Arbeit, als die linke New Yorker Presse Boni und Gaer Wests;-;-;-;https://link.springer.com/chapter/10.1057/9780230101692_8 39f2e97da48edf343c6a8711ed5ed3fd;de;;;5.2.;;;Bereitstellung von zu Hause unterstützten angewandten Verhaltensanalysetherapien für kulturell und sprachlich vielfältige Familien Die Auswahl und Übernahme kulturell angemessener Ziele und Praktiken, insbesondere für häusliche oder elterngestützte Dienste, ist ein wachsendes Interesse im Bereich der angewandten Verhaltensanalyse (ABA). Unterschiede in den kulturellen Normen, die Fähigkeit der Pflegekräfte, an der häuslichen Leistungserbringung teilzunehmen, sowie die sprachlichen Kompetenzen der Familie und des Arztes sind einige der Bereiche, die der kulturell kompetente ABA-Therapeut bei der Gestaltung eines häuslichen Therapieprogramms berücksichtigen muss. Angesichts des Mangels an empirischer Forschung zur kulturellen Kompetenz in der ABA-Dienstleistungserbringung besteht das Ziel des vorliegenden Artikels darin, Praktikern, ihren Betreuern und Forschern Informationen zur Verfügung zu stellen, um viele wahrgenommene Hindernisse für eine erfolgreiche Zusammenarbeit mit Kunden zu überwinden, deren Heimatsprachen oder -kulturen sich von denen unterscheiden die der vorherrschenden US-Kultur. Praktische Beispiele, die Integration von Forschung aus ABA und verwandten Gebieten sowie Terminologie werden verwendet, um diese Punkte zu unterstützen und umsetzbare Anleitungen auf der Grundlage empirischer Literatur bereitzustellen.;-;-;-;https://link.springer.com/article/10.1007/s40617-019-00374-1 ad6065b00f66f0d1323885c57f665e83;de;;;5.2.;;;Ein verbesserter Algorithmus zum Lösen aller Zuverlässigkeit ist ein wünschenswerter Leistungsindikator vieler realer Systeme, um das Qualitätsniveau zu messen. Eine allgemeine Methode zur Bewertung der Multi-State-Reliabilität ist die Verwendung von;-;-;-;https://link.springer.com/article/10.1007/s11518-017-5343-7 af27bcf4dcdb38712fdefedcd11e6bdf;de;;;5.2.;;;Änderung der vietnamesischen Politik: Januar 1978–Juli 1978 Nachdem bei den Pariser Gesprächen im Dezember 1977 und der Kontroverse um die „Spy-Ring“-Affäre keine wesentlichen Fortschritte erzielt wurden, wurden bedeutende Kontakte zwischen der amerikanischen und der vietnamesischen Regierung für einige Monate eingestellt. Die Carter-Administration, die durch die vietnamesische Unnachgiebigkeit und ihre eigene, etwas ungeschickte Handhabung der Normalisierungsfrage in eine innenpolitische Ecke gedrängt wurde, sah sich ohne eine klare vorherige Ankündigung von Hanoi nicht in der Lage, weitere Verhandlungen fortzusetzen. Die Vietnamesen waren ihrerseits dabei, angesichts der rasch eskalierenden Konflikte mit ihren Nachbarn in China und Kambodscha ihre gesamte Palette außenpolitischer Optionen zu überprüfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-24782-0_3 df5505487cde70690e2d2409c2184be6;de;;;5.2.;;;Informationen sammeln und interpretieren: Zum Umfeld einer komplexen Entscheidungssituation Informationen über das Umfeld einer komplexen Entscheidungssituation, an der eine Organisation beteiligt ist oder beteiligt sein könnte, dürfen nicht in die routinemäßige Datenerfassung dieser Organisation einbezogen werden. Viele der in solchen Organisationen verfügbaren Informationen beziehen sich auf das Finanzmanagement und das Tagesgeschäft. Diese Informationen sind normalerweise im internen Informationssystem der Organisation und in den computergestützten und anderen Dateien, die dieses System umgeben, enthalten. Es enthält normalerweise keine detaillierten Berichte über die Merkmale der Teilnehmer und die anderen Elemente der Umgebung komplexer Situationen, in die die Organisation verwickelt ist oder sein könnte. Die Art von Informationen, die sich auf diese Umgebungen beziehen, wurde von Sherman Kent als „strategische Intelligenz“ bezeichnet.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-8815-9_3 822197a6b5e81ac4a369b230c87ac09e;de;;;4.2.;;;Entwicklung von sozialen Netzwerken und Depressionen für die Adoleszenz Das Ziel der vorliegenden Studie ist es, die Entwicklung des jugendlichen Freundschaftsnetzwerks und der Depression zu analysieren. In Klassenzimmern von Gymnasien wurde eine Netzwerkbefragung durchgeführt. Die Teilnehmer sind 93 Jungen und 82 Mädchen. Soziometrische Daten wurden erhoben, indem jeder Schüler bis zu 16 intime Klassenkameraden nominierte. Als Maß für die Depression wurde die Mandarin-Chinesische Version der Center for Epidemiological Studies-Depression Scale (MC-CES-D) übernommen. Paneldaten wurden über 3 Semester von Sep. 2008 bis Jan. 2010 erhoben. Zur Schätzung der Modelle zur Evolution sozialer Netzwerke und Depression wurde das Programm SIENA eingesetzt. Das Ergebnis zeigte, dass das Geschlecht am Anfang eine Wirkung hatte und die Depression während der 2.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45071-0_11 02df9ecb06902163d0610a6642704d41;de;;;4.2.;;;Ländliche Umstrukturierung in der Ostküste Chinas Die Ausdifferenzierung der ländlichen Entwicklung an der Ostküste Chinas wird durch den raschen ländlichen Umbau im Zuge der Globalisierung übertrieben, seit 1978 Wirtschaftsreformen und eine Politik der offenen Tür eingeleitet wurden. Es gibt sowohl hochentwickelte Dörfer als auch sehr arme Weiler (hauptsächlich in den abgelegene und gebirgige Gebiete) an der Ostküste Chinas, die als Miniatur der ländlichen Entwicklung Chinas betrachtet werden können. In diesem Kapitel werden zunächst die vier Typen der ländlichen Entwicklung definiert, dh der landwirtschaftlich dominierte ländliche Entwicklungstyp, der industriedominierte ländliche Entwicklungstyp, der ländliche Entwicklungstyp mit Schwerpunkt auf Unternehmen, Tourismus und Dienstleistungen und der ausgewogene ländliche Entwicklungstyp, und klassifiziert die ländliche Entwicklung Arten an der Ostküste Chinas. Ausgehend vom Ansatz der sozialen Repräsentation und ausgehend von den wesentlichen Einflussfaktoren für die langfristige Entwicklung des ländlichen Raums und die Wahrnehmung der Funktionen des ländlichen Raums gegenüber der Gesellschaft wurde dann das Bewertungsindikatorensystem des Ländlichkeitsgradindex zur Unterscheidung des Ländlichkeitsgrades von verschiedene Typen. Die mit der Umstrukturierung des ländlichen Raums in China verbundenen Probleme können teilweise dadurch angegangen werden, dass auf Erfahrungen und Errungenschaften aus anderen Ländern zurückgegriffen wird, einschließlich Großbritanniens, die möglicherweise ähnliche Entwicklungsstadien als Teil ihrer Entwicklung im ländlichen Raum durchgemacht haben. Zweitens untersucht dieses Kapitel die unterschiedlichen Wege der ländlichen Entwicklung und verschiedene Politiken und Strategien für die ländliche Entwicklung in der östlichen Küstenregion Chinas und Wales, identifiziert Konvergenz- und Divergenzpunkte und berücksichtigt die möglichen Lehren, die China aus den Erfahrungen mit der ländlichen Entwicklung in Wales ziehen könnte .;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4924-3_7 e17dc16ce7f9abcd5bfba96ae3e6b062;de;;;4.2.;;;Die Herausforderung der Staatsbildung als Friedensförderung – Zusammenarbeit mit hybriden politischen Ordnungen zur Schaffung von Frieden Seit dem Ende des Kalten Krieges haben die für internationale Friedenskonsolidierungen zuständigen Stellen die Wiederherstellung von Sicherheit, Entwicklung und Frieden ausdrücklich mit Staatsbildung und Regierungsführung verbunden. Das Medium Staat, insbesondere der freiheitlich-demokratische, marktwirtschaftliche Staat, wird als grundlegender Rahmen für das Erreichen von Stabilität, nachhaltiger Konfliktbearbeitung und Entwicklung verstanden.“ Dagegen werden „Staatsversagen“ und „Staatsfragilität“ verstanden “ wurden als Voraussetzungen für gewaltsame Konflikte und weit verbreitete Verarmung innerhalb, aber auch außerhalb der Grenzen des jeweiligen Staates identifiziert und verankert. Eine besondere Bedeutung erlangte das Thema fragiler Staaten im Kontext des Sicherheitsdiskurses der Industriestaaten des Globalen Nordens nach den Terroranschlägen von 2001 und dem „War on Terror“. Fragile Staaten wurden „durch die vorherrschende Linse westlicher Sicherheitsinteressen“ gesehen, und durch diese Linse erscheinen sie als Brutstätten und sichere Häfen für den Terrorismus und damit als eine Frage der internationalen Sicherheit – das ist vor allem die Sicherheit der industrialisierten Staaten.;-;-;-;https://link.springer.com/chapter/10.1057/9780230282681_6 7bdcfd70d1f0cdd4c8a8f6aaef4890f6;de;;;5.2.;;;CP-Nichtkonservierung Das Standardmodell der elektroschwachen Wechselwirkungen, eine Eichtheorie, die auf einer spontan gebrochenen SU ​​(2) × U (1) -Symmetrie basiert, war bemerkenswert erfolgreich bei der Erfassung einer sehr breiten Palette von Daten zu diesen Wechselwirkungen. Folglich werden wir in diesen Vorlesungen zur CP-Nichterhaltung in den schwachen Wechselwirkungen ganz im Rahmen dieses Modells arbeiten, da dies der wirtschaftlichste Ansatz ist, bis sich dieser Rahmen als zu restriktiv für die Interpretation der beobachteten Tatsachen. Leider gibt es seit geraumer Zeit nur wenige positive Fakten über CP-Nichterhaltungseffekte, obwohl Hoffnung besteht, durch Beobachtungen an den Neuen Mesonen sowie durch genauere Experimente an den neutralen K-Mesonen weitere Fakten zu erhalten , in den nächsten Jahren, wie wir weiter unten diskutieren werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-4031-4_10 449544f1546db6a7eea741459600e508;de;;;4.2.;;;Internationale Adoptivkinder und ihre Kinder: Bindungen zur Geburtskultur Diese Studie untersucht die Einstellung von Eltern, ihren international adoptierten Kindern zu helfen, eine Wertschätzung für die Kulturen der Geburtsländer der Kinder zu entwickeln, und untersucht die kulturbezogenen Aktivitäten, an denen sie und ihre Kinder teilnehmen. Während die meisten Eltern der Meinung waren, dass die primäre Bindung ihres Kindes an die amerikanische Kultur bestehen sollte, legten sie großen Wert darauf, dass ihr Kind eine Bindung zu seiner Geburtskultur aufbaut. Sowohl die Herkunftsregion des adoptierten Kindes als auch das Geschlecht der Eltern hatten einen Einfluss auf Einstellungen und Aktivitäten. Eltern, die aus Asien adoptiert haben, und Mütter maßen ihren Kindern im Allgemeinen eine größere Bedeutung bei und nahmen häufiger an kulturellen Aktivitäten teil als Eltern, die aus Europa adoptiert hatten und Väter.;-;-;-;https://link.springer.com/article/10.1007/s12147-001-1005-6 6e4d5e46e7c00e1ce1c90b033f9e61b3;de;;;4.2.;;;Stackelberg-Spielmodell mit Beteiligung der Öffentlichkeit für die Entwicklung von Stromerzeugungssystemen Die vorliegende Arbeit stellt ein linear-quadratisches Zwei-Ebenen-Multi-Follower-Stackelberg-Spiel für die Entwicklung von Stromerzeugungssystemen dar. Für eine stabile Stromversorgung berücksichtigt das Modell die Bürgerbeteiligung aus standortgesellschaftlicher Sicht. Das Modell analysiert die Auswirkungen des sozialen Standortinteresses auf die Entwicklung des Erzeugungssystems. Die interperiodenübergreifende Erzeugungskapazitätsbilanz und mehrere Bewertungsfaktoren wie die Sorge um die soziale Standortwahl spielen im Modell eine grundlegende Rolle. Seine Eigenschaften werden durch Simulationsanalysen untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0042813 dd8f1f3ff73f67e9c6bf7e02670a52bc;de;;;4.2.;;;Reform und Gedanken zum lernzentrierten Unterricht im Klassenzimmer basierend auf dem Cloud Space der World University City Die lernzentrierte Lehrreform ist das Ergebnis des gemeinsamen Handelns von moderner Informationstechnologie und Konstruktivismus. Cloud Space kann den Lehrprozess einfacher und unterhaltsamer machen und die reibungslose Umsetzung der Lehrreform fördern. Durch den Aufbau von Lerngemeinschaften und die Einführung von drei unabhängigen Lernmethoden, einschließlich Wissensvermittlung, Praxis und Diskussion, können die Schüler Lernziele festlegen, den Bedarf der „Zone der nächsten Entwicklung“ an Wissen und Fähigkeiten erfüllen, Lerninteressen wecken und Lerneffekte verbessern. In der Praxis treten jedoch viele Probleme auf, die nach Verbesserung und multilateraler Koordinierung verlangen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-51556-0_86 7a764c986a7075ca25ac6e92bb20c957;de;;;4.2.;;;Verbindung zweier Epochen: Die Antiglobalisierungsbewegung Ein Verständnis der Antiglobalisierungsbewegung ist von entscheidender Bedeutung, da sie das Ethos der Neuen Linken mit den Bewegungen von heute verbindet. In diesem Kapitel wird untersucht, wie Globalisierung und „Neoliberalismus“ als Bezugspunkt sozialer und politischer Bewegungen um die Jahrhundertwende konstruiert wurden und wie daraus eine internationale Mobilisierungswelle entstand. Es zeigt auch, wie die Unfähigkeit der neuen Linken, auf politischer und wirtschaftlicher Ebene eine tatsächliche Alternative vorzuschlagen, auch in der Antiglobalisierungsbewegung vorhanden war, was dazu führte, dass sie keine greifbaren Ergebnisse erzielen konnte.;-;-;-;https://link.springer.com/chapter/10.1057/978-1-137-55103-0_5 e39b2371e0e903970ae8e862a22f0256;de;;;4.2.;;;Vertrauen in Regierungen und Wohlfahrtsregime: Einstellungen zu Umverteilung und Finanzbetrug in den USA und Norwegen Es wurde behauptet, dass nationale Institutionen öffentliche Präferenzen beeinflussen und Muster sozialer Spaltung strukturieren. Dieser Artikel analysiert Einstellungen zu Umverteilung und Finanzbetrug in Norwegen und den USA. Auf aggregierter Ebene zeigen die Ergebnisse, dass zwischen den beiden Ländern in Bezug auf die Einstellung zur Umverteilung und das Vertrauen in den Staat auffallende Unterschiede bestehen, während ähnliche Einstellungsmuster beim Betrug mit Steuern und Sozialleistungen gefunden werden. Die Ergebnisse bestätigen Argumente, die betonen, dass Gestaltung und Umfang wohlfahrtsstaatlicher Politiken ihre eigene Legitimität prägen und bestimmen. Weniger Unterstützung finden politische Vertrauensargumente, die betonen, dass die Wirksamkeit politischer Entscheidungsinstanzen Überzeugungen über das Vertrauen in den Staat und Ansichten über die Verantwortung der Regierung fördert. In ähnlicher Weise werden Argumente, die vorschlagen, dass ein fortgeschrittener Wohlfahrtsstaatismus unerwünschte Auswirkungen auf die bürgerliche Moral hat, wie etwa Betrug bei Steuern und Sozialleistungen, empirisch nicht unterstützt. Während Umverteilungskonflikte schließlich in den USA und Norwegen ähnlich strukturiert sind, sind die Spaltungen über Finanzbetrug weniger klar und variieren länderübergreifend.;-;-;-;https://link.springer.com/article/10.1023/A%3A1006968325920 f8b6f7f9226d63d87ccd964e0f333d8b;de;;;5.2.;;;Unterthema-Mining über Modifier-Graph-Clustering Das Verständnis des Informationsbedarfs, der in einer Benutzeranfrage kodiert ist, wurde lange als ein entscheidender Schritt für eine effektive Informationsbeschaffung angesehen. In diesem Beitrag konzentrieren wir uns auf;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06608-0_28 84f1abf1d5b49860ca04e8b0255d71ec;de;;;5.2.;;;Selbstmanagement nach einem kardialen Ereignis bei Menschen chinesischer Abstammung, die in westlichen Ländern leben: Eine Überprüfung des Scoping Gesundheitliche Ergebnisse und Auswirkungen von Herz-Kreislauf-Erkrankungen variieren zwischen Bevölkerungsgruppen, wo ethnische Minderheiten und Einwanderergruppen eher benachteiligt sind. Verglichen mit der Mehrheit der Einwohner sind die Gesundheitsergebnisse, insbesondere die kurzfristige Sterblichkeit durch koronare Herzkrankheiten, bei Menschen chinesischer Abstammung schlechter, möglicherweise aufgrund eines schlechten Selbstmanagements und der Erfahrungen mit dem Gesundheitssystem in den Aufnahmeländern. Es wurde ein Scoping-Review durchgeführt. Es wurden vier übergreifende Themen gefunden: (1) Verständnis von Herzerkrankungen, Risikofaktoren und Symptomerkennung, (2) Einhaltung von Medikamenten und Lebensstiländerungen, (3) Wahl von Gesundheitsdiensten/Informationen und (4) Rolle der Familie beim Selbstmanagement der Krankheit disease und Entscheidungsfindung. Alle Themen wurden stark von Englischkenntnissen und kulturellen Praktiken beeinflusst. Englischkenntnisse und kulturelle Gepflogenheiten sollten bei der Bereitstellung von Gesundheitsdienstleistungen für Menschen chinesischer Abstammung berücksichtigt werden, da sie eine wichtige Rolle für das Selbstmanagement und die Erfahrungen mit dem Gesundheitssystem spielen.;-;-;-;https://link.springer.com/article/10.1007/s10903-017-0584-6 a642d3f635a80482ddebc9fede80ced1;de;;;4.2.;;;Engagement der Studierenden und Interaktion mit Gleichaltrigen beim wissenschaftlichen Online-Schreiben durch einen Kursblog Akademisches Schreiben gilt als eine der wichtigsten Kompetenzen, die Universitätsstudenten entwickeln müssen, und ist ein integraler Bestandteil moderner Bildungsprogramme in der Hochschulbildung. Dieses Papier präsentiert eine Analyse des Engagements der Studierenden beim wissenschaftlichen Online-Schreiben im Zusammenhang mit Anfragen und Praktiken der Peer-Interaktion über einen Kursblog. Die Intervention wurde im Rahmen eines gemischten Aufbaustudiums unter der Annahme konzipiert, dass das Online-Schreiben im Kursblog die wissenschaftlichen Schreibfähigkeiten der Studierenden fördern könnte. Die Schlüsselaspekte von studentisch generierten Inhalten, Peer-Interaktion und Reflexion im Kursblog wurden von den Prinzipien des E-Learning 2.0 geleitet. Die deskriptive und soziale Netzwerkanalyse ergab wichtige Informationen über den Beitrag der einzelnen Studierenden, die Interaktion mit Gleichaltrigen und die Netzwerkstruktur einer Lerngemeinschaft, die im Kursblog entstanden ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20954-4_8 549f115b56c35a58c4ffe5afb73ae5ea;de;;;5.2.;;;Quellen von Nachrichten Nachrichten stammen aus einer Vielzahl von Quellen. Nutzer sozialer Medien können Inhalte erstellen, eine Nachricht oder Erzählung beobachten oder danach suchen. Was Menschen sehen, wird davon beeinflusst, wonach sie suchen und was bereits in ihren sozialen Netzwerken geteilt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-16413-3_2 3dd46041a1939e7fd2b96bddda4fa7d8;de;;;4.2.;;;Restrukturierung für wen? Rasse, Klasse, Geschlecht und die Ideologie der Unsichtbarkeit In diesem Beitrag wird untersucht, wie sich aus der wirtschaftlichen Umstrukturierung resultierende Veränderungen auf die Ansichten zur Rassenungleichheit in verschiedenen Rassen, Klassen und Geschlechtergruppen auswirken. Zunächst werden einige der Folgen der Umstrukturierung für verschiedene Rassen-, Klassen- und Geschlechtergruppen untersucht, und es werden auch Forschungsarbeiten untersucht, die die unterschiedlichen Ansichten dominanter und untergeordneter Gruppen über Rassenungleichheit dokumentieren. Der Beitrag schließt mit der Untersuchung, wie rassenblinde Ideologien die Diskussionen über Rasse und Multikulturalismus beeinflussen, und legt nahe, dass rassenblindes Denken die Lehre über strukturellen Rassismus vereitelt hat.;-;-;-;https://link.springer.com/article/10.1023/A%3A1011003316831 2cc6741fd99d3f17e0166beae22f80dd;de;;;4.2.;;;Interpretieren von Food-Venue-Besuchen: Räumliche und soziale Kontexte des mobilen Konsums im urbanen Raum Die zunehmende Menge an Mobilitätsdaten bietet die Möglichkeit, neuartige städtische Anwendungen zu entwickeln, die in alltägliche Praktiken integriert sind. Obwohl aus Mobilitätsspuren auf einfache Ereignisse (z. B. Ortsbesuche) geschlossen werden kann, haben Ereignisse in unterschiedlichen Kontexten sehr unterschiedliche Bedeutungen. Um zu den Arbeiten beizutragen, die darauf abzielen, effektive Methoden zur Integration von Ubiquitous Computing-Technologien in urbane Räume und Kontexte aufzudecken, diskutieren wir die Interpretation allgegenwärtiger Ereignisse im Urban Computing: Besuche von Restaurants. Basierend auf einer Umfrage und einer kleinen ergänzenden Studie identifizieren wir die räumlichen und sozialen Kontexte, die die Bedeutung von Restaurantbesuchen beeinflussen. Wir schlagen auch eine Möglichkeit einer neuartigen technologischen Unterstützung für das Auswärtsessen vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-20804-6_52 ac1e6289b89c37aeefaf6bbb5a5c184c;de;;;5.2.;;;Freistaat des konservativen generalisierten Oszillators Wie beim elementaren Oszillator gehen wir zunächst davon aus, dass der generalisierte Oszillator keiner äußeren Kraft unterliegt und keine Dämpfung vorhanden ist;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-3514-6_11 093e3bd17b592e07cd140dd9eef134ac;de;;;5.2.;;;Determinanten der Inanspruchnahme zahnärztlicher Leistungen bei Erwachsenen – der Fall Finnland Wir untersuchen die Determinanten der Inanspruchnahme von zahnärztlichen Leistungen und insbesondere die Rolle von Angebotsfaktoren in den Entscheidungsprozessen der Inanspruchnahme anhand von Daten aus der finnischen Gesundheitserhebung von 1996. In einem zweiteiligen Modell wird die Pflegebedürftigkeit modelliert durch ein bivariates Probit-Modell, das die Rückrufaktion des Zahnarztes berücksichtigt, während die Anzahl der positiven Zahnarztbesuche durch ein null-abgeschnittenes negatives Binomialmodell modelliert wird. Die Rückrufaktion stellt sich als zentrale Determinante der Pflegebedürftigkeit heraus und steht in signifikantem Zusammenhang mit Variablen wie Einkommen und Arbeitslosigkeit. Auch sozioökonomische Variablen werden kontrolliert und gelten als wichtige Determinanten.;-;-;-;https://link.springer.com/article/10.1007/s10729-005-4143-7 0777424437af1a306d9ac42d08b59e32;de;;;5.2.;;;Verbesserung der Menschen nutzen soziale Netzwerke, um Hilfe zu suchen, indem sie Nachrichten senden, die ihren Informationsbedarf widerspiegeln. Mehrere Faktoren, die der Benutzer normalerweise nicht berücksichtigt, beeinflussen jedoch das Ergebnis des Erhaltens oder Nichtbeantwortens. Mit dieser Arbeit wollen wir die Chancen der Nutzer erhöhen, jemanden zu finden, der ihnen helfen könnte. Zu diesem Zweck schlagen wir eine mobile App namens . vor;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09147-1_49 07864b1e43db4de38283e2dcc26a0a22;de;;;5.2.;;;Eine Tableaux-Prozedur für das Implikationsproblem für Assoziationsregeln Mit einem relationalen Ansatz untersuchen wir das Implikationsproblem für Assoziationsregeln für Kontexte mit 1. Wir liefern hinreichende Bedingungen für die Beziehungen in einem Informationsrahmen mit semistrong Relationen für die Konstruktion eines Kontexts mit 1. Wir entwickeln ein relationales . Rasiowa/Sikorski-Stil Kalkül, der für das Implikationsproblem für Assoziationsregeln solide und vollständig ist. Wir zeigen, dass dieses Implikationsproblem entscheidbar ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-1828-4_5 ae9b03936e41e2785fd84772c5794288;de;;;5.2.;;;Konsultations-Audiobänder: eine Informationshilfe und ein Instrument zur Qualitätssicherung und Recherche Einrichtungen für medizinische Konsultationen mit Tonband sind weit verbreitet, und ein zunehmender Anteil von Krebspatienten wünscht und/oder schätzt das Angebot einer Tonaufnahme nach einer onkologischen Konsultation. Wir haben den Nutzen von Tonbändern von Erst- und Folgekonsultationen für Patienten und ihre Familien untersucht. Wir haben Konsultations-Audiobänder als Forschungsinstrument zur Untersuchung der Arzt-Patienten-Kommunikation verwendet. Audiobänder können letztendlich als Audit-Tool zur Überwachung der Leistung von Onkologen eingesetzt werden. Wir haben in den letzten 10 Jahren mehrere hundert medizinische und strahlenonkologische Konsultationen auf Tonband aufgezeichnet. Wir haben Methoden zur Analyse der Onkologen-Patienten-Kommunikation entwickelt und eine Vielzahl von Interventionen untersucht, die die Kommunikation in der Krebssprechstunde verbessern sollen. Wir haben Krebspatienten nach ihrer onkologischen Erstkonsultation und nach routinemäßigen ambulanten Nachsorgeterminen Beratungstonbänder angeboten und deren Anwendung dokumentiert. Krebspatienten und ihre Angehörigen legen Wert auf Beratungs-Audiokassetten als Informationshilfe und zur Unterstützung des Wiedererinnerns. Beratungstonbänder dokumentieren die Informationsbereitstellung und ermöglichen die Analyse der Onkologen-Patient-Interaktion bei der Diskussion von Prognose, Behandlungsoptionen und Einholung/Erteilung einer informierten Einwilligung. Beratungs-Audiobänder spielen eine Rolle bei der Bereitstellung von Feedback über die Leistung des Onkologen. Onkologen sollten erwägen, Tonbandaufzeichnungsanlagen zu installieren und neuen Patienten und Nachsorgepatienten eine aufgezeichnete Konsultation anzubieten. Tonbänder sind ein wertvolles Hilfsmittel bei der Untersuchung von Onkologen-Patienten-Interaktionen.;-;-;-;https://link.springer.com/article/10.1007/s005200100282 5002ba303ad88c82fcc0c6d40bc6a71c;de;;;4.2.;;;Was ist bei einer wissenschaftlichen Veranstaltung zu sehen? Ein soziales Empfehlungsmodell technischer SitzungenSession Wissenschaftliche/akademische Veranstaltungen fördern das Treffen von Forschern zur Verbreitung ihrer Arbeit in einer wissenschaftlichen Gemeinschaft. Diese Veranstaltungen sind dynamisch, wobei mehrere Sitzungen gleichzeitig stattfinden können und die Teilnehmer möglicherweise Schwierigkeiten haben, sich für eine Sitzung zu entscheiden. Empfehlungssysteme können die Teilnehmer bei dieser Wahl unterstützen, indem sie Empfehlungen basierend auf Informationen aus Sitzungen, dem Profil der Teilnehmer und den sozialen Beziehungen anbieten. Dieses Papier präsentiert ein soziales Empfehlungsmodell für technische Sitzungen für wissenschaftliche Veranstaltungen. Das Modell wurde teilweise implementiert und auf den IHC 2017- und IHC 2018-Veranstaltungen unter Berücksichtigung von Co-Authoring-Beziehungen angewendet. Die Anwendung des Modells wurde über einen Fragebogen evaluiert und durch erfasste Nutzungsdaten trianguliert, wobei die Benutzer ihre Wahrnehmungen über den Nutzen des Co-Authoring-Netzwerks zur Empfehlung von Sitzungen angaben. Die Ergebnisse legen nahe, dass das Modell vielversprechend ist und in der Lage ist, die Implementierung relevanter sozialer Empfehlungsmechanismen zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-46130-0_6 47b70cb4fa01eac7052f47f3c0cdbcf9;de;;;4.2.;;;Governance-Netzwerke und Beteiligung In diesem Kapitel werden wir Governance-Netzwerke aus der Perspektive partizipativer Demokratietheorien näher betrachten. Das Ziel ist zweierlei: Erstens, einen Beitrag zur Gesamtdebatte über die demokratische Legitimität von Governance-Netzwerken zu leisten. Welche Potenziale und Defizite haben sie im Hinblick auf Partizipation? Zweitens soll die partizipative Tradition so konkretisiert und umformuliert werden, dass konkrete Analysen der demokratischen Qualität von Governance-Netzwerken möglich sind.;-;-;-;https://link.springer.com/chapter/10.1057/9780230625006_15 bb0e7e34590904eb1d46d88d1139065c;de;;;4.2.;;;Linkvorhersage in dynamischen sozialen Netzwerken durch Integration verschiedener Arten von Informationen Die Linkvorhersage in sozialen Netzwerken hat in verschiedenen Bereichen wie Soziologie, Anthropologie, Informationswissenschaft und Informatik zunehmende Aufmerksamkeit auf sich gezogen. Die meisten existierenden Methoden verwenden eine statische Graphdarstellung, um neue Links vorherzusagen. Diese Verfahren verlieren jedoch einige wichtige topologische Informationen dynamischer Netzwerke. In dieser Arbeit stellen wir eine Methode zur Linkvorhersage in dynamischen Netzwerken vor, indem wir zeitliche Informationen, Community-Struktur und Knotenzentralität in das Netzwerk integrieren. Informationen zu all diesen Aspekten sind sehr nützlich, um potenzielle Links in sozialen Netzwerken vorherzusagen. Zeitliche Informationen bieten das Verhalten des Verbindungsauftretens im dynamischen Netzwerk, während das Community-Clustering zeigt, wie stark die Verbindung zwischen zwei einzelnen Knoten ist, je nachdem, ob sie dieselbe Community teilen. Die Zentralität eines Knotens, der seine relative Bedeutung innerhalb eines Netzwerks misst, hängt stark mit zukünftigen Links in sozialen Netzwerken zusammen. Wir sagen die zukünftige Bedeutung eines Knotens anhand der Eigenvektorzentralität voraus und verwenden dies für die Linkvorhersage. Die Zusammenführung der typologischen Informationen, einschließlich der Community-Struktur und Zentralität, mit zeitlichen Informationen erzeugt ein realistischeres Modell für die Linkvorhersage in dynamischen Netzwerken. Experimentelle Ergebnisse an realen Datensätzen zeigen, dass unsere auf dem integrierten Zeitmodell basierende Methode zukünftige Verbindungen in temporalen sozialen Netzwerken effizient vorhersagen kann und qualitativ hochwertigere Ergebnisse erzielt als herkömmliche Methoden.;-;-;-;https://link.springer.com/article/10.1007/s10489-014-0631-0 33aba6a5403d54616fc22864ac36651d;de;;;4.2.;;;Die dunkle Seite des Mondes – Unbeleuchtete Dimensionen der Systempraxis Dieses Papier untersucht einige der unbeleuchteten oder weniger expliziten Aspekte von Problemen, mit denen diejenigen konfrontiert sind, die Systemansätze in realen Problemsituationen verwenden. Der Diskurs über Systemansätze wird tendenziell von rational-logischen Aspekten der Methodik dominiert, obwohl andere Aspekte des Interventionsprozesses, wie etwa politische Dimensionen der Legitimität, in den letzten 10–15 Jahren an Bedeutung gewonnen haben. Es überrascht nicht, dass der Diskurs für verschiedene Methoden unterschiedlich war. Die Methode war im Bereich der harten Systeme weitgehend unsichtbar (oder zumindest relativ wenig diskutiert), und obwohl sie im Bereich der weichen Systeme viel diskutiert wurde, wurde die Debatte dennoch eng definiert. Es ist eng definiert in seiner relativen Vernachlässigung von Prozessaspekten für die Durchführung einer Systemstudie. Da sich die Natur dieser Prozesse (z. B. die Kunden-Berater-Beziehung) von harten Systemen zu weichen Systemen zu kritischen Systemen auf eine Weise ändert, die den sozialen Prozess zunehmend zu einer wichtigeren Dimension jedes Ansatzes macht, hat dieser Aspekt mehr im Diskurs über more kritischen Systemen, aber im Allgemeinen bleibt es ein merkwürdiger Bereich der Vernachlässigung. Das Interesse an diesem Bereich nimmt zu und es gibt Anzeichen dafür, dass auf relevante Theorie und Praxis aus eng verwandten Bereichen zurückgegriffen wird, um diese Ansätze zu stärken. Dieser Beitrag versucht, einen Beitrag zu leisten, indem er einige Bereiche skizziert und diskutiert, die bestehende Systemansätze sinnvoll ergänzen könnten. Das Papier betrachtet die folgenden Bereiche: (a) Kundenbeziehungen, (b) Analytikerrolle, (c) Sprache und Kommunikation, (d) Gruppenprozesse, (e) Kultur (und Rationalitäten), (f) Techniken und Prozesse zur Informationsbeschaffung, und (g) Änderungsmanagement oder -implementierung. Der Beitrag stützt sich auf Erfahrungen mit Systempraktiken in der Literatur, Interviews mit Systempraktikern und Schriften in verwandten Bereichen. Der Beitrag endet mit einer Diskussion einiger Implikationen dieser Fragen für die Entwicklung abgerundeter Systemansätze.;-;-;-;https://link.springer.com/article/10.1023/A%3A1013134613398 741944ab80629a0209c18aeaff39b138;de;;;4.2.;;;Ein Rahmen für soziale Gerechtigkeit in der erneuerbaren Energietechnik Ingenieure und Technikkritiker behaupten häufig, dass zentrale Werte, die die Struktur und Arbeitsweise des Ingenieurberufs in den USA bestimmen, wie mathematische Problemlösung und analytisches Denken, im Widerspruch zu Werten der sozialen Gerechtigkeit stehen. Es gibt jedoch kaum dokumentierte Beweise, um das Vorhandensein und die Praxis sozialer Gerechtigkeit in der erneuerbaren Energietechnik (REE) zu messen, einem aufstrebenden Feld, dessen Entwicklung für den Aufbau einer nachhaltigen Zukunft unerlässlich ist. Dieses Kapitel enthält Informationen zur Identifizierung von Schlüsselkompetenzen im Ingenieurwesen, die derzeit im Kontext der US-amerikanischen REE erforderlich sind, und stützt sich auf 30 offene, halbstrukturierte Interviews, die mit Pädagogen und Fachleuten durchgeführt wurden, die sich mit Solar- oder Windenergietechnik befassen. Dieses Kapitel zielt darauf ab, Fragen zu untersuchen, warum, wie, von wem und für wen Annahmen über die Eigenschaften von Solar- und Windenergieingenieuren in den Ingenieurlehrplan eingebaut werden. Insbesondere lädt es zum Nachdenken über die Gestaltung von Lehrstrategien und technischen Methoden ein, die verwendet werden, um diese Attribute in die Ingenieurausbildung und -praxis zu integrieren. Nachdem ich die Herausforderungen der sozialen Gerechtigkeit von REE skizziert habe, plädiere ich für die Bedeutung eines prozessualen Gerechtigkeitsrahmens für REE-Projekte.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-6350-0_12 7b01c57a0b623090cc123da9d23e7ff5;de;;;4.2.;;;Eine neuartige Empfehlungsmethode für gesellschaftliche Ereignisse basierend auf sozialen und kollaborativen Freundschaften Viele Social Network Sites (SNSs) bieten Funktionen für soziale Ereignisse, um Benutzerinteraktionen zu erleichtern. Es ist jedoch für Benutzer schwierig, unter der großen Anzahl von Websites, die auf solchen Websites veröffentlicht werden, interessante Veranstaltungen zu finden. In diesem Papier untersuchen wir das Problem und schlagen eine Empfehlungsmethode für soziale Ereignisse vor, die die sozialen und kollaborativen Freundschaften der Benutzer nutzt, um interessante Ereignisse zu empfehlen. Da es sich bei Events um einmalige Gegenstände handelt, sind ihre Bewertungen erst verfügbar, wenn sie vorbei sind. Herkömmliche Empfehlungsmethoden sind daher nicht in der Lage, Ereignisempfehlungen zu erstellen, da sie ausreichende Bewertungen benötigen, um Empfehlungen zu generieren. Anstatt Bewertungen zu verwenden, analysieren wir die Verhaltensmuster von Nutzern sozialer Netzwerke, um ihre sozialen und kollaborativen Freundschaften zu messen. Die Freundschaften werden aggregiert, um die Bekannten eines Benutzers zu identifizieren und Ereignisse, die für die Vorlieben des Bekannten und des Benutzers relevant sind, werden empfohlen. Die Ergebnisse von Experimenten zeigen, dass die vorgeschlagene Methode effektiv ist und viele bekannte Empfehlungsmethoden übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03260-3_10 e4cf15f23a45fdd80ee0bc0500e21643;de;;;4.2.;;;Experimentieren mit einer digitalen kollaborativen Plattform zur Unterstützung sozialer Innovation in mehreren Umgebungen Soziale Innovation gewinnt als Ansatz zur Bewältigung gesellschaftlicher Herausforderungen an Popularität. Regierungen, Wohltätigkeitsorganisationen, NGOs und Organisationen übernehmen die Rolle, den Bürgern die Beteiligung an sozialen Innovationsinitiativen zu erleichtern. Digitale kollaborative Plattformen haben ein großes Potenzial, den sozialen Innovationsprozess zu ermöglichen und zu unterstützen, da sie den Wissensaustausch, die Zusammenarbeit und die Vernetzung erleichtern. In dieser Arbeit haben wir mit einer digitalen Plattform für soziale Innovation und der dazugehörigen Methodik experimentiert, um Bürger bei der Durchführung sozialer Innovationen in drei verschiedenen Pilotumgebungen zu unterstützen: einem Universitätskurs, einem Wettbewerb/Hackathon und einem Szenario „in freier Wildbahn“. Wir reflektieren die Nutzung und Erfahrung der Teilnehmer mit der Plattform, um ihren Mehrwert zu verstehen und wichtige Überlegungen für die Gestaltung und Implementierung dieser Art von Plattform aufzudecken. Die Analyse der Experimente unterstreicht (1) den Wert der Erleichterung der Zusammenarbeit mit Nutznießern und unterschiedlichen Hintergründen, (2) die Bedeutung der aktiven Einbeziehung der Teilnehmer in den Prozess und (3) die Notwendigkeit der Anpassung der Plattform an den Umgang mit Komplexitäten, die aus der sozialen Innovation entstanden sind Prozess auf realen Einstellungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-93408-2_11 15684ce6aec607f8f8bb7f9a6277bdaa;de;;;5.2.;;;Ein institutioneller Ansatz für die weiche Budgetbeschränkung Bevor die Geschichte der weichen Budgetbeschränkung erzählt werden kann, muss der analytische Rahmen geschaffen werden, der dieser Geschichte Struktur verleiht. Die weiche Budgetbeschränkung ist unsere zentrale Metapher. Institutionen bilden eine andere, die fast ebenso wichtig ist. Wir werden die weiche Budgetbeschränkung als Institution definieren und anschließend eine dritte Metapher – eine Erklärung mit unsichtbarer Hand – verwenden, um die Geschichte der Entstehung, Persistenz und Logik der weichen Budgetbeschränkung zu erzählen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-6793-3_2 70e9d2f8639db24c7437fe3265cdb106;de;;;4.2.;;;Adaptives Umfragedesign unter Verwendung struktureller Merkmale des sozialen Netzwerks Die Einführung neuer Methoden, die die Qualität und Effektivität von Rechercheprozessen erhöhen, wurde zu einem einzigartigen Vorteil für soziale Online-Netzwerke. Genaue und aussagekräftige Umfragen durchzuführen ist eine der wichtigsten Facetten der Forschung, wobei die Repräsentativität ausgewählter Online-Stichproben oft eine Herausforderung darstellt und die Ergebnisse kaum verallgemeinerbar sind. Diese Studie präsentiert einen Vorschlag und eine Analyse auf der Grundlage von Umfragen mit Repräsentativität, die auf Netzwerkmerkmale abzielen. Daher besteht das Hauptziel dieser Studie darin, die für das Hauptnetzwerk während der Erhebung berechneten Maße zu verfolgen und sich auf die Erfassung ähnlicher Verteilungen für die Stichprobe zu konzentrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27433-1_11 e3903d23e33e82a1f7c1b69bff97edf9;de;;;4.2.;;;Selbsthilfe: Religiöser AIDS-Aktivismus in Selbsthilfegruppen In Kapitel 2 stellte ich das presbyterianische JL Zwane Centre vor, das von einem charismatischen Pastor geleitet wird und dessen Projekte oft als Vorbild für andere Kirchen in Kapstadt gepriesen wurden. Bei einem Rundgang durch die Räumlichkeiten bei meinem ersten Besuch und der Vorstellung von Menschen und deren zugewiesenen Projekten erklärte Teddy, sein Sekretär, dass das Zentrum eng mit US-amerikanischen Kirchen, mit der US-amerikanischen Organisation Open Arms . zusammenarbeitet und mit vielen amerikanischen Freiwilligen. Bei dem folgenden Besuch traf ich Sinohando, die Frau des Pastors und Koordinatorin des Programms des Zentrums, und nahm an einer der Sitzungen der Selbsthilfegruppe teil. Wir überquerten die Etage, wo Freiwillige damit beschäftigt waren, die Lebensmittelpakete vorzubereiten und zu verpacken, die an die Mitglieder der Selbsthilfegruppe verteilt werden, und gingen zur Aula. Etwa 50 Personen, darunter zehn Männer, saßen im Kreis auf Stühlen und warteten geduldig auf den Beginn der Versammlung. Die Sitzung wurde mit einigen Liedern und einem Gebet eröffnet, gefolgt von Statements einzelner Mitglieder, in denen sie ihre Erfahrungen der vergangenen Tage teilten und über ihr Wohlbefinden oder individuelle Probleme sprachen. Diese Sitzung war jedoch insofern besonders, als sie als „Kerzenlicht-Gedenkstätte“ organisiert wurde, ein kollektives Ritual zum Gedenken an die an der Krankheit verstorbenen Gruppenmitglieder. Aus diesem Grund hatte die Gruppe einen Pastor eingeladen, der sich auf das Predigen vor HIV-positiven Zuhörern spezialisiert hatte.;-;-;-;https://link.springer.com/chapter/10.1057/9781137477774_7 370fec15e06e9aa0fbcaae6f0cf5a835;de;;;4.2.;;;Roboterverstärkungslernen basierend auf lernendem Klassifikatorsystem In diesem Artikel wurde eine Roboter-Verstärkungslernmethode vorgeschlagen, die auf einem lernenden Klassifizierungssystem basiert. Ein lernendes Klassifikatorsystem ist ein regelbasiertes maschinelles Lernsystem, das Reinforcement Learning und genetische Algorithmen kombiniert. Die Komponente des verstärkenden Lernens ist dafür verantwortlich, die Stärke der Regeln im System entsprechend einer Belohnung aus der Umgebung anzupassen. Der genetische Algorithmus fungiert als Innovation Discovery-Komponente, die für die Entdeckung neuer besserer Lernregeln verantwortlich ist. Die Vorteile dieses Ansatzes sind seine regelbasierte Darstellung, die den Lernraum leicht reduzieren, die Online-Lernfähigkeit und die Robustheit verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14831-6_27 678e1ac0d5392f9bfc83f3d6e39dc8bf;de;;;5.2.;;;Maximum Power Point Tracking-Methode für das Experimentiersystem eines einphasigen einstufigen Photovoltaik-Wechselrichters In diesem Beitrag wird das Modell des Experimentsystems für einphasige einstufige Photovoltaik (PV)-Wechselrichter analysiert und ein neuartiges Maximum Power Point Tracking (MPPT)-Verfahren basierend auf einem Extremum-Suchalgorithmus entwickelt, um die spezifischen Anforderungen dieser Topologie zu erfüllen . Experimentelle Ergebnisse zeigen, dass der einphasige einstufige Photovoltaik-Wechselrichter mit diesem vorgeschlagenen MPPT-Verfahren die Verwendung eines zusätzlichen externen Störsignals vermeiden und den Punkt der maximalen Leistung schnell und präzise verfolgen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31516-9_12 dcd17f0660e033b7d82e60e5a7ba540a;de;;;4.2.;;;Überlegungen zu Blended Learning Drei Semester eines Blended-Learning-Studiengangs zu Gender und Informationstechnologie (IT) wurden untersucht, um zu untersuchen, wie die Interaktion der Studierenden mit den Lehrmaterialien verändert werden kann, basierend auf: der (a)synchronen Natur des Mediums, der Zielgruppe der Studierenden “, und die Vertrautheit der Schüler mit dem Thema. Diese Untersuchung von Blended-Learning-Kursmaterialien bietet einen wertvollen Einblick in eine Umgebung, in der sich Studierende in einer Vielzahl von technologievermittelten Umgebungen mit demselben Kursmaterial beschäftigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03656-4_18 4a834353768ca5d0d82c803bc03dcdde;de;;;5.2.;;;Überblick über den INEX 2008 Ad-hoc-Track Dieses Papier gibt einen Überblick über den INEX 2008 Ad-hoc-Track. Die Hauptziele des Ad-hoc-Tracks waren zweierlei. Das erste Ziel bestand darin, den Wert der internen Dokumentstruktur (wie durch das XML-Markup bereitgestellt) für das Abrufen relevanter Informationen zu untersuchen. Dies ist eine Fortsetzung von INEX 2007, und aus diesem Grund wurden die Abrufergebnisse auf beliebige Passagen liberalisiert und es wurden Maßnahmen gewählt, um Systeme, die Elemente, Bereiche von Elementen und beliebige Passagen abrufen, gerecht zu vergleichen. Das zweite Ziel bestand darin, den fokussierten Abruf direkter als in den Vorjahren mit dem Artikelabruf zu vergleichen. Aus diesem Grund wurden aus allen Läufen Standardrankings zum Auffinden von Dokumenten abgeleitet und mit Standardmaßen bewertet. Darüber hinaus wurden aus einem Proxy-Log eine Reihe von Abfragen abgeleitet, die auf Wikipedia abzielen, und die Läufe werden auch gegen die angeklickten Wikipedia-Seiten ausgewertet. Der INEX 2008 Ad Hoc Track beinhaltete drei Aufgaben: Für die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03761-0_1 a164ea12ae613965337094554ad4ce7a;de;;;5.2.;;;Stego-Taste sucht nach LSB-Steganographie auf JPEG-dekomprimierten Bildern Gegenwärtig konzentriert sich die Steganalyse-Forschung darauf, die Existenz einer versteckten Botschaft zu erkennen. Das Extrahieren der versteckten Informationen, d. h. ein Extrahierungsangriff, ist jedoch entscheidend, um in der Computerforensik wirksame Beweise zu erhalten. Aufgrund der Schwierigkeit eines extrahierenden Angriffs ist die Forschung auf diesem Gebiet begrenzt. Bei der Steganographie mit einem Stego-Schlüssel entspricht ein Extraktionsangriff der Wiederherstellung des Stego-Schlüssels. In diesem Artikel untersuchen wir eine Methode zur Wiederherstellung des Stego-Schlüssels in der Least Significant Bit (LSB)-Steganographie mit einem dekomprimierten JPEG-Bild als Titelbild. Zunächst wird die Wiederherstellung des Stego-Schlüssels in ein Kryptoanalyseproblem für eine sequentielle Chiffre übersetzt. Das Verfahren zum Wiederherstellen des Stego-Schlüssels basiert auf der Schätzung der Modifikationspositionen. Die minimale Größe der Daten, die verwendet werden, um den Stego-Schlüssel erfolgreich wiederherzustellen, wird diskutiert. Zweitens wird, wenn ein dekomprimiertes JPEG-Bild als Coverbild verwendet wird, die Wahrscheinlichkeit der Wiederherstellung der Coverpixel unter Verwendung der Neukomprimierung diskutiert. Die Rekomprimierung wird verwendet, um den Fehler der geschätzten Sequenz zu berechnen. Schließlich wird ein Algorithmus zur Wiederherstellung des Stego-Schlüssels in der LSB-Steganographie mit einem dekomprimierten JPEG-Bild als Titelbild vorgeschlagen. Die experimentellen Ergebnisse der steganographischen Software Hide and Seek 4.1 und ihrer Variante, die ein typischer Vertreter der LSB-Steganographie ist, zeigen, dass die vorgeschlagene Methode den Stego-Schlüssel beim LSB-Ersetzen und LSB-Matching erfolgreich wiederherstellen kann, dh der Extraktionsangriff ist erfolgreich , und es übertrifft drei vorherige Methoden in Bezug auf die Rechenkomplexität.;-;-;-;https://link.springer.com/article/10.1007/s11432-015-5367-x c1ba0189354a9a25f3c6a442ca66a77b;de;;;5.2.;;;Wily-Angreifer suchen nach drahtlosen Netzwerken in Perth, Westaustralien, um leichte Ziele zu finden In Perth, Westaustralien, wurden über einen Zeitraum von zwei Jahren vier Runden passiven drahtlosen Paket-Sniffing durchgeführt, um die Art der in der Region auftretenden drahtlosen Netzwerkaktivitäten zu bestimmen und die grundlegenden Sicherheitsschwächen zu identifizieren. Trends in den gesammelten Informationen werden in diesem Papier diskutiert, wobei der Schwerpunkt auf der Anwendung des Wired Equivalent Privacy und der Maskierung des Netzwerknamens liegt, die die einzigen Sicherheitsschwächen sind, die durch den verwendeten passiven Paket-Sniffer erkannt werden können. Die Ergebnisse zeigen, dass die erkannte WLAN-Nutzung zwar zunimmt, die Minderung dieser grundlegenden Sicherheitsschwächen jedoch abnimmt. Obwohl diese Ergebnisse keine Rückschlüsse auf das in den erkannten drahtlosen Netzwerken verwendete Sicherheitsniveau geben, unterstreicht diese Untersuchung die Zunahme von Möglichkeiten für gerissene Angreifer, exponierte Unternehmensnetzwerke zu gefährden.;-;-;-;https://link.springer.com/chapter/10.1007/1-84628-352-3_13 2b88b14c51a7752c50ca9e12422eb568;de;;;5.2.;;;Klassische Retrievalmodelle Model Dieses Kapitel bietet eine detaillierte Behandlung klassischer Information-Retrieval-Modelle. Man unterscheidet zwischen Bag-of-Words-Modellen und solchen Modellen, die über die Bag-of-Words-Annahme hinausgehen. Zu den abgedeckten Wortbeutelmodellen gehören das binäre Unabhängigkeits-Retrieval-Modell, das 2-Poisson-Modell, das BM25-Modell, Unigram-Sprachmodelle und mehrere andere Wortbeutelmodelle. Zu den behandelten Modellen, die über die Annahme von Wörtern hinausgehen, gehören N-Gramm-Sprachmodelle, das Indri-Inferenznetzwerkmodell sowie mehrere andere zuvor vorgeschlagene Modelle. Das Kapitel schließt mit einer Diskussion der aktuellen State-of-the-Art-Retrieval-Modelle, einschließlich ihrer Vor- und Nachteile.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22898-8_2 d833f81433bf91131fecbb0e330af2d8;de;;;4.2.;;;Klasse, Rasse und Hyperinhaftierung im revanchistischen Amerika (Republikation) Die größte politische Transformation der Post-Bürgerrechts-Ära in Amerika ist das gemeinsame Zurückrollen des geizigen Sozialstaats und das Ausrollen des gigantischen Strafstaats, die die Schichtung, die Städte und die bürgerliche Kultur des Landes neu gestaltet haben und das Äußerste neu gestalten Charakter der „Schwärze“ selbst. Zusammen haben diese beiden gleichzeitigen und konvergenten Ansätze den Umfang, die Mission und die Handlungsmodalitäten der öffentlichen Autorität neu definiert, wenn es darum geht, die benachteiligten und stigmatisierten Bevölkerungen zu managen, die am unteren Ende der Klassen-, ethnischen und städtischen Hierarchien festsitzen. Die gleichzeitige Verkleinerung des Wohlfahrtsflügels und die Vergrößerung des Justizflügels des amerikanischen Staates wurden nicht durch Trends in Armut und Kriminalität angetrieben, sondern durch eine Politik des Ressentiments gegenüber Kategorien, die als unverdient und widerspenstig gelten, darunter vor allem die Empfänger öffentlicher Hilfen und die Straße Kriminelle, die als die beiden dämonischen Galionsfiguren der schwarzen „Unterschicht“ dargestellt wurden, die die journalistische, wissenschaftliche und politische Debatte über die Notlage der städtischen Armen Amerikas in den revanchistischen Jahrzehnten dominierten, die die zivilen Unruhen der 1960er Jahre und die Stagflation der 1970er Jahre verdauten und erlebte den größten Knallerboom der Weltgeschichte. In diesem Artikel zeige ich, dass die enorme Ausweitung und Intensivierung der Aktivitäten der amerikanischen Polizei, der Strafgerichte und der Gefängnisse in den letzten 30 Jahren gezielt nach Klassen, zweitens nach Rasse und drittens nach Plätzen gerichtet war, zur Masseninhaftierung, sondern zur Hyperinhaftierung von (sub)proletarischen Schwarzen aus dem implodierenden Ghetto. Diese dreifache Selektivität zeigt, dass der Aufbau des hyperaktiven und hypertrophen Strafstaates, der den US-amerikanischen Weltmeister in der Inhaftierung gemacht hat, eine verzögerte Reaktion auf die Bürgerrechtsbewegung und die Ghetto-Unruhen Mitte der 1960er Jahre und ein Disziplinarinstrument ist, das entfaltet wurde, um zu fördern die neoliberale Revolution, indem sie dazu beiträgt, den ungelernten Fraktionen der postindustriellen Arbeiterklasse unsichere Arbeit als normalen Arbeitshorizont durchzusetzen. Die doppelte Kopplung des Gefängnisses mit dem baufälligen Hyperghetto einerseits und der Aufsichtsarbeit andererseits ist kein moralisches Dilemma, sondern ein politisches Dilemma, das eine erweiterte Analyse des Zusammenhangs von Klassenungleichheit, ethnischer Stigmatisierung und der Staat im Zeitalter der sozialen Unsicherheit. Um die rassistische Bestrafung der Armut in der bröckelnden Innenstadt umzukehren, bedarf es einer anderen politischen Reaktion als die Masseninhaftierung und erfordert eine Analyse der politischen Hindernisse für diese Reaktion, die über eine „trickle-down“-Strafreform hinausgehen muss, um die vielschichtige Rolle einzubeziehen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . des Staates bei der Herstellung und Verankerung von Marginalität.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-13077-0_3 598d5a739cdfd6e59584fae6e6d4f162;de;;;4.2.;;;Soziale Online-Aktivitäten in Lateinamerika (Mexiko, Chile und Uruguay) und Russland: länderübergreifende Forschung Der Artikel basiert auf der länderübergreifenden Analyse des Sozialverhaltens im Internet. Die Autoren identifizieren die Entwicklungskoeffizienten des Internets als Mittel für politisches Empowerment, finanzielle Aktivitäten, Konsumverhalten und soziale Kommunikation in Russland und Lateinamerika, darunter Länder wie Mexiko, Chile und Uruguay. Empirische Forschungsgrundlage bilden die nationalen Datenbanken der Massenbefragung in Russland, Mexiko, Chile und Uruguay. Die wichtigsten Ergebnisse der Untersuchung zeigen die Unterschiede in der Entwicklung verschiedener Internetsegmente (Funktionen) von Land zu Land. Chile und Uruguay weisen die höchsten Werte bei der Internetnutzung für Finanz- und Verbraucherzwecke auf, während Russland und Mexiko niedrige Werte aufweisen. Letztere Länder haben jedoch höhere Werte bei der Internetnutzung für soziale, Kommunikations- und Unterhaltungsaktivitäten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49700-6_4 4e39536324ef24a761e10c1e901c3338;de;;;4.2.;;;Lernen und Anpassung: Die Rolle des Fischerei-Comanagements beim Aufbau widerstandsfähiger sozial-ökologischer Systeme Dieses Kapitel konzentriert sich auf Faktoren, die die Fähigkeit des Co-Managements beeinflussen, zum Aufbau widerstandsfähiger sozial-ökologischer Fischereisysteme beizutragen. Anhand von Co-Management-Beispielen aus Afrika und Südamerika zeigen wir, dass die Schaffung von Co-Management und Ermöglichung rechtlicher Rahmenbedingungen zwar relativ einfach sein kann, die Herausforderung jedoch darin besteht, die institutionellen Initiativen langfristig zu stützen. Das Kapitel kommt zu dem Schluss, dass Schlüsselaspekte für ein erfolgreiches und nachhaltiges Co-Management das Vorhandensein von Mechanismen zum Aufbau von Lern- und Anpassungsfähigkeiten auf Regierungs- und Gemeindeebene umfassen. Indem sie sich durch gemeinsames Management neu organisieren, verfügen die Fischereigemeinden über einen Anpassungsmechanismus angesichts von Störungen, um auf Fischereikrisen zu reagieren und diese zu bewältigen. Allerdings haben nicht alle von uns untersuchten Co-Management-Fallstudien die Fähigkeit zur Anpassung und Erholung von Störungen gezeigt, sobald lokal definierte übliche Systeme ausgehöhlt wurden. Die aufgezwungene Selbstorganisation durch von außen konzipiertes Co-Management ermöglichte kein Lernen und keine Anpassung. Institutionelle Starrheit, das Fehlen eines angemessenen Zeitrahmens für die Bewirtschaftung und die unzureichende Flexibilität der Bewirtschaftungsinstrumente in Verbindung mit einer fehlenden Beteiligung der Fischer an den Systemen der gemeinsamen Bewirtschaftung kennzeichnen die Herausforderungen für die Anpassungsfähigkeit in diesen Fällen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12194-4_4 9466e5994da8d6a5edba8482fb91c0b9;de;;;4.2.;;;Sexualität und Intimität im betreuten Wohnen: Perspektiven und Erfahrungen der Bewohner*innen Die Branche für betreutes Wohnen bietet etwa 1 Million ältere Erwachsene in den Vereinigten Staaten Wohn-, medizinische, Ernährungs-, funktionelle und soziale Dienste. Trotz ihres ganzheitlichen Ansatzes zur personenzentrierten Pflege und ihrer Betonung eines verbraucherfreundlichen, sozialen Umfelds schenken Anbieter von betreutem Wohnen den sexuellen Bedürfnissen der Kunden kaum Beachtung. In diesem Artikel diskutieren die Autoren die Realitäten von Sex und Intimität im betreuten Wohnen aus der Perspektive von Bewohnern, Familien, Managern und Mitarbeitern, untersuchen den Diskurs über Sexualität, den Einfluss institutioneller Strukturen und die Rolle der Aufsicht auf sexuelle Einstellungen und Verhaltensweisen. und die Beziehung zwischen den Werten der Branche für betreutes Wohnen und dem sexuellen Ausdruck der Bewohner. Außerdem werden praktische Empfehlungen und politische Implikationen für den Umgang mit den sexuellen und intimen Bedürfnissen aktueller und zukünftiger Kohorten von Bewohnern des betreuten Wohnens vorgestellt. Die Daten für diesen Artikel stammen aus 3 vom National Institute on Aging finanzierten ethnografischen Studien, die über 9 Jahre in 13 Einrichtungen für betreutes Wohnen durchgeführt wurden.;-;-;-;https://link.springer.com/article/10.1525/srsp.2009.6.4.25 6bf80a10ab6c081555b97a1c636dc73b;de;;;5.2.;;;Bewertung der Informationsethik der ökologischen Kompensation in China: Eine Fallstudie zum Bergbaugebiet der Stadt Huainan in China Neben den „harten“ Regeln von Institutionen und deren Umsetzungsmechanismen ist die „weiche“ Orientierung der Ethik unabdingbar, um einen ökologischen Ausgleich zu erreichen. Darüber hinaus begünstigt diese „weiche“ Anleitung die Selbstdisziplin in Bezug auf praktische Interventionen und trägt auch zur Vermeidung „negativer externer Effekte“ bei. In diesem Beitrag werden Indikatoren zur Informationsethik der ökologischen Kompensation vorgestellt und Hypothesen vorgestellt und anhand von Daten zum Bergbaugebiet der Stadt Huainan (China) statistisch verifiziert. Eine Analyse der Fallstudienergebnisse zeigte, dass, obwohl jeder Indikator signifikant mit der Gesamtzufriedenheit korreliert, die Hypothese bezüglich des Zusammenhangs zwischen den Indikatoren „Zufriedenheit mit Zugang zu Bequemlichkeit“ und „Reife der Informationseinnahmen“ nach der Optimierung des Regressionsmodells auffällig war. Weiterhin wurde die relative Bedeutung von acht Indikatoren im optimalen Modell geklärt und auch die Stärke der Resistenz von 10 Indikatoren im Resistenzdiagnosemodell beobachtet. Daher hat diese Studie die Kontrolle von Schlüsselprotonen hervorgehoben und konzentriert sich auf die genaue Identifizierung von Resistenzindikatoren. Darüber hinaus zeigte sich auch, dass die Vermeidung von „negativen Externalitäten“ zu einem effektiven ökologischen Ausgleich führt und dessen Verbesserung begünstigt.;-;-;-;https://link.springer.com/article/10.1007/s10708-020-10190-8 b818ddef16583c984d48398421c1203d;de;;;4.2.;;;Das spontane Verhalten bei Extremereignissen: Eine auf Clustern basierende quantitative Analyse Social Media erfasst den Puls des gesellschaftlichen Diskurses und treibt menschliche Verhaltensweisen in zeitliche und räumliche Dimensionen sowie die strukturellen Merkmale an. Diese Online-Kontexte geben uns die Möglichkeit, die soziale Wahrnehmung von Menschen im Kontext bestimmter Ereignisse zu verstehen und können uns helfen, die Katastrophenhilfe zu verbessern. Unter Verwendung von Twitter als Datenquelle misst dieses Papier exogene und endogene soziale Einflüsse auf kollektives Verhalten bei verschiedenen Ereignissen quantitativ, basierend auf der Standardmethode der Fluktuationsskalierung. Im Gegensatz zu bestehenden Studien, die manuelle Schlüsselwörter zur Kennzeichnung von Ereignissen verwenden, wenden wir eine Cluster-basierte Ereignisanalyse an, um das Kernereignis und seine zugehörigen Episoden in einem Hashtag-Netzwerk zu identifizieren. Die statistischen Ergebnisse zeigen, dass exogene Faktoren die Informationsmenge über ein Ereignis bestimmen und die endogenen Faktoren eine große Rolle bei der Verbreitung von Hashtags spielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-53914-5_29 c37bc9330688c178e3e6980402eb4022;de;;;4.2.;;;Reform und moralischer Kreuzzug Ich habe für den operationellen Wert der „sozialen Bewegung“ als allgemeines Typenkonzept in der Untersuchung sozialer Kollektive oder Gruppen argumentiert. „Soziale Bewegung“ wurde in Kapitel i als ein bewusstes kollektives Bestreben definiert, Veränderungen zu fördern, das zumindest einen minimalen Grad an Organisation hat und auf dem normativen Engagement und der aktiven Beteiligung von Anhängern oder Mitgliedern beruht. In den Kapiteln 3, 4 und 5 wurde vorgeschlagen, dass eine ziemlich umfassende Typologie der sozialen Bewegung konstruiert werden kann und dass es bei der Verwendung eines solchen Rahmens lohnend ist, einige der wichtigsten Konzepte, Theorien und politischen Implikationen von . zu untersuchen verschiedene Hauptbewegungsarten anhand der umfangreichen Literatur und vergleichender Analyse.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-01093-6_6 c477e55aa23c4783ef40a27a8ac6e72f;de;;;4.2.;;;Inklusion und Exklusion in der Kosmospolis Weltoffenheit wird oft mit einer allgemeinen Weltoffenheit, einem Gefühl der universellen Gleichheit und Einheit und dem globalen Bewusstsein der Welt als Ganzes in Verbindung gebracht. Tatsächlich ist es nicht zu leugnen, dass wir in einer globalen Welt leben. Es gibt (noch) Nationalstaaten und Grenzen, es gibt die Trennung zwischen Peripherie und Zentrum, es gibt lokale Bindungen, aber es gibt die Vision und die Realität des Globus: die Gestalt unserer Welt. Heute durchdringen Finanz- und Machtnetze, Kommunikation und Transport den ganzen Planeten. Und selbst wer die Vorteile der Globalisierung (aus guten Gründen) leugnet, kann die Dimension wahrhaft globaler Bedrohungen nicht ignorieren: Erderwärmung, globale Krankheiten, globaler Krieg… Wichtige Fragen müssen beantwortet werden: Welche Formen der Differenz können in der Welt »geduldet« werden? Kosmopolis und wie geht man mit fundamentalen, gegensätzlichen Differenzen um? Weiter: Wie ist es gerechtfertigt, Unterschiede zu machen, also Güter und Rechte zu verteilen? Und die kosmopolitische Weltgesellschaft müsste sich wie jede Gesellschaft, aber mit deutlich gesteigerter Sensibilität, mit der damit verbundenen Frage von Inklusion und Exklusion auseinandersetzen, denn ein Ausschluss aus der Kosmopolis würde tatsächlich einen Ausschluss aus der Menschheit bedeuten. Ich werde mit einer Untersuchung der wörtlichen und latenten Bedeutung(en) des Kosmopolitismus beginnen: mich mit dem Begriff auseinandersetzen und seinen metaphorischen »Kosmos« kartieren. Diese (Forschungs-)Recherche ist wichtig, da fantasievolle Ein- und Ausschlüsse entscheidend für mögliche praktische Übersetzungen sind und eine ernsthafte Auseinandersetzung mit den metaphorischen Inhalten und einer Geschichte der »terminologischen Objekte« darüber hinaus neue Richtungen sowohl für die praktische als auch für die theoretische Orientierung geben kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-11663-7_6 c8f6146d009a2c34c67fed2e032509ae;de;;;4.2.;;;Das wirtschaftliche Wohlergehen älterer Männer in sechs Ländern Die sinkende Erwerbsbeteiligung älterer Männer ist eine der dramatischsten Veränderungen der modernen Arbeitsmärkte. In allen Ländern, für die uns Daten vorliegen, beobachten wir einen anhaltenden Trend zur Frühverrentung von Männern Ende 50 und Anfang 60. Arbeitslosigkeit und struktureller Umbau der Wirtschaft verbinden sich mit gesellschaftlichen Entscheidungen, um die Vorteile einer gesteigerten Produktivität in Form einer kürzeren Lebensarbeitszeit zu verteilen. Obwohl der Trend allgemein ist, unterscheiden sich die Länder darin, wann der Trend begann, wie schnell der Rückgang war und wie tief der Trend bei Männern Mitte fünfzig angekommen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-22668-9_5 eee3c490a057c8cf91c872b05c115b80;de;;;4.2.;;;Gesundheitsförderung und öffentliche Ordnung Die Förderung der Gesundheit durch öffentliche Politik ist kein neues Konzept. Neu ist der Aufruf, „im Namen der Gesundheit“ zu handeln und nicht im Interesse der industriellen Entwicklung, des Wirtschaftswachstums oder der nationalen Effizienz. In den Industrieländern besteht seit langem die Annahme, dass die Schaffung einer Art Wohlfahrtsinfrastruktur – Gesundheitsdienste, soziale Unterstützung, Bildung, Einkommenssicherung – der Preis ist, der für eine einigermaßen gesunde, produktive und zugängliche Arbeitskraft zu zahlen ist. Im Großbritannien des frühen 20. Jahrhunderts war beispielsweise die Besorgnis über die schlechte Qualität der britischen Armeerekruten ein wichtiger Faktor, um Regierungen davon zu überzeugen, Schulmahlzeiten und medizinische Untersuchungen einzuführen (Hay, 1975).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-25564-1_6 cae640a7c3f49e3d4b9cc0f61450dc3f;de;;;4.2.;;;Mehrstufige Querschnittsstudie zu Sozialkapital am Arbeitsplatz und Rauchen bei japanischen Arbeitnehmern Es wird angenommen, dass Sozialkapital für die Gesundheitsförderung relevant ist, und der Zusammenhang zwischen sozialem Sozialkapital und Zigarettenrauchen wurde untersucht. Es wurde festgestellt, dass Sozialkapital auf individueller Ebene mit der Raucherentwöhnung in Verbindung gebracht wird, aber es gibt kaum Belege für die kontextuelle Wirkung von Sozialkapital und Rauchen. Darüber hinaus gibt es nur wenige Belege für den Zusammenhang zwischen Rauchen und Sozialkapital am Arbeitsplatz, an dem Menschen einen zunehmenden Teil ihres täglichen Lebens verbringen. Wir untersuchten den Zusammenhang zwischen dem Sozialkapital am Arbeitsplatz und dem Raucherstatus bei japanischen Arbeitnehmern in der Privatwirtschaft.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-10-489 e8e33df7ad2ec83958883e24398ac828;de;;;5.2.;;;Blinde Männer und Elefanten: Sechs Ansätze für TREC-Daten Der Artikel gibt einen Überblick über sechs aktuelle Bemühungen zum besseren Verständnis von Leistungsmessungen von Information-Retrieval-Systemen (IR) im Rahmen der Text REtrieval Conferences (TREC): Varianzanalyse, Clusteranalysen, Rangkorrelationen, Beadplots, multidimensionale Skalierung und Item-Response-Analyse. Keine dieser Arbeiten hat zu wesentlichen neuen Erkenntnissen geführt. Die Aussichten, dass zusätzliche Arbeiten in dieser Richtung zu interessanteren Ergebnissen führen werden, sind unterschiedlich, aber im Allgemeinen nicht vielversprechend. Es werden einige Vorschläge gemacht, um ausführlicheren Beschreibungen des IR-Systemverhaltens größere Aufmerksamkeit zu schenken, jedoch innerhalb kleinerer, besser kontrollierter Einstellungen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1009984519381 5edce69961c5063c342bb4930902cdd3;de;;;4.2.;;;Rasse, soziale Gerechtigkeit und Finanzhilfe für Hochschulbildung in den Vereinigten Staaten: Der Fall der Afroamerikaner Das Kapitel untersucht die Auswirkungen des Zugangs und der Verteilung von Finanzhilfen auf den Hochschulzugang und die Bindung von Afroamerikanern. Traditionell wird die Hochschulbildung als das praktikabelste Mittel des sozialen Aufstiegs für Personen unterhalb der Mittelschicht angepriesen. Insbesondere viele Afroamerikaner nahmen die Hochschulbildung als entscheidenden Berechtigungsnachweis für den Status der Mittelschicht an. Durch die Untersuchung struktureller Ungerechtigkeiten in der Bundespolitik zeigen die Autoren die Auswirkungen der sozialen Ungerechtigkeit der Finanzhilfepolitik auf die Bildungsbestrebungen von Afroamerikanern auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-65417-7_9 ebcd30307fbaf7df8d9f521bace26e5e;de;;;4.2.;;;Empowerment-Intervention auf einer Station: Professionelles Engagement und soziale Netzwerke von Pflegekräften Ziel dieser Studie ist es, die Wirkung von Interventionen auf Arbeitszufriedenheit, berufliches Engagement und soziale Netzwerke zu diskutieren. Es wurde ein quasi-experimentelles Design verwendet, bei dem eine Erhebung vor der Intervention und eine Erhebung nach der Intervention verwendet wurde, um Daten von den 20 Krankenschwestern auf einer Station zu sammeln. Der Wert der Arbeitszufriedenheit im Bereich zwischenmenschliche Beziehungen und berufliches Engagement wurde signifikant verbessert. Die anderen 4 Bereiche der Arbeitszufriedenheit wurden nicht verändert. Die Zentralisierung des Beratungsnetzwerks wurde nach der Intervention verringert, nicht jedoch das Freundschaftsnetzwerk. Die symmetrische Dyade des Beratungsnetzwerks wurde nach der Intervention nicht mehr von der Position beeinflusst. Es wird der Schluss gezogen, dass Empowerment-Interventionen eingesetzt werden können, um das berufliche Engagement zu steigern, nicht aber die Arbeitszufriedenheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45071-0_22 f55438c63e481f61306e9903d1eb32d8;de;;;4.2.;;;Faktoren, die die Persistenz gehörloser College-Studenten beeinflussen Mit der Aufnahmeklasse 1984 des Nationalen Technischen Instituts für Gehörlose wurde eine Studie über die Abnutzung nach dem ersten Collegejahr durchgeführt. Ein pfadanalytisches Modell von 9 Faktoren, die die Schülerpersistenz beeinflussen, wurde mit LISREL getestet (;-;-;-;https://link.springer.com/article/10.1007/BF00992001 ba6caaf3c2d1b5dd5abd8ab03c0523f0;de;;;4.2.;;;Unter Berücksichtigung der ethischen Implikationen von Social Media in der Sozialarbeitsausbildung Die ethischen Implikationen der explosionsartigen Verbreitung von Social-Media-Kanälen für die Ausbildung in Sozialarbeit werden in diesem Papier untersucht. Angesichts der Tatsache, dass die Ausbildung der Sozialen Arbeit einen doppelten Fokus hat, sowohl auf die Ausbildung von Studenten als auch auf die Einbindung von Praktikern in den Beruf, gewinnt die Frage der Verwischung von Sozialem und Beruflichem sowohl für Pädagogen als auch für Studenten an besonderer Bedeutung. Es werden Empfehlungen für Pädagogen vorgestellt, die die Notwendigkeit einer konsistenten professionellen Online-Präsenz ethisch ansprechen und potenziell schädliche Doppelbeziehungen mit Schülern vermeiden möchten. Zu diesen Empfehlungen gehören: Verzichten Sie auf die Nutzung sozialer Medien oder verwenden Sie nur ein statisches berufliches Profil, verwenden Sie nur von Universitäten geschützte Websites, um die Zusammenarbeit mit den Schülern im Klassenzimmer einschließlich aller Schüler zu fördern, um jeden Anschein von Unangemessenheit zu vermeiden, verwenden Sie soziale Medien mit größter Diskretion und achten Sie auf alle die Risiken durch die Schaffung eines sehr ausgewählten Freundeskreises, die Trennung der persönlichen Website von der beruflichen Website, die Entwicklung von Richtlinien, die vorsehen, keine Freundschaft mit einzelnen Studenten oder aktuellen Studenten zu schließen, und die Studenten über die Richtlinien zu informieren.;-;-;-;https://link.springer.com/article/10.1007/s10676-013-9312-7 a904c71f359e442500aa513083cfe1fa;de;;;5.2.;;;Verwenden adaptiver Methoden mit maximaler Wahrscheinlichkeit, um Differenzschwellen und Punkte subjektiver Gleichheit zu schätzen Bei der Untersuchung der Wahrnehmung müssen Psychologen manchmal die Differenzschwellen und Punkte der subjektiven Gleichheit (PSEs) der Wahrnehmenden schätzen. Um einen Schwellenwert schnell zu schätzen, ist Pentland’s Best PEST ein adaptives Verfahren, von dem behauptet wurde, dass es Schwellenwerte mit maximaler Effizienz findet. Beschreibungen von Best PEST berichten über seine Implementierung beim Auffinden eines Punktes entlang der psychometrischen Funktion des Wahrnehmenden. Um einen Differenzschwellenwert (auch Differenzlimen oder DL genannt) und den PSE zu finden, müssen zwei Schwellenwerte gefunden werden (da zwei Punkte erforderlich sind, um die Steigung und den Achsenabschnitt der psychometrischen Funktion des Wahrnehmenden zu schätzen). Dieses Papier beschreibt, wie Best PEST modifiziert wird, um jeden Schwellenwert entlang der psychometrischen Funktion des Wahrnehmenden zu schätzen, und berichtet über die Ergebnisse von Simulationen, in denen sowohl der DL als auch der PSE geschätzt werden.;-;-;-;https://link.springer.com/article/10.3758/BF03209480 ed4776e20368a82ea41b9adb4c4a9dd2;de;;;5.2.;;;Aminotransferase- und Gamma-Glutamyl-Transpeptidase-Spiegel bei Fettleibigkeit werden mit Insulinresistenz und dem metabolischen Syndrom in Verbindung gebracht Fettleber bei Ultraschall mit/ohne erhöhte Plasmaspiegel von Leberenzymen ist bei Fettleibigkeit häufig. In den meisten Fällen ist es das Kennzeichen der nichtalkoholischen Fettleber (NAFLD), einer potenziell fortschreitenden Erkrankung, die mit Insulinresistenz und dem metabolischen Syndrom (MS) einhergeht. Wir haben die Hypothese getestet, dass Insulinresistenz;-;-;-;https://link.springer.com/article/10.1007/BF03347199 b6173c2e5130c33c9f7bc4f8673b3d2a;de;;;5.2.;;;Verbessern der Sitzungssuchleistung mit einem Multi-MDP-Modell Um einige anspruchsvolle Informationsbedürfnisse bei der Websuche zu erfüllen, können Benutzer mehrere Abfragen in einer Suchsitzung senden. Die Sitzungssuche zielt darauf ab, einen optimierten Dokumentenrang durch die Verwendung des Abfrageprotokolls sowie des Benutzerinteraktionsverhaltens innerhalb einer Suchsitzung bereitzustellen. Obwohl eine Reihe von Lösungen vorgeschlagen wurden, um das Problem der Sitzungssuche zu lösen, gehen die meisten dieser Bemühungen einfach davon aus, dass die Suchabsichten der Benutzer während des Suchprozesses unverändert bleiben. Die kompliziertesten Suchaufgaben beinhalten jedoch explorative Prozesse, bei denen sich die Absichten der Benutzer entwickeln, während sie mit den Suchergebnissen interagieren. Der sich entwickelnde Prozess lässt die Annahme einer statischen Suchabsicht unvernünftig und beeinträchtigt die Leistung des Dokumentenrangs. Um diese Forschungsfrage zu beleuchten, schlagen wir ein System mit mehreren Agenten vor, das seinen Rahmen durch einen Selbstadaptionsmechanismus anpasst. Im Framework modelliert jeder Agent das Dokumentenranking als Markov Decision Process (MDP) und aktualisiert seine Parameter durch Reinforcement Learning Algorithmen. Experimentelle Ergebnisse zu TREC Session Track-Datensätzen (2013 & 2014) zeigen die Wirksamkeit des vorgeschlagenen Rahmens.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-03520-4_5 2299d09876b17c33c94770286b78253c;de;;;4.2.;;;Ein sozialer Lernansatz für Intimität Auf den ersten Blick mag es unpassend erscheinen, dass die Verhaltenstherapie mit ihrer Betonung der Anwendung von Lernprinzipien aus der allgemeinen experimentellen Psychologie einen Beitrag zum Verständnis von Intimität leisten würde. Dennoch war in den letzten zwölf Jahren ein wichtiger Vorstoß in der Verhaltenstherapie oder genauer gesagt in der klinischen Anwendung der Theorie des sozialen Lernens das Studium und die Verbesserung intimer Beziehungen zwischen Erwachsenen. Dieses Kapitel zielt darauf ab, die Perspektive des sozialen Lernens der Intimität zu vermitteln, indem die Verhaltensformulierung intimer dyadischer Beziehungen skizziert und Verfahren zur Bewertung und Linderung von Beziehungsschwierigkeiten untersucht werden, die sich aus diesem Modell entwickelt haben. Ein Überblick über die Literatur zum sozialen Lernen weist darauf hin, dass eheliche Beziehungen das Ziel für die Erforschung von Intimität waren. Das in diesem Kapitel präsentierte Material setzt sich mit dem, wenn auch begrenzten, Fokus fort, Intimität als Ziel zwischen Ehepartnern zu sehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-4160-4_12 b45c443b0c844b5378f3cb644763bd6e;de;;;5.2.;;;Sichere Navigation in feindlichen Umgebungen Diese Arbeit beschäftigt sich mit dem Problem der Navigation unter Vermeidung der Erkennung durch einen mobilen Gegner, wobei die Modellierung des Gegners verwendet wird. Bei diesem Problem wird ein ausweichender Agent auf einem Graphen platziert, in dem ein oder mehrere Knoten definiert sind als;-;-;-;https://link.springer.com/article/10.1007/s10472-018-9591-0 563feecfb24677373936af7a8b273ecd;de;;;4.2.;;;Ergotherapie bei Epidermolysis bullosa: Leitlinien für die klinische Praxis Der Zweck dieses Artikels ist es, die internationalen evidenzbasierten Leitlinien für die klinische Praxis (CPGs) der Dystrophic Epidermolysis Bullosa Research Association (DEBRA) für die Bereitstellung von Ergotherapie (OT) für Kinder und Erwachsene mit vererbter Epidermolysis bullosa (EB) zusammenzufassen. Dies ist eine seltene genetische Erkrankung, die durch eine Zerbrechlichkeit der Haut gekennzeichnet ist, die zu einer spontanen Blasenbildung oder nach einem leichten Trauma führt. Die derzeitige OT-Praxis für Personen mit EB basiert auf anekdotischer Versorgung, klinischer Expertise und Versuch und Irrtum mit Zusammenarbeit zwischen Pflegepersonal und Patient. Auf Forschungsergebnissen basierende Interventionen sind erforderlich, um eine Wissensgrundlage zu schaffen, die internationale Praktiker bei der Schaffung und Verbesserung von Versorgungsstandards anleitet und in der Lage ist, effektiv mit denen zusammenzuarbeiten, die mit der seltenen Diagnose dieser Erkrankung leben.;-;-;-;https://link.springer.com/article/10.1186/s13023-019-1059-8 74eb85d80e13a807a7f9341853cf0ead;de;;;4.2.;;;Social Media Daten relevant für die Messung von Key Performance Indicators? Ein Ansatz zur Inhaltsanalyse Social Media wird ein immer wichtigerer Kanal, um nicht nur die Kundenzufriedenheit, sondern auch andere Facetten der Unternehmensleistung zu erfassen. Dieses Potenzial wird von Unternehmen weitgehend ungenutzt und es bleibt unklar, welche Daten für welche Branchen nützlich sein können. In diesem Papier analysieren wir Social-Media-Daten für bestimmte Unternehmen aus unterschiedlichen Branchen und beziehen diese auf Key Performance Indicators. Wir verwenden einen Inhaltsanalyseansatz, bei dem Social-Media-Nachrichten manuell analysiert werden. Wir stellen fest, dass nur ein Teil der relevanten KPIs in Social-Media-Daten nachverfolgt werden kann und sich dies zwischen den Branchen stark unterscheidet. Social Media ist also nicht für jedes Unternehmen eine Goldquelle. Wir beleuchten auch methodische und inhaltsanalytische Fragen im Prozess der Analyse von Social Media-Daten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39808-7_7 8bf87ab7520c8c20c038077c42171633;de;;;4.2.;;;Unterrichtserfahrung von Studenten in ausländischen und lokalen Fakultäten an öffentlichen und privaten Universitäten in Taiwan Diese Studie untersucht die Wahrnehmung der Unterrichtserfahrungen von Hochschulstudenten in ausländischen und lokalen Lehrveranstaltungen und ihre Beziehung zu der Art der Institution, an der sie studiert haben. Die Stichprobe umfasste 714 Studenten von 14 Universitäten in Taiwan. Das Instrument bestand aus sieben Dimensionen: Unterstützung durch Gleichaltrige, Gruppenzwang, Unterstützung durch Lehrer, Zugänglichkeit durch Lehrer, Vorbereitung auf das Studium, Teilnahme am Unterricht und umfassendes Lernen. Die Ergebnisse deuten darauf hin, dass Studierende an beiden Hochschultypen zurückhaltend zur Teilnahme sind, sich unter Druck gesetzt fühlen und Schwierigkeiten haben, Studieninhalte in der Klasse des ausländischen Lehrers zu verstehen. Sie sind jedoch der Meinung, dass ausländische Lehrkräfte unterstützender und zugänglicher sind als einheimische Lehrkräfte, insbesondere an privaten Universitäten. Im Vergleich zu den Lehrveranstaltungen an den lokalen Fakultäten bereiten sich private Universitätsstudenten mehr vor und erhalten mehr Peer-Unterstützung in den Lehrveranstaltungen der ausländischen Fakultäten. Sie beteiligen sich auch stärker und fühlen sich stärker von Gleichaltrigen unterstützt, verstehen jedoch weniger Kursinhalte als ihre Kollegen an den öffentlichen Universitäten in den Lehrveranstaltungen der ausländischen Fakultäten. Ausführliche Diskussionen über die Unterrichtserfahrung von taiwanesischen Studenten an Universitäten in lokalen und ausländischen Fakultäten werden angeboten.;-;-;-;https://link.springer.com/article/10.1007/s10734-013-9703-z 74d28beb452fd62d067823fcc062fbfc;de;;;4.2.;;;Die Auswirkungen von Mitarbeitermotivation, sozialer Interaktion und Wissensmanagementstrategie auf die KM-Implementierungsebene Diese Studie untersucht den Einfluss der Mitarbeitermotivation (intrinsische Motivation und extrinsische Motivation), der sozialen Interaktion (zwischenmenschliches Vertrauen, Offenheit in der Kommunikation und soziale Gegenseitigkeit) und der Wissensmanagement (WM)-Strategie (Kodifizierungs-Wissensstrategie und Personalisierungs-Wissensstrategie) auf die WM-Implementierung Niveau. Basierend auf einer Umfrage unter 243 leitenden Angestellten großer Unternehmen in Taiwan verwendet diese Studie einen Strukturgleichungsmodellierungsansatz, um das Forschungsmodell zu untersuchen. Die Ergebnisse zeigten, dass Mitarbeitermotivation, soziale Interaktion und WM-Strategie eng mit dem Grad der WM-Implementierung zusammenhängen. Die Wissensstrategie zur Kodifizierung hatte jedoch keinen signifikanten Einfluss auf den Umfang der WM-Implementierung. Angesichts der Bedeutung der WM-Implementierung in heutigen Organisationen und auch in der Zukunft sollen die Ergebnisse dieser Studie Unternehmensmanagern oder politischen Entscheidungsträgern in die Lage versetzen, Richtlinien zu formulieren und geeignete organisatorische Befähiger zu finden, um eine effektive WM-Implementierung zu unterstützen. Implikationen für WM-Forschung und -Praxis werden diskutiert.;-;-;-;https://link.springer.com/article/10.1057/kmrp.2011.21 ebe3b169cc651792641ab23c67b27c6f;de;;;4.2.;;;Die Visualisierungsforschung zum kontrollpolitischen System des sozialen Risikos der Umweltverschmutzung im Großmaschinenbau Aus der Perspektive des großen Ingenieurbaulebenszyklus, kombiniert mit der Inhaltsanalyse und Wortanalyse, führt diese Forschung die quantitative Analyse aus den beiden Aspekten Kontrollpolitik des großen Ingenieurbauumweltschutzes und des sozialen Risikos fort und bildet die kontrollpolitische Systemstruktur des sozialen Risikos großer technischer Umweltverschmutzung. Die vorgeschlagene Methode leistet Beiträge zu Methoden der Managementforschung im Hinblick auf die Sammlung und Analyse von kontrollpolitischen Daten. Die Forschung bietet wertvolle Ratschläge und Implikationen, mit denen die Regierung das bestehende Kontrollsystem perfektionieren und Unternehmen das Unternehmensimage bewahren können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-47241-5_55 5b101cda97ff2ed63ac1dcca1e9aee1f;de;;;4.2.;;;„Sum Vnto Bale und Sum to Blis“: Vom binären Urteil zum romanischen Abschluss m Zyklus der Nördlichen Homilie definiert der Homilist die drei Wiederkunft Christi. Nach seiner buchstäblichsten und körperlichsten Adventszeit kommt er das zweite Mal geistig oder „gastlich“ in uns: „Von uns selbst haue wir bot synne, / Bot when Criste werkes vs withinne / Dan at pe firste begyn we / Gude cristen men for to be “ (473–76). Drittens: „Criste sal come / To deme vs on pe day of dome: / Sum vnto balle and sum to blis“ (483–85).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-137-10521-9_3 35c390b887342584fcb9d402ae5b5f9a;de;;;4.2.;;;Funktionswandel der Schutzrechte im Wohlfahrtsstaat: Lehren aus der Bundesrepublik Deutschland Eigentum ist eine grundlegende Rechtsinstitution jeder entwickelten Wirtschaftsgesellschaft und Rechtsgemeinschaft, und so überrascht es nicht, dass Eigentum im aktuellen Privatisierungsprozess in Mittel- und Osteuropa einen zentralen Platz einnehmen sollte. Die (Wieder-)Einführung des Privateigentums, einschließlich des Eigentums an Grund und Boden und Sachkapital, in die rechtlichen und wirtschaftlichen Beziehungen kann als ein wichtiger Meilenstein, ein Punkt ohne Rückkehr im Privatisierungsprozess, angesehen werden.;-;-;-;https://link.springer.com/chapter/10.1057/9780230371514_3 dff7911346b0387f4697f5cdf4b97006;de;;;5.2.;;;Die Mechanismen einiger formeller Dialoge zwischen den Agenten Dieser Beitrag untersucht argumentationsbasierte Dialoge zwischen Agenten. Es verwendet ein zuvor definiertes System, mit dem Agenten Argumente austauschen können, und untersucht im Detail, welche Lokutionen zwischen Agenten weitergegeben werden. Dies macht es möglich, feinkörnigere Protokolle als bisher möglich zu identifizieren, die Beziehungen zwischen verschiedenen Arten von Dialogen aufzudecken und ein tieferes Verständnis dafür zu vermitteln, wie solche Dialoge automatisiert werden könnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24608-4_19 cf493a0821f9630b1337683a2a639f22;de;;;4.2.;;;Selbstbewusst (Nicht-)Kenner des Neoliberalismus: Kanye West und die Unterbrechung von Taylor Swift Neben dem Neoliberalismus im späten 20. Jahrhundert steht Hip-Hop beispielhaft für kapitalistische Interaktionen mit stigmatisierten Körpern und Erfolg. Kanye Wests Unterbrechung von Taylor Swift bei den MTV Video Music Awards (VMAs) 2009 enthüllt moderne Manifestationen von Privilegien, die sich hinter der Leichtigkeit des Konsums verbergen, die der Wettbewerb in einem meritokratischen freien Marktsystem bietet. Unabhängig von der Rasse des Unterbrechers hätte die Empörung über die offensichtliche Unhöflichkeit zu einer gesellschaftlichen Züchtigung geführt. Rasse kam ins Spiel, weil Wests Geste eine Vielzahl gesellschaftlicher Konventionen brach. Swift – die erste Country-Sängerin, die einen Video Music Award gewann – wurde von West unterbrochen, einem musikalischen Arbeiter, der sich mit traditionellen Formen der schwarzen Kritik beschäftigt.;-;-;-;https://link.springer.com/chapter/10.1057/9781137395825_13 9fe5957e97e4b92f3d82940ef5bdbee9;de;;;4.2.;;;Entwicklung des Sicherheitsausblicks Im Chinesischen bezieht sich „Sicherheit“ auf einen Zustand der Stabilität und Vollständigkeit ohne Gefahr, Unfall und Bedrohung. Im modernen chinesischen Wörterbuch wird „Sicherheit“ als „weder Gefahr noch Bedrohung“ interpretiert. Das Wort „Sicherheit“ stammt in der westlichen Welt aus dem lateinischen „Securitas“, was den Zustand der Befreiung von Instabilität und Selbstbeherrschung bedeutet und damit erweitert wird auf den Zustand der Loslösung von der Gefahr. Im Englischen ist die Konnotation von Sicherheit umfangreicher als im Chinesischen. Es bezieht sich weder auf Gefahr noch auf Sorgen und auf die Dinge, die Sicherheit bieten und Gefahren oder Sorgen wegnehmen. Obwohl die beiden Sprachen eine unterschiedliche Bedeutung haben, haben sie auch Ähnlichkeiten, und beide vertreten die Auffassung, dass Sicherheit ein Staat ohne Bedrohung und Angst ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36952-0_2 c13e412ce47bc16f97433ffcf2c38d25;de;;;4.2.;;;Jenseits der Schwelle: Die dynamische Schnittstelle als durchlässige Technologie Das Konzept der Zuschauerschaft hat sich aus einer besonderen patriarchalen Perspektive auf die Welt entwickelt, die verkörperte Erfahrung ablehnt und den Blick für den Körper als Ganzes eintreten lässt. Was passiert mit der Idee des Bildschirms, wenn wir wie Alice unseren ganzen Körper hineinstecken? Was passiert mit dem Bildschirm, der Schnittstelle und unserer Subjektposition, wenn wir zu interaktiven Agenten werden und nicht zu passiven Beobachtern? Diese Studie experimenteller Arbeiten von Jill Scott, Martin Reiser, Toni Dove, Guillermo Gómez-Peña und Rafael Lozano-Hemmer untersucht feministische und posthumane Schnittstellen – neue Arten dynamischer Bildschirmtechnologien – und die neuen Themenpositionen, die Künstler schaffen diese künstler schaffen aktiv raum für ein vielfältiges und dynamischeres spektrum von körpern, präsenzen und themen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79486-8_26 ebb4a27af036396357f73702ed141bbc;de;;;4.2.;;;Das Abrufen kategorisierter Elemente erhöht sich ohne zu raten Ohne jegliches Feedback, um den richtigen Rückruf von Einbrüchen zu unterscheiden, nahm der spontane Abruf (ohne weitere Präsentation nach dem ersten Rückruf jedes Items) einer Liste von 20 Tieren während des freien verbalen Lernens schnell zu. Intrusionen, die durch das Erfordernis eines erzwungenen Rückrufs von 20 Items bei jedem Versuch hervorgerufen wurden, nahmen mit zunehmendem korrekten Rückruf ab. Listenelemente wurden nach dem spontanen Abruf mit großer Konsistenz zurückgerufen, der Gesamtrückruf wurde eher durch die anfängliche Schwierigkeit eingeschränkt, ein Element zum ersten Mal aus dem Langzeitspeicher zu holen. Da diese Ergebnisse zeigen, dass die Probanden wissen, welche Elemente zu der Liste gehören, weisen sie darauf hin, dass der spontane Abruf von Elementen derselben Kategorie eher ein Behalten und ein Abrufen als ein Erraten zeigt. Erzwungener Rückruf erhöht den Abruf sogar noch mehr als erweiterter Rückruf, nicht durch Vermutungen, sondern durch Ermutigung zur weiteren Suche im Langzeitspeicher, um mehr Gegenstände wiederzufinden, die beim Auffinden richtig unterschieden werden.;-;-;-;https://link.springer.com/article/10.3758/BF03336709 bd2df1b57c0e17c3c213d78b8adc5f67;de;;;4.2.;;;Transformation von Wohlfahrts- und Geschlechterregimen: Beweise aus Großbritannien und Deutschland Eine Reihe neuerer Studien hat gezeigt, dass die europäischen Wohlfahrtsstaaten durch die gleichzeitigen Prozesse der Globalisierung, des postindustriellen Wandels und des demografischen Wandels nicht radikal verändert oder eingeengt wurden. Wenn wir Piersons Unterscheidung verwenden, können wir sehen, dass es aus der Mainstream-Perspektive einen programmatischen Wandel gegeben hat, aber es gibt noch nicht viele Beweise für einen weitreichenden systemischen Wandel. Aus geschlechtsspezifischer Perspektive erscheint der Wohlfahrtswandel jedoch systemischer und radikaler. Die Feminisierung des Arbeitsmarktes und die Sorge um die Gleichstellung der Geschlechter wirken sich radikal auf die Wohlfahrtsstaaten und insbesondere auf die traditionell starken Männerverdienerstaaten aus. Dieses Papier übernimmt die These von Jane Lewis, dass es derzeit eine Regime-weite Verschiebung hin zu Wohlfahrtsstaaten des Modells für erwachsene Arbeitnehmer gibt. Anschließend sucht und findet es Hinweise auf eine zunehmende Integration von Frauen in den Arbeitsmarkt im Vereinigten Königreich und in Deutschland. Es bewertet auch das Spektrum der Maßnahmen, die eingeführt wurden, um die Anreize und die soziale Infrastruktur zu verbessern, die den Übergang alleinerziehender Mütter von der Sozialhilfe in den Übergang in die Erwerbstätigkeit in diesen Staaten ermöglichen und unterstützen.;-;-;-;https://link.springer.com/article/10.1057/palgrave.cep.6110006 c0aef8a99f8f98057650fb38aba13fe3;de;;;4.2.;;;Globale Herausforderungen für die Menschheit: Wie können ethische Überlegungen routinemäßiger in globale Entscheidungen einfließen? Die Einbeziehung ethischer Prinzipien in die globale Entscheidungsfindung und Umsetzung ist keine einfache oder monolithische Aufgabe. Unterschiedliche Kulturen nehmen Ethik aus unterschiedlichen Perspektiven wahr, was es für internationale Gremien und Organisationen schwierig macht, ethikbezogene Entscheidungen zu treffen und ethikbezogene Ziele zu setzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-15027-7_10 735be9e77d94508f85ef3d6e459eea3d;de;;;4.2.;;;Individueller Bindungsstil, Selbstauskunft und wie Menschen soziale Netzwerke nutzen Social Network Site ist eine der am schnellsten wachsenden und beliebtesten Anwendungen im Internet. Menschen verwenden SNS, um Beziehungen zu anderen aufrechtzuerhalten und zu verbessern. Wie sie SNS nutzen, sollte davon beeinflusst werden, wie sie soziale Beziehungen zu anderen bewerten, was durch den individuellen Bindungsstil beeinflusst wird. Diese Studie untersuchte die Auswirkungen des individuellen Bindungsstils auf die Selbstauskunft und das Nutzerverhalten bei Facebook. Die Ergebnisse einer Online-Umfrage zeigten, dass sich der individuelle Bindungsstil auf ihr Posting- und Antwortverhalten auswirkt, die Bereitschaft zur Selbstauskunft auch Auswirkungen auf das Posting, die Beantwortung und die Offenheit ihres Verhaltens der Benutzer.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-48319-0_4 d4f09cb25088bc17154b164ff123acdc;de;;;4.2.;;;Wissenschaft und Praxis im Nachhaltigkeitsprozess Das Kapitel befasst sich mit Veränderungen im Verhältnis von Wissenschaft und Praxis in der nachhaltigen Entwicklung. Solche Veränderungen legen nahe, dass sowohl Wissensprozesse als auch -praktiken in disziplinären Wissenskulturen unzureichend reflektiert werden: Produktion, Verbreitung, Transfer, Austausch, Brückenbildung, Integration, Synthese, Wissensaustausch und kollektives Lernen. Die Wissensanwendung wird durch neue Kommunikations- und Handlungsformen modifiziert, wobei der konventionelle Wissenstransfer von der Wissenschaft in die Politik über neue Technologien durch bidirektionale Kommunikation und Wissensaustausch ersetzt wird. Die Schlussfolgerung zeigt, dass eine nachhaltige Entwicklung durch die Anwendung neuer Instrumente und Wissenspraktiken erneuert werden muss, mit denen komplexe Probleme der Nachhaltigkeitstransformation gelöst werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-56627-2_8 4816cae320e4b233f973634be883934f;de;;;4.2.;;;Auf dem Weg zu einer anderen Jugendforschung: Jugend und Forscher als affektive Assemblagen Jugend bewegt uns, faszinieren uns, üben einen Sog auf uns aus (Stewart 2007). Bilder und Erzählungen der Jugend berühren uns. Wir sind betroffen von der Form moralischer Panik um Gangstas, Tyrannen, schwangere Teenager, tätowierte und gepiercte Körper. Und wir sind betroffen von Feiern der Jugend, wie der Frauenpower von Malala,;-;-;-;https://link.springer.com/chapter/10.1057/9781137377234_13 bf3b9021f9d3f10ddd115866b0c67c00;de;;;4.2.;;;Ethische Grenzen von IKT und älteren Nutzern: kulturelle, pragmatische und ethische Fragen Die Realität eines alternden Europas hat auf die Bedeutung der elektronischen Integration für eine wachsende Bevölkerung von Senioren aufmerksam gemacht. Für einige kann dies bedeuten, die digitale Kluft zu schließen, indem Zugang zu und Unterstützung für Technologien geboten wird, die die Bürgerbeteiligung erhöhen, für andere bedeutet E-Inklusion Zugang zu unterstützenden Technologien, um ihr unabhängiges Leben zu erleichtern und zu verlängern. Diese Initiativen decken ein soziales Bedürfnis ab und bieten der europäischen Industrie wirtschaftliche Möglichkeiten. Obwohl dies zweifellos wünschenswert ist und von Initiativen der Europäischen Union unterstützt wird, könnten mehrere kulturelle Annahmen oder Fragen im Zusammenhang mit den Initiativen sowie ihre praktischen und ethischen Auswirkungen von einer eingehenderen Untersuchung profitieren. Diese Arbeit beginnt, diese theoretischen und praktischen Bedenken zu berücksichtigen. Der erste Teil des Papiers untersucht kulturelle Fragen und Annahmen, die für die Einführung von E-Technologien relevant sind, und die darauf angewandten ethischen Prinzipien. Dazu gehören (1) das Fortbestehen von Altersdiskriminierung, selbst bei der E-Inklusion, (2) unterschiedliche Ansätze und Implikationen eines unabhängigen Lebens und (3) die Werte, die mit unterschiedlichen ethischen Prinzipien verbunden sind, angesichts ihrer Auswirkungen auf die Rechenschaftspflicht gegenüber älteren Nutzern. Das Papier diskutiert dann praktische Fragen und ethische Bedenken, die durch den Einsatz von Smart Home- und Überwachungstechnologien bei älteren Menschen aufgekommen sind. Das Verständnis dieser Annahmen und ihrer Auswirkungen wird fundiertere Entscheidungen bei der Förderung der ethischen Anwendung elektronischer Lösungen für ältere Menschen ermöglichen.;-;-;-;https://link.springer.com/article/10.1007/s10676-011-9276-4 ca1fb273705bb544081704bb7f1d55c4;de;;;4.2.;;;Kinder auf die politische Agenda setzen: Neuseelands Agenda für Kinder In Neuseeland gibt es ein weit verbreitetes Sprichwort: „Dies ist ein großartiger Ort, um Ihre Kinder großzuziehen“. Aber was sagen Kinder dazu? Ist es ein großartiger Ort für Kinder? Diese Fragen wurden Kindern in ganz Neuseeland im Rahmen der Entwicklung der neuseeländischen Kinderagenda (im Folgenden „Agenda“) gestellt (MSD, 2002a). Die im Juni 2002 vom Ministerium für soziale Entwicklung (MSD) veröffentlichte Agenda ist eine übergreifende Regierungsstrategie zur Verbesserung der Ergebnisse für Kinder in Neuseeland. Es besteht aus einer Vision: „Neuseeland ist ein großartiger Ort für Kinder: wir kümmern uns umeinander“, einer Reihe von Leitprinzipien, die alle Regierungspolitiken und Serviceentwicklungen in Bezug auf Kinder unterstützen, einem neuen „ganzen Kind“-Ansatz zur Entwicklung Politiken und Dienstleistungen für Kinder sowie sieben zentrale Aktionsbereiche für die weitere politische Arbeit.;-;-;-;https://link.springer.com/chapter/10.1057/9780230523197_11 14bdb0a68d9326620ae95d1f91cd2674;de;;;5.2.;;;Überblick über den INEX 2007 Ad-hoc-Track Dieses Papier gibt einen Überblick über den INEX 2007 Ad-hoc-Track. Der Hauptzweck des Ad-hoc-Tracks bestand darin, den Wert der internen Dokumentenstruktur (wie durch das XML-Markup bereitgestellt) für das Abrufen relevanter Informationen zu untersuchen. Aus diesem Grund wurden die Abrufergebnisse auf beliebige Passagen liberalisiert und Maßnahmen gewählt, um Systeme, die Elemente, Bereiche von Elementen und willkürliche Passagen abrufen, gerecht zu vergleichen. Der INEX 2007 Ad Hoc Track umfasste drei Aufgaben: Für die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85902-4_1 b6c007b13da2102fa9ebef8afdfc2fb6;de;;;5.2.;;;Echtzeit-Bildverarbeitung für einen Fußball spielenden mobilen Roboter Dieses Papier beschreibt visionsbasiertes Verhalten für einen autonomen mobilen Roboter. Diese Verhaltensweisen bilden eine Reihe von Primitiven, die bei der Entwicklung grundlegender Fußballfähigkeiten verwendet werden. Diese Fähigkeiten werden schließlich genutzt, um die Herausforderung zu meistern, die von der Initiative „The Robot World Cup“ gestellt wurde. Im Mittelpunkt der Diskussion steht die mit diesen Verhaltensweisen verbundene Bildverarbeitung. Experimentelle Ergebnisse und Analysen der visuellen Verarbeitungstechniken werden ebenfalls vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-64473-3_56 8ce8b3149d4ac1da4324b3801a10d15c;de;;;4.2.;;;Vergleichende Existenzsicherungssysteme aus Gender-Perspektive mit Fokus auf Japan Dieses Kapitel untersucht die Entwicklung von Systemen zur Sicherung der Existenzgrundlage seit den frühen 1980er Jahren in den wichtigsten Industrieländern mit besonderem Fokus auf Japan. Wie Esping-Andersen in seinem „Vorwort zur japanischen Ausgabe“ von;-;-;-;https://link.springer.com/chapter/10.1057/9780230624870_3 1d1bff6cdac4d00b951596ab5a763b73;de;;;4.2.;;;Erfolgreiches Fürstentum – Der schwedische Fall In diesem Artikel stellen wir die allgemeine Situation im schwedischen Pflichtschulsystem dar und untersuchen Hypothesen über die Beziehung zwischen Struktur, Kultur und Führung als Voraussetzungen für eine erfolgreiche Schulleitung. Auf der Grundlage früherer Forschungen skizzieren wir Argumente, dass eine erfolgreiche Schulleitung davon abhängt, wie die Schulleitung auf Struktur und Kultur einwirkt, um zu Veränderungen beizutragen, die zu erfolgreichen Schulen führen sollten. Eine erfolgreiche Schule wird in schwedischen Gesetzen und politischen Dokumenten als eine Schule definiert, die sowohl in Bezug auf akademische als auch soziale Ziele hohe Leistungen zeigt;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-5516-1_6 3bc0bafd74667b000bf61745fe473966;de;;;5.2.;;;SKETCHify – Ein adaptiver Algorithmus zur Erkennung prominenter Kanten für optimierten Abfrage-für-Skizze-Bildabruf Der Abfrage-für-Skizze-Bildabruf verwendet im Gegensatz zum inhaltsbasierten Bildabruf nach einem Query-by-Example-Ansatz von Menschen gezeichnete binäre Skizzen als Abfrageobjekte, wodurch die Notwendigkeit eines anfänglichen Abfragebilds, das dem Informationsbedarf der Benutzer ausreichend entspricht, überflüssig wird. Dies ist besonders wichtig, wenn der Benutzer nach einem bekannten Bild sucht, d. h. einem Bild, das zuvor gesehen wurde. Bisher litt Query-by-Sketch unter zwei Haupteinschränkungsfaktoren. Erstens neigen Benutzer dazu, sich beim Zeichnen von Binärskizzen auf die Hauptkonturen der Objekte zu konzentrieren, während Texturen oder Kanten innerhalb der Objekte und im Hintergrund ignoriert werden. Zweitens die eingeschränkte Fähigkeit der Benutzer, das bekannte Objekt, nach dem gesucht wird, in der richtigen Position, Skalierung und/oder Ausrichtung zu skizzieren. Somit müssen effektive Abfrage-für-Skizze-Systeme es Benutzern ermöglichen, sich auf die Hauptkonturen des oder der Hauptobjekte zu konzentrieren, nach denen sie suchen, und gleichzeitig solche Ungenauigkeiten tolerieren. In diesem Artikel stellen wir SKETCHify vor, einen adaptiven Algorithmus, der in der Lage ist, die markanten Objekte in einem Bild zu identifizieren und zu isolieren. Dies wird erreicht, indem Heuristiken angewendet werden, um die besten Kantenkarten-Schwellenwerte für jedes Bild zu ermitteln, indem die Intensität, die räumliche Verteilung und der plötzliche Spitzenanstieg von Kanten überwacht werden, um Kantenkarten zu erzeugen, die den von Menschen gezeichneten Skizzen so nahe wie möglich kommen. Wir haben SKETCHify in QbS integriert, unser System für den Query-by-Sketch-Bildabruf, und die Ergebnisse zeigen eine signifikante Verbesserung sowohl des Retrieval-Ranks als auch der Retrieval-Zeit, wenn die markanten Kanten für den Retrieval genutzt werden, im Vergleich zu Query-by-Sketch, der auf normal basiert Randkarten. Je nach Qualität der Abfrageskizze erlaubt SKETCHify sogar, Invarianzen bezüglich Position, Maßstab und Rotation im Retrievalprozess bereitzustellen. Für die Auswertung haben wir Bilder aus dem MIRFLICKR-25K-Datensatz und eine kostenlose Clipart-Sammlung ähnlicher Größe verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12093-5_14 b5540e07ad1b66d52ae173808f8c68c8;de;;;4.2.;;;Interaktion von Onkogenen mit Differenzierungsprogrammen Ein wiederkehrendes Thema bei der Erforschung der Funktion und des Wirkmechanismus von Onkogenen und ihren protoonkogenen Vorfahren ist die Betrachtung dieser Gene im Kontext der normalen Entwicklung. Es gibt sowohl direkte Hinweise darauf, dass Onkogene die Expression von Markerproteinen in einer Vielzahl differenzierter Zelltypen verändern können, als auch Hinweise auf die entwicklungsbedingte Regulation der Expression vieler Proto-Onkogene. Zusammengenommen führt dieser Beweis zu der Spekulation, dass einige dieser Proto-Onkogene als Regulatoren der normalen Zelldifferenzierung fungieren. Leider ist unser derzeitiges Wissen über die Mechanismen, die die Zelldifferenzierung steuern, ziemlich primitiv. Der Fokus liegt dabei auf der Steuerung von Zellschicksalen während der Entwicklung und der Regulation großer Gruppen von Genprodukten, die der Unterscheidung unterschiedlicher Zellphänotypen dienen. Während dieser Prozess wahrscheinlich einige Eigenschaften mit den Systemen teilt, die einzelne Gene regulieren, stellt sich die Frage eher nach der Koordination der Genfunktionen, was die Regulatoren kontrolliert oder koordiniert, was ihnen erlaubt, auf Entwicklungssignale zu reagieren, und was ist die Natur? der Signale, auf die sie reagieren. Es ist wahrscheinlich, dass diese Fragen eine Vielzahl von Antworten haben werden, die von dem betrachteten Zelltyp abhängen. Ich glaube, dass die Studien über die Funktionen von Onkogenen kritische Einblicke in den Mechanismus liefern werden, der den Mysterien der Zelldifferenzierung zugrunde liegt. Mein wesentliches Ziel in diesem Review ist es, einige grundlegende Entwicklungskonzepte in einer Form neu zu definieren, die einen Kontext für die Diskussion der Entwicklungsrollen für die Proto-Onkogene und für die Intervention in den Entwicklungsprozess durch Onkogene bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-74697-0_2 084903a50a6b8d4d7bd6eacfcc6a6581;de;;;5.2.;;;Quarks und Gluonen in Hadronen und Kernen Diese Vorlesungen diskutieren (1) die Teilchen-Kern-Grenzfläche — eine allgemeine Einführung in die Ideen und Anwendungen von farbigen Quarks in der Kernphysik, (2) Farbe, das Pauli-Prinzip und Spin-Flavour-Korrelationen — dieser Vortrag zeigt, wie die magnetischen Momente von Hadronen beziehen sich auf den zugrunde liegenden Farbfreiheitsgrad und (3) den Spin des Protons – eine Quarkmodell-Perspektive. Dieser Vortrag gibt einen Überblick über die jüngsten Aufregungen, die einige zu der Behauptung veranlasst haben, dass bei der tief inelastischen Streuung von polarisiertem Lepton sehr wenig des Spins eines polarisierten Protons auf seine Quarks zurückzuführen ist. Vorlesung (4) diskutiert die Verteilungsfunktionen von Quarks und Gluonen in Nukleonen und Kernen und wie diese Kenntnisse notwendig sind, bevor einige Quark-Gluonen-Plasmasuchen analysiert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-75289-6_4 2114a1d28ab0ab5d458dd3f0f36bddbb;de;;;4.2.;;;Gestaltung des Lehrsystems von College-Studenten basierend auf dem KNN-Algorithmus Die virtuelle Community der College-Studenten hat sich zu einer neuen Plattform für die ideologische und politische Bildung der Hochschulen im neuen Medienzeitalter entwickelt. Der Artikel wählt als Forschungsobjekt die neue medienintegrierte Serviceplattform einer Universität aus, verwendet die Chat-Inhalte der virtuellen Community der Plattform als Datenquelle und verwendet die Content-Mining-Software ROSTCM zur Analyse der Daten. Es analysiert die allgemeinen Merkmale der Netzwerkstruktur des Politischen Theorieunterrichts und die Beteiligungsrollen der Mitglieder. Fasst die zwischenmenschlichen Beziehungen und die Informationsverbreitungsmerkmale der Online-Community zusammen und fasst sie zusammen und unterbreitet auf dieser Grundlage Vorschläge und Vorschläge für die perfekte Funktion, reichhaltigen Inhalt sowie den Betrieb und das Management der Community, um die Wirksamkeit und Wissenschaftlichkeit von ideologische und politische Bildung im Internet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-51556-0_107 420211a68ff5a08c19a75402667a4a55;de;;;4.2.;;;Wie beeinflussen Haushaltsrollen die Wahl des Reisemodus von Einzelpersonen bei haushaltsinternen Interaktionen? Der Haushalt ist in der Regel ein wesentliches Element für die aktivitätsbasierte Reiseentscheidung von Einzelpersonen. Aus der Perspektive des Haushaltskontexts werden Aktivitäten häufig aufgrund ihrer Haushaltsrollen einzelnen Personen zugewiesen, was das Reiseverhalten der Personen beeinflusst. Durch die Definition der Haushaltsrolle anhand von räumlich-zeitlichen Beschränkungen, die mit individuellen Aktivitäten und Haushaltsaktivitäten verbunden sind, untersucht dieser Beitrag die Verkehrsmittelwahl von Einzelpersonen unter Berücksichtigung der Auswirkungen unterschiedlicher Haushaltsrollen. Die deskriptiven Statistiken der Haushaltsrollen und der entsprechenden Reiseart werden anhand der Daten aus Kunming, China, dargestellt. Die statistischen Ergebnisse zeigen, dass die Modal Splits zwischen Frauen und Männern einen signifikanten Unterschied in den gleichen Haushaltsrollen ausmachen. Darüber hinaus wird die Wahl des Reisemodus von Frauen und Männern getrennt unter Verwendung eines multinomialen logistischen Regressionsmodells geschätzt. Die Ergebnisse zeigen, dass diejenigen, die im Zusammenhang mit Haushaltsaufgaben mehr Raum-Zeit-Zwängen ausgesetzt sind, weniger bereit sind, mit dem Auto zu reisen. Angesichts der zunehmenden Einschränkungen beim Pendeln neigen Haushaltsvorstände, insbesondere weibliche Vorstände, dazu, das Auto zu nutzen, um den Reisebedarf der Haushaltstätigkeit zu decken. Darüber hinaus haben das Alter, der Bildungsstand und die Anzahl der Autos und Fahrräder im Haushalt auch einen signifikanten Einfluss auf die Wahl des Verkehrsmittels.;-;-;-;https://link.springer.com/article/10.1007/s12205-018-1821-9 b1bfb770c77e37d689e0cd1dca7023bd;de;;;4.2.;;;Wie funktioniert soziales Feedback von einem Roboter? Die Wirkung von Sprache, körperlichem Erscheinungsbild und Bewertung entwirren Frühere Untersuchungen haben gezeigt, dass Feedback zum Energieverbrauch sozialer Natur zu einem geringeren Energieverbrauch führte als ein tatsächliches Feedback zum Energieverbrauch. Es war jedoch nicht klar, welche Elemente des sozialen Feedbacks (d. h. die Bewertung des Verhaltens, die Verwendung von Sprache oder das soziale Erscheinungsbild der Feedbackquelle) diese höhere Überzeugungskraft verursachen. In einem ersten Experiment untersuchten wir die Rolle der Bewertung, indem wir den Energieverbrauch von Teilnehmern verglichen, die während der Nutzung einer virtuellen Waschmaschine sachliches, bewertendes oder soziales Feedback erhielten. Die Ergebnisse legten nahe, dass soziales Feedback zu einem geringeren Energieverbrauch führte als sowohl sachliches als auch bewertendes Feedback. Im zweiten Experiment untersuchten wir die Rolle von Sprache und physischem Erscheinungsbild bei der Verbesserung der Überzeugungskraft von bewertendem Feedback. Insgesamt legt die aktuelle Forschung nahe, dass das Hinzufügen von nur einem sozialen Hinweis ausreicht, um die Überzeugungskraft des bewertenden Feedbacks zu erhöhen, während die Kombination beider Hinweise die Überzeugungskraft nicht weiter verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13226-1_7 2d17be1b4e8fd42ed5c4fbfe15de81f6;de;;;4.2.;;;Eine retrospektive strukturelle Untersuchung der misslichen Lage der Menschheit Churchman widmete seine Karriere der Sensibilisierung von Systemwissenschaftlern und anderen Forschern für das, was er als „enorme Probleme“ bezeichnete. Aus seiner Sicht handelt es sich dabei um Probleme, die nicht von einer einzelnen Disziplin oder einem einzelnen Forscher, sondern von interdisziplinären Forscherteams angegangen werden können. Dieses Kapitel erzählt die Geschichte, wie eine Gruppe von Forschern im Kontext des Prospekts des Club of Rome (AdR) zur Zwangslage der Menschheit Anfang der 70er Jahre einen sehr zukunftsorientierten und innovativen Systemansatz vorschlug. Es brauchte über zwanzig Jahre Forschung und Entwicklung, um ein Paradigma der Structured Design Science (SDS) zu entwickeln, das seit fünfzehn Jahren in der Praxis erprobt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-27589-4_7 3275cbd22a1a236fcb000f1c4ffa4e0b;de;;;4.2.;;;Kritische Auseinandersetzung mit Hauptthemen in Meads Denken Der Reichtum der grundlegenden Themen Meads ist so groß, dass eine gründliche und systematische Kritik seines gesamten Gedankenguts die Grenzen unserer vorliegenden Studie deutlich überschreiten würde. Wir beschränken uns notwendigerweise auf die Betrachtung einiger wichtiger Doktrinen und konzentrieren unsere Diskussion auf fünf zentrale Themen, die Meads Position charakterisieren: das Selbst, das andere Selbst, die Handlung, die Zeitlichkeit und die Sozialität. Es könnte gut sein, gleich zu Beginn darauf hinzuweisen, warum diese speziellen Probleme aus der Fülle von Themen in Meads Werk ausgewählt wurden. Zunächst einmal sollte klar sein, dass jede Kritik an Meads genereller Position nicht umhin kann, sich mit den von uns ausgewählten Themen zu beschäftigen, es sind zentrale Themen. Eine zweite Überlegung ist, dass die fünf ausgewählten Themen in Meads gesamtem Werk entweder diskutiert oder impliziert werden: Es ist nicht möglich, seine Theorien zu Gestik, Kommunikation, Sprache, Bewusstsein usw. zu verstehen, ohne die Probleme des Selbst und des anderen zu berücksichtigen des Selbst, des Aktes und seiner Stadien, Fragen der zeitlichen Spanne des Aktes und seines Verhältnisses zur Gegenwart und schließlich die grundlegende Frage nach dem Grund all dieser Strukturen, der Sozialität. Ein dritter Faktor bei unserer Auswahl dieser Themen ist, dass sie für die Grundlage und Struktur der Sozialwissenschaften insofern entscheidende Probleme darstellen, als diese sich grundsätzlich mit dem Wesen der gesellschaftlichen Realität befassen. In welcher Form auch immer die Themen artikuliert werden, ein wahres Verständnis der Grundlagen der Sozialwissenschaften muss Probleme wie die Natur des Selbst, der Gruppe und die beides beinhaltende Situation einbeziehen. Aus all diesen Gründen sind Meads Erkenntnisse nicht nur an sich wertvoll, sondern neigen dazu, unsere Aufmerksamkeit auf die grundlegenden Probleme der Sozialwissenschaften zu lenken.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-2408-2_3 8279e5a15db1f79365aed827fabadf18;de;;;4.2.;;;Netzwerkanalysetechniken für Online-Chat Die multivokale Analyse wendet zwei oder mehr Forschungsmethoden auf denselben Datensatz an und wendet dann die Reflexivität in einer gemeinsamen Analyse an, um größere Erkenntnisse zu gewinnen, als dies mit einer einzelnen Methode möglich wäre. In dieser Pilotstudie zeigen wir, wie die Anwendung bestimmter Methoden durch die Reihenfolge der Methoden beeinflusst wird, und präsentieren einen Leitfaden für die zukünftige multivokale Analyse von Online-Chat-Daten mit netzwerkanalytischen Techniken. Wir tun dies in zwei Phasen. Erstens verwenden wir Stahls ethnomethodologische Analyse einer Sitzung des Biologie-Chat-Diskurses, um Entscheidungen darüber zu treffen, wie implizite Verbindungen zwischen Teilnehmern identifiziert und gewichtet werden können. Implizite Verbindungen sind nützlich, weil sie leicht automatisiert und in Echtzeit dargestellt werden können. Anschließend stellen wir Stahls Analyse den Netzwerken gegenüber, die wir aus diesen impliziten Verbindungen ableiten, und zeigen einige Ähnlichkeiten. Zweitens verwenden wir Tatiana, um ethnomethodologisch informierte Netzwerke für die gesamten Korpora zu konstruieren und eine Netzwerkanalyse der resultierenden expliziten Verbindungen durchzuführen. Die Ergebnisse stimmen nicht mit unserer ersten Phasenanalyse der Netzwerkposition und -rollen für Mitglieder überein. Eine weitere Untersuchung zeigt, dass die von Stahl für die ethnomethodologische Analyse gewählte Sitzung andere Merkmale aufweist als die anderen sechs Sitzungen, was unsere Verwendung dieser Analyse zum Aufbau impliziter Verbindungen in den Korpora in Frage stellt. Wir schließen mit einer klaren Vision für die Anwendung des methodischen Ansatzes der Gruppeninformatik auf Korpora vor der Durchführung zeitaufwändiger qualitativer Methoden wie ethnomethodologisch informierter Analyse. Wir argumentieren, dass das Verweben von Methoden in der richtigen Reihenfolge zu schnelleren und tieferen Erkenntnissen führen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-8960-3_29 e55046a73fc30f8b63154afe222756a4;de;;;5.2.;;;Einführung: Ein multidisziplinärer Ansatz für die digitale Landschaft Dieses Kapitel führt in das Hauptthema des Buches ein und beschreibt die großen Herausforderungen, denen man bei der Navigation durch Online-Wissenslandschaften in der digitalen Welt begegnet. Das Kapitel hebt die wichtigen Beiträge hervor, die die vielen verschiedenen Disziplinen der beitragenden Autoren zum Verständnis dieses Navigationsprozesses leisten. Es bietet eine Zusammenfassung des Buches und seiner Struktur sowie die Position des Textes in der breiteren Reihe Gesundheit, Technologie und Gesellschaft.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8206-6_1 8291473e2b2b296c6d4d04cdfd003e6e;de;;;4.2.;;;Temporale Spitze- Auf Social-Tagging-Sites werden Benutzern einfache Möglichkeiten zum Erstellen sozialer Netzwerke, zum Posten und Teilen von Elementen wie Lesezeichen, Videos, Fotos und Artikeln sowie Kommentaren und Tags bereitgestellt. In diesem Beitrag stellen wir eine Studie zu Top-;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12026-8_38 8cdf090a1ed4d89c7163eafa5baf927e;de;;;4.2.;;;Einsatz von Quantencomputern zum Verständnis von Kulturen und globalen Geschäftserfolgen Eine Fülle verschiedener Kulturen koexistiert friedlich, während sie gleichzeitig Geschäftspraktiken herausfordern, um wirtschaftliche Vorteile, wie beispielsweise den technologischen Fortschritt für alle, zu fördern. In diesem Kapitel werden geografische Unternehmenskulturen anhand der Studie Global Leadership and Organizational Behavior Effectiveness (GLOBE) analysiert. Globale Studien sind so umfangreich, dass es aufgrund ihrer Internationalität schwierig ist, ein glaubwürdiges Szenario sowohl für vergangene Veranstaltungsstunden als auch für zukünftige Technologien zu erstellen, die sich schnell schließen, und ein noch nicht gebauter theoretischer Maschinen-Geschäftsprozessor wie ein Quantencomputer ist die erforderliche Hardware für eine globale Ansicht, während die Schrödinger-Gleichung für ein freies Teilchen verwendet wird, um die Wahrscheinlichkeit der Position eines Quantenbits (oder Qubits) zu bestimmen. Ein Qubit, und wie wir später sehen werden, kann ein Quantum Byte (oder QuByte) theoretisch genug Informationen enthalten, um eine Studie zur Kulturdimensionsmatrix zu bearbeiten. In diesem Kapitel wird eine Gleichung vorgeschlagen, die auf einer 9-Kulturdimensionsmatrix basiert: „Uncertainty Avoidance“ (Ua), aber auch „Assertiveness“ (As) und zusätzlich „Gender Differentiation“ (Gd) mit „Performance Orientation“ (Po) wie „Humane Orientation“ (Ho) und „In-Group Collectivism“ (IgC) auch „Institutional Collectivism“ (Ic) sowie „Power Distance“ (Pd) und schließlich „Future Orientation“ (Fo). Diese Gleichung würde einen funktionsfähigen Quantencomputer erfordern, um experimentell einen Machbarkeitsnachweis zu demonstrieren. In naher Zukunft können wir mit einem Quantencomputer rechnen, um einen Algorithmus für Südeuropa, Südostasien und eine Gruppe englischsprachiger Länder namens Anglo (Australien, Neuseeland, Kanada, England, Irland, Südafrika, und die Vereinigten Staaten). Wenn Informatik und Kultur endlich zu einer einzigen Disziplin verschmelzen, nämlich dem Pygmalion-Leader-with-a-Personal-Brand (PLwaPB), der die Personal-Brand-as-a-Service (EPBaaS) seiner Mitarbeiter vergöttert, wird es einen globalen Bedarf geben für eine Noosphäre (vom Gewissen beherrscht werden).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-60296-3_5 087f3bc6d53ab5b01590b06da74b880f;de;;;4.2.;;;Finanzkrise, demokratische Konsolidierung und Intervention der Zivilgesellschaft, 1997–2007 Die unterschiedlichen Strukturen der koreanischen politischen Ökonomie, die den ersten Übergang des Landes von einer armen, nach innen gerichteten Agrarwirtschaft zu einer reifen, prosperierenden Industriewirtschaft erfolgreich bewältigten, begannen zunehmend, Koreas zweiten Übergang vom Industrie- zum postindustriellen Zeitalter zu behindern. Die Faszination der koreanischen Führung für das Modell „hohe Verschuldung, hohes Wachstum“ führte zu einer „Fertigungsfalle“, in der der Wettlauf der Unternehmen um große Überkapazitäten in verschiedenen Industriesektoren zu ernsthaften Überkapazitäten führte. Anstatt in neue technisch-wissenschaftliche Bereiche zu investieren, begannen große Unternehmen in Korea, sich in den überfüllten Massenproduktionsindustrien gegenseitig auszubluten. Diese Situation führte zu einem halsbrecherischen Unternehmenswettbewerb, der in ernsthaften industriellen Überkapazitäten, Korruption und Diversifizierung zu unabhängigen Unternehmen und unbekannten Gebieten gipfelte. Die unkoordinierte Auslandsexpansion in diversen Industriegebieten durch führende Chaebols führte zu einer nicht tragfähigen Unternehmensverschuldung. Die Investitionen der Daewoo Corporation in hochriskante Projekte in der ehemaligen UdSSR, Osteuropa und Südostasien belasteten die Unternehmensfinanzen. Ebenso war Samsungs unverhohlener Drang, in den überfüllten Automobilsektor einzusteigen, ein weiteres Beispiel dafür. Darüber hinaus trugen der Abbau der EPB, unkoordinierte Finanzmarktöffnungen und übereilte Reformen des Bankensektors, die vorzeitige Beendigung der „strategischen Industriepolitik“ aufgrund des zunehmenden Drucks der internationalen Institutionen dazu bei, dass die effektive staatliche Kontrolle über die Leitung und Führung der nationalen Wirtschaft.;-;-;-;https://link.springer.com/chapter/10.1057/9781137451248_7 7afc29f3066b23b03c9dca9a89a2e073;de;;;5.2.;;;Wirkung von Ethanol auf den ventralen tegmentalen Bereich: neue potenzielle Angriffspunkte auf Neuronen des Belohnungsweges Der ventrale Tegmentalbereich (VTA) bewertet die Bedeutung von Umweltreizen und bietet eine dopaminerge Innervation für viele Hirnareale, die von akuter und chronischer Ethanolexposition betroffen sind. Obwohl es in erster Linie mit belohnenden und verstärkenden Reizen in Verbindung gebracht wird, deuten neuere Erkenntnisse auch auf eine Rolle der VTA bei der Aversion hin. Ethanolaktionen in der VTA können eine Neuroadaptation auslösen, was zu einer Verringerung der aversiven Reaktionen auf Alkohol und einer relativen Zunahme der belohnenden Reaktionen führt. Bei der Suche nach wirksamen Pharmakotherapien zur Behandlung von Alkoholmissbrauch und Alkoholismus kann die Erkennung dieses Ungleichgewichts neue Strategien aufdecken. Zusätzlich zu herkömmlichen Rezeptor-/Ionenkanal-Pharmakotherapien können epigenetische Faktoren, die die Neuroadaptation an eine chronische Ethanolbehandlung steuern, als Weg für die Entwicklung therapeutischer Ansätze zur Wiederherstellung des Gleichgewichts anvisiert werden. Darüber hinaus müssen bei der Erforschung von Therapien zur Behebung des Ungleichgewichts zwischen Belohnung und Abneigung bei der Wirkung von Alkohol in der VTA geschlechtsspezifische Unterschiede berücksichtigt werden, um eine wirksame Behandlung sowohl für Männer als auch für Frauen zu gewährleisten. Diese Prinzipien gelten für einen VTA-zentrierten Ansatz für Therapien, sollten jedoch gelten, wenn man über den Gesamtansatz bei der Entwicklung neuroaktiver Medikamente zur Behandlung von Alkoholkonsumstörungen nachdenkt. Obwohl die Funktionen des VTA selbst komplex sind, ist es ein nützliches Modellsystem, um das Belohnungs-Aversions-Ungleichgewicht zu bewerten, das bei einer Ethanolexposition auftritt, und könnte verwendet werden, um neue Hinweise bei den Bemühungen zur Entwicklung neuer Medikamente zur Behandlung von Alkoholismus zu liefern.;-;-;-;https://link.springer.com/article/10.1007/s00213-018-4875-y d8a613576ac490cac90efe2ead3373b8;de;;;4.2.;;;Die Rolle mangelhafter Selbstregulierung bei der Bildung von Facebook-Gewohnheiten Mit der Verbreitung neuer Social-Media-Technologien (z. B. Facebook) wächst die Besorgnis über das Problem der Technologieabhängigkeit. In Anbetracht der Tatsache, dass ein Mangel an Selbstregulation eine notwendige Bedingung für das Auftreten von Abhängigkeit ist, zielt diese Studie darauf ab, die Rolle einer mangelhaften Selbstregulation bei der Gewohnheitsbildung im Kontext von Online-Social-Networking-Sites (SNSs) zu untersuchen. Die Ergebnisse einer empirischen Studie mit 406 Facebook-Nutzern zeigen, dass eine mangelhafte Selbstregulation eine Rolle bei der Wahrnehmung der SNS-Nutzer spielt, die indirekt die Gewohnheiten beeinflusst. Unser theoretisches Modell der Habitusbildung erklärt 43,7% der Varianz. Implikationen der Ergebnisse werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35879-1_78 52de0f2986a6bca9a36ef7d888aba2bd;de;;;4.2.;;;Heilung und Trost im Netz: Geschlecht und Emotionen in gewalttätigen häuslichen Umgebungen Der vorliegende Artikel analysiert den Online-Ausdruck von Emotionen in Umgebungen extremer Not. In einer computervermittelten Kommunikationsumgebung werden weltweit Unterstützungsgemeinschaften geschaffen, auch um in Fällen von Gewalt gegen Frauen zu helfen. Die Rolle des Geschlechts in der virtuellen Kommunikation und die von Frauen in diesen Kontexten verwendete Sprache wurden auf ihre Besonderheiten hin analysiert. Diese Frauen drücken ihren Schmerz und ihre gegenseitige Unterstützung durch gebräuchliche und weniger häufig verwendete Adjektive aus, sowohl positiv als auch negativ. Ebenso neigen sie dazu, mehr soziale Wörter und wenige Selbstreferenzen zu verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-41733-2_4 3bb7bf7f83964c6c689f64953db18967;de;;;5.2.;;;Isotopentrennung der Lanthanoidgruppenelemente durch die Methode der zweistufigen selektiven Photoionisation Die Experimente zur Lasertrennung der Isotope der Elemente der Lanthanoidengruppe haben gezeigt, dass die Gewinnung isotopenreiner Materialien durch die Methode der selektiven Photoionisation möglich ist.;-;-;-;https://link.springer.com/article/10.1007/BF01120911 9e858fd2cc4971d461977dad8b99b8d0;de;;;4.2.;;;Dynamische Steuerungsanordnung in einem personalisierten Lernsystem basierend auf der Benutzerkompetenz Dieses Papier schlägt den e-Space Manager vor, um eine Lernumgebung zu rekonstruieren und beschreibt die Methode, die verwendet wird, um Komponenten zu modifizieren. Das vorgeschlagene System analysiert die Benutzerkompetenzen und die Ergebnisse beeinflussen, welche Komponenten die Benutzer auswählen können. Das heißt, es ermöglicht nicht nur die Neuanordnung von Komponenten, sondern auch die Modifikation von Komponenten gemäß den Kompetenzen des Benutzers. Um die Wirksamkeit des vorgeschlagenen Systems zu überprüfen, wurde der e-Space Manager auf ein SQL-basiertes Lernsystem angewendet. Die Benutzer wählten die gewünschten optionalen Lerninhalte. Es wurde bestätigt, dass Informationen über die Kompetenz des Lernenden die Lernkomponenten beeinflussten. Eine Befragung der Nutzer ergab eine höhere Zufriedenheitsbewertung für das vorgeschlagene Studiensystem als für das bisherige System. Mit diesem System könnten Tutoren nicht nur die Fähigkeiten der Lernenden genau auf der Grundlage ihrer Kompetenzen analysieren, sondern auch Lernbereiche empfehlen und jedem Einzelnen eine maßgeschneiderte Umgebung bieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27180-9_57 2530ddcf9d03fe7cab7b04d4f3053dbf;de;;;4.2.;;;Auf dem Weg zu einer Wissenschaft der Gruppenkognition Das Studium virtueller Mathematikteams beinhaltet Erkundungen entlang mehrerer Dimensionen: (a) Entwerfen eines Testbeds zur Unterstützung der Interaktion innerhalb von Teams, (b) Analysieren, wie Mathematik in diesem Umfeld diskutiert wird, und (c) Beschreibung, wie die Teams ihre kognitiven Aufgaben erfüllen. In den vorangegangenen Kapiteln wurde auf verschiedene Weise gezeigt, wie virtuelle Mathematikteams ihre gemeinsamen Welten des mathematischen Diskurses kokonstruieren. In diesem abschließenden Kapitel wird diskutiert, wie das VMT-Projekt eine Umgebung entworfen hat, in der dies stattfinden und untersucht werden kann, es überprüft, wie das Projekt die rigorose Untersuchung der Vorgänge in diesen virtuellen Welten angegangen ist, und reflektiert die Natur der Gruppenkognition als Objekt für wissenschaftliche Untersuchungen. Auf diese Weise bereitet der vorliegende Band den Weg für eine Wissenschaft der Gruppenkognition, eine systematische Beschreibung der Prozesse auf Gruppenebene der Analyse, die zur Problemlösung, Wissensbildung und anderen kognitiven Aufgaben beitragen können, die von kleinen Gruppen durchgeführt werden, die synchron über vernetzte zusammenarbeiten Computers.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-0228-3_28 e133918f33eebf2c4e3033cd69237151;de;;;4.2.;;;Mit Kopf, Hand und Herz Obwohl viele Technologien positive Auswirkungen auf Individuen, Gesellschaften und Umwelten gehabt zu haben scheinen, gibt es erhebliche Kontroversen um die „Wegwerf-Ethik“, die viele aktuelle Produktdesignprozesse durchdringt (Slade, 2006). Nicht alle befürworten beispielsweise „technisches Versagen“, das anscheinend in einige Technologien integriert ist – was zum Beispiel darauf hindeutet, dass diese Praxis den Deponieinhalt und die damit verbundenen Gesundheitsprobleme erhöht.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-6209-938-8_15 e313a105d9157102f3d7b0ad32ff05af;de;;;4.2.;;;Eine Integration von Bildverarbeitungslösungen für Social Media Listening Social Media ist zur zentralen Plattform im modernen digitalen Marketing von heute geworden, daher ist es für Unternehmen von entscheidender Bedeutung, solche Kanäle für die Entscheidungsfindung und das Kundenbeziehungsmanagement strategisch zu nutzen. Angesichts der Tatsache, dass die kontextualisierenden Marketing-Erkenntnisse, die durch das Zuhören in sozialen Medien ausschließlich mit Textdaten gewonnen wurden, unterschiedlich sind, untersucht diese Studie die Verwendung von Bildern, um den Bildkontext zu erfassen, um ein besseres Verständnis von Marketing-Erkenntnissen zu erlangen. Durch die Integration verschiedener vorhandener Bildverarbeitungstools und -dienste (Google Cloud Vision und Microsoft Cognitive Services) und die Aggregation der Bildanalysedaten können relevante kontextbezogene Erkenntnisse durch Datenvisualisierungsberichte des Systems erfasst werden. Befürworter von Social Media Listening wie Marketingforscher, Markenbefürworter, Produktmanager und andere Personen, die an Marketing-Geschäftsfunktionen beteiligt sind, könnten diese Studie als bedeutsam erachten, da die aktuellen Social Media Listening-Tools meist textbasiert sind und die Bildanalyse immer noch ein relativ junges Feld in der Social Media Analytics.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0058-9_54 837ce2c2eda32c0179d579f34761087e;de;;;4.2.;;;Ein Überblick über einige aktuelle dänische Bevölkerungstrends Bevor wir die dänischen Bevölkerungstrends und -perspektiven betrachten, betrachten wir kurz einige Fragen des institutionellen, politischen und wirtschaftlichen Hintergrunds der aktuellen Bevölkerungsentwicklung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-59800-5_5 cf26904681ba1b504355d68666ceabeb;de;;;5.2.;;;Unsicherheit in Softwareprojekten managen Obwohl Probleme, die in Softwareprojekten auftreten, nicht vorhersehbar sind, können Projektmanager Strategien anwenden, die ihren Projekten eine größere Widerstandsfähigkeit verleihen. Während eines Softwareprojekts kann eine Reihe von Praktiken etabliert werden, um mit Unsicherheiten umzugehen. Dieses Papier schlägt einen Ansatz zum Management von Unsicherheit in Softwareprojekten vor. Der Ansatz scheint die Leistung und den Erfolg des Projekts zu verbessern. Diese Arbeit basiert auf den Prinzipien des evidenzbasierten Software Engineering. Wir führen eine explorative Literaturrecherche und eine systematische Literaturrecherche durch. Darüber hinaus führen wir Aktionsforschung in einem Softwareentwicklungsprojekt durch. Um diesen Ansatz zu evaluieren und zu verbessern, wurden teilstrukturierte Interviews durchgeführt. Schließlich hielten wir eine Fokusgruppe ab, um den endgültigen vorgeschlagenen Ansatz zu bewerten. Die explorative Überprüfung half, den Unterschied zwischen Risiko und Unsicherheit zu charakterisieren. Die systematische Literaturrecherche ergab fünf Methoden und 18 Praktiken zur Reduzierung von Unsicherheiten. Die Aktionsforschung wendete einige dieser Techniken an und untersuchte, ob sie zu einem besseren Unsicherheitsmanagement beitragen. In den teilstrukturierten Interviews wurde der Ansatz um praktische Gesichtspunkte ergänzt. Diese Arbeit definiert einen Ansatz zum Unsicherheitsmanagement und beschreibt Strategien, die es Teammitgliedern ermöglichen, Unsicherheit in Softwareprojekten explizit zu formalisieren und zu managen.;-;-;-;https://link.springer.com/article/10.1007/s11334-017-0297-y adeb72671e55b5e3c5b5c2e495a97f64;de;;;4.2.;;;Beteiligungstechnologien: Eine Fallstudie zu CSCL@Work in der Mammographie Wir haben mit Klinikern (Mentoren und Auszubildenden) zusammengearbeitet, um eine computergestützte Trainingsumgebung für die Mammographie zu entwickeln. In diesem Kapitel greifen wir auf unsere Erfahrungen aus diesem Projekt zurück, um zwei wichtige Themen für CSCL@Work zu entwickeln. Zunächst untersuchen wir, inwiefern die Ausbildungsumgebung eine „Technologie der Beteiligung“ darstellt, die das Spektrum der praxisbezogenen Erfahrungen der Auszubildenden erweitert, um ihre berufliche Entwicklung zu fördern. Zweitens veranschaulichen wir, wie kollaborative Lernpraktiken für die Relevanz von Inhalten und Erfahrungen für die Praxis und Leistung in der „realen Welt“ entscheidend sind. Schließlich überlegen wir, wie neue kollaborative Angebote eingeführt werden können, die eine relevante Arbeit in diesem veränderten Kontext unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-1740-8_6 3706d15f069ef82f349c92a4f4a8952a;de;;;4.2.;;;Reaktion auf Sucht James K. Baxter kämpfte zeitlebens mit seiner Sucht nach Alkohol. Sein Konzept eines „Cold Hub“ oder des inneren Nichts fängt etwas von der sozialen Leere ein, die im Kern von Suchtsystemen liegt. Im vorigen Kapitel wurde skizziert, wie sich innerhalb eines sozialen Systems die zunehmende Dominanz einer Suchtbeziehung von Beziehungsverschlechterungen an anderer Stelle nährt. Dies führt zu Fragmentierungserfahrungen für andere Personen im System. In diesem Kapitel werden die Aussichten auf Veränderungen untersucht. Er skizziert den Wandel als einen langsamen und schwierigen Weg, der Krisenzeiten, Vorwärts- und Rückschritte und Umdenken beinhaltet, bevor der Weg für die Wiedereingliederung festgelegt ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-72661-8_4 e3441a6209a42006561cd29c0726aa0f;de;;;4.2.;;;Customers’ Value Co-Creation im Automobilsektor – die Fallstudien des BMW Co-Creation Lab und des Volkswagen People’s Car Project in China Der Beitrag analysiert das Konzept der Wertschöpfung, das sich zu einem aufstrebenden Markttrend in der Automobilindustrie entwickelt hat. Es trägt zu den bestehenden Studien zur Wertschöpfung bei, indem es die Auswirkungen des Kundenengagements im kollaborativen Innovationsprozess auf Unternehmen analysiert. Die Hauptziele des Papiers sind die Darstellung des Co-Creation-Konzepts und die Identifizierung der Co-Creation-Anreize sowohl aus Kunden- als auch aus Unternehmenssicht anhand einer Literaturrecherche. Der theoretischen Überlegung folgen empirische Erkenntnisse anhand von Fallstudienbeispielen des BMW Group Co-Creation Lab und des Volkswagen People’s Car Project in China.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-59270-7_17 74c199dc70821680d9cf2c69854571d4;de;;;4.2.;;;Programmteilnahme und Weltanschauung Wie bereits erwähnt, war die Beteiligung an der Einbruchsprävention landesweit weniger als wünschenswert. Sicherlich sind einige Programme Ausnahmen von dieser Verallgemeinerung. Aber wahrscheinlich haben noch viele mehr BewohnerInnen aus ihrer Sicht triftige Gründe für die Teilnahme an der Einbruchsprävention genannt, doch die BewohnerInnen weigern sich, dies zu tun. Ein solches Programm kann ihnen die Schuld geben, dass sie den Nutzen, den sie schwinden, nicht erkennen und wenig oder keine zusätzlichen Anstrengungen unternehmen, um die Teilnahme zu fördern. Andere Programme betrachten solche Ablehnungen möglicherweise nur als erste Reaktion und versuchen, neue, wirksamere Botschaften oder Argumente zu entwickeln, um die Bewohner zu überzeugen, Maßnahmen zum Schutz ihrer Häuser und ihres Eigentums zu ergreifen. Dieses Kapitel richtet sich an Leser, die sich für den letztgenannten Ansatz interessieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-2790-8_3 b9643ecd3a7bc91590b3f1444d44bb8d;de;;;4.2.;;;Konnektivismus und Interaktionismus laden Wissensnetzwerke in der Cloud wieder auf Wissen ist kein „Ding“ und kein bloßer Datenpool, der verwaltet werden kann. Wissen ist der Lernprozess. Was also wirklich zählt, ist die Frage, wie sich der Lernprozess im Kontext mit . verändert;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10671-7_1 be7fde16584c65de3e4182f3226e1913;de;;;5.2.;;;Ordoliberalismus 2.0: Auf dem Weg zu einer neuen Regulierungspolitik für das digitale Zeitalter Angesichts mehrerer laufender kartellrechtlicher Untersuchungen in der EU und den USA analysiert das folgende Forschungspapier, ob „Big Tech“ – ebenso wie die Großbanken – besondere regulatorische (und wirtschaftspolitische) Aufmerksamkeit benötigen und wenn ja, wie eine aktualisierte Regulierungspolitik für das digitale Zeitalter aussehen könnte. Dies geschieht durch die Nutzung – und Wiederbelebung – der normativen und wirtschaftsethischen Ideale des deutschen „Neoliberalismus“, auch bekannt als (klassischer) Ordoliberalismus. Insbesondere die Arbeit von Walter Eucken hat das Potenzial, die aktuelle Debatte um die Regulierung von Big Tech zu informieren und zu bereichern. Das Hauptziel des Papiers besteht darin, einen potenziell neuen Regulierungsrahmen zu skizzieren – einen, der den Ordoliberalismus von Eucken mit der Wettbewerbspolitik der Europäischen Union kombiniert (und revidiert).;-;-;-;https://link.springer.com/article/10.1007/s40926-020-00134-0 8134a09da5889c9c72c4821603a181a5;de;;;4.2.;;;Demokratie, Kommunikation und Bildung im 21. Jahrhundert Die dramatischen technologischen Fortschritte, die unsere gegenwärtige vernetzte Gesellschaft kennzeichnen, haben die Art und Weise verändert, wie Menschen miteinander kommunizieren, erziehen und interagieren. Wie könnten wir auf diesen Fortschritten aufbauen, um die demokratische Essenz von Lernprozessen zum Wohle der Gesellschaft als Ganzes und ihrer einzelnen Mitglieder zu stärken? Welche Möglichkeiten gibt es? Was sind die Herausforderungen und Bedrohungen? In diesem Kapitel wird der Mehrwert von Kommunikationstechnologien für Demokratie und Bildung untersucht. Auf dieser Analyse baut es dann bei seiner Untersuchung der Beziehungen zwischen Demokratie und Bildung auf, die in einer konkreten Fallstudie veranschaulicht wird: eine Reihe von zwei miteinander verbundenen interdisziplinären Studiengängen in der Hochschulbildung, die den Titel dieses Buches – Lernen in einer vernetzten Gesellschaft . tragen . Als solches zeigte es ein starkes Potenzial für die gegenseitige Förderung von Ideen zwischen Erziehungswissenschaftlern – die sich auf die interventionistische, designbasierte Lernforschung konzentrieren – und Sozialwissenschaftlern, die sich möglicherweise auch auf die analytische Untersuchung spontaner sozialer Phänomene konzentrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-14610-8_7 719c5e7c95074455502a10926cb04e4d;de;;;4.2.;;;Wahrnehmung des Datenschutzes in sozialen Medien unter Informatikstudenten Menschen treffen sich an verschiedenen Orten und aus unterschiedlichen Gründen, und diejenigen mit gemeinsamen Interessen interagieren normalerweise und haben etwas zu teilen – das ist das traditionelle Modell des sozialen Netzwerks. Obwohl Social Networking in einer virtuellen Welt stattfindet, hat es die Kommunikation in mehreren Aspekten unseres Lebens wie Bildung, Wirtschaft, Gesundheitswesen, Regierung usw. positiv verändert. Soziale Netzwerke haben jedoch die Offenlegung des Privatlebens, die Belästigung unerwünschter Chat-Nachrichten und die ungesunde Cyber-Überwachung erhöht. Diese Studie zielt darauf ab, die Datenschutzbedenken und das Bewusstsein für Datenschutzrichtlinien in sozialen Medien bei Informatikstudenten zu untersuchen, indem sie einen Überblick über einige der Datenschutzherausforderungen bei der Verwendung von Social-Networking-Anwendungen gibt. Wir führten außerdem eine Online-Umfrage durch, um Daten zu ihren Ansichten zu sammeln, indem wir ihr Verständnis und ihre Verwendung der Datenschutzeinstellungen auf ihren bevorzugten Plattformen untersuchten. Es wurde festgestellt, dass unsere Teilnehmer hauptsächlich Facebook, WhatsApp und Instagram verwenden, und die Ergebnisse zeigen, dass nur 23,8% die Datenschutzvereinbarung lesen. Etwa 30,1% bzw. 13,3% akzeptieren Freundschaftsanfragen vom Freund von Freunden bzw. von Fremden. Außerdem haben 89,2 % der Benutzer ihre Datenschutzfunktionen aktiviert und 82,9% geben an, mit den aktuellen Datenschutzeinstellungen auf ihren Social-Media-Sites zufrieden zu sein, was möglicherweise der Grund dafür ist, dass nur 54,2 % der Benutzer ein hohes Maß an Bedenken hinsichtlich ihrer Privatsphäre zeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-69143-1_44 80eff336b4fe6bc84dc793cada0f7af8;de;;;5.2.;;;Algorithmen zur Synthese von Polynomen, die schwach spezifizierte boolesche Funktionen und Systeme implementieren Berücksichtigt werden schwach spezifizierte boolesche Funktionen und Systeme. Für ihre Implementierung durch UND/EXOR-Schaltungen werden eine Reihe praktisch effektiver Algorithmen vorgeschlagen, die auf der Optimierung von Polynomdarstellungen und den Lösungen geeigneter Matrixlogikgleichungen beruhen. Die erhaltenen Ergebnisse werden auf mehrwertige Logik erweitert.;-;-;-;https://link.springer.com/article/10.1023/B%3AAURC.0000030908.29984.ca 3f4149717b7a638b6d6f37a7da3b9f04;de;;;4.2.;;;Förderung der Shareconomy: Auswirkungen vorteilhafter Reize und persönlicher Merkmale auf die Attraktivität von Vermietungs- und Wiederverkaufsplattformen In letzter Zeit waren viele Berichte über die „Shareconomy“ und den kollaborativen Konsum (CC) in den Medien zu finden. Das Time Magazine bezeichnete das Teilen sogar als eine der „10 Ideen, die die Welt verändern werden“ und behauptete, dass die Eigentumsgesellschaft des 20. Jahrhunderts mehr und mehr durch eine Gesellschaft des Teilens ersetzt wird (Walsh, 2011). Die wissenschaftliche Literatur auf diesem Gebiet ist jedoch rar und es scheint, dass Wissenschaftler gerade erst begonnen haben, dieses Phänomen gründlicher zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-15220-8_4 a115de761647dc34e549fb5e3d2e2e44;de;;;5.2.;;;Ungefähre Implementierungen der reinen Zufallssuche in Anwesenheit von Rauschen Wir diskutieren das verrauschte Optimierungsproblem, bei dem Funktionsauswertungen zufälligem Rauschen unterliegen. Eine Anpassung der reinen Zufallssuche an eine verrauschte Optimierung durch wiederholtes Abtasten wird in Betracht gezogen. Wir führen ein und nutzen ein;-;-;-;https://link.springer.com/article/10.1007/s10898-004-9970-4 1ee98694022ee0cee74e242e1b1a4f93;de;;;5.2.;;;Ein formaler Ansatz zur Analyse von Wissenstransferprozessen in Entwicklungsländern Der Wettbewerbsvorteil einer Organisation hängt von ihrer Fähigkeit ab, Wissen effektiv zu transferieren. Die Forschung legt nahe, dass Wissenstransfer (KT) für viele Organisationen nach wie vor ein Problem darstellt, insbesondere in Entwicklungsländern mit aufstrebenden Wissensökonomien. Die Analyse von organisatorischen KT-Problemen in diesem Zusammenhang könnte hilfreich sein, um besondere Herausforderungen für eine nachhaltige Entwicklung zu diagnostizieren. In diesem Papier wenden wir einen formalen Modellierungsansatz an, um die KT-Prozesse innerhalb von Organisationen abzubilden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24690-6_34 46ba849325584db8ee57690446447e22;de;;;5.2.;;;Aoristische Signaturen und die räumlich-zeitliche Analyse von Kriminalitätsmustern mit hohem Volumen Die räumliche Analyse der Kriminalität und die aktuelle Fokussierung auf Hotspots haben den Bereich Crime Mapping in den Vordergrund gerückt, insbesondere im Hinblick auf großvolumige Delikte wie Fahrzeugdiebstahl und Einbruchdiebstahl. Hotspots haben auch eine zeitliche Komponente, aber polizeilich erfasste Kriminalitätsdatenbanken erfassen selten den tatsächlichen Zeitpunkt der Straftat, da dieser selten bekannt ist. Polizeiliche Kriminalitätsdaten spiegeln in der Regel eher die routinemäßigen Aktivitäten der Opfer wider als die Deliktsmuster der Täter. Dieses Papier demonstriert eine Technik, die polizeiliche START- und END-Kriminalitätszeiten verwendet, um eine Wahrscheinlichkeit des Auftretens von Straftaten zu einem bestimmten Zeitpunkt zu generieren, die kartographiert oder grafisch visualisiert werden kann. Eine Studie in den östlichen Vororten von Sydney, Australien, zeigt, dass geografisch nahe gelegene Kriminalitäts-Hotspots deutlich unterschiedliche zeitliche Muster aufweisen können.;-;-;-;https://link.springer.com/article/10.1023/A%3A1013240828824 3483e12db24ad1a70722f60df5677a9c;de;;;4.2.;;;Modellierung des Mentoring-Dialogs innerhalb einer Social-Networking-Site für Lehrer Online-Tools für soziale Netzwerke versprechen, Mentoring, berufliche Entwicklung und den Austausch von Ressourcen zwischen Lehrern über das Internet zu ermöglichen. Dieses Papier beschreibt einen ersten Versuch, den Lehrerdialog zu modellieren, ein Versuch, der schließlich zu Overlay-Tools führen wird, die diese Art von nützlichem Gemeinschaftsverhalten fördern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21869-9_78 8c29694f3ffbd0717fc35eaf5ef1cbd9;de;;;4.2.;;;Mobilisierung und Integration amerikanisch-orthodoxer Einwanderer in Israel Die Mehrheit der amerikanisch-orthodoxen Juden, die nach 1967 nach Israel einwanderten, entschied sich, sich im Gebiet von Jerusalem und in den Siedlungen im Westjordanland und im Gazastreifen niederzulassen. In Israel ist die soziale und politische Mobilisierung dieser Einwanderer in Siedlerbewegungen bekannt dafür, dass sie die Behörden beeinflussen, Gelder beschaffen, in Netzwerken kooperieren und von den Medien gehört werden. Entgegen israelischer allgemeiner Meinung sollte die Mobilisierung der amerikanischen orthodoxen Juden nicht nur an ihren radikalen politischen Positionen, sondern auch an den ursprünglichen Methoden, die sie bei ihrem Mobilisierungsakt verwendeten, und ihrem Einfluss auf die israelische Politik identifiziert werden. Dieses Kapitel soll zeigen, wie sich die amerikanischen Einwanderer an israelischen Siedlungen beteiligen, wie sie ihre zusätzliche parlamentarische Mobilisierung sichtbar machen und welchen Integrationsprozess sie durchlaufen, um Israelis zu werden. Mobilisierung und Integration werden diskutiert, um die Pluralität und Komplexität des amerikanisch-orthodoxen Aktivismus in Israel hervorzuheben.;-;-;-;https://link.springer.com/chapter/10.1057/9780230621749_3 90f9e99df2613676875b4449b97c695d;de;;;4.2.;;;Der Einfluss von Bindungsstilen auf den Wissensaustausch in Social-Media-Umgebungen Soziale Medien sind sehr beliebt geworden. Die Zahl der Social-Media-Nutzer und die Zahl der Interaktionen zwischen ihnen ist enorm. Das Umfeld der sozialen Medien bietet eine Reihe von Aktivitäten, darunter den Austausch von Fotos und Videomedien, den Austausch von Ideen und Kommentaren sowie den Aufbau persönlicher und beruflicher Netzwerke. Dementsprechend dient die Social-Media-Umgebung sowohl für Vollzeitstudierende als auch für erwachsene Lernende als sinnvolle Ergänzung zum informellen Lernen außerhalb des Klassenzimmers. Daher ist es von entscheidender Bedeutung, dass Lehrkräfte die Determinanten des Online-Wissensaustauschs verstehen. In dieser Studie wird ein bestehender Modellrahmen angepasst, um die Motivationsfaktoren zu untersuchen, die den Wissensaustausch zwischen Einzelpersonen in der Social-Media-Umgebung antreiben, insbesondere um festzustellen, ob es Unterschiede im Bindungsstil beim Online-Wissensaustausch gibt. Die hypothetischen Zusammenhänge zwischen den identifizierten Motivationsfaktoren und dem Online-Wissensaustauschverhalten werden dann anhand eines Fragebogens getestet, der an 3.590 postsekundäre Studierende, die sich an einer lokalen Universität bewerben, verabreicht wurde. Die Ergebnisse zeigen, dass die wahrgenommene Bindungsmotivation (das Bedürfnis, eine Beziehung aufzubauen) und das wahrgenommene Beziehungsengagement (das Bedürfnis, eine Beziehung aufrechtzuerhalten) wichtige Determinanten des Online-Wissensaustauschs sind. Eine weitere Analyse der Bindungsstile zeigt, dass Personen mit hohem Bindungsstil die Notwendigkeit, Beziehungen aufzubauen, höher einschätzen als ihre Kollegen mit niedrigem Bindungsstil. Die Ergebnisse sind jedoch umgekehrt für die Notwendigkeit, eine Beziehung aufrechtzuerhalten. Die Implikationen für die Förderung des Wissensaustauschverhaltens im Umfeld der sozialen Medien werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32018-7_22 4a8f52bb72feab88b47501f888743ebc;de;;;5.2.;;;Tempo und gut lesen Dieses Kapitel untersucht die Bedeutung von Tempo und Rhythmus im Unterricht und im Forschen, indem es sich auf eine Fallstudie für eine Hypertext-Schreibaufgabe in einem Nietzsche-Seminar konzentriert. Die Untersuchung integriert aktuelle lese- und lernwissenschaftliche Forschungen und hinterfragt historische und zeitgenössische Befürchtungen, dass neue Medien nicht nur das Leseverständnis, sondern sogar die Kognition untergraben. Besonders besorgniserregend ist die Verschmelzung von Geschwindigkeit und Leichtigkeit in einigen Diskussionen. Es wird argumentiert, dass neben der Anpassung neuer Technologien insbesondere an die Bedürfnisse der geisteswissenschaftlichen Forschung eine den Aufgabenstellungen angemessene wissenschaftliche Gepflogenheit zu entwickeln ist:;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-9166-6_12 aef99e1777201b4da93dc68fedfa490d;de;;;4.2.;;;Social Media und E-Voting – Ein sicheres und vertrauenswürdiges politisches Forum für Palästina Elektronische Behördenanwendungen sind heutzutage ein gängiges Werkzeug für Regierungen auf der ganzen Welt. Die Erfolgsquote beim Gewinnen des Vertrauens der Bürger/Nutzer und die Beteiligungsquoten an demokratischen Prozessen sind von Land zu Land sehr unterschiedlich. Soziale Medien haben es geschafft, das Vertrauen von Menschen aller Kulturen und Herkunft zu gewinnen und scheinen das Mittel zu sein, durch das die E-Partizipation verbessert und die Bürger für einen sicheren und vertrauenswürdigen E-Demokratie-Prozess gewonnen werden können. Dies könnte sich als besonders nützlich für Regierungen erweisen, die Bürgern dienen müssen, die über die ganze Welt verstreut sind. Die Autoren untersuchen das Vertrauensniveau von Palästinensern, die in verschiedenen Ländern leben, in E-Voting-Systeme und soziale Medien, und diese laufende Arbeit versucht, die Eignung solcher Systeme zur Unterstützung einer echten E-Demokratie zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-51064-4_23 14d8501c651f567a58c4b24b8908fa8e;de;;;4.2.;;;Einfluss und Passivität in Social Media Die ständig wachsende Menge an Informationen, die durch Social Media fließen, zwingt die Mitglieder dieser Netzwerke, um Aufmerksamkeit und Einfluss zu konkurrieren, indem sie sich darauf verlassen, dass andere Menschen ihre Botschaft verbreiten. Eine umfangreiche Studie zur Informationsverbreitung innerhalb von Twitter zeigt, dass die Mehrheit der Nutzer als passive Informationskonsumenten agiert und die Inhalte nicht an das Netzwerk weiterleitet. Damit Einzelpersonen einflussreich werden können, müssen sie daher nicht nur Aufmerksamkeit erlangen und damit beliebt sein, sondern auch die Passivität der Benutzer überwinden. Wir schlagen einen Algorithmus vor, der den Einfluss und die Passivität von Benutzern basierend auf ihrer Informationsweiterleitungsaktivität bestimmt. Eine Auswertung mit einem Datensatz von 2,5 Millionen Nutzern zeigt, dass unser Einflussmaß ein guter Prädiktor für URL-Klicks ist und mehrere andere Maßnahmen übertrifft, die die Passivität der Nutzer nicht explizit berücksichtigen. Wir zeigen, dass hohe Popularität nicht unbedingt großen Einfluss bedeutet und umgekehrt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23808-6_2 db2bf5f5931889170ff2ef1c49e7ed6c;de;;;4.2.;;;Ein hybrider Systemdynamik- und Fuzzy-Logik-Ansatz für das soziale Problem der Korruption in Kolumbien Dieses Papier präsentiert einen systemdynamischen Ansatz für das Korruptionsproblem in Kolumbien. Die Hauptursachen wurden in Dienstleistungssystemen und deren Zusammenhang mit dem Drogenhandel identifiziert. Jedes dieser Probleme wurde nach der System Dynamics-Methodik modelliert, wobei Kausaldiagramme und Simulationsmodelle erstellt wurden, die die Dynamik der Faktoren darstellen, die Korruption beeinflussen, wie: wirtschaftliche, politische, soziale, psychologische und kulturelle Faktoren. Diese Faktoren werden in ein allgemeines Simulationsmodell mit Fuzzy-Logik in den Eingaben integriert, das es ermöglicht, das modellierte Verhalten zu validieren und Aspekte zur Reduzierung der Korruption in Kolumbien zu identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-66963-2_23 1872670f880f5605485333c086f603d9;de;;;4.2.;;;Interaktionsbewusste Einflussmaximierung in sozialen Netzwerken Das Problem der Einflussmaximierung gehört zu den wichtigsten Themen im Bereich Social Networking und hat viele Forschungsarbeiten nach sich gezogen. In letzter Zeit wurde das Problem der Einflussmaximierung auf praktische Szenarien ausgeweitet. In diesem Kapitel stellen wir ein hochmodernes Problem namens wechselwirkungsbewusste Einflussmaximierung vor, das eine nicht-submodulare Optimierung beinhaltet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-16194-1_14 d69f6c5ca318eceab94989cc6276b125;de;;;4.2.;;;Eine Konferenz wird virtuell: Lehren aus der Erstellung eines gesellschaftlichen Ereignisses in der virtuellen Realität Konferenzen und Workshops sind wichtige Aktivitäten in Organisationen für Kommunikation und Zusammenarbeit und in der Wissenschaft, um speziell neue Forschungsideen zu kritisieren und zu entwickeln. Um soziale Interaktionen während der Pandemiesituation zu ermöglichen, nutzen Organisationen Online-Lösungen wie Videokonferenzsysteme. Es wurde eine große Anzahl virtueller Konferenzen angeboten, die mehr Teilnehmer anzogen, da die Kosten und der Beteiligungsaufwand geringer waren. Geselligkeit und informeller Austausch zwischen den Konferenzteilnehmern während der Kaffeepausen und des Konferenzdinners ist jedoch in einer virtuellen Konferenzumgebung kaum möglich. Konferenzen sind wichtig, um andere Forscher zu treffen, ein Netzwerk aufzubauen und in der Zukunft zusammenzuarbeiten, was für die Gesellschaft entscheidend ist - um Grenzwissen zu schaffen. Virtual Reality könnte eine Alternative zu üblichen Videokonferenzen sein, da sie die soziale Interaktion zwischen verschiedenen Teilnehmern ermöglichen und so den direkten Kontakt mit zukünftigen Mitarbeitern unterstützen könnte. Unser Beitrag erklärt, wie wir bei einer Online-Konferenz im akademischen Bereich mit 22 Teilnehmern in drei nordischen Ländern ein soziales Ereignis in virtueller Realität erstellt und durchgeführt haben. Basierend auf 17 Interviews mit schwedischen und dänischen Teilnehmern analysieren wir wahrgenommene Vorteile und Herausforderungen, denen sich die Veranstaltungsteilnehmer gegenübersehen. Unsere Ergebnisse liefern interessante Einblicke und Empfehlungen für Veranstalter virtueller Konferenzen, um Socializing in der virtuellen Realität zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-75004-6_9 782f673bf27b4592a9a03a6d64172cab;de;;;4.2.;;;Abweichung und Grenzen der (Gefängnis-) Ethnographie: Nachtrag zur Feldforschung in einem indischen Gefängnis Die Inhaftierung ist ethnographisch äußerst schwer zu dokumentieren. Möglicherweise bietet die Sozialanthropologie mit ihrer ethnographischen Methode eine sinnvolle Möglichkeit, Inhaftierungsräume darzustellen und darin marginalisierte Stimmen auszudrücken. Diese Aussagen drücken die von Natur aus paradoxe Begegnung zwischen Ethnographie und Gefängnissen aus. Rhodes (2001) argumentierte in einem bahnbrechenden Übersichtsaufsatz über die Anthropologie von Gefängnissen, dass es für Ethnographen in Gefängnissen notwendig sei, nicht nur in Gefängnisse zu gehen und das Leben innerhalb der Gefängnismauern zu beschreiben, sondern, noch wichtiger, „die Bedingungen des Gefängnisses zu unterbrechen“. Debatte“ (2001: 75). Wacquant (2002) formulierte etwas anderes: dass es im Kontext der Ethnographie der verfinsterten Gefängnisse für Ethnographen wichtiger ist, Gefängnisse zu betreten und die Lücke in der Literatur über Gefängnisse durch „dicke Beschreibungen“ einer Reihe verschiedener Arten von Gefängnisräumen zu füllen. In diesem Kapitel bilden solche Beobachtungen zur Anthropologie von Gefängnissen den Hintergrund für Überlegungen zu ihrer methodischen Bedeutung für Gefängnisethnographen.;-;-;-;https://link.springer.com/chapter/10.1057/9781137403889_24 49ceb54ca8f44e30f438d488e3565241;de;;;4.2.;;;Spuk und Rennen: Ralph Ellisons Der Zweite Weltkrieg sah mehr als eine Million Afroamerikaner im Militärdienst, und bis 1944 waren Rassenspannungen innerhalb der streng getrennten Armee so problematisch, dass das Kriegsministerium gezwungen war, Rassendiskriminierung in Freizeit- und Transporteinrichtungen zu verbieten, um die Situation zu lindern. Schwarze Führer nutzten die durch den Krieg hervorgehobene rassistische Intoleranz in der sogenannten „Doppel-V“-Kampagne: Afroamerikaner wurden aufgefordert, die Kriegsanstrengungen zu unterstützen und den Sieg über den Faschismus im Ausland sicherzustellen, während sie gleichzeitig den Kampf gegen Segregation und Diskriminierung für einen Sieg aufrechterhalten über Jim Crow in Amerika.;-;-;-;https://link.springer.com/chapter/10.1057/9780230119093_3 9fad17f131648f29dd20714961931bd0;de;;;4.2.;;;Analyse sozialer Netzwerke von „Clexa“-Community-Interaktionsmustern Das Papier (Die Arbeit wurde teilweise durch den DFNP I02/10 Grant, finanziert vom bulgarischen Wissenschaftsfonds, unterstützt.) präsentiert die Ergebnisse der Untersuchung der Interaktionsmuster der 'clexa'-Fangemeinde bei der Diskussion der TV-Show 'The 100' auf Tumblr . Die Methodik verwendet eine komplexe Netzwerkanalyse und ein neuronales Einbettungsmodell, um die topische Homophilie des Netzwerks zu untersuchen. Es betrachtet die Hashtags sowohl als indexikalisches Werkzeug als auch als linguistisches Tag, das gleichzeitig auftretende Netzwerke und Translokalität untersucht. Die Schlussfolgerung zeigt, dass Nutzer durch die Verwendung von Hashtags ihre Kommunikationsmuster ausdrücken und Community-Wissen generieren, was zu kollektiven Aktionen der Fans führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-21507-1_37 3d37c25693399976f8721aa10b6f02d1;de;;;4.2.;;;Die Absicht erklären, Social-Trading-Plattformen zu nutzen: eine empirische Untersuchung Der enorme Aufstieg von Finanztechnologieunternehmen hat traditionelle Finanzinstitute stark herausgefordert. Eine aufkommende Innovation ist „Social Trading“ (ST), das die Vorteile von sozialen Netzwerken und delegiertem Handel kombiniert. ST-Plattformen stellen einen einzigartigen Kontext von Social-Media-Plattformen dar, bei denen die Auswirkungen des sozialen Einflusses auf die Nutzungsabsicht des potenziellen Kunden nicht gut verstanden sind. Darüber hinaus fehlt es Forschern und Praktikern an einem Verständnis für die moderierende Rolle der bisherigen Erfahrungen des Verbrauchers beim Wertpapierhandel. Da die Forschung im Bereich ST noch relativ jung ist, zielt unsere Studie darauf ab, diese Forschungslücken durch die Entwicklung und empirische Validierung eines Modells aus der Perspektive des potenziellen Kunden erstmals zu schließen. Unser Rahmen basiert auf der Unified Theory of Acceptance and Use of Technology und der Theorie zu sozialen Medien und finanziellen Entscheidungen. Unsere Ergebnisse verdeutlichen, dass leistungsbezogene Aspekte die dominanten Determinanten der Verhaltensintention für erfahrene Benutzer sind, während systembezogene und persönliche Barrieren die Verhaltensintentionen der unerfahrenen Gruppe beeinflussen. Folglich wurden Unterschiede bezüglich Leistungserwartung, Aufwandserwartung, Sicherheit und Risikoaversion identifiziert. Unsere Ergebnisse zeigen, dass die Werbeansätze der derzeitigen Plattformbetreiber, die einfache Funktionalität der Plattform zu vermitteln, den Bedürfnissen der Verbraucher nicht angemessen erscheinen.;-;-;-;https://link.springer.com/article/10.1007/s11573-019-00961-2 8d4658b1ec797d940e9431dc5006a740;de;;;5.2.;;;Ein Gefühl des Sinns Es mag seltsam erscheinen, in einem geschäftlichen Kontext verwendet zu werden. Die primäre Definition von „Zweck“ ist „ein zu erreichendes Ziel“, aber „Zwecksinn“ erscheint selbst in der nicht als abgeleiteter Ausdruck;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-14920-9_8 cc891f8f3ee3a3df592563b64154a1aa;de;;;5.2.;;;Von der „Koordinierung von Notfallmaßnahmen“ zum „Humanitären Schutz“: Die Rolle und Aktivitäten des Emergency Water and Sanitation-Health (EWASH) Committee Internationale Agenturen, internationale Nichtregierungsorganisationen (NGOs) und lokale NGOs spielen alle eine bedeutende Rolle bei der Bereitstellung von Wasser- und öffentlichen Gesundheitsdiensten in Palästina. Manche tun auch viel mehr, aber das wird selten erkannt. Einige Agenturen ergänzen als Reaktion die Aktivitäten der Regierungsbehörden der Palästinensischen Autonomiebehörde (PA), setzen sich für eine Änderung oder Umsetzung der Politik ein und nehmen eine zivilgesellschaftliche Rolle ein: Ein Beispiel für die Wechselbeziehung dieser verschiedenen Rollen ist die Notwasser- und Abwasserentsorgung. Gesundheitsausschuss (EWASH).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69509-7_44 b5ad3e5a8bbed8f4d02983b9643784f4;de;;;4.2.;;;Emerging Approach to E2.0: Der Fall von Social Enterprise – Erste Ergebnisse einer einjährigen Feldforschung Enterprise 2.0 bezieht sich auf eine Reihe organisatorischer und technologischer Ansätze, die darauf abzielen, neue Organisationsmodelle zu ermöglichen, die auf offener Beteiligung, aufstrebender Zusammenarbeit, Wissensaustausch, interner/externer Entwicklung und Nutzung sozialer Netzwerke basieren. Es zielt darauf ab, auf die neuen Funktionen und Bedürfnisse der Menschen einzugehen und Flexibilität, Anpassungsfähigkeit und Innovation zu steigern. Technologisch umfasst Enterprise 2.0 die Anwendung von Social-Computing-Tools rund um das Web 2.0 sowie die Übernahme neuer technologischer und infrastruktureller Ansätze wie SOA, BPM, RIA und neuer Servicemodelle wie Software-as-a-Service. Die Herausforderung für die Managementtheorie besteht darin, empirisch fundiertes und umsetzbares Wissen für Unternehmen bereitzustellen, um neue IKT-fähige (virtuelle) Arbeitsumgebungen zu entwerfen und zu implementieren, die die Grenzen ihrer Wissenserzeugung auf ihre mobilen Mitarbeiter, Kunden und Lieferanten ausdehnen. Basierend auf Erkenntnissen aus 70 Fallstudien und einem Kooperationsansatz berichtet das Kapitel über das aufkommende E2.0-Modell und konzentriert sich auf Aspekte der Zusammenarbeit und des Wissensaustauschs.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87783-7_12 c6394962cfb4860c365176dc8ae47c8f;de;;;5.2.;;;Entdeckungsorientierte Verfeinerung bei E-Discovery-Untersuchungen: Sensemaking, kognitive Ergonomie und Systemdesign Angesichts der sehr großen Anzahl von Dokumenten, die bei E-Discovery-Untersuchungen verwendet werden, stehen Anwälte vor einer erheblichen Herausforderung bei der kollaborativen Sinnstiftung. Wir berichten über Ergebnisse aus drei Arbeitsplatzstudien, in denen verschiedene Aspekte der Bewältigung dieser Herausforderung untersucht wurden. Aus soziotechnischer Sicht zielten die Studien darauf ab, zu verstehen, wie Forscher kollektiv und individuell mit Informationen arbeiteten, um die Sinnfindung und Entscheidungsfindung zu unterstützen. Hier konzentrieren wir uns auf die durch Entdeckungen geleitete Verfeinerung, insbesondere darauf, wie die Auseinandersetzung mit den Untersuchungsmaterialien zu Entdeckungen führte, die die Verfeinerung der Probleme und neue Strategien zu ihrer Lösung unterstützten. Diese Verfeinerungen waren für die Lenkbarkeit unerlässlich. Wir beginnen mit Beobachtungen, die zeigen, wie neue Untersuchungslinien rekursiv eingebettet wurden. Anschließend analysieren wir die konzeptionelle Struktur einer Untersuchungslinie und überlegen, wie die Berücksichtigung dieser in E-Discovery-Unterstützungssystemen Skalierbarkeit und Gruppenzusammenarbeit unterstützen könnte. Anschließend konzentrieren wir uns auf die individuelle Aktivität der manuellen Dokumentenprüfung, bei der die Verfeinerung der induktiven Identifizierung von Klassen irrelevanter und relevanter Dokumente innerhalb einer Sammlung entsprach. Unsere Beobachtungen weisen auf die Auswirkungen des Primings auf den effizienten Umgang mit diesen und auf Fragen der kognitiven Ergonomie an der Mensch-Computer-Schnittstelle hin. Wir verwenden diese Beobachtungen, um Visualisierungen vorzustellen, die es den Gutachtern ermöglichen könnten, mit solchen Verfeinerungen effizienter umzugehen.;-;-;-;https://link.springer.com/article/10.1007/s10506-010-9091-y 6b851928010a40a5879b7ef663e79fb1;de;;;5.2.;;;Erstellen topologisch konsistenter 3D-Stadtmodelle von LOD+ mit Extrusion Es gibt viele Methoden, um ein 3D-Stadtmodell zu erstellen, wobei die einfachste darin besteht, Gebäudegrundrisse zu extrudieren, um „blockförmige“ Polyeder zu erhalten, die Gebäude darstellen. Die resultierenden 3D-Stadtmodelle sind zwar topologisch nicht konsistent, wenn die topologischen 2D-Beziehungen zwischen den Footprints nicht berücksichtigt werden. Dadurch erfüllen die erstellten Modelle nur den Zweck der Visualisierung. In diesem Beitrag konzentrieren wir uns auf die Erstellung topologisch konsistenter 3D-Stadtmodelle aus den Grundrissen von Gebäuden mit heterogener Struktur. Die generierten Modelle sind detaillierter als LOD1 von CityGML und werden LOD1+ genannt, die nicht nur die Topologie zwischen Gebäuden konstruieren, sondern auch die interne Strukturtopologie daraus generieren. Wir haben das Verfahren implementiert, mit realen Datensätzen getestet und validiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36137-1_25 93d82771c3974e18267a7be03bff8178;de;;;4.2.;;;Blogger und Leser, die zusammen bloggen: Kollaborative Co-Creation von politischen Blogs Ein erheblicher Teil der Forschung hat sich auf Blogs, Blogger und das Bloggen konzentriert. Allerdings hat relativ wenig Arbeit Blog-Leser, ihre Interaktionen mit Bloggern oder ihren Einfluss auf das Bloggen untersucht. Dieses Papier präsentiert eine qualitative Studie, die sich speziell auf die Leser politischer Blogs konzentriert, um ein besseres Verständnis der Interaktionen der Leser mit Blogs und Bloggern zu entwickeln. Dies ist die erste derartige Studie, die dieselbe Blogging-Aktivität sowohl aus der Perspektive der Leser als auch der Blogger untersucht. Die Bedeutung und die Beiträge der Leser zu Blogs werden anhand einer Reihe von Themen untersucht, darunter: Community-Mitgliedschaft und Partizipation, die Beziehung zwischen politischer Ideologie, Lesegewohnheiten und politischer Partizipation sowie Unterschiede und Ähnlichkeiten zwischen Mainstream-Medien (MSM) und Blogs. Basierend auf diesen Analysen argumentiert dieser Artikel, dass Bloggen nicht nur eine soziale Aktivität ist, sondern ein kollaborativer Prozess der Co-Kreation, an dem sich Blogger und Leser beteiligen. Die Implikationen dieses Ergebnisses tragen zur Untersuchung und zum Verständnis der Leserbeteiligung, zum Design von Technologien für Blogger und Blog-Leser und zur Entwicklung eines theoretischen Verständnisses von Social Media bei.;-;-;-;https://link.springer.com/article/10.1007/s10606-010-9132-9 8b9f22c6502b7b88e9f5dc8904067976;de;;;4.2.;;;Ungleichheiten zwischen Einkommen und Vermögen Deutschland kann im internationalen Vergleich als reiches Land mit hohem Einkommen und Vermögen angesehen werden. Doch wie verteilen sich Einkommen und Vermögen in der Bevölkerung? Bei der Analyse der Daten der Einkommens- und Konsumerhebung zeigt sich eine erhebliche Ungleichheit der äquivalenten Nettoeinkommensverteilung, die von der Ungleichheit der Nettovermögensverteilung bei weitem übertroffen wird. Darüber hinaus besteht eine starke Korrelation zwischen hohen äquivalenten Nettoeinkommen und hohem Nettovermögen pro Kopf, aber die Gesamtkorrelation zwischen Einkommen und Vermögen liegt auf einem mittleren Niveau. Da die Datenbasis die höchsten Einkommens- und Vermögensgruppen nicht ausreichend abbildet, kennzeichnen die angegebenen Zahlen eine untere Grenze der Ungleichheit. Die wahre Ungleichheit ist etwas höher.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0257-8_3 702c2980edf40e2f21c722793399f54e;de;;;4.2.;;;Unternehmenskooption von Bio- und Fairtrade-Standards In den letzten Jahren haben alternative Agrarnahrungsmittel-Initiativen deutlich zugenommen, die versuchen, den Markt zu nutzen, um die negativen sozialen und ökologischen Auswirkungen von Produktion und Handel in einem globalisierten Lebensmittelsystem einzudämmen. Diese Alternativen stellen eine Herausforderung für die Kapitalakkumulation und die Externalisierung von Umweltkosten durch große Agrar-, Handels- und Einzelhandelsunternehmen dar. Der Erfolg dieser Alternativen macht sie aber auch zu einem einladenden Ziel für Unternehmensbeteiligungen. In diesem Artikel werden diese Dynamiken anhand einer Fallstudie zu den beiden bedeutendsten Alternativen zu Nahrungsmittelsystemen – Bio und fairer Handel – untersucht, wobei der Schwerpunkt auf der Beteiligung der Unternehmen an der Festlegung und Neuverhandlung der Standards liegt, die diesen Initiativen zugrunde liegen. Wir vergleichen die Entwicklung und die Auseinandersetzung mit den Standards für zertifizierten Bio- und zertifizierten fairen Handel mit besonderem Augenmerk auf den US-Kontext. Wir bieten eine kurze Geschichte ihrer parallelen Prozesse des schnellen Wachstums und des Markt-Mainstreaming. Wir untersuchen Kooptationsansprüche von Bewegungsteilnehmern sowie die Divergenzen und Ähnlichkeiten zwischen Bio- und Fair-Trade-Fällen. Die Analyse dieser beiden Fälle liefert nützliche Einblicke in die strategischen Ansätze, die Unternehmen zur Förderung der Kapitalakkumulation und zur Entschärfung von Bedrohungen ihrer Gewinnmargen und der Status-quo-Produktions-, Preis-, Arbeits-, Handels- und Einzelhandelspraktiken eingesetzt haben. Es kann auch wertvolle Erkenntnisse über die wirksamsten Mittel liefern, um auf solche Gegenreformen zu reagieren und die transformativeren Elemente im Herzen dieser alternativen Systeme zu schützen oder wiederzuerlangen. .;-;-;-;https://link.springer.com/article/10.1007/s10460-009-9231-8 4bb53f09bfe9944352329ac20b50fa08;de;;;4.2.;;;Renten in Zeiten der Wirtschaftskrise Das Präsidium des Europäischen Instituts für Soziale Sicherheit hat mir die ehrenvolle Aufgabe übertragen, in der gegenwärtigen Wirtschaftskrise eine Stellungnahme zu den Renten abzugeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-3734-6_3 23b34ec26f411eb5d2bc459f8ccc5601;de;;;4.2.;;;Sonne und Mond sind zusammengekommen: Der vierte Weg, die Gegenkultur und Capitol Records Die 1968 gegründete Musikgruppe The Fourth Way gehörte zu den ersten Bands, die Rock-, Jazz- und nicht-westliche musikalische Ansätze auf eine Weise zusammenführten, die die gemischtrassige Zusammensetzung der Band widerspiegelte – der weiße neuseeländische Pianist Mike Nock, schwarzer amerikanischer Geiger Michael White, der weiße amerikanische Bassist Ron McClure und der schwarze amerikanische Schlagzeuger Eddie Marshall – ein bemerkenswertes Feature zu dieser Zeit. Das gleichnamige Debüt der Band und ihre zweite Veröffentlichung, eine Live-Aufnahme mit dem Titel;-;-;-;https://link.springer.com/chapter/10.1057/9781137375230_10 b6695deee6925f24bfb3c49871cb519c;de;;;5.2.;;;Gesundheit 2.0 und Informationskompetenz für seltene und seltene Krankheiten In diesem Kapitel werden die Fragen der Informationskompetenz sowohl für Angehörige der Gesundheitsberufe als auch für Patienten im Zusammenhang mit seltenen und seltenen Krankheiten untersucht. Insbesondere verwendet das Kapitel eine Fallstudie aus dem wirklichen Leben, um die Informationserfahrung einer Person in den frühen Stadien einer seltenen Erkrankung zu betrachten, sowohl vor als auch nach der Diagnose. Es überprüft auch die Informationserfahrungen der für ihre Behandlung verantwortlichen Angehörigen der Gesundheitsberufe. Das Kapitel befasst sich mit allgemeinen Hindernissen für die Informationskompetenz wie Informationsmangel, Mangel an Informationskompetenz und Schwierigkeiten beim Zugang zu Informationen. In diesem Kapitel wird auch das Informationsverhalten vor und nach der Diagnose diskutiert, zusammen mit der aktuellen Rolle von Health 2.0 als Anbieter von Informationen und emotionaler Unterstützung für Menschen mit seltenen Krankheiten. Im Rahmen der Entwicklung der Informationskompetenz bei seltenen und seltenen Krankheiten werden die Bereiche, die derzeit für eine zukünftige Koordinierung in Betracht gezogen werden, kurz beleuchtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38643-5_11 eb7b12f3ee6d4b328baf090347a9b54e;de;;;5.2.;;;Süßes oder Saures: Bewertung von Gesundheit 2.0 und ihren Perspektiven für Patienten, Leistungserbringer und Gesellschaft Die jüngsten Fortschritte in den Informations- und Kommunikationstechnologien machen nicht an den Grenzen des Gesundheitswesens halt. Daher schildert dieser Aufsatz die Entstehung des aktuellen Phänomens Gesundheit 2.0. Dieses Konzept kombiniert neueste Web 2.0-Technologien mit gesundheitsbezogenen Inhalten. Nach der Einführung einer gemeinsamen Definition von Gesundheit 2.0 hebt der Essay seine Kernmerkmale sozialer Vernetzung, Partizipation, Versöhnung, Offenheit und Zusammenarbeit hervor. Diese Schlüsselmerkmale tragen dazu bei, die herausragende Rolle von Health 2.0-Anwendungen in der heutigen Gesellschaft anhand von zwei markanten Fallbeispielen zu veranschaulichen. Erstens die Social-Networking-Plattform;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12178-9_16 875f27dce7bcfb6165ec5fc5f1127d29;de;;;5.2.;;;Ein spekulativer Ansatz zur Parallelisierung in der Partikelschwarmoptimierung Die Partikelschwarmoptimierung (PSO) wurde bisher hauptsächlich durch die Verteilung der den Partikeln entsprechenden Berechnungen auf mehrere Prozessoren parallelisiert. Bei diesen Ansätzen besteht der einzige Vorteil zusätzlicher Prozessoren in einer erhöhten Schwarmgröße. Dies ist jedoch in vielen Fällen nicht effizient, wenn es auf sehr große Schwarmgrößen (auf sehr großen Clustern) skaliert wird. Aktuelle Methoden können die Frage „Wie können 1000 Prozessoren voll ausgelastet werden, wenn 50 oder 100 Partikel die effizienteste Schwarmgröße sind?“ nicht gut beantworten? In diesem Papier versuchen wir, diese Frage mit einem spekulativen Ansatz zur Parallelisierung von PSO zu beantworten, den wir als SEPSO bezeichnen.;-;-;-;https://link.springer.com/article/10.1007/s11721-011-0066-8 4ea7d3a0914bef51ca3ba9b30cb2f494;de;;;5.2.;;;Einige vorläufige Schritte hin zu einer Metatheorie für formelle Dialoge zwischen Agenten In diesem Beitrag werden die Eigenschaften argumentationsbasierter Dialoge zwischen Agenten untersucht. Es nimmt ein zuvor definiertes System, mit dem Agenten Argumente austauschen können, und untersucht, wie verschiedene Klassen von Protokollen für diese Art von Interaktion grundlegend unterschiedliche Ergebnisse haben können. Das Studium solcher Protokollklassen statt einzelner Protokolle wie bisher ermöglicht es uns, mit der Entwicklung eines;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-32261-0_1 291cf5ba84014959190d5174e6071a30;de;;;5.2.;;;Preise in einem Shopbot-Markt Shopbots sind Internet-Agenten, die automatisch nach Informationen zu Preis und Qualität von Waren und Dienstleistungen suchen. Wir untersuchen die Auswirkungen solcher Softwareagenten auf Preise und Preisstreuung. Es wird gezeigt, dass die Preisstreuung ein Phänomen ist, das unabhängig von der Heterogenität der Merkmale von E-Tailern ist, das heißt, selbst wenn E-Tailer dieselben Serviceangebote anbieten, bleibt die Preisstreuung bestehen, wenn ein eigener Markt besteht. Darüber hinaus verringert eine Zunahme der Informationen die Preisstreuung nicht, sondern erhöht sie im Allgemeinen.;-;-;-;https://link.springer.com/article/10.1007/s10660-005-1179-1 584644498ef57b04d20c9e7aa24d21a3;de;;;5.2.;;;Experimente zur automatischen Optimierung der Injektionsbedingungen am ITEP Proton Synchrotron Die Effizienz von Maximum-Suchmethoden zur Einstellung der ITEP Proton Synchrotron Injektions- und Einfangbedingungen wurde experimentell mittels eines Kontrollsystems mit EC1010 Computereinrichtungen verifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-5540-2_54 dfd4e2d0827dc97d0bee3225648bb1a2;de;;;5.2.;;;Der Einfluss konfuzianischer Ethik und Kollektivismus auf Whistleblowing-Intentionen: Eine Studie über südkoreanische Staatsbedienstete Die aktuelle Studie präsentiert die Ergebnisse einer empirischen Untersuchung zu den Auswirkungen der konfuzianischen Ethik und des Kollektivismus auf individuelle Whistleblowing-Intentionen. Konfuzianische Ethik und Individualismus-Kollektivismus wurden in einem Fragebogen gemessen, der von 343 Beamten in Südkorea ausgefüllt wurde. Diese Studie ergab, dass die konfuzianische Ethik signifikante, aber gemischte Auswirkungen auf die Absichten von Whistleblowing hatte. Die Zuneigung zwischen Vater und Sohn wirkte sich negativ auf interne und externe Whistleblowing-Intentionen aus, während sich die Unterscheidung zwischen den Rollen von Ehemann und Ehefrau positiv auf diese Absichten auswirkte. Die Auswirkungen des Kollektivismus waren auch je nach den spezifischen Arten des Kollektivismus unterschiedlich. Horizontaler Kollektivismus wirkte sich positiv auf beide Arten von Whistleblowing-Intentionen aus, während vertikaler Kollektivismus keine signifikanten Auswirkungen auf Whistleblowing-Intentionen zeigte. Diese Ergebnisse deuten darauf hin, dass kulturelle Merkmale wie konfuzianische Ethik und Kollektivismus die Whistleblowing-Intentionen einer Person in Grad und Richtung beeinflussen können, was pauschale Vorhersagen über kulturelle Auswirkungen auf Whistleblowing schwierig macht.;-;-;-;https://link.springer.com/article/10.1007/s10551-004-5366-0 33e30d01734b2dd6b4e4aad0b77f794c;de;;;5.2.;;;Versicherungsdienstleistungen in Multi-Agenten-Systemen In einer Umgebung mit mehreren Agenten besteht häufig die Notwendigkeit, dass ein Agent mit anderen zusammenarbeitet, um sicherzustellen, dass eine bestimmte Aufgabe rechtzeitig und kostengünstig erledigt wird. Gegenwärtige Agentensysteme maximieren dies derzeit durch Mechanismen wie Vertrauens- und Risikobewertungen. In diesem Papier erweitern wir diesen Mechanismus durch die Einführung des Versicherungskonzepts, bei dem die Versicherungsagenten als Brücke zwischen Agenten fungieren, die Ressourcen von anderen benötigen. Im Gegensatz zu herkömmlichen Systemen kaufen Agenten Versicherungen, um sicherzustellen, dass die angeforderten Ressourcen während der Aufgabenausführungszeit zur Verfügung stehen und somit das Risiko eines Aufgabenausfalls minimiert wird. Die Neuheit dieses Vorschlags besteht darin, dass er sicherstellt, dass Agenten kontinuierlich Ressourcen austauschen und gleichzeitig den maximal erwarteten Nutzen in einer dynamischen Umgebung suchen. Unsere experimentellen Ergebnisse bestätigen die Machbarkeit unseres Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/11589990_69 a849791d37b69ffdff3f4d9c435a8e26;de;;;5.2.;;;Aufrechterhaltung von Lichtbogenkonsistenzalgorithmen während der Suche ohne zusätzliche Platzkosten In diesem Papier beschreiben wir die Versionen der Bogenkonsistenzalgorithmen für binäre Beschränkungen basierend auf der Liste der Stützen und dem letzten Wert, wenn sie während der Suche nach Lösungen beibehalten werden. Mit anderen Worten, wir geben die expliziten Codes der MAC-6- und MAC-7-Algorithmen an. Darüber hinaus präsentieren wir eine originelle Möglichkeit, die letzten Werte der Algorithmen AC-6 und AC-7 wiederherzustellen, um eine MAC-Version dieser Algorithmen zu erhalten, deren Raumkomplexität in bleibt;-;-;-;https://link.springer.com/chapter/10.1007/11564751_39 a071e8aef5ae961a304dc369f09bd110;de;;;4.2.;;;Identifizieren und Klassifizieren sozialer Gruppen: Ein Ansatz des maschinellen Lernens Die Identifizierung sozialer Gruppen bleibt eines der wichtigsten analytischen Themen bei der Analyse sozialer Netzwerke und allgemeiner bei der Untersuchung der sozialen Organisation. Herkömmliche Netzwerkansätze zur Gruppenidentifikation stoßen auf eine Vielzahl von Problemen, wenn die zu analysierenden Daten Zweimodus-Netzwerke beinhalten, d. h. Beziehungen zwischen zwei unterschiedlichen Sätzen von Objekten, wobei innerhalb jedes Satzes keine reflexive Beziehung erlaubt ist. In diesem Beitrag schlagen wir einen relativ neuen Ansatz zur Erkennung und Identifizierung sozialer Gruppen in Daten vor, die durch netzwerkbasierte Prozesse im Kontext von Two-Mode-Netzwerken generiert werden. Unser Ansatz basiert auf einer Familie von Lernalgorithmen namens Support Vector Machines (SVM). Der von SVM bereitgestellte analytische Rahmen bietet eine flexible statistische Umgebung, um Klassifikationsaufgaben zu lösen und Regressions- und Dichteschätzungsprobleme neu zu definieren. Wir untersuchen die relativen Vorzüge unseres Ansatzes zur Analyse sozialer Netzwerke im Kontext des bekannten Datensatzes „Southern Women“ (SW), der von Davis Gardner und Gardner gesammelt wurde. Wir vergleichen unsere Ergebnisse mit denen, die aus verschiedenen analytischen Ansätzen hervorgegangen sind. Wir zeigen, dass unsere Methode, die als datenunabhängiger Vorverarbeitungsschritt fungiert, in der Lage ist, die Komplexität des Clustering-Problems zu reduzieren, was die Anwendung einfacherer Konfigurationen gängiger Algorithmen ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-34416-0_17 65fc295f92a4cef33c9b0b2d9d6d378c;de;;;4.2.;;;Dezentraler Ansatz für die Entwicklung von Stromerzeugungssystemen — Interaktion zwischen Energieversorgung und sozialem Standort Im Hinblick auf die aktuelle, wesentlich bedeutsame Situation der Standortproblematik des Kraftwerks stellt der vorliegende Beitrag ein dezentrales Optimierungsmodell für die Stromerzeugungssystementwicklung mit besonderem Schwerpunkt auf der Interaktionsanalyse der Stromversorgung, der Energieressourcenversorgung und der Anliegen der sozialen Standortbestimmung.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0006642 590b92da30d19ee3d9c6d735f5688900;de;;;5.2.;;;Erkennung von Benutzerkorrelationen und dynamisches Profiling basierend auf sozialen Streams In dieser Studie versuchen wir, die potenziellen und dynamischen Benutzerkorrelationen mithilfe dieser neu organisierten sozialen Ströme in Übereinstimmung mit den aktuellen Interessen und Bedürfnissen der Benutzer zu entdecken, um den Prozess der Informationssuche zu unterstützen. Wir entwickeln einen Mechanismus zum Aufbau eines Dynamical Socialized User Networking (DSUN)-Modells und definieren eine Reihe von Maßnahmen (z. B. Interessengrad und Popularitätsgrad) und Konzepte (z. B. komplementäre Bindung, schwache Bindung und starke Bindung), die das aktuelle Profiling und die dynamischen Korrelationen der Benutzer erkennen und darstellen. Die entsprechenden Algorithmen werden jeweils entwickelt. Darauf aufbauend diskutieren wir abschließend ein Anwendungsszenario des DSUN-Modells mit experimentellen Ergebnissen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35236-2_6 def0477057103d3234a458fd886e24c8;de;;;5.2.;;;Das Unternehmen verklagen, für das Unternehmen verklagen, die Pflichten des Direktors durchsetzen Einer der Gründe für die Verleihung einer Rechtspersönlichkeit an ein Unternehmen bestand darin, es in seinem eigenen Namen klagen und verklagen zu können. Folglich kann eine Gesellschaft wegen eines von ihr begangenen Unrechts verklagt werden, entweder durch ein Mitglied oder durch einen Dritten, der durch die Handlung der Gesellschaft geschädigt wurde. Schwierigkeiten können manchmal auftreten, wenn die Klagefähigkeit des Mitglieds zweifelhaft ist (siehe die Erörterung der Artikel als Vertrag in Kapitel 5). Als allgemeine Regel gilt jedoch, dass, wenn einem Unternehmen Unrecht zugefügt wurde, das Unternehmen verklagt oder verklagt werden kann. Verletzt ein Direktor seine Pflichten gegenüber der Gesellschaft, kann die Gesellschaft ihn also auf Wiedergutmachung verklagen. Die Unternehmenspersönlichkeit verursacht jedoch Probleme und löst sie auch. Wenn die Mehrheit der Anteile an einem Unternehmen von denjenigen gehalten wird, die dieses Unternehmen kontrollieren (und das sind sie oft), können diese Kontrolleure alle Arten von Fehlverhalten zum Nachteil der Minderheit begehen und dann dafür stimmen, dass das Unternehmen keine rechtlichen Schritte einleitet, um eine Entschädigung zu erhalten . Angenommen, ein Direktor verkauft dem Unternehmen Land im Wert von 10.000 £. Er und seine Kumpane, die zusammen die Mehrheit der Aktien des Unternehmens halten, zahlen 20.000 Pfund für das Land. Sie beschließen dann, dass das Unternehmen keine Maßnahmen ergreifen soll, um das unnötigerweise vom Unternehmen abgezogene Geld zurückzubekommen. Bei den Minderheitsaktionären des Unternehmens wurde das Vermögen des Unternehmens verringert und somit der Wert ihrer Beteiligung an dem Unternehmen gesunken.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-14583-6_13 bf846d422eddc5fc5cbc5b75361fde02;de;;;5.2.;;;Hindernisse für eine klare Signalisierung In den vorangegangenen Kapiteln wurden zwei der wichtigsten Einflüsse auf den wahrscheinlichen Erfolg einer Schlichtungsinitiative erörtert, der Kontext, in dem die Initiative stattfindet, und die Merkmale der Initiative selbst, wobei letztere die Wiedererkennbarkeit und Glaubwürdigkeit der Maßnahme beeinflussen. Zwei weitere wichtige Faktoren werden wahrscheinlich einen großen Einfluss auf die wahrscheinliche Einleitung einer Versöhnungsmaßnahme und ihre wahrscheinlichen Auswirkungen haben.;-;-;-;https://link.springer.com/chapter/10.1057/9780230376960_10 525a4975f2c87c145325ec6eb098e3e4;de;;;4.2.;;;Wissensarbeit in Nahaufnahme Es mag eines der großen Paradoxien des Arbeitslebens sein, dass wir so viel Zeit bei der Arbeit verbringen, aber so wenig über die Natur der Arbeit zu sagen haben. In Wirtschaftsbüchern haben sich Hunderte von Autoren über Organisationen, Management und Führung geäußert, aber kein großes Interesse an der Arbeit gezeigt.;-;-;-;https://link.springer.com/chapter/10.1057/9780230343412_6 9c59e989c59ad8cdf0a67dfde9018b25;de;;;4.2.;;;Überdenken der Lehrerbewertung unter Verwendung von menschlichem, sozialem und materiellem Kapital Die Beziehung der Lehrerevaluation zur Verbesserung des Unterrichts wird in der Literatur zu wenig theoretisiert. Um diese Lücke zu schließen, verwendet dieser Beitrag einen konzeptionellen Rahmen, der auf Human-, Sozial- und Sachkapital basiert, um Ergebnisse aus der seit 2009 durchgeführten Forschung zu analysieren und zu synthetisieren, ob und unter welchen Bedingungen die Lehrerevaluation Veränderungen im Lehrerunterricht anregt. Wir stellen fest, dass die Lehrerevaluation die Verbesserung des Unterrichts erleichtern kann, wenn Evaluatoren den Unterricht und das Lehrerbewertungssystem verstehen und Lehrer und Evaluatoren einander vertrauen und die Möglichkeit haben, soziales Kapital in Bezug auf den Unterricht zu entwickeln. Darüber hinaus scheinen angemessene Zeit und ein benutzerfreundliches Online-Datensystem die Nutzung der Lehrerbewertung zu erleichtern, um Veränderungen in der Lehrerpraxis anzuregen. Dieser Beitrag stellt somit einen theoretischen Rahmen vor, der auf Theorie und empirischer Forschung basiert und sich für Wissenschaftler und Praktiker als nützlich erweisen kann.;-;-;-;https://link.springer.com/article/10.1007/s10833-020-09405-z 16eb25181bdd6c962044968387400466;de;;;4.2.;;;Mehrere Erinnerungen an das Massaker von Bojayá Eine der zentralen Behauptungen dieses Buches ist, dass das soziale Gedächtnis ein Werkzeug zur Friedensförderung sein kann, auch während eines Konflikts. Es gibt jedoch weder einen einzigen Prozess der sozialen Konstruktion von Erinnerung noch eine einzige Version der Vergangenheit. Soziales Gedächtnis lässt sich am besten als ein multidirektionales Unternehmen verstehen, bei dem verschiedene Versionen der Vergangenheit „als produktiv und nicht privat Gegenstand fortlaufender Verhandlungen, Querverweise und Anleihen sind“ (Rothberg, 2009, S. 3). Bei vergangenen Gräueltaten gibt es kein Monopol über die Wahrheit der Ereignisse. Unterschiedliche soziale Gruppen haben unterschiedliche Interessen an der Version, die sie über die Vergangenheit präsentieren möchten, und bei der Konstruktion dieser multiplen Versionen kommt es zu Anleihen und Überschneidungen von Details. In diesem Kapitel verwende ich den Begriff „Interpretatives Repertoire“ aus dem Bereich der Diskursanalyse, um zu erklären, wie ähnliche Informationen verwendet werden, um unterschiedliche Narrative aufzubauen (Edley und Wetherell, 2001, Wetherell, 2006).;-;-;-;https://link.springer.com/chapter/10.1057/9781137461841_6 b2bc1b3140e689a8ca0d2cb140d5edc6;de;;;5.2.;;;Simulation polyzentrischer Stadtwachstumsdynamik durch Agenten Im Gegensatz zu typischen urbanen Regionen, die von einer Kernstadt im Zentrum der Region und einem suburbanen Rand dominiert werden, kann das als Untersuchungsgebiet gewählte österreichische Rheintal als periurbane Region mit einigen mittelgroßen Zentren und verschiedenen ländlichen Dörfer, die sich alle auf unterschiedliche Weise entwickeln. Daher muss ein Simulationsansatz angewendet werden, der unterschiedliche Siedlungswachstums- und Verdichtungsgeschwindigkeiten berücksichtigt, um Modellergebnisse zu erzielen, die realen Landnutzungsübergängen nahe kommen. Das hier vorgestellte Stadtwachstumsmodell basiert auf einem Multiagentensystem, das Standortentscheidungen von Haushalten und Unternehmensgründungen innerhalb einer von regionalen und lokalen Attraktivitätsmustern getriebenen Zelllandschaft simuliert. Das Modell wurde im letzten Jahrzehnt zur Generierung von Kontrollläufen angewendet und durch Vergleich seiner Ergebnisse mit beobachteten Landnutzungsänderungen auf Gemeindeebene und auf Rasterzellenebene validiert. Szenarioläufe für die Zukunft wurden unter der Annahme durchgeführt, dass die Zonenordnung ausgesetzt wurde, was zu einem anderen Verhalten der Akteure führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-5648-2_13 fe04cdc5108d66ede5707119a4a2aa79;de;;;5.2.;;;Verwenden der statistischen impliziten Analyse zur Erarbeitung von Verhaltensreferenzen Um Personalverantwortlichen bei der Bewertung des Verhaltensprofils einer Person zu helfen, wurden verschiedene informatorische Bewertungsinstrumente entwickelt. Die psychologischen Grundlagen dieser Tools wurden alle validiert, aber nur sehr wenige von ihnen haben eine eingehende statistische Analyse durchgeführt. Das PerformanSe Echo Assessment Tool ist eines davon. Es gibt das Verhaltensprofil einer Person entlang von 10 bipolaren Dimensionen. Es wurde 2004 an einer Population von 4538 Probanden validiert. Wir sind nun daran interessiert, eine Reihe von psychologischen Indikatoren basierend auf Echo für eine Population von 613 erfahrenen Führungskräften ab 45 Jahren zu erstellen, die einen Job suchen. Unser Ziel ist zweierlei: zunächst die Bestätigung der vorherigen Validierungsstudie, dann die Erstellung eines relevanten Verhaltensbezugsmusters für diese Population. Das Endziel besteht darin, über relevante Indikatoren zu verfügen, die helfen, den Zusammenhang zwischen einigen Verhaltensmerkmalen und aktuellen Profilen zu verstehen, die in der Bevölkerung kategorisiert werden können. Letztlich kann es die Grundlage für ein Entscheidungshilfe-Tool für Berater sein, die auf Coaching und Outplacement spezialisiert sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78983-3_14 3bf480313fc5cca2a98428197290302d;de;;;4.2.;;;Bürgerbeteiligung an öffentlichen Angelegenheiten In Anbetracht des erklärten Ziels der Europäischen Kommission, die Demokratie zu erweitern, untersucht dieses Papier das Wesen der E-Partizipation und betrachtet Demokratiekonzepte und Fragen der Bürgerbeteiligung an öffentlichen Angelegenheiten. Das Papier beschreibt, wie Bürgerinnen und Bürger mit der Regierung und untereinander über politikbezogene Themen, die sie betreffen, mit Hilfe von speziell für diesen Zweck entwickelten Technologien interagieren. Das Papier beschreibt eine Fallstudie zur elektronischen Beteiligung, die für die Umweltgruppe der schottischen Exekutive im Sommer 2001 entwickelt wurde. Unter Verwendung der empirischen Daten aus dieser Studie untersucht das Papier Leitlinien für bewährte Verfahren für Regierungen, die Bürger in die Politikgestaltung einbeziehen möchten. Diskutiert wird die schwierige Aufgabe, die Anforderungen aller Stakeholder, d. h. Regierung, zivilgesellschaftliche Organisationen (CSOs) und Bürger, bei der Gestaltung der Technologie zu berücksichtigen. Bewertet wird die Nutzung und Moderation der elektronischen Tools während des Engagementzeitraums. Schließlich betrachtet das Papier, wie der Einsatz elektronischer Instrumente überwacht und ihre Auswirkungen auf die Bürgerbeteiligung und die Entscheidungsfindung der Regierung bewertet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-46138-8_41 61b1773223569c1a0e7cab7e05922bc5;de;;;4.2.;;;Wenn gemeinnützige Organisationen auf Informations- und Kommunikationstechnologien treffen: Wie die Unternehmenskultur die Nutzung traditioneller, digitaler und gemeinsam genutzter Medien beeinflusst Im Gegensatz zu früheren Studien, die betonten, wie Ressourcen und institutionelle Kräfte die Nutzung von Informations- und Kommunikationstechnologien (IKT) durch gemeinnützige Organisationen (NPOs) beeinflussen, insbesondere über die Nutzung sozialer Medien für die Einbindung externer Interessengruppen, untersuchen wir die Beziehung zwischen der Unternehmenskultur und der Nutzung alter und neuer IKT für die externe und interne Kommunikation. Aus Umfragen unter 500 koreanischen NPOs haben wir herausgefunden, dass kulturelle Werte und Kommunikationspraktiken die Nutzung traditioneller, digitaler und gemeinsamer Medien durch NPOs für verschiedene Kommunikationsziele unterschiedlich beeinflussen. NPOs mit autoritären Kulturen nutzten alle möglichen Medien, einschließlich traditioneller Medien, für die interne Kommunikation, um ihre Leistung zu verbessern, während familienähnliche NPOs beim Einsatz neuer IKT zurückblieben. Informationstransparente Praktiken sagten eine stärkere Nutzung von IKT voraus, während kollaborative und demokratische Kommunikationspraktiken dies nicht taten. Implikationen für das Verständnis der Nutzung verschiedener IKT durch NPOs unter Berücksichtigung der Organisationskulturen und unterschiedlicher Kommunikationsziele werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s11266-021-00335-9 f8b4008e47d9a1d52812723855d60089;de;;;4.2.;;;Ist es möglich, das Lernen von Kindern mit ASS durch mobile Augmented Reality-Anwendungen zu verbessern? Gegenwärtig haben viele Forscher und Softwareunternehmen eine Reihe von mobilen Anwendungen basierend auf Augmented Reality entwickelt, die Lernräume bei Kindern fördern, jedoch finden wir nur wenige Studien, in denen eine Intervention mit dieser aufkommenden Technologie bei Kindern mit Autismus durchgeführt wird. Diese Forschung versuchte zu überprüfen, ob mobile Anwendungen in Lehr-Lernprozessen bei Kindern mit diagnostizierter ASS verwendet werden können. Die Intervention wurde von einem multidisziplinären Team ausgearbeitet, an dem Psychologen, Computeringenieure, Eltern und ein ASS-Patient teilnahmen etabliert, um zu überprüfen, ob die Indikatoren: kognitiv, prozedural und kommunikativ nach der Intervention mit RA die Lernfähigkeit verbessern. Die Erfahrung wird anhand einer Fallstudie beschrieben, die ermutigende und teilweise vielversprechende Ergebnisse beim Einsatz neuer Technologien zur Verbesserung der Lebensqualität von Kindern mit ASS zeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-42520-3_44 d1539f4e72517ba9f59c6f72b4f35d1e;de;;;5.2.;;;Motivation zum Teilen Die Literatur identifiziert mehrere Motivationen, die dem Drang von Einzelpersonen zugrunde liegen, Informationen in sozialen Medien zu teilen. Wir kategorisierten diese Motivationen nach dem psychologischen Konzept von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-16413-3_4 519b7cbb7a1d1be28783a3d36773dd33;de;;;4.2.;;;Reaching Out: Die subversive Natur der Berührung im Schulzimmer des Kindergartens Da kleine Kinder der Welt einen Sinn geben, indem sie in ihr sind und sich nicht durch sie bewegen, spiegeln sie die Überzeugungen und Normen dieser Weisheitskulturen wider, die ein Leben in der Welt im Moment befürworten. Doch in der Schule ist das zutiefst begegnete, temperamentvolle Kind wahrscheinlich sicher in die Windeln der Regeln, Verfahren und Überwachung des Schulzimmers gehüllt. Im Rahmen eines aktuellen Forschungsprojekts, das den Widerstand von Kindern gegen diese Strukturen in Kindergartenklassen analysierte, war ein besonders auffälliger Befund in Bezug auf den Einfallsreichtum der Kinder, Wege zum körperlichen Kontakt miteinander zu finden. Dieses Kapitel beschreibt die Mittel, mit denen die kleinen Kinder ihr stillschweigendes Verständnis der Funktionsweise des Schulzimmers anwenden, um die Strukturen zu untergraben, die sie voneinander trennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-9018-9_45 ca3f2b1efd3855f100d29bd1c5b68024;de;;;5.2.;;;Topologiekonfiguration für einen effektiven Netzwerkaufbau im Schiff In letzter Zeit sind alle Bereiche der IT rasant an Land. Daher ist der Standort im Alltag sehr wichtig. Aber im Schiff sind Grenzen Netzwerk mit Kommunikationsausrüstung und Service. Dadurch weit entfernt vom Informationszeitalter. Derzeit ist das Schiff auf der Reise per Satellit mit der Außenwelt verbunden. Aufgrund der hohen Abrechnung ist jedoch eine Datenübertragung mit niedriger Bandbreite möglich. Da das Schiff mit LAN nicht möglich ist, beschränken Sie nur die Schiffsbesatzung, die das Internet auf begrenztem Raum nutzt. So ist Schiff erforderlich Bau des Netzwerks.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23312-8_49 49205e4785e2c081da17a32a530e51e4;de;;;4.2.;;;Debatte oder Konversation? Französische und britische öffentliche Internetdiskussion Nachdem wir die Überzeugungen über die Manifestationen von Kultur im Internet untersucht haben, wollen wir der Frage nach kulturellen und generischen Konventionen und ihren Interaktionen untereinander und mit der Technologie anhand des besonderen Beispiels der in Kapitel 1 vorgestellten öffentlichen Diskussionsforen in den Massenmedien nachgehen. Wir präsentieren zwei Momentaufnahmen der Foren , an bestimmten Punkten ihrer Entwicklung, um erstens die Variation zwischen den Kulturen (dieses Kapitel) und die Variation im Zeitverlauf aufzuzeigen, die jedoch nicht zur Auslöschung der interkulturellen Unterschiede führt (das folgende Kapitel).;-;-;-;https://link.springer.com/chapter/10.1057/9780230235823_3 5874a1fe05bef292e79c84e615c4f105;de;;;4.2.;;;Verhindern von Untererfassung bei der Zuweisung sozialer Aufgaben In Spielen, in denen Agenten aufgefordert werden, ihre verfügbaren Ressourcen anzugeben, können sie auch Strategien für diese Erklärung entwickeln. Überraschenderweise kann nicht in allen solchen Spielen eine VCG-Zahlung angewendet werden, um einen wahrheitsgetreuen Mechanismus unter Verwendung eines optimalen Algorithmus zu konstruieren, obwohl solche Zahlungen eine Untererfassung von Ressourcen verhindern können. Wir zeigen dies für das Problem der Aufgabenverteilung in einem sozialen Netzwerk (STAP).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15237-5_1 6cc3cf597813d65dd3425d0ae0f5640d;de;;;4.2.;;;Chinese sein oder anders sein: Chinesische Diskurse nutzen chinesische Studenten Chinese Mythen über den „chinesischen Lernenden“, die aus einer Außenperspektive entwickelt wurden, gibt es in der westlichen Welt zuhauf. Der Schwerpunkt dieses Artikels liegt jedoch darauf, wie Chinesische Diskurse von den chinesischen internationalen Studenten selbst verwendet wurden, die als Bachelor-Studenten an einer neuseeländischen Universität Gegenstand meiner Doktorarbeit waren. Es untersucht die Vorstellungen der Studierenden vom Chinesischen und wie diese dazu dienten, ihre eigenen Narrative zu erklären, entweder indem sie sich mit „chinesischen“ Eigenschaften identifizieren oder sich von ihnen distanzieren, alternativ auf eine gemeinsame Erfahrung der Herausforderungen der neuen akademischen Kultur hinweisen oder sich selbst markieren als eine besondere Fähigkeit, darin zu gedeihen. Wie auch immer sie sie benutzten, die Diskurse schienen dem Zweck zu dienen, ihr Identitäts- und Zugehörigkeitsgefühl zu stärken. Am Ende ihrer Studie konnten sie ihre Erfahrungen sorgfältig reflektieren und neue Identitäten des Dritten Raums diskutieren, in denen sowohl chinesische als auch neuseeländische Werte für sie neue Realitäten schmiedeten.;-;-;-;https://link.springer.com/article/10.1007/BF03397025 744c5648c9267acf03a41b5d28b54a1b;de;;;4.2.;;;Die diskursive Konstruktion von Sprachstörungen In diesem Kapitel untersuchen wir drei verschiedene Quellen diskursiver Informationen nach ihrer Charakterisierung der Natur von Sprachstörungen: (1) Literatur zum Berufsfeld Kommunikationsstörungen, (2) Interaktionsstudien zur traditionellen, störungsbasierten Logopädie und (3) Beschreibungen von eher konstruktivistischen, sozialen Therapiemodellen, die im Entstehen begriffen sind.;-;-;-;https://link.springer.com/chapter/10.1057/9780230299023_11 17212261636099207ee550ad765d8bdb;de;;;4.2.;;;ZUGANG UND AUSWAHL ZU STUDIENHOCHSCHULEN: EIN VORGESCHLAGENES KONZEPTMODELL Die nach Titel IV des Hochschulgesetzes genehmigten Studienfinanzierungsprogramme sollten sicherstellen, dass unzureichende finanzielle Mittel den Zugang zum College nicht einschränken. Trotz erheblicher Investitionen in die Studienfinanzierung nicht nur durch die Bundesregierung, sondern auch durch die Regierungen der Bundesstaaten, Hochschulen und Universitäten und andere Einrichtungen bleiben der Zugang zu den Hochschulen und die Wahlmöglichkeiten nach sozioökonomischem Status (SES) und Rasse/Ethnie geschichtet. Obwohl Studenten in den Jahren 2003 bis 2004 rund 122 Milliarden US-Dollar an Finanzhilfen aus allen Quellen erhielten (The College Board, 2004), sind Personen mit niedrigem Familieneinkommen, Personen, deren Eltern kein College besucht haben, Afroamerikaner und Hispanoamerikaner weniger wahrscheinlich als andere Personen sich an der Hochschule einzuschreiben. Wenn sie sich einschreiben, konzentrieren sich diese Gruppen auf Einrichtungen mit niedrigerem Preis, wie öffentliche zweijährige Colleges und weniger selektive vierjährige Colleges und Universitäten (Baum und Payea, 2004, Ellwood und Kane, 2000, National Center for Education Statistics [NCES ], 2003, 2004, Thomas und Perna, 2004).;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-4512-3_3 ecc21804182bbd393f97549e65a84faf;de;;;5.2.;;;Abkürzungen und Mnemonik Das Kürzen von Wörtern in nützliche mnemonische Namen war seit den frühesten Tagen der Informatik ein Hauptanliegen von Programmierern. Es gibt viele Abkürzungsschemata, und jeder Programmierer scheint einen Favoriten zu haben. Prozesse sind jedoch nur so effektiv wie die Grundsätze, auf denen sie aufgebaut sind. Methoden, die nicht gut durchdacht und prinzipientreu sind, sind nicht in der Lage, den Strom von Codierungsänderungen zu bewältigen, die während der Wartung auftreten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-1500-4_7 f2b9dd8efae71616710de4986154a334;de;;;4.2.;;;Soziale Netzwerke in komplexen menschlichen und natürlichen Systemen: der Fall von Rotationsweiden, schwachen Bindungen und Milchlandschaften im Osten der USA US Multifunktionale Agrarsysteme zielen darauf ab, die produktionsbasierten Vorteile zu erweitern, um das Wohlbefinden der Familie und die Tiergesundheit zu verbessern, den Input zu reduzieren und die Umweltdienstleistungen wie Biodiversität und Wasserqualität zu verbessern. In vielen Ländern ist eine Konvertierung auf Landschaftsebene jedoch bestenfalls ungleichmäßig und im schlimmsten Fall ins Stocken geraten. Dies gilt insbesondere für die östliche ländliche Landschaft in den Vereinigten Staaten. Wir untersuchen die Rolle sozialer Netzwerke als Treiber der Systemtransformation in der Milchproduktion im Osten der USA, insbesondere der Rotationsweide als alternative Managementoption. Wir stellen die Hypothese auf, wie wichtig schwache Bindungen innerhalb der sozialen Netzwerke von Landwirten als Triebkräfte für Veränderungen sind. In Wisconsin, Pennsylvania und New York führten wir 53 Interviews mit Milchviehhaltern mit geringer Intensität und Rotation sowie 35 Interviews mit assoziierten Netzwerkakteuren. Obwohl die Netze von Weiden und Weiden ein ähnliches Verhältnis von starken und schwachen Bindungen aufwiesen, hatten die Produzenten von Zuchten eher marktbasierte schwache Bindungen, während Weider mehr schwache Bindungen zu Regierungsbehörden und anderen Weiden in der Region hatten. Diese schwachen Verbindungen zu den Agenturen unterstützten die Rotationsgraser durch Informationsaustausch und Kostenteilung, beides entscheidend für den Übergang der Landwirte von der Haltungsproduktion zu Weidesystemen. Während schwache Bindungen ein wesentlicher Bestandteil der anfänglichen Innovation waren, hielten die Landwirte diese Beziehungen nicht über ihren Übergang zur Weide hinaus aufrecht. Ebenso wichtig sind grazierschwächere Netzwerke ohne Umweltorganisationen, was auf ein nicht realisiertes Potenzial für vielfältigere Netzwerke auf der Grundlage von Umweltdienstleistungen hindeutet. Indem wir die Triebkräfte verstehen, können wir Hindernisse für die Erweiterung schwacher Netzwerke und aufstrebende Immobilien identifizieren, um Institutionen und Richtlinien zu schaffen, die für den Wandel erforderlich sind.;-;-;-;https://link.springer.com/article/10.1007/s10460-013-9462-6 47f5499ff18bc390e3716f8eaab2da92;de;;;4.2.;;;Nicht-reduktionistischer Naturalismus: Nussbaum zwischen Aristoteles und Hume Als Grundlage politischer Grundprinzipien schlägt Martha Nussbaum eine universelle Liste menschlicher Fähigkeiten vor. Sie behauptet, dass die Liste im aristotelischen Geist durch eine laufende Untersuchung wertvoller menschlicher Funktionen für ein gutes Leben gerechtfertigt sein könnte. Hier argumentiere ich, dass die Attraktivität von Nussbaums Theorie entscheidend von der philosophischen Möglichkeit eines nicht-reduktionistischen Verständnisses des Naturalismus und von der Auflösung der Spannungen zwischen ethischen und politischen Aspekten der Rolle von Fähigkeiten abhängt. Durch einen Vergleich von Nussbaums Ansatz mit denen von Aristoteles und (weniger vertraut) Hume versuche ich zu zeigen, dass wir in diesen alternativen Versionen wertvolle Ressourcen für ein nicht-reduktionistisches Modell finden, das in Übereinstimmung mit Nussbaums eigenen Zielen die Grundlage für eine fähigkeitsbasierte Kritik dominanter Formen normativer Theoriebildung und ihres Einflusses auf den öffentlichen Diskurs.;-;-;-;https://link.springer.com/article/10.1007/s11158-005-1483-6 cbd760ff7d14b0ac00382b01f8524bb2;de;;;5.2.;;;Auf dem Weg zu einem kollaborativen grünen Geschäftsprozessmanagement als konzeptioneller Rahmen Organisatorische Strategien zur Energieeinsparung werden derzeit im Wesentlichen durch drei Handlungsschwerpunkte bestimmt: Aus prozessorganisatorischer Sicht werden Prozesse optimiert und in eine energieeffizientere Infrastruktur investiert, aus verhaltenstechnischer Sicht einmalige Interventionen wie Energiekampagnen oder Rückkopplungsmechanismen sind gängige Mittel, um die Umweltbelastung zu reduzieren. Beide Ansätze stoßen jedoch hinsichtlich des Interventionsumfangs an Grenzen. Wir haben die organisatorischen Bedürfnisse in freier Wildbahn untersucht und handlungsbasierte Forschung zu Energieoptimierungspraktiken durchgeführt. Wir entdeckten einen Mangel an integrierten Ansätzen zur Förderung von Nachhaltigkeit in Organisationen und leiteten Strategien ab, um die Lücke zwischen strategischer Planung und Arbeitsalltag zu schließen, um Nachhaltigkeitsstrategien effektiver und effizienter zu managen. Wir schließen mit der Aufstellung einer Forschungsagenda, die wir im Laufe des laufenden Forschungsprojekts aufgreifen wollen, um ein differenzierteres Verständnis für das kollaborative grüne Geschäftsprozessmanagement in der Natur zu erlangen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23455-7_15 654a0d42daf79dc1d738d9c34ad71147;de;;;4.2.;;;Musik als Währung SEIT ANFANG DES 21. Jahrhunderts haben wir einen Ansturm neuer Technologien, Unternehmen und Geschäftsmodelle erlebt, die zwar unterschiedliche Dienstleistungen anbieten, aber deckungsgleich daran gearbeitet haben, eine massive Disruption in zwei Branchen hervorzurufen, die immer stark aufeinander angewiesen waren: Musik und Werbung. In dieser Zeit hat sich fast alles weiterentwickelt, wie Menschen miteinander kommunizieren, auf Informationen zugreifen und Kaufentscheidungen treffen. Dies hat enorme Auswirkungen auf die aktuellen und zukünftigen Methoden, mit denen Marken ihre Zielgruppen erreichen wollen.;-;-;-;https://link.springer.com/chapter/10.1057/9781137271488_7 11e0efe798af36646d47a3cf4ce3181e;de;;;4.2.;;;Das Manifest der Moderne von Alva und Gunnar Myrdal: Modernisierung Schwedens in den dreißiger Jahren und die Frage der Sterilisation Wie kann man die Politik von Alva Myrdal in den dreißiger Jahren beurteilen? Alva Myrdal, eine der bekanntesten Feministinnen Schwedens, schlug in diesem Jahrzehnt in ihrer vorgeschlagenen Familienpolitik die Sterilisation vor. In der international berichteten intensiven schwedischen Debatte im Herbst 1997 über die schwedische Zwangssterilisation 1935–1975 spielten die Ideen von Alva Myrdal eine große Rolle. Welches Bild von Alva Myrdal entwickelt sich aus dieser Debatte und wie steht es im Verhältnis zu ihren eigenen Schriften und dem allgemeinen diskursiven Kontext der 30er Jahre? Chronozentrismus wird diskutiert.;-;-;-;https://link.springer.com/article/10.1023/A%3A1007877111299 cc7edfe7078f0462a24a837e734174a5;de;;;4.2.;;;Wie entsteht ein informelles Verkehrsinfrastruktursystem? Auf dem Weg zu einem räumlich expliziten konzeptionellen Modell Die informelle Verkehrsinfrastruktur ist ein untrennbares und kritisches Element des Verkehrssystems, da sie die Erreichbarkeit von Fußgängern in geplanten oder ungeplanten Umgebungen ermöglicht. Trotz dieser wichtigen Rolle wird die informelle Infrastruktur in formalen Studien, Plänen, Berichten oder Karten meist vernachlässigt.;-;-;-;https://link.springer.com/article/10.1186/s40965-016-0009-9 3b08415d324dcc9851f6752d58bbc9ae;de;;;4.2.;;;Geschlechterverhandlungen in der Männerforschung unter Männern Was passiert, wenn Männer Gegenstand der Forschung sind? Geschlechtsspezifische und andere Formen sozialer Unterschiede werden teilweise durch persönliche Interaktionen durchgeführt und ausgehandelt, einschließlich durch Forschungsmethoden wie Interviews und Fokusgruppen. Wenn Männer oder Frauen geschlechterbewusst mit männlichen Forschungssubjekten forschen, werden viele Fragen aufgeworfen: praktische, politische und erkenntnistheoretische. In diesem Kapitel werden drei Dimensionen der Face-to-Face-Forschung bei Männern untersucht. Es stützt sich auf die qualitative Forschung des männlichen Autors unter jungen heterosexuellen Männern bezüglich ihrer sexuellen und sozialen Beziehungen zu Frauen sowie auf die geschlechtersensible Forschung anderer unter Männern in einer Vielzahl von Umgebungen und Bevölkerungsgruppen. Erstens, was sagen Männer in Interviews und Fokusgruppen, und wie wird dies durch ihre Interaktionen und Beziehungen mit dem Forscher und untereinander geprägt? Zweitens, wie verhandeln Forscher und Forschungsteilnehmer die Macht und das Privileg von Männern in der persönlichen Forschung mit Männern? Drittens, wie verhandeln Forschende und Forschungsbeteiligte Machtverhältnisse unter Männern untereinander?;-;-;-;https://link.springer.com/chapter/10.1057/9781137005731_5 7392a0b340cd4a1b8c54947e8bacb5e9;de;;;4.2.;;;Mikrosimulations-Reisemodelle in der Praxis in den USA und Perspektiven für einen agentenbasierten Ansatz Der Artikel fasst die Sicht des Autors zum Agent-Based Modeling (AgBM) und dessen Bedeutung für die Reisemodellierung zusätzlich zu den bereits in der Praxis bestehenden Mikrosimulationstechniken zusammen. Es liefert praktische Beispiele, in denen sich AgBM als nützlich erwiesen hat, und sieht als vielversprechender Weg zur Verbesserung der Modellstrukturen aus. Zu den neuen AgBM-Funktionen gehören: (1) individuelle Agenten (Haushalte und Personen) „intelligent“ zu machen durch individuelles Gedächtnis und dynamische Zustandsabhängigkeitsmechanismen mit Referenzierung, (2) Fähigkeit einzelner Agenten, sich an die sich ändernde Umgebung anzupassen, wenn sie sich ändern können Parameter wie Value of Time (VOT), (3) direkte Interaktionen zwischen den einzelnen Agenten und nicht nur mit der aggregierten Umwelt, (4) Lernen von anderen durch soziale und räumliche Netzwerke, insbesondere im Kontext der „Modalität“, (5) Unterscheidung zwischen Planungsschicht und Echtzeit-Implementierungsschicht (Simulation) im Modellsystem und (6) expliziter Wettbewerb um ein eingeschränktes Angebot an Aktivitäten, beispielsweise im Kontext der Arbeitsplatzwahl.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-60285-1_5 7f0a806f7bc013d3065a8700b902828a;de;;;4.2.;;;Wertschätzung schätzen sein Essay ist ein Aspekt eines Gesamtprojekts, das die Implikationen von Wittgensteins systematischer Unterscheidung zwischen Akten der Beschreibung, die Wahrheitswerte tragen, und Akten des Ausdrucks, die Geistes- und Gefühlszustände anzeigen, diese aber nicht beschreiben, für die literarische Kunst darlegt. Mein vollständiger Fall erfordert ein Buch. Das ist eine gute Nachricht für mich, aber eine schlechte Nachricht für den Leser, weil ich das Gefühl habe, eine schmerzlich kurze Version meiner theoretischen Gesamtposition als Hintergrund für das, was ich über Anerkennung sagen werde, anbieten zu müssen. Ausdrücke rufen eher Abstimmung hervor, als Repräsentationen dessen vorzuschlagen, was wir in unseren Welten vorfinden, daher werde ich argumentieren, dass je mehr wir den Inhalt typischer Ausdruckshandlungen konkretisieren, desto umfassender und intensiver werden die Forderungen nach so etwas wie Haltungen der Wertschätzung wie Modelle der Reaktion auf Kunstwerke.;-;-;-;https://link.springer.com/chapter/10.1057/9781137428776_4 aa026c8dbe5b95ad5b54fa14809b96c3;de;;;4.2.;;;Anwendung von Social Media-Daten zur hochauflösenden Kartierung einer speziellen Ereignispopulation Die zunehmende Beteiligung der Gesellschaft an sozialen Medien bietet Zugang zu neuen Quellen von Daten, die nahezu in Echtzeit unsere Aktivitäten in Raum und Zeit widerspiegeln. Die Möglichkeit für Benutzer, ihre Geostandorte über das Global Positioning System (GPS) ihres Telefons oder über den Hashtag oder die Facebook-Seite eines bestimmten Standorts zu erfassen und auszudrücken, bietet die Möglichkeit, die raumzeitliche Bevölkerungsdynamik zu modellieren. Eine anschauliche Anwendung ist die Modellierung dynamischer Populationen, die mit besonderen Ereignissen wie Sportereignissen verbunden sind. Um dies zu demonstrieren, wurden während der Saison 2013 an der University of Tennessee, Knoxville, über einen Zeitraum von 24 Stunden an mehreren Fußballspieltagen Twitter-Posts und Facebook-Check-ins gesammelt. Populationsverteilungen für Spielstunden und Nichtspielstunden eines typischen Spieltages wurden mit hoher räumlicher Auflösung unter Verwendung der raumzeitlichen Verteilungen der Social-Media-Daten modelliert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22786-3_7 d60816e6d50426cf9a4d1c89b6ba3e6b;de;;;4.2.;;;Adaptives und personalisiertes Lernen basierend auf den kognitiven Eigenschaften der Schüler Students Die Arbeitsgedächtniskapazität (WMC) ist ein kognitives Merkmal, das das Lernverhalten von Schülern beeinflusst, um komplexe kognitive Aufgaben auszuführen. Allerdings ist WMC sehr eingeschränkt und kann bei Lernaktivitäten leicht überlastet werden. Die Berücksichtigung des WMC der Schüler durch personalisierte Lernmaterialien und Aktivitäten hilft, kognitive Überlastung zu vermeiden und wirkt sich daher positiv auf das Lernen der Schüler aus. Um jedoch das WMC der Schüler im Lernprozess zu berücksichtigen, ist ein Ansatz erforderlich, um das WMC der Schüler ohne zusätzliche Bemühungen der Schüler zu identifizieren. Um dieses Problem anzugehen, führen wir einen allgemeinen Ansatz ein, um WMC automatisch aus dem Verhalten von Schülern in einem Lernsystem zu identifizieren. Unser Ansatz ist generisch und darauf ausgelegt, mit verschiedenen Lernsystemen zu arbeiten. Darüber hinaus kann ein Lernsystem, indem es den WMC der Schüler kennt, Lehrern sinnvolle Empfehlungen geben, um Schüler mit niedrigem und hohem WMC zu unterstützen. Dementsprechend haben wir einen Empfehlungsmechanismus geschaffen, der Empfehlungen basierend auf den Leitlinien der Cognitive Load Theory gibt. Diese Empfehlungen sollen bei der Präsentation von Informationen helfen, um eine Überlastung des Arbeitsgedächtnisses zu reduzieren. Informationen über das WMC sind auch die Grundlage für die Gestaltung adaptiver Systeme, die Schüler automatisch anhand ihres WMC individuell unterstützen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44659-1_5 98ab4e08600b0c0b40b20c51fc4ef87c;de;;;4.2.;;;Kulturelle Faktoren bei der Einführung und Nutzung von GSS In dieser Studie legen wir die Agenda für eine Analyse von Organisationen fest, die sich durch die Aufrüstung ihrer interaktiven Kommunikationstechnologien mit Produkten wie Group Support Systems (GSS) internationalisieren wollen oder werden. Die verschiedenen Auswirkungen, die die nationale Kultur auf die Nutzung und Einführung von GSS durch eine Organisation haben kann, werden identifiziert und mit Beispielen veranschaulicht. Außerdem werden zwei komplementäre Organisationsstrukturmodelle vorgestellt und aus der GSS-Perspektive analysiert. Es wird auf die wesentlichen Probleme hingewiesen, die ein GSS-Moderator/-Umsetzer in verschiedenen kulturellen Umgebungen beachten sollte.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35085-1_8 6cccb5e4579c15c2fb6ae250c5d7a31d;de;;;5.2.;;;Eine neue Supermemory-Gradientenmethode ohne Liniensuche für uneingeschränkte Optimierung In diesem Beitrag stellen wir eine neue Supermemory-Gradientenmethode ohne Liniensuche für uneingeschränkte Optimierungsprobleme vor. Das neue Verfahren kann einen Abstieg bei jeder Iteration garantieren. Es verwendet die vorherigen mehrstufigen iterativen Informationen bei jeder Iteration ausreichend und vermeidet die Speicherung und Berechnung von Matrizen, die mit der Hesse-Funktion von Zielfunktionen verbunden sind, so dass es geeignet ist, Optimierungsprobleme im großen Maßstab zu lösen. Wir beweisen auch seine globale Konvergenz unter milden Bedingungen. Außerdem analysieren wir die lineare Konvergenzrate des neuen Verfahrens, wenn die Zielfunktion gleichmäßig konvex und zweimal stetig differenzierbar ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01216-7_68 8f8d664e755d9b277e17c93c8cacdd34;de;;;5.2.;;;"Britisch-IRA-Gespräche 1975-76 Am 10. März 1975 beschwerte sich die PAC nach Überprüfung der Waffenstillstandssituation, dass die Reaktion der britischen Regierung nach vier Wochen echter und anhaltender Einstellung der Feindseligkeiten durch Oglaigh na heireann „vom Armeerat als unbefriedigend angesehen wird“. Es teilte HMG formell mit, dass die Dauer des Waffenstillstands von den Fortschritten bei der Sicherung eines dauerhaften Friedens abhänge. Verhandlungen über die drei Grundforderungen der Republikanischen Bewegung für einen dauerhaften Frieden „haben keine nennenswerten Fortschritte gemacht. Wir fordern daher die Aufnahme solcher Gespräche auf realistischer Basis.“ Alle Angelegenheiten, die einen Waffenstillstands-Aufsichtscharakter haben, müssen von einem separaten Verhandlungsteam behandelt werden. Punkt 1 des Waffenstillstandsabkommens wurde von den Crown Forces nicht eingehalten. Die Festnahme von drei Republikanern in der Grafschaft Armagh war eine grobe Verletzung des Waffenstillstands: „Wir werden die Aufrichtigkeit und Integrität von HMG bei der Einhaltung des Waffenstillstands durch die sofortige Freilassung der drei Männer beurteilen“, warnte die PAC die Briten. Die Aktion der RUC in den letzten Wochen war ein Verstoß gegen Punkt 3 des Waffenstillstandsabkommens: ""Wenn diese Aktion fortgesetzt wird, wird Oglaigh na heireann geeignete Maßnahmen ergreifen, um alle Formen von Belästigung und Provokation durch die RUC zu beenden."" Eine entsprechende öffentliche Erklärung werde veröffentlicht, um die Bevölkerung Großbritanniens und Irlands über die neue Situation zu informieren, teilte das PAC mit.";-;-;-;https://link.springer.com/chapter/10.1007/978-1-137-27717-6_7 5cc2ba9adbb948f06461fb309fb66481;de;;;5.2.;;;Die Umstrittenheit von BDS erklären: Rivalisierende Rahmungen von Identität, Frieden und Macht Wie in Kapitel 1 erörtert, war die Boykotttaktik immer umstritten und wurde von Befürwortern und Gegnern als gewalttätig oder gewaltlos angesehen. Der Diskurs um die Boykott-, Desinvestitions- und Sanktionsbewegung (BDS) gegen die israelische Besatzung hat ebenfalls extrem polarisiert, wobei Millionen von Dollar in Gegenkampagnen gesteckt wurden und eine umfangreiche Medienberichterstattung in keinem Verhältnis zum Ausmaß der einzelnen Aktionen stand. Dieses Kapitel untersucht die Mechanismen, durch die die BDS-Bewegung gegen die israelische Besatzung operiert – in erster Linie werden die Methoden der BDS-Anhänger und zum Vergleich auch die Methoden der BDS-Gegner untersucht – und analysiert, warum BDS in den untersuchten US-amerikanischen Fällen so polarisiert. Ich behaupte, dass die BDS-Bewegung in den Vereinigten Staaten wegen der zentralen Bedeutung von Identitätsdebatten und der Mobilisierung von Angst um die Sicherheit der fraglichen Identitäten so umstritten ist. Die Polarisierung rund um die BDS-Taktiken wird von Gegnern von BDS betont, die Pro-BDS-Aktivisten als Teil einer kohärenten, homogenisierten „Fremdgruppe“ darstellen, die eine Bedrohung für eine bestimmte „Eigengruppe“ darstellt, sei es eine Untergruppe einer Gemeinschaft (z , Caterpillar-Mitarbeiter innerhalb der Presbyterianischen Kirche, jüdische Studenten auf dem Campus) oder eine breiter angelegte Identitätskategorie (zB amerikanische Juden, der Staat Israel).;-;-;-;https://link.springer.com/chapter/10.1057/9781137349866_2 0d0dd86c1b76db610e761e404c760e0a;de;;;5.2.;;;Die Schiedsklausel für Rückversicherungen Schiedsklauseln sind in Rückversicherungsverträgen weit verbreitet. Solche Klauseln werden von den Parteien nach Belieben gezogen, d. h. entweder eng oder weit gefasst. Eine eng gefasste Schiedsklausel macht nur die spezifischen Fragen innerhalb ihres Anwendungsbereichs schiedsfähig. Weit gefasste Schiedsklauseln werden normalerweise auch so ausgelegt, dass sie außervertragliche Ansprüche umfassen. In Rückversicherungsverträgen enthaltene Schiedsklauseln führen dazu, dass alle entstehenden Streitigkeiten durch ein Schiedsverfahren beigelegt werden. Obwohl argumentiert werden könnte, dass zwischen Prozessführung und Schiedsverfahren kein Unterschied besteht – in dem Sinne, dass in jedem Verfahren ein neutraler Dritter den Streit zwischen den Parteien entscheidet und eine bindende Entscheidung erlässt – gibt es verfahrensrechtliche Unterschiede. Jedoch sollten alle Zweifel bezüglich des Umfangs schiedsgerichtlicher Angelegenheiten zugunsten eines Schiedsverfahrens ausgeräumt werden. Die Rechtsprechung zeigt die Tendenz, den Schluss auf das Vorliegen einer Schiedsabsicht in einfachen Formulierungen zu stützen. Die Bedeutung der Qualifikation des Schiedsgerichts und das Verfahren zur Auswahl eines Schiedsrichters und Schiedsrichters sind in jedem Schiedsverfahren von großer Bedeutung. Die Parteien entscheiden sich, Rückversicherungsstreitigkeiten aus folgenden Gründen zu schlichten:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45146-1_4 889d9c4f60b57c85a580b18018e3622c;de;;;4.2.;;;Die politische Ökonomie der Entwicklung Das Hauptziel dieses Kapitels wird es sein, die Relevanz der Politischen Ökonomie in Entwicklungsfragen aus der vergleichenden Perspektive von überlieferten Lehren und dem ethisch endogenen Ansatz zu untersuchen. In diesem Zusammenhang werden wir dann einige spezifische Entwicklungsprobleme kritisch untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-13055-9_4 026ca146db67a86091dacc9a27a7afba;de;;;4.2.;;;SocialPG: Vorgeschlagenes Modell für den Aufbau umfassender sozialer Spielerlebnisse Pervasive Computing ist zu einem wichtigen Bestandteil bei der Entwicklung von Anwendungen geworden, die Spaß als motivierende Komponente verwenden. Dies liegt daran, dass es die Erforschung neuer Interaktionsschemata ermöglicht, indem das Konzept von Raum und Zeit mehrdeutig und verwirrend wird und Spielmechaniken entwickelt werden, die den Teilnehmer mit innovativen with Elemente, die interessante und unterhaltsame Erlebnisse generieren. Diese Forschung beschreibt SocialPG, einen Modellvorschlag, der die soziale Expansion als eine Strategie zur Verbesserung von Spielerlebnissen beschreibt, die durch Pervasive Computing unterstützt werden, in diesem Sinne zeigt seine Komponenten, wie sie zusammenhängen und welchen Interaktionsfluss ein Benutzer erlebt, wenn er sich einmischt , zu den wichtigsten Aspekten gehört die Eingliederung einer neuen Rolle in die traditionelle Spielmechanik, der Betrachter beinhaltet außerdem eine Expertenvalidierung nach Delphi-Methodik, die die Akzeptanz des Modells und mögliche Verbesserungsmöglichkeiten aufzeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72660-7_13 5a8539720ebe2a4a41bdeaf551d94fc9;de;;;4.2.;;;Klassische Musik Das Wort „klassisch“ hat in Bezug auf Musik eine weitaus größere Bedeutung als in anderen kulturellen Formen. Innerhalb komplexer und vielfältiger Verwendungen stellt es eine unterschiedliche Gruppierung von Stücken und Praktiken dar und unterscheidet wesentlich unterschiedliche Schwerpunkte und Werte.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-17591-8_2 a6550d8e941ef32808459777eb71adb3;de;;;4.2.;;;Digitale Plattformen und die Transformationen in der Arbeitsteilung Dieses Kapitel analysiert die mit der Plattformökonomie verbundenen Arbeitstransformationen aus soziologischer Perspektive unter Anwendung einer der in der Literatur am besten etablierten Kategorien, nämlich der Arbeitsteilung. Der erste Abschnitt beschreibt die Hauptmerkmale digitaler Plattformen, mit besonderem Augenmerk auf schlanke digitale Arbeitsplattformen. Die drei folgenden Abschnitte interpretieren die mit der Verbreitung digitaler Plattformen verbundenen Transformationen, basierend auf dem Konzept der sozioökonomischen Arbeitsgestaltung von Miriam Glucksmann und artikuliert sich in Arbeitsteilung im engeren Sinne, gesamtgesellschaftlicher Arbeitsorganisation und instituierten ökonomischen Prozessen. Der letzte Abschnitt fasst die wichtigsten Spannungen zusammen, die sich ergeben zwischen: Stellensuche über offene und integrative Plattformen und Formen der Arbeitsorganisation, die stark polarisierte Märkte schaffen, verschiedenen Plattformmodellen, die von den extraktivsten Markttypen bis hin zu Modellen der kollaborativen Wirtschaft reichen, die ebenfalls miteinander verbunden sind bis hin zu Urban Governance, Formen des Prosumerismus verbunden mit der Aktivierung und Einbeziehung des Konsumenten und der (Selbst-)Ausbeutung freier Arbeitskraft, aber auch zu einer neuen Art der Wertextraktion aus den unbewusst von den Plattformnutzern produzierten Daten.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-319-57365-6_16-1 92ab03d36435ad0e65cf0bd9eed624cb;de;;;4.2.;;;Analytische Herausforderungen im Social Sensing Social-Sensing-Anwendungen beziehen sich auf Anwendungen, bei denen Einzelpersonen eine wichtige Rolle bei der Datenerfassung spielen. Sie können als Sensorträger fungieren (z. B. GPS-Geräte tragen, die Standortdaten austauschen), Sensorbediener (z. B. beim Aufnehmen von Bildern mit Smartphones) oder selbst als Sensoren (z. B. indem sie ihre Beobachtungen auf Twitter teilen). Die Verbreitung von Sensoren im Besitz des Durchschnittsmenschen, zusammen mit der Popularität sozialer Netzwerke, die eine massive Informationsverbreitung ermöglichen, läutet eine Ära der sozialen Wahrnehmung ein, die neue Forschungsherausforderungen mit sich bringt, die in diesem Kapitel behandelt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40066-7_16 fc35d270db2e7a8f547e78b8d51a11a6;de;;;4.2.;;;Kontinuität von Instant Messaging: Eine Perspektive der Medienwahltheorie Instant Messaging (IM) ist für viele Internetbenutzer zu einer der beliebtesten Anwendungen geworden. Während sich frühere Forschungen hauptsächlich auf die anfängliche Einführung von IM konzentrierten, hat die fortgesetzte Nutzung (oder Fortführung) nicht viel Aufmerksamkeit auf sich gezogen. Diese Forschung integriert Medienwahltheorien mit Motivationstheorien, um die IM-Kontinuität zu erklären. Es testet das vorgeschlagene Modell anhand von Daten, die von einer Stichprobe von 207 chinesischen Universitätsstudenten über eine Online-Umfrage gesammelt wurden. Die Ergebnisse zeigen, dass die wahrgenommene Freude und die wahrgenommene kritische Masse der Schlüssel zur Intention der IM-Fortsetzung sind. Wahrgenommene soziale Präsenz und wahrgenommene kritische Masse werden positiv mit wahrgenommener Freude in Verbindung gebracht. Wir stellen auch fest, dass die wahrgenommene soziale Präsenz, der wahrgenommene Medienreichtum und der wahrgenommene Genuss signifikante Auswirkungen auf die wahrgenommene Nützlichkeit haben.;-;-;-;https://link.springer.com/article/10.1007/s11782-011-0144-1 1545c9fc7560a31a07293a661b6ebd47;de;;;4.2.;;;Essen in der Schule: Untersuchung des ernährungsphysiologischen Ansatzes zur gesunden Ernährung in der Schule mittels Positionierungstheorie In diesem Artikel untersuchen wir, wie die von den dänischen Schulbehörden formulierten Richtlinien zum Essen in der Schule vom Personal umgesetzt und von den Schülern interpretiert werden. Wir verwenden die Positionierungstheorie, um zu analysieren, wie sich Autoritäten, Mitarbeiter und Kinder innerhalb und zwischen verschiedenen moralischen Ordnungen gegenseitig positionieren. Wir kommen zu dem Schluss, dass die offizielle Ernährungspolitik nicht zielführend ist und dass Schüler stattdessen eine Art lokale Staatsbürgerschaft entwickeln sollten, die die Fähigkeit aufweist, zwischen verschiedenen Positionen zu manövrieren, sodass diese Beteiligung eine Zugehörigkeit zum schulischen Umfeld ausdrückt, die von Behörden und Mitarbeitern derzeit nicht anerkannt wird .;-;-;-;https://link.springer.com/article/10.1057/sth.2014.5 bf85bae9fa452da5f381c9ceb837b720;de;;;4.2.;;;Öffentlicher Dienst am Rande: Eine Fallstudie zu diasporischen Medien im Vereinigten Königreich Die öffentlich-rechtlichen Medien zielen darauf ab, Bürger unabhängig von Rasse, Glauben, ethnischer Zugehörigkeit, Geschlecht oder sexueller Orientierung zu stärken. Die Literatur kommt jedoch immer wieder zu dem Schluss, dass die öffentlich-rechtlichen Medien die Informations- und Unterhaltungsbedürfnisse eines unterschiedlichen Publikums in ihren Programmen nicht befriedigen (siehe Burns und Brugger, 2012, Cottle, 2000, Matsaganis et al., 2011, Ogunyemi, 2012, Ojo , 2006, Ross und Palydon, 2001). Eine solche Marginalisierung hält die stereotype Repräsentation von Minderheitengruppen aufrecht, stellt sie eher als Objekt denn als Subjekt von Geschichten dar, schließt sie aus Expertenquellen aus, übersieht ihren Beitrag zum kulturellen und wirtschaftlichen Gefüge der Gastgesellschaft und entmachtet sie als Bürger.;-;-;-;https://link.springer.com/chapter/10.1057/9781137512642_9 55e970bcc309197fe865ff23b1863a48;de;;;5.2.;;;Kombination von Constraint-Logic-Programmiertechniken zum Lösen linearer Probleme Dieses Papier präsentiert ein System zum Lösen von linearen Problemen mit gemischten unendlichen und endlichen Domänen unter Verwendung einer Constraint Logic Programming (CLP)-Umgebung. Die Beiträge unseres Systems werden in zwei Richtungen eingeführt. Erstens basiert die Aufteilung des Domänenbereichs einer Variablen im Gegensatz zu bestehenden Systemen auf dem rechten Wert der ersten Einschränkung, an der sie beteiligt ist, und nicht auf der Aufteilung über einen beliebigen Wert. Außerdem wird der Aufteilungsprozess bei Bedarf automatisch vom System durchgeführt und liegt nicht in der Verantwortung des Benutzers. Zweitens wird eine relativ transparente Integration zwischen zwei Constraint Logic Programming-Solvern erreicht. Ersteres ist ein partieller Look-Ahead-Löser für rationale sowie ganze Zahlen mit Unterstützung des oben genannten Domänenaufteilungsmechanismus, während letzterer ein Simplex-ähnlicher Löser namens CLP(Q) ist. Jeder Partner unterbreitet dem anderen einige Dienste, damit das kohärente System die Sucheffizienz verbessert und ihre individuellen Hauptmängel angeht.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44654-0_10 95933ff43c11fcebbd4443a1a12fd954;de;;;5.2.;;;(Un)Limited Force: Regionale Neuausrichtungen, israelische Operationen und die Sicherheit von Gaza Dieses Kapitel untersucht die Auswirkungen der jüngsten politischen Neuausrichtungen im Sicherheitssystem der Golfregion und des weiteren Nahen Ostens gegenüber Israel auf die Sicherheit von Gaza. Es wird argumentiert, dass in den letzten anderthalb Jahrzehnten regionale und internationale Zwänge für Israel der Hauptgrund für die Beschränkungen sowohl des Umfangs als auch des Ausmaßes wiederkehrender Angriffe der israelischen Verteidigungskräfte auf den Gazastreifen waren. Darüber hinaus hat die gegenwärtige Neuordnung regionaler politischer Allianzen zugunsten Israels dazu geführt, dass diese Beschränkungen für den israelischen Einsatz von Gewalt in Gaza auffallend fehlen. Aufgrund der jahrzehntelangen israelischen Blockade ist Gaza bereits einer katastrophalen humanitären Situation ausgesetzt, und die beispiellose politische Isolation im Gefolge der Operation Protective Edge (2014) macht Gaza außergewöhnlich anfällig für die unbeirrten Auswirkungen der israelischen Besatzung, Blockade und Angriffe.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-45465-4_8 e2ccf504b37ece33fca56c72a87e1200;de;;;5.2.;;;Durchschnittlich trägheitsgewichtete Katzenschwarmoptimierung Um die Konvergenz der Cat Swarm Optimization (CSO) zu verbessern, schlagen wir einen neuen Algorithmus von CSO vor, nämlich Average-Inertia Weighted CSO (AICSO). Um dies zu erreichen, haben wir der Positionsaktualisierungsgleichung einen neuen Parameter als Trägheitsgewicht hinzugefügt und eine neue Form der Geschwindigkeitsaktualisierungsgleichung im Verfolgungsmodus des Algorithmus verwendet. Experimentelle Ergebnisse mit Griewank-, Rastrigin- und Ackley-Funktionen zeigen, dass der vorgeschlagene Algorithmus eine viel bessere Konvergenz aufweist als reine CSO.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21515-5_38 f4c9f698b965805daf78ee8d4c8dafa3;de;;;5.2.;;;Du siehst nur so viel aus, wie du musst Aktives Sehen betrachtet das Problem der Wahl des optimalen nächsten Blickwinkels, von dem aus ein autonomer Agent seine Umgebung beobachten kann. In diesem Papier schlagen wir vor, das aktive Inferenzparadigma als natürliche Lösung für dieses Problem zu verwenden und dies in einem realistischen Szenario mit einem Robotermanipulator zu bewerten. Wir gehen dieses Problem mit einem generativen Modell an, das unbeaufsichtigt rein aus pixelbasierten Beobachtungen gelernt wurde. Wir zeigen, dass unser Agent ein informationssuchendes Verhalten zeigt und Standpunkte von Regionen wählt, die er noch nicht beobachtet hat. Wir zeigen auch, dass zielorientiertes Verhalten entsteht, wenn der Agent ein Ziel erreichen muss, und zwar effizienter als eine systematische Rastersuche.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-64919-7_11 dcd0a683e73464d9f0601eac71fd4598;de;;;4.2.;;;Gender und die Medizinisierung des Gesundheitswesens Die Medizinisierung ist ein Schlüsselbegriff der Moderne, der seit den 1970er Jahren in den Sozial- und Medizinwissenschaften allgegenwärtig ist. Wir beginnen damit, das zu übernehmen, was der Soziologe Peter Conrad seine wesentliche Bedeutung nennt: „;-;-;-;https://link.springer.com/chapter/10.1057/9780230290334_7 a537c8c9c53d4a5b16495e75f48147e5;de;;;5.2.;;;Übergang episodisch-mimetisch An einem bestimmten Punkt in der menschlichen Evolutionsentwicklung wechselten unsere Vorfahren des Homo erectus von einem auf Episoden basierenden Bewusstsein, das in den letzten beiden Kapiteln über Episode Mind beschrieben wurde, zu einem mimetisch-basierten Bewusstsein, das Donald den Mimetic Mind nennt (Abb. 6.1). Mit seiner neuen Denkweise über die Welt und unseren Platz in ihr hat der Mimetic Mind eine radikal andere Kultur oder Gesellschaft mit einer erhöhten Betonung der Kommunikation innerhalb der Gruppe hervorgebracht. Der Übergang nahm ein langsames, evolutionäres Tempo, begann vor etwa 1,8 Millionen Jahren und endete vor 40.000–60.000 Jahren mit der Entstehung des kognitiv modernen Menschen. In seiner voll entwickelten Form am Ende des Übergangs hatte der Mimetic Mind die menschliche Kultur verändert, die Art und Weise, wie Menschen ihr Leben organisierten, und schuf große und komplexe soziale Gruppen mit „kollektiv erfundenen und gepflegten Bräuchen, Spielen, Fähigkeiten und Repräsentationen … kultureller Innovation“. und neue Formen sozialer Kontrolle“ (Donald, 1991, S. 173).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-92457-1_6 93f87cf3ee243d33977d2f389dd4617b;de;;;5.2.;;;Ein Discovery-Mechanismus von Web Services mit optimaler Suchmethode WEB-Dienste sind autonome Softwaresysteme, die durch URIs identifiziert werden, die durch Nachrichten, die gemäß XML-basierten Standards (z. B. SOAP, WSDL und UDDI) codiert sind und die unter Verwendung von Internetprotokollen übertragen werden, beworben, lokalisiert und darauf zugegriffen werden kann. Am schwierigsten ist es jedoch, in vielen Dienstleistungskollektiven, in denen Dienste reichlich redundante und ähnliche Merkmale aufweisen, einen vorschlagenden Dienst zu finden. In diesem Papier wird die Politik des Service Hitting vorgestellt und Prozesse zur Überwindung der Ungültigkeit der Servicebindung durch Berechnung des Ähnlichkeitsgrades zwischen den Services und Sortierung beschrieben. Da sich Webdienste in vielen verteilten Datenbanken befinden, wird der Algorithmus der Quelloptimierung eingeführt, um einen optimalen Dienst mit geringen Kosten und Verfügbarkeit zu finden. Im Ergebnis einer experimentellen Analyse, die zeigt, dass Webdienste Anpassungsfähigkeit und intelligenten Charakter im Entdeckungsprozess haben, indem sie diese optimalen Suchmethoden unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23226-8_46 85d1e7c178d48101b602b74007ca7550;de;;;5.2.;;;Die Rolle der Kultur beim Online-Suchverhalten: Eine vergleichende Studie zwischen britischen und chinesischen Reisenden Traveler Diese Studie untersucht die Rolle der Kultur und ihre Auswirkungen auf das Online-Suchverhalten von Reisenden. Die Studie konzentriert sich auf zwei kulturell diametrale Länder: Großbritannien und China (Hofstede, Psychology and Culture, 2(1), 2011) und sie wurden als Fallstudien ausgewählt, die Werte aus der westlichen und asiatischen Kultur repräsentieren. Die Forschung verfolgte einen qualitativen Ansatz, und die Daten wurden durch Interviews gesammelt, um das Verständnis des untersuchten Themas zu verbessern. Die Ergebnisse deuten darauf hin, dass die Kultur das Verhalten der Reisenden im Online-Umfeld erheblich beeinflusst und als Folge dieses Einflusses unterschiedliche Verhaltensmuster zwischen britischen und chinesischen Reisenden entstanden. Die Schlussfolgerungen erörtern die Auswirkungen auf Vermarkter, die auf britische und chinesische Touristen abzielen, und heben die Notwendigkeit hervor, unterschiedliche Strategien bei der Gestaltung und Förderung ihrer Tourismusprodukte für diese beiden speziellen Märkte zu verfolgen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-28231-2_55 3e3e8147b56d6a42477e42311977de47;de;;;4.2.;;;Eine adaptive und effiziente Methode zur Erkennung erster Anzeichen einer Depression mit Informationen aus dem Social Web Depressionen sind eine der häufigsten psychischen Störungen weltweit. Derzeit leiden mehr als 264 Millionen Menschen jeden Alters an Depressionen und fast 800.000 sterben in Suizid (Weltgesundheitsorganisation (Januar 2020)). Das frühzeitige Erkennen einer Depression kann zu einer rechtzeitigen Behandlung führen und Leben retten. In diesem Zusammenhang kann die Nutzung von Informationen aus Social-Media-Plattformen eine wertvolle Ressource zur Früherkennung von Depressionen sein. Zuvor haben wir vorgestellt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-48325-8_15 6b45912c977fe5801e2699c154b70048;de;;;4.2.;;;Die Kreation von wurde 1993 veröffentlicht und stellte sofort einen Kassenrekord von über einer Million Zuschauern allein in Seoul auf. Eine Million Ticketverkäufe sind nach den Maßstäben des Jahres 2010 vielleicht keine große Neuigkeit, da einige Filme inzwischen erfolgreich über zehn Millionen Zuschauer anziehen und alle Top-Ten-Filme im Jahr 2009 über zwei Millionen ins Land kamen. Aber es war sicherlich eine unvorhergesehene Überraschung, insbesondere wenn wenige erwarteten, dass ein Film über eine traditionelle Musik, die längst aus dem Gedächtnis der Bevölkerung verschwunden ist, Menschen in dieser Größenordnung anziehen würde. Regisseur Im Kwon-taek hatte bis dahin schon viele Filme produziert, aber sein Ruf in der Branche veränderte sich danach nachhaltig;-;-;-;https://link.springer.com/chapter/10.1057/9780230339507_7 399fba61aa5ebc4bd9d00c1bb0d67e10;de;;;4.2.;;;Die Rolle von Facebook bei den griechischen Kommunalwahlen 2014 Der Zweck dieser Studie besteht darin, die Nutzung von Facebook durch Kandidaten zu untersuchen, die für die griechischen Kommunalwahlen 2014 kandidieren, indem die folgenden Fragen beantwortet werden: (1) Welche Faktoren beeinflussen die Facebook-Akzeptanz durch kommunale Kandidaten? und (2) ob die Facebook-Nutzung zusammen mit den Die Popularität der Facebook-Seiten der Kandidaten beeinflusst den Stimmenanteil der Kandidaten. Die Ergebnisse deuten darauf hin, dass Facebook unter kommunalen Kandidaten in Griechenland kein sehr beliebtes Wahlkampfinstrument ist. Dies impliziert, dass griechische Kandidaten sich immer noch auf traditionelle Methoden verlassen, um ihre Wähler zu locken. Darüber hinaus zeigen die Ergebnisse, dass Kandidaten, die in großen Gemeinden kandidieren, die zuvor nicht gewählt wurden, Facebook eher als Mittel des politischen Marketings nutzen. Trotz der niedrigen Akzeptanzrate deuteten die Ergebnisse darauf hin, dass Kandidaten, die Facebook nutzten, mehr Stimmen erhielten als Kandidaten ohne Facebook. Darüber hinaus wurde festgestellt, dass die Popularität der Facebook-Seite eines Kandidaten ein guter Indikator für den Stimmenanteil des Kandidaten ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-48319-0_36 f56bb7d5cdd7999767561dde81d4a1a9;de;;;4.2.;;;Ein Modell der Akzeptanz und Nutzung von E-Health in Uganda: Die Perspektive sozialer Online-Netzwerke Soziale Online-Netzwerke verändern die Erbringung von E-Government-Diensten auf der ganzen Welt. Während sie genutzt wurden, um die Erbringung anderer E-Government-Dienste zu verbessern, steht ihr Einsatz im Gesundheitswesen im Kontext von Entwicklungsländern immer noch vor vielen Herausforderungen. Dazu gehören fehlende Richtlinien, begrenztes Wissen darüber, was die Akzeptanz und Nutzung sozialer Netzwerke für E-Health durch die Benutzer motiviert, und mangelndes Vertrauen in die in diesen Netzwerken geteilten Informationen. In den letzten zehn Jahren wurden viele Akzeptanzmodelle entwickelt, um die Benutzerakzeptanz der E-Government-Technologie zu erklären. Es wurde jedoch keines entwickelt, um die mächtige Macht sozialer Online-Netzwerke in einem Entwicklungslandkontext zu nutzen. Um diese Lücke zu schließen, präsentiert dieses Papier die Ergebnisse einer Studie, die ein Social Networked Model für eine verbesserte Akzeptanz und Nutzung von E-Health-Diensten in Uganda entwickelt. Die in einer Feldstudie ermittelten Anforderungen an das Modell werden verwendet, um das generische E-Government-Akzeptanzmodell zu erweitern, das soziale Netzwerkfaktoren für die Akzeptanz und Nutzung von E-Health betont. Das erweiterte Modell hat die Dimensionen Soziale Unterstützung, Soziales Bewusstsein, Soziale Attraktivität und Sozialen Einfluss. Das Social Networked Model ist generisch und kann von anderen Transformationsländern verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16886-9_12 24c668590623e8b74331d980b162727f;de;;;4.2.;;;Korrelationen der Zufriedenheit mit dem Feedback zur Leistungsbeurteilung Der relative Mangel an Forschung zu den Reaktionen von Mitarbeitern auf Feedback zur Leistungsbeurteilung ist der Hauptanstoß für diese Studie, die dieses wichtige, aber vernachlässigte Forschungsgebiet vorantreibt, indem potenzielle Prädiktoren und Folgen der Zufriedenheit mit Beurteilungsfeedback untersucht werden. Umfrageantworten von 112 Mitarbeitern wurden mit ihren Leistungsbewertungen aus zwei verschiedenen Beurteilungszeiträumen abgeglichen, um spezifische Hypothesen zu testen. Die Ergebnisse zeigen, dass die Zufriedenheit mit dem Bewerter und früheren Leistungsbewertungen die Zufriedenheit der Mitarbeiter mit dem Beurteilungsfeedback beeinflusst. Die Zufriedenheit mit dem Beurteilungsfeedback stand in positivem Zusammenhang mit der Arbeitszufriedenheit und dem organisatorischen Engagement und in negativem Zusammenhang mit den Fluktuationsabsichten. Der Vorgesetztenstatus moderierte den Zusammenhang zwischen der Zufriedenheit mit dem Beurteilungsfeedback und der späteren Leistung so, dass der Zusammenhang nur für Vorgesetzte bestand, die neben dem Feedback zur eigenen Leistung auch Feedback an ihre Untergebenen gaben. Implikationen der Ergebnisse für Forscher und Praktiker werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s12122-006-1004-1 30464c93b05d6465d975e7a57cc1af3b;de;;;4.2.;;;Verwendung von Argumentvisualisierung zur Verbesserung der E-Partizipation im Gesetzgebungsprozess Die meisten Probleme der öffentlichen Ordnung sind „bösartig“ und zeichnen sich durch hohe Komplexität, viele heterogene Ansichten und Konflikte zwischen verschiedenen Akteuren aus. Daher sollten Bürger, die an solchen Debatten interessiert sind, um ausreichend informiert zu sein, große Mengen an relevantem Material wie Berichte, Gesetze, Ausschussprotokolle usw. studieren, die in juristischen oder anderen Fachsprachen oder sehr oft deren Inhalt sind versteckt sich in politischer Rhetorik und behindert eine sinnvolle Beteiligung. In diesem Beitrag präsentieren wir die Ergebnisse unserer Forschung, um dieses Problem durch den Einsatz von Methoden der „Computer Supported Argument Visualization“ (CSAV) zur Unterstützung und Verbesserung der E-Partizipation im Gesetzgebungsprozess zu lösen. Dieser Ansatz wurde in einem Pilotprojekt zur E-Partizipation umgesetzt und anschließend sowohl mit quantitativen als auch qualitativen Methoden auf Basis des „Technology Acceptance Model“ (TAM) mit positiven Ergebnissen evaluiert. Basierend auf den Schlussfolgerungen dieser Evaluierung wurde eine Bereicherung des IBIS-Frameworks entwickelt, um die Visualisierung von Rechtsdokumenten zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03781-8_12 29bedc36141e28be4bc9b3414f111251;de;;;4.2.;;;Kommunikation für Veränderung Dieses Kapitel führt in das Buch ein und beschreibt einige der zentralen und sich verändernden Anliegen im weiten und amorphen Feld der Kommunikation für Entwicklung und sozialen Wandel. Wir erklären die Gründe für den Wunsch, eine Reihe von Konzepten zu entwickeln und zu teilen, die zu diesem Bereich beitragen. Ziel ist es, zum Nachdenken anregende Konzepte zu präsentieren, die von vielen Begründungen und Qualifikationen befreit sind, die in anderen wissenschaftlichen Publikationsformaten erforderlich sind, um die Ideen direkt auf den Punkt zu bringen. Wir präsentieren und diskutieren die vierzehn Konzepte, die lose um Bürgerschaft und Gerechtigkeit, Entwicklungskritik und Erneuerung des Denkens gruppiert sind. In diesem Kapitel werden die Verbindungen und Trennungen zwischen den Konzepten und ihre Stellung im breiteren Feld erörtert. Es erklärt, warum wir denken, dass es gut ist, mit ihnen zu denken, und wie dies dazu beiträgt, das Feld neu zu denken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-42513-5_1 1c4092a706c8b9f9c4a51988b9da60a3;de;;;4.2.;;;Je höher die Online-Beteiligung, desto besser der Lernerfolg? Eine Studie zur Integration von Moodle in das Lernen Diese Studie zielte darauf ab, den Zusammenhang zwischen der Online-Teilnahme von Schülern an Moodle und ihrem Lernerfolg zu untersuchen. An der Studie nahmen 78 Vollzeitstudenten im Grundstudium teil, die an einer Hochschule in Hongkong in einem allgemeinbildenden Studiengang mit dem Titel „Digital Citizenship“ eingeschrieben waren. Sie mussten aus verschiedenen Arten von Moodle-Aktivitäten auswählen und daran teilnehmen, darunter Informationszugang (z. B. Lesen von ergänzenden Online-Ressourcen), interaktives Lernen (z. B. Ausführen von Online-Simulationen), vernetztes Lernen (z. B. Diskussion in Online-Foren) und Materialentwicklung (zB das Schreiben reflektierender Tagebücher). Die Online-Teilnahme eines Studierenden wurde an der Anzahl der abgeschlossenen Aktivitäten gemessen, während der Lernerfolg eines Studierenden an seiner/ihrer Essaynote gemessen wurde. In dieser Studie wurde die Methode der Partial Least Squares (PLS) auf die erhobenen Daten angewendet, um festzustellen, ob ein Zusammenhang zwischen Online-Teilnahme und Lernerfolg besteht. Die Ergebnisse deuten darauf hin, dass die Online-Teilnahme am vernetzten Lernen oder an der Materialentwicklung, jedoch nicht am Informationszugang oder am interaktiven Lernen, positiv und signifikant mit dem Lernerfolg zusammenhängt. Dieses Ergebnis unterstreicht die Bedeutung der sozialen Interaktion und des individuellen Konstruktivismus für effektives Online-Lernen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46158-7_14 1983ff4a422cb96280ecbbe46f13e611;de;;;5.2.;;;Untersuchung der mobilen Einkaufsaktivitäten von Benutzern basierend auf den Merkmalen von Eye-Tracking Diese Studie zielt darauf ab, das visuelle Aufmerksamkeitsniveau der Benutzer bei ihren mobilen Einkaufsaktivitäten basierend auf unserem Eye-Tracking-Experiment zu untersuchen, das möglicherweise zur Entwicklung des Mobile-Commerce-Website-Designs beitragen kann. Wir haben festgestellt, dass die Verteilung von Produktinformationen auf einer Seite einen großen Einfluss auf das visuelle Suchverhalten und die Reaktionszeit haben kann. Die Reaktionszeit ist normalerweise minimal, wenn das Zielelement oben links platziert wird. Umgekehrt steigt sie tendenziell an, wenn das Zielelement unten rechts platziert wird. Darüber hinaus unterscheidet sich der visuelle Aufmerksamkeitsfokus zwischen computerbasierten und mobilen Webseiten basierend auf unseren Untersuchungen zu den Merkmalen des Eye-Trackings. Frühere Studien haben berichtet, dass der Fokus der Benutzer hauptsächlich auf höher positionierten Einträgen auf einer Ergebnisseite einer Suchmaschine liegt, aber in unserer Forschung interessieren sich die Benutzer mehr für die Elemente, die im zentralen Bereich angezeigt werden als oben. Dies liegt wahrscheinlich daran, dass die Größe einer mobilen Shopping-Seite nicht so groß ist wie die einer computerbasierten Webseite, auch mit eingeschränkteren Informationen. Dieses Ergebnis kann ein Hinweis sein, um das Design von Mobile-Commerce-Websites zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-31854-7_50 60849ed3fee8c6df807c6579247e93cc;de;;;4.2.;;;Determinanten der länderübergreifenden Einkommensungleichheit: Eine „erweiterte“ Kuznets-Hypothese Dieses Papier präsentiert eine alternative Hypothese, warum die Einkommensungleichheit zwischen den Ländern unterschiedlich ist. Die einzige derzeit existierende Hypothese wurde von Kuznets (1955) formuliert. Die Hypothese von Kuznets wird in Abschnitt 4.2 kurz besprochen. Sie liefert einen unverzichtbaren Hintergrund für unsere „erweiterte“ Kuznets-Hypothese, die in Abschnitt 4.3 formuliert wird. Die empirische Bewertung unserer Hypothese ist in Abschnitt 4.4 dargestellt. Die Hypothese wird an einer Querschnittsstichprobe von 80 Ländern getestet, darunter alle OECD-Länder, alle europäischen (ehemaligen) sozialistischen Länder sowie 50 afrikanische, asiatische und lateinamerikanische Länder. Die Daten stammen aus den 1980er Jahren. Abschnitt 4.5 enthält die wichtigsten Schlussfolgerungen und Implikationen unserer Hypothese.;-;-;-;https://link.springer.com/chapter/10.1057/9780230523098_4 2fa4df661c683bfd60160951d1c67c59;de;;;4.2.;;;Global Governance muss relational sein, nicht nur technokratisch Selbst im größten Maßstab scheint uns das Leben vor Probleme zu stellen, für die es Lösungen gibt: Kriege können entschieden geführt, Epidemien gestoppt und globale Finanzkrisen stabilisiert werden. Doch jedes engagierte menschliche Bemühen als „Lösung“ zu beschreiben, ist gleichzeitig eine Möglichkeit, die zu behandelnde Sache als begrenzt zu charakterisieren – d. h. als eine besondere Menge von Umständen, die klar in Raum und/oder Zeit getrennt sind, und nicht als eine besondere Manifestation eines anhaltenderen Zustands. So kann der Zweite Weltkrieg geografisch und zeitlich genau lokalisiert werden, aber seine vielen Hinterlassenschaften bestehen fort;-;-;-;https://link.springer.com/chapter/10.1057/9780230234338_4 e3b5e76c12e35221e216636f9ca17ddd;de;;;5.2.;;;Eigentumsrechte an genetischen Informationen Das Hauptthema dieses Papiers ist der normative Fall gegen den Besitz der eigenen genetischen Informationen zusammen mit der Quelle dieser Informationen (normalerweise menschliche Gewebeproben). Das hier vorgebrachte Argument gegen solche „vorgelagerten“ Eigentumsrechte basiert in erster Linie auf utilitaristischen Gründen. Dieses Thema hat dank des Human Genome Project und der „Bio-Prospecting“-Initiativen auf der Grundlage der Aggregation genetischer Informationen, wie sie beispielsweise von deCODE Genetics in Island verwaltet wird, eine neue Bedeutung. Die Eigentumsrechte sind zweifach begründet: Eigentum schützt die grundlegenden Menschenrechte auf Privatsphäre und Autonomie und ermöglicht es den betroffenen Personen, an den greifbaren Vorteilen der Genforschung teilzuhaben. Befürworter dieser Sichtweise berufen sich häufig auf das Prinzip des genetischen Exzeptionalismus, dem zufolge genetische Informationen ein höheres Schutzniveau benötigen als andere Arten von personenbezogenen Informationen wie Finanzdaten. Wir argumentieren jedoch, dass die Anerkennung solcher Eigentumsrechte zu Ineffizienz und zur Nutzlosigkeit genetischer Entdeckungen führen würde. Die biomedizinische Forschung wird behindert, wenn die Eigentumsrechte an Genen und genetischem Material zu umfangreich sind. Wir behaupten, dass andere Mechanismen wie die informierte Zustimmung und strenge Vertraulichkeitsregeln das gleiche Ergebnis erzielen können wie ein Schutzrecht ohne die Verbindlichkeiten eines ausschließlichen Anspruchs.;-;-;-;https://link.springer.com/article/10.1023/B%3AETIN.0000036157.14807.b0 e108c5bbde6188a5155d13014e53c5a0;de;;;4.2.;;;Arbeit, Zeit und Familie: Ist es möglich, europäische Familienarbeitszeitregime zu identifizieren? Insgesamt hat sich in Europa in den letzten Jahrzehnten eine Verschiebung vom männlichen Ernährer- zum Doppelverdienermodell vollzogen, allerdings mit unterschiedlichem Tempo, und es wird sogar behauptet, dass der Anstieg der Doppelverdienerhaushalte einer der stärksten sei bedeutende soziale Trends, die sich auf die europäischen Gesellschaften ausgewirkt haben. Um die Variationen der Familienarbeitszeitmuster genauer zu erfassen, hat die Forschung europäische Länder zu Familienarbeitszeitregimen oder -clustern zusammengefasst. Da sich die Position der Männer auf dem Arbeitsmarkt im Laufe der Zeit stabiler entwickelt hat, ist die Veränderung der Position der Frauen auf dem Arbeitsmarkt der Kern der Erklärung für die sich ändernden Muster der Familienarbeit. Untersuchungen haben gezeigt, dass Familienarbeitszeitregelungen nicht nur die Arbeitszeitmuster von Familien identifizieren, sondern auch das Ausmaß, in dem staatliche Maßnahmen Frauen dazu ermutigen oder hemmen, eine Beschäftigung aufzunehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-76463-4_2 27b49cbdb7056ee969e3faac0d320633;de;;;4.2.;;;Angemessenes Engagement der digitalen Bürger bei der Bereitstellung von ressourcenbeschränkten kommunalen Behördendiensten: Eine Fallstudie in Südafrika Südafrika wird derzeit von zerstörerischen Bürgerprotesten geplagt, die mit mangelnder Leistungserbringung und sich verschlechternden lokalen Verwaltungsabläufen verbunden sind. Digital Citizen Engagement (DCE) wurde unter diesen Umständen weltweit als Game Changer beworben, da es als wesentlich für die Erleichterung einer wechselseitigen Kommunikation und eines evidenzbasierten Engagements zwischen Regierung und Bürgern angesehen wird. Programme in Kommunen mit eingeschränkten Ressourcen haben jedoch Schwierigkeiten, IKT mit bestehenden Diensten zur Erbringung von Dienstleistungen abzustimmen und zu integrieren. Das Papier schlägt einen Rahmen vor, um die Aneignung von DCE in der Kommunalverwaltung in Südafrika zu unterstützen. Die adaptive Strukturierungstheorie wird angewendet, um die Studie mit einem pragmatischen qualitativen Ansatz zu kontextualisieren. Die Ergebnisse veranschaulichen einen notwendigen ganzheitlichen Prozess und leiten daraus ab, dass die Aneignung von DCE in einer lokalen Kommune ein schrittweiser Prozess komplexen Lernens ist, der von der Stärke des zivilgesellschaftlichen Kontexts, der Wirksamkeit der Ermöglicher sozialer Verantwortung und unweigerlich politischer Veränderungen abhängt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-52014-4_10 d28b97bb021dbc44b1848729ac6da83c;de;;;5.2.;;;"Fazit: Von Angesicht zu Angesicht oder Schulter an Schulter? Seit den frühen 1990er Jahren sind Regierungen und viele Bürger zunehmend beunruhigt über die Zahl der Flüchtlinge aus den ärmeren Ländern der Welt und über das sich verändernde Gesicht der Flüchtlinge, das das traditionelle Bild vom ""Flüchtling"" als einem europäischen Subjekt, das auf der Flucht vor religiöser oder politischer Verfolgung. Der Verdacht des Staates, dass das Recht auf Schutz, das Flüchtlingen in der Vergangenheit gewährt wurde, von Wirtschaftsmigranten missbraucht wurde, veranlasste viele westliche Regierungen, feindliche und zunehmend ausgrenzende Gesetze anzuwenden, um zu versuchen, ihre Grenzen zu erhalten und Störungen auf politischer, sozialer und wirtschaftlicher Ebene zu minimieren. Diese Situation wurde durch eine geopolitische Situation verschärft, in der sich die Sorge um Ausbeutung mit der Angst vor Terrorismus als Teil eines komplexen Bildes vermischt hat, das die Integrität der sogenannten ""heiligen Dreifaltigkeit von Nation, Territorium und Staatsbürgerschaft"" in Frage stellt (Stoianova, 2007: 22). Nichts davon hat ruhig oder maßvoll stattgefunden, und die rasche Ausweitung des Umfangs und der Härte der Reaktionen der Regierungen auf die Situation hat ein Gefühl der Krise geschaffen, das im Interesse dieser Regierungen liegt, wenn es nur darum geht, dass sie es können dann gesehen werden, um es zu verwalten.";-;-;-;https://link.springer.com/chapter/10.1057/9780230354821_6 55810f08c2916c1ded2fa8309cb74448;de;;;5.2.;;;Ultraschall bei der interstitiellen Lungenfibrose. Kann es eine optimale Routinediagnostik bei rheumatischen Erkrankungen ermöglichen? Ultraschall (US) steigert sein Potenzial bei der Beurteilung mehrerer rheumatischer Erkrankungen. In letzter Zeit sind verschiedene Anwendungen dieser Bildgebungstechnik aufgetaucht. Es wurden interessante Daten berichtet, die ihre Nützlichkeit und Validität bei der Beurteilung der Lunge zum Nachweis und zur Quantifizierung der interstitiellen Lungenfibrose bei rheumatischen Erkrankungen, sogar in subklinischen Phasen, belegen. Der Hauptzweck dieser Übersichtsarbeit besteht darin, einen Überblick über die Rolle des US bei der Beurteilung der interstitiellen Lungenfibrose bei rheumatischen Erkrankungen zu geben und die aktuelle Evidenz für seine klinische Relevanz in der täglichen klinischen Praxis zu diskutieren.;-;-;-;https://link.springer.com/article/10.1007/s10067-016-3329-3 110259b05f4609e2483ead58becb59e9;de;;;5.2.;;;Bindung von Sequenzen aus den 5′- und 3′-nicht transkribierten Spacern des rDNA-Locus der Ratte an die nukleoläre Matrix Nukleoläre Matrixstrukturen wurden unter verschiedenen Extraktionsbedingungen aus hochgereinigten isolierten Nukleolen erhalten. Ihr ultrastrukturelles Aussehen, ihre Proteinzusammensetzung und ihre Fähigkeit, bevorzugt rDNA zu binden, wurden in einem Modellbindungssystem untersucht. Eine etwa 25 kb umfassende Region im ribosomalen Genlocus der Ratte wurde auf DNA-Stellen gescreent, die in der Lage sind, spezifisch mit den Proteinen der nukleolären Matrix (MARs) zu interagieren. Zwei solcher Stellen wurden identifiziert: eine befindet sich auf einem EcoRV-KpnI-Fragment in der 5'-nicht transkribierten Spacer-Region, zwischen zwei repetitiven Elementen und nahe der Transkriptionsinitiationsstelle, die andere MAR befindet sich auf einem PvuII-BamHI-Fragment, das sich in der 3' -nicht transkribierte Region, umfassend ein Element, das zu 85% homolog zu einer B2-Sequenz ist. Die beiden MARs befinden sich in Regionen, die reich an Polypyrimidin/Polypurin-Spuren sind und enthalten einige Elemente, die zur Konsensussequenz für Topoisomerase II homolog sind. Dies weist darauf hin, dass die „Anheftungsstellen“ für die ribosomalen Gene zur gleichen Klasse von Sequenzen gehören wie die MARs, die die chromosomale DNA an die Kernmatrix anheften.;-;-;-;https://link.springer.com/article/10.1007/BF00352403 a7e32ecc692ec2f5ed3e41a1ab18a063;de;;;5.2.;;;Subalgebren der Algebra einer konformen Gruppe mit nichttrivialem Zentrum In der Menge der Teilalgebren wird eine Ähnlichkeitsbeziehung mit einem nichttrivialen Zentrum einer konformen Gruppenalgebra aufgestellt, die sie in Klassen von einander ähnlichen Teilalgebren aufteilt. Insgesamt werden 24 verschiedene Klassen ähnlicher Unteralgebren erhalten und in jeder Klasse wird ein Vertreter beschrieben. Alle nichtäquivalenten zweidimensionalen kommutativen Teilalgebren einer konformen Gruppenalgebra werden als Beispiel für die Anwendung eines solchen Teilalgebrasystems erhalten. Die Ergebnisse der Forschung können verwendet werden, um die Lösungen von konform invarianten Gleichungen in den separierten Variablen zu erhalten.;-;-;-;https://link.springer.com/article/10.1007/BF00896080 3c442bfa1e93abd4a1abc17769eb3f43;de;;;5.2.;;;Theoretische Vergleiche von Suchstrategien in Branch-and-Bound-Algorithmen Vier bekannte Suchstrategien, die in Branch-and-Bound-Algorithmen verwendet werden – heuristische Suche, Tiefensuche, Suche mit bester Bindung und Breitensuche – werden theoretisch vom Standpunkt der Leistung der resultierenden Algorithmen verglichen. Die heuristische Suche umfasst die anderen drei als Sonderfälle. Da die heuristische Suche durch eine heuristische Funktion bestimmt wird;-;-;-;https://link.springer.com/article/10.1007/BF00998631 5fd0dd99bf1ffb11b14712611cb3b17d;de;;;4.2.;;;Sie können den Blick in den Spiegel nicht ertragen? Vermeidung von Selbstbewusstsein bei der Borderline-Persönlichkeitsstörung Patienten mit Borderline-Persönlichkeitsstörung (BPS) erwarten und nehmen soziale Ablehnung stärker wahr als gesunde Menschen. Die Verlagerung der Aufmerksamkeit von sich selbst auf andere wurde als Mechanismus vorgeschlagen, um mit der Erfahrung sozialer Ablehnung umzugehen. Hier haben wir untersucht, ob BPS-Teilnehmer eine erhöhte Selbstwahrnehmung vermeiden und ob dies absichtlich geschieht.;-;-;-;https://link.springer.com/article/10.1186/s40479-015-0034-9 91c806c354920dc826f2719950dec622;de;;;4.2.;;;Ölkatastrophen, Kontamination und widerspenstige Beziehungen zu indigenen Völkern im peruanischen Amazonasgebiet In diesem Kapitel werden widerspenstige Maßnahmen im Falle einer Ölkatastrophe an Land im Amazonasgebiet untersucht. „Widerspenstiges Engagement“ bezieht sich hier auf die Strategien der Ölgesellschaft, auf unregelmäßige Weise mit Wissen, Informationen, Beteiligung, Ressourcen und Beziehungen umzugehen, um die Auswirkungen der Kontamination zu bewältigen und von ihrer sozialen und ökologischen Verantwortung losgelöst zu bleiben. Derzeit stärken diese Strategien im peruanischen Amazonasgebiet eine Form der Förderung, die es dem Ölkonzern ermöglicht, relativ ungestört von der Kritik öffentlicher Stellen und der Zivilgesellschaft und deren Forderungen nach Abhilfemaßnahmen zu agieren.;-;-;-;https://link.springer.com/chapter/10.1057/9781137073723_9 6ed128f68ff51e8bddb38dce7e3d688f;de;;;4.2.;;;Inhalt Empfehlungsmethode mit Analyse sozialer Netzwerke Mit dem in letzter Zeit enormen Anstieg des Volumens von Web 3.0-Inhalten haben sich Inhaltsempfehlungssysteme (Content Recommendation Systems, CRS) zu einem wichtigen Aspekt von sozialen Netzwerkdiensten und Computern entwickelt. Daher wurden mehrere Studien durchgeführt, um Content-Empfehlungsmethoden (CRM) für CRS zu untersuchen. Herkömmliche CRMs sind jedoch insofern eingeschränkt, als sie in der Web 3.0-Umgebung nicht verwendet werden können. In diesem Papier schlagen wir einen neuartigen Weg vor, um qualitativ hochwertige Webinhalte zu empfehlen, indem wir den Grad der Zentralität und die Term Frequency-Inverse Document Frequency (TF-IDF) verwenden. In der vorgeschlagenen Methode analysieren wir die TF-IDF und den Grad der Zentralität der gesammelten RDF-Site-Zusammenfassung und der Freundesdaten und generieren dann Inhaltsempfehlungen basierend auf diesen beiden analysierten Werten. Die Ergebnisse der Implementierung des vorgeschlagenen Systems zeigen, dass es angemessenere und zuverlässigere Inhalte bietet als herkömmliche CRS. Das vorgeschlagene System spiegelt auch die Bedeutung der Rolle der Ersteller von Inhalten wider.;-;-;-;https://link.springer.com/article/10.1007/s11277-013-1264-z 41ff3fcbc1b3e4376d55437bd51b185c;de;;;4.2.;;;Das Geschäftsmodell von Maker Space – Eine Fallstudie über Taiwan-Erfahrung Seit der Wortmacher in Taiwan eingeführt wurde, hat er eine große Welle von Bildung und Aktivitäten ausgelöst. Das Maker-Uhrwerk wurde in Taiwan schnell eingeführt. Sowohl staatliche Einheiten als auch der Privatsektor bauen Maker Space auf und beziehen sich auch auf ausländische Maker. Platzieren Sie alle Tools, Designkurse und die Ausbildung zum Werbemacher. Diese Studie ist eine Studie über den Betrieb jedes der Gründungszentren. Nach den Wellen der Maker-Bewegung diskutieren die beiden Zentren des Maker Centers, das weiterhin betrieben werden kann, die betrieblichen Schwierigkeiten und Geschäftsmodelle und forschen über die neun Aspekte des Geschäftsmodells und versuchen, die wichtigsten Wege zu analysieren, in denen es arbeitet, um Empfehlungen auszusprechen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6113-9_64 c7c32287e3894959733be610620a8d0e;de;;;5.2.;;;Vertragsverletzungsverfahren gegen einen säumigen Mitgliedstaat Die Verpflichtungen der Mitgliedstaaten sind in erster Linie in den Verträgen, im Beitrittsvertrag und in den verschiedenen verbindlichen Gemeinschaftsrechtsakten gleich welcher Art verankert. In diesem Zusammenhang ist ausdrücklich auf Artikel 171 EWG-Vertrag zu verweisen, der die Mitgliedstaaten verpflichtet, das Urteil des Gerichtshofs zur Feststellung einer Zuwiderhandlung umzusetzen. Darüber hinaus sind Verpflichtungen der Mitgliedstaaten aufgrund von Verträgen der Gemeinschaft mit Drittstaaten;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-9019-0_6 d8b2d4d90a6308c69645bfc7d073e2d8;de;;;4.2.;;;Postmigrationserfahrungen weiblicher Neuankömmlinge: Selbstwertgefühl und Identitätsentwicklung Diese Studie untersuchte die postmigrationsbedingten Erfahrungen weiblicher Neuankömmlinge, die eine Sekundarschule besuchen, in einem multikulturellen Kontext. In Toronto, Kanada, wurden Fokusgruppen mit 10 weiblichen Neuankömmlingen abgehalten. Die Daten wurden auch durch Fokusgruppen oder eingehende Interviews mit Schulpädagogen, Eltern und Mitarbeitern von Schul- und Gemeindegesundheitszentren gesammelt. Darüber hinaus wurde das Instrument Current Self-Esteem (CSE) verwendet, um das globale Selbstwertgefühl von Jugendlichen und die Einflüsse auf ihr Selbstwertgefühl zu untersuchen. Das Durchschnittsalter der jugendlichen Teilnehmer betrug 17 Jahre und ihr Durchschnittsalter der Einwanderung nach Kanada betrug 13,9 Jahre. Die durchschnittliche Punktzahl für den CSE lag bei 7,9, was darauf hindeutet, dass sich die Befragten im Allgemeinen gut fühlen. Zu den Einflüssen auf das Selbstwertgefühl der Jugendlichen gehörten solche im Zusammenhang mit Selbst, Schule, Beziehungen, Leistungen und Lebensstil. Die sich aus den qualitativen Daten ergebenden Unterthemen des Selbstkonzept-Themas bestanden aus Dynamischem Selbst, Schweigendem Selbst, Kultureller Identität, Weiblichen Rollenmodellen, Zukunftswünschen. Die Auswirkungen des Umsiedlungsprozesses auf das Selbstwertgefühl und die Identität neu ankommender Frauen werden berücksichtigt. Es wird der Schluss gezogen, dass in multikulturellen und postmigrationsbedingten Gesellschaften multisektorale und kontextspezifische Strategien und Politiken zur Förderung der psychischen Gesundheit für Jugendliche erforderlich sind.;-;-;-;https://link.springer.com/article/10.1007/s10903-006-6341-x 33ede4f4963e753d955b80da2044f1f5;de;;;4.2.;;;RoboWaiter-Wettbewerb: Verknüpfung von Robotik-Ausbildung mit sozialer Verantwortung Dieser Artikel berichtet über RoboWaiter, den ersten Wettbewerb in assistiver Robotik, der unter aktiver Beteiligung von Menschen mit Behinderungen organisiert und durchgeführt wird. RoboWaiter wurde 2009 und 2010 in Verbindung mit dem Trinity College Firefighting Home Robot Contest angeboten. Mitglieder der Trägerorganisation, des Connecticut Council on Developmental Disabilities, arbeiteten eng mit Trinity zusammen, um das Thema und die Regeln des Wettbewerbs zu formulieren. RoboWaiter bietet den Teilnehmern eine einzigartige Herausforderung multidisziplinärer Designprojekte, die im Wettbewerb in Connecticut gipfeln. Die Hauptziele von RoboWaiter bestehen darin, das Bewusstsein für die Bedürfnisse von Menschen mit Behinderungen zu fördern und eine Herausforderung für das Ingenieurdesign für alle Ebenen von der Mittelschule bis zum Doktor zu bieten. Studenten und Ingenieure. Der Wettbewerb sollte auch Studenten ermutigen, die sozialen Dimensionen des Ingenieurberufs zu berücksichtigen. In diesem Papier beschreiben wir die RoboWaiter-Regeln und die daraus resultierenden technischen Herausforderungen, geben eine Einschätzung des bisherigen Fortschritts und berücksichtigen zukünftige Richtungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15810-0_35 d5404f5d7a5f8708e28b4a3884cb237c;de;;;4.2.;;;Durch technologische Mediation gesteigerte Kreativität in explorativen mathematischen Kontexten Kreativität ist grundlegend für die nachhaltige Entwicklung von Gesellschaften. Es fehlt jedoch ein Schulmodell, das dies fördert. In der Mathematik sind explorative, offene und herausfordernde Aufgaben erforderlich, die auf der effektiven Lösung von und gut orientierten Konfrontations- und Diskussionsmomenten basieren, um diese Fähigkeit zu fördern. Die digitale Revolution brachte eine Reihe von technologischen Werkzeugen mit großem Potenzial im Bildungskontext mit sich, insbesondere um kollaborative Arbeitsumgebungen zu gestalten und Kommunikation zu vermitteln. Der Einsatz dieser Tools bleibt jedoch unzureichend.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-61322-2_3 2731ceb3a3beae269b50e39792ea1e93;de;;;4.2.;;;Für eine wörtliche Ethnographie In den letzten Jahren hat das Dokumentartheater – eine Kategorie szenischer Aufführungen, in der die tatsächlichen Worte realer Menschen in ein Drehbuch geschnitten und von Schauspielern auf der Bühne aufgeführt werden – an Popularität gewonnen und eine ständig wachsende Zahl von Schauspielhäusern in ganz Europa und Nordamerika ziert. Obwohl solche Produktionen selten von hauptsächlich wissenschaftlichen oder „anthropologischen“ Anliegen angetrieben werden, dient ihre jüngste Verbreitung als rechtzeitige Erinnerung daran, dass Theater ein mächtiges und beliebtes Medium sein kann, um ethnografisches Material einem öffentlichen Publikum zu präsentieren. Für professionelle Anthropologen mag dies kaum wie eine Neuigkeit erscheinen: Es gibt seit langem ausgezeichnete Handbücher zu den Techniken der „Performance-Ethnographie“, und mehrere Wissenschaftler haben auf der Grundlage ihrer Forschung dokumentarische Stücke in voller Länge entwickelt. Am bemerkenswertesten ist vielleicht E. Patrick Johnsons;-;-;-;https://link.springer.com/chapter/10.1057/9781137350602_14 eabb9a2b51d09f5bb388856e2277d444;de;;;4.2.;;;Der Einfluss von Persönlichkeit, Zielorientierung und Selbstwirksamkeit auf die Teilnahme von Gymnasiallehrern an Lernaktivitäten am Arbeitsplatz Diese Studie untersucht den Einfluss von Persönlichkeitsmerkmalen, Zielorientierung und Selbstwirksamkeit auf die Teilnahme von Gymnasiallehrern an Lernaktivitäten am Arbeitsplatz (d. h. Experimentieren, informelle Interaktion mit Kollegen, Selbstregulierung und Vermeidungsverhalten). An dieser explorativen Studie nahmen 95 Lehrkräfte aus sechs Gymnasien in Flandern (Belgien) teil. Sie füllten einen Fragebogen bestehend aus verschiedenen Instrumenten zur Abbildung ihrer Persönlichkeit (NEO-FFI), Zielorientierung (Adaption Achievement Goal Questionnaire), Selbstwirksamkeit (Teachers' Sense of Efficacy Scale) und Teilnahme an Lernaktivitäten (Adaptionen aus verschiedenen Skalen) aus. . Ergebnisse multivariater Regressionsanalysen weisen darauf hin, dass sich Gewissenhaftigkeit, Extraversion und Offenheit positiv auf die Teilnahme von Lehrkräften an Lernaktivitäten am Arbeitsplatz auswirken. Lernorientierung und Selbstwirksamkeit erweisen sich jedoch als bessere Prädiktoren für die Teilnahme an Experimenten, informeller Interaktion und Selbstregulation. Die Analyse mittels Strukturgleichungsmodellierung zeigt einen indirekten Zusammenhang zwischen Extraversion und Selbstregulation, vermittelt durch Selbstwirksamkeit. Lernorientierung vermittelt den Einfluss von Gewissenhaftigkeit auf die informelle Interaktion. Da die Zielorientierung und Selbstwirksamkeit von Lehrkräften beeinflusst werden können, sollte die Schulpolitik darüber nachdenken, wie die Zielorientierung und Selbstwirksamkeit der Lehrkräfte weiter verbessert werden kann.;-;-;-;https://link.springer.com/article/10.1007/s12186-013-9105-5 bcaa0db6e59b2c28a39470c946c23290;de;;;5.2.;;;Auf Wiedersehen von all dem Der Niedergang des Nationalstaats des Vereinigten Königreichs und der von ihm aufrechterhaltenen nationalen Identität – „Englishness“ – ist die tiefgreifendste Kraft für radikale politische Veränderungen auf den Inseln seit dem Englischen Bürgerkrieg.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-24586-4_7 716df2dfbb90875ace9014fdd964a4ff;de;;;4.2.;;;Regionalisierung als gerechtigkeitsbasierte Unterstützungsstrategie für die Schulverbesserung Derzeit sind in Deutschland verschiedene Maßnahmen der Regionalisierung im Bildungsbereich zu beobachten. Diese können neben den eher zentral organisierten Governance-Reformen als dezentrale und kooperative Reformstrategie in der Post-PISA-Ära verstanden werden. Diesen Maßnahmen werden programmatische Ziele wie die Förderung der Bildungsgerechtigkeit zugeordnet. Im Bundesland Nordrhein-Westfalen sind die kommunalen Bildungsämter ein zentraler Akteur in diesen schulsystembezogenen Regionalisierungsprozessen. Der Beitrag betrachtet theoretisch mögliche gerechtigkeitsbasierte Unterstützungsleistungen, die Regionalisierungsmaßnahmen für das Schulsystem bieten können. Um die Unterstützungsleistungen dieses Akteurs aufzuzeigen und mit Gerechtigkeitserwägungen in Beziehung zu setzen, werden empirische Belege einer Basisbefragung der örtlichen Bildungsämter vorgelegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-38999-8_32 2d8afcecf0fc6b096044a34190f3d7be;de;;;4.2.;;;Der physische Raum im Klassenzimmer als Lernökosystem – Bridging Approaches: Ergebnisse einer Web-Umfrage Der physische Raum des Klassenzimmers umfasst mehrere Dimensionen wie die soziale, kulturelle, architektonische und technologische. Das aktuelle Szenario digital ausgestatteter Klassenzimmer, in dem neue pädagogische Ansätze auf der Grundlage von kollaborativem Lernen, projektbasiertem Lernen und personalisiertem Lernen verwendet werden, erfordert die Notwendigkeit, den physischen Raum des Klassenzimmers zu überdenken. Trotz der Existenz einiger neuer physischer Klassenzimmer, die darauf abzielen, dieser neuen Realität gerecht zu werden, wie das Future Classroom Lab, argumentieren wir, dass es möglicherweise an einer innovativen Innenarchitekturstrategie mangelt, die diese Aspekte umfasst und alle physischen Raumdimensionen des Klassenzimmers erfüllt. Daher zielt dieses Papier darauf ab, die Perspektive der Autoren in Bezug auf den physischen Raum des Klassenzimmers als Lernökosystem darzustellen und die Brücken zwischen verschiedenen Raumansätzen zu schlagen und sie mit dem physischen Raum des Klassenzimmers in Beziehung zu setzen, um eine innovative Innenarchitekturstrategie zu entwickeln Dies wird die Nutzung des physischen Raums im Klassenzimmer in seinen verschiedenen Dimensionen verbessern. Wir präsentieren auch die ersten Ergebnisse einer europäischen Web-Umfrage, die auf die Mitglieder des European Schoolnet Future Classroom-Netzwerks angewendet wurde, um zu verstehen, wie ihre Räume gedacht wurden und wie sie wahrgenommen werden, eine kurze Diskussion der Ergebnisse, die insgesamt positiv sind, wird ebenfalls vorgestellt. Der Beitrag endet mit einigen Hinweisen auf die zukünftige Arbeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-61322-2_5 5370ce7fff627b7c4d6ed6faab630d24;de;;;4.2.;;;Förderung des Wandels in Schulen Der zentrale Zweck dieses Kapitels besteht darin, zu zeigen, dass die Hauptaufgabe des Beraters darin besteht, als Change Agent in der Schule zu fungieren. Mit „Veränderung“ meinen wir die gezielte Änderung von Überzeugungen, Einstellungen und Verhaltensweisen von Kindern, Jugendlichen und Erwachsenen, die Teil des schulischen Umfelds sind. Angesichts unserer in Kapitel 1 vorgestellten Definition von Beratung handelt der Psychologe direkt und von Angesicht zu Angesicht, um die Überzeugungen, Einstellungen oder Verhaltensweisen der Erwachsenen, die beraten werden, zu ändern. Die Beraterinnen und Berater wiederum arbeiten mit den Studierenden zusammen und greifen direkt in unterrichtsbezogene Probleme ein. Um als effektiver Change Agent zu fungieren, muss der Berater Fragen der sozialen Macht und des zwischenmenschlichen Einflusses verstehen und wissen, wie sich beide auf die Beziehung Berater/Berater beziehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-0078-4_2 84e35e8b30e0b126cf3ad065bd6820fc;de;;;4.2.;;;Menschen und soziale Interaktion: Treiber der Serviceinnovation Der Aufbau eines Verständnisses von Serviceinnovation und deren Förderung ist nach wie vor ein wichtiges Thema für Wissenschaftler und Praktiker gleichermaßen. In diesem Kapitel wird die Serviceinnovation aus der Sicht des Serviceteams untersucht. Wir stellen einen Forschungsrahmen vor, der digitale Spurendaten aus der Interaktion von Serviceteams und Aktivitätssystemanalysen verwendet. Ein beispielhaftes Forschungsszenario veranschaulicht die Anwendung des Forschungsrahmens unter Verwendung von E-Mail, Besprechungsprotokollen und Systemanwendungsprotokollen, um auf eine breitere und Echtzeitperspektive der Teaminteraktion zur Identifizierung von Innovationen hinzuarbeiten. Wir weisen darauf hin, dass Veränderungen im Auf und Ab der Serviceteam-Aktivitäten und das Auftreten einzigartiger Signale ein Ausgangspunkt sein können. Die Herausforderung besteht darin, zu bestimmen, welche Metriken in den Analysen für Innovation repräsentativ sind und wie die aggregierte Ansicht automatisiert werden kann, um einen Zeitplan für Aktivitäten zu erstellen, der das Aufkommen und die Auswirkungen von Innovationen identifiziert. Zukünftige Forschungsmöglichkeiten umfassen automatisierte Aktivitätssystemanalysen, die Entwicklung und Validierung von Metriken zur Messung von Serviceinnovationen und die Einbeziehung einer wirtschaftlichen Perspektive.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98512-1_14 ca4ce2799708bf926b3828dda24080fd;de;;;4.2.;;;Perspektiven der Armut in Europa. In die Fußstapfen von Tony Atkinson treten Ich spreche vier Themen an: wie sich unsere Kapazitäten zur Überwachung der Armut in Europa in den letzten Jahrzehnten erheblich verbessert haben, wie enttäuschend die Fortschritte bei der Armutsbekämpfung in der EU waren und warum dies der Fall war, konzeptionelle und messbare Fragen sowie die künftige Ausrichtung der Anti- Armutsaktionen. Ich trete in die Fußstapfen eines Giganten – meine Perspektiven sind im Wesentlichen Ausarbeitungen von Punkten von Tony Atkinson.;-;-;-;https://link.springer.com/article/10.1007/s40797-019-00112-0 035113df29457abc1b311cb2e6b974c9;de;;;4.2.;;;Kirche, Nation und Staat: Die serbisch-orthodoxe Kirche nach dem KommunismusCommuni Mein Kapitel konzentriert sich auf die Rolle der Serbisch-Orthodoxen Kirche in der serbischen Politik seit 1989, insbesondere aber seit 2000, mit dem Ende der autoritären Herrschaft von Slobodan Milošević. Dieses Kapitel konzentriert sich auf vier Hauptdimensionen, die den Einfluss der serbischen Kirche in dieser Zeit erfassen – Nationalismus, Konservatismus, Homophobie und religiöse Intoleranz –, dieses Kapitel widmet zwei wichtigsten sozialen und politischen Bruchlinien in Serbien nach 2000 und der zentralen Rolle der Kirche besondere Aufmerksamkeit in ihnen: der Status seiner LGBTQ-Gemeinschaft und der anhaltende Streit um die Abspaltung des Kosovo. Das Kapitel kommt zu dem Schluss, dass der SOC weiterhin als politische Kraft in der serbischen Gesellschaft dient – ​​eine grundlegende Quelle der serbischen nationalen Identität und eine Organisation, die tief in die zeitgenössische serbische Politik eingetaucht ist. Es ist eine Kirche, die zutiefst konservativ ist, gegen Veränderungen ist und in erster Linie daran interessiert ist, ihren Status und ihre Privilegien in der serbischen Gesellschaft zu bewahren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-24139-1_5 9815c42d01eb6bf68f1dbb0d0f28ec53;de;;;4.2.;;;Vorteile organisierter Netzwerke Was sind organisierte Netzwerke, wie funktionieren sie und inwiefern können sie nützlich sein? Um die Hauptvorteile organisierter Netzwerke zu verstehen, ist es hilfreich, sich mit der zugrunde liegenden Theorie und ihrer Entwicklung vertraut zu machen. Insgesamt werden acht verschiedene Theorien und Konzepte betrachtet. Es wird argumentiert, dass organisierte Netzwerke es Fachleuten ermöglichen, neue Ideen zu bekommen, die Welt kleiner zu machen, verschiedene Kulturen besser zu verstehen und Zugang zu Einkaufszentren zu bieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-17858-5_2 6ee15a08c6bf0ff1c6eff1b5854ab5ce;de;;;4.2.;;;Abschreckung von SLCAs durch Einrichtung von ACSC auf der Grundlage von Internet-Friedensprinzipien Derzeit nehmen die von verschiedenen Staaten direkt und indirekt unterstützten State-Led CyberAttacks (SLCAs) kontinuierlich zu und der Schaden ist erheblich. Ereignisse wie der WannaCry-Vorfall und das Hacken von indischen Nuklearanlagen können verheerende und tödliche Folgen haben. Die Technologie zur Abschreckung gegen Cyberangriffe ist jedoch nach wie vor unzureichend, und auch die Zusammenarbeit zwischen den Ländern ist unzureichend. Die Verhinderung von SLCAs erfordert nicht nur technische Methoden, sondern auch rechtliche und politische Lösungen. Angesichts der Tatsache, dass sich insbesondere asiatische Länder im Zuge der Ära der vierten industriellen Revolution in den frühen Stadien der IKT-Anwendungen in der Fertigungsindustrie befinden, sind die asiatischen Industrien insgesamt und die digitale Wirtschaft der Möglichkeit ausgeklügelter Cyberangriffe und der Ausnutzung schwacher Cybersicherheitsrahmen ausgesetzt. Die Studie schlägt vor, dass asiatische Länder die sogenannte Asia Cybersecurity Convention (ACSC) einrichten, um SLCAs abzuschrecken, die aus Regierungsvertretern und privaten technischen, juristischen, institutionellen Experten und Organisationen bestehen. Die Studie schlägt auch die Internet Peace Principles (IPPs) als Cybersicherheitsnorm für das ACSC vor, nach der Cyberfähigkeiten nicht für Angriffe auf andere Länder oder als Mittel für böswillige Umwegangriffe verwendet werden sollten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6385-4_8 443a2270134434f761bf0e0417897843;de;;;5.2.;;;Sensemaking nach Überraschung im Cockpit – ein Re-Framing-Problem Re-Framing ist der Prozess, bei dem eine Person die Lücke zwischen dem Erwarteten und dem Beobachteten füllt, d. h. versucht, einen Sinn dafür zu finden, was nach einer Überraschung passiert. Es ist ein aktiver und adaptiver Prozess, der von Erwartungen geleitet wird, die auf Wissen und Erfahrung basieren. In diesem Artikel werden Überraschungssituationen im Cockpitbetrieb untersucht, indem der Reframing-Prozess untersucht wird. Die Ergebnisse zeigen, dass Piloten Schwierigkeiten bei der Neuausrichtung nach Überraschung haben, einschließlich der Identifizierung subtiler Hinweise und des Managements von Unsicherheiten in Bezug auf automatisierte Systeme, der Bewältigung mehrerer Ziele, Aufgaben und enger Zeitrahmen und der Identifizierung einer geeigneten Aktion. Es wird ein Sensemaking-Modell zwischen Besatzung und Flugzeug vorgestellt, das die Kernkonzepte von Reframing-Prozessen und Sensemaking-Aktivitäten skizziert. Auf der Grundlage der Ergebnisse werden drei kritische Bereiche identifiziert, die weitere Aufmerksamkeit verdienen, um die Fähigkeiten des Piloten zu verbessern, um mit unerwarteten Ereignissen fertig zu werden: (1) Identifizierung dessen, was das Re-Framing ermöglicht und behindert, (2) Training zum Aufbau von Frames und Entwicklung von Strategien zum Re-Framing und (3) Kontrollstrategien als Teil des Re-Frame-Prozesses.;-;-;-;https://link.springer.com/article/10.1007/s10111-016-0390-2 faf5dde2eb0dc614fcee8e55dfe0a7a9;de;;;4.2.;;;Eine Fallstudie zur C-STEAM-Bildung: Untersuchung der Auswirkungen von STEAM-Kompetenz und kultureller Vererbungskompetenz von Schülern C-STEAM ist eine lokalisierte transdisziplinäre Ausbildung im chinesischen Kontext mit dem Ziel, die traditionelle Kultur zu erben und die STEAM-Kompetenz der Schüler zu fördern. Es hat hauptsächlich drei Kernwerte: den pädagogischen Wert der Kultivierung der Kernkompetenz der Schüler, den Trägerwert des Erbes einer herausragenden traditionellen Kultur und den sozialen Wert der boomenden regionalen Kultur. Um zu sehen, wie ein C-STEAM-Projekt funktioniert und sich auswirkt, haben wir das „6C“ Instructional Design Model übernommen, das ein operativer Schritt ist, der kontextuelle Erfahrung, Konnotationskonstruktion, charakteristische Untersuchung, Artefakt erstellen, Verbindung mit der Gesellschaft und Schlussfolgerungsreflexion umfasst. In einer 6-wöchigen Fallstudie zum Unterrichten von kantonesischem Slang in einer Grundschule in Foshan, China, wurden Fragebögen zur Analyse der Lernleistung, der STEAM-Kenntnisse, des kulturellen Verständnisses und der Vererbung der Schüler verwendet und strukturierte Interviews verwendet, um Ansichten und Reflexionen zu Lehrer und Schüler. Die Ergebnisse zeigten, dass die Anwendung des „6C“-Modells das kulturelle Verständnis und die kulturelle Identität und das kulturelle Erbe der Schüler erheblich verbessert hat und dass C-STEAM eine wichtige Rolle als kultureller Träger spielt, einen gewissen sozialen Wert für den Aufbau regional charakteristischer Kultur bietet und ermöglicht die Kernkompetenz der Studierenden zu fördern und die transdisziplinäre Lernfähigkeit der Studierenden zu verbessern. Weitere Forschung ist erforderlich, um das „6C“-Modell zu verbessern, um die Kernwerte von C-STEAM zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4594-2_1 5a943ed441d5253d7b5be261ef7edfde;de;;;4.2.;;;Latino/as und US-Gefängnisse ls Land mit der höchsten Inhaftierungsrate der Welt erhöhen die Vereinigten Staaten die Zahl der Gefängnisinsassen kontinuierlich auf Jahresbasis (Harrison und Beck 2006b). Zum Jahresende 2005 befanden sich insgesamt 2.320.359 Personen in allen US-Bundes- und Staatsgefängnissen, Territorialgefängnissen, örtlichen Gefängnissen, Einwanderungseinrichtungen, Militäreinrichtungen, Gefängnissen unter der Gerichtsbarkeit der amerikanischen Ureinwohner und Jugendeinrichtungen (Harrison und Beck2006b, 1). Einhergehend mit der alarmierenden Zunahme der US-Gefangenenpopulation ist das Problem, dass sich der Drang zur Inhaftierung am stärksten auf Farbgemeinschaften, einschließlich Latino/as, auswirkt (Mauer 1999, Human Rights Watch 2002, Sentencing Project 2003, Walker et al. 2004, Morïn 2009 ). Während der Gesamtanteil der erwachsenen Bevölkerung in staatlichen oder bundesstaatlichen Gefängnissen zwischen 1971 und 2001 dramatisch zunahm, verzeichnete Latino/as eine Verzehnfachung der Inhaftierung (Bonczar 2003, 5). Basierend auf Daten des Bureau of Justice Statistics des US-Justizministeriums (Harrison und Beck 2002) weist das Sentencing Project (2003, 1) darauf hin, dass „Hispaniker die am schnellsten wachsende Gruppe sind, die inhaftiert wird“.;-;-;-;https://link.springer.com/chapter/10.1057/9780230101470_2 87a2919b81d3899102e9d215afdbca9f;de;;;4.2.;;;Ein sozialer, ortsbasierter Notdienst, um den Bystander-Effekt zu beseitigen Die Verfügbarkeit kostengünstiger Smartphones mit GPS-Einheiten und die Möglichkeit, Software von Drittanbietern auszuführen, ermöglichte das schnelle Aufkommen einer großen Anzahl von Location Based Services (LBS). Während LBSs hauptsächlich zur Unterstützung von reise- und navigationsbezogenen Anwendungsszenarien entwickelt wurden, möchten wir in diesem Beitrag den Einsatz mobiler Geräte für Personenschutzdienste motivieren. Das Problem, in einer Menschenmenge Hilfe zu bekommen, beschäftigt sich seit mehr als 30 Jahren in der sozialpsychologischen Forschung. Hindernisse im Prozess der sozialen Hilfe wurden im Konzept des Bystander-Effekts zusammengefasst. Dieser Beitrag soll zeigen, wie eine LBS diese Hindernisse überwinden kann, indem sie die soziale Gruppe eines Opfers aktiviert. Wir besprechen Funktionen eines Notfallalarmdienstes, der nahegelegene Kontaktpersonen eines Opfers über den Vorfall benachrichtigt und sie zu dem Opfer führt, damit sie Hilfe leisten können. Darüber hinaus werden verschiedene Möglichkeiten diskutiert, einen Notrufdienst als Industrieprodukt zu entwickeln, der aus unterschiedlichen Datenquellen auf die soziale Nähe von Dienstteilnehmern schließen kann. Außerdem werden wir Ansätze für das Systemdesign diskutieren und vergleichen, die wir bei der Implementierung eines Prototyps berücksichtigt haben. Eine Machbarkeitsbewertung zeigt, dass dieser Dienst in der Praxis tatsächlich Vorteile bringt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25206-8_7 04ec14401c69d4509830e2044827d595;de;;;5.2.;;;Ein neuer effizienter Planer für optimale Pfade für mobile Roboter basierend auf dem Algorithmus zur invasiven Weed-Optimierung Die Planung der kürzesten/optimalen Route ist für den effizienten Betrieb eines autonomen mobilen Roboters oder Fahrzeugs unerlässlich. In diesem Beitrag wurde Invasive Weed Optimization (IWO), ein neuer meta-heuristischer Algorithmus, zur Lösung des Bahnplanungsproblems mobiler Roboter in teilweise oder völlig unbekannten Umgebungen implementiert. Diese metaheuristische Optimierung basiert auf der Besiedelungseigenschaft von Unkräutern. Zuerst haben wir eine Zielfunktion formuliert, die die Bedingungen der Hindernisvermeidung und des Zielsuchverhaltens von Robotern in teilweise oder vollständig unbekannten Umgebungen erfüllt. Abhängig vom Wert der objektiven Funktion jedes Unkrauts in der Kolonie vermeidet der Roboter Hindernisse und fährt zum Ziel. Mit diesem Navigationsalgorithmus wird die optimale Flugbahn generiert, wenn der Roboter sein Ziel erreicht. Die Wirksamkeit, Durchführbarkeit und Robustheit des vorgeschlagenen Algorithmus wurde durch eine Reihe von Simulations- und experimentellen Ergebnissen demonstriert. Schließlich hat sich herausgestellt, dass der entwickelte Pfadplanungsalgorithmus effektiv auf jede Art komplexer Situation angewendet werden kann.;-;-;-;https://link.springer.com/article/10.1007/s11465-014-0304-z 8dc1885abc8e49e78732ad6a09babc1f;de;;;4.2.;;;Out of the Lab: Gestaltung einer ökologischen und konstruktiven Kultursystemwissenschaft Zeitgenössische Gesellschaften stehen vor kritischen, ineinandergreifenden, „bösartigen“ Herausforderungen, einschließlich wirtschaftlicher Ungleichheit und Marginalisierung, persönlicher und kollektiver Gewalt, ethnischer und religiöser Konflikte, Verschlechterung des „Allmenden“, Klimawandel und mehr, und all diese Probleme sind eindeutig begründet in Verhalten. Eine angemessene Kultur-Verhaltenswissenschaft könnte in der Lage sein, Forschung und Interventionen, die das Wohlergehen der Gemeinschaft unterstützen, voranzubringen und zu nutzen und zur Bewältigung dringender gesellschaftlicher und globaler Herausforderungen beizutragen. Der gegenwärtige Stand der Kultursystemwissenschaften ist jedoch durch Theorie und Methodik sowie durch den Wettbewerb um Aufmerksamkeit mit etablierten Forschungs- und Praxismöglichkeiten in Bezug auf individuelle Herausforderungen begrenzt. In diesem Artikel untersucht der Autor diese Einschränkungen und schlägt eine umfassendere Perspektive vor, die sich auf historische und zeitgenössische ökologische Wissenschaften und zeitgenössische Theorien komplexer Systeme stützt. Von etablierter Wissenschaft geleitete Forschung innerhalb dieser Disziplinen bietet Möglichkeiten, die Kultursystemwissenschaft aus dem Labor heraus und in eine angemessenere, umweltgerechtere Haltung zu bringen, die sich auf ökologische Strategien stützt und kontextuelle Beobachtungen, konzeptionelle Fortschritte und In-vivo-Experimente rekursiv integriert. Beispiele für jede dieser Strategien und die Erforschung von Entwicklungsprogrammen der Forschung, die auf einer solchen Integration basieren, werden untersucht.;-;-;-;https://link.springer.com/article/10.1007/s40614-019-00208-z 5b46a8fb04909f123c2a576b43a2b848;de;;;4.2.;;;Social Engineering durch Social Media: Eine Untersuchung zur Unternehmenssicherheit Social Engineering greift das schwächste Sicherheitsglied der Organisation an – den Menschen. Der Zustrom von Mitarbeitern, die soziale Medien im gesamten Arbeitsumfeld nutzen, hat Informationssicherheitsexperten vor eine Vielzahl von Herausforderungen gestellt, denen sich Menschen, Prozesse und Technologien gegenübersehen. Diese Herausforderungen zeigen auch enorme Auswirkungen auf die Vertraulichkeit, Integrität und Verfügbarkeit von Informationsressourcen innerhalb des Unternehmens. Dieses Papier soll einen detaillierten Einblick in die Klassifizierung und Abschwächung von Sicherheitsproblemen durch Social Engineering geben, mit denen Unternehmen bei der Einführung sozialer Medien für die geschäftliche Nutzung konfrontiert sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45670-5_23 27090a37c01bd43492fb3ea509c96e21;de;;;4.2.;;;Zur generationenübergreifenden Weitergabe von Präferenzen Neuere wirtschaftswissenschaftliche Beiträge haben sich für eine Wiedereinführung präferenzbasierter Ansätze zum ökonomischen Verhalten ausgesprochen und eine empirische Untersuchung von Präferenzen gefordert, um die in der Disziplin vorherrschende Skepsis gegenüber solchen Erklärungen zu überwinden. Der vorliegende Beitrag trägt zu dieser Diskussion bei, indem er das Ausmaß, die Spezifität und die Formbarkeit der Präferenzübertragung von den Eltern auf ihre Kinder bewertet und damit Belege für die Clusterbildung von Präferenzen entlang der Familienlinien liefert. Anhand von Daten zu acht Aktivitätsoptionen aus der British Household Panel Survey finden wir starke (und positive) Korrelationen zwischen den Präferenzen von Eltern und ihren erwachsenen Kindern. Diese Korrelationen erwiesen sich als robust gegenüber einer Vielzahl von Robustheitsprüfungen, variieren jedoch je nach Aktivität erheblich, was darauf hindeutet, dass Eltern möglicherweise mehr Einfluss auf einige Präferenzen haben als auf andere. Weitere Untersuchungen zeigen auch, dass dieser Einfluss überraschend robust gegenüber einer Vielzahl potenziell intervenierender Faktoren ist.;-;-;-;https://link.springer.com/article/10.1007/s10818-012-9149-x a86d6b6e4146ca03b85f920ad60a36a5;de;;;4.2.;;;Ehre und Gewalt: Beerdigungen im konfessionellen Zeitalter Am zwölften Oktober, in der Nacht gegen ein Uhr, wurde der ehrenwerte, geachtete und gelehrte Lampertus Distelmeier, Kanzler, von Gott dem Allmächtigen aus diesem elenden Tränental barmherzig zu ihm in sein Reich gerufen, und am folgenden sechzehnten Tag dieses Monats wurde christlich und ehrenhaft begraben.;-;-;-;https://link.springer.com/chapter/10.1057/9780230286375_5 f36dadea379756a1ec1174c079edd902;de;;;5.2.;;;Epilog: Es ist noch Zeit zu sterben Die ZEIT vergeht und ich gehe zurück in die Schlacht. Mein Leben, mehr als das von jedem anderen, den ich kenne, habe ich auf einsamen Wanderungen durch die öden Kriegswüsten verbracht. Es ist nicht so, dass ich so viel vom Krieg in so intensiver Form gekannt hätte wie Hunderttausende andere, denn ich habe es nicht. Es ist so, dass ich, nachdem ich vor zehn Jahren als mittelloser Vagabund an den Küsten Chinas gelandet war, mitten in den Krieg einer fremden Nation gestürzt wurde, mit geschlagenen und besiegten Soldaten über den Kontinent taumelte und mit ihnen für sie lebte, aber nie, nie ein einziges Mal, von ihnen zu sein. Es ist, dass man sich von China nach Burma wagt und von diesem Land durch den Dschungel nach Indien vertrieben wird und dann mit einem Sieg durch die afrikanische Wüste nach Europa marschiert – es ist das mit diesen Armeen, nie eine Waffe zu tragen, nie das Gemeinsame zu kennen Zweck des Mordes, immer abseits von den Ambitionen und Pflichten meiner eigenen amerikanischen Soldaten - deshalb sage ich, dass ich ein Leben in Einsamkeit inmitten des Krieges verbracht habe. Was ich über den Krieg gewusst und gelernt habe, kann daher nicht das sein, was der Soldat lernt und weiß, so sehr ich mich auch anstrenge. Ich schlage jedoch vor, nicht alles zu beschreiben, was ich über den Krieg gelernt habe, sondern das, was mir in den wenigen kurzen Stunden, die mir bleiben, auf den Fersen der Erinnerung in den Sinn kommt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-6228-9_17 7a79ef268cd9ec11caf4872aaaabed24;de;;;5.2.;;;Lernende Agenten in automatisierten Verhandlungen In bilateralen Multi-Themen-Verhandlungen mit zweiseitiger Informationsunsicherheit müssen egoistische Agenten, die an einer verteilten Suche nach dem Lösungsraum teilnehmen, die Präferenzen des Gegners aus den laufenden Verhandlungsinteraktionen lernen und dieses Wissen nutzen, um zukünftige Vorschläge zu konstruieren, um zu hoffen, zu effizienten Ergebnissen kommen. Außerdem müssen Verhandlungsunterstützungssysteme vorhanden sein, die strategische Falschdarstellungen von Informationen verhindern, um den Protagonisten zu helfen, wirklich effiziente Lösungen zu finden. Zu diesem Zweck schlägt diese Arbeit ein automatisiertes Verhandlungsverfahren vor, das unter Wahrung des Informationsgeheimnisses der teilnehmenden Agenten eine wahrheitsgetreue Offenlegung von Informationen durch aufeinander folgende Vorschläge fördert. Weiterhin stellen wir einen Algorithmus zur Vorschlagserstellung für zwei kontinuierliche Fragestellungen vor. Wenn beide Verhandlungsagenten den Algorithmus implementieren, soll die Verhandlungsspur auf die Pareto-Grenze beschränkt werden. Der Pareto-optimale Deal in der Nähe der Nash-Lösung soll immer dann lokalisiert werden, wenn ein solcher Deal existiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00405-6_31 f6b176928ac02565e0b61a405369c6b6;de;;;5.2.;;;Untersuchung der generations- und geschlechtsspezifischen Unterschiede in der Social Media-Nutzung: Eine kulturübergreifende Studie in Deutschland, Polen und Südafrika In der Social-Media-Forschung gibt es eine anhaltende Debatte darüber, ob und inwieweit kulturelle und geografische Unterschiede die Interaktion mit Social Media beeinflussen. Da noch kein Konsens erreicht wurde, wenden wir ein umfangreiches Statistikmodell an, das auf einem einzigartigen und großen Datensatz deutscher, polnischer und südafrikanischer Social-Media-Nutzer basiert. Wir wollen folgende Fragen beantworten: Wie nutzen verschiedene Generationen Social Media? Gibt es geschlechtsspezifische Unterschiede? Wie unterscheiden sich diese Unterschiede zwischen drei verschiedenen Ländern?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-91485-5_14 bf2abae6300a89dbb37775201682ce93;de;;;5.2.;;;Interaktive multiobjektive mathematische Programmierung Der Begriff Zielprogrammierung tauchte erstmals 1961 in einem Text von Charnes und Cooper auf, um sich mit multiobjektiven linearen Programmierproblemen zu befassen, die davon ausgingen, dass der Entscheidungsträger (DM) seine Ziele oder Aspirationsebenen der Zielfunktionen spezifizieren könnte. Nachfolgende Arbeiten zur Zielprogrammierung waren zahlreich, darunter die Texte zur Zielprogrammierung von Ijiri (1965), Lee (1972) und Ignizio (1976, 1982) und Übersichtsarbeiten von Kornbluth (1973), Charnes und Cooper (1977) und Ignizio ( 1983).;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-4035-2_3 3ef4c4f0113e45d666a303ad00c43668;de;;;4.2.;;;Selbstbestimmung seziert Klinische Sozialarbeiter legen großen Wert auf die Selbstbestimmung des Klienten, jedoch ist wenig darüber bekannt, wie der Praktiker das Konzept in der laufenden Praxis anwendet. In einer kleinen explorativen Studie wurden 20 Sozialarbeiter, die zufällig aus Utahs Zulassungsliste ausgewählt wurden, eingehend zu Entscheidungen im Zusammenhang mit der Selbstbestimmung von Klienten befragt. Selbst in einer kleinen, relativ homogenen Population wurden enorme Variationen in der Anwendung des Prinzips festgestellt.;-;-;-;https://link.springer.com/article/10.1007/BF00757922 6b494e5f31a39a8c5d06b7e474825aff;de;;;4.2.;;;Der Lebensstil von Familien durch Fuzzy-C-Means-Clustering Das Ziel dieses Berichts ist die Analyse der Daten aus der von der Universität Bari durchgeführten Umfrage zum Familienlebensstil „A. Moro“ (2012-2013) durch die Konstruktion von Indikatoren für sozioökonomische Not und die Identifizierung von Familienprofilen während der aktuellen Krisenzeit. Der in dieser Arbeit verwendete Ansatz zur Synthese und Messung der Härtebedingungen einer Population basiert auf der sogenannten „Totally Fuzzy and Relative“-Methode, die eine Fuzzy-Sets-Technik verwendet, um ein Maß für die relative Inzidenz in einer Population zu erhalten aus den statistischen Informationen mehrerer Indikatoren [1]. Im nächsten Schritt wurde ein Clustering-Verfahren (Fuzzy c-means) mit dem Ziel betrachtet, verschiedene, a priori nicht definierte Profile zu skizzieren, die jeder Familie mit unterschiedlichen sozioökonomischen Verhaltensweisen zuzuordnen sind [2]. Dieses Clustering-Verfahren ermöglicht im Vergleich zu herkömmlichen Verfahren, dass ein Datensatz nicht nur zu einem Hauptcluster, sondern auch zu zwei oder mehr Clustern mit „fuzzy“-Profilen gehört.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09150-1_10 7cccef7fee6729eaee0a87e3b4df3bf8;de;;;5.2.;;;Komplikationen bei Body-Contouring-Verfahren mit besonderer Berücksichtigung von Patienten mit massiver Gewichtsabnahme: persönliche Beobachtungen Mit der steigenden Rate adipöser Menschen korreliert die Zahl der Patienten, die wieder massiv an Gewicht verlieren. Diese Patienten leiden unter ihrem starken Hautüberschuss und suchen nach einer körpernahen Operation. Die häufigsten plastisch-chirurgischen Eingriffe nach massiver Gewichtsabnahme sind Bauchdeckenstraffungen und Unterkörperstraffungen.;-;-;-;https://link.springer.com/article/10.1007/s10353-012-0185-5 3038f7054ac183800a5770763d2b1625;de;;;4.2.;;;Simulation von rationalem sozialem normativem Vertrauen, prädiktivem Vertrauen und prädiktiver Abhängigkeit zwischen Agenten Ein Programm zur Simulation von rationalem sozialem normativem Vertrauen, prädiktivem Vertrauen und prädiktivem Vertrauen zwischen Agenten wird vorgestellt. Es bietet ein Werkzeug für Sozialwissenschaftler oder eine Vertrauenskomponente für Multi-Agenten-Simulationen/Multi-Agenten-Systeme, die Vertrauen zwischen Agenten beinhalten müssen, um die Entscheidungen über die Vorgehensweise zu leiten. Es basiert auf einer Analyse des rationalen sozialen normativen Vertrauens (RSNTR) (überarbeitete Version von M. Tuomela 2002), die vorgestellt und kurz argumentiert wird. Für Kollektivagenten sollten Glaubensbedingungen für die Kollektivvertretung hinzugefügt werden. Denn die verschiedenen Formen von Treuhandagenten müssen (zumindest) subjektiv rationale Gründe haben zu glauben, dass die Bedingungen des Treuhandkontos erfüllt sind. Eine Liste solcher Gründe (mit unterschiedlicher Gewichtung), z. B. durch empirische Forschung, kann manuell in eine Parameterdatei eingebaut oder von einem aufrufenden Programm in einem festen Format erzeugt werden. Aus dieser Liste von Gründen generiert das Programm zufällig eine Glaubensbasis für die Agenten der künstlichen Gesellschaft. Gründe können miteinander verkettet werden, sodass ein Satz von Gründen mehrere Glaubensbedingungen erfüllt. Das Programm prüft, ob die Bedingungen für das soziale normative Vertrauen/prädiktive „Vertrauen“/„prädiktive Vertrauen“ des künstlichen Agenten in einen anderen Agenten erfüllt sind, dass er eine Aktion X ausführt. Jedes Ergebnis wird in einer Ergebnisdatei protokolliert. Abschließend diskutieren wir verschiedene Aspekte der Anwendung einer Vertrauenskomponente der vorgeschlagenen Art in empirischer Forschung, sozialer Simulation und Multiagentensystemen.;-;-;-;https://link.springer.com/article/10.1023/B%3AETIN.0000006947.66879.13 8bcd75ad2bfd04bd91f4fb291194fdf5;de;;;5.2.;;;Ein intelligentes Empfehlungssystem für einzelne und Gruppen von Benutzern des mobilen Marktplatzes basierend auf dem Einfluss der Eigenschaften von Artikeln auf das Benutzerprofil Mit der Ausweitung der Mobilfunkdienste ist die Zahl der Mobilfunknutzer rasant gestiegen und auch die Informationsmenge im Internet und im Mobilfunkmedium hat exponentiell zugenommen. So viele Informationen können von den Benutzern nur schwer überwacht werden, und die Suche nach bestimmten Daten kann viel Zeit kosten. Zudem stehen im mobilen Szenario aufgrund der begrenzten Rechenleistung eines Mobiltelefons nur einfache Such- und Browsingfunktionen zur Verfügung. Daher ist es vorzuziehen, die gewünschten Informationen die Kunden finden zu lassen, anstatt sie bei Bedarf nach bestimmten Informationen suchen zu lassen. Dies kann durch Integrieren personalisierter Benutzerpräferenzen zusammen mit einem Rechtfertigungsempfehlungssystem realisiert werden, so dass die notwendigen Informationen den mobilen Benutzer finden und die Suche nach diesen Informationen bei Bedarf erleichtert wird. Dieses Papier schlägt ein effektives Empfehlungssystem vor, das Verbrauchern helfen kann, bessere Kaufentscheidungen zu treffen, indem es Unterstützung für Benutzerfunktionen enthält. Dieses System empfiehlt dem Benutzer nicht nur Artikel basierend auf seinem Interesse, sondern versucht auch, den nächstgelegenen Standort des Artikels zu empfehlen. Der vorgeschlagene Rahmen hat das Potenzial, die Verbraucherzufriedenheit zu erhöhen, die Kunden-/Unternehmensbindung zu erhöhen und den Gesamtumsatz zu steigern, indem er den Produkten, die für die Verbraucher ein hohes Maß an Interesse haben, Rechtfertigung und Glaubwürdigkeit verleiht. Die Ergebnisse zeigen ein bedeutendes Versprechen in der Fähigkeit des Systems, den Benutzern genaue Empfehlungen zu geben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29219-4_30 00051ba5c9de77a80c3f7fd42d59dd86;de;;;5.2.;;;In das CDMA-Radiozugangsnetzwerk eingebettete Repeater Dieses Kapitel überprüft und analysiert die Interaktion des Repeaters mit dem CDMA-Funkzugangsnetz und seine Auswirkungen auf den Repeater und auf die Netzdienstparameter. Grundlegende Ausbreitungs- und CDMA-Netzwerkregeln werden verwendet, um klare funktionale Beziehungen zu entwickeln, die Einblicke und Planungs-, Kontroll- und Optimierungsrichtlinien bieten. Repeater dienen zur Abdeckungsauffüllung in Innenräumen und in funkverschatteten Bereichen und zur Abdeckungserweiterung über die Abdeckung der Spenderzelle hinaus, aber auch zur Kapazitätserhöhung für „Hot-Spot“-Repeater. Die Abdeckungserweiterung umfasst lange, manchmal verwinkelte Straßen. Kaskadierende Repeater in einer Multi-Hop-Kette werden analysiert und optimiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-49064-9_6 d636585caab813b602b8a99ceba6b2e6;de;;;4.2.;;;Entwicklung sozialer Kompetenzen von Ingenieuren im Umfeld der Web 2.0-Plattform Eine erfolgreiche berufliche Umsetzung erfordert nicht nur spezifische Fachkompetenzen der Ingenieure, sondern auch ein entsprechendes Sozialverhalten. In diesem Papier werden die wesentlichen sozialen Kompetenzen für Ingenieure unter Berücksichtigung der Kompetenzen untersucht, die in aktuellen Forschungsarbeiten, die in wissenschaftlichen Arbeiten veröffentlicht wurden, und nach Meinungen von Studenten der Technischen Universität Sofia vorgeschlagen wurden. Die Ergebnisse führen zur Schaffung eines Forschungsmodells für soziale Kompetenzen, das Schlüsselkompetenzen umfasst: Kommunikation, Zusammenarbeit, Vernetzung, Selbstmanagement, Anpassungsfähigkeit, Englischkenntnisse, Führung und Loyalität. Die Eigenschaften des Web 2.0 als Plattform, die die Kompetenzentwicklung unterstützen könnte, werden zusammengefasst und ein Modell für die Entwicklung sozialer Kompetenzen von Ingenieuren in Web 2.0-Umgebungen vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22383-9_11 7866ccfb5a5b2a32190b91752d102447;de;;;4.2.;;;Hochschulwissenschaft, Mathematik und Methodenlehre Fakultätsgespräch über Naturwissenschaften und Mathematik: Eine Untersuchung des Fakultätsdiskurses in einem reformorientierten Lehrervorbereitungsprogramm In dieser Studie wurden Diskurs- und Konversationsanalysen zu den Gesprächen von Lehrkräften für Naturwissenschaften und Mathematik durchgeführt, die an Reformkursen für Lehramtskandidaten teilnehmen, die an einem Vorbereitungsprojekt für Lehrkräfte für Mathematik und Naturwissenschaften (obere Grundschule und Mittelstufe) teilnehmen. Der Kontext der Studie war das Maryland Collaborative for Teacher Preparation (MCTP), ein von der National Science Foundation finanziertes Projekt in den USA. Das Ziel der Studie war es, den Einsatz von Diskurs- und Konversationsanalysen als Wege zu erforschen, um die Überzeugungen der Fakultäten in Bezug auf Mathematik und Naturwissenschaften zu verstehen, zwei Disziplinen, die das MCTP-Projekt verbinden wollte. Die Diskussion konzentrierte sich auf zwei Bereiche: (1) den Vergleich des Diskurses über Naturwissenschaften und Mathematik durch die Spezialisten für naturwissenschaftliche, mathematische und pädagogische Inhalte und (2) die Auswirkungen der Zusammenarbeit auf die Konversation der naturwissenschaftlich-mathematischen Lehrkräfte über Naturwissenschaften und Mathematik. Eine Implikation dieser Studie ist die Förderung der Gesprächsanalyse als Weg zur Information und Lenkung des Fakultätswandels in Lehramtsstudiengängen für Naturwissenschaften und Mathematik. Zukünftige Forschung wird empfohlen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1026187125767 d0f82c189548e8f33f57ea31b4671e0f;de;;;4.2.;;;Ex-ante-Folgenabschätzungen (FA) in der Europäischen Kommission – ein Überblick Die Ex-ante-Folgenabschätzung (IA) wurde 2002 offiziell in die Politikgestaltung der Europäischen Kommission (EK) eingeführt. Sie wird als formelles Verfahren zur Analyse potenzieller Auswirkungen neuer Politiken vor ihrer Annahme verstanden. Die beiden Hauptantriebskräfte hinter dieser EG-Initiative sind die EU-Strategie für nachhaltige Entwicklung und die Agenda für bessere Rechtsetzung. Die FA wird auf politischer Ebene vom Generalsekretariat der EK durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78648-1_3 7d765c9b08389fee053588671b9b7d80;de;;;5.2.;;;Implementieren von Taktiken und Taktiken in einer logischen Programmiersprache höherer Ordnung Wir argumentieren, dass eine logische Programmiersprache mit einer intuitionistischen Logik höherer Ordnung als Grundlage verwendet werden kann, um taktische Theorembeweiser auf natürliche Weise zu spezifizieren und zu implementieren. Die Sprache erweitert traditionelle logische Programmiersprachen, indem sie Terme erster Ordnung durch einfach typisierte λ-Terme ersetzt, Vereinigung erster Ordnung durch Vereinigung höherer Ordnung ersetzt und Implikation und universelle Quantifizierung in Abfragen und Klauselkörpern ermöglicht. Inferenzregeln für eine Vielzahl von Inferenzsystemen können natürlich in dieser Sprache spezifiziert werden. Die übergeordneten Merkmale der Sprache tragen zu einer präzisen Spezifikation von Vorbehalten bezüglich des Vorkommens von Variablen in Formeln und der Entlastung von Annahmen bei, die in vielen Inferenzsystemen vorhanden sind. Taktiken und Taktiken, die einen Rahmen für eine übergeordnete Kontrolle über die Suche nach Beweisen bieten, können direkt und natürlich in der erweiterten Sprache implementiert werden. Dieses Framework dient als Ausgangspunkt für die Implementierung von Theorembeweisern und Beweissystemen, die viele unterschiedliche Operationen an Formeln und Beweisen für eine Vielzahl von Logiken integrieren können. Wir präsentieren eine umfangreiche Reihe von Beispielen, die in der übergeordneten logischen Programmiersprache λProlog implementiert wurden.;-;-;-;https://link.springer.com/article/10.1007/BF00881900 2713ab0f48b336d2f39dbb068bbeb67b;de;;;5.2.;;;Typbasierte Abfrageerweiterung für den Satzabruf In diesem Beitrag wird ein neuartiges Satz-Retrieval-Modell mit typbasierter Erweiterung vorgeschlagen. In diesem Retrievalmodell sollten Sätze, von denen erwartet wird, dass sie relevant sind, die Anforderungen sowohl in Bezug auf die Abfragebegriffe als auch auf die Abfragetypen erfüllen. Um die Informationen über Abfragetypen zu erhalten, schlägt dieses Papier eine auf Klassifizierung basierende Lösung vor, die die möglichen Assoziationen zwischen Begriffen und Informationstypen nutzt, um die optimierten Klassifizierungsergebnisse zu erhalten. Inspiriert von der Idee, dass relevante Sätze immer in der Nähe vorkommen, ordnet dieser Artikel jeden Satz neu ein, indem er die Relevanz seiner benachbarten Sätze berücksichtigt. Das vorgeschlagene Retrieval-Modell wurde mit anderen traditionellen Retrieval-Modellen verglichen und die Versuchsergebnisse zeigen seine signifikanten Verbesserungen in der Retrieval-Effektivität.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72584-8_91 1fcaceab0c299bb036915ccf6815e3ea;de;;;5.2.;;;Management auf Organisationsebene Das Management der Organisationsebene hat laut VSM drei Funktionen: Einen Koordinationsplan zu erstellen, dessen Ausführung zu überwachen und die Leistung der operativen Ebene über einen Ausführungszeitraum zu überprüfen. In diesem Kapitel und in den folgenden beiden Kapiteln liegt der Schwerpunkt der Untersuchung auf der Koordination der Einheiten auf operativer Ebene. Dies ist eine Hauptfunktion des Managements der Organisationsebene. Insbesondere wird über eine theoretische Untersuchung der Planungstätigkeit berichtet. Oberstes Ziel des Managements der Organisationsebene ist es, die Umsetzung eines globalen Ziels, das von der institutionellen Ebene vorgegeben wird, durch Koordination sicherzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0213-1_6 e94328672f0d965dafba9aad3f1bf4b0;de;;;5.2.;;;Ein Framework zum Gruppieren und Zusammenfassen von Keyword-Suchergebnissen Mit dem schnellen Wachstum des Webs werden schlüsselwortbasierte Suchen extrem mehrdeutig. Um Benutzern zu helfen, die Ergebnisse ihres Interesses zu identifizieren, betrachten wir in diesem Papier eine alternative Möglichkeit, die Ergebnisse einer Stichwortsuche zu präsentieren. Insbesondere schlagen wir einen Rahmen vor, um die Ergebnisse in Gruppen zu gliedern, die Ergebnisse mit ähnlichem Inhalt enthalten und sich auf ähnliche zeitliche Merkmale beziehen. Darüber hinaus bieten wir Zusammenfassungen der Ergebnisse als Hinweise zur Abfrageverfeinerung. Eine Zusammenfassung einer Ergebnismenge wird als eine Menge von beliebten Schlüsselwörtern in der Ergebnismenge ausgedrückt. Schließlich berichten wir über die Ergebnisse der Evaluierung der Wirksamkeit unseres Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40683-6_19 4828cb9d36ce4588801aaa9f60933233;de;;;5.2.;;;USA-Vietnam-Beziehungen 1975-7 Bevor die Politik der Carter-Administration gegenüber Vietnam erörtert wird, ist es notwendig, den historischen Kontext festzustellen, in dem diese Politik ursprünglich formuliert wurde. Insbesondere ist es notwendig, den Status der vietnamesisch-amerikanischen Beziehungen zu verstehen, den die Carter-Administration von der Vorgängerregierung Ford übernommen hat. Dies ist daher die erste Aufgabe dieses Kapitels. Darüber hinaus erleichtert eine Auseinandersetzung mit der Politik der Ford-Administration nicht nur das Verständnis der Probleme zwischen Vietnam und den USA und der Normalisierung. Die Perspektive und Ausrichtung der Politik der Ford-Administration, die größtenteils von den Gedanken des Außenministers Henry Kissinger geprägt ist, bietet auch ein wertvolles Beispiel, um die ursprüngliche Politik der Carter-Administration gegenüberzustellen und mit der jede spätere Neuorientierung der USA verglichen werden kann Außenpolitik.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-24782-0_2 48370ce9ec01c7c35110a5dcc7d124d1;de;;;5.2.;;;Theorie der optischen Sensorik in polydispersen Aerosolsystemen Optische Methoden zur Untersuchung von Aerosolbildungen in der Atmosphäre sind in der Tat indirekte Methoden und ihre praktische Anwendung ist daher in der Regel mit der Lösung von Funktionsgleichungssystemen verbunden. Dies sind zum einen die Übertragungsgleichungen für optische Signale, die sich durch die streuende Atmosphäre ausbreiten, und zum anderen die Zusammenhänge zwischen optischen Eigenschaften und mikrophysikalischen Parametern der Aerosolsysteme. Diese Beziehungen führen in der Regel zu Integralgleichungen erster Art bei der Untersuchung von Mikrostrukturen atmosphärischer Aerosole mit den Methoden der optischen Sondierung. Die Gleichungen sind eindimensional, wenn von der Sphärizität der Partikel ausgegangen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-38802-9_2 8669192fc76225281ca07320fbd6612f;de;;;4.2.;;;Entwerfen überzeugender Drittanbieteranwendungen für soziale Netzwerkdienste basierend auf dem 3D-RAB-Modell Die Nutzung sozialer Netzwerkdienste zur Geschäftsförderung, zum Lehren, Lernen, Überzeugen und Verbreiten von Informationen erregt weiterhin Aufmerksamkeit, da die meisten sozialen Netzwerkdienste (SNSs) jetzt den Betrieb von Drittanbieteranwendungen auf ihren Websites ermöglichen. Auf dem Gebiet der überzeugenden Technologie ist die Fähigkeit von SNSs, Beziehungen zwischen ihren Nutzern aufzubauen und durch schnelle Zyklen Dynamik und Begeisterung zu erzeugen, auch einen größeren Vorteil gegenüber anderen überzeugenden Technologieansätzen. In diesem Papier diskutieren wir die dreidimensionale Beziehung zwischen Einstellung und Verhalten (3D-RAB) und zeigen, wie es bei der Gestaltung von Überzeugungsanwendungen von Drittanbietern in SNSs verwendet werden kann, indem externe Faktoren berücksichtigt werden, die Überzeugungsstrategien beeinflussen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22309-9_7 efd023af9667bd4c995c8b9052916266;de;;;4.2.;;;Narrative Designs: Eine designbasierte Methode, um die Narrative junger Menschen über Probleme und Interventionen des elektronischen Bildaustauschs zu ermitteln Die Perspektiven junger Menschen auf ihre Praktiken des elektronischen Bilderaustauschs, ihre Folgen und „Lösungen“ sind erforderlich, um wirksame und nachhaltige Interventionen zu entwickeln, um negative Auswirkungen dieses Verhaltens zu bekämpfen, beispielsweise wenn Bilder verwendet werden, um Cybermobbing zu erleichtern. Das Ziel dieses Kapitels ist die Beschreibung und Reflexion von Struktur und Prozess einer qualitativ gestalterischen Methode der narrativen Wissensproduktion, die im Rahmen einer größeren Mixed-Methods-Untersuchung der elektronischen Bildaustauscherfahrungen junger Menschen pilotiert wird. Die Methode: 68 Schüler der 8./9. Klasse in Perth, Australien, arbeiteten in Gruppen an einem angepassten Design-Thinking-Prozess und entwarfen mobile Apps, die ihre Empfehlungen zur Lösung der Probleme des elektronischen Bildaustauschs enthielten, die sie für am wichtigsten hielten. Während der Umfang des Projekts Expertise in Bezug auf Strukturierung, Training und Umsetzung erforderte, bot die dem Design Thinking-Prozess innewohnende Erzählstruktur ein integriertes Bild der Probleme des elektronischen Bildaustauschs und der damit verbundenen Lösungen aus der Perspektive junger Menschen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-04960-7_8 9375d38edef0cea2d6d6b8c2c3ad3808;de;;;4.2.;;;Erkundung einiger Herausforderungen des Diskurses über die kognitive Verbesserung von Arzneimitteln: Benutzer und Richtlinienempfehlungen Der Artikel untersucht einige der Probleme, die im Diskurs über die pharmazeutische kognitive Verbesserung (PCE) aufgetreten sind, d. h. die Verwendung von Stimulanzien wie Methylphenidat, Amphetamin und Modafinil durch gesunde Personen verschiedener Bevölkerungsgruppen mit dem Ziel, die kognitive Leistungsfähigkeit zu verbessern. Insbesondere untersuchen wir die vermutete Größe der bestehenden PCE-Benutzerpopulationen und die vorgeschlagenen politischen Maßnahmen in Bezug auf den PCE-Trend. Wir beginnen mit einer einführenden Untersuchung der akademischen Positionen und philosophischen Fragen, die bei der Definition von PCE eine Rolle spielen. Wir konzentrieren uns dann auf eine Untersuchung der Populationsgrößen von mutmaßlichen aktuellen PCE-Anwendern, die in der akademischen Literatur zu PCE aufgeführt sind, auf Präsuppositionen, die von einigen Autoren als basierend auf anekdotischen oder fehlinterpretierten Umfragedaten problematisiert wurden. Dem folgen wir mit einer empirischen Untersuchung einer potentiellen PCE-Nutzerpopulation im nationalen Kontext (Studenten der Universität Ljubljana in Slowenien). Anschließend untersuchen wir die in der wissenschaftlichen Literatur vorgeschlagenen Regulierungsoptionen zur Behandlung von PCE und vergleichen sie schließlich mit einem empirischen Überblick über die politischen Empfehlungen zu PCE, die im multinationalen Kontext mehrerer nationaler Ethikberatungsgremien (EABs) in Europa erstellt wurden. Unsere wichtigste Schlussfolgerung ist, dass unter den nationalen EAB immer noch wenig darüber diskutiert wird, welche Art von Reaktionen der öffentlichen Hand, wenn überhaupt, erforderlich sind, um PCE in europäischen Ländern anzugehen, und dass die Themen, die sie behandeln, denen ähneln, die in der wissenschaftliche Artikel über PCE.;-;-;-;https://link.springer.com/article/10.1007/s12152-013-9192-x d281ab83cfc5b2bfe159dce6fcd72622;de;;;5.2.;;;Lion Pride Optimizer: Ein vom Verhalten des Lion Pride inspirierter Optimierungsalgorithmus In diesem Artikel berichten wir über einen neuartigen Optimierungsalgorithmus, den Lion Pride Optimizer (LPO), der vom Verhalten von Lion Pride inspiriert ist. Der Rahmen basiert hauptsächlich auf dem Evolutionsprozess der Löwenrudel und der Theorie des Gruppenlebens. In einem Löwenrudel findet ein brutaler Konkurrenzkampf zwischen männlichen Löwen sowohl innerhalb als auch zwischen Rudeln statt, andererseits spielt jedes Mitglied eine wichtige Rolle für das Fortbestehen eines Löwenrudels. Basierend auf diesem Rahmen werden Konzepte aus dem Verhalten von Löwenrudel, zB die stärksten Männchen besetzen fast alle Paarungsressourcen, und wenn eine neue Kohorte von Männchen in der Lage ist, ein Rudel zu übernehmen, werden sie versuchen, junge Jungen zu töten, die von ihren Vorgängern gezeugt wurden metaphorisch eingesetzt, um optimale Suchstrategien zur Lösung kontinuierlicher Optimierungsprobleme zu entwerfen. Aus den Studien der Algorithmuseigenschaft wurde festgestellt, dass der LPO-Algorithmus für die meisten Parameter nicht empfindlich ist, was die Robustheit des Algorithmus zeigt und die Parameter nicht problemabhängig sind. Zentrale Tendenz des Algorithmus wird nicht gefunden. Es zeigt sich, dass die Pride-Update-Strategie und der brutale Wettbewerb einzelner Personen zwei Hauptfaktoren sind, die zur Leistung von LPO beitragen. Laut den Testergebnissen zu 23 berühmten Benchmark-Funktionen hat der LPO-Algorithmus eine bessere Leistung als die anderen sieben hochmodernen Algorithmen sowohl bei unimodalen als auch bei multimodalen Benchmark-Funktionen. Beim Test hochdimensionaler multimodaler Probleme übertrifft LPO den weitere fünf Algorithmen für alle Benchmark-Funktionen.;-;-;-;https://link.springer.com/article/10.1007/s11432-012-4548-0 38bc4e955fae06ac70a5bac0791930b0;de;;;4.2.;;;Community-basierte soziale Medien für einkommensschwache pädiatrische Asthmapatienten Die soziale Unterstützung hat einen positiven Einfluss auf das Selbstmanagement chronischer Erkrankungen gezeigt. Mit dem Fortschritt der Technologie gab es Forschungen zur Rolle von Social Media im Gesundheitswesen. In diesem Artikel schlagen wir ein gemeindebasiertes Social-Media-System namens Asthma411 für einkommensschwache Kinder mit Asthma vor. Asthma411 basiert auf dem Short Message System (SMS) von Mobiltelefonen, da es relativ kostengünstig und allgegenwärtig ist. Da es sich um ein Community-basiertes Social Media handelt, ist es eng mit der realen Welt verbunden. Obwohl die traditionellen sozialen Medien nur allgemeine Informationen für das Gesundheitswesen teilen können, ermöglicht Asthma411 Menschen, Kinder mit Asthma zu beobachten und ihre Symptome in Echtzeit zu melden, und ermöglicht es den Menschen in der Umgebung der Kinder, die Kinder mit Asthma-Exazerbation zu behandeln oder ihnen zu helfen. Aufgrund der Allgegenwart, Echtzeitüberwachung und Betreuung von Kindern mit Asthma ist Asthma411 ein fortschrittliches und proaktives soziales Medium für die chronische Gesundheitsversorgung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32692-9_27 3efe9aac189ea87682ca641f99a17e09;de;;;4.2.;;;Digitalisierung und globale Ethik Der umfassende Einsatz von Digital- und Netzwerktechnologie hat die Menschheit vom Industriezeitalter in das Informations- und Digitalzeitalter gedrängt. Im digitalen Zeitalter werden Ziffern zu einem umfassenden globalen Phänomen und einer Kraft. Die ethische Kultur der digitalen Globalisierung hat nicht nur einen neuen Raum für den kulturellen Austausch und die Integration zwischen den Nationen geschaffen, sondern auch ein neues Umfeld für die Bildung neuer globaler ethischer Prinzipien und Konzepte. Dieser Artikel untersucht ein wissenschaftliches Thema, das Thema der globalen Ethik im Umfeld des digitalen Zeitalters.;-;-;-;https://link.springer.com/article/10.1007/s10676-006-9101-7 66d045e377297fa038c4ecb767e940e0;de;;;4.2.;;;Hören auf die Sprache der Konstruktion wissenschaftlichen Wissens Die Studie untersucht den Sprachgebrauch der Studierenden im Prozess der Sinnfindung von genetischen Konzepten. Ziel ist es, primäre und sekundäre Diskurse zu analysieren und die Beziehung zwischen gesellschaftlichen Praktiken und Diskursen zu untersuchen. Sechstklässler wurden vor und während des vierwöchigen Genetikunterrichts interviewt. Allgemeine Trends wurden in Bezug auf Grenzüberschreitungen zwischen Diskursgemeinschaften und die Schwierigkeiten und Leichtigkeit des Wechsels zwischen informellen Erfahrungen, sozialen Praktiken, primären Diskursen von Familie, Freunden und Gemeinschaft und sekundären Diskursen in Wissenschaft und Schulunterricht festgestellt. Zwei umfassende Fallzusammenfassungen – Debbie und Sam – werden in dem Papier vorgestellt. Debbie nahm das, was sie in ihrem sozialen Leben erlebte, als Kriterium, um zu diskutieren, wie sich Menschen ähneln. Die im Klassenzimmer geübte Sprache unterschied sich jedoch von Debbies vertrauter Sprache. Debbie erlebte somit einen Konflikt zwischen primären und sekundären Diskursen. Sams Schulbildung und sein häusliches Umfeld boten einen abgestimmten sozialen Kontext mit reichen wissenschaftlichen Verbindungen, die seine Verwendung sekundärer Diskurspraktiken beim Denken und Lernen von Naturwissenschaften förderten. Wir empfehlen, dass der naturwissenschaftliche Unterricht eine Lerngemeinschaft aufbauen muss, in der die Diskurse der Studierenden anerkannt und die Grenzüberschreitungen zwischen den Diskursen im Prozess des naturwissenschaftlichen Lernens erleichtert werden.;-;-;-;https://link.springer.com/article/10.1007/s10763-005-9010-y dda8d5ec00f6a83829e195be6a0d9da0;de;;;4.2.;;;Räumliche Variabilitätsanalyse der Lebensqualität und ihrer Determinanten: Eine Fallstudie aus Medellín, Kolumbien Laut dem Gini-Indikator gilt Medellín – die Hauptstadt des Departements Antioquia, Kolumbien – mehrere Jahre in Folge als die ungleichste Stadt Kolumbiens in Bezug auf die Ungleichheit der Lebensqualität (QoL) seiner Einwohner. Daher zielte diese Forschung hauptsächlich darauf ab, die räumlichen Variationen der Lebensqualität von Haushalten und die Determinanten, die sie erklären, unter Verwendung einiger geografisch gewichteter Techniken zu untersuchen. Diese Analyse gewinnt an Bedeutung, wenn sie zu Regierungspolitiken und -programmen beitragen soll, die das Wohl des Einzelnen anstreben. Zu diesem Zweck wurde ein Indikator konstruiert, der sowohl objektive als auch subjektive Variablen zur Messung der Lebensqualität von Haushalten in Medellín integriert. Die lokalen und globalen räumlichen Autokorrelationsindizes wurden verwendet, um die geografische Struktur des Lebensqualitätsindikators zu visualisieren und zu analysieren. Die globale oder konventionelle Hauptkomponentenanalyse und die geografisch gewichtete Hauptkomponentenanalyse wurden verwendet, um räumliche Trends zu identifizieren bzw. die räumlichen Variationen der Determinanten zu untersuchen, die die Lebensqualität erklären. Die Ergebnisse bestätigen, dass die Lebensqualität und die sie erklärenden Faktoren in Medellín stark räumlich heterogen sind, was die zuständigen Behörden für die Raumplanung und die Entwicklung von Strategien zur Verbesserung der Lebensbedingungen von Wohnungen in der Stadt äußerst unterstützt.;-;-;-;https://link.springer.com/article/10.1007/s11205-019-02088-x 5aa54bb381973e9c1f35c87ef6b0ca5b;de;;;4.2.;;;Umweltagenda in Protestkampagnen: Komponenten und Ergebnisse Online-Protestaktivitäten haben sich in den letzten Jahren zu einem Trend entwickelt, der sowohl Theoretiker als auch Praktiker von Protestbewegungen und sozialen und politischen Kampagnen auf sich aufmerksam macht. Die Ereignisse der letzten Jahre lassen uns sagen, dass Social Media eine bedeutende Rolle bei den Protestaktivitäten auf der ganzen Welt spielt. Eine der sichtbarsten und attraktivsten Formen der Protestaktion war 2019 der Umweltaktivismus, der jedoch zunehmend politisierte Züge aufwies. In diesem Papier definieren die Autoren Online-Protest sowie die Rolle von Social Media in diesem Prozess. Die in diesem Beitrag diskutierten Perspektiven auf Umweltprotest werden verwendet, um drei Fälle zu analysieren. Darauf aufbauend werden die Hauptthemen und Richtungen identifiziert, mit denen Initiatoren von Umweltprotesten die Nutzer sozialer Medien mobilisieren. Jedes der ausgewählten Themen von Protestaktionen wird im Hinblick auf die Auswirkungen auf den Protest im Allgemeinen sowie auf die Aktivität der Nutzer und ihren Wunsch, eine bestimmte Protestrichtung zu unterstützen, analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-65218-0_6 6de069ba15fd74eae46bf2d11610850a;de;;;4.2.;;;Spektakuläre Reproduktion Ron Harris erregte im Oktober 1999 mit einer Website, auf der er die Eizellen von Models an den Meistbietenden versteigerte, die allgemeine Vorstellungskraft. Dieser Artikel behandelt die Kontroverse um Harris‘ Standort in einem dualen Rahmen aus dem Reproduktionsansatz der Kritischen Theorie und einem folkloristischen Diskursansatz. Die Website verbindet traditionelle Erzählmotive und -strukturen mit der Logik der Werbung, des Fernsehens der 70er Jahre, der Rhetorik der Familienwerte und der Fruchtbarkeitsindustrie. Ich behaupte, dass die große Anziehungskraft von;-;-;-;https://link.springer.com/article/10.1007/s10912-006-9025-6 d6035653246495059c95d4ecb7453b75;de;;;5.2.;;;Kinetik und Optimierung von Temperatur- und Zeitregimen zum Sintern von naturreinen russischen Dolomiten Die Kinetik des Sinterns bei 2300 – 2400 K natürlich reiner Dolomiten der Lagerstätten Melechowo — Fedot'evo und Lis'egorsk wird experimentell bei verschiedenen Heizraten untersucht. Aus experimentellen Daten berechnete kinetische Parameter der Prozesse der Verdichtung und des Kornwachstums beim Sintern haben es ermöglicht, die kinetische Gleichung als mathematisches Modell zur Optimierung der Temperatur- und Zeitregime des Sinterns zu verwenden, um maximale Verdichtungsraten und Gleichmäßigkeit der Sinterung zu erreichen Prozess im gesamten Temperatur- und Zeitbereich des Brennens. Durch das Vormahlen des Dolomits wird die Sinterung wesentlich intensiviert, wodurch nach dem Brennen bei Temperaturen von maximal 2100 – 2200 K ein hochdichter Klinker entsteht.;-;-;-;https://link.springer.com/article/10.1007/BF02306193 2290200dbb30b5b28d06a078da80a020;de;;;4.2.;;;Überblick über die europäische Währungsintegration Die Ereignisse nach dem Zweiten Weltkrieg lieferten die Motivation für die europäische Integration: Amerika bot Hoffnung und Unterstützung, während die Sowjetunion Druck ausübte und Angst erzeugte. Am Ende besiegte die Hoffnung die Angst.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-5358-4_1 2783eb667682a4d0f7a285b46ca08ab7;de;;;4.2.;;;Verfeinerung des Prozesses der wissenschaftlichen Unterstützung für Gemeinden rund um extreme Wetterereignisse und Klimaauswirkungen Climate Indianische Gemeinschaften entlang des Golfs von Mexiko, die auf bedeutende Weise von modernen Werkzeugen und Technologien getrennt sind, erleben und bewältigen Wetterextreme auf einzigartige und weitgehend unbekannte Weise. Von einer Generation zur nächsten gab es wenig Kommunikation zwischen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30626-1_7 060021f706d9bd1265a5c0fb727e273e;de;;;4.2.;;;Institutionelle und nicht-institutionelle Erklärungen zu wirtschaftlichen Unterschieden Ökonomen beschäftigen sich seit langem mit der Erklärung von Unterschieden zwischen den Ländern beim Niveau des Nationaleinkommens, der Bevölkerung und des Pro-Kopf-Einkommens sowie der Wachstumsraten. Da viele der Prozesse der wirtschaftlichen Entwicklung über lange Zeiträume hinweg ablaufen, haben sich diejenigen, die die Quellen dieser Unterschiede untersuchen, ganz natürlich auf die historischen Aufzeichnungen für relevante Beweise berufen. Ihr Interesse an der Wirtschaftsgeschichte entspringt daher nicht nur dem Wunsch nach einem besseren Verständnis der Vergangenheit, sondern auch der Überzeugung, dass dieses Wissen als Leitfaden für politische Entscheidungsträger dienen kann, die sich bemühen, die wirtschaftlichen und sozialen Bedingungen derzeit weniger entwickelter Länder zu verbessern. Viele Wissenschaftler haben sich zum Ziel gesetzt, durch detaillierte Untersuchungen der Wachstumsprozesse in einzelnen Ländern einen Beitrag zum Wissen zu leisten. Andere versuchten durch vergleichende Studien herauszufinden, welche Faktoren ausschlaggebend waren, und konzentrierten sich dabei auf Fragen wie die Unterschiede zwischen den Nationen hinsichtlich des Zeitpunkts des Wachstumsbeginns oder wie und warum ihre Rekorde der erreichten Wachstumsraten über einen langen Zeitraum schwankten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69305-5_26 c2a5d9b4ceae5287d9d5f6a8a9d01a6e;de;;;4.2.;;;Experimentelle Studien zum sozialen Lernen von Tieren in der Wildnis: Der Versuch, das Geheimnis der menschlichen Kultur zu entwirren Hier diskutiere ich, wie Studien zum sozialen Lernen bei Tieren uns helfen können, die menschliche Kultur zu verstehen. Es ist eine evolutionäre Binsenweisheit, dass sich komplexe biologische Anpassungen immer aus weniger komplexen, aber verwandten Anpassungen entwickeln, aber manchmal führen evolutionäre Übergänge zu großen biologischen Veränderungen, deren Endprodukte schwer vorhersehbar sind. Die sprachbasierte kumulative adaptive Kultur beim Menschen kann einen evolutionären Übergang dieser Art darstellen. Der größte Teil des bei Tieren (und sogar Pflanzen) beobachteten sozialen Lernens kann auf Mechanismen zurückzuführen sein, die keine kumulativen kulturellen Anpassungen bewirken können. Ebenso scheint ein Großteil des kritischen Inhalts der sozial übertragenen menschlichen Kultur keine Parallele bei nichtmenschlichen Spezies zu zeigen. Angesichts der einzigartigen menschlichen Ausdehnung und Qualität von Kultur müssen wir daher fragen: Sind andere Arten nur wenige Schritte von diesem Übergang entfernt oder fehlen ihnen mehrere kritische Merkmale, die uns zu den einzigen wirklich kulturellen Arten machen? Nur die zukünftige Forschung zum sozialen Lernen bei Tieren kann diese Fragen beantworten.;-;-;-;https://link.springer.com/article/10.3758/LB.38.3.319 4845d1f97cc013bc99902503c7665911;de;;;5.2.;;;Plasmaoptik Das einfachste plasmadynamische System ist offenbar ein Strom unmagnetisierter Ionen mit kleiner Geschwindigkeitsspreizung, deren Raumladung durch Elektronen neutralisiert wird [1]. Wir bezeichnen einen solchen Strom als „neutralisierten“ Ionenstrahl.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-7814-7_4 a4b2267207f0ba1454a8914f85a3fe3b;de;;;4.2.;;;Einsatz von Social Media zur Verbesserung des Lernens und zur Motivation von Studierenden im Hochschulklassenzimmer Seit dem Aufkommen des Internets und der Web 2.0-Technologien hat sich die Welt grundlegend verändert. Während Akademiker und Fachleute eine tiefere Integration von Social Media-Technologien in den Unterricht fordern, kommen Millennials und Studenten der Generation Z an die Universität. Diese Schüler sind sozialer, mobiler, globaler, digitaler und visueller Natur, daher ist es unerlässlich, digitale Mechanismen im Klassenzimmer zu etablieren, die das Lernen verbessern, indem sie den Schülern helfen, mithilfe von Technologie gemeinsam zu arbeiten, zusammenzuarbeiten und teilzunehmen. Diese Forschung untersucht die Herausforderungen, mit denen Studierende mit Digital Natives im Unterricht konfrontiert sind, indem sie ein praktisches Experiment mit sozialen Netzwerken in verschiedenen Universitäten, Studiengängen und Fächern durchführt. Die Ergebnisse zeigen, dass die Schüler gerne soziale Netzwerkpraktiken in den Unterricht integrieren, da sie sie als Werkzeug zur Verbesserung der Zusammenarbeit, der aktiven Beteiligung der Schüler und des kollaborativen Lernens wahrnehmen. Die Ergebnisse der Arbeit können verwendet werden, um effektive Lehr-Lern-Strategien vorzuschlagen, um die Leistung und Zufriedenheit der Studierenden in der Hochschulbildung zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20798-4_30 29ea5caddc111a2c993e47d32e8480f4;de;;;5.2.;;;Ein Metaregelansatz zur flexiblen Planerkennung im Dialog Obwohl eine Reihe von Forschern gezeigt hat, dass die Argumentation auf einem Modell der Pläne und Ziele des Benutzers beim Sprachverständnis und der Reaktionsgenerierung hilfreich ist, können aktuelle Modelle der Planableitung nicht mit natürlich vorkommenden Dialogen umgehen. In diesem Beitrag wird argumentiert, dass die Modellbildung aus weniger als idealen Dialogen viel mit der Verarbeitung falsch geformter Eingaben gemeinsam hat. Sie definiert Wohlgeformtheitsbeschränkungen für informationssuchende Dialoge und behauptet, dass Strategien zur Interpretation falsch geformter Eingaben auf das Problem der Modellierung des Benutzerplans während eines falsch geformten Dialogs angewendet werden können. Es stellt einen Metaregelansatz zur Hypothesenbildung der Ursache von Dialogfehlbildungen vor und beschreibt Metaregeln zur Lockerung des Planschlussfolgerungsprozesses und zur Ermöglichung der Berücksichtigung alternativer Hypothesen. Die Vorteile dieses Ansatzes sind, dass er einen einheitlichen Rahmen für den Umgang mit sowohl wohlgeformten als auch schlecht geformten Dialogen bereitstellt, unnatürliche Interpretationen vermeidet, wenn der Dialog reibungslos verläuft, und ein nicht monotones Planerkennungssystem erleichtert.;-;-;-;https://link.springer.com/article/10.1007/BF01101858 2d53511aec61c6367f2c990bdb752b94;de;;;5.2.;;;Ein kurzer Überblick über explorative Suchsysteme Die Definition der explorativen Suche ist komplex und vielfältig. Es ist ein Prozess der Suche nach Informationen, um Benutzern zu helfen, die mit der Domäne ihres Suchziels nicht vertraut sind oder keine Ahnung haben, wie sie ihr Ziel erreichen können. Es gibt mehrere Suchsysteme, die eine explorative Suche unterstützen. In diesem sich schnell entwickelnden Gebiet müssen die Errungenschaften und Tendenzen betrachtet werden, um den zukünftigen Forschungsarbeiten einen besseren Blickwinkel zu geben. Dieser Beitrag gibt einen Überblick über explorative Suchsysteme und diskutiert den Stand der Technik. Wir analysieren diese verfügbaren Systeme anhand von Merkmalen wie Algorithmen, Ergebnisranking, Erklärungen usw.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-7091-5_34 4fcfec185b752dcb623783f796514337;de;;;5.2.;;;Ein Pareto-basierter diskreter Harmony-Suchalgorithmus für bi-objektive reentrant hybride Flowshop-Scheduling-Probleme In diesem Beitrag wird ein Pareto-basierter Algorithmus zur diskreten Harmoniesuche (P-DHS) vorgeschlagen, um das reentrant hybride Flowshop Scheduling Problem (RHFSP) mit den Makespan- und den Total-Tardiness-Kriterien zu lösen. Für jeden Job wird der Operationssatz jedes Durchgangs als Unterjob betrachtet. Um den Harmoniesuchalgorithmus zum Lösen des RHFSP zu übernehmen, wird jeder Harmonievektor durch eine diskrete Unterauftragssequenz repräsentiert, die die Priorität zum Zuweisen aller Operationen bestimmt. Um die diskrete Darstellung zu handhaben, wird ein neuartiges Improvisationsschema entworfen. Während des Suchprozesses werden die erforschten nicht dominierten Lösungen mit einer dynamischen Größe im Harmoniespeicher gespeichert. Der Einfluss der Parametereinstellung wird untersucht und anhand einiger Benchmarking-Instanzen werden numerische Tests durchgeführt. Die Vergleiche mit einigen existierenden Algorithmen in Bezug auf mehrere Leistungsmetriken zeigen die Wirksamkeit des P-DHS-Algorithmus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-47926-1_41 d0c28469e5ac30226270b74518ddbbdb;de;;;5.2.;;;Die Suche nach elektromagnetischer Induktion 1820–1831 Die 1820 von Hans Christian Oersted (1777–1851) entdeckte Entdeckung des Magnetfelds, das einen Leiter beim Durchgang eines elektrischen Stroms umgibt, erregte unter Wissenschaftlern in England, Frankreich, Deutschland, Italien und den Vereinigten Staaten eine Welle des Interesses Zustände. Der Apparat, der zur Überprüfung seiner Ergebnisse erforderlich war, war leicht zusammenzustellen, und jeder, der es wollte, konnte sich von der Natur des unauflöslichen Zusammenhangs zwischen Elektrizität und Magnetismus überzeugen, der, obwohl lange vermutet und vage angedeutet, jetzt genau definiert und als fester Bestandteil des Wissenschaftskorpus. Als von verschiedenen Stellen eine nachfolgende Entdeckung nach der anderen verkündet wurde, verbreitete sich die Erkenntnis, dass sich ein großes und ungenutztes Feld für Ermittlungen und Anwendungen eröffnet hatte. Nur eine Woche nachdem die Nachricht von Oersteds Experiment Paris erreicht hatte, entdeckte André-Marie Ampère (1775–1836), dass sich zwei parallele Drähte mit parallelen Strömen anziehen. Weniger als zwei Monate nach Oersteds Veröffentlichung hat J.S.C. Schweigger (1779–1857) an der Universität Halle argumentierte, dass, wenn der Strom in einem einzelnen Draht, der über der Kompassnadel gehalten wird, die Nadel nach rechts ablenken würde, während der gleiche Draht unter der Nadel sie nach links ablenken würde, eins;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-3588-7_3 5ff4660f10d87f6dd6a1c85c83a2a42e;de;;;4.2.;;;Südasiatische Frauen und arrangierte Ehen in East London In diesem Kapitel wird die Stellung südasiatischer Frauen in Familie und Haushalt untersucht, insbesondere im Hinblick auf arrangierte Ehen. Es wird auch der Einfluss von Bildung untersucht und wie sich dies darauf auswirkt, ob südasiatische Frauen an arrangierten Ehen teilnehmen. Das Kapitel basiert auf Recherchen, die in East London durchgeführt wurden.;-;-;-;https://link.springer.com/chapter/10.1057/9780230508156_7 3403395a191281fd7245f6262f07f084;de;;;4.2.;;;Auf die Stimmen der Frauen hören In seiner ästhetischen Kritik teilt Coleridge die Sprachkunst in „Poesie des Ohrs oder Musik und Poesie des Auges“. Diese Unterscheidung zwischen Auge und Ohr beinhaltet auch die Position der Personlichkeit bei anderen Menschen: Das Auge sieht das Gesicht, das leer oder wütend und daher unzuverlässig oder abstoßend sein kann, und das Ohr hört die Stimme, die aus dem Inneren des anderen kommt und widerhallt mit Atem und Herzschlag. In Coleridges Schriften wechseln sich Schauen und Zuhören – Gesichter und Stimmen – ab. Insbesondere in seinen Bemühungen, Frauen als Personen zu verstehen, vollzieht Coleridge einen bedeutenden ästhetischen und ethischen Übergang, wenn er vom Sehen von Frauen zum Hören übergeht.;-;-;-;https://link.springer.com/chapter/10.1057/9781403979179_7 9c2629f3fabb32270117d4208376f03d;de;;;5.2.;;;Gesundheitsreform in den USA In Ermangelung einer bundesstaatlichen Führungsrolle bei einer umfassenden Gesundheitsreform hat in den USA eine umfassende Umstrukturierung der Gesundheitsversorgung im privaten Sektor stattgefunden und ist in vielen bundesstaatlichen Gesetzgebern in vollem Gange. Der Einfluss von Managed Care ist nach wie vor allgegenwärtig. 1994 waren 80 % oder etwa 230 Millionen der Versicherten in den USA in irgendeiner Form von Managed Care betreut. Dies entspricht einer Versechsfachung gegenüber dem vorangegangenen Jahrzehnt. Die Gesundheitsreform steht für viele Staaten nach wie vor ganz oben auf der Liste der gesetzgeberischen Prioritäten. Obwohl die Initiativen unterschiedlich sind, fordern immer mehr Bundesstaaten Ausnahmeregelungen des Bundes, um ihre Medicaid-Programme zu erweitern und umzustrukturieren, damit Gruppen von nicht versicherten Personen einbezogen und alle Medicaid-Empfänger in eine Managed-Care-Umgebung versetzt werden können. Dieses Papier bietet einen Überblick über das Medicaid-Waiver-Programm und andere staatliche Initiativen. Darüber hinaus überprüft das Papier eine Entscheidung des Obersten Gerichtshofs der USA, in der kürzlich Richtlinien für Staaten festgelegt wurden, die die Auferlegung von Zuschlägen oder anderen einnahmengenerierenden Mechanismen für private Versicherer als Mittel zur Finanzierung unentgeltlicher Pflege in Betracht ziehen.;-;-;-;https://link.springer.com/article/10.2165/00019053-199600102-00016 e60f939cb1ab469c2b632e15d324e936;de;;;5.2.;;;Umgang mit Unterschieden: ein Scoping Review von psychotherapeutischen Interventionen bei unbegleiteten minderjährigen Flüchtlingen Unbegleitete minderjährige Flüchtlinge (URM) sind eine Bevölkerungsgruppe, die gefährdet ist, psychische Probleme, posttraumatische Belastungsstörungen, Angstzustände und/oder Depressionen zu entwickeln. Therapeuten, die mit URMs arbeiten, müssen oft sprachliche und kulturelle Barrieren überwinden und dabei die spezifischen Bedürfnisse dieser jungen Menschen berücksichtigen. Eine wachsende Literatur beschreibt eine breite Palette von Interventionen, die darauf abzielen, Psychopathologien zu reduzieren und das Wohlbefinden zu verbessern. Wir haben die verschiedenen Interventionen zusammengefasst, die mit URMs verwendet werden, um einen Überblick über Techniken zur Reduzierung von Psychopathologien und Schwierigkeiten von URMs zu erhalten und Empfehlungen für Fachleute zu geben. Wir durchsuchten acht Datenbanken nach Artikeln und Büchern, ohne Einschränkungen hinsichtlich des Veröffentlichungsdatums oder der geografischen Region und verwendeten englische und französische Schlüsselwörter. Wir schlossen alle Studien (RCTs, Fallserien, Fallstudie) ein, die eine Intervention mit einem oder mehreren URMs bewerteten. Siebzehn Studien, über die in Artikeln oder Buchkapiteln berichtet wurde, erfüllten die Kriterien für die Aufnahme in unsere Analyse. Es wurde nur eine RCT mit URMs durchgeführt, aber aufgrund der geringen Stichprobengröße können wir nicht auf ihre Wirksamkeit schließen. Andere Studien sind Fallserien oder Fallstudien und aufgrund ihres Studiendesigns kann nicht geschlossen werden, ob eine Intervention anderen überlegen ist. Um festzustellen, welche Interventionsarten bei der Arbeit mit URMs am effektivsten sind, sind weitere Untersuchungen mit einem höheren Evidenzniveau erforderlich.;-;-;-;https://link.springer.com/article/10.1007/s00787-017-1083-y df2c5e1237747d44c800a41617de4d70;de;;;5.2.;;;Den Raum für Überlegungen bei der Entscheidungsfindung schaffen Entscheidungsmodelle in den Verhaltens-, Kognitions- und Neurowissenschaften bestehen typischerweise aus Forced-Choice-Paradigmen mit zwei Alternativen. Während es theoretisch möglich ist, jede Entscheidungssituation in eine Folge binärer Entscheidungen zu übersetzen, ist die Entscheidungsfindung im wirklichen Leben in der Regel komplexer und nichtlinearer und beinhaltet Entscheidungen zwischen mehreren Elementen, abgestuften Urteilen und Verschiebungen der Entscheidungsfindung. Hier diskutieren wir, wie die Komplexität der Entscheidungsfindung im wirklichen Leben mit konventionellen Entscheidungsmodellen adressiert werden kann, indem wir uns auf die interaktive Dynamik zwischen Kriterieneinstellungen und der Sammlung von Beweisen konzentrieren. Entscheidungsträger können an einer mehrstufigen, parallelen Entscheidungsfindung teilnehmen, indem sie den Diskussionsraum nutzen, wobei nicht-binäre Beweise zu jedem Zeitpunkt verfügbar sind. Die interaktive Dynamik hält sich im Wesentlichen an den Kompromiss zwischen Geschwindigkeit und Genauigkeit, so dass die Vergrößerung des Raums für Überlegungen eine erweiterte Datensammlung ermöglicht. Der Raum für Überlegungen spiegelt eine Form der Meta-Entscheidungsfindung wider, die empirisch als wertebasierte Übung untersucht werden kann und sollte, die die früheren Neigungen, die Ökonomie der Informationssuche und die potenziellen Ergebnisse abwägt. Wichtig ist, dass die Kontrolle des Diskussionsraums eine Frage der Handlungsfähigkeit aufwirft. Entscheidungsträger können ihre eigenen Entscheidungsparameter aktiv und explizit festlegen, aber diese Parameter können auch durch Umweltbelastungen bestimmt werden. Entscheidungsträger können daher beeinflusst – oder in eine bestimmte Richtung gestoßen – werden, wie Entscheidungsprobleme formuliert werden, mit einem Gefühl der Dringlichkeit oder einer binären Definition von Wahlmöglichkeiten. Wir argumentieren, dass ein angemessenes Verständnis dieser Mechanismen wichtige praktische Auswirkungen auf die optimale Nutzung des Raums für Überlegungen hat.;-;-;-;https://link.springer.com/article/10.1007/s11571-021-09681-2 5ec885d7f72b5dc0f8279065b8f51536;de;;;4.2.;;;Intelligente Technologien für eine nachhaltige Entwicklung des sozialen Großsystems Zur Steuerung und nachhaltigen Entwicklung des Sozialsystems werden intelligente Technologien vorgeschlagen, die auf Konzepten der Selbstorganisation, Anpassung und des Lernens basieren. Das Modell des sich selbst organisierenden, sich entwickelnden sozialen Systems, das aus mehreren Gruppen besteht, die sich in verschiedenen Regionen befinden, wird abgeleitet. Es liegen hinreichende Bedingungen über die konkrete Richtung der Humankapitalmigration zwischen diesen sozialen Gruppen vor. Dies bietet die Möglichkeit formaler Definitionen von Konzepten des regionalen Attraktors des Humankapitals und der Migrationsattraktivität, des sektoralen und des allgemeinen Migrationsklimas. Man erhält einen Vektorindikator für die Attraktivität einer sozialen Gruppe für Humankapital sowie eine Matrix, die das Migrationsklima für die gesamte Gemeinschaft charakterisiert. Auch adaptive Technologien zur gezielten Steuerung des sozialen Systems nachhaltiger Entwicklung werden beschrieben. Um eine unerwünschte Verzerrung von Informationen zu vermeiden, wird vorgeschlagen, progressive adaptive Mechanismen zu verwenden. Gekennzeichnet sind lernende, selbstorganisierende und sachkundige Kontrollmechanismen für die nachhaltige Entwicklung des Sozialsystems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-65551-2_8 1e4cccc3b30a2635c328acf5c1240ace;de;;;4.2.;;;Pluralistische Ergebnisse im Zusammenhang mit der Entwicklung der Staatsbürgerschaft von Studenten Forschungsintensive Hochschulen sind ideale Rahmenbedingungen, um Akteure des sozialen Wandels zu entwickeln, die einen dauerhaften Wandel in unserer vielfältigen Gesellschaft bewirken können, da diese Institutionen Studierende mit Menschen unterschiedlicher Herkunft verbinden und Studierende einladen können, durch formelle und informelle Interaktionen verschiedene Perspektiven kennenzulernen und entwickeln die multikulturelle und interkulturelle Kompetenz der Studierenden. Der Zweck dieses Kapitels war es, den Zusammenhang zwischen dem Wachstum der Staatsbürgerschaft von College-Studenten und zwei kritischen Ergebnissen zu untersuchen: der Entwicklung der Führung und der multikulturellen Kompetenz der Studenten. Die Ergebnisse einer hierarchischen multiplen Regressionsanalyse einer multiinstitutionellen Umfrage unter Hochschulabsolventen deuten darauf hin, dass der institutionelle Beitrag zur Entwicklung der Staatsbürgerschaft der Studierenden positiv mit der Führung und der multikulturellen Kompetenz der Studierenden verbunden ist.;-;-;-;https://link.springer.com/chapter/10.1057/978-1-137-55312-6_9 f6e1008bf3e7dcfb24f9c322ac81d1ba;de;;;5.2.;;;Eine auf einem Entitätsklassenmodell basierende Methode zur Auswahl von korrelierten Abfragepfaden in mehreren Domänen Ein interessantes Problem bei der Datenintegration ist, dass Benutzer, die eine Anfrage in einer Domäne stellen, möglicherweise auch mehr Informationen in anderen Domänen wissen möchten, die ihm noch nicht in den Sinn gekommen sind. Es ist eine gute Idee, Nutzern korrelierte Domains zu empfehlen, damit sie mehr Informationen erhalten. Die vorhandenen Forschungen zur Lösung dieses Problems sind jedoch recht selten und begrenzt. In diesem Papier schlagen wir eine Methode zur Auswahl von Abfragepfaden vor, und die Abfragepfade bestehen aus korrelierten Domänen. Wir schlagen ein Entitätsklassenmodell vor, das darauf basiert, einen Domänenkorrelationsgraphen zu erstellen, und Abfragepfade werden basierend auf dem Graphen ausgewählt. Schließlich evaluieren wir unsere Methode durch Experimente und demonstrieren die Wirksamkeit unserer Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29253-8_59 4810f35dfd97045a4993cbfc0d5f4f20;de;;;5.2.;;;Viktorianische Einstellungen Zu Beginn des 19. Jahrhunderts waren die Landstreichergesetze äußerst komplex geworden. In Verbindung mit den Siedlungsgesetzen könnten sie zu einem undurchdringlichen kostspieligen Gesetzesdschungel für lokale Rechtsbeamte werden. Nur wenige Richter waren sich der umfangreichen Befugnisse bewusst, die ihnen zur Verfügung standen. Die Rechtsvorschriften könnten von Fachleuten so ausgelegt werden, dass sie ein außergewöhnlich breites Spektrum an reisenden Personen abdecken. Sollte sich ein sachkundiger JP darauf einlassen, könnte jeder arme Mensch, der außerhalb seiner eigenen Gemeinde umzieht, unter dem einen oder anderen von vielen Vorwänden der Landstreicherei angeklagt werden. Auspeitschen war noch möglich. Dabei wurde einem Täter bis zur Hüfte ausgezogen und von einem Constable ausgepeitscht, „bis sein Körper blutig ist“. Die Ansiedlungs- und Umzugsgesetze hatten einen erheblichen Einfluss auf einen Großteil der verworrenen Verwaltung der Armengesetze im Allgemeinen und des Landstreicherrechts im Besonderen. Zur Hälfte des Jahrhunderts erinnerte sich John Revans an die Beweise, die in den 1830er Jahren von den Armenkommissaren untersucht wurden, als er ihr Sekretär war. Er vergewisserte sich, dass „jedes“ der Übel des Missstands im Verwaltungsrecht direkt auf die Ansiedlungs- und Umzugsgesetze von 1662 zurückgeführt werden konnte.;-;-;-;https://link.springer.com/chapter/10.1057/9780230510869_5 7d01f9b25a92896a8bb93129abd4a3ac;de;;;5.2.;;;Die Auswirkung der Ergebnisdiversifizierung auf das Suchverhalten und die Leistung zielt darauf ab, Suchenden einen breiteren Blick auf ein bestimmtes Thema zu bieten und gleichzeitig die Chancen zu maximieren, relevantes Material wiederzufinden. Die Diversifizierung der Ergebnisse zielt auch darauf ab, Suchverzerrungen zu reduzieren, indem die Abdeckung verschiedener Aspekte des Themas erhöht wird. Als solche sollten Suchende mehr über das gegebene Thema im Allgemeinen erfahren. Obwohl Diversifizierungsalgorithmen vor über zwei Jahrzehnten eingeführt wurden, hat nur wenige Forschung ihren Einfluss auf das Suchverhalten und die Leistung im Kontext von;-;-;-;https://link.springer.com/article/10.1007/s10791-019-09353-0 98d182c488702279545adeb89c8fe906;de;;;5.2.;;;Seltene Erden und die Europäische Union Politische und wirtschaftliche Risiken in der Lieferkette von Rohstoffen können zu Lieferengpässen führen. Die Sicherheitsanfälligkeit und Bedrohung in der Lieferkette von Hightech-Industrien ist eine wichtige Herausforderung für die wirtschaftliche Leistungsfähigkeit von Volkswirtschaften auf der ganzen Welt. Innerhalb dieses Bandes zur Vulnerabilität der Lieferkette in Bezug auf Seltene Erden (SEE) konzentriert sich dieses Kapitel auf Deutschland und die Europäische Union (EU). Sie beleuchtet die unterschiedlichen politischen Initiativen Deutschlands auf nationaler, europäischer und internationaler Ebene und zeigt, wie Deutschland auf allen drei Ebenen politische Instrumente entwickeln will, um einen leichten Zugang zu Rohstoffen zu gewährleisten. Außerdem wird die Wahrnehmung von Kritikalität in Europa erörtert. Letztlich soll damit der Grad der Anfälligkeit der Lieferkette im Zusammenhang mit Seltenen Erden bewertet werden.;-;-;-;https://link.springer.com/chapter/10.1057/9781137364241_4 31eea8ca868f953000e0c73d866a4b30;de;;;5.2.;;;Aufbau von Benutzergruppen basierend auf einer strukturellen Darstellung von Benutzersuchsitzungen Die Identifizierung von Benutzergruppen ist eine wichtige Aufgabe, um Suchergebnisse zu personalisieren. In digitalen Bibliotheken werden häufig besuchte Ressourcen und die sequentiellen Suchmuster verwendet, um die Benutzerähnlichkeit zu messen. Während besuchte Ressourcen helfen zu verstehen, was Benutzer wollen, verraten sie nicht, wie Benutzer am liebsten suchen. Im Gegensatz dazu ermöglichen sequentielle Muster, die Art und Weise zu decodieren, in der Benutzer suchen, aber sie sind sehr streng und erlauben keine Änderungen in der Reihenfolge der Suche. Eine dritte Alternative und ein Kompromiss könnte die Analyse der Struktur einer Suchsitzung sein. In diesem Beitrag möchten wir einige Einblicke in das Potenzial der Analyse von Suchsitzungen auf struktureller Basis gewinnen. Daher untersuchen wir eine strukturelle Darstellung von Suchsitzungen basierend auf Baumdiagrammen. Wir werden eine neuartige Methode vorstellen, um mehrere Sitzungsbäume zu einem kombinierten Baum zusammenzuführen. Basierend auf einem kombinierten Baum aus ähnlichen Sitzungen werden wir archetypische Bäume für verschiedene Benutzergruppen erstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67008-9_36 5162f586e8635b918b03e3505ad166a2;de;;;4.2.;;;M-Workplace Learning @ ITC-ILO Der Beitrag beschreibt ein angewandtes Forschungsprojekt, das das Lernen am/für die Arbeit von Lern- und Entwicklungsfachkräften durch mobiles Lernen erleichtern soll. Insbesondere wurde das Publikum auf Fachleute des Internationalen Ausbildungszentrums der Internationalen Arbeitsorganisation, einer UN-Agentur mit Sitz in Turin, Italien, beschränkt. Die angewandte Methodik ging über das traditionelle Instruktionsdesign hinaus hin zu Design Thinking, das fünf Phasen (Entdeckung, Interpretation, Ideenfindung, Experimentieren und Evolution) berücksichtigt, die dabei helfen, eine konkrete Herausforderung zu identifizieren, bis eine praktische Lösung entwickelt wird. Die in diesem Papier behandelten Ergebnisse repräsentieren die ersten drei Phasen des Design Thinking Prozesses: Entdeckung, Interpretation und Ideenfindung. Aufbauend auf diesen Ergebnissen wurden drei Herausforderungen für das Lernen am Arbeitsplatz identifiziert, die durch mobiles Lernen gelöst werden sollten: Verbesserung des Wissensaustauschs und der effektiven Kommunikation am Arbeitsplatz, Erleichterung der Aneignung von Lernerfahrungen am Arbeitsplatz, Steigerung der Motivation zum Lernen am Arbeitsplatz durch Spielkonzepte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13416-1_26 9ca3866b47d3ffad0fb6e123c6c7e075;de;;;4.2.;;;Die Macht der IKT für eine effektive Entscheidungsfindung bei der Zuweisung öffentlicher Ressourcen: Fall ländlicher Gebiete in Uganda Viele Forscher haben über die Rolle der E-Partizipation als Mittel zur Verbindung von Bürgern mit ihren Führungskräften und auch als Rolle bei Entscheidungsprozessen über die Zuweisung öffentlicher Mittel gesprochen. Es ist jedoch wenig über Modelle bekannt, die Bürgern in ländlichen Gebieten mit begrenzter Infrastruktur und anderen Faktoren wie niedrigem Bildungsstand, Kultur, Geschlecht, Marginalisierung usw. gerecht werden können. Dieses Papier beschreibt ein IKT-System, das Mobiltelefon-SMS verwendet, um die Bürger zu beschleunigen - demokratisches Engagement der Staats- und Regierungschefs zur Verbesserung der Erbringung öffentlicher Dienste. Es baut auf dem theoretischen Rahmen der partizipativen Aktionsforschung (PAR) auf und zielt darauf ab, das vom Toro Development Network im Jahr 2014 vorgeschlagene PAR-E-Partizipationsmodell zu operationalisieren. Das Systemdesign entwickelt Wissen, das für gemeinsame Reflexion und kontinuierliche Entscheidungsfindung während der Beteiligungsprozesse zwischen Bürgern erforderlich ist ( Zivilgesellschaft) und Regierung durch einen partizipativen Aktionsforschungsansatz. Das Papier betont den IKT-Konvergenzansatz, der Rundfunkmedien, insbesondere Radio, Mobiltelefone und IKT-Systeme, kombiniert, um die öffentliche Meinung der Bürger an der Basis zu nationalen Strategien, Politiken und Programmen zu empfangen und abzufragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49700-6_26 9b66fd84166fcecc6e63659fe8b3d21d;de;;;4.2.;;;Die Evaluation breit angelegter Programme Es gibt einen Ansatz zur Evaluierung sozialer Aktionsprogramme, der so sinnvoll erscheint, dass er ohne Frage akzeptiert wird. Die zugrunde liegende Annahme ist, dass Aktionsprogramme auf bestimmte Ziele ausgerichtet sind und ihr Erfolg durch den Nachweis von Ursache-Wirkungs-Beziehungen zwischen den Programmen und ihren Zielen nachgewiesen werden kann. Folglich ist das bevorzugte Forschungsdesign ein experimentelles, bei dem Aspekte der zu ändernden Situation vor und nach der Umsetzung des Aktionsprogramms gemessen werden. Um das Argument zu untermauern, dass das Programm für die beobachteten Veränderungen verantwortlich ist, können die erwarteten Effekte gleichzeitig in einer Kontrollsituation gemessen werden, die das Programm nicht empfängt (Campbell & Stanley, 1966). Dieser plausible Ansatz führt in die Irre, wenn die Aktionsprogramme weitreichende Ziele haben und nicht standardisierte Formen annehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-6669-7_8 ec365908a67f83e4f04b709d6a264da5;de;;;5.2.;;;Leckageerkennung Zur Lecksuche in verfahrenstechnischen Anlagen werden häufig Radiotracer-Techniken eingesetzt (Kapitel 1, Tabelle 1.1). In modernen, hochkomplexen Chemieanlagen mit großer Kapazität hat die Notwendigkeit, teure Stillstandszeiten zu minimieren, zu einem verstärkten Einsatz dieser Verfahren geführt. In diesem Kapitel werden die relativen Vorteile von Radiotracer-Techniken im Vergleich zu anderen Lecksuchmethoden wie Suchgasmethoden, Wärmebildgebung und Ultraschall untersucht. Obwohl das Thema mit Blick auf die chemische Prozessindustrie untersucht wird, sollte betont werden, dass die Techniken gleichermaßen auf andere Prozessindustrien anwendbar sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-4073-4_10 8b5fef9c68df0c18edbc951e247c9cf1;de;;;5.2.;;;Wichtige Internetanwendungen der Klassifikation Zusammenfassung wichtiger Internetanwendungen zur Klassifizierung, einschließlich: Spamfilterung, Empfehlungssysteme, Sentimentanalyse, beispielbasierte Suche, Malware-Erkennung und Erkennung von Netzwerkangriffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36962-0_1 e96292f58019651c01ca72222566174d;de;;;5.2.;;;Weiterentwicklung der lokalen Echtzeit-Agentensteuerung für große Multi-Agenten-Systeme Die Steuerung von Agenten, die sich in Multiagentensystemen befinden, ist ein komplexes Problem. Dies gilt insbesondere in harten, offenen, dynamischen Umgebungen, in denen Ressourcen-, Datenschutz-, Bandbreiten- und Rechenbeschränkungen die Art der Informationen, die Agenten gemeinsam nutzen können, und die den Agenten zur Verfügung stehenden Steuerungsproblemlösungsoptionen einschränken. Das;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45448-9_5 28f7af3e60cfede0f8b6503ee4111539;de;;;5.2.;;;Erfahrene Stressoren und Bewältigungsstrategien bei iranischen Krankenpflegestudenten College-Studenten sind aufgrund des Übergangscharakters des College-Lebens anfällig für Stress. Es wird angenommen, dass ein hohes Stressniveau die Gesundheit und die akademischen Funktionen der Schüler beeinträchtigt. Wenn der Stress nicht effektiv bewältigt wird, können Gefühle von Einsamkeit, Nervosität, Schlaflosigkeit und Sorgen die Folge sein. Effektive Bewältigungsstrategien erleichtern die Rückkehr zu einem ausgeglichenen Zustand und reduzieren die negativen Auswirkungen von Stress.;-;-;-;https://link.springer.com/article/10.1186/1472-6955-6-11 c6d635b443e83b9c5f915bf835b506ec;de;;;5.2.;;;Entschlüsselung von Labortestnamen: Eine große Herausforderung für eine angemessene Patientenversorgung Klinische Labortests haben keinen Wert, wenn Kliniker nicht schnell bestellen und die gewünschten Ergebnisse erhalten können. Wir haben festgestellt, dass Bemühungen, selbst die am häufigsten bestellten Tests zu erhalten, oft durch eine übermäßig komplexe Nomenklatur zunichte gemacht werden. Die Bestellung der richtigen Labortests ist für die Diagnose und Behandlung von entscheidender Bedeutung, aber bestehende Mechanismen zur Eingabe von Laboraufträgen behindern aktiv die Bemühungen der Ärzte, eine gute klinische Versorgung zu gewährleisten. Anstatt Laboraufträge zu vereinfachen, hat das Aufkommen von computergestützten Systemen zur Eingabe von Arztaufträgen (CPOE) – die im Allgemeinen von Nicht-Kliniken programmiert werden – neue und ärgerliche praktische Probleme mit sich gebracht. Medizinische Laboratorien haben ihre Testmenüs, egal ob auf Papier oder elektronisch, mit verwirrenden Nomenklaturen und Abkürzungen gefüllt und haben die Gefahr nicht erkannt, verschiedenen Tests gefährlich ähnliche Namen zu geben. Die von der Quality-Care-Initiative geforderte effiziente und effiziente Patientenversorgung erfordert Fortschritte über traditionelle Lösungen, wie das Einberufen von Namenskonventionen, hin zur Entwicklung innovativer Software mit intelligenten, klinisch gesteuerten Echtzeit-Suchfunktionen, die es diesen Programmen ermöglichen, zu helfen, anstatt Ärzte behindern.;-;-;-;https://link.springer.com/article/10.1007/s11606-012-2253-8 c9f5de90298e6a9fba58811f6e00a894;de;;;4.2.;;;Auf dem Weg zu einer Geschichte des sozialwissenschaftlichen Publizierens in den Vereinigten Staaten Dieser Artikel geht auf das sozialwissenschaftliche Publizieren bis ins 18. Jahrhundert zurück und diskutiert die Rolle der Bundesregierung, kommerzieller Presse, gemeinnütziger Stiftungen, rassischer und ethnischer Verlagsgruppen, Fachgesellschaften und Universitätspresse. Die Beiträge einzelner Sozialwissenschaftler und Verleger werden ebenso berücksichtigt wie aktuelle Trends auf diesem Gebiet.;-;-;-;https://link.springer.com/article/10.1007/BF02678407 ca47d8037562df6338ddc9a4b9aa698e;de;;;4.2.;;;Über die Gesellschaft des Genoms: Analyse sozialer Zugehörigkeitsnetzwerke von Microarray-Daten Um die Struktur des genomischen Interaktionsnetzwerks zu untersuchen, das aus einem Datensatz des Hefegen-Expressions-Kompendiums mit Hunderten von systematischen Störungen aufgebaut wurde, wurden Methoden zur Analyse sozialer Zugehörigkeitsnetzwerke angewendet, indem verschiedene Dichte-, Nähe- und Zentralitätsmaße quantifiziert und Kern-Peripherie-Strukturen untersucht wurden. Es wurde festgestellt, dass Gene, die von einer größeren Anzahl von Störungen betroffen sind, an Reaktionen auf verschiedene Umweltherausforderungen beteiligt sind. Es wurde vorgeschlagen, dass die Deletion essentieller Gene dazu führt, dass eine größere Anzahl von Genen signifikant nach oben oder unten reguliert wird. Wir untersuchten die Netzwerkstruktur, die aus mehreren Teilnetzwerken besteht, unter Verwendung von Kern-Peripherie-Modellen, um alte Pfade zu finden. Glykolyse und TCA-Zyklus haben relativ zentrale Positionen in den energiebezogenen Prozessen der Hefe.;-;-;-;https://link.springer.com/chapter/10.1007/11881599_132 ab1703dd9be8810672423abc6c249d6e;de;;;4.2.;;;Ist Twitter eine öffentliche Sphäre für Online-Konflikte? Ein ideologischer und hierarchieübergreifender Blick Die zunehmende Popularität von Twitter hat zu einer Debatte über seinen Einfluss auf die öffentliche Meinung geführt. Die Optimisten sehen aufgrund des persönlichen und interaktiven Charakters der sozialen Medien eine Zunahme der Online-Beteiligung und Demokratisierung voraus. Cyber-Pessimisten hingegen erklären, wie soziale Medien zu einer selektiven Offenlegung führen und als Tarnung für die Machthaber verwendet werden können, um voreingenommene Informationen zu verbreiten. Um diese Debatte empirisch zu untersuchen, bewerten wir Twitter als öffentliche Sphäre anhand von vier Metriken: Gleichheit, Vielfalt, Gegenseitigkeit und Qualität. Anhand dieser Messungen analysieren wir die Kommunikationsmuster zwischen Individuen unterschiedlicher hierarchischer Ebenen und Ideologien. Wir tun dies im Kontext von drei unterschiedlichen Konflikten: Israel-Palästina, US-Demokraten-Republikaner und FC Barcelona-Real Madrid. In allen Fällen sammeln wir Daten rund um ein zentrales Paar von Twitter-Konten, die die beiden Hauptparteien repräsentieren. Unsere Ergebnisse zeigen quantitativ, dass Twitter kein idealer öffentlicher Raum für demokratische Gespräche ist und hierarchische Effekte mit ein Grund dafür sind, dass dies nicht der Fall ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13734-6_25 c0aa7ac537a8da752e65d1fddcac9347;de;;;4.2.;;;„Nichts als die Bibel predigen“: Gegen eine politische Kirche „Ich denke, die Kirche muss wieder nichts anderes als die Bibel predigen.“ Es war 1964 und Billy Graham war auf einer Pressekonferenz in Phoenix, Arizona, um seinen Kreuzzug dort bekannt zu machen. „Wir sind so in all diese sozialen Programme und Organisationen und politischen Druck involviert“, sagte er, „dass wir die Bibel [hinter] lassen… Ich habe das Gefühl, dass in diesem Land mit all unseren Problemen, wenn Prediger würden bleibe beim Evangelium und predige das Evangelium mit all seiner Kraft, die … die Welt auf den Kopf stellen könnte.“;-;-;-;https://link.springer.com/chapter/10.1007/978-1-137-05985-7_3 c1dd635c8e90a9dee3a3a7e3e5f89cd3;de;;;4.2.;;;Datenschutzbewusste, vertrauensbasierte Rekrutierung im Bereich Social Participatory Sensing Die Hauptidee hinter Social Participatory Sensing besteht darin, soziale Netzwerke als zugrunde liegende Infrastruktur zu nutzen, um soziale Freunde für die Teilnahme an einer Sensing-Kampagne zu gewinnen. Eine solche Anwerbung erfordert die Übermittlung von Nachrichten (d. h. Aufgaben und Beiträgen) zwischen dem Antragsteller und den Teilnehmern über Wege, die aus sozialen Links bestehen. Bei der Auswahl der Routen sollte das Einstellungsprogramm zwei grundlegende Faktoren berücksichtigen. Der erste Faktor ist die Vertrauenswürdigkeit einer Route, die ihre Zuverlässigkeit bewertet, um sicherzustellen, dass die Integrität der Nachricht erhalten bleibt. Der zweite Faktor ist die Vertraulichkeitsstufe der Route, die den Informationsverlust in Form der Offenlegung privater Informationen, die in der Nachricht enthalten sind, durch Zwischenknoten misst. Die beste Route ist die Route mit maximaler Glaubwürdigkeit, d. h. mit der höchsten Vertrauensbewertung und der geringsten Wahrscheinlichkeit einer Datenschutzverletzung. In diesem Papier schlagen wir einen die Privatsphäre wahrenden vertrauensbasierten Rekrutierungsrahmen vor, der darauf abzielt, den besten Weg vom Antragsteller zu den ausgewählten Teilnehmern zu finden. Wir schlagen vor, den Datenschutzwert einer Route zu quantifizieren, indem das Konzept der Entropie verwendet wird, um das Ausmaß der Datenschutzverletzung in jedem Zwischenknoten entlang der Route zu messen. Die Vertrauensbewertung der Route wird durch Multiplizieren der gegenseitigen Vertrauensraten aller Verbindungen entlang der Route erhalten. Simulationsergebnisse belegen die Wirksamkeit unseres Frameworks bei der Rekrutierung geeigneter Teilnehmer auf den sichersten und vertrauenswürdigsten Wegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11569-6_21 c8a90aca806aab23c9780d59bd392506;de;;;4.2.;;;Eine Methode zur Messung der Popularität von beliebten Events in sozialen Netzwerken mit Schwarmintelligenz Ein soziales Netzwerk ist eine Plattform für Benutzer, um Inhalte zu posten und weiterzuleiten, auf die sie achten. Durch die Messung der Popularität der Veranstaltung ist es also möglich, den sozialen Fokus auszugraben und den Entwicklungstrend der Veranstaltung vorherzusagen. Der Benutzer wird als Hauptkörper verwendet, um die Popularität zu messen, um den Interaktionsgraphen zu konstruieren, und der Indikator des Graphen weist eine Gradverteilungssequenz, einen Clusterkoeffizienten und einen Gradzentralität auf. Unter diesen zeigt die Benutzerverteilung der Gradverteilungssequenz des Interaktionsgraphen die Verteilung der „Machtgesetzverteilung“, und der durch die Gradverteilungssequenz eingeführte Machtindex kann die Verteilung des Teilnahmegrads des Benutzers an der populären Veranstaltung effektiv widerspiegeln. der Clustering-Koeffizient spiegelt die Agglomeration des Benutzers in der populären Veranstaltung wider, der Grad der Zentralität spiegelt die dominante Position des Benutzers wider, der an der populären Veranstaltung teilnimmt, die Anzahl der Benutzer spiegelt die Größe des durch die populäre Veranstaltung gebildeten Netzwerks wider. Der umfassende Indikator, der nach der Nichtdimensionalisierung und dem analytischen Hierarchieprozess dieser vier Indikatoren erhalten wird, kann die Popularität populärer Ereignisse umfassend und genau messen. Der umfassende Indikator zeigt, dass die beliebte Veranstaltung des „Ching-Ming-Festivals“ eher der tatsächlichen Situation im Tagesverlauf entspricht. Darüber hinaus ist das Popularitätsmaß empfindlicher und kann geringfügige Änderungen des beliebten Spots widerspiegeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-14680-1_68 914ecf494351bd46ef8db04e2d1ce624;de;;;4.2.;;;Ermittlung der wichtigsten Referenzen der sozialen Ökobilanz von Produkten Diese Literaturrecherche beginnt mit der Anerkennung der Bedeutung der sozialen Leistung nachhaltiger Produkte und dem SLCA-Ansatz als potenzielles Instrument zur Messung dieser Leistung. Das Ziel dieser Forschung ist es, die Bibliographien (Papiere und Autoren) zu analysieren, die als Grundlage für die Anwendung des SLCA-Konzepts in der Produktleistung angesehen werden könnten.;-;-;-;https://link.springer.com/article/10.1007/s11367-015-0873-z 0ab9172c2fef95aa8797ea1acfdd3a2c;de;;;4.2.;;;Rough setzt den theoretischen Ansatz für das Extenik-Risikobewertungsmodell für soziale Risiken Soziale Risiken in Großprojekten werden nach den Ergebnissen der Risikobewertung geordnet, und die Reihenfolge hilft bei der Vergabe der Ressourcenpriorität für die Hochrisikoereignisse. Die gängige Methode der Risikobewertung basiert meist auf der Wahrscheinlichkeit und den Folgen von Risikoereignissen, ignoriert jedoch deren Managementeigenschaften. Dieses Papier kombiniert die Theorie der groben Mengen und die Theorie der Extenik und baut dann das Risikobewertungsmodell der Extenik auf der Grundlage der Theorie der groben Mengen auf. Dieses Modell eliminiert einige wertlose Indikatoren und bewertet deren Gewichtung nach der Grobmengentheorie und berechnet die Risikograde durch Extenikbewertung. Im letzten Teil analysiert dieser Beitrag ein Flughafenbauprojekt, um die Praktikabilität und Wirksamkeit des Modells nachzuweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12436-0_36 0e9ac9a3c7d0e9ce68e2b2ba8995fc32;de;;;5.2.;;;Extrahieren von Multi-Wissen aus fMRT-Daten durch schwarmbasierte Grobsatzreduktion Mit der Entwicklung der Hirnforschung werden verschiedene neue Methoden und Techniken angewendet. Unaufhörlich wird eine Vielzahl von Daten der funktionellen Magnetresonanztomographie (fMRI) gesammelt, was sehr wichtige Informationen impliziert. Die nützlichen Informationen müssen extrahiert und in verständliches Wissen übersetzt werden, das erforderlich ist, um einige Methoden zu entwickeln, um sie effektiv und objektiv zu analysieren. In diesem Papier versuchen wir, Multi-Wissen aus fMRT-Daten mit einem groben Ansatz zu extrahieren. Wir stellen den Workflow und die Methoden der Datenvorverarbeitung vor. Es wird ein grober Ansatz zur Reduzierung der Menge basierend auf einem Partikelschwarm-Optimierungsalgorithmus vorgestellt, der die Merkmalskombinationen auf effiziente Weise erkennt, um die Änderung des positiven Bereichs zu beobachten, während die Partikel durch den Suchraum wandern. Der Ansatz unterstützt die Extraktion von Mehrfachwissen. Einige Ergebnisse illustrieren wir auch anhand unseres Ansatzes, der für die Kognitionsforschung hilfreich ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87656-4_35 1dd424a56e5bc082fd0145d7c5a174ad;de;;;4.2.;;;Über die Nutzung von Agententechnologie beim Design von Peer-to-Peer-Anwendungen Peer-to-Peer (P2P)-Architekturen weisen attraktive Eigenschaften für ein breites Spektrum realer Systeme auf. Infolgedessen werden sie zunehmend bei der Entwicklung von Anwendungen eingesetzt, die von der Dateifreigabe mit hoher Kapazität über verteiltes Computing auf globaler Ebene bis hin zu Business-Teamware reichen. Das Ziel dieses Papiers ist es, eine Reihe von Bereichen zu skizzieren, in denen Agententechniken für das Management von;-;-;-;https://link.springer.com/chapter/10.1007/11574781_9 d35066ae324872e1b3a0c148738c719a;de;;;4.2.;;;Ein unerträglicher Preis: Kriegsopfer und kriegerische Demokratien Die israelische Gesellschaft hat ihre Einstellung zum Opfer von Leben im Krieg geändert, ein Wandel, der sich im Trauerdiskurs widerspiegelt. Die Einstellung hat sich von der unbestrittenen Rechtfertigung militärischer Verluste vor dem Ersten Libanonkrieg (1982) hin zu einem Antikriegsdiskurs über Trauerfälle nach dem Krieg und während des darauf folgenden Abnutzungskriegs im Südlibanon verschoben. In jüngerer Zeit, nach der Al-Aqsa-Intifada und dem Zweiten Libanonkrieg (2006) ist ein Diskurs entstanden, der Verluste in Kauf nimmt. Während der Rückzug aus dem hegemonialen Diskurs vor dem Ersten Libanonkrieg durch die veränderte Einstellung zu militärischen Opfern unter den sozialen Eliten erklärt wird, vollzog sich letztere Verschiebung parallel mit der Veränderung der sozialen Zusammensetzung der israelischen Streitkräfte. Es wird argumentiert, dass die soziale Zusammensetzung des Militärs die Sensibilität für Verluste beeinflusst. Während säkulare Gruppen der oberen Mittelschicht tendenziell ein hohes Maß an Sensibilität für Kriegsverluste zeigen, die sie dann in einen subversiven Trauerdiskurs übersetzen, sind religiöse und periphere Gruppen mit einer hawkischen Agenda toleranter gegenüber militärischen Verlusten oder können alternativ versuchen, um übermäßige Verluste zu vermeiden, indem die Leistung des Militärs oder die Qualität der politischen Weisungen verbessert werden.;-;-;-;https://link.springer.com/article/10.1007/s10767-009-9048-x 72b75eab1f916192efd14bf89f646aa7;de;;;4.2.;;;Politikgestaltung im Zusammenhang mit dem Hepatitis-C-Virus im Iran: eine Analyse von Interessengruppen und sozialen Netzwerken Die Infektion mit dem Hepatitis-C-Virus (HCV) ist weltweit eine große Herausforderung für die öffentliche Gesundheit. Die Umsetzung von Strategien zur Bewältigung dieser Herausforderung erfordert das Engagement aller Beteiligten auf verschiedenen Ebenen, und alle erforderlichen Ressourcen sollten mobilisiert werden. Die Unterstützung verschiedener HCV-bezogener Interessengruppen kann die Herausforderungen und Hindernisse verringern, die bei der Programmumsetzung auftreten können. Die vorliegende Studie zielt darauf ab, alle an der HCV-bezogenen Politikgestaltung im Iran beteiligten Akteure in verschiedenen Schritten (Politikentwicklung, -implementierung und -evaluierung) zu identifizieren und in Bezug auf Interesse, Position, Macht und Einfluss zu charakterisieren, um wertvolle Informationen zu liefern für entsprechende Entscheidungen und Gestaltung. Die vorliegende Studie kann auch als Fallstudie für Gesundheitssysteme in anderen Ländern dienen.;-;-;-;https://link.springer.com/article/10.1186/s12961-019-0442-1 a89ce3669824bab736c6cdc09b195327;de;;;5.2.;;;Untersuchung der Nachfrage nach Gesundheitsinformationsdiensten auf dem Campus Ziel: Förderung der Bereitstellung von Gesundheitsinformationsdiensten auf dem Campus für College-Studenten durch Durchführung einer Umfrage, in der die Einstellungen und Wahrnehmungen von College-Studenten gegenüber Gesundheitsinformationsdiensten auf dem Campus untersucht werden. Methoden: Der Fragebogen wurde von 523 College-Studenten per Internet, E-Mail und persönlichem Interview ausgefüllt. Ergebnisse: 34,4 % der Umfrageteilnehmer nutzten das Internet als wichtiges Instrument zur Suche nach Gesundheitsinformationen und 83,7 % gaben an, dass es hilfreich ist. Nur 5,9 % gaben an, einen Gesundheitsinformationsdienst (KIS) von studentischen Gesundheitszentren auf dem Campus zu erhalten, und nur 11,1 % waren zufrieden. Schlussfolgerungen: Das HIS auf dem Campus hinkt den aktuellen Einstellungen und Anforderungen von Universitätsstudenten hinterher. Obwohl viele Studierende HIS über das Internet beziehen können, ist ihr Wissen über Gesundheitsinformationen noch begrenzt. Da die meisten Studenten mit dem HIS auf dem Campus nicht zufrieden sind, ist es notwendig, den College-Studenten ein effektives und vertrauliches HIS auf dem Campus durch die Studentengesundheit auf dem Campus zur Verfügung zu stellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_61 ad392d885f0745dc677e07537a3457b4;de;;;4.2.;;;Sozialer Status und die Forderung nach Sicherheit und Privatsphäre Entscheidungsträger mit hohem Status sind oft in der Lage, Entscheidungen mit Sicherheits- und Datenschutzrelevanz nicht nur für sich selbst, sondern auch für Gruppen oder sogar die Gesellschaft insgesamt zu treffen. Entscheidungen über Investitionen in Sicherheitstechnologie, Anti-Terror-Aktivitäten und innere Sicherheit prägen beispielsweise das Gleichgewicht zwischen Sicherheit und Privatsphäre. Es ist jedoch unklar, inwieweit die Masse der Individuen die gleichen Bedenken hat wie Personen mit hohem Status. Insbesondere ist in der wissenschaftlichen Literatur unerforscht, ob die Statusposition einer Person die Sicherheits- und Datenschutzbedenken beeinflusst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08506-7_5 c1d5d31c66ab1111b09a42cff3de4c51;de;;;4.2.;;;„Hunkies“, „Gasbags“ und „Reds“: The Construction and Deconstruction of Hegemonic Maskulinities in In den späten 1960er Jahren leitete John Sinclair die radikale Proto-Punk-Band MC5. Sie waren militante Kommunisten und teilten sich das Trans-Love-Haus in Michigan. Aber in ihrer Kommune war die Ausbeutung offensichtlich. Kathy Asheton erinnert sich: „John Sinclair war ein Schwein … [MC5] waren wirklich chauvinistisch … Ich war nicht freundlich mit den Mädchen bei Trans-Love … sie würden alle auf den Knien liegen und den Boden schrubben“ (McNeil und McCain 1996: 46–7). Diese Blindheit gegenüber einer Ausbeutung, die auf geschlechtsspezifischer Unterdrückung beruht, charakterisierte einen Großteil der männlich dominierten Linken im 20. Jahrhundert und trug dazu bei, eine lange Geschichte der Feindseligkeit zwischen Feministinnen und von Männern dominierten sozialen Bewegungen zu schüren. In diesem Kapitel untersuche ich die Konturen dieser Feindseligkeit anhand von zwei kulturellen Artefakten, den Filmen;-;-;-;https://link.springer.com/chapter/10.1057/9780230246997_11 812faffcc7e34c7d874f54995986663b;de;;;4.2.;;;Eine Studie zu den Vorgeschichten und Konsequenzen des Hilfsverhaltens der Mitglieder in der Online-Community Trotz der wachsenden Popularität von Online-Communitys gibt es eine große Kluft zwischen Praktikern und Akademikern, wie Informationen und Wissen zwischen den Mitgliedern dieser Gruppen ausgetauscht werden können. Keine der bisherigen Studien hat diese Variablen jedoch in einen umfassenderen Rahmen integriert. Daher sind weitere Validierungen erforderlich. Ziel dieser Arbeit ist es, ein theoretisches Modell zu entwickeln, das es uns ermöglicht, die Vorläufer und Folgen des Hilfsverhaltens von Mitgliedern in Online-Communitys zu untersuchen. Bewertet werden auch die moderierenden Effekte des Gemeinschaftsgefühls auf die Beziehungen zwischen dem Hilfsverhalten der Mitglieder beim Informationsaustausch und beim Wissensbeitrag. Ein vollständiges Modell wird für empirische Tests entwickelt. Anhand von Yahoo-Mitgliedern als Stichproben dieser Studie legten die empirischen Ergebnisse nahe, dass das Hilfsverhalten der Mitglieder von Online-Communitys einen großen Fundus an Produkt-Know-how darstellt. Sie scheinen eine vielversprechende Quelle für Innovationsfähigkeiten für die Entwicklung neuer Produkte zu sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00405-6_20 e885877565ae6077badeb8e9e3d4b7b5;de;;;4.2.;;;Aktivisten zwischen „Apartheid-Mauer“ und „Trennungszaun“ eingequetscht oder anderthalb Jahre, zwischen 2004 und 2005, habe ich Basisaktivitäten in Israel und den besetzten palästinensischen Gebieten studiert, die sich gegen den Bau einer Trennmauer (oder der „Apartheid-Mauer“, wie einige der Gruppen die Barriere nannten) zwischen Israel und das Westjordanland (Feinstein 2006). Eine der prominenteren Gruppen bei Demonstrationen entlang der Barriere waren Anarchisten gegen die Mauer (AATW).;-;-;-;https://link.springer.com/chapter/10.1057/9780230621749_6 885456918f585b2ad2e7bbbf4085bf50;de;;;4.2.;;;Prävention von Schizophrenie und psychotischem Verhalten In diesem Kapitel bieten wir einen Rahmen für die Gestaltung von Primär- und Früherkennungsprogrammen (Sekundärprävention) für Schizophrenie und andere psychotische Störungen. Wir zeigen auch, wie eine Reihe von alternativen Ansätzen angewendet werden können, um das Ziel einer Verringerung der Inzidenz von Schizophrenie zu erreichen. Die Ansätze eines breit angelegten bevölkerungsbezogenen vs. gezielteren Präventionsprogramms für Schizophrenie werden nach aktuellem Kenntnisstand gegenübergestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-59259-729-1_12 d6c8747f0a2ea50fd00b9498fa80b661;de;;;5.2.;;;"""Form folgt Funktion""? Beliebter islamischer Diskurs in Malaysia In den folgenden Absätzen möchte ich mich mit dem Thema des öffentlichen und/oder populären islamischen Diskurses in Malaysia befassen und dabei betonen, dass es nicht wirklich angebracht ist, vom islamischen Diskurs zu sprechen. Denn weder gibt es ein gemeinsames Verständnis für jedes Thema, das unter malaysischen Muslimen öffentlich diskutiert wird, noch lässt sich leugnen, dass der Islamdiskurs in Malaysia aus Äußerungen und Meinungen sehr unterschiedlicher Akteursgruppen besteht und somit die Pluralität des muslimischen Lebens in diesem Land.";-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-80796-0_6 6cb1ee9bde04d9208616a12efea26ed1;de;;;5.2.;;;Metallbindung an Pyridoxalderivate. Eine NMR-Studie zur Wechselwirkung von Eu(III) mit Pyridoxalphosphat und Pyridoxaminphosphat Die Lösungskonformationen von Pyridoxal-5'-Phosphat und Pyridoxamin-5'-Phosphat wurden unter Verwendung von Eu(III) als kernmagnetische Resonanz-Shift-Sonde untersucht. Die Bindung von Eu(III) an Pyridoxalphosphat führt zur Bildung von zwei Komplexen, an der Phosphatgruppe und der;-;-;-;https://link.springer.com/article/10.1007/BF02702885 f0622d4c35a192bda7fc9faf0e8e97ce;de;;;5.2.;;;Bewusste Praxis in der Medizin: Die Motivation zum arbeitsbezogenen Lernen und ihr Beitrag zur Expertise Diese Studie untersuchte die Motivation von Ärzten für arbeitsbezogenes Lernen und ihren Beitrag zur Kompetenzentwicklung über die Berufserfahrung hinaus. Basierend auf der Theorie der bewussten Praxis wurden mit 17 Assistenzärzten und 28 erfahrenen Ärzten der Inneren Medizin teilstrukturierte Interviews geführt, die sich auf die Aktivitäten konzentrierten, die diese während der Arbeit zur beruflichen Entwicklung beitragen könnten, und die diesem Verhalten zugrunde liegenden Ziele. Die Lernmotivation wurde auch mit einem Zielorientierungsfragebogen gemessen. Die Expertise wurde durch einen Falltest gemessen, der aus dem Medical Knowledge Self Assessment Program (MKSAP) abgeleitet wurde. Die Interviews zeigten, dass das Lernen der Teilnehmer weitgehend in den Arbeitsalltag eingebettet war und die meisten ihrer Lernaktivitäten berufsimmanent waren und nicht durch Kompetenzverbesserungsziele motiviert waren. Die Probleme in der Patientenversorgung spielten eine Schlüsselrolle bei der Anregung des Lernens. Rolle, Berufserfahrung und Arbeitssituation beeinflussten die Art der ausgeübten Tätigkeiten sowie die Intensität der Praxis. Bewusstes Engagement in arbeitsbezogenen Lernaktivitäten war weder mit Zielorientierungen noch mit Falltestleistungen verbunden, mit Ausnahme von Aktivitäten der erfahrenen Ärzte, um auf dem Laufenden zu bleiben. Die Arbeitserfahrung zeigte dagegen einen deutlich positiven Zusammenhang mit der Leistung der Bewohner. Aus dieser Studie lassen sich zwei wesentliche Schlussfolgerungen ziehen: (1) Patientenversorgung induzierte relevante Lernaktivitäten mit dem Ziel einer Leistungssteigerung um des Patienten willen, (2) bewusste Investitionen in das Lernen können verstärkt werden, um die Kompetenzentwicklung zu fördern. Das selbstgesteuerte Lernen von Ärzten muss gestärkt und die Organisation, für die sie arbeiten, das Lernen in der täglichen Praxis erleichtern und fördern.;-;-;-;https://link.springer.com/article/10.1007/s12186-012-9085-x 015a27ccd23c540464410f2329502831;de;;;5.2.;;;Toleranzinformationsgranulate In diesem Papier diskutieren wir Toleranzinformations-Granulatsysteme. Wir präsentieren Beispiele von Informationsgranulaten und betrachten zwei Arten von grundlegenden Beziehungen zwischen ihnen, nämlich Inklusion und Nähe. Die Beziehungen zwischen komplexeren Informationsgranulaten können durch Erweiterung der Beziehungen definiert werden, die auf Teilen von Informationsgranulaten definiert sind. In vielen Anwendungsbereichen rund um die Wissensentdeckung in Datenbanken besteht ein Bedarf an algorithmischen Verfahren, die es ermöglichen, relevante Informationsgranulate zu entdecken. Beispiele für SQL-Implementierungen der diskutierten Algorithmen sind enthalten.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-32370-8_23 122dc96bcbf84ba0488538bf41f8c30e;de;;;5.2.;;;Fireworks: ein intelligenter Standortermittlungsalgorithmus für Fahrzeug-Ad-hoc-Netzwerke Das Suchen und Auffinden eines bestimmten Ziels in einem Fahrzeug-Ad-hoc-Netzwerk (VANET) sind grundlegende Themen, um Routing und Datenverbreitung bei hoher Mobilität und fehlender fester Infrastruktur sicherzustellen. Eine naive Flooding-Suche ist jedoch zu teuer und beansprucht eine beträchtliche Menge an wertvoller Bandbreite im Netzwerk. Um dies zu überwinden, können GPS-Informationen der Fahrzeuge genutzt werden, die die Suche und das Routing in VANETs unterstützen können. In diesem Artikel stellen wir einen neuartigen positionsbasierten Suchalgorithmus – Fireworks genannt – vor, der als Standortermittlungsalgorithmus in VANETs verwendet werden kann. Das vorgeschlagene Schema ist rein reaktiv und verwendet nur begrenzt Beacons. Der Fireworks-Algorithmus liefert die Position des Zielfahrzeugs, ohne über eine Standortinformationssystem-Infrastruktur oder einen proaktiven Mechanismus zu verfügen. Wir zeigen, dass die Methode effizient und zuverlässig ist, während der Suchaufwand stark reduziert wird. Die Simulationen zeigen, dass der Algorithmus mit weniger als einem Fünftel der Broadcast-Nachrichten und mit weniger als einem Drittel des Dynamic Source Routing (DSR) so viele Knoten wie Naive-Flooding abdeckt. Es schneidet auch in Bezug auf die Gesamtzahl der Broadcast-Nachrichten, die Knotenabdeckungsgeschwindigkeit und die Abfrageerfolgsrate besser als das Acknowledgement-Based Broadcast Protocol (ABSM) ab.;-;-;-;https://link.springer.com/article/10.1007/s11276-016-1410-0 8a24c55b7b9ca028b2629279fec317a3;de;;;5.2.;;;Fuzzy-Mitgliedschaftsskalierungsmechanismen für das Verhalten mobiler Roboter Unscharfes Verhalten wird häufig in reaktiven Navigationsstrategien für mobile Roboter verwendet, bei denen sensorische Informationen entweder unsicher oder unvollständig sind. Die Komplexität solcher Controller wächst jedoch in der Regel exponentiell mit der Anzahl der Fuzzy-Eingabepartitionen und Regeln in der Regelbasis. Darüber hinaus werden Versuche, die Anzahl der Eingabepartitionen zu reduzieren, typischerweise die Leistung der Controller untergraben. Diese Arbeit untersucht verschiedene Skalierungsmechanismen für Mitgliedschaftsfunktionen als einen Weg zur Verbesserung der Leistung von Fuzzy-Verhalten basierend auf minimalen Regelbasis-Controllern. Die Konfigurationen basieren auf den eng verwandten Konzepten der linguistischen Hedges und der nichtlinearen Skalierung. Die Skalierungsparameter für das Zielsuch- und Hindernisvermeidungsverhalten werden in der Simulation über einen genetischen Algorithmusoptimierungsprozess abgestimmt. Die Ergebnisse zeigen, dass die auf der Skalierung der Eingangsmitgliedschaftsfunktion basierende Controllerkonfiguration einfache Fuzzy-Logic-Controller mit der gleichen Anzahl von Fuzzy-Eingangspartitionen und -regeln durchweg übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35197-6_7 21dcc335c0abdceb67531a1d19f7fdca;de;;;4.2.;;;Kennzeichnung von Akteuren in sozialen Netzwerken mit einem heterogenen Graphkern Wir betrachten das Problem der Kennzeichnung von Akteuren in sozialen Netzwerken, bei denen die Kennzeichnungen der Zugehörigkeit zu bestimmten Interessengruppen oder anderen Attributen der Akteure entsprechen. Akteure in einem sozialen Netzwerk sind nicht nur mit anderen Akteuren verknüpft, sondern auch mit Elementen (z. B. Video und Foto), die wiederum mit anderen Elementen oder Akteuren verknüpft werden können. Bei einem sozialen Netzwerk, in dem nur einige der Akteure gekennzeichnet sind, besteht unser Ziel darin, die Etiketten der verbleibenden Akteure vorherzusagen. Wir stellen eine Variante des Random-Walk-Graph-Kernels vor, um mit der heterogenen Natur des Netzwerks umzugehen (d. h. das Vorhandensein einer großen Anzahl von Knoten- und Verbindungstypen). Wir zeigen, dass der resultierende heterogene Graphkernel (HGK) verwendet werden kann, um genaue Klassifikatoren zur Kennzeichnung von Akteuren in sozialen Netzwerken zu erstellen. Konkret beschreiben wir Ergebnisse von Experimenten an zwei realen Datensätzen, die zeigen, dass HGK-Klassifikatoren die modernsten Methoden zur Kennzeichnung von Akteuren in sozialen Netzwerken oft deutlich übertreffen oder mit ihnen konkurrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-05579-4_4 f14b9b42fb6f9285bf236bbef672f373;de;;;4.2.;;;Ein Maß für die Fähigkeit, Emotionen im Tonfall von Kindern zu erkennen Dieser Beitrag stellt einen Test der Fähigkeit vor, Emotionen unterschiedlicher Intensität in den Stimmen von Kindern zu entschlüsseln. Der Aufbau der Maßnahme, der Diagnostic Analysis of Nonverbal Accuracy Child Paralanguage (DANVA2-CP), wird beschrieben. Eine erste Studie mit Kindern im Grundschulalter ergab, dass die Genauigkeitsbewertungen mit dem Alter zunahmen, intern konsistent waren und erwartungsgemäß mit Indizes für Persönlichkeit und soziale Kompetenz korrelierten. Daten aus 20 weiteren Studien mit Teilnehmern aus allen Altersgruppen lieferten weitere Hinweise auf die Konstruktvalidität des DANVA2-CP. Basierend auf den Ergebnissen wurde der Schluss gezogen, dass der DANVA2-CP ein geeignetes Maß für die Fähigkeit zur Identifizierung von Emotionen in paralinguistischen Präsentationen von Kindern sein kann.;-;-;-;https://link.springer.com/article/10.1023/B%3AJONB.0000023653.13943.31 933c26f7f23bc028eccc8bd3a91f1819;de;;;5.2.;;;Notwendige und hinreichende Bedingungen an Informationen zur kausalen Nachrichtenordnung und deren optimale Umsetzung In diesem Papier werden notwendige und hinreichende Bedingungen an die Informationen formuliert, die zur Durchsetzung der kausalen Ordnung in einem verteilten System mit asynchroner Kommunikation erforderlich sind. Das Papier präsentiert dann einen Algorithmus zum Erzwingen einer kausalen Nachrichtenreihenfolge. Der Algorithmus ermöglicht, dass ein Prozess an beliebige und sich dynamisch ändernde Prozessgruppen per Multicast gesendet wird. Wir zeigen, dass der Algorithmus in der Raumkomplexität des Overheads von Steuerinformationen sowohl in Nachrichten als auch in Nachrichtenprotokollen optimal ist. Der Algorithmus erreicht Optimalität durch Übertragen der minimalen kausalen Abhängigkeitsinformationen, die durch die Notwendigkeitsbedingungen spezifiziert sind, und Verwenden eines Codierungsschemas, um diese Informationen darzustellen und zu übertragen. Wir zeigen, dass die Raumkomplexität der kausalen 0-Nachricht-Ordnung in einem asynchronen System im Allgemeinen;-;-;-;https://link.springer.com/article/10.1007/s004460050044 5579f48ad066d489b083ecab99a6aac5;de;;;5.2.;;;Behebung operativer Probleme bei Fluggesellschaften – ein Ansatz mit spezialisierten Methoden Das Störungsmanagement ist aufgrund der damit verbundenen erhöhten Kosten eines der wichtigsten Planungsprobleme in der Luftfahrtindustrie, jedoch ist dies ein relativ neues Forschungsgebiet im Vergleich zum Beispiel mit Flotten- und Tail-Zuteilung. Das Hauptziel bei der Lösung dieses Problems besteht darin, eine praktikable Lösung für die Fluggesellschaft zu finden, die die verschiedenen damit verbundenen Kosten minimiert und innerhalb der Zeitbeschränkungen liegt. Ein Ansatz zur Lösung von Betriebsproblemen, die Störungen verursachen, wird vorgestellt, indem verschiedene spezialisierte Methoden für die Probleme mit Flugzeugen und Besatzungsmitgliedern verwendet werden, einschließlich Fluggraphen basierend auf meta-heuristischen Optimierungsalgorithmen. Diese Ansätze wurden entwickelt, um auf ein Multi-Agenten-System mit spezialisierten Agenten zu passen, die Störungen beheben. Eine vergleichende Analyse der Algorithmen wird ebenfalls vorgestellt. Anhand eines vollständigen Monats-Realdatensatzes demonstrieren wir ein Beispiel, wie das System mit Störungsereignissen umgegangen ist. Die resultierende Anwendung ist in der Lage, Störungsereignisse zu lösen, die Kosten optimiert und betriebliche Einschränkungen respektiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24769-9_7 92ff81a5060b1063438ba5686acfb85c;de;;;5.2.;;;Beziehung zwischen dem reflektierenden Denken studentischer Designer und ihrer Designleistung in einem Bioingenieurprojekt: Untersuchung von Reflexionsmustern zwischen High- und Low-Performern Das Ziel dieser Studie ist es, den Zusammenhang zwischen den Mustern des reflektierenden Denkens der Schüler und ihrer Leistung bei der Lösung von Designproblemen zu untersuchen. Reflektierendes Denken ist ein entscheidendes Element bei der Lösung schlecht definierter Designprobleme. Viele Pädagogen sind bestrebt, Wege zu finden, um die Reflexion der Schüler zu fördern. Dennoch versuchen nur wenige empirische Studien, die Beziehung zwischen reflexivem Denken und Designleistung zu untersuchen. An dieser Studie nahmen 44 Studenten teil, die in einem Kurs für biomedizinische mikroelektromechanische Systeme und medizinische Geräte eingeschrieben waren. Durch einen selbstevaluierten Fragebogen wurden die Reflexionsmuster der Schüler in drei Bereichen erhoben: Zeitpunkt der Reflexion, Reflexionsobjekte und Reflexionsebenen. Außerdem wurden die Leistungspunkte der Schüler in ihrem Teamprojekt im Bereich des Designs biomedizinischer Geräte gesammelt. Die Ergebnisse zeigten ein allgemeines Muster des Reflexionsverhaltens von Designer-Studenten und eine Reihe signifikanter unterschiedlicher Reflexionsmuster zwischen leistungsstarken und leistungsschwachen Studenten, wenn sie sich einer Entwurfsproblemlösungsaufgabe näherten. Es wurden Implikationen für die Unterstützung des reflektierenden Denkens der Studierenden und die Verbesserung ihrer Problemlösungsfähigkeiten bei Entwurfsaufgaben diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s11423-018-9618-6 53ef757b6237ce48df00661c331697b5;de;;;5.2.;;;Forschung zum Wahrnehmungsgesetz künstlicher Ameisen Ausgehend von der Analyse des Verhaltens natürlicher Ameisen beleuchtet dieser Beitrag das Prinzip und die Methode, dass künstliche Ameisen durch die Aufnahme von Bildtexturenergie als Pheromon und das Finden des Pheromons die Fähigkeit haben, durch ähnliche Messungen zu identifizieren und sich zu erinnern von Pheromon. Basierend auf der Menge der Experimente analysiert dieser Beitrag einige Faktoren, die die Fähigkeit von künstlichen Ameisen beeinflussen und zieht einige Schlussfolgerungen über das Gesetz der Ameisenwahrnehmung.;-;-;-;https://link.springer.com/article/10.1007/BF02826813 3462147621ad6a2b1b387ad62edd6032;de;;;4.2.;;;Ein multiperspektivischer Diskurs über die Nachhaltigkeit der Koproduktion von Wasser- und Sanitärdienstleistungen in Global South Cities Der Artikel trägt zur Debatte über die nachhaltige Bereitstellung von Wasserversorgungs- und Sanitärversorgungsdiensten (WSS) in Städten des Globalen Südens bei, indem er ein umfassendes Verständnis des Konzepts der Nachhaltigkeit entwickelt, wenn es auf die Analyse der WSS-Koproduktion in diesen Kontexten angewendet wird. Die Studie geht von der Hypothese aus, dass eine integrierte Konzeptualisierung der WSS-Koproduktion eine Neudiskussion von Bewertungsansätzen erfordert, um die Nachhaltigkeit dieser unorthodoxen Formen der Leistungserbringung zu hinterfragen. Zu diesem Zweck untersucht die Studie Schlüsseldimensionen der Nachhaltigkeit von Dienstleistungen durch eine komplementäre Lesart der Prozesse und Ergebnisse von WSS-Koproduktionspraktiken auf der Grundlage von drei theoretischen Perspektiven: einer Governance-institutionellen, einer sozial/politisch-ökologischen und einer inkrementellen -Urban. Ziel ist es, eine Reihe von Prinzipien und Kriterien zu formulieren, die für die Bewertung der Nachhaltigkeit der Koproduktion von WSS-Diensten in Städten des Globalen Südens relevant sind. Die Analyse basiert auf einer systematischen Überprüfung übergreifender Literatur zu Dienstleistungskoproduktion im Globalen Süden, nachhaltigem urbanen Wassermanagement und Stadtstudien. Die Überprüfung ist mit empirischen Erkenntnissen aus vier Stadt-Fallstudien zur WSS-Koproduktion im Globalen Süden integriert, nämlich Hanoi (Vietnam), Addis Abeba (Äthiopien), Cochabamba (Bolivien) und Dar es Salaam (Tansania).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-50540-0_4 1d2d5850c322cc582fc1837a2345c2da;de;;;4.2.;;;Schwer werden ie „Störung“ dessen, was Digital Humanities (DH) als antiquierte Methoden der Literaturanalyse wahrnimmt (oder Projekte), das überhöhte Gefühl der Aktualität ihres Vorrechts, das der allgemeinen Funktion des populären Ansatzes gemein ist, hat nicht nur einen Hauch von Verzweiflung, sondern auch von Unaufrichtigkeit darüber. Abgesehen von seinem bedeutenden kreativen Potenzial neigt es dazu, sich in dieser Ära der relativen Bedeutungen und wegwerfbaren Helden als modernste oder sogar die größte Höhe der Methodik zu tarnen. Wie die typische Kompositions- und Rhetorik/Freshman-Englisch-Agenda, mit der DH aufgrund seiner Hervorhebung der Technologie über die kritische Tiefe eng verbunden ist, ist es im schlimmsten Fall nur ein Kampf, Relevanz zu generieren und zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1057/9781137548771_7 207c806eea657a497fb3b4e53dfe6438;de;;;4.2.;;;Beherrschendes Umfeld Eine der größten Ironien der Stadtverwaltung und ihres Strebens nach einem partizipativen Charakter besteht darin, dass die Grundlagen der demokratischen Staatsführung, die Nationen weltweit übernommen haben, auf die Experimente und Innovationen des Stadtmanagements in antiken Städten zurückgehen weiterhin nach Antworten darauf suchen, wie Städte verwaltet werden müssen.;-;-;-;https://link.springer.com/chapter/10.1057/9781137339751_7 c67e06d6ff811de3883960e0b208dc3f;de;;;4.2.;;;Ein integriertes Modell zur Überwachung und Bewertung von projektbasiertem Web 2.0-Lernen Dieses Papier präsentiert ein integriertes Modell zur Überwachung und Bewertung von Web 2.0-Projekt-basiertem Lernen durch seine Anwendung in einer realen Hochschulumgebung. Die Bildung von Gemeinschaften im Klassenzimmer ist die traditionelle Methode, um Schüler einzubeziehen. Die Web 2.0-Technologien verändern die Art und Weise, wie Lerngemeinschaften interagieren. Wir haben eine Social Computing-Umgebung entwickelt, um eine Gemeinschaft von Studenten aus Marokko, Tunesien, Ägypten und Jordanien zu unterstützen, die an einem internationalen Masterprogramm teilnehmen. Diese Studie legt nahe, dass Web 2.0-Tools in ein Modell integriert werden können, um die Lerneffektivität in Bezug auf die Zufriedenheit der Lernenden, die Wissensbildung und die Lernleistung zu bewerten. Vorläufige Ergebnisse deuten darauf hin, dass die Social Computing-Umgebung den Studierenden dabei half, besser mit Gleichaltrigen, Tutoren und Vorgesetzten des Unternehmens zusammenzuarbeiten, und auch eine Umgebung bot, in der die Lernbewertungsphase viel einfacher durchgeführt werden könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04754-1_6 d8da941ff9014e70c912ecdb3d3d864b;de;;;5.2.;;;Lernen Sie Ihr Forschungsteam kennen: Ein Smartphone- und Sirius-XM-Radio-Konto – zugängliche und zeitnahe Finanzinformationen für vielbeschäftigte Frauen Wenn Sie so viel Zeit Ihres Lebens im Pendeln, in Fahrgemeinschaften oder am Flughafen verbringen wie ich, haben Sie gerade einen Zeitblock entdeckt, in dem Sie Anlagerecherchen betreiben können. Neben der Abgabe- und Abhollinie der Schule loggte ich mich stundenlang beim Warten auf verspätete Flüge, in den Check-out-Linien und bei Fußball- und Baseballspielen ein. Der Football-Neuling-Trainer meines Sohnes hielt die Jungs routinemäßig eine Stunde nach der Abholung fest, und das einzige, was mich davon abhielt, ein eklatantes persönliches Foul zu begehen, war ein Stapel;-;-;-;https://link.springer.com/chapter/10.1057/9781137403353_7 e1bbfcbd289948c7117f31a3df3cee96;de;;;4.2.;;;Informationsgesellschaft und griechische Gesellschaft: Soziokulturelle und politische Inkompatibilitäten Der Begriff Informationsgesellschaft wird sowohl im Bereich der Technowissenschaften als auch in Politik, Kulturwissenschaft, Journalismus und öffentlichen Diskussionen verwendet, dennoch stellt sich die Frage: Ist der Begriff aus wissenschaftlicher Sicht relevant oder aus politischer Sicht akzeptabel? und soziokulturelle Perspektiven aller modernen Gesellschaften?Die Frage ist nicht nur wissenschaftlich interessant, sondern auch von unmittelbarer praktischer Bedeutung, da die konzeptionelle Genauigkeit und das Studium ihrer gesellschaftlichen Wahrnehmung für erfolgreiches, kollektives und organisiertes Handeln unabdingbar ist. Aus gesellschaftlicher Sicht verkörpern die Technologien der Informations- und Telekommunikation exemplarisch den kulturellen Megaprozess und den politischen Megawandel heutiger Gesellschaften. Während es immer mehr akzeptiert wird, dass die Essenz der neuen Technologien nicht technologisch ist, hängt das Schicksal der neuen Informationstechnologien mit der Zukunft vieler anderer Institutionen und der Beschwörung mehrerer Quellen zusammen. Die Etablierung und Zusammensetzung des oben erwähnten Ausdrucks führt zu der Hypothese, dass der Begriff Informationsgesellschaft mit größter Sorgfalt verwendet werden sollte, vorausgesetzt natürlich, dass seine Konnotation erkannt wird. Im Falle der griechischen Gesellschaft liegen bestimmte Bedingungen und Umstände noch nicht vor, die die Verwendung des Begriffs/Ausdrucks Informationsgesellschaft ziemlich dysfunktional machen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35327-2_12 30386fc0365b8fc8606a51f3568197f5;de;;;4.2.;;;Vorläufer der Zufriedenheit und des Engagements des kohlenstoffarmen Fahrrad-Sharings in China Der Verkehrssektor trug in China zu zahlreichen CO2-Emissionen bei. Es ist wichtig, das kohlenstoffarme Fahrrad-Sharing in China zu fördern. Ziel dieses Beitrags ist es, die Einflussfaktoren der Zufriedenheit und des Engagements des Fahrrad-Sharings in China zu analysieren. Es wird ein erweitertes Modell der Kundenzufriedenheit etabliert, das sowohl die Theorie der Kundenzufriedenheit als auch die Theorie der Kundenbindung berücksichtigt. Wir untersuchen die unterschiedlichen Auswirkungen von Komfort, Gesundheit, Sicherheit und Ausstattung auf die Zufriedenheit beim Fahrrad-Sharing. Wir untersuchen auch die Rolle der Zufriedenheit in drei verschiedenen Dimensionen des Engagements: Enthusiasmus, Partizipation und soziale Interaktion. Ein Multigruppen-Strukturgleichungsmodell wird verwendet, um die verschiedenen Rollen des Geschlechts auf die Determinanten der Zufriedenheit und des Engagements beim Fahrradfahren zu untersuchen. Die Ergebnisse zeigen, dass Einrichtungen einen größeren Einfluss auf die Zufriedenheit der Fahrrad-Sharing-Nutzung hatten als Sicherheit und Gesundheit für Männer. Sicherheit hatte den größten Einfluss auf die Zufriedenheit mit dem Fahrrad-Sharing bei Frauen, gefolgt von Ausstattung, Bequemlichkeit und Gesundheit.;-;-;-;https://link.springer.com/article/10.1007/s11356-019-04231-0 f1c7c3dcdf934eb9fc261f5c7be6305d;de;;;5.2.;;;Einbeziehung der Risikoeinstellung in das wiederholte Gefangenendilemma: Anwendung auf E-Business Das Zeitalter des E-Business hat neue Möglichkeiten für die Zusammenarbeit zwischen Unternehmen eröffnet. In diesem Artikel wird das iterierte Gefangenendilemma (IPD) untersucht, das umfassend untersucht wurde, um zu verstehen, wie kooperatives Verhalten unter nicht verwandten Personen überleben kann, wenn selbstsüchtige Handlungen kurzfristig bessere Ergebnisse erzielen können, indem die Risikoeinstellungen der Spieler berücksichtigt werden. Das Risiko einer IPD-Interaktion wird als Standardabweichung der einmaligen Auszahlung definiert. Ein koevolutionäres Modell mit zwei Populationen wird genutzt, um die IPD-Spiele mit zwei Spielern mit entweder identischen oder unterschiedlichen Risikoeinstellungen zu simulieren. Die Ergebnisse zeigen, dass sowohl risikoscheue als auch gewinnorientierte Spieler in geräuschlosen und geräuscharmen Umgebungen gut mit ihren Gegnern kooperieren können. In lärmintensiven Umgebungen schneiden jedoch risikoscheue Spieler besser ab als die gewinnorientierten Spieler. In Bezug auf die Bedeutung des Managements im Bereich der E-Business-Ökonomie zeigen unsere Ergebnisse, dass Unternehmen im Wettbewerb langfristige Beziehungen zueinander schätzen sollten, um sich an den sich schnell verändernden Markt anzupassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34447-3_18 191849a258560c38f0691b63df150f32;de;;;5.2.;;;Leitung von akademischen Ausschüssen Das akademische Leben beinhaltet die Mitarbeit in Gremien: Mitgliedschaft in Gremien, Vorsitz in Gremien und für Verwaltungsräte, Entscheidung über Einsatz und Besetzung von Gremien. Fakultätsmitglieder an großen öffentlichen und privaten Universitäten geben an, dass sie im Durchschnitt 17 % ihrer beruflichen Zeit in Gremien und Verwaltungsarbeiten verbringen (1). Die Reaktion der Fakultätsmitglieder auf diese Aktivität ist einheitlich: Sie finden es langweilig und belastend. Aber die Komplexität akademischer Organisationen macht Ausschüsse zu unverzichtbaren Instrumenten für die Integration von Fachgebieten und Aktivitäten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-6328-6_4 92fad9d2bdb9beceb1b747a20f520e22;de;;;5.2.;;;Diversität und Diversifikation in genetischen Algorithmen: Einige Zusammenhänge mit Tabu Search Genetische Algorithmen (GAs) wurden sehr erfolgreich eingesetzt, um eine Vielzahl von Optimierungsproblemen zu lösen, aber trotz ihrer Erfolge gibt es eine Reihe noch offener Probleme bei ihrer Implementierung. Eines der am weitesten verbreiteten Probleme ist die vorzeitige Konvergenz des Prozesses, die normalerweise mit einem Verlust der Vielfalt in der Chromosomenpopulation verbunden ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-7533-0_51 8ec0268b88b61509e8b39cc933c7dd2e;de;;;5.2.;;;Verfeinerte Probleme bei der Rotation und der Verwendung von schrägen Faktoren Das letzte Kapitel hat die Hauptkonzepte der einfachen Strukturrotation „eingebaut“: die Berechnung von Transformations- und Verschiebungsmatrizen, die Freiheitsgründe im Modell für schräge Faktoren und Referenzvektoren und die Verwendung automatischer und visueller Rotoplot-Rotationsprogramme. Aber es hat noch lange nicht die konzeptionellen Feinheiten erschöpft, die notwendigen Formeln vervollständigt oder die taktischen Fähigkeiten erreicht, um einfache Strukturen mit größter Präzision zu entdecken.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-2262-7_8 601ace7ac0b613dbb40d75cd81ec58a5;de;;;5.2.;;;Parallele Branch-and-Bound-Graph-Suche nach korrelierten Assoziationsregeln Es wurden effiziente Wege vorgeschlagen, alle Assoziationsregeln aufzuzählen, die in Bezug auf Unterstützung, Vertrauen oder andere Maßnahmen interessant sind. Im Gegensatz dazu untersuchen wir das Optimierungsproblem der Berechnung der optimalen Assoziationsregel, die die Signifikanz der Korrelation zwischen der Annahme und der Schlussfolgerung der Regel maximiert. Wir schlagen einen parallelen Branch-and-Bound-Graph-Suchalgorithmus vor, der auf dieses Problem zugeschnitten ist. Die Schlüsselmerkmale des Designs sind (1) neuartige Branch-and-Bound-Heuristiken und (2) eine Regel zum Umschreiben von Konjunktionen, die das Führen der Liste der besuchten Knoten vermeidet. Experimente an zwei verschiedenen Typen von großen Multiprozessoren mit gemeinsam genutztem Speicher bestätigen, dass die Beschleunigung der Rechenzeit nahezu linear mit der Anzahl der Prozessoren skaliert und die Größe des Suchraums durch die Verzweigungs- und gebundene Heuristiken.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-46502-2_6 2ad4c5a8c0c83ccc6b4fd078ddf8c2f4;de;;;5.2.;;;Studie zu Verhaltensmotivationen der gesellschaftlichen Verantwortung chinesischer Privatunternehmen unter dem Gesichtspunkt der Bedürfnisbefriedigung Das Papier zielt darauf ab, die verhaltensbezogenen Motivationen von Privatunternehmen im Hinblick auf soziale Verantwortung im chinesischen Marktumfeld zu untersuchen. Basierend auf einer Umfrage unter 220 Privatunternehmen in Ostchina zeigt es, dass Unternehmen mit sozialer Verantwortung die Bedürfnisse ihrer Existenz, Entwicklung, soziale Macht und persönlichen Werte von Unternehmern erfüllen. Die Bedürfnisse erzeugen dann entsprechende Motivationen und Verhaltensweisen. Sie zeigt, dass es fünf verschiedene Verhaltensmotivationen gibt, soziale Verantwortung für verschiedene Privatunternehmen zu tragen, einschließlich der Förderung des sozialen Status von Unternehmern, in Bezug auf soziale Werte, der Suche nach staatlicher Unterstützung, der Gewinnung talentierter Menschen und der Vermeidung von Entwicklungsrisiken. Anschließend werden einige Vorschläge gemacht, um die internen Motivationen privater Unternehmen zu stimulieren und die Zusammenarbeit der Interessengruppen für eine bessere Wahrnehmung der sozialen Verantwortung zu fördern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23023-3_49 a90aebb5da0b2abd4bf711d2e4981e60;de;;;5.2.;;;Mehrelternrekombination in genetischen Algorithmen mit Suchraumgrenzenerweiterung durch Spiegelung In früheren Arbeiten haben wir reell kodierte genetische Algorithmen mit mehreren Arten von Mehreltern-Rekombinationsoperatoren untersucht und Beweise dafür gefunden, dass Mehreltern-Rekombination mit;-;-;-;https://link.springer.com/chapter/10.1007/BFb0056885 7c7ebab525f9d8b1c2af69830018a8b4;de;;;4.2.;;;Ungesehene Mobilitäten und Gemeingüter: Räumliche Mobilität von Obdachlosen durch die Analyse von GPS-Tracking-Daten untersucht Ziel dieser Studie war es, die räumliche Mobilität von Wohnungslosen in urbanen Gebieten zu untersuchen, die Wohnungslosenmobilität, ihre Treiber, Grenzen und Verbindungen zu persönlichen Eigenschaften zu untersuchen und zu untersuchen, ob ein Zusammenhang zwischen dem Ausmaß der räumlichen Aktivität und der individuellen Wohnsituation besteht. Nach unserem Kenntnisstand gab es bisher keinen erschöpfenden Versuch, die räumliche Mobilität von Obdachlosen unter Verwendung von Global Positioning System (GPS)-Ortungsgeräten zu untersuchen. Der theoretische Hintergrund der Forschung basierte auf zeitgeographischen Ansätzen. Die Forschung verwendete einen Mixed-Methods-Ansatz mit partizipativer GPS-Kartierung. Die räumliche Mobilität wurde mit GPS-Ortungsgeräten gemessen. Durch GPS-Tracking war es möglich, den genauen Standort einer Person in Zeit und Raum zu erfassen und anschließend den täglichen und wöchentlichen Mobilitätsrhythmus dieser Personen zu erkennen. Die GPS-Daten wurden weiter kontextualisiert, indem Interviews mit Obdachlosen durchgeführt und nach ihrer täglichen Mobilität gefragt wurden. Als Grundlage für die Interviews wurden gedruckte Karten der täglichen räumlichen Mobilität der Teilnehmenden (n = 598) erstellt. Die Kombination von Zeit-Orts-Daten und ethnographischen Methoden brachte einige technische und organisatorische Schwierigkeiten mit sich, aber die Pilotstudie lieferte wertvolle Erkenntnisse über die Alltagsmobilität von Wohnungslosen in Städten. Ein neues Verständnis der Zusammenhänge zwischen der Mobilität von Obdachlosen, städtischen Gemeingütern und den Lebensbedingungen von Obdachlosen kann die aktuelle Wohlfahrtspolitik in Bezug auf die Armen beeinflussen.;-;-;-;https://link.springer.com/article/10.1007/s10708-019-10030-4 87499c21616962e4dd17873a7b83b36b;de;;;4.2.;;;„Soziotechnisch“ akzeptables Trauern: Eine Facebook-Fallstudie In diesem Kapitel wird untersucht, wie Trauerpraktiken auf Social Network Sites (SNS) übertragen und durchgeführt werden. Wir definieren Trauerpraktiken als die Art und Weise, wie der Trauerstatus erfüllt und Trauer in sozial akzeptabler Weise ausgedrückt wird. Dieses Interesse an der sozialen Dimension der Trauer war bereits in Durkheims Werk (1912/2008, S. 567) vorhanden, in dem er argumentiert, dass „Trauer nicht der spontane Ausdruck individueller Emotionen ist“.;-;-;-;https://link.springer.com/chapter/10.1057/9781137470126_14 a8658caa240ab6c6d53f7dae14923e4e;de;;;4.2.;;;Die koloniale Eroberung Sambias Die weiße Vormachtstellung, die Ende des 19. Jahrhunderts im südlichen Afrika fest verankert war, war im britischen Krieg von 1899-1902 gegen die Burenrepubliken auffällig. Beide Seiten verzichteten darauf, Schwarze für ihre Schlachten zu rekrutieren. Sie nahmen, wenn überhaupt, nur als Nichtkombattanten teil. Afrikaner nutzten den Zusammenbruch der sozialen Kontrollen, um Steuern, Zwangsarbeit und andere Forderungen zu ignorieren, arbeiteten jedoch größtenteils weiterhin auf Farmen, deren Besitzer auf Kommando unterwegs waren. Britische Truppen brannten Farmen nieder und drängten die Insassen in Konzentrationslager, die bei Kriegsende 200 000 Häftlinge hatten, darunter 80 000 Afrikaner, die in getrennten Lagern untergebracht waren (Walker 1964: 498).;-;-;-;https://link.springer.com/chapter/10.1057/9780230373044_2 a7fece8d7152232ba5e17f7467ea5a06;de;;;4.2.;;;Analyse sozialer Netzwerke, sozialer Interaktionen und außerhäuslicher Freizeitaktivitäten: Beweise aus Japan Dieser Artikel analysiert den Zusammenhang zwischen sozialen Netzwerken, sozialen Interaktionen und außerhäuslicher Freizeitgestaltung im Kontext der japanischen Gesellschaft. Ein mehrstufiger Strukturgleichungsmodellierungsansatz wird verwendet, um die hierarchische Struktur der Daten zu berücksichtigen. Auf der Ebene des Ego-Alters (Selbst-Anderes) deuten die Ergebnisse auf die Existenz eines komplementären Effekts zwischen der Interaktion von Angesicht zu Angesicht und der IKT-Kontaktneigung hin, der bei zunehmender Distanz zwischen Egos und Altern zu einem Substitutionseffekt wird. Darüber hinaus wurde ein vermittelnder Effekt durch die Face-to-Face-Interaktion zwischen IKT-Kontaktneigung und Distanz beobachtet. Auf Ego-(Selbst-)Ebene wirkten sich Urbanisierungsgrad, Einkommen, Netzwerkgröße und Clubmitgliedschaft direkt positiv auf die Freizeitneigung und indirekt auf die IKT-Kontaktneigung aus, während eine extravertierte Persönlichkeit positiv mit einer höheren IKT-Kontaktneigung assoziiert war.;-;-;-;https://link.springer.com/article/10.1007/s11116-018-9873-8 eeec71a0197a5c696712fd4ec60d0e27;de;;;4.2.;;;Community Radio und Entwicklung: Stammes-Publikum in Südindien Dieses Kapitel untersucht den Status eines Radiosenders mit geringer Leistung, Ooty Radio Station (ORS), der sich in den Nilgiri-Berggebieten in Südindien befindet, als Entwicklungsinstrument im Kontext einer sich verändernden Medienlandschaft (Appadurai, 1990). ORS ist der einzige Radiosender mit geringer Leistung bei 1 Kilowatt (KW) im All India Radio (AIR,;-;-;-;https://link.springer.com/chapter/10.1007/978-1-137-01625-6_4 4a8b20180e55f53a2171b42d3c640f4b;de;;;4.2.;;;Ein Rahmen für die Identitätsauflösung: Bewertung von Identitätsattributen und Abgleichalgorithmen Doppelte und falsche Identitätsaufzeichnungen sind in Identitätsverwaltungssystemen aufgrund unbeabsichtigter Fehler oder vorsätzlicher Täuschung recht häufig. Identitätsauflösung besteht darin, Identitätsdatensätze aufzudecken, die sich auf dieselbe reale Person beziehen. In diesem Papier stellen wir ein Framework zur Identitätsauflösung vor, das verschiedene Identitätsattribute und Matching-Algorithmen abdeckt. Geleitet von sozialen Identitätstheorien definieren wir drei Arten von Identitätsmerkmalen, nämlich persönliche Identitätsattribute, soziale Verhaltensattribute und soziale Beziehungsattribute. Wir vergleichen auch drei Matching-Algorithmen: paarweiser Vergleich, transitive Schließung und kollektives Clustering. Unsere Experimente mit synthetischen und realen Daten zeigen die Bedeutung von Sozialverhalten und Beziehungsattributen für die Identitätsauflösung. Insbesondere zeigt sich, dass eine kollektive Identitätsauflösungstechnik, die alle drei Arten von Identitätsattributen erfasst und kollektiv übereinstimmende Entscheidungen über Identitäten trifft, die beste Leistung unter allen Ansätzen erzielt.;-;-;-;https://link.springer.com/article/10.1186/s13388-015-0021-0 f623ecf6d2531c58550ffb7cf31f3a35;de;;;4.2.;;;Soziale Wohlfahrt in Chinas Gesellschaft im Wandel Dieses Papier untersucht und behandelt Chinas soziales Wohlfahrtssystem aus historischen Perspektiven. In den vergangenen sechs Jahrzehnten hat Chinas soziale Wohlfahrt große Veränderungen erfahren und der Lebensstandard des chinesischen Volkes wurde verbessert, aber die Unsicherheiten des Lebens in den sich schnell ändernden sozialen und wirtschaftlichen Realitäten in einer sich wandelnden Gesellschaft erfordern immer noch den Komfort und die Stabilität der sozialen Sicherheit System.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23023-3_33 ca4f0096e0a84e049762e9fd066afc87;de;;;4.2.;;;Korruption in Russland: Vergangenheit, Gegenwart und Zukunft Korruption ist in Russland so tief in das politische, wirtschaftliche, juristische und soziale System eingedrungen, dass es keine Abweichung von der Norm mehr ist, sondern selbst zur Norm geworden ist. Indem der Staat beim Übergang zur Marktwirtschaft unüberlegtes Handeln verfolgte, wurde er zum Kriminalitätsgenerator, dh die Behörden wurden zu kriminellen Institutionen, die asoziales Verhalten erzeugten. Fast jede zweite Person (60 %) gab zu, Ärzten, Chirurgen, Krankenschwestern und Schullehrern Geschenke und Geld zu geben. Fast jeder dritte russische Fahrer (28 %) hat den Beamten der staatlichen Automobilinspektion (GAI) bestochen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-0990-9_4 6ed3e46d60be0e40f0384111361c4f77;de;;;5.2.;;;Verhinderung der Erkennung bei der zweiseitigen Suche In diesem Kapitel werden wir ein vorausschauendes Erkennungsproblem in einer zweiseitigen Suchsituation untersuchen. Gegenwärtig werden Untersuchungen des zweiseitigen Suchproblems in zwei Typen eingeteilt, das Versteck-und-Such-Problem und das Umgehungs-und-Such-Problem. Beim Verstecken-und-Suchen-Problem versteckt sich das Ziel, wählt einen Punkt im Zielraum aus und bleibt dort während der Suche inaktiv. Ein Suchender möchte das Ziel effizient finden, während das Ziel nicht gefunden werden möchte. Üblicherweise wird der spieltheoretische Ansatz gewählt und die optimalen Strategien für beide Seiten gesucht. Die Arbeiten von Neuts (1963), Johnson (1964), Danskin (1968) und Gittins und Roberts (1979) sind Studien dieser Kategorie. Beim Ausweich- und Suchproblem wird davon ausgegangen, dass das Ziel dem Sucher ausweichen kann, wobei die aktuelle Position des Suchers während der Suche beobachtet wird. Das Problem wird als sequentielles mehrstufiges Suchspiel formuliert. Norris (1962), Sakaguchi (1973), Washburn (1980b) und Nakai (1986a) haben dieses Problem untersucht. Nakai (1986b) betrachtete ein Suchspiel, bei dem zwei Sucher miteinander konkurrieren, um ein stationäres und unbewusstes Ziel zu entdecken.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-2876-9_6 b6f3d6c5a1ef98cc96a32de258ec1a35;de;;;4.2.;;;Die Töne des Urteils in den lokalen Abendnachrichten Ein junger Mann, ein Produzent eines Fernsehsenders, betritt den Sendekontrollraum des Senders, um seinem Chef, dem Sendermanager, einen Pitch für eine neue TV-Show zu geben, der die Idee schroff ablehnt. Der Kontrollraum ist dunkel und überladen. Schatten sind im Überfluss vorhanden. Die einzigen hellen Lichtquellen kommen von den mehreren Monitoren, auf denen die aktuelle Sendung des Senders angezeigt wird. Auf diesem Bild sitzen ein Mann und eine Frau nebeneinander hinter einem Schreibtisch. Die Szene ist ohne Kontrast hell erleuchtet und der Hintergrund dahinter ist unscheinbar. Sie unterhalten sich scheinbar gesellig, während sie abwechselnd in die Kamera und aufeinander blicken. Sie mischen Papierblätter, die sie in den Händen halten, und klopfen sie auf die Oberfläche des Desktops, um die Blätter sauber auszurichten. Sie lächeln freundlich. Was wir auf den Monitoren sehen, sind angeblich die abschließenden Momente einer Nachrichtensendung, während die beiden Nachrichtensprecher untätig chatten – typischerweise erfundene, fröhliche Ad-lib- und entbehrliche Konversationen, die im Sendeaudio übertragen oder alternativ durch ersetzt werden können die Ausstiegsmusik der Sendung. Wir wissen, dass das improvisierte Geplauder so trivial ist, dass es gehört oder nicht gehört werden kann, und daher spielt es kaum eine Rolle, dass wir in der Szene im Film den Sendeton nicht hören.;-;-;-;https://link.springer.com/chapter/10.1057/9781137014184_3 5c6a8e10355d545e9cf56f72e5dd0255;de;;;4.2.;;;Einfluss der Social Graph-Struktur auf die Nutzungsrate in einer flachen Organisation Ziel unserer Forschung ist es zu untersuchen, wie sich die Kommunikationsstruktur einer Organisation auf ihre Leistungsfähigkeit auswirkt. In der Arbeit untersuchen wir ein Simulationsmodell eines sich selbst organisierenden Teams, das wissenschaftliche Forschung durchführt. Der Schlüsselparameter des Modells ist der soziale Graph der Organisation, der den Teambildungsprozess definiert. Für dieses Modell definieren wir formal die durchschnittliche Auslastung der Gruppe. Unter bestimmten natürlichen Bedingungen ist die Nutzungsrate eine Funktion des sozialen Graphen. Untere und obere Grenzen dieses Merkmals werden festgelegt. Das erhaltene Ergebnis hat offensichtliche praktische Bedeutung und politische Implikationen für das Organisationsmanagement.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-39575-9_22 1364a2d747ce995aac4ebbb387b35755;de;;;4.2.;;;Ein Vergleich der wichtigsten Haushaltseinkommensumfragen für Deutschland: EVS und SOEP Beschreibung und Analyse der persönlichen Einkommensverteilung in Deutschland stützen sich stark auf zwei große Erhebungen, die EVS (Einkommens- und Konsumerhebung) und das SOEP (Sozio-oekonomische Panelstudie). Allerdings liefern diese Erhebungen hinsichtlich Einkommensniveau und -struktur sowie Ungleichheit und Armut nicht exakt die gleichen Ergebnisse. Einige der Diskrepanzen haben zu Verwirrung in der politischen Debatte nach dem ersten offiziellen Armuts- und Reichtumsbericht in Deutschland geführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-05254-9_4 25bdda27aa1b4176c27db7ccf4161bd1;de;;;5.2.;;;Um die Faktoren zu untersuchen, die das Verhalten von Mitarbeitern in Bezug auf den Wissensaustausch in IT-Dienstleistungsunternehmen beeinflussen Kontext: Es ist wichtig zu untersuchen, warum Mitarbeiter einer Organisation ihr erworbenes Wissen lieber mit Kollegen teilen oder nicht und wie ihre wahrgenommenen Barrieren und Ängste ihre Absichten zum Wissensaustausch in einer Arbeitsumgebung beeinflussen. Ziel: Diese Studie zielt darauf ab, wesentliche Faktoren und Motive zu verstehen, die die Absicht von Mitarbeitern, Wissen mit Kollegen in einer Organisation zu teilen, beeinflussen oder reduzieren. Methode: Wir planten eine Feldstudie mit 125 Mitarbeitern einschließlich HRM und Linienmanagern in einem IT-Dienstleistungsunternehmen, um unsere Hypothesen zu überprüfen. Der Strukturgleichungsmodellierungsansatz (SEM) wird verwendet, um zu testen, ob unsere Hypothesen wahr sind oder nicht. Ergebnisse: Die Ergebnisse unterstützten die positiven Auswirkungen von ethischer Führung, F&R und technologiebezogenen Konstrukten und zeigten positive Auswirkungen des Wissenstransfers auf die Absicht der Mitarbeiter zum Wissensaustausch. Beitrag: Diese Forschung trägt zum Konzept des Wissensaustauschs bei und untersucht seinen Anteil an der Wissenssuche und dem Beitrag. Es wird Managern helfen zu lernen, wie sie den Wissensaustausch zwischen den Mitarbeitern fördern können, indem sie wissensorientierte und ethische Führung, Forschung und Entwicklung sowie den Einsatz von Technologie anwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5232-8_21 93d9f3db3729001d410936b6e837edba;de;;;5.2.;;;Ein neuartiges multimodales Wahrscheinlichkeitsmodell für die Clusteranalyse Die Clusteranalyse ist ein Werkzeug zur Datenanalyse. Es ist eine Methode zum Auffinden von Clustern eines Datensatzes mit der größten Ähnlichkeit in derselben Gruppe und der größten Unähnlichkeit zwischen verschiedenen Gruppen. Im Allgemeinen gibt es zwei Möglichkeiten, Mischungsverteilungen und Klassifizierungs-Maximum-Likelihood-Verfahren, Wahrscheinlichkeitsmodelle für die Clusteranalyse zu verwenden. Die entsprechenden Wahrscheinlichkeitsverteilungen für die meisten Clustering-Algorithmen wie Fuzzy-C-Means, Possibilistic C-Means, Mode-Seeking-Verfahren usw. wurden jedoch noch nicht gefunden. In diesem Papier konstruieren wir ein multimodales Wahrscheinlichkeitsverteilungsmodell und präsentieren dann die Beziehungen zwischen vielen Clustering-Algorithmen und dem vorgeschlagenen Modell über die Maximum-Likelihood-Schätzung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02962-2_50 c434246fa67596973d2109ec823c6b4f;de;;;5.2.;;;Modelle funktionieren in Szenarien Modelle sind eines der universellen Instrumente des Menschen. Sie sind Instrumente, die gezielt in Szenarien eingesetzt werden. Sie sind in diesen Szenarien verwendbar und nützlich. Das Szenario bestimmt die Funktion und damit den Zweck eines Modells. Diese Bestimmung regelt die Akzeptanz in Abhängigkeit vom Nutzen, den ein Modell bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-51913-1_5 1649f8031d520df9d272e53bc500b997;de;;;5.2.;;;Glaubwürdige Bedrohungen als Regulierungsinstrument für Netzwerkindustrien Eine der großen Erfolgsgeschichten für Mikroökonomen sind die Grundformen, die sich in den letzten 20 Jahren in der Nehvork-Industrie entwickelt haben. In vielen Ländern hat sich der institutionelle Rahmen, unter dem Versorgungsunternehmen und andere netzgebundene Industrien operieren, erheblich verändert, was Aspekte der Privatisierung, Liberalisierung und De- und Neuregulierung umfasst. Auch wenn sich die institutionellen Rahmenbedingungen in vielen Ländern zum Besseren gewandelt haben, so dass sich die Effizienz in den meisten liberalisierten Netzindustrien verbessert hat, gibt es immer noch eine lebhafte und anhaltende Debatte über das richtige Gleichgewicht zwischen Regulierung und Wettbewerbspolitik, oder allgemeiner über die Effizienz verschiedener Regulierungsrahmen. Im Mittelpunkt dieser Diskussion stehen heute die Fragen, (a) wie eine Überregulierung vermieden werden kann und (b) wie und unter welchen Umständen eine aufdringliche, schwerfällige sektorspezifische Regulierung durch den Rückgriff auf das Wettbewerbsrecht oder zumindest a . ersetzt werden kann leichtere Herangehensweise.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36030-8_9 a989a0cf6966168f05d765bf54f9b43d;de;;;5.2.;;;Konsens von dynamischen Multi-Agenten-Systemen höherer Ordnung mit Switching-Topologie und zeitvariablen Verzögerungen Dieses Papier untersucht die Konsensprobleme für eine Gruppe von Agenten mit wechselnder Topologie und zeitveränderlichen Kommunikationsverzögerungen, wobei die Dynamik von Agenten als Integrator höherer Ordnung modelliert wird. Es wird ein linear verteiltes Konsensusprotokoll vorgeschlagen, das nur von den eigenen Informationen des Agenten und den Teilinformationen seiner Nachbarn abhängt. Durch Einführung einer Zerlegung des Zustandsvektors und Durchführen einer Zustandsraumtransformation wird die Closed-Loop-Dynamik des Multiagentensystems in zwei entkoppelte Subsysteme umgewandelt. Basierend auf den entkoppelten Subsystemen werden einige hinreichende Bedingungen für die Konvergenz zum Konsens aufgestellt, die die Obergrenzen der zulässigen Kommunikationsverzögerungen angeben. Auch der explizite Ausdruck des Konsenszustandes wird abgeleitet. Darüber hinaus wurden die Ergebnisse zur Konsenssuche der Gruppe der Agenten höherer Ordnung auf ein Netzwerk von Agenten erweitert, dessen Dynamik als vollständig kontrollierbares lineares zeitinvariantes System modelliert wird. Es ist bewiesen, dass die Konvergenz zum Konsens dieses Netzwerks der der Gruppe der Agenten höherer Ordnung entspricht. Schließlich werden einige numerische Beispiele gegeben, um die Wirksamkeit der wichtigsten Ergebnisse zu demonstrieren.;-;-;-;https://link.springer.com/article/10.1007/s11768-010-9184-x 1b54ade0270af06b563f160acf303856;de;;;5.2.;;;Optimierung des Lagerstättenbetriebs mit neuem Hybrid-Algorithmus Aufgrund der Knappheit der Süßwasserressourcen vermeidet die Nutzung von Staudämmen aufgrund ihres optimalen Betriebs den Bau zusätzlicher Staudämme und hohe Kosten und deckt den Wasserbedarf der nachgelagerten Verbraucher mit hoher Zuverlässigkeit. In dieser Forschung wird ein neuer hybrider Ansatz aus dem künstlichen Fischschwarm-Algorithmus (AFSA) und dem Particle Swarm Optimization Algorithm (PSOA) verwendet, um das Karun-4-Reservoir zu optimieren, die Energieproduktion zu steigern und die Wasserknappheit stromabwärts zu minimieren. Dieser Hybridalgorithmus (HA) bewirkt eine Vielfalt von Antworten in der PSOA, verhindert das Einfangen von AFSA in lokalen optimalen Fallen und erhöht die Konvergenzgeschwindigkeit und das Gleichgewicht zwischen den Fähigkeiten zum Scannen und Erzielen von Gewinnen in der AFSA. Diese Methode wurde anhand von Zuverlässigkeits-, Vulnerabilitäts- und Belastbarkeitsindizes bewertet. Darüber hinaus wurde es auf Basis eines multikriteriellen Entscheidungsmodells durch den Vergleich mit anderen evolutionären Algorithmen evaluiert. Um den HA zu verifizieren, wurde er an einigen mathematischen Funktionen getestet. Die Ergebnisse zeigten, dass die HA-Funktionen im Vergleich zu AFSA und PSOA eine höhere Zuverlässigkeit, geringere Anfälligkeit und Ausfallsicherheit aufweisen. Darüber hinaus wird HA gemäß dem Multi-Kriterien-Entscheidungsfindungsmodell an erster Stelle eingestuft. Darüber hinaus lieferte dieser neue Algorithmus unter allen getesteten evolutionären Methoden die beste Antwort auf die Zielfunktion des Staudammkraftwerks.;-;-;-;https://link.springer.com/article/10.1007/s12205-018-2095-y c9c79bcef66ee9c2ab08597d238eab98;de;;;5.2.;;;Der IMIX-Demonstrator: Ein Informationssuchassistent für den medizinischen Bereich Im Rahmen des IMIX-Projekts wurde ein System entwickelt, um zu zeigen, wie die Forschung in den verschiedenen Teilprojekten zur Entwicklung praxistauglicher multimodaler Frage-Antwort-Dialogsysteme beitragen kann. Dieses Kapitel beschreibt den IMIX Demonstrator, einen Informationssuchassistenten für den medizinischen Bereich. Die Funktionalitäten und die Architektur des Systems werden ebenso beschrieben wie seine Rolle im IMIX-Projekt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17525-1_2 91d56641c82e2b8d1940e798720d90cb;de;;;4.2.;;;Festlegen von räumlichen und zeitlichen Merkmalen erhöhter Aktivität von Nutzern von E-Partizipationsdiensten Elektronische Beteiligungsdaten haben ein großes Potenzial für die Anwendung in Studien zu urbanen Prozessen und Systemen. Die Popularität von E-Partizipationsdiensten, die Bürger nutzen, um Probleme der Stadtentwicklung, des Wohnungswesens und kommunaler Dienstleistungen zu melden, führte zur Bildung massiver Datensätze, die bürgerschaftliches Handeln und die subjektive Bewertung der Qualität der städtischen Umwelt beschreiben. E-Partizipationsdaten weisen bestimmte Merkmale auf, die zu Verzerrungen in den Ergebnissen einiger Forschungen führen, z. wenn es um die indirekte Bewertung von Umwelt- oder sozioökonomischen Merkmalen geht. Eine der Quellen für solche Verzerrungen sind Superuser. Sie sind eine kleine Gruppe von Benutzern, deren Aktivität ungewöhnlich hoch ist. Diese abnormale Aktivität hat einen erheblichen Einfluss auf die Verteilung von Nachrichten. Die Tatsache, dass die Aktivität der Benutzer von E-Partizipationsdiensten nicht gleichmäßig verteilt ist, ist bekannt, jedoch wurde nie eine universelle Methode vorgeschlagen, um die anormale Aktivität von Superusern auszuschließen. Dieses Papier untersucht die Aktivitätsverteilung von Nutzern von E-Partizipationsdiensten und schlägt verschiedene Methoden vor, um Spitzen der erhöhten Aktivität von Superusern in verschiedenen Gebieten und Zeitintervallen zu identifizieren und auszuschließen. Die vorgeschlagenen Methoden wurden anhand von Daten des russischen Portals „Unser Sankt Petersburg“ getestet. Als Ergebnis haben wir die optimalen Ansätze zur Verarbeitung von E-Partizipationsdatensätzen für Studien definiert, die empfindlich auf die ungleiche Verteilung subjektiver Daten reagieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-67238-6_11 ce69a53cd49b60af182c3ef71d34e2c7;de;;;4.2.;;;Respondentengesteuertes Sampling in sozialen Online-Netzwerken Respondent-driven Sampling (RDS) ist eine häufig verwendete Methode zur Erfassung von Daten über versteckte Gemeinschaften, d. h. über solche, die keine unvoreingenommenen Stichprobenrahmen haben oder mit sozialen Stigmata konfrontiert sind, die ihre Mitglieder dazu bringen, sich nicht zu identifizieren. Es ist wichtig, genaue statistische Daten über solche Gemeinschaften zu erhalten, da sie beispielsweise häufig andere gesundheitliche Belastungen aufweisen als die Gesamtbevölkerung, und es ohne gute Statistiken schwer und teuer ist, sie für Präventions- oder Behandlungsinterventionen effektiv zu erreichen. Soziale Online-Netzwerke (OSN) haben das Potenzial, RDS zum Besseren zu verändern. Wir präsentieren ein neues RDS-Rekrutierungsprotokoll für (OSNs) und zeigen mittels Simulation, dass es das Standard-RDS-Protokoll in Bezug auf die Sampling-Genauigkeit übertrifft und sich der Genauigkeit von Markov-Chain-Monte-Carlo-Random Walks annähert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37210-0_44 ee65f73ef97883079cc269c90303b3e1;de;;;4.2.;;;Automatische Kundensegmentierung für Social CRM-Systeme In diesem Beitrag wird versucht, das Problem der automatischen Kundensegmentierung durch die Verarbeitung von Daten zu lösen, die in Systemen des Social Customer Relationship Management (Social CRM) mithilfe von Kohonen-Netzwerken gesammelt werden. Der vorgestellte Segmentierungsansatz umfasst ein klassisches Loyalty-Profitability-Link-Modell, das explizit für CRM ist, und neue Social-Media-Komponenten, die direkt an Social CRM angebunden sind. Das Ergebnis des vorgestellten Ansatzes ist ein Analysetool mit Datenvisualisierung für Führungskräfte, das den Prozess der Kundensegmentierung deutlich verbessert. Die vorgestellte Forschung wird durch die Umsetzung des vorgeschlagenen Ansatzes unterstützt, mit dem Experimente durchgeführt wurden. Darüber hinaus zeigten die experimentellen Ergebnisse, dass das vorgeschlagene Verfahren dem k-Means-Algorithmus sehr nahe kam, was die Richtigkeit des vorgeschlagenen Ansatzes anzeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38865-1_55 4d1475aa8dbc9cd8046ca494a35698fa;de;;;4.2.;;;Akzeptanz und Nutzung sozialer Medien im Zentralbankwesen Die Rolle von Transparenz und Kommunikation im Zentralbankwesen hat in den letzten Jahrzehnten stark zugenommen. Dieser Trend beschleunigte sich mit dem Aufkommen neuer Informationstechnologien wie Websites und neuerdings auch sozialer Medien, die es ermöglichten, Informationen schneller und an ein größeres Publikum zu verbreiten. Dieses Papier gibt einen kurzen Überblick darüber, wie Zentralbanken diese neuen Kommunikationskanäle im Laufe der Zeit eingeführt haben. Die wichtigsten Social-Media-Plattformen, die von Zentralbanken weltweit genutzt werden, werden identifiziert und die Unterschiede zwischen diesen Plattformen werden in Bezug auf ihre Anwendung für verschiedene Zwecke der Kommunikationspolitik der Zentralbanken beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-39296-3_30 0b06580796cb924b2fe4f4da099c7bb0;de;;;5.2.;;;Optimale und nahezu optimale Richtlinien in Markov-Entscheidungsketten mit nichtnegativen Belohnungen und risikosensitivem Kriterium der erwarteten Gesamtbelohnung Im Gegensatz zum üblichen Ansatz beinhaltet die in der Arbeit durchgeführte Analyse nicht das diskontierte Kriterium und basiert vollständig auf Eigenschaften der Optimalwertfunktion, insbesondere auf der starken Optimalitätsgleichung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0265-0_11 6dfaf412227da700096a170ed224beac;de;;;5.2.;;;Eine neue Cluster-basierte Testfallpriorisierung mithilfe der Cat Swarm Optimization Technique Software-Regressionstests sind ein sehr teurer und zeitaufwändiger Prozess. Es ist auch ein wesentlicher Bestandteil des Softwareentwicklungslebenszyklus. Das Hauptziel von Regressionstests besteht darin, alle möglichen Kombinationen von Testfällen in einer Testsuite auszuführen. Dieser Prozess erfordert einen großen Aufwand sowie Zeit. Um den menschlichen Aufwand und die Zeit zu überwinden, ist daher eine Priorisierung der Testfälle erforderlich. Das Ziel dieser Forschung ist es, Testfälle mit hoher Priorität vor Testfällen mit niedriger Priorität auszuführen. Wir haben eine neue Methode zur Priorisierung von Testfällen vorgeschlagen, die die Cat-Swarm-Optimierung (CSO) mit Clustering-Ansatz verwendet. CSO ist ein neuer meta-heuristischer Algorithmus, der auf dem Verhalten von Katzen basiert. In diesem Beitrag stellen wir eine Clustering-basierte Priorisierungstechnik für Testfälle vor. Das Verfahren besteht darin, die Testfälle basierend auf Fehlern zu gruppieren, die von den Testfällen erkannt wurden. Um die Effektivität dieses Algorithmus zu messen, haben wir die Metrik der durchschnittlichen prozentualen Fehlererkennung (APFD) verwendet. Darüber hinaus zeigen experimentelle Ergebnisse, dass der CSO-Algorithmus eine effektive und effiziente Methode ist, um die Testfälle zu priorisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-7091-5_36 e8947ec46f54ca6f2b647c6c92a230d9;de;;;5.2.;;;Eine vergleichende Studie von CSO- und PSO-trainierten künstlichen neuronalen Netzwerken für die Börsenprognose Die Börsenprognose ist der Versuch, den zukünftigen Wert einer Unternehmensaktie eines anderen an einer Finanzbörse gehandelten Finanzinstruments zu bestimmen. Dieses Papier präsentiert einen Vergleich zwischen PSO- und CSO-trainierten neuronalen Netzwerken, um die Aktienkurse vorherzusagen, indem Daten vorbereitet werden, die als Eingabe dienen. Die Daten werden so aufbereitet, dass externe Faktoren wie traditionelle Probleme abgemildert werden können. Früher wurde das neuronale Netzwerk mit dem Back-Propagation-Algorithmus trainiert, aber es konvergiert zu lokalen Optima und kann nicht auf diskrete Funktionen angewendet werden. Sow haben wir den PSO- und CSO-Optimierungsalgorithmus gewählt, um das neuronale Netz zu trainieren. Die Ergebnisse zeigen, dass das Training neuronaler Netze mit solchen Daten eine bessere Leistung liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24043-0_20 0a38ac9f1d4040ef6127038302060b30;de;;;5.2.;;;Multi-Label-Klassifizierung und Wissensextraktion aus onkologiebezogenen Inhalten in sozialen Online-Netzwerken Diese Studie zielt auf die automatische Verarbeitung und Wissensextraktion aus großen Mengen onkologiebezogener Inhalte aus sozialen Online-Netzwerken (OSN) ab. In diesem Zusammenhang wird eine große Anzahl von OSN-Textbeiträgen zu den wichtigsten Krebsarten mithilfe natürlicher Sprachverarbeitungstechniken automatisch abgekratzt und strukturiert. Maschinen werden darauf trainiert, diesen Posten basierend auf der Art des eingeschlossenen Wissens mehrere Labels zuzuweisen, falls vorhanden. Geschulte Maschinen werden verwendet, um großformatige Textbeiträge automatisch zu klassifizieren. Basierend auf diesen Vorhersagen werden statistische Schlussfolgerungen gezogen, um allgemeine Konzepte und abstraktes Wissen zu extrahieren. Unterschiedliche Ansätze zur Konstruktion von Dokumentmerkmalsvektoren zeigten keine greifbare Auswirkung auf die Klassifikationsgenauigkeit. Unter den verschiedenen Klassifikatoren erreichte die logistische Regression die höchste Gesamtgenauigkeit (96,4%) und;-;-;-;https://link.springer.com/article/10.1007/s10462-020-09839-0 c7fd769c42dd07c02c6e5f6ed9c99990;de;;;5.2.;;;Parametersteuerung in evolutionären Algorithmen Das Einstellen der Werte verschiedener Parameter eines evolutionären Algorithmus ist entscheidend für eine gute Leistung. In diesem Kapitel diskutieren wir, wie dies zu tun ist, beginnend mit der Frage, ob diese Werte am besten im Voraus festgelegt oder während der Evolution am besten geändert werden. Wir klassifizieren verschiedene Ansätze anhand einer Reihe von komplementären Merkmalen und legen besonderen Wert auf die On-the-Fly-Einstellung von Parametern. Dies hat das Potenzial, den Algorithmus an das Problem anzupassen und gleichzeitig das Problem zu lösen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-05094-1_8 80c73f7df86a1462080727fdb900b3fe;de;;;4.2.;;;Civic Social Network: Eine Herausforderung für die Koproduktion von Inhalten über gemeinsame städtische Entitäten Die Entwicklung eines bürgerlichen sozialen Netzwerks erfordert die Berücksichtigung von Benutzern, die sich im realen Leben treffen und an digitalen Einträgen zu realen städtischen Einheiten zusammenarbeiten. Dies macht es notwendig, über Kollaborationswerkzeuge aus einer neuen Perspektive nachzudenken: Gewährleistung der Beteiligung von Benutzern mit unterschiedlichen Legitimationsebenen und -formen, um komplexe Beziehungen zwischen Entitäten darzustellen, und Gewährleistung der Rechenschaftspflicht jedes Mitwirkenden. Wir präsentieren eine Reihe technischer Lösungen, die die Zusammenarbeit an komplexen Entitäten ermöglichen, die Interaktionen einfach halten und mehrere Perspektiven auf gemeinsam genutzte Entitäten darstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-2618-8_6 73cb65c418dbb7ad38b9ab44f770968e;de;;;5.2.;;;Einblick in Direct Search-Methoden und modulintegrierte Algorithmen für das Maximum Power Point Tracking (MPPT) von Insel-Photovoltaik-Anlagen Durch die Erkennung des Eingangssignals werden MPPT-Algorithmen (Maximum Power Point Tracking) verwendet, um die potenzielle Ausgangsleistung zu maximieren. Seit der ersten Anwendung der Perturbation and Observe (P&O)-Methode in einem Photovoltaik-(PV)-System wurden unzählige MPPT-Algorithmen vorgeschlagen. Mit den Vor- und Nachteilen verschiedener MPPT-Algorithmen wird in diesem Beitrag eine detaillierte Analyse einiger typischer direkter Such- und modulintegrierter MPPT-Algorithmen vorgestellt. Richtungen zukünftiger Arbeiten zur Implementierung neuer MPPT-Algorithmen werden ebenfalls skizziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35606-3_55 7e05da789c6e81c4932dd42a03005e7c;de;;;5.2.;;;Bayesian Fusion of Back Projected Probabilities (BFBP): Kookkurrenzdeskriptoren für das Tracking in komplexen Umgebungen Unter der Vielzahl probabilistischer Tracking-Techniken ist der Continuously Adaptive Mean Shift (CAMSHIFT)-Algorithmus einer der beliebtesten. Obwohl mehrere Modifikationen an der ursprünglichen Formulierung von CAMSHIFT vorgeschlagen wurden, bestehen immer noch Einschränkungen. Insbesondere bei der Verfolgung von strukturierten und gemusterten Objekten ist der Algorithmus leistungsschwach. In diesem Papier verallgemeinern wir CAMSHIFT zum Zwecke der Verfolgung solcher Objekte in nicht-stationären Hintergründen. Unsere Erweiterung führt eine neuartige Objektmodellierungstechnik ein, wobei eine probabilistische Rückprojektionsstufe ähnlich dem ursprünglichen CAMSHIFT-Algorithmus beibehalten wird, jedoch mit erheblich mehr Unterscheidungskraft. Die Objektmodellierung entwickelt sich nun über eine einzelne Wahrscheinlichkeitsverteilung hinaus zu einer allgemeineren gemeinsamen Dichtefunktion für lokalisierte Farbmuster. In unserem Rahmen werden multiple Kookkurrenz-Dichtefunktionen unter Verwendung von Informationen aus mehreren Farbkanalkombinationen geschätzt und diese Verteilungen werden unter Verwendung eines intuitiven Bayes-Ansatzes kombiniert. Wir validieren unseren Ansatz an mehreren Luftverfolgungsszenarien und demonstrieren seine verbesserte Leistung gegenüber dem ursprünglichen CAMSHIFT-Algorithmus und einer seiner erfolgreichsten Varianten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25903-1_15 c32b02dbfe1d73e6e106c2e888ad6c40;de;;;4.2.;;;Beurteilung der elterlichen Kompetenz in Kinderschutzfällen: Ein klinisches Praxismodell Die Beurteilung von Eltern im Zusammenhang mit möglichem Missbrauch oder Vernachlässigung bringt einzigartige Herausforderungen mit sich. Dieses Papier beschreibt ein Praxismodell für die Durchführung klinischer Bewertungen der Fähigkeit von Eltern, sich um kleine Kinder (unter 8 Jahren) zu kümmern. Zu den Kernmerkmalen des Modells gehören (a) ein Fokus auf Erziehungsqualitäten und die Eltern-Kind-Beziehung, (b) ein funktionaler Ansatz, der Verhaltensweisen und Fähigkeiten in der alltäglichen Leistung hervorhebt, und (c) die Anwendung eines minimalen Erziehungsstandards. Mehrere Faktoren erschweren die Bewertungsaufgabe, nämlich das Fehlen allgemein anerkannter Standards für die Mindestangemessenheit der Elternschaft, der Zwangskontext der Bewertung, der Mangel an geeigneten Maßnahmen, Schwierigkeiten bei der Vorhersage künftigen Verhaltens und die wahrscheinliche Verwendung der Bewertung in Gerichtsverfahren. Im vorgeschlagenen Modell klärt der Evaluator (a) im Vorfeld spezifische Überweisungsfragen, (b) verwendet einen Multimethod-, Multisource-, Multisession-Ansatz, (c) ordnet Befunde im Hinblick auf die Eltern-Kind-Passung, (d) erstellt ein Ziel, verhaltensbezogen beschreibender Bericht, der die Logik der klinischen Stellungnahmen des Gutachters zu den Überweisungsfragen artikuliert und (e) davon Abstand nimmt, Stellungnahmen zu ultimativen Rechtsfragen abzugeben. Das Papier beschreibt die erforderlichen Fähigkeiten, die erforderlich sind, um elterliche Fitnessbewertungen durchzuführen, Beispielmethoden und ein Protokoll zum Verfassen des Bewertungsberichts.;-;-;-;https://link.springer.com/article/10.1023/A%3A1009548509598 712516db75190d955640c7bcd79d47fa;de;;;4.2.;;;Ein spieltheoretisches lokales D2D-Caching-System unter heterogenen Videopräferenzen und sozialer Gegenseitigkeit Um dem zunehmenden reichhaltigen Multimedia-Mobilverkehr gerecht zu werden, insbesondere dem mobilen Videoverkehr, wird lokales Caching zu einem effektiven Ansatz, um die Qualität von Inhaltslieferdiensten in den zellularen Netzwerken zu verbessern. Mobile Geräte mit großen Speicherkapazitäten und Hochgeschwindigkeitsverbindungen von Gerät zu Gerät (D2D) werden zu wichtigen Elementen des lokalen Caching-Systems. In diesem Artikel schlagen wir ein lokales D2D-Caching-System unter heterogenen Präferenzen von Mobilfunkteilnehmern (MS) vor und untersuchen das Problem der Nutzenmaximierung mithilfe der Stackelberg-Spiellösung. Insbesondere bilden die MS gemäß ihren sozialen Beziehungen verschiedene Gruppen und bestimmen die Preispolitik zur Maximierung ihres Nutzens, während der Videoanbieter (VP) versucht, seine Gewinne zu maximieren, indem er die Mietpolitik und den Budgetplan festlegt. Wir untersuchen das Gleichgewicht des Stackelberg-Spiels im Detail und schlagen einen auf Wasserfüllung basierenden iterativen Algorithmus vor, um das Stackelberg-Gleichgewicht zu erhalten. Umfangreiche Ergebnisse belegen die effiziente Leistung des lokalen D2D-Caching-Systems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-05054-2_33 db71a170062aad3c1490f39494e6868b;de;;;4.2.;;;Repräsentationen von Behinderung: Schule und ihre kulturellen Auswirkungen Schule spielt eine bedeutende Rolle in der kulturellen Produktion, in der die Darstellung von Unterschieden und Behinderungen sehr wichtig ist: pädagogische und pädagogische Praktiken (implizit und explizit) tragen dazu bei, kulturelle und soziale Repräsentationen der Welt zu bilden und folglich auch einige Stereotypen zu bestätigen. In dieser Hinsicht kommt der Untersuchung der mit Behinderung verbundenen sozialen Repräsentationen eine gewisse Bedeutung zu: Tatsächlich wird Behinderung zu einem Unterschied, der von der Bildungs- und Sozialdynamik sowie von der vollen Teilhabe an der Staatsbürgerschaft ausgeschlossen wird. Diese Forschung wird versuchen, durch die Analyse der Geschichten und Erinnerungen junger Universitätsstudenten einige dominante soziale Repräsentationen über Unterschiede und Behinderungen zu zeichnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13166-0_59 4fd8dc0ae2143a457905023c106c180d;de;;;4.2.;;;Die Kommunistische Partei Portugals: Bis vor kurzem schien die Kommunistische Partei Portugals (PCP) eine Bastion kommunistischer Orthodoxie nach sowjetischem Vorbild zu sein. Als einzige westeuropäische kommunistische Partei, die seit der Wiedererlangung der liberalen Demokratie in der Nachkriegszeit ein Protagonist in einem revolutionären Machtkampf (1974–75) war, zeigten Ideologie und Verhalten der PCP immer noch Merkmale, die man mit Recht benennen konnte „Stalinist“. In den frühen 1980er Jahren verstand sich die PCP als;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-23692-3_4 4c11639fdef86d842e2deebd279caac1;de;;;4.2.;;;E-Journaling als Antwort auf digitale Texte Dieses Kapitel bietet einen Einblick in die Entwicklung des L2-Schreibens einer vielfältigen Gruppe von Englischlernern der dritten Klasse, die sich mit digitalen Schreiberfahrungen mit den E-Readern von Barnes & Noble namens Nooks beschäftigen. Angesichts des stark visuellen Charakters von Texten des 21. Jahrhunderts brauchen alle Lernenden ein Mittel, um unterschiedliche Denkweisen über neue und unbekannte Texte anzuwenden. Darüber hinaus sollte es Räume geben, um bedeutungsvolle Botschaften basierend auf einer Vielzahl von soziokulturellen Kontexten zu erstellen. Die Akzeptanz mehrerer Formen von Mainstream- oder Standardspanisch, Englisch usw. und Sprachvariationen ist für die Gerechtigkeit in dieser sich verändernden sozialen Welt unerlässlich. Dazu gehören soziale Sprachen, die Gee (2008) als „verschiedene Sprachstile, die für unterschiedliche Zwecke und Gelegenheiten verwendet werden“ definiert (S. 3). Zum Beispiel müssen alle Sprachen als gleich angesehen werden, wo kein kultureller Dialekt die Überlegenheit behält, insbesondere im Klassenzimmer (Gee, 2008, Kalantzis & Cope, 2012). Die Kommunikation über die vietnamesische Sprache sollte dem Englischen gleichwertig sein.;-;-;-;https://link.springer.com/chapter/10.1057/9781137530981_2 0065e2b141b94c9de7546d6205c8ad59;de;;;5.2.;;;Sieben Mythen über Finanzplanung und den Ruhestand der Babyboomer Mythen sind Geschichten, die Fakten und Fiktion verbinden. Häufig geteilte Geschäftsmythen bilden die Grundlage für grundlegende Überzeugungen darüber, was wichtig ist, was für den Kunden wichtig ist, und erklären oder rechtfertigen Geschäftspraktiken. Mythen können zwar ein Mittel zur Strukturierung von Informationen und Wissen sein, sie können aber auch Innovationshemmnisse in einem sich wandelnden Markt darstellen. Der demografische Wandel in allen industrialisierten Märkten und der bevorstehende Ruhestand der Babyboom-Generation stellen sieben allgemein akzeptierte Mythen unter Finanzplanern über die Kunden, deren Wünsche und die effektivsten Wege zur Erbringung von Servicewerten vor Herausforderungen. Dieses Papier untersucht diese weit verbreiteten „Branchenüberzeugungen“ und schlägt Strategien vor, die Produktentwickler und Planer in Betracht ziehen könnten, um das Praxismanagement zu verbessern und neue Geschäfte in einem alternden Markt aufzubauen.;-;-;-;https://link.springer.com/article/10.1057/fsm.2009.10 6296dc189930620807fb970dea18f45e;de;;;5.2.;;;Erkennung von Zielgraphen aus Bildern unter Verwendung eines genetischen Algorithmus mit Hill Climbing Searching Wir entwickeln ein Erkennungssystem, das darauf abzielt, eine Reihe von Illustrationen in Origami-Büchern in eine 3D-Animation umzuwandeln, um das Erlernen und Genießen von Origami-Kunst zu erleichtern. Als Teil dieser Arbeit schlägt dieses Papier eine Methode vor, die einen Zielgraphen, der einer Origami-Form entspricht, aus einem Origami-Illustrationsbild erkennt. Der Zielgraph, ISG (Ideal Shape Graphs) genannt, wird aus einem internen Modell generiert, das 3D-Informationen über Änderungen der Origami-Zustände während der Interpretation für den gesamten Faltprozess enthält. Um den Faltvorgang zu verstehen, der bei jedem Schritt auf das Origami angewendet wird, muss ein ISG des im aktuellen Schritt erzeugten Origami mit dem Bild der Origami-Illustration im nächsten Schritt abgeglichen werden, um herauszufinden, ob darin ein ähnlicher Graph vorhanden ist . Das Bild des Origami ist normalerweise sehr verrauscht. Da der Rechenaufwand für diese Arbeit selbst für Probleme mittlerer Größe unerschwinglich ist, verwenden wir einen genetischen Algorithmus in Verbindung mit einer Bergsteigsuchtechnik, um die Komplexität zu reduzieren. Experimentelle Ergebnisse zeigen, dass mit unserer Methode gute Lösungen mit geringeren Kosten gefunden werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-25977-0_22 c78e3dbf145628eb7509496389adc36f;de;;;5.2.;;;Fortschritte in der Human-Interface-Engineering für Reverse Directory Assistance (ACNA)-Dienste Nach Jahren produktiver Forschung automatisiert die Sprachsynthese jetzt gewinnbringend Dienste, indem sie Anfragen über eingeschränkte Dialoge beantwortet, direkt auf einzelne Computerdatenbanken zugreift und aus unterschiedlichen Informationsquellen erstellte Texte spricht. Verzeichnisbasierte Dienste wie Automated Customer Name and Address (ACNA) erfordern eine Synthese mit hoher Verständlichkeit und Genauigkeit der Namensaussprache. Die derzeitige Synthesetechnologie erreicht diese Ziele. Doch selbst die beste aktuelle Sprachtechnologie ist nicht gut genug, um gedankenlos in komplexe Dienste „einzutauchen“. Eine angepasste Verzeichnisvorverarbeitung ist immer noch erforderlich, um Listendaten, die gewöhnlich unkonventionelle Abkürzungen, nicht gekennzeichnete Akronyme und verschlüsselte Wortreihenfolge enthalten, in einen für die Synthese geeigneten Satz umzuwandeln. Dieser Artikel beschreibt hochmoderne Verzeichnisvorverarbeitungsprogramme, die zu erfolgreichen Implementierungen für Synthesedienste bei 2 großen US-Telefongesellschaften (Ameritech und Bell Atlantic) geführt haben. Dabei spielen natürlich die grundlegenden Fähigkeiten des Synthesizers, wie Aussprachegenauigkeit, Sprachqualität und Natürlichkeit, eine große Rolle. Die Bemühungen stellten sicher, dass die Ortsbezeichnungen in Übereinstimmung mit den örtlichen Gepflogenheiten ausgesprochen wurden. Schließlich beschreibt dieser Artikel für Aufforderungen und andere feste Nachrichten Experimente, die bestimmt haben, ob die Natürlichkeit aufgezeichneter Sprache die unerwünschte Diskontinuität zwischen aufgezeichneten und synthetisierten Äußerungen ausgleicht.;-;-;-;https://link.springer.com/article/10.1007/BF02277190 2f918754b28e8cd54efc2e3be024fee1;de;;;5.2.;;;Vorhersage der Performance alternativer Institute Diejenigen, die an einer anderen Leistung in Bezug auf den Ressourceneinsatz interessiert sind, benötigen zwei Arten von Informationen. Erstens ist es notwendig, eine Reihe von Alternativen zu identifizieren, die für die Leistungsänderung maßgeblich sein könnten, und zweitens ist es notwendig, die breite Palette der Konsequenzen vorherzusagen, die von jeder einzelnen zu erwarten sind. Zur Erreichung dieser Ziele wird hier eine institutionelle Theorie vorgestellt, die mit Anwendungen auf die Naturressourcenpolitik illustriert wird, aber auf eine Vielzahl von Produkten und Fragestellungen verallgemeinert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-8766-1_3 3d34043ab4a4728953ea78fcdd833d7f;de;;;5.2.;;;Familienbeziehungen und Spracherhaltung: Auswirkungen auf die Sprachbildungspolitik Dieser Beitrag berichtet über eine Studie, die den Zusammenhang zwischen Familienbeziehungen und Spracherhaltung sowie die Auswirkungen dieser Verbindung auf die Sprachbildungspolitik untersucht. Wir untersuchten Muster der Spracherhaltung und Wahrnehmung familiärer Beziehungen bei 180 Jugendlichen aus Familien, die aus der ehemaligen UdSSR nach Israel eingewandert waren. Die Ergebnisse deuten darauf hin, dass die Spracherhaltung in der zweiten Generation mit harmonischen Familienbeziehungen und damit mit dem Wohlergehen der Zuwanderer verbunden ist. Es gab keinen Einfluss des Familientyps auf sprachliche Muster oder auf die Familienbeziehungen. Die Ergebnisse werden vor dem Hintergrund ihrer Implikationen für die Sprachpolitik diskutiert, was einen zusätzlichen und wichtigen Grund für die Förderung des Spracherhalts bei Einwanderern der zweiten Generation nahelegt.;-;-;-;https://link.springer.com/article/10.1007/s10993-005-7557-7 cd8c04e8fdcedf539454c580ea577a47;de;;;5.2.;;;Generieren einer nutzerorientierten Textzusammenfassung basierend auf sozialen Netzwerken mit Hilfe von Themenmodellen Textzusammenfassungstechniken werden häufig verwendet, um automatisch Zusammenfassungen von Dokumenten zu erstellen, die es Benutzern erleichtern, die benötigten Informationen aus einer großen Menge von Dokumenten zu erfassen. Es stellt jedoch eine große Herausforderung dar, die Informationsbedürfnisse von Benutzern in unterschiedlichen Rollen zu befriedigen und gleichzeitig die wichtigsten Informationen zu behalten. Um dieses Problem zu lösen, schlagen wir ein neues Framework zur Textzusammenfassung vor, das historische Informationen von Benutzern einbezieht, um eine benutzerorientierte personalisierte Zusammenfassung zu generieren. Das Framework verwendet zwei Themenmodelle, um die Kommentare von Ärzten und Patienten aus gesundheitsbezogenen sozialen Netzwerken zu bestimmten Krankheiten zu modellieren, und identifiziert dann Themen, an denen die beiden Arten von Benutzern interessiert sind. Basierend auf den identifizierten Themen schlagen wir drei Methoden für Satz . vor Ranking, um Zusammenfassungen über die Krankheiten für Ärzte bzw. Patienten zu generieren. Experimentelle Ergebnisse zeigen eine hohe Ähnlichkeit zwischen der generierten Zusammenfassung und den tatsächlichen Interessen verschiedener Benutzer, wodurch die Informationsbedürfnisse besser erfüllt werden, während die Zusammenfassungsleistung beibehalten wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-2993-6_16 d9e6c2e73fdc7be52a0c9465aa0d0ec4;de;;;4.2.;;;Der Einfluss menschlicher Faktoren auf die Teilnahmeentscheidung von Gutachtern in modernen Code-Reviews Modern Code Review (MCR) spielt eine Schlüsselrolle in der Softwarequalitätspraxis. Im MCR-Prozess wird empfohlen, einen neuen Patch (d. h. eine Reihe von Codeänderungen) von den Prüfern zu prüfen, um Schwachstellen im Quellcode zu identifizieren, bevor er in die Hauptsoftware-Repositorys integriert wird. Um das Risiko zukünftiger Fehler zu mindern, schlagen frühere Arbeiten vor, dass MCR mit ausreichender Teilnahme an Überprüfungen durchgeführt werden sollte. Tatsächlich zeigen neuere Arbeiten, dass eine geringe Anzahl von teilnehmenden Gutachtern mit einer schlechten Softwarequalität verbunden ist. Es ist jedoch wahrscheinlich, dass ein neuer Patch immer noch unter einer schlechten Review-Teilnahme leidet, obwohl Reviewer eingeladen wurden. Daher haben wir uns in diesem Papier zum Ziel gesetzt, die Faktoren zu untersuchen, die mit der Teilnahmeentscheidung eines eingeladenen Gutachters verbunden sind. Durch eine Fallstudie mit 230.090 Patches, die über die Android-, LibreOffice-, OpenStack- und Qt-Systeme verteilt sind, stellen wir fest, dass (1) 16%-66% der Patches mindestens einen eingeladenen Reviewer haben, der nicht auf die Review-Einladung geantwortet hat, (2) menschliche Faktoren spielen eine wichtige Rolle bei der Vorhersage, ob ein eingeladener Gutachter an einer Überprüfung teilnehmen wird oder nicht. (3) Die Teilnahmequote eines eingeladenen Gutachters an einer Überprüfung und die Code-Erstellungserfahrung eines eingeladenen Gutachters sind stark mit der Teilnahmeentscheidung eines eingeladenen Gutachters verbunden . Diese Ergebnisse können Praktikern helfen, besser zu verstehen, wie menschliche Faktoren mit der Teilnahmeentscheidung von Gutachtern zusammenhängen, und dienen als Richtlinien für die Einladung von Gutachtern, was zu einer besseren Einladungsentscheidung und einer besseren Teilnahme der Gutachter führt.;-;-;-;https://link.springer.com/article/10.1007/s10664-018-9646-1 a6728316fa72c2329d762f82aadacac5;de;;;4.2.;;;Funktionen der Parlamente Seit Bagehot wurden viele Kataloge der Funktionen von Parlamenten angeboten. Bagehot hielt die Wahlfunktion für die wichtigste. Die Ausdrucksfunktion, die Lehrfunktion und die Informationsfunktion wurden mit dem Verhältnis zwischen Abgeordneten und ihren Wählern verbunden. In modernen Typologien werden sie unter der Rubrik „Funktion der Interessenvertretung und Artikulation“ zusammengefasst. Die Lehrfunktion liegt nicht mehr bei den Parteien, sondern hat sich auf die Medien verlagert. Die Funktion der Gesetzgebung nennt Bagehot zuletzt, obwohl Bürger in Umfragen gezeigt haben, dass sie vor allem Parlamente mit Gesetzgebung in Verbindung bringen.;-;-;-;https://link.springer.com/chapter/10.1057/9780230514393_5 813e54ca9aecd8a5f62ed9fbdff61bc5;de;;;4.2.;;;Zerstören der Zusammenarbeit und des Wissensaustauschs am Arbeitsplatz: ein umgekehrter Brainstorming-Ansatz Organisationen des 21. Jahrhunderts finden sich in der Kultur der Zusammenarbeit wieder. Zusammenarbeit und Wissensaustausch sind grundlegende Aspekte der Problemlösung, Entscheidungsfindung und Innovation und daher entscheidend für den Erfolg. Einige Unternehmenskulturen fördern die Zusammenarbeit, während andere aktiv oder versehentlich gemeinsame Entscheidungsfindungen zerstören. Reverse Brainstorming ist eine Methode, bei der die Teilnehmer verschiedene Wege identifizieren, um ein Problem zu verursachen. Diese negativen Ideen werden dann verwendet, um Ideen zur Lösung des Problems anzuregen. Dieses Papier berichtet über eine umgekehrte Brainstorming-Sitzung, bei der Wissensmanagement-Praktiker, Berater und Akademiker Ideen dazu entwickelten, wie Zusammenarbeit und Wissensaustausch in Unternehmen zerstört werden, gefolgt von positiven Ideen zur Förderung effektiver, kollaborativer Arbeitsplätze.;-;-;-;https://link.springer.com/article/10.1057/kmrp.2011.43 459502de90fb05f3afa7083831c8e8c8;de;;;4.2.;;;Fuzzy-Analyse der sozioökonomischen Entwicklung mit linguistisch-intuitionistischen Fuzzy-Zahlen In diesem Kapitel werden linguistisch-intuitionistische Fuzzy-Sets verwendet, um die sozioökonomische Entwicklung Aserbaidschans zu analysieren. Mit der Fuzzy-Analyse werden der Einfluss externer Faktoren auf die Wirtschaftslage, die sozialen Folgen und die Reaktion der Regierung darauf bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-61282-5_1 9bfc94cb842aacc204baf638428617b7;de;;;4.2.;;;Eine Bedeutungs-Leistungs-Matrix-Analyse der Faktoren, die US-Touristen für die Nutzung von Airbnb beeinflussen Nach 10 Jahren Airbnb und seinem beträchtlichen Wachstum wird diese Untersuchung durchgeführt, um herauszufinden, welche Faktoren für Airbnb-Nutzer heute wirklich wichtig sind. Es bietet einen integrierten Ansatz, da es Faktoren aggregiert, die andere Studien separat betrachtet haben. Bei einer Stichprobe von 101 US-amerikanischen Befragten zeigen die Ergebnisse der partiellen kleinsten Quadrate der Strukturgleichung, dass die einzigen Faktoren, die zukünftige Absichten, Airbnb zu nutzen, beeinflussen, die einzigartigen und vielfältigen Unterkünfte und die Zufriedenheit sind. Es wurde auch festgestellt, dass sich Genuss positiv auf die Zufriedenheit auswirkt. Die Studie untersucht diese Faktoren weiter mit einer Importance Performance Map, die eine Orientierungshilfe für die Priorisierung von Managementaktivitäten bietet, die für zukünftige Absichten zur Nutzung von Airbnb von großer Bedeutung sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2024-2_7 9bd94420b22a701e4b6f16bda3342a64;de;;;4.2.;;;Story and Narrative Noticing: Workaholism Autoethnographies In diese energische Debatte über Ursachen und Folgen des Workaholismus treten wir mit Hilfe der Autoethnographie ein. Unser Hauptbeitrag besteht darin zu untersuchen, wann unsere Autoethnografien von Workaholism-Erfahrungen narrativ sind und wann es sich um ausdrucksstarke, lebendige Geschichten handelt. Der Unterschied in der Erzählung ist eine Re-Präsentation (dem Repräsentationalismus einer sinnlichen Erinnerung folgend), während die lebendige Geschichte eine Frage der Reflexivität auf die Fragilität unserer Lebenswelt ist. Wir begannen mit der Analyse von Workaholism-Narrativen in unserem eigenen akademischen Leben und in den Filmen der Populärkultur, dem Einfluss einer bestimmten Meta-Erzählung – dem des American Dream. Wir fahren fort, unsere eigenen lebendigen Geschichten in ihrem Kampf mit diesen Erzählungen des amerikanischen Traums gegenüberzustellen.;-;-;-;https://link.springer.com/article/10.1007/s10551-008-9702-7 2b8bef5b015a792171ccb75eeb482107;de;;;4.2.;;;Bindung von Frauen in der US-amerikanischen IT-Belegschaft: Theorie des Einflusses organisatorischer Faktoren Die Herausforderung, den Bedarf an Arbeitskräften in der Informationstechnologie (IT) zu decken, wird durch die Untersuchung von drei wichtigen organisatorischen Faktoren, die sich auf die Bindung von Frauen im IT-Bereich auswirken, angegangen. Ein Großteil der Gender- und IT-Forschung geht von einem einseitigen Effekt aus: Alle organisatorischen Faktoren wirken sich auf alle Frauen in gleicher Weise aus. Eine alternative Sichtweise, die in dieser Studie untersucht wird, ist, dass geschlechtsspezifische Unterschiede reiche Einblicke in das Geschlechterungleichgewicht im IT-Beruf bieten. Das;-;-;-;https://link.springer.com/article/10.1057/ejis.2009.31 16a3abfda9cc4715555a17cad4266491;de;;;4.2.;;;Navigationsmechanismus in einer gemischten kontextsensitiven ubiquitären Lernumgebung In den letzten Jahren wurden Navigationsunterstützungsprobleme in ubiquitären Lernumgebungen diskutiert und untersucht. Mehrere Untersuchungen haben bewiesen, dass Schüler bessere Leistungen erbringen können, wenn Navigationshilfen durch Lernsysteme bereitgestellt werden. Traditionelle allgegenwärtige Lernumgebungen leiden jedoch unter einigen physischen Einschränkungen. Beispielsweise sind die Kapazitäten von Lernzielen begrenzt und/oder es werden Bewegungszeiten zum Erreichen von Lernzielen benötigt. Um diese Einschränkungen anzugehen und eine effizientere allgegenwärtige Lernumgebung zu schaffen, wird ein neuartiger Lernrahmen, nämlich die gemischte allgegenwärtige Lernumgebung, vorgeschlagen. Ein gemischter Navigationsalgorithmus, B-MONS, wird auch vorgeschlagen, um einen Navigationsunterstützungsmechanismus zu entwickeln, der zu dem neuen Lernrahmen passt. Experimentelle Ergebnisse zeigen, dass Schüler in der gemischten Navigationsumgebung mit Hilfe von B-MONs eine höhere Lernleistung erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54900-7_29 6dbc14ef8a50e94e3d802dc3458da332;de;;;5.2.;;;Quantum Secret Sharing basierend auf Quantum Search Algorithm Quantum Secret Sharing (QSS) und Quantensuchalgorithmus (QSA) gelten als zwei wichtige, aber unterschiedliche Forschungsthemen in der Quanteninformationswissenschaft. Dieses Papier erkennt ein wichtiges Merkmal der bekannten QSA von Grover an und wendet es dann an, um ein QSS-Protokoll vorzuschlagen. Im Gegensatz zu den bestehenden QSA-basierten QSS-Protokollen hat das neu vorgeschlagene Protokoll die folgenden zwei Vorteile: (1) Die Agenten benötigen keinen Quantenspeicher, wohingegen die Agenten in den bestehenden QSA-basierten QSS-Protokollen Langzeit-Quantenspeicher benötigen um ihre geheimen Schatten zu speichern, (2) können die Agenten zusammenarbeiten, um das Geheimnis des Bosses wiederzugewinnen, indem sie Schatten in klassischen Bits verwenden, während die anderen ihre Schatten in Photonen kombinieren und eine einheitliche Operation an den zurückgehaltenen Photonen durchführen müssen. Das vorgeschlagene QSS-Protokoll erweist sich auch als sicher gegen Lauscher oder böswillige Agenten.;-;-;-;https://link.springer.com/article/10.1007/s10773-012-1191-x 275b6ab10d9b02b0a4a7537f8c48f784;de;;;5.2.;;;Bewertung der urbanen Landnutzungsentwicklung: Entwicklung eines agentenbasierten Modells Für ein Fallstudiengebiet in der iranischen Provinz Qazvin haben wir ein agentenbasiertes Modell der Zersiedelung urbaner Landnutzung entwickelt, das die risikoexplizite Haltung von Landnutzungsentwicklern berücksichtigt. Zu diesem Zweck wurden neue Methoden zum Durchsuchen von Landschaften, zur Auswahl von zu entwickelnden Parzellen und zur Ermöglichung von Wettbewerben zwischen Agenten erwogen und implementiert. Die Agenten sind in fünf Kategorien unterteilt, sie fungieren als mobile Entwickler und haben mehrere landbezogene Ziele. Unser vorgeschlagenes Modell wertet zwei Hauptfälle der Berücksichtigung und Vernachlässigung des Risikos für die Kategorisierung der Agenten aus. Das Modell verwendet die zu kalibrierenden Daten des Jahres 2005 und die Ergebnisse werden mit Daten des Jahres 2010 bewertet. Die Ergebnisse zeigten, dass der Fall der Risikovernachlässigung zwar etwas besser war als der der Risikobetrachtung bei der Vorhersage des Ortes von Entwicklungen, der spätere war eine bessere Methode, um zusammenhängende Entwicklungsfelder zu erzeugen. Das Modell erreichte bei der Vorhersage der eingetretenen Entwicklungen den Wert von 82,15% gemessen am Kappa-Index. Daher wird hier berücksichtigt, dass die Verwendung der Einstellungen der Menschen zum Risiko zusammen mit geeigneten Gewichten für Kriterienkarten dem Modell hilft, Landnutzungsentwicklungen mit akzeptabler Genauigkeit und zusammenhängenderen Parzellen zu simulieren.;-;-;-;https://link.springer.com/article/10.1007/s12205-012-0367-5 1da596f569503b2f55dd135bb1cdf968;de;;;5.2.;;;Mehrstufige nichtlineare konjugierte Gradientenverfahren für uneingeschränkte Minimierung Konjugierte Gradientenverfahren sind für großskalige nichtlineare Optimierungsprobleme attraktiv, da sie die Speicherung von Matrizen vermeiden. Dai und Liao (Appl. Math. Optim. 43:87–101,;-;-;-;https://link.springer.com/article/10.1007/s10589-007-9087-z ba0a5b8d6e6f866b1f703e765608547d;de;;;4.2.;;;Jenseits des Weltraums (wie wir ihn kannten): Auf dem Weg zu zeitlich integrierten Geographien der Segregation, Gesundheit und Zugänglichkeit Viele grundlegende Begriffe in der geographischen und sozialwissenschaftlichen Forschung werden immer noch weitgehend in statischen räumlichen Begriffen konzeptualisiert, wobei ignoriert wird, wie unser Verständnis der von uns untersuchten Themen durch die Linse von Zeit und menschlicher Mobilität erheblich bereichert werden kann. In diesem Artikel werden drei solcher Begriffe erneut aufgegriffen: Rassentrennung, Umweltbelastung und Zugänglichkeit. Sie plädiert für die Notwendigkeit, unseren analytischen Fokus von statischen Wohnräumen auf andere relevante Orte und Zeiten im Alltag der Menschen auszudehnen. Mobilität ist ein wesentliches Element der raumzeitlichen Erfahrungen von Menschen, und diese komplexen Erfahrungen können nicht vollständig verstanden werden, wenn man sich nur ansieht, wo die Menschen leben. Da viele Sozialwissenschaftler an der Untersuchung von Segregation, Umweltbelastung und Zugänglichkeit interessiert sind, können Geographen dazu beitragen, die zeitlich integrierte Analyse dieser Fragen durch eine sorgfältige Untersuchung der Alltagserfahrungen der Menschen in Raum und Zeit (insbesondere in Bezug auf ihren täglichen Raum) voranzutreiben -Zeittrajektorien und Aktivitätsräume). Interdisziplinäre Forschung in dieser Richtung kann weitreichende Auswirkungen auf viele Disziplinen jenseits der Geographie haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-9205-9_4 1e5c098d94cd8a5bc68b6372a7243604;de;;;5.2.;;;Werbung und Kommunikation Werbung ist nicht-persönliche Kommunikation, die sich über verschiedene Medien an Zielgruppen richtet, um Produkte, Dienstleistungen und Ideen zu präsentieren und zu bewerben, deren Kosten von einem oder mehreren identifizierten Sponsoren getragen werden. Eine grundlegende Definition von Kommunikation besteht darin, die eigene Botschaft an andere weiterzugeben, aber im Kontext des Marketings kann dies auf verschiedene Weise und mit unterschiedlichen Medien erfolgen. Wir werden Kommunikation im Sinne des Marketings verwenden, d. h. ein Mittel der Überzeugung, das entweder zu einer gewünschten Aktion führt – wie dem Kauf eines bestimmten Produkts oder einer bestimmten Dienstleistung – oder zu einer Änderung der Einstellung oder des Verhaltens, die wahrscheinlich letztendlich zum gewünschten führt Aktion. Die wichtigsten Kommunikationstechniken sind Werbung, persönlicher Verkauf, Verkaufsförderung und Öffentlichkeitsarbeit (Public Relations), die alle gesondert behandelt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-24475-1_7 9327cc3fdec6b9d655a7641fae6e97c8;de;;;5.2.;;;Optimierungsmodell der Rotations-Bewässerungskanalverteilung mit GA und FS Die optimale Wasserverteilung im Bewässerungsbezirk (ID) ist eine wichtige Methode und Gegenmaßnahme, um den Wasserbedarf vernünftig zu begrenzen, die Wasserversorgung effektiv zu erhöhen und die ökologische Umwelt aktiv zu schützen usw. Gemäß der genetischen Theorie ist es unerlässlich, das traditionelle Binärsystem zu verwerfen Systemcodierung zur Lösung der Wasserverteilung. Da GA leicht in die Teillösung einsinkt, wird ein freier Suchalgorithmus eingeführt. Es erweitert den Suchraum für Algorithmen, verbessert die Qualität der Gencodierung, passt den Abfluss des Kanals an, schließt jeden Kanal gleichzeitig, verringert den Abfluss des Kanalwassers und reduziert den Zeitaufwand für manuelle Arbeit. Es hat eine hervorragende theoretische und realistische Wirkung auf die Wasserverteilung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24282-3_1 07c1828038e61ce0b402d9f719ff5282;de;;;4.2.;;;Jenseits von „nur Spaß und Spiel“: Der Prozess und die Ergebnisse der pferdegestützten Psychotherapie-Programmierung für institutionalisierte Mädchen In den letzten zwei Jahrzehnten haben kriminologische Wissenschaftler zunehmend versucht herauszufinden, „was funktioniert“, um Kriminalität und Kriminalität zu kontrollieren, und ob diese Ansätze je nach Geschlecht variieren sollten. Tatsächlich forderte die Neuzulassung des Gesetzes zur Jugendgerichtsbarkeit und Delinquenzprävention von 1992 Forschungsarbeiten, die darauf abzielten, die Bedürfnisse insbesondere krimineller Mädchen zu ermitteln und Strategien zu entwickeln, um diesen Bedürfnissen gerecht zu werden.;-;-;-;https://link.springer.com/chapter/10.1057/9781137476821_6 88a731b811e53ea42aad2e19acabc7c1;de;;;5.2.;;;Die Wirkung von Neuropeptiden auf menschliches Vertrauen und Altruismus: eine neuroökonomische Perspektive Die Neuroökonomie führt Methoden aus Neurowissenschaften und Ökonomie zusammen, um besser zu verstehen, wie das menschliche Gehirn Entscheidungen in ökonomischen und sozialen Kontexten generiert. Der aufkommende neuroökonomische Ansatz (Camerer et al. 2005, Fehr et al. 2005, Glimcher und Rustichini 2004, Sanfey et al. 2006) sucht eine Mikrogrundlage für soziale und wirtschaftliche Aktivitäten in neuronalen Schaltkreisen, indem er funktionelle Magnetresonanztomographie (fMRI), transcranialmagnetic . verwendet Stimulation (TMS), pharmakologische Interventionen und andere Techniken. Nebenprodukte eines solch ehrgeizigen Programms könnten ein besseres Verständnis individueller Pathologien im sozialen Verhalten, wie antisoziale Persönlichkeitsstörungen oder soziale Phobie, und ganz allgemein schlechte individuelle Entscheidungsfähigkeiten sein, einschließlich der fehlenden Fähigkeit, präpotente Impulse zu hemmen. Der Ansatz kann auch Einblicke in die Auswirkungen von individuellem und sozialem Lernen, empirische Disziplin der evolutionären Modellierung und Ratschläge geben, wie ökonomische Regeln und Institutionen so gestaltet werden können, dass Menschen sozial effizient auf Regeln reagieren. Hier überprüfen wir die tatsächlichen und vorhergesagten Auswirkungen von Neuropeptiden wie Oxytocin und Vasopressin auf menschliches Vertrauen und Altruismus. Traditionelle ökonomische Analysen gehen im Allgemeinen von der vereinfachenden Annahme aus, dass Menschen ausschließlich selbstbezogen sind, jedoch wurde eine große Menge experimenteller Beweise (Fehr und Fischbacher 2003) gesammelt, die darauf hindeuten, dass viele Menschen soziale Präferenzen aufweisen, dh ihre bevorzugten Entscheidungen basieren auf a positive oder negative Sorge um das Wohlergehen anderer und darüber, was andere Spieler über sie denken. Die Soziale Neuroökonomie (Fehr und Camerer 2007) versucht, die Gehirnprozesse zu verstehen, die diese regelmäßigen Abweichungen von rein eigennützigem Verhalten steuern. Ein Teil dieser Bemühungen betrifft die Untersuchung des Einflusses von Hormonen auf das Verhalten anderer Menschen und das Vertrauen in das Verhalten anderer Menschen. Die Soziale Neuroökonomie kombiniert die Werkzeuge der sozial-kognitiven Neurowissenschaften (Adolphs 2003, Blakemore et al. 2004, Lieberman 2007) mit gut strukturierten Aufgaben aus der Wirtschaftstheorie. Diese Aufgaben sind mit theoretischen Benchmark-Vorhersagen zum rationalen Spiel und der sozialen Effizienz von Ergebnissen ausgestattet, die für die Interpretation der Ergebnisse und die Kumulierung der Regelmäßigkeit zwischen den Studien nützlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79288-8_4 bcee3ed4968e1113fed7972427440c5b;de;;;5.2.;;;PictureEditorII: Ein konversationelles grafisches Bearbeitungssystem unter Berücksichtigung des Grades der Einschränkung Aus Sicht der Benutzerschnittstelle ist die Bildbeschreibung mit geometrischen Beschränkungen eine effektive Methode, die die semantische Lücke zwischen Benutzern und Zeichensystemen minimiert. Für Benutzer ist es jedoch oft schwierig, notwendige und ausreichende Einschränkungen zu definieren. Da herkömmliche interaktive Systeme keine Informationen über den Grad der Einschränkung bereitstellen, kann der tatsächliche Grad der Einschränkung innerhalb des Systems von dem abweichen, was der Benutzer angeben möchte, und folglich wird das gewünschte Bild nicht eindeutig gezeichnet. Dieses Papier schlägt ein dialogorientiertes System vor, das die Informationen über den Grad der Einschränkung an die Benutzer zurückliefert und flexibel auf Fälle reagiert, in denen die Einschränkungen unvollständig oder redundant sind. Insbesondere wenn die Beschränkungen nicht redundant sind, wird in diesem System eine schnelle Reaktion durch Verwendung eines neu entwickelten inkrementellen Ausbreitungsalgorithmus erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-68204-2_43 1862d9a48acedf187e64bce3749c2d66;de;;;5.2.;;;Ein auf Merkmalsextraktion und Expansion basierender Ansatz zur Identifizierung und Klassifizierung von Fragezielen Das Erkennen von Fragezielwörtern aus Benutzerfragen ist ein entscheidender Schritt bei der Fragezielklassifizierung, da es den potenziellen Bedarf der Benutzer genau widerspiegeln kann. In diesem Papier schlagen wir einen prägnanten Ansatz namens QTF_EE vor, um Fragezielwörter zu identifizieren, Fragezielmerkmale zu extrahieren und die Funktionen für die Fragezielklassifizierung zu erweitern. Basierend auf zwei öffentlich zugänglichen Datensätzen, die mit 50 Antworttypen gekennzeichnet sind, vergleichen wir den QTF_EE-Ansatz mit 12 konventionellen Klassifikationsmethoden wie Bag-of-Words und Random Forest als Baseline-Methoden. Die Ergebnisse zeigen, dass der QTF_EE-Ansatz die Baselines übertrifft und in der Lage ist, die Klassifikationsleistung der Frageziele auf eine Genauigkeit von 87,4% zu verbessern, was seine Wirksamkeit bei der Identifizierung von Fragezielen zeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-68699-8_20 42953914078884c9147a8403e328603f;de;;;5.2.;;;Völkermord und seine langfristigen psychischen Auswirkungen auf Überlebende – was wir wissen und was wir nicht wissen Über die traumatische Erinnerung nach Völkermord im Zeitverlauf und das Ausmaß, in dem die Erinnerung an den Völkermord körperliche und geistige Störungen oder Belastbarkeit vorhersagt, ist wenig bekannt. Ist der Erinnerungsrückruf insbesondere mit der Gesundheit von Überlebenden verbunden? Verändern sich Erinnerungen im Laufe der Zeit? Wir werden diese Fragen vorläufig anhand eines Reviews (Ein Scoping Review ist eine Sammlung von Literatur in einem bestimmten Bereich, bei der es darum geht, so viele Evidenz wie möglich zu sammeln und die Ergebnisse zu kartieren) von nicht-klinischen Studien zu langfristigen Auswirkungen beantworten von Völkermorden an Überlebenden und der psychischen Gesundheit ihrer Nachkommen. Sicherlich erfassen wir in diesem Kapitel nicht die ganze Fülle der Literatur. Wir untersuchen Gedächtnisveränderungen im Zusammenhang mit Völkermord. Traumatische Erinnerungen sind anfällig für Veränderungen und geben in einigen Fällen ein Gefühl der Gegenwart der Vergangenheit. Solche Gedächtnisveränderungen können sich auf die psychische Gesundheit von Überlebenden des Genozids auswirken. Diese Auswirkungen auf die psychische Gesundheit der Überlebenden können posttraumatische Belastungsstörungen, Depressionen, Angstzustände, Somatisierung und Drogenmissbrauch umfassen. Umgekehrt kann es zu einer erhöhten Resilienz führen. Wir überprüfen Forschungsergebnisse, die zeigen, dass Veränderungen des Gedächtnisses ein Schlüsselmerkmal sind, das Gesundheit und Wohlbefinden beeinflusst. Die empirische Längsschnittanalyse der Erinnerungen von Genozid-Überlebenden und ihrer zeitlichen Variation könnte ein wichtiger Schritt zur Förderung von Genozid- und Gesundheitsstudien sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-65513-0_6 5d326f217a3017fb2aaef654e52d755d;de;;;5.2.;;;Bahnplanung und Steuerung eines autonomen Roboteragenten mit Mamdani-basiertem Fuzzy-Logic-Controller und ARDUINO UNO-Mikrocontroller Die autonomen mobilen Roboter werden für verschiedene Zwecke wie Materialtransport, nukleare und militärische Umgebungen usw. verwendet. In diesem Beitrag wird die Fuzzy-Logik-Technik verwendet, um den mobilen Roboter in einer unbekannten Umgebung zu steuern. Das Hauptziel des Roboters ist es, den Zielpunkt von einem Startpunkt aus zu erreichen, wobei Hindernisse im Weg vermieden werden. Der Fuzzy-Logic-Controller von Mamdani wird verwendet, um einen kollisionsfreien Weg zu erhalten, wobei die Eingaben der vordere Hindernisabstand (FOD), der linke Hindernisabstand (LOD), der rechte Hindernisabstand (ROD), der Kurswinkel (HA) sind und die Ausgabe dem Lenkwinkel entspricht ( SA) des mobilen Roboters. Die Wirksamkeit des Controllers wird mit dem Mamdani Fuzzy-Inferenzsystem verifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11933-5_20 2b9c4974406b4191efa49896d729bc40;de;;;4.2.;;;Lehrerfortbildung durch Web 2.0-Umgebungen Lehrerfortbildung ist nicht mehr gleichbedeutend mit dem Erwerb neuer Lehrmethoden, sondern vielmehr darum, neue Prozesse in Gang zu setzen, sich mit neuen Lernformen auseinanderzusetzen, die sich in der Unterrichtspraxis widerspiegeln. Durch den einfachen Zugriff auf die Palette der Online-Kommunikationstools wurden neue Möglichkeiten zur Weiterentwicklung ermöglicht. Das Lernen in einer größeren Gemeinschaft ist nicht nur eine Möglichkeit, sondern eine Realität geworden, die einer größeren Anzahl von Personen zugänglich ist, die ihren Lernweg sowohl auf personalisierte als auch auf vernetzte Weise verfolgen möchten. Das Web bietet den Raum zum Lernen, aber die Lernumgebung hängt entscheidend von den Beziehungen ab, die zwischen den Individuen hergestellt werden. Die Effektivität des Webs spiegelt sich in den unkonventionellen Möglichkeiten wider, die es den Menschen bietet, als Wissensproduzenten statt als Informationssammler aufzutreten. Daher sind es nicht die Werkzeuge, die am wichtigsten sind, um eine Lernumgebung zu entwickeln, in der personalisiertere Lernmöglichkeiten und kollektive Intelligenz als Ergebnis persönlicher und gemeinschaftlicher Bemühungen gedeihen. Obwohl Webtools den Raum für Interaktion bieten, ist es die Verbesserung einer bedeutungsvollen Lernatmosphäre, die zu einem gemeinsamen Unternehmen führt, um zu lernen und sich in ihrer Praxis zu meistern, was einen Lernraum in eine effektive, interaktive Lernumgebung verwandelt. Der Beitrag untersucht Lern- und Trainingserfahrungen in informellen Webumgebungen als Grundlage für eine offene Diskussion über die berufliche Entwicklung in Web 2.0-Umgebungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04757-2_3 0aadc73e7c64f71e36465aa3bd894f8d;de;;;4.2.;;;Die Kontinuität des Übergangs Zwei Annahmen über die Bedeutung des Jahres 1989 für die politische Zukunft Polens haben die Wissenschaftler geleitet. Die erste besagt, dass Polens Übergang vom Staatssozialismus 1989 von einvernehmlichen Eliten eingeleitet wurde und somit einer Revolution von oben gleichkam (Staniszkis 1991a, Osiatyński 1996, Higley;-;-;-;https://link.springer.com/chapter/10.1057/9780333983003_2 68cfda42c0e2bada74e2bfc25b91b7a6;de;;;4.2.;;;Raum, Ort und soziales Handeln: Europäische muslimische Geographien Wenn man versucht, eine Karte zu entwerfen, die die Orte erfasst, an denen sich europäische Muslime leben, wo europäische Muslime ihre Erfahrungen ableiten, miteinander und mit „anderen“ interagieren, sich an verschiedenen Formen sozialen Handelns beteiligen und ihre Identitäten reflektieren und konstruieren, sie müssten Wege finden, ein fließendes und sich ständig weiterentwickelndes, facettenreiches und mehrdimensionales Terrain darzustellen und zu verstehen, das mit konventioneller Geographie nur schwer zu beschreiben wäre. Denn europäische muslimische Identitäten beziehen eindeutig Stärke, Widerstandsfähigkeit und ein Gefühl der 'Zugehörigkeit' aus der relativen Unmittelbarkeit des 'Lokalen', sind aber auch sehr 'zu Hause' inmitten komplexer, stärker vermittelter, aber immer noch starker Beziehungen, die an der translokalen und transnationalen Feldern. Gleichzeitig beide;-;-;-;https://link.springer.com/chapter/10.1057/9781137357786_5 e8bd89f7bbf2ad6e14b584202087caeb;de;;;4.2.;;;Die politische Ökonomie der Ungleichheit und Boom-Bust-Zyklen in der Türkei: vor und nach der großen Rezession Trotz scheinbar bedeutender politischer Veränderungen gab es eine bemerkenswerte Kontinuität in den Hauptmerkmalen, die das Wachstumsregime in der Türkei in den letzten zwei Jahrzehnten bestimmten. Dieses neoliberale Spekulations- und finanzgetriebene Wachstumsregime hat sich als sozial und wirtschaftlich instabil erwiesen, wie die Entwicklungen nach der Großen Rezession sowie die jüngste Geschichte der Türkei, die von regelmäßigen Boom-and-Bust-Zyklen gekennzeichnet ist, gezeigt haben. In der jüngsten globalen Krise erlebte die Türkei 2009 eine der schwersten Rezessionen – tiefer als in anderen großen Schwellenländern. Die Erholung seit 2009 ist so fragil wie zuvor. In den letzten zehn Jahren hat die Unsicherheit in allen Teilen der arbeitenden Bevölkerung zugenommen, mit Ausnahme der Ärmsten. Das von billigen Arbeitskräften, spekulativen Finanzkapitalzuflüssen, einem Bauboom und einem hohen Handelsdefizit abhängige Wachstumsmodell der Türkei wäre auch ohne die Auswirkungen der Großen Rezession früher oder später in eine Krise geraten.;-;-;-;https://link.springer.com/chapter/10.1057/9781137485557_8 4b3be062766612d621fe3db2db57f32b;de;;;5.2.;;;Kostenoptimierungsstrategie für die langfristige Speicherung wissenschaftlicher Arbeitsabläufe Mit der rasanten Entwicklung der Cloud-Umgebung wurden die Fähigkeiten von Systemen mit leistungsstarken Rechen- und Speicherkapazitäten gefördert. Für das Merkmal „Pay-as-you-go“ von Cloud-Ressourcen müssen jedoch die unterschiedlichen Kosten für die Datenspeicherung berücksichtigt werden. Gerade bei der Verarbeitung von „alten Daten“ in der Langzeitspeicherung ist eine entsprechende Strategie erforderlich, um die Kosten der Nutzer zu senken. Unter Berücksichtigung der Charakteristika der Preisschichtung in der aktuellen kommerziellen Cloud-Umgebung wird eine dreistufige preisgeschichtete Speicherstrategie basierend auf dem CTT-SP-Algorithmus vorgeschlagen, die einen Teil der „alten Daten“ auf relativ kostengünstigen Sekundär- und Tertiärspeichern speichert und sicherstellt dass die durch die dreistufige Lagerung verursachte Zeitverzögerung die Frist nicht überschreitet. Im Vergleich zu anderen Speichermethoden zeigt das experimentelle Ergebnis, dass die vorgeschlagene Strategie die Zeitverzögerung garantieren und gleichzeitig die Kosten der Benutzer bei der Langzeitspeicherung erheblich senken kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0118-0_12 43e6dc5e37770385e9b51222f6d7c733;de;;;5.2.;;;Was jetzt? Auf der Suche nach einer Lösung für die WTO-Industrietarifverhandlungen Die WTO-Verhandlungen über den nicht-landwirtschaftlichen Marktzugang (NAMA) könnten für Entwicklungsländer zu erheblichen Export-, Beschäftigungs- und wirtschaftlichen Effizienzgewinnen führen. Eine Analyse verschiedener Szenarien zeigt potenzielle globale jährliche Wohlfahrtsgewinne zwischen 70 und 110 Milliarden US-Dollar. Hinter den allgemein bescheidenen Gesamtergebnissen verbergen sich jedoch wichtige Veränderungen bei Handel und Produktion in einzelnen Sektoren. Einige Länder werden in Schlüsselsektoren erhebliche Zuwächse erzielen, in anderen Ländern werden jedoch einige Sektoren mit erheblichen Anpassungen, einschließlich erheblicher Beschäftigungs- und Produktionsverluste, konfrontiert. Geschätzte Einbußen bei den Zolleinnahmen könnten sich für eine Reihe von Ländern stark negativ auf die Staatseinnahmen auswirken.;-;-;-;https://link.springer.com/chapter/10.1057/9780230377806_2 ec02207603913379f8f89fc90e8f1832;de;;;5.2.;;;Interpretation der Streuung durch inhomogene Partikel Die im vorigen Kapitel betrachteten Ansätze zur Interpretation der Kleinwinkelstreukurve (nämlich Berechnung der Invarianten und Modellierung) lassen sich in der Regel nur im Rahmen einer homogenen Näherung anwenden. Sie geben jedoch keine Auskunft über Inhomogenitäten, die in jedem realen Partikel unweigerlich vorhanden sind und mit seiner Struktur sowie der Lösungsmittelpenetration zusammenhängen können. Daraus folgt, dass neue Interpretationsmethoden notwendig sind, um von der Analyse der allgemeinen Parameter zu einer Untersuchung der inneren Struktur von Teilchen zu gelangen. Die effektivste Methode besteht darin, die Änderung der Streukapazität des Partikels (oder seines einzelnen Segments) gegenüber einem Lösungsmittel zu untersuchen und anschließend die entsprechenden Variationen der Streukurven zu analysieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-6624-0_4 b26612592c3e568cd7ccd6ef5775fd34;de;;;4.2.;;;On-Demand-Extraktion von Domain-Konzepten und -Beziehungen aus Social-Tagging-Websites Viele Inhalte im World Wide Web werden mit einfachen Wörtern oder Phrasen in natürlicher Sprache versehen, da Web-Bürger Tags erstellen, die Informationen in erster Linie organisieren, um ihren persönlichen Abruf und ihre Verwendung zu erleichtern. Diese Tags repräsentieren, oft unvollständig, Wissen über Konzepte in einer Domäne. Über eine große Anzahl von Mitwirkenden aggregiert, bieten diese Tags das Potenzial, Schlüsselkonstrukte in einer Domäne von unten nach oben zu identifizieren. Diese Forschung entwickelt eine Reihe von Heuristiken, die von einzelnen Benutzern im Web beigesteuerte Tags aggregieren und analysieren, um Konstrukte auf Domänenebene zu extrahieren und zu generieren. Die Heuristik leitet die Existenz von Konstrukten ab und unterscheidet Entitäten, Attribute und Beziehungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13881-2_23 8158cc1561dda85c138eaba06a4414a0;de;;;5.2.;;;Über unbekannte Daten und Equi-Join-Operationen In diesem Papier beschäftigen wir uns mit der Abfrage von Datenbanken, die unbekannte Attributwerte enthalten können, die durch Möglichkeitsverteilungen dargestellt werden. Während die Operationen Auswahl und Projektion in einem solchen Kontext einfach erweitert werden können, ist dies für den Equi-Join-Operator nicht der Fall, für den mehrere Semantiken möglich sind. Auf diese unterschiedliche Semantik wird ebenso hingewiesen wie auf die entsprechenden Situationen im Hinblick auf den Informationsbedarf. In jedem Fall wird auch die Frage der Zusammensetzung der Abfrage untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-1834-5_6 9836a09231207da6345e13300afeea83;de;;;4.2.;;;Eine explorative Untersuchung der Nutzung und Wirkung akademischer Instant Messaging-Gruppen bei Universitätsstudenten Die Nutzung von Instant Messaging-Gruppen für verschiedene akademische Zwecke ist ein steigender, aber weitgehend unterschätzter Trend an Hochschulen. In der vorliegenden Studie untersuchen wir die Verwendungszwecke und Ergebnisse von drei Arten von akademischen Instant-Messaging-Gruppen oder AIMGs. Formale AIMGs werden von Lehrenden erstellt und verwaltet, Klassen-AIMGs werden von Studenten erstellt und von allen Mitgliedern einer bestimmten Klasse zusammengeführt, und Studien-AIMGs sind kleinere Gruppen, die von Studenten erstellt werden, die sich persönlich kennen oder in Gruppenaufgaben zusammenarbeiten. Um das Verständnis der Rolle dieser Gruppen für das Wohlbefinden und die akademische Entwicklung der Studierenden zu verbessern, stellen wir Forschungsfragen zu ihren Zusammenhängen mit akademischer Leistung, akademischem Stress und Studienerfahrungen der Studierenden. Wir verwenden einen explorativen Rahmen und eine Erhebungsmethodik, um Daten von einer großen Stichprobe von Studenten im Grundstudium (;-;-;-;https://link.springer.com/article/10.1007/s10639-021-10631-y c975a86e8afb55cd450841b623f4e037;de;;;4.2.;;;Entwirrung für Autonomie: Verständnis der soziomateriellen Praktiken öffentlicher Dienste Eine Ambition für eine demokratische Informationsgesellschaft besteht darin, Dienste bereitzustellen, die die Beherrschung und Kontrolle der Bürger über ihre Umwelt erhalten und sogar verbessern. Die Analyse öffentlicher Dienste aus der Perspektive der Bürgerautonomie kann aufzeigen, wo der Dienst und seine IT-Systeme die Nutzerautonomie nicht unterstützen. Wir analysieren einen öffentlichen Dienst und diskutieren ihn als sozio-materielle Verschränkung. Basierend auf unseren Daten zur Nutzung eines öffentlichen Dienstes durch die Bürger identifizieren wir die Notwendigkeit, zwischen Verstrickungen und Verflechtungen zu unterscheiden, und schlagen einen Begriff der Entflechtung vor, um die Art und Weise zu charakterisieren, in der die Berater des öffentlichen Dienstes den Bürgern helfen. Das Erleben der Dienstleistung als Verschachtelung ermöglicht dem Bürger das Sehen und Handeln, während eine Verstrickung ohne eine gewisse Kompetenz nicht zu bewältigen scheint. Unterschiedliche Arten von Verstrickungen erfordern unterschiedliche Arten von Kompetenzen, um sie anzugehen. Schließlich diskutieren wir, wie das Konzept der Entflechtung von Steuerfragen die Autonomie der Bürger unterstützen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32270-9_4 3fbf6e99c53520e2f85a13891215b4e6;de;;;4.2.;;;Räumlich-zeitliche Fragmentierung von Freizeitaktivitäten im Informationszeitalter: Empirische Belege aus Nanjing, China Die Aktivitätsfragmentierung bietet einen neuen Ansatz zum Verständnis der Transformation von urbanem Raum und Funktion im Informationszeitalter. Es wurden zahlreiche theoretische und empirische Studien zur Aktivitätsfragmentierung durchgeführt, aber nur wenige Studien haben sich auf die Fragmentierung von Freizeitaktivitäten konzentriert. Diese Studie sollte die vorhandene Literatur erweitern, indem sie: 1) die räumlich-zeitliche Fragmentierung von physischen und virtuellen Freizeitaktivitäten anhand eines in Nanjing, China gesammelten Datensatzes analysiert und 2) die Gründe für die Fragmentierung von Freizeitaktivitäten sowie die möglicher räumlicher Effekt der Aktivitätsfragmentierung. Die Ergebnisse zeigten, dass virtuelle Freizeitaktivitäten stärker fragmentiert sind als physische Freizeitaktivitäten, jedoch variiert die Fragmentierung der physischen und virtuellen Freizeitaktivitäten an Wochentagen und Wochenenden sowie an verschiedenen Orten und Stadtvierteln. Darüber hinaus legen die Ergebnisse nahe, dass soziodemografische Faktoren und Variablen der Informations- und Kommunikationstechnologie (IKT) die Fragmentierung von Freizeitaktivitäten deutlich beeinflussen. Unterdessen kann die Fragmentierung virtueller Freizeitaktivitäten die Transformation des traditionellen urbanen Raums durch die Neuzuweisung von Freizeitaktivitäten und -orten fördern.;-;-;-;https://link.springer.com/article/10.1007/s11769-017-0851-4 6a88f4be29cfe3779640d54f44f802c2;de;;;5.2.;;;Argumentationslogiken für die Zufallsentdeckung Wenn mehrere autonome Einheiten – Agenten – an der Zufallserkennung und -verwaltung beteiligt sind, können die beteiligten Agenten nicht übereinstimmen, was ein Zufallsereignis ist und welche Maßnahmen sie gegebenenfalls ergreifen sollen. Ein Ansatz zur Agentenkommunikation in dieser Situation besteht darin, darauf zu bestehen, dass Agenten nicht nur Nachrichten senden, sondern sie auch mit Gründen unterstützen, warum diese Nachrichten angemessen sind. Das ist argumentationsbasierte Kommunikation. In diesem Kapitel besprechen wir einige unserer Arbeiten zur argumentationsbasierten Kommunikation und diskutieren die Themen, die wir bei der Entwicklung von Systemen für die argumentationsbasierte Kommunikation zwischen Agenten in den Bereichen Zufallserkennung und Management als wichtig erachten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-06230-2_11 36decc8e921df03dd7db188d667d4550;de;;;5.2.;;;Wann ist es in Ordnung zu lügen? Ein einfaches Modell des Widerspruchs in agentenbasierten Dialogen Wann ist es in Ordnung zu lügen? Und was ist überhaupt eine Lüge? Dieser Artikel untersucht den Begriff des Lügens in agentenbasierten Systemen und konzentriert sich auf Dialoge und Situationen, in denen es für Agenten akzeptabel ist, Redewendungen zu äußern, die ihren Überzeugungen widersprechen. Wir untersuchen Situationen im Verhalten von Mensch und Tier, in denen Lügen – also Handlungen oder Aussagen, die den eigenen Überzeugungen widersprechen – als gesellschaftlich akzeptabel oder sogar überlebensnotwendig angesehen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-32261-0_17 7512977140268e435faa153ca72bfb5f;de;;;5.2.;;;Benutzeroberfläche für ein vorlagenbasiertes Fragebeantwortungssystem Da immer mehr RDF-Daten als Linked Data veröffentlicht werden, werden intuitive Zugriffsmöglichkeiten auf diese Daten immer wichtiger. Ansätze zur Beantwortung von Fragen in natürlicher Sprache wurden als guter Kompromiss zwischen Intuitivität und Ausdruckskraft vorgeschlagen. Wir präsentieren eine Benutzeroberfläche für das vorlagenbasierte Frageantwortsystem, das die gesamte Frageantwortpipeline abdeckt und sachliche Fragen mit einer Liste von RDF-Ressourcen beantwortet. Benutzer können vollständige englische Sachfragen stellen und erhalten eine Liste von Ressourcen, die dann mit den Eigenschaften visualisiert werden, von denen erwartet wird, dass sie die wichtigsten Informationen für den Benutzer enthalten. Die verfügbaren Wissensdatenbanken sind (1) DBpedia für die Beantwortung allgemeiner Domänenfragen und (2) Oxford-Immobilien für die Wohnungssuche. Das System ist jedoch leicht auf andere Wissensbasen erweiterbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41360-5_21 b4553031e5aaffb137f7f7679e3b6c08;de;;;5.2.;;;Kollektiver Rechtsschutz: Die Notwendigkeit neuer Technologien Nach vielen Jahren der Debatte über kollektive Rechtsdurchsetzung hat die Europäische Kommission vorgeschlagen, einen repräsentativen Mechanismus einzuführen, der von öffentlichen Stellen und Verbraucherverbänden kontrolliert wird, die bestimmte Kriterien erfüllen. Die Kommission hat jedoch nur einen einzigen Mechanismus (die auf Rechtsstreitigkeiten basierende Sammel- oder Verbandsklage) in Betracht gezogen, bei dem es sich tatsächlich um „alte Technologie“ handelt. Es gibt mehrere andere Mechanismen, die kollektiven Rechtsschutz bieten – neue Technologien. Der erste ist der;-;-;-;https://link.springer.com/article/10.1007/s10603-018-9388-x 8ef69ad259225dc68be63dc8c88da664;de;;;5.2.;;;Kern oder Peripherie? Die Auswirkungen von Herkunftslandagglomerationen auf die innerstaatliche Expansion von MNUs Wir zeigen, wie der anfängliche subnationale Eintrittsstandort ausländischer multinationaler Unternehmen (MNUs) in China ihre späteren Standortwahlen und Expansionsgeschwindigkeiten innerhalb des Landes beeinflusst. Wir unterscheiden zwischen MNUs, die ihre erste Niederlassung in co-ethnischen Kernen – dichten Agglomerationen anderer Firmen aus dem gleichen Herkunftsland – gründen, und MNUs, die ihre erste Niederlassung in der Peripherie, also außerhalb dieser co-ethnischen Kerne, ansiedeln. Um koethnische Kerne in China zu identifizieren, verwenden wir eine Geovisualisierungsmethode, die die Grenzen der Kerne im Laufe der Zeit organisch und dynamisch zieht. Wir stellen unsere Ergebnisse dem vorherrschenden Ansatz gegenüber, statische Verwaltungsgrenzen zur Identifizierung von Agglomerationen zu verwenden. Unsere Ergebnisse belegen die Pfadabhängigkeit, indem (a) dem Eintritt durch subnationale Orte mit starken koethnischen Gemeinschaften eine Expansion in andere Orte folgt, an denen koethnische Gemeinschaften präsent sind, und dass (b) der Eintritt durch koethnische Gemeinschaften beschleunigt wird das Tempo, mit dem MNUs zusätzliche Tochtergesellschaften in China gründen. Wir stellen auch fest, dass koethnische Gemeinschaftseffekte die MNU-Aktivitäten innerhalb des Landes im Laufe der Zeit trotz einer Vielzahl von wirtschaftlichen, institutionellen und Investitionsentwicklungen weiterhin beeinflussen.;-;-;-;https://link.springer.com/article/10.1057/s41267-016-0060-x e591c0c39ef3586c30709f5e3b041cae;de;;;5.2.;;;Logikprogrammierung höherer Ordnung In diesem Papier betrachten wir das Problem der Erweiterung von Prolog um Prädikats- und Funktionsvariablen und typisierte λ-Terme. Zu diesem Zweck verwenden wir eine Logik höherer Ordnung, um eine Verallgemeinerung auf Hornklauseln erster Ordnung zu beschreiben. Wir zeigen, dass diese Erweiterung bestimmte wünschenswerte rechnerische Eigenschaften besitzt. Konkret zeigen wir, dass diesen Klauseln die bekannte operationale Semantik und die Least Fixpoint Semantik gegeben werden kann. Dann wird eine Sprache, Prolog, die auf dieser Verallgemeinerung basiert, vorgestellt, und es werden mehrere Beispiele für ihre Verwendung bereitgestellt. Wir diskutieren auch einen Dolmetscher für diese Sprache, bei dem neue Quellen von Verzweigungen und Rückverfolgungen berücksichtigt werden müssen. Für die Sprache wurde ein experimenteller Interpreter konstruiert, mit dem alle Beispiele in diesem Papier getestet wurden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-16492-8_94 c11063cfea08f74740d833510e8b2f7b;de;;;4.2.;;;Wissensmanagement: Organisationskultur im Gesundheitswesen Indonesien Heutzutage erkennen Unternehmen, dass Wissen ein wichtiger Vermögenswert ist, um einen Wettbewerbsvorteil zu erzielen. Dafür ist es für Organisationen notwendig, das Wissen durch Wissensmanagement (WM) so weit wie möglich zu verwalten und zu nutzen. Das KM-Konzept wird nicht nur in großen Unternehmen verwendet, sondern wird auch von Gesundheitsorganisationen übernommen, um die Qualität der Dienstleistungen zu verbessern. Das Management von Wissen ist nicht einfach, da viele Faktoren zu berücksichtigen sind, von denen einer die Unternehmenskultur ist. Organisationskultur ist definiert als eine Reihe von Praktiken, Werten und Annahmen, die von Mitgliedern der Organisation gehalten werden und das Verhalten der Organisation beeinflussen können [12, 13]. Laut Kim Cameron und Robert Quinn (2006) kann die Unternehmenskultur mit dem „Organizational Culture Assessment Instrument“ (OCAI) untersucht werden, das einen Rahmen hat, der als Competitive Value Framework (CVF) bezeichnet wird. Dieses Framework besteht aus vier Kulturtypen: Clan, Adhocracy, Market und Hierarchie. In dieser Untersuchung fanden wir heraus, dass Gesundheitsorganisationen in Indonesien einen vorherrschenden Kulturstil entwickelt haben. Es ist eine Mischung aus Markt und Hierarchie. Darüber hinaus diskutieren wir auch die Beziehung von vier Kulturtypen mit WM und sechs Dimensionen der Organisationskultur.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55032-4_11 9fbbe4cd3b6a8867fea0d4b57d094db8;de;;;4.2.;;;Bewertung der Lebensqualität bei Schizophrenie Strategien zur Kostendämpfung in der psychischen Gesundheit sollten nicht nur quantitative Maßnahmen (Prävalenz, Inanspruchnahme von Dienstleistungen) berücksichtigen, sondern auch die qualitativen Ergebnisse der neueren Strategien. Einige Finanzierungsstrategien könnten zu einer Verschlechterung der Lebensqualität von schizophrenen Patienten führen. Andererseits können neuere Behandlungsmethoden (ausgefeilte Rehabilitationsverfahren oder neuere atypische Neuroleptika) die Lebensqualität erheblich verbessern, würden aber die Kosten erhöhen. Die adäquate Einschätzung der Lebensqualität bei Schizophrenie ist eine Herausforderung für die Bewertung der Konsequenzen des Managements im Bereich der psychischen Gesundheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4147-9_29 93e1bf52a7aaf194d6cf6ef72d66445c;de;;;4.2.;;;Kombination von BPMS mit Social Software für wissensintensive Arbeit: Forschungsfragen Wissensintensive Prozesse sind von Natur aus explorativ, im Detail nicht repetitiv und im Voraus nicht vollständig bekannt. Flexibilität, effektives Wissensmanagement und effiziente Zusammenarbeit sind wichtige Voraussetzungen für solche Prozesse. Ein typisches flussorientiertes BPMS, das sich a priori auf die Generierung eines Modells stützt und den Prozessteilnehmern eine bestimmte Abfolge von Aufgaben auferlegt, ist für solche Prozesse nicht geeignet, da es nicht ihrer Natur entspricht und ihren Anforderungen nicht gerecht wird. Daher werden alternative Ansätze von der Forschungsgemeinschaft untersucht. Ein sich abzeichnender Trend in diese Richtung ist die Integration von Social-Software-Funktionen in BPMS. Das Zusammenbringen von BPMS und Social Software ist jedoch im Kontext wissensintensiver Arbeit keine einfache Aufgabe. Es treten mehrere entscheidende Fragen auf, die genau untersucht werden sollten, um einen geeigneten Ansatz zu entwickeln, der eine effiziente Durchführung wissensintensiver Prozesse gewährleistet. In diesem Papier werden eine Reihe solcher Probleme identifiziert, die beim Auffinden einer effektiven und effizienten Lösung helfen, wenn Funktionen aus beiden Softwaretypen kombiniert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38484-4_3 89f9900469371cabcf0c2f9b09c53884;de;;;4.2.;;;Persönliche Profilinformationen als Anhaltspunkte für die Glaubwürdigkeit in Online-Reisebewertungen Angesichts der Bedeutung von Reisebewertungen als Quelle für reisebezogene Informationen wird die Glaubwürdigkeit der Quelle in Bezug auf Forschung und Anwendung immer wichtiger. Diese Studie untersucht die Rolle von selbst offengelegten persönlichen Profilinformationen (PPI) als Anhaltspunkte für die Glaubwürdigkeit der Quelle im Zusammenhang mit der Nutzung von Online-Bewertungen durch Reisende für Reiseplanungszwecke. Die Ergebnisse zeigen, dass die wahrgenommene Kongruenz zwischen PPI, d. h. Standort des Gutachters und Reiseinteresse, und dem Textinhalt des Gutachtens die Beurteilung der Glaubwürdigkeit des Gutachters durch die Probanden beeinflusst. Die Ergebnisse deuten darauf hin, dass die Verfügbarkeit des vom Rezensenten selbst angegebenen PPI als Glaubwürdigkeitshinweis für die Bewertungen von Reisegutachtern durch Reisende dient. Die Implikationen der Studie sowie Richtungen für die zukünftige Forschung werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36309-2_20 19dbb98a72cbf3adf8a1cb45adef2f34;de;;;4.2.;;;Profil Politik: Untersuchung der Polarisierung durch die Facebook-Seiten von Kongressmitgliedern Es wird immer deutlicher, dass die Polarisierung innerhalb der amerikanischen politischen Institutionen zunimmt. Weniger klar sind die Auswirkungen von Social-Media-Sites wie;-;-;-;https://link.springer.com/chapter/10.1057/9781137312761_6 8f603780bf1a80d62fa311295b391980;de;;;4.2.;;;Kulturübergreifende Studie der Gesichtsausdrücke und Designüberlegungen von Avataren in asiatischen Ländern Avatare werden zunehmend verwendet, um unsere Emotionen in unserer Online-Kommunikation auszudrücken. Solche Avatare werden basierend auf der Annahme verwendet, dass Avatar-Ausdrücke in allen Kulturen universell interpretiert werden. Unsere frühere Studie zeigte jedoch, dass es kulturelle Unterschiede bei der Interpretation der Gesichtsausdrücke von Avataren gibt. Dieses Papier fasst die Ergebnisse kulturübergreifender Bewertungen von Avatar-Ausdrücken in fünf asiatischen Ländern zusammen. Die Ziele dieser Studie sind: 1) kulturelle Unterschiede bei der Bewertung des Avatar-Ausdrucks zu untersuchen und Erkenntnisse aus psychologischen Studien zur Erkennung des menschlichen Gesichtsausdrucks anzuwenden, 2) Designmerkmale zu identifizieren, die kulturelle Unterschiede bei der Interpretation des Avatar-Gesichtsausdrucks verursachen. Die Ergebnisse bestätigten, dass 1) es in asiatischen Ländern kulturelle Unterschiede bei der Interpretation des Gesichtsausdrucks von Avataren gibt und dass die psychologische Theorie, die besagt, dass die physische Nähe die Genauigkeit der Gesichtsausdruckerkennung beeinflusst, auch auf die Gesichtsausdrücke von Avataren anwendbar ist, 2) die Verwendung von Gesten und Gestenzeichen kann verursachen manchmal Gegeneffekte bei der Erkennung von Avatar-Gesichtsausdrücken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74000-1_16 de71cbb6b3e391cfc8366adf9fc0befb;de;;;4.2.;;;Ein computergestütztes Agentenmodell der Einflüsse auf körperliche Aktivität basierend auf der sozialkognitiven Theorie Es wird ein computergestütztes Agentenmodell sozialer und kognitiver Einflüsse auf körperliche Aktivität basierend auf Banduras Social Cognitive Theory vorgeschlagen. Der Nutzen dieses Modells ist zweifach. Erstens wird es verwendet, um Simulationen vieler verschiedener Szenarien durchzuführen, die in der Realität nicht einfach zu manipulieren sind und die möglicherweise zu neuen Hypothesen darüber führen können, wie soziale und kognitive Faktoren die körperliche Aktivität beeinflussen. Zweitens wird dieses Rechenmodell als nächster Schritt in einem realen Coaching-Agenten eingesetzt. Der Coach wird das aktuelle Modell verwenden, um die sozialen und kognitiven Einflüsse auf die körperliche Aktivität des Benutzers zu ergründen und abzuleiten, welche Coaching-Strategie am besten zum Benutzer passt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-44927-7_37 c689bdd3d16c5850fe8e563f53470d5b;de;;;4.2.;;;Sozioökonomische Entwicklung und Lebensqualität in Italien Das Papier befasst sich mit der Analyse der Entwicklung der Lebensqualität (QOL) in Italien unter Berücksichtigung der Größe der Städte und der geoökonomischen Aufteilung des Landes. Insbesondere ausgehend vom Modell der of;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-0387-1_6 8de55f4e4b0af7d87bd9d4ebc5069916;de;;;4.2.;;;Ein Fuzzy-Modell für die Auswahl von Social Web Services In diesem Artikel wird ein Fuzzy-Modell zur Auswahl von Webdiensten mit sozialen Komponenten für die Entwicklung zusammengesetzter Webdienste erläutert. Der soziale Aspekt ergibt sich aus den Qualitäten, die Webdienste zur Laufzeit aufweisen, wie Egoismus und Vertrauenswürdigkeit. Das Fuzzy-Modell berücksichtigt diese Qualitäten bei der Auswahl, wodurch Benutzer ihre Bedürfnisse und Anforderungen in Bezug auf diese Qualitäten äußern können. Das Ranking in diesem Fuzzy-Modell basiert auf einer hybriden Gewichtungstechnik, die das Computing und das soziale Verhalten von Webdiensten vermischt. Die Simulationsergebnisse zeigen die Angemessenheit der Fuzzy-Logik für die Auswahl sozialer Webdienste sowie eine bessere Leistung gegenüber entropiebasierten Ranking-Techniken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11746-1_3 0a96164e2209d498ee7ce9f14472b005;de;;;4.2.;;;Kollektive Aktionen in Russland: Merkmale von Online- und Offline-Aktivitäten Der Beitrag widmet sich der Analyse kollektiver Aktionen im modernen Russland. Der Autor analysiert die Ansätze zum Verständnis kollektiven Handelns im modernen gesellschaftspolitischen Prozess. Die Transformation kollektiven Handelns und die Entstehung eines neuen Phänomens – kollektives Online-Handeln – werden in dem Papier analysiert. Der Bedeutungsgrad von Online-Kollektivaktionen und die Möglichkeit ihrer Auswirkungen auf die gesellschaftspolitische Situation werden analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-02843-5_13 f4c45936f002097f247d3de46a569941;de;;;5.2.;;;Probleme bei der Skalierung von Multi-Roboter-Systemen zur allgemeinen Problemlösung Die Problemlösung unter Verwendung von Multi-Agenten-Robotersystemen hat in der jüngsten Forschung erhebliche Aufmerksamkeit erhalten. Um diese Systeme zu organisieren und zu steuern, sind komplexe Strategien erforderlich. Um diese Komplexität zu umgehen, werden oft biologisch inspirierte Methoden eingesetzt, z.B. Selbstorganisation. Eine andere Forschungsrichtung besteht jedoch darin, die Beziehung zwischen Verhaltensweisen auf niedriger Ebene und komplexen Strategien auf hoher Ebene zu verstehen. In diesem Artikel konzentrieren wir uns auf das Verständnis der Interferenzen, die in multirobotischen Systemen für das Problem der Suche und Tagging verursacht werden. Welche Auswirkungen hat die Skalierung der Roboteranzahl und der Sensorreichweiten bei einer Reihe von Zielen, die von einer Reihe von Robotern gefunden und markiert werden müssen? Intuitiv erscheint eine Erhöhung der Roboteranzahl oder der Sensorstärke von Vorteil. Die Erfahrung deutet jedoch darauf hin, dass Pfad- und Sensorstörungen, die durch mehr Roboter, mehr Ziele und Sensorreichweite verursacht werden, schädlich sind. Die folgende Untersuchung verwendet mehrere abstrakte Modelle, um die Probleme der Roboterskalierung und des Sensorrauschens zu verdeutlichen.;-;-;-;https://link.springer.com/article/10.1007/s10514-006-5939-0 235c07d95addfeb5a87f6b4992095ebd;de;;;4.2.;;;Interaktion zwischen dem Geschäfts- und Familienleben von Unternehmerinnen in der Türkei Diese Untersuchung wurde unter 220 verheirateten Unternehmerinnen im Stadtzentrum von Ankara durchgeführt, um die Interaktion zwischen dem Geschäfts- und Familienleben zu bestimmen. In dieser Studie wurde eine Zufallsstichprobenmethode verwendet und Unternehmerinnen wurden in den Forschungsbereich befragt. Untersucht wurden die Auswirkungen des Unternehmertums auf die vielfältigen Rollen (Familie, Gesellschaft, Wirtschaft und Individuum) und der Konfliktzustand zwischen der Unternehmerrolle und anderen Rollen in der Familie. Andererseits wurde der Stress aus dem Geschäfts- und Familienleben betont. Forschungsergebnisse zeigten, dass die Frauen der Meinung waren, dass Unternehmerinnen ihre Rolle im Familienleben negativ beeinflussen, während sie sich positiv auf ihre Rollen im sozialen, wirtschaftlichen und individuellen Leben auswirken, und dass sie unter Konflikten zwischen der Unternehmerrolle und anderen Rollen in der Familie litten und dass die Rolle des Unternehmers meist in Konflikt mit den Rollen von Hausfrau, Mutter und Ehefrau. Es zeigte sich, dass die wichtigsten Faktoren für Stress im Berufs- und Familienleben eine unzureichende Marktnachfrage, überzogene Erwartungen der Familienmitglieder und körperliche Erschöpfung waren.;-;-;-;https://link.springer.com/article/10.1023/A%3A1010712023858 401ff89748a68054759efd46a1477eed;de;;;4.2.;;;Die Test-Retest-Reliabilität eines Fragebogens zu Auftreten und Schwere von Rückenschmerzen in einer deutschen Bevölkerungsstichprobe Rückenschmerzen gelten als eine der häufigsten Gesundheitsstörungen. Die vorliegende Studie zielte auf die Bewertung der Test-Retest-Reliabilität grundlegender Fragen zum Auftreten und Schweregrad von Rückenschmerzen ab, die in internationalen Bevölkerungsumfragen weit verbreitet sind.;-;-;-;https://link.springer.com/article/10.1007/s00038-008-6097-2 a05434afd4f4fd7494b2ec5c5cee1ec1;de;;;4.2.;;;Arbeitsplatzsicherheit versus Einkommenssicherheit … die Auswirkungen der Arbeitslosenversicherung normalerweise gemessen werden, indem die Arbeitslosenquote auf ein bestimmtes Maß an Arbeitslosengeld regressiert wird, zusammen mit jedem Satz von Kontrollvariablen, der einen glaubwürdigen Koeffizienten für die Variable zur Messung des Arbeitslosengelds ergibt. Die Überprüfung der Ergebnisse verschiedener Studien zeigt, dass unterschiedliche Sätze von Kontrollvariablen zum Teil deutlich unterschiedliche Schätzungen der Wirkung der Arbeitslosenversicherung ergeben. Daher sind die erhaltenen Ergebnisse verdächtig.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-3251-7_9 dd4a7f676ef46d64d1423c00335f4279;de;;;4.2.;;;Verständnis der Benutzerzufriedenheit mit Online-Gesundheitsgemeinschaften zur Raucherentwöhnung: Eine Perspektive der sozialen Unterstützung Diese Studie zielt darauf ab, die Benutzerzufriedenheit in Online-Gesundheitsgemeinschaften zur Raucherentwöhnung (OHCs) zu entschlüsseln. Im vorgeschlagenen Forschungsmodell werden der Wissensaustausch und das Empfehlungsverhalten der Nutzer durch die Nutzerzufriedenheit motiviert. Die Benutzerzufriedenheit wiederum wird durch die Bestätigung der Benutzer hinsichtlich ihrer Erwartungen und der wahrgenommenen Nützlichkeit (PU) von OHCs zur Raucherentwöhnung bestimmt. Darüber hinaus werden informationelle Unterstützung, emotionale Unterstützung und Unterstützung der Wertschätzung als Determinanten von PU aus der Perspektive der sozialen Unterstützung konzeptualisiert. Das Forschungsmodell wird durch die Analyse von Online-Umfragedaten (N = 173) unter Benutzern von zwei OHCs zur Raucherentwöhnung getestet. Die empirischen Ergebnisse zeigen, dass sich Zufriedenheit positiv auf den Wissensaustausch und das Empfehlungsverhalten der Nutzer auswirkt und sowohl PU als auch Bestätigung die Zufriedenheit bestimmen. PU von Raucherentwöhnungs-OHCs wird durch emotionale Unterstützung und Wertschätzung motiviert. Die Ergebnisse erweitern das Verständnis der Benutzerzufriedenheit im speziellen Kontext von OHCs zur Raucherentwöhnung und liefern praktische Implikationen für die Verabreichung von OHCs zur Raucherentwöhnung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-57847-3_8 858d1f2c1964c3979e3a14c538bb092b;de;;;4.2.;;;Die Europäische Union und Afrika: Alte Partner in einer Welt im Wandel Die Beziehungen zwischen der EU und Afrika stellen in vielerlei Hinsicht ein einzigartiges Experiment in den internationalen Beziehungen dar. In den letzten 50 Jahren haben sich die beiden Partner intensiv miteinander beschäftigt und ein dichtes und komplexes Netz institutioneller, wirtschaftlicher, politischer, sozialer und kultureller Verbindungen entwickelt. Dieses einzigartige Experiment des Interregionalismus wurde jedoch größtenteils nicht in seiner Gesamtheit untersucht. Die meisten wissenschaftlichen Bemühungen tendieren dazu, die Beziehung aus der Perspektive eines einzigen Themas zu betrachten, zum Beispiel Handel, Entwicklungszusammenarbeit und Menschenrechte. Die tief in der Geschichte verwurzelte Beziehung zwischen der EU und Afrika hat sich allmählich von fragmentierten und „oft schmerzhaften kolonialen Arrangements“ zu einer umfassenden, vielschichtigen und multifunktionalen „strategischen Partnerschaft“ entwickelt, die nicht nur Fragen von gemeinsamem Interesse ansprechen, sondern auch ermöglichen soll die EU und Afrika, „den Anforderungen unserer globalisierenden Welt mit Zuversicht zu begegnen“.;-;-;-;https://link.springer.com/chapter/10.1057/9780230117303_12 306b56055fe58a2a9fe8a83028547048;de;;;4.2.;;;Die Struktur individueller Kreativitätsoffenbarungsprozesse mit Aufgabenmerkmalen und sozialen Merkmalen: Eine empirische Analyse anhand von IT-Services-Teilnehmern Kreativität gilt als eine der wichtigsten strategischen Ressourcen in der wissensbasierten Industrie. Diese Forschung schlägt ein individuelles Kreativitäts-Enthüllungsmodell im Geschäftsumfeld vor und konzentriert sich hauptsächlich auf die Beziehungen zwischen Aufgabenmerkmalen, sozialen Merkmalen und Kreativitäts-Enthüllungsprozessen. Anhand einer Stichprobe von 520 Beschäftigten in der Informationstechnologie-Dienstleistungsbranche untersucht diese Studie die Auswirkungen von Aufgabenmerkmalen – Aufgabenkomplexität und Aufgabenstress – und sozialen Merkmalen – Vertrauen und Sozialkapital – auf Kreativitäts-Offenbarungs-Prozesse auf individueller Ebene. Wir haben zwei Konzepte von Kreativitäts-Offenbarungs-Prozessen übernommen – Ausbeutung und Exploration – und die Ergebnisse zeigen, dass Aufgabenmerkmale und soziale Merkmale mit den Kreativitäts-Offenbarungs-Prozessen in Beziehung stehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27210-3_25 31fd497dc699853082932969bda8cdf7;de;;;5.2.;;;"Ein auf dem Immunsystem basierender differentieller Evolutionsalgorithmus, der den Near-Neighbor-Effekt in dynamischen Umgebungen nutzt Viele Probleme der realen Welt sind dynamisch und erfordern, dass Optimierungsalgorithmen in der Lage sind, sich im Laufe der Zeit ändernde Optima (Optimum) kontinuierlich zu verfolgen. Dieses Papier schlägt einen verbesserten differentiellen evolutionären Algorithmus vor, der das Konzept des Near-Neighbor-Effekts verwendet, um die Nachbarschaften einer Person zu bestimmen, um mehrere Optima in der dynamischen Umgebung zu verfolgen. Außerdem wird eine neue Mutationsstrategie vorgestellt, die den Near-Neighbor-Effekt nutzt. Es erzeugt Individuen, indem es den gespeicherten Speicherpunkt in seiner Nachbarschaft nutzt und den Differentialvektor verwendet, der von ""Nahnachbar-Überlegen"" und ""Nah-Nachbar-Unterlegen"" erzeugt wird. Inspiriert vom biologischen Immunsystem wird ein auf dem Immunsystem basierendes Schema vorgestellt, um Umweltveränderungen schnell zu erkennen und darauf zu reagieren. Darüber hinaus wird ein differenzbezogenes multidirektionales Verstärkungsschema vorgestellt, um wertvolle Informationen aus verschiedenen Dimensionen zu integrieren, um effektiv und schnell das vielversprechende Optimum im Suchraum zu finden. Experimente mit dynamischen Szenarien, die durch die typische dynamische Testinstanz – das Problem mit beweglichen Spitzenwerten – erstellt wurden, haben gezeigt, dass der auf dem Nahnachbarn und dem Immunsystem basierende differenzielle Evolutionsalgorithmus (NIDE) effektiv mit dynamischen Optimierungsfunktionen umgeht.";-;-;-;https://link.springer.com/article/10.1007/s11768-012-0217-5 950b16f68ae42b0e526800029ac39d2e;de;;;4.2.;;;Videobasiertes Lernökosystem zur Unterstützung des aktiven Lernens: Bewerbung für einen Informatik-Einführungskurs Der systematische Einsatz von Technologien zur Orchestrierung des Lernens ist in den letzten Jahren weit verbreitet. Verschiedene Technologien wurden in einer Vielzahl von Lehrpraktiken eingesetzt, zum Beispiel Lernwerkzeuge, mit denen Sie den Klassenraum umdrehen oder andere aktive Lernpraktiken überwachen können. Die entwickelten Systeme sind jedoch nur eine Teilmenge verschiedener Arten von Lernmaterialien und Lernwerkzeugen, die ein Pädagoge berücksichtigen sollte, und bieten vor allem keinen Überblick über die verschiedenen Lerndynamiken. Die Entwicklung eines Lernökosystems, mit dem wir „den Komplex lebender Organismen“ sowie deren Zusammenhänge beschreiben können, wird uns helfen, unsere Lehransätze besser zu verstehen und weiterzuentwickeln. In diesem Beitrag stellen wir ein videobasiertes Lernökosystem-Framework und die ersten erfassten Ergebnisse seiner Anwendung in einem einführenden Informatikkurs vor. Das Framework umfasst grundlegende E-Learning-Tools und traditionelle Lernpraktiken und macht es für jeden zugänglich, der eine videogestützte projektbasierte Erfahrung in seinem Kurs implementieren möchte. Die Anwendung basiert auf offenen und einfach zu bedienenden Tools, die die Einbindung zusätzlicher Funktionalitäten ermöglichen. Diese Arbeit zielt darauf ab, anderen Wissenschaftlern und Praktikern Erkenntnisse zu liefern, um den vorgeschlagenen Rahmen weiter zu validieren, zu untersuchen und zu erweitern. Dieser Ansatz kann für diejenigen verwendet werden, die daran interessiert sind, projektbasierte oder Flipped-Classroom-Ansätze in ihren Unterricht zu integrieren, da es sich um ein flexibles Verfahren handelt, das an ihre Bedürfnisse angepasst werden kann.;-;-;-;https://link.springer.com/article/10.1186/s40561-016-0036-0 1ae1ae2ecce94de92aca6184420b7605;de;;;4.2.;;;Akkumulationsstrategien, Staatsformen und hegemoniale Projekte Trotz der aufkeimenden Literatur über den Staat in kapitalistischen Gesellschaften sind wir noch immer schlecht gerüstet, um mit einigen grundlegenden theoretischen Problemen umzugehen. Die Suche nach Lösungen hat Marxisten oft dazu verleitet, sich durchaus auf nichtmarxistische Konzepte und Ansätze zu stützen, aber dies birgt manchmal die Gefahr, eine ausgeprägt marxistische Analyse in eine weitgehend pluralistische, eklektische Darstellung des Staates aufzulösen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-21464-8_5 e3a1a968c1e984e26c32854785dd610b;de;;;4.2.;;;Aufbau von Bildungs- und Marketingmodellen für die Verbreitung von Wissen und Meinungsübertragung Gruppenkommunikation und Verbreitung von Informationen und Meinungen sind ein wichtiger, aber unerforschter Aspekt der kollektiven Intelligenz. In diesem Beitrag werden eine Reihe von Hypothesen diskutiert. Jede bewiesene Hypothese wäre ein bedeutender Schritt hin zu einem vollständigen und kohärenten Modell der Gruppenkommunikation, das sowohl in der Informatik als auch in den Humanwissenschaften verwendet werden könnte. Dieses Papier diskutiert auch einige Methoden, die von Forschern verwendet werden können, um die Hypothesen zu bestimmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11289-3_17 2cd2ccc309094b4a877fd83452448d59;de;;;5.2.;;;Faktorenanalyse medizinischer Bildsequenzen (FAMIS): Grundlagen und Anwendungen Die Faktorenanalyse medizinischer Bildsequenzen zielt darauf ab, eine medizinische Bildsequenz in ihre zugrunde liegenden fundamentalen Funktionen und ihre zugehörigen fundamentalen räumlichen Verteilungen aufzulösen, um eine Beschreibung der zugrunde liegenden physiologischen Prozesse zu liefern. Wir beschreiben neue Entwicklungen zu drei Stufen von FAMIS. Der Clustering-Schritt wird unter Verwendung eines Originalverfahrens gelöst, das die Kriterien der räumlichen Nähe, der Ähnlichkeit der Signalentwicklung und der Regel der gegenseitigen nächsten Nachbarn kombiniert. Ein statistisches Modell für medizinische Bildsequenzen, das Fixed-Effect-Modell, das auf medizinische Bildsequenzen angewendet wird, liefert eine theoretische Grundlage für die Wahl der für die Hauptkomponentenanalyse zu verwendenden Metrik. Die Schräganalyse wird verallgemeinert, um diese optimale Metrik zu berücksichtigen. Das Interesse des FAMIS-Ansatzes wird durch MRT-Nierenstudien veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-51175-2_72 5c8123914441719af03cd3a3dd73f167;de;;;5.2.;;;Optimierung des Markov-Sprunglinearsystems mit kontrollierten Moden-Sprungwahrscheinlichkeiten Die optimale Steuerung eines linearen quadratischen Markov-Sprungmodells mit kontrollierten Sprungwahrscheinlichkeiten von Moden wird untersucht. Es werden zwei Arten von Modussteuerungsrichtlinien betrachtet, d. h. eine Steuerungsrichtlinie mit offener Schleife und eine Steuerungsrichtlinie mit geschlossener Schleife. Unter Verwendung der Konzepte der Politikiteration und des Leistungspotentials wird die ausreichende Bedingung vorgeschlagen, die erforderlich ist, damit die optimale Regelpolitik mit geschlossenem Regelkreis besser funktioniert als die optimale Regelregel mit offenem Regelkreis. Die Bedingung ist hilfreich für den Entwurf eines optimalen Reglers. Darüber hinaus wird mit der Richtlinieniteration ein effizienter Algorithmus zum Konstruieren einer Regelungsrichtlinie mit geschlossenem Regelkreis bereitgestellt, die besser ist als die optimale Regelungspolitik mit offenem Regelkreis.;-;-;-;https://link.springer.com/article/10.1007/s11460-008-0076-5 a68d57ef6dab6ed5b7241127c279ebda;de;;;5.2.;;;HYPE: Ein auf kognitiver analytischer Therapie basierendes Präventions- und Frühinterventionsprogramm für Borderline-Persönlichkeitsstörung Die Borderline-Persönlichkeitsstörung (BPS) ist ein führender Kandidat für die Entwicklung empirisch fundierter Präventions- und Frühinterventionsprogramme, da sie in der klinischen Praxis weit verbreitet ist, zu den belastendsten und funktionell behindernden psychischen Störungen zählt, oft mit Hilfesuchenden, und es hat sich gezeigt, dass es auf die Behandlung anspricht, selbst bei Patienten mit etablierter Störung. Darüber hinaus kann BPD in ihren frühen Stadien zuverlässig diagnostiziert werden und grenzt eine Gruppe mit einem hohen Grad an gegenwärtiger und zukünftiger Belastung, Morbidität und Mortalität ab, was eine Intervention zu einer klinisch gerechtfertigten und humanen Reaktion macht. Die Daten deuten auch auf eine beträchtliche Flexibilität und Formbarkeit der BPS-Merkmale bei Jugendlichen hin, was dies zu einer wichtigen Entwicklungsphase macht, in der eingegriffen werden muss.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4939-0591-1_23 29426c88d420c36d47b24c968a45d746;de;;;5.2.;;;Auslegung und Anwendung des New Yorker Übereinkommens in Italien Die Umsetzung des New Yorker Übereinkommens in Italien hat die Anerkennung und Vollstreckung internationaler Schiedssprüche in Italien erheblich erleichtert und die Wirksamkeit von Schiedsvereinbarungen sichergestellt. Besonderes Augenmerk wird jedoch auf die Schwierigkeit gelegt, die mit pathologischen Schiedsklauseln verbunden ist. Im Großen und Ganzen zollen italienische Richter dem Wortlaut und dem Geist der Konvention ein angemessenes Maß an Respekt, was zu einer konstruktiven Anwendung der Regelung führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-50915-0_21 9a639ad5dfff6ff40a8a51aa8a0ce59f;de;;;5.2.;;;Optimierung in CIS-Systemen Das Kapitel bietet einen Ansatz zur Lösung der Optimierungsaufgabe, gefolgt von der Verlagerung/Rekonstruktion verteilter Dienste im SaaS-Cloud-Computing-Modell im Fall seiner Fehlfunktion, unter Verwendung einer multikriteriellen Bewertung mit unterstützender Simulation möglicher Choreographien. Neben einer kritischen Betrachtung von Methoden, Ansätzen und Trends moderner Optimierung mit Fokus auf naturinspirierte Techniken, die für besonders harte diskrete multikriterielle Probleme empfohlen werden, diskutieren wir das Thema Netzwerkarchitektur und ihre Anfälligkeit für Angriffe und Fehlfunktionen im Hinblick auf die Systemzuverlässigkeit. Die Anwendbarkeit der Verfahren in Abhängigkeit von der Klasse der angegebenen Optimierungsaufgabe und den Klassen der Zielfunktion wurde ebenfalls diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08964-5_7 ec8078c2967752a99490c79dd5334800;de;;;5.2.;;;Allgemeines Bayesianisches Netzwerk bei der Durchführung von Micro-Reality-Mining mit Handy-Nutzungsdaten zur Gerätepersonalisierung Personalisierung ist ein aufkommendes Thema im digitalen Zeitalter, in dem Benutzer mit vielen Arten von digitalen Geräten und Techniken umgehen müssen. Darüber hinaus nimmt die Komplexität digitaler Geräte und ihrer Funktionen tendenziell schnell zu, was eine sorgfältige Beachtung der Fragen erfordert, wie die Benutzerzufriedenheit gesteigert und innovativere digitale Produkte und Dienstleistungen entwickelt werden können. Zu diesem Zweck schlagen wir ein neues Konzept des Micro-Reality-Mining vor, bei dem das Mikroverhalten der Benutzer, das sich durch die tägliche Nutzung digitaler Geräte und Technologien offenbart, hinterfragt wird, bevor die wichtigsten Erkenntnisse aus dem Mining in neue Produkte und Dienstleistungen eingebettet werden. Dieses Papier schlägt Micro-Reality-Mining für die Gerätepersonalisierung vor und untersucht die Möglichkeit, ein GBN (general Bayesian Network) zu verwenden, um nützliche Verhaltensmuster von Benutzern bei der Verwendung von Mobiltelefonen zu bestimmen. Durch vergleichende Experimente mit anderen Mining-Techniken wie SVM (Support Vector Machine), DT (Entscheidungsbaum), NN (Neural Network) und anderen BN (Bayesian Network)-Methoden haben wir festgestellt, dass das GBN großes Potenzial für die Durchführung von Mikrorealität hat Bergbau und enthüllen bedeutende Erkenntnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35521-9_56 c86dcb66deea706d84a76f6c5dd5035b;de;;;5.2.;;;Totgeburt, späte Fehlgeburt und Schwangerschaftsabbruch Die Schwangerschaftsvorsorge wird normalerweise zwischen dem Hausarzt, der Gemeindehebamme und dem Krankenhaus aufgeteilt. Die Geburtsklinik, in der Regel für diejenigen im zweiten und dritten Trimester, befindet sich im Hauptkrankenhaus. Sowohl in der Klinik als auch in der Ultraschallabteilung stehen Ultraschallgeräte zur Verfügung. Wenn eine spezielle pränatale Ultraschalluntersuchung angezeigt ist, werden die Frauen an ein regionales Zentrum überwiesen. Zum Zeitpunkt der Studie gab es keine routinemäßige Beratungshilfe für Frauen, die Entscheidungen über einen Schwangerschaftsabbruch trafen, obwohl der Berater sich an die gynäkologische Sozialarbeiterin wenden konnte, wenn er dies für angebracht hielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-14674-1_4 3fb2c85dc4b561160417b2dd4c1b052f;de;;;4.2.;;;Herbert Dreieitl: Wasser ist universell Wasser ist bei weitem nicht nur eine Ressource des Designers oder ein Material: Es schreit danach, seine lebenswichtigen Möglichkeiten neu zu entdecken. Dies beginnt am Anfang des Planungsprozesses von Wasserprojekten und beinhaltet die Verknüpfung und Integration elementarer Themen. Kenntnisse über die besonderen Eigenschaften des Werkstoffs Wasser sind gefragt und oft müssen Experimente durchgeführt werden, um eine konkrete Vorstellung vom Ergebnis zu bekommen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7643-7665-9_2 1be8f7b37977745f7c2aa6cad4a704e5;de;;;4.2.;;;Nationaler Bericht über Spanien Dieser Bericht versucht kurz die zentralen Fragen der verstreuten Regulierung von Unternehmensgruppen in Spanien sowie die Hauptprobleme zu erläutern, die die wissenschaftliche Lehre und die Rechtsprechung in den letzten 30 Jahren zu lösen versucht haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36697-1_6 ce625b802449d379e47e6e17eb4b6d9a;de;;;5.2.;;;Themenbasierter Abruf von Fotosets mithilfe von Tags mit Anmerkungen des Benutzers Als Speicher- und Abrufeinheit von benutzergenerierten Webobjekten hat set in letzter Zeit in der Forschungsgemeinschaft zum Abrufen von Informationen zunehmende Aufmerksamkeit erhalten. Bei der Set-Suche müssen relevante Sets abgerufen werden, um die Informationsbedürfnisse der Benutzer zu erfüllen. Sie unterscheidet sich in Bezug auf die Granularität des Inhalts von der Einzelobjektsuche. Während ein Webobjekt selbst nicht teilbar und unabhängig voneinander ist, besteht eine Menge aus trennbaren Objekten, die in einigen Aspekten miteinander verbunden sind. Dieses Papier schlägt einen neuen Ansatz vor, der die thematische Relevanz von Sets im Vergleich zu einer Benutzeranfrage effektiv messen kann, indem die an Webobjekte angehängten Tags verwendet werden. Die Hauptidee des vorgeschlagenen Ansatzes besteht darin, den Satz zu bevorzugen, der so viele abfragebezogene Unterthemen wie möglich abdeckt. Um insbesondere die thematische Relevanz zu berechnen, während das Problem verrauschter Tags angegangen wird, wird der Begriff der Tag-Signifikanzbewertung basierend auf der Häufigkeit des gleichzeitigen Auftretens von Tags eingeführt. Wir betrachten eine Problemdomäne der Bildersatzsuche auf flickr.com, bei der einzelne Fotos mit Texten wie Titeln und Tags versehen sind. Experimentelle Ergebnisse zeigen, dass unsere vorgeschlagene Methode die bisherigen Ansätze für das Abrufen von Fotosets übertrifft.;-;-;-;https://link.springer.com/article/10.1007/s11042-011-0850-x 811c12a5aa676f992a60912e53aad20b;de;;;5.2.;;;Modellierungstechniken und Heuristiken für kombinatorische Probleme Diese Arbeit gibt einen Überblick über die verschiedenen Methoden, um kombinatorische Optimierungsprobleme anzugehen. Der Schwerpunkt wird auf Integer-Programmiermodellierung, Baumsuchmethoden (verzweigt und gebunden) und heuristischen Methoden liegen. Die Arbeit gliedert sich in folgende Abschnitte: 1. Ziele der Arbeit, 2. Morphologie kombinatorischer Probleme, 3. Der allgemeine Ansatz zur Lösung kombinatorischer Probleme, 4. Ganzzahlige Programmierformulierungen, 5. Explizite Aufzählung, 6. Baumsuche ( Branch and Bound)-Methoden, 7. Heuristische Methoden, 8. Schlussfolgerungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-7557-9_1 3885990ee043b9a80a673ff3f704d574;de;;;4.2.;;;Die Auswirkung der Standardisierung in der multikriteriellen Entscheidungsanalyse auf gesundheitspolitische Ergebnisse Gesundheitsplaner und Epidemiologen haben damit begonnen, räumliche Analysen und geografische Informationssysteme (GIS) zu verwenden, um sozioökonomische Ungleichheiten zu untersuchen, die sich auf die Gesundheit der Bevölkerung auswirken können. Insbesondere die Verwendung von flächenbezogenen zusammengesetzten Indizes, auch Deprivationsindizes genannt, hat sich als wirksam erwiesen, um mehrere Indikatoren in eine Analyse einzubeziehen. Wir haben die GIS-basierte Multicriteria Decision Analysis (MCDA) verwendet, um einen gewichteten Index des Bedarfs an Gesundheitsdienstleistungen zu erstellen, und den Standardisierungsschritt in MCDA in einer Geovisualisierungsumgebung untersucht. In einem Szenario zur Priorisierung der Nachbarschaft für die Stadt Toronto haben wir eine MCDA mit zwei gängigen Standardisierungstechniken und drei Methoden zur Standardisierung von Kostenkriterien implementiert. Wir haben die resultierenden Scores und Rankings von Nachbarschaften verglichen und zeigen, dass die Standardisierung ein wichtiger Aspekt im Datenanalyseprozess ist. Wir schließen mit einer Bewertung der Angemessenheit des Einsatzes einer Technik gegenüber der anderen sowie der möglichen Auswirkungen auf die Entscheidungsfindung in Bezug auf die Gesundheitspolitik.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14616-9_29 78b1b6c3ae7522388334104eeb81abc8;de;;;4.2.;;;Fuzzy-Programming-Methode für die multizielorientierte optimale Allokation von Sedimentressourcen und die kooperative Verhandlung: eine Fallstudie im Bewässerungsgebiet Weishan, China Die optimale Allokation von Sedimentressourcen muss drei Ziele in Einklang bringen, darunter ökologische, ökonomische und soziale Vorteile, um eine nachhaltige Entwicklung der Sedimentressourcen zu verwirklichen. Diese Studie zielt darauf ab, Fuzzy-Programming- und Verhandlungsansätze anzuwenden, um das Problem der optimalen Allokation von Sedimentressourcen zu lösen. Zunächst wurden Pareto-optimale Lösungen der Mehrzieloptimierung vorgestellt und das Mehrzielmodell der optimalen Allokation von Sedimentressourcen und ein Fuzzy-Programmiermodell konstruiert. Dann wurde aus der Perspektive der Multiplayer-Kooperation das optimale Allokationsmodell von Sedimentressourcen unter Verwendung von Nash-Verhandlungen in ein Spielmodell umgewandelt, und die Nash-Verhandlungslösung wurde als optimale Gleichgewichtsstrategie erhalten. Schließlich wurde der Einfluss verschiedener Dissens-Nutzen-Punkte und Verhandlungsgewichte auf die Ergebnisse diskutiert und die Ergebnisse von Nash-Verhandlungs- und Fuzzy-Programming-Methoden verglichen und analysiert. Die Ergebnisse bestätigen, dass Nash-Verhandlungen die kooperative Optimierung mehrerer Ziele mit Wettbewerbsbeziehungen und ein zufriedenstellendes Schema erreichen können. Nicht übereinstimmende Nutzenpunkte und Verhandlungsgewichte haben einen gewissen Einfluss auf die Optimierungsergebnisse. Die Lösung der Fuzzy-Programmierung ist der des Nash-Verhandelns sehr ähnlich, das verschiedene Ideen für das Mehrzieloptimierungsproblem liefert.;-;-;-;https://link.springer.com/article/10.1007/s11356-019-07420-z 98b0ca6cb47adda8ad6b3f7eb4ce3b12;de;;;5.2.;;;Langfristiger Verbleib von Radium bei ehemaligen Wählarbeiterinnen Von allen knochensuchenden Metallen kann Radium in mehr als einer Hinsicht einzigartig sein. Es ist das einzige Element mit Alphateilchen emittierenden Isotopen, das bei Personen mit einer Belastung von 3,66 Tagen eindeutig schwerwiegende biologische Auswirkungen, insbesondere Knochensarkome, hervorgebracht hat;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-4920-1_8 6f379c6a0c86c959ecfce03d25ef65bf;de;;;5.2.;;;PMR-Studien basierend auf Lanthanoid-Shift-Reagenzien: sterische Strukturen von Auron und Thioauron Die Protonenresonanzspektren wurden zusammen mit den Wechselwirkungen mit dem Lanthanoid-Shift-Reagens Tris-1,1,1,2,2,3,3-heptofluor-7,7-dimethyloctan-2,6-dion-Eu(III) verwendet. um die isomeren Formen und bevorzugten Konformationen von substituierten Auronen und Thioauronen zu ermitteln. Für bestimmte Verbindungen wurden Berechnungen zu den geometrischen Strukturen der LSR-Substrat-Addukte durchgeführt.;-;-;-;https://link.springer.com/article/10.1007/BF00524322 3399a54133b7877b615879973dcdd0cd;de;;;5.2.;;;Huysmans und die Kunst der Bekehrung Eine der größten Herausforderungen für den Naturalismus kam aus den eigenen Reihen. Wenn Joris-Karl Huysmans nicht zu den im ersten Kapitel besprochenen realistischen oder naturalistischen Romanschriftstellern gehörte, dann deshalb, weil sein Werk so einzigartig ist, dass es einer gesonderten Diskussion bedarf. Verteidiger von Zola, Mitwirkender an;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-10846-6_5 44107bd4f3e91db477c76043e0632df6;de;;;5.2.;;;Auslegung schriftlicher Verträge Contract Das Thema Auslegung schriftlicher Verträge ist in der Schiedsgerichtspraxis von zentraler Bedeutung. Die englischen Prinzipien haben sich in den letzten Jahrzehnten schnell entwickelt, und das Recht befindet sich in einem Zustand radikaler, hektischer und manchmal verwirrender Entwicklung oder lehrmäßiger Überprüfung. Einige Punkte haben diese Veränderungswelle jedoch überlebt. Zum Beispiel erlaubt das englische Recht einer Partei im Allgemeinen nicht, Beweise für vorvertragliche Verhandlungen beizubringen, um den endgültigen Text zu beleuchten, aber solche Beweise werden regelmäßig zugelassen, wenn dieselbe Partei einen Anspruch auf Berichtigung des Dokuments hinzufügt. Eine andere Kontroverse ist, ob das gewöhnliche Auslegungssystem es dem Adjudikator auch ohne Rückgriff auf die Richtigstellungslehre gestatten sollte, den Text zu ändern, um die klare Doppelschlussfolgerung (die einfach aus den vier Ecken des Dokuments gezogen wird) zu verwirklichen, dass der Text ist offensichtlich mangelhaft und offensichtlich korrigierbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27144-6_14 dc6897241bdfa053e7d3b370255e97dc;de;;;5.2.;;;Modellzentrierte Strategie-IT-Ausrichtung: Eine empirische Studie im Gange IT durchdringt alle Bereiche der heutigen Organisationen. Um effiziente Business-Lösungen zu unterstützen, wird seit langem Business-IT-Alignment als Lösung diskutiert. Angesichts der Komplexität der Ausrichtung haben wir in unserer Forschung die Bedeutung einer möglichen Teillösung angenommen, nämlich der Übereinstimmung zwischen Strategie und Anforderungen an das Informationssystem. Um den Einfluss weit verbreiteter Geschäftsstrategieformulierungen wie Porter's Value Chain, Kaplan & Norton's Strategy Maps und anderen systematisch zu untersuchen, schlagen wir einen modellzentrierten Ansatz für das Strategie-IT-Alignment vor, bei dem die Strategieformulierungen in Form von und Anforderungsmodellen zugeordnet. Das Ziel dieses Papiers ist es, eine empirische Pilotuntersuchung vorzustellen, die bewertet, ob das Strategie-IT-Alignment ein Problem darstellt, und versucht, Erkenntnisse von Praktikern über die Relevanz unserer modellbasierten Sichtweise für das Strategie-IT-Alignment zu gewinnen. Die empirischen Informationen werden durch eine gut vorbereitete fragebogenbasierte Erhebung erhoben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38490-5_12 3b8834dea8d0f49b45c76244371cf6cb;de;;;5.2.;;;Fuzzy-geometrische Programmierung und ihre Anwendung Die Fuzzy-Geometrie-Programmierung (GP) ist ein wichtiger Optimierungstyp. In diesem Beitrag wird zunächst der Ursprung des Fuzzy-GP vorgestellt, einige neuere Forschungsergebnisse seiner Theorie wurden zusammengefasst. Dann werden viele Fortschritte in der Anwendung in Fuzzy GP eingeführt, darunter Anwendungen in den Bereichen Energiesystem, Umwelttechnik, Wirtschaftsmanagement usw. Der Anwendungsbereich soll weiter erweitert werden. Außerdem wurden als Zweig von Fuzzy GP auch die Fuzzy-Relation GP, ​​grob (Erweiterung) und graue Relation genannt. Schließlich wird die neue Forschungsrichtung von Fuzzy GP vorgestellt.;-;-;-;https://link.springer.com/article/10.1007/s12543-010-0040-y b379b139d528d8754536237ec5682c01;de;;;5.2.;;;„Ein Altar für Krankheiten in vergangenen Jahren“ Michael Henchard, der einstige Bürgermeister von Casterbridge, ist sich seines Alkoholproblems bewusst. Zu Beginn ihrer Beziehung lehnt er die Einladung seines neuen Freundes Donald Farfrae zu einem Drink ab, weil „'[w] Als ich ein junger Mann war, war ich zu stark für so etwas zu stark – viel zu stark – und war gut-wieher“ ruiniert dadurch … '“ (T 38). Er fährt fort und erklärt, dass er sich des Alkohols enthält, weil ich betrunken „eine Tat begangen habe, für die ich mich bis an mein Lebensende schämen werde“ (M 38). Er ist sich also bewusst, dass er seine Frau nicht verkauft hätte, wenn er nicht getrunken hätte. Fast zwei Jahrzehnte später, als er die verkaufte Frau wieder trifft, sagt er ihr als erstes, dass er nicht trinke (T 56). Trotzdem inszeniert Michael Henchard die Auswirkungen seines Trinkens durch seinen Kampf um wirtschaftliche Macht, seine verleugneten homoerotischen Abhängigkeiten und seine familiären Beziehungen. Darüber hinaus erscheinen bestimmte emotionale Aspekte, die auf seine problematische Beziehung zum Alkohol hinweisen, als narrative Strategien, die sich teilweise in Henchards Fatalismus und im Leben von Christopher Coney und Solomon Longways manifestieren, jenen Arbeitern, deren Leben Henchards Leben zu überschatten oder zu verdoppeln scheint.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-137-10023-8_2 9d6ddaba4fca3b6984790cefb5d7c95d;de;;;5.2.;;;Ein praktischer Ansatz für das Lehren der systematischen Überprüfung Ein wesentlicher Bestandteil einer Software-Engineering-Ausbildung ist technologische Innovation. Tatsächlich müssen Softwareingenieure als zukünftige Praktiker in der Lage sein, die am besten geeigneten Technologien für die Anwendung in Projekten zu identifizieren. Daher ist es wichtig, die Fähigkeiten zu entwickeln, die es ihnen ermöglichen, Werkzeuge, Technologien, Techniken und Methoden gemäß den verfügbaren empirischen Erkenntnissen aus der Literatur zu bewerten und Entscheidungen darüber zu treffen. In diesem Sinne ist die Systematic Review eine rigorose Methode zur Analyse und kritischen Auseinandersetzung mit Literatur. Es erfordert die Formalisierung einer beantwortbaren Forschungsfrage entsprechend dem oder den zu bewältigenden Problemen, die Suche in der Literatur nach verfügbaren Beweisen gemäß einem systematischen Protokoll und das Abrufen von Daten aus den identifizierten Quellen, die Analyse der gesammelten Beweise und deren Verwendung zur Unterstützung der Entscheidungsfindung und Schlussfolgerungen. In diesem Beitrag berichten wir darüber, wie Systematic Review in die Lehrveranstaltung „Empirical Software Engineering Methods“ des Department of Informatics der University of Bari integriert wurde und wie Studierende an diese Art der Literaturrecherche durch die Hände herangeführt wurden -im Anflug. Soweit uns bekannt ist, ist es der erste Versuch, ein komplexes Thema wie das systematische Review in einen Studiengang zum empirischen Software-Engineering aufzunehmen. Wir haben keine empirischen Belege für die Wirksamkeit des gewählten Ansatzes, abgesehen von praxisbezogenen Erfahrungen, die wir gesammelt haben. Nichtsdestotrotz haben wir qualitative Daten durch einen Fragebogen erhoben, der den Studierenden des Kurses vorgelegt wurde. Ihre positiven Antworten und Eindrücke sind eine erste informelle Bestätigung für die erfolgreiche Umsetzung unserer Strategie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69566-0_33 be5e82b55b4f66c1a6d0f58bfd7d7c3c;de;;;5.2.;;;Eine optimierte Anwendung basierend auf einem neuronalen Netzwerk mit doppeltem Gewicht und einem genetischen Algorithmus Das Eingabe-Ausgabe-System des Gasofens für das chemische System weist stark nichtlineare Eigenschaften auf. Neuronale Netze mit doppeltem Gewicht haben eine starke Näherungs- und Generalisierungsfähigkeit. Verwenden Sie bei der neuronalen Netzannäherung mit doppelter Gewichtung an das Gassystem globale Optimierungsmerkmale des genetischen Algorithmus (GA), um die machbare Eingabe des Systems zu suchen, und gemäß der Bewertung der Eingabeenergie wurde eine Lösung für die Fabrik zur Reduzierung des Energieverbrauchs gefunden durch die optimale Systemeingabe angeboten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29087-9_15 5b9af55bc57a831f767b489d6a02b8a5;de;;;5.2.;;;Energie-Zeit-Effizienz beim Einsatz von Luftschwärmen Eine große Herausforderung in der Schwarmrobotik besteht darin, Roboter effizient in unbekannten Umgebungen einzusetzen und dabei Energie- und Zeitkosten zu minimieren. Dies ist besonders wichtig bei kleinen Flugrobotern, die eine extrem begrenzte Flugautonomie haben. Dieses Papier vergleicht drei Einsatzstrategien, die durch nominale Berechnungs-, Speicher-, Kommunikations- und Sensoranforderungen gekennzeichnet sind und daher für fliegende Roboter geeignet sind. Der Energieverbrauch wird gesenkt, indem unnötige Flüge nach zwei Prämissen reduziert werden: 1) Nutzung der von den Robotern gesammelten Umgebungsinformationen, 2) Vermeidung von sinkenden Erträgen und Reduzierung von Störungen zwischen Robotern. Mit einem 3-D-Dynamiksimulator untersuchen wir Energie- und Zeitmetriken sowie Skalierbarkeitseffekte. Die Ergebnisse zeigen, dass eine neuartige Strategie, die die Dichte von fliegenden Robotern kontrolliert, am vielversprechendsten ist, um die Energiekosten für Schwarme zu senken und gleichzeitig schnelle Suchzeiten beizubehalten. Darüber hinaus betonen wir den Energie-Zeit-Kompromiss und die Bedeutung der Messung beider Metriken sowie die Bedeutung der Elektronikleistung bei der Berechnung des Gesamtenergieverbrauchs, auch wenn dieser im Verhältnis zur Fortbewegungsleistung gering ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32723-0_1 6a1f515d83b600b8393100e34d4f3d2b;de;;;5.2.;;;Unified Retrieval-Modell von Big Data Mit dem enormen Wachstum von Big Data haben effektive Methoden des Information Retrieval einen Forschungsschwerpunkt gewonnen. Dieses Papier befasst sich mit der Schwierigkeit, relevante Informationen für ein großes System abzurufen, das eine Datenfusion beinhaltet. Wir schlagen ein Abrufmodell vor, um den Abrufprozess zu verbessern und zu verbessern, zusammen mit dem Erlernen der Metadaten des Benutzers, um ein Abrufsystem zu entwickeln und zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-47898-2_33 b5c22af8e063494f541abcabba6e4d7d;de;;;5.2.;;;Santería als Heilpraktik in Diaspora-Gemeinden: Meine kubanisch-jüdische Reise mit Oshún Seit geraumer Zeit habe ich erkannt, dass mein berufliches Engagement für kulturell informierte, gemeinschaftsbasierte Lehre und Praxis mit einer persönlichen Suche verbunden ist: meine eigene kubanisch-osteuropäisch-jüdische Familie zu verstehen und wie unsere multiplen Diasporas den Fluss umgeleitet haben unseres Familienlebens. Unzufrieden mit dem erhaltenen Wissen über ein individualistisches, psychopathologisch orientiertes Feld der psychischen Gesundheit, habe ich versucht, meinen eigenen Lebensverlauf und den anderer als tief verflochten mit den vielen Seelen, zwischen den Lebenden und den Toten, mit denen wir teilen, zu verstehen unser sich entwickelndes Familienleben. Mein Leben als Frau zwischen den Kulturen war nicht einfach, da ich unter den Rezepten meiner Familie und der Gesellschaft für eine gute Tochter, Ehefrau, Mutter, Lehrerin, Psychologin, Heilerin persönlich akzeptable Entscheidungen suchte und nicht fand. Aber der Kampf, integrativere Lebensquellen zu entdecken, zu lernen, aus den unvermeidlichen Verlusten des Lebens zu lernen, war reich an geschätzten Gelegenheiten, immer wieder unerwartete Harmonien in scheinbaren Widersprüchen zu entdecken. Ich habe festgestellt, dass das Teilen der Lektionen, die ich aus meinem eigenen zutiefst menschlichen Kampf gelernt habe, selbst eine meiner stärksten Ressourcen als Lehrer und Heiler ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-137-07647-2_5 bd120e3fe6322c6c1ac6b72cd3f9b1a4;de;;;5.2.;;;Ein n-Gramm- und anfänglicher Beschreibungsbasierter Ansatz für den Entity-Ranking-Track Die wichtigste Arbeit, die im Mittelpunkt des Entity-Ranking-Tracks von INEX steht, ist die richtige Abfragebildung. Die beiden Teilaufgaben Entity Ranking und List Completion würden immens profitieren, wenn die gegebene Abfrage um relevantere Begriffe erweitert werden könnte und dadurch die Effizienz der Suchmaschine verbessert würde. Dieses Papier betont die korrekte Identifizierung von „bedeutungsvollen N-Grammen“ aus dem gegebenen Titel und die richtige Auswahl der „Prominenten N-Gramme“ unter ihnen als die äußerst wichtige Aufgabe, die die Abfragebildung und damit die Effizienz des gesamten Entity-Rankings verbessert Aufgaben. Wir nutzen auch die Initial Descriptions (IDES) der Wikipedia-Artikel, um die abgerufenen Antworten basierend auf ihrer Ähnlichkeit mit dem gegebenen Thema einzuordnen. Die Aufgabe zur Listenvervollständigung wird durch die zugehörigen Wikipedia-Artikel weiter unterstützt, die die Punktzahl der abgerufenen Antworten erhöht haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85902-4_26 a29bd9c7acc9b116b42b06427791d04f;de;;;4.2.;;;Die Soziologie der Freizeit: ein entfremdetes Kind der Mainstream-Soziologie Ausgehend von Veblen wird die steinige Karriere der Freizeitsoziologie bis in die Gegenwart verfolgt. Das Gebiet wächst in der ersten Hälfte des 20. Jahrhunderts in Nordamerika und Großbritannien langsam und erfreut sich dann von etwa 1950 bis 1970 einem Forschungsschub. Danach gibt die Mainstream-Soziologie auf verschiedene Weise ihre Nachkommen auf, die hier als subdisziplinäre Soziologie der Muße bezeichnet werden. Glücklicherweise wird die interdisziplinäre Freizeitsoziologie lebendig und entwickelt weiterhin ein lebendiges, forschungsbasiertes konzeptionelles Fundament, das in neuen Ideen verankert ist, die von der interdisziplinären Seite her sprudeln und aus dem disziplinären Mainstream sickern. Trotz dieser Fermentation bleibt der soziologische Mainstream ernsthaft hinter dem Geschehen im soziologischen Teil der interdisziplinären Freizeitforschung zurück. Dies ist äußerst bedauerlich. Freizeitaktivitäten sind universell und weit verbreitet. Sie sind daher positiv, eine Qualität des gesellschaftlichen Lebens, der die Mainstream-Soziologie, da sie problemzentriert ist, nur wenig Beachtung geschenkt hat.;-;-;-;https://link.springer.com/article/10.1007/s41978-017-0003-5 a0c3fcb3afcc922d44fb4c1e76d24ac9;de;;;4.2.;;;Die Beteiligungsschleife: Bürgern den Einstieg erleichtern In diesem Beitrag werden wir untersuchen, wie die Arbeit von Open Street Map (OSM) Mappern durch die Strukturierung ihrer Beiträge durch Berechnung von Aufgaben verbessert werden kann. Aufgaben sind eine gängige Methode, um große Aufträge in kleinere Teile aufzuteilen. Aber in OSM ist der große „Mapping“-Job in keiner Weise strukturiert. Es gibt keinen Aufgabenpool oder ähnliches. Unter Verwendung verschiedener Techniken und Technologien berechnen wir gut definierte und zuweisbare Mapping-Aufgaben. Mit diesem Ansatz hat die Community mehr Feedback darüber, was bereits getan wurde und was sie tun muss. Mit solchen Techniken binden wir diese Gemeinschaften langsam in die Beteiligungsschleife ein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21887-3_14 d0d8355773926f392faca79e52336e07;de;;;4.2.;;;Menschliche Fähigkeiten und Informations- und Kommunikationstechnologie: die kommunikative Verbindung Der potenzielle Beitrag der Informations- und Kommunikationstechnologie (IKT) zur Weiterentwicklung der menschlichen Fähigkeiten wird sowohl vom Fähigkeitsansatz (CA) als auch von IKT-Gemeinschaften anerkannt. Es fehlt jedoch an echtem Engagement zwischen den beiden Gemeinschaften. Dieses Papier befasst sich mit der Frage: Wie kann ein kollaborativer Dialog zwischen den CA- und ICT-Communitys gefördert werden? Eine Voraussetzung für die gemeinsame Erforschung des potenziellen Einsatzes bestimmter Technologien mit spezifischen Fähigkeiten ist ein konzeptioneller Rahmen, innerhalb dessen ein Dialog geführt werden kann, um die Operationalisierung von Fähigkeiten durch den Einsatz von IKT voranzutreiben. Es wird eine kommunikative Verbindung vorgeschlagen, die aus einem dialogischen Raum bestehend aus den CA- und IKT-Gemeinschaften und einer Reihe von normativen Werten und Zielen besteht. Die normativen Werte der kommunikativen Verbindung leiten sich aus dem Menschenrecht auf Kommunikation (RTC) ab, das als axiomatisches Prinzip der kommunikativen Verbindung dient. Die gemeinsamen Ziele bestehen darin, durch den Einsatz von IKT sowohl die Fähigkeit als auch das Recht zur Kommunikation zu operationalisieren, die zwar unterschiedlich sind, aber ineinander vorhanden sind und sich gegenseitig verstärken;-;-;-;https://link.springer.com/article/10.1007/s10676-010-9260-4 7bcf19520d7838871cde2ed1b139db2b;de;;;4.2.;;;Wie sich die Unterstützung durch Lehrkräfte auf die Teilnahme der Lernenden am Blended Learning auswirkt Zahlreiche Studien belegen, dass Blended Learning eine effektive moderne Lernmethode ist. Lehrerinnen und Lehrer spielen als Wegweiser beim Online-Lernen und als Kontrollinstanzen im Klassenzimmer eine immer wichtigere Rolle im Blended Learning. Um den Einfluss des Lehrerunterstützungsverhaltens auf die Lernaktivitäten der Lernenden im Blended Learning zu untersuchen, wurde in diesem Beitrag am Beispiel der Liru-Onlinekurse „Praxis des Fernunterrichts“ empirisch geforscht. Die Gesamtforschungsidee besteht darin, die Lehraktivitäten in drei Module zu unterteilen: autonome Lernaktivitäten, interaktive Lernaktivitäten und erweiternde Lernaktivitäten. Anschließend werden 43 Studierende, die den Studiengang studieren, in den Liru-Online-Kursen für ein Semester Lernverhaltensdaten erfasst und analysiert . Durch die Analyse der Unterstützung der Lehrkräfte bei verschiedenen Lehraktivitäten wird der Einfluss der Lehrkräfteunterstützung auf die Lernbeteiligung der Lernenden in den verschiedenen Phasen der Lehrtätigkeit untersucht. Die Analyse führt zu zwei Hauptergebnissen: Erstens wird der Zugang zu den Ressourcen der Schüler bei den Selbstlernaktivitäten durch die Bewertung der Leistung der Lehrer beeinflusst. Die Häufigkeit der Vorlesungsmaterialien, die in engem Zusammenhang mit den Besuchen und Tests der Studierenden stehen, ist deutlich höher als bei anderen Materialien, wie z. B. Lerneinführungen, Unterrichtszielen und anderen Materialien Aktivitäten können die aktive Teilnahme der Schüler an Lernaktivitäten effektiv fördern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9895-7_5 4ffc79ce98dd899fd111b07a8d406acd;de;;;5.2.;;;Neuro-Fuzzy-Technik zur Navigation mehrerer mobiler Roboter In diesem Beitrag werden Navigationstechniken für mehrere mobile Roboter in einer völlig unbekannten Umgebung untersucht. Zu Beginn werden Fuzzy-Logic-Controller (FLC) mit unterschiedlichen Zugehörigkeitsfunktionen entwickelt und zur Navigation mobiler Roboter verwendet. Zuerst wurde ein Fuzzy-Regler mit vier Typen von Eingabeelementen, zwei Typen von Ausgabeelementen und jeweils drei Parametern verwendet. Als nächstes wurden zwei Arten von Fuzzy-Controllern entwickelt, die dieselben Eingabeelemente und Ausgabeelemente mit jeweils fünf Parametern haben. Jeder Roboter verfügt über eine Reihe von Sensoren zum Messen der Abstände von Hindernissen um ihn herum und einen Bildsensor zum Erfassen der Peilung des Ziels. Es hat sich herausgestellt, dass der FLC mit der Gaußschen Zugehörigkeitsfunktion am besten für die Navigation mehrerer mobiler Roboter geeignet ist. Dann wurde für das gleiche Problem eine hybride Neuro-Fuzzy-Technik entwickelt. Die hier verwendete Neuro-Fuzzy-Technik umfasst ein neuronales Netz, das als Vorprozessor für einen Fuzzy-Controller fungiert. Das für die Neuro-Fuzzy-Technik in Betracht gezogene neuronale Netzwerk ist ein mehrschichtiges Perzeptron mit zwei verborgenen Schichten. Diese Techniken wurden im Simulationsmodus demonstriert, der zeigt, dass die Roboter in der Lage sind, Hindernissen auszuweichen und die Ziele effizient zu erreichen. Unter den entwickelten Techniken hat sich die Neuro-Fuzzy-Technik als die effizienteste für die Navigation mobiler Roboter erwiesen. Mit den Simulationsergebnissen wurden experimentelle Verifikationen durchgeführt, um die Authentizität der entwickelten Neuro-Fuzzy-Technik zu beweisen.;-;-;-;https://link.springer.com/article/10.1007/s10700-006-0014-z 88ba0be47b8866211b5a58720ffff11c;de;;;4.2.;;;Der Zusammenhang zwischen dem Spielen gewalttätiger elektronischer Spiele und Aggression bei Jugendlichen Die Besorgnis über die Auswirkungen des Kontakts mit gewalttätigen Inhalten auf das Verhalten ist nicht neu und war Gegenstand intensiver Forschung. Frühere Ergebnisse zur Gewaltexposition im Fernsehen (TV) zeigten, dass: (1) Menschen aggressive Verhaltensweisen und Einstellungen erlernen können;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-6238-9_15 7d71973a7a5bd9681ce225e9110b916b;de;;;4.2.;;;Politische Systeme und Wahlverhalten: ein Überblick über die international vergleichende Mehrebenenforschung In den letzten zehn Jahren wurde ein bedeutender Bestand an international vergleichender Forschung angesammelt, der ein besseres Verständnis des Wahlverhaltens anstrebt, indem Umfragedaten über Wähler mit Daten auf Systemebene über ihre Länder in komplexen Mehrebenendesigns kombiniert werden. Das vorliegende Papier bietet einen aktuellen Überblick über diese sich schnell entwickelnde Forschungslandschaft, der sich bisher vor allem von zwei Fragen leiten ließ: (i) Welche Bedingungen fördern eine hohe und egalitärere Wahlbeteiligung und geben damit den Bürgern ein gleichberechtigtes Mitspracherecht in der Politik? Und (ii) Welche Bedingungen fördern Wahlentscheidungen, die im Einklang mit den eigenen Interessen der Wähler stehen, und stärken so die Rolle der Wahlen als Instrument, um Regierungen zur Rechenschaft zu ziehen? Während einige Studien in erster Linie dazu beitragen, das Feld des vergleichenden Wahlverhaltens durch geeignetere methodische Ansätze zu festigen, zeigen andere mit beispielloser Deutlichkeit, wie das Wahlverhalten von Individuen systematisch durch institutionelle und sozioökonomische Besonderheiten des Länderkontexts moderiert wird. Ob und wie Sie unter den Wahlkandidaten auswählen, hängt entscheidend von Ihrem Wohnort ab – das ist die starke Botschaft der länderübergreifenden Mehrebenenforschung zum Wahlverhalten. Durch die Identifizierung wichtiger Quellen der Heterogenität bei der Entscheidungsfindung der Wähler stellt diese Forschungsrichtung die Annahme der Homogenität, die seit Jahrzehnten ein Kennzeichen der Wahlforschung ist, zutiefst in Frage.;-;-;-;https://link.springer.com/article/10.1007/s11577-019-00608-8 963eebaba9169e6303ba27a5f2d6564e;de;;;5.2.;;;Adaptives Sampling für Bildverarbeitung mit niedriger Latenz In diesem Artikel beschreiben wir ein sensornahes visuelles Verarbeitungssystem mit niedriger Latenz. Wir zeigen, dass durch adaptives Sampling visueller Informationen ein Low-Level-Tracking bei hohen zeitlichen Frequenzen ohne Erhöhung der Bandbreite und mit sehr wenig Speicher erreicht werden kann. Durch eine sensornahe Verarbeitung können Bildbereiche mit Millisekunden-Sub-Frame-Raten erfasst und verarbeitet werden. Wenn raumzeitliche Regionen wenig nützliche Informationen enthalten, können sie ohne weitere Verarbeitung verworfen werden. Raumzeitliche Regionen, die „interessante“ Änderungen enthalten, werden weiter verarbeitet, um die interessanten Änderungen zu bestimmen. Eine sensornahe Verarbeitung ermöglicht eine Programmierung des Bildsensors mit geringer Latenz, sodass interessante Teile einer Szene häufiger abgetastet werden als weniger interessante Teile. Unter Verwendung eines kleinen Satzes von Regeln auf niedriger Ebene, um zu definieren, was interessant ist, erfolgt die frühe visuelle Verarbeitung autonom. Wir demonstrieren die Systemleistung mit zwei Anwendungen. Um die absolute Leistung des Systems zu testen, zeigen wir erstens ein visuelles Tracking auf niedriger Ebene mit Millisekunden-Raten und zweitens einen allgemeineren rekursiven Baysian-Tracker.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37410-4_17 dccb3514ab5e1a61d81d6fbfcb2a123f;de;;;5.2.;;;Humanistische Ansätze zur Intimität Es gibt zwei Fragen, die ich beantworten möchte. Die erste lautet: Was sind die verschiedenen Bedeutungen oder Arten, Intimität aus der Perspektive humanistischer Ansätze zu konzeptualisieren? Meine Antwort ist, dass es drei Bedeutungen von Intimität gibt, von denen zwei alt und eine neu sind. Die zweite Frage lautet: Welche Rolle und welchen Platz haben diese drei Arten von Intimität innerhalb humanistischer Ansätze der Psychotherapie?;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-4160-4_10 c86a192045927917ef295e8a43693c72;de;;;4.2.;;;Die vermittelnde Rolle der Identitätsmanagementstrategie des sozialen Wettbewerbs in der prädiktiven Beziehung zwischen Anfälligkeit für soziale Einflussnahme, Internet-Datenschutzbedenken und politischer Online-Wirksamkeit Es gibt nur wenige psychotechnologische Forschungen in der politischen Welt in Indonesien, während Indonesien bei den Parlamentswahlen 2014 in das „Jahr der Politik“ eintreten wird. Diese Forschung zielte darauf ab, die Hypothese der prädiktiven Korrelation auf individueller Ebene zwischen der Anfälligkeit für soziale Einfluss, Bedenken hinsichtlich der Privatsphäre im Internet (als Prädiktorvariablen) und politische Wirksamkeit im Internet (als abhängige Variable). Diese Forschung stellte die Hypothese auf, dass die Beziehung zwischen den Variablen durch eine Online-Identitätsmanagementstrategie in Form von sozialem Wettbewerb vermittelt wird. Diese Forschung verwendete Fragebogen, um Variablendaten zu gewinnen. An dieser Studie nahmen 214 Studenten der Bina Nusantara University, Jakarta (106 Männer, 108 Frauen) teil. Das Ergebnis dieser Forschung zeigt, dass fünf von sieben vorgeschlagenen Hypothesen durch empirische Daten gestützt werden. Am Ende dieses Artikels werden Implikationen des Ergebnisses dieser Forschung für die Online-Systementwicklung für politische Aktivitäten diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55032-4_50 9cde83a783e8d409f8a19b02fc11342b;de;;;4.2.;;;Das individuelle Ethos: ein bestimmendes Merkmal des zeitgenössischen schwarzen Konservatismus Die Nominierung und Bestätigung von Clarence Thomas als stellvertretender Richter des Obersten Gerichtshofs der USA im Jahr 1991 brachte den zeitgenössischen schwarzen Konservativen nationale Aufmerksamkeit. Sowohl schwarze als auch weiße Journalisten versuchten, Thomas in eine Tradition des schwarzen Konservatismus einzuordnen. Führungskräfte von Frederick Douglass;-;-;-;https://link.springer.com/chapter/10.1057/9780230108158_8 bdd4811d244ae1362f3466466969a866;de;;;4.2.;;;Emotionale Ansteckung mit künstlichen Anderen. Auswirkungen von Kultur, physischer Erscheinung und nonverbalem Verhalten auf die Wahrnehmung positiver/negativer Affekte bei Avataren In der vorliegenden Studie haben wir untersucht, ob kulturelle Stereotype, die durch das physische Erscheinungsbild von Avataren aktiviert werden, die Wahrnehmung von positiven und negativen Affekten bei Mitgliedern der In- und Outgroup beeinflussen. In einer ersten Studie sahen 43 deutsche und 40 arabische Teilnehmer kurze Videoclips eines deutschen und eines arabischen Avatars, die mehrdeutiges nonverbales Verhalten zeigten. Trotz kultureller Stereotypen schrieben sowohl arabische als auch deutsche Teilnehmer dem arabischen Avatar mehr positive Emotionen zu als dem deutschen. Um diese widersprüchlichen Ergebnisse weiter zu untersuchen, führten wir eine Folgestudie durch, in der 52 deutsche und 52 arabische Teilnehmer die Wertigkeit beider Avatare bewerteten. Sowohl deutsche als auch arabische Teilnehmer bewerteten den arabischen Avatar deutlich positiver als den deutschen. Zusammengenommen zeigen die Ergebnisse beider Studien, dass die Valenz von Avataren das Potenzial hat, kulturelle Stereotype zu überwinden und die Wahrnehmung von positiven und negativen Affekten zu beeinflussen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07632-4_39 b49980ffa6a639a00533b93dbdaa956c;de;;;4.2.;;;Analyse von Assoziationen zwischen Emotionen und Aktivitäten von Drogenkonsumenten und ihren Suchtheilungstendenzen aus Social-Media-Posts unter Verwendung von Strukturgleichungsmodellen Drogen- und Alkoholsucht sind einer der wesentlichen Faktoren für den Rückgang der Lebenserwartung in den USA. Mehrere kontextspezifische Gründe beeinflussen den Drogenkonsum und die Genesung. Insbesondere emotionaler Stress, körperliche Schmerzen, Beziehungen und Bemühungen zur Selbstentwicklung sind als einige der Faktoren bekannt, die mit der Genesung von Sucht verbunden sind. Leider sind viele dieser Faktoren nicht direkt beobachtbar und quantifizierbar, und die Bewertung ihrer Auswirkungen kann schwierig sein. Basierend auf Social-Media-Beiträgen von Benutzern, die sich im Forum Reddit mit Substanzkonsum und Genesung beschäftigen, haben wir zwei psycholinguistische Tools verwendet, Linguistic Inquiry und Word Count and Empath sowie Aktivitäten von Substanzkonsumenten in verschiedenen Reddit-Unterforen, um das Verhalten zu analysieren, das die Genesung und den Rückfall von Sucht unterstreicht . Anschließend verwendeten wir eine statistische Analysetechnik namens Strukturgleichungsmodellierung, um die Auswirkungen dieser latenten Faktoren auf Genesung und Rückfall zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s12859-020-03893-9 b3a5afb386bbd2d8ec2c073b4383cdfc;de;;;4.2.;;;Vision, Image, Reputation und Beziehungen: Kritische Treiber bei der Entwicklung einer Airport City Dieses Papier konzentriert sich auf die Vision, das Image, den Ruf und die Beziehungen eines australischen Flughafenunternehmens, das eine Flughafenstadt entwickelt. Die vier Konstrukte (Vision, Image, Reputation und Beziehungen) und die Verbindungen zwischen ihnen untermauerten ein konzeptionelles Modell für diese vorstrukturierte Fallforschung (Yin, 1994). Tiefeninterviews mit 60 Interessenvertretern aus Regierung und Wirtschaft wurden durch Interviews und Fokusgruppen mit mittleren Führungskräften ergänzt. Eine Reputationsskala, die auf dem Harris-Fombrun-Reputationsquotienten (Fombrun, Gardberg und Sever, 2000), der australischen Reputex-Forschung (Reputation Measurement, 2004) und anderen in dieser Studie vorgestellten Studien basiert. Die Ergebnisse zeigten ein gemischtes Verständnis der Vision und starke Ansichten über den Verhandlungsstil der Flughafenmanager, der sich auf das Image, den Ruf und die Beziehungen auswirkte. Hohe Reputationswerte wurden jedoch der Führung, dem Management und der wirtschaftlichen Stabilität zugeschrieben, während die sozialen Verantwortung und Inklusion niedrigere Werte zugeschrieben wurden. Die Reputationsbewertungen waren in der Regierung geringfügig niedriger, wo mehr negative Bilder und Debatten über die Vision auftraten.;-;-;-;https://link.springer.com/chapter/10.1057/9780230583221_5 f3f2e7a6c2ef9ed4ac734ed00ac24ef5;de;;;4.2.;;;Alternative Agrifood-Netzwerke als lernende Gemeinschaften: Einige Fragen für ein Klassifikationsmodell In jüngster Zeit sind in vielen Ländern Alternative Agrifood Networks (AAFNs) entstanden, um die Grenzen des kapitalintensiven Mainstream-Agrobusiness-Systems zu überwinden. Erzeuger und Verbraucher werden je nach sozioökonomischen Merkmalen der Bezugsgebiete in unterschiedlichen Organisationsformen zusammengeführt. In diesem Papier stellen wir ein originelles Modell vor, um aktuelle weltweite AAFNs unter einer Wissens- und Lernperspektive zu klassifizieren. Unterschiedliche Organisationsformen werden entlang zweier Hauptdimensionen abgebildet: Beziehungstypen zwischen vernetzten Akteursgruppen und deren Interaktions-/Kooperationsniveau.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35879-1_34 e06803f409061003f0b9692902c49b35;de;;;4.2.;;;SQL oder NoSQL? Gegensätzliche Ansätze zur Speicherung, Manipulation und Analyse von räumlich-zeitlichen Online-Social-Network-Daten Forscher greifen jetzt auf Millionen von Online Social Network (OSN)-Interaktionen zu. Diese sind kostenlos oder zu geringen Kosten über Application Programming Interfaces (APIs) oder Datenverwahrer wie DataSift und GNIP erhältlich. Datensätze, die in Extensible Markup Language (XML) oder JavaScript Object Notation (JSON) gespeichert sind, sind gut strukturiert, aber oft unpraktisch formatiert für die Verwendung in gängigen relationalen Datenbankverwaltungssystemen (RDBMS) oder Geographischer Informationssysteme (GIS). Im Gegensatz dazu sind aufkommende NoSQL-Technologien (Not-only Structured Query Language) speziell darauf ausgelegt, unstrukturierte Daten zu „erfassen“. Extract/Transform/Load (ETL)-Verfahren zur Speicherung und anschließenden Analyse von zwei OSN-Datensätzen in SQL/NoSQL-Datenbanken werden untersucht. Das feste Datenmodell des relationalen Ansatzes kann sich als problematisch erweisen, wenn unvorhersehbare dokumentenbasierte Strukturen geladen werden, die aus längeren Zeiträumen der Datenerfassung resultieren. Obwohl relationale Datenbanken noch lange nicht veraltet sind, scheint die Gemeinschaft für räumliche Analysen wahrscheinlich von Experimenten mit neuer Software zu profitieren, die explizit für den Umgang mit räumlich-zeitlichen Big Data entwickelt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09144-0_16 26aa163f4f773f5fd46843b023ca4d15;de;;;4.2.;;;Gruppenkognition als Grundlage für die neue Wissenschaft des Lernens In der neuen globalen Welt ist es an der Zeit zu erkennen, dass Wissen in erster Linie sozial und progressiv produziert wird und nicht nur durch spontane Handlungen isolierter Köpfe. Daran partizipieren Individuen als Wissenslerner, Wissensnutzer und Wissensbildner, überwiegend durch ihre Interaktionen in Kleingruppen. Die kognitive Arbeit kleiner Gruppen kann sich von individuellem Denken und gemeinschaftlicher Wissensverarbeitung unterscheiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-5716-0_2 fc351a2548ab7118a5596b2dbb183727;de;;;5.2.;;;Phosphorylierung der Komponente a der menschlichen Erythrozytenmembran bei myotoner Muskeldystrophie Die Aktivität der endogenen Membranproteinkinase in frischen Erythrozyten-Ghosts ist bei myotoner Muskeldystrophie verändert. Die Phosphorylierung der Erythrozytenkomponente a, die mit einem scheinbaren Molekulargewicht von 90.000 bis 100.000 wandert, ist im Vergleich zu alters- und geschlechtsangepassten Kontrollen signifikant reduziert. Der Unterschied in der Aktivität der endogenen Membranproteinkinase in frischen RBC-Membranen bestätigt die Annahme, dass die myotone Dystrophie eine Krankheit mit weit verbreiteten Membranveränderungen ist.;-;-;-;https://link.springer.com/article/10.1007/BF01870627 3ec4972dde577910497485b1d42b6232;de;;;5.2.;;;Verifizierung des CAE-Systems des Prozesslayouts Jüngste japanische Unternehmen fördern die „globale Produktion“, um in einem hart umkämpften Umfeld „weltweit einheitliche Qualität und Produktion an optimalen Standorten“ zu realisieren. In den letzten Jahren haben sich die Konzepte des Digital Engineering und der Computersimulation nicht nur auf die Produktqualität, sondern auch auf die Qualität der Geschäftsprozesse und der Unternehmensführung ausgeweitet, während der Umfang der betriebswirtschaftlichen Aktivitäten erweitert wurde. Unter Berücksichtigung der Produktionsumgebung des Fertigungsunternehmens haben die Autoren eine strategische Fertigungstechnologie für Lean Production namens Production entwickelt;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-75232-5_6 d66610e79c1560dd12327470d7547a7b;de;;;4.2.;;;Organisationen, die Frauen beim Aufbau einer MINT-Karriere unterstützen Dieses Kapitel beginnt die zweite Hälfte des Buches, in der verschiedene Fallstudien untersucht werden. Das Kapitel ist den Beschreibungen und der Geschichte von vier Organisationen gewidmet, die sich für mehr Frauen und bessere Erfahrungen in Wissenschafts- und Ingenieurberufen eingesetzt haben. Das Kapitel betrachtet diese Organisationen in der chronologischen Reihenfolge ihrer Entstehung: die Society of Women Engineers (SWE 1950), die Association for Women in Science (AWIS 1971), das Women in Engineering ProActive Network (WEPAN 1990) und MentorNet (1997). .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24811-0_6 fa4e4faec4648dbedc85af11eae66865;de;;;4.2.;;;Die Vereinbarung Nach Prüfung der einundzwanzig Forderungen der an der Küste streikenden Arbeiterschaft haben die Regierungskommission und das werksübergreifende Streikkomitee folgende Entscheidungen getroffen:;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-21470-9_4 83de667b682e9524e42f29bcca87ad05;de;;;4.2.;;;Überlegungen zum Weltentwicklungsbericht „Equity and Development“ zehn Jahre später Man kann mit Fug und Recht sagen, dass in den Augen der Initiatoren „Ungleichheit“ und nicht „Gerechtigkeit“ das dominierende Thema des Weltentwicklungsberichts 2006 sein sollte. Ihr Ziel war es, die vorherrschende Ansicht in der Weltbank und anderswo in der Entwicklungsgemeinschaft in Frage zu stellen, dass Entwicklungsstrategien in ihrem Ziel, die Armut zu verringern und möglicherweise auszurotten, sich hauptsächlich auf das gesamtwirtschaftliche Wachstum konzentrieren sollten. Der im Bericht zu entwickelnde Hauptgedanke war, dass die gesamte Einkommensverteilung innerhalb der Bevölkerung und nicht nur der Mittelwert von Bedeutung ist und für die politischen Entscheidungsträger ein wichtiges Anliegen sein sollte. Der Grad der Ungleichheit der Einkommensverteilung wirkte sich nämlich in zweierlei Hinsicht auf die Armutsbekämpfung aus. Sie verringerte nicht nur den Anteil des Wachstumsgewinns, der tatsächlich den Ärmsten zufließt, sondern bremste auch das Wachstum selbst.;-;-;-;https://link.springer.com/chapter/10.1057/9781137554543_2 3c6f5d0e2181586a172073e07fe5141f;de;;;5.2.;;;Rückkopplungseffekte in einer langen He-Ne-Röhre bei 3391 nm In dieser Arbeit werden einige Experimente zur 3391-Generation in einer He-Ne-Langröhre und insbesondere zu ihrer Empfindlichkeit gegenüber der in die Röhre zurückreflektierten Eigenstrahlung vorgestellt: der Selbststimulations- oder Rückkopplungseffekt. Die kleinste Rückkopplung, experimentell geschätzt als 2,5·10;-;-;-;https://link.springer.com/article/10.1007/BF02456771 7579ae6a79519bfd5ab8cb4119c9daec;de;;;4.2.;;;Speicher in Audiovision In diesem Kapitel werden mehrere Beispiele für digitale Video-Gedenkstätten diskutiert, die als Externalisierungen der Erinnerung in der Audiovision betrachtet werden. Das Kapitel konzentriert sich auf YouTube als die wichtigste Plattform für die Mikroarchivierung, Verbreitung und den Konsum audiovisueller Inhalte. Die analysierten kurzen, von Nutzern erstellten digitalen Videogedenkstätten bieten eine anschauliche Verschmelzung von dekontextualisierten und rekontextualisierten Medienquellen (visuell, hörbar, textuell), die verwendet werden, um eine persönliche Interpretation der Vergangenheit zu erstellen. In diesem Kapitel diskutiert der Autor auch die gesteigerte Unmittelbarkeit des Erinnerns und rahmt die Diskussion durch Themen wie Nostalgie, Frustration und Löschung. Auf diese Weise entwirrt er die zugrunde liegenden Merkmale digitaler Videodenkmäler und des Gedächtnisses in digitalen Medien im Allgemeinen, die als Mitwirkende bei der Verschmelzung historischer und zeitlicher Vorstellungskraft angesehen werden.;-;-;-;https://link.springer.com/chapter/10.1057/978-1-137-52580-2_6 cdadcde117146c8692a7e95ccbfa14ba;de;;;4.2.;;;Wissensaustausch und internes Social Marketing zur Verbesserung der Cybersicherheitspraxis In diesem Papier werden zwei neue Wege vorgestellt, um effektive Cybersicherheitspraktiken bei den Mitarbeiterbenutzern zu etablieren. Peer-Wissensaustausch wird in Unternehmen häufig eingesetzt, um Innovation und Effizienz zu fördern, daher kann seine Anwendbarkeit zur Förderung einer sicheren Cybersicherheitspraxis fruchtbar sein. Internes Social Marketing ist eine Marketingtechnik, die darauf abzielt, soziale Verantwortung zu fördern, um soziale Ziele zu erreichen, wie z. Anhand eingehender Interviews mit Mitarbeitern von Unternehmen in Ho-Chi-Minh-Stadt, Vietnam, untersucht unsere Studie effektive Methoden zur Förderung des Wissensaustauschs zwischen Benutzern und deren Auswirkungen auf die Sicherheitspraxis. In ähnlicher Weise werden 7Ps in einem gemischten Social-Marketing-Ansatz evaluiert, um einen umfassenden sozialen Sicherheitsraum zu erfassen, mit dem Benutzer normalerweise auf ihrer Suche nach Cybersicherheitskonformen Praktiken interagieren. Erste Ergebnisse unserer Studien liefern Sicherheitsexperten praktische Implikationen, um eine unterstützende und ermöglichende Kommunikationsinfrastruktur zu schaffen, die nachhaltigen Verhaltensänderungen bei der Einhaltung und Mitgestaltung von Cybersicherheitspraktiken unter den Benutzern dient.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-68534-8_27 5ce3de03f3fcfd572b5d9156930f763f;de;;;4.2.;;;Leitlinien für gesündere öffentliche Räume für ältere Menschen: Empfehlungen im spanischen Kontext Eine gesunde Stadt ist mehr als ein Ort, an dem die Bevölkerung nicht an Infektionskrankheiten, Epidemien oder einer wirksamen präventiven Impfkontrolle wie im 20. Jahrhundert leidet. Eine gesunde europäische Stadt wird eine Stadt sein, die allen Einwohnern körperliches, soziales und ökologisches Wohlergehen bieten kann (WHO. Bulletin der Weltgesundheitsorganisation (BLT) 88(4):241–320, 2010). In vielen Ländern gibt es bereits Leitfäden, Empfehlungen oder Handbücher, wie beispielsweise Kanada, Australien, die Vereinigten Staaten oder das Vereinigte Königreich. Da die Bevölkerung weltweit zunimmt, müssen öffentliche Räume an die ältere Bevölkerung angepasst werden. Die ältere Stadtbevölkerung hat spezifische Umweltanforderungen, sie erlebt im Sommer und Winter unterschiedliche thermische Behaglichkeit, reagiert empfindlicher auf extreme Temperaturen, hat größere Bewegungsschwierigkeiten und hat keine kognitiven Empfindungen usw.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-50540-0_3 7ab758516168bdfa4380e80a133d7ddf;de;;;4.2.;;;Bürgerbeteiligung an der Nutzung des IRS-Portals, das die elektronische Regierung in die Stadt Milagro . bringt Der Zweck dieses Artikels ist es, die Bedeutung der Nutzung des elektronischen Regierungsportals für die Erhebung von Steuern und deren Beteiligung an der Stadt Milagro zu analysieren. Gegenwärtig ermöglicht der Einsatz von technologischen Instrumenten für die Prozesskontrolle, dass mehrere Aktivitäten so durchgeführt werden können, dass die Bürger nicht in die Regierungsbüros gehen müssen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-05532-5_52 0733acbbfb1ae292d68d63f55d7ef316;de;;;5.2.;;;Reverse Bargaining: Einige Merkwürdigkeiten, die die „Regeln“ veranschaulichen Gewerkschaften, die für niedrigere Löhne streiken? Käufer auf der Suche nach höheren Preisen? Solche Fälle von kontraintuitiver oder paradoxer Verhandlungsstrategie und -verhalten erweisen sich als nützlich, um die Konzepte und Aussagen der Verhandlungstheorie zu verfeinern. Die Untersuchung von vier solcher Fälle scheinbar unsinniger Verhandlungen zeigt die zugrunde liegende Stichhaltigkeit der Unterscheidung zwischen Position und Interesse, sobald diese Konzepte angemessen spezifiziert sind. Die daraus resultierende Anreicherung der Theorie führt wiederum zu einer verbesserten Praxis und unterstreicht die Bedeutung der Erkundung von Interessen. Das Argument betont den Wert der Untersuchung des Unerwarteten.;-;-;-;https://link.springer.com/article/10.1023/A%3A1024625527494 1ff2a8af393ac5a0a9e84042a33357eb;de;;;5.2.;;;Radio, Film und Moral: Kriegsunterhaltung zwischen Mobilisierung und Ablenkung Historiker haben oft Mühe, die Bedeutung oder Bedeutung von „Vergnügen“ und „Freizeit“ einzuschätzen. Auf der einen Seite mögen solche Unwesentlichen im Vergleich zur Geschichte von Regierung, Kriegen, Wirtschaft und Religion trivial erscheinen, es besteht jedoch kein Zweifel, dass sie im letzten Jahrhundert mehr Zeit und Energie in Anspruch genommen haben und ein entscheidendes Element für jedes Verständnis der Populärkultur. Ein Teil des Grundes könnte ein anhaltendes Gefühl der Angst vor einem Übermaß an „Vergnügen“ selbst sein, Ängste mit einem bemerkenswert langen Stammbaum. Der von Weber sezierte „evangelische“ Geist neigte immer dazu, Genuss mit Trägheit zu assoziieren und davon auszugehen, dass zu viel Genuss eine Gefahr für den Einzelnen und die Gesellschaft darstelle. Im 19. Jahrhundert definierte sich das produktive, utilitaristische Handelsbürgertum weitgehend im Gegensatz zu einer weibischen, zügellosen Aristokratie. Um die Jahrhundertwende wurde diese neue Handelselite selbst als jüngste Manifestation einer parasitären „Freizeitklasse“ (nach T. Veblen) an den Pranger gestellt. Als der Lebensstandard stieg und sich mehr soziale Gruppen einfache Freuden leisten konnten, entwickelte sich diese Kritik zu ausgeklügelten Plänen für „rationale Erholung“ und gesunde Alternativen zu kommerziellen Vergnügungen. Es ist sicherlich nicht schwer, Anklänge an diesen Reformismus im Nationalsozialismus zu finden, von der produktivistischen Stoßrichtung der;-;-;-;https://link.springer.com/chapter/10.1057/9780230306905_8 14087eeceb4405592e194caa147abae0;de;;;4.2.;;;Lokale Ansichten: Skepsis gegenüber Europa und seinen Folgen Dieses Kapitel befasst sich mit Bürgern des Westbalkans, deren kritische, euroskeptische Ansichten bei der Analyse von EU-Erweiterungsprozessen häufig vernachlässigt werden. Nach einer kurzen Diskussion darüber, was mit Euroskeptizismus gemeint ist, liefert er einige Belege für sein Wachstum in der Region und erläutert die Hauptgründe für diesen Trend. Schließlich untersucht sie die Folgen des Anstiegs der Euroskepsis. Während es keine kurzfristigen, realistischen Alternativen zu einer weiteren Integration in die EU gibt, werden andere Optionen – vor allem die Entwicklung engerer Beziehungen zu Russland – zunehmend vor Ort diskutiert. Insgesamt spiegelt die wachsende Euroskepsis die Frustration über das tatsächliche und vermeintliche Versäumnis der EU wider, die Erwartungen der Bürgerinnen und Bürger zu erfüllen, und nicht eine radikale Ablehnung der Institutionen und Prinzipien, die der liberalen Friedenskonsolidierung und dem Prozess der europäischen Integration zugrunde liegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-14424-1_7 079f0436a127bf50957b48b13cb3bb8c;de;;;4.2.;;;Chinas alternde Bevölkerung: Die aktuelle Situation und Perspektiven China hat eine schnell alternde Bevölkerung, sowohl zahlenmäßig als auch strukturell. Die Zahl der über 60-Jährigen steigt jährlich um rund 6,2 Millionen Menschen. Nach dieser Definition von älteren Menschen wird China bis 2025 voraussichtlich 280 Millionen ältere Menschen haben. Sie werden etwa ein Fünftel der Gesamtbevölkerung ausmachen. Eine alternde Bevölkerung ist zu einem der grundlegenden nationalen Merkmale Chinas geworden. Dieses Kapitel bietet einen statistischen Überblick über die älteren Menschen in China auf nationaler und regionaler Ebene unter Verwendung von Volkszählungsdaten von 2010. Anhand einer Literaturübersicht skizzieren wir die Probleme, die sich aus der alternden Bevölkerung im modernen China ergeben. Wir berücksichtigen Altersabhängigkeit, Gesundheit und Einkommensquellen. Wir kommen zu dem Schluss, dass China nicht gut vorbereitet ist, um auf Probleme zu reagieren, die sich aus seiner alternden Bevölkerung ergeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0230-4_12 2ad3a5ed1bd3a6578d5949c246860420;de;;;5.2.;;;Ionenzusammensetzung und Sonnenwindwechselwirkung: Beobachtungen des Kometen C/1995 O1 (Hale-Bopp) Die außergewöhnliche Helligkeit des Kometen Hale-Bopp (C/1995 O1) bot die seltene Gelegenheit, seinen Ionenschweif durch Beobachtungen über einen weiten Wellenlängenbereich zu untersuchen. Zum ersten Mal konnten im Radiobereich Ionenemissionslinien nachgewiesen werden, die von H;-;-;-;https://link.springer.com/article/10.1023/A%3A1006285300913 a40b486e453eaf48d2fca5e3b0e4cc02;de;;;4.2.;;;Blockieren von sozialen Medien. Begründung und rechtliche Gründe Die Nutzung von Social Media stellt mittlerweile einen globalen Trend dar, der auch den Bereich der öffentlichen Verwaltung und anderer staatlicher Aktivitäten erfasst. Trotz der breiten Nutzung und Popularität von Social Media bei Einzelpersonen, Unternehmen und sozialen Einrichtungen werden sie immer mehr Gegenstand von Zensur und Blockierung mit unterschiedlichen Argumenten und Reichweiten. Die jüngsten Vorfälle auf der ganzen Welt zeigen eine zunehmende Tendenz, die Nutzung sozialer Medien durch Unternehmen, Arbeitgeber und Regierungen einzuschränken. Es ist erwähnenswert, dass nicht nur China oder Nordkorea, die traditionell für ihre restriktive Politik gegenüber Internetaktivitäten bekannt sind, für die Blockierung sozialer Medien gesichtet werden, sondern ein Großteil der afrikanischen Länder und sogar Länder, die eher nahe an Europa liegen, z.B. Türkei, Ukraine, Russland. Die Autoren versuchen, einen kurzen Überblick über die Gründe und rechtliche Gründe für die von den Regierungen verwendete Sperrung sozialer Medien zu geben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-69784-0_12 a022d57cddc1b0c12db8d1b49d1ffdbd;de;;;4.2.;;;Unterstützung der sozialen Lernregulation durch mehrdimensionale Gerüste in computergestützten kollaborativen Schreibaktivitäten Die soziale Regulierung des Lernens wurde im Kontext des computergestützten kollaborativen Lernens (CSCL) von großer Bedeutung. Der soziale Regulierungsprozess ist komplex und erfordert ein technologisches Gerüst. CSCL-Technologien wie Skript- und Gruppenbewusstseinstools wurden verwendet, um die soziale Regulierung des Lernens zu unterstützen. Solche Instrumente sind jedoch bei der Unterstützung der Planungs- und Evaluierungsphase der Regulierung begrenzt und können den gesamten Prozess der sozialen Regulierung des Lernens nicht unterstützen. Diese Forschung zielt darauf ab, eine Reihe von mehrdimensionalen Gerüsten zu entwerfen und zu entwickeln, um die Planung, Überwachung, Regulierung und Bewertung von Phasen der sozialen Regulierung des Lernens basierend auf Learning Analytics-Technologien zu unterstützen. Darüber hinaus untersucht die vorliegende Arbeit auch die Validität der vorgeschlagenen Gerüste und die Akzeptanz dieser Werkzeuge durch die Studierenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4594-2_19 924a81808ac363890c8391aa76faacf9;de;;;4.2.;;;"Ein Algorithmus zur Vorhersage von Benutzerstandorten, der auf der Verbreitung von Etiketten in sozialen Netzwerken basiert Die Netzwerk-Community-Erkennung ist ein wichtiger Dienst, der von sozialen Netzwerken bereitgestellt wird, und der Standort der Benutzer in sozialen Netzwerken kann die Qualität der Community-Erkennung erheblich verbessern. Die Etikettenausbreitung ist eine der Hauptmethoden, um die Vorhersage des Benutzerstandorts zu realisieren. Der traditionelle Etikettenausbreitungsalgorithmus weist die Probleme auf, einschließlich des ""Standortkennzeichen-Gegenstroms"" und der Aktualisierungszufälligkeit des Knotenstandortkennzeichens, was die Genauigkeit der Benutzerstandortvorhersage ernsthaft beeinträchtigt. In diesem Beitrag wird ein neuer Standortvorhersagealgorithmus für soziale Netzwerke vorgeschlagen, der auf einem verbesserten Label-Propagation-Algorithmus basiert. Durch Berechnen des öffentlichen K-Sprung-Nachbarn von zwei beliebigen Punkten in dem sozialen Netzwerkgraphen werden die Knoten mit der maximalen Ähnlichkeit und ihre K-Sprung-Nachbarn verschmolzen, um den anfänglichen Etikettenausbreitungssatz zu bilden. Der Grad der Knoten, die nicht in der Anfangsmenge enthalten sind, wird berechnet. Die Knotenstandortkennzeichnungen werden asynchron aktualisiert, während des iterativen Prozesses übernommen, und der Knoten mit dem höchsten Grad wird ausgewählt, um die Standortkennzeichnung zu aktualisieren. Die vorgeschlagene Verbesserung löst den „Gegenstrom der Ortskennzeichnung“ und verringert die Zufälligkeit der Aktualisierung der Ortskennzeichnung. Die experimentellen Ergebnisse zeigen, dass der vorgeschlagene Algorithmus die Genauigkeit der Positionsvorhersage verbessert und den Zeitaufwand im Vergleich zu herkömmlichen Algorithmen reduziert.";-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4922-3_12 e82fd8555b42d49b402a4df6110aa667;de;;;4.2.;;;Ein Preisansatz für Anreizmechanismen für das mobile Crowdsensing von Teilnehmern im Edge-Computing Aufgrund der beschleunigten Urbanisierung und der rasanten Entwicklung des mobilen Internets gilt Mobile Crowd Sensing (MCS) als vielversprechende Methode zur Erfassung massiver Datenmengen. Aufgrund der massiven Wahrnehmungsdaten im partizipativen MCS-System sind jedoch der Datenschutz mobiler Benutzer und die Reaktionsgeschwindigkeit der Datenverarbeitung in der Cloud-Plattform schwer zu gewährleisten. Die Begeisterung der Teilnehmer zu wecken, kann gleichzeitig eine Herausforderung sein. In diesem Papier schlagen wir zunächst eine dreischichtige MCS-Architektur vor, die Edge-Server zur Verarbeitung von Rohdaten einführt, die Privatsphäre der Benutzer schützt und die Reaktionszeit verbessert. Um die soziale Wohlfahrt zu maximieren, betrachten wir ein zweistufiges Spiel in einer dreischichtigen MCS-Architektur. Anschließend formulieren wir ein Markov-Entscheidungsprozess (MDP)-basiertes Sozialwohlfahrtsmaximierungsmodell und untersuchen ein konvexes Optimierungspreisproblem in der vorgeschlagenen dreischichtigen Architektur. In Kombination mit dem Marktwirtschaftsmodell könnte das Problem nach der Markttauschtheorie als Walrasianisches Gleichgewichtsproblem angesehen werden. Wir schlagen einen Preisansatz für Anreizmechanismen vor, der auf der Lagrange-Multiplikatormethode, der dualen Dekomposition und der iterativen Subgradientenmethode basiert. Schließlich leiten wir die experimentellen Daten aus realen Datensätzen ab und umfangreiche Simulationen demonstrieren die Leistungsfähigkeit unserer vorgeschlagenen Methode.;-;-;-;https://link.springer.com/article/10.1007/s11036-020-01538-y 1c445f580e93d49e12bb09da65b00ede;de;;;5.2.;;;Wissen über Prostatakrebs, Prävention und Screening-Verhalten bei jamaikanischen Männern Das Screening ist die einzige wirksame Methode, um die Sterblichkeit bei Prostatakrebs zu senken. Mehrere Berichte haben bei jamaikanischen Männern ein geringes Bewusstsein für Prostatakrebs und ein geringes Screening-Verfahren dokumentiert. Die Jamaica Cancer Society bietet die am besten organisierte und größte Form des Screenings in Jamaika und veranstaltet eine jährliche Massenscreening-Klinik am Prostatakrebs-Aufklärungstag im September. Wir wollten das Wissen und die Einstellungen zu Vorsorgeuntersuchungen, Risiken und Prävention von Prostatakrebs ermitteln. Die Studie stellte eine Querschnittsanalyse von 55 Männern dar, die sich beim Prostatakrebs-Aufklärungstag im September 2014 in Kingston, Jamaika, zum Screening vorstellten. Informationen zum Prostatakrebs-Wissen und zur Einstellung zum Screening wurden mithilfe von Interviewer-verwalteten Fragebögen (The Integrative Model of Prostate Cancer Disparity (PIPCaD)) eingeholt. Prostataspezifisches Antigen (PSA) und digitale rektale Untersuchung (DRE) wurden von allen Patienten erhalten. Mittlerer PSA von Die teilnehmenden Männer betrugen 1,5 ± 1,48 ng/ml 15 % der befragten Männer hatten eine Familienanamnese mit Prostatakrebs. Das Wissen über Prostatakrebs war mäßig, wobei mindestens 84 % der Männer auf 5 von 10 Fragen zum Prostatakrebsrisiko und zur Prävention richtig antworteten correctly Die meisten Männer hatten eine positive Einstellung zum Screening. Stärke stellte bei 68 % der Männer den größten Teil der Ernährung dar und 35 % der Männer, die sich nicht körperlich betätigten. Die befragten jamaikanischen Männer haben mäßige Kenntnisse über Prostatakrebs und eine positive Einstellung zu Screening und Prostata pro Aktivitäten zur Krebsprävention Die Anwendung von Aktivitäten zur potenziellen Prävention beeinflussbarer Risikofaktoren ist jedoch mangelhaft.;-;-;-;https://link.springer.com/article/10.1007/s13187-016-0991-8 85c745983503e1196c364a5cef9d79b9;de;;;4.2.;;;Kollektive Standpunktbestimmung der Beteiligung auf niedriger Ebene Das Mining von Microblogs ist ein wichtiges Thema, das uns helfen kann, gemeinsame Standpunkte zu jedem Ereignis zu sammeln. Die Benutzerbeteiligung ist jedoch selbst bei einigen heißen Ereignissen gering. Daher ist die Entdeckung von kollektiven Standpunkten zur Beteiligung auf niedriger Ebene eine praktische Herausforderung. In dieser Arbeit schlagen wir vor, a;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29253-8_28 054495b3d550b123d65b2952fe8397ff;de;;;4.2.;;;Digital Play: Was sehen Erzieherinnen und Erzieher? Die bildungstechnologische Forschung hat sich traditionell auf das Potenzial von Technologien zur Unterstützung des Lehrens und Lernens in verschiedenen Kontexten konzentriert. Im Wesentlichen wurde in dieser Arbeit versucht, den Einfluss von Technologien auf das Lernen von Schülern und/oder Lehransätze zu verstehen. Während Technologien als neuer wichtiger Aspekt postindustrieller Gemeinschaften auftauchten (Lankshear & Knobel, 2006), war eine solche Forschung angebracht, da weitgehend unbekannt war, was die Technologien leisten und welche Auswirkungen sie auf das Lernen haben könnten. Technologien sind heute jedoch in vielen Kontexten ein so integrierter Aspekt des täglichen Lebens und der Bildungserfahrung, dass dieser Forschungsschwerpunkt zunehmend irrelevant wird. Selwyn (2010) argumentiert überzeugend, dass die Technologieforschung im Bildungsbereich zu einem „kritischen“ Ansatz heranreifen muss, damit die sozialen und kulturellen Kontexte, in denen Technologie verortet und in Bildungsumgebungen artikuliert wird, im Fokus der Forschung stehen sollten. Kernaspekte einer kritischen Herangehensweise sind, was Selwyn (2010) als 1) die Entwicklung kontextreicher Analysen und 2) das Stellen von Fragen zum „Ist-Zustand“ bezeichnet. Kontextreiche Analysen konzentrieren sich auf das Verständnis der verschiedenen Umgebungen, die zu Bildungstechnologien beitragen, einschließlich zu Hause, im Klassenzimmer und in der Politik. Um den aktuellen Stand der Dinge zu stellen, muss man untersuchen, was passiert, wenn eine Technologie auf ein Klassenzimmer trifft, anstatt einfach zu fragen: „Was sind die potenziellen Auswirkungen dieser Technologie auf das Lernen?“. Ein kritischer Ansatz zur Bildungstechnologie erkennt die sozialen und kulturellen Aspekte der technologischen Entwicklung an und versucht zu verstehen, wie sich diese Aspekte mit traditionellen pädagogischen Ansätzen überschneiden.;-;-;-;https://link.springer.com/chapter/10.1057/9781137385451_5 5cd7d5c7cacf45a9e9adc8aaba910153;de;;;4.2.;;;Angeborene Anomalien Die Hyperostose der sagittalen und metopischen synostotischen Naht ist im Allgemeinen über dem äußeren Tisch ausgeprägter, während die koronale Synostose durch eine überbordende Hyperostose entlang des inneren Tisches gekennzeichnet ist. Daher kann die synostosierte Sagittalnaht leicht und sicher vom Sinus sagittalis superior abgehoben werden, da sie nicht an dieser Struktur haftet. Die synostosierte koronale Naht hingegen ragt ausnahmslos in die darunter liegende Dura und ist im Allgemeinen mit dieser verklebt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-4202-2_14 c317f4e898a942ff830c9cc243aad5dd;de;;;5.2.;;;Quantenidentifikation von Booleschen Orakeln Wir stellen das Oracle Identification Problem (OIP) vor, das viele Probleme der Oracle-Berechnung wie die der Grover-Suche und Bernstein-Vazirani als Spezialfälle umfasst. Wir geben allgemeine Ober- und Untergrenzen für die Anzahl der Oracle-Abfragen von OIP an. Somit bieten unsere Ergebnisse allgemeine Rahmenbedingungen für die Analyse der Quantenabfragekomplexität von Oracle-Berechnungen. Unsere Ergebnisse beziehen sich auch auf exaktes Lernen in der Computational Learning Theory.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-33133-6_1 0d45556953f0634ae3236427153b7bde;de;;;5.2.;;;Dynamische Optimierung mit analytischen und evolutionären Ansätzen: Eine vergleichende Übersicht Die Lösung eines dynamischen Optimierungsproblems bedeutet, dass die erhaltenen Ergebnisse explizit von der Zeit als Parameter abhängen. Es gibt zwei Hauptzweige, in denen dynamische Optimierung auftritt: (i) in dynamischer Programmierung und optimaler Steuerung und (ii) in dynamischen Fitnesslandschaften und evolutionären Berechnungen. In beiden Bereichen ist die Lösung solcher Probleme gängige Praxis, während gleichzeitig spezielle und fortgeschrittene Aspekte noch Gegenstand der Forschung sind. In diesem Kapitel wollen wir die beiden Zweige der dynamischen Optimierung vergleichend untersuchen. Wir überprüfen beide Problemstellungen, definieren sie und diskutieren Lösungsansätze und Probleme. Dabei geht es vor allem darum, die Verbindungen und Parallelen aufzuzeigen. Insbesondere zeigen wir, dass optimale Regelungsprobleme als dynamische Fitnesslandschaften verstanden werden können, wobei dieser Zusammenhang für lineare Systeme sogar analytisch ausgedrückt werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30504-7_1 9c7c4e19f981279b77f175605365b69e;de;;;5.2.;;;Ich habe es auf Pinterest gefunden: eine Erkundung von Pinterest-Inhalten für Anhänger der National Association of School Psychologists Schulpsychologen haben die Aufgabe, evidenzbasierte Praktiken (EBPs) in den Schulen zu implementieren und nutzen zunehmend das Internet und Social-Media-Anwendungen wie Pinterest, um Interventionsressourcen zu finden. Über typische Nutzungsmuster oder geteilte Inhalte aus den sozialen Medien ist leider wenig bekannt. Eine zufällige Stichprobe der Follower der National Association of School Psychologist (NASP) auf Pinterest wurde untersucht, um die Pinterest-Nutzung von Schulpsychologen besser zu verstehen. Die Ergebnisse zeigen, dass die Follower von NASP am häufigsten Inhalte teilen, die sich auf verhaltensbezogene, sozial-emotionale Bedenken (insbesondere Bewältigungskompetenzen) und allgemeine berufliche Probleme beziehen. Die Auswirkungen der Verbreitung von Webinhalten über bestehende Social-Media-Plattformen werden untersucht.;-;-;-;https://link.springer.com/article/10.1007/s40688-018-0174-1 2a75293b27ca061b1b720f2923dcd4fe;de;;;4.2.;;;Koalitionsbildung in der Triade Wenn zwei schwach und einer stark ist Achtzehn Probandengruppen nahmen jeweils an fünf verschiedenen computergesteuerten superadditiven 3-Personen-Charakterfunktionsspielen mit Nebenzahlungen teil, die verhandelbare Konflikte modellierten, bei denen zwei der Spieler schwach und einer deutlich stärker ist. Sowohl die Mächtigkeit des starken Spielers als auch die Art der Kommunikation wurden experimentell manipuliert. Die 90 Spielergebnisse lehnten jedes Lösungskonzept ab, das einen einzelnen Auszahlungsvektor für eine gegebene Koalitionsstruktur vorhersagt, unterstützten jedoch das kürzlich entwickelte Ein-Parameter-a-Potenz-Modell, das Entfernungsvorhersagen ermöglicht. Sowohl der Grad der Stärke als auch die Art der Kommunikation beeinflussen die Spielergebnisse und bestimmen die Vorhersagekraft von Modellen, die Punktvorhersagen in 3-Personen-Spielen treffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-1992-1_11 5c0c77d863cd8e940035c2c22ee46b9c;de;;;5.2.;;;Mein fairer Anteil Wissenschaftliche Hilfskräfte sind eine wichtige Ressource für jede Universität. An der Kutztown University werden die meisten Graduiertenassistentenstellen vom Graduiertenrat vergeben. Konkret legt der Graduate Assistantship (GA)-Ausschuss des Graduate Council jährlich die Zuteilung der Assistenzstellen an die Fakultäten und Hochschulen fest, die diese beantragen. Da die Zahl der angebotenen Assistenzstellen in der Regel 2 zu 1 übersteigt, ist es wichtig, die verfügbaren Assistenzstellen optimal zu verteilen. Traditionell hat der zehnköpfige GA-Ausschuss diese Funktion rein subjektiv wahrgenommen. Nach jahrelangen Diskussionen um einen quantitativeren Ansatz für die GA-Zuweisung hat der GA-Ausschuss im Jahr 2001 einen Ansatz zur Entscheidungsfindung mit mehreren Attributen (MADM) angenommen. In diesem Papier werden der MADM-Ansatz des GA-Ausschusses und die erzielten Ergebnisse diskutiert.;-;-;-;https://link.springer.com/article/10.1057/ori.2001.12 d4a7ddc23972a18dec62b9eb72ff5992;de;;;5.2.;;;Krieg und Frieden – Rooseveltsche Außenpolitik und der „Phony War“: „Wie Zuschauer bei einem Fußballspiel“ Anfang September 1939 warf er einen beträchtlichen Schatten über den Atlantik und auf Roosevelts Außenpolitik. Wie die Vereinigten Staaten in Bezug auf den Krieg vorgehen sollten, rückte natürlich in den Fokus der amerikanischen Außenpolitiker. Der Krieg sollte einen wichtigen Einfluss auf die Themen haben, die bereits in der Entwicklung von Roosevelts Beweggründen für die Welles-Mission Anfang 1940 identifiziert wurden.;-;-;-;https://link.springer.com/chapter/10.1057/9780230604896_3 ab702d1656db4d3ff5ca3c4f823d51d1;de;;;4.2.;;;Eine konnektivistische Sicht auf ein Semantic Wiki für Forschungsmethodik Die Nutzung virtueller Lernräume für das Lernen und Lehren muss durch eine Pädagogik untermauert werden, die eine Grundlage für den verwendeten Ansatz bildet. Der Konnektivismus betrachtet Wissen vernetzt, seine Eigenschaften und sein Verständnis von Lernen wurden untersucht. Hier werden der Aufbau und die Entwicklung eines semantischen Wikis für Forschungsmethoden beschrieben, einschließlich der Art und Weise, wie die Inhalte des Wikis die Erforschung der Strukturen verschiedener Forschungsmethoden ermöglichten. Eine positive Bewertung des Wikis wurde von unseren Forschungsstudenten eingeholt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-35629-3_9 28d6fb0e9d9b88547d1067e8bbb7da16;de;;;4.2.;;;Strategische Widersprüche in hybriden Teams managen Es ist gängige Praxis, Arbeitsteams so zu organisieren, dass sie Mitglieder an mehreren geografischen Standorten umfassen. Im Gegensatz zu co-located Teams und rein virtuellen Teams kombinieren diese „hybriden“ Teams die Face-to-Face-Kommunikation mit computervermittelter Interaktion. In diesem Papier berichten wir über eine qualitative Studie der Managementpraktiken in drei hybriden Teams in einer Organisation. Wir verfolgen den theoretischen Ansatz des strategischen Widerspruchs, bei dem scheinbar widersprüchliche Paare von Elementen verwaltet werden können, indem auf mögliche Synergien geachtet oder ihre Abgrenzungen geklärt werden, um im Laufe der Zeit ausgewogene Kompromisse zu erzielen. Unsere Daten zeigen vier paradoxe Rahmen in hybriden Teams: Abgeschiedenheit – Nähe, kulturelle Uniformität – kulturelle Vielfalt, Rationalität – Emotionalität und Kontrolle – Ermächtigung. Bei der Bezugnahme auf diese paradoxen Frames beteiligten sich Teams an drei kognitiven Prozessen: (a);-;-;-;https://link.springer.com/article/10.1057/palgrave.ejis.3000692 3458e96a2ab0a66cdff774e39b82b1af;de;;;4.2.;;;Auf dem Weg zu Visionen von Nonkilling-Zukünften Ich kenne, bewundere und liebe Glenn Paige (und seine Frau Glenda) seit mehr als 40 Jahren. Beide waren für mich in vielerlei Hinsicht eine große Inspiration. Glenn war viele Jahre ein sehr aktives Mitglied der World Futures Studies Federation, deren Mitglied auch ich bin, und hielt viele Vorträge und Symposien vor allem zum Thema Leadership auf unseren Regional- und Weltkonferenzen. Auf diesen Konferenzen führte er auch Diskussionen über die Möglichkeit einer nicht tötenden Welt ein. Obwohl ich verschiedene Bedenken bezüglich seiner Ansichten zur Führung hatte, hatte ich immer nur eine sofortige und kontinuierliche 100%ige Unterstützung seiner Ansichten über die Möglichkeit einer nicht tötenden Welt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-17387-6_39 8285c75e064a05c9b17f248254f015df;de;;;4.2.;;;Modelle zur Technologieakzeptanz: Das Verhalten der Online-Social-Media-Nutzer gegenüber visuellen Informationen Das Technologieadoptionsmodell wird in verschiedenen Technologiebereichen verwendet, um die Absichten und das Verhalten der Benutzer zu verstehen und vorherzusagen. Das in Social Media verwendete Technologieadoptionsmodell, das die Absichten und das Verhalten der Benutzer erklärt, muss jedoch untersucht werden. Dennoch gibt es wenig Verständnis für die Absichten und das Verhalten der Benutzer gegenüber visuellen Informationen, die eine wichtige Rolle für eine effektive Kommunikation spielen. Diese Studie untersuchte eine beträchtliche Anzahl früherer Studien zur Nutzung des Technologieadoptionsmodells durch das Online-Verhalten von Nutzern sozialer Medien in Bezug auf visuelle Informationen. Basierend auf der Literaturübersicht aus VIER (4) Datenbanken, ACM, IEEE, Scopus und Science Direct wurden ZWÖLF (12) Artikel überprüft. Die Studie ergab, dass die Uses and Gratifications Theory (UGT) aufgrund des angewandten Motivationsmechanismus das am häufigsten angenommene Modell ist. Am wichtigsten ist, dass es der Überprüfung gelungen ist, die Modelle, Faktoren, visuellen Informationen und Methoden in Bezug auf die Absicht und das Verhalten der Nutzer in den sozialen Medien zu diskutieren. Ein integriertes Adoptionsmodell könnte entwickelt werden, um die Konsequenzen der eingesetzten Technologie zu untersuchen, um ein ganzheitliches Verständnis dafür zu schaffen, wie Technologie die Absichten und Verhaltensweisen der Benutzer in Bezug auf visuelle Informationen beeinflusst. Dies ist eine der Empfehlungen, die am Ende dieser Forschung als Referenz für zukünftige Wissenschaftler präsentiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4069-5_2 d15db42e3abcd1e7e87e4135b967a02e;de;;;4.2.;;;Globale Trends der Tötungssterblichkeit nach Geschlecht 1950–2010 Die meisten groß angelegten vergleichenden Studien zu Tötungsdelikten analysieren die Gesamtviktimisierungsraten. Bekannte Ausnahmen sind historische Datenreihen von Veli Verkko, die zeigten, dass je höher die Gewalt, desto geringer der Anteil weiblicher Opfer und Täter. Folglich betreffen auch die Zunahmen und Abnahmen tödlicher Gewalt mehr männliche Opfer und Täter als weibliche Opfer und Täter. In diesem Kapitel werden diese Hypothesen überprüft und die aktuellen Unterschiede in der Tötungssterblichkeit von Männern und Frauen anhand der umfangreichsten verfügbaren Daten diskutiert. Der Beitrag zeichnet ein detailliertes Bild der Tendenzen bei der Tötung von Frauen und Männern in den Regionen und Ländern von 1950 bis 2010. Darüber hinaus untersucht er die Zusammenhänge zwischen den Femizid- und Tötungsraten und der Viktimisierungsquote von Frauen und Männern sowie verschiedenen sozioökonomischen, politischen und kulturellen Faktoren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08398-8_17 ff40db030e0b9dea32d94eae3cfe1af1;de;;;5.2.;;;Anerkennung und Vollstreckung im Zusammenhang mit einem Sammelklageverfahren Obwohl es nach der Brüsseler Verordnung nicht erforderlich ist, ein Verfahren einzuleiten, um eine Entscheidung in einem anderen Mitgliedstaat anerkennen und/oder vollstrecken zu lassen, enthält die Verordnung verschiedene Gründe, aus denen die Anerkennung und/oder Vollstreckung verweigert werden kann. Diese Gründe beziehen sich unter anderem auf die ordnungsgemäße Zustellung der Beteiligten, die Vorschriften über die öffentliche Ordnung in den Mitgliedstaaten, in denen die Anerkennung/Vollstreckung angestrebt wird, sowie mögliche Konflikte mit anderen Urteilen oder Verfahren in anderen Staaten. An einem kollektiven Rechtsschutzverfahren sind viele Parteien beteiligt und es hängt von der Art des Mechanismus ab, ob und wie den Beteiligten korrekt zugestellt werden muss. In diesem Kapitel wird dargelegt, ob ein Urteil in Sammelklagen in einem anderen Mitgliedstaat auf der Grundlage der Bestimmungen der Brüsseler Verordnung anerkannt und/oder vollstreckt werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-6265-186-9_11 36479802cda264e55df39ad89ac8eb12;de;;;4.2.;;;Online-Ideenwettbewerbe: Identifizieren von Faktoren für die Nutzerbindung Die aktuelle Literatur über Ideenwettbewerbe hat die Motive von Einzelpersonen für die Teilnahme an freiwilligen Ideenwettbewerben hervorgehoben. Eine Erklärung dafür, warum Menschen auf lange Sicht bleiben oder gehen, ist jedoch selten. Wir identifizieren Faktoren, die Benutzer motivieren, wiederholt an sequentiellen Online-Ideenwettbewerben teilzunehmen. Das Forschungssetting besteht aus drei Ideenwettbewerben, die von Swarovski, Österreich, durchgeführt werden. Wir haben Swarovski bei der Konzeption der Ideenwettbewerbe, der Umsetzung und der Nachbearbeitung begleitet. Wir verteilten einen Fragebogen an die Teilnehmer (N=117), um Erkenntnisse über ihre Motivation zur Teilnahme, ihre Erfahrungen im Wettbewerb und ihre Bereitschaft zur erneuten Teilnahme zu erhalten. Die Ergebnisse unterstreichen nicht nur die Bedeutung der Erwartungen vor dem Wettbewerb, sondern auch die Bedeutung der Erfahrungen, die in früheren Wettbewerben gemacht wurden, wie beispielsweise die wahrgenommene Fairness des Benutzers.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39371-6_9 159883a9b1815155651c2ceb34786080;de;;;5.2.;;;Biosynthese von β-Endorphin in der Ratte Pars Intermedia β-Lipotropin (β-LPH) ist ein Hypophysenpeptid mit 91 Aminosäuren, dessen biologische Bedeutung bis auf eine Rolle als Prohormon lange Zeit im Dunkeln geblieben ist. Es wurde 1964 von Li (1964) und Birk und Li (1964) aus der Hypophyse von Schafen entdeckt und isoliert. Als fettmobilisierendes Mittel ist β-LPH im Fettgewebe von Kaninchen am aktivsten, bei Ratten nur schwach aktiv und bei Mäusen im Wesentlichen inaktiv (Lohmar und Li, 1967). Diese lipolytische Aktivität ist jedoch keine spezifische Eigenschaft von Lipotropin, da α-Melanozyten-stimulierendes Hormon (α-MSH) und β-MSH 100-mal aktiver sind. Tatsächlich zeigen fast alle Hormone des Hypophysenvorderlappens neben ihrer biologischen Hauptfunktion eine lipolytische Wirkung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-0501-0_13 bcd77625445e62df3f1b38117ffc85fe;de;;;4.2.;;;Ruanda: Geplanter Wiederaufbau für soziale Qualität Ruanda ist eine Fallstudie zu Social Engineering für Lebensqualität (QoL) und zeigt sowohl die Möglichkeiten als auch die Probleme auf, die sich ergeben können. Was Regierungen tun, bestimmt den „sozialen Raum“ für QoL. Der Völkermord von 1994 zerstörte Ruandas physische und soziale Infrastruktur sowie eine Million oder mehr seiner Einwohner. Die Regierung nach dem Völkermord hat sich zum Ziel gesetzt, die Lebensqualität zu verbessern und gleichzeitig sicherzustellen, dass dort nie wieder Völkermord passiert. Als eines der ärmsten Länder Afrikas hat Ruanda eine tragfähige Marktwirtschaft entwickelt und das BIP erhöht, um die Armutsbekämpfung zu finanzieren, wenn auch langsamer als gewünscht. Darüber hinaus wurden Gesetze und Richtlinien erlassen, um Arbeit zu schaffen, die Gesundheit zu verbessern, Menschen durch Bildung zu stärken, sie in ihre Gemeinschaften und das Land einzubetten und im Allgemeinen den sozialen Zusammenhalt und die Inklusion zu fördern – mit beträchtlichem Erfolg, wenn man die niedrige Ausgangslage bedenkt. Im Mittelpunkt des neuen Ruandas steht jedoch der Aufbau neuer Ruander – die Eroberung der Herzen, des Verstandes und der Loyalität eines zuvor gespaltenen Volkes. Das Ziel ist eine Bevölkerung, die bereit ist, sich selbst beiseite zu legen und kollektiv für die Nation zu arbeiten, die im Geiste des „Dialogs und des Konsenses“ statt der Opposition und der Verhandlungen regiert wird. In der Praxis kommt dies jedoch einer totalitären Kontrolle über die diskursive Agenda gleich, die nicht unbedingt eine stabile Situation darstellt. Betrachtet man die aktuellen Ergebnisse in Bezug auf die Lebensqualität, so ist die Bevölkerung;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-50540-0_5 2a8e7527a8f6244fb9f49e57e7bb33ee;de;;;5.2.;;;Erweitern der Facettensuche mit automatisiertem Objektranking Faceted Search ist ein weit verbreitetes Interaktionsschema in digitalen Bibliotheken, im E-Commerce und neuerdings auch in Linked Data. Dennoch ist das Objektranking im Kontext der Faceted Search nicht gut untersucht. In diesem Beitrag schlagen wir eine erweiterte Version des Modells vor, die mit Parametern angereichert ist, die es ermöglichen, die Merkmale des gesuchten Objektrankings zu spezifizieren. Dann stellen wir einen Algorithmus zur Verfügung, um ein Objektranking zu erzeugen, das diese Parameter erfüllt. Dazu werden verschiedene Quellen genutzt, darunter Präferenzen und statistische Eigenschaften des Datensatzes. Abschließend präsentieren wir eine Implementierung des Modells, die erforderlichen GUI-Erweiterungen sowie simulationsbasierte Auswertungsergebnisse, die Hinweise auf die Reduzierung der Anwenderkosten liefern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36599-8_20 0e895a3c8c65c877997d9311b3e198f2;de;;;4.2.;;;Stimmungsanalyse in sozialen Medien Die Sentiment Analysis beschäftigt sich mit der Erkennung und Analyse von affektiven Inhalten in geschriebenen Texten. Es verwendet Methoden, Theorien und Techniken aus einer Vielzahl von wissenschaftlichen Domänen, die von Psychologie und Soziologie bis hin zu natürlicher Sprachverarbeitung und maschinellem Lernen reichen. In diesem Kapitel diskutieren wir die Beiträge des Feldes zur Social-Media-Analyse mit besonderem Fokus auf kollektive Online-Aktionen, da diese Aktionen typischerweise von intensiven emotionalen Zuständen (z. B. Wut) motiviert und angetrieben werden das Innenleben solcher Phänomene während ihres gesamten Lebenszyklus. Wir präsentieren auch den Stand der Technik auf diesem Gebiet und beschreiben einige seiner Beiträge zum Verständnis des kollektiven Online-Verhaltens. Schließlich diskutieren wir bedeutende reale Datensätze, die erfolgreich in der Forschung verwendet wurden und für wissenschaftliche Zwecke zur Verfügung stehen, und stellen auch eine Vielzahl verfügbarer Tools zur Durchführung von Stimmungsanalysen vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-1340-0_1 9a328a3ea7f0608fbc5fb3b6a14e8e5d;de;;;4.2.;;;Grassroots Advocacy für die Prävention von Waffengewalt: Ein Statusbericht zur Mobilisierung einer Bewegung Die jüngsten Erfahrungen mit der Prävention von Waffengewalt beim Aufbau einer aktiven, engagierten Basis sind wichtige Lehren für die Zukunft der Prävention von Waffengewalt. Formale Forschungsmethoden werden jedoch selten verwendet, um die Rolle der Lobbyarbeit an der Basis innerhalb der öffentlichen Gesundheit zu untersuchen. Um den Zustand der Basisbewegung zur Prävention von Waffengewalt zu beurteilen, aus ihren Erfahrungen zu lernen und die Herausforderungen zu verstehen, mit denen sie konfrontiert ist, führte der Autor qualitative, halbstrukturierte Interviews mit achtzehn Führungskräften in der Community zur Prävention von Waffengewalt. Anschließend bewertete der Autor die Ergebnisse der Analyse von Interviewdaten im Rahmen einer sozialen Gesundheitsbewegung und entwickelte Empfehlungen zur Bewältigung der identifizierten Herausforderungen.;-;-;-;https://link.springer.com/article/10.2307/3343381 50de6a16ce97f53d5c994dc1baaec71f;de;;;5.2.;;;Die Bevölkerung eines englischen Dorfes 1086-1801 Eine Studie über Wigston Magna ie folgende Studie der Bevölkerungsentwicklung in einem großen Dorf in Leicestershire zwischen dem 11. Jahrhundert und der Eröffnung des 19. Jahrhunderts soll nicht nur als Beitrag zur Sozialgeschichte dieses Dorfes dienen, sondern auch als allgemeiner Leitfaden für andere Studenten der englischen Demografiegeschichte im Mittelland. Ich hoffe, es ist ein Leitfaden für die Quellen, die für eine solche Studie vorhanden sind, die besonderen Schwierigkeiten, die jede für den Forscher darstellt, und die Methoden, mit denen die Quellen ausgenutzt werden können, um herauszufinden, was mit der Zahl der Menschen an einem Ort. Das Studium der Bevölkerungsveränderungen ist für die Wirtschaftsgeschichte absolut grundlegend.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-00466-9_10 d55933a374851c19f915a685b171b20f;de;;;5.2.;;;Eine Methodik für die automatisierte kartografische Dateneingabe, Zeichnung und Bearbeitung mit kinetischen Delaunay/Voronoi-Diagrammen In diesem Kapitel wird eine Methodik für die automatisierte Eingabe, Zeichnung und Bearbeitung kartografischer Daten vorgestellt. Diese Methodik basiert auf kinematischen Algorithmen für die Punkt- und Linien-Delaunay-Triangulation und das Voronoi-Diagramm. Es ermöglicht die Automatisierung einiger Teile des manuellen Digitalisierungsprozesses und der topologischen Bearbeitung von Karten, die Kartenaktualisierungen beibehalten. Der manuelle Digitalisierungsprozess wird durch eine computergestützte Skelettierung mit eingescannten Papierkarten ersetzt. Wir verwenden die Delaunay-Triangulation und das Voronoi-Diagramm, um die Skelette zu extrahieren, die garantiert topologisch korrekt sind. Die so als Objektmittellinien extrahierten Merkmale können nach der Beschriftung und Bearbeitung als Vektorkarten in einem geografischen Informationssystem gespeichert werden. Diese Forschungsarbeit kann auch für Aktualisierungen aus Quellen verwendet werden, die entweder Papierkarten oder digitale Rasterbilder sind. Ein im Rahmen der Forschung entwickelter Anwendungsprototyp wurde vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85126-4_7 cbb88868fe42bea0be61513dc01016b7;de;;;5.2.;;;Gemeinsame Entscheidungs- und Kontrollstrategie für eine Klasse von inhomogenen Markovaschen Sprungsystemen mit Eingabebeschränkungen Dieser Artikel befasst sich mit der gemeinsamen Entscheidungs- und Kontrollstrategie für eine Klasse von inhomogenen Markovaschen Sprungsystemen, die Eingabebeschränkungen unterliegen. Unter der Annahme, dass die Modenübergangsratenmatrix (MTRM) von Markovaschen Sprungsystemen stückweise homogen statt homogen ist, wird eine Markovkette höherer Ebene, die durch die Modenübergangsratenmatrix (HMTRM) höherer Ebene repräsentiert wird, eingeführt, um die Variation von MTRM zu beschreiben. Darauf aufbauend wird unter Berücksichtigung der Systemkostenminimierung eine neuartige gemeinsame Entscheidungs- und Kontrollstrategie bei Vorliegen von Eingabebeschränkungen vorgeschlagen. Diese Strategie besteht aus zwei Abschnitten: Entscheidungen werden auf das HMTRM angewendet, so dass die Auftrittswahrscheinlichkeit von Subsystemen letztendlich angepasst wird, als nächstes wird auf der Grundlage des geänderten HMTRM der Controller im Hinblick auf Eingabebeschränkungen entworfen. Im Vergleich zu herkömmlichen Regelverfahren garantiert diese Strategie nicht nur die Stabilität des betrachteten Systems gut, sondern senkt auch das System kostengünstig. Anhand von Zahlenbeispielen und Vergleichen wird die Wirksamkeit der vorgeschlagenen Strategie veranschaulicht.;-;-;-;https://link.springer.com/article/10.1007/s12555-013-0219-1 041b0de6789c57eb63325be4bb2fb306;de;;;5.2.;;;Adaptive Navigation für Lernende in Hypermedia ist eine Gerüstnavigation Adaptive Navigationsunterstützung kann in großen Hypermedia-Systemen eine große Hilfe sein, um sowohl Lernende als auch Benutzer bei der Suche nach bestimmten Informationen zu unterstützen. In bestehenden adaptiven Hypermedia-Systemen wurde eine große Vielfalt von adaptiven Mechanismen implementiert, die dem Benutzer immer bessere Vorschläge machen, welchen Hyperlinks er folgen soll. Wir schlagen vor, dass die Unterstützung der adaptiven Navigation;-;-;-;https://link.springer.com/chapter/10.1007/3-540-47952-X_20 5f824200d8c2f59eff70ff3b3c04726e;de;;;5.2.;;;Logikprogrammierung mit mehreren Paradigmen Als Grundlage für einen axiomatischen Begriff der „logischen Programmiersprache“ wird eine Theorie der allgemeinen Logik skizziert. Es wird gezeigt, dass eine Vielzahl von logischen Programmiersprachen Instanzen des allgemeinen Begriffs sind. Das Problem, multiparadigmatische logische Programmiersprachen zu entwerfen, die die gegenwärtigen Beschränkungen, denen relationale und funktionale logische Sprachen im Umgang mit Zustandsänderungen und reaktiven Systemen gegenüberstehen, überwinden, wird durch eine Methode angegangen, die auf der Verwendung des axiomatischen Begriffs der logischen Programmiersprache und der Abbildungen zwischen Logiken basiert um die Suche nach einer Logik zu leiten, in der die gewünschte Multiparadigmenintegration erreicht werden kann. Dieser Methode folgend, wird die Umschreibungslogik als eine Logik vorgeschlagen, in der die funktionalen, relationalen und gleichzeitigen objektorientierten Paradigmen auf einfache und rigorose Weise vereinheitlicht werden können. Zwei auf dieser Logik basierende Sprachen, Maude und MaudeLog, werden kurz beschrieben und mit Beispielen illustriert.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0013826 f5bd2c8ec5ba55df096637fa9ff79e93;de;;;5.2.;;;Global optimale geodätische aktive Konturen Ein Ansatz zur optimalen Objektsegmentierung im geodätischen aktiven Konturenrahmen wird mit Anwendung auf die automatisierte Bildsegmentierung vorgestellt. Das neue Segmentierungsschema sucht die geodätische aktive Kontur global minimaler Energie unter der einzigen Einschränkung, dass sie einen bestimmten internen Punkt enthält contains;-;-;-;https://link.springer.com/article/10.1007/s10851-005-4968-1 85a30293dd75fefa4f1be093170110c2;de;;;5.2.;;;Nachhaltigkeitsmanagement mit Unterstützung von Business-Intelligence-Methoden und -Tools In diesem Beitrag untersuchen wir die Rolle von Business Intelligence (BI) bei der Unterstützung des Nachhaltigkeitsmanagements in modernen Unternehmen. Die Konzepte Nachhaltigkeit und Corporate Social Responsibility (CSR) gehören zu den wichtigsten Themen, die sich im letzten Jahrzehnt auf globaler Ebene herausgebildet haben. Wir schlagen vor, dass BI-Methoden und -Tools eine wichtige, aber noch nicht gut erforschte Rolle spielen, um Organisationen bei der Implementierung und Überwachung nachhaltiger und sozial verantwortlicher Geschäftspraktiken zu unterstützen. Unter Verwendung der Grounded Theory besteht der Hauptbeitrag unserer Studie darin, ein konzeptionelles Modell vorzuschlagen, das den Prozess der Definition und Überwachung von sozio-ökologischen Indikatoren und die Beziehung zwischen ihrem Management und der Geschäftsstrategie unterstützen soll.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00405-6_13 37f7db77d445fa72410d8fb9b5b5c4db;de;;;5.2.;;;Koordination und Langlebigkeit in Multi-Roboter-Teams mit Miniaturrobotern Roboterteams von Beuteltieren bieten die Möglichkeit, menschliche Reaktionen auf gefährliche Szenarien wie Such- und Rettungsmissionen oder die Überwachung toxischer Umgebungen zu erweitern oder zu ersetzen. Koordination und Langlebigkeit der Mitglieder des Beuteltier-Roboterteams können schnell zur Belastung werden, wenn sich der Umfang des Szenarios ändert. Um groß angelegte Operationen zu ermöglichen, müssen Roboterteams in der Lage sein, kontinuierlich und ohne menschliches Eingreifen für Szenarien zu funktionieren, die zu Beginn möglicherweise keine vorbestimmte Länge haben. Ein End-to-End-Design und -Implementierung eines neuartigen Beuteltiersystems, bei dem eine mehrstufige Hierarchie es größeren Robotern ermöglicht, eine große Anzahl kleinerer einsetzbarer Systeme zu transportieren, einzusetzen, zu koordinieren, zu bergen und wieder zu versorgen. Der Entwurf und die Implementierung von Hardwaresystemen zum Ausführen dieser Aktionen wird diskutiert. Außerdem werden die Algorithmen vorgestellt, die die Teammitglieder koordinieren. Es wird eine Simulation vorgestellt, die die Skalierbarkeit des Ansatzes veranschaulicht, einschließlich Experimenten, die eine leichtgewichtige, bildbasierte autonome Andockfähigkeit veranschaulichen.;-;-;-;https://link.springer.com/article/10.1007/s10846-013-9830-x c8cff9310b8a8bd31aa71d6004d72927;de;;;5.2.;;;Messen und Verbessern des Zugangs zum Korpus Die Auffindbarkeit ist ein Maß für den Zugriff, das quantifiziert, wie leicht Dokumente mit einem Retrieval-System gefunden werden können. Eine solche Maßnahme ist im Patentbereich von besonderem Interesse, denn wenn ein Retrieval-System das Auffinden einiger Patente erschwert, dann wird es für Patentforscher schwierig sein, diese Patente wiederzufinden. Dies kann bedeuten, dass ein Patentrechercheur aufgrund des Retrievalsystems wichtige und relevante Patente übersehen könnte. In diesem Kapitel beschreiben wir Maße der Wiederauffindbarkeit und wie sie angewendet werden können, um den Gesamtzugriff auf eine Sammlung bei einem Wiederauffindsystem zu messen. Anschließend identifizieren wir drei Merkmale von Best-Match-Retrieval-Modellen, von denen angenommen wird, dass sie zu einer Verbesserung des Zugangs zu allen Dokumenten in der Sammlung führen: Sensitivität gegenüber Begriffshäufigkeit, Längennormalisierung und Konvexität. Da Patentsucher dazu neigen, boolesche Modelle gegenüber Modellen mit der besten Übereinstimmung zu bevorzugen, werden hybride Wiedergewinnungsmodelle vorgeschlagen, die diese Merkmale beinhalten, während die wünschenswerten Aspekte des traditionellen booleschen Modells erhalten bleiben. Eine empirische Studie, die an vier großen Patentkorpora durchgeführt wurde, zeigt, dass diese Hybridmodelle einen besseren Zugang zum Patentkorpus bieten als das traditionelle Boolesche Modell.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19231-9_7 9a552e95452d67c9154d6112a0b41089;de;;;5.2.;;;Ein hierarchischer, ähnlichkeitsbasierter Jobempfehlungsdienst für Universitätsstudenten Wenn Menschen zu einem neuen Arbeitsplatz wechseln möchten, ist dies oft schwierig, da zu viele Jobinformationen verfügbar sind. Einen passenden Job auszuwählen und dann einen Lebenslauf einzureichen ist mühsam. Besonders schwierig ist es für Studenten, die in der Regel über keine Berufserfahrung verfügen und zudem nicht mit dem Arbeitsmarkt vertraut sind. Um der Informationsflut von Studierenden beim Übergang ins Berufsleben entgegenzuwirken, kann ein Jobempfehlungssystem sehr wertvoll sein. In dieser Studie schlagen wir, nachdem wir die Vor- und Nachteile aktueller Stellenempfehlungssysteme für Universitätsstudenten vollständig untersucht haben, ein auf Profiling basierendes Re-Ranking-Framework vor. In diesem System wird den Studierenden eine Liste möglicher Stellen empfohlen, die sich an den Absolventen und Stellenangeboten der letzten Jahre orientieren. Darüber hinaus werden empfohlene Arbeitgeber auch als Eingabe für die Neuordnung der Ergebnisse der Stellenempfehlungen verwendet. Unsere experimentelle Studie zu realen Rekrutierungsdaten der letzten vier Jahre hat das Potenzial dieser Methode gezeigt.;-;-;-;https://link.springer.com/article/10.1007/s11704-016-5570-y 44c8912912fdc1ad8a3a99a58e32d092;de;;;5.2.;;;Integrierbare nichtlineare Systeme und ihre Störung Was sind die einfachsten nichtlinearen Strukturen, die es in Naturwissenschaften und Mathematik gibt? Diese Frage scheint vielleicht zu grandios zu sein, um sie zusammenhängend zu beschreiben. Genau dies versteht man jedoch unter einem integrierbaren nichtlinearen System. In Bezug auf Differentialgleichungen geht es bei diesem Thema klassischerweise um Fragen der Integrierbarkeit durch Quadratur für gewöhnliche Differentialgleichungen, und für dynamische Systeme der Mechanik geht der Begriff integrierbarer Systeme auf das 19. Jahrhundert zurück, als berühmte Studien von Jacobi, Liouville und Poincaré große Erfolge erzielten Einblick. Das letzte Jahrzehnt ist insofern einzigartig, als zwei gegensätzliche Forschungsrichtungen in den Vordergrund treten. Die erste Richtung beinhaltet die Erweiterung von Systemen auf unendliche Dimensionen (d. h. Systeme mit unendlich vielen Freiheitsgraden). In der zweiten Erweiterung analysiert man einfache dynamische Systeme in Abhängigkeit von einem reellen Parameter, also die Negation von integrierbar. Solche Systeme werden als chaotisch bezeichnet, weil beispielsweise die beobachteten Bewegungen solcher Systeme über lange Zeitintervalle nicht genau vorhergesagt werden können. In diesem Kapitel stelle ich zunächst die Frage, welche nichtlinearen Phänomene zwischen diesen beiden Extremen liegen. Zweitens: Kann man eine mathematische Sprache und Struktur schaffen, um diese verschiedenen Formen der Integrierbarkeit zu verstehen?;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-0579-5_1 853e9a4c56bb9e730538623769d4a196;de;;;4.2.;;;Die Unsicherheit des systemischen Risikos Dieser Artikel reagiert auf Forderungen in der Literatur nach einer grundlegenden Veränderung der Ansätze zur Erklärung systemischer Risiken. Es wendet Erkenntnisse aus mehreren Disziplinen an, weicht jedoch von den monistisch-positivistischen Forschungsorientierungen vieler früherer Beiträge ab, indem es einen sorgfältig argumentierten pragmatischen Ansatz aus der Managementwissenschaft verfolgt, um nichtlineare Widerspenstigkeit zu behandeln. Ein neues operationelles Verhaltensparadigma des systemischen Versagens wird zusammengefasst, in dem Begriffe aus der Evolutionsökonomie und der Komplexitätswissenschaft mit einer Interpretation der Entropie als Risikounsicherheit kombiniert werden, um das systemische Risiko durch katastrophale Bifurkationen zu erklären, die im operationellen Zustandsraum eines Agenten simuliert werden -basiertes Rechenmodell, das ein stark vereinfachtes globales Finanzsystem darstellt. Anschließend werden die wichtigsten Merkmale eines aktuellen Programms zur Theorieentwicklungsforschung auf der Grundlage dieses Ansatzes beschrieben, in dem die Ergebnisse einer Simulation des Zusammenbruchs des isländischen Finanzsystems mit empirischen Daten aus Jahresberichten über diesen Zeitraum validiert wurden. Die Ergebnisse deuteten darauf hin, dass ein Mangel an Diversität in den Beteiligungsstrategien der Systemteilnehmer möglicherweise ein zentraler operativer Mechanismus katastrophaler Spannungen zwischen Angebot und Nachfrage nach Finanzdienstleistungen war, was die akademischen Kommentare zu diesem Ereignis bestätigte. Zusammenfassend wird argumentiert, dass die in dieser Studie vorgeschlagene operative Definition des systemischen Risikos eine praktische Grundlage darstellt, auf der zukünftige Forschung in der Lage sein könnte, rechnerische Lösungen zu konstruieren, die das systemische Risiko genauer messen können, indem sie das Systemversagen des globalen Finanzsystems detaillierter vorhersagen und realistische Simulationen für verschiedene Anwendungen wie die Regulierung von Finanzsystemen und die Analyse der Auswirkungen von Cyber-Kriegsführung.;-;-;-;https://link.springer.com/article/10.1057/rm.2015.15 c749be4d0472673182ce039403f57410;de;;;4.2.;;;Unterstützung der kontinuierlichen Kommunikation mit Social Networking Service im E-Learning In diesem Papier beschreiben wir die praktische Nutzung von Social-Networking-Diensten, um die kontinuierliche Kommunikation zwischen erwachsenen Schülern in einem E-Learning-Programm zu unterstützen. Die Zugriffszahlen werden in Funktionen meiner Homepage, Freundestagebuch, Ranking, Nachricht senden, Tagebuch hinzufügen usw. analysiert. Und die Kommunikationsaktivitäten werden in drei Kursperioden der Schüler verglichen. Die Ergebnisse zeigen, dass die größte Kommunikationsaktivität darin besteht, die Tagebücher von Freunden zu lesen, die zweithäufigsten Aktivitäten sind der Zugriff auf den Footprint und das Auflisten aller Tagebücher. Darüber hinaus zeigen sowohl die Studienanfänger als auch die Studienanfänger im zweiten Studienjahr auch nach Abschluss des Studiums fortgesetzte Kommunikationsaktivitäten im SNS. Insbesondere die Erstsemester zeigen deutlich mehr Kommunikationsaktivitäten als die Studierenden der anderen beiden Studienabschnitte. Als Ergebnis kommen wir zu dem Schluss, dass die kontinuierliche Kommunikation zwischen erwachsenen Studierenden von der SNS unterstützt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29934-6_55 3b4d62eb0f8c7cfb0c014515c40d0fe8;de;;;5.2.;;;Ein agentenbasiertes Modell für die Interventionsplanung in Gemeinden während Epidemienausbrüchen Wir haben ein agentenbasiertes Modell mit 50 Communities entwickelt, das die 50 Bundesstaaten der USA nachbildet. Die Altersverteilung, die ungefähre Haushaltsgröße und die soziostrukturellen Determinanten jeder Gemeinde wurden auf Basis der US-Volkszählung modelliert. Das agentenbasierte Modell wurde mithilfe der in-silico-Seroprävalenzdatensammlung validiert. Das medizinische Suchverhalten von Individuen wurde anhand der soziostrukturellen Determinanten der Gemeinschaft parametrisiert. Die in der Literatur vorgeschlagenen Interventionen wurden getestet und die optimale Interventionsstrategie zur Bekämpfung eines Epidemieausbruchs wurde identifiziert. Darüber hinaus haben wir neuartige Interventionen wie die Koordination zwischen den Gemeinschaften und die Sensibilisierung von Einzelpersonen in den untergeordneten Gemeinschaften basierend auf dem Informationsaustausch zwischen den Gemeinschaften einbezogen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0356-1_25 3c37fa76f33774ca5d17ebc528c1660e;de;;;5.2.;;;Quantitative Analyse von Suchsitzungen, verbessert durch Blickverfolgung mit dynamischen Interessengebieten Nach der Vorstellung des experimentellen ezDL-Frameworks zur Evaluation von Benutzerschnittstellen zu digitalen Bibliothekssystemen beschreiben wir eine neue Methode zur quantitativen Analyse von Benutzersuchsitzungen auf kognitiver Ebene. Wir kombinieren Systemprotokolle mit Blickverfolgung, die durch ein neues Framework zur Erfassung dynamischer Interessengebiete erweitert wird. Diese Beobachtungsdaten werden auf eine Benutzeraktionsebene abgebildet. Dann wird der Benutzersuchprozess als Markov-Kette modelliert. Die Analyse ermöglicht nicht nur ein besseres Verständnis des Nutzerverhaltens, sondern zeigt auch mögliche Systemverbesserungen auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33290-6_53 3c3b40033d9d4bf184e2a92288934e67;de;;;5.2.;;;Darstellung und Recherche chemischer Strukturinformationen in Patenten Dieses Kapitel beschreibt die Techniken, die verwendet werden, um molekulare Strukturen in chemischen Patenten darzustellen und nach ihnen zu suchen. Es gibt zwei Arten von Strukturen: spezifische Strukturen, die einzelne Moleküle beschreiben, und generische Strukturen, die Sätze von strukturell verwandten Molekülen beschreiben. Methoden zur Darstellung und Suche von spezifischen Strukturen sind seit vielen Jahren gut etabliert und die Techniken sind, wenn auch mit erheblichen Modifikationen, auch auf die Verarbeitung von generischen Strukturen anwendbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-53817-3_15 73433c0217b8b46a768038c383cb3d07;de;;;5.2.;;;Der Firefly-Algorithmus mit Gaußscher Störung und lokaler Suche Zusammen mit der rasanten Entwicklung des mobilen Internets, des Internets der Dinge und der Cloud-Computing-Technologie hat das Datenvolumen in verschiedenen Branchen ein explosionsartiges Wachstum gezeigt. Insbesondere im Bereich der Künstlichen Intelligenz findet die Big-Data-Technologie, die neue Lösungen für datenbezogene Probleme bietet, zunehmend Beachtung. Schwarmintelligenz ist ein wichtiges Werkzeug zur Lösung komplexer Probleme sowohl in der wissenschaftlichen Forschung als auch in der Ingenieurpraxis. Als wichtiger Entwicklungstrend in der Künstlichen Intelligenz und Informationswissenschaft hat die Schwarmintelligenz große Anwendungspotenziale in der Big-Data-Analyse und im Data Mining gezeigt. Der Firefly-Algorithmus (FA), eine auf Schwarmintelligenz basierende Optimierungstechnik, wurde erfolgreich auf eine Vielzahl komplexer technischer Optimierungsprobleme angewendet. In einer Standard-FA wandern Partikel blindlings zu den besseren, ohne den Status des Lernobjekts zu berücksichtigen. Diese Art der Partikelregeneration kann jedoch dazu führen, dass eine Lösung in lokalen Optima gefangen wird, mit hoher Konvergenzgeschwindigkeit, aber geringer Konvergenzpräzision. Wir schlagen einen FA mit Gaußscher Störung und lokaler Suche vor. Der Schwarm wird mit einem zufälligen Anziehungsmodell aktualisiert. Die aktuelle Position des Partikels wird mit der historischen optimalen Position des Partikels verglichen. Wenn die aktuelle Position der historischen optimalen Position unterlegen ist, wird das Teilchen durch Gaußsche Störung und lokale Suchstrategie aktualisiert. Das optimale Partikel wird für die nächste Lernrunde ausgewählt. Diese Methode erhöht nicht nur die Populationsdiversität, sondern erhöht auch die Optimierungsgenauigkeit. Simulationen wurden an 12 Benchmark-Funktionen unter den gleichen Parametern durchgeführt. Die Ergebnisse zeigen, dass die Optimierungsleistung des vorgeschlagenen Algorithmus den anderen 5 kürzlich bereitgestellten FA-Methoden überlegen ist. Eine lokale Suchstrategie kann im Vergleich zu einem zufälligen Anziehungsmodell und einer Gaußschen Störung die Optimierungsleistung dramatisch verbessern.;-;-;-;https://link.springer.com/article/10.1007/s11265-017-1278-y 1bfa5b5ec968ce9c8b431b0a39c89790;de;;;4.2.;;;Worauf es bei der Förderung des Aufstiegs von Community College-Studenten zum Bakkalaureat ankommt: Erkenntnisse aus dem Beginn des postsekundären Studiums 2003–2009 Diese Studie verwendet die landesweit repräsentative Beginning Postsekundärstudie: 2003–2009, um die relative Bedeutung individueller und institutioneller Faktoren beim Aufwärtstransfer für verschiedene Gruppen von Studierenden zu untersuchen, unter Berücksichtigung ihrer staatlichen politischen Kontexte einer variablen Unterstützung für eine verbesserte Artikulation und einen verbesserten Transfer zwischen 2-Jahres- und Hochschulen, die Abitur machen. Mehrschichtige Analysen von hierarchischen verallgemeinerten linearen Modellergebnissen des Bevölkerungsdurchschnitts ergaben, dass einige wenige Community College-Merkmale und staatliche Transferpolitik-Komponenten (wie eine staatliche Artikulationspolitik, kooperative Artikulationsvereinbarungen, Transferdatenberichterstattung usw.) eine statistisch signifikante Assoziation mit individuellen Aufwärtsbewegungen zeigten Transferwahrscheinlichkeit innerhalb von 6 Jahren nach Eintritt in das Community College. Als einflussreich und positiv für die Erhöhung der Übertrittswahrscheinlichkeit erwiesene Schülermerkmale waren: die Absicht, bei der Einreise nach oben zu wechseln, hauptsächlich Vollzeit zu besuchen, zwischen 1 und 19 Stunden pro Woche (nicht mehr oder weniger) zu arbeiten und einen Übertritt zu erklären. orientiertes Hauptfach in MINT (Naturwissenschaften, Technologie, Ingenieurwesen oder Mathematik), Kunst- und Sozial-/Verhaltenswissenschaften oder Pädagogik.;-;-;-;https://link.springer.com/article/10.1007/s11162-015-9381-z 64fa127c41fbfc7bbd9d120dc9af3b1c;de;;;4.2.;;;Forschung zum dynamischen Mechanismus und Modus der schulischen Unternehmenskooperation in anwendungsorientierten Universitäten Das bestehende Problem besteht darin, dass die Zusammenarbeit zwischen Hochschulen und Unternehmen im Hochschulbereich nicht reibungslos verläuft und der dynamische Mechanismus fehlt. Der Zweck dieser Studie besteht darin, die Konstruktion des dynamischen Mechanismussystems der Hochschul-Unternehmens-Kooperation in der Hochschulbildung zu untersuchen. Dieses Papier basiert auf den Theorien der Hochschulbildung, der Zusammenarbeit zwischen Schule und Unternehmen und der dynamischen Mechanismen. Mithilfe der Methode der Literaturrecherche werden die internen und externen Faktoren, die die Zusammenarbeit zwischen Schule und Unternehmen beeinflussen, eingehend analysiert und die Rolle jedes Faktors in der Zusammenarbeit zwischen Schule und Unternehmen untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-15740-1_88 ef6170f53d6a1aae656f6c73486bf90a;de;;;4.2.;;;Feminismus und gesellschaftliches Engagement: Ein Überblick An In diesem Kapitel bieten wir eine genauere Untersuchung des Feminismus und seiner Relevanz und Anwendung auf Community Engagement (CE). Feminismus ist für CE nicht neu. Die „Disziplinierung“ des Feminismus (Butin, 2010) in der Akademie, die in der Frauenforschung verankert war, ging der CE-Bewegung eigentlich voraus (Costa & Leong, 2012b). Dass sich feministische Arbeit im Laufe der Zeit nur gelegentlich mit wissenschaftlichen Gesprächen über CE überschnitten hat, spricht für das tiefe Misstrauen vieler Feministinnen gegenüber der karitativen Ausrichtung der meisten CE-Arbeiten (Naples & Bojar, 2002). Feministische Herangehensweisen und Diskussionen über CE blieben bisher weitgehend im Bereich der Frauenforschung, wo politisches Handeln ein gemeinsames Ziel ist. In diesem Band stellen wir die Frage: „Was könnte gewonnen werden, wenn man eine feministische Linse in die Arbeit von CE einbringt?“ Unser Ziel ist es, diese feministische Perspektive über die disziplinären Grenzen der Frauenforschung hinaus zu bewegen und das transformative Potenzial für die Verschmelzung feministischer Theorie mit sozialem Handeln aufzuzeigen (Bubriski & Semaan, 2009).;-;-;-;https://link.springer.com/chapter/10.1057/9781137441102_2 c5fc67adee8fc488d1fb18fdbb514893;de;;;4.2.;;;Dissoziationen in limbischen und sublobären Beiträgen zur Gedächtniskodierung und zum Abruf sozialstatistischer Informationen Sozialstatistische Informationen sind die quantitative Beschreibung sozialer Phänomene, die in unserem täglichen Leben weit verbreitet sind. Die neuronale Aktivität während der Kodierung und des Abrufs sozialstatistischer Informationen bleibt jedoch unklar. Wir haben dieses Problem in einer fMRT-Studie untersucht, indem wir die Gehirnaktivität von 36 gesunden Probanden gemessen haben. Die Aufgaben bestanden darin, die sozialstatistischen Informationen zu codieren und abzurufen, die in drei Formen visuell dargestellt wurden: Text, statistische Grafik und statistische Grafik mit Text. Bei der Kodierung mussten die Probanden versuchen, die Bedeutung von sozialstatistischen Informationen, die in einer der drei Formen präsentiert wurden, zu lesen und zu verstehen, beim Abrufen wurden sie gebeten, Urteile in Bezug auf den Inhalt des Leseverständnisses zu fällen. Der direkte Vergleich zwischen Codierung und Retrieval zeigte, dass das Codieren den limbischen Lappen signifikanter aktivierte als das Retrieval, im Gegensatz dazu das Retrieval den Sublobär signifikant aktivierte als das Codieren. Die Ergebnisse deuten darauf hin, dass der limbische Lappen stärker an der Gedächtniskodierung von sozialstatistischen Informationen beteiligt ist, während der Sublobus mehr am Gedächtnisabruf beteiligt ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23605-1_10 693a0b39645f1b5481dbc92c7eb7c068;de;;;4.2.;;;Zuweisung begrenzter unternehmerischer Aufmerksamkeit Obwohl die begrenzte Aufmerksamkeit und das Problem ihrer Allokation von vielen Ökonomen erkannt wurde, gingen Versuche, dieses Problem zu modellieren, von einer bestimmten Anzahl von Aktivitäten aus, denen Aufmerksamkeit zuzuordnen ist. Das Modell der eingeschränkten unternehmerischen Aufmerksamkeit behebt diesen Mangel früherer Modelle, indem es die Annahme neuer Aktivitäten als eines der Aufmerksamkeitsziele modelliert. Dies hat zwei primäre Implikationen. Die Anzahl der Aktivitäten wird endogen durch die optimale Allokation bestimmt. Dies ermöglicht es dem Modell, Fragen der optimalen Anzahl von Aktivitäten und ihrer Abhängigkeit von den Parametern des Modells zu behandeln. Darüber hinaus werden die Opportunitätskosten der Aufmerksamkeit endogen bestimmt, da die Werte alternativer Aufmerksamkeitsziele von der Aufmerksamkeitsallokation abhängen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5605-3_3 e50d616e86731b2192154e999fa5fd6e;de;;;4.2.;;;Clustering anonymisierter Benutzer in einem sozialen Intranet-Unternehmensnetzwerk Moderne Unternehmen streben nach immer effizienteren Arbeitsweisen. Einer der Trends ist die Nutzung von Prozesswissen, um Benutzer bei der richtigen Durchführung bestimmter Aufgaben zu unterstützen und den irreführenden Einfluss unerfahrener Benutzer oder erfahrener Benutzer mit falschen Gewohnheiten zu beseitigen. Die Umsetzung dieser Art von Arbeitsmethoden kann jedoch zu Konflikten und allgemein stressigen abteilungsübergreifenden Atmosphären innerhalb des Unternehmens führen. Zu diesem Zweck entwickeln wir ein System, das eine Benutzerbestellung basierend auf dem Umfang der täglichen Arbeit ermöglicht, damit erfahrenere Benutzer einen größeren Einfluss in ihrer Gruppe haben und allen Mitgliedern der Gruppe zu einem höheren Leistungsniveau verhelfen können. Ein wesentliches Merkmal des vorgeschlagenen Systems besteht darin, dass die Benutzer jederzeit anonymisiert sind. Durch diese Maßnahmen soll vermieden werden, dass persönliche Gefühle die Akzeptanz und Generierung von Arbeitsempfehlungen beeinträchtigen. Sogar die Anzahl der Benutzergruppen und deren Komponenten sind zu jeder Zeit unbekannt, sodass das Empfehlungssystem vollständig autonom und selbstverwaltend sein soll, um die Arbeitseffizienz insgesamt zu erhöhen, indem die Erfahrung einiger Mitarbeiter genutzt wird, ohne die Identität dieser Mitarbeiter preiszugeben. . Ziel ist die persönliche Ausrichtung des Nutzers auf die vorgeschlagenen Empfehlungen. Wir berichten über die Bewertung des Ansatzes anhand von zwei Testfällen in einer realen Geschäftsumgebung, wobei festgestellt wurde, dass das vorgeschlagene System in der Lage ist, Benutzer korrekt zu clustern und die fähigsten innerhalb jeder Gruppe zu identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-01854-6_24 f021b9c390193142b09722628af8b6fa;de;;;5.2.;;;Schemagetriebenes und themenspezifisches Web-Crawling Wir schlagen einen neuen Ansatz vor, um themenspezifische Hypertext-Ressourcen aus dem WWW zu entdecken und zu extrahieren. Die Methode, die als schemagesteuertes und thematisches Crawling bezeichnet wird, ermöglicht es einem Benutzer, Schema- und Extrahierungsregeln für einen bestimmten Interessenbereich zu definieren. Es unterstützt das automatische Suchen und Extrahieren von schemarelevanten Webseiten aus dem Web. Im Gegensatz zu herkömmlichen Ansätzen, die ausschließlich auf Webseiten surfen, unterstützt unser Ansatz Crawler beim Surfen in einem virtuellen Netzwerk, das aus Konzeptinstanzen und Beziehungen besteht. Um ein solches Ziel zu erreichen, entwerfen wir eine Architektur, die verschiedene Techniken wie Webextraktor, Metasuchmaschine und Abfrageerweiterung integriert, und stellen ein Toolkit zur Unterstützung bereit.;-;-;-;https://link.springer.com/chapter/10.1007/11408079_55 e90a6568b13d5d707853e1e503a4e312;de;;;4.2.;;;Identifizierung von Führungskräften in einer Online-Gesundheits-Community für Krebsüberlebende: ein auf sozialen Netzwerken basierender Klassifizierungsansatz Online-Gesundheitsgemeinschaften (OHCs) sind eine wichtige Quelle der sozialen Unterstützung für Krebsüberlebende und ihre informellen Betreuer. Diese Forschung versuchte, mithilfe von Klassifizierungstechniken führende Persönlichkeiten in einem beliebten Online-Forum für Krebsüberlebende und Pflegepersonal zu identifizieren. Wir haben zunächst Benutzermerkmale aus vielen verschiedenen Perspektiven extrahiert, darunter Beiträge, Netzwerkzentralitäten und linguistische Merkmale. Basierend auf diesen Funktionen nutzten wir die Struktur des sozialen Netzwerks unter den Nutzern und generierten neue nachbarschafts- und clusterbasierte Funktionen. Klassifikationsergebnisse zeigten, dass diese Merkmale für die Identifizierung von Führungskräften diskriminierend sind. Unter Verwendung dieser Funktionen haben wir einen hybriden Ansatz entwickelt, der auf einem Ensemble-Klassifikator basiert, der eine bessere Leistung als viele herkömmliche Metriken bietet. Diese Forschung hat Auswirkungen auf das Verständnis und den Umgang mit OHCs.;-;-;-;https://link.springer.com/article/10.1007/s10257-014-0260-5 cf7f1181f43711eafbcd4f1961cc4302;de;;;5.2.;;;Multimodell-Funktionsoptimierung durch einen neuen hybriden nichtlinearen Simplex-Such- und Partikelschwarm-Algorithmus Basierend auf der Methode der nichtlinearen Simplexsuche (NSS) wird ein neuer hybrider Particle Swarm Optimization (PSO)-Algorithmus vorgeschlagen. In der späten Phase der PSO, wenn die vielversprechendsten Lösungsbereiche festgelegt sind, isoliert der Algorithmus Partikel, die sehr nahe an den Extrema liegen, und wendet die NSS-Methode auf sie an, um die lokale Ausnutzungssuche zu verbessern. Explizite experimentelle Ergebnisse zu berühmten Benchmark-Funktionen zeigen, dass dieser Ansatz zuverlässig und effizient ist, insbesondere bei Funktionsoptimierungen mit mehreren Modellen. Es liefert bessere Lösungsqualitäten und Erfolgsraten im Vergleich zu anderen veröffentlichten Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/11539902_68 2e1e804bbc9dfba726de63ca36028782;de;;;5.2.;;;Asymmetrische Randbedingungsoptimierung basierend auf Adaptive Boosting für Kaskaden-Gesichtsdetektor Eine neue Variante von AdaBoost namens AcoBoost wird vorgeschlagen, um das asymmetrische Beschränkungsoptimierungsproblem für Kaskadengesichtsdetektoren unter Verwendung eines zweistufigen Merkmalsauswahlansatzes direkt zu lösen. In der ersten Stufe werden viele Kandidatenmerkmale ausgewählt, indem der gewichtete Fehler minimiert wird. In der zweiten Stufe wird das optimale Merkmal herausgegriffen, indem der asymmetrische Beschränkungsfehler minimiert wird. Dadurch wird die Konvergenzrate stark beschleunigt. Außerdem wird AcoBoost ein neuer Stichprobensatz namens Auswahlsatz hinzugefügt, um eine Überanpassung des Trainingssatzes zu verhindern, was eine ausreichende Generalisierungsfähigkeit für AcoBoost gewährleistet. Die experimentellen Ergebnisse beim Bau mehrerer aufrechter frontaler Kaskadengesichtsdetektoren zeigen, dass die AcoBoost-basierten Klassifikatoren eine viel bessere Konvergenzfähigkeit und eine etwas schlechtere Generalisierungsfähigkeit als die AdaBoost-basierten Klassifikatoren aufweisen. Einige AcoBoost-basierte Kaskaden-Gesichtsdetektoren weisen eine zufriedenstellende Leistung auf dem CMU+MIT-Testgerät für aufrecht frontale Gesichter auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25944-9_30 643f203cb36fb6d1bc141c64660f2546;de;;;5.2.;;;Ungefähre Mindesttasten und optimale Unterbau-Bildschirme In diesem Papier untersuchen wir die Probleme der Set-Cover, die Probleme der minimalen Kardinalität und die Probleme des optimalen Rasters. Wir betrachten SET COVER-II, eine Variante von SET COVER, d.h;-;-;-;https://link.springer.com/chapter/10.1007/3-540-61332-3_163 4ac22ec3555660a35bdd240aaa798b7b;de;;;4.2.;;;Die Beziehung zwischen Gruppenbewusstsein und Partizipation in einer computergestützten kollaborativen Umgebung Das Ziel dieser Forschung ist es, den Zusammenhang zwischen Group Awareness (GA) und Partizipation ab der Einführung eines Visualisierungstools zu analysieren, das es ermöglicht, verschiedene Dimensionen des richtigen Zusammenspiels eines kollaborativen Prozesses zu bewerten, der im computergestützten kollaborativen Lernen durchgeführt wird ( CSCL) Umgebungen. Die Studie geht davon aus, dass Group Awareness einen erheblichen Beitrag zu den Interaktionsprozessen in CSCL-Umgebungen leisten kann. Entlang dieser Forschungslinie gibt es immer mehr Berichte, die GA als entscheidenden Faktor für den Erfolg der Zusammenarbeit betrachten, da sie die Aktivitäten und Absichten anderer Mitglieder, die in einer virtuellen Lernumgebung zusammenarbeiten, wahrnimmt und versteht. In der vorliegenden Studie analysieren wir Gruppenbewusstsein mit einer quasi-experimentellen Methodik, bei der eine Gruppe von Teilnehmern über ein Computertool verfügt, mit dem sie Gruppenbewusstsein deklarieren kann. Die Hälfte der Studierenden verfügte über eine erweiterte Version eines Tools, mit dem sie die zugewiesenen Ergebnisse paarweise auswerten und visualisieren konnten, während die andere Hälfte die Bewertungen anderer Gruppenmitglieder auswerten, aber nicht visualisieren konnte. Die Ergebnisse zeigen, dass in Gruppen mit stärkerer Beteiligung ein besseres Gruppenbewusstsein besteht. Dennoch hätte der Einsatz eines GA-Tools keinen direkten Einfluss auf die Teilnahme der Studierenden. Die Ergebnisse weisen darauf hin, dass die GA als Produkt der Beteiligung betrachtet werden kann und nicht gerade als Nebenprodukt eines GAW-Tools.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10671-7_8 b951532556351582d3eef9b919ae35bd;de;;;4.2.;;;Vertiefung unseres Verständnisses Obwohl Sputniks 2 und 3 das Vorhandensein des Strahlungsgürtels identifiziert hatten, gewannen die Amerikaner sowohl die wissenschaftliche Interpretation als auch den Medienkampf um die Entdeckung der Strahlungsgürtel. Dies war sogar in der Sowjetunion selbst schmerzlich offensichtlich, wo ein grausamer Witz über den leitenden Strahlenwissenschaftler des Landes kursierte:;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-8150-9_2 6d1a113a5a75966f7d8e559d49e80d1c;de;;;4.2.;;;Innovationsstrategie für den Übergang von geschaffenen regionalen Clustern zu Co-Creation in Life Sciences für Ökosysteme im Gesundheitswesen und Wohlbefinden In den letzten Jahrzehnten hat der demografische Wandel die Bevölkerungsstruktur verändert und die sozialen, wirtschaftlichen und politischen Eigenschaften der Länder auf der ganzen Welt beeinflusst. Daher nimmt die Schaffung neuer Ökosysteme, neuer Cluster und Systeme, die Technologie und Industrie, Wirtschaft, Bildung, Wissenschaft und Innovation einbeziehen, rasch zu. Um jedoch die zukünftigen globalen Herausforderungen zu lösen, sollten die geschaffenen verschiedenen Arten von Clustern, öffentlichen und privaten Sektoren als Einheit zusammenarbeiten und zusammenarbeiten. Daher ist eine der vorgeschlagenen Lösungen der Aufbau einheitlicher regionaler Ökosysteme. Das Projekt Interreg European Life Science Ecosystems (ELISE) befasst sich mit der gesellschaftlichen Herausforderung, die den europäischen Regionen gemeinsam ist: eine bessere Gesundheit für alle zu fördern. Dies deckt die Notwendigkeit ab, die Ergebnisse von Gesundheit und Wohlbefinden zu verbessern, das Marktwachstum, die Schaffung von Arbeitsplätzen und die Wettbewerbsfähigkeit der EU zu fördern. Basierend auf dem Projekt werden drei verschiedene Regionen der europäischen Länder – Polen, Italien und Deutschland – ausgewählt, um die Analyse der Treiber durchzuführen, die den Übergang von den bestehenden Clustern zu einem einheitlichen regionalen Ökosystem direkt beeinflussen. Die durchgeführte Analyse hat gezeigt, dass die Regierung eines Landes und regionale Behörden den direkten Einfluss haben und die zentrale Rolle bei der Gestaltung einheitlicher regionaler Ökosysteme spielen. Die allgemeine wirtschaftliche, soziale und politische Situation eines Landes ist von der Regierung abhängig und wird von den regionalen Behörden beeinflusst. Daher ist die Zusammenarbeit und der Austausch zwischen solchen Institutionen der wichtige Faktor, der bestimmt, wie schnell verschiedene Länder einheitliche Ökosysteme schaffen und die zukünftigen Probleme lösen werden.;-;-;-;https://link.springer.com/article/10.1007/s11356-021-13689-w 723aea1f76c06236d1b99362036e3e70;de;;;5.2.;;;Resilienz und Frauen: Der Weg zur akademischen MINT-Führung In dieser Studie wurden vier Frauen, die akademische MINT-Führungspositionen bekleiden, nach einem konzeptionellen Rahmen der Resilienztheorie interviewt, um zu bestimmen, welche Faktoren für ihren erfolgreichen Weg zu prestigeträchtigen akademischen Positionen maßgeblich waren, und um die Kämpfe zu untersuchen, mit denen sie auf diesen Reisen konfrontiert waren. STEM bezieht sich auf Naturwissenschaften, Technologie, Ingenieurwesen und Mathematik und MINT-Karrieren umfassen Chemie, Informatik, Ingenieurwesen, Umweltwissenschaften, Geowissenschaften, Biowissenschaften, Mathematik und Physik/Astronomie. Zu den akademischen MINT-Führungspositionen im Sinne dieser Studie gehören Lehrstuhlinhaber, Dekane, Propstei, Kanzler und Präsidenten. Schlüsselfaktoren von Vermögenswerten und Ressourcen für die Widerstandsfähigkeit werden identifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-56674-6_11 185b1c20c68f9f9908cb0a6d6d041f46;de;;;4.2.;;;Kostspielige Teilnahme und die Entwicklung der Kooperation im wiederholten Spiel um öffentliche Güter Im wirklichen Leben müssen Einzelpersonen oft einige Kosten bezahlen, um langfristige Beziehungen sowie Interaktionen zwischen ihnen aufzubauen und aufrechtzuerhalten. Bisherige Studien zum wiederholten Spiel um öffentliche Güter haben sich jedoch fast ausschließlich auf die kostenlose Teilnahme konzentriert. Hier führen wir die kostspielige Teilnahme an dem wiederholten Spiel um öffentliche Güter bedingt ein und untersuchen die Entwicklung der Kooperation sowohl in der deterministischen als auch in der stochastischen Dynamik für gut gemischte Bevölkerungen. An der Grenze einer unendlichen Populationsgröße kann die deterministische Dynamik entweder zu einer stabilen Koexistenz zwischen Kooperatoren und Überläufern oder sogar zu einer vollständigen Dominanz von Kooperatoren gegenüber Überläufern führen, wenn die anfängliche Häufigkeit von Kooperatoren eine Invasionsbarriere überschreitet. Im Allgemeinen sind Überläufer immer in der Lage, sich einer Invasion durch Kooperationspartner zu widersetzen. In endlichen Populationen zeigen wir jedoch, dass die natürliche Selektion die Entstehung von Kooperation in der stochastischen Dynamik begünstigen kann. Im Grenzfall schwacher Selektion und großer Populationen leiten wir eine kritische Bedingung ab, die für einen Kooperationspartner erforderlich ist, um eine Population von Überläufern mit einem selektiven Vorteil zu ersetzen, indem wir mehrere Näherungstechniken verwenden. Die theoretische Analyse des kritischen Zustands zeigt, dass die Beteiligungskosten die Auswirkungen der Anzahl der Spielrunden auf die Entstehung von Kooperationen bestimmen. Interessanterweise gibt es einen Zwischenwert der Beteiligungsschwelle von Kooperationspartnern, der zu den optimalen Bedingungen für einen Kooperationspartner führt, um in eine Population von Überläufern einzudringen und sich darin zu fixieren, wenn die Beteiligungskosten kleiner als ein kritischer Wert sind. Numerische Berechnungen bestätigen, dass sich die Gültigkeit der analytischen Näherungen auf viel breitere Bereiche der Selektionsstärke sowie der Populationsgröße erstreckt.;-;-;-;https://link.springer.com/article/10.1007/s13235-020-00352-1 dada435534df9d08926adfe1b6c6ff03;de;;;4.2.;;;Soziale Netzwerke und Umzug an weit entfernte Orte Die Verwendung räumlicher Nachbarschaften bei der Modellierung sowohl der Bewegung von Individuen als auch ihrer Interaktionen ist in vielen Situationen realistisch, beispielsweise bei einem gesellschaftlichen Treffen (einer Party) oder in einer Organisation (einem Unternehmen). Sie ist jedoch zu restriktiv für die Modellierung wirtschaftlicher und sozialer Phänomene, die zunehmend in der modernen Welt stattfinden, in der die Werkzeuge der Technologie die Natur menschlicher Interaktionen und Bewegungen grundlegend verändert haben. Heute kann eine Person augenblicklich mit einer oder mehreren weit entfernten Personen über Telefon oder E-Mail interagieren [eine Schwester eines der Autoren (RJG) hat ihren Mann zum ersten Mal im Internet kennengelernt] und die Massenmedien können verwendet werden, um sich zu verbreiten Memes (der Zweck des Fernsehens) oder Klatsch zu verbreiten (Talkshows schaffen und erhalten Berühmtheit). Die Menschen können sich heute auch von einem Ort zu einem anderen entfernten Ort bewegen (mit einem Flugzeug oder einem Auto). In diesem Kapitel stellen wir einige grundlegende Werkzeuge vor, die zur Modellierung nichtlokaler Interaktionen und Bewegungen verwendet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-1726-8_6 b462e8d3b4ef58aea75e71d3003f9092;de;;;4.2.;;;Turn-Taking: Eine kritische Auseinandersetzung mit der Forschungstradition Im Folgenden präsentieren wir eine radikale Kritik an Annahmen, Konzepten, Methoden, Statistik und Interpretation von Daten und Theorien, die die neuere Forschungstradition des Turn-Taking geprägt haben. Hauptvertreter dieser Tradition ist die „einfachste Systematik“ von Sacks, Schegloff und Jefferson (1974). Versuche, die verallgemeinerbaren Eigenschaften von Turn-Taking zu beschreiben, haben sich ganz unangemessen und erfolglos meist auf formale Ansätze beschränkt, die gesprächsinhaltliche und -zweckbetrachtungen bewusst ausklammern. Wir gehen stattdessen von der Annahme aus, dass das ultimative Kriterium für den Erfolg eines Gesprächs nicht „der reibungslose Austausch von Redewendungen“ (Cutler & Pearson, 1986, S. 139) oder ein anderes präskriptives Ideal ist, sondern die Erfüllung der verfolgten Zwecke von zwei oder mehr Gesprächspartnern. Unser Ansatz ist der einer Psychologie des Sprachgebrauchs nach Bühler (1927, 1934/1982) und Rommetveit (1974). Der Schwerpunkt liegt bewusst auf sozialen Aspekten der Sprache als Kommunikationsmittel.;-;-;-;https://link.springer.com/article/10.1007/BF01068884 e22536c9af721571e4956744e48bee95;de;;;5.2.;;;Die Vereinigten Staaten und die Politik des Thatcherismus, 1979–1990 m Mai 1979 wurde Margaret Thatcher als erste Frau in der britischen Geschichte zur Premierministerin gewählt. Als sie im November 1990 zurücktrat, war sie die dienstälteste Premierministerin des 20. Jahrhunderts und gewann drei aufeinanderfolgende Parlamentswahlen. Viele sahen in Thatchers konservativer Regierung die Retterin Großbritanniens, die das Land von der Gewerkschaftsmacht befreite, die Eigenverantwortung regenerierte und eine neue Unternehmenskultur einleitete. Andere hingegen widersetzten sich der marktwirtschaftlichen Philosophie der Konservativen, kritisierten die Ungleichheit und den sozialen Konflikt, den ihre Politik hervorrief, und argumentierten, dass Thatcher sich nicht um die Notlage der Benachteiligten kümmerte. Aber praktisch alle ihre Unterstützer und Kritiker sind sich einig, dass Thatchers 11 Jahre in der Downing Street 10 einen unauslöschlichen Eindruck in der britischen Gesellschaft hinterlassen haben.;-;-;-;https://link.springer.com/chapter/10.1057/9781137376800_5 d0187aa2fa51e27d546125bf5290c4eb;de;;;5.2.;;;7. Offene Herausforderung zur Beantwortung von Fragen über verknüpfte Daten (QALD-7) In den letzten Jahren hat sich die Forschung zur Fragebeantwortung (QA) über Semantic-Web-Daten verstärkt und ein Interaktionsparadigma entwickelt, das es Endbenutzern ermöglicht, von der Ausdruckskraft der Semantic-Web-Standards zu profitieren und gleichzeitig deren Komplexität zu verbergen eine intuitive und einfach zu bedienende Oberfläche. Andererseits hat die wachsende Datenmenge zu einer heterogenen Datenlandschaft geführt, in der QS-Systeme Schwierigkeiten haben, mit der Menge, Vielfalt und Richtigkeit des zugrunde liegenden Wissens Schritt zu halten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-69146-6_6 c6e68fdeeea7e536610034c82310bb3e;de;;;4.2.;;;Mehrdeutigkeit im minoischen Kreta erzeugen: Es ist ein Drang, ein König zu sein Auf dem Treffen der Theoretical Archaeology Group 1993 beschuldigte mich ein Diskutant des Essentialismus, weil ich die dualistischen Kategorien männlich/weiblich in meinem Studium minoischer Bronzefiguren verdinglicht habe. Ich hätte sehr gerne eine trendige lacanische poststrukturalistische Darstellung einer Vielzahl von bisher vernachlässigten Geschlechtern vorgelegt. Wie Shanks, Tilley und Hodder uns jedoch sagen: In einer postprozessualen und einer poststrukturellen Archäologie wird einem Alles-geht-Relativismus durch die Beweise widerstanden, die unsere Interpretationen einschränken.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-62331-0_5 e31b070859568797aca26fb3b559fd2b;de;;;4.2.;;;Erkundung der digitalen Kluft auf den Malediven Die zentrale Rolle der IKT in der Entwicklung und ihre ethischen Implikationen haben die langjährigen Diskussionen über die digitale Kluft in den internationalen Entwicklungs- und Forschungsgemeinschaften mit neuen Perspektiven zur Messung und Interpretation dieser Ungleichheit aktiv gehalten. In diesem Papier untersuchen wir die Natur der digitalen Kluft auf den Malediven – zwischen der Hauptstadt des Landes und den Atollen, zwischen den Atollen und im ganzen Land sowie die Entwicklung dieser Kluft im Laufe der Zeit. Um über wirksamere politische Interventionen zu informieren, versuchen wir auch, Cluster innerhalb des Landes zu identifizieren, die ähnliche Bedenken hinsichtlich der digitalen Kluft teilen. Die Ergebnisse zeigen erhebliche Unterschiede bei der Durchdringung digitaler Technologien. Während wir die Verengung der digitalen Kluft im Laufe der Zeit beobachten können, bleibt die Kluft zwischen der Hauptstadt und dem Rest der Nation erheblich. Schließlich diskutieren wir die Auswirkungen dieser Ergebnisse auf die IKT-Entwicklung kleiner Inselentwicklungsstaaten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15479-9_5 f5377c0e809cbe0f8fd5d0ea5b17a7ef;de;;;4.2.;;;Risikowahrnehmung in Bulgarien und Rumänien Risikowahrnehmung und Medienrisikogehalt wurden in Bulgarien und Rumänien untersucht, die Ergebnisse wurden mit Daten aus anderen Ländern verglichen, insbesondere in Schweden und Brasilien. Zur Untersuchung der Risikowahrnehmung wurden verschiedene Gruppen ausgewählt: Krankenschwestern, Wirtschafts- und Ingenieurstudenten, Lehrer, Hilfsarbeiter und Obdachlose. Sie bewerteten eine Vielzahl allgemeiner und persönlicher Risiken, Wahrscheinlichkeiten und Folgen von Schäden sowie die Forderung nach Risikominderung. Es wurde festgestellt, dass die bulgarische Risikowahrnehmung ziemlich hoch war, auf dem gleichen Niveau wie in Brasilien und höher als die zum Vergleich verfügbaren US-Daten. Die rumänischen Daten zeigten deutlich niedrigere Werte, fast auf dem Niveau der skandinavischen Länder. Die Unterschiede in den wahrgenommenen Risiken zwischen Rumänien und Bulgarien können nicht durch Unterschiede in den tatsächlichen Risiken erklärt werden, Rumänien befand sich in einer deutlich schwierigeren wirtschaftlichen Situation als Bulgarien. Medieninhalte werden daher als stärkere Determinante des wahrgenommenen Risikos als das tatsächliche Risiko vorgeschlagen. Unter den detaillierten Ergebnissen können wir auch erwähnen, dass Ingenieurstudenten, gefolgt von MBA-Studenten, während der gesamten Studie die niedrigsten Risikoeinstufungen gaben. Einige Obdachlose gaben wider Erwarten niedrige Bewertungen des wahrgenommenen Risikos an – dies könnte an ihrem eingeschränkten Zugang zu Medien liegen. Das Vertrauen in Institutionen und Medien war sowohl in Bulgarien als auch in Rumänien durchweg recht niedrig, in Bulgarien jedoch am niedrigsten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-4891-8_4 b81c42c6ffff5862c900d9e9cb9de3f0;de;;;5.2.;;;Theoretische Grundlagen der Schiedsgerichtsbarkeit Bevor mit der Analyse der in den ausgewählten Rechtsordnungen gewählten Lösungen sowie deren Vergleich und Bewertung übergegangen wird, ist es sinnvoll, zunächst einige der relevanten theoretischen Überlegungen zu untersuchen, die der Zuständigkeit von Gerichten und Schiedsrichtern zur Untersuchung von Zuständigkeitsfragen zugrunde liegen. Das vorliegende Kapitel befasst sich mit ersterem, während;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-00134-0_3 188d36a27d59eb88934e9f5962938215;de;;;5.2.;;;ACCBN: Ameisenkolonie-Clustering-basierte bipartite Netzwerkmethode zur Vorhersage langer nicht-kodierender RNA-Protein-Wechselwirkungen Lange Studien an nicht-kodierender RNA (lncRNA) spielen eine wichtige Rolle bei der Entwicklung, Invasion und Metastasierung des Tumors. Die Analyse und das Screening der differentiellen Expression von lncRNAs in Krebs und entsprechenden parakanzerösen Geweben liefert neue Anhaltspunkte, um neue krebsdiagnostische Indikatoren zu finden und die Behandlung zu verbessern. Die Vorhersage von lncRNA-Protein-Wechselwirkungen ist bei der Analyse von lncRNAs sehr wichtig. Dieser Artikel schlägt eine Methode des Ant-Colony-Clustering-Based Bipartite Network (ACCBN) vor und sagt lncRNA-Protein-Wechselwirkungen voraus. Die ACCBN-Methode kombiniert Ameisenkolonie-Clustering und bipartite Netzwerk-Inferenz, um lncRNA-Protein-Interaktionen vorherzusagen.;-;-;-;https://link.springer.com/article/10.1186/s12859-018-2586-3 711a620b3c489cebc7c008258ed537a4;de;;;4.2.;;;Die Auswirkungen positiver psychologischer Interventionen auf das Wohlbefinden gesunder älterer Menschen Diese systematische Überprüfung zielt darauf ab, die Auswirkungen von positiven psychologischen Interventionen (PPIs) auf das Wohlbefinden bei gesunden älteren Menschen zu bewerten. Es wurde eine systematische Überprüfung von PPIs aus drei elektronischen Datenbanken (PsycINFO, Scopus und Web of Science) durchgeführt. Einschlusskriterien waren: dass es sich um eine positive psychologische Intervention handelte, die Messung des Wohlbefindens einschloss, die Teilnehmer über 60 Jahre alt waren und die Studien auf Englisch waren. Die Cochrane Collaboration Guidelines Dimensionen Qualitätskontrolle, Randomisierung, Vergleichbarkeit, Follow-up-Rate, Studienabbruch, Verblindung dienen der Bewertung der Studienqualität durch zwei Gutachter unabhängig voneinander. Die Reichweite, Wirksamkeit, Annahme, Implementierung und Wartung (RE-AIM) zur Bewertung der Wirksamkeit von PPIs wurde ebenfalls angewendet. Die abschließende Überprüfung umfasste acht Artikel, von denen jeder eine positive psychologische Interventionsstudie beschrieb. Die Erinnerungsinterventionen waren die am weitesten verbreitete Art von PPI, um das Wohlbefinden im späteren Leben zu fördern und zu erhalten. Nur zwei Studien wurden als qualitativ hochwertig, vier als mäßig und zwei als minderwertig eingestuft. Die Gesamtergebnisse zeigten, dass Wirksamkeitskriterien (89 %), Erreichungskriterien (85 %), Übernahmekriterien (73 %), Umsetzungskriterien (67 %) und Erhaltungskriterien (4 %) in einer Vielzahl von RE-AIM-Dimensionen enthalten sind. Richtungen für zukünftige positive psychologische Forschung im Zusammenhang mit RE-AIM und Implikationen für die Entscheidungsfindung werden beschrieben.;-;-;-;https://link.springer.com/article/10.1007/s10902-015-9711-z 38a087b79b86f8c073a7ca12cde23d87;de;;;5.2.;;;Gemeinsame Faktorisierungs-Themenmodelle für stadtübergreifende Empfehlungen Die Forschung zu personalisierten Empfehlungstechniken hat sich heute hauptsächlich in zwei Hauptrichtungen geteilt, nämlich die faktorisierungsbasierten Ansätze und Themenmodelle. In der Praxis zielen sie darauf ab, von den numerischen Bewertungen und Textbewertungen entsprechend zu profitieren, die zwei wichtige Informationsquellen in verschiedenen realen Systemen bilden, darunter Amazon, Yelp, eBay, Netflix und viele andere.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-63579-8_45 1f6cc764e015adb812ff8f5bd38a4c1a;de;;;5.2.;;;Eine hocheffiziente und konvergente Optimierungsmethode für die Mehrpunkt-Werkzeugorientierung in der 5-Achs-Bearbeitung Bei der 5-Achs-Bearbeitung hat die Mehrpunkt-Werkzeugorientierung den Vorteil, eine größere Bandbreite zu erhalten. Allerdings schränkt die große Rechenzeit die Anwendung ein. In diesem Beitrag wird für die Bearbeitung von Freiformflächen mit toroidförmigen Werkzeugen eine hocheffiziente und konvergente Mehrpunkt-Werkzeugorientierungsoptimierungsmethode vorgeschlagen. Das Verfahren wird gegenüber der Middle Point Error Control Method (MPECM) verbessert, indem das Ziel von der maximalen Streifenbreite auf die Mehrpunkt-Werkzeugorientierung geändert wird.;-;-;-;https://link.springer.com/article/10.1007/s00170-017-0688-0 35b144657d73c5ea186798a016fe08eb;de;;;5.2.;;;Lampenfieber Der Einsatz von Techniken der kognitiven Verhaltenstherapie (CBT) bei der Behandlung von Lampenfieber bei auftretenden Musikern stellt eine nützliche Anwendung für eine chronisch unterversorgte Bevölkerung dar. Hochqualifizierte Künstler besetzen eine dürftige Nische in der zeitgenössischen Gesellschaft – geschätzt für ihre künstlerischen Fähigkeiten, aber oft gezwungen, wirtschaftliche Entbehrungen, stressige Arbeitsbedingungen und unzureichende medizinische und psychologische Versorgung zu ertragen. Ein seit Jahren verbreiteter Irrglaube über Künstlerpersönlichkeiten ist in der Tat, dass Kreativität und Entbehrung Hand in Hand gehen, als ob die Verbesserung des psychologischen Wohlbefindens eines Künstlers die Qualität seiner Kunst beeinträchtigen könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-9777-0_5 8539bcabcd1882d6deb829143f94b065;de;;;5.2.;;;Leibniz und die klassische Tradition Leibniz wurde sehr früh in die klassische Tradition aufgenommen und verlor nie seine Begeisterung für die antike Philosophie. In den späten 1660er Jahren beschäftigte er sich mit einem Projekt, um Aristoteles mit der modernen Philosophie in Einklang zu bringen. Während seines Aufenthalts in Paris verbündete er sich jedoch mit den französischen Verteidigern der antiken Philosophie gegen die Cartesianer und studierte die Texte Platons. Er zögerte, sein eigenes metaphysisches System zu veröffentlichen, da er den Vorwurf der „Innovation“ fürchtete, und als er schließlich eine Version davon veröffentlichte, knüpfte er viele Verbindungen zu klassischen Autoren. In seiner späteren Philosophie stellte sich Leibniz in die Tradition des Eklektizismus, aber sein Denken ist dem von Platon und seinen frühen Anhängern am nächsten.;-;-;-;https://link.springer.com/article/10.1007/BF02678171 98bcf96459684084f4d3d02e03b0e934;de;;;5.2.;;;Ein neuartiger adaptiver mutativer Skalenoptimierungsalgorithmus basierend auf der chaosgenetischen Methode und der Bewertung der Optimierungseffizienz Durch die Kombination der Eigenschaften der Chaos-Optimierungsmethode und des genetischen Algorithmus wurde ein adaptiver mutativer skalierender Chaosgenetischer Algorithmus (AMSCGA) vorgeschlagen, der eine eindimensionale iterative chaotische Selbstabbildung mit unendlichen Kollaps innerhalb des endlichen Bereichs von [−1, 1] verwendet. Einige Maßnahmen im Optimierungsalgorithmus, wie zum Beispiel die kontinuierliche Anpassung des Suchraums der optimierten Variablen unter Verwendung der adaptiven mutativen Skalenmethode und die Verwendung der meisten Kreiszeit als Kontrollrichtlinie, wurden ergriffen, um seine Schnelligkeit und Richtigkeit bei der Suche nach dem Optimierungsprozess sicherzustellen. Die Berechnungsbeispiele zu drei Testfunktionen zeigen, dass AMSCGA sowohl eine hohe Suchgeschwindigkeit als auch eine hohe Präzision aufweist. Darüber hinaus wurden die durchschnittlichen abgeschnittenen Generationen, die Verteilungsentropie der abgeschnittenen Generationen und das Verhältnis der durchschnittlichen Trägheitsgenerationen verwendet, um die Optimierungseffizienz von AMSCGA quantitativ zu bewerten. Es wird gezeigt, dass die Optimierungseffizienz von AMSCGA höher ist als die eines genetischen Algorithmus.;-;-;-;https://link.springer.com/article/10.1007/s11771-012-1310-0 b7372bdc414fcb6082b14b5da049ce1a;de;;;4.2.;;;Berichterstattung mit Wölfen: Rudeljournalismus und die Verbreitung politischer Informationen Man könnte sagen, dass die japanische Gesellschaft mit Informationen überflutet wird. Japan hat eine Alphabetisierungsrate von 99 Prozent, eine der höchsten Zeitungskonsumraten der Welt und eine Verlagsbranche, die eine große Anzahl von Wochen- und Monatsmagazinen sowie Zeitschriften und Büchern herausbringt. Nach Angaben des Weltverbands der Zeitungen war die Auflage japanischer Tageszeitungen (67,2 Millionen Exemplare) im Jahr 2008 die zweithöchste der Welt, nach Indien (107 Millionen Exemplare, die Vereinigten Staaten von Amerika mit 51 Millionen Exemplaren). Pro-Kopf-Betrachtung belegte Japan mit durchschnittlich 613,1 Zeitungen pro 1.000 Erwachsene den vierten Platz, nach Island (817,4), der Schweiz (627,4) und Luxemburg (619,3).;-;-;-;https://link.springer.com/chapter/10.1057/9780230370838_11 2e2435678cba44febabf02f5b790cf98;de;;;5.2.;;;Unterstützung der Forschung zu Computeranwendungen in der Pflege Das Erwachsenwerden der Pflegeforschung und der Computertechnik im Gesundheitswesen vollzog sich in den letzten 25 Jahren in vielerlei Hinsicht gleichzeitig. Während es in beiden Bereichen vor Mitte der 1960er Jahre eine Entwicklung gab, hat sich das Wachstum seit dieser Zeit erheblich beschleunigt. Die Stärkung der Pflegeforschung und ihre beginnende Integration in die breitere wissenschaftliche Gemeinschaft sollte Pflegenden, die Unterstützung für die Forschung im Bereich Computeranwendungen suchen, nützlich sein. In diesem Abschnitt werden einige der jüngsten Veränderungen in der Pflegeforschung und ihr Verhältnis zur Forschung zu Computeranwendungen in der Pflege und im Gesundheitswesen behandelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-4160-5_27 dd187008c527120323606bdb9bd09333;de;;;4.2.;;;Evaluation des Wissensmanagements in der Hochschulforschung Dieses Papier beschreibt die Entwicklung einer Reihe von Indikatoren zur Messung des Wissensmanagements in der Prozessforschungsmission an der Universität, die versuchen, kontinuierliche Verbesserungen aufzuzeigen. Aus der explorativen Methode ist es möglich, die theoretischen Grundlagen und Fallbeispiele zu ermitteln, um einen Blick auf die Anwendbarkeit des Wissensmanagements bei der Evaluation der Forschung an der Universität zu werfen, wobei der Schwerpunkt auf der Feststellung des Reifegrads dieses Prozesses liegt. Die Zielgruppe wurde ausgewählt, um die Indikatoren zu bewerten und besteht aus einer Gruppe aktiver Mitglieder der akademischen Gemeinschaft, einschließlich Lehrern, Forschern, Studenten, Mitgliedern der Saatgutforschung und Verwaltungspersonal, die im Bereich der Forschung tätig sind. Erworbene Ergebnisse beschreiben die externen und internen Moderatoren, die durch Indikatoren und Messungen als Grundlage für die Bewertung der Erstellung eines Modells von Wissensmanagementprozessen zur Speicherung, Verarbeitung und Weitergabe von Wissen in der Forschung an der Universität erreicht werden. Wichtig ist, dass für die Umsetzung der Indikatoren keine großen Investitionen in Ressourcen (Technologie, Infrastruktur usw.) erforderlich sind, da in der Forschung etablierte Techniken vorhanden sind;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-81350-5_16 5d533c69f24c852faea69069dfc47c83;de;;;4.2.;;;Transformation der russischen Wirtschaft Die Merkmale und Aussichten der FuE-Umwandlung in Russland werden hauptsächlich von denselben Faktoren bestimmt, die dem allgemeinen wirtschaftspolitischen Kontext der Übergangszeit des Landes von einer zentralisierten zu einer Marktwirtschaft zugrunde liegen. Die russischen Erfahrungen der letzten Jahre zeigen überzeugend, dass Konversionsprobleme ohne Wirtschaftsreformen nicht zu lösen sind. Angesichts der enormen Bedeutung des militärisch-industriellen Komplexes für die russische Wirtschaft ist die Konversion zudem quasi gleichbedeutend mit der Strukturpolitik der Wirtschaftsreform.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-14886-8_7 84fa35f102026bf0852528c0a6e03b72;de;;;5.2.;;;Aufgabenmodellierung in der kollektiven Robotik Erfordert kohärentes kollektives Verhalten einen expliziten Mechanismus der Kooperation? In diesem Beitrag zeigen wir, dass eine bestimmte Klasse kooperativer Aufgaben, nämlich die koordinierte Schachtelmanipulation, ohne explizite Kommunikations- oder Kooperationsmechanismen möglich ist. Der Ansatz beruht auf Teilaufgabenzerlegung und Sensorvorverarbeitung. Es wird ein Rahmen für die Modellierung von Multi-Roboter-Aufgaben vorgeschlagen, die als eine Reihe von Schritten beschrieben werden, wobei jeder Schritt möglicherweise aus Unterschritten besteht. Die Theorie der endlichen Automaten wird verwendet, um Schritte mit Zustandsübergängen zu modellieren, die als binäre Wahrnehmungsprädikate, die als Wahrnehmungshinweise bezeichnet werden, spezifiziert sind. Ein wahrnehmungsbezogener Hinweis (Q), dessen Berechnung von der Operation des Automaten getrennt ist, wird von einer dreistufigen endlichen Zustandsmaschine, genannt Q-Maschine, verarbeitet. Das Modell basiert auf entomologischen Erkenntnissen, die darauf hindeuten, dass lokale Reizsignale verwendet werden, um eine lineare Reihe von Bauvorgängen beim Nestbau zu regulieren. Der Ansatz ist für einen redundanten Satz homogener mobiler Roboter ausgelegt und wird als Erweiterung eines bisherigen Systems von 5 Kistenschubrobotern auf 11 identische Transportroboter beschrieben. Es werden Ergebnisse für ein System von physischen Robotern präsentiert, die in der Lage sind, ein schweres Objekt kollektiv zu einer willkürlich spezifizierten Zielposition zu bewegen. Der Beitrag ist ein einfaches Task-Programming-Paradigma für mobile Multi-Roboter-Systeme. Es wird argumentiert, dass Q-Maschinen und ihre Wahrnehmungssignale einen neuen Ansatz zur umgebungsspezifischen Aufgabenmodellierung in der kollektiven Robotik bieten.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008859119831 3586140ce1b793c24919f7f8b1df823f;de;;;5.2.;;;Ein reaktiver Erklärungsansatz: Berücksichtigung des Feedbacks des Nutzers Erklärung ist ein interaktiver Prozess, der einen Dialog zwischen Ratgeber und Ratsuchendem erfordert. Aktuelle Expertensysteme können jedoch nicht an einem Dialog mit Benutzern teilnehmen. Insbesondere können diese Systeme nicht missverstandene Erklärungen aufklären, auf frühere Erklärungen eingehen oder im Rahmen des laufenden Dialogs auf Anschlussfragen antworten. In diesem Papier beschreiben wir einen reaktiven Erklärungsansatz – einen, der an einem fortlaufenden Dialog teilnehmen kann und das Feedback des Benutzers verwendet, um nachfolgende Erklärungen zu leiten. Unser System plant Erklärungen aus einer Vielzahl von Erklärungsstrategien, wobei die Diskursziele des Systems, die Pläne, die zu ihrer Erreichung verwendet wurden, und alle Annahmen, die bei der Planung einer Reaktion getroffen wurden, aufgezeichnet werden. Dieser Datensatz liefert den Dialogkontext, den das System benötigt, um angemessen auf das Feedback des Benutzers zu reagieren. Wir veranschaulichen unseren Ansatz mit Beispielen für die Klärung einer Anschlussfrage und die Erstellung einer klärenden Ausarbeitung als Reaktion auf eine missverstandene Erklärung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-5945-7_1 2a8427aded7114e9c2bc0264300a3309;de;;;5.2.;;;Fuzzy Cognitive Maps für die Zuverlässigkeitsanalyse in Produktionssystemen Kognitive Karten bieten eine grafische und mathematische Darstellung des Glaubenssystems einer Person: Eine kognitive Karte zeigt die eingeschlagenen Wege einschließlich der Alternativen, um ein Ziel zu erreichen. Fuzzy Cognitive Maps (FCM) haben sich angesichts des aktuell steigenden Bedarfs an Effizienz sowohl für den Anlagen- als auch für den menschlichen Bediener als eine valide Hilfe bei der Bewertung der kritischsten Faktoren für den Bediener bei der Verwaltung und Steuerung von Produktionsanlagen erwiesen. Ein FCM stellt eine Technik dar, die der menschlichen Wahrnehmung sehr gut entspricht, sie auch für ein Laienpublikum leicht verständlich ist und jeder Parameter eine wahrnehmbare Bedeutung hat. FCMs sind auch ein hervorragendes Mittel, um einen Produktionsprozess zu studieren und nützliche Hinweise auf die Folgen zu erhalten, die durch die Variation einer oder mehrerer Variablen im untersuchten System bestimmt werden können. Sie können eine interessante Lösung für die Bewertung der Faktoren sein, von denen angenommen wird, dass sie die Zuverlässigkeit des Betreibers beeinflussen. In diesem Kapitel werden Fuzzy Cognitive Maps auf die menschliche Zuverlässigkeit in Produktionssystemen untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12052-7_16 71103e39f9780aa2f238f00e5bfe2690;de;;;4.2.;;;Kontrolle von Wachsamkeit und Verhalten durch aufsteigende serotonerge Systeme Die zentralen serotonergen Neuronen sind Teil der (extrathalamischen) retikulokortikalen Projektionssysteme des Wirbeltiergehirns, die ihren Ursprung hauptsächlich im paramedianen und angrenzenden, seitlicheren Teil des retikulären Kerns des Hirnstamms haben. Aufsteigende Vorsprünge vom Raphe-Nucleus dorsalis enden in fast allen neo- und allokortikalen Bereichen sowie den Thalamuskernen, Basalganglien, Amygdaloidkomplex, Substantia nigra und Nucleus locus coeruleus, die Vorsprünge vom zentralen Nucleus superior innervieren bevorzugt die kortikalen Felder, Hippocampus-Formation, Septumbereich, basale Geruchszentren und viele hypothalamische Kerne. Es gibt eine gewisse komplementäre laminare Spezialisierung der terminalen Felder beider Systeme innerhalb des Neocortex, wobei sich Axone aus der dorsalen Raphe bevorzugt zu den tiefen Lamina und Axone aus der medianen Raphe zu den oberflächlichen Lamina verteilen. Im Allgemeinen gibt es innerhalb vieler Ziele eine Überlappung von Terminalfeldern von jedem aufsteigenden System. Aufgrund einer hohen Kollateralisierung ihrer aufsteigenden Hauptaxone innervieren einzelne Raphe-Neuronen mehrere Ziele entlang der Neuraxis. Weniger als 40 % der von serotonergen Axonen hergestellten Kontakte zu potentiellen Zielen zeigen Membranspezialisierungen, Serotonin (5-Hydroxytryptamin, 5-HT), das von diesen nicht-junktionalen Varikositäten freigesetzt wird, kann über den Extrazellulärraum weitreichende Wirkungen auf viele (nicht innervierte) Zellen ausüben (neuromodulatorische Wirkung). ). Einige der Serotonin-Neuronen synthetisieren zusätzlich zu 5-HT Peptide [Substanz P, Galanin, Thyrotropin-Releasing-Hormon (TRH), Enkephaline], die die Empfindlichkeit von 5-HT-Bindungsstellen beeinflussen können, abgesehen davon, dass sie über spezifische Peptidrezeptoren als Transmitter fungieren. Die Wirkung von 5-HT wird durch verschiedene Typen von Bindungsstellen auf die Zielzellen übertragen, die zu zwei Unterklassen der G-Protein-Superfamilie von Rezeptoren (gekoppelt an Adenylatcyclase oder gekoppelt an Phosphoinositid-Hydrolyse) und der ligandengesteuerten Ionenkanal-Superfamilie gehören belong . Die Anzahl (und die Empfindlichkeit) der 5-HT-l-Rezeptoren in limbischen Hirnregionen wird durch Sexualsteroide (hauptsächlich Östrogene) beeinflusst, ebenso die Verhaltensfolgen der 5-HT-l-Rezeptoraktivierung (z der Brunstzyklus).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-0341-4_14 05cf10b03cb3bd213cbfa0afe1b87a7b;de;;;5.2.;;;Der politische Quilt Kein Verständnis von Europa kann vollständig sein ohne ein gewisses Wissen darüber, wie das Muster des politischen Quilts von Nationen und Staaten entstanden ist – Teil eines Kontinuums sich verschiebender Grenzen und Loyalitäten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-16101-0_3 66e2b5816526c72dcaedd47b969edda0;de;;;4.2.;;;Abgestimmtes Design von Demand Response Programm und M-FACTS zur Entlastung in einem neu strukturierten Marktumfeld Dieses Papier befasst sich mit der abgestimmten Verwendung von flexiblen alternativen Stromübertragungssystemen (M-FACTS) mit mehreren Wandlern und Demand Response (DR) zur Durchführung von Engpassmanagement (CM) in der deregulierten Umgebung. Die starke Kontrollfähigkeit des M-FACTS bietet ein großes Potenzial bei der Lösung vieler Probleme, mit denen Energieversorger konfrontiert sind. Außerdem ist DR ein neuartiges Verfahren, das ein wirksames Instrument zur Reduzierung von Staus sein kann. Ein Marktclearing-Verfahren wird auf der Grundlage der Maximierung der sozialen Wohlfahrt (SW) und der Überlastung durchgeführt, da die Netzbeschränkung durch gleichzeitige Verwendung von DR und M-FACTS bezahlt wird. Ein Mehrzielproblem (MOP) basierend auf der Summe der Zahlungen, die die Generatoren für die Änderung ihrer Leistung erhalten, wird die Gesamtzahlung der DR-Teilnehmer zur Reduzierung ihrer Last und der M-FACTS-Kosten systematisiert. Zur Lösung dieses Problems wird ein auf nichtlinearer zeitvariabler Evolution (NTVE) basierender Multi-Objective Particle Swarm Optimization (MOPSO)-Stil gebildet. Fuzzy-Entscheidungsfindung (FDM) und Techniken zur Ordnungspräferenz durch Ähnlichkeit mit idealen Lösungen (TOPSIS) werden verwendet, um die beste Kompromisslösung aus der Menge von Pareto-Lösungen zu finden, die durch multi-objektive Partikelschwarmoptimierung erhalten wurden – nichtlineare zeitvariable Evolution (MOPSO-NTVE). In einem realen Stromsystem, dem regionalen Stromsystem von Aserbaidschan des Iran, werden vergleichende Analysen der Ergebnisse aus der Anwendung des DR & Unified Power Flow Controller (UPFC) und der DR & M-FACTS präsentiert.;-;-;-;https://link.springer.com/article/10.1007/s11708-015-0366-6 a3732f67fdfb952f66098599d65c45e0;de;;;5.2.;;;Neutrale Atomfallen für die Bose-Einstein-Kondensation Optisches und magnetisches Einfangen neutraler Atome, um ultrakalte und dichte Proben von Atomdämpfen zu erzeugen, ist ein neues Phänomen in der Physik, das in vielen Bereichen der Forschung eingesetzt werden kann. Die Beobachtung der Bose-Einstein-Kondensation (BEC) in verdünnten Dämpfen von Alkaliatomen [1–4] ist eine der faszinierenden Anwendungen dieser atomaren Einfang- und Kühltechniken. Für BEC muss man eine Probe von bosonischen Teilchen herstellen, deren thermische de Broglie-Wellenlänge den mittleren Atomabstand überschreitet. Unter dieser Situation begünstigt die Bose-Statistik die Kondensation aller Atome zu einem einzigen Quantenzustand des Systems [5]. Ein solcher Phasenübergang kann offensichtlich nur bei extrem niedrigen Temperaturen und relativ hohen Dichten von Boson-Teilchen beobachtet werden. Angetrieben durch die Suche nach hohen Dichten und sehr niedrigen Temperaturen von Atomdämpfen gab es in den letzten Jahren eine Vielzahl von Aktivitäten bei der Demonstration einer Vielzahl von neutralen Atomfallen [6, 7]. Diese haben es ermöglicht, dichte Proben atomarer Systeme bei beispiellos tiefen Temperaturen zur Beobachtung der kollektiven Quanteneffekte zu gewinnen. Andere Anwendungen dieser neutralen Atomfallen umfassen Spektroskopie mit sehr hoher Auflösung, Metrologie, nichtlineare Optik, Atomoptik und Teilchenphysik ohne Beschleuniger [8].;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4259-9_18 c377296b118d7efa716bb13cba937d18;de;;;5.2.;;;Finanzielle Probleme von Frauen Frauen sind mit einer Vielzahl von finanziellen Problemen konfrontiert. Diese können wie folgt kategorisiert werden: (1) Die Finanzkompetenz von Frauen ist geringer als die von Männern, aber Frauen sind sich des Defizits bewusst und suchen eher professionellen Finanzrat auf, (2) das Anlageverhalten von Frauen wird durch emotionale und verhaltensbedingte Faktoren beeinflusst, die die Investitionsergebnisse profitieren oder schaden, (3) Frauen innerhalb von Paaren sind stärker in finanzielle Entscheidungen eingebunden, wenn ihr Alter, ihre Bildung und ihr Einkommen denen ihrer Ehemänner entsprechen, (4) einkommensschwache Frauen versuchen, durch die Kombination hoher Kosten über die Runden zu kommen Kreditvergabe mit weniger zugänglichen Mainstream-Finanzprodukten, (5) die Armut älterer Frauen stellt eine besondere Herausforderung dar und wirkt sich negativ auf ihre geistige und körperliche Gesundheit aus, (6) über die westliche Welt hinaus haben Mikrofinanzinterventionen zur Stärkung der Frauen geführt und diese Stärkung hat zu ihrer eine größere Rolle bei der wirtschaftlichen Entscheidungsfindung einzunehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-28887-1_16 731ffda9edc1bbb675f5ef05cf7482f1;de;;;5.2.;;;Ein verbesserter Suchalgorithmus für Wolfskolonien, der auf gegenseitiger Kommunikation durch eine Sensorwahrnehmung von drahtlosen Netzwerken basiert Intelligenzoptimierungsalgorithmen haben eine wichtige Anwendung in der technischen Berechnung. Algorithmen zur Optimierung der Schwarmintelligenz gehören zur Klasse der intelligenten Algorithmen, die aus der Simulation der natürlichen biologischen Evolution oder des Nahrungssuchverhaltens abgeleitet werden. Aber diese Algorithmen weisen manchmal eine langsame Konvergenz auf, und für Probleme mit mehreren Spitzen fallen sie in der späteren Periode der Algorithmen leicht in die lokal optimale Lösung. Um diese Probleme zu lösen, werden in diesem Beitrag die Vorteile dieser Algorithmen und des Wolfskoloniensuchalgorithmus basierend auf der Strategie des Leader-Algorithmus (LWCA) genutzt, um einen verbesserten Wolfskoloniensuchalgorithmus mit der Strategie des Leader-Algorithmus vorzuschlagen ( ILWCA). ILWCA basiert auf gegenseitiger Kommunikation durch die Sensorwahrnehmung von drahtlosen Netzwerken und fügt eine globale Aktualisierungsstrategie und ein schrittweises Beschleunigungsnetzwerk hinzu. Darüber hinaus wird durch die Einführung des Konzepts der individuellen Dichte zur Darstellung der Verteilungsdichte des Wolfes das Problem übermäßiger Eingabeparameter des traditionellen Wolfsgruppenalgorithmus gelöst. Darüber hinaus erhöht der Algorithmus durch Hinzufügen des Weges der gegenseitigen Migration die Kommunikation zwischen Wölfen und stärkt die Gesamtleistung des Optimierungsprozesses. Schließlich zeigen die experimentellen Ergebnisse, dass der ILWCA-Algorithmus eine höhere Lösungsgenauigkeit und eine bessere Robustheit im Vergleich zur Genauigkeit und Robustheit von Partikelschwarmoptimierung (PSO), Gravitationssuchalgorithmus (GSA), Schwarmoptimierungsalgorithmus (SOA), Grauwolfoptimierer (GWO .) erreicht ) und genetische Algorithmen (GA).;-;-;-;https://link.springer.com/article/10.1186/s13638-018-1171-9 ab890cb6a6f856f032c23170d7473295;de;;;5.2.;;;Suche nach reellwertigen synaptischen Gewichten von Hopfields assoziativem Gedächtnis mit evolutionärer Programmierung Wir wenden evolutionäre Berechnungen auf das Hopfield-Modell des assoziativen Gedächtnisses an. Obwohl es viele Forschungen gab, die evolutionäre Techniken auf geschichtete neuronale Netze anwenden, sind ihre Anwendungen auf neuronale Hopfield-Netze bisher nur wenige. Zuvor haben wir berichtet, dass ein genetischer Algorithmus mit;-;-;-;https://link.springer.com/chapter/10.1007/BFb0014797 89ff09409987fe39ca1b23368859fe97;de;;;5.2.;;;Exeter beim CLEF 2001: Experimente mit maschineller Übersetzung für die zweisprachige Suche Die University of Exeter nahm an der zweisprachigen Aufgabe des CLEF 2001 teil. Die Hauptziele unserer Experimente bestanden darin, die Abrufleistung für verschiedene Themensprachen mit ähnlichen leicht verfügbaren maschinellen Übersetzungsressourcen zu vergleichen und die Anwendung neuer Pseudo-Relevanz-Feedback-Techniken, die kürzlich in Exeter entwickelt wurden, auf Cross-Language Information Retrieval (CLIR) zu untersuchen. Dieses Papier beschreibt auch neuere experimentelle Ergebnisse aus unseren Untersuchungen zur Kombination von Ergebnissen aus alternativen maschinellen Übersetzungsausgaben, insbesondere betrachten wir die Verwendung der Datenfusion der Ausgaben einzelner Abrufläufe und die Kombination von alternativen Themenübersetzungen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45691-0_5 c5e22430a66ab053a4ca91982022ed72;de;;;5.2.;;;Ein praktischer Ansatz für die Implementierung von Autoverify Die Autoverifizierung ist ein Prozess, bei dem Computersoftware automatisch Labortestergebnisse auswertet, die Ergebnisintegrität überprüft und die Ergebnisse dann ohne Eingriff eines Technikers an die Krankenhausschnittstelle freigibt. Freigabekriterien für die automatische Überprüfung sind benutzerdefiniert und können angepasst werden. Der Prozess der Entwicklung, Implementierung und Überwachung von Autoverify ist für die meisten Testergebnisse in der Labormedizin erreichbar. Die Verwendung der automatischen Verifizierung verbessert die Ergebnisqualität, steigert den Umsatz und sorgt für kürzere Durchlaufzeiten. All dies zusammen führt letztendlich zu einer verbesserten Kundenzufriedenheit. Computer und Autoverifikation sind Überlebenswerkzeuge im wettbewerbsorientierten Markt der Labordiagnostik.;-;-;-;https://link.springer.com/article/10.1007/s00769-003-0729-2 008207e2ede64477ddf1d02874e1deca;de;;;5.2.;;;Haupthindernisse für die Bereitstellung und Inanspruchnahme von psychiatrischen Diensten in Ländern mit niedrigem und mittlerem Einkommen: Eine Scope-Studie Der Bereitstellung von Dienstleistungen im Bereich der psychischen Gesundheit (MH) wurde insbesondere in Ländern mit niedrigem und mittlerem Einkommen (LMICs) unzureichende Aufmerksamkeit geschenkt. Ziel dieser Studie war es, die wichtigsten Hindernisse für die Bereitstellung und Nutzung von MH-Diensten in LMICs zu identifizieren. Von Januar 2000 bis November 2019 wurde eine umfassende Suche in 7 wichtigen Online-Datenbanken nach den wichtigsten Hindernissen für die Bereitstellung und Nutzung von MH-Diensten in LMICs durchgeführt. Für die Umfangsstudie wurde die fünfstufige Richtlinie von Arksey und O’Malley verwendet. Die extrahierten Daten wurden mithilfe einer qualitativen Inhaltsanalyse und eines thematischen Netzwerks synthetisiert. Drei Hauptthemen wurden als Hindernisse für die Bereitstellung von MH-Diensten in LMICs identifiziert, nämlich Ressourcen- und Verwaltungsbarrieren, Informations- und Wissensbarrieren sowie politische und rechtliche Barrieren. Auch Einstellungsbarrieren, strukturelle Barrieren, Wissensbarrieren und behandlungsbezogene Barrieren waren vier Hauptthemen, die in Bezug auf die Herausforderungen bei der Nutzung von MH-Diensten auftauchten. Der gleichberechtigte Zugang zu MH-Diensten in LMICs wird durch viele Hindernisse sowohl auf der Bereitstellungs- als auch auf der Nutzungsseite beeinflusst. Um diese Probleme zu lindern, könnten die Gesundheitssysteme einige Strategien anwenden, darunter die Integration von MH in die allgemeine Gesundheitspolitik, die Verbesserung des öffentlichen Bewusstseins für MH, die Entwicklung von Anti-Stigma-Programmen, die Umverteilung von Gesundheitsressourcen auf den dringendsten MH-Bedarf, die Entwicklung gemeindebasierter sowie die Integration der MH-Dienste in alle Ebenen der Gesundheitssysteme. Der Erfolg von Interventionsstrategien hängt vom Gewicht dieser Barrieren in verschiedenen sozioökonomischen Kontexten ab.;-;-;-;https://link.springer.com/article/10.1007/s10597-020-00619-2 b2f4d3351a9e437db2e1d629fdc3d4be;de;;;4.2.;;;Untersuchung der ungleichen Geschlechterverteilung in der Softwareentwicklung Dieser Beitrag untersucht die biologischen, psychologischen und gesellschaftlichen Gründe für die Ungleichheit von Frauen in der Software-Engineering-Branche und wie eine vielfältigere Belegschaft in diesem Sektor von Vorteil sein kann. Studien zeigen, dass Diversität in einem Unternehmen positiv mit seinen finanziellen Gewinnen korreliert. Darüber hinaus führt ein gravierender Frauenmangel in der Softwareentwicklung dazu, dass sich Unternehmen auf kleinere Talentpools beschränken, den kreativen Blick auf frische Ideen und Problemlösungen verringern. Es gibt oberflächlich inhärente Gründe, warum Computer mehr Männer als Frauen ansprechen. Beobachtungen in mehreren Berichten deuten darauf hin, dass Männer einen kleinen Vorteil haben können, wenn es um mathematische Fähigkeiten und Problemlösungskompetenzen geht. Darüber hinaus wird an anderer Stelle vermutet, dass die Interessen von Frauen in anderen Bereichen liegen, die mit „Menschen“ zusammenhängen, während Männer im Allgemeinen mehr an „Dingen“ interessiert sind. Während jedoch gesellschaftliche Faktoren und Voreingenommenheit eine Rolle bei der Entmutigung von Frauen aus der Software-Engineering-Branche spielen, haben Studien gezeigt, dass Länder mit geschlechter-ungegalitären Gesellschaften einen Anstieg der Zahl von Frauen in Software-Engineering und MINT aufweisen. Dies kann darauf hindeuten, dass geschlechtsspezifische Unterschiede in der Softwareentwicklung in erster Linie auf persönliche Entscheidungen zurückzuführen sind und nicht auf Diskriminierung oder Stereotypisierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-28005-5_51 3d39196e94fb28f3e6e5ef489ef4adeb;de;;;5.2.;;;Zur räumlichen Ausdehnung der Aufmerksamkeit bei der objektbasierten visuellen Selektion Ein neuer Test wurde entwickelt, um frühere Verwechslungen bei Messungen der objektbasierten Grenzen der geteilten visuellen Aufmerksamkeit zu vermeiden. Die Unterscheidung zwischen Objekten wurde über einen weiten räumlichen Bereich hinweg manipuliert. Zielelemente erschienen nur bei weitem Abstand auf demselben Objekt und nur bei unterschiedlichen Objekten nah, so dass Objekteffekte nicht auf räumliche Effekte reduziert werden konnten und umgekehrt. Die Probanden beurteilten, ob zwei ungerade Elemente innerhalb einer Anzeige mit zwei gestrichelten Linien gleich oder unterschiedlich waren. Sie schnitten besser ab, wenn die Zielelemente auf einer gemeinsamen Linie weit voneinander entfernt waren und nicht auf zwei verschiedenen Linien, obwohl die letztere Anordnung wahrscheinlicher war. So können auch über große Distanzen nicht-strategische objektbezogene Grenzen der geteilten Aufmerksamkeit entstehen. Wenn jedoch die Versuchspersonen darauf hingewiesen wurden, Ziele in einem schmalen Bereich der Anzeige zu erwarten, wurde der Objekteffekt eliminiert, was bedeutet, dass die objektbasierte Auswahl möglicherweise nur innerhalb räumlich überwachter Bereiche funktioniert.;-;-;-;https://link.springer.com/article/10.3758/BF03207556 d7a01acf2ba1d92fa2b9e1022d5e5aef;de;;;5.2.;;;Monte-Carlo-Methoden in der statistischen Mechanik: Grundlagen und neue Algorithmen Diese Notizen sind eine aktualisierte Version der Vorlesungen, die im Juni 1989 beim Cours de Troisième Cycle de la Physique en Suisse Romande (Lausanne, Schweiz) gehalten wurden. Wir danken dem Troisième Cycle de la Physique en Suisse Romande und Professor Michel Droz für die freundliche Genehmigung drucken Sie diese Notizen erneut aus.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-0319-8_6 edc4c549c6fedaa6012f5695abc1ed71;de;;;5.2.;;;Dimensionsreduktion, Komprimierung und Quantisierung für die verteilte Schätzung mit drahtlosen Sensornetzwerken Die verteilte Natur der Beobachtungen, die von kostengünstigen drahtlosen Sensoren gesammelt werden, erfordert die Übertragung der einzelnen Sensordaten unter strengen Bandbreiten- und Leistungsbeschränkungen. Diese Beschränkungen motivieren: i) ein Mittel zum Reduzieren der Dimensionalität von lokalen Sensorbeobachtungen, ii) Quantisierung von Sensorbeobachtungen vor der digitalen Übertragung und iii) Schätzer basierend auf den quantisierten digitalen Nachrichten. Diese drei Probleme werden in der vorliegenden Arbeit behandelt. Wir beginnen mit der Ableitung linearer Schätzer stationärer Zufallssignale basierend auf Beobachtungen mit reduzierter Dimensionalität. Für unkorrelierte Sensordaten entwickeln wir optimale Schätzer des mittleren quadratischen Fehlers (MSE) in geschlossener Form, während wir für korrelierte Sensordaten suboptimale iterative Schätzer herleiten, die Konvergenz zumindest zu einem stationären Punkt garantieren. Wir bestimmen dann untere und obere Grenzen für die Distortion-Rate (D-R)-Funktion und ein neues alternierendes Schema, das numerisch eine erreichbare obere Grenze der D-R-Funktion für die allgemeine verteilte Schätzung unter Verwendung mehrerer Sensoren bestimmt. Wir leiten schließlich verteilte Schätzer basierend auf binären Beobachtungen zusammen mit ihren fundamentalen Fehler-Varianz-Grenzen für pragmatische Signalmodelle her, einschließlich: i) bekannter univariate, aber im Allgemeinen nicht-Gaußsche Rauschwahrscheinlichkeitsdichtefunktionen (pdfs), ii) bekannte Rausch-PDFs mit einer endlichen Anzahl von unbekannte Parameter und iii) praktische Verallgemeinerungen auf multivariate und möglicherweise korrelierte PDFs. Schätzer, die entweder unabhängige oder farbige binäre Beobachtungen verwenden, werden entwickelt, analysiert und mit numerischen Beispielen getestet.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-48945-2_12 3eeb3f394b6617edafd1abe1e4151877;de;;;5.2.;;;Einzelne Störungen und optimale Kontrolle Diese Vorlesungsnotizen sollen einen grundlegenden Überblick über einige der jüngsten mathematischen Bemühungen bei der Anwendung der Theorie der singulären Störung auf optimale Regelungsprobleme geben, die praktische Bedeutung dieser asymptotischen Technik für aktuelle Ingenieurstudien aufzeigen und mehrere offene Probleme aufzeigen, die weiterer Forschung bedürfen. . Die Leser werden auf den Übersichtsartikel von Kokotovic, O'Malley und Sannuti verwiesen, um verwandte Themen zu diskutieren und zusätzliche Referenzen zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0065317 f3f600c5425db33810cd18a67263c550;de;;;5.2.;;;Energieeffiziente Schwarmbereitstellung für die Suche in unbekannten Umgebungen Dieses Papier stellt drei Strategien vor, um einen Roboterschwarm in unbekannten Umgebungen für eine Suchaufgabe einzusetzen, mit dem Ziel, die Gesamtenergiekosten des Schwarms durch einen schnellen Betrieb für Anwendungen wie Katastrophenschutz zu reduzieren. Unsere Motivation ist die aktuelle Forschung zu fliegenden Roboterschwärmen [10].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15461-4_61 93924bcb2ac1b2ad73b1a211e714e08b;de;;;5.2.;;;Suche mit Prolog Das Erkunden und Finden von alternativen Pfaden durch ein Netzwerk oder eine Baumstruktur ist oft notwendig, um Probleme zu lösen. Zwei Themen werden relevant: Suche, die sich auf die Methoden zur Untersuchung der Strukturen konzentriert, die die Problemdomänen beschreiben, und Kontrolle, wobei der Fokus darauf liegt, wie der Problemlöser diese Methoden auswählt und die Aufmerksamkeit zwischen ihren Teilprozessen verlagert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83213-0_8 af76396f46eedd25310dc8b732d4f680;de;;;5.2.;;;Bewertungen von Häufigkeit, Vertrautheit, orthographischer Unterscheidbarkeit und Aussprache für 192 Nachnamen Für eine Stichprobe von 192 Nachnamen, die nach dem Zufallsprinzip aus einem großen Telefonbuch eines Großraums ausgewählt wurden, wurden Bewertungen der Häufigkeit, Vertrautheit, orthographischer Unterscheidbarkeit und Aussprache erhalten. Zuverlässigkeitsmaße und die Interkorrelationen zwischen den verschiedenen Maßen weisen darauf hin, dass die vorliegenden Informationen für Untersuchungen zum Lernen und Erinnern von Namen nützlich sein können. Auch wenn bestimmte einzigartige Aspekte von Namensreizen wichtige Vorteile für Erforscher von verbalen Prozessen haben können, sollten sich die vorliegenden Bewertungen auch für Persönlichkeits- und Sozialpsychologen als nützlich erweisen, wenn Namen von Interesse sind.;-;-;-;https://link.springer.com/article/10.3758/BF03201625 5b91dd2ff0455985e32799f68b545e32;de;;;5.2.;;;Ein neuer sozialer Roboter für die interaktive, abfragebasierte Zusammenfassung: Zusammenfassung wissenschaftlicher Dokumente Die extraktiven Zusammenfassungsmethoden versuchen, ein einzelnes oder mehrere Dokumente basierend auf informativen Sätzen genau so zusammenzufassen, wie sie in der/den Quelle(n) erscheinen. Eine Methode, diese Sätze zu wählen, ist die Verwendung von Benutzeranfragen, was in vielen Fällen, insbesondere im wissenschaftlichen Kontext, problematisch sein kann. Eine Möglichkeit, diese Herausforderung anzugehen, besteht darin, mehr Informationen über den Benutzer und seine Präferenzen zu sammeln. Daher schlagen wir in diesem Papier ein neuartiges Framework vor, um die Rückmeldungen der Benutzer zu nutzen, und eine soziale Robotik-Plattform, Nao robot, wurde als interagierender Agent adaptiert. Dieser Agent verfügt über mehrere Kommunikationskanäle und könnte das Benutzermodell lernen und sich über einen Reinforcement-Learning-Ansatz an seine Bedürfnisse anpassen. Der gesamte Ansatz wird dann auf seine Anpassungsfähigkeit basierend auf dem Feedback des Benutzers und auch auf die Interaktionszeit untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-26118-4_32 307c8932556f2e7de2f5d3be1dc6875e;de;;;5.2.;;;Experimentelle Studie zum dynamischen Karteninformationslayout basierend auf Eye Tracking In der GIS-Systemschnittstelle belegt das Kartenmodul mehr als 90 % der Schnittstellengröße, was im Fokus der GIS-Schnittstellengestaltung steht. Es gibt eine große Anzahl von Zielen, Zielzeichen, Zielflugbahnen und anderen Informationen auf der Karte. Das Layout verschiedener Informationen ist überfüllt und überlappt, was es für Benutzer schwierig macht, Informationen zu suchen und zu identifizieren. Der Zweck dieses Papiers besteht darin, den Einfluss verschiedener Präsentationsformen von Zielzeichen auf die Effizienz der Benutzersuche zu untersuchen. In dieser Arbeit wurden 8 Arten von Überlappungen und 4 Arten von Zielzeichen-Layout-Anzeigen verwendet, um das Experiment zu entwerfen. In diesem Artikel wurden die Suchleistung von Probanden und das Blickdiagramm basierend auf Eye-Tracking-Daten analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-39512-4_189 cf59ebd6f8250572ca431f63c363e121;de;;;4.2.;;;Innovative akademische Wissenskommunikation mit Social Classroom Response Systemen Classroom Response Systems (CRS) unterstützen Lehrer dabei, während des Unterrichts Feedback von ihren Schülern zu erhalten, meist im Unterricht mit großem Publikum. Während diese Technologie immer häufiger verwendet wird, ist weniger bekannt, wie Schüler CRS wirklich für Feedback verwenden. Zudem wird der Aspekt der sozialen Kommunikation meist unterschätzt. Unsere Forschung konzentriert sich auf die soziale Kommunikation in modernen CRS und liefert Grundlagen in deren Kombination. Wir zeigen, wie soziale Kommunikation Lernen und Feedback beeinflusst. Darüber hinaus präsentieren wir eine Klassifizierung von CRS-Lernertypen basierend auf den Ergebnissen einer Evaluation, einschließlich der Antwort, welcher Lerntyp am meisten von einem CRS profitiert. Darüber hinaus präsentieren wir ein konzeptionelles und technisches Design eines Social CRS, das sich der sozialen Kommunikation und diesen Lerntypen bewusst ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25768-6_11 944ba0fc413a4a1e9b9c2ba029b83d54;de;;;4.2.;;;E-Learning über kulturelle Grenzen hinweg: Eine europäische Perspektive auf Technologieakzeptanz Diese Studie beginnt damit, den E-Learning-Transfer zwischen Ländern zu hinterfragen, indem lediglich der Text in eine andere Sprache übersetzt wird. Wir wenden die noch nicht ausreichend empirisch validierte Unified Theory of Acceptance and Use of Technology (UTAUT, [1]) an und verifizieren sie damit [2]. Unsere bikulturelle Stichprobe umfasst N = 732 Studenten und Doktoranden unter 30 Jahren aus Rumänien und Deutschland. Als erstes Ergebnis bieten wir empirische Evidenz für UTAUT auf breiterer Basis. Zweitens erweitern wir das UTAUT-Modell um den geographischen Standort des Moderators, die Akzeptanzmechanismen scheinen in den beiden Teilstichproben unterschiedlich zu sein. Drittens bestätigt eine Clusteranalyse die interkulturellen Unterschiede der Technologieakzeptanzvariablen. Abschließend stellen wir fest, dass die Übertragung von E-Learning-Konzepten und -Inhalten aus den alten in die neueren EU-Mitgliedsstaaten weit mehr erfordert als eine einfache Übersetzung, Akzeptanzfaktoren sind ein erster Aspekt, der berücksichtigt werden muss.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13166-0_38 02aa887100b646d9966ebc01073af363;de;;;5.2.;;;Ein Nutzermodellierungsansatz zur Unterstützung der Wissensarbeit in sozio-informatischen Systemen Der Aufstieg von sozio-computergestützten Systemen wie kollaborativen Tagging-Systemen, die stark auf nutzergenerierten Inhalten und sozialen Interaktionen angewiesen sind, hat unsere Art zu lernen und zu arbeiten verändert. Ziel dieser Arbeit ist es, die Potenziale dieser Systeme zur Unterstützung der Wissensarbeit in organisatorischen und wissenschaftlichen Bereichen zu erforschen. Aus diesem Grund wird ein Ansatz zur Benutzermodellierung entwickelt, der es ermöglicht, den Inhalt durch personalisierte Dienste an die individuellen Informationsbedürfnisse von Anfängern, fortgeschrittenen und erfahrenen Wissensarbeitern anzupassen. Die Neuheit dieses Ansatzes ist eine Modellierungsstrategie, die Benutzermodellierungsmerkmale aus unterschiedlichen Forschungsbereichen, die emergenten Eigenschaften der sozio-informatischen Umgebung sowie nicht-invasive Methoden der Wissensdiagnostik basierend auf der vergangenen Interaktion des Benutzers mit dem System kombiniert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22362-4_49 af3fdff3dee05ef20b9dd0ede510e8c9;de;;;5.2.;;;Anwendungen mit Strings und Text Im letzten Kapitel wurden Ihnen Arrays vorgestellt und Sie haben gesehen, wie die Verwendung von Arrays mit numerischen Werten viele Programmieraufgaben erheblich erleichtern kann. In diesem Kapitel erweitern Sie Ihr Wissen über Arrays, indem Sie untersuchen, wie Sie Arrays von Zeichen verwenden können. Sie müssen häufig mit einer Textzeichenfolge als einzelne Entität arbeiten. Wie Sie sehen werden, stellt Ihnen C keinen String-Datentyp zur Verfügung, wie es einige andere Sprachen tun. Stattdessen verwendet C ein Array von Elementen vom Typ char, um einen String zu speichern.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-0243-1_6 27aa1ae45fba8db7d54afa06e92464ff;de;;;5.2.;;;Anlageverfahren und das weitere Zusammenspiel mit der Brüssel Ia-Verordnung Dieser Beitrag befasst sich mit dem Zusammenhang zwischen der Neufassung der Brüssel-I-Verordnung und der Europäischen Insolvenzverordnung in Bezug auf Verfahren mit Insolvenzbezug. Es ist unabdingbar, diese Verfahren in den Anwendungsbereich der einen oder anderen Verordnung einzuordnen, da sie die anwendbaren Zuständigkeitsregeln und unterschiedliche Möglichkeiten zur Versagung der Anerkennung oder Vollstreckung einer Entscheidung festlegt. In dem Beitrag wird untersucht, welche Arten von Klagen als „unmittelbar aus dem Insolvenzverfahren hervorgegangen und mit diesen eng verbunden“ (Anhangsverfahren) qualifiziert werden können und damit unter die Europäische Insolvenzverordnung fallen. Auch die Möglichkeit, sich auf diese Regelung gegenüber Drittstaatsbeklagten zu berufen, und die Ausschließlichkeit der Zuständigkeit in Annexverfahren werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s12027-015-0396-x 91699d7e5aac0c2ffa2c4f8379c701ae;de;;;5.2.;;;Deuterierte Arten in Sternentstehungsregionen Im ISM [1]–[6] wurde kürzlich eine Reihe von mehrfach deuterierten Molekülspezies nachgewiesen, deren Häufigkeiten weit über den früheren theoretischen Erwartungen liegen. Detaillierte Bildungsmechanismen für diese Spezies sind noch nicht zufriedenstellend geklärt, aber neuere Berechnungen von Roberts et al. [7] zeigen, dass die Einbeziehung von HD;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18902-9_86 4193a046aca363ee7974e2ef5f4ca248;de;;;4.2.;;;Auf dem Weg zu epistemischer Gerechtigkeit mit dem Wissen indigener Völker? Erkundung der Potenziale der Konvention zur biologischen Vielfalt und der Philosophie der Ungeachtet der erheblichen Aufmerksamkeit, die dem indigenen Wissen in zeitgenössischen Governance-Rahmen gewidmet wird, bestehen historische epistemischen Ungleichheiten fort. Dieser Artikel verwendet das Konzept der epistemischen Gerechtigkeit, um zwei Governance-Rahmen gegenüberzustellen, die oberflächlich ähnliche Ambitionen haben, nämlich ein internationales Abkommen (Convention on Biological Diversity (CBD)) und eine indigene Philosophie (;-;-;-;https://link.springer.com/article/10.1057/dev.2014.6 ff2c17c24e04bcb9c8848208b17716d3;de;;;4.2.;;;RSMOTE: Verbesserung der Klassifikationsleistung gegenüber unausgewogenen medizinischen Datensätzen Die medizinische Diagnose ist ein entscheidender Schritt für die Patientenbehandlung. Die Diagnose ist jedoch aufgrund unausgewogener Datensätze anfällig für Verzerrungen. Um das Problem des unausgeglichenen Datensatzes zu überwinden, wurde eine einfache Minoritäts-Oversampling-Technik (SMOTE) vorgeschlagen, die neue synthetische Stichproben auf Datenebene generieren kann, um das Gleichgewicht zwischen Minoritäts- und Mehrheitsklassen herzustellen. Die synthetischen Proben werden jedoch auf einer zufälligen Basis erzeugt, was ein Klassenmischungsproblem verursacht und somit zu einer Verschlechterung der Klassifizierungsleistung und einer verzerrten Diagnose führt.;-;-;-;https://link.springer.com/article/10.1007/s13755-020-00112-w a24f98b33d93e479d63e3be18cdc76fe;de;;;4.2.;;;Potenzial und Grenzen des Lokalradios bei der Informationszugänglichkeit in Ghana Im September 2006 gingen die Ghanaer zur Wahl, um die Mitglieder der Distriktversammlung für die 138 Distrikte zu wählen. Vor den Wahlen 2006 fanden 1988, 1994, 1998 und 2002 Wahlen zu Distriktversammlungen (DAs) statt. Es ist herzerwärmend, darauf hinzuweisen, dass ein gewähltes Kommunalverwaltungssystem seit mehr als anderthalb Jahrzehnten funktioniert und vier Auch in Ghana fanden aufeinanderfolgend freie, faire, transparente und friedlich durchgeführte Parlamentswahlen für eine konstitutionelle Demokratie statt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-2006-5_12 b8bc2106bed23ccfc756a3492378dc3b;de;;;5.2.;;;Translationale Merkmale von Kompetenzen in der Gesundheitsinnovation Da soziale Probleme wie eine alternde Gesellschaft und die Nachhaltigkeit der Gesundheitssysteme immer wichtiger werden, müssen Entscheidungsträger im Gesundheitswesen die menschlichen Faktoren identifizieren, die die Leistungsfähigkeit von Gesundheitsfachkräften wie Pflegepersonal ausmachen. Aufgrund einer alternden Bevölkerung und technologischer Innovationen wächst die Gesundheitsbranche schnell, in der Pflegekräfte die größte Berufsgruppe darstellen. In einem solchen Kontext ist der Zweck dieses Kapitels die Klärung der;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-981-13-0370-8_50-1 86dae5916490f2616dc496a519fad34f;de;;;4.2.;;;Auf dem Weg zu Web 2.0-verbessertem E-Government in der Kleinstadt Pennsylvania Dieses Kapitel über die Einführung und Nutzung von Web 2.0-Technologien durch lokale Regierungen in Pennsylvania ist Teil eines laufenden Forschungsprojekts zur Untersuchung der Art und des Umfangs von Kooperationsinitiativen zwischen öffentlichen und akademischen Einrichtungen in kleinen Hochschulstädten zur Unterstützung von E-Government-Innovationen. In dieser Forschung wird E-Government als soziotechnisches, dynamisches System betrachtet, das sich in einem komplexen Kontext (Mensch, Technologie und Standort) befindet. Die Fallstudie wurde von einer Kombination aus sozio-technischer Theorie und Grounded Theory geleitet. Eine Studie einer Gemeinde in Zentral-Pennsylvania (USA) zeigte das transformative Potenzial von E-Government durch die Einführung von Web 2.0-Technologien. Die städtische Social-Media-Toolbox bot den Bürgern eine Vielzahl ergänzender, aber einzigartiger Möglichkeiten (z. B. Facebook und Twitter), um mit ihrer Stadtverwaltung und ihren verschiedenen Abteilungen in Verbindung zu bleiben. Die Studie identifizierte vier Hauptzwecke der Integration sozialer Medien, darunter Notfallbenachrichtigung, Bürgerbeteiligung, öffentliche Sicherheit und Werbung für die offizielle kommunale Website. Dieser Fall stellt ein Kontinuum der Einführung von E-Government und der kommunalen Transformation dar, von der Bewältigung von Problemen und Herausforderungen auf dem Weg zu erfolgreichen Lösungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08081-9_3 e22e250d6018cbc88501f7b0ac91c275;de;;;4.2.;;;„Ich bin ein stolzer Israeli“: Homonationalismus, Zugehörigkeit und die Unsicherheit der jüdisch-israelischen Körperschaft national Die Rubrik „Rechte von Homosexuellen in Israel“, Teil der Website gaytlvguide.com, die das Leben und die Kultur von Homosexuellen in Israel fördert, erzählt von Israel als „… eines der fortschrittlichsten Länder der Welt in Bezug auf die Gleichstellung sexueller Minderheiten… bei weitem das toleranteste Land der Mitte“ Ostland gegenüber Homosexuellen“. Die Art und Weise, in der Israel seine raumkulturelle Ausnahmestellung und den Anstieg der LGBT-Diskurse über nationale Inklusion in Israel und darüber hinaus positioniert hat, wurde bereits von Jasbir Puar als „Homonationalismus“ identifiziert. Dieser Artikel fragt jedoch, wie. Wie kommen nämlich homonationale Diskurse dazu, queere Bevölkerungen als national loyale Subjekte hervorzubringen und zu begrüßen? Ich schlage vor, dass, um die jubelnde Kraft homonationaler Diskurse in Israel und darüber hinaus besser zu verstehen, Theorien über national-zivilisatorische Zugehörigkeit, Affekt und Interpellation neu bewertet und die Unsicherheit im Herzen des national-zivilisatorischen Gebäudes hinterfragt werden müssen. Um dies zu tun, stützt sich der Artikel auf lacanische psychoanalytische Instrumente, während ich den Ansatz der israelischen Verteidigungskräfte (IDF) gegenüber LGBT-Rekruten sowie den Anstieg der LGBT-Kampagnen auf der politischen Rechten untersuche.;-;-;-;https://link.springer.com/article/10.1057/s41282-018-0093-0 0a1b7e3c20bcdd0d96d8fc602f5ee7a5;de;;;4.2.;;;„Gemeinsam in der Schule“ – ein schulbasiertes Interventionsprogramm zur Förderung sozio-emotionaler Fähigkeiten und psychischer Gesundheit bei Kindern: Studienprotokoll für eine randomisierte kontrollierte Clusterstudie Schulen bieten einen natürlichen Kontext, um die psychische Gesundheit von Kindern zu fördern. Es besteht jedoch Bedarf an mehr evidenzbasierten, qualitativ hochwertigen Schulinterventionsprogrammen in Kombination mit einer genauen Bewertung ihrer allgemeinen Wirksamkeit und der Wirksamkeit spezifischer Interventionsmethoden. Ziel dieser Arbeit ist es, ein Studienprotokoll einer randomisierten kontrollierten Clusterstudie zur Evaluierung des Interventionsprogramms „Together at School“ vorzustellen. Das Interventionsprogramm wurde entwickelt, um sozial-emotionale Fähigkeiten und psychische Gesundheit durch einen ganzheitlichen Ansatz zu fördern und konzentriert sich auf den Lehrplan, das Arbeitsumfeld des Schulpersonals und Methoden der Eltern-Lehrer-Zusammenarbeit.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-14-1042 22b2ac56f3fbdf302c458bb764b7b106;de;;;4.2.;;;Zusammenführung des sozialen Netzwerks der Benutzer in das Random-Walk-Modell für eine bessere Gruppenempfehlung Derzeit werden die meisten Empfehlungsansätze verwendet, um Wertgegenstände für einzelne Benutzer vorzuschlagen. Aufgrund der sozialen Natur des Menschen sind Gruppenaktivitäten jedoch zu einem festen Bestandteil unseres täglichen Lebens geworden, so dass die Popularität von Gruppenempfehlungssystemen in den letzten Jahren zugenommen hat. Leider geben die meisten existierenden Ansätze, die in Gruppenempfehlungssystemen verwendet werden, Empfehlungen durch Aggregation individueller Präferenzen oder individueller Vorhersageergebnisse, anstatt die sozialen Merkmale der Benutzer umfassend zu untersuchen, die ihre Entscheidungen innerhalb einer Gruppe bestimmen. Daher schlagen wir einen neuen Gruppenempfehlungsansatz vor, der das soziale Netzwerk der Benutzer in das Random Walk mit Neustartmodell einbezieht und die inhärenten Assoziationen zwischen Gruppenmitgliedern auf verschiedene Weise erkennt, was uns helfen kann, die Gruppenpräferenz besser zu beschreiben und die Leistung von Gruppenempfehlungssystemen zu verbessern. Darüber hinaus wenden wir auf der Grundlage vielfältiger Assoziationseinbindungen im Empfehlungsprozess eine Methode der partitionierten Matrixberechnung an, um Rechen- und Speicherkosten zu sparen. Die endgültigen Experimentergebnisse des realen CAMRa2011-Datensatzes zeigen, dass der vorgeschlagene Ansatz nicht nur die Präferenzen von Gruppen effektiv vorhersagen kann, sondern auch eine schnellere Leistung und stabilere als andere Basismethoden aufweist.;-;-;-;https://link.springer.com/article/10.1007/s10489-018-1375-z 9a2519853090eb261bfe2baaf05f30e8;de;;;4.2.;;;Schüler mit Lernschwierigkeiten und leistungsschwache Schüler: Akzeptanz unter Gleichaltrigen, Einsamkeit, Selbstwertgefühl und Depression Die vorliegende Studie konzentriert sich auf die folgenden Fragen: (a) Sind Schüler mit Lernschwierigkeiten (LD) und leistungsschwache Schüler (LA), wenn Alter und Geschlecht kontrolliert werden, werden sie von Gleichaltrigen weniger akzeptiert, fühlen sie sich einsamer, haben sie ein geringeres Selbstwertgefühl und fühlen sie sich deprimierter als NLD- und NLA-Studenten? (b) Beeinflusst die geringe Leistung per se oder die Auswahl in Sonderschulprogrammen oder Sonderklasseneinteilung von Schülern mit LD die psychologische Anpassung dieser Schüler? Zur Klärung dieser Fragen wurden zwei Analysen durchgeführt. Bei der ersten Frage basierte die Analyse auf einer Stichprobe von 1.434 Schülerinnen und Schülern der 4., 7. und 9. Klasse aus Regelschulklassen. Es zeigte sich, dass Schüler mit LD im Vergleich zu NLD- und NLA-Schülern von Gleichaltrigen weniger akzeptiert wurden, ein geringeres Selbstwertgefühl hatten und sich einsamer fühlten. LA-Studenten im Vergleich zu NLD- und NLA-Studenten wurden von Gleichaltrigen weniger akzeptiert, hatten ein geringeres Selbstwertgefühl und waren mehr depressiv. Bezüglich der zweiten Frage basierte die Analyse auf einer Teilstichprobe von 276 LD- und LA-Studenten. Es zeigte sich, dass LD-Studenten im Vergleich zu LA-Studenten weniger deprimiert waren, aber von Gleichaltrigen weniger akzeptiert wurden und sich einsamer fühlten, wenn Alter und Geschlecht kontrolliert wurden und die Leistungen in Lesen, Schreiben, Rechnen und Intelligenz konstant gehalten wurden. Neben den Auswirkungen geringer schulischer Leistungen kann die Bezeichnung „Schüler mit LD“ daher vor allem negative Auswirkungen auf die Akzeptanz der Gleichaltrigen und direkt und indirekt auf das Gefühl der Einsamkeit haben, insbesondere in der Grundschule.;-;-;-;https://link.springer.com/article/10.1023/A%3A1009626828789 753aae2eae185e283aeee807d7e0d18e;de;;;5.2.;;;Wohlstandshindernisse: Die schädlichen Auswirkungen von Einreisebestimmungen auf die Einkommensungleichheit Einreisebestimmungen, einschließlich Gebühren, Genehmigungen und Lizenzen, können es für Personen mit niedrigem Einkommen unerschwinglich machen, in vielen Branchen Fuß zu fassen, selbst auf der Einstiegsebene. Als solche erhöhen diese Vorschriften die Einkommensungleichheit, indem sie entweder den Zugang zu höher bezahlten Berufen verhindern oder Einzelpersonen, die sich für eine illegale Einreise und die Erbringung nicht lizenzierter Dienstleistungen entscheiden, Kosten auferlegen. Um diesen Zusammenhang empirisch abzuschätzen, kombinieren wir Daten zu Einreisebestimmungen aus dem Doing Business Index der Weltbank mit verschiedenen Maßen der Einkommensungleichheit, darunter Gini-Koeffizienten und Einkommensanteile, um ein Panel von 115 Ländern zu bilden. Wir stellen fest, dass Länder mit strengeren Einreisebestimmungen tendenziell eine größere Einkommensungleichheit aufweisen. In Ländern mit durchschnittlicher Ungleichheit ist die Erhöhung der Anzahl der für die Gründung eines neuen Unternehmens erforderlichen Verfahren um eine Standardabweichung mit einem Anstieg des Einkommensanteils des obersten Dezils um 7,2 % und einem Anstieg des Gesamteinkommens um 12,9 % verbunden Koeffizient. Dieses Ergebnis ist robust gegenüber dem Maß von Ungleichheit, Gründungsvorschriften und potenzieller Endogenität. Wir schließen mit mehreren politischen Empfehlungen ab, die darauf abzielen, die negativen Auswirkungen von Einreisebestimmungen zu minimieren.;-;-;-;https://link.springer.com/article/10.1007/s11127-018-0498-4 cb72330f1c3de22aef65ea128df7c48a;de;;;4.2.;;;CSR in Deutschland: Eine europäische Perspektive Das Kapitel beginnt mit einer kurzen Diskussion der Wurzeln von CSR und analysiert dann die Rolle von CSR innerhalb der Europäischen Union. Anschließend konzentriert sie sich auf CSR in Deutschland und behauptet, dass im Land kaum eine eigenständige CSR-Bewegung entstanden sei. Stattdessen übernahm Deutschland vor allem Impulse aus der internationalen und europäischen Diskussion, die in die bereits bestehenden sozialen Systeme und Institutionen integriert wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-34261-6_8 7a94a233829e959e4bbf1e5ebf41106c;de;;;4.2.;;;Auf dem Weg zu flexibler Teamarbeit in persistenten Teams: Erweiterter Bericht Teamwork ist eine kritische Fähigkeit in Umgebungen mit mehreren Agenten. Viele derartige Umgebungen verlangen, dass die Agenten und Agententeams persistent sein müssen, d. h. über lange Zeiträume existieren. Agenten in solchen hartnäckigen Teams sind durch ihre langfristigen gemeinsamen Interessen und Ziele verbunden. Dieses Papier konzentriert sich auf die flexible Teamarbeit in solchen hartnäckigen Teams. Während in früheren Arbeiten flexible Teamarbeit untersucht wurde, bleiben hartnäckige Teams leider unerforscht. Für flexible Teamarbeit hat sich ein vielversprechender Ansatz herauskristallisiert, der modellbasiert ist, d. h. Agenten allgemeine Modelle der Teamarbeit zur Verfügung zu stellen, die ihre Verpflichtungen in der Teamarbeit explizit spezifizieren. Solche Modelle ermöglichen es Agenten, autonom über Koordination nachzudenken. Leider können solche Modelle bei hartnäckigen Teams zu Koordinations- und Kommunikationsaktionen führen, die zwar lokal optimal sind, aber für die langfristigen Ziele des Teams höchst problematisch sind. Wir präsentieren eine entscheidungstheoretische Technik, die auf Markov-Entscheidungsprozessen basiert, um hartnäckigen Teams zu ermöglichen, solche Einschränkungen des modellbasierten Ansatzes zu überwinden. Insbesondere argumentieren Agenten über erwartete Teamnutzen zukünftiger Teamzustände, die voraussichtlich aus Aktionen resultieren, die vom Teamwork-Modell empfohlen werden, sowie über kostengünstigere (oder kostenintensivere) Variationen dieser Aktionen. Um Echtzeitbeschränkungen Rechnung zu tragen, wird diese Argumentation jederzeit durchgeführt. Es werden implementierte Beispiele aus einem analytischen Suchbaum und einige reale Domänen vorgestellt.;-;-;-;https://link.springer.com/article/10.1023/A%3A1010026728246 46a1ac21b301ec9ca898870299b75ff8;de;;;5.2.;;;Hoffnung, Verzweiflung, Freunde – Welles in Rom, Berlin und Paris, 17. Februar–12. März 1940 , die Mission, die er und Roosevelt entwickelt hatten, hatte sich von ihrem ursprünglichen Konzept so weit entwickelt, dass Welles in seinen Gesprächen in den europäischen Hauptstädten eine Reihe von Zielen vorbringen konnte.;-;-;-;https://link.springer.com/chapter/10.1057/9780230604896_5 7d4b257f40e48f74af1a39616c3c2a34;de;;;5.2.;;;Plasmakinetik in einem elektrischen Wechselfeld Betrachten Sie ein Plasma, das sich in einem homogenen elektrischen Feld befindet. Unter dem Einfluss dieses Feldes haben die Elektronen und Ionen keine Gleichgewichtsverteilungsfunktionen mehr – sie werden in Feldrichtung beschleunigt. Diese beschleunigte Bewegung wird durch Kollisionen der Elektronen mit den Ionen, aber auch mit den Molekülen und Atomen verlangsamt. Durch diese beiden Prozesse – Beschleunigung durch das Feld und Abbremsung durch die Stöße – stellt sich im stationären Zustand eine gewisse stationäre Ungleichgewichtsverteilung der Elektronengeschwindigkeiten ein. Die Aufgabe der Theorie besteht darin, diese Verteilung zu bestimmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-87649-3_2 e35c831c80d358ad350f426bacb8b5ff;de;;;5.2.;;;Von Hitchcock Birds inspirierter Algorithmus In dieser Studie wird ein neuer Optimierungsalgorithmus namens Hitchcock Birds Inspired Algorithm (HBIA) vorgestellt, der von dem aggressiven Vogelverhalten inspiriert ist, das Alfred Hitchcock im 1963er Thriller „The Birds“ porträtiert hat. Beim Sammeln von Elementen über das Phänomen der Vögel im gesamten Film ist es möglich, Merkmale des Verhaltens der Vögel aufzuzählen, die Hitchcock im Film porträtiert hat. HBIA ist ein stochastischer Schwarmintelligenz-Algorithmus, der die Essenz des von Hitchcock enthüllten fiktiven Verhaltens von Vögeln erfasst und einen Optimierungsmechanismus modelliert. Der Algorithmus basierte auf dem Angriffsmuster von Vögeln im Film, das die Stadien des Anpirschens, Angriffs und Reorganisierens aufweist, definiert durch die Initialisierung, Bewegungsstrategien im Suchraum bzw. Strategie der lokalen minimalen Flucht. Die Technik hat als Differenz die Verwendung adaptiver Parameter, eine diskretisierte zufällige Initialisierung und die Verwendung der Beta-Verteilung. Im Vergleich zu SCA, WOA, TLBO und VS wird die Leistung von HBIA durch mehrere Experimente untersucht, die in acht Kostenfunktionen implementiert sind. Die Ergebnisse zeigen, dass die HBIA in der Mehrzahl der bewerteten Kostenfunktionen im Vergleich zu den anderen vier Methoden zufriedenstellendere Lösungen in hoher Dimensionalität finden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98446-9_16 96c9550baef2ba11e005fbac7a0461f4;de;;;4.2.;;;Die frühen Institutionalisten zur Arbeits- und Gewerkschaftsdemokratie Der Begriff „Industrielle Demokratie“ hat heute zumindest in den USA einen eher kuriosen Klang und ist in akademischen oder praktischen Arbeitsbeziehungen selten anzutreffen. Ebenso wird die Arbeit der frühen institutionellen Ökonomen von modernen IR-Wissenschaftlern selten zitiert und noch seltener gelesen. Warum also diesen intellektuellen Boden umpflügen, wenn er so lange brach lag?;-;-;-;https://link.springer.com/article/10.1007/s12122-000-1043-y ff94e053c2ac785b1b45cc9ca52315f9;de;;;4.2.;;;ACT mit chronischen Schmerzpatienten Schmerzen, die über Monate und Jahre anhalten, haben einen tiefgreifenden Einfluss auf das Leben des Betroffenen. Viele chronische Schmerzpatienten entwickeln eine komorbide Depression, sie nehmen die medizinische Versorgung übermäßig in Anspruch und fühlen sich durch die Behandlung, die sie erhalten, ungerecht behandelt, viele verlassen ihren Arbeitsplatz, werden behindert und gewöhnen sich an einen Lebensstil, der bestenfalls eine leichte Ähnlichkeit mit dem hat, was sie sich einst vorgestellt haben möglich. Chronische Schmerzen werden durch zahlreiche psychosoziale Faktoren beeinflusst, darunter biologische Faktoren sowie der soziokulturelle Hintergrund des Patienten, Überzeugungen, Erwartungen und Emotionen (Turk & Okifuji, 2002). Die Erfolgsraten der ärztlichen Behandlung sind bei Patienten mit akuten Schmerzen hoch, bei Patienten mit chronischen nichtmalignen Schmerzen jedoch enttäuschend. Die häufigsten Quellen von nicht krebsbedingten Schmerzen sind (in abnehmender Häufigkeit) Rücken, Kopf, Gelenke, Extremitäten, Brust, Bauch und andere Bereiche. Da die meisten Patienten mit chronischen Schmerzen Schmerzen in mehreren Bereichen haben, haben die meisten medizinischen Dienstleister Schwierigkeiten, alle Schmerzquellen zu beurteilen und zu behandeln und innerhalb der Zeitbeschränkungen der geschäftigen Primärversorgungspraxen zu bleiben. Viele Patienten werden an Spezialisten überwiesen und unterziehen sich teuren, erfolglosen, invasiven Eingriffen – oft wiederholt. Das Problem ist nicht auf Erwachsene beschränkt: Auch Kinder und Jugendliche entwickeln therapierefraktäre Schmerzsymptome, die zu schweren Behinderungen führen (Kashikar-Zuck, Graham, Huenefeld & Powers, 2000). Die Forschung ist mit erwachsenen Bevölkerungsgruppen (Morley, Eccleston & Williams, 1999) umfangreicher als mit pädiatrischen Schmerzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-23369-7_13 f7bc7a9e71b580359f469fbb1499a87c;de;;;4.2.;;;Variationen der Pflegekosten In den letzten Jahren wurden zunehmend Bedenken hinsichtlich der Kosten der Sozialfürsorge geäußert. Dies ist, wie wir bereits gesehen haben, teilweise auf die Erfahrungen mit Rezession und fiskalischem Druck zurückzuführen. Sie ergibt sich auch aus der Erkenntnis, dass ein allmählich zunehmender Anteil der Gesamtbevölkerung im Hinblick auf ihr persönliches und soziales Wohlergehen ganz oder teilweise von Sozial- und Gesundheitseinrichtungen abhängig ist. Ein dritter Grund zur Besorgnis ergibt sich aus der Erkenntnis, dass diese Kosten zwischen und innerhalb lokaler Gebietskörperschaften stark variieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-17708-0_9 9a2ebe9880ed455b3a644677e0559ac9;de;;;4.2.;;;Innovative Wege zur Verbesserung der Marihuana-Behandlung bei Jugendlichen: Zusammenspiel von Peer-Einfluss über Social Media und Geolocation Das Verhalten von Gleichaltrigen hat einen großen Einfluss auf die Entscheidungsfindung junger Menschen, ob sie Marihuana konsumieren sollen. Social Media, als beliebte Form der Peer-Interaktion, hat den Peer-Einfluss auf den Marihuana-Konsum von „persönlichen“ auf „online“-Beziehungen ausgedehnt. Dies ist sehr besorgniserregend, da Jugendliche ihren Marihuanakonsum in den sozialen Medien melden können;-;-;-;https://link.springer.com/article/10.1007/s40429-016-0095-x f042b78810556181068b6872a9e89141;de;;;5.2.;;;Musterdesign Nachdem man sich entschieden hatte, eine Screening-Befragung der Allgemeinbevölkerung durchzuführen, was eindeutig kostspielig wäre, war es von entscheidender Bedeutung, ein Stichprobendesign zu suchen, das die Forschungsziele mit minimalen Kosten erfüllt. Dieses Kapitel beschreibt das Design, das entwickelt wurde, um eine kleine Untergruppe zu untersuchen, die in der allgemeinen Bevölkerung weit verbreitet ist. Wir beschäftigen uns mit den Problemen, die sich aus dichtem Clustering ergeben, und berichten über die berechneten Designeffekte für diesen Stichprobenplan.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-04060-5_6 8e917b74c186d8ff7236464f0e8da4fd;de;;;5.2.;;;Die Ausnahme für die öffentliche Ordnung gemäß dem neuen HCCH-Urteilübereinkommen von 2019 Die Ausnahme der öffentlichen Ordnung ist von Natur aus ein flüssiges Gerät. Ihr Inhalt ist grundsätzlich jedem Staat überlassen. Eine gemeinsame öffentliche Ordnung ist eine Ausnahme. Daher wird der Verpflichtung zur einheitlichen Auslegung, wie sie in Artikel 20 des Urteilsübereinkommens von 2019 vorgesehen ist, hier eine inhärente Grenze gesetzt. Darüber hinaus überlässt das Übereinkommen einige wichtige Fragen, einschließlich des Verfahrens, den nationalen Vorschriften. Jedem ersuchten Staat steht es frei, sich in einem konkreten Fall auf die Ablehnungsgründe des Übereinkommens zu berufen und ob er eine;-;-;-;https://link.springer.com/article/10.1007/s40802-020-00157-4 af65c8524320fbfe9f92813bbcd41b74;de;;;5.2.;;;Rekurrente neuronale Netze in einer mobilen Roboternavigationsaufgabe Rekurrente neuronale Netze werden auf die Vorwärtsmodellierung des sensomotorischen Flusses eines mobilen Miniaturroboters angewendet. Es wird gezeigt, dass der Roboter in der Lage ist, den Sinnesfluss einige Schritte vorauszusagen, was für einfache Umgebungen ausreicht. Das vorgeschlagene Verfahren erfordert hauptsächlich topologische Informationen (wenig geometrische Informationen werden verwendet), was das Problem erheblich vereinfacht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-6230-9_41 870b6f61123d2df1bae13d672118dabc;de;;;5.2.;;;Das Marktparadigma Die Kreditkrise besteht noch immer und wird möglicherweise noch einige Zeit andauern, da der Schock für das System tief und tief war und weit über den Punkt hinausging, an dem es sich schnell erholen könnte, als ob es sich von einem vorübergehenden Abschwung, wie er in allen Volkswirtschaften ist, erholen würde erwarten, dass es regelmäßig passiert. Hier sind althergebrachte Praktiken und Annahmen durcheinander geraten, zumal diese auf dem Glauben an die Selbstkorrektur des Marktes beruhten. Märkte, so glaubte man fast überall in der Finanzwelt, würden immer zum Gleichgewicht tendieren, wenn sie ohne Einmischung von außen ihren Geschäften nachgehen könnten (daher die konzertierte Opposition gegen jede bedeutende Rolle der Regierung in ihrer Funktion): Investoren waren rationale Wesen und würden daher immer handeln, um ihr Eigeninteresse zu schützen. Das war in diesem Fall offensichtlich nicht der Fall, ebenso wenig wie beim Wall-Street-Crash von 1929, der einzigen anderen wirklich vergleichbaren Finanzkrise der Neuzeit in Bezug auf den globalen Schaden. Anleger können in der Tat äußerst irrational sein, und es können und werden Blasen entstehen, die oft katastrophale Folgen für die beteiligten Volkswirtschaften haben.;-;-;-;https://link.springer.com/chapter/10.1057/9780230304215_7 c8d0c1a0148e840cb59e199613954dc7;de;;;5.2.;;;Ein Ansatz für einen Schiffsroutenplan basierend auf einer Support Vector Machine Dieses Papier konzentriert sich auf einen neuen Ansatz zur Anwendung einer Musterklassifizierungstechnik auf Schiffsroutenpläne. Ein sicherer Pfad zwischen einem Startpunkt und einem Ziel stellt Informationen über die Raumbereichspartition bereit. Beim 2D-Routenplan teilt die Route den Raum in zwei Bezirke ein. Dies bedeutet ein doppeltes Problem, den gesamten Raum zunächst in zwei Bezirke zu klassifizieren und dann die Grenze als Weg herauszupicken. Wir schlagen einen neuartigen Ansatz vor, um dieses duale Problem basierend auf Support Vector Machine (SVM) zu lösen. SVM erzeugt eine nichtlineare Trennfläche nach dem Randmaximierungsprinzip. Dieses Merkmal wird auf das Ziel allgemeiner Routing-Plan-Probleme angewendet, das heißt, eine kollisionsfreie und reibungslose Route zu erzeugen. Die Wirksamkeit des vorgeschlagenen Ansatzes wird durch die Verwendung mehrerer Routing-Plan-Ergebnisse in 2D-Räumen demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-5230-9_20 a5072b79ab1496311d04db58671a5cea;de;;;5.2.;;;Bewegung in beschleunigten Referenzsystemen Dieser Abschnitt enthält wesentliche mathematische Ableitungen. Die Ergebnisse – nicht die Ableitungen – sind entscheidend für einen Einblick in grundlegende Aspekte der Newtonschen Bewegungstheorie. Das Hauptergebnis kann einfach und elegant ausgedrückt werden, und der physikalische Inhalt dieses wichtigen Ergebnisses ist ziemlich transparent (siehe Gleichung (6.36)).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-97599-8_6 a7ed5b5c61a4516cac4cbfebb185408c;de;;;5.2.;;;Fortschritte in der Fuzzy-Geometrie-Programmierung Die Fuzzy-Geometrie-Programmierung ist ein neues Zweigthema der Optimierungstheorie und Fuzzy-Mathematik hat in den letzten Jahren viel Aufmerksamkeit erfahren. Sein konzeptioneller Rahmen wird von B.Y.Cao in der IFSA 1987 vorgestellt. Gegenwärtig haben sich Dutzende von Forschern aus China, Indien, Kuba, England, Kanada, Belgien und China, Taiwan usw. dem Studienteam angeschlossen. Diese Theorie wurde im Energiesystem, in der Umwelttechnik, im Wirtschaftsmanagement usw. angewendet, wobei der Anwendungsbereich noch erweitert werden soll.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71441-5_54 62b76f525c5ac3d6664682eccb0da65e;de;;;5.2.;;;Effiziente Bewegungsschätzungsalgorithmen für HEVC/H.265-Videocodierung In diesem Artikel werden zwei Zeitraffer-Schätzalgorithmen vorgestellt, die auf der Struktur des Dreiecks bzw. des Fünfecks für die HEVC/H.265-Videocodierung basieren. Diese neuen Suchmuster bestimmen Bewegungsvektoren schneller als die beiden Tzsearch-Muster – Raute und Quadrat – die in die Bewegungsschätzmaschine des HEVC eingebaut sind. Die vorgeschlagenen Algorithmen sind in der Lage, eine schnellere Laufzeit mit einem vernachlässigbaren Videoqualitätsverlust und einer Erhöhung der Bitrate zu erreichen. Experimentelle Ergebnisse zeigen, dass die Dreieck- und Fünfeckalgorithmen im besten Fall 63 % bzw. 61,9 % Laufzeitgeschwindigkeit im Vergleich zu den Tzsearch-Algorithmen in der HEVC-Referenzsoftware bieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46578-3_33 cc5d13ba702a79c97dfbee41993159b4;de;;;4.2.;;;Bewertung eines eParticipation-Projekts anhand von eParticipation-Erfolgsfaktoren (e) Partizipation als Charakteristikum von Open Government gewinnt in letzter Zeit immer mehr öffentliche Aufmerksamkeit. Daher ist es wichtig, eParticipation-Projekte anhand eines soliden Rahmens bewerten zu können, um die Auswirkungen der Projekte auf die Gesellschaft zu untersuchen. Da sich mehrere Bewertungsrahmen nur auf quantitative Maßnahmen konzentrieren, wie etwa Kosten-Nutzen-Analysen, bieten nur sehr wenige qualitative Maßnahmen. In diesem Papier evaluieren wir ein konkretes eParticipation-Projekt aus der Schweiz, das bisher nicht systematisch evaluiert wurde. Als Bewertungsrahmen dient eine Liste von 23 Erfolgsfaktoren, die auf Basis umfangreicher Forschungen entwickelt wurde. Die Ergebnisse sind zweierlei: Erstens hat der Evaluierungsprozess eine systematische Ex-Post-Reflektion des Projekts ausgelöst, zweitens wurde festgestellt, dass das verwendete Framework sehr nützlich und anwendbar für die Evaluierung von eParticipation-Projekten ist, einige Vorschläge für die Weiterentwicklung der Auch der Rahmen wird diskutiert. Beide Ergebnisse tragen zum Wissensschatz im Bereich der ePartizipation im Allgemeinen bei.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-13283-5_22 9fcb6d69982ba34a04af885ee74e2697;de;;;4.2.;;;Anmaßende Zielzuschreibung, Konformität und die Ethik der künstlichen sozialen Kognition Stellen Sie sich vor, Sie stöbern beiläufig in einem Online-Buchladen und suchen nach einem interessanten Roman. Angenommen, der Laden sagt voraus, dass Sie einen bestimmten Roman kaufen möchten: denjenigen, der von Personen Ihres Alters, Geschlechts, Wohnorts und Berufsstands am häufigsten gewählt wird. Der Laden empfiehlt das Buch, es spricht dich an und du wählst es aus. Im Mittelpunkt dieses Szenarios steht eine automatisierte Vorhersage Ihrer Wünsche. Dieser Artikel wirft moralische Bedenken hinsichtlich solcher Vorhersagen auf. Allgemeiner betrachtet untersucht dieser Artikel die;-;-;-;https://link.springer.com/article/10.1007/s10676-019-09512-3 7a52896012503b16567007abbd7e0eb5;de;;;4.2.;;;Führung der europäischen Fertigungsindustrie Competitive and Sustainable Development (CSD) entwickelt sich als die notwendige globale strategische Vision, die umgesetzt werden muss, um die wirtschaftlichen, sozialen, ökologischen und technologischen Herausforderungen zu meistern, denen wir alle auf verschiedenen Ebenen von globaler bis lokaler Ebene gegenüberstehen. Die Europäische Union hat schon vor langer Zeit damit begonnen, einen solchen Prozess zu fördern und zu unterstützen. Es hat eine „rollende“ strategische Nachhaltigkeitspolitik entwickelt, die alle Initiativen auf europäischer Ebene durchdringt. Die Mitgliedstaaten verfolgen einen ähnlichen Ansatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77012-1_2 de2d8c7707f145439d43d35e52328956;de;;;4.2.;;;Ethische Überlegungen für den Krankenschwester-Ethnographen, der Feldforschung in klinischen Umgebungen durchführt Ethnographie bedeutet wörtlich „Porträt eines Volkes“. Ethnographische Forschung bietet eine deskriptive Analyse einer Subkultur und ist die Grundlage für die Theorieentwicklung in Teildisziplinen wie der Kultur-, Sozial- oder Bildungsanthropologie. Traditionell haben Anthropologen entlegene oder exotische Kulturen studiert, aber die Notwendigkeit einer ethnographischen Forschung der vielen Subkulturen des Gesundheitswesens, in denen Krankenpflege praktiziert wird, wurde von einer Reihe von Krankenpflegeanthropologen zitiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82468-5_23 bfe879a3e0215990516cd18695f5e8a2;de;;;4.2.;;;Umgang mit der Kontamination von Oberflächenwasser in Nagoya, Japan: Ein integrierter Entscheidungsrahmen für die Bewirtschaftung von Wassereinzugsgebieten Die Wasserqualität von Flüssen in Japan hat in den letzten Jahren aufgrund einer Reihe von Faktoren, darunter durch den Menschen verursachte Landsenkungen und einen Anstieg des Wasserbedarfs, größere Aufmerksamkeit erhalten. Oberflächengewässer werden durch häufige, geringe Risiken (wie die kontinuierliche Freisetzung gefährlicher Stoffe) und weniger häufige, hohe Auswirkungen (wie die Freisetzung von Chemikalien aufgrund von Naturkatastrophen oder Industrieunfällen) beeinträchtigt. Dieses Papier stellt einen integrierten Entscheidungsrahmen für das Wassereinzugsgebietsmanagement (WBM) vor, um letzteres zu untersuchen: Diese relativ seltenen, aber oft katastrophalen Gefahren sind weniger gut untersucht als die bekannteren hochfrequenten Risiken auf niedrigem Niveau. Die sechs Hauptkomponenten dieses WBM-Entscheidungsrahmens umfassen (a) die Ermittlung möglicher Bedrohungen für Oberflächengewässer, (b) die Identifizierung von Oberflächengewässern, die am stärksten von Kontamination bedroht sind, (c) die Identifizierung von Schwachstellen (Lücken) in aktuellen Überwachungssystemen, (d) die Verwendung von Unfall Analyse zur Bestimmung proaktiver WBM, (e) Analyse der zeitlich-räumlichen Auswirkungen von Maßnahmen auf Wassereinzugsgebiete, (f) Entwicklung neuer Maßnahmen und Ansätze für integrierte WBM. Japans kürzlich veröffentlichtes Pollutant Release and Transfer Register (PRTR) wird verwendet, um einen WBM-Entscheidungsrahmen für das Management der Oberflächenwasserverschmutzung in Nagoya, Japan, zu entwickeln. Ein partizipatives Oberflächenwassermanagement wird betont, um einen ganzheitlichen und nachhaltigen WBM-Entscheidungsprozess zu erreichen.;-;-;-;https://link.springer.com/article/10.1007/s11269-006-0323-6 01363a5275b7b205cec3fdd0d6ad689a;de;;;4.2.;;;Einkommens- und Beschäftigungseffekte von Gesundheitsschocks Ein Testfall für den deutschen Sozialstaat Anhand von Daten aus den ersten elf Wellen des Sozio-oekonomischen Panels untersucht diese Studie die dynamischen Auswirkungen von Gesundheitsschocks auf die Beschäftigung und das wirtschaftliche Wohlergehen älterer Arbeitnehmer. Ein Gesundheitsschock verdreifacht die Wahrscheinlichkeit des Ausscheidens aus dem Erwerbsleben und verdoppelt nahezu das Arbeitslosigkeitsrisiko. Die finanziellen Auswirkungen von Gesundheitsschocks sind im Durchschnitt gering und die Personen mit dem höchsten verbleibenden Einkommenspotenzial sind am wenigsten vom Gesundheitsschock betroffen. Sozialstaatliche Instrumente unterstützen die ärmsten Bevölkerungsschichten, können jedoch die Auswirkungen eines Gesundheitsschocks für diese Gruppen nicht neutralisieren.;-;-;-;https://link.springer.com/article/10.1007/s001480050104 f9b1b7e7ef6a0ec06cc95e72a30aca44;de;;;4.2.;;;Kapitel 12: Kasachstan und die Eurasische Wirtschaftsunion: Die Dilemmata der Allianzbildung in der postsowjetischen Zeit Im Mai 2014 trat Kasachstan der Eurasischen Wirtschaftsunion (EEU) bei, einer Allianz, von der viele im Westen vermutet haben, dass sie im Zentrum der Bemühungen Russlands steht, seine Hegemonie in der ehemaligen Sowjetunion wiederherzustellen. Die Mitgliedschaft Kasachstans in der EEU hat viele interne Debatten unter Politikern, Experten und der breiten Öffentlichkeit über die imperiale Vergangenheit und die postimperiale Zukunft des Landes, Entwicklungsstrategien und seinen Platz in der Region und in der Welt ausgelöst. Das Kapitel untersucht die Gründe für die Teilnahme von Astana an der EEU sowie die Modalitäten und Grenzen dieser Teilnahme. Er argumentiert, dass Kasachstans Engagement in der eurasischen Wirtschaftsintegration in seiner jetzigen Form den nationalen Interessen des Landes entspreche und seiner langjährigen Multi-Vektor-Außenpolitik keinen Abbruch tue.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-43437-7_13 f0d4ec46f4890db79fad926b7be55f59;de;;;4.2.;;;Die Bedeutung von Wissen Zwei der wichtigsten Eigenschaften eines unabhängigen Direktors sind Wissen und Erfahrung. Es ist absolut wichtig, dass Direktoren über grundlegende berufliche Fähigkeiten verfügen – einschließlich Finanzwissen – um ihre Arbeit effektiv zu erledigen. Sie benötigen auch aktuelles Wissen darüber, was außerhalb ihres Sektors passiert, um Best Practices in ihre Vorstände einzubringen. Ein Beispiel für eine Fallstudie sind Universitäten, die in Bezug auf die digitale Revolution und ihre Fähigkeit, den Betrieb zu transformieren, zunehmend hinter der Kurve zurückbleiben. In ähnlicher Weise zeigt die NHS-Fallstudie, dass es eine umfangreiche und komplizierte Lieferkette hat, dem Dienst jedoch das erforderliche aktuelle Wissen über Logistik und Lieferkettenmanagement fehlt. Dies wurde auch durch die unterschiedlichen Reaktionen auf das Coronavirus unterstrichen. Darüber hinaus haben die Untersuchungen der Henley Business School viele der anderen Lücken in Bezug auf Fähigkeiten und Kenntnisse aufgedeckt, die erforderlich sind, um ein effektiver unabhängiger Direktor zu sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-51303-0_5 680634763d409b8cd06dc3446d3247dd;de;;;4.2.;;;Die Beiträge qualitativer Forschung zu Herzerkrankungen In diesem Kapitel zeigen wir, dass qualitative Beweise erforderlich sind, um einige der belastendsten Probleme, die durch Herzerkrankungen verursacht werden, zu verstehen und anzugehen. Die Herzversorgung wird oft von Technologie, Pharmakologie und technischem Können dominiert – sogar verschleiert. Dennoch sollte die Gesundheitsversorgung von Menschen mit Herzerkrankungen die Perspektiven, Überzeugungen, Einstellungen und Präferenzen der Patienten berücksichtigen, darauf reagieren und diese berücksichtigen. In diesem Kapitel diskutieren wir, wie die qualitative Forschung zu diesem Wissen in Bezug auf eine Reihe wichtiger Themen beigetragen hat – von der Entscheidungsfindung von Patienten über die Implantation potenziell lebensrettender elektronischer Geräte bis hin zur Inanspruchnahme eines Gesundheitsdienstes oder nehmen Sie sogar eine Tablette.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4939-2920-7_8 eccc5babc6f280b02ad23f8b625f1f8b;de;;;4.2.;;;Offline- und Online-Bürgeraktivismus in Russland Der Artikel widmet sich der Analyse der Bürgertätigkeit im modernen Russland. Der Artikel präsentiert die Ergebnisse einer Längsschnittstudie zum bürgerschaftlichen Engagement in Russland seit 2014. Die Studie wird von einer Expertenbefragung durchgeführt. Besonderes Augenmerk wird auf die Analyse der Entwicklung der Online- und Offline-Bürgertätigkeit gelegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-65218-0_2 c6ce2c0c2e938ebe3197de5bec5ea124;de;;;4.2.;;;Öffentliche Innovation durch Co-Creation-Plattformen als Reaktion auf die Covid-19-Pandemie Die Beteiligung der Bürger an der Lösung öffentlicher Herausforderungen ist ein Antrieb für die Umsetzung öffentlicher Innovationen. Die Auseinandersetzung mit neuen Mechanismen und Arenen, die die Bürgerbeteiligung erleichtern, ist eine der Herausforderungen auf der Agenda der Regierungen, insbesondere unter sich ändernden, komplexen und sozialen Distanzierungsszenarien, wie sie durch die Covid-19-Pandemie verursacht wurden. Daher werden digitale Plattformen, die die Co-Creation zwischen Bürgern, Regierungen und anderen Akteuren in den Innovationsökosystemen der Länder fördern, immer notwendiger, aber gleichzeitig müssen deren Umfang und Beiträge untersucht werden, um transparente , gerechte, integrative und menschenzentrierte Bürgerbeteiligungsprozesse. Das Forschungsziel bestand in der Tat darin, eine Trendanalyse auf diesem Gebiet durchzuführen, die zwei Methoden integriert: eine Literaturrecherche über Konzepte im Zusammenhang mit öffentlichen Innovationsplattformen: Co-Creation und Bürgerbeteiligung und schließlich eine Webinhaltsanalyse auf drei Plattformen, die gemeinsame Erstellungsübungen zur Lösung von Herausforderungen in der Covid-19-Pandemie. Die wichtigsten Ergebnisse zeigen die Notwendigkeit, die Herausforderungen und Beiträge digitaler Plattformen zu untersuchen, um öffentliche Innovation zum Ergebnis einer gemeinsamen Anstrengung zu machen, die über die Phase der Ideenfindung hinausgeht, um Lösungen zu implementieren und öffentlichen Wert zu generieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-81635-3_10 5d50080ca3cf8b8b80405824d23dc4dd;de;;;4.2.;;;Veränderungen in der Verteilung der vorstaatlichen und nachstaatlichen Einkommen in Deutschland 1973 – 1993 In den zwei Jahrzehnten von 1973 bis 1993 erlebte Deutschland weitreichende wirtschaftliche und politische Veränderungen. 1973 war das letzte Jahr der Vollbeschäftigung mit einer Arbeitslosenquote von nur 1,2 %, während die Arbeitslosigkeit im Westen Deutschlands 1993 auf 8,2 % gestiegen war. 1989 wurde die Berliner Mauer abgerissen und Mitte 1990 gründeten die Bundesrepublik Deutschland und die Deutsche Demokratische Republik eine Währungsunion. Im Oktober 1990 wurde mit der deutschen Wiedervereinigung die westdeutsche Rechtsordnung einschließlich der Regelungen für den Arbeitsmarkt sowie das gesamte Steuer- und Transfersystem in Ostdeutschland umgesetzt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-57232-6_5 4a462f2752b8c3d5e77890b1fca72530;de;;;4.2.;;;Verwendung des dreigliedrigen Gruppenbereichs als Maß für soziale Interaktionen bei Vorschulkindern: Eine Pilotstudie Diese Studie zielte darauf ab, den dreigliedrigen Gruppenbereich mit Motion-Capture-Systemen zu messen und untersuchte, ob der Gruppenbereich als Maß für die sozialen Interaktionen von Vorschulkindern verwendet werden könnte. In Experiment 1 spielen zwei Mädchen mit typischer Entwicklung und ein erwachsener Mitarbeiter im freien Spiel. In Experiment 2 spielten zwei Jungen mit typischer Entwicklung und zwei erwachsene Mitarbeiter Ballonvolleyball. Beide Experimente hatten drei Arten von Messungen: subjektive Bewertung, ob die Teilnehmer zusammen spielten, soziales Verhalten (z. B. Blickkontakt für Experiment 1 und Ballonwerfen für Experiment 2) und Gruppenbereich. Die Ergebnisse zeigten, dass die Gruppenfläche in Experiment 2 signifikant und negativ mit der subjektiven Bewertung in Zusammenhang stand, während wir in Experiment 1 keine Beziehung zwischen der subjektiven Bewertung und der Gruppenfläche beobachteten. Insgesamt wurde jedoch nur eine geringe Korrelation zwischen der subjektiven Bewertung und der Gruppenfläche in Experiment beobachtet 2. Darüber hinaus gab es starke sequentielle Assoziationen zwischen subjektiver Bewertung und sozialem Verhalten und nicht zwischen subjektiver Bewertung und Gruppenbereich. Obwohl die Gruppenfläche als Index für soziale Interaktionen weniger genau ist als vom Menschen direkt beobachtete Verhaltensdaten, kann sie sich als kostengünstige Vorabmaßnahme lohnen, da sie mit Motion-Capture-Systemen automatisch berechnet werden kann.;-;-;-;https://link.springer.com/article/10.1007/s12144-021-01671-1 aafff7f4dbd2a14c1a25a03c47d7ee40;de;;;5.2.;;;Ein Faktor liegt den individuellen Unterschieden in der auditiven Informationsmaskierung innerhalb und zwischen den Altersgruppen zugrunde Der maskierte Schwellenwert für ein reines Tonsignal kann erheblich erhöht werden, wenn der Hörer sich über die spektralen oder zeitlichen Eigenschaften des Maskierers nicht sicher ist, ein Effekt, der als . bezeichnet wird;-;-;-;https://link.springer.com/article/10.3758/BF03194571 814f05a2acb719071ba9f9b969fbc489;de;;;4.2.;;;Ansprechende und effektive asynchrone Online-Diskussionsforen Diskussion wird in der Regel als ein wirksames Instrument zur Entwicklung pädagogischer Fähigkeiten wie kritisches Denken, Zusammenarbeit und Reflexion angesehen. Ein asynchrones Online-Diskussionsforum hat sich in den letzten Jahren zu einem festen Bestandteil des Lehrens und Lernens in der Hochschulbildung entwickelt. Die Gestaltung von Diskussionsforen für Lern- und Lehrarrangements, die die gewünschten Lernergebnisse unterstützen können, ist jedoch mit erheblichen Herausforderungen verbunden. Die Studie analysierte die Faktoren, die das Ausmaß der studentischen Beteiligung an den Online-Diskussionsforen beeinflussen, mit Schwerpunkt auf einige der kritischen Aspekte, die bei der Gestaltung von Online-Diskussionsforen berücksichtigt werden sollten, die die gewünschten Lernergebnisse unterstützen können. Wir zeigen, dass insbesondere die Rollen der Kursleiter und die Beteiligung am Diskussionsforum den Gesamtdiskussionsgrad zwischen den Lerngemeinschaften bestimmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27207-3_75 31fd24ca7ba3774ce83feca4f97c7d52;de;;;5.2.;;;Dezentrale Monte-Carlo-Baumsuche für aktive Wahrnehmung Wir schlagen eine dezentrale Variante der Monte-Carlo-Baumsuche (MCTS) vor, die für eine Vielzahl von Aufgaben in der aktiven Multi-Roboter-Wahrnehmung geeignet ist. Unser Algorithmus ermöglicht es jedem Roboter, seinen eigenen individuellen Aktionsraum zu optimieren, indem er eine Wahrscheinlichkeitsverteilung über Pläne im gemeinsamen Aktionsraum aufrechterhält. Roboter kommunizieren periodisch eine komprimierte Form dieser Suchbäume, die verwendet werden, um die lokal gespeicherten gemeinsamen Verteilungen unter Verwendung eines von Variationsmethoden inspirierten Optimierungsansatzes zu aktualisieren. Unsere Methode lässt jede über Roboteraktionen definierte objektive Funktion zu, geht von intermittierender Kommunikation aus und ist jederzeit verfügbar. Wir erweitern die Analyse des Standard-MCTS für unseren Algorithmus und charakterisieren asymptotische Konvergenz unter vernünftigen Annahmen. Wir bewerten die praktische Leistungsfähigkeit unserer Methode für generalisierte Teamorientierung und aktive Objekterkennung anhand von realen Daten und zeigen, dass sie im Vergleich zu zentralisiertem MCTS auch bei stark beeinträchtigter Kommunikation günstig abschneidet. Diese Beispiele unterstützen die Relevanz unseres Algorithmus für die aktive Wahrnehmung in der realen Welt mit Multi-Roboter-Systemen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-43089-4_55 e96852ca66271fe50b0726673021b195;de;;;5.2.;;;PHuNAC-Modell: Crowd-Variation mit dem MBTI-Persönlichkeitsmodus erzeugen Mehrere Menschenmengensimulatoren simulieren nur homogene Fußgänger. In Wirklichkeit gibt es verschiedene Persönlichkeiten. Diese Persönlichkeitsvariation beeinflusst das Fußgängerverhalten und das Schicksal der Menge. In diesem Beitrag erweitern wir das HuNAC-Modell (Human Nature of Autonomous Crowd), indem wir jedem Fußgänger-Agenten eine Persönlichkeit geben, um zu untersuchen, wie das emergente Verhalten der Menge beeinflusst wird. Als Grundlage für die Agentenpsychologie verwenden wir die MBTI-Persönlichkeitstheorie. Ziel dieser Arbeit ist es, das HuNAC-Modell zu verbessern und somit die Ergebnisse zu verbessern. In diesem Zusammenhang haben wir eine neue Version unseres Modells, das wir PHuNAC-Modell (Personalities’ Human Nature of Autonomous Crowd) genannt haben. Unser PHuNAC-Modell ist eine Multi-Agenten-Simulation des Fußgänger-Massenmodells. Die durchgeführten Experimente zeigen, dass das PHuNAC-Modell in der Lage ist, ein realistischeres Fußgängerverhalten zu erzeugen als das HuNAC-Modell.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07767-3_17 3e7828e02c1e58a9cdd44d57e201fbdb;de;;;5.2.;;;Zielkompatibilität Kapitel 2 führte den Begriff eines Zielsuchsystems als Grundkonzept der Repräsentation von Organisationen ein. Das Wesen eines Zielsuchsystems besteht darin, dass sein Input-Output-Verhalten in Bezug auf die Verfolgung eines Ziels erklärt wird. Eine Organisation selbst ist offenbar ein zielsuchendes System mit einem erklärten Organisationsziel. Das zielorientierte Paradigma wird immer wieder verwendet, um das Verhalten der Organisation als solches sowie in der Darstellung der Komponenten der Organisation und ihrer Mitglieder zu beschreiben. Das ultimative Ziel eines (rationalen) Managements ist es, angemessene operative Ziele für seine Mitglieder zu generieren, die mit dem Organisationsziel übereinstimmen. Dies muss unter Anpassung an Veränderungen in der Umgebung (externer Input) und koordinierter operativer Ebenen (primäre Tätigkeit einer Organisation) erfolgen, um das ordnungsgemäße Funktionieren zur Erreichung der jeweiligen operativen Ziele sicherzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0213-1_3 df0e0d81a168f988810630c223a3aec5;de;;;5.2.;;;Förderung des kritischen Denkens von Grundschullehrern durch ein Nanotechnologie-Modul Diese Studie beschreibt den Versuch, Lehramtsstudierende im Primarbereich durch die Implementierung eines Moduls zu einem modernen wissenschaftlichen Thema, nämlich der Nanotechnologie, kritisches Denken zu fördern. Zunächst skizzieren wir anhand von Literaturvorschlägen die spezifischen Fähigkeiten und Dispositionen, die mit kritischem Denken verbunden sind. Zweitens betonen wir die hervorstechenden Merkmale der Nanotechnologie-Inhalte. Durch eine Überprüfung des Nanotechnologie-Lehrmaterials, das unter dem Gesichtspunkt kritischer Denkfähigkeiten und Dispositionen implementiert wurde, versuchen wir herauszufinden, welche Aufgaben das Potenzial haben könnten, kritisches Denken zu fördern. Einerseits deuten Befunde darauf hin, dass Fähigkeiten wie Analyse, Erklärung, Interpretation und Dispositionen wie Selbstbewusstsein und Neugier gefördert werden könnten. Auf der anderen Seite diskutieren wir, dass die Notwendigkeit, zusätzliche Fähigkeiten und Dispositionen zu verbessern oder zu entwickeln, das Design zukünftiger Implementierungen erhellen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20954-4_10 ce7aee2ffb860c3157997f98c1a67ede;de;;;5.2.;;;Die Komplexität einiger grundlegender Steuerungsprobleme für diskrete Ereignissysteme Wir präsentieren eine Zusammenfassung einiger der bekannten Ergebnisse zur Komplexität der Überwachung von diskreten Ereignissystemen im Rahmen von [RW1]. Darüber hinaus werden einige aktuelle Ergebnisse zur Kontrollierbarkeit sequentieller Verhaltensweisen und zur Komplexität grundlegender Koordinationsprobleme vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83548-3_6 28c57a7c080ecdd011c95581c886fe05;de;;;5.2.;;;Welfen parlamentarische Aktivitäten Bismarck hatte nicht nur mit illegalem Widerstand gegen seine Integrationspläne zu kämpfen, sondern auch mit legalem Widerstand auf parlamentarischer Ebene. Von allen Unternehmungen, mit denen die Welfen verbunden waren, ist es vielleicht ihre Verbindung mit der Politik, die ihren Namen am häufigsten in der Öffentlichkeit bekannt gemacht hat. Nachdem Hannover preußische Provinz geworden war, erhielten die Hannoveraner das Mitwirkungsrecht an der preußischen Legislative. Als Teil Preußens durften auch die Hannoveraner Abgeordnete des Reichstags wählen. Die Welfen-Anhänger zögerten nicht, eine politische Partei zu bilden, die bei den Reichstagswahlen antreten sollte, denn sie wussten, dass die Vertretung in der Legislative ein wirksames Mittel sein konnte, um die Sache der Welfen in der Öffentlichkeit zu halten.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-2405-1_6 e14f1521d5022874a4d28773a0440dbd;de;;;4.2.;;;Jenseits der Frontstage: Vertrauen, Zugang und der relationale Kontext in der Forschung mit Flüchtlingsgemeinschaften Dieser Beitrag untersucht die Rolle von Vertrauen und das Konzept des Zugangs, da sie den Beziehungskontext beeinflussen, in dem Gemeinschaftsforschung und insbesondere Forschung mit Flüchtlingsgemeinschaften durchgeführt wird. Die Metapher des Front- und Backstage-Verhaltens des Soziologen Irving Goffman wird verwendet, um die Komplexität und Bedeutung der Entwicklung von Vertrauensbeziehungen und damit des „Backstage“-Zugangs in Gemeinschaften zu veranschaulichen, die für Außenstehende im Allgemeinen verschlossen sind. Es wird argumentiert, dass ein authentischer („Backstage“) Zugang zu Flüchtlingsgemeinschaften sowie zu anderen Gemeinschaften, die eine sich selbst schützende Insellage entwickelt haben, unerlässlich ist, wenn wir Daten sammeln wollen, die die tatsächlichen Überzeugungen, Gefühle und Erfahrungen von experiences Gemeindemitglieder. Der Beitrag untersucht dann den rätselhaften Mangel an Diskussionen zu Fragen des Vertrauens, des Zugangs und des Beziehungskontexts in der Literatur zur psychischen Gesundheit von Flüchtlingen. Erklärungen für diese scheinbare Unaufmerksamkeit werden im Einfluss des vorherrschenden wissenschaftlichen Paradigmas gesucht, das die meisten Forschungen mit Flüchtlingen leitet und die Werte der „Gatekeepers“ des Feldes, der Herausgeber und Gutachter wissenschaftlicher Zeitschriften, prägt. Im gesamten Beitrag werden zentrale Punkte anhand von Beispielen aus der Forschung des Autors mit Flüchtlingen aus Guatemala, Bosnien und Afghanistan illustriert.;-;-;-;https://link.springer.com/article/10.1023/B%3AAJCP.0000027007.14063.ad f8dbff41efe8396b41ce435c066efa67;de;;;4.2.;;;Worauf achten wir, wenn wir über medizinische Versorgung sprechen? Eine Textanalyse von Weibo-Daten Im Informationszeitalter wenden die Menschen immer mehr Zeit und Energie auf, um Gesundheitsthemen zu recherchieren und sich daran zu beteiligen. Und Prozesse in sozialen Netzwerken bieten neue Möglichkeiten, die öffentliche Meinung zu diesem Thema zu untersuchen. Wenn wir jedoch über den medizinischen Dienst sprechen, worum geht es uns? Die Verschlechterung der Arzt-Patient-Beziehung? Die Krankenversicherung? Oder die medizinischen Errungenschaften, die wir haben? Das Verständnis der aktuellen Themen medizinischer Probleme und ihrer dynamischen Veränderungen hilft uns, eine gesunde Arzt-Patienten-Beziehung zu führen und eine stabile öffentliche Online-Meinungsumgebung aufrechtzuerhalten. Um die Frage herauszufinden, haben wir die Weibo-Tweets über medizinische Informationen gesammelt und dann die Themen nach dem LDA-Modell extrahiert. Aufgrund der Funktionsknappheit und der semantischen Unschärfe von Kurztexten wurden in diesem Beitrag die Funktionen durch den Einsatz von Word2vec erweitert. Schließlich fassten wir 14 heiße Themen des medizinischen Dienstes zusammen und analysierten die dynamische Veränderung der Häufigkeit und Emotion der Themen. Wir stellen fest, dass die meisten Themen mit der Medizinreform und der Arzt-Patient-Beziehung zu tun haben. Darüber hinaus wird die Einstellung der Öffentlichkeit zu medizinischen Themen allmählich positiv.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3149-7_4 9620c9f1994927d8ac53ee6fd0f604d3;de;;;5.2.;;;Bio-inspirierter Transputer-basierter Fuzzy-Mobilroboter Mobile Roboter werden häufig in einer Vielzahl von intelligenten Anwendungen eingesetzt, bei denen ein zufälliges Manövrieren ein wesentlicher Bestandteil solcher Systeme ist [1,2]. Diesbezüglich hat die Erfahrung gezeigt, dass mobile Roboter fortschrittliche parallele, intelligent basierte Steuerungsmechanismen benötigen. In diesem Artikel wird gezeigt, wie ein mobiler Roboter über ein regelbasiertes System in der Bewegung gesteuert werden kann. In diesem Sinne sind Design, Konstruktion und Erprobung eines autonomen mobilen Roboters bereits in der Literatur definiert. Ein Transputer Embedded Real-Time Controller ist aufgrund seiner Fortschritte für industrielle Anwendungen weit verbreitet. Hier wird ein Fuzzy-basiertes Transputer-System (an Bord des Roboters) verwendet, um einige Intelligenzanforderungen für die Navigation und Hindernisvermeidung zu erfüllen. Für eine mobile Roboterführung und Hindernisvermeidung ist ein paralleler Fuzzy-Controller implementiert. Dies basiert auf der parallelen Verarbeitung von Sonardaten, die von der mobilen Sensorik stammen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32615-8_60 ef5b9675757a2f32572ad81a9f16d358;de;;;4.2.;;;Untersuchung der Strategie der Entwicklung des Sporttourismus in Shandong in Abhängigkeit von den elften Nationalspielen Um relevante theoretische Hilfestellungen für die Entwicklung des Sporttourismus von Shandong zu geben, analysierte dieser Beitrag am Forschungsgegenstand Shandong Sporttourismus die Vorteile und Probleme des Shandong Sporttourismus, untersuchte die Einflüsse der Elften Nationalspiele und suchte auf dieser Grundlage nach den Gegenmaßnahmen des Sporttourismus von Shandong. Die Autoren glauben, dass die einzige Möglichkeit darin besteht, die Makrokontrolle der Regierung, die Selbstverbesserung des Sporttourismus und die Nutzung der Gelegenheit der Elften Nationalspiele miteinander zu kombinieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23023-3_88 0fb1492e8a8107b9806b21d636aaf9b9;de;;;4.2.;;;Giftige Kommunikation auf Twitch.tv. Wirkung eines Streamers In diesem Beitrag wird untersucht, wie die Zuschauerkommunikation in Chats während der Übertragungen auf Twitch.tv organisiert ist, wobei der Schwerpunkt auf toxischer Kommunikation liegt. Der Hauptzweck des Papiers besteht darin, zu verstehen, wie sich soziodemografische Merkmale eines Senders und Kanaleinstellungen, die der Sender steuern kann, auf die Kommunikation in einem Chat auswirken. Chatprotokolle von Twitch.tv-Kanälen wurden verwendet, um ein Themenmodell von Zuschauerdiskussionen zu erstellen. Das Ergebnis der Regressionsanalyse zeigt, dass soziodemografische Merkmale eines Senders einen statistisch signifikanten Einfluss auf die Art der Kommunikation haben, die sich im Chat manifestiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37858-5_34 8cf1347200dcba0fb19ce263fbe90924;de;;;4.2.;;;Die Zukunft des Lebenslaufs Die Zukunft des Lebensverlaufs in den Vereinigten Staaten in den nächsten Jahrzehnten und in einigen anderen spätmodernen Gesellschaften lässt sich am besten vor dem Hintergrund bedeutender demografischer und institutioneller Veränderungen betrachten. Der Lebenslauf – wenn er als voneinander abhängige Abfolgen altersbezogener sozialer Rollen über Lebensbereiche hinweg (Familie, Bildung, Arbeit, Gesundheit, Freizeit) definiert wird – ist ein Produkt der Verbindungen zwischen staatlichen (Wohlfahrts-), Markt- und familiären (Geschlechts-)Institutionen und demografisches Verhalten über die gesamte Lebensspanne. Wenn diese Verknüpfungen eng gekoppelt und in einer Bevölkerung universell ausgeprägt sind, führen ihre Kohärenz und normative Stärke zu einem stärker institutionalisierten, altersgerechten Lebensverlauf. Wenn diese Verknüpfungen hingegen lose gekoppelt sind, nimmt die Variabilität (De-Institutionalisierung) im Lebensverlauf zu: Die Beziehung zwischen dem Alter und den Rollenübergängen wird schwächer und die Synchronisierung der Rollen über die Lebensbereiche hinweg weniger standardisiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-306-48247-2_33 8b2612b6ccb39d966fdb9996c163050a;de;;;4.2.;;;Modellierung der Haushaltseinkommensdynamik In diesem Beitrag geht es um Einkommens- und Armutsdynamiken und ihre sozioökonomischen Korrelationen. Die erste Hälfte des Papiers zielt darauf ab, einige der wichtigsten Fakten für Großbritannien zu ermitteln, indem die bahnbrechenden Methoden von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55573-2_7 cf33a606b3e0618d7dfc486c7ed1d4c5;de;;;4.2.;;;Zustand des akademischen Feldes IS in Indien Der Bereich der Informationssysteme (IS) ist nach wie vor unklar und steht vor Problemen der Anerkennung und Identitätskrise. Seit über drei Jahrzehnten sind diesem Thema mehrere Aufsätze und Debatten gewidmet. Der Fokus dieser Debatten konzentrierte sich hauptsächlich auf den Zustand des IS-Feldes in Amerika und Europa sowie auf eine begrenzte Studie, die im asiatisch-pazifischen Kontext durchgeführt wurde. Diese Studie versucht, das Feld im indischen Kontext zu bewerten und die Herausforderungen und Probleme aufzuzeigen, denen sich IS-Fakultäten in Indien gegenübersehen. Basierend auf einer Literaturrecherche der wegweisenden Arbeiten auf diesem Gebiet haben wir die für IS-Forscher interessanten Themen identifiziert: Identität des IS-Feldes, Diversität des Feldes, Forschungsansätze, Methoden und Strenge, Referenzdisziplinen, Zeitschriften und Konferenzen sowie IS Kurs und Lehrplan. Eine zweiphasige Studie wurde durchgeführt, um das Interesse zu untersuchen, das der IS-Bereich in Indien erzeugt hat. In der ersten Phase wurde eine Sekundärdatenanalyse führender Business Schools in Indien durchgeführt, um deren Fokus auf IS als akademische Disziplin zu verstehen. In der zweiten Phase führten wir Interviews mit IS-Forschern der Premium Business Schools in Indien. In unserer Studie analysieren wir die Forschungsschwerpunkte von IS-Fakultäten an B-Schools in Indien, analysieren die Zusammensetzung des Fakultätspools und die Art der Forschungsarbeit dieser. Unsere Studie weist auf den eingeschränkten Fokus von IS-Forschern in Indien auf wenige enge Bereiche hin, wobei eine erhebliche Bandbreite von Themen nicht für die Forschung erforscht wird. Wir stellten fest, dass der Identitätskampf des Feldes im Vordergrund stand, der durch die begrenzte Anzahl aktiver IS-Forscher noch verschärft wurde. Die wachsende Bedeutung qualitativer Techniken in der IS-Forschung, die Herausforderungen bei der Entwicklung einer soliden Basis in mehreren Referenzdisziplinen und die Notwendigkeit, IS-Kurse für Studierende der Wirtschaftswissenschaften interessant zu machen, waren einige der anderen wichtigen Beobachtungen. Unsere Studie hat auch das Paradox des Erfolgs der IT-Branche in Indien aufgezeigt, der zu einer geringeren Einschreibung von IS-Kursen in B-Schools geführt hat. Abschließend geben wir Empfehlungen an die Dekane und Direktoren der B-School.;-;-;-;https://link.springer.com/article/10.1007/s10799-014-0182-4 1a7fa67701b91ac73f53f04f903ab3e9;de;;;4.2.;;;Erfahrungen bei der Gestaltung von RoboCup-Teams: Ein Vergleich zweier Feldteams Zunehmend werden Multi-Agenten-Systeme für eine Vielzahl komplexer, dynamischer Domänen entwickelt. Effektive Agenteninteraktionen in solchen Domänen stellen einige der grundlegendsten Forschungsherausforderungen für agentenbasierte Systeme, in Teamarbeit, Multiagentenlernen und Agentenmodellierung. Die RoboCup-Forschungsinitiative, insbesondere die Simulationsliga, wurde vorgeschlagen, um solche Multi-Agenten-Forschungsherausforderungen auf der gemeinsamen Testumgebung des Simulationsfußballs zu verfolgen. Trotz der großen Popularität von RoboCup in der Forschungsgemeinschaft wurden aus der Teilnahme am RoboCup nicht oft allgemeine Lehren gezogen. Das versuchen wir hier. Wir haben zwei Teams, ISIS97 und ISIS98, in RoboCup-Wettbewerben aufgestellt. Diese Teams waren in diesen Wettbewerben unter den besten vier Teams. Wir vergleichen die Teams und versuchen, die gewonnenen Erkenntnisse zu analysieren und zu verallgemeinern. Diese Analyse offenbart einige Überraschungen und weist auf Lehren für die Teamarbeit und das Lernen mit mehreren Agenten hin.;-;-;-;https://link.springer.com/article/10.1023/A%3A1010027016147 f8a6f78067400088d7aa3dfee55575e1;de;;;4.2.;;;Eine akustische Reise In der aktuellen politischen und kulturellen Landschaft zeichnet sich ein entscheidender Wandel ab und reift: ein Wandel in der (De-/Re-)Artikulation von Identität und Differenz. Solche Artikulationen bleiben von einem Bewusstsein sowohl für die aktivierenden als auch für die behindernden Potenziale der Divisionen geprägt;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-12725-2_1 f6c0feda4e9742b8300ff4ad6d7b98b0;de;;;4.2.;;;Politische Determinanten von Einkommensungleichheit: Panelanalyse Die meisten früheren Studien zu den Determinanten der Einkommensungleichheit in den einzelnen Ländern umfassten Schwellen- und fortgeschrittene Demokratien in einer Stichprobe, was Bedenken aufkommen lässt, dass die Wirkung der unabhängigen Variablen weitgehend auf die Unterschiede zwischen den aufstrebenden und fortgeschrittenen Demokratien zurückzuführen sein könnte. Diese Studie befasst sich hauptsächlich mit den Variationen zwischen aufstrebenden Demokratien und skizziert gleichzeitig die Unterschiede zwischen aufstrebenden und fortgeschrittenen Demokratien. Daher untersucht es die Auswirkungen von politischem Marktversagen und schwacher Staatskapazität auf die Einkommensungleichheit anhand eines unausgeglichenen Paneldatensatzes für den Zeitraum 1985–2012 für aufstrebende Demokratien auf allen Kontinenten (;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0257-1_5 69175eccc9da94401580f78eed2fd80b;de;;;4.2.;;;Verfahrensgerechtigkeit und „Fitness for Purpose“ selbstorganisierender elektronischer Institutionen In vielen Systemen mit mehreren Agenten ist es eine allgemeine Anforderung, einen Pool von kollektivierten Ressourcen unter diesen Agenten zu verteilen. Eine Möglichkeit, diese Anforderung zu erfüllen, besteht darin, dass die Agenten sich gegenseitig auf ein Regelwerk zur Selbstorganisation und Selbstregulierung des Verteilungsprozesses einigen, aber es gibt keine Garantie dafür, dass ein beliebiges Regelwerk 'optimal' oder deckungsgleich mit der Systemumgebung ist . Daher schlagen wir einen Rahmen zur Messung der Zweckmäßigkeit eines solchen Regelwerks vor, der Metriken für Prinzipien der Partizipation, Transparenz und Ausgewogenheit umfasst, wie sie aus verschiedenen Konzepten der Verfahrensgerechtigkeit abgeleitet werden. Wir definieren eine Metrik für die Empowerment-Dimension des Partizipationsprinzips und verwenden dies in einem Proof of Concept des Frameworks, dass diese Metrik im Laufe der Zeit eine inhärente „Fairness“ oder „Unfairness“ aufdecken kann. Wir kommen zu dem Schluss, dass Metriken der Verfahrensgerechtigkeit zur Bewertung der „Zwecktauglichkeit“ in adaptiven Institutionen sowohl elektronischer als auch menschlicher Art von wesentlicher Bedeutung sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-44927-7_18 2b4ce05c5d9bf99ca9d086e4f981f18d;de;;;5.2.;;;Toxikologie, Karzinogenität und Pharmakologie von Scandium und Yttrium Scandium und Yttrium sind wie alle anderen Ionen, Komplexe oder Verbindungen im Übermaß giftig. Diese und andere Elemente der Gruppe IIIA sind Hartmetalle, die schwach an organische Liganden binden und um die Bindungsstellen einiger anderer Elemente konkurrieren können. Mechanismen der Metalltoxizität können Enzymhemmung, indirekte Wirkungen (dh Bindung an Cofaktoren, Vitamine und Substrate), Substitution von essentiellen Metallen und Metallungleichgewicht (Pounds, 1985) umfassen und können auch Probleme wie Kationen- und Anionenantagonismus, biphasische Reaktion, Bindungsreaktionen lebender Zellen und selektive Toxizität (Albert, 1985). Es gibt isolierte Daten über die wahrscheinlichen Auswirkungen von Scandium, Yttrium und zahlreichen anderen TE auf das Immunsystem (Bendich und Chandra, 1990), Veränderungen der Genexpression (Heflich, 1991) und mutagene oder teratogene Wirkungen (Gebhart und Rossman, 1991) .;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4311-4_3 966b38865264241d93f64120e45a5c82;de;;;4.2.;;;Sichere Beschaffungsauktion mit mehreren Attributen In diesem Papier entwickeln wir eine sichere Beschaffungsauktion mit mehreren Attributen, bei der ein Verkaufsartikel durch mehrere Attribute namens Qualität definiert wird, der Käufer der Auktionator (z. B. eine Regierung) und die Verkäufer die Bieter sind. Unser Ziel ist es, ein Protokoll zu entwickeln, bei dem ehrliches Handeln eine vorherrschende Strategie für Verkäufer ist und das die wahren Kosten der Verkäufer nicht preisgibt, bei denen es sich um streng geheime Informationen handelt, die die Verkäufer geheim halten möchten. Wir präsentieren zunächst ein Protokoll vom Vickrey-Typ, das für Beschaffungsauktionen mit mehreren Attributen verwendet werden kann. Als nächstes zeigen wir, wie dieses Protokoll sicher ausgeführt werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/11604938_24 0a68f725a56a301e9037507b2d279d67;de;;;4.2.;;;Business Analytics Generated Data Brokerage: Recht, ethische und soziale Fragen Die schnell wachsenden Big Data und Business Analytics von heute bringen Veränderungen mit sich, für die noch keine Gesetze und Verhaltensregeln entwickelt wurden. Steigende Rechenleistung, Speicher- und Netzwerkfähigkeiten, einschließlich des Internets und des IoT, erweitern die Reichweite individueller und organisatorischer Maßnahmen und verstärken ihre Auswirkungen. Die Einfachheit und Anonymität, mit der Informationen heute in Cyberumgebungen kommuniziert, kopiert und manipuliert werden, stellen den Schutz der Privatsphäre und des geistigen Eigentums vor neue Herausforderungen. Die wichtigsten ethischen, sozialen und politischen Fragen, die von Business Analytics generierten Informationsbrokern aufgeworfen werden, drehen sich um Informationsrechte und -pflichten, Eigentumsrechte und -pflichten, Rechenschaftspflicht und Kontrolle, Systemqualität und Lebensqualität. In dieser Studie untersuchen wir die Schlüsselelemente und vergleichen die EU-Staaten. und US-Rechtsrahmen für das aufkommende soziale Problem der analytischen Informationsvermittlung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-65548-2_13 8db120cd818c1ee70f6eaf942f69442f;de;;;4.2.;;;Handelsnetzwerke und Interaktionssphären – Ein Blick aus Silcott Die Einwohner von Silcott, einer kleinen Bauerngemeinde im Südosten Washingtons, nahmen an sechs großen Handelsnetzwerken teil: lokal, lokal-kommerziell, regional-kommerziell, regional, national und international. Diese Netzwerke werden anhand der ethnographischen, historischen und archäologischen Daten untersucht. Bemerkenswerterweise werden die regionalen, nationalen und internationalen Netzwerke am besten durch die Archäologie untersucht, während die lokalen Netzwerke und die regionalen kommerziellen Netzwerke am besten durch die Ethnographie untersucht werden. Diese Netzwerke verbanden Silcott zu einer integrierten Gemeinschaft, während sie Silcott gleichzeitig über die verschiedenen Netzwerke mit der nationalen Wirtschaft verbanden.;-;-;-;https://link.springer.com/article/10.1007/BF03374003 ebf48b83efb7a55353d9c0479d08f572;de;;;4.2.;;;Interaktion regulieren Im Verlauf angenehmer und flüssiger Interaktionen wird unsere Aufmerksamkeit selten auf die nonverbalen Verhaltensweisen gelenkt, die dem reibungslosen Geben und Nehmen in Gesprächen zugrunde liegen. Dennoch gibt es subtile, aber wichtige Verhaltensmuster in Bezug auf Kontinuität und Sequenzierung in der Interaktion. Die Störung dieser Muster führt oft zu spürbarem Unbehagen und erhöhter Befangenheit. Ziel dieses Kapitels ist es, Verhaltensmuster im Zusammenhang mit der Interaktionsregulation zu diskutieren und zu analysieren. Der Schwerpunkt wird auf direkten verbalen Begegnungen liegen, oder was Goffman (1963) fokussierte Interaktionen nennt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-5564-2_4 7b48acff38aabf061104eff50655cc36;de;;;4.2.;;;Abweichende Frauen, Religion oder Weltanschauung und der Staat: Zeitgenössische Herausforderungen, die Aufmerksamkeit erfordern Frauen und Männer leiden unter Verletzungen des Rechts auf Religions- und Weltanschauungsfreiheit. Beide Geschlechter leiden unter Diskriminierung aufgrund von Religion oder Weltanschauung. Frauen und Männer werden wegen ihres Glaubens schikaniert, unterdrückt, verhaftet, eingesperrt, angegriffen und sogar getötet. in Anbetracht der wachsenden Bedeutung der internationalen Gemeinschaft für die Anwendung einer Geschlechterperspektive auf Menschenrechtsverletzungen,;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-5616-7_19 1d70acd6490aefa72c2eac3e336ced25;de;;;4.2.;;;InClass-RTD: Unterstützung für Diskussionen in Echtzeit im Klassenzimmer Groupware-Anwendungen, die die kollaborative Wissenskonstruktion im Unterricht unterstützen, werden zu einem wichtigen Forschungsthema für die CSCW- und CSCL-Communitys. Sie bieten Unterstützung für eine leichtgewichtige Interaktion zwischen den Teilnehmern und für diese Teilnehmer mit einer zunehmenden Anzahl von allgegenwärtigen Funktionen von Augmented Classrooms und schaffen so neue Möglichkeiten zum Lehren, Lernen und Zusammenarbeiten. In Bezug auf die Interaktion im Unterricht konzentrieren sich die meisten aktuellen Technologien jedoch auf die Unterstützung der vom Dozenten geforderten Beteiligung (die wir als Requested Participations bezeichnen) und die sich auf kurze Interaktionen beschränkt. Daher ist die Unterstützung für spontane Teilnahme oder für längere Interaktionen begrenzt oder fehlt. In diesem Beitrag stellen wir InClass-RTD vor, ein System, das die spontane Teilnahme in Form von Diskussionsfäden während des Vortrags des Dozenten unterstützt. Wir stellen Szenarien vor, die seine Entwicklung motivierten, sowie seine Gestaltung und Umsetzung als Service eines Augmented Classrooms. Darüber hinaus zeigten die Ergebnisse einer dreimonatigen Vorstudie, dass InClass-RTD die Teilnahme von 80% der Gruppe ermöglichte, mit durchschnittlich 8 spontanen Teilnahmen pro Schüler aus einer Gruppe von 10. Wir fanden auch heraus, dass das System durchschnittlich 54 Teilnahmen pro Stunde. Zukünftige Arbeiten erwägen die Entwicklung zusätzlicher Visualisierungstechniken und die Durchführung eingehender Analysen, um ihr pädagogisches Potenzial im Unterricht zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/11853862_3 f10d43003838bc717d335e9d1774e3e8;de;;;4.2.;;;Ein Modell zur Erzeugung sozial-angemessener deiktischer Verhaltensweisen gegenüber Menschen Zeigeverhalten ist unerlässlich, um es sozialen Robotern zu ermöglichen, über ein bestimmtes Objekt, eine Person oder einen Raum zu kommunizieren. Dennoch kann es in vielen Kulturen als unhöflich angesehen werden, auf eine Person zu zeigen, und da Roboter in immer unterschiedlicheren Umgebungen mit Menschen zusammenarbeiten, müssen sie effektiv und sozial angemessen auf Menschen verweisen. Wir haben in einer empirischen Studie bestätigt, dass Menschen zwar genau auf ein Objekt zeigen würden, um anzuzeigen, wo es sich befindet, dass sie dies jedoch zögerten, wenn sie auf eine andere Person zeigten. Wir schlagen ein Modell für die Auswahl von Äußerungen und das Zeigen von Verhaltensweisen auf Menschen im Sinne eines Gleichgewichts zwischen Verständlichkeit und sozialer Angemessenheit vor. Durch die Kalibrierung unseres vorgeschlagenen Modells basierend auf empirischem menschlichem Verhalten haben wir ein System entwickelt, das in der Lage ist, autonom zwischen sechs deiktischen Verhaltensweisen auszuwählen und sie auf einem humanoiden Roboter auszuführen. Wir haben das System in einem Experiment in einem Einkaufszentrum evaluiert und die Ergebnisse zeigen, dass das deiktische Verhalten des Roboters sowohl vom Zuhörer als auch vom Referenten als höflicher, natürlicher und insgesamt besser wahrgenommen wurde, wenn unser Modell im Vergleich zu einem Modell verwendet wurde allein in Anbetracht der Verständlichkeit.;-;-;-;https://link.springer.com/article/10.1007/s12369-016-0348-9 c113615b334a423ba1caf2e00f22a7ed;de;;;5.2.;;;Einwanderer-Extremisten und einheimische Fremdenhasser: Wie Migranten und Gastgeber radikalisieren Regierungen rechtfertigen Migrationskürzungen und -barrieren konsequent mit Gründen der nationalen Sicherheit. Sogar migrantenfreundliche Autoren wie Joseph Carens sagen, dass die „öffentliche Ordnung“ ein Faktor bei der Entscheidung sein kann, wer in eine souveräne Nation einreisen darf. Im 21. Jahrhundert wurde der Zusammenhang zwischen Migration und Terrorismus von den Medien aufgrund von Bedenken hinsichtlich des Radikalismus in Europa durch neue Immigranten hochgehalten. Radikale sind jedoch selten neue Migranten. Stattdessen stammen, wie Marc Sageman herausfand, ausländische Terroristen im Westen normalerweise von Einwanderern der zweiten oder dritten Generation, die von ihrer neuen Gesellschaft desillusioniert sind. Diejenigen, die Migranten als Terroristen betrachten, neigen dazu, die vielen Fälle von innerstaatlichem – sowohl rechtsextremen als auch linksgerichteten – Terrorismus zu ignorieren, die in Demokratien vorkommen, und nehmen die engstirnige Sichtweise an, dass nur Nichtchristen Terroristen sein können. ? Das Kapitel wird: (1) zeigen, dass die Verbindung zwischen Migranten oder Flüchtlingen und Terrorismus bestenfalls dürftig ist, (2) beschreiben, wie Radikalisierung, die größere Bedrohung, stattfindet, und (3) beschreiben, wie die Radikalisierung von Migranten und Gastgebern stattfindet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-69399-2_2 ab6f45afb26a57fc99119bc7bb6fba96;de;;;5.2.;;;Adaptiver evolutionärer Algorithmus mit mehreren Zielen zur Verbesserung der Spannungsstabilität in Stromversorgungssystemen Probleme mit zwei oder mehr widersprüchlichen Zielen wurden in den letzten Jahren so behandelt, dass sie einen Mehrzielansatz erfordern. Die Lösung für diese Art von Problemen besteht normalerweise darin, die widersprüchlichen Ziele gleichzeitig zu erfüllen, um Kompromisse zwischen verschiedenen Kriterien zu finden. Die Optimierung in Energiesystemen ist ein wichtiges Beispiel für die Lösung von Mehrzielproblemen, da diese Systeme widersprüchliche Leistungsindikatoren aufweisen und aufgrund der ständig steigenden Nachfrage normalerweise nahe an ihren Grenzen arbeiten. In diesem Beitrag wird ein Mehrzielansatz auf das Spannungsstabilitätsproblem in Stromversorgungssystemen angewendet, indem ein adaptiver evolutionärer Algorithmus verwendet wird. Die vorgeschlagene Methode sieht die Untersuchung der folgenden Stabilitätsindikatoren von Stromversorgungssystemen: das Spannungsprofil, den gesamten Blindleistungsverlust und die Spannungskollapsmarge als einen Mehrzielansatz erforderlich. Mehrere Experimente wurden in IEEE 14, 57 und 118 Busbar-Systemen unter Verwendung des vorgeschlagenen Verfahrens und anderer probabilistischer und heuristischer Optimierungsverfahren durchgeführt. Die Ergebnisse zeigten, dass der vorgeschlagene adaptive evolutionäre Algorithmus die Spannungsstabilität verbessert und die anderen Methoden übertrifft, insbesondere wenn die Größe des Stromnetzes zunimmt.;-;-;-;https://link.springer.com/article/10.1007/s12555-020-0095-4 87402e6d8cd197dcd28fc1b0de422ea5;de;;;4.2.;;;Entwicklung einer erfolgreichen SemEval-Aufgabe in der Stimmungsanalyse von Twitter und anderen Social-Media-Texten Wir präsentieren die Entwicklung und Evaluierung einer semantischen Analyseaufgabe, die an der Schnittstelle zweier sehr trendiger Forschungsrichtungen der zeitgenössischen Computerlinguistik liegt: (1) Sentimentanalyse und (2) Verarbeitung natürlicher Sprache von Social-Media-Texten. Die Aufgabe war Teil von SemEval, dem International Workshop on Semantic Evaluation, einem semantischen Evaluationsforum, das früher als SensEval bekannt war. Die Aufgabe lief in den Jahren 2013 und 2014 und zog in beiden Jahren die höchste Anzahl an teilnehmenden Teams bei SemEval an, und es gibt eine fortlaufende Ausgabe im Jahr 2015. Die Aufgabe umfasste die Erstellung eines großen kontextbezogenen und Nachrichten-Polaritätskorpus, bestehend aus Tweets, SMS Nachrichten, LiveJournal-Nachrichten und eine spezielle Testreihe sarkastischer Tweets. An der Evaluierung nahmen 2013 44 Teams und 2014 46 Teams teil, die unterschiedliche Ansätze verfolgten. Die besten Teams waren in der Lage, mehrere Baselines um beträchtliche Margen zu übertreffen und sich in den 2 Jahren, in denen die Aufgabe ausgeführt wurde, zu verbessern. Wir hoffen, dass diese Aufgabe und die begleitenden Datensätze langfristig als Testumgebung für den Vergleich verschiedener Ansätze dienen und so die Forschung erleichtern werden.;-;-;-;https://link.springer.com/article/10.1007/s10579-015-9328-1 89589c34e907204698cd4fd3c08b8f21;de;;;5.2.;;;Verbesserte CAMshift basierend auf überwachtem Lernen Der CAMshift-Algorithmus bezieht sich auf die rückprojizierte Verteilung der Farbe des Zielobjekts, um die Position des Zielobjekts im nachfolgenden Frame zu lokalisieren. Dieser Mechanismus wird jedoch ungenau, wenn ein oder mehrere Fremdobjekte, die dieselben Farbmerkmale mit dem Zielobjekt teilen, sehr nahe beieinander liegen, was dazu führt, dass sich diese Objekte im selben Suchfenster befinden. Daher schlug diese Studie die Einbettung von zwei binären Klassifikatoren vor, die von SVM trainiert wurden, in die bestehende CAMshift. Diese Klassifikatoren wurden modelliert, um die rückprojizierte Verteilung unter 4 Arten von Darstellungen zu überprüfen und Ziel- und Nichtzielobjekte zu unterscheiden. Das Ziel besteht darin, das Suchfenster beizubehalten, um während der Verfolgung nur das Zielobjekt abzudecken. Es wurden Experimente durchgeführt, um die Leistung des Klassifikators unter drei Umgebungen zu überprüfen, nämlich einfach, benachbart und unübersichtlich. Die Ergebnisse haben gezeigt, dass es dem Klassifikator gelungen ist, die wahre Erkennung mit bis zu 80% zu klassifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37374-9_58 04cf133e845694b2791e3e9914815d3b;de;;;5.2.;;;Die Suezkrise, 1956: Das Flüstern des Löwen Die Suezkrise von 1956 war die größte Herausforderung für die britischen Interessen seit dem Ende des Zweiten Weltkriegs. Sie war geprägt von einer Reihe von geheimen und von Desinformation getrübten Ereignissen, einer von den Bemühungen einer komplizierten zwischenstaatlichen Zusammenarbeit gezeichneten Außenpolitik und fatalen militärischen und diplomatischen Fehlern, die die Krise in ein Debakel verwandelten. Der wahre Zweck, die Auswirkungen und die Bedeutung der Suez-Episode bleiben Gegenstand einer aufgeregten akademischen Debatte, die durch den jüngsten Zugang zu ehemals vertraulichen Akten und Dokumenten noch lebhafter wird. David Sanders hat die Suez-Krise als traumatische, aber wertvolle Erfahrung für die britische Außenpolitik beschrieben. Seit dem Zweiten Weltkrieg hatte Großbritannien mit seinen überzogenen militärischen Verpflichtungen und seiner Diplomatie unter dem Vorwand gearbeitet, immer noch eine Großmacht zu sein. Es bedurfte des Schocks der Suez-Krise, um diese Illusion zu durchbrechen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-24499-7_3 88ae57865c60d028e013bb22e43859df;de;;;4.2.;;;Social Presence Visualizer: Entwicklung des Collaboration Facilitation Module auf CSCL Ziel dieser Studie ist es, eine Visualisierungsfunktion von CSCL zu entwickeln und zu evaluieren, die auf sozialer Präsenz basiert. Diese Funktion kategorisiert automatisch die Postings von Lernenden und stellt die soziale Interaktion nach einem sozialen Präsenzindikator visuell dar. Darüber hinaus scheint diese Funktion die soziale Präsenz zu verbessern und das Lernverhalten, wie zum Beispiel aktive Diskussionen, zu fördern. Um die Validität der Autokategorisierung zu untersuchen, wurden die Inter-Rater-Übereinstimmungsrate und die Fähigkeit, die Qualität der Diskussion vorherzusagen, analysiert und mit den von Menschen kategorisierten Daten verglichen. Die Ergebnisse zeigten, dass es mehrere Indikatoren der sozialen Präsenz gibt, die eine hohe und eine niedrige Inter-Rater-Übereinstimmung aufweisen, aber die in dieser Studie entwickelte Kategorisierung der Funktion hatte mehr Vorhersagekraft als die von Menschen durchgeführte Kategorisierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-2618-8_14 e69e8ee307725ee25f57ed950c35f02d;de;;;4.2.;;;Die Akzeptanz von Social-Media-Sites: Eine empirische Studie mit PLS-SEM- und ML-Ansätzen Ziel der durchgeführten Studie ist es, ein konzeptionelles Modell zu entwickeln, um die Akzeptanz von Social Media bei den Schülern im Bildungsbereich und deren Faktoren zu berechnen. Die Studie wird durchgeführt, indem das Technology Acceptance Model (TAM) um soziale Einflussfaktoren erweitert wird. Daneben werden die gesammelten Daten durch Machine-Learning-Ansätze und die partielle Least-Squares-Structural-Gleichung-Modellierung (PLS-SEM) ausgewertet. Insgesamt 350 Studierende, die an renommierten Universitäten in den Vereinigten Arabischen Emiraten (VAE) eingeschrieben waren, füllten Fragebögen aus, analysierten sie und präsentierten die Ergebnisse. Diese Forschung legt nahe, dass die Absicht der Schüler, soziale Mediennetzwerke beim Lernen zu nutzen, ein signifikanter sozialer Einfluss, wahrgenommener Nutzen und Benutzerfreundlichkeit ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-69717-4_52 08d816094c0113a3adaca807c4cdcb6a;de;;;4.2.;;;Was ist ein Engagement-Akt? Zwischen den sozialen, kollegialen und institutionellen Protokollen Engagement ist nicht gleichbedeutend mit Engagement, auch wenn beide Wörter in Übersetzungen zwischen Englisch, Französisch und Deutsch verwendet werden. Engagement ist jedoch auch kein ergänzendes Phänomen oder ein technischer Begriff, den der Begriff soziale Akte bereits in sich beinhaltet oder den die Begriffe „Engagement“ oder „gemeinsames Engagement“ irgendwie notwendigerweise implizieren. In diesem Artikel möchte ich eine besondere Art von sozialem Akt beschreiben und deren Funktion im Verhältnis zwischen verschiedenen Akteuren bestimmen. Vor allem möchte ich ihre Bedeutung bei der Umwandlung einer Gruppe in eine Institution oder eine übergeordnete Einheit definieren. Meine Prämisse ist, dass es Handlungen gibt, deren Ziel es ist, alle anderen einzubeziehen, da sie sich auf uns alle beziehen und dadurch negative (soziale) „Handlungen“ sowie verschiedene asoziale Verhaltensweisen innerhalb einer Gruppe oder Institution reduzieren. In diesem Sinne könnten engagierte Akte alternativ auch zu einer Art institutionellem Akt gehören, da sie gewisse Anpassungen an der Institution vornehmen, ihre Regeln ändern oder modifizieren, ihre Konsistenz und Effizienz erhöhen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-32618-0_4 4f1ad56f8af167e76262d0ca2e5547c2;de;;;5.2.;;;Das Wachstum der strategischen Dichotomie Die strategische Dichotomie zwischen Amerika und Europa wurde offensichtlich, als die Folgen des Atomkriegs für die USA potenziell so schwerwiegend wurden wie für die UdSSR seit dem Zweiten Weltkrieg. Dies verstärkte die strategische Abhängigkeit der USA von Westeuropa zur Abschreckung der Sowjetunion und schmälerte das Vertrauen Westeuropas in die verringerte Glaubwürdigkeit des amerikanischen Atomschirms. Das neue strategische Umfeld erzwang eine Neuausrichtung der Interessen innerhalb des westlichen Bündnissystems. Die Staaten waren gezwungen, unter den Umständen eines empfindlichen Gleichgewichts des Terrors zwischen den beiden konkurrierenden Strategien zu wählen, dh zwischen massiven Vergeltungsmaßnahmen und flexiblen Reaktionen. Beide schlossen sich nicht gegenseitig aus, denn ein gewisses Maß an massiver Vergeltung ist sogar in der Doktrin der flexiblen Reaktion impliziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-07825-7_3 63a04d4109edd2e75fff7187100f3f49;de;;;4.2.;;;"Der systemische Ansatz für das Arbeitsangebot der Haushalte in den Niederlanden Deaton und Muellbauers ""Almost Ideal Demand System"" wird verwendet, um die gemeinsame Ermittlung des Familieneinkommens und des männlichen und weiblichen Arbeitskräfteangebots einzelner Haushalte in den Niederlanden zu modellieren. Familienzusammensetzungseffekte werden als Quasi-Preiseffekte berücksichtigt, wie ursprünglich von Batten vorgeschlagen. Das Modell wird für einen Querschnitt von Haushalten in den Niederlanden im Jahr 1982 geschätzt, um sowohl die tatsächliche Arbeitszeit als auch die bevorzugte Arbeitszeit zu erklären. Eine Analyse der Auswirkungen einer Rationierung des männlichen Arbeitskräfteangebots durch eine obligatorische Verkürzung der Wochenarbeitszeit weist auf einen beträchtlichen kompensierenden Effekt auf das weibliche Arbeitskräfteangebot hin.";-;-;-;https://link.springer.com/article/10.1007/BF01675960 56b39924bdcb97c7fc8e661480fd51cc;de;;;5.2.;;;„Einfachste“ Wege: Automatisierte Routenauswahl für die Navigation Zahlreiche kognitive Studien haben gezeigt, dass die Form und Komplexität von Routenanweisungen für menschliche Navigatoren ebenso wichtig sein können wie die Gesamtlänge der Route. Die meisten automatisierten Navigationssysteme beruhen auf der Berechnung der Lösung des Problems des kürzesten Weges und nicht des Problems, den „einfachsten“ Weg zu finden. Dieses Papier befasst sich mit der Frage, die „einfachsten“ Pfade durch ein Netzwerk in Bezug auf die Befehlskomplexität zu finden. Wir schlagen einen „einfachsten“ Pfadalgorithmus vor, der eine quadratische Rechenzeit für einen planaren Graphen hat. Eine empirische Untersuchung der Leistung des Algorithmus, basierend auf einem etablierten kognitiven Modell der Komplexität von Navigationsanweisungen, ergab, dass die Länge eines einfachsten Pfads im Durchschnitt nur 16% länger war als die Länge des entsprechenden kürzesten Pfads. Im Gegenzug für geringfügig längere Wege scheint der einfachste Pfadalgorithmus gegenüber den kürzesten Pfaden erhebliche Vorteile hinsichtlich der einfachen Beschreibung und Ausführung zu bieten. Die Schlussfolgerungen weisen auf mehrere Bereiche für zukünftige Forschungen hin: insbesondere sind kognitive Studien erforderlich, um diese ersten Rechenergebnisse zu verifizieren. Potenziell könnte der Algorithmus der einfachsten Wege verwendet werden, um Algorithmen der kürzesten Wege in jedem automatisierten System zum Generieren von menschlichen Navigationsanweisungen zu ersetzen, einschließlich Navigationssystemen im Auto, Internet-Fahrrichtungsservern und anderen standortbasierten Diensten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39923-0_12 3224763090a98293b8b58dc0d614e27e;de;;;5.2.;;;Vergleichende Analyse intelligenter Lösungen Suchalgorithmen der Partikelschwarmoptimierung und Ameisenkolonieoptimierung für künstliche neuronale Netze Zieldatensatz Die Optimierungsansätze der Ameisenkolonieoptimierung (ACO) und Partikelschwarmoptimierung (PSO) zielten darauf ab, die Ergebnisse künstlicher neuronaler Netze zu verbessern, um die beste Lösung im Weltraum zu finden. Sowohl ACO als auch PSO werden aus dem Konzept der künstlichen Intelligenz abgeleitet, das das natürliche Verhalten von Tieren imitiert, um den besten Weg zum relativen Nahrungsstandort und zurück zu ihrem Nest zu finden. Die künstlichen neuronalen Netze (KNNs) sind auf geschätzte Forschungsschemata angewiesen, in denen Modelle für nicht spezifizierte Funktionen generiert werden, um geeignete Wechselbeziehungen in Eingabe- und Ausgabedatensätzen zu finden. Diese sind nicht ohne Herausforderungen, einschließlich einer hohen Rechenzeit, einer ausgedehnten Größe der verborgenen Schichten und einer geringen Genauigkeit. Dieses Papier untersucht die Auswirkungen von Vortrainingsdatensätzen mit ACO und PSO vor dem Trainingsprozess von KNN, um die oben genannten Probleme der Geschwindigkeit und Genauigkeit durch Optimierung der lokalen und globalen Minima zu überwinden. Die Ergebnisse der Studie zeigten, dass ACO PSO in Verbindung mit ANN in Bezug auf RAE, MSE, RMSE und MAPE übertraf. Die Fehlerquoten von KNN, die mit ACO und PSO vortrainiert wurden, liegen deutlich bei 62 bzw. 73%. Beim Benchmarking der Ergebnisse mit den Lösungsoptimierungsstudien werden ACO- und PSO-Algorithmen am meisten bevorzugt, um die beste Lösung oder die am nächsten optimalen Suchräume zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0733-2_32 4a6da195ef180b7447b42d3aaaf4fb47;de;;;5.2.;;;Visuelle Suche als aktive Inferenz Die visuelle Suche ist eine wesentliche kognitive Fähigkeit und bietet ein prototypisches Kontrollproblem, das mit Active Inference angegangen werden kann. Unter einer Annahme von Naive Bayes steht die Maximierung des Informationsgewinnziels im Einklang mit der Trennung des visuellen Sinnesflusses in zwei unabhängige Pfade, nämlich den „Was“- und den „Wo“-Weg. Auf der „Was“-Seite liefert die Verarbeitung des zentralen Teils des Gesichtsfeldes (der Fovea) die aktuelle Interpretation der Szene, hier die Kategorie des Ziels. Auf der „Wo“-Seite wird erwartet, dass die Verarbeitung des gesamten Gesichtsfelds (bei niedrigerer Auflösung) angesichts der möglichen Realisierung sakkadischer Bewegungen Hinweise auf die zukünftige zentrale foveale Verarbeitung gibt. Eine Karte der Klassifikationsgenauigkeiten, wie sie von solchen kontrafaktischen Sakkaden erhalten wird, definiert eine Nutzenfunktion auf dem motorischen Raum, deren maximales Argument die nächste Sakkade vorschreibt. Der Vergleich der fovealen und der peripheren Vorhersagen bildet schließlich eine Schätzung des zukünftigen Informationsgewinns und bietet eine einfache und ressourceneffiziente Möglichkeit, Strategien zur Suche nach Informationsgewinnen im aktiven Sehen umzusetzen. Dieses Dual-Pathway-Informationsverarbeitungs-Framework hat sich bei einer synthetischen visuellen Suchaufgabe mit variabler (exzentrizitätsabhängiger) Präzision als effizient erwiesen. Noch wichtiger ist, dass es bei der Handlungsauswahl Verbindungen zu einem allgemeineren Akteur-Kritik-Prinzip herstellt, wobei die Genauigkeit der zentralen Verarbeitung die Rolle eines Wertes (oder einer intrinsischen Belohnung) der vorherigen Sakkade übernimmt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-64919-7_17 ca3ac4befb4219851a1c9588f2ec4852;de;;;5.2.;;;Forschungsnachweise und andere Informationsquellen Ein Großteil der aggregierten Informationen über mHealth ist in grauer Literatur und Fachliteratur verfügbar, was auf einen Mangel an belastbaren Informationen für klinische, Investitions- und politische Entscheidungen hindeutet. In Wahrheit sind viele wertvolle Informationen verfügbar. Die Herausforderung besteht oft darin, zu wissen, wo sich die Informationen befinden, und die Glaubwürdigkeit der Informationen zur Entscheidungsunterstützung zu beurteilen. Verbraucher werden in der Tat durch einen Mangel an umfassenden, organisierten Verzeichnissen und Bewertungskriterien bei der Auswahl von Apps für den persönlichen Gebrauch herausgefordert. Darüber hinaus stehen Anbieter in ähnlicher Weise vor der Herausforderung, diese Art von Apps zu empfehlen. Bei Apps im Zusammenhang mit Medizinprodukten beseitigt die erforderliche FDA-Zulassung einen Großteil der Unsicherheit. Rigorose, theoriebasierte und kontrollierte Forschung ist unerlässlich, um klinische, politische und regulatorische Entscheidungen zu treffen. Diese Forschung ist jedoch zeit- und ressourcenintensiv und beinhaltet eine beträchtliche Zeitverzögerung zwischen der Untersuchung und der anschließenden Veröffentlichung der Ergebnisse und Empfehlungen. Diese Art von Recherche ist für die von Verbrauchern und App-Entwicklern benötigten Arten von Informationen nicht erforderlich und nicht in allen Phasen eines Untersuchungsprozesses geeignet. Für manche Fragen ist Zeitsensitivität wichtiger als statistisch validierte Informationen. Antworten auf diese Art von Fragen finden sich häufig in digitalen Medien und anderen Publikationen mit begrenzter Auflage. Informationskonsumenten müssen zuerst die beabsichtigte Verwendung der Informationen artikulieren, dann glaubwürdige Quellen für den Zugriff auf die benötigten Informationen identifizieren und geeignete Kriterien für ihre Entscheidung anwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-7457-0_8 f46a5b0e6e18167e945f49ecd037c2aa;de;;;5.2.;;;Die Rolle der Lesermotivation bei der Wahl digitaler versus traditioneller Zeitungen Die Entwicklung des Internets in den letzten Jahren beeinflusst den Journalismus, der im Web immer wichtiger wird. Dieser Beitrag analysiert die Dualität von Nachrichtenmedien aus der Nachfrageperspektive, identifiziert die Hauptgründe, die Leser zu den Medien ziehen, und analysiert den Einfluss solcher Gründe auf die Entscheidung, Online-Zeitungen anstelle von traditionellen Printmedien zu lesen. Die Ergebnisse bestätigen, dass sich die Kanäle bei ausreichender Differenzierung ergänzen und mit unterschiedlichen Motivationen und Nutzungssituationen in Verbindung gebracht werden können.;-;-;-;https://link.springer.com/article/10.1057/palgrave.jt.5740192 9f4f099aa4e628ef75f75cfb3d921461;de;;;4.2.;;;Autoimmunerkrankungen Es ist schwierig, die Postulate von Koch zu erfüllen, wenn man die Ätiologie von Autoimmunerkrankungen (AIDs) betrachtet, bei denen es sich um multifaktorielle Erkrankungen handelt, bei denen genetische Faktoren eine Hauptrolle spielen, die mit Umweltfaktoren verbunden sind, die für ihre klinische Ausprägung verantwortlich sind [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-33395-1_18 42203104a8e28834fbca98a6066f88d6;de;;;5.2.;;;Charaktere mit Persönlichkeit! Serious Games bieten die Möglichkeit, Kommunikationsfähigkeiten zu erlernen, indem Konversationen mit einem oder mehreren virtuellen Charakteren geübt werden, vorausgesetzt, die Charaktere verhalten sich in Übereinstimmung mit ihren zugewiesenen Eigenschaften und Strategien. Dieses Papier stellt einen Ansatz zur Entwicklung virtueller Charaktere unter Verwendung des Belief-Desire-Intentions (BDI)-Konzepts vor. Das BDI-Framework wurde verwendet, um virtuelle Charaktere mit Persönlichkeitsmerkmalen auszustatten und sie entsprechend handeln zu lassen. Als Kontext wurde ein Verkaufsspiel entwickelt: Der Spieler-Azubi ist ein Immobilienverkäufer, die virtuelle Figur ist ein potenzieller Käufer. Der Charakter könnte modelliert werden, um sich entweder extravertiert oder introvertiert, angenehm oder nicht angenehm zu verhalten, und Kombinationen davon. Es wurde eine Studie am Menschen durchgeführt, um zu untersuchen, ob naive Spieler die Persönlichkeit der virtuellen Charaktere in Übereinstimmung mit ihrem zugewiesenen Profil erleben. Die Ergebnisse zeigen eindeutig, dass sie es tun. Der vorgeschlagene Ansatz erweist sich bei der Erstellung individueller Charaktere als effektiv, er ist flexibel und lässt sich relativ einfach skalieren, anpassen und entwickelte Modelle wiederverwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33197-8_44 ec4c93e65b0649cbf6d64fdb9bea4fa6;de;;;5.2.;;;Schnelle und genaue Halbpixel-Bewegungsschätzung unter Verwendung der Eigenschaft des Bewegungsvektors Um einen Genauigkeitsbewegungsvektor (MV) zu schätzen, wird im Allgemeinen eine zweistufige Suche verwendet. Im ersten Schritt werden ganzzahlige Pixelpunkte innerhalb eines Suchbereichs untersucht, um das ganzzahlige Pixel MV zu finden. Dann werden im zweiten Schritt 8 Halbpixelpunkte um den ausgewählten ganzzahligen Pixel-MV herum untersucht und der am besten passende Punkt als endgültiger MV ausgewählt. Viele schnelle Integer-Pixel-Bewegungsschätzungsalgorithmen (ME) können gefunden werden, indem weniger als etwa 10 Suchpunkte untersucht werden. Die Halbpixel-ME erfordert jedoch eine enorme Rechenkomplexität. In diesem Papier schlagen wir einen neuen schnellen Algorithmus für Halbpixel-ME vor, der den Rechenaufwand reduziert, indem die Anzahl der Interpolationen der Kandidaten-Halbpixelpunkte begrenzt wird. Das vorgeschlagene Verfahren basiert auf der Eigenschaft von MVs und den Korrelationen zwischen ganzzahligen Pixel-MVs und halben Pixel-MVs. Experimentelle Ergebnisse zeigen, dass die Beschleunigungsverbesserung des vorgeschlagenen Algorithmus gegenüber einer vollständigen Halbpixel-Suche (FHPS), horizontalen und vertikalen Richtungen als Referenzen (HVDR), Chens Halbpixel-Suchalgorithmus (CHPS-1) und einem auf parabolischer Vorhersage basierenden schnellen Halb- Die Pixelsuche (PPHPS) kann im Durchschnitt das 1,4- bis 3,9-fache betragen. Auch die Verbesserung der Bildqualität kann bis zu 0,05 (dB) ~ 0,1 (dB) im Vergleich zu CHPS und PPHPS besser sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30497-5_186 f1adbb030a09d3af1a50838c4fff4252;de;;;5.2.;;;Singularitäten und Behandlungen In diesem Kapitel beginnen wir mit der Singularität der Laplace-Gleichung in der Nähe von Ecken. Um mit solchen Singularitäten umzugehen, werden in den aufeinander folgenden Abschnitten viele Behandlungen untersucht. Die konforme Transformationsmethode wird zuerst in Abschnitt 2.2 mit Details vorgestellt, weitere Algorithmen werden in den Abschnitten 2.3 – 2.9 kurz vorgestellt. Da unser Schwerpunkt in diesem Buch auf den kombinierten Methoden liegt, werden im letzten Abschnitt wichtige Aspekte zu Kombinationen als Verbindung zum Hauptteil dieses Buches behandelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-3338-8_2 a339e210fd6f272a6d3871587b1f66fb;de;;;4.2.;;;CSCL@Work: Computergestütztes kollaboratives Lernen am Arbeitsplatz – Lernen an unerwarteten Online-Orten über etablierte Grenzen hinweg sichtbar machen Wir stellen Computer-Supported Collaborative Learning (CSCL) am Arbeitsplatz (CSCL@Work) als konzeptionellen Rahmen vor, um das Wissen von Forschern im Bereich CSCL mit arbeitsbasiertem Lernen zu verbinden. Die Forschung auf dem Gebiet des organisatorischen Lernens entstand 1978 und erlangte ab den 1990er Jahren zunehmende Aufmerksamkeit, als sich die Fragen darauf konzentrierten, wie eine Kultur und Praktiken für den Austausch von vorhandenem Wissen innerhalb eines Unternehmens geschaffen werden können. Neben der Verwaltung des bestehenden Wissensaustauschs ist die Verwaltung der Schaffung von neuem Wissen für Unternehmen heute wichtig. Aber sind sie in der Lage, neues Wissen zu schaffen, wenn die Antwort auf ein Problem nicht verfügbar ist? Welche Lernkulturen existieren, um dies zu unterstützen? Zeitgenössische Antworten auf diese Fragen müssen erkennen, dass Lernen ein impliziter, oft unsichtbarer Bestandteil der Arbeit ist. Manche Firmen vermeiden sogar den Begriff „Lernen“. Aus den in diesem Buch mit dem Titel CSCL@Work vorgestellten Fällen haben wir drei Thesen abgeleitet: (1) Lernen findet an unerwarteten und ungewöhnlichen Online-Lernorten durch soziale Medien statt. (2) Lernaktivitäten beinhalten Feedback aus verschiedenen Quellen, die innerhalb traditioneller Organisationsgrenzen nicht verfügbar sind. (3) Lernen über bestehende Grenzen hinweg sichtbar zu machen, ist in diesem neuen Zeitalter notwendig. Die explizite Konstruktion von neuem Wissen muss heute durch pädagogische und technologische Gestaltung in die Arbeitspraktiken integriert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-1740-8_1 620725c7a86d7d00f74dd44f4b964fc2;de;;;5.2.;;;Entwerfen eines multikriteriellen Entscheidungsunterstützungssystems für die Portfolioauswahl und -verwaltung Dieses Papier stellt ein Multikriterium-Entscheidungsunterstützungssystem für die Auswahl und das Management von Aktienportfolios vor. Zum einen erlaubt das System detaillierte Finanz- und Börsenanalysen (zB Common-Size-Statements, Finanzkennzahlen, Kennzahlen des Aktienmarktes) und die Berechnung von Renditen und Betas der entsprechenden Aktien aus theoretischen Modellen (Market Model und Capital Asset Pricing Model-CAPM .). ). Zweitens gibt es Grafiken zur Entwicklung einiger Finanz- und Börsenvariablen. Dann werden univariate (Korrelationskoeffizient r, Kendalls Rangkorrelationskoeffizient τ usw.) und multivariate (Principal Component Analysis) statistische Techniken verwendet, um die Analyse der Beta-Stabilität und die Identifizierung der wichtigsten Finanz- und Börsenkennzahlen für die zu unterstützen Portfolioauswahl. Schließlich werden sowohl die wichtigsten Finanz-/Aktienkennzahlen als auch einige qualitative Kriterien in zwei multikriterielle Entscheidungsfindungsmethoden integriert, die es ermöglichen, zunächst einige attraktive Aktien auszuwählen und dann deren Anteile im vorgeschlagenen Portfolio zu bestimmen. Die Leistungsfähigkeit des Systems wird durch aktuelle Daten der belgischen Börse veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-0663-6_17 9c788885c78bd15c4ed835daefbfe6b7;de;;;5.2.;;;Ranking der einer Abfrage zugrunde liegenden Suchabsichten Eine Beobachtung im Abfrageprotokoll der Suchmaschine weist darauf hin, dass Abfragen normalerweise mehrdeutig sind. Ähnlich wie bei der Rangfolge von Dokumenten sollten Suchabsichten eingestuft werden, um die Informationssuche zu erleichtern. Frühere Arbeiten versuchen, Intents lediglich mit Relevanzbewertung zu bewerten. Wir argumentieren, dass auch Vielfalt wichtig ist. In dieser Arbeit werden vereinheitlichte Modelle vorgeschlagen, um einer Abfrage zugrunde liegende Absichten zu ordnen, indem Relevanzbewertung und Diversitätsgrad kombiniert werden, wobei letzterer durch das nicht überlappende Verhältnis jeder Absicht und das aggregierte nicht überlappende Verhältnis einer Menge von Absichten widergespiegelt wird. Aus den Versuchsergebnissen werden drei Schlussfolgerungen gezogen. Erstens spielt Diversität eine wichtige Rolle beim Intent-Ranking. Zweitens ist URL effektiver als Ähnlichkeit bei der Erkennung einzigartiger Unterthemen. Drittens leistet das aggregierte, nicht überlappende Verhältnis einen gewissen Beitrag zum ähnlichkeitsbasierten Intent-Ranking, aber wenig zum URL-basierten Intent-Ranking.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38824-8_23 9303b17750fe4785ca1b3c4a2347980c;de;;;5.2.;;;Forschung zur personalisierten Empfehlung von E-Commerce-Websites basierend auf Text Mining Mit der wachsenden Popularität des elektronischen Handels, für Unternehmen zur Verbesserung der Wettbewerbsfähigkeit, Entscheidungsträger und aktive Innovation, um unverwechselbare, individualisierte und Benutzermerkmale der E-Commerce-Netzwerkplattform aufzubauen, wurde die personalisierte E-Commerce-Empfehlung geboren. Unternehmen nutzen die Data-Mining-Technologie, suchen, aufzeichnen, analysieren Server, durchsuchen den Browserverlauf und die Kaufaufzeichnungen des Benutzers, ausgewählte Benutzer interessieren sich für die Marktinformationen und bieten eine differenzierte Network-Marketing-Strategie. Präsentiert in diesem Papier basierend auf Text-Mining-E-Commerce-Website personalisierte Empfehlungstechnologie ist die A, dieses Papier durch den Vergleich von Text-Mining und Web-Mining-Technologie Analyse der Text-Mining-Technologie der personalisierten Empfehlungstechnologie von Präzision, die Informationsdaten der Studie der Bergbautechnik hat einen hohen Referenzwert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-60744-3_38 ecc97810e30655bb6a3aa14154df7b25;de;;;5.2.;;;Eine neue Methode der Breakpoint-Verbindung für das Bild des menschlichen Skeletts Es gibt viele diskontinuierliche Skelettpunkte in Bildern des menschlichen Skeletts, die die Verhaltensanalyse des menschlichen Skeletts zu einem schwierigen Problem machen. Unser Beitrag stellt einen neuen Breakpoint-Algorithmus vor, der auf Schicht und Partition der Nachbarschaft basiert. Wir scannen Skelettbilder Zeile für Zeile. Die Anzahl der anderen Skelettpunkte wird für jeden Skelettpunkt in seiner 8-Nachbarschaft berechnet. Dann beurteilen wir, ob dieser Skelettpunkt ein Breakpoint ist oder nicht, entsprechend der Anzahl der oben erhaltenen und der Verteilung anderer Skelettpunkte in seiner 8-Nachbarschaft. Wenn dies der Fall ist, finden wir verfügbare Verbindungsskelettpunkte, die den Breakpoint verbinden können. Schließlich ermitteln wir die Punkte, die aktualisiert werden müssen, um den Verbindungsfortschritt des Breakpoints gemäß den vom Breakpoint aufgestellten linearen Gleichungen und den verfügbaren Verbindungspunkten abzuschließen. Durch Theorieanalyse und experimentelle Verifikation hat unsere Methode einen guten Effekt auf die Verbindung von Bruchpunkten in Skelettbildern und die Formen von Skelettbildern sind unverformt. Neben den menschlichen Skelettbildern kann dieses Verfahren auch für andere Objektskelettbilder auf der Breakpoint-Verbindung verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10509-3_1 95c00dc3c7dae6ead328e51b9b4f9d9e;de;;;5.2.;;;Bau- und Architekturingenieurwesen Die Optimierung von Ingenieurbauwerken beinhaltet in der Regel eine Reihe von Anforderungen, die gleichzeitig erfüllt werden sollten, um eine sinnvolle Bemessung zu erhalten. Bei der Einkriterienoptimierung wird eine der Anforderungen als Optimierungskriterium ausgewählt, während die übrigen durch Einbeziehung in die Nebenbedingungen der Optimierung erfüllt werden. Bei der Verwendung dieses Ansatzes ist es jedoch notwendig, a priori die Grenzen zu bestimmen, die diese Anforderungen a priori erfüllen sollen. Die Multikriteriums-(Vektor-)Optimierung ermöglicht es dem Konstrukteur, alle unterschiedlichen, sich gegenseitig widersprechenden Anforderungen, die dem Entwurfsproblem inhärent sind, effektiv zu berücksichtigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-48697-5_9 19896c3a389c875cefb974b23d2bbe29;de;;;5.2.;;;Auf der Suche nach Mechanismen, die zur Albino-Pflanzenbildung in Getreide führen Die Mikrosporenembryogenese ist eine Methode von großer Bedeutung für die Pflanzenproduktion vieler Arten. Der praktische Einsatz bei einkeimblättrigen Pflanzen ist jedoch durch das Vorkommen von Albinopflanzen eingeschränkt. Molekulare Untersuchungen solcher Albinopflanzen zeigten eine abweichende Form von Plastiden und häufig Deletionen in ihrer Plastiden-DNA. Darüber hinaus fanden wir in unseren vorangegangenen Arbeiten typische Mängel in der Transkription und Translation von Plastiden. Dennoch gibt es auch Hinweise auf eine Beteiligung des Kerngenoms an der Albino-Pflanzenbildung. Um diesen Fragen nachzugehen, haben wir einerseits einen Plastidenfaktor charakterisiert, der möglicherweise an der Bildung von Plastiden-DNA-Deletionen beteiligt ist, und andererseits die nukleäre Genexpression in Albinopflanzen untersucht. Das;-;-;-;https://link.springer.com/article/10.1007/s11738-005-0069-4 4443483ac6b98a6fc68f5a2603612a15;de;;;4.2.;;;Auf dem Weg zur Mobilitätswende in der Stadtplanung: Intelligente Reiseplanung basierend auf Raum-Zeit-Verhalten in Peking, China Der aktuelle Trend der Mobilitätswende erfordert einen Paradigmenwechsel in der Stadtplanung, um der erhöhten Mobilität der Stadtbewohner Rechnung zu tragen, was besonders für das urbane China wichtig ist, wo die Lebensqualität und das Wohlbefinden der Stadtbewohner in den Vordergrund gerückt wurden politische Debatte. Der Raum-Zeit-Verhaltensansatz hat in den letzten zwei Jahrzehnten in China an Einfluss gewonnen und wurde anschließend in weitem Umfang auf empirische Forschungs- und Planungspraktiken angewendet. Diese Forschung diskutierte den Rahmen und die Implementierung eines intelligenten Reiseplanungsprojekts in einer Vorstadt-Neustadt von Peking, China, aus einem Raum-Zeit-Verhaltensansatz. Wir haben einige Erfahrungen mit der individuellen Aktivitäts-Reisedatenerhebung im Untersuchungsgebiet dargestellt, bei der die GPS-Tracking-Technologie in eine webbasierte Aktivitäts-Reisetagebuch-Erhebung integriert wurde, um Daten mit hoher räumlicher und zeitlicher Auflösung und mit detaillierten Aktivitäts-Reiseinformationen zu sammeln . Darüber hinaus haben wir einige Fälle der Raum-Zeit-Verhaltensanalyse sowie die Praktiken der intelligenten Reiseplanung im Untersuchungsgebiet in Bezug auf webbasierte Echtzeit-Reiseinformationsdienste herausgearbeitet und die Herausforderungen und Zukunftsaussichten von Smart Travel zusammengefasst Planung im urbanen China.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-51929-6_17 378d6cd8f892a0487c44850589f07ca0;de;;;4.2.;;;Bildungsprinzipien im Konstruktivismus für Ubiquitous Based Learning Diese Studie zielt darauf ab, pädagogische Prinzipien zu erforschen, die auf das ubiquitäre basierte Lernen vom Konstruktivismus anwendbar sind. Dazu werden Merkmale des Ubiquitären und Prinzipien des Konstruktivismus untersucht und dann gemeinsame Merkmale des Ubiquitären Lernens wie Interaktivität, soziale Kontextualität und Individualität verglichen und extrahiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20975-8_31 466799181ae783bb5c6fe158d180ccf9;de;;;4.2.;;;Beweidung von Mikrozooplankton in grünem Wasser – Ergebnisse von zwei kontrastierenden Flussmündungen Wir haben saisonale Schwankungen der Mikrozooplankton-Beweidung im Long Island Sound (LIS) und in der San Francisco Bay (SFB) gemessen. Es gab konsistente Hinweise auf eine Nährstofflimitierung bei LIS, aber nicht bei SFB. Wir fanden höheres Chlorophyll;-;-;-;https://link.springer.com/article/10.1007/s12237-010-9336-8 eeeebd90fbb736549057abb480c67eff;de;;;4.2.;;;Die Auswirkungen von Alkoholkonsum und Erwartungen in einem experimentellen Dattel-Rape-Analogon Diese Studie untersuchte den Einfluss wahrgenommener symbolischer Resistenzen und die psychologischen und pharmakologischen Auswirkungen des Alkoholkonsums auf die Diskriminierung von Männern, wenn eine Frau möchte, dass ihr Partner seine sexuellen Avancen stoppt. In einem 2 (Alkohol vs. kein Alkohol) × 2 (Erwartung vs. keine Erwartung) × 2 (wahrgenommene Tokenresistenz vs. keine Resistenz) randomisierten faktoriellen Design wurden männliche College-Studenten einem Audioband einer Vergewaltigung ausgesetzt. Vor dem Zuhören wurde den Teilnehmern mitgeteilt, dass sich die Frau am vorherigen Termin dem sexuellen Kontakt nicht widersetzte oder dass sie den Kontakt zunächst ablehnte, der Mann jedoch in der Lage war, das von ihm gewünschte Maß an Intimität zu erreichen. Im Vergleich zu den Teilnehmern der Gruppe ohne Alkoholerwartung oder Alkoholkonsum brauchten die Teilnehmer der Gruppe Alkoholerwartung und Alkoholkonsum signifikant länger, um festzustellen, dass der Mann von weiteren sexuellen Kontakten absehen sollte. Die Implikationen der Ergebnisse werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF02229022 cba5b5963045bf7098b65f090137797e;de;;;4.2.;;;Diplomatik und Genretheorie als komplementäre Ansätze Dieser Beitrag untersucht die Beziehung zwischen Diplomatik und Genretheorie und schlägt vor, die Konzepte, Methoden und philosophischen Grundlagen beider Disziplinen zu kombinieren, um ein umfassenderes Verständnis zeitgenössischer kommunikativer Handlungen (von denen Dokumente eine Untermenge bilden) und ihrer breiteren Kontext. Der situierte Ansatz und die Dynamik, die die nordamerikanische Schule der rhetorischen Genrestudien charakterisieren, einschließlich ihrer Betonung der sozial konstruierten Natur kultureller Artefakte, bieten Einsichten, die besonders nützlich erscheinen, um die Erkundungs- und Erklärungskraft der Diplomaten zu stärken. Durch eine kritische Auseinandersetzung mit den „Bausteinen“ der Diplomatie soll gezeigt werden, dass Diplomatie über die abstrakte Identifizierung der dauerhaften Komponenten des dokumentarischen Universums hinausgehen muss, um als Untersuchungsmethode weiterhin relevant zu sein ein geschlossenes System und umfassen ein differenzierteres und integrativeres Verständnis des sozialen Kontexts, der unser kommunikatives Handeln prägt und geprägt wird. Da der Dialog zwischen den beiden betrachteten Disziplinen zum gegenseitigen Nutzen sein soll, werden auch mögliche Beiträge der „Diplomwissenschaft“ zur Genretheorie untersucht.;-;-;-;https://link.springer.com/article/10.1007/s10502-012-9173-6 3fe4c8b08f9f18cb811f8b45d6c45f36;de;;;5.2.;;;DFA-VMP: Eine effiziente und sichere Strategie zur Platzierung virtueller Maschinen in einer Cloud-Umgebung Das Problem der Platzierung von virtuellen Maschinen (VM) ist entscheidend für die Sicherheit und Effizienz der Cloud-Infrastruktur. Heutzutage konzentrieren sich die meisten Forschungen auf die Einflüsse der eingesetzten VM auf die Rechenzentrumslast, den Energieverbrauch, den Ressourcenverlust usw. Nur wenige Arbeiten berücksichtigen die Sicherheits- und Datenschutzprobleme der Mieterdaten auf der VM. Als Anwendung der Virtualisierungstechnologie kann beispielsweise die VM verschiedener Mandanten auf einem physischen Host platziert werden. Daher können Angreifer mithilfe des Seitenkanalangriffs basierend auf den gemeinsam genutzten physischen Ressourcen Geheimnisse von anderen Mietern stehlen, was die Datensicherheit der Mieter im Cloud-Computing bedroht. Um die oben genannten Probleme anzugehen, schlägt dieses Papier eine effiziente und sichere VM-Platzierungsstrategie vor. Zunächst definieren wir die zugehörigen Sicherheits- und Effizienzkennzahlen im Cloud-Computing-System. Dann erstellen wir ein multi-objektives Constraint-Optimierungsmodell für die VM-Platzierung unter Berücksichtigung der Sicherheit und Leistung des Systems und finden eine Lösung für dieses Modell basierend auf dem diskreten Glühwürmchen-Algorithmus. Die experimentellen Ergebnisse der OpenStack-Cloud-Plattform zeigen, dass die obige Strategie die Möglichkeit böswilliger Mieter und gezielter Mieter auf demselben physischen Knoten effektiv reduzieren und den Energieverbrauch und den Ressourcenverlust im Rechenzentrum reduzieren kann.;-;-;-;https://link.springer.com/article/10.1007/s12083-016-0502-z 3835d45d5602c14134daf1db9db3db5a;de;;;5.2.;;;Clustering von Genexpressionsdaten: Ein hybrider Ansatz, der zwischen k-Means und evolutionärer Suche iteriert Das Clustern von Genen basierend auf ihren Expressionsprofilen ist normalerweise der erste Schritt bei der Analyse von Genexpressionsdaten. Unter den vielen Algorithmen, die auf das Genclustering angewendet werden können, ist der;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73297-6_12 bbf13cc6d9680db418f4a994ae7d08ba;de;;;5.2.;;;Dreidimensionale Rekonstruktion von geologischen Festkörpern basierend auf Schnitttopologiebetrachtungen Um das dynamische Rekonstruktions- und lokale Aktualisierungsproblem von dreidimensionalen geologischen Festkörpern zu lösen, wird Topology Reasoning für die dreidimensionale geologische Modellierung verwendet. Dies kann das Niveau der entsprechenden Abschnittsautomatisierung bei der Implementierung der 3D-geologischen Festkörper-Dynamik-Rekonstruktion durch die Konstruktion und Begründung der Topologie auf der 3D-gekrümmten Oberfläche verbessern. Diese Methode wurde erfolgreich bei der geologischen Modellierung der Stadt Nanjing und bei der Modellierung der Goldmine Zijin eingesetzt. Die Ergebnisse belegen, dass sich diese Methode an koplanare und nicht koplanare Schnittdaten anpasst und die Effizienz der geologischen 3D-Modellierung verbessert.;-;-;-;https://link.springer.com/article/10.1007/s11806-008-0082-2 dc085e782cbf3ad666b7d059d69089c1;de;;;5.2.;;;Domänenspezifisches Framework zum Abrufen von Dokumenten für Echtzeitdaten zur sozialen Gesundheit Mit dem Aufkommen der Websuche und des Microbloggings ist der Prozentsatz der Online-Suchenden nach Gesundheitsinformationen (OHIS) exponentiell gestiegen, die diese Online-Dienste nutzen, um Gesundheitsinformationen in Echtzeit zu teilen und zu suchen. Das OHIS verwendet Websuchmaschinen oder Microblogging-Suchdienste, um nach neuesten, relevanten und zuverlässigen Gesundheitsinformationen zu suchen. Wenn sich das OHIS an Microblogging-Suchdienste wendet, um Echtzeitinhalte, Trends und aktuelle Nachrichten usw. zu durchsuchen, sind die Suchergebnisse nicht vielversprechend. Bei den aktuellen Microblogging-Suchmaschinen gibt es zwei große Herausforderungen: schlüsselwortbasierte Techniken und Ergebnisse, die keine Echtzeitinformationen enthalten. Um diesen Herausforderungen zu begegnen, haben wir einen Ansatz entwickelt, um nahezu in Echtzeit und zuverlässigen Inhalten von Twitter zu suchen, basierend auf Triple-Pattern-Mining, nahezu Echtzeit-Abruf und Ranking unter Berücksichtigung der Popularität und Relevanz der Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-21843-4_24 26e9def82a13f4ce90aa029de2a43a28;de;;;5.2.;;;Risikoaverse Designs: Von exponentiellen Kosten zu stochastischen Spielen Wir diskutieren die Beziehung zwischen risikoaversen Designs basierend auf exponentiellen Kostenfunktionen und einer Klasse stochastischer Spiele, die durch eine stochastische Dissipationsungleichung eine Robustheitsinterpretation für risikoaverse Entscheidungsregeln liefert. Insbesondere beweisen wir die Äquivalenz zwischen risikoaversen linearen Filterdesigns und Sattelpunktlösungen eines bestimmten stochastischen Differentialspiels mit asymmetrischer Information für die Spieler. Ein Nebenprodukt dieser Studie ist, dass risikoaverse Filter für lineare Signalmessmodelle robust (durch eine stochastische Dissipationsungleichung) gegenüber unmodellierten Störungen sowohl des Signals als auch der Messprozesse sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5223-9_10 6864bfd5255ec813f7f4f3461d33ff7f;de;;;4.2.;;;Aktive Teilnahme an Vorlesungen über einen kollaborativ gesteuerten Roboter Die Informationstechnologie, einschließlich digitaler Geräte, Roboter und des Internets, ist im Bildungsbereich von großem Interesse. Viele bisherige Studien haben sich auf die Verbesserung der Dozenten-Studierenden-Kommunikation während der Vorlesung konzentriert. In diesem Beitrag beschreiben wir ein neues Roboter-Teleoperationssystem zur Übertragung von Meinungen oder Fragen von Studierenden an den Dozenten. Durch dieses System können Benutzer kollaborativ eine Nachricht auswählen, die von einem Roboter ausgesprochen werden soll. Wir berichten über die Ergebnisse eines subjektiven Experiments, das in einer kontrollierten Umgebung im Vorlesungsstil durchgeführt wurde. Die Ergebnisse zeigen, dass die aus verhaltensbezogenen und subjektiven Messungen geschätzte Teilnahme an Vorlesungen mit dem vorgeschlagenen System im Vergleich zu solchen, die das vorgeschlagene System nicht verwendeten oder eine reduzierte Version des vorgeschlagenen Systems verwendeten, bei denen der Roboter individuell gesteuert wurde (d. h. nicht kooperativ).;-;-;-;https://link.springer.com/article/10.1007/s12369-020-00651-y cfdd3213944593894a68a1ecc6ed3948;de;;;5.2.;;;Interaktionen zwischen inländischen Gerichten und Investitionsschiedsgerichten Es ist wichtig anzumerken, dass Anleger internationale Schiedsverfahren als bevorzugte Methode zur Beilegung ihrer grenzüberschreitenden Handels- und Investitionsstreitigkeiten bevorzugen. Der Grund dafür könnte sein, dass das Schiedsverfahren flexibler ist und die Autonomie der Parteien ermöglicht. Die Parteien zögern aus verschiedenen Gründen, ihre Streitigkeiten vor inländischen Gerichten vorzulegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7010-0_3 c718cf8e6556fb14abd0e938c52ba963;de;;;4.2.;;;Hauptfischerei in Europa seit dem Mittelalter Aus der Zeit des Untergangs des Römischen Reiches und der unruhigen Zeit der Massenwanderungen sind Informationen über die Fischerei eher spärlich. Fisch, sowohl aus Süßwasser als auch aus dem Meer, war sicherlich weiterhin eine wichtige Nahrungsquelle. Nach Solinus (um 240) lebten die Eingeborenen der Hebriden westlich von Schottland hauptsächlich von Fischen. Als das Land entlang der Südküste der Nordsee im ersten Jahrhundert kolonisiert wurde, spielte die Fischerei offenbar eine weit geringere Rolle als die Landwirtschaft. Ausgrabungen in der Nähe der Wesermündung und in Eiderstedt an der deutschen Küste bewiesen jedoch die Nutzung mehrerer Fischarten wie Stör, Lachs, Kabeljau, Schellfisch, Scholle und Flunder. Aufzeichnungen aus dem 6. Jahrhundert zeigen, dass Engländer, Franzosen und Flamen im Ärmelkanal und in der Nordsee aktiv in der Fischerei, hauptsächlich Hering, tätig waren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-77411-9_3 4677aad3a1e53ab0d73069c3ec18db5e;de;;;4.2.;;;Diskussion über die Bedeutung der olympischen Kultur Unter Verwendung von Literaturdaten und anderen Forschungsmethoden wurde in dem Papier, das auf die Konnotation der olympischen Kultur analysiert wurde, das Merkmal der olympischen Kultur gelöst. Die durchgeführte Untersuchung, dass die Konnotation der olympischen Kultur sehr reich ist, umfasste nicht nur die Olympischen Spiele, sondern auch das Management ,Systeme, Rituale,Zeremonien,Erziehung,Kunst, Architektur,Technologie und Massenmedien etc. während der Olympischen Spiele.Die olympische Bewegung, Konzept, Ideal und alles daran ist das kulturelle Erbe der Menschheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23020-2_87 2897429eb3c5af5b78c4b57b1fdc74d3;de;;;4.2.;;;Eine analytische Modellierung zur Steigerung der Beteiligung bösartiger mobiler Agenten am mobilen Adhoc-Netzwerk Der Beitrag mobiler Agenten in bestehenden drahtlosen Netzwerken besteht im Wesentlichen darin, die Konnektivitätsanforderungen zu erfüllen. Die Einführung mobiler Agenten in dezentralen Systemen wie dem Mobile Adhoc Network (MANET) erweist sich jedoch als sehr anfällig, wenn es nur wenige Beweise dafür gibt, dass die von mobilen Agenten angebotenen Dienste legitimiert werden. Das Sicherheitsproblem wird zu einer großen Herausforderung, wenn der Gegner die Angriffstaktik dynamisch ändert. Daher führt das vorgeschlagene System ein neuartiges Analysemodell ein, das in der Lage ist, das bösartige Verhalten von mobilen Agenten zu erfassen und sie vor der weiteren Verbreitung des Eindringens zu schützen. Unter Verwendung der Wahrscheinlichkeitsmodellierung führt das vorgeschlagene System einen Widerstand auf der Grundlage einer intensiven Bewertung des lokalen und globalen Vertrauens ein. Das Studienergebnis des vorgeschlagenen Systems zeigt, dass es im Gegensatz zum bestehenden Kommunikationsschema in MANET eine bessere Kommunikationsleistung zusammen mit Sicherheit bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30329-7_25 cb50ef2dbb359a84a42fbd68dc94e5d8;de;;;4.2.;;;Förderung intelligenter Wassersysteme in Entwicklungsländern durch Innovationspartnerschaften: Beweise aus von VIA Water unterstützten Projekten in Afrika In den letzten Jahrzehnten wurde das Potenzial von Informations- und Kommunikationstechnologien (IKT) zur Verbesserung des Wassermanagements nachgewiesen. Die Entwicklung und/oder Einführung von IKT-fokussierten Wasserinnovationen in Entwicklungsländern scheint jedoch nicht im erwarteten Tempo zu erfolgen, was geeignete Innovationsansätze erfordert. In diesem Kapitel wird untersucht, wie diese Innovationen durch Partnerschaften gefördert werden können. Die explorative Analyse von 24 in Afrika durchgeführten IKT-fokussierten Wasser-Innovationspartnerschaften (ICT-WIPs) führt zu zwei wichtigen Erkenntnissen. Erstens scheint es, dass diese Partnerschaften einen effektiven Austausch komplementärer materieller und immaterieller Ressourcen und die gemeinsame Entwicklung von IKT-orientierten Wasserlösungen auf kostengünstige und zeitnahe Weise ermöglichen, aber aufgrund der Heterogenität der Innovationspartner auch Herausforderungen bei der Zusammenarbeit darstellen. Zweitens zeigt die Analyse, wie wichtig die gleichzeitige Nutzung relationaler (vertrauensbasierter) und struktureller (rechtsverbindlicher, kontrollbasierter) Partnerschafts-Governance-Mechanismen ist, um diese Herausforderungen zu mildern, insbesondere durch die Reduzierung opportunistischen Verhaltens und die Erhöhung der Klarheit der Verpflichtungen und Rechte der Partner. Wir kommen zu dem Schluss, dass gut konzipierte und implementierte IKT-WIPs dazu beitragen können, die Fähigkeiten von Entwicklungsländern zur Umsetzung der Agenda für intelligente Wassersysteme zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/698_2019_422 82d5da0d28b7f7fbb6eee09ddd5f1eca;de;;;4.2.;;;Work-Life-Balance im 21. Jahrhundert Immer längere Arbeitszeiten sind nicht gut fürs Geschäft – oder für Sie. Sich Sorgen um Kinderbetreuung oder Altenpflege zu machen, wird Ihr Stresslevel nur erhöhen. Eine zu frühe Rückkehr an den Arbeitsplatz nach einem großen Lebensereignis wie Geburt, Tod oder Krankheit wird am Ende wahrscheinlich seinen Tribut fordern.;-;-;-;https://link.springer.com/chapter/10.1057/9780230373594_1 bd488a18a9db1d405ab4d8e4723693bb;de;;;4.2.;;;Postdigitale Menschen: Die Evolution selbst in die Hand nehmen Dieses Kapitel gibt einen kurzen Überblick über implizite und explizite Verweise auf Menschen in der postdigitalen Literatur. Es identifiziert eine Reihe von Standpunkten, Ansätzen und Untersuchungsfeldern, die das postdigitale Denken in den letzten 20 Jahren geprägt haben, und legt theoretische Grundlagen für die Untersuchung des postdigitalen Menschen. Aufbauend auf dem Verständnis von Menschlichkeit als normativer Kategorie untersucht das Kapitel drei „Leistungsstandards“ für die Einbeziehung in die Menschheit: Leben, Bewusstsein und Verhalten. Der abschließende Teil synthetisiert philosophische Ansätze und postdigitale Theorien und baut ein postdisziplinäres Verständnis des postdigitalen Menschen auf. Postdigitale Menschen können in verschiedenen kohlenstoffbasierten und nicht-kohlenstoffbasierten Formen existieren, und die genaue Abgrenzung zwischen postdigitalen Menschen und postdigitalen Nicht-Menschen ist ein ständig wechselndes Ziel. Die postdigitale Theorie beschäftigt sich jedoch mehr mit Zwischenkonfigurationen und Biomaschinen-Verschränkungen, aus denen postdigitale Menschen gemacht werden können. Die postdigitale Theorie kann mit ihrer bequemen Positionierung zwischen Analog und Digital und ihren radikalen postdisziplinären Ansätzen aktiv zur Erforschung des Menschen beitragen. Der zentrale Grundsatz der postdigitalen Theorie geht jedoch über die Frage hinaus: Wer ist ein postdigitaler Mensch? Es konzentriert sich auf die Untersuchung des aktiven Beitrags der Menschheit zur eigenen Evolution und stellt Fragen wie: Welche Art von postdigitalen Menschen wollen wir werden? Welche Zukunft wünschen wir uns für unsere postdigitalen Kinder?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-65592-1_2 d22bd706044c7d6de0b39ae3095b5a9e;de;;;4.2.;;;Aktivitäts- und Reiseverhalten der Bewohner nach Gemeinden in Peking, China Chinas Übergang von einer Planwirtschaft zu einer Marktwirtschaft hat zu vielen Veränderungen in seiner Stadtstruktur und Gesellschaft geführt und eine Gelegenheit für eine quasi-longitudinale Fallstudie zum Zusammenhang zwischen gebauter Umwelt und Aktivitäts- und Reiseverhalten geschaffen. Dieses Papier stützt sich auf Daten einer Aktivitätstagebucherhebung, die 2007 in Peking durchgeführt wurde. Die Umfragestichprobe umfasste 652 Einwohner, die in;-;-;-;https://link.springer.com/article/10.1007/s11769-013-0616-7 abfdbb49e637f2e9be4e48b3019a793b;de;;;4.2.;;;Einige Grenzräume in der lacanischen Psychoanalyse Obwohl die Arbeit von Jacques Lacan, dem französischen Psychoanalytiker, für die meisten Anglophonen hartnäckig in akademischen Korridoren bleibt, wird er in vielen Ländern in Psychologieabteilungen, auf dem Gebiet der psychischen Gesundheit und natürlich in der Psychoanalyse weithin rezipiert (Hill, 2002, Parker, 2010). , Roudinesco, 1997). Glücklicherweise gibt es in den letzten Jahren mehr Belege für spezifisch klinische Arbeiten englischsprachiger Therapeuten mit lacanischer Ausrichtung und anglophone Aneignungen lacanischer Ideen für die Klinik und die Psychologie (Miller, 2011, Fink, 2007, Parker, 2015).;-;-;-;https://link.springer.com/chapter/10.1057/9781137480040_11 783af63a6c13b0af628753beacc74584;de;;;4.2.;;;Die grundlegende treibende Kraft für die Regierungsreform an der Basis Die Reform in den Township-Regierungen hat aus vielen Gründen noch keine zufriedenstellenden Ergebnisse erzielt, der grundlegendste ist das Fehlen einer treibenden Kraft. In vielen Fällen ist es die Forderung der übergeordneten Regierung und der Wunsch des Volkes, Reformen durchzuführen. Der Basisregierung selbst fehlt jedoch der Wille zur Veränderung. Rückblickend auf die 1980er Jahre durchliefen die Township-Reformen eine Geschichte von „harter Arbeit“ und „Missernte“, und der entscheidende Punkt war, dass viele der Reformen nicht aus intrinsischer Motivation initiiert wurden, sondern durch die Situation gezwungen wurden, um damit fertig zu werden die Höheren. Daher war der „Reform“-Prozess nur auffällig, und es war schwierig, wirksame Ergebnisse zu erzielen. Meiner Meinung nach wird die Reform in den Township-Regierungen eine starke treibende Kraft gewinnen, wenn die Partizipation der Bauern gefördert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-4341-3_11 62b09d8cce6ddc251afacc0932b1628f;de;;;4.2.;;;Mobilisierungsstrategie der Regierung nach einer Katastrophe im chinesischen Kontext: eine evolutionäre Spieltheorieanalyse China ist ein Land, das häufig unter Naturkatastrophen leidet. Aufgrund ihrer begrenzten Ressourcen benötigt die Regierung die Unterstützung von gemeinnützigen Organisationen (NPOs), um den betroffenen Gemeinden zu helfen. Bisherige Studien zur Mobilisierungsstrategie der Regierung nach einer Katastrophe sind überraschend rar, und die wenigen vorliegenden Studien vernachlässigten typischerweise die Unterschiede zwischen staatlichen NPOs (GONPOs) und Grassroots-NPOs (GRNPOs). Im chinesischen Kontext verlassen sich GONPOs auf von der Regierung bereitgestellte Ressourcen und sind zugänglich, haben aber wenig Initiative, während GRNPOs sehr enthusiastisch, aber schwer zu verwalten sind. Diese Studie identifizierte die diskriminierende Strategie der Regierung gegenüber GONPOs und GRNPOs bei der Bewältigung einer Katastrophe. In Anlehnung an die evolutionäre Spieltheorie untersuchte diese Studie die interaktiven Mechanismen und Faktoren in der Beziehung der Regierung zu GONPOs und GRNPOs bei der Katastrophenmobilisierung. Darüber hinaus wird die optimale Strategie unter Berücksichtigung des Kooperationsnutzens, des Belohnungsanreizes, der Bestrafung für Nichterfüllung, der Effizienz der Reaktion, der Kosten der Koordinierung und des Werts der Legitimität identifiziert. Basierend auf den Ergebnissen lieferte diese Studie praktische Implikationen sowohl für die Regierung als auch für NPOs bei der Katastrophenmobilisierung.;-;-;-;https://link.springer.com/article/10.1007/s11069-015-1843-2 4b0b2827d91f4791da09564738b129b4;de;;;4.2.;;;Akustische Erzählung Die Einführung des Konzepts der akustischen Erzählung in den Bereich der Narratologie ist eng verbunden mit den Korrekturbemühungen im Umgang mit der Krise der Sinneskultur im modernen Leben. In einer Ära des „Bildlesens“ mit starker Abhängigkeit von der visuellen Wahrnehmung werden andere Sinneskanäle weitgehend vernachlässigt. Diese Studie der akustischen Erzählung untersucht die Bedeutung der Sinne in der literarischen Erzählung mit besonderem Schwerpunkt auf der Implikation von akustischem Raum und Gefühlen (als der zugrunde liegenden Struktur der Literatur). Die Analyse der akustischen Erzählung verwendet das vom Autor vorgeschlagene Klangvokabular:;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7507-5_10 d87ac958dbefed5fd1c27a47e99eb260;de;;;4.2.;;;Die Doppelbindung der Pflege: Darstellung geschlechtsspezifischer Emotionen in der amerikanischen Beratungsliteratur Elternratgeber, die für die traditionelle, intakte biologische Familie geschrieben wurden, repräsentieren mütterliche und väterliche Emotionen ganz unterschiedlich [S. A. Shields und B. A. Koster (1989) „Emotionale Stereotypisierung von Eltern in Handbüchern zur Kindererziehung“, Social Psychology Quarterly, Vol. 2, No. 52, S. 44–55]. Diese Studie untersuchte geschlechtsspezifische Bezüge zu Emotionen in Ratgeberbüchern, die sich an Adoptiveltern, Stiefeltern, Alleinerziehende und Ehepaare richteten, um den Zusammenhang zwischen Überzeugungen über die emotionale „Natur“ von Frauen und Männern und Überzeugungen über die Pflege zu ermitteln. Die geschlechtsspezifische Darstellung der Emotionen der Betreuer ist bemerkenswert konsistent über die Zeit, das Erziehungsgenre und die Merkmale des Autors. Bücher, die sich an Eltern richten, stellen Frauen als gefährdet für übermäßige Emotionen (sowohl positive als auch negative) dar, die sich negativ auf die Entwicklung des Kindes auswirken. Im Gegensatz dazu werden Männer weitgehend ermutigt, emotional ausdrucksstark zu sein, und wenn sie vor ihrer emotionalen Darstellung gewarnt werden, beschränkt sich die Vorsicht auf negative Emotionen, die durch äußere emotionale Gefahren ausgelöst werden: die Kinder, den Ehepartner (oder Ex-Ehepartner) oder die Situation. Im Gegensatz dazu stellen Ehehandbücher Ehepartner als gegenseitig verantwortlich für ihr eigenes und das emotionale Wohlergehen ihres Ehepartners dar. Ehemänner und Ehefrauen werden ermutigt, unbegrenzt positive Emotionen auszudrücken und negative Emotionen gemäßigt zu lüften. In unserer Diskussion dieser Ergebnisse betrachten wir die Rolle der Emotionsrepräsentation bei der Förderung einer Kultur der Mutterbeschuldigung.;-;-;-;https://link.springer.com/article/10.1007/BF01544674 6ed9d4345e8b0ac6dc0cb2219638d468;de;;;4.2.;;;Ein anderer Blick auf Lernen und Wissensschaffung in kollaborativen Netzwerken Dieses konzeptionelle Papier befasst sich ausführlich mit Nonakas Dynamischer Theorie der Wissensschöpfung. Insbesondere das Konzept von Ba oder Basho wird untersucht, um seine Anwendbarkeit als alternative Sichtweise des Lernens in kollaborativen vernetzten Organisationen (CNOs) herauszufinden. Zu diesem Zweck wird seine Verankerung im ostasiatischen Denken weiter analysiert und einige Ähnlichkeiten und Unterschiede zum chaordischen Systemdenken (CST) werden beschrieben. Es wird der Schluss gezogen, dass Nonakas Theorie das Lernen in CNOs unterstützen kann und dass sie als eine frühe, alternative Sichtweise von CST angesehen werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-29360-4_56 af1df00132c4fbd5621adc62ba11e5b5;de;;;5.2.;;;Gesundheit und Gesundheitswesen Krankenschwestern sind nicht nur die größte Gruppe von Gesundheitsberufen, sondern auch ein wichtiger Teil des Gesundheitsteams, da sie den häufigsten Patientenkontakt haben und die direkte körperliche Versorgung leisten. Obwohl der Schwerpunkt der Pflege seit jeher auf der Betreuung von Menschen mit tatsächlichen oder potentiellen Gesundheitsproblemen, der Betreuung von Menschen in akuten Krankheitsphasen, der Betreuung von Menschen im Bereich der Rehabilitation oder Wiederherstellung der Gesundheit und der Betreuung von Menschen in den letzten Lebensphasen liegt , hat sich die Pflegepraxis in den letzten Jahrzehnten stark verändert. Der Pflegeberuf ist heute geprägt von Vielfalt in Fachrichtungen und Arbeitsplätzen. Pflegekräfte sind mit einer erstaunlichen Vielfalt an Möglichkeiten konfrontiert, da sie in verschiedenen Rollen sowohl im Krankenhaus als auch in der Gemeinde arbeiten. In den letzten Jahren haben sich Pflegefachpersonen nicht nur bei der Pflege älterer oder chronisch kranker oder behinderter Menschen in ihren Gemeinden, sondern auch bei der Unterstützung gefährdeter Gruppen (z. B. junge Mütter mit Kindern) und bei der Gesundheitserziehung ganzer Bevölkerungsgruppen verstärkt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30005-9_1 71b95d07eca991099ebaf1be7ec00e5a;de;;;4.2.;;;Lernen durch Blockspiel Erzieherinnen und Erzieher sind sehr besorgt über den Wert von Unterrichtsmaterialien für die Entwicklung von Kleinkindern. Blockaden werden weiterhin von vielen bevorzugt, um die Entwicklungsbereiche bei Kindern zu erleichtern. Tatsächlich gelten Blöcke als die nützlichsten und am häufigsten verwendeten Geräte in Vorschul- und Kindergartenprogrammen. (Benish, 1978, Kinsmans & Berk, 1979). Variationen in Form, Größe und Gewicht fördern Lernerfahrungen vom Säuglingsalter bis in die frühe Kindheit.;-;-;-;https://link.springer.com/article/10.1007/BF01617077 191d480f7294c49cb783ef7455d0277a;de;;;4.2.;;;Verbrauchereinstellungen, Verbraucherverhalten und Energieeinsparung: Eine verhaltenswissenschaftliche Perspektive Der Energieverbrauch der Haushalte hängt von vielen und ganz unterschiedlichen Faktoren ab. Hypothetisch würde man erwarten, dass der Energieverbrauch mit so unterschiedlichen Variablen wie Komfortpräferenzen, Thermostateinstellung, sozioökonomischer Status, Familienzyklus, Energiepreisen, wahrgenommenen Kosten und Nutzen der Energieeinsparung, normativen Einflüssen, Energieeinstellungen, Energiewissen, Haushaltsverhalten, Lebensstil verbunden ist , und natürlich Wohneigenschaften (Heizung, Isolierung, Sonnenausrichtung) und klimatologische Faktoren (Außentemperatur). In diesem Kapitel soll analysiert werden, welche Faktoren den Energieverbrauch der Verbraucher beeinflussen. Aufgrund der Natur dieser Studie wird der Schwerpunkt auf hauptsächlich nichttechnischen Faktoren liegen. Als solches ist dieses Kapitel ein Versuch, Forschungsproblem eins zu beantworten.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-7710-6_2 bad3365b48ad65454cceabefdf4f6280;de;;;4.2.;;;Schuldentragfähigkeit und innovative Ansätze für sozioökonomische Nachhaltigkeit Die Starrheit und der dogmatische Ansatz bei der Haushaltskonsolidierung und Schuldentragfähigkeit haben erhebliche vermeidbare negative Folgen. Die objektive Verfolgung ganzheitlicher Strategien bietet verbesserte Win-Win-Lösungen für die Finanzkrise, ohne den verwundbaren Teilen der Gesellschaft erhebliche Schmerzen und Leiden zuzufügen. Flexibilität bei den Schuldenabwicklungsplänen, Ausgabe langfristiger Anleihen, die die Schaffung produktiver Arbeitsplätze erleichtern, Annahme der globalisierten Version des US-Insolvenzgesetzes Kap. 9, um nachhaltige öffentliche Ausgaben zu erleichtern, und die Übernahme sozioökonomischer Ansätze für staatliche Sparmaßnahmen gehören zu den Schlüsselaspekten eines neuen Mechanismus der fiskalischen Governance und der Aufrechterhaltung der sozioökonomischen Nachhaltigkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-04235-0_5 f9c67ded8e8fd9c082802a08e57e4467;de;;;4.2.;;;Entwicklung regionaler Foresight-Studien zwischen 2000 und 2019: ein Überblick und eine Kozitationsanalyse Regional Foresight ist einer der raumplanerischen Ansätze, die die Fähigkeit erhöhen, mit Unsicherheiten und Veränderungen umzugehen. Diese Studie zielt darauf ab, einen Überblick über regionale Vorausschaustudien und eine Domänenkarte zu geben, um ihre Vorzüge und Mängel zu bewerten und zukünftige Studien in diesem Bereich zu leiten. Dazu wurden im Zeitraum 2000 bis 2019 im „Web of Science“ 111 Papiere zu Regional Foresight identifiziert und als Grundlage für die weitere Analyse verwendet. Diese Papiere wurden in verschiedenen Aspekten überprüft. Darüber hinaus wurde die Domänenkarte der regionalen Vorausschau und ihrer intellektuellen Grundlagen basierend auf einer Kozitationsanalyse dieser Papiere und ihrer 4194 Referenzen erstellt. Die Domänenkarte umfasst fünf Hauptcluster von Forschungsbereichen oder intellektuellen Grundlagen für regionale Vorausschau: normative Prognose, Partizipation, Vorausschau in Politik und Strategie, Innovationssysteme und Multi-Level-Governance. Schließlich werden die Vorzüge und Mängel regionaler Foresight-Studien auf der Grundlage von Forschungsergebnissen bewertet und einige Vorschläge für zukünftige Studien unterbreitet.;-;-;-;https://link.springer.com/article/10.1186/s40309-021-00170-7 7b821f19aa90d3c39cdbe1a5d623ce2a;de;;;5.2.;;;Ganzheitliches Gebet Der Autor hat mit einem Gebetsansatz experimentiert, bei dem er auf Erkenntnisse und Methoden der zeitgenössischen Psychotherapie zurückgreift. Er nennt seinen Ansatz „ganzheitliches Gebet“ und definiert ihn als „die Bewegung, das Aufrichten des Körpers, des Herzens, des Geistes und des Willens zu Gott“. Er charakterisiert das ganzheitliche Gebet, diskutiert Probleme, die mit seiner Praxis verbunden sind, beschreibt seine Stadien und veranschaulicht den Gebrauch von Träumen. Er liefert klinische Daten von Teilnehmern an Gebetskursen und aus seiner eigenen Erfahrung.;-;-;-;https://link.springer.com/article/10.1007/BF01759749 c8542a93e38dd20be0816f97c36a8623;de;;;4.2.;;;Einfluss des Stakeholder-Typs und der Zusammenarbeit auf die Problemlösungszeit in OSS-Projekten Initialisiert durch einen kollektiven Beitrag freiwilliger Entwickler zieht Open Source Software (OSS) eine zunehmende Beteiligung kommerzieller Firmen an. Viele OSS-Projekte bestehen aus einer gemischten Gruppe von fest bezahlten und freiwilligen Entwicklern mit unterschiedlichen Motivationen, Kooperationspraktiken und Arbeitsstilen. Da die OSS-Entwicklung naturgemäß aus kollaborativen Arbeiten besteht, ist es wichtig zu wissen, ob sich diese Unterschiede auf die Zusammenarbeit zwischen unterschiedlichen Arten von Stakeholdern auswirken, die zu einem Einfluss auf die Projektergebnisse führen. In diesem Papier untersuchen wir empirisch die von Firmen bezahlte Beteiligung an der Lösung von OSS-Evolutionsproblemen, die Zusammenarbeit der Interessengruppen und ihre Auswirkungen auf die OSS-Problemlösungszeit. Die Ergebnisse deuten darauf hin, dass, obwohl ein fest bezahlter beauftragter Entwickler viel mehr Probleme löst als ein freiwilliger Entwickler, es keinen Unterschied in der Problemlösungszeit zwischen ihnen gibt. Außerdem kommt der wichtigere Faktor, der die Problemlösungszeit beeinflusst, aus der Zusammenarbeit zwischen den Stakeholdern und nicht aus individuellen Merkmalen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24418-6_1 4b8212eb84ef5f557a1b6baecbad6d8e;de;;;4.2.;;;Therapeutische Schauspielaktivität für kognitiv beeinträchtigte ältere Menschen in einem Pflegeheim Der Einsatz von Theater als nächtliche Aktivität für kognitiv beeinträchtigte ältere Patienten im Pflegeheim Sakubara begann 1989. Obwohl es zum Vergnügen der Patienten und nicht zu therapeutischen Zwecken begonnen wurde, wurden positive Verhaltensänderungen beobachtet. Die therapeutischen Wirkungen der Aktivität wurden gemessen und berichtet. Basierend auf unserer 7-jährigen Erfahrung und Forschung wurden Definition, Ziele, Struktur und konzeptioneller Rahmen der therapeutischen Theateraktivität entwickelt, die in dieser Aktivität verwendeten Fähigkeiten und ihr kultureller Hintergrund diskutiert. Abschließend wird der philosophische Hintergrund des Pflegeheims vorgestellt, der die therapeutischen Wirkungen fördert.;-;-;-;https://link.springer.com/article/10.1007/BF03324359 f9035aab29a1e94e12e1e5d68d7d9379;de;;;4.2.;;;Umgang mit Täuschung: Begegnungen und Lügen in der Feldforschung in Burundi Ich verbrachte insgesamt 14 Monate, aufgeteilt in vier verschiedene Zeitabschnitte, in Burundi für Feldforschung (von 2007 bis 2011). Ich erinnere mich an meinen Frust über Lügen vor allem aus meiner zweiten Feldforschung im Sommer 2009. Sechs Wochen später schrieb ich in mein Computertagebuch: „An meinem freien Tag immer noch mit Lügen konfrontiert, ob groß oder klein, argh, ich habe hatte es! … Vielleicht ist es Zeit für eine Pause vom Feld!“ Meine Emotionen bezüglich verschiedener Formen der Täuschung sind der Anstoß für dieses Kapitel. Es untersucht die Dilemmata und Frustrationen im Umgang mit Lügen und Täuschungen, sowohl hinsichtlich ihrer Deutung als auch ihrer Auswirkungen auf die persönlichen Recherchebeziehungen zu den Erzählern. Er schlägt Wege vor, wie Forscher auf die Herausforderungen der Täuschung reagieren können, insbesondere in konfliktträchtigen Situationen wie Burundi.;-;-;-;https://link.springer.com/chapter/10.1057/9781137263759_10 06b60520e13308fc1cf4f5a5b4c2a6aa;de;;;4.2.;;;Japanische Politikwissenschaft am Scheideweg? normative und empirische Voraussetzungen für die Integration von Frauen und Diversität in die Politikwissenschaft Japan verbindet demografische Herausforderungen mit sinkenden Geburtenzahlen und einer alternden Bevölkerung, aber auch mit politischem Unwillen, Einwanderung zu nutzen, um den Arbeitsmarkt- und Pflegemangel zu lindern. Auf Gender, Diversität und Inklusion zu achten, scheint eine „rationale“ politische Entscheidung zu sein. Obwohl Premierminister Abe (Abe II) die Notwendigkeit versteht,;-;-;-;https://link.springer.com/article/10.1057/s41304-016-0074-7 2c245b2cfafd3c949ae6a2f4ea0d823f;de;;;5.2.;;;Hin zu wahrnehmungsbezogenem Zuschneiden von Videos mit Kurvenanpassung Mit der Verbreitung mobiler Geräte taucht das Problem der Anzeige von Videos mit unterschiedlichen Auflösungen und Seitenverhältnissen auf. Zu diesem Zweck greifen hochmoderne Arbeiten typischerweise auf Video-Retargeting oder -Crop zurück, d. h. adaptives Anpassen der Anzeigebereiche und Inhalte innerhalb jedes Video-Frames, um sie für die Bildschirme der mobilen Geräte anzupassen. Die meisten existierenden Ansätze behalten jedoch die Auswertung der objektiven visuellen Statistiken bei, um hervorstechende Teile auszuwählen, die innerhalb jedes Frames abgeschnitten werden sollen, mit zeitaufwendigen Einschränkungen, um die zeitliche Konsistenz sicherzustellen, die in der Tat ungeeignet ist, um mit den massiven Videos fertig zu werden, die täglich von Benutzern hochgeladen werden Plattformen. In diesem Beitrag schlagen wir einen effizienten und dennoch robusten Video-Cropping-Algorithmus vor, der sich in zweierlei Hinsicht lohnt: Erstens wird ein wahrnehmungsbezogener Auswahlansatz für die Region von Interesse vorgeschlagen, indem ein neuartiger Score für interessante Regionen verwendet wird, der eine lineare Kombination aus Rate der fokussierten Aufmerksamkeit, Gesamtsalienzpunktzahl und Verzerrung durch Center Penalty. Zweitens verwenden wir eine schnelle Kurvenanpassung, um über einen Satz aufeinanderfolgender Videoframes innerhalb einer Aufnahme nach einer optimalen Beschneidungssequenz zu suchen, wodurch die komplexe Optimierung mit zeitlichen Beschränkungen zwischen benachbarten Frames vermieden wird. Experimente mit Videosequenzen aus Backkom-Cartoon und Iron Man II mit Vergleichen mit mehreren alternativen Ansätzen demonstrieren die Effizienz und Robustheit des vorgeschlagenen Algorithmus.;-;-;-;https://link.springer.com/article/10.1007/s11042-014-2304-8 013bf14d88efc61e0ed0026589de46ad;de;;;4.2.;;;Anthropologische Feldforschung in Afghanistan und Pakistan im Vergleich Marsdens Kapitel untersucht auch die Komplexität des Studiums des alltäglichen Islam im ebenso heterogenen religiösen und politischen Kontext Nordpakistans und Afghanistans. Er beschreibt jedoch zwei Modalitäten seiner Versuche, mit dieser Heterogenität während der Feldforschung umzugehen. Diese Modalitäten bauten darauf auf, dass er aus den Einstellungen seiner eigenen Informanten lernte. In Chitral, Nordpakistan, wo er in einem Dorf und einer Kleinstadt für sunnitische und schiitische Ismai'li-Muslime arbeitete, ließen ihn seine Informanten nicht an vielen Formen des religiösen Lebens teilnehmen. Bei Recherchen in Nordafghanistan schildert Marsden jedoch den Prozess, von seinen Informanten die Kunst des Ausgleichs konkurrierender Lebensdimensionen beigebracht zu bekommen und jede Zurschaustellung vollkommener Loyalität oder Verpflichtung in Schwebe zu halten.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-4267-3_11 a46da27458dbf0064f70a6badc94632a;de;;;4.2.;;;Umweltsicherheit in Zentralasien und der Kaspischen Region: Aral und Kaspisches Meer In diesem Kapitel werden die wichtigsten Umweltrisiken in Zentralasien (CA) für die fünf ehemaligen Sowjetrepubliken Kasachstan, Kirgisistan, Tadschikistan, Turkmenistan und Usbekistan sowie für die Kaspische Region (CR) Aserbaidschan, Kasachstan, Iran, Russland, und Turkmenistan, um potenzielle oder bestehende Konfliktfelder anzugehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68488-6_55 35c0776559460a074705d34d9bd375a3;de;;;4.2.;;;Aristokraten des Verbrechens: Vertrauensmänner in der Zwischenkriegszeit Das Silver Jubilee von König George V. im Jahr 1935 versammelte das „Who is Who“ des Empire-Commonwealth in London und dramatisierte in Festzügen die ausgeklügelte Hierarchie von Status und Reichtum für eine ganze Reihe von Touristen, Geschäftsleuten und anderen Ausländern, die sich dort zu den Feierlichkeiten versammelten . Scotland Yard warnte jedoch davor, dass all der Pomp und die Umstände andere, weniger willkommene Besucher nach London anziehen würden: Betrüger, die von Angesicht zu Angesicht versuchten, die Opfer dazu zu bringen, sich freiwillig von ihrem Eigentum zu trennen, und „die ihren Lebensunterhalt durch ihren Verstand verdienen und“ der Mangel an Verstand oder die Gier ihrer Betrüger.“ Für die Yard-Detektive nahm das Gedenken an das Jubiläumsjahr also die Form eines;-;-;-;https://link.springer.com/chapter/10.1057/9780230119680_5 7d522d658cf2e7ee1fd21fd3274ace48;de;;;5.2.;;;Reaktive Navigation von mobilen Unterwasserrobotern mit ANFIS-Ansatz auf vielfältige Weise Die Fähigkeit zum Lernen und zur Selbstanpassung ist dringend erforderlich, um in den Pfadplanungsalgorithmus für Unterwasserroboter während der Navigation durch eine nicht spezifizierte Unterwasserumgebung integriert zu werden. Hochfrequente Schwingungen während der Unterwasserbewegung sind für Nichtlinearitäten im dynamischen Verhalten von Unterwasserrobotern sowie für Unsicherheiten der hydrodynamischen Koeffizienten verantwortlich. Das reaktive Verhalten von Unterwasserrobotern wird unter Berücksichtigung der Position und Ausrichtung des Ziels und des nächsten Hindernisses von der aktuellen Position des Roboters entworfen. Es hat sich herausgestellt, dass für die multivariable Unterwasserbewegungssteuerung eine menschenähnliche Denkfähigkeit und eine auf Annäherung basierende Lernfähigkeit des neuronalen adaptiven Fuzzy-Inferenzsystems (ANFIS) wirksam sind. Hier werden mehr als ein ANFIS-Modell verwendet, um eine Ziel- und Hindernisvermeidung zu erreichen, während lokale Minima-Situationen sowohl in der horizontalen als auch in der vertikalen Ebene des dreidimensionalen Arbeitsbereichs vermieden werden. Ein Fehlergradientenansatz basierend auf Eingabe-Ausgabe-Trainingsmustern für Lernzwecke wurde gefördert, um die Flugbahn von Unterwasserrobotern zu erzeugen, die die Weglänge sowie die benötigte Zeit optimiert. Die Simulations- und experimentellen Ergebnisse bestätigen die Robustheit und Durchführbarkeit der vorgeschlagenen Methode im Vergleich zu anderen Navigationsmethoden, um mit hektischen Bedingungen während der Bewegung eines mobilen Unterwasserroboters umzugehen.;-;-;-;https://link.springer.com/article/10.1007/s11633-016-0983-5 6907d4a324f3f555b51b07668f994edf;de;;;5.2.;;;Hollands Theorie und effektiver Einsatz computergestützter Berufsberatungssysteme Um die Reaktionen der Klienten auf die Nutzung eines computergestützten Berufsberatungssystems zu untersuchen, wurde eine Vielzahl von Klientenmerkmalen verwendet, die hauptsächlich aus der Theorie und den Konstrukten von John Holland abgeleitet wurden. Bei den Probanden handelte es sich um 206 Personen, die in einem universitären Career Center Unterstützung suchten. Eine Regressionsanalyse ergab, dass Personen mit höheren Sozial- und Unternehmerwerten das System hinsichtlich seiner Fähigkeit, ihnen beim Erwerb von Selbst- und Berufswissen zu helfen, schlechter einschätzten.;-;-;-;https://link.springer.com/article/10.1007/BF01354627 62f9abdc03275fea91e41e737efeb267;de;;;5.2.;;;Neurophysiologie und Verhalten In Kapitel 2 wurde das Konzept der physiologischen Verhaltensursachen eingeführt, die als unmittelbare Ursachen klassifiziert werden, weil sie unmittelbar vor dem Verhalten auftreten. Physiologische Psychologen untersuchen solche Ursachen, ihr Interesse gilt den körperlichen Aktivitäten, die für das Verhalten verantwortlich sind, insbesondere Aktivitäten im Nervensystem.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-1893-2_7 eefe8eb98337cf9bd85be1637e04ab9b;de;;;5.2.;;;Nachrichten-Lesegewohnheiten junger Universitätsstudenten in Hongkong im Zeitalter der Neuen Medien Eine Reihe neuerer Studien weist auf eine rasante Zunahme der weltweiten Nutzung von mobilen Geräten und Apps hin. Dennoch ist wenig erforscht, wie sich die neuen Medien auf das Leseverhalten junger Erwachsener auswirken. Die aktuelle Studie schließt diese Forschungslücke, indem sie das Nachrichtenleseverhalten von 118 jungen Universitätsstudenten in Hongkong im Internetzeitalter untersucht. Ausgewählte Schlüsselergebnisse der Studie, die hauptsächlich durch die Analyse der quantitativen Daten einer Online-Umfrage gewonnen wurden, lauten wie folgt: (1) Smartphone-Apps waren die beliebteste Nachrichtenquelle der Schüler, (2) einfacher Zugang war das Hauptanliegen der Schüler bei der Auswahl Nachrichtenquellen, (3) Schüler beiderlei Geschlechts bevorzugten lokale Nachrichten, gefolgt von internationalen und chinesischen Nachrichten, (4) die Lesegewohnheiten der Schüler hatten wenig mit ihrem persönlichen Einkommen oder dem Bildungsstand ihrer Eltern zu tun (5 ) Schüler lesen häufiger und länger Nachrichten, wenn ihre Familien die Gewohnheit hatten, gedruckte Zeitungen zu kaufen, und (6) Schüler verbringen im Vergleich zu früher weniger Zeit mit dem Lesen von Nachrichten. Die Studie zeigt auch einen klaren Aufschwung der neuen Medien für den Nachrichtenzugang, der die Rolle traditioneller Nachrichtenquellen wie gedruckte Zeitungen und Radio bedroht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-287-209-8_8 add2f6067f10e30274bae816e347f2de;de;;;4.2.;;;Erkennen und Eingreifen in Cybermobbing bei Jugendlichen (Grundlagen und Ergebnisse der deutschen Fallstudie) Informations- und Kommunikationstechnologien (IKT) spielen im Leben von Kindern und Jugendlichen eine immer wichtigere Rolle. Jugendliche nutzen IKT, um mit anderen über Chat, Instant Messenger, Online-Communitys etc. zu kommunizieren. Sie nutzen Online-Angebote und -Dienste rund um Musik, Bilder oder Videos, um sich zu unterhalten, nach neuem Wissen und Informationen zu suchen und um das Online zu erwerben und zu nutzen Spielangebote. Der Großteil der IKT wird konstruktiv und friedlich genutzt und bringt keine negativen Online-Erfahrungen mit sich, die als belastend empfunden werden können, dies ist jedoch nicht bei allen Jugendlichen der Fall. Die Online-Welt kann ähnlich wie die physische Welt Gefahren mit sich bringen, und die mögliche Gefahr, der Jugendliche heute in der Online-Welt begegnen, ist Cyber-Mobbing.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-02846-6_22 ae896ef110f23d168204c877b0560c62;de;;;4.2.;;;Aktives Digiage? Wünschenswerte Zukunft für alternde Menschen Die sich ändernde Altersstruktur der Bevölkerung mit einer wachsenden Zahl älterer Menschen ist ein weltweites Phänomen in den Industrieländern, und Finnland bildet da keine Ausnahme. Dies hat Auswirkungen auf schnell steigende Gesundheits- und Sozialkosten, aber auch auf eine neue Art von Nachfrage nach verwandten Dienstleistungen und schafft somit Geschäftsmöglichkeiten für finnisches Know-how. Durch qualitative halbstrukturierte Interviews baut diese Forschung ein Verständnis für die Wünsche, Bedürfnisse und Herausforderungen auf, die ältere Menschen in ihrem Alltag und insbesondere bei der Nutzung digitaler Technologien und verschiedener Arten digitaler Dienste haben. Dies wird weitere Einblicke in die Einrichtung von Diensten für die Bedürfnisse älterer Menschen in Finnland geben. Die in diesem Papier präsentierten Ergebnisse sind Teil eines größeren Forschungsprojekts, dessen Pilotstudienphase dieses Papier darstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-97931-1_14 0bb74837bfd45a1726d96e6bb7c7751c;de;;;5.2.;;;Riskante Ideen in der Risikogesellschaft Dieses Papier beschreibt eine neue Art von Risiko, mit der Manager heute konfrontiert sind. Dies ist das Risiko, das aus ihrer schnellen Reaktion auf neue, oft ungetestete Ideen entsteht, die der Management-Community angeboten und von dieser gerne angenommen werden.;-;-;-;https://link.springer.com/article/10.1057/jit.1996.6 2061e4e22a9fc4cb2262f1692c1fc146;de;;;5.2.;;;Lösung des Blocking Flow Shop Scheduling Problems durch einen dynamischen Multi-Swarm Particle Swarm Optimizer Dieses Paper präsentiert einen dynamischen Multi-Swarm Particle Swarm Optimizer (DMS-PSO) zur Lösung des Blocking Flow Shop Scheduling Problems mit dem Ziel die Makespan zu minimieren. Um eine gute globale Suchfähigkeit aufrechtzuerhalten, wurden im vorgestellten DMS-PSO kleine Schwärme und ein Umgruppierungsplan verwendet. Jeder kleine Schwarm führte die Suche nach seinen eigenen historischen Informationen durch, während der Neugruppierungsplan verwendet wurde, um Informationen zwischen ihnen auszutauschen. Dem Algorithmus wurde eine speziell entwickelte lokale Suchphase hinzugefügt, um seine lokale Suchfähigkeit zu verbessern. Die Experimente wurden auf Basis der bekannten Benchmarks durchgeführt. Die Berechnungsergebnisse und Vergleiche zeigten, dass das vorgeschlagene DMS-PSO eine bessere Leistung bei den Problemen der Blockierung von Flow-Shop-Scheduling hatte als einige andere verglichene Algorithmen in der Literatur.;-;-;-;https://link.springer.com/article/10.1007/s00170-010-3111-7 9047000986bc90f0c7657320fc8d08ef;de;;;5.2.;;;Fortschritte bei gemischten BDD- und SAT-Techniken In diesem Kapitel werden die gegenseitigen Interaktionen zwischen Boolean Satisfiability (SAT) Solvern und Binary Decision Diagrams (BDDs) behandelt. Genauer gesagt konzentriert sich die Präsentation auf Ansätze, die Methoden, Techniken und Ideen aus beiden Forschungsbereichen mischen. Zuallererst gibt es einige vorläufige Definitionen und präsentiert die wichtigsten Unterschiede und Affinitäten zwischen SAT- und BDD-Manipulationsalgorithmen. Danach gibt es einen Überblick über einige der bemerkenswertesten Bemühungen, die beiden Technologien entweder lose oder eng zu integrieren. Es bietet schließlich einige Auswertungen und Hinweise für offene Probleme und mögliche zukünftige Arbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-2530-0_2 18cfe5eed47f122b969b8c071c36a9c6;de;;;4.2.;;;Grüner Konsum in Dänemark: Einige Beweise aus dem ØKO Food-Projekt 1990 wurde in dieser Zeitschrift ein Artikel über die theoretischen Grundlagen des ØKO-Lebensmittelprojekts veröffentlicht. Jetzt, drei Jahre später, erscheint es angebracht, in dieser Zeitschrift erneut über die während der Projektlaufzeit (1990–1992) gewonnenen Erkenntnisse über die Kauf- und Nichtkaufgründe dänischer Verbraucher für Bio-Lebensmittel zu informieren. Der Fokus wird auf den Schätzergebnissen des Modells liegen, das die Studie geleitet hat. Abschließende Bemerkungen unterstreichen die Notwendigkeit eines konzertierten Handelns von Verbrauchern, Produzenten und staatlichen Stellen, wenn „nachhaltige Entwicklung“ das gesellschaftliche Gesamtziel ist.;-;-;-;https://link.springer.com/article/10.1007/BF03031910 39886a828fd8c962ed27fce534f60c41;de;;;4.2.;;;Erotischer Stil: Von Platon ie Beziehung des männlich-männlichen Verlangens zur Sprache war ein implizites Thema vieler, wenn nicht sogar der meisten der bisher diskutierten Dialoge, insbesondere des Platons:;-;-;-;https://link.springer.com/chapter/10.1057/9781403978516_4 a4cb5091bc5f610e59dba829832427e6;de;;;5.2.;;;Entwicklung und Analyse von „nützlicher“ redundanter Logik Fehlertoleranz ist aufgrund der Skalierung der Halbleitertechnologie eine zunehmende Herausforderung für integrierte Schaltungen. In diesem Beitrag wird untersucht, wie künstliche Evolution auf die Schaffung neuer Redundanzstrukturen abgestimmt werden kann, die angewendet werden können, um diese Herausforderung zu meistern. Ein Versuchsaufbau und Ergebnisse zur Erstellung „nützlicher“ redundanter Strukturen werden vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74626-3_24 ee4fdd68e3a49cf5342ac2d7df2b767b;de;;;5.2.;;;Erweiterte gezielte Suche für probabilistisch zeitgesteuerte Erreichbarkeit Aktuelle numerische Modellprüfer für stochastische Systeme können stochastische Modelle effizient analysieren. Die Tatsache, dass sie keine Debugging-Informationen bereitstellen können, schränkt jedoch ihre praktische Verwendung ein. In Vorarbeiten haben wir eine Methode zur Auswahl diagnostischer Traces vorgeschlagen, die im Sprachgebrauch der Funktionsmodellprüfung allgemein als Fehlerspuren oder Gegenbeispiele bezeichnet werden, für probabilistische zeitgesteuerte Erreichbarkeitseigenschaften auf zeitdiskreten und zeitkontinuierlichen Markov-Ketten. Wir haben gerichtete Suchalgorithmen mit expliziten Zuständen wie Z;-;-;-;https://link.springer.com/chapter/10.1007/11867340_4 d00f926a56531f952417d51152ce0087;de;;;5.2.;;;Verhaltensökonomie und individuelles Altern Dieses Kapitel dient als Einführung in die Verhaltensökonomie und das Altern: Es führt in die grundlegenden Konzepte der Verhaltensökonomie ein, einschließlich der Anomalien und Abweichungen vom Rational-Choice-Rahmen, zusammen mit einer Diskussion der wichtigsten empirischen Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29013-9_8 04c742fdf494926a103919a9d3df9420;de;;;4.2.;;;Auf dem Weg zu einer umfassenden Ähnlichkeitsanalyse von Abstimmungsverfahren mit groben Sets und Ähnlichkeitsmaßen Es wird ein interessantes und wichtiges Problem behandelt, wie ähnlich (und/oder unähnlich) die Wahlverfahren (Social-Choice-Funktionen) sind. Zunächst erweitern wir unsere bisherige qualitative Typanalyse auf der Grundlage der Grobmengentheorie, die es ermöglicht, die betrachtete Menge der Wahlverfahren in einige Untermengen zu unterteilen, innerhalb derer die Wahlverfahren nicht unterscheidbar, also (sehr) ähnlich sind. Dann schlagen wir eine Erweiterung dieser Analysen in Richtung einer quantitativen Bewertung eines Ähnlichkeitsgrades vor. Wir verwenden einige bekannte Ähnlichkeits- und Unähnlichkeitsmaße für binäre Muster (Strings), die durch das auf der Hamming-Distanz basierende und das von Jaccard-Needham beispielhaft dargestellt sind. Die Verwendung beider Maßnahmen ermöglicht eine quantitative Bewertung der Ähnlichkeit der einzelnen Abstimmungsverfahren. Diese quantitative Bewertung bietet in Kombination mit einer eher qualitativen Bewertung, die unter Verwendung von groben Sets erhalten wird, eine umfassende Sicht auf die Ähnlichkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30344-9_13 fb57fc19d883e8e65904f080bef69f76;de;;;5.2.;;;Effektiver Schlupf zur Durchströmung eines Kanals, der von schmierstoffimprägnierten Rillenflächen begrenzt wird Diese Studie zielt darauf ab, den effektiven Schlupf zu untersuchen, der aus einer druckgetriebenen Strömung durch einen Schlitzkanal entsteht, der von schmiermittelimprägnierten gerillten Oberflächen begrenzt wird. Das Problem der Strömung über Längsrillen wird analytisch mit den Methoden der Domänenzerlegung und Eigenfunktionsentwicklung gelöst, das der Strömung über Querrillen numerisch mit der Fronttracking-Methode. Es zeigt sich, dass die effektive Schlupflänge und der Schmierstoffdurchsatz stark von der Geometrie des Gefüges, der Fließrichtung und der Schmierstoffviskosität abhängen können. Insbesondere kann der effektive Schlupf effektiv verbessert werden, indem die Dicke eines Schmierfilms auf den Rippen erhöht wird. Unter den gleichen Bedingungen hat eine zu den schmiermittelimprägnierten Nuten parallele Strömung einen größeren effektiven Schlupf, aber auch eine größere Schmiermittelströmungsrate, verglichen mit einer Strömung senkrecht zu den Nuten. Es wird auch gezeigt, dass im Fall von Quernuten aufgrund der Abwärtsverschiebung der Grenzfläche zwischen den Arbeits-/Schmierflüssigkeiten die effektive Schlupflänge und die Schmiermittelflussrate nicht monoton mit der Nuttiefe variieren können.;-;-;-;https://link.springer.com/article/10.1007/s00162-016-0414-9 fd5736168c87b88292a0efec5dddf392;de;;;5.2.;;;„Die Nacht der Heiligen Schatten“: Die Situation für politische Reformer änderte sich im Jahr 1792 drastisch. Im Dezember glaubte Joseph Johnsons Freund William Roscoe, dass „eine allgemeine Panik das Königreich erfasst hat“.;-;-;-;https://link.springer.com/chapter/10.1057/978-1-137-39035-6_5 af1919ca86434c3e5149180107b2c153;de;;;5.2.;;;Freisetzung von Laktat durch die Lunge bei akuter Lungenverletzung Die Pathogenese der Hyperlaktatämie während der SIRS ist wenig verstanden. Laktat wird jedoch klinisch häufig als Marker des anaeroben Stoffwechsels verwendet und wird daher für eine unzureichende Gewebedurchblutung gehalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5865-1_34 ccfc2813b90ed0fcaac2ad8b3417a29c;de;;;4.2.;;;Voodoo-Prognose: Technische, politische und ethische Fragen zur Projektion des lokalen Bevölkerungswachstums Der Fall einer Energieerzeugungsgemeinde in Colorado wird verwendet, um a) den großen Bedarf an zuverlässigen subnationalen Bevölkerungsprognosen zu veranschaulichen, insbesondere in Gemeinden, die ein schnelles Bevölkerungswachstum erwarten, und b) warum solche Projektionen, wie sie derzeit durchgeführt werden, nicht zuverlässig sein können. Erklärungen für das Scheitern der Vorhersage finden sich in den Methoden selbst, der Nichtverfügbarkeit und Unzuverlässigkeit von Schlüsseldaten, der Politik und dem Eindringen von Werten der Designer und Benutzer in die Vorhersagemodelle. Als eine Lösung wird vorgeschlagen, Prognosen von einem technischen zu einem ethischen Thema umzudenken und auf einer aktiven und nicht auf einer passiven Planungs-/Vorhersagephilosophie zu basieren. Als solche würden die Gesellschaft und die Industrie ein gewünschtes, realistisches Ziel setzen und Prognosemodelle würden rückwärts laufen, um die ökonomisch-demografischen Pfade zu bestimmen, auf denen dieses Ziel erreicht werden könnte.;-;-;-;https://link.springer.com/article/10.1007/BF00123007 02881832f4afee536bf2cad6a56f6634;de;;;4.2.;;;Revolutionäre Überwachungstechnologie für das Gesundheitswesen: Analyse von Funktionen durch Aufgabenmodell Die Verbreitung von Gesundheitsinformationen und Patientenkommunikation ermöglichte es den Patienten, ihre Beschwerden besser zu verstehen, was sich positiv auf das persönliche Gesundheitsmanagement (PHM) auswirkte. Es gibt viele PHM-Systeme, die in Form von Web- und mobilen Anwendungen entwickelt wurden, um die Eigenverantwortung für die eigene Gesundheit zu fördern. Daher zielt dieses Papier darauf ab, die Alternativen und Wege zu untersuchen, die in Form von mobilen PHM-Anwendungen von Patienten, Pflegepersonal und medizinischem Fachpersonal zur Verfügung stehen, die wertschöpfende Initiativen zur Verbesserung des Prozesses der persönlichen medizinischen Versorgung bieten können. Ein Aufgabenmodell für die Entwicklung eines mobilen PHM wird basierend auf sechs Faktoren diskutiert, nämlich (1) Subjekt, (2) Ziel, (3) Kontrolle, (4) Werkzeug, (5) Kontext und (6) Kommunikation.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07632-4_28 9265b2fe91c229d996fae9b564a08e7e;de;;;5.2.;;;NaCl-Transport im Wirbeltierdarm Wir fassen kurz die Entwicklungen unseres Wissens und der Konzepte zusammen, die einen großen Beitrag zum weiteren Verständnis der Transportprozesse im Darmepithel von Wirbeltieren geleistet haben und leisten werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-73285-0_3 3a0d2e14131406b635c79e834adbf955;de;;;5.2.;;;"Sokrates’ Quest: Der Beginn der Weisheit WENN SIE EINEN STANDORT für das größte Orakel der Antike WÄHLEN MÜSSEN, würden Sie Delphi kaum schlagen. Selbstbewusst und steil auf einem Felsvorsprung unterhalb der Phaedraides – den „leuchtenden Klippen“ – in Zentralgriechenland sitzend, scheint die schwindelerregende Gewissheit die Menschen gefühlt zu haben, die dort seit über 1000 Jahren Apollos Wort suchten. Heute führt eine breite Straße, die für Reisebusse gebaut wurde, Besucher aus der Ebene von Theben hinauf. Sein verschlafener Mäander scheint die katastrophalen Ereignisse, die sich unter dem Asphalt ereigneten, vergessen zu haben: ""Es gibt keinen Weg von Delphi entfernt"", sagte Seneca und dachte über Ödipus' Versuch nach, dem Fluch des Orakels auf demselben Weg zu entkommen, nur um seinen Vater zu töten der weg Aber nach etwa einer Stunde biegen Sie eine letzte Kurve ab, und plötzlich tauchen die verräterischen Zeichen von zerbrochenen Säulen und einem Fahrkartenschalter aus den Zypern auf.";-;-;-;https://link.springer.com/chapter/10.1007/978-0-230-28903-1_2 c9be6d5e4e080d697c923ca11035179f;de;;;5.2.;;;Modellauswahl in der logistischen Regression mit p-Werten und Greedy Search Wir untersuchen neue Auswahlkriterien für Logistikmodelle auf der Grundlage von p-Werten. Die Regeln werden als konsistent bewiesen, sofern geeignete Annahmen über die Designmatrix und die Skalierungskonstanten erfüllt sind und die Suche über die Familie aller Teilmodelle durchgeführt wird. Darüber hinaus untersuchen wir die praktische Leistungsfähigkeit der eingeführten Kriterien in Verbindung mit gierigen Suchmethoden wie Initial Ordering, Vorwärts- und Rückwärtssuche und genetischen Algorithmen, die den Bereich der Modellfamilie einschränken, über die ein optimaler Wert des jeweiligen Kriteriums gesucht wird. Das skalierte minimale p-Wert-Kriterium mit initialer Ordnung erweist sich als vielversprechende Alternative zum BIC.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25261-7_10 12ca81cbda32bc4cba2f0a7b8720b0af;de;;;5.2.;;;Suchkomplexität: Ein Weg zur quantitativen Analyse des Suchraums Wir haben die Situationen betrachtet, in denen die Suche in den strukturierten Räumen durchgeführt wird. Um den Aufwand, die Unsicherheit über die Informationen der Raumstruktur zu reduzieren, von den Implementierungskosten für die Verarbeitung des erworbenen Wissens zu isolieren, haben wir das Konzept der;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-57602-8_31 c6b9c4af5578700b64b00df584f36799;de;;;5.2.;;;Wer profitiert? Rechtliche Bestimmungen und Auswirkungen auf Probe Bis Ende November 2016 hatten 32 Bundesstaaten das Recht, Gesetze vor Gericht zu stellen. Diese Gesetze sollen unheilbar kranken Patienten die Vorabgenehmigung oder den „mitfühlenden“ Zugang zu Medikamenten, Geräten oder Biologika ermöglichen, die sich in der Entwicklung befinden und noch nicht von der US-amerikanischen Food and Drug Administration (FDA) zugelassen wurden. Während die Absichten der Gesetze und ihre Auswirkungen untersucht wurden, wurde wenig über Variationen zwischen den staatlichen Gesetzen geschrieben. Eine Untersuchung der spezifischen Bestimmungen in und der Unterschiede zwischen den 32 Gesetzen und deren Vorteile zeigt, dass die Vorteile des Rechts auf Prozesskostenhilfe weitgehend rhetorisch sind. Obwohl die Gesetze also als patientenfreundlich angekündigt wurden, sollten sie nur als patientenzentrierte Gesetzgebung getarnt verstanden werden. Wir fordern eine erneute Überprüfung und Änderung oder idealerweise die Aufhebung dieser Gesetze, um das sehr reale Risiko von Patientenschäden zu vermeiden, die sowohl durch einige der Bestimmungen der Gesetze als auch durch die Verwirrung der Patienten aufgrund dieser irreführenden Gesetze verursacht werden.;-;-;-;https://link.springer.com/article/10.1177/2168479017694849 f91d549161d0eed4a7fcdeece28b2325;de;;;5.2.;;;Ein neuartiges und effektives mehrfach eingeschränktes QoS-Routing-Schema in WMNs Multi-constrained Quality of Service (QoS)-Routing zielt darauf ab, einen optimalen Pfad zu finden, der einen Satz von QoS-Parametern als ein NP-vollständiges Problem erfüllt, was auch eine große Herausforderung für drahtlose Mesh-Netzwerke (WMNs) darstellt. Heuristische Algorithmen mit polynomialer und pseudopolynomialer Zeitkomplexität werden häufig verwendet, um dieses Problem zu lösen. Bestehende Lösungen, von denen die meisten entweder unter übermäßiger Rechenkomplexität oder geringer Leistung litten, wurden jedoch nur für drahtgebundene Netzwerke vorgeschlagen und können nicht direkt in drahtlosen Mesh-Netzwerken verwendet werden. In diesem Beitrag schlagen wir ein neuartiges Routing-Schema vor, das auf Mean Field Annealing (MFA-RS) basiert, um dieses Problem zu lösen. MFA-RS verwendet zuerst eine Funktion von zwei QoS-Parametern, der Verzögerung der drahtlosen Verbindung und der Übertragungserfolgsrate, als Kostenfunktion und versucht dann, einen machbaren Pfad durch MFA zu finden. Da MFA-RS einen Satz deterministischer Gleichungen verwendet, um den stochastischen Prozess beim simulierten Glühen (SA) zu ersetzen, und Sattelpunkt-Approximation bei der Berechnung der stationären Wahrscheinlichkeitsverteilung im Gleichgewicht verwendet, ist die Konvergenzzeit viel kürzer als beim Routing-Schema basierend auf SA (SA-RS). Simulationsergebnisse zeigen, dass MFA-RS ein effektiver Algorithmus ist und sehr gut für WMNs geeignet ist.;-;-;-;https://link.springer.com/article/10.1007/s11460-011-0118-2 7cb0c59c9d96406922f17cded08c9c21;de;;;5.2.;;;Ordensgewinner und Qualifikanten Das letzte Kapitel führte in das Konzept der Auftragsgewinner und -qualifizierer ein, erörterte die Gründe für diese Perspektiven und skizzierte ihre charakteristischen Merkmale. In diesem Kapitel werden diese Dimensionen eingehender untersucht und spezifische Kriterien ausführlicher erläutert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-13724-4_3 dc0d883d110d8723f7eaba8b664f8c7d;de;;;4.2.;;;Individuelle Nahrungssuche in der Ameise Ein Modell der individuellen Nahrungssuche bei sozialen Insekten, wie es vorgestellt wird, das die Dynamik der Nahrungssuche formalisiert und sich eher auf den kollektiven als auf den individuellen Nutzen konzentriert, indem die Beziehungen zwischen der Nahrungssuche einer Kolonie, der Anzahl der Nahrungssuchenden und dem Energiehaushalt der Nahrungsquelle und der Rate der Nahrungsquellen quantifiziert werden Ankunft, Verschwinden und Gefangennahme. Eine Versuchsreihe, bei der den Kolonien der einzeln futtersuchenden Ameisen eine Reihe von Beutetieren angeboten wurde;-;-;-;https://link.springer.com/article/10.1007/BF00789933 daad7a89ed41d99010c218e4c75ff2f4;de;;;5.2.;;;Aktuelle RILIS-Entwicklungen am TRIUMF Offline-Laser-Ionenquellen-Prüfstand Bei der Suche nach effizienten Laserresonanz-Ionisationsschemata und optimalen Quellenparametern ist die Entwicklung von Offline-Laserionenquellen für eine erfolgreiche Online-Strahlenabgabe von Bedeutung. Es wird ein Überblick und ein Update zu den neuesten Offline-Entwicklungen von TRIUMFs Resonanz-Ionisations-Laser-Ionenquellen (TRILIS) präsentiert. Dazu gehören die Titan-Saphir (Ti:Sa) Laserentwicklung und die Untersuchung der Laserionisationseffizienz in Abhängigkeit von Quellentemperatur und Laserpolarisation.;-;-;-;https://link.springer.com/article/10.1007/s10751-020-1694-4 298780c6e99eda131f2c18ce7b7107ce;de;;;5.2.;;;Ein effizienter Algorithmus zur Schätzung der Halbpixelbewegung basierend auf räumlichen Korrelationen Die Bewegungsschätzung ist ein wichtiger Bestandteil von Videocodiersystemen, da sie die Ausgabequalität und das Kompressionsverhältnis erheblich beeinflussen kann. Die Bewegungsschätzung, die aus einer Bewegungsschätzung von ganzzahligen Pixeln und einer Bewegungsschätzung von halben Pixeln besteht, ist ein sehr rechenintensiver Teil. Um die Rechenkomplexität zu reduzieren, wurden viele Verfahren sowohl in der Bewegungsschätzung ganzer Pixel als auch in der Bewegungsschätzung halber Pixel vorgeschlagen. Für die Bewegungsschätzung ganzer Pixel könnten einige schnelle Verfahren ihre Rechenkomplexität erheblich reduzieren. Es bleibt jedoch Raum für eine Verbesserung der Leistung aktueller Verfahren zur Schätzung der Halbpixelbewegung. In diesem Beitrag wird ein effizienter Algorithmus zur Schätzung der Halbpixel-Bewegung basierend auf räumlichen Korrelationen vorgeschlagen, um die Rechenkomplexität zu reduzieren. Gemäß räumlich korrelierter Information entscheidet das vorgeschlagene Verfahren, ob eine Halbpixel-Bewegungsschätzung für den aktuellen Block durchgeführt wird oder nicht. Experimentelle Ergebnisse zeigen, dass das vorgeschlagene Verfahren die meisten aktuellen Verfahren in Bezug auf die Berechnungskomplexität übertrifft, indem es die Anzahl der Suchpunkte bei geringer Verschlechterung der Bildqualität reduziert. Im Vergleich zur Full-Half-Pixel-Suchmethode erreicht der vorgeschlagene Algorithmus eine Suchpunktreduktion von bis zu 96% mit nur 0,01 ~ 0,1 (dB) Verschlechterung der Bildqualität.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30497-5_187 444832a8bbd58655e28891c0e30b5c9d;de;;;4.2.;;;„Sowjet“ im Raum sozialer Netzwerke: Eine Form der politischen Reflexion In diesem Artikel überprüfen wir das Verständnis des „sowjetischen“ Phänomens durch die Nutzer sozialer Netzwerke. Der Umfang unserer Analyse umfasst soziale Netzwerke, die am häufigsten von russischen Bürgern genutzt werden: Vkontakte, Odnoklassniki und Facebook. Im Zuge der Forschung kamen Methoden der Inhaltsanalyse und der Sprachanalyse zum Einsatz. Bei der Analyse bestimmter Textarten wurden Techniken der semantischen und textuellen Analyse angewendet: Titel, Slogans, Gruppenbeschreibungen und Benutzerkommentare. Mit der Methode der Inhaltsanalyse wurden die wichtigsten semantischen Kategorien (Themen) identifiziert, die für die Nutzer sozialer Netzwerke relevant sind. Die Analyse der in Gruppen (Communities) platzierten Informationen in sozialen Netzwerken zeigt einen signifikanten Unterschied im Verständnis des untersuchten Phänomens.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49700-6_6 33c4d3240d266664977a15c6b08d9877;de;;;5.2.;;;Permutationsbearbeitung und -abgleich über Einbettungen Wenn die genetischen Karten zweier Arten als Permutationen (homologer) Gene modelliert werden, kann die Anzahl der Chromosomenumlagerungen in Form von Deletionen, Blockbewegungen, Inversionen usw., um eine solche Permutation in eine andere zu transformieren, als Maß für deren Evolution verwendet werden Distanz. Motiviert durch solche Szenarien untersuchen wir Probleme bei der Berechnung von Distanzen zwischen Permutationen sowie der Übereinstimmung von Permutationen in Sequenzen und der Suche nach der ähnlichsten Permutation aus einer Sammlung („nächster Nachbar“).;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48224-5_40 2adce4f202b03153c022a6a5f8d7dbe3;de;;;4.2.;;;Der Niedergang der Katholizität im Westen Angesichts dessen, was am Ende des vorigen Kapitels gesagt wurde, dass die Kirche immer versuchen muss, sich unter der Führung des Heiligen Geistes zu bewegen, um ihre gegenwärtige unvollkommene Katholizität vollständiger zu verwirklichen, müssen wir jetzt gewisse Abtrünnigkeit berücksichtigen von Katholizität, die innerhalb der christlichen Tradition aufgetreten sind. Denn statt einer ständigen Bewegung hin zu dieser volleren Erkenntnis hat es in gewisser Hinsicht eine Bewegung von ihr weg gegeben. Wenn das moderne Christentum nach den Maßstäben der neutestamentlichen Kirche untersucht wird, ist offensichtlich, dass es einen Richtungswechsel gegeben hat und dass die christliche Katholizität Verluste erlitten hat, das heißt, es hat eine Verfälschung der Ganzheit der christlichen Religion gegeben. Das ursprüngliche Gleichgewicht zwischen Charismatik und Tradition, zwischen Schrift und Sakrament, zwischen persönlichen und unternehmerischen Anliegen ist verloren gegangen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-81705-4_3 2b3b2f35ff70b27c13b0b869f66da9a4;de;;;5.2.;;;Argumentationsstrategien für kollaboratives Planen von Ressourcen Eine wichtige Frage für einen autonomen Agenten, der entscheidet, an wen er sich für eine Ressource oder eine auszuführende Aktion wenden soll, ist, was muss ich sagen, um Sie zu überzeugen, etwas zu tun? Wurden ähnlichen Anfragen von ähnlichen Agenten unter ähnlichen Umständen stattgegeben? Welche Argumente waren am überzeugendsten? Welche Kosten entstehen durch das Vorbringen bestimmter Argumente? In diesem Papier stellen wir einen Entscheidungsfindungsmechanismus für Agenten vor, bei dem Modelle anderer Agenten durch Beweise aus vergangenen Dialogen verfeinert werden und wo diese Modelle verwendet werden, um zukünftige Argumentationsstrategien zu leiten. Wir evaluieren unseren Ansatz empirisch, um zu zeigen, dass entscheidungstheoretische und maschinelle Lerntechniken sowohl den kumulativen Nutzen dialogischer Ergebnisse signifikant verbessern als auch dazu beitragen können, den Kommunikationsaufwand zu reduzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33152-7_10 cc58acfc4b0e26150590350ca54fe5c5;de;;;5.2.;;;Der Teufel schlägt zurück Kein Zaun war hoch oder stark genug, um Neuengland vom verderblichen Einfluss der nichtpuritanischen Welt abzuschotten. Und hinter dem Zaun verschwanden die reine Intellektualität, Frömmigkeit und der Mut, die Männer und Frauen wie Roger Williams und Anne Hutchinson hervorgebracht hatten, nach dem Ende der großen Völkerwanderung nicht. Während orthodoxe Geistliche und Richter die Einheitlichkeit der Gemeinde schmiedeten, folgten die Söhne und Töchter von Andersdenkenden wie Williams und Hutchinson weiterhin ihren Herzen und Gedanken, wohin sie auch gingen. Gegensätzliche Denker, die nicht gehen wollten, wurden zunächst rücksichtslos unterdrückt – aber die Strafe machte sie nur zu Märtyrern. Neuengland war von Pilgern gegründet worden, die bereit waren, ihren Überzeugungen zu folgen – und die Kinder der Gründer waren auch bereit, ihren zu folgen. Einige von ihnen folgten ihrem Herzen in die täuferische Tradition der Reformation, andere in die neue radikale Gesellschaft der Freunde oder Quäker, wie sie allgemein genannt wurden. Andere – noch größere Abtrünnige – wandten sich wieder der Church of England zu.;-;-;-;https://link.springer.com/chapter/10.1057/9781137025630_11 ce36fde88168d25ed2b59490c6cdd24e;de;;;5.2.;;;Entwicklung eines räumlichen Entscheidungsunterstützungssystems für die biologischen Einflüsse auf Gezeitengebiete (Biota) im Rahmen der Land-Ozean-Interaktionsstudie Die Land Ocean Interaction Study (LOIS) ist eine große NERC-Initiative, die versucht, den Austausch, die Umwandlung und Speicherung von Energie und Materialien zwischen Land und Ozean zu verstehen. In LOIS untersucht das BIOTA-Programm die Flüsse der Gezeitenzone und insbesondere die Wechselwirkungen zwischen biotischen und abiotischen Komponenten des Systems. Um die Kommunikation und Zusammenarbeit zu erleichtern, hat das BIOTA-Rechenzentrum ein räumliches Entscheidungsunterstützungssystem (DSS) entwickelt, das auf einer hybriden verteilten Datenbank und einem geografischen Informationssystem (GIS) basiert. Besonderes Augenmerk wurde auf folgende Aspekte gelegt: bekannte Datenqualität, das Vorhandensein geeigneter Metadaten, die Integration prozessbasierter Modelle und räumlicher Analyse- und Visualisierungstools.;-;-;-;https://link.springer.com/chapter/10.1007/0-306-48002-6_30 cd4487d6d0fbb1e264ac638a672295d9;de;;;4.2.;;;Archetypen von Wissensgemeinschaften In vielen Organisationen gibt es Wissensgemeinschaften, deren Formen und Funktionen jedoch recht unterschiedlich sind. Dies impliziert, dass Fragen zur;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-3591-8_11 a2c90a730da60c6ce4fdeb6ffb669b3b;de;;;4.2.;;;Nachhaltige Aquakultur: Sozioökonomische und ökologische Bewertung Eines der Ziele der nachhaltigen Entwicklung besteht darin, die externen Umwelteffekte zu minimieren oder zu beseitigen und eine soziale und wirtschaftliche Entwicklung anzustreben. Die sozioökonomische und ökologische Bewertung (SEEA) befasst sich mit der Bewertung der sozioökonomischen und ökologischen Probleme, die potenziell eine Bedrohung für den bestehenden Zustand darstellen können. SEEA befasst sich auch mit der Entwicklung geeigneter Alternativen oder Managementtechniken. Da die weltweite Fangart der Fischerei stagniert oder zurückgeht, ist das Wachstum der Aquakultur unvermeidlich, da sie die Lücke zwischen sinkender natürlicher Produktion und steigender Marktnachfrage schließt. Aquakultur ist die einzige praktikable Möglichkeit, die Produktion von Meeresfrüchten und Süßwasserfischen zu steigern. Daher war die nachhaltige Entwicklung der Aquakulturindustrien die Notwendigkeit. Dieses Kapitel beleuchtet die verschiedenen sozioökonomischen und ökologischen Probleme, zu denen die Aquakultur führt, und stellt auch die Wirkungsbereiche, Minderungs- und Überwachungspläne vor, die angenommen werden können, um die Nachhaltigkeit der Aquakultur sicherzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-73257-2_2 45057db47135a65372e176a6b80af34d;de;;;4.2.;;;Ein entscheidungsträgerzentriertes System zur Wiederherstellung von Altprodukten für die Roboter-Aufgabensequenzierung End-of-Life (EOL)-Demontage konzentriert sich auf die Wiedererlangung des Wertes von Produkten, die aus verschiedenen Gründen wie fehlender technischer Funktionalität und/oder mangelnder Nachfrage als ihre Nutzungsdauer erreicht gelten. Es ist bekannt, dass die Demontage aufgrund möglicher Änderungen in der EOL-Produktstruktur einzigartige Eigenschaften besitzt und daher nicht als die Umkehrung der Montagevorgänge angesehen werden kann. Aus ähnlichen Gründen erfordert das Erhalten einer nahezu optimalen/optimalen Demontagesequenz eine intelligente Entscheidungsfindung während der Demontage, wenn die Sequenz regeneriert werden muss, um diese unvorhersehbaren Änderungen aufzunehmen. Das heißt, wenn eine oder mehrere Komponenten, die in der Originalstückliste (BOM) des Produkts enthalten waren, fehlen oder wenn eine oder mehrere Verbindungsarten sich von denen unterscheiden, die in der Originalstückliste aufgeführt sind, ist die Reihenfolge erforderlich um eine neue und genaue Alternative für die Demontage anpassen und generieren zu können. Diese Überlegungen erfordern, dass die Zerlegungssequenzierung durch leistungsfähigere und vielseitigere Methoden gelöst wird, die die Verwendung von Bilderkennungstechnologien für die Online-Echtzeit-Zerlegung rechtfertigen, während Suchtechniken auferlegt werden, die effizientere Lösungen bieten als ihre erschöpfenden Suchgegenstücke. Daher bietet die Literatur zur EOL-Disassemblierungssequenzierung eine Vielzahl von heuristischen Techniken. Wie bei jeder datengesteuerten Technik hängt die Leistung der vorgeschlagenen Methoden stark von der Genauigkeit und Flexibilität der Algorithmen und ihrer Fähigkeit ab, verschiedene spezielle Überlegungen zu berücksichtigen, wie z. B. die Beibehaltung der Vorrangbeziehungen während der Demontage, während nahezu optimale oder optimale Lösungen erhalten werden. Diese Studie baut auf früheren Untersuchungen zur Zerlegungssequenzierung auf und stellt ein automatisiertes Roboter-Demontage-Framework für elektronische EOL-Produkte vor. Das Modell berücksichtigt die Präferenzen der Entscheidungsträger (DMs) in der Problemumgebung für eine effiziente Material- und Komponentenrückgewinnung. Anhand eines numerischen Beispiels wird die Funktionalität des vorgeschlagenen Ansatzes demonstriert.;-;-;-;https://link.springer.com/article/10.1007/s10846-017-0749-5 cfa501b2cff98d92f6c1f6a0499dceab;de;;;4.2.;;;Emotionale Intelligenz und Lebenszufriedenheit im Erwachsenenalter Ziel dieser Studie war es, den Zusammenhang zwischen Emotionaler Intelligenz (EI) und Lebenszufriedenheit (LS) (18 bis 60 Jahre) als Repertoire an erworbenen psychologischen Kompetenzen und intelligentem Anpassungsverhalten durch die Förderung von persönlichem Erfolg, Glück und allgemeinem Wohlbefinden zu analysieren -sein und erforschen Sie ihre Beiträge zu LS. Für das junge Erwachsenenalter (18–39 Jahre) und das fortgeschrittene Erwachsenenalter (40–60 Jahre) wurden drei Forschungshypothesen formuliert, die darauf abzielen, die Größenordnung dieser beiden Lebensphasen zu vergleichen: (H1) EI und LS sind positiv verwandt, (H2) EI und Selbstwertgefühl sind positiv verwandt und (H3) EI ist ein Prädiktor für LS. Die Stichprobenstudie besteht aus 200 Teilnehmern im Alter von 18 bis 60 Jahren. Die Ergebnisse zeigten keine Unterschiede zwischen EI bei jungen und älteren Erwachsenen, obwohl letztere deutlich weniger zufrieden mit ihrem Leben waren und berichteten, dass sie eine ungünstigere Lebensphase durchlaufen haben. Die drei Hypothesen fanden statistische Unterstützung, mit größerem Ausmaß im fortgeschrittenen Erwachsenenalter. Bei jungen Erwachsenen machte die EI 15 % ihres allgemeinen Wohlbefindens aus und bei älteren Erwachsenen stieg dieser Anteil auf 43 %.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-16028-9_18 e17520aa2cd56f80b55b06250c175114;de;;;5.2.;;;Clustering nach ITL-Prinzipien Lernen und Anpassung befassen sich mit der Quantifizierung und Nutzung der Inputquellen-„Struktur“, wie Watanabe vielleicht zum ersten Mal aufgezeigt hat [330]. Obwohl Struktur ein vages und schwer zu quantifizierendes Konzept ist, füllt Struktur den Raum mit identifizierbaren Mustern, die makroskopisch durch die Form der Wahrscheinlichkeitsdichtefunktion unterscheidbar sind. Daher bilden Entropie und das Konzept der Unähnlichkeit natürlich die Grundlage für unüberwachtes Lernen, da sie Deskriptoren von PDFs sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-1570-2_7 e0e30b8614b642e918478d64e26da917;de;;;5.2.;;;Ernährungsrolle Obwohl der Mensch beim Kontakt mit Pollen häufig Beschwerden verspürt (Kapitel 12), ist Pollen bei anderen Lebewesen für deren Lebenszyklus unerlässlich. Der Mensch ist seit langem ein Konsument von Pollen und pollenhaltigen Lebensmitteln. Pollenprodukte werden jetzt als Nahrungsergänzungsmittel für den Menschen vermarktet, wobei dem Benutzer oft verschiedene ernährungsphysiologische und gesundheitliche Vorteile nachgesagt werden. Seit etwa 1960 hat die Forschung gezeigt, dass Pollen nützlich sind, wenn sie in die Futterrationen bestimmter Nutztiere aufgenommen werden. Diese neueren Verwendungen von Pollen unterscheiden sich von den Interaktionen von Insekten mit Pollen. Die adaptive und parallele Evolution von Insekten mit Blüten ist der Schlüssel zum Überleben und zur Fortpflanzung vieler Pflanzenarten. Muster und Mechanismen der Insektenbestäubung sind bekannt (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-65905-8_7 19775f550404cf0fcac73579da8d79cd;de;;;5.2.;;;Wie viele Cluster? Eine Untersuchung von fünf Verfahren zur Erkennung verschachtelter Clusterstrukturen Der Beitrag befasst sich mit dem Problem, relevante Werte für die Anzahl der in einem Datensatz vorhandenen Cluster zu identifizieren. Das Problem wird in der Regel durch die Suche nach der besten Partition mit sogenannten Stoppregeln angegangen. Es wird argumentiert, dass es von Interesse sein kann, Clusterstrukturen auf mehreren verschiedenen Ebenen zu erkennen, und fünf Stoppregeln, die in einer früheren Untersuchung gut funktioniert haben, werden zu diesem Zweck modifiziert. Die Regeln werden anhand ihrer Leistung bei der Analyse simulierter Datensätze bewertet, die eine verschachtelte Clusterstruktur enthalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-65950-1_9 9e7b9b5ccd3e123c90c2131a3d96f025;de;;;5.2.;;;Kierkegaard und Nietzsche In letzter Zeit ist eine Bewegung entstanden, die versucht, die Intuitionen Kierkegaards zu nutzen, um ein System der Poetik aufzubauen. Ein Kritiker, zum Beispiel George Whalley in;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-0770-7_4 85894b96426fbaf2296377f4996c1608;de;;;4.2.;;;Bereitschaft zur elektronischen Regierungsführung: Vergleichende Analyse armenischer und russischer Gesellschaften Die Entwicklung der elektronischen Regierungsführung in jedem Land wird von kulturellen Besonderheiten, dem Bildungsniveau und der Informations- und Kommunikationsinfrastruktur bestimmt. Der Artikel untersucht umfassend das Bereitschaftspotenzial armenischer und russischer Gesellschaften für elektronisches Regieren. Begründet wird diese Wahl damit, dass zunächst Russland und Armenien Mitglieder der Eurasischen Wirtschaftsunion sind, die derzeit die Politik der Mitgliedstaaten zur digitalen Transformation harmonisiert. In diesem Zusammenhang lässt die Anwendung von Hofstedes Modell und Inglehart-Welzels kultureller Landkarte erkennen, dass sowohl Armenier als auch Russen auf den Kampf ums Überleben auf Kosten der Selbstdarstellung und das Streben nach Stabilität ausgerichtet sind. Die komplexe Auswertung zeigt ein niedriges Niveau für Machtdistanz und Unsicherheit. Für Armenien sind es 0,19 und für Russland - 0,06. Das bedeutet, dass das Niveau der technologischen Bedingungen in einem Land nicht unbedingt zu einer umfassenden technologischen Durchdringung einer Gesellschaft führt. Sowohl die armenische als auch die russische Gesellschaft haben beispielsweise ernsthafte kulturelle Barrieren, die die Entwicklung von Netzwerkinteraktionen behindern. Die Autoren haben das Bereitschaftspotenzial der Gesellschaften für elektronisches Regieren nach IKT-Zugang, IKT-Nutzung, Online-Dienst der Regierung, E-Beteiligung, Großkoeffizient der Abdeckung der Bevölkerung mit Hochschulbildung, Machtdistanz und Unsicherheitsvermeidung für den oben genannten Zeitraum berechnet calculated . Ihre Werte schwanken im Bereich von 36,40–38,57 % für Russland und 22,39–27,71 % für Armenien. Damit hat das Bereitschaftspotential der Gesellschaften für elektronisches Regieren in der Zukunft erhebliches Entwicklungspotential.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-13283-5_16 59763d35dcefe0b2f4a1efd2015b63e7;de;;;5.2.;;;Stapel und Warteschlangen Erinnern Sie sich an das vorherige Kapitel, dass für ein geordnetes Listenobjekt ein Datenelement an jeder angegebenen Position in der Listenstruktur eingefügt und von dort gelöscht werden kann. Das heißt, ein allgemeines Listenobjekt sorgt für einen wahlfreien Zugriff auf seine Datenelemente. Diese Flexibilität wird jedoch auf Kosten der Notwendigkeit realisiert, entweder die Datenelemente explizit neu anzuordnen oder eine möglicherweise komplizierte Datenverknüpfungsstruktur aufrechtzuerhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-2636-9_6 f88b9b99da9d6bdf1cbe1407079fe18e;de;;;5.2.;;;Verstehen der zeitlichen Absicht von Benutzerabfragen basierend auf zeitbasierter Abfrageklassifizierung Webabfragen sind zeitkritisch, was bedeutet, dass sich die Informationsabsicht des Benutzers im Laufe der Zeit ändert. Wie man zeitliche Absichten hinter Benutzeranfragen erkennt, ist entscheidend für die Verbesserung der Leistung von Suchmaschinen. Nach unserem besten Wissen wurde dieses Problem jedoch in bestehenden Arbeiten nicht untersucht. In diesem Papier schlagen wir einen zeitbasierten Ansatz zur Klassifizierung von Abfragen vor, um die zeitliche Absicht des Benutzers automatisch zu verstehen. Wir haben zuerst die gemeinsamen Merkmale der zeitlichen Absichtsverteilungen von Abfragen analysiert. Anschließend präsentieren wir eine Abfragetaxonomie, die Abfragen nach ihrer zeitlichen Absicht gruppiert. Schließlich schlagen wir für eine neue gegebene Abfrage eine Methode des maschinellen Lernens vor, um ihre Klasse in Bezug auf ihre Suchhäufigkeit im Laufe der Zeit zu bestimmen, die in Web-Abfrageprotokollen aufgezeichnet wird. Experimente zeigen, dass unser Ansatz die zeitlichen Absichten der Nutzer effektiv verstehen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41644-6_31 0d14b3744789c568623ded6933365f86;de;;;5.2.;;;Vorhersage des hohen Verkehrsaufkommens an Feiertagen basierend auf GA-SVR Die Vorhersage des Urlaubsverkehrs weist die Merkmale einer kleinen historischen Stichprobengröße und einer starken Nichtlinearität auf, was zu einer geringen Vorhersagegenauigkeit führt. In diesem Artikel wird ein genetischer Algorithmus (GA) verwendet, um die Support-Vektor-Regressionsmaschine (SVR) zu optimieren, um den geschäftigen Verkehr von Xinjiang in den Ferien vorherzusagen und mit dem traditionellen SVR und dem neuronalen BP-Netzwerk zu vergleichen. Das Ergebnis zeigt, dass der GA-SVR eine höhere Vorhersagegenauigkeit hat und weniger zeitaufwändig ist, was eine effektive Methode zur Vorhersage von viel Verkehr ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30223-7_91 13167fd0a10a58db743c955d3c058463;de;;;5.2.;;;Unsicherheit und normative Wahl In Kapitel V haben wir Wertfunktionen diskutiert, um Alternativen unter Gewissheit einzustufen. Der Zweck dieses Kapitels ist es, eine Erweiterung der Konzepte der Werttheorie zu einem normativen Ansatz für die Entscheidungsfindung unter Unsicherheit zu diskutieren:;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5599-5_7 4dd39ff1455e56c3fb30d7a82f0f933e;de;;;4.2.;;;Direkte Demokratie und sprachliche Minderheiten in der Schweiz und in Südtirol – ein Vergleich Bringen Verfahren der direkten Demokratie grundsätzliche Gefahren in Bezug auf soziale, ethno-linguistische und religiöse Minderheiten mit sich? Gibt es überhaupt einen Konflikt zwischen Volksentscheiden durch Initiativ- und Volksabstimmung und dem Erfordernis interethnischer verbandsdemokratischer Verfahren? Der Artikel konzentriert sich auf die bestehenden Spannungen und vermeintlichen Widersprüche zwischen Verfahren der direkten Demokratie (Initiative und Volksabstimmung) und dem Schutz der Rechte und Interessen von Minderheiten in mehrsprachigen Räumen. Anhand einiger neuerer Beispiele dieser Art in vier schweizerischen zwei- oder mehrsprachigen Kantonen und in Südtirol vergleicht der Autor diese Erfahrungen und diskutiert die entscheidende Frage, ob ein solcher Konflikt gelöst werden kann und welche besonderen Vorkehrungen getroffen werden sollten Anwendung der direkten Demokratie in mehrsprachigen Gebieten. Schließlich stellt er einen neuen Ansatz vor, wie Bürgerrechte auf direkte politische Teilhabe, die in den italienischen Verfassungen und im Südtiroler Autonomiestatut verankert sind, mit der Notwendigkeit in Einklang gebracht werden könnten, die Gleichberechtigung von Sprachgruppen in einem mehrsprachigen Gemeinwesen zu respektieren, ein Thema die derzeit in der Südtiroler Politik diskutiert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-94304-6_8 d3445fd4398b0af835f8296d3ad39952;de;;;5.2.;;;Abruf der Änderung des abscheidbaren Wasserdampfes durch GPS-Technik Die Machbarkeit von GPS-präzipitierbarem Wasserdampf (PWV) wird basierend auf dem Vergleich von Radiosonde und GPS PWV diskutiert, wobei der Korrelationskoeffizient 0,94 und der RMS 4,0 mm beträgt. Die PWV-Änderung auf dem chinesischen Festland im Jahr 2004 wird mit der Rastermethode von Splines in Spannung grafisch dargestellt, gemäß den GPS-Daten des Krustenmonitor-Beobachtungsnetzwerks in China, kombiniert mit relevanten meteorologischen Informationen. Aus der Verteilung der jährlichen Niederschlagsmenge im Land lässt sich schließen, dass der Gesamttrend des PWV von der südöstlichen Küste zum nordwestlichen Landesinneren abnimmt. Der PWV erreicht sein Maximum im Juli und August und das Minimum wird im Januar und Februar erreicht. Nach dem PWV können alle Bezirke von hoch bis niedrig als Südostküste, Binnenland und Hochebene eingestuft werden.;-;-;-;https://link.springer.com/article/10.1007/s11806-007-0129-6 16ccdc7077b1c32e626fce340e8fa966;de;;;4.2.;;;Zuordnung von Merkmalen des Wissensaustauschs zur Geschäftsstrategie in einer wissensbasierten Organisation Die Globalisierung hat dazu geführt, dass Wissen heutzutage in vielen Organisationen zunehmend als Wettbewerbswaffe eingesetzt wird. In diesem Zusammenhang konzentrieren sich immer mehr Organisationen auf praxisorientierte (CoPs) orientierte Wissensmanagement (WM)-Studien und die Verbindungen zwischen WM und organisationaler Geschäftsstrategie. Diese Verbindung ist eine wichtige Determinante der Unternehmensleistung. Während die KM-Geschäftsstrategie (in Verbindung mit der Geschäftsstrategie der Organisation) wichtig ist, ist das Wissensaustauschverhalten von Wissensarbeitern ein entscheidender Faktor für ein effektives Wissensmanagement und die Unternehmensleistung. Das heißt, Unternehmen investieren Ressourcen in die Schaffung von CoPs, um einen Wettbewerbsvorteil zu erzielen, und der Mangel an geeigneten Kandidaten führt zu einem Verlust an Dynamik und einem geringeren Wissensaustausch in CoPs und damit zu einer unzureichenden Nutzung der Ressourcen. Das Ziel dieser Forschung ist es, die Persönlichkeitsmerkmale zu identifizieren, um die Merkmale von Wissensarbeitern zu porträtieren, die für CoPs-orientierte WM- und Geschäftsstrategie geeignet sind. In diesem Papier wurden vier WM-Geschäftsstrategien im Hinblick auf die Leistungsorientierung der Organisation und den WM-Implementierungsmodus entwickelt, und die Eigenschaften von Wissensarbeitern werden auf verschiedene Geschäftsstrategien abgebildet. Die wichtigsten Persönlichkeitsmerkmale des Wissensaustauschverhaltens wurden analysiert, um die geeigneten Merkmale für verschiedene Geschäftsstrategien zu bestimmen. Die Beiträge dieses Papiers umfassen daher (a) die Definition eines Modells, das vier Geschäftsstrategien mit einem CoPs-orientierten KM-Modell und einem Verhaltensmodell für den Wissensaustausch (basierend auf dem überarbeiteten Fünf-Faktoren-Modell) verknüpft, (b) die Abbildung von Persönlichkeitsmerkmalen von Wissensarbeitern mit vier Geschäftsstrategien , (c) Bereitstellung eines Leitfadens für wissensbasierte Organisationen für eine nahtlose Integration der Geschäftsstrategie mit CoPs-orientierter WM und kompatiblen Wissensarbeitern und d) effektivere Nutzung der Unternehmensressourcen, um die Verbesserung der Unternehmensleistung zu erleichtern.;-;-;-;https://link.springer.com/article/10.1007/s10845-012-0674-1 0f24e062bf574282012e7d055da15b29;de;;;5.2.;;;Individuelle und zwischenmenschliche Ergebnisse kultureller Intelligenz Es wird angenommen, dass kulturelle Intelligenz für Menschen von Vorteil ist, die in eine Vielzahl von interkulturellen oder multikulturellen Situationen eingebunden sind. In diesem Kapitel geben wir einen Überblick über die Forschung, die die Beziehungen zwischen kultureller Intelligenz und verschiedenen Ergebnissen sowohl auf individueller als auch zwischenmenschlicher Ebene untersucht. Auf individueller Ebene überprüfen wir Studien zu kulturellem Urteilsvermögen und Entscheidungsfindung, Kreativität, Absicht, im Ausland zu arbeiten, interkultureller Anpassung, Arbeitsleistung und globaler Führung. Auf zwischenmenschlicher Ebene überprüfen wir Studien zu Vertrauen und sozialer Akzeptanz, kreativer Zusammenarbeit, Wissenstransfer sowie Konflikt und Verhandlung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-18171-0_6 b1b7ac41eed04fa1b607ffde8708c739;de;;;4.2.;;;„Es ist ganz anders“: Chinesische Studenten im Grundstudium, die an einer neuseeländischen Universität schreiben lernen In diesem Kapitel werden die Reaktionen chinesischer internationaler Studierender auf die Schreibanforderungen ihres Bachelorstudiums der Betriebswirtschaftslehre an einer neuseeländischen Universität untersucht. Während das Schreiben auf Englisch nur eine von vielen Ebenen war, auf denen sie ein enormes Maß an interkulturellem Lernen erlebten, war es ein wichtiges Mittel, mit dem sie ihren Lehrern ihr Universitätslernen demonstrierten und mit ihnen in eine Art Kommunikation traten. Das Kapitel zeigt, dass trotz des wachsenden Verständnisses dieser Lernenden für die Werte der Universität und in einigen Fällen sogar der Übereinstimmung mit den Werten der Universität es Situationen gab, in denen sie die in dieser Lernkultur des Gastlandes bevorzugten Schreibweisen nicht übernahmen entweder der Unfähigkeit oder der strategischen Wahl.;-;-;-;https://link.springer.com/chapter/10.1057/9781137291646_9 8c09949565d80f9c852b3f0a2ce1ec4e;de;;;5.2.;;;Eine Studie zum selbstregulierten Online-Lernen von College-Studenten im Kontext des Heimstudiums Unter den Umständen der Schulschließung aufgrund des Ausbruchs von COVID-19 liegt eine der größten Herausforderungen für den plötzlichen Übergang vom traditionellen Präsenzunterricht zum vollständigen Online-Lernen in der unzureichenden Fähigkeit der Schüler zum selbstregulierten Lernen (SRL). . Diese Studie untersucht, wie die Studierenden im ersten Jahr ihr Online-Lernen in einem Small Private Online Course (SPOC) von EFL während der Pandemie regulierten. Eine überarbeitete Version von Jansen et al. (;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4594-2_16 5b6d80acdcc1f491aeafb7448bbcf667;de;;;5.2.;;;Eine minimale Seltene-Itemset-basierte Anomalie-Erkennungsmethode und ihre Anwendung auf den Sensordatenstrom In den letzten Jahren wurde der Umfang des Datenstroms im wirklichen Leben viel größer. Die Anomaliedaten sind jedoch häufig im gesammelten Datenstrom vorhanden, während das Vorhandensein von Anomalie ein Hauptgrund für die Abnahme der Genauigkeit datenbasierter Operationen ist. Die Anomaliedaten haben zwei Hauptmerkmale, dh sie erscheinen selten und weichen stark von den meisten Datenelementen ab, daher sollten die Anomalieerkennungsverfahren die Anomaliedaten unter Berücksichtigung dieser beiden Attribute genau erkennen. Da der Datenstrom kontinuierlich erzeugt wird und ständig fließt, sind daher die bisherigen statischen Anomalieerkennungsverfahren nicht für die Verarbeitung von Datenströmen geeignet. Darüber hinaus macht die große Menge an Datenstrom den Zeitverbrauch und die Speicherbelegung der Mining-Phase von seltenen Gegenständen sehr hoch. Um diese Probleme effektiv zu lösen, schlägt dieses Papier zunächst eine effiziente MRI-Mine-Methode zum Mining von minimalen seltenen Itemsets vor und schlägt dann eine genaue Anomalieerkennungsmethode namens MRI-AD basierend auf einem Anomalieindex vor, um die impliziten Anomaliedaten zu identifizieren. Die Experimente zeigen, dass die vorgeschlagene MRI-Mine-Methode die minimalen seltenen Itemsets in weniger Zeitverbrauch und Speicherbelegung abbauen kann, und die Erkennungsgenauigkeit der MRI-AD-Methode ist ebenfalls wettbewerbsfähig.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1377-0_9 31f0a4034ea9df40ec669306ca17b972;de;;;5.2.;;;Ein spieltheoretischer Zugang zur Pragmatik der Debatte: Eine Erläuterung Ex In diesem Beitrag bezieht sich der Begriff „Debatte“ auf eine Situation, in der zwei Parteien über ein Thema uneinig sind und jede von ihnen versucht, eine dritte Partei, den Zuhörer, davon zu überzeugen, seine Position zu vertreten, indem sie Argumente zu seinen Gunsten vorbringt. Uns interessiert die Logik hinter der relativen Stärke der Argumente und Gegenargumente, daher beschränken wir unsere Diskussion auf Debatten, in denen eine Seite zuerst argumentiert werden soll, wobei die andere Partei das Recht hat, zu antworten, bevor der Zuhörer sich entschieden hat.;-;-;-;https://link.springer.com/chapter/10.1057/9780230285897_9 36962e238730c47ac9649f9f49b52a4b;de;;;4.2.;;;Perspektiven der Zusammenarbeit bei Technologieinnovationen für das Altern Sieben gerontechnologische Innovationsprojekte mit einer Laufzeit von 19 Jahren wurden hinsichtlich Projektaktivitäten, Zusammenarbeit und Management betrachtet. Die von uns in Betracht gezogenen Projekte waren: PLANEC, OTIS, Care in the Community, SAPHE, SOPRANO, Smart Distress Monitor und COACH. Drei Interviews mit Projektpartnern identifizierten Art und Ziele des Projekts, die Zusammensetzung der Teammitglieder sowie die Herausforderungen, Lösungen, Erfolge und Misserfolge. Die thematische Analyse ergab drei gemeinsame Themen, die die Projekte umspannen, die wahrscheinlich Themen in anderen technologischen Innovations- und Forschungsprojekten sein werden. Die Themen sind das Überwinden von Grenzen, der Erfolg bei „Dingen, in denen Sie nicht sehr gut sind“ und das Management unterschiedlicher Teams. In diesem Artikel diskutieren wir die Faktoren, die zu diesen thematischen Anliegen beitragen, und präsentieren Lösungen, die für die Projekte hilfreich waren, in der Erwartung, dass das aus diesen Arbeitserfahrungen gewonnene Wissen auf andere Projekte übertragbar ist, die an der Schnittstelle von Technologieentwicklung und gesellschaftlichen Anliegen beteiligt sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19312-0_3 40b61539cd5b84e82fd465e2e87fc500;de;;;5.2.;;;Umweltgefahren- und Toxizitätsprofil organischer und anorganischer Schadstoffe aus Gerbereiabwässern und Ansätze zur biologischen Sanierung Zweifellos ist die Lederindustrie der wichtigste Wirtschaftsfaktor vieler Entwicklungsländer. Leider sind diese jedoch auch einer der größten Verschmutzer weltweit und erzeugen große Mengen an hochkonzentriertem Abwasser mit hohem pH-Wert, dunkelbrauner Farbe, unangenehmem Geruch, biologischem Sauerstoffbedarf, chemischem Sauerstoffbedarf, gelösten Feststoffen insgesamt und einer Mischung aus hochgiftigen Umweltschadstoffe. Es verringert das Eindringen von Sonnenlicht in aquatische Ressourcen, was wiederum sowohl die Photosyntheseaktivität als auch die Konzentration des gelösten Sauerstoffs verringert, was sich auf das Leben im Wasser auswirkt, jedoch an Land eine Verringerung der Bodenalkalität und eine Hemmung der Samenkeimung verursacht. Darüber hinaus kann es bei Exposition auch zu einer ernsthaften Toxizität bei Lebewesen führen. Daher wird es notwendig, das Gerbereiabwasser angemessen zu behandeln/entgiften, um die Umwelt und die Lebewesen zu schützen. Daher bietet dieses Kapitel einen Überblick über die Umweltauswirkungen, das Toxizitätsprofil von Gerbereiabwässern und bestehende und aufkommende Bioremediationsstrategien für die Umweltsicherheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1891-7_17 cce93ae871480a81cdd4a61ba5e55153;de;;;4.2.;;;Entwicklung von Bildungsmaterialien zu Risiken auf Websites sozialer Netzwerke: ein designbasierter Forschungsansatz Fast alle westlichen Teenager von heute haben ein Profil auf einer sozialen Netzwerkseite (SNS). Da viele Risiken gemeldet wurden, haben Forscher und Regierungen die Rolle der Schulbildung betont, Teenagern den sicheren Umgang mit SNSs beizubringen. Über die spezifischen Merkmale, die Interventionen wirksam machen würden, ist jedoch wenig bekannt. Daher besteht das übergeordnete Ziel dieser Forschung darin, eine Liste validierter theoretischer Gestaltungsprinzipien für die zukünftige Entwicklung von Bildungsmaterialien über Risiken bei SNSs vorzuschlagen. Dieses Forschungsziel wurde durch ein designbasiertes Forschungsverfahren verfolgt. Dabei wurden die verschiedenen Schritte des gestaltungsorientierten Forschungsverfahrens iterativ durchlaufen, um Jugendliche mit Sekundarschulbildung in acht separaten Studiengängen anzusprechen. Zunächst wurde eine Problemanalyse durch drei explorative Studien durchgeführt, darunter eine Beobachtungsstudie, eine theoretische Bewertung vorhandener Materialien und eine Umfragestudie. Zum anderen wurden in fünf quasi-experimentellen Interventionsstudien erste Lösungsansätze entwickelt und in der Praxis evaluiert. Drittens haben wir alle bisherigen Ergebnisse reflektiert, um Gestaltungsprinzipien zu entwickeln. Schließlich schließen wir mit einer Analyse der designbasierten Forschungsmethodik.;-;-;-;https://link.springer.com/article/10.1007/s11423-015-9415-4 8728c8312f5bbd944d1a7cac4f64f7a1;de;;;4.2.;;;Förderung der autonomen Lernfähigkeit der Studierenden in der multimedialen Lehrumgebung In diesem Kapitel wird diskutiert, wie wichtig es ist, die autonome Lernfähigkeit der Schüler in der multimedialen Unterrichtsumgebung zu fördern. Am Beispiel der linearen Algebra und der raumanalytischen Geometrie veranschaulicht es den Multimedia-Unterricht, der die Bequemlichkeit wie große Informationsmenge, lebendigere und visuelle Flash-Demonstration, intuitives und klares Lehrzeichnen und so weiter gebracht hat. Inzwischen hat Multimedia aufgrund der objektiven Umgebung und der Problembewusstseinsfaktoren nicht seine vollen Vorteile bei der Förderung des autonomen Studiums erreicht. In diesem Aufsatz werden einige Maßnahmen zur autonomen Lernfähigkeitsbildung der Studierenden vorgestellt, beispielsweise wie das Monitoring des autonomen Lernens der Studierenden gestärkt werden kann, die die Kultivierung der autonomen Lernfähigkeit der Studierenden fördert, die Innovationsfähigkeit der Studierenden stimuliert, etc. Verbessert darüber hinaus die schulischen Leistungsziele und fördert schließlich die ganzheitliche Entwicklung der Studierenden. Auf diese Weise wird die Unterrichtsqualität verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_235 2eb906cd352ccadb5c0d8e586d8ebb8a;de;;;4.2.;;;Richtung des kollaborativen, problemlösenden MINT-Lernens durch Learning Analytics Der Zweck dieser Studie war es, die Faktoren zu untersuchen, die die Lernleistung und das Bewusstsein für kollaborative Problemlösung (CPS) in der naturwissenschaftlichen, technologischen, ingenieurwissenschaftlichen und mathematischen (MINT) Bildung beeinflussen könnten. Wir sammelten und analysierten Daten zu wichtigen Faktoren in der MINT-Bildung, einschließlich Lernstrategie und Lernverhalten, und untersuchten deren Wechselbeziehungen mit der Lernleistung bzw. dem CPS-Bewusstsein. Mehrere Datenquellen, darunter Lerntests, Fragebogen-Feedback und Lernprotokolle, wurden gesammelt und nach einem lernanalytischen Ansatz untersucht. Signifikante positive Korrelationen wurden für das Lernverhalten der Verwendung von Markern mit Lernleistung und CPS-Bewusstsein in Gruppendiskussionen gefunden, während signifikante negative Korrelationen für einige Faktoren der MINT-Lernstrategie und das Lernverhalten beim Vorlernen mit einigen Faktoren der CPS-Bewusstsein gefunden wurden. Die Ergebnisse implizieren die Bedeutung eines effizienten Ansatzes zum Einsatz von Lernstrategien und funktionalen Werkzeugen in der MINT-Ausbildung.;-;-;-;https://link.springer.com/article/10.1186/s41039-019-0119-y 0cd2bf328eb933c36ea30bfd8b1b36a1;de;;;4.2.;;;Zahlt sich Glück aus? Dieses Papier verwendet Paneldaten aus Russland, um „Rest“-Glücksniveaus zu identifizieren, die nicht durch die üblichen demografischen und sozioökonomischen Determinanten von Glück erklärt werden. Anschließend testen wir, ob unsere Variable Restglück zusätzlich zu denen der beobachteten demografischen und sozioökonomischen Variablen kausale Eigenschaften auf das zukünftige Einkommen hat. Wir stellen fest, dass sowohl das Restglück als auch positive Zukunftserwartungen in der Anfangsphase positiv mit höheren Einkommen in zukünftigen Perioden korrelieren. Menschen mit einer negativen Wahrnehmung ihres eigenen Fortschritts und mit größerer Angst vor Arbeitslosigkeit erhöhen ihr Einkommen im Durchschnitt weniger. Psychologen schreiben die Stabilität des Glücksniveaus im Laufe der Zeit – analog zu den „restlichen“ Glücksniveaus, die wir identifizieren – auf positive kognitive Verzerrungen wie Selbstwertgefühl, Kontrolle und Optimismus zurück. Dieselben Faktoren können die Leistung des Einzelnen auf dem Arbeitsmarkt verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-2903-5_13 22c7f1c8dc23351e265ec20f4f472b81;de;;;5.2.;;;Ein computergestützter schleifenbasierter Ansatz zur Identifizierung des Isomorphismus und der Art der Mobilität in planaren kinematischen Ketten Es werden einige neue Invarianten wie Kettenstrang, Glied-Identifikations-String, Schleifenbeteiligung des gemeinsamen Frequenzstrangs und Schleifengrößen-Frequenzstrang von einfachen gelenkigen kinematischen Ketten vorgestellt. Der erste Schritt der vorgeschlagenen Methode besteht darin, alle möglichen Schleifen einer kinematischen Kette zu identifizieren und dann diese neuen Invarianten zu entwickeln. In dieser Arbeit wird ein modifizierter Loop-Joint-Ansatz im Vergleich zu den vorherigen Arbeiten in der Literatur vorgeschlagen, bei denen eine Loop-Link-Matrix formuliert wird, um alle in einer kinematischen Kette vorhandenen Schleifen zu durchsuchen. Es wurde ein Computerprogramm entwickelt, um eine Schleifenverbindungsmatrix der kinematischen Kette und aller ihrer Invarianten zu formulieren. Dieses Verfahren berücksichtigt alle vorhandenen Schleifen, assoziierten Gelenke und Glieder und ist in der Lage, Isomorphie zwischen kinematischen Ketten und deren Inversionen zu testen und auch die Art der Beweglichkeit von kinematischen Ketten mit mehreren Freiheitsgraden zu erkennen. Das vorgeschlagene Verfahren wird für alle kinematischen Ketten bis zu fünf unabhängigen Schleifen mit beliebig vielen Freiheitsgraden erfolgreich getestet und es wird kein Gegenbeispiel gefunden. Die detaillierten Ergebnisse der kinematischen Ketten mit 9 Gliedern, M = 2 (Mobilität) und 10 Gliedern, M = 3 werden mit fünf Mobilitätstypen bereitgestellt und die Ergebnisse stimmen mit den in der Literatur veröffentlichten Ergebnissen überein. Die Methode wird auch anhand einiger komplexer Beispiele erläutert und in diesem Beitrag vorgestellt.;-;-;-;https://link.springer.com/article/10.1007/s12046-015-0344-z 02e3b72b4ebe494bfc0b5294a620ca86;de;;;5.2.;;;Lernansätze und Kolbs Lernstile von Bachelor-Studierenden mit besseren Noten Ziel dieser Studie ist es zu untersuchen, ob die in einem Chemiehochschulstudium konzipierten und umgesetzten Lehr-, Lern- und Bewertungsstrategien die Entwicklung des konzeptionellen Verständnisses wie beabsichtigt fördern. Unser Ziel ist es daher, die Lernstile und Lernansätze von Chemie-Studierenden mit besseren Noten zu analysieren. Die Gesamtergebnisse zeigen, dass die Schüler mit besseren Noten den assimilatorischen Lernstil besitzen, der normalerweise mit dem archetypischen Chemiker assoziiert wird. Darüber hinaus zeigten die Schülerinnen und Schüler mit den besten Noten ein verständnisbetontes Lernkonzept. Diese Schüler unterschieden sich jedoch sowohl in ihren Lernansätzen als auch in ihren Präferenzen für Unterrichtsstrategien. Die Mehrheit der Studierenden wählte einen tiefen Ansatz oder eine Kombination aus tiefem und strategischem Ansatz, aber die Hälfte von ihnen gab ihre Präferenz für lehrzentrierte Strategien an.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16318-0_35 272049e6f105137fed2d37bc6addbd3d;de;;;5.2.;;;Signaltransduktionswege, die die Bildung von Arachidonsäure-Metaboliten nach FcεRI-Aggregation regulieren Die Aggregation von hochaffinen IgE-Rezeptoren (FcεRI) auf der Oberfläche von ast-Zellen und Basophilen führt zur Initiierung spezifischer Signaltransduktionsereignisse, die zu Degranulation, Zytokin-Genexpression und de novo-Synthese und Freisetzung von Phospholipid-abgeleiteten pro-inflammatorischen . führen Mediatoren. Zur Kategorie der von Phospholipiden abgeleiteten Entzündungsmediatoren gehören von Cyclooxygenase abgeleitete Produkte wie Prostaglandin (PG) D;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-22022-1_10 26ab89cc81fdf7ff2991fd09a6b890d8;de;;;4.2.;;;Wichtige Änderungen zur Verbesserung der sozialen Präsenz eines virtuellen Gesundheitsassistenten, der die Darmkrebsvorsorge fördert, basierend auf einem Technologieakzeptanzmodell Zu verstehen, wie ältere, marginalisierte Patienten bei der Interaktion mit webbasierten Gesundheitsnachrichten auf Hinweise achten, kann Möglichkeiten bieten, das Engagement für neue Gesundheitstechnologien zu verbessern. Wir bewerten akzeptanzfördernde und akzeptanzhemmende Hinweise einer webbasierten, interventionsfördernden Darmkrebsvorsorge (CRC) mit einem Stuhltest zu Hause bei schwarzen Frauen.;-;-;-;https://link.springer.com/article/10.1186/s12911-021-01549-z ba3087e0ea896bdbaf50b2a0671a2e38;de;;;5.2.;;;Immunklon-Algorithmus zur Lösung der Multi-Objekt-Probleme In den letzten Jahren sind die Probleme der Mehrzieloptimierung zu einem heißen Thema im wissenschaftlichen Interesse geworden. In diesem Beitrag wird ein neuer künstlicher Immunalgorithmus vorgeschlagen, der auf dem Konzept der Pareto-Optimierung basiert. Der Klonmechanismus wird in diesen neuen Immunalgorithmus importiert, gleichzeitig besteht der neue Immunalgorithmus aus den beiden Konzepten Trichotomie-Überlappungsmethode und Präferenzdifferenz, um ein effizientes Immunklonmodell zur Lösung von Mehrobjektproblemen aufzubauen . Schließlich zeigt ein Beispiel, dass der neue Immunklon-Algorithmus bessere Ergebnisse erzielen kann, wenn er zur Lösung der Multi-Objekt-Probleme verwendet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18134-4_36 9398e767dfbe1465eab42846e899743b;de;;;5.2.;;;Vielfalt statt Spezialisierung: Die Bande, die das (neue) Industriegebiet verbinden Was auch immer sie genau sind, Industriequartiere sind auch ein Welterfolg und eine konzeptionelle Innovation. In Italien beschränkt sich die Karte der Kreisagglomerationen kleiner und mittlerer Unternehmen, die sich auf bestimmte Branchen der Leichtindustrie spezialisiert haben, nicht mehr auf das Dreieck Venedig-Florenz-Ancona in den Adria-Marken. An den Ufern der Adria und des Mittelmeers breiten sich wie durch Ansteckung neue Ballungsräume aus, die hin und wieder auf ihrem Vormarsch nach Süden durch den Schutt gescheiterter Schwerindustriekomplexe behindert werden. Abgesehen von dieser Ausdehnung der Heimat der Bezirke entstehen in einigen Teilen Süditaliens bezirksähnliche Agglomerationen. Auf der Wirtschaftskarte Europas sieht der Wirtschaftsagronom eine „heiße Banane“ blühender Bezirke, die sich von London über die Schweiz und den Südwesten Deutschlands bis nach Norditalien windet. In den Entwicklungsländern werden Distrikte als Wachstumsmotor in so unterschiedlichen Ländern wie Chile, Brasilien und Indien identifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-50007-7_7 4c3643feb13c20ae5801fa2623aaf9b3;de;;;5.2.;;;Axialsymmetrische Schwingungen elastischer Medien mit kugelförmigem Hohlraum oder steifem Einschluss Die in diesem Kapitel darzustellenden Ergebnisse stehen in engem Zusammenhang mit den in den Kapiteln 2 und 3 vorgestellten und lassen sich grundsätzlich aus den entsprechenden Grenzübergängen in den in Kap. 3.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45159-4_4 55491995015066e1e8d1f4ae48545f46;de;;;5.2.;;;Dualität und Entscheidungsunterstützung für LVOPs Nach einem kurzen Überblick über klassische duale LVOPs und ihre jeweiligen Vektor-Lagrange-Operatoren werden Beziehungen zwischen dualen LEXOPT-Problemen und ihrem Lagrange-Operator entwickelt. Eine Diskussion von Parametern und Variablen in allen Dualitätskonzepten zeigt, dass die freie Wahl der Zieldimensionen teilweise fiktiv ist. Akzeptiert eine Gruppe von Entscheidungsträgern die Gleichheit aller primären und dualen Ziele als gesunden Menschenverstand, so sind ihre Entscheidungen hinsichtlich Zielen und Ressourcenversorgung nicht mehr willkürlich. Ein rudimentäres Entscheidungsunterstützungssystem ist gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-46607-6_41 821c2318ce8ba45a5fbc46173c1d2039;de;;;5.2.;;;Metasuche. Eigenschaften von allgemeinen Dokumentenverteilungen Die Effektivität von Metasuchdatenfusionsverfahren hängt entscheidend von den Eigenschaften gängiger Dokumentenverteilungen ab. Da wir in der Regel weder wissen, wie unterschiedliche Suchmaschinen Relevanzbewertungen vergeben, noch die Ähnlichkeit dieser Zuordnungen, sind gemeinsame Dokumente der einzelnen Ranglisten die einzige Grundlage für die Zusammenführung der Suchergebnisse. Daher ist es sehr wichtig, die Eigenschaften gängiger Dokumentenverteilungen zu studieren. Eine dieser Eigenschaften ist die Überlappungseigenschaft (OP) von Dokumenten, die von verschiedenen Suchmaschinen abgerufen wurden. Laut OP ist die Überschneidung zwischen den relevanten Dokumenten in der Regel größer als die Überschneidung zwischen nicht relevanten Dokumenten. Obwohl OP wiederholt beobachtet und diskutiert wurde, wurde keine theoretische Erklärung dieser empirischen Eigenschaft erarbeitet. Dieser Artikel befasst sich mit der formalen Untersuchung von Eigenschaften der allgemeinen Dokumentenverteilungen. Insbesondere wird eine ausreichende und notwendige Bedingung der OP erarbeitet und nachgewiesen, dass die OP praktisch unter willkürlichen Umständen stattfinden sollte.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36277-0_21 85a7ec682ac8d92c79b7ae96f6b1e401;de;;;5.2.;;;Konvergenz der Abstiegsmethode mit neuer Liniensuche Ein effizientes Abstiegsverfahren für uneingeschränkte Optimierungsprobleme ist ein Liniensuchverfahren, bei dem die Schrittgröße bei jeder Iteration zu wählen ist, nachdem eine Abstiegsrichtung bestimmt wurde. Es gibt viele Möglichkeiten, die Schrittweiten zu wählen, wie z. B. die exakte Liniensuche, die Armijo-Liniensuche, die Goldstein-Liniensuche und die Wolfe-Liniensuche usw. In diesem Artikel schlagen wir eine neue ungenaue Liniensuche für eine allgemeine Abstiegsmethode vor und legen einige fest globale Konvergenzeigenschaften. Diese neue Zeilensuche hat viele Vorteile im Vergleich zu anderen ähnlichen ungenauen Zeilensuchen. Darüber hinaus analysieren wir die globale Konvergenz und die lokale Konvergenzrate einiger spezieller Abstiegsverfahren mit der Neuliniensuche. Vorläufige numerische Ergebnisse zeigen, dass die neue Liniensuche verfügbar und in der praktischen Berechnung effizient ist.;-;-;-;https://link.springer.com/article/10.1007/BF02831936 2bcaf6e2e3f441626497a6b46deb0dac;de;;;5.2.;;;Multikriterielle Entscheidungsmethode mit doppelten Risikoparametern in intervallbewerteten intuitiven Fuzzy-Umgebungen Im multikriteriellen Entscheidungsfindungsprozess (MCDM) können Entscheidungsträger mit unterschiedlichen Risikoeinstellungen unterschiedliche Entscheidungsergebnisse erzielen. Um dieses Problem anzugehen und die Mentalität von Entscheidungsträgern darzustellen, werden in diesem Papier zwei Mentalitätsparameter vorgestellt. Diese Parameter spiegeln die Risikoeinstellungen der Entscheidungsträger bei der Bestimmung des Mitgliedschafts- und Nichtmitgliedschaftsgrades der Evaluationsinformationen wider. Darüber hinaus zeigen die Parameter die Risikoeinstellung hinsichtlich des Zögerlichkeitsgrades unter intervallbewerteten intuitionistischen Fuzzy-Informationen. Dann wird eine neue Bewertungsfunktion von intervallbewerteten intuitionistischen Fuzzy-Zahlen (IVIFNs) vorgeschlagen, die die eingeführten Mentalitätsparameter verwendet. In der Zwischenzeit werden bestimmte Eigenschaften der vorgeschlagenen Bewertungsfunktion diskutiert. Darüber hinaus wird der gewichtete Gesamtscore-Wert von IVIFNs vorgestellt und ein MCDM-Verfahren in einer intervallbewerteten intuitiven Fuzzy-Umgebung entwickelt. Abschließend werden ein Zahlenbeispiel und vergleichende Analysen zur Veranschaulichung der Machbarkeit und Wirksamkeit der vorgeschlagenen Methode gegeben.;-;-;-;https://link.springer.com/article/10.1007/s40747-020-00165-0 d064f6ba65d8c45ea98957cd7e2c469e;de;;;4.2.;;;Rechtliche und soziale Aspekte der Cyberkriminalität in Griechenland Die verstärkte Nutzung von PCs und anderen persönlichen Geräten mit Internetverbindung sowie die Verfügbarkeit öffentlicher WLAN-Hotspots ermöglichten es den Menschen, die angebotenen Internetdienste umfassend zu nutzen, und machten sie damit zu einem verlockenden Ziel für Cyberkriminelle . Darüber hinaus hat Cyberkriminalität einen transnationalen Charakter und kann gleichzeitig Einzelpersonen an verschiedenen geografischen Orten betreffen, sodass eine internationale Zusammenarbeit erforderlich ist, um wirksam bekämpft zu werden. In diesem Papier werden die verschiedenen internationalen Bemühungen gegen Cyberkriminalität, an denen Griechenland beteiligt ist, zusammen mit den entsprechenden rechtlichen Rahmenbedingungen und einigen geplanten Entwicklungen für die Zukunft vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11710-2_14 3d8c26270ffca24312f712dd313f7ecb;de;;;4.2.;;;Nutzung des Verhaltens von Social Network Sites basierend auf dem Akzeptanzmodell Die Zahl der Nutzer von Social Network Sites (SNSs) in der Welt wächst schnell, und die Wachstumsrate ist jenseits aller Vorstellungskraft. Vor diesem Hintergrund führt diese Studie eingehende Interviews durch, um die relevanten Hinweise und Faktoren zu entdecken, die die Akzeptanz der Website sozialer Netzwerke durch die Benutzer beeinflussen können. Die Ergebnisse zeigten, dass die Einstellung einen signifikanten Einfluss auf die Verhaltensintention hat und intrinsische Motivation wie die wahrgenommene Verspieltheit einen positiven Einfluss auf die Entstehung der Verhaltensintention hat. Der wahrgenommene Nutzen zeigt jedoch keinen signifikanten Einfluss auf die Verhaltensmotivation. Darüber hinaus haben die wahrgenommene Verspieltheit, die wahrgenommene Benutzerfreundlichkeit, die wahrgenommene Nützlichkeit und die Beziehungsentwicklung alle einen signifikanten Einfluss auf Verhalten und Einstellung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-53703-5_7 c722aedcd736b5d79998ebb55dc5b408;de;;;4.2.;;;Nutzung eines sozialen Vertrauensnetzwerks zur Förderung der Ehrlichkeit in E-Marketplaces In diesem Papier untersuchen wir einen vertrauensbasierten Rahmen zur Förderung von Ehrlichkeit in E-Marktplätzen, der darauf beruht, dass Käufer soziale Netzwerke bilden, um die Reputationsbewertungen von Verkäufern und Verkäufern zu teilen, die die Käufer belohnen, die in ihren sozialen Netzwerken am meisten respektiert werden. Wir untersuchen, wie Verkäufer den erwarteten zukünftigen Gewinn beurteilen, wenn sie Käufern bestimmte Belohnungen anbieten. Wir beweisen theoretisch, dass in einem Markt, der mit unserem Mechanismus arbeitet, i) Käufer besser dran sind, Verkäuferbewertungen zu melden, und ii) Verkäufer besser dran sind, ehrlich zu sein, um bessere Gewinne zu erzielen. Experimente bestätigen die Robustheit des Ansatzes in sich dynamisch ändernden Umgebungen. Da rationale Agenten es vorziehen, ehrlich zu sein, stellen die angegebenen Käufer- und Verkäuferstrategien einen effektiven Ansatz für die Gestaltung von E-Marktplätzen dar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13446-3_15 645225fec2e48ab345b3f88dbb3b6702;de;;;4.2.;;;#RomanceClass: Genrewelt, Intimes Publikum, Gefundene Familie #RomanceClass ist eine Community, die Autoren, Leser, Schauspieler und Künstler umfasst, die auf den Philippinen hauptsächlich selbstveröffentlichte englischsprachige Liebesromane konsumieren, produzieren und aufführen. Basierend auf Feldforschungen aus dem Jahr 2019 untersucht dieser Artikel die wichtigsten Merkmale von #RomanceClass, einschließlich der Art und Weise, wie sie sich in Bezug auf die vorherrschende nordamerikanische Konzeption der Liebesroman- und Verlagsbranche positioniert, um ein neues Verständnis dafür zu entwickeln, wie Liebesromane außerhalb dieses hegemonialen Kontextes geschaffen und verhandelt wird. Es stellt fest, dass #RomanceClass als „intimes Publikum“ agiert [Berlant in The female Beschwerde: the unfinished business of sentimentality in American culture, Duke University Press, Durham, London, 2008], das die Texte und Praktiken der Gemeinschaft intrinsisch beeinflusst.;-;-;-;https://link.springer.com/article/10.1007/s12109-020-09733-1 b552273b8228370bebd84146a76cc1b3;de;;;4.2.;;;Identifizieren von thailändischen Fragen aus der Social Media-Gruppenkommunikation Um eine stärkere Beteiligung der Studierenden und einen effizienteren Unterricht zu fördern, schlagen wir eine Methode zur Klassifizierung von Textfragen vor, die über einen Social-Media-Kanal als informelle Ergänzung zu akademischen Studienleistungen kommuniziert werden. Insbesondere implementieren wir ein System, das grundlegende reguläre Ausdrücke (BRE) verwendet, um thailändische Fragen zu extrahieren und zu organisieren, die in klassenbezogenen Facebook-Gruppen veröffentlicht werden. Testdaten werden verwendet, um die effektivsten Identifikatoren zu identifizieren und das System als Ganzes im praktischen wissenschaftlichen Kontext zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_442 a58e6f04ab8a030bc2bbc2556ecc7f18;de;;;4.2.;;;Algorithmisches Panoptikum: Staatliche Überwachung und Transparenz im chinesischen Sozialkreditsystem Dieser Artikel untersucht Chinas Social Credit System, um zu veranschaulichen, wie Informations- und Kommunikationstechnologien neue Formen der Interaktion zwischen dem Staat und seinen Bürgern hervorbringen. Sie fragt insbesondere, wie die durch das Social Credit System erzeugte Transparenz neue Formen der sozialen Kontrolle, des Vertrauens und der Selbstregulierung ermöglicht. Die Studie beschreibt anschaulich die grundlegenden Gestaltungselemente des Social Credit Systems und die politischen Absichten zu seiner Umsetzung. Basierend auf Foucaults Modell des Panoptikums leitet die Studie dann drei grundlegende Parameter ab, die sich jeweils auf die Fähigkeit des Systems beziehen, Transparenz zu schaffen und die Beziehungen zwischen Regierung und Bürgern neu zu gestalten. Die Studie stellt fest, dass das System die Kontrolle der Regierung über die Gesellschaft erhöht, wahrscheinlich das Vertrauen verringert und die Handlungsfreiheit einschränkt. Im Vergleich zu Klientelismus und Willkür der vergangenen Jahrzehnte können die präzisen und entpersonalisierten Standards des Social Credit Systems jedoch als eine Verbesserung der Selbstregulierungsfähigkeit des Einzelnen angesehen werden. Diese theoretische und analytische Studie trägt somit zur Debatte darüber bei, wie Regierungen durch Algorithmen Praktiken der staatlichen Macht und Kontrolle neu ordnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-67238-6_4 3064242ade626ab2fdaea5e69cb71519;de;;;4.2.;;;Institutionelle vs. nicht-institutionelle Nutzung von Social Media während der Notfallreaktion: Ein Fall von Twitter im australischen Buschfeuer 2014 Soziale Medien spielen eine wichtige Rolle bei der schnellen Verbreitung von Informationen im Katastrophenfall. Unter den vier Phasen des Lebenszyklus des Katastrophenmanagements: Prävention, Vorsorge, Reaktion und Wiederherstellung, konzentriert sich dieses Papier auf die Nutzung sozialer Medien während der Reaktionsphase. Es untersucht empirisch die Nutzung von Microblogging-Plattformen durch Emergency Response Organizations (EROs) bei extremen Naturereignissen und unterscheidet die Nutzung von Twitter durch EROs von digitalen Freiwilligen während einer Brandgefahr im australischen Bundesstaat Victoria Anfang Februar 2014. Wir haben 7982 Tweets analysiert auf dieser Veranstaltung. Während sich traditionell Theorien wie die Weltsystemtheorie und die Institutionentheorie auf die Rolle mächtiger institutioneller Informationsquellen konzentrieren, stellten wir fest, dass Plattformen wie Twitter eine solche Vorstellung in Frage stellen, indem sie die Macht zwischen großen institutionellen (z. B. EROs) und kleineren nicht-institutionellen Akteuren (z Freiwilligen) bei der Verbreitung von Katastropheninformationen. Unsere Ergebnisse zeigen, dass sowohl große EROs als auch einzelne digitale Freiwillige Twitter proaktiv nutzten, um feuerbezogene Informationen zu verbreiten und zu verteilen. Wir stellten auch fest, dass der Inhalt von Tweets informativer als richtungsweisend war und dass die Gesamtzahl der von Top-EROs geposteten Nachrichten höher war als die der nicht-institutionellen, Nicht-Institutionen jedoch eine größere Anzahl von Retweets präsentierten.;-;-;-;https://link.springer.com/article/10.1007/s10796-017-9789-4 f5348ddd2dcb14a86af5d543a01de8b9;de;;;5.2.;;;Abrüstung und Sicherheit in Europa 1949 wurde der Nordatlantikvertrag unterzeichnet und Anfang der 1950er Jahre die Nordatlantikvertragsorganisation (NATO) gegründet, weil die westeuropäischen Länder die übermächtige militärische Stärke der Sowjetunion fürchteten und nicht nur die Notwendigkeit einer Amerikanisches politisches Engagement für ihre Verteidigung, aber für die dauerhafte Stationierung einer großen Zahl amerikanischer Soldaten und Frauen in Europa und eine formal integrierte militärische Kommandostruktur, um dies zu verwirklichen. Diese Funktionen bleiben. Schätzungen des westlichen Geheimdienstes in den frühen 1950er Jahren zeigten die Stärke der sowjetischen Streitkräfte, gegen die die NATO ihre Verteidigung mit 175 Divisionen planen müsste. Dreißig Jahre später wird die Zahl der Teilungen des Warschauer Paktes in Europa im Bericht der Palme-Kommission mit 177 angegeben. Der Nordatlantikvertrag ist immer noch in Kraft und wurde von vier weiteren Nationen, Griechenland, Türkei, Westdeutschland und Spanien, und Frankreich bleibt Unterzeichner. Die Schlüsselklausel bleibt die Erklärung, dass ein Angriff auf einen einzelnen Mitgliedstaat in Europa als Angriff auf alle aufgefasst wird. Die permanente Kommandostruktur ist enorm aufwendig geworden. Inzwischen sind 375 000 amerikanische Soldaten und Soldatinnen in Europa stationiert, mit ihren Familien eine halbe Million Seelen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-17635-9_2 6e1d994fa596c3f6a42bb6f3eaaa0e62;de;;;5.2.;;;GA-Härte erneut besucht Seit der Erfindung genetischer Algorithmen (GAs) haben Forscher große Anstrengungen unternommen, um zu verstehen, was die Optimierung einer Funktion oder Probleminstanz für GAs erschwert. Es wurden viele Maßnahmen vorgeschlagen, um sog;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45110-2_36 ce5a141d28e2d7436af38c2dcd64cf88;de;;;5.2.;;;Ein neuartiger Kennzeichnungsalgorithmus für verbundene Komponenten mit Tiefensuche In diesem Papier haben wir einen neuen Kennzeichnungsalgorithmus für verbundene Komponenten vorgeschlagen, der die Tiefensuche verwendet, und 195 Bilder ausgewählt, um die Laufzeit zwischen dem Algorithmus und der Kennzeichnungsfunktion für verbundene Komponenten in Matlab zu vergleichen. Das Experiment zeigt, dass die Laufzeit des Algorithmus um 18.8 . reduziert wurde % als Matlab.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25792-6_70 8228d08d36c5521c71aca03be17edfb0;de;;;4.2.;;;Social-Media-Kommunikationsmodellforschung basiert auf Sina-weibo Die Popularität von Microblogs bringt neue Charaktere in die Informationsverbreitung in sozialen Netzwerken. Angesichts neuer Herausforderungen beim Verständnis der Informationsverbreitung in Microblogs wurde der Rahmen für die Erzeugung und den Empfang von Informationen vorgeschlagen. Ein allgemeines Modell namens konkurrierendes Fenster wird auch basierend auf menschlichem Verhalten vorgestellt. Der detaillierte Aufbau des Modells und seine grundlegende mathematische Beschreibung werden ebenfalls angegeben. Darüber hinaus ein Parameter namens Informationsverlust als Ergänzung zur Messung der Dynamik der Informationsverbreitung. Inzwischen wurde auf die weitere Anwendung unseres Modells auf die Informationsverarbeitung und -vermehrung hingewiesen. All diese Arbeiten basieren auf den Studien zur menschlichen Dynamik. Um die Anwendbarkeit zu überprüfen, wurde das Modell schließlich auf empirische Daten angewendet, die von Sina-weibo gecrawlt wurden. Die interessanten Muster, die aus empirischen Daten extrahiert wurden, weisen darauf hin, dass Microblog in der Tat grundlegend von der menschlichen Dynamik geprägt ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25661-5_57 431127bc5f43a8bf722f20df5d67317f;de;;;4.2.;;;Methoden zur Identifizierung von Fake News in Social Media mithilfe von Technologien der künstlichen Intelligenz Fake News (Fake-News) gab es schon lange vor dem Aufkommen des Internets und verbreiteten sich recht schnell über alle möglichen Kommunikationsmittel, da sie ein wirksames Instrument zur Beeinflussung der öffentlichen Meinung sind. Derzeit gibt es viele Definitionen von Fake News, aber die Fachwelt kann sich nicht vollständig auf eine einzige Definition einigen, was ein großes Problem für deren Aufdeckung darstellt. Viele große IT-Unternehmen wie Google und Facebook entwickeln eigene Algorithmen, um die Öffentlichkeit vor der Fälschung von Informationen zu schützen. Gleichzeitig macht das fehlende gemeinsame Verständnis über das Wesen von Fake News die Lösung dieses Problems ideologisch unmöglich. Folglich müssen sich Experten und Digital Humanists unterschiedlicher Fachrichtungen intensiv mit dieser Problematik auseinandersetzen. Diese Forschung analysiert die Mechanismen zur Veröffentlichung und Verbreitung von Fake-News nach Klassifizierung, Struktur und Algorithmus der Konstruktion. Anschließend werden Schlussfolgerungen zu den Methoden gezogen, um solche Nachrichten in sozialen Medien mithilfe von Systemen mit Elementen der künstlichen Intelligenz und des maschinellen Lernens zu identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-02843-5_36 3515db3eeb0a81ad9122511691c0612a;de;;;4.2.;;;Schritt-für-Schritt-Rahmen für die Bewertung des Nutzens von Informationstechnologie in sozialen Szenarien Die Evaluierung der IT mit Endbenutzern ist notwendig, um Systeme zu schaffen, die der Gesellschaft einen echten Nutzen bringen. Üblicherweise wird die Evaluierung nur als Test der Technologie betrachtet, bei dem die Benutzer einfach auf Fragebögen antworten. Dennoch beinhaltet der Prozess viele Aspekte, die nicht übersehen werden sollten. In diesem Papier stellen wir einen detaillierten Rahmen vor, der versucht, alle obligatorischen und ratsamen Aspekte darzustellen, die bei einer Evaluierung der IT mit Benutzern angesprochen werden sollten. Dieser Rahmen gilt für Labortests und wird auch speziell für soziale Szenarien empfohlen, zum Beispiel Tageszentren, Benutzerwohnungen usw. Dieser Rahmen wird in einem europäischen Projekt verwendet, bei dem Hunderte von Benutzern Technologie in verschiedenen Szenarien testen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87783-7_3 d815acb1a87271f6cb6a609e21c7f14a;de;;;4.2.;;;Parallele Simulation der gemeinschaftsweiten Informationsverbreitung in sozialen Online-Netzwerken Modelle von Informationen, die in sozialen Online-Netzwerken (OSNs) verbreitet werden, sind heutzutage sehr gefragt. Die meisten von ihnen betrachten die Peer-to-Peer-Interaktion auf einer vordefinierten Topologie des Freundesnetzwerks. Bei bestimmten Arten von OSNs werden jedoch die größten Informationskaskaden während der Interaktion zwischen Community und Benutzern beobachtet, wenn Communitys die Rolle von Superspreadern für ihr Publikum spielen. In dem Papier betrachten wir das Problem der parallelen Simulation der gemeinschaftsweiten Informationsverbreitung in großen (bis zu Dutzenden von Millionen von Knoten) Netzwerken. Die Effizienz des parallelen Algorithmus wird für synthetische und reale soziale Netzwerke von VK.com mit dem Lomonosov-Supercomputer (Moskau State University, Russische Föderation) untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-05807-4_12 216b0ed71dadce659e564bd850928c29;de;;;4.2.;;;Inhaltsbasierte Analyse der Verbreitung von Social Big Data: Eine Fallstudie zu koreanischen Telekommunikationsunternehmen Social-Networking-Dienste spielen eine wichtige Rolle bei der Kommunikation mit Kunden. Insbesondere versuchen Unternehmen, Twitter zum Nutzen ihres Unternehmens einzusetzen, da es sich schnell zu einem Informationsmedium für Verbraucher entwickelt hat, die Informationen über Produkte und Dienstleistungen verbreiten. Daher untersucht diese Studie, wie von Unternehmen geteilte Informationen verbreitet werden und was die wichtigen Faktoren für das Verständnis der Informationsverbreitung sind. Diese Studie klassifiziert insbesondere die Arten von Tweets, die von einer Firma (@olleh_mobile) gepostet werden, und untersucht dann die Wirkung dieser Arten von Tweets auf die Verbreitung. In dieser Studie wurden mittels Inhaltsanalyse zwei Kategorien (Typ „Informationsbereitstellung“ und „Werbung“) und acht untergeordnete Konzepte (News, Nutzung, Vorschau, Hinweis, Verkauf, Nutzen, Veranstaltung, Service-Öffentlichkeitsarbeit) definiert. Diese Ergebnisse zeigen, dass die Unterschiede für alle drei Arten von Informationsinhalten signifikant sind. Es zeigt, dass Unternehmen Informationen schneller verbreiten können, indem sie den Typ „Information und Werbung“ statt des Typs „Werbung“ bereitstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16868-5_2 27d33627be723715af671807a508a076;de;;;5.2.;;;Alternative Musterfüllung In diesem Beitrag wird ein Algorithmus für die alternative Musterfüllung auf beliebigen Liniensegmenten, Kreisbögen und elliptischen Bögen vorgeschlagen. Der Algorithmus erzeugt eine externe Schleife, die eine minimale Schleife ist, die einen bestimmten Punkt enthält. Anschließend werden alle Schleifen erstellt, die die verschachtelten Bereiche für die alternative Musterfüllung innerhalb der externen Schleife begrenzen. Die Schleifenerkennung basiert auf einem neuen Verfahren zum Suchen der äußersten linken Kanten. Es erfordert nur Werte von Positionen, Tangentenvektoren, Krümmungsradien und die ersten Ableitungen von Krümmungsradien an Schnittpunkten und Flächen von Kreisen und Ellipsen. Nachdem alle erforderlichen Schleifen erstellt wurden, wird das angegebene Muster in die verschachtelten Schleifen innerhalb der externen Schleife gefüllt. Das Füllen des gegebenen Musters in diesem Papier wird vereinfacht durch das Füllen von Liniensegmentmustern auf einigen parallelen Linien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30497-5_173 a0573016c9550c5fcbe9273f1a925e97;de;;;5.2.;;;Teilordnungen für Ranking-Hilfefunktionen In diesem Beitrag schlagen wir vor, Hilfefunktionen in einem intelligenten Tutorsystem hinsichtlich ihrer Nützlichkeit zu ordnen. Eine Hilfefunktion wird für einen Schüler als nützlich angesehen, wenn es ihm gelungen ist, ein Problem zu lösen, nachdem er sie verwendet hat. Darüber hinaus werden Methoden aus der Theorie der Teilordnungen angewendet, die einen automatisierten Prozess ermöglichen, individualisierte Handlungsempfehlungen zur Lösung eines bestimmten Problems vorzuschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12101-2_19 1a6aa34220a064bc3e8ec5b99ac6c332;de;;;5.2.;;;Eine neue Methode zum Feature-Mining in Remote-Sensing-Bildern In Erweiterung der Methode der Regression-Class-Mixed-Decomposition (RCMD) wird in diesem Beitrag ein RCMD-basiertes Feature-Mining-Modell mit genetischem Algorithmus (geprägter RFMM-GA) zur Extraktion von Merkmalen in komplexen Fernerkundungsbildern mit einem hohen Anteil an Lärm. Im Rahmen von RFMM-GA entsprechen verschiedene Merkmale im Merkmalsraum verschiedenen Komponenten einer Mischung, in der jede ihrer Komponenten durch eine bestimmte Art von parametrischer Verteilung und die geeigneten Parametersätze spezifiziert werden kann. Das Modell fängt gut die überlappenden und verrauschten Bedingungen ein, die normalerweise bei fernerfassten Bildern auftreten. Features werden erfolgreich abgebaut, wenn die entsprechenden Parametersätze angemessen geschätzt werden. Durch die eingebettete GA werden Features mit den angenommenen Komponenten hierarchisch abgebaut, bis der Datensatz in eine Gruppe von Feature-Mustern zerlegt ist. Im Vergleich zu herkömmlichen Verfahren hat das RFMM-GA mehrere entscheidende Vorteile: (1) Die anfängliche Anzahl von Merkmalen muss nicht a priori spezifiziert werden. Das Verfahren endet, nachdem alle relevanten Merkmale entwirrt wurden. (2) Ein großer Anteil verrauschter Daten in der Mischung kann toleriert werden. (3) Parameterschätzungen einzelner Merkmale sind praktisch unabhängig voneinander. (4) Variationen in Form und Größe der Merkmale in der Mischung werden berücksichtigt. Drei experimentelle Ergebnisse zur Extraktion ellipsoider und linearer Features zeigen die Effektivität des RFMM-GA-Modells für das Feature-Mining in verrauschten Daten mit gemischter Feature-Verteilung.;-;-;-;https://link.springer.com/article/10.1007/s10707-006-9829-6 9f0b8ce8cc48b21a4bd806b96f7e4ede;de;;;5.2.;;;Ein logisches Programmier-Framework für die abduktive Intentionsableitung in kooperativen Dialogen In diesem Papier schlagen wir einen allgemeinen Logikprogrammierungsrahmen vor, der die Erkennung von Plänen und Absichten hinter Sprechakten durch abduktives Denken ermöglicht. Diese Inferenzen ermöglichen jedem Agenten eine aktive Teilnahme an Dialogen, nämlich an kooperativen informationssuchenden Dialogen. In unserem Framework werden die möglichen Aktionen, Ereignisse, Zustände und das Weltwissen durch erweiterte Logikprogramme (LP mit expliziter Negation) repräsentiert und der abduktive Inferenzprozess wird durch ein Framework modelliert, das auf der Well Founded Semantics, erweitert mit expliziter Negation (WFSX) basiert. und Widerspruchsbeseitigungssemantik (CRSX) ([PAA92]). Es wird gezeigt, wie dieses Framework abduktives Denken mit Event Calculus ([Esh88]) unterstützt und einige klassische Beispiele im Bereich informationssuchender Dialoge werden gezeigt ([Lit85, Pol86]). Abschließend wird auf einige offene Probleme hingewiesen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-58216-9_38 2b7ad35983bfd13025d317d56b631379;de;;;5.2.;;;Agentensystem für den Online-Ticket-Wiederverkauf Diese Studie hat versucht, ein neues Modell vorzuschlagen, das die Tickets im Online-Ticket-Wiederverkaufsmarkt effektiv umverteilen kann, während gleichzeitig ein neuer Zuteilungsmechanismus auf der Grundlage einer Agentenverhandlung vorgeschlagen wird. Zu diesem Zweck hat diese Studie den Ticket-Zweitmarkt durch Systemdynamik analysiert und simuliert. Als Ergebnis dieser Simulationen wurde nachgewiesen, dass die Preisstabilität des Ticket-Wiederverkaufsmarktes zu einer Umsatzsteigerung führt. Eine Agentenverhandlung trägt dazu bei, die bei Auktionen üblicherweise tendenziell steigenden Ticketpreise zu stabilisieren, was allen Verhandlungsteilnehmern zugute kommt und somit eine Pareto-Lösung aufzeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78582-8_62 8fd076fb08e89c2642e23fd7d01b0ee4;de;;;4.2.;;;Kostenteilung – eine notwendige Komponente für einen erfolgreichen Technologietransfer Das allgemeine Ziel dieses Papiers besteht darin, die Einführung einer bundesstaatlichen Kostenteilungspolitik vorzuschlagen, um das Risiko beim Technologietransfer von der F&E-Phase bis zur Vermarktung zu verringern. Die Minimierung dieser Risikobarriere soll verschiedene Gruppen zur Teilnahme am Technologietransfer ermutigen. Abschnitt II konzentriert sich auf spezifische Hindernisse, die die Bemühungen um den Technologietransfer behindern, und präsentiert politische Optionen zur Minimierung der identifizierten Hindernisse. Abschnitt III führt Ziele von Kostenteilungsexperimenten ein, aus denen Kostenteilungspolitiken formuliert werden können. Darüber hinaus identifizieren wir auch spezifische Kriterien der Kostenbeteiligung und Erfolgsvariablen für die Police.;-;-;-;https://link.springer.com/article/10.1007/BF02179591 27984e1d4eccd39bbb84b10629b85702;de;;;5.2.;;;Ein auf Fuzzy-Logik basierendes Modell eines Verhandlungsspiels In diesem Papier wurde ein neuartiges Verhandlungsmodell vorgeschlagen, bei dem Verhandlungsführer ihre Nachfragepräferenzen während einer Verhandlung ändern können, um die Chance auf eine Einigung zu erhöhen. Im Modell verwenden wir Fuzzy-Regeln, um mit dem Grad umzugehen, in dem ein Händler seine Präferenz ändern sollte. Darüber hinaus führen wir psychologische Experimente durch, um zu zeigen, dass unsere Fuzzy-Regeln gut widerspiegeln, wie Risikoeinstellung, Geduld und Reuegrad von Verhandlungspartnern ihre Präferenzänderungen während einer Verhandlung beeinflussen. Schließlich wird unser Modell an einem realen Beispiel illustriert und durch Experimente analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39787-5_32 85112cb69e4b2d5729f44814a7451cd6;de;;;5.2.;;;Entwicklung einer Selbstregulierungsumgebung in einem offenen Lernmodell mit Higher Fidelity Assessment Die Automatisierung pädagogischer Interventionen bei kognitiven Tutoren mit Modellverfolgung (MTCT) hängt stark von verketteten Paradigmen ab, wie einer angemessenen Modellierung des Wissens, das hinter den Handlungen der Schüler steckt. Wissen wird nachverfolgt, um seinen Beherrschungsgrad abzuleiten, der zu einem konstruktiven Lernprozess führt. In diesem Beitrag wird eine auf einem probabilistischen Modell basierende Methodik zur Generierung pädagogischer Interventionen in einer selbstregulierten Umgebung vorgestellt. Die Grundlagen für deren Entwicklung werden bis zur Umsetzung explizit durch die Modellierung des kognitiven und metakognitiven Schülerwissens herausgearbeitet. Das probabilistische Modell ist in einer Bayesschen Netzwerktopologie kodiert, die die Bewertung der Treue durch unabhängige Diagnose des Beherrschungsgrads der relevanten Wissenskomponenten erhöht und eine direkte Interpretation des Wissens ermöglicht, das in die Handlungen eines Schülers einbezogen ist. Darüber hinaus ist es auch mit anderen Prozessen verwoben, um Entscheidungen abzuleiten, die die Art und Weise, wie pädagogische Interventionen generiert werden, beeinflussen und ein selbstreguliertes Verhalten fördern. Vorläufige Ergebnisse zur Bewertung der Wirksamkeit des vorgeschlagenen Ansatzes werden auch präsentiert, indem er in einem MTCT namens TITUS implementiert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-76168-8_6 a412719a594a3e46f00a5387c79f28fc;de;;;5.2.;;;Ein zufälliger Entdeckungsprozess zum Verständnis des spiralförmigen Verhaltens von Verbrauchern Die auf dem System Engineering basierenden Methoden der Verbraucherverhaltensanalyse werden entwickelt. Die Methoden bestehen aus den drei Modellen, die unter verschiedenen Gesichtspunkten beschrieben werden: Prozess, Status und Informationsstruktur. Das Konsumverhalten der Konsumenten beim Kauf von Erfrischungsgetränken wird mit diesen Methoden in einem hierarchischen Prozess als „Ganzheit zum Individuum“ analysiert. Das Verhalten als Gruppe wird mit Aggregationsdaten mit statistischen Methoden analysiert. Anschließend wird das gefundene Wissen erklärt, indem das Verhalten als Individuum mit den drei oben genannten Modellen analysiert wird. Auf diese Weise wird eine spiralförmige Dynamik des Verbraucherverhaltens erkannt, die durch sich wiederholende Schwankungen des Anliegens erzeugt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30133-2_106 6c6f4e0efee84ef2200457148a7462fd;de;;;5.2.;;;"Hcn und Hnc in Kometen C/2000 Wm1 (Linear) und C/2002 C1 (Ikeya-Zhang) Kometen wurden als möglicherweise bedeutende Quelle organischer Moleküle für die frühe Erde vorgeschlagen. Cyanwasserstoff (HCN) ist in Modellen der präbiotischen Chemie wichtig, kann aber in der frühen terrestrischen Umgebung schwierig zu bilden sein, während Hydrogencyanid (HNC) ein ""klassischer"" Tracer der interstellaren Ionen-Molekül-Chemie ist. Wir haben sowohl HCN als auch HNC in 2 kürzlich erschienenen Kometen beobachtet, was die Anzahl der Kometen mit veröffentlichten Messungen des HNC/HCN-Häufigkeitsverhältnisses auf 6 erhöht hat. Das HNC/HCN-Verhältnis im Kometen Ikeya-Zhang scheint mit abnehmender heliozentrischer Distanz zuzunehmen, wie auch zuvor für den Kometen Hale-Bopp beobachtet, was darauf hindeutet, dass das HNC zumindest teilweise durch Prozesse in der Kometenkoma (Atmosphäre) produziert wird und nicht nur ein Bestandteil des Kerneises ist. Beide Kometen C/2000 WM1 (Linear) und C/2002 C1 (Ikeya-Zhang) weisen Werte des HNC/HCN-Verhältnisses auf, die zu groß erscheinen (∼0,09–0,19), um mit aktuellen Modellen der Komachemie verglichen zu werden. Kometäre HNC können ein Photodissoziationsprodukt organischer Körner oder großer organischer Polymere sein, die im Kern gespeichert sind. Wir haben auch einen Grenzwert für die Emission des NO-Radikals im Kometen WM1 festgelegt.";-;-;-;https://link.springer.com/article/10.1023/A%3A1025791101127 fbde52a51e30c948caa3097d470c9496;de;;;5.2.;;;Ein Inhaltssuchsystem, das die Aktivität und den Kontext eines mobilen Benutzers berücksichtigt Menschen tragen in ihrem täglichen Leben routinemäßig mobile Geräte und erhalten in vielen verschiedenen Situationen eine Vielzahl von Informationen aus dem Internet. Bei der Suche nach Informationen (Inhalten) mit einem mobilen Gerät ändern sich häufig die Aktivität eines Benutzers (z. B. Bewegung oder stationär) und der Kontext (z. B. morgens pendeln oder abends in die Innenstadt fahren), und solche Änderungen können sich auf den Grad der Benutzerfreundlichkeit auswirken Konzentration auf die Anzeige- und Informationsbedürfnisse seines Mobilgeräts. Daher sollte ein Suchsystem dem Benutzer eine für die aktuelle Aktivität geeignete Informationsmenge und eine für den aktuellen Kontext geeignete Informationsart bereitstellen. In dieser Studie stellen wir das Design und die Implementierung eines Inhaltssuchsystems vor, das die Aktivität und den Kontext eines mobilen Benutzers berücksichtigt, mit dem Ziel, die Arbeitsbelastung des Benutzers für die Inhaltssuche zu reduzieren. Das vorgeschlagene System wechselt je nach Benutzeraktivität zwischen zwei Arten von Inhaltssuchsystemen: dem;-;-;-;https://link.springer.com/article/10.1007/s00779-012-0550-1 0f9f6d86c63c1d93c75397b6503e65a2;de;;;5.2.;;;Argumentationsbasierte Modellierung von eingebetteten Agentendialogen Dieses Papier stellt einen neuartigen Ansatz zur Modellierung eingebetteter Agentendialoge vor. Es schlägt eine spezifische Struktur für die unterstützenden Informationen vor, die die Argumente begleiten, die Agenten während eines Dialogs austauschen, es definiert formal, wie sich diese Informationen auf die Agententheorie beziehen, und weist ihr eine Semantik zu, die jedem der atomaren Dialogtypen der Walton- Krabbe-Typologie. Dies ermöglicht die formale Definition notwendiger und hinreichender Initiierungs- und Akzeptanzbedingungen von liziten dialektischen Verschiebungen, die für die Modellierung eingebetteter Agentendialoge notwendig sind.;-;-;-;https://link.springer.com/chapter/10.1007/11794578_11 4c8dd25d2f5d652d1bd255e39ce257c0;de;;;5.2.;;;Auswirkungen der Trägheit der Muttermarke auf die Mehrproduktpreise Dieses Papier untersucht und quantifiziert die Bedeutung der Abhängigkeit vom Zustand der Muttermarke für zukunftsorientierte Preisgestaltungsergebnisse im Bereich Dachmarken und Mehrproduktunternehmen. Wir zeigen durch numerische Simulationen, dass Loyalität (Trägheit) gegenüber der Muttermarke Preise senken und Gewinne reduzieren kann sowie die Vorteile der gemeinsamen Gewinnmaximierung im Vergleich zur Gewinnmaximierung der Untermarke mildern oder sogar umkehren kann. Diese Effekte werden durch Markenasymmetrien und das relative Ausmaß der Sub-Marken-Zustandsabhängigkeitseffekte vermittelt. Empirisch konzentrieren wir uns auf die Kategorie Joghurt, in der wir Muttermarken mit mehreren Untermarken betrachten. Unter Verwendung von Scannerdaten auf Haushaltsebene schätzen wir die Parameter, die die Verbrauchernachfrage charakterisieren, und berücksichtigen dabei flexibel die Verbraucherheterogenität. Wir schätzen auch unbeobachtete Produktkosten basierend auf einem zukunftsorientierten Preisfindungsspiel. Mittels kontrafaktischer Analyse untersuchen wir die Gesamtwirkung der Abhängigkeit des Muttermarkenzustands von Preisen und Gewinnen sowie die empirischen Auswirkungen der gemeinsamen Gewinnmaximierung und der Veränderungen der Überzeugungen der Unternehmen in Bezug auf die Trägheit der Verbraucher. Unsere Ergebnisse haben Auswirkungen auf Märkte, in denen die Nachfrage wahrscheinlich durch die Dynamik der Muttermarke gekennzeichnet ist.;-;-;-;https://link.springer.com/article/10.1007/s11129-017-9187-8 2573967ea5a2bd5422d56604e692143d;de;;;5.2.;;;Binaurale Auslösung aus temporaler Induktion Diese Studie untersuchte die Auswirkungen der interauralen Phasendifferenz (IPhD)-Beziehungen auf die zeitliche Induktion (TI) – das heißt die wahrgenommene Kontinuität eines schwächeren Schalls (Inducee) durch einen unterbrechenden Schall mit höherer Amplitude (Inducer). Das Ausmaß von TI wurde sowohl direkt als oberer Amplitudenpegel für die Kontinuität als auch indirekt als Lautstärkereduktion des Induktors gemessen. Es wurde festgestellt, dass TI gehemmt wurde, wenn sich die IPhD des Induktors und die IPhD des Induzierten unterschieden. Es wurde auch festgestellt, dass das Ausmaß der Induktion in positivem Zusammenhang mit dem Maskierungspotential des Induktors stand, gemessen durch das binaurale Maskierungsniveaudifferenzverfahren. Diese Ergebnisse legen nahe, dass TI Prozesse beinhaltet, die durch interaurale Phasenunterschiede beeinflusst werden, und dass die Maskierungspotentialregel, die in früheren Studien für den Frequenzbereich gezeigt wurde, auch im IPhD-Bereich gilt. Die vorliegenden Ergebnisse stimmen mit der Hypothese überein, dass TI aus der Zuweisung eines Teils der vom Induktor erzeugten neuralen Erregung an den Induzierten resultiert, wenn der Induktor das geeignete Maskierungspotential hat. Infolgedessen können ausgelöschte Signale selektiv auf der Grundlage sowohl frequenzspezifischer monauraler Hinweise als auch azimutbezogener binauraler Hinweise wiederhergestellt werden, Fähigkeiten, die die Erkennung von Signalen unter den lauten Bedingungen des täglichen Lebens verbessern können.;-;-;-;https://link.springer.com/article/10.3758/BF03205491 05498847c47b7371910a82caa39e5010;de;;;5.2.;;;Betrachtung methodischer Optionen für Theorieüberprüfungen: illustriert durch eine Überprüfung von Theorien zur Verknüpfung von Einkommen und Gesundheit Die Überprüfung der Theorie ist ein Gebiet mit wachsendem methodischen Fortschritt. Theoretische Übersichten sind besonders nützlich, wenn die Literatur komplex, multidisziplinär oder umstritten ist. Es wurde vorgeschlagen, dass die Übernahme von Methoden aus systematischen Übersichten dazu beitragen kann, diese Herausforderungen zu bewältigen. Die methodischen Ansätze von Theoriereviews, einschließlich der Einbindung systematischer Review-Methoden, werden jedoch in der Literatur wenig diskutiert. Wir haben kürzlich systematische Review-Methoden in einer Überprüfung von Theorien über den kausalen Zusammenhang zwischen Einkommen und Gesundheit eingesetzt.;-;-;-;https://link.springer.com/article/10.1186/2046-4053-3-114 af57539286e525fc006717805e929c20;de;;;5.2.;;;Die Integration von Kooperationsmodell und genetischem Algorithmus In der Photogrammetrie haben einige Forscher genetische Algorithmen zur Klassifizierung von Luftbildtexturen und zur Reduzierung von Hyperspektrum-Fernerkundungsdaten angewendet. Der genetische Algorithmus kann schnell die Lösungen finden, die der optimalen Lösung nahe kommen. Doch die optimale Lösung zu finden, ist nicht einfach. Um das Problem zu lösen, wird in diesem Beitrag eine kooperative Evolutionsidee vorgestellt, die genetischen Algorithmus und Ameisenkolonie-Algorithmus integriert. Auf der Grundlage der Vorteile des Ameisenkolonieralgorithmus schlägt dieser Artikel das Verfahren vor, das genetische Algorithmen und Ameisenkoloniealgorithmen integriert, um den Nachteil genetischer Algorithmen zu überwinden. Darüber hinaus nimmt der Beitrag die Gestaltung von Texturklassifizierungsmasken von Luftbildern als Beispiel, um die Integrationstheorie und -verfahren zu veranschaulichen.;-;-;-;https://link.springer.com/article/10.1007/BF02863486 fc428af311f93bb5583c8d1c79a78e4a;de;;;5.2.;;;Starke lokale Konsistenzalgorithmen für Tabelleneinschränkungen Tabellenbeschränkungen sind bei der Beschränkungsprogrammierung wichtig, da sie in vielen realen Problemen aus Bereichen wie Konfiguration und Datenbanken vorkommen. Als Ergebnis wurden zahlreiche spezialisierte Algorithmen vorgeschlagen, die eine generalisierte Bogenkonsistenz (GAC) auf Tabellenbeschränkungen erreichen. Da diese Algorithmen GAC erreichen, arbeiten sie jeweils mit einer Einschränkung. In diesem Papier schlagen wir neue Filteralgorithmen für positive Tabellenbeschränkungen vor, die stärkere lokale Konsistenzeigenschaften als GAC erreichen, indem sie Schnittmengen zwischen Beschränkungen ausnutzen. Der erste Algorithmus, genannt;-;-;-;https://link.springer.com/article/10.1007/s10601-014-9179-1 756f9a2134c3a82911da689d14e4230f;de;;;5.2.;;;Bipolare Abfragen: Eine Möglichkeit, die Flexibilität von Datenbankabfragen zu verbessern In vielen realen Szenarien kann die Verwendung von Standardabfragesprachen aufgrund der Schwierigkeit, die tatsächlichen Benutzeranforderungen (Informationsbedürfnisse) auszudrücken, ineffektiv sein. Die Verwendung von Fuzzy-Logik hilft, dieser Ineffektivität entgegenzuwirken, indem sie linguistische Begriffe in Abfragen modellieren und richtig verarbeiten kann. Auf diese Weise kann ein Benutzer seine Anforderungen intuitiver und flexibler formulieren. In letzter Zeit hat eine andere Dimension einer solchen Flexibilität die Aufmerksamkeit vieler Forscher auf sich gezogen. Es wird nämlich heute weithin befürwortet, dass der Benutzer durch die Spezifizierung seiner oder ihrer Anforderungen in der Regel sowohl negative als auch positive Präferenzen im Auge hat. Daher scheint eine Kombination einer intuitiven Anziehungskraft natürlichsprachlicher Begriffe in Abfragen mit bipolarer Natur von Präferenzen ein vielversprechender nächster Schritt zur Erhöhung der Flexibilität von Abfragen zu sein. Wir betrachten verschiedene Möglichkeiten, die Bipolarität bei Datenbankabfragen zu verstehen, schlagen Fuzzy . vor Gegenstücke einiger knackiger Ansätze und studieren ihre Eigenschaften.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02190-9_3 5447af495cd4eb251e40c6f9d515f0f5;de;;;5.2.;;;Parallele versus senkrechte Plots: Eine vergleichende Studie Eine Vergleichsstudie zwischen parallelen und senkrechten (Scatter-Plot) Plot-Visualisierungstechniken wird angesprochen. Die Vergleichsdiskussion konzentriert sich auf die Nachteile und Vorteile der beiden Techniken und eine GOMS-Analyse der damit verbundenen Aufgaben basierend auf einem System namens PaCQ-Schnittstelle.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25483-3_36 1851c7ccf31a206355a045a4a39fd231;de;;;5.2.;;;Kollaboratives System zur Auswahl von Produktionsmaschinen basierend auf hierarchischer fallbasierter Argumentation Neue Handystile und technologische Entwicklungen ändern sich schnell. Um die Wettbewerbsfähigkeit eines Unternehmens zu verbessern, muss in kurzer Zeit ein neu gestaltetes Mobiltelefon auf dem Markt verfügbar sein. Daher müssen die Produktionsprozesse einschließlich der Wahl der Herstellungsmaschine für ein neues Mobiltelefonprodukt schnell festgelegt werden. Angesichts des Mangels an Informationen ist es schwierig, Fertigungsmaschinen für einen Produktionsprozess für ein neues Produkt auszuwählen. Daher schlug diese Studie ein Collaborative Production Machine Choice System (CPMCS) vor, das auf einem hierarchischen, fallbasierten Argumentationsansatz basiert, um das Problem der Maschinenauswahl für die neue Mobiltelefonproduktion zu lösen. Ein echtes Interaktionssystem wird auch in dieser Studie aufgebaut, um den Benutzern bei der Maschinenauswahl zu helfen. Durch eine nicht festgelegte Anzahl neuer Produktmerkmale kann dieses System den Benutzern durch fallbasierte Argumentation geeignete Maschinen empfehlen und den Benutzern helfen, in kurzer Zeit die richtigen Maschinen für die Produktion zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-92814-0_23 41b28866dd02889ba45209e59457251e;de;;;5.2.;;;Vererbung und Delegation Vererbung in ihrer einfachsten Form wird von Klassen in klassenbasierten Programmiersprachen durchgeführt. Auf Prototypen basierende Sprachen unterstützen einen Mechanismus namens Delegation, der allgemeiner und in gewisser Weise grundlegender zu sein scheint als Vererbung. Vererbung ist jedoch ein äußerst wichtiges Konzept und findet sich in vielen Computersystemen (zum Beispiel dem X-Windows-System) sowie in objektorientierten Sprachen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-3389-6_4 556f55afd19dc1ce1d70c4f267162235;de;;;4.2.;;;Die Rolle von Sozialkapital, persönlichen Netzwerken und Notfallhelfern bei der Wiederherstellung und Resilienz nach einer Katastrophe: eine Studie über ländliche Gemeinden in Indiana Die Faktoren, die die Geschwindigkeit der Wiederherstellung nach einer Katastrophe erklären, bleiben umstritten. Während viele argumentiert haben, dass physische Infrastruktur, Sozialkapital und Katastrophenschäden den Erholungsbogen beeinflussen, gibt es nur wenige empirische Studien, die diese verschiedenen Faktoren innerhalb eines einheitlichen Modellierungsrahmens testen. Wir haben eine E-Mail-Umfrage durchgeführt, um Daten über die Wiederherstellung von Haushalten in vier kleinen Städten im Süden von Indiana zu sammeln, die im März 2012 von tödlichen Tornados heimgesucht wurden. einige sind noch im Bau. Wir untersuchen, wie sich Haushalte in diesen Gemeinden von erlittenen Schäden erholen, und die Rolle von Sozialkapital, persönlichen Netzwerken und Hilfe von Notfallhelfern bei der gesamten Genesungserfahrung. Wir haben ein geordnetes Probit-Modellierungs-Framework verwendet, um die kombinierten sowie die relativen Auswirkungen von (a) Schäden an physischen Infrastrukturen (Häuser, Fahrzeuge usw.), (b) Bergungshilfe von Rettungskräften (FEMA) sowie Freunden und Nachbarn zu testen test , (c) persönliche Netzwerkmerkmale (Größe, Netzwerkdichte, Nähe, Dauer der Beziehung), (d) Sozialkapital (bürgerschaftliches Engagement, Kontakt zu Nachbarn, Vertrauen) und (e) Haushaltsmerkmale. Die Ergebnisse zeigen, dass Haushalte mit höherem Schadensniveau eine langsamere Genesung erlebten, während Haushalte mit Wiederaufbauhilfe von Nachbarn, stärkeren persönlichen Netzwerken und einem höheren Niveau an Sozialkapital eine schnellere Genesung erlebten. Die in dieser Studie gewonnenen Erkenntnisse werden es Notfallmanagern und Katastrophenschutzpersonal ermöglichen, gezielte Strategien zur Erleichterung der Wiederherstellung nach einer Katastrophe und der Widerstandsfähigkeit der Gemeinschaft umzusetzen.;-;-;-;https://link.springer.com/article/10.1007/s11069-017-3103-0 c7027ab1b5b3dbcd6c14ff4032b3551d;de;;;4.2.;;;Datenqualität von Points of Interest in ausgewählten Mapping- und Social Media-Plattformen Eine Vielzahl von standortbasierten Diensten, darunter Navigation, Geo-Gaming, Werbung und Urlaubsplanung, basieren auf Point-of-Interest-Daten (POI). Kartenplattformen und Social-Media-Apps hosten oft ihre eigenen Geodatensätze, was zu einer Vielzahl von Datenquellen führt, aus denen POIs extrahiert werden können. Daher ist es für einen Analysten von entscheidender Bedeutung, die Natur der auf den verschiedenen Plattformen verfügbaren Daten, ihren Zweck, ihre Eigenschaften und ihre Datenqualität zu verstehen. Diese Studie extrahiert POIs für sieben Stadtregionen aus sieben Karten- und Social-Media-Plattformen (Facebook, Foursquare, Google, Instagram, OSM, Twitter und Yelp). Es analysiert die POI-Datenqualität hinsichtlich Abdeckung, Punktdichte, Inhaltsklassifizierung und Positionierungsgenauigkeit und untersucht auch die räumliche Beziehung (z. B. Segregation) zwischen POIs verschiedener Plattformen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-71470-7_15 aff444b1a4c9dbbd91e405563a2a15a7;de;;;4.2.;;;Gesundheit und Sicherheit Die Bauindustrie ist nach wie vor eine der gefährlichsten Branchen, in der man arbeiten kann. Jedes Jahr wird eine beträchtliche Anzahl von Bauarbeitern auf der Baustelle durch ihre Arbeit und die Arbeit anderer verletzt, viele schwer und einige tödlich. In den letzten 25 Jahren litt die Bauindustrie unter einer schlechten Gesundheits- und Sicherheitsbilanz. Obwohl die Unfallrate in den 1990er Jahren zurückgegangen ist, hat die Branche noch einen langen Weg vor sich, um die Gesundheit, Sicherheit und das Wohlergehen ihrer Arbeitnehmer ständig zu gewährleisten. Jeder, der an einem Bauprojekt beteiligt ist, trägt Verantwortung für Gesundheit und Sicherheit, nicht mehr als die Bauleitung. Es ist die Pflicht von Führungskräften und Vorgesetzten, für sichere und gesunde Arbeitsbedingungen auf der Baustelle zu sorgen, damit Arbeiter, andere Projektbeteiligte und Personen in der Nähe oder beim Besuch der Baustelle nicht gefährdet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-230-50021-1_10 8ed8beb4784a3cdb9a8c02d9609be440;de;;;5.2.;;;Effizientes Link-Scheduling mit gemeinsamer Leistungssteuerung und sukzessiver Interferenzunterdrückung in drahtlosen Netzwerken Vorhandene Arbeiten haben die Interferenzminderung durch zwei beliebige der drei Ansätze angesprochen: Verbindungsplanung, Leistungssteuerung und sukzessive Interferenzunterdrückung (SIC). In diesem Papier integrieren wir die oben genannten Ansätze, um die spektrale Effizienz der drahtlosen Netzwerke weiter zu verbessern und betrachten die Max-Min-Fairness, um den Übertragungsbedarf der Worst-Case-Verbindung zu gewährleisten. Wir formulieren das Link Scheduling mit Joint Power Control und SIC (PCSIC) Problem als gemischt-ganzzahlige nichtlineare Programmierung (MINLP), die sich als NP-vollständig erwiesen hat. Folglich schlagen wir einen iterativen Algorithmus vor, um das Problem zu lösen, indem wir es in eine Reihe von linearen Teilproblemen zerlegen, und dann zeigt die Analyse, dass der Algorithmus im schlimmsten Fall eine hohe Komplexität aufweist. Um die Rechenkomplexität zu reduzieren, haben wir ferner einen zweistufigen Algorithmus mit polynomieller Zeitkomplexität entwickelt. Numerische Ergebnisse zeigen die Leistungsverbesserungen unserer vorgeschlagenen Algorithmen im Hinblick auf den Netzwerkdurchsatz und den Stromverbrauch im Vergleich zum Link-Scheduling-Schema nur mit SIC.;-;-;-;https://link.springer.com/article/10.1007/s11432-015-5468-6 f879ff73fa61071062b56d74b7100361;de;;;5.2.;;;Planung in Echtzeit-Transaktionssystemen In vielen Anwendungsbereichen müssen Datenbankverwaltungssysteme möglicherweise unter Echtzeitbeschränkungen arbeiten. Wir haben einen integrierten Ansatz zur Entwicklung von Algorithmen für CPU-Scheduling, Parallelitätssteuerung (basierend sowohl auf Sperren als auch auf optimistischer Parallelitätssteuerung), Konfliktlösung, Transaktionsneustart, Transaktionsaktivierung, Deadlock, Pufferverwaltung und Datenträger-E/A-Planung gewählt. In allen Fällen adressieren die Algorithmen direkt Echtzeitbeschränkungen. Wir haben neue Algorithmen entwickelt, auf einem experimentellen Testbed namens RT-CARAT implementiert und ihre Leistungsfähigkeit evaluiert. Besonderes Augenmerk haben wir auf das Zusammenspiel der Algorithmen sowie auf die tatsächlichen Implementierungskosten und deren Auswirkungen auf die Performance gelegt. Die experimentellen Ergebnisse sind zahlreich und stellen die ersten Ergebnisse dieser Art auf einem echten Echtzeit-Datenbank-Testbed dar. Die wichtigsten Algorithmen und Schlussfolgerungen werden in diesem Kapitel vorgestellt;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-3956-8_6 84fdf80d042ac78e384e6b3ebc04d3e0;de;;;4.2.;;;„Ich beobachte mein Kind genau“: eine moralische Kritik an anderen Tracking-Apps Smartphones und mobile Anwendungen sind in unserem Leben allgegenwärtig. Im Zentrum dieses Artikels stehen „Other-Tracking-Apps“, also mobile Anwendungen, die es ermöglichen, über Ortungstechnologie andere zu verfolgen. Diese Apps stellen sicher, dass wir nie vom Netzwerk allgegenwärtiger Informationen und über dieses Netzwerk von anderen getrennt sind. Der Fokus liegt insbesondere auf Apps, die für Eltern entwickelt wurden, um den Aufenthaltsort ihrer Kinder aus der Ferne zu verfolgen. Dieser spezielle Fall kann als ein Beispiel für eine umfassendere Reflexion darüber angesehen werden, was kontinuierliche technische Konnektivität moralisch bedeutet. Andere-Tracking-Apps geben moralischen Fragen im Zusammenhang mit Informationstechnologien neuen Boden. Auch wenn es kaum Zweifel daran gibt, dass Eltern diese Technologien mit der guten Absicht einsetzen, Betreuung und Verantwortung auf Distanz auszudehnen, besteht unsere Sorge darin, dass sie Kontrolle mit Betreuung verwechseln. Dieser Artikel soll zeigen, dass eine kritische Haltung gegenüber der Verfolgung anderer Personen durch Eltern erforderlich ist, da diese Apps eine Reihe von Bedenken aufwerfen, die bei ihrer Implementierung berücksichtigt werden sollten. Eine Reihe von moralischen Kritiken wird geäußert und diskutiert. Diese Apps haben das Potenzial, eine Situation der „Übernähe“ zu erzeugen. Daher ist ein Rahmen erforderlich, der die Wahrung der kritischen Distanz betont, um die Heterogenität, Autonomie und Privatsphäre des anderen zu respektieren.;-;-;-;https://link.springer.com/article/10.1007/s10676-016-9405-1 56e443b8c61569aa80cd427343777102;de;;;5.2.;;;Aufgabenverwaltungssystem Eine Aufgabe, die für unser DSS (actDSS) vorgesehen ist, besteht aus integrierten Modellen, Solvern, grafischen Modellen für Ein- und Ausgabe, verschiedenen Datenmodellen verbunden mit einer Datenbank und anderen. Die Organisation dieser Subsysteme ist eine Aufgabe. Ein Task-Management-System (TMS) sollte sich um alle Aspekte einer Task-Konstruktion und deren Betrieb kümmern. In diesem Beitrag wird das Konzept des TMS vorgestellt und der Aufbau und die Funktion diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0034749 cb710468bc3848a5c1d08baf1ec01dca;de;;;5.2.;;;Der Einfluss der Smartphone-Nutzung auf das psychosoziale Wohlbefinden von College-Studenten Forscher vermuten, dass übermäßige Smartphone-Nutzung mit negativen psychosozialen Auswirkungen korreliert ist, insbesondere bei jüngeren Erwachsenen, die Gefühle der Isolation, Depression/Angst und Ruhelosigkeit verursachen. Diese Pilotstudie zum psychosozialen Wohlbefinden von 22 College-Studenten hat die Auswirkungen der Smartphone-Nutzung auf Emotionen/Stimmung, Abhängigkeit, Sucht, Lebenszweck, soziale Kommunikation und Selbstbewusstsein gemessen. Für unsere Datenanalyse haben wir die Häufigkeit mit Konversionsprozentsätzen (von 35 Fragen) unter Verwendung einer siebenstufigen Likert-Skala gemessen, die stark nicht zu-zu-stimme stark zustimmt, während die Punktzahlen jeder Fragengruppe zu jeder Hypothese gemittelt wurden. Während nur 22 % zustimmten, süchtig nach Smartphone zu sein, gaben 68 % an, ihr Smartphone ständig zu überprüfen, und 57 % stimmten zu, dass sie Smartphone-abhängig sind. Die Mehrheit stimmte zu, dass die Nutzung von Smartphones Angst, Stress und Ungeduld verstärkt, wenn das Telefon nicht dabei ist. Während die Mehrheit zustimmte, dass das Smartphone ihr wichtigstes Kommunikationsmittel ist, stimmten 90 % zu, dass nichts mehr Spaß macht als die Nutzung des Smartphones.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-02846-6_21 be9787b1ba3900ade878e8a1e0cf4081;de;;;4.2.;;;Der kollektive Eindruck der saudischen Wahrnehmung von Unterhaltung Die Vielfalt menschlicher Wahrnehmungen von Unterhaltung in Verbindung mit dem ständigen Aufkommen neuer Unterhaltungsformen stellt eine Herausforderung dar, eine Unterhaltungsumgebung anzubieten, die richtig auf das öffentliche Interesse ausgerichtet ist. Es ist bekannt, dass Unterhaltungspräferenzen durch eine Kombination aus dem sozialen und kulturellen Hintergrund des Einzelnen, der Instabilität der wirtschaftlichen Situation und den Generationenunterschieden geprägt sind. Im saudischen Kontext haben viele kulturelle Erwägungen eine Vielzahl von Präferenzen in Bezug auf die Akzeptanz neu entstandener oder importierter Unterhaltungsmethoden geschaffen, insbesondere aufgrund der besonderen Natur des saudischen kulturellen Kontexts und der Komplexität der Wahrnehmungsfaktoren, die dazu beitragen, die Präferenzen des Einzelnen zu formen die saudische Gemeinschaft. In diesem Beitrag schlagen wir vor, visuelle Umfragen als Mittel zum Sammeln und Quantifizieren der städtischen Wahrnehmung von Unterhaltung zu verwenden, in der Hoffnung, die aktuellen Herausforderungen aufzudecken und mögliche Verbesserungsrichtungen vorzustellen. Wir verwenden visuelle Umfragen als Datenerhebungsinstrument, um zu verstehen, wie sich die definierten Erwartungen, früheren Erfahrungen und demografischen Variablen der Menschen auf ihre Wahrnehmung in Bezug auf bevorzugte Unterhaltungsmodi beziehen. Wir hoffen, dass diese Forschungsarbeit die Tür öffnet, um die Verfügbarkeit von Crowdsourcing-Techniken zu nutzen, um urbane Wahrnehmungen in anderen unterschiedlichen Kulturen und Kontexten zu vergleichen und zu kontrastieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-58559-8_3 5b4747667fbd40708577d1857de0f6cc;de;;;5.2.;;;Bildgebung extraduraler Tumoren: Sekundärtumore im Kindesalter Neoplasmen sind im Kindesalter relativ selten, verglichen mit der Häufigkeit von Neoplasmen im Erwachsenenalter. In den USA betrug die geschätzte Zahl neuer Krebserkrankungen im Jahr 1992 1130000 für Patienten jeden Alters (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-60254-2_6 b3ecf83aadc2187606fcdcb133418b0c;de;;;5.2.;;;Erlernen merkmalsbasierter heuristischer Funktionen Planung ist der Prozess der Erstellung einer Abfolge von Aktionen, mit denen einige gewünschte Ziele erreicht werden. Die automatisierte Planung spielt wohl eine Schlüsselrolle sowohl bei der Entwicklung intelligenter Systeme als auch bei der Lösung vieler praktischer industrieller Probleme. Typische Planungsprobleme sind gekennzeichnet durch einen strukturierten Zustandsraum, eine Reihe möglicher Aktionen, eine Beschreibung der Auswirkungen jeder Aktion und ein objektives Maß. In diesem Kapitel betrachten wir Planung als Optimierungsproblem und suchen nach Plänen, die die Kosten für das Erreichen der Ziele oder eines anderen Leistungsmaßes minimieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21434-9_11 97ea167208d17c80a192bf75b551a881;de;;;4.2.;;;IKT und Interaktivität im Klassenzimmer: Eine Fallstudie einer IKT-Intervention an öffentlichen indischen ländlichen Schulen Unter Pädagogen besteht Einigkeit darüber, dass konstruktivistische Lernformen, bei denen Lehrende und Lernende aktiv miteinander interagieren, um Wissen gemeinsam zu schaffen, gegenüber Lehrformen, die der Weitergabe von Informationen vom Lehrenden an den Lernenden Vorrang geben, geschätzt werden. Weltweit werden IKT eingesetzt, um die Lernergebnisse von Schulkindern zu verbessern. Dieses Papier analysiert eine IKT-Intervention im ländlichen Indien, um zu beurteilen, ob IKT-Interventionen die Interaktionen im Klassenzimmer hin zu konstruktivistischem Lernen verbessern können. Unsere Studie über eine lehrerzentrierte IKT-Intervention zeigt, dass Lehrer, die in einer Umgebung mit eingeschränkten Ressourcen arbeiten, IKT als zeit- und arbeitssparendes Gut nutzen, was die Interaktion im Klassenzimmer kaum verändert. Wir stellen auch fest, dass IKT von Lehrkräften passiv genutzt werden, ohne ihr interaktives Potenzial zu entfalten, da ihnen die IKT-Kapazität dafür fehlt. Die Schüler haben weiterhin nur minimales Mitspracherecht über das Tempo und die Ergebnisse des Unterrichts. Zukünftige Gestaltung von IKT-Interventionen muss ein Gleichgewicht zwischen der Bewältigung der Einschränkungen der Lehrer und der Bereitstellung von Funktionen für Schüler und Lehrer finden, die Interaktionen fördern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-52014-4_2 8e2ae10595035bd513d4cbd0063484bf;de;;;5.2.;;;Algorithmus zur Auswahl der auf mittlerer Verschiebung basierenden Merkmalspunkte von DSA-Bildern Beim Bildregistrierungsalgorithmus der digitalen Subtraktionsangiographie (DSA) bestimmen die Genauigkeit der Kontrollpunkte sowie deren Anzahl und Verteilung im Bild die Genauigkeit der geometrischen Korrektur und Registrierung. Passpunkte übernehmen normalerweise die Gitterpunkte, eine effektivere Methode besteht jedoch darin, Passpunkte adaptiv entsprechend dem Bildmerkmal zu extrahieren. In diesem Artikel wird ein Auswahlalgorithmus eines Kontrollpunkts von DSA-Bildern basierend auf adaptiven Multiskalen-Gefäßverstärkungs-, Fehlerdiffusions- und Mittelwertverschiebungsalgorithmen vorgeschlagen. Experimentelle Ergebnisse zeigen, dass der vorgeschlagene Algorithmus die Kontrollpunkte adaptiv auf Blutgefäße und andere wichtige Bildmerkmale setzen und die Anzahl der Kontrollpunkte entsprechend den praktischen Anforderungen optimieren kann, wodurch die Genauigkeit der DSA-Bildregistrierung sichergestellt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06269-3_2 cc91a4a6b358aa0b4725a88eef786610;de;;;5.2.;;;Auffälligkeitsbasierte opportunistische Suche zur Extraktion und Kennzeichnung von Objektteilen Wir untersuchen die Aufgabe der Objektteilextraktion und -beschriftung, die versucht, Objekte zu verstehen, die über die einfache Identifizierung ihrer Bounding Boxes hinausgehen. Wir beginnen mit der Bottom-Up-Segmentierung von Bildern und suchen nach Übereinstimmungen zwischen Objektteilen in einigen wenigen Formmodellen und Segmenten in Bildern. Segmente, die unterschiedliche Objektteile im Bild umfassen, sind normalerweise aufgrund von ungleichmäßigem Kontrast, Beleuchtungsbedingungen, Störflecken, Okklusion und Posenänderungen nicht gleich auffällig. Darüber hinaus können Objektteile unterschiedliche Maßstäbe haben und manche Teile sind nur in großem Maßstab unterscheidbar und erkennbar. Daher verwenden wir eine mehrskalige Formdarstellung von Objekten und ihren Teilen, figurale Kontextinformationen des gesamten Objekts und semantische Kontextinformationen für Teile. Anstatt über einen großen Segmentierungsraum zu suchen, präsentieren wir ein salienzbasiertes opportunistisches Such-Framework, um die Bottom-up-Segmentierung durch schrittweises Erweitern und Begrenzen des Suchbereichs zu untersuchen. Wir haben unseren Ansatz an einem herausfordernden Statuen-Gesichtsdatensatz und drei menschlichen Gesichtsdatensätzen getestet. Die Ergebnisse zeigen, dass unser Ansatz Active-Shape-Modelle mit weit weniger Exemplaren deutlich übertrifft. Unser Framework kann auf andere Objektkategorien angewendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88693-8_56 d2fcb3f13ac4345ae48808e95f4f18cf;de;;;5.2.;;;Leader-folgender Konsens von nichtlinearen Multi-Agenten-Systemen zweiter Ordnung mit intermittierenden Positionsmessungen Diese Arbeit untersucht das Leader-Following-Konsensusproblem von nichtlinearen Multiagentensystemen zweiter Ordnung mit aperiodisch intermittierenden Positionsmessungen. Durch die filterbasierte Methode wird ein neuartiges intermittierendes Konsensusprotokoll ohne Geschwindigkeitsmessungen für jeden Follower ausschließlich basierend auf den relativen Positionsmessungen benachbarter Agenten entworfen. Unter der allgemeinen Annahme, dass nur relative Positionsmessungen zwischen den benachbarten Agenten intermittierend verwendet werden, werden einige Konsensusbedingungen für Leader-folgende Multiagentensysteme zweiter Ordnung mit inhärent verzögerter nichtlinearer Dynamik abgeleitet. Darüber hinaus werden für Multiagentensysteme ohne inhärente verzögerte nichtlineare Dynamik einige einfachere Konsensusbedingungen vorgestellt. Abschließend werden einige Simulationsbeispiele vorgestellt, um die theoretischen Ergebnisse zu verifizieren und zu veranschaulichen.;-;-;-;https://link.springer.com/article/10.1007/s11432-018-9732-7 d7b9f9eb819a507d769fc6ae315f4c2f;de;;;4.2.;;;Konzeptionelle Analyse interdisziplinärer wissenschaftlicher Arbeiten Der Hauptvorteil der interdisziplinären Berufspraxis besteht darin, dass sie neuartige Produktdesigns und Problemlösungen hervorbringen kann. Es erfordert jedoch Wissensaustausch und Integration, um dieses Potenzial zu nutzen. Dieses Papier berichtet über eine Studie mit einer Methode der konzeptionellen Analyse, um konzeptionelle Modelle zu ermitteln, zu analysieren und zu vergleichen, die von einzelnen Forschern verwendet werden, mit dem ultimativen Ziel, Forschern den Austausch und die Integration ihrer konzeptionellen Vorstellungen zu erleichtern. Wir bauen auf einer früheren Studie auf, indem wir ein bestehendes konzeptionelles Modell um konzeptionelle Konzepte von zwei weiteren Forschern aus einem interdisziplinären Forschungsprojekt erweitern. Die Ergebnisse der vorliegenden Studie legen nahe, dass der Zeitaufwand für das Hinzufügen weiterer Informationen zum bestehenden Modell mit jeder Erweiterung des bestehenden Modells sinkt und dass die Methode der konzeptionellen Analyse die konzeptionellen Vorstellungen der Forscher valide wiedergeben kann. Darüber hinaus bieten unsere Ergebnisse einige Hinweise darauf, dass konzeptionelle Analysen Transaktionskosten im Zusammenhang mit Grounding reduzieren können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74255-5_4 1607ec64707bbff07afb6046e1287a3e;de;;;4.2.;;;Neue Entwicklungen und Perspektiven der Physischen Geographie in China Die Physische Geographie ist der Eckpfeiler der Geographie. In diesem Artikel werden die Ansatzpunkte von Disziplinen der Physischen Geographie in den letzten Jahren in China diskutiert. Mit der Kopplung von Systemen als Forschungsgegenstand und der nachhaltigen Entwicklung als Endziel lässt sich die Aufwertung der Physischen Geographie in drei Schritte zerlegen: Physische Geographie aus der Perspektive der Muster-Prozess-Kopplung vertiefen, den Fokus der Physischen Geographie verbessern von Ökosystemprozesse zu Ökosystemleistungen und verbessern das Verständnis der physikalischen Geographie-Forschungskaskade „Muster, Prozess, Leistung, Nachhaltigkeit“. Die Einbeziehung menschlicher Aktivitäten in physisch-geografische Prozesse ist für die Durchführung integrierter Analysen zu physischen und menschlichen Faktoren auf unterschiedlichen Ebenen unerlässlich. Die Entwicklung von Ökosystemdienstleistungsmodellen, die Angebot-Nachfrage und nachhaltige Entwicklung koppeln, ist von großer Bedeutung, um die Rolle von Ökosystemdienstleistungen zwischen der natürlichen Umwelt und dem menschlichen Wohlergehen zu überbrücken. Darüber hinaus sind Mensch-Land-Systeme und nachhaltige Entwicklung zu den Kernbereichen und Grenzen der integrierten Physischen Geographie und sogar der Geographie im Allgemeinen geworden. China steht vor der großen strategischen Forderung, eine ökologische Zivilisation in einer neuen Ära aufzubauen, und die Entwicklung der Disziplinen der Physischen Geographie sollte den vollen Zugang zu den Vorteilen sich überschneidender und umfassender Disziplinen ermöglichen, sich auf die Mensch-Land-Systemmuster, Prozesse und Dienstleistungen in zentralen Forschungsbereichen und disziplinarische Unterstützung für die regionale, nationale und globale nachhaltige Entwicklung.;-;-;-;https://link.springer.com/article/10.1007/s11769-019-1038-y 6f2bdda21a0258f33fea5ff64a42f5e2;de;;;5.2.;;;Design für Zuverlässigkeit Design ist ein riesiges Thema mit unendlichen Verästelungen, ein Thema, das für verschiedene Menschen oft sehr unterschiedliche Bedeutungen hat. Dies ist jedoch wahrscheinlich der Grundstein für Zuverlässigkeit. Bei der Präsentation des James Clayton-Vortrags von 1974 vor der Institution of Mechanical Engineers, der acht Konferenzen oder Symposien dieses Gremiums von Mitte der sechziger bis Mitte der siebziger Jahre zusammenfassen sollte, schloss der Autor „das bedeutende Thema, das immer wieder auftaucht“. wieder auf Konferenzen … … ist die Anpassung des Designs an die Anforderungen des Nutzers in seiner vorgesehenen Umgebung und die Notwendigkeit einer guten Kommunikation, um dies zu erreichen. Der gesunde Menschenverstand sagt uns, dass dies so ist, und die mathematische Theorie unterstützt dies, indem sie die kritische Rolle aufdeckt, die der Sicherheitsabstand und die Belastungsrauheit spielen Alle meine theoretischen und praktischen Studien zu diesem Thema, die sich gegenseitig unterstützen, haben nur in eine Richtung geführt — die Bedeutung von Design und Entwicklung für das Erreichen von Qualität. Das sticht vor allem heraus.“ Es gibt also offensichtlich gute und triftige Gründe, dieses Thema ernst zu nehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-18478-1_10 e871ca107fd0a25a2defac4dc9eea162;de;;;5.2.;;;Die Tragödie des Rächers Unzuverlässige Listen von Theaterstücken, die von zwei Verlegern, Edward Archer 1656 und Francis Kirkman 1661 und 1671, viele Jahre nach der ursprünglichen Bühnenproduktion und Veröffentlichung von als Werbung herausgegeben wurden;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-25800-0_3 131e205bb64eacf430200b80f58fa7b2;de;;;5.2.;;;Neue geografische Standortanalyse Eine wichtige Spezialität in der Regionalwissenschaft ist die Standorttheorie, die durch eine Vielzahl von Methoden und Ansätzen unterstützt wird, allgemein als Standortanalyse bezeichnet. Dieses Kapitel bietet einen Überblick über die neue geografische Standortanalyse. Zu den Themen, die speziell angegangen werden müssen, gehören Überlastung, Streuung und Konzentration, aber auch Marktgröße und Produktionsumfang. Ein Nebenprodukt dieser Bedenken ist, dass Transportkosten, sowohl die Entfernung als auch die Reisezeit, von grundlegender Bedeutung sind. Natürlich spiegeln diese Fragen einige der Grundprinzipien der neuen Wirtschaftsgeographie wider. Ein Großteil der Standortanalyse basiert auf der räumlichen Optimierung, bei der auf mathematische Formalisierung zurückgegriffen wird, um eine Reihe von Modellen zu strukturieren, die bei der Bewertung, Erweiterung und Planung des Service-System-Designs einschließlich Standort und Zuweisung von Einrichtungen verwendet werden. Dies ermöglicht die Ableitung und Anwendung, aber auch die Kommunikation von Zielen, Zielsetzungen und Randbedingungen. Standortentscheidungen, Handels-/Marktgebiete und Routing sind entscheidend, um Waren und Dienstleistungen erschwinglich, machbar und/oder profitabel zu machen. Die Standortanalyse ist jedoch nicht ohne Herausforderungen, darunter der Umgang mit Big Data, Modelllösungen, der Umgang mit Unsicherheitsproblemen und das Verständnis von Kompromissen, die mit mehreren Bedenken verbunden sind.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-642-36203-3_144-1 30106049b8b39b418037d2becb240cdd;de;;;4.2.;;;Politisch engagiert und einsatzbereit Von Suhail, dem Labour-Ratsmitglied in einer nördlichen Gemeinde, Hassan, der Aktivistin der Grünen mit Rucksack und Sana, der Aktivistin der Respect-Partei, die den Kopftuch trägt, bis hin zu Salman, dem HT-Mitglied, das sich für ein Verbot demokratischer Wahlen ausspricht, Noora, die nicht praktizierende muslimische Frau, die zugab, eine Union Jack-Flagge abfackeln und die wütende Jugend aus Halifax, die der Meinung ist, dass militärische Gewalt eine gerechtfertigte politische Aktion ist, untersuchen die nächsten Kapitel die unterschiedlichen Aktivitäten, Meinungen und den Rückzug junger britischer Muslime.;-;-;-;https://link.springer.com/chapter/10.1057/9781137302533_7 7746f2a19bdf76637c3f550c1fcdb2b5;de;;;4.2.;;;Antiprädator-Verhalten: Aggressive und ablenkende Darstellungen von Küstenvögeln Alle Organismen stehen vor zwei großen Aufgaben: Überleben und erfolgreiche Fortpflanzung. Das Überleben hängt größtenteils davon ab, ausreichend Nahrung zu bekommen und Prädation zu vermeiden. Ebenso beinhaltet eine erfolgreiche Fortpflanzung die Gewinnung geeigneter Partner und Brutgebiete, die Bereitstellung von ausreichender Nahrung für die Jungen (oder sie führt sie dorthin) und sie vor Raubtieren zu schützen. Eine solche Pflege erfordert eine angemessene Auswahl des Lebensraums und des Nistplatzes, effiziente Nahrungssuche, Wachsamkeit und eine angemessene Reaktion auf die Bedrohung durch Raubtiere. Eine vorläufige Liste von Kategorien des Antiprädatorverhaltens ist in Tabelle I aufgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-4691-3_8 d91c14053e79e560fad2f5bcfa82a02c;de;;;5.2.;;;Gibt es einen Kompromiss zwischen Wirtschaftlichkeit und einem großzügigen Wohlfahrtsstaat? Ein Vergleich der besten Fälle von „Die drei Welten des Wohlfahrtskapitalismus“ Eine entscheidende Debatte in Politik und Wissenschaft ist die Frage, ob es einen Kompromiss zwischen wirtschaftlicher Effizienz und der Größe/Großzügigkeit des Sozialstaats gibt. Eine Möglichkeit, zu dieser Debatte beizutragen, besteht darin, die Leistung der „besten Fälle“ verschiedener Arten von Staaten zu vergleichen. Im Jahrzehnt 1985/94 waren die USA, Westdeutschland und die Niederlande wohl „beste wirtschaftliche Leistungsträger“ in dem, was Esping-Andersen (1990) als „die drei Welten des Wohlfahrtskapitalismus“ bezeichnet. Die USA sind ein liberal-kapitalistischer Staat, Westdeutschland ein korporatistischer Staat und die Niederlande sind sozialdemokratisch in ihrem Steuer-Transfer-System, aber nicht in ihrer Arbeitsmarktpolitik. Diese drei Länder hatten ebenso hohe oder höhere Wirtschaftswachstumsraten pro Kopf als andere reiche Länder ihres „Typs“ und die niedrigsten Arbeitslosenquoten.;-;-;-;https://link.springer.com/article/10.1023/A%3A1007005619530 b3489e9de1ceb9362fb54f58ae7c5e68;de;;;4.2.;;;Wie man die Selbstmanagementfähigkeiten älterer Menschen durch Selbstbericht misst. Die Entwicklung des SMAS-30 Dieses Papier präsentiert die Ergebnisse von zwei Studien, die durchgeführt wurden, um ein Selbstberichtsinstrument zur Messung der Selbstmanagementfähigkeit (SMAS-30) bei alternden Personen zu entwickeln und zu testen. SMA bezeichnet die zentralen Verhaltens- und kognitiven Fähigkeiten, die vermutlich zu einem nachhaltigen Wohlbefinden im späteren Leben beitragen. Belastbare Ergebnisse der Studien (n=275 und n=1338) zeigten, dass SMA als zusammengesetztes Konzept von Fähigkeiten, die systematisch mit Dimensionen des Wohlbefindens bei Erwachsenen ab 65 Jahren verknüpft sind, zuverlässig gemessen werden kann, wobei die verschiedenen Subskalen a Profil wechselseitiger Fähigkeiten. Eine Teilstichprobe von Teilnehmern in Studie 2 (n=86) zeigte, dass das SMAS-30 über einen Zeitraum von 16 Wochen eine hohe Reproduzierbarkeit aufwies. Die Validität des SMAS-30 wurde in beiden Studien durch sinnvolle Assoziationen mit anderen Konstrukten gestützt. Erwartungsgemäß gilt: Je älter und gebrechlicher die Menschen sind und je schlechter ihr Gesundheitszustand ist, desto niedriger ist ihr SMA. Darüber hinaus stand SMA in positivem Zusammenhang mit mehreren Dimensionen des subjektiven Wohlbefindens und den damit verbundenen Konzepten der allgemeinen Selbstwirksamkeit und -beherrschung.;-;-;-;https://link.springer.com/article/10.1007/s11136-005-8166-9 5e24db41d0c0031fc2ab67d46773b307;de;;;5.2.;;;Der Rückzug von Hsuchow Tausende von Bauern waren durch Bombenangriffe aus der Luft getötet worden. Städte waren in Brand gesteckt und Dörfer verwüstet. Die Armee war geleckt worden, und die Eindringlinge schwärmten in Dutzenden von rasenden Kolonnen auf die verlassene Stadt Hsuchow ein.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-6228-9_10 b55375b4b8f2415867f1a6b333e3e521;de;;;4.2.;;;Eine Wissensperspektive zur E-Demokratie Dieses Papier nimmt eine Perspektive der Informationssystementwicklung in Bezug auf E-Demokratie ein. Es wird eine Fallstudie im Bereich der E-Demokratie, einer Reihe verschiedener Arten von Anwendungen von Informationssystemen, vorgestellt. Diese werden aus drei Wissensperspektiven (kognitiv, sozial und kritisch) diskutiert, wobei ein analytischer Rahmen verwendet wird, der auf einer allgemeinen Richtung im Bereich des Wissensmanagements basiert. Die Lehre aus der Fallstudie ist, dass die volle Unterstützung aus all diesen Perspektiven erforderlich ist, um den IS zu einer wirksamen Unterstützung demokratischer Prozesse zu machen. Die Analyse zeigt, dass es sich nicht um ein technisches Problem handelt, die meisten Arten von Support sind leicht verfügbar und in Gebrauch. In diesem Bereich gibt es die Einsicht, dass Erfolg auf einer Übereinstimmung zwischen dem IS, dem Verständnis demokratischer Prozesse und den Erwartungen der Menschen beruht. Das Problem scheint darin zu bestehen, dies in eine Systementwicklungsperspektive umzuwandeln. Hier könnten Erkenntnisse aus dem Wissensmanagement unterstützend wirken.;-;-;-;https://link.springer.com/chapter/10.1007/10929179_57 67dd6bc25ea133d9bbc65d9c3c6bca78;de;;;4.2.;;;Ein kollaboratives Netzwerkmodell für Agrarlebensmitteltransaktionen auf regionaler Basis Das Papier befasst sich mit einem kollaborativen Agrarnahrungsmittelnetzwerk in einem regionalen Szenario, in dem Hersteller von hochwertigen und hochwertigen Waren und Verbrauchergruppen an Agrarnahrungsmitteltransaktionen sowie am Informations- und Wissensaustausch über eine E-Business-Plattform beteiligt sind. Während die Hersteller damit beschäftigt sind, den Verbrauchern nützliche und zeitnahe Informationen über Gesundheit, Umweltfreundlichkeit und vor allem die Lebensmittelqualität ihrer Produkte zur Verfügung zu stellen, sind die Verbraucher bemüht, den Herstellern schnelle und verständliche Rückmeldungen zu geben. In diesem Sinne ist das Netzwerk eine Form einer proaktiven Lerngemeinschaft. Ausgehend von einigen grundlegenden sozioökonomischen Annahmen zu einem Referenzgebiet präsentieren wir ein Organisationsmodell, das zur Förderung der Entwicklung des regionalen Gebiets, in dem es angewendet wird, übernommen werden kann. Eine Instanziierung des Modells für ein ausgewähltes Gebiet (der Bezirk für hochwertige Produktionen in Sibari, Kalabrien, Italien) und erste Ergebnisse aus zwei Pilotversuchen wurden ebenfalls zusammengefasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16324-1_34 49cbdc3513e83d3cec7a271b1d4d10eb;de;;;4.2.;;;Beratung des Jurors Es ist eine anerkannte Tatsache, dass nur ein kleiner Prozentsatz der Strafverfahren vor Gericht gestellt wird, und von diesen ist der Anteil, der von Geschworenen verhandelt wird, nicht groß (U.S. Bureau of the Census, 1976). Trotz der relativ geringen Rolle, die Geschworenen in unserem Justizsystem spielen, bleibt das Interesse an der Funktionsfähigkeit von Geschworenen jedoch besonders groß. Dies kann verschiedene Gründe haben. Erstens ist die Jury die wichtigste Quelle gesellschaftlicher Sitten (abgesehen natürlich von der Legislative) und sie bringt soziale Werte direkt in das Justizsystem ein (Tocqueville, 1956). Dies ist in der Tat einer der Gründe für die Schaffung von Jurys (Wigmore, 1929, siehe auch Kaplan & Schersching, 1980). Zweitens besteht die Jury aus Laien, die relativ unwissend im Recht sind. Diese Situation bietet die Möglichkeit, die Reaktion der Öffentlichkeit auf die Gesetze, die sie regeln, zu beobachten. Drittens verarbeitet die Jury unterschiedliche Informationen aus unterschiedlichen Quellen, um zu einem einzigen Urteil mit moralischen Untertönen zu gelangen. Dies geschieht zunächst auf individueller Ebene und dann im Gruppenkontext nach Diskussion der Informationen. Die psychologischen Prozesse der Informationsverarbeitung und der Gruppeninteraktion machen die Jury für die Untersuchung sozialpsychologischer Prozesse, sowohl intra- als auch interpersonal, hoch attraktiv. In diesem Kapitel wird untersucht, wie Geschworene die Informationen verarbeiten, die sie im Laufe des Prozesses erhalten, und insbesondere die Auswirkungen der Beratungen der Geschworenen auf das Urteil des einzelnen Geschworenen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-3767-6_7 2d979453f0a1c251902c6ceff06075a9;de;;;4.2.;;;Europäische Eliten zur Europäischen Union: Welche Vision für die Zukunft? Was ist die EU, was soll sie sein, wie weit soll sie sich ausdehnen und was soll sie tun? Das sind Fragen, die sich die europäischen Eliten jetzt stellen. Aber es gibt wenig Übereinstimmung. Das Problem ist nicht nur, dass sich die politischen Eliten der 27 Mitgliedstaaten in ihren Vorstellungen von der Europäischen Union und der Rolle ihrer Länder darin unterscheiden. Sie haben auch sehr unterschiedliche Vorstellungen davon, was die EU sein sollte, wie weit sie in Bezug auf das Territorium gehen sollte und was sie in der Welt tun sollte.;-;-;-;https://link.springer.com/chapter/10.1057/9780230246188_14 65dea38da4491a69d8212e392ea0cef2;de;;;4.2.;;;Trends in der britischen Einkommensverteilung Dieser Artikel gibt einen Überblick über die Trends der letzten drei Jahrzehnte in der persönlichen Einkommensverteilung im Vereinigten Königreich. Der erste Abschnitt des Papiers dokumentiert die Trends aus verschiedenen Perspektiven (Ungleichheit, Armut und Realeinkommenswachstum). Spätere Abschnitte untersuchen die Ursachen für die starke Zunahme der Einkommensungleichheit im Vereinigten Königreich zwischen Ende der 1970er und Anfang der 1990er Jahre und den Stillstand des Anstiegs in den folgenden fünf Jahren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-57232-6_7 a50a04e3007d5339b24ed3739d0c6c16;de;;;4.2.;;;Die Lebensqualität erwachsener Patientinnen mit angeborener Nebennierenhyperplasie: Eine umfassende Studie über die Auswirkungen von genitalen Fehlbildungen und chronischen Erkrankungen auf das Leben von Patientinnen Weibliche Patienten mit angeborener Nebennierenhyperplasie wurden häufig untersucht, um den Einfluss einer pränatalen Androgenexposition auf verschiedene Aspekte der psychologischen, psychosozialen und psychosexuellen Entwicklung zu bestimmen. Es gibt keine veröffentlichte Studie, die den Einfluss von Genitalfehlbildungen, Genitaloperationen und chronischer Medikation auf die Lebensqualität bei erwachsenen Frauen mit angeborener Nebennierenhyperplasie untersucht. Wir führten eine Bewertung der Lebensqualität bei erwachsenen weiblichen Patienten mit angeborener Nebennierenhyperplasie aufgrund eines 21-Hydroxylierungsdefekts durch. Die Patienten wurden gebeten, Fragebögen zu den vier Bereichen der gesundheitsbezogenen Lebensqualität, nämlich körperlicher Zustand, psychisches Wohlbefinden, soziale Beziehungen und Funktionsfähigkeit, sowie Fragebögen zu den Bereichen psychosexuelle Identifikation und psychosoziale Integration auszufüllen. Zusätzlich wurde ein semistrukturiertes Interview zur Anamnese sowie zur körperlichen, emotionalen, sozialen und psychosexuellen Entwicklung durchgeführt. Die Ergebnisse wurden mit einem computergestützten Statistikprogramm für die Sozialwissenschaften ausgewertet. 45 Patienten stimmten der Teilnahme zu (44 konnten befragt werden) und ihre medizinischen Daten unterschieden sich nicht von den 20 Patienten (medizinische Daten lagen von 16 Patienten vor), die die Teilnahme verweigerten. Das mediane Alter zum Zeitpunkt der Diagnose lag bei 54,8 der teilnehmenden Patienten unter 1 Jahr, die Spanne reichte von 0 bis 30 Jahren. Von den Teilnehmern litten 48,6%, 34,2% und 17,2% an der einfach-virilisierenden, salzverschwendenden und spät einsetzenden Form der kongenitalen Nebennierenhyperplasie. Die mittlere Erwachsenengröße betrug 157,8 cm und das mittlere Gewicht 56,8 kg. In 35,7% wurde der Grad der genitalen Virilisierung als Prader-Stadium 3 oder 4 eingestuft. Die Patienten mit der salzverschwendenden Form waren bei der Geburt signifikant stärker virilisiert als die mit der einfach-virilisierenden Form, was zu mehr Genitaloperationen und mehr Komplikationen im späteren Leben führte . Die Patienten unterschieden sich in einigen Aspekten signifikant von den Kontrollen. Sie waren häufiger alleinstehend (47,8% vs. 66,7%) und hatten weniger Kinder (22,2% vs. 38,6%). Patienten mit der salzverschwendenden Form der angeborenen Nebennierenhyperplasie hatten auch mehr Probleme beim Aufbau heterosexueller Beziehungen und bei der Empfängnis und dem Gebären von Kindern. Die homosexuelle Präferenz wurde nicht erhöht. Darüber hinaus wurden signifikante Beeinträchtigungen hinsichtlich der psychosexuellen Identifikation festgestellt, die jedoch in Bezug auf die Krankheitsanpassung und den Bezug von sozialer Unterstützung erfolgreich waren. Die allgemeine Lebensqualität war bei Patienten und Kontrollpersonen nicht signifikant unterschiedlich. Obwohl die Patienten an einer chronischen Erkrankung und angeborenen Fehlbildungen litten, die ihr Körperbild, ihre weibliche Identität und ihre psychosexuelle Identifikation erheblich beeinträchtigten, konnte keine Auswirkung auf die Lebensqualität insgesamt festgestellt werden. Die gefundenen Unterschiede in Bezug auf soziale Unterstützung und Krankheitsverarbeitung können Mechanismen sein, die sie entwickelt haben, um sie zu bewältigen. Diese Mechanismen scheinen hilfreich und notwendig zu sein, um trotz Beeinträchtigung ein hohes Wohlbefinden zu erhalten, das sich wiederum in einer hohen Lebensqualität widerspiegelt.;-;-;-;https://link.springer.com/article/10.1007/BF02276713 d8558c06bd4792eec5ea4e7377d07f02;de;;;4.2.;;;Bereitstellung von Outclinic-Diensten Die Implementierung und Evaluierung wirksamer Verhaltenstherapien wird am häufigsten in kontrollierten Umgebungen durchgeführt, wie z. B. in stationären Einrichtungen, Wohneinrichtungen oder Klassenzimmern. Dies liegt daran, dass diese Einstellungen Möglichkeiten zur direkten Beobachtung über längere Zeiträume bieten. Die direkte Beobachtung von Verhaltenstrends in Verbindung mit Messungen der Behandlungsintegrität liefert die Informationen, die zur Bewertung der funktionellen Kontrolle erforderlich sind (d. h. die Beziehung zwischen den unabhängigen und abhängigen Variablen kann innerhalb der Probanden im Zeitverlauf und über die Behandlungsbedingungen hinweg direkt bewertet werden). Die funktionelle Kontrolle des Verhaltens ist eine notwendige Voraussetzung für die Definition einer wirksamen Behandlung, und daher wird der Großteil der Verhaltensforschung in kontrollierten Umgebungen durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-9374-1_12 f29e93954d28d6f3052f9532e1c7e1e4;de;;;5.2.;;;Medienübergreifender Abruf basierend auf linearer Diskriminanzanalyse Bestehende Cross-Media-Retrieval-Ansätze projizieren in der Regel Low-Level-Merkmale aus unterschiedlichen Datenmodalitäten in einen gemeinsamen Teilraum, in dem die Ähnlichkeit multimodaler Daten direkt gemessen werden kann. Die meisten der bisherigen Subraum-Lernverfahren ignorieren jedoch die Unterscheidungseigenschaft multimodaler Daten, die zu einer suboptimalen medienübergreifenden Abrufleistung führen kann. Um dieses Problem anzugehen, schlagen wir einen neuartigen Ansatz für ein Cross-Media-Retrieval-Framework vor, das auf der Linear Discriminant Analysis (LDA) basiert, das die Korrelation zwischen Textmerkmalen und visuellen Merkmalen integriert, um ein Paar Projektionsmatrizen zu lernen, damit wir die niedrig- Ebene heterogene Features in einen gemeinsamen Feature-Raum durch die Transformationsmatrizen. Somit wird das diskriminative Merkmal der Textmodalität über das Korrelationsanalyseverfahren auf die entsprechenden visuellen Merkmale übertragen. Experimente mit drei Benchmark-Datensätzen zeigen die Wirksamkeit unseres Ansatzes.;-;-;-;https://link.springer.com/article/10.1007/s11042-018-6994-1 ab296c3a159c6dfeb6214d73f167e188;de;;;4.2.;;;Pin Ups und politische Leidenschaften: Staatsbürgerschaftsansprache in Männermagazinen der Nachkriegszeit Männerzeitschriften wurden meist im Hinblick auf Darstellungen männlicher Sexualität und heteronormativer, männlicher Identität analysiert. Die finnischen Männerzeitschriften der Nachkriegszeit der späten 1940er und 1950er Jahre waren jedoch eher Publikationen mit politischer Agenda. Männerzeitschriften haben sich an den laufenden politischen Debatten beteiligt und ihre impliziten männlichen Leser als Bürger angesprochen. Darüber hinaus stellten Männermagazine die vorherrschenden, negativen Darstellungen finnischer Männer als gewalttätige Betrunkene in Frage, indem sie die Idee des „gemeinen Gentlemans“ umrissen. Theoretisch stützt sich das Kapitel auf Robert Asens (Communication Theory 10(4): 424–446, 2000) kritische Neudefinition von Nancy Frasers Konzept der Gegenöffentlichkeit. Anstatt davon auszugehen, dass Gegenöffentlichkeiten auf Rasse, Klasse, Geschlecht oder Sexualität als historisch dominierte oder unterdrückte soziale Kategorie beschränkt sind, schlägt Asen vor, dass Gegenöffentlichkeiten in jedem sozialen Kontext entstehen können. Dieses Kapitel argumentiert für die gegenöffentlichen Funktionen von Männerzeitschriften in einem spezifischen zeitlichen Kontext, dem Nachkriegsfinnland. Männermagazine boten in diesen turbulenten Jahren männlichen Fantasien in Sachen Sexualität und Engagement sowie politisch orientierten Zukunftsvisionen ein Forum.;-;-;-;https://link.springer.com/chapter/10.1057/978-1-137-51765-4_12 a610e73413d7e7f009497ccd6775f705;de;;;4.2.;;;Sprachliche Merkmale der mündlichen Erzählungen Wir haben zuvor diskutiert, wie soziolinguistische Variablen und Themen die Art und Weise beeinflussen können, wie eine Person spricht, erzählt und mit anderen Sprechern interagiert. Zweifellos gibt es für alle Erzählgenres und Narrationen typische, aber dennoch genrespezifische. Die allgemeinen sprachlichen Merkmale der Erzählung, die sowohl in persönlichen Erzählungen als auch in Volkserzählungen zu finden sind, lassen sich in vier Hauptabschnitte unterteilen: Erzählmittel, literarische Mittel, grammatikalische Mittel und lexikalische Besonderheiten.;-;-;-;https://link.springer.com/chapter/10.1057/9781137325761_7 69cb3b0d7888688ae530ed0d315fc3c1;de;;;5.2.;;;Hauptsächlich psychogene Dermatosen Bei rein psychogenen Dermatosen steht die psychiatrische Störung im Vordergrund, somatische Befunde treten sekundär auf. Dies sind die direkten Folgen psychischer oder psychiatrischer Störungen. In der Dermatologie gibt es vier Haupterkrankungen mit primär psychiatrischer Genese. Störungen der primär psychiatrischen Genese;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-34719-4_3 32e04ead862882029986140f4e1d5940;de;;;4.2.;;;"Theorie und Praxis von ICT4D neu denken. Eine Analyse des im Weltbankbericht 2016 eingebetteten Diskurses Obwohl Entwicklungsstudien/-theorien in allen Bereichen der globalen Entwicklung von entscheidender Bedeutung sind, wurde argumentiert, dass Studien zur Informations- und Kommunikationstechnologie für die Entwicklung (ICT4D) den Kontroversen um die Entwicklung wenig Beachtung geschenkt haben. Ich argumentiere, dass die gesamte ICT4D-Forschung die Bedeutung von Entwicklung aufdeckt, aber dies ist oft implizit, und diese Bedeutung kann mit Techniken wie der Diskursanalyse (CDA) aufgedeckt werden. Die Studie ist eine CDA des World Bank Report 2016 on Digital Dividends (WDR16), um zu veranschaulichen, wie CDA angewendet werden kann, um implizite Ansichten der Entwicklung, die in ICT4D-Studien eingebettet sind, aufzudecken. Im Zentrum der Studie steht die in jüngster Zeit zunehmende Betonung von IKT für die Entwicklung mit Fokus auf zeitgenössische Prozesse des sozialen Wandels, die in der kritischen Diskursanalyse (CDA) unterschiedlich mit Begriffen wie ""Neoliberalismus"", ""Globalisierung"", ""Informationsgesellschaft"" identifiziert werden. und „wissensbasierte Wirtschaft“. Obwohl der Bericht wegen der Überbetonung der positiven Beiträge von ICT4D kritisiert werden kann, muss er dafür gelobt werden, dass Entwicklung nicht nur als marktbezogen, sondern als ganzheitlicher Prozess betrachtet wird, der andere sozioökonomische Entwicklungsthemen wie Armutsbekämpfung, menschliche Entwicklung und Menschenwürde abdeckt . Es ähnelte großen Veränderungen im ICT4D-Denken von 2000 bis 2010, was eine Abkehr von der technozentrischen Sichtweise war.";-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-19115-3_12 de49313825e79ca1ae94d35790833305;de;;;4.2.;;;Medicare- und Medicaid-Koordination: Sonderfall des doppelten Anspruchsberechtigten Der Affordable Care Act von 2010 (ACA) enthält Bestimmungen in Bezug auf die Kosten und die Qualität der Pflege, die von doppelt berechtigten Medicare- und Medicaid-Empfängern erhalten wird. Mehr als neun Millionen Medicare-Leistungsempfänger nehmen auch am Medicaid-Programm teil. 60 Prozent sind 65 Jahre und älter. Viele Patienten mit doppelter Anspruchsberechtigung und ihre Betreuer haben Schwierigkeiten, sich im Gesundheitssystem zurechtzufinden. Die Aufteilung von Verantwortung und Finanzierung über die Medicare- und Medicaid-Programme hinweg verschärft diese Probleme nur. Vor der Verabschiedung des Rechnungshofs konzentrierten sich 2003 genehmigte Pläne für besondere Bedürfnisse auf bestimmte Untertypen von doppelt anspruchsberechtigten Personen mit der Absicht, die Finanzierung und Bereitstellung der Versorgung für das gesamte Spektrum der Gesundheitsversorgung zu integrieren. Das Programm der All-Inclusive-Pflege für ältere Menschen ist ein erfolgreiches Beispiel für ein nahtlos integriertes Programm, das Medicare- und Medicaid-Leistungen in einem Bereitstellungssystem vereint. Der Rechnungshof hat das Eidgenössische Amt für koordinierte Gesundheitsfürsorge (BKA) eingerichtet. Im Jahr 2011 begann die FCHCO die Medicare-Medicaid Financial Alignment Demonstration. Das Programm ermöglicht es den staatlichen Medicaid-Büros, innovative Ansätze zur Verbesserung der Koordination der Pflege für die doppelt anspruchsberechtigte Bevölkerung zu entwickeln und gleichzeitig Effizienz und Anreize zu schaffen, die die Pflegekosten senken. Anfang 2014 hatten acht Staaten mit CMS unterzeichnete Vereinbarungen zur Initiierung von Demonstrationen abgeschlossen. Die klinische Führung von Geriatrieanbietern ist in Kombination mit den Bemühungen der Verbraucheranwaltschaft von entscheidender Bedeutung, um sicherzustellen, dass die finanziellen Anreize in den Demonstrationen der integrierten Versorgung so ausgerichtet sind, dass eine optimale Versorgung gefährdeter älterer Erwachsener gewährleistet ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09510-3_7 f5cd9d226bf9494a2ccd403250e8325f;de;;;5.2.;;;Die absoluten Größen der RR-Lyrae-Sterne Die absoluten Helligkeiten pulsierender veränderlicher Sterne, sowohl der RR-Lyrae-Sterne als auch der Cepheiden-Variablen, können aus der Beobachtung auf drei Arten beurteilt werden: nach der klassischen Methode der statistischen Parallaxen, durch ihr Vorkommen in Sternhaufen, deren Entfernung sonst bekannt ist, insbesondere durch die Bestimmung der Position der Hauptreihe im HR-Diagramm und nach der Baade-Wesselink-Methode zur Bestimmung des Sterndurchmessers.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-3102-8_86 9b276bb9c007caafa8d478632520b225;de;;;5.2.;;;Enzyme, die am Stoffwechsel pflanzlicher Allelochemikalien beteiligt sind Pflanzenfressenden Insekten stehen zwei Hauptmechanismen zur Verfügung, durch die sie nachteilige Wirkungen von defensiven Pflanzenallelochemikalien vermeiden. Eine besteht aus Verhaltensanpassungen bei der Wirtssuche (Ahmad, 1983a) und der Fütterung (Frazier, Kapitel 1 und Tallamy, Kapitel 8 in diesem Text). Das andere ist ein Komplex aus mehreren Enzymen, die zusammen einige wenige aufgenommene Pflanzenchemikalien davor bewahren, in einen oder mehrere Metaboliten umgewandelt zu werden, die verwertet oder eliminiert werden können. Wir werden in diesem Kapitel einen Überblick über diese Enzyme geben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-1865-1_3 9606e1ec93bd003885c39a56937d2229;de;;;4.2.;;;Stressquellen in der Wissenschaft – der Fall Israel Die Auswirkungen von Stress auf das körperliche und psychische Wohlbefinden von Menschen in verschiedenen Berufen und Berufen sind in den letzten zehn Jahren in den Mittelpunkt des Interesses von Forschern und Klinikern gerückt. Es gibt immer mehr Belege dafür, dass Stress die Leistung, Produktivität, Arbeitszufriedenheit, Gesundheit und die allgemeine Lebensqualität von Fachkräften und Menschen im Allgemeinen beeinträchtigt (Farber, 1983, Lazarus & Folkman, 1984). Ursprünglich konzentrierte sich die Stressforschung auf die Berufe „Helfende Berufe“ und „Personaldienstleistungen“ (Cherniss, 1980, Farber, 1983). In jüngerer Zeit wurden auch andere Berufe untersucht, die kontinuierliche, intensive zwischenmenschliche Beziehungen beinhalten und als potenzielle Stressquelle gefunden wurden (Holt, 1982). Das wachsende Interesse an der Erforschung von Stress und seinen Erscheinungsformen führte unter anderem zu neu definierten Begriffen wie: Burnout, Langeweile, Abnutzung, Totholz, Midlife Crisis etc. (Maslach und Jackson, 1979, Manuso, 1979, Freudenberger, 1980 , Pines, Aronson und Kafry, 1981, Farber, 1983).;-;-;-;https://link.springer.com/article/10.1007/BF00138093 a4af1abdb0b173a0b4c2f9216d29d52f;de;;;5.2.;;;Zirkular geklammerte Hämorrhoidopexie: Erfahrung eines einzigen Zentrums mit 445 Fällen Diese Studie wurde entwickelt, um die Ergebnisse der zirkulären Staplerhämorrhoidopexie (CSH) bei der Behandlung von Hämorrhoidalerkrankungen zweiten, dritten und vierten Grades zu überprüfen. Die Krankenakten von 483 Patienten, die sich von Juni 2001 bis September 2006 einer zirkulären Staplerhämorrhoidopexie wegen einer symptomatischen Hämorrhoidalerkrankung unterzogen hatten, wurden ausgewertet. Es wurden Daten zu Komplikationen, Restsymptomen und Rezidiven erhoben. An der Studie nahmen 445 Patienten (283 Männer, 162 Frauen) zwischen 22 und 74 Jahren (Medianalter 39 Jahre) teil. Dies waren 92 % aller Patienten. Bei 106 (24,0 %), 83 (18,5%) bzw. 20 (4,5 %) Patienten wurde eine gleichzeitige laterale interne Sphinkterotomie, Exzision der Hautanhängsel und Entfernung von Thromben durchgeführt. Die mediane Operationsdauer betrug 24 Minuten (10–45 Minuten). Der mediane Krankenhausaufenthalt betrug 40 Stunden (11–72 Stunden). Komplikationen während der ersten 24 Stunden waren Stuhldrang (25%), Harnverhalt (8%) und rektale Blutungen (1%). Pruritus ani (21 %), thrombosierte äußere Hämorrhoiden (4 %), Stapellinienstenose (2 %), rektale Blutungen (2 %), Analfissur (1%) und anhaltende Hautflecken (3 %) waren die Symptome, die während die Langzeitbegleitung. Die mediane Nachbeobachtungszeit betrug 23 Monate (6–70 Monate). Die Rezidivrate betrug 1%. Die zirkuläre Staplerhämorrhoidopexie kann sicher mit geringer Rezidiv- und Komplikationsrate durchgeführt werden und bietet dem Patienten eine relativ schmerzfreie postoperative Phase.;-;-;-;https://link.springer.com/article/10.1007/s00268-008-9627-4 39d1e60d062d08b356b842ca1dd2bf75;de;;;5.2.;;;Unüberwachte Änderungserkennung in multitemporalen SAR-Bildern mit MRF-Modellen Es wird ein unüberwachtes Änderungserkennungsverfahren vorgeschlagen, das die räumlichen Kontextinformationen in einem Log-Ratio-Differenzbild berücksichtigt, das aus multitemporalen SAR-Bildern erzeugt wird. Ein Markov-Random-Field(MRF)-Modell wird insbesondere verwendet, um die statistische räumliche Korrelation von Intensitätspegeln zwischen benachbarten Pixeln auszunutzen. Unter der Annahme der Pixelunabhängigkeit und der gemischten Gaußschen Verteilung im Log-Ratio-Differenzbild wird ein stochastischer und iterativer EM-MPM-Änderungserkennungsalgorithmus basierend auf einem MRF-Modell entwickelt. Der EM-MPM-Algorithmus basiert auf einem Maximizer of Posterior Margins (MPM)-Algorithmus zur Bildsegmentierung und einem Erwartungsmaximum (EM)-Algorithmus zur vollautomatischen Parameterschätzung. Die an multitemporalen ERS-2 SAR-Bildern erhaltenen Versuchsergebnisse zeigen die Wirksamkeit der vorgeschlagenen Methode.;-;-;-;https://link.springer.com/article/10.1007/s11806-007-0051-y 0a1c4aebcde6d46b51e90312aeead8eb;de;;;5.2.;;;Apfelbäume für Brennholz: James Buchanans Plädoyer für eine ausgeglichene Haushaltsänderung im Kontext der US-Finanzpolitik Während seiner gesamten akademischen Laufbahn war James Buchanan zutiefst besorgt über die Neigung konstitutioneller Demokratien, sich zu verschulden. Er befürchtete, dass der Prozess der Anhäufung der Staatsverschuldung die Steuerlast für den Einzelnen in einem Ausmaß erhöhen würde, das letztendlich steuerlich nicht tragbar und freiheitsfeindlich wäre. Dieses Papier verwendet das Beispiel der USA, um eher in konkreten als in abstrakten Modellen zu veranschaulichen, dass Buchanan durch die Fakten bestätigt zu sein scheint. Ihn als Untergangssünder beiseite zu schieben und seinen Vorschlag für eine ausgeglichene Haushaltspolitik von der Hand zu weisen, wäre unangemessen.;-;-;-;https://link.springer.com/article/10.1007/s41412-019-00089-2 20486635335d930e27374d8c0718c761;de;;;5.2.;;;Der europäische Konfliktführer Dieser Artikel beschreibt ein Projekt, bei dem versucht wurde, ein Expertensystem mit einer Hypertextdatenbank von primärem und sekundärem Textmaterial zu integrieren. Unsere gewählte Rechtsdomäne war die der;-;-;-;https://link.springer.com/article/10.1007/BF00186725 8dbd172a75f5b29082853d3996a5088e;de;;;4.2.;;;Ableiten ungewöhnlicher Crowd-Ereignisse aus den Detailaufzeichnungen von Mobiltelefonanrufen Die Verbreitung und Verfügbarkeit von Mobilfunkdaten bietet die Möglichkeit, verwertbares Wissen über das Verhalten von Menschenmengen in urbanen Umgebungen zu entdecken. Städte können dieses Wissen nutzen, um bessere Dienstleistungen (z. B. Planung des öffentlichen Verkehrs, optimierte Ressourcenzuweisung) und eine sicherere Umgebung bereitzustellen. Call Detail Record (CDR)-Daten stellen eine praktische Datenquelle dar, um ungewöhnliche Ereignisse zu erkennen und zu überwachen, wenn man die hohe Mobiltelefondurchdringung im Vergleich zu mit GPS ausgestatteten und offenen Geräten berücksichtigt. In diesem Papier schlagen wir eine Methodik vor, die in der Lage ist, ungewöhnliche Ereignisse aus CDR-Daten zu erkennen, die typischerweise eine geringe Genauigkeit in Bezug auf die räumliche und zeitliche Auflösung aufweisen. Darüber hinaus stellen wir ein Konzept für ungewöhnliche Ereignisse vor, an dem eine große Anzahl von Menschen beteiligt ist, die ein ungewöhnliches Mobilitätsverhalten aufweisen. Unsere sorgfältige Betrachtung der Probleme, die sich aus grobkörnigen CDR-Daten ergeben, führt letztendlich zu einem völlig allgemeinen Rahmen, der ungewöhnliche Crowd-Ereignisse aus CDR-Daten effektiv und effizient erkennen kann. Durch umfangreiche Experimente mit realen CDR-Daten für eine Großstadt in Afrika zeigen wir, dass unsere Methode ungewöhnliche Ereignisse mit 16% höherer Erinnerung und über 10 . erkennen kann;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23525-7_29 3a4d4da72e8d1c5252a91a9134d869c8;de;;;5.2.;;;Grippe-Trend-Tracker in sozialen Netzwerken: Ein neuartiger sensorischer Ansatz zur Vorhersage von Grippe-Trends Saisonale Influenza-Epidemien verursachen weltweit jährlich mehrere Millionen Krankheitsfälle und etwa 250.000 bis 500.000 Todesfälle. Andere Pandemien wie die „Spanische Grippe“ von 1918 können zu einem verheerenden Ereignis werden. Die Verringerung der Auswirkungen dieser Bedrohungen ist für die Gesundheitsbehörden von größter Bedeutung, und Studien haben gezeigt, dass wirksame Maßnahmen zur Eindämmung der Epidemien ergriffen werden können, wenn eine Früherkennung durchgeführt wird. In diesem Papier stellen wir Social Network Enabled Flu Trends (SNEFT) vor, ein kontinuierliches Datenerfassungs-Framework, das grippebezogene Nachrichten in sozialen Online-Netzwerken wie Twitter und Facebook überwacht und das Auftreten und die Ausbreitung einer Influenza verfolgt. Wir zeigen, dass Text Mining die Korrelation zwischen den Daten sozialer Online-Netzwerke (OSN) und den von den Zentren für die Kontrolle und Prävention von Krankheiten (CDC) bereitgestellten Influenza-ähnlichen Erkrankungen (ILI) signifikant verbessert. Für eine genaue Vorhersage haben wir ein Autoregressionsmodell mit exogenem Input (ARX) implementiert, das aktuelle OSN-Daten und CDC-ILI-Raten aus den vergangenen Wochen verwendet, um aktuelle Influenza-Statistiken vorherzusagen. Unsere Ergebnisse zeigen, dass, während frühere ILI-Daten der CDC eine echte (aber verzögerte) Bewertung einer Grippeepidemie bieten, OSN-Daten eine Echtzeitbewertung des aktuellen epidemischen Zustands liefern und verwendet werden können, um das Fehlen aktueller ILI zu kompensieren Daten. Wir stellen fest, dass die OSN-Daten in verschiedenen Regionen innerhalb der USA stark mit den ILI-Raten korreliert sind und verwendet werden können, um die Genauigkeit unserer Vorhersage effektiv zu verbessern. Daher können OSN-Daten als zusätzlicher Indikator zur Messung der Influenza innerhalb einer Bevölkerung dienen und helfen, Grippetrends vor der CDC zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38256-7_24 fca987d735d34f12bc4db28cf7c847e0;de;;;4.2.;;;Gestaltung einer Lernumgebung für die Managementausbildung In den letzten Jahren gab es eine breite Debatte über Nutzungsmuster von Social Computing und Web 2.0-Tools in Lernkontexten. Eine wachsende Zahl von Forschern ist der Meinung, dass bestimmte pädagogische Ansätze in diesen Kontexten am besten geeignet sind, da sie aktives Engagement, soziales Lernen, kontinuierliches Feedback, ein autonomes Verständnis der Schüler und den Transfer dieser Fähigkeiten in nützliche oder reale Umgebungen beinhalten. In diesem Artikel stellen wir die Nutzung eines sozialen Netzwerks im Rahmen eines formalen Managementkurses an der Universität Pisa vor. Das institutionelle VLE – basierend auf Moodle – wurde in eine auf Ning gehostete studentische Selbsthilfegruppe integriert. In Kleingruppen wurden Probleme und Möglichkeiten der Ning-Nutzung besprochen, und es wird über Rückmeldungen der Schüler berichtet. Der Wechsel vom Lernmanagementsystem (kurszentriert) zu einer persönlichen Lernumgebung (menschenzentriert) und dann zu einem persönlichen Lernnetzwerk wird ebenfalls diskutiert und ein Rahmen für Bildung 2.0 wird bereitgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16318-0_62 51a1904a74c16954cc1b0c898bb49c83;de;;;4.2.;;;Kontrolle der Eierstockaktivität Das limbische System ist ein phylogenetisch alter Teil des Gehirns, bestehend aus dem limbischen Lappen und verschiedenen subkortikalen Bereichen, die bilateral mit dem Hypothalamus verbunden sind, mit Bereichen von Peptidergen Neuronen, die GnRH produzieren (Übersicht siehe 537). Die ursprüngliche Vorstellung, dass dieser Teil des Gehirns insbesondere dem Geruchssinn (Rhinencephalon) dient, wurde aufgegeben. Es werden zwei Hauptfunktionssysteme unterschieden, der sogenannte Amygdaloidkreis und der Septumkreis mit dem Hippocampus. Beide Systeme sind an der Kontrolle der gonadotropen Hypophysenfunktion beteiligt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-8195-9_3 d2cf006ca11787c72c8b1d29f9839fef;de;;;4.2.;;;Afrikanische Jugendliche und die Gefahren sozialer Netzwerke: ein kulturzentrierter Ansatz zur Nutzung sozialer Medien Mit steigenden Zahlen von Facebook-, Twitter- und MXit-Nutzern gewinnt Afrika zunehmend an Bedeutung im Bereich der sozialen Netzwerke. Soziale Medien werden immer mehr zum Mainstream und dienen als wichtige Instrumente zur Erleichterung zwischenmenschlicher Kommunikation, Geschäfts- und Bildungsaktivitäten. Qualitative Analysen relevanter Sekundärdaten zeigen, dass Kinder und Jugendliche im Alter zwischen 13 und 30 Jahren Afrikas stärkste Nutzer von Social Media sind. Medienberichte haben Fälle von Missbrauch in sozialen Medien durch Jugendliche aufgedeckt. Soziale Netzwerke wurden mehrfach als Instrumente zur Aufrechterhaltung von Verbrechen wie Cybermobbing und Gewalt gegen Mädchen und Frauen verwendet. Diese Studie schlägt einen „kulturzentrierten Ansatz“ für die Nutzung sozialer Medien vor, um diese Cyberkriminalität zu minimieren und die verantwortungsvolle Nutzung sozialer Medien unter afrikanischen Jugendlichen zu fördern. Der kulturzentrierte Ansatz, der die Grundsätze der Informationsethik einbezieht, betont die Notwendigkeit der Achtung der Würde und der Rechte anderer Online-Nutzer sowie der Anwendung guter kultureller Werte und ethischem Verhalten auf Social-Media-Plattformen.;-;-;-;https://link.springer.com/article/10.1007/s10676-013-9333-2 c1dc789f51b98af5983003347bc8de5c;de;;;4.2.;;;Die „ökonomische Methode“ und ihre ethische Komponente: Pluralismus, Objektivität und Werte im Capability-Ansatz von Amartya Sen Dieses Papier befasst sich mit kritischen methodischen Fragen, die durch die Reduktionismus-Einfachheit und das geringe Interesse an der Fairness der orthodoxen wertfreien Ökonomie aufgeworfen werden, indem es sich auf Professor Amartya Sens ethische Überprüfung der Grundlagen der Wohlfahrtsökonomie konzentriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-52500-2_11 1a2196bddbbad5ac7240ebb8d4464ccd;de;;;4.2.;;;Verbraucherzeitschriften in Argentinien: Ein Markt zur Erholung Die Analyse des Zeitschriftenmarktes in Argentinien lässt sich in folgender Aussage zusammenfassen: „Die verkaufte Auflage und der Vertrieb über Kioske bestimmen Größe, Struktur und Wachstumsmöglichkeiten der Branche“. Die Aussage bezieht sich auf die auf dem nationalen Markt beobachteten Merkmale: die Instabilität der Auflagen, die geringen Werbeeinnahmen und die schwache Entwicklung der Abonnementverkäufe.;-;-;-;https://link.springer.com/article/10.1007/s12109-007-9014-2 7bc74ea3322991a72f312158f8c99308;de;;;4.2.;;;Länderbericht „Italien“ Dieses Papier analysiert die anwendbaren Verfahren nach italienischem Recht, wenn eine justizielle Zusammenarbeit in Strafsachen auf internationaler oder europäischer Ebene erforderlich ist. Durch die Fokussierung auf das Thema Rechtsbehelfe lenkt das Papier die Aufmerksamkeit auf die jüngste Reform der italienischen Strafprozessordnung in diesem Bereich sowie auf die italienischen Rechtsvorschriften zur Umsetzung der einschlägigen EU-Rahmenbeschlüsse und -richtlinien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-55796-6_5 b687480c424b764eebb4ec60bf96bab6;de;;;4.2.;;;Neue Gemeinde für ein neues Johannesburg? Neuformatierung von Zugehörigkeit und Grenzen im Süden der Stadt In der Pufferzone der Apartheid zwischen Soweto und Johannesburg South liegt ein neu abgegrenzter Gemeindebezirk. Von seinem Stadtrat als Miniatur-„Regenbogennation“ beschrieben, ist es ein provokativer Ort, um die Apartheid-Stadt zusammenzufügen und den sozialräumlichen Wandel nach der Apartheid auf einer Mesoskala zwischen Nachbarschaft und Stadt zu erkunden. Qualitative Feldforschung zeigt, dass neu konfigurierte politische Grenzen nur eines von vielen Grenzziehungsprojekten sind, die sich auf mehreren Ebenen entfalten. Ehemals weiße Vororte sind rassistisch abgesondert, haben aber auch weiße Flucht aus Nachbarschaften, Institutionen und öffentlichem Raum sowie eine gewisse Einengung durch geschlossene Komplexe und Privatschulen erlebt. Mikrogeographien des rassisch kodierten Raums prägen den Alltag, der heute oft der „kulturellen Differenz“ zugeschrieben wird. Schwarze Bewohner stellen Verbindungen zu anderen Teilen der Stadt durch Beziehungen zu Familie und Freunden in Townships her und schaffen neue Gemeinschaften in von Entwicklern gebauten Unterbezirken. Infrastrukturelle Unterschiede zwischen „Township“ und „Vorort“ verschwimmen, neue und alte infrastrukturelle Ungleichheiten und Verflechtungen entstehen. Nicht alle Diskurse und Praktiken von Zugehörigkeit und Ausgrenzung lassen sich auf rassische Kategorien oder rassifizierte Räume abbilden: Neue Allianzen auf der Grundlage von Eigentum, Klasse und Sicherheit entstehen ebenso wie neue gemeinsame „Andere“. Diese Site zeigt, wie neue Grenzplatzierungen bestehende Grenzen und ihre Repertoires an Zugehörigkeit und Ausgrenzung auf ambivalente Weise überlagern und besetzen.;-;-;-;https://link.springer.com/article/10.1007/s12132-021-09426-8 eeaa113a9bc337e2bb5d7da21f0d3a34;de;;;4.2.;;;Soziale Netzwerkseiten und ältere Generation Derzeit nimmt die Zahl der älteren Generationsgruppen zu. Diese demografischen Veränderungen verursachen offensichtlich ernsthafte soziale und wirtschaftliche Probleme. Daher versuchen die Regierungen auf der ganzen Welt, Strategien zu finden, die ältere Menschen so lange wie möglich körperlich und geistig aktiv halten. Eine Möglichkeit, die zu diesem Prozess beitragen kann, ist auch die Nutzung sozialer Medien wie Social Network Sites. Der Zweck dieses Artikels besteht darin, die Nutzung von Social Network Sites (SNS) zu diskutieren, ihre potenziellen Vorteile ihrer Nutzung durch ältere Menschen aufzuzeigen und einige der Einschränkungen aufzuzeigen, die ihre Nutzung durch diese Personengruppe verhindern. Die Ergebnisse zeigen, dass immer mehr Menschen im Alter von 65+ Jahren beginnen, SNS zu nutzen. Die beliebtesten SNS bei älteren Personen ab 65 Jahren sind wie folgt: Facebook, Instagram, LinkedIn und Twitter. Die Hauptvorteile ihrer Verwendung für diese Personengruppe sind die Linderung von Einsamkeit und sozialer Isolation, das Sammeln und Teilen von Informationen, Fotos oder Erfahrungen, die Beteiligung an der Politikgestaltung [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-21507-1_15 08bc518bb21b00c733e7680c10ccb123;de;;;4.2.;;;E-ekklesia: Die Herausforderung der direkten Demokratie und das antike athenische Modell In der vorliegenden Arbeit werden wir die neuen Möglichkeiten untersuchen, die die Internetnutzung der Demokratie bieten kann, um direkter zu werden und den Bürgern die Möglichkeit zu mehr und direkterer Beteiligung an der Politikgestaltung zu geben. Wir werden die Möglichkeit der Schaffung von E-ekklesia diskutieren, einem elektronischen Rahmen nach dem Vorbild des antiken Athens, in dem jeder Bürger seine Ansichten und Vorschläge äußern kann. Wir werden auch die Bedeutung und Bedeutung der Verantwortung der Bürger in einer Demokratie feststellen und untersuchen, ob sich der Durchschnittsbürger für die aktuelle politische Situation verantwortlich fühlt und was dies für die gegenwärtige Demokratie bedeutet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11710-2_5 1c1357c63ffd016ee447ecf01107856a;de;;;5.2.;;;Was sind die Bedenken der Forscher: Einreichen eines Manuskripts bei einer unbekannten Zeitschrift Die Veröffentlichung wissenschaftlicher Arbeiten kann als unverzichtbare Verlängerung der wissenschaftlichen Karriere von Forschenden angesehen werden. Um geeignete Zeitschriften für die Manuskripteinreichung zu finden und der Falle von räuberischen/fragwürdigen Verlagen zu entgehen, benötigen Forschende viele Informationen über die Fakten der Veröffentlichung und führen eine umfassende Bewertung vor der Einreichung durch. Alle Informationen, die der Herausgeber offenlegt, sollten alle Bedenken berücksichtigen, die von Forschern geäußert wurden. Da die Informationen und der Umfang der Veröffentlichungen in Zeitschriften die Entscheidung der Forscher zur Einreichung beeinflussen, nimmt dieser Artikel ihren Informationsbedarf bei der Einreichung von Manuskripten bei Verlagen als Ausgangspunkt, vergleicht und kontrastiert die dritte Ausgabe von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71305-8_13 c8f5a1672f27514176e998b83968fdcf;de;;;5.2.;;;Frontiers of Fitness Landscapes: Eine Zusammenfassung offener Fragen In diesem Kapitel werfen wir einen kurzen Blick auf mögliche Zukunftsthemen der Fitnesslandschaftsforschung. Wir diskutieren Herausforderungen an einen Fitnesslandschaftsansatz, die sich aus neueren experimentellen und theoretischen Erkenntnissen zum Informationstransfer in biologischen Systemen ergeben. Darüber hinaus zeigen wir Möglichkeiten auf, die diese Ergebnisse eröffnen können, und spekulieren über Richtungen, die die Landschaftsforschung einschlagen könnte. Wir fassen die Diskussion zusammen, indem wir acht offene Fragen aufzeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41888-4_19 aaeba446222ffd34e538ed4be375faa9;de;;;5.2.;;;Anwendungen des fiktiven Kompressionserholungsansatzes in der physikalischen Geodäsie Es wird der fiktive Kompressionserholungsansatz eingeführt, der auf die Aufstellung des Runge-Krarup-Theorems, die Bestimmung der fiktiven Schwereanomalie von Bjerhammar, die Lösung des Problems der „Abwärtsfortsetzung“ des Schwerefeldes, die Bestätigung der Konvergenzverg der sphärischen harmonischen Expansionsreihe des Erdpotentialfeldes und der Schwerefeldbestimmung in drei Fällen: Gravitationspotentialfall, Gravitationsfall und Gravitationsgradientenfall. Mehrere Tests mit Simulationsexperimenten zeigen, dass der Ansatz der fiktiven Kompressionswiederherstellung in physikalischen Geodäsieanwendungen vielversprechend ist.;-;-;-;https://link.springer.com/article/10.1007/s11806-008-0083-y 9e2bf34275159cb9ec9ca7e1eec8bce3;de;;;5.2.;;;Bestimmtes integrierbares System auf einem Raum, der einem Quantensuchalgorithmus zugeordnet ist Beim Ausdenken eines Quantensuchalgorithmus vom Grover-Typ für ein geordnetes Tupel von Multiqubit-Zuständen wird ein mit der negativen von-Neumann-Entropie assoziiertes Gradientensystem im Raum regulärer relativer Konfigurationen von Multiqubit-Zuständen (SR;-;-;-;https://link.springer.com/article/10.1134/S1063778807040217 53ab6a351f665766da42bcf081055ff1;de;;;5.2.;;;Die Evolution der auffälligen und unverwechselbaren Färbung für die Kommunikation bei Vögeln Unser Ziel ist es, den selektiven Druck aufzuklären, der für den Ursprung und die Aufrechterhaltung einer auffälligen und unverwechselbaren Färbung verantwortlich ist (im Folgenden zusammenfassend als bezeichnet).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-9918-7_2 7d3581f901a66244e4cb1375ac28caf3;de;;;4.2.;;;Strukturierung von Expertenbeiträgen für einen wissensbasierten Ansatz zur Bewertung des Zustands von Wassereinzugsgebieten für den Northwest Forest Plan, USA Die Beurteilung des Zustands von Wassereinzugsgebieten für Wasser- und Uferarten ist aufgrund der Komplexität der Feststellung statistischer Beziehungen zwischen den vielen beteiligten Faktoren häufig auf Expertenmeinungen angewiesen. Solche Expertenbewertungen können schwer zu dokumentieren und über Zeit und Raum konsistent anzuwenden sein. Wir beschreiben und reflektieren den Prozess der Entwicklung einer computergestützten Entscheidungsunterstützungsanwendung aus Expertenurteilen zur Bewertung von Gewässer- und Uferbedingungen über 100.000 km;-;-;-;https://link.springer.com/article/10.1007/s10661-010-1362-2 b6bcbe0629e78f8906c0a459955e9721;de;;;4.2.;;;Schlussfolgerungen und Cliffhanger Dieses Buch hat die Herangehensweise an das Schreiben und Produzieren von Fernsehdramen in einer spezifischen, nationalen Produktionskultur untersucht, indem es Analysen einiger der vielen Komplexitäten im Zusammenhang mit der Entwicklung neuer Leinwandideen bietet. Das Buch bietet Einblicke in die Produktionsweise bei DR Fiction und in die kreative Arbeit der Praktiker dieser öffentlich-rechtlichen Produktionseinheit. Wie in den verschiedenen Kapiteln erwähnt, hat sich die Produktionsweise von DR Fiction seit den 1990er Jahren dramatisch verändert und der aktuelle Erfolg von Serien wie;-;-;-;https://link.springer.com/chapter/10.1057/9781137288417_9 c01876e66a4ae434278bec3b278b14bb;de;;;4.2.;;;Nachhaltiger Tourismus und Ökotourismus: Erfahrungen auf den Kleinen Antillen Diese Studie untersucht neue Tourismusstrategien in kleinen Inseldestinationen in der Karibik. Diese Inseln sind stark von einem Tourismussektor abhängig, der Aktivitäten am Meer begünstigt und mit sozioökonomischen Grenzen und veralteten Umweltmodellen konfrontiert, und versuchen, eine Politik zu entwickeln, die die wirtschaftliche Aktivität im Kontext eines nachhaltigen Tourismus maximiert. Über den Geltungsbereich des Übereinkommens über eine nachhaltige Tourismuszone der Karibik (STZC-Konvention) hinaus, das darauf abzielt, die erste nachhaltige Tourismuszone der Welt zu errichten, analysiert dieser Artikel die Entwicklung des Ökotourismus auf den Inseln Dominica (ein aufstrebendes Reiseziel) und St. Lucia (das sich in einer Konsolidierungsphase befindet).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03449-2_39 77beb92dd9832c7efce7e3e3850596f8;de;;;4.2.;;;Wahrnehmung der Technologieeinführung im Blended Learning Unreife Blended-Learning-Systeme sind oft eher technologieintensiv als wissensintensiv oder menschenorientiert. Die meiste Aufmerksamkeit auf Blended Learning wurde dem technologievermittelten E-Learning gewidmet. In diesem Papier werden einige Fragen zu Blended Learning jenseits der Technologieeinführung erörtert, einschließlich der Ziele von Blending in Bezug auf Wissensbildung, Kompetenzentwicklung, Persönlichkeitsentwicklung und soziale Entwicklung sowie Kontexte, die mit Blended Learning jenseits der technischen Mediation verbunden sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23345-6_64 1dd58410093a27a381ece91e76f44f74;de;;;4.2.;;;Kann das Spielen von Massive Multiplayer Online Role Playing Games (MMORPGs) das soziopsychologische Wohlbefinden älterer Erwachsener verbessern? Diese Studie untersuchte, ob das Spielen von Massive Multiplayer Online Role-Playing Games (MMORPGs) das sozialpsychologische Wohlbefinden älterer Erwachsener verbessert. Wir analysierten die Beziehungen der sozialen Interaktionen älterer Erwachsener in MMORPGs zu drei sozialpsychologischen Faktoren: Einsamkeit, Depression und soziale Unterstützung. Soziale Interaktionen in MMORPGs wurden in vier Komponenten konzeptualisiert: Kommunikationsmethoden, Netzwerkebene, Freude an Beziehungen und Qualität des Gildenspiels. Insgesamt 222 Befragte ab 55 Jahren, die World of Warcraft (WoW) gespielt haben, wurden über eine Online-Umfrage rekrutiert. Es wurde festgestellt, dass die größten Effektstärken von Einsamkeit, Depression und sozialer Unterstützung mit der Freude an Beziehungen und der Qualität des Gildenspiels verbunden waren. Darüber hinaus hatte das Ausmaß des Gameplays einen geringen Einfluss auf das soziopsychologische Wohlbefinden älterer Erwachsener. Daher hängen die sozialpsychologischen Auswirkungen des Spielens von MMORPGs auf ältere Erwachsene stark von der Freude an Beziehungen und der Qualität des Gildenspiels ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-29585-5_29 3040ba38b4dbf4846490d31cbf46fcde;de;;;4.2.;;;Netzwerk-Community-Erkennung In diesem Kapitel wird eine der wichtigen Technologien der Anwendungsschicht von Netzwerk-Mobilinformationsdiensten, die Technologie zur Erkennung von Gemeinschaftsstrukturen, vorgestellt. Was die sozialen Attribute von mobilen Informationsdiensten angeht, die durch menschliche Aktivitäten hervorgerufen werden, werden die Methoden der Community-Exploration für verschiedene Szenarien aus der Perspektive der zugrunde liegenden Kommunikationsnetzwerkarchitektur angegeben. Der Schwerpunkt dieses Kapitels liegt darauf, die Beziehung zwischen der zugrunde liegenden Kommunikationsarchitektur und der Community-Entdeckung auf oberster Ebene zu entdecken, um intuitiv eine Community-Struktur basierend auf den tatsächlichen Kommunikationsbedingungen aufzubauen. Dies hat große Vorteile, um potenzielle Beziehungen zu entdecken und unbekannte Netzwerkstrukturen zu erkunden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4569-6_4 ebca1fc5cd4298d9b0ce6065a47e97c1;de;;;4.2.;;;Nanotechnologie in Landwirtschaft, Viehzucht und Aquakultur in China. Eine Rezension Die Nanowissenschaft entstand Ende der 1980er Jahre und wird seit Mitte der 1990er Jahre in China entwickelt und angewendet. Obwohl Nanotechnologien in der Agrarwissenschaft weniger entwickelt sind als andere Disziplinen, haben Nanotechnologien aufgrund geringerer Investitionen das Potenzial, die landwirtschaftliche Produktion zu verbessern. Hier überprüfen wir mehr als 200 Berichte zu Nanowissenschaften in Landwirtschaft, Viehzucht und Aquakultur. Die wichtigsten Punkte sind wie folgt: (1) Nanotechnologien für Saatgut und Wasser verbesserten die Keimung, das Wachstum, den Ertrag und die Qualität von Pflanzen. (2) Nanotechnologien könnten die Lagerzeit für Gemüse und Obst verlängern. (3) In der Vieh- und Geflügelzucht verbesserten Nanotechnologien die Immunität, Oxidationsbeständigkeit und Produktion der Tiere und verringerten den Einsatz von Antibiotika und den Mistgeruch. So stieg die durchschnittliche Tageszunahme von Schweinen um 9,9–15,3 %, das Verhältnis Futtermittelgewicht um 7,5–10,3 % und die Durchfallrate um 55,6–66,7 %. (4) Nanotechnologien zur Wasserdesinfektion in Fischteichen erhöhten die Wasserqualität und erhöhten die Erträge und das Überleben von Fischen und Garnelen. (5) Nanotechnologien für Pestizide haben die Leistung von Pestiziden verdreifacht und die Kosten um 50 % gesenkt. (6) Nanoharnstoff steigerte die agronomische Effizienz der Stickstoffdüngung um 44,5 % und den Kornertrag um 10,2 % gegenüber normalem Harnstoff. (7) Nanotechnologien werden häufig für die schnelle Erkennung und Diagnose eingesetzt, insbesondere für klinische Untersuchungen, Lebensmittelsicherheitstests und die Überwachung von Tierseuchen. (8) Nanotechnologien können auch nachteilige Auswirkungen haben, die bisher nicht bekannt sind.;-;-;-;https://link.springer.com/article/10.1007/s13593-014-0274-x be5f0b3731a60b37edaf93febc993743;de;;;5.2.;;;Beitrag zur gravimetrischen Untersuchung von Struktur und Entstehung des ostafrikanischen Grabens Für unsere Untersuchung haben wir 235 Messungen, die P. Herrinck im östlichen Teil der Demokratischen Republik Kongo während einer magnetischen Vermessung durchgeführt hat, einschließlich der Grabenregion von der Parallelverbindung der Stadt Goma und der Stadt Mahagi, der Region zwischen Albert- und Aka-See und der Route von Aba nach Kinsagani. Bei den Erhebungen wurde die Dichte der Aufnahmepunkte nach der Bedeutung der Anomalien gewählt. Auf diese Weise betrug der Versatz 1 km, wo die Störung in der Stadt Goma hoch war, und 20 km auf der Strecke von Aba nach Kinsagani waren ausreichend. Für die topographischen und isostatischen Reduktionen wurde nur ein kartographisches Dokument ausgewählt, nämlich die internationale Karte im Maßstab 1/1 000 000, die eine gewisse Homogenität aufweist.;-;-;-;https://link.springer.com/article/10.1007/BF02838665 6b292bc6ef03cc71e25ca2b9c147afee;de;;;5.2.;;;Schneller agglomerativer hierarchischer Clustering-Algorithmus mit Locality-Sensitive Hashing Das Single-Linkage-Verfahren ist ein grundlegender agglomerativer hierarchischer Clustering-Algorithmus. Dieser Algorithmus betrachtet jeden Punkt zunächst als einen einzelnen Cluster. Im Agglomerationsschritt verbindet es ein Paar von Clustern so, dass der Abstand zwischen den nächsten Mitgliedern am kürzesten ist. Dieser Schritt wird wiederholt, bis nur noch ein Cluster übrig ist. Das Single-Linkage-Verfahren kann Cluster in beliebigen Formen effizient erkennen. Ein Nachteil dieser Methode ist jedoch der hohe Zeitaufwand von;-;-;-;https://link.springer.com/article/10.1007/s10115-006-0027-5 68f84b41b031c78a97550cde4f0ab06c;de;;;5.2.;;;Optimiertes Datenübertragungsverfahren für Multimediadienste basierend auf OpenStack In diesem Whitepaper stellen wir optimale Multimediadienste auf Basis von OpenStack VM bereit. Um optimale Multimediadienste bereitzustellen, wenn ein Benutzer Inhalt anfordert, ist das Netzwerk so konfiguriert, dass es abhängig von der Reihenfolge, in der die Daten übertragen werden können, nach der schnellen Servergeschwindigkeitspriorität sucht. Darüber hinaus, basierend auf der Geschwindigkeit des Servers, der die gesendeten Daten bereitstellt, wird die physische Ressource basierend auf einer VM (Virtual Machine) proportional aufgeteilt, sodass die Ressourcen effizient genutzt werden können. Durch die Klassifizierung der verwalteten Inhalte mit Hilfe der VM kann auch der Vorteil bestehen, dass der Benutzer bei der Anforderung von Inhalten schnell suchen kann. In dieser Arbeit wurde ein Experiment durchgeführt, wir wenden den entwickelten Algorithmus an und vergleichen die Netzwerkumgebung mit der bestehenden Umgebung. Wir konnten zeigen, dass die Übertragung von Multimedia schneller und zuverlässiger ist als in der herkömmlichen Netzwerkumgebung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0557-2_124 643df8f707eadb836a1ec03bec4371fb;de;;;4.2.;;;Gesundheitstechnologiebewertung aus der Vergessenheit zurückgewinnen: Verbesserung und Integration der Regulierung von Arzneimitteln, Medizinprodukten, diagnostischen Tests und chirurgischen Innovationen Gibt es eine breite, allumfassende Struktur, die den regulatorischen Anforderungen medizinischer Innovationen gerecht wird? In diesem Kapitel wird versucht, darauf hinzuweisen, dass die Antwort unbestreitbar nein ist, und einige Grundlagen für die Verbesserung und Integration der Regulierung von Arzneimitteln, Geräten, Diagnostika und chirurgischen Innovationen liefern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-15004-8_4 3fcc408f5d8ce2758d0cde22e0c4126c;de;;;4.2.;;;Arbeitsmarktrestrukturierung und Armut: Haushaltsbeweise aus der Ukraine In diesem Kapitel werden die Inzidenz, der Schweregrad und die Korrelate von Haushaltsarmut in der Ukraine während des Übergangs anhand zweier vergleichbarer Erhebungen aus den Jahren 1996 und 2004 analysiert. Wir messen Armut anhand verschiedener Armutsgrenzen. Die Armutsschätzungen sind höher als zuvor berichtet, wenn sie um übergangsbedingte Arbeitsmarktschocks kontrolliert werden. Armut in beiden Zeiträumen folgt einigen der in der Literatur häufig identifizierten Korrelate, darunter größere Armut in Haushalten mit Kindern und mit geringerer Bildung. Wir identifizieren auch spezifische Merkmale der Armut in der frühen Übergangsphase, darunter die relativ geringe Bedeutung der Arbeitslosigkeit und das Vorhandensein von Armut auch in Haushalten mit Erwerbstätigkeit.;-;-;-;https://link.springer.com/chapter/10.1057/9780230363595_8 bb05233e99eb6921dd58d640f7439880;de;;;4.2.;;;Religion konfrontiert mit den Menschenrechten von Frauen: Der Fall des römischen Katholizismus Dieser zusammenfassende Artikel basiert auf meiner seit 1961 durchgeführten Forschung zur prägenden christlichen Anthropologie. Konflikte zwischen normativer Religion und Frauenrechten sind in Bezug auf den Islam bereits gut analysiert,;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-5616-7_23 c25b365f47b355a839342a0625fd3208;de;;;4.2.;;;Alltagsleben des Publikums in einem zukünftigen Europa: Auf der Spur aufkommender Probleme von Szenarien zu Erfahrungen im Jahr 2030 Dieses Kapitel betrachtet die Szenarien aus dem vorherigen Kapitel und fragt, welche Zukunft sie sich für das Publikum über Generationen hinweg und im Kontext eines sich verändernden Europas bis 2030 vorstellen. Unsere Diskussion betont die Herausforderungen bei der Konzeptualisierung von Handlungsfähigkeiten von Publikumserfahrungen, die noch ausstehen im transmedialen Umfeld der Zukunft entfalten. Da diese Phänomene für die empirische Forschung noch nicht verfügbar sind, wenden wir die Methode der Foresight-Methodik des Story-Buildings an, um unsere Diskussion voranzutreiben. Dies ermöglicht es uns, über Generationen hinweg Dilemmata im Alltag des Publikums im Jahr 2030 zu reflektieren und die Szenarien zu nutzen, um divergierende Herausforderungen und Chancen aufzuzeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-75638-7_12 68f29c1fb692e270852bd781e4588d76;de;;;4.2.;;;Faktoren, die die Akzeptanz von Web 2.0 in einer Unternehmensumgebung erhöhen Mit den Entwicklungen der neuesten Technologien sind neue Formen der Zusammenarbeit in der Geschäftswelt entstanden. Der Erfolg der Web 2.0-Nutzung hat Unternehmen dazu ermutigt, Enterprise 2.0-Technologie einzuführen. Unternehmen 2.0, die aufstrebende soziale Softwareplattformen (ESSPs) verwenden, wurden von Unternehmen auf der ganzen Welt übernommen. Trotz der enormen Vorteile dieser Technologie stößt die Einführung des Enterprise-2.0-Prozesses jedoch regelmäßig auf Widerstand der Endkunden, da es keine empirischen Beweise dafür gibt, wie Enterprise 2.0 die Geschäftsziele unterstützt. Der Zweck dieser Studie besteht darin, hervorzuheben, wie erfolgreiche Unternehmen wie IBM ESSPs einsetzen, um gemeinsame Anstrengungen zu unternehmen, die zur Erreichung der Unternehmensstrategieziele führen. Die Theorie des geplanten Verhaltens wurde ausgewählt, um den Vorgang des Aufbaus von Bewusstsein und Vertrauen zu erzählen, um Erfahrungen beim Austausch von Informationen und Ideen über Enterprise 2.0-Plattformen zu öffnen und auszutauschen. Diese Theorie wurde auf eine Fallstudie angewendet, die eine Strategie für soziale Netzwerke innerhalb der IBM Company verwendet. Die Ergebnisse zeigen, dass Strategien des Wissensaustauschs, die Bereitstellung von Ressourcen wie Zeit und Mühe, die Verteilung von Vertrauen, sozialem Einfluss und der Einsatz von Technologie Faktoren sind, die die Akzeptanz von Enterprise 2.0 in Unternehmen erhöhen, und beweisen, dass Zusammenarbeit, Kommunikation und Verbindung am wichtigsten sind Faktoren, die durch Enterprise 2.0 erreicht werden sollten, um die Unternehmensziele zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-6463-0_49 ab0b6a11f6afe47557b6ca060f8828a9;de;;;4.2.;;;Arzneimittelmetabolismus in der präklinischen Entwicklung Die vielschichtige Disziplin des Arzneimittelstoffwechsels umfasst die Identifizierung von Metaboliten, die Identifizierung von Enzymen, die am Stoffwechsel von Arzneimitteln beteiligt sind, die Bestimmung der Geschwindigkeiten dieser Enzymreaktionen und die Induktion oder Hemmung von Arzneimittelmetabolisierungsenzymen. Die Konzepte des Wirkstoffmetabolismus sind in die meisten Aspekte von ADME (Absorption, Verteilung, Metabolismus und Elimination), Toxikologie und Pharmakologie integriert. Die Bedeutung des Arzneimittelstoffwechsels kann erkannt werden, wenn man sich bewusst ist, wie die Wirkungen des Arzneimittelstoffwechsels in die Disposition und Wirksamkeit von pharmazeutischen Mitteln integriert werden. Ein ausgedehnter Metabolismus entweder durch die Darmwand oder die Leber kann das Ausmaß der Resorption und Bioverfügbarkeit eines Arzneimittels durch Verringerung der systemischen Exposition beeinflussen. Arzneimittel können nicht nur durch arzneimittelmetabolisierende Enzyme metabolisiert werden, sondern können auch die enzymatische Aktivität von arzneimittelmetabolisierenden Enzymen beeinflussen, indem sie entweder deren intrinsische Aktivität verringern oder die Menge des verfügbaren Enzyms erhöhen, was zu signifikanten Arzneimittelwechselwirkungen führen kann, die zu einem Verlust an Wirksamkeit oder Toxizität führen können . Die metabolische Elimination oder Clearance eines Arzneimittels wird durch die Geschwindigkeit und das Ausmaß des Metabolismus definiert, der oft den Zeitrahmen der pharmakologischen Aktivität bestimmt. In einigen Fällen hängt die Geschwindigkeit und das Ausmaß des Arzneimittelmetabolismus direkt mit der Wirksamkeit des Arzneimittels zusammen, wie im Fall von Prodrugs oder pharmakologisch aktiven Metaboliten. Das Vorhandensein oder, was noch wichtiger ist, das Fehlen bestimmter Arzneimittel-metabolisierender Enzyme bei bestimmten Personen (polymorphe Enzymexpression) kann tiefgreifende Auswirkungen auf die Eliminierung oder Wirksamkeit von Arzneimitteln haben, die überwiegend durch diese Enzyme metabolisiert werden. Die Biotransformation von Arzneimitteln kann auch bei Tieren und Menschen zu toxischen Ereignissen führen, indem reaktive Zwischenprodukte oder Metaboliten gebildet werden, die mit endogenen Makromolekülen wie Proteinen und Nukleinsäuren interagieren. All diese kurzen Highlights veranschaulichen die Bedeutung des Wirkstoffmetabolismus bei der Entdeckung, Entwicklung und eventuellen Zulassung eines neuen Wirkstoffs.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-9216-1_4 7834c2250909431b044183dc80e4a45d;de;;;5.2.;;;Numerische Klassifizierung Im ersten Abschnitt werden kurz die Gründe und einige Unzulänglichkeiten häufig verwendeter Techniken zum Sortieren von Proben in homogene Klassen erläutert. Der zweite Abschnitt legt nahe, dass das Computerscreening einer großen Anzahl unterschiedlich ausgerichteter Datenprojektionen nützliche Einblicke in die Konfiguration der Stichproben liefern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-7103-2_4 8b672c3e811cdd865ca91afe2ae9369b;de;;;5.2.;;;Multivariate Entscheidungsbäume Im Gegensatz zu einem univariaten Entscheidungsbaum ist ein multivariater Entscheidungsbaum nicht auf Teilungen des Exemplarraums beschränkt, die orthogonal zu den Achsen der Features sind. Dieser Artikel befasst sich mit mehreren Problemen beim Erstellen multivariater Entscheidungsbäume: Darstellung eines multivariaten Tests, einschließlich symbolischer und numerischer Merkmale, Erlernen der Koeffizienten eines multivariaten Tests, Auswählen der in einen Test einzubeziehenden Merkmale und Beschneiden multivariater Entscheidungsbäume. Wir stellen mehrere neue Methoden zur Bildung multivariater Entscheidungsbäume vor und vergleichen diese mit mehreren bekannten Methoden. Wir vergleichen die verschiedenen Methoden für eine Vielzahl von Lernaufgaben, um die Fähigkeit jeder Methode zu bewerten, prägnante und genaue Entscheidungsbäume zu finden. Die Ergebnisse zeigen, dass einige multivariate Methoden im Allgemeinen effektiver sind als andere (im Kontext unserer experimentellen Annahmen). Darüber hinaus bestätigen die Experimente, dass das Zulassen multivariater Tests im Allgemeinen die Genauigkeit des resultierenden Entscheidungsbaums gegenüber einem univariaten Baum verbessert.;-;-;-;https://link.springer.com/article/10.1007/BF00994660 fa8656d7fd644a01ddcffd4fad7e2af1;de;;;5.2.;;;Multivariate Entscheidungsbäume Im Gegensatz zu einem univariaten Entscheidungsbaum ist ein multivariater Entscheidungsbaum nicht auf Teilungen des Exemplarraums beschränkt, die orthogonal zu den Achsen der Features sind. Dieser Artikel befasst sich mit mehreren Problemen beim Erstellen multivariater Entscheidungsbäume: Darstellung eines multivariaten Tests, einschließlich symbolischer und numerischer Merkmale, Erlernen der Koeffizienten eines multivariaten Tests, Auswählen der in einen Test einzubeziehenden Merkmale und Beschneiden multivariater Entscheidungsbäume. Wir stellen mehrere neue Methoden zur Bildung multivariater Entscheidungsbäume vor und vergleichen diese mit mehreren bekannten Methoden. Wir vergleichen die verschiedenen Methoden für eine Vielzahl von Lernaufgaben, um die Fähigkeit jeder Methode zu bewerten, prägnante und genaue Entscheidungsbäume zu finden. Die Ergebnisse zeigen, dass einige multivariate Methoden im Allgemeinen effektiver sind als andere (im Kontext unserer experimentellen Annahmen). Darüber hinaus bestätigen die Experimente, dass das Zulassen multivariater Tests im Allgemeinen die Genauigkeit des resultierenden Entscheidungsbaums gegenüber einem univariaten Baum verbessert.;-;-;-;https://link.springer.com/article/10.1023/A%3A1022607123649 d12506624333cb5056c38a1a0121f3fc;de;;;4.2.;;;Produktion, Konsum und innovative Geschäftsmodelle Digitale Technologien erschlossen Marketing- und Vertriebskanäle für Musik, digitale Animation, Filme, Nachrichten, Werbung usw. Die Preise für die Medienverteilung sinken in einer erstaunlichen Größenordnung, beispielsweise von einem Preis für Medieninformationen pro Gbit/Kopf von 0,21 USD für ein Buch auf 0,00001 USD für Breitband und 0,0000001 USD für Ultra-Breitband im Jahr 2015 (Noam, 2010). . Bei Waterman (2011) kann man davon ausgehen, dass diese neuen Technologien durch flexible Preisgestaltung, niedrige Lieferkosten und praktisch unbegrenzte Kapazitäten (serverbasierte und Cloud-Anwendungen niedrigere Kapazitätskosten im Vergleich zu herkömmlicher Mehrkanal-Videoprogrammverteilung wie Kabel oder Satellit) sowie eine höhere Effizienz.;-;-;-;https://link.springer.com/chapter/10.1057/9781137344250_3 d90a497299860b6ce04b818aba7acd80;de;;;4.2.;;;Menschenrechte indigener Völker und das viktorianische Dieser Artikel befasst sich mit dem rechtlichen Rahmen für Archiv- und Archivierungseinrichtungen, Archivare und Archivierungsfachleute in einem australischen Staat unter dem viktorianischen;-;-;-;https://link.springer.com/article/10.1007/s10502-011-9164-z 8d7200caefaf212ec434ba8cf31b3b10;de;;;4.2.;;;Förderung neuer Muster beim Energieverbrauch von Haushalten mit durchdringenden Lernspielen Durch ansprechende Computerspiele können die Energieverbrauchsmuster im Haushalt verändert werden. PowerAgent ist ein allgegenwärtiges Spiel für Java-fähige Mobiltelefone, das die alltäglichen Aktivitäten und den Stromverbrauch im Haushalt beeinflussen soll. PowerAgent ist über das Mobilfunknetz mit den automatischen Stromzähler-Auslesegeräten des Haushalts verbunden und ermöglicht so die Nutzung der tatsächlichen Verbrauchsdaten im Spiel. In diesem Papier stellen wir ein zweistufiges Modell für kognitives und Verhaltenslernen vor und diskutieren die Eigenschaften von PowerAgent in Bezug auf die zugrunde liegenden Komponenten des situierten Lernens, des sozialen Lernens und der überzeugenden Technologie, die wir in das Spiel integriert haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77006-0_7 77b3f515cb4aea84caf066041743003f;de;;;4.2.;;;Politischer Rahmen: Notwendige Zutaten für erfolgreiche Reformen Bei der Privatisierung fehlen in Jordanien, wie es oft in anderen Entwicklungsländern der Fall ist, vier grundlegende Bestandteile der Beziehung zwischen Privatisierung, Dezentralisierung, Partizipation und Entwicklung. Diese sind: Reform der Staatsunternehmen, bürokratische Reformen, Verdrängung im informellen Sektor und rechtliche Dezentralisierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-25374-6_8 5b4ac2fe19eeefb7b4ca25a0b2a3e7b9;de;;;4.2.;;;Verwaltungsgerichtsbarkeit in den Bundesländern In diesem Band kommentiert der Artikel aus deutscher Sicht den Beitrag von Giandomenico Comporti. Es erinnert an den unterschiedlichen Ursprung der italienischen Einheit, die auf der Erweiterung des Königreichs Piemont und seiner Rechtsordnung beruht, und der deutschen Einheit, die auf Verträgen beruht, ohne die inneren zu vereinheitlichen, insb. Verwaltungsorganisation und -verfahren der Mitgliedstaaten. Nur langsam wurden diese Bereiche vom Bund beeinflusst und erst nach der NS-Zeit war der Schutz der Persönlichkeitsrechte ein wesentliches Ziel des Grundgesetzes (GG) und damit der Verfassungs- und Rechtsentwicklung. Unter diesen Aspekten werden die Verwaltungsgerichtsordnung (VwGO) und die Verwaltungsgerichtsordnung (VwVfG) vorgestellt und die Ähnlichkeit dieser Entwicklung mit der der Europäischen Union unterstrichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-50780-0_19 8e349f2650c6ab6c36a44a2819a5d1ec;de;;;4.2.;;;Talk to Act: Wie die Internetnutzung Benutzer befähigt, sich offline an kollektiven Aktionen zu beteiligen Diese Studie untersucht, wie die Nutzung des Internets Benutzer in die Lage versetzen kann, kollektive Aktionen für eine Umweltbewegungsorganisation durchzuführen. Genauer gesagt haben wir uns auf die Auswirkungen der Online-Interaktivität konzentriert, d. h. die Tatsache, dass Benutzer Inhalte online teilen und von anderen Feedback dazu erhalten können. Das partizipative Internet erfüllt dabei zwei Voraussetzungen eines psychologischen Empowerment: a) Informationen über die Ziele und Leistungen einer Organisation zu erhalten und b) ein wirksames Belohnungssystem zu erleben. Mit einem experimentellen Design zeigten unsere Ergebnisse, dass das Gefühl der Befähigung der Benutzer durch die Online-Interaktivität tatsächlich gesteigert wurde. Ein höheres Selbstbestimmungsgefühl führte zu einer stärkeren Bereitschaft, an einer Podiumsdiskussion und Demonstration für die Umweltorganisation teilzunehmen. Darüber hinaus war die Wahrscheinlichkeit, sich zu engagieren, höher, wenn die Benutzer mit ihrem Namen und ihrem Foto identifizierbar waren, anstatt anonym zu bleiben, während sie ihre Beiträge leisteten, was durch ein erhöhtes Gefühl der Befähigung vermittelt wird. Die Bedeutung intraindividueller Prozesse bei der Untersuchung des Einflusses der Internetnutzung auf das Verhalten wird ebenso diskutiert wie die Rolle der Identifizierbarkeit im Internet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31037-9_7 cbb83b79d3e04785f69854a8c2982c33;de;;;4.2.;;;Das charismatische Ritual durchführen Welche Rolle spielt das Ritual bei der Etablierung charismatischer Autorität, bei der Herstellung von Zuständen der Transzendenz in den Gläubigen und bei der Stärkung der Bindung zwischen Führer und Nachfolger? Um diese Frage zu beantworten, analysiere ich die rituelle Sprache und Körpertechniken eines katholischen charismatischen Priesters und seiner Gebetsgruppe in einem Vorort von Neuengland, um zu zeigen, wie tief verkörperte persönliche religiöse Erfahrung mit der Konstruktion charismatischer Führung verflochten ist.;-;-;-;https://link.springer.com/chapter/10.1057/9781137377630_2 93950f1c76ffa58f37907b6136dc24b1;de;;;4.2.;;;Ethikfragen in der digitalen Methodenforschung Dieses Kapitel befasst sich mit Fragen der ethischen Forschungspraxis im Kontext der neu entstehenden Methodenpalette, die das Internet nutzen, um die Erstellung von Primärforschungsdaten zu unterstützen – verschiedentlich bezeichnet als Online-Methoden, digitale Methoden und;-;-;-;https://link.springer.com/chapter/10.1057/9781137453662_13 e8e719c1bed3bf5cfd220b7ac0541f1a;de;;;4.2.;;;Wole Soyinka Als Nobelpreisträger und Dramatiker auf drei Kontinenten wird Wole Soyinka intensiv diskutiert. Ist er grundsätzlich Satiriker? Oder ein Tragiker? Ein Yoruba-Traditionalist? Oder ein romantischer Individualist oder Modernist, der ein fremdes Bürgertum anspricht? In jeder dieser Ansichten steckt etwas Wahres. Entgegen der satirischen Betonung vieler Stücke —;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-22436-4_14 079ebf67ffe167a3d04056fa8018d614;de;;;5.2.;;;Didaktische Unterstützung der Ressourcenkomponente für das Bildungsumfeld der Hochschule zur Entwicklung der Informationskompetenz der Studierenden Die rasante Entwicklung der Informations- und Kommunikationstechnologien in der modernen Gesellschaft findet heute in allen Bereichen menschlichen Handelns Anwendung. Diese Transformationen haben die Anforderungen der Arbeitgeber an junge Fachkräfte verändert. Die auf dem Arbeitsmarkt gefragten Fachkräfte müssen über fachliche Fähigkeiten und Fertigkeiten sowie Orientierungsfähigkeit in modernen Datenflüssen verfügen und können sich zeitnah notwendige Informationen beschaffen, Wissen erweitern und in die Praxis umsetzen. Daher kommt dem Niveau der fachlichen Kompetenz im Bereich der Informationstechnologien eine große Bedeutung zu. In diesem Fall ist das relevante zu lösende Problem der modernen Hochschulpädagogik die Entwicklung einer didaktischen Unterstützung während des Prozesses der Ausbildung weiterer Fachkräfte zur effektiven Informationsbeschaffungstätigkeit, die Ausbildung von Fähigkeiten der Informationsautarkie und die Entwicklung von Informationskompetenz als persönliche Qualität Förderung ihrer Wettbewerbsfähigkeit auf dem Arbeitsmarkt. Im Ergebnis dieser Problemlösung wird die besondere Relevanz im Unterrichten von Studierenden im Umgang mit elektronischen Informationsressourcen durch die Anwendung elektronischer Lehrpapiere als Lernsoftware und als didaktische Unterstützung der Ressourcenkomponente für das Bildungsumfeld der Hochschule erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-15577-3_62 c3558b68b059ca9a615e5b0a8b9dd6a8;de;;;4.2.;;;Gesundheit und Dienstleistungen des Agrarökosystems Gesunde Ökosysteme und Agrarökosysteme sind unser oberstes Ziel für das Überleben der Menschheit und aller Lebewesen auf der Erde, da sowohl natürliche Ökosysteme als auch Agrarökosysteme Güter und Dienstleistungen bereitstellen, ohne die die Gesellschaft nicht mehr existieren würde. Diese Güter und Dienstleistungen reichen von essentiellen Aktivitäten wie der Erhaltung einer lebenswerten Umwelt bis hin zum ästhetischen Genuss der einfachen Existenz der Natur. In diesem Kapitel werden neun zentrale Ökosystemleistungen diskutiert: (1) Produktion von Ökosystemgütern, (2) Erzeugung und Erhaltung der biologischen Vielfalt, (3) teilweise Stabilisierung und Regulierung des Klimas, (4) Eindämmung von Dürren und Überschwemmungen, (5) Bestäubung von Feldfrüchten und natürlicher Vegetation, (6) Verbreitung von Saatgut, (7) natürliche Schädlingsbekämpfung, (8) Dienstleistungen des Bodens und (9) Bereitstellung von ästhetischer Schönheit und intellektueller Stimulation, die den menschlichen Geist heben. Methoden zur Bewertung und Messung der Gesundheit von Ökosystemen beruhen auf Stärke, Organisation und Widerstandsfähigkeit. Die Gesundheit von Agrarökosystemen zweigt von Ökosystemleistungen und Gesundheit ab, was die Messung etwas schwieriger macht. In diesem Kapitel wird eine theoretische Grundlage für das Management von Agrarökosystemen diskutiert, mit einem Modell für die allgemeine Gesundheit des Agrarökosystems, mikroskopischem Management und makroskopischer Messung. Es bedarf einer soliden Bewertung und möglicherweise einer Zahlungspolitik, um eine realistische, nachhaltige Managementfunktion von Ökosystemen und Agrarökosystem-Dienstleistungen und Gesundheit zum weltweiten Nutzen anzuregen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8836-5_6 aa067a80912b79dd44e523852948690a;de;;;4.2.;;;Schlüsselparameter von Internetdiskussionen: Testen der Methodik der Diskursanalyse Die Ergebnisse aktueller Autorenforschungen zur Rolle von Internetdiskussionen in Prozessen der politischen E-Partizipation sind in dem Artikel dargestellt. Auf Basis einer fundierten Inhaltsanalyse von elf Online-Diskussionen zur russischen Rentenreform entdecken und bewerten die Ermittler grundlegende Parameter der Qualität gesellschaftspolitischer Diskussionen aus deliberativer Sicht. Die Untersuchung solcher Parameter ermöglicht es, den Kern der Meinungen der Diskursteilnehmer zu verschiedenen gesellschaftlichen Themen (z. B. Unterstützung oder Ablehnung der Rentenreform) zu formulieren. Als Ergebnis werden Datensätze gebildet, die den Text der Beiträge des ursprünglichen Autors und die allgemeine Meinung kombinieren. Fortan ermöglicht es, eine Meinungsart in Abhängigkeit von Textinhalten vorherzusagen, Pluralität und Mehrdeutigkeit von Meinungen zu aktuellen Themen herauszufinden. Parameter wie Argumentation und Höflichkeit werden in dem Artikel ausführlich analysiert. Die Forschungsmethodik, basierend auf der Konzeption von J. Habermas, die in weiteren ähnlichen Untersuchungen verwendet werden kann, wird im Detail aufgezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-65218-0_3 8aa47376bc472f7e780e3951f3afc3a5;de;;;4.2.;;;Stakeholder-Analyse und Nachhaltigkeit von Telecenter-Projekten im ländlichen Malawi Telezentren sollen der Öffentlichkeit den Zugang zu Informations- und Kommunikationsdiensten und -technologien ermöglichen, von denen erwartet wird, dass sie zur Entwicklung der Massen beitragen. Die Regierung von Malawi führt ein IKT-Projekt für nachhaltige ländliche Entwicklung durch, das darauf abzielt, den ländlichen und unterversorgten Gebieten Malawis IKT-Dienste bereitzustellen. Bis 2012 hatte es landesweit etwa 50 Telezentren eingerichtet, aber es scheint, dass die Leistung einiger dieser Telezentren schlecht war und die erwarteten Ziele nicht erreichten. Einer der Faktoren, der sich auf die Nachhaltigkeit von Telezentren auswirkt, ist das Fehlen eines sinnvollen Engagements und einer Beziehung zwischen den Interessengruppen bei der Formulierung und Durchführung solcher Projekte. Daher wird in diesem Papier diskutiert, wie das Stakeholder-Management im Telecenter-Projekt in Malawi durchgeführt wird und wie sich dies auf die Leistung und Nachhaltigkeit des Projekts auswirkt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08368-1_23 a05d4877507766bb700d0499a50136b9;de;;;4.2.;;;Entwicklung eines neuen konzeptionellen Rahmens für Erlebnis- und Wertschöpfung Der Beitrag untersucht den Erfahrungsbegriff und untersucht seine Bedeutung in Wertschöpfungsprozessen mit einem Längsschnittansatz. Es verwendet eine Forschungsmethode, die auf der Entwicklung von sechzehn Aussagen über Erfahrung und Wert basiert. Es werden vier wesentliche Beiträge geleistet. Zunächst bietet der Artikel eine versöhnliche Konzeptualisierung, um zu erklären, was Erfahrung ist. Zweitens werden drei Konzepte identifiziert, um die Beziehung zwischen Erfahrung und Wert zu verstehen: potenzielle Wertquelle, Induktormittel und Wertakkumulation. Drittens unterscheidet es die Rolle der Erfahrung in drei Wertschöpfungsprozessen: Formation, Transformation und Co-Creation. Viertens validiert es die zeitliche Entwicklung des konzeptionellen Rahmens.;-;-;-;https://link.springer.com/article/10.1007/s11628-018-0379-4 71197bfa5a8204e80060e53e0151f221;de;;;4.2.;;;Krankenhauswettbewerb unter regulierten Preisen: Antrag auf Reformen des städtischen Gesundheitssektors in China Wir entwickeln ein Modell des öffentlich-privaten Krankenhauswettbewerbs zu regulierten Preisen und erkennen an, dass Krankenhäuser Multi-Service-Unternehmen sind und dass Gleichgewichte von der Interaktion von Patienten, Krankenhausverwaltungen und Ärzten abhängen. Anschließend verwenden wir Daten aus China, um ein Simulationsmodell der Auswirkungen der jüngsten Zahlungs- und Organisationsreformen in China auf Kosten, Qualität und Zugang zu kalibrieren. Sowohl die Analyse- als auch die Simulationsergebnisse zeigen, wie die Bereitstellung einer impliziten Versicherung durch verzerrte Preise zu einer Über-/Unternutzung von Dienstleistungen durch die Rentabilität führt, was wiederum die Kosteneskalation fördert und den Zugang für diejenigen verringert, die es sich nicht leisten können, die Pflege selbst zu bezahlen. Simulationen zeigen die Vorteile einer Mischzahlung und eines erweiterten Versicherungsschutzes zur Minderung dieser Verzerrungen auf.;-;-;-;https://link.springer.com/article/10.1023/B%3AIHFE.0000043762.33274.4f bda29a07902b75fb126505ee00b9772f;de;;;4.2.;;;Fortschritte in der RoboCup-Fußballforschung im Jahr 2000 Neben Forschern in den Bereichen KI und Robotik zieht RoboCup normale Menschen an, insbesondere Kinder, Gymnasiasten und Universitätsstudenten. Über 3000 Menschen aus 35 Nationen auf der ganzen Welt haben seit dem großen Erfolg der ersten Robot World Cup Soccer Games and Conferences, RoboCup-97, am RoboCup teilgenommen [;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45118-8_37 9112ec6d79c2f09e81acd721cd6c6017;de;;;4.2.;;;Geschlechterunterschiede in der Verteilungs- und Verfahrensgerechtigkeit verstehen Untersucht wurden geschlechtsspezifische Unterschiede in der Behandlung und bei Urteilen über Verteilungs- und Verfahrensgerechtigkeit. Dreihundertneun Prozessanwälte, die an schiedsgerichtlichen Verfahren wegen Autofahrlässigkeit beteiligt waren, antworteten auf Exit-Umfragen. Es wurden zwei Mechanismen untersucht, durch die das Geschlecht die Wahrnehmung von Gerechtigkeit beeinflussen könnte. Zunächst untersuchten wir, ob ein „Chivalry Bias“ vorliegen könnte, bei dem die Verfahren systematisch Frauen gegenüber Männern bevorzugen. Wenn solche Vorurteile auftreten, könnten sich Frauen aufgrund egozentrischer Vorurteile gerechter behandelt fühlen. Die Ergebnisse lieferten nur eine bescheidene Unterstützung für die Ritterlichkeit. Während Frauen etwas bessere Auszeichnungen erhielten und etwas mehr Kontrolle empfanden als Männer, hatten diese Unterschiede keinen Einfluss auf die Wahrnehmung von Verteilungs- oder Verfahrensgerechtigkeit. Zweitens haben wir untersucht, ob sich Männer und Frauen systematisch in den Faktoren unterscheiden, die sie als Indikatoren für Verteilungs- und Verfahrensgerechtigkeit verwenden. Auf der Grundlage der Gruppenwerttheorie sagten wir voraus, dass Frauen mehr Wert auf das Stehen oder die Begünstigung des Ergebnisses legen könnten. Die Studie ergab, dass sich Männer und Frauen in der Definition von Verteilungsgerechtigkeit unterschieden, wobei Frauen mehr Wert auf ihre wahrgenommene Stellung und ihre Wahrnehmung der Günstigkeit ihrer Ergebnisse legten. Es gab keine wesentlichen geschlechtsspezifischen Unterschiede in der Definition von Verfahrensgerechtigkeit. Die Ergebnisse werden im Hinblick darauf interpretiert, wie Frauen auf die Unsicherheit angesichts eines historisch von Männern dominierten Justizsystems reagieren könnten.;-;-;-;https://link.springer.com/article/10.1007/BF02196990 a55cb1ec1d14afb346c72508b37eacc1;de;;;4.2.;;;Nutzung von Twitter in Bildungseinrichtungen: ein Überblick über die Literatur Die Nutzung von Social Media in der Bildungslandschaft nimmt zu. In der Folge ist die Forschung zu diesem Thema lebendig und wächst. In diesem Artikel präsentieren wir Ergebnisse aus einer Überprüfung von 103 von Experten begutachteten wissenschaftlichen Studien, die im letzten Jahrzehnt (2007–2017) veröffentlicht wurden und sich mit der Nutzung von Twitter für Bildungszwecke in formellen und informellen Umgebungen befassen. Die Mehrzahl der in der Literatur berichteten Studien sind deskriptive Fallstudien, die mit Studierenden an nordamerikanischen und europäischen Hochschulen durchgeführt wurden. Die Analyse dieser Studien signalisiert Twitter aufgrund der hohen Zugänglichkeit, Neuheit und des Echtzeitformats als nützliches Kommunikationsinstrument. Schüler, Lehrer und andere Interessengruppen nutzen es als pädagogisches Werkzeug, um Informationen zu sammeln, zu interagieren und miteinander zu interagieren, an ihren jeweiligen Interessengemeinschaften teilzunehmen und ihre Erkenntnisse zu bestimmten Themen auszutauschen. Darüber hinaus hat Twitter aufgrund seiner einzigartigen Funktionen und seines nicht-traditionellen Lehransatzes das Potenzial, die Lernfähigkeiten der Schüler zu verbessern sowie ihre Motivation und ihr Engagement zu verbessern. Schließlich plädiert unsere Analyse für die Durchführung weiterer empirischer Studien mit Fokus auf digitale Spurendaten und Inferenz, insbesondere in den Entwicklungsländern.;-;-;-;https://link.springer.com/article/10.1186/s41239-019-0166-x 6ddef1093a421df1262f2707f14e031b;de;;;4.2.;;;Ethische Aspekte von Gehirn-Computer-Schnittstellen: ein Scoping Review Brain-Computer Interface (BCI) ist eine Reihe von Technologien, die für Forscher von zunehmendem Interesse sind. BCI wurde als unterstützende Technologie für Personen vorgeschlagen, die nicht kommunikativ oder gelähmt sind, wie z. B. Personen mit amyotropher Lateralsklerose oder Rückenmarksverletzungen. Die Technologie wurde auch für Verbesserungs- und Unterhaltungszwecke vorgeschlagen, und es gibt derzeit Unternehmen, die BCI-Geräte für diese Zwecke (z. B. Spiele) sowie gesundheitsbezogene Zwecke (z. B. Kommunikation) vermarkten. Die durch BCI geschaffene beispiellose direkte Verbindung zwischen dem menschlichen Gehirn und der Computerhardware wirft verschiedene ethische, soziale und rechtliche Herausforderungen auf, die weitere Untersuchungen und Diskussionen verdienen.;-;-;-;https://link.springer.com/article/10.1186/s12910-017-0220-y 2dc2843ef5853942b76cbe5a08ee910d;de;;;5.2.;;;Visualisierung von Lücken zwischen Blechteilen für die Wasserdichtheit von Automobilen In der Automobilindustrie können Lücken zwischen Teilen bestehen, wenn die Baugruppe durch gleichzeitige Konstruktionsmethodik entwickelt wird. Viele Fälle der Lücken können durch temporäre Behandlungen mit Versiegelungen abgedeckt werden. Diese Art der schnellen Reparatur kann jedoch zu Undichtigkeiten in den Motorraum oder die Fahrgastzelle führen, wenn der Spalt zum Befüllen zu groß ist oder wenn das Dichtmittel alt wird. In dieser Forschung haben wir ein Programm entwickelt, um die Spaltflächen zwischen Blechteilen automatisch zu visualisieren. Durch die Verwendung der Methode der Voxel-Darstellung der Baugruppe kann das Programm die Position der Lücken finden, die kleiner als ein bestimmter Abstand sind. Nach dem Extrahieren der Grenzkanten der Lücke flickt das Programm die Kanten, um eine Fläche der Lücke zu erzeugen. Das entwickelte Programm kann es Konstrukteuren ermöglichen, ihre Konstruktionsfehler vor der Herstellungsphase zu korrigieren, was auch auf den Flugzeug- und Schiffsentwurf angewendet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0557-2_107 5af28cb29792a82c7029232cdc2b8acd;de;;;5.2.;;;Lern-Interaktion-Diversifizierungs-Framework für Schwarmintelligenz-Optimierer: eine einheitliche Perspektive Aufgrund der Effizienz und Leistungsfähigkeit bei der Bewältigung komplexer Optimierungsprobleme haben Schwarmintelligenz(SI)-Optimierer, die neu als naturinspirierte Algorithmen entstanden sind, großes Interesse von Forschern aus verschiedenen Bereichen gefunden. Es wurde eine große Anzahl von SI-Optimierern und deren Erweiterungen entwickelt, was die Notwendigkeit einer umfassenden Überprüfung der Eigenschaften jedes Algorithmus vorantreibt. Daher ist ein verallgemeinerter Rahmen, der auf den grundlegenden Prinzipien basiert, aus denen SI-Optimierer entwickelt werden, von entscheidender Bedeutung. Diese Forschung verfolgt eine multidisziplinäre Sichtweise, indem sie Forschungsmotivationen aus Biologie, Psychologie, Informatik und Ingenieurwissenschaften untersucht. Es wird ein Lern-Interaktions-Diversifikations-(LID)-Rahmen vorgeschlagen, bei dem Lernen das individuelle Verhalten verstehen soll, Interaktion das Schwarmverhalten beschreiben und Diversifikation die Populationsleistung kontrollieren soll. Mit dem LID-Framework werden 22 hochmoderne SI-Algorithmen charakterisiert und neun repräsentative ausgewählt, um sie im Detail zu überprüfen. Um die Beziehungen zwischen LID-Eigenschaften und algorithmischer Leistung zu untersuchen, werden LID-getriebene Experimente mit Benchmark-Funktionen und realen Problemen durchgeführt. Es werden Vergleiche und Diskussionen zu Lernverhalten, Interaktionsbeziehungen und Diversity Control gegeben. Einblicke in das LID-Framework und Herausforderungen werden auch für zukünftige Forschungsrichtungen diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s00521-018-3657-0 b64abe3ccffbea0710728e781d48a694;de;;;4.2.;;;Die Schlüsselfaktoren des Wissensaustauschs in der Online-Community Im Web 2.0 stellten soziale Netzwerkdienste auch viele angeschlossene Tools zur Unterstützung der sozialen Kommunikation bereit, zum Beispiel Fotofreigabe und Kommentarmechanismus. Wie oben erwähnt, ermöglichte das Web 2.0 den webbasierten Informationsaustausch, sogar den Wissensaustausch. Allerdings wurde dieser Wissensaustausch über Online-Nutzer in weniger Studien untersucht. In diesem Papier möchten wir den Inhalt und den sozialen Wert der Benutzer in Bezug auf die Auswirkungen von Wissensplattformen auf den Wissensaustausch und die Nutzung untersuchen. Schließlich entwickelt die Studie ein KMO 2.0-Erfolgsmodell. Im Modell haben wir 13 Hypothesen zum Testen vorgeschlagen. Aus den Ergebnissen wurden die Hypothesen H1, H3, H5, H6, H7, H8, H9, H10, H11, H12 und H13 gestützt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10671-7_10 c26a8cc34474a060babe4196dd4d2001;de;;;4.2.;;;Hinter der „Erfolgsgeschichte“: Die Erfahrungen einer Frau mit Mathematik-Major In Kanada sind Frauen in Mathematikstudiengängen an Universitäten eine Minderheit, und diese Situation hat sich in den letzten Jahren nicht verbessert. Um diese Situation zu untersuchen, wurde eine Untersuchung durchgeführt, um die Erfahrungen von Frauen zu untersuchen, die als „Erfolgsgeschichten“ in der Mathematik gelten könnten – diejenigen, die über ihre ersten Studienjahre hinaus beharrten – um die Unterstützung und Herausforderungen zu verstehen, mit denen sie konfrontiert waren. An dieser Studie nahm Elise, Masterstudentin der Mathematik, teil. Obwohl Elise nach externen Maßstäben eine sehr erfolgreiche Studentin und vielleicht sogar ein „Modell“ einer erfolgreichen Frau in diesem Bereich war, zeigte ihr Interview, dass sie sehr ängstlich und nervös war und einen extremen Druck verspürte, erfolgreich zu sein und „perfekt“ zu sein. Durch die Untersuchung von Elises Erfahrungen kann ein besseres Verständnis der Spannung zwischen Elises äußerem Erfolg und inneren Ängsten gewonnen werden. Darüber hinaus wird eine erneute Überprüfung traditioneller Definitionen des Erfolgs von Frauen in von Männern dominierten Bereichen angeboten. Wir besprechen auch Überlegungen, die im Umgang mit leistungsstarken Schülern berücksichtigt werden sollten.;-;-;-;https://link.springer.com/article/10.1007/s42330-018-0032-1 a5fb92703575fe5a75e11388183028ab;de;;;4.2.;;;Beidhändige soziokulturelle Algorithmen Metaheuristiken sind eine Klasse von Algorithmen mit einigen Intelligenz- und Selbstlernfähigkeiten, um Lösungen für schwierige kombinatorische Probleme zu finden. Obwohl die versprochenen Lösungen nicht unbedingt global optimal sind, sind sie rechensparsam. Im Allgemeinen wurden diese Arten von Algorithmen durch Nachahmung intelligenter Prozesse und Verhaltensweisen erstellt, die in der Natur, Soziologie, Psychologie und anderen Disziplinen beobachtet werden. Metaheuristik-basierte Suche und Optimierung wird derzeit häufig zur Entscheidungsfindung und Problemlösung in verschiedenen Kontexten verwendet. Die Inspiration für metaheuristische Algorithmen basieren hauptsächlich auf dem Verhalten der Natur oder dem biologischen Verhalten. Das Entwerfen einer guten Metaheuristik bedeutet, einen richtigen Kompromiss zwischen zwei Kräften einzugehen: Erforschung und Ausbeutung. Es ist eines der grundlegendsten Dilemmata, mit denen sowohl Einzelpersonen als auch Organisationen ständig konfrontiert sind. Aber es gibt einen wenig erforschten Zweig, der den auf dem Sozialverhalten von Menschen oder Gemeinschaften basierenden Techniken entspricht, die als Social-Inspired bezeichnet werden. In diesem Papier erklären und vergleichen wir zwei sozio-inspirierte Metaheuristiken, die ein kombinatorisches Benchmark-Problem lösen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58817-5_65 7cc54d963078f3fdad35e38fadef0767;de;;;4.2.;;;Der Umweltplanungs- und Managementansatz für die Entwicklung und das Management des Osun-Naturquellenprojekts, Ibadan, Nigeria In Nigeria herrscht generell Trinkwasserknappheit, teils aufgrund fehlender natürlicher Versorgung und teils wegen des schnellen und weitgehend ungeplanten Stadtwachstums. Das Papier beschreibt die kürzliche Sanierung einer öffentlichen Wasseranlage in einem heruntergekommenen Gebiet von Ibadan, die Teil des Sustainable Ibadan Project ist. Trotz der Finanzierung durch nationale und internationale Gremien ist die Entwicklung stark auf Gemeinschaftsebene ausgerichtet. Die Bewohner fühlen sich durch ihre Vertreter in den verschiedenen Planungs- und Verwaltungsausschüssen über ihre eigene Wasserversorgung in der Hand. Ziel ist es, Vandalismus zu reduzieren und den Stolz und das Engagement in der Gemeinschaft zu erhöhen.;-;-;-;https://link.springer.com/article/10.1007/s10708-004-2875-4 18e8372acceb0daa6f286348aa75f2c5;de;;;4.2.;;;Elitenkonsens und -dissens in der westdeutschen Außenpolitik Die Entwicklung der Bundesrepublik Deutschland zu einem demokratischen und stabilen Gemeinwesen kann nur als bemerkenswerte Leistung gewertet werden. Die politische Kultur der Nachkriegszeit zeigt eine Zurückhaltung sowohl in der Perspektive als auch im Handeln, und sie hat die für den Wiederaufbau des Landes erforderliche Kontinuität geschaffen. Ohne die bemerkenswerte politische Stabilität der Bundesrepublik hätte ihre gegenwärtige Wirtschaftskraft nicht gesichert und erhalten werden können. Die Betonung des Wertes eines breiten Konsenses und des Ausgleichs divergierender Interessen war entscheidend für die langsame, aber sichere Eroberung der Vergangenheit. Die politischen Parteien waren die Hauptakteure in diesem Prozess, weil die;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-21938-4_3 af9b55dfb2e3540c39f40325229652bc;de;;;5.2.;;;Implementierung der stochastischen adaptiven Suche mit Hit-and-Run als Generator Der Hit-and-Run-Algorithmus erzeugt iterativ eine Folge von Punkten in einem Satz, indem Schritte zufälliger Länge in zufällig generierten Richtungen ausgeführt werden. Hit-and-Run wird als Sampling-Technik innerhalb eines globalen Optimierungsalgorithmus, als Generator im Kontext des simulierten Annealings verwendet. Das ultimative Ziel besteht darin, die wünschenswerten Eigenschaften der stochastischen adaptiven Suche anzunähern, insbesondere die lineare Komplexität der reinen adaptiven Suche. Ein solcher Algorithmus ist die Hit-and-Run-Version des simulierten Annealings mit einer Temperatur gleich Null, die als Improving Hit-and-Run bezeichnet wird, da nur Punkte akzeptiert werden, die die Zielfunktion verbessern. Der Hit-and-Run-Generator in Verbindung mit einem Metropolis-Akzeptanzkriterium heißt Hide-and-Seek und wird durch theoretische Ergebnisse der adaptiven Suche motiviert. Hier werden auch andere Variationen von Hit-and-Run beschrieben, die auf die globale Optimierung angewendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-5362-2_8 7ec3930abe14d0ed90289255228ec31e;de;;;5.2.;;;Therapeutische Dilemmata in der interkulturellen Praxis mit asiatisch-amerikanischen Jugendlichen Die folgende Studie schlägt vor, dass sich Unterschiede in Traditionen und Werten zwischen westlichen Klinikern und asiatisch-amerikanischen Klienten in therapeutischen Dilemmata manifestieren und bietet Empfehlungen für die interkulturelle Praxis mit asiatisch-amerikanischen Jugendlichen und ihren Familien. Die Themen, die untersucht werden, sind Unabhängigkeit vs. Akkulturation/Individuation, Gleichheit vs. Hierarchie/Autorität und unterstützende vs. dynamische Behandlung.;-;-;-;https://link.springer.com/article/10.1007/s10560-005-2554-4 5b1bf7786b6b495df10fbfc7bb766e25;de;;;5.2.;;;Die Auswirkungen der Alten- und Krankenpflege auf die Erwerbstätigkeit von Frauen Die gegenwärtige Regierungspolitik ist darauf ausgerichtet, die Pflege älterer und gebrechlicher Menschen durch die Gemeinschaft zu gewährleisten, im Gegensatz zur Erhöhung des Beitrags der nationalen und lokalen Behörden. Die Unzulänglichkeiten dieser staatlichen Dienstleistungen haben sich in den letzten zwanzig Jahren in vielen Studien gezeigt, darunter auch in einigen offiziellen Erhebungen (Harris, 1968 und 1971, Hunt, 1970 und 1978). Die Wirkung der gegenwärtigen Regierungspolitik wird daher dazu führen, dass die Familien, insbesondere die Frauen in den Familien, der Kranken und Alten noch stärker belastet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-19293-9_7 d3d0fe96a4aaab5b58f16af5361f3aa4;de;;;5.2.;;;„Tellable-Tellings“ verwirklichen: Glaubensbekundungen im Live-Radio managen alle Gelehrten haben das Studium des Testimonio als kritische Methode zur Untersuchung und zum Verständnis der Beziehung zwischen Erzählung und sozialem Wandel verwendet (Beverley, „Testimonio“ 547). Obwohl es keine universelle Definition von testimonio gibt, kann es als eine „roman- oder novellenlange Erzählung“ in „gedruckter Form“ charakterisiert werden, die von einem Erzähler erzählt wird, der eine bedeutende Lebenssituation direkt erlebt oder miterlebt hat (Beverley, „The Margin“ 12 –13). Testimonio ist auch insofern eine „nración de Urgencia“ (eine dringende Erzählung), als sie „ein Problem der Unterdrückung, Armut, Marginalität, Ausbeutung oder einfach des Überlebens beinhaltet, das mit der Handlung der Erzählung selbst verbunden ist“ (Beverley, „Testimonio ” 556). Yudice beispielsweise beschreibt testimonio als „authentische Erzählung, erzählt von einem Zeugen, der durch die Dringlichkeit einer Situation dazu bewegt wird, zu erzählen“ (17). Diese Behandlung von testimonio impliziert eine besondere Beziehung zwischen der Texterzählung und ihrem Leser. Tatsächlich lädt testimonio sein Publikum ein, sich ethisch und epistemologisch an erzählten Kämpfen zu beteiligen.;-;-;-;https://link.springer.com/chapter/10.1057/9781137012142_9 8767630f1bd850c30a9b5ad21fca3182;de;;;4.2.;;;Ergebnisse der Japanese National Character Survey (JNCS) Der Japanese National Character Survey (JNCS) zeigt Längsschnittveränderungen japanischer Einstellungen, Meinungen und Werte zu verschiedenen Themen des täglichen Lebens über 65 Jahre seit 1953. Die Daten zeigen deutliche Veränderungen des japanischen Bewusstseins aufgrund von Veränderungen in Politik und Wirtschaft in der Nachkriegszeit. Zum Beispiel die geschlechtsspezifischen Antworten auf die Frage „Wenn Sie wiedergeboren wurden, möchten Sie als Junge oder als Mädchen geboren werden?“ symbolisiert die Veränderungen Japans im Längsschnitt nicht nur in Bezug auf die Gleichstellung der Geschlechter, sondern auch auf die sozialen Einstellungen und Werte. Obwohl die menschlichen Beziehungen jahrzehntelang stabil aussahen, zeigten sich Mitte der 1970er Jahre einige Anzeichen von Veränderungen in der jungen Gruppe. Seitdem zeigten die Antwortmuster vieler Frageitems unregelmäßige Muster. Inzwischen haben wir verschiedene Methoden der Datenanalyse entwickelt, um Persönlichkeiten zu charakterisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1673-0_2 97dd63a500f3975051a96e29e0d720f5;de;;;5.2.;;;Einheitliche Rechtsvorschriften für Vertragsstreitigkeiten: Die tätigkeitsbezogene Zuständigkeit auf die Tagesordnung setzen Dieser Artikel befasst sich mit der Notwendigkeit einheitlicher Zuständigkeitsregeln bei grenzüberschreitenden Vertragsstreitigkeiten und versucht, diese wieder auf die diplomatische Tagesordnung zu setzen. Er versucht zu erklären, warum der traditionelle Ansatz der internationalen Gerichtsbarkeit in Vertragsstreitigkeiten seinen Schwerpunkt von dem veralteten Ansatz der allgemeinen Gerichtsbarkeit zu einem pragmatischeren, schrittweisen Ansatz unter Berücksichtigung des kaufmännischen Charakters von Vertragsbeziehungen ändern sollte. Unter den vielen Aspekten und Erläuterungen zu den unterschiedlichen Ansätzen der internationalen Gerichtsbarkeit konzentriert sich dieser Artikel auf die Idee, dass die wichtigste Grundlage der Gerichtsbarkeit in internationalen Vertragsstreitigkeiten auf der wirtschaftlichen Loyalität des Beklagten beruhen sollte. Um die Kluft zwischen den unterschiedlichen Zuständigkeitsansätzen zu überbrücken, wird in dem Artikel argumentiert, dass der Weg für einheitliche Zuständigkeitsregeln in Vertragsstreitigkeiten die tätigkeitsbezogene Zuständigkeit sein sollte, und schlägt eine Reihe von Regeln vor, die die Zuständigkeit hauptsächlich auf der Grundlage der vom Beklagten festgelegten Geschäftssitz oder die wesentliche Geschäftstätigkeit des Beklagten im Zusammenhang mit dem Vertrag. Das vorgeschlagene Regelwerk wird auch vor dem Hintergrund einer Reihe neuerer EuGH-Entscheidungen, die sich mit der Forum-Contractus-Regel des Artikels 5 Absatz 1 der Brüssel-I-Verordnung befassen, und zweier wichtiger Entscheidungen des Obersten Gerichtshofs der USA zu „Geschäften“ und „Transaktionen“ Geschäftsgerichtsbarkeit im Jahr 2011 erlassen.;-;-;-;https://link.springer.com/article/10.1017/S0165070X12000058 3d9deb713bb8b99f0fcbd63510602ed1;de;;;5.2.;;;Die Rückkehr der Göttin sein Kapitel beschäftigt sich mit dem Werden, speziell dem weiblichen Werden. Mit „Werden“ meine ich einen Zustand der Transzendenz jenseits des dominanten maskulinistischen Wissens, der es allen Menschen ermöglicht, ihren Platz als verkörperte lebende Subjekte in ihrem eigenen Recht einzunehmen, und ohne auf dualistische Konstruktionen von Geschlecht/Geschlecht zurückzugreifen. In Anlehnung an die poststrukturalistischen Schriften von Irigaray and the Divine und feministische Gelehrte zeige ich, wie ein erneutes Lesen weiblicher Weisheit und Führung uns helfen kann, uns zu einem Ort der Transzendenz zu bewegen und geschlechtliche Subjektivitäten zu werden. Die Untersuchung des weiblichen Werdens wird nicht auf zeitgenössische weibliche Führer zurückgreifen, sondern auf Heldinnen in den Geschichten der menschlichen Moral und Spiritualität, die in der hebräischen Bibel enthalten sind. Mit besonderem Fokus auf Deborah im Buch der Richter, einer der frühesten aufgezeichneten weiblichen Führungspersönlichkeiten, besteht das Ziel darin, zu einem Prozess der Neuinterpretation alter Führungskenntnisse beizutragen, um die Theorie der Führung durch die Einschreibung einer weiblichen Logik weiter voranzutreiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-137-12074-8_7 d7b31603e3ae5b15b9b4cd751ae663b2;de;;;4.2.;;;Ein Literaturüberblick über die Nutzung GIS-basierter Maßnahmen des Zugangs zu Gesundheitsleistungen Die zunehmende Verfügbarkeit von geografischen Informationssystemen (GIS) in Gesundheitsorganisationen sowie die Verbreitung räumlich disaggregierter Daten haben zu einer Reihe von Studien geführt, die sich mit der Entwicklung von Maßnahmen für den Zugang zu Gesundheitsdiensten beschäftigt haben. Das Hauptziel dieses Papiers besteht darin, den Einsatz von GIS-basierten Maßnahmen bei der Untersuchung der Beziehung zwischen geografischem Zugang, Nutzung, Qualität und Gesundheitsergebnissen zu überprüfen. Untersucht werden die verschiedenen Ansätze von Forschern, die sich mit der relativen Bedeutung geographischer Faktoren beschäftigen, die den Zugang beeinflussen können. In Ermangelung detaillierter Daten zu Gesundheitsnutzungsmustern hat sich ein Großteil dieser Forschung bisher auf die Entwicklung von Maßnahmen zur potenziellen Zugänglichkeit konzentriert. In diesem Beitrag wird die Situation hinsichtlich des Einsatzes solcher Maßnahmen in einer breiten Palette von Barrierefreiheitsstudien kritisch bewertet. Insbesondere gibt es bisher weniger Forschung, die den Zusammenhang zwischen solchen Maßnahmen und gesundheitlichen Ergebnissen untersucht. In den letzten Abschnitten des Papiers greife ich auf die Übersicht zurück, um Bereiche zu skizzieren, in denen eine breitere Forschungsagenda erforderlich ist, insbesondere in Bezug auf neuere Innovationen in der Gesundheitsversorgung.;-;-;-;https://link.springer.com/article/10.1007/s10742-005-4304-7 cc50ebee9aa30a757f1a529d18cfa8d9;de;;;4.2.;;;Die Manipulation der Ausgleichs- und Verflechtungsstrategie der ASEAN in Ostasien In Ostasien hat sich der Aufbau von Institutionen im Vergleich zu Europa, Amerika oder Südasien verzögert. Der Mangel an Führung wurde als einer der Hauptgründe für diese Verzögerung angesehen. Die Entwicklung regionaler Institutionen in Ostasien wurde jedoch durch eine wesentliche Rolle der Association of Southeast Asian Nations (ASEAN) unterstützt, einer Organisation, die kleine Staaten in Südostasien umfasst. Die großen regionalen Foren wie ASEAN Plus Three (ASEAN+3), das ASEAN Regional Forum (ARF) und das Asia-Europe Meeting (ASEM) wurden auf Initiative der ASEAN gebildet und entwickelt.;-;-;-;https://link.springer.com/chapter/10.1057/9780230584198_7 b84af80b60559cc6ec2c5293d5a3f096;de;;;4.2.;;;Zur Typologie des Informationsethos Der Beitrag diskutiert das Verständnis von Informationsethik als einem Forschungsfeld, das ethische Probleme sozialer Kommunikation in engem Zusammenhang mit der Analyse von Cyber-Informatisierungsprozessen untersucht. Es wird vorgeschlagen, Informationsethik als generisches Konzept zu betrachten und Computerethik als eine ihrer Arten aufgrund von Computerkommunikationstechnologien zu interpretieren. Historische Typen des Informationsethos und seine psychologischen Eigenschaften werden in Übereinstimmung mit den wichtigsten Typen von Informationsparadigmen aufgedeckt. Grundlage dieses Paradigmas ist ein spezifischer Systemtyp „Mensch – Informationstechnologie“ und Informationsaustauschtechnologie. In der Struktur des Informationsaustauschs können mehrere Komponenten unterschieden werden: (a) Inhaltskomponente oder der eigentliche Austausch der Informationen (Inhalte), (b) technologische Grundlage der Kommunikation, die die Ethik der technologischen Methoden des Informationsaustauschs hervorbringt, (c ) psychologische Aspekte des Informationsaustauschs, die sich mit jeder neuen technologischen Kommunikationsmethode ändern. Ihre Veränderungen werfen die spezifischen ethischen Probleme auf und bilden eine spezifische Art von Informationsmoral – Informationsethos. Es wird zwischen Ethik des Informationsaustauschs und Ethik der Informationstechnologien unterschieden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37858-5_14 88ac8b9f43c430d3b5a05e8b02bf73f7;de;;;4.2.;;;Gender Impact auf die Informationssicherheit in der arabischen Welt Der Zugang zu Technologie und die daraus resultierenden Vorteile stehen Männern und Frauen nicht zu gleichen Bedingungen offen. In diesem Beitrag überprüfen wir Forschungsergebnisse, die die Beziehung zwischen der digitalen Kluft und dem Geschlecht im Kontext arabischer Länder beleuchten, und schlagen vor, dass das Ausmaß der digitalen Kluft zwischen den Geschlechtern von kulturellen Einstellungen beeinflusst wird, und untersuchen, wie sich diese Kluft auf die Informationssicherheit auswirken kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23276-8_18 dc13652ae60b1102c5efe20dcbf8cd86;de;;;4.2.;;;Erforschung der Verhaltensstruktur im sportlichen Lebensstil älterer Menschen Dieser Artikel verwendet Dokument-Daten-Methoden, Fragebogenerhebungen und mathematische Statistiken, um eine Studie über die Verhaltenskonstitution, die körperlichen Eigenschaften und andere Aspekte des sportlichen Lebensstils älterer Menschen durchzuführen, schlägt ein Konstruktionsmodell des sportlichen Teilnahmeverhaltens älterer Menschen vor, analysiert deren Trainingszwecke purposes , Programme und Orte, und schlägt vor, dass sie sich in moderater Intensität bewegen sollten, was eine theoretische Grundlage für die wissenschaftliche Anleitung und Intervention des sportlichen Lebensstils älterer Menschen bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23062-2_71 686e86dc835cefc1022c890db41bc5ff;de;;;5.2.;;;Die Lösung der geometrischen Randbedingungen basierend auf dem genetischen Algorithmus des mutativen Skalenchaos Das Constraint-Problem kann in ein Optimierungsproblem umgewandelt werden. In diesem Artikel wurde ein neuer Hybridalgorithmus – MSCGA – vorgestellt, der genetische Algorithmen mit Chaos-Optimierungsverfahren mischt. Charakteristisch für diese neue Methode ist, dass der Mechanismus der GA nicht verändert wurde, sondern der Suchraum und der Anpassungskoeffizient kontinuierlich reduziert wurden, was dazu führen kann, dass sich die Generation zur nächsten Generation entwickelt, um bessere Optimierungsindividuen zu produzieren. Es kann die Leistung des GA verbessern und den Nachteil des GA überwinden. Die Untersuchung zeigt, dass dieser Algorithmus eine bessere Leistung als die normale GA und andere hybride Methoden beim Lösen einer geometrischen Einschränkung zeigen kann und ein zufriedenstellendes Ergebnis erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30497-5_51 645db350e29a1e000f3c5501305231ed;de;;;4.2.;;;Faktorenstruktur, Zuverlässigkeit und Kriteriumsvalidität des Autismus-Spektrum-Quotienten (AQ): Eine Studie in niederländischen Bevölkerungs- und Patientengruppen Die Faktorenstruktur der niederländischen Übersetzung des Autismus-Spektrum-Quotienten (AQ, ein kontinuierliches, quantitatives Maß autistischer Merkmale) wurde mit konfirmatorischen Faktorenanalysen in einer großen Allgemeinbevölkerung und Schülerstichprobe evaluiert. Die Kriteriumsvalidität des AQ wurde in drei gematchten Patientengruppen (Autismus-Spektrum-Bedingungen (ASC), soziale Angststörung und Zwangsstörung) untersucht. Ein Zwei-Faktoren-Modell, bestehend aus einem Faktor „Soziale Interaktion“ und einem Faktor „Aufmerksamkeit zum Detail“, konnte identifiziert werden. Die interne Konsistenz und Test-Retest-Reliabilität des AQ waren zufriedenstellend. Hohe Gesamt-AQ- und Faktor-Scores waren spezifisch für ASC-Patienten. Männer schnitten besser ab als Frauen und Studierende der Naturwissenschaften besser als Studierende ohne Naturwissenschaften. Die niederländische Übersetzung des AQ ist ein zuverlässiges Instrument zur Beurteilung der Bedingungen des Autismus-Spektrums.;-;-;-;https://link.springer.com/article/10.1007/s10803-008-0538-x 115da65350fded31724df1e1411804a4;de;;;4.2.;;;Appelle zur moralischen Bildung an Hochschulen: Basierend auf einer offenen Umgebung von Labors im Campus-Netzwerk Als Hauptinhalt der Hochschulreform ist die offene Umgebung von Labors im Campus-Netzwerk ein wirksames Mittel, um praktische und kreative Fähigkeiten, Moral und Glauben und Werte für Studenten zu fördern. In einem solchen Umfeld sieht sich die moralische Bildung an Hochschulen sowohl günstigen Chancen als auch großen Herausforderungen gegenüber und bietet neue Reize, die sich von den traditionellen unterscheiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_323 d97dc01c325b6905e33293f5d1d5128e;de;;;4.2.;;;Irans internationale Beziehungen angesichts der imperialen Hybris der USA: Von „9/11“ bis zum Irakkrieg Iraq Nach der Einführung außenpolitischer Denkschulen werden in diesem Kapitel die internationalen Beziehungen des Iran nach den Terroranschlägen vom 11. September 2001 in den USA („9/11“) und die Reaktionen Teherans auf die folgenschweren Herausforderungen durch den US-amerikanischen „Regimewechsel“ erörtert “-Operationen in Afghanistan und im Irak einerseits und die Androhung eines gegen den Iran selbst gerichteten „Regimewechsels“ andererseits. In Bezug auf unsere theoretische Frage nach der Außen-Innen-Dynamik soll gefragt werden, wie die US-Politik und -Haltung nach dem „9/11“ die iranischen Sicherheits- und Außenpolitikdebatten und letztendlich den Staat-Gesellschaft-Komplex beeinflusst hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6074-3_6 af44aef700e880b9b4b9ca955c8d1e9a;de;;;4.2.;;;Der Arabische Frühling in Nordafrika: Noch Winter in Marokko? Dieses Kapitel konzentriert sich auf Marokko und stellt Forschungen zur marokkanischen Blogosphäre zwischen 2007 und 2009 vor dem Arabischen Frühling vor, in denen ein aufkeimender zivilgesellschaftlicher Raum mit einigen Hinweisen auf kollektives Handeln erkennbar war. Trotz dieses Online-Aktivismus und der höchsten Internetdurchdringung in Nordafrika hielt die marokkanische Regierung den Protesten des Arabischen Frühlings stand. Während die religiöse und politische Legitimität der marokkanischen Monarchie ein Schlüsselfaktor für die Erklärung dieses Unterschieds ist, gibt es auch erhebliche sozioökonomische und sprachliche Unterschiede, die sich im Online-Raum widerspiegeln. Nichtsdestotrotz bietet die marokkanische Blogosphäre im Vorfeld der Ereignisse von 2011 eine reiche öffentliche Erzählung, die kollektives Handeln umfasst, das einzigartig für dieses historisch autoritäre nordafrikanische Land ist. Das Kapitel wird ausgewählte Literatur zu kollektiven Aktionen verwenden, um die Natur dieser Erzählung zu untersuchen und sie dann im Lichte mehrerer Proteste des Arabischen Frühlings zu untersuchen, die in Marokko stattfanden, und kommt zu dem Schluss, dass die Monarchie zwar ihre Macht behält und Online-Kollektivaktionen nicht die Mehrheit erreichen der Bürger stellen soziale und politische Online-Ausdrucke eine potenziell bedeutende Entwicklung in Marokkos öffentlicher Sphäre dar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-1340-0_11 b783c2e205d273c2f13e9c53ca8a20d5;de;;;4.2.;;;Führt die Verbreitung internationaler Justizbehörden zur Fragmentierung des Völkerrechts? In den letzten zwei Jahrzehnten haben zwei Phänomene, eines auf internationaler Ebene und ein eher theoretisches, die wissenschaftliche Analyse internationaler Gerichte beschäftigt. Das auftretende Phänomen ist die Verbreitung oder Vermehrung internationaler Justizorgane, die im Völkerrecht gegen Ende des 20. Jahrhunderts bezeugt wird. Das „theoretischere“ Phänomen ist die mögliche Fragmentierung des Völkerrechts, die mit dem Phänomen der Proliferation (oder Multiplikation) einhergehen kann. Dieses Kapitel gibt einen Überblick über diese beiden Phänomene im Völkerrecht. Es überprüft die Begriffe „internationale Justizbehörden“, „Vermehrung von Justizbehörden“, „Völkerrecht“, „Einheit des Völkerrechts“, „Fragmentierung des Völkerrechts“,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-65488-1_2 9253f6f35b2b82c139a38d58ad74f1c7;de;;;4.2.;;;Psychoanalytisch-Entwicklungstheorie und die Entwicklung der männlichen Geschlechtsidentität Das Konzept der Identität ist seit Jahrhunderten ein zentrales Anliegen der Philosophen – vielleicht seit die Menschheit ein Selbstbewusstsein entwickelt hat. Auf einer Ebene wird Identität von Psychologen als Synonym für das „Selbst“ oder „Selbstsystem“ angesehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-4211-3_4 8a940f60840e66ce21a11e5f26128437;de;;;4.2.;;;Das Verhältnis von Gruppenkontext und Intelligenz zum Überrechtfertigungseffekt Der Zweck dieses Experiments war es, die Auswirkungen von Gruppenkontext und Intelligenz auf den Überrechtfertigungseffekt bei Kindern der ersten und zweiten Klasse zu untersuchen. 52 männliche und weibliche Probanden wurden zufällig Belohnungs- und Kontrollbedingungen zugewiesen und in Gruppen von drei bis sechs getestet. Die Hälfte der Probanden erhielt Belohnungen für das Ausfüllen von „Connect-the-Dot“-Bildern, die andere Hälfte erhielt keine Belohnung. Die für die Aufgabe aufgewendete Zeit, die Anzahl der verbundenen Punkte und die Anzahl der verbundenen Punkte pro Sekunde wurden als Maß für die intrinsische Motivation für die Aufgabe erfasst. Die erhaltenen Ergebnisse zeigten, dass extrinsische Belohnungen keinen Einfluss auf die intrinsische Motivation der Kinder hatten, diese Aufgabe zu erfüllen. Es wurde auch festgestellt, dass das Niveau der bewerteten Intelligenz und der Gruppenkontext die Aufgabenleistung vorhersagten. Die Ergebnisse legen nahe, dass die Gruppeninteraktion dazu dienen kann, den berichteten untergrabenden Effekt der Belohnung auf die intrinsische Motivation zu neutralisieren.;-;-;-;https://link.springer.com/article/10.3758/BF03334713 b78bcd096939ee0ab1a034ebd9df7e63;de;;;4.2.;;;Fuzzy-Modellierung ökonomischer institutioneller Regeln Die Modellierung kollektiver sozialer Handlungen ist nicht nur wegen der Undurchsichtigkeit der zugrunde liegenden sozialen Prozesse eine Herausforderung, sondern noch mehr wegen der unzureichenden Detailinformationen zu den untersuchten Aktivitäten. Solche Informationslücken werden üblicherweise durch die Intuition des Modellierers oder durch Randomisierungstechniken gefüllt. Eine vielversprechende Alternative ist die Verwendung von Fuzzy-Argumentation. Dieses Potenzial haben wir genutzt, um Fuzzy-Methoden als alternativen Mechanismus zur Integration zahlreicher Meinungen einzusetzen, um die Etablierung ökonomischer institutioneller Regeln zu modellieren. Unsere empirische Anwendungsdomäne basiert auf einem historischen Handelsszenario, in dem Händler Regeln aufgestellt und Informationen ausgetauscht haben, um zu verhindern, dass die Verkäufer ihrer Waren sie betrügen. Wir adressieren dieses Modellierungsproblem, indem wir zwei unterschiedliche Gruppenentscheidungsmechanismen anwenden – einerseits mehrheitsbasiertes Voting (das dem ursprünglichen historischen Fall folgt) und andererseits die Präferenzaggregation unter Verwendung von Intervalltyp-2-Fuzzy-Sets. Wir vergleichen die Ergebnisse dieser beiden Ansätze und identifizieren eine signifikant geringere Sensitivität der Ergebnisse (d. h. Instabilität der Ergebnisse gegenüber kleinen Änderungen der Parametereinstellungen) unter Verwendung von Fuzzy-Set-basierten Ansätzen im Gegensatz zu Mehrheitsentscheidungen. Die Ergebnisse legen nahe, dass die Verwendung abstrakter Entscheidungsmechanismen (z. B. Präferenzaggregation) in Szenarien nützlicher sein kann, die einen Entscheidungsmechanismus vorschreiben, aber keine Informationen liefern, um diesen Prozess in seiner Gesamtheit zu modellieren. Basierend auf unseren Ergebnissen wird das Potenzial für einen breiteren Einsatz von Fuzzy-Logik im Kontext der sozialen Simulation diskutiert und Hinweise für zukünftige Untersuchungen gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-3442-9_6 aa92b16c4e4e6006c81c092cd2373ea1;de;;;4.2.;;;Einflussfaktoren des Sportkonsums: Provinzielle Beweise in China Dieser Beitrag führte eine qualitative Analyse der Einflussfaktoren des Sportkonsums mit mathematischen Methoden und eine empirische Analyse auf der Grundlage von Chinas Provinzdaten von Sportkonsumenten aus 31 Provinzen, Gemeinden und autonomen Regionen im Jahr 2009 durch. Die Ergebnisse zeigen, dass sowohl materielle als auch kulturelle Faktoren den Sportkonsum beeinflussen. Das Einkommensniveau ist der Hauptfaktor und bestimmt im Wesentlichen das Sportkonsumverhalten der Bewohner. Auch andere Faktoren wie Sportgrundausstattung, Freizeit und kulturelle Konsumwerte sind mit der Entscheidung der Bewohner zum Sportkonsum verbunden, haben aber alle nur sehr geringe Auswirkungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23214-5_52 ad3e6be3e90e8ab9c0d4aa8a36bbe006;de;;;4.2.;;;Die EU-Charta der Rechte und das Recht auf Gleichheit Bekanntlich hat das Inkrafttreten des Vertrags von Lissabon am 1. Dezember 2009 den Rechtsstatus der Charta der Grundrechte der EU durch ihre Rechtsverbindlichkeit gestärkt. Hat diese Änderung Auswirkungen auf den Schutz des Rechts auf Gleichstellung innerhalb der EU-Rechtsordnung? Wie wir sehen werden, hat die Rechtsprechung des Gerichtshofs bereits einige interessante Fragen zum Gleichheitsgrundsatz im Kontext der Charta aufgeworfen, aber auch einige wichtige Fragen aufgeworfen, die geklärt werden müssen.;-;-;-;https://link.springer.com/article/10.1007/s12027-010-0176-6 6bc8fc57a0039c73aaa3e85334819a58;de;;;5.2.;;;Menschliche Faktoren, die den Erfolg der XBRL-Einführung in libanesischen kleinen und mittleren Unternehmen beeinflussen Unternehmen verwenden die Extensible Business Reporting Language (XBRL) als Komponente von Rechnungslegungsinformationssystemen, um den Austausch sensibler und vertraulicher Big Financial Data zu definieren und zu erleichtern, nämlich Finanzberichte zur Verwendung an Aktionäre, Interessengruppen, Wettbewerber und öffentliche Nutzer. Dennoch haben viele Unternehmen XBRL trotz der vorhersehbaren Wettbewerbsvorteile noch nicht erfolgreich eingeführt. Verschiedene Faktoren beeinflussen die erfolgreiche Einführung von XBRL. Es wird davon ausgegangen, dass der menschliche Faktor als Bestandteil der Unternehmenskultur die erfolgreiche Einführung von XBRL beeinflusst. Basierend auf einer eingehenden Literaturrecherche und einer Analyse von Umfragen, die bei 78 kleinen und mittleren Unternehmen im Libanon gesammelt wurden, wird unter Verwendung einer varianzbasierten Strukturgleichungsmodellanalyse der Einfluss menschlicher Faktoren auf die erfolgreiche Einführung von XBRL definiert. Die Ergebnisse zeigten die Auswirkungen menschlicher Faktoren auf die erfolgreiche Einführung von XBRL durch Unternehmen, die die seitlichen verbindlichen Rechnungslegungsstandards übernehmen möchten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7530-3_8 cf856246c5f9419b85dfcce8a53b1ee8;de;;;5.2.;;;Selbstadaption in evolutionären Algorithmen zur kombinatorischen Optimierung Es ist bekannt, dass die Wahl der Parametereinstellungen für metaheuristische Algorithmen einen dramatischen Einfluss auf ihre Suchleistung hat, und dies hat zu einem beträchtlichen Interesse an verschiedenen Mechanismen geführt, die in irgendeiner Weise versuchen, die Parameter des Algorithmus automatisch an ein gegebenes Problem anzupassen. Dies wirft natürlich das Gespenst ungeeigneter Parameter auf, die aus einer schlechten Wahl der Lern-/Anpassungstechnik resultieren. Auf dem Gebiet der Evolutionären Algorithmen wurden viele Ansätze ausprobiert, insbesondere der der „Selbstanpassung“, bei der die Parameter der Heuristik neben der Kandidatenlösung kodiert werden und auf die dieselben Evolutionskräfte wirken. Viele erfolgreiche Anwendungen wurden berichtet, insbesondere im Teilbereich der Evolutionsstrategien für Probleme im kontinuierlichen Bereich. In diesem Kapitel untersuchen wir die Motivation und die Merkmale, die für ein erfolgreiches selbstadaptives Lernen erforderlich sind. Da sich eine Reihe von Arbeiten mit der kontinuierlichen Domäne beschäftigt haben, konzentriert sich dieses Kapitel insbesondere auf ihre Aspekte, die sich bei der Anwendung auf kombinatorische Probleme ergeben. Wir beschreiben, wie Selbstadaption verwendet werden kann, um nicht nur die Parameter zu kontrollieren, die Crossover und Mutation definieren, sondern auch, wie sie verwendet werden kann, um die Definition lokaler Suchoperatoren zu kontrollieren, die in hybriden evolutionären Algorithmen (sogenannten memetischen Algorithmen) verwendet werden. Auf dieser Grundlage schließen wir mit einigen Schlussfolgerungen und Vorschlägen, wie dieses Phänomen in andere Such-Metaheuristiken übersetzt werden könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79438-7_2 2431667c454be7eefb5ccca3e786ba32;de;;;5.2.;;;Auswirkungen von Einzel- und Gruppenmerkmalen auf das Fressverhalten in freier Wildbahn Studien haben die Variation des Nahrungs- und Nahrungserfolgs mit der Variation des Überlebens- und Fortpflanzungserfolgs in Verbindung gebracht, was die Untersuchung von Einflüssen auf die Nahrungsaufnahme von unschätzbarem Wert macht. In der aktuellen Studie haben wir den Energiegehalt von Lebensmitteln quantifiziert, die von wilden goldenen Löwenäffchen konsumiert werden (;-;-;-;https://link.springer.com/article/10.1007/s10764-005-8854-7 39566c45a1c1a4cfbb53b1fa38ad5b3b;de;;;5.2.;;;Niching-Methode mit Clustering-Crowding Diese Studie analysiert Driftphänomene von deterministischem und probabilistischem Crowding unter Verwendung von Äquivalenzklassenmodellen und Erwartungsverhältnisgleichungen. Es ist bewiesen, dass die Ersetzungsfehler der deterministischen Verdrängung dazu führen, dass die Population zu einem einzelnen Individuum konvergiert, was zu einer vorzeitigen Stagnation oder dem Verlust optionaler Optima führt. Und probabilistisches Crowding kann mehrere Subpopulationen im Gleichgewicht halten, da die Populationsgröße ausreichend groß ist. Es wird ein verbessertes Niching-Verfahren vorgeschlagen, das Clustering-Crowding verwendet. Durch Analysieren der Topologie der Fitnesslandschaft unter Verwendung der Hill Valley-Funktion und Erweitern des Suchraums für die Ähnlichkeitsanalyse bestimmt Clustering-Crowing die Lokalität des Suchraums genauer, wodurch Ersetzungsfehler von Crowding stark verringert werden. Die Integration von deterministischem und probabilistischem Ersatz erhöht die Kapazität sowohl für das parallele lokale Bergsteigen als auch für die Aufrechterhaltung mehrerer Subpopulationen. Die experimentellen Ergebnisse zur Optimierung verschiedener multimodaler Funktionen zeigen, dass die Leistungen des Clustering-Crowding, wie die Anzahl der beibehaltenen effektiven Peaks, das durchschnittliche Peak-Verhältnis und das globale optimale Verhältnis, denen der evolutionären Algorithmen mit Fitness-Sharing, einfachem deterministischem Crowding und probabilistischen einheitlich überlegen sind Gedränge.;-;-;-;https://link.springer.com/article/10.1007/s11771-005-0400-7 8bf258859f7a5d96e286c36d691e8552;de;;;5.2.;;;Ermittlung des zuständigen Richters in Europa Die Handelsbeziehungen zwischen der Volksrepublik China und Europa nehmen ständig zu, und es ist dann sehr wichtig, dass sich Akteure beider Seiten Kenntnisse über die Rechtsordnung des Partnerstaates aneignen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-54036-8_1 140fcf62729c65a7dbe4d2fecb146501;de;;;5.2.;;;Exkursionsset Vermittelte Evolutionsstrategie Durch die Vermittlung von Exkursionsmengen in der Selektionsphase der evolutionären Standardstrategien (ES), Plus und Komma, wurden zwei mögliche neue Varianten, die wir Semikolon- und Colon-Strategie nennen, entwickelt und ihr Optimierungsverhalten auf Modelllandschaften berichtet. Durch einen internen Mechanismus variieren diese Strategien systematisch das Exkursionsniveau und erreichen eine stärkere selbstadaptive Erforschung der Fitnesslandschaften, die die emergenten Eigenschaften von Comma und Plus zu ihrem Vorteil aufweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-6492-1_124 620e6ccd7d29cbf3adacfc88900485b8;de;;;5.2.;;;Versöhnungsethik im Koran Das Konzept der Schlichtungsethik im Koran ist ein entscheidender Aspekt des islamischen Rechts: Schlichtung kommt vor allem im Korantext vor, der islamische Regeln und Vorschriften hervorbringt, Schlichtung ist eine wichtige Streitbeilegungsmethode in einem islamischen Rechtssystem und Schlichtungs-bezogene Koransätze Die Textanalyse offenbart ein breites Spektrum an juristischer Sprache und Konzepten. Traditionelle Versöhnungsstudien im Koran haben sich oft auf den Prozess der Versöhnung konzentriert;-;-;-;https://link.springer.com/article/10.1007/s11196-016-9455-z beaef0b3dbc92a406481951c4e1da493;de;;;5.2.;;;The Interior Quest: Memoir, Linse des persönlichen Schicksals Dieser Aufsatz untersucht die Rolle des Verfassens von Memoiren bei der Überprüfung und der Suche nach Sinn und Zweck in einem Leben, dem sonst eine wichtige Quelle persönlicher Erfüllung, das Gefühl, das individuelle Schicksal zu erreichen, vorenthalten würde. Es argumentiert, dass das Schreiben von Memoiren einen narrativen Fluss, Handwerk und kreatives Bewusstsein erfordert – alles durch eine Qualität der Aufmerksamkeit, die an sich transformativ sein kann. Diese reflexive und künstlerische Distanz ist ein Schlüsselfaktor in der Phänomenologie der menschlichen Selbstwahrnehmung. Beim Schreiben von Memoiren wird Lebensmaterial neu strukturiert, neu gerahmt und neu wahrgenommen. Für manche haben Memoiren ein kreatives Potenzial, das als selbstbestimmtes Schicksal angesehen werden kann. Mehrere herausragende Memoiren werden hier betrachtet. Russell Bakers;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-9802-4_19 0cbbee3f606de39aa1b578340f2cef99;de;;;5.2.;;;Finanzielle Entwicklung und Einkommensungleichheit: ein Paneldatenansatz Wir analysierten den Zusammenhang zwischen finanzieller Entwicklung und Einkommensungleichheit für einen breiten unausgeglichenen Datensatz von bis zu 138 Industrie- und Entwicklungsländern in den Jahren 1960–2008. Mit der Kreditvergabe an das BIP als Maß für die finanzielle Entwicklung lehnen unsere Ergebnisse theoretische Modelle ab, die einen negativen Einfluss der finanziellen Entwicklung auf die Einkommensungleichheit gemessen am Gini-Koeffizienten vorhersagen. Berücksichtigt man feste Ländereffekte, mögliche Endogenitätsprobleme, das Pro-Kopf-BIP und andere Kontrollvariablen, so stellen wir fest, dass die finanzielle Entwicklung die Einkommensungleichheit erhöht. Diese Ergebnisse sind robust gegenüber verschiedenen Maßen der finanziellen Entwicklung, ökonometrischen Spezifikationen und Kontrollvariablen.;-;-;-;https://link.springer.com/article/10.1007/s00181-015-1008-x b8faee2d44ed8d599b0bfea7034cde6d;de;;;5.2.;;;Membran-Targeting durch Pleckstrin-Homologiedomänen Pleckstrin-Homologie-(PH)-Domänen sind kleine modulare Domänen, die einmal oder gelegentlich mehrmals in einer Vielzahl von Signalproteinen vorkommen. In einer Reihe von Fällen wirken PH-Domänen so, dass sie ihr Wirtsprotein durch ihre Fähigkeit zur Assoziation mit Phosphoinositiden auf die zytosolische Seite von Zellmembranen lenken. In diesem Aufsatz diskutieren wir die jüngsten Fortschritte in unserem Verständnis der Funktion der PH-Domäne. Insbesondere beschreiben wir die strukturellen Aspekte, wie sich PH-Domänen entwickelt haben, um verschiedene Phosphoinositide zu binden, wie PH-Domänen die Phosphoinositid-vermittelte Assoziation an Plasma- und interne Membranen regulieren und schließlich die Frage der PH-Domänen in Protein:Protein-Wechselwirkungen und der allosterischen Regulation von ihr Wirtsprotein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18805-3_3 4d8dd8cbc0323ba90d68b3bc235082db;de;;;5.2.;;;Carnaubawachs- Carnauba nimmt aufgrund seiner Härte, des guten Glanzes und des hohen Schmelzpunktes eine Spitzenposition unter den Pflanzenwachsen ein, was es besonders für Bohnerpolituren begehrt macht. Die einzige Herkunftsregion dieses wichtigen Pflanzenwachses liegt im Nordosten Brasiliens.;-;-;-;https://link.springer.com/article/10.1007/BF02984886 19bff6e42b24499823462d03ac20dea6;de;;;5.2.;;;Ezra Pound: die Prä-Imagist-Phase Pounds frühe Poesie ist nach kritischem Konsens von Transzendentalismus durchdrungen. Es besteht jedoch Uneinigkeit über die Zwischenposition zwischen diesem frühen Vers und dem anerkannten Visionär;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-07190-6_6 8b805a729a2d95e18882114024645703;de;;;5.2.;;;Verwenden nicht gekennzeichneter Daten zum Lernen von Klassifikationsproblemen In diesem Kapitel wird ein Ansatz vorgestellt, bei dem nicht gekennzeichnete Daten zum Erlernen von Klassifizierungsproblemen verwendet werden. Das Kapitel besteht aus zwei Teilen. Im ersten Teil des Kapitels wird ein Ansatz vorgestellt, bei dem sowohl markierte als auch unmarkierte Daten verwendet werden, um ein mehrschichtiges Perzeptron zu trainieren. Der Ansatz basiert auf der Annahme, dass Regionen mit geringer Musterdichte normalerweise Datenklassen trennen. Die unmarkierten Daten werden iterativ vorverarbeitet durch ein Perzeptron, das trainiert wird, um die Schätzungen der weichen Klassenkennzeichnung zu erhalten. Es wird gezeigt, dass durch die Verwendung des Ansatzes erhebliche Verbesserungen der Klassifikationsleistung erzielt werden können, wenn die gekennzeichneten Daten die gesamten Klassenverteilungen nicht angemessen darstellen. Im zweiten Teil des Kapitels schlagen wir eine Qualitätsfunktion zum Lernen von Entscheidungsgrenzen zwischen Datenclustern aus unbeschrifteten Daten vor. Die Funktion basiert auf Polynomen dritter Ordnung. Das Ziel der Qualitätsfunktion besteht darin, einen Platz im Eingaberaum mit wenigen Datenpunkten zu finden. Durch Maximieren der Qualitätsfunktion finden wir eine Entscheidungsgrenze zwischen Datenclustern. In den Experimenten wurde eine Überlegenheit der vorgeschlagenen Qualitätsfunktion gegenüber den anderen ähnlichen Funktionen sowie den getesteten herkömmlichen Clustering-Algorithmen beobachtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-1803-1_12 7a6f1c2d98d3fbce65f263cd150e0272;de;;;4.2.;;;Nash-Verhandlungslösungen für Mehrparteien-Verhandlungsprobleme In Mehrparteiensystemen treten häufig Situationen auf, in denen sich verschiedene Koalitionen bilden könnten und jede potenzielle Koalition entscheiden muss, wie die Gewinne aus ihrem gemeinsamen Handeln aufgeteilt werden sollen. Wir betrachten diese Situationen als multilaterale Verhandlungsprobleme, berücksichtigen, wie sich die Chancen der Spieler in anderen Koalitionen auf ihre Meinungsverschiedenheiten auswirken sollten, und wenden die Verhandlungslösung von Nash an, um zu bestimmen, wie die Gewinne aus ihrem gemeinsamen Handeln in jeder potenziellen Koalition aufgeteilt werden sollen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-3607-2_3 d50332e87fe227b90ceed2eb606aaf55;de;;;4.2.;;;Die Beziehung zwischen den Quellen der Selbstwirksamkeit in Klassenzimmerumgebungen und der Stärke der Selbstwirksamkeitsüberzeugungen von Computern Motivation und Erfolg in Informatikstudiengängen werden von der Stärke der Selbstwirksamkeitsüberzeugungen (SE) der Studierenden an ihre Lernfähigkeiten beeinflusst. Studierende mit schwachem SE können Schwierigkeiten haben, in einem Informatikstudium erfolgreich zu sein. In dieser Studie wurden die Faktoren untersucht, die die Computer-Selbstwirksamkeit (CSE) von Informatikstudenten verbessern oder behindern. Die Datenerhebung umfasste eine Umfrage unter 524 Informatikstudenten von 10 thailändischen Universitäten. Die Umfrage umfasste vier CSE-Items, 13 Items, die sich auf die Lernumgebung im Klassenzimmer (CLE) bezogen, und 14 Items, die sich auf Informationsquellen von SE bezogen. Die Ergebnisse zeigten, dass die Wahrnehmung eines CLE mit Autonomie, Sinnhaftigkeit und Beteiligung positiv mit einem starken CSE assoziiert war. Darüber hinaus zeigten Wahrnehmungen sozialer Überzeugungen wie sinnvolles und ermutigendes Feedback oder Urteil von einflussreichen Personen einen statistisch positiven Zusammenhang mit CSE. Auch die Wahrnehmung von stellvertretenden Erfahrungen, bei denen die Schüler ihre eigenen Fähigkeiten ermitteln und mit Beobachtungserfahrungen von Vorbildern vergleichen, zeigten einen statistisch positiven Zusammenhang mit CSE. Wahrgenommene physiologische und affektive Zustände wie Angst und Stress zeigten einen negativen Einfluss auf CSE. Implikationen für die Praxis beziehen sich auf die Wahrnehmung des autonomen Lernens durch die Schüler, den Wert von positivem Feedback, den Beitrag der Schüler zu Lerninhalten und -aktivitäten, Rollenmodelle für Schüler und die Beobachtung, wie Gleichaltrige Aufgaben besser oder schlechter erledigen.;-;-;-;https://link.springer.com/article/10.1007/s10639-017-9630-1 aa312bef35a26bdd2938fd4e17502900;de;;;4.2.;;;Informations- und Kommunikationstechnologien und die positive psychische Gesundheit bei Senioren Die Weltgesundheitsorganisation weist darauf hin, dass die Zahl der älteren Bevölkerung weltweit wächst, mit einer beschleunigten Alterung der Bevölkerung und einer Zunahme der Lebenserwartung, daher ist es wichtig, die Einbeziehung von Aktivitäten in Betracht zu ziehen, die es ermöglichen, ihre körperliche und geistige Gesundheit zu verbessern. Das Ziel des Artikels ist es, die Denkweise von Senioren zu präsentieren, indem sie in die aktuelle technologische Gesellschaft integriert werden, indem IKT, Gefühle, Stimmungen und ihre Erwartungen vermittelt werden, bevor sie den Kurs der Basisinformatik belegen. Die Ergebnisse zeigen, dass die Teilnehmer sehr motiviert waren, sehr zuversichtlich waren, wenn auch mit ein wenig Angst vor den neuen Technologien. Im Laufe der Wochen wurde eine Veränderung bei ihnen festgestellt, mehr Sicherheit und auch das Gefühl der Zugehörigkeit zu einer Gruppe, gaben an, dass sie weiterhin Computer benutzen, einige von ihnen fühlen sich immer noch unsicher, Papierkram über das Internet zu erledigen, aber kommentieren Sie, dass Sie leichter mit Freunden und Familie in Bezug auf IKT-Themen kommunizieren können und sich als Teil dieser digitalen Welt fühlen, die sie einst fremd und distanziert sahen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-59397-5_3 ccc9212454a8e5285851e9c0a409ef31;de;;;4.2.;;;Adressierung des Online-Informationsbedarfs in der Palliativmedizin: Ein von der Aktionsforschung inspirierter Ansatz Während die Nutzerbeteiligung weltweit als Mittel zur Erzielung besserer Patientenergebnisse angenommen wurde, wurde die Umsetzung von formativen Aktionsforschungsansätzen in Online-Gesundheitsinformationen noch zu wenig erforscht. Der Zweck dieser Studie besteht darin, eine auf Aktionsforschung basierende Methodik vorzustellen, die die Erfassung von Gesundheitsinformationen und Designbedürfnissen in komplexen Online-Umgebungen mit mehreren Benutzern ermöglicht. Die vier Hauptphasen des Projekts waren von einem iterativen, formativen Ansatz mit kontinuierlicher Experten- und Benutzerbewertung geprägt. Die Studie legt nahe, dass ein von der Aktionsforschung inspirierter formativer Ansatz erfolgreich eingesetzt werden kann, um Benutzerbeteiligung zu generieren. Darüber hinaus adressiert eine nachhaltige Nutzerbeteiligung effektiv die meisten Qualitätsprobleme in Bezug auf Inhalt, Sprache und Zugänglichkeit, die in der neueren Literatur aufgeworfen werden. Das Papier kommt zu dem Schluss, dass ein Aktionsforschungsansatz zur Entwicklung von Online-Gesundheitsressourcen mehr Aufmerksamkeit verdient.;-;-;-;https://link.springer.com/article/10.1007/s11213-006-9057-x 85661df1041d66599126eb123aeb3525;de;;;5.2.;;;Dynamischer Algorithmus für das Routing von Satellitennetzwerken basierend auf der Verbindungsplanung Die Intersatellitenverbindung (ISL) in einem dynamischen Satellitennetzwerk ist aufgrund ihrer Eigenschaften wie einem großen Abdeckungsbereich, einer großen Anzahl von Benutzern und der Bewegung von Satelliten in Umlaufbahnen leicht zu stören. Um die obigen Probleme zu lösen, schlug dieses Papier einen dynamischen Routingalgorithmus für Satellitennetzwerke basierend auf dem Link-Scheduling-Modell vor. Zuerst wurden die geometrischen Eigenschaften der ISL analysiert und die Entfernung, der Elevationswinkel und der Azimut der ISLs wurden jeweils basierend auf den räumlichen Eigenschaften der Konstellation berechnet. Dann haben wir ein Zeitschlitz-Scheduling-Modell von ISL basierend auf einem TDMA-System erstellt und einen Routing-Algorithmus von ISL basierend auf einem Hop-Schwellenwert mit einer minimalen Übertragungszeit vorgeschlagen. Die endgültigen Simulationsergebnisse zeigten, dass dieser Routing-Algorithmus nicht nur die Frequenz der Verbindungsumschaltung im Pfad der Informationsübertragung effektiv reduzieren kann, sondern auch den größten Teil der Informationsübertragung innerhalb eines halben Superrahmens abschließen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6264-4_111 f59582a649d92704a28cd5a885d56ce8;de;;;5.2.;;;Verwendung von Daten aus der Untersuchung biologischer Fließgewässer in Maryland, um die Auswirkungen landwirtschaftlicher Uferpuffer auf Messungen der Gesundheit biologischer Fließgewässer zu bestimmen Diese Studie wurde durchgeführt, um die Bedeutung von Uferpuffern für die Gewässerökologie in landwirtschaftlich genutzten Gebieten zu bestimmen. Der ursprüngliche Datensatz der Maryland Biological Stream Survey (MBSS) wurde partitioniert, um landwirtschaftliche Gebiete in den Regionen Coastal Plain und Piedmont in Maryland darzustellen. ANOVA, multiple lineare Regression (MLR) und CART-Regressionsbaummodelle wurden unter Verwendung von Merkmalen der Ufer- und Einzugsgebietslandschaft entwickelt. MBSS-Daten wurden sowohl nach physiographischer Region stratifiziert als auch als kombinierter Datensatz analysiert. Alle Modelle zeigten, dass die Landbewirtschaftung am Standort nicht der kontrollierende Faktor für Fisch-IBIS (FIBI) an diesem Standort war und daher die Verwendung von FIBI zur Bewertung von Faktoren im Standortmaßstab kein umsichtiges Verfahren wäre. Maßgeblich für die Erklärungsfaktoren der FIBI-Modelle waren Messungen des Lebensraums und der Lage im Bachnetz. Sowohl CART- als auch MLR-Modelle zeigten, dass Waldpuffer einen Einfluss auf benthische IBIs (BIBI) hatten. Erklärende Variablen spiegelten die Bedingungen des Flusses, den Einfluss der angrenzenden Landschaft und die Chemie in den Standorten der Coastal Plains wider, die alle relativ standortspezifisch sind. Für die Standorte im Piemont waren jedoch neben dem Einfluss der angrenzenden Landschaft und der Chemie auch hydrologische Faktoren wichtig. Sowohl das Coastal Plain- als auch das Piedmont-CART-Modell identifizierten mehrere hydrologische Faktoren, was die dominierende Kontrolle der Hydrologie auf dem Physical Habitat Index (PHI) unterstreicht. Uferpuffer hatten einen sekundären Einfluss auf den PHI in der Küstenebene, aber nicht im Piemont. Zwischen 40 % und 70 % der Variation in FIBI, BIBI und PHI wurden durch die „leicht erhältlichen“ Variablen erklärt, die aus dem MBSS-Datensatz verfügbar sind. Obwohl dies empirische Ergebnisse speziell für Maryland sind, sind die allgemeinen Ergebnisse für andere Standorte von Nutzen, an denen die Einrichtung von Waldpuffern als Maßnahme zur Wiederherstellung von aquatischen Ökosystemen angesehen wird.;-;-;-;https://link.springer.com/article/10.1007/s10661-006-7721-3 d2bb22a5dd4dde16c65111d14ec46d77;de;;;4.2.;;;Die dynamische Interaktion zwischen Engagement, Freundschaft und Zusammenarbeit in Roboterkindertriaden Diese Forschung basiert auf der Interaktion zwischen Kindern und Robotern und inklusiver Bildung und hat eine kleine sozio-technische Gemeinschaft aus einem Roboter und zwei Kindern entworfen, in der Kinder gleichberechtigt miteinander spielen und lernen, während sie dem Roboter beim Lernen helfen. Diese entworfene Community wurde in einem Schulmedienlabor zweimal pro Woche über drei Wochen implementiert, wobei jede Sitzung etwa 20 Minuten dauerte. Wir haben die Teilnahme von Kindern an der triadischen Interaktion auf natürliche Weise ethnographisch beobachtet und per Video aufgezeichnet. Zu den interessierenden Phänomenen gehören Freundschaftsentwicklung, kollaborative Kommunikation und Engagement mit der Gemeinschaft. Die Datenerhebung ist noch im Gange und die Analyse wird im Laufe dieses Sommers erfolgen. In diesem Papier werden die theoretischen Rahmenbedingungen und das Datenanalyseschema vorgestellt. Über die Ergebnisse werden wir voraussichtlich im Oktober auf der ICQE-Konferenz berichten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-33232-7_27 1364c1f50158e27cfd0c791084057050;de;;;4.2.;;;Moralische Reparatur am Arbeitsplatz: Eine qualitative Untersuchung und ein induktives Modell Das Thema moralische Reparatur nach Vertrauensbruch und Schädigung hat in den letzten Jahren an Bedeutung gewonnen. In diesem Beitrag präsentieren wir die Ergebnisse einer qualitativen Studie, die einen Einblick in eine Reihe von Schlüsselfragen im Zusammenhang mit den Bemühungen von Tätern zur Wiedergutmachung zwischenmenschlicher Schäden am Arbeitsplatz bietet: (1) Welche Faktoren motivieren Täter, bei den Geschädigten Wiedergutmachung zu leisten? (2) Auf welche Weise versuchen Täter, Wiedergutmachung zu leisten? (3) Welche Ergebnisse ergeben sich aus Versuchen, Wiedergutmachung zu leisten? Aus den Ergebnissen bauen wir ein induktives Modell auf, das als Leitfaden für zukünftige Untersuchungen und Forschungen zu Geschäftsethik und Management in diesem Bereich dienen soll.;-;-;-;https://link.springer.com/article/10.1007/s10551-015-2593-5 3f430127b9b4292725af132ae678061c;de;;;4.2.;;;Outsourcing: Eine relevanztheoretische Betrachtung der Interpretation von Theatertexten Theaterstücke sind interpretative Ereignisse. Es ist jedoch nicht klar, was der Interpretation zugrunde liegen soll: der Theaterstücktext oder die Aufführung. Ich behaupte, dass die Aufführung kritische Beweise auf eine Weise liefert, die der Dramatiker vorausgesehen und beabsichtigt hat. Der Schauspielunterricht beinhaltet jedoch selten (oder zumindest unzureichend) Aufführungselemente, stattdessen wird den Schülern beigebracht, Theaterstücke identisch mit nichtdramatischen Texten wie Romanen zu behandeln. Ich glaube, dass dieses Versehen die Studentenerfahrung des Theaters zutiefst verarmt. In diesem Kapitel möchte ich im Rahmen der Relevanztheorie die Grundlage für eine prinzipielle Argumentation legen, die Performance als wesentlichen Bestandteil der Interpretation dramatischer Texte zu behandeln. Um meine Argumente zu untermauern, werde ich mich auf die Probleme beziehen, die zwei Stücke aufgeworfen haben – Strindbergsberg;-;-;-;https://link.springer.com/chapter/10.1057/9781137023278_5 24370834e58493b4029c60eeccf6e5c1;de;;;4.2.;;;Technische Verbreitung und Verwirrung Eine Betonung der High-Tech-Entwicklung spiegelt begrenzte Definitionen von Entwicklung und Technologie wider. Die Gewinnung von multinationalen Konzernen nach dem neuesten Stand der Technik hält nur Beziehungen aufrecht, die der Entwicklung schaden können Die Ziele der Entwicklung müssen klar sein, um den Kontext für die Entwicklungspolitik zu setzen. Wenn Entwicklung als Wachstum und Wachstum definiert wird, das von „Wertschöpfungsexporten“ abhängt, werden Hightech-Produkte als entscheidend angesehen. Multinationale Unternehmen werden zur Quelle der für die Entwicklung „notwendigen“ Technologien Während sie als kurzfristiger Katalysator dargestellt werden, sind die langfristigen Folgen Abhängigkeit, Ungleichheit und verlorene Chancen für echte Entwicklung. Andererseits, wenn Entwicklung im Sinne von Eigenständigkeit definiert wird , Nachhaltigkeit und Gerechtigkeit und wenn der technologische Wandel zur Erreichung dieser Ziele geeignet ist, können alternative Strategien wirksam sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-6219-1_9 a2a38033367baa281d427e64de4844f2;de;;;4.2.;;;Social Interaction Mining in Kleingruppendiskussionen mit einem intelligenten Besprechungssystem In diesem Beitrag schlagen wir eine Mining-Methode vor, um semantisches Wissen auf hohem Niveau über menschliche soziale Interaktionen in Kleingruppendiskussionen zu entdecken, wie z. B. häufige Interaktionsmuster, die Rolle eines Individuums (z. B. die „Zentralität“ oder „Macht“), Untergruppe Interaktionen (z. B. interagieren oft zwei Personen miteinander) und heiße Sitzungen. Zur Erfassung und Erkennung sozialer Interaktionen wird ein intelligentes Meeting-System entwickelt. Das Interaktionsnetzwerk in einer Diskussionssitzung wird als Graph dargestellt. Interaktions-Graph-Mining-Algorithmen wurden entwickelt, um die Struktur der Netzwerke zu analysieren und soziale Interaktionsmuster zu extrahieren. Vorläufige Ergebnisse zeigen, dass wir mehrere interessante Muster extrahieren können, die für die Interpretation menschlichen Verhaltens in Kleingruppendiskussionen nützlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23641-9_6 2f7910ee335f909b2bf99531b1ae3a66;de;;;4.2.;;;Link-Vorhersage in sozialen Online-Netzwerken anhand von Gruppeninformationen Nutzer sozialer Online-Netzwerke nehmen freiwillig an verschiedenen Nutzergruppen oder Communities teil. Untersuchungen legen nahe, dass in diesen sozialen Netzwerken eine starke lokale Community-Struktur vorhanden ist, d. h. Benutzer neigen dazu, andere Menschen durch gegenseitige Freundschaft zu treffen. Kürzlich haben verschiedene Ansätze Community-Strukturinformationen in Betracht gezogen, um die Genauigkeit der Verbindungsvorhersage zu erhöhen. Dennoch berücksichtigen diese Ansätze, dass Benutzer nur einer Gemeinschaft angehören. In diesem Papier schlagen wir drei Maßnahmen für die Link-Vorhersage-Aufgabe vor, die alle unterschiedlichen Gemeinschaften berücksichtigen, denen Benutzer angehören. Wir führen Experimente sowohl für unüberwachte als auch für überwachte Verbindungsvorhersagestrategien durch. Die Bewertungsmethode berücksichtigt das Verbindungsungleichgewichtsproblem. Die Ergebnisse zeigen, dass unsere Vorschläge die hochmodernen Maßnahmen zur nicht überwachten Linkvorhersage übertreffen und dazu beitragen, die als überwachte Strategie angegangene Linkvorhersageaufgabe zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09153-2_3 f9a421d03b5fe7a8b6907c4a9794d604;de;;;4.2.;;;Durch Amphetamin und verwandte Verbindungen induzierte Veränderungen des individuellen und sozialen Verhaltens bei Affen und Menschen Seit Edeleano (1887) die erste Synthese phenylsubstituierter aliphatischer Amine vornahm, ist diese Art von Verbindungen Gegenstand der Forschung. Stern (1889) zeigte zunächst, dass Beta-Tetrahydronaphtylamin bei Kaninchen eine motorische Unruhe verursacht, und Airila (1913) unterstützte diesen Befund bei derselben Spezies mit Ephedrin, das später von Janota (1931) zur Behandlung von Narkolepsie eingesetzt wurde. Alles (1933) zeigte, dass Beta-Phenylisopropylaminsulfat Hypnotika antagonistisch wirkt. Die Einführung von Benzedrin in die Therapie (Prinzmetal und Bloomberg, 1935) machte diese Gruppe von Aminen wegen ihrer besonderen Wirkung auf das Zentralnervensystem zum Gegenstand einer näheren Untersuchung am Menschen. Die psychiatrische Literatur von 1936 und 1937 enthielt mehrere Artikel über die Anwendung von Benzedrin sowohl bei psychotischen als auch bei nicht-psychotischen Personen (Donley, 1937).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-3087-5_24 a50bf12a03a2b97cae4ca9dce09b95ef;de;;;4.2.;;;Beobachtung einer Szene der elektronischen Musikkultur Ausgehend von den allgemeinen Beschreibungen der Musikszenen und ihrer Akteure insbesondere in Berlin, wie ich sie im ersten Kapitel dargelegt habe, verlagere ich den Fokus nun auf eine detaillierte Analyse einer bestimmten Kulturszene und ihrer Aktivitäten. Dieses Kapitel beginnt mit einem Überblick über die gesammelten Datentypen und die Methoden, die für ihre Sammlung und Analyse verwendet werden. Anschließend wird das Feld ausführlich vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-05407-6_2 d3ad0a01fa272d34196f955046936fbf;de;;;4.2.;;;Der organisatorische Wert von stillschweigendem Wissen, das aus der Elternschaft abgeleitet wird Das gegenwärtige Interesse am lebenslangen Lernen hat dazu geführt, dass berufliche und persönliche Erfahrungen von Bildungsbehörden als wertvolle Quellen informellen Lernens anerkannt werden, die sich positiv auf die Gesellschaft im Allgemeinen und die Beschäftigungsfähigkeit des Einzelnen im Besonderen auswirken können. In diesem Beitrag wird argumentiert, dass eine bestimmte Form des informellen Lernens – die durch Elternschaft entwickelt wird – stillschweigendes Wissen vermitteln kann, das in Arbeitssituationen wertvoll sein kann. Wir erläutern kurz das Wesen und die Relevanz des informellen Lernens für die Wissensgesellschaft. Wir überprüfen die verfügbare Literatur auf dem Gebiet der Entwicklungspsychologie, die sich auf die Erziehung als Kontext für die persönliche Entwicklung konzentriert hat, und schlagen vor, dass zwei stillschweigende Fähigkeiten, die aus der Erziehung stammen, in Arbeitsumgebungen besonders wertvoll sind, nämlich flexibles Denken und allozentrisches Denken. Der organisatorische Wert dieser Fähigkeiten wird unter besonderer Berücksichtigung ihrer Nützlichkeit für Wissensarbeiter analysiert und allgemeine Implikationen diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87783-7_47 e7b6f85fce9ce86fdc1bf92188a2876f;de;;;4.2.;;;Parademo: e-Democracy basierend auf einem delegierten Expertenauswahlprozess in einem Small-World-Netzwerk Viele Länder haben eine repräsentative Demokratie, in der ihre Regierungen aus einer relativ kleinen Gruppe von Politikern bestehen, die die Werte und Überzeugungen der Mehrheit der Wähler vertreten. Leider sind viele Bürger mit ihrem eher begrenzten Einfluss auf die Politik unzufrieden, insbesondere in Bezug auf Regierungen auf nationaler Ebene oder noch höher wie die EU oder die UN. Auf der anderen Seite scheinen Volksabstimmungen oder direkte Demokratien eine zu riskante Möglichkeit zu sein, Unwissende oder Uninteressierte über komplexe Fragen entscheiden zu lassen. Diese extremen Gegensätze haben wir hauptsächlich in unseren Demokratien aufgrund der Beschränkungen unseres manuell verwalteten Wahlsystems. Initiativen wie Vivarto schlagen eine Alternative vor, die als „Delegated Voting“ bezeichnet wird und bei der Teile einer Abstimmung an Personen mit mehr Wissen zu einem bestimmten Thema delegiert werden können. Dies führt zu einer günstigen Position in der Mitte zwischen den beiden genannten Extremen. Wir wollen die große Expertise vieler Online-Bürger in unseren Gesellschaften nutzen, um die richtigen Politiker und Lösungen auszuwählen. In diesem Beitrag schlagen wir das Design des Systems Parademo vor, das eine feinkörnige E-Demokratie ermöglicht. Daneben beschreiben wir kurz, wie wir mehr Transparenz und Drittanbieter-Funktionalität erreichen können, indem wir es den Zuhörern ermöglichen, bestimmte Informationsströme innerhalb von Communities zu abonnieren, die in einer Semantic-Web-Sprache formalisiert sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11631-5_10 3b07c90fa5fc19f9318e3f224afd6704;de;;;5.2.;;;Objektsuche auf Video mit ORB Descriptor und Support Vector Machine Einer der Hauptschritte bei der Objektsuche auf Video ist das Extrahieren von Objektbereichen aus dem Video. Der Vorlagenvergleich ist eine beliebte Technik zum Ausführen einer solchen Aufgabe. Die Verwendung des Vorlagenabgleichs weist jedoch eine Einschränkung auf, die ein großes Objekt als Vorlage erfordert. Wenn die Vorlagengröße zu klein ist, würde sie wenige Funktionen erhalten. Andererseits werden ORB-Deskriptoren oft verwendet, um das Objekt mit guter Genauigkeit und schneller Verarbeitungszeit darzustellen. Daher schlug diese Forschung vor, eine maschinelle Lernmethode in Kombination mit einem ORB-Deskriptor für die Objektsuche in Videodaten zu verwenden. Die Verarbeitung von Video in allen Frames ist ineffizient. Somit werden Frames unter Verwendung der gegenseitigen Informationsentropie zu Keyframes ausgewählt. Die ORB-Deskriptoren werden dann aus dem ausgewählten Rahmen extrahiert, um Kandidatenregionen von Objekten zu finden. Um die Objektregionen zu verifizieren und zu klassifizieren, wurde eine Multiclass Support Vector Machine verwendet, um den ORB-Deskriptor von Regionen zu trainieren. Zur Bewertung würde die Verwendung von ORB mit anderen Deskriptoren wie SIFT und SURF verglichen, um ihre Überlegenheit sowohl in Bezug auf Genauigkeit als auch Verarbeitungszeit zu zeigen. Im Experiment wurde festgestellt, dass die Objektsuche mit dem ORB-Deskriptor eine schnellere Verarbeitungszeit von 0,219 s durchführt, während SIFT 1,011 s und SURF 0,503 s beträgt. Inzwischen erreicht es auch das beste F;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63119-2_20 5756c92a2c46b4a3e9127c342fb9fd51;de;;;5.2.;;;Online-Fahrplan für die Autonomie mehrerer unbemannter Luftfahrzeuge Ein Online-Rechteck-basierter Planungsalgorithmus (RSA) wurde entwickelt, um die Autonomie mehrerer unbemannter Luftfahrzeuge (UAVs) zu verbessern, um gemeinsam ein Waldgebiet abzusuchen. Der Zweck von RSA besteht darin, online über die Anzahl der zuzuweisenden UAVs zu entscheiden und den Pfad für die zugewiesenen UAVs zu planen, um die aus der vorherigen Suche resultierenden verpassten Bereiche zu durchsuchen. Die Hauptideen von RSA bestehen darin, jede getrennte Zone der fehlenden Bereiche mit einem Rechteck abzudecken und dann den Pfad zum Durchsuchen der Rechtecke zu planen. Somit ist RSA robust gegenüber den unbekannten Formen und Größen der fehlenden Bereiche. Die Gesamtstruktursuche wird angewendet, um die Online-RSA in der Simulation zu überprüfen. Die Simulationsergebnisse zeigen, dass es der Online-RSA gelingt, die Anzahl der zuzuweisenden UAVs zu bestimmen und den Weg für die zugewiesenen UAVs zu planen, die vermissten Gebiete zu durchsuchen.;-;-;-;https://link.springer.com/article/10.1007/s11432-016-9025-9 31ba3931c4fbc4bca803626ef651c940;de;;;4.2.;;;Also setzte ich mich mit meiner Mutter zusammen: Verbundenheitsorientierung und Schülerunabhängigkeit Die schwedische Bildungspolitik unterstreicht die Bedeutung der Unabhängigkeit. In diesem Beitrag verwenden wir die soziokulturelle Theorie und Foucault, um zu erklären, wie die Selbstständigkeit von Schülern in ihrer Arbeit in etwas anderes umgewandelt wird. Unsere Ergebnisse stammen aus Analysen von gefilmten Sitzungen und Einträgen in den Logbüchern der Schüler. Unsere Ergebnisse zeigen, dass sich die Selbstständigkeitsdefinitionen der Schülerinnen und Schüler in mehreren Aspekten von denen des Kursplans unterscheiden: i) der Einsatz bestimmter Ressourcen wird nicht als Mangel an Selbständigkeit angesehen, ii) Selbstständiges Tun gilt als am unabhängigsten und iii) Anweisungen zu befolgen, auch wenn dies eine Verletzung Ihres einzigartigen persönlichen Gedankens bedeutet, gilt als Voraussetzung für das Bestehen / Erlangen guter Noten und als solche als notwendige Anpassung an den schulischen Kontext, eher als ein Zeichen von Abhängigkeit. Folglich argumentieren wir, dass Schülerunabhängigkeit eher als ein innerhalb einer Praxisgemeinschaft herausgearbeitetes Phänomen und nicht als persönliche Fähigkeit betrachtet werden sollte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03115-1_30 42627b163728650ac318fe4fde57c9f3;de;;;5.2.;;;Elektronenspinresonanz Bisher haben wir unsere Aufmerksamkeit auf die Kernspinresonanz beschränkt, obwohl viele der Grundprinzipien auf die Elektronenspinresonanz zutreffen. Wir haben auch Fragen zu den Elektronen betrachtet, wie zum Beispiel das Löschen des Bahndrehimpulses und die magnetische Kopplung des Kernspins an den des Elektrons. In diesem Kapitel werden wir einige weitere Konzepte hinzufügen, die für das Studium der Elektronenspinresonanz wichtig sind;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-09441-9_11 21b071b38c90b77c952f33f99c6ff545;de;;;4.2.;;;Stadt im Wandel: Die Struktur des sozialen Raums in Tianjin im Jahr 2000 In Anlehnung an die Zensusdaten auf Nachbarschaftsebene aus dem Jahr 2000 untersucht dieses Kapitel die soziale Raumstruktur von Tianjin und ihre Formulierungsmechanismen im Jahr 2000 mit der Methode der faktoriellen ökologischen Analyse (Principal Component Analysis, PCA). in Tianjin umfassen den Zuzug der Angestelltenklasse, den wirtschaftlichen Status, Rentner und Minderheiten, den Familienstand und die Familienstruktur. Jeder Faktor hat sein räumliches Verteilungsmuster in der Stadt Tianjin. Im Allgemeinen haben die fortschrittliche geografische Lage, der unverwechselbare historische Entwicklungsprozess, die schnelle sozioökonomische Entwicklung und die sich ständig ändernde Regierungspolitik und Stadtplanung zusammengearbeitet, um die Formulierungsmechanismen des sozialen Raums von Tianjin im Jahr 2000 zu komponieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03449-2_28 92dc6d2f1648c3e96832e57be88189fa;de;;;5.2.;;;Einschränkungen für Sliced-Tabellen: Kombination von Kompression und tabellarischer Reduktion Viele industrielle Anwendungen erfordern die Verwendung von Tabellenbeschränkungen (z. B. bei Konfigurationsproblemen), die manchmal von beträchtlicher Größe sind. In den letzten Jahren haben sich die Forscher darauf konzentriert, die räumliche und zeitliche Komplexität dieser Art von Einschränkung zu reduzieren. Auf statische und dynamische Reduktion basierende Ansätze wurden vorgeschlagen, die neue kompakte Darstellungen von Tabellenbeschränkungen und effektive Filteralgorithmen liefern. In diesem Artikel untersuchen wir die Möglichkeit, sowohl statische als auch dynamische Reduktionstechniken zu kombinieren, indem wir eine neue komprimierte Form von Tabellenbeschränkungen basierend auf häufiger Mustererkennung vorschlagen und diese in STR (Simple Tabular Reduction) nutzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07046-9_9 0d6f88f5fb87b0a28b060c62fd98f7e6;de;;;5.2.;;;Auswahlbasierte vergleichende Zusammenfassung von Suchergebnissen mit konzeptbasierter Segmentierung Die Zusammenfassung von Suchergebnissen zielt darauf ab, den Benutzern eine Zusammenfassung der Inhalte einzelner oder mehrerer Webseiten basierend auf der Suchanfrage zur Verfügung zu stellen. Dieses Papier schlägt eine neuartige Idee vor, eine vergleichende Zusammenfassung aus einer Reihe von URLs aus dem Suchergebnis zu generieren. Der Benutzer wählt eine Reihe von Webseiten-Links aus dem von der Suchmaschine erzeugten Suchergebnis aus. Eine vergleichende Zusammenfassung dieser ausgewählten Websites wird erzeugt. Diese Methode verwendet die HTML/XML-DOM-Baumstruktur dieser Webseiten. HTML-Dokumente sind in verschiedene Konzeptblöcke unterteilt. Die Satzbewertung jedes Konzeptblocks wird gemäß den Abfrageschlüsselwörtern berechnet. Entsprechend der erforderlichen Komprimierungsrate werden die wichtigen Sätze aus den Konzeptblöcken verschiedener Webseiten extrahiert, um die vergleichende Zusammenfassung im laufenden Betrieb zu erstellen. Die vergleichende Zusammenfassung des Inhalts einer Reihe von Webseiten würde den Benutzern bei der schnellen Entscheidungsfindung helfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22543-7_67 52f5e6d0b8153de2abb403aced89a232;de;;;5.2.;;;Charakterisierung von Robotic und Organic Query in SPARQL-Suchsitzungen SPARQL hat als eine der mächtigsten Abfragesprachen gegenüber Wissensgraphen in den letzten Jahren stark an Popularität gewonnen. Eine große Anzahl von SPARQL-Abfrageprotokollen ist verfügbar geworden und bietet neue Recherchemöglichkeiten, um Benutzerinteressen zu entdecken, Abfrageabsichten zu verstehen und Suchverhalten zu modellieren. Ein erheblicher Teil der Abfragen an SPARQL-Endpunkte im Web sind jedoch Roboterabfragen, die von automatisierten Skripts generiert werden. Das Erkennen und Trennen dieser robotischen Abfragen von den organischen Abfragen, die von menschlichen Benutzern ausgegeben werden, ist entscheidend für eine gründliche Nutzungsanalyse von Wissensgraphen. Vor diesem Hintergrund schlagen wir in diesem Papier eine neuartige Methode vor, um SPARQL-Abfragen basierend auf Abfragefunktionen auf Sitzungsebene zu identifizieren. Insbesondere definieren und partitionieren wir SPARQL-Abfragen in verschiedene Sitzungen. Anschließend entwerfen wir einen Algorithmus zur Erkennung von Schleifenmustern, die ein wichtiges Merkmal von Roboterabfragen sind, in einer bestimmten Abfragesitzung. Schließlich verwenden wir eine Pipeline-Methode, die Schleifenmusterfunktionen und die Häufigkeit der Abfrageanfragen nutzt, um die robotischen und organischen SPARQL-Abfragen zu unterscheiden. Im Gegensatz zu anderen auf maschinellem Lernen basierenden Methoden kann die vorgeschlagene Methode die Abfragetypen ohne gekennzeichnete Daten genau identifizieren. Wir führen umfangreiche Experimente mit sechs realen SPARQL-Abfrageprotokolldatensätzen durch. Die Ergebnisse zeigen, dass unser Ansatz robotische und organische Abfragen effektiv unterscheiden kann und nur only;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-60259-8_21 07539448cbc9a907e53d6e599ba263a3;de;;;5.2.;;;Gesellschaftliche Informationskulturen: Erkenntnisse aus der COVID-19-Pandemie Nationale Reaktionen auf die globale COVID-19-Pandemie boten die Möglichkeit, Einblicke in die Merkmale gesellschaftlicher Informationskulturen zu gewinnen. Erfahrungen aus vier verschiedenen Ländern (China, Australien, Niederlande und Island) wurden gesammelt und aus der Perspektive der Informationskompetenz analysiert. Die Forschung orientierte sich an der Strukturierungstheorie von Giddens.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71292-1_48 8c1857d0621eb9014236077949f8338f;de;;;5.2.;;;Effiziente Algorithmen zum Finden einer längsten gemeinsamen steigenden Teilsequenz Wir untersuchen das Problem, eine längste gemeinsame steigende Unterfolge (LCIS) mehrerer Zahlenfolgen zu finden. Das LCIS-Problem ist ein grundlegendes Thema in verschiedenen Anwendungsbereichen, einschließlich des gesamten Genom-Alignments. In diesem Artikel geben wir einen effizienten Algorithmus zum Bestimmen des LCIS von zwei Folgen in;-;-;-;https://link.springer.com/article/10.1007/s10878-006-9031-7 0bc8869ae8be33f207562500270d02e7;de;;;5.2.;;;Untersuchung zur Verkehrszeichenerkennung basierend auf dem neuronalen BP-Netz und invarianten Momenten Da der Verkehrszeichenerkennungsprozess langsam konvergiert, leicht in ein lokales Fehlerminimum im allgemeinen BP-Algorithmus fällt, wird in dem Artikel ein BP-Algorithmus diskutiert, der auf dem verbesserten konjugierten Gradientenverfahren auf der Grundlage der Fletcher-Reeves-Linearsuche basiert Methode. Zu Beginn wird das Grundprinzip des Algorithmus vorgestellt, zwischenzeitlich wird eine vertiefte Analyse aus den theoretischen Aspekten im Beitrag diskutiert und anschließend das trainierte neuronale BP-Netz in die Funktionsapproximation angewendet. Experimentelle Ergebnisse zeigen, dass der Algorithmus viele Vorteile hat, wie zum Beispiel eine gute Wirkung bei der Lösung der Rotations- und Skaleninvarianz mit dem Bild, der extrahierten Merkmale mit Translations-, Skalen- und Rotationsinvarianz. Die hohe Konvergenzgeschwindigkeit und die geringere Iteration dieses Algorithmus können die Anforderungen der autonomen Navigation unbemannter Fahrzeuge erfüllen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29387-0_24 f66fe7985becf3a9d1e886902911db59;de;;;5.2.;;;Durchführbarkeitsprinzipien für die eingeschränkte Optimierung mit einem (1+1)-CMA-ES Viability Evolution ist eine Abstraktion der künstlichen Evolution, die durch Eliminieren von Kandidatenlösungen funktioniert, die die Rentabilitätskriterien nicht erfüllen. Durchführbarkeitskriterien werden als Grenzen der Werte von Zielen und Beschränkungen des zu lösenden Problems definiert. Durch die Anpassung dieser Grenzen ist es möglich, die Suche in Richtung auf gewünschte Regionen des Lösungsraums zu treiben, optimale Lösungen zu entdecken oder solche, die eine Reihe von Randbedingungen erfüllen. Obwohl wir in früheren Arbeiten die Machbarkeit des Ansatzes demonstrierten, indem wir ihn auf einen einfachen genetischen Algorithmus implementierten, war die Methode eindeutig nicht mit dem aktuellen Stand der Evolutionsberechnungen konkurrenzfähig. In dieser Arbeit testen wir die Prinzipien der Viability Evolution an einem modifizierten (1+1)-CMA-ES zur eingeschränkten Optimierung. Die resultierende Methode zeigt eine wettbewerbsfähige Leistung, wenn sie an acht unimodalen Problemen getestet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10762-2_27 e86734dcd07b501118ae9fd1c7235b08;de;;;4.2.;;;Tracing Environment Narratives: ein webbasiertes Tool zur Analyse und Visualisierung von georeferenzierten Narrativen Eine wachsende Zahl von Studien hat eigenständiges GPS oder Smartphones verwendet, um zu verfolgen, wo sich Menschen bewegen und in welcher Umgebung sie sich bewegen. Gleichzeitig wurden Fragebögen, Umfragen und Reisetagebücher verwendet, um die Wahrnehmung, Emotionen und Interaktionen der Menschen mit der nahen Umgebung zu erfassen. Die wachsende Menge qualitativer Daten zusammen mit Standortinformationen erfordert neue Wege, um georeferenzierte Erzählungen bequem, intuitiv und visuell zu vermitteln. In dieser Studie haben wir ein webbasiertes Tool entwickelt, das GPS-Trajektorien und -Erzählungen automatisch verarbeitet, Informationen zu Reiserouten und georeferenzierte Umweltwahrnehmung anzeigt. Unser georeferenzierter Word-Cloud-Ansatz bietet eine innovative Möglichkeit, qualitative Informationen zu visualisieren. Die entwickelte Plattform kann in gemeinschaftlichem Engagement und in partizipativen Planungsprozessen zur Stärkung der lokalen Gemeinschaften eingesetzt werden.;-;-;-;https://link.springer.com/article/10.1007/s10708-017-9774-y 3dd3bf28559719e325e360ecaebe9fb2;de;;;4.2.;;;Wirtschaftliche Auswirkungen der Investitionen des Bundes in die Infratechnologie In Kapitel 4 präsentierten wir vorläufige Daten zum Umfang der Investitionen des öffentlichen und des privaten Sektors in die Infratechnologie-Forschung. Obwohl diese Schätzungen vorläufig sind, deuten unsere Beweise darauf hin, dass die Höhe der Investitionen in die Infratechnologieforschung durch öffentliche und private Teilnehmer eindeutig eine erhebliche Ressourcenbindung für den Innovationsprozess darstellt. Der Zweck dieses Kapitels besteht darin, Kapitel 4 zu erweitern, indem es zwei Fallstudien zu Investitionen in die Infratechnologieforschung des National Institute of Standards and Technology (NIST, ehemals National Bureau of Standards) präsentiert. Unsere Schlussfolgerung ist, dass diese Investitionen erhebliche Auswirkungen auf die Wirtschaft haben – wie in den vorherigen Kapiteln angedeutet – und dass weitere Investitionen des öffentlichen Sektors zumindest aus sozialer Sicht gerechtfertigt erscheinen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-2936-7_5 0b84c91cb55f3de93eff5ab06fef0ada;de;;;4.2.;;;Existenz der australischen Aborigines in der westlichen Wüste Wenn jemand versucht wäre, den Lebensunterhalt von Jägern und Sammlern als „einfach“ zu charakterisieren, würde Scott Canes Studie über die traditionelle saisonale Runde der Bewohner der Great Sandy Desert ihn von dieser Vorstellung befreien. Seine über sechs Jahre bei den Gugadja-Leuten durchgeführte Studie dokumentiert akribisch die eingesetzten Ressourcen und die Methoden ihrer Beschaffung und Verarbeitung. Er bewertet den relativen Nährstoffbeitrag und die Bedeutung von Schlüsselnahrungsmitteln und liefert quantifizierte Daten über die Sammlung und Verarbeitung von Saatgut – ein Schlüsselelement in der Ernährung der Aborigines, das es ihnen ermöglicht, einen Lebensraum zu nutzen, der durch saisonale extreme Trockenheit gekennzeichnet ist. Die Samen werden für die treffend benannte „hungrige Jahreszeit“ gelagert. Es ist seit langem bekannt, dass Samen für australische Jäger und Sammler wichtig waren, Cane zeigt jedoch, dass dies in Bezug auf die Kalorienzufuhr nicht stimmt. Samen erfordern viel Aufwand beim Sammeln, Winnowing und insbesondere bei der Vorbereitung für das endgültige Kochen und den Verzehr. Aufgrund ihrer Lagerfähigkeit sind sie lebenswichtig. Durch die Dokumentation von Ernährungsumstellungen von Saison zu Saison zeigt Cane, dass es ungenau ist, solche Ökonomien als hauptsächlich auf „Jagd“ oder „Sammeln“ beruhend zu charakterisieren, was die Menschen essen und wie viel Mühe sie aufwenden, hängt von der Jahreszeit ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-9584-4_2 d43280fbf2b40fbe15d067f47f28a6aa;de;;;4.2.;;;Der Nexus der UN-Nachhaltigkeitsziele und ihr Bezug zur Lebensqualität: Ein Fall von Urbanisierung in Äthiopien und Indien Urbanisierung und informelles Wohnen sind sowohl für Äthiopien als auch für Indien entscheidende Themen. Hochschulen aus diesen Ländern arbeiten mit europäischen Universitäten beim Kapazitätsaufbau zukünftiger Architekten und Planer zusammen, um integrative und partizipative Ansätze zu stärken. Dabei steht die Lebensqualität der betroffenen BewohnerInnen unter Berücksichtigung sozialer sowie ökologischer Aspekte im Fokus. Dieses Kapitel soll zeigen, wie solche Projekte und damit innovative Hochschulbildung zur Erreichung ausgewählter Ziele der UN-Nachhaltigkeitsziele (SDGs) beitragen und wie sie mit der Lebensqualität verknüpft sind. Gerade in den unteren Einkommensschichten der Stadtgesellschaft weisen der Mangel an Grundversorgung und seine negativen Auswirkungen auf die Lebensqualität grundsätzlich auf starke Ungleichheiten hin. Bereits seit mehreren Jahrzehnten bemühen sich Nationalstaaten sowie regionale und kommunale Behörden mit einer Vielzahl von Ansätzen, slumähnlichen Wohnverhältnissen in Städten zu begegnen, um die Lebens- und Lebensgrundlagen einkommensschwacher Gruppen zu verbessern. Die Hochschulbildung kann zur Erreichung der SDGs und der Lebensqualität durch eine Curriculumentwicklung beitragen, die auf die Ausbildung zukünftiger Architekten und Planer ausgerichtet ist, die in der Lage sind, mit der enormen sozioökonomischen Komplexität ihrer Städte umzugehen. Dabei verdeutlichen die Beispiele in Äthiopien und Indien den enormen Einfluss, den die Hochschulbildung durch die Einbeziehung von Gemeinschaften und Interessengruppen in die Entwicklung von Studiengängen haben kann, die den Bedürfnissen der Menschen entsprechen. Die Erreichung von Randgruppen durch eine qualitativ hochwertige Bildung oder die Einbeziehung des Themas Informalität, Nachhaltigkeit und Lebensqualität in die Lehrpläne sind zentrale Themen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-50540-0_7 96b5685d6c09b2ce46ed02685420eff5;de;;;4.2.;;;Von der Neurowissenschaft zur Informatik: ein aktueller Ansatz auf Twitter Twitter ist vielleicht der einflussreichste Microblogging-Dienst mit 271 Millionen regelmäßigen Nutzern, die täglich etwa 500 Millionen Tweets produzieren. Frühere Studien zu Tweets zu wissenschaftlichen Themen beschränken sich auf lokale Umfragen oder sind geografisch möglicherweise nicht repräsentativ. Dies weist auf die Notwendigkeit hin, Tweets zu sammeln und zu analysieren, um den Verbreitungsgrad wissenschaftsbezogener Themen weltweit zu verstehen. In dieser Studie verwenden wir Twitter als Fallbeispiel und untersuchen die Hypothese der Popularisierung der Wissenschaft über den sozialen Strom. Wir präsentieren und diskutieren Tweets mit Bezug zur Populärwissenschaft auf der ganzen Welt unter Verwendung von elf Schlüsselwörtern. Wir analysieren eine Stichprobe von 306.163 Tweets, die von 91.557 Nutzern gepostet wurden, mit dem Ziel, Tweets und Kategorien zu identifizieren, die zu zeitlich ähnlichen Themen gebildet wurden. Wir haben die Daten systematisch untersucht, um die Online-Aktivitäten rund um Nutzer, die über Populärwissenschaft twittern, zu verfolgen und zu analysieren. Darüber hinaus identifizieren wir Orte mit hoher Twitter-Aktivität, die an mehreren Orten auf der ganzen Welt auftreten. Wir untersuchen auch, welche Quellen (mobile Geräte, Apps und andere soziale Netzwerke) verwendet werden, um populärwissenschaftliche Links zu teilen. Darüber hinaus gibt diese Studie Einblicke in die geografische Dichte populärwissenschaftlicher Tweets weltweit. Wir zeigen, dass aufkommende populärwissenschaftliche Themen wichtig sind, weil sie dazu beitragen könnten, herauszufinden, wie Wissenschaft von öffentlichem Interesse wird. Die Studie bietet auch einige wichtige Erkenntnisse für die Untersuchung der Art von wissenschaftlichen Inhalten, die Nutzer eher twittern.;-;-;-;https://link.springer.com/article/10.1007/s42001-017-0002-9 f3eecccf67c47806f6b2f221d9cbdf60;de;;;4.2.;;;Beyond Business: Die Grundlagen und Praktiken des Unternehmensaktivismus verstehen Das Ziel dieser Forschung ist es, das aufkommende Phänomen des Unternehmensaktivismus und seine Beziehung zum vierten Sektor zu untersuchen. Dieses Kapitel enthält daher einen detaillierten Überblick über die Konzepte und Theorien, die ein besseres Verständnis der Themen rund um den Aktivismus ermöglichen. Genauer gesagt beschreibt es das Ökosystem, in dem die Unternehmen tätig sind, die aktivistische Praktiken durchführen. Sie führen diese aufgrund der strategischen Entscheidungen ihrer Unternehmen in verschiedenen Teilen der Welt durch. All dies hat das Ziel, die finanziellen Ziele zu erreichen sowie den sozialen Wandel zu fördern und das Engagement dieser Praktiken für die Mission der gemeinnützigen Organisation zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-68390-0_16 ccbc81abf2e23c20043298240b0c52ed;de;;;5.2.;;;3D Human Motion Tracking mit progressivem Partikelfilter Die Arbeit schlägt einen modellbasierten 3D-Algorithmus zur Verfolgung menschlicher Bewegungen, einen progressiven Partikelfilter, mit einer einzigen uneingeschränkten Kamera vor. Der Partikelfilter ist ein nützlicher Algorithmus für die Verfolgung menschlicher Bewegungen, leidet jedoch unter dem Entartungsproblem und dem enormen Rechenaufwand. Die Studie verbessert die Sampling-Effizienz, indem die Mean-Shift-Tracker in jedes Partikel in Richtung jedes lokalen Maximums integriert werden, um die Genauigkeit zu erhöhen. Außerdem kombinieren wir auch den hierarchischen Suchansatz, um den hochdimensionalen Raum in drei niedrigdimensionale Räume zu zerlegen, um den Rechenaufwand zu reduzieren. Experimentelle Ergebnisse zeigen, dass der vorgeschlagene Algorithmus den Rechenaufwand erfolgreich reduzieren und mehr Genauigkeit verfolgen kann als ein klassischer Partikelfilter.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89646-3_82 2c963c14f6f454fd4bd1332b5c123f46;de;;;4.2.;;;Die Rolle der marginalisierten und ungewöhnlichen Verdächtigen bei der Produktion digitaler Innovationen: Innovationsmodelle im afrikanischen Kontext Die rasante Verbreitung von Innovationskonzepten, die Erfahrungen im Globalen Süden aufgreifen, wirft entscheidende Fragen nach der Relevanz dieses Phänomens für die Entwicklung auf. In dem Bemühen, konzeptionelle Klarheit zu schaffen, überprüft dieses Papier mehrere verwandte Verständnisse von Innovation und verwandter Ansätze, um erstens Überschneidungen und Unterschiede abzubilden und zweitens zu verstehen, wie sie innerhalb des Entwicklungsdiskurses angesiedelt sind. Diese Studie verwendet eine Literaturrecherche und wendet eine thematische Analyse an, um die verschiedenen Innovationskonzepte und das Ausmaß zu identifizieren, in dem sie die Marginalisierten in ihre Gestaltung und Operationalisierung einbeziehen. Insbesondere untersucht diese Studie, ob diese Innovationskonzepte Innovation als etwas begreifen, das außerhalb armer Gemeinschaften, aber in deren Auftrag entwickelt wird, ob Innovation zusammen mit armen Gemeinschaften entwickelt wird oder ob sie von und in armen Gemeinschaften entwickelt wird. Die Ergebnisse dieser Studie haben gezeigt, dass diese Konzepte in den meisten Fällen armutsorientiert sind, mit wenigen Ausnahmen von Innovationen, die in Zusammenarbeit mit den Armen in einem Pro-Poor-Prozess durchgeführt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-11235-6_17 9c277e6b8ea63f5e3c25a66e333d7e2f;de;;;4.2.;;;Traditionelle Musik in Costa Rica aus der karibischen afro-lateinischen Perspektive In dem vorliegenden transkribierten, bearbeiteten und kommentierten Vortrag führt uns der renommierte Musiker und Gelehrte Carlos Saavedra Reyes durch eine kulturmusikalische Reise von den historischen Wurzeln des Calypso in der afro-karibischen Tradition bis in den Westen Costa Ricas, ausgedrückt durch das Quijongo expressed und der Punto Guanacasteco. Der Referent erläutert, wie schwierig die Musik im Zusammenhang mit der nationalen Identität Costa Ricas war.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-06146-3_4 9d25de65b5b7466791b3f67c83ff2b99;de;;;4.2.;;;Wie Politikwissenschaft an Bedeutung gewinnen und ein Publikum gewinnen könnte: Ein Manifest für das 21. Jahrhundert Im Gegensatz zu ihren quantitativen Fortschritten hat die Politikwissenschaft nur bescheidene Beiträge zur Behandlung wichtiger zeitgenössischer Fragen geleistet. Die Politikwissenschaft wurde weitgehend auf eine funktionalistische Wissenschaft des „Managens“ der parlamentarischen Parteiregierung reduziert. Der Artikel spricht sich dafür aus, dass sich die Disziplin als Wissenschaft der Demokratie neu definiert, parteiische Visionen zur Erreichung einer „guten Gesellschaft“ erforderlich sind, die Bürger dabei unterstützt werden, sich mit politischen Alternativen auseinanderzusetzen, und dass Politikwissenschaftler bei Konflikten demokratischer Regierungen Partei ergreifen sollten mit geschäftlichen Interessen.;-;-;-;https://link.springer.com/article/10.1057/eps.2010.49 80c0581b692b19d30d9beef74dda42c3;de;;;4.2.;;;Musikalisches Werden: Geistige Behinderung und die transformative Kraft der Musik In vielerlei Hinsicht begann mein Interesse an Philosophie, Musik und geistiger Behinderung in dreistimmiger Harmonie. Ich interessierte mich für die Zusammenhänge zwischen Philosophie und geistiger Behinderung, als ich als Student von einer ehrenamtlichen Tätigkeit in einem Klassenzimmer für Kinder mit der Aufschrift „mehrfach behindert“ zu einem Seminar über die platonischen Dialoge wechselte. Ich fragte mich, was Philosophen über Menschen zu sagen hatten, denen das zu fehlen schien, was sie als die menschlichste Eigenschaft definiert hatten – Vernunft – und so begann mein Interesse an der Beziehung zwischen Philosophie und Behinderung. Gleichzeitig waren meine Begegnungen mit den Kindern der Rehabilitationsschule musikalische. Es gab viele Schüler in der Klasse, in der ich arbeitete, die unglaublich musikalisch waren, und da ich selbst Musiker war, wollte ich diese Welt unbedingt mit ihnen teilen. Durch das gemeinsame Musizieren und Hören von Musik, sowohl auf traditionelle als auch auf sehr unkonventionelle Weise, knüpfte ich eine unmittelbare Verbindung zu ihnen: eine, die in einer gemeinsamen Welt begründet ist, eine gegenseitige Liebe zu dem, was viele als eine ausgesprochen menschliche Erfahrung bezeichnen würden.;-;-;-;https://link.springer.com/chapter/10.1057/9781137363787_5 6c51474f0617353d4971bc27512a8cf8;de;;;5.2.;;;Wiederherstellung des Speichers basierend auf Seitenersetzungsalgorithmen In der Hauptspeicherdatenbank (MMDB) befindet sich die primäre Kopie der Datenbank im flüchtigen Hauptspeicher. Dies macht die MMDB im Vergleich zur Disk Resident Database (DRDB) anfälliger für Fehler. Eine Sicherungskopie der Datenbank wird zu Wiederherstellungszwecken im sekundären Speicher aufbewahrt. Recovery-Aktivitäten wie Logging, Check Pointing und Neuladen werden verwendet, um die Datenbank nach einem Systemausfall in einen konsistenten Zustand wiederherzustellen. In diesem Papier wurde ein Wiederherstellungsschema implementiert, das zwei Seitenersetzungsalgorithmen für MMDB verwendet. Die Leistung des Wiederherstellungsmechanismus als Funktion der Seitenanzahl und Seitengröße wurde gemessen. Aus den Ergebnissen geht hervor, dass die Wiederherstellungszeit fast linear mit der Vergrößerung des Speichers ansteigt und die Anzahl der Seiten im Speicher die Wiederherstellung beeinflusst. Die Simulationsergebnisse zeigen, dass der LRU-Algorithmus (Least Latest Used) die kürzeste Wiederherstellungszeit im Vergleich zum First-in-First-out-Algorithmus (FIFO) hat. Diese Techniken können zum Ersetzen des verlorenen Speichers verwendet werden, um die Wiederherstellungszeit zu verbessern, und können weiter auf andere Bereiche des Web-Caching ausgeweitet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25453-6_42 db237e009804ec76837e28f85cf6808b;de;;;4.2.;;;Entwicklung und Fortschritt der Beteiligung von Frauen in der ecuadorianischen Politikperiode 2009–2019 Dieser Beitrag analysiert die Entwicklung der politischen Partizipation von Frauen in Ecuador im letzten Jahrzehnt, 2009–2019. Dies ist sehr wichtig, da es hilft, eine internationale und regionale Retrospektive zur gleichberechtigten politischen Teilhabe zu entwickeln. Bei der Messung der politischen Partizipation von ecuadorianischen Frauen wurden offizielle Daten des Nationalen Wahlrats-Ecuador sowie anderer staatlicher Datenbanken verwendet. Die Ergebnisse dieser Untersuchung zeigen, dass sich erstens die Beteiligung der ecuadorianischen Frauenpolitik im Laufe der Zeit sowie die Gesetzgebung und deren Anwendung erheblich verändert haben. Zweitens gibt es ein bemerkenswertes Geschlechtergefälle. Männer werden meist als Kandidaten für politische Positionen wie Bürgermeister, Gouverneure oder Präsidenten angesehen. Dies spiegelt kulturell geprägte Aspekte in der ecuadorianischen Gesellschaft wider. Drittens mangelt es dem Land an seiner Politik der vertikalen Parität und es gibt keine horizontale Parität. Und schließlich zeigt dieses Papier, dass die politische Teilhabe von Frauen in Ecuador von der Region abhängt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58820-5_42 8b3c1130c9b4bad5cd33d4d1853e378f;de;;;4.2.;;;Wirbeln jenseits unserer Zeit: Entlang der minoischen und nazkischen Linie Wir werden immer besser verstehen, dass die Philosophie in der Tat genauso eng mit der Technologistik unserer Zeit verbunden ist wie andere akademische und wissenschaftliche Disziplinen. Heideggers Kritik der Technologistik (;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-1594-7_4 3fbc1d8d05747455f48e5d6b9facf15d;de;;;5.2.;;;Single-iterative Sattelpunktalgorithmen zur Lösung eingeschränkter Optimierungsprobleme über erweiterte Lagrange-Operatoren Die Theorie der erweiterten Lagrange-Funktionen macht es möglich, die meisten bekannten eingeschränkten Optimierungsalgorithmen als Spezialfälle eines allgemeinen Newton-ähnlichen Algorithmus der Sattelpunktsuche zu vereinheitlichen. Penalty-Verfahren, Gradientenprojektionsverfahren, Multiplikatorverfahren, quadratische Approximationsverfahren usw. können in diesem Rahmen einheitlich behandelt werden. Darüber hinaus resultiert aus diesem Ansatz eine neue Klasse von Single-Iterative-Sattelpunkt-Algorithmen, die die zuvor erwähnten Verfahren verallgemeinern. Die einzelnen Algorithmen werden im Detail beschrieben: ein doppelvariabler Metrikalgorithmus mit variablen Metriken für die Approximation des Primal- und des Dual-Hesses und ein einvariabler Metrikalgorithmus mit variablen Metriken für die Approximation des Primalhessian und mit an Umkehrung des dualen Hessian. Beide Algorithmen haben eine endliche Terminierung im quadratischen Fall und quadratische Konvergenz im allgemeineren Fall, beide sind sowohl für nichtlineare als auch für lineare Zwangsbedingungen wirksam. Anwendungsbeispiele und Ergebnisse von Vorversuchen sind am Ende aufgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0006522 c257fc651bbf1cf90ae04e82ebb0f0b8;de;;;5.2.;;;Die moderne Gesellschafts- und Wirtschaftstheorie Der ursprüngliche Zweck dieses Aufsatzes war der Versuch, die Wirtschaftstheorie des großen, wachsenden Konzerns, wie sie sich seit der Veröffentlichung von entwickelt hat, zu überblicken und zu festigen;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-01110-0_9 7276226d44ce87749216e0a40dc9843b;de;;;5.2.;;;Wenn Systemdenker alle so schlau sind, warum sind wir dann nicht reich? Wenn das Tempo des globalen Wandels so ist, dass die zentrale Unternehmensidentität kurzlebig ist (zusammen mit ihrer Struktur und ihren Produkten), wie können wir dann die Langlebigkeit messen? Doch selbst wenn die Organisation stirbt, können alle Systeme, Subsysteme und Individuen (Churchman, 1968), die sie so lange und so offensichtlich erfolgreich aufrechterhalten haben (dh ihre Kultur, Auswahl von Führungskräften, Produktqualität), irgendwie noch existieren, selbst wenn die Teile haben neue Realitäten absorbiert oder sind in neue Realitäten aufgetaucht. Wenn wir diese Metamorphose klarer erklären und den Beteiligten dabei helfen könnten, in diesem Prozess erfolgreich zu sein, wären wir reich!;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-0265-8_20 4fbaf553fd82e1d498d13e86e4b286a5;de;;;4.2.;;;Technologie als Ermächtigung: ein Fähigkeitsansatz zur Computerethik Standardmäßige agenten- und handlungsbasierte Ansätze in der Computerethik haben tendenziell Schwierigkeiten, mit komplexen Problemen auf Systemebene wie der digitalen Kluft und der Globalisierung umzugehen. Dieses Papier argumentiert für eine wertebasierte Agenda, die traditionelle Ansätze in der Computerethik ergänzt, und dass ein wertebasierter Ansatz, der für technologische Domänen gut geeignet ist, in der Fähigkeitstheorie zu finden ist. Capability-Ansätze haben in letzter Zeit in einer Reihe von Feldern mit ethischer oder politischer Dimension an Einfluss gewonnen, wurden jedoch in der Computerethik bisher nicht angewendet. Der Artikel stellt zwei Hauptversionen der Theorie vor – die von Amartya Sen und Martha Nussbaum – und argumentiert, dass sie potenziell wertvolle konzeptionelle Werkzeuge für die Computerethik bieten. Durch die Entwicklung einer Werttheorie auf der Grundlage menschlicher Kernfunktionen und der zu ihrer Verwirklichung erforderlichen Fähigkeiten (Mächte, Freiheiten) wird gezeigt, dass die Fähigkeitstheorie eine Reihe potenzieller Vorteile hat, die die Standardethiktheorie ergänzen, neue Analyseansätze eröffnen und eine Rahmen, der sowohl eine Gerechtigkeits- als auch eine Ethik-Dimension beinhaltet. Der zugrundeliegende Funktionalismus der Fähigkeitstheorie wird als besonders geeignet für die Technologieethik angesehen, da er die Integration einer normativen und deskriptiven Analyse von Technologie im Hinblick auf menschliche Bedürfnisse und Werte ermöglicht. Der Beitrag schließt mit einer Betrachtung einiger Kritikpunkte an der Theorie und Richtungen für die weitere Entwicklung.;-;-;-;https://link.springer.com/article/10.1007/s10676-006-9127-x ab2cafb8bfc89985be4896b1e540440d;de;;;4.2.;;;Der Hochzeitsmarkt Die Suche nach einem geeigneten Ehemann fand häufig im so genannten „Heiratsmarkt“ seit dem 16. Jahrhundert statt. Ein Großteil des Manövrierens für einen Partner fand unter sehr eingeschränkten Umständen statt, meistens in der Londoner Saison. Junge Elitefrauen nutzten die Bälle und Partys der Londoner Saison, um ihre Suche nach einem geeigneten Ehemann durchzuführen. Das ultimative Ziel war es, sich in einen Mann zu verlieben, den ihre Familie für passend halten würde. Im Mai 1808 berichtete Sarah Spencer im Alter von 17 Jahren über einen Ball, an dem sie teilnahm, wo sie „die beiden letzten mit Lord Percy,;-;-;-;https://link.springer.com/chapter/10.1057/9781137327802_6 fdc94016878e4c437a76fbd7d8be583e;de;;;5.2.;;;4D-Datenfusionstechnik in einem Entscheidungsunterstützungssystem zur Entwässerung von städtischen Staus Dieser Artikel untersucht städtische Entscheidungsunterstützungssysteme, die auf der 4D-Datenfusionstechnik basieren. 4D-Daten umfassen DEM, DOQ, DLG und DRG. Es liefert komplette Datenbanken für die Vorhersage und Analyse von Staunässe zusammen mit einer nicht-räumlichen Fundamentaldatenbank. Datenzusammensetzung und Argumentation sind zwei wichtige Schritte der 4D-Datenfusion. Schließlich gibt dieses Papier einen realen Fall: Ezhou Waterlog-Draining Decision Support System (EWDSS), mit zwei Anwendungsmodellen, d. B. DEM-Anwendungsmodell, Wassererzeugungs- und Entwässerungsmodell.;-;-;-;https://link.springer.com/article/10.1007/BF02826608 a77eb4082ea0badbbd18e4da569e4466;de;;;5.2.;;;Neuparametrierung von Einzeldifferenz- und undifferenzierten kinematischen GPS-Positionierungsmodellen Eine Reihe von Vorteilen von Einzeldifferenz- (SD) und nicht differenzierten (ZD) Modellen werden im Vergleich zum Doppeldifferenz- (DD) Modell angegeben. Bei SD- und ZD-Modellen gibt es jedoch Rangfehler. Das Reparametrisierungsverfahren wird bereitgestellt, um dieses Rangfehlerproblem zu lösen, indem einige Kombinationen der Unbekannten anstatt der Unbekannten selbst geschätzt werden. Die Reparametrisierung von SD- und ZD-Funktionsmodellen wird ausführlich mit ihren stochastischen Modellen diskutiert. Die theoretische Bestätigung der Äquivalenz von undifferenzierten und differenzierten Modellen wird auf einfache Weise beschrieben. Die Beziehung zwischen SD- und ZD-Residuen wird für einige spezielle Zwecke angegeben und überprüft, z. g. Erforschung der stochastischen Eigenschaften von GPS-Beobachtungen.;-;-;-;https://link.springer.com/article/10.1007/BF02826746 50b81d525dd0b965461e38b603886c4a;de;;;5.2.;;;Logistikplanung für Dritte mit Routing- und Lagerkosten Wir adressieren ein Planungs- und Routingproblem, dem ein externer Logistikdienstleister bei der Planung seines Lieferplans und der Routen unter der Woche für eine Reihe bestehender und/oder potenzieller Kunden gegenübersteht, die Lieferungen an ihre Kunden durchführen müssen (die wir „ Endkunden“). Das Ziel besteht darin, die Gesamtkosten für Transport und Inventar zu minimieren und gleichzeitig eine Kundendienstanforderung zu erfüllen, die eine Mindestanzahl von Besuchen bei jedem Kunden pro Woche und die Befriedigung der zeitabhängigen Nachfrage der Endkunden vorsieht. Explizite Beschränkungen bezüglich der Mindestanzahl von Besuchen bei jedem Kunden pro Woche führen zu Interdependenzen, die zu einer Dimension der Problemschwierigkeit führen, die in Modellen in der Literatur nicht üblich ist. Unser Modell beinhaltet zwei weitere realistische Faktoren, die der Logistik-Drittanbieter berücksichtigen muss: die vom Endkunden zu tragenden Lagerhaltungskosten, wenn die Lieferungen nicht „just-in-time“ erfolgen, und die Möglichkeit mehrerer Fahrzeugbesuche am Ende -Kunde im gleichen Zeitraum (Tag).;-;-;-;https://link.springer.com/chapter/10.1007/0-387-26281-4_3 5edcdf3e5ff50a8d8159ff0c1b8515d7;de;;;4.2.;;;Beratung hinterbliebener Kinder mittleren Alters: Selbstmordüberlebende der Eltern Selbstmord hat viele Bücher und Zeitschriftenartikel hervorgebracht, aber die Literatur ist spärlich, um den Trauerprozess von Söhnen und Töchtern mittleren Alters zu diskutieren, die Reaktionen auf den Selbstmord der Eltern lösen. Ein Entwicklungsrahmen ist in drei verschiedene Phasen mit Interventionsstrategien organisiert. Jede Phase spezifiziert einige der einzigartigen Zwangslagen, denen Kinder mittleren Alters bei der Anpassung an den Verlust der Eltern begegnen können.;-;-;-;https://link.springer.com/article/10.1007/BF00759115 0abad79502767b2322de4c0e7b836162;de;;;4.2.;;;Synthetische Biologie und die Rolle zivilgesellschaftlicher Organisationen In diesem Kapitel diskutieren wir die Rolle von Organisationen der Zivilgesellschaft (CSOs) in aktuellen und zukünftigen öffentlichen Debatten über die synthetische Biologie als neue und aufstrebende Wissenschaft und Technologie. Wir sehen CSOs als potenziell wichtige Mittler zwischen Wissenschafts- und Governance-Institutionen einerseits und einer breiteren Öffentlichkeit andererseits. In dieser Rolle haben CSOs bereits zur Agenda der aufkommenden Debatte über synthetische Biologie beigetragen. Die Art und Weise, in der CSOs und eine breitere Öffentlichkeit in künftige Debatten über die synthetische Biologie einbezogen werden können, wird jedoch auch von der Formulierung der Themen abhängen, die von staatlichen und wissenschaftlichen Akteuren in diesen Debatten auf dem Spiel stehen. Um dies zu verdeutlichen, verweisen wir in diesem Kapitel auf die Lehren aus früheren Debatten über Gentechnik und Nanotechnologie, die einen bemerkenswerten Unterschied zwischen staatlichen und wissenschaftlichen Ansätzen zu den Auswirkungen neuer Wissenschaft und Technologie zeigen, die sich auf Fragen des Risikos und der Regulierung konzentrieren, und die Aktivitäten von CSOs, wobei der Schwerpunkt auf breitere gesellschaftliche Themen gelegt wird. Diese Spannung wird auch aus unserer Analyse der Agenda der aufkommenden Synbio-Debatte und aus den Ergebnissen in diesem Kapitel einer Umfrage ersichtlich, in der wir verschiedene CSOs zu ihren Visionen zur synthetischen Biologie befragt haben. Angesichts dieser Spannung diskutieren wir in diesem Kapitel auch die Bedingungen, die für eine konstruktive Rolle von CSOs in zukünftigen öffentlichen Debatten über die synthetische Biologie erfüllt sein sollten.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-2678-1_10 eb0a1333fffed62c58d8d38f34e917c3;de;;;5.2.;;;Ein rekursiver Suchalgorithmus zur statistischen Offenlegungsbewertung Ein neuer Algorithmus, SUDA2, wird vorgestellt, der minimal eindeutige Itemsets findet, d. h. minimale Itemsets der Häufigkeit eins. Diese Itemsets, die als Minimal Sample Uniques (MSUs) bezeichnet werden, sind wichtig für statistische Ämter, die das Risiko der Offenlegung ihrer Datensätze abschätzen möchten. SUDA2 ist ein rekursiver Algorithmus, der neue Beobachtungen über die Eigenschaften von MSUs verwendet, um den Suchraum zu beschneiden und zu durchqueren. Experimentelle Vergleiche mit früheren Arbeiten zeigen, dass SUDA2 um mehrere Größenordnungen schneller ist, sodass Datensätze mit deutlich mehr Spalten adressiert werden können. Die Fähigkeit von SUDA2, die Grenzen des Suchraums für MSUs zu identifizieren, wird klar demonstriert.;-;-;-;https://link.springer.com/article/10.1007/s10618-007-0078-6 d0a0a378a6b6f26681b369daa973d4a4;de;;;5.2.;;;Anwendung auf Community-Analyse Das Vegetationssystem kann aus der Perspektive von Landschaft, Nische oder Reaktion betrachtet werden. Die für den Einzelfall formulierten Analysemethoden müssen jedoch nicht isoliert werden, da Landschaft, Nische und Reaktion miteinander verbundene Teile eines komplexen Systems sind. Aus der Landschaftsperspektive betrachtet, rückt das räumliche Muster des Systems in den Fokus. Die räumliche Verbreitung einer Art ist ein typisches Beispiel. Die Nischenperspektive erfordert, das System innerhalb der Grenzen eines ökologischen Raums zu platzieren. Die Reaktionsperspektive führt zur Fokussierung auf Trajektorien und damit auf die Nischenform.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-6575-1_5 5a3a932fa0ef55a3cbc13ba539cb1a4e;de;;;5.2.;;;Auf Sammlungsgröße und Rückholeffektivität Der Zusammenhang zwischen Sammlungsgröße und Retrieval-Effektivität ist im Kontext der Websuche besonders wichtig. Wir untersuchen es zunächst analytisch und dann experimentell anhand von Stichproben und Teilmengen von Testsammlungen. Unterschiedliche Abrufsysteme unterscheiden sich darin, wie die einem einzelnen Dokument in einer Stichprobensammlung zugewiesene Punktzahl mit der Punktzahl in der Gesamtsammlung in Beziehung steht. Wir identifizieren vier Fälle.;-;-;-;https://link.springer.com/article/10.1023/A%3A1022904715765 9ea018361b78e8cd27b6fc8c6b9b0d1a;de;;;4.2.;;;Etablierung einer Lernkultur: Die Bedeutung von Beziehungen innerhalb einer Organisation Organisatorisches Lernen ist ein relationales Konzept und ein soziales Konstrukt, das intrinsisch an die Umwelt gebunden ist und die Interaktion zwischen Individuen oder zwischen Individuen und Organisationen beinhaltet. Eine Lernkultur kann als eine Reihe komplexer Beziehungen dargestellt werden, wie z. B. Beziehungen von Mensch zu Mensch. Lernen, um in Organisationen produktiv zu sein, muss erfasst, realisiert, transformiert und wiederverwendet werden. Dies erfordert Beziehungen innerhalb einer Organisation, die alle Arten des Lernens in der gesamten Organisation unterstützen. Dieses Papier argumentiert, dass eine Lernkultur eine Reihe von Beziehungen und Verhaltensweisen innerhalb einer Organisation ist, die stillschweigendes in explizites Wissen umwandeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35879-1_32 45664fe18a9f743543fd070549e7729f;de;;;4.2.;;;Ein Profil von Spielautomatenspielern in Clubs in Sydney, Australien New South Wales, Australien, ist einer der weltweit wichtigsten Märkte für Automatenspiele, wobei seine 1.441 registrierten Clubs den dominierenden Anteil an den Automaten des Staates halten. Diese Studie untersuchte das Automatenspielverhalten bei einer Zufallsstichprobe von 3.000 Clubmitgliedern aus sechs der größten Clubs in Sydney, der Hauptstadt von New South Wales. Die Ergebnisse identifizieren ihre Vorlieben und Beteiligungsniveaus am Automatenspiel, isolieren signifikante soziodemografische und andere Unterschiede zwischen Spielautomaten- und Nicht-Spielautomatenspielern, messen die Prävalenz von wahrscheinlich pathologischem Glücksspiel im Zusammenhang mit Automatenspielen und identifizieren bestimmte Merkmale, die sich signifikant zwischen wahrscheinlich pathologischen und nicht pathologische Automatenspieler unter den Befragten.;-;-;-;https://link.springer.com/article/10.1023/A%3A1015528815957 f55ce278b57478af87a6a1f1ab646d48;de;;;4.2.;;;Korrelate des familiären Kontakts mit dem psychischen Gesundheitssystem: Allokation einer knappen Ressource Diese Studie untersuchte die Korrelationen von informellen und formellen Kontakten zwischen Klinikern und Familien von Personen mit Schizophrenie. Wir haben die Daten von 902 Personen mit Schizophrenie aus der Kundenumfrage des Schizophrenia Patient Outcomes Research Team (PORT) und einer Veterans Affairs-Erweiterung erneut analysiert. Nur 31 % der Familien hatten einen informellen Kontakt mit einem Arzt und 7,8 % nahmen an einem formellen Unterstützungsprogramm teil. Die logistische Regression zeigte, dass jüngeres Alter, höhere Bildung, Drogenprobleme, Inanspruchnahme psychiatrischer stationärer und teilstationärer Behandlungen sowie die Zufriedenheit der Teilnehmer mit ihrer Familie alle positiv und signifikant mit informellen Kontakten verbunden waren. Der Erhalt formeller Familienleistungen war mit der Intensität der sozialen Kontakte zwischen den Teilnehmern und ihren Familien verbunden. Diese Ergebnisse legen nahe, dass formelle Dienste für Familien von Personen mit Schizophrenie nicht allgemein verfügbar sind und dass informelle Wege der häufigste, wenn auch immer noch begrenzte Mechanismus sind, über den Familien von Patienten, die intensive Dienste erhalten, mit Klinikern kommunizieren.;-;-;-;https://link.springer.com/article/10.1007/s11020-005-3782-0 9587e9a4bd889592e1bb7f8bd9097187;de;;;4.2.;;;In mir hast du einen Freund: gesellige Roboter für ältere Erwachsene im Zeitalter globaler Pandemien Soziale Isolation und Einsamkeit sind anhaltende Gesundheitsgefahren, die durch die Pandemie der Coronavirus-Krankheit 2019 (COVID-19) verschlimmert werden. Während der Pandemie wurde die Hälfte der Weltbevölkerung unter strengen Anordnungen zur physischen Distanzierung gestellt und viele Langzeitpflegeeinrichtungen für ältere Erwachsene wurden in den Sperrmodus versetzt, wodurch der Zugang für alle Besucher, einschließlich der Familienmitglieder, eingeschränkt wurde. Vor Ausbruch der Pandemie warnte ein Bericht der National Academy of Sciences, Engineering and Medicine aus dem Jahr 2020 vor den unterschätzten negativen Auswirkungen der sozialen Isolation und Einsamkeit auf die Gesundheit, insbesondere bei älteren Bevölkerungsgruppen. Soziale Isolation und Einsamkeit prognostizieren die Gesamtmortalität mit Raten, die mit klinischen Risikofaktoren wie Fettleibigkeit und Rauchen konkurrieren. Sie sind mit einer höheren Inzidenz von psychischen, kognitiven und physischen Erkrankungen verbunden. Dieses Papier enthält einen Vorschlag, Roboter so zu gestalten, dass sie als Begleiter und Freunde für sozial isolierte und einsame ältere Menschen in Pandemienotfällen und in alternden Gesellschaften im Allgemeinen fungieren. Der Abschnitt „Der Vorschlag“ präsentiert und verteidigt den Vorschlag. Der Abschnitt „Antworten auf Einwände“ beantwortet Einwände, die auf Zwangsgestaltung, dem Ersatz von Menschen durch Roboter, Eingriffen in die Privatsphäre und gefälschter Kameradschaft beruhen. Der Abschnitt „Schlussfolgerung“ stellt fest, dass gesellige Roboter einen vielversprechenden Weg bieten, um soziale Isolation und Einsamkeit während Pandemien zu bekämpfen, und im Allgemeinen vielversprechend für alternde Gesellschaften sind.;-;-;-;https://link.springer.com/article/10.1007/s10676-020-09546-y 32b89d1c355633cc0bb18f6e5aa87be7;de;;;4.2.;;;"„Macht und digitale Kluft“ Die ethischen und politischen Dilemmata, die die Informations- und Kommunikationstechnologie (IKT) aufwirft, werden gerade erst verstanden. Die Auswirkungen zentralisierter Datenerhebung, Massenkommunikationstechnologien oder die Zentralität der Computertechnologie als Zugangsweg zu wichtigen gesellschaftlichen Institutionen werfen wichtige ethische und politische Fragen auf. Um einige dieser Effekte zu erfassen, werde ich sie in Bezug auf die Art der Macht charakterisieren und insbesondere die „Macht-über“-Menschen, die sie ausüben. Ich habe mich für diese spezielle Nomenklatur entschieden, die es uns ermöglicht, erstens zu beschreiben, wie bestimmte Technologien funktionieren, und zweitens, welche Art von Einschränkungen sie den Menschen auferlegen. Der Grund für diese Fokussierung hat mit einem weiteren Ziel des Essays zu tun, nämlich in eine bestimmte Art von Debatte einzugreifen, die oft über den angemessenen Einsatz und die Reichweite von Machttheorien geführt wird, die beim Nachdenken über IKT verwendet werden, insbesondere solche Theorien, die mit dem Werk von Michel . verbunden sind Foucault. Es gibt einen beträchtlichen Nutzen seiner Arbeit in der Computerethik, aber meine Behauptung wird sein, dass sie trotz der produktiven Verwendung seiner Arbeit beispielsweise in den Bereichen der Überwachung nicht das größere Potenzial seiner Arbeit über Macht und zum Teil ""Regierung"" ausschöpft. Ich werde argumentieren, dass man, um die politischen Auswirkungen einiger Aspekte der IKT, insbesondere der digitalen Kluft, richtig zu verstehen, einen Überblick über die Funktionsweise von Macht braucht, der auch traditionellere Formen der Machtübernahme umfasst. Soweit ich auf diese Bedenken eingehen will, ist der Beitrag sowohl ein Beitrag zu Debatten über Wesen und Tragweite der Foucaultschen Machttheorie als auch zur Frage nach den Auswirkungen der digitalen Kluft.";-;-;-;https://link.springer.com/article/10.1023/A%3A1019983909305 247d82f7cf2d6922bc57b75851961051;de;;;4.2.;;;Die Schutz- und Entwicklungsforschung des Kulturraums der Shaolin-Kampfkunst Shaolin Martial Art ist ein repräsentatives Element der Kampfkunst, dessen Kerninhalt ein unverwechselbarer kultureller Raum ist, der mehr als tausend Jahre Geschichte, das kulturelle Umfeld des Buddhismus, das praktizierende Wushu-Verhalten der Mönche und Hunderte von Boxroutinen und Kampfkunstmethoden umfasst. Der Schutz dieses Kulturraums ist umfassender als der Schutz der Technik der Shaolin-Kampfkünste und entspricht mehr dem Erscheinungsbild und der Essenz des immateriellen Kulturerbes. Der Schutz und die Entwicklung des Kulturraums der Shaolin Martial Art wird in diesem Beitrag aus dem Kulturraumschutz des immateriellen Kulturerbes heraus diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23062-2_81 0d591e167ed90bc362db4c9bbeadd56c;de;;;4.2.;;;Eine Studie zu den Determinanten und den Auswirkungen von Flexibilität auf die Leistungszufriedenheit der Arbeitnehmer Ziel dieser Studie war es, den Einfluss individueller Merkmale und organisatorischer Gerechtigkeit auf die Mitarbeiterzufriedenheit zu untersuchen und die Rolle flexibler Leistungspläne zu untersuchen. Befragt wurden Mitarbeiter von drei kanadischen Organisationen. Insgesamt wurden 285 brauchbare Fragebögen zurückgeschickt, was einer Rücklaufquote von 42% entspricht. Die Variablen im Modell machten mehr als 40 % der Varianz der Leistungszufriedenheit aus. Die Ergebnisse zeigten, dass Verteilungs- und Verfahrensgerechtigkeit zwar nützlich waren, um die Leistungszufriedenheit vorherzusagen, das Konzept der Prozessgerechtigkeit jedoch den größten Einfluss auf die Zufriedenheit hatte. Unter den Variablen hatte die Kommunikation den größten Einfluss. Der Effekt der Flexibilität war zwar signifikant, aber mehrdeutig. Soziodemografische Faktoren hatten einen sehr begrenzten Einfluss, wenn Wahrnehmungsvariablen in die Gleichung aufgenommen wurden. Das Papier legt auch die Grenzen der Studie und ihre praktischen Implikationen dar und macht einige Vorschläge für zukünftige Forschungen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1016962419419 31ea3942883961ed912c1a9aedd4734a;de;;;4.2.;;;Studie zum kulturellen Einfluss auf den Sportlehrplan Cultural Studies on Curriculum, ein wichtiges Fach im modernen Studiengang, ist eine Denk- und Forschungsmethode im Curriculumsstudium aus Sicht der Kultur. Die kulturellen Konnotationen des Sportlehrplans können durch die Interpretation des Konzepts und der kulturellen Identität des Sportlehrplans verstanden werden. Das Papier stellt fest, dass die Kulturforschung zum Sportkurs den Bedürfnissen der Curriculumreform und -konstruktion entspricht und befasst sich mit ihren Rahmenbedingungen und Inhalten auf der Makro-, Meso- und Mikroebene.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29084-8_63 23efa0981922cd454cc8f688a1f59cc8;de;;;5.2.;;;Ein allgemeiner Bayesian Network-Ansatz zur Analyse der Werte von Online-Spielartikeln und ihres Einflusses auf die Kundenzufriedenheit und Kaufabsichten Viele Benutzer von Online-Spielen kaufen Spielgegenstände, mit denen sie kostenlose Spiele spielen können. Aufgrund des Mangels an Forschung, in der es keinen spezifizierten Rahmen für die Kategorisierung der Werte von Spielgegenständen gibt, schlägt diese Studie vier Arten von Online-Spielgegenstandswerten vor, basierend auf einer Analyse der Literatur zu Online-Spieleigenschaften. Es schlägt dann vor, zu untersuchen, wie Benutzer von Online-Spielen Zufriedenheit und Kaufabsicht anhand der vorgeschlagenen vier Arten von Online-Spiel-Item-Werten wahrnehmen. Obwohl Regressionsanalysen häufig verwendet wurden, um diese Art von Forschungsfragen zu beantworten, schlagen wir einen neuen Ansatz vor, ein General Bayesian Network (GBN), das auf verständliche Weise durchgeführt werden kann, ohne die Vorhersagegenauigkeit zu beeinträchtigen. Herkömmliche Techniken wie die Regressionsanalyse liefern keine signifikante Erklärung für diese Art von Problem, da sie auf eine lineare Struktur festgelegt sind und nur begrenzt erklären können, warum Kunden wahrscheinlich Spielgegenstände kaufen und ob sie mit ihren Käufen zufrieden sind. Im Gegensatz dazu bietet die vorgeschlagene GBN eine flexible zugrunde liegende Struktur auf der Grundlage von Fragebogenerhebungsdaten und bietet eine robuste Entscheidungsunterstützung für diese Art von Forschungsfrage, indem sie ihre kausalen Zusammenhänge identifiziert. Um die Validität von GBN bei der Lösung der Forschungsfrage in dieser Studie zu veranschaulichen, wurden 327 valide Fragebögen mit GBN mit Was-wäre-wenn- und zielorientierten Ansätzen analysiert. Die experimentellen Ergebnisse waren im Vergleich zu den Ergebnissen der Regressionsanalyse vielversprechend und aussagekräftig.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16699-0_7 80ff8c3597c1cc8f47c16e2a2bc1bc61;de;;;5.2.;;;Mining von High-Utility-Mustern in großen IoT-basierten Datenbanken Wenn man sich auf den allgemeinen Bereich des Data Mining konzentriert, kann das High-Utility-Itemset-Mining (HUIM) als Ausgleich zum häufigen Itemset-Mining (FIM) definiert werden. Es ist bekannt, mehr Faktoren kritisch zu betonen, was HUIM seinen intrinsischen Vorteil verleiht. Aufgrund der florierenden Entwicklung der IoT-Technik ist auch das Mining von Unsicherheitsmustern attraktiv. Potentielles High-Utility-Itemset-Mining (PHUIM) wird eingeführt, um wertvolle Muster in einer Unsicherheitsdatenbank aufzudecken. Obwohl die vorherigen Methoden alle sehr effektiv und mächtig sind, werden die potenziellen Itemsets mit hohem Nutzwert schnell abgebaut. Diese Algorithmen sind nicht speziell für eine Datenbank mit einer enormen Anzahl von Datensätzen ausgelegt. Bei den vorherigen Methoden würden Unsicherheitstransaktionsdatensätze letztendlich in den Speicher geladen. Normalerweise werden mehrere vordefinierte Operatoren angewendet, um den ursprünglichen Datensatz zu ändern, um die Suchzeit für das Scannen der Daten zu reduzieren. Es ist jedoch nicht praktikabel, die gleiche Weise in einem Big-Data-Datensatz anzuwenden. In dieser Arbeit wird davon ausgegangen, dass ein Datensatz zu groß ist, um direkt in den Speicher geladen und dupliziert oder geändert zu werden. Anschließend wird ein MapReduce-Framework vorgeschlagen, das verwendet werden kann, um solche Situationen zu bewältigen. Eines unserer Hauptziele ist der Versuch, die Häufigkeit von Datensatz-Scans zu reduzieren und gleichzeitig die Parallelisierung aller Prozesse zu maximieren. Durch eingehende experimentelle Ergebnisse wurde gezeigt, dass der vorgeschlagene Hadoop-Algorithmus stark ist, um alle potenziellen High-Utility-Itemsets in einem Big-Data-Datensatz zu minen, und zeigt eine hervorragende Leistung in einem Hadoop-Computing-Cluster.;-;-;-;https://link.springer.com/article/10.1007/s11036-020-01701-5 7283cfac8a376269d26f468877df36e5;de;;;4.2.;;;Graphbasierte halbüberwachte Funktionsauswahl für Social-Media-Daten Die immer beliebter werdenden sozialen Medien produzieren täglich große Mengen hochdimensionaler Daten. Die Featureauswahl ist bei Data Mining-Aufgaben von großer Bedeutung. Social-Media-Daten unterscheiden sich von herkömmlichen Attribut-Wert-Daten, da sie verknüpft sind. In diesem Beitrag wird eine graphenbasierte semi-überwachte Merkmalsauswahl für Social-Media-Daten vorgeschlagen, die zwei Graphen verwendet: den Graphen der nächsten Nachbarschaft und den Graphen der Verknüpfungsbeziehungen, um die zugrunde liegende lokale bzw. globale Struktur von Stichproben zu beschreiben. Und die Merkmale, die eine gute Fähigkeit zur lokalen Mannigfaltigkeitsstruktur und globalen Verknüpfungsbeziehungen haben, bleiben erhalten. Die experimentellen Ergebnisse zu realen Social-Media-Daten zeigen die Effizienz und Gültigkeit der vorgeschlagenen Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54924-3_11 5e44761ee47b677528bf10ee72021efc;de;;;4.2.;;;Computergestützte Entscheidungsunterstützungssysteme zur öffentlichen Argumentation: Beurteilung deliberativer Legitimität Neuere Vorschläge zur computergestützten Argumentation stützen sich auf dialektische Argumentationsmodelle. Wenn sie zur Unterstützung der öffentlichen Politikplanung verwendet werden, werfen solche Systeme auch Fragen der politischen Legitimität auf. Ausgehend von der deliberativen Demokratietheorie erarbeiten wir normative Kriterien deliberativer Legitimität und veranschaulichen deren Verwendung zur Beurteilung zweier Argumentationssysteme. Die vollständige Bewertung solcher Systeme erfordert Experimente, bei denen Systemdesigner auf Expertise aus den Sozialwissenschaften zurückgreifen und auf der Ebene der Teilnehmer in die Politikberatung selbst einsteigen.;-;-;-;https://link.springer.com/article/10.1007/s00146-004-0313-2 ef4e40f02fa86098aeded0cfb6499018;de;;;4.2.;;;Das Wesen virtueller Gemeinschaften Die beeindruckende Entwicklung elektronischer Kommunikationstechniken hat virtuelle Gemeinschaften hervorgebracht. Die Natur dieser computervermittelten Gemeinschaften war Gegenstand vieler neuer Debatten. Sind es gewöhnliche soziale Gruppen in elektronischer Form oder unterscheiden sie sich grundlegend von traditionellen Gemeinschaften? Das Verständnis virtueller Gemeinschaften scheint eine Voraussetzung für den Entwurf besserer Kommunikationssysteme zu sein. Um diese Debatte zu klären, greifen wir auf die klassische soziologische Unterscheidung zwischen kleinen traditionellen Gemeinschaften (basierend auf persönlichen Beziehungen) und modernen sozialen Gruppen (verbunden durch lockerere, unpersönlichere Verbindungen) zurück. Wir werden argumentieren, dass die Diskussion über virtuelle Gemeinschaften oft durch eine vereinfachende Angleichung an traditionelle Gemeinschaften beeinträchtigt wird, obwohl sie tatsächlich ganz anders und viel unpersönlicher sein können. Virtuelle Gemeinschaften sind oft an gemeinsame Objekte oder Ziele gebunden und nicht an persönliche Beziehungen. In dieser Hinsicht sind virtuelle Gemeinschaften nur ein weiteres Beispiel für eine langfristige Entwicklung der modernen Gesellschaft hin zu abstrakteren sozialen Beziehungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84628-927-9_5 efacfbe4156e4f6922eea400f66a5dfd;de;;;5.2.;;;Differentielle Evolution mit neuartiger lokaler Suchoperation für groß angelegte Optimierungsprobleme Viele Optimierungsprobleme der realen Welt haben eine große Anzahl von Entscheidungsvariablen. Um die Fähigkeit von DE für diese Probleme zu verbessern, wurde eine neuartige lokale Suchoperation vorgeschlagen. Diese Operation kombiniert orthogonales Crossover und eine oppositionsbasierte Lernstrategie. Während der Entwicklung von DE wurde eine Person zufällig ausgewählt, um sich dieser Operation zu unterziehen. Dadurch benötigt es nicht viel Rechenzeit, kann aber die Suchfähigkeit von DE verbessern. Die Leistungsfähigkeit der vorgeschlagenen Methode wird mit zwei anderen konkurrierenden Algorithmen mit Benchmarkproblemen verglichen. Die verglichenen Ergebnisse zeigen die Effektivität und Effizienz der neuen Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-20466-6_34 215746873d8f543e1f7635f9f8436311;de;;;5.2.;;;Eine direkte Methode zur Schätzung der planaren projektiven Transformation Die Schätzung der planaren projektiven Transformation (Homographie) aus einem Paar von Bildern ist ein klassisches Problem in der Computer Vision. In diesem Beitrag schlagen wir einen neuartigen Algorithmus zur direkten Registrierung von zwei Punktmengen in;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19309-5_21 f3b86183fb8f1cac87a9ca6d26c17d7c;de;;;5.2.;;;Hybride Partikelschwarmoptimierung mit chaotischer Suche zur Lösung ganzzahliger und gemischt ganzzahliger Programmierprobleme Es wird ein neuartiges chaotisches Suchverfahren vorgeschlagen, und ein hybrider Algorithmus, der die Partikelschwarmoptimierung (PSO) mit dieser neuen Methode namens CLSPSO kombiniert, wird vorgeschlagen, um 14 ganzzahlige und gemischt ganzzahlige Programmierprobleme zu lösen. Die Leistungen von CLSPSO werden mit denen anderer fünf hybrider Algorithmen verglichen, die PSO mit chaotischen Suchmethoden kombinieren. Experimentelle Ergebnisse zeigen, dass CLSPSO in Bezug auf Robustheit und endgültige Konvergenzgeschwindigkeit bei der Lösung vieler dieser Probleme besser ist als andere fünf Algorithmen. Darüber hinaus zeigt CLSPSO eine gute Leistung bei der Lösung zweier hochdimensionaler Probleme und findet bessere Lösungen als die bekannten. Ein Leistungsindex (PI) wird eingeführt, um die obigen sechs Algorithmen gerecht zu vergleichen, und die erhaltenen Werte von (PI) in drei Fällen zeigen, dass CLSPSO allen anderen fünf Algorithmen unter den gleichen Bedingungen überlegen ist.;-;-;-;https://link.springer.com/article/10.1007/s11771-014-2235-6 f74af91fd288d33c8275b23011d8672a;de;;;5.2.;;;Modellierung in der Politikanalyse Politische Entscheidungsfindung ist ein Prozess, der der Wahl zwischen Alternativen unterliegt, die im Hinblick auf ihre potenziellen Auswirkungen und ihre intrinsische Durchführbarkeit bewertet werden. Die Rolle des Analysten besteht darin, diese Auswirkungen zu prognostizieren, indem er kausale Beziehungen formuliert, die Maßnahmen mit Auswirkungen verbinden. Die Modellierungsstufe in der Politikanalyse erfüllt die Funktion, „die Wahl der Politik als Ursache mit ihren Auswirkungen“ in Beziehung zu setzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4104-2_2 44bd1f9163ec448216d0e86686bfab0c;de;;;5.2.;;;Rückzugshorizontsteuerung für Multi-UAVs enge Formationssteuerung basierend auf differentieller Entwicklung Der enge Formationsflug ist eines der kompliziertesten Probleme bei der koordinierten Steuerung von Multi-Uninhabited Aerial Vehicles (UAVs). Basierend auf dem nichtlinearen Modell der engen Formation von Multi-UAVs wird eine neuartige Steuerungsstrategie vorgeschlagen, bei der eine hybride Rückzugshorizontsteuerung (RHC) und ein differentieller Evolutionsalgorithmus verwendet werden. Das Problem der engen Formation von Multi-UAVs wird in mehrere Online-Optimierungsprobleme an einer Reihe von Rückzugshorizonten umgewandelt, während der differentielle Evolutionsalgorithmus verwendet wird, um Steuersequenzen an jedem Rückzugshorizont zu optimieren. Dann wird basierend auf dem Markov-Kettenmodell die Konvergenz der differentiellen Evolution bewiesen. Der Arbeitsprozess des RHC-Reglers wird detailliert vorgestellt und auch die Stabilität des engen Formationsreglers wird analysiert. Schließlich werden drei Simulationsexperimente durchgeführt, und die Simulationsergebnisse zeigen die Durchführbarkeit und Gültigkeit unseres vorgeschlagenen Regelalgorithmus.;-;-;-;https://link.springer.com/article/10.1007/s11432-010-0036-6 b58158d9e9b38a068c61946cc3513571;de;;;4.2.;;;Verwendung von VPI zur Messung armutsgefährdeter Dörfer in China Die Aufdeckung der umfassenden Armutsniveaus und räumlichen Vielfalt von Armutsdörfern ist eine Voraussetzung für die Armutsbekämpfungspolitik „Gesamte Dorfförderung“ Chinas. Als Reaktion darauf bauen wir ein mehrdimensionales Armutsbewertungsmodell aus der Perspektive der räumlichen Armut auf, indem wir den VPI (Dorf-Level-Armutsindex) anwenden, um mehrskalige und mehrdimensionale Situationen und Merkmale von verarmten Dörfern im ländlichen China zu untersuchen, und dann räumliche Geostatistiken anwenden, um ihre mehrdimensionale und mehrskalige räumliche Punktmusterverteilung. Darüber hinaus führen wir auch das LSE-Modell ein, um ihre Armutstypen zu untersuchen. Unsere Tests zeigen, dass erstens die Validität und Verlässlichkeit des VPI-Modells in Bezug auf die Zielquote auf Dorfebene und die Deckungsquote begründet werden können. Dann folgt das Armutsniveau der von Armut betroffenen Dörfer einer Normal-Rechts-Verteilung, die eine „olivgrüne“ Struktur mit einer Form von „groß in der Mitte und klein an zwei Enden“ darstellt, wobei Armutsniveaus und Armutsgrößen verschiedener Landkreise offensichtlich von Osten aus zunehmen nach Westen, und verschiedene Klassifikationen von Landkreisen, die auch unterschiedliche Armutsniveaus repräsentieren. Andererseits gibt es drei Arten von Armutsclustern auf mehreren Ebenen zwischen verschiedenen angrenzenden mittellosen Gebieten, nämlich Clustering-Zufälligkeit-Dispersion, Zufälligkeit-Clustering und Verteilung/Zufallsverteilung. Dörfer mit Armutstyp der Drei-Faktoren-Dominanz machen über 50 % der gesamten Dörfer aus, ihre Armut wird hauptsächlich durch eine raue geografische Umgebung, benachteiligte Produktions- und Lebensbedingungen und schlechte Arbeitskräfte verursacht. Diese Forschung hilft, die Beziehungen zwischen verschiedenen Dörfern aus der multiskaligen und multidimensionalen Sicht gut zu kennen, um eine Entscheidungsgrundlage für eine optimale Entwicklung und Neuordnung der verarmten Dörfer im ländlichen China zu schaffen, die von entscheidender praktischer Bedeutung ist, um eine Gesamtanordnung von auf die ländliche Entwicklung ausgerichtete Armutsbeseitigung und eine neue Runde der gezielten Armutsbeseitigung und den neuen Landschaftsbau anzukurbeln.;-;-;-;https://link.springer.com/article/10.1007/s11205-016-1391-5 3f7b2baa09c7b56a57c64c3fb88e1a56;de;;;4.2.;;;Die NutriAct-Familienstudie: eine webbasierte prospektive Studie zu den epidemiologischen, psychologischen und soziologischen Grundlagen der Lebensmittelwahl Die meisten Studien zur Lebensmittelwahl haben sich auf die individuelle Ebene konzentriert, aber auch familiäre Aspekte können eine wichtige Rolle spielen. Dieser Beitrag berichtet von einer neuartigen Studie, die sich auf die familiären Aspekte der Bildung der Nahrungswahl bei Männern und Frauen im Alter von 50–70 Jahren durch die Rekrutierung von Ehepartnern und Geschwistern konzentriert (NutriAct Family Study, NFS).;-;-;-;https://link.springer.com/article/10.1186/s12889-018-5814-x 5cd5e7ab6df3baec58df2505adaefdc4;de;;;4.2.;;;CyberGIS-fähiges Urban Sensing durch freiwillige Bürgerbeteiligung mit mobilen Geräten Umweltverschmutzung hat erhebliche Auswirkungen auf die Gesundheit und das Wohlbefinden der Bürger in städtischen Umgebungen. Während eine Vielzahl von Sensoren in die heutige städtische Umgebung integriert wurde, um verschiedene Verschmutzungsfaktoren wie Luftqualität und Lärm zu messen, ist die Einrichtung von Sensornetzwerken oder die Beauftragung von Vermessern zur Erfassung städtischer Verschmutzungsdatensätze nach wie vor kostspielig und kann rechtliche Konsequenzen nach sich ziehen. Ein alternativer Ansatz basiert auf der Vorstellung von freiwilligen Bürgern als Sensoren zum Sammeln, Aktualisieren und Verbreiten von städtischen Umweltmessungen mit mobilen Geräten. Ein Big-Data-Szenario entsteht, da groß angelegte Crowdsourcing-Aktivitäten dazu neigen, große und unstrukturierte Datensätze mit Aktualisierungen nahezu in Echtzeit zu generieren. Herkömmliche Recheninfrastrukturen sind für den Umgang mit solchen Big Data unzureichend, beispielsweise die Entwicklung eines „one-fits-all“-Datenbankschemas für verschiedene Messungen oder die dynamische Erstellung von Schadstoffkarten basierend auf visuellen Analyseworkflows.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-40902-3_5 8459f89657e37ef82b42a40447f19ec4;de;;;5.2.;;;Ein Überblick zum globalen Optimierungsproblem: Allgemeine Theorie und Berechnungsansätze Für die numerische Lösung des globalen Optimierungsproblems wurden mehrere verschiedene Ansätze vorgeschlagen: Raumabdeckungsmethoden, Trajektorienmethoden, Zufallsstichproben, Zufallssuche und Methoden, die auf einem stochastischen Modell der Zielfunktion basieren, werden in diesem Beitrag betrachtet und ihre relative rechnerische Effektivität ist besprochen. Eine genauere Analyse wird von Zufallsstichprobenverfahren zusammen mit einer Clusteranalyse von Stichprobendaten und von Bayesschen nichtparametrischen Stoppregeln durchgeführt.;-;-;-;https://link.springer.com/article/10.1007/BF01876141 799ab39293cf1ea4bebc63f85a74e13d;de;;;5.2.;;;Suche nach Paritäts- und Zeitumkehrungsverletzungen bei gehindertem Gamma-Zerfall Wir diskutieren verschiedene Möglichkeiten, die Empfindlichkeit von Paritäts- und Zeitumkehrasymmetriemessungen in gammazerfallenden Kernen zu verbessern. Wir vergleichen den bekanntesten Fall, bei dem die Parität verletzt wird;-;-;-;https://link.springer.com/article/10.1007/BF02398976 b44b84a3a0d4ef48426891e703b007a2;de;;;4.2.;;;Testen eines Rational-Choice-Modells von Flugzeugentführungen Mithilfe von Daten, die Informationen der Federal Aviation Administration, der RAND Corporation und einer neu entwickelten Datenbank über globale terroristische Aktivitäten kombinieren, sind wir in der Lage, Trends bei 1.101 versuchten Flugzeugentführungen zu untersuchen, die zwischen 1931 und 2003 weltweit stattgefunden haben Informationen zu 828 Entführungen, die vor 1986 stattfanden. Unter Verwendung eines theoretischen Rational-Choice-Rahmens verwenden wir ökonometrische Zeitreihenmethoden, um die Auswirkungen mehrerer wichtiger Maßnahmen zur Entführung von Flugzeugentführungen auf die Wahrscheinlichkeit unterschiedlich motivierter Entführungsereignisse abzuschätzen und die Prädiktoren für erfolgreiche Entführungen zu modellieren. Einige der untersuchten Interventionen verwenden sicherheitsbasierte Strategien der Target Hardening, um die wahrgenommene Erfolgswahrscheinlichkeit zu reduzieren, während andere sich darauf konzentrieren, die wahrgenommenen Kosten der Entführung durch eine Erhöhung der Strafe zu erhöhen. Wir bewerten auch, welche spezifischen Interventionsstrategien am effektivsten waren, um Entführer abzuschrecken, deren Hauptzweck Terrorismus war. Wir fanden Unterstützung für die Schlussfolgerung, dass es weniger wahrscheinlich ist, dass neue Entführungsversuche unternommen werden, wenn die Sicherheit der Festnahme durch Metalldetektoren und Strafverfolgung an den Passagierkontrollpunkten erhöht wird. Wir fanden auch heraus, dass weniger Entführer versuchten, Flugzeuge nach Kuba umzuleiten, nachdem dieses Land die Entführung von Flügen zu einem Verbrechen gemacht hatte. Unsere Ergebnisse stützen die Ansteckungsmeinung, dass die Entführungsraten nach einer Reihe von Entführungen, die zeitlich eng geclustert sind, signifikant ansteigen. Schließlich stellten wir fest, dass politische Interventionen die Wahrscheinlichkeit von nicht-terroristischen Entführungen nur signifikant verringern.;-;-;-;https://link.springer.com/chapter/10.1007/11427995_28 c9a265a08549c1cfecbf1acdeff5aae8;de;;;4.2.;;;Für die Fragenden Sexologen, Soziologen, Filmemacher, Romanautoren stellen die Prostituierte endlos in Frage. Die meisten bewahren die gebührende Distanz, die meisten bleiben „distanziert“ in ihrer Befragung. Aber können wir jemals eine Prostituierte „kennen“? Viele behaupten dies zu tun, viele erheben Anspruch auf „die Wahrheit“. Sogar Prostituierte selbst sind in Interviews, in „Geständnissen“, in ihren Autobiografien in Fiktionsschichten verstrickt. Der Versuch hier, der sich auf die Werke einer Reihe von Theoretikern, Akademikern, Prostituierten-„Stimmen“, populären Schriftstellern, großen Autoren und Trash-Literatur stützt, besteht darin, unsere Fragen zu hinterfragen.;-;-;-;https://link.springer.com/article/10.1007/s12119-006-1024-2 1eb36667df698dd7332a17b30b16a43c;de;;;4.2.;;;Vergleich von PPGIS- und LBSN-Daten zur Messung der emotionalen Wahrnehmung der Stadt Die Analyse von Emotionen hat in der Stadtforschung als Mittel zum Verständnis der subjektiven Lebensqualität Anerkennung gefunden. Die Verfügbarkeit spontaner nutzergenerierter Online-Stadtdaten, die von Nutzern in standortbasierten sozialen Netzwerken generiert werden, erweitert die Möglichkeiten für eine solche Analyse, wie in einer Reihe von Studien beschrieben. Die LBSN-Daten werden jedoch nicht bewusst von den Nutzern geteilt und sind nicht als Ausdruck von Emotionen gedacht, was ihre Repräsentativität und Validität in Frage stellt. Eine andere Datenquelle – Geoinformationssysteme zur Beteiligung der Öffentlichkeit – hilft, diese Einschränkungen zu überwinden, kann jedoch auch eigene haben, wie etwa eine kleine und verzerrte Stichprobe. In diesem Beitrag werden die Ergebnisse der vergleichenden Analyse der Emotionsverteilung in St. Petersburg, Russland, visualisiert mit LBSN- und PPGIS-Daten, vorgestellt. Der Datensatz wird aus nutzergenerierten Kommentaren zu städtischen Veranstaltungsorten von Google Places und Daten der PPGIS-Plattform Imprecity (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37858-5_18 154222743bc3337e49d611233a5973a5;de;;;5.2.;;;Interspezifischer Wettbewerb und Gemeinschaftsstruktur Viele unserer bisherigen Diskussionen haben sich implizit oder explizit auf Erwägungen des ökologischen Wettbewerbs gestützt. Insbesondere im letzten Kapitel wurde eine solche Betrachtung immer deutlicher, als wir Vorstellungen von sowohl inter- als auch intraspezifischer Konkurrenz und ihrer Rolle bei der Gestaltung der Nische, Nischenposition, Nischenbreite und zulässigen Überlappungsgrad einführten. Viele dieser Prinzipien des ökologischen Wettbewerbs sind selbsterklärend – fast selbstverständlich –, weshalb man sie bisher anwenden konnte, ohne sie im Detail zu betrachten. Nachdem wir nun jedoch einiges über den Kontext festgestellt haben, müssen wir uns nun einer strengeren Untersuchung des Wettbewerbs als eines der wichtigsten biotischen Faktoren zuwenden, die Organismen zu einer Gemeinschaft verbinden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-6948-6_7 40a129964d7caa0bb60f22a60ce88b9b;de;;;5.2.;;;Reaktion von Sojabohnenzystennematoden ( Pflanzenparasitäre Nematoden sind in der Lage, Gradienten chemischer Signale wahrzunehmen und darauf zu reagieren. Wie der pH-Wert und anorganische Salze in der Rhizosphäre die Nematodenakkumulation und die Wirtssuche beeinflussen, ist kaum bekannt. Wir untersuchen die Reaktion verschiedener Gruppen pflanzenparasitärer Nematoden auf pH- und Salzkonzentrationsgradienten.;-;-;-;https://link.springer.com/article/10.1007/s11104-020-04677-z eec2ccb07176519a23ae746e50f5165c;de;;;4.2.;;;Risk Governance und die Integration unterschiedlicher Wissensarten Ausgehend von einer Definition von Risk Governance untersucht das Papier eine Reihe von Umweltrisiken und -krisen, bei denen sich traditionelle Risikobewertungen auf der Grundlage von Expertenberechnungen und Computermodellen als unzureichend erwiesen haben. Während die zunehmende Einbeziehung von Unsicherheit in wissenschaftliche Beschreibungen und Prognosen anerkannt wird, wird die Tendenz zu probabilistischen Begriffen kritisiert, da sie der Komplexität von Naturphänomenen und deren Wechselwirkungen mit menschlichen Handlungen nicht Rechnung trägt. Das Papier argumentiert, dass Beiträge aus verschiedenen Disziplinen und anderen Arten von Wissen integriert werden müssen, um die Katastrophenprävention und -reaktion zu verbessern. Dies impliziert eine Neudefinition der Rolle der Wissenschaft in der Gesellschaft sowie einen allgemeinen Einstellungswandel, der Descartes’ Vorstellung vom Menschen als „Herren und Besitzern der Natur“ neu aufgreift.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-9328-5_9 ab7cc00c66e23028b21ce38045b8759a;de;;;4.2.;;;Regionalentwicklung in Portugal Das Königreich Portugal entstand im 12. Jahrhundert im Norden, wobei der mittlere und südliche Teil von den Mauren erobert wurden (gegen Ende des 14. Jahrhunderts). Diese Periode wird als „Agrarzyklus“ bezeichnet: Die Menschen lebten im Wesentlichen vom Land, die Bevölkerung war klein und die Produktion ausreichend. Der Handel mit Afrika und Enrope gewann zu Beginn des 15. Jahrhunderts an Bedeutung, als der „Handelskreislauf“ begann. Dies fiel mit der Entdeckung der Seeroute nach Indien und der Entdeckung der Neuen Welt zusammen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-06588-2_6 0505318ee2726fe75093b35de54786a3;de;;;4.2.;;;Können digitale Spiele Senioren helfen, ihre Lebensqualität zu verbessern? Ziel dieser Entwicklungsforschungsstudie war es, ein Online-Lernspiel zu entwerfen, zu implementieren und zu evaluieren, um die Lebensqualität von Senioren ab 55 Jahren zu verbessern. Das Spiel Lebe gut, lebe gesund! (cvje2.savie.ca) ist ein Bingospiel, bei dem die Lerninhalte des Studiums in den Spielmechanismus integriert werden. Eine „Pre-Test/Post-Test“-Einzelgruppen-Methodik maß die Auswirkungen des Spiels auf drei Dimensionen der Lebensqualität: psychologisch, physisch und sozial. Insgesamt 56 Senioren spielten eine Woche lang im Multiplayer-Modus mit Echtzeit-Interaktion mit mindestens zwei anderen Teilnehmern. Die Ergebnisse zeigten, dass das Lernspiel die Wahrnehmung der meisten Variablen in Bezug auf die drei Dimensionen körperliche (Müdigkeit, Schlaf, Essgewohnheiten), soziales Wohlbefinden (Verbindungsaufbau, soziale Verbundenheit, Freundschaften) und psychisches Wohlbefinden durch die Senioren verbessert. sein (Depression, Schwierigkeiten bei der Ausübung von Aktivitäten, Stimmung und Gefühl, geliebt zu werden). Einige Variablen (Traurigkeit, Isolation, Nähe zur Familie und körperliche Gewohnheiten) führten zu einer schwachen Wahrnehmung positiver Vorteile für diese Senioren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-63184-4_10 d0ae112bc71c5740055b01996241f071;de;;;4.2.;;;Die Liga der Arabischen Staaten und Nordafrika Am 22. März 1945 wurde die Liga der Arabischen Staaten (die Arabische Liga) auf der Grundlage eines ägyptisch-asiatischen Bündnisses gegründet. Bis zu einem gewissen Grad war der Pakt eine Petition des Musters, das von der ägyptischen Hethiter-Allianz von I280 v. zwischen Ramses I. abgeschlossen! und Hattusilis III. Dieser Pakt sollte die Beziehungen zwischen Ägypten und sechs arabischen Ländern in Asien (Irak, Jordanien (damals Transjordanien), Libanon, Saudi-Arabien, Syrien und Jemen) stärken.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-2050-3_10 055de9b27be591c9284c881e09d6be2f;de;;;4.2.;;;Ein hierarchisches Modell des kollaborativen Ressourcenmanagements Dieser Beitrag beschreibt ein quantitatives Instrument zur Unterstützung der Entscheidungsfindung im Ressourcenmanagement. Das hierarchische Modell des Ressourcenmanagements basiert auf der Annahme, dass die Ziele der Öffentlichkeit für das Ressourcenmanagement von ihren Werten abhängig sind und darüber hinaus Einfluss nach unten fließen, während Informationen über den Zustand der Welt und die Folgen der Zielerfüllung fließen wieder auf. Der Zweck des hierarchischen Modells besteht darin, den öffentlichen Beteiligungsprozess zu erleichtern. Sie kann entweder mit einem Messansatz oder einem Präferenzansatz quantifiziert werden. Das Messmodell bietet ein Mittel zur Verknüpfung von Werten mit Verhaltensweisen und wurde aus dem traditionellen Werte-Einstellungen-Verhaltens-Framework abgeleitet, das in der Sozialpsychologie und in der Literatur zum Verbraucherverhalten weithin akzeptiert wird. Die Daten werden durch Erhebungen gesammelt und mit einer Vielzahl von mathematischen und statistischen Methoden analysiert, darunter Strukturgleichungen, Clustering und deskriptive Statistik. Das Präferenzmodell bietet ein Mittel, um Ziele für die Bewirtschaftung natürlicher Ressourcen mit Entscheidungen zwischen möglichen Umsetzungsstrategien zu verknüpfen. Der Ansatz basiert auf entscheidungstheoretischen Methoden, die weit verbreitet sind, um Alternativen mit mehreren Zielen zu bewerten. Dieser Ansatz folgt einem Weg von strategischen Zielen zu grundlegenden und bedeutet Zielen, zu Präferenzfunktionen und endet mit Präferenzordnung und Auswahl. Die Mess- und Präferenzpfade verlaufen parallel, weisen jedoch erhebliche Unterschiede auf, die im Text erläutert werden. Schließlich wird das hierarchische Modell in einen rekursiven Entscheidungsrahmen gestellt, der auf den Prinzipien des adaptiven Managements basiert. Die Bandbreite der von den beiden Ansätzen zur Quantifizierung des hierarchischen Modells bereitgestellten Informationen liefert Informationen, die für die Einbeziehung öffentlicher Präferenzen in die Entscheidungsfindung beim Ressourcenmanagement unerlässlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0303-2_11 3d7d25cfccb8c6830768b5bd79058820;de;;;4.2.;;;Bildungsdesign für MOOCs: Gestaltungsüberlegungen für technologiegestütztes Lernen im großen Maßstab Massive Open Online Courses (MOOCs) sind ein neuer Trend im Bereich des Online-Lernens. Ihr Potenzial für besondere Bildungsinnovationen wird hauptsächlich auf ihre Dimensionen „Massiveness“ und „Openness“ zurückgeführt. Diese beiden Merkmale führen zu neuen Überlegungen zur Gestaltung des Bildungssystems, um den anspruchsvollen Anforderungen von „Massivität“ und „Offenheit“ gerecht zu werden. Dies ist besonders dringlich, da allgemein anerkannte „Mängel“ von MOOCs, wie hohe Abbrecherquoten und geringes Engagement und Motivation der Teilnehmer, mit der pädagogischen Gestaltung von MOOCs in Verbindung gebracht werden. In diesem Zusammenhang werden in diesem Kapitel Fragen im Zusammenhang mit dem Bildungsdesign von MOOCs mit Schwerpunkt auf kulturellen und motivationalen Aspekten diskutiert, eine Analyse bestehender Bildungsdesignrahmen und/oder Richtlinien für MOOCs vorgestellt und schließlich ein ADDIE-basierter Rahmen für Bildungsdesignüberlegungen vorgeschlagen (EDCF) für MOOCs, die die Anforderungen „Massiveness“ und „Openness“ beinhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-52925-6_3 0d3af855c0cb8e9dc2c6999923434f8b;de;;;5.2.;;;Förderung des kritischen Denkens bei Kindern und Jugendlichen durch Mensch-Roboter-Interaktion mit sozial unterstützenden Robotern Der vorliegende Beitrag beschreibt ein vorläufiges Konzept, nach dem Roboter-Tutoren eingesetzt werden, um kritisches Denken bei Kindern und Jugendlichen zwischen 10 und 18 Jahren zu fördern. Obwohl kritisches Denken zu den wichtigsten Fähigkeiten des 21. Erzieher zu erreichen. Roboter-Tutoren motivieren jedoch die Benutzer und erleichtern aufgrund ihres personalisierten Verhaltens in Bezug auf die Bedürfnisse der Benutzer Wissensgewinne und Verhaltensänderungen. Dennoch wurden sie nicht zur Förderung des kritischen Denkens eingesetzt. Hier stellen wir einen Versuchsaufbau vor, bei dem ein Roboter-Tutor dem Lernenden Reize gibt und eine Diskussion führt, die zu einer evidenzbasierten Untersuchung führt. Der Roboter verwendet Fragen, Hinweise und Gesten durch die Diskussion, um kritisches Denken zu fördern. Es wird ein ganzheitlicher Ansatz für den Unterricht zum kritischen Denken verwendet, jedoch ohne explizite Fähigkeiten zum kritischen Denken zu vermitteln. Es werden Implikationen für die Bewertung und Messung kritischer Denkdispositionen diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20954-4_11 ece97b68e22295ead375ad143f2dfed7;de;;;5.2.;;;Nichtlinear-basierte Erkennung menschlicher Aktivitäten mit der Kernel-Technik Kernel-basierte Methoden haben bei Forschern auf dem Gebiet der Mustererkennung und des statistischen maschinellen Lernens große Aufmerksamkeit gefunden. Sie sind die am häufigsten nominierten Algorithmen, wenn ein nichtlineares Klassifikationsmodell erforderlich ist. Die Erkennung menschlicher Aktivitäten wurde auch von Forschern im Bereich Computer Vision hervorgehoben. Diese Fokussierung wurde durch das Interesse an vielen Anwendungen ausgelöst, wie zum Beispiel Aktivitätserkennung in Überwachungssystemen, Robotik, drahtlose Schnittstellen und interaktive Umgebungen. Es wurde beobachtet, dass in der Literatur die Verwendung der Kernel-Technik im Zusammenhang mit der Erkennung menschlicher Aktivität fehlt. In diesem Zusammenhang stellt dieser Beitrag ein nichtlineares eigenvektorbasiertes Erkennungsmodell vor, das auf der Idee der Kernel-Technik aufbaut. Der Beitrag gibt eine praktische Studie zur Anwendung der Kernel-Technik und zeigt, wie entscheidend die Wahl der richtigen Kernel-Funktion für den Erfolg der linearen Diskriminierung im Merkmalsraum ist. Die umfangreichen Implementierungsergebnisse in diesem Papier wurden durch die Anwendung des Modells auf zwei der am häufigsten verwendeten Benchmark-Datensätze im Bereich der menschlichen Aktivitätserkennung, KTH und Weizmann, erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30567-2_29 67abe92a5952535b5c5ad2964afc6bb7;de;;;5.2.;;;Ein empirisches kognitives Modell zur Entwicklung eines gemeinsamen Anforderungsverständnisses Es ist gut dokumentiert, dass Kunden und Softwareentwicklungsteams das Verständnis der Anforderungen während des gesamten Softwareentwicklungslebenszyklus austauschen und verfeinern müssen. Die Entwicklung dieses gemeinsamen Verständnisses ist jedoch komplex und fehleranfällig. Techniken und Werkzeuge zur Unterstützung der Entwicklung eines gemeinsamen Anforderungsverständnisses (SUR) sollten auf einer klaren Konzeptualisierung des Phänomens auf der Grundlage einschlägiger Theorien und Analysen der beobachteten Praxis basieren. Dazu trägt diese Studie mit einer detaillierten Konzeptualisierung der SUR-Entwicklung als Folge von Zustandsübergängen auf Gruppenebene bei, die auf der Spezialisierung des Konstrukts Team Mental Model basiert. Darüber hinaus schlägt es ein neuartiges kognitives Modell auf Gruppenebene als Hauptergebnis einer Analyse von Daten vor, die aus der Beobachtung eines agilen Softwareentwicklungsteams über einen Zeitraum von mehreren Monaten gesammelt wurden. Die erste Anwendung des Modells auf hoher Ebene zeigt, dass es vielversprechend ist, neue Erkenntnisse zur Unterstützung der SUR-Entwicklung zu liefern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-43610-3_13 53d39fe3c1231fd9d0dbf258d41fb1b4;de;;;4.2.;;;Nutzung von Facebook zur beruflichen Integration von drei ethnischen Gruppen in Israel Diese Studie schlägt ein konzeptionelles Modell für die Nutzung von Facebook für die berufliche Integration ethnischer Minderheiten vor, das auf Theorien des sozialen Kapitals und der schwachen sozialen Bindungen basiert. Die Forschung konzentriert sich insbesondere auf Unterschiede zwischen ethnischen Gruppen von Facebook-Nutzern in ihrer Bereitschaft, gruppenübergreifende Arbeitsbeziehungen aufzubauen, und ihre verschiedenen Einflussfaktoren. Ein spezieller Fragebogen wurde zusammengestellt und an 120 Probanden aus drei ethnischen Gruppen in Israel verteilt: Juden, Muslime-Araber und Drusen. Wir fanden heraus, dass der Anteil gruppenübergreifender beruflicher Beziehungen auf Facebook in allen drei Gruppen höher war als im Offline-Arbeitsbereich. Zwischen den drei untersuchten Gruppen gab es zahlreiche Unterschiede: Die Selbstauskunft war bei drusischen und jüdischen Nutzern signifikant höher als bei den arabischen Nutzern, während die Bereitschaft, gruppenübergreifende berufliche Verbindungen herzustellen, bei den beiden Minderheiten deutlich höher war als bei den jüdischen Nutzern. Diese Studie trägt zum Verständnis der Faktoren bei, die das Verhalten in sozialen Netzwerken verschiedener ethnischer Gruppen beeinflussen. Unsere Ergebnisse zeigen, dass Social-Networking-Sites die Schaffung von professionellen Beziehungen zwischen Gruppen katalysieren können. Die Nutzung sozialer Netzwerke als Plattform zur beruflichen Förderung könnte einen ersten Schritt im Prozess der beruflichen und kulturellen Integration von Minderheiten in die ethnisch heterogene Gesellschaft darstellen.;-;-;-;https://link.springer.com/article/10.1007/s00146-020-01131-7 917887b358eca72991960c8d7115bcf9;de;;;5.2.;;;Evolutionäres Rechnen In diesem Kapitel werden die wichtigsten Konzepte diskutiert, die für das Verständnis der zentralen Aspekte des Evolutionary Computing erforderlich sind, die später in diesem Buch verwendet werden, um schwierige Optimierungsprobleme zu lösen. Die Idee besteht darin, grundlegende Konzepte und Prinzipien der Optimierung einzuführen, um die mathematischen Werkzeuge zu entwickeln, die für den Entwurf und die Analyse der wichtigsten in diesem Buch behandelten evolutionären Algorithmen nützlich sind. Insbesondere die Begriffe Funktion und Suchraum werden aufgrund ihrer überragenden Bedeutung für die Lösung praktischer Probleme behandelt. Auf diese Weise werden die Hauptelemente eines evolutionären Algorithmus offengelegt, wie Fitnessfunktion, Problemdarstellung, genetische Operatoren, Zufall und Determinismus sowie Selektion und Ersetzung, um nur einige zu nennen. Genetische Programmierung wird eingeführt, da sie heute als eines der vielversprechendsten Paradigmen für maschinelles Lernen gilt, um Programme zu erstellen, die in der Lage sind, offene Fragen zu adaptieren und zu lösen. Schließlich werden mehrere ausgewählte Themen behandelt, um den Überblick über neuere stochastische Techniken, die von der Natur inspiriert sind und in der Literatur zum Thema Evolutionary Computing verbreitet sind, zu vervollständigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-43693-6_3 2a6bfa5094c15e37cd0153c2fd3af2dd;de;;;5.2.;;;Die Varianten des Bienen-Algorithmus (BA): eine Übersicht Der Bees Algorithm (BA) ist ein auf Bienenschwarmintelligenz basierender metaheuristischer Algorithmus, der vom natürlichen Verhalten von Honigbienen bei der Nahrungssuche inspiriert ist. BA kann in vier Teile unterteilt werden: Parameter-Tuning, Initialisierung, lokale Suche und globale Suche. Seit seiner Erfindung haben mehrere Studien versucht, die Leistung von BA durch Verbesserung einiger seiner Teile zu verbessern. Somit wurde mehr als eine Version des Algorithmus vorgeschlagen. Bei der Suche nach der Basisversion von BA in der Literatur können jedoch unklare und widersprüchliche Informationen gefunden werden. Durch Durchsicht der Literatur und Durchführung einiger Experimente mit einer Reihe von Standard-Benchmark-Funktionen werden drei Hauptimplementierungen des Algorithmus aufgedeckt, die Forscher kennen sollten, während sie an der Verbesserung des BA arbeiten. Diese Implementierungen sind Basic BA, Shrinking-based BA und Standard BA. Schrumpfungsbasierte BA verwendet ein Schrumpfungsverfahren, und Standard-BA verwendet zusätzlich zum Schrumpfungsverfahren einen Ansatz zur Aufgabe des Standorts. Somit werden verschiedene Implementierungen der Schrumpfungs- und Standortverlassensprozeduren untersucht und in BA integriert, um unterschiedliche BA-Implementierungen zu bilden. Dieses Papier schlägt einen Rahmen der wichtigsten Implementierungen von BA vor, einschließlich Basic BA und Standard BA, um ein klares Bild dieser Implementierungen und der Beziehungen zwischen ihnen zu vermitteln. Außerdem zeigen die Experimente keine signifikanten Unterschiede zwischen den meisten Schrumpfimplementierungen. Darüber hinaus werden in diesem Papier die Verbesserungen an BA überprüft, bei denen es sich um Verbesserungen bei der Parameterabstimmung, der Initialisierung der Population, der lokalen Suche und der globalen Suche handelt. Es ist zu hoffen, dass dieses Papier Forschenden, die an der Verbesserung der BA arbeiten, wertvolle Hinweise und Anleitungen liefert.;-;-;-;https://link.springer.com/article/10.1007/s10462-016-9476-8 180d3ef52ca2960f0aeb4009b84b5a44;de;;;5.2.;;;Auswirkungen wertbasierter Mechanismen bei Online-Werbeauktionen In den letzten Jahren wird der Auflistungsdienst häufig auf Suchseiten wie Yahoo!, Google und MSN verwendet. Im Service werden Werbegebühr und Anzeigenreihenfolge durch die Auktion festgelegt, die als Generalized Second Price Auction (GSP) bezeichnet wird, und die Auktion wird tatsächlich auf vielen Suchdienstseiten verwendet. Es gibt viele Forschungen zu GSP, um seine Eigenschaften und Vorteile zu analysieren und zu klären. Bei diesen Recherchen ist die Anzeige jedoch voneinander unabhängig. Außerdem wird der Wert der Werbung nicht berücksichtigt. In diesem Papier schlagen wir einen neuen Mechanismus vor, der auf APS basiert und in Werbeauktionen verwendet wird. Jede Anzeige hat einen gewissen Wert, da Benutzer auf die Anzeige klicken, wenn sie für sie nützlich sein könnte. Wir analysieren den Gewinn des Auktionators im Vergleich zwischen normalem APS, normalem VCG (Vickrey-Clarke-Groves-Mechanismus) und unserem vorgeschlagenen Mechanismus. Der Beitrag unserer Forschung umfasst die Klärung der Merkmale und Vorteile von Werbeauktionen und der Auswirkungen auf die Gewinnrate des Website-Betreibers.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21378-6_14 cba0ff4920db988bee32f6617303962d;de;;;4.2.;;;Mega-Regionals: Herausforderungen, Chancen und Forschungsfragen Während das multilaterale GATT/WTO-System seit geraumer Zeit von „bilateralen“, „regionalen“, „freien“ oder „präferenziellen“ Handelsabkommen begleitet wird, ist die jüngste Zunahme an Zahl und Bedeutung solcher Abkommen, darunter auch „megaregionale“ Vereinbarungen können als kategorische Änderung angesehen werden. Diese neuen Abkommen enthalten nicht nur recht umfangreiche „tiefe“ Regeln, die weit über die WTO-Disziplinen hinausgehen und eine Reihe von Themen ansprechen, die in der WTO bisher umstritten waren. Dennoch stellen diese neuen Abkommen formal keine Abweichung vom WTO-System dar, sondern können als Set-Top-Abkommen angesehen werden. Die resultierende „hybride“ Struktur muss sorgfältig behandelt werden, um Doppelspurigkeiten und Konflikte zu vermeiden. Megaregionale und andere Handelsabkommen der letzten Zeit werfen eine Reihe von Fragen auf, die über die bestehenden traditionellen Regeln hinausgehen, insbesondere Art. XXIV-GATT und V-GATS. Kritische Fragen stellen sich weniger im Hinblick auf die „Exklusivität“ von Bestimmungen, sondern im Gegenteil, weil sie versuchen, Regeln und Standards für die Weltwirtschaft insgesamt zu schreiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-56663-4_1 b4dfab92ce89d66d219e370849d1545a;de;;;5.2.;;;Teilweiser Match-Abruf in zweiköpfigen Disks Die Leistung einer Platte mit zwei Köpfen pro Oberfläche, die durch eine feste Anzahl von Zylindern getrennt sind, wird untersucht. Wir leiten die Wahrscheinlichkeitsverteilung von Armstopps, die erwartete Anzahl von Stopps sowie die erwartete Anzahl von Zylinderclustern ab, d. h. die Anzahl von Sätzen aufeinanderfolgender zusammengesetzter Zylinder. Im Vergleich zu einer Single-Headed Disk zeigt sich, dass der Performance-Gewinn im Durchschnitt 50 % erreichen kann.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0049156 053ac1cd09f0eb621c42adb886c089a8;de;;;5.2.;;;Probleme der Religionsfreiheit: Mid-Century-Phasen Das Prinzip der Religionsfreiheit, möglicherweise tatsächlich und sicherlich in der öffentlichen Bejahung, wird heute in größeren Teilen der Welt anerkannt als je zuvor. In dieser Zeit ist auch die Perversion des Prinzips in einem massiven Programm zur Zerstörung der Religion beispiellos. Und ein Teil der Unterstützung für das Prinzip kommt nicht aus der Sorge um die Religion, sondern aus der Gleichgültigkeit gegenüber ihren Werten und ihren Ansprüchen. Freiheit;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-3532-3_20 433914e342d217d03cf265d89a6b10b8;de;;;5.2.;;;Untersuchung der Werbewirkung von grünen Signalen in Sponsored Search-Werbung mit Bayes'scher Parameterschätzung In den letzten Jahren beobachten wir eine bemerkenswerte Verschiebung der Mediaausgaben von Offline-Brandbuilding-Aktivitäten hin zu Online-Performance-Werbung sowie eine spürbare Zunahme von „Green Marketing“ und Nachhaltigkeitskommunikation von Unternehmen unterschiedlicher Branchen. In diesem Beitrag bringen wir diese beiden Forschungsströme zusammen. Wir entwickeln und führen einen nicht reaktiven A/B-Test durch, der es uns ermöglicht, den Einfluss von Nachhaltigkeitsinformationen auf die Kaufentscheidung des Kunden zu bewerten, indem er auf eine Anzeige auf einer Suchmaschinen-Ergebnisseite (SERP) klickt. Wir analysieren Kampagnenleistungsdaten eines europäischen E-Commerce-Händlers, wenden eine Bayessche Parameterschätzung an, um die beiden Gruppen zu vergleichen, und diskutieren die Auswirkungen der Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36011-4_3 415be667f46f0d8bbb7342a73a36359d;de;;;5.2.;;;Sektierertum Wenn sich Belfast von Bristol und Dublin unterschied, dann war es die Tradition der interkommunalen Gewalt, die bis heute andauert. Andere Städte hatten einen Ruf für Sektierertum, aber nirgendwo war es in einer Größenordnung, die mit Belfast mithalten konnte. Die sich verbessernden Lebensbedingungen innerhalb der Stadt trugen nicht dazu bei, die gewalttätigen sektenartigen Spaltungen zu verringern.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-14599-7_9 fbdc6c81cd7b94fdf2425142fe715e40;de;;;4.2.;;;Untersuchung von Faktoren, die den freiwilligen Beitrag zu elektronischen Wissensspeichern in organisatorischen Umgebungen beeinflussen Der Aufstieg von Wissen zu einer wichtigen Wettbewerbsressource hat die Art und Weise verändert, in der Unternehmen versuchen, ihr Wissen zu verwalten. Um ihr Wissen zu erhalten, haben Organisationen zahlreiche Strategien implementiert, von denen eine der Betrieb von Wissensspeichern ist. Von den Mitarbeitern wird erwartet, dass sie ihr berufsbezogenes Wissen in diese Repositories einbringen. Zweifellos führt diese Erwartung sowohl für die Arbeitgeberorganisation als auch für ihre Mitarbeiter zu Dilemmata. Die Organisationen brauchen die Mitarbeiter, die zu den Repositories beitragen, um das Wissen in den Organisationen zu halten, können ihre Mitarbeiter jedoch nicht dazu zwingen. Die Mitarbeiter müssen davon überzeugt werden, dass es sich gelohnt hat, zu diesen Repositorien beizutragen. Die Studie formuliert und testet ein theoretisches Modell, um die;-;-;-;https://link.springer.com/article/10.1057/kmrp.2012.9 6364d97df0682a6e45dc860c8802fca9;de;;;4.2.;;;Extrinsische und intrinsische Motivation mit 30: Ungelöste wissenschaftliche Fragen Der untergrabende Effekt der extrinsischen Belohnung auf die intrinsische Motivation bleibt unbewiesen. Die wichtigsten ungelösten Probleme sind Konstruktinvalidität (alle vier Definitionen sind unbewiesen und zwei unlogisch), Messunzuverlässigkeit (die Messung nach freier Wahl erfordert unzuverlässige, subjektive Urteile, um auf intrinsische Motivation zu schließen), unzureichende experimentelle Kontrollen (negativer Affekt und Neuheit, keine kognitive Bewertung) , kann „Unterminierungseffekte“ erklären) und verzerrte Metareviews (Studien mit möglichen Bodeneffekten ausgeschlossen, aber solche mit möglichen Deckeneffekten eingeschlossen). Der vielleicht größte Fehler der untergrabenden Theorie besteht jedoch darin, dass sie die Vielschichtigkeit der intrinsischen Motivation nicht angemessen anerkennt (Reiss, 2004a). Der Rat, den Einsatz von angewandter Verhaltensanalyse auf der Grundlage von „versteckten“ untergrabenden Effekten einzuschränken, ist ideologisch inspiriert und wird nicht durch glaubwürdige wissenschaftliche Beweise gestützt.;-;-;-;https://link.springer.com/article/10.1007/BF03392100 51f3a06ae21f8c0e533fc0b6516bd63f;de;;;4.2.;;;Empirische Forschung zur Bewertung von Stadtinnovationen basierend auf Daten einiger Städte in Liaoning Die Umsetzung einer innovationsorientierten Länderstrategie treibt die Städte an, innovative Städte zu bauen. In diesem Papier wurden die neuesten Daten von sechs Städten in der Provinz Liaoning als Stichprobe herangezogen, die Innovationsfähigkeit dieser Städte bewertet und dann die entsprechenden Politikempfehlungen formuliert. Nach dem Wissenschafts-, Vergleichbarkeits- und Verfügbarkeitsprinzip wurde das Indexsystem aufgebaut, das das Problem der unangemessenen Auswahl von Regeln überwindet. Das Entropiegewicht wurde verwendet, um den Unterschied zwischen objektiven Daten von Indikatoren widerzuspiegeln, die ein ungenaues Phänomen der subjektiven Gewichtung vermeiden. Aus der Kombination des Bewertungsergebnisses wurde schließlich eine Richtlinie vorgeschlagen, die für die Selbstverwaltung des bewerteten Objekts hilfreich und perfekt sein wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22456-0_3 eee1a1e460fc48926adbb8fe2977dc7b;de;;;4.2.;;;Gewinnen die Privilegierten immer? Wirtschaftliche Folgen der Scheidung nach Einkommens- und Geschlechtergruppen Den heterogenen wirtschaftlichen Folgen von Scheidungen wurde nur wenig Beachtung geschenkt. Die aktuelle Studie analysiert solche Konsequenzen aus einer Intersektionalitätsperspektive, wobei sich Heterogenität nicht nur in Geschlechtergruppen, sondern auch in den Standorten von Frauen und Männern auf der Einkommensverteilungsskala ausdrückt. Wir untersuchen auch, ob Wiederverheiratung und Sozialhilfe für diese Gruppen unterschiedliche Auswirkungen auf das Einkommen haben. Die Studie verwendet einen in Israel einzigartigen Datensatz, der Verwaltungsdaten der Steuerbehörden (Arbeitseinkommen und Renten) mit der Datenbank der National Insurance Institute (soziodemografische Informationen und Zulagen) zusammenführt. Mit zweistufigen („gemischten“) Panelmodellen in Kombination mit Quantilregressionen untersuchen wir das Nachscheidungseinkommen von Frauen und Männern nach Tertilen sowie im obersten Perzentil jeder Geschlechtergruppe. Die Ergebnisse zeigen, dass die am stärksten gefährdete Gruppe der Männer ein niedriges Einkommen ist, während die immunstärkste Gruppe der Männer ein sehr hohes Einkommen ist. Bei den Frauen sind die Klassenunterschiede jedoch gering, das Einkommen nach der Scheidung sinkt durch die Bank um mindestens ein Drittel. Während also die Auswirkung einer Scheidung auf das Einkommen der Männer von deren Einkommenshöhe abhängt, ist ihre Auswirkung auf das Einkommen der Frauen selbst im obersten Perzentil negativ. Eine Wiederverheiratung hat nur für Männer einen einkommensabhängigen Einfluss auf der Grundlage des Standorts auf der Einkommensverteilungsskala. Die Einkommenswirkung der Wohlfahrtspolitik ist geschlechtsspezifisch: Unabhängig von der Einkommensgruppe sind die Zulagen für Frauen negativ und für Männer positiv einkommensabhängig.;-;-;-;https://link.springer.com/article/10.1007/s11205-021-02733-4 eced802e93354b24090c45101cd1cce2;de;;;4.2.;;;Teilnahme am modernen Code-Review überprüfen Software-Code-Review ist ein etabliertes Verfahren zur Softwarequalität. In letzter Zeit wurde Modern Code Review (MCR) sowohl in Open Source- als auch in proprietären Projekten weit verbreitet. Unsere bisherige Arbeit zeigt, dass die Review-Teilnahme eine wichtige Rolle in der MCR-Praxis spielt, da die Höhe der Review-Teilnahme einen Zusammenhang mit der Softwarequalität hat. Allerdings ist wenig darüber bekannt, welche Faktoren die Begutachtungsbeteiligung am MCR-Prozess beeinflussen. Daher haben wir uns in dieser Studie zum Ziel gesetzt, die Eigenschaften von Patches zu untersuchen, die: (1) keine Gutachter anziehen, (2) nicht diskutiert werden und (3) langsames anfängliches Feedback erhalten. Durch eine Fallstudie mit 196.712 Rezensionen, die über die Open-Source-Projekte Android, Qt und OpenStack verteilt wurden, stellen wir fest, dass die Anzahl der Rezensionsteilnahmen in der Vergangenheit ein wichtiger Indikator für Patches ist, die unter einer schlechten Rezensionsteilnahme leiden. Darüber hinaus stellen wir fest, dass die Beschreibungslänge eines Patches einen Zusammenhang mit der Wahrscheinlichkeit einer schlechten Teilnahme oder Diskussion durch die Rezensenten hat, während der Zweck der Einführung neuer Funktionen die Wahrscheinlichkeit erhöhen kann, langsames anfängliches Feedback zu erhalten. Unsere Ergebnisse legen nahe, dass Patches mit diesen Merkmalen mehr Aufmerksamkeit gewidmet werden sollte, um die Teilnahme an Überprüfungen zu erhöhen, was wahrscheinlich zu einem reaktionsschnelleren Überprüfungsprozess führen wird.;-;-;-;https://link.springer.com/article/10.1007/s10664-016-9452-6 8f87d9ee1068fc6f9fe60a5f91b2a545;de;;;4.2.;;;Entwicklung eines effektiven Modells für die Smart City-Technologie: Umsetzung als Teil einer neuen Urban Governance Die Konvergenz von Informations- und Kommunikationstechnologien wurde zu einem bestimmenden Faktor für die zunehmende Bedeutung der Implementierung von Smart Cities-Technologien im Stadtmanagement. In diesem Artikel werden die Besonderheiten des Smart City-Konzepts, Probleme und neue Chancen für die Stadtverwaltung analysiert. Die Bedeutung der Smart-City-Technologie und die Komplexität ihrer Implementierung werden hervorgehoben. Der Netzwerkansatz und die Analyse der erfolgreichsten globalen Praktiken beim Einsatz von Informationstechnologien in der Urban Governance sind die Vorteile dieser Studie und legten die Grundlage, um die wünschenswerten Bedingungen für die Implementierung der Smart City-Technologie vorzuschlagen, um deren Effizienz bereitzustellen. Als Ergebnis können diese Bedingungen die Grundlage für eine vergleichende Analyse der Wirksamkeit der Umsetzung von Smart-City-Projekten in verschiedenen Ländern bilden und von lokalen Behörden als Strategie für die praktische Anwendung von Smart-City-Technologien verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-39296-3_3 3a063f1a40220fc5a82b00b639989698;de;;;4.2.;;;Vordenker in e-Governance, e-Infrastruktur und e-Business in Afrika Dieses Papier positioniert Thought Leadership in e-Governance, e-Infrastruktur und e-Business in Afrika im Kontext sozialer Innovation. Es diskutiert die verschiedenen Perspektiven auf Thought Leadership, die Komponenten von Thought Leadership, ihre Relevanz in Afrika und ihre Ziele. Darüber hinaus geht das Papier auf die Themen Vision, Werte und Kontext ein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08368-1_6 ccb80faf4f85fbc4edd2666be6890e2f;de;;;4.2.;;;Städtische Mikrosimulationen konsistent mit realen Daten ausführen Wir präsentieren Konzepte und Methoden, um dem enormen Datenbedarf urbaner Mikrosimulationen gerecht zu werden. Im ersten Teil des Artikels nehmen wir eine prozessorientierte Perspektive auf Umzug, Aktivitätsbeteiligung und Transport ein und verfeinern diese Perspektive dann im Kontext der Mikrosimulation. Der zweite Teil des Artikels befasst sich mit dem Parameter- und Zustandsschätzungsproblem. Zunächst werden die verschiedenen Zeitskalen eines urbanen Systems identifiziert und ein Rolling-Horizon-Framework für seine kontinuierliche Zustandsschätzung entwickelt. Zweitens wird das Parameterschätzungsproblem für ein integriertes urbanes Mikrosimulationsproblem untersucht. Der operativen Schwierigkeit, alle Parameter des Stadtmodells gemeinsam zu schätzen, wird mit zwei unterschiedlichen Ansätzen begegnet: der Entkopplung durch geschätzte Prozessinteraktionen und der Nutzung von Reaktionsflächen und Metamodellen zur mathematischen Annäherung hartnäckiger, simulationsbasierter Prozesse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29758-8_10 52e53a0fafcc30d972b5eaec6aec77e6;de;;;4.2.;;;Gemeinsamer Probabilistic Data Association-Algorithmus für eine umfassende Risikorückverfolgbarkeits-Identifizierungsmethode für öffentliche Notfälle Aufgrund der Kombination von Data Mining und Data Mining befindet sich China in der kritischen Phase der Reform und Öffnung, gesellschaftliche Widersprüche treten immer stärker in den Vordergrund und es gibt viele unerwartete öffentliche Ereignisse unter dem Einfluss verschiedener Faktoren. Im Zeitalter der Wir-Medien hat die Öffentlichkeit ein größeres Mitspracherecht, was eine wirksame Kontrolle der öffentlichen Krise erschwert. Basierend auf dem Mechanismus des Vorfalls in Hangzhou Zhongtai zeigt dieses Papier die Entstehungsfaktoren der öffentlichen Krise vor dem Hintergrund der Medien und die grundlegenden Gegenmaßnahmen zur Beseitigung der Krise auf, um Gegenmaßnahmen und Vorschläge für das öffentliche Krisenmanagement der aktuellen Regierung zu geben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-74814-2_139 5f8d38eec80c70b46cf9b053123170f3;de;;;4.2.;;;Reale Bildung in Nicht-Echtzeit: Der Einsatz elektronischer Nachrichtensysteme für den Unterricht Der Unterricht in unterschiedlichen Kommunikationsmedien findet mit funktionalen Unterschieden statt, die Konsequenzen für den Verlauf der Unterrichtsinteraktion haben. In diesem Beitrag untersuchen wir die unterrichtliche Interaktion zwischen Menschen, die ein computerbasiertes elektronisches Nachrichtensystem verwenden, und stellen sie der herkömmlichen persönlichen Diskussion in einer Klasse auf College-Niveau gegenüber. Die Interaktion über das Nicht-Echtzeit-Nachrichtensystem umfasste mehrere „Diskursfäden“, einen höheren Anteil von Schülern zu Lehrern und andere Abweichungen von den „Initiations-Antwort-Evaluierungs“-Sequenzen, die normalerweise bei persönlichen Interaktionen im Klassenzimmer zu finden sind . Basierend auf den Ergebnissen unserer Gegenüberstellung beschreiben wir Möglichkeiten, den Unterricht mit elektronischen Nachrichtensystemen zu organisieren, um neue Eigenschaften zu nutzen und Unzulänglichkeiten dieser neuen Unterrichtsmedien zu vermeiden.;-;-;-;https://link.springer.com/article/10.1007/BF00137292 9c241b62078ea9928a12e3541d347a1c;de;;;4.2.;;;Die Wirksamkeit der öffentlichen Förderpolitik für die europäische Industriefinanzierung als Beitrag zur nachhaltigen Entwicklung In den letzten Jahren hat die Debatte über die Rolle der öffentlichen Institutionen in den Bereichen Corporate Social Responsibility und nachhaltige Entwicklung an Dynamik gewonnen. Die Mehrdeutigkeit der letztgenannten Konzepte macht es jedoch schwierig, sie zu messen und die Auswirkungen der verschiedenen öffentlichen Initiativen auf sie abzuschätzen. In diesem Sinne hat die vorliegende Forschung das Ziel, eine auf Fuzzy-Logik basierende Methodik zu entwickeln, die auf die Bewertung der oben genannten Prozesse in Bezug auf die Beihilfepolitik für die europäische Industrie angewendet wird. In Bezug auf die Studienkontur scheinen die staatlichen Beihilfen der Europäischen Union keine wichtigen Änderungen mit sich gebracht zu haben, die zu sozialverträglichen Ergebnissen führen und daher die nachhaltige Entwicklung der europäischen verarbeitenden Industrie fördern.;-;-;-;https://link.springer.com/article/10.1007/s10551-009-0278-7 8e8741e1d5074f56dfc0ef2db99b20f6;de;;;5.2.;;;Inhaltsvergleichsfunktionen für die mobile kollaborative Websuche Aufgrund der jüngsten Popularisierung mobiler Geräte wie Mobiltelefone und PDAs besitzen die meisten Menschen in Japan ihre eigenen mobilen Geräte. In dieser Situation kann ein Benutzer das Web nicht nur alleine, sondern zusammen mit seinen Freunden und Familien durchsuchen, um Informationen zu finden, die den Anforderungen von allen entsprechen. Bei einer solchen kollaborativen Suche durchsuchen Benutzer zuerst das Web getrennt und sammeln interessante Inhalte und teilen dann die Inhalte mit anderen, indem sie einander einen Bildschirm zeigen. Da mobile Geräte jedoch in der Regel über einen kleinen Bildschirm verfügen, ist dieser Vorgang für die Benutzer mühsam. In diesem Papier schlagen wir zur Lösung dieses Problems eine Schnittstelle vor, die Benutzer bei der kollaborativen Suche unterstützt, um ihre gesammelten Inhalte zu teilen und zu vergleichen. Die vorgeschlagene Schnittstelle bietet Funktionen, um von allen Mitgliedern gesammelte Inhalte effektiv zu teilen und Bewertungen hinzuzufügen, um die Suche und den Vergleich von Inhalten zu erleichtern.;-;-;-;https://link.springer.com/article/10.1007/s12652-011-0060-4 02e2df02d975685166f8a2b182762db9;de;;;5.2.;;;Morphologische Erosionen und Öffnungen: Schnelle Algorithmen basierend auf Ankern In letzter Zeit wurden mehrere effiziente Algorithmen zur Berechnung von Erosionen und Öffnungen vorgeschlagen. Sie verbessern den Algorithmus von van Herk in Bezug auf die Anzahl der Vergleiche für große Strukturierungselemente. In diesem Beitrag stellen wir einen theoretischen Rahmen von;-;-;-;https://link.springer.com/article/10.1007/s10851-005-4886-2 9689c90631b256bce4aec0773f3302ae;de;;;4.2.;;;Proletarisierung des niederländischen Mittelstands: Fakt oder Fiktion? Ein Hauptthema in Bertings Kapitel in diesem Buch ist, dass das Aufkommen der „Mittelschichtsgesellschaft“, eine Erfüllung des Optimismus der Nachkriegszeit, von einer Verschlechterung der sozioökonomischen Situation großer Teile derselben Mittelschicht begleitet wird. Dies bedeutet, dass die Klassenposition der heutigen Mittelschicht relativ schlechter ist als die Klassenposition derselben Mittelschicht vor einigen Jahrzehnten. Man kann daher sagen, dass Bertings Analyse das Konzept der Proletarisierung des Mittelstands unterstützt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5655-8_6 93c64b40b63ebc66c0059827cf40b225;de;;;5.2.;;;SPREAD: Eine auf Statistiken basierende Ausgleichsbeschränkung Viele kombinatorische Probleme verlangen von ihren Lösungen, dass sie eine gewisse Ausgewogenheit der gegebenen Eigenschaften erreichen. In der Literatur zur Einschränkungsprogrammierung wurde wenig geschrieben, um dieses Problem speziell anzugehen, insbesondere auf der Modellierungsebene. Wir schlagen eine neue Einschränkung für den Ausgleich vor, die auf bekannten und gut verstandenen Konzepten in der Statistik basiert. Wir zeigen, wie damit unterschiedliche Situationen modelliert werden können, in denen Balance wichtig ist. Wir entwickeln auch effiziente Filteralgorithmen, um die Suche nach ausgewogenen Lösungen zu lenken.;-;-;-;https://link.springer.com/chapter/10.1007/11564751_35 002ae0a204da3151538b0e9b1f81d196;de;;;4.2.;;;Ineinandergreifende Direktionen, Unternehmensstrategien und Leistung in Hongkong: Auf dem Weg zu einer Forschungsagenda Um eine Lücke in der weitgehend auf den Westen ausgerichteten Literatur zu Interlocks zu schließen, präsentieren wir vorläufige Daten zum Muster der Interlocking-Direktionen unter den 200 größten Unternehmen in Hongkong vor 1997. Dann identifizieren wir vier verschiedene Gruppen von Firmen in Hongkong und schlagen Vorschläge vor, die auf der Perspektive der Ressourcenabhängigkeit zu den kritischen Beziehungen zwischen ihren ineinandergreifenden Direktionen, Firmenstrategien und Leistung basieren. Diese Vorschläge haben das Potenzial, den Baustein einer neuen Forschungsagenda zu bilden, die die Rolle ineinandergreifender Direktionen in einem immer wichtiger werdenden Teil der Welt beleuchtet.;-;-;-;https://link.springer.com/article/10.1023/A%3A1015432819596 7abb7c3440e422677bf6639686532e7d;de;;;5.2.;;;Aufbau lokaler Korrespondenzen zu kompakten Darstellungen anatomischer Strukturen Die computergestützte Diagnose basiert häufig auf dem Vergleich einer interessierenden Struktur mit früheren Modellen. Ein solcher Vergleich erfordert automatische Techniken zum Bestimmen früherer Modelle aus einem Satz von Beispielen und zum Herstellen lokaler Entsprechungen zwischen der Struktur und dem Modell. In dieser Arbeit schlagen wir eine Variationstechnik zur Lösung des Korrespondenzproblems vor. Das vorgeschlagene Verfahren integriert eine leistungsstarke Darstellung für Formen (implizite Funktionen), ein hochmodernes Kriterium für die globale Registrierung (gegenseitige Informationen) und eine effiziente Technik zur Wiederherstellung lokaler Korrespondenzen (Freiformdeformationen), die eine Eins-zu-Eins-Garantie garantiert Kartierung. Lokale Korrespondenzen können dann verwendet werden, um kompakte Darstellungen für eine interessierende Struktur gemäß einem Satz von Trainingsbeispielen zu erstellen. Die Registrierung und statistische Modellierung der Formen des systolischen linken Ventrikels in Ultraschallbildern demonstrieren das Potenzial der vorgeschlagenen Technik.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39903-2_113 ab17a63dd1d21262094fc589908f980f;de;;;5.2.;;;Strahlentherapie Am 8. November 1895 bemerkte Wilhelm Conrad Roentgen beim Experimentieren mit einer Hittorf-Crookes-Vakuumröhre die Fluoreszenz eines mit Barium-Platinocyanid bemalten Papiers und stellte fest, dass er es mit einer bisher nicht beschriebenen Strahlungsart zu tun hatte. In den nächsten Wochen experimentierte er mit dieser neuen Strahlung und stellte fest, dass Drähte im Strahlengang einen Schatten auf fluoreszierendes Papier projizierten, Holz, Papier und Gummi jedoch nicht. Er entdeckte, dass die Intensität der Fluoreszenz bzw. die Intensität der Strahlung umgekehrt proportional zum Quadrat des Abstands von der Röhre ist. Am 22. Dezember 1895 setzte er die Hand seiner Frau diesen Strahlen aus und erstellte mit Hilfe von Fotoplatten das erste klinische Röntgenbild. Röntgen nannte diese neue Art von Strahlung X-;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-1501-8_7 375144cdfb3879e7ddd8bc9773680d52;de;;;5.2.;;;Suizid und suizidales Verhalten Suizidales Verhalten ist ein großes Problem der öffentlichen Gesundheit. Selbstmord ist seit Jahrzehnten eine der häufigsten Todesursachen in der westlichen Welt. Dieser Artikel gibt einen Überblick über die Literatur und die neuesten Entwicklungen in der Forschung und im Wissen über Suizidverhalten und Tod durch Suizid.;-;-;-;https://link.springer.com/article/10.1007/BF03391677 6dea521e8ff3ec0e823af055ee6f63c6;de;;;5.2.;;;Anwendung der auf Fledermausalgorithmen basierenden zeitoptimalen Steuerung bei der Neukonfiguration von Formationen mit mehreren Robotern Dieses Papier schlägt eine auf Bat Algorithm (BA) basierende Control Parametrization and Time Discretization (BA-CPTD)-Methode vor, um das zeitoptimale Regelgesetz für die Formationsrekonfiguration von Multi-Roboter-Systemen zu erhalten. Bei diesem Verfahren wird das Problem der Suche nach einem zeitoptimalen Regelgesetz durch Regelparametrisierung und Zeitdiskretisierung in ein Parameteroptimierungsproblem umgewandelt, so dass mit BA das Regelgesetz abgeleitet werden kann. Der Ist-Zustand eines Multi-Roboter-Systems wird dann als Feedback-Information eingeführt, um Formationsfehler zu eliminieren. Dieses Verfahren kann Situationen bewältigen, in denen das genaue mathematische Modell eines Systems nicht verfügbar ist oder die Störung durch die Umgebung vorhanden ist. Feldexperimente haben die Wirksamkeit der vorgeschlagenen Methode bestätigt und gezeigt, dass die Formation schneller konvergiert als einige bestehende Methoden. Weitere Versuchsergebnisse veranschaulichen, dass das zeitoptimale Steuergesetz in der Lage ist, den Robotern eine reibungslose Steuereingabe zu liefern, so dass die gewünschte Formation mit geringem Formationsfehler schnell erreicht werden kann. Der Formationsfehler wird schließlich eliminiert, indem der Ist-Zustand als Feedback verwendet wird.;-;-;-;https://link.springer.com/article/10.1007/s42235-017-0010-8 97388687c4a4f79e2fbb656b4d5a999d;de;;;5.2.;;;Suche und Verfolgungsvermeidung in der mobilen Robotik Dieser Artikel gibt einen Überblick über aktuelle Ergebnisse zu Verfolgungs-Umgehung und autonomer Suche, die für Anwendungen in der mobilen Robotik relevant sind. Wir bieten eine Taxonomie von Suchproblemen, die die Unterschiede hervorhebt, die sich aus unterschiedlichen Annahmen über die Suchenden, Ziele und die Umgebung ergeben. Anschließend listen wir eine Reihe grundlegender Ergebnisse in den Bereichen Verfolgungs-Umgehung und probabilistische Suche auf und diskutieren Feldimplementierungen auf mobilen Robotersystemen. Darüber hinaus beleuchten wir aktuelle offene Probleme in diesem Bereich und erkunden Wege für die zukünftige Arbeit.;-;-;-;https://link.springer.com/article/10.1007/s10514-011-9241-4 b670793fed2a69c8c60236243392644b;de;;;5.2.;;;Wissenschaftliches Wissen repräsentieren: Die Mikropolitik einer Literaturrecherche Zu den Aufgaben, die alle Wissenschaftlerinnen und Wissenschaftler, ob für ein Aufbaustudium oder für die geförderte Forschung, zu übernehmen haben, gehört die Literaturrecherche. Solche Überprüfungen sind im Lichte der aktuellen Politik und des professionellen Interesses an „evidenzbasierter Praxis“ von besonderer Bedeutung (Muir Gray 2001). Gleichzeitig haben wir in den letzten Jahrzehnten eine Explosion von wissenschaftlichen und wissenschaftlichen Publikationen erlebt, was es zu einer zunehmend entmutigenden Aufgabe macht, eine Wissensbasis in unseren Interessengebieten aufzubauen und zu pflegen, damit wir uns auf die Zusammenfassungen anderer Personen verlassen. Was eine Literaturrecherche beinhaltet, kann jedoch sehr unterschiedlich sein und war Gegenstand beträchtlicher Diskussionen und ein Schwerpunkt für zunehmend „ausgefeilte“ Anleitungen und Anweisungen (siehe z. B. Hart 1998, 2001, Rowley und Farrow 2000). Und wie bei jeder wissenschaftlichen Arbeit kann sich der Gutachter in der Lage fühlen, unterschiedliche Kontroll- und Autoritätsebenen in Bezug auf die Auswahl, die Kritik und die Formgebung zu einem Argument zu übernehmen.;-;-;-;https://link.springer.com/chapter/10.1057/9780230287013_8 c9c35cdeb539fb1b16326634845e4fd1;de;;;5.2.;;;Überlagerte Zufallscodierung von Reiz-Antwort-Verbindungen Das Problem der ökonomischen Verknüpfung einer großen Zahl von Stimuli mit einer großen Zahl potenzieller Antworten wird auf der Grundlage ihrer Charakterisierung durch Deskriptoren (die Stimuli, für die die Antworten geeignet sind) als ein Problem des effizienten Auffindens von Dokumenten (den Antworten) angesehen. . Bei diesem Abrufproblem scheint ein Verfahren, bei dem die Codes für Deskriptoren zufällige Positionen in einem Codierfeld sind und bei dem Codes für alle anwendbaren Deskriptoren in demselben Feld überlagert werden, der einfachste Weg zu sein, ernsthafte Schwierigkeiten beim Abrufen zu vermeiden. Nach einer Überprüfung dieser Methode wird die Möglichkeit in Betracht gezogen, dass sehr einfache neuronale Mechanismen die wesentlichen Merkmale der Methode verkörpern könnten. Ziel der Diskussion ist es, zu erfahren, ob sehr einfache Strukturen und Verstärkungsmuster ausreichen, um eine nützliche Informationsverarbeitung im Gehirn durchzuführen, und einige denkbare Funktionen einfacher neuronaler Netze aufzuzeigen, die der Experimentator im Hinterkopf behalten könnte. Die Diskussion zeigt auch, wie die Struktur eines einfachen „Perceptron“-ähnlichen Netzwerks durch die Anforderungen einer Retrieval-Aufgabe suggeriert wird.;-;-;-;https://link.springer.com/article/10.1007/BF02477276 54bd4703ac7c98d8ca28d28ffd23ee82;de;;;4.2.;;;Einführung: Raum in geografischer Vielfalt neu komponieren In den acht Jahrzehnten zwischen 1550 und 1630 war der geographische Raum im frühneuzeitlichen Europa ebenso wie das Theater im elisabethanischen, jakobinischen und karolinischen England einer erheblichen sozialen, wirtschaftlichen und politischen Neuformulierung unterworfen. Infolgedessen änderte sich die Art und Weise, wie die Menschen über Räumlichkeit nachdachten, dramatisch. Durch die Neudefinition des Verständnisses der globalen Räumlichkeit von Orten erlebte die Geographie im späten 16. und frühen 17. Jahrhundert eine wahre Renaissance. Die Pluralisierung und Polarisierung der Stimmen in der aufstrebenden Wissenschaft und in der Theaterpraxis bedeutete das Aufkommen neuer Konzeptualisierungen von Raum und Ort, die den Menschen halfen, sich mit der sich verändernden Welt um sie herum zu beschäftigen. Diese Studie versucht, frühneuzeitliche Unterscheidungen im neu aufkommenden geographischen Denken in Bezug auf antike Vergangenheit und Drama zu verorten, und zeigt den Pluralismus des aufstrebenden Feldes und die Vielstimmigkeit, die es repräsentiert. Die Geographieforschung der Renaissance stützte sich auf die maßgeblichen Akzente der klassischen Vergangenheit, abhängig von ihren Methoden und dem Zugang zu den breiten universellen Ansichten der antiken Kosmographie. So legitimierten Geographen ihre Werke durch den Verweis auf historische Vorläufer. In Anbetracht der visuell basierten mentalen Struktur, die aus Geographie, Kartographie und Theater abgeleitet ist,;-;-;-;https://link.springer.com/chapter/10.1057/9781137469410_1 ab740dd02b64a36e8d7cb3b2d2c9eeb8;de;;;5.2.;;;So weit, ist es gut ark hat unsere Koffer in Pittsburgh zusammengestellt. Er war vorübergehender Chefclown, während Steve und Terry am Clown College unterrichteten, und einer seiner Jobs war es, die Alley zu arrangieren. Vor Monaten habe ich nicht erkannt, dass das Teilen von Crackern und Bier in seinem Wohnwagen eine Ouvertüre von Mark gewesen war, und ich habe nicht darauf reagiert. Aber hier in der Pipeline-Unterseite der Civic Arena bekam ich eine zweite Chance, Fragen zu stellen, zuzuhören. Mark sprach davon, während des Zweiten Weltkriegs bei der Handelsmarine zu sein und Paris zu besuchen, wo seine Suche nach Zirkussen vergeblich geblieben war, einer für die Saison geschlossen, der andere an diesem Tag ohne Show. In Irland fand er einen Zirkus, obwohl er nur einer Ahnung folgte. Es war wie meine impulsive Reise nach Venedig mit diesem Wochenendpass. Er brachte auch seinen schlammigen Vertragsstatus zur Sprache. Er hatte Kenneth in Boston gesagt, dass er mehr zu besprechen habe, aber er war sich jetzt nicht sicher, ob er um ein zweites Treffen gebeten hatte. Es war nicht einmal klar, dass er wusste, was er besprechen wollte. Ich vermutete, dass es seine Frustration über das Chaos in der Allee war oder vielleicht ein Bedürfnis nach Klarheit über seine Rolle. Er sollte keine anderen Gags haben, die seine Wirkung untergraben, so wie das Hinzufügen eines Hundes zu Clown Band den Donner seiner Tat stahl, die mit Fanny folgte. Aber was auch immer er zu Feld gesagt hatte, er machte sich Sorgen, dass er den Eindruck hinterlassen hatte, dass er in der nächsten Saison nicht zurückkehren wollte. Ich versicherte ihm, dass dies nicht wahrscheinlich sei, und ich machte mir Sorgen, dass es;-;-;-;https://link.springer.com/chapter/10.1057/9781137547439_13 8c3812cb474a0ed8f8b2fbe955c356c4;de;;;5.2.;;;Intelligente Rechensysteme mit Aktoren – Paralleler dynamischer Programmieralgorithmus des Polygon-Triangulationsproblems In diesem Beitrag werden parallele Implementierungen des Optimal Triangularization Problems unter Verwendung des Dynamic Programming Approach vorgestellt. Experimentelle Ergebnisse bezüglich der Beschleunigung als Funktion der Polygongröße werden angegeben. Die Implementierung der dynamischen Programmierung wird aus der Leistungsperspektive mit dem Brute-Force-Ansatz verglichen. Akteur-basierte parallele Implementierungen werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-1813-0_21 182a35d712f631d225ba9ea5152b8650;de;;;5.2.;;;Gay Liberation: „Raus aus den Schränken und auf die Straße!“ m Jahr 1965 hatte die homophile Bewegung einen langen, schmerzhaften Weg zurückgelegt. Eine neue Generation von Reformern, verkörpert durch den trotzigen, schamlosen Frank Kameny von der Washington, D.C. Mattachine Society, hatte die Führung übernommen. Der öffentliche Protest hatte begonnen, wenn auch nur in äußerst vorsichtiger und zurückhaltender Weise - Kameny selbst war dafür bekannt, weibliche Paare zu ermahnen, sich nicht länger an den Streikposten zu halten. In San Francisco wurde über die Society for Individual Rights (SIR) ein Brückenkopf in die Wahlpolitik gesetzt, und homosexuelle Aktivisten hatten sich mit liberalen protestantischen Kirchen verbündet, obwohl Homosexuelle nirgendwo sonst ein so geringes Maß an Legitimität hatten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4039-8014-4_12 1dcfaad9cdbfe68acb07d3ac788b41dd;de;;;5.2.;;;Return on Investment in Social Media Marketing: Literaturrecherche und Vorschläge für die zukünftige Forschung Social Media erleichtert und verbessert die Kommunikation zwischen Unternehmen und Kunden. Heutzutage wird zwar allgemein anerkannt, dass Unternehmen Social Media in ihre Marketingaktivitäten integrieren, aber es wird auch anerkannt, dass Unternehmen Schwierigkeiten haben, den Return on Investment (ROI) aus Social Media-Marketingbemühungen zu berechnen, da sich die meisten von ihnen nur auf bestimmte greifbare Ergebnisse konzentrieren, wie z die Auswirkungen auf Verkäufe und Käufe. Es wurden Versuche von Forschern unternommen, herauszufinden, wie die wichtigsten Auswirkungen von Social Media in Bezug auf das Marketing gemessen werden können, es fehlen jedoch empirische Daten und es fehlt ein umfassender Überblick darüber, was „ROI“ für ein Unternehmen bedeuten kann, das Renditen auf seinen Social Media anstrebt Annahme. Indem Unternehmen wissen, wie man den ROI von Social Media misst, können sie wertvolle Erkenntnisse gewinnen, die dazu beitragen können, Marketingstrategien bei der Bewerbung ihrer Produkte/Dienstleistungen zu verbessern. Das Ziel dieses Kapitels ist es daher, einen Überblick über den ROI im Social-Media-Marketing mit besonderem Fokus auf immaterielle Ergebnisse wie Markenbekanntheit, Kundenbindung/-beziehung und eWOM zu geben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-24374-6_1 92474e83c00f2e0c61db6c081caa2762;de;;;5.2.;;;Am Hawk's Well Dies ist das erste der Stücke, die Yeats schrieb, die das Produkt des Einflusses des japanischen Noh-Dramas auf seine eigene, über einen langen Zeitraum entwickelte Dramatik waren. Bereits 1899 stellte er sich ein Theater „für uns und unsere Freunde“ vor („The Theatre“,;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-01076-9_8 a64f8358734b52cb5e56f2b22a8466ce;de;;;5.2.;;;Optimierung der Hyperparameter für SVM durch Kombination von Evolutionsstrategien mit einer Grid-Suche In realen Anwendungen ist die Auswahl der geeigneten Hyperparameter für Support Vector Machines (SVM) ein schwieriger und wichtiger Schritt, der sich auf die Generalisierungsfähigkeit und Klassifikationsleistung des Klassifikators auswirkt. In diesem Papier analysieren wir die Verteilungscharakteristik von Hyperparametern, dass die optimalen Hyperparameterpunkte Nachbarschaften bilden. Um alle optimalen Punkte (auf den Gitterpunkten) in Nachbarschaften basierend auf dieser Eigenschaft zu finden, schlagen wir eine Hybridmethode vor, die Evolutionsstrategien (ES) mit einer Gittersuche (GS) kombiniert, um eine optimierte Auswahl dieser Hyperparameter durchzuführen. Wir verwenden erstens Evolutionsstrategien, um die optimalen Punkte von Hyperparametern zu finden und führen zweitens eine Gittersuche in der Nähe dieser Punkte durch. Unsere Hybridmethode nutzt die hohe Recheneffizienz von ES und die umfassenden Suchleistungen von GS. Experimente zeigen, dass unsere Hybridmethode erfolgreich die optimalen Hyperparameterpunkte in Nachbarschaften finden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-37256-1_87 65ebd2a90736dcda3282f5a8a670a91c;de;;;5.2.;;;Modellierung der Dissipationsrate in rotierenden turbulenten Strömungen Eine Vielzahl von Modifikationen der modellierten Transportgleichung der Dissipationsrate, die in den letzten zwei Jahrzehnten vorgeschlagen wurden, um Rotationsspannungen zu berücksichtigen, werden untersucht. Die Modelle werden zwei entscheidenden Testfällen unterzogen: dem Zerfall isotroper Turbulenzen in einem rotierenden Rahmen und einer homogenen Scherströmung in einem rotierenden Rahmen. Es wird gezeigt, dass diese Modifikationen keine wesentlich verbesserten Vorhersagen für diese beiden Testfälle liefern und in vielen Fällen zu unphysikalischem Verhalten führen. Ein alternativer Vorschlag, basierend auf der Verwendung der Tensor-Dissipationsrate, wird für die Entwicklung verbesserter Modelle gemacht.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-2792-2_8 0279e1c8bd361a99684152430a1adac3;de;;;4.2.;;;Gestation of State Translation Program eingebettet in Liang Qichaos „On Translation of Books“ ( Übersetzung wird in dieser Studie als Staatsakt betrachtet. Im chinesischen Kontext bietet diese Art der Übersetzungstätigkeit nicht nur Gouverneuren und Beamten einen primären Agenten der Staatsführung, sondern bietet auch chinesischen Intellektuellen importierte Denkmuster und Kenntnisse moderner Wissenschaft und Technologien. Konzentration auf Übersetzungsgedanken, eingebettet in den Artikel „Über die Übersetzung von Büchern“(;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4283-5_10 eef61f43e48df1def533b9e2fa1cf2ab;de;;;4.2.;;;Ist Technik eine Wissenschaft? Neuere Entwicklungen in der deutschen Technik- und Ingenieurphilosophie Erst in den letzten Jahren sind in Deutschland wissenschaftstheoretische Studien zur Technik zu beobachten. Dieser Beitrag diskutiert zunächst die Probleme mit der semantischen Bedeutung von Begriffen wie Technik und Techniken im Deutschen. Das hat mit den noch nicht geklärten Grenzen zwischen Naturwissenschaften und Technik zu tun. Einen Beitrag zu dieser Diskussion hat die Deutsche Akademie der Technikwissenschaften mit Definitionen auch in wissenschaftstheoretischer und ethischer Hinsicht geleistet. Die Grenzdiskussion zwischen der sogenannten erkenntnisorientierten Wissenschaft (ehemals reine Wissenschaften) und den handlungsorientierten Wissenschaften erlaubt nach einer kurzen Skizze bedeutender Phasen der Technik- und Ingenieursgeschichte in Deutschland die Einordnung unterschiedlicher Typen von Wissen und Beziehungen zwischen Technologietheorien. In Deutschland scheinen Themen wie Akzeptanzprobleme, Verantwortung von Ingenieuren und Misstrauen gegenüber Großtechnologien ihre Wurzeln in Konflikten zwischen den Interessen und Wertesystemen der beteiligten Akteure und in mangelhaften Kommunikationsmethoden zu haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-45193-0_5 926bb13a2a1c8ebe0dd745caaf24d02e;de;;;4.2.;;;Wie können Marketer das Bewusstsein der Verbraucher und Interaktionen auf Facebook-Markenseiten fördern? - Treiber und Ergebnisse Von Marketern generierte Inhalte beeinflussen die Reaktionen der Fans auf soziale Medien. Die Bereitstellung der richtigen Inhalte für die richtigen Zielgruppen zur richtigen Zeit könnte das Online-Engagement erhöhen. Marken, die in sozialen Online-Medien existieren, könnten Markenbekanntheit und Engagement erreichen. Daher zielt dieses Papier darauf ab, die Faktoren zu analysieren, die das Verbraucherbewusstsein und die Interaktionen mit den von der Marke geposteten Inhalten bestimmen, und die Konsequenzen dieses Bewusstseins und dieser Interaktionen, indem die objektiven Maßnahmen aus den Sekundärquellen gesammelt werden. Daten wie Posts pro Tag, Engagement Rate, PTAT werden von fast 300 bekannten nationalen und internationalen Marken-Fanpages aus 9 Branchen in Thailand gesammelt. Eine empirische Analyse mit einfacher und multipler linearer Regression wird durchgeführt, um die vorgeschlagenen Hypothesen zu testen. Die Ergebnisse zeigen die Erkenntnisse von Social-Media-Strategien in 9 Markenkategorien. Bilder und Videos werden im Volksmund als Content-Strategien verwendet. Der Anteil der Bild- und Videobeiträge hat jedoch keinen direkten Einfluss auf die Engagement-Rate. Die Gesamtzahl der Fans bestimmt maßgeblich das Verbraucherbewusstsein und die Interaktionen (PTAT), die später mehr der neuen Likes antreiben. Diese Studie trägt zur bestehenden Literatur bei, indem sie objektive Messgrößen verwendet und Marken in verschiedenen Kategorien umfassend untersucht, die Forschungslücken mit interessanten Ergebnissen schließt und Anleitungen gibt, was für Marken in jeder Kategorie hinzugefügt werden sollte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-11039-0_4 0f08bfef5ac0a4668ac1549106351b32;de;;;4.2.;;;Die OECD-Familiendatenbank: Entwicklung eines länderübergreifenden Instruments zur Bewertung von Familienpolitik und -ergebnissen Die OECD-Familiendatenbank wurde entwickelt, um Informationen und Indikatoren in Bezug auf Familienergebnisse, Familienpolitik und Kinder an einem zentralen Ort zu sammeln, um der wachsenden Nachfrage nach länderübergreifenden Informationen über die Situation von Familien und Kindern gerecht zu werden. Die Informationen stammen aus verschiedenen OECD-Datenbanken, speziell entwickelten Fragebögen und Nicht-OECD-Quellen. Die OECD-Familiendatenbank umfasst nun 52 Indikatoren in vier Hauptbereichen: Familienstruktur, Familien und Kinder, Arbeitsmarktposition von Familien, staatliche Maßnahmen für Familien und Kinder sowie Kinderergebnisse. Dieser Beitrag stellt die Familiendatenbank vor und diskutiert Daten- und methodische Fragen anhand ausgewählter Beispielindikatoren.;-;-;-;https://link.springer.com/article/10.1007/s12187-009-9044-8 11c4d64e963f4fd9c5d9cbf3dcacaf59;de;;;5.2.;;;Die Reise von La Pérouse: Teil I Von Brest nach Monterey Bay Der Leser muss von vornherein bedenken, dass die Reise der La Pérouse, die Anfang August 1785 von Brest aus ablegte, vermutlich im Sommer 1788 im Westpazifik Schiffbruch erleiden würde. Sein letzter Anlaufhafen war Botany Bay (Australien), von wo aus er am 10. März 1788 nie wieder gesehen wurde. Das Originalmanuskript seines Tagebuchs, offensichtlich ein grundlegendes Dokument für die Aufzeichnung der Reise, ging mit ihm verloren, ebenso die Hauptstudien, die Tagesnotizen und der größte Teil der Sammlungen der Botaniker und des Gärtners.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-0187-7_4 7eddce2da7be9201efecc6844cd652d3;de;;;5.2.;;;Ein intelligenter Scatter mit Schätzung der Verteilung für die Tabu-Suche Dieses Papier schlägt einen effizienten Optimierungsalgorithmus vor, der auf Tabu-Suche und Schätzung von Verteilungsalgorithmen basiert. Der vorgeschlagene Algorithmus schätzt Eigenschaften der Verteilung von Lösungen nach der Durchführung von Tabu-Suchen basierend auf einem marginalen Produktmodell, um Verknüpfungsinformationen zu erhalten. Sobald die korrekten Verknüpfungsinformationen erhalten wurden, können wir Crossovers effektiv durchführen, ohne die Bausteine, die die Informationen verwenden, zu stören. Es wird erwartet, dass sich der vorgeschlagene Algorithmus sowohl an globale als auch lokale Eigenschaften des Lösungsraums anpasst. Durch empirische Studien zeigen wir die Wirksamkeit unseres Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75867-9_59 814e1a515eef71811410bc00271019c1;de;;;5.2.;;;Genetische Suche nach optimalen Darstellungen in neuronalen Netzen Es wird ein Ansatz für das Lernen in neuronalen Feed-Forward-Netzen vorgeschlagen, der eine allmähliche synaptische Modifikation auf der Ausgangsschicht mit einer genetischen Anpassung in der/den unteren Schicht(en) kombiniert. Bei dieser „GA-Delta“-Technik sind die Allele lineare Schwellenwerteinheiten (ein Satz von Gewichtungen und ein Schwellenwert), ein Chromosom ist eine Sammlung solcher Einheiten und definiert somit eine Zuordnung von der Eingabeschicht zu einer verborgenen Schicht. Die Fitness wird durch Messen des Fehlers nach einer kleinen Anzahl von Deltaregel-Iterationen an den versteckten Ausgabegewichtungen bewertet. Auf diesen Chromosomen werden genetische Operatoren definiert, um die Suche nach einer Abbildung zu erleichtern, die die Aufgabe durch eine einzelne Gewichtungsschicht lösbar macht. Die Leistung von GA-delta wird an mehreren Aufgaben dargestellt und die Auswirkungen der verschiedenen Operatoren werden analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-7533-0_91 03712d584d8f35b8b7f0ccbc6211ede1;de;;;5.2.;;;Tabu-Suche mit kritischem Ereignisspeicher: Eine erweiterte Anwendung für binäre quadratische Programme Ein kürzlich entwickelter Tabu-Suchansatz zum Lösen von binären quadratischen Programmen hat sich als sehr effektiv beim Finden optimaler Lösungen für bekannte schwierige Probleme erwiesen. Die Methode ist hauptsächlich auf strategische Oszillation basierend auf dem kritischen Ereignisgedächtnis ausgerichtet und hat nicht nur in den Fällen, in denen sie bekannt sind, schnell optimale Lösungen gefunden, sondern auch qualitativ hochwertige (vielleicht optimale) Lösungen für neue Testprobleme gefunden, die größer sind als zuvor in der Literatur berichtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5775-3_7 ff9f3bcdb8dbfaff51703673dedf8f55;de;;;4.2.;;;Die Dauer der Alleinerziehendenschaft in Großbritannien In diesem Beitrag wird untersucht, ob die Dauer der Alleinerziehendenschaft in Großbritannien von demografischen und wirtschaftlichen Faktoren abhängt, die sich auch auf den Lebensstandard Alleinerziehender und ihrer Familien auswirken. Die Analyse beschränkt sich auf weibliche Alleinerziehende und wird getrennt für nie verheiratete alleinerziehende Mütter und ehemals verheiratete alleinerziehende Mütter durchgeführt. Bei unverheirateten Müttern ist die Dauer der Alleinerziehendenschaft definiert als die Wartezeit zwischen einer „unehelichen“ Geburt (d. h. außerehelich) und der Eheschließung. Bei ehemals verheirateten Müttern ist die Dauer der Alleinerziehendenschaft die Wartezeit zwischen der Auflösung der Ehe und der Wiederverheiratung. Diese Dauern werden mit Methoden der Gefahrenregression und Daten aus der Ehe-, Bevölkerungs- und Erwerbsgeschichte der 1980er Jahre modelliert;-;-;-;https://link.springer.com/article/10.1007/BF01797100 dc0cb1f9f2c69ceadaec30ea2ee486b1;de;;;4.2.;;;Unterstützung durch die Familie und Konflikte: Perspektiven für Depressionen bei Jugendlichen In einer Stichprobe von 231 weiblichen und 189 männlichen Jugendlichen und ihren Müttern wurden die Zusammenhänge zwischen familiärer Unterstützung, familiärem Konflikt und adoleszenter depressiver Symptomatik längsschnittlich untersucht. Strukturgleichungsmodelle zeigten, dass weniger unterstützende und konfliktreichere familiäre Umgebungen sowohl gleichzeitig als auch prospektiv über einen Zeitraum von einem Jahr mit einer stärkeren depressiven Symptomatik verbunden waren. Umgekehrt sagte die depressive Symptomatik bei Jugendlichen keine Verschlechterung der familiären Beziehungen voraus. Die depressive Symptomatik und in stärkerem Maße die Familienmerkmale zeigten über den 1-Jahres-Zeitraum eine hohe Stabilität. Entgegen unseren Erwartungen waren die Beziehungen zwischen familiären Variablen und depressiver Symptomatik bei Jungen und Mädchen ähnlich. Die Ergebnisse legen nahe, dass die Qualität der familiären Interaktionen für das Verständnis der Entwicklung depressiver Symptome bei Jugendlichen relevant ist.;-;-;-;https://link.springer.com/article/10.1023/A%3A1025768504415 6a83bbad3e25b7af58e4137be4e5e70a;de;;;5.2.;;;Optimierung und Parameterschätzung bei Ultraschall-Echoproblemen unter Verwendung eines modifizierten künstlichen Bienenkolonie-Algorithmus Die Muster der Ultraschall-Rückstreuechos stellen wertvolle Informationen bezüglich der geometrischen Form, Größe und Ausrichtung der Reflektoren sowie der Mikrostruktur des Ausbreitungsweges dar. Eine genaue Schätzung des Ultraschallechomusters ist bei der Bestimmung der Objekt- oder Ausbreitungspfadeigenschaften wesentlich. In diesem Artikel wird eine Parameterschätzungsmethode für Ultraschallechos vorgeschlagen, die auf dem Algorithmus der künstlichen Bienenkolonie (ABC) basiert, einem der neuesten Algorithmen auf Basis von Schwarmintelligenz. Ein modifizierter ABC-(MABC)-Algorithmus wird durch Hinzufügen eines Anpassungsfaktors zu der Nachbarschaftssuchformel des traditionellen ABC-Algorithmus gegeben, um seine Leistung zu verbessern. Der Algorithmus könnte den Einfluss unterschiedlicher Suchbereiche auf die Schätzgenauigkeit überwinden, um die mehrdimensionalen Parameteroptimierungsprobleme zu lösen. Die Leistungsfähigkeit des MABC-Algorithmus wird durch numerische Simulations- und Ultraschalldetektionsexperimente demonstriert. Die Ergebnisse zeigen, dass MABC nicht nur verschiedene Parameter der Ultraschallechos genau abschätzen kann, sondern auch die optimale Lösung im globalen Bereich erreichen kann. Der vorgeschlagene Algorithmus hat auch die Vorteile einer schnellen Konvergenzgeschwindigkeit, einer kurzen Laufzeit und einer Echtzeitparameterschätzung.;-;-;-;https://link.springer.com/article/10.1016/S1672-6529%2814%2960110-4 6b49508d496deafdc4947f1454033c4d;de;;;4.2.;;;Prä-Protachykinin- und Tachykinin-Rezeptor-Knockout-Mäuse Dieses Kapitel gibt einen Überblick über den aktuellen Beitrag der Genetik zur Tachykininforschung. Die Entdeckung von Substanz P, verwandten Tachykininen und ihren Rezeptoren wird überprüft und die Phänotypen von Mäusen, denen das funktionelle Tachykinin NK . fehlt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18891-6_10 737ff5e830d5a9b34f5dde4b042cef73;de;;;5.2.;;;Afrikanische Literatur: Welche Tradition? Alles begann, als Afrika Ende des 19. Jahrhunderts in die Geschichte des Westens aufgenommen wurde. Worauf kamen wir? – eine lange Linie der Kontinuität, die etwa 9.000 Jahre zurückreicht, seit die Zivilisationen der großen Flusstäler des Nils, des Tigris und des Euphrat, des Indus und des Hwang-ho den Menschen auf eine lange intellektuelle Suche geschickt hatten . Wir waren von einer aggressiven westlichen Kultur entdeckt worden, die uns nie in Ruhe lassen würde. Wir konnten auch nicht aufhören, den Neonlichtern zu folgen – oder war es ein Irrlicht? Wir werden sehen. Vielleicht wird es der Hegelsche historische Determinismus so geben, wie er sein sollte: Wie könnte Afrika auf unbestimmte Zeit aus dem Ganzen herausgelassen werden?;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-81570-8_2 5bfa367e1f1d15fb740c33ef755a1cc9;de;;;5.2.;;;Ein Überblick über die evolutionäre Programmierung Evolutionäre Programmierung ist eine seit über 35 Jahren erforschte Methode zur Simulation von Evolution. Dieses Papier bietet eine Einführung in die evolutionäre Programmierung und zeigt ihre Beziehung zu anderen Methoden der evolutionären Berechnung, insbesondere zu genetischen Algorithmen und Evolutionsstrategien. Die ursprünglichen Bemühungen, die endliche Automaten zur Vorhersage beliebiger Zeitreihen entwickelt haben, sowie spezifische neuere Bemühungen zur kombinatorischen und kontinuierlichen Optimierung werden überprüft. Einige Bereiche der aktuellen Untersuchung werden erwähnt, darunter die Bewertung der Optimierungsleistung der Technik und Erweiterungen um Mechanismen der Selbstadaption.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-1542-4_5 5d63371bfed1adb09c37e998deac844d;de;;;4.2.;;;Unsichtbarkeit und die fraktale Stadt Im Gegensatz zum Zuhause, das sich zwar privat, aber unbestreitbar dem öffentlichen Raum öffnet und als solches nach einer Logik des Sehens und des Verborgenen funktioniert, sind Städte per definitionem Orte hoher Sichtbarkeit, in denen große Konzentrationen von Menschen vervielfachen die Wirkung der Sichtbarkeit, indem sie sie entweder empfangen oder auf andere Orte brechen. Diese etwas abgedroschene Eigenschaft von Städten erzeugt das bekannte Paradoxon, dass Menschen sich sehr sichtbar fühlen, während sie paradoxerweise ein gewisses Gefühl der Unsichtbarkeit erfahren. Ein weiteres Paradox des urbanen Lebens besteht darin, dass Sichtbarkeit unterschiedlich, vergänglich, fast zyklisch ist und, wie wir in Kapitel 2 sagten, kontextuell durch den Blick des Betrachters definiert und von diesem abhängig ist. Städte sind aber auch Orte programmatischer Sichtbarkeit – im Gegensatz zu einer eher spontanen und ungeplanten Form der Sichtbarkeit –, in der bestimmte Merkmale der Stadt ins Rampenlicht gerückt werden, während andere ausgelöscht, gewissermaßen von der Landkarte gewischt werden. In der heutigen Welt scheinen Städte – und insbesondere Hauptstädte – mehr denn je in Rivalitäten zu geraten und konkurrieren international mit anderen Städten in einem Wettlauf um Attraktivität, dessen Ziel es letztendlich ist, die meisten Unternehmen anzuziehen. Dieser Wettlauf um die urbane Weltführerschaft verbindet interessanterweise wirtschaftliche und finanzielle Parameter mit kulturellen Aspekten und findet oft in Form einer geschickten Kulturvermarktung statt.;-;-;-;https://link.springer.com/chapter/10.1057/9781137401397_7 ef2039195337ff9201e61659bdb485d5;de;;;4.2.;;;Echtes Unrecht in virtuellen Gemeinschaften Beginnend mit der bekannten Cyber-Vergewaltigung in LambdaMOO argumentiere ich, dass es in virtuellen Gemeinschaften möglich ist, echte moralische Fehler zu machen. Anschließend verallgemeinere ich das Konto, um zu zeigen, wie es auf Interaktionen in Gaming- und Diskussions-Communities anwendbar ist. Meine Darstellung wird durch eine Sicht des moralischen Realismus gestützt, die Entitäten wie Absichten und kausale Eigenschaften von Handlungen anerkennt. Austins Sprechakt-Theorie wird verwendet, um zu zeigen, dass reale Menschen in virtuellen Gemeinschaften auf eine Weise agieren können, die sowohl Praktiken als auch moralische Erwartungen begründet und eine starke Identifikation zwischen sich selbst und ihrer Online-Identität rechtfertigt. Rawls' Konzept einer sozialen Praxis wird verwendet, um die Natur des Falschen und den inszenierenden Aspekt der Ausübung einer Praxis zu analysieren.;-;-;-;https://link.springer.com/article/10.1023/B%3AETIN.0000017737.56971.20 b640c1fb2856995ad576b8d279418afb;de;;;5.2.;;;UNIX-Dateisystem Bei der Verwendung eines Computersystems führen Benutzer hauptsächlich dateibezogene Vorgänge aus: Lesen, Schreiben, Ändern, Erstellen oder Ausführen von Dateien. Und diese Operationen interagieren mit dem Dateisystem. Daher müssen Leser das Dateisystem und das Dateikonzept in UNIX verstehen, wie sie im Betriebssystem verwaltet und dargestellt werden und wie sie auf der Festplatte gespeichert werden. In diesem Kapitel besprechen wir die Dateisystemstruktur, das Dateikonzept in UNIX, die Verwaltung von Datei und Dateisystem sowie die Dateidarstellung und -speicherung. Dieses Kapitel konzentriert sich auch auf das lokale Dateisystem.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20432-6_6 17404da011702b6a72b8ddc89c63415b;de;;;5.2.;;;Vergleich von Computertomographie und konventioneller Zystographie zur Erkennung einer traumatischen Blasenruptur Die Computertomographie (CT) ist die Methode der Wahl zur Beurteilung von Patienten mit stumpfem Bauch- und/oder Beckentrauma. Die Sensitivität der CT zur Erkennung von Blasenrupturen wurde jedoch in Frage gestellt. Wir überprüften sowohl die konventionellen Zystogramme als auch die CT-Untersuchungen von 25 Patienten, bei denen beide Studien als Erstbeurteilung eines stumpfen Bauch- und Beckentraumas in den letzten 5 Jahren durchgeführt wurden. Fünf dieser 25 Patienten hatten Blasenrupturen, drei extraperitoneale und zwei intraperitoneale. Alle fünf Verletzungen wurden sowohl durch CT als auch durch konventionelle Zystographie erkannt. Bei einem Patienten war das konventionelle Zystogramm falsch positiv. In diesem Fall wurde die korrekte Diagnose durch CT gestellt und ein wiederholtes Zystogramm bestätigte, dass keine Blasenverletzung vorlag. Unsere Ergebnisse zeigen, dass die CT bei richtiger Durchführung genauso empfindlich für die Erkennung von Blasenverletzungen ist wie die konventionelle Zystographie.;-;-;-;https://link.springer.com/article/10.1007/BF02924005 890d5e7d2d17faa3d0266282164c81a8;de;;;5.2.;;;Eine neue Bildung für ein neues digitales Zeitalter? Dies sind aufregende, aber unsichere Zeiten, in denen man Bildung und Technologie studieren sollte, mit schnellen Entwicklungen der digitalen Medien, die mit dem aktuellen Bildungswandel verbunden sind. Insbesondere eine wachsende Zahl von Schriftstellern und Forschern schildern das Aufkommen sogenannter „Web 2.0“-Internettechnologien in transformativen Begriffen. Es wurde beispielsweise viel über eine allgemeine Neugestaltung des Bildungsangebots in fließendere und demokratischere Richtungen diskutiert. Einige Kommentatoren haben die Entstehung einer „Bildung 2.0“ angekündigt, die auf der Wiedereinbindung und Stärkung der Lernenden basiert (Fumero 2006, Rosenfeld 2007). Diese Begeisterung wird jedoch durch pessimistische Vorhersagen einer verstärkten Abkopplung und Abkopplung der Lernenden von ihrem Studium oder eines bevorstehenden Rückgangs „traditioneller“ Fähigkeiten und Alphabetisierungen bei kommenden Generationen digital abhängiger junger Menschen gedämpft (Brabazon 2007). Bildungsforscher stehen daher vor einer seit langem bestehenden Frage: Können die Veränderungen, die mit dieser neuen Welle von Bildungsinnovationen verbunden sind, als förderlich bezeichnet werden?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-91917-1_2 2c09e3f3551f8720f98fe6fca90d98f0;de;;;5.2.;;;Anreizregulierung von Banken gegenüber Logistik-Drittunternehmen bei der Principal-Agent-basierten Bestandsfinanzierung Bei der Bestandsfinanzierung können asymmetrische Informationen zwischen Banken und den externen Logistikunternehmen moralische Risiken bergen, die häufig zu wirtschaftlichen Verlusten der Banken führen. Um dieses Problem effektiv zu lösen, werden ein reines Anreizsystem und ein regulatorisches Anreizsystem mit der Prinzipal-Agenten-Theorie entworfen. Im Vergleich dazu zeigt sich, dass das reine Anreizmodell nicht auf praktische Bedingungen anwendbar ist und das regulatorische Anreizmodell nicht nur praktische Probleme substanziell lösen kann, sondern unter bestimmten Bedingungen auch das reine Anreizmodell übertrifft. Die in diesem Beitrag vorgestellten Forschungsergebnisse aus Beispielanalysen bieten eine theoretische Anleitung und eine praktische Methode zur effektiven Regulierung von Banken.;-;-;-;https://link.springer.com/article/10.1007/s40436-014-0072-3 5a8cc379f49c91c740a19ce3b168b20c;de;;;4.2.;;;Der positive Zusammenhang zwischen geografischer Agglomeration und Exportintensität: Der Motor des italienischen endogenen Wachstums? Der theoretische Teil des Papiers stellt ein stilisiertes Modell vor, bei dem angenommen wird, dass die geografische Nähe den Nutzen privater Unternehmen aus der Generierung von Exportdienstleistungen erhöht. Unter diesen Prämissen zeigt das Modell, dass die Exportintensität von Unternehmen, die in „Industriebezirken“ agglomeriert sind, höher ist als für isolierte Unternehmen. Es zeigt auch, wie dieser positive Zusammenhang zwischen Exportintensität und geografischer Ballung nur dann eindeutig festgestellt werden kann, wenn der Wettbewerb auf ausländischen Märkten zwischen Unternehmen, die bei Exportdienstleistungen kooperieren, nicht zu hoch ist. Die Gültigkeit dieser Schlussfolgerung wird unter verschiedenen Rahmenbedingungen wie unendlich wiederholten nichtkooperativen und kooperativen Spielen analysiert. Der empirische Teil des Papiers unterstützt diese theoretische Hypothese teilweise, die zeigt, dass die Vorteile der geografischen Agglomeration in Form einer höheren Exportintensität und einer höheren Exportbeteiligung bei der Unternehmensgröße abnehmen und in Sektoren, die durch Formen des Wettbewerbs auf der Grundlage horizontaler Produktdifferenzierung gekennzeichnet sind, im Allgemeinen höher sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-57666-9_5 214b94aa52d417fa65bc3f0801124e05;de;;;4.2.;;;Die kollektiven Aktionsprobleme der politischen Konsolidierung: Beweise aus Polen Das Problem des kollektiven Handelns, das von Rousseau und Hume schon früh bemerkt wurde, erhielt sein erstes Modell in den 1950er Jahren im gefeierten Gefangenendilemma, das von Flood und Drescher eingeführt und durch Albert Tuckers bekannte Geschichte motiviert wurde. Später, mit der Entwicklung der Spieltheorie, wurden Probleme des kollektiven Handelns gründlich als Varianten des Prisoner’s Dilemma, Koordinationsspiele oder einfach strategische Spiele mit einem einzigartigen Nash-Gleichgewicht, das streng von Pareto dominiert wird, formalisiert (Hardin 1982, Sandler 1992). Zu den frühen Sozialwissenschaftlern, die soziale Dilemmata mit einfachen Modellen analysierten, gehörte Thomas Schelling. Mancur Olson, Schellings Student, konzentrierte sich in seiner Dissertation auf die Schnittstelle von Wirtschaft und Politik. Er machte das Studium der Probleme kollektiven Handelns zu seinem lebenslangen Forschungsprogramm. Er wendete seinen Rahmen und seine Varianten auf die Arbeit von Berufsverbänden und Gewerkschaften an (1965), die Aufrechterhaltung der NATO (1966, mit R. Zeckhauser), die Bildung von Interessengruppen und ihre Auswirkungen auf die aggregierte Wohlfahrt (1982), die Revolutionierung ( 1990) oder Anreize für verschiedene Herrscher, Wirtschaftswachstum zu fördern (2000). Er zeigte, dass politische und wirtschaftliche Probleme des kollektiven Handelns keine bloßen Kuriositäten, Paradoxien oder Abweichungen von ansonsten effizienten Märkten sind. Sie liegen jedem Aspekt menschlichen Handelns zugrunde und haben tiefgreifende politische und wirtschaftliche Folgen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24711-1_5 28483594bbf414d865aa2d86c8ff568f;de;;;4.2.;;;Messung des öffentlichen Interesses an ökologischen Belangen durch Online-Aktivitäts- und Umweltmonitoring Unter Berücksichtigung der globalen Welttrends bei der Entwicklung digitaler Technologien und ihrer Verbreitung im wirtschaftlichen und sozialen Raum wird vorgeschlagen, Indikatoren von sozialem Interesse in ökologischen Fragen (Umweltverantwortung und Umweltbelange) für die Bevölkerung der russischen Regionen zu verwenden. Es wurde ein origineller Ansatz zur Schätzung dieser Indikatoren anhand der Online-Aktivität der Bevölkerung vorgeschlagen. Es zeigte sich, dass die Daten zu Anzahl, Prävalenz und Dynamik von Suchanfragen nach Stichworten zu Umweltverschmutzung, Wasser- und Luftreinheit den Grad der Verantwortung und Besorgnis der Bevölkerung mit der Umweltsituation in der Region widerspiegeln und als indirekter Indikator für Umweltschäden angesehen. Es wurden Abhängigkeiten zwischen umweltrelevanten Indikatoren und Umweltüberwachungsdaten festgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-02843-5_11 24e5c7a44a859ba1ed10cdbfd0f2bdab;de;;;4.2.;;;Crowdsourcing-Monitoring, Bürgerbeteiligung und Datenglaubwürdigkeit Crowdsourcing ist heute ein revolutionäres Phänomen, das unsere Art der Kommunikation und Produktion grundlegend verändert. Dieser Artikel beschäftigt sich mit zwei Themen, die für seine Entwicklung und seine Auswirkungen von entscheidender Bedeutung sind. Einerseits untersucht es die Formen und Grenzen des Crowdsourcing-bezogenen Citizen Empowerment. Sie ist weniger besorgt über die mittlerweile anerkannte Tatsache, dass Crowdsourcing stärkend wirkt, sondern konzentriert sich auf die Art und Weise, wie dies geschieht und die Architektur der Beziehungen zwischen Bürgern, Wissenschaftlern und Institutionen in diesem neuen Kontext. Zum anderen wird die Frage der Glaubwürdigkeit von durch Crowdsourcing erzeugten Daten diskutiert. Diese Frage stellt in der Tat die Achillesferse dar, die den Aufstieg der Bürgermacht gegenüber Experten und Institutionen destabilisiert. Bei der Diskussion dieser beiden Themen stützt sich der Artikel auf eine besonders interessante Fallstudie: die Online-Plattform zur partizipativen Überwachung der Biodiversität in Belgien Observations.be. Der Aufbau von Datenbanken ist hier Anlass für Reflexivität, Lernen und Mobilisierung. Es ist auch eine Gelegenheit zur Befreiung des Laien als Individuum aus den Zwangsjacken, die die institutionellen, wissenschaftlichen und assoziativen Räume begrenzen, in denen er Subjekt, Mitarbeiter oder Mitglied bleibt – immer in einer untergeordneten Position. Er wird Peer-Produzent, Partner und Diskutant. Wichtiger noch, Lern- und Aktionsnetzwerke, die sich in der Plattform entwickeln, schneiden quer durch die drei Sphären. Wir finden unerwartete und neue Kooperationen zwischen Bürgern, Wissenschaftlern und Beamten. Ebenso bezeugen die über die Plattform entwickelten Aktionen, vor allem Melde-, Zählkampagnen und Frühwarnsysteme, neue Handlungsweisen, die die funktionale und ontologische Aufteilung der drei Bereiche überschreiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09129-7_35 6b0b48e540234ff9184721d66965b865;de;;;5.2.;;;Eine neuartige auf Ähnlichkeit basierende Modularitätsfunktion für die Graphpartitionierung Graph-Partitionierung oder Netzwerk-Clustering ist in vielen Bereichen ein wesentliches Forschungsproblem. Aktuelle Ansätze haben jedoch Schwierigkeiten, zwei Cluster aufzuspalten, die durch einen oder mehrere „Hub“-Vertices dicht verbunden sind. Darüber hinaus sind traditionelle Methoden weniger in der Lage, mit sehr verworrenen Strukturen umzugehen. In diesem Beitrag schlagen wir eine neuartige ähnlichkeitsbasierte Definition der Qualität einer Partitionierung eines Graphen vor. Durch theoretische Analysen und experimentelle Ergebnisse zeigen wir, dass die vorgeschlagene Definition das „Hub“-Problem weitgehend überwindet und bestehende Ansätze bei komplizierten Graphen übertrifft. Darüber hinaus zeigen wir, dass diese Definition mit schnellen agglomerativen Algorithmen verwendet werden kann, um Gemeinschaften in sehr großen Netzwerken zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74553-2_36 4bedee5ac5a3db5c06ea67e9aeb68bd8;de;;;5.2.;;;Extraktion von 3D-Formen aus dem sich bewegenden menschlichen Gesicht mit Lichtschalterphotometrie Das Gesicht ist der wichtigste Teil des menschlichen Körpers und prägt die Persönlichkeit und drückt die Emotion aus. Um menschliche Gesichter zu analysieren, ist es notwendig, detaillierte Gesichtsformen wie Falten zu extrahieren. In diesem Beitrag wird eine neue Methode namens „Lighting Switch Photometry“ vorgestellt. Diese Methode berechnet den Normalenvektor an jedem Punkt, der sich mit der Zeit ändert. Aus den Vektoren wird die 3D-Gesichtsform rekonstruiert. Dieses Verfahren ermöglicht die 3D-Rekonstruktion komplizierter Formen eines sich bewegenden menschlichen Gesichts.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-68186-1_5 5ce8930e58635adc62e19fdb8f8f661d;de;;;4.2.;;;Betrieb 1952–54 Entspricht die tatsächliche Tätigkeit der CSC-Institutionen den supranationalen Erwartungen, die durch die Bestimmungen des Vertrags geweckt wurden? Ende 1954, nach etwa zwei Jahren des Gemeinsamen Marktes, war es noch zu früh, in diesem Punkt auch nur vorläufige Schlussfolgerungen zu ziehen. Dennoch bleibt zu hoffen, dass die nachfolgende Darstellung einige erste Eindrücke zum Verständnis der politischen und verfassungsrechtlichen Realität der Gemeinschaft beitragen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-7555-3_3 b2d12dc5bb1f0b2e5fd8776989663c8d;de;;;5.2.;;;Verteilungsnetzwerke für Hilfsgüter: eine systematische Überprüfung In den letzten 20 Jahren hat das Notfallmanagement zunehmende Aufmerksamkeit in der wissenschaftlichen Gemeinschaft erfahren. Inzwischen ist die Untersuchung von Hilfsnetzen zu einem der beliebtesten Themen im Bereich des Notfallmanagements geworden. Tatsächlich ist die Zahl und Vielfalt der Beiträge, die sich der Gestaltung oder dem Management von Hilfsnetzen gewidmet haben, in den letzten Jahren explodiert, was die Notwendigkeit einer strukturierten und systematischen Analyse der Arbeiten zu diesem speziellen Thema begründet. Zu diesem Zweck wird in diesem Papier eine systematische Übersicht über Beiträge zu Hilfsnetzen in Katastrophenfällen vorgelegt. Durch eine systematische und wissenschaftliche Methodik sammelt und konsolidiert es die veröffentlichten Forschungsarbeiten transparent und objektiv. Es verfolgt drei Ziele. Erstens, eine aktuelle Untersuchung der Forschung in Verteilungsnetzen für Hilfsgüter durchzuführen, die sich auf die logistischen Aspekte des Problems konzentriert, das trotz der Anzahl früherer Überprüfungen in der Vergangenheit übersehen wurde. Zweitens, die Trends und die vielversprechendsten Herausforderungen in den Modellierungs- und Lösungsansätzen aufzuzeigen und schließlich zukünftige Forschungsperspektiven zu identifizieren, die es zu erforschen gilt.;-;-;-;https://link.springer.com/article/10.1007/s10479-014-1581-y 42b77d55242de2cbe284d9d538331cb5;de;;;5.2.;;;Planungsalgorithmen im Entscheidungsunterstützungssystem für logistische Probleme Der Ausbau der Eisenbahninfrastruktur sowie die Intensivierung der Nutzung der Eisenbahnen machten es erforderlich, den Zugverkehr so ​​zu planen, dass Kollisionen und Blockaden vermieden werden. Es werden logistische Probleme des Eisenbahntransports betrachtet, die darauf abzielen, die Arbeitsorganisation von Schienenfahrzeugen im Rahmen einer Eisenbahninfrastruktur zu gewährleisten. Die Planung und Organisation des Eisenbahnverkehrs ist ein Schlüsselfaktor für ein sicheres und effektives Funktionieren des gesamten Eisenbahnverkehrssystems. Der derzeit angewandte Ansatz, basierend auf Zielplänen, ist in der Praxis nicht immer erfolgreich, insbesondere in Notfällen, die aus der Fluktuation der Verkehrskapazitäten einer Eisenbahninfrastruktur resultieren. Es wird ein mathematisches Modell der Schienenfahrzeuglogistik erstellt, das alle wesentlichen Besonderheiten der Bahninfrastruktur berücksichtigt. Im Rahmen des konstruierten mathematischen Modells werden Optimierungsprobleme zur Disposition des Verkehrs von Lokomotiven und Zügen für ein zugeordnetes Planungsintervall formuliert. Für alle formulierten Probleme werden Lösungsalgorithmen vorgestellt, die die Zeitkomplexität abschätzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71119-1_14 4657a0baf96b45845771f9252793fa77;de;;;5.2.;;;Individuelle Antworten auf Staupolitik: Modellierung der Berücksichtigung faktorbasierter reisebezogener Strategiebündel Diese Studie untersucht Schlüsselfaktoren, die die Berücksichtigung von acht reisebezogenen Strategiepaketen durch Einzelpersonen beeinflussen (automatische Verbesserung, Mobiltelefon, Änderungen des Arbeitsplans, Einstellung von jemandem für Haus- oder Hofarbeiten, Moduswechsel, Heimarbeit, Wohnungs-/Arbeitsplatzverlagerung, und Beschäftigungsstatus ändern). Die Daten für diese Studie stammen aus einer 14-seitigen Umfrage von etwa 1.300 Pendlern, die in drei verschiedenen Stadtteilen der San Francisco Bay Area leben. Wir haben Discrete-Choice-Modelle (binäres Logit) entwickelt, um jedes Bündel individuell zu berücksichtigen. Die Ergebnisse deuten darauf hin, dass neben der Annahme und der Zeit seit der Annahme individueller Strategien auch qualitative und quantitative mobilitätsbezogene Variablen, Reiseeinstellungen, Persönlichkeit, Lebensstil, Reiselust und Reiseüberschuss die Berücksichtigung der reisebezogenen Strategiebündel durch den Einzelnen erheblich beeinflussen.;-;-;-;https://link.springer.com/article/10.1007/s12205-012-1315-0 ff1b1732aa6a4c75027194b075a290d8;de;;;5.2.;;;Die Rolle von Erwachsenen- und Larvenspezialisierungen bei der Begrenzung des Vorkommens von fünf Arten von Untersucht wurde die relative Bedeutung adulter Präferenzen oder Spezialisierungen der Larvenphysiologie bei der Einschränkung des Wirtsspektrums von fünf Arten von Dacine-Fruchtfliegen (Diptera: Tephritidae) mit besonderem Schwerpunkt auf deren Nutzung kultivierter Früchte. Die Arten,;-;-;-;https://link.springer.com/article/10.1007/BF00399044 347f288db3aecf8f0675cca15fb9c8e4;de;;;4.2.;;;Rhetorik und Legitimation Trotz seiner Kontrolle über weder „das Schwert noch den Geldbeutel“ übt der Oberste Gerichtshof der Vereinigten Staaten eine große Macht aus. Durch seine Stellungnahmen - seinen Sprachgebrauch - hat der Gerichtshof Bereiche beeinflusst, die vom Schicksal der Schnecken bis zur Macht der Exekutive reichen. Justizwissenschaftler, die sich auf die Textexegese verlassen, um den gerichtlichen Prozess zu verstehen, erkennen zunehmend den Wert rhetorischer Kritik. Marc Gold hat beispielsweise argumentiert: „In Verbindung mit traditionelleren Analyseformen sollte eine rhetorische Perspektive unser Verständnis des gerichtlichen Verfahrens erheblich verbessern.“;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0771-6_14 029e27e88731216e529163415bde665a;de;;;4.2.;;;Verknüpfung planetarer Grenzen und Ökosystemrechnung mit einer Illustration für das kolumbianische Flusseinzugsgebiet des Orinoco Die wirtschaftliche Entwicklung hat in den letzten Jahrzehnten den Druck auf die natürlichen Ressourcen erhöht. Das Konzept der planetaren Grenzen wurde entwickelt, um auf der Grundlage von Erdprozessen und ökologischen Schwellenwerten Grenzen für menschliche Aktivitäten vorzuschlagen. Dieses Konzept wurde jedoch nicht entwickelt, um die planetaren Grenzen auf eine subglobale Ebene herunterzuskalieren. Das Fehlen von Grenzen auf subglobaler Ebene schränkt die Verwendung des Konzepts in der Umweltpolitik und im Management natürlicher Ressourcen ein, da Entscheidungen typischerweise auf diesen Ebenen getroffen werden. Entscheidungen auf nationaler Ebene werden derzeit unter anderem durch statistische Rahmen, insbesondere das System der Volkswirtschaftlichen Gesamtrechnungen, unterstützt. Es wurden jedoch keine statistischen Rahmen entwickelt, um Umweltinformationen zusammenzustellen, was die Entscheidungsfindung im Umweltbereich behindert. Unsere Studie untersucht, ob und wie Ökosystemrechnungen in Kombination mit dem Konzept der planetaren Grenzen verwendet werden können, um menschliche Aktivitäten auf der Ebene eines Flusseinzugsgebiets zu lenken. Wir bewerten die Anwendbarkeit beider Rahmen für das Management natürlicher Ressourcen im Flusseinzugsgebiet des Orinoco, basierend auf adaptiven Managementkomponenten. Unsere Analyse zeigt, dass Unterschiede im Zweck der Analyse, bereitgestellten Informationen und Methoden die potenzielle Integration beider Frameworks einschränken. Dennoch kann die Art und Weise, wie beide Frameworks das soziale System und die Wechselwirkungen zwischen sozialen und ökologischen Systemen konzeptualisieren, die Übersetzung planetarischer Grenzen in Indikatoren erleichtern, die in der Ökosystemrechnung berücksichtigt werden. Die in nationalen Ökosystemrechnungen erfassten Informationen können dabei helfen, ökologische Schwellenwerte festzulegen und, noch grundlegender, ökologische Schwellenwerte mit den menschlichen Auswirkungen auf den Ökosystemzustand in Beziehung zu setzen. Die Nutzung dieser Synergien erfordert einen weiteren Erfahrungsaustausch zwischen den Gemeinschaften, die an der Ökosystembilanzierung und den planetaren Grenzen arbeiten.;-;-;-;https://link.springer.com/article/10.1007/s10113-018-1282-1 5e7b4d13791e0a65d8c080da986d12ee;de;;;4.2.;;;Die Politik der Nachhaltigkeit in der europäischen Arktis In den letzten zehn Jahren hat sich die Arktis in vielen Bereichen zu einer Kooperationsregion entwickelt, insbesondere in Umweltfragen. Dieser Artikel konzentriert sich auf zwei Initiativen der Umweltkooperation im Norden. Die Umweltzusammenarbeit wurde 1989 durch eine finnische Initiative ins Leben gerufen, die 1991 zu einer Ministerkonferenz in Rovaniemi führte. Heute ist die Umweltzusammenarbeit Teil der Aktivitäten des 1996 gegründeten Arktischen Rates. Die europäische Dimension der Zusammenarbeit -Operation im Norden wurde verbessert, als der finnische Premierminister Paavo Lipponen 1997 einen Vorschlag zur Entwicklung einer Nördlichen Dimension für die Europäische Union vorlegte. Diese Initiative umfasste auch Umweltbelange in der Region. Beide Initiativen gehen die Probleme der Definition von Nachhaltigkeit in der europäischen Arktis an.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-58337-7_7 b0ee094f214a3595e644e839c9bee5e5;de;;;5.2.;;;Optimierung des Prefetchings in Peer-to-Peer-Video-on-Demand-Systemen Bei Peer-to-Peer-Video-on-Demand-Systemen wie der Videokassettenaufzeichnung (VCR) werden verschiedene Operationen (d. h. vorwärts, rückwärts, wiederaufnehmen) sehr häufig verwendet. Die Ungewissheit des häufigen VCR-Betriebs macht es schwierig, Dienste wie das Abspielen als Download bereitzustellen. Um dieses Problem anzugehen, gibt es Algorithmen wie zufälliges Vorabrufen, verteiltes Vorabrufen usw. Aber jeder dieser Algorithmen hat seine eigenen Vor- und Nachteile. Um das Problem des Prefetching zu überwinden, schlagen wir daher vor, das Prefetching für Peer-to-Peer(P2P) Video on Demand-Systeme zu optimieren. Das Simulationsergebnis beweist, dass der vorgeschlagene Prefetching-Algorithmus die Suchverzögerung im Vergleich zum zufälligen Prefetching-Schema signifikant reduziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22543-7_10 83863c7ff7dbd4d3fcdc21a5133a810b;de;;;4.2.;;;La Diversité Montréalaise à l’Épreuve de la Ségrégation : Pluralisme et Insertion Résidentielle des Immigrants Die Wohnsegregation wird in vielen Städten zu einem komplexen Phänomen, wobei es wichtig wird, methodische Ansätze zu verwenden, die es erlauben, dieser Komplexität Rechnung zu tragen. Dieser Artikel präsentiert eine Fallstudie der Situation in Montreal unter Verwendung einer Methode, die Segregation entlang von fünf Dimensionen beschreibt, die von Massey und Denton identifiziert wurden (Social Forces 67:281–315, 1988): Gleichheit, Konzentration, Aggregation, Exposition und Zentralisierung sowie eine Menge von fünfzehn Segregationsindizes und sieben Variablen, die die Einwanderungsbevölkerung beschreiben. Die Ergebnisse zeigen, dass Montreal 2001 als multikulturelle Stadt erschien, die durch eine Vielzahl von Einwanderungsmustern der Einwanderung in die Städte gekennzeichnet war.;-;-;-;https://link.springer.com/article/10.1007/s12134-007-0004-1 eebb983d809918455d164604bb200561;de;;;4.2.;;;Kommunizieren Kommunikation ist ein offensichtlicher Bereich des politischen Marketings, aber sie überschneidet sich auch mit anderen Bereichen wie gezielter Kommunikation, Kommunikation von Produktänderungen und E-Marketing. Politiker kommunizieren ständig, nicht nur bei Wahlen und nicht nur um eine Wahl zu gewinnen, sondern um das Image eines Kandidaten oder politischen Führers zu verbessern, etwas klarer zu machen, negativen Angriffen der Opposition entgegenzuwirken, Wähler aufzuklären und zu informieren, Unterstützung für ein bestimmtes Stück zu gewinnen oder zu erhöhen Gesetzgebung, setzen Sie ein Thema auf die Tagesordnung und erhöhen Sie die Unterstützung für einen Referendumsvorschlag. Ihr Zweck bestimmt daher, wie und wann sie durchgeführt wird. In diesem Kapitel werden die Gesamtstrategie und die Kommunikation erörtert. Anschließend werden mithilfe von Kommunikation bestimmte Ziele erreicht, z. B. Kommunikation komplexer Richtlinien, Verkaufspolitik, Kommunikation einer Führungspersönlichkeit, Kommunikation von Produktänderungen oder Neupositionierung und Wahlkampf (GOTV) und Wahlkampf. und schauen Sie sich dann verschiedene Tools und Techniken an, wie z. B. Werbung, gezielte Kommunikation, Wettbewerbskommunikation, empfängerorientierte Kommunikation, E-Marketing, die Notwendigkeit einer authentischen Kommunikation, das Management interner Beziehungen, das Management der Medienbeziehung sowie Kommunikationsberater und Kunden.;-;-;-;https://link.springer.com/chapter/10.1057/9780230299511_6 ebd4a7eaa519fbc84106e0e1fba62512;de;;;4.2.;;;Erkennung von Beleidigungen in Kommentaren in sozialen Netzwerken mit einem possibilistisch basierten Fusionsansatz Dieses Papier zielt darauf ab, einen neuen Ansatz vorzuschlagen, um verbale Beleidigungen in Kommentaren in sozialen Netzwerken automatisch zu erkennen. Es basiert auf einem lokalen Ansatz, der die Fusionsmethode an verschiedene Regionen des Merkmalsraums anpasst, um Kommentare aus sozialen Netzwerken als Beleidigung zu klassifizieren oder nicht. Der vorgeschlagene Algorithmus wird mathematisch durch die Minimierung einer Zielfunktion formuliert. Es kombiniert Kontextidentifikation und multialgorithmische Fusionskriterien zu einer gemeinsamen Zielfunktion. Diese Optimierung soll Kontexte als kompakte Cluster in Unterräumen des hochdimensionalen Merkmalsraums durch possibilistisches unüberwachtes Lernen und Merkmalsgewichtung erzeugen. Unsere ersten Experimente haben gezeigt, dass der vorgeschlagene Fusionsansatz individuelle Klassifikatoren und die globale Fusionsmethode übertrifft. Um die erhaltenen Ergebnisse zu validieren, haben wir auch die Leistung des vorgeschlagenen Ansatzes mit verwandten Fusionsmethoden verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10509-3_2 4331b22ed8b086e03d7ee31d1283302f;de;;;5.2.;;;Integrieren von Orientierungspunkten mit Qualitätsmaßstäben in Routing-Verfahren In diesem Beitrag stellen wir einen Ansatz zur Bereitstellung von Landmarken-basierten Routen unter Verwendung eines Shortest-Path-Algorithmus vor. Wir gehen davon aus, dass an einer Kreuzung mehrere Orientierungspunkte zur Auswahl stehen können, um eine optimale Routenbeschreibung zu finden. Die zur Beschreibung der Route verwendete Landmarkenauswahl wird unter Berücksichtigung der Gütemaße für die Landmarken optimiert. Daher ist es notwendig, Qualitätsmaßnahmen zu definieren. In der Arbeit werden verschiedene Arten von Qualitätsmaßen vorgestellt und deren Integration in den Routengraphen sowie in einen Routingalgorithmus vorgestellt. Die Anwendbarkeit des Ansatzes wird anhand von Testdaten demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/11863939_5 5f50bc2b8a4276ebda05cbf620d4ef05;de;;;4.2.;;;Soziale Perspektiven auf die Gefahren von Kometen-/Asteroideneinschlägen (CAI): Technokratische Autorität und die Geographie sozialer Verwundbarkeit Bis vor kurzem konzentrierte sich die Forschung zu Kometen- und Asteroidengefahren darauf, das Ausmaß und den Umfang vergangener Einschläge, glaubwürdige Schätzungen ihres Wiederauftretens und Modelle für physikalische Einschlagsszenarien zu ermitteln. Wenn noch viel zu tun ist, scheint die Bedrohung überzeugend demonstriert zu sein. CAI-Gefahren haben sich weit über den Bereich unbegründeter Spekulationen und apokalyptischer Visionen hinaus entwickelt. Die Ergebnisse sind mehr als nur neue Erkenntnisse. Sie revolutionieren einige grundlegende Erkenntnisse über die Erde, ihre Geschichte, biologische Evolution und Zukunft oder stehen kurz davor, sie zu revolutionieren. Obwohl das menschliche Leben bisher einen winzigen Platz in der Geschichte eingenommen hat, scheint unser längerfristiges Schicksal von diesen Kräften herausgefordert und von ihnen entschieden zu werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-32711-0_24 5cd2f300673e3813d5418ba9dffa8cfa;de;;;4.2.;;;Angebotsmuster von Idolen bei der selbstbewussten Wiederherstellung der nationalen Kultur Die Kosten der Informationskommunikation sind im Informationszeitalter so niedrig, dass Idole mit einer langen Geschichte des moralischen Erziehungsmodus schnell von dem traditionellen und einzelmachtorientierten Muster zu der Struktur wechseln, die den Machtführungsmodus und den sozialen Führungsmodus kombiniert. Das Angebotsmuster der Idole, das vom Machtführungsmodus dominiert wird, und der andere Mustereffekt begegnen den beispiellosen Herausforderungen und den enormen Störungen, die das gesellschaftsorientierte Angebotsmuster für Idole mit sich bringt. Und sie konkurrieren beide um die begrenzte Theorie und den führenden Raum, die sich auf ihr Überleben auf derselben Technologieplattform beziehen. Unter der neuen Situation durchläuft unser Kulturfeld umfassende und tiefgreifende Veränderungen. Und die Förderung der kulturellen Entwicklung und des Wohlstands hat viele günstige Bedingungen und sieht sich auch einer Reihe neuer Bedingungen und Probleme gegenüber. Wir müssen also das Angebotsmuster für Idole in vielerlei Hinsicht perfektionieren, damit wir unser nationales kulturelles Selbstbewusstsein wieder aufbauen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34038-3_112 bc3234f5b67dab7d7e4ddb749142e0b1;de;;;4.2.;;;Initiativen zur Inklusion von Open-Source-Software-Communitys zur Unterstützung der Beteiligung von Frauen Dieses Papier konzentriert sich auf die Inklusionsinitiativen von Open Source Software (OSS) Communities, um Frauen zu unterstützen, die an ihren Online-Communities teilnehmen. In den letzten Jahren haben Medien und Forschung die negativen Erfahrungen von Frauen mit OSS hervorgehoben und wir glauben, dass dies für die Frauen von OSS schädlich sein könnte. Daher haben wir in dieser Studie auf der Forschung aufgebaut, die den Wert von Verhaltenskodizes für Minderheiten in einer Online-Community zeigt. Darüber hinaus konzentrieren wir uns in OSS auf reine Frauenbereiche, da frühere Forschungen zu Frauen und IT zeigen, dass Frauen bessere Leistungen erbringen, wenn sie Verbindungen und Mentoring-Netzwerke mit anderen Frauen aufbauen können. Wir untersuchten 355 OSS-Websites auf Präsenz von Räumen nur für Frauen und suchten, sammelten und analysierten die Verhaltenskodizes auf den Websites dieser OSS. Qualitative Inhaltsanalysen der Websites zeigen, dass nur 12 von 355 Websites reine Frauenbereiche haben. Weniger als zehn Prozent (28) der analysierten Websites verfügten über einen Verhaltenskodex.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20883-7_7 9b091daa70992ed8314b27b7648a3ff0;de;;;4.2.;;;Eine grundlegende Definition des Mega-Infrastrukturbaus Ein Konzept ist eine allgemeine Idee oder eine Zusammenfassung von etwas oder bestimmten Prozessen. Als solche nimmt es im Kopf Gestalt an, wenn sich der Einzelne mit einem bestimmten Problem befasst. Ein Konzept kann eine Abstraktion des Wesens und der Eigenschaften eines untersuchten Themas sein, oder es kann die Abgrenzung des Umfangs sein, in dem eine Forschungsfrage diskutiert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-61974-3_1 203b670cda17472ad3a74114933d6837;de;;;4.2.;;;Entwicklung von Unterstützungssystemen für das Risiko- und Umweltmanagement Das Management von Risiken aus Gefahrstoffen ist ein komplexes Thema, an dem viele Akteure auf lokaler, nationaler und internationaler Ebene beteiligt sind. Die Komplexität hat zur Entwicklung von Entscheidungsunterstützungssystemen geführt. Entscheidungsunterstützungssysteme können auf verschiedene Weise klassifiziert werden, beispielsweise in Verbindung mit der Anzahl der Benutzer, der Anzahl der Entscheidungskriterien und der Anwendungsdomäne. Die allgemeine Struktur eines multikriteriellen Entscheidungsunterstützungssystems wird diskutiert und die Schlüsselfrage zur Konstruktion von Entscheidungsalternativen untersucht, zusammen mit einer kurzen Beschreibung von zwei kürzlich entwickelten Systemen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-0245-2_3 89e830503b8c8072b8562c6ada133c0b;de;;;4.2.;;;Mediation und virtuelle Lernumgebungen Die in den letzten Jahren durchgeführten Forschungen zur Lehrer-Schüler-Pädagogik-Beziehung haben übereinstimmend festgestellt, dass ein Lernmodell, das sich auf die soziale Interaktion der lernenden Individuen konzentriert, in ihrer Entwicklung viel effektiver ist. Wir können daher sagen, dass das interaktive Modell im Lehr-Lern-Prozess von größter Bedeutung ist, wobei die Vermittlung durch den Lehrer, durch einen erfahreneren Kollegen, durch einen Erwachsenen oder durch pädagogische Multimedia-Programme im Mittelpunkt steht. Somit kann und sollte die Rolle des Mediators als Vermittler des Wandels betrachtet werden, insofern der Lernende durch diese Mediation dem Lernen von Strategien und deren Nützlichkeit Bedeutung verleihen kann. Wie soll der Lehrer/Mediator diese Funktion in virtuellen Lernumgebungen bewältigen? Wie lassen sich die Interaktionen definieren? Oder darüber hinaus, welche Vermittlungsstrategien können und sollen umgesetzt werden? Diese Reflexion beschäftigt sich mit der Spannung zwischen Lehrer, Schüler, Wissen und der Harmonie, die durch die pädagogische Vermittlungsarbeit erzeugt wird;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16419-4_38 78329ab17e5016237f0ec640d8ff3819;de;;;5.2.;;;Der Einfluss der Medien darauf, wie positive, negative und neutral kommunizierte Auswirkungen einseitige Zugeständnisse bei Verhandlungen beeinflussen In der Online-Umgebung werden Audio- und Instant-Messaging-Medien (IM) ziemlich häufig von Menschen verwendet, um miteinander zu kommunizieren und während der Verhandlungen Angebote zu machen. Wir wissen zwar viel darüber, wie sich IM und Audio unterscheiden, aber wir wissen nur sehr wenig darüber, wie günstige Angebote für den Empfänger (sogenannte einseitige Zugeständnisse) davon beeinflusst werden, was und wie Menschen über diese Medien kommunizieren. Der Zweck dieser Studie ist zweierlei – (1) zu untersuchen, wie solche Zugeständnisse durch eine neutrale, positive oder negative Kommunikation beeinflusst werden, und (2) zu bestimmen, wie der Gebrauch von IM im Verhältnis zum Gebrauch von Audio, beeinflusst die Auswirkungen dieser Kommunikationsformen auf einseitige Zugeständnisse. Wir entwickeln ein Forschungsmodell basierend auf der prosozialen Theorie, das darauf hindeutet, dass Verhandler, die Audio verwenden, dazu neigen, die Motivationen und Verhaltensweisen ihrer Partner in einem positiven (prosozialen) Licht zu interpretieren, während Verhandler, die IM verwenden, dazu neigen, die Motivationen und Verhaltensweisen ihrer Partner negativ zu interpretieren (konkurrenzfähiges) Licht. Wir manipulieren die Verwendung von IM und Audio in einem Experiment, mit dem Vorhersagen basierend auf dieser Theorie getestet werden sollen. Unsere Arbeit liefert theoretische und empirische Unterstützung für die Idee, dass andere Kommunikationen als Zugeständnisse (wie positiver, neutraler und negativer Affekt) je nach verwendetem Medium zu mehr oder weniger Selbstaufopferung führen können und damit Verhandlungsführer zu mehr oder weniger zu motivieren einseitige Zugeständnisse. Insbesondere haben wir festgestellt, dass (1) Kommentare mit positivem Affekt einseitige Zugeständnisse unabhängig vom verwendeten Medium der Verhandlungspartner erhöhen können, (2) Kommentare mit neutralen Affekten einseitige Zugeständnisse erhöhen können, wenn Verhandlungspartner Audio verwenden, jedoch nur geringe Auswirkungen haben, wenn sie IM verwenden, und (3 ) negative Affektkommentare können einseitige Zugeständnisse verringern, wenn Verhandlungsführer Audio verwenden, können jedoch einseitige Zugeständnisse erhöhen, wenn sie IM verwenden. Diese Ergebnisse liefern Erkenntnisse für Forscher und praktische Leitlinien für Verhandlungsführer.;-;-;-;https://link.springer.com/article/10.1057/ejis.2016.4 867a6bc005d3ec309d91d63baccd0e2e;de;;;5.2.;;;Die Rolle und der Einfluss der Programmbeauftragten der us National Science Foundation bei der Prüfung und Vergabe von Stipendien Die Praxis der NSF, sich auf wissenschaftlich qualifizierte Programmdirektoren, einige von ihnen „Rotatoren“ aus Universitätslabors zu verlassen, um Empfehlungen zur Vergabe von Zuschüssen unabhängig von externen Gutachtern abzugeben, unterscheidet sich deutlich von der Praxis in Australien, Großbritannien und Kanada und in anderen US-Behörden wie die National Institutes of Health. Ich werde die Merkmale der NSF-Zuschussverwaltungspraktiken im Kontext des US-amerikanischen Bundesforschungssystems diskutieren, mit besonderem Schwerpunkt auf den Vorteilen und Problemen, die sich aus relativ mächtigen Programmdirektoren ergeben, und die 1990 begonnene Praxis der Genehmigung jedes Programms bewerten Direktor, eine begrenzte Anzahl kleiner Zuschüsse für Sondierungsarbeiten ohne externe Begutachtung zu gewähren.;-;-;-;https://link.springer.com/article/10.1007/BF01383573 25ca690cb16fef9915be74a92e22415f;de;;;4.2.;;;FLEXIBLE ZEITNUTZUNG, UM ZWÄGE ZU ÜBERWINDEN Flexibilität ist oft ein Stichwort für Menschen, die in projektorientierten Organisationen arbeiten. Es beeinflusst definitiv ihren Alltag, da von ihnen erwartet wird, dass sie jederzeit und überall und oft mit unterschiedlichen Verpflichtungen verfügbar und engagiert sind. Es gibt jedoch Einschränkungen, die die Möglichkeiten der Menschen in jedem spezifischen Zeit-Raum einschränken. Die zeitgeografische Perspektive bietet Konzepte zur Analyse von Beschränkungen, indem sie Folgendes identifiziert: Kapazitäts-, Kopplungs-, Steuerungs- oder Autoritätsbeschränkungen. Ziel dieser Arbeit ist es, das zeitgeografische Konzept von Beschränkungen zu diskutieren und zu analysieren, wie diese durch eine flexible Zeitnutzung überwunden werden. Die Arbeit basiert auf zwei Feldstudien. Die erste wurde in zwölf Haushalten durchgeführt und beinhaltete zwei Mal Tiefeninterviews und zwischendurch führten die Haushaltsmitglieder während einer Woche Zeittagebücher. Die zweite war umfangreicher. Befragt wurden zwei Fokusgruppen mit jeweils 24 Personen, die alle Zeittagebücher geschrieben hatten. Die Schlussfolgerung dieser Studien ist, dass unterschiedliche Formen von Beschränkungen das Ergebnis von Flexibilität definieren und dass die Nutzung von Zeit ein Ausdruck von Macht sein kann.;-;-;-;https://link.springer.com/chapter/10.1007/11402985_1 d1196ec27731a111cd08e3dccf0a3400;de;;;4.2.;;;PCR-Nachweis von Das Vorhandensein von Listeria monocytogenes in 225 natürlichen Proben, einschließlich verschiedener Lebensmittelarten, wurde mit drei Methoden untersucht: (i) kulturbasiertes Standardverfahren ISO 11290-1, (ii) Mini-VIDAS (Vitek Immuno Diagnostic Assay System) LMO, und enzymgebundener Fluoreszenzassay (ELFA), der im Handel erhältlich ist, und (iii) PCR unter Verwendung eines zuvor etablierten Verfahrens. Die Identifizierung der mit der Standardmethode und Mini-VIDAS gewonnenen Isolate auf selektiven Oxford- und PALCAM-Platten wurde unter Verwendung des API-Lis-Systems und auch durch PCR unter Verwendung von L. monocytogenes-spezifischen Primern durchgeführt. Insgesamt waren 65 Proben (64 Fleischprodukte und ein Räucherlachs) bei jedem der drei untersuchten Verfahren positiv. Unter Berücksichtigung der Ergebnisse auf Basis der PCR-Identifikation wurden mit der kulturbasierten Standardmethode 22 und mit dem Mini-VIDAS 23 gefunden, während die PCR 60 positive Proben in insgesamt 225 Lebensmittelproben nachgewiesen hat. Zu Vergleichszwecken wurde als Referenz ein Set „bekannter positiver Proben“ erstellt, das 33 natürliche Proben umfasste, aus denen L. monocytogenes-Isolate (identifiziert durch spezifische PCR) gewonnen wurden. Die Methoden Mini-VIDAS und ISO 11290-1 waren gleich empfindlich. Im Vergleich zu ihnen war die PCR eindeutig das genauere und effizientere Verfahren zum Nachweis von L. monocytogenes in Lebensmitteln. Darüber hinaus zeigte es keine falsch negativen Ergebnisse. Der PCR-Ansatz kann in 48 Arbeitsstunden durchgeführt werden und könnte aufgrund seiner Spezifität möglicherweise billiger sein als die anderen beiden Verfahren. Daher empfehlen wir die PCR für den routinemäßigen Nachweis von L. monocytogenes in Lebensmitteln.;-;-;-;https://link.springer.com/article/10.1007/s00003-006-0019-0 c4e13c06ceb94a7f3574a47df7c4bac0;de;;;4.2.;;;Seelsorge in einer sesshaften Gemeinschaft Ein Großteil der Literatur zur Seelsorge wurde vor dem Hintergrund einer anonymen, sich verändernden, technologischen und urbanen Gemeinschaft geschrieben. Den hohen Stellenwert dieses Beratungsverständnisses für Beziehungsaufbau, Vertraulichkeit, Informationsgewinnung durch Fragen und die erforderliche lange Ausbildung stellt der Autor dem Verständnis dieser Sachverhalte aus der Sicht einer sesshafteren Gemeinschaft gegenüber, die von Langfristigkeit geprägt ist Beziehungen, eingeschränkte Vertraulichkeit und die gegenseitige Unterstützung von Laien. Er geht auf den Rollenwandel des Pastors in diesem Setting ein und beschreibt einen Ansatz zur Ausbildung von Laien in der Übernahme seelsorgerlicher Verantwortung.;-;-;-;https://link.springer.com/article/10.1007/BF01759739 95949a7c2aeed469002cbbcd9a3aca19;de;;;4.2.;;;IKT und Kreativwirtschaft: Eine Analyse von Technologie- und Industrieunternehmen 4.0, Fall Bogota-Kolumbien In Kolumbien, Kreativ- und Kulturwirtschaft ist in einem Sektor genannt orange Economy gruppiert, die Branchen wie Technologie vereint, Software-Entwicklung, IT-Dienstleistungen. Diese Unternehmen werden durch Gesetze gefördert, die ihr Wachstum und Expansion sowie den Beitrag der ausländischen Investitionskapital begünstigen. Als Ergebnis der Analyse wird nicht nur die Auswirkungen auf das BIP des Landes belegt, aber das Auftreten neuer Geschäftsideen in der Industrie 4.0. Diese Forschung Vorschlag soll durch Dokumentenanalyse und statistische Analyse der wirtschaftlichen Auswirkungen zeigen, dass Technologie-Unternehmen der Ordnung 4.0 in der Stadt Bogota generiert haben, mit ihren Produkten auf den internationalen Märkten ankommen so groß wie die USA und Spanien verlangen, all dies aufgrund IKT und ihre Teilnahme an diesem Prozess. Als Ergebnis ist es, dass nicht nur die Investition in Geld ist notwendig gefunden, aber das Humankapital und dessen Herstellung begleiten den Prozess.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71503-8_6 d9f559db82b0e7a22ce231d878b3625c;de;;;5.2.;;;"Zuverlässigkeitsüberprüfung der Trefferzahlen von Suchmaschinen: So wählen Sie eine zuverlässige Trefferzahl für eine Abfrage In diesem Papier untersuchen wir die Vertrauenswürdigkeit der Trefferzahlen von Suchmaschinen, Zahlen, die als Suchergebnisse zurückgegeben werden. Da viele Studien die Trefferzahlen von Suchmaschinen verwenden, um die Popularität von Eingabeanfragen abzuschätzen, ist die Zuverlässigkeit der Trefferzahlen für die Archivierung vertrauenswürdiger Studien unabdingbar. Trefferzahlen sind jedoch unzuverlässig, da sie sich ändern, wenn ein Benutzer mehr als einmal auf die Schaltfläche ""Suchen"" klickt oder auf der Suchergebnisseite auf die Schaltfläche ""Weiter"" klickt oder wenn ein Benutzer denselben Begriff an verschiedenen Tagen abfragt. In diesem Papier analysieren wir die Merkmale des Übergangs der Trefferanzahl, indem wir verschiedene Arten von Trefferzählungen über zwei Monate mit 10.000 Abfragen sammeln. Die Ergebnisse unserer Studie zeigen, dass die Trefferzahlen mit dem größten Suchoffset kurz bevor Suchmaschinen ihre Trefferzahlen anpassen, am zuverlässigsten sind. Darüber hinaus sind die Trefferzahlen am zuverlässigsten, wenn sie über etwa eine Woche konstant sind.";-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16985-4_11 398c6815dae41aab36d1c51954db717c;de;;;5.2.;;;Die Welt insgesamt gut Wenn die Argumente der Theisten, die in Kapitel 6 diskutiert wurden, wonach etwas Böses mit der Vollkommenheit des Schöpfers dieser Welt vereinbar ist, da etwas Böses durch Bezugnahme auf das Gute gerechtfertigt werden kann, erfolgreich wären, würde das Problem des Bösen zu den verbleibenden Problemen, die in Kapitel 1, wobei sich das Hauptinteresse der Theisten und ihrer Kritiker auf Problem 2 bezüglich des tatsächlich auftretenden Bösen konzentriert. Obwohl es die erste Form des traditionellen Problems des Bösen ist, die am häufigsten als „das Problem des Bösen“ bezeichnet wird, wird dieses zweite Problem am häufigsten diskutiert und auf das die meisten der berühmten Lösungsvorschläge gerichtet worden sind. Während sich ein Teil dieses Kapitels daher auf die Möglichkeit einer Lösung des ersten Problems bezieht, wird sich der Großteil der Diskussion mit der Untersuchung von Lösungen befassen, die für das zweite Problem hinsichtlich der tatsächlichen Arten und Mengen von Böses, das in der Welt zu finden ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-0655-7_8 deb5fbbbc596ec5f8618f2156d304d7c;de;;;4.2.;;;Messung der territorialen Gerechtigkeit in der Provinz Buenos Aires (Argentinien) Bezirke mit großen urbanen Zentren zeigen die territorialen Ungleichheiten im „Stadt-Land-Kontinuum“, wo die meisten Dienstleistungen in städtischen Räumen konzentriert sind. Diese Disparitäten behindern die territoriale Gerechtigkeit, die als geografische Konfiguration verstanden wird, die allen Einwohnern die gleichen Bedingungen für den Zugang zu einer guten Lebensqualität garantiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-50540-0_12 46e44b09042f71a3cb592a0813e78a37;de;;;4.2.;;;Regionalpolitik in den baltischen Staaten Die regionale Entwicklung konzentriert sich heutzutage in erster Linie auf die lokalen Regierungen und die Interessen und Initiativen ihrer Einwohner. Nach dem Beitritt zur Europäischen Union wird die Rechtsgrundlage für die Regionalentwicklung in den baltischen Staaten von der EU-Regionalpolitik bestimmt. Daher haben sich die Länder der Europäischen Union ihrer Souveränität angeschlossen, um Macht und Einfluss auf die Welt zu erlangen – etwas, das sie alleine nicht hätten erreichen können. Konkret bedeutet die gemeinsame Souveränität, dass die Mitgliedstaaten einen Teil ihrer Entscheidungsbefugnisse an verschiedene von den Mitgliedstaaten eingerichtete Einrichtungen delegieren, um sicherzustellen, dass die auf europäischer Ebene getroffenen Entscheidungen Demokratie und gemeinsame Interessen gewährleisten. Das wichtigste Instrument zur Umsetzung der Regionalpolitik in den EU-Mitgliedstaaten sind die Strukturfonds der Europäischen Union.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23062-2_53 5c1bde87991c3b02b23fca5e3874e7f3;de;;;4.2.;;;Mit Mord davonkommen: Warum virtueller Mord in MMORPGs aus Kantischen Gründen falsch sein kann Ali (Ethics and Information Technology 17:267–274, 2015) und McCormick (Ethics and Information Technology 3:277–287, 2001) behaupten, dass virtuelle Morde verwerflich sind, wenn sie unangemessenes Engagement für das Spiel oder schlechten Sportsgeist zeigen. McCormick argumentiert, dass solche virtuellen Morde nicht sein können;-;-;-;https://link.springer.com/article/10.1007/s10676-019-09498-y ca35ddb2c931dcfc1def64a1634af5a6;de;;;4.2.;;;Ein Bild erstellen Dieses Kapitel untersucht, wie sich Bäcker der Öffentlichkeit präsentierten und wie sie nicht nur eine kollektive Identität, sondern auch eine gemeinschaftliche Ideologie konstruierten. Kapitel Sechs stützt sich stark auf die Ikonographie, die von kommerziellen Bäckern für ihre Gräber, Ladenschilder und persönlichen Gegenstände in Auftrag gegeben wurde. In der Vergangenheit wurde eine solche Ikonografie vor allem als Dokumentation der Werkstatttätigkeit gelesen, tatsächlich sind diese Bilder jedoch visueller Ausdruck dafür, wie die Bäcker wahrgenommen werden wollten, was sie an ihrem Beruf schätzten und ihren Anspruch an sich selbst und ihre Nachkommen. Als solche bieten sie einzigartige Beweise, nicht für das, was Bäcker taten oder wie sie lebten, sondern für das, was sie glaubten. Im Allgemeinen betonten Bäcker einheitlich Vertrauenswürdigkeit und Qualitätsarbeit, aber auch Geschäftsleute wie Eurysaces in Rom betonten ihre indirekte Beteiligung, indem sie Ausbildung und Management hervorhoben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-46604-6_6 9b0fc0121c00d912506db9bb1fcc3cbc;de;;;5.2.;;;Ein SE-Baum-basierter Algorithmus zur Erzeugung von Primimplikanten Primimplikanten/Implikate (PIs) haben sich in mehreren Problembereichen als nützliches Werkzeug erwiesen. Bei der modellbasierten Diagnose (MBD) haben de Kleer et al. (Proc. AAAI-90) haben PIs verwendet, um Diagnosen zu charakterisieren. Wir präsentieren einen PI-Generierungsalgorithmus, der zwar auf dem;-;-;-;https://link.springer.com/article/10.1007/BF01530750 3aa453573e0ca9b45fedd179e16fd4dd;de;;;5.2.;;;Doppelepochenalgorithmus bei der schnellen Positionsbestimmung mit Einzelfrequenz-GPS-Empfängern Ein neuer Algorithmus, der als Double-Epoch Algorithm (DEA) bezeichnet wird, wird in diesem Artikel für die schnelle GPS-Positionierung unter Verwendung von zwei Epochen-Einzelfrequenz-Phasendaten vorgeschlagen. Zunächst wird die Strukturcharakteristik der Normalmatrix bei der GPS-Schnellortung analysiert. Dann wird im Lichte der Charakteristik, basierend auf dem TIK-HONOV-Regularisierungstheorem, ein neuer Regularisierer entworfen, um den schlechten Zustand der normalen Matrix zu mildern. Die genauen Float-Ambiguity-Lösungen und ihre MSEM (Mean Squared Error Matrix) werden unter Verwendung von zwei Epochen-Einzelfrequenz-Phasendaten erhalten. In Kombination mit der LAMBDA-Methode kann DEA die ganzzahligen Mehrdeutigkeiten korrekt und schnell korrigieren, indem MSEM anstelle der Kovarianzmatrix der Mehrdeutigkeiten verwendet wird. Im Vergleich zu den traditionellen Methoden kann DEA die Effizienz bei der schnellen Positionierung deutlich verbessern. Somit bietet der neue Algorithmus umfassende Anwendungsperspektiven in der Deformationsüberwachung, pseudokinematischen Relativpositionierung und Lagebestimmung usw.;-;-;-;https://link.springer.com/article/10.1007/BF02828553 1a8e2912ccdbe38c0dce454d59e65803;de;;;5.2.;;;Stabilitätsanalyse Die Stabilitätsanalyse beruht auf den gleichen mathematischen Konzepten, unabhängig davon, ob sich das System in einem offenen oder geschlossenen Kreislauf befindet. Natürlich werden Funktionen, Variablen, Matrizen usw., die Gegenstand der Untersuchung sein werden, unterschiedlich sein. Die Fälle linearer und nichtlinearer Systeme werden getrennt untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-3848-8_3 74c41c0f1fe81585b13f9d53923ac68d;de;;;5.2.;;;Körper, Geist und Ordnung: Lokales Gedächtnis und die Kontrolle mentaler Repräsentationen in den Selbstwissenschaften des Mittelalters und der Renaissance Die historische Kognitionswissenschaft arbeitet zwischen zwei Projekten. Eine ist die Analyse anderer und älterer Theorien des Geistes, wie sie sich auf aktuelle Ansätze beziehen und sich von ihnen unterscheiden und welche vergessenen oder vernachlässigten Erklärungen sie in den Fokus rücken. Die andere, die sich eher auf kognitive Praktiken als auf Theorien bezieht, ist die Aufgabe herauszuarbeiten, wie solche Ansichten über Geist und Selbst unterschiedliche historische Formen geistiger Aktivität widerspiegeln oder teilweise verursachen. Das heikle Gleichgewicht, das aufrechtzuerhalten ist, besteht darin, die Plastizität der menschlichen Kognition zuzulassen, die anthropologische und historische Daten nahelegen können, und dennoch nicht nur bewusst, sondern eingebettet in die Vielfalt der Ansätze zeitgenössischer Theorien des Geistes zu bleiben, um die Geschichte wirksam zu machen und im wachsenden interdisziplinären Umfeld einsetzbar. In bestimmten Bereichen wie visuelle Wahrnehmung, Träume, Emotionen, induktives Denken oder (wie hier) Gedächtnis und Lernen lassen sich die wechselnden Interdependenzen von Kognition und Kultur aus zwei Richtungen verfolgen. Erstens können Spannungen zwischen sozialen oder moralischen Normen und theoretischen Verpflichtungen in Bezug auf Körper, Gehirn und Geist in vielen Perioden angegangen werden, dann kann eine selbstbewusstere präsenzzentrierte Untersuchung innerhalb der Kognitionswissenschaft polemisch die zusätzliche Breite und Kontextsensitivität nutzen , und Aufmerksamkeit auf Diskontinuität, die historische Arbeit erfordert.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-9478-3_4 ab18fe72254ae3cef29d5b370bba2923;de;;;5.2.;;;Hybrider Fledermausalgorithmus mit künstlicher Bienenkolonie In diesem Beitrag wird ein Hybrid zwischen Bat-Algorithmus (BA) und Artificial Bee Colony (ABC) mit einer Kommunikationsstrategie zur Lösung numerischer Optimierungsprobleme vorgeschlagen. Die schlechtesten Fledermäuse in BA werden nach jedem Durchlauf durch die besseren künstlichen Agenten im ABC-Algorithmus ersetzt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07773-4_5 e1f52f1e479fce40208fd6d78ad0159d;de;;;4.2.;;;Ein unsicheres Programmiermodell zur Optimierung der Landnutzungsstruktur zur Förderung der Effektivität der Landnutzungsplanung Die Optimierung der Landnutzungsstruktur (LUSO) ist ein wichtiges Thema der Landnutzungsplanung. Damit die Flächennutzungsplanung eine angemessene Flexibilität hat, sollte für LUSO eine unsichere Optimierung angewendet werden. In dieser Arbeit erläuterte der Forscher zunächst die Unsicherheiten von LUSO. Darauf aufbauend wurde ein Intervallprogrammierungsmodell entwickelt, dessen Intervallvariablen Landnutzungsunsicherheiten enthalten sollten. Um das Modell zu lösen, wurde eine Heuristik basierend auf einem genetischen Algorithmus nach dem Pareto-Optimum-Prinzip mit einem Konfidenzintervall unter einem gegebenen Signifikanzniveau entworfen, um das LUSO-Ergebnis darzustellen. Die vorgeschlagene Methode wurde auf einen realen Fall von Yangzhou, einer Stadt im Osten Chinas, angewendet. Es wurden folgende Schlussfolgerungen gezogen. 1) Verschiedene Formen von Unsicherheiten, die von Gewissheit bis Unbestimmtheit reichten, liegen in den fünf Schritten von LUSO, was darauf hindeutet, dass ein umfassender Ansatz erforderlich ist, um sie zu quantifizieren. 2) In Bezug auf Kompromisse zwischen Zielkonflikten und Präferenzen gegenüber Unsicherheiten zeigte unser vorgeschlagenes Modell eine gute Fähigkeit, den Planungsentscheidungsprozess transparent zu machen, und bietet somit ein wirksames Werkzeug für die Erstellung einer flexiblen Landnutzungsplanung. 3) Unter unsicheren Bedingungen kann die Effektivität der Landnutzungsplanung vor allem durch flexibles Management mit reserviertem Raum zum Wahrnehmen und Vorhalten von Unsicherheiten erhöht werden.;-;-;-;https://link.springer.com/article/10.1007/s11769-017-0896-4 3d0f8e7d1b3f089feda92891e29aedd0;de;;;4.2.;;;Der brüchige Frieden Was macht manche Friedensprozesse haltbarer als andere? Bei der Beantwortung dieser Frage sind zwei Überlegungen relevant. Die erste ist die Beobachtung, dass die größte Veränderung in der Entwicklung des südafrikanischen Staates im Laufe des 20. Jahrhunderts zwischen 1986 und 1994 stattfand, als sein Gewaltmonopol gebrochen wurde.;-;-;-;https://link.springer.com/chapter/10.1057/9780230509658_8 1b635d3a2671b1c910130fa8f88aba85;de;;;5.2.;;;Formaler Dialog und seine Anwendung auf die Teambildung im kooperativen Design Dieser Beitrag stellt ein Modell des formalen Dialogs zwischen intelligenten und autonomen Agenten und seine Anwendung auf die Teambildung im kooperativen Design vor. Mittels formeller Dialoge tauschen Agenten Informationen über ihr Fachgebiet, ihre Fähigkeiten, Möglichkeiten und ihre Bereitschaft aus. Agenten verstehen sich zu einem potentiell kooperativen Team, in dem gemeinsame Überzeugungen und Absichten geschaffen werden. Die kooperativen Aufgaben können innerhalb des kollaborativen Teams ausgeführt werden und vermeiden die Blindheit bei der Aufgabenzerlegung und -verteilung, wie sie normalerweise in kooperativen Entwurfssystemen auftritt.;-;-;-;https://link.springer.com/chapter/10.1007/11568421_14 ce42a40ba25b6d30b5f2a8379ee9648c;de;;;5.2.;;;Hinterhältige Chatbots - Interaktive Malware mit einem Plot Viele Social Robots in Form von Conversation Agents oder Chatbots wurden in den letzten Jahren praktisch eingesetzt. Ihre typischen Rollen sind Online-Hilfe oder die Rolle eines Cyber-Agenten, der eine Organisation vertritt. Es gibt jedoch eine neue Form von hinterhältigen Chatbots, die im Internet lauern. Es ist effektiv eine interaktive Malware, die versucht, ihre Beute nicht durch bösartige Angriffe, sondern mit verführerischen Gesprächen zu locken. Es spricht mit seiner Beute über denselben Kanal, der normalerweise für die Mensch-zu-Mensch-Kommunikation verwendet wird. Diese hinterhältigen Chatbots nutzen Social Engineering, um die uninformierten und unvorbereiteten Opfer anzugreifen. Diese Art von Angriffen wird mit dem Aufkommen des Web 2.0 immer allgegenwärtiger. Dieses Umfragepapier präsentiert Ergebnisse einer Untersuchung darüber, wie sich diese Art hinterhältiger Malware verbreitet und was getan werden könnte, um sie zu stoppen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03986-7_13 595aadcba707ca938b60662e1e12af61;de;;;5.2.;;;Ein Ansatz für Warum-Fragen Das Ziel dieser Arbeit ist es, eine semantische Analyse von Warum-Fragen zu geben. Warum-Fragen werden als Bitten um Wissen ausgelegt. Besonderes Augenmerk wird darauf gelegt, die Bedingungen für eine schlüssige Beantwortung bei Warum-Fragen zu berücksichtigen. Da Erklärungen oft als Antworten auf Warum-Fragen gedacht werden können, diskutieren wir auch einige Themen der Erklärungstheorie.;-;-;-;https://link.springer.com/article/10.1007/BF00869552 8409b358d3455b797ee13b634e58d46a;de;;;5.2.;;;Intervallanalyse zur Entscheidungshilfe Die Intervallanalyse zur Entscheidungshilfe basierend auf der Möglichkeitstheorie wird eingeführt. Die Intervallanalyse bietet ein neues Paradigma der Datenanalyse, das auf der Idee basiert, dass die Variabilität der Daten nicht immer durch den Fehler, sondern durch die intrinsische Vielfalt der Systemausgaben verursacht wird. Aus dieser Idee heraus wurden mehrere Methoden zur Datenanalyse vorgeschlagen und erzielten Ergebnisse aus einem anderen Gesichtspunkt als die konventionelle Analyse. Zuerst wird die Intervallregressionsanalyse kurz vorgestellt, die in zwei Fälle unterteilt wird: den Fall von scharfen Daten und den Fall von Intervalldaten. Anschließend wird die Anwendung auf den Analytic Hierarchy Process (AHP) namens Intervall-AHP beschrieben. Diese Methode kann als AHP-Gegenstück zur Intervallregressionsanalyse für scharfe Daten angesehen werden. Eine geeignete Methode für den Vergleich zwischen Alternativen wird vorgeschlagen. Die erhaltene Dominanzbeziehung zwischen Alternativen ist nicht immer eine totale Ordnung, sondern eine Vorbestellung. Schließlich wird die Erweiterung von Intervall-AHP zu Gruppenintervall-AHP beschrieben. Diese Methode kann als AHP-Gegenstück zur Intervallregressionsanalyse für Intervalldaten angesehen werden. Wir beschreiben drei Modelle der Gruppenintervall-AHP, d. h. das perfekte Inkorporationsmodell, das partielle Inkorporationsmodell und das Modell der Suche nach einem gemeinsamen Grund. In jedem Modell erhalten wir die Dominanzbeziehungen zwischen Alternativen, die normalerweise Vorbestellungen sind, aber unterschiedliche Bedeutungen haben. Die Beziehung zwischen den drei Modellen wird beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11680-8_2 e65d2fdcf286a052ef1cd563b52d66e3;de;;;5.2.;;;Multimedia-Abruf mit mehreren Beispielen Dieser Beitrag stellt eine Variante unseres generativen probabilistischen Multimedia-Retrieval-Modells vor. Die Auswertung der Sammlung TRECVID 2003 zeigt, dass die neue Variante, ein Ansatz zur Dokumentengenerierung, mit mehreren Beispielen für den Informationsbedarf geeignet ist. Darüber hinaus übertrifft die neue Variante in Kombination mit Textinformationen die ursprüngliche.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27814-6_42 73741665d01d1dc63c5ea76aa5c97223;de;;;4.2.;;;Gesundheit und Gesundheitsdienste bei den Navajo-Indianern Die Navajo sind der größte Indianerstamm in den kontinentalen USA mit einer Bevölkerung im Jahr 1986, die auf 171.097 geschätzt wurde. Die Navajo Nation (Reservation) liegt an der Grenze zwischen Arizona, New Mexico, Colorado und Utah. Während dieses Jahrhunderts haben sich unter den Navajo in rasantem Tempo soziale und wirtschaftliche Veränderungen vollzogen. Derzeit stammen die Einnahmen aus Öl, Kohle und Uran sowie aus Zuschüssen und Verträgen des Bundes. Hohe Arbeitslosenquoten sind ein großes Problem bei den Navajo.;-;-;-;https://link.springer.com/article/10.1007/BF01324239 96667d6f05cf7b71a4cc3a0017beeffa;de;;;5.2.;;;Leader-folgender Konsens von Single-Integrator-Multi-Agent-Systemen bei verrauschter und verzögerter Kommunikation Dieses Papier schlägt eine Leader-following Consensus-Steuerung für zeitkontinuierliche Single-Integrator-Multi-Agent-Systeme mit multiplikativem Messrauschen und Zeitverzögerungen unter gerichteten festen Topologien vor. Jeder Agent im Team erhält ungenaue Informationszustände, die durch Geräusche von seinen Nachbarn und vom Leiter verfälscht werden. Diese Geräusche hängen von den relativen Zustandsinformationen der Agenten ab. Darüber hinaus werden auch die empfangenen Informationszustände durch konstante oder zeitlich veränderliche Verzögerungen verzögert. Ein Analyse-Framework basierend auf Graphentheorie und stochastischen Werkzeugen wird befolgt, um Bedingungen abzuleiten, unter denen der Tracking-Konsens einer konstanten Referenz im mittleren Quadrat erreicht wird. Die Wirksamkeit der vorgeschlagenen Algorithmen wird anhand einiger Simulationsbeispiele nachgewiesen.;-;-;-;https://link.springer.com/article/10.1007/s12555-014-0262-6 a8b586c275c11a6cff5ae0af2390d0fb;de;;;5.2.;;;Fokussierter Palmtop-Informationszugriff durch Kombination von Starfield-Displays mit profilbasierten Empfehlungen In diesem Artikel werden zwei Palmtop-Anwendungen vorgestellt: Taeneb CityGuide und Taeneb ConferenceGuide. Im Mittelpunkt beider Anwendungen stehen Starfield-Displays auf Palmtop-Computern – dies ermöglicht einen schnellen, dynamischen Zugriff auf Informationen auf einer kleinen Plattform. Das Papier beschreibt die Anwendungen, die sich auf diese neuartige Palmtop-Informationszugriffsmethode und den Aspekt der Benutzerprofilerstellung des CityGuide konzentrieren, bei dem den Benutzern Restaurants aufgrund der Übereinstimmung des Restauranttyps mit den beobachteten vorherigen Interaktionen der Benutzer und der Bewertung von empfohlen werden. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gutachter mit ähnlichen beobachteten Präferenzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24641-1_7 96eb04bff4ba8a3ca486143a015b6c62;de;;;5.2.;;;Globale Kurvenanalyse über ein Dimensionalitäts-Lifting-Schema Rationale parametrische Freiformkurven und -flächen spielen seit mehreren Jahrzehnten eine wichtige Rolle im computergestützten Design. Die Fähigkeit, lokale (differentielle) Eigenschaften parametrischer Kurven zu analysieren, ist gut etabliert und wird ausgiebig genutzt. In dieser Arbeit untersuchen wir einen anderen Lifting-Ansatz für die globale Analyse von Freiformgeometrie, hauptsächlich Kurven, in;-;-;-;https://link.springer.com/chapter/10.1007/11537908_11 b968c6aee3821b813c04c791f3e59cea;de;;;4.2.;;;Panel: Nationale Erfahrungen bei der Planung strategischer Forschung Dieses Panel stützte sich auf kontrastierende Fallstudien und Erfahrungen, um zu veranschaulichen, wie vier Länder – Japan, Deutschland, Großbritannien und die Niederlande – versucht haben, das Konzept der strategischen Forschung zu definieren und umzusetzen. Hinter den offensichtlichen Variationen nationaler Erfahrungen und formaler Maschinen scheinen tiefere Übereinstimmungen in strategischen Forschungsanforderungen zu liegen, die selbst in einem auf den ersten Blick entmutigenden politischen und kulturellen Umfeld verfolgt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-2091-0_19 ded576bd24f98dbfdd609dd1bb299b80;de;;;4.2.;;;Die Informationen für den Krebspatienten: psychosoziale und spirituelle Implikationen Die Frage, ob, wie und wie viel Krebspatienten über ihre Diagnose und Prognose zu berichten ist, wird in den verschiedenen Ländern unterschiedlich behandelt. Dieses Papier spiegelt meine direkte Erfahrung als medizinischer Onkologe sowohl in den USA als auch in Italien wider. Es ist ein Versuch, zwei verschiedene Arten des Umgangs mit Wahrheitsfindung in der Onkologie zu beschreiben und deren Gründe und Konsequenzen zu erforschen.;-;-;-;https://link.springer.com/article/10.1007/BF00366901 1499e3465db61b60f8813276974752c8;de;;;4.2.;;;Herausforderungen für eine pragmatische Philosophie neuer Technologien Auf der Grundlage des „methodologischen Schema-Interpretationismus“ des Autors, der einen realistischen und einen perspektivisch-pragmatischen Ansatz verbindet, wird eine hauptsächlich an einer philosophischen Auseinandersetzung mit Naturwissenschaften und Technik orientierte Erkenntnistheorie skizziert. - Im Hauptteil werden 12 charakteristische Merkmale der Neuen Technologien vorgestellt und diskutiert, wie zB Operationalisierung, Computerisierung, Modelle und Modularität, Virtualität und Künstlichkeit, interdisziplinäre Interaktion, umfassende und komplexe Systeme, Telematisierung und Fernsteuerung, Robotik und KI-Technologie und Automatisierung sowie „Sozio-Öko-Techno-Systeme“, technologiegetriebene Globalisierung und die jeweiligen Probleme individueller und gesellschaftlicher Verantwortung. - Außerdem werden aktuelle Trends aufgelistet und zukünftige Aufgaben für die internationale ökologische Zusammenarbeit von Staaten, UN- und UNESCO-Gremien unter dringenden Leitlinien humanitärer Werte und „praktischer/konkreter Menschlichkeit“ empfohlen.;-;-;-;https://link.springer.com/article/10.1007/s10516-019-09456-9 9411e7a994c7dc47de0baa1cf8c2cdf7;de;;;4.2.;;;Vertrauens- und Multi-Agenten-Systeme: Anwendung des „diffusen Standardmodells“ des Vertrauens auf Experimente mit künstlichen Agenten Wir argumentieren, dass der Begriff des Vertrauens, wie er in einem ethischen Kontext dargestellt wird, beleuchtet werden kann, indem die Forschung zu künstlicher Intelligenz zu Multi-Agenten-Systemen untersucht wird, in denen Engagement und Vertrauen modelliert werden. Wir beginnen mit einer Analyse eines philosophischen Vertrauensmodells, das auf Richard Holtons Interpretation der Schriften von PF Strawson über Freiheit und Ressentiments basiert, und wir zeigen, warum diese Vertrauenserklärung schwer auf künstliche Agenten (AAs) sowie auf andere nicht- menschliche Wesenheiten. Anschließend untersuchen wir die Begriffe „Default Trust“ und „Default, diffuses Vertrauen“ von Margaret Urban Walker, um zu sehen, wie diese Konzepte unsere Vertrauensanalyse im Kontext von AAs beeinflussen können. Im letzten Abschnitt zeigen wir, wie Ethiker ihr Verständnis wichtiger Merkmale in der Vertrauensbeziehung verbessern können, indem sie Daten untersuchen, die aus einem klassischen Experiment mit AAs resultieren.;-;-;-;https://link.springer.com/article/10.1007/s10676-010-9249-z 2698b97f81433b9635c2c45501eef763;de;;;5.2.;;;Untersuchung der Rolle von kognitivem Feedback im praxisorientierten Lernen für die klinische Diagnostik Reflexion spielt eine wichtige Rolle für die Fähigkeit von Medizinstudierenden, diagnostische Kompetenz durch das Üben mit klinischen Fällen zu entwickeln. Allerdings ist es für Studierende nicht einfach, allein durch Selbstreflexion expertenhafte Leistung zu entwickeln, umgekehrt ist es in der Praxis unpraktisch, ständig Feedback von Experten einzuholen. Diese Studie untersucht das Design und die Auswirkungen von computerbasiertem kognitivem Feedback beim praxisorientierten Lernen in einem Online-System. Das System ermöglicht es den Lernenden, mit simulierten Fällen zu arbeiten und sich selbst zu überprüfen und ihre diagnostischen Prozesse zu reflektieren, die das System visuell erfasst. Darüber hinaus bietet das System den Lernenden Feedback über die Lücke zwischen ihrer Leistung und der Leistung der Experten in Bezug auf eine Reihe von Schlüsselkomponenten der diagnostischen Aufgabe, d. Die Ergebnisse zeigen, dass kognitives Feedback zur Aufgabenleistung die Angst und Frustration der Lernenden bei der Arbeit mit komplexen Aufgaben reduzieren kann. Darüber hinaus hat der vorgeschlagene Ansatz durch die Bereitstellung von Feedback zur Leistung der Lernenden zu einer Reihe von Schlüsselkomponenten der Aufgabe vielversprechende Auswirkungen auf die Verbesserung der diagnostischen Leistung der Lernenden gezeigt. Verglichen mit seinen Auswirkungen auf die diagnostischen Schlussfolgerungen der Lernenden ist der Ansatz effektiver bei der Verbesserung der Leistung der Lernenden bei der Auswahl klinischer Untersuchungen und bei der Zwischenbeurteilung, die beide das Verständnis der Lernenden für den dem Diagnoseprozess zugrunde liegenden Mechanismus verbessern können.;-;-;-;https://link.springer.com/article/10.1007/s12186-019-09234-z 07ffe843794d5583bee12d5530840d91;de;;;4.2.;;;Wissen, Lernen und gesellschaftlicher Wandel für Nachhaltigkeit Welche Rolle spielen Wissen, Lernen und gesellschaftlicher Wandel beim Übergang zur Nachhaltigkeit, und wie hängen diese Konzepte zusammen? Der Standpunkt, dass Einzelpersonen, Gruppen und potenzielle Gesellschaften ihren Weg zur Nachhaltigkeit lernen können, wird hier untersucht. Das Wissen und Lernen über Nachhaltigkeit führt nicht unbedingt zum Handeln, auch wenn es erwünscht ist, da die Handlungsfähigkeit von Individuen und Gruppen oft durch andere gesellschaftliche Faktoren eingeschränkt wird. Dennoch scheinen einige Arten des Lernens eher zu Veränderungen auf mehreren Ebenen zu führen als andere. In den letzten Jahren haben Forscher verstanden, wie das Lernen für Nachhaltigkeit verbessert werden kann, mit besonderem Fokus auf die Arten des sozialen Lernens, die zu kollektivem und konzertiertem Handeln führen. Es bleibt noch viel zu verstehen, wie sich diese Art des Lernens auf die gesellschaftliche Ebene auswirken könnte. Es gibt viele verschiedene Arten des Wissens und Lernens, und es ist wichtig, diese und ihre Rollen zu erkennen, um zu verstehen, was in einer bestimmten Situation am relevantesten ist.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-94-007-5784-4_64 8760e867eb7021f72e5ee415ec8ecd64;de;;;4.2.;;;Das US-Energieministerium und das Kohlendioxidproblem Ein umfassendes Forschungsprogramm, das sich mit den ökologischen und gesellschaftlichen Auswirkungen steigender Kohlendioxidkonzentrationen in der Atmosphäre befasst, wird vom US-Energieministerium entwickelt. Das Programm wird, wenn es vollständig umgesetzt ist, eine Kooperation mit anderen US-Behörden wie der National Oceanic and Atmospheric Administration und der National Science Foundation, mit dem US National Climate Program Office und mit einer Vielzahl anderer nationaler und internationaler Organisationen sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-9111-8_11 67cc97d18a35bbe3b41402978574d2b5;de;;;4.2.;;;Die Räumlichkeiten des Autors Versuche, über die Theorie und Behandlung jeglicher emotionaler Dysfunktion zu schreiben, erfordern, dass der Autor seine Überzeugungen und die des Patienten einführt. Anstatt diese Prämissen im Text erscheinen zu lassen, ist es am besten, sie gleich zu Beginn aufzuzählen, damit der Leser ihren Einfluss auf ein bestimmtes Thema abwägen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-2295-5_1 ba416b716795f25f2ff32bde7d3da0eb;de;;;4.2.;;;Altenpflege in nordamerikanischen ismā'ĪlĪ-Familien: Eine vorläufige Untersuchung Die KhŌja Ismā'ĪlĪs, sozial und geografisch mobile NĪzarĪ ShĪ'Ītes, die Anhänger des Aga Khan sind, sind in den letzten Jahren aus Süd- und Zentralasien und Afrika in viele urbane Gebiete Nordamerikas eingewandert. Zahlreiche kulturelle, geografische und sozioökonomische Faktoren bestimmen die Art und Weise, wie über 4.500 Ismā'ĪlĪ-Haushalte mit der informellen Langzeitpflege alternder Eltern umgehen. Fallbeschreibungen veranschaulichen einige KhŌja Ismā'ĪlĪ-Pflegestrategien für ältere Menschen mit Migrationshintergrund sowie die besonderen einschränkenden und ermöglichenden Erwägungen, mit denen Ismā'ĪlĪ-Familien bei der Koordinierung, Planung und Bereitstellung von Pflege für ihre älteren Menschen zurechtkommen müssen. Schließlich beschreibe ich eine Fragebogenerhebung, die entwickelt wurde, um das Ausmaß und die Art der Ismā'ĪlĪ-Altenpflege- und Pflegenotfallpläne zu bestimmen.;-;-;-;https://link.springer.com/article/10.1007/BF00056754 2d908a392c76a3f792ce3fbe974f0b2f;de;;;5.2.;;;Verbraucherverhalten und Finanzmarketing Marketing bedeutet, ein Verständnis des Verbraucherverhaltens zu erlangen und dieses Verständnis zu nutzen, um Mittel zu schaffen, die Verbraucher dazu bringen, Ihre Produkte oder Dienstleistungen zu nutzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4913-1_4 dfca4533e7b2b870f3544611f75f231b;de;;;5.2.;;;Neue Algorithmen für maximale eingeschränkte Pfadkonsistenz Max Restricted Path Consistency (maxRPC) ist eine lokale Konsistenz für binäre Einschränkungen, die eine höhere Konsistenz als die Bogenkonsistenz erzwingt. Trotz der starken Beschneidung, die erreicht werden kann, wird maxRPC selten verwendet, da bestehende maxRPC-Algorithmen unter Overheads und Redundanzen leiden, da sie viele Constraint-Prüfungen wiederholt durchführen können, ohne dass Werte gelöscht werden. In diesem Artikel schlagen und bewerten wir Techniken, die die Leistung von maxRPC-Algorithmen steigern können, indem viele dieser Overheads und Redundanzen eliminiert werden. Dazu gehören die kombinierte Verwendung von zwei Datenstrukturen, um viele redundante Beschränkungsprüfungen zu vermeiden, und die Nutzung von Resten, um schnell die Existenz von Trägern zu überprüfen. Darauf aufbauend schlagen wir eine Reihe eng verwandter maxRPC-Algorithmen vor. Der erste,;-;-;-;https://link.springer.com/article/10.1007/s10601-011-9110-y edde6a5777158b0d3b261bf7d0c6c013;de;;;4.2.;;;Premierminister, 1841-6 Als das neue Parlament am 19. August 1841 in Westminster zusammentrat, waren Lord Melbourne und die Whigs trotz ihrer jüngsten Niederlage bei den Parlamentswahlen noch im Amt. In den Augen der britischen Verfassung wurde der Premierminister nicht direkt von den Wählern ernannt, sondern vom Monarchen gewählt. Natürlich war es in der Praxis notwendig, dass der Monarch jemandem sein Vertrauen schenkte, der im Unterhaus die Mehrheit hatte, und die Entwicklung höher organisierter politischer Parteien in den 1830er Jahren hatte die Wahlfreiheit des Monarchen effektiv eingeschränkt . Nichtsdestotrotz war das Ergebnis der Parlamentswahlen von 1841 insofern einzigartig, als es eine Mehrheit der Commons (zumindest auf dem Papier) für die Regierungspartei in eine Mehrheit für die Oppositionspartei umgewandelt hatte. Das hatte es noch nie zuvor gegeben und es würde nicht vor 1874 wieder vorkommen. Unter diesen beispiellosen Umständen waren die Konservativen daher gezwungen, eine Änderung der Adresse vorzulegen, die den Ministern das Vertrauen schenkte, bevor die Whigs ihren Rücktritt ordnungsgemäß einreichen konnten . Melbourne teilte der bestürzten Königin Victoria mit, dass er und seine Kollegen nicht mehr in der Lage seien, die Regierung des Landes effizient zu führen, und am 30. August wurde Peel aufgefordert, eine neue Regierung zu bilden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-27008-8_5 a00aedf7068b6fee93b0989234485402;de;;;4.2.;;;Familientherapie mit Einelternfamilien In diesem Artikel stellt der Autor einen integrativen Ansatz der Familientherapie mit Einelternfamilien vor. Dazu gehört ein diagnostischer Rahmen, der auf den Entwicklungsstadien der Familie, kritischen Bereichen und vor allem spezifischen Settings und therapeutischen Strategien aufbaut, basierend auf der Annahme, dass Einelternfamilien Kinder genauso erfolgreich erziehen können wie andere Familien, aber auf andere Weise .;-;-;-;https://link.springer.com/article/10.1007/BF00890597 ad77f40c434d5047842738eafbc631c9;de;;;4.2.;;;Sparmaßnahmen der Regierung in der Praxis Verschiedene allgemeine Kategorien von Sparmaßnahmen sowie die spezifischen politischen Maßnahmen, die von einer Stichprobe von Ländern ergriffen wurden, werden zusammengefasst, um relevante Dimensionen der sozioökonomischen Nachhaltigkeit hervorzuheben, die über Jahre hinaus beeinflusst oder möglicherweise beeinflusst werden. Die spezifischen Sparmaßnahmen der Regierung, einschließlich der Kürzungen der öffentlichen Ausgaben für Sozialprogramme, legen nahe, dass in diesem Zusammenhang die Notwendigkeiten sozioökonomischer Nachhaltigkeitsanforderungen nicht ausreichend berücksichtigt werden. Erhebliche Reformen sind angesagt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-04235-0_4 4df5f44c4ad70a7625be64ed410c9523;de;;;4.2.;;;Liu Shaoqi und die Kulturrevolution: Aufstieg und Fall eines auserwählten Nachfolgers In den ersten Monaten der Kulturrevolution hielt Mao Zedong eine Rede, in der er erklärte, dass die chinesische kommunistische Elite schon sehr früh die Nachfolge geregelt habe. Siebzehn Jahre lang sei die Führung in „zwei Fronten“ gespalten gewesen. Er selbst habe an der „zweiten Front“ gestanden, wo er „nicht die tägliche Arbeit übernommen“ habe. Das lag in den Händen anderer hochrangiger Führungskräfte, die die „erste Front“ bildeten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-16874-3_2 e956c811ab295704cef5349dd543a5d4;de;;;5.2.;;;Die Farbpräferenz der Post-1995-Generation basierend auf Social Software Das Internet entwickelt sich rasant, auch die Art und Weise, wie Menschen sich informieren, und Bildinformationen werden in den sozialen Medien immer wichtiger. Die Generation nach 95 ist der Hauptnutzer des Internets und wird am stärksten vom Internet beeinflusst. Bei Social-Media-Informationen sind Farbinformationen sehr wichtig und haben eine starke Orientierung für die Benutzer. Dieser Artikel konzentriert sich auf die Farbpräferenzen der Post-95-Generation in den sozialen Medien. Wir sammeln die Informationen von Bildern, die von der Post-95-Generation in sozialen Medien gezeigt werden, analysieren die Einzigartigkeit, die sie zeigen, verwenden verschiedene Methoden, um die Informationen zu sammeln, und analysieren dann die Farbinformationen und erhalten schließlich die Farbpräferenzen der Post-95-Generation auf sozialen Medien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-80094-9_74 e46b7b4fce5bd0c2d778d76de1231480;de;;;4.2.;;;Die geschaffene Beziehung: Übertragung, Gegenübertragung und die therapeutische Kultur Die Konzepte Übertragung und Gegenübertragung werden im Lichte des aktuellen Wissens über das Unbewusste untersucht. Diese werden zu Handlungsmustern umdefiniert, die nicht bewusst sind, weil sie nicht in das Bedeutungssystem des Individuums integriert sind. Es wird vorgeschlagen, dass der Therapieprozess zum Teil in einer gegenseitig interaktiven Konstruktion der „Realität“ des Klienten besteht. Damit diese Konstruktion stattfinden kann, muss eine andere Konstruktion, die der therapeutischen Kultur, an erster Stelle stehen.;-;-;-;https://link.springer.com/article/10.1007/BF00755430 548e75d55a5504ed16114343588aab8e;de;;;4.2.;;;Umweltverträglichkeitsprüfungen nach Konflikten: Ein neues UN-Tool, das von UNEP entwickelt wurde Militärische Konflikte bringen immer menschliches Leid. Aber was wissen wir über ihre Umweltfolgen? Welche Risiken bergen sie für die menschliche Gesundheit und den Genesungsprozess und wie kann die Umwelt in den Wiederaufbau eingebunden werden? Seit Frühjahr 1999 arbeitet das Umweltprogramm der Vereinten Nationen (UNEP) in Gebieten der Welt, in denen die natürliche und menschliche Umwelt als direkte oder indirekte Folge von Konflikten geschädigt wurde. Der Schwerpunkt lag auf der Untersuchung der Umweltauswirkungen von Konflikten, der Empfehlung strategischer Prioritäten für die Sanierung und Sanierung, der Stärkung der Kapazitäten der Behörden für Umweltmanagement und -schutz sowie der Katalysator und Mobilisierung internationaler Unterstützung für Umweltprojekte. Diese neuartige Reaktion der Vereinten Nationen auf Konflikte wurde vom Exekutivdirektor der UNEP, Dr. Klaus Töpfer, initiiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55854-2_34 c2fb77279da9b920a2869452f07bd043;de;;;4.2.;;;Ein realistischer Bewertungsansatz zur Erklärung der Rolle des Kontexts bei den Auswirkungen einer komplexen eHealth-Intervention zur Verbesserung der Prävention von Herz-Kreislauf-Erkrankungen Die Reduzierung von Herz-Kreislauf-Erkrankungen (CVD) ist eine weltweite Gesundheitspriorität, und innovative Anwendungen technologiebasierter Interventionen können Patienten dabei helfen, ihr Präventionsverhalten zu verbessern. Um diese Interventionen auf die Empfänger auszurichten, die am wahrscheinlichsten davon profitieren, muss verstanden werden, wie die Nutzungskontexte die Reaktion auf die Intervention beeinflussen und wie diese Interaktion das Gesundheitsverhalten begünstigt oder entmutigt. Ziel dieser Studie war es, unter Verwendung eines realistischen Evaluationsansatzes die kontextuellen Faktoren zu untersuchen, die Verhaltensänderungen innerhalb einer multifunktionalen eHealth-Intervention mit personalisierten Datenintegration aus der elektronischen Gesundheitsakte (EHR) der Primärversorgung beeinflussen.;-;-;-;https://link.springer.com/article/10.1186/s12913-020-05597-5 ba8ffa71b9821148d6bbb80ce16ff815;de;;;5.2.;;;Verwendung von Aktivitätstheorie und Aufgabenstrukturdiagrammen, um von Patienten eingeführte Online-Gesundheitsinformationen in den Untersuchungsprozess des Hausarztes/Patienten zu modellieren Diese Forschungsstudie wurde durchgeführt, um ein besseres Verständnis der Verwendung von von Patienten bereitgestellten Online-Gesundheitsinformationen während des Untersuchungs- und Kommunikationsprozesses zwischen Arzt und Patient zu erlangen. Unter Verwendung qualitativer Daten aus zehn Hausarztinterviews und einer Workflow-Modellierung der Daten mithilfe von Aktivitätsdiagrammen und Aufgabenstrukturdiagrammen deckte diese Studie die Häufigkeit von von Patienten eingeführten Online-Gesundheitsinformationen, von Ärzten vorgeschlagene Online-Ressourcen, die Verwendung von E-Mail für die Arzt-Patient-Kommunikation, Verwendung elektronischer Patientenakten sowie der damit verbundenen Aufgaben und Methoden der Ärzte zur Einarbeitung der Online-Gesundheitsinformationen in den Arzt-Patienten-Untersuchungs- und Wissenstransferprozess.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-39442-4_28 35fc47fae730a2be4d2087a868b588fc;de;;;4.2.;;;Nachahmung in schattigen Worten Die Nachahmung von verschatteten Wörtern wurde anhand des AXB-Paradigmas von Goldinger (1998) evaluiert. Das erste Experiment war eine Nachbildung von Goldingers Experimenten mit verschiedenen Token. Die AXB-Tests von Experiment 1 zeigten, dass verschattete Wörter als bessere Imitationen von Zielwörtern beurteilt wurden als die Basislinie (gelesenen) Gegenstücke häufiger als zufällig (0,50). Auch die Reihenfolge der Darstellung von Baseline und schattierten Wörtern im AXB-Test beeinflusste die Beurteilungen signifikant. Der Grad der vorherigen Exposition gegenüber Token-Wörtern hatte keinen signifikanten Einfluss auf die Beurteilung der Nachahmung. Experiment 2 verwendete modifizierte Ziel-Token mit verlängerten Voice Onset Times (VOTs). Zusätzlich zu den AXB-Tests wurden die VOTs der Antwort-Tokens über die Baseline- und Shadowing-Bedingungen hinweg verglichen. Die AXB-Tests zeigten, dass verschattete Wörter bessere Imitationen von Ziel-Token sind als die Grundlinie, ohne Einfluss der AXB-Präsentationsreihenfolge. Die Unterschiede zwischen Baseline- und Shadowing-VOTs waren größer, wenn die VOTs erweitert wurden. Die Implikationen der spontanen Nachahmung in nichtsozialen Umgebungen werden berücksichtigt.;-;-;-;https://link.springer.com/article/10.3758/BF03194890 fdd59c1b0f9f63775d0640b7b5672fda;de;;;5.2.;;;Jelzin und die russische Präsidentschaft Die kritischsten politischen Kämpfe in der späten sowjetischen und postsowjetischen Zeit drehten sich um neue Macht- und Autoritätsteilungen, das Schmieden neuer institutioneller Arrangements und die Festlegung neuer politischer Regeln für das Handeln der politischen Entscheidungsträger. Dies gilt sowohl für Moskau als auch für die Regionen. Russland und andere Staaten der ehemaligen Sowjetunion befinden sich inmitten eines grundlegenden sozioökonomischen Wandels, da neue politische Systeme entstehen. Die meisten Elemente der politischen Elite und der breiteren Gesellschaft sind sich in der Ablehnung der sowjetischen Vergangenheit einig, aber es gibt weiterhin erhebliche Unsicherheit und große Meinungsverschiedenheiten über Übergangspolitiken und längerfristige Ziele.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-23461-5_2 f8f3def1699e3d836b888f1b94a855bf;de;;;4.2.;;;Die Große Nationalversammlung der Türkei: Neue Herausforderungen und alte Probleme Die türkische Politik ist geprägt von einem fragmentierten, polarisierten und volatilen Parteiensystem (Ergüder 1980–1, S. 48–51, Özbudun 1981, S. 237–8, Ergüder und Hofferbert 1988, S. 84–94, Özbudun, 2000, S. 74–80, siehe auch Tabelle 7.1). Als Folge des Parteiensystems litt das gesetzgebende Parteiensystem unter einer ähnlichen Malaise, als es in den 1950er Jahren von einer Zweiparteienstruktur unter dem Einfluss einer vorherrschenden Demokratischen Partei (DP) zu einem gemäßigten, pluralistischen Parteiformat in den 1960er und 1970er Jahren. Derselbe Trend schien nach dem letzten demokratischen Zusammenbruch von 1980 bis 1983 wieder aufgetaucht zu sein. Tatsächlich argumentierte Özbudun kürzlich, dass „alle drei Krankheiten des türkischen Parteiensystems in den 1970er Jahren (Volatilität, Fragmentierung und Polarisierung) wieder aufgetaucht sind, wenn überhaupt in schlechterer Form“ in den 1980er und 1990er Jahren (Özbudun, 1997, S. 88 und siehe Tabelle 7.2). Die Daten in den Tabellen 7.1 und 7.2 sowie die Tatsache, dass zwei kleinere Parteien (jeweils 4–8 Prozent der nationalen Stimmen bei jeder nationalen Wahl) keine Parlamentssitze erringen konnten und daher in Tabelle 7.2 nicht enthalten sind, geben der Eindruck, dass sich die Türkei in den 1980er und 1990er Jahren von einem gemäßigt pluralistischen Parteiensystem zu einem extrem pluralistischen entwickelt hat (Tabelle 7.2).;-;-;-;https://link.springer.com/chapter/10.1057/9780230277397_8 99d50de4e8f5a309c293bba2747ee99f;de;;;5.2.;;;Realistische Generierung synthetischer Daten: Das ATEN Framework Der Zugang zu echten medizinischen Daten für die Forschung ist bekanntlich schwierig. Auch wenn Daten vorhanden sind, sind diese in der Regel unvollständig und unterliegen Einschränkungen aus Vertraulichkeits- und Datenschutzgründen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29196-9_25 3ae95c0685132dd4f08190d35ec6934b;de;;;5.2.;;;Transnationale Ermittlungen und Strafverfolgung in grenzüberschreitenden Fällen in Europa: Leitlinien für ein Modell fairer multikultureller Strafjustiz Diese Studie analysiert die Frage der grenzüberschreitenden Strafverfolgung und Ermittlung. Sie geht von der Prämisse aus, dass grenzüberschreitende strafrechtliche Ermittlungen und die Sammlung von ausländischen Beweismitteln unabhängig von der Übertragung von Befugnissen zur Verfolgung und Beurteilung grenzüberschreitender Straftaten nicht angemessen abgewickelt werden können. Die vorliegende Studie analysiert die Lösungsansätze einiger der wichtigsten Modelle der internationalen Zusammenarbeit und betont, dass im europäischen Szenario, das von einem zunehmend transkulturellen Strafrecht geprägt ist, die Wahl des Gerichtsstands und des anzuwendenden Strafrechts nicht dem Verhandeln überlassen werden kann den konkurrierenden Behörden auf der Grundlage unkoordinierter nationaler Gesetze. Das Erfordernis der Rechtssicherheit erfordert klare Regelungen zur Übertragung der staatsanwaltschaftlichen Befugnisse, die den Anforderungen der wesentlichen Grundsätze des Strafrechts genügen, wie z;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-02570-4_16 22bd941cbd6de698545ca35a652235c1;de;;;4.2.;;;Vergleich und Studie der zeitgenössischen städtischen ländlichen Ausstattung Chinas Seit der Gründung hat China das städtische und ländliche doppelgleisige System der Stiftung eingeführt, diese beiden Stiftungssysteme mit unterschiedlichen Merkmalen unterscheiden sich stark in Bezug auf den Aspekt entweder Stiftungshauptkörper, Standard oder Mittel und Methoden zur Regulierung der Stiftungsbeziehung, kulturelle Werte, die die Stiftung unterstützen. Die Umsetzung des zweigleisigen Stiftungssystems in Stadt und Land ist die Verkörperung der Stadt-Land-Doppelstruktur, gleichzeitig Stärkung der Stadt-Land-Doppelstruktur, Aufbau eines umfassenden Wohlhabenden, einer sozialistischen harmonischen Gesellschaft, wir müssen eine Kombination von implementieren städtischen und ländlichen Stiftungen und schrittweise die Integration von städtischen und ländlichen Stiftungen zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29087-9_55 a7c506093997c7e1e88e69233d306151;de;;;4.2.;;;Analyse zur Integration von Land-verlorenen ländlichen Alterungsarbeitern in die Stadt im Zuge der Urbanisierung Landverlust im ländlichen Raum Die alternde Erwerbsbevölkerung ist eine gefährdete Randgruppe, die aufgrund ihrer eigenen körperlichen und fachlichen Einschränkungen allmählich an den Rand gedrängt wird. Viele Hindernisse sind dieser alternden Gruppe im Zuge ihrer Integration in die Stadt und Urbanisierung begegnet. Die Existenz von Systemisolationsbarrieren, Stadt-Land-Kulturkonflikte sowie räumliche und soziale Segregation haben ihre schlechte Lebenssituation zunehmend verschärft. Im Hinblick auf ihre Integration in das städtische Leben sollten wir die Kombination ihrer kurzfristigen Lebenssituation und ihres langjährigen Entwicklungspotenzials betonen, um ein Paket von Maßnahmen zu verabschieden, um ihre Wettbewerbsfähigkeit und Überlebensfähigkeit im Zuge der Urbanisierung zu stärken, z. das institutionelle Umfeld Innovation zu fördern und ein besonderes und kulturelles Umfeld für sie zu schaffen, währenddessen ihr Arbeits- und Lebensumfeld zu ändern sowie die Formen der Wiedereingliederungsqualifizierung zu reformieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23062-2_42 13e356097c6934180dcb465bc24f7d29;de;;;4.2.;;;Informative Grenzarbeit im Alltag Das tägliche Leben erfordert oft viel Arbeit, um die vielfältigen Bereiche zu verwalten, aus denen es besteht (z. B. bezahlte Arbeit, Familienpflege, Haushaltsführung, Körper- und Gesundheitsmanagement, Freizeit, Bildung, soziales Leben und gemeinschaftliches oder religiöses Engagement). Diese „Grenzarbeit“ umfasst die fortlaufende Kategorisierung von Lebensbereichen, die Etablierung und Aushandlung von Grenzdurchlässigkeit und das Überschreiten von Grenzen. Die Grenzen zwischen den Bereichen des alltäglichen Lebens werden von verschiedenen Menschen und von ein und derselben Person im Laufe der Zeit bei sich ändernden Lebensumständen unterschiedlich ausgehandelt. Die Forschung in der Informationswissenschaft neigt dazu, den „Alltag“ und die Informationspraktiken am Arbeitsplatz zu dichotomisieren. Wissenschaftler, die den Charakter alltäglicher Informationspraktiken verstehen wollen, müssen sich der Informationsarbeit widmen, die erforderlich ist, um (a) Grenzen zwischen Lebensbereichen zu setzen, aufrechtzuerhalten und in Frage zu stellen und (b) die Überbrückung oder Überschreitung dieser Grenzen zu orchestrieren. In diesem Beitrag wird am Beispiel der Nachverfolgung der kommunalen Abfallsammlung die Informationsarbeit der Verwaltung, Aufrechterhaltung und Grenzüberschreitung im Alltag untersucht. Einige Teilnehmer zeichneten den „Mülltag“ in zentral platzierten Personal Information Management (PIM)-Tools auf, die mit Haushaltsmitgliedern geteilt wurden. Damit integrierten sie die Aufgabe der Abfallentsorgung in einen Alltag mit anderen Haushaltsmitgliedern, der mehrere Domänen umfasste, einschließlich bezahlter Arbeit. Andere Ansätze kategorisierten die Abfallsammlung als vom Innenleben des Haushalts getrennt. Die Studie liefert Beweise dafür, dass die Teilnehmer an Grenzarbeit beteiligt waren;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-43687-2_8 fd3db8a5fc33548b72578611926c5067;de;;;4.2.;;;Was ist das Besondere an den ethischen Fragestellungen in der Online-Recherche? Bei der Analyse der ethischen Probleme der Online-Forschung lässt sich viel aus der bereits geleisteten Arbeit zur Forschungsethik in den Sozial- und Geisteswissenschaften lernen. Ich diskutiere die Struktur von Normen in den norwegischen Ethikrichtlinien für die sozialwissenschaftliche Forschung im Hinblick auf ihre Relevanz für die ethischen Fragestellungen der Internetforschung. Ein vierstufiges Verfahren zur ethischen Bewertung der Forschung wird vorgeschlagen. Ich argumentiere, dass, obwohl die Probleme der Online-Forschung auf einer Ebene denen in traditionellen Bereichen der sozialwissenschaftlichen Forschung sehr ähnlich sind, es dennoch einige Probleme gibt, die für die Online-Forschung einzigartig sind. Ein allgemeines Modell zur Analyse der Privatsphäre und des Datenschutzes wird vorgeschlagen. Dieses Modell wird dann verwendet, um die besonderen Probleme des Schutzes der Privatsphäre in Online-Kontexten zu charakterisieren und zu argumentieren, dass bei der Recherche in solchen Kontexten nicht von einer einfachen Unterscheidung zwischen Privatem und Öffentlichem ausgegangen werden kann.;-;-;-;https://link.springer.com/article/10.1023/A%3A1021320510186 86ba0cc924061650979f7734cba0cb5c;de;;;4.2.;;;Pädagogisches Nachhaltigkeitsprojekt zur Bewältigung von Umweltproblemen in Cabo Frio, RJ, Brasilien Die eingeschränkte Trinkwasserversorgung ist ein ernstes Problem für die Stadt Cabo Frio, RJ, Brasilien. Diese Studie zielt darauf ab, ein Nachhaltigkeits- und soziales Verantwortungsprojekt mit pädagogischer Dynamik (PD) durch den Cycle of Living Activities (CLA) mit realen Problemsituationen im Zusammenhang mit der unzureichenden Wasserversorgung in der Gemeinde zu entwickeln, unter Einbeziehung der Disziplin Grundlagen des Tourismus und Hospitality (FTH) des Integrated High School Hosting Course (IHSHC). Die Dynamik wurde von sechs Studenten des 3. Jahrgangs des Ismar Gomes de Azevedo Education Institute (IGAEI) angewendet, die als Monitore fungierten. Die Zielgruppe waren Studienanfänger des IHSHC, des Fluminense Federal Institute, Campus Cabo Frio (FFI-CF). Eine explorative Methodik wurde mit dem Ansatz in der Aktionsforschung verwendet. Die Forschung wurde in drei Phasen entwickelt: Organisation, Anwendung der Dynamik und Bewertung durch FFI-CF-Studenten. Beobachtet wurde das reflexive Verhalten der FFI-CF-Studenten, Theorie und Praxis mit den Zielen der Disziplin in Verbindung zu bringen, und Begeisterung bei der Suche nach Lösungen für Problemsituationen durch Teamarbeit zu den untersuchten Fragen. Diese Studie könnte Pädagogen interessieren, die mit dem Thema Nachhaltigkeit in der Umweltbildungspraxis arbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-59975-1_30 c1f1d23031075715c8f3299558f04542;de;;;5.2.;;;Gütefunktionen für Variationsungleichheits- und Komplementaritätsprobleme Dieser Beitrag gibt einen Überblick über die jüngsten Bemühungen, das Variationsungleichungsproblem und das Komplementaritätsproblem als äquivalentes Optimierungsproblem mit bestimmten wünschenswerten Eigenschaften umzuformulieren. Gütefunktionen, die verwendet werden, um solche äquivalenten Optimierungsprobleme zu formulieren, erweisen sich als nützlich beim Entwerfen eines global konvergenten Algorithmus und liefern Fehlergrenzen für diese Probleme unter geeigneten Bedingungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-0289-4_11 8f5136835b134634ab441624e8af9855;de;;;5.2.;;;DNA-Computing-Fähigkeiten für die Spieltheorie Probleme der Spieltheorie können für Benchmark-DNA-Berechnungen verwendet werden. Eine große Anzahl von Spielstrategien und Zufallsereignissen kann zu endlichen Automaten zusammengebaut werden. Diese vielen Maschinen führen parallel verschiedene Spielzüge aus. Strategien können Selektion und Züchtung ausgesetzt werden. Die Rechenfähigkeiten der DNA werden mit Aspekten der Spieltheorie abgeglichen, aber die interessantesten Probleme müssen noch behandelt werden.;-;-;-;https://link.springer.com/article/10.1023/A%3A1023332711880 42b993a9ab250ef251e25906b2188f91;de;;;5.2.;;;Eine Hyperheuristik basierend auf zufälligem Verlauf, Gier und Dominanz Hyperheuristiken haben sich als effektive allgemeine Methodiken herausgestellt, die mit dem Ziel motiviert sind, Heuristiken automatisch zu erstellen oder auszuwählen, um eine Reihe harter Rechenprobleme mit geringeren Entwicklungskosten zu lösen. HyFlex ist ein öffentlich verfügbares hyperheuristisches Werkzeug für schnelle Entwicklung und Forschung, das derzeit eine Schnittstelle zu vier Problembereichen zusammen mit relevanten Heuristiken auf niedriger Ebene bietet. In dieser Studie wird eine mehrstufige Hyperheuristik vorgestellt, die auf zufälligen Gradienten und gierigen mit Dominanz heuristischen Auswahlverfahren basiert. Diese Hyperheuristik wird als Erweiterung von HyFlex implementiert. Die empirischen Ergebnisse zeigen, dass unser Ansatz über die gegebenen Problemdomänen besser abschneidet als einige zuvor vorgeschlagene Hyperheuristiken.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-2155-8_71 0d6ca1ab4ce4a55bfae7be402b230890;de;;;4.2.;;;Virtual Learning Communities (VLCs) umdenken: der Virtualisierungsprozess Die vorliegende Studie versucht den Virtualisierungsprozess einer Community zu untersuchen. Eine bestehende physische Lerngemeinschaft (PLC) wurde über die webbasierte kollaborative Plattform Wikispaces in eine virtuelle (VLC) umgewandelt. Wir analysieren die ausgetauschten Dialoge und die erzeugten Artefakte, wobei wir uns auf die Erkennung des aggressiven Verhaltens (Mobbing), die Rolle des Lehrers und das Vorhandensein von innerer Sprache konzentrieren. Die entscheidende Frage ist, ob die Community und ihre Mitglieder von ihrem Virtualisierungsprozess positiv beeinflusst werden. Die Ergebnisse deuten darauf hin, dass die versuchte „Virtualisierung“ ein vielversprechender Rahmen für die Verhaltensänderung sein könnte. Systematischer Unterricht wirkt sich positiv auf diesen Prozess aus. Schließlich ist die innere Sprache ein Indikator für eine gut funktionierende Gemeinschaft.;-;-;-;https://link.springer.com/article/10.1007/s40692-018-0125-x 4a54b44009df889a16c08bd59da904d5;de;;;4.2.;;;Ein Vergleich der vier Länder: ein Überblick Die einzelnen Länderberichte sowie diese kurze Übersicht und Synthese bestätigen, dass wir uns in einem Zustand des sozialen Wandels in den Geschlechterrollen befinden und uns nicht ausreichend an den Wandel angepasst haben, den wir erleben. Einzelne Länder reagieren mit unterschiedlicher sozialer Unterstützung. Auch die Arbeitgeber reagieren mit teilweiser, aber nicht ausreichender Arbeitsplatzflexibilität. Die Einstellungen zur Geschlechterrolle ändern sich, aber in einigen Fällen zögern Frauen, die Macht aufzugeben, die sie traditionell zu Hause behalten haben, und Männer reagieren nicht leicht auf weibliche Anfragen nach häuslicher Teilhabe;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-2538-6_6 1d1b8c16818cc7057b634ffb4f0b9173;de;;;4.2.;;;Auswirkungen eines Bewegungsprogramms nach der Diagnose auf die kardiorespiratorische Fitness bei krebskranken Kindern: eine nationale nicht-randomisierte kontrollierte Studie Kinder mit Krebs haben während und nach der Behandlung eine eingeschränkte kardiorespiratorische Fitness und körperliche Funktion, was ihre Möglichkeiten zur Teilnahme an sozialen Aktivitäten wie Sport, Freizeitaktivitäten und Schule einschränkt. Die Ziele bestanden darin, die Auswirkungen eines von Klassenkameraden unterstützten, kontrollierten, überwachten, krankenhausinternen Bewegungsprogramms zur Erhaltung der kardiorespiratorischen Fitness und körperlichen Funktion ab dem Zeitpunkt der Diagnose bei krebskranken Kindern zu bestimmen.;-;-;-;https://link.springer.com/article/10.1186/s12916-020-01634-6 ef90d4ad1b2dd167653c443248d1219d;de;;;4.2.;;;Wöchentliches Aktivitäts- und Reiseverhalten im ländlichen Nordirland: Unterschiede je nach Kontext und soziodemografischem Trotz der großen Unterschiede beim Zugang zu Gütern und Dienstleistungen zwischen ländlichen Gebieten werden in Nordirland häufig gemeinsame politische Maßnahmen vorgeschlagen. Es bleiben Fragen hinsichtlich des Niveaus und der Form der erforderlichen politischen Differenzierung, die sowohl innerhalb als auch zwischen verschiedenen ländlichen Gebieten erforderlich ist. Dieses Problem wird in diesem Papier durch die Analyse der Aktivitäts- und Reisemuster von Personen untersucht, die in zwei ländlichen Gebieten mit unterschiedlicher Erreichbarkeit und Mobilität der Gebiete leben. Für Personen aus diesen Gebieten wurden drei Fokusgruppen, 299 Fragebögen und 89 Aktivitäts-Reisetagebücher für 7 Tage gesammelt. Anhand von Regressionsanalysen wurde untersucht, inwieweit verschiedene Faktoren das Aktivitäts-Reise-Verhalten beeinflussen. Die Ergebnisse deuten darauf hin, dass Personen aus ländlichen Gebieten mit höherer Erreichbarkeit stärker in ihre lokale Gemeinschaft integriert sind und daher potenziell weniger gefährdet sind, aufgrund von Immobilität aus der Gesellschaft ausgeschlossen zu werden. Unterschiede wurden jedoch auch zwischen verschiedenen Gruppen innerhalb eines Gebiets festgestellt (z. B. Personen ohne Auto, die eher auf das Gehen angewiesen waren, und Personen mit geringem Einkommen, die kürzere Wege zurücklegten). Basierend auf den Studienergebnissen und einer Überprüfung bestehender politischer Maßnahmen unterstreicht diese Untersuchung die Notwendigkeit, die politischen Reaktionen auf die besonderen Umstände in verschiedenen Bereichen abzustimmen.;-;-;-;https://link.springer.com/article/10.1007/s11116-011-9322-4 2a3b4044d73f37a222824f123431de3f;de;;;4.2.;;;Avatare im Gespräch: Wie wichtig es ist, territoriales Verhalten zu simulieren Ist es wichtig, die soziale Territorialität des Menschen in simulierten Gesprächen zu modellieren? Hier gehen wir dieser Frage nach, indem wir die Glaubwürdigkeit der virtuellen Gespräche von Avataren bewerten, die auf unserer Simulation von territorialem Verhalten basieren. Die Teilnehmer wurden gebeten, sich zwei Videos anzusehen und Umfragefragen zu beantworten, um sie zu vergleichen. Die Videos zeigten dieselbe Szene mit und ohne unsere Technologie. Die Ergebnisse unterstützen die Hypothese, dass die Simulation von territorialem Verhalten die Glaubwürdigkeit erhöhen kann. Darüber hinaus gibt es Hinweise darauf, dass unsere Simulation von Kleingruppendynamiken für Konversationsterritorien ein Schritt in die richtige Richtung ist, auch wenn noch ein großer Spielraum für Verbesserungen besteht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15892-6_35 1ec50c72274ea08358d55e4534219d95;de;;;4.2.;;;Semiotisch-soziologische Texturen von Landschaftswerten. Bewertungen in Stadt-Küsten-Gebieten Eine der wichtigsten Fragen der Planung an den landschaftlich wertvollsten Standorten, insbesondere entlang der Küstengebiete, ist die Festlegung der durchzuführenden Bewertungshilfen, um den Erhalt der wichtigsten Landschaftsmerkmale und die lokale wirtschaftliche Entwicklung in Einklang zu bringen. Mit Bezug auf den Fall der Waterfront von Syrakus (Italien) führt dieser Beitrag ein semiotisch-soziologisches Schema für die Bilanzierung und Bewertung zu den Schwerpunktthemen des derzeit gültigen Plans für nachhaltige Entwicklung ein. Die Bewertung berücksichtigt die Verbindung der mehreren thematischen Ebenen, die die verschiedenen funktionalen/symbolischen Landeinheiten gruppieren, die durch eine semantische Verbindung gekennzeichnet sind, innerhalb eines Bewertungsmusters, das als syntaktisches Feld fungiert und die Wechselwirkungen zwischen ihnen hervorhebt. Das Muster bezieht die gesellschaftliche Relevanz der unterschiedlichen Kriterien dieser Landschaftseinheit mit ein, indem es die „Fakten der Natur“ und die „Erzählungen der Kultur“ zusammensetzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-12998-9_3 d3e76d5e3007a516f82fc3ddee55c603;de;;;4.2.;;;Wir-Bewusstsein verstehen: Erfahrungen, Angebote und Praktiken Practice Mein Ziel in diesem Beitrag ist es, die Ansicht zu unterstützen, dass eine bestimmte Art des Seins und Handelns zusammen mit anderen, wir-partielles Engagement in paradigmatischen sozialen Praktiken, zu den grundlegenden Formen des Menschseins gehört. Das Wir-Teil-Gewahrsein multipler Ich-Erfahrungs-Loci kommt dem Gruppen-Gewahrsein oder Wir-Gewahrsein gleich, das weder über Individuen steht noch eine Ansammlung von Ich-Gewahrseinsfällen, in denen Ich-Gewahrsein entweder durch eine spezielle Gruppe modifiziert wird modified -bezogener Inhalt oder Modus. Wenn ein Gruppenmitglied wir-teilbewusst ist, erlebt es aus seiner jeweiligen Ich-Perspektive das Handeln als Teil des Kollektivs und nicht nur als „Ich“, das sich den jeweiligen sozialen Gegebenheiten anpasst. Wir-teilbewusste Gruppenmitglieder sind in einer Vereinbarung über die Gruppenmitgliedschaft. Die als Wir-Teile geteilten Interaktionen sind eine Möglichkeit, die wechselseitige Interpretation des Verhaltens des anderen zu konstruieren, die der Inferentialismus als Grundlage der Ich-Du-Sozialität betrachtet. Mein Standpunkt stellt auch den Inferentialismus in Frage, denn in einem nicht-idealen Diskurs, der oft von stereotypbasierten Ausgrenzungen und Machtunterschieden durchdrungen ist, kann die praktizierte gemeinsame Perspektive nur den Akteuren der traditionell dominierenden Mehrheit gehören. Wenn man sich ansieht, welche Gruppendomäne wir-part-Bewusstsein umfasst, wird deutlich, dass Inferentialismus berücksichtigen muss, wie der Status eines Diskursteilnehmers durch implizite Voreingenommenheit befleckt werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-49590-9_8 14631931b9da5112fc24c8539c71a08c;de;;;5.2.;;;Bestimmung wesentlicher Designvariablen Viele reale Objekte werden durch Gleichungssysteme höherer Ordnung mit vielen Koeffizienten für Unbekannte beschrieben. Diese Koeffizienten spielen die Rolle von Designvariablen, die bei der Optimierung eines Objekts variiert werden müssen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-2089-4_5 2df7d4240e3986eccf78772673047fed;de;;;5.2.;;;Familienbildungsmuster In den vorangegangenen vier Kapiteln wurden statistische Quellen zu Empfängnisverhütung, Abtreibung und Sterilisation sowie die Bereitstellung professioneller Beratung zu diesen Themen behandelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-1231-1_7 e0f8d8eebf188b2971c3d5c37403deee;de;;;5.2.;;;Südostasien, 1960–1970 In Europa mussten die USA mit bestehenden und traditionellen Neutralen wie Schweden und der Schweiz umgehen oder standen wie im Fall Österreichs vor der Frage, ein innenpolitisch friedliches Land zu neutralisieren. In Südostasien war die Situation anders. Die meisten Länder hatten erst vor kurzem ihre Unabhängigkeit erlangt, traditionelle Neutrale gab es nicht, und diejenigen, die eine Neutralisierung anstrebten, waren innenpolitisch zerbrechlich oder befanden sich im Kriegszustand. Darüber hinaus ist das Konzept der;-;-;-;https://link.springer.com/chapter/10.1057/9780230554498_12 03a4a4d6d52794798190707cce331f6e;de;;;5.2.;;;Cartans Trilogie: 1913–14 Zwei Jahrzehnte nach seiner Doktorarbeit veröffentlichte Cartan eine „Trilogie“ von Memoiren [1913, 1914b, 1914c] von grundlegender Bedeutung für die Theorie der Lie-Gruppen und Algebren und insbesondere für das Studium ihrer Repräsentationen. [1913] entwickelte er Killings Theorie der Sekundärwurzeln weiter und wandte sie auf das Problem der Bestimmung aller linearen Lie-Algebren mit halbeinfacher Struktur an, die nichts planares Invariant lassen. Das heißt, er löste das Repräsentationsproblem, das er bereits zwanzig Jahre zuvor in seiner Dissertation artikuliert hatte. In [1914b] löste er das gleiche Problem für reelle lineare Lie-Algebren. Dies erforderte die Ergebnisse von [1913] zusammen mit der Klassifikation aller realen einfachen Strukturen, die er in [1914c] entwickelte.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-1202-7_8 da064a723451f038b16ed964e0efe2c6;de;;;5.2.;;;Konfliktmanagement in Lebensgemeinschaften Daten von 33 zusammenlebenden Paaren werden aus konflikttheoretischer Sicht analysiert. Für das Verständnis von Konfliktprozessen wird die Bindungsbalance in einer Lebensgemeinschaft als wichtig erachtet (d. h. gleiches Engagement für die Beziehung statt einer höheren Wertschätzung durch einen Partner). Aus dieser theoretischen Perspektive und diesen Erkenntnissen werden fünf Hypothesen entwickelt.;-;-;-;https://link.springer.com/article/10.1007/BF01094177 e0da0f5bc6a38678a75489a9057eb750;de;;;4.2.;;;Virtuelle Welten als Plattformen für Communities of Practice Das Problem eines effektiven stillschweigenden Wissenstransfers wird seit langem im Bereich des Wissensmanagements erkannt und untersucht. Praxisgemeinschaften wurden als eine Möglichkeit vorgeschlagen, den stillschweigenden Wissensaustausch zu erleichtern. In diesem Kapitel schlagen wir virtuelle Welten oder computersimulierte 3D-Umgebungen als potenzielle Plattformen vor, die verwendet werden können, um Praxisgemeinschaften zu ermöglichen. Wir unterscheiden virtuelle Welten von anderen webbasierten Kommunikationstechnologien und diskutieren vier einzigartige Möglichkeiten, nämlich Selbstdarstellung, Mitgestaltung, Miterfahrung und Crowd Sourcing, die Attribute von Praxisgemeinschaften ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-0011-1_12 3bceedc760bbc63e9c0ffd9c4a7a5e82;de;;;4.2.;;;Von der Theorie zur Praxis: Das Rocxxy-Sommerpraktikum in feministischem Aktivismus und Führung Das Susan B. Anthony Institute for Gender and Women’s Studies (SBAI) der University of Rochester beherbergt ein Hauptfach, ein Nebenfach und drei Schwerpunkte: Frauen-, Gender- und Sexualforschung. Als Institut bieten wir Dienstleistungen über den Rahmen einer akademischen Abteilung hinaus und bieten Studierenden und Dozenten, die sich für feministische Wissenschaften in allen Disziplinen interessieren, einzigartige Möglichkeiten und Unterstützung. Bei SBAI ermutigen wir Studenten, an Praktika und anderen freiwilligen Aktivitäten teilzunehmen, mit dem Ziel, erfahrungsbezogenes Lernen zu fördern und ihre außerschulischen Aktivitäten direkt mit akademischen Studienleistungen in Verbindung zu bringen. Bis vor kurzem haben wir den Studierenden jedoch keine Möglichkeit geboten, sich direkt am feministischen Aktivismus zu beteiligen.;-;-;-;https://link.springer.com/chapter/10.1057/9781137441102_9 6bb15a53f34705c7dea91d95fde1495d;de;;;4.2.;;;Auf dem Weg zu Gesprächsartefakten Konversation ist ein natürliches und leistungsfähiges Kommunikationsmittel für Menschen, um gemeinsam Informationen zu erstellen und auszutauschen. Menschen sind geschickt darin, Bedeutungen auszudrücken, indem sie mehrere Modalitäten koordinieren, Äußerungen durch die Integration partieller Hinweise interpretieren und ihr Verhalten darauf ausrichten, gemeinsame Projekte im Gespräch zu verfolgen. Eine große Herausforderung besteht darin, Konversationsartefakte – wie intelligente virtuelle Agenten oder Konversationsroboter – zu bauen, die an Gesprächen teilnehmen können, um den Wissensprozess in einer Gemeinschaft zu vermitteln. In diesem Artikel präsentiere ich einen Ansatz zum Erstellen von Konversationsartefakten. Zunächst werde ich eine immersive WOZ-Umgebung namens ICIE (Immersive Collaborative Interaction Environment) hervorheben, die darauf ausgelegt ist, detaillierte quantitative Daten über die Mensch-Artefakt-Interaktion zu erhalten. Zweitens werde ich eine Reihe von Lernalgorithmen vorstellen, die es unserem Roboter ermöglichen, als Ergebnis von Beobachtung und Erfahrung eine Kommunikationskompetenz aufzubauen und zu revidieren. Drittens werde ich argumentieren, wie Konversationsartefakte verwendet werden können, um Menschen bei der Zusammenarbeit in multikulturellen Umgebungen zur Wissenserzeugung zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23620-4_2 0f9d8333f28521b48c9986664a9720cf;de;;;4.2.;;;Kombination von Politiksuche und Planung in der Multi-Agenten-Kooperation Es ist die Kooperation, die Multi-Agent-Systeme (MASs) im Wesentlichen von Single-Agent-Intelligence unterscheidet. In realistischen MAS-Anwendungen wie RoboCup haben wiederholte Arbeiten gezeigt, dass traditionelle Ansätze des maschinellen Lernens (ML) Schwierigkeiten haben, das kooperative Verhalten direkt auf die Aktorausgaben abzubilden. Um dieses Problem zu überwinden, werden üblicherweise vertikale Schichtarchitekturen verwendet, um die Zusammenarbeit in Verhaltensschichten zu unterteilen, ML wurde dann verwendet, um verschiedene untergeordnete Fähigkeiten zu generieren, und ein Planungsmechanismus wurde hinzugefügt, um eine Zusammenarbeit auf hoher Ebene zu schaffen. Wir schlagen eine neue Methode namens vor;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02921-9_46 efbb8fcda1ace29c48699ba9751a954b;de;;;4.2.;;;Algerien: Teilnehmende Fonds Nach seiner Unabhängigkeit im Jahr 1962 begann Algerien eine geplante Entwicklung, die auf Importsubstitution und dem Prinzip des Wachstums durch die Etablierung eines führenden Sektors, bestehend aus der staatseigenen Schwerindustrie, beruhte. Allgemeine Grundsätze des von der Regierung in dieser Zeit gewählten wirtschaftlichen Entwicklungspfads wurden in den Nationalen Chartas von Algerien, der Charta von Tripolis von 1961, der Charta von Algier von 1964 und der Nationalen Charta von 1976 festgelegt. Die gewählte Wachstumsstrategie basierte auf Theorien von Verbindungen und „Industrialisierung der Industrien“, die 1960 bei Entwicklungsökonomen beliebt waren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-23010-5_5 2653cdc2514842084636021b9a9d0b41;de;;;4.2.;;;WUNSCH, COLLEGE ZU BEENDEN: Eine empirische Verbindung zwischen Motivation und Beharrlichkeit Ein starker Wunsch nach Leistung kann als wichtiger Bestandteil der Motivation der Schüler zum Abschluss des College angesehen werden. Diese Studie untersuchte die strukturellen Beziehungen zwischen vier Konstrukten: (1) Motivationsfaktoren, (2) Hintergrundfaktoren des Schülers, (3) akademische Leistung und (4) Persistenz. Motivations- und Hintergrundfaktoren wurden untersucht, um ihre direkten und indirekten Auswirkungen auf die schulische Leistung und Beharrlichkeit für Minderheiten und Nicht-Minderheiten zu bestimmen. Die Studie unterstützte die Nutzung von Faktoren außerhalb der College-Erfahrung der Studenten, die in der Retentionsliteratur auf der Grundlage des Studentenabwanderungsmodells von Bean (1980) identifiziert wurden. Während sich herausstellte, dass die Motivation bei keiner der ethnischen Untergruppen die akademische Leistung beeinflusste, wurde in dieser Studie ein signifikanter motivationaler Effekt auf die Beharrlichkeit für Minderheiten, aber nicht für Nicht-Minderheiten, festgestellt. Minderheitenschüler mit hoher Motivation blieben tendenziell bis zum zweiten Jahr. Politische Implikationen werden diskutiert.;-;-;-;https://link.springer.com/article/10.1023/A%3A1018740226006 1522c70f01481bcda2ec732e80183fda;de;;;5.2.;;;Einige mathematische und algorithmische Herausforderungen bei der Kontrolle quantendynamischer Phänomene Der Theorie und Praxis der Kontrolle quantenmechanischer Phänomene wird zunehmend Aufmerksamkeit geschenkt, unterstrichen durch bemerkenswerte experimentelle Erfolge. Dennoch bleiben viele Fragen von grundlegender und praktischer Relevanz für das Feld ungelöst. Mit dem Ziel, die Weiterentwicklung anzuregen, formuliert dieser Beitrag eine Reihe theoretischer Fragen, die in drei Kategorien unterteilt sind. Zunächst werden Fragen im Zusammenhang mit der Gestaltung von Kontrollgesetzen erörtert, wobei der Schwerpunkt auf Kontrollierbarkeit und optimaler Kontrolltheorie liegt. Dies führt zur zweiten Kategorie offener Probleme, die für die Laborimplementierung von Quantenkontrolle im geschlossenen Regelkreis relevant sind, einschließlich Lern- und Rückkopplungsmethoden. Die sensible Abhängigkeit der Kontrolle von grundlegenden quantenmechanischen Wechselwirkungen motiviert den dritten Abschnitt, der kohärente dynamische Techniken zur Identifizierung des System-Hamilton-Operators behandelt. Ein offenes Thema, das alle diese Richtungen überspannt, ist die Notwendigkeit, allgemeine Regeln für die Kontrolle von Quantensystemen zu finden. Obwohl die Liste der in diesem Papier aufgeworfenen Fragen umfangreich ist, sollte sie nicht als vollständiges Menü für die Erforschung betrachtet werden, sondern eher als Sprungbrett für neue Herausforderungen im Zuge der Entwicklung des Gebiets.;-;-;-;https://link.springer.com/article/10.1023/A%3A1015482329835 7392f621a82bdefd0bde4df8748c97d0;de;;;5.2.;;;Optimales Design für dünnwandige Kastenträger basierend auf Zuverlässigkeit der Materialfestigkeit strength Entsprechend der Zuverlässigkeit der Materialfestigkeit wurde die optimale Auslegung für die Querschnittsgröße des dünnwandigen Kastenträgers untersucht. Zunächst wurde die Querschnittsgröße als Bemessungs-Zufallsgröße bestimmt, dann wurde ihre stochastische Natur untersucht, mit der die Zielfunktion darin besteht, die maximale Zuverlässigkeit des Trägers unter gegebenen Randbedingungen zu suchen. Dieser Weg ist nicht identisch mit dem herkömmlichen optimalen Design für das minimale Gewicht des Materials. Bei der Festlegung des optimalen Ziels wurde die Zuverlässigkeit des Materials unter statischen und ermüdenden Bedingungen berücksichtigt. Der entsprechende berechnete Ausdruck wird angegeben. Normalerweise werden die Querschnittsgrößen an die Normalverteilung angepasst, zur Vereinfachung der Bemessungsgröße wird die Variation der Querschnittsgröße als abhängige Größe proportional zum Mittelwert der Größe angenommen. Der Weg ist nicht nur beim herkömmlichen optimalen Design anders, sondern auch beim gängigen Zuverlässigkeitsdesign. Die maximale Materialzuverlässigkeit wird erreicht, während die Querschnittsfläche reduziert wird, d.h. h., das Gewicht des Materials wird verringert.;-;-;-;https://link.springer.com/article/10.1007/BF02835093 096081ac36505e4f0764420824cb8fc6;de;;;5.2.;;;Aufgaben-irrelevante visuelle Bewegungen und Flimmern dämpfen das aufmerksame Blinzeln Unsere reduzierte Fähigkeit, zwei nacheinander präsentierte Ziele korrekt zu melden, zeigt sich in dem robusten Effekt, der als Aufmerksamkeitsblinzeln bekannt ist (AB, Raymond, Shapiro & Arnell, 1992). Ein kürzlich veröffentlichter Bericht (Olivers & Nieuwenhuis, 2005) zeigt auffallend, dass der AB praktisch abgeschafft wird, wenn im Hintergrund nicht aufgabenintensive Musik gespielt wird. Die Autoren vermuten, dass ein diffuser Aufmerksamkeitszustand der vermittelnde Faktor ist. Hier versuchen wir, die Allgemeingültigkeit des Befunds zu erweitern, indem wir bestimmen, ob aufgabenirrelevante visuelle Bewegungen und Flimmern auch den AB dämpfen. In unseren Experimenten wurde die AB-Aufgabe zusammen mit einem Hintergrundfeld aus sich bewegenden Punkten präsentiert, die sich bewegen konnten;-;-;-;https://link.springer.com/article/10.3758/BF03193969 27adf6b1efd6794039a6df7392b7596c;de;;;5.2.;;;Begrenzt rationale und emotionale Agenten Kooperation, Vertrauen und Gerüchte Unsere Arbeit konzentriert sich auf das Verständnis der Beziehung zwischen Menschen, Agenten, Aufgaben und den sozialen Situationen, in denen sie sich befinden. Daraus wollen wir die elementaren Grundlagen des Sozialverhaltens und der Gruppenphänomene ergründen und Vorhersagen darüber treffen. Unser Leitfaden für diese Bemühungen ist die Model Social Agent Matrix.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-3614-5_9 2fd10de0cb2385d1f42f9828229c09d3;de;;;4.2.;;;Diskursanalyserelevante Fragen: Handlungskontingenz, Interaktion und Mitwirkungskontext Drei Themen möchte ich hier besonders hervorheben, deren vollständige Einbindung in die Diskursanalyse aus meiner Sicht entscheidend für deren optimale Weiterentwicklung ist. Was integriert werden muss, ist eine Orientierung 1) zum Handeln, 2) zur Interaktion und 3) zur Mehrparteien-Interaktion. Es wird sich zeigen, dass die Orientierung an jedem dieser Themen den Diskursstudenten vor eine Art Herausforderung stellt, deren Tiefe und Konsequenz noch nicht vollständig erfasst oder erforscht wurde, aber wahrscheinlich erheblich sein wird. Was unausweichlich wird, wenn man sich Aktion, Interaktion und Mehrparteieninteraktion stellt, ist die Herausforderung der Kontingenz. Was ich mit „Kontingenz“ genau meine, wird erst im Laufe der Diskussion empirischer Materialien deutlich, da es hier nicht sinnvoll ausgeführt werden kann, auf die Bedeutung der Kontingenz komme ich am Ende zurück.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-03293-0_1 d6910e38d7cff9f3ee5c3aae71ccb00e;de;;;5.2.;;;Modifizierte nichtmonotone Armijo-Liniensuche für die Abstiegsmethode Der nichtmonotone Liniensuchansatz ist eine neue Technik zum Lösen von Optimierungsproblemen. Es entspannt den Liniensuchbereich und findet bei jeder Iteration eine größere Schrittweite, um möglicherweise lokalen Minimierer zu vermeiden und von einem engen gekrümmten Tal wegzulaufen. Es ist hilfreich, den globalen Minimierer von Optimierungsproblemen zu finden. In diesem Artikel entwickeln wir eine neue Modifikation der matrixfreien nichtmonotonen Armijo-Liniensuche und analysieren die globale Konvergenz und Konvergenzrate der resultierenden Methode. Wir behandeln auch mehrere Ansätze, um die Lipschitz-Konstante des Gradienten von Zielfunktionen zu schätzen, die in Liniensuchalgorithmen verwendet würden. Numerische Ergebnisse zeigen, dass diese neue Modifikation der Armijo-Liniensuche effizient ist, um großmaßstäbliche, uneingeschränkte Optimierungsprobleme zu lösen.;-;-;-;https://link.springer.com/article/10.1007/s11075-010-9408-7 0c9fa8fb3ad28bae0694e6854eda7d5e;de;;;5.2.;;;Ein Informationsbenachrichtigungsmodell mit VPC auf KODAMA in einer allgegenwärtigen Computerumgebung und sein Experiment Die Benachrichtigung der Benutzer mit nützlichen Informationen ist notwendig, um ihnen ihre Umgebung bewusst zu machen, und ist in einer allgegenwärtigen Computerumgebung von besonderem Vorteil. Umfang und Art der bereitzustellenden Informationen hängen jedoch von den Umständen ab. Zu viele Informationen verwirren die Benutzer. Systeme, die zur Verbreitung von Informationen in einer allgegenwärtigen Computerumgebung verwendet werden, sollten nicht allen Benutzern alle Informationen zur Verfügung stellen, sondern sollten stattdessen die verbreiteten Informationen je nach Umständen und Kontext modifizieren. Darüber hinaus benötigen Systeme, die für die Verwendung in einer allgegenwärtigen Computerumgebung ausgelegt sind, aus verschiedenen Gründen, einschließlich des Schutzes der Privatsphäre, eine Sicherheitsfunktion. Aus diesen Gründen haben wir ein Modell zur Informationsverbreitung entwickelt, genannt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45217-1_3 a7e89ce8d74c99c49f47bd099742aafe;de;;;5.2.;;;Ein auf semantischer Kohärenz basierendes intelligentes Suchsystem Die großen ungeordneten Sätze tauchen im Web auf, seit die massiven neuartigen Web-Social-Medias aufgetaucht sind. Obwohl diese ungeordneten Sätze reichhaltige Informationen enthalten, bieten sie Benutzern nur einen inkohärenten Informationsdienst, da sie lose semantische Beziehungen haben. Benutzer erwarten normalerweise, semantisch kohärente Informationsdienste zu erhalten, wenn sie mit massiven ungeordneten Sätzen konfrontiert sind. Leider sind allgemeine Websuchmaschinen auf ein solches Problem nicht anwendbar, da sie nur eine flache Liste ungeordneter Webseiten basierend auf Schlüsselwörtern zurückgeben. In diesem Beitrag schlagen wir ein neuartiges, auf semantischer Kohärenz basierendes intelligentes Suchsystem vor. Das Suchsystem kann einen Suchdienst auf Basis von semantischer Kohärenz bereitstellen, der das Auswählen semantisch kohärenter Sätze und das Einstufen der Sätze auf semantisch kohärente Weise umfasst. Wenn ein Benutzer semantisch inkohärente Sätze als Abfragen eingibt, kann unser System einen semantisch zusammenhängenden Absatz als Suchergebnisse zurückgeben. Der Prozess wird an einem prototypischen System demonstriert und es werden Experimente durchgeführt, um seine Korrektheit zu validieren. Die Ergebnisse von Experimenten haben gezeigt, dass das System semantisch kohärente Sätze von anderen unterscheiden und die Sätze auf semantisch kohärente Weise mit höherer Genauigkeit einstufen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-02750-0_42 ecd72a9087b0a0a368aba1280379de40;de;;;5.2.;;;Drei Schnittstellen für den inhaltsbasierten Zugriff auf Bildsammlungen Dieses Papier beschreibt Schnittstellen für eine Reihe von drei kürzlich entwickelten Techniken, um den inhaltsbasierten Zugriff auf große Bild- und Video-Repositorys zu erleichtern. Zwei dieser Techniken beinhalten einen inhaltsbasierten Abruf, während sich die dritte Technik auf eine neue Browsing-Struktur konzentriert und eine nützliche Ergänzung zum traditionellen Paradigma der Abfrage nach Beispiel bildet. Jede Technik ist mit ihrer eigenen Benutzeroberfläche verbunden und ermöglicht einen anderen Satz von Benutzerinteraktionen. Der Benutzer kann sich während der Ausführung einer bestimmten Suche zwischen den Schnittstellen bewegen und kann so die besonderen Stärken der verschiedenen Techniken kombinieren. Wir veranschaulichen jede der Techniken anhand von Themen aus dem TRECVID-Wettbewerb 2003.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27814-6_58 001c6c55f2555a1e7143b4a6035a6b19;de;;;4.2.;;;Psychomotorische Intervention mit Biofeedback-Technologie für ältere Menschen mit chronisch obstruktiver Lungenerkrankung Wenn wir über das Altern sprechen, müssen wir nicht nur das chronologische Alter berücksichtigen, sondern auch einen komplexen und dynamischen Prozess biologischer, psychischer und sozialer Veränderungen. Die chronisch obstruktive Lungenerkrankung (COPD) wird in dieser Studie hervorgehoben, da sie eine der häufigsten und eine der führenden Ursachen für die weltweite Sterblichkeit älterer Menschen ist. Daher die Bedeutung der Psychomotorik in diesem Fall, da sie auf das Bewusstsein und die Regulierung der physiologischen und psychologischen Systeme einwirkt und den Lernprozess erleichtert (nach den Prinzipien der Lerntheorie und des kognitiven Verhaltens). Darüber hinaus wird auch der Einsatz von Support-Technologien basierend auf den therapeutischen Strategien des Biofeedback-Systems vorgeschlagen. Durch die Anwendung der von der Psychomotorik vorgeschlagenen Ziele und den Einsatz der mit Biofeedback verbundenen Technologie wird der Mensch mit COPD daher in der Lage, die mit der Krankheit verbundenen Symptome zu kontrollieren und folglich mehr Autonomie im täglichen Leben zu erlangen (wesentlich, um seine Lebensqualität).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-16028-9_19 e7825d1a0ee91ae5461e860a2afb3426;de;;;4.2.;;;Prominente als Marketing-EnhancerFallanalyse der Alternative Food-Bewegung und „Eco-Chic“-Lifestyle-Befürwortung Globalisierung, Industrialisierung und Neoliberalismus haben zu sozialer Ungleichheit und Umweltzerstörung geführt, während immer mehr Prominente, insbesondere in der Unterhaltungsindustrie, diesen Trend nutzen, um ihren Einfluss auf die Öffentlichkeit durch ökologische Interessenvertretungen wie „alternative“ Ernährungsgeographien und „Öko- schicker“ Lebensstil. Der Zweck dieses Beitrags ist es zu untersuchen, inwieweit die Umweltbefürwortung von Prominenten als Branding-Methode von Prominenten selbst funktioniert. Nach konzeptionellen Hintergrunddiskussionen wie Definition von Prominenten, Arten von Prominenten und was „Öko-Chic“-Lebensstil bedeutet, kritische Bewertung des Obigen Themen findet mit einer guten Auswahl an empirischen Beispielen statt. Die Ergebnisse zeigen, dass die Interessenvertretung von Prominenten im Grunde eine Art von Star-getriebene „Außenstrategie“ des sozialen Protests ist, die Themen popularisiert und die Sichtbarkeit von Prominenten selbst vergrößert. Diese Forschung hat einen neuen Marketingtrend vorgestellt, der die politische Ökologie als Mittel zur Eigenmarke von Prominenten einbezieht, die im Kapitalismus ohne weiteres als „Produkte“ angesehen werden könnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29920-9_27 183a17a2c3a0736507b8b59edd712b79;de;;;4.2.;;;Einstellung junger Bürger zu Videoüberwachung und Online-Überwachung in Russland Die Digitalisierung der Governance soll die öffentliche Zufriedenheit mit dem staatlichen Dienst erhöhen und die Beteiligung der Bürger an Sicherheitsvorkehrungen erleichtern. Aufgrund des Digitalisierungstrends ist mit einem Ausbau digitaler Technologien in der Polizei zu rechnen. Diese Technologien können zur Überwachung eingesetzt werden, aber auch eine Plattform für die Zusammenarbeit zwischen verschiedenen Akteuren in der Sicherheitsproduktion schaffen. Daher ist die Wahrnehmung von Technologien durch die Bürger von entscheidender Bedeutung. Russland kann nicht als Vorreiter beim Einsatz von Polizeitechnologien angesehen werden. Die Zahl der Überwachungskameras (CCTV) an öffentlichen Orten nimmt jedoch stetig zu. Die polizeiliche Überwachung erstreckt sich auch auf virtuelle Räume wie soziale Netzwerke und öffentliche Messenger. Basierend auf einer Stichprobe von 570 Universitätsstudenten in St. Petersburg, Russland, untersuchen wir Ansichten zu Videoüberwachung und Online-Überwachung. Die Ergebnisse zeigen, dass junge Menschen bereit sind, Überwachung an öffentlichen Orten zu akzeptieren, aber Online-Überwachungstools und -Vorschriften nicht unterstützen. Die Ansichten der Bürger hinsichtlich der Wirksamkeit von Polizeitechnologien bei der Kriminalprävention, der Erhöhung der Sicherheit und der Erhöhung der Rechenschaftspflicht der Polizei sind ambivalent. Sie äußern jedoch Bedenken hinsichtlich einer möglichen Verletzung ihrer Privatsphäre durch den Einsatz von Technologie. Die Studie wurde von der Russischen Stiftung für Grundlagenforschung finanziert (Förderung 18-011-00756 A „Die Studie über die Beteiligung von Bürgern an der öffentlichen Verwaltung unter Bedingungen der Bildung einer digitalen Regierung“).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-65218-0_5 eeb017688c22e40a925279e8b724e9e2;de;;;5.2.;;;Maximale Leistungsextraktion unter Verwendung eines zufälligen binären Suchalgorithmus bei ungleichmäßiger Sonneneinstrahlung Der Maximum Power Point Tracker (MPPT) steuert den DC/DC-Wandler zum Extrahieren der maximalen Leistung aus einem Solar-Photovoltaik-Array (SPV), das mit einem Stromerzeugungssystem verbunden ist. MPPT arbeitet an seinem maximalen Leistungspunkt (MPP) (;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5341-7_7 fa7c7b546db3e44412b0a3885085d0b4;de;;;5.2.;;;Faltungen von allgemeinen Integrationsoperatoren. Anwendungen In diesem Kapitel betrachten wir systematisch das Problem des Auffindens von Faltungen für einen beliebigen rechtsinversen Operator des Differentiationsoperators in verschiedenen Funktionsräumen, insbesondere für stetige, für lokal integrierbare und für lokal holomorphe Funktionen. Die resultierenden Faltungen werden für einen algebraischen Ansatz für das Problem der Entwicklung lokal holomorpher Funktionen in Dirichlet-Reihen auf einem gegebenen Exponentensystem verwendet. Damit erhalten wir die Leontiev-Erweiterung. Ein neues Problem, das durch diesen algebraischen Ansatz gelöst wird, ist das Multiplikatorproblem für die formalen Leontiev-Entwicklungen lokal holomorpher Funktionen. Der Faltungsansatz wird auf einige Analogonen der allgemeinen Integrationsoperatoren erweitert: die rechte Umkehrung des Rückwärtsverschiebungsoperators und des Gelfond-Leontiev-Integrationsoperators.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-0527-6_2 30b0a760cc46404ab620236f05642091;de;;;5.2.;;;Globale Optimierung für das verallgemeinerte Polynomsummenproblem In diesem Papier wird ein neuer deterministischer globaler Optimierungsalgorithmus vorgeschlagen, um ein fraktionelles Programmierproblem zu lösen, dessen Ziel- und Einschränkungsfunktionen alle als die Summe verallgemeinerter Polynomverhältnisse definiert sind, die in verschiedenen praktischen Problemen auftritt. Aufgrund seiner intrinsischen Schwierigkeit wurde der globalen Lösung dieses Problems weniger Arbeit gewidmet. Der vorgeschlagene Algorithmus basiert auf der Umformulierung des Problems als monotones Optimierungsproblem, und es stellt sich heraus, dass die durch den Algorithmus bereitgestellte optimale Lösung hinreichend gewährleistet ist, dass sie realisierbar ist und nahe an der tatsächlichen optimalen Lösung liegt. Die Konvergenz des Algorithmus wird gezeigt und numerische Beispiele werden gegeben, um die Durchführbarkeit und Effizienz des vorliegenden Algorithmus zu veranschaulichen.;-;-;-;https://link.springer.com/article/10.1007/s10898-010-9593-x f13928d3d8e3df5d824105e7a3d5477e;de;;;5.2.;;;Membranveränderungen bei oxidativem Stress: die Wirkung oxidierter Lipide Das Studium der photosensibilisierten Oxidation ungesättigter Phospholipide ist von Bedeutung für das Verständnis der grundlegenden Prozesse, die der photodynamischen Therapie, der Photoalterung und vielen anderen biologischen Dysfunktionen zugrunde liegen. In diesem Aufsatz zeigen wir, dass das riesige unilamellare Vesikel, wenn es als vereinfachtes Modell biologischer Membranen verwendet wird, ein leistungsfähiges Werkzeug ist, um zu untersuchen, wie sich in situ photogenerierte oxidative Spezies auf die Phospholipiddoppelschicht auswirken. Das Ausmaß der Membranschädigung kann durch die Wahl eines spezifischen Photosensibilisators (PS) moduliert werden, der durch Lichtbestrahlung aktiviert wird und entweder nach Typ I- oder Typ II-Mechanismen reagieren kann. Wir werden zeigen, dass PS vom Typ II nur Singulett-Sauerstoff erzeugt, der mit der Phospholipid-Acyl-Doppelbindung reagiert. Das so gebildete Nebenprodukt ist ein Lipidhydroperoxid, das sich in Abhängigkeit von der Singulett-Sauerstoffproduktion in der Membran anreichert und eine Vergrößerung seiner Fläche induziert, ohne die Membranpermeabilität wesentlich zu beeinträchtigen. Die Anwesenheit eines Lipidhydroperoxids kann auch eine wichtige Rolle bei der Bildung der Lipiddomäne für mimetische Plasmamembranen spielen. Lipidhydroperoxide können auch in Gegenwart eines PS, das über den Typ-I-Mechanismus reagiert, in Verbindungen mit verkürzter Kette wie Aldehyde und Carbonsäuren umgewandelt werden. Die Anwesenheit solcher Nebenprodukte kann bei moderatem oxidativem Stress hydrophile Poren in der Membran bilden oder bei massiver Oxidation die Zerstörung der Membran fördern. Unsere Ergebnisse bieten ein neues Werkzeug zur Untersuchung der Membranreaktion auf oxidativen Stress und können Auswirkungen auf die biologische Signalgebung von Redox-Fehlgleichgewichten haben.;-;-;-;https://link.springer.com/article/10.1007/s12551-013-0128-9 9c5b594ff6dc30448ea9f19dc5914da1;de;;;4.2.;;;ICT4Governance in Ostafrika Das Interesse und die Investitionen in die Rolle von Informations- und Kommunikationstechnologien (IKT) in der Regierungsführung in ganz Afrika steigen, doch empirische Belege für den Einsatz von IKT in der Regierungsführung in Ostafrika sind nach wie vor dürftig. Die Studie ICT for Governance in East Africa untersucht den Einsatz von IKT in vier spezifischen Bereichen der Governance (i) Zugang zu Informationen, (ii) Bereitstellung öffentlicher Dienstleistungen, (iii) Verfolgung von Korruption und (iv) Bürgerbeteiligung. Diese Studie versucht, Situationen zu identifizieren, zu beschreiben und zu analysieren, in denen IKT erfolgreich die wechselseitige Interaktion zwischen Regierung und Bürgern in Kenia, Uganda und Tansania erleichtert oder behindert haben und eingesetzt werden können. In diesem erweiterten Abstract werden die theoretischen Rahmenbedingungen und die in dieser Studie verwendete Methodik diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16886-9_18 3a7e07a417b3228096a745cc8412bc38;de;;;5.2.;;;Verbesserte stückweise Regression basierend auf deterministischem Annealing Regression ist eines der wichtigsten Probleme der statistischen Lerntheorie. Dieses Papier beweist die globale Konvergenz des stückweisen Regressionsalgorithmus basierend auf deterministischem Annealing und Kontinuität des globalen Minimums der freien Energie bezüglich der Temperatur und leitet eine neue vereinfachte Formel zur Berechnung der anfänglichen kritischen Temperatur ab. Ein neuer verbesserter stückweiser Regressionsalgorithmus unter Verwendung der „Migration von Prototypen“ wird vorgeschlagen, um „leere Zellen“ im Annealing-Prozess zu eliminieren. Numerische Experimente an mehreren Benchmark-Datensätzen zeigen, dass der neue Algorithmus Redundanz beseitigen und die Generalisierung des stückweisen Regressionsmodells verbessern kann.;-;-;-;https://link.springer.com/article/10.1007/s11432-008-0079-0 96158999aca4d10fac2c00c650d35cc4;de;;;5.2.;;;Rechenkomplexität des räumlichen Denkens mit Richtungsbeziehung Die Eigenschaft der NP-Vollständigkeit des topologischen räumlichen Schlußfolgerungsproblems wurde bewiesen. Entsprechend der Ähnlichkeit der Unsicherheit mit topologischem räumlichen Denken sollte das Problem des gerichteten räumlichen Denkens auch ein NP-vollständiges Problem sein. Der Beweis für die Eigenschaft der NP-Vollständigkeit im Directional Spatial Reasoning Problem basiert auf zwei wichtigen Transformationen. Nach diesen Transformationen wurde eine räumliche Konfiguration basierend auf Richtungsbeschränkungen konstruiert, und die Eigenschaft der NP-Vollständigkeit beim Directional Spatial Reasoning wurde mit Hilfe der Konsistenz der Beschränkungen in der Konfiguration bewiesen.;-;-;-;https://link.springer.com/article/10.1007/BF02826389 98ad1aa1d8be661565c1bff18ce886c5;de;;;5.2.;;;Schattenerkennung und -kompensation für farbige Luftbilder Ein Verfahren zur Schattenerkennung und -kompensation für Farbluftbilder wird vorgestellt. Es wird davon ausgegangen, dass der Intensitätswert jedes Bildpixels das Produkt der Beleuchtungsfunktion und der Reflexion des Bodenobjekts ist und die abgeschatteten Bereiche auf dem Bild hauptsächlich durch den Mangel an Beleuchtung verursacht werden, daher sollte sich die Informationskompensation für die abgeschatteten Bereiche auf die Beleuchtungseinstellung des betroffenen Bereichs auf der Grundlage der Analyse des gesamten Bildes. Das in diesem Papier vorgeschlagene Verfahren zur Schattenerkennung und -kompensation besteht aus vier Schritten.;-;-;-;https://link.springer.com/article/10.1007/BF02826888 4d3650445b4629af4281e12a25d838f7;de;;;5.2.;;;Algorithmische Animation zum Konstruieren von Oberflächen aus Zellen Die Ausdrucksfähigkeit von Objektformen in CAD-Systemen war bisher auf Polyeder oder Kombinationen primitiver Formen wie Würfel, Zylinder und Kugeln beschränkt. Die auf der Morse-Theorie basierende Oberflächencodierungsmethode ermöglichte es uns jedoch, komplexe Formen von Objekten zu codieren und zu konstruieren, die glatt sind, unter Verwendung von Primitiven, die „Zellen“ genannt werden. Es konstruiert Objektoberflächen durch Einfügen von Zellen. Damit Benutzer das Bauverfahren besser verstehen, ist eine Computeranimation nützlich, die das Bauverfahren zeigt. In diesem Beitrag werden die Algorithmusanimation der Flächenkonstruktion und die Transformation der konstruierten Fläche vorgestellt. Zuerst spezifiziert ein Benutzer das Skelett des Objekts, das als Reeb-Graphen bezeichnet wird. Die Oberflächencodierung wird dann automatisch durchgeführt. Schließlich wird die Animation zum Konstruieren des Objekts von oben nach unten erzeugt. Als Beispiel für die Algorithmusanimation wird die Oberfläche einer menschlichen Cochlea konstruiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-68186-1_13 4f885ec1ce6882937af828ef56064015;de;;;5.2.;;;Schätzung der Erdrotationsparameter durch GPS-Beobachtungen Die Methoden der Schätzung der Erdrotationsparameter (ERP) basierend auf der IGS SINEX-Datei der GPS-Lösung werden im Detail diskutiert. Es gibt zwei verschiedene Möglichkeiten, ERP zu schätzen: Zum einen die Methode der Parametertransformation und zum anderen die Methode der direkten Anpassung mit restriktiven Bedingungen. Durch Vergleichen der geschätzten Ergebnisse mit einem unabhängigen Copyright-Programm mit den IERS-Ergebnissen kann der verbleibende systemische Fehler im geschätzten ERP mit GPS-Beobachtungen gefunden werden.;-;-;-;https://link.springer.com/article/10.1007/BF02826737 e9f217fc1c2053cb4210ea6661685315;de;;;5.2.;;;Eine Kurznachrichten-basierte Methode von BEIDOU zur Verteilung von Positionsinformationen von Wiedereintrittsfahrzeugen Die traditionellen Wiedereintrittsfahrzeuge, einschließlich wiederherstellbarer Satelliten, Fahrzeuge für Weltraummissionen und bemannte Raumfahrzeuge, verwenden die Art der Übertragung typischer Bakensignale an den Bodenteil, um eine Positionierung zu realisieren. Die Suche dauert jedoch normalerweise lange, da nur Richtungsinformationen verfügbar sind, was das Risiko auf ein hohes Niveau heben kann. In diesem Beitrag wird ein neuartiges Verfahren vorgeschlagen, das auf der Kurznachrichtenkommunikation von BEIDOU basiert. Erstens sind die Wiedereintrittsfahrzeuge in der Lage, Selbstpositionsinformationen durch Empfangen und Analysieren von Signalen vom GPS- oder BEIDOU-System zu erfassen. Danach wird die Kurznachrichten-Kommunikationskette von BEIDOU verwendet, um die genauen Positionsinformationen an den Boden zu senden. Verglichen mit der traditionellen Methode wird die Effizienz des Suchverfahrens erheblich verbessert, da jetzt genauere Positionsinformationen verfügbar sind. Gleichzeitig wird auch das Suchrisiko reduziert. Das Papier besteht aus drei Teilen. Im ersten Teil wird der gesamte Informationsfluss einschließlich des Raumteils und des Bodenteils vorgestellt. Anschließend werden das Design des Systems und der wichtigsten Instrumente an Bord sowie die Machbarkeit in einer typischen Anwendung veranschaulicht. Zuletzt werden die Verifikationsergebnisse der in einem Experiment vorgeschlagenen Methode angezeigt. Durch den Vergleich mit der traditionellen Methode werden die Perspektiven und Anwendungsmöglichkeiten abgeschlossen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3707-3_36 376209c70771a919f0f07b3e8054bd57;de;;;5.2.;;;Äquivalenz von Netzwerklösung und PPP-Lösung Die Technik der präzisen Punktpositionierung (PPP) wird nach und nach zu einer populären Methode in der GPS-Datenverarbeitung. In der GPS-Beobachtungsgleichung können die unbekannten Parameter in zwei Teile unterteilt werden: globale Parameter und lokale Parameter. Die globalen Parameter umfassen Umlaufbahn, Satellitenuhr und geodynamische Parameter. Die lokalen Parameter sind ortsbelegungsspezifisch, wie Position, troposphärische Verzögerung usw. Die Formeln der lokalen Parameter werden zunächst unter den Bedingungen der Netzwerklösung bzw. der PPP-Lösung hergeleitet. Wenn die Gewichtsmatrix der globalen Parameter in der PPP-Lösung klein genug ist, sind die Kofaktormatrizen der lokalen Parameter die gleichen wie in der Netzwerklösung. Dann werden 16 Tageslösungen sowohl im PPP-Modus als auch im Netzwerkmodus erhalten. Drei Standorte werden ausgewählt, um die Lösungen zu vergleichen. Die experimentellen Ergebnisse zeigten, dass der Unterschied zwischen zwei Lösungen in Bezug auf Koordinaten und troposphärische Verzögerungen nur wenige Millimeter beträgt. Dieser Unterschied kann vernachlässigt werden, so dass die Lösungen sowohl aus dem PPP-Modus als auch aus dem Netzwerkmodus in der tatsächlichen Anwendung als gleich angesehen werden können.;-;-;-;https://link.springer.com/article/10.1007/BF02826933 6fa830021572cc74baded3a3866d2cd0;de;;;4.2.;;;Die Ansteckung prosozialen Verhaltens und die Entstehung freiwilliger Gemeinschaften Jeden Tag schreiben Millionen von Menschen Online-Restaurantbewertungen, hinterlassen Produktbewertungen, geben Antworten auf die Frage eines unbekannten Benutzers oder tragen Codezeilen zu Open-Source-Software bei, alles ohne direkte Belohnung oder Anerkennung. Menschen helfen Fremden auch offline, beispielsweise wenn Menschen anonym Blut spenden oder anhalten, um einem gestrandeten Autofahrer zu helfen, aber diese Verhaltensweisen sind im Vergleich zur Verbreitung von Online-Communitys, die auf nutzergenerierten Inhalten basieren, relativ selten. Warum sind Gemeinschaften auf Gegenseitigkeit viel häufiger online als in traditionellen Offline-Umgebungen, die nicht über das Internet vermittelt werden? Dieses Rätsel lösen wir in zwei Schritten. Wir beginnen mit empirischen Beweisen aus einem Online-Experiment, das zwei Mechanismen für die Ansteckung von Hilfsverhalten testet: „generalisierte Reziprozität“ und „Einfluss durch Dritte“. Wir verwenden dann ein empirisch kalibriertes agentenbasiertes Modell, um zu zeigen, wie diese Mechanismen mit der Rivalität der Beiträge interagieren, d. h. inwieweit der Nutzen aus einem Beitrag auf nur einen Begünstigten beschränkt ist (wie bei der Unterstützung eines gestrandeten Autofahrers) oder Vorteile viele Personen gleichzeitig (wie wenn Sie online eine Produktbewertung abgeben). Die Ergebnisse legen nahe, dass die Nichtrivalität der meisten nutzergenerierten Inhalte eine plausible Erklärung für die schnelle Verbreitung von Hilfeverhalten in Online-Communitys darstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-14011-7_7 4c1ba1092e37a192ed82fc2f8a94cfa5;de;;;4.2.;;;Das Dilemma der Lohngleichheit, mit dem Frauen auf der ganzen Welt konfrontiert sind „Gehaltsunterschiede sind schlecht fürs Geschäft, und doch sind sie im Finanzwesen weit verbreitet“ (Morgan 2018). In jüngster Zeit hat es weltweit, insbesondere in der Dienstleistungsbranche, soziale Bewegungen gegeben, die das geschlechtsspezifische Lohngefälle hinterfragen und verringern. In dieser Studie untersuchen wir das Dilemma der Lohngleichheit, mit dem Frauen konfrontiert sind, und wie es in verschiedenen Regionen der Welt unterschiedlich ist. Unsere Forschung konzentriert sich auf die kulturellen Merkmale (wie Machtdistanz, Individualismus, Unsicherheitsvermeidung und Männlichkeit) und wie sich die Normen einer Gesellschaft auf die Lohnungleichheit auswirken. Wir gehen auch tiefer in unsere Diskussionen über die Dienstleistungsbranchen ein. Durch ein besseres Verständnis der zugrunde liegenden Gründe für Lohnungleichheit können Veränderungen vorgenommen werden, die nicht nur das Endergebnis eines Unternehmens, sondern auch die Lebensqualität auf der ganzen Welt verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-04726-9_13 2a07b61ced6936872178746ce0f2664e;de;;;4.2.;;;Korrelationen von Gelegenheitssex inmitten der Anfälligkeit für HIV bei heterosexuellen ACB-Männern in Ottawa und Windsor, Ontario, Kanada Heterosexuelle Exposition ist die zweithöchste Art der HIV-Übertragung, und afrikanische, karibische und schwarze (ACB) Männer sind größeren Risiken ausgesetzt. Schwarze Männer können die unverhältnismäßig hohe HIV-Prävalenz in ihren Gemeinschaften reduzieren, indem sie ihre gesellschaftlich falsch verstandene männliche Rolle ändern. Wir analysierten Faktoren, die heterosexuelle ACB-Männer für riskantes Sexualverhalten anfällig machen, insbesondere mehrere gelegentliche Sexpartnerschaften in Ottawa und Windsor, Ontario, Kanada. Wir verwendeten quantitative Datensätze aus einer breiteren Mixed-Methods-Studie innerhalb eines hierarchischen logistischen Regressionsmodells, um den Zusammenhang zwischen psychosozialen Faktoren und gelegentlichen Sexpartnerschaften zu bestimmen. Das Modell kontrollierte den Clustering-Effekt auf Stadtebene und soziodemografische Faktoren. Genau 55,0 % (;-;-;-;https://link.springer.com/article/10.1007/s40615-021-00975-z e62b94a717fea6ceb5f3b86d177f90fd;de;;;4.2.;;;Hybride Methode der Clusterisierung von Daten mit mehreren Faktoren Das drängende wissenschaftliche Problem des Multifaktor-Clustering unter Verwendung verschiedener Methoden der Normalisierung und Mittelung wird untersucht. Metrikberechnungswerte zur Verbesserung der Clustering-Qualität. Es wurde eine Literaturrecherche zu wissenschaftlichen Publikationen zum Thema Clustering von Social Graphs und Identifizierung von Communities durchgeführt. Die Mängel der modernen Forschung im Bereich der Analyse sozialer Netzwerke werden aufgezeigt. Die Liste der als Basis für die Datenvorverarbeitung empfohlenen Netzwerkanalysemetriken wird vorgestellt. Es wird der Algorithmus der hybriden Methode des multifaktoriellen Clusterings vorgestellt, der es ermöglicht, den Rechenaufwand des Datenclusterings zu reduzieren. Es wird ein Algorithmus-Ausführungsverfahren zum Auswählen mehrerer Zentralitätsmetriken beschrieben. Es werden verschiedene Verfahren zur Mittelung von Zentralitätsmetriken vorgestellt. Dieser Ansatz kann die Bewertung der Clusterqualität deutlich erhöhen. Die entwickelte Hybridmethode basierend auf Mittelwertbildung und dem Louvain Multi-Faktor-Clustering-Algorithmus ermöglicht es uns, Rechenressourcen zu reduzieren. Das Anwendungsproblem der Clusterbildung in der Online-Community ITMO.EXPERT des sozialen Netzwerks VKontakte wird berücksichtigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-65218-0_11 26aed483270a98c7fe5a9f948bc333e6;de;;;4.2.;;;Elektronische und traditionelle Sparkonten in Kolumbien: Ein räumliches Agglomerationsmodell Der Zweck dieses Artikels besteht darin, eine multivariate räumliche Statistiktechnik anzuwenden: Clusteranalyse oder räumliche Agglomeration, um Abteilungen in Gruppen basierend auf dem Verhalten der Anzahl aktiver, inaktiver elektronischer Sparkonten und traditionell aktiver Sparkonten zu klassifizieren, wobei die Datenbank als verfügbar ist September 2017 in der Bank von Kolumbien. Die Auswahl dieser Art von Konten war darauf zurückzuführen, dass das Finanzprodukt mit der höchsten Penetration in der kolumbianischen Bevölkerung im September 2017 weiterhin das Sparkonto war, 73,5 % der Bevölkerung besaßen dieses Finanzprodukt. Dieser Prozentsatz liegt jedoch weit von dem im Nationalen Entwicklungsplan vorgeschlagenen Ziel von 84 % entfernt. Die Ergebnisse zeigen, dass die Departements, in denen elektronische Konten am häufigsten verwendet werden, Cauca, Bogotá, Meta, Casanare, Arauca, Vichada, Huila, Amazonas, Guainía, Vaupés, Caldas, Chocó, Sucre, La Guajira, César, Norte de Santander sind. die Durchdringung dieser Art von Produkten ist auf kolumbianischem Gebiet noch sehr gering.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-93803-5_28 d043a772a48510fc62a3510604c1830c;de;;;4.2.;;;Computervermittelte Kommunikation und Kollaboration in einer virtuellen Lernumgebung basierend auf einem Multiagentensystem mit wespenähnlichem Verhalten In diesem Beitrag wird ein Modell für ein adaptives Multi-Agenten-System zur dynamischen Weiterleitung der Stipendienaktivitäten aus einer Lernumgebung basierend auf dem adaptiven Verhalten von Wespenkolonien vorgestellt. Die Agenten verwenden das Aufgabenverteilungsverhalten der Wespen, kombiniert mit einem Modell der Hierarchiebildung der Wespendominanz. Das von uns eingeführte Modell ermöglicht die Zuweisung von Aktivitäten in einem Stipendium unter Berücksichtigung der Spezialisierung der Studierenden, ihrer Erfahrung und der Komplexität der bereits durchgeführten Aktivitäten. Eine adaptive Methode ermöglicht es den Schülern, erstmals in das Stipendiensystem einzusteigen. Das System verändert sich dynamisch, weil sich sowohl die Art der Aktivitäten als auch die am System beteiligten Studierenden ändern. Unser Ansatz hängt von vielen Systemparametern ab. Für die Implementierung wurden diese Parameter von Hand abgestimmt. Das von uns entwickelte Grant-System ist in ein schülerzentriertes virtuelles Bildungssystem integriert, das das Lernen durch Zusammenarbeit als eine Form der sozialen Interaktion erleichtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78827-0_71 97ddd834f24f867b991672a8ddaccf86;de;;;4.2.;;;Rekombinante Bioprozesstechnologie: Unterscheidet sie sich von der traditionellen mikrobiellen Kulturprozesstechnologie Jüngste Entwicklungen und Fortschritte auf dem Gebiet der Gentechnik und Biotechnologie haben gezeigt, dass ihre Anwendungsmöglichkeiten auf verschiedene Genprodukte und Biokonversionsprodukte unbegrenzt sind. Einige dieser biotechnologisch gewonnenen Produkte sind bereits auf dem Markt erhältlich, andere sind auf dem Weg zur Marktreife. Zu den wichtigen Spitzenreitern unter diesen neuen Genprodukten zählen: Insulin, Wachstumshormone, Interferone, Interleukin-2, Gewebeplasminogenaktivator, verschiedene Impfstoffe, Diagnostika, Aminosäuren und Enzyme. Auch in den Bereichen Bioverfahrenstechnik oder „Engineering Biotechnology“, die traditionelle Bioprozesstechnik, Enzymtechnik, Bioseparationstechnik, Bioreaktorsystem und Biosensortechnik umfasst, wurden erhebliche Fortschritte erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-74227-9_32 1a813013d614f6737dd5058356afe746;de;;;5.2.;;;Ein Lernrahmen für die Informationsblocksuche basierend auf probabilistischen grafischen Modellen und Fisher Kernel Im Gegensatz zu herkömmlichen Methoden des Web-Informationsabrufs, die nur eine Rangliste von Webseiten zurückgeben und nur Suchbegriffe in der Abfrage zulassen, haben wir ein neuartiges Lernframework entwickelt, um bei einer Abfrage präzise Informationsblöcke von Webseiten abzurufen, die einige Suchanfragen enthalten können Begriffe und Vorinformationen wie das Layoutformat der Daten. Es gibt zwei herausfordernde Teilaufgaben für dieses Problem. Eine Herausforderung ist die Erkennung von Informationsblöcken, bei der eine Webseite automatisch in Blöcke segmentiert wird. Eine weitere Herausforderung besteht darin, die für die Abfrage relevanten Informationsblöcke zu finden. Bestehende Seitensegmentierungsverfahren, die nur visuelle Layoutinformationen oder nur Inhaltsinformationen verwenden, berücksichtigen die Abfrageinformationen nicht, was zu einer Lösung führt, die mit dem durch die Abfrage ausgedrückten Informationsbedarf in Konflikt steht. Unser Framework zielt darauf ab, die Abfrage- und Blockfunktionen zu modellieren, um sowohl Schlüsselwortinformationen als auch Vorinformationen über ein probabilistisches grafisches Modell zu erfassen. Fisher Kernel, der das grafische Modell effektiv einbeziehen kann, wird dann verwendet, um die beiden Teilaufgaben auf einheitliche Weise zu erfüllen, wodurch das Endziel der Blockabrufleistung optimiert wird. Wir haben Experimente mit Benchmark-Datensätzen und Read-World-Daten durchgeführt. Vergleiche zwischen bestehenden Methoden wurden durchgeführt, um die Wirksamkeit unseres Frameworks zu bewerten.;-;-;-;https://link.springer.com/article/10.1007/s13042-017-0657-9 db2f7ac7c08d41351ff1b8486f7e3932;de;;;4.2.;;;Die Wirksamkeit einer spirituellen Intervention zur Linderung von subsyndromaler Angst und leichter Depression bei älteren Erwachsenen Old Der Zweck dieser Studie war es, die Wirksamkeit einer spirituell basierten Intervention zur Linderung von subsyndromaler Angst und leichter Depression bei einer älteren Bevölkerung zu testen. An dieser Studie nahmen 22 Bewohner von sechs Pflegegemeinschaften teil, bei denen eine leichte Depression diagnostiziert wurde. Es gab eine signifikante Abnahme der Angst und einen Trend zu einer Abnahme der Depression. Darüber hinaus wiesen Teilnehmer, die weiterhin das Gebetsrad verwendeten, einen Rückgang der Depressionswerte auf, während diejenigen, die keinen Anstieg der Depressionswerte aufwiesen, auf. Diese Ergebnisse legen nahe, dass die Verwendung der Gebetsmühle das psychische Wohlbefinden bei älteren Erwachsenen fördern kann.;-;-;-;https://link.springer.com/article/10.1023/A%3A1015854226937 e1336c0c1758a2d0dc59a85f6e6cbc8c;de;;;4.2.;;;Entwicklung effektiver Teams in globalen multidisziplinären Engineering- und Fertigungsorganisationen Im heutigen wettbewerbsorientierten Geschäftsumfeld werden die meisten Aktivitäten in globalen Beziehungen (Tochtergesellschaften, Outsourcing, Joint Ventures) von multikulturellen und multidisziplinären Teams durchgeführt, die gemeinsam oder verteilt sein können. Die Mitglieder dieser Teams setzen sich aus einer Vielzahl von Experten unterschiedlicher kultureller, organisatorischer und beruflicher Hintergründe zusammen. Innerhalb der Projektlaufzeit sind sie mit zeitlichen und finanziellen Einschränkungen für einen bestimmten Zeitraum verbunden, um bestimmte Ziele zu erreichen. Das Ziel dieses Papiers ist es, über die Ergebnisse einer umfangreichen Literaturrecherche zu multikultureller und multidisziplinärer Teamarbeit zu berichten und eine Grundlage für die Diskussion und Analyse der Herausforderungen zu bieten, die solche Teams erleben. In einer globalen multidisziplinären Ingenieurorganisation wird eine Fallstudie durchgeführt, um empirische Beweise für potenzielle Herausforderungen in Projekten zu identifizieren, die in multikultureller und multidisziplinärer kollaborativer Teamarbeit durchgeführt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-97925-0_48 3334a2f440e96fbf5a92aa1c002c5a66;de;;;4.2.;;;Analyse des Einflusses ethnischer Zusammensetzung und Zuwanderer auf die räumliche Verteilung von Gewaltkriminalität Die räumliche Verteilung der Gewaltkriminalität wird durch kleinräumige Besonderheiten beeinflusst. Die Theorie der sozialen Desorganisation schlägt vor, dass Merkmale auf der Ebene der Nachbarschaft, einschließlich der ethnischen Zusammensetzung und der Einwanderer, die Kriminalität indirekt durch soziale Kontrolle beeinflussen. Die jüngsten räumlichen demografischen Veränderungen in städtischen Gebieten, einschließlich einer erhöhten Einwanderung und ethnischer Heterogenität in den Stadträndern, haben dazu geführt, dass die soziale Desorganisation überdacht wird. Unter Verwendung explorativer räumlicher Datenanalyse und räumlicher Regressionsmethoden identifiziert diese Forschung Hotspots der Gewaltkriminalität und analysiert den Einfluss der ethnischen Zusammensetzung und der Konzentration von Einwanderern auf die Gewaltkriminalität in Toronto, Ontario, auf der Ebene der Volkszählungsgebiete. Die Ergebnisse deuten darauf hin, dass sich die Hotspots der Gewaltkriminalität in der Innenstadt und im Norden Torontos befinden und dass ethnische Heterogenität positiv mit der Rate der Gewaltkriminalität verbunden ist, während die Konzentration von Einwanderern negativ verbunden ist. Diese Forschung bietet neue Einblicke in die räumlichen Dimensionen der Kriminalität und die Auswirkungen des räumlichen demografischen Wandels auf Gewaltkriminalität und soziale Desorganisation in modernen Städten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19950-4_14 3666178ba99f04ef61cc47a81e88d42d;de;;;5.2.;;;Intervallzustandsschätzung in der Systemmodellierung Dieses Kapitel konzentriert sich auf Intervallinformationsgranula, die im Zusammenhang mit der Zustandsschätzung von Systemen entstehen, die mit begrenzter Genauigkeit überwacht werden. Für diese Systeme bietet die Darstellung der Zustandsunsicherheit als Konfidenzintervall signifikante Vorteile gegenüber den traditionelleren Ansätzen mit probabilistischer Darstellung von Rauschen. Während das Modell des gefilterten weißen Gaußschen Rauschens aus mathematischen Gründen definiert werden kann, ist seine Verwendung notwendigerweise mit der Hoffnung verbunden, dass ein Schätzer mit guten Eigenschaften bei idealisiertem Rauschen auch bei realem Rauschen gut funktioniert. In dieser Studie schlagen wir einen realistischeren Ansatz vor, um die Geräuschdarstellung an das Ausmaß des Vorwissens anzupassen. Sowohl die Intervall- als auch die Ellipsoiddarstellung des Rauschens veranschaulichen das Prinzip, das Rauschmodell einfach zu halten, während gleichzeitig eine iterative Verfeinerung des Rauschens im weiteren Verlauf ermöglicht wird. Wir evaluieren eine nicht-lineare und drei lineare Zustandsschätzungstechnik sowohl hinsichtlich der Recheneffizienz als auch der Kardinalität der Zustandsunsicherheitssätze. Die Techniken werden an einem synthetischen und einem realen System veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-1033-8_18 36f258b1ebae46de1b84bb78c7916b0e;de;;;4.2.;;;Wechsel in der Kommunalverwaltung In dem umfangreichen Beschwerdekatalog, den seine undankbaren ehemaligen Untertanen kurz nach seiner überstürzten Abreise nach Frankreich erstellten, spielt die Unterdrückung der städtischen Unternehmen durch Jakob II. keine herausragende Rolle. Nichtsdestotrotz fand es seinen Platz auf der Liste der Schande, die in der Erklärung der Rechte enthalten ist, und wurde allgemein als typisch für die Haltung der Stuart Kings gegenüber all jenen Institutionen angesehen, die ihrem Konzept der absoluten Herrschaft in irgendeiner Form systematischen Widerstand leisteten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-19543-5_4 0b70a2a7beae45b70d4398d8afbc24ae;de;;;4.2.;;;Stimmung und soziale Präsenz zum Kaufverhalten von Verbrauchern im C2C-E-Commerce in der chinesischen Kultur Während die Bedeutung von Stimmung und Emotion in der Informationssystemforschung erkannt wurde, wurden sie nur am Rande untersucht. Um den Einfluss von Stimmung und sozialer Präsenz auf das Kaufverhalten von Verbrauchern im Consumer-to-Consumer (C2C) E-Commerce zu untersuchen, wird in China ein Laborexperiment mit 200 Teilnehmern durchgeführt. Das Strukturmodell erklärt 36,9 % der Varianz der Kaufabsicht. Die Ergebnisse deuten darauf hin, dass die Stimmung eine wichtige Rolle im Kaufverhalten der Verbraucher spielt, die sich deutlich auf den wahrgenommenen Nutzen und die Kaufabsicht auswirkt. Soziale Präsenz hat moderierende Effekte zwischen Stimmung und wahrgenommenem Nutzen sowie zwischen Stimmung und Kaufabsicht. Wir stellen auch fest, dass zwei kulturelle Dimensionen (Individualismus und Unsicherheitsvermeidung) signifikante Auswirkungen auf die Kaufabsicht haben.;-;-;-;https://link.springer.com/article/10.1007/s12525-012-0097-z 651d2236d7d201ba062b4ad3d4958476;de;;;4.2.;;;Industrialisierung Industrialisierung kann definiert werden als der Prozess der Umwandlung von Rohstoffen mit Hilfe von Humanressourcen und Investitionsgütern in (1) Konsumgüter, (2) neue Investitionsgüter, die die Herstellung von mehr Konsumgütern (einschließlich Nahrungsmitteln) mit denselben ermöglichen Humanressourcen und (3) soziales Overhead-Kapital, das zusammen mit Humanressourcen sowohl Einzelpersonen als auch Unternehmen neue Dienstleistungen bietet. Wenn die durch die Industrialisierung geschaffenen neuen Güter und Dienstleistungen nicht weit unter der Bevölkerung verteilt werden, kann man sagen, dass nur Wirtschaftswachstum stattfindet. Aber wenn es sich um Güter und Dienstleistungen handelt, die zur Befriedigung der menschlichen Grundbedürfnisse eines großen Teils der Bevölkerung verwendet werden, dann geht das industrielle Wachstum mit Entwicklung einher.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-16275-8_11 b33087f6f6e11fc897fbbe0712feeb85;de;;;5.2.;;;Theoretische Charakterisierung des Anregungsenergietransfers in Chlorosomen-Lichtsammelantennen von grünen Schwefelbakterien Wir präsentieren eine theoretische Studie zur Anregungsdynamik im Chlorosom-Antennenkomplex grüner photosynthetischer Bakterien basierend auf einem kürzlich vorgeschlagenen Modell für den molekularen Aufbau. Unser Modell für den Anregungsenergietransfer (EET) durch die Antenne kombiniert eine stochastische Zeitausbreitung der exzitonischen Wellenfunktion mit molekulardynamischen Simulationen der supramolekularen Struktur und elektronischen Strukturberechnungen der angeregten Zustände. Wir charakterisierten die optischen Eigenschaften des Chlorosoms mit Absorptions-, Zirkulardichroismus- und Fluoreszenz-Polarisations-Anisotropie-Zerfallsspektren. Die Simulationsergebnisse zur Anregungsdynamik zeigen ein detailliertes Bild des EET im Chlorosom. Der kohärente Energietransfer ist nur für die ersten 50 fs nach der anfänglichen Anregung signifikant, und die wellenförmige Bewegung des Exzitons wird bei 100 fs vollständig gedämpft. Die charakteristischen Zeitkonstanten der inkohärenten Energieübertragung variieren anschließend von 1 ps bis zu mehreren zehn ps. Wir ordnen die Zeitskalen des EET bestimmten physikalischen Prozessen zu, indem wir unsere Ergebnisse mit den Daten aus zeitaufgelösten Spektroskopieexperimenten vergleichen.;-;-;-;https://link.springer.com/article/10.1007/s11120-014-9978-7 b0cc58f2adb9c8c0a3487e4ead8a9547;de;;;4.2.;;;Einstellungen zur Karriereförderung von Frauen in Lateinamerika: Die moderierende Wirkung der wahrgenommenen internationalen Eigeninitiative des Unternehmens Während in Lateinamerika tätige Unternehmen eine zunehmende Beteiligung von Frauen in Führungspositionen verzeichnen, ist die Region nach wie vor von traditionellen Einstellungen zur Geschlechterrolle geprägt. Diese Gegenüberstellung traditioneller Machismo-Einstellungen gegenüber Frauen und Fortschritten bei der Beteiligung von Frauen an Führungspositionen macht dieses Setting ideal, um ein Thema zu untersuchen, das weltweit anhaltend diskutiert wird: die Karriereförderung von Frauen. Diese Studie untersucht die Einstellungen zum beruflichen Aufstieg von Frauen – einer historisch marginalisierten Gruppe in Lateinamerika. Aufbauend auf der vorhandenen Literatur testen wir den negativen Zusammenhang zwischen traditionellen Geschlechterrollenorientierungen und Einstellungen zum beruflichen Aufstieg von Frauen, sowohl direkt als auch über eine vermittelte Beziehung durch die Akzeptanz von Frauen am Arbeitsplatz. Anschließend erweitern wir diese Literatur theoretisch und empirisch, indem wir einen wichtigen kontextbezogenen Moderator untersuchen – die internationale Eigeninitiative eines Unternehmens –, die unserer Meinung nach als Mechanismus dient, um die Manifestation traditioneller Machismo-Einstellungen zu verhindern. Wir untersuchen diese Beziehungen anhand einer Stichprobe von 973 Befragten aus den lateinamerikanischen Ländern Argentinien, Bolivien, Brasilien, Chile, Kolumbien, Dominikanische Republik, Ecuador, Mexiko, Panama, Peru und Venezuela. Unsere Ergebnisse untermauern unsere Hypothesen und geben praktische Einblicke in die wichtigen, aber allgemein nicht beachteten Auswirkungen der Internationalisierungsbemühungen eines Unternehmens auf die Einstellung zur Karriereförderung von Frauen.;-;-;-;https://link.springer.com/article/10.1057/s41267-016-0039-7 8bdd30ba43bb9a1a7b2b66bcec75d7d1;de;;;5.2.;;;Ein integratives Modell der Twitter-Adoption Der Zweck dieser Studie ist es, ein integratives Modell der Twitter-Adoption aufzubauen und dessen Nützlichkeit zu beweisen. Mit einem umfassenden Ansatz schlägt diese Forschung 29 Hypothesen vor, die aus der Innovationsdiffusionstheorie, dem Technologieakzeptanzmodell und seinen Erweiterungen (TAM2, TAM3) und dem Modell des Innovationswiderstands stammen. Die Ergebnisse zeigten, dass die einflussreichste Determinante für die Absicht, Twitter zu nutzen, die „subjektive Norm“ war und der „Innovationswiderstand“ gefolgt wurde. Der einflussreichste Prädiktor für Innovationsresistenz war unterdessen die „Kompatibilität“. Die Ergebnisse bewiesen auch die vermittelnde Rolle der Innovationsresistenz. Diese Studie zeigt eine neue Perspektive auf die Phänomene der Einführung neuer Medien, indem sie integrative Kausalbeziehungen zwischen den Determinanten der Einführung neuer Medien aufzeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35248-5_8 0a3c283f927d9050c6f8e592663e35a7;de;;;5.2.;;;Auf das Gefährliche aufmerksam machen In diesem Beitrag stellen wir eine Architektur der aufmerksamkeitsbasierten Steuerung für künstliche Agenten vor. Der Agent ist dafür verantwortlich, den Benutzer adaptiv zu überwachen, um Kontextwechsel in seinem Zustand zu erkennen. Unter der Annahme einer erfolgreichen Erkennung werden entsprechende Maßnahmen ergriffen. Simulationsergebnisse basierend auf einem einfachen Szenario zeigen, dass Aufmerksamkeit ein geeigneter Mechanismus ist, um Kontextwechsel-Detektorsysteme zu implementieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44989-2_108 af94be4aa5e237884dcc4e6fabd80f87;de;;;4.2.;;;Analyse der grundlegenden Prozesse bei Deposition, Abbau, Persistenz und Wirksamkeit von Pestiziden In den letzten zwei Jahrzehnten ist das Wissen über die Chemie von Pestiziden beispiellos gewachsen. Neue Entwicklungen hatten und haben weitreichende praktische Bedeutung. Fortschritte in der Pestizidchemie werden auch weiterhin eine unvermeidliche Folge der Fortschritte auf dem allgemeinen Gebiet der Chemie sein, die wie andere Wissenschaftsgebiete die volle Wirkung der „wissenschaftlichen Explosion“ zu spüren bekommt. Die Fortschritte in unserem Wissen über die physikalischen und physikalisch-chemischen Faktoren, die an der Formulierung, Anwendung, Ablagerung, Penetration, Translokation, Degradation, Persistenz und Wirksamkeit der immer stärker wirksamen neuen Pestizide beteiligt sind, halten jedoch nicht unbedingt mit dem Tempo ihrer Produktion und Freisetzung Schritt für den Einsatz. Tatsächlich schreckt der schnelle Umsatz von Pestizid-Chemikalien, der zum Teil auf das ebenso schnelle Absterben vieler Insektizide und Akarizide als Folge des Resistenzphänomens zurückzuführen ist, von einer sorgfältigen oder länger andauernden Untersuchung der vielen Variablen ab, die ihre Wirkung beeinflussen könnten praktischer Nutzen. Andere Faktoren sprechen gegen solche Untersuchungen, wie etwa das Sprühen mit „geringem Volumen“ oder „Konzentrat“, das einige der Probleme bei der Effizienz der Abscheidung beseitigt, und auch die extrem hohe Anfangswirksamkeit moderner Insektizide, die die Effizienz der Formulierung tendenziell erschwert von untergeordneter Bedeutung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-8377-6_3 e619c8cfd3eaaf189c29fafb199dde03;de;;;5.2.;;;Manifold-Kontraktion für semi-überwachte Klassifikation Die Verallgemeinerungsfähigkeit der Klassifikation steht oft in engem Zusammenhang sowohl mit der klasseninternen Kompaktheit als auch der klassenübergreifenden Trennbarkeit. Aufgrund der Tatsache, dass viele aktuelle Dimensionalitätsreduktionsmethoden, die als Präprozessor betrachtet werden, oft zu einer schlechten Klassifikationsleistung von realen Daten führen, wird in diesem Artikel eine neue Datenvorverarbeitungstechnik namens Manifold-Contraction (MC) für die klassifikationsorientierte Lernaufgabe. Die Hauptmotivation hinter MC liegt in der Suche nach einer geeigneten Abbildung der Kontraktion der gegebenen multiplen Mannigfaltigkeitsdaten, so dass das Verhältnis der Streuung innerhalb der Klasse zu den Streuungen zwischen den Klassen minimiert wird. Um das Kontraktionsniveau bei MC richtig zu steuern, wird darüber hinaus ein adaptives MC-(AMC)-Kriterium in der halbüberwachten Umgebung entwickelt. Aufgrund seiner Allgemeinheit kann MC nicht nur im Originalraum und im reproduzierenden Kernel-Hilbert-Raum (RKHS) angewendet werden, sondern auch leicht in das Dimensionsreduktionsverfahren zur weiteren Verbesserung der Klassifikationsleistung integriert werden. Die endgültigen experimentellen Ergebnisse zeigen, dass MC als Datenpräprozessor beim anschließenden Klassifikationslernen effektiv und vielversprechend ist, insbesondere in kleinen beschrifteten Fallbeispielen.;-;-;-;https://link.springer.com/article/10.1007/s11432-010-0066-0 9decdb4a2a231aaacb53c4491572da33;de;;;5.2.;;;Ein Multiagenten-Netzwerk zur Durchsetzung von Peer-Normen In einem Multiagentensystem, in dem Normen verwendet werden, um die Aktionen zu regulieren, die Agenten ausführen sollen, entscheiden sich einige Agenten möglicherweise, sich nicht an die Normen zu halten, wenn dies für sie von Vorteil ist. Normendurchsetzungsmechanismen sollen diesen Vorteilen und damit den Motiven für die Nichteinhaltung von Normen entgegenwirken. In dieser Arbeit schlagen wir einen verteilten Mechanismus vor, durch den Agenten im Multiagentensystem, die sich nicht an die Normen halten, von ihren Kollegen geächtet werden können. Ein geächteter Agent kann nicht mehr interagieren und verliert alle Vorteile aus zukünftigen Interaktionen. Wir beschreiben ein Modell für Multiagentensysteme, die als Agentennetzwerke strukturiert sind, und ein Verhaltensmodell für die Agenten in solchen Systemen. Darüber hinaus liefern wir Analyseergebnisse, die zeigen, dass es eine Obergrenze für die Anzahl potenzieller Normverletzungen gibt, wenn alle Agenten bestimmte Verhaltensweisen zeigen. Wir liefern auch experimentelle Ergebnisse, die zeigen, dass sowohl ein strengeres Durchsetzungsverhalten als auch ein größerer Prozentsatz von Agenten, die dieses Verhalten zeigen, die Anzahl der Normverletzungen reduzieren und dass die Netzwerktopologie die Anzahl der Normverletzungen beeinflusst. Diese Experimente wurden unter verschiedenen Szenarien mit unterschiedlichen Werten für die Anzahl der Agenten, den Prozentsatz der Vollstrecker, den Prozentsatz der Übertreter, die Netzwerktopologie und das Agentenverhalten durchgeführt. Schließlich geben wir Beispiele für Anwendungen, bei denen die von uns bereitgestellten Durchsetzungstechniken eingesetzt werden könnten.;-;-;-;https://link.springer.com/article/10.1007/s10458-009-9107-8 6629198a50f79c26504820a630902736;de;;;5.2.;;;Hydroxyharnstoff und Strahlentherapie bei der Behandlung von Gebärmutterhalskrebs Trotz der deutlichen Verbesserung der Strahlentechnologie in den letzten Jahrzehnten bleiben die Überlebensraten von Patientinnen mit Gebärmutterhalskrebs, die diese Therapie erhalten, unbefriedigend. Es ist klar, dass weniger Frauen an Gebärmutterhalskrebs sterben, dies hängt jedoch nicht mit einer verbesserten Therapie des invasiven Gebärmutterhalskrebses zusammen. Der signifikante Rückgang der Sterblichkeitsrate ist vielmehr eine direkte Folge der geringeren Inzidenz von invasivem Gebärmutterhalskrebs im Zusammenhang mit dem Papanicolau-Abstrich, der die Diagnose von Gebärmutterhalskrebs in einem;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2027-2_8 e0b48fc96db4b26354ba4b3d0398dc19;de;;;4.2.;;;Verwenden einer netzwerkbasierten konstruktivistischen Lernumgebung auf der Konzeptkarte zum Entwerfen eines Lernsystems Sinnvolles Lernen ist das angestrebte Ergebnis jedes Lernsystems und viele Theorien und Lernparadigmen zielen darauf ab, dieses Ziel zu erreichen. Sinnvolles Lernen wird am besten erreicht, wenn der Ansatz schülerzentriert ist. Die konstruktivistische Lerntheorie ist eine solche Theorie, die das schülerzentrierte Lernen fördert und eine aktive Teilnahme des Lernenden am Lernprozess anstelle einer passiven Wissensaneignung befürwortet. In diesem Beitrag wird das Design eines solchen Instruments diskutiert, das es der Lehrkraft ermöglicht, eine konstruktivistische Lernumgebung für den Unterricht zu schaffen und das erworbene Wissen zu bewerten. Das Tool verwendet Concept Maps als Bausteine ​​für die Erstellung der Lernkomponente sowie der Bewertungskomponente. Das Papier erörtert ferner die Designüberlegungen für die Entwicklung dieser beiden Komponenten. Ein Prototyp des Tools wurde für das Unterrichten der C-Programmierung für Anfänger entwickelt und mit Studenten getestet, die zum ersten Mal eine beliebige Programmiersprache lernten. Die Ergebnisse zeigen, dass es einen erheblichen Unterschied in den Punktzahlen der Lernenden gab, denen das Fach mit dem Tool beigebracht wurde, im Vergleich zu den Lernenden, denen das gleiche Fach mit der traditionellen Unterrichtsmethode beigebracht wurde, und die Schüler, die mit dem Tool unterrichtet wurden, schnitten im Vergleich dazu viel besser ab. der anderen Gruppe sowohl bei konzeptbasierten Bewertungen als auch bei der Bewertung von Fähigkeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-5992-7_5 5a3c7e9055104b4a5903a6ec218156a9;de;;;4.2.;;;Die Entdeckung des Atommülls Wann hat der Mensch Atommüll entdeckt? Um diese Frage zu beantworten, müssen wir uns zunächst fragen, ob Atommüll wirklich eine wissenschaftliche Entdeckung ist, die einen Nobelpreis für Physik verdienen könnte. In frühen Schriften innerhalb der Kernenergieforschung scheint radioaktiver Abfall ein vernachlässigtes Thema zu sein, eine Geschichte, die nie erzählt wurde. Atommüll scheint zum ersten Mal aufzutreten, als Ende der 1960er und Anfang der 70er Jahre eine öffentliche Debatte über die Risiken der Atomkraft für die öffentliche Gesundheit aufkam.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-9950-4_4 df572974c0438da590739c7b8bb6b024;de;;;4.2.;;;Demokratische Regierungsführung: die Notwendigkeit einer gleichberechtigten Vertretung von Frauen Das Versäumnis der traditionellen parlamentarischen Regierung, Gesetze zu erlassen, die die wahren Interessen der Mehrheit der Wähler, insbesondere der weiblichen Wähler, respektieren, und die ständigen Schwierigkeiten, eine angemessene Vertretung von Frauen in Parlamenten zu erreichen oder aufrechtzuerhalten, zeigen auch die Notwendigkeit neuer Konzepte in den Wahlstrukturen wie im Stil von Parlamenten und Leitungsgremien. Ein neues Modell müsste durch das Wahlsystem und durch das Parlament den Bedürfnissen der weiblichen Bevölkerung gerecht werden. Ein duales Wahlsystem, bei dem auf der einen Liste nur Frauen und auf der anderen nur Männer Kandidatinnen sind, würde die Frauen weitgehend aus ihrer gegenwärtigen faktischen Wahlfreiheit befreien und damit zu einer globalen Verbesserung der Lebensqualität führen. Ein solches System könnte unabhängig davon eingeführt werden, ob das Wahlsystem proportional ist oder nicht. Änderungen im parlamentarischen System selbst könnten am besten in Erwägung gezogen werden, nachdem die Parlamente eine gleichberechtigte Vertretung von Männern und Frauen erreicht haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4291-5_11 895a264ebec794a9d23fd63a1b038273;de;;;4.2.;;;Robotisches Tool als Unterstützung bei Lehrprozessen während der COVID-19-Pandemie Die durch COVID 19 verursachte Pandemie hat zum Übergang von der traditionellen Bildung zu anderen Modalitäten geführt, die technologische Ressourcen als Hauptwerkzeug verwenden. Diese Arbeit schlägt ein Robotertheater als Verstärkungsmechanismus in der Bildung und Wissensvermittlung in verschiedenen Bereichen für den regulären Unterricht bei Kindern vor. Die Roboterplattform besteht aus einem automatischen Vorhang und 3 sozialen NAO-Robotern. Die Elemente werden über eine Benutzeroberfläche (GUI) gesteuert, die einfach und intuitiv die Erstellung von Theaterskripten ermöglicht. Im Rahmen der Ermittlungen wurde die Adaption des Theaterstücks „Planeta“ des Autors Alan Rejón inszeniert. Dieser wurde drei Personengruppen präsentiert. Im ersten Szenario werden Fachkräfte im Bildungsbereich eingesetzt: Lehrkräfte des regulären Primarbereichs, Studenten der Erstausbildung und ein Bildungspsychologe. Ein zweites Szenario ist eine Gruppe von Schülern im Alter zwischen 8 und 9 Jahren. Die erhaltenen Ergebnisse zeigen eine 92-prozentige Akzeptanz der Forschung als innovatives Werkzeug und 90 % der Befragten sind der Meinung, dass Roboterspiele das Bewusstsein der Kinder in der Bildung wecken können. Mögliche Bereiche in der Ausbildung zur Anwendung der Roboterplattform könnten Geschichte sein oder Sprache und Kommunikation werden ebenfalls aufgedeckt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72212-8_12 e70452245b787b509fbe83f9fb9d25f7;de;;;4.2.;;;Einwandererhaushalte als ausländische Tochtergesellschaften Bei einer Studie über städtische Armut ist es wichtig, die Situation der Einwanderer mit niedrigem Einkommen, eine immer wichtiger werdende Facette des Stadtlebens, zu untersuchen und zu fragen, ob sich die Einwanderungserfahrung von der der „Mainstream“ städtischer Armen unterscheidet. Armut wird durch die Einwanderungsbedingungen selbst reproduziert. Das sind Menschen, die ihr Land mit wenig Geld auf der Suche nach einem besseren Leben verlassen haben und sich nun an die strukturellen Zwänge des neuen Milieus anpassen müssen. Diejenigen, die sich in einer negativen Migrationskategorie befinden, als illegale oder undokumentierte Ausländer, werden in ihrer Flucht aus der Armut weiter behindert. Der Einwanderungsstatus allein ist jedoch nicht der ausschlaggebende Faktor, da einige Einwanderer der negativen Gruppe diese Last überwinden können und schließlich in ihrem neu adoptierten Land gut abschneiden. Es wird zu einem Hindernis, wenn andere Faktoren hinzukommen, wie zum Beispiel die Unfähigkeit, einen dauerhaften Aufenthaltsstatus zu erlangen und einen guten Arbeitsplatz zu finden. Bei unserem Versuch, den Prozess zu verstehen, durch den Armut im städtischen Martinique reproduziert wird, ist es von entscheidender Bedeutung, dieser negativen Kategorie von Einwanderern wegen ihrer relativ großen Zahl in den Slums und Hausbesetzersiedlungen von Fort-de-France Aufmerksamkeit zu schenken.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-20890-6_7 b229b18a0cd0f3e2a1303e56676196b9;de;;;4.2.;;;Erforschung des Bedarfs an Das primäre Ziel dieser Arbeit ist es, einen neuen Ansatz zur Entscheidungsunterstützung vorzuschlagen, der sowohl praktisch umsetzbar als auch theoretisch fundiert ist. Wir wollen daher in einem realen Kontext untersuchen, ob die;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-2583-5_7 97bcc9cc253acd95ba45bee9ba124e53;de;;;4.2.;;;Wie man die Kreativität in der Forschung steigert Wenige Dinge sind für eine Forscherkarriere wichtiger als Entdeckungen. Eine gute Idee ist wichtig und neu. Es könnte zur Gründung eines neuen Felds oder zu einem neuen Ansatz für ein bestehendes führen und Hunderte von zusätzlichen Studien hervorbringen. Woher kommen diese Ideen? Die Antwort auf diese Frage liegt im allgemeinen Feld der Kreativitätsforschung. Hier diskutiere ich, wie die Kreativität in zehn Schritten gesteigert werden kann. Es geht darum, motiviert zu sein, kreativ zu sein, Kreativitätstechniken zu erlernen, mit anderen außerhalb Ihrer Kerngruppe zu interagieren, Heureka-Momente zu fördern, gute neue Ideen zu erkennen, wenn Sie sie sehen, mit anderen zusammenzuarbeiten, die Kreativität anderer zu fördern, zu geben Feedback auf eine freundliche Art und Weise, um den Besitz von Ideen aufzuschieben und wissenschaftliche Improvisation zu lernen. Die Referenzen in diesen Abschnitten geben einen Einblick in das wachsende Feld der Kreativitätsforschung. Eine größere Aufmerksamkeit und ein besseres Verständnis der Quellen kreativer Einsichten wird uns helfen, zu dieser magischen Idee zu führen, die neu und wichtig ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-39831-6_33 526b4937d6b13937e1ccb1229f911acc;de;;;4.2.;;;Interaktionen von Twitch-Benutzern und ihr Nutzungsverhalten In den letzten Jahren werden Social Live Streaming Dienste (SLSSs) wie YouNow oder Periscope immer beliebter. Innerhalb der Gaming- und E-Sports-Branche hat sich Twitch Ende 2014 zu einer der größten Live-Streaming-Plattformen für Videospiele entwickelt. Dieses Paper analysiert das Nutzungsverhalten und die Interaktionen von Twitch-Nutzern, insbesondere deren Wunsch, an einem Live-Stream teilzunehmen. Bei der Studie handelt es sich um eine quantitative Analyse auf Basis eines Online-Fragebogens, der von 603 Twitch-Nutzern ausgefüllt wurde. An der Studie nahmen beide Nutzergruppen, „Zuschauer“ und „Streamer“, teil. Außerdem wurden Streamer mit unterschiedlicher Popularität (Followergröße) beobachtet, um einen Einblick in die Interaktionen zwischen Twitch-Nutzern zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-91485-5_15 0f6a8ae75dc684c49638fd7f667608de;de;;;4.2.;;;Veränderungen der geschlechtsspezifischen Arbeitsteilung und des wirtschaftlichen Beitrags von Frauen innerhalb japanischer Paare Trotz des anhaltenden Anstiegs der Erwerbsbeteiligung japanischer Frauen wird die geschlechtsspezifische Arbeitsteilung als „normal“ und nach wie vor stark akzeptiert. Ziel dieser Arbeit ist es zu untersuchen, ob und wie sich die Determinanten der Erwerbsbeteiligung verheirateter Frauen verändert haben. Auf der Grundlage nationaler Stichproben aus den Jahren 1985, 1995, 2005 und 2015 analysieren wir die Veränderung/Stabilität der Faktoren, die Doppelverdienerpaare von Ehepaaren mit alleinigen Versorgern unterscheiden, und wie sich diese Assoziationen im Laufe der Zeit verändert haben. Die Ergebnisse zeigen, dass die Zahl der Paare mit doppeltem Einkommen zugenommen hat, aber nicht mit konstanter Geschwindigkeit: Sie nahm bis etwa 2005 langsam zu und nahm dann in letzter Zeit dramatisch zu. Die Ergebnisse zeigen auch, dass das eigene Humankapital der Frauen bis vor kurzem kein bestimmender Faktor für die Erwerbsbeteiligung verheirateter Frauen war. Das niedrige Einkommen des Ehemanns hat einen signifikanten positiven Effekt auf die Erwerbsbeteiligung verheirateter Frauen, was darauf hindeutet, dass die hohen beruflichen Ressourcen des Ehemanns die Ehefrau vom Arbeitsmarkt verdrängen, was in konservativen und mediterranen Wohlfahrtsregimen festgestellt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3311-2_37 a475a88dcf1bfd9dcf8841b616e1e603;de;;;4.2.;;;Steady States in kontinuierlicher Kultur Simulationsübungen, die auf Nullsetzen der Differentialgleichungen für Zellmasse und Substrat basieren, zeigen die Auswirkungen verschiedener Koeffizienten und Bedingungen auf stationäre Zustände für die kontinuierliche Kultivierung von Mikroorganismen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-0177-3_4 c585a45948995a1dee45ce1d3b33f6b7;de;;;4.2.;;;Spielerische und achtsame Interaktionen in den rekursiven Anpassungen der Zone der proximalen Entwicklung: ein wissenschaftlicher Ansatz der kritischen Komplexität Wir diskutieren die hermeneutische Studie von Konstantinos Alexakos, Jayson Jones und Victor Rodriguez über die Bildung und Funktion von verwandtschaftlichen Beziehungen zwischen männlichen Farbstudenten in der Innenstadt in einem Physikunterricht an einem College. Aus unserem Critical Complexity Science Framework diskutieren wir zunächst die Lesart;-;-;-;https://link.springer.com/article/10.1007/s11422-011-9356-0 f45c7fb0d30ca955475211301bf4c70f;de;;;4.2.;;;Kultur und die intersubjektive Perspektive als Ressource nutzen: Eine Fallstudie eines afroamerikanischen Paares In diesem Artikel teilt eine weiß-jüdisch-amerikanische Therapeutin, was sie aus ihrer Arbeit mit einem afroamerikanischen Paar gelernt hat, indem sie ein halbstrukturiertes Protokoll für eine geplante kurzfristige Ehetherapie verwendet. Achtundzwanzig Monate nach der ursprünglichen Behandlung traf sich der Autor erneut mit dem Paar zu einem auf Tonband aufgezeichneten Follow-up-Interview. Die Ehezufriedenheit beider Partner wurde im Verlauf der Behandlung und des Nachsorgeprozesses mit einem Index der Ehezufriedenheit erfasst. Die empirischen Befunde ergänzen die Geschichte des Paares und des Therapeuten. In der mittleren Phase geriet die Therapie in eine Sackgasse. Mit dem Ziel, einen kognitiven Wandel herbeizuführen, nutzte der Therapeut die Kultur des Paares als Ressource für therapeutische Veränderungen. Die kulturelle Metapher gilt als der entscheidende Schritt zur Überwindung der Behandlungssackgasse. Die wichtigste Erkenntnis ist, dass die kulturelle Reaktionsfähigkeit nicht mit der Einbindung und Bewertung der Kunden endet. Die Kultur der Klienten und die Kultur des Therapeuten bieten starke Metaphern und reichhaltige Ressourcen, um Veränderungsmöglichkeiten zu eröffnen. Mit diesem Paar wurde eine kulturell ansprechende und effektive Therapie möglich, als Kultur mit einer Wertschätzung der intersubjektiven Bedeutungen für Klienten und Therapeuten kombiniert wurde.;-;-;-;https://link.springer.com/article/10.1007/BF02190745 5d6873adf5e5f8c854131e8f482a3cea;de;;;4.2.;;;Was ist schön im Cyberspace? Kommunikation mit attraktiven Avataren Das Gesicht mit seinen strukturellen und nonverbalen Merkmalen ist das wichtigste Stichwort in der zwischenmenschlichen Kommunikation von Angesicht zu Angesicht (z. B. Dion et al., 1972, Reis et al., 1990). Ziel der vorliegenden Studie ist es zu untersuchen, ob körperliche Attraktivität und nonverbale Hinweise in virtuellen Repräsentationen zwischenmenschliche Effekte hervorrufen können, die denen bei persönlichen Kontakten vergleichbar sind. In einem 2 (Nationalität des Beobachters) x 2 (lächelnd, nicht lächelnd) x 3 (Attraktivität des Senders) x 2 (Geschlecht des Senders) x 2 (Geschlecht des Beobachters) bewerteten 158 deutsche und 128 malaysische Teilnehmer 18 Gesichter (9 lächelnd, 9 .) nicht lächeln) hinsichtlich Attraktivität, sozialer Kompetenz und Dominanz. Analysen zeigen mehrere Effekte, z.B. Dies weist darauf hin, dass die gleichen Gesichtszüge in virtuellen Gesichtern und menschlichen Gesichtern attraktiv sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07632-4_12 5ad5eb402ac2088451179fd775bf8ffb;de;;;5.2.;;;Personenerkennung mit Lernteilalphabet und Posenwörterbuch Als strukturierte Daten ähneln sich Körper und Text in vielerlei Hinsicht. In diesem Artikel nutzen wir die Analogie zwischen menschlichem Körper und Text, um ein Kompositionsmodell für die menschliche Erkennung in natürlichen Szenen zu erstellen. In dieses Modell werden grundlegende Konzepte und ausgereifte Techniken der Texterkennung eingeführt. Ein diskriminierendes Alphabet, von dem jedes Graphem ein Element mittlerer Ebene ist, das einen Körperteil repräsentiert, wird automatisch aus Bounding-Box-Labels gelernt. Basierend auf diesem Alphabet wird die flexible Struktur des menschlichen Körpers durch symbolische Sequenzen ausgedrückt, die verschiedenen menschlichen Posen entsprechen und ein robustes, effizientes Matching ermöglichen. Ein Posenwörterbuch wird aus Trainingsbeispielen erstellt, die verwendet werden, um Hypothesen zur Laufzeit zu überprüfen. Experimente mit Standard-Benchmarks zeigen, dass der vorgeschlagene Algorithmus State-of-the-Art oder wettbewerbsfähige Leistung erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10602-1_17 9df52cb41b807ef2b969d847b1fa55f6;de;;;4.2.;;;ANWENDUNG DES ANSATZES DER OPERATION FORSCHUNG UND DER SYSTEMWISSENSCHAFT AUF DAS FISCHEREIMANAGEMENT Die Meeresfischerei ist hochkomplex und stochastisch. Daher ist ein Simulationsmodell erforderlich. Simulationsbasierte Optimierung verwendet das Simulationsmodell beim Erhalten der Zielfunktionswerte eines bestimmten Fangplans. Das Entscheidungsunterstützungssystem für das Fischereimanagement wird die Regierungsbehörden und die Fischereiindustrie dabei unterstützen, fundierte Daten und Techniken der Managementwissenschaft zu nutzen, um politische Entscheidungen für Fischereiaktivitäten zu treffen. Übertragbare Fischrechte haben sich als zuverlässiges und wirksames Mittel zur Schaffung von Anreizen zur Erhaltung der Meeresressourcen erwiesen. Durch die Stärkung individueller Fangrechte im Rahmen flexibler Quotenmanagementsysteme leisten sie einen wesentlichen Beitrag zur Erhaltung der Fischbestände, zum Abbau von Überkapazitäten und zur Steigerung der Rentabilität der Fischereiwirtschaft.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-0211-5_64 b27f4cdc9c02b1033d70af6127e3b1d7;de;;;5.2.;;;Ähnliche Trajektoriensuche für Videodaten Kürzlich wurde die Studie über ähnliche Sub-Trajektorien-Abrufe in Videodaten durchgeführt. Bestehende Trajektoriendarstellung, Verarbeitungsgeschwindigkeit, Abnahme und Zunahme des Rechenaufwands stellen jedoch Probleme dar. In diesem Papier werden ungefähre Matching-Techniken und gitterbasierte ähnliche Trajektoriensuchtechniken vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35600-1_33 0a263d70bb067ff922f7752905c79d64;de;;;5.2.;;;Ein modifizierter Gruppensuch-Optimierungsalgorithmus für die Optimierung hochdimensionaler Funktionen In diesem Beitrag wird ein modifizierter Gruppensuchoptimiereralgorithmus zur hochdimensionalen Funktionsoptimierung vorgestellt, der auf der Levy-Flight-Strategie, der selbstadaptiven Verbindungsstrategie und der chaotischen Mutationsstrategie basiert. Die Abgabeflugstrategie wird für den Hersteller verwendet, um die Berechnung zu vereinfachen und die Effizienz im Erkundungsraum zu verbessern. Die selbstanpassende Fügestrategie wird verwendet, damit die Schmarotzer auf den Produzenten zulaufen, um die Konvergenzgeschwindigkeit zu fördern. Die chaotische Mutationsstrategie ist für die Ranger ausgelegt, um die Diversifikation zu stärken. Mit diesen Strategien kann der modifizierte Algorithmus ein besseres Gleichgewicht zwischen Intensivierung und Diversifizierung erreichen. Die Simulationsexperimente, die an Benchmark-Funktionen durchgeführt wurden, zeigen, dass diese Strategien effektiv sind und die globale Optimierungsfähigkeit und Konvergenzgeschwindigkeit des modifizierten Gruppensuchoptimierers für die hochdimensionale Funktionsoptimierung verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34041-3_32 f73584e7aa7e7698ae62d9dcc62be5d6;de;;;5.2.;;;Evaluierung eines katalytischen Suchalgorithmus Wir untersuchen die Sucheigenschaften von präevolutionären zufälligen katalytischen Reaktionsnetzwerken, in denen Reaktionen reversibel sein können und die Replikation nicht selbstverständlich ist. Da es nur auf langsame Wachstumsraten und einen schwachen Selektionsdruck zur Steuerung des Suchprozesses ankommt, ist die katalytische Suche ein von Natur aus langsamer Prozess. Es bietet jedoch interessante Eigenschaften, die es wert sind, untersucht zu werden, wie zum Beispiel das Potenzial, den Berechnungsfluss in Richtung guter Lösungen zu lenken und eine vorzeitige Konvergenz zu verhindern. Wir haben einen einfachen katalytischen Suchalgorithmus entwickelt, um seine Beamed-Search-Fähigkeit zu bewerten. In diesem Beitrag berichten wir über vorläufige Ergebnisse, die zeigen, dass die mit der katalytischen Suche erreichte Suchstärke zwar schwach ist, aber ausreichend ist, um einfache Probleme zu lösen und gute Näherungen für komplexere Probleme zu finden, während eine Vielfalt von Lösungen und deren Bausteine ​​in der Population erhalten bleibt .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12538-6_7 17dcdf524e1e30cf4f313a57128ce8f1;de;;;4.2.;;;Eine Hermeneutik der Schwarzen Stätte: Trevor Paglen Unscharfe Fotos können als Indiz für eine auffällige Abwesenheit dienen, als Erinnerung daran, dass uns potenziell bedeutsame Informationen absichtlich vorenthalten werden. Ein solcher Einsatz von Opazität wird durch die Projekte des Künstlers und Forschers Trevor Paglen realisiert. Mit Fokus auf heimliche Militäroperationen und Testgelände – abgelegene Wüsteninstallationen im Südwesten oder ein klassifiziertes Raumschiff, das die Erde umkreist – produziert Paglen Fotografien über beträchtliche Entfernungen. Der Beitrag dieser unleserlichen Bilder liegt also darin, dass sie nicht nur auf die Existenz von kaum sichtbaren Objekten hinweisen, sondern vor allem auf den beabsichtigten Akt, etwas aus dem Blickfeld zu halten. In diesem Kapitel werden einige von Paglens Projekten genauer untersucht. Seine verschwommenen Fotografien inszenieren eine gewisse Umverteilung des Sinnlichen, indem sie die immer unhaltbarere Fiktion der Transparenz des öffentlichen Raums entlarven. Hier beschäftigt sich die Poetik der Opazität damit, nicht das Sehen zu zeigen, sondern das Nicht-Sehen zu zeigen, oder den Versuch selbst, das Recht auf Schauen einzuschränken. Vielleicht deutlicher als bei Gehr und Akomfrah schreibt sich das undeutliche Bild bei Paglen in das Wahrnehmungssensorium ein, das wir Ästhetik nennen, es zeigt, dass Opazität nicht das bedrohliche Andere künstlerischer Kommunikation ist, sondern im Gegenteil eine erkenntnistheoretisch verjüngende Möglichkeit, die ist;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-46176-8_7 15ab0b5de60a764de27435be7629f626;de;;;4.2.;;;Sind alle Wissenschaftsdisziplinen auf räumliche Fähigkeiten angewiesen? Vorläufige Nachweise aus Selbstauskunftsfragebögen Räumliche Fähigkeiten korrelieren mit Erfolg in der Wissenschaft. Die Forschung zu diesem Thema hat sich jedoch nicht auf mögliche Unterschiede in den räumlichen Anforderungen verschiedener Wissenschaftsbereiche konzentriert. Darüber hinaus gibt es eine partielle Dissoziation zwischen räumlichen Fähigkeiten im Umgang mit dem Raum von Umgebungen (großräumige räumliche Fähigkeiten) und solchen, die im Umgang mit dem Raum von Objekten beteiligt sind (kleinräumige räumliche Fähigkeiten). Mit Hilfe von Online-Selbstberichts-Maßnahmen haben wir vorläufige Daten zu den räumlichen Fähigkeiten von Wissenschaftlern verschiedener Fachrichtungen sowie von Geisteswissenschaftlern und Einzelpersonen in Berufsfeldern gesammelt. Geowissenschaftler hatten die höchsten Selbsteinschätzungen sowohl für die Umwelt- als auch für die kleinräumigen räumlichen Fähigkeiten, während Geographen relativ hohe Selbsteinschätzungen für umweltbezogene räumliche Fähigkeiten hatten und Ingenieure relativ hohe Selbsteinschätzungen für kleinräumige räumliche Fähigkeiten hatten. Andere wissenschaftliche Disziplinen unterschieden sich nicht vom Mittelwert der selbst berichteten räumlichen Fähigkeiten. Die Selbsteinschätzungen der verbalen Fähigkeiten korrelierten nicht mit den Selbsteinschätzungen der räumlichen Fähigkeiten und waren erwartungsgemäß bei Geisteswissenschaftlern am höchsten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14749-4_10 975df9591d27a16354e4b96ec3cd2256;de;;;5.2.;;;Optimale Sequenzierung von zweistufigen Jobs in einem flexiblen computergestützten Fertigungssystem Das früheste Fertigstellungszeitplanungsproblem für n zweistufige Jobs wird in einem flexiblen computergestützten Fertigungssystem mit (1 + m) Prozessoren (n > m > 1) betrachtet. Jeder Job wird einem von m parallelen Prozessoren zugewiesen.;-;-;-;https://link.springer.com/article/10.1007/BF01126210 e482213a7c177a2f892b331cbdf1a2e7;de;;;5.2.;;;Optimale Multiuser-Erkennung mit künstlichem Fischschwarm-Algorithmus Die optimale Mehrbenutzererkennung für Kommunikationssysteme kann als NP-hartes Optimierungsproblem charakterisiert werden. In diesem Artikel wird als neuer heuristischer intelligenter Optimierungsalgorithmus der Artificial Fish Swarm Algorithm (AFSA) für das Erkennungsproblem verwendet. Die Ergebnisse zeigen, dass er bessere Leistungen wie gute globale Konvergenz, starke Robustheit, Unempfindlichkeit gegenüber Anfangswerten, Einfachheit von Implementierung und schnellere Konvergenzgeschwindigkeit mit zufälligen Anfangswerten im Vergleich zum genetischen Algorithmus (GA). Mit der Erhöhung der Fisch- oder Iterationszahl hat die AFSA nur den linearen Anstieg der Komplexität und behält eine überlegene Leistung bei, ihre verbesserten Methoden werden auch vorgeschlagen und am Ende analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74282-1_121 0d759f537ae0567749183618522540bd;de;;;4.2.;;;Ein räumliches Co-Location-Pattern-Mining-Framework, das gegenüber Prävalenzschwellenwerten basierend auf überlappenden Cliquen unempfindlich ist Das Auffinden von räumlichen Co-Location-Mustern ist ein Prozess zum Auffinden von Gruppen unterschiedlicher räumlicher Merkmale, deren Instanzen sich häufig in räumlicher Nähe befinden. Ein Co-Location-Muster ist vorherrschend, wenn sein Teilnahmeindex nicht unter einem von den Nutzern angegebenen Mindestprävalenzschwellenwert liegt. Die meisten der vorhandenen Algorithmen reagieren sehr empfindlich auf den Prävalenzschwellenwert. Wenn Benutzer den Prävalenzschwellenwert ändern, müssen diese Algorithmen Tabelleninstanzen neu sammeln und Teilnahmeindizes aller Muster neu berechnen, um die vorherrschenden Muster zu ermitteln, die Benutzer erwarten zu erwerben. Um dieses Problem anzugehen, schlagen wir ein überlappendes Clique-basiertes Spatial Colocation Pattern Mining Framework (OCSCP) vor. In unserem Framework entwerfen wir einen zweistufigen Filtermechanismus, wobei die erste Ebene ein Feature-Typ-Filter und die zweite Ebene ein Nachbarinstanzfilter ist. Durch Anwenden des Mechanismus werden unter einer bestimmten Nachbarbeziehung räumliche Instanzen in einen Satz überlappender Cliquen unterteilt, und jede Clique ist auch eine Co-Location-Instanz eines Musters. Und dann wird eine Co-Location-Muster-Hash-Map-Struktur entworfen, um Tabelleninstanzen von Mustern basierend auf diesen überlappenden Cliquen zu speichern. Der Beteiligungsindex jedes Musters kann schnell und direkt aus der Hash-Map-Struktur berechnet werden. Wenn der Prävalenzschwellenwert geändert wird, muss das vorgeschlagene Framework daher keine Tabelleninstanzen erneut sammeln, und das Mining-Ergebnis kann den Benutzern adaptiv und schnell zur Verfügung gestellt werden. Die vorgeschlagenen Algorithmen werden sowohl an synthetischen als auch an realen Datensätzen durchgeführt, um zu zeigen, dass unsere Algorithmen im Vergleich zu den vorherigen Algorithmen schnell auf Benutzeranforderungen reagieren können.;-;-;-;https://link.springer.com/article/10.1007/s10619-021-07333-2 cc96dff39efd1bf5bc462c7028c6b6aa;de;;;5.2.;;;Parallele Minimax-Baumsuche auf der GPU Das Papier beschreibt die Ergebnisse des Minimax-Baum-Suchalgorithmus, der in der CUDA-Plattform implementiert ist. Das Problem betrifft die Zugwahlstrategie im Reversi-Spiel. Das Parallelisierungsschema und Leistungsaspekte werden diskutiert, wobei der Schwerpunkt hauptsächlich auf dem Warp-Divergenzproblem und der Datenübertragungsgröße liegt. Darüber hinaus wird ein Verfahren zum Minimieren der Krümmungsdivergenz und der Leistungsverschlechterung beschrieben. Das Papier enthält sowohl die Ergebnisse von Tests, die auf mehreren CPUs und GPUs durchgeführt wurden. Außerdem wird diskutiert;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14390-8_47 8defee41cea538124ad64c1feee0d96f;de;;;4.2.;;;Die ethische Dimension der Managementführung Zwei anschauliche Fallstudien zu TQM In den letzten Jahrzehnten hat sich Total Quality Management (TQM) zu einem wichtigen Phänomen in der Geschäftswelt entwickelt, aber die Auswirkungen und der Umfang von Qualitätsprogrammen sind überall sehr unterschiedlich. Aufgrund unterschiedlicher Erklärungen sind sich die meisten Autoren einig, dass Management Commitment und Leadership unverzichtbare Elemente für eine erfolgreiche TQM-Implementierung sind. Dennoch spiegelt das Studium der Literatur in diesem Punkt eine terminologische Verwirrung wider. Die Autoren dieses Papiers argumentieren, dass Commitment und Leadership keine Synonyme sind. Während engagierte Manager den Qualitätsprozess ausschließlich mit ihrer formalen Autorität leiten können, erzeugen diejenigen, die führend sind, eine Art Einfluss, der darüber hinausgeht. Dieser Beitrag schlägt eine mehrdimensionale Wahrnehmung von Führung vor und vertritt die Ansicht, dass nur durch die Berücksichtigung der ethischen Dimension von Führung zusammen mit technischen und psychoemotiven Dimensionen zwischenmenschliche Einflüsse über den Machtbereich hinaus genauer erklärt werden können. Als anschauliches Beispiel für die Bedeutung der Berücksichtigung jeder Dimension präsentieren die Autoren zwei Fallstudien zur TQM-Implementierung.;-;-;-;https://link.springer.com/article/10.1023/A%3A1012569609275 31c3735765f753dff2c5f58eb9913154;de;;;4.2.;;;"Entwicklung kreativer Lehrkompetenz: Die GESTALTUNG kreativer Lehrkräfte Vor einigen Monaten überredete mich meine Frau, sie zu einer Live-Show des Zauberers David Blaine in Singapur zu begleiten. Ich gehe selten zu solchen Veranstaltungen und habe noch nie zuvor einen weltberühmten Zauberer live gesehen. Ich glaube nicht an Magie im metaphysischen Sinne, kann aber die Illusion der Erfahrung schätzen. David Blaine enttäuschte in dieser Hinsicht nicht. Ich war jedoch ein bisschen enttäuscht, dass ich nicht ausgewählt wurde, an einem seiner magischen Segmente teilzunehmen, nicht aus Gründen, um ""auf der Bühne zu stehen"", sondern um so aus nächster Nähe zu sehen, wie er die Dinge macht. Als Psychologe, der in Bezug auf Beobachtungsfähigkeiten über ein gutes Maß an Sinnesschärfe verfügen sollte (sagt er hoffentlich), dachte ich, ich könnte zumindest theoretisch herausfinden, wie er das bestimmte Stück ""Magie"" ausführte. Auch wenn ich diese Gelegenheit nicht aus der Nähe hatte, war ich von Davids Expertise beeindruckt – für uns Anfänger war es sicherlich magisch. Im Gegensatz dazu kann ich mich erinnern, dass mein Vater als Kind Kartentricks und andere Zaubertricks gemacht hat, wie zum Beispiel seinen Daumen in zwei Teile zu teilen. Als ich fünf Jahre alt war, schien es ziemlich großartig zu sein, aber mit acht Jahren hatte ich alles herausgefunden. Die Kartentricks hatten eine geplante Reihenfolge (vorher arrangiert) und der trennende Daumen war eigentlich der Daumen der anderen Hand, der von zwei Fingern getarnt war.";-;-;-;https://link.springer.com/chapter/10.1007/978-981-287-534-1_4 0a74af1dd311cbd01a1566ffdd7d96dc;de;;;4.2.;;;Die Rolle der IKT-Gesetze und der nationalen Kultur bei der Bestimmung der IKT-Diffusion und des Wohlbefindens: Eine länderübergreifende Untersuchung IKT-induzierte rechtliche und regulatorische Herausforderungen, einschließlich Sicherheits- und Datenschutzrisiken, nehmen zu. Trotzdem mangelt es an Forschung, die die Rolle der IKT-Gesetze hervorhebt und ihre Auswirkungen auf das Niveau der IKT-Verbreitung und das Wohlergehen eines Landes versteht. Gestützt auf Drors Gesetz und den Rahmen des sozialen Wandels und die Diskussion über die Literatur zur IKT-Verbreitung, die Perspektive des wahrgenommenen Risikos, Hofstedes Typologie der Nationalkultur und die Theorie des technologischen Determinismus, untersucht diese Studie (1) die Auswirkungen der Reife von IKT Gesetze in einem Land über die Verbreitung von IKT unter seinen Bürgern und Unternehmen, (2) versteht, wie diese Beziehung von den nationalen kulturellen Dimensionen abhängt, und (3) erläutert die Rolle der IKT-Verbreitung bei der Förderung des Wohlergehens. Das Forschungsmodell wird anhand öffentlich verfügbarer Daten aus 83 Ländern untersucht, und die Ergebnisse legen nahe, dass solide IKT-Gesetze erforderlich sind, um eine größere Verbreitung von IKT zu erreichen und das Wohlbefinden zu verbessern.;-;-;-;https://link.springer.com/article/10.1007/s10796-020-10039-y 512c182146c39146bce0dafa22430eea;de;;;4.2.;;;Hydroinformatik Vision 2011 Was derzeit „Hydroinformatik“ (HI) genannt wird, wurde innerhalb der IAHR (International Association for Hydro-Environment Engineering and Research) und der IWA (International Water Association) entwickelt, genauer gesagt von einem gemeinsamen Hydroinformatik-Komitee beider Organisationen. Der Ausschuss befindet sich derzeit im Prozess der Erweiterung um die dritte Organisation: IAHS.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-4451-42-0_44 85f0e779b24f4f7242b82b5477a1f40a;de;;;4.2.;;;Enzymatische Proteinhydrolysate und ultrafiltrierte Peptidfraktionen aus Cowpea Diabetes Mellitus (DM) ist eine Krankheit, die weltweit eine zunehmende Zahl von Menschen betrifft und in einem Anstieg des Blutzuckerspiegels besteht. Diabetes mellitus Typ 2 (DMT2) ist am häufigsten und macht 95 % der Fälle aus. In dieser Arbeit wird das antidiabetische Potenzial von Cowpea (;-;-;-;https://link.springer.com/article/10.1007/s13738-019-01651-0 b8d32b3ca28f4b4d13a444e6bbee51a3;de;;;5.2.;;;Vergleich von Proteinstrukturen mittels 3D-Profil-Alignment Eine neuartige Methode zum Vergleich von Proteinstrukturen mittels 3D-Profil-Alignment wird vorgestellt. Das 3D-Profil ist eine positionsabhängige Bewertungsmatrix, die aus dreidimensionalen Strukturen abgeleitet wird und im Wesentlichen verwendet wird, um die Sequenzstrukturkompatibilität für die Vorhersage der Proteinstruktur abzuschätzen. Unsere Idee ist es, zwei 3D-Profile mit einem dynamischen Programmieralgorithmus zu vergleichen, um eine optimale Ausrichtung und eine Ähnlichkeitsbewertung zwischen ihnen zu erhalten. Beim Vergleich des 3D-Profils von Hämoglobin mit jedem der Profile in der Bibliothek, die 325 Profile repräsentativer Strukturen enthielt, wurden alle Profile anderer Globine mit relativ hohen Werten nachgewiesen, und Proteine ​​derselben Strukturklasse folgten den Globinen. Ein umfassender Vergleich von 3D-Profilen in der Bibliothek wurde ebenfalls durchgeführt, um die Proteinverwandtschaft im Strukturraum darzustellen. Unter Verwendung einer mehrdimensionalen Skalierung ergab eine planare Projektion von Punkten im Proteinstrukturraum eine Gesamtgruppierung hinsichtlich der Strukturklassen, d. h. all-α, all-β, α/β und α+β. Diese Ergebnisse unterscheiden sich implizit von denen, die mit dem herkömmlichen Struktur-Struktur-Vergleichsverfahren erhalten werden. Unterschiede werden hinsichtlich der strukturellen Divergenz von Proteinen im Verlauf der molekularen Evolution diskutiert.;-;-;-;https://link.springer.com/article/10.1007/PL00000065 f92ec97cca1852f0d474ef5d7bc6dfbf;de;;;4.2.;;;Dynamische Bayessche Kombination mehrerer Imperfekt-Klassifikatoren Klassifikator-Kombinationsverfahren müssen die Ausgaben von mehreren unvollkommenen Klassifikatoren optimal nutzen, um eine höhere Genauigkeit der Klassifizierungen zu ermöglichen. In vielen Situationen, beispielsweise wenn menschliche Entscheidungen kombiniert werden müssen, können die Basisentscheidungen in ihrer Zuverlässigkeit enorm variieren. Ein Bayes'scher Ansatz für eine solche unsichere Kombination ermöglicht es uns, die Leistungsunterschiede zwischen Individuen abzuleiten und vorhandenes Vorwissen über ihre Fähigkeiten einzubeziehen, wenn Trainingsdaten spärlich sind. In diesem Kapitel untersuchen wir die Kombination von Bayes-Klassifikatoren unter Verwendung des recheneffizienten Rahmens der Variations-Bayes-Inferenz. Wir wenden den Ansatz auf reale Daten aus einem großen Citizen-Science-Projekt, Galaxy Zoo Supernovae, an und zeigen, dass unsere Methode andere etablierte Ansätze zur unvollkommenen Entscheidungskombination bei weitem übertrifft abgeleitete Entscheidungsstrategien und zeigen, dass natürliche Gruppierungen gebildet werden. Schließlich präsentieren wir einen dynamischen Bayes'schen Klassifikator-Kombinationsansatz und untersuchen die Veränderungen der Basisklassifikatorleistung im Laufe der Zeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36406-8_1 61a725acf9b52326d088d589aae592c1;de;;;4.2.;;;Merkmale der Verbreitung von Sportinformationen im Internet Da die Entwicklung der Informationsindustrie in China von Tag zu Tag schneller wird. Früher lernten soziale Leute die Sportinformationen in Fernsehsendungen oder Zeitungen kennen. Aber diese Situation hat sich heute stark verändert. Wir sehen immer mehr Leute, die sich Spiele im Internet ansehen, sie erhalten die Informationen über die Spiele oder Sportstars, die sie gerne sehen. Nach unseren weiteren Untersuchungen wird der Anteil der Sportinformationen bei der Abfrage und dem Surfen im Internet immer größer. Tatsächlich ist die Verbreitung von Sportinformationen bereits zu einem wichtigen Bestandteil des Internets geworden. Es nimmt immer mehr Platz bei der Abfrage und beim Browsen einer Website ein. Mit einigen Recherchen und Analysen zu diesem Thema wird der Autor dieses Textes umfassend die Eigenschaften der Verbreitung von Sportinformationen im Internet untersuchen. Dann werde ich diese Funktionen nacheinander analysieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29087-9_26 cfaebd4a745cb2b01b2aff78cdfa0f35;de;;;4.2.;;;Kommandieren und kontrollieren Sie Städte in der globalen Weltraumwirtschaft vor und nach dem geoökonomischen Übergang 2008 Der weltweite Wirtschaftsabschwung, der vor allem durch die US-Hypothekenkrise im Jahr 2007 verursacht wurde, führte zu Einnahmeverlusten der multinationalen Konzerne. Vorhandene Studien müssen noch die negativen Auswirkungen der Subprime-Hypothekenkrise und ihrer Restwelle der weltweiten Rezession auf die globale Raumökonomie auf die Führungs- und Kontrollfunktionen der Stadt darstellen. Jüngste und frühere Studien haben eine „unmittelbare Geschichte“ der globalen Raumwirtschaft erstellt, bevor der weltweite Wirtschaftsabschwung die Weltwirtschaft Ende 2008 untergräbt. Das Wachsen und Schwinden der Befehls- und Kontrollfunktionen der Großstädte auf der globalen Wirtschaftsarena vor und nach dem Ausbruch der Finanzkrise und der damit verbundenen geoökonomischen Übergänge sind noch wenig verstanden. Dieser Beitrag versucht, einen neuen Satz kundenspezifischer Daten beizutragen, um die Lücke in der Literatur mit der Untersuchung der Führungs- und Kontrollfunktionen von Städten auf der ganzen Welt von 2005 bis 2009 zu aktualisieren und zu schließen. Besondere Aufmerksamkeit wird der Zeit-Raum-Beziehung geschenkt des geoökonomischen Übergangs, der die jüngsten historischen Bilder der Kommando- und Kontrollsituation verschiedener Städte der Welt erfassen kann.;-;-;-;https://link.springer.com/article/10.1007/s11769-012-0533-1 2f00613c7a04dd4a9d7db31966aa2ee1;de;;;4.2.;;;Darstellung und Analyse der Zweckmäßigkeit mit SNA Die Soziale Netzwerkanalyse ist ein leistungsfähiges Instrument zur Darstellung und Analyse von Netzwerken und der Beziehungsstruktur, die sich in den Ereignissen ausdrückt, aus denen sie aufgebaut sind. Dieses Kapitel bietet eine Einführung (einschließlich der Datenaufbereitung) zu den verfügbaren Analyseinstrumenten. Sowohl ein grundlegendes als auch ein erweitertes Anwendungsbeispiel zeigen, wie die (soziale) Netzwerkanalyse in der Praxis angewendet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-28791-1_3 28211c1825fb5f42a990f9b434036264;de;;;5.2.;;;Warum ist Regellernen optimistisch und wie man es korrigiert Correct Bei ihrer Suche durch einen riesigen Raum möglicher Hypothesen vergleichen Regelinduktionsalgorithmen Schätzungen der Qualitäten einer großen Anzahl von Regeln, um diejenige zu finden, die am besten erscheint. Dieser Mechanismus kann leicht zufällige Muster in den Daten finden, die – auch wenn die Schätzmethode selbst unverzerrt sein kann (wie die relative Häufigkeit) – Schätzungen von optimistisch hoher Qualität aufweisen. Es wird allgemein angenommen, dass das Problem, das schließlich zu einer Überanpassung führt, durch die Verwendung der m-Wahrscheinlichkeitsabschätzung gemildert werden kann. Wir zeigen, dass dies das Problem nur teilweise lösen kann, und schlagen eine neue Lösung vor, um die gemeinsamen Regelbewertungsfunktionen für mehrere Vergleiche in der Suche zu berücksichtigen. Experimente mit künstlichen Datensätzen und Datensätzen aus dem UCI-Repository zeigen eine große Verbesserung der Genauigkeit von Wahrscheinlichkeitsvorhersagen und auch einen ordentlichen Gewinn an AUC der konstruierten Modelle.;-;-;-;https://link.springer.com/chapter/10.1007/11871842_33 c602106488975a0ee4fa99a5aa8adade;de;;;4.2.;;;Erfahrungen aus dem Aufbau von Wissensmanagement in einem Verbundforschungsprojekt Gemeinsame Forschungsprojekte schaffen neues Wissen und Erfahrungen aus Erfahrungen. Ein Forschungsprojekt mit mehreren Partnern ist ein herausforderndes Umfeld für die systematische Wiederverwendung von Wissen und Erfahrung. Wissensmanagement wird oft als Overhead betrachtet, wobei mehrere Aufgaben zur Arbeitsbelastung des Projekts hinzugefügt werden. Dieser Overhead kann überwältigend sein, da Partner aus Wissenschaft und Industrie unterschiedliche Hintergründe haben und unterschiedliche Ziele und Prioritäten mit dem Projekt verbinden können. Industriepartner neigen dazu, strenge Sicherheitsrichtlinien einzuhalten, die den Erfahrungsaustausch behindern. Eine Verlängerung der Projektlaufzeit ist in vielen öffentlich geförderten Verbundprojekten nicht möglich. In diesem Beitrag beschreiben wir unsere Erfahrungen aus der Anfangsphase eines großen deutschen Verbundforschungsprojekts mit Partnern aus Wissenschaft und Industrie. Wir beschreiben die angewandten Techniken und die gewonnenen Erkenntnisse aus dem ersten Projektjahr. Wir leiten daraus Schlussfolgerungen ab und geben Anregungen zur Einführung von Wissens- und Erfahrungsmanagement in ähnlichen Projekten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31063-8_18 c13b12fc665c8fab6f64f37b22d181c7;de;;;4.2.;;;Außergewöhnliche farbige Studentinnen: Akademische Resilienz und Gender in der Hochschulbildung Bei der Untersuchung der außergewöhnlichen akademischen Leistungen von 31 weiblichen und 19 männlichen farbigen College-Studenten mit niedrigem sozioökonomischen Status ergaben sich aus den Daten drei eindeutig weibliche Ansätze zu außergewöhnlichen Leistungen. Dazu gehörten das übermäßige Maß an familiärem Widerstand, dem die Frauen ausgesetzt waren, und ihre Herangehensweise an diesen Widerstand, der Wert und die Bedeutung von Zielen und Ambitionen nach dem College sowie das Vorhandensein effektiver geschlechterübergreifender Mentoring-Beziehungen. Der Einfluss von rassischen, ethnischen, klassen- und geschlechtsspezifischen Identitäten in Bezug auf die schulischen Leistungen wird ebenfalls untersucht.;-;-;-;https://link.springer.com/article/10.1007/s10755-008-9075-y 46786b9ca90af0a62a4f7ded5043a0b1;de;;;4.2.;;;Untersuchung und Interpretation der quantitativen Validität in Chinas unternehmensbasierter urbaner Netzwerkanalyse Aus Zweckmäßigkeitsgründen lassen sich die meisten bestehenden unternehmensbasierten städtischen Netze nur quantitativ messen, indem entweder die Anzahl der Verknüpfungen gezählt oder das Produkt aus geschätzten Servicewerten berechnet wird. Die durch die Grenzen der quantitativen Analyse entstehenden Ungenauigkeiten können sich jedoch für Studien über Nichtmarktwirtschaften wie China als fatal erweisen. Am Beispiel des Investitionsdatensatzes bauen wir ein kapitalgewichtetes Interventionsnetzwerk sowie ein ungewichtetes Kontrollnetzwerk auf, um die quantitative Validität in Chinas unternehmensbasierter urbaner Netzwerkanalyse zu untersuchen. Sowohl das räumliche Gesamtmuster als auch die Top-Städte-Dyaden innerhalb des kapitalgewichteten Netzwerks zeigen, dass Peking als dominanteste Stadt die Leistung der anderen überschattet, und das ungewichtete Netzwerk zeigt multilaterale Interaktionen zwischen Chinas Top-Städten wie Peking, Shanghai, Shenzhen, und Guangzhou. Um die auffälligen Unterschiede weiter zu interpretieren, teilen wir das Gesamtnetzwerk in zwei Teilnetzwerke auf, die aus der Fokussierung auf staatliche Unternehmen (SOEs) und private Unternehmen abgeleitet werden. Die Ergebnisse zeigen, dass der öffentliche und der private Sektor in China sehr unterschiedliche Subnetzwerke geschaffen haben und dass Staatsunternehmen eine viel bedeutendere Rolle in Bezug auf Kapital spielen. Neben neuen Einblicken in Chinas urbanes Netzwerk bietet diese Studie eine warnende Geschichte, die Forscher an die Wesentlichkeit und Komplexität bei der quantitativen Unterscheidung zwischen verschiedenen Verbindungen erinnert.;-;-;-;https://link.springer.com/article/10.1007/s11769-021-1175-y 034aaacd0e05dec0abeb1deff9bed9e3;de;;;5.2.;;;Einfache Beispiele In diesem Kapitel werden einige recht elementare Algorithmen entwickelt. Sie sind nämlich: lineare Suche, Finden des maximalen Elements in einem Array, eine Version der binären Suche, ein einfacher Mustervergleichsalgorithmus, Erhöhen einer Zahl mit einer bestimmten ganzzahligen Potenz und Finden der ganzzahligen Approximation eines Logarithmus zur Basis 2.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27919-5_3 a4dfb266c70c693ef13d1363e5191ce0;de;;;5.2.;;;Ein zielbasierter Farbraum für die Erkennung von Seezielen Die Erkennung von Seezielen ist eine wichtige Anwendung für Militär- und Navigationszwecke. Für das Problem der Seezielerkennung wird ein neues überwachtes Clustering-Verfahren vorgestellt, das auf der Kombination der PSO- und FCM-Techniken basiert. Die Farbkomponenten der Ziel- und Nicht-Zielpixel im RGB-Farbraum werden als Merkmale verwendet, um den Klassifizierungsalgorithmus zu trainieren. Der neue Klassifikator wird in Form eines neuen Farbraums präsentiert, den wir als Target-based Color Space (TCS) bezeichnen, tatsächlich wird der RGB-Farbraum durch eine 3×3-Matrix in diesen neuen Raum umgewandelt. Der Particle Swarm Optimization (PSO)-Algorithmus wird dann verwendet, um nach den optimalen Gewichten der Umwandlungsmatrix zu suchen, was zu einem diskriminierenderen Clustering-Raum zwischen den Ziel- und Nicht-Zielpixeln führt. Mit anderen Worten, die Lösung des Optimierungsproblems, die Minimierung der Zielfunktion der FCM-Clustering-Technik im linearen und quadratischen Transformationsbereich (mit einem NP-schweren Problem bei der quadratischen Umwandlung), erfolgt unter Verwendung des PSO-Algorithmus. Das Hauptziel dieser Arbeit ist es, die Effizienz der Verwendung nur von Farbmerkmalen sowie der Farbraumkonvertierung im Klassifizierungsbereich zu demonstrieren. Experimentelle Ergebnisse zeigen die Effizienz einer neuen Methode beim Auffinden von Seezielen in Farbbildern.;-;-;-;https://link.springer.com/article/10.1007/s10489-011-0307-y 62cd3dc30550db0a195be411320a61af;de;;;5.2.;;;Untersuchung eines Maßes für die vom genetischen Algorithmus zurückgelegte rekombinatorische Distanz Entfernungsmaße sind für die Entwicklung vieler Anwendungen unerlässlich, aber die Notwendigkeit, dass diese Maße repräsentativ sind, wird oft ignoriert - Maßnahmen, die wirklich die Art und Weise darstellen, in der der Lösungsraum durchquert wird, werden oft zugunsten einfacherer Maßnahmen vernachlässigt. Da der genetische Algorithmus sowohl unäre als auch binäre Operatoren verwendet, ist es schwierig, den Abstand zwischen den Chromosomen mit einem Ansatz zu quantifizieren, der wirklich repräsentativ für die Distanzen ist, die der evolutionäre Mechanismus zurücklegt. Es ist jedoch möglich, die Funktion der Rekombination neu zu definieren, um eine repräsentativere Maßnahme zu ermöglichen. Der hier vorgestellte rekursive Ansatz beinhaltet die Neudefinition der Rekombination als eine Menge von unären Operatoren, die durch die aktuelle Population bestimmt werden. Diese Operatoren replizieren das Verhalten des ursprünglichen Operators präzise und können verwendet werden, um den rekombinatorischen Abstand zwischen den Chromosomen mit einer logarithmisch verbesserten Zeitkomplexität zu berechnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27534-0_7 d40f8074093d1355e0576d1ecc38f233;de;;;4.2.;;;ID-Nummernrichtlinien in Europa Ziel dieses Beitrags ist es, einen Überblick über die sinnvolle Verwendung der Identifikationsnummern, insbesondere im öffentlichen Bereich, zu geben. Es wird die Frage beantwortet, ob eine bestimmungsgemäße Verwendung durch einen einzigen globalen Identifikator oder mehrere Identifikatoren erreicht werden kann.;-;-;-;https://link.springer.com/article/10.1007/s11623-008-0063-2 e26cc60cd6e013f18f46ecf59ac4156c;de;;;5.2.;;;Industrielle Beziehungen Die Beziehungen zwischen Harland & Wolff und den ihre Arbeitnehmer vertretenden Gewerkschaften waren im Allgemeinen gut. Aber wie typisch war das? Inwieweit beeinflussten die wirtschaftlichen Bedingungen in jeder Stadt die Arbeitgeber-Arbeitnehmer-Beziehungen? War Harland & Wolff einzigartig oder lassen sie sich in diesen Jahren in ein breiteres Muster der Arbeitsbeziehungen einpassen? Um zu versuchen, diese Faktoren zu bewerten, ist es notwendig, die Arbeitsbeziehungen in anderen Sektoren der Wirtschaft von Belfast zu untersuchen und diese mit den anderen Städten in dieser Studie zu vergleichen. Arbeitgeber in ganz Großbritannien, die mit dem Aufkommen der organisierten Arbeitnehmerschaft konfrontiert waren, suchten nicht immer nach Zusammenarbeit. Einige ignorierten die Gewerkschaften einfach in der Hoffnung, dass sie weggehen würden, andere vertrieben sie mit Aussperrungen und freien Arbeitskräften.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-14599-7_6 c86c1ad88350b4b133948920780eaaf6;de;;;5.2.;;;Affektive, natürliche Interaktion mit EEG: Sensoren, Anwendung und zukünftige Richtungen ElectroEncephaloGraphy-Signale wurden bereits vor der Etablierung von Affective Computing als Forschungsgebiet in Bezug auf Emotionen untersucht. Technologische Fortschritte in der Sensor- und Netzwerkkommunikationstechnologie ermöglichten die EEG-Erfassung während der Interaktion mit geringer Aufdringlichkeit im Gegensatz zu früheren Arbeiten, die physiologische Signale als die aufdringlichste Modalität in der affektiven Analyse klassifizierten. Der vorliegende Artikel bietet einen kritischen Überblick über die Forschungsarbeit, die sich mit der breit affektiven Analyse von EEG-Signalen beschäftigt, die während natürlicher oder naturalistischer Interaktion gesammelt wurden. Es konzentriert sich auf Sensoren, die eine solche natürliche Interaktion ermöglichen (nämlich NeuroSky und Emotiv), verwandte technologische Merkmale und affektive Aspekte von Anwendungen in mehreren Anwendungsdomänen. Zu diesen Aspekten gehören der Emotionsrepräsentationsansatz, die Induktionsmethode sowie die für die Anwendung ausgewählten Stimuli und Anmerkungen. Darüber hinaus werden Probleme des maschinellen Lernens im Zusammenhang mit der affektiven Analyse (wie die Einbeziehung mehrerer Modalitäten und verwandte Probleme, die Merkmalsauswahl zur Dimensionsreduktion und Klassifikationsarchitekturen) überarbeitet. Schließlich werden zukünftige Richtungen der EEG-Einbindung in die affektive und natürliche Interaktion diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30448-4_42 1194c10f305fa3731f90474d6d1c58c0;de;;;5.2.;;;Methoden zur Optimierung von Fahrplanungs- und Routingproblemen von Fahrerlosen Transportfahrzeugen: Eine Überprüfungsstudie Fahrerlose Transportsysteme (FTS) werden als Flurförderzeuge in flexiblen Fertigungssystemen eingesetzt. Traditionell wurden AGVs hauptsächlich in Fertigungssystemen verwendet, aber derzeit werden andere Anwendungen von AGVs in anderen Bereichen wie Lagerhallen, Containerterminals und Transportsystemen umfassend entwickelt. In diesem Artikel wird Literatur zu verschiedenen Methoden zur Optimierung von AGV-Systemen für die beiden wesentlichen Probleme der Planung und Routenplanung in Herstellungs-, Verteilungs-, Umschlag- und Transportsystemen diskutiert. Wir kategorisierten die Methoden in mathematische Methoden (exakt und heuristisch), Simulationsstudien, metaheuristische Techniken und auf künstlicher Intelligenz basierende Ansätze.;-;-;-;https://link.springer.com/article/10.1007/s10846-013-0003-8 a1ad03204310b4f3b6f4e872ea2d2afa;de;;;5.2.;;;Vorhersagbarkeit der Cue-Target-Beziehung und des zeitlichen Verlaufs der auditiven Rückkehrhemmung Es wurde die Möglichkeit untersucht, dass der zeitliche Verlauf der auditiven Rückkehrhemmung (IOR) von der zeitlichen oder räumlichen Vorhersagbarkeit der Cue-Target-Beziehung abhängen könnte. In allen Experimenten folgte einem Ortungshinweis ein zu lokalisierendes Ziel. Eine hemmende Wirkung zeigte sich bei einer längeren Stimulus-Onset-Asynchronie (SOA), wenn entweder die zeitliche oder die räumliche Beziehung vorhersagbar war, anstatt wenn beides unvorhersehbar war. Ein fakultativer Effekt war bei einer 100-ms-SOA offensichtlich, unabhängig von der Vorhersagbarkeit der Cue-Target-Beziehung. Diese Ergebnisse belegen, dass der zeitliche Verlauf der inhibitorischen Komponente der ortsbezogenen auditiven IOR von der Vorhersagbarkeit der zeitlichen und räumlichen Beziehungen von Cue und Target abhängt. Die theoretischen Implikationen dieser Ergebnisse werden berücksichtigt, und es wird ein duales Prozessmodell der auditiven selektiven Aufmerksamkeit angeboten.;-;-;-;https://link.springer.com/article/10.3758/BF03213113 a6501768cf4030203dd4678a7c6ed2cb;de;;;4.2.;;;Ein neuer Algorithmus für personalisierte Empfehlungen in Community-Netzwerken In einem graphentheoretischen Modell ist Clustering der Prozess der Aufteilung von Knoten in Gruppen mit einer höheren Dichte von Kanten in Gruppen als zwischen ihnen. In diesem Beitrag stellen wir einen neuen Clustering-Algorithmus zur Erkennung solcher Gruppen vor, mit dem wir einige klassische soziale Netzwerke analysieren. Der neue Algorithmus weist zwei herausragende Merkmale auf: einen nicht-binären hierarchischen Baum und das Merkmal der überlappenden Clusterbildung. Ein nicht-binärer hierarchischer Baum ist viel kleiner als die binären Bäume, die von den meisten herkömmlichen Algorithmen konstruiert werden, er hebt sinnvolle Cluster deutlich hervor, was den weiteren manuellen Aufwand für die Clusterauswahl erheblich reduziert. Der vorliegende Algorithmus wird mit mehreren Benchmark-Datensätzen getestet, für die die Community-Struktur im Voraus bekannt war, und die Ergebnisse zeigen, dass es sich um einen sensiblen und genauen Algorithmus zum Extrahieren von Community-Strukturen aus sozialen Netzwerken handelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7262-5_86 40366eeb3d1ef9e740f2eeea2ed7a6bc;de;;;4.2.;;;Sorgen im Inland, Sorgen im Ausland: Irische und englische politische Eintagsfliegen in Süd-Ontario Vier ungewöhnliche Artefakte, die eine eindeutige Verbindung zu einem bestimmten Politiker oder einer bestimmten politischen Bewegung widerspiegeln, wurden kürzlich aus archäologischen Stätten in Süd-Ontario geborgen. Diese Items spiegeln gesellschaftspolitische Themen aus den Heimatländern der Einwandererfamilien wider. Politisch aufgeladene Gegenstände haben Bedeutung für den Benutzer und dienen auch dazu, Bindungen zu schmieden und Spaltungen innerhalb der Gemeinschaft zu schaffen. Kürzlich entdeckte Artefakte im Zusammenhang mit der irischen Aufhebungsbewegung und dem britischen Great Reform Act von 1832 liefern Beispiele dafür.;-;-;-;https://link.springer.com/article/10.1007/s10761-016-0378-x 4f72b2203d3575fbc5a8f978485f1c1a;de;;;5.2.;;;Labourismus und Sozialismus Der Sozialismus hat sich erst im 19. Jahrhundert als kohärente Ideologie entwickelt, obwohl Vorläufer schon früher identifiziert werden können. Im Wesentlichen beinhaltete der Sozialismus eine Reaktion gegen und eine radikale Alternative zum industriellen Kapitalismus. Im Hinblick auf die Klasseninteressen kann der Sozialismus als die politische Ideologie der neuen städtischen Arbeiterklasse gesehen werden, die effektiv durch die Industrialisierung geschaffen wurde, so wie der Konservatismus ursprünglich die Ideologie des Grundeigentums und der Liberalismus die Ideologie der Bourgeoisie oder des Industrieinteresses war . Während der Konservatismus eine Verteidigung des Status quo oder eine Rückkehr in die jüngste Vergangenheit bedeutete und der Liberalismus eine Rechtfertigung und Unterstützung für eine anhaltende industrielle Transformation bot, entwickelte sich der Sozialismus als radikale oder revolutionäre Ideologie, die eine grundlegende Transformation der bestehenden Gesellschaft und ihrer zugrunde liegenden Annahmen erforderte und Werte.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-14909-4_6 cc6b94fe9f6a588db8452bb2eacd0240;de;;;5.2.;;;Ist das Interesse an der Umwelt wirklich rückläufig? Die Komplexität der Trendanalyse mithilfe von Internetsuchdaten Jüngste Analysen des Internet-Suchvolumens haben einen Rückgang des öffentlichen Interesses an Themen im Zusammenhang mit Umwelt, Erhaltung der biologischen Vielfalt und Fischerei vermutet. Diese Analysen basierten auf Google Trends, die ein Maß dafür sind, wie häufig ein Begriff in Google im Verhältnis zur Gesamtzahl der durchgeführten Suchanfragen gesucht wird. Google Trends ist ein Maß für die relative Suche, und dies kann die Beurteilung zeitlicher Trends erschweren. Ich habe untersucht, ob ein relativer Rückgang des Internet-Suchvolumens einen echten Rückgang des Interesses an umweltbezogenen Themen darstellt, indem ich Trends von Begriffen verglichen habe, die verschiedene Themen repräsentieren, darunter Umwelt, Informatik, andere Disziplinen (Astrophysik) und Freizeit. Ähnliche Werte des relativen Rückgangs wurden für Umweltbegriffe, für Informatikbegriffe und für andere wissenschaftliche Disziplinen festgestellt. Bei freizeitbezogenen Begriffen ist dagegen ein Anstieg zu beobachten. Dies deutet darauf hin, dass das Interesse an der Umwelt nicht wirklich abnimmt. Der offensichtliche Rückgang von Umwelt- und Wissenschaftsbegriffen wird höchstwahrscheinlich durch die zunehmende Nutzung des Internets für Ziele verursacht, die nichts mit Wissenschaft und Technologie zu tun haben, wie zum Beispiel Freizeit. Internet-Suchtools sind eine leistungsstarke Informationsquelle, aber die Benutzer sollten sich der Komplexität der Analyse ihrer Daten bewusst sein: Die Verwendung nicht verwandter Begriffe als Benchmark kann helfen, echte Trends zu erkennen.;-;-;-;https://link.springer.com/article/10.1007/s10531-013-0552-y 82bad6b4a36c826d8523c59b3819978b;de;;;5.2.;;;Open the Black Box: Fallstudienbeweise zu den Zielen und der Kontrolle von Family Offices Unter Verwendung einer kombinierten Agentur- und Stewardship-Perspektive untersucht diese Studie die Ziele, die Familien hinter Family Offices verfolgen, und die Kontrollmechanismen, die auferlegt werden, um die Erreichung dieser Ziele sicherzustellen. Anhand der Fallbeweise von 21 Family Offices teste ich ex ante entwickelte Vorschläge. Darüber hinaus identifiziere ich mit einer induktiven Logik Dimensionen, die die Zielorientierung einer Familie und die Abhängigkeit von Kontrollmechanismen beeinflussen. Indem ich Verbindungen zwischen dem FO und dem Familienunternehmen herstelle, zeige ich, dass abhängig vom Engagement einer Familie im Familienunternehmen der FO entweder als soziales Subsystem des Familienunternehmens agieren oder sich zu einem eigenständigen Sozialsystem entwickeln kann. Darüber hinaus identifiziere ich direktes Familienengagement als Vorstufe, die die nichtfinanzielle Zielorientierung einer Familie und die Entstehung sozialer Kontrolle ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-02491-8_4 95a45fac391277c51a7d5e588a91cc54;de;;;5.2.;;;Immunitätsbasierter Gravitationssuchalgorithmus GSA (Gravitational Search Algorithm) ist vom Newtonschen Gesetz der universellen Gravitation inspiriert und gilt als vielversprechender evolutionärer Algorithmus, der die Vorteile einer einfachen Implementierung, schneller Konvergenz und geringen Rechenkosten hat. GSA hat jedoch die Nachteile, dass sich seine Konvergenzgeschwindigkeit in der späteren Suchphase verlangsamt und es leicht ist, in die lokale optimale Lösung zu fallen. Wir haben einen neuartigen immunitätsbasierten Gravitationssuchalgorithmus (IGSA) vorgeschlagen, der vom biologischen Immunsystem und dem traditionellen Gravitationssuchalgorithmus inspiriert ist. Es werden die Vergleichsexperimente von GSA, IGOA und PSO (Particle Swarm Optimization) an 5 Benchmarkfunktionen durchgeführt. Der vorgeschlagene Algorithmus zeigt wettbewerbsfähige Ergebnisse mit verbesserter Diversität und Konvergenzgeschwindigkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34062-8_98 38e2c1fc1ead3453e9fd093d0d82caad;de;;;5.2.;;;Wahrnehmung auditiver Ereignisse: Die Quelle – Wahrnehmungsschleife für die Körperhaltung im menschlichen Gang Es gibt eine kleine, aber wachsende Literatur über die Wahrnehmung natürlicher akustischer Ereignisse, aber es wurden nur wenige Versuche unternommen, komplexe Klänge zu untersuchen, die nicht systematisch in einer Laborumgebung kontrolliert werden. Die vorliegende Studie untersucht die Fähigkeit der Zuhörer, die Haltung (aufrecht – gebeugt) des Gehers zu beurteilen, der bei jedem Versuch kontrastierende akustische Reize erzeugte. Wir verwenden einen umfassenden dreistufigen Ansatz zur Ereigniswahrnehmung, bei dem wir ein solides Verständnis des Quellereignisses und seiner Klangeigenschaften sowie der Beziehungen zwischen diesen beiden Ereignisstadien entwickeln. Die Entwicklung dieses Verständnisses hilft sowohl, die Grenzen gängiger statistischer Verfahren zu erkennen als auch effektive neue Verfahren zu entwickeln, um nicht nur die beiden oben genannten Informationsstufen zu untersuchen, sondern auch die Entscheidungsstrategien, die von Hörern verwendet werden, um Quellenurteile aus Geräuschen zu treffen. Das Ergebnis ist ein umfassendes, letztlich logisches, aber nicht unbedingt erwartetes Bild sowohl der Quellen-Ton-Wahrnehmungsschleife als auch der Nützlichkeit alternativer Forschungsinstrumente.;-;-;-;https://link.springer.com/article/10.3758/PP.70.1.13 0afede5d47636154d42c4f5f636f940b;de;;;5.2.;;;Erforschung eines schnellen Verarbeitungsmechanismus für massive Schlachtfeld-Situationsdaten in der Kampfsimulation In der Kampfsimulation müssen die Schlachtfeld-Situationsdaten gespeichert und visualisiert werden, aber das Datenvolumen der Schlachtfeld-Situation wird größer, es ist schwierig zu handhaben, wir bauen Kompressions- und Dekompressionsmechanismen, um das Problem zu lösen, wir verbessern auch den Visualisierungsmechanismus, die Situation Informationen werden in statischen Typ und dynamischen Typ unterteilt, im Simulationsprozess müssen die dynamischen Informationen von Anfang bis Ende behandelt werden. Durch die zwei Arten von Mechanismen werden die Situationsdaten effektiv gehandhabt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34396-4_22 f85e8e3a0b947d3a6d45283118954335;de;;;5.2.;;;Hybride Partikelschwarmoptimierung mit differentieller Evolution und chaotischer lokaler Suche zur Lösung von Zuverlässigkeits-Redundanz-Zuordnungsproblemen Um Zuverlässigkeits-Redundanz-Zuordnungsprobleme effektiver zu lösen, wird in dieser Arbeit ein neuer Hybridalgorithmus namens CDEPSO vorgeschlagen, der Partikelschwarmoptimierung (PSO) mit differentieller Evolution (DE) und einer neuen chaotischen lokalen Suche kombiniert. Im CDEPSO-Algorithmus liefert DE seine beste Lösung für PSO, wenn die von DE erhaltene beste Lösung besser ist als die von PSO, während die beste Lösung im PSO durch chaotische lokale Suche durchgeführt wird. Um die Leistung von CDEPSO zu untersuchen, wurden vier typische Zuverlässigkeits-Redundanz-Zuordnungsprobleme gelöst und die Ergebnisse zeigen, dass die Konvergenzgeschwindigkeit und Robustheit von CDEPSO besser ist als die von PSO und CPSO (ein hybrider Algorithmus, der nur PSO mit chaotischer lokaler Suche kombiniert). Und im Vergleich zu den anderen sechs verbesserten Meta-Heuristiken weist CDEPSO auch eine robustere Leistung auf. Darüber hinaus wurde eine neue Leistung vorgeschlagen, um CDEPSO mit den gleichen sechs verbesserten Meta-Heuristiken gerechter zu vergleichen, und der CDEPSO-Algorithmus ist der beste zur Lösung dieser Probleme.;-;-;-;https://link.springer.com/article/10.1007/s11771-013-1649-x e7a4c622118950aa99133e44375ce506;de;;;5.2.;;;Ein hierarchisches Routing-Protokoll basierend auf Standortinformationen für drahtlose Sensornetzwerke Für die Begrenzung der Energie von drahtlosen Sensornetzwerkknoten kombiniert dieses Papier mit den Eigenschaften von hierarchischen Routingprotokollen und standortbasierten Routingprotokollen ein hierarchisches Routingprotokoll basierend auf dem geografischen Standort (HRBGR). Beim HRBGR-Algorithmus wird die Abdeckung des Sensornetzes in einige Bereiche basierend auf Knoten-Standortinformationen gleichmäßig aufgeteilt, dann selbstorganisierte Cluster entsprechend lokaler Informationen in jedem Bereich und die CH und der Agent in jedem Cluster unabhängig entscheiden. Alle Cluster-Kopfknoten konstruieren einen Routing-Baum, indem sie die Hilfe des Prinzips des minimalen Spannbaum-Algorithmus von prim suchen und die Daten mittels Multi-Hop-Kommunikation an die Basisstation übertragen. Theorie- und Simulationsanalysen zeigen, dass der Algorithmus den gesamten Lebenszyklus des Netzwerks bei geringerem Energieverbrauch verlängert und Verzögerungen reduziert und die Netzwerklastverteilung verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27866-2_77 449a337e05795e1358bdc096cc6f2332;de;;;5.2.;;;Die Tripelhelix, die Komplexität technologischer Innovationen und die Zerlegung nationaler Innovationssysteme: Ein Interview mit Loet Leydesdorff Loet Leydesdorff schlägt vor, technologische Innovationen als einen komplexen Prozess zu betrachten, in dem er nationale Innovationssysteme aufgliedert. Das theoretische Modell der „Triple Helix“ legt den Schwerpunkt auf transnationale und potenziell entkoppelte Dimensionen der Innovationsdynamik. Leydesdorff zeigt die Grenzen staatlicher Politik auf und schlägt Kommunikationsprozesse als entscheidende Linse vor, um die globale, nationale und regionale Ebene der Wissensökonomie zu erkunden;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55007-2_13 684159de709d36da3aac066f56d15095;de;;;4.2.;;;Entwicklung des chinesischen Fertigungssektors: Industrieforschung Dieses Kapitel gliedert sich in sechs Abschnitte: Der erste analysiert den Entwicklungsstand des chinesischen Fertigungssektors und bewertet neue Modelle. Der zweite Abschnitt befasst sich mit den Auswirkungen von Innovationen in Wissenschaft und Technologie auf Chinas Fertigungssektor. Der dritte Abschnitt befasst sich mit der Energieeffizienz im chinesischen Fertigungssektor und ihren Einflussfaktoren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-4445-8_5 d63e49fce3981489f8d95a312e389431;de;;;5.2.;;;Mensch-Umwelt-Sozialsystem und evolutionäre Spieltheorie In diesem Kapitel diskutieren wir sowohl die Definition eines Umweltsystems als eines der typischen dynamischen Systeme als auch seine Beziehung zur evolutionären Spieltheorie. Wir skizzieren auch die Struktur jedes Kapitels in diesem Buch.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-54962-8_1 9043e82c04f5f2ea6063ddccf2bc1d5b;de;;;5.2.;;;Ein hybrider Kuckuckssuchalgorithmus mit machbarkeitsbasierter Regel zur eingeschränkten Strukturoptimierung Eingeschränkte Optimierungsprobleme sind sehr wichtig, da sie in vielen wissenschaftlichen und technischen Anwendungen angetroffen werden. Als neuartige evolutionäre Berechnungstechnik hat der Kuckuckssuchalgorithmus (CS) aufgrund seiner einfachen Implementierung und schnellen Konvergenz viel Aufmerksamkeit und breite Anwendung auf sich gezogen. Ein hybrider Kuckucksmuster-Suchalgorithmus (HCPS) mit durchführbarkeitsbasierter Regel wird vorgeschlagen, um eingeschränkte numerische und technische Designoptimierungsprobleme zu lösen. Dieser Algorithmus kann die stochastische Exploration des Kuckuckssuchalgorithmus und die Ausnutzungsfähigkeit des Mustersuchverfahrens kombinieren. Simulationen und Vergleiche basierend auf mehreren bekannten Benchmark-Testfunktionen und strukturellen Designoptimierungsproblemen zeigen die Effektivität, Effizienz und Robustheit des vorgeschlagenen HCPS-Algorithmus.;-;-;-;https://link.springer.com/article/10.1007/s11771-014-2291-y 331c8b011781e6404bca045ef1400315;de;;;5.2.;;;Sind Frauen Personen? Einige mittelalterliche Frauen übten Unabhängigkeit aus, obwohl Kirche und Aristokratie die Rolle der Frauen diktierten. Christine de Pizan und Wollstonecraft widersetzten sich, während Blackstone sagte, dass Frauen von englischen Gesetzen profitierten, die ihnen Rechte verweigerten. Frauenkampagnen für öffentliche Ämter, Wahlrechte, Studieneinstieg oder Berufsausübung trafen auf Richter, die Frauen als „Nicht-Personen“ bezeichneten und ihnen die Rechte verweigerten, die Männer als ihren Anspruch geltend machten. Scutt beschreibt Frauen aus Australien, Aotearoa/Neuseeland, Großbritannien und den USA, die mit einem solchen juristischen Unsinn konfrontiert werden. Susan B. Anthony, Sophia Jex-Blake und Frauen wie sie hämmerten an die Türen von rein männlichen Gerichten, um als Personen anerkannt zu werden, oder beschworen rein männliche gesetzgebende Körperschaften für Gesetze, die „Frauenrechte“ gewähren. Kanadischen Frauen gelang der Durchbruch, als der Geheime Rat sie als Personen anerkennte. Doch auch heute noch werfen Abtreibungsgesetze und Leihmutterschaft Frauen in eine untermenschliche Sphäre und verweigern ihr die volle Persönlichkeit.;-;-;-;https://link.springer.com/chapter/10.1057/9781137562357_2 1385ea8dd6e5e84559f09cb38493b3a5;de;;;5.2.;;;Einige wichtige Streitigkeiten Nachdem wir den Konfliktverlauf im Kohlebergbau allgemein analysiert haben, wollen wir uns in diesem Kapitel nun eingehend mit sechs wichtigen Streitfragen befassen. Diese Streitigkeiten wurden nicht nur ausgewählt, weil die daraus resultierenden Verluste erheblich waren, sondern auch, weil ihre Analyse, wie wir zu zeigen versuchen werden, einige der wichtigen Probleme im Bereich der Arbeitsbeziehungen und der Konflikte in der Branche beleuchtet. Jeder Streit wird in seinem richtigen Rahmen präsentiert, die Argumente der Streitenden dargelegt, der Konfliktverlauf aufgezeigt und schließlich die wichtigen Fragen beleuchtet. Es wurde eine Vielzahl von Quellen herangezogen und, wo immer möglich, Beweise aus lokalen Zeitungen gesammelt, um die Gefühle der Streikenden während der Auseinandersetzungen einzuschätzen. Das Kapitel endet mit einer Zusammenfassung, die die wichtigsten Punkte der Diskussion enthält.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-9331-3_5 f8caa50e00d26528ed89ab99fff69680;de;;;4.2.;;;Inhaltsfreigabe in Konfliktsituationen In letzter Zeit hat die wachsende Rolle der Nutzer sozialer Netzwerke bei der Verbreitung von Inhalten das Konzept des sekundären Gatekeepings zum Leben erweckt – die Auswahl und Wiederveröffentlichung von Inhalten, die bereits von traditionellen Gatekeepern ausgewählt und veröffentlicht wurden. Es wird angenommen, dass sekundäres Gatekeeping die Sichtbarkeit der Medien auf der Plattform erhöht, aber es kann auch negative Auswirkungen haben, wie zum Beispiel die Schaffung von Echokammern und die Vertiefung der Kluft zwischen widersprüchlichen Ansichten. Solche Studien sind besonders relevant für Notfälle oder soziale Konflikte, bei denen das Teilen relevanter Inhalte entscheidend sein kann, um soziales Unbehagen zu verringern. Aber bis heute ist die Natur des sekundären Gatekeepings noch wenig erforscht. Wir haben eine vergleichende Studie von drei;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-69784-0_1 b80bc45b3ce140029090740ea970a139;de;;;4.2.;;;Warum wir Twittern: Eine Analyse einer Microblogging-Community Microblogging ist eine neue Kommunikationsform, bei der Nutzer ihren aktuellen Status in kurzen Posts beschreiben, die per Instant Message, Mobiltelefon, E-Mail oder im Web verbreitet werden. Wir präsentieren unsere Beobachtungen des Microblogging-Phänomens, indem wir die topologischen und geografischen Eigenschaften des sozialen Netzwerks in Twitter, einem der beliebtesten Microblogging-Systeme, untersuchen. Wir stellen fest, dass Menschen Microblogging hauptsächlich nutzen, um über ihre täglichen Aktivitäten zu sprechen und Informationen zu suchen oder auszutauschen. Wir präsentieren eine Taxonomie, die die zugrunde liegenden Absichten der Benutzer bei der Erstellung von Microblogging-Posts charakterisiert. Durch die Aggregation der offensichtlichen Absichten von Benutzern in impliziten Communities, die aus den Daten extrahiert wurden, zeigen wir, dass Benutzer mit ähnlichen Absichten miteinander verbunden sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00528-2_7 9cbb159a9f55d903a81f2cdc4b8a351b;de;;;5.2.;;;Optimale garantierte Kostenkontrolle für linear unsichere Systeme mit Pol- und H∞-Index-Beschränkung Dieses Papier befasst sich mit dem Problem einer optimalen, garantiert kosten-zuverlässigen Steuerung für linear unsichere Systeme mit regionalen Pol- und H∞-Störungsdämpfungsleistungsindizes. Basierend auf einem praktischeren und allgemeineren Modell von kontinuierlichen Stellgliedverstärkungsfehlern ist der zuverlässige Controller entworfen, um zu garantieren, dass das geschlossene Regelkreissystem den vordefinierten regionalen Polindex, die normgebundene H-Beschränkung erfüllt und gleichzeitig die optimale quadratische Kostenleistung aufweist. Auch die Konsistenz der eingangs erwähnten Leistungsindizes ist für eine fehlertolerante Steuerung eingerichtet. Notwendige und hinreichende Bedingungen zur Optimierung des Designs von garantierten Kostenreglern für linear unsichere Systeme sind auch in Bezug auf LMIs gegeben. Das Simulationsbeispiel zeigt die Wirksamkeit der vorgeschlagenen Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15615-1_56 2d2342de1b56adf6a3c9e75154d743a7;de;;;5.2.;;;Ein neuartiges Fuzzy-System zur Kantenerkennung in verrauschten Bildern durch bakterielle Nahrungssuche Die bioinspirierte Kantenerkennung mittels Fuzzy-Logik hat in den letzten Jahren große Beachtung gefunden. Der Algorithmus zur bakteriellen Nahrungssuche (BF), eingeführt in Passino (IEEE Control Syst Mag 22(3):52–67,;-;-;-;https://link.springer.com/article/10.1007/s11045-011-0164-1 b3d8d3994c9cb0441a68e2dfa5c9614a;de;;;5.2.;;;Parallele Polynom- und Matrixberechnungen In diesem Kapitel werden wir die Techniken des Entwurfs von Algorithmen überblicken, die die Rechenprobleme der vorherigen Kapitel auf Parallelrechnern effektiv lösen und eine erhebliche (und oft dramatische) Beschleunigung der bekannten sequentiellen Algorithmen erreichen. In einigen Fällen erfordert dies, dass wir den sequentiellen Fallansatz überarbeiten oder sogar vollständig ändern. Wir überprüfen systematisch den Stand der Technik in diesem Bereich, insbesondere die Schätzungen der rechnerischen Komplexität, die sie unterstützenden Algorithmen und die wichtigsten Techniken zum Entwurf effektiver paralleler Algorithmen. Wir nehmen einige neuere Forschungsergebnisse und -techniken auf, insbesondere in den Abschnitten 4 und 6 und in den Anhängen. Die Ergebnisse der Anhänge B und C zur Berechnung einer maximalen unabhängigen Teilmenge einer Vektormenge und die Techniken des Entwurfs paralleler Algorithmen, die in Anhang A gezeigt werden, können für die Entwickler von kombinatorischen und Graphalgorithmen von Interesse sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-0265-3_4 acec0961cac8190d37e6a52e83a4d970;de;;;5.2.;;;Binäre Suchbäume mit binären Vergleichskosten Wir stellen eine neue Variante des Kostenmaßes vor, das normalerweise mit binären Suchbäumen verbunden ist. Dieses Kostenmaß BCOST ergibt sich aus der Beobachtung, dass während einer Suche eine Entscheidung, nach links zu verzweigen, nur einen binären Vergleich erfordert, während eine Verzweigung nach rechts oder überhaupt keine Verzweigung zwei binäre Vergleiche erfordert. Dies steht im Gegensatz zum Standardkostenmaß TCOST, das davon ausgeht, dass für jede der drei möglichen Aktionen die gleiche Anzahl von Vergleichen erforderlich ist. Unter Berücksichtigung von BCOST untersuchen wir seine Wirkung in Bezug auf minimale und maximale BCOST-Bäume, minimale und maximale BCOST-Höhe-Bäume und führen eine Klasse von BCOST-Höhe ausgeglichenen Bäumen ein, die eine logarithmisch wartbare geschichtete Unterklasse haben. Abschließend werden noch eine Reihe weiterer Themen kurz angerissen.;-;-;-;https://link.springer.com/article/10.1007/BF00978710 732c6813407080c79a487e3282ed8586;de;;;5.2.;;;Technologie und Demokratie Unsere Gesellschaft steht nun vor einer wesentlichen Herausforderung. Ich werde nicht versuchen, alle Seiten der vielschichtigen Debatte um Technologie und Demokratie auszuschöpfen, sondern meine bisherigen Überlegungen zum Thema zusammenfassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1219-4_3 a60ee55596e9b77e2cb3cb46a5b00fe6;de;;;5.2.;;;Die Psychopathologie der selbsteingeschätzten Gesundheit: Ein kognitiver Ansatz für Gesundheitsangst und Hypochondrie Dieser Artikel gibt einen Überblick über die relevante kognitive Forschung zu Gesundheitsangst und Hypochondrie sowie zur Forschung, die Temperament/Persönlichkeit und soziale Entwicklungsfaktoren untersucht, die für die Kognition von Gesundheit und Krankheit und damit verbundene negative emotionale Zustände relevant sind. Es wird ein kognitives Entwicklungsmodell vorgeschlagen, das individuelle Differenzvariablen, selektive Aufmerksamkeits-/kognitive Faktoren und soziale Lernprozesse integriert, die als Vulnerabilitäts- und Erhaltungsfaktoren in der Ätiologie von Gesundheitsangst und Hypochondrie dienen können. Zukünftige Richtungen für das Studium der Kognition und Hypochondrie werden vorgeschlagen.;-;-;-;https://link.springer.com/article/10.1023/B%3ACOTR.0000045569.25096.44 c33e919317ed344871c5e54d2ac00ab9;de;;;4.2.;;;Kontextuelle Einflüsse des 21. Jahrhunderts auf die Lebenswege von Hochbegabten und Begabten Dieses Kapitel stellt einen Versuch dar, mehr Licht auf die langfristige Entwicklung von Hochbegabten, Talenten und Kreativen zu werfen, indem diese Entwicklung in einen umfassenden Kontext der Trends des 21.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-6300-503-6_2 b39ca911b757c2f7526e0e7315b3d01a;de;;;4.2.;;;Kontextuelle Einflüsse des 21. Jahrhunderts auf die Lebenswege kreativer junger Menschen Dieses Kapitel stellt einen Versuch dar, mehr Licht auf die langfristige Entwicklung von Hochbegabten, Talenten und Kreativen zu werfen, indem diese Entwicklung in einen umfassenden Kontext der Trends des 21.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-6300-506-7_2 81f4641d5bbb77e65d662cde15e830a9;de;;;4.2.;;;Einsamkeit und Altern. Träumt die Politik von technologischen Lösungen? Die Alterung der Bevölkerung bringt eine Reihe von Phänomenen mit sich, darunter die Realität der Einsamkeit vieler älterer Menschen. Verschiedene Veröffentlichungen weisen auf den Zusammenhang zwischen Einsamkeit und Gesundheitsproblemen hin, was für diese Menschen in den letzten Jahren zu einer geringeren Lebensqualität führt. Mit diesem Papier wollen wir einige wichtige Ideen zum Problem der Einsamkeit älterer Menschen in ländlichen Gebieten aufzeigen. Für dieses Ziel halten wir es für wesentlich, dass mehr Arbeiten entwickelt werden, die die Subjektivität der Gefühlswelt der Einsamen untersuchen, und dass die öffentliche Politik auf der Grundlage dieser Arbeiten wirksame Maßnahmen entwickelt, einschließlich technologischer Lösungen, die dazu beitragen, dieses Problem zu lindern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-16028-9_7 4a22bd46ad5b6e190700c68fc2892ed8;de;;;4.2.;;;Analyse des sozialen Einflusses basierend auf der Modellierung von Interaktionen in dynamischen sozialen Netzwerken: Eine Fallstudie Interaktionen treten über soziale Netzwerke hinweg auf, und die Modellierung von Interaktionen in dynamischen sozialen Netzwerken ist ein anspruchsvolles Forschungsproblem mit breiter Anwendung. Durch die Kombination der Topologie in der Mathematik mit der Feldtheorie in der Physik wurde ein Topologiepotenzial vorgeschlagen, das ein virtuelles Feld über einen Topologieraum aufbaut, um individuelle Aktivitäten, lokale Effekte und bevorzugte Bindungen in verschiedenen Interaktionen widerzuspiegeln, um wechselseitige Effekte zwischen Individuen in sozialen Netzwerken zu modellieren . In diesem Papier berücksichtigen wir nicht nur die Informationen über Struktur und Inhalt der Topologie, sondern auch zwei Faktoren, nämlich die individuelle Masse und die Wechselwirkungsstärke. Aus der Perspektive einer reibungslosen Evolution sozialer Netzwerke schlagen wir eine auf dynamischem Topologiepotenzial basierende Methode vor, die die Korrelationen zwischen verschiedenen sich verändernden Momentaufnahmen eines sozialen Netzwerks erfasst und verwendet werden kann, um Interaktionen dynamisch zu modellieren, um die Auswirkungen von Interaktionen zwischen Personen in dynamischen sozialen Netzwerken. Schließlich verwenden wir die Methode des dynamischen Topologiepotenzials zur Analyse des Benutzereinflusses, insbesondere zur Identifizierung einflussreicher Benutzer, und das Experiment, das an einem realen Datensatz von AMiner durchgeführt wurde, demonstriert die Durchführbarkeit und Wirksamkeit unserer Methode in Bezug auf ein Maß für die Netzwerkrobustheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48674-1_6 c794bbb2a3be240dcb201bca838f6398;de;;;4.2.;;;Partisanen-Asymmetrien in der politischen Online-Aktivität Wir untersuchen parteiische Unterschiede in Verhalten, Kommunikationsmustern und sozialen Interaktionen von mehr als 18.000 politisch aktiven Twitter-Nutzern, um Beweise zu liefern, die auf das sich verändernde Ausmaß des parteiischen Engagements in der amerikanischen Online-Politiklandschaft hindeuten. Die Analyse eines Netzwerks, das durch die Kommunikationsaktivität dieser Nutzer in der Nähe der Zwischenwahlen zum Kongress 2010 definiert wurde, zeigt eine stark segregierte, gut geclusterte, parteiische Gemeinschaftsstruktur. Mit der Cluster-Mitgliedschaft als High-Fidelity-Proxy (87 % Genauigkeit) für die politische Zugehörigkeit charakterisieren wir eine Vielzahl von Unterschieden in Verhalten, Kommunikation und sozialer Konnektivität von links- und rechtsgerichteten Twitter-Nutzern. Wir stellen fest, dass rechtsgerichtete Twitter-Nutzer im Gegensatz zur politischen Online-Dynamik der Kampagne 2008 ein höheres Maß an politischer Aktivität, eine enger vernetzte soziale Struktur und eine Topologie des Kommunikationsnetzes aufweisen, die eine schnelle und breite Verbreitung politischer Informationen ermöglicht. ?;-;-;-;https://link.springer.com/article/10.1140/epjds6 1b91f52d3e96ec5ee0a6452cf999418b;de;;;4.2.;;;Untersuchung eines Rechenschemas zur Lösung komplexer Probleme auf der Grundlage des Metasynthese-Ansatzes Es gibt viele Ansätze zur komplexen Problemlösung, abhängig von der Art des Problems und den am Problem beteiligten Personen. In diesem Beitrag wird ein auf einem Metasynthese-Ansatz basierendes Rechenschema auf ein soziales Problem angewendet, um einige Fragen zu Taxifahrern zu untersuchen. Erstens wird die Gruppenargumentationsumgebung (GAE) als computergestütztes Werkzeug verwendet, um den Denkprozess (Meeting) von Experten über die betreffenden Themen zu erleichtern und Szenarien oder Hypothesen basierend auf einem qualitativen Metasynthese-Ansatz zu bilden. Als nächstes werden sechs Strategien der quantitativen metasynthetischen Systemmodellierung vorgestellt und eine davon verwendet, um ein Multi-Agenten-Modell zu konstruieren, das darauf abzielt, die Beziehungen zwischen dem Einkommen von Taxifahrern und ihrer Verhaltensreaktionsintensität zu analysieren. Abschließend werden einige abschließende Bemerkungen und zukünftige Arbeiten gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72590-9_2 e5435174dc8d3388c79b927138a0fb02;de;;;5.2.;;;Glushkovs Beweisalgorithmus Glushkovs allgemeine Ansätze zum Problem der künstlichen Intelligenz werden berücksichtigt. Insbesondere wird die Forschungsgeschichte im Rahmen des von V. M. Glushkov initiierten Evidence Algorithm-Programms ausführlich beschrieben. Die Ergebnisse dieses Programms werden analysiert.;-;-;-;https://link.springer.com/article/10.1007/s10559-013-9534-z 60c2a364d4e11a15ed0a0b8f603d0372;de;;;5.2.;;;Das natürliche Problem in der Bayer-Dispersed-Dot-Methode mit genetischem Algorithmus finden In diesem Artikel wird untersucht, wie die eingebaute natürliche Schwachstelle im Bildverarbeitungsalgorithmus oder -system mit den evolutionären Algorithmen gesucht und gefunden werden kann. In diesem Beitrag zeigen wir, wie der genetische Algorithmus die Schwachstelle in der Dispersed-Dot-Dithering-Methode von Bayer findet. Außerdem nehmen wir die Methode genauer unter die Lupe und finden heraus, warum diese Schwäche bei synthetischen Bildern relativ leicht zu finden ist. Darüber hinaus diskutieren wir die Bedeutung umfassender Tests, bevor die Ergebnisse einiger Bildverarbeitungsmethoden zuverlässig sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30497-5_176 992acab5bfa7450516520e76b8be9b0e;de;;;4.2.;;;Intelligente Computersysteme Es gibt viele reale Probleme von so hoher Komplexität, dass sich traditionelle wissenschaftliche Ansätze, die auf einer physikalischen und statistischen Modellierung des Datengenerierungsmechanismus basieren, nicht als effektiv erweisen. Typischerweise sind diese Probleme durch Mehrdimensionalität, Nichtlinearitäten, chaotische Phänomene und das Vorhandensein einer Vielzahl von Freiheitsgraden und unbekannten Parametern im zugrunde liegenden Datenerzeugungsmechanismus gekennzeichnet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-49179-9_1 aabae74349ee26b2d5aaf59599c4e624;de;;;4.2.;;;Recht und Frieden in Westdeutschland Ein charakteristisches Merkmal des deutschen politischen Lebens war eine spezifische Form des „Verfassungalismus“, oder wie es in der deutschen Diskussion seit der Weimarer Republik genannt wird;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-18200-8_13 5a439e017c0dde5004eb1f8f1f882617;de;;;4.2.;;;Umverteilung auf lokaler Ebene: der Fall der öffentlichen Kinderbetreuung in Italien Wir untersuchen die Einstellung lokaler politischer Entscheidungsträger zur Umverteilung im Kontext der öffentlichen Kinderbetreuung in Italien. Innerhalb eines im Wesentlichen homogenen Rechtsrahmens definieren verschiedene Gemeinden autonom, wie sich die Teilnahmegebühren mit einem zusammengesetzten Einkommens- und Vermögensindikator (ISEE) ändern, und verteilen so die Ressourcen zwischen den Haushalten, die den Dienst nutzen. Die fast hundert Gemeinden, die wir berücksichtigen, weisen eine große Heterogenität in den Umverteilungseinstellungen auf. Wir finden statistisch signifikante Korrelationen mit einer Reihe individueller Merkmale von Politik und Kommunen, nicht jedoch mit denen der Ex-ante-Einkommensverteilung, die sowohl nach normativer als auch positiver Theorie zentral sein sollte. Da der Preis für die öffentliche Kinderbetreuung subventioniert wird, werden auch die Mittel vom Steuerzahler an die Nutzer umverteilt. Die von uns gefundenen Beweise stimmen mit der Hypothese überein, dass diese Art der Umverteilung ein öffentliches Gut ist.;-;-;-;https://link.springer.com/article/10.1007/s12232-016-0258-z 94a22aba16d233e5e6d3689c71c9877b;de;;;4.2.;;;Zivilgesellschaft und politischer Wandel: Globalisierung und der Wandel der Beziehungen in Südasien Im südasiatischen Raum werden die Verflechtung von Zivilgesellschaft und Demokratie, die Rolle zivilgesellschaftlicher Organisationen bei der Förderung einer offenen Politik, die Auswirkungen des Aufstiegs der Zivilgesellschaft auf den Staat und die politische Gesellschaft sowie die Zivilgesellschaft auf die Interaktion zwischen Akteuren und Behörden diskutiert. Da die Global Governance-Struktur mit dem gebrochenen Globalisierungsprozess fortschreitet und eher in Regionalismus oder sogar nationalem Protektionismus und Rivalität mündet, bestätigt dies die weithin akzeptierte Vorstellung „gebrochene oder fragmentierte Globalisierung“. Es ist allgemein bekannt, dass dies nicht nur auf der Makroebene, sondern auch auf der Mikroebene eine Grundlage für den Austritt von Zivilgesellschaft und Identitätskonflikten geschaffen hat. Die durch die Globalisierung unterstützten Governance-Strukturen haben die Rolle der Zivilgesellschaft allmählich von einem Beobachter und Korrektor des Handelns der Staaten zu einem aktiven Mitbeteiligten in der Governance-Arena gewandelt. Es sei darauf hingewiesen, dass politische, wirtschaftliche und sicherheitspolitische Kernpunkte die regionale Zusammenarbeit und das Engagement der Zivilgesellschaft mit starken Überlegungen zu Handel, Konnektivität, Reisen und bilateralen Partnerschaften immens beeinflusst haben. Trotz dieser Einschränkungen hat sich die Zivilgesellschaft Südasiens weiterhin nicht nur für Frieden und Freundschaft in der Region eingesetzt, sondern auch Maßnahmen zur Stärkung der nichtpolitischen Integration in der Region empfohlen. Es kann der Schluss gezogen werden, dass sich die Strukturen und Funktionen der Zivilgesellschaft auf globaler, regionaler, nationaler und lokaler Ebene weiterentwickelt haben, was die Qualität des Bereichs Good Governance verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2393-9_7 c9871068ac092f16de6fde7e7d04cbca;de;;;4.2.;;;Anpassung an Behinderung: Ein kognitives Verhaltensmodell für Analyse und klinisches Management Schwerwiegende psychische Reaktionen treten häufig nach dem Einsetzen einer schweren Behinderung auf. „Stufen“-Modelle der Anpassung können, auch wenn sie dogmatisch verwendet werden, einschränkend sein, können aber als hilfreiche Leitlinie für Interventionen dienen, wenn sie in einen Rahmen integriert werden, der auch die Abfolge der damit verbundenen irrationalen Überzeugungen berücksichtigt. Dieser Artikel schlägt ein Drei-Phasen-Modell vor, um den Anpassungsprozess nach einer Behinderung zu analysieren und zu erleichtern. Anpassung wird entlang kognitiver, emotionaler und umweltbezogener Dimensionen analysiert.;-;-;-;https://link.springer.com/article/10.1007/BF01677409 31df0de32e57b83101163fbbde1e5b51;de;;;4.2.;;;Pathologie von Zellmembranen Die Zelle ist so etwas wie eine Stadt. Es ist von einer Gürtellinie (der Plasmamembran) umgeben, an der bestimmte Stellen für das Betreten oder Verlassen der Stadt reserviert sind. Die Gürtellinie ist durch ein komplexes Labyrinth von Straßen und Straßen mit dem Verwaltungszentrum der Stadt, dem Kern, verbunden. Das Verwaltungszentrum kann selbst von einem Parkway (der Kernmembran) umgeben sein. Zwischen dem Straßen- und Straßenlabyrinth befinden sich Kraftwerke (Mitochondrien), Lagerhallen (Lagerstätten etwa für Glykogen und Lipide), Fabriken, in denen neue Produkte (z. B. Lipoproteine) hergestellt werden, und Sanitärstationen (Entgiftungsmechanismen etc.). In die Stadt müssen Lebensmittel gebracht, Müll und Abwasser beseitigt, Fertigprodukte von einem Stadtteil in einen anderen transportiert oder sogar exportiert werden. Das Durchbrechen der Kommunikationsbarrieren führt zu Staus, Schmuggel und allen möglichen Katastrophen. Eine Unterbrechung der internen Kommunikation, zum Beispiel durch einen Streik des öffentlichen Verkehrs- oder Sanitärpersonals, macht das Leben für alle unbequem, wenn nicht sogar unerträglich. Ebenso ist die Zelle von einer Plasmamembran umgeben und enthält ein komplexes intrazelluläres Netzwerk von Membranen, die Bereiche mit mehr oder weniger definierten Funktionen abgrenzen: das zytokavitäre Netzwerk, das das endoplasmatische Retikulum umfasst, die Membran, die den Bereich der zytoplasmatischen Autodigestion (Lysosomen) umgibt, Membranen, die die Mitochondrien umgeben, und Membranen, die die Peroxisomen umgeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-9418-1_8 b3bfdf9080282d57ee2097f58fd40881;de;;;5.2.;;;Zur Untergruppenerkennung in numerischen Domänen Untergruppenerkennung ist eine Knowledge Discovery-Aufgabe, die darauf abzielt, Untergruppen einer Population mit hoher Allgemeinheit und Verteilungsungewöhnlichkeit zu finden. Während in der Vergangenheit mehrere Subgruppen-Erkennungsalgorithmen vorgestellt wurden, konzentrieren sie sich auf Datenbanken mit nominalen Attributen oder verwenden die Diskretisierung, um die numerischen Attribute loszuwerden. In diesem Beitrag veranschaulichen wir, warum die Ersetzung numerischer Attribute durch nominale Attribute zu suboptimalen Ergebnissen führen kann. Danach präsentieren wir einen neuen Untergruppen-Entdeckungsalgorithmus, der große Teile des Suchraums beschneidet, indem er Grenzen zwischen verwandten numerischen Untergruppenbeschreibungen ausnutzt. Derselbe Algorithmus kann auch auf ordinale Attribute angewendet werden. In einem experimentellen Abschnitt zeigen wir, dass die Verwendung unseres neuen Pruning-Schemas zu einem enormen Leistungsgewinn führt, wenn mehr als nur einige Split-Punkte für die numerischen Attribute berücksichtigt werden.;-;-;-;https://link.springer.com/article/10.1007/s10618-009-0136-3 e1f33417e7e2e88df2d410767edbd926;de;;;5.2.;;;Ein Algorithmus zur optimalen Abstimmung von Fuzzy-PID-Reglern auf Präzisionsmessgeräten Basierend auf der theoretischen Fuzzy-Analyse und der Downhill-Simplex-Optimierung wurde eine neue Berechenbarkeitsmethodik für die Fuzzy-Proportional-Integral-Derivate (PID)-Regler vorgeschlagen. Der Artikel analysiert den Algorithmus der Downhill-Simplex-Suche der Optimierungszielfunktionen. Die Eingabe- und Zielfunktion von Downhill-Faktoren wurden ausgewählt, um optimale Entscheidungsregeln für den Fuzzy-Logic-Controller zu konstruieren. Um den Simplex-Algorithmus herum wurde ein Optimierer gebaut, der ein Simplex innerhalb eines;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30497-5_2 9d00bc59c60b22ead6867331b27340f7;de;;;5.2.;;;Hybride genetische Algorithmen und fallbasierte Denksysteme Case Based Reasoning (CBR) wird seit langem in verschiedenen Problemlösungsbereichen angewendet, da es für komplexe und unstrukturierte Probleme geeignet ist. Die Entwicklung geeigneter Mechanismen zum Abrufen von Fällen, um die Leistung von CBR zu verbessern, ist jedoch immer noch eine Herausforderung. In diesem Papier codieren wir die Merkmalsgewichtung und Instanzauswahl innerhalb desselben genetischen Algorithmus (GA) und schlagen ein simultanes Optimierungsmodell der Merkmalsgewichtung und Instanzauswahl vor. Diese Studie wendet das neuartige Modell auf die Vorhersage von Unternehmensinsolvenzen an. Experimentelle Ergebnisse zeigen, dass das vorgeschlagene Modell andere CBR-Modelle übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30497-5_142 294c595d70491395700ed82a67a44d29;de;;;5.2.;;;Die Suche nach einem Mentee oder Mentor und der Matching-Prozess In diesem Kapitel wird der Prozess der Suche nach einem Mentee und Mentor aus beiden Perspektiven betrachtet. In den meisten formalen Mentoring-Programmen übernimmt der Programmmanager die Verantwortung für die Zuweisung der Mentoren. In informellen Paarungen haben die Mentoren und Mentees mehr Einfluss auf die Auswahl und in einigen Fällen findet der Mentee seinen eigenen Mentor. Eine Fallstudie ist enthalten, um den Mentees zu helfen, zu verstehen, wie es sein könnte, eine Führungskraft als Mentor zu haben.;-;-;-;https://link.springer.com/chapter/10.1057/9780230509214_18 50771183e936e2a4fb8be36722e26ba7;de;;;5.2.;;;Leader-folgende Koordination der Bildung mehrerer UUVs unter zwei unabhängigen Topologien und zeitveränderlichen Verzögerungen Die neue Methode, die den Konsensalgorithmus verwendet, um die Koordinatensteuerungsprobleme der Bildung von mehreren unbemannten Unterwasserfahrzeugen (Multi-UUVs) im Fall von Leader-Following zu lösen, wird angepasst. Da die Kommunikation zwischen den UUVs schwierig ist und unter Wasser leicht gestört werden kann, wird angenommen, dass die Zeitverzögerung zeitvariabel ist, während die Mitglieder miteinander kommunizieren. Inzwischen wird die Linearisierungsmethode mit Zustandsrückkopplung verwendet, um das nichtlineare und Kopplungsmodell des UUV in die Doppelintegratordynamik zu übertragen. Bei diesem vereinfachten mathematischen Doppelintegratormodell wird die UUV-Formationskoordinatensteuerung als Konsensproblem mit zeitveränderlichen Kommunikationsverzögerungen angesehen. Außerdem sind die Positions- und Geschwindigkeitstopologien angepasst, um das Datenvolumen in jedem Datenpaket zu reduzieren, das zwischen Mitgliedern in Formation gesendet wird. Mit zwei entworfenen unabhängigen Topologien werden zwei Fälle von Kommunikationsverzögerungen, die gleich und unterschiedlich sind, betrachtet und die ausreichenden Bedingungen werden vorgeschlagen und analysiert. Die Stabilität der Multi-UUVs-Bildung wird mit dem Lyapunov-Razumikhin-Theorem bewiesen. Abschließend werden die Simulationsergebnisse präsentiert, um die theoretischen Ergebnisse zu bestätigen und zu veranschaulichen.;-;-;-;https://link.springer.com/article/10.1007/s11771-017-3440-x fd261ba154a2e7ff7f0bf76c7f36c377;de;;;5.2.;;;Erweiterung des Anwendungspotenzials von DNA-Aptameren durch ihre Funktionalisierung Die parallele Entwicklung zweier konkurrierender Technologien zur Gewinnung von Affinitäts-Antikörper-basierten und Aptamer-basierten Molekülen eröffnet neue Horizonte für die Entwicklung diagnostischer und therapeutischer Wirkstoffe mit extrem hoher Effizienz. Die Vorteile von Aptameren, wie die relativ geringe Größe und die Einfachheit der Selektion, wurden lange Zeit durch ihre intrinsischen Nachteile gefährdet, dh der undurchsichtige Prozess zur Gewinnung von Aptameren gegen bestimmte Targets aufgrund einer geringen Vielfalt an funktionellen Gruppen (Purin- und Pyrimidinbasen) in DNA- und RNA-Aptamere. Ein weiterer Nebeneffekt der dem traditionellen SELEX-Verfahren inhärenten Aptamer-Technik ist die unspezifische Anreicherung mit Aptameren mit hoher Affinität zu Off-Target-Reaktionskomponenten. Aufgrund der aktuellen Fortschritte in der Entwicklung neuer technologischer Methoden und chemischer Kupplungsreaktionen hilft die moderne Aptamertechnologie heute, ihre Nachteile zu vermeiden und die Quelle neuer diagnostischer und therapeutischer Werkzeuge zu werden, die in ihrer Effizienz einzigartig sind. Der Aufsatz konzentriert sich auf moderne Methoden zur Effizienzsteigerung der Aptamerauswahl und auf synthetische Nukleotidmodifikationen, die es ermöglichen, hochaffine Aptamere gegen traditionell „harte“ Targets herzustellen.;-;-;-;https://link.springer.com/article/10.1134/S1068162016010027 7c3310668a0673afbb452580cef5aa81;de;;;4.2.;;;Risikokommunikation, West-Nil-Virus-Epidemie und Bioterrorismus: Reaktion auf die Kommunikationsherausforderungen durch die absichtliche oder unabsichtliche Freisetzung eines Krankheitserregers in einem städtischen Umfeld Die absichtliche oder unabsichtliche Einschleppung eines Erregers in ein urbanes Umfeld stellt gravierende Kommunikationsherausforderungen dar. Risikokommunikation – ein wissenschaftsbasierter Ansatz für die effektive Kommunikation in Situationen mit hoher Besorgnis – bietet eine Reihe von Prinzipien und Werkzeugen, um diesen Herausforderungen zu begegnen. Hier wird ein kurzer Überblick über die theoretische Perspektive der Risikokommunikation und grundlegende Risikokommunikationsmodelle gegeben, und die Perspektive der Risikokommunikation wird auf die West-Nil-Virus-Epidemie in New York City in den Jahren 1999 und 2000 und auf ein mögliches bioterroristisches Ereignis angewendet. Der Zweck besteht darin, praktische Informationen darüber zu liefern, wie die mit einem Seuchenausbruch verbundenen Risiken wahrgenommen werden könnten und wie die Kommunikation am besten gehandhabt werden könnte.;-;-;-;https://link.springer.com/article/10.1093/jurban/78.2.382 f690352b7016fc1b2eed05b3dd44b4e7;de;;;4.2.;;;EduSynergy: Eine simulationsbasierte Change-Management-Erfahrung für Hochschulen Obwohl Hochschulen zunehmend mit tiefgreifenden Veränderungen und Innovationen konfrontiert sind, verfügen sie über eine sehr ausgeprägte Kultur, die einen schnellen Wandel erschwert. Um dieser Herausforderung zu begegnen, haben wir eine neue multimediale, teambasierte Simulation, EduSynergy, entwickelt und validiert, die eine reiche, realistische Erfahrung eines Change-Management-Projekts in einem universitären Umfeld bietet, einschließlich individueller Verhaltensweisen, Gruppendynamik und kultureller Faktoren. Die Rückmeldungen von 375 Workshop-Teilnehmern zeigen, dass die Simulation realistisch ist und 90 % glauben, dass sie effektiver zu ihrem Verständnis von Change Management beiträgt als ein Vortrag.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13166-0_6 c62094800eed63db541134bacb16dbfd;de;;;5.2.;;;Kalibrierung für CHAMP-Beschleunigungsmesserdaten basierend auf Kreuzungspunkten des Satelliten Die deutsche CHAlleging Minisatellite Payload (CHAMP) wurde im Juli 2000 gestartet. Sie ist der erste Satellit, der uns Positions- und Beschleunigungsmessungen liefert, mit denen das Schwerefeldmodell bestimmt werden kann. Eine der beliebtesten Methoden zur Geopotentialgewinnung unter Verwendung der Positions- und Beschleunigungsmessermessungen von CHAMP ist die Energieerhaltungsmethode. Das Hauptziel dieses Papiers ist es, die Skalen- und Bias-Parameter von CHAMP-Beschleunigungsmesserdaten unter Verwendung der Energieerhaltungsmethode zu bestimmen. Das Grundprinzip und das mathematische Modell, das die Kreuzungspunkte der CHAMP-Umlaufbahn verwendet, um die Beschleunigungsmesserdaten zu kalibrieren, werden basierend auf der Energiebilanzmethode angegeben. Die rigorose Integralformel sowie ihre diskrete Form der Beobachtungsgleichung werden vorgestellt. Diese Methode kann verwendet werden, um nur einen der Skalen- und Bias-Parameter oder beide zu schätzen. Um den Einfluss von Ausreißern zu kontrollieren, wird der robuste Schätzer für die Kalibrierparameter angegeben. Die Ergebnisse der numerischen Berechnungen und Vergleiche unter Verwendung der CHAMP-Beschleunigungsmesserdaten zeigen die Validität der Methode.;-;-;-;https://link.springer.com/article/10.1007/BF02826824 d6090f0a8490b9bf99fc9b8ed16c8879;de;;;4.2.;;;Forschung zum Betriebsmechanismus und zur Entwicklung von kommerziellen Pferderennen am Beispiel von Wuhan, Provinz Hubei Durch die Untersuchung und Erforschung der Betriebssituation des kommerziellen Pferderennens entdeckte dieses Papier die bestehenden Systemprobleme und Hindernisse beim kommerziellen Pferderennen in Wuhan. In Kombination mit der aktuellen Situation der Entwicklung von Wuhan-Pferderennen wurde der Betriebsmodus und der Betriebsmechanismus für das kommerzielle Pferderennen in Wuhan vorgeschlagen. Die Studien deuteten darauf hin, dass die Probleme hauptsächlich in dem nicht perfekten Gesetz, ohne standardisierte Formate, unvollkommenem Wettbewerb, dem geringen Grad an Industrialisierung und sozialem Engagement, dem Fehlen der chinesischen Charakteristika der Geschäftsabwicklung und so weiter bestehen. Schließlich basierend auf den oben diskutierten entsprechenden Ideen und Lösungen, um eine gewisse theoretische Grundlage zu schaffen, um die Entwicklung des Wuhan-Pferdes zu beschleunigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23020-2_80 da0477bc17b37ea0aa7de11395dc45e7;de;;;5.2.;;;Soft-Computing-basierte Technik zur Erkennung von Sehscheiben und Pfannen in digitalen Fundusbildern Cup-to-Disc-Verhältnis ist ein wichtiges Maß für die Diagnose eines Glaukoms. Dieses Maß kann automatisch aus der Segmentierung der Papille und der Pfanne im Augenhintergrundbild berechnet werden. In diesem Beitrag wird ein neuartiger Segmentierungsalgorithmus basierend auf Soft Computing-Techniken vorgestellt. Diese Theorie ist in der Lage, mit der Ungenauigkeit und Unsicherheit bei der Bestimmung der Grenzen dieser Strukturen umzugehen. Der Algorithmus besteht aus drei Hauptschritten: Gefäßsegmentierung und -entfernung, Inpainting und Lokalisierung der Papillen- und Pfannengrenzen. Die vorläufigen Ergebnisse zeigen das Potenzial dieses Ansatzes, der eine visuell genaue Segmentierung beider Strukturen in den Bildern der DRIVE-Datenbank ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-68195-5_9 c6214cfd3a27b31c22bb28e72e34d501;de;;;5.2.;;;Die Rolle der Abwehrreaktion des Gastgebers für den Verlauf und das Ergebnis von ARDS Das akute Atemnotsyndrom (ARDS) beschreibt das klinische Syndrom, das mit der morphologischen Läsion verbunden ist, die als diffuse alveoläre Schädigung (DAD) bezeichnet wird. Bei der Vorstellung manifestiert sich (frühes) ARDS mit einer akuten und diffusen Verletzung der endothelialen und epithelialen Auskleidung der terminalen Atmungseinheiten und verursacht eine erhöhte Gefäßpermeabilität mit proteinreichen exsudativen Ödemen. Bei Nicht-Überlebenden von ARDS durchläuft DAD schnell drei histologische Phasen (exsudativ, fibroproliferativ und fibrotisch) mit unterschiedlichen klinisch-physiologischen Merkmalen. Das Ziel dieser Übersichtsarbeit ist die systematische Beschreibung der Pathophysiologie des nicht auflösenden ARDS in Bezug auf Mechanismen seiner Entstehung, strukturelle Veränderungen in der Lunge und funktionelle Folgen dieser morphologischen Veränderungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-72038-3_4 58e00f92bf1583a52970f16f4336767c;de;;;5.2.;;;Variabilität der Samenspeicherproteine ​​innerhalb des Sonnenblumen-Genpools Sonnenblumenkerne unterscheiden sich von denen anderer Ölpflanzen durch das Fehlen von antinitritiven und toxischen Bestandteilen. Neben Öl sammeln sie bedeutende Mengen an Speicherproteinen namens Helianthinin und 2S-Albuminen an. Aus diesem Grund gelten die Sonnenblumenkerne als die vielversprechendsten Quellen für pflanzliche Proteine ​​für die Lebensmittelindustrie. Darüber hinaus macht die jüngste Entdeckung des methioninreichen Albumins SFA8 mit niedrigem Molekulargewicht die Sonnenblumensamenproteine ​​sowohl zu einem Ziel für die Verbesserung der Züchtung als auch zu einer Quelle eines wertvollen agronomischen Charakters für die genetische Modifikation anderer Pflanzenkulturen. In der vorliegenden Studie wurden mehr als 30.000 Genotypen aus dem Sonnenblumen-Genpool, die Inzuchtlinien und Interline-Hybride, Sorten, Wildarten und interspezifische Hybridnachkommen darstellen, gescreent und eine Variation in der Zusammensetzung der wichtigsten Samenproteine ​​nachgewiesen. Analyse der Segregation in F;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4475-9_37 c144080f6b7573965ea025f2dfe85935;de;;;5.2.;;;Ein neues Konzept der Bildtextur und der Fernerkundungsbildsegmentierung basierend auf dem Markov-Zufallsfeld Die Texturanalyse wird oft im Bereich der Bildverarbeitung diskutiert, aber die meisten Verfahren sind auf Graustufenbilder oder Farbbilder beschränkt, und das gegenwärtige Konzept der Textur wird hauptsächlich basierend auf Graustufenbildern eines einzelnen Bandes definiert. Einer der wesentlichen Charaktere von Fernerkundungsbildern ist mehrdimensional oder sogar hochdimensional, und die traditionelle Texturkonzeption kann dafür nicht genügend Informationen enthalten. Daher ist es notwendig, eine geeignete Texturdefinition basierend auf Fernerkundungsbildern zu verfolgen, was die erste Diskussion in diesem Artikel ist. Dieses Papier beschreibt das Abbildungsmodell des Spektralvektors im zweidimensionalen Bildraum unter Verwendung des Markov-Zufallsfeldes (MRF), erstellt ein Texturmodell von Multiband-Fernerkundungsbildern basierend auf MRF und analysiert die Berechnungen der Gibbs-Potentialenergie und der Gibbs-Parameter. Darüber hinaus analysiert dieses Papier auch die Grenzen des traditionellen Gibbs-Modells, bevorzugt ein neues Gibbs-Modell, das die Schätzung von Parametern vermeidet, und präsentiert später einen neuen Textursegmentierungsalgorithmus für hyperspektrale Fernerkundungsbilder.;-;-;-;https://link.springer.com/article/10.1007/s11806-010-0176-2 a01328fccab1b217e3812e03ec4c925a;de;;;5.2.;;;Schlafen bei Bewusstseinsstörungen Sowohl aus verhaltens- als auch aus neurobiologischer Sicht sind Schlaf und Bewusstsein eng miteinander verbunden. Ein besseres Verständnis der Schlafzyklen und der Schlafarchitektur von Patienten mit Bewusstseinsstörungen könnte daher die klinische Versorgung dieser Patienten sowie unser Verständnis der neuronalen Korrelate des Bewusstseins verbessern. Die Definition von Schlaf bei schwer hirnverletzten Patienten ist jedoch problematisch, da sich sowohl ihr elektrophysiologisches als auch ihr Schlafmuster in vielerlei Hinsicht von gesunden Personen unterscheidet. In dieser Arbeit werden die Konzepte diskutiert, die bei der Untersuchung des Schlafs bei Patienten mit Bewusstseinsstörungen verwendet werden, und die Anwendbarkeit von Standard-Schlafkriterien bei diesen Patienten kritisch bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-2440-5_9 231b771b0176ea7cf5839a8b956a7d50;de;;;5.2.;;;Nebenbestandteile von tRNA Charakteristische Strukturelemente der tRNAs sind die kleinen, seltenen, atypischen, ungewöhnlichen oder akzessorischen Komponenten, die Derivate der vier wichtigsten Nukleinsäurebasen sind. Diese Verbindungen haben aus verschiedenen Gründen beträchtliche Aufmerksamkeit auf sich gezogen. Zunächst stellte sich das Problem ihrer Herkunft: Es wurde nicht verstanden, wie eine tRNA, die so viele Verbindungen dieses Typs enthält, nach dem Komplementärprinzip an einer DNA synthetisiert werden kann, die im Wesentlichen aus vier Hauptnukleotiden besteht. Forscher, die die Primärstruktur der Nukleinsäuren untersuchten, zeigten großes Interesse an diesen Nebenkomponenten, da sie diese Verbindungen als bequeme natürliche Referenzpunkte betrachteten, die die Bestimmung der Nukleotidsequenz so viel einfacher machten. Schließlich rätseln Forscher noch immer über die Rolle der Nebenkomponenten in der tRNA.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-1971-9_4 01fd592368f07f5787ba2fbb531e05e2;de;;;5.2.;;;Die Innervation der Synovium des Kniegelenks beim Meerschweinchen: eine immunhistochemische und ultrastrukturelle Studie Die Innervation der Kniegelenksynovialmembran des Meerschweinchens, d. h. der Synoviozytenschicht, des darunter liegenden Bindegewebes und der darunter liegenden Bindegewebsregion, wurde mit Immunhistofluoreszenz und Elektronenmikroskopie analysiert. Ein Screening der Innervation mit Antikörpern gegen den allgemeinen Axonmarker – Protein-Genprodukt (PGP) 9,5 – zeigte das Vorhandensein von Nervenfasern, die in verschiedenen Regionen der Kniegelenksynovialmembran verteilt sind. In früheren Studien wurden einige dieser Nervenfasern mit Antikörpern gegen Tyrosinhydroxylase (TH), Neuropeptid Y (NPY), Substanz P (SP), Calcitonin-Gen-Related Peptide (CGRP) und vasoaktives intestinales Polypeptid (VIP) gefärbt. Darüber hinaus wurden Dynorphin (DYN)-haltige Fasern nachgewiesen, die bisher in normalen Gelenken nicht beschrieben wurden. Im Allgemeinen wurden die immunreaktiven Fasern in der Nähe der Synoviozyten und an Blutgefäßen beobachtet. Es wurden Fasern mit Kolokalisation von NPY- und TH-ähnlichen Immunreaktivitäten (LIs) sowie von DYN- und TH-LIs nachgewiesen. Im Elektronenmikroskop wurden in der Bindegewebsregion unterhalb der Synoviozyten sowohl Bündel von unmyelinisierten Fasern als auch einzelne Fasern gefunden. Krampfaderteile der Nervenfasern enthielten hauptsächlich kleine, klare Bläschen. Kleine und große Bläschen mit dichtem Kern wurden ebenfalls gesehen, jedoch seltener. In diesen Regionen, die dem extrazellulären Raum zugewandt waren, wurden dichtere Abschnitte der Plasmamembranen einiger Axone beobachtet. Myelinisierte Fasern wurden auch in einigen Nervenbündeln beobachtet. Diese Befunde unterstreichen die komplexe Innervation der Synovialmembran mit Nervenfasern, die eine Vielzahl neuroaktiver Substanzen enthalten. Insgesamt sind diese Fasern wahrscheinlich an vielen Funktionen beteiligt, wie der Vasoregulation und der Kontrolle der Synovialsekretion, zusätzlich dazu, dass sie eine Quelle von Mediatoren bei Gelenkentzündungen sind.;-;-;-;https://link.springer.com/article/10.1007/s004290050139 bbee9ee10a01a95ca2f3243812634d38;de;;;5.2.;;;Alte Fehler und neue Korrekturen in der Röntgenlinienprofilanalyse In den letzten Jahren ist das Bewusstsein für die Fehler bei der Röntgenlinienprofilanalyse, die verwendet wird, um kohärent beugende Partikelgröße, lokale Dehnungen und Stapelfehlerwahrscheinlichkeiten in Materialien zu berechnen, zunehmend bekannt geworden. Hier wird eine modifizierte Version einer Least Squares Analysis (L.S.A.) der Fourier-Koeffizienten vorgestellt. Dieses Verfahren bietet die Möglichkeit, auf natürlichere und genauere Weise neue Korrekturen an den Fehlern in der Linienprofilanalyse vorzunehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-9966-7_22 90e364094bbecdd6e7f05430bec9160d;de;;;5.2.;;;Paralleles Wörterbuchlernen für die multimodale Sprachkonvertierung mit Matrixfaktorisierung In diesem Beitrag wird ein paralleles Wörterbuchlernen für die multimodale Sprachumwandlung vorgeschlagen. Aufgrund der Rauschrobustheit von visuellen Merkmalen wurden multimodale Merkmale auf dem Gebiet der Sprachverarbeitung angezogen, und wir haben eine multimodale VC vorgeschlagen, die eine nicht negative Matrixfaktorisierung (NMF) verwendet. Experimentelle Ergebnisse zeigten, dass unser konventioneller multimodaler VC in einer lauten Umgebung effektiv konvertiert werden kann, jedoch ist der Unterschied der Konvertierungsqualität zwischen Audioeingangs-VC und multimodalem VC in einer sauberen Umgebung nicht so groß. Wir nehmen an, dass dies daran liegt, dass unser beispielhaftes Wörterbuch zu vollständig ist. Darüber hinaus kann unsere konventionelle multimodale NMF-basierte VC aufgrund der Nicht-Negativitätsbeschränkung für visuelle Merkmale visuelle Merkmale nicht effektiv faktorisieren. Um die Konvertierungsqualität unseres NMF-basierten multimodalen VC zu verbessern, schlagen wir paralleles Wörterbuchlernen vor. Die nicht negative Einschränkung für visuelle Features wurde entfernt, sodass wir visuelle Features verarbeiten können, die negative Werte enthalten. Experimentelle Ergebnisse zeigten, dass unsere vorgeschlagene Methode multimodale Merkmale in einer sauberen Umgebung effektiv umwandelte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-40171-3_3 e4c8d83629dc8f49624926c209c1ab9c;de;;;5.2.;;;Dynamische Handschriftanalyse des Zeichens „Y“ zur Erstellung von Autorenprofilen unter Verwendung geometrischer Prinzipien und Verhältnisse Graphologie ist die Wissenschaft, eine Person oder ihren emotionalen Zustand anhand ihrer Handschrift zu identifizieren. Graphologie wird traditionell manuell durchgeführt, das in diesem Artikel vorgeschlagene Modell versucht, diesen Prozess zu automatisieren. Das vorgeschlagene Modell wendet statische Handschriftalgorithmen auf ein dynamisches Handschriftsystem an. Das vom Benutzer geschriebene Zeichen wird dynamisch mit einem Stift erfasst. Die statische Pipeline konzentriert sich auf das Extrahieren geometrischer Merkmale eines geschriebenen Zeichens und führt eine Klassifizierung basierend auf den Verhältnissen der extrahierten Merkmale durch. Diese Pipeline wird dann mit der dynamischen Pipeline verglichen, die den dynamischen Handschriftalgorithmus der dynamischen Zeitverzerrung verwendet. Die beim Testen des vorgeschlagenen Systems erhaltenen Metriken beweisen, dass die Verwendung statischer Algorithmen auf dynamischen Systemen immer noch eine genaue und gültige Klassifizierungsmethode ist, da die Gesamtgenauigkeit deutlich höher ist als die Genauigkeit der dynamischen Pipeline. Die F1-Werte für jede Klasse innerhalb der statischen Pipeline zeigen ferner, dass sie höher waren als die F1-Werte aus der dynamischen Pipeline. Darüber hinaus wurde festgestellt, dass der dynamische Algorithmus die niedrigere F1-Score-Genauigkeit aufwies, dies kann jedoch auf die kleine verwendete Datenstichprobe zurückgeführt werden. Es wurde festgestellt, dass die statischen Merkmale mehr zum System beigetragen haben als die extrahierten dynamischen Merkmale.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1465-4_22 59e1ab9d8e8897162e8a1da0ba1142d2;de;;;4.2.;;;Wie man die Effizienz der digitalen Diplomatie misst: Probleme und Einschränkungen Das Papier liefert vorläufige Ergebnisse des vergleichenden Überblicks über die Entwicklung von E-Partizipationsprojekten innerhalb der institutionellen Struktur der E-Governance in den Mitgliedstaaten der Eurasischen Wirtschaftsunion (EAWU). Die Autoren analysieren (1) Rechtsgrundlagen zu E-Governance und E-Partizipation, (2) E-Governance-Institutionen und Co., (3) Beteiligungsinstrumente des öffentlichen Engagements. Zukünftig planen die Autoren, die Methodik des Monitorings von E-Partizipationsprozessen in den Ländern der EAWU zu erarbeiten und die Frage der Effektivität von E-Governance-Institutionen in der EAWU-Region zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49700-6_18 d33dc4e77b93b92a9134219c936379d4;de;;;4.2.;;;Messung von Patientengewalt in der Gefährlichkeitsforschung Die Forschung zur Gefährlichkeit psychisch Kranker hat den Fragen der Messung von Gewaltereignissen nur begrenzte Aufmerksamkeit geschenkt. Dieser Artikel gibt einen Überblick über die möglichen Methoden zur Messung der Gewalt von Patienten und kommentiert die Vor- und Nachteile verschiedener Strategien. Es wird argumentiert, dass es brauchbare Ansätze gibt, die über offizielle Aufzeichnungen hinausgehen, und dass die Entwicklung dieser Alternativen ein notwendiger Schritt ist, um die Theorie in diesem Bereich voranzubringen.;-;-;-;https://link.springer.com/article/10.1007/BF01044509 805790f95fe06fe70afbb712dda07d71;de;;;5.2.;;;Organisatorisches Lernen, Wissensmanagement und Innovationsfusion Die Synthese der Theorie des organisationalen Lernens und des Wissensmanagements hat traditionell einige wichtige Einsichten in das Lernen und Wissen in Organisationen gefördert, die noch in der integrierten Praxis reflektiert werden müssen. Die Integration von organisationalem Lernen und Wissensmanagement (McElroy 2004, Kennedy, Developing a holisticalspective on learning and knowledge in a public Sector Organization – An Exploration of Workplace Experience, 2010) in jedem dieser Bereiche hat das Interesse an der Erforschung zeitgenössischer Innovationen geweckt Theorien in ihrer Anwendung auf Organisationen (McElroy 2004, Quintane et al. 2011). Die Ergebnisse der beschriebenen Studie geben einen Einblick in die Beziehung zwischen Lernen und Wissen am Arbeitsplatz aus der Perspektive der Innovationstheorie. Die Ergebnisse liefern einen Beitrag zur Entwicklung von Innovationstheorien, wie sie auf Organisationen und die Praxis angewendet werden. Die in diesem Papier beschriebene Studie bietet empirische Unterstützung für die Verschmelzung von Themen, die im „Managing the Asian Century“ erkennbar sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-4560-61-0_50 08f6f148e1a4e59371512acbdc3f4397;de;;;4.2.;;;Finanzielle Entwicklung, institutionelle Anleger und Wirtschaftsleistung Institutionelle Anleger umfassen Pensionsfonds, Versicherungen und Investmentfonds. Ein hervorstechendes Merkmal vieler OECD-Länder und einiger Schwellenländer in den letzten Jahren ist das Wachstum dieser institutionellen Anleger, insbesondere im Zuge der Rentenreform, bei der die Altersvorsorge von umlagefinanzierten Einkommen auf Finanzierungen umgestellt wurde. Tabelle 6.1 zeigt die Größe der Rentenfondssektoren in ausgewählten Ländern, in denen eine radikale Rentenreform stattgefunden hat.;-;-;-;https://link.springer.com/chapter/10.1057/9780230374270_6 5fe35ce4e6499bf050b645a3dc816f82;de;;;4.2.;;;Artikulierte Gedanken, irrationale Überzeugungen und Angst vor negativer Bewertung Heutige kognitive Verhaltenstheorien der Psychopathologie und Therapie gehen davon aus, dass die emotionalen und Verhaltensprobleme von Menschen durch bestimmte Denkmuster beeinflusst werden. Und doch gibt es wenig direkte Beweise für diesen weit verbreiteten Glauben. Es wird ein Experiment berichtet, das die Gedanken von Menschen mit hohem oder niedrigem Niveau hinsichtlich sozial-evaluativer Angst und der Tendenz zu irrationalem Denken untersuchte. Die Kognition der Probanden wurde unter kontrollierten Laborbedingungen im Paradigma „artikulierte Gedanken in simulierten Situationen“ untersucht, in dem die Probanden eine auf Tonband aufgezeichnete zwischenmenschliche Begegnung in Rollenspielen und an vorbestimmten Stellen verbalisierte Gedanken durch einen kurzen Abschnitt des fiktiven Ereignisses auslösten. Es ergaben sich mehrere Ergebnisse: Probanden dachten in Stresssituationen weniger rational als in einer nicht-stressigen, Probanden mit hoher im Fragebogen definierter Angst vor negativer Bewertung und irrationalem Denken stuften stressige Bänder als angstauslöser ein als Probanden mit niedrigen Werten in diesen Inventaren, für sehr ängstlich und Bei irrationalen Probanden korrelierte die selbstberichtete globale Angst, die durch stressige Bänder ausgelöst wurde, signifikant mit der in ihren artikulierten Gedanken erkannten Irrationalität. Irrationales Denken, gemessen an artikulierten Gedanken, korrelierte jedoch nicht mit Inventaren, von denen erwartet wird, dass sie Irrationalität in bestimmten Situationen vorhersagen.;-;-;-;https://link.springer.com/article/10.1007/BF01173310 51aa1b67161367bc41379d766647dcca;de;;;4.2.;;;Verbesserung der lokalen Umweltbildung an Schulen in Arequipa durch einen Umweltatlas Angesichts der spürbaren Auswirkungen des Klimawandels neben vielen anderen Umweltsituationen haben viele Regierungen den Schwerpunkt auf Umwelterziehung in Schulen gelegt, um Jugendliche für die Bedeutung dieser Probleme zu sensibilisieren. Allerdings klafft eine Kluft zwischen dem Wissen, das in Schultexten auf nationaler Ebene vermittelt wird, und dem tatsächlichen Wissen und dem Bewusstsein der Schüler für die lokale Situation. Dieser Artikel versucht, diesen Verstoß zu identifizieren, indem er Untersuchungen an Universitätsstudenten in Arequipa, Peru, durchführt. Anschließend wird ein methodischer Rahmen für die Entwicklung des Umweltatlas von Arequipa als pädagogisches Instrument zur Ergänzung der lokalen Umweltbildung entwickelt. Schließlich werden Strategien für die Verbreitung und Nutzung eines solchen Atlas als massives Instrument der städtischen Umweltbildung in Arequipa vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-45344-2_9 01337053dd3303d3fdceb68572882c00;de;;;4.2.;;;Werte in der partizipativen Modellierung: Theorie und Praxis In diesem Kapitel reflektieren wir einige unserer Erfahrungen als Modellierer, die sich mit partizipativer Modellierung beschäftigen, indem wir einige der Lektionen skizzieren, die wir gelernt haben. Insbesondere skizzieren wir Best Practices für Modellierer, die sich an dem Prozess beteiligen möchten, identifizieren Kompromisse bei der Bewertung von Modellergebnissen und fordern zukünftige Forschung auf, Werte explizit in den Prozess einzubeziehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25053-3_3 d17be33b76841d5b58515ab44104c486;de;;;4.2.;;;Informationsökonomie trifft auf soziale Netzwerke: Von Hayeks Mental Maps zur mathematischen Linguistik Die Informationsökonomie hat zu diesem Zeitpunkt bereits eine Geschichte von mehr als einem halben Jahrhundert theoretischer und praktischer Entwicklungen. Dennoch gibt es noch einige Herausforderungen, denen sich das Feld im Hinblick auf die Etablierung einer konzentrierten, fokussierten Theorie der Informationsökonomie gegenübersieht. Vielleicht liegt dies daran, dass Informationen „überall“ sind, so unglaublich allgegenwärtig sind und so viele Definitionen und so viele Formen in verschiedenen Kontexten, Unterbereichen und Analysen aufrechterhalten können. Die meisten Arbeiten in der Informationsökonomie beziehen sich auf die Analyse von Informationen für Volkswirtschaften, für Management und Marketing, Industrieorganisationen und politische Umsetzungen, alles im Kontext von Märkten oder Institutionen. Es gibt jedoch eine kleine Forschungsgruppe, die sich eingehender mit Informationen als Wirtschaftsgut und einigen seiner grundlegenden Eigenschaften und Verhaltensweisen als Wirtschaftsgut befasst [14], und als solche wird Informationsökonomie derzeit und meist verstanden .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-64565-0_2 deb363d53f75b24093bb3b7765f612d1;de;;;5.2.;;;Hauptkomponenten und unabhängige Komponentenanalyse von Sonnen- und Weltraumdaten Die Hauptkomponentenanalyse (PCA) und die unabhängige Komponentenanalyse (ICA) werden verwendet, um globale Muster in Sonnen- und Weltraumdaten zu identifizieren. PCA sucht orthogonale Moden der aus einem Datensatz konstruierten Zweipunkt-Korrelationsmatrix. Es ermöglicht die Identifizierung von Strukturen, die kohärent und korreliert bleiben oder sich über eine Zeitreihe hinweg wiederholen. ICA sucht nach möglichst unabhängigen Moden und berücksichtigt alle Ordnungskorrelationen der Daten. Wir wenden PCA auf die Polarität des interplanetaren Magnetfelds in der Nähe von 1 AE und auf die 3,25 . an;-;-;-;https://link.springer.com/article/10.1007/s11207-007-9026-2 595637b7c36870550af671ed95b7475d;de;;;4.2.;;;Öffnung von Räumen für die Entwicklung der menschlichen Handlungsfähigkeit mit problembasiertem Lernen in der palästinensischen Hochschulbildung In diesem Papier werden die Auswirkungen von Implementierungen von Problembasiertem Lernen (PBL) im Rahmen des (2016-19) Erasmus Plus-Projekts „Methoden“ (Modernization of Teaching Methodologies in Higher Education: EU-Erfahrung für Jordanien und palästinensisches Gebiet) bewertet, das eine Reihe von Lernmodalitäten eingeführt hat in formale Lernkontexte im Hochschulbereich in Jordanien (4 Universitäten) und Palästina (4 Universitäten). Das Projekt wurde gemeinsam von den Universitäten Jordanien und Birzeit, Palästina geleitet und es gab sechs europäische Partneruniversitäten. Das Papier konzentriert sich auf die Auswirkungen von PBL-Ansätzen auf Lernende und Hochschullehrer durch eine Analyse von halbstrukturierten Gruppeninterviews mit Studenten und individuellen Mitarbeiterinterviews in einer Reihe von Kursen in den Künsten und Wissenschaften im palästinensischen Kontext. Die Ergebnisse dieser kleinen Forschungsstudie werden in einem thematischen Rahmen präsentiert, der sich auf Partizipation, Kollaboration, Handlungsfähigkeit, Wissensschaffung, Problemlösung und Identitätsänderung konzentriert. Es untersucht, inwieweit die Einführung von studentenzentrierten PBL-Designs Räume für die Entwicklung menschlicher Handlungsfähigkeit und Fähigkeiten innerhalb einer bestehenden Orthodoxie der Praxis in Hochschuleinrichtungen in Palästina öffnen kann. Es verortet diese studierendenzentrierten Praktiken im Kontext der berufsbezogenen Hochschulbildung und untersucht, welchen Beitrag sie zur Entwicklung der Fähigkeit des Einzelnen leisten, innerhalb der Machtdynamiken und Grenzen ihres Kontexts effektiv für Veränderungen zu handeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20798-4_23 320378e80a712ebc69a9635d0e73e438;de;;;4.2.;;;"Aufbau einer Pädagogik rund um Aktion und Emotion: Erfahrungen der Blind Opera of Kolkata Zeitgenössische Wissenssysteme haben visuellen Symbolen, beispielsweise dem geschriebenen Wort, als Wissensspeicher zu viel Bedeutung beigemessen. Der Vorrang des geschriebenen Wortes und der um ihn herum aufgebauten gegenständlichen Welt wird jedoch diskutiert – insbesondere aufgrund neuer Erkenntnisse aus der Kognitionswissenschaft, die darauf abzielt, Handlungen, Absichten und Emotionen in den Kern der Kognitionswissenschaft zurückzubringen (Freeman und Nunez in J Bewusstsein Stud 6 (11/12), 1999). Es wird argumentiert, dass andere Sinneserfahrungen, abgesehen von den visuellen, zusammen mit Wünschen (oder Absichten) und Emotionen – wie Schmerz, Freude, Trauer oder Freude – ebenso wichtige Bausteine ​​darstellen, die die Wahrnehmung eines Individuums von der Welt um ihn herum prägen. Diese von Emotionen gefärbte multisensorische Kognition inspiriert zum Handeln und ist daher gültiges Wissen. Dies wird wahrscheinlich nirgendwo deutlicher als in der Welt der Sehbehinderten. Da ihnen die visuellen Sinnesfähigkeiten beraubt sind, sind sie zwangsläufig von anderen Sinnen abhängig. Aber der vorherrschende Diskurs in der breiteren Gesellschaft spielt eine wichtige Rolle bei der Bestimmung dessen, was sie (die Blinden) tun können. Eine Gesellschaft, die auf visuellen Symbolen und dem geschriebenen Wort aufgebaut ist, unterschätzt andere Elemente der Erkenntnis und unterschätzt sie dabei. Dies spiegelt sich auch in der Konstruktion sozialer Artefakte unterschiedlicher Art wider, wie dem Bildungszertifizierungssystem (Das Braille-System ist ein Versuch, Blinden die geschriebene Welt durch taktile Signale zugänglich zu machen – damit Wörter „gefühlt“ und „gelesen“ werden . "" Aber es ist ziemlich umständlich. Zum Beispiel wäre selbst ein Blinder, der sehr gut in Braille schreiben kann, nicht in der Lage, die Schreibgeschwindigkeit eines gewöhnlichen visuell begabten Menschen zu erreichen. Effektive und effiziente computerbasierte Sprach-Text-Sprach-Umsetzer könnten dieses Problem besser lösen.) - basiert in erster Linie auf Fähigkeiten über das geschriebene Wort. Sprachliche Fähigkeiten werden am wertvollsten und auf einer anderen Ebene gewinnt das geschriebene Wort an Bedeutung gegenüber dem gesprochenen Wort. Blinde haben daher kaum eine Chance, außer durch Zugeständnisse oder Frömmigkeit. Eine Praxis, die um die Bilder einer ermächtigten blinden Person herum aufgebaut ist, muss daher von der gängigen Konzeptualisierung abweichen – denn Macht leitet sich aus dem ab, was man hat, und nicht aus dem, was einem fehlt. Es muss damit beginnen, die eigenen Begabungen anzuzapfen und aufzuwerten. Dieses Papier ist ein Versuch, einen solchen Aufbruch basierend auf den Erfahrungen von Blind Opera zu identifizieren – einer Theatergruppe von Blinden, die in Kolkata, Indien, arbeitet. Es versucht, eine Erfahrung in schriftlicher Form darzustellen, die nur teilweise innerhalb eines Textes festgehalten werden kann. Es handelt sich daher um eine unvollständige Darstellung, die als Versuch verstanden werden kann, Erfahrungen und Einsichten auszutauschen und zu suchen.";-;-;-;https://link.springer.com/chapter/10.1007/978-1-84628-927-9_23 184b0853b63ebf4fd90baffab89749f8;de;;;5.2.;;;Eine ertragssteigernde globale Optimierungsmethodik für analoge Schaltungen basierend auf der Extremwerttheorie Die Herausforderung bei der variationsbewussten Schaltungsoptimierung unter Berücksichtigung des Ertrags ist der Kompromiss zwischen optimierter Leistung, Ertrag und Optimierungslaufzeit. Dieses Papier präsentiert ein praktisches variationsbewusstes globales Optimierungs-Framework namens GOYE, das die Vorteile in Bezug auf Leistung, Ausbeute und Laufzeit zeigt. Es verwendet in der globalen Suchphase einen Ansatz, der als Einschränkungsverletzungsbeseitigung (CVE) bezeichnet wird, um anfängliche Startpunkte zu beschneiden, und verwendet das gradientenbasierte Verfahren bei der lokalen Suche, um das Optimum zu lokalisieren. Die für die variationsbewusste Schaltungsoptimierung notwendige Worst-Case-Analyse (WCA) ist in den lokalen Optimierungsprozess eingebettet. Der Wirkungsgrad wird durch ein neuartiges Verfahren auf Basis der Extremwerttheorie (EVT) deutlich verbessert. Unsere EVT-basierte Methode ist auch die erste, die es Benutzern ermöglicht, den Zielertrag so zu steuern, dass eine Unter- oder Überdimensionierung vermieden wird. Ein Designbeispiel in der TSMC-65-nm-Technologie wird in dem Papier veranschaulicht, bei dem die gesamte Leistung unter Berücksichtigung von Umgebungs- und Prozessvariationen zwischen den und innerhalb der Chips eine Ausbeute von drei Sigma erreicht.;-;-;-;https://link.springer.com/article/10.1007/s11432-015-0471-4 6f122d03c3ffce88de818c54b42ef269;de;;;4.2.;;;Zentralbankstatuten und Autonomie In diesem Kapitel werden die rechtlichen Bestimmungen der Statuten von sechs lateinamerikanischen Zentralbanken untersucht, um zu beurteilen, ob die Statuten Gewissheit hinsichtlich der Zentralbankautonomie bieten. Die Statuten ermöglichen die Überprüfung der Bestimmungen zur persönlichen, finanziellen und operativen Autonomie sowie der Rechenschaftspflichten der Zentralbanken. Wichtig ist, dass die Analyse der Satzung dazu beiträgt, festzustellen, ob die rechtlichen Rahmenbedingungen in Bezug auf die Autonomie der Zentralbanken insgesamt konsistent sind. Denkbar ist beispielsweise, dass eine Zentralbank eine Autonomie von verfassungsmäßigem Rang hat, die Bank aber durch die Satzung in die öffentliche Verwaltung, dh unter die Kontrolle der Exekutive, eingeordnet wird, oder vorschreibt, dass die Regierung über Personal, Finanzen oder Geschäftstätigkeit der Bank, was die Sicherheit der Autonomie der Bank verringert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-70986-0_5 f147e239f9f440bfe293610516982a02;de;;;5.2.;;;Segmentierung von Entfernungsbildern als Suche nach geometrischen parametrischen Modellen Die Segmentierung von Entfernungsbildern wurde in der Computervision seit langem als ein wichtiges, aber äußerst schwieriges Problem betrachtet. In diesem Beitrag stellen wir ein neues Paradigma für die Segmentierung von Entfernungsbildern in stückweise kontinuierliche Flächen vor. Die Datenaggregation erfolgt über die Modellwiederherstellung in Form von bivariaten Polynomen variabler Ordnung unter Verwendung einer iterativen Regression. Die Modellwiederherstellung wird unabhängig in regelmäßig platzierten Seed-Regionen im Bild eingeleitet. Alle wiederhergestellten Modelle sind potenzielle Kandidaten für die endgültige Beschreibung der Daten. Die Auswahl der Modelle wird als quadratisches Boolesches Problem definiert, und die Lösung wird durch die WTA-Technik (Winner-takes-All) gesucht, die sich als guter Kompromiss zwischen der Rechengeschwindigkeit und der Genauigkeit der Lösung herausstellt. Die Gesamteffizienz des Verfahrens wird durch die iterative Kombination von Modellwiederherstellung und Modellauswahl erreicht. Nach der teilweisen Wiederherstellung der Modelle folgt das Auswahlverfahren (Optimierung) und nur die „besten“ Modelle dürfen sich weiterentwickeln.;-;-;-;https://link.springer.com/article/10.1007/BF01679685 6de52b1c13b7c6eb98907f60d89fc0ed;de;;;5.2.;;;Entscheidungsfindung unter Unsicherheit mit Fuzzy Targets In diesem Beitrag wird die Frage diskutiert, wie Fuzzy-Ziele im zielbasierten Modell zur Entscheidungsfindung unter Unsicherheit verwendet werden können. Nach Einführung einer zielorientierten Interpretation des Erwartungswertes, anhand derer gezeigt wird, dass dieses Modell implizit ein neutrales Einstellungsverhalten zum Ziel voraussetzt, untersuchen wir die Frage der Verwendung von Fuzzy-Zielen unter Berücksichtigung unterschiedlicher Einstellungen zur Zielauswahl des Entscheidungsträgers. Wir diskutieren auch das Problem für Situationen, in denen sich die Einstellung des Entscheidungsträgers zum Ziel je nach Naturzustand ändern kann. Insbesondere wird gezeigt, dass der zielbasierte Ansatz einen einheitlichen Weg zur Lösung des Problems der unscharfen Entscheidungsfindung mit Unsicherheit über den Naturzustand und Ungenauigkeit der Auszahlungen bieten kann. Zur Veranschaulichung der diskutierten Probleme werden mehrere Zahlenbeispiele angeführt.;-;-;-;https://link.springer.com/article/10.1007/s10700-007-9011-0 4293d935426f68d3b50913e89e8396f8;de;;;5.2.;;;"Roboter und Realität: eine Antwort auf Robert Sparrow In einem menschlichen Leben, das in Unkenntnis wichtiger, aber ungenießbarer Wahrheiten gelebt wird, identifizieren wir gewöhnlich etwas ernsthaft Fehlerhaftes. Gleichzeitig kann ein gewisses Maß an Missverständnissen der Realität für die Gesundheit und den Erfolg des Einzelnen notwendig sein. Moralisch gesehen ist es unklar, wie hartnäckig wir bei der Suche nach der Wahrheit sein sollten. Robert Sparrow hat solche Probleme bei der Diskussion über die Herstellung und Vermarktung von Roboter-Haustieren berücksichtigt, wie zum Beispiel das hundeähnliche Spielzeug ""AIBO"" von Sony und alle fortschrittlicheren Geräte, die es ersetzen könnten. Obwohl es nicht seine einzige Sorge ist, kritisiert Sparrow solche Roboter-Haustiere besonders für ihren illusorischen Anschein, Lebewesen zu sein. Er befürchtet, dass sich einige Personen unbewusst in die Illusion hineinkaufen und Interaktionen sentimentalisieren, die keine echten Beziehungen darstellen. In meiner Antwort an Sparrow betone ich, dass dies mit einem Großteil der kleinen Sentimentalität, die wir bereits täglich frönen, fortgeführt wird. Obwohl die Neigung, die Wahrheit zu suchen, moralisch tugendhaft ist, muss die betreffende Tugend zumindest einige Kategorien von Ausnahmen zulassen. Trotz Sparrows Bedenken hinsichtlich Roboterhaustieren (und der Robotik im Allgemeinen) sollten wir bei der Bildung von Überzeugungen über die Realität nachsichtig sein, wenn es um vertraute, relativ gutartige Arten der Selbstnachgiebigkeit geht. Die Sentimentalität über Roboter-Haustiere scheint in diese Kategorien zu fallen. Solch begrenzte Selbstgenügsamkeit kann mit gewöhnlicher Ehrlichkeit und Hingabe an die Wahrheit koexistieren.";-;-;-;https://link.springer.com/article/10.1007/s10676-011-9266-6 930fea7cecb8e6aac95985e78ca2b1ba;de;;;5.2.;;;Die Stimme des Beraters Leider tauchen in der Seelsorge- und Beratungsliteratur sehr häufig Fallauszüge und -geschichten auf, in denen die Stimme des Beratenden weitgehend ignoriert wird. Leider werden diese Auszüge, wie in diesem Artikel besprochen, oft als Beispiele für eine sehr gute Beratung hochgehoben. Die Bitte der Ratsuchenden, die in diesen Auszügen und Geschichten sehr deutlich zu hören ist, besteht ganz einfach darin, dass ihre Stimmen gehört und ihre eigenen Leidenserfahrungen bestätigt werden.;-;-;-;https://link.springer.com/article/10.1007/BF01033164 0385c459d296b617f1b3560ec3591f06;de;;;5.2.;;;Monte Carlo und beispielbasierte Einblicke Dieses Kapitel enthält Ergebnisse einiger anschaulicher Untersuchungen zur Leistung informationstheoretischer Kriterien für die Modellauswahl und Methoden zur Quantifizierung der Präzision bei Modellauswahlunsicherheit. Anhand von Simulations- und Realdaten werden die in Kapitel 4 vorgestellten Methoden erläutert und zusätzliche Erkenntnisse gewonnen. Abschnitt 5.2 verwendet ein Kettenbinomial-Überlebensmodell für einige Monte-Carlo-Bewertungen der unbedingten Stichprobenvarianzschätzung, Konfidenzintervalle und Modellmittelung. Für diese Simulation ist der Erzeugungsprozess bekannt und kann relativ hoch dimensioniert sein. Das Generierungsmodell und die zur Datenanalyse verwendeten Modelle in dieser Kettenbinomialsimulation sind leicht verständlich und haben keine störenden Parameter. Wir geben einige Vergleiche der AIC- und BIC-Auswahl und verwenden die erreichte Abdeckung des Konfidenzintervalls als integrierende Metrik, um den Erfolg verschiedener Inferenzansätze zu beurteilen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-2917-7_5 d80b43e639737d52e099d474af8c3c3e;de;;;5.2.;;;Forschung zum Algorithmus für 3L-CVRP unter Berücksichtigung der Auslastung von Fahrzeugen Die integrierte Optimierung des Fahrzeugroutenproblems und des Containerladeproblems ist zu einem Forschungsschwerpunkt in der aktuellen Logistikdistribution geworden. Zunächst wird ein mathematisches Modell des dreidimensionalen Load Capacated Vehicle Routing Problem (3L-CVRP) erstellt, unter der Annahme, dass die gelieferten Artikel rechtwinklig sind, unter Berücksichtigung der Artikelrotation, Last-in-First-out (LIFO)-Regel und der Verladung zerbrechlicher Gegenstände, die alle den realistischen Bedingungen entsprechen, und das Ziel ist es, die Gesamtfahrstrecke zu minimieren und die Auslastung des Fahrzeugs zu maximieren. Um dieses Problem zu lösen, unterteilt dieses Papier den Prozess des Routings und des Ladens in zwei Ebenen, und es wird ein neuer Algorithmus vorgestellt, der die Tabu-Suche (TS) mit der lokalen Suche (LS) kombiniert. Schließlich wird die Machbarkeit und Wirksamkeit der Methode und des Algorithmus durch das Einführungsbeispiel bewiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18129-0_94 1da89566147cd3bf479f4f4e9b298f2e;de;;;5.2.;;;Computergeometrie – damals und heute — In diesem Beitrag untersuchen wir die Entwicklung von Lösungen für fünf Schlüsselprobleme in der computergestützten Geometrie der Ebene. Die von uns betrachteten Probleme wurden aufgrund ihrer Langlebigkeit, ihrer Bedeutung in der Computergeometrie und der Existenz vernünftiger Lösungen für jedes Problem ausgewählt. In jedem Fall wird das Problem seit einem Jahrzehnt sowohl von Praktikern als auch von Theoretikern aktiv betrachtet. Die Aufgabensammlung gibt einen genauen Überblick über die Probleme und Methoden der Computergeometrie (in der Ebene). In den meisten Fällen sind die Lösungen praktisch und wir werden Implementierungsprobleme beschreiben. Gegebenenfalls diskutieren wir Erweiterungen in höhere Dimensionen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83539-1_3 92908fb6140ea429d388649f183b141e;de;;;4.2.;;;Kann Diversity im Vorstand die Integration von ESG-Aspekten in das Managementsystem verbessern? Board of Directors ist eines der wichtigsten Governance-Themen, die von den Corporate-Governance-Initiativen geprüft werden. Eine aktuelle Empfehlung zur Verbesserung der Vorstandseffizienz bezieht sich auf die Diversität der Vorstandsmitglieder. Allerdings sind weitere Forschungen erforderlich, um die Auswirkungen der Vielfalt im Vorstand auf die Geschäftswelt zu bewerten und besser zu verstehen, wie die Vielfalt des Vorstands mit Nachhaltigkeit zusammenwirkt. Aufbauend auf dieser Forschungslücke zielt diese Studie darauf ab, empirisch zu untersuchen, wie sich die Diversität im Vorstand auf die Einführung von ESG-Managementpraktiken auswirkt. Die Ergebnisse zeigen, dass Generationenvielfalt die Integration von ESG-Aspekten in den Managementprozess verbessert. Diese Studie hat wichtige Implikationen für Theorie, Geschäftspraxis und öffentliche Politik in den Bereichen Nachhaltigkeit und Corporate Governance.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38279-6_1 cecb09a76dd4865aa4462fef232f6089;de;;;5.2.;;;Die Auswirkungen struktureller Veränderungen auf die entzündungshemmenden Eigenschaften von Hydrocortison Der vorliegende Artikel versucht, die Veränderungen der entzündungshemmenden Potenz zusammenzufassen, die mit strukturellen Veränderungen im Hydrocortisonmolekül einhergehen. Es wurde versucht, – soweit bekannt – die wichtigsten biologischen und physikalisch-chemischen Parameter aufzunehmen, die für diese Veränderungen verantwortlich sein können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-7047-4_1 ba94cadda20e6db45e20a4998262f3b0;de;;;5.2.;;;Therapeutische Legitimität verhandeln Komplementäre und alternative Medizin befinden sich in einer paradoxen Position von gleichzeitiger institutioneller Marginalität und kultureller Kongruenz. Die kulturelle Kongruenz des ganzheitlichen Gesundheitsbereichs, wie ich in den vorangegangenen Kapiteln argumentiert habe, bezieht sich auf die Art und Weise, in der der Diskurs über Wohlbefinden prominente Werte rund um das Selbstsein und die Subjektivität reproduziert. Vorstellungen von Gesundheit und Krankheit, dem Selbst und dem Körper, die im Diskurs des Wohlbefindens festgehalten werden, sind für viele Menschen sinnvoll, diese Vorstellungen erscheinen natürlich und normal und wünschenswert. Sie sind besonders für Menschen sinnvoll, deren Selbstverständnis von Werten wie Authentizität und Selbstverwirklichung geprägt ist, die oft mit klassenbasierten Dispositionen verbunden sind. Der Diskurs über Wohlbefinden beinhaltet gleichzeitig eine implizite Herausforderung an traditionelle Zuschreibungen von Weiblichkeit und zeigt, warum diese Praktiken für so viele Frauen von Bedeutung sind.;-;-;-;https://link.springer.com/chapter/10.1057/9781137003737_6 1245e1d87a80d2e934ee0907535fd83f;de;;;4.2.;;;Funktion und Zukunft von auf visueller Kryptographie basierenden Schemen Visuelle Kryptographie (VC) ist eine nützliche Technik, die die Begriffe perfekte Chiffren und geheime gemeinsame Nutzung in der Kryptographie kombiniert. VC nimmt ein binäres Image (das Geheimnis) und teilt es in zwei oder mehr Teile, die als Shares bezeichnet werden. Wenn die Aktien auf Transparentfolien gedruckt und dann überlagert werden, kann das Geheimnis wiederhergestellt werden. Es ist keine Computerteilnahme erforderlich. Es gibt verschiedene Maßnahmen, von denen die Leistung des visuellen Kryptographie-Schemas abhängt, z. B. Pixelerweiterung, Kontrast, Sicherheit, Genauigkeit, Rechenkomplexität, generierter Anteil ist sinnvoll oder bedeutungslos, Art der geheimen Bilder (entweder binär oder farbig) und Anzahl der geheimen Bilder ( entweder einfach oder mehrfach) durch das Schema verschlüsselt. In diesem Papier werden wir die Entwicklungen der visuellen Kryptographie seit ihrer Geburt im Jahr 1994 zusammenfassen, die wichtigsten Forschungsthemen in diesem Bereich vorstellen, zu denen Forscher beigetragen haben, und die Anwendung dieser Verfahren skizzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37949-9_71 56c056b83ca39521b45a691d5334daee;de;;;4.2.;;;Sicherheitsüberlegungen in e-Cognocracy E-Kognokratie [1,2,3] ist eine kognitive Demokratie, die sowohl repräsentative als auch partizipative Demokratie mit zwei Hauptzielen kombiniert: (i) einige der mit dem traditionellen demokratischen System verbundenen Probleme (Partizipation, Transparenz und Kontrolle) zu überwinden und ( ii) Wissen im Zusammenhang mit der wissenschaftlichen Lösung hochkomplexer Probleme im Zusammenhang mit der Governance der Gesellschaft zu extrahieren und sozial zu teilen. Die E-Kognokratie verwendet das demokratische System als Katalysator für den lebenswichtigen oder kognitiven Prozess, der für lebende Systeme charakteristisch ist, die multikriteriellen Techniken als methodische Hilfe und das Internet als Kommunikations- und Partizipationsunterstützung. Um die Präferenzen der Entscheidungsträger zu erfassen und das Wissen im Zusammenhang mit der wissenschaftlichen Lösung der Probleme der öffentlichen Entscheidungsfindung zu teilen, weist der E-Voting-Prozess der E-Cognocracy einige Merkmale auf, die von traditionellen E-Voting-Systemen nicht abgedeckt werden. In diesem Beitrag stellen wir die notwendigen Modifikationen der klassischen E-Voting-Methoden vor, um mit einer dieser Eigenschaften umzugehen: der Verknüpfung zwischen den Runden.;-;-;-;https://link.springer.com/chapter/10.1007/11902140_77 0ae7c360d5397470c78ebc8b88dd6818;de;;;4.2.;;;Ein Management Decision Support System zur Bewertung des Informationssicherheitsverhaltens Informationssicherheitsmanagement ist eine schwierige Aufgabe in Organisationen. Aufgrund von Fachkräftemangel und dergleichen gibt es relativ wenige Führungskräfte, die über das erforderliche Know-how verfügen, um souverän Sicherheitsentscheidungen treffen zu können. Der Zweck dieses Papiers besteht darin, ein Entscheidungsunterstützungssystem vorzustellen, das das Informationssicherheitsverhalten in einer Organisation analysieren und Einblicke in dieses geben kann, während gleichzeitig die Entscheidungsfindung des Managements für organisatorische Faktoren unterstützt wird. Die Verhaltensschwellenanalyse wird vom System verwendet, um das eventuelle Informationssicherheitsverhalten für verschiedene Gruppierungen in einer Organisation vorherzusagen. Das hier vorgestellte Entscheidungsunterstützungssystem, das das erste seiner Art ist, kann hilfreich sein, um den aktuellen Stand des Informationssicherheitsverhaltens von Organisationen zu verstehen und was getan werden kann, um den aktuellen Stand zu verbessern. Nach Interventionsmaßnahmen kann mit dem System getestet werden, ob diese Maßnahmen die beabsichtigte positive Wirkung hatten. Das System wird in Bezug auf die verschiedenen Informationsbereiche diskutiert, die verwendet werden, um einen Einblick in das Sicherheitsverhalten zu ermöglichen. Eine kritische Reflexion bietet eine Analyse der Beiträge und Grenzen des Systems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-43276-8_2 bba98ffefdac10058da488df612e3b19;de;;;5.2.;;;Der Fall des Gesellschaftsvertrags Die Zeit zwischen dem Wahlsieg von Labour im Oktober 1974 und dem Juli 1975, als die Politik der Lohnzurückhaltung von 6 Pfund angenommen wurde, wird normalerweise als das Ende des Gesellschaftsvertrags angesehen. Ein Definitionsproblem stellt sich jedoch, wenn der Gesellschaftsvertrag als bis zum Zeitraum von 1974 bis 1974 existierend angesehen wird. Hugh Scanlon erinnerte daran, dass der „Sozialvertrag es uns ermöglichte, die Inflation auf 7,9 Prozent zu senken“.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-07201-9_2 d104670b3217cd8ebc43bf05a71afda7;de;;;5.2.;;;Die T-15 Fusion-Produktstudie: Pläne und Diagnose and Der Tokamak T-15 wurde Ende der 80er Jahre im Kurchatov-Institut entworfen und gebaut. Der Tokamak T-15 ist eine der vergleichsweise großen Maschinen der Welt und eignet sich für eine Reihe wichtiger Studien zum Alpha-Teilchen-Problem. Es ist ein klassischer Tokamak mit kreisförmigem Querschnitt und ohne Umsteller. Die wichtigsten Maschinenparameter und die erwarteten Plasmaparameter sind: R=243 cm, a=70 cm, -B;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0369-5_78 ff1d2bf68f945f4ff7d9b61847e133cb;de;;;5.2.;;;Die Anwendungen von Geographic Big Data im Einzelhandelsgeschäftsmarkt Die Lage gilt seit den 1970er Jahren als bestimmender Faktor für den Erfolg von Einzelhandelsstandorten. Verschiedene Untersuchungen haben verschiedene Aspekte untersucht, um den Markt zu verstehen und den besten Standort für jedes Geschäft auszuwählen, von der Klassifizierung des Standorts bis zur Generierung hierarchischer Handelsbereiche. Frühere Forschungen, die von Humangeographen durchgeführt wurden, können großartige Einblicke in einen bestimmten Standort liefern. Ihre traditionellen Methoden sind jedoch wahrscheinlich zu teuer und schwer auf die ganze Stadt und sogar das ganze Land auszudehnen. In diesem Kapitel werden Methoden untersucht, die auf einer großen Datenmenge basieren und derzeit als kommerzielle Lösungen verwendet werden. Durch die Untersuchung von POI-Daten und anderen Social-Media-Daten in vorgefertigten Rastern könnten verschiedene Arten von Geschäftsvierteln entdeckt und Standortmerkmale zusammengefasst werden. In dieser Studie wurden zwei berühmte Fast-Food-Händler untersucht. Die Ergebnisse zeigen, dass mehr als 70 % der Geschäfte durch die Klassifizierung von Geschäftsvierteln erklärt werden können. Die Ergebnisse zeigen auch, dass ähnliche POI-Aggregationen analysiert werden können, aus denen 83 % und 90 % der Standorte von Geschäften für zwei Einzelhändler getrennt erklärt werden können. Außerdem kann die Entfernungsbeziehung zwischen POIs und Geschäften dazu beitragen, den Standort von Einzelhandelsgeschäften zu erklären.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-51929-6_9 6243e2b26a5bbbff436b817ddef6caf8;de;;;5.2.;;;Ein diskreter Harmoniesuchalgorithmus Harmony Search (HS), inspiriert vom Musikimprovisationsprozess, ist eine neue metaheuristische Optimierungsmethode und wurde verwendet, um verschiedene Optimierungsprobleme im diskreten und kontinuierlichen Raum erfolgreich anzugehen. Der Standard-HS-Algorithmus ist jedoch nicht geeignet, diskrete binäre Probleme zu lösen. Um HS zu erweitern, um die binärcodierten Probleme effektiv zu lösen, wird in dieser Arbeit ein neuartiger Algorithmus zur diskreten Binärharmoniesuche (DBHS) vorgeschlagen. Um die Optimierungsfähigkeit von DBHS zu verbessern, wurde eine neue Regel zur Tonhöhenanpassung entwickelt. Anschließend werden Parameterstudien durchgeführt, um die Eigenschaften von DBHS zu untersuchen, und die empfohlenen Parameterwerte werden angegeben. Die Ergebnisse numerischer Experimente zeigen, dass das vorgeschlagene DBHS gültig ist und den Algorithmus zur Optimierung des diskreten Binärteilchenschwarms und den Standard-HS übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15859-9_6 1a8d3ed055b03ae478276f8740ba8525;de;;;5.2.;;;Design und Implementierung von Headend-Servern für herunterladbare CAS Dieses Papier präsentiert das Design und die Implementierung von Kopfstellenservern für ein herunterladbares Conditional Access System (DCAS), das CA-Code sicher über einen Breitbandkanal übertragen kann. Um den DCAS-Kopfstellenserver zu entwerfen, definieren wir Kernfunktionen, die in der Kopfstelle ausgeführt werden sollen, und kategorisieren sie in vier Abschnitte wie Authentifizierung, Bereitstellung, Personalisierung und Schlüsselverwaltung. Um die Stabilität und Effektivität der implementierten Headend-Server zu überprüfen, bauen wir ein Testbed mit diesen und einem Legacy-Kabel-Headend-System in einem Labor auf. Die experimentellen Ergebnisse zeigen, dass die DCAS-Kopfstellenserver gut konzipiert sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-4154-9_90 00533cd64f71525910b9186515d34f16;de;;;4.2.;;;The Black Art: Planung amerikanischer Programme In diesem Kapitel werde ich meine Aufmerksamkeit darauf richten, wie amerikanische Fernsehprogramme Teil des britischen Programms werden. Ich werde argumentieren, dass wir ein umfassendes Verständnis der Rolle amerikanischer Programme auf britischen Bildschirmen nur durch die Analyse ihrer Integration in die Produktion des britischen Fernsehens und nicht durch eine isolierte Betrachtung der Programme entwickeln können. Auf diese Weise sind amerikanische 'Texte' zwar noch als solche identifizierbar, aber auf einer anderen Ebene, dynamisch, noch im Wandel, da sie in einen Zeitplan integriert werden und mit ihm interagieren, auf diese Weise sind ihre Bedeutung und ihre Rolle teilweise das Ergebnis des Augenblicks der Sendung — ihre Position in der zeitlichen und räumlichen Dimension des Programms.;-;-;-;https://link.springer.com/chapter/10.1057/9780230625242_6 0fc9a362bb7b6b33b7519bdb8c805087;de;;;5.2.;;;Das GMDSS-Funknetz Vielen Lesern mag das Thema globale Seekommunikation verwirrend erscheinen, insbesondere wenn Notalarme und Kommunikationen von relativ unerfahrenen Personen durchgeführt werden können. Das Global Maritime Distress and Safety System (GMDSS) wurde entwickelt, um Seeleuten ein globales Kommunikations- und Ortungsnetz zur Verfügung zu stellen, dessen Elemente von einer Person mit minimalen Kommunikationskenntnissen bedient werden können und dennoch Alarmierung sowie Suche und Rettung (SAR ) zuverlässig zu koordinieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-6619-3_1 dc236f3a314e75ec548f59799c5db44c;de;;;4.2.;;;Analyse von schlecht strukturierten Problemlösungen, Mentoring-Funktionen und Wahrnehmungen von Praktikumslehrern und Mentoren in Bezug auf Online-Mentoring in einem feldbasierten Praktikum Dieser Artikel beschreibt eine explorative Studie zu Frageaufforderungen und Online-Mentoring (insbesondere eine laterale oder Peer-Mentoring-Erfahrung) in einem feldbasierten Praktikum, das sich auf das Unterrichten von schlecht strukturierten Problemlösungen im Klassenzimmer konzentriert. Es wurden Daten von 26 berufsbegleitenden Praktikanten durch Online-Beobachtungen, Online-Zeitschriftenberichte, Fragebögen und Reflexionsprotokolle gesammelt. Die Ergebnisse zeigten, dass es den Praktikumslehrern gelungen war, den Ansatz zur Planung und Umsetzung effektiver Interventionen für ihre Schüler zu nutzen, und dass sie den Online-Mentoring-Ansatz als sehr nützlich zur Unterstützung ihres Lernens empfanden. Eine detailliertere Analyse von sieben Praktikumslehrern und ihren Mentoren ergab, dass ihre Mentoren acht Arten von Online-Mentoring-Funktionen ausübten, die am häufigsten von den Praktikumslehrern um Ausarbeitung gebeten und die Beiträge der Praktikumslehrer bewertet wurden. Auch der Einfluss der Mentoring-Funktionen auf die schlecht strukturierte Problemlösung der sieben Praktikanten wird diskutiert. Die Studie liefert Beweise dafür, dass asynchrones Online-Mentoring und Frageaufforderungen die berufliche Entwicklung sowohl von Praktikanten als auch von Mentoren verbessern können, indem sie ihnen helfen, Interventionsstrategien zur Lösung realer Unterrichtsprobleme zu erlernen und anzuwenden.;-;-;-;https://link.springer.com/article/10.1007/s11251-006-9000-7 41a6d2b74b775a6a85406b70673824c5;de;;;4.2.;;;Karriereentwicklung von Men of Color Farbige Männer stehen in der Arbeitswelt oft vor einem Dilemma. Als Männer werden ihnen oft die Vorteile und Privilegien gewährt, die mit einer männlichen Identität verbunden sind. Als People of Color erleben sie aber auch Rassismus, Ausgrenzung und Diskriminierung. In ihren Familien wurden sie mit geschlechtsspezifischen und rassischen/kulturellen Vorstellungen über Männlichkeit und Arbeitswelt sozialisiert. In der Gesellschaft sehen sich farbige Männer mit Stereotypen, Barrieren und vorgefassten Meinungen konfrontiert, wenn sie eine Karriere in Erwägung ziehen. All diese Probleme schaffen eine potenziell verwirrende und sich verändernde Landschaft, und farbige Männer müssen viel psychologische Energie aufwenden, um sich mit diesen sich überschneidenden Faktoren zu befassen. Während sich die Karriereentwicklungsforschung traditionell auf Männer konzentrierte und der Drang nach einer stärkeren Erforschung der Vielfalt zu einer ständig wachsenden Literatur zu Karrierethemen rassischer und ethnischer Minderheiten geführt hat, werden viele der Probleme, mit denen farbige Männer konfrontiert sind, noch immer unzureichend untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-8860-6_10 4308aaaae711b3c2a9edafd0f697ddf2;de;;;5.2.;;;Durchsuchen Sie eine unsortierte Datenbank mit Quantenmechanik In diesem Artikel überprüfen wir Quantensuchalgorithmen für das Problem der unsortierten Datenbanksuche. Die unsortierte Datenbanksuche ist ein sehr wichtiges Problem in Wissenschaft und Technik. In einem Quantencomputer kann ein markierter Zustand mit sehr hoher Wahrscheinlichkeit mit dem Grover-Algorithmus oder genau mit dem Long-Algorithmus gefunden werden. Wir überprüfen den Grover-Algorithmus und verwandte Verallgemeinerungen. Insbesondere überprüfen wir die Phasenanpassungsbedingungen im Quantensuchalgorithmus. Mehrere Probleme, die zu Verwirrung über den Quantensuchalgorithmus führen können, werden ebenfalls geklärt.;-;-;-;https://link.springer.com/article/10.1007/s11704-007-0026-z 2de9a67b0e7059632a60c0cf94af4264;de;;;5.2.;;;Leistungssteigerung der fehlerresistenten Entropiecodierung auf blockbasiertem Bitstrom von SPIHT Standardmäßige Bild- und Videotechniken, die entwickelt wurden, um dem Bitstrom ein gewisses Maß an Schutz gegen Kanalfehler zu verleihen, fügen normalerweise eine kontrollierte Menge an Redundanz hinzu. Diese Redundanz kann die Form von Resynchronisationsmachern annehmen, die es dem Decodierer ermöglichen, den Decodierungsprozess im Falle von Übertragungsfehlern von einem bekannten Zustand aus neu zu starten. Der Error Resilient Entropy Code (EREC) ist ein wohlbekannter Algorithmus, der entwickelt wurde, um die hinzugefügten redundanten Informationen zu reduzieren. Die Wavelet-Tree-Codierung bietet die effizienteste derzeit verfügbare Bildkomprimierung in Bezug auf die Ratenverzerrung. Dieses Papier stellt eine Leistungssteigerung von EREC im Bitstream von SPIHT vor, die seine Fähigkeit, die komprimierte Bildqualität bei zufälligen Fehlern aufrechtzuerhalten, erheblich verbessert. Dieses Papier zeigt, dass Efficient and Robust EREC(EREREC) die Bildqualität von SPIHT bei Vorhandensein von Kanalfehlern verbessert. Das Simulationsergebnis zeigt, dass die Qualität des übertragenen Bildes im Vergleich zum bestehenden EREC auf SPIHT verbessert ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69429-8_37 60509d5eecd635be48fc61014f4f7693;de;;;5.2.;;;Rang-Defekt-Anpassungsmodell für systematische Vermessungslinienfehler im Meeresvermessungsnetz In dieser Arbeit wird die Struktur von systematischen und zufälligen Fehlern im Seevermessungsnetz detailliert diskutiert und die Ausgleichsmethode für Beobachtungen von Seevermessungsnetzen untersucht, bei der die Rang-Defekt-Charakteristik zuerst entdeckt wird. Auf der Grundlage des Survey-Line-Systematischen Fehlermodells werden die Formeln des Rang-Defekt-Anpassungsmodells nach moderner Anpassungstheorie abgeleitet. Ein Beispiel für Berechnungen mit wirklich beobachteten Daten wird durchgeführt, um die Effizienz dieses Anpassungsmodells zu demonstrieren. Darüber hinaus wird bewiesen, dass das derzeit in der Marinegravimetrie in China verwendete semi-systematische Fehlerkorrekturverfahren ein Sonderfall des in diesem Beitrag vorgestellten Ausgleichsmodells ist.;-;-;-;https://link.springer.com/article/10.1007/BF02826469 6e96c87bed8637a91c41dabe6c6c4d2e;de;;;5.2.;;;Ein Optimierungsansatz für potenzielle Stromgeneratorleistungen basierend auf einem parallelisierten Firefly-Algorithmus Die Parallelverarbeitung spielt eine wichtige Rolle bei effizienten und effektiven Berechnungen der Funktionsoptimierung. Dieses Papier schlägt einen parallelen Optimierungsalgorithmus für die engagierte Erzeugung elektrischer Leistung von Wärmekraftwerken basierend auf dem Firefly-Algorithmus (FA) vor. Durch die Optimierungstechniken für Übertragungsverluste, Leistungsbilanz und Erzeugungskapazität kann eine wirtschaftliche Bedingung für die Stromsysteme bestimmt werden. Ziel des vorgeschlagenen parallelen Algorithmus mit Kommunikationsstrategien ist es, Agenten in Untergruppen zu korrelieren und die Rechenlast auf mehrere Maschinen aufzuteilen. Als Zielfunktion werden die Aufwandskriterien für jede Erzeugungseinheit und die Koeffizientenmatrix formuliert, die in unserer parallelen Optimierung für den Stromfluss der Übertragungsverluste in den Netzen zu berechnen sind. Vier ausgewählte Funktionen und zwei Fälle von sechs Einheiten und fünfzehn Einheiten von thermischen Anlagen werden in unseren Versuchen zur Optimierung getestet. Durch einen Vergleich zwischen verschiedenen Methoden in verwandten Arbeiten zeigen unsere experimentellen Ergebnisse, dass die vorgeschlagene Methode zu einer höheren Wirkung und Genauigkeit führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-50212-0_36 0d980837d022989bc88e158edd158f16;de;;;5.2.;;;Moderne Theorien der genetischen Rekombination Der direkte experimentelle Zugang zur Untersuchung des Rekombinationsmechanismus, der durch Fortschritte in der Entwicklung der Molekularbiologie möglich wurde, hat sich als äußerst fruchtbar erwiesen (Kapitel 4). Das Problem wurde offenbar gelöst: Es wurde gezeigt, dass die Rekombination durch Aufbrechen und Wiedervereinigung der DNA-Moleküle erfolgt und dieser Vorgang durch entsprechende Enzyme gesteuert wird. Das Ausfüllen der Details könnte den Biochemikern überlassen werden. Der letzte Arbeitsschritt in diese Richtung wäre die Isolierung der entsprechenden Enzyme und die Durchführung der Reaktion;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-5800-9_5 9c7b38c440068ca962412f7615882bf3;de;;;4.2.;;;‘A Bit of a Shower-Off’: Auftritt in Swansea Thomas verließ die Swansea Grammar School im Alter von sechzehn Jahren – obwohl wir gesehen haben, dass er kaum dort gewesen war, außer um für die Schulzeitung zu schreiben, in Theaterstücken zu spielen, zu debattieren und Entschuldigungen zu erfinden, um wieder nach Hause zu gehen. Danach sagte er Pamela Hansford Johnson im November 1933, er sei „zwei Jahre lang“ „Zeitungsreporter“ – es waren tatsächlich eineinhalb Jahre;-;-;-;https://link.springer.com/chapter/10.1057/9781137322579_3 c1c2733ed963b14427c0d6ba3857135c;de;;;5.2.;;;HASM-AD-Algorithmus basierend auf den sequentiellen kleinsten Quadraten Die HASM-Technik (High Accuracy Surface Modeling) basiert auf der grundlegenden Theorie der Oberflächen, die nachweislich die Interpolationsgenauigkeit bei der Oberflächenanpassung verbessert. Die integrale iterative Lösung in früheren Studien führte jedoch zu einer hohen zeitlichen Komplexität bei der Berechnung und einem enormen Speicherverbrauch, so dass es schwierig wurde, die Technik insbesondere bei großen Datensätzen anzuwenden. In der Studie wird ein innovatives Modell (HASM-AD) nach den sequentiellen kleinsten Quadraten auf Basis der Datenanpassungstheorie entwickelt. Bei der Technik wird eine sequentielle Unterteilung verwendet, so dass lineare Gleichungen in Gruppen unterteilt werden können, die nacheinander verarbeitet werden, wobei die zeitliche Komplexität bei der Berechnung stark reduziert wird. Das Experiment zeigt, dass die HASM-AD-Technik die traditionellen Methoden der räumlichen Interpolation an Genauigkeit übertrifft. Auch das Ergebnis der Kreuzvalidierung beweist die gleiche Schlussfolgerung für die räumliche Interpolation der Boden-PH-Eigenschaft mit den in der Provinz Jiangxi erhobenen Daten. Darüber hinaus wird in der Studie gezeigt, dass die HASM-AD-Technik die Rechenkomplexität signifikant reduziert und den Speicherverbrauch bei der Berechnung verringert.;-;-;-;https://link.springer.com/article/10.1007/s11806-010-0387-6 c34ea0858e86947be925650dbb30fd0e;de;;;5.2.;;;Entwurf eines hochpräzisen horizontalen Steuerungsnetzes für ein großes Wasserkraftprojekt Es wird eine neue Lösung aus einem kombinierten Netzwerk von GPS und hochpräzisen Entfernungsmessungen mit EDM vorgeschlagen. In der Zwischenzeit ist es nicht ratsam, nur das GPS-Netzwerk ohne Entfernungsmessungen zu verwenden. Drei Schemata: terrestrisches Netz, GPS-Netz und Kombinationsnetz werden für das horizontale Kontrollnetzdesign des Xiangjiaba-Damms im Hinblick auf Präzision, Zuverlässigkeit, Koordinaten und Aufwand im Detail diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF02826730 e3c61157617d2225c58279320d685826;de;;;5.2.;;;Ein neuer schneller Kantenerkennungsalgorithmus basierend auf NAM-strukturierter Ebenenzerlegung Das vom Konzept des Packungsproblems inspirierte Nichtsymmetrie- und Antipackungsmuster-Repräsentationsmodell (NAM) verwendet einen Satz von Untermustern, um ein ursprüngliches Muster darzustellen. Die NAM ist eine vielversprechende Methode zur Bilddarstellung, da sie sich auf die interessanten Teilmengen eines Bildes konzentrieren kann. In diesem Artikel entwickeln wir eine neue Methode zur Graustufenbilddarstellung auf Basis von NAM, die als NAM-structured-plane-decomposition (NAMPD) bezeichnet wird, bei der jedes Teilmuster einem rechteckigen Bereich im Bild zugeordnet ist. Die Luminanzfunktion von Pixeln in diesem Bereich wird durch ein Schrägebenenmodell angenähert. Dann schlagen wir einen neuen und schnellen Kantenerkennungsalgorithmus basierend auf NAMPD vor. Die in diesem Beitrag vorgestellten theoretischen Analysen und experimentellen Ergebnisse zeigen, dass der Kantenerkennungsalgorithmus, der NAMPD verwendet, schneller arbeitet als die klassischen, da er die Ausführung von Operationen auf Teilmustern anstelle von Pixeln ermöglicht.;-;-;-;https://link.springer.com/article/10.1007/s11806-009-0120-5 86b8ee0b2184d81e35ec0bc215ece3d1;de;;;5.2.;;;Multiskalige Darstellung von Gebäudemerkmalen in urbanem GIS Dieses Papier zielt auf eine multiskalige Darstellung von urbanem GIS ab und präsentiert ein Modell zur dynamischen Generalisierung des Gebäudes auf der Grundlage des Delaunay-Triangulationsmodells. Unter Berücksichtigung der Einschränkungen der Positionsgenauigkeit, des statistischen Flächenausgleichs und der orthogonalen Eigenschaften bei der Generalisierung von Gebäudeclustern bietet dieses Papier einen progressiven Algorithmus für die Aggregation von Gebäudeclustern, einschließlich Konflikterkennung (wo), Objektverschiebung (wer), und geometrische Kombinationsoperation (wie). Der Algorithmus wurde in einem interaktiven Generalisierungssystem realisiert und einige Experimentabbildungen werden bereitgestellt.;-;-;-;https://link.springer.com/article/10.1007/BF02833884 02409a365957c5eb1434c24d561ba011;de;;;5.2.;;;Gaußsche Segmentierung und Tokenisierung zur kostengünstigen Spracherkennung Die gängigsten Ansätze zur phonotaktischen Spracherkennung beschäftigen sich mit Lautdecodern als Tokenisierern. Einheiten, die nicht mit phonetischen Definitionen verbunden sind, können jedoch universeller und daher konzeptionell einfacher zu übernehmen sein. Es wird davon ausgegangen, dass die Gesamtklangeigenschaften aller gesprochenen Sprachen durch eine breite Sammlung von akustischen Einheiten abgedeckt werden können, die durch akustische Segmente charakterisiert werden können. In diesem Artikel werden solche akustischen Einheiten, die für eine allgemeinere Sprachcharakterisierung sehr wünschenswert sind, unter Verwendung des Gaussian Mixture Model abgegrenzt und gruppiert. Für die spätere Gaußsche Modellierung wird ein neues Segmentierungsverfahren für akustische Einheiten der Sprache vorgeschlagen, wobei nach Ersatz für den phonetischen Erkenner gesucht wird. Dieser Tokenizer wird über nicht transkribierte Daten trainiert und geht der statistischen Sprachmodellierungsphase voraus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41822-8_69 ce14e172270a2d0710e6da47cd8b9f21;de;;;5.2.;;;Erdschwerefeld aus CHAMP-Wissenschaftsbahn- und Beschleunigungsmesserdaten wiederhergestellt Das Erdschwerefeldmodell CDS01S vom Grad und der Ordnung 36 wurde aus den nachbearbeiteten Science Orbits und den On-Board-Beschleunigungsmesserdaten des CHAMP-Satelliten des GFZ gewonnen. Das Modell löst das Geoid mit einer Genauigkeit von besser als 4 cm bei einer Auflösung von 700 km halber Wellenlänge auf. Durch die Verwendung der Graddifferenzvarianzen der Geopotentialkoeffizienten zum Vergleich des Modells CDS01S mit EIGEN3P, EIGEN1S und EGM96 zeigt das Ergebnis, dass die Koeffizienten von CDS01S denen von EIGEN3P am ähnlichsten sind. Das Ergebnis des Vergleichs zwischen den Genauigkeiten der Geopotentialkoeffizienten in den obigen Modellen zeigt, dass die Genauigkeit der Koeffizienten in CDS01S höher ist als in EGM96. Die Geoidwellen von CDS01S und GGM01C bis zu 30 Grad werden berechnet und die Standardabweichung beträgt 4,7 cm dazwischen.;-;-;-;https://link.springer.com/article/10.1007/BF02826734 f951e3ff2038d86712a552516ae634ff;de;;;5.2.;;;Dynamische Benutzervernetzung und Profilerstellung basierend auf Aktivitätsströmen für verbessertes soziales Lernen In letzter Zeit wird Social Media Enhanced Learning immer beliebter. Es wird als Lernen durch Interaktion und Zusammenarbeit in einer Gemeinschaft oder über ein soziales Netzwerk bezeichnet, was als eine Art soziales Lernen angesehen werden kann. In dieser Studie integrieren wir SNS (wie Twitter) in den webbasierten Lernprozess und vertiefen uns in die Entdeckung potenzieller Informationen aus den reorganisierten Stream-Daten. Wir schlagen ein Dynamical Socialized User Networking (DSUN)-Modell vor, das die Profilerstellung und die dynamische Beziehung der Benutzer durch eine Reihe von Maßnahmen darstellt. Schließlich zeigen wir ein Anwendungsszenario des DSUN-Modells, um den Lernprozess zu unterstützen und die Lerneffizienz in webbasierten Umgebungen zu steigern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25813-8_23 36753398d2110fa191a784636dd11426;de;;;4.2.;;;Ehrerbietung gegenüber der öffentlichen Verwaltung in der gerichtlichen Überprüfung: Eine polnische Perspektive Während in den demokratischen Ländern die Instrumente zur Stärkung der Verwaltungskompetenz zum Wohle des Einzelnen geschaffen wurden, sollten die polnischen Verwaltungsgerichte die Verwaltungsgewalt zum Nachteil der Kläger zurückhalten. Die grundlegende Rolle der gerichtlichen Überprüfung bestand seit ihrer Reaktivierung im Jahr 1980 in Polen darin, die Rechte und Freiheiten des Einzelnen zu schützen, indem die Grenzen der administrativen Eingriffe in diesem Bereich festgelegt wurden. Diese Bedingungen erschweren den Vergleich zwischen der Verwaltungsgerichtsbarkeit in Polen und in den geerdeten Demokratien. Vor allem deshalb ist es nach Ansicht der Autoren in Polen kaum möglich, die in den Staaten entwickelte Doktrin der Ehrerbietung frei von der Erfahrung des totalitären Systems anzuwenden. Ein weiterer Grund, warum – nach Ansicht der Autoren – der Begriff der Ehrerbietung hier nicht geeignet ist, sind die lokalen Besonderheiten der gerichtlichen Kontrolle sowie das gegenwärtige Spannungsverhältnis zwischen den verfassungsmäßigen Gewalten. Der Artikel enthüllt einen Standpunkt, nach dem das Ehrerbietungskonzept dem polnischen Recht und politischen System (noch) nicht angemessen ist. Die Autoren kamen zu dem Schluss, dass die Verwendung der Ehrerbietungsdoktrin die Gefahr birgt, sie zu manipulieren, um einige Handlungen der Autoritäten zu legitimieren, die Demokratie in besonderer Weise verstehen, die für die Diktatur der Mehrheit geeignet ist. In diesem Zusammenhang lässt sich alles mit dem Verweis auf den „souveränen Willen“ rechtfertigen, wobei die in der westlichen Kultur bekannten Checks and Balances-Mechanismen vernachlässigt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-31539-9_16 43477e2bea1fc41d44478679a350c09c;de;;;4.2.;;;Kreative Menschen im High-Tech-Umfeld managen In den vorangegangenen Kapiteln ist das Management von Menschen als roter Faden erschienen. An dieser Stelle werden wir uns auf einige spezifische Aspekte des Personalmanagements konzentrieren, beginnend mit der Rekrutierung von Kreativen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-74896-7_8 ce183c085dbe26eaa636410ed300f1bf;de;;;4.2.;;;Forschung zur Klassifizierung und Bewertung von tropischen Sporttourismusressourcen in China In diesem Kapitel wurde eine Klassifizierung und Bewertung der Ressourcen des tropischen Sporttourismus in Hainan durch Anwendung der Dokumentenliteraturmethode, der Fragebogenerhebungsmethode, der Felduntersuchungsmethode, der Experteninterviewmethode und der mathematisch-statistischen Methode gemäß dem nationalen Standard der Volksrepublik China (GB/ T 18972-2003);-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03449-2_43 661d49aa06b394c977f161eb16c9682e;de;;;4.2.;;;Wilde und zahme Freuden Wenn du an „Fußballfans“ denkst, an wen denkst du dann? Das wahrscheinlichste Bild ist eine rauflustige Ansammlung junger Männer in ihren Vereinsschals, die sich in einem Fußballstadion irgendwo in Europa wiegen und singen. Eine Gemeinschaft scheinbar unschuldiger, junger buddhistischer Mönche in Tibet – die Köpfe rasiert und in burgunderrote Gewänder gekleidet – ist ein unwahrscheinliches Bild. Doch wie der Film;-;-;-;https://link.springer.com/chapter/10.1057/9780230625785_8 d841630b8bdccb2eb3ca5a53e3bdc24c;de;;;4.2.;;;Ein polyphones Modell und System zur Inter-Animations-Analyse in Chat-Gesprächen mit mehreren Teilnehmern Der Diskurs in Instant-Messenger-Gesprächen (Chats) mit mehreren Teilnehmern setzt sich oft aus mehreren ineinandergreifenden Fäden zusammen. Einige Chatumgebungen für computergestütztes kollaboratives Lernen (CSCL) unterstützen und fördern die Existenz paralleler Threads, indem sie explizite Referenzierungsfunktionen bereitstellen. Der Beitrag schlägt ein Diskursmodell für solche Chats vor, das auf der dialogischen Theorie von Mikhail Bakhtin basiert. Es geht davon aus, dass mehrere Stimmen (die sich nicht auf die Teilnehmer beschränken) ineinander beleben, manchmal auf polyphone, kontrapunktische Weise. Außerdem wird ein implementiertes System vorgestellt, das solche Chat-Logs analysiert, um zusätzliche, implizite Verknüpfungen zwischen Äußerungen und Threads zu erkennen und, wichtiger für CSCL, um die Beteiligung (Interanimation) der Teilnehmer an der Problemlösung zu erkennen. Das System beginnt mit einer NLP-Pipe und endet mit der Identifikation zwischen Animationen, um Feedback zu generieren und den Lernenden Noten vorzuschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12116-6_29 6059bcffb37a8085fe961f94d5aadd0e;de;;;5.2.;;;Ein nicht-clusternder Multistart-Algorithmus für die globale Optimierung Ein Algorithmus vom stochastischen Typ zur globalen Optimierung einer zweimal stetig differenzierbaren Funktion wird vorgestellt. Der Algorithmus fällt in die erfolgreiche Gruppe von „Multistart“-Algorithmen, vermeidet jedoch das anfängliche Sampling und Clustering, das in den neuesten Multistart-Algorithmen vorhanden ist. Es werden zwei Stoppregeln berücksichtigt und Ergebnisse für acht Testfunktionen angegeben.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0042226 7262443abb35d49531c397279ba87e3b;de;;;5.2.;;;Eine 3D-Objektsegmentierungsmethode mit CCL-Algorithmus für die LiDAR-Punktwolke Point Umgebungswahrnehmung und -analyse sind wesentliche Bestandteile von automatischen Bodenfahrzeugen (UGVs), um eine intelligente Entscheidungsfindung beim Fahren zu implementieren. Um dynamische Umgebungsinformationen zu erfassen, sind UGVs mit Light Detection and Ranging (LiDAR) ausgestattet, um hochpräzise 3-dimensionale Punktwolken zu erfassen. Aufgrund der unstrukturierten und inhomogenen Eigenschaften der LiDAR-Punktwolke ist eine schnelle und genaue Analyse der Punktwolke unter dem Fahrbetrieb von UGVs schwer zu erreichen. Die meisten autonomen Anwendungen von UGVs, wie Objektextraktion, Geländeerkennung und befahrbare Pfaderkennung, stellen technologische Engpässe sowohl bei der Prozessgeschwindigkeit als auch bei der Analysepräzision. In diesen Anwendungen ist das Ergebnis der Objektsegmentierung eine grundlegende Informationsunterstützung, die die nachfolgenden Prozesse in hohem Maße sowohl in Bezug auf Genauigkeit als auch Effizienzleistung beeinflusst. Dieses Papier schlug einen neuartigen Objektsegmentierungsalgorithmus namens 3D-Connected-Component-Label (3D-CCL) vor, um die vollständige Punktwolke in Unterteilungspunktwolken des einzelnen lokalen Objektraums zu unterteilen. Das Ergebnis der Objektsegmentierung liefert eine Reihe grundlegender Punktwolken verschiedener Hindernismodelle, die der Umgebungswahrnehmung und Entscheidungsfindung für UGV zugute kommen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9343-7_51 f2bc32483a983ac7907ac2530a53d92d;de;;;5.2.;;;Vergleich von Kuckuckssuche, Bienenkolonie, Glühwürmchen-Optimierung und Elektromagnetismus-ähnlichen Algorithmen zur Lösung des Satzabdeckungsproblems Das Mengenabdeckungsproblem ist ein klassisches Modell im Bereich der kombinatorischen Optimierung für die Dienstzuweisung, das darin besteht, eine Menge von Lösungen zu finden, um eine Reihe von Bedürfnissen mit möglichst geringen Kosten abzudecken. In diesem Artikel berichten wir über verschiedene ungefähre Methoden zur Lösung dieses Problems, wie Kuckuckssuche, Bienenkolonie, Glühwürmchen-Optimierung und Elektromagnetismus-ähnliche Algorithmen. Wir veranschaulichen experimentelle Ergebnisse dieser Metaheuristiken zur Lösung eines Satzes von 65 nicht-unicosten Sätzen, die Probleme aus der Beasley’s OR-Library abdecken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-21404-7_14 d8c178a8f7d4e4942f566f154ceee973;de;;;4.2.;;;Nachhaltige lateinamerikanische Städte? Bewertung der Nachhaltigkeit der Stadt Puebla (Mexiko) anhand von Indikatoren Der Urbanisierungsprozess in Lateinamerika erreicht eine beispiellose Geschwindigkeit. In diesem Zusammenhang stellt das Erreichen der Nachhaltigkeit lateinamerikanischer Städte eine große Herausforderung dar, um die auf dem Gipfel der Vereinten Nationen im Jahr 2015 vorgeschlagenen Ziele für nachhaltige Entwicklung (SDGs) zu erreichen die ökologischen, sozialen, wirtschaftlichen und politischen Ziele einer nachhaltigen Entwicklung. Basierend auf Hintergrundstudien schlägt dieser Beitrag vor, die städtische und ökologische Nachhaltigkeit der Stadt Puebla (Mexiko) auf der innerstädtischen Ebene zu bewerten, um territoriale Gegensätze zu identifizieren, die sich in der Lebensqualität ihrer Bewohner manifestieren. Basierend auf den in der Emerging and Sustainable Cities Initiative der Interamerikanischen Entwicklungsbank vorgeschlagenen Indikatoren wurde ein Nachhaltigkeitsindex (SI) erstellt und durch die Analyse der Ergebnisse der Prosperous Cities Initiative (2016) und des Sustainable Cities Index ( 2018). Es ist erwähnenswert, dass sich die günstigen und ungünstigen Bedingungen der SI hauptsächlich im stadtnahen Bereich der Stadt präsentieren und territoriale Gegensätze aufweisen, wie dies bei den Kolonien der Gemeinden San Pablo del Monte, Ocoyucan, San . der Fall ist Pedro Cholula, San Andrés Cholula und Puebla. Es spiegelt auch eine starke Differenzierung der Bedingungen in Bezug auf Nachhaltigkeit zwischen Zentrum und Peripherie der Stadt wider. Die erzielten Ergebnisse sollen die Integration von Politiken für gegenwärtige und zukünftige Generationen vertiefen, die auf lokaler Ebene zu den Zielen für nachhaltige Entwicklung führen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-50540-0_10 3a31ce6cd93b4fe680507d0239cf8325;de;;;5.2.;;;Von Dornen und Rosen: Der Einsatz des Märchens „Brierrose“ in der Therapie mit Familien hochbegabter Kinder Märchen wurden erfolgreich eingesetzt, um auf indirekte Weise schwierige therapeutische Probleme anzugehen. Dieser Beitrag beschreibt, wie die Grimm-Geschichte „Brier Rose“ dazu beitragen kann, Familien mit einem akademisch begabten Kind in die Familientherapie einzubeziehen. Die Metapherkonzepte Derivative Search, Indirection und Embedded Commands werden kurz besprochen, das Märchen wird zusammengefasst und die Geschichte wird auf die drei Metapherkonzepte angewendet.;-;-;-;https://link.springer.com/article/10.1007/BF02249306 0ff26902dd4a75cc1f0ee9b56cab384e;de;;;5.2.;;;Computersimulation von Wasser und wässrigen Lösungen In den letzten fünf Jahren wurde ein energischer Versuch (eigentlich ein Brute-Force-Versuch) unternommen, um eine strukturelle Ansicht von flüssigem Wasser und wässrigen Lösungen zu erhalten, indem ein „First-Principles“-Ansatz angewendet wurde, der von einer ersten Angabe der Gesamtmenge ausging intermolekulare potentielle Energie einer Anordnung von;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-8018-4_6 c9bd53e512a94686c0c08717084ae45c;de;;;5.2.;;;Genres des Redenschreibens In diesem Kapitel untersuchen wir den Begriff der Sprachgenres und wie sie den Redenschreiber leiten können. Bei genauer Betrachtung des griechischen und römischen Rhetorikkanons betrachten wir die Prozesse des Redenschreibens hauptsächlich durch ihre inhaltlichen, stilistischen und situativen Ähnlichkeiten. Wir skizzieren die wichtigsten Genres, die in der politischen Rede in den USA und in Europa verwendet werden. Wir haben diese beiden Einstellungen auch in der aristotelischen Typologie der zeremoniellen, deliberativen und gerichtlichen Reden begründet. Wir stellen fest, dass die meisten politischen Reden um den zeremoniellen und deliberativen Typ herum entwickelt werden und dass es Überschneidungen zwischen dem europäischen und amerikanischen Reden gibt, wie z. B. die Bewertung von Informationen, die für eine bestimmte Rede relevant sind, politische Empfehlungen und das Einstudieren nationaler Werte. Schließlich bemerken wir die einzigartige Stellung der Erfindung in der Beziehung zwischen Sprecher und Redenschreiber.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-03685-0_6 ca665511ca996b31ec6ec6899ef2a035;de;;;5.2.;;;Die Anwendung von Vektorminimierungstechniken bei der Analyse von nichtlinearen Rückkopplungssystemen mit mehreren Schleifen Das komplexe Problem der Vorhersage von Schwingungsmoden in nichtlinearen multivariablen Systemen wurde erfolgreich durch ein Verfahren sukzessiver Approximationen angegangen, bei dem hauptsächlich die Philosophie der harmonischen Balance und einer Optimierungstechnik kombiniert wird. Mehrere Aspekte der Durchführung des Verfahrens wurden eingehend betrachtet, ebenso die Strategien, die bei der Erweiterung der Methode auf die Lösung komplexerer Probleme verfolgt wurden. Die Verwendung dieser genauen Prozeduren bei der Verbesserung eines computergraphischen Verfahrens wurde als ein Schritt zu ihrer Einbindung in die computerunterstützte Designsuite für nichtlineare Systeme diskutiert, die derzeit auf einem Prime 550-Computer an der Salford University entwickelt wird.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0006134 f9d78099f7af5ff475e7586ddd2a064b;de;;;5.2.;;;Zur heuristischen Leistung von Perimetersuchalgorithmen Während das Erstellen eines Perimeters um den Zielknoten in einigen Domänen zu sehr guten Ergebnissen geführt hat, hat sich gezeigt, dass die Leistung in anderen Domänen dramatisch abnimmt. In diesem Beitrag wird ein mathematisches Modell vorgestellt, das dieses Phänomen erklärt. Sein Zweck ist zweierlei: erstens die Leistung der heuristischen Funktion zu analysieren, die in Umkreissuchalgorithmen mit beliebiger Umkreistiefe verwendet wird,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-25945-9_44 bafd42762718ebbb533c2ffb78f8234f;de;;;4.2.;;;Individuelle Unterschiede in der Überzeugungskraft im Bereich Gesundheitsförderung Dieser Beitrag untersucht die Verhaltensfolgen individueller Unterschiede in der Überzeugungskraft im Bereich der Gesundheitsförderung. Wir verwenden ein 7-Punkte-Überzeugbarkeitsinstrument, um die Überredbarkeitsbewertung der Teilnehmer zu bestimmen. Basierend auf dieser Punktzahl werden zwei Gruppen gebildet: die niedrigen und die hohen Überzeugungskraft. Anschließend stellen wir zwei Studien vor, die die Reaktionen auf gesundheitsbezogene Überzeugungsbotschaften sowohl von niedrigen als auch von hohen Überzeugungskräften testen. Die Ergebnisse zeigen durchweg, dass hohe Überzeugungskraft Botschaften mit überzeugendem Inhalt im Vergleich zu neutralen Botschaften mehr entsprechen als niedrige Überzeugungskraft. Darüber hinaus weisen beide Studien auf eine geringere Compliance durch geringe Überzeugungskraft hin, wenn überzeugende Botschaften verwendet werden. Implikationen dieser möglichen schädlichen Wirkung der Verwendung von Überzeugungsbotschaften für geringe Überzeugungskraft werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13226-1_11 b019e9941dfbe45dc7aba961d8c2ac2d;de;;;4.2.;;;Politische Dimension der modernen eSociety: Der Fall der „Gilets Jaunes“ in Frankreich Die Studie untersucht die Hauptvektoren des Einflusses sozialer Netzwerke auf die Form des politischen Kampfes, der, obwohl er teilweise virtueller Natur ist, seinen Inhalt nicht ändert. Basierend auf der Analyse quantitativer Daten von „Gelbwesten“-Proteststätten sowie Befragungen zur Sozialstruktur der TeilnehmerInnen beschäftigt sich die Studie mit der technologischen Entstehung und Funktionsweise eines neuen Phänomens politischer Sprach- und Kommunikationsgemeinschaft, die im sozialen Netzwerken und ist nicht mit den traditionellen „wirklich organisierten“ politischen Institutionen und Gruppen verbunden. Im Fokus der Studie steht die „politische Macht“ dieser virtuellen Gemeinschaft, also die Grenzen ihres Einflusses auf die politische Entscheidungsfindung auf nationaler Ebene.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37858-5_12 e7fe9c7f8a72b3ad15e12bc86035c765;de;;;4.2.;;;Youtube-Benutzer- und Nutzungsprofile: Geschichten von politischem Horror und Sicherheitserfolg Soziale Medien und Web 2.0 haben es Internetnutzern ermöglicht, Online-Inhalte beizutragen, die gecrawlt und aus einer Vielzahl von Gründen verwendet werden können, von personalisierter Werbung bis hin zu Verhaltensvorhersagen/Profilen. In diesem Beitrag ist es unser Ziel, eine Horror- und Erfolgsgeschichte aus der digitalen Welt von Social Media zu präsentieren, um: (a). präsentieren eine Methode zur Profilierung der politischen Zugehörigkeit, die Panopticon-Methode, um diese Bedrohung aufzudecken und dazu beizutragen, das gesellschaftliche Bewusstsein dafür zu schärfen. (B). beschreiben eine Methode zur Vorhersage von Insider-Bedrohungen, indem sie die Veranlagung gegenüber Strafverfolgungsbehörden und Behörden bewerten, eine persönliche psychosoziale Eigenschaft, die eng mit der Manifestation böswilliger Insider verbunden ist. Der experimentelle Testfall beider Methoden ist eine umfangreiche griechische Community von YouTube-Nutzern. Um unsere Fälle zu demonstrieren, haben wir eine graphentheoretische und inhaltliche Analyse des gesammelten Datensatzes durchgeführt und gezeigt, wie und welche Art von personenbezogenen Daten durch Data Mining aus öffentlich zugänglichen YouTube-Daten abgeleitet werden können. Da beide Methoden die Privatsphäre und Würde der Nutzer aufs Spiel setzen, bieten wir dem Leser eine Analyse der rechtlichen Mittel für jeden Fall, um eine Bedrohung der Privatsphäre wirksam zu verhindern, und stellen auch Ausnahmefälle vor, wie die Auswahl der Sicherheit Beamte kritischer Infrastrukturen, wo solche Methoden verwendet werden könnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44788-8_16 0076f13991eaa643c6fa795f8a243ad3;de;;;4.2.;;;Gender Gap in Science, Technology, Engineering, and Mathematics (MINT): Aktuelles Wissen, Implikationen für Praxis, Politik und zukünftige Richtungen Obwohl sich die geschlechtsspezifische Kluft in Mathematikkursen und -leistungen in den letzten Jahrzehnten verringert hat, sind Frauen in mathematikintensiven Bereichen der Naturwissenschaften, Technologie, Ingenieurwissenschaften und Mathematik (MINT) weiterhin unterrepräsentiert. Karrierewege umfassen die Fähigkeit, eine Karriere zu verfolgen, sowie die Motivation, diese Fähigkeit einzusetzen. Individuelle Unterschiede in der kognitiven Leistungsfähigkeit und Motivation werden auch durch breitere soziokulturelle Faktoren beeinflusst. Nach einem Überblick über die Forschung aus den Bereichen Psychologie, Soziologie, Ökonomie und Pädagogik der letzten 30 Jahre fassen wir sechs Erklärungen für die Unterrepräsentation von US-Frauen in mathematisch-intensiven MINT-Bereichen zusammen: (a) kognitive Fähigkeiten, (b) relative kognitive Stärken, ( c) berufliche Interessen oder Präferenzen, (d) Lebensstilwerte oder Präferenzen zur Vereinbarkeit von Familie und Beruf, (e) fachspezifische Überzeugungen zu Fähigkeiten und (f) geschlechtsbezogene Stereotype und Vorurteile. Anschließend beschreiben wir die möglichen biologischen und soziokulturellen Erklärungen für beobachtete geschlechtsspezifische Unterschiede in Bezug auf kognitive und motivationale Faktoren und zeigen die Entwicklungsperiode(n), in denen jeder Faktor am relevantesten wird. Anschließend schlagen wir evidenzbasierte Empfehlungen für Politik und Praxis zur Verbesserung der MINT-Diversität und Empfehlungen für zukünftige Forschungsrichtungen vor.;-;-;-;https://link.springer.com/article/10.1007/s10648-015-9355-x c8287227cd973becd880f59cfced3cf6;de;;;4.2.;;;Multispektrale Fernerkundungsbilder Klassifikationsmethode basierend auf einem adaptiven immunklonalen Selektionskulturalgorithmus Beim immunklonalen Selektionsalgorithmus für das Klassifizierungsproblem von Fernerkundungsbildern wird nur der klonale Selektionsmechanismus verwendet. Es schränkt die Ausnutzung und Erforschung des Algorithmus ein. Um das obige Problem zu lösen, wird in der Arbeit ein adaptiver immunklonaler Selektionskulturalgorithmus eingeführt. Es nutzt vollständig den dualen Evolutionsmechanismus des Kulturalgorithmus, um implizites Wissen im Glaubensraum zu extrahieren. Gemäß der im topologischen Wissen festgestellten Evolutionssituation ist eine hybride Selektionsstrategie, die klonale Selektion und (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24728-6_43 7e509852e96725a4fcac867f521ce08c;de;;;4.2.;;;Generation Z und ihre Werttransformationen: Digital Reality vs. Phygitale Interaktion Der Einfluss der phygitalen Realität auf die Generation Z steht im Mittelpunkt dieses Artikels. Phygital wird als Interaktionssystem in der neuen Welt verstanden, wenn der digitale Raum das Physische durchdringt und sich in eine Person integriert. Für Forscherinnen und Forscher, aber auch für Vertreterinnen und Vertreter aus Wirtschaft, Bildung und Medienkultur wird die Frage, wie phygitale Realitätspraktiken die Wertebildung des aktivsten digitalen Publikums – Generation Z – beeinflussen, immer relevanter. Fragen des Wertesystems werden häufig bei einem typischen Vertreter der Generation Z, der in St. Petersburg lebt, gesehen. Der Wandel der Werteprioritäten der modernen Gesellschaft wird untersucht. Eine Analyse der Ergebnisse ermöglichte es, das Bild der Generation Z aus der Sicht der Generation Y zu gewinnen, die Wertehierarchie der Generation Z zu untersuchen und generationsübergreifende Analogien zu ziehen. Es wird gezeigt, dass einige dieser Generation zugeschriebene Merkmale nicht durch Daten unterstützt werden. Die Ergebnisse der Untersuchung des Wertesystems eines typischen Vertreters der Generation Z in St. Petersburg stehen in gewissem Widerspruch zum Wertesystem der Generation Z in anderen Ländern. Die Autoren glauben, dass Studien der Generation Z wertvolles Material für die Entwicklung von Steuerungslösungen im Hinblick auf angestrebte Ziele und Maßnahmen darstellen, um eine entwickelte digitale Gesellschaft zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-65218-0_4 b48a4cfd4a704f6aefee7543bfe4cf87;de;;;4.2.;;;Runyons Prozessberichterstattung und die Zuschauerkultur In den 1920er Jahren schuf das moderne urbane Leben eine Zuschauerkultur, in der die Morgenzeitung über Aufsehen erregende Ereignisse, insbesondere Tatorte und Prozesse, berichtete, um den unersättlichen Voyeurismus der Öffentlichkeit zu nähren. In diesem Kapitel werden wir untersuchen, wie Runyons Berichterstattung über wichtige Prozesse einen wichtigen Einfluss auf die Umwandlung dieser Prozesse in kristallisierende Medienereignisse hatte. Was die moderne Zuschauerkultur auszeichnet, ist ihr Fokus nicht nur auf den Akt des Beobachtens, sondern auf den Austausch zwischen Betrachter und Betrachter. Wenn wir über die Entwicklung der Zuschauerkultur nachdenken, müssen wir nicht nur an die oben erwähnten Penny-Zeitungen und Boulevardblätter denken, sondern auch an die Erfindung der Fotografie, Edward Muybridges Stop-Action-Fotografie (je nachdem, ob das gleiche Bild von drei verschiedenen Positionen aufgenommen wird) und das frühe Kino .;-;-;-;https://link.springer.com/chapter/10.1057/9781403973504_4 f3b3ca94482e37c493923db78d9cd307;de;;;4.2.;;;Wir sind gemeinsam Lehrende und Lernende: Fächerübergreifende Lehren aus dem Pilgrim Pipelines Disput Pipeline-Streitigkeiten bieten eine Gelegenheit, Studenten in aktuelle Umweltprobleme der realen Welt einzubeziehen, die sich direkt auf Studienleistungen in Umweltstudien und -wissenschaften (ESS) beziehen. Am Beispiel meines eigenen Engagements bei der Coalition against the Pilgrim Pipelines (CAPP) zeige ich, wie gemeinschaftsbasiertes Lernen mit Kursmaterialien im Bereich Public Health, Geografischen Informationssystemen (GIS) und einführenden Umwelt- und Gesellschaftskursen zusammenhängt. Indem ich meine Interessenvertretungsarbeit über verschiedene Kurse hinweg zusammenführe, bringe ich zum Ausdruck, wie ich lokales Wissen und lokale Beziehungen kennen und schätzen gelernt habe. Ich unterstreiche auch die Rolle institutioneller Arrangements bei der Unterstützung und Förderung der Pädagogik des gemeindebasierten Lernens (CBL).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-65979-0_4 967428bb61d7704203020d1b87a0a0a3;de;;;4.2.;;;Marginalität bzw. Zentralität der Freiräume in den Strategien zur Steigerung der Energieeffizienz der Stadt Die Kontrolle der Institutionen und Planer über die Ausbauprozesse fehlte zuletzt vor allem in Bezug auf Qualität und Funktionalität. Institutionen und Planer waren nicht in der Lage, soziale Räume zu bauen, die die gleiche starke Identität der historischen und konsolidierten Stadt hatten, obwohl sie erkannten, dass sich die Suche nach Geselligkeit geändert hat und sich die Bedeutung von städtischen Räumen verändert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09150-1_24 b0ca3d8acc670a03d1332d49a9edd373;de;;;4.2.;;;Answer or Publish – Energizing Online Democracy Eine verbesserte Kommunikation zwischen Bürgern und Entscheidungsträgern, die die Beteiligung an der öffentlichen Entscheidungsfindung fördert, ist von wesentlicher Bedeutung, um das heutige Demokratiedefizit zu verringern. Allerdings ist es schwierig, aus einer Vielzahl von Kommentaren und Fragen die wichtigsten öffentlichen Inputs herauszufiltern. Wir schlagen eine Online-Lösung für das Auswahlproblem vor, indem wir die allgemeine Werbung des Internets nutzen. In der vorgesehenen Praxis sind Entscheidungsträger verpflichtet, entweder Bürgeranfragen oder Initiativen zu beantworten oder das eingegangene Schreiben auf einer öffentlich zugänglichen Webseite zu veröffentlichen. Die Liste der unbeantworteten Fragen würde eine Motivation darstellen, öffentliche Beiträge zu berücksichtigen, ohne die Entscheidungsträger unnötig zu belasten – aufgrund der Abhängigkeit von der Öffentlichkeit würde sich ihre Arbeitsbelastung dem gesellschaftlichen Optimum annähern. Die vorgeschlagene Methode wird im Zuge der bestehenden ungarischen e-Practices analysiert. Die Idee wird als Einschränkung für Vertreter und als Erleichterung für einige andere Beamte angesehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04757-2_44 617aa28fcc0b71587cda0935c9bfc172;de;;;5.2.;;;Elemente des Musikstils Stil gehört zum Zweig der Philosophie, der Ästhetik genannt wird, und insbesondere zur Musikästhetik. Obwohl theoretische Spekulationen zu diesem Thema nicht im Rahmen dieses Buches liegen, müssen einige grundlegende Konzepte kurz erläutert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-8365-3_10 8c0941159ea0b96d1b89d1421c9e7a0a;de;;;5.2.;;;Neuartiger integrierter Optimierungsalgorithmus zur Trajektorienplanung von Robotermanipulatoren basierend auf integrierter evolutionärer Programmierung Eine optimale Trajektorienplanung für Robotermanipulatoren spielt eine wichtige Rolle bei der Umsetzung der hohen Produktivität für Roboter. Die bei der optimalen Trajektorienplanung verwendeten Leistungsindizes werden in zwei Hauptkategorien eingeteilt: optimale Fahrzeit und optimale mechanische Energie der Aktuatoren. Die aktuellen Trajektorienplanungsalgorithmen werden basierend auf einem der beiden obigen Leistungsindizes entworfen. Bisher gab es nur wenige Planungsalgorithmen, die zwei Leistungsindizes gleichzeitig erfüllen. Andererseits treten einige Mängel in den bestehenden integrierten Optimierungsalgorithmen der Trajektorienplanung auf. Um diese Mängel zu beheben, werden die integrierten Optimierungsalgorithmen der Trajektorienplanung basierend auf der vollständigen Analyse zur Trajektorienplanung von Robotermanipulatoren vorgestellt. Im Algorithmus werden zwei Objektfunktionen basierend auf der spezifischen Gewichtungskoeffizientenmethode und der idealen Punktstrategie entworfen. Darüber hinaus wird basierend auf den Merkmalen des Optimierungsproblems die intensivierte evolutionäre Programmierung vorgeschlagen, um das entsprechende Optimierungsmodell zu lösen. Insbesondere für den Stanford-Roboter werden die hochwertigen Lösungen zu geringeren Kosten gefunden.;-;-;-;https://link.springer.com/article/10.1007/s11768-004-0035-5 4eeaeda7d31de0fc43ff23037414fc78;de;;;5.2.;;;Logikprogrammierung für kombinatorische Probleme Kombinatorische Probleme treten in vielen Bereichen in Wissenschaft, Technik, Biomedizin, Wirtschaft und Operations Research auf. Dieser Artikel stellt einen neuen intelligenten Computeransatz zur Lösung kombinatorischer Probleme vor, der Permutationen und Kombinationen umfasst, indem logische Programmierung integriert wird. Es wird ein Überblick über angewandte kombinatorische Probleme in verschiedenen Domänen gegeben. Solche rechenintensiven und populären kombinatorischen Probleme wie das Problem des Handlungsreisenden werden diskutiert, um die Nützlichkeit des logischen Programmieransatzes zu veranschaulichen. Detaillierte Diskussionen zur Implementierung kombinatorischer Probleme mit Zeitkomplexitätsanalysen werden in Prolog, der Standardsprache der Logikprogrammierung, präsentiert. Diese Programme können leicht in andere Systeme integriert werden, um eine logische Programmierung in der Kombinatorik zu implementieren.;-;-;-;https://link.springer.com/article/10.1007/s10462-009-9150-5 38b8023921fc6565dbf33aabbbd67223;de;;;4.2.;;;Räumliche Analyse der urbanen digitalen Kluft in Kigali, Ruanda Der Zugang zu Informations- und Kommunikationstechnologien (IKT) und deren Potenzialen für Städte ist in allen Regionen und Bevölkerungsgruppen oft ungleichmäßig, eine Bedingung, die als digitale Kluft bezeichnet wird. Angesichts der Unsichtbarkeit des digitalen Zugangs könnten bestimmte geodemografische Gruppen dem Risiko der digitalen Ausgrenzung ausgesetzt sein. Allerdings untersuchen die meisten Studien, sofern sie nicht räumlich begrenzt sind, die digitale Kluft auf makro-räumlicher Ebene (nationale und regionale Ebene), was sie für die Wissensgenerierung und Politiken auf innerstädtischer Ebene, den eigentlichen Drehscheiben von Innovationen, weniger relevant macht. Dieses Papier untersucht den Stand des IKT-Zugangs in Kigali City auf innerstädtischer Ebene. Es analysiert offizielle Volkszählungsdaten zu IKT-Zugangsindikatoren über Dimensionen und Raum hinweg, 35 Verwaltungsbereiche genannt;-;-;-;https://link.springer.com/article/10.1007/s10708-018-9882-3 f0abf52e179d04b41de14e99708056ce;de;;;4.2.;;;Tuning in Rorschach Maps Viele zeitgenössische Künstler arbeiten mit Strategien, um den öffentlichen, informationellen und sozialen Raum neu abzubilden. Ihre Prozesse beinhalten oft die Erstellung einer präskriptiven, algorithmischen und partizipativen Arbeit, die ein unbekanntes Produkt hervorbringt. Was können wir an den Ergebnissen beobachten? Wie ist die Rezeption dieser Werke durch das Publikum? Neben dem Besuch historischer Präzedenzfälle in Performance und Musik wird in diesem Beitrag untersucht, wie statistische, geografische und textuelle Echtzeitkartierungen des Internets sowohl für praktische als auch für Freizeitzwecke verfügbar geworden sind und wie Künstler der neuen Medien diese Methoden einsetzen, um die Möglichkeiten situativer Kartierung. Zwei Analogiemodelle werden untersucht, der Rorschach-Test und der musikalische Modus der Stimmung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79486-8_5 8678478c1aa25f4b355f2bcdd020661c;de;;;4.2.;;;Bewertung eines belebten Straßennetzes auf Basis von Geoinformationssystem und Raumsyntax Axial- und Sichtbarkeitsdiagrammanalysemodelle werden mit GIS und Raumsyntax kombiniert, um die entsprechende Beziehung zwischen Straßennetz und spezifischem Stadtleben in Hankou, China, basierend auf drei Skalen - Stadt, Bezirk und Gemeinde - zu untersuchen, um die verborgene Struktur herauszuinterpretieren komplexer Stadtform durch die räumliche Logik des Straßennetzes. In diesem Beitrag wird eine quantitative Analyse ausgewählter Parameter in der Raumsyntax durchgeführt, einschließlich Integration, Auswahl, Straßendichte und Ht-Index. Das Ergebnis zeigt, dass zwischen diesen Parametern eine gewisse Korrelation besteht. Darüber hinaus weisen diese Parameter zusammen mit der Vergrößerung des Analyseradius auch bestimmte sich ändernde Muster auf. Die Ergebnisse zeigen, dass das Straßennetz von Hankou eine multihierarchische Struktur und räumliche Ganzheit aus all diesen drei Skalen aufweist. Diese Eigenschaft schafft Lebendigkeit und Vielfalt unter Beibehaltung der Ganzheitlichkeit des Stadtraums. Die Forschung hat gezeigt, dass ein Straßennetz auf Gemeindeebene eine positive Rolle spielt, um Nachbarschaften am Leben zu erhalten. Daher ist es eine wichtige Strategie, um die Vitalität des städtischen Raums zu erhalten und die Koordination und Vereinigung zwischen Teilen und dem Ganzen zu verwirklichen. In diesem Papier wird vorgeschlagen, dass ein gutes Straßennetz ein Schlüsselfaktor für die Fortführung des städtischen Kontexts von Hankou ist. Zweifellos lohnt es sich, über den großflächigen Abriss des bestehenden Stadtraums, insbesondere in historischen Bereichen, nachzudenken. Anschließend schlägt das Papier eine hierarchisch synergetische Planungsstrategie basierend auf der Analyse vor. Dem Straßennetz sollte mehr Aufmerksamkeit geschenkt werden, um Vielfalt, Kontinuität und Integrität zu bewahren und schließlich eine ganzheitlich nachhaltige Entwicklung innerhalb einer Stadt zu archivieren.;-;-;-;https://link.springer.com/article/10.1007/s11042-015-3095-2 75c60e7b2a23bed3fc6329a43bfaf857;de;;;5.2.;;;Effiziente Generierung von Segmentierungspfaden für uneingeschränkte handgeschriebene Hangul-Zeichen Diese Studie schlägt ein Verfahren zur Ausdünnung des Hintergrunds zur Segmentierung der Zeicheneinheit von handgeschriebenem Hangul vor. Das Hintergrundausdünnungsverfahren führt eine Ausdünnungsverarbeitung unter Verwendung von Hintergrundinformationen zwischen Zeichen durch und zeigt eine effektive Leistung bei der Segmentierung für überlappte und berührte Zeichen. Das Zeichensegmentierungsverfahren unter Verwendung von Hintergrundausdünnung zeigt eine schnelle Segmentierungsleistung mit externer Segmentierung, die keine Beurteilung des Erkennungsprozesses erfordert. Dieses Verfahren zeigte eine hervorragende Leistung bei der Segmentierung berührter Zeichen sowie bei der Segmentierung überlappter Zeichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30106-6_45 f8f0324739233d11267fbdfbaea37228;de;;;5.2.;;;Authentifizierungsprotokolle Die Authentifizierung ist zu einem wichtigen Problem für jeden Anwendungsentwickler geworden, der erwartet, dass Code in einem Netzwerk oder über das Internet ausgeführt wird. Die Sicherstellung der Benutzeridentität und die Überprüfung von Maschinenidentitäten bei Bedarf sind Teil des Sicherheitsmoduls einer Anwendung. Entwickler von Windows-Anwendungen sollten die von Microsoft implementierten Windows-spezifischen Sicherheitsverfahren zusätzlich zu allen zusätzlichen Sicherheitsmaßnahmen, die von der Anwendung auferlegt werden, einhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-0660-6_13 1d63e0989b006c21c53d961dc2dec433;de;;;4.2.;;;Vorschlag eines Rahmens für die Gesundheitsfolgenabschätzung im Iran Gesundheitsfolgenabschätzungen (HIA) von Politiken und Projekten werden in verschiedenen Kontexten unterschiedlich durchgeführt, obwohl in nicht-westlichen Ländern bisher weniger HIA-Forschung durchgeführt wurde. Die globale HIA-Forschung hat jedoch gezeigt, dass die technische Durchführung von HIAs an allgemeinere Bedingungen und Einflüsse in Bezug auf Entscheidungsfindung und Politikentwicklung gebunden ist.;-;-;-;https://link.springer.com/article/10.1186/s12889-015-1698-1 088c61d9dc74d360c4fc8ee8c85c55f9;de;;;5.2.;;;Analgetika und ihre Antagonisten: Struktur-Wirkungs-Beziehungen Qualitative Theorien, die versuchen, die molekulare Struktur mit der analgetischen oder narkotischen Antagonistenaktivität in Verbindung zu bringen, haben dem zeitgenössischen Medizinalchemiker nur eine geringe Fähigkeit gegeben, vorherzusagen,;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-3186-5_2 1e4ebbb170b08bda61268b01c07e337d;de;;;4.2.;;;Methodik der Datenerhebung zum Wohlergehen der Gemeinschaft, der Fall von Enschede, Niederlande Ziel dieses Kapitels ist es, die Methodik der Datenerhebung für die in Enschede im Auftrag des Community Wellbeing Institute der Seoul National University durchgeführte Erhebung zum Gemeinwohl zu beschreiben. Wir haben den Fragebogen „The Community Wellbeing Survey“ des Community Wellbeing Institute für die Untersuchung von sechs Distrikten in Seoul, Südkorea, angepasst (Lee & Kim in Social Factors and Community Wellbeing. Springer, S. 13–37 ,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-15115-7_6 ecc2d2f2ccfa6aa1e082b9f64fdf57e7;de;;;4.2.;;;Tödliche Divisionen, 1791–92 Am 14. September 1791 verkündete ein scheinbar aufrichtiger Ludwig XVI. die Verfassung, die die Arbeit der Versammlung seit 1789 verkörperte. Frankreich sollte eine konstitutionelle Monarchie sein, in der die Macht zwischen dem König als Oberhaupt der Exekutive und einer von einer restriktiven Versammlung gewählten Versammlung geteilt würde Immobilien-Franchise. Eine neue gesetzgebende Versammlung wurde von „aktiven“ Bürgern gewählt und im Oktober in Paris einberufen. Anfangs bemühten sich die meisten ihrer Mitglieder, den Zustand der Revolution, wie er in der Verfassung zum Ausdruck kommt, zu festigen. Die Spaltung in der Kirche und der Fluchtversuch des Königs hatten jedoch alles verändert. Drohende Äußerungen des Papstes und der gekrönten Häupter Europas bestätigten die seit dem Frühjahr 1790 in Grenzgebieten endemischen Befürchtungen, dass das alte Europa revolutionäre Veränderungen in seiner Mitte nicht akzeptieren würde. Gleichzeitig ging mit dem Aufkommen eines militanteren Aktivismus in Paris und anderen Städten ein Wiederaufleben des Protests auf dem Land einher, der auf der Abschaffung der verbleibenden herrschaftlichen Ansprüche bestand.;-;-;-;https://link.springer.com/chapter/10.1057/9780230228818_6 db79a93a101194bcdca3562a5baeec64;de;;;4.2.;;;„Vielleicht kann das für die Bildung sein“: Kulturelle Modelle der Lernenden für pädagogisches Spieldesign Die Einbindung von Spielen in das Lehren und Lernen im Klassenzimmer ist ein großes Interesse bei Forschern und Pädagogen. Game-based Learning bietet Potenziale für die Schaffung einer Lernumgebung des 21. Jahrhunderts, die eine bessere Einbindung unserer digitalen Generation verspricht. Die Entwicklung von Lernspielen, die sowohl die Lernenden einbeziehen als auch die Bildungsziele der Schulen ansprechen, bleibt jedoch eine Herausforderung bei der Entwicklung von Spielen für die Bildung. Als Antwort auf das Dauerproblem schlagen wir vor, dass es sich lohnen kann, bei der Entwicklung von Lernspielen auf das Wissen und die Praktiken der Schüler beim Spielen und Lernen in und außerhalb der Schule zurückzugreifen. Wir verschieben den pädagogischen Blick auf dieses Thema von der Perspektive der Lehrenden auf die der Lernenden, um die kulturellen Modelle ihrer Lebenswelten in Bezug auf das Lernen mit Spielen zu untersuchen. Konkret präsentieren wir die kulturellen Modelle des Lernens, der Technologie und der Ästhetik, die die Lernenden selbst in einem informatorischen Designansatz an die Oberfläche gebracht haben. Bei diesem Ansatz wurden im Rahmen eines dreijährigen Forschungsprogramms mit zwei Sekundarschulen in Singapur fünf progressive Design-Workshops durchgeführt. 22 Studenten im Alter zwischen 13 und 15 Jahren nahmen als Designpartner oder Informanten teil, bei denen ihre Ideen zur Erde und zu Computerspielen erforscht wurden. Die in diesem Kapitel vorgestellten Kulturmodelle sind ein Teil der Erkenntnisse aus diesen Workshops. In diesem Kapitel werden die Vorteile der Positionierung der Lernenden als Ressourcen nicht nur für ihr eigenes Lernen, sondern auch als Mitgestalter des Spiels als Lernwerkzeug aufgezeigt. Wir kommen zu dem Schluss, dass der Zugang zu kulturellen Modellen der Lernenden wichtig ist, um zu vermeiden, Pädagogiken des 21. Jahrhunderts zu entwerfen, die auf angenommenen Bedürfnissen basieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06314-0_3 c789a84504c425c4811ff5d1658f1835;de;;;4.2.;;;Ein grundlegender Rahmen für die Bekämpfung von Fettleibigkeit in Katar mithilfe mobiler Technologien Dieses Papier entwickelt einen grundlegenden Rahmen für ein umfassendes Adipositas-Management-Programm mit Technologie (OMPwT). Es gibt zwei Hauptziele für ein solches Programm, nämlich – a) Gewichtsverlust und effektive Verhaltensänderungen auszulösen, die durch mobile und Online-Technologieunterstützung für Benutzer (übergewichtige oder adipöse Patienten) und ihre Mentoren (Diätetiker und Kliniker) verstärkt werden und b) Technologie zu nutzen, um einen effizienten Workflow-Prozess und den Datenaustausch zwischen Benutzern, Mentoren und der Gesundheitseinrichtung zu unterstützen. Wir möchten dies in einem lokalen Kontext der arabischen Golfstaaten und speziell in Katar tun. Unsere Forschungsfragen werden in kleinen Fokusgruppen von Ärzten und Diätassistenten validiert. Die vorgeschlagene Methodik umfasst das technologische Design eines umfassenden Systems, das alle Schlüsselakteure des Gesundheitsökosystems auf kosteneffiziente Weise miteinander verbindet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24352-3_42 10c129d9786edcf23fbfcfb55eca4142;de;;;4.2.;;;Strategiesicherer Mechanismus für die zeitabhängige Zuweisung von virtuellen Batch-Maschinen in Clouds Die zeitvariable Ressourcenzuweisung ermöglicht es Benutzern, ihre eigenen einzigartigen Ressourcenbedarfspläne für verschiedene Zeiträume zu definieren. Dieser Zuweisungsmodus kann die Flexibilität der Ressourcennutzung erhöhen und die Ressourcennutzungskosten für Benutzer reduzieren. Darüber hinaus kann die Kombination dieses Ansatzes mit einem Auktionsmechanismus es Ressourcenanbietern ermöglichen, mehr soziale Wohlfahrt und Vorteile zu erhalten. Daher ist eine solche Ressourcenzuweisung zu einem heißen Thema im Cloud-Computing geworden. Dieses Whitepaper befasst sich mit dem Problem der zeitvariablen Zuweisung und Preisgestaltung von virtuellen Batch-Maschinen (VM) in der Cloud. Insbesondere (1) schlagen wir ein neuartiges Integer-Programmiermodell für das zeitvariable Batch-VM-Zuordnungsproblem vor und (2) wir entwerfen zwei wahrheitsgetreue Auktionsmechanismen, um das Zuordnungs- und Preisproblem in einem wettbewerbsorientierten Umfeld zu lösen. Der optimale Mechanismus umfasst einen auf dynamischer Programmierung (DP) basierenden Ressourcenzuweisungsalgorithmus und einen Vickrey-Clarke-Groves (VCG)-basierten Zahlungspreisalgorithmus. In der Zwischenzeit entwerfen wir auch einen gierigen Mechanismus, der einen auf dominanten Ressourcen basierenden Zuweisungsalgorithmus und einen dichotomiebasierten Zahlungspreisalgorithmus umfasst. Wir beweisen die wirtschaftlichen Eigenschaften, einschließlich Wahrhaftigkeit und individuelle Rationalität, der beiden oben genannten Mechanismen. Weiterhin beweisen wir das Approximationsverhältnis des Allokationsalgorithmus im Greedy-Mechanismus. Im Vergleich zum Stand der Forschung zeichnet sich unser Ansatz durch eine hohe Sozialleistung, eine hohe bediente Nutzerquote und eine kurze Ausführungszeit aus.;-;-;-;https://link.springer.com/article/10.1007/s10586-021-03360-x 6f5b79c65a4b59bbacad4c06125214cb;de;;;5.2.;;;Darstellung von Graphengleichmäßigkeiten durch algebraische Spezifikation Diese Umfrage bestätigt eine intellektuelle Schuld an Bob McNaughton. 1968 wandte ich meinen Forschungsschwerpunkt dem Studium struktureller Uniformitäten in Graphen zu, motiviert durch den Wunsch, theoretische Aspekte von Datenstrukturen zu studieren. Der Ansatz, den ich in dieser Studie verfolgte, wurde stark von der algebrabasierten Untersuchung der Struktur endlicher Automaten beeinflusst, die Mitte der 1960er Jahre von Bob und anderen initiiert wurde. Ihre Erfolge bei der Verwendung des syntaktischen Monoids eines Automaten zum Studium seiner Struktur überzeugten mich, meine Studie auf eine monoidtheoretische Spezifikation von Graphen zu stützen. Das Studium dessen, was ich nannte;-;-;-;https://link.springer.com/article/10.1007/BF02090777 d9ebc75b5c7512fa7b5bccba6832779e;de;;;5.2.;;;Über die Reduzierung des Suchraums von Lazy Narrowing höherer Ordnung Lazy Narrowing höherer Ordnung ist eine allgemeine Methode zur Lösung von E-Unification-Problemen in Theorien, die als Sets von Rewrite-Regeln präsentiert werden. In dieser Arbeit untersuchen wir die Möglichkeit, die Suche nach normalisierten Lösungen eines Lazy-Nenging-Kalküls LN höherer Ordnung zu verbessern. Wir führen einen neuen Kalkül ein, LN;-;-;-;https://link.springer.com/chapter/10.1007/10705424_21 8e96ba3c093689172b8e66700eb942de;de;;;4.2.;;;Kinder erziehen, die Kurve zu biegen: Für ein stabiles Klima, nachhaltige Natur und nachhaltige Menschheit Obwohl der Klimawandel eine von mehreren großen Herausforderungen für die nachhaltige Entwicklung ist, ist er zu einem Aushängeschild für nicht nachhaltigen Konsum und für das grobe Versagen aktueller Wirtschaftswachstumsmodelle geworden, die die Erschöpfung des Naturkapitals nicht wertschätzen. Es ist ein Aushängeschild, weil der Klimawandel alle Aspekte des menschlichen Wohlbefindens verbindet, einschließlich ökologischer, kultureller, sozialer, wirtschaftlicher und politischer Aspekte. Der bereits vorhandene Bestand an Klimaschadstoffen in der Atmosphäre reicht aus, um das Klima innerhalb von 35 Jahren auf ein noch nie dagewesenes Niveau zu erwärmen, mit schwerwiegenden, wenn nicht sogar verheerenden Folgen für die ärmsten drei Milliarden Menschen, die mit der Verschmutzung nur sehr wenig zu tun hatten. Aber es bleibt noch Zeit, katastrophale Klimastörungen zu vermeiden – die zu systemischen Risiken und sogar existenziellen Bedrohungen für alle führen könnten. Während die gegenwärtige Generation positive Schritte unternimmt (mit dem 195-Staaten-Abkommen von Paris ein entscheidender wichtiger Schritt), sind diese Schritte und Maßnahmen der Dringlichkeit oder dem Ausmaß der Gefahren einer Klimaveränderung nicht angemessen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-47130-3_1 d7e60b531ef2731dc3ccc0df714c94fb;de;;;4.2.;;;Akzeptanz der Wahltechnologie: Zwischen Vertrauen und Vertrauen Soziale Aspekte der Sicherheit von Informationssystemen werden oft unter den Begriffen „tatsächliche Sicherheit“ und „wahrgenommene Sicherheit“ diskutiert. Dies kann zu der Hypothese führen, dass E-Voting umstritten ist, weil bei der Papierwahl die tatsächliche und die gefühlte Sicherheit zusammenfallen, während dies bei elektronischen Systemen nicht der Fall ist. In diesem Beitrag argumentieren wir, dass die Unterscheidung zwischen tatsächlicher und wahrgenommener Sicherheit aus philosophischer Sicht problematisch ist, und entwickeln einen alternativen Ansatz, der auf dem Begriff des Vertrauens basiert. Wir untersuchen die unterschiedlichen Bedeutungen dieses Begriffs in der Informatik und verknüpfen diese mit dem philosophischen Werk Luhmanns, der zwischen Vertrautheit, Zuversicht und Vertrauen unterscheidet. Diese Analyse führt zu mehreren nützlichen Unterscheidungen für die Diskussion von Vertrauensbeziehungen in Bezug auf die Informationstechnologie. Wir wenden unseren Rahmen auf die elektronische Stimmabgabe an und schlagen einige Hypothesen vor, die möglicherweise die reibungslose Einführung elektronischer Stimmgeräte in den Niederlanden Anfang der neunziger Jahre erklären können.;-;-;-;https://link.springer.com/chapter/10.1007/11755593_21 1b701752c4fbed8d5aaa6bcf13d8e3fc;de;;;5.2.;;;Gender-Ansatz zur Mehrzieloptimierung von Detektionssystemen mit Vorauswahl von Kriterien Es wird eine neue Idee zur Durchführung evolutionärer Berechnungen zur Lösung hochdimensionaler Mehrzieloptimierungsprobleme (MOO) vorgeschlagen. Die Angaben zu den einzelnen Geschlechtern werden übernommen. Diese Informationen werden aus der Fitness von Individuen gezogen und während des elterlichen Crossovers in den evolutionären Mehrzieloptimierungsprozessen (EMO) angewendet. Der Beitrag führt in die Prinzipien des Genetic-Gender-Ansatzes (GGA) ein und veranschaulicht seine Leistungsfähigkeit anhand von Beispielen multiobjektiver Optimierungsaufgaben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39881-0_13 7e91fe741210ee75b5527f14f7349b3d;de;;;5.2.;;;Nachweise für die Integration von Hörmerkmalen mit räumlich verteilten Elementen Neuere Hörforschungen mit sequentiell dargebotenen, räumlich fixierten Tönen haben Hinweise darauf gefunden, dass wie beim Sehen für simultane, räumlich verteilte Objekte Aufmerksamkeit für die Integration von Wahrnehmungsmerkmalen wichtig zu sein scheint, die die Identifizierung von Hörereignissen ermöglichen. Die vorliegende Untersuchung erweiterte diese Erkenntnisse auf Arrays von gleichzeitig dargebotenen, räumlich verteilten Musiktönen. In den primären Aufgaben mussten die Hörer nach bestimmten Cue-Konjunktionen von Werten für die Merkmale von Tonhöhe und Instrumentenklangfarbe suchen. Bei sekundären Aufgaben mussten die Hörer nach einem einzelnen Cued-Wert entweder der Tonhöhe oder des Timbre-Merkmals suchen. Bei den primären Aufgaben machten Zuhörer häufig Fehler beim Melden des Vorhandenseins oder Fehlens von Zielkonjunktionen. Die Wahrscheinlichkeitsmodellierung, die aus der Literatur zur visuellen Suche abgeleitet wurde, ergab, dass die Fehlerraten in den primären Aufgaben das relativ seltene Versagen bei der korrekten Identifizierung von Tonhöhen- oder Klangfarbenmerkmalen sowie die weit häufigere illusorische Verbindung von getrennt präsentierten Tonhöhen- und Klangfarbenmerkmalen widerspiegelten. Schätzungen der illusorischen Konjunktionsrate lagen zwischen 23% und 40%. Daher muss in der Audition ein Prozess vorhanden sein, der separat registrierte Funktionen integriert. Die Implikationen der Ergebnisse für die Verarbeitung isolierter Hörmerkmale sowie Hörereignisse, die durch Merkmalskonjunktionen definiert sind, werden diskutiert.;-;-;-;https://link.springer.com/article/10.3758/BF03212126 b93a350294ee94d8022535ab3a07d9e4;de;;;5.2.;;;Die harten Fragen des Lebens In der Seelsorge stehen der Praktiker und der Klient den schwierigsten menschlichen Problemen gegenüber. Oft kommt es zu einer authentischen Begegnung und anschließenden Verbindung mit dem eigenen grundlegenden Sein, wodurch ein direktes existentielles Wissen von „Was ist“ entsteht. Da es in diesem Prozess keine Anweisungen oder „Schritte“ in einem Protokoll gibt, ist es hilfreich für den Klienten, seine existenzielle Suche nach dem Sein als Übergangsritus neu zu formulieren, bestehend aus drei verschiedenen, aber nicht getrennten Phasen – der Trennung Phase, der Initiierungsphase und der Rückkehr- oder Integrationsphase. Ein solcher Prozess ermöglicht dem Einzelnen eine Verwirklichung dessen, was ist, durch seine eigenen Lebensumstände als eine sinnvolle Weiterentwicklung des spirituellen Wachstums.;-;-;-;https://link.springer.com/article/10.1023/A%3A1010322812616 755cf1a32bc6229abfad1152bdd20725;de;;;5.2.;;;Zur numerischen Lösung des linearen Komplementaritätsproblems Es wird das bekannte lineare Komplementaritätsproblem mit bestimmten Matrizen betrachtet. Es wird vorgeschlagen, es mit einem globalen Optimierungsalgorithmus zu lösen, bei dem eine der Grundstufen eine spezielle lokale Suche ist. Der vorgeschlagene globale Suchalgorithmus wird mit einer Vielzahl von zufällig generierten Problemen getestet, eine detaillierte Analyse des Computerexperiments wird gegeben.;-;-;-;https://link.springer.com/article/10.1134/S0965542509080041 b572789be749be70ee479871bbdc2ec5;de;;;4.2.;;;Zur Evolution des E-Government: Der Nutzerimperativ Dieses Papier konzentriert sich auf den Bedarf an mehr Forschung zur Nutzerbeteiligung und zur Untersuchung von Interessengruppen in E-Government-Initiativen. Eine Untersuchung bestehender Arbeiten ergab einen Mangel an Forschung zu diesen Themen. Mit der Weiterentwicklung des E-Government und der Reife der Benutzer kann der Wert ihrer Beiträge zunehmen. Das Papier diskutiert die Notwendigkeit und den potenziellen Nutzen dieses Ansatzes. Schließlich schlagen wir vor, die bestehende Stakeholder-Theorie auf ihre Anpassung an e-Government-Umgebungen zu untersuchen, um die komplexe Körperschaft der miteinander verbundenen Stakeholder abzubilden.;-;-;-;https://link.springer.com/chapter/10.1007/10929179_25 d3a5be476b03450ce68b12c3e58a8668;de;;;4.2.;;;Von Notationen zu Daten: Die digitale Transformation der klinischen Forschung Die Geschichte der klinischen Forschung geht dem Aufkommen des Computers voraus, obwohl Informatikkonzepte lange Zeit eine wichtige Rolle gespielt haben. Das Aufkommen der digitalen Signalverarbeitung bei physiologischen Messungen verstärkte die Kopplung an die Berechnung für die klinische Forschung. Das astronomische Wachstum der Rechenkapazität in den letzten 60 Jahren hat zum Umfang und zur Intensität der klinischen Analytik für Forschung und Praxis beigetragen. Dementsprechend hat dieser Anstieg der Rechenleistung klinische Protokolldesigns und analytische Strategien ermöglicht, die zuvor undurchführbar waren. Diese Faktoren haben die biologische Wissenschaft und die klinische Forschung in das große Wissenschaftszeitalter getrieben, mit einer entsprechenden Zunahme an miteinander verflochtenen Datenressourcen, Wissen und Argumentationsfähigkeit. Diese Veränderungen führen zu einer gesellschaftlichen Transformation der klinischen Forschung und unterstreichen die Bedeutung vergleichbarer und konsistenter Daten, die durch moderne Standards und Ontologien für Gesundheitsinformationsdaten ermöglicht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98779-8_2 fa1e3a10c7f96ae80e866e39cc8230c1;de;;;4.2.;;;Schattenbanken in Asien Die Region Asien ist aus Sicht der Schattenbankenbranche ein sehr interessantes Spielfeld. Es gibt nicht nur den chinesischen Schattenbankenmarkt mit seinen Besonderheiten, Produkten und Marktteilnehmern und mit seinen eigenen Besonderheiten und Feinheiten. Eindeutig getrieben von ihrem spezifischen wirtschaftspolitischen Kontext macht sie so ziemlich jede Woche Schlagzeilen. Dasselbe gilt für das indische Schattenbankensegment, das lange Zeit damit geschmückt wurde, der Wirtschaft in einer Zeit, in der die weitgehend staatlich geführte Bankenbranche große Teile der aufstrebenden indischen Wirtschaft nicht abdeckte, echte wirtschaftliche Vorteile zu bieten . Aber es gibt eine größere Vielfalt von Schattenbankenmärkten in der Region, zwei bedeutende internationale Finanzzentren (Singapur und Hongkong) und eine große Anzahl von Ländern in Zentralasien mit fast nicht existierenden Schattenbankenmärkten, die oft von seinen geschlossenen Volkswirtschaften angetrieben werden. politisch kontrollierter Bankensektor und Kapitalkontrollen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-34817-5_5 4c47e10349444c6c9d0aaf65a8ec6113;de;;;4.2.;;;Kinetik der kontinuierlichen mikrobiellen Kultur: Plug-Flow-, Chemostat-, Turbidostat- und Fed-Batch-Prinzipien Das Studium der kontinuierlichen Durchflusskultur hat viel zu unserem grundlegenden Wissen über die Wachstumskinetik, Struktur und Physiologie von Mikroorganismen beigetragen. Das Prinzip der kontinuierlichen Kultur stellt ein „offenes“ Kultursystem dar, wobei die Plug-Flow-Kultur und die Chemostat-Kultur als zwei Grundtypen, die Turbidostat-Kultur und die Fed-Batch-Kultur als Weiterentwicklungen des Chemostat-Prinzips angesehen werden können. Dieses Kapitel behandelt die Theorie dieser vier kontinuierlichen Kulturtypen und ihre Grundgleichungen werden beschrieben. Anwendungen der Durchlaufkultur in Forschung und Industrie werden aufgezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-0177-3_33 5ed490e38ed1bc1572b03e30f8d22156;de;;;5.2.;;;Kleine Nenner. I. Abbildung des Umfangs auf sich selbst Im ersten Teil der Arbeit wird gezeigt, dass analytische Abbildungen des Umfangs, die sich wenig von einer Rotation unterscheiden, deren Rotationszahl irrational ist und bestimmten arithmetischen Anforderungen genügt, durch eine analytische Substitution von Variablen in eine Rotation überführt werden können. Im zweiten Teil betrachten wir den Raum der Abbildungen des Umfangs auf sich selbst und den Platz, den Abbildungen verschiedener Art in diesem Raum einnehmen. Wir zeigen Anwendungen zur Untersuchung von Trajektorien auf dem Torus und zum Dirichlet-Problem für die Stringgleichung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01742-1_10 d44ec8de90f3a541229356a4075e1aea;de;;;4.2.;;;Methoden zur Ansammlung wissenschaftlicher Erkenntnisse für die Innovationsentwicklung der russischen Wirtschaft (Russische Stiftung für Grundlagenforschung) Die Autoren entwickelten Ansätze, um wissenschaftliche Ergebnisse auszuwählen, die das größte Potenzial für eine Kommerzialisierung aufweisen. In diesem Beitrag werden Kriterien zur Bewertung des Innovationspotenzials einer Organisation definiert, die Analyse der Arbeit von Forschern und Spezialisten für Projekte vorgestellt, die auf ein innovatives Produkt der Grundlagenforschung abzielen, und Vorschläge zu möglichen Versionen von Informationsgrundlagen gemacht mit technischer Dokumentation wissenschaftsintensiver Produkte.;-;-;-;https://link.springer.com/article/10.1134/S1075700709030101 b04dcb7239ba54c82e9e60958e75fa85;de;;;4.2.;;;Was heißt abstimmen? Es sei denn, Frauen in der größten Wählerschaft in Entwicklungsländern können echte Antworten auf die Frage „Was ist wählen?“ geben. für sich allein genommen ist das Frauenwahlrecht in allgemein demokratischer Weise bedeutungslos. Die Aufgabe der feministischen Intellektuellen besteht darin, zu verstehen, wie dies bewerkstelligt werden kann. Obwohl theoretisch und politisch inkorrekt, weil liberal und biopolitisch – dennoch ist „andere Volkskinder“ ein Slogan, der in der Wählerschaft von Elite zu Subalterne wandert und daher verwendet werden sollte. Da Gendering unser erstes Abstraktionsinstrument ist, sollte das Biopolitische strategisch als Waffe zur demokratischen Emanzipation eingesetzt werden. Geistesverändernde Arbeit im Stil der Geisteswissenschaften sollte statistische Berechnungen wie im Human Development Index ergänzen. Es muss daran erinnert werden, dass weltweit bewusstseinsverändernde Arbeit damit beginnt, den Willen zu sozialer Gerechtigkeit unter den Kindern der Welt zu fördern, unabhängig von Rasse, Klasse und Geschlecht. Tatsächlich muss die geschlechtsspezifische Staatsbürgerschaft auch als klassifiziert und rassisiert wahrgenommen werden.;-;-;-;https://link.springer.com/chapter/10.1057/978-1-137-51765-4_2 1b0fa3c87b03cd125c8777748f1c1601;de;;;5.2.;;;So finden Sie optimale Lösungen in großen Räumen mit Netzwerken von bioinspirierten Prozessoren Die Suche nach neuen effizienten und exakten heuristischen Optimierungsalgorithmen in großen Suchräumen bleibt derzeit ein offenes Problem. Der Suchraum vergrößert sich exponentiell mit der Problemgröße, so dass es unmöglich ist, eine Lösung durch eine bloße blinde Suche zu finden. Als geeignete Algorithmen zur Lösung komplexer Optimierungsprobleme in vielen verschiedenen Bereichen wurden mehrere von der Natur inspirierte heuristische Ansätze übernommen. Networks of Bio-inspired Processors (NBP) ist ein formaler Rahmen, der aus hochparallelen und verteilten Computermodellen besteht, die von der biologischen Evolution inspiriert und abstrahiert wurden. Aus theoretischer Sicht hat sich NBP allgemein als effiziente Lösung NP-vollständiger Probleme erwiesen. Das Ziel dieses Papiers ist es, die Ausdruckskraft von NBP zu erforschen, um harte Optimierungsprobleme mit einem großen Suchraum unter Verwendung massiv paralleler Architekturen zu lösen. Wir verwenden die grundlegenden Konzepte und Prinzipien einiger metaheuristischer Ansätze, um eine Erweiterung des NBP-Modells vorzuschlagen, die in der Lage ist, aktuelle Probleme im Bereich der Optimierung aus praktischer Sicht zu lösen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19258-1_3 6b5aeb85e2aeac985201b30c7a5bb5ea;de;;;5.2.;;;Die Untersuchung der Sterblichkeit Obwohl unser Wissen über die Lebenserwartung des Menschen die technische Grundlage jeder Lebensversicherung darstellt, wurden die Methoden der Sterblichkeitsuntersuchung in den meisten Lehrbüchern der Versicherungsmathematik nur zusammenfassend und theoretisch behandelt. Der vorliegende Beitrag wird Aktuaren daher eine Einführung in diese Methoden geben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-85611-2_2 d01c6e697c7b893da65ae17836cf59c6;de;;;4.2.;;;Das Fünf-Faktoren-Persönlichkeitsmodell mit einem Zirkumplex-Affektmodell in Beziehung setzen Dieses Kapitel untersucht die Beziehung zwischen dem Fünf-Faktoren-Modell der Persönlichkeit und dem momentanen Affekt in fünf Sprachen, basierend auf einer gepoolten Stichprobe von 2070 (;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-0763-5_5 f9407d7f1793726ec1b64868ce5727a8;de;;;4.2.;;;Mixed Methods for Mixed Reality: Avatar-Aktivitäten von Benutzern in virtuellen Welten verstehen Dieser Artikel untersucht die Verwendung gemischter Methoden zur Analyse der avatarbezogenen Aktivitäten von Benutzern in einer virtuellen Welt. Serverprotokolle zeichneten Aktivitäten auf Tastendruckebene von 595 Teilnehmern über einen Zeitraum von sechs Monaten auf Whyville.net, einer informellen wissenschaftlichen Website, auf. Die Teilnehmer füllten auch Umfragen aus und nahmen an Interviews zu ihren Erfahrungen teil. Darüber hinaus umfasste die Studie ethnografische Online-Beobachtungen von Whyville und Offline-Beobachtungen einer Untergruppe von 88 Benutzern im Klassenzimmer und außerschulischen Einrichtungen während ihrer Teilnahme. Eine Mixed-Methods-Analyse identifizierte einen großen Fokus der Benutzer auf das Aussehen und die Anpassung von Avataren, die für alle Benutzertypologien unverändert waren. Implikationen für den Einsatz von Mixed Methods in Online-Umgebungen werden im Hinblick auf drei in der Studie gelöste Herausforderungen diskutiert: (1) angemessene Reduktion der riesigen Datenmenge, (2) integrierte Analyse von Online- und Offline-Ereignissen und (3) Interaktionen zwischen qualitativen und quantitativen Daten.;-;-;-;https://link.springer.com/article/10.1007/s11423-007-9081-2 4d5f9938ac28f36386c63d91c97ce677;de;;;4.2.;;;MOOCs: Was motiviert die Produzenten und Teilnehmer? Innerhalb der aktuellen Bildungslandschaft haben Massively Open Online Courses (MOOCs) in kurzer Zeit ein großes Interesse und einen Hype geweckt. Es wurde behauptet, dass diese offenen Kurse nur ein Vorspiel für die Störung sind, die traditionelle Hochschuleinrichtungen durch das Wachstum der Online-Bildung erfahren werden. In der Zwischenzeit investieren Institutionen immer bedeutendere Investitionen in die Produktion von MOOCs, und die Lernenden melden sich begeistert in großer Zahl an, oft in Zehntausenden. Die vorgelegte Analyse identifiziert ein Spektrum motivierender Faktoren für Universitäten und schlägt wahrscheinliche Bereiche für zukünftige Aufmerksamkeit und Entwicklungen vor. Darüber hinaus werden eine Reihe von Motivationen für die Teilnahme von Lernenden identifiziert, die in den Kulturen möglicherweise nicht identisch sind und die MOOC-Anbieter möglicherweise berücksichtigen möchten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25768-6_7 9165895af2a4d87b44a9a65f6b5e74f3;de;;;4.2.;;;Die wahrgenommene Intensität emotionaler Point-Light-Anzeigen ist bei Probanden mit ASD . reduziert Ein Hauptmerkmal der Autismus-Spektrum-Störung (ASS) sind Probleme mit der sozialen Interaktion und Kommunikation. Die vorliegende Studie untersuchte ASS-bedingte Veränderungen in der Wahrnehmung von Emotionen, die durch Körperbewegungen ausgedrückt werden. 16 Teilnehmer mit ASS und 16 gesunde Kontrollpersonen beobachteten Videoszenen menschlicher Interaktionen, die durch Point-Light-Displays vermittelt wurden. Sie bewerteten die Wertigkeit der dargestellten Emotionen hinsichtlich ihrer Intensität und beurteilten ihr Vertrauen in ihre Bewertungen. Die Ergebnisse zeigten, dass gesunde Teilnehmer emotionale Interaktionen mit positiver Emotionalität als intensiver einschätzten und selbstbewusster waren als ASS-Patienten. Die Ergebnisse unterstützen die Idee, dass Patienten mit ASS eine veränderte Wahrnehmung von Emotionen haben. Dies erweitert die Forschung zu subjektiven Merkmalen (Intensität, Vertrauen) der Emotionswahrnehmung auf den Bereich emotionaler Körperbewegungen und -kinematiken.;-;-;-;https://link.springer.com/article/10.1007/s10803-017-3286-y f0ddd13d2ad24df2d7c530476a195c3b;de;;;4.2.;;;Kann die irreguläre Migrantin sprechen? Dieses Kapitel bietet eine anthropologische Perspektive darauf, wie der öffentliche Raum und die politische Mobilisierung vergeschlechtlicht und rassisiert werden. Anhand einer Feldforschung mit einer Gruppe äthiopischer irregulärer Migranten, die in der Öffentlichkeit gegen die norwegische Regierung demonstrierten, wird darauf aufmerksam gemacht, wie Repräsentationen, Stimmen und Handlungsrahmen durch den nationalstaatlichen Kontext geprägt werden, in dem die Migranten mobilisieren. Sie fragt nach den Möglichkeiten und Grenzen, die eigenen Ansprüche als Nicht-Staatsbürgerin und sich selbst als bestimmtes politisches Subjekt zu vertreten.;-;-;-;https://link.springer.com/chapter/10.1057/978-1-137-51765-4_11 cd87320142a16769716c666da93d41c6;de;;;4.2.;;;Politische Bildung: Themen für Lehrende und Lernende Obwohl es Ausnahmen gab (z. B. Heater, 1984), wurde für Mehrheiten vor etwa Mitte der 1970er Jahre, wenn überhaupt, keine explizite politische Bildung für notwendig erachtet (Entwistle, 1973, Batho, 1990, Davies, 1999). Danach wurden jedoch zwei Versuche unternommen, politische Bildung umzusetzen: in den 1970er Jahren mit dem Program for Political Literacy und neuerdings in Form des Crick-Berichts (Advisory Group on Citizenship, 1998), der zum Thema National Curriculum führte seit August 2002 die Staatsbürgerschaft an Sekundarschulen in England obligatorisch (QCA/DfEE, 2000).;-;-;-;https://link.springer.com/chapter/10.1057/9780230522879_11 889f90cc1d56c25b162366dff8f2879b;de;;;5.2.;;;Die Rechtsprechung des EuGH nach der Vorentscheidung zur privaten Durchsetzung des EU-Wettbewerbsrechts Die Rechtsprechung des Gerichtshofs der Europäischen Union zur privaten Durchsetzung des EU-Wettbewerbsrechts wird untersucht, um die Entwicklungen zu diesem Thema bis zum Erlass spezifischer Rechtsinstrumente wie der Richtlinie 2014/104/EU zu erläutern. In diesem Zusammenhang werden einige Leitfälle analysiert, insbesondere solche, die zu einer weiteren Ausarbeitung der Rechtsprechung oder Lehre als entscheidende Urteile geführt haben;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-90905-9_4 09bb959dcd3930e1f7c95938c90383d5;de;;;4.2.;;;Kann ich leben? Wahrnehmung von Risiken, Sicherheit und Privatsphäre von College-Studenten in Online-Bereichen Diese Studie untersucht die Wahrnehmung von Risiken, Sicherheit und Privatsphäre von US-amerikanischen College-Studenten in Online-Bereichen und die von Studenten verwendeten Strategien zum Umgang mit Online-Risiken. Einundzwanzig Studenten nahmen an ausführlichen Interviews teil und teilten ihre Erfahrungen mit Online-Räumen und ihre Wahrnehmung von Cyber-Bedrohungen. Unsere Ergebnisse deuten darauf hin, dass die Cybersicherheitsbedenken der Schüler hauptsächlich durch Routineisierung und Ritualisierung von Risiken, optimistische Voreingenommenheit und Selbstwirksamkeit geprägt sind. Zu den gängigen Strategien zur Überwindung von Risiken gehören der Zugriff auf Quellen, die als glaubwürdig und vertrauenswürdig gelten, die Einschränkung des Informationsaustauschs und das Ausüben von erlernter Hilflosigkeit – oder hier als „Can-I-live-Syndrom“ bezeichnet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-28313-5_6 e86630b40e9b0e03849672022d3ff1da;de;;;4.2.;;;Überblick über das Notfallmanagement In den letzten Jahren haben sich weltweit eine Vielzahl unvorhergesehener Ereignisse nacheinander ereignet, die schwerwiegende Auswirkungen auf die soziale Ordnung und die Sicherheit von Leben und Eigentum der Menschen haben. Als solches ist es zu einem Thema von globalem Interesse geworden, die Notfallmanagementfähigkeiten zu verbessern, um solchen unvorhergesehenen Ereignissen zu begegnen. Vor diesem Hintergrund ist es unabdingbar, verschiedene gesellschaftliche Ressourcen zu mobilisieren, um das Auftreten und die Ausbreitung unvorhergesehener Ereignisse wirksam zu verhindern und zu kontrollieren und eine umfassende Forschung zum Notfallmanagement zu betreiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-5720-5_1 1d9487700c21f3e4b04a35cbec99534a;de;;;4.2.;;;Automatische Bewertung der Schreibfähigkeiten von Kindern basierend auf altersüberwachten Datensätzen In diesem Beitrag schlagen wir einen Ansatz zur Vorhersage des Alters der Autoren von narrativen Texten vor, die von Kindern zwischen 6 und 13 Jahren verfasst wurden. Die Merkmale des vorgeschlagenen Modells, die lexikalisch und syntaktisch (Teil der Sprache) sind, wurden normalisiert, um zu vermeiden, dass das Modell die Textlänge als Prädiktor verwendet. Darüber hinaus wurden die anfänglichen Merkmale mit n-Gramm-Darstellungen erweitert und mit maschinellen Lerntechniken für die Regression (z. B. SMOreg) kombiniert. Das vorgeschlagene Modell wurde mit Textsammlungen aus dem Internet in Spanisch, Französisch und Englisch getestet, wobei mittlere absolute Fehlerraten in der Altersvorhersageaufgabe von 1,40, 1,20 bzw. 1,72 Jahren ermittelt wurden. Schließlich diskutieren wir die Nützlichkeit dieses Modells, um Rankings von Dokumenten nach schriftlicher Kompetenz für jedes Alter zu erstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54903-8_47 4a8fddb4afd94443874bcf84052583c8;de;;;4.2.;;;Die argumentativen Lasten von Publikumsvermutungen: Publikumsforschung in der Populärkulturkritik (Reprint) Dieses Kapitel ist eine Neuauflage mit einer neuen Einführung eines klassischen Textes von 1998 über Behauptungen über spezifische Auswirkungen auf das Publikum oder Behauptungen, die die bestimmte Bedeutung eines Textes für das Publikum beschreiben. Das Kapitel stellt fest, dass diese „Publikumsvermutungen“ von rhetorischen Kritikern populärer Kulturtexte ohne ausreichende Beweise vorgebracht werden. Die These ist, dass Kritiker diese Behauptungen mit einer Publikumsforschung untermauern sollten, wenn Kritiker Behauptungen bezüglich der bestimmten Bedeutungen des Textes oder der Auswirkungen dieser Texte auf das Publikum aufstellen. Das Kapitel schließt mit drei theoretischen Überlegungen: dass Formulierungen im wissenschaftlichen Schreiben wichtig sind, dass die Grenzen zwischen sozialwissenschaftlicher und geisteswissenschaftlicher Forschung verwischt werden sollten und dass Publikumsforschung die Verbindungen zwischen Rhetorik und Kulturwissenschaften verstärkt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-61618-6_2 ee3fa7642021f010c14a09659ce6e410;de;;;4.2.;;;Informationstechnologien in der G2C-Kommunikation: Cybersocial Trust Survey In diesem Beitrag werden die Ergebnisse einer Umfrage zum Vertrauen der Bürger von Sankt Petersburg in Informationstechnologien vorgestellt. Die Forschung wurde auf der Grundlage der Ideen der Akteursnetzwerktheorie und des Social Construction of Technology (SCOT)-Ansatzes durchgeführt. 600 Befragte nahmen an der Umfrage teil (Stichprobenfehler nicht über 4%, Vertrauensniveau von 95%). Die vorgeschlagene Forschung schlägt einen Ansatz zur Untersuchung des cybersozialen Vertrauens im Bereich der G2C-Kommunikation vor, der in der E-Government-Entwicklung, der Bereitstellung von Online-Diensten und der E-Partizipation im Stadtmanagement gefunden wird. Der Fragebogen enthielt die Parameter für die Bewertung des Vertrauens in neue Technologien, die zur Kommunikation mit Regierungsvertretern und zur Inanspruchnahme öffentlicher Dienstleistungen, zur Lösung städtischer Probleme und zur Beteiligung am Stadtmanagement verwendet werden. Die Umfrageergebnisse zeigten eine hohe Internetnutzung sowie ein erhöhtes Vertrauen in Finanztransaktionen über das Internet. Das Vertrauen der Bürger, öffentliche Dienste online zu stellen, erreichte 45%, elektronische Anträge stellen – 41%, Arbeiten mit e-Petitionen – 38%, Kommunikation mit Behörden über soziale Netzwerke – 15%. Laut unseren Forschungsergebnissen betrachten die Bürger von St. Petersburg persönliche Besuche bei Behörden als effektiveren Weg, um städtische Probleme zu lösen (19%), während der Prozentsatz der Bürger, die an die Wirksamkeit der Internetportale glauben, unbedeutend bleibt (5%). .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37858-5_9 3c2637e2523258046709559f86c5359d;de;;;4.2.;;;Peritonealdialyse bei Kindern Als dieses Kapitel für die zweite Auflage der Peritonealdialyse vor fast vier Jahren vorbereitet wurde, erwachte für die pädiatrischen Nephrologen gerade eine neue Ära in der Behandlung von Säuglingen und Kindern mit chronischem Nierenversagen. Der Entdeckung der kontinuierlichen ambulanten Peritonealdialyse (CAPD) im Jahr 1976 durch Popovich und Moncrief und ihre Mitarbeiter [1] folgte eine „Renaissance“ des Interesses an dieser ehrwürdigsten Nierenersatztherapie. Pädiatrische Nephrologen erkannten schnell die potenziellen Vorteile, die CAPD ihren jungen Patienten bietet, möglicherweise auch deshalb, weil die Peritonealdialyse eine vertraute Methode war. Seit fast dreißig Jahren wird die Peritonealdialyse weithin als Dialysebehandlung der Wahl bei akutem Nierenversagen bei Säuglingen und Kleinkindern angesehen, vor allem weil die Technik an sich einfach, sicher und leicht an die Anwendung bei Patienten jeden Alters und jeder Größe angepasst werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-1085-0_17 599e31b36060dc8fa5379b7bce1458b5;de;;;4.2.;;;Abschließende Bemerkungen und Empfehlungen Es besteht ein offensichtlicher Bedarf, die kritische europäische Elektrizitätsinfrastruktur zu sichern. Unsere Analyse des ECEI-Systems und seines dynamischen Verhaltens führte unweigerlich zu dem Schluss, dass die Zuverlässigkeit und Qualität der Stromdienstleistungen für den europäischen Bürger nicht ausreichend gesichert ist, wenn alle Akteure ihre Aktivitäten auf Teilsystemebene auf die „alte Art“ ausführen dürfen. der Zeit vor der Liberalisierung. Der festgestellte Mangel an Versorgungssicherheit gilt sowohl für die kurzfristige als auch für die langfristige Sicherheit der Stromdienstleistung. Für diese Schlussfolgerung gibt es mehrere Gründe: Die entstehende European Critical Electricity Infrastructure (ECEI) – einschließlich des europäischen Strommarkts – ist ein grundlegend anderes Konstrukt als die alte Situation der nationalen Verbundnetze. Auch wenn die letztgenannte Situation in Bezug auf den geografischen Umfang und Umfang mit der aktuellen FBBE vergleichbar zu sein scheint, ist die Komplexität der FBBE unvergleichlich, da sie weit über die physische Netzwerkkomplexität hinausgeht. Mit dem Liberalisierungsprozess sind viele neue Akteure auf das Spielfeld gekommen, neue Rollen wurden eingeführt, die Spielregeln haben sich geändert und ändern sich noch. Die Komplexität des Multi-Akteur-Netzwerks ist beispiellos und sein Verhalten ist höchst unvorhersehbar. Diese Unvorhersehbarkeit ist einerseits eine Folge der Vielzahl der beteiligten Akteure, unserer mangelnden Einsicht in ihre intentionalen Beziehungen, ihr strategisches Verhalten und ihr Lernverhalten. Andererseits unterliegt die Entwicklung des Multi-Akteur-Netzwerks und des sozioökonomischen Subsystems, in das es eingebettet ist, vielen Unsicherheiten in Bezug auf die Marktentwicklung und die sich entwickelnde Regulierung, technologische Innovation und institutionellen Wandel. Angesichts unserer mangelnden Erfahrung mit liberalisierten Strommärkten in Europa ist es offensichtlich, dass wir nicht alle Risiken identifizieren können, die durch die dynamischen Wechselwirkungen zwischen den physischen und sozioökonomischen Teilsystemen der frühkindlichen Bildung entstehen.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-4364-3_6 2b6e711863c5c14f57bc711b8776f7df;de;;;5.2.;;;Brownsche Bewegung in kleiner Zeit, Strassens iterierter Logarithmusn Wir wiederholen nun die oben durchgeführte Berechnung, nur handelt es sich diesmal um Wiener-Maßnahmen im Wegraum anstelle von Gauss-Maß auf der Geraden. Wir brauchen einige Vorbereitungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-8514-1_2 4e657f6521fcca26be7da8d6b974709f;de;;;4.2.;;;Darstellung elektronischer Zigaretten auf YouTube Trotz der wachsenden Zahl von Videos mit elektronischen Zigaretten wurde die Darstellung dieser Videos nicht untersucht. Dieses Papier präsentiert die ersten Überwachungsdaten von Videos zu elektronischen Zigaretten auf YouTube. Unsere Ergebnisse deuten darauf hin, dass die Zuschauer in erster Linie Inhalten ausgesetzt sind, die den Konsum dieser aufstrebenden Tabakprodukte fördern, und dass die Zuschauerzahlen global sind. Diese Studie zeigt, dass es von entscheidender Bedeutung ist, geeignete Gesundheitskampagnen zu entwickeln, um potenzielle Verbraucher über die Schäden im Zusammenhang mit dem Konsum elektronischer Zigaretten zu informieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39844-5_1 49495c1f4be4eb361bfe76ea9533d81a;de;;;4.2.;;;Der Einfluss des unbewussten Verhaltens des Lehrers auf das kollektive unbewusste Verhalten des Klassenzimmers Normalerweise können Lehrer das Verhalten ihrer Schüler im Klassenzimmer in hohem Maße bewusst steuern. Darüber hinaus gibt es jedoch unbewusste Verhaltensweisen der Lehrer, die sich auch auf das kollektive Verhalten ihrer Schüler auswirken. Um dieses Phänomen zu untersuchen, sammeln wir Daten von Mini-Videokameras, die an Brillen von Viertklässlern angebracht sind. Wir haben festgestellt, dass der Anteil der Szenen, bei denen der Lehrer seinen Körper auf den Schüler zeigt, höher ist als der Anteil der Szenen mit gegenseitigem Blick, und dass dieser Effekt im MINT-Unterricht leicht ausgeprägt ist. Wir haben auch festgestellt, dass dieser Effekt bei Jungen stärker ist als bei Mädchen, und dies ist insbesondere in bestimmten Entfernungen sichtbar. Genauer gesagt stellten wir fest, dass im MINT-Unterricht, wenn ein männlicher Schüler den Lehrer beobachtet, der Lehrer im Allgemeinen seinen Körper auf den Schüler richtet (67 % der Fälle). Bei den weiblichen Studierenden sind es jedoch nur 46 %. In Nicht-MINT-Klassen gibt es jedoch keinen solchen Unterschied. Darüber hinaus hat auch die Distanz zwischen Schüler und Lehrer einen signifikanten Einfluss. Dies ist ein leistungsstarkes Werkzeug für Lehrer, da es ihnen helfen kann, ihre Strategien sowie die Auswirkungen ihres unbewussten nonverbalen Verhaltens auf das Klassenverhalten zu reflektieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63119-2_43 727d03b48dadacdecf94fd6c86355d97;de;;;4.2.;;;Die Wahrnehmung der Schwerkraft und der Winkelbeschleunigung bei Wirbellosen Nicht nur die wissenschaftliche Neugier lässt die Physiologen als Versuchsobjekte auf niedere Tiere zurückgreifen, sie haben oft genug hervorragende Vorbereitungen für die Analyse von Mechanismen geliefert, die bei Wirbeltieren, wenn überhaupt, nur schwer zu bewältigen waren. Darüber hinaus meinen die meisten Biologen, dass sie ein bestimmtes Organ und seine Funktion nicht vollständig verstehen, wenn sie nicht wissen, wie es sich in der Evolution entwickelt hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-65942-3_2 e1c4c68982fa0999806abc3b2a1b5d5b;de;;;5.2.;;;Bewerten Sie monotone Planbarkeitstests mit zeitraumabhängigen Bedingungen Durchführbarkeits- und Planbarkeitsprobleme haben in den letzten Jahrzehnten von der Gemeinschaft der Echtzeitsystemforschung erhebliche Aufmerksamkeit erhalten. Seit der Veröffentlichung der Liu- und Layland-Grenze haben viele Forscher versucht, die Planbarkeitsgrenze des RM-Schedulings zu verbessern. Die LL-Grenze macht keine Annahme über die Beziehung zwischen den Aufgabenperioden. In dieser Arbeit betrachten wir die relativen Periodenverhältnisse in einem System. Durch Verringern der Differenz zwischen dem kleinsten und dem zweitgrößten virtuellen Periodenwert in einem System können wir zeigen, dass die RM-Schedulability-Grenze signifikant verbessert werden kann. Diese Forschung hat auch eine Systemdesignmethodik vorgeschlagen, um die Planbarkeit von Echtzeitsystemen mit einer festen Systemlast zu verbessern.;-;-;-;https://link.springer.com/article/10.1007/s11241-007-9034-1 a2f332f0c000fe00fe58dcc597700df3;de;;;5.2.;;;Äquatoriale Dynamik der Thermokline: Die äquatoriale Unterströmung Der Coriolis-Parameter verschwindet am Äquator, was die Dynamik der äquatorialen Zone von der ozeanischen Dynamik in höheren Breiten unterscheidet. Obwohl die Coriolis-Beschleunigung aufgrund der Tangentialkomponente des Erdrotationsvektors am Äquator von 0 verschieden bleibt, ist ihre Wirkung für die in diesem Kapitel betrachteten großen Bewegungsskalen vernachlässigbar. Während der horizontale Druckgradient außerhalb der tropischen Zone durch die Coriolis-Beschleunigung ausgeglichen wird, lässt seine Abwesenheit am Äquator den Druckgradienten frei, um große relative Beschleunigungen zu erzeugen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-03204-6_6 6a48543144fe2ed5659acdd6d2371541;de;;;4.2.;;;Die Niederlage der Reformbewegungen Ab Sommer 1920 entwickelte sich die Wirtschaftskrise allmählich zu einer politischen Krise des Regimes. Der Streit innerhalb der Partei wurde von Bauernaufständen und Arbeiterprotesten begleitet, die in den Kronstädter Ereignissen vom März 1921 gipfelten. Die Atmosphäre, so ein Beobachter, war „von Protest durchdrungen“. Wahlen hätten die Bolschewiki von der Macht gefegt. Die Nahrungsmittelknappheit wurde durch die Desorganisation der Eisenbahnen verschärft, und eine Dürre verdarb nicht nur einen Großteil der Ernte, sondern machte auch das Trinkwasser in Moskau unsicher. Brände in den Torfabbaugebieten und Wäldern verringerten die Brennstoffversorgung und erstickten die Stadt mehrere Wochen lang in einer Rauchwolke, sehr zum Leidwesen der Delegierten des II. Kongresses der III. Internationale im Juli. Im September setzte die Kälte früher als üblich ein. Um die Schwierigkeiten zu verschlimmern, gab es Gerüchte, dass die Regierung plante, die Märkte zu schließen und die Spuren des Freihandels auszurotten.2 Kurz gesagt, die Zeit war vom Zusammenbruch der kommunistischen Kriegswirtschaft geprägt.3 Die Manifestationen der Unzufriedenheit wurden erleichtert durch die Tatsache, dass die unmittelbare Bedrohung einer weißen Restauration gebannt war, während die Hoffnungen auf eine bevorstehende sozialistische Revolution im Weltmaßstab zurückgegangen waren und damit die Aussichten auf Hilfe von außen, um die allzu offensichtliche Verfallsspirale der Industrie zu stoppen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-19272-4_8 5cc611b5a8d766f18231d9a4ad6a06a8;de;;;4.2.;;;Brücken schlagen: Raumplanung mit Landnutzungswissenschaft und Politischer Ökologie verbinden In diesem Kapitel werden Konzept und Prinzipien der ökologischen Rationalität im Hinblick auf Planungstheorie und -praxis genauer untersucht. Wir diskutieren die inhärente Unfähigkeit gegenwärtiger Entscheidungssysteme im Allgemeinen und Planungssysteme im Besonderen, komplexe ökologische Probleme effektiv anzugehen. Um dies anzugehen und die Planung unter dem Paradigma der ökologischen Rationalität neu zu definieren, schlagen wir eine tiefere gegenseitige Befruchtung zwischen Planung und zwei verwandten Disziplinen vor: Landnutzungswissenschaft und Politische Ökologie. Wir veranschaulichen und diskutieren die wichtigsten Prinzipien und Konzepte dieser Disziplinen und die möglichen Wechselwirkungen mit der Raumplanungstheorie. Wir diskutieren auch Potenziale und Grenzen der Landschaftsökologie und stellen mögliche neue Forschungsrichtungen zur gegenseitigen Erweiterung dieser verschiedenen Disziplinen in Richtung eines ganzheitlichen konzeptionellen Rahmens vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-33027-9_3 92b0df7db8ae540caa6dd2293d14886d;de;;;4.2.;;;Battle in Twitter: Vergleichende Analyse des politischen Online-Diskurses (Fälle Macron, Trump, Putin und Medvedev) Diese Fallstudie ist ein Beispiel für interdisziplinäre Forschung, die die sprachlichen Aspekte mit der Untersuchung des öffentlichen politischen Diskurses in sozialen Medien verbindet. Der Zweck der Studie besteht darin, herauszufinden, wie „Realismus“-Begriffe und nationale/globale Agenda im Twitter-Diskurs von Staats- und Regierungschefs von Ländern repräsentiert werden, die heute behaupten, globale Mächte zu sein. Offensichtlich ist es unmöglich, ohne Teilnahme an globalen Diskussionen (einschließlich des Einflusses auf die öffentliche Meinung in Twitter) einen hohen Status in der modernen Welt zu beanspruchen. Wir erheben Daten aus offiziellen Konten des US-Präsidenten Donald Trump, des französischen Präsidenten Emmanuel Macron, des russischen Präsidenten Wladimir Putin und des russischen Premierministers Dmitri Medwedew. Dann schlagen wir eine von uns entwickelte Forschungsmethode vor, die 5 Stufen umfasst. Die Hauptmethode der Forschung ist die traditionelle Inhaltsanalyse, nicht nur selektiv (nach dieser oder jener Theorie), sondern auch an vorderster Front. Uns interessiert die Thematik (Schlüsselwortschatz), die die betrachteten Texte dominiert. Wir trennen die gleichen Textmengen (ca. 33 000 Wörter) im Inhalt der Twitter-Seiten von Trump, Macron, Putin und Medwedew. Dann quantifizieren wir die Wörter und identifizieren die Schlüsselkonzepte, die für politischen Realismus und politischen Idealismus spezifisch sind. Wir führen eine „frontale“ Gesamtanalyse aller am häufigsten verwendeten Konzepte durch. Wir nehmen eine quantitative Bewertung der Art der Verwendung der Schlüsselkonzepte der politischen Führer vor (diese Analysephase ist in mehrere Unterphasen unterteilt). Schließlich vergleichen wir die Häufigkeit der Verwendung von Konzepten durch die Führer des Westens und Russlands.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-13283-5_28 40e82025fb3934a1ac044b45104a077d;de;;;4.2.;;;Kohle und Wasser in der Wüste: Umweltgeologie der Erschließung von Kohleressourcen in der Nähe des Lake Powell, USA Der Bau des Glen Canyon Dam, der 1963 am Colorado River fertiggestellt wurde, schuf den Lake Powell, einen großen Stausee in den Canyonlands von Nord-Arizona und Süd-Utah, USA Lake Powell stellt eine leicht verfügbare Wasserversorgung für die Erschließung großer Kohlereviere der Kreidezeit im trockenen Colorado dar Provinz Plateau. Derzeit wird Kohle in den Navaho- und Hopi-Indianerreservaten in Black Mesa, Arizona, abgebaut und in einem Kraftwerk verbrannt, das durch das Wasser des Lake Powell gekühlt wird. Nordwestlich von Lake Powell und angrenzend an Lake Powell liegt das Kohlerevier Kaiparowits, das schätzungsweise 40 Milliarden Tonnen Kohle enthält, die von subbituminösem C bis hochflüchtigem bituminösem A reichen. Mündungskraftwerke, die das Wasser des Lake Powell als Kühlmittel verwenden und Strom an Metropolen im Südwesten der USA wie Los Angeles übertragen werden.;-;-;-;https://link.springer.com/article/10.1007/BF02634781 0b1b10bad64cb61059f59bb1ba5c3a26;de;;;4.2.;;;Auf dem Weg zu einer schnellen Vickrey-Preisgestaltung mit Constraint-Programmierung Die Wahrung der Wahrhaftigkeit von eigennützigen Agenten, die in einer Auktion gegeneinander bieten, kann rechenintensiv sein, wenn die Preise mithilfe des Vickrey-Clarke-Groves-Mechanismus (VCG) bestimmt werden. Dieser Mechanismus garantiert, dass die dominante Strategie jedes Agenten darin besteht, die Wahrheit zu sagen, erfordert jedoch eine Lösung;-;-;-;https://link.springer.com/article/10.1023/B%3AAIRE.0000036262.43475.22 86bde0a00e557f2511c2f6b43e90c5fd;de;;;5.2.;;;Der mehrstufige Gibbs-Sampler Nach zwei Kapiteln der Vorbereitung auf den Slice- bzw. zweistufigen Gibbs-Samplern sind wir nun bereit, uns das Gesamtbild für den Gibbs-Sampler vorzustellen. Das allgemeine Verfahren beschreiben wir in Abschnitt 10.1, dessen theoretische Eigenschaften weniger vollständig sind als für den zweistufigen Spezialfall (siehe Abschnitt 10.2): Der entscheidende Unterschied zwischen diesem Sampler und der hier betrachteten mehrstufigen Version besteht darin, dass die Interleaving-Struktur des zweistufige Kette überträgt sich nicht. Einige der Folgen der Verschachtelung sind die Tatsache, dass die einzelnen Unterketten auch Markov-Ketten sind und das Dualitätsprinzip und die Rao-Blackwellisierung in gewisser Allgemeinheit gelten. Nichts davon trifft hier im mehrstufigen Fall zu. Dennoch erfreut sich der mehrstufige Gibbs-Sampler über viele Optimalitätseigenschaften und kann dennoch als das Arbeitspferd der MCMC-Welt angesehen werden. Der Rest dieses Kapitels befasst sich mit Überlegungen zur Implementierung, viele davon im Zusammenhang mit der wichtigen Rolle des Gibbs-Samplers in der Bayes-Statistik.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-4145-2_10 80442afe30ac69e75e4d5d6afc784ca8;de;;;4.2.;;;Von der Peripherie zum Pol: China und Multilateralismus Chinas frühe Erfahrungen mit internationalen Institutionen des 20. Jahrhunderts riefen wenig Begeisterung für multilaterale Unternehmungen hervor. Das Versäumnis des Völkerbundes, die japanische Aggression in den frühen 1930er Jahren und ab 1937 einzudämmen, hat die chinesischen Erwartungen an die kollektive Sicherheit nicht untergraben, da man von vornherein wenig Vertrauen in die Zuverlässigkeit dieses Gremiums hatte. Der Versailler Vertrag hatte aus chinesischer Sicht Verletzungen der chinesischen Souveränität im Fall des ehemals deutschen Gebietes Shantung legitimiert. China wurde dennoch Mitglied der Liga. Die unerwartete Abwesenheit der USA schränkte dann jedoch die Hoffnungen, die die chinesischen Behörden möglicherweise in die Organisation gesetzt hatten, weiter ein.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-14119-7_6 a37a2b27413e87edfa87b049b9543b40;de;;;4.2.;;;Die grenzüberschreitende Beziehung, 1972-95 Die Einführung der Direkten Herrschaft läutete eine neue Ära in den grenzüberschreitenden Beziehungen zwischen Nordirland und der Republik Irland ein. Obwohl es als vorübergehende Maßnahme gedacht war (Kenny, 1986, S. 29), die die Grundlage für eine akzeptable dezentrale Regierung bildete (Bloomfield, 1986, S. 176), lieferte Direct Rule den Kontext für die irische/nordirische grenzüberschreitende Beziehung von seiner Einführung bis zum heutigen Tag. Seit 1972 wird die Regierung Nordirlands „weitgehend durch das Amt des Staatssekretärs geführt, der dem NIC (Northern Ireland Office) vorsteht (O’Leary und McGarry, 1993, S. 184). Der Außenminister stammt aus dem britischen Kabinett und war immer Abgeordneter einer der wichtigsten britischen Parteien, daher „entfernte die Auferlegung der Direkten Herrschaft im März 1972 alle Machtreste von der Mehrheitsgemeinschaft“ (Arthur 1986, S. 171) in Nordirland. Während die Umsetzung der Politik und die Politikberatung noch vom öffentlichen Dienst von Belfast durchgeführt wurden, war die Abschaffung der nordirischen Politik;-;-;-;https://link.springer.com/chapter/10.1057/9780230373532_4 419127973e6b1f0e8d807cc19e468b60;de;;;5.2.;;;Bürger von Weimar Grillparzer bemerkte einmal, dass die Ideen Hebbels von einer deutlich nationalistischen Ausrichtung dominiert worden seien, während er persönlich immer den rein menschlichen Standpunkt im Auge gehabt habe.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-3171-9_2 a15bcb3e4490ad78c3122a41cf628f8d;de;;;4.2.;;;Neuroevolution: Von Architekturen zum Lernen Künstliche neuronale Netze (KNN) werden auf viele reale Probleme angewendet, von der Musterklassifizierung bis zur Robotersteuerung. Um ein neuronales Netz für eine bestimmte Aufgabe zu entwerfen, müssen die Wahl einer Architektur (einschließlich der Wahl eines Neuronenmodells) und die Wahl eines Lernalgorithmus angegangen werden. Evolutionäre Suchmethoden können diese Probleme automatisch lösen. Neue Erkenntnisse sowohl in den Neurowissenschaften als auch in der Evolutionsbiologie haben in den letzten zehn Jahren zur Entwicklung immer leistungsfähigerer Techniken der Neuroevolution geführt. Dieser Beitrag gibt einen Überblick über die bekanntesten Methoden zur Entwicklung von KNN mit besonderem Fokus auf die jüngsten Fortschritte bei der Synthese von Lernarchitekturen.;-;-;-;https://link.springer.com/article/10.1007/s12065-007-0002-4 df32e656b984387cf1efa9a844143e3d;de;;;4.2.;;;Kontrolle der Schadstoffemissionen von Verbrennungsmotoren Die Luftverschmutzung durch Kraftfahrzeuge ist seit über 30 Jahren als Umweltgefährdung anerkannt. Die Natur des Problems wurde aus fast allen Blickwinkeln untersucht. Der Zusammenhang zwischen photochemischem Smog und den Bestandteilen von Motorabgasen wurde nachgewiesen. Es wurden Methoden zur Messung von Abgasen und atmosphärischen Schadstoffen entwickelt. Der Einfluss der Verkehrsdichte, des Fahrmodus und der Fahrzeugwartung wurde berücksichtigt. Lösungen wurden durch Veränderungen im Fahrzeugdesign, im Straßensystem und in den verwendeten Kraftstoffen gesucht. Potentielle neue Methoden zum Antrieb von Autos und neue Methoden des öffentlichen Verkehrs wurden evaluiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-6921-3_9 4cada874aa5825703b59210b1c166609;de;;;5.2.;;;Pflanzenstrategien zur Manipulation von Räuber-Beute-Interaktionen durch Allelochemikalien: Perspektiven für die Anwendung in der Schädlingsbekämpfung Um die Rolle von Allelochemikalien bei Räuber-Beute-Interaktionen zu verstehen, reicht es nicht aus, die Verhaltensreaktionen von Räuber und Beute zu untersuchen. Man sollte die Herkunft der Allelochemikalien aufklären und sich bewusst sein, dass sie sich auf einer anderen trophischen Ebene befinden können. Diese Aspekte werden für Räuber-Beute-Interaktionen im Allgemeinen überprüft und im Detail für die Interaktionen zwischen Raubmilben und pflanzenfressenden Milben dargestellt. Im letzteren System gibt es verhaltensmäßige und chemische Hinweise auf die Beteiligung der Wirtspflanze an der Produktion flüchtiger Allelochemikalien nach einer Schädigung durch die Pflanzenfresser mit der Folge, dass Raubtiere angezogen werden. Diese flüchtigen Stoffe beeinflussen nicht nur das Verhalten von Räubern, sondern auch das Verhalten der Beute und sogar die Attraktivität benachbarter Pflanzen für Räuber. Pflanzenfressende Milben breiten sich von Orten mit hohen Konzentrationen der flüchtigen Stoffe aus, und unbeschädigte Pflanzen ziehen mehr Feinde an, wenn sie zuvor flüchtigen Stoffen von befallenen Artgenossen ausgesetzt waren, anstatt von unbefallenen Pflanzen. Letzteres Phänomen kann durchaus ein Beispiel für eine Werk-zu-Werk-Kommunikation sein. Die Beteiligung der Wirtspflanze ist wahrscheinlich nicht auf das untersuchte Raubtier-Herbivore-Pflanzen-System beschränkt. Es kann durchaus weit verbreitet sein, da es aus evolutionärer Sicht sinnvoll ist. Wenn ja, sind die Aussichten für eine Anwendung in der Schädlingsbekämpfung weit offen. Diese werden diskutiert, und es wird der Schluss gezogen, dass der Pflanzenschutz in Zukunft Taktiken beinhalten sollte, bei denen der Mensch zu einem Verbündeten der Pflanzen in ihren Strategien wird, die Räuber-Beute-Interaktionen durch Allelochemikalien zu manipulieren.;-;-;-;https://link.springer.com/article/10.1007/BF00979614 dd49c83a2ed189a822f87b2a7434a75c;de;;;5.2.;;;Computational Intelligence-Technologien für das Produktdesign Kapitel 1 definiert Produktdesign als die durch Produktentwicklungstechnologie ermöglichte Umwandlung einer Marktchance in ein verkaufsfähiges Produkt. Diese Transformation ist ein komplexer Prozess, da sie auf verschiedene Domänen zurückgreift und zu diesen beiträgt. Außerdem ist es nicht gut formalisiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27476-3_2 4f35ce6c206ced764ba2c07f1ba6f79a;de;;;5.2.;;;Versorgung (1): Organisation der Produktion Bisher haben wir nur eine sehr ungefähre Erklärung dafür gegeben, wie das Angebot auf eine Preisänderung reagiert. Für die nächsten drei Kapitel besteht unsere Aufgabe darin, die Angebotskurve etwas genauer zu untersuchen. Wie bei der Nachfrage müssen wir in diesem Fall die Handlungen einzelner Personen untersuchen;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-21228-6_7 144de7a9058f21a9e81c5e083c0cdcb2;de;;;4.2.;;;Systemanalyse Ursachen und Gegenmaßnahmen von Umweltproblemen in China In diesem Beitrag analysieren wir die Ursachen für Umweltverschmutzung. Durch eine umfassende Analyse der Ursachen der Umweltverschmutzung erkennen wir die fünf Gründe für die Verschlechterung der Umweltqualität durch China. Anschließend schlagen wir Maßnahmen zur Lösung von Umweltproblemen vor. Diese Studien werden dazu beitragen, Chinas Umweltprobleme zu lösen. Es kann wichtig für die nachhaltige Entwicklung Chinas und der Welt sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23214-5_81 b9828b07a364c4dbeb84bece06d36a4d;de;;;4.2.;;;Die Fantasie umrüsten In den vorangegangenen Kapiteln habe ich versucht, die Transformation der Genetik als eine Gruppe komplexer konzeptioneller Verschiebungen zu analysieren, die von Bildern und Vorstellungskraft eingerahmt werden, und nicht als eine Abfolge wissenschaftlicher Entdeckungen. Populäre Bilder der Genetik werden weder von sozialen noch von professionellen Gruppen geschaffen, sondern entstehen aus der kontinuierlichen Interaktion zwischen diesen Gruppen im Bereich der Kultur. Um die Gestaltung und Umgestaltung von Bildern in populären Gengeschichten zu erkennen, schlug ich die Metapher des Theaters vor. Die Betrachtung der Genetik als Theater der Repräsentation ermöglichte es mir, drei analytische Schichten zu unterscheiden: die Schicht der Performance, also die Debatte, in der verschiedene Bilder der Genetik zur Schau gestellt werden, die Schicht der Produktion, die hilft zu verstehen, wie Berufsgruppen die Produktion von Bildern vermitteln, während Autorität und Verantwortung des anderen abzugrenzen und zu bestreiten, und der kulturelle Subtext, der den Hintergrund für verschiedene wechselnde Bilder und Imaginationen bildet. Diese Analyse half uns, den komplizierten Prozess der Wissensverbreitung zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1057/9780230372665_8 29a3aeaf8c68e9d3459263b794ce1f05;de;;;4.2.;;;Kommentare, Ideen und Vorschläge In ganz Kolumbien fanden sich in allen Anhörungen grundlegende Elemente, die für das Modell von wesentlicher Bedeutung waren. Dies sind Merkmale, die für den Erfolg des Verfahrens erforderlich waren und die in jedem Schlichtungsprogramm enthalten sein müssen. Die Themen wurden in acht Abschnitte unterteilt, die jedoch miteinander verbunden waren. Jedes Element war von den anderen abhängig.;-;-;-;https://link.springer.com/chapter/10.1057/9781137270856_9 0da937e09e2386af94dbdd0041b2deb2;de;;;5.2.;;;Qualität der Gesundheitsversorgung für Benachteiligte Literaturrecherchen weisen darauf hin, dass: (a) Unterschiede im Gesundheitszustand zwischen Benachteiligten und Nichtbenachteiligten bestehen bleiben, oft in hohem Maße, (b) Unterschiede im Gesamtumfang der erhaltenen Versorgung sind heute weniger auffällig als bisher, aber Standardisierung nach Grad der Bedarf zeigt messbare Diskrepanzen bei den Gesundheitsdiensten für Benachteiligte im Vergleich zu Nichtbenachteiligten, (;-;-;-;https://link.springer.com/article/10.1007/BF01319207 04f755805faf9df77229024ac05b2074;de;;;5.2.;;;Effektiver hybrider lehr- und lernbasierter Optimierungsalgorithmus zum Ausgleich von zweiseitigen Montagelinien mit mehreren Einschränkungen Aufgrund der NP-Härte des Problems des zweiseitigen Fließbandausgleichs (TALB) werden mehrere in realen Anwendungen vorhandene Nebenbedingungen weniger untersucht, insbesondere wenn eine Aufgabe mit mehreren Nebenbedingungen verbunden ist. In diesem Papier wird ein effektiver Hybridalgorithmus vorgeschlagen, um das TALB-Problem mit multiplen Beschränkungen (TALB-MC) anzugehen. Unter Berücksichtigung des diskreten Attributs von TALB-MC und des kontinuierlichen Attributs des Standardalgorithmus der lehren-lernbasierten Optimierung (TLBO) wird das Zufallsschlüsselverfahren in der Aufgabenpermutationsdarstellung eingesetzt, um die Lücke zwischen ihnen zu überbrücken. Anschließend wird ein spezieller Mechanismus zur Handhabung mehrerer Einschränkungen entwickelt. Im Mechanismus wird die Richtungsbeschränkung jeder Aufgabe durch die Richtungsprüfung und -einstellung sichergestellt. Die Zoneneinschränkungen und die Synchronismuseinschränkungen werden erfüllt, indem die versteckten Korrelationen zwischen den Einschränkungen herausgearbeitet werden. Die Positionsbeschränkung darf beim Decodieren bis zu einem gewissen Grad verletzt und in der Kostenfunktion bestraft werden. Schließlich wird mit dem TLBO, der nach dem globalen Optimum sucht, die variable Nachbarschaftssuche (VNS) weiter hybridisiert, um den lokalen Suchraum zu erweitern. Die experimentellen Ergebnisse zeigen, dass der vorgeschlagene Hybridalgorithmus den Late Acceptance Hill-Climbing-Algorithmus (LAHC) für TALB-MC in den meisten Fällen übertrifft, insbesondere bei großen Problemen mit mehreren Einschränkungen, und zeigt ein ausgewogenes Verhältnis zwischen Exploration und Exploitation. Diese Forschung schlägt einen effektiven und effizienten Algorithmus zur Lösung des TALB-MC-Problems durch Hybridisierung von TLBO und VNS vor.;-;-;-;https://link.springer.com/article/10.3901/CJME.2015.0630.084 484d63ac367f7ad512f515add77ed5a6;de;;;4.2.;;;Auf dem Weg zu durchdringender prädiktiver Analyse in der interaktiven Prävention und Rehabilitation für ältere Menschen Die Weltbevölkerung altert rapide und belastet die Gesundheitssysteme weltweit. In dieser Arbeit präsentieren wir einen konzeptionellen Rahmen, um die Forschungsgemeinschaft zu ermutigen, umfassendere und anpassungsfähigere IKT-Lösungen für die Prävention und Rehabilitation chronischer Erkrankungen im täglichen Leben der alternden Bevölkerung und über Gesundheitseinrichtungen hinaus zu entwickeln. Wir präsentieren zunächst einen Überblick über aktuelle internationale Standards in Bezug auf menschliche Funktionen und Behinderungen und wie chronische Erkrankungen im Alter miteinander verbunden sind. Anschließend beschreiben wir innovative Mobil- und Sensortechnologien, prädiktive Datenanalyse im Gesundheitswesen sowie spielbasierte Präventions- und Rehabilitationstechniken. Anschließend haben wir einen multidisziplinären Ansatz für die personalisierte Prävention und Rehabilitation chronischer Erkrankungen mit unauffälligen und allgegenwärtigen Sensoren, interaktiven Aktivitäten und prädiktiver Analytik entwickelt, der auch die Aufgaben von Gesundheitsforschern, Pflegepersonal und Anbietern erleichtert. Unser Vorschlag stellt eine konzeptionelle Grundlage für zukünftige Forschungen dar, in denen hinsichtlich der Standardisierung von Technologien und Gesundheitsterminologie sowie des Datenschutz- und Datenschutzrechts noch viel zu tun ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-69694-2_1 b464a7040aa7ad1da097ccdbbc3af42d;de;;;5.2.;;;Zielführung selbstvermeidender Random Walk mit Kreuzungsalgorithmus für das Problem des minimalen Belichtungspfades in drahtlosen Sensornetzwerken Um das Problem des minimalen Expositionspfads (MEP) in drahtlosen Sensornetzwerken effizienter zu lösen, schlägt diese Arbeit einen Algorithmus namens „target Guiding Self-avoiding Random Walk with Kreuzung“ (TGSARWI) vor, der das Verhalten einer Gruppe von Random Walkern nachahmt, die den Weg zu ihrem Ziele in einer fremden Gegend. Zielführungsleiter bewegen sich zufällige Wanderer in Richtung ihrer Endpunkte, während die Selbstvermeidung sie daran hindert, Umwege zu nehmen. Routenkreuzungen beschleunigen die Suche nach verbundenen Pfaden weiter. Der Dijkstra-Algorithmus (DA) wird angewendet, um das MEP-Problem in einem Teilnetzwerk zu lösen, das aus mehreren verbundenen Pfaden besteht, die von Wanderern erzeugt werden (genannt TGSARWI DA). Simulationen zeigen, dass die von TGSARWI DA gefundene Pfadexposition der von DA im globalen Netzwerk (Global DA) sehr nahe kommt, während der Zeitaufwand der Berechnung viel geringer ist. Im Vergleich zu bestehenden heuristischen Algorithmen wie dem Physarum-Optimierungsalgorithmus (POA) zeigt unser Algorithmus eine höhere Allgemeingültigkeit und Effizienz. Dieser Algorithmus weist auch eine gute Robustheit gegenüber Parameterschwankungen auf. Unser Algorithmus könnte für die Lösung des MEP-Problems in Bereichen mit großen oder hochdichten Sensoren sehr nützlich sein.;-;-;-;https://link.springer.com/article/10.1186/s13638-018-1032-6 068269ac2700c125f324f03ada4bb0ea;de;;;4.2.;;;Formative Bewertung der Recherchefähigkeiten für verantwortungsvolle Forschung und Innovation mit 3D-Virtual-Reality-Brille und Gesichtserkennung Diese explorative Studie untersucht die Erfahrungen und Ansichten von Studenten über 3D-Virtual-Reality-Brillen (3DVRG) und E-Authentifizierungssysteme. Die Autoren entwickelten die „Virtual Reality Classroom“ App, eine Open Educational Resource basierend auf 360 Fotos des renommierten „Bletchley Park“. Die Teilnehmer waren 2 Gruppen von Studenten aus Großbritannien und Brasilien, die diese App zu zweit mit einem 3DVRG im Klassenzimmer erforschten und auch eine formative Bewertungsaktivität mit dem TeSLA-Gesichtserkennungssystem absolvierten. Unsere Forschungsfrage konzentriert sich darauf, ob die Interaktionen der Studierenden durch das 3DVRG das Lernen und die Bewertung von Recherchefähigkeiten für verantwortungsvolle Forschung und Innovation (RRI) verbessern. Die Ergebnisse legten nahe, dass die Kombination aus authentischem Szenario, interaktiven Aufgaben und Bewertung im Kontext den Schülern half, neue Informationen zu erwerben und sich mit ihrem vorhandenen Wissen zu verbinden und die Recherchefähigkeiten gemeinsam zu üben. Diese Interaktionen verbesserten ihr Eintauchen, insbesondere für diejenigen, denen die Aktivitäten Spaß machten, da sie keine Reisekrankheit hatten. Es wurden drei Arten von Interaktionen zwischen den Studierenden identifiziert mit: dem virtuellen Raum (1), ihrem Peer (2) und dem Thema (3). Diese drei Interaktionen begünstigten die virtuelle, soziale und kognitive Präsenz der Schüler, was ihr erfahrungsbasiertes Lernen unterstützte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-25264-9_7 ff2f2ab01c8da54a56246810092a9772;de;;;4.2.;;;Service Design als transformativer Treiber für eine personenzentrierte Pflege im Gesundheitswesen Gesundheitssysteme auf der ganzen Welt suchen zunehmend nach einem Übergang zu personenzentrierten Versorgungsmodellen. Es ist jedoch nicht klar, wie dieser komplexe Übergang wirksam unterstützt werden kann. Hier fördern wir das Service-Design als Schlüsselfaktor, um diese Transformation zu katalysieren. In diesem Kapitel integrieren wir Literatur zu Service Design (SD) und personenzentrierter Pflege (PCC), um besser zu verstehen, wie ein SD-Ansatz beim Übergang zum PCC helfen kann. Dieses Kapitel, das aus der bestehenden Literatur synthetisiert wurde, bietet einen Rahmen für den Übergang vom biomedizinischen Modell zum PCC und beleuchtet die wichtigsten Veränderungen in vier Dimensionen: Kontexte, Rollen, Prozesse und Ergebnisse. Anschließend zeigen wir die Ausrichtung zwischen PCC und SD über diese Dimensionen hinweg und erläutern, wie SD mit Unterstützung spezifischer Methoden dazu beitragen kann, verwandte Veränderungen zu katalysieren. Auf diese Weise bietet dieses Kapitel einen Leitfaden für medizinisches Fachpersonal, das SD nutzen möchte, um die Transformation hin zu PCC zu unterstützen, und bildet eine Plattform für die zukünftige Forschung an der Schnittstelle von SD und PCC.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00749-2_1 4e362b475e40acdef16ccb9c7c739c91;de;;;4.2.;;;Zeichnen mit Geographie Es wird eine Methode vorgeschlagen, um Raumplaner beim Zeichnen mit „geografischen“ Randbedingungen zu unterstützen. Diese Beschränkungen beschränken grafische Objekte auf bestimmte Beziehungen, die nicht auf (euklidische) geometrische oder topologische beschränkt sind, sondern von der räumlichen Variation ausgewählter Bedingungen (z. B. Höhe und Vegetation) abhängen dürfen, die einen zugrunde liegenden geografischen Raum charakterisieren. Genau wie in bestehenden computergestützten Entwurfssystemen akzeptiert das Verfahren eine manuelle Änderung an einem grafischen Objekt oder einer Einschränkung und aktualisiert alle betroffenen grafischen Objekte entsprechend. Der Beitrag diskutiert, wie eine solche Methode motiviert ist und die grafische Bearbeitungsfähigkeit von Geoinformationssystemen verbessert, und identifiziert Schlüsselfragen für ihre Implementierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16787-9_19 cdc168b57bb485adbbc43397d3795b82;de;;;4.2.;;;Die Russische Akademie der Wissenschaften und die Sowjetische Akademie der Wissenschaften: Kontinuität oder Disjunktion? Obwohl die Russische Akademie noch nicht lange genug in Betrieb ist, um eine kategorische Aussage zu treffen, dass sie genauso handeln wird wie die Sowjetische Akademie, gibt es jetzt genügend Informationen, um die Feststellung zu rechtfertigen, dass sie sich in ihrer Struktur und ihren angegebenen Funktionen in keiner Weise von der sowjetischen unterscheidet Akademie, die es ersetzt. Obwohl es durchaus geschwächt worden sein könnte, durch einen Niedergang seines eigenen Ansehens und durch die Schwächung der Regierung, unter der es operiert, ist es unwahrscheinlich, dass es so geschwächt ist, dass es weder den Demokraten noch den einfachen Forschern erlaubt, weiterzumachen auf der einen Seite oder die neuen bürokratischen Regelungen auf der anderen Seite. Während die desolate Haushaltslage die Russische Akademie mit ziemlicher Sicherheit zu erheblichen Kürzungen ihrer Forschungsaktivitäten zwingen wird, wird sie weiterhin ein Gremium bürokratisch organisierter und erfahrener Wissenschaftsmanager sein und sich entsprechend verhalten. Wer glaubt, dass eine hohe Partizipation der Basis des Personals im Wissenschaftsmanagement unabdingbar ist, wird dies als Katastrophe für die russische Wissenschaft sehen. Wer glaubt, dass gerade in stressigen Zeiten bürokratisches Geschick und Erfahrung von großer Bedeutung sind, sieht darin eine Hoffnung auf Rettung.;-;-;-;https://link.springer.com/article/10.1007/BF01096573 fbe24d2d6b0b483dad6c8825c6cdeef0;de;;;5.2.;;;Aktion und Änderung in der Umschreibungslogik Nachdem wir präzisiert haben, was wir unter „das Rahmenproblem“ verstehen und was nicht, und einige neuere Ansätze diskutiert haben, fassen wir die Hauptmerkmale der Lösung zusammen, die die Umschreibungslogik bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1317-7_1 076b53777acd7689c7291ff0dd166f73;de;;;5.2.;;;Transportprozesse in achsensymmetrischen offenen Fallen Eine der am weitesten verbreiteten und zuverlässigsten Methoden zur Gewährleistung der magnetohydrodynamischen Stabilität in einem Plasma ist die Verwendung von axialsymmetrischen „Minimum-B“-Magnetfeldern. Dies war in der Tat das Stabilisierungsprinzip, das von MS Ioffe und Mitarbeitern in den frühen sechziger Jahren verwendet wurde [1] und später von der Livermore-Gruppe erfolgreich in einer Reihe von Experimenten mit zunehmender Komplexität angewendet wurde, die in dem sensationellen Erfolg mit dem 2XIIB . gipfelten Einbau [2]. Es wird derzeit in den meisten Fallen mit ambipolaren (Tandem-)Spiegeln verwendet [3–6]. Die Stabilisierung durch „durchschnittliches Minimum-B“ wird auch in mehreren Varianten von Multimirror-Traps verwendet (siehe [7]).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-1777-7_2 51f841dc1548a7b79dd85ae2e9a100d8;de;;;5.2.;;;Eskalationsvorhersage für Kundensupporttickets mithilfe von Feature Engineering Den Kunden zu verstehen und bei Laune zu halten ist ein zentraler Grundsatz des Requirements Engineering. Strategien zum Sammeln, Analysieren und Verhandeln von Anforderungen werden durch Bemühungen zur Verwaltung der Kundeneingaben nach der Bereitstellung von Produkten ergänzt. Für letztere sind Supporttickets der Schlüssel, damit Kunden ihre Probleme, Fehlerberichte und Funktionsanfragen einreichen können. Wenn Supportproblemen jedoch nicht genügend Aufmerksamkeit gewidmet wird, wird ihre Eskalation an das Management zeitaufwändig und teuer, insbesondere für große Organisationen, die Hunderte von Kunden und Tausende von Support-Tickets verwalten. Unsere Arbeit ist ein Schritt zur Vereinfachung der Arbeit von Support-Analysten und -Managern, insbesondere bei der Vorhersage des Risikos eskalierender Support-Tickets. In einer Feldstudie bei unserem großen Industriepartner IBM haben wir eine Design-Science-Forschungsmethodik verwendet, um den Supportprozess und die Daten zu charakterisieren, die IBM-Analysten beim Management von Eskalationen zur Verfügung stehen. In einer Design-Science-Methodik haben wir mithilfe von Feature Engineering unser Verständnis des Expertenwissens von Support-Analysten über ihre Kunden in Funktionen eines Support-Ticket-Modells übersetzt. Anschließend haben wir diese Funktionen in ein Modell für maschinelles Lernen implementiert, um Eskalationen von Supporttickets vorherzusagen. Wir haben unser Machine-Learning-Modell mit über 2,5 Millionen Support-Tickets und 10.000 Eskalationen trainiert und evaluiert, wodurch ein Rückruf von 87,36 % und eine Reduzierung des Arbeitsaufwands für Support-Analysten von 88,3 % erzielt wurden, die Support-Tickets mit Eskalationsrisiko identifizieren möchten. Weitere Vor-Ort-Evaluierungen durch ein von uns entwickeltes Prototyp-Tool zur Umsetzung unserer Machine-Learning-Techniken in der Praxis zeigten effizientere wöchentliche Support-Ticket-Management-Meetings. Schließlich haben wir zusätzlich zu diesen Forschungsbewertungsaktivitäten die Leistung unseres Support-Ticket-Modells mit der eines Modells verglichen, das ohne Feature-Engineering entwickelt wurde. Die Features des Support-Ticket-Modells übertrafen das nicht-Engineering-Modell. Die in dieser Studie erstellten Artefakte sollen als Ausgangspunkt für Organisationen dienen, die an der Vorhersage von Supportticket-Eskalationen interessiert sind, und für zukünftige Forscher, um darauf aufzubauen, um die Forschung zur Eskalationsvorhersage voranzutreiben.;-;-;-;https://link.springer.com/article/10.1007/s00766-018-0292-3 2394991216b4549eb352f05df1fa2065;de;;;5.2.;;;Personalisiertes Informationsdienstsystem basierend auf Multi-Agent Dieser Beitrag ist eine Übersicht über aktuelle Arbeiten im Bereich der Multiagenten zum Nutzen der Forschung zum personalisierten Informationsdienst. Entsprechend dem Mangel aktueller Suchmaschinen präsentiert dieses Papier ein Modell von persönlichen Informationsdiensten, das die Individualisierung und Intelligenz des Informationsabrufs entsprechend dem interessierten Wissen des Benutzers durch die Zusammenarbeit mehrerer Agenten realisieren kann. Dieses Papier gibt ein Arbeitsprinzip des Modells und diskutiert die abstrakte Technologie des Modells.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14880-4_85 204d1f64b7048550a77d5a03abeac107;de;;;4.2.;;;Roboter und Menschenwürde: Eine Betrachtung der Auswirkungen der Roboterpflege auf die Würde älterer Menschen Dieser Beitrag untersucht die Beziehung zwischen Würde und Roboterpflege für ältere Menschen. Er hebt die Besorgnis hervor, die oft über das Versäumnis geäußert wird, die Würde schutzbedürftiger älterer Menschen zu wahren, weist jedoch auf einige der widersprüchlichen Verwendungen des Wortes „Würde“ hin. Einige Autoren haben diese Widersprüche gelöst, indem sie unterschiedliche Würdegefühle identifiziert haben und die dem menschlichen Leben innewohnende unantastbare Würde anderen Formen von Würde gegenübergestellt haben, die in unterschiedlichem Maße vorhanden sein können. Der Capability Approach (CA) wird als eine andere, aber greifbare Darstellung dessen eingeführt, was es bedeutet, ein menschenwürdiges Leben zu führen. Es dient hier als Rahmen für die Bewertung der möglichen Auswirkungen von Altenpflegerobotern auf die Menschenwürde. Die CA ermöglicht die Identifizierung von Umständen, unter denen Roboter die Würde verbessern könnten, indem sie die Fähigkeiten erweitern, die gebrechlichen älteren Menschen zugänglich sind. Gleichzeitig ist es in seinem Rahmen auch möglich, Möglichkeiten zu identifizieren, in denen Roboter negative Auswirkungen haben könnten, indem sie älteren Menschen den Zugang zu wesentlichen Fähigkeiten erschweren. Es wird der Schluss gezogen, dass die CA einige Vorteile gegenüber anderen Darstellungen der Würde hat, dass jedoch weitere Arbeiten und empirische Studien erforderlich sind, um sie an die besonderen Umstände und Anliegen der Menschen im letzten Lebensabschnitt anzupassen.;-;-;-;https://link.springer.com/article/10.1007/s10676-014-9338-5 ea80526af98a032ca604272617232028;de;;;4.2.;;;Urbanes Umweltmanagement in Shanghai: Erfolge, Probleme und Perspektiven and Dieser Artikel beleuchtet kritisch die Entwicklung des städtischen Umweltmanagements in Shanghai seit 1978. Gegründet in einer postsozialistischen Übergangswirtschaft und geprägt von einem spektakulären Stadtumbauprozess, ist es dem aktuellen Umweltmanagementsystem von Shanghai gelungen, die große industrielle Umweltverschmutzung zu mildern und die städtischen Einrichtungen mit beispiellosen Tempo und Größe. Im Allgemeinen wurden jedoch Fragen der sozialen Gerechtigkeit und der Umweltgerechtigkeit nicht berücksichtigt. Basierend auf Haughtons Modellen der nachhaltigen Stadtentwicklung schlägt dieser Artikel vier Prioritäten und fünf Prinzipien im Rahmen eines Fair-Shares-Städte-Modells für das zukünftige Umweltmanagement von Shanghai vor und diskutiert kurz deren politische Implikationen und Umsetzungsfragen. Die Autoren argumentieren, dass Haughtons Ansatz für Shanghais Fall relevant ist, weil die Essenz seines Arguments – die multidimensionalen Gerechtigkeitsprinzipien – der Kern des Konzepts der nachhaltigen Entwicklung ist.;-;-;-;https://link.springer.com/article/10.1007/s00267-003-0155-6 d81b72b2a1e5badbff42372fda1a0dd5;de;;;4.2.;;;Partizipative Simulationsumgebung gumonji/Q: Ein von Agenten unterstütztes Netzwerkspiel Netzwerkspiele ziehen aufgrund ihrer hohen Visualisierungsleistung und Skalierbarkeit als Simulationsplattformen für soziale Experimente Aufmerksamkeit auf sich. Unser Ziel in dieser Studie ist die Entwicklung einer partizipativen Simulationsplattform für ein Netzwerkspiel. Im Gegensatz zu Nicht-Spieler-Charakteren (NPCs) in Netzwerkspielen sollten sich Agenten in einer partizipativen Multiagenten-basierten Simulation (PMAS) gemäß Verhaltensmodellen wie reale Menschen verhalten. Wir haben eine neuartige vernetzte partizipative Simulationsplattform namens . entwickelt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11161-7_29 5c7efa56a4b03068481d11d9d768ccbf;de;;;4.2.;;;„Können Sie das Problem beheben?“ Verwendung varianzbasierter Sensitivitätsanalyse, um den Eingaberaum eines agentenbasierten Modells der Landnutzungsänderung zu reduzieren Der wachsende Wissensschatz über agentenbasierte Modellierung (ABM) weist darauf hin, dass statistische und systematische Unsicherheiten die größten Hindernisse für die Entwicklung sparsamer Modelle darstellen. Um die ABM-Dimensionalität zu verringern, werden eine umfassende Unsicherheitsanalyse (UA) und Sensitivitätsanalyse (SA) verwendet, bei der die Eingabeunsicherheit mithilfe von Monte-Carlo-Simulationen durch das Modell propagiert wird, was zu Wahrscheinlichkeitsverteilungen (PDs) der Ausgaben führt. Die PDs werden unter Verwendung der Varianz weiter zusammengefasst – ein einfaches, aber prägnantes Maß für die Ergebnisvariabilität. Die Varianz wird mittels Dekomposition auf Modellinputs verteilt, um zu quantifizieren, welche davon und in welchem ​​Ausmaß die Variabilität der ABM-Ergebnisse beeinflussen. Die berechneten Sensitivitätsindizes stellen fraktionelle Beiträge jedes Inputs zur Outputvarianz dar. Um das Modell zu vereinfachen, können Eingaben mit niedrigen Empfindlichkeitswerten auf Konstanten (z. B. Mittelwert) gesetzt werden, wodurch der Eingaberaum des Modells effektiv verringert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-59511-5_6 bcbd10301e615e2dd368d68a8a8ea4f3;de;;;5.2.;;;Die Logik des schnellen und langsamen Denkens Wir präsentieren einen Rahmen für epistemische Logik, der die logischen Aspekte der kognitiven Prozesse von System 1 („schnell“) und System 2 („langsam“) gemäß dualer Prozesstheorien des Denkens modelliert. Das Framework kombiniert die Semantik der nicht-normalen Welten mit den Techniken der dynamischen epistemischen Logik. Es modelliert nicht-logisch-allwissende, aber mäßig rationale Agenten: Ihr System 1 erkennt eingehende Informationen schnell, indem es sie auf der Grundlage ihres Hintergrundwissens und ihrer Überzeugungen integriert. Ihr System 2 ermöglicht es ihnen, einige der logischen Konsequenzen solcher Kenntnisse und Überzeugungen langsam und schrittweise zu entschlüsseln, indem sie kognitive Kosten bezahlen. Der Rahmen wird auf drei Fälle begrenzter Rationalität angewendet, die in der kognitiven Psychologie weithin diskutiert werden: Stereotypes Denken, den Framing-Effekt und den Ankereffekt.;-;-;-;https://link.springer.com/article/10.1007/s10670-019-00128-z 3c50ace5cf22f763b63ee15c3f6a8acf;de;;;4.2.;;;Neuartige Entscheidungsmethode basierend auf bipolaren neutrosophischen Informationen 1998 betrachtete Smarandache das Konzept der neutrosophischen Menge ursprünglich aus philosophischer Sicht. Der Begriff einer einwertigen neutrosophischen Menge ist aus wissenschaftlicher und technischer Sicht eine Unterklasse der neutrosophischen Menge und eine Erweiterung der intuitionistischen Fuzzy-Mengen. Ein bipolarer einwertiger neutrosophischer Satz ist eine Erweiterung eines bipolaren Fuzzy-Satzes, der uns eine zusätzliche Möglichkeit bietet, Unsicherheit, ungenaue, unvollständige und inkonsistente Informationen in realen Situationen darzustellen. In diesem Forschungsartikel wenden wir das Konzept der bipolaren einwertigen neutrosophischen Sets auf Graphenstrukturen an und präsentieren einen neuartigen Rahmen für den Umgang mit bipolaren neutrosophischen Informationen durch die Kombination bipolarer neutrosophischer Sets mit Graphenstrukturen. Es werden mehrere grundlegende Begriffe zu bipolaren einwertigen neutrosophischen Graphenstrukturen eingeführt und einige verwandte Eigenschaften untersucht. Wir betrachten auch die Anwendungen bipolarer einwertiger neutrosophischer Graphenstrukturen bei der Entscheidungsfindung. Insbesondere werden effiziente Algorithmen entwickelt, um Entscheidungsprobleme hinsichtlich der Anerkennung der Beteiligung jedes Landes an seinen auffälligen Beziehungen, der Erkennung von psychischen Verbesserungen von Patienten in einer psychiatrischen Klinik und der Aufdeckung der verdeckten Gründe für den globalen Terrorismus zu lösen.;-;-;-;https://link.springer.com/article/10.1007/s00500-018-3552-8 9041314bc5ad7152b17a830bbcd165cc;de;;;4.2.;;;Netzwerkgüter (empirische Studien) Ein Netzwerkeffekt liegt vor, wenn der Konsumnutzen einer Ware oder Dienstleistung mit der Gesamtzahl der Konsumenten steigt, die kompatible Produkte kaufen. In der Literatur wird zwischen direkten und indirekten Netzwerkeffekten unterschieden.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-1-349-58802-2_1172 22749a4c5e4c659bda42637f1625ef71;de;;;5.2.;;;Strategiediskurs und Finanzdienstleistungen: Einstieg in die Unternehmensberater und die IT Unsere allgemeine Argumentation zur Strategie kann nun mit den vorherigen Kapiteln verknüpft werden. Wir haben gesehen, wie sich in den 1960er und 1970er Jahren das organisatorische Feld, das die Finanzdienstleistungen im Vereinigten Königreich prägte, aufzulösen begann. Akteure in Unternehmen begannen, unterstützt und getrieben von wichtigen externen Interessen wie Aktionären, der Regierung und Unternehmensberatungen, nach Wegen zu suchen, um zu verstehen, was vor sich ging, und dabei eine gewisse Kontrolle über ihre Zukunft auszuüben. In diesem Prozess begann sich das „Need for Strategy“ als zentraler Bestandteil ihres Transformationsprozesses abzuzeichnen. Sie begannen, diese neue Sprache zu artikulieren und ihre Wirkung herauszuarbeiten. Dabei blieben alte Praktiken und Sprachen auf der Strecke oder wurden strategisch rekonstruiert. Diese Prozesse waren keineswegs schmerzlos. Sie betrafen den Ausschluss bestimmter Organisationen und Einzelpersonen aus der Branche, die Neupositionierung von Unternehmen (was Auswirkungen auf den Status, die Entlohnung und die Karrieren der einzelnen Personen hatte) und die Rekonstruktion der Beziehungen zwischen den Unternehmen, dem Staat und den Verbrauchern (was Auswirkungen hatte). auf das finanzielle Wohlergehen von Millionen von Menschen). Diese Veränderungsprozesse waren weder glatt noch unidirektional;-;-;-;https://link.springer.com/chapter/10.1057/9780230800052_5 8701dbae084ebfdd8a13500e2c9d1442;de;;;5.2.;;;Ein Ansatz mit reduzierter variabler Nachbarschaftssuche für die Merkmalsauswahl bei der Krebsklassifikation In dieser Arbeit schlagen wir einen Algorithmus zur Suche nach reduzierten Variablen (RVNS) vor, um das Problem der Genselektion bei der Krebsklassifikation zu lösen. Als Suchverfahren wird RVNS verwendet, und erhaltene Gen-Teilmengen werden durch drei Lernalgorithmen bewertet, nämlich Support-Vektor-Maschine, k-nächste Nachbarn und Random Forest. Die Experimente werden an fünf öffentlich zugänglichen krebsbezogenen Datensätzen durchgeführt, die alle durch ein kleines Verhältnis von Stichprobengröße zu Dimensionalität gekennzeichnet sind. Da RVNS Gen-Untergruppen sucht, die genaue Vorhersagen für alle drei oben genannten Klassifikatoren liefern, können die erhaltenen Ergebnisse als zuverlässiger angesehen werden. Nach unserem besten Wissen ist die vorgeschlagene Methodik innovativ, da sie die Heuristik der rekursiven Merkmalseliminierung (RFE) mit einem RVNS-Algorithmus kombiniert. Trotz der großen Größe der Probleminstanzen konvergiert das vorgeschlagene Merkmalsauswahlschema im Vergleich zu ähnlichen Verfahren innerhalb einer angemessen kurzen Zeit. Die Ergebnisse zeigen eine hohe Leistung für RVNS, die weiter verbessert wird, wenn die RFE-Methode als Vorverarbeitungsschritt angewendet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-44932-2_1 a864f02c3e185e4a464ef7e0f992c10a;de;;;4.2.;;;Interne Blei- und Cadmiumexposition bei 6-jährigen Kindern aus West- und Ostdeutschland In einer großen epidemiologischen Studie in ländlichen und städtischen Gebieten Westdeutschlands (Duisburg, Essen, Gelsenkirchen, Dortmund, Borken) und Ostdeutschland (Leipzig, Halle, Magdeburg, Osterburg, Gardelegen, Salzwedel). Insgesamt wurden die Blutblei- und Cadmiumwerte von 2311 deutschen Kindern und die Zahnblei- und Cadmiumwerte von 790 deutschen Kindern analysiert. Die Blutbleispiegel waren in allen Untersuchungsgebieten generell niedrig mit geometrischen Mittelwerten zwischen 39,3 µg/1 und 50,8 µg/l in den westdeutschen und zwischen 42,3 µg/1 und 68,1 µg/l in den ostdeutschen Untersuchungsgebieten. Der mittlere Blutbleispiegel türkischer Kinder (;-;-;-;https://link.springer.com/article/10.1007/BF00454362 09884a9eacfe8750e57218643e9b37e8;de;;;4.2.;;;Einsatz alternativer / komplementärer Therapie bei Brustkrebspatientinnen – eine psychologische Perspektive Ziel dieser Studie war es, den zusätzlichen Einsatz alternativer (komplementärer) Therapien bei konventionell behandelten Patientinnen mit Brustkrebs zu beurteilen und Patientinnen mit alternativen Therapien mit Patientinnen mit rein konventioneller Therapie zu vergleichen, unter besonderer Berücksichtigung der psychischen Anpassung, der Kausalzuordnung und Lebensqualität. Eine Stichprobe von 117 ambulanten Patientinnen mit der Diagnose Brustkrebs füllte folgende Bewertungsinstrumente aus: FQCI (Freiburg Questionnaire for Coping with Illness), PUK (Causal Attribution Questionnaire), EORTC QLQ-C30 (European Organization for Research and Treatment of Cancer Quality of Life Questionnaire), POMS (Profile of Mood States) und ein selbstentwickelter Fragebogen zu alternativen Therapien. Fast die Hälfte der Patienten (47%,;-;-;-;https://link.springer.com/article/10.1007/s005200000208 44c73e75932d5e161f2af307d7b77fea;de;;;4.2.;;;Pre-Test-Analyse für erste Erfahrungen mit koreanischen E-Voting-Diensten Bei dieser Studie handelt es sich um eine Voruntersuchung, die vor der Einführung eines Abstimmungssystems durch das koreanische E-Government durchgeführt wurde. Der Zweck dieser empirischen Studie besteht darin, Forschungshypothesen basierend auf dem UTAUT-Modell von Venkatesh et al. und kausale Zusammenhänge zwischen definierten Einflussfaktoren auf die Nutzerakzeptanz für ein E-Voting-System nachzuweisen. In Korea sammelten wir, obwohl die tatsächlichen Benutzergruppen äußerst begrenzt waren, Daten von 116 Personen, die den Testbetrieb für dieses E-Voting-System erlebt hatten, und leiteten sowohl theoretische als auch praktische Vorschläge und Implikationen ab. Als Ergebnis dieser Studie werden unter Einbeziehung der neuen Variable „Ubiquität“ unter Berücksichtigung der spezifischen Charakteristika von Evoting die in diesem Forschungsmodell definierten Gesamtvariablen teilweise mittels empirischer Analyseverfahren auf die statistische Signifikanz untersucht. Die Ergebnisse dieser Forschung können die theoretische Grundlage und die politischen Implikationen liefern, die für die Planung der Entwicklungsländer zur zukünftigen Einführung von E-Voting erforderlich sind;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22309-9_33 c16c1e008a4ace839d847b829e14b044;de;;;5.2.;;;Medizinisierung und Biomedizin neu besucht: Technowissenschaften und Transformationen von Gesundheit, Krankheit und amerikanischer Medizin Die Medizinisierungstheorie steht seit fast 40 Jahren im Zentrum der Medizinsoziologie oder der Soziologie von Gesundheit und Krankheit (Zola 1972, Freidson 1970) und ist auch für die medizinische Anthropologie (Hogle 2002, Lock 2001, 2004), die Geschichte der Medizin ( Nye 2003, Sinding 2004), Medizin selbst (Chervenak und McCullough 2005), Bioethik (Bergeron 2007) und darüber hinaus. Die nach wie vor robuste These der Medikalisierung besagt, dass die legitime Zuständigkeit der westlichen oder wissenschaftlichen Medizin begann, sich auszudehnen, indem sie neue Bereiche des menschlichen Lebens (wie Alkoholismus, Drogensucht und Fettleibigkeit) einbezog, indem sie neu definiert oder rekonstruiert wurden, als sie richtig in sie fielen;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-7261-3_10 d4ca94415b0b72c923f5e284c663c9f0;de;;;4.2.;;;Untersuchung kulturbezogener Verhaltensaspekte für virtuelle Charaktere In diesem Beitrag werden kulturbezogene Verhaltensweisen auf mehreren Kommunikationskanälen für virtuelle Charaktere untersucht. Anhand einer Literaturrecherche sowie einer Korpusanalyse wurden am Beispiel der deutschen und japanischen Kultur prototypische Verhaltensweisen in Rechenmodellen formalisiert. Dabei wurden Aspekte des verbalen Verhaltens, des Kommunikationsmanagements und des nonverbalen Verhaltens berücksichtigt. In Evaluierungsstudien, die in den Zielkulturen durchgeführt wurden, wurde die Wirkung jedes Aspekts auf menschliche Beobachter getestet. Damit haben wir untersucht, für welche der Aspekte Beobachter ein Agentenverhalten bevorzugen, das auf den eigenen kulturellen Hintergrund abgestimmt ist.;-;-;-;https://link.springer.com/article/10.1007/s10458-012-9218-5 19e77a6ca55165200aefebe2230c25b1;de;;;5.2.;;;Textliche und musikalische Invarianten für die Suche und Klassifikation traditioneller Musik Das Ziel dieser Forschung ist festzustellen, ob Eigenschaften wie Tonalität, Modus, Metrum und Melodietitel zwischen verschiedenen Versionen derselben Melodie ähnlich bleiben. Eine Variabilität in einigen Funktionen erschwert das Klassifizieren und Suchen von Aufgaben. Als Analysegrundlage verwendet der Autor ein Korpus traditioneller Tanzmelodien auf Tonaufnahmen aus Mazedonien (Griechenland).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-05594-3_7 7d8f1745be91a5372f76ec5ca8b87c42;de;;;4.2.;;;Digitale Avatare für die Altenpflege Die kontinuierliche Zunahme der Lebenserwartung stellt die Gesundheitssysteme moderner Gesellschaften vor Herausforderungen, insbesondere im Hinblick auf ältere Menschen in ländlichen dünn besiedelten Gebieten, sowohl in Bezug auf Isolation als auch in Bezug auf den Zugang zu und die Kommunikation mit Gesundheitsdiensten. In diesem Papier gehen wir diese Probleme an, indem wir das Digital Avatars Framework auf Gerontechnology anwenden. Aufbauend auf unseren bisherigen Arbeiten zu Mobile und Social Computing, insbesondere dem People-as-a-Service-Modell, nutzen digitale Avatare intensiv die Fähigkeiten aktueller Smartphones, um Informationen über ihre Besitzer zu sammeln, und wenden Techniken der komplexen Ereignisverarbeitung an, die um Unsicherheit erweitert werden, um Rückschlüsse zu ziehen die Gewohnheiten und Vorlieben des Telefonbenutzers und erstellen mit ihnen ein virtuelles Profil. Diese virtuellen Profile ermöglichen es, das Wohlbefinden und die Lebensqualität älterer Erwachsener zu überwachen, an pharmakologische Behandlungen und häusliche Gesundheitstests zu erinnern und Warnungen auszulösen, wenn eine anomale Situation festgestellt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-41494-8_6 8b5fa1f366569be20e10f0fa436c2662;de;;;5.2.;;;Chronobiologie, Strahlenbiologie und Schritte zum Timing der Krebsbestrahlung Strahlentherapeuten und die meisten Strahlenbiologen betrachten den Organismus und seine Reaktionsfähigkeit, z. B. seine Strahlenempfindlichkeit, als eine mehr oder weniger konstante Einheit. Die Strahlentherapie wird daher aus praktischen Gründen nur während der „regulären“ Arbeitszeit an Wochentagen geplant. In den letzten Jahrzehnten hat sich jedoch eine quantitative Wissenschaft, die Chronobiologie, entwickelt. Diese Wissenschaft zeigt, dass der Wirt, der eine Malignität trägt, und einige Malignome selbst dynamische Einheiten sind. Menschliche und andere Wirte weisen wiederkehrende Veränderungen auf. Diese können durch inferenzstatistische Mittel bewertet werden. Somit wird eine Vielzahl von Bioperiodizitäten aufgedeckt. Ihre Häufigkeiten reichen von 1 Zyklus in weniger als 20 Stunden (Ultradian), über einen in etwa 24 Stunden (Circadiane) bis zu einem Zyklus in mehr als 28 Stunden (Infradian). Infradianer umfassen Veränderungen mit einer Häufigkeit von 1 Zyklus in etwa einer Woche (Circaseptans) oder in etwa einem Jahr (Circaseptans) sowie etwa 30-Tage-Zyklen (Circaseptans). Diese letztgenannten Zyklen finden sich bei Frauen mit Menstruationszyklus (aber auch Jahre vor der ersten und Jahrzehnte nach der letzten Menstruation), darüber hinaus finden sich auch bei Männern zirkatrigintane (66).;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-2536-6_19 aecef4487b71f9d8724991d97e7b126c;de;;;5.2.;;;Ein narrativer Ansatz zur Kinder- und Familientherapie in Afrika* Die professionelle Familientherapie in Afrika ist stark von Theorien und Prinzipien der westlichen Familienpraxis beeinflusst. Seine Praxisstruktur und Philosophien basieren jedoch auf afrikanischen Familienwerten und den Prinzipien und Orientierungen der traditionellen afrikanischen Psychologie. Dieses Papier präsentiert einen klinischen Bericht, der Anpassungen veranschaulicht, die wir vornehmen, um kompatible Aspekte der narrativen Familienpraxis in afrikanischen und westlichen Kulturen zu integrieren. Eine Zusammenfassung der afrikanischen Familienwerte und der Kinderpsychologie, die als Hintergrundperspektive gedacht ist, wird bereitgestellt. Das Papier ist vor dem Hintergrund des aktuellen Bedarfs bedeutsam, multikulturell relevante Heilmethoden zu schmieden, die gut zur globalisierten Natur der heutigen Welt passen.;-;-;-;https://link.springer.com/article/10.1007/s10591-006-9691-6 2ded7142b0cf1d2a41acffa81965bdf3;de;;;5.2.;;;Das Massaker Sant’Anna di Stazzema: eine Handvoll Häuser, die hier und da auf einem Amphitheater am Hang mit Blick auf das Meer verstreut sind, in einer Höhe von 600 bis 800 Metern. Genau genommen gibt es kein Dorf, keinen Platz, abgesehen von der Freifläche vor der Kirche, in der Nähe der Schule und des Lebensmittelladens. Obwohl die herrliche Aussicht auf die Tyrrhenische Küste ihr ein bemerkenswertes Gefühl von Offenheit verlieh, war Sant'Anna tatsächlich einer dieser Orte „weit der Welt“, die in der Toskana, den Apuanischen Alpen oder den Garfagnana. Zum Zeitpunkt der besprochenen Ereignisse waren die Armenhäuser von Sant’Anna nur zu Fuß, auf Pfaden oder Saumpfaden zu erreichen, mit einem anstrengenden Spaziergang von über einer Stunde vom nächsten Ort. Und doch ereignete sich genau an diesem Ort, zwischen diesen abgelegenen Häusern im Wald, das zweitschwerste Massaker an Zivilisten in Italien nach dem des Monte Sole und eines der brutalsten in den von Westeuropa besetzten Teilen die deutschen.;-;-;-;https://link.springer.com/chapter/10.1057/9781137011114_2 0bfd7b7186f1a4285de70e5e2fc23490;de;;;5.2.;;;Public-Private-Partnership-Modelle mit Steueranreizen: Numerische Analyse von Lösungen Es wird eine Analyse eines Public-Private-Partnership-Modells im Rohstoffsektor Russlands vorgestellt, bei dem die Regierung steuerliche Anreize bietet und den Investor beim Infrastrukturausbau und teilweise bei der Umsetzung verpflichtender Umweltmaßnahmen unterstützt. Die Analyse baut auf dem Stackelberg-Modell und einem ursprünglichen iterativen Lösungsalgorithmus auf, der auf probabilistischer lokaler Suche basiert. Um die Möglichkeiten des Ansatzes zu demonstrieren, wird ein Modell in Originalgröße gebaut. Die tatsächlichen Daten und Abmessungen des Modellversuchsgeländes erfassen die Spezifität des modellierten Objekts und ermöglichen eine praktische Untersuchung der Eigenschaften des Stackelberg-Gleichgewichts. Basierend auf den Modellierungsergebnissen werden die Auswirkungen verschiedener Faktoren auf die Wirksamkeit des Baugrundentwicklungsprogramms bewertet und Grundlagen für die staatliche Entscheidungsfindung in diesem Bereich formuliert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-93800-4_18 8fe92491167ac73a833a871b82f44732;de;;;4.2.;;;Bevölkerungs-, Urbanisierungs- und Wirtschaftsszenarien in der Gürtel- und Straßenregion im Rahmen der gemeinsamen sozioökonomischen Pfade Auf die Länder der Belt and Road Region entfallen mehr als 60 % der Weltbevölkerung und die Hälfte der Weltwirtschaft. Zukünftige Veränderungen in diesem Bereich werden erhebliche Auswirkungen auf das globale Wirtschaftswachstum, die Industriestruktur und die Ressourcenallokation haben. In dieser Studie wurden der Anteil der städtischen Bevölkerung an der Gesamtbevölkerung und das Bruttoinlandsprodukt verwendet, um den Urbanisierungs- bzw. den wirtschaftlichen Entwicklungsstand abzubilden. Bevölkerung, Urbanisierung und Wirtschaftsniveau der Gürtel- und Straßenländer für 2020–2050 wurden im Rahmen der gemeinsamen sozioökonomischen Pfade (SSPs) des IPCC projiziert und die folgenden Schlussfolgerungen gezogen. (1) Das Bevölkerungs-, Urbanisierungs- und Wirtschaftsniveau in der Belt-and-Road-Region wird wahrscheinlich unter allen fünf Pfaden zunehmen. Die Bevölkerung wird im Zeitraum 2020–2050 um 2–8 %/10a zunehmen und im Jahr 2050 5,0–6,0 Milliarden Menschen erreichen. Gleichzeitig wird die Urbanisierungsrate um 1,4–7,5 %/10a zunehmen und 49–75 % erreichen. Das BIP wird um 17%–34%/10a steigen und 134–243 Billionen USD erreichen. (2) Unter verschiedenen Szenarien treten große Unterschiede auf. Die Pfade SSP1 und SSP5 weisen ein relativ hohes Urbanisierungs- und Wirtschaftsniveau auf, aber die Bevölkerungsgröße ist vergleichsweise geringer, SSP3 zeigt den gegenteiligen Trend. Inzwischen entwickelt sich die Wirtschaft unter SSP4 langsam, weist aber einen relativ hohen Urbanisierungsgrad auf, während SSP2 einen mittleren Trend aufweist. (3) Im Jahr 2050 wird die Bevölkerung in den meisten Ländern im Vergleich zu 2016 zunehmen, und die Bevölkerungszahl im am schnellsten wachsenden Land in Zentralasien und den Ländern des Nahen Ostens wird sich mehr als verdoppeln. Die Urbanisierung wird sich in Südasien, Westasien und Zentralasien rasant entwickeln und in den am schnellsten wachsenden Ländern um mehr als 150 % zunehmen. Die Wirtschaft wird in Südasien, Südostasien und Westasien am schnellsten wachsen und in einigen Ländern mit rascher wirtschaftlicher Entwicklung um mehr als das Zehnfache zunehmen.;-;-;-;https://link.springer.com/article/10.1007/s11442-020-1715-x 17ae9b34918f3faf6371aacd96d7c18e;de;;;5.2.;;;Unternehmerische Führung koreanischer Unternehmen auf dem Weltmarkt Die Weltwirtschaft kann in zweierlei Hinsicht vom Unternehmertum profitieren: Erstens spielen neue und aufstrebende Unternehmen eine entscheidende Rolle bei den Innovationen, die zu technologischem Wandel und Produktivitätsgewinnen führen. Kreativität und Unternehmergeist sind die treibenden Kräfte für das globale Wirtschaftswachstum. Zweitens stellt Unternehmertum einen wesentlichen Mechanismus dar, durch den Millionen in den wirtschaftlichen und sozialen Mainstream unserer globalen Gesellschaft eintreten. Unternehmerische Unternehmungen ermöglichen es einer Reihe von Menschen, darunter Frauen, Minderheiten und Einwanderer, ihre Träume zu verwirklichen und ihre Karriereziele zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1057/9780230115507_9 b88def9c099a2be35ce8aafb41ff6082;de;;;5.2.;;;Der schwarze Freiheitskampf: Von „We Shall Overcome“ zu „Freedom Now!“ ie Bürgerrechtsbewegung war die ursprüngliche treibende Kraft für die Neue Linke und ihr dominierendes Element in den Jahren vor der politischen Wende von 1964 bis 1965, als der Kongress schließlich die wichtigsten Formen der Diskriminierung aufgrund der Rasse (oder Religion, oder Geschlecht oder ethnische Zugehörigkeit) und das Wahlrecht für Schwarze zu garantieren. Es war die einzige Massenbewegung des Jahrzehnts, die einzige, die anhaltende Medienaufmerksamkeit erhielt, und die einzige radikale Bewegung jener Jahre, die eine Verschiebung der nationalen politischen Ausrichtungen verursachte: Als die Republikaner ihr historisches, wenn auch nominelles Engagement für schwarze Amerikaner aufgaben, als „ der Partei von Lincoln“, ging die Demokratische Partei dahin, die Partei der Bürgerrechte zu werden. Im Gefolge der Tausenden schwarzer Südstaatler, die marschierten, saßen, boykottierten und durch Mobs gingen, um sich zur Wahl registrieren zu lassen, Verhaftungen, Schläge, Verbrennungen, Bombenanschläge und Morde zu erdulden, kam eine Vielzahl anderer Bewegungen. Langsam schien die „beste aller möglichen Welten“ der 1950er Jahre wie eine Zwangsjacke zu erscheinen, da scheinbar getrennte Quellen von Frustration, Entfremdung und Nichtkonformität zusammenliefen. Inspiriert von der Sturheit und Kühnheit der Afroamerikaner begannen sich alle ausgeschlossenen oder herabgesetzten Außenseiter – Studenten und Bohemiens, Schwule und Lesben, Untergrundfeministinnen, Intellektuelle und ethnische Minderheiten – als Teil der „Bewegung“, wie die Neue Linke es nannte, vorzustellen selbst in jenen Tagen. Aber die Wiederbelebung des öffentlichen Protests begann auf die bescheidenste Art und Weise, durch die lang anhaltende Frustration gesetzestreuer Afroamerikaner über ihre täglichen Demütigungen in den öffentlichen Verkehrsmitteln einer kleinen Hauptstadt des südlichen Bundesstaates.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4039-8014-4_4 6925cd0180ecf7f25c7626c17b696437;de;;;5.2.;;;Die kognitive (Fehl-)Wahrnehmung des Anderen Wie am Ende des letzten Kapitels erwähnt, gibt es in der vygotskianischen Literatur drei Bereiche, die anscheinend noch Arbeit brauchen und die in diesem Kapitel und in Kapitel 8 behandelt werden. Im aktuellen Kapitel wird zunächst ein Modell der Arten des soziokulturellen Drucks auf das sich entwickelnde Individuum wird vorgestellt. Es geht um die kognitive (Fehl-)Wahrnehmung des Anderen. Es basiert insbesondere auf dem aktuellen 25-stufigen neopiegetischen Modell der kognitiven Entwicklung. Zweitens untersuche ich die Frage, ob eine neopiagetische Theorie neben einer vygotskischen Theorie existieren kann, insbesondere auf der Ebene der Frage der universellen Stadien versus individuelle Unterschiede in der kognitiven Entwicklung. Im nächsten Kapitel wird ein integriertes Modell des Koaneignungsprozesses in der kognitiven Entwicklung vorgestellt. Es versucht auch, die vygotskische und die neopiegetische Perspektive zu integrieren. Schließlich wird am Ende dieses Kapitels eine empirische Studie zusammengefasst, die sich mit der Frage des Einflusses der kognitiven (Fehl-)Wahrnehmung des Anderen im Umgang mit dem Anderen beschäftigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-9015-3_8 c57db2c90a432531f810fb9a78daae2c;de;;;5.2.;;;Selbstreguliertes Lernen in der Computerprogrammierung: Strategien, die Studierende während einer Hausarbeit übernehmen Der SimProgramming-Lehransatz hat das Ziel, den Schülern zu helfen, ihre Lernschwierigkeiten beim Übergang von der Einsteiger- in die fortgeschrittene Computerprogrammierung zu überwinden und sie auf reale Arbeitsumgebungen vorzubereiten, indem sie Lernstrategien anwenden. Es lässt die Lernenden in eine geschäftsähnliche Lernumgebung eintauchen, in der die Schüler eine problembasierte Lernaktivität mit einer bestimmten Reihe von Aufgaben entwickeln, von denen eine das wöchentliche Ausfüllen einzelner Formulare ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-41769-1_7 fb049f19a9c21cb86e9beea0c024fb91;de;;;5.2.;;;Beschleunigen Begrenzte Gedächtniseinflussdiagramme sind graphenbasierte Modelle, die Entscheidungsprobleme mit begrenzten Informationen beschreiben, wie im Fall von Teams und Agenten mit unvollständiger Erinnerung. Das Lösen eines Einflussdiagramms (mit begrenztem Speicher) ist ein NP-schweres Problem, das oft durch lokale Suche angegangen wird. In diesem Beitrag untersuchen wir Algorithmen für;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11433-0_22 7c9790c74601e9bb10d61c70c31d4929;de;;;4.2.;;;Identifizieren des einflussreichen Benutzers basierend auf dem Benutzerinteraktionsmodell für Twitter-Daten Im sozialen Netzwerk wird das Nutzerinteraktionsmodell verwendet, um das Interesse in Abhängigkeit vom Interaktionsverhalten zwischen verschiedenen Entitäten zu messen. Eine Entität oder ein Knoten können Personen, Gruppen oder Organisationen sein, und die Links oder Kanten werden angezeigt, um die Beziehung zwischen ihnen darzustellen. Edges werden verwendet, um zu erkennen, ob es eine Kommunikation oder soziale Interaktion zwischen verschiedenen Benutzern gibt. Anhand des Interesses oder der Aktivitäten des Nutzers in einer sozialen Gruppe wird festgestellt, ob die Interaktion im Netzwerk aktiv oder inaktiv ist. Social Media ist eines der schnell wachsenden, dynamischen und unvorhersehbaren, um zukünftige Influencer zu erkennen, was in der sozialen Gruppe schwieriger wird. Die aus dem Nutzerinteraktionsmodell identifizierten Merkmale und damit die potenziellen Influencer und aktuellen Influencer werden identifiziert. Die Inzidenzmatrix wird verwendet, um das Interaktionsverhalten zwischen verschiedenen Benutzern in einer sozialen Gruppe zu identifizieren. Somit spielen die Inzidenzkanten eine wesentliche Rolle in der Scheitel-Kanten-Inzidenzmatrix-Interaktion, um die aktiven und inaktiven Benutzerinteraktionen in einem sozialen Netzwerk zu identifizieren. Der Fraction of Strongly Influential (FSI) User Score wird verwendet, um das Benutzerinteraktionsmodell zu bewerten, indem das Interesse des einflussreichen Benutzers analysiert wird und somit die Top-Trend-Benutzerinteressen erreicht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4828-4_5 400100061671993637cf037d338deb6b;de;;;5.2.;;;Übersicht über Anwendungen und Entwicklungen im Harmony-Suchalgorithmus Der Harmony Search (HS)-Algorithmus erschien um das Jahr 2000 und verfügt heute über eine umfangreiche Literatur. Ziel dieses Kapitels ist es, den Leser über die Vielfalt der HS-Anwendungen und das Spektrum der entwickelten modifizierten und hybriden HS-Methoden zu informieren. Das Kapitel enthält fünf Abschnitte. Im ersten werden die verschiedenen Arten von Optimierungsproblemen beschrieben. Abschnitt zwei bietet einen Überblick über das Wachstum der Literatur, eine Chronologie einiger Highlights der HS und eine Aufschlüsselung der HS-Arbeit nach Disziplinen. Im dritten Abschnitt werden HS-Anträge in neun Fachbereichen berichtet. Der vierte Abschnitt klassifiziert die Arten von Modifikationen, die an der ursprünglichen HS-Methode vorgenommen wurden, und fasst die Neuerungen in vielen der modifizierten Algorithmen zusammen. Zuletzt treten wir einen Schritt zurück und reflektieren den aktuellen Stand der HS-Literatur.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00185-7_2 f7ef7e5039d6ed671c98580b0c5eeaba;de;;;5.2.;;;Der Einsatz psychoedukativer Evaluationen in den klinischen Prozesstherapeuten als sympathische Fürsprecher Psychoedukative Evaluationen werden als unschätzbare Werkzeuge für Familien und Fachkräfte beschrieben und untersucht, um festzustellen, wie einem Kind am besten geholfen werden kann, sich erfolgreich an die Welt anzupassen, in der es funktionieren muss. Der Evaluationsprozess gewinnt an Kraft, wenn Familien von einem Therapeuten unterstützt werden, der als sachkundiger, sympathischer Beobachter aktiv in den Prozess eingebunden ist. Die Rolle erfordert ein Verständnis der Grundlagen des Bewertungsprozesses, einschließlich Überweisung, Kontakt mit dem Diagnostiker, Testsitzungen, Arten der verfügbaren Tests, Analyse der Ergebnisse und Feedback an alle Beteiligten.;-;-;-;https://link.springer.com/article/10.1007/BF00755235 a868068cb54f95f369d7a95dd8eb87a6;de;;;5.2.;;;Strukturierte strategische Notfallplanung Wie im vorherigen Kapitel angedeutet, könnte eine Organisation, die in einem Kontext mit moderater staatlicher Stochastik ansässig ist, versuchen, strategische Bereitschaftsanforderungen zu erfüllen, indem sie sich für eine zweigliedrige, modellbasierte Notfallplanungsplattform entscheidet: [E] [R]. Auch hier kann erwartet werden, dass sowohl [E] als auch [R] Referenzen enthalten, die als kompensibel sind;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-0953-3_3 8bc5989f396a1a26a5368bbe5c03d7d2;de;;;4.2.;;;Körperliche Bewegung und psychische Gesundheit Für Personen, die gerade erst anfangen zu trainieren, sehr untrainierte, ältere Menschen und Personen, die an psychiatrischen Störungen leiden, hat eine Aktivität mit geringer Intensität wichtige potenzielle psychologische Vorteile. Mehrere Studien weisen darauf hin, dass die psychische Gesundheit durch Aktivität geringer oder mäßiger Intensität verbessert werden kann. In 2 Studien konnte gezeigt werden, dass Aerobic plus Beratung bei der Behandlung depressiver Störungen wirksamer war als Beratung allein. Community-Querschnittsstudien zeigen deutlich, dass nach Kontrolle potenzieller soziodemografischer und gesundheitsbezogener Störvariablen das Depressionsrisiko bei körperlich inaktiven Personen im Vergleich zu regelmäßig trainierenden Personen signifikant höher ist. Aus Längsschnittstudien lassen sich keine abschließenden Schlussfolgerungen zum prädiktiven Wert körperlicher Aktivität auf das Ausmaß depressiver Symptome ziehen. Es wurden mehrere biologische und psychologische Hypothesen vorgeschlagen, um den Zusammenhang zwischen körperlicher Aktivität und psychischer Gesundheit zu erklären, jedoch fehlt noch immer ein integriertes theoretisches Modell.;-;-;-;https://link.springer.com/article/10.2165/00007256-199417020-00003 ab0eccbc305795c17bb8df6733b3535a;de;;;5.2.;;;Energieeffiziente Partikelschwarmoptimierung zur Verlängerung der Lebensdauer in drahtlosen Sensornetzwerken Die Aufrechterhaltung einer ausreichenden Abdeckung und die größtmögliche Verlängerung der Netzwerklebensdauer sind zu einem der kritischsten Probleme in drahtlosen Sensornetzwerken (WSNs) geworden. In diesem Artikel wird ein Protokoll namens „Energy-efficient Particle Swarm Optimization for Lifetime Coverage Prolongation“ (EPSOLCOP) vorgeschlagen, um die Abdeckung aufrechtzuerhalten und die WSN-Lebensdauer zu verlängern. Das Zielerfassungsfeld wird virtuell in kleinere Unterfelder unterteilt. Das EPSOLCOP-Protokoll wird auf die Sensorknoten jedes Unterfelds im WSN verteilt. Die Lebensdauer jedes Teilfeldes ist in gleich lange Entdeckungs- und Aktivitätsrunden unterteilt. Nach einer Nachbarerkennung besteht jede Runde aus drei Phasen: Clusterkopfwahl, Sensoraktivitäts-Scheduling-basierte Partikelschwarmoptimierung (PSO) und Überwachungsphase. Der Clusterkopf führt das PSO aus, um den besten repräsentativen Satz von Sensorknoten zu erzeugen, die für die Abdeckung des Unterfelds in der nächsten Phase verantwortlich sind. Jedes Set wird hergestellt, um die Abdeckung bei niedrigen Energiekosten zu gewährleisten und so die WSN-Lebensdauer zu optimieren. Im Vergleich zu einigen existierenden Protokollen zeigen Simulationsergebnisse, die mit dem diskreten Ereignissimulator OMNeT++ durchgeführt wurden, dass das EPSOLCOP-Protokoll sehr wettbewerbsfähig ist, indem es einen hohen Abdeckungsgrad bei reduziertem Energieverbrauch erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-55340-1_15 21f670828c4df188f7475ff09f3655b3;de;;;4.2.;;;Mehrere Rollen verheirateter koreanischer Frauen: Auswirkungen auf Depressionen Diese Studie wurde entwickelt, um die Beziehungen zwischen den Rollen berufstätiger verheirateter Frauen in Seoul, Südkorea, der Wahrnehmung ihrer Arbeitsrolle, den Bewältigungsmustern und dem Ausmaß der Depression zu untersuchen. Die Convenience-Stichprobe umfasste 382 Frauen im Alter von 25 bis 55 Jahren, die mit ihren Ehemännern zusammenlebten und mindestens 20 Stunden pro Woche arbeiteten. Die Teilnehmer füllten fünf Fragebögen aus: demografisch, Zentrum für epidemiologische Studien – Depressionsskala, Index der Geschlechterrollenorientierung, Rollenteilung und Bewältigungsstrategien. Die multiple Regressionsanalyse ergab mehrere statistisch signifikante Zusammenhänge. Ein höheres Maß an Depression wurde bei Frauen festgestellt, die Mutterschaft und Karriere als unvereinbar empfanden, Frauen, die härter arbeiteten, und Frauen, die weniger Zeit damit verbrachten, ihren Kindern bei den Hausaufgaben zu helfen. Frauen, die ihre Häuser besaßen, litten weniger an Depressionen.;-;-;-;https://link.springer.com/article/10.1023/B%3ASERS.0000049235.60839.ef 52315b8d73b62f1594c368d8b207e0b3;de;;;4.2.;;;Verteilung und Determinanten der Patientenzufriedenheit in der Onkologie mit Fokus auf gesundheitsbezogene Lebensqualität Krebspatienten unterziehen sich in der Regel umfangreichen und schwächenden Behandlungen, die die Lebensqualität (QoL) und die Patientenzufriedenheit zu wichtigen Bewertungsmaßstäben im Gesundheitswesen machen. Allerdings haben nur sehr wenige Studien den Zusammenhang zwischen Lebensqualität und Patientenzufriedenheit in der Onkologie untersucht. Wir untersuchten die klinischen, demografischen und QoL-Faktoren im Zusammenhang mit der Patientenzufriedenheit in einer großen heterogenen Stichprobe von Krebspatienten.;-;-;-;https://link.springer.com/article/10.1186/1472-6963-9-190 0fe1f16a116426e67b06cd6261b995d7;de;;;5.2.;;;Ahnenstimmen, Geister und Magie: Tanzen Sie einen neuen Tanz im Familientherapieraum Trotz wichtiger Schritte in Richtung Versöhnung und Träumen von einer „Regenbogennation“ wirkt sich die Kultur der Gewalt auf das Familien- und Gemeinschaftsleben aus. Dieser Artikel wurde in diesem Zusammenhang und insbesondere in den persönlichen Überlegungen der Autorin über ihre Arbeit als Familientherapeutin in einem der größten schwarzen Townships Südafrikas, Mdantsane, verfasst. Es stellt die Relevanz der Theorie und Praxis der Ersten Welt der Familientherapie im Kontext der Dritten Welt in Frage, ist aber in der Ich-Perspektive und damit in Form eines „reflexiven Praktikers“ verfasst. Die Nützlichkeit des Mailänder Ansatzes wird in Frage gestellt und eine Bewegung hin zu einem sozialkonstruktionistischen Ansatz wird bevorzugt. Die Metapher von Tanz und Musik wird verwendet, um die dynamische Interaktion zwischen Klient und Therapeut auf der Suche nach einem relevanten und respektvollen Umgang mit Familien im südafrikanischen Kontext einzufangen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1021651627004 e72c2da6b2b69776bebe1a06655f99f6;de;;;5.2.;;;T-Zell-vermittelte terminale Reifung von dendritischen Zellen Zahlreiche Forscher haben mit überzeugenden Beweisen das Konzept gestützt, dass die Aktivierung naiver T-Zellen hauptsächlich durch Antigene (Ag) erfolgt, die von einer bestimmten Klasse von Leukozyten präsentiert werden, die als dendritische Zellen (DC) bekannt sind. Als Hautbiologen haben sich unsere eigenen Bemühungen auf Langerhans-Zellen (LC) konzentriert, eine einzigartige Population von DC, die sich normalerweise in der Epidermis der Haut befindet und deren Identifizierung sogar mehr als ein Jahrhundert älter ist als das Wissen über DC. Vor drei Jahren haben wir ein Programm zur Entwicklung von Langzeit-DC-Linien aus der Epidermis von Mäusen initiiert, um die zelluläre Homogenität, die für molekularbiologische Techniken erforderlich ist, zu berücksichtigen, aber auch um den wirtschaftlichen Einsatz von Versuchstieren zu erleichtern. Zwei Konzepte leiteten diese Bemühungen: 1) Zellen, die während der Perinatalperiode gewonnen wurden, würden ein höchstes proliferatives Potenzial besitzen und 2) GM-CSF, das das Überleben und die Reifung von LC, die von anderen Forschern kultiviert wurden, gefördert hatte, wäre von wesentlicher Bedeutung. Unsere Bemühungen wurden schließlich durch die Entwicklung stabiler DC-Linien, die als „XS-Serie“ bezeichnet werden, aus Epidermisproben neugeborener BALB/c-Mäuse belohnt (1). Diese XS-DC-Linien ähneln in vielerlei Hinsicht residenten LC, einschließlich: a) ihrer dendritischen Morphologie (1), b) Ag-Präsentationskapazität (1,2) und c) Zytokin- und Zytokinrezeptor-mRNA-Profilen (3–6). Wichtig ist, dass unsere ursprünglichen XS-Zellkulturen mit fibroblastoiden Zellen, der „NS-Serie“, „kontaminiert“ waren, die durch ihre selektive Empfindlichkeit gegenüber einer Behandlung mit Trypsin entfernt werden konnten. Sobald dies jedoch erreicht war, verringerte sich die Proliferation durch die XS-Zellen erheblich. Wir haben nachträglich festgestellt, dass XS52-Zellen für ihr optimales Wachstum nicht nur GM-CSF benötigen, das kontinuierlich zu XS-Zellkulturen zugegeben wurde, sondern auch CSF-1, das in relativ großen Mengen von den NS-Zellen sezerniert wurde (4). Diese XS-Linien und ähnliche, seither entwickelte DC-Linien haben sich als nützliche Werkzeuge bei unseren Bemühungen zur Charakterisierung der Funktion von DC erwiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-9966-8_11 8077f46eba2c6aec98041960ee7ceb60;de;;;5.2.;;;Abwickeln der gegenwärtigen Kontroverse über das Maquiladora-Programm: Eine Einführung für Marketing-Führungskräfte und Professoren Seit General Electric seine Eisenwarenproduktion für Endverbraucher von Los Angeles nach Singapur verlegt hat, wie in „60 Minutes“ berichtet wurde, haben viele US-Marketingunternehmen darüber nachgedacht, dasselbe zu tun. Angesichts ständig steigender Arbeitskosten sind die arbeitsintensiven Industrien ständig gezwungen, immer billigere Arbeitsmärkte zu suchen, um wettbewerbsfähig zu bleiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-17046-6_113 f402cf15547aa2eccc7337413c02e0e7;de;;;5.2.;;;Online-Abruf von Gesundheitsinformationen basierend auf Sprachkomplexität, Informationsanpassung und Informationsqualität Heutzutage erhält ein Patient Online-Gesundheitsinformationen hauptsächlich mit Hilfe einer Suchmaschine. Generische Suchmaschinen haben sich aufgrund ihrer generischen Suchen, die die Benutzer mit der Menge an Ergebnissen überladen, als begrenzt und manchmal als unbefriedigend erwiesen. Darüber hinaus sind sie nicht in der Lage, verschiedenen Benutzertypen maßgeschneiderte Informationen zur Verfügung zu stellen. Gleichzeitig arbeiten spezielle Suchmaschinen meist mit medizinischer Literatur und liefern Auszüge aus medizinischen Fachzeitschriften, die vor allem für medizinische Forscher und Experten nützlich sind. Infolgedessen können die gefundenen Gesundheitsinformationen einem Benutzer (hauptsächlich einem Nicht-Experten) dabei helfen, vollständig zu verstehen, wonach er/sie sucht (z. B. eine Erkrankung, eine Therapie oder ein Medikament). Dies kann sich negativ auf seinen/ihren Empowerment-Prozess und die Interaktion mit medizinischen Fachkräften wie Ärzten auswirken. Diese Arbeit stellt eine benutzerdefinierte Suchmaschine, FACILE, vor, die es ermöglicht, die oben diskutierten Einschränkungen zu überwinden, indem sie das Auffinden und Verstehen von Online-Informationen erleichtert und somit den Empowerment-Prozess und die Kommunikation/Interaktion mit medizinischem Fachpersonal positiv beeinflusst. Ein Benutzer, sowohl ein medizinischer Experte als auch ein Nicht-Experte, kann seinen Informationsbedarf in Bezug auf Sprachniveau, spezifische gesuchte Informationen und Informationsqualität spezifizieren. FACILE stellt die Links zu den Webseiten zur Verfügung, die diesen Anforderungen entsprechen. Insbesondere stellt FACILE Links zu Webseiten mit unterschiedlichen Sprachniveaus (einfach oder komplex) bereit, und für jeden Link zeigt die Antwortseite die angeforderten spezifischen Informationen (Zustand, Therapie, Medikament usw.) und eine grafische Anzeige (0 indication –5 Sterne) der Informationsqualität.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-70807-8_1 c09931155ed046cf9c8309c03fb7d72e;de;;;5.2.;;;Suche nach Ammoniak-Funkemissionen in Komet 9P/Tempel~1 nach dem Deep Impact Event Etwa 30 Stunden nach dem DI-Einschlagsereignis wurde der Komet 9P/Tempel 1 mit der 32\-m-Spiegel des Observatoriums Medicina (Bologna, Italien) beobachtet, um nach den NH$_3$-Inversionsübergängen im Bereich um 24 GHz zu suchen. Die Ergebnisse zeigen das Vorhandensein einer Linie mit einem S/N von etwa 6 und einer FWHM von 1,35 km/s nahe der NH$_3$(1,1)-Frequenz. Der Kometenursprung der Linie scheint sicher, denn die wenige Tage später durchgeführte Suche nach möglichen Hintergrundquellen einer solchen Emission entlang derselben Kometenbahn zeigte keine Linie mit dieser Frequenz. Seine Identifizierung ist jedoch wegen seiner zu hohen projizierten Ausflussgeschwindigkeit und der zu hohen Ammoniakproduktion, die für die Anpassung an die Linienintensität erforderlich ist, zweifelhaft. Die Frequenz der Linie liegt auch nahe an einem Übergang von Methylformiat, einer Spezies, die bereits im Kometen Hale-Bopp und in heißen Kernen beobachtet wurde. Die projizierte Ausflussgeschwindigkeit wäre kleiner als im Fall des Ammoniaks, aber auch seine Häufigkeit wäre zu hoch.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76959-0_37 79aa79d5eedd1f40bdfc488bf4518852;de;;;5.2.;;;Vielversprechende Methode der Suche nach Öl und Gas Öl und Gas nehmen bekanntlich den Spitzenplatz in der Brennstoffbilanz ein und bilden das Rückgrat des aktuellen technischen Fortschritts. Das nachhaltige Wachstum der erkundeten Kohlenwasserstoffreserven ist ein wichtiger strategischer Faktor zur Gewährleistung der Energiesicherheit des Landes. Die Notwendigkeit, die ökologische und ökonomische Effizienz der Exploration zu verbessern, erfordert neue Ansätze und Methoden. Die Detektion der Infraschallfelder von Öl- und Gasvorkommen ist eine solche Methode. Die Aussichten für seine Einführung in die praktische Erforschung werden von Akademiemitglied A.Yu. Tsivadze, Direktor des Frumkin-Instituts für Physikalische Chemie und Elektrochemie, Russische Akademie der Wissenschaften.;-;-;-;https://link.springer.com/article/10.1134/S1019331614020051 2cdcd7b7beeaf1e40d54ded437868d87;de;;;5.2.;;;Eine spektroskopische Suche nach Schwingungen in der 769,9 nm Kaliumlinie von Procyon Ein doppelter magneto-optischer Filter, der am Cassegrain-Fokus des 1,9-m-Reflektors des South African Astronomical Observatory angebracht war, wurde verwendet, um Procyon in der 769,9-nm-Kaliumlinie während aller klaren Stunden von sechs Nächten zu beobachten. Die Geschwindigkeitskalibrierung erfolgte durch die Rotations- und Bahngeschwindigkeitsänderungen des Beobachters sowie durch eine kontinuierliche magnetische Modulation.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-4009-3_55 9b7b0b73cf8999a6ec35245169b771ef;de;;;4.2.;;;Kognitive Anforderungen der Gesichtsüberwachung: Hinweise auf visuell-räumliche Überlastung Kleine Kinder erledigen schwierige Kommunikationsaufgaben besser von Angesicht zu Angesicht, als wenn sie sich nicht sehen können (z. B. Doherty-Sneddon & Kent, 1996). In neueren Studien wurde jedoch festgestellt, dass Kinder im Alter von 6 und 10 Jahren, die abstrakte Formen beschrieben, Anzeichen von Angesicht zu Angesicht zeigten;-;-;-;https://link.springer.com/article/10.3758/BF03195753 8d9f81c3af01d52a7c82fd4d1e294033;de;;;5.2.;;;FCKW und Umwelt: Weitere Beobachtungen Die Einführung der Fluorchlorkohlenwasserstoffe (FCKW) in den frühen dreißiger Jahren markierte den Beginn der Organofluorkohlenstoffindustrie. Sowohl in Bezug auf die produzierte Tonnage als auch den Produktwert haben sie die Industrie dominiert und Rohstoffe für die Entwicklung anderer Produkte wie Fluorpolymere geliefert (siehe Kapitel 6).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-1202-2_31 b2dea93edb912f3d2cc6ad9443d14ae9;de;;;4.2.;;;Zukünftige Trends bei der Gestaltung des Lernens im globalen Kontext Es ist klar, dass Bildungstechnologien in zunehmendem Maße eingeführt werden. Klar ist auch, dass viele der heutigen Studierenden mit digitalen Technologien aufgewachsen sind. Welche Auswirkungen haben solche Veränderungen auf die Gestaltung effektiver Lernumgebungen und Unterrichtssysteme? Viele haben vorausgesagt, dass radikale Veränderungen in den Lerndesigns erforderlich sind, obwohl es nicht genügend Beweise gibt, um die Wirksamkeitsansprüche vieler der vorgeschlagenen Änderungen zu untermauern. In diesem Kapitel werden Veränderungen durch neue Technologien und neue Lernende berücksichtigt. Es ist jedoch von entscheidender Bedeutung, sich an Lektionen zu erinnern, die aus früheren Bemühungen zur Integration von Bildungstechnologien gelernt wurden oder hätten gelernt werden sollen, um nachhaltige, systematische und systemische Verbesserungen in Lernen und Unterricht zu erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-5930-8_12 bd9e20780284a3fdce43bcfd378522b7;de;;;4.2.;;;Design und Realisierung eines interaktiven Remote-Video-Lehrsystems in Echtzeit basierend auf FMS Das in diesem Beitrag untersuchte interaktive Echtzeit-Video-Fernlehrsystem wurde mit der FMS-Technologie entworfen und entwickelt, die eine konsistente und effiziente moderne Lehrmethode für den Fernunterricht bietet. Das System besteht aus zwei Modulen: einem Lehrmodul für Kursmaterialien und einem interaktiven Lehrmodul. Dieses System durchbricht die zeitlichen und räumlichen Beschränkungen des traditionellen Unterrichts, das neu und flexibel ist, um die Unterrichtsumgebung im Klassenzimmer zu simulieren und miteinander zu kommunizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23324-1_49 0191865ba0962e5de9ed8a9b30a03db8;de;;;4.2.;;;Die ultimative private/öffentliche Partnerschaft: Die Erweiterungen des Selbst in der Welt des virtuellen Blicks Heutzutage ist die Ausweitung des Selbst in die digitale Domäne so beschaffen, dass Online- und Offline-Identitäten oft miteinander verschmolzen werden. Die interne Welt der Objektbeziehungen ist heute teilweise in soziale Netzwerke und Wissensgraphen ausgelagert, auf denen auch eine externe Repräsentation dieses Selbst existiert. Die Präsentation des Selbst, das Teilen von Selbstzuständen und sogar die Entwicklung des Selbst und der Identität ist ein doppelter Prozess von privatem und öffentlichem „Dienen“, der in einer nie zuvor dagewesenen Weise stattfindet. Während „Serving“ immer ein relationaler Vorgang war, findet dieser Prozess jetzt online statt, während wir offline sind, und dieser Paradigmenwechsel hat Konsequenzen. Als Psychotherapeut, der in den Medien mit Jugendlichen arbeitet, habe ich einen besonderen Einblick in diesen Prozess erfahren. Anhand von Theorien aus den Objektbeziehungen und der relationalen Psychoanalyse wird dieses Kapitel auf dieser Erfahrung aufbauen, um die Konsequenzen der digitalen Kultur und des Selbst besser zu verstehen.;-;-;-;https://link.springer.com/chapter/10.1057/9781137345547_10 589a9d31cab08ef7c89ee89d630f3b8d;de;;;4.2.;;;Evaluation einer funktionellen Behandlung von Essanfällen bei Bulimia nervosa Binge-Eating-Störungen (BED) sind ein häufiges Problem, von dem bis zu 5 Prozent der amerikanischen Bevölkerung in einem bestimmten Zeitraum von 6 Monaten betroffen sind. Derzeit ist die am weitesten verbreitete Behandlung eine Variation der kognitiven Verhaltenstherapie, obwohl die Abstinenzraten nach dieser Art der Behandlung nur etwa 50% betragen. Eine aktuelle Studie von Bosch et al. (1) untersuchten die Auswirkungen des Aussterbens mit vier Frauen, die an Binge-Eating-Verhalten im Zusammenhang mit BED und Bulimia nervosa (BN) teilnahmen. Die Behandlung war erfolgreich, drei der vier Teilnehmer erhielten Abstinenz. Dies ist bisher die einzige Studie, die dieses Verfahren untersucht. Der Zweck der aktuellen Studie bestand darin, das Aussterben von Essattacken bei vier jungen Frauen, die die diagnostischen Kriterien für BN erfüllten, weiter zu untersuchen. Die Ergebnisse zeigten, dass die Behandlung die Essanfälle bei allen vier Frauen auf Null reduzierte, obwohl eine die Studie kurz nach Beginn der Intervention abbrach.;-;-;-;https://link.springer.com/article/10.1007/BF03325288 e7f40eff3deab2f02c3b2420ddb3d77f;de;;;5.2.;;;Evolvable Hardware: Ein Werkzeug für das Reverse Engineering biologischer Systeme Biologische Netzwerke sind Beispiele für hochdynamische komplexe biologische Prozesse. Als solche könnte man sagen, dass sie einige der Ziele darstellen, die in evolvierbaren Hardwaresystemen angestrebt werden. Anstatt solche Systeme als Grundlage für neuere oder verfeinerte bioinspirierte Techniken zu untersuchen, besteht das Ziel dieses Beitrags darin, die Systembiologie und insbesondere biologische Netzwerke als einen potentiellen „Killeranwendungsbereich“ für evolvierbare Hardware vorzustellen. Zu diesem Zweck beleuchtet das Papier, warum ein solcher Anwendungsbereich für evolvable Hardware von Vorteil sein kann. Darüber hinaus schlägt das Papier die künstliche Entwicklung, eine neuere bioinspirierte Technik, als eine für eine solche Anwendung geeignete Technik vor und hebt die Probleme und Herausforderungen hervor, die angegangen werden müssen, um Modelle solcher Prozesse zu erhalten. Darüber hinaus diskutiert der Artikel, wie Hypothesen, die aus Hardwaresimulationen der Dynamik des Modells generiert wurden, durch verfeinertes biologisches Wissen abgestimmt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85857-7_30 6a344a52dae63fa547bbce02b122759d;de;;;4.2.;;;Überwindung von Sprachbarrieren bei fremdsprachigen Patienten: eine Umfrage zur Untersuchung der innerklinischen Unterschiede in Einstellungen und Praktiken Die Inanspruchnahme der verfügbaren Dolmetscherdienste durch das Klinikpersonal ist oft suboptimal, obwohl nachgewiesen ist, dass ausgebildete Dolmetscher zur Qualität der Versorgung und Patientensicherheit beitragen. Die Untersuchung innerklinischer Unterschiede in den Einstellungen und Praktiken in Bezug auf den Einsatz von Dolmetschern kann dazu beitragen, Faktoren zu identifizieren, die bewährte Verfahren erleichtern.;-;-;-;https://link.springer.com/article/10.1186/1472-6963-9-187 e3d4e1b4a2150febc6f0074ca8372dd3;de;;;4.2.;;;Erfassung von Daten zu Hause Die menschliche Interaktion mit Computern ist nicht mehr klar begrenzt und unsere Benutzererwartungen passen nicht mehr zur Pragmatik des Designs. Wir sind zunehmend Datensubjekte in einem komplexen Netzwerk von Lifestyle-Geräten, die unsere täglichen Bemühungen erfassen, überwachen und interpretieren. Wenn die Form, die diese Geräte annehmen, ihre wahre Natur widerlegt, ergeben sich eine Reihe sozialer Herausforderungen. Mit dem Streben nach neuen Märkten, die ausschließlich auf der Konstruktion von Werten aus menschlichen Daten basieren, befinden wir uns in einer Art Designdilemma. Wie können wir sozial sensible ‚Dinge‘ gestalten und welche Implikationen ergeben sich aus der Vernetzung unserer privaten Räume? Dieses Papier präsentiert eine autoethnografische Fallstudie eines intelligenten Toilettenpapierhalters, die einige dieser Probleme aufzeigen soll. Solche Prototyp-Technologien zeigen, dass das Ausmaß der daraus resultierenden sozialen Störungen ohne angemessene Berücksichtigung den Fortschritt aufhalten und die Entwicklung aufstrebender Datenmärkte behindern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-70875-1_6 f84d0e133c0694c0b4f82c5c4996c83a;de;;;4.2.;;;Verstehen und akzeptieren russische Verbraucher die Sharing Economy als neues digitales Geschäftsmodell? Zunehmende Studien zur Sharing Economy befassen sich mit einem schnell wachsenden und sich weltweit ausbreitenden Phänomen. Die massive Verbreitung von Sharing-Economy-Anwendungen trägt zur gemeinsamen Entwicklung der Verbraucherwahrnehmung der Vorteile, Risiken und Chancen des kollaborativen Konsums bei. Die zukünftige Dynamik und Transformation der Sharing Economy hängt sowohl von der Angebots- als auch von der Nachfrageseite ihrer Verbreitung als digitales Geschäftsmodell ab. Durch die Diversifizierung desselben Konzepts (z. B. UBER) über die Länder und Kontexte hinweg passen sich Anbieter an das Geschäftsumfeld an, einschließlich bestehender Regulierungen, Schutzmaßnahmen, Verbraucherwahrnehmungen und -erwartungen. Die aktuelle Studie basiert auf einer groß angelegten Umfrage unter russischen Verbrauchern, in der deren Erfahrungen und Erwartungen im Bereich Sharing Economy im Kontext eines aufstrebenden Marktes bewertet wurden. Da die Schwellenländer mit zahlreichen Marktineffizienzen konfrontiert sind, sind sie möglicherweise die aktivsten und bereitwilligsten Kenner der Praktiken der Sharing Economy. Diese Akzeptanz wird jedoch durch die Bereitschaft und Fähigkeit sowohl von Unternehmen als auch von Verbrauchern in Schwellenländern bestimmt, das volle Potenzial des kollaborativen Konsums auszuschöpfen. Darüber hinaus könnten die Unterschiede im Verbraucherverhalten, den Erwartungen und den Normen der Sharing Economy in den Schwellenländern andere Determinanten sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-02843-5_31 752019f740ff7138828363253c0eaf77;de;;;4.2.;;;Weder Relativismus noch Imperialismus: Theorien und Praktiken für eine globale Informationsethik Wir heben die wichtigen Lehren hervor, die unsere Mitwirkenden in unserem gemeinsamen Projekt zur Förderung des Dialogs zwischen angewandter Ethik und Informatik sowie zwischen den Kulturen vorlegen. Dazu gehören: kritische Reflexivität, prozessuale (teilweise Habermassche) Ansätze zur Etablierung solcher zentralen Normen wie „Emanzipation“, die Bedeutung lokaler Akteure beim Einsatz von IKT sowohl für globales Management als auch in Entwicklungsprojekten – zumal diese das für den gesellschaftlichen Kontext notwendige Vertrauen einbringen der Nutzung neuer Technologien und pluralistische Ansätze, die lokale kulturelle Unterschiede neben gemeinsamen Normen bewahren. May Thorseth kontextualisiert dann unsere Arbeit im Hinblick auf breitere philosophische Diskussionen über Deliberation und Demokratie.;-;-;-;https://link.springer.com/article/10.1007/s10676-006-9117-z 9459aa4204c65c6d432baad39886bba0;de;;;4.2.;;;Eins-zu-eins komplementäres kollaboratives Lernen basierend auf dem blau-roten Multi-Trees of Rule-Space-Modell für MTA-Kurse in einer sozialen Netzwerkumgebung Es ist immer wichtiger geworden, ein intelligentes E-Learning-System in einer sozialen Netzwerkumgebung anzuwenden und zu entwickeln. In diesem Beitrag haben wir die Kombination von Rule-Space-Modell und Multi-Tree genutzt, um durch die Analyse aller Lernobjekte von MTA-Kursen sinnvolle Lerneffekte von Blau-Rot-Multi-Trees und deren Definitionen abzuleiten. Aus früheren Definitionen können wir einen eins-zu-eins komplementären kollaborativen Lernalgorithmus ableiten. Schließlich dient ein MTA-Kurs der Analyse des Regel-Raum-Modells und der Definition und Analyse der Lernleistung für den MTA-Kurs. Von diesem MTA-Kurs aus können sie einundzwanzig Lerneffekte von Blau-Rot-Multibäumen erstellen und diejenigen spezifischen Blau-Rot-Multibäume empfehlen, die den eins-zu-eins-komplementären kollaborativen Lerngruppenalgorithmus erfüllen, und diese Lernleistungen aller Blauen analysieren -Rote Multibäume. Sie werden die Grundlage für die Verifizierung für eins-zu-eins komplementäres kollaboratives Lernen sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-5086-9_30 02b7185f399a4697f27b6345538d38e2;de;;;4.2.;;;Agentenbasierte Modellierung und Analyse von Hurrikan-Evakuierungsverfahren für die Florida Keys Die einzigartige Geographie der Florida Keys birgt sowohl ein hohes Risiko eines Hurrikans als auch eine außergewöhnliche Anfälligkeit für die Auswirkungen eines Hurrikans. Unzureichende Hurrikan-Unterstände in den Keys machen die Evakuierung für die meisten Bewohner zur einzigen Option, aber die einzige Zufahrtsstraße kann lange vor einem größeren Sturm unpassierbar werden. Diese außergewöhnlichen Bedingungen stellen die Notfallmanager vor Herausforderungen, die sicherstellen müssen, dass geeignete Notfallpläne vorhanden sind und eine geordnete Abwanderung erfolgen kann, ohne dass viele Menschen auf einem Fluchtweg mit unzureichenden Unterkünften stranden. Diese Studie versucht, zwei Fragen zu beantworten: (1) Was ist die Mindestabfertigungszeit, die benötigt wird, um alle Bewohner, die an einer Evakuierung der Florida Keys teilnehmen, vor einem großen Hurrikan für 92.596 Menschen zu evakuieren – eine Bevölkerungsgröße, die auf der Grundlage der US-Volkszählung von 2000 berechnet wurde? Bevölkerungsdaten, Unterzählungen bei der Volkszählung und die geschätzte Anzahl von Touristen in der Gegend? (2) Wenn ein Hurrikan während der Evakuierung auf die Keys trifft, wie viele Einwohner müssen untergebracht werden, wenn die Evakuierungsroute unpassierbar wird? Die Autoren führten agentenbasierte Mikrosimulationen durch, um die Fragen zu beantworten. Simulationsergebnisse legen nahe, dass es 20 Stunden und 11 Minuten bis 20 Stunden und 14 Minuten dauert, um die 92.596 Menschen zu evakuieren. Diese Abfertigungszeit ist kürzer als die vom Staat Florida vorgeschriebene 24-Stunden-Abfertigungszeit. Geht man davon aus, dass Menschen in einem Zeitraum von 48 Stunden evakuiert werden und der Verkehrsfluss von den Keys dem bei der Evakuierung von Hurrikan Georges beobachteten folgen würde, dann können insgesamt 460 Menschen gestrandet sein, wenn der Evakuierungsweg 48 Stunden nach einer Evakuierung unpassierbar wird Auftrag erteilt wird. Wird der Evakuierungsweg 40 Stunden nach Erlass eines Evakuierungsbefehls unpassierbar, können 14.000 Menschen stranden.;-;-;-;https://link.springer.com/article/10.1007/s11069-005-0263-0 77bf6e23d510baee1258ba546cef5f32;de;;;4.2.;;;Gatekeeping in Comics Publishing: Ein praktischer Leitfaden für die Gatekeeping-Forschung Die Ausgabe des Comic-Stipendiums in englischer Sprache 2014 konzentriert sich nur auf wenige inhaltliche Bereiche. Der Fokus liegt vor allem auf Superhelden, in geringerem Maße interessieren sich auch gesellschaftliche Themen (wie die Darstellung von Minderheiten) sowie biografische Geschichten und Werke einzelner Künstler.;-;-;-;https://link.springer.com/chapter/10.1057/978-1-137-55090-3_14 1701d727cad6b66c86e484df666c413c;de;;;5.2.;;;Narrative Generierung durch Umnutzung digitaler Videos Storytelling und Narrative Creation sind sehr beliebte Forschungsthemen im Bereich der interaktiven Mediengestaltung. In diesem Papier schlagen wir einen Rahmen vor, um eine Videoerzählung aus bestehenden Videos zu generieren, die der Benutzer nur in zwei Schritten einbeziehen muss: (1) Hintergrundvideo und Avatare auswählen, (2) Bewegung und Flugbahn von Avataren einrichten. Um eine realistische Videoerzählung zu generieren, müssen mehrere wichtige Schritte umgesetzt werden. Zuerst wird ein Videoszenen-Erzeugungsprozess entworfen, um ein Videomosaik zu erzeugen. Dieses Videomosaik kann als Grundlage für die narrative Planung dienen. Zweitens ist ein Avatar-Vorverarbeitungsverfahren mit moderaten Avatar-Steuerungstechnologien entworfen, um eine Reihe spezifischer Eigenschaften zu regulieren, wie zum Beispiel die Größe oder die Länge der einzelnen Bewegungsclips, und die Bewegung von Avataren zu steuern. Drittens werden ein Layer-Merging-Algorithmus und ein raumzeitlicher Ersetzungsalgorithmus entwickelt, um die visuelle Qualität einer generierten Videoerzählung sicherzustellen. Um die Wirksamkeit der vorgeschlagenen Methode zu demonstrieren, haben wir aus einigen ausgewählten Videoclips mehrere realistische Videoerzählungen erstellt, und die Ergebnisse waren visuell ansprechend.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17832-0_47 19e566c7dd08145bdbdfbf3e52bbb351;de;;;4.2.;;;„Was für eine Kulisse für ein Mysterium“: Yaddo, die Aufzeichnungen von Yaddo und die Erinnerung an den Ort „Yaddo“, erinnerte sich der Komponist Aaron Copland, „wurde so sehr zu einem Teil meines Lebens, dass ich dazu neige zu vergessen, wie seltsam der Name für diejenigen klingt, die ihn nicht kennen.“ Allein schon durch seine Abgrenzung, seine vagen Absichten und seine Haltung des verschlossenen Rückzugs , zeichnet sich Yaddo durch eine akribisch gepflegte und sorgfältig gehütete Tradition der Gemeinschaft und der kulturellen Identität aus, die durch die Bildung eines Archivs sorgsam bewahrt (und wiederum durch sie geprägt wurde) . . . . . . . . . . . . . . . . . . . . . . . . . . ? . . . . . . . ? . . . . . . . . . ? . . . . . . . . . . . . . . . . . . . . . . . . . . Meine Fragestellung konzentriert sich auf die besonderen Folgen der Auflösung der Verbindung zwischen historischer Spur und physischem Ort (wie sie vielleicht immer sein muss), wenn gerade die Materialität, die das „Gedächtnis“ einer Institution informiert, unwiderruflich distanziert wird.;-;-;-;https://link.springer.com/article/10.1007/s10502-009-9100-7 66c73cd65381be006d337e5e05146cf0;de;;;4.2.;;;Cyber-Belästigung und Lebensqualität Die Kommunikationstechnologie hat eindeutig Auswirkungen auf die Schüler und ihr Wohlbefinden. Smartphones sind zu All-in-One-Geräten geworden, die die Funktionen eines Mobiltelefons mit denen eines Computers vereinen und rund um die Uhr Online-Zugriff ermöglichen. Die Technologie hat auch eine neue Plattform für Mobbing geschaffen. In dieser Studie analysieren wir, wie Schüler der Klassen 4 bis 10 an fünf Schulen in der Stadt Tromsø in Nordnorwegen (N = 878) einen Fragebogen zu Belästigung, Mobbing und Lebensqualität beantworteten.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-6300-648-4_10 f40245ee0669d774ebc49b2639cd558d;de;;;4.2.;;;Multiplex-Multi-Core-Muster von Netzwerkorganisationen: Eine explorative Studie Neuere Forschungen zur Small-World-Theorie wurden auf das Verhalten von Organisationen ausgedehnt. Die meisten Einzelstudien haben jedoch eine vereinfachte Sichtweise auf Einzelpersonen und Beziehungen zwischen Mitgliedern gezogen, indem sie sich auf eine einzige Art von Verbindungen hauptsächlich innerhalb dyadischer Beziehungen konzentrierten. In Wirklichkeit interagieren Mitglieder von Organisationen miteinander und sind oft über viele Arten von Verbindungen in komplexeren Beziehungen verbunden. Um diese komplexe Interaktion zu untersuchen, modelliert diese Studie Organisation als Netzwerk und schlägt einen Multiplex-Ansatz vor, der die Komplexität der Beziehungen zwischen Mitgliedern in Organisationen erfasst. Dieser Ansatz berücksichtigt die verschiedenen Arten von Verbindungen zwischen Mitgliedern und die verschiedenen Rollen der Mitglieder innerhalb von Netzwerkorganisationen. Dies wird anhand einer Fallstudie einer Netzwerkorganisation veranschaulicht. Die Fallstudie zeigt, wie dieser Ansatz die vielen Arten von Beziehungen zwischen Mitgliedern sowie die verschiedenen Rollen erfassen könnte, die Mitglieder innerhalb der Netzwerkorganisation spielen. Ein solcher Ansatz kann neue Erkenntnisse darüber liefern, wie Netzwerkorganisationen besser verwaltet werden können.;-;-;-;https://link.springer.com/article/10.1023/B%3ACMOT.0000039170.91349.c2 f511feab06371cdc279e14d6c22d0aa8;de;;;4.2.;;;Internationale akademische Studierendenmobilität als Faktor zur Steigerung des Führungspotenzials der Universität Die wissenschaftliche Führung von Hochschulen zeigt sich in hohem Maße in verschiedenen Ratings. Die Hochschulrankings können sich in ihren KPI-Systemen unterscheiden. Die führenden und beliebtesten akademischen Rankings, insbesondere das QS World University Ranking (QS), berücksichtigen als Indikator den Anteil internationaler Studierender und Lehrender an der Hochschule. Times Higher Education (das von QS getrennte Ranking) enthält einen Indikator wie internationale Zusammenarbeit sowohl für Lehrende als auch für Studierende. Diese Rankings betrachten die internationale akademische Mobilität nur als „Input“, d. h. die Einbindung von Studierenden und wissenschaftlichem Personal aus dem Ausland. Die jungen Studenten nehmen die Hochschulleitung aus einem anderen Blickwinkel wahr, sie überlegen, wie die Hochschule den Studenten dabei unterstützen könnte, ein wertvoller Mitarbeiter zu werden. Die Studierenden interessieren sich nicht nur für den Anteil internationaler Studierender, die gemeinsam mit ihnen studieren, sondern auch für ihre eigenen Möglichkeiten, Wissen von den besten Lehrenden an der Hochschule, an der sie studieren, sowie an den internationalen Hochschulen zu erwerben. Die Möglichkeiten, die die Universität im Rahmen der akademischen Auslandsmobilität bietet, machen sie auf dem Bildungsmarkt wettbewerbsfähiger und stärken ihre führende Position in der Region. Dieses Papier bietet eine kurze Zusammenfassung der Trends in der Entwicklung der internationalen akademischen Mobilität für Studierende, wie in der Fallstudie russischer und ausländischer Universitäten. Die Autoren versuchen anhand der Daten einer soziologischen Forschung die Möglichkeiten der internationalen akademischen Auslandsmobilität von Studierenden bei der Bildung des universitären Führungspotentials aufzuzeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-15495-0_34 e3d784badad4f6e89dc5bead9cc54b12;de;;;4.2.;;;Partnerschaft in der onkogenetischen Forschung – Die INHERIT BRCAs-Erfahrung: Chancen und Herausforderungen Heute ist es üblich, in Zusammenarbeit mit Kollegen verschiedener Disziplinen und Institutionen zu forschen. Das interdisziplinäre internationale Team der Gesundheitsforschung zur Anfälligkeit für BReast-Krebs (INHERIT BRCAs) umfasst kanadische und internationale Experten aus verschiedenen Bereichen, die mit Gesundheitsdienstleistern, Patienten und Mitarbeitern der Weltgesundheitsorganisation und anderer europäischer Netzwerke zusammenarbeiten. Evidenzbasierter Informations- und Wissenstransfer treibt unsere Bemühungen an, die Genomforschung voranzutreiben, um die genetischen Grundlagen der Krebsanfälligkeit und des Therapieansprechens zu verstehen. Mehrere Ziele zeigen den interdisziplinären Teamansatz: (a) die Prävalenz und Penetranz von;-;-;-;https://link.springer.com/article/10.1007/s10689-005-2570-8 7359b3170b9ad5cdde737b180a30160d;de;;;5.2.;;;Algorithmen für LAD Dieses Kapitel befasst sich mit algorithmischen Überlegungen bei der Durchführung von KOP-Anpassungen. Aus historischer Sicht scheint der LAD-Anpassung bis in die 1950er Jahre nur wenig Aufmerksamkeit geschenkt worden zu sein. Nach Edgeworths Arbeit in den 1880er Jahren herrschte wahrscheinlich viele Jahre lang relative Stille;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-8574-5_7 b7d8f07c2c9ed4e2b0b3b01764455dfa;de;;;4.2.;;;Problembasiertes Lernen im Sprachunterricht: Ein Rahmen für die Zusammenarbeit und das Sprachenlernen in einer CSCL-Umgebung Die Forschung hat gezeigt, dass problembasiertes Lernen (PBL) in vielerlei Hinsicht eine effektive Lernmethode ist. Obwohl das PBL-Lernen umfassend untersucht wurde und eine Reihe von Artikeln die Vorteile der Implementierung von PBL in Bildungsumgebungen diskutiert haben, sollte mehr Wert darauf gelegt werden, wie es angepasst werden kann, um Sprachen im Sekundarbereich effektiv zu unterrichten. Um die Sprachlernfähigkeiten effektiver zu gestalten, wurde ein Bildungsszenario basierend auf den Prinzipien eines PBL-Modells und der kollaborativen Strategie Jigsaw II in einer computergestützten kollaborativen Lernumgebung (CSCL) (Moodle) erstellt. Dieses Bildungsszenario wurde entworfen und umgesetzt, um die Zusammenarbeit zu stärken und die Sprachlernfähigkeiten für Gymnasiasten zu verbessern. Es gab sowohl eine quantitative als auch eine qualitative Analyse der Wiki-Texte sowie der von den Studierenden ausgetauschten Chat- und Forennachrichten. Die Ergebnisse zeigten, dass die Studierenden in hohem Maße durch ihre Teilnahme an kollaborativen Aufgaben Fähigkeiten zur Zusammenarbeit und zum Sprachenlernen entwickelten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-62743-4_12 2a105932f1a7bd7dd96b3b3772efbe50;de;;;5.2.;;;Einige Aspekte der Druckluft- und Stickstoffisolierung Luft und Stickstoff wurden als umweltunkritische Isoliermedien für gasisolierte elektrische Energieanlagen vorgeschlagen. eine gründliche Bewertung eines solchen Konzepts erfordert die Kenntnis der Aufschlüsselungsfelder, die die Abmessungen und andere Entwurfsparameter solcher Systeme steuern. Dieses Papier trägt einige vorläufige physikalische Hintergrundinformationen zur Entladung bei, die erforderlich sind, um Entwurfsfelder abzuleiten. Es meldet experimentelle Ausfalldaten von Druckluft und Stickstoff bis zu 950 kPa in gleichmäßigen Feldspalten mit partikulärer Kontamination. Darüber hinaus werden Strommessungen vor dem Durchbruch und zeitaufgelöste Bildwandleraufzeichnungen verwendet, um die relevanten Entladungsmechanismen zu identifizieren. bei vorhandener Partikelverunreinigung wird der Durchschlag der Druckluftisolierung durch den Vorspannmechanismus kontrolliert, Durchschlagsfelder liegen im Bereich von 5,5 bis 8 kV/cmbar für Partikel im Bereich von 3 bis 5 mm Länge. in komprimierten Stickstoff-Streamern überqueren Sie den Spalt immer auf dem Durchschlagsniveau (mindestens bis zu 500 kPa) und der Durchschlagsmechanismus kann vom direkten Streamer-zu-Funken- oder Leader-Typ sein. die partikelinduzierten Durchbruchfelder in Stickstoff liegen im Bereich von 4 bis 4,5 kV/cmbar, d. h. Stickstoff schneidet weniger gut als Luft.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4899-7_50 70c9c518f8c1bbe5d95301055f5ec4ea;de;;;4.2.;;;Das Cogniscope Eine Antwort auf die zunehmende Komplexität und das zunehmende Risiko der Gestaltung und Planung sozialer Systeme, insbesondere interorganisationaler Kooperationen, besteht darin, Methoden auf gut erforschte Prinzipien zu gründen und die Wirksamkeit ihrer Anwendung empirisch zu überprüfen. Jüngste Beispiele aus unserer Praxis umfassen die Einbeziehung von Vertretern von fünfzig Organisationen in die Planung eines zwanzigjährigen globalen Programms zur Beseitigung von Krankheiten, internationale Philanthropie-Regierungs-Venture-Capital-gesponserte industriell-akademische Konsortien in Nordirland, externe Stakeholder-getriebene Modernisierung der Regulierungspolitik, Bundes- und Staatliche behördenübergreifende Koordination für die Ressourcenverwaltung und landesweites Engagement von Interessenvertretern in der Sonderpädagogik.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75843-5_13 9a8cb9ae86fd82c56a291b1e9e0d69c2;de;;;4.2.;;;Wohneigentum und Unterstützung der staatlichen Umverteilung In diesem Artikel untersuchen wir die Beziehung zwischen Wohneigentum und Unterstützung der Umverteilung in 24 europäischen Ländern und integrieren dabei die Forschung zu Wohnsystemen und Wohlfahrtseinstellungen. Wir verbessern frühere Forschungen, indem wir die gruppeninterne Heterogenität von Eigentümern und Mietern berücksichtigen, soziale Mechanismen (Eigeninteresse und sozialräumliche Segregation) erarbeiten, indem wir ein breites Spektrum europäischer (statt angelsächsischer) Länder untersuchen und indem die Unterschiede in der Bedeutung von Besitz und Wohneigentum zwischen den Ländern anerkannt werden. Wir stellen fest, dass Wohneigentümer die Umverteilung zwar weniger unterstützen, die Wirkung von Wohneigentum jedoch je nach Alter und Einkommensposition variiert. Wir stellen außerdem fest, dass die Merkmale des Wohnregimes von Bedeutung sind, da Eigentümer und Mieter in unterschiedlichen Kontexten unterschiedliche Einstellungen zur Wohlfahrt haben. In Umgebungen, in denen das Wohneigentum stärker finanziert wird, ist die Unterstützung für die Umverteilung geringer, und dies umso mehr bei den Wohneigentümern. Auf der anderen Seite bevorzugen sowohl Eigentümer als auch Mieter in Umgebungen, in denen Eigentumswohnungen Lücken in der Sozialversorgung schließen, eine stärkere Umverteilung.;-;-;-;https://link.springer.com/article/10.1057/cep.2014.31 065882f1c33da40abc2220601e3a85de;de;;;4.2.;;;Einwilligung nach Aufklärung und Verwendung von Placebo in Polen: Ethische und rechtliche Aspekte Das Konzept der Einwilligung nach Aufklärung war eine der fruchtbarsten Ideen, die die Beziehungen zwischen Ärzten und ihren Patienten tiefgreifend von der Bevormundung hin zur Achtung der persönlichen Autonomie von Patienten, die eine professionelle medizinische Versorgung benötigen, verändert hat. Der große Fortschritt in der Medizin, der auch die pharmazeutische Industrie einbezieht, hat zu einem zunehmenden Bedarf an verschiedenen klinischen und experimentellen Studien geführt. Die Entwicklung der klinischen Forschung in den letzten Jahrzehnten hat das Design dieser Studien stark beeinflusst. Eine der wichtigsten Änderungen in diesem Bereich war die Verwendung von Placebogruppen in kontrollierten Doppelblindstudien. Die Kontroversen betrafen nicht nur die Verwendung von Placebo, wenn eine Standard- oder eine bewährte Behandlung verfügbar war, sondern auch einige spezifische Probleme im Zusammenhang mit dem Verfahren zur Einholung einer informierten Einwilligung in solchen Studien. In diesem Beitrag werden kurz die Entwicklung der Einwilligung nach Aufklärung in Polen sowie verschiedene ethische und rechtliche Probleme in Bezug auf die Einwilligung nach Aufklärung und die Verwendung von Placebokontrollen in klinischen Studien vorgestellt.;-;-;-;https://link.springer.com/article/10.1007/s11948-004-0074-9 e318a5f30de9aea9b2c6b73bbed131bb;de;;;4.2.;;;Shakira als idealisierter transnationaler Bürger: Eine Fallstudie von Wie viele der Spanglish-Generation ist Shakira ein wandelnder, lebender, atmender, singender Widerspruch. Geboren und aufgewachsen in Kolumbien, lebte sie für Bands wie Led Zeppelin, The Cure, The Police, die Beatles und Nirvana. Rock war ihre erste musikalische Liebe, aber ihre arabische Kultur war ihr Leben …. Obwohl sie einst zur Königin des Karnevals von Barranquilla gekürt und vom kolumbianischen Salsa-Star Joe Arroyo gekrönt wurde, ist Shakira vor allem ein Rock-Chick.;-;-;-;https://link.springer.com/chapter/10.1057/9781137268280_12 506e5e6a4b535afba5904f307caf3ada;de;;;5.2.;;;Lösen dynamischer stochastischer Steuerungsprobleme im Finanzwesen mithilfe der Tabu-Suche mit variabler Skalierung Zahlreiche mehrstufige Planungsprobleme im Finanzbereich beinhalten nichtlineare und nichtkonvexe Entscheidungskontrollen. Eine der einfachsten ist die Fixed-Mix-Anlagestrategie. In jeder Phase des Planungshorizonts passt ein Investor sein Portfolio neu an, um einen Zielmix der Vermögensanteile zu erreichen. Die Entscheidungsvariablen repräsentieren die Zielprozentsätze für die Anlagekategorien. Wir zeigen, dass eine Kombination aus Tabu-Suche und Variablenskalierung trotz des Vorhandenseins von Nichtkonvexitäten global optimale Lösungen für reale Testfälle generiert. Rechenergebnisse zeigen, dass der Ansatz mit über 20 Phasen (20 Jahre), 100 Szenarien und 8 Anlageklassen praktisch auf Anlageprobleme angewendet werden kann. Die Methode lässt sich ohne weiteres auf komplexere Anlagestrategien mit unterschiedlichen Formen von Nichtkonvexitäten übertragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-1361-8_26 53584b16da5a23859b77f8354246e70f;de;;;5.2.;;;QoS-Multicast-Routing-Optimierungsalgorithmus basierend auf Hybridalgorithmus Das Multicast-Routing-Problem mit mehreren QoS-Einschränkungen ist ein NP-vollständiges Problem. Die Lösung des Problems erfolgt in der Regel nach der Methode der Optimierung. In diesem Papier wurde ein Netzwerkmodell beschrieben, das zur Untersuchung des Routing-Problems geeignet ist, basierend auf QoS-Beschränkungen wie Verzögerung, Verzögerungsjitter, Bandbreite und Paketverlustmetriken. Ein Multicast-Routing-Algorithmus mit mehreren QoS-Beschränkungen wurde basierend auf der GA- und TS-Hybridstrategie vorgestellt. Dieser Algorithmus nutzte GA und TS (Tabu Search) und überwand die Unzulänglichkeiten von GA bei der Lösung des Multicast-Routing-Problems mit mehreren QoS-Einschränkungen – schlechte Kletterfähigkeit und unausgereifte Konvergenz. Simulationsergebnisse zeigen, dass im Hybridalgorithmus eine höhere Sucheffizienz und schnellere Konvergenz erreicht wird und der Algorithmus ein effektiver Ansatz für Multicast-Routingentscheidungen mit mehreren QoS-Beschränkungen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20370-1_54 8edf1f21564bb0c41f2379d3ad97daa9;de;;;5.2.;;;Sammeln von Netzwerknachweisen mit eingeschränkten ungefähren Suchalgorithmen Intrusion-Detection-Systeme sind Abwehrwerkzeuge, die bösartige Aktivitäten in Netzwerken und Hosts erkennen. In der Netzwerk-Forensik untersuchen Ermittler häufig Protokolle, in denen Warnungen gespeichert sind, die von Intrusion Detection-Systemen generiert wurden. Diese Forschung konzentriert sich auf Snort, ein weit verbreitetes Open-Source-System zur Erkennung von Angriffen auf Missbrauchsbasis, das Netzwerkangriffe basierend auf einem vordefinierten Satz von Angriffssignaturen erkennt. Wenn eine Sicherheitsverletzung auftritt, beginnt ein forensischer Ermittler normalerweise mit der Untersuchung von Netzwerkprotokolldateien. Snort kann jedoch unbekannte Angriffe (d. h. Zero-Day-Angriffe) nicht erkennen, selbst wenn sie bekannten Angriffen ähneln. Daher kann ein Ermittler in einem Strafverfahren Beweise verlieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99277-8_9 e08dd221b2d649d1d54ed8580a7b88f4;de;;;5.2.;;;Kooperative Formationssteuerung autonomer Unterwasserfahrzeuge: Ein Überblick Formationssteuerung ist ein kooperatives Steuerungskonzept, bei dem mehrere autonome mobile Unterwasserroboter für eine Gruppenbewegungs- und/oder Steuerungsmission eingesetzt werden. Dieser Artikel bietet einen kurzen Überblick über verschiedene kooperative Such- und Formationskontrollstrategien für mehrere autonome Unterwasserfahrzeuge (AUV) basierend auf der bisher veröffentlichten Literatur. Es werden verschiedene kooperative und Formationssteuerungsschemata zum Sammeln riesiger Datenmengen basierend auf Formationsregulierungssteuerung und Formationsverfolgungssteuerung diskutiert. Um die Herausforderung der Erkennung von AUV-Ausfällen in der Flotte zu bewältigen, werden auch Kommunikationsprobleme, Kollisions- und Hindernisvermeidung berücksichtigt. Eine Stabilitätsanalyse der möglichen Formation wird ebenfalls vorgestellt. Dieses Papier kann als bequeme Referenz für die weitere Forschung zur Formationskontrolle mehrerer mobiler Unterwasserroboter dienen.;-;-;-;https://link.springer.com/article/10.1007/s11633-016-1004-4 ddba0a00e886cebee51b214296b576a1;de;;;5.2.;;;Einen quadratischen Stift in ein quadratisches Loch einpassen: Metaphern in der narrativen Therapie verwenden Dieser Beitrag untersucht die Annahmen des narrativen Modus der Therapie und die Annahmen therapeutischer Metaphern. Die Prämisse ist, dass die Verwendung von Metaphern zu den Annahmen der narrativen Therapie passt und die narrative Therapie verbessern und erweitern kann. Dieser Aufsatz untersucht die Struktur und Arten von Metaphern, untersucht ihre Einbettung in das narrative Modell und gibt drei Fallbeispiele, die die Verwendung von Metaphern in der narrativen Therapie illustrieren.;-;-;-;https://link.springer.com/article/10.1007/BF02249309 26cc2853418eaae2a5bbd1cb2b58eb19;de;;;5.2.;;;Verkehrsverteilung für End-to-End-QoS-Routing mit Multicast-Multichannel-Diensten Mit der Entwicklung von Multimedia-Gruppenanwendungen und Multicasting-Anforderungen ist der Aufbau eines Multicast-Routing-Baums, der die Dienstgüte (QoS) erfüllt, wichtiger. Ein Multicast-Baum, der durch existierende Multicast-Algorithmen aufgebaut wird, hat drei große Schwächen: (1) er kann nicht durch Multichannel-Routing aufgebaut werden, das Senden einer Nachricht über alle verfügbaren Verbindungen, daher kann der Datenverkehr nicht bevorzugt verteilt werden, (2) er tut es keine Duplizierungskapazität formulieren, folglich kann die Duplizierungskapazität in jedem Knoten nicht optimal verteilt werden, (3) sie kann die Anzahl der optimal genutzten Verbindungen und Knoten nicht ändern. Tatsächlich kann er ungenutzte Backup-Mehrkanalpfade nicht optimal nutzen und abdecken. Um diese Schwächen zu überwinden, stellt dieses Papier einen polynomialen Zeitalgorithmus für verteiltes optimales Multicast-Routing und Quality of Service (QoS)-Garantien in Netzwerken mit Mehrkanalpfaden vor, der als;-;-;-;https://link.springer.com/article/10.1007/s11227-008-0263-4 cf660a921b5c3039290890b49d3a15ac;de;;;5.2.;;;Aktives Altern – Förderung der digitalen Kompetenz älterer Bürger In der heutigen Gesellschaft ist es von entscheidender Bedeutung, digital und informationskompetent zu sein, obwohl nicht jeder Bürger über die notwendigen Mittel und Ressourcen verfügt, um diese Fähigkeiten zu erlangen, insbesondere ältere Menschen. Daher ist es notwendig, Wege zu entwickeln, die ihnen helfen, ihre digitalen und informationellen Kompetenzen zu verbessern. In diesem Beitrag stellen wir ein laufendes Projekt vor, das mit dem Ziel konzipiert und umgesetzt wurde, älteren Bürgern die notwendigen Kompetenzen einer vernetzten Gesellschaft zu vermitteln und so zu einem aktiven Altern beizutragen. Die verwendeten Methoden basierten auf einer Reihe von praktischen Workshops, die von einem Team aus freiwilligen Schülern und Lehrern mit Hilfe von Mitarbeitern eines Pflegeheims durchgeführt wurden. Die Workshops wurden entsprechend den ermittelten Bedürfnissen einer Gruppe älterer Mitbürger, basierend auf den Antworten eines implementierten Fragebogens, entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07485-6_44 d5863432633d4023df2abf72bba1e077;de;;;5.2.;;;Fallibilismus: Die selbstkorrigierende Eigenschaft des Denkens Wir haben bereits ein vorläufiges Verständnis von Peirces Behandlung von „Bedeutung“ erlangt, aber da dieses Thema ein Hauptanliegen der Philosophie des 20. Jahrhunderts war, werden wir näher darauf eingehen. Im Folgenden bieten wir einen sehr kurzen Überblick über die wichtigsten Denkschulen zu diesem Thema. Allen gemeinsam ist die Tendenz, „Bedeutung“ mit „Gebrauch“ im unterschiedlichen Sinne des letzteren Begriffs gleichzusetzen. Es ist interessant, dieses Problem von einem Peirceschen Standpunkt aus zu sehen, und die vorgeschlagene Antwort auf das Problem, die wir unten präsentieren, basiert offensichtlich auf Peirces Analyse verwandter Konzepte wie „Regel“, „Idee“, „;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-2802-8_4 59cf128ca063847df40cac7fc027ae81;de;;;5.2.;;;Semi-überwachte Klassifikation basierend auf der dünnbesetzten Darstellung von Unterräumen Graph spielt eine wichtige Rolle bei der graphenbasierten semi-überwachten Klassifikation. Aufgrund von verrauschten und redundanten Merkmalen in hochdimensionalen Daten ist es jedoch keine triviale Aufgabe, einen gut strukturierten Graphen auf hochdimensionalen Stichproben zu erstellen. In diesem Papier nutzen wir die dünn besetzte Darstellung in zufälligen Unterräumen für die Graphenkonstruktion und schlagen eine Methode namens;-;-;-;https://link.springer.com/article/10.1007/s10115-013-0702-2 bac7edc713a6906ffbfc88005f5fc04b;de;;;5.2.;;;Konvergente Systeme: Nichtlineare Einfachheit Konvergente Systeme sind Systeme, die eine eindeutig definierte global asymptotisch stabile stationäre Lösung haben. Asymptotisch stabile lineare Systeme, die durch ein begrenztes zeitvariables Signal angeregt werden, sind konvergent. Zusammen mit dem Superpositionsprinzip bildet die Konvergenzeigenschaft die Grundlage für eine Vielzahl von Analyse- und (Regelungs-)Designwerkzeugen für lineare Systeme. Nichtlineare konvergente Systeme sind linearen Systemen in vielerlei Hinsicht ähnlich und daher in gewissem Sinne einfach, obwohl das Superpositionsprinzip nicht gilt. Diese Einfachheit ermöglicht es, eine Reihe von Analyse- und Entwurfsproblemen für nichtlineare Systeme zu lösen, und macht die Konvergenzeigenschaft für praktische Anwendungen sehr wichtig. In diesem Kapitel untersuchen wir den Begriff konvergenter Systeme und seine Anwendungen auf verschiedene Analysen und Entwurfsprobleme im Bereich der Systeme und Steuerung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30357-4_3 1728e87ae91ec9e6925a548e7c68a282;de;;;4.2.;;;Eine sich entwickelnde (Dis)Informationsumgebung – Wie ein engagiertes Publikum Narrative verbreiten und die Wahrnehmung prägen kann: Eine Fallstudie zu Trident Juncture 2018 Dieses Kapitel bietet einen Überblick über die sich entwickelnde YouTube-Informationsumgebung während der NATO-Übung Trident Juncture 2018. Die Verbreitung von Informationen wird nicht mehr allein durch Informationsakteure getrieben, die Inhalte in sozialen Medien veröffentlichen, sondern auch durch das Publikum, das damit interagiert. Interaktionsfunktionen wie Kommentare und Antworten ermöglichen es einem Publikum, mit dem Herausgeber und anderen Benutzern zu interagieren;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-42699-6_13 0fb42da997211fd63e0b29d6d077d896;de;;;4.2.;;;Zivile Institutionen und das Militär Die ersten elf Jahre der Unabhängigkeit waren entscheidend für die Gestaltung des politischen und administrativen Profils Pakistans. Aus dem Chaos und der Verwerfung durch die Teilung Britisch-Indiens wurde eine neue Staatsstruktur geschaffen, und Pakistans souveräner Status wurde stabilisiert und widersetzte sich den Vorhersagen, dass der neue Staat unter der Last seiner Probleme zusammenbrechen würde. Der Staatsaufbau unter den schwierigen Umständen der Anfangsjahre verfestigte jedoch das Zentrum und die bürokratisch-militärische Elite auf Kosten der politischen Institutionen und Prozesse. Pakistan entwickelte sich zu einer zentralisierten und administrativen Gemeinschaft, die das Wachstum autonomer und lebensfähiger politischer Institutionen und Prozesse erstickte. Obwohl der Staat über einen ausreichend entwickelten Apparat verfügte, war es schwierig, dem Beteiligungsdruck und den Forderungen nach sozioökonomischer Gerechtigkeit einer heterogenen Bevölkerung und diversifizierten Regionen gerecht zu werden.;-;-;-;https://link.springer.com/chapter/10.1057/9780230599048_4 664d7dc6fcee2d35b2547045a6bbcf35;de;;;4.2.;;;Sozialhilfeempfänger bei Kindern, die bei Großeltern leben Ein erheblicher Anstieg der Zahl der Kinder, die bei den Großeltern leben, hat Bedenken hinsichtlich ihres wirtschaftlichen Wohlergehens und der Inanspruchnahme von Sozialhilfeprogrammen durch die Großeltern aufkommen lassen. Mit Daten aus der Erhebung über Einkommen und Programmteilnahme profiliere ich das wirtschaftliche Wohlergehen von Kindern, die bei den Großeltern leben, und schätze die Wahrscheinlichkeit, zwei Wohlfahrtsprogramme zu erhalten: Lebensmittelmarken und vorübergehende Hilfe für bedürftige Familien (TANF). Die Ergebnisse deuten darauf hin, dass die Ermittlung der genauen Lebensumstände von Kindern entscheidend für das Verständnis der Unterschiede in Bezug auf wirtschaftliche Benachteiligung und Sozialleistungen bei Kindern ist, die bei den Großeltern leben. Obwohl Kinder in Großmutterfamilien, in denen kein Elternteil anwesend ist, am wahrscheinlichsten arm sind, sind sie nicht die Kinder, die am wahrscheinlichsten Sozialhilfe erhalten. Die Kinder mit den höchsten Sozialleistungen leben bei ihren alleinerziehenden Müttern und Großeltern in Drei-Generationen-Haushalten.;-;-;-;https://link.springer.com/article/10.1007/s11113-005-4437-y 5fc9e3101c71aabcaadd702a30d4b3db;de;;;5.2.;;;Ein robustes Lösungssuchschema in der genetischen Suche Viele der Studien zu GAs legen den Schwerpunkt darauf, die global optimale Lösung zu finden. In diesem Artikel schlagen wir eine neue Methode vor, die die Anwendung von GAs auf Domänen ausdehnt, die den Nachweis von;-;-;-;https://link.springer.com/chapter/10.1007/3-540-61723-X_1018 6e0510a5b524fe9e8929f9bb4709d786;de;;;5.2.;;;Erkennungsmethoden ändern, die auf niedrigrangiger spärlicher Darstellung für multitemporale Fernerkundungsbilder basieren Mit der Entwicklung von Fernerkundungsbildanwendungen sind Fernerkundungsbilder eine wichtige Technologie, um Veränderungen von Land oder Küstenzonen dynamisch zu erkennen. Obwohl hochauflösende Fernerkundungsbilder eine sehr gute Leistung und große Informationen für die räumliche Strukturvariation bieten, erschwert die Begrenzung ihrer räumlichen Struktur die Erkennung von Veränderungen. In diesem Artikel schlagen wir zwei Methoden zur Änderungserkennung für multitemporale Fernerkundungsbilder vor, die auf einer niederrangigen dünnbesetzten Dekomposition und auf einer niederrangigen Matrixdarstellung basieren. Eine Beobachtungsmatrix wird konstruiert, indem jedes Band von Fernerkundungsbildern in einen Vektor eingeordnet wird. Wir verwenden die Methode der bilateralen Zufallsprojektion, um eine Zerlegung mit niedrigem Rang durchzuführen, um eine dünnbesetzte Matrix zu erhalten. Wir erhalten dann die Änderungskarte, indem wir den nächsten Nachbarn verwenden, um die Änderungsteile aus der dünnbesetzten Matrix zu gruppieren. Andererseits wird durch Aufteilen des Differenzsatzes von multitemporalen Fernerkundungsbildern in nicht überlappende Quadrate gleicher Größe und Kacheln dieser Quadrate eine Beobachtungsmatrix aufgebaut. Wir erstellen eine Feature-Space-Matrix durch Matrixdarstellung mit niedrigem Rang, um ein Sparse-Repräsentationsmodell zu erstellen, und kombinieren die Nearest Neighbour-Methode, um eine Änderungserkennung für multitemporale Fernerkundungsdatensätze durchzuführen. Dieses Änderungserkennungsverfahren wird durch Iteration zwischen Kernelnormminimierung und Sparsity-Minimierung angesprochen. Die experimentellen Ergebnisse zeigen, dass unsere vorgeschlagenen Methoden bei der Erkennung von Veränderungen besser abschneiden als die anderen Methoden zur Erkennung von Veränderungen.;-;-;-;https://link.springer.com/article/10.1007/s10586-017-1022-1 0d31b40270c8d2abee57e5421d09c7b3;de;;;5.2.;;;Verallgemeinertes Schematheorem, das die Zwillingsentfernung für die Vorhersage der Proteinstruktur einschließt Das Schematheorem, auf dem die Funktionsweise des Genetic Algorithm (GA) in seiner jetzigen Form basiert, hat ein trügerisches Auswahlverfahren und eine unvollständige Crossover-Operation. In diesem Papier wurde eine Verallgemeinerung des Schematheorems durch Korrigieren und Entfernen dieser Einschränkungen bereitgestellt. Die Analyse zeigt, dass das Ähnlichkeitswachstum innerhalb der GA-Population aufgrund ihrer stochastischen Natur inhärent ist. Während die stochastische Eigenschaft bei der Konvergenz von GA hilft. Das Ähnlichkeitswachstum ist für das Abwürgen verantwortlich und wird häufiger für schwierige Optimierungsprobleme wie;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75286-8_9 92c6b98abe8ec7b65178ef3f8e8cb00b;de;;;5.2.;;;Variable Nachbarschaftssuche für das Orientierungslaufproblem Das Orienteering Problem (OP) ist eine Variante von TSP mit Gewinn, bei der statt eines Zyklus ein Weg gesucht wird. In diesem Papier betrachten wir drei Varianten der Variable Neighborhood Search (VNS) und präsentieren den ersten Algorithmus, der ausschließlich auf VNS basiert, um das OP zu lösen. Die experimentellen Ergebnisse für die Benchmark-Probleme zeigen, dass der Algorithmus, der unter Verwendung von reduziertem VNS anstelle der lokalen Suchphase des traditionellen VNS entwickelt wurde, der beste unter anderen von uns getesteten VNS-Variationen ist, er ist der robusteste und liefert die besten Ergebnisse. bzgl. der Lösungsqualität innerhalb eines angemessenen Zeitraums. Darüber hinaus verbessert es die bekanntesten Ergebnisse für einige Benchmark-Probleme und reproduziert die besten Ergebnisse für andere.;-;-;-;https://link.springer.com/chapter/10.1007/11902140_16 135c4fa222df3d8edec8689fc25de4c9;de;;;4.2.;;;Bayessche Analyse multivariater Probit-Modelle mit Surrogat-Ergebnisdaten Eine neue Klasse parametrischer Modelle, die das multivariate Probit-Modell und das Fehler-in-Variablen-Modell verallgemeinern, wird entwickelt, um ordinale Daten zu modellieren und zu analysieren. Es wird angenommen, dass eine allgemeine Modellstruktur die über Ersatzvariablen erhaltenen Informationen aufnimmt. Zur Schätzung der Modellparameter wird ein hybrider Gibbs-Sampler entwickelt. Um einen schnell konvergierten Algorithmus zu erhalten, wird die Parameterexpansionstechnik auf die Korrelationsstruktur der multivariaten Probit-Modelle angewendet. Das vorgeschlagene Modell und die Analysemethode werden mit realen Datenbeispielen und Simulationsstudien demonstriert.;-;-;-;https://link.springer.com/article/10.1007/s11336-010-9164-6 631250261ce26f6aef19d85a2fc21334;de;;;5.2.;;;Adaptives simuliertes Glühen Adaptive Simulated Annealing (ASA) ist ein C-Sprachcode, der die beste globale Anpassung einer nichtlinearen Kostenfunktion über einen D-dimensionalen Raum findet. ASA bietet über 100 OPTIONEN für eine robuste Abstimmung über viele Klassen nichtlinearer stochastischer Systeme. Diese vielen OPTIONEN tragen dazu bei, dass ASA robust in vielen Systemklassen verwendet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27479-4_4 8883a8d21039ccab010ea71cd5c56a19;de;;;5.2.;;;Die Theorie der Infodynamik: Eine Einführung in ihren konzeptionellen Rahmen Es ist jetzt nützlich, einen epistemischen Rahmen bereitzustellen, auf dem die Theorie der Infodynamik entwickelt wird. Diese Theorie ist eine Fortsetzung der Theorie der Infostatik. Sie ist als einheitliche Grundlagentheorie des Kennenlernens, Kennens und Lernens durch epistemische Prozesse entwickelt, die die Formen des Lehrens und Erziehens durch Vermittlungs- und Kommunikationsprozesse von Bedingungen der Transformation von Varietäten und kategorialen Varietäten annehmen. Die Transformationen von Sorten und kategorialen Sorten erfolgen durch Entscheidungs-Wahl-Prozesse und die Nachahmung der Natur, um die Bedürfnisse technischer Prozesse zu befriedigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-63853-9_4 191693a8fb177bc8f872184d3b8930f9;de;;;5.2.;;;Eine Perspektive auf die dynamischen Beiträge Die Kapitel in diesem Band unterstreichen die Tatsache, dass gesunde Veränderungen der Persönlichkeit und des Verhaltens noch sehr unvorhersehbar sind. Dieser Punkt gilt in jedem Beratungszimmer und bei jedem Kundentyp. Die Wirkung dieser Wahrheit ist sowohl entmutigend als auch herausfordernd. Ja, wir müssen die Grenzen unserer bestehenden therapeutischen Kräfte und Einsichten realistisch einschätzen. Und ja, wir müssen bei unbekannten Möglichkeiten für neue therapeutische und theoretische Fortschritte realistisch sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-2163-5_13 2518df2277618414abd39d50e1f2ca5b;de;;;5.2.;;;Ranking lernen: Neuer Ansatz mit der mehrschichtigen genetischen Programmierung für mehrere Populationen auf Click-Through-Funktionen Die Click-Through-Daten der Benutzer sind eine wertvolle Informationsquelle über die Leistung von Websuchmaschinen, aber sie sind in wenigen Datensätzen enthalten, um das Ranking zu erlernen. In diesem vom Click-Through-Datenmodell inspirierten Papier wird ein neuartiger Ansatz vorgeschlagen, um das implizite Benutzerfeedback aus in Benchmarking-Datensätzen eingebetteten Beweisen zu extrahieren. Dieser Prozess gibt eine Reihe neuer Funktionen aus, die als Click-Through-Funktionen bezeichnet werden. Generierte Click-Through-Funktionen werden in einem mehrschichtigen genetischen Programmierrahmen für mehrere Populationen verwendet, um die bestmöglichen Ranking-Funktionen zu finden. Das mehrschichtige genetische Programmierungs-Framework für mehrere Populationen ist schnell und bietet im Vergleich zu den herkömmlichen Ansätzen der genetischen Programmierung umfangreichere Suchmöglichkeiten. Die Leistung des vorgeschlagenen Frameworks zur Ranking-Generierung wird sowohl in Gegenwart als auch in Abwesenheit expliziter Click-Through-Daten in den verwendeten Benchmark-Datensätzen untersucht. Die experimentellen Ergebnisse zeigen, dass Click-Through-Features in beiden Fällen effizient extrahiert werden können, sich jedoch effektivere Ranking-Funktionen ergeben, wenn Click-Through-Features aus Benchmark-Datensätzen mit expliziten Click-Through-Daten generiert werden. In jedem Fall werden die deutlichsten Ranking-Verbesserungen an den Spitzen der bereitgestellten Ranglisten von Ergebnissen erzielt, die von den Web-Benutzern sehr gezielt werden.;-;-;-;https://link.springer.com/article/10.1007/s10710-016-9263-y 0eac3c702163d1e86182b5cd6e2a3e16;de;;;4.2.;;;Tschechoslowakei Die Schiedsgerichtsbarkeit in der Tschechoslowakei richtet sich nach den Artikeln 648–654 des Gesetzes vom 25. Oktober 1950 Nr. 142 Gesetzessammlung der Republik Tschechoslowakei (im Folgenden „Sammelsammlung“) über das Verfahren in Zivilsachen, geändert durch das Gesetz Nr 68/1952 Sammlung. Der vollständige Text der Zivilprozessordnung (im Folgenden „C.C.P.“) wurde vom Justizminister in der Sammlung Nr. 2/1953 veröffentlicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-3696-7_10 ef04ab82930d3ff9bd531e5c8a078f9f;de;;;4.2.;;;Die Bedeutung von ITS-Anwendungen für die neue Mobilitätskultur in den Städten Der negative Einfluss des Verkehrs auf die städtische Umwelt ist bei einer Reihe von Städten eine Tatsache. Hintergrund ist die Zunahme der urbanen Dichte und die Mobilität der Einwohner vor allem durch die Zunahme des Individualverkehrs. Auch die Analyse der Aufgaben- und Arbeitsverteilung im Verkehr bestätigt die Dominanz des Straßenverkehrs. Weitere Herausforderungen durch die Verkehrsaktivitäten sind: Dauerstaus, Verschlechterung der Luftqualität in den Städten und steigende Unfallzahlen. All dies erfordert Reflexion und ruft nach Veränderungen. Der veränderte Umgang mit Mobilität in den Städten wird als neue Mobilitätskultur bezeichnet. Wichtige Position auf dem Weg zu nachhaltiger Mobilität nehmen die Aktivitäten rund um die Anwendung intelligenter Verkehrssysteme ein. Die Identifikation der damit zusammenhängenden zu lösenden Fragestellungen sowie der Optionen und Lösungsansätze im Kontext der neuen Mobilitätskultur wurden im vorliegenden Beitrag diskutiert. Die neue Mobilitätskultur ist zugleich ein Weg zu einem besseren und umweltfreundlicheren Transport in den Städten. Es ermöglicht ein breites Spektrum an Aktionen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24660-9_24 9fb779345009f0d57fd1e3de61779942;de;;;5.2.;;;Trennung von Wirtschaft und Politik: Japans Handel mit zwei Planwirtschaften, 1950–60 Nach seiner bedingungslosen Kapitulation verlor Japan die Kontrolle über seinen Außenhandel an SCAP. Eine solche Prüfung, zusätzlich zu der durch den Zweiten Weltkrieg verursachten Trennung, brachte den japanischen Handel mit China und der Sowjetunion praktisch zum Erliegen. Ein etwas liberaleres Handelsregime entstand ab 1947 mit den Anfängen des „Umkehrkurses“. Noch im März 1949 zielte die offizielle US-Politik darauf ab, „durch die Wiederherstellung der normalen Wirtschaftsbeziehungen mit China solche Kräfte zu verstärken, die ernsthafte Spaltungen zwischen Moskau und einem chinesischen kommunistischen Regime herbeiführen könnten“.;-;-;-;https://link.springer.com/chapter/10.1057/9780230005693_4 08c3bb020eabfcbf74159fd8b1c73722;de;;;4.2.;;;Nachhaltige virtuelle Gemeinschaften: Vorschläge aus dem Kolonialmodell Während die Forschung zu virtuellen Gemeinschaften zum Verständnis der Nachhaltigkeit virtueller Gemeinschaften beigetragen hat, besteht ein Bedarf an einem systematischen Modell. In diesem Papier schlagen wir ein Modell nachhaltiger virtueller Gemeinschaften vor, das auf den Nachhaltigkeitseigenschaften von Tierkolonien in der Natur basiert. Die Prämisse unseres Modells ist, dass, wenn es uns gelingt, die Nachhaltigkeitseigenschaften kolonialer Systeme in virtuellen Gemeinschaften zu replizieren, diese länger anhalten können. Außerdem präsentieren wir die Ergebnisse einer explorativen Fallstudie. Die Studie zeigt, dass koloniale Besitztümer ein Konstrukt bilden, das die Wahrnehmung der Mitglieder ihrer Gemeinschaft als nachhaltig voraussagt. Während unser primäres Ziel die konzeptionelle Einführung der kolonialen Prinzipien der Nachhaltigkeit ist, liefert die Fallstudie einige frühe Hinweise darauf, dass diese Prinzipien helfen können, Systeme zu entwerfen, die virtuelle Gemeinschaften dauerhafter binden können.;-;-;-;https://link.springer.com/article/10.1007/s10257-005-0002-9 ff9f6db8928970631da6b4242699a89e;de;;;5.2.;;;Erweiterungen und Anwendungen des Modells In den vorangegangenen Kapiteln wurde die Art der Verteilung neuer ausländischer Investitionen in Großbritannien im letzten Jahrzehnt zusammen mit den wirtschaftlichen Einflüssen auf diese Verteilung eingehend untersucht, wobei die Schlussfolgerung gezogen wurde, dass Regionalbeihilfen, relative Einnahmen und Infrastrukturausgaben die wichtigsten Determinanten waren. Ziel dieses Kapitels ist es, eine Reihe von Erweiterungen und Anwendungen dieses Basismodells zu betrachten, die ein empirisches und theoretisches Verständnis der regionalen Standortentscheidungen des ausländischen Investors in der jüngeren Vergangenheit bereichern.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-13101-3_6 99fbbfbb85fa5907d749132150f182bc;de;;;5.2.;;;Makroökonomische Modelle II: Die Erstellung und Analyse von Prognosen In diesem Kapitel wird die Aufmerksamkeit auf die Verwendung geschätzter Modelle und insbesondere geschätzter makroökonomischer Systeme für verschiedene Arten von Vorhersagen gerichtet. Zusammen mit der Notwendigkeit, Hypothesen über den Zusammenhang ökonomischer Variablen zu testen, ist die Erstellung von Vorhersagen ein Hauptziel der angewandten ökonometrischen Analyse. Angesichts des offensichtlichen praktischen Wertes des Endprodukts liegt das Interesse vor allem auf der vielleicht einzigen Art der Vorhersage, nämlich der Vorhersage der Zukunft, die jedoch meist als bezeichnet wird;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-15548-4_6 1d94b7d1d07fb14ab0771980f214f95d;de;;;4.2.;;;Lokalisierung der Websites nationaler Tourismusorganisationen: Der Fall der ETC-Mitglieder Die Zahl der internationalen Touristenankünfte nimmt weltweit und insbesondere in Europa erheblich zu. Angesichts der Rolle, die Informations- und Kommunikationstechnologien (IKT) bei der Information von Besuchern aus internationalen Märkten spielen, nimmt die Übersetzung von Zielwebsites eine zentrale Stellung ein. Der starke Online-Wettbewerb verlangt von den nationalen Tourismusorganisationen (NTOs) nicht nur, die touristischen Dienstleistungen zuzuschneiden, sondern auch ihre Kommunikationsstrategien entsprechend dem kulturellen Hintergrund und den Gewohnheiten ihrer unterschiedlichen Zielgruppen zu gestalten. Eine solche Anpassung wird als „Lokalisierung“ definiert, eine allgemein anerkannte Praxis im E-Commerce- und Marketingsektor sowie im Tourismusbereich. Ziel der vorliegenden Studie ist es, die tatsächliche Nutzung und Integration von Website-Lokalisierungspraktiken bei NTOs zu untersuchen. Dazu werden IT- und Marketingspezialisten befragt, die einen Überblick über die Anpassungsaktivitäten von elf NTOs geben, die Mitglieder der European Travel Commission (ETC) sind. Die Ergebnisse zeigen, dass Lokalisierungsprozesse als wichtig für Marketing- und Kommunikationszwecke auf Zielwebsites anerkannt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-51168-9_5 4cac381415d002903fc3f7abfd102079;de;;;4.2.;;;Die facettenreichen Aspekte des Bloggens als Bildungsplattform Ursprünglich ein Werkzeug für soziale Netzwerke und Erholung, hat der Blog nun seinen Weg in die Bildung gefunden und ist zu einer Plattform für das Lernen durch sozial- und kognitiv-konstruktivistischen Diskurs geworden. Durch Bloggen arbeiten die Schüler zusammen und bauen ihre Informationen auf, um Wissen aufzubauen. Dieser Bildungsprozess ist im Cognitive of Inquiry Framework (Garrison, Anderson und Archer, 2000) zusammengefasst, das ihn in folgende Elemente aufgliedert: kognitive, soziale und lehrende Präsenzen. Der Zweck dieser Studie war es, dieses Framework als Grundlage für die Erforschung des Bloggens in einem English Immersion Program an einer Universität in Singapur zu verwenden und die Wirksamkeit des Bloggens bei der Verbesserung der englischen Schreibfähigkeiten von Studenten zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45272-7_6 4d32908a40afa6f1d36522f223defbef;de;;;4.2.;;;Wie wirkt sich ein dominanter Code in einer epistemischen Netzwerkanalyse aus? In diesem Beitrag wird untersucht, wie unterschiedliche Konfigurationen epistemischer Netzwerkanalyseparameter die Untersuchung von Schülerinteraktionen in asynchronen Diskussionen in Online-Lernumgebungen beeinflussen. Konkret untersucht der Beitrag Strategien zum Umgang mit unbeabsichtigten Folgen eines dominanten Knotens in der epistemischen Netzwerkanalyse (ENA). Insbesondere berichtet der Artikel über eine Studie, die die Auswirkungen zweier verschiedener Strategien untersuchte, darunter (i) die Verwendung verschiedener Dimensionen, die mit der Singulärwertzerlegung (SVD) berechnet wurden, und (ii) der Ausschluss eines dominanten Codes. Unsere Ergebnisse zeigten, dass die Verwendung verschiedener SVDs den Einfluss eines dominanten Codes im Graphen nicht veränderte. Andererseits führte der Ausschluss des dominanten Codes zu einer ganz anderen Konfiguration in ENA. Die praktischen Implikationen der Ergebnisse werden weiter diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-33232-7_6 0bff1b44cee378dff0e89f715600a4de;de;;;4.2.;;;Deterministisches Chaos in der Chemie Die Eigenschaften chaotischer Prozesse in chemischen Systemen und die Art und Weise, wie sich diese Prozesse von anderen unregelmäßig oszillierenden Phänomenen, insbesondere stochastischem Rauschen, unterscheiden, werden untersucht. Es werden grundlegende Definitionen und Konzepte zur Beschreibung chaotischer Zustände gegeben und quantitative Merkmale des deterministischen Chaos untersucht. Die meisten Redoxreaktionen, die in Lösungen im chaotischen Regime auftreten, werden analysiert.;-;-;-;https://link.springer.com/article/10.1007/BF00532098 a47946b4383a0904f5b35523c927fe5c;de;;;5.2.;;;Orthogonale Polynome aus komplexer Perspektive Die Theorie der komplexen Funktionen und ihr enger Begleiter – die Potenzialtheorie – bieten eine Fülle von Werkzeugen zur Analyse orthogonaler Polynome und orthogonaler Entwicklungen. Dieser Beitrag soll zeigen, wie die komplexe Perspektive zu Erkenntnissen über das Verhalten orthogonaler Polynome führt. Insbesondere diskutieren wir die Lage von Nullstellen und das Wachstum orthogonaler Polynome in der komplexen Ebene. Für einige der grundlegenden Ergebnisse liefern wir Beweise, die in der Standardliteratur über orthogonale Polynome normalerweise nicht zu finden sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-0501-6_17 c78efcc74f37fdb05c8dc392092e50b0;de;;;5.2.;;;Down to Business – Neue Namen, neue Rollen – und politische Schatten an der Wand: 1982–84 Es gab noch nie ein Jahr für die Rekrutierung von hochrangigen Stellen im Rundfunk wie 1981. In diesem Jahr suchte das neue Central Television einen Geschäftsführer als Nachfolger von Lord Windlesham, London Weekend sollte seinen Programmdirektor Michael Grade verlieren. nach Amerika, die neu ernannten ITV-Auftragnehmer, TVS und TSW, suchten Personal und Channel Four suchte nach einem Director of Finance (es sollte stattdessen einen Managing Director finden) und der neue Channel-to-be suchte auch ein Dutzend von a neue Rasse des Sendetiers — der beauftragte Redakteur. Auf höchster Ebene warb die BBC für einen neuen Generaldirektor als Nachfolger von Sir Ian Trethowan, und die IBA kündigte an, dass ihr Generaldirektor Sir Brian Young Ende 1982 in den Ruhestand gehen werde Die Resonanz auf die Ausschreibung der IBA-Stelle, die im Januar 1982 erschien, war nicht überwältigend.;-;-;-;https://link.springer.com/chapter/10.1057/9780230373242_3 0ac64e7f3f7473f764e697b074355c43;de;;;4.2.;;;Das politische System der Atoni aus der Sicht der modernen Wissenschaft und der Klassifikation des timoresischen Denkens Wir haben gesehen, dass ein politisches System ein Verbund aus einer Vielzahl von Strukturen der politischen Gemeinschaft ist. Letztere haben wir als Gemeinschaft definiert, die in einem bestimmten Territorium lokalisiert ist und in deren Rahmen Entscheidungen getroffen werden, die für die Gemeinschaft als Ganzes bindend sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-1013-4_13 b9cf1483e979216622ecdeced3f85baa;de;;;4.2.;;;Der Oberste Sowjet und die Haushaltspolitik in der UdSSR Verglichen mit seinen Pendants in anderen Ländern hat die nationale Gesetzgebung der Sowjetunion, der Oberste Sowjet der UdSSR, im Allgemeinen wenig Aufmerksamkeit von Wissenschaftlern erhalten (die einzige buchlange Behandlung ist bisher Vanneman, 1977, siehe auch Hough und Fainsod, 1979, Kap. 10 , White, 1980, und White, 1982). Die Gründe sind nicht weit zu suchen. Der Oberste Sowjet tritt viel seltener zusammen als seine Kollegen anderswo, seine Stimmen fallen fast immer einstimmig aus, seine Diskussion über die Regierungsgesetzgebung ist im Allgemeinen oberflächlich und beschränkt sich auf Details, und er muss noch einen sowjetischen Minister zum Rücktritt auffordern. Doch trotz all dieser offensichtlichen Mängel wurde in den letzten Jahren immer deutlicher, dass der Oberste Sowjet ebenso wie die Sowjets auf den unteren Ebenen der Staatshierarchie größere Befugnisse übernommen und weniger am politischen Prozess beteiligt war als früher unter Stalin oder sogar Chruschtschow. Diese scheinbare Autoritätsübernahme zeigt sich am deutlichsten in der Ausweitung der Zahl und der Befugnisse der ständigen Kommissionen, die jeder ihrer Kammern zugeordnet sind, durch die, wie in den meisten modernen gesetzgebenden Körperschaften, ein zunehmender Teil ihrer Geschäfte abgewickelt wird (Lees und Shaw, 1979), aber es zeigt sich auch auf andere Weise. Alles in allem, wie ein Kommentator es ausdrückte, waren die Sitzungen und Diskussionen des Obersten Sowjets in den vielleicht ersten drei Jahrzehnten seines Bestehens (1936-66), aber seit Stalin, und insbesondere, in der Tat „oberflächlich“ und „inszeniert“. seit Chruschtschow hat der Oberste Sowjet ein »bescheidenes – aber historisch gesehen beeindruckendes – Comeback als Institution mit mehr als rein symbolischen Funktionen hingelegt« (Gilison 1972, S. 50).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-18339-5_4 d6222537f14b4f8ca782e2243518415f;de;;;4.2.;;;Wissensaustausch auf YouTube Der Zweck der vorliegenden Studie besteht darin, sich auf den Wissensaustausch durch die Veröffentlichung von Videoclips auf YouTube und seine Wirksamkeit zu konzentrieren. Als Kanal für den Wissenstransfer wurde YouTube gewählt, da es sich um ein beliebtes Social-Media-Netzwerk handelt, das eine kostenlose Interaktion zwischen registrierten Nutzern über den jeweiligen verfügbaren Videoclip ermöglicht. Auf YouTube wurden verschiedene Videoinhalte manipulativ erstellt, hochgeladen und auf ihre Popularität getestet. Die Anzahl der Videos basiert auf YouTube-Statistiken. Anhand von realen, auf YouTube gesammelten Beispielen wurden mehrere Faktoren als Gründe für die Popularität der Videoclips identifiziert, d. h. Themenauswahl, verwendete Schlagworte und Dringlichkeit des Themas. Dieses Papier hilft Menschen, ihre Videoclips auf YouTube zu entwickeln und erfolgreiche Videomarketing-Kampagnen auf YouTube zu erstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-62698-7_6 94a713995eaeb78b6ed514216217a7be;de;;;4.2.;;;Der Einfluss von Schichtladung und austauschbaren Kationen auf die Sorption von Biphenyl an Montmorilloniten Als Ausgangsmaterialien wurden Montmorillonies verwendet, die aus den Bentoniten SAz-1 (Cheto, AZ, USA) und Cressfield (New South Wales, Australien) abgetrennt wurden. Montmorillonite mit reduzierter Ladung (RCMs) wurden aus diesen chemisch unterschiedlichen und Li-gesättigten Montmorilloniten hergestellt;-;-;-;https://link.springer.com/article/10.2478/s11532-009-0055-6 324ed607b97ae4257f250bde586dffc4;de;;;4.2.;;;SafeLand: Sich änderndes Muster des Erdrutschrisikos und Strategien für sein Management SafeLand ist ein laufendes RP7-finanziertes Projekt, dessen Ergebnisse im Jahr 2012 finalisiert werden sollen. Dieses Papier fasst die Aktivitäten von SafeLand in den Jahren 2009 und 2010 zusammen. Zu den wichtigsten bisher erzielten Ergebnissen gehören:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22087-6_7 00a96012bccbd8e2fa8599bbb551e287;de;;;5.2.;;;Auslegung und Anwendung des New Yorker Übereinkommens in der Tschechischen Republik Während die geringe Rechtsprechung zu diesem Thema es unmöglich macht, definitive Schlussfolgerungen zu bestimmten Auslegungen und Anwendungen des Übereinkommens in der Tschechischen Republik zu ziehen, könnte dies auch darauf hindeuten, dass tschechische Gerichte kaum Schwierigkeiten haben, es in konsistenter und unkomplizierter Weise anzuwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-50915-0_10 84cc44cf09dd3b0b15d901da62bdceaf;de;;;5.2.;;;Persönlichkeit, Persönlichkeitstypen, Merkmale und Störungen des Patienten Eine 34-jährige kaukasische Frau wurde ins Krankenhaus eingeliefert, nachdem sie sich mit einem Steakmesser den Bauch aufgeschnitten hatte. Sie hatte sich methodisch Haut, Bauchmuskeln, Faszien, Bauchfell und Netz durchtrennt und ihren Dünndarm herausgezogen. Sie war in einer Blutlache, als ihre Mitbewohnerin nach Hause kam und den Krankenwagen rief. Bei der Einlieferung ins Krankenhaus bestritt die Patientin Suizidabsichten, sondern sagte, sie müsse sich nur schneiden und Blut sehen, um die Spannung zu lindern. Sie hatte Visionen von sich selbst gesehen, bevor sie sich selbst geschnitten hatte. Sie fühlte keinen Schmerz. Ihr Unterleib war mit Narben von früheren Schnittwunden bedeckt. Dies war ihr 18. Krankenhausaufenthalt, weil sie sich geschnitten hatte.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-69255-5_15 73150061d850af38b049e6dab8c4d605;de;;;4.2.;;;Qualität interaktiver Modelle Als allgemeine Technik zur Erhöhung der Flexibilität computergestützter Informationssysteme wurden interaktive Modelle vorgeschlagen. Interaktive Modelle werden erst während der Entwicklung erstellt, stehen aber auch zur Laufzeit den Benutzern zur Manipulation zur Verfügung und die Modellinhalte beeinflussen das Verhalten des Systems. Solche Modelle sind stärker in den Arbeitsalltag eingebunden als die Modelle, die herkömmlich während der Softwareentwicklung entwickelt werden. Folglich sind sie stärkeren Anforderungen insbesondere hinsichtlich Verständlichkeit, Einfachheit und Flexibilität ausgesetzt. Eine umfassende Übersicht und Einordnung dieser Anforderungen fehlt derzeit in der Literatur zu interaktiven Modellen. Wir haben bereits früher einen Rahmen zum Verständnis und zur Bewertung der Qualität von Modellen im Allgemeinen entwickelt, wobei der Schwerpunkt auf konzeptionellen Modellen lag. Das Framework wurde früher in mehrere Richtungen spezialisiert, hauptsächlich jedoch auf passive Modelle wie Unternehmens- und Anforderungsmodelle. In diesem Papier erweitern wir unseren Qualitätsrahmen auf die Bewertung interaktiver Modelle. Diese Erweiterungen basieren auf unseren Erfahrungen aus der Implementierung interaktiver Modellierungssprachen und Supportsysteme. Während Teile des Frameworks wie ursprünglich definiert verwendet werden können, liefern andere Bereiche aufgrund des viel engeren Zusammenspiels zwischen Modelländerungen und Domänenänderungen ganz andere Ergebnisse als dies bei traditionellen Modellierungs- und Systementwicklungsansätzen der Fall ist. Dies führt zu einer nützlichen Vertiefung unseres Frameworks und einer Verbesserung seiner praktischen Anwendbarkeit für das Verständnis der Qualität interaktiver Modelle.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45275-1_31 820ca71018efd3850bedce592aba5ee8;de;;;4.2.;;;Die Herausforderungen bei der Beurteilung der Medikationsüberzeugungen von Patienten: eine qualitative Studie Schätzungsweise 50 % der Patienten nehmen ihre Medikamente nicht wie verordnet ein, wobei die Einhaltung der Medikamente mit unerwünschten Ergebnissen und höheren Pflegekosten verbunden ist. Das Necessity-Concerns Framework identifizierte die Überzeugungen des Einzelnen zu seiner Medikation als eine Schlüsselrolle bei der Adhärenz, und die UK Clinical Adherence Guidelines empfehlen, die Wahrnehmung des Einzelnen zu seiner Medikation in die Konsultation zu erheben und zu berücksichtigen. Der Beliefs about Medicines Questionnaire (BMQ) wird häufig verwendet, um die Überzeugungen von Medikamenten zu beurteilen. Angesichts der krankheitsspezifischen Natur einiger Selbstbehandlungsschemata ist jedoch nicht bekannt, ob dieses Tool in der Lage ist, die Überzeugungen zu komplexeren Medikamentenschemata vollständig zu erfassen.;-;-;-;https://link.springer.com/article/10.1186/s12913-017-2020-y 18016f4ee3d90e5b0f37eff8b0d0120a;de;;;5.2.;;;Verallgemeinerte Leistungsregelung Das bisher behandelte klassische Problem der Output-Regulierung hat, obwohl es einen ausgeprägten Stellenwert in der modernen Steuerungsliteratur einnimmt, gewisse Mängel. Um unsere Arbeit in diesem Kapitel zu motivieren, erwähnen wir im Folgenden einige der herausragenden Mängel.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0727-9_13 ce9b22b7bd9481e967faef34f72dc86a;de;;;5.2.;;;Die Vereinigten Staaten, Westeuropa und die NATO-Erweiterung Die Revolutionen von 1989 ließen den Eisernen Vorhang fallen, der Europa über vier Jahrzehnte lang geteilt hatte, und öffneten den Vorhang für neue Fragen: Welche Art von Verbindungen würden Westeuropa und die Vereinigten Staaten mit den Mitgliedern der baldigen? -aufgelösten Warschauer Pakt sowie mit Staaten wie Österreich und Finnland, die zwischen den beiden Blöcken gefangen waren? Würden neue Verbindungen im Sicherheitsbereich eine Vollmitgliedschaft in der NATO bedeuten? Wenn ja, wann? Und welche Staaten würden eingeladen, sich anzuschließen?;-;-;-;https://link.springer.com/chapter/10.1057/9780230379763_2 7ff7d2088aee53d60059cb810e74a577;de;;;5.2.;;;Das Leben auf der Straße und das Ansprechen auf die Behandlung von 105 heroinabhängigen Frauen Das Straßenleben und die anschließende Methadon-Erhaltungsbehandlung von 105 weiblichen Heroinabhängigen wird beschrieben und den entsprechenden Phasen von 244 männlichen Heroinabhängigen gegenübergestellt. 70 Prozent der Frauen waren Prostituierte, während der Rest für ihre Heroinversorgung auf kriminelle Aktivitäten angewiesen war. Die Hälfte der Frauen wurde von ihren männlichen Partnern als Heroinquelle konsumiert, und dies war erwartungsgemäß häufiger bei den Prostituierten als bei den nicht-prostituierten Frauen. Nur in 18% trugen die männlichen Partner zum illegalen Heroingeld der Prostituierten bei. Geld für Nahrung und Wohnung wurde in allen Fällen von der Sozialhilfe bezogen. Der sozialpsychiatrische Hintergrund der Frauen zeigte mehr Vererbung für psychische Störungen, mehr zerrüttete Familien und Schulprobleme als die Männer und die Prostituierten hatten ein früheres Drogendebüt. Trotz ihres düsteren Hintergrunds hatten die Frauen eine niedrigere Sterblichkeitsrate (47-mal die erwartete) als die Männer (70-mal die erwartete).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-6901-8_12 d9297967c3f07acc2f3dc0b1bb37c879;de;;;5.2.;;;Abraham Lincoln als Kriegsführer, 1861–1865 Die Literatur über die Kriegsführung von Abraham Lincoln ist überraschend spärlich. Der Begriff wird normalerweise verwendet, um seine Politik und Strategie als Oberbefehlshaber zu bezeichnen, als ob die Leitung der militärischen Aktivitäten und die Führung synonym wären. T. Harry Williams’ Lincoln and His Generals bleibt als Überblick über Militäroperationen unangreifbar.;-;-;-;https://link.springer.com/chapter/10.1057/9780230104563_11 61ba1e9e860a68e0bee0b8c8684c04ae;de;;;4.2.;;;Wien unter Joseph I. und Karl VI Musik war ein wesentliches Element im „Quodlibet von Wien“ und insbesondere in der habsburgischen Tradition, und so bildet das Musikleben am Wiener Hof – dem Verwaltungszentrum des Habsburgerreiches – unweigerlich den Schwerpunkt dieses Kapitels.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-11303-3_11 a7a1b9ab031ceac7ab1f1fa8ba98c27f;de;;;5.2.;;;Koordination und Zusammenarbeit in Hersteller-Händler-Lieferketten In diesem Papier untersuchen wir die Rolle der vertikalen kooperativen (Koop) Werbeeffizienz von Transaktionen zwischen einem Hersteller und einem Einzelhändler. Wir befassen uns mit den Auswirkungen von Markennameninvestitionen, lokaler Werbung und Richtlinien zum Teilen von Werbeprogrammen in Kooperationen. Die Grundlage für die Analyse bilden spieltheoretische Konzepte. Wir beginnen mit dem klassischen Koop-Werbemodell, bei dem der Hersteller als Marktführer zuerst seine Strategie vorgibt. Der Händler als Follower entscheidet dann über seine Entscheidung. Anschließend lockern wir die Annahme, dass der Einzelhändler die Entscheidungen des Herstellers nicht beeinflussen kann, und besprechen die vollständige Abstimmung zwischen dem Hersteller und dem Einzelhändler in Bezug auf Kooperationswerbung. Zwei alternative Verhandlungsmodelle werden verwendet, um das beste genossenschaftliche Werbeprogramm auszuwählen, um eine vollständige Koordinierung zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30537-8_19 3120cbf08490bedcc34f3a86442e5b5d;de;;;5.2.;;;Vorbemerkungen aus der Spektraltheorie der Operatoren Das vorliegende Buch widmet sich der Untersuchung der Eigenschwingungen eines Plasmas in der Nähe seines Gleichgewichts. Dieses Problem kann mit Hilfe der Operatortheorie gelöst werden, die eine breite Verallgemeinerung der Matrixtheorie ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-2561-8_2 6de0696ef5c234573d622e2d95fd2793;de;;;5.2.;;;Optimierung der Prozessökonomie durch modellprädiktive Steuerung Das aktuelle Paradigma in praktisch allen industriellen Prozessleitsystemen besteht darin, die wirtschaftliche Optimierung einer Anlage in zwei Ebenen zu zerlegen. Die erste Ebene führt eine stationäre Optimierung durch. Diese Stufe wird üblicherweise als Echtzeitoptimierung (RTO) bezeichnet. Das RTO ermittelt die wirtschaftlich optimalen Betriebsbedingungen der Anlage (Sollwerte) und sendet diese Sollwerte an die zweite Ebene, das Advanced Control System, das eine dynamische Optimierung durchführt. Viele fortschrittliche Prozesssteuerungssysteme verwenden eine Form von modellprädiktiver Steuerung oder MPC für diese Schicht. Der MPC verwendet ein dynamisches Modell und regelt das dynamische Verhalten der Anlage, um die vom RTO festgelegten Sollwerte einzuhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01094-1_10 c645cb7687b9dfefb6a1bf508aeb530f;de;;;4.2.;;;Sicherheitsbewusstes Incentive-Design für das Offloading von Mobilgerät zu Gerät Device-to-Device (D2D) Computing Offloading oder D2D-Offloading nutzt freie Rechenressourcen von nahegelegenen Benutzergeräten, um die mobile Rechenleistung zu verbessern. Ihr Erfolg beruht auf der Beteiligung der Benutzer an der kostspieligen kollaborativen Dienstbereitstellung und erfordert daher einen Anreizmechanismus, der diese Kosten ausgleichen kann. Obwohl das Design von Anreizmechanismen in der Literatur ausführlich untersucht wurde, betrachtet dieser Artikel ein schwierigeres, aber weniger untersuchtes Problem, bei dem egoistische Benutzer auch voneinander abhängigen Sicherheitsrisiken ausgesetzt sind, die vom kollektiven Verhalten aller Benutzer abhängen. Zu diesem Zweck bauen wir einen neuartigen mathematischen Rahmen auf, indem wir die Macht der Spieltheorie und der Epidemietheorie kombinieren, um das Zusammenspiel zwischen Benutzeranreizen und voneinander abhängigen Sicherheitsrisiken beim D2D-Offloading zu untersuchen und so die Gestaltung sicherheitsbewusster Anreizmechanismen zu ermöglichen. Unsere Analyse entdeckt ein interessantes „Weniger ist mehr“-Phänomen: Obwohl mehr Anreize für die Nutzer zu mehr Beteiligung führen, kann dies dem Nutzen des Netzbetreibers schaden. Dies liegt daran, dass eine zu hohe Beteiligung anhaltende Sicherheitsrisiken begünstigen kann und sich folglich das effektive Beteiligungsniveau nicht verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-10597-6_4 cac9c0a9ee211c2683434bf0b2243784;de;;;4.2.;;;CoreDevRec: Automatische Core Member-Empfehlung zur Beitragsbewertung Die Pull-basierte Softwareentwicklung hilft Entwicklern, Beiträge flexibel und effizient zu leisten. Core-Mitglieder bewerten Codeänderungen, die von Mitwirkenden eingereicht wurden, und entscheiden, ob diese Codeänderungen in Repositorys zusammengeführt werden oder nicht. Codeänderungen werden im Idealfall Kernmitgliedern zugewiesen und innerhalb kurzer Zeit nach deren Abgabe ausgewertet. In Wirklichkeit erhalten einige populäre Projekte jedoch viele Pull-Requests, und Kernmitglieder haben Schwierigkeiten, Pull-Requests auszuwählen, die ausgewertet werden sollen. Daher besteht ein wachsender Bedarf an einer automatischen Empfehlung von Kernmitgliedern, die den Bewertungsprozess verbessert. In diesem Whitepaper untersuchen wir Pull Requests mit manueller Zuweisung. Die Ergebnisse zeigen, dass 3,2% bis 40,6% der Pull-Requests manuell bestimmten Kernmitgliedern zugewiesen werden. Um bei der manuellen Zuweisung zu helfen, schlagen wir CoreDevRec vor, Kernmitglieder für die Beitragsbewertung in GitHub zu empfehlen. CoreDevRec verwendet Support-Vektor-Maschinen, um verschiedene Arten von Funktionen zu analysieren, einschließlich Dateipfade modifizierter Codes, Beziehungen zwischen Mitwirkenden und Kernmitgliedern und Aktivität von Kernmitgliedern. Wir evaluieren CoreDevRec auf 18 651 Pull-Requests von fünf beliebten Projekten in GitHub. Die Ergebnisse zeigen, dass CoreDevRec eine Genauigkeit von 72,9% bis 93,5% für die Top-3-Empfehlung erreicht. Im Vergleich zu einem Baseline-Ansatz verbessert CoreDevRec die Genauigkeit für die Top-3-Empfehlung von 18,7 % auf 81,3 %. Darüber hinaus hat CoreDevRec sogar eine höhere Genauigkeit als die manuelle Zuweisung im Projekt;-;-;-;https://link.springer.com/article/10.1007/s11390-015-1577-3 3d17dc5ad9b659926e7fe570fb7f00ad;de;;;4.2.;;;Der Hybris-Faktor in der Führung In der griechisch-römischen Mythologie ist die Geschichte der sterblichen Arachne eine Geschichte der Hybris, die allen als Warnung dient, die Götter zu beleidigen Konsequenzen haben. Arachne, der Protagonist der Geschichte, war in der Webkunst hochbegabt. Ihre fertigen Produkte waren nicht nur schön anzusehen, sondern auch ihr Weben war ein Augenschmaus. Ihre Arbeiten waren so bemerkenswert, dass Beobachter oft anmerkten, dass sie von der Schutzgöttin der Weberei, Athena selbst, ausgebildet worden sein muss. Aber Arachne hat diese Kommentare herabgesetzt. Sie mochte es nicht, der Göttin untergeordnet genannt zu werden, und verkündete, dass Athene selbst nichts Besseres tun könne als sie.;-;-;-;https://link.springer.com/chapter/10.1057/9781137439666_5 199bb5e2412ea2ea0a9bfcfea96af579;de;;;4.2.;;;Die spanische „Indignados“-Bewegung: Zeitdynamik, geografische Verteilung und Rekrutierungsmechanismen Soziale Online-Netzwerke haben einen enormen Einfluss auf Meinungen und kulturelle Trends. Außerdem haben sich diese Plattformen als grundlegender Organisationsmechanismus in landesweiten sozialen Bewegungen erwiesen. Die jüngsten Ereignisse im Nahen Osten und Nordafrika (die Protestwelle in der arabischen Welt), in ganz Europa (in Form von Demonstrationen gegen Kürzungen oder Ausschreitungen) und in den Vereinigten Staaten haben viele Diskussionen darüber ausgelöst, wie digitale Medien mit verbunden sind die Verbreitung von Protesten. In diesem Kapitel untersuchen wir aus einer komplexen Netzwerkperspektive die Mechanismen, die die Entstehung, Entwicklung und Stabilisierung der Bewegung der „Indignados“ in Spanien vorantreiben, indem wir Daten aus dem Zeitraum vom 25. April bis 26. Mai 2011 analysieren der Bewegung analysieren wir 581.749 Twitter-Nachrichten von 87.569 Nutzern. Die Online-Spur der 15M-Proteste bietet eine einzigartige Gelegenheit, zentrale Themen der Social-Network-Literatur wie Rekrutierungsmuster oder Informationskaskaden anzugehen. Diese Ergebnisse beleuchten den Zusammenhang zwischen Online-Netzwerken und sozialen Bewegungen und bieten einen empirischen Test für schwer fassbare soziologische Fragen zum kollektiven Handeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-1340-0_9 629743d9bf6076dfb6bc59345e7717cd;de;;;4.2.;;;Mehrere Perspektiven der Entwicklungsstrategie der öffentlichen Verwaltung von NGOs Public Management ist die staatliche und nichtstaatliche öffentliche Organisation, die den Prozess der gesellschaftlichen und öffentlichen Angelegenheiten durch den Einsatz öffentlicher Macht gehandhabt hat, um die wirksame Förderung und gerechte Verteilung sozialer und öffentlicher Interessen zu gewährleisten. Aus dem sich ergebenden Sinn ergibt sich eine Funktion öffentlicher Organisationen, einschließlich staatlich geführter öffentlicher Organisationen und des öffentlichen Interesses, auf die Nichtregierungsorganisationen hinzuweisen, um öffentliches Interesse zu erreichen, öffentliche Güter und Dienstleistungen anzubieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23020-2_5 711d88e35a5dcb5d03fb369dac8fe616;de;;;4.2.;;;Konformitätsgrad für die länderübergreifende vergleichende Studie zum nationalen Charakter Das Institute of Statistical Mathematics (ISM) führt seit 1953 eine Längsschnittstudie zum japanischen Nationalcharakter durch. (Zur Literatur siehe Hayashi 1987, Mizuno et al. 1992). auf ausländische Nationen ausgeweitet, um ein besseres Verständnis des japanischen Charakters im Kontext des länderübergreifenden Vergleichs zu ermöglichen. Zu den bereits untersuchten Ländern und Gebieten gehören USA (USA), Großbritannien (UK), Bundesrepublik Deutschland (BRD), Frankreich, Taiwan, Brasilien, Hawaii, Philippinen und einige andere südostasiatische Länder.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-95919-5_9 fd261c9eb9e7dedf1bf50fd40854d053;de;;;4.2.;;;Katastrophenrisikowissenschaft: Eine geografische Perspektive und ein Forschungsrahmen In diesem Artikel erinnern wir an die 30-jährige Reise der Vereinten Nationen in Bezug auf Strategie und Rahmen zur Katastrophenvorsorge, überprüfen die neuesten Fortschritte und die wichtigsten wissenschaftlichen und technologischen Fragen im Zusammenhang mit den Initiativen der Vereinten Nationen zur Katastrophenvorsorge und fassen den Rahmen und die Inhalte der Katastrophe zusammen risikowissenschaftliche Forschung. Gegenstand der katastrophenrisikowissenschaftlichen Forschung ist das „Katastrophensystem“ bestehend aus Gefährdung, geographischer Umgebung und exponierten Einheiten mit den Merkmalen Regionalität, Vernetzung, Kopplung und Komplexität. Umweltstabilität, Gefahrenbedrohung und sozioökonomische Vulnerabilität bestimmen zusammen die Art und Weise, wie Katastrophen entstehen, bestimmen das räumliche Ausmaß der Katastrophenauswirkungen und erzeugen das Ausmaß der Schäden. Bei der Entstehung einer Katastrophe ist eine förderliche Umgebung die Voraussetzung, eine Gefährdung die notwendige Bedingung und eine sozioökonomische Exposition die hinreichende Bedingung. Die geografische Umgebung beeinflusst die lokale Gefahrenintensität und kann daher das Muster der Schadenverteilung verändern. Regionale Mehrfachgefahren, Katastrophenketten und Katastrophenkomplexe könnten komplexe Auswirkungen haben, die die Gefahrenintensität verstärken oder abschwächen und den Umfang der betroffenen Gebiete verändern. Vor dem Hintergrund des Forschungsfortschritts, insbesondere im Kontext Chinas, schlagen wir eine dreischichtige Disziplinstruktur der Katastrophenrisikowissenschaft vor, die drei Säulen (Katastrophenwissenschaft, Katastrophentechnologie und Katastrophenmanagement), neun Kernbereiche und 27 Forschungsfelder umfasst . Basierend auf diesen Elementen diskutieren wir die Grenzen der wissenschaftlichen Forschung zum Katastrophenrisiko.;-;-;-;https://link.springer.com/article/10.1007/s13753-020-00296-5 446f382de52ed8e1c4cb46edd08d6fb6;de;;;4.2.;;;Vorteile und Herausforderungen der Verknüpfung von grüner Infrastruktur und Autobahnplanung in den USA Grüne Infrastruktur auf Landschaftsebene schafft ein Netzwerk natürlicher und naturnaher Gebiete, das Ökosystemleistungen, Regenerationsfähigkeiten und ökologische Dynamik über lange Zeiträume schützt und verbessert. Es kann auch die Lebensqualität und bestimmte wirtschaftliche Aktivitäten verbessern. Autobahnen schaffen ein Netzwerk für den effizienten Transport von Waren und Dienstleistungen, für den Handel und die Verbesserung der Mobilität. Zwischen Verkehrsplanung und grüner Infrastrukturplanung besteht ein grundsätzlich tiefgreifender Konflikt, weil beide versuchen, zusammenhängende, funktionierende Netzwerke über die gleichen Landschaften und Regionen hinweg zu schaffen, aber Verkehrsnetze, insbesondere in Form von Autobahnen, fragmentieren und trennen grüne Infrastrukturnetze. In den Vereinigten Staaten hat sich in den letzten zehn Jahren mit der Förderung von Maßnahmen zur Verknüpfung von Verkehrs- und Umweltbelangen eine wichtige Chance ergeben. In diesem Artikel haben wir die potenziellen Vorteile und Herausforderungen einer Verknüpfung der Planung und Umsetzung grüner Infrastruktur auf Landschaftsebene mit integrierter Verkehrsplanung und Entwicklung von Autobahnprojekten im politischen Kontext der Vereinigten Staaten untersucht. Dies geschah durch die Erstellung eines konzeptionellen Modells, das logische Flusslinien von der Planung bis zur Umsetzung sowie die potenziellen Verbindungsglieder zwischen grüner Infrastruktur und Autobahninfrastruktur identifizierte. Wir analysierten die Beziehung dieser Aktivitäten durch Literaturrecherche, Politikanalyse und eine Fallstudie einer Vorstadtlandschaft von Maryland, USA. Der Hof stellte fest, dass regional entwickelte und verabschiedete grüne Infrastrukturpläne maßgeblich dazu beitragen können, reaktionsschnellere regionale Verkehrspläne zu erstellen und den Umweltprüfungsprozess des Projekts zu rationalisieren und gleichzeitig bessere Ergebnisse durch gezieltere Minderung zu erzielen. Um Vorteile zu erzielen, müssen jedoch grüne Infrastrukturbewertungen und -pläne im Landschaftsmaßstab vorliegen, bevor eine integrierte Verkehrsplanung und die Entwicklung von Autobahnprojekten erfolgen. Es liegt im Interesse der Verkehrsgemeinschaft, die Planung grüner Infrastruktur aktiv zu unterstützen, da dies einen vorhersehbareren Kontext für die Umweltprüfung schafft. Auf der anderen Seite ist die Verkehrsplanung und -entwicklung für grüne Infrastruktur auf Landschaftsebene viel etablierter und besser finanziert und kann ein Mittel zur Unterstützung der Planung und Umsetzung grüner Infrastrukturen sein, wodurch die Erhaltung der ökologischen Funktion verbessert wird.;-;-;-;https://link.springer.com/article/10.1007/s00267-012-9966-7 35a935d28f07cfba9f4aeb496e18f61c;de;;;4.2.;;;Negative Handlungen und Mobbing: gesichtsbedrohende Handlungen, soziale Bindungen und sozialer Ort Das moderne Arbeitsleben ist geprägt von zunehmender Individualisierung und steigenden Anforderungen an Flexibilität Diese Trends nähren die Unklarheit darüber, wo wir im Verhältnis zu anderen stehen, und fördern das individualisierte Positionsgerangel. In den letzten Jahrzehnten wurde der Frage des Mobbings am Arbeitsplatz verstärkte Aufmerksamkeit geschenkt (Adams 1992, Keashly 1998, Rainer 1998). Ein zentrales Konzept dieser Forschung sind sogenannte „negative Akte“. In der Literatur werden negative Handlungen definiert als „von der Zielperson ungewollte Handlungen, die absichtlich oder unbewusst ausgeführt werden können, aber eindeutig Erniedrigung, Beleidigung und Verzweiflung verursachen“ (Einarsen 2003: 6). Zu solchen Handlungen gehören die Kategorien des gesunden Menschenverstands, wie ausgelacht, angeschrien, ignoriert, mit Entlassung bedroht, böswillig gehänselt, wiederholt für seine Arbeit kritisiert, übermäßiger Überwachung usw. unterzogen werden. Individuelle negative Handlungen als solche stellen nicht unbedingt Mobbing dar . In quantitativen Ansätzen wird Mobbing jedoch in Bezug auf die Häufigkeit und Dauer der Exposition gegenüber negativen Handlungen definiert.;-;-;-;https://link.springer.com/chapter/10.1057/9780230289895_7 44d14eb274fcea5018024254fb7be886;de;;;4.2.;;;Big Data enthüllten Zusammenhang zwischen Luftverschmutzung und Fertigungsindustrie in China Luftverschmutzungsemissionen können die Selbstreinigungskapazität der Umwelt überschreiten und gefährliche meteorologische Ereignisse auslösen, die nicht zu vernachlässigende Auswirkungen auf alle Aspekte der Gesellschaft haben. Ziel dieses Papiers ist es, die Beziehung zwischen den Vorteilen der chinesischen Fertigungsindustrie und der Luftqualität unter Berücksichtigung der Rolle der Regierungspolitik im Zeitalter von Big Data zu untersuchen und die Änderungspunkte in der Zeitreihenbeziehung zwischen den Vorteilen der Industrie und der Luft zu untersuchen Qualität. Zunächst wenden und analysieren wir Big Data und schätzen Werte nach der Maximum-Deviation-Methode. Dann wird eine graue relationale Analyse verwendet, um Änderungspunkte zu identifizieren, die in den Jahren 2005 und 2010 sowohl für die Vorteile der Industrie als auch für die Luftqualität auftreten. Die Gesamtstudienzeit gliedert sich in drei Teilzeiträume: 1998–2005, 2006–2010 und 2011–2017. Wir stellen fest, dass die Luftreinhaltungspolitik von 1998 bis 2005 relativ umfassend war und dass ein negativer Zusammenhang zwischen der Luftqualität und den Vorteilen der verarbeitenden Industrie bestand. Von 2006 bis 2010 trat allmählich eine positive Beziehung auf, und seit 2011 hat sich mit der Popularisierung der Big-Data-Technologie in der Politikgestaltung und der Umweltpolitik die zwischenstaatliche Zusammenarbeit vertieft und produzierende Unternehmen wurden aktiver in die Governance einbezogen. Folglich ist der positive Zusammenhang zwischen der Luftqualität und dem umfassenden Nutzen der verarbeitenden Industrie stabil geblieben. Schließlich werden Vorschläge für politische Entscheidungsträger und produzierende Unternehmen aus den Perspektiven des Systemaufbaus, der Integration und Differenzierung, der Herausforderungen von Big Data und der Unternehmensinnovation gemacht.;-;-;-;https://link.springer.com/article/10.1007/s11069-020-04495-7 00fc620083013b428b9aa6c8473e4fbf;de;;;4.2.;;;Analysieren des zweiten Bildschirm-basierten sozialen Soundtracks von Fernsehzuschauern aus verschiedenen kulturellen Umgebungen Das Vorhandensein von sozialen Netzwerken und Computergeräten in Form von sekundären Bildschirmen, die in Verbindung mit dem Fernsehen verwendet werden, spielt eine bedeutende Rolle beim Übergang vom traditionellen Fernsehen zum sozialen Fernsehen (sTV). In dieser Studie untersuchen wir die gesamte sekundäre Bildschirmnutzung in Bezug auf vier Konversationsmuster, jedes über verschiedene kulturelle soziale Soundtracks, die sich auf verschiedene Fernsehsendungen beziehen. Wir verarbeiten mehr als 469.000 Tweets von Second Screens für vier beliebte TV-Sendungen aus vier verschiedenen Ländern. Die ANOVA-Testergebnisse zeigen signifikante Unterschiede in der allgemeinen Nutzung von Konversationsmustern bei Fernsehzuschauern in verschiedenen Kulturen mit Zweitbildschirmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16268-3_46 1f0f64df35247c76568f21d20a9a4ee9;de;;;5.2.;;;Resonanzabsorption interner Schwerewellen in stellaren Atmosphären Es wurde eine Gleichung abgeleitet, die die Wellenausbreitung in einem inkompressiblen Medium endlicher Leitfähigkeit mit einem gleichförmigen geneigten Magnetfeld beschreibt. Es wird gezeigt, dass Magnetogravitationswellen in der Nähe des Höckerresonanzniveaus absorbiert werden, wenn der Neigungswinkel des Magnetfelds kleiner als der kritische ist und in nichtdämpfende Alfvén . umgewandelt werden;-;-;-;https://link.springer.com/article/10.1007/BF00641916 a7102a1f957c45f4b2722790291ed300;de;;;5.2.;;;Ein Modell zur Modulation der neuronalen Synchronisation durch D4-Dopaminrezeptor-vermittelte Phospholipid-Methylierung Wir beschreiben einen neuen molekularen Mechanismus der Dopamin-induzierten Membranproteinmodulation, der die neuronale Oszillationsfrequenz auf den aufmerksamkeitsbezogenen Gammarhythmus abstimmen kann. Dieser Mechanismus basiert auf der einzigartigen Fähigkeit von D4-Dopamin-Rezeptoren (D4R), eine Phospholipid-Methylierung (PLM) durchzuführen, die die Kinetik von Ionenkanälen beeinflussen kann. Wir zeigen, dass durch Verringerung der Trägheit des verzögerten Gleichrichter-Kaliumkanals ein Übergang zu 40-Hz-Schwingungen erreicht werden kann. Eine verringerte Trägheit des Kaliumkanals verkürzt die Spikedauer und verringert das Interspike-Intervall über seinen Einfluss auf den kalziumabhängigen Kaliumstrom. Dieser Mechanismus führt zu einem Übergang zu aufmerksamkeitsbezogenen Gamma-Oszillationen in einem pyramidalen Zell-Interneuron-Netzwerk. Die höhere Frequenz und bessere Synchronisation wird bei PLM beobachtet, die nur Pyramidenneuronen betrifft, und wiederkehrende Erregung zwischen Pyramidenneuronen ist für die Synchronisation wichtig. Somit kann die durch Dopamin stimulierte Methylierung von Membranphospholipiden ein wichtiger Mechanismus zur Modulation der Feueraktivität sein, während eine gestörte Methylierung zu Aufmerksamkeitsstörungen beitragen kann.;-;-;-;https://link.springer.com/article/10.1007/s10827-007-0057-3 53f78e904257073325d19c8684da33ae;de;;;5.2.;;;Eine verpasste Gelegenheit: 1977–80 Obwohl der libanesische Bürgerkrieg das neue Bündnis der Sowjetunion mit der PLO auf eine harte Probe gestellt und die sowjetischen Beziehungen zu Syrien zu untergraben drohte, schien der Beginn des Jahres 1977 eine Wiederherstellung des sowjetischen Vermögens zu versprechen. In der zweiten Hälfte des Jahres 1976 unternahmen die großen arabischen Staaten eine Reihe diplomatischer Schritte, um ihre Differenzen beizulegen und eine panarabische Strategie zur Wiedereinberufung der Genfer Konferenz wiederzubeleben. Dies wurde offiziell auf dem viergliedrigen Gipfeltreffen in Riad am 9./10. Januar 1977 bestätigt, als Ägypten, Syrien, Jordanien und Saudi-Arabien vereinbarten, ein gemeinsames politisches Programm zu koordinieren. Diese arabische Entschlossenheit zu einer einheitlicheren Haltung fiel auch mit der Amtseinführung einer neuen US-Administration unter Präsident Jimmy Carter zusammen und war eine direkte Reaktion darauf. Wie die arabischen Staaten war die Sowjetunion zumindest vorsichtig optimistisch, dass die neue Regierung versuchen würde, den Friedensprozess wiederzubeleben. Insbesondere hoffte Moskau, dass der Regierungswechsel das Vermächtnis Kissingers überschreiten und einen umfassenderen und umfassenderen Frieden fördern würde.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-26216-8_6 71bacbf6244070790700e5a5f9e1016a;de;;;5.2.;;;Laien Puritaner in Stuart England Nach dem Tod von Elizabeth im Jahr 1603 bestieg ihr schottischer Verwandter James Stuart, James VI. von Schottland, als James I. den englischen Thron. Da die presbyterianische Reform in Schottland viele der von den englischen Puritanern seit langem angestrebten Veränderungen bewirkt hatte, hofften die englischen Reformer, dass der neue Monarch wäre empfänglich für Änderungen der Church of England. Nur wenige erkannten, dass die offensichtliche Sympathie des schottischen Monarchen für die englische Reform darauf ausgelegt war, sicherzustellen, dass er Elizabeth nachfolgen würde, und dass sie eine Abneigung gegen das puritanisch-ähnliche presbyterianische System seines Heimatlandes verbarg. Eine Petition an den König, die angeblich von über tausend Engländern unterzeichnet wurde, bat um seine Zustimmung zu einer Vielzahl von Reformen. Aber auf der Konferenz von Hampton Court lehnte King James den Großteil des puritanischen Programms ab, obwohl er einer neuen, autorisierten Übersetzung der heiligen Schriften (der sogenannten King James Bibel) zustimmte.;-;-;-;https://link.springer.com/chapter/10.1057/9781137352897_4 e033e8d6a5a1c4bbf57dfc525fde41a3;de;;;4.2.;;;Modell des Chancenspektrums der Tourismussektorisierung und Raumaufteilung des Tourismusurbanisierungsgebiets: ein Fall des Ökotourismusgebiets Mayangxi, Provinz Fujian, China Heutzutage ist der Tourismus zu einer immer wichtigeren treibenden Kraft der modernen Urbanisierung in China geworden. Es hat jedoch eine Reihe von Problemen verursacht, wie z. B. unangemessene Ressourcennutzung, unfaires Spiel der Gesellschaft, Umweltverschmutzung usw. Daher ist die Etablierung eines effizienten und nachhaltigen Raumaufteilungsmodells für die touristische Urbanisierung aus geografischer Sicht dringend erforderlich und dringend. Darin wird ein neues Bewertungsmodell des touristischen Stadtraums, das als Tourism Sectorization Opportunity Spectrum (TSOS) bezeichnet wird, zu den Beziehungen zwischen Produktions-Lebens-Ökologie-Räumen etabliert. TSOS ist eine Art quantitatives Bewertungsmodell, das Faktoren wie urbanes Wohnen, ökologisches Naturschutzgebiet und die Tourismusindustrie einbezieht. Darüber hinaus wurde die Analyse der quantitativen räumlichen Überlappung von Produktion, Wohnen und Ökologie zur Raumaufteilung in einem touristischen Urbanisierungsgebiet genutzt. Dieses Papier analysiert unter Verwendung des TSOS-Modells und der GIS-Technologie die räumliche Umstrukturierung des Ökotourismusgebiets Mayangxi. Das Ergebnis zeigt, dass der Tourismusindustrieraum das Dorf Shanchong als Kern nimmt, das ein Muster einer lokalen regionalen Agglomeration und einen unscharfen Rand aufweist, der sich entlang des gesamten Mayangxi-Flusses erstreckt. Der urbane Lebensraum soll im Dorf Shili mit den unterstützenden Einrichtungen und Wohnraum für den Tourismus gefestigt werden. Darüber hinaus sollte der Tianzhu Mountain Forest Park das wichtigste Umweltschutzgebiet sein. Die Fallstudie zum Ökotourismusgebiet Mayangxi bestätigt, dass das TSOS-Modell eine starke Funktionsfähigkeit besitzt. Daher bietet das TSOS-Modell eine wissenschaftliche Grundlage für die Raumrekonstruktion eines neuen Urbanisierungsgebiets und ein wirksames Werkzeug zur Optimierung der Raumaufteilung eines touristischen Urbanisierungsgebiets.;-;-;-;https://link.springer.com/article/10.1007/s11629-015-3747-8 36dd9708aa6838025b0f060c41f3630d;de;;;4.2.;;;Vertrauensrekonstruktion in einer kulturellen Vielfalt: Vertrauensgefühl in Längs- und länderübergreifenden Erhebungen von nationalem Charakter Das Ziel dieses Papiers ist es, die Variabilität der grundlegenden sozialen Werte der Menschen zu untersuchen, wie sie sich in den Daten unserer vergangenen Erhebungen zum nationalen Charakter widerspiegeln. Unter anderem konzentriere ich mich auf Vertrauenssysteme, um zu untersuchen, welche Aspekte des Vertrauensgefühls stabil sind und welche Aspekte unter längsschnittlichen Veränderungen der wirtschaftlichen oder politischen Bedingungen variabel sind. Zunächst erkläre ich die allgemeinen Antworttendenzen der Bevölkerung anhand unserer Umfrage zum nationalen Charakter, die ein Schlüssel zum Verständnis unserer Umfragedaten im Kontext länderübergreifender Vergleiche ist. Zweitens fasse ich einige Aspekte des zwischenmenschlichen Vertrauens der Menschen aus unserer Längsschnittstudie zum japanischen Nationalcharakter zusammen. Drittens präsentiere ich länderübergreifende Vergleiche des zwischenmenschlichen und institutionellen Vertrauens sowie einiger grundlegender sozialer Werte basierend auf unseren vergangenen Umfragen, darunter Umfragen in sieben Ländern (Japan, USA und fünf europäische Länder), der East Asia Values ​​Survey (EAVS). (2002–2005) und der Asia-Pacific Values ​​Survey (APVS) (2004–2008). Die Ergebnisse zeigen, dass ostasiatische Länder sich bereits vom traditionellen Konfuzianismus verabschiedet haben und dass die Menschen über die Unterscheidung von Ost und West hinaus gemeinsame soziale Werte teilen. Viertens präsentiere ich einen Überblick über Daten zu japanischen Einwanderern in Brasilien, Hawaii und der US-Westküste, um die Interaktion zwischen Umwelt und ethnischer Zugehörigkeit zu untersuchen. Fünftens gebe ich einige Anmerkungen für unsere zukünftige Forschung.;-;-;-;https://link.springer.com/article/10.2333/bhmk.36.115 ac87a28b6157196d376a4ff1e6fae4e7;de;;;4.2.;;;Entstehung sozialer Normen in virtuellen Agentengesellschaften Das Aufkommen virtueller Umgebungen wie SecondLife erfordert einen verteilten Ansatz für die Entstehung und Verbreitung von Normen. In offenen virtuellen Umgebungen kann die Überwachung verschiedener interagierender Agenten (Avatare) unter Verwendung einer zentralisierten Autorität rechenintensiv sein. Die Anzahl möglicher Zustände und Aktionen eines Agenten kann enorm sein. Ein Ansatz zur Aufrechterhaltung der Ordnung und eines reibungsloseren Funktionierens dieser Umgebungen kann durch Normen erleichtert werden. Agenten können auf der Grundlage von Interaktionen Normen generieren. Insbesondere solche sozialen Normen, die einem einzelnen Agenten gewisse Kosten verursachen, aber der gesamten Gesellschaft zugute kommen, sind interessanter als solche, die sowohl dem Agenten als auch der Gesellschaft zugute kommen. Das Problem ist, dass die egoistischen Agenten möglicherweise nicht bereit sind, die Kosten für die Einhaltung der Normen zu teilen. In dieser Arbeit experimentieren wir mit der von Axelrod vorgeschlagenen Vorstellung, dass soziale Normen am besten kleine Überläufer verhindern können, wenn die Kosten der Durchsetzung gering sind. Wir untersuchen auch, wie allgemeines Wissen genutzt werden kann, um den Gesamtnutzen der Gesellschaft zu fördern. Wir glauben, dass unsere Arbeit dazu verwendet werden kann, die Entstehung von Normen in virtuellen Online-Gesellschaften zu erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-93920-7_2 89327ce481aebbd9c54e6ce354e020b4;de;;;4.2.;;;Marketinginnovation für die kommerzialisierte Produktion Im alteingesessenen Garut in West-Java (Kapitel 2) und dem neu eröffneten Lampung auf Sumatra (Kapitel 3) wurde festgestellt, dass das lokale Vermarktungssystem traditioneller Hochlandkulturen, das aus vielen informellen Agenten besteht, effizient funktioniert. Am Handel und der Verarbeitung von bäuerlichen Produkten aus ihrer traditionellen Landwirtschaft beteiligten sich nicht nur Marketingagenten in der Stadt, sondern auch diejenigen, die in Dorfgemeinschaften verwurzelt sind. Diese Marketingaktivitäten trugen zur ländlichen Wirtschaft bei, indem sie nicht nur die landwirtschaftliche Produktion unterstützten, sondern auch selbst bedeutende Arbeitsplätze und Einkommen schafften.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-22514-9_4 a49e1919197b5c5e7be25aec9ecbae25;de;;;4.2.;;;Welche Art von Inhalten neigen Sie dazu zu twittern? Mehrthemen-Präferenzmodell für Hochtöner Je nach Geschmack kann eine Person eine bestimmte Kategorie von Inhalten mehr oder weniger bevorzugen. Das Interesse der Menschen an einem bestimmten Thema zu quantifizieren, ist jedoch eine schwierige Aufgabe, insbesondere angesichts der massiven digitalen Informationen, denen sie ausgesetzt sind. Im Kontext von Twitter kann ein Benutzer beispielsweise, abgestimmt auf seine Vorlieben, mehr über Technologie als über Sport twittern und retweeten und keine musikbezogenen Inhalte teilen. Das Problem, das wir in diesem Papier behandeln, ist die Identifizierung der impliziten Themenpräferenzen der Benutzer durch die Analyse der Inhaltskategorien, die sie tendenziell auf Twitter veröffentlichen. Unser Vorschlag ist bedeutsam, da die Modellierung ihres Multi-Themen-Profils nützlich sein kann, um Muster oder Assoziationen zwischen Präferenzen für Kategorien zu finden, Trendthemen zu entdecken und ähnliche Benutzer zu gruppieren, um bessere Gruppenempfehlungen für Inhalte zu generieren. In der vorliegenden Arbeit schlagen wir eine Methode vor, die auf dem Mixed Gaussian Model basiert, um die multidimensionale Präferenzrepräsentation von 399 ecuadorianischen Hochtönern zu 22 verschiedenen Themen (oder Dimensionen) zu extrahieren, die durch manuelle Kategorisierung von 68.186 Tweets bekannt wurden. Unsere experimentellen Ergebnisse zeigen, dass der vorgeschlagene Ansatz effektiv ist, um die Themeninteressen der Benutzer zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-52485-2_11 86c90c29369019b915caa50b66272db9;de;;;5.2.;;;Acht Proteine ​​spielen eine entscheidende Rolle bei RCC mit Knochenmetastasen über mitochondriale Dysfunktion Die meisten Nierenkrebsarten sind Nierenzellkarzinome (RCC). Beim RCC fehlen Frühwarnzeichen und 70 % der Patienten mit RCC entwickeln Metastasen. Unter ihnen entwickelten 50 % der Patienten mit Skelettmetastasen ein düsteres Überleben von weniger als 10 % nach 5 Jahren. Daher könnte die Erforschung der wichtigsten treibenden Proteine ​​und Signalwege, die an der RCC-Knochenmetastase beteiligt sind, der Therapie der Patienten zugutekommen und ihr Überleben verlängern. Wir haben den Unterschied zwischen den OS-RC-2-Zellen und den OS-RC-2-BM5-Zellen (Subpopulation aus OS-RC-2) von RCC mit Proteomik untersucht. Dann verwendeten wir Western-Blot, Immunhistochemie und die klinische Datenbank (oncomine), um die Schlüsselproteine ​​zu screenen und zu verifizieren, und analysierten dann die Funktionen und die zugehörigen Signalwege ausgewählter Schlüsselproteine ​​mit systembiologischen Ansätzen. Unsere proteomischen Daten zeigten 26 signifikant veränderte Flecken (Faltänderung < 0,5 und > 1,9, P < 0,05) zwischen zwei Zellen. Die für diese identifizierten Spots validierten Western-Blotting-Ergebnisse stimmten mit den Proteomics überein. Aus der öffentlichen klinischen Datenbank wurden 23 von 26 Proteinen mit RCC-Metastasen und 9 von 23 direkt mit der Überlebenszeit verbunden (P < 0,05). Schließlich hatten nur 8 von 9 Proteinen signifikant positive Ergebnisse in Geweben von RCC-Patienten mit Knochenmetastasen im Vergleich zum Primärtumor (P < 0,05). Die Analyseergebnisse der Systembiologie zeigten, dass diese acht Proteine ​​hauptsächlich in der oxidativen Phosphorylierung verteilt sind, was darauf hindeutet, dass die Dysfunktion der Mitochondrien die entscheidende Rolle bei der Regulierung der Zellmetastasierung spielte. Unser Artikel verwendete eine Vielzahl experimenteller Techniken, um acht Proteine ​​zu finden, die die mitochondriale Funktion abnormal regulierten, um eine erfolgreiche Induktion von RCC-Metastasen in den Knochen zu erreichen.;-;-;-;https://link.springer.com/article/10.1007/s10585-015-9731-4 fa6ee60549b6efe4b7e904098709e7de;de;;;5.2.;;;Zentrale dopaminerge Mechanismen von Alkohol- und Opiat-Entzugssyndromen Von Ethanol abhängig gemachte Ratten zeigen nach Beendigung der Behandlung eine durch Mikrodialyse gemessene Reduktion des Dopamin-Ausflusses in den Nucleus accumbens, was einer verminderten elektrophysiologischen Aktivität mesolimbischer dopaminerger Neuronen entspricht. Die Verabreichung von Ethanol erhöht die biochemischen und elektrophysiologischen Indizes der dopaminergen Funktion. In ähnlicher Weise zeigen morphinabhängige Ratten eine Verringerung des Dopamin-Effluxes und eine abrupte Abnahme der dopaminergen neuronalen Aktivität im mesolimbischen System. Wie im Fall von Ethanol erhöht die Verabreichung des suspendierten Morphins die neuronale Funktion und sein biochemisches Korrelat im terminalen Bereich. Die Ergebnisse, unabhängig von der missbrauchten Substanz, werden als Hinweis auf ein gemeinsames Substrat interpretiert, das nach Aussetzen der chronischen Verabreichung einer Suchtsubstanz hypofunktional wird. Diese Ergebnisse können als neurophysiologisches Korrelat der Dysphorie angesehen werden, die mit dem Drogenentzug beim Menschen verbunden ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-6901-8_3 5d37272897273762c3571ce0f635a267;de;;;5.2.;;;Zusammenhang zwischen atlanto-odontoider Osteoarthritis und idiopathischen subokzipitalen Nackenschmerzen Wir diskutieren die Beziehung von atlanto-odontoider (AO) (vorderes C1-C2-Gelenk) Osteoarthritis zu subokzipitalen Schmerzen. Ein Fragebogen zu subokzipitalen Nackenschmerzen wurde 210 konsekutiven Patienten vorgelegt, die sich einer Computertomographie (CT) des Gehirns oder der Nebenhöhlen für eine Vielzahl von Indikationen unterzogen. Bei allen Patienten wurden das AO-Gelenk und das laterale Scout-Bild der Halswirbelsäule untersucht. Bei 104 (49%) wurden degenerative Veränderungen am AO-Gelenk beobachtet. 89 Patienten (42%) berichteten von Schmerzen im subokzipitalen Bereich, obwohl dies bei keinem Patienten der Grund für eine CT war. Die statistische Analyse der Prävalenz von subokzipitalen Nackenschmerzen bei allen Patienten zeigte, dass das Vorliegen einer AO-Osteoarthritis, die im CT beobachtet wurde, mit dem Auftreten dieser Symptome einherging. Diese Assoziation blieb in derselben Studienpopulation signifikant, nachdem Patienten mit einer Vorgeschichte von rheumatoider Arthritis, Migräne, Stress und Nackentrauma und Patienten mit Anzeichen von degenerativen Veränderungen von C2-C7 auf dem berechneten Lateral-Scout-Bild ausgeschlossen wurden.;-;-;-;https://link.springer.com/article/10.1007/BF00593224 5ce8a7e05f775610fe09d88fad0b32c5;de;;;4.2.;;;Ein konzeptionelles Modell der Online-Community der Unterrichtspraxis für Lehramtsstudierende Dieser Beitrag diskutiert die theoretischen Grundlagen für die Gestaltung einer Online-Lehrpraxisgemeinschaft für Lehramtsstudierende und stellt ein konzeptionelles Gemeinschaftsmodell aus Sicht des SECI-Modells vor. Soziale Mitglieder, Wissen, Lehrpraxis und Technologie werden als Schlüsselkomponenten der Online-Community der Lehrpraxis anerkannt, und das SECI-Modell wird verwendet, um den Wissenswandel innerhalb der Gemeinschaft zu erklären. Die Identifizierung einer relativ stabilen Wissensdomäne, die Anerkennung geeigneter Kontexte und die Förderung der Verteilung und Integration von Gemeinschaftsressourcen werden als unverzichtbare Aspekte für die Pflege einer Online-Community der Unterrichtspraxis vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24010-2_53 fd1ec1867a0886186d4cf60c8292d0a0;de;;;4.2.;;;Das Modell der unverzerrten Bucht und seine Anwendung auf die Unterscheidung von Antworten auf eine Frage mit freier Antwort in einer Sozialumfrage Bei der Analyse von Antworten mit freien Antworten auf einen Fragebogen zur Sozialerhebung müssen einige Wörter, die in ihren Wörterbuchdefinitionen ähnlich sind, manchmal als Antworten unterschiedlicher (sub)kultureller Gruppen unterschieden werden. Ein psychometrisches Modell, das als bikulturelles generalisiertes High-Threshold-Modell (BIGHT) bezeichnet wird, wird vorgestellt, um ein Kriterium zur Unterscheidung solcher Wörter zu geben, basierend auf einer Musteranalyse von Antworten auf einige Multiple-Choice-Fragen. Dieses Modell enthält Parameter zur Charakterisierung der Befragten durch ihren Grad der Übereinstimmung mit ihren kulturellen Gruppen. Die Grade werden in einem Maximum-Likelihood-Verfahren verwendet, um die Unterscheidung von zwei Gruppen zu untersuchen, die zwei ähnlichen Wörtern entsprechen, die als Antworten mit freier Antwort verwendet werden. Diese Untersuchung kann zur Unterscheidung der Wörter als Antworten verschiedener Gruppen führen. Außerdem werden drei anschauliche Beispiele zum Studium japanischer Nationalzeichen gegeben.;-;-;-;https://link.springer.com/article/10.2333/bhmk.19.83 41ae0d8150856d79ffaacf5b0bf7a0d9;de;;;4.2.;;;Ramkrishna Mukherjee über Fakten-Wert-Beziehungen in der Sozialforschung In diesem Kapitel würdigen wir Ramkrishna Mukherjees Beiträge zur Erkenntnistheorie, d. h. Methoden der Wissensgenerierung und -begründung, zu sozialen und kulturellen Phänomenen, indem wir uns auf seine Perspektive der Tatsachen-Wert-Beziehungen konzentrieren. Fakten gehören als Teil der positivistischen Erkenntnistheorie zu einem beobachtbaren empirischen Bereich, während Werte zu subjektiven Dispositionen und Präferenzen gehören und als solche keinen Platz in der wissenschaftlichen Wissensproduktion haben. In den Naturwissenschaften ist zwar der enge Zusammenhang zwischen Tatsache und Wert anerkannt, in den Sozialwissenschaften, die zunächst von der positivistischen Erkenntnistheorie beeinflusst waren, ist die Debatte jedoch noch nicht gelöst. Vor diesem Hintergrund zeigt sich bei der Untersuchung von Mukherjees Werken, dass er sich nicht der positivistischen Dichotomie zwischen Tatsache und Wert verschrieben hat. Um die Dynamik der sozialen Realität zu verstehen, entwickelte er ein Paradigma, das fünf aufeinander aufbauende grundlegende Fragen aufwarf, d.h. Was ist das? Wie ist das? Warum ist es? Was wird es sein? Und was soll es sein? Er argumentierte, dass Tatsache und Wert verwechselnde Variablen sind und demonstrierte dies in verschiedenen Arten von Forschung, d. h. deskriptiv, erklärend und diagnostisch.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-0387-6_4 6a050ace86a8256d42ad11dbc37cafb2;de;;;4.2.;;;Heterogenes Cloud-Ressourcen-Management: Wahrhaftiges Design von Mechanismen bei geteilten, vielseitigen Benutzern Wir adressieren das Problem der dynamischen Bereitstellung virtueller Maschinen und der Zuweisung heterogener Cloud-Ressourcen. Vorhandene Werke gehen davon aus, dass jeder Benutzer ein einzelnes Paket anfordert (single-minded), aber ein Benutzer kann mehrere Pakete anfordern (multi-minded). Unser Ziel ist es daher, mehrere VMs unter Berücksichtigung einer vielseitigen Umgebung bereitzustellen und effizient zuzuweisen, um das soziale Wohl zu maximieren. Wir formulieren dieses Problem in einem auktionsbasierten Setting und entwerfen Optimal- und Approximationsmechanismen. Außerdem zeigen wir, dass die Näherung;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00006-6_49 f52745acb28352de42a4fd5d63ed0b24;de;;;4.2.;;;Technologien für das Altern an Ort und Stelle: Eine systematische Überprüfung von Reviews und Metaanalysen Ziele - Unter der Annahme, dass Informationstechnologien älteren Menschen in ihrem Wohnumfeld helfen könnten (dh Technologien für das Altern vor Ort), zielt diese Studie darauf ab, (i) die relevantesten Anwendungen von Technologien für das Altern vor Ort zu identifizieren, (ii) die Arten von Technologien für Alterung vor Ort und (iii) die Ergebnisse der Technologien für das Altern vor Ort. Methoden - Basierend auf einer Literaturrecherche wurde ein systematischer Review von Reviews und Metaanalysen durchgeführt. Ergebnisse - Insgesamt wurden 73 systematische Übersichten und Metaanalysen abgerufen. Diese Studien wurden in die folgenden Klassen eingeteilt: (i) gesunde Lebensweise, (ii) Einsamkeit und soziale Isolation, (iii) häusliche Sicherheit und (iv) Fernpflege bei chronischen Erkrankungen. Schlussfolgerung - Die Ergebnisse zeigen das Potenzial der vorhandenen Technologien für das Altern, es besteht jedoch Bedarf an zusätzlicher Evidenz aus randomisierten kontrollierten Studien und Längsschnittstudien mit großen Stichprobengrößen und robusten Bewertungsmethoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94806-5_18 2aa36dcabfc693ddb16b1c20d20c10e1;de;;;4.2.;;;Refab Four: Beatles zum Verkauf im Zeitalter des Musikvideos Das Millennium naht und wir haben das zweite Kommen der Beatles erlebt. Die Gruppe als Ganzes wurde (in gewisser Weise) wiederbelebt und insbesondere John Lennon – der sagte, die Beatles seien beliebter als Christus und sang „they’re gonna crucify me“.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-62210-8_10 87bcf88daf82448499bbf78d5db962b6;de;;;4.2.;;;Der allgemeine Ansatz zur zystischen Fibrose-Lungeninfektion in den Niederlanden In den Niederlanden liefert ein nationales Register Patientendaten zur Demographie der Mukoviszidose (CF). Die Überlebensrate von Patienten mit CF ist in den letzten zehn Jahren erheblich gestiegen. Die verbesserte Überlebensrate ist teilweise auf das Management und die Versorgung dieser Patienten durch multidisziplinäre Behandlung in CF-Zentren zurückzuführen. Eine frühzeitige Diagnose von CF, vorzugsweise im Neugeborenenstadium, führt zu einer verbesserten Behandlung des Patienten, um eine Verschlechterung der Lungenfunktion zu verzögern. Die Behandlung umfasst einen umfassenden Ansatz, der neben einer ernährungsphysiologischen und psychosozialen Unterstützung auf einer intensiven Antibiotika- und Physiotherapie basiert. Die Verbesserung selektiver Kulturmedien hat zu einer verbesserten Wiederfindung bakterieller Pathogene bei CF geführt, was zu einer besseren Grundlage für eine rationale Wahl des Antibiotika-Regimes führt. Die komplexe pathogene Bakterienflora erfordert in der Regel eine kombinierte therapeutische antibiotische Behandlung, insbesondere bei;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-7359-8_24 73a3c9729b41b0d9c332a7afd96b31f7;de;;;4.2.;;;Komplexbildung reguliert die Glykosylierung des reversibel glykosylierten Polypeptids Reversible glykosylierte Polypeptide (RGPs) sind hochkonservierte pflanzenspezifische Proteine, die eine Selbstglykosylierung durchführen können. Diese Proteine ​​haben sich in Pflanzen als essentiell erwiesen, ihre genaue Funktion ist jedoch unbekannt. Um die Funktion dieses selbstglykosylierenden Polypeptids zu verstehen, ist es wichtig herauszufinden, welche Faktoren an der Regulation der RGP-Aktivität beteiligt sind. Hier zeigen wir, dass die Inkubation bei hoher Ionenstärke einen hohen Selbstglykosylierungsgrad und eine hohe Glykosylierungsreversibilität von RGP aus;-;-;-;https://link.springer.com/article/10.1007/s00425-007-0485-3 cb2ed2981d646c3314bfb3989df498dc;de;;;4.2.;;;Eine Studie zum Peer-Coaching in professionellen Online-Lerngemeinschaften von Lehrern Die Förderung der beruflichen Entwicklung von Lehrkräften wurde als entscheidender Faktor für die Verbesserung der Bildungsqualität angesehen. Die Nutzung einer professionellen Online-Lerngemeinschaft kann berufliche Entwicklungsmöglichkeiten bieten, einschließlich Kursen, Aktivitäten und Interaktionen mit Gleichaltrigen, sodass Lehrer zusammenkommen können, um ihre Ressourcen zu teilen, Probleme zu lösen, Arbeitsstrategien zu entwickeln und ihre Leistung zu verbessern. In dieser Studie besteht Peer-Coaching aus vier Faktoren: akademischer Unterstützung, technischer Unterstützung, emotionaler Unterstützung und reflexiver Unterstützung. Die Autoren sammelten Selbstberichte über das Verhalten von Peer-Coachings von 376 Mitgliedern professioneller Online-Lerngemeinschaften in China. Datenanalysen und Untersuchungen von Logs zeigten, dass sich die Lehrenden in allen Faktoren des Peer-Coachings als leicht überdurchschnittlich einschätzten. Peer-Coaching bestand hauptsächlich aus reflexiver und emotionaler Unterstützung. Männliche Lehrkräfte boten tendenziell mehr technische Unterstützung, und ältere Lehrkräfte boten eher akademische Unterstützung und weniger technische Unterstützung. Die Lehrkräfte mit 6–10 Jahren Unterrichtserfahrung schnitten im Konstrukt der technischen Unterstützung am schlechtesten ab. Es gab keinen signifikanten Unterschied zwischen Grundschullehrern und Realschullehrern. Die Ergebnisse dieser Studie legen nahe, dass die Entwicklung des pädagogischen, inhaltlichen und technologischen Wissens von Lehrkräften (TPACK) dazu beitragen kann, die Wirkung von Peer-Coaching und der Durchführung von Schulungen für Lehrer zu verbessern, bevor der Peer-Coaching-Prozess hilfreich sein kann.;-;-;-;https://link.springer.com/article/10.1007/s10209-016-0461-4 0b508b96f8f8a1350fd9a975cbb0c149;de;;;4.2.;;;Wissensproduktion und Wertschöpfung: Die doppelte Hürde von Strenge und Relevanz unternehmerisch nehmen Das in diesem Kapitel angesprochene Problem ist die angebliche Kluft zwischen Theorie und Praxis, die dazu führt, dass sich Universitäten von der realen Welt und Organisation von der formalen Theorie lösen und somit eine relevante Theorieentwicklung in den breiteren Feldern der Betriebswirtschaftslehre fehlt (Pfeffer&Fong, 2002, Gosling & Mintzberg, 2003, Bennis & O'Toole, 2005).;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-2973-7_11 44cd857b976611e41724cc5fbdea5a83;de;;;5.2.;;;Internationale Zuständigkeit japanischer Gerichte im Vergleich In diesem Artikel wird die Reform der japanischen Zivilprozessordnung (CCP) von 2011 untersucht, mit der neue Bestimmungen zur internationalen gerichtlichen Zuständigkeit eingeführt wurden. Unter Berücksichtigung der wesentlichen Merkmale der Hauptgerichtsbarkeitsregeln in der CCP analysiert der Autor die Regulierung internationaler Parallelstreitigkeiten. Die einschlägigen Regelungen der Brüssel-I-Verordnung (Neufassung) werden aus vergleichender Sicht berücksichtigt. Abschließend weist der Autor darauf hin, dass die Grundstruktur der japanischen Zuständigkeitsregeln der Brüssel I-Verordnung (Neufassung) entspricht, wobei einige wichtige Zuständigkeitsgründe deutlich davon abweichen.;-;-;-;https://link.springer.com/article/10.1017/S0165070X12001180 e44acf98170d9e960ea7ab7b1482feaf;de;;;4.2.;;;Biochemische und genetische Aspekte der Pathogenese der Schizophrenie Einige molekularbiologische und genetische Konzepte zur Entstehung von Schizophrenie werden diskutiert, das Hauptaugenmerk wird auf den ontogenetischen Aspekt dopaminerger Störungen und die Rolle von Risikofaktoren, einschließlich Stress, gelegt, die auf die Interaktion zwischen dem Nerven-, Hormon- und Immunsystem zurückzuführen sind während der Entwicklung einer Schizophrenie.;-;-;-;https://link.springer.com/article/10.1134/S0022093011050021 c65a6a2bb9eb4ac8a0c23fff16449910;de;;;4.2.;;;Ökonometrischer Ansatz für den Breitbandmarkt in Japan Wir haben das Wachstum des japanischen Breitbandmarktes untersucht. Wir haben die Preiselastizität und die Entwicklung des Breitbandmarktes im Jahr 2009 analysiert, indem wir den Markt von 2005 verglichen haben, den wir ökonometrisch als die Wachstumsphase des Fiber-To-The-Home (FTTH)-Dienstes betrachten. Durch Analysen haben wir festgestellt, dass die Nutzer die Gebühren für FTTH-Dienste als angemessen empfinden und dass der Dienst von Haushalten mit hohem und niedrigem Einkommen genutzt wird. Wir glauben auch, dass der FTTH-Dienst nicht mehr für Benutzer geeignet ist, die das Internet für umfangreiche Download-Aktivitäten wie P2P-Filesharing verwenden. Zudem sind die FTTH-Gebühren weniger elastisch als 2005.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15393-8_26 b2078dff6dd944c5b19d3d1be958f8fa;de;;;4.2.;;;Wahrgenommene Stressoren der Klimaanfälligkeit in der Savannah-Zone von Ghana: ein partizipativer Ansatz Kleinbauern in Subsahara-Afrika sind mit klimatischen und nicht-klimatischen Belastungen konfrontiert. Die Aufmerksamkeit der Forschung hat sich auf klimatische Stressoren wie die Niederschlagsvariabilität konzentriert, wobei nur wenige empirische Studien nicht-klimatische Stressoren untersuchen und wie diese mit klimatischen Stressoren auf mehreren Ebenen interagieren, um die Ernährungssicherheit und den Lebensunterhalt zu beeinflussen. Diese Fokussierung auf klimatische Faktoren schränkt das Verständnis der Kombinationen von Stressfaktoren ein, die die Verwundbarkeit landwirtschaftlicher Haushalte verschlimmern und die Entwicklung einer ganzheitlichen Politik zur Anpassung an den Klimawandel behindert. Diese Studie befasst sich mit dieser speziellen Forschungslücke, indem sie einen mehrskaligen Ansatz verfolgt, um zu verstehen, wie klimatische und nichtklimatische Stressoren über drei räumliche Skalen (Haushalts-, Gemeinde- und Bezirksebene) variieren und interagieren, um die Gefährdung der Lebensgrundlage von kleinbäuerlichen Haushalten in der Region zu beeinflussen Savannenzone im Norden Ghanas. Diese Studie in drei Fallstudiendörfern verwendet eine Reihe von partizipativen Instrumenten, darunter halbstrukturierte Interviews, Interviews mit Schlüsselinformanten und Fokusgruppendiskussionen. Die Inzidenz-, Bedeutungs-, Schwere- und Gesamtrisikoindizes für Stressoren werden auf Haushalts-, Gemeinde- und Bezirksebene berechnet. Die Ergebnisse zeigen, dass klimatische und nicht-klimatische Stressoren unterschiedlich wahrgenommen wurden, jedoch gab es eine Reihe von gemeinsamen Stressoren, darunter Geldmangel, hohe Kosten für Betriebsmittel, unregelmäßige Regenfälle, Viehzerstörung von Ernten, eingeschränkter Zugang zu Märkten und Mangel an landwirtschaftlicher Ausrüstung das alle Skalen überschritten hat. Die Ergebnisse deuten darauf hin, dass das Geschlecht der Befragten die Wahrnehmung und Schwerebewertung von Stressoren auf die ländliche Lebensgrundlage auf Gemeindeebene beeinflusst hat. Die Ergebnisse deuten auf eine Diskrepanz zwischen den Prioritäten auf lokaler und Distriktebene hin, die Auswirkungen auf die Politik und Entwicklung der Landwirtschaft und der damit verbundenen Lebensgrundlagen in ländlichen Gemeinden haben. Ghanas Politik zur Anpassung an den Klimawandel muss einen ganzheitlicheren Ansatz verfolgen, der sowohl klimatische als auch nicht-klimatische Faktoren integriert, um die Politikkohärenz zwischen nationalen Klimaanpassungsplänen und Distriktentwicklungsplänen sicherzustellen.;-;-;-;https://link.springer.com/article/10.1007/s10113-016-0993-4 02bab9b5fa34bbd2f0ca47d59949ca1e;de;;;4.2.;;;Der Übergang von der Manufaktur zur maschinellen Fertigung 1780-1850 Beim Übergang von der Manufaktur zur Maschinenfabrik traten große Disparitäten zwischen wenigen schnell wachsenden Industriegebieten und ländlichen Gebieten auf, die langsam deindustrialisiert und schließlich weitgehend auf eine landwirtschaftliche Tätigkeit reduziert wurden. Die stärkste Trennung bestand zwischen dem zentralen Kerngebiet Englands, das sich von London bis zum Nordwesten erstreckte, und den Randgebieten in Großbritannien und Irland.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-17107-1_13 9f74b5ed825002632b56d9f6fd13a245;de;;;5.2.;;;Entwicklung von hierarchischen neuronalen RBF-Netzen für die Brustkrebserkennung Hierarchische RBF-Netzwerke bestehen aus mehreren RBF-Netzwerken, die in unterschiedlicher Ebenen- oder Kaskadenarchitektur angeordnet sind. In dieser Arbeit wurde ein weiterentwickeltes hierarchisches RBF-Netzwerk verwendet, um die Brustauslöschung zu erkennen. Zur Entwicklung eines hierarchischen RBF-Netzwerkmodells werden Extended Compact Genetic Programming (ECGP), ein baumstrukturbasierter evolutionärer Algorithmus und die Differentielle Evolution (DE) verwendet, um ein optimales Erkennungsmodell zu finden. Die Leistung der vorgeschlagenen Methode wurde dann mit dem Flexiblen Neural Tree (FNT), dem Neural Network (NN) und dem RBF Neural Network (RBF-NN) unter Verwendung desselben Brustkrebsdatensatzes verglichen. Simulationsergebnisse zeigen, dass das erhaltene hierarchische RBF-Netzwerkmodell eine geringere Anzahl von Variablen bei reduzierter Anzahl von Eingabemerkmalen und mit hoher Erkennungsgenauigkeit aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/11893295_16 8193975728c9ffefa100b35b31ad46b9;de;;;5.2.;;;Untersuchung von Publicity-Effekten im Vorfeld: Neue Methoden zur Verbesserung der ökologischen Validität und Prüfung der externen Validität Obwohl die Forschung, die die Auswirkungen von Pretrial Publicity (PTP) auf die individuelle Einschätzung eines Angeklagten und die Urteilsfindung im Allgemeinen untersucht, sich als intern valide erwiesen hat, wurde die externe Validität von einigen Sozialwissenschaftlern sowie Anwälten und Richtern in Frage gestellt. Es wird oft vorgeschlagen, dass die Wahrscheinlichkeit (oder ökologische Validität) der Forschung im Dienste einer zunehmenden externen Validität erhöht werden sollte, jedoch kann eine Erhöhung der Wahrscheinlichkeit sowohl zeit- als auch kostenaufwändig sein. Es wird vorgeschlagen, dass das Internet ein praktikables Mittel zur Durchführung von PTP-Recherchen ist, das eine hohe Wahrscheinlichkeit ohne hohe Kosten ermöglicht. Dies zeigt eine Studie, in der wir das Internet nutzten, um die PTP-Wirkungen in einer realen Studie zu untersuchen, während sie stattfand. Die erfolgreiche Nutzung des Internets für experimentelle Forschung in anderen Bereichen der Psychologie und des Rechts wird ebenso diskutiert wie die Bedeutung zukünftiger Forschung, die untersucht, ob unabhängige Variablen mit Methoden in einer Weise interagieren, die die Generalisierbarkeit von Forschungsergebnissen untergräbt.;-;-;-;https://link.springer.com/article/10.1023/A%3A1013877108082 ebfb3553adcd41c67452285c2af0f907;de;;;4.2.;;;Strategisches Festival-Event-Design zur Wertschöpfung Diese Studie zielt darauf ab, das integrierte visuelle Kommunikationsdesign aus der integrierten Perspektive zu betrachten, ausgehend von der bisherigen Einzelstrategie, und damit die theoretische Gültigkeit des Konzepts zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35251-5_33 93598c99b078182ba1bccd6efa48388d;de;;;4.2.;;;Verbale Assoziation und das Bedeutungsproblem Von einer sequentiellen zu einer assoziationistischen Sichtweise – Der Begriff der Assoziation – Galton und Marbe – Assoziationsexperimente und sprachliches Alltagsverhalten – Assoziationsnormen und ihr Anwendungsbereich – Gruppen- und Persönlichkeitsfaktoren bei der Differenzierung verbalen Gewohnheiten – Jungs Untersuchungen und Laffals Kritik – Bedeutungselemente – Clark – Das Konzept des semantischen Feldes – Deeses Assoziationsstudien.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-6211-4_6 4a64b4e2aa560fb70daa23fb96750550;de;;;5.2.;;;Die Bewertung und Verwendung von Endophyten zur Weideverbesserung Past Die Verbesserung der Futterpflanzen wurde durch Pflanzen- und Familienselektion erreicht, was zur Identifizierung und Vermehrung genetisch überlegener Individuen führte (Pederson und Sleper, 1993). Zu den Zielen der Weideverbesserung gehörten eine höhere und zuverlässigere jährliche und saisonale Kräuterproduktion sowie Faktoren wie die Verringerung oder Eliminierung von qualitätsmindernden Faktoren und eine verbesserte Toleranz oder Resistenz gegenüber Krankheiten und Schädlingen. Züchter haben in Bezug auf edaphischen Stress zwei Strategien verfolgt. Normalerweise haben sie eine breite Anpassungsfähigkeit angestrebt, in einigen Fällen jedoch auch eine Anpassung an definierte Umweltnischen, insbesondere wenn angenommen wird, dass die Stresstoleranz negativ mit der Produktivität korreliert, wenn sie fehlt. Die Futterqualität, verstanden als die Fähigkeit, dem Weidetier verdauliche mineralische und organische Nährstoffe zuzuführen, ist ein Ziel von wachsender Bedeutung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-0271-9_39 28270ab70be99c40719d333ade9ca8a8;de;;;4.2.;;;Sichere Community Designation als Qualitätssicherung in der lokalen Sicherheitsplanung Diese Studie wurde verfasst, um die finnischen Gemeinden zu ermutigen, die Bezeichnung Safe Community anzuwenden und die Umsetzung nationaler Programme auf lokaler Ebene zu verbessern. Für die Erstellung der Leitlinien wurde die bestehende nachhaltige Sicherheitsarbeit in finnischen Gemeinden genutzt. Die Infrastruktur zur Erfüllung der Anforderungen für die Ausweisung als sichere Gemeinschaft war in den finnischen Gemeinden aufgrund der nationalen Programme und der lokalen Sicherheitspläne angemessen. Sowohl das dritte Programm der Inneren Sicherheit „A Safer tomorrow“ (2012) als auch das fünfte Nationale Ziel- und Aktionsprogramm zur Prävention von Verletzungen zu Hause und in der Freizeit 2014–2020 konzentrieren sich auf die Lösung der alltäglichen Sicherheitsprobleme und die Prävention von Verletzungen. Die in diesen Programmen umrissenen Ziele und Maßnahmen sollten in lokalen Sicherheitsplänen berücksichtigt werden. Die Mehrheit der Finnen (95%) lebt in einer Gemeinde mit einem lokalen Sicherheitsplan. Diese Pläne beinhalten eine Führungsrolle in einer nachhaltigen, sektorübergreifenden Sicherheitszusammenarbeit, Ziele und Maßnahmen, die die Sicherheit verbessern und Verletzungen gefährdeter Gruppen beiderlei Geschlechts jeden Alters in jeder Umgebung reduzieren. Lokale Pläne beinhalten auch die Vorbereitung auf Katastrophen. Obwohl die nationale Sicherheitsplanungsinfrastruktur in Finnland bereits vorhanden ist, besteht der Vorteil der Safe-Gemeinschaftsbezeichnung darin, dass die Umsetzung der Maßnahmen im Zertifizierungsprozess geprüft und kontrolliert wird. Die nationale Strategie und die lokale Sicherheitsplanung können mit den Anforderungen für die Ausweisung einer sicheren Gemeinschaft kombiniert werden. Die Erlangung der Auszeichnung als sichere Gemeinschaft kann auch als Qualitätssicherung des Sicherheitsmanagementsystems in Finnland angesehen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10211-5_20 907f4597fb48884297f6f850a0aa6e69;de;;;5.2.;;;Das (µ/µ, λ)-ES: Genetische Reparatur Ein wichtiger Bestandteil von Evolutionsstrategien, der in den bisherigen Analysen unberücksichtigt geblieben ist, ist die Rekombination. In diesem Kapitel untersuchen wir die Auswirkungen der globalen Zwischenrekombination, indem wir die lokale Leistung des (µ/µ, λ)-ES in der sphärischen Umgebung untersuchen. Die Berücksichtigung dieser speziellen Form der Rekombination vereinfacht die Analyse erheblich, da sie die Berechnung des Schwerpunkts der gesamten Elternpopulation als Ausgangspunkt für alle Mutationen beinhaltet. Somit besteht keine Notwendigkeit, verteilte Populationen von Kandidatenlösungen zu modellieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-1105-2_5 30c22417cb0bfc8793ee1689697fd5ce;de;;;5.2.;;;Synthese kanonischer Elemente für die Leistungsverarbeitung basierend auf der Sliding-Mode-Steuerung Das Induzieren von Gleitbewegungen in geeigneten Wandlern ermöglicht einen systematischen Entwurf der drei kanonischen Elemente für die Leistungsverarbeitung, d. h. DC-Transformator, Leistungsgyrator und verlustfreier Widerstand (LFR). Eine Suche nach Kandidaten wird durchgeführt, indem eine große Anzahl von Konvertern mit topologischen Beschränkungen untersucht wird, die durch die Natur jedes kanonischen Elements auferlegt werden. Mehrere Beispiele, die von der DC-Impedanzanpassung mittels DC-Transformator bis hin zur LFR-basierten Leistungsfaktorkorrektur reichen, veranschaulichen die Anwendung der Synthese.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22164-4_19 f51e7987b54e0deb772f2d8752672920;de;;;5.2.;;;Psychologische Betreuung von Krebspatienten Da Ärzte die Behandlung und Prognose von Krebspatienten nach und nach verbessert haben, interessieren sie sich zunehmend für die Lebensqualität ihrer Patienten. Das Wissen über die emotionalen und verhaltensbezogenen Reaktionen von Patienten, das früher hauptsächlich durch einen intuitiven oder gesunden Menschenverstand gewonnen wurde, kann nun systematischer angegangen werden. Die Nutzung dieses Wissens kann die Moral und das Wohlbefinden der Patienten verbessern, wenn sie mit einer immer noch gefürchteten Krankheit konfrontiert werden, und kann die Kompetenz und das Selbstvertrauen der Ärzte bei der Behandlung schwerkranker Menschen stärken.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-5198-9_16 35bf3c93a20c7e233f0c8b1479ca83bd;de;;;4.2.;;;Ein wertorientierter Ansatz bei der Auswahl und dem Ranking von Smart City-Projekten Der Artikel schlägt vor, eine Smart City als einen Komplex innovativer Projekte zu betrachten, die in verschiedenen Sektoren einer urbanen Wirtschaft umgesetzt werden. Die Zweckmäßigkeit der Umsetzung der Projekte richtet sich einerseits nach den Anforderungen nationaler und internationaler Normen und Regelwerke zur Stadtentwicklung, andererseits nach den aktuellen Bedürfnissen der Stadtbewohner. Der Artikel stellt einen formalisierten Kriterienkatalog vor, anhand dessen innovative Projekte nach ihrer Bedeutung für die Umsetzung in Smart Cities eingestuft werden können. Der letzte Teil des Artikels enthält die Ergebnisse der Anwendung des vorgeschlagenen Ansatzes auf die Rangfolge der Projekte im Entwicklungsprozess einer Smart City in St. Petersburg.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-69784-0_26 af68ffc8975bde287dc6c2141017c6bf;de;;;5.2.;;;Gleitmodussteuerung für die Konsensverfolgung von nichtlinearen Multiagentensystemen zweiter Ordnung, die durch Brownsche Bewegung angetrieben werden In dieser Studie wird das Consensus-Tracking-Problem nichtlinearer stochastischer Multiagentensysteme mit gerichteten Topologien untersucht. Um das Consensus-Tracking-Problem zu lösen, wird zuerst ein innovatives Konzept der Sub-Reachability eingeführt und dann die spezifizierte gleitende Hyperebene entworfen. Ein neues Konsensus-Tracking-Protokoll wird dann unter Verwendung von Gleitmodustechniken vorgeschlagen. Mit Hilfe der Itô-Integraltechniken und der stochastischen Lyapunov-Methode wird die Untererreichbarkeit von Gleitbewegung und Konsensverfolgung nachgewiesen, d die Gleitbewegung ist im Sinne des mittleren Quadrats exponentiell stabil. Die Wirksamkeit der vorgeschlagenen Methode wird anhand eines numerischen Falls getestet.;-;-;-;https://link.springer.com/article/10.1007/s11432-017-9407-6 753c615993d4b3b30570b0111105ae82;de;;;5.2.;;;Shelleys Ansichten der Poesie Shelley entwickelte kein systematisches und konsistentes Verständnis der formalen Prinzipien und Regeln der Poesie, ihrer zugrunde liegenden psychologischen und historischen Ursachen oder ihrer metaphysischen und erkenntnistheoretischen Grundlagen. Er war nicht das, was wir heute einen „Theoretiker“ der Poesie oder allgemein der Sprache nennen würden: nicht einmal in dem Sinne, in dem Herder, Schlegel, Sainte-Beuve oder Arnold, geschweige denn Heidegger oder de Man, Theoretiker dieser Art waren Dinge. Am nächsten kam er einer vollständigen Aussage dessen, was er an Poesie und den Dichter glaubte, in seinem späten Essay „A Defense of Poetry“, aber wie wir sehen werden, war sein Thema auch dort nur „Poesie“ in einer eher ungewöhnlichen Form Sinn, und die dort geäußerte Auffassung von Poesie stimmte nicht mit seinen früheren Ansichten überein. Studien zu Shelleys „Theorie“ der Poesie neigen daher dazu, etwas forciert zu sein: Lesungen seiner anderen Werke im Lichte einer grundlegenden Darstellung der „Verteidigung“, Spuren des Einflusses anderer Theoretiker auf Shelley mit mehr oder weniger überzeugenden Vorschlägen hinsichtlich seiner theoretischen Zugehörigkeiten (Aristoteliker oder Platoniker, Lockescher Empiriker, Humescher Skeptiker oder Longinischer Enthusiast, Primitivist oder Progressivist, Neokantianer oder Protodekonstruktionist) sogar Aussagen über die eigene Poesietheorie des Autors.;-;-;-;https://link.springer.com/chapter/10.1057/9780230376854_2 5849700ed68c42538c482f40cfa11d8a;de;;;4.2.;;;Spiele in Spielen Videospiele, die andere Spiele in ihre Spielwelt integrieren, schaffen verschachtelte fiktive Ebenen. Diese können verwendet werden, um sich mit Konzepten der „Gameness“ innerhalb des Spiels selbst zu beschäftigen, ohne die ästhetische Illusion aufzugeben, die durch das Makrospiel erzeugt wird, in das das Minispiel eingebettet ist. In meinem Beitrag gehe ich der Frage nach, warum wir bereit sind, in Videospielwelten einzutauchen, auch wenn sie Elemente enthalten, die die Fiktionalität dieser Spiele offen betonen. Ich untersuche Konzepte der Illusion sowie verschränkte fiktionale Ebenen aus einer theoretischen Perspektive, bevor ich verschiedene Spielmodi innerhalb von Spielen mit oder ohne Einfluss auf das Gameplay des Makrospiels sowie deren Beziehung zur Illusion untersuche. Das Ergebnis meiner Arbeit wird eine umfassende Studie über das kritische Potenzial von Minispielen sein, die durch die Diskussion eines großen Korpus verschiedener Videospiele erreicht wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37983-4_2 ddc9f8b6c06290be95b2520c18d11488;de;;;4.2.;;;Entdecken und Studieren von Kooperationsnetzwerken in Software-Repositorys Kollaboration ist wichtig für Softwareentwicklungsprozesse und Kollaborationsnetzwerke helfen uns, ihre Struktur und Muster zu verstehen. Ein häufiges Problem besteht jedoch darin, dass diese Netzwerke nicht bekannt sind und entdeckt werden müssen. In dieser Arbeit untersuchen wir Kollaborationsnetzwerke von fünf Projekten unter Verwendung einer bestehenden Methode, die diese Netzwerke aus Versionskontrollsystemen herausfiltert. Die Methode basiert auf Recommender-System-Techniken und findet ähnliche Entwickler, indem sie Commits analysiert, die auf gemeinsame Dateien vorgenommen werden. Diese Ähnlichkeiten werden dann verwendet, um das Netzwerk automatisch zu konstruieren und es wird unter Verwendung eines kraftgerichteten Graph-Layout-Algorithmus visualisiert. Zwei der untersuchten Projekte kommen aus der Industrie und sind Closed Source, die anderen drei Open Source. In jeder Studie lernen wir etwas über die Kooperationsform und Organisation des Projekts. Auch bei diesen Projekten konnten wir verschiedene Aspekte finden, die bisher nicht bekannt waren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39179-8_10 052b74723e6ad81745a94c1655865f64;de;;;5.2.;;;Ein robuster Algorithmus für die generalisierte geometrische Programmierung Die meisten existierenden Verfahren der globalen Optimierung für die generalisierte geometrische Programmierung (GGP) berechnen tatsächlich eine ungefähre optimale Lösung einer linearen oder konvexen Relaxation des ursprünglichen Problems. Diese Ansätze können jedoch manchmal eine nicht durchführbare Lösung liefern oder weit vom wahren Optimum entfernt sein. Um diese Einschränkungen zu überwinden, wird ein robuster Lösungsalgorithmus für die globale Optimierung des (GGP) Problems vorgeschlagen. Dieser Algorithmus garantiert in angemessener Weise, eine robuste optimale Lösung zu erhalten, die machbar ist und der tatsächlichen optimalen Lösung nahe kommt und auch unter kleinen Störungen der Randbedingungen stabil ist.;-;-;-;https://link.springer.com/article/10.1007/s10898-008-9283-0 5407c8282d7923fa5b66d24f8a87b1be;de;;;4.2.;;;Mobbing und seine Verbindung mit Altruismus gegenüber Opfern, Schuldzuweisungen an die Opfer und Verbreitung von Zuschauerverhalten im Klassenzimmer: eine Analyse auf mehreren Ebenen Unter Bezugnahme auf sozial-ökologische, Selbstbestimmungs-, Attributions- und sozialkognitive Theorien untersuchte die aktuelle Studie, ob Geschlecht, Alter, altruistische Motivation zur Opferverteidigung und Tendenz zur Schuldzuweisung auf individueller Ebene sowie die Prävalenz von Verstärkung und Verteidigen auf Klassenebene wurden mit Mobbing in Verbindung gebracht. Eine Stichprobe von 901 schwedischen Schülern (9–13 Jahre alt,;-;-;-;https://link.springer.com/article/10.1007/s11218-018-9457-7 812d22f0d2eaf0b2815c125ff21c2a88;de;;;4.2.;;;Hitzeschockproteine ​​als molekulare Chaperone Funktionelle Proteine ​​innerhalb von Zellen liegen normalerweise in ihrer nativen, vollständig gefalteten Form vor. Jedoch erfordern lebenswichtige Prozesse der Proteinbiogenese wie die Proteinsynthese und die Translokation von Proteinen in intrazelluläre Kompartimente, dass das Protein vorübergehend in einer ungefalteten oder teilweise gefalteten Konformation vorliegt. Als Folge werden Bereiche, die verborgen sind, wenn ein Polypeptid in seiner nativen Konformation vorliegt, exponiert und interagieren mit anderen Proteinen, was eine Proteinaggregation verursacht, die für die Zelle schädlich ist. Um eine Aggregation beim Entfalten von Proteinen zu verhindern, schützen Hitzeschockproteine ​​diese interaktiven Oberflächen, indem sie an sie binden und die Faltung von ungefalteten oder entstehenden Polypeptiden erleichtern. In anderen Fällen ist die Bindung von Hitzeschockproteinen an interaktive Oberflächen vollständig gefalteter Proteine ​​ein entscheidender Teil ihrer Regulation. Da Hitzeschock und andere Stressbedingungen dazu führen, dass zelluläre Proteine ​​teilweise entfaltet werden, wird die Fähigkeit von Hitzeschockproteinen, Zellen vor den negativen Auswirkungen von Stress zu schützen, eine logische Erweiterung ihrer normalen Funktion als molekulare Chaperone.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-79502-2_2 84eb4aa405b2ee7ea9ef0d95d06dd6ad;de;;;4.2.;;;Räumliche Muster der Wohnfragmentierung und Lebensqualität in Nairobi City, Kenia Die Zersplitterung der Wohngebiete untergräbt die Integration, indem sie einige Stadtbewohner durch Mauern, Zäune und den Einsatz von Barrieren, die Interaktionen einschränken, physisch ausschließt. Untersuchungen haben gezeigt, dass viele Städte im Globalen Süden Probleme mit der räumlichen Fragmentierung haben, die mit zunehmender Ungleichheit, sozialer Ausgrenzung und der Verbreitung von Gated Communities verbunden sind. Dies führt zu ausgeprägten Wohnfragmenten mit begrenzten Interaktionen und ungleichen Lebensqualität (QoL)-Bedingungen der Bewohner der Fragmente. Das Ziel dieses Papiers ist es, den Zusammenhang zwischen Wohnfragmentierung und Lebensqualität anhand von drei Wohnfragmenten in der Stadt Nairobi (Kenia) zu beschreiben. Ein Mixed-Methods-Ansatz wurde angewendet, um die Fragmentierung in der Stadt zu verstehen und die Integration und die Zufriedenheit mit der Lebensqualität in den Fragmenten zu analysieren. Haushaltsbefragungen und Interviews mit Schlüsselinformanten waren die wichtigsten Methoden zur Datenerhebung. Zu den verwendeten Datenanalysemethoden gehörten deskriptive Statistik, räumliche und inhaltliche Analyse. Die Ergebnisse zeigen, dass sich die Slumbewohner wie erwartet symbolisch am wenigsten integriert fühlten im Vergleich zu den geplanten Bewohnern ohne Wohnanlage und Wohnanlage. In ähnlicher Weise haben Bewohner einer Wohnanlage eine höhere QoL-Zufriedenheit im Vergleich zu anderen Arten von Fragmenten. Es besteht ein starker positiver Zusammenhang zwischen symbolischer Integration und QoL-Domänen in Bezug auf Wohnen und Sicherheit im Slum, was darauf hindeutet, dass Menschen, die mit dem Wohnen zufrieden sind, auch ein Gefühl der Zugehörigkeit zu ihrer Nachbarschaft haben. Im Gegensatz dazu hat die Integration in die Gemeinschaft eine negative Korrelation mit der Sicherheit in der Wohnanlage, was bedeutet, dass die Bewohner, wenn sie mit der Sicherheit zufrieden sind, tendenziell über niedrige soziale Netzwerke verfügen. Basierend auf den empirischen Beweisen hängt die Fragmentierung mit bestimmten Domänen der Lebensqualität zusammen, da sie mit räumlicher Ausgrenzung durch Barrieren und Gating und Marginalisierung der Armen verbunden ist, was es für sie schwieriger macht, sich integriert zu fühlen. Die Wohnfragmente spiegeln die starken Kluften in den Städten des Globalen Südens in Bezug auf Lebensqualität und Zugang zu Dienstleistungen wider.;-;-;-;https://link.springer.com/article/10.1007/s11482-019-09739-8 80b9015d5a5cd9fd53edc7999e4ba6a1;de;;;4.2.;;;Calibans Vermächtnis Das Verbrennen von Büchern, das von der Antike bis ins 20. Jahrhundert zurückverfolgt werden kann, kommt der Zerstörung von Individuen und der Auslöschung der Geschichte gleich. In diesem Essay konzentriert sich Lowenthal auf die Psychologie und Symbolik der Bücherverbrennung und erinnert uns an die Notwendigkeit, sowohl die absichtliche Zerstörung der Erinnerung als auch ihre versehentliche Vernachlässigung zu verhindern.;-;-;-;https://link.springer.com/article/10.1007/BF02683725 7292e28d82af65c696e927451f95fa71;de;;;4.2.;;;Dust of Wonder, Dust of Doom: Eine Landschaft aus Nanotechnologie, Nanoethik und nachhaltiger Entwicklung Die Nanotechnologie ist ein relativ junges und vielversprechendes Forschungsgebiet, das sich der Manipulation von Materie auf atomarer und molekularer Ebene widmet. Seine große Reichweite gewährleistet einen umfassenden Einfluss auf ein breites Spektrum menschlicher Aktivitäten und hat ernsthafte Bedenken hinsichtlich der ethischen, wirtschaftlichen, ökologischen, rechtlichen und sozialen Fragen (E3LSI) im Zusammenhang mit seiner Entwicklung und Anwendung hervorgerufen, insbesondere im Hinblick auf die Entstehung einer „ nano-divide“ zwischen Ländern mit hohem Einkommen und den Entwicklungsländern. In diesem Kapitel untersuchen wir die Fortschritte in der Nanotechnologie, die Ländern mit niedrigem und mittlerem Einkommen am ehesten zugutekommen werden. Anschließend untersuchen wir die relevantesten und realistischsten E3LS-Herausforderungen im Zusammenhang mit der Nanotechnologie (NE3LS). Als Nächstes schlagen wir mögliche Ansätze vor, um diese Herausforderungen anzugehen, basierend auf den Grundlagen von Gerechtigkeit, Gerechtigkeit, Nichtdiskriminierung und Nicht-Stigmatisierung. Schließlich heben wir die führende Rolle der UNESCO in der globalen Diskussion zu NE3LS-Themen hervor und schlagen zukünftige Wege vor, durch die das Engagement der UNESCO in der Nanotechnologie zum Wohl der Menschheit weltweit beitragen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22650-7_10 99b44a9c460d5dcd85406466e7121b8c;de;;;4.2.;;;Die Stellung von Familien im Wandel der modernen skandinavischen Wohlfahrtsstaaten Mit dem Aufbau des modernen Wohlfahrtsstaates haben sich die Stellung der Familie und die Bedingungen für die Kindererziehung drastisch verändert. Die Idee des modernen Wohlfahrtsstaates wurde in Schweden vielleicht am konsequentesten verwirklicht. Das „skandinavische Wohlfahrtsmodell“, wie es genannt wird, zeichnet sich unter anderem durch seine universellen sozialpolitischen Maßnahmen aus, die durch den Gesetzgeber festgelegt und für die gesamte Bevölkerung gültig sind, seine Betonung der Gleichstellung der Geschlechter und seine Familienpolitik die Kinderbetreuung als Teil des öffentlichen Sozialsystems umfasst. Daher sind Entwicklungen der Lage der Familie und insbesondere der Kinder in den skandinavischen Wohlfahrtsstaaten für die Familienforschung besonders interessant und zum Nachdenken anregend.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-95733-7_20 d58021c2cecddc5868bab30cfe853dd5;de;;;5.2.;;;Sicherheit durch Verhandlungen Die Verhandlungen über Rüstungskontrolle und Abrüstung, die heute einen so prominenten Platz auf der Tagesordnung der internationalen Politik einnehmen, haben als ihr vorgebliches Ziel die Förderung unserer Sicherheit. Die Skepsis, ob unsere Sicherheit auf diese Weise tatsächlich vorangebracht werden kann, ist jedoch heute sehr groß. Auf der politischen Rechten in westlichen Ländern – insbesondere in den Vereinigten Staaten – ist der Glaube wieder erwacht, dass unsere Sicherheit hauptsächlich auf Verteidigungsmaßnahmen beruht, um die Position des Westens gegenüber der Sowjetunion zu stärken, dass Rüstungskontrollverhandlungen die Hindernisse sind dazu und dass ernsthafte Verhandlungen darüber verschoben werden sollten, bis die Verteidigung des Westens stärker ist. Aber auch auf der politischen Linken drückt die Bewegung für einseitige Abrüstung einen Mangel an Vertrauen in ausgehandelte Maßnahmen aus, ein Streben nach Sicherheit unabhängig von der Gegenseitigkeit von Maßnahmen anderer Parteien.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-07541-6_12 a7c4048b67d344057a3689c79610d588;de;;;5.2.;;;Zur Konvergenz eines P-Algorithmus basierend auf einem statistischen Modell stetig differenzierbarer Funktionen Dieser Artikel befasst sich mit dem eindimensionalen globalen Optimierungsproblem für stetig differenzierbare Funktionen. Wir schlagen eine Variante des sogenannten P-Algorithmus vor, der ursprünglich für ein Wiener-Prozessmodell einer unbekannten Zielfunktion vorgeschlagen wurde. Der ursprüngliche Algorithmus hat sich für die globale Suche als recht effektiv erwiesen, obwohl er für die lokale Komponente der Optimierungssuche nicht effizient ist, wenn die Zielfunktion in der Nähe des globalen Minimierers glatt ist. In dieser Arbeit konstruieren wir einen P-Algorithmus für ein stochastisches Modell stetig differenzierbarer Funktionen, nämlich den einmal integrierten Wiener-Prozess. Dieser Prozess ist stetig differenzierbar, hat aber nirgendwo eine zweite Ableitung. Wir beweisen Konvergenzeigenschaften des Algorithmus.;-;-;-;https://link.springer.com/article/10.1023/A%3A1011207622164 2bdb7483af89eeb9c13a0e66033b5049;de;;;5.2.;;;Entscheidungsfindung unter Zeitdruck: Ein unabhängiger Test von sequentiellen Stichprobenmodellen Wahlwahrscheinlichkeits- und Wahlantwortzeitdaten aus einer risikoreichen Entscheidungsaufgabe wurden mit Vorhersagen eines sequentiellen Stichprobenmodells verglichen. Die mit dem Modell konsistenten Verhaltensdaten zeigten, dass die Teilnehmer mit zunehmendem Risikoniveau weniger wahrscheinlich Maßnahmen ergriffen und dass der Zeitdruck keinen einheitlichen Einfluss auf die Wahlwahrscheinlichkeit hatte. Unter Zeitdruck waren die Teilnehmer bei den niedrigeren Risikostufen konservativer, waren jedoch bei den höheren Risikostufen anfälliger, Risiken einzugehen. Diese Crossover-Interaktion spiegelte eher eine Herabsetzung der Schwelle innerhalb einer einzelnen Entscheidungsstrategie als einen Wechsel der Entscheidungsstrategien wider. Die vom Modell vorhergesagten Reaktionszeitdaten zeigten, dass sich die Teilnehmer bei den mittleren Risikostufen mehr Zeit nahmen, um Entscheidungen zu treffen, und dass der Zeitdruck die Reaktionszeit bei allen Risikostufen reduzierte, insbesondere jedoch bei den Risikostufen, die ohne Druck länger dauerten . Schließlich wurden Reaktionszeitdaten verwendet, um die Hypothese auszuschließen, dass Zeitdruckeffekte durch eine Fast-Guess-Strategie erklärt werden könnten.;-;-;-;https://link.springer.com/article/10.3758/BF03211564 5520f379b9b26bbadba40d6274109641;de;;;5.2.;;;Kansei Engineering and Quality Function Deployment: Entwicklung einer Methodik zur Identifizierung nutzerzentrierter Projektverbesserungen Die unterschiedlichen Eigenschaften von Produkten können vom Benutzer ausgelöste Emotionen vermitteln, die als Präferenzfaktoren bei der Kaufentscheidung des Produkts fungieren können. Dieses Papier nähert sich dem Potenzial von Kansei Engineering (KE) als strategischem Werkzeug zur Suche nach der Verbesserung der Methodik und des nutzerzentrierten Designs, analysiert und diskutiert die möglichen Techniken, die in das QFD-Potenzial (Quality Function Deployment) eingerahmt und integriert sind, auf der Suche nach einem neuen Vorschlag zur Identifizierung von Projektverbesserungen. Das übergeordnete Ziel der Studie war es, Methoden für die Gestaltung und Entwicklung von Produkten zu finden, die sich auf die Mechanismen der emotionalen Kontrolle konzentrieren. Die bibliographische Recherche identifizierte die typischen Phasen der Implementierung, die Reihe von Techniken, die die Entwicklung von Produkten unterstützen können, sowie die Ergebnisse, die durch die praktische Anwendung von KE und QFD erzielt wurden. Die Ergebnisse der Integration von Methoden und experimenteller Validierung ließen in dieser ersten Studienphase keinen Abschluss zu. Die wichtigsten Schlussfolgerungen wurden beobachtet und ermöglichen mehrere Konzepte und integrierte Ansätze für eine neue Methodik, um auf die Bedürfnisse des Benutzers einzugehen, wobei die hier vorgestellten Konzepte und Techniken verwendet werden, um einen interessanten und konsistenten Mechanismus zur Identifizierung von Qualitätsverbesserungen bei der Entwicklung und Gestaltung neuer Produkte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20441-9_32 a3a8bcfe545451fe61b39ccf82cfc72a;de;;;5.2.;;;Genetik des Alkoholismus: Rolle des endogenen Opioidsystems Gegenwärtig wird Alkoholismus als eine Stoffwechselerkrankung anerkannt, die die klinischen Merkmale von Alkoholsucht, Kontrollverlust über Alkoholkonsum, Toleranz und physischer Abhängigkeit von Alkohol aufweist, während sowohl epidemiologische als auch experimentelle Studien gezeigt haben, dass genetische Faktoren bei der Bestimmung, ob eine Person hat eine hohe oder geringe Anfälligkeit, Alkoholismus zu entwickeln. Es gibt auch Hinweise darauf, dass Alkoholismus nicht durch eine einzelne Allelvererbung eines einzelnen Gens gekennzeichnet ist. Stattdessen scheinen mehrere Gene und Umweltfaktoren zusammenzuwirken, um die Anfälligkeit einer Person, Alkoholiker zu werden, zu erhöhen oder zu verringern. Die aktuelle Forschung zielt darauf ab, zu untersuchen, ob bestimmte verhaltensbezogene, physiologische und biochemische Marker in hohem Maße mit der Inzidenz von Alkoholismus assoziiert sind. Zu den biochemischen Markern, die derzeit untersucht werden, gehört das endogene Opioidsystem und seine Bedeutung für die Vermittlung der verstärkenden Wirkung von Ethanol. Das Ziel dieses Manuskripts ist es, die aktuelle Forschung zu folgenden Themen zusammenzufassen: (a) die Wechselwirkungen von Ethanol mit dem endogenen Opioidsystem auf molekularer Ebene, (b) die Existenz genetisch bedingter Unterschiede in der Reaktion des endogenen Opioidsystems auf Ethanol zwischen Personen mit hohem und geringem Risiko für übermäßigen Ethanolkonsum sowie zwischen Tierlinien, die Ethanollösungen bevorzugen oder ablehnen, (c) die Verringerung des Alkoholkonsums nach einer Vorbehandlung mit Opioid-Antagonisten und (d) die mögliche Verwendung von spezifischen Opioiden Rezeptorantagonisten zusammen mit Verhaltenstherapie zur Veränderung des Trinkverhaltens, zur Kontrolle des Heißhungers und zur Vorbeugung von Rückfällen.;-;-;-;https://link.springer.com/article/10.1007/BF01999765 6dfaeb4ab76450869675c1c770da050f;de;;;5.2.;;;Biochemie und Physiologie von Scandium und Yttrium Die Konzentrationen von Metallionen in biologischen Systemen werden selektiv durch ihre Ladung, Größe und Präferenz von harten oder weichen Liganden im Zellstoffwechsel gesteuert. Die Aufnahmewege von Calcium, Eisen und einigen anderen Metallen wurden ausführlich untersucht, aber über die meisten anderen Metallionen ist wenig bekannt (Lippard und Berg, 1994). Aufgrund ihrer physikalischen und chemischen Eigenschaften wurden die biochemischen Wirkungen von Scandium und insbesondere Yttrium mit denen des Ln verglichen. Die Aufmerksamkeit wurde auf ihre Fähigkeit gerichtet, den Stoffwechsel von Kalzium, Magnesium und anderen essentiellen Elementen nachzuahmen und zu stören.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4311-4_2 a89c3afc05d785b08fc04309d55e5bf0;de;;;4.2.;;;Kollaborative virtuelle Umgebungen für den reflektierenden Gemeinschaftsaufbau bei der Arbeit: Der Fall von TARGET In diesem Artikel stellen wir erste Ergebnisse der Gestaltung einer Community vor, die im TARGET-Framework skizziert werden. Das Hauptziel des TARGET-Projekts ist die Erforschung, Analyse und Entwicklung eines neuen Genres einer technologiegestützten Lernumgebung – einer am Arbeitsplatz integrierten reflexiven Lerngemeinschaft, die einen schnellen Zugang zur Kompetenzentwicklung von Einzelpersonen, nämlich Wissensarbeitern in den Bereichen ., unterstützt Projektmanagement und nachhaltiger Produktion. Die offene Frage war: Inwieweit können 3D Collaborative Virtual Environments (CVEs) dies erleichtern?;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-1740-8_8 d8f854302158ffa95d4fbf8c5ff49b51;de;;;5.2.;;;Modellierung zur Vorhersage der biologischen Abbaubarkeit In den USA wird die Sicherheit bestimmter chemischer Stoffe hauptsächlich nach drei Gesetzen bewertet. Stoffe, die als Lebensmittelzusatzstoffe, Arzneimittel und Kosmetika verwendet werden, werden von der Food and Drug Administration (FDA) unter dem Federal Food, Drug and Cosmetic Act (FFDCA) reguliert. Chemische Substanzen, die zur Verwendung als Pestizide vorgeschlagen werden, werden von der US-Umweltschutzbehörde USEPA gemäß dem Federal Insecticide, Fungicide and Rodenticide Act (FIFRA) reguliert, der eine Vielzahl von Datenanforderungen für jeden Einreicher auferlegt, der den Stoff als Wirkstoff registrieren möchte . Industriechemikalien unterliegen dem Toxic Substances Control Act (TSCA, Public Law 94–469), der 1976 vom Kongress als Reaktion auf die wahrgenommene Notwendigkeit erlassen wurde, die Exposition gegenüber „Umweltchemikalien“ wie polychlorierten Biphenylen (PCBs) zu begrenzen. Wie im Gesetz festgelegt, besteht sein Hauptzweck darin, „sicherzustellen, dass … Innovation und Handel mit … chemischen Stoffen und Gemischen kein unangemessenes Risiko für Gesundheits- oder Umweltschäden darstellen“ (TSCA, Abschnitt 2(b)). Die TSCA-Anforderungen sind für Altstoffe und noch nicht in Produktion befindliche Stoffe („neue“ Chemikalien) unterschiedlich. Eine der ersten Aufgaben des neu geschaffenen Amtes für Giftstoffe (jetzt Amt für Umweltverschmutzung und Gifte, OPPT) bestand darin, eine Liste der bereits im Handel befindlichen chemischen Stoffe zusammenzustellen und zu veröffentlichen. Dies wurde im Juli 1979 als TSCA Chemical Substance Inventory durchgeführt, das ungefähr 50.000 Substanzen auflistete, die damals in Produktion waren oder in die USA importiert wurden. Seitdem ist das Inventar durch die Aufnahme neuer Chemikalien auf über 70.000 Stoffe angewachsen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5395-3_22 29dc1456664acf10ee5cdbdadb715524;de;;;4.2.;;;Die Verlockung der Massenmedien und ihre Auswirkungen auf die Wissenschaft Der in diesem Beitrag verstandene Begriff der Medialisierung der Wissenschaft beruht auf der in der Differenzierungstheorie entwickelten Unterscheidung zwischen unterschiedlichen Funktionssystemen in der Gesellschaft. Zwar wird diskutiert, ob die Medien eine solche Systemwissenschaft zweifellos sind. Entscheidendes Kriterium ist die Abgrenzung unterschiedlicher „Öffentlichkeiten“, die durch Kommunikation angesprochen werden. Im Fall der Wissenschaft ist die „Öffentlichkeit“ die der jeweiligen disziplinären oder subdisziplinären Praktiker. Die Ausweitung dieses Publikums auf die Massenmedien wirft Fragen auf wie etwa die Auswahl der Forschungsfragen, die Qualitätskontrolle von Forschungsergebnissen, die Kriterien der Relevanz und Verlässlichkeit, also die Selbstreferenzialität der Wissenschaft im Allgemeinen. Andererseits gibt es gute Gründe, die Abgrenzung der maßgeblichen Verkehrskreise als „unscharf“ zu betrachten, was dazu zwingt, unterschiedliche Formen und Grade der Medialisierung als Realität anzusehen, die das Streben nach zertifiziertem Wissen nicht unbedingt gefährden. Das Kapitel bietet eine theoretische Diskussion der Medialisierung aus wissenschaftssoziologischer Sicht, die als Rahmen für empirische Studien dienen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-2085-5_2 6fc91d03334c0b39fe0dc51768620529;de;;;5.2.;;;Demonstrative ohne Starrheit oder Mehrdeutigkeit (vorletzter Entwurf) Die meisten Philosophen erkennen an, dass die Anwendung der Standardsemantik für komplexe Demonstrative auf nicht-deiktische Instanzen bestenfalls zu anormalen Wahrheitsbedingungen führt. Diese Tatsache hat jedoch wenig Anlass zur Sorge gegeben, da die meisten Philosophen nicht-deiktische Demonstrative als Randfälle behandeln und glauben, dass sie mit einem eigenen semantischen Mechanismus analysiert werden sollten. In diesem Beitrag argumentiere ich, dass nicht-deiktische Demonstrative nicht abgeschrieben werden können, sie in Englisch und Fremdsprachen weit verbreitet sind und mit der gleichen semantischen Maschinerie behandelt werden müssen, die auf deiktische Instanzen angewendet wird.;-;-;-;https://link.springer.com/article/10.1007/s10988-014-9159-3 bb1c25ee019bead4cf25adda92f477e1;de;;;5.2.;;;Die politische Ökonomie der Umverteilungspolitik und die Bereitstellung öffentlicher Güter in der Landwirtschaft In der Literatur zur öffentlichen Wahl wurde viel Aufmerksamkeit darauf gerichtet, zu verstehen, wie sich die Interessen verschiedener Wähler und Wählergruppen im Prozess der politischen Entscheidungsfindung widerspiegeln. Wenn sich die Interessen und Ressourcen der verschiedenen Mitgliedsgruppen unterscheiden, entstehen häufig Strategien, deren Ziele umverteilend sind. Umverteilungspolitiken entstehen in einigen Fällen als Ergebnis des Wettbewerbs und der Mietpreise zwischen den verschiedenen Interessengruppen (PESTs). In anderen Fällen werden umverteilungspolitische Initiativen als Reaktion auf altruistische oder ideologische Motivationen generiert. Magee et al. (1989) haben in jüngster Zeit die Prozesse, die die Existenz solcher Politiken bestimmen, als Prozesse charakterisiert, deren innere Logik Gesellschaften in ein politisches Gleichgewicht führt. Dabei kann man sich eine solche Politik als Schaffung eines Zustands der;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-79284-7_4 485343e7ec5d3cf8e32f7a68af3e15fe;de;;;5.2.;;;Quellen und Methoden der Auslegung des muslimischen Völkerrechts Etymologisch bedeutet das Wort „Quelle“ eine Quelle oder ein Brunnen. Technisch wird das Wort in einem metaphorischen Sinne verwendet. Im juristischen Jargon nahm das Wort eine Mehrdeutigkeit an, die unter Juristen zu großen Divergenzen hinsichtlich Art und Zahl der Rechtsquellen führte.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-9508-9_5 4a58477c4e8ddca9c5d1914479504e3f;de;;;5.2.;;;Ein Demonstrationsprojekt in arbeitsmedizinischen Diensten: Der Dienst zur Arbeitsplatzverbesserung In einer Zeit, in der das US-Produktions-Know-how hinter dem einiger anderer Industriegesellschaften zurückgeblieben ist, berichtet dieses Papier über ermutigende Ergebnisse der Arbeitsplatzanpassungsberatung für Arbeitnehmer am Arbeitsplatz und der Beratung von Management- und Gewerkschaftsvertretern.;-;-;-;https://link.springer.com/article/10.1007/BF01562101 a92e1faf2340376cf08a1e46c2a8e924;de;;;5.2.;;;Strategien zur Evakuierung aus einem betroffenen Gebiet mit einer oder zwei Gruppen Dieses Papier befasst sich mit dem Problem, mit dem eine Gruppe von Evakuierten konfrontiert ist, die so schnell wie möglich ein betroffenes Gebiet verlassen müssen. Wir suchen die Strategien, die ein begrenztes Verhältnis der Evakuierungsweglänge ohne jegliche Grenzinformationen zu denen mit erreichen. Wir beschränken den betroffenen Bereich auf einen konvexen Bereich in der Ebene und untersuchen das Problem in zwei Szenarien: allgemeine Ebene und Ebene im Gitternetz. In diesen beiden Szenarien stellen wir zunächst mit einer oder zwei Gruppen effiziente Strategien vor und analysieren deren Wettbewerbsverhältnisse. Im Allgemeinen geben wir eine Wettbewerbsstrategie von 30,47 für die Evakuierung einer Gruppe und eine Wettbewerbsstrategie von 15,58 für die Evakuierung von zwei Gruppen an. Im Netznetz geben wir eine 33-kompetitive Strategie für die Evakuierung einer Gruppe und eine 19-kompetitive Strategie für die Evakuierung von zwei Gruppen an.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11197-1_29 fba2f23fa64701cdd77be201b08b5375;de;;;4.2.;;;Zivilisten im Krieg Bauern und Geschäftsleute waren nicht die einzigen Zivilisten, die die Auswirkungen des Krieges im täglichen Leben miterlebten. Die Länge und das Ausmaß des Konflikts bedeuteten, dass die französische Nation in ihrer Gesamtheit betroffen war. Nach der Analyse der Folgen des Krieges für die Wirtschaft und für alle Wirtschaftsbeteiligten bleibt es übrig, einen umfassenderen und detaillierteren Überblick über die Auswirkungen der revolutionären und napoleonischen Kriege auf die französische Gesellschaft zu geben, indem man die Auswirkungen des Krieges beobachtet im Alltag der Zivilisten. Dies bildet das Thema unseres letzten Kapitels.;-;-;-;https://link.springer.com/chapter/10.1057/9780230294981_8 0c63a75df4b432b156b2ea7cde94c093;de;;;4.2.;;;Reprogenetik regulieren: Strategische Sakralisierung und Semantische Massage Dieser Beitrag ist Teil der feministischen Kritik an den regulatorischen Konsequenzen des systematischen Ausschlusses der Rolle des weiblichen Körpers in der Entwicklung reprogenetischer Technologien durch die Biomedizin. Ich schlage vor, dass der strategische Einsatz von Begriffen des Heiligen zur Dekontextualisierung und Abgrenzung von Meinungsverschiedenheiten diese Marginalisierung fördert. Konzepte des Sakralen und der Sakralisierung bieten hier ein Mittel, um einen pragmatischen Konsens über die Regulierung zu erreichen, indem eine Bricolage aus dichten Bildern, die mit kulturellen Loyalitäten verbunden sind, die Unterstützung festigt oder widersprüchliche Elemente ausschließt. Daher ist eine explizite Neuverhandlung der symbolischen Ordnung, die herausragende Debatten strukturiert, notwendig, um den festgefahrenen und ausschließenden dominanten Diskurs über reprogenetische Regulierung zu stören und zu bereichern. Zur Veranschaulichung dieser Behauptungen stütze ich mich auf frühere Analysen strategischer Rhetorik im Zusammenhang mit der Regulierung der Unfruchtbarkeitsbehandlung und der Embryonenforschung im Vereinigten Königreich, der Kulturanthropologie der Biomedizin und feministischer Ethnographien der Reprogenetik.;-;-;-;https://link.springer.com/article/10.1007/s10728-007-0058-4 6f5325853c815eacbc755371971814ac;de;;;5.2.;;;MGMT-Tests ermöglichen eine personalisierte Therapie in der Temozolomid-Ära Die adjuvante Temozolomid (TMZ)-basierte Radiochemotherapie ist der Behandlungsstandard für die meisten Glioblastom-Patienten (GBM), jedoch spricht ein großer Teil dieser Patienten nicht auf TMZ an. Verstummen des O;-;-;-;https://link.springer.com/article/10.1007/s13277-015-4240-2 2da8460112b27b551d2af7b0969a953a;de;;;5.2.;;;Überleben als qualitativer Soziologe: Erinnerungen aus dem Tagebuch eines Staatsarbeiters In diesem Beitrag beschreibe ich meine Erfahrungen als qualitativer Soziologe im Forschungspersonal einer Regierungsbehörde. Anhand konkreter Beispiele aus meiner Erfahrung werden Überlebensstrategien als qualitativer Soziologe in einem quantitativ orientierten Setting vorgestellt. Es wird vorgeschlagen, dass: 1) qualitative Methoden als glaubwürdiger und wertvoller Forschungsansatz gefördert werden und sich der einzelne Forscher als kompetent in der Anwendung solcher Methoden „verkaufen“ muss, 2) soziale Unterstützungsnetzwerke mit ähnlich geneigten Partnern - Arbeiter und Soziologen außerhalb des Arbeitsplatzes müssen entwickelt und gepflegt und eingesetzt werden, um den Status qualitativer Methoden und qualitativer Soziologen zu verbessern, und 3) wie für alle Forscher, die in einem politischen oder angewandten Umfeld tätig sind, ist es notwendig, die retikularität der Sozialforschung und zu zeigen, wie qualitative Methoden Informationen generieren, die für politische oder andere angewandte Zwecke nützlich sind. Durch die Anwendung dieses Ansatzes an meinem eigenen Arbeitsplatz sind qualitative Forschungsmethoden zu einem akzeptablen und sogar wünschenswerten Bestandteil vieler Forschungsprojekte der Agentur geworden und ich konnte meine Identität als qualitativer Soziologe weiter praktizieren und bewahren.;-;-;-;https://link.springer.com/article/10.1007/BF00989684 0054f71955578790ed9bbf659bc21664;de;;;4.2.;;;Vertrauen in Medien und Journalismus In ganz Europa und weltweit reflektieren Kommunikationswissenschaftler das Thema Vertrauen in Journalismus und Medien. Ein umfangreiches Analyse- und Forschungswerk bietet neue Perspektiven auf die Gründe, Auswirkungen und Folgen von Vertrauen oder Misstrauen in Medien und Journalismus. Der vorliegende Sammelband soll einen Überblick über die empirische Vertrauensforschung in Medien und Journalismus, neue Perspektiven, methodische Ansätze und aktuelle Erkenntnisse geben, die unter Kommunikationswissenschaftlern auf europäischen und internationalen wissenschaftlichen Konferenzen diskutiert werden. Der Sammelband präsentiert Studien und Erkenntnisse zu Ethik und Normen, zu Vertrauenseinflüssen und Auswirkungen des Populismus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-20765-6_1 a09ce3085c2746263ad99ef7fbafa162;de;;;4.2.;;;Krise der Einheit des Volkes und die Entstehung von „Volksmacht“ Gegen Mitte des Jahres 1972 ging die politische Strategie von Popular Unity in den nicht angemeldeten Bankrott. Angesichts der gemeinsamen Entschlossenheit von nationalem Kapital und Imperialismus, als Vorwand für den Sturz Allendes ein wirtschaftliches Chaos zu schaffen, war es der Regierung nicht mehr möglich, Hoffnungen zu hegen, die Mittelschichten „abzukaufen“. Die Koalition selbst war gespalten. Eine Sektion wollte das chilenische „Experiment“ stoppen und die Errungenschaften konsolidieren, in der Hoffnung, durch eine Einigung mit den Christdemokraten und der nationalen Bourgeoisie den sozialen Frieden zu erhalten. Eine zweite Sektion wollte den Sozialismus vorantreiben, in der Hoffnung, die unvermeidliche Konfrontation zu gewinnen. „Konsolidieren“ oder „Vorankommen ohne Kompromisse“: Das waren die als Alternative vorgebrachten Schlagworte. Präsident Allende unterstützte klar den ersten Slogan. In den kommenden anderthalb Jahren würde er alles in seiner Macht Stehende tun, um einen Bürgerkrieg zu verhindern, aber wenig, um die Arbeiterklasse darauf vorzubereiten. „Konsolidierung“ war auch der Slogan der Kommunistischen Partei, der größten politischen Einzelorganisation der Volkseinheit. Gleichzeitig unterstützte eine Mehrheit in Allendes eigener Sozialistischer Partei eindeutig die zweite, revolutionäre Alternative.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-15715-0_7 38385bec9c3eb2acb163a99a60b78558;de;;;4.2.;;;Eine vergleichende Untersuchung der Lektinbindung an kultivierte Hühner-Sternum-Chondrozyten und intaktes Hühner-Sternum Kultivierte Chondrozyten, die aus den kaudalen und cephalen Enden von embryonalen Hühnersternen stammen, wurden miteinander und mit dem gesamten Brustbein verglichen, indem ein Panel von 21 Lektinen verwendet wurde, um die Verteilung von Oligosacchariden in Glykokonjugaten von Zellen und Matrix zu verschiedenen Zeiten der Kultur oder Entwicklung zu untersuchen . Bei Kultur in Kollagengelen veränderten die Zellen mit der Zeit ihre Morphologie, bauten Glykan im umgebenden Kulturmedium ab und lagerten neue Matrix ab, deren Glykangehalt den Ursprungsort der Zellen widerspiegelte, was darauf hindeutet, dass der Glykan-Phänotyp sowohl der Zellen als auch der Matrix ('Glykotyp') war vorherbestimmt und persistent. Das Sterna embryonaler Küken zeigte eine unerwartete Komplexität in ihrem Verteilungsmuster von Glykan, das mindestens sechs verschiedene Regionen enthielt. Große regionale zeitliche Unterschiede waren zwischen Sacchariden mit Endung in α-N-Acetylgalactosamin und β-Galactose offensichtlich, während Veränderungen in Glykanen mit Endung in Fucose, Sialinsäure und α-Mannose etwas weniger ausgeprägt waren. Teilmengen komplexer N-Glykane veränderten sich wenig.;-;-;-;https://link.springer.com/article/10.1023/A%3A1018526813159 84d8b90001f9f49d6b378ec6dad40a45;de;;;5.2.;;;Eine Heuristik mit mehreren Regeln für den Fließbandausgleich In diesem Papier wird eine heuristische Methode mit vier Regeln für den Produktions-/Fertigungslinienausgleich vorgestellt, die darauf abzielt, die Anzahl der Arbeitsstationen für eine gegebene Zykluszeit zu minimieren. Um seine Leistungsfähigkeit zu bewerten, wurde die vorgeschlagene Methode mit 15 anderen heuristischen Methoden verglichen, deren Komplexität von zufälliger Zuweisung von Arbeitselementen bis hin zu Hoffmanns Aufzählungsverfahren reichte. Die Ergebnisse, die sowohl auf zufällig generierten Problemen als auch auf Problemen aus der Literatur basieren, zeigen, dass die vorgeschlagene Heuristik andere Verfahren übertraf. Darüber hinaus konnte die vorgeschlagene Methode die optimale Lösung für 57 (85%) der 67 Literaturprobleme finden.;-;-;-;https://link.springer.com/article/10.1057/jors.1995.7 b19d8b979dceb371de28cfc9c2218ea6;de;;;4.2.;;;Das Verständnis der Bürger zur Smart City-Entwicklung: Der Fall von St. Petersburg, Russland Das Papier bewertet ein Modell für eine Smart City-Entwicklung basierend auf den Ergebnissen der Bürgerbefragung. Eine Umfrage unter 600 St. Petersburger Bürgern wurde durchgeführt, um das Verständnis der Bürger in drei Bereichen zu ermitteln: (1) konzeptionelles Verständnis von Smart Cities, (2) vorrangige Bereiche für die Entwicklung von Smart City, (3) Einstellungen der Bürger, positive und negative Erwartungen und Risiken. Korrelationsmatrizen wurden auf der Grundlage der Risikowahrnehmung der Bürger erstellt und in technologische, Management- und soziale Kategorien unterteilt. Von den zehn ausgewählten Indikatoren gehören sechs zur sozialen Gruppe, einer zur technologischen Gruppe und drei zur Managementgruppe. Die Ergebnisse deuten darauf hin, dass (1) soziale Aspekte bei Smart-City-Initiativen besonders wichtig sind, (2) das konzeptionelle Verständnis von Smart City noch gering ist, (3) das Bewusstsein für Prioritäten und Risiken im Zusammenhang mit Entwicklungen auf kommunaler Ebene ausgeprägter ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-39296-3_4 7ebf06a8a60c440050a1a4fefde79134;de;;;4.2.;;;Verantwortungsvolle Energiesysteme mitgestalten Energiesystemprojekte in Ländern wie Indien scheitern oft. Nicht nur aufgrund technischer oder wirtschaftlicher Barrieren, sondern vor allem institutioneller und sozialer Fragen liegen diesem Scheitern zugrunde. Ein gemeinsamer oder partizipativer Prozess ist erforderlich, um alle Anforderungen und Anforderungen der verschiedenen Stakeholder in Einklang zu bringen. In diesem Beitrag werden Erkenntnisse aus der Literatur zu Co-Creation und Energiesystemen sowie aus der Fallstudienforschung in Indien herangezogen, um einen Ansatz für einen solchen Co-Creation-Prozess als Anwendungsfall für die Anwendung des Rahmens für verantwortungsvolle Innovationssysteme zu definieren. Eine Diskussion über Co-Creation als Lösung führt zu einer Reihe von Empfehlungen, wonach eine Reihe von Merkmalen geschlossen wird, die der Co-Creation-Prozess von Energiesystemen in Bezug auf einen verantwortungsvollen Ansatz aufweisen sollte, damit robustere und nachhaltigere Innovationen entstehen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9119-5_28 f11e3ca281b82169d9a883fd7d64c3a0;de;;;5.2.;;;Newton-basierte Exact-Penalty-Techniken für die nichtlineare Optimierung mit Nebenbedingungen Numerische Experimente mit exakten Penalty-Techniken basierend auf einer erweiterten Lagrange-Funktion zur Minimierung von Problemen mit nichtlinearer Gleichheitsbeschränkung werden beschrieben. Das uneingeschränkte Minimum in Bezug auf;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-79459-9_8 dc75f28426e21d611ea9d50b2a9c4887;de;;;5.2.;;;Zur relativen Härte von Clustering-Korporen Clustering wird oft als das wichtigste Problem des unüberwachten Lernens angesehen, und im Laufe der Jahre wurden mehrere Clustering-Algorithmen vorgeschlagen. Viele dieser Algorithmen wurden auf klassischen Clustering-Korpora wie Reuters und 20 Newsgroups getestet, um ihre Qualität zu bestimmen. Die relative Härte dieser Korpora wurde jedoch bisher nicht bestimmt. Die relative Clustering-Härte eines bestimmten Korpus kann von großem Interesse sein, da sie helfen würde zu bestimmen, ob die üblichen Korpora, die zum Benchmarking der Clustering-Algorithmen verwendet werden, hart genug sind. Wenn es außerdem möglich ist, einen Satz von Merkmalen zu finden, die an der Härte der Clustering-Aufgabe selbst beteiligt sind, können anstelle allgemeiner spezifische Clustering-Techniken verwendet werden, um die Qualität der erhaltenen Cluster zu verbessern. In diesem Beitrag präsentieren wir eine Studie über das spezifische Merkmal der Wortschatzüberlappung zwischen Dokumenten eines bestimmten Korpus. Unsere Vorversuche wurden an drei verschiedenen Korpora durchgeführt: der Zug- und Testversion der R8-Untermenge der Reuters-Sammlung und einer reduzierten Version der 20 Newsgroups (Mini20Newsgroups). Wir haben herausgefunden, dass eine mögliche Beziehung zwischen der Wortschatzüberlappung und dem F-Maß eingeführt werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74628-7_22 dc8a8fb6ee8d077d042c2f9c48c758c4;de;;;5.2.;;;Brechen der generischen Konstruktionen von zertifikatslosen und zertifikatsbasierten Verschlüsselungsverfahren von Yum und Lee Identitätsbasierte Public-Key-Kryptographie zielt darauf ab, die Verwaltung von Zertifikaten in traditionellen Public-Key-Infrastrukturen zu vereinfachen, indem die Identität eines Benutzers als öffentlicher Schlüssel verwendet wird. Der Benutzer muss sich bei einer vertrauenswürdigen Autorität identifizieren, um den seiner Identität entsprechenden geheimen Schlüssel zu erhalten. Der Hauptnachteil dieser speziellen Form der Kryptographie mit öffentlichem Schlüssel besteht darin, dass es sich um eine Hinterlegung von Schlüsseln handelt. Zertifikatbasierte und zertifikatslose Kryptografie wurden kürzlich als Zwischenparadigmen zwischen traditioneller und identitätsbasierter Kryptografie vorgeschlagen, um die Verwaltung von Zertifikaten zu vereinfachen und gleichzeitig die Schlüsselhinterlegungseigenschaft der identitätsbasierten Kryptografie zu vermeiden. In dieser Arbeit kryptanalysieren wir die von Yum und Lee auf den Konferenzen EuroPKI 2004 und ICCSA 2004 vorgestellten zertifikatsbasierten und zertifikatslosen Verschlüsselungsverfahren.;-;-;-;https://link.springer.com/chapter/10.1007/11774716_7 9dac1d6b372e0462e885aa7dc2edabef;de;;;5.2.;;;Unterteilung von Polygonparzellen bei der Verallgemeinerung von Landnutzungsdaten Bei der Generalisierung von Landnutzungsdaten ist die Entfernung unbedeutender Parzellen mit geringer Größe der am häufigsten verwendete Operator. Traditionell wird bei der Generalisierungsmethode das kleine Flurstück vollständig einem seiner Nachbarn zugewiesen. Diese Studie versucht, die Verallgemeinerung zu verbessern, indem das unbedeutende Paket in Teile um das gewichtete Skelett herum zerlegt und diese Teile verschiedenen Nachbarn zugeordnet wird. Die Verteilung des gewichteten Skeletts hängt von der Kompatibilität zwischen dem entfernten Objekt und seinem Nachbarn ab, die nicht nur die topologische Beziehung, sondern auch die Distanzbeziehung und die semantische Ähnlichkeit berücksichtigt. Dieser Prozess basiert auf dem Delaunay-Triangulationsmodell. Dieses Papier enthält die detaillierten geometrischen Algorithmen für diese Operation.;-;-;-;https://link.springer.com/article/10.1007/BF02826894 dd47592b1d5a2a0959e04b6db9295ff1;de;;;4.2.;;;Das rationale Denken des kommerziellen Betriebs bei Chinas großen Sportereignissen In den letzten Jahren hat Chinas Sportindustrie eine rasante Entwicklung der sportlichen Aktivitäten aller Sektoren der Gesellschaft beigemessen, um die breite Masse aktiv zu beteiligen, und Begeisterung, die auch ein soziales Leben hatte, ist sehr wichtig. Da einige Sportarten, die von den Massen begrüßt werden, das Live-Publikum und die Fernsehzuschauer der Spiele offensichtlich eine große Zahl sind, werden so viele Unternehmen, die darum konkurrieren, das Objekt des Spiels zu werden, in den Mittelpunkt groß angelegter Investitionsziele gerückt, ihr kommerzieller Wert ist sehr wichtig . Daher die volle Nutzung und Entwicklung von großen Sportereignissen den Wert des kommerziellen Betriebs, um die Strategie zur Maximierung des kommerziellen Wertes zu finden, müssen wir uns auf das Problem konzentrieren. Dieses Papier beschreibt den Betrieb von Sportgroßveranstaltungen geschäftlichen Notwendigkeit, die Analyse des aktuellen kommerziellen Betriebs von Sportgroßveranstaltungen in den Problemen, und vorgeschlagen, große Sportveranstaltungen rationellen kommerziellen Betrieb der wichtigsten Reaktion durchzuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29087-9_66 8c67e9bdf6198050fb48e16e09444a99;de;;;4.2.;;;Entwicklung eines kritischen kulturellen Vertrauens durch mediengestütztes problembasiertes Lernen im chinesischen Kulturunterricht Angesichts des modernen Zeitalters neuer Informationen und Technologien sind neue Kompetenzen und Qualitäten zur Bewältigung realer Probleme für Innovationen notwendig. Diese Studie schlägt das Konzept des kritischen kulturellen Vertrauens basierend auf dem Konzept der kritischen Denkschwelle vor. Es unterliegt einer allmählichen Verbesserung in Richtung des Zustands der Bestätigung der Selbstkultur in Bezug auf die weitere Welt. 34 chinesische Bachelor-Studenten mit dem Hauptfach Englisch und dem Kurs der chinesischen Kultur nutzten das medienunterstützte problembasierte Lernen (PBL) mit Zugang zu verschiedenen Medien in drei Lernzyklen zur realen Problemlösung. In diesem medienunterstützten PBL-Klassenzimmer diente die Medienkompetenz als Kernstück, unterstützt durch den angemessenen Einsatz von Technologie zum Lernen. Durch die Verwendung von Fragebögen und Interviews zusammen mit den Ergebnissen der akademischen Leistung der Schüler wurde festgestellt, dass eine angemessene Curriculumsgestaltung und eine kontinuierliche dynamische Zusammenarbeit in der pflegenden Umgebung zu ihrer erkenntnistheoretischen und ontologischen Entwicklung von kritischem kulturellem Vertrauen beigetragen haben. Anschließend werden Implikationen für die Implementierung von mediengestützter PBL unter den inhärenten chinesischen kulturellen Merkmalen bereitgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9895-7_27 71da5ccd8bdbe0256ba5a131ed79ac13;de;;;4.2.;;;Einführung und Evaluierung eines Wissenstransferansatzes zur Unterstützung von Problemlösungen in und um Schutzgebiete Schutzgebiete (PAs) können innerhalb und außerhalb ihrer Grenzen viele Vorteile bringen, und das Erreichen von Zielen für verschiedene Interessengruppen wirft viele Herausforderungen auf. Es gibt viele Beispiele für erfolgreiches PA-Management auf der ganzen Welt, obwohl ein systematischer und umfassender Ansatz zur Entwicklung und Verbreitung dieser Lösungen fehlt. Wir präsentieren „Solutioning“ als strukturierten Prozess des Peer-Learning, der Managementstrategien in und um Schutzgebiete beeinflussen kann. Wir erklären, wie die Initiative PANORAMA – Lösungen für einen gesunden Planeten Lösungen durch eine interaktive Community und ein Webportal in die Praxis umgesetzt hat, um mehr über Schutzgebietslösungen auf der ganzen Welt zu erfahren. Im Gegensatz zu anderen überprüften Webplattformen und Initiativen erleichtert PANORAMA die Anpassung von Lösungselementen (d. h. Bausteinen) für eine neuartige Implementierung. Unterstützt durch Resilienz- und Peer-Learning-Theorien scheint PANORAMA das Potenzial zu haben, Effizienz und gerechten Nutzen für PAs und damit verbundene Interessengruppen mit Fokus auf Naturschutz und nachhaltige Entwicklung zu fördern, obwohl weitere Forschung erforderlich ist, um zu beurteilen, ob dieses Lernen zu besseren Lösungen oder mehr führt leads effektives PA-Management.;-;-;-;https://link.springer.com/article/10.1007/s13280-018-1048-5 cabda2704b59bc284228b7567679532f;de;;;4.2.;;;Zwei Hauptstädte an der Peripherie: Lissabon und Dublin 1981 Dieses Kapitel bietet einen Vergleich zweier Hauptstädte an der europäischen Peripherie. Der Vergleich ist rein deskriptiv, dh der Text beschränkt sich auf die Darstellung quantitativer Angaben zur Arbeitsallokation ohne jeglichen Erklärungsaufwand.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-5382-9_6 691cdfb2b290de958ff7415c76690df3;de;;;4.2.;;;Erkundung des lokalen Wissens und der Wahrnehmung der Fischer angesichts des Klimawandels: der Fall der Küste von Tamil Nadu, Indien Das lokale Wissen der Fischer und ihre Wahrnehmung des Klimawandels werden von Forschern und internationalen Institutionen zunehmend anerkannt. In Indien gibt es jedoch nur begrenzte regionale Studien, um das lokale Wissen der Fischer zu verstehen, und eine entscheidende Frage, die weitgehend unbeantwortet blieb, war, wie Fischer die Relevanz ihrer lokalen Wissenssysteme angesichts des Klimawandels wahrnehmen. Vor diesem Hintergrund zielt dieses Papier darauf ab, das lokale Wissen der Fischer und ihre Klimawahrnehmung angesichts des Klimawandels zu untersuchen. In diesem Papier wurden die Daten verwendet, die durch eingehende Interviews und Fokusgruppendiskussionen mit den Kleinfischern von drei stark gefährdeten Fischerdörfern des Distrikts Nagapattinam, Tamil Nadu, gewonnen wurden. Die Meeresfischer an dieser Küste waren in den letzten vier Jahrzehnten Opfer der Tsunami-Katastrophe im Indischen Ozean 2004, mehrerer großer Wirbelstürme und verschiedener Wetter- und Klimaereignisse. Die wichtigsten Ergebnisse zeigen, dass (1) Fischer in den letzten drei bis vier Jahrzehnten, insbesondere nach der Tsunami-Katastrophe im Indischen Ozean 2004, mehrere Abweichungen und Anomalien in den Wetter- und Klimamustern wahrnehmen. (2) Der nächste Befund steht im Widerspruch zu den herkömmlichen Auffassungen, wonach die Fischer zunehmend das Gefühl und die Erfahrung haben, dass ihr lokales Wissen angesichts des Klimawandels nicht mehr ausreichend relevant ist. Um die Anpassungsfähigkeit von Fischern zu fördern, hat dieses Papier daher vorgeschlagen, dass die Wahrnehmungen und Erwartungen der Fischer angemessen anerkannt werden sollten und es dringend erforderlich ist, den Fischern wissenschaftliche Unterstützung durch geeignete Kanäle zur Verfügung zu stellen, um auf die Auswirkungen des Klimawandels zu reagieren.;-;-;-;https://link.springer.com/article/10.1007/s10668-019-00354-z 03b822b2278347854a6070d3e33c7c95;de;;;5.2.;;;Eine abfragefreundliche Komprimierung für GML-Dokumente Geography Markup Language (GML) hat sich zu einem Standardcodierungsformat für den Austausch von geografischen Daten zwischen heterogenen Anwendungen des geografischen Informationssystems (GIS) entwickelt. Dagegen verursachen die Iteration der Dokumentstruktur und der textuelle Ausdruck geographischer Daten oft die enorme Größe von GML-Dokumenten. In diesem Artikel wird ein abfragefreundliches GML-Komprimierungsverfahren vorgeschlagen, bei dem die GML-Dokumente beim SAX-Dokument-Parsing in eine kompakte Darstellung umgewandelt werden, die ein Ereignisverzeichnis, die Ereignishierarchie in symmetrischen Klammern, einen binären Ereignis-Wavelet-Baum und die Dokumentinhaltsblöcke umfasst vor der Komprimierung mit einem allgemeinen Komprimierungsprogramm. Das vorgeschlagene Komprimierungsverfahren unterstützt direkte Pfadabfragen und räumliche Abfragen über die komprimierten Dateien, ohne dass eine vollständige Dekompression erforderlich ist. Das Komprimierungsmodell, der Abfrageauflösungsprozess und der Komprimierungsalgorithmus werden in diesem Papier detailliert beschrieben, obwohl die Präsentation eine vorläufige Untersuchung ist und es bleiben, Experimente durchzuführen, um die vorgeschlagene Komprimierungsmethode an echten GML-Dokumenten zu validieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20244-5_8 46af5b3d51a082828a0f515e874b38b6;de;;;4.2.;;;Ein Instructional Assistant Agent für verteiltes kollaboratives Lernen Dieses Papier stellt einen Lehrassistenten für FLE2 vor – eine verteilte kollaborative Lernumgebung. Wir diskutieren die Rolle des Lehrassistenten und wie er sowohl den Dozenten als auch die Studierenden in einem verteilten kollaborativen Wissensaufbauprozess unterstützt. Wir betonen die ergänzende Rolle des Instructional Assistant Agent, der einerseits den verteilten kollaborativen Lernprozess beobachtet und Statistiken zur Ansicht berechnet, andererseits mögliche Probleme erkennt und diese dem Dozenten präsentiert, damit der Dozent ggf gewünscht, gibt den Studierenden Feedback, damit diese die Zusammenarbeit selbst regeln können.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-47987-2_62 aba7d2fe4b006c2c75bee52f72f5f7cd;de;;;5.2.;;;Die Wechselwirkung und Verschmelzung von Doppelschichten aus ungesättigten Lipiden Die Wechselwirkungen zwischen ungesättigten Phospholipid-Doppelschichten, die auf Glimmer abgeschieden wurden, wurden in wässriger Lösung unter Verwendung eines Oberflächenkraftgeräts gemessen. Die Doppelschichten bestanden aus L-α-Dioleoylphosphatidylcholin (DOPC), L-α-Dioleoylphosphatidylethanolamin (DOPE) und Mischungen der beiden und wurden auf Glimmer durch Langmuir-Blodgett-Abscheidung gebildet, nachdem die Lipide auf einem wässrigen Substrat von eine Chloroformlösung. Die Kräfte werden als elektrostatische Doppelschicht- und Van-der-Waals-Kräfte mit großer Reichweite und starker Abstoßung (Hydratations- oder sterische Kraft) in Abständen von mehreren nm interpretiert. Zusammen erzeugen sie einen Bereich schwacher Anziehung (ein sekundäres Minimum) bei 5 nm (DOPE) und 6 nm (DOPC). Die Verschmelzung zweier Doppelschichten zu einer wurde beobachtet, wenn die lokale Kraft pro Flächeneinheit 2–3 MPa betrug. Andere Forscher berichten, dass Phosphatidylethanolamin in Vesikeln die Fusion verstärkt. In dieser Studie, bei der abgeschiedene Doppelschichten verwendet wurden, förderte das Vorhandensein von DOPE in einer DOPC-Doppelschicht weder die Fusion noch fusionierten DOPE-Doppelschichten leichter als DOPC. Der Wert der Kraft pro Flächeneinheit, bei der die beiden Doppelschichten zu einer verschmelzen, wurde jedoch um mehrere Größenordnungen verringert, wenn die Doppelschichten aus Lipiden gebildet wurden, die mehrere Tage oder länger in Chloroformlösung gehalten wurden. Die Chromatographie zeigte Spuren von Lipidabbauprodukten in solchen Chloroformlösungen.;-;-;-;https://link.springer.com/article/10.1007/BF00183536 d3bca52d72b90c4a61539d39fa13fa68;de;;;4.2.;;;Selbstreguliertes Lernen als Grundprinzip für eine erfolgreiche Strategie in der Vermittlung von Methoden der Bildungsforschung an Doktoranden der Philosophie Philosoph Eine Herausforderung für alle Disziplinen in der Graduiertenausbildung besteht darin, erfolgreiche Strategien zu finden, um die Studierenden aktiv in die Beherrschung authentischer Forschungspraktiken einzubeziehen. Ein entscheidender Faktor ist der Grad der Selbstregulation. Diese Studie untersuchte selbstregulierte Lernprinzipien, wie sie verwendet werden, um Doktoranden an einer Research Extensive Universität Forschungsmethoden zu vermitteln, und wie Doktoranden zu unabhängigen Forschern wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-1305-9_3 7ead9af1ae438c5f24137a8331fb7d42;de;;;4.2.;;;Validierung und Verifikation sozialer Prozesse in agentenbasierten computergestützten Organisationsmodellen Der Einsatz von Simulationsmodellen in der computergestützten Analyse von Organisationen wird zu einem prominenten Ansatz in der sozialwissenschaftlichen Forschung. Sich auf Simulationen zu verlassen, um Intuitionen über soziale Phänomene zu gewinnen, hat jedoch erhebliche Auswirkungen. Während Simulationen zu interessanten Phänomenen auf Makroebene führen und manchmal sogar empirische Daten nachahmen können, können die zugrunde liegenden Prozesse auf Mikro- und Makroebene alles andere als realistisch sein. Dieser Realismus kann jedoch wichtig sein, um Ergebnisse abzuleiten, die für bestehende Theorien sozialer Systeme und für die Politikgestaltung relevant sind. Daher ist es wichtig, nicht nur die Vorhersagefähigkeit, sondern auch die Erklärungsgenauigkeit von formalen Modellen im Hinblick auf den Grad der Realitätsnähe der eingebetteten Prozesse zu bewerten. Dieses Papier präsentiert eine prozesszentrische Perspektive für die Validierung und Verifikation (V&V) von agentenbasierten computergestützten Organisationsmodellen. Nach einem Überblick über die Rolle von V&V im Lebenszyklus einer Simulationsstudie werden aufkommende Probleme im agentenbasierten Organisationsmodell V&V skizziert. Der Begriff des Gesellschaftsvertrags, der die Erfassung von Prozessen auf Mikroebene zwischen Agenten erleichtert, wird eingeführt, um Überlegungen über die Integrität und Konsistenz von agentenbasierten Organisationsdesigns zu ermöglichen. Es wird gezeigt, dass soziale Verträge eine modulare kompositorische Überprüfung der Interaktionsdynamik zwischen Peer-Agenten ermöglichen. Es werden zwei Arten von Konsistenz eingeführt: horizontale und vertikale Konsistenz. Es wird argumentiert, dass eine solche lokale Konsistenzanalyse notwendig, aber nicht ausreichend ist, um entstehende Makroprozesse in Multi-Agenten-Organisationen zu validieren. Daher werden neue formale Validierungsmetriken eingeführt, um die operative Validität von auftretendem Verhalten auf Makroebene zu untermauern.;-;-;-;https://link.springer.com/article/10.1007/s10588-006-8873-y 2081b331ebe59a58ddcefa3397cfda86;de;;;4.2.;;;Probleme in Mehrparteiendialogen Dieser Artikel untersucht einige der Probleme bei der Darstellung, Verarbeitung und automatisierten Teilnahme von Agenten an Dialogen in natürlicher Sprache, wobei die Erweiterung vom Zweiparteiendialog auf den Mehrparteiendialog in Betracht gezogen wird. Zu diesen Themen gehören einige in Bezug auf die Rollen von Agenten im Dialog, interaktive Faktoren und Faktoren des Inhaltsmanagements.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24608-4_12 10c38ebf41d8c5d49544f119f336166f;de;;;4.2.;;;Zonale konstruierte Sprache und Bildungsunterstützung der e-Democracy – The Interslavic Experience Dieser Artikel bringt die Idee auf, die Qualität von Informationssystemen zu verbessern, um Demokratie und öffentliche Verwaltung in slawischen Ländern zwischen Westeuropa und Russland durch die Verwendung einer zonalen konstruierten Sprache zu unterstützen, die Englisch erfolgreich ersetzen und die Gesamtqualität der IKT für E- Aufgaben der Demokratie. Auch die Verbindung zur Bildung, von der alles ausgeht, wird betont. Dieser Artikel beschreibt die Ergebnisse der öffentlichen Forschung in Form von Umfragen und erste praktische Erfahrungen der Autoren. Die Idee, Computerübersetzungen zwischen den Landessprachen zu verbessern, wird ebenfalls erwähnt. Es wird davon ausgegangen, dass Sprache, Bildung und E-Demokratie einen sich entwickelnden Dreiklang bilden. Schließlich beschreibt dieser Artikel die zukünftige Entwicklung dieser Idee.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-71117-1_2 9d173a6d4dd13b228ec5fa2d362d7e1b;de;;;5.2.;;;Simulation des Kundenverhaltens als Methode zur Erklärung bestimmter Marktmerkmale Preisstreuung ist eine beobachtete Preisschwankung des gleichen (oder ähnlichen) Produkts zwischen verschiedenen Verkäufern. Dieses Papier bietet eine mögliche Erklärung der beobachteten Form der Dispersion, bewiesen durch Simulationen einer agentenbasierten Kunden-Verkäufer-Umgebung. Modellvorschläge sowohl für Verkäufer als auch für Kunden, basierend auf aktuellen Marketingkenntnissen, sind enthalten. Es stellt sich heraus, dass die beobachtete Form erreicht wird, wenn einige Schlüsselfaktoren, die das Kaufverhalten der Kunden beeinflussen, berücksichtigt werden, z. der soziale Kontext, die Kommunikation, ein eingeschränktes Gedächtnis eines Kunden und die Kosten für die Überwindung der Distanz zwischen den Agenten. Als Vorteil des vorgeschlagenen Modells ermöglicht es Spekulationen darüber, wie der zukünftige Handel aussehen könnte - in einer Internetwelt, in der Entfernungen keine Rolle spielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36815-8_10 841a72c70aba876227b04760346a7929;de;;;5.2.;;;Wiederholte redundante Ungleichungen in der Constraint-Logik-Programmierung Zukünftige redundante Ungleichungen in einem Beschränkungslogikprogramm sind solche, die garantiert nach höchstens einem nachfolgenden Prozeduraufruf subsumiert werden, normalerweise im Kontext einer rekursiven Prozedur. Es wurde festgestellt, dass solche Ungleichungen nur auf Konsistenz mit dem aktuellen Beschränkungssatz getestet werden müssen, was zu dramatischen Einsparungen bei der Ausführungsgeschwindigkeit und Platznutzung führt. Wir verallgemeinern den Begriff der zukünftigen Redundanz auf verschiedene Weise und erweitern so seine Anwendbarkeit. Somit zeigen wir, wie die Leistung einer breiteren Klasse von Programmen, die stark auf linearen Ungleichungen beruhen, dramatisch verbessert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0016851 bcf4035351c17c5fc4bdd621110078d1;de;;;4.2.;;;Gewissen Consilience ist ein Konzept, das 1998 von E. O. Wilson in seinem gleichnamigen Buch geprägt wurde. Wilson entlehnte den Begriff dem englischen Wissenschaftler William Whewell, für den es die erhöhte Sicherheit bedeutete, die ein Wissenschaftler empfindet, wenn eine Erklärung in einem Wissenschaftsgebiet von Entwicklungen in einem nicht verwandten Gebiet unterstützt wird, und erweiterte ihn stattdessen auf die Konvergenz zwischen verschiedenen Gebieten des Wissens. Sein Ziel war die Vereinigung der großen Bereiche des Lernens, genauer gesagt der zwei Kulturen, durch ein Netz von Erklärungen von Ursache und Wirkung. Er hoffte, dass konsequent ausgebildete Synthesizer helfen würden, dringende globale Probleme zu lösen. Wilsons Forderung nach Konsilienz legitimierte Interdisziplinarität und förderte mutige wissenschaftliche Kooperationen und den Austausch von Werkzeugen über alle Bereiche hinweg. Während Wilson sich auf die Wissenschaft beschränkte und Technologie ambivalent gegenüberstand, versuchte die Technologie auf ihre Weise, Wissen zu vereinen, wobei künstliche Intelligenz eine große Rolle spielte. Mit der Zunahme der Rechenleistung und der Verbreitung neuer Strategien, die durch evolutionäre Algorithmen und Netzwerkforschung ermöglicht werden, können innovative Problemlösungen in einer Domäne schnell Auswirkungen auf andere haben. Big Data und Maschinenanalyse bieten neue Chancen und Herausforderungen. Umstrittene Themen sind die Beziehung zwischen Erklärung und Verstehen, Fakten und Werten, die Natur und der Status moralischer Überzeugungen und die Bedeutung von Consilience in einer Welt der sich beschleunigenden Technologie mit Superintelligenz am Horizont.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-319-04033-2_3-1 948590535142d16883c105bb52330fb2;de;;;5.2.;;;Produkt Management Die auf dem Markt angebotenen Produkte oder Dienstleistungen sind das sichtbarste Zeichen eines Unternehmens. Aller Wahrscheinlichkeit nach vermitteln sie den Kunden mehr über ein Unternehmen als jede andere Form der Marketingaktivität. Sie sind heute nicht nur die Quelle aller Umsätze und Gewinne, sondern werden auch in Zukunft die wichtigsten Erfolgsfaktoren sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-23858-3_9 edc2c1ab6fbfcdb2357ce6000ffde78b;de;;;5.2.;;;Die serologische Analyse der Daten des neunten Histokompatibilitätsworkshops Die Analyse der serologischen Daten des Workshops stellt eine große Teamleistung dar, die eine Interaktion zwischen Biomathematikern (Baur, Deppe, Sierp, Sigmund) und Serologen (die übrigen Autoren) beinhaltet. Die endgültigen Daten in diesem Band sind das Ergebnis einer iterativen Arbeit der beiden Gruppen in vielen aufeinanderfolgenden Zyklen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-69770-8_12 8cf61d413d4e0d5f4a0cdab626c6ea80;de;;;4.2.;;;Stimmliche Hinweise bei der Emotionskodierung und -dekodierung Diese Forschung untersucht die Übereinstimmung zwischen theoretischen Vorhersagen zu stimmlichen Ausdrucksmustern in natürlich vorkommenden Emotionen (basierend auf der Komponentenprozesstheorie der Emotion, Scherer, 1986) und empirischen Daten zu den akustischen Eigenschaften von Schauspielerdarstellungen. Zwei männliche und zwei weibliche professionelle Radioschauspieler porträtierten Wut, Traurigkeit, Freude, Angst und Ekel anhand realistischer Szenarien emotionaler Ereignisse. Eine Reihe von Urteilsstudien wurde durchgeführt, um zu beurteilen, inwieweit die Richter die beabsichtigten Emotionsausdrücke erkennen können. Ekel wurde relativ schlecht erkannt, die durchschnittliche Erkennungsgenauigkeit für die anderen Emotionen erreichte studienübergreifend 62,8%. Eine Reihe von Darstellungen, die eine zufriedenstellende Erkennungsgenauigkeit erreichten, wurde einer digitalen akustischen Analyse unterzogen. Die Ergebnisse für die aus dem Sprachsignal extrahierten akustischen Parameter zeigen eine Reihe signifikanter Unterschiede zwischen Emotionen, die im Allgemeinen die theoretischen Vorhersagen bestätigen.;-;-;-;https://link.springer.com/article/10.1007/BF00995674 9a996f065c3e32731d7d1079d5f04080;de;;;4.2.;;;Einfluss der Eltern auf die Geschwisterbetreuung von Menschen mit schweren psychischen Erkrankungen Erwachsene Geschwister von Menschen mit schweren psychischen Erkrankungen werden zunehmend als Bezugspersonen für ihre Angehörigen herangezogen. Die vorliegende Studie untersuchte die Berichte von 111 Erwachsenen über ihre Beziehungen zu ihren betroffenen Geschwistern und zu ihren Eltern, um die Berichte gesunder Geschwister zu erklären über: (1) aktuelle Pflege, (2) hypothetische Pflegebereitschaft und (3) zukünftige Absicht, pflegen ihren Bruder oder ihre Schwester mit einer psychischen Erkrankung. Ergebnisse von hierarchischen multiplen Regressionsanalysen zeigen, dass wahrgenommenes Geschwisterbedürfnis, Geschwisterliebe, Gegenseitigkeit mit kranken Geschwistern, gefühlte Verpflichtung gegenüber den Eltern und elterliche Bitten um Hilfe bei der Pflege mit der aktuellen Geschwisterpflege assoziiert werden. Die Ergebnisse deuten auch darauf hin, dass die Überzeugungen der Erwachsenen über den Unterstützungsbedarf ihrer kranken Geschwister und deren Eltern mit den zukünftigen Betreuungsabsichten der Geschwister zusammenhängen. Die Implikationen dieser Ergebnisse für Forscher und Fachkräfte der psychischen Gesundheit werden diskutiert.;-;-;-;https://link.springer.com/article/10.1023/A%3A1013903813940 1a300c02fec79c9cff041114f3c21e4a;de;;;4.2.;;;Die Rolle pragmatischer Regeln beim Konjunktionsfehler Wir berichten hier über die Ergebnisse unserer Untersuchung zur Gültigkeit des „Konjunktionsfehlers“ (Tversky & Kahneman, 1983) unter Berücksichtigung der Rolle von Gesprächsregeln. Unser erstes Experiment zeigte, dass Probanden eine logisch korrekte Antwort als inakzeptabel empfanden, wenn sie einen Verstoß gegen die Konversationsregeln implizierte.;-;-;-;https://link.springer.com/article/10.1007/BF02512074 31f0d797fdb3c011966de38284232efa;de;;;5.2.;;;Automatisierte Synthese von Aktionsauswahlrichtlinien für unbemannte Fahrzeuge, die in widrigen Umgebungen eingesetzt werden Wir adressieren das Problem der automatischen Aktionsauswahl-Policy-Synthese für unbemannte Fahrzeuge, die in widrigen Umgebungen arbeiten. Wir stellen einen neuen evolutionären, berechnungsbasierten Ansatz vor, mit dem automatisch eine erste Version der Richtlinie generiert und dann schrittweise verfeinert wird, indem ihre Mängel erkannt und behoben werden. Die Synthesetechnik besteht aus der automatisierten Extraktion von Ausnahmezuständen des Fahrzeugs und Genetic Programming (GP) zur automatisierten Zusammensetzung und Optimierung korrigierender Befehlsfolgen in Form von lokal anzuwendenden Makroaktionen.;-;-;-;https://link.springer.com/article/10.1007/s10514-011-9268-6 b616c571b363bd10bd58813480547e82;de;;;5.2.;;;Lustiges Geschäft Marketingleute möchten, dass ihre Werbung in Erinnerung bleibt. Erinnere dich an die Marke und kaufe sie dann. Was also macht Anzeigen unvergesslich? Hilft oder behindert Humor den Prozess? Einfache Frage, aber leider wie oft komplizierte Antwort.;-;-;-;https://link.springer.com/chapter/10.1057/9780230227439_32 8d437a4230a1b22ced0d0b3f5c151623;de;;;5.2.;;;Drug Targeting in der Krebstherapie Die Fortschritte in der Chemotherapie bei Krebs in den letzten zwanzig Jahren haben wichtige Fortschritte bei der Behandlung von Hodenkeimzelltumoren, Chorionkarzinomen, Burkitt-Lymphom, Hodgkins-Krankheit und mehreren Krebsarten im Kindesalter gebracht.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-4862-7_25 a9f458e1a5389286ee0bc0c4946404a2;de;;;5.2.;;;Ein Braitenberg-Ansatz zur Navigation mobiler Roboter in unbekannten Umgebungen In diesem Beitrag wird ein neuer Ansatz für einen zweirädrigen mobilen Roboter entwickelt, um reibungslos in unbekannten Umgebungen zu navigieren. Dieser Ansatz nutzt die Ideen der Braitenberg-Strategie. Die Strategie ist reaktiv, wenn sie die sensorischen Informationen wahrnimmt und Online-Pfadnavigation verwendet. Darüber hinaus wurde ein Algorithmus namens Switching Command Strategy (SCS) entwickelt, bei dem das Navigationsverfahren einen einfachen, effizienten und effektiven Bewegungspfad bietet. Das SCS wird angewendet, damit der Roboter ein „Totzyklus“-Problem überspringt. Der Algorithmus ist so konstruiert, dass er zwei Hauptaufgaben erledigt. Die erste Aufgabe besteht darin, das Ziel sicher in einer stationären Umgebung zu erreichen, während die statischen Objekte vermieden werden, und die zweite Aufgabe besteht darin, in einer dynamischen und komplexen Umgebung mit einem mobilen Roboter zu navigieren und dabei sich bewegende Objekte zu vermeiden. Während der Experimente wurde eine einfache Hindernisvermeidung mit verschiedenen statischen und dynamischen Umgebungen ausgiebig getestet. Die Ergebnisse der Studie zeigten die Effizienz und verbesserte Leistung des Navigationsalgorithmus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35197-6_9 77a0f16120ce168c42405561ed95f247;de;;;5.2.;;;Kooperationspartner oder Gegner: Wie der Messenger den Gehörloseneffekt in IT-Projekten beeinflusst Frühere Forschungen deuten darauf hin, dass die Eskalation von IT-Projekten aus dem Taub-Effekt resultieren kann, einem Phänomen, bei dem Entscheidungsträger die von anderen kommunizierten Risikowarnungen nicht beachten. Inspiriert von der Stewardship-Theorie postulierten wir, dass Entscheidungsträger, die Risikowarnungen zu einem Projekt tragen, als Kooperationspartner angesehen werden, die Botschaft eher beherzigen. Umgekehrt haben wir die Theorie aufgestellt, dass Entscheidungsträger eher den Taub-Effekt zeigen, wenn Boten als Gegner angesehen werden. Wir postulierten ferner, dass bestimmte psychologische Faktoren (d. h. Framing und wahrgenommene Kontrolle) die Wirkung der Boten-Empfänger-Beziehung auf die Taubheitswirkung mäßigen würden. Um diese Ideen zu testen, haben wir zwei Experimente durchgeführt. Wenn Messenger als Kooperationspartner angesehen wurden, maßen die Empfänger der Risikowarnung mehr Relevanz zu und nahmen ein höheres Risiko wahr, wodurch sie weniger bereit waren, das Projekt fortzusetzen. Die Bewertung der Ergebnisse im Zusammenhang mit der Neuausrichtung oder Fortführung des Projekts in Form von Verlusten (und nicht von Gewinnen) schwächte diesen Effekt ab. Wenn die Empfänger jedoch ein hohes Maß an Kontrolle über das Projekt wahrnahmen, wurde die Wirkung verstärkt. Implikationen für Forschung und Praxis werden diskutiert.;-;-;-;https://link.springer.com/article/10.1057/ejis.2016.6 8d58824c6d34cbc566e31ae4c8a5653c;de;;;5.2.;;;Eine Methode zum Lösen von Nash-Gleichgewichten von Spielen basierend auf öffentlicher Ankündigungslogik Die Beschreibung des Interaktionsverhaltens rationaler Agenten und die Suche nach Gleichgewichten sind zwei Hauptbereiche der Spieltheorie. Die epistemische Grundlage der beiden oben genannten Domänen basiert auf der Annahme, dass alle Akteure rational sind. Die Spieltheorie selbst kann jedoch die Informationsänderungen höherer Ordnung des gegenseitigen Wissens zwischen Spielern nicht genau modellieren, so dass in den aktuellen spieltheoretischen Studien die Interpretationen von Rationalität vage sind. In diesem Beitrag wird ein Konzept der Rationalität durch die Einbeziehung einer epistemischen Zutat neu definiert. Dann wird eine Methode zur Lösung und Verfeinerung von Nash-Gleichgewichten vorgeschlagen, die auf der Logik der öffentlichen Ankündigung basiert, und es wird bewiesen, dass die iterierte Ankündigung dieser Rationalitätsaussage den iterierten Zulässigkeitsalgorithmus in der Spieltheorie charakterisiert, der eine dynamische epistemische Grundlage für diesen Algorithmus bietet. Abschließend wird gezeigt, dass eine Implementierung dieser Methode, basierend auf dem erweiterten DEMO, korrekt ist.;-;-;-;https://link.springer.com/article/10.1007/s11432-010-4010-0 3a3a290bb498aacf7fbc94b0a4fd84da;de;;;5.2.;;;Branding, Produktentwicklung und Positionierung der Wohltätigkeitsorganisation Wie können Wohltätigkeitsorganisationen am besten die Neunzigerjahre und das nächste Jahrhundert überleben? In diesem Beitrag schlägt der Autor vor, dass Wohltätigkeitsorganisationen die Techniken des Markenmarketings anwenden sollten, um ihre Position zu sichern. Er untersucht die Notwendigkeit, dass Wohltätigkeitsorganisationen ihren Markt sorgfältig recherchieren und die Qualität und Positionierung ihres Produkts sowie die Möglichkeit, eine Marktnische zu identifizieren, berücksichtigen. Schließlich diskutiert er, wie eine Wohltätigkeitsorganisation eine gewünschte Markenpersönlichkeit schaffen kann.;-;-;-;https://link.springer.com/article/10.1057/bm.1994.20 020257a467daed868e6f00f08f268849;de;;;4.2.;;;Was ist national und was ist international in den 2+4-Verhandlungen? Seit dem 14. Mai 1990 verhandelten Beamte der Regierungen der sechs „2+4“-Staaten über die äußeren Aspekte der Wiedervereinigung. Für die Bundesrepublik waren dies vor allem Dieter Kastrup und Frank Elbe vom Auswärtigen Amt sowie Peter Hartmann vom Kanzleramt. Die Außenminister trafen sich am 5. Mai. Neu hier waren DDR-Außenminister Markus Meckel von der DDR-SPD und sein Staatssekretär Hans-Jürgen Misselwitz. Gemeinsam mit Genscher bereitete er sich auf die 2+4-Konferenz vor, die in Bonn stattfinden sollte, gefolgt von einer Außenministerkonferenz, die von einem Beamtentreffen am 30. April geplant war.;-;-;-;https://link.springer.com/chapter/10.1057/9781137488725_8 e0d5e561f90458d3bc9e510543dd783a;de;;;5.2.;;;Stehen die persönlichen Werte der Lehrkräfte in Zusammenhang mit ihrer Einstellung zur inklusiven Bildung? Eine Korrelationsstudie Inklusive Bildung ist eine große Herausforderung für die Bildungssysteme. Um den Hintergrund der Einstellungen von Lehrkräften zu inklusiver Bildung besser zu verstehen und da persönliche Werte den Einstellungen zugrunde liegen und diese unterstützen, versucht diese Forschung, den Zusammenhang zwischen diesen beiden Konstrukten zu untersuchen. Wir haben diesen Zusammenhang in zwei vorregistrierten Studien getestet, in denen 326 (Studie 1) und 527 Lehrkräfte (Studie 2) Skalen zu Einstellungen, Werten (Studien 1 und 2) und sozialer Erwünschtheit (Studie 2) ausgefüllt haben. Unsere statistischen Analysen stützen unsere Hypothesen teilweise. Somit standen Selbsttranszendenz und Offenheit für Veränderungen in positivem Zusammenhang mit der Einstellung der Lehrkräfte zur inklusiven Bildung (Studien 1 und 2), während die Ergebnisse zur Selbstverbesserung gemischt waren (d. h. in Studie 1 verwandt, aber nicht in Studie 2). Naturschutzwerte standen nicht im Zusammenhang mit der Einstellung der Lehrkräfte zur inklusiven Bildung. Obwohl diese Ergebnisse insbesondere in Bezug auf die Kausalität weiterentwickelt werden müssen, bieten sie einen neuen Rahmen für das Verständnis der Einstellungen von Lehrkräften und eröffnen neue Perspektiven für die Ausbildung von Lehrkräften, um die Umsetzung inklusiver Schulpolitiken zu verbessern.;-;-;-;https://link.springer.com/article/10.1007/s11218-021-09646-7 6fae7c1963df1fce409736a5c2ac8e98;de;;;5.2.;;;Zeitabhängige Probleme Dieses Kapitel ist der Approximation zeitabhängiger PDEs durch finite Elemente gewidmet. Ein erschöpfender Überblick über dieses weitreichende Thema würde den Rahmen dieses Buches sprengen, daher beschränken wir uns darauf, einige wichtige Konzepte zu veranschaulichen. Insbesondere betonen wir die Methode der Linien, bei der das Problem zuerst im Raum approximiert wird, was ein System gekoppelter gewöhnlicher Differentialgleichungen ergibt, und dann wird ein Time-Marching-Algorithmus verwendet, um die Zeit-Approximation zu konstruieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-4355-5_6 01361a87b220b4cec813a6ec5d7e7bf1;de;;;5.2.;;;Eine effektive Optimierung der bakteriellen Nahrungssuche basierend auf Konjugation und neuartigen Schrittgrößenstrategien Bacterial Foraging Optimization (BFO) ist ein hocheffizienter metaheuristischer Algorithmus, der in der realen Welt weit verbreitet ist. Trotz hervorragender Rechenleistung können BFO-Algorithmen eine vorzeitige Konvergenz bei der Berechnung schwieriger Probleme kaum vermeiden, was in der Regel zu ungenauen Lösungen führt. Um die Recheneffizienz von BFO-Algorithmen zu verbessern, stellt das Papier einen verbesserten BFO-Algorithmus vor: Conjugated Novel Step-size BFO algorithm (CNS-BFO). Es verwendet eine neuartige Strategie zur Evolution der Schrittweite, um Einschränkungen zu beheben, die durch die feste Schrittweite in vielen BFOs verursacht werden. Außerdem übernimmt der verbesserte BFO-Algorithmus die in LPBFO vorgeschlagene Lévy-Flugstrategie und die in BFO-CC vorgeschlagene Konjugationsstrategie, um seine Rechenfähigkeit zu verbessern. Darüber hinaus werden Experimente mit 24 Benchmark-Funktionen durchgeführt, um die Effizienz des vorgeschlagenen CNS-BFO-Algorithmus zu demonstrieren. Die experimentellen Ergebnisse legen nahe, dass der vorgeschlagene Algorithmus Ergebnisse mit besserer Qualität und geringerer Volatilität als andere Meta-Heuristiken liefern kann und somit die Einschränkung der vorzeitigen Konvergenz, die vielen Meta-Heuristiken gegenübersteht, ausreichend mildern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-57884-8_32 c017e4036de265c02e06923793b6609c;de;;;4.2.;;;Der Zusammenhang zwischen Dyspnoe und Patientenzufriedenheit mit der Lebensqualität bei Krebs im fortgeschrittenen Stadium Dyspnoe ist ein häufiges Symptom bei Patienten mit fortgeschrittenem Krebs. Das Ziel dieser Studie war es, den Zusammenhang zwischen Dyspnoe und Patientenzufriedenheit mit der Lebensqualität (QoL) bei Krebs im fortgeschrittenen Stadium zu untersuchen.;-;-;-;https://link.springer.com/article/10.1007/s00520-006-0178-7 d1a5e5f8b52c6467bd592f0ebc8f4cc7;de;;;5.2.;;;Magen-und Darmparasiten Ein Parasit ist ein ein- oder mehrzelliges Tier oder eine Pflanze, die entweder zeitweilig oder dauerhaft auf (Ektoparasit) oder innerhalb (Endoparasit) einer allgemein größeren Lebensform (Wirt) lebt, wo sie die notwendigen Bedingungen für ihre Stoffwechselvorgänge oder ihre Fortpflanzung vorfindet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18977-7_19 ea2599739604eef00acb063ca824ed90;de;;;5.2.;;;Modellieren der Umgebung eines mobilen Roboters mit der eingebetteten Flow State Machine Ein topologischer Ansatz zur Navigation mobiler Roboter wird diskutiert und experimentell evaluiert. Die Umgebung, die ein sich bewegender Roboter erlebt, wird als dynamisches System behandelt. Einfache Arten von reaktivem Verhalten werden durch eventuelle Wechselentscheidungen ergänzt. Wenn Umschaltkriterien definiert sind, kann das System in Form eines endlichen Automaten beschrieben werden. Da sie in die Umgebung eingebettet und vom sensorischen Fluss des Roboters abhängig ist, führen wir den Begriff „Embedded Flow State Machine“ (EFSM) ein. Wir haben es mit einem rekurrenten neuronalen Netz implementiert, das auf einer Abfolge von sensorischen Inhalten und Aktionen trainiert wurde. Einer der Hauptvorteile dieses Ansatzes besteht darin, dass keine explizite Lokalisierung erforderlich ist, da das rekurrente neuronale Netz den Zustand implizit hält. Die EFSM ist auf die mehrstufige Vorhersage von sensorischen Informationen und der zurückgelegten Distanzen zwischen Entscheidungspunkten anwendbar, wenn eine Abfolge von Entscheidungen an Entscheidungspunkten gegeben ist. Somit kann der optimale Weg zu einem bestimmten Ziel gesucht werden. Eines der Hauptprobleme ist, für wie viele Schritte die Vorhersage zuverlässig genug ist. Mit anderen Worten, ist es möglich, Umgebungsmodellierung und Pfadplanung auf diese Weise durchzuführen? Der Ansatz wird an einem mobilen Miniaturroboter getestet, der mit Näherungssensoren und einer Farbvideokamera ausgestattet ist. Entscheidungspunkte, an denen Abweichungen vom Wandfolgeverhalten erlaubt sind, basieren auf der Farbobjekterkennung. Bei einer experimentellen Umgebung mittlerer Komplexität war dieser Ansatz erfolgreich.;-;-;-;https://link.springer.com/article/10.1007/s10846-006-9059-z 0ba9dc0bf478fc9c3e8e94b69ac7d5fe;de;;;5.2.;;;Muster finden In diesem Kapitel werden verschiedene Methoden vorgestellt, die nützlich sind, um einen Überblick über die Daten zu erhalten, einschließlich einer Zusammenfassung der gesamten Datenbasis sowie der Identifizierung von Bereichen, die außergewöhnlich vom Rest abweichen. Sie geben Antworten auf Fragen wie: Unterteilt es sich von Natur aus in Gruppen? Wie hängen Attribute voneinander ab? Gibt es bestimmte Bedingungen, die zu Ausnahmen vom durchschnittlichen Verhalten führen? Das Kapitel gibt einen Überblick über Clustering-Methoden (hierarchisches Clustering,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-45574-3_7 ca37047435d9e77777ad25d66ab2d64b;de;;;4.2.;;;Echte Teamlösungen lernen Dieser Beitrag stellt „Ibots“ (Integrating roBOTS) vor, ein Computerexperiment zum Gruppenlernen, das auf einer künstlichen Mission entwickelt wurde. Mit diesem Experiment wollen wir verstehen, wie man mithilfe von Reinforcement Learning automatisch ein Roboterteam mit einer gemeinsamen Mission programmieren kann. Außerdem interessieren wir uns für;-;-;-;https://link.springer.com/chapter/10.1007/3-540-62934-3_40 e4de42d6d661ae3a6cd0360bd93fabb7;de;;;4.2.;;;Einführung: Dem 21. Jahrhundert zuhören Diese Anthologie ist das Ergebnis einer wissenschaftlichen Zusammenarbeit, die wir 2011 begonnen haben. Dank der Großzügigkeit des Center for the Arts in Society und des Frank-Ratchye STUDIO for Creative Inquiry an der Carnegie Mellon University konnten wir;-;-;-;https://link.springer.com/chapter/10.1057/9781137497604_1 e319f35bf7187f7cb298f7d1b8d5c134;de;;;4.2.;;;Bewertung der Auswirkungen von Überbrückungsgeld auf Unternehmensebene Um den quantitativen Einfluss des Überbrückungsgeldes auf den Unternehmenserfolg zu beurteilen, kann ein einfacher Regressionsansatz verwendet werden, der einen Indikator enthält, ob das Unternehmen von einem Arbeitslosen gegründet wurde oder nicht. Doch wie Studien zur direkten Wirkung von Sozialprogrammen gezeigt haben, unterscheiden sich Teilnehmer und Nicht-Teilnehmer des Programms systematisch in ihren beobachtbaren;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-2685-2_8 f5d3815062aa9c5a15cf3e785e91f49a;de;;;4.2.;;;"Die statistischen Grundlagen des Lernens Als grundlegendes Paradigma werden wir den von Valiant eingeführten Lernmodus ""Wahrscheinlich approximativ"" (PAC) übernehmen [Valiant, 1984]. Dabei ist ein Lernalgorithmus ein Verfahren zur Generierung einer indizierten Funktionsfamilie";-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-0705-5_1 019c934ecbba4f871a16190d5808a52f;de;;;5.2.;;;Graphensuche in einigen Unterklassen von Chordalgraphen Beim Graphensuchproblem wird zunächst ein Graph mit allen verunreinigten Kanten präsentiert. Das Ziel besteht darin, einen Zustand des Graphen zu erhalten, in dem alle Kanten gleichzeitig gelöscht werden, indem die geringste Anzahl von Suchern verwendet wird. Es werden zwei Variationen des Graphensuchproblems betrachtet. Eine ist die Kantensuche, bei der eine Kante gelöscht wird, indem ein Sucher entlang dieser Kante bewegt wird, und die andere ist die Knotensuche, bei der eine Kante gelöscht wird, indem gleichzeitig Sucher an beiden ihrer beiden Endpunkte vorhanden sind.;-;-;-;https://link.springer.com/article/10.1007/s004530010026 ed715e7b4c017bed7ff71ad2e15d50c2;de;;;4.2.;;;Das Konzept der Prüfung Dieses einleitende Kapitel befasst sich mit dem Konzept der Kontrolle, das der Analyse im gesamten Buch zugrunde liegt. Die Überprüfung ist ein wesentliches Element der methodischen Praxis von Wissenschaft und Philosophie. Es ist auch wichtig, ein Konsument in einer Welt zu sein, in der man angegriffen wird, indem man an jedem Ort, den man aufsucht, Werbung macht oder die Authentizität eines kulturellen Artefakts wie eines Romans oder Theaterstücks bestimmt. Auch die Politik ehrlicher Wahlen und fairer Regierungsführung ist ein Ort, an dem Kontrolle wichtig ist. Die in diesem Buch behandelten Themen (Entlarvung von urbanen Legenden, Überprüfung politischer Fakten, Wahrheits- oder Fiktionsfernsehprogramme, Horrorfilme der Klasse B und Websites, die einen vor Computerviren schützen) werden durch genauen Blick miteinander verbunden, die in der Jahre 1990 bis 2015. Dieses Kapitel befasst sich insbesondere mit der Kontrolle in Online-Einstellungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-22952-8_1 e2e1233789b1aa6c8f4e768f92bda165;de;;;4.2.;;;Systemgesundheit: Ein Übergang vom Krankheitsmanagement zur Gesundheitsförderung Bis heute sind die meisten chronischen Krankheiten wie Krebs, Herz-Kreislauf-Erkrankungen und Diabetes die häufigste Todesursache. Aktuelle Strategien zur Behandlung von Krankheiten, z. B. Risikovorhersage und Zieltherapie, haben aufgrund der dynamischen und komplexen Natur der Gesundheit noch Grenzen für die Präzisionsmedizin. Wechselwirkungen zwischen Genetik, Lebensstil und Umgebung haben nicht zu vernachlässigende Auswirkungen auf die Krankheitsentwicklung. Daher ist ein Übergang im Gesundheitswesen dringend erforderlich, um der Hysterese der Diagnose zu begegnen und die steigenden Gesundheitskosten zu stabilisieren. In diesem Kapitel haben wir neue Erkenntnisse im Bereich der Gesundheitsförderung erforscht und die Integration von Systemtheorien mit Gesundheitswissenschaft und klinischer Praxis vorgestellt. Auf der Grundlage der Systembiologie und Systemmedizin wurde ein neuartiges Konzept namens „Systemgesundheit“ umfassend befürwortet. Als Beispiele für die weitere Beleuchtung wurden zwei Typen von Bioinformatikmodellen ausgewählt, nämlich das Kausalschleifendiagramm und das quantitative Modell. Translationale Anwendungen dieser Modelle in der Systemgesundheit wurden nacheinander diskutiert. Darüber hinaus haben wir die Brücke zwischen alten und modernen Ansichten zur Gesundheit herausgestellt und einen Vorschlag für Citizen Science und Citizen Empowerment in der Gesundheitsförderung vorgelegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-6041-0_9 2d081fb30a86bb68b945956c81b313c3;de;;;5.2.;;;Engpassüberwachung und Ressourcenallokation der Blechwerkstatt für die Luft- und Raumfahrt Die Luft- und Raumfahrtindustrie ist eine wertschöpfende und technologieintegrierte Industrie. Blechteile sind ein wichtiger Bestandteil von Flugzeugstrukturen. Die Blechfertigungslinie kombiniert fünf verschiedene Routingarten miteinander. Diese Studie führt einen Indikator ein, um Engpässe zwischen Arbeitsplätzen zu identifizieren und zu überwachen, und entwickelt dann einen Algorithmus zur Neuzuweisung der Ressourcen der Blechbearbeitung. Es hilft, eine ausgewogene Produktionslinie zu konstruieren und die dynamische Nachfrage des Luft- und Raumfahrtmarktes zu befriedigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25453-6_32 eb8357c1eff1adbf2d54e31bb1544deb;de;;;4.2.;;;Raum-Zeit-Prozesse und Geostatistik Dieses Kapitel bietet einen umfassenden Überblick über Raum und Raum-Zeit-Prozesse. Unsere Dissertation beginnt mit dem Konzept von Raum und Zeit aus philosophischer Sicht. Dann verbinden wir das Konzept der Raum-Zeit mit der gegenwärtigen Praxis in der Geostatistik und deren Verwendung als effektiver Rahmen für die Natur- und Sozialwissenschaften. Der Rest des Kapitels gibt eine methodische Bewertung der Raum-Zeit-Geostatistik im Rahmen von Raum-Zeit-Zufallsfunktionen, Kovarianzen und Variogrammen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17086-7_1 11e6663481e293340a7625c940a8318e;de;;;4.2.;;;Verteiltes Cloud-Forensik-System mit Dezentralisierung und Mehrfachbeteiligung In den letzten Jahren wurde eine beträchtliche Anzahl von Cloud-Forensik-Systemen und -Tools vorgeschlagen. Die Vertrauensfrage digitaler Beweise, ein bedeutendes Sicherheitsthema, ist für Cloud-Forensik-Systeme unverzichtbar. In diesem Whitepaper schlagen wir ein anderes Cloud-Forensik-System vor – Distributed Cloud Forensic System with Decentralization and Multi-Participation (DCFS). Das DCFS befindet sich in einer nicht vertrauenswürdigen und mandantenfähigen Cloud-Umgebung, und es wird davon ausgegangen, dass Cloud-Benutzer, Cloud-Mitarbeiter oder forensische Ermittler unehrlich sein können. Das DCFS, das sich von bestehenden zentralisierten Cloud-Forensik-Systemen unterscheidet, ist ein verteiltes und dezentrales System, das sich nicht auf einen einzelnen Knoten oder Dritte verlässt, um glaubwürdige Beweise aus der Cloud zu erhalten. Das Vertrauen ist im DCFS auf alle Teilnehmer aufgeteilt, und diese Teilnehmer überwachen sich gegenseitig. Im DCFS wird ein verteiltes öffentliches Hauptbuch geführt, in dem alle Beweise für forensische Beweise zusammen mit anderen nützlichen Informationen aufgezeichnet werden. Dieses Hauptbuch kann die Glaubwürdigkeit und Integrität forensischer Beweise bis zu einem gewissen Grad verbessern und die Verwahrungskette bei forensischen Untersuchungen vervollständigen. Vertrauenswürdiger werden die forensischen Beweise, die von den Cloud-Mitarbeitern mit dem DCFS vor Gericht vorgelegt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-90802-1_16 b74e2d376cdab166d99192e437cf6ae1;de;;;4.2.;;;Kulturübergreifende Täuschung: Bottom-Up- und Top-Down-Ansätze Dieser Beitrag untersucht verschiedene Ansätze zur Analyse von Unterschieden in Täuschungsmustern und wie Täuschung zwischen Kulturen bewertet wird. Die Ansätze gliedern sich in Bottom-up-Ansätze, die die Grundlagen von Kultur und ihren Einfluss auf Täuschung untersuchen, und Top-down-Ansätze, die sich auf Modelle der Täuschung beziehen und wie sich ihre Dynamiken über Kulturen hinweg verändern. Überlegungen zu den verschiedenen Ansätzen haben zu dem Schluss geführt, dass die umfassendste Methode zur Modellierung von Täuschung über Kulturen hinweg darin besteht, die beiden Ansätze zu synthetisieren, anstatt sie als gegensätzliche Denkrichtungen zu betrachten.;-;-;-;https://link.springer.com/chapter/10.1007/11427995_44 6fc83f292d3218c99c59b059bbb77aff;de;;;4.2.;;;Feldorientiertes Servicedesign: Ein Multiagenten-Ansatz Service wird als Wertschöpfung durch die Zusammenarbeit von Dienstleistern und Kunden verstanden. Dieses Papier konzentriert sich jedoch auf das Servicedesign in Problemfeldern, in denen komplexe Probleme zwischen verschiedenen Interessengruppen bestehen und in denen die Identifizierung von Serviceanbietern und Kunden kein einfacher Prozess ist. Mit anderen Worten, wir konzentrieren uns auf eine sehr frühe Phase des Service-Designs mit großen Unklarheiten, wir nennen es;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-55861-3_31 b088311d12c582fc6509e49135a7793b;de;;;5.2.;;;Echtzeit-Textursynthese mit Patch Jump Maps Map Dieses Papier stellt eine Echtzeitmethode zur Synthese von Texturen vor. Der Algorithmus besteht aus zwei Stufen: einer Vorverarbeitungsstufe und einer Echtzeit-Synthesestufe. In der Vorverarbeitungsstufe werden Sprunglisten für jedes Textur-Patch in der eingegebenen Mustertextur erstellt und alle Sprunglisten werden in Patch-Jump-Maps gespeichert. In der Synthesestufe synthetisieren wir die Ausgabetextur mit Hilfe von gespeicherten Patch-Jump-Maps. Experimente zeigen, dass 200-500 Frames von 256 × 256 hochwertigen Texturen innerhalb einer Sekunde erzeugt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30497-5_177 65b34f3da8fb8d01b65f7f95bcec6016;de;;;5.2.;;;Beweistheoretische und höherwertige Erweiterungen der logischen Programmierung Wir überprüfen den italienischen Beitrag zu beweistheoretischen und höherwertigen Erweiterungen der logischen Programmierung, der aus der Erkenntnis entstand, dass Horn-Klauseln Standardabstraktionsmechanismen wie höherwertige Programmierung, Scoping-Konstrukte und Formen des Verbergens von Informationen fehlten. Diese Erweiterungen basierten auf dem Deduktions- und Berechnungsparadigma, wie es in Miller et al;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14309-0_12 d8cd4da46fc08d098dad2d22fed4d8b2;de;;;5.2.;;;Ermittlung potenzieller Opfer innerhalb des Unternehmensnetzwerks mithilfe der Linkanalysemethode Die Erkennung potenzieller Cyber-Opfer ist ein wichtiges Forschungsthema im Bereich der Netzwerksicherheit. In einem angrenzenden Zeitraum weisen Cyber-Opfer oder sogar potenzielle Cyber-Opfer innerhalb eines Unternehmens mehrere gemeinsame Muster auf, die mit den aktuell ergriffenen Opfern übereinstimmen. Daher wendet dieses Papier die Linkanalysemethode an und schlägt eine Hybridmethode vor, um potenzielle Opfer anhand ihrer in den Netzwerkprotokolldaten verborgenen Verhaltensmuster automatisch zu entdecken. In dem Experiment wurde die vorgeschlagene Methode angewendet, um potenzielle Opfer aus Big Data zu enthüllen (6.846.097 Datensätze von Proxy-Logs in 1,7G und 84.693.445 Datensätze von Firewall-Logs in 9.3G). Anschließend kann eine Rangliste potenzieller Opfer erstellt werden, damit Stakeholder den Sicherheitszustand in einem Unternehmen verstehen können. Darüber hinaus kann der hierarchische Verbindungsgraph von Gastgebern Managern oder Interessenvertretern dabei helfen, die potenziellen Opfer leichter zu finden. Infolgedessen würden die Sicherheits- und Präventionspraktiken der Informationssicherheitsgruppe in einem Unternehmen auf einen aktiven Modus statt auf einen passiven Modus aktualisiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19066-2_32 8fb764230da3a30b84457d428b3abb15;de;;;4.2.;;;Allgemeine Schlussfolgerungen Dieses Buch befasst sich mit aufkommenden strategischen Technologien und ihren potenziellen Auswirkungen auf Geopolitik und menschliches Schicksal mit Blick auf wissenschaftliche Raffinesse und Vollständigkeit. Unter Verwendung des Rahmens für Wissenschafts- und Technologiestudien, bewertet durch die Linse von;-;-;-;https://link.springer.com/chapter/10.1057/9780230304949_18 9968c79f2e249d6e4fa7033e4bff9c34;de;;;5.2.;;;Neuropharmakologie im Fluss: Molekulare Modellierungswerkzeuge zum Verständnis von Protein-Konformationsverschiebungen bei der Alzheimer-Krankheit und verwandten Erkrankungen Mehrere Jahre aufregender Entdeckungen versprechen endlich, eine jahrzehntelange Sackgasse bei der Behandlung vieler der schwächsten neurologischen Erkrankungen der Gesellschaft zu überwinden, darunter Alzheimer, Parkinson, amyotrophe Lateralsklerose und Chorea Huntington. Diese Durchbrüche zeichnen ein detailliertes Bild der Ursachen und Wirkungen im Zusammenhang mit Polynukleotid-assoziierenden Domänen wichtiger Proteine ​​des zentralen Nervensystems, die sich in energetisch begünstigte physiologisch dysfunktionale Formen fehlfalten. Leider unterscheidet sich das Paradigma so dramatisch von herkömmlichen pharmakologischen Szenarien, dass die Übertragung grundlegender molekularer Konzepte auf ein praktisches therapeutisches Design weitaus schwieriger ist als die bloße Identifizierung eines neuen enzymatischen oder zellulären Ziels. Dieses Kapitel versucht, die grundlegenden physiologischen Probleme zu erfassen, die Neuropathien verursachen, und zeigt Wege auf, wie Molekular-Docking- und Molekulardynamik-Simulationen in die Formulierung überprüfbarer Hypothesen einfließen können, die eine Grundlage für die systematische Formulierung einer neuen Generation von Medikamenten bilden können.;-;-;-;https://link.springer.com/protocol/10.1007/978-1-4939-7404-7_20 27d00f7ed3354e64f821cf9cf85ac9bc;de;;;5.2.;;;Merkmalsauswahl mit Partikelschwärmen Die Feature-Auswahl wird häufig verwendet, um Bemaßungen zu reduzieren und irrelevante Features zu entfernen. In diesem Artikel wird die Partikelschwarmoptimierung verwendet, um die Merkmalsuntermenge für die Klassifizierungsaufgabe auszuwählen und gleichzeitig das neuronale RBF-Netzwerk zu trainieren. Ein Vorteil besteht darin, dass sowohl die Anzahl der Merkmale als auch die Konfiguration des neuronalen Netzwerks in Partikel kodiert sind und in jeder Iteration des PSO es keinen iterativen Subalgorithmus für das Training des neuronalen Netzwerks gibt. Ein anderer ist, dass die Fitnessfunktion drei Faktoren berücksichtigt: mittlerer quadratischer Fehler zwischen neuronalen Netzwerkausgaben und gewünschten Ausgaben, die Komplexität des Netzwerks und die Anzahl der Merkmale, was eine starke Generalisierungsfähigkeit des RBF-Netzwerks garantiert. Darüber hinaus könnte unser Ansatz eine möglichst kleine Merkmalsteilmenge auswählen, um hohe Genauigkeitsanforderungen mit rationaler Trainingszeit zu erfüllen. Experimentelle Ergebnisse an vier Datensätzen zeigen, dass diese Methode attraktiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30497-5_66 6963718800e39a5d7584dfe817f58208;de;;;4.2.;;;Echte optionsbasierte Optimierung zur finanziellen Anreizvergabe bei Infrastrukturprojekten im Rahmen von Public-Private-Partnerships Finanzielle Anreize, die Energieinvestitionen im Rahmen öffentlich-privater Partnerschaften stimulieren, gelten als knappe öffentliche Mittel, die eine bewusste Zuweisung an die wirtschaftlich gerechtfertigtsten Projekte erfordern, um den sozialen Nutzen zu maximieren. Diese Studie zielt darauf ab, das Problem der finanziellen Anreizallokation durch einen realoptionsbasierten nichtlinearen ganzzahligen Programmieransatz zu lösen. Die Realoptionstheorie wird genutzt, um den optimalen Zeitpunkt und den entsprechenden Optionswert für die Bereitstellung finanzieller Anreize zu bestimmen. Die Mehrdeutigkeit in der Entwicklung von Sozialleistungen, die Einstellung der Entscheidungsträger zu Mehrdeutigkeiten und die Unsicherheit bei Sozialleistungen und Anreizkosten werden alle berücksichtigt. Dem Projektportfolio, das den maximalen Gesamtoptionswert generiert, werden Anreize geboten. Die Projektportfolioauswahl wird als stochastisches Rucksackproblem mit zufälligen Optionswerten in der Zielfunktion und zufälligen Anreizkosten in der probabilistischen Budgetrestriktion formuliert. Die lineare probabilistische Budgetbeschränkung wird anschließend in eine nichtlineare deterministische umgewandelt. Schließlich wird das ganzzahlige nichtlineare Programmierproblem gelöst und die Optimalitätslücke wird berechnet, um die Qualität der optimalen Lösung zu beurteilen. Anhand einer Fallstudie wird veranschaulicht, wie die begrenzten finanziellen Anreize unter Unsicherheit und Ambiguität optimal verteilt werden können, was die Wirksamkeit der vorgeschlagenen Methode demonstriert.;-;-;-;https://link.springer.com/article/10.1007/s42524-019-0045-0 071578e1e5bbdbc5a53076cfbcd1bf92;de;;;4.2.;;;Zum Verhältnis von Unternehmenssportkultur und Kernkompetenz von Unternehmen Dieses Papier ist eine Arbeit auf der Grundlage einer dokumentarischen Datenmethodik, die die Konzepte der Unternehmenssportkultur (CSC) und der Kernkompetenz ausarbeitet und den Mechanismus des CSC-Anreizes zur Bildung und Innovation von Kernkompetenzen untersucht. Hierin werden einige Vorschläge für die Entwicklung von Kernkompetenzen gegeben CSC. Es wird der Schluss gezogen, dass ein Unternehmen, das sich für die Gründung eines neuen CSC entschieden hat, die CSC-Philosophie in Gedanken verinnerlichen und in die Praxis umsetzen muss, damit sein zeit- und unternehmensspezifisches CSC in Zusammenhalt, Verbundenheit und Wettbewerbsfähigkeit umgesetzt wird, die seine Kernkompetenz verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23020-2_39 83fd4cfb7bbd38a6d694e40cc9e87c0b;de;;;4.2.;;;Auf dem Weg zu einer Semiotik digitaler Orte Informationsarchitektur ist eine angewandte Kunst, die die „Probleme löst, die entstehen, wenn wir große Informationsmengen verwalten, produzieren und konsumieren“ (Resmini, Problemi dell’Informazione, 38:63–76, Resmini 2013). Informationsarchitektur reflektiert komplexe Zeichensysteme, versteht ihre wechselseitigen Beziehungen und findet den besten Weg, sie zu organisieren. Dieses Kapitel stellt eine Reihe von theoretischen Werkzeugen der Semiotik vor, die für die Informationsarchitektur relevant sind, insbesondere um kulturelle Phänomene bis hin zu den spezifischen Informationsarchitekturen bestimmter digitaler Orte zu verfolgen, und reflektiert die Rolle der Informationsarchitektur bei der Schaffung eines Ortsgefühls im digitalen Raum. Eine Definition des digitalen Ortes und der darauf wirkenden Kräfte wird angeboten, auf kanalübergreifende Ökosysteme ausgedehnt und dann angewendet, um zu verstehen, wie wir Plattformen wie Facebook und Twitter bewohnen. Anschließend werden Schlüsselfaktoren bei der Schaffung von Auswirkungen auf die Ortsinformationsarchitektur vorgestellt, und dann schließen einige abschließende Bemerkungen das Kapitel.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06492-5_7 bbf6d64463737e402cfbdc275140e522;de;;;5.2.;;;Eine vergleichende Studie über die jüngsten Verbesserungen bei Wavelet-basierten Bildcodierungsschemata Unter den existierenden verlustbehafteten Kompressionsverfahren ist die Transformationscodierung eine der effektivsten Strategien. Die diskrete Wavelet-Transformation (DWT) kann aufgrund ihrer Vorteile im Vergleich zu den anderen Transformationen effizient in Bildcodierungsanwendungen verwendet werden. Ein typisches Wavelet-Bildkompressionssystem besteht aus drei verbundenen Komponenten, nämlich Transformation, Quantisierung und Codierung. In diesem Whitepaper besprechen wir die jüngsten Verbesserungen der einzelnen Komponenten. Wir präsentieren eine detaillierte Studie über die jüngste Implementierung des DWT sowie über seine Verbesserungen. Darüber hinaus beschreiben wir die Hauptprinzipien der Wavelet-basierten Kompressionsverfahren wie EZW, SPIHT, SPECK und EBCOT. Wir überprüfen die Vor- und Nachteile jedes dieser Algorithmen. Außerdem bieten wir einen Überblick über die jüngsten Verbesserungen der verschiedenen Kodierungsschemata. Darüber hinaus wird eine vergleichende Analyse der jüngsten Verbesserungs- und Komprimierungstechniken hinsichtlich der visuellen Qualität und der Codierungszeit durchgeführt. Wir schließen mit einigen Richtlinien, die den Entwurf eines effizienten Codecs für die Wavelet-Bildkompression unter Verwendung von Spline-Transformation und einem verbesserten Codierungsschema betreffen.;-;-;-;https://link.springer.com/article/10.1007/s11042-018-6262-4 66d404ddf46a92b013640ba06386ed63;de;;;5.2.;;;Partikelschwarmoptimierung mit diverser Neugier und deren Identifizierung Its Particle Swarm Optimization (PSO) ist ein stochastischer und populationsbasierter adaptiver Optimierungsalgorithmus. Obwohl die optimierten PSO-Modelle eine gute Suchleistung bei moderaten Rechenkosten und Genauigkeit aufweisen, neigen sie immer noch dazu, bei der Lösung multimodaler Optimierungsprobleme in lokalen Minima (vorzeitige Konvergenz) gefangen zu sein. Um diese Schwierigkeit zu überwinden, schlagen wir eine neue Methode vor, Particle Swarm Optimization with Diversive Curiosity (PSO/DC). Eine Schlüsselidee der vorgeschlagenen Methode besteht darin, einen Mechanismus diverser Neugier in die PSO einzuführen, um eine vorzeitige Konvergenz zu verhindern und den Kompromiss zwischen Exploration und Ausbeutung zu handhaben. Diversive Neugier wird durch einen internen Indikator repräsentiert, der eine geringfügige Verbesserung eines Partikelschwarms erkennt und ihn dazu zwingt, ständig nach einer optimalen Lösung für ein gegebenes Optimierungsproblem zu suchen. Aufgrund des internen Indikators, der den Mechanismus der Diversitätsneugier darstellt, kann PSO/DC eine vorzeitige Konvergenz erfolgreich verhindern und den Kompromiss zwischen Exploration und Ausbeutung bewältigen. Empirisch ist PSO/DC sehr effektiv bei der Verbesserung der Suchleistung von PSO.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-9532-0_25 f1a03899c04fba694eae4795ab004f35;de;;;5.2.;;;Studentinnen in quantitativen Studiengängen: Eine Erkundung ihrer Motivationsquellen, Lernstrategien, Lernverhalten und Studienleistungen In dieser Studie werden Faktoren untersucht, die zu besseren Studienleistungen von Studentinnen beim Erlernen quantitativer Themen führen, beispielsweise bei mathematischen Aufgaben. Wir untersuchen die Unterschiede im selbstregulierten Lernen (z. B. Motivationsquellen und Umsetzung von Lernstrategien), Lernverhalten und Lernleistung von Studentinnen in quantitativen Lehrveranstaltungen. In dieser Studie wird eine Kombination aus Primärerhebungsdaten und Sekundärdaten aus dem studiengangsspezifischen Learning Management System (LMS) verwendet, um Unterschiede zwischen den vier Jahrgangsstufen (z ). Die Ergebnisse zeigen, dass die höhergradigen Gruppen stärkere Fähigkeiten zur metakognitiven Selbstregulation, Elaboration, Zeit- und Lernumgebungsmanagement und Leistungsregulierungsfähigkeiten aufweisen als die niedrigeren Grade. Die höherwertigen Gruppen haben auch eine stärkere Selbstwirksamkeit, geringere Prüfungsangst, mehr LMS-Aktivitäten und frühere Aufgaben- und Quizabgaben. Die Schüler der unteren Klassenstufen reichen ihre Aufgaben konsequent in letzter Minute ein und zeigen insgesamt weniger LMS-Aktivitäten. Unsere Ergebnisse haben wichtige Implikationen für Lehrende, akademische Administratoren und Wissenschaftlerinnen, um das selbstregulierte Lernen von Studentinnen in quantitativen Kursen zu fördern.;-;-;-;https://link.springer.com/article/10.1007/s10758-021-09552-z 8d7250305ae0a9f9e0a2528f217125f2;de;;;5.2.;;;Informationsbasierte Entwicklung neuer Strahlungsdetektoren Angesichts unserer gegenwärtigen Sorge um eine sichere Umgebung hat sich die Entwicklung neuer Materialien zum Nachweis von Strahlung auf die Fähigkeit konzentriert, potenzielle Strahlungsquellen mit erhöhten Empfindlichkeitsstufen zu identifizieren. Als Ausgangsrahmen für einen materialinformatischen Ansatz für Strahlungsdetektionsmaterialien haben wir den Einsatz sowohl überwachter (Support Vector Machines – SVM und Linear Discriminant Analysis – LDA) als auch unüberwachter (Principal Component Analysis – PCA) Lernmethoden für die Entwicklung untersucht von strukturellen Signaturmodellen. Die Anwendung dieser Methoden führt zu komplementären Ergebnissen, die beide notwendig sind, um den Parameterraum und die Variablenentartung zu reduzieren. Unter Verwendung eines Kristallstrukturklassifizierungstests erhöht die Verwendung des nichtlinearen SVM die Vorhersageleistung erheblich, was auf Kompromisse zwischen kleineren Deskriptorräumen und einfacheren linearen Modellen hindeutet.;-;-;-;https://link.springer.com/article/10.1557/PROC-0894-LL09-02 21ee82f7342364b5aae48f69a6edc45c;de;;;4.2.;;;Jugendarbeitslosigkeit in Südafrika und die sozioökonomischen Fähigkeiten von Mobiltelefonen Arbeitslosigkeit ist eine bedeutende globale Herausforderung mit erheblichen sozialen und wirtschaftlichen Auswirkungen. Die Arbeitslosigkeit hat die Jugendlichen jedoch nicht daran gehindert, mobile Geräte oder andere Informations- und Kommunikationstechnologien (IKT) zu besitzen und zu nutzen. In diesem explorativen Papier wurden die mobilen Nutzungsmuster von 104 Teilnehmern untersucht, um mobile und IKT-Strategien zu kontextualisieren, die auf arbeitslose Jugendliche abzielen. Die explorativen Ergebnisse deuten darauf hin, dass im Gegensatz zu der Annahme, dass die meisten IKT für Entwicklungsliteratur auf Jugendliche in ländlichen Gebieten abzielen, IKT-Strategien zur Bekämpfung der Jugendarbeitslosigkeit wirksamer sein können, wenn sie auf Jugendliche in städtischen Gebieten ausgerichtet sind. Die Strategien müssen möglicherweise auch angepasst werden, da die Jugendlichen zum Alter von 35 Jahren tendieren, wo sie Beschäftigungsmöglichkeiten apathisch werden. Zwei Fähigkeiten, „individuell“ und „zwischenmenschlich“, haben sich eindeutig als arbeitsplatzbezogene wirtschaftliche Fähigkeiten der IKT herausgestellt. Das Papier trägt zu Praxis und Theorie bei, indem es Empfehlungen für weitere Forschungen zu Programmen zur Entwicklung von IKT-Kompetenzen für Jugendliche vorschlägt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-11235-6_6 5217814482862498adcbea6eaa96cd14;de;;;5.2.;;;Algorithmen für die allgemeine eingeschränkte nichtlineare Optimierung Dieser Artikel gibt einen Überblick über einige weit verbreitete Methoden zur eingeschränkten Optimierung. Insbesondere befasst es sich mit den Spezialfällen der quadratischen Programmierung und linearen Nebenbedingungen, bevor Penalty-Funktions- und sequentielle QP-Ansätze für das allgemeine nichtlinear eingeschränkte Problem beschrieben werden. Das Papier beleuchtet auch einige aktuelle Forschungsbereiche und erwähnt einige Algorithmen, die sich noch in der Entwicklung befinden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-0369-2_7 0fbed99f3f0ca808144a1792373d57b2;de;;;5.2.;;;Astrophysikalische Beschränkungen für neutralino-dunkle Materie aus Mehrfrequenzbeobachtungen von Galaxienhaufen Wir diskutieren hier einige der Beschränkungen für die Masse und Zusammensetzung der neutralen Dunklen Materie, die aus astrophysikalischen Beobachtungen von Galaxienhaufen bei verschiedenen Frequenzen gewonnen wurden. Die verfügbaren Daten zu den am besten untersuchten Radio-Halo-Clustern legen eine untere Grenze für die Neutralinomasse von (math) fest und begünstigen ein Modell, in dem Neutralinos von Gauginos dominiert werden und hauptsächlich in Fermionen vernichten. Wir zeigen auch, dass Gammastrahlenbeobachtungen von Galaxienhaufen ein mächtiges Werkzeug sind, um die Neutralinomasse zu bestimmen. Die Kombination zukünftiger Beobachtungen von Galaxienhaufen im Radio- und Gammastrahlenbereich kann den Neutralino-Parameterraum einschränken, indem Grenzen in der (mathematischen) Ebene gesetzt werden. Diese astrophysikalischen Beschränkungen sind eine natürliche Ergänzung analoger Beschränkungen, die durch Beschleuniger- und Untergrundphysik erhalten werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55739-2_13 67af858d9775de0c11287711cb7da16f;de;;;5.2.;;;Romantische Transformationen Während der Romantik – von den wenigen Jahren um 1800 bis in die späten 1830er Jahre – entwickelten sich die literarischen Strömungen des 18. Jahrhunderts, die in Kapitel 2 diskutiert wurden, erheblich und wurden etwas weniger geschichtet. Die Zahl der tatsächlichen Erzählungen, die für die Entwicklung der Fantasie relevant sind, nahm dramatisch zu: Während die erste Hälfte des Zeitraums fast ausschließlich poetisch war, gab es in der zweiten Hälfte einige bemerkenswerte Entwicklungen in der Prosa. Die quasi-orientalische Erzählung, die wichtigste Prosaentwicklung des 18. Jahrhunderts, wanderte fast ausschließlich zum Vers, kürzere Erzählungen mit traditionellen Balladenversenformen sowie längere Erzählungen, die sich auf das Vokabular der metrischen Romanze stützen, verbreiteten sich in der ersten Hälfte des 19. Zeitraum. In der zweiten Hälfte der Periode verschmolzen die klassische und die elisabethanisch-mittelalterliche Ästhetik, die sich als Reaktion auf die Augustaner entwickelt hatte, besonders stark in Keats Werk. Ganz am Ende der Periode wurde vieles davon im ersten Werk zusammengefasst – es sei denn, man ausgenommen die ostfarbenen;-;-;-;https://link.springer.com/chapter/10.1057/9781137515797_3 b993749239deb57bb46b543d3643cea1;de;;;5.2.;;;Letzte Möglichkeit Das optimistische Gerede über die Beilegung von Streitigkeiten entsprach nicht den finanziellen Fakten. Wie konnte Lloyd's genug Geld auftreiben, um ein Angebot zu unterbreiten, das eine Chance auf Annahme hatte? Könnten die Auszeichnungen der Namen vor Gericht ohne einen Deal im System gehalten werden? Wäre Equitas in der Lage, einen erschwinglichen Ausstiegsweg bereitzustellen? Auf beiden Seiten des Atlantiks machten sich die externen Regulierungsbehörden von Lloyd’s Sorgen um seine Zukunft.;-;-;-;https://link.springer.com/chapter/10.1057/9781137299307_6 eb23f694d5a9983cf32f47ddf9f18a16;de;;;5.2.;;;Stabilitätsanalyse der Partikelschwarmoptimierung ohne Lipschitz-Beschränkung Es gibt einige einstellbare Parameter, die die Leistung und Stabilität des Particle Swarm Optimization Algorithmus direkt beeinflussen. In diesem Papier werden Stabilitäten von PSO mit konstanten Parametern und zeitvariablen Parametern ohne Lipschitz-Beschränkung analysiert. Notwendige und ausreichende Stabilitätsbedingungen für Beschleunigungsfaktor;-;-;-;https://link.springer.com/article/10.1007/s11768-003-0014-2 2e4f9f0fa9589ee90defbb55cf2ac4f7;de;;;5.2.;;;Urbane Aktivitätsräume: Illustrationen und Anwendung eines konzeptionellen Modells zur Integration der Zeit- und Raumdimensionen Diese Arbeit erweitert die konzeptionelle Argumentation für die Verwendung von Ellipsen zur Darstellung von Aktivitätsräumen und bietet ein Beispiel dafür, wie das Ellipsenkonstrukt verwendet werden kann, um urbane Reisemerkmale basierend auf beobachtetem Reiseverhalten und sozioökonomischen Variablen zu analysieren. Ein Problem bei der Charakterisierung von Aktivitätsräumen bestand darin, die Zeit- und Raumdimensionen in denselben analytischen Rahmen zu integrieren, während eine verständliche grafische Darstellung der von Hagerstrand und anderen ins Auge gefassten Raum-Zeit-Geographien beibehalten wurde. Die Ellipse ermöglicht dies und bietet mehrere quantifizierbare Maßnahmen zur Analyse und Charakterisierung von Aktivitätsräumen und urbanem Reiseverhalten. In der aktuellen Anwendung wird die Varianzanalyse verwendet, um die resultierenden elliptischen Variablen von 653 Reisenden zu analysieren. Die Ergebnisse zeigen, dass der Wohnort und die Haushaltsgröße wichtige Faktoren bei der Bestimmung der Aktivitätsraummerkmale sind und dass die Ellipsenvariablen einen anderen und nützlichen Ansatz zum Verständnis des städtischen Reiseverhaltens bieten.;-;-;-;https://link.springer.com/article/10.1023/A%3A1005082827030 d79b39b4c68f8fa06c7e9f22e6705f74;de;;;5.2.;;;Statistische Schätzung Es gibt praktische Situationen, in denen man einige Parameter einer zugrunde liegenden statistischen Verteilung schätzen möchte. Ein Zahnpastahersteller möchte beispielsweise eine Aussage machen, dass seine neue Zahnpasta Karies um 21 bis 49% reduzieren würde. Hier interessieren den Hersteller zwei Zahlen wie 21% und 49%, so dass der wahre Anteil der Kavitätenreduktion irgendwo zwischen 21% und 49% liegt. Ein Wetterbüro kann die Temperaturschwankung in einem kommenden Monat zwischen a°F und b°F vorhersagen und behaupten, dass die Vorhersage in 95% der Fälle korrekt ist. Ein Konstrukteur möchte bei der Konstruktion eines Flugzeugs eine Schätzung des Durchschnittsgewichts der Art von Passagieren erhalten, die wahrscheinlich fliegen werden. Bei all diesen Problemen möchte man eine Schätzung einer unbekannten Größe erhalten. Bei statistischen Schätzproblemen ist man daran interessiert, eine Schätzung entweder eines unbekannten Parameters oder einer unbekannten Wahrscheinlichkeitsaussage zu erhalten. Üblicherweise werden zwei Arten von Schätzungen für einen Parameter gesucht. Dies sind die Punktschätzungen und die Intervallschätzungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-02767-5_8 52648ccc3bf6ebb521028d9670cdc0d7;de;;;5.2.;;;Variable Teilaktualisierungs-NLMS-Algorithmen mit datenselektiver Aktualisierung Wir stellen fest, dass einige existierende Algorithmen auf dem normalisierten Algorithmus der kleinsten mittleren Quadrate (NLMS) basieren und darauf abzielen, die Rechenkomplexität von NLMS zu reduzieren, die alle von der Lösung desselben Optimierungsproblems geerbt wurden, jedoch mit unterschiedlichen Einschränkungen. Eine neue Einschränkung wird analysiert, um eine zusätzliche Suchtechnik in dem NLMS-Algorithmus mit partieller Aktualisierung der Satzmitgliedschaft (SM-PU-NLMS) zu ersetzen, der darauf abzielt, eine variable Anzahl von Aktualisierungskoeffizienten für eine weitere Reduzierung der Rechenkomplexität zu erhalten. Wir erhalten einen geschlossenen Formausdruck der neuen Einschränkung ohne zusätzliche Suchtechnik, um einen neuartigen NLMS-Algorithmus (SM-VPU-NLMS) mit variabler Gruppenmitgliedschaft und partiellem Update zu generieren. Beachten Sie, dass der SM-VPU-NLMS-Algorithmus eine schnellere Konvergenz und einen kleineren mittleren quadratischen Fehler (MSE) als das vorhandene SM-PU-NLMS erzielt. Es wird darauf hingewiesen, dass der Ausdruck in geschlossener Form auch auf den herkömmlichen NLMS-(VSS-PU-NLMS)-Algorithmus mit teilweiser Aktualisierung mit variabler Schrittgröße angewendet werden kann. Der neuartige NLMS-Algorithmus (VSS-VPU-NLMS) mit variabler Schrittgröße und variabler Teilaktualisierung wird ebenfalls verifiziert, um eine weitere Reduzierung der Rechenkomplexität zu erreichen. Simulationsergebnisse bestätigen, dass unsere Analyse sinnvoll und effektiv ist.;-;-;-;https://link.springer.com/article/10.1007/s11432-014-5078-8 76c04f33b118424b569a17c836945016;de;;;5.2.;;;Heimat und Heimat: Vertriebene Kinder und Jugendliche Kinder haben ein Recht auf Heimat und Heimat. Dieses Recht entspringt ihrem Bedürfnis, irgendwo psychologisch verankert zu sein, Teil von etwas Stabilem und Dauerhaftem zu sein, etwas Größeres als sie selbst, wo sie ein nicht kontingentes Zugehörigkeitsgefühl spüren können. Wenn dieses Recht verletzt wird und dieses Bedürfnis nicht befriedigt wird, sind Kinder hilflos, und wenn sie hilflos sind, sind sie Kandidaten dafür, sich in der Welt zu verlieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75626-4_8 384a43cb42bcda946cda51beb7adfac6;de;;;5.2.;;;Hinweis zur Berechnung von Produkt-Moment-Korrelationskoeffizienten Dieses Papier beschreibt einen systematischen Plan zur Berechnung aller Produkt-Moment-Korrelationskoeffizienten zwischen einer Reihe von Variablen, der von Professor Toops seit vielen Jahren gelehrt wurde. Es bietet mehrere Vorteile gegenüber einem von Kossack in einer aktuellen Ausgabe dieser Zeitschrift vorgestellten Schema.;-;-;-;https://link.springer.com/article/10.1007/BF02290142 a591b19097105cc2c5883fb967cf367c;de;;;5.2.;;;Das Kooperationssystem: Akteure und Mechanismen Die Komplexität des außenpolitischen Entscheidungssystems der EU hat oft zu erheblicher Kritik und Spott geführt. In den 1970er Jahren soll ein hochrangiger US-Regierungsbeamter das Politikgestaltungssystem der Europäischen Gemeinschaft als „so mystifizierend wie die tibetische Theokratie“ bezeichnet haben (zitiert in Mahncke et al. 2004: 103). Obwohl das Ausmaß dieser Kritik an der EU oft übertrieben und ungerechtfertigt ist, ist es offensichtlich, dass Außenstehende oft Schwierigkeiten haben, die Dynamik der EU-Außenpolitik zu verstehen. Manchmal kann dies auch zu Fehleinschätzungen und falschen politischen Schlussfolgerungen führen. Die Beziehungen zwischen der EU und China sind ein typisches Beispiel. Ungeachtet der enormen Bemühungen chinesischer Beamter, die Komplexität der außenpolitischen Entscheidungsprozesse der EU in den letzten Jahrzehnten zu erfassen (was sich auch im Aufbau ihrer diplomatischen Präsenz in Brüssel widerspiegelt), waren die Beziehungen zwischen den beiden immer wieder von Fehleinschätzungen und Fehleinschätzungen. Wie chinesische EU-Experten bereitwillig einräumen: „Nur durch die immense Täuschung über das Waffenembargo haben chinesische Europa-Beobachter ein klareres Verständnis davon entwickelt, was die EU tun kann und wie sie funktioniert.“;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-10373-6_4 4973727a654cac9f041a37fe38edaeb9;de;;;5.2.;;;Zur Theorie des Alltäglichen: Das Gewöhnliche und das Besondere im Pflegealltag Dieser Beitrag beginnt mit einer Debatte über den relativen Stellenwert von „gewöhnlichen“ und „besonderen“ Ansätzen im Alltag mit jungen Menschen in der stationären Pflege und Behandlung. Sie plädiert für einen wohlüberlegten Umgang mit dieser Unterscheidung zwischen dem Alltäglichen und dem Besonderen, basierend auf der Einschätzung der Bedürfnisse und Entwicklungsstadien der Kinder sowie des Zwecks ihrer Unterbringung in einem Wohnheim. Von diesem Anfang an geht es in einen breiteren Vorschlag über die Notwendigkeit einer umfassenden „Theorie des Alltags“ in der Wohnarbeit ein. Die Argumentation konzentriert sich auf die Notwendigkeit eines untermauernden Rahmens für die Planung und Analyse der täglichen Gruppenbetreuungspraxis mit Jugendlichen. Schließlich wird untersucht, wie verschiedene Annahmen und theoretische Rahmenbedingungen zur Unterstützung eines Programms für die tägliche Praxis funktionieren können, das nach den Bedürfnissen der Kinder und der Aufgabe der Organisation differenziert ist.;-;-;-;https://link.springer.com/article/10.1023/B%3ACCAR.0000029686.10310.49 147d3937c453cbc556df0765926e2059;de;;;5.2.;;;"""Es ist schade, dass sie eine Hure ist"" Selbst bei der teilweisen Berechnung, indem man das frühestmögliche Datum der Komposition für das Stück akzeptiert oder den Hinweis der Widmung auf „diese ersten Früchte meiner Freizeit“ so liest, dass das Stück Fords erstes unabhängiges Werk war,";-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-19152-9_7 d369c265e7997f84cb233fd5b1fb409a;de;;;5.2.;;;Das Wesen der Philosophie Die Wörterbuchbeschreibung der Philosophie wird als „die Liebe, das Studium oder das Streben nach Weisheit oder der Erkenntnis der Dinge und ihrer Ursachen, sei es theoretisch oder praktisch“ (O.E.D.) gegeben. Daher erscheint es für den Laien nicht unvernünftig anzunehmen, dass sich Philosophen damit beschäftigen sollten, worum es bei „es“ geht.;-;-;-;https://link.springer.com/chapter/10.1057/9780230378247_1 cadf32132a94117766e06c15f861f2bf;de;;;5.2.;;;Lawza el-Bhiya Es lebte damals ein Paar, das keine Kinder hatte, weil jedes Mal, wenn es ein Baby bekam, es starb. Schließlich hatten sie eines Tages ein kleines Mädchen, das sie unbedingt leben wollten. Also beschlossen sie, ihr keinen Namen zu geben, sondern sich selbst einen Namen zu geben, als sie heranwuchs, in der Hoffnung, dass sie durch diesen Bruch mit der Sitte es diesem Baby ermöglichen würden, am Leben zu bleiben und erwachsen zu werden.;-;-;-;https://link.springer.com/chapter/10.1057/9780230100732_4 adb6130afd249b097ae41872481dcb4f;de;;;4.2.;;;Umsetzungshindernisse Bei der Implementierung von Social-Media-Daten oder -Tools in Gesundheitsprozesse müssen mehrere Herausforderungen angegangen werden. Sie reichen von technischen, funktionalen und formalen Fragestellungen bis hin zu organisatorischen Herausforderungen (z. B. Integration in klinische Arbeitsabläufe). Dieses Kapitel gibt einen Überblick über die Herausforderungen und diskutiert rechtliche Aspekte, die beim Umgang mit medizinischen Social-Media-Daten im Gesundheitswesen zu beachten sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-20582-3_13 dfbc08f5ccf1d6c3d25f8d069979011c;de;;;4.2.;;;Einführung: Ökosystembewertung und -management Dieser Artikel bietet einen Überblick über den Ursprung und die Entwicklung des Konzepts des Ecosystem Assessment Management (EAM), einschließlich der verstärkten Nutzung des Rahmens unter Wissenschaftlern. EAM ist ein Werkzeug, das Informationstechnologie verwendet, um die Beziehung zwischen menschlichen und natürlichen Faktoren eines bestimmten Ökosystems zu bewerten und Strategien für ein verbessertes Management in der Zukunft bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03449-2_1 b85b220ca5a84067ac45d94add569e14;de;;;5.2.;;;Revolutionäre Ausbildung Sanft über das Valle Peligna verteilt und auf zwei Seiten von Apenninen in den Abruzzen in Italien beherrscht, liegt die Stadt Sulmona, Geburtsort des römischen Dichters Ovid. An einem Ende des Corso Ovidio, der Hauptverkehrsader von Sulmona, steht eine Bronzebüste eines anderen einheimischen Sohnes, Carlo Tresca. Diese von Minna Harkavy gestaltete Statuette trägt die Inschrift „Carlo Tresca: Socialist Exile, Martyr of Liberty“. Bis vor kurzem wussten die meisten Sulmonesen kaum mehr als das über den jungen Brandstifter, der um die Jahrhundertwende die Reichen und Mächtigen der Stadt herausforderte und dann in die Vereinigten Staaten auswanderte.;-;-;-;https://link.springer.com/chapter/10.1057/9781403981097_2 cbdf06b3a3adee14ca59224dcbd6d991;de;;;5.2.;;;Materialbezogene Standardkalkulation Die Wirksamkeit im Materialkontext wurde bisher hauptsächlich von der Materialversorgungsfunktion überprüft. Es ist nun notwendig, die Effektivität bei der Verwendung von Materialien zu berücksichtigen, sowohl von direkten als auch von indirekten Materialien. Die Messung der Effektivität ähnelt im Wesentlichen den in Kapitel 9 skizzierten Methoden, nämlich die Definition eines erwarteten Leistungsniveaus, die Überwachung der tatsächlich erreichten Leistung und die Analyse der Abweichungen, um die Verantwortung aufzuzeigen und geeignete Maßnahmen zur Korrektur der Situation und zur Beseitigung der Ursachen zu ergreifen .;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-16342-7_8 bdbba06836738a4cac027e949ac6a363;de;;;5.2.;;;Neoklassische, keynesianische und heterodoxe Ökonomen über den Niedergang des Marktes Da sie immer eine vom historischen Materialismus geprägte Perspektive eingenommen und sich auf die kapitalistische Produktionsweise konzentriert haben, ist es nicht verwunderlich, dass Schriftsteller mit marxistischem Hintergrund die systematischsten und schlüssigsten Analysen des Niedergangs des Marktes erstellten. Aber auch politische Ökonomen anderer Denkrichtungen deckten viel von diesem Thema ab und nahmen manchmal eine ähnliche materialistische Perspektive ein. In diesem Kapitel besprechen wir einige prominente Beispiele. Wir beginnen mit Friedrich von Hayek und Joseph Schumpeter, klassischen liberalen Theoretikern, wenn auch mit starken konservativen Neigungen, die in den 1940er Jahren viel von der Gültigkeit der Marxschen Prognose akzeptierten, sie aber bitter bereuten. Dann bewerten wir die Arbeit institutioneller Ökonomen in den Vereinigten Staaten, die von den 1930er bis in die 1970er Jahre die weitreichenden Auswirkungen des Aufstiegs der Großkonzerne nachzeichneten. In den folgenden Abschnitten beschäftigen wir uns mit ziemlich ähnlichen Ideen im Werk von John Maynard Keynes sowohl vor als auch nach der Veröffentlichung des;-;-;-;https://link.springer.com/chapter/10.1057/9780230583924_5 47e268c7d40338430c773d77adb1007f;de;;;5.2.;;;Nietzsche und das Erkenntnisproblem Es gibt vielleicht keinen deutlicheren Hinweis auf den zugrunde liegenden Charakter der modernen philosophischen Tradition als die Tatsache, dass sie an den Philosophen die Forderung nach einer Erkenntnistheorie stellt. Ist dies vielleicht eine exorbitante Forderung, diese Forderung nach Wissen des Wissens, nach Anwendung des Wissens auf sich selbst?;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-3197-4_8 eabef61a896d5cf78f56c05e7609ad7f;de;;;5.2.;;;Pflege des sterbenden Patienten im Krankenhaus Trotz des Aufkommens von Hospizen im ganzen Land ist bekannt, dass ein höherer Prozentsatz von Krebspatienten im Krankenhaus als im Hospiz oder zu Hause stirbt (OPCS, 1980).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-3376-8_17 2fb1ead763c74d701dead7c298e7c844;de;;;5.2.;;;Ein effizienter Clustering-Ansatz für große Dokumentensammlungen Eine große Menge unstrukturierter Textdaten, wie wissenschaftliche Publikationen, kommerzielle Berichte und Webseiten, müssen schnell in verschiedene semantische Gruppen eingeteilt werden, um die Online-Informationsabfrage zu erleichtern. Allerdings leiden die Clustering-Verfahren nach dem Stand der Technik unter der enormen Größe von Dokumenten mit hochdimensionalen Textmerkmalen. In diesem Beitrag schlagen wir einen effizienten Clustering-Algorithmus für große Dokumentensammlungen vor, der das Clustering in drei Stufen durchführt: 1) durch Verwendung eines Permutationstests werden die informativen Themenwörter identifiziert, um die Merkmalsdimension zu reduzieren, 2) Auswahl einer kleinen Anzahl der meisten typische Dokumente zum Durchführen von anfänglichem Clustering 3) Verfeinern des Clusterings für alle Dokumente. Der Algorithmus wurde mit den 20 Newsgroup-Daten getestet und experimentelle Ergebnisse zeigten, dass dieser Ansatz im Vergleich zu den Methoden, die Korpus basierend auf allen Dokumentenproben und vollständigen Features direkt clustern, den Zeitaufwand in einem Auftrag signifikant reduziert und gleichzeitig die Clustering-Qualität leicht verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/11527503_29 1cedae984c1f43af608a92e7247d262c;de;;;5.2.;;;Verwenden der Kontextsuche für die Organisation Wissenschaftliche Forschungsaktivitäten Der Artikel diskutiert einen Ansatz zur Koordinierung universitärer wissenschaftlicher Aktivitäten unter Verwendung von kontextueller Suche und kontextueller Wissensextraktion. Für die Umsetzung des vorgeschlagenen Ansatzes verwenden die Autoren eine E-Bibliothek «Humanitariana» mit Diensten der kontextuellen Suche, verschiedenen Arten von Abfragen, automatisierter Extraktion von Wissen aus wissenschaftlichen Texten. Der Vorteil der Verwendung von «Humanitariana» liegt in der Möglichkeit, die Ressourcen mehrerer Organisationen zu kombinieren, die im lokalen Netzwerkmodus und in einer verteilten IT-Umgebung arbeiten können, mit der Möglichkeit, alle Ressourcen von jedem Server der teilnehmenden Organisationen anzusprechen. Der Ansatz wurde im Rahmen der Anfertigung von Masterarbeiten in „Angewandter Informatik“ (ITMO University) und wissenschaftlich-explorativer Forschung (Soziologisches Institut der RAS) erstellt und erprobt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49700-6_38 d1aa7f0c7638fdb77cc946a0c9fb5557;de;;;5.2.;;;Die Revolution Die Probleme kamen früher als Harold Saunders erwartet hatte und mit einer Heftigkeit, die niemand kommen sah. Am 20. August wurden im Rex-Kino in Abadan vierhundertdreißig Iraner bei lebendigem Leib verbrannt. Die iranischen Behörden beeilten sich, die Opposition für das Massaker verantwortlich zu machen, und innerhalb weniger Tage nahm die Polizei von Abadan zehn Personen fest, die beschuldigt wurden, das Feuer begangen zu haben. Fünf von ihnen gestanden schließlich. Die iranische Opposition beschuldigte jedoch die Sicherheitskräfte, das Feuer inszeniert zu haben. Oppositionsgruppen bevorzugten Kinos als Ziel von Vandalismus, weil sie sie für unislamisch und blasphemisch hielten, aber keiner der Angriffe war jemals so weit gegangen, Zuschauer zu töten. Khomeini erklärte, dass kein frommer Muslim das Abadan-Feuer hätte verüben können und wies auf den Schah als letztendlichen Verursacher hin. Khomeini lobte die Opfer des Rex-Kinos sogar als Märtyrer der Revolution, die „die Wurzeln des Baumes des Islam mit ihrem Blut begossen“ hatten.;-;-;-;https://link.springer.com/chapter/10.1057/9781137598738_7 08dc5b566c222f2da2f533e510de3273;de;;;5.2.;;;Glossolalia und Glossographia Vermutungen über Hildegards glossolische Tendenzen waren eine frühe Reaktion auf die Entdeckung der Lingua, aber sie sind merkwürdig hartnäckig. In seinem Artikel von 1931 versucht Paul Alphandéry, Hildegards Lingua in die Kategorie des Glossolalic einzuordnen, stellt jedoch fest, dass dies einige Probleme aufwirft.;-;-;-;https://link.springer.com/chapter/10.1057/9780230610057_3 f75b092b8c8b5a2ec0c94f7e2a74fb2f;de;;;4.2.;;;Proxemik-Messung während der Therapie sozialer Angststörungen mit einem RGBD-Sensornetzwerk In diesem Artikel konzentrieren wir uns auf die Entwicklung einer neuen ökologischen Methodik zur Untersuchung des proxemischen Verhaltens. Wir basierten unseren Ansatz auf einem Netzwerk von RGBD-Kameras, die gemeinsam kalibriert wurden. Die Verwendung dieser Art von Sensoren ermöglicht es uns, eine 3D-Multiview-Aufnahmeinstallation zu erstellen, die in verschiedenen natürlichen Umgebungen funktioniert. Die Skelett-Tracking-Funktionalitäten, die von den multiplen 3D-Daten bereitgestellt werden, sind ein nützliches Werkzeug, um proxemische Beobachtungen durchzuführen und diese nonverbalen Hinweise automatisch zu codieren. Unser Ziel ist es, einen neuen Ansatz zur Untersuchung des proxemischen Verhaltens von Patienten mit sozialer Angststörung vorzuschlagen, um die Beobachtungsfähigkeit des Therapeuten mit einem unauffälligen, ökologischen und präzisen Messsystem zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03590-1_8 fd6e320c11bfef02bdd271a0da34b2cc;de;;;5.2.;;;Ein Schritt zur automatisierten Gestaltung von Seitenbewegungen beim Spritzgießen komplexer Teile Nebenwirkungen tragen zu den Formkosten bei, indem sie zu zusätzlichen Herstellungs- und Montagekosten führen sowie die Formzykluszeit erhöhen. Daher erfordert die Erzeugung von Formen von Nebenwirkungen die Lösung eines komplexen geometrischen Optimierungsproblems. Abhängig von unterschiedlichen Gießszenarien (z. B. Prototypenbau im Vergleich zu großen Produktionsserien) können unterschiedliche Zielfunktionen erforderlich sein. Die manuelle Gestaltung von Nebenaktionen ist eine anspruchsvolle Aufgabe und erfordert viel Know-how. Die automatisierte Konstruktion von Seitenbewegungen wird die Vorlaufzeiten für die Werkzeugkonstruktion erheblich verkürzen. Dieses Papier beschreibt Algorithmen zum Generieren von Formen von Nebenaktionen, um eine anpassbare Formkostenfunktion zu minimieren.;-;-;-;https://link.springer.com/chapter/10.1007/11802914_35 21b7dfb82d58cfe30231f2132afbed22;de;;;5.2.;;;DISDi: Diskontinuierliche Intervalle in der Untergruppenerkennung Das Untergruppen-Entdeckungsproblem zielt darauf ab, aus Daten eine Untermenge von Objekten zu identifizieren, die interessante Eigenschaften gemäß einem für ein Zielattribut definierten Qualitätsmaß aufweisen. Hauptansätze in diesem Bereich gehen implizit davon aus, dass optimale Untergruppen aus kontinuierlichen Intervallen hervorgehen. In diesem Papier schlagen wir einen neuen Ansatz namens DISDi vor, um Untergruppen in numerischen Daten zu extrahieren, deren Originalität darin besteht, nach Untergruppen auf diskontinuierlichen Attributintervallen zu suchen. Die Intuition hinter diesem Ansatz ist, dass disjunkte Intervalle eine Verfeinerung der Definition von Untergruppen und damit der Qualität der identifizierten Untergruppen ermöglichen. Im Gegensatz zu den Hauptalgorithmen auf diesem Gebiet liegt die Neuheit unseres Vorschlags in der Art und Weise, wie er die Intervalle der Attribute während des Untergruppenforschungsprozesses aufschlüsselt. Der Algorithmus begrenzt auch die Erkundung des Suchraums, indem er die Abschlusseigenschaft ausnutzt und einige Zweige kombiniert. Die Effizienz des Vorschlags wird durch den Vergleich der Ergebnisse mit zwei Algorithmen demonstriert, die Referenzen im Bereich mehrerer Benchmark-Datensätze darstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-75018-3_32 c3be7cf5f88f4241fba1970c31690eaf;de;;;4.2.;;;Der Einfluss individueller Ethik auf Reaktionen auf potenziell invasive HR-Praktiken In den letzten Jahren haben die Praktiken von Arbeitsorganisationen zunehmend Bedenken hinsichtlich der Privatsphäre des Einzelnen bei der Arbeit aufgeworfen. Es ist klar, dass die Menschen Privatsphäre in ihrem Privatleben erwarten und schätzen. Inwieweit jedoch die Wahrnehmung der Privatsphäre die Arbeitseinstellung des Einzelnen beeinflusst, ist weniger klar. Die Forschung hat untersucht, inwieweit sich die Wahrnehmung der Privatsphäre der Mitarbeiter von den Merkmalen der Programme selbst ableitet. Es gibt jedoch nur wenige Forschungsergebnisse, die untersuchen, wie die Eigenschaften des einzelnen Mitarbeiters die Wahrnehmung dieser Programme beeinflussen können. In dieser Studie wollen wir dieses Thema beleuchten, indem wir untersuchen, wie die individuelle ethische Orientierung der Mitarbeiter die Wahrnehmung einer Vielzahl von Personalprogrammen beeinflusst, die das Potenzial haben, als invasiv wahrgenommen zu werden. Die Ergebnisse zeigen, dass ethische Orientierung direkte Auswirkungen auf die wahrgenommene Invasivität von Programmen hat und sowohl direkte als auch indirekte Auswirkungen auf die wahrgenommene Angemessenheit von Programmen hat. Implikationen für die Forschung und für Manager, die datenschutzbezogene Programme annehmen, werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s10551-006-9247-6 a695268e1c1393a84f66f4ca91157c18;de;;;4.2.;;;Fuzzy-Methoden beim Image-Mining In diesem Beitrag wird der Einsatz weicher Methoden beim Image Mining vorgestellt. Image Mining betrachtet die Kette von der Objektidentifikation über natürliche oder vom Menschen verursachte Prozesse, von Fernerkundungsbildern über Modellierung, Verfolgung einer Reihe von Bildern und Vorhersagen bis hin zur Kommunikation mit Interessengruppen. Besondere Aufmerksamkeit wird dem Image-Mining für vage und unsichere Objekte gewidmet. Aspekte des Up- und Downscalings werden angesprochen. Darüber hinaus betrachten wir in diesem Papier sowohl die räumliche Interpolation als auch die Entscheidungsfindung. Die Arbeit wird mit mehreren Fallstudien illustriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14755-5_10 5178bf9376809e5f9c37fcaf8f28b688;de;;;5.2.;;;Schätzung des Modifikationsverhältnisses für eine Kategorie der adaptiven Steganographie In diesem Beitrag wird die Detektion der adaptiven Bildsteganographie untersucht. Zuerst wird das Musterpaaranalysemodell des Ersetzens mehrerer niedrigstwertiger Bits (MLSB) analysiert, und die Bedingungen, unter denen die adaptive Steganographie über dieses Modell erfasst werden kann, werden angegeben. Für die Kategorie der adaptiven Steganographie, die diese Bedingungen erfüllt, wird ein allgemeines quantitatives Steganalyseverfahren basierend auf spezifischen Bereichen und Probenpaaranalysen vorgestellt. Dann werden für eine typische adaptive Steganographie einige konkrete Verfahren vorgeschlagen, um spezifische Bereiche und Spurensätze von Probenpaaren auszuwählen und die Stego-Modifikationsverhältnisse zu schätzen. Experimentelle Ergebnisse zeigen, dass die vorgeschlagenen Methoden das Stego-Modifikationsverhältnis genau abschätzen können. Dies bestätigt die Gültigkeit der vorgeschlagenen allgemeinen quantitativen Steganalyse-Methode.;-;-;-;https://link.springer.com/article/10.1007/s11432-010-4105-7 bdffc7f58cd70c69354fe4e266c3ec3b;de;;;5.2.;;;Überprüfung der Gültigkeit von Gemeinschaftsakten Der Überprüfung der Gültigkeit von Gemeinschaftsakten durch den Gerichtshof nach Artikel 177 EWG-Vertrag wurde bisher seltsamerweise relativ wenig Aufmerksamkeit geschenkt. Zwei Gründe können dieses mangelnde Interesse erklären. Zum einen wurde die Gültigkeitsprüfung häufig nur stichprobenartig im Rahmen einer allgemeinen Diskussion des Artikels 177 untersucht, die sich vor allem auf die Frage der Auslegung von Gemeinschaftsvorschriften konzentrierte. Außerdem wurde seine Besonderheit manchmal übersehen, als ob beide Aspekte des Artikels 177 ein identisches Problem aufwerfen würden, das durch den Vertrag in gleicher Weise gelöst wurde. Zweitens – und dies mag das größere Interesse für diesen Aspekt des Artikels 177 erklären – forderten die nationalen Gerichte bis vor kurzem häufiger eine Auslegung der Gemeinschaftsvorschriften durch den Gerichtshof als eine Überprüfung der Gültigkeit eines Gemeinschaftsrechtsakts. In jüngster Zeit ist jedoch eine deutliche Zunahme von Anträgen nationaler Gerichte auf Überprüfung der Gültigkeit zu beobachten. Eine solche Überprüfung kann für das Funktionieren der Gemeinschaftsrechtsordnung sogar von größerer Bedeutung sein als eine Auslegung der Gemeinschaftsvorschriften.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-9019-0_11 612d20bb568b9b0ace092e37160668f9;de;;;4.2.;;;Der Einfluss der Raumfahrt auf die Genexpression im Gehirn von Versuchstieren Die Raumfahrt führt zu einer Reihe schwerwiegender physiologischer Kollateralveränderungen, hauptsächlich aufgrund der Mikrogravitation. Auf der Suche nach den zugrunde liegenden Mechanismen wurden viele Ansätze entwickelt, von der Mikrogravitationsmodellierung auf der Erde bis zur Erforschung im Weltraum, wobei Studien zur Gen- und Proteinexpression ein Kernstück sind. Im Gegensatz zu Knochen- und Muskelgewebe sind molekulare Veränderungen in Nervenzellen während der Raumfahrt kaum untersucht. Der Zweck dieser Übersicht besteht darin, die jüngsten Fortschritte in Studien zu Veränderungen der Gen- und Proteinexpression in Zellen des Nervensystems unter Bedingungen der Schwerelosigkeit zusammenzufassen. Diese Überprüfung wird sich weitgehend auf die Ergebnisse des Biosatelliten Bion-M1 konzentrieren. Zum ersten Mal haben wir die auf Mikrogravitation reagierenden Gene der Dopamin- (DA) und Serotonin (5-HT)-Systeme nachgewiesen: Tyrosinhydroxylase (TH), Catechol-O-Methyltransferase (COMT) und den Dopaminrezeptor ersten Typs ( D1) im nigrostriatalen System, 2A-Subtyp-Serotonin-Rezeptoren (5-HT;-;-;-;https://link.springer.com/article/10.1134/S2079059717010166 b089983a4eba6119a54551db741c97de;de;;;4.2.;;;Leben, Vernunft und Kultur in der lyrischen Prosa des Luxemburger Dichters Edmond Dune Das untere Dreieck von Salomos Siegel symbolisiert Materie, zwei Elemente, die weiblicher Natur sein sollen, Erde und Wasser. Dem Urwasser schreiben die Menschen – zum Beispiel in den Anfängen der griechischen Philosophie – die Fähigkeit zu, Leben zu gebären.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-1862-0_19 c8ff6627263ac60b8d90ce9e07cd5da1;de;;;4.2.;;;Forschung zu Wissensmanagement mit Innovationsleistung basierend auf der Perspektive der Informationstechnologie – Organisationskultur Voraussetzung für erfolgreiches KM ist es, die Mitarbeiter zu verstehen und ihre Denkweise zu übertragen, die Kultur des Wissensaustauschs zu pflegen und den Wissensaustausch in den gesamten Organisationsprozess zu integrieren, um das menschliche Potenzial in Organisationen zu nutzen, die auf der Transformation der Organisationskultur basieren . Diese Studie untersuchte den Einfluss von KM, Organisationskultur und Innovation auf die technologieproduzierende Industrie. Die Forschungsergebnisse zeigten, dass WM einen signifikanten positiven Einfluss auf die Organisationskultur hat, die Organisationskultur einen signifikanten positiven Einfluss auf die Innovationsleistung hat, WM einen signifikanten positiven Einfluss auf die Innovationsleistung hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23357-9_26 e1e40abfc89b1ee2fcead6d5da7986c3;de;;;5.2.;;;Ein Token-basierter Ansatz zum Teilen von Überzeugungen in einem großen Multiagenten-Team Die Leistung eines kooperativen Teams hängt von den Ansichten der einzelnen Teammitglieder von der Umgebung ab, in der sie tätig sind. Teams mit vielen Fahrzeugen und Sensoren generieren eine große Menge an Informationen, aus denen diese Ansichten erstellt werden. Bandbreitenbeschränkungen verhindern jedoch typischerweise eine erschöpfende gemeinsame Nutzung dieser Informationen. Mit zunehmender Teamgröße und Informationsvielfalt wird es noch schwieriger, Agenten die benötigten Informationen innerhalb der Bandbreitenbeschränkungen bereitzustellen, und es ist für die Mitglieder unpraktisch, detaillierte Informationen für jeden Teamkollegen zu verwalten. Aufbauend auf früheren tokenbasierten Algorithmen präsentiert dieses Kapitel einen Ansatz für den effizienten Austausch von Informationen in großen Teams. Der Hauptunterschied zu früheren Arbeiten besteht darin, dass dieser Ansatz Unterschiede in der Wertschätzung von Wissen und Gewissheit über Funktionen durch Agenten im Team modelliert. Indem es den durch das Netzwerk geleiteten Token ermöglicht wird, den Wert bestimmter Arten von Informationen für Regionen des Netzwerks passiv zu schätzen, ist es möglich, das Token-Routing durch die Verwendung lokaler entscheidungstheoretischer Modelle zu verbessern. Wir zeigen, dass intelligentes Routing und Stoppen die Menge an lokal nützlichen Informationen erhöhen kann, die Teammitglieder erhalten, während die Kommunikationsressourcen der Agenten effizienter genutzt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88063-9_24 418d22c24d7c98e29b6d55c5d59de7fd;de;;;5.2.;;;Policy Design als Handwerk: Policy-Design-Expertise mit einem semi-experimentellen Ansatz herauskitzeln Die Politikforschung vernachlässigt typischerweise die Rolle des einzelnen politischen Akteurs, wobei die meisten Darstellungen des Politikprozesses die Rolle von Regierungssystemen, Institutionen, Prozessen, Organisationen, organisierten Interessen oder Netzwerken mehrerer Akteure privilegieren. Die Literatur zur Politikgestaltung leidet unter ähnlichen Einschränkungen, wobei nur sehr wenige Autoren die entscheidende Arbeit des einzelnen Politikgestalters berücksichtigen oder berücksichtigen, wie dessen Fähigkeiten, Fachwissen und Kreativität bei der Gestaltungsaufgabe eingesetzt werden. Dies stellt eine erhebliche Schwäche in unserem Verständnis der Formulierung von Richtlinien dar. Dieses Papier skizziert und gibt einen Ausblick auf ein unserer Ansicht nach potenziell fruchtbares semi-experimentelles methodisches Werkzeug, um zu untersuchen, wie einzelne politische Akteure auf Wissen, Fachwissen, Intuition und Kreativität zurückgreifen, um komplexe politische Fragen zu formulieren und darauf zu reagieren. Szenariobasierte Problemlösungsübungen in Echtzeit werden verwendet, um zu untersuchen, wie politische Probleme und Lösungen von Neulingen (Politiker in der ersten Amtszeit und Bürokraten in jungen Jahren) und erfahrenen politischen Akteuren (ehemalige Kabinettsminister und hohe Beamte) formuliert und artikuliert werden untersuchen die Strategien und Ansätze, die sie als Reaktion auf spezifische Problemhinweise anwenden. Erste Ergebnisse werden diskutiert, und wir schließen mit der Weiterentwicklung möglicher Verfeinerungen des Instruments und Richtungen für zukünftige Forschungen.;-;-;-;https://link.springer.com/article/10.1007/s11077-013-9191-0 71dd1a1d7d19c08a49a52e95feb02eff;de;;;4.2.;;;Bildempfehlung für inhaltsbasiertes zweiteiliges Diagramm In letzter Zeit ziehen soziale Online-Curation-Netzwerke viele Benutzer an, da sie Multimedia-Inhalte bequem abrufen, sammeln, sortieren und miteinander teilen können. Und qualitativ hochwertige Empfehlungen in sozialen Netzwerken werden in der aktuellen komplexen Informationsumgebung dringend geboten. In diesem Papier haben wir einen inhaltsbasierten zweiteiligen Graphenalgorithmus für die Empfehlung von Social Curation Networks vorgeschlagen. Das zweiteilige Diagramm verwendet Beziehungen zwischen Benutzern und Elementen, um eine Benutzer-Element-Zuordnung für Empfehlungen abzuleiten. Über den traditionellen zweiteiligen Graphen hinaus führen wir den Inhalt von Elementen in den zweiteiligen Graphen ein, um den Empfehlungsbereich zu erweitern und gleichzeitig die Empfehlungsvielfalt zu verbessern. Darüber hinaus wird die Inhaltsähnlichkeit für das Neuranking von Empfehlungen verwendet, um die visuelle Qualität der empfohlenen Bilder zu verbessern. Experimentelle Ergebnisse zeigen, dass die vorgeschlagene Methode die Empfehlungsfähigkeit von zweiteiligen Graphen effektiv in Diversität und visueller Qualität verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8530-7_33 eb4f29a8ce125e37e15b971a31b80042;de;;;4.2.;;;Big Data Analytics: Von der Bedrohung der Privatsphäre zur Herausforderung der Demokratie Die riesige Menge an angesammelten Informationen und die Technologien, die sie speichern, verarbeiten und verbreiten, bewirken tiefgreifende Veränderungen in der Gesellschaft. Die von Internetnutzern erzeugten Datenmengen bergen große Chancen und große Herausforderungen für Politikwissenschaftler. In vielen Bereichen positiv wirkend, werden Business-Intelligence- und Analytics-Tools zunehmend für politische Zwecke eingesetzt. Pervasive Digital Tracking und Profiling in Kombination mit Personalisierung sind zu einem mächtigen Toolset geworden, um das Nutzerverhalten systematisch zu beeinflussen. Wenn sie in politischen Kampagnen oder anderen Bemühungen zur Gestaltung der öffentlichen Politik verwendet werden, verflechten sich Datenschutzfragen mit Wahlergebnissen. Die Praxis, Wähler mit personalisierten Botschaften, die an ihre Persönlichkeit und ihre politischen Ansichten angepasst sind, anzusprechen, hat bereits Debatten über politische Manipulation ausgelöst, jedoch sind Studien, die sich auf die Privatsphäre konzentrieren, noch rar. Dieses Papier konzentriert sich auf die Demokratieaspekte und identifiziert die Bedrohungen der Privatsphäre, die sich aus der Nutzung von Big-Data-Technologien für politische Zwecke ergeben, und identifiziert langfristige Auswirkungen auf die Privatsphäre, die grundlegende Merkmale der Demokratie wie faire Wahlen und politische Gleichheit aller Bürger untergraben können. Darüber hinaus argumentiert dieses Papier, dass Big-Data-Analysen die Notwendigkeit aufwerfen, alternative Narrative zum Konzept des Datenschutzes zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37545-4_1 48588c3a9900f713fa1c40437dc37f6f;de;;;4.2.;;;Breitbandiger multispektraler Raum zur Farbdarstellung Dieses Papier entwickelt einen breitbandigen multispektralen Raum für die Farbdarstellung mit dem Aitken PCA-Algorithmus. Dieser neuartige mathematische Raum, der das Breitband-Spektren-Matching-Verfahren verwendet, zielt darauf ab, die Genauigkeit der Farbdarstellung zu verbessern sowie die Kosten für die Verarbeitung und Speicherung von Multispektralbildern zu senken. Die Ergebnisse zeigen, dass der Raum unsere experimentellen Originalspektralräume (dh Munsell-Farbmatt und DIN-6164-Farbchips) mit hoher Effizienz darstellen kann und dass der Spannraum mit drei Eigenvektoren den Originalraum mit mehr als 98% CSCR darstellen kann, und wenn 5 Eigenvektoren verwendet werden, kann es fast die gesamten ursprünglichen Räume abdecken.;-;-;-;https://link.springer.com/article/10.1007/BF02826757 b86c6c23ba5e3b169d880cfa05e9f9d2;de;;;4.2.;;;Schulernüchterung umgehen: Strategien zur Förderung des Schulerfolgs School Der sonderpädagogische Förderbedarf bezieht sich nicht nur auf Schüler mit Lernbehinderungen, die ihren Zugang zu und ihre Teilnahme an Bildung beeinträchtigen. Viele andere kämpfen jeden Tag damit, in der Schule zu bleiben, sich auf den Unterricht zu konzentrieren oder einen Sinn darin zu haben, was gelehrt wird. Mehrere Schüler sind mit Leistungsschwäche und Schulabbruch konfrontiert, weil sie der Meinung sind, dass die Schule veraltet und uninteressant ist und ihre Lernbedürfnisse nicht erfüllt. Hier bieten wir einen Vorschlag an, über den oft gesprochen, aber selten in die Tat umgesetzt wird, um Schüler mit Schwierigkeiten wieder in die Schule zu bringen: Durch die Verwendung mehrerer Formen der Präsentation von Informationen und des Ausdrucks können wir Schüler ansprechen, die dynamischere und umfassendere Lernstrategien benötigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35879-1_1 a788e5fb3b1750ba30c4739a101ad8c5;de;;;4.2.;;;Mensch-Umwelt-Interaktionen: Nicht in eine Richtung … und nicht in eine Richtung In Kapitel 2 wurde diskutiert, wie die Energiedynamik zwischen unseren menschlichen Vorfahren und ihren Umweltbedingungen uns mit mehreren redundanten physiologischen Mechanismen ausgestattet hat, um uns eine ausreichende Energiebilanz für Überleben und Fortpflanzung zu gewährleisten. Wir haben auch gesehen, dass das System der Gewichts- und Energieregulierung dadurch dreifach ist;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09469-4_3 2a9882ae5d9e05f1370847014b29e598;de;;;4.2.;;;Einfluss von Familienüberlastung auf die Gestaltungsprobleme von Wohneinheiten in der Türkei Der Begriff des Crowding wird im Kontext von Wohneinheiten untersucht. Ein Überblick über die Literatur und die Analyse der Umfragen und Fallstudien in einigen Teilen der Türkei werden vorgestellt. Zur Strukturierung der konzeptionellen Crowding-Probleme und ihrer Auswirkungen auf die räumliche Umgebung wurde ein Crowding-Modell für Wohnungen entwickelt. Einflüsse auf das Engegefühl und deren Auswirkung auf Anpassungs- bzw. Veränderungsprozesse in Bezug auf Dichtewerte werden im Kontext der Wohneinheit diskutiert. Schließlich werden die Ergebnisse der Fallstudien aus der Türkei mit diesen Themen abgeglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-3599-3_24 97c921241d7effafa55a0fd19a1a730e;de;;;4.2.;;;Vom MOOC zum GOAL Die Hochschulbildung versucht, dem Ruf nach Offenheit und Internationalisierung zu entsprechen, indem sie (Teile) ihrer Lernumgebungen von stationären Universitäten in virtuelle Lernumgebungen verlagert. Dies impliziert eine andere und höhere Heterogenität und erfordert ein Bewusstsein und eine Berücksichtigung der zugrunde liegenden und oft unbewussten kulturellen Unterschiede im Verständnis von Lernen und Wissen. „Durchsätze“ (wie Interaktion, Kommunikation und Wechselbeziehungen) werden wichtiger als Inputs (Expertenwissen) und Outputs (Fertigkeiten und Kompetenzen) und erfordern Theorien, Ansätze und Konzepte, die über bloße technologische Lösungen hinausgehen, um Durchsätze sichtbar zu machen und verbesserte Prozesse des Lernens.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-42147-6_13 9bfc660c199ea0a7ad1ae4f8779a139a;de;;;4.2.;;;Unterstützung von Agenten in VMT In diesem Kapitel beschreiben wir die laufenden Arbeiten zur Ermöglichung einer dynamischen Unterstützung für kollaboratives Lernen in der Umgebung von Virtual Math Teams (VMT) unter Verwendung modernster Sprachtechnologien wie Textklassifizierung und Dialogagenten. Das Hauptforschungsziel unserer langfristigen Partnerschaft besteht darin, allgemein anwendbare Prinzipien zur Unterstützung einer effektiven kollaborativen Problemlösung experimentell zu erlernen, indem diese Technologien verwendet werden, um Verhaltensweisen wie Reflexion, Hilfesuche und Hilfeleistung hervorzurufen, die für das Lernen der Schüler in verschiedenen Gruppen produktiv sind . Unsere bisherige Arbeit hat ein integriertes System hervorgebracht, das Technologie zur dynamischen kollaborativen Lernunterstützung – die sich in früheren Labor- und Klassenzimmerstudien als effektiv erwiesen hat – für den experimentellen Einsatz in der „wilden“ VMT-Umgebung verfügbar macht.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-0228-3_19 0c1b24c76c1f359a6c8bd56cc7749fdf;de;;;4.2.;;;Die geografische Wende in der zeitgenössischen Gesundheitsforschung: Kontexte, Motivatoren, aktuelle und neue Perspektiven Dieses Kapitel gibt einen Überblick über die gegenwärtige geographische Untersuchung der Gesundheitsarbeit. Zunächst werden zentrale Transformationen im Gesundheitswesen und in der Gesundheitsversorgung „vor Ort“ untersucht, die in ihrer Entstehung, Form und Auswirkung grundlegend geographischer Natur sind und die eine geographische Forschungsperspektive als einen ausgewogenen Ausgangspunkt für ihre Berichterstattung und ihr Verständnis erfordert haben . Dazu gehören die zunehmende räumliche Verbreitung von Gesundheitsfachkräften und -rollen, der Übergang von Gesundheitseinrichtungen, die Rolle von Technologien bei der Überwindung räumlicher Beschränkungen, die zunehmende Betonung des Gemeinschafts- und Sozialmodells der Gesundheit, die Einbettung geografischer Maßstäbe und Konzepte in Politik und Verwaltung , und die Globalisierung von Arbeitsrollen und Verantwortlichkeiten. Das Kapitel fährt dann fort, zu untersuchen, wie eine Reihe akademischer Entwicklungen – auch in der Medizin-/Gesundheitsgeographie – gleichzeitig zusammengewachsen sind, um eine zusätzliche Reihe von Motivationen und Möglichkeiten für die geografische Forschung zur Gesundheitsarbeit zu bieten. Schließlich werden die wichtigsten theoretischen Traditionen und Ansätze beschrieben, die „Geographien der Gesundheitsarbeit“ als aktuelles multidisziplinäres akademisches Unternehmen und Feld konstituiert haben – einschließlich der Raumwissenschaften, der politischen Ökonomie, der sozialkonstruktivistischen/humanistischen und zuletzt der nicht-repräsentationalen Theorie Beispiele der neueren empirischen Forschung, die von jedem eingerahmt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-64179-5_2 2be37d95bb394e06e971463bdc66ba57;de;;;4.2.;;;Die Anwendung der Kulturpartikelschwarmoptimierung in der Häufigkeitsverteilung Mit der Entwicklung des Kommunikationsbereichs in den letzten Jahren nimmt die Nachfrage nach TV, Mobiltelefon-GPS usw. schnell zu, die elektromagnetische Umgebung wird immer komplexer und das Problem der Frequenzknappheit wird immer wichtiger. Im militärischen Bereich hat sich die moderne Kriegsführung zu elektronischer Kriegsführung entwickelt, elektronische Verteidigung, elektronische Interferenz und andere häufig verwendete Taktiken werden zum Hauptmittel der Kriegsführung. Wenn die Zuweisung der Spektrumsressourcen nicht richtig verwaltet wird, führt dies zum Scheitern Störungen der eigenen Ausrüstung, Verlust von Schlachtfeldinformationen, was zum Scheitern des Krieges führt. Daher ist es dringend erforderlich, das Problem der rationalen Verwaltung und Verteilung von Frequenzressourcen zu lösen. Für das Problem der Frequenzzuteilung in Festfrequenzsystemen stellt dieser Beitrag unter Berücksichtigung der Unzulänglichkeiten der bisherigen heuristischen Algorithmen (genetischer Algorithmus, Partikelschwarmalgorithmus usw.), die sich einfach im Bevölkerungsraum entwickeln, einen Kulturpartikelschwarmoptimierungsalgorithmus basierend auf dem Kulturalgorithmus des zweischichtigen Evolutionsmodells und beweist, dass die Methode durch Simulation eine bessere Leistung aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6264-4_125 6ff4834c9478e960334f0e94babfdc72;de;;;5.2.;;;Dynamischer evolutionärer Membranalgorithmus in dynamischen Umgebungen Mehrere Probleme, denen wir uns in der Realität gegenübersehen, sind dynamischer Natur. Zur Lösung dieser Probleme wird ein neuartiger dynamischer evolutionärer Algorithmus basierend auf Membran-Computing vorgeschlagen. In diesem Papier wird die Partitionierungsstrategie verwendet, um den Suchraum aufzuteilen, um die Sucheffizienz des Algorithmus zu verbessern. Darüber hinaus werden die vier Arten von evolutionären Regeln eingeführt, um die Vielfalt der durch den vorgeschlagenen Algorithmus gefundenen Lösungen aufrechtzuerhalten. Die Leistung des vorgeschlagenen Algorithmus wurde über den Standard-Benchmark für bewegliche Spitzen bewertet. Die Simulationsergebnisse zeigen, dass der vorgeschlagene Algorithmus zur Lösung dynamischer Optimierungsprobleme machbar und effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37198-1_13 4e3a9b4e08fe63eb2ce63925bbed475b;de;;;5.2.;;;Verbesserung der Beurteilungssicherheit in sozialen Netzwerken durch Jurytheoreme Meinungsaggregatoren – wie „Gefällt mir“- oder „Retweet“-Zähler – sind auf Social-Media-Plattformen allgegenwärtig und werden oft als implizite Qualitätsbewertungen des Beitrags behandelt, der geliked oder retweetet wurde, wobei eine höhere Anzahl eine höhere Qualität anzeigt. Viele dieser Aggregatoren sind Evaluatoren von schlechter Qualität, da sie Störungen der Bedingungen für positive Weisheitseffekte ermöglichen. Dieses Papier schlägt ein Design von theoretisch begründeten Aggregatoren vor, die die Beurteilungszuverlässigkeit verbessern. Indem wir Zustände von Diffusionsprozessen in sozialen Netzwerken als implizite Abstimmungsszenarien interpretieren, spezifizieren wir Verfahren zur Isolierung von Sets unabhängiger Wähler, um mithilfe von Jurytheoremen die Zuverlässigkeit von Netzwerkzuständen als Qualitätsbewerter zu quantifizieren. Da reale Netzwerke dazu neigen, sehr groß zu werden und Unabhängigkeitstests rechenintensiv sind, besteht ein Hauptziel darin, die Anzahl solcher Tests zu begrenzen. Wir betrachten fünf Prozeduren, von denen jede einen Grad an Zuverlässigkeit gegen Effizienz eintauscht, wobei die effizienteste eine polynomielle Anzahl von Tests mit niedrigem Grad erfordert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-60292-8_17 6759fc9199bd8f3e670526ab8586efb6;de;;;4.2.;;;Finanzielle Anreize der öffentlichen Hand für Unternehmensverlagerungen und Effektivitätsmaßnahmen basierend auf Unternehmensprofil und geografischer Zone Beeinflussen öffentliche Finanzanreize noch Standort- und Standortentscheidungen? Hier werden empirische Erkenntnisse aus drei Regionalpolitiken in drei Regionen Frankreichs untersucht. In dieser Studie werden verschiedene Arten der Standortmodellierung vorgeschlagen, sowohl ältere als auch modernere Kostenminimierungsmodelle. Außerdem schlagen wir einen empirischen Test vor, um die Wirksamkeit öffentlich-finanzieller Anreize für Standort- und Standortentscheidungen anhand von Profilen von 301 Unternehmen aus drei französischen Regionen zu ermitteln. Unsere Ergebnisse unterstreichen, dass in diesem Fall Subventionen nicht die Dynamik des selbsttragenden territorialen Aufbaus auslösen. Dieser Befund erweist sich für Kern- und Zwischenregionen als weniger schädlich als für abgelegene Regionen (wie das Limousin). Diese Ergebnisse könnten die Prämisse bestätigen, dass innovative Unternehmen die Vorteile technologiebasierter Externalitäten, die größtenteils implizites Wissen verkörpern, gegenüber der positiven Wahrnehmung von Fördervergaben bevorzugen sollten. Die einfachen finanziellen öffentlichen Standortanreize der Vergangenheit sollten neu in Frage gestellt werden.;-;-;-;https://link.springer.com/article/10.1007/s00168-008-0223-1 240e151a0aa20aac30ec891ae00175f7;de;;;4.2.;;;Veranstaltungsorganisationssystem zur Wahlbeteiligungsschätzung mit Benutzergruppenanalysemodell Es wird allgemein beobachtet, dass die meisten Veranstaltungen über soziale Internetdienste organisiert werden. Auch die Schätzung der Besucherzahlen einer Veranstaltung spielt eine wichtige Rolle für die erfolgreiche Organisation der Veranstaltung. Bisher stand das persönliche Profil eines Nutzers im Vordergrund, um vorherzusagen, ob er an der Veranstaltung teilnehmen würde oder nicht. Aber es gab eine minimale Konzentration auf andere Benutzerverhalten, die in derselben Gruppe sind. Daher besteht eine faire Chance, dass ein Benutzer von anderen Benutzern in derselben Gruppe beeinflusst werden kann. In diesem Papier entwickeln wir einen sozialen Netzwerkdienst, der es einer Gruppe von Benutzern ermöglicht, über die vom Veranstaltungsmanager organisierten Veranstaltungen informiert zu werden, und wir implementieren auch ein neuartiges Framework zur Schätzung oder Vorhersage der Teilnahme jedes Benutzers an einer entsprechenden Veranstaltung. Darüber hinaus wurde diese Methodik mit einem speziell entwickelten Tool entwickelt und die Leistung mit einem vorhandenen Datensatz getestet. Diese experimentelle Studie lieferte gute Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5400-1_66 f6444672085de0433b9ea77924d6bbf0;de;;;4.2.;;;Nutzung mobiler Technologie, um sowohl den Wettbewerb als auch die Zusammenarbeit in einem MINT-Studentenkurs zu verbessern In diesem Manuskript diskutieren wir den Einsatz mobiler Technologie in einem MINT-Kurs, um sowohl den Wettbewerb als auch die Zusammenarbeit zwischen Studenten im Grundstudium zu fördern. Wir haben einen kompletten Kurs rund um die Google Online Marketing Challenge entwickelt, einen weltweiten Wettbewerb für Keyword-Werbung. Ein Wettbewerb ist eine effektive Strategie, um einen Kurs zu strukturieren, motiviert die Studierenden und bietet einen integrierten Bewertungsmechanismus dafür, wie die Studierenden im Vergleich zu anderen abschneiden. Der Gedanke eines Wettbewerbs darf jedoch nicht zu weit gehen, denn Lernen ist auch ein kooperatives Ereignis. Um sowohl Konkurrenz als auch Kooperation zu nutzen, haben wir eine mobile App entwickelt, über die die Studierenden auf eine ortsbezogene und sozial vernetzte Lernhilfe zugreifen können. Die Idee war, das Kursmaterial ortsunabhängig zugänglich zu machen und die Interaktion zwischen den Studierenden 24 × 7 zu ermöglichen. Die Studierenden trugen auch zum Kurs bei, indem sie Materialien teilten und mit den von anderen Studierenden geposteten Materialien über Likes und Kommentare interagierten. Die studentische Kontextsammlung und Annotation hat bereits den Ausgangspunkt für den Kurs verbessert, wenn er weiter unterrichtet wird. Auch die Qualität der fertigen Produkte der Studierenden hat sich deutlich verbessert. Von den 16 Teams im Kurs waren 3 Teams in den Top 15 Teams weltweit, viele der anderen Teams in den Top 10 % der Teams weltweit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03656-4_15 28508b9e0bad138f1c9ec3f6055c952e;de;;;5.2.;;;Einige konzeptionelle Fragen zur Feststellung von Quantenproblemen in der Theorie der Molekülstruktur und -umwandlungen Einige konzeptionelle Fragen werden im Zusammenhang mit der Darstellung von Quantenproblemen in der Theorie der Molekülstruktur und -eigenschaften diskutiert. Es wird betont, dass die Analyse komplexer Systeme ergänzende Informationen aus anderen Wissenschaftsbereichen benötigt, um die Problemstellung zu verfeinern. Es wird gezeigt, dass die Aussagen von Quantenproblemen, die sie für die Vorhersage praktisch anwendbar machen, nur aus einer Kombination von Operator (Differentialgleichungen) und Matrixformalismus resultieren können, während diese Ansätze eher komplementär als äquivalent sind. Eine natürliche Struktur von vibronischen Wellenfunktionen wird in Form einer Linearkombination wohldefinierter Basisfunktionen vorgeschlagen.;-;-;-;https://link.springer.com/article/10.1007/s10947-010-0090-3 30754851f4aadfd11796927e77cf6497;de;;;5.2.;;;Qualifikationsanforderungen für Cyber-Sicherheitsexperten: Eine Inhaltsanalyse von Stellenbeschreibungen in Südafrika Da die Cyberkriminalität aufgrund der Verbesserung der Technologien rasant zunimmt, ist die Cybersicherheit zu einem globalen Thema geworden. Cybersicherheitsexperten schützen Unternehmen vor Cyberkriminalität und anderen Cyberbedrohungen. Der Fachkräftemangel hat die Nachfrage nach Cyber-Sicherheitsexperten erhöht. Diese Forschungsstudie untersucht die Fähigkeiten, Kenntnisse und Qualifikationsanforderungen, die an einen Cyber ​​Security Professional in Südafrika gestellt werden. Es wurden 196 einzigartige Stellenanzeigen von 5 Jobportal-Websites gesammelt. Eine Inhaltsanalyse der Anzeigen zeigt, dass Cyber-Security-Profis unter anderem technische und zwischenmenschliche Fähigkeiten benötigen. Organisationen, die Cybersicherheitsexperten einstellen möchten, verlangen von den meisten Fachleuten einen Bachelor-Abschluss in Informatik, Informationssystemen oder Ingenieurwesen als Mindestqualifikation sowie Branchenzertifizierungen. Dieses Papier ist eine erste explorative Studie, die als Grundlage für zukünftige spezifischere Studien dienen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-11407-7_13 4defd34a27ae93006838838892a6df6c;de;;;5.2.;;;Bewertung der Nützlichkeit visueller Funktionen zur Unterstützung der Dokumententriage Eine von vielen Herausforderungen für Benutzer digitaler Bibliotheken ist die schnelle und einfache Identifizierung relevanter Dokumente sowie deren effektive Nutzung – ein Prozess, der als bezeichnet wird;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67008-9_35 9b1199d34c7de27f76edff77cd7a7bed;de;;;5.2.;;;Berechnung von ungefähren Lösungen des Maximum Covering Problems mit GRASP Wir betrachten das Maximum-Covering-Problem, ein kombinatorisches Optimierungsproblem, das bei vielen Facility-Location-Problemen auftritt. Bei diesem Problem deckt ein potenzieller Einrichtungsstandort eine Menge von Bedarfspunkten ab. Jedem Nachfragepunkt ordnen wir ein nichtnegatives Gewicht zu. Die Aufgabe besteht darin, eine Teilmenge von auszuwählen;-;-;-;https://link.springer.com/article/10.1023/A%3A1009677613792 0592a80d5caa4f6535547c95b43c541e;de;;;4.2.;;;Faktorenstruktur und diskriminierende Validität des Eyberg Child Behavior Inventory bei Kleinkindern Diese Studie untersuchte die Faktorenstruktur und diskriminative Validität des Eyberg Child Behavior Inventory (ECBI) mit gemeindenahen und klinikbezogenen Stichproben von Kleinkindern (2–6 Jahre). In der Gemeinschaftsstichprobe zeigte die konfirmatorische Faktorenanalyse eine Drei-Faktoren-Struktur mit Komponenten, die unaufmerksames, oppositionelles trotziges und Verhaltensproblem-Verhalten widerspiegeln. In der Klinikstichprobe unterschieden die Komponentenwerte Kinder mit spezifischen Verhaltensproblemen von Kindern ohne signifikante externalisierende Symptome. Die Komponentenbewertungen unterschieden sich jedoch nicht innerhalb des Externalisierungsspektrums. Die Daten deuten darauf hin, dass ECBI-Komponenten nützlich sein können, um gemeindenahe und in die Klinik überwiesene Kleinkinder auf externalisierende Symptome zu untersuchen, aber weniger nützlich sein könnten, um Kinder mit spezifischen Verhaltensproblemen zu identifizieren.;-;-;-;https://link.springer.com/article/10.1007/s10862-005-2407-7 83cf7417a90e2f5488d0176e2c5e2d5a;de;;;4.2.;;;Königliche Zeit unter der Herrschaft von Juan II. von Kastilien (1406-1454) Bezüglich des Begriffs „Monarchie“ ist zu beachten, dass die königliche Hoheit in Kastilien im Spätmittelalter nicht allein beim König lag.;-;-;-;https://link.springer.com/chapter/10.1057/9781137362834_9 243897af02db0d7822b48feb612387a5;de;;;5.2.;;;Schwingungsstabilität von Sternen im thermischen Ungleichgewicht: Eine Lösung in Bezug auf asymptotische Ausdehnungen Die Lösung der partiellen Differentialgleichung, die die „nichtisentropen“ Schwingungen eines Sterns im thermischen Ungleichgewicht beschreibt, wurde in Form von asymptotischen Ausdehnungen bis zur ersten Ordnung im Parameter obtained erhalten;-;-;-;https://link.springer.com/article/10.1007/BF00646018 153a73c9118e0550f5dc3da986819921;de;;;5.2.;;;Erweiterung der Beschreibung des Zellzyklus-Gennetzwerks basierend auf der Vorhersage potenzieller Bindungsstellen für den E2F-Transkriptionsfaktor Die Annotation wissenschaftlicher Arbeiten mit der GeneNet-Technologie ermöglichte die Rekonstruktion des Gennetzwerks, das den Zellzyklus reguliert (den G1/S-Übergang). Um das Netzwerk zu erweitern, suchten wir nach potentiellen Bindungsstellen für den E2F-Transkriptionsfaktor in Promotorregionen von Genen, deren Expression von der Zellzyklusphase abhängt, jedoch fehlt jeglicher experimentelle Beweis für das Vorhandensein von E2F-Bindungsstellen. Neue potenzielle Zielgene für den E2F-Faktor wurden gefunden. Produkte dieser Gene sind an der DNA-Replikation und Zellzyklusregulation sowie an der Chromatinkompaktierung, Reparatur und Apoptose beteiligt. Die Kombination von GeneNet-kompilierten Daten mit den Ergebnissen der Vorhersage neuer potenzieller E2F-Stellen in regulatorischen Regionen bereicherte das rekonstruierte Zellzyklus-Gennetzwerk mit neuen regulatorischen Verknüpfungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-7152-4_29 0678d813ec58acacaae5cb8aed0bf259;de;;;5.2.;;;Vielfalt von Objekten als Parameter für das Experimentieren: Eine Erweiterung der induktiven Logik von Carnap Eine Erweiterung von Carnaps λ-System der induktiven Logik wird entwickelt, basierend auf einem Parameter, der die Vielfalt von Hypotheseninstanzen misst, θ. Es werden neue Axiome der induktiven Wahrscheinlichkeit aufgestellt, die zum λ-θ-System führen. Basierend auf diesem System wird der Begriff der Information eines Experiments definiert. Eine epistemische Experimentierregel wird betrachtet, aber abgelehnt, und weicht einer Regel, die sowohl auf Informationen als auch auf dem (nicht-informativen) Wert eines Experiments basiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-2259-0_15 948d823a805a30cfd4c8ff8f50ae7a42;de;;;4.2.;;;Der organisatorische und funktionale Rahmen, wie er vom Völkerbund zum Zweck der Kontrolle der Herstellung von sowie des Handels und des Handels mit Drogen entwickelt wurde Artikel 23 Absatz (c) des Völkerbundsvertrages betraute den Völkerbund mit der Aufgabe der allgemeinen Aufsicht über den Handel mit Opium und anderen gefährlichen Drogen. Artikel 2 des Paktes sah vor, dass „die Maßnahmen des Völkerbundes im Rahmen des Paktes durch eine Versammlung und einen Rat mit einem ständigen Sekretariat durchgeführt werden“. Artikel 3 Absatz 3 des Paktes gab der Völkerbundversammlung umfassendere Befugnisse, indem er sie ermächtigte, „bei ihren Sitzungen mit jeder Angelegenheit zu befassen, die in den Wirkungsbereich des Völkerbundes fällt oder den Weltfrieden berührt“. Artikel 4 Absatz 4 des Paktes ermächtigte den Völkerbundsrat auch, „bei seinen Sitzungen mit jeder Angelegenheit zu befassen, die in den Wirkungsbereich des Völkerbundes fällt oder den Weltfrieden berührt“. Die Tätigkeitsbereiche der Versammlung und des Rates gemäß den Artikeln 3 und 4 des Paktes scheinen identisch zu sein, aber ihre Tätigkeiten waren ihrer Natur nach nicht gleich. Da es keine klare Abgrenzung zwischen den Funktionen der Versammlung und des Rates gab,;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-9263-7_3 72c08bb72e5cdbd1bcc144fa2dba76da;de;;;4.2.;;;Ein Simulationsmodell der regionalen demoökonomischen Entwicklung in Nordrhein-Westfalen: Theorie, Struktur und Kalibrierung Dieser Beitrag berichtet über die Ergebnisse eines Projekts, das untersucht hat, wie sich wirtschaftlicher, technischer und sozialer Wandel auf die Entwicklung regionaler Siedlungssysteme im Rahmen von Migrations- und Investitionsentscheidungen bezieht. Dazu wurde ein mehrstufiges dynamisches Simulationsmodell entwickelt, bestehend aus (1) einem makroanalytischen Modell der demoökonomischen Entwicklung in 34 Arbeitsmarktregionen in Nordrhein-Westfalen, (2) einem mikroanalytischen Modell intraregionaler Standort- und Migrationsentscheidungen in 30 Zonen der Stadtregion Dortmund und (3) ein mikroanalytisches Modell der Landnutzungsentwicklung in einem oder mehreren Dortmunder Stadtteilen. Zur allgemeinen Struktur dieses dreistufigen Modellsystems siehe Wegener (1980) und Wegener;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-6893-6_11 99dc22d30ac6e5722ff7385c89fae9a4;de;;;5.2.;;;Der Computer als Partner in der Pflegepraxis: Implikationen für die Lehrplanänderung Die Literatur zur Pflegepädagogik ist voll von Vorschlägen zur Verbesserung des Curriculums. Es wurden Veränderungen im Paradigma der Curriculumentwicklung vorgeschlagen (Bevis & Watson, 1989) sowie spezifische inhaltliche Veränderungen als Reaktion auf den demografischen Wandel, sich ändernde Gesundheitssysteme und die sich entwickelnde Rolle der Pflege. Neben inhaltlichen und prozessualen Fragen des Curriculums wurde in der Literatur die Verwendung des Computers sowohl für den Unterricht als auch für das Testen beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-46746-2_27 ca3de0a1d72809166bdd10038a43020a;de;;;4.2.;;;Validierung und Verifikation in der Sozialsimulation: Muster und Begriffsklärung Die Begriffe „Verifikation“ und „Validierung“ sind in der Wissenschaft weit verbreitet, sowohl in den Natur- als auch in den Sozialwissenschaften. Sie werden häufig in der Simulation verwendet, was oft mit der Notwendigkeit verbunden ist, Modelle in verschiedenen Phasen des Simulationsentwicklungsprozesses zu evaluieren. Häufig treten terminologische Mehrdeutigkeiten auf, wenn Forscher während des Simulationsentwicklungsprozesses die technischen Bedeutungen beider Begriffe mit anderen wissenschaftstheoretischen und sozialwissenschaftlichen Bedeutungen verschmelzen. Dieser Artikel betrachtet das Problem der Verifikation und Validierung in der sozialwissenschaftlichen Simulation aus fünf Perspektiven: Die Gründe, terminologische Fragen in der Simulation zu behandeln, die Bedeutung der Begriffe im philosophischen Sinne des Problems der „Wahrheit“, die Beobachtung, dass einige Debatten darüber Begriffe in der Simulation versehentlich eher terminologisch als erkenntnistheoretisch sind, die Bedeutung der Begriffe im technischen Kontext des Simulationsentwicklungsprozesses und schließlich eine umfassende Darstellung des Zusammenhangs zwischen der in der Simulation verwendeten Terminologie, den verschiedenen im Entwicklungsprozess verwendeten Modelltypen und verschiedene erkenntnistheoretische Perspektiven.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01109-2_9 b1b1618373b09ae8badc24d943c3df74;de;;;5.2.;;;Aufzählen von Triangulationen für Produkte zweier Simplizes und für beliebige Punktkonfigurationen Produkte von zwei Simplizes, unser erstes Objekt, sind ziemlich einfache Polytope, aber ihre Triangulationen sind noch nicht gut verstanden. Da diese Polytope hochsymmetrisch sind, ist es ineffizient, alle Triangulationen naiv zu zählen: Wir können die „gleiche“ Triangulation viele Male zählen. Unser erster Algorithmus zählt die Klassen der regulären Triangulationen, eine Untermenge von Triangulationen, bezüglich der Symmetrie auf. Wir verwenden eine umgekehrte Suchtechnik, die die symmetrische Struktur des Polytops nutzt. Dies ermöglicht eine Zeitkomplexität linear zur Anzahl dieser Klassen und eine Raumkomplexität von der Größe mehrerer Triangulationen.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0045114 9cd631ef34fdf2d49105b68c94779fdf;de;;;4.2.;;;Erweiterte analytische Nutzung eines wissenschaftlichen Forums In Wirklichkeit gibt es Gruppenarbeit, insbesondere verschiedene Treffen, als eine praktikable Möglichkeit für Menschen, zu kommunizieren und zusammenzuarbeiten, um Probleme zu lösen. Verschiedene akademische Tagungen und Konferenzen dienen als wichtiger Teil des gesellschaftlichen Prozesses zum wissenschaftlichen Wissenswachstum. Es ist wichtig, mehr über die Ergebnisse dieser Treffen zu erfahren, um das Ausmaß dieser Dialoge aufrechtzuerhalten und die Politikgestaltung zu erleichtern. In diesem Beitrag werden einige erweiterte Analysemethoden auf ein berühmtes wissenschaftliches Forum über die Grenzen von Wissenschaft und Technologie in China, die Xiangshan Science Conference, angewendet, um einige ignorierte Informationen aufzudecken, die von Konferenzorganisatoren, politischen Entscheidungsträgern und Forschern dringend benötigt werden. Diese Methoden, wie Visualisierung der Expertenmeinungsstruktur, erweiterte Informationsunterstützung durch Web-Text-Mining, Clustering von eingebrachten Ideen und verschiedene Analysen zur Beteiligung des Einzelnen usw. werden in eine Gruppenargumentationsumgebung (GAE) integriert, die darauf abzielt, divergente Gruppen zu unterstützen Denkprozess zur Entstehung von a;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78733-4_3 c92a07721191c0f1685e15800984a477;de;;;5.2.;;;Beugung von Wellen durch elastische sphärische Körper Bei der Analyse der Probleme der Wechselwirkung elastischer oder akustischer Wellen mit verformbaren kugelförmigen Hindernissen stoßen wir im Vergleich zu den in Kap. 2. Die Haupteigenschaft der in diesem Kapitel zu betrachtenden Probleme liegt in der Symmetrie bezüglich der Achse, die mit der Wellenausbreitungsrichtung zusammenfällt. Erstens erhalten wir eine Zunahme der Problemdimension (die Anzahl der unabhängigen Variablen) und zweitens eine Zunahme der Anzahl der unbekannten Funktionen (weil die Scherwellen zusätzlich zu den Kompressionswellen auftreten).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45159-4_3 71fc52af162a30a034715ceb0d66b251;de;;;5.2.;;;Einheitliche Zufallszahlengenerierung In typischen stochastischen Simulationen wird Zufälligkeit erzeugt, indem eine Folge unabhängiger gleichförmiger Variablen (normalerweise reellwertig zwischen 0 und 1 oder ganzzahlig in einem bestimmten Intervall) erzeugt und in geeigneter Weise transformiert wird. In diesem Beitrag untersuchen wir praktische Möglichkeiten zur Erzeugung (deterministischer Annäherungen an) solcher einheitlichen Variablen auf einem Computer. Wir vergleichen sie in Bezug auf einfache Implementierung, Effizienz, theoretische Unterstützung und statistische Robustheit. Wir betrachten insbesondere verschiedene Klassen von Generatoren, wie z. B. lineare Kongruentiale, multiple rekursive, digitale Mehrschritt-, Tausworthe-, verzögerte Fibonacci-, verallgemeinerte Rückkopplungsschieberegister, Matrix, lineare Kongruentiale über Felder formaler Reihen und kombinierte Generatoren, und zeigen, wie alle von ihnen können hinsichtlich ihrer Gitterstruktur analysiert werden. Wir erwähnen auch andere Klassen von Generatoren, wie nichtlineare Generatoren, diskutieren andere Arten von theoretischen und empirischen statistischen Tests und geben einen bibliographischen Überblick über neuere Veröffentlichungen zu diesem Thema.;-;-;-;https://link.springer.com/article/10.1007/BF02136827 672649cf3bcf909e679aa99277550f2a;de;;;5.2.;;;Für mehr Fortbewegung in experimentellen Spielen Dieses Kapitel bewertet den traditionellen experimentellen Spielansatz zur Untersuchung der sozialen Interdependenz. Neben der Darstellung mehrerer Stärken wird behauptet, dass dieser Ansatz in zweierlei Hinsicht eingeschränkt ist: (1) Er ermöglicht es einem Forscher nicht zu untersuchen, wie Individuen ihre einfachen Motivationen und einfachen Strategien ausdrücken, wenn ihnen ein vielfältigeres Gebiet zur Verfügung gestellt wird von Optionen, und (2) es vernachlässigt einen wichtigen Bereich der sozialen Interaktion, nämlich die Situationen, in denen Individuen die zugrunde liegende Interdependenzstruktur verändern können. Das Kapitel gibt einen Überblick über frühere Forschungen, die den traditionellen experimentellen Spielansatz erweitern, indem den Probanden die Möglichkeit geboten wird, die Art der Interdependenz zu verändern. Es wird der Schluss gezogen, dass die Art und Weise, wie Individuen ihre einfachen Motivationen und Strategien zum Ausdruck bringen, wesentlich von der Verfügbarkeit anderer Optionen als einer kooperativen und nicht kooperativen Wahl beeinflusst werden kann. Um einen besseren Einblick in diese Prozesse zu erhalten, sollten wir eine stärkere Fortbewegung in der Art und Weise in Betracht ziehen, wie wir Ergebnismatrizen in unserer Forschung zur sozialen Interdependenz verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-78860-4_2 330f91870c75e9800d12dc873a058975;de;;;5.2.;;;Das Konzept einer Person Probleme, die ich zu erörtern beabsichtige, sind den Studenten der Philosophie allzu vertraut. Sie befassen sich mit Personen im weiten Sinne, in dem jeder einzelne Mensch als Person gezählt werden kann. Charakteristisch für Personen in diesem Sinne ist, dass ihnen neben verschiedenen physischen Eigenschaften, einschließlich der Tatsache, dass sie während eines bestimmten Zeitraums eine kontinuierliche Reihe von räumlichen Positionen einnehmen, auch verschiedene Bewusstseinsformen zugeschrieben werden. Ich werde hier nicht versuchen, eine Definition von Bewusstsein anzubieten. Alles, was ich sagen kann, ist, dass ich davon im gewöhnlichen Sinne spreche, in dem ich über ein Problem nachdenke oder mich an ein Ereignis erinnere oder etwas sehe oder höre oder beschließe, etwas zu tun oder eine Emotion wie Eifersucht zu empfinden oder Angst, bedeutet, bewusst zu sein. Ich verpflichte mich zu diesem Zeitpunkt nicht zu einer Ansicht darüber, wie dieser Begriff des Bewusstseins analysiert werden sollte.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-01903-8_4 e88337baf38402aeca237a96624e9757;de;;;4.2.;;;Keine Zeit zum Weinen: Der Erste Weltkrieg, 1914-1918 Der Erste Weltkrieg war in vielerlei Hinsicht ein Wendepunkt für die britische Gesellschaft. Diese vier Jahre der nationalen Krise und des extremen nationalistischen Eifers haben unauslöschliche Spuren hinterlassen. Für die Mehrheit, die mit der populären Kultur des imperialen Mythos erzogen wurde, begann es als das ultimative „Boy’s Own“-Abenteuer, aber als sich der volle Horror allmählich entfaltete und die Opferlisten eskalierten, entwickelten viele eine kritischere Haltung. Nach den schrecklichen Verlusten der Schlachten von 1915 und 1916 trauerte praktisch jeder um einen verlorenen Verwandten, Nachbarn oder Freund. Die lange Kriegsdauer, bedingt durch die sich wandelnde Kriegstechnik, führte zu einer Situation des „totalen Krieges“, die umfangreiche neue staatliche Interventionsbereiche zur notwendigen Ressourcenmobilisierung erforderte. Dies hatte weitreichende Auswirkungen auf fast alle Lebensbereiche.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-27743-8_3 f1b401c450e1bc286e2cf9c9b6e2d32a;de;;;5.2.;;;Pascals teleologischer Ansatz zur Ethik in der Die in der Lehre von den drei Ordnungen latent vorhandene Tendenz zur Abwertung der natürlichen Tugend wird durch die teleologische Herangehensweise an moralische Fragen verstärkt, die Pascal in der;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-1623-0_6 c2abf4ff6b54e4e4e0ac0ae4b76b00d8;de;;;5.2.;;;Erkundung von Prozessen in kleinen Softwareunternehmen: Eine systematische Überprüfung Kontext: Um einen Wettbewerbsvorteil zu erzielen, benötigen kleine Softwareunternehmen (SSCs) einen effizienten Softwareentwicklungsprozess. Allerdings sind systematische Übersichtsstudien, die den Softwareentwicklungsprozess im Kontext von SSCs untersucht haben, begrenzt. Ziel: Daher ist es das Ziel dieses Papiers, den aktuellen Stand der Praxis des Softwareentwicklungsprozesses von SSCs unter Verwendung des ISO/IEC 12207-Standards als Analyserahmen streng zu bewerten. Methode: Eine systematische Literaturrecherche wurde durchgeführt, um relevante Papiere zu analysieren, die zwischen 2004 und 2014 veröffentlicht wurden. Die ausgewählten Papiere wurden nach der verwendeten empirischen Methode kategorisiert. Aus 3841 Veröffentlichungen wurden insgesamt 41 Primärarbeiten gefunden, die sich mit verschiedenen Aspekten des Softwareentwicklungsprozesses von SSCs befassen. Ergebnisse: Basierend auf den Erkenntnissen aus Primärpapieren sind Requirements Engineering, Projektplanung, Lebenszyklusmodellmanagement und Konfigurationsmanagement die häufig in Betracht gezogenen Verbesserungsprozesse, wenn Software Process Improvement (SPI)-Programme in SSCs durchgeführt werden. Darüber hinaus gehörte das Verständnis der gesammelten Anforderungen und Kommunikationsbarrieren zwischen dem Produktmanagement und dem Rest des Arbeitsteams zu den Herausforderungen, die SSCs während des Softwareentwicklungsprozesses beobachteten und erlebten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-38980-6_12 8eff6bf6a2241ec3abb877400799a796;de;;;5.2.;;;Die Organisation des Wettbewerbs in Kongress- und Parlamentsregierungen Es ist keine Karikatur konventioneller Weisheit, zu behaupten, dass die Regierungen des Kongresses mit zahlreichen Kontrollen und Gleichgewichten ausgestattet sind und folglich intern wettbewerbsfähig sind, während parlamentarische Regierungen solche Kontrollen und Gleichgewichte praktisch nicht haben und sind intern nicht wettbewerbsfähig. Der Zweck dieses Papiers ist zu argumentieren, dass die konventionelle Weisheit falsch ist, dass auf einer;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-0645-7_2 829181e191c545a4fc866f891930151e;de;;;5.2.;;;Menschen in Position bringen In den letzten zwei Jahrzehnten hat die empirische Forschung zu Quartieren und Gesundheit explosionsartig zugenommen. Obwohl die Daten und Ansätze viel den frühen Beiträgen von Demographen und Bevölkerungswissenschaftlern zu verdanken sind, wird diese Schuld jedoch weitgehend verkannt. Ebenso bleiben Herausforderungen der frühen Literatur weitgehend unbeantwortet. Ich behaupte, dass Demografen und Bevölkerungswissenschaftler Pioniere in der Erforschung von Wohnvierteln und Gesundheit waren, aber sie sind in einzigartiger Weise bereit, das Feld wieder anzuführen. Menschen in Position zu bringen bedeutet, Verhalten und Ergebnisse in Bezug auf einen sich möglicherweise ändernden lokalen Kontext zu erklären. Es ist eine dynamischere Konzeptualisierung erforderlich, die die menschliche Handlungsfähigkeit vollständig einbezieht, mehrere Dimensionen des lokalen sozialen und räumlichen Kontexts integriert, die erforderlichen Längsschnittdaten entwickelt und geeignete Werkzeuge implementiert. Verschiedene Ansätze mit sich ergänzenden Stärken werden dazu beitragen, die vielen analytischen Herausforderungen bei der Untersuchung der Dynamik von Nachbarschaften und Gesundheit zu überwinden, einschließlich agentenbasierter Mikrosimulationsmodelle.;-;-;-;https://link.springer.com/article/10.1353/dem.2007.0045 eeab592f99970e408ce2bfd0ccebb9af;de;;;5.2.;;;Das weltweite Verbot des Menschenhandels Ein Merkmal der Mirage-Operationen, das sofort auffällt, ist die Formulierung ihres Ziels, die gezielte Bekämpfung des Menschenhandels, insbesondere des Frauenhandels zum Zwecke der sexuellen Ausbeutung,;-;-;-;https://link.springer.com/chapter/10.1057/9780230306509_4 b0d66879f826e9c7117c517a59aa0750;de;;;5.2.;;;Räumliche Dispersion in Kristalloptiken Das breite Spektrum optischer Phänomene, die in diesem Kapitel diskutiert werden, resultiert aus der Berücksichtigung der räumlichen Dispersion. Die Dispersion normaler Wellen in gyrotropen und nichtgyrotropen Kristallen wird für den Bereich der Exzitonenresonanzen insbesondere unter Bedingungen berücksichtigt, bei denen zusätzliche Lichtwellen gebildet werden und wenn die Dissipation berücksichtigt werden muss. Für den Bereich der Dipol- und Quadrupolübergänge wird eine Theorie der optischen Anisotropie kubischer Kristalle entwickelt. Im Detail wird der Einfluss der externen konstanten elektrischen und magnetischen Felder sowie der mechanischen Spannungen auf die optischen Eigenschaften von Kristallen diskutiert. Es wird gezeigt, wie eine Anwendung des Symmetrieprinzips der kinetischen Koeffizienten eine einfache Trennung der Terme im Ausdruck für den Tensor ermöglicht;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-02406-5_4 eaa53aa9f7b0811395667515c3efa85b;de;;;5.2.;;;Entwicklungssoziologie Zwei Geschichten getrennt durch die fünf Jahre, die seit der ersten Auflage dieses Buches vergangen sind: Eine Zeit, in der wir uns von einem von Dürre heimgesuchten Äthiopien in einen überschwemmten Sudan bewegen, dessen eigene Flüchtlinge einen sicheren Hafen suchen, vielleicht in einem Nachbarstaat . Dürre und Überschwemmung können zu Hungersnöten führen, und beides ist ökologisch miteinander verbunden: Wüstenbildung und Sturzfluten sind die beiden Folgen landwirtschaftlicher Praktiken, die Bäume entfernen und die Erosion des Oberbodens ermöglichen. Doch diese menschlichen Katastrophen haben ebenso viel mit komplexen sozialen und wirtschaftlichen Prozessen zu tun wie mit Umweltmanagement. Das Ausmaß dieser Katastrophen scheint sich mit der Zeit zu verschlimmern: Im September 1988 standen 75 Prozent des gesamten Landes Bangladesch unter Wasser, 25 Millionen Obdachlose. Zukünftige Tragödien größeren Ausmaßes sind wahrscheinlich, vielleicht ganz besonders in Lateinamerika.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-20584-4_1 5bd54a2c41d77974d326dd0076ca34ab;de;;;5.2.;;;Der Einfluss archetypischer Ideen auf die wissenschaftlichen Theorien von Kepler Es ist mir eine angenehme Pflicht, all denen, die mich beim Schreiben und Veröffentlichen dieses Aufsatzes unterstützt und ermutigt haben, meinen herzlichsten Dank auszusprechen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-02994-7_23 e6da2f1ddf0e98182bf54be24c044ce4;de;;;5.2.;;;Alcatraz und Iser: Anwendung von Wolfgang Isers Konzepten des impliziten Lesers und des impliziten Autors und der Realität auf die metafiktive Alcatraz Smedry-Serie Als Erzählreihe zeigen Brandon Sandersons humorvolle, mittlere Alcatraz-Smedry-Romane einige der wohl vagen Konzepte des Reader-Response-Theoretikers Wolfgang Iser als zugängliche Themen, die ein kritisches Verständnis der Geschichten fördern.;-;-;-;https://link.springer.com/article/10.1007/s10583-010-9116-x d649e49294d5155c08b4c42a805be845;de;;;4.2.;;;Digitale Kluft bei Behinderungen in Finnland Die modernen Gesellschaften haben sich in den letzten Jahren immer stärker digitalisiert. Der Besitz eines digitalen Geräts und der Internetzugang zu Hause gehören zum Alltag, während viele grundlegende Dienstleistungen, wie zum Beispiel Bankgeschäfte, über das Internet angeboten werden. Die Fortschritte bei den digitalen Technologien haben jedoch nicht alle gleichermaßen betroffen und es kann immer noch Gruppen von Menschen geben, die das Internet nicht täglich nutzen. Daher konzentrieren wir uns darauf, die digitale Kluft aus einem bestimmten Blickwinkel zu untersuchen – dem von Menschen mit Behinderungen. Frühere Studien weisen darauf hin, dass ihre Zugangs- und Nutzungsmöglichkeiten zum Internet geringer sind als bei Menschen ohne Behinderungen. Diese Lücke wird als Digital Disability Divide bezeichnet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-97931-1_13 73f116078cbfd4d3e7a6cb590d406ca0;de;;;4.2.;;;Schätzung von Autokovarianzoperatoren für ARH(1)-Prozesse Die Schätzung von Parametern zweiter Ordnung einer ARH(1) hat ein zweifaches Interesse. Erstens gibt es Informationen über die innere Struktur des Prozesses. Zweitens führt es zur Konstruktion statistischer linearer Prädiktoren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-1154-9_5 e40ddaab7c1dcf0b45aeff5bb8a631f0;de;;;4.2.;;;Empirische Forschung zum Markenaufbau von Commonweal-Organisationen basierend auf Datenanalyse Die Marke der Commonweal-Organisation ist ein immaterieller Vermögenswert, der der Commonweal-Organisation eine Prämie verleiht und einen Mehrwert erzeugt. Ihr Träger ist der Name, die Terminologie, das Symbol, das Symbol oder das Design und die Kombination, die verwendet werden, um Produkte oder Dienstleistungen von anderen zu unterscheiden. Es ist von großer gesellschaftlicher Bedeutung, die Markenbekanntheit zu verbessern, eine eigene Markenkultur zu etablieren, ein wertvolles Markenimage von Commonweal-Organisationen aufzubauen und soziale Erkenntnisse zu gewinnen, obwohl Commonweal-Organisationen nicht gewinnorientiert sind. In dieser Studie wurden 455 valide Stichproben mittels Fragebogenerhebung und Cluster-Sampling gewonnen. Die Daten werden gezählt und per Computer analysiert. Durch die Analyse und Diskussion von Daten aus erster Hand wurde die Markenbildung von Wohlfahrtsorganisationen empirisch untersucht. Nach der Datenanalyse ziehen wir eine Schlussfolgerung und vertreten unsere eigene Sichtweise, das heißt, durch die Stärke der Markenkultur öffentlicher Organisationen werden mehr Menschen von öffentlichen Organisationen angezogen. Auf diese Weise können wir den Markeneinfluss öffentlicher Organisationen weiter steigern und einen förderlichen Kreislauf für den Markenaufbau öffentlicher Organisationen bieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3648-5_213 6ab8fa7f909f83d3d314f9bf32169492;de;;;5.2.;;;Immunogene Eigenschaften von Peptiden, die ein HIV-1-gp41-Epitop nachahmen, das von den virusneutralisierenden Antikörpern 2F5 . erkannt wird Phagen-Display wurde verwendet, um Peptide zu erhalten, die ein HIV-1-gp41-konserviertes Epitop nachahmen, das von virusneutralisierenden monoklonalen Antikörpern (mAb) 2F5 erkannt wird. Kaninchen und Mäuse wurden mit den auf der Oberfläche von filamentösen Bakteriophagen exponierten Peptiden immunisiert. Antikörper gegen gp41 wurden in den Seren immunisierter Tiere nachgewiesen. Die virusneutralisierende Aktivität der Seren wurde untersucht.;-;-;-;https://link.springer.com/article/10.1023/A%3A1024259915720 012be451e9da9c431c7cfb593b908bab;de;;;4.2.;;;Gesundheit und Wohlfahrt dänischer Milchviehhaltung beim Übergang zur ökologischen Produktion: Probleme, Prioritäten und Perspektiven In den letzten Jahren hat die biologische Milchwirtschaft in Dänemark stark zugenommen. Folglich begegnen immer mehr Menschen dieser Produktionsmethode zum ersten Mal. Unter diesen mussten viele Tierärzte plötzlich mit Bio-Herden in ihrem Heimatbezirk zu tun haben und haben angesichts von Beispielen für schlechten Tierschutz in letzter Zeit begonnen, einige Bedenken zu äußern.;-;-;-;https://link.springer.com/article/10.1023/A%3A1013060304868 b2db15b5d78a8dcb37e4ecde1d8a2e29;de;;;4.2.;;;Das Konstrukt der Achtsamkeit inmitten und entlang von Rationalitätskonzepten Ist es vernünftig, achtsam zu sein? Kann man „achtsam rational“ sein? Rational achtsam? Forschung und Denken zu den Themen Rationalität, rationale Wahl, rationaler Glaube und epistemische Rationalität haben sich losgelöst von der Arbeit und dem Denken zu Achtsamkeit, Achtsamkeitsinterventionen und dem damit oft einhergehenden erkenntnistheoretischen Konstruktivismus entwickelt. Für einen strengen Bayes'schen Erwartungswertmaximierer könnte die Teilnahme an Achtsamkeitsübungen so irrational erscheinen, wie seine eigenen Optimierungsroutinen sinnlos erscheinen können. Aber der Schein kann täuschen, und ich behaupte, dass sie es tatsächlich sind. Ich entwerfe eine Karte für „Gewinne aus konzeptionellem Handel“, basierend auf der Modifizierung eines der wichtigsten Modellierungsschritte, die von Rational-Choice-Forschern verwendet werden – und skizziere einen Weg, um diese zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30782-4_2 288ec205830845739d6c471eb5400260;de;;;5.2.;;;Energieeffizientes Butler-Matrix-basiertes Hybrid-Beamforming für Mehrbenutzer-mmWave-MIMO-System Um die Kosten und den Energieverbrauch von Hochfrequenzketten (HF) in einem Millimeterwellen-(mmWave)-Multi-Input-Multiple-Output-(MIMO)-System zu reduzieren, kann hybrides analoges/digitales Beamforming (HBF) verwendet werden, um die Anzahl der HF . zu reduzieren Ketten. Der HBF besteht aus einer analogen Strahlformungsstufe (ABF) und einer digitalen Strahlformungsstufe (DBF). Die ABF wird immer unter Verwendung von Phasenschiebern realisiert und die DBF erfolgt in einem niedrigdimensionalen digitalen Bereich. Phasenschieber haben jedoch mehrere Nachteile, wie beispielsweise einen hohen Stromverbrauch und eine Inkonsistenz der Einfügungsdämpfung. In diesem Papier schlagen wir eine energieeffiziente HBF-Struktur vor, um diese Probleme zu lösen, die die Butler-Phasenverschiebungsmatrix in der ABF-Stufe verwendet. Mit dem Butlermatrix-basierten ABF können mehrere feste Strahlrichtungen erhalten werden, und die besten Strahlrichtungen verschiedener Butler-Matrizen können durch eine erschöpfende Suche ausgewählt werden. Um die hohe Komplexität der erschöpfenden Suche zu reduzieren, stellen wir ferner einen HBF-Algorithmus mit niedriger Komplexität bereit. Simulationen unter den Bedingungen perfekter Kanalzustandsinformationen (CSI) und geschätzter CSI verifizieren die Wirksamkeit unserer vorgeschlagenen Butler-Matrix-basierten HBF-Struktur und verwandter Algorithmen.;-;-;-;https://link.springer.com/article/10.1007/s11432-016-0640-5 c5cb4d2ee4c8cfdac6108c74affd9dbf;de;;;4.2.;;;Eine kurze Geschichte der norwegischen Wissenschafts- und Forschungspolitik Auf wenigen Seiten eine kurze Geschichte der norwegischen Wissenschafts- und Forschungspolitik zu schreiben, ist eine gewaltige Aufgabe. Die Möglichkeit dazu zu bekommen, ist jedoch sowohl eine hohe Ehre als auch eine unwiderstehliche Herausforderung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01156-6_10 f87b6da1f801a47b38830bdcdf04f4fe;de;;;4.2.;;;Medienübergreifende Analyse zur Kommunikation bei Naturkatastrophen In diesem Beitrag beschreiben wir die Rolle der Medien im Kontext von Naturkatastrophen. Traditionelle Medien haben eine lange Tradition in der Berichterstattung über Katastrophen und werden auch in Zukunft ein wichtiger Informationsanbieter sein. In den letzten Jahren hat sich jedoch eine deutliche Veränderung vollzogen: Informationen über Naturkatastrophen werden zunehmend in großem Umfang auf Social-Media-Plattformen verbreitet. Diese Medien sind normalerweise schneller, aber möglicherweise weniger zuverlässig. Sie bieten zusätzliche und ergänzende Blickwinkel auf Ereignisse und bieten in Kombination mit traditionellen Medien ein breiteres Spektrum an Berichterstattung. Wir argumentieren, dass medienübergreifende Informationen in Kombination mit mehrsprachigen Daten Ersthelfern und Entscheidungsträgern enorme Möglichkeiten bieten, ein verbessertes Situationsbewusstsein zu erlangen, das eine bessere Katastrophenhilfe, Unterstützung, Eindämmung und Widerstandsfähigkeit ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03783-7_2 d7e9c43f08bd3570dd0ca48e26172869;de;;;4.2.;;;Kurzfristige Auswirkungen des Interventionsprogramms „Together at School“ auf die sozio-emotionalen Fähigkeiten von Kindern: eine randomisierte kontrollierte Clusterstudie Together at School ist ein universelles Interventionsprogramm zur Förderung der sozio-emotionalen Fähigkeiten von Grundschulkindern. Es basiert auf einem gesamtschulischen Ansatz und wird von Lehrern in Schulklassen umgesetzt. Ziel der vorliegenden Studie ist es, die kurzfristigen Effekte des Interventionsprogramms auf die Verbesserung der sozio-emotionalen Fähigkeiten und die Reduzierung psychischer Probleme bei Jungen und Mädchen zu untersuchen. Wir untersuchen auch, ob diese Effekte von der Klassenstufe (Klassen 1 bis 3) und der Interventionsdosis abhängen.;-;-;-;https://link.springer.com/article/10.1186/s40359-016-0133-4 ea953678330f9105db2bb12a615cabf5;de;;;5.2.;;;Interleaving-Effekte auf BER-Fairness und PAPR im OFDMA-System Betrachtet man ein Orthogonal Frequency Division Multiple Access (OFDMA)-System, analysieren wir in dieser Studie die Rolle von Interleavern anhand ihrer Fähigkeit, die Gleichförmigkeit der Bitfehlerraten-(BER)-Leistung unter den aktiven Benutzern sicherzustellen. Darüber hinaus untersuchen wir auch deren Peak-to-Average Power Ratio (PAPR)-Eigenschaften. Aus der Gleichförmigkeits- oder Fairness-Perspektive der BER betrachten wir zunächst ein generisches System und zeigen, dass für einen sich langsam ändernden Mehrwegekanal die BER-Leistung einzelner Benutzer stark voneinander abweichen kann, was impliziert, dass der Ausbreitungskanaleffekt ungerecht auf die Benutzer. Durch die Anwendung verschiedener Arten von Frequenzverschachtelungsmechanismen zeigen wir, dass die Wahl der Verschachtelung eine bessere BER-Fairness auf individueller Benutzerbasis gewährleisten kann. Insbesondere durch die Einführung des zyklisch verschobenen Zufalls-Interleavers demonstrieren wir seine Wirksamkeit bei der Erzielung einer BER-Fairness-Dispersion bei einzelnen Benutzern BER reduziert um 89 % im Vergleich zu keiner Verschachtelung bei 15 dB Signal-Rausch-Verhältnis. Wir untersuchen dann die vergleichende Leistung verschiedener Verschachteler unter Berücksichtigung einer variablen Anzahl von Gesamtunterträgern, einer variablen Anzahl von Benutzern und einer variablen Anzahl von Unterträgern pro Benutzer. Schließlich, zurück zum generischen OFDMA, untersuchen wir die PAPR-Verteilung verschiedener Interleaver bei verschiedenen aktiven Benutzerdichten. Basierend auf den Ergebnissen schließen wir, dass bei einer relativ geringen Gesamtzahl von Unterträgern pro Benutzer, dh einem System, das stark mit aktiven Benutzern belastet ist, zyklisch verschobene Zufallsverschachteler effektiv eine gleichmäßige Leistung unter aktiven Benutzern mit reduzierter Systemkomplexität und überschaubarem PAPR sicherstellen können . In allen anderen Fällen ist die Verschachtelung mit einem festen Betrag des Zwischenträgerabstands die beste Lösung.;-;-;-;https://link.springer.com/article/10.1007/s11235-011-9557-6 843b11a18dfb87718870757f3f649419;de;;;5.2.;;;Kooperatives Rendezvous zwischen aktiven autonomen Fahrzeugen Das Rendezvous-Problem zwischen autonomen Fahrzeugen wird als optimales kooperatives Steuerungsproblem mit Terminalbeschränkungen formuliert. Optimale Regelprobleme werden oft dadurch gelöst, dass nach Lösungen gesucht wird, die die notwendigen Bedingungen erster Ordnung für ein Optimum erfüllen. Ein solcher Ansatz basiert auf einer Hamiltonschen Formulierung, die zu einem schwierigen Zweipunkt-Randwertproblem führt. Wir schlagen einen anderen Ansatz vor, bei dem die Kontrollhistorie direkt durch ein genetisches Algorithmus-Suchverfahren gefunden wird. Der Hauptvorteil der Methode besteht darin, dass keine Hamilton-Formel entwickelt werden muss und folglich kein adjungiertes Problem behandelt werden muss, was zu einem schwierigen Zweipunkt-Randwertproblem in nichtlinearen gewöhnlichen Differentialgleichungen führt. Dieses Verfahren wurde zur Lösung von Abfang- und Rendezvous-Problemen in einer Unterwasserumgebung angewendet, wobei die Richtung des Geschwindigkeitsvektors als Steuerung verwendet wird. Wir betrachten die Auswirkungen von Gravitation, Schub und viskosem Widerstand und behandeln den Rendezvous-Ort als Endbedingung. Anschließend untersuchen wir kooperative Rendezvous-Probleme zwischen Raumfahrzeugen. Wir behandeln den Fall, in dem die Größe des kontinuierlichen Niederschubvektors fest ist und die Schubrichtung als Steuerung verwendet wird. Das Raumfahrzeug startet von verschiedenen Punkten auf einer anfänglichen kreisförmigen Umlaufbahn und trifft sich an einem Punkt auf einer kreisförmigen Umlaufbahn mit größerem Radius mit der gleichen Endumlaufgeschwindigkeit. Der vorliegende genetische Algorithmus wurde entwickelt, um komplexe Abfang- und Rendezvous-Probleme mit mehreren Fahrzeugen zu behandeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74356-9_25 9dd7bd969286777c590411657b192ac6;de;;;5.2.;;;Suchrichtung hat Evolutionsstrategien schneller gemacht Genetische Operatoren sind in erster Linie Suchoperatoren in Evolutionsstrategien (ES). Tatsächlich gibt es im Evolutionsprozess der genetischen Suche zwei wichtige Themen: Exploration und Ausbeutung. Die Analyse des Einflusses der genetischen Operatoren in ES zeigt, dass die Classical Evolution Strategies (CES) auf der Gaußschen Mutation beruhen, während Fast Evolution Strategies (FES) die Cauchy-Verteilung als primären Mutationsoperator wählt. Mit der Analyse der grundlegenden genetischen Operatoren von ES sowie ihrer Leistung bei einer Reihe von Benchmark-Problemen schlägt dieses Papier ein verbessertes schnelles ES (IFES) vor, das die Suchrichtung der globalen Optimierung auf die Mutationsoperation anwendet, um die Konvergenz des Evolutionsprozesses zu steuern, also den Prozess beschleunigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04962-0_17 96398c21319d8d8528e07be12bad9704;de;;;4.2.;;;Ein DSS zur Bewertung und Verwaltung der städtischen Leistungen im Sanierungsplan: Die Fallstudie von Pachino Die historischen Zentren sollten durch ein umfassendes Nachhaltigkeitskonzept der Ort sein, an dem die Qualität und die symbolischen Werte gegenüber den quantitativen und funktionalen überwiegen können, aber oft erlauben es die schlechten Ressourcen und die geringe Qualität des Managements nicht, a nachhaltiger Umschulungsprozess für sie. Die Entscheidungsträger des Plans sollten die Auswirkungen der technischen Entscheidungen und dann die Nachhaltigkeit der Maßnahmen überprüfen, aber auch die Auswirkungen der Planungspolitik auf die wirtschaftliche Leistung und dann auf die wirtschaftliche Nachhaltigkeit dieser Maßnahmen. Daher muss ihnen geholfen werden, die Planungsmaßnahmen, ihre Mittel und das Wertesystem zu identifizieren, das sie fördern wollen. In dieser Hinsicht schlägt diese Studie ein Modell vor, um das Management des Umschulungsplans für das historische Zentrum von Pachino zu unterstützen. Das vorgeschlagene Modell ist ein DSS, das mit dem MAUT- und dem IMO-DRSA-Tool entwickelt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09150-1_17 27b890ddd5ac305fa24140a74bb6941f;de;;;4.2.;;;Bedeutung der Zottenmikrozirkulation für die intestinale Resorption von Glukose Wenn die besten verfügbaren Schätzungen des Blutflusses und des Permeabilitäts-Oberflächen-Produkts der Zottenmikrozirkulation bei einer Analyse der Glukoseabsorption bei Menschen und Ratten verwendet werden, steigen die vorhergesagten Glukosekonzentrationen an der Basalmembran des Epithels auf Werte, die 100 mM überschreiten. Wenn keine Zunahme des Zottenblutflusses proportional zur Glucoseabsorptionsrate auftritt, würde die Glucosekonzentration im Gewebe noch höher ansteigen. Unsere vorläufigen Schätzungen der Glukosekonzentration innerhalb der Epithelzellen legen nahe, dass ohne Erhöhung des Blutflusses und des PS der Zottenmikrozirkulation die steigenden Spiegel der intrazellulären Glukosekonzentration die maximalen Absorptionsraten begrenzen würden. Es scheint, dass die Absorption von Glukose zusätzlich zu den Ereignissen in den Epithelzellen eine koordinierte mikrovaskuläre Reaktion beinhaltet, die mit der vergleichbar ist, die in der Skelettmuskulatur während des Trainings auftritt.;-;-;-;https://link.springer.com/chapter/10.1007/4-431-27174-0_1 66b5b5ddcbc389efd316822c9a18b49f;de;;;4.2.;;;Bewertung des Lernens in MOOCs durch Interaktionen zwischen Lernenden Dieses Papier präsentiert eine retrospektive Analyse des Lernens in einem MOOC, wie sie aus den Gesprächen rekonstruiert wird, die Lernende in MOOC-Gruppenforen während der Durchführung der Kursaufgaben führten. Ein Mixed-Methods-Ansatz wurde angewendet, um die Quantität und die Qualität dieser Gespräche zu analysieren. Dabei wurden zwei Aktivitätsmuster unterschieden – in Gruppen mit höherem Aktivitätsniveau gab es mehr Einzelbeiträge (Posts) zu mehr Kursthemen und diese Beiträge waren über den Kurs breiter gestreut. In Gruppen mit hoher Aktivität gab es auch mehr Interaktion zwischen den Teilnehmern, d. h. mehr Fragen, Antworten, Erklärungen und Ausarbeitungen. Die vorgestellte Studie zeigt, wie die Modellierung von Interaktionen in Gruppenforen dazu beiträgt, individuelle und entstehende Gruppenwissenskonstruktionen zu eruieren und damit die Definition von MOOC-Lernen zu unterstützen, das MOOC-Design zu informieren und Einblicke zu geben, wie die Bewertung von MOOC-Lernen automatisiert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-25264-9_4 559bb96af37d232ad80e353c11c91381;de;;;5.2.;;;Recherche der Methode zur Passwortwiederherstellung für RAR basierend auf paralleler Zufallssuche Die Passwortwiederherstellung von RAR-verschlüsselten Dateien ist ein wichtiges Problem in der Computerforensik. Es ist schwierig, dieses Problem mit den traditionellen Methoden wie Rate, Wörterbuch, Regenbogentabelle und Brute-Force zu lösen. Wir geben eine neue Methode an, die auf paralleler Zufallssuche basiert. Das neue Verfahren verwendet einen parallelen stochastischen Ansatz zur Wortauswahl beim Wörterbuchangriff. Es kann die Erfolgsrate der Passwortwiederherstellung erheblich verbessern. Und das Experiment zeigt, dass der neue Ansatz bei der Passwortwiederherstellung von RAR-Dateien effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45670-5_20 d28dfed2fefd8e0082f7e24d20f8f784;de;;;5.2.;;;Kontextsensitive personalisierte Suche basierend auf Benutzer- und Ressourcenprofilen in Folksonomies Die explosionsartige Zunahme von kollaborativen Tagging-Daten führt heutzutage zu einer dringenden Nachfrage an Web 2.0-Communities, Benutzern zu helfen, interessierte Ressourcen schnell und effektiv zu durchsuchen. Eine solche Anforderung erfordert viel Forschung zur Verwendung von Tag-basierten Benutzer- und Ressourcenprofilen, um eine personalisierte Suche in Folksonomien bereitzustellen. Ein großer Mangel besteht jedoch bei bestehenden Methoden darin, dass sie das Benutzerprofil für jede Anfrage gleich behandeln, sodass der Suchkontext für jede Anfrage ignoriert wird. In diesem Artikel konzentrieren wir uns darauf, dieses Problem durch die Modellierung des Suchkontextes anzugehen. Um die Absicht des Benutzers zu erfassen und zu verstehen, wird ein verschachteltes Kontextmodell vorgeschlagen. Darüber hinaus führen wir die experimentelle Auswertung an einem realen Datensatz durch, und das experimentelle Ergebnis zeigt, dass unser Ansatz effektiver ist als Basislinien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29253-8_9 07c4aed9c48c199a59648c0f341e2610;de;;;5.2.;;;Eine Leistungsbewertung von Backtrack-begrenzten Suchmethoden für N-äre Constraint-Netzwerke Eine frühe Studie über den strukturellen Aspekt binärer Constraint-Probleme hat zur Definition eines Backtrack Bounded Solving (BBS)-Verfahrens geführt. In diesem Papier wenden wir diese Methode auf;-;-;-;https://link.springer.com/chapter/10.1007/3-540-56804-2_35 50000c75f362b448a8f8b8328f2e2a3c;de;;;5.2.;;;Kooperative Suchstrategie für mehrere unbemannte Luftfahrzeuge basierend auf einer modifizierten Wahrscheinlichkeitskarte Die kooperative Zielsuche mehrerer unbemannter Luftfahrzeuge (UAVs) in unsicheren Umgebungen ist ein wichtiger Forschungsbereich bei der kooperativen Steuerung mehrerer UAVs. Das Ziel der Multi-UAV-Suche besteht darin, die Informationen über das abgesuchte Gebiet zu erhalten, die Unsicherheit dieses Gebiets zu verringern und die versteckten Ziele so schnell wie möglich zu finden. Dieses Papier stellt einen neuen Rahmen für UAV-Suchoperationen vor und schlägt einen neuen Ansatz vor, um das kooperative Suchproblem mehrerer UAVs zu lösen. Mit Blick auf die Eigenschaften des kooperativen Suchproblems mit mehreren UAVs wurde die modifizierte Wahrscheinlichkeitskarten-basierte kooperative Suchstrategie im Detail diskutiert. Basierend auf den bestehenden Algorithmen wurde die kooperative Strategie in drei Hauptteile unterteilt, nämlich die Wahrscheinlichkeitskarteninitialisierung, die Wahrscheinlichkeitskartenaktualisierung und die Regeln des UAV-Transfers. Die Sucheffektivität des Multi-UAVs-Systems im Zustand Multi-Target wurde basierend auf der Methode des ABMS (Agent Based Modeling and Simulation) analysiert. Simulationsergebnisse zeigten die Wirksamkeit des Algorithmus.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-2666-9_27 fef653dbe59f2c86ceaf0686a5caf6d3;de;;;4.2.;;;Schmutzfetisch und Warenrassismus auf sowjetische Weise Als die sowjetischen Modernisierungsbemühungen im Kaukasus und in Zentralasien intensiviert wurden, hatte sich die sowjetische Ideologie in Bezug auf die sexuelle Frage bereits von einer skandalös berühmten Glaswassertheorie gewandelt;-;-;-;https://link.springer.com/chapter/10.1057/9780230113923_5 c2ab6d9768d673d5590b8e16df012142;de;;;4.2.;;;Kollektivierung und Eigenverantwortung im Gleichgewicht: Sozialpolitik Hongkongs unter dem chinesischen Regime Das soziale Wohlfahrtssystem in Hongkong wird weithin als eher zurückgeblieben angesehen, wobei Sozialpolitik für die wenigen unglücklichen Menschen gedacht ist, die sich in einem bestimmten verletzlichen Punkt im Leben am wenigsten selbst helfen können (McLaughlin, 1993, Chow 1995). Das Sozialhilfesystem (Umfassende Sozialhilfe) dient lediglich der vorübergehenden finanziellen und materiellen Grundversorgung notleidender Familien. Die Regierung hat immer betont, dass das Sozialsystem keine Abhängigkeit und keine negativen Arbeitsanreize schaffen sollte. Es ist dazu da, unglücklichen Menschen zu helfen, aber nicht als Mittel zum Lebensunterhalt. Ein unselbständiger Arbeitsplatz und eine Vollbeschäftigungspolitik gelten nach wie vor als wichtigste Wohlfahrtsgarantie für Einzelpersonen und Familien. Nachhaltiges Wirtschaftswachstum und hochproduktive Arbeitskräfte gelten nach wie vor als Schlüssel zu Wohlstand und Lebensqualität. „Hongkong ist kein Wohlfahrtsstaat und möchte auch nicht behaupten, dass es sich um einen Wohlfahrtsstaat handelt, da schon der Begriff als geschmacklos und gefährlich angesehen wird“ (Wilding, 1997).;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4028-7_3 90849d86e7e883f2f0aa8e3530779bbb;de;;;5.2.;;;Genetische Algorithmen für die lokale Suche für das Job-Shop-Scheduling-Problem In früheren Arbeiten haben wir drei Strategien zur Beseitigung von Deadlocks für das Job-Shop-Scheduling-Problem (JSSP) entwickelt und einen hybridisierten genetischen Algorithmus dafür vorgeschlagen. Während der genetische Algorithmus (GA) vielversprechende Ergebnisse lieferte, hing seine Leistung stark von der Wahl der eingesetzten Deadlock-Entfernungsstrategien ab. Dieses Papier stellt ein auf einem genetischen Algorithmus basierendes Scheduling-Schema vor, das Deadlock-frei ist. Dies wird durch die Wahl der Chromosomendarstellung und der genetischen Operatoren erreicht. Wir schlagen eine effiziente Lösungsdarstellung für das JSSP vor, in der die Einschränkungen der Auftragsreihenfolge einfach kodiert werden können. Darüber hinaus wird auch ein problemspezifischer Crossover-Operator vorgeschlagen, der sicherstellt, dass alle durch genetische Evolution generierten Lösungen machbar sind. Somit können sowohl die Überprüfung der Beschränkungen als auch der Reparaturmechanismus vermieden werden, was zu einer erhöhten Effizienz führt. Außerdem wird ein mutationsähnlicher Operator vorgeschlagen, der auf die lokale Suche ausgerichtet ist und die Lösungsqualität weiter verbessert. Schließlich wird eine hybride Strategie entwickelt, die den genetischen Algorithmus verwendet, der durch eine Tabu-Suche verstärkt wird. Eine empirische Studie wird durchgeführt, um die vorgeschlagenen Strategien zu testen.;-;-;-;https://link.springer.com/article/10.1023/B%3AAPIN.0000027769.48098.91 974b446d5c6e50829cb17f35bc9045f5;de;;;5.2.;;;Voronoi-unterstützte parallele bidirektionale heuristische Suche Wir schlagen ein Verfahren zum Identifizieren gut platzierter Inselknoten vor, um einen bidirektionalen parallelen heuristischen Suchalgorithmus durchzuführen. Es hat sich gezeigt, dass bidirektionale heuristische Suchalgorithmen mit mehreren Prozessen, die Inselknoten verwenden (wie PBA*), das Potenzial für eine exponentielle Beschleunigung gegenüber ihren einfachen Gegenstücken aufweisen, die keine Inselknoten verwenden. Das Problem, wie man geeignet angeordnete Inselknoten erzeugt, hat sich bis heute jeder Allzwecklösung widersetzt. Die vorgeschlagene Methode ist ein erster Schritt in diese Richtung. Wir implementieren unsere Methode und bewerten ihre Leistung innerhalb von PBA* für eine Vielzahl von Schiebe-Kacheln-Puzzles. Unsere Ergebnisse zeigen, dass die Overhead-Kosten für die Verwendung unserer Methode vernachlässigbar sind, während gleichzeitig PBA*, wenn sie mit der vorgeschlagenen Methode ausgestattet ist, ihr Gegenstück mit Random-Island-Nodes für die überwiegende Mehrheit der Testfälle übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10238-7_6 1ccbe789cdf8d746700bb99ea8b5a5cc;de;;;5.2.;;;Schemaabgleichsvorhersage mit Anwendungen für die Datenquellenerkennung und dynamisches Ensembling Die Datenintegration im Web-Maßstab beinhaltet vollautomatische Bemühungen, denen die genaue Übereinstimmung zwischen den Datenbeschreibungen fehlt. In diesem Beitrag stellen wir vor;-;-;-;https://link.springer.com/article/10.1007/s00778-013-0325-y afcad2911462c978c24a8cb3dcd1a81e;de;;;5.2.;;;Steigerung der Haplotyp-Inferenz mit lokaler Suche Ein sehr herausforderndes Problem im Bereich der Genetik besteht darin, Haplotypen von Genotypen abzuleiten. Dieser Prozess soll Gene identifizieren, die Gesundheit, Krankheit und Reaktion auf Medikamente beeinflussen. Einer der Ansätze zur Haplotyp-Inferenz zielt darauf ab, die Anzahl der verschiedenen verwendeten Haplotypen zu minimieren und ist als Haplotyp-Inferenz durch reine Sparsamkeit (HIPP) bekannt. Das HIPP-Problem ist rechentechnisch schwierig, da es NP-schwer ist. Kürzlich wurde ein SAT-basiertes Verfahren (SHIPs) vorgeschlagen, um das HIPP-Problem zu lösen. Diese Methode berücksichtigt iterativ eine zunehmende Anzahl von Haplotypen, beginnend mit einer anfänglichen unteren Grenze. Ein wichtiger Aspekt von SHIPs ist daher das Lower-Bounding-Verfahren, das die Anzahl der Iterationen des Basisalgorithmus reduziert und auch indirekt das resultierende SAT-Modell vereinfacht. Dieses Papier beschreibt die Verwendung der lokalen Suche, um vorhandene untere Begrenzungsverfahren zu verbessern. Die neue Lower-Bounding-Prozedur ist garantiert genauso eng wie die bestehenden Prozeduren. In der Praxis ist das neue Verfahren in den meisten Fällen deutlich straffer, was eine deutliche Verbesserung der Performance bei anspruchsvollen Problemfällen ermöglicht.;-;-;-;https://link.springer.com/article/10.1007/s10601-007-9035-7 fc52e20b591e0cdb8623bb471a76a037;de;;;5.2.;;;Gruppensuchoptimierungsalgorithmus für eingeschränkte Optimierung Im Jahr 2006 wurde ein neuartiger Group Search Optimizer (GSO) vorgeschlagen, der von der Verhaltensökologie von Tieren inspiriert wurde. Bei uneingeschränkten Optimierungsproblemen hat GSO seine überlegene Leistung gezeigt. In diesem Beitrag wird die Leistungsfähigkeit des Systems bei der Bewältigung eingeschränkter Probleme untersucht. Mehrere Experimente werden an 13 bekannten und weit verbreiteten Benchmark-Problemen durchgeführt. Die erhaltenen Ergebnisse werden präsentiert und mit der bisher besten bekannten Lösung verglichen. Die experimentellen Ergebnisse zeigen, dass GSO für die meisten Probleme exakte oder nahezu global optimale Lösungen finden kann. GSO kann eingeschränkte Probleme lösen und ist ein alternativer bioinspirierter Optimierungsalgorithmus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22691-5_9 b7a1fd62467ca71b467fbb41284d668f;de;;;4.2.;;;Leistungssteigerung durch Gamification in einem freiwilligen evolutionären Computersystem Comp Verteilte Computersysteme können mit Freiwilligen erstellt werden, Benutzern, die sich nach Erhalt einer Einladung spontan entscheiden, ihre eigenen Ressourcen oder Speicher bereitzustellen, um zu einer gemeinsamen Anstrengung beizutragen. Sie können beispielsweise ein in eine Webseite eingebettetes Skript ausführen, sodass die Zusammenarbeit unkompliziert, aber auch kurzlebig ist, wobei die Ressourcen von der Zeit abhängen, die der Benutzer bereitstellt. Dies impliziert, dass der Benutzer beschäftigt bleiben muss, um so viele Rechenzyklen wie möglich zu erhalten. In diesem Artikel analysieren wir ein auf Freiwilligen basierendes evolutionäres Computersystem namens NodIO mit dem Ziel, Designentscheidungen zu entdecken, die die Teilnahme von Freiwilligen fördern und so die Gesamtrechenleistung erhöhen. Wir präsentieren die Ergebnisse eines Experiments, bei dem eine Gamification-Technik angewendet wird, indem eine Bestenliste hinzugefügt wird, die die von registrierten Mitwirkenden erzielten Spitzenergebnisse anzeigt. In NodIO können Freiwillige teilnehmen, ohne ein Konto zu erstellen. Eine der Fragen, die wir beantworten wollten, war daher, ob sich die Notwendigkeit einer Registrierung negativ auf die Teilnahme der Benutzer auswirken würde. Die Versuchsergebnisse zeigen, dass selbst wenn nur ein kleiner Prozentsatz der Nutzer einen Account erstellte, die Teilnehmer des Wettbewerbs rund 90 % der Arbeit leisteten und damit die Leistung des Gesamtsystems effektiv steigerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-91479-4_29 089dda581ff24cc13048ac853da5a93b;de;;;5.2.;;;Nichtpathogene Protozoen Viele Arten von Protozoen können den Menschen infizieren, aber die meisten sind Kommensalen und verursachen keine Krankheit. Ihre Anwesenheit im Stuhl ist jedoch ein wichtiger Indikator dafür, dass der Patient einige Fäkalien aufgenommen hat, und ihre Identifizierung hat daher einen diagnostischen Wert. Darüber hinaus ist es für den Kliniker wichtig, diese Organismen als Kommensale zu erkennen, anstatt die Patienten aus Unwissenheit unnötig zu behandeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-2476-1_37 902f79db06c5a04f3ad8e59c7b356d23;de;;;5.2.;;;Entwurf des Konzeptmodells in der digitalen Kartendatenbank Die Komponenten der Karteninformationen werden in dieser Arbeit theoretisch analysiert, und die Karteninformationen umfassen hauptsächlich die räumlichen Informationen, attributive Informationen und Informationen zu zeitlichen Merkmalen. Dann wird die digitale Kartenentität gemäß Konstruktionsmerkmalen der Karteninformationen definiert. Schließlich wird auf der Grundlage der Analysen der Konstruktionsmerkmale der digitalen Kartenentität und des vorliegenden konzeptionellen Modells der digitalen Kartendatenbank ein abstrahiertes konzeptionelles Modell der digitalen Kartendatenbank vorgestellt. Und die Normalformtheorie der relationalen Datenbank wird besonders diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF02826475 fbe821995db813d14c2f50f21e06eb0a;de;;;5.2.;;;Ein robuster Ansatz zur Merkmalsanpassung für den Originalitätstest in der Fotografie Heutzutage ist es mit Hilfe von Fotobearbeitungssoftware einfach, ein Foto aus den Fotoarbeiten anderer Leute zu „erstellen“. So tauchten bei einigen Fotowettbewerben immer mehr unoriginelle Fotoarbeiten auf. Um das Urheberrecht zu schützen und die Fairness zu wahren, ist es entscheidend, diese Plagiate zu erkennen. Dies ist jedoch eine schwierige Aufgabe, da die meisten Plagiate kopiert, skaliert, beschnitten und anderweitig bearbeitet wurden. Schlimmer noch, die meisten Originalkopien haben keine digitalen Wasserzeichen.;-;-;-;https://link.springer.com/article/10.1007/s10851-011-0321-z 65eed9cec1b3f67aa72e8f43f8575470;de;;;5.2.;;;Ein neuronaler Hopfield-Netzwerkalgorithmus für die automatische Namensplatzierung für Punktmerkmale In diesem Dokument wird eine Methode zum Hinzufügen von Beschriftungen zur Karte speziell für das Punkt-Feature vorgestellt. Dieses Verfahren überwindet die Unzulänglichkeiten traditioneller Verfahren, z.B. Konflikt-Backtracking-Methode. Sein Kernel-Algorithmus verwendet das neuronale Hopfield-Netzwerk, um die beste Labelposition für das Punktmerkmal zu finden. Die experimentellen Ergebnisse beweisen, dass dieser Algorithmus eine gute Beständigkeit und hohe Geschwindigkeit aufweist.;-;-;-;https://link.springer.com/article/10.1007/BF02826652 4f6f01f4e42c7a7db4251dfc393e18a2;de;;;5.2.;;;Auswirkungen der anfänglichen Suchbindung auf die Leistung selbstadaptiver evolutionärer Berechnungsmethoden Selbstadaptive evolutionäre Berechnungsverfahren werden häufig verwendet, um das globale Optimum in verschiedenen Problembereichen zu finden. Einer der Hauptnachteile dieser Methoden ist die vorzeitige Konvergenz, die den Suchprozess an einem der lokalen Minimum festhält. Dieser Artikel untersucht dieses Problem durch eine umfassende Studie über die möglichen Auswirkungen der anfänglichen Suche gebunden auf die Gesamtleistung der evolutionären Berechnungsmethoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12035-0_31 54e2ad82bf379f56ed2448775272c57c;de;;;4.2.;;;Grundlegendes zur IPv6-Nutzung: Communities und Verhaltensweisen Die größte Herausforderung für aktuelle IPv6-Netzwerke besteht darin, mehr Nutzer zu gewinnen. Unsere Datenanalyse der Spuren von Ausstiegspunkten von CERNET2 zeigt, dass der Verkehr in diesem Netzwerk in den letzten fünf Monaten stark zugenommen hat. In diesem Papier versuchen wir, die Anreize von IPv6-Benutzern zu finden, indem wir Host-Communitys identifizieren und ihre Eigenschaften untersuchen. Wir verraten, dass beliebte Dienste auf CERNET2 Web, FTP und VOD sind. FTP und VOD sind die Killeranwendungen in Bezug auf das Verkehrsaufkommen, während das Web die meisten Datenflüsse produziert. Durch die Analyse des Verhaltens von Endhosts stellen wir fest, dass Hosts viele Gemeinschaften bilden. Diese Gemeinschaften haben unterschiedliche Topologien auf Datenflussebene und verschiedene Interessen an Diensten. Unter Verwendung von IPv6-Präfix-Zuweisungsdaten führen wir eine demografische Untersuchung der IPv6-Nutzung durch. Wir glauben, dass diese Studie durch die Darstellung der CERNET2-Nutzung aus verschiedenen Perspektiven einen Einblick in den weiteren Einsatz von IPv6 bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88623-5_26 43d63610a09038240f7231d00c4a9407;de;;;4.2.;;;Koevolution von Spielstrategien, Spielstrukturen und Netzwerkstrukturen Ziel dieser Arbeit ist es, die koevolutionäre Dynamik von Spielstrategien, Spielstrukturen und Netzwerkstrukturen von Interaktionen zu verstehen. Als ersten Ansatz haben wir ein koevolutionäres Modell von Spielstrategien und Netzwerkmodifikationsstrategien konstruiert, in dem Einzelpersonen die Spielstruktur entwickeln können, indem sie neue Strategien entwickeln, die die bestehenden Auszahlungseigenschaften von Prisoner’s Dilemma (PD) und Symmetric Coordination (SC) erweitern. Evolutionäre Experimente zeigten, dass das sich dynamisch entwickelnde Netzwerk die Entstehung eines adaptiven und sich gegenseitig koordinierenden Netzwerks aus einer isolierten und defekten Population durch eine Verschiebung von einer PD- zu einer SC-artigen Spielstruktur hervorrief, die das anschließende Auftreten adaptiver koevolutionärer Zyklen hauptsächlich basierend auf auf einer PD-artigen Spielstruktur.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32615-8_17 b81bbd8fd8a16106f0421c17e51b5760;de;;;4.2.;;;Organisational Networks Revisited: Relational Predictors of Organizational Citizenship Behavior Organizational Citizenship Behavior (OCB) ist ein wichtiges Managementkonstrukt. Trotz früherer Untersuchungen zum Sozialkapital wurde der Rolle von Netzwerken bei seiner Entstehung nur wenig Aufmerksamkeit geschenkt. In diesem Papier untersuchen wir die Beziehung zwischen OCB, mit Daten, die von Vorgesetzten gesammelt wurden, die ihre Untergebenen bewerten, mehreren Arten von Organisationsnetzwerken (Fachkräfte, Freundschaft, Unterstützung, Vorgesetzte-Untergebene) und mehreren anderen Konstrukten (von den Mitarbeitern selbst gesammelt), OCB in der Vergangenheit nachweislich beeinflusst. Alle Daten wurden bei einer großen Versicherungsgesellschaft in Russland erhoben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-52920-2_11 612b787d69ef6bd7d8444d8e8dc95e2f;de;;;4.2.;;;Crowdsourcing und IoT für widerstandsfähigere überflutungsgefährdete Städte Crowdsourcing ist ein Phänomen, bei dem Gruppen von Personen manchmal mit unterschiedlichem Hintergrund teilnehmen, um eine Aufgabe durch den Einsatz von Technologie zu erfüllen. Das Internet der Dinge (IoT) kann eine große Anzahl heterogener Geräte wie Sensoren, Überwachungskameras, Smartphones, Haushaltsgeräte usw. einbinden. Alle von diesen Geräten erzeugten Daten werden verarbeitet und analysiert, um Anwendungen zu integrieren, die das Leben einfacher machen die Endnutzer. In diesem Artikel wird vorgeschlagen, dass Gemeindemitglieder einer bestimmten Stadtzone, die für Überschwemmungen anfällig ist, zusammenarbeiten, um mithilfe von IoT-Techniken Informationen über die Wetterbedingungen auszutauschen. Die gesammelten Informationen werden zusammen mit Informationen aus der Wettervorhersage und einem Netzwerk von Sensoren und Überwachungskameras, die in bestimmten Bereichen innerhalb und in der Umgebung der untersuchten Zone installiert sind, an ein Cloudlet gesendet, um sie zu analysieren. Die Einbeziehung von Mitgliedern der untersuchten Community in den Prozess wird die verfügbaren IoT-Technologien und den Einsatz von Crowdsourcing zu geringeren Kosten nutzen, was zur Entwicklung der sogenannten Smart City führt. Dieses Papier überarbeitet die verfügbare Technologie und schlägt ein System vor, das beim Sammeln und Auswerten von Informationen zu Vorhersagezwecken hilft, ob die betroffene Gemeinde von einer Überschwemmung bedroht ist. Es wird darauf hingewiesen, dass dieses Risiko aufgrund von Überbevölkerung, schlechter Urbanisierung und Klimawandel jedes Jahr höher wird. Die Ergebnisse zeigen, dass der Einsatz dieser Technologie die Wettervorhersage verbessern wird, damit die Gemeinde im Falle von Überschwemmungsgefahren rechtzeitig reagieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-69136-3_10 19a04cfbba01ca2d833a592b38b66243;de;;;4.2.;;;Die Synchronisation von Autooszillationen im Raum als Selbstorganisationsfaktor Die gegenseitige Synchronisation (Selbstsynchronisation) ist ein bemerkenswerter, mächtiger Faktor der Selbstorganisation in verteilten autooszillatorischen Systemen oder in Netzwerken von diskreten autooszillatorischen Systemen kollektiver Aktivität, die unterschiedlichster Natur sind. Unter Synchronisation verstehen wir eine spontane Anpassung an eine eindeutige Synchronfrequenz und die Herstellung bestimmter Phasenbeziehungen zwischen Schwingungen, die gegenüber Störungen stabil sind, in einigen Teilen eines verteilten Systems oder in teilweise diskreten Autooszillatoren.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-3751-2_6 e44f24ddbd458c6842ad8e3bf49cb00d;de;;;5.2.;;;Das Spinnenmodell der Agenten Wir vertreten die Position, dass große verteilte Systeme auf allen Ebenen besser verstanden werden, wenn die Lokalität berücksichtigt wird. Wenn Kommunikation und Mobilität klar getrennt sind, ist es einfacher, zielgerichtete Agentenprogramme zu entwerfen, zu verstehen und zu implementieren. Wir präsentieren die;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44651-6_20 ab7d783a0b85d8d990973673e2639581;de;;;5.2.;;;Ein implizites Formmodell für die kombinierte Objektkategorisierung und -segmentierung Wir präsentieren eine Methode zur Objektkategorisierung in realen Szenen. Nach einem gemeinsamen Konsens in der Praxis gehen wir nicht davon aus, dass vor der Erkennung eine Figur-Grund-Segmentierung verfügbar ist. Im Gegensatz zu den meisten Standardansätzen zur Objektklassenerkennung segmentiert unser Ansatz das Objekt jedoch automatisch als Ergebnis der Kategorisierung.;-;-;-;https://link.springer.com/chapter/10.1007/11957959_26 6bb875d476e930f16b5849ed7183a4ac;de;;;5.2.;;;Ein verbesserter Bildkorrekturalgorithmus basierend auf der Partikelschwarmoptimierung Die Bildentzerrung ist ein Verfahren zum Anwenden einer projektiven Transformation auf ein Bildpaar, das die epipolaren Linien in einer horizontalen Linie sicherstellen kann. Es gibt nur horizontale Unterschiede in zwei Bildern und die Anpassungsgeschwindigkeit kann in dieser Situation verbessert werden. In diesem Beitrag wird eine einfache Rektifikationsmethode beschrieben. Es nimmt das Element in der Fundamentalmatrix und dem Epipol als Anfangswert und verwendet PSO, um acht optimale Punkte gemäß der Gleichrichtungsregel durch das robuste Schätzverfahren von RANSAC zu berechnen. Dann werden die praktischen und optimalen projektiven Transformationsmatrizen bestätigt. Epipolare Linienentzerrungsexperimente basierend auf synthetischem Bild und realem Bild zeigen die Gültigkeit des Algorithmus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14922-1_73 2013faa280d119fc20638d4856a96e09;de;;;4.2.;;;Kinderpsychotherapie-Prozessforschung Leider ist die Prozessforschung im Erwachsenen- und insbesondere im Kinderbereich noch nicht so weit fortgeschritten, dass sie ihre intellektuellen und monetären Ressourcen auf wenige verbleibende kleinere, aber lästige Themen konzentrieren kann. Stattdessen bleibt die Prozessforschung in jeder ihrer unzähligen Formen vorläufig, schlampig oder nur explorativ ohne systematische Entwicklung und sorgfältige Überprüfung. Tatsächlich haben Prozessforscher dazu tendiert, die grundlegenden Aufgaben der genauen Definition des richtigen Umfangs und Inhalts ihres Forschungsbereichs zu umgehen. Dementsprechend ist die Prozessforschung am häufigsten durch die Verwendung von vereinfachenden oder unangemessen übernommenen Methoden und Verfahren gekennzeichnet, um eher lokale, nicht lebenswichtige Fragen und Anliegen anzugehen. Natürlich gibt es Ausnahmen, aber angesichts dieser allgemeinen Sachlage ist es nicht verwunderlich, dass die Prozessforschung nur langsam voranschreitet, Ergebnisse aus der Prozessforschung unbestätigt oder unbestätigbar sind und der praktische Nutzen der Prozessforschung nach derzeitigem Stand nahezu Null ist Auswirkungen auf gängige Behandlungspraktiken. Die über 50 Jahre alte Prozessforschung steckt noch in den Kinderschuhen, so verschwenderisch sie auch in den Rezensionen ihrer Apologeten und produktivsten Forscher erscheinen mag.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4755-6_28 f9003d113a53164fabe37f0a3e7642a1;de;;;4.2.;;;Ein wirtschaftspolitisches Modell der öffentlichen Ausgaben- und Einkommensbesteuerung Dieses Papier leistet einen Beitrag zur Literatur über Mehrheitsentscheidungen in der Fiskalpolitik. Wir weichen in zwei Dimensionen vom Standardmodell ab. Erstens verwendet die Regierung neben der Umverteilung der Einnahmen die Nettosteuereinnahmen, um die Bereitstellung von Gütern und Dienstleistungen zu finanzieren, die zu Sachleistungen an die Bürger werden. Durch die Entscheidung über die Zusammensetzung dieser Ausgaben (Bildung, Gesundheit, Recht und Ordnung usw.) entscheidet der Staat über die Aufteilung der Leistungen auf die verschiedenen Einkommenssegmente. Diese Wahl ist ein grundlegender Bestandteil der Finanzpolitik. Zweitens gehen wir das Problem der Wahl der Einkommensteuerfunktion und der Zusammensetzung der öffentlichen Ausgaben an, indem wir davon ausgehen, dass der politische Prozess eines dieser Themen als das hervorstechendste auswählt. Politische Kontroversen und Abstimmungen konzentrieren sich ausschließlich auf dieses Thema. Die andere Dimension wird so festgelegt, dass Einwände (Konsensbildung) unter den Wählern minimiert werden. Wir analysieren den Fall, in dem die wichtigste Politik die Zusammensetzung der öffentlichen Ausgaben ist. Wir zeigen, dass es für jede gewählte Ausgabenpolitik eine einzigartige Einkommensteuerfunktion gibt, die einen Konsens findet. Der von uns modellierte politische Prozess ergibt, dass die Progressivität des Einkommensteuertarifs von der Einkommensungleichheit abhängt;-;-;-;https://link.springer.com/article/10.1007/s13209-019-0198-4 7f986a9391199def32edb3ce6673cb1a;de;;;4.2.;;;Prognose des chilenischen Wahljahres: Vorhersage der Präsidentschaftswahlen 2017 über Twitter Das Versagen traditioneller Erhebungsmethoden zur Messung des politischen Klimas und zur Vorhersage von Ereignissen mit großer Auswirkung wie Wahlen bietet Möglichkeiten, nach alternativen Methoden zu suchen. Als Alternative hat sich die Analyse sozialer Netzwerke mit computerlinguistischen Methoden bewährt, jedoch wurden im Nachgang (post hoc) mehrere Studien zu diesen Bereichen durchgeführt. Da 2017 für Chile das Wahljahr für den Zeitraum 2018–2022 war, fanden in diesem Jahr drei Wahlen statt. Diese Bedingung bietet eine gute Umgebung für die Durchführung einer Fallstudie zur Vorhersage dieser Wahlen unter Verwendung sozialer Medien als Hauptdatenquelle. Dieses Papier beschreibt die Implementierung mehrerer Algorithmen des überwachten maschinellen Lernens, um politische Stimmungsanalysen durchzuführen, um das Ergebnis jeder Wahl mit Twitter-Daten vorherzusagen. Diese Algorithmen sind Decision Trees, AdaBoost, Random Forest, Linear Support Vector Machines und Ensemble-Voting-Klassifikatoren. Manuelle Annotationen eines Trainingssatzes werden von Experten durchgeführt, um pragmatische Stimmungen über den Tweets zu kennzeichnen, in denen ein Konto oder der Name eines Kandidaten zum Trainieren der Algorithmen erwähnt wird. Dann wird Tage vor der Wahl ein Vorhersagesatz gesammelt und eine automatische Klassifizierung durchgeführt. Aus diesem klassifizierten Set wird schließlich die Stimmenverteilung für jeden Kandidaten anhand der positiven Stimmung der Tweets ermittelt. Letztendlich wurde eine genaue Vorhersage unter Verwendung eines Ensemble-Voting-Klassifikators mit einem mittleren absoluten Fehler von achieved erreicht;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-91485-5_23 37967921945a01568750a1226a2caf91;de;;;4.2.;;;ITACO: Auswirkungen auf Interaktionen durch Beziehungen zwischen Menschen und Artefakten Unser Ziel in diesem Papier ist die Realisierung einer natürlichen Interaktion zwischen Mensch und Artefakt durch ein ITACO-System. Das ITACO-System ist in der Lage, eine Beziehung zwischen Menschen und Artefakten durch einen migrierbaren Agenten herzustellen. Der Agent im ITACO-System kann zu verschiedenen Artefakten innerhalb einer Umgebung migrieren, um eine Beziehung zu Menschen aufzubauen. Wir führten die beiden Experimente durch, um die Auswirkungen auf den Menschen durch eine Beziehung zu bestätigen, die zwischen Menschen und Artefakten konstruiert wurde. Die experimentellen Ergebnisse zeigten, dass eine Beziehung das Verhalten und die kognitiven Fähigkeiten des Menschen beeinflusst. Die Ergebnisse zeigten auch, dass das ITACO-System und der migrierbare Wirkstoff eine effektive Methode waren, um eine natürliche Interaktion zwischen ihnen zu realisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85483-8_31 bfd8fdb7083f8feccb11f24f0779ddb1;de;;;4.2.;;;Wahlmöglichkeiten in Netzwerken: ein Forschungsrahmen Netzwerke sind im Leben allgegenwärtig, strukturieren Wahlmöglichkeiten und beeinflussen ihre relative Attraktivität. In diesem Artikel schlagen wir eine Integration von Netzwerkwissenschaft und Auswahltheorie vor, die über die bloße Einbeziehung von Metriken aus einem Bereich in Modelle des anderen hinausgeht. Wir postulieren eine Typologie und einen Rahmen für „Netzwerk-Wahl-Modelle“, die die unterschiedlichen Wege aufzeigen, wie Entscheidungen in vernetzten Umgebungen auftreten und diese beeinflussen, sowie zwei spezifische Feedback-Prozesse, die ihre gegenseitige Interaktion lenken,;-;-;-;https://link.springer.com/article/10.1007/s11002-020-09541-9 93388ceae6e21b1928495e1511dc2810;de;;;4.2.;;;Auflösung von Paradoxien in der sozialen Wahl Arrows berühmtes allgemeines Möglichkeitstheorem zeigt im Wesentlichen, dass bestimmte Werturteile, deren Einbeziehung in einen Mechanismus der sozialen Entscheidung gerecht erscheint, logisch inkonsistent sind. Da die Pareto-Bedingung (die einfach besagt, dass bei zwei alternativen Sozialzuständen;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-4219-6_5 ba9b247d844c80ba057937c04f6a8ed9;de;;;5.2.;;;Von sozialer Klasse zu sozialem Stress: Neue Entwicklungen in der psychiatrischen Epidemiologie Seit den Anfängen der sozialepidemiologischen Forschung in der Psychiatrie war die Beziehung zwischen sozialer Schicht und Psychopathologie eines der Hauptthemen. Bereits 1855 erklärte Dr. Edward Jarvis, ein Arzt und Epidemiologe aus Neuengland, in einem Bericht über den ersten Versuch, die wahre Prävalenz psychischer Störungen in einer Gemeinde in den Vereinigten Staaten zu untersuchen, dass „die Armenklasse Verhältnis ihrer Zahl, vierundsechzigmal so viele Fälle von Wahnsinn wie die der unabhängigen Klasse“ (Jarvis 1951, S. 52–53). Trotz gravierender methodischer Einschränkungen bei der Fallidentifikation und -diagnose ist der Befund, dass die höchste Gesamtrate psychischer Störungen in der untersten sozialen Schicht auftritt, in den seit der Jahrhundertwende durchgeführten Feldstudien bemerkenswert beständig geblieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-52057-0_1 4b27d0e3da57384c48f35c9b12798dec;de;;;5.2.;;;Verbreitung von Phytoseiiden auf Pflanzenebene auf regionaler Ebene: eine Überprüfung mit Schwerpunkt auf dem Management von Neoseiulus fallacis in verschiedenen Agrarökosystemen Das Ausbreitungsverhalten von Phytoseiiden- und Tetranychidenmilben ist Schlüsselfaktoren für das Verständnis der Räuber-Beute-Dynamik und der biologischen Bekämpfung von Schädlingsmilben auf verschiedenen räumlichen Ebenen in landwirtschaftlichen und natürlichen Ökosystemen. In diesem Review werden die ambulante und die luftige Ausbreitung beider Milbengruppen auf räumlicher Ebene von Blatt, Pflanze, Kulturpflanze und Region diskutiert. Der Schwerpunkt liegt auf der Verbreitung von Phytoseiiden, insbesondere des spezialisierten Raubtiers Neoseiulus fallacis (Garman) und der Zweipunkt-Spinnmilbenbeute Tetranychus urticae (Koch). Diskutierte Ausbreitungsaspekte sind das Gehen auf einem Blatt, einer Pflanze oder in einem Beutefeld, Luftausbreitung zwischen Pflanzen, Verhalten und Aerodynamik des Luftstarts, Modellierung vs. Überwachung der Ausbreitungsdistanz, Schicksale von sich ausbreitenden Milben, die auf Bodensubstraten landen, Pflanzen als Startplattformen und Landeziele für Streuer sowie regionale Ausbreitungsmuster und integriertes Milbenmanagement.;-;-;-;https://link.springer.com/article/10.1023/A%3A1020406404509 6c874bd2dbd0ecf8750888e1032d4643;de;;;5.2.;;;Gesichtserkennung per Computer Wir beschreiben ein Codierungsschema zum Indexieren von Gesichtsbildern für den nachfolgenden Abruf, das unter bestimmten Bedingungen beim Codieren der Gesichter selbst und nicht bei bestimmten Gesichtsbildern effektiv zu sein scheint und typischerweise 100 Byte verwendet. Wir berichten über Tests, die einen Pool von 100 Gesichtern durchsuchten, wobei als Stichwort ein anderes Bild eines Gesichts im Pool verwendet wurde, das 10 Jahre später aufgenommen wurde. In zwei von drei Tests mit unterschiedlichen Gesichtern wurde das Zielgesicht;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-3201-1_52 83281e625b9f21a9d7ceb529ea27298b;de;;;4.2.;;;Vektorraumdarstellungen von Dokumenten bei der Klassifizierung finnischer Social-Media-Texte Die computergestützte Analyse linguistischer Daten erfordert, dass Texte in numerische Darstellungen umgewandelt werden. Das Ziel dieser Forschung ist es, verschiedene Methoden zur Erstellung von Vektordarstellungen von Textdokumenten aus sozialen Medien zu evaluieren. Die Methoden werden hinsichtlich ihrer Leistungsfähigkeit in einer Klassifikationsaufgabe verglichen. Das heißt, die herkömmliche zählbasierte Term-Frequenz-inverse-Dokument-Frequenz (TFIDF) wird mit den semantischen Einbettungsdarstellungen verteilter Wörter verglichen. Im Gegensatz zu früheren Forschungen untersuchen wir Dokumentrepräsentationen im Kontext des morphologisch reichen Finnisch. Basierend auf den Ergebnissen schlagen wir einen Rahmen für die Erstellung von Vektorraumdarstellungen von Texten in sozialen Medien vor, der auf Sprachtechnologien für morphologisch reiche Sprachen anwendbar ist. In der aktuellen Studie erhöhte die Lemmatisierung von Token die Klassifikationsgenauigkeit, während die lexikalische Filterung im Allgemeinen die Leistung behinderte. Schließlich berichten wir, dass verteilte Einbettungen und TFIDF mit unseren Daten vergleichbare Leistungen erbringen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-46254-7_42 a0c01b57b37365f79b4ca3a0869d564c;de;;;4.2.;;;Selbstgesteuerte Lernbereitschaft, Individualismus – Kollektivismus und erwachsenes studentisches Lernen im Online-Umfeld: Entwicklung und Test eines Kausalmodells In den letzten Jahrzehnten hat das Fernstudium als Ausbildungsmethode stark zugenommen. Während der Fernunterricht verschiedene Formen wie Fernkurse hatte, hat interaktives Fernsehen – das Aufkommen der Technologie – es Lehreinrichtungen und Einzelpersonen ermöglicht, sich am Fernunterricht zu beteiligen, insbesondere am Online-Lernen, wie die Zunahme von Online-Abschlüssen zeigt. Die durch webfähige Technologie vermittelte Bildung ist für erwachsene Lernende, die Vollzeitbeschäftigte sind und/oder andere Verpflichtungen wie familiäre Verpflichtungen haben oder häufig reisen, ein attraktiver Aspekt beim Erwerb von Bildung. Angesichts der asynchronen und flexiblen Natur des Lernens ist es für Institutionen und Einzelpersonen von größter Bedeutung, individuelle Unterschiede in Bezug auf das Lernen zu erkennen, die ihren Lernprozess unterstützen oder behindern können.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-2973-7_5 092852179740cb6ae805140c5c0814aa;de;;;5.2.;;;Baumsuche und ARC-Konsistenz in Constraint Satisfaction Algorithmen Constraint-Erfüllungsprobleme sind in der Künstlichen Intelligenz allgegenwärtig und viele Algorithmen wurden zu ihrer Lösung entwickelt. Dieses Papier bietet eine einheitliche Einführung in einige dieser Algorithmen, darunter Backtracking, Haralick’s Forward Checking, Partial Lookahead und Full Lookahead sowie drei basierend auf den Arc-Konsistenzalgorithmen, die Mackworth AC1, AC2 und AC3 genannt hat. Es wird gezeigt, dass diese alle vereinheitlicht werden können, indem sie die gemeinsame Struktur der Baumsuche (TS) aufweisen, die mit Bogenkonsistenzalgorithmen (AC) unterschiedlichen Ausmaßes erweitert wird. Die Algorithmen von Haralick und sogar das traditionelle Backtracking enthalten eine Komponente mit partieller Bogenkonsistenz. In Analogie zur Mackworth-Nomenklatur werden diese AC1/5, AC1/4, AC1/3 und AC1/2 genannt, wobei die Nachsilbe mehr oder weniger proportional zum erreichten Grad der Lichtbogenkonsistenz ist. Die Algorithmen können dann vereinheitlicht werden als die Form TS + AC;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-8788-6_9 16253ab23e213f255a0bc51f0861a688;de;;;5.2.;;;PDEs erster Ordnung Dieses Kapitel befasst sich mit PDEs erster Ordnung und allgemeiner mit Problemen, bei denen Lösungs- und Testräume unterschiedlich sind und für die keine Koerzitivfeldstärke gilt. Das prototypische Beispiel ist die Advektionsgleichung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-4355-5_5 67b0c263a37f208fe132992e28f20685;de;;;5.2.;;;Auszüge von Goethe, Novalis und William Blake Es folgt eine kurze Auswahl von drei Autoren, die meiner Meinung nach einige der in diesem Buch beispielhaft dargestellten Themen am treffendsten verkörpern. Die Reden aus Goethes;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-00484-3_31 bd58afefa77b94e22b774d0cdf4b9cef;de;;;5.2.;;;3D-Lidar-Datensegmentierung mit einer sequentiellen Hybridmethode In diesem Kapitel wird eine sequentielle Hybridmethode für die Segmentierung von 3D-Lidar-Daten vorgeschlagen. Der vorgestellte Ansatz liefert zuverlässigere Ergebnisse gegen das Problem der Untersegmentierung, d. h. die Zuweisung mehrerer Objekte zu einem Segment, indem räumliche und zeitliche Informationen kombiniert werden, um nahegelegene Objekte in den Daten zu unterscheiden. Zum Beispiel kommt es häufig vor, dass Fußgänger mit ihren Nachbarobjekten untersegmentiert werden. Die Kombination von zeitlichen und räumlichen Hinweisen ermöglicht es uns, solche Mehrdeutigkeiten aufzulösen. Nachdem wir die zeitlichen Merkmale erhalten haben, schlagen wir einen sequentiellen Hybridansatz unter Verwendung der Mean-Shift-Methode und eine sequentielle Variante des entfernungsabhängigen chinesischen Restaurantprozesses (ddCRP) vor. Die Segmentierungsblobs werden mit einem Connected Components-Algorithmus räumlich aus der Szene extrahiert. Dann sucht als Nachbearbeitung die Mittelwertverschiebung die Anzahl möglicher Objekte im Zustandsraum jedes Blobs. Wenn der Mean-Shift-Algorithmus eine Untersegmentierung feststellt, führt das sequentielle ddCRP die letzte Partition in diesem Blob durch. Andernfalls bleibt das abgefragte Blob gleich und wird als Segment zugewiesen. Im Vergleich zu den anderen neueren Methoden in der Literatur reduziert unser Framework die Untersegmentierungsfehler bei der Ausführung in Echtzeit erheblich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-11292-9_26 b6a451c26a72367c7aab24008f33bf61;de;;;4.2.;;;Am Ort der Mathematik in der Kultur Der Stellenwert der Mathematik in unserer Gesellschaft erscheint mir ziemlich eigenartig. Es ist sicherlich irgendwo im Katalog unserer Aktivitäten, sogar allgemein, wenn auch manchmal reumütig, als ein Punkt von wachsender Bedeutung wahrgenommen, wobei es offensichtlich ist, dass die immer weiter eindringende Technologie, mit der wir es zu tun haben, einen mathematischen Unterbau hat. Aber wo ist es einzuordnen? Wird es als Teil der Kultur angesehen? Kaum: Von einem „gebildeten Menschen“ wird erwartet, dass er Kenntnisse und Wertschätzung für Literatur, Geschichte, Kunst, Musik, vergangene Zivilisationen usw. besitzt, aber nicht unbedingt für Naturwissenschaften und überhaupt nicht für Mathematik. Um sich für ein solches Label zu qualifizieren, ist es zwingend erforderlich, etwas über so überragende Persönlichkeiten wie Platon, Michel-Angelo, Goethe, V. Hugo, Peter den Großen, Napoleon usw. zu wissen, aber es ist keine Verpflichtung, die Größten zu ignorieren Mathematiker wie L. Euler, CF Gauss, D. Hilbert oder H. Poincaré, wenn auch nicht stolz. In seinem Buch: „;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-78502-3_24 0ae2ab5a0c0193ff5dd6a531bf67f35d;de;;;4.2.;;;Die Schwaben und das Dritte Reich – Naziifiziert und „Koordiniert“ – Rekrutiert für die Waffen-SS Es muss daran erinnert werden, dass der Kontakt zwischen den Auslandsdeutschen und dem deutschen Mutterland nicht mit der Ankunft Hitlers entstand, sondern von Anfang an bestand. Obwohl diese Kontakte hauptsächlich auf kultureller Ebene entstanden, ist auch klar, dass sie nie ganz frei von politischen Untertönen waren. Letztere variierte in ihrer Intensität je nach Tendenz und politischem Klima, das im Reich vorherrschte. Es versteht sich von selbst, dass Politik und Ideologie auf diesem Gebiet wie auf allen anderen in der NS-Zeit eine beispiellose Oberhand gewannen. Es wäre jedoch unzutreffend zu behaupten, dass diese neue Betonung überraschend kam, da der Boden schon lange vor der;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-9717-5_10 82f21a4053bde6c61ac859d39d0e96c2;de;;;5.2.;;;Suchen Sie in Transportnetzwerken nach standortbasierten Diensten Die Frage, wie standortbasierte Dienste (LBS) bereitgestellt werden können, hat viele Forscher angezogen. In diesem Papier konzentrieren wir uns auf eine typische Situation von LBS, die darin besteht, Dienstleistungen für Benutzer in Autos bereitzustellen, die sich in einem Straßennetz bewegen. Um solche Dienste bereitzustellen, wird ein Integrationsverfahren zum Darstellen von Transportinformationen mit einer Straßenkarte vorgeschlagen. Da die Transportinformationen von Straßennetzen unter der für Straßennetze erstellten räumlichen Indexstruktur verwaltet werden, können durch unsere Integrationsmethode räumliche Abfragen auf diese die Vorteile der räumlichen Indexstruktur nutzen und einen effizienten Prozess erzielen. Darüber hinaus diskutieren wir in diesem Beitrag Pfadsuche, Regionssuche, Nearest Neighbour Search und Continuous Nearest Neighbour Search, die auf Verkehrsnetzen mit (oder ohne) Berücksichtigung der statischen räumlichen Objekte außerhalb der Verkehrsnetze basieren. Anhand von Verkehrsinformationen und dem entsprechenden realen Straßennetz bietet der Beitrag Auswertungen durch den Vergleich unserer Darstellungs- und Abfragemethode mit denen in verwandten Arbeiten. Die Ergebnisse zeigen eine gute Performance unserer Methoden.;-;-;-;https://link.springer.com/article/10.1007/s10489-006-0004-4 4859c68f6837f1e074ad8197e9b613ea;de;;;5.2.;;;BDDRPA*: Ein effizienter BDD-basierter inkrementeller heuristischer Suchalgorithmus für die Neuplanung Wir stellen einen neuen Algorithmus vor, BDDRPA*, einen effizienten BDD-basierten inkrementellen heuristischen Suchalgorithmus für die Neuplanung. BDDRPA* kombiniert die inkrementelle heuristische Suche mit der BDD-basierten Suche, um Neuplanungssuchprobleme in der künstlichen Intelligenz effizient zu lösen. Wir führen viele Experimente durch und unsere Experimentauswertung beweist, dass BDDRPA* ein leistungsstarker inkrementeller Suchalgorithmus ist. BDDRPA* übertrifft die Breitensuche bei großen Suchproblemen um mehrere Größenordnungen. Wenn die Änderungen an den Suchproblemen gering sind, benötigt BDDRPA* weniger Laufzeit, da frühere Informationen wiederverwendet werden, und selbst wenn die Änderungen 20 Prozent der Größe der Probleme erreichen, arbeitet BDDRPA* noch effizienter.;-;-;-;https://link.springer.com/chapter/10.1007/11941439_67 8c7d7fda12f103d74783dbf679897b70;de;;;5.2.;;;Modale Regression über direkte Schätzung der logarithmischen Dichteableitung Die Regression zielt darauf ab, die bedingte Erwartung des Outputs bei gegebenem Input abzuschätzen, was geeignet ist, die funktionale Beziehung zwischen Input und Output zu analysieren. Andererseits, wenn die bedingte Dichte mit mehreren Modi analysiert wird,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-46672-9_13 b21991109fcbceecd0ec34b16a09f00a;de;;;4.2.;;;Informationssystementwicklung für Open Learning Support: Open System of Distance Learning Analysen von wissenschaftlicher Literatur, Projekten und bestehenden Marktprodukten zeigen, dass Fernunterricht eine neue Richtung in der Entwicklung von Informationssystemen ist. In der Literatur fehlt jedoch ein systembasierter Einblick in das Fernstudium als komplexes Informationssystem. Die Autoren dieses Artikels führen eine weiche Systemanalyse auf der Grundlage der Theorie hierarchischer Mehrebenensysteme durch, die es ermöglicht, ein Modell des Open System of Distance Learning (OSDL) zu entwickeln. Als Ergebnis der weichen Systemanalyse wird das Managementmodell für OSDL vorgeschlagen. Das Managementmodell der OSDL umfasste den Lernobjektansatz für die Entwicklung von Wissensdatenbanken, den sozialen Aspekt des E-Learning-Prozesses und das kompetenzbasierte Lernen. Die hierarchische Struktur des Informationssystems definiert die Menge seiner Teilsysteme und deren Funktionsumfang. Das Hauptergebnis einer solchen Modellierung ist das Funktionsschema, das es ermöglicht, die Kette „Information – Wissen – Kompetenz“ in verschiedenen Arten von Bildungsorganisationen zu managen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23854-3_54 ec2e6dad22bc70ee8a07e8bea86bf4fd;de;;;5.2.;;;Die Behandlung einiger Einschränkungen als hart beschleunigt den lokalen ESG-Suchalgorithmus Lokale Suchmethoden (LS) zur Lösung von Constraint Satisfaction Problems (CSP) wie GSAT, WalkSAT und DLM starten die Suche nach einer Lösung aus einer zufälligen Zuweisung. LS untersucht dann die Nachbarn dieser Zuweisung, wobei die Straffunktion verwendet wird, um bessere Nachbarbewertungen zu bestimmen, zu denen gewechselt werden soll. Es wiederholt diesen Vorgang, bis es eine Lösung findet, die alle Randbedingungen erfüllt. ICM betrachtet einige der Randbedingungen als harte Randbedingungen, die immer erfüllt werden. Auf diese Weise reduzieren die Beschränkungen die möglichen Nachbarn bei jeder Bewegung und somit den gesamten Suchraum. Wir wählen die harten Beschränkungen so, dass der Bewertungsraum, der diese Beschränkungen erfüllt, zusammenhängend ist, um zu gewährleisten, dass eine lokale Suche jede Lösung aus jeder Bewertung in diesem Raum erreichen kann. In diesem Papier integrieren wir ICM in einen der neuesten lokalen Suchalgorithmen, ESG, und zeigen die Verbesserung des neuen Algorithmus.;-;-;-;https://link.springer.com/chapter/10.1007/3-211-27389-1_59 02fd2b10155b5791027a4b4fca97e6c5;de;;;4.2.;;;Der Maptree: Eine feinkörnige formale Darstellung des Raums Dieser Beitrag stellt eine neue formale Struktur vor, die als Maptree bezeichnet wird und von der gezeigt wird, dass sie die topologische Struktur von Einbettungen von Graphen in orientierbare, geschlossene Oberflächen bis hin zum Homöomorphismus eindeutig spezifiziert. Es wird eine einfache Modifikation vorgenommen, um zu zeigen, dass die Darstellung auch für planare Einbettungen funktioniert. Es wird gezeigt, dass die Maptrees in der Lage sind, die Topologie von 2D-Raumobjekten und deren Beziehungen umfassend darzustellen. Die Maptree-Darstellung wird dann verwendet, um einige Eigenschaften der topologischen Änderung in diesen Einbettungen zu charakterisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33024-7_22 d70f536c4e9e5082bce582c805635de8;de;;;4.2.;;;Virtuelle Aktion In der Debatte um Handlungen in virtuellen Umgebungen wurden zwei voneinander abhängige Fragetypen erwogen: Was tut eine Person, die in einer virtuellen Umgebung handelt? Zweitens: Können virtuelle Handlungen moralisch bewertet werden? Diese Fragen wurden anhand von Beispielen aus moralisch fragwürdigen Computerspielen diskutiert, die in Gräueltaten zu schwelgen scheinen. Die Beispiele wurden mit den Begriffen „virtueller Mord“, „virtuelle Vergewaltigung“ und „virtuelle Pädophilie“ eingeführt. Die terminologische Wahl hat die Debatte, die Zuweisung von Handlungstypen und die Art und Weise, wie moralische Bewertung durchgeführt werden soll, nachhaltig beeinflusst. Diese Terminologie und ihre theoretischen Konsequenzen führen zwar manchmal zu korrekten Ergebnissen, führen aber bei einer flächendeckenden Anwendung zu absurden Ergebnissen. Es wird vorgeschlagen, dass diese absurden Konsequenzen durch eine andere Antwort auf die Frage, was Menschen in virtuellen Welten tun, vermieden werden können. Angebliche virtuelle Handlungen sind in erster Linie die Erstellung und Veränderung von Datenstrukturen und die daraus resultierende Ausgabe in Computerhardware. Solche Modifikationen der Datenstruktur und der Bilder können mit unterschiedlichen Absichten, Zwecken und Stilen durchgeführt werden, was die Art und die moralische Bewertung der Handlungen eines Benutzers beeinflusst. Diese Neuinterpretation ermöglicht eine komplexere Analyse der moralischen Gründe für Lob- oder Tadelwürdigkeit von Handlungen in virtuellen Umgebungen. Diese Analyse berücksichtigt nicht nur Schäden und Auswirkungen auf den Charakter, sondern auch die besonderen Arten, in denen Sprechakte moralisch falsch sein können: z.B. agitatorisch, täuschend, Quatsch.;-;-;-;https://link.springer.com/article/10.1007/s10676-020-09574-8 77bd5edbae30d73b963b6c11fc9998c2;de;;;4.2.;;;Strahlenbiologie Strahlenbiologie im Weltraum hat viele Facetten. Es umfasst die Messung von Strahlungsfeldparametern, die Untersuchung von Wechselwirkungsprozessen mit biologisch interessanten Materialien (einschließlich der Entwicklung spezieller flugtauglicher Geräte) sowie die Untersuchung strahlungsbedingter Phänomene in biologischen Systemen, die sich vom Molekül bis zum Ganzen erstrecken Karosserie. Untersuchungen umfassen viele Größenordnungen in räumlichen Dimensionen und Zeit und erfordern die Zusammenarbeit vieler Disziplinen. Dies gilt natürlich gleichermaßen für die erdgebundene Strahlenbiologie, doch stellen Untersuchungen im Weltraum besondere Probleme mit den spezifischen Eigenschaften des Strahlungsfeldes dar, die am Boden nicht zu finden und nur schlecht zu simulieren sind. Ein zusätzlich zu berücksichtigender Faktor ist die mögliche Wechselwirkung mit flugbedingten Bedingungen, von denen die Schwerelosigkeit am prominentesten ist, die nur bei Weltraummissionen sinnvoll untersucht werden können. Die erzielten Ergebnisse werden nicht nur für die Weltraumradiobiologie als Teildisziplin von Wert sein, sondern können auch grundlegende Prozesse beleuchten, die für das gesamte Gebiet von Bedeutung sind. Strahlung stellt die wichtigste Gefahr für den Menschen bei langfristigen Weltraumflügen dar, insbesondere außerhalb des Erdmagnetfeldes (Adams 1992). Strahlenschutz ist daher zwingend erforderlich, um das Wohlergehen der Astronauten zu gewährleisten und das Auftreten späterer Schäden wie Krebs zu begrenzen. Passive Abschirmung ist nur bedingt praktikabel, sowohl aus offensichtlichen Massengrenzen als auch aus physikalischen Gründen im Zusammenhang mit den sehr hohen Energien der Teilchen in der galaktischen kosmischen Strahlung (GCR). Trotz sehr vieler Untersuchungen ist das Verständnis der Schwerteilchenstrahlungsbiologie, die die notwendige Voraussetzung für eine rationale Gefährdungsabschätzung darstellt, noch recht rudimentär.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-61099-8_6 4ef127dd8cc56a6eaee0f63f54f855d9;de;;;4.2.;;;Strategische Aspekte der Entwicklung der Ost-West-Wirtschaftsbeziehungen Seit Beginn der 1970er Jahre hat sich in der Weltwirtschaft ein radikaler Strukturwandel vollzogen. Sie stellen neue große Herausforderungen für Wirtschaft und Gesellschaft dar und es entsteht ein neues Weltwirtschaftssystem.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-19369-1_25 209274385e64ba2373d2b40746d78c70;de;;;5.2.;;;Bewegungsinformationsbasiertes Videoabrufsystem mit grober Vorklassifizierung Bewegungsinformationen sind das grundlegende Element für die Videoanalyse. Es stellt die Veränderung des Videos auf der Zeitachse dar und spielt eine wichtige Rolle bei der Beschreibung des Videoinhalts. In diesem Beitrag wird ein robustes bewegungsbasiertes Video-Retrieval-System vorgeschlagen. Zunächst wird die Aufnahmegrenzendetektion durch Analysieren von Luminanzinformationen erreicht, und Bewegungsinformationen des Videos werden abstrahiert und analysiert. Dann wird die grobe Mengenlehre eingeführt, um die Schüsse in zwei Klassen zu klassifizieren, globale Bewegungen und lokale Bewegungen. Schließlich werden Aufnahmen dieser beiden Typen entsprechend den Bewegungstypen der übermittelten Aufnahmen abgerufen. Experimente zeigen, dass es effektiv ist, Aufnahmen mit globalen Bewegungen von solchen mit lokalen Bewegungen in verschiedenen Videotypen zu unterscheiden, und in dieser Situation ist der bewegungsinformationsbasierte Videoabruf genauer.;-;-;-;https://link.springer.com/chapter/10.1007/11847465_15 69931d87553c745d9268a4ad47a73fd5;de;;;5.2.;;;Durchsuchen von Augenzentren mit einem kontextbasierten neuronalen Netzwerk Die Lokalisierung von menschlichen Merkmalen, wie beispielsweise die Zentren des menschlichen Auges, ist für die Gesichtsbildanalyse und das Verständnis sehr wichtig. Dieses Papier schlägt eine kontextbasierte Methode für die Suche nach Zentren des menschlichen Auges vor. Ein neuronales Netz lernt die Zusammenhänge zwischen menschlichen Augenzentren und ihrer Umgebung in Bildern. Für einige Anfangspositionen werden die Abstände zwischen ihnen und den markierten Augenzentren in horizontaler und vertikaler Richtung gelernt bzw. erinnert. Bei einer neuen Anfangsposition sagt das System die Positionen der Augenzentren gemäß den Kontexten voraus, die das neuronale Netzwerk gelernt hat. Zwei Experimente zur Suche in Zentren des menschlichen Auges zeigten vielversprechende Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72393-6_102 231ae4efbb99196085ea936d1b16d06e;de;;;5.2.;;;Zweidimensionale Reichweitensuche basierend auf dem Voronoi-Diagramm Dieser Artikel untersucht das Problem der zweidimensionalen Bereichssuche und konstruiert einen einfachen und effizienten Algorithmus basierend auf dem Voronoi-Diagramm. In diesem Problem werden eine Menge von Punkten und ein Abfragebereich angegeben, und wir möchten alle Punkte, die innerhalb des Abfragebereichs liegen, so schnell wie möglich aufzählen. In den meisten früheren Untersuchungen zu diesem Problem wurde die Form des Abfragebereichs auf bestimmte Bereiche wie Kreise, Rechtecke und Dreiecke beschränkt, und die Verbesserung der Worst-Case-Leistung wurde verfolgt. Andererseits ist der in diesem Artikel vorgeschlagene Algorithmus für eine allgemeine Form des Abfragebereichs ausgelegt und soll eine gute Leistung im durchschnittlichen Fall erzielen. Diese Leistung wird tatsächlich durch numerische Experimente beobachtet. Wir können beobachten, dass unser Algorithmus in fast allen Fällen die bessere Leistung zeigt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44842-X_79 3e6b0028166e3bcb482ae5afefb793c4;de;;;4.2.;;;Wissenserfassung und Informationsaustausch für Wissenschaft und Technologie Das Wissen über das intellektuelle Kapital von Forschungsorganisationen kann von Prozessen und Praktiken der Wissenserfassung und des Informationsaustauschs in Richtung eines Wettbewerbsvorteils profitieren. Die integrative Perspektive wird durch Kommunikation, Navigation und Multikontaktbeziehung beschrieben. Es unterstützt einen dynamischen Rahmen für die gegenwärtige „offene Natur“ des Wissens. Foresight-Projekt und Horizon Scanning sind Praktiken, über die in diesem Papier zur Wissenserfassung in Wissenschaft und Technologie berichtet wird. Diese Praktiken haben einen integrativen und einnehmenden Charakter, der partizipative Prozesse erfordert und bereichsübergreifende Aspekte und Auswirkungen jenseits von Technologieentwicklungen untersucht. In einer Sitzung der KMIS-Konferenz 2014 konzentrierten sich die Diskussionen im Zusammenhang mit diesem Papier auf drei allgemeine Prinzipien zur Bewältigung von Wettbewerbsvorteilen in F&E-Gruppen: Teameffektivität von Leistung und Kreativität, Teamzusammenarbeit und Wettbewerb zur Leistungssteigerung, Teamintegration, Koordination und Synchronisation für Vorteile und Werte erfolgreicher Forschungsorganisationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25840-9_33 491914e138a48b41f807a3efaf45854e;de;;;4.2.;;;Ultrastruktur der Pars intermedia: Entwicklung In diesem Kapitel wird die Pars intermedia (PI) des Kaninchens als Modell verwendet, aber es werden Verweise auf andere Arten, einschließlich des Menschen, gemacht, wo sie relevant sind. Zunächst wird die Ultrastruktur der Zelltypen und die Nervenversorgung beim Erwachsenen beschrieben. Die allmählichen Veränderungen im strukturellen Erscheinungsbild des PI, die mit der normalen prä- und postnatalen Entwicklung zusammenhängen;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-3861-1_4 f7adfb96d448c40b39bc58dddb6aed96;de;;;5.2.;;;Ein hybrider Algorithmus basierend auf Simplex-Suche und differentieller Evolution für ressourcenbeschränkte Projektplanungsprobleme In diesem Beitrag wird ein effektiver Hybridalgorithmus vorgeschlagen, um das ressourcenbeschränkte Projektplanungsproblem durch die Verschmelzung der Nelder-Mead (NM) Simplex-Methode und der differentiellen Evolution (DE) zu lösen. Die Individuen werden mit dem auf Prioritätswerten basierenden Verfahren kodiert und durch ein serielles Schema zur Erzeugung von Plänen (SGS) dekodiert. Darüber hinaus wird ein vernünftiger Rahmen vorgeschlagen, um die Simplex-basierte geometrische Suche und die DE-basierte evolutionäre Suche zu hybridisieren, und die Simplex-Suche wird modifiziert, um die Qualität der durch DE erhaltenen Lösungen weiter zu verbessern. Durch den interaktiven Einsatz der beiden Methoden mit unterschiedlichen Mechanismen kann das Suchverhalten bereichert und die Explorations- und Verwertungsfähigkeiten gut ausbalanciert werden. Simulationsergebnisse basierend auf einigen Benchmarks zeigen die Wirksamkeit des vorgeschlagenen Hybridalgorithmus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24728-6_77 74f0a05c9b64a52a88143a7e06b24114;de;;;5.2.;;;Strukturformoptimierung der Freiform-Oberflächenschale und Eigenschaft der Lösungssuche mit Firefly-Algorithmus Das Berechnungsverfahren zur Strukturformoptimierung basiert auf heuristischen Optimierungsverfahren wie der Schwarmintelligenz (SI), die Muster verwenden, die in in der Natur beobachteten selbstorganisierenden Phänomenen gefunden werden. Die meisten SI-Techniken, einschließlich der Partikelschwarmoptimierung (PSO) und der künstlichen Bienenkolonie (ABC), erreichen eine global optimale Lösung. Der Glühwürmchen-Algorithmus (FA) kann durch Einstellen geeigneter Rechenparameter sowohl eine globale optimale als auch eine lokal optimale Lösung erreichen. Das Verfahren zum Einstellen dieser Parameter ist jedoch vergleichsweise schwierig. Um die Einstellung dieser Parameter zu vereinfachen, implementieren wir ein Rechenschema, bei dem der Abstand zwischen zwei Glühwürmchen im Designvariablenraum dimensionslos ist. Die Wirksamkeit und Gültigkeit dieses FA wird verdeutlicht, indem die diversifizierte Lösung für eine globale optimale Lösung und lokale optimale Lösungen mittels lokaler Suche in der Strukturformoptimierung einer Freiformflächenschale gezeigt werden.;-;-;-;https://link.springer.com/article/10.1007/s12206-015-0317-5 feb068ebe640060e5dd6bddba33acba0;de;;;5.2.;;;Geometrische Bilder für Quantensuchalgorithmen In dieser Arbeit geben wir die geometrischen Bilder für Quantensuchalgorithmen in zerlegter Form wieder, nämlich in Form einer Phasendrehung des markierten Zustands und einer Phasendrehung um den Mittelwert. Wir wenden diesen Formalismus auf verschiedene Quantensuchalgorithmen an und geben explizite Interpretationen des Standard-Grover-Algorithmus, beliebiger Phasendrehungen, Phasenanpassung und Festkomma-Suchalgorithmus. Die Bilder zeigen anschaulich, wie sich Zustandsvektoren während des Suchprozesses entwickeln. Diese Ergebnisse sind hilfreich, um zu verstehen, wie die Quantensuchalgorithmen funktionieren.;-;-;-;https://link.springer.com/article/10.1007/s11128-011-0249-7 d70e006540b80ee41d2c826acba7d13e;de;;;5.2.;;;Forschung zu Hilfstargetextraktions- und -erkennungstechnologie in Big-Data-Umgebungen Mit der rasanten Entwicklung der globalen Luftfahrtindustrie steigt das Flugvolumen rasant an, und auch die Luftfahrtindustrie tritt schnell in das Zeitalter von Big Data ein. In diesem Artikel wird die digitale Extraktion von Bildinformationen mit unterstützter Zielerkennungstechnologie verwendet, um die Routen- und Wegpunktinformationen aus dem Bild zu extrahieren und in eine Vektorroute für die Zivilluftfahrt zu verwandeln. In Kombination mit dem massiven Flugplan und der Zielflugbahn im Internet wird ein Tracking-Feature-Matching realisiert, um Benutzern zu helfen, Ziele schnell zu entdecken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-78609-0_55 aca1cb6967472ffd292cb07402cc801b;de;;;5.2.;;;Härtemaße für Gridworld-Benchmarks und Performance-Analyse von heuristischen Echtzeit-Suchalgorithmen Gridworlds sind eine der beliebtesten Einstellungen, die bei Benchmark-Problemen für heuristische Echtzeit-Suchalgorithmen verwendet werden. Allerdings wurden bisher keine umfassenden Studien veröffentlicht, wie sich der Unterschied in der Dichte von zufällig positionierten Hindernissen auf die Härte der Probleme auswirkt. In diesem Beitrag werden zwei Maßnahmen zur Charakterisierung der Härte von Gridworld-Problemen, parametrisiert durch das Hindernisverhältnis, vorgestellt und mit der Leistungsfähigkeit der Algorithmen in Beziehung gesetzt. Wir zeigen empirisch, dass die Spitzenpositionen dieser Messungen und die tatsächliche Leistungsverschlechterung der Basisalgorithmen (RTA* und LRTA*) für eine Vielzahl von Problemstellungen fast miteinander übereinstimmen. So decken die Maßnahmen einige interessante Aspekte der Gridworlds auf.;-;-;-;https://link.springer.com/article/10.1007/s10732-008-9084-0 f8952b6f9c4b421082947451edb73606;de;;;4.2.;;;Dual-Purpose-Technologien im Hinblick auf die Diversifizierung des militärisch-industriellen Komplexes Russlands Es werden aktuelle Probleme der wissenschaftlich-informationsgestützten Unterstützung des Diversifizierungsprozesses des militärisch-industriellen Komplexes (oder verteidigungsindustriellen Komplexes, DIC) Russlands betrachtet, was den effektiven Einsatz von Dual-Purpose-Technologien in verschiedenen zivilen Bereichen der nationalen Wirtschaft. In diesem Zusammenhang wird das Programm der 7. Fachausstellung „Dual-Purpose Products and Technologies: DIC Diversification“, die im Oktober 2006 in Moskau stattfand, analysiert.;-;-;-;https://link.springer.com/article/10.3103/S105261880702001X f7172e47af7c0802c9d695d33b76c2b2;de;;;5.2.;;;Anwendung von PBL und SRL zur Verbesserung von Lernstrategien und Zusammenarbeit in einer Blended-Learning-Umgebung Es sind Studien erforderlich, um die Merkmale von E-Learning-Umgebungen in der Hochschulbildung (HE) zu untersuchen und wichtige Themen wie bewährte Verfahren, Unterrichtsgestaltung und angewandte Techniken hervorzuheben, damit sinnvolle Lernerfahrungen entstehen können. Zu diesem Zweck wird das Design einer intuitiven Lernplattform vorgeschlagen, die Online- und F2F-Lernen nach einem etablierten theoretischen Rahmen integriert. Ziel der vorliegenden Studie ist es daher, einen Instruktionsdesign-Workflow basierend auf der Kombination von Problembasiertem Lernen (PBL) und Selbstreguliertem Lernen (SRL) durch eine Blended-Learning-Umgebung (apT;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-62743-4_8 c2ff52f4a9a4fd962f714645b3846107;de;;;5.2.;;;Offline-Schlüsselwortraten-Angriffe auf die aktuelle Verschlüsselung öffentlicher Schlüssel mit Schlüsselwortsuchschemata Die Public Key Encryption with Keyword Search Scheme (PEKS) wurde erstmals von Boneh et al. im Jahr 2004. Dieses Schema löst das Problem der Suche nach Daten, die mit einer öffentlichen Schlüsseleinstellung verschlüsselt wurden. Kürzlich haben Baek et al. schlug eine sichere kanalfreie öffentliche Schlüsselverschlüsselung mit Schlüsselwortsuche (SCF-PEKS) vor, die den sicheren Kanal zum Senden von Falltüren entfernt. Später schlugen sie ein weiteres verbessertes PEKS-Schema vor, das in ein Public-Key-Verschlüsselungs-(PKE)-Schema integriert ist, genannt PKE/PEKS. In diesem Papier stellen wir Offline-Angriffe zum Erraten von Schlüsselwörtern auf SCF-PEKS- und PKE/PEKS-Schemata vor. Wir zeigen, dass Angreifer von außen, die die in einem öffentlichen Kanal gesendeten Falltüren erfassen, verschlüsselte Schlüsselwörter aufdecken können, indem sie Offline-Angriffe zum Erraten von Schlüsselwörtern durchführen. Insider-Gegner können die Angriffe jedoch unabhängig von den Falltüren durchführen, die über einen öffentlichen oder sicheren Kanal gesendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69295-9_10 fd455a0f6d646f8029f52041bca76bf6;de;;;5.2.;;;Forschung zu neuem Tabu-Suchalgorithmus für Multi-Cargo-Ladeproblem In diesem Beitrag werden die Verladeprobleme von Gütern mit mehreren Kategorien vorrangig untersucht. Entsprechend den Eigenschaften des Modells wird ein neuer Tabu-Suchalgorithmus verwendet, um die Optimierungslösung zu erhalten. Es wendet eine neu verbesserte Einfügemethode an, um eine anfängliche Lösung zu konstruieren, um die Machbarkeit der Lösung zu verbessern, zentriert die Kubatur-Gewichts-Balance, um eine zweischichtige Zufallsoperation zu entwerfen, um ihre Nachbarschaft zu konstruieren, um die Effizienz und Qualität der Suche zu steigern. Wendet autoadaptive Tabu-Länge an, um die Suchfunktion dynamisch zu steuern. Schließlich verwendet es simulierte Experimente, um die Wirksamkeit und Durchführbarkeit dieses Algorithmus zu beweisen, und liefert Hinweise für die massive Lösung praktischer Probleme.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30126-1_108 8ab78b05f7ad30983a25eeb01299aa73;de;;;5.2.;;;Pfadsuchalgorithmen im Servicenetzwerk unter integriertem Transportsystem Die traditionellen Pfadsuchalgorithmen für ein Verkehrsnetz mit einem einzigen Modell haben keine Anwendung auf das integrierte Verkehrsnetz, da es große Unterschiede zwischen den beiden Arten von Netzen gibt. In dieser Studie präsentieren wir neuartige Algorithmen für die Suche nach dem kürzesten und k-kürzesten Pfad im integrierten Verkehrsnetz. Zuerst wird die Dienstnetzstruktur unter Berücksichtigung der Koeffizienten des Transitkostengewichts bzw. des Zeitgewichts verarbeitet, nach dieser Arbeit wird die Liste der Transitszenen zu jeder Knoteninformation hinzugefügt und einige künstliche Knoten werden konstruiert. dann werden die Suchalgorithmen für den kürzesten und den K-kürzesten Pfad im Detail vorgestellt. Weiterhin wird durch die Analyse des besonderen Charakters des Dienstnetzes eine neue Suchstrategie vorgeschlagen, die das Transitszenario effizient bewältigen und den Zeitaufwand der Pfadsuchalgorithmen reduzieren kann. Anschließend werden Beispiele mit unterschiedlichen Skalen von Netzwerk- und OD-Sets gegeben, um die vorgeschlagenen Algorithmen zu verifizieren. Die Ergebnisse belegen die Effizienz unserer vorgeschlagenen Ansätze.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28744-2_67 9d383f6791c53793ea44108cd84e95fe;de;;;4.2.;;;Pädagogische Leistungen intelligenter mobiler Geräte, die in Web 2.0-Tools integriert sind, um das Lehren und Lernen der englischen Sprache zu verbessern Ich berichte über die vorläufigen Ergebnisse eines laufenden Forschungsprojekts, das die pädagogischen Möglichkeiten des mobilen Lernens in Kombination mit Web 2.0-Tools zum Erlernen von Englisch für Englisch als Zweitsprache (ESL)-Lerner untersucht. Unter Verwendung von Design Based Research (DBR) als Ansatz zur Durchführung dieser Studie präsentiert dieses Papier die Ergebnisse einer bisher abgeschlossenen Iteration. Der erste Entwurfsrahmen für die Studie wurde aus der Literatur entwickelt. Es wurde in einer Reihe von Iterationen getestet und entwickelt, und die Auswirkungen jeder Iteration wurden mithilfe von Interviews und qualitativer Datenanalyse bewertet. Eines der wichtigsten Ergebnisse, über das in diesem Papier berichtet wird, ist die Auswirkung eines sozialen Verpflichtungsgefühls, bei dem sich die Teilnehmer von ihren Kollegen unter Druck gesetzt fühlten, Beiträge zu posten und teilzunehmen. Dieser soziale Verpflichtungseffekt kann sowohl positive als auch negative Folgen für das Lernen haben. Zukünftige Forschung wird sich darauf konzentrieren, Wege zu untersuchen, wie pädagogische Designs für M-Learning mit sozialen Netzwerken diesem sozialen Verpflichtungseffekt Rechnung tragen können, um seine negativen Folgen zu vermeiden und seine positiven Folgen optimal zu nutzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13416-1_31 64d1cf26c0419890056527e79bffe851;de;;;4.2.;;;Doktorandenprogramme in Geographie in den Vereinigten Staaten Dieser kurze Beitrag bietet eine Momentaufnahme der wichtigsten Anliegen, Entwicklungen und Herausforderungen in den Promotionsprogrammen, die derzeit von Geographie-Abteilungen an Universitäten in den Vereinigten Staaten angeboten werden. Es porträtiert übergreifende Trends bei Rekrutierung und Abschlüssen, zeigt die Standardrouten der Studierenden auf, dokumentiert die immer systematischer werdenden Bemühungen um eine stärkere Professionalisierung der Studierenden und reflektiert die Auswirkungen der wirtschaftlichen Rezession für Doktoranden.;-;-;-;https://link.springer.com/article/10.1007/s10708-014-9581-7 89582ceb791698439978bdb85f9cdc83;de;;;4.2.;;;Modellierung von Kundenbefragungsdaten Bei der Kundenwertanalyse (CVA) führt ein Unternehmen Stichprobenerhebungen bei seinen Kunden und bei den Kunden seiner Konkurrenten durch, um die relative Leistung des Unternehmens zu vielen Attributen zu bestimmen, die von Produktqualität und Technologie bis hin zu Preisgestaltung und Verkaufsunterstützung reichen. Die in diesem Papier erörterten Daten stammen aus einer vierteljährlichen Umfrage bei Lucent Technologies.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-1502-8_1 3b041177c8bbd2c7841717883a595886;de;;;4.2.;;;Gemeinsame Intentionalität und die kooperative Evolutionshypothese Eine wichtige Anwendung von Theorien der kollektiven Intentionalität betrifft die Entwicklung des sozialen Verständnisses und sogar des menschlichen Denkens (Tomasello M, A natural history of human Thinking, Harvard University Press, Cambridge, MA, 2014). Eine vielversprechende Idee hinter diesem Ansatz ist die Cooperative Evolutionary Hypothesis (CEH), nämlich die Idee, dass die Fähigkeit des Menschen zur sozialen Kooperation das Herzstück seiner Fähigkeit ist, die mentalen Zustände und das Verhalten anderer zu verstehen, was zu einer Erklärung führt, wie der Mensch entstanden ist Gedanken und Sprache zu teilen. Einige der beliebtesten Abwehrmaßnahmen gegen CEH sind jedoch mit wichtigen Problemen konfrontiert. In diesem Beitrag beziehen wir uns auf Tomasellos Darstellung (J Soc Ontol 2(1):117–123, 2016), Eine Naturgeschichte des menschlichen Denkens. Harvard University Press, Cambridge, MA, 2014, Ursprünge der menschlichen Kommunikation. MIT Press, Cambridge, MA, 2008) als führendes Beispiel für die CEH, die mit solchen unüberwindlichen Problemen konfrontiert ist. Insbesondere argumentieren wir, dass Tomasellos Analyse von Kooperation und spontaner Hilfe problematisch ist. Wir finden eine Quelle solcher Probleme in der Annahme, dass die richtige Darstellung von gemeinsamem Handeln und einfachen Formen geteilter Intentionalität diejenige ist, die Bratmans Theorie der geteilten Intentionen bietet. Der zweite Teil des Artikels schlägt und verteidigt einen alternativen Rahmen für das Verständnis der geteilten Intentionalität, der helfen kann, CEH zu untermauern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29783-1_5 f1118da2e7173a14d5788fb918844faf;de;;;5.2.;;;Studie zur lokalen Suchfähigkeit der Partikelschwarmoptimierung Es hat sich gezeigt, dass die Partikelschwarmoptimierung (PSO) bei vielen Optimierungsproblemen gut funktioniert. Der PSO-Algorithmus kann jedoch oft nicht das globale Optimum finden, selbst für unimodale Funktionen. Es ist notwendig, die lokale Suchfähigkeit von PSO zu untersuchen. Die Intervallkompressionsmethode und die probabilistische Charakteristik des Suchintervalls von Partikeln werden in dieser Arbeit verwendet, um die lokale Suchfähigkeit von PSO zu analysieren. Daraus kann geschlossen werden, dass die lokale Suchfähigkeit eines Partikels schlecht ist, wenn die Komponente der globalen Bestposition zwischen der Komponente der individuellen Bestposition und der Komponente der aktuellen Position des Partikels liegt. Um die lokale Suchfähigkeit von PSO zu verbessern, wird eine neue Lernstrategie vorgestellt, um die Wahrscheinlichkeit der Ausnutzung der weltweit besten Position zu erhöhen. Die experimentellen Ergebnisse zeigen, dass das modifizierte PSO mit der neuen Lernstrategie die Lösungsgenauigkeit verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13495-1_2 3cd8cd5dd7a22530e2e0b30a11f09d62;de;;;5.2.;;;Die Krise der Einwilligung: Wie ein stärkerer Rechtsschutz zu einer schwächeren Einwilligung im Datenschutz führen kann In diesem Artikel untersuchen wir die Wirksamkeit der Einwilligung im Datenschutzrecht. Wir argumentieren, dass der derzeitige Rechtsrahmen für die Einwilligung, der seine Grundlage in der Idee der autonomen Autorisierung hat, in der Praxis nicht funktioniert. In der Praxis führen die gesetzlichen Anforderungen an die Einwilligung zu einer „Desensibilisierung der Einwilligung“, die den Datenschutz und das Vertrauen in die Datenverarbeitung untergräbt. Insbesondere argumentieren wir, dass strengere gesetzliche Anforderungen an die Erteilung und Einholung von Einwilligungen (ausdrückliche Einwilligungen), wie sie in der europäischen Datenschutzverordnung vorgeschlagen werden, die Wirksamkeit des Einwilligungsmechanismus weiter schwächen werden. Aufbauend auf dem Einwilligungsmodell „Fair Transaction“ von Miller und Wertheimer werden wir Alternativen zur expliziten Einwilligung prüfen.;-;-;-;https://link.springer.com/article/10.1007/s10676-014-9343-8 ac386e41862ef5cdf398d460e7fbf4c6;de;;;5.2.;;;Optimale Auswahl des Referenzsatzes für die Nächstnachbarklassifizierung durch Tabu-Suche In diesem Papier wird ein neuer Ansatz vorgestellt, um die Referenzmenge für den nächstgelegenen Nachbarklassifikator zu finden. Der optimale Referenzsatz, der eine minimale Stichprobengröße aufweist und einen bestimmten Fehlerratenschwellenwert erfüllt, wird durch einen Tabu-Suchalgorithmus erhalten. Wenn der Fehlerratenschwellenwert auf null gesetzt wird, erhält der Algorithmus eine nahezu minimale konsistente Teilmenge eines gegebenen Trainingssatzes. Während der Schwellenwert auf einen kleinen geeigneten Wert eingestellt ist, kann der erhaltene Referenzsatz den Bias der Schätzung des nächsten Nachbarn kompensieren. Es wird ein Aspirationskriterium für die Tabu-Suche eingeführt, das darauf abzielt, den Suchprozess vor dem ineffizienten Wandern zwischen den machbaren und nicht machbaren Bereichen im Suchraum zu bewahren und die Konvergenz zu beschleunigen. Experimentelle Ergebnisse basierend auf einer Reihe typischer Datensätze werden präsentiert und analysiert, um die Vorteile der vorgeschlagenen Methode zu veranschaulichen. Im Vergleich zu herkömmlichen Methoden wie CNN und dem Algorithmus von Dasarathy ist die Größe der reduzierten Referenzsätze viel kleiner und die Klassifizierungsleistung des nächsten Nachbarn ist besser, insbesondere wenn die Fehlerratenschwellen auf geeignete Werte ungleich Null gesetzt werden. Die experimentellen Ergebnisse veranschaulichen auch, dass der MCS (minimal konsistenter Satz) des Dasarathy-Algorithmus nicht minimal ist und sein konsistenter Kandidatensatz nicht immer sichergestellt ist, dass er monoton reduziert wird. Ein Gegenbeispiel wird ebenfalls gegeben, um diese Behauptung zu bestätigen.;-;-;-;https://link.springer.com/article/10.1007/BF02950417 cee880bc5a0c86e0d0386e71a7c22a45;de;;;5.2.;;;Stichwortsuche in probabilistischen XML-Daten basierend auf ELM Dieses Papier beschreibt eine Schlüsselwortsuchmaßnahme für probabilistische XML-Daten basierend auf ELM (Extreme Learning Machine). Wir verwenden diese Methode, um eine Stichwortsuche für probabilistische XML-Daten durchzuführen. Ein probabilistisches XML-Dokument unterscheidet sich von einem traditionellen XML-Dokument dadurch, dass eine Schlüsselwortsuche unter Berücksichtigung einer möglichen Weltsemantik realisiert wird. Probabilistische XML-Daten können als eine Menge von Knoten betrachtet werden, die aus gewöhnlichen Knoten und Verteilungsknoten bestehen. ELM bietet eine gute Leistung in Textklassifizierungsanwendungen. Als typische semi-strukturierte Daten besitzt das Label von XML-Daten die Funktion der Definition selbst. Label und Schlüsselwort, die im Knoten enthalten sind, können als Textdaten des Knotens angesehen werden. ELM bietet erhebliche Vorteile wie schnelle Lerngeschwindigkeit, einfache Implementierung und effektive Klassifizierung von Knoten. Die Stichwortsuche am Set, nachdem sie mithilfe von ELM klassifiziert wurde, kann die Abfragegeschwindigkeit erhöhen. Dieses Papier verwendet ELM, um Knoten zu klassifizieren und eine Schlüsselwortsuche auf dem klassifizierten Set durchzuführen. Die Experimente können zeigen, dass die Abfragegeschwindigkeit deutlich verbessert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-14066-7_14 115dd7eff710054d3423971b9b794261;de;;;4.2.;;;Teilen von realen Bedingungen für die Zugänglichkeit mithilfe einer Smartphone-Anwendung durch eine Freiwilligengruppe Obwohl sich der rasche Fortschritt bei der Verbesserung der Zugänglichkeit in der realen Welt auf den Migrationsweg von Menschen mit leichten/schweren visuellen/körperlichen Beeinträchtigungen zu ihrem Ziel auswirkt, sind aktuelle Informationen zur Zugänglichkeit aufgrund von Verzögerungen bei der Bereitstellung von Informationen für die Öffentlichkeit und lokale Personen schwer zu beschaffen Offenlegung. Daher ist es notwendig, ein umfassendes System zu entwickeln, das verstreute Zugänglichkeitsinformationen angemessen erfasst und anordnet und diese Informationen dann intuitiv präsentiert. Diese Systeme stellen die Freiwilligen jedoch vor Schwierigkeiten, wenn sie die Bedingungen für die Zugänglichkeit erfassen und diese dann arrangieren. In dieser Arbeit ist es unser Ziel, die Elemente zu extrahieren, die es Anwendungen zum Teilen von Barrierefreiheit ermöglichen, reale Bedingungen effizient zu erfassen. Insbesondere entwickelten wir eine Smartphone-basierte Anwendung zum Austausch von Barrierefreiheitsbedingungen und führten in Zusammenarbeit mit einer lokalen Freiwilligengruppe Veranstaltungen zum Austausch von Barrierefreiheitsinformationen durch.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-41267-2_36 e538995d264ade9c17497638d48777f6;de;;;4.2.;;;Verwenden von Suchergebnis-Metadaten, um effektive Lernobjekte für mobile Geräte zu entdecken Beim mobilen Lernen erfordern die Einschränkungen der meisten mobilen Geräte beim Zugriff auf reichhaltige Multimedia-Inhalte die Verwendung kleiner und interaktiver Lernobjekte. Die Auswahl von Lernobjekten für mobile Geräte aus Repositories basiert auf Lernobjekt-Metadaten. Die meisten Metadaten sind jedoch ohne vorheriges Herunterladen der Lernobjekte nicht ohne weiteres verfügbar. Web-Crawler können verwendet werden, um die Metadaten abzurufen, aber leider haben einige Repositorys Richtlinien zum Blockieren der Crawler-Software-Agenten. Auf der anderen Seite enthalten öffentlich crawlbare Suchmaschinen wie Google Zusammenfassungen von Suchergebnissen, die verwendet werden können, um Metadaten zur Bewertung und Identifizierung von Lernobjekten zu generieren, die für mobile Geräte wirksam sein können. In diesem Papier wird daher ein Mechanismus zum Crawlen der Suchmaschinen nach Metadaten vorgestellt, wie er im AMLOC-Modell (Automatic Mobile Learning Objects Compilation) verwendet wird, um die Erkennung von Lernobjekten für mobile Geräte zu erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-4585-18-7_68 cb145f67e1f6c0e52f0339eb47d562cd;de;;;5.2.;;;Eine hybride Reranking-Methode zur Entitätserkennung und -verknüpfung in Suchanfragen In diesem Papier bauen wir ein Entitätserkennungs- und -verknüpfungssystem unter Verwendung der chinesischen Wikipedia und einer Wissensdatenbank auf. Wir verwenden verfeinerte Filterregeln im Entitätserkennungsmodul und generieren dann Kandidatenentitäten nach Suchmaschine und Attributen in Wikipedia-Artikelseiten. Im Entity-Linking-Modul schlagen wir eine hybride Methode zur Neuordnung von Entitäten vor, die mit drei Funktionen kombiniert wird: textueller und semantischer Übereinstimmungsgrad, Ähnlichkeit zwischen Kandidatenentität und Entitätserwähnung, Entitätshäufigkeit. Schließlich erhalten wir die Verknüpfungsergebnisse durch die endgültige Punktzahl der Entität. Bei der Aufgabe der Entitätserkennung und -verknüpfung in Suchanfragen beim NLPCC 2015;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25207-0_57 a3659e33cec13004a115a7ef46259752;de;;;5.2.;;;Bewertung von Relevanz-Feedback und Anzeigestrategien für die Suche auf kleinen Displays Die Suche nach Informationsressourcen mit mobilen Geräten wird durch Displays beeinflusst, auf denen nur ein kleiner Bruchteil des Satzes der geordneten Dokumente angezeigt werden kann. In dieser Studie untersuchen wir die Wirksamkeit von Relevanz-Feedback-Methoden bei der Unterstützung des Benutzers beim Zugriff auf ein vordefiniertes Zieldokument durch die Suche auf einem kleinen Anzeigegerät. Wir schlagen einen innovativen Ansatz vor, um dieses Problem zu untersuchen. Für kleine Displaygrößen und damit begrenzte Entscheidungsmöglichkeiten für Relevanz-Feedback generieren und untersuchen wir den gesamten Raum der Benutzerinteraktionen und Systemreaktionen. Dies geschieht durch den Aufbau eines Baumes – die auf jeder Ebene angezeigten Dokumente hängen von der Auswahl des relevanten Dokuments ab, die auf der früheren Ebene getroffen wurde. Die Konstruktion des Baums aller möglichen Benutzerinteraktionen ermöglicht eine Bewertung von Relevanz-Feedback-Algorithmen mit reduzierter Abhängigkeit von Benutzerstudien. Aus Sicht realer Anwendungen sind die ersten Iterationen am wichtigsten – wir beschränken uns daher auf eine maximale Tiefe von sechs im Baum.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30213-1_19 ef7847336c6a4cfaa5b635a03de92059;de;;;5.2.;;;Die Anwendung der Harmony-Suche bei Problemen mit dem Logistik-Routing von Drittanbietern Eine kürzlich entwickelte metaheuristische Optimierungsmethode, die Harmony Search (HS) genannt wird, hat aufgrund der Fähigkeit, große, schwierige kombinatorische Optimierungsprobleme zu lösen, immer mehr Aufmerksamkeit auf sich gezogen. Und in letzter Zeit wird auch die Viertanbieter-Logistik (4PL) von der Fertigungs- und Einzelhandelsbranche immer stärker beachtet. In diesem Kapitel bauen wir zunächst das mathematische Modell der Viertanbieter-Logistik-Routing-Optimierung mit Zeitfenstern (4PLRPTW) auf Basis eines Multigraphen auf und überprüfen dann die Anwendung von HS in Bereichen von 4PLRPTW. Es werden drei spezielle Fälle betrachtet: Probleme mit sieben Knoten, fünfzehn Knoten und dreißig Knoten. Dem Charakter von 4PLRPTW entsprechend gestalten wir auch die Reparaturstrategie. Die Leistung des HS wird in diesem Kapitel mit dem entworfenen Aufzählungsalgorithmus verglichen. Die Ergebnisse der numerischen Experimente zeigen, dass der HS hinsichtlich Lösungsqualität und Rechenzeit effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04317-8_12 65d7d95570f571855f2cb2953177d228;de;;;5.2.;;;Wirksamkeit und Kosten diagnostischer Schnelltests zur Bestimmung der Tetanusimmunität bei Patienten mit einer Wunde in französischen Notaufnahmen Tétanos Quick Stick® (TQS) ist ein Test zum Tetanus-Immunitätsscreening bei verwundeten Patienten in Notaufnahmen (Notaufnahme), verursacht jedoch zusätzliche Kosten im Vergleich zu einem medizinischen Interview zur Impfanamnese. Das Ziel der Studie bestand darin, die Wirksamkeit und Kosten des TQS bei französischen Notaufnahmen zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s12879-014-0603-3 45eff3d0e74c7cda4be5c86871ceb1e0;de;;;4.2.;;;Ein Vorhersagemodell für kriminelle Ebenen, das auf brasilianische Städte spezialisiert ist Die weltweite Zunahme von Gewalt wird zu einem großen Problem, das der Gesellschaft schwere Schäden zufügt: materieller, sozialer und physischer Art. Die Regierung benötigt wirksame Instrumente zur Bekämpfung der Kriminalität, und daher sind einige Instrumente erforderlich, um bei der Prävention weiterer Straftaten, bei der Zuweisung ihrer Ressourcen und der Visualisierung geografischer Gebiete mit hoher Kriminalitätskonzentration zu helfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33448-1_19 a98cab9b591f685032f9a4cdba2a46e3;de;;;4.2.;;;Handy- und Spielenutzung, Geschlecht und Einstellung zu Computerabschlüssen Es besteht ein weltweiter Bedarf an Absolventen mit Computerkenntnissen sowie ein weltweiter Mangel an Computerfachleuten, insbesondere Frauen. In Afrika sind diese Engpässe noch kritischer. Um dieses Problem zu lösen, haben Studien in der Vergangenheit für eine verstärkte Computernutzung in Schulen argumentiert, die zu einem erhöhten Interesse an Computerabschlüssen führen würde. In letzter Zeit hat die Computernutzung in Form von mobilen Geräten und mobilen Spielen in Schulen erheblich zugenommen, jedoch hat in Südafrika das Interesse an Computerwissenschaften im Tertiärbereich nicht wesentlich zugenommen. Daher zielt dieses Papier darauf ab, festzustellen, ob die Nutzung von Mobilgeräten und Spielen die Einstellung von Schülern zu computerbezogenen Abschlüssen beeinflusst. Eine Umfrage unter 292 südafrikanischen Sekundarschülern bestätigt ein geringes Interesse an Computerabschlüssen, insbesondere bei Mädchen, sowie eine falsche Wahrnehmung von Computerabschlüssen. Es wird ein Modell zur Einstellung der IT-Nutzung vorgeschlagen und validiert, bei dem die Nutzung von Mobilgeräten und Spielen je nach Geschlecht erheblich variiert, die Nutzung jedoch die Einstellung zu Computerabschlüssen nicht beeinflusst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-69670-6_5 760e5ed3c63b900d6cf8ff5b794d2db0;de;;;4.2.;;;Die postindustrielle Erneuerung: Guerillas, Partisanen und der Triumph des amerikanischen Imperiums (1965–1989) Radio, Fernsehen und Spektakel im Stil eines Themenparks waren maßgebliche Komponenten zur Legitimation einer dreigliedrigen innerstaatlichen Herrschaftsstruktur, die staatliche Institutionen, Arbeit und Privatwirtschaft sowie eine internationale Wirtschaftsordnung auf der Grundlage der Prinzipien des freien Handels und der Finanzen vereinte. Bis 1965 wurden jedoch Spannungen, die in diese Machtkonfigurationen eingebettet sind, offensichtlich, als sich zu Hause verstärkte Ausbrüche von Aktivismus unter Afroamerikanern, Studenten und Frauen bildeten, während Kämpfe gegen amerikanische Militäreinsätze in Übersee ausbrachen. Obwohl zu dieser Zeit noch nicht ganz offensichtlich, waren diese Störungen Vorboten einer dramatischen Veränderung der globalen Ordnung. Neuere und mächtigere sozioökonomische Kräfte kamen auf die Bühne, die bald einen Zusammenbruch des Nachkriegskonsenses auslösen und die Lebensfähigkeit des amerikanischen Imperiums bedrohen würden.;-;-;-;https://link.springer.com/chapter/10.1057/9781137382238_5 83bdbacf0653c716b8573bbddeb1ebf0;de;;;5.2.;;;Ein effizienter QoS-Routing-Algorithmus mit mehreren Einschränkungen basierend auf nichtlinearer Pfadentfernung Dieses Papier schlägt einen QoS-Routing-Algorithmus (genannt MIS-LB) vor, der die Definition von nichtlinearen Pfadentfernungen auf Link-Sharing und Lastausgleich erweitert. Basierend auf der Erweiterung kann es machbare Pfade nach dem Kürzeste-Zuerst-Kriterium finden, aber auch das Link-Sharing und die Lasten zwischen mehreren machbaren Pfaden anpassen. Schließlich zeigen die Simulationsergebnisse, dass es andere Routings mit mehreren Nebenbedingungen wie TAMCRA und H_MCOP übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30497-5_57 8c3bbac706a32a474e8b7919839e4fea;de;;;4.2.;;;Themenbezogene Meinungsintegration für Nutzer von Social Media Soziale Medien wie Twitter sind zu einer wertvollen Quelle geworden, um Meinungen von Benutzern zu allen möglichen Themen zu sammeln. In diesem Whitepaper untersuchen wir, wie themenbezogene Meinungen eines Nutzers automatisch in User-Generated Content (UGC) integriert werden können. Wir schlagen ein allgemeines Subjektivitätsmodell vor, indem wir Themen und feingranulare Meinungen zu jedem Thema kombinieren und einen effizienten Algorithmus entwickeln, um das Modell zu etablieren. Wir demonstrieren die Nützlichkeit unseres Modells im Meinungsvorhersageproblem und verifizieren die Wirksamkeit unseres Modells qualitativ und quantitativ in einer Reihe von Experimenten mit echten Twitter-Daten. Die Ergebnisse zeigen, dass das vorgeschlagene Modell effektiv ist und konsistente integrierte Meinungszusammenfassungen für Benutzer generieren kann. Darüber hinaus ist das vorgeschlagene Modell besser für den Kontext sozialer Medien geeignet und kann somit eine bessere Leistung bei einer Meinungsvorhersageaufgabe erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45558-6_15 31627f5879fb5bf57a30aecfd047ba36;de;;;5.2.;;;Edge-Matching-Rate basierend auf der generalisierten Fläche für die Bildregistrierung Dieses Papier schlägt eine verbesserte Edge-Matching-Rate (EMR) vor, um eine gute Bildregistrierung basierend auf Generalized Acreage (GA) zu erzielen. Herkömmliches EMR berücksichtigt nur die Summe der übereinstimmenden Pixel, ohne Bedenken hinsichtlich der Ursache von nicht übereinstimmenden Pixeln und der Beziehung zwischen übereinstimmenden Pixeln. Die modifizierte EMR führt das neue Konzept der verallgemeinerten Fläche ein, um die sich überlagernden Teile zwischen dem Zielbild und dem Modell zu messen. Es definiert auch die Ähnlichkeit der lokalen Okklusion und des lokalen Ditherings, um den Interferenzgrad zu messen. Dabei werden nicht nur Kantenpunkte berücksichtigt, sondern auch Nicht-Kantenpunkte, Okklusion und Dithering. Unter Verwendung der gleichen Vorverarbeitung gleichen die Experimente Bilder basierend auf herkömmlicher EMR und der vorgeschlagenen EMR separat ab. Basierend auf der vorgeschlagenen EMR erreicht das Papier eine stabilere Registrierung und höhere Präzision.;-;-;-;https://link.springer.com/article/10.1007/s11767-011-0541-9 67377b497b67023bf247afaf962faeda;de;;;5.2.;;;Psychosoziale syndemische Korrelate der sexuellen Zwanghaftigkeit bei Männern, die Sex mit Männern haben: Eine Metaanalyse Es wurden Anstrengungen unternommen, um die sexuelle Zwanghaftigkeit besser zu verstehen, indem auffällige psychosoziale syndemische Korrelate untersucht wurden, obwohl die Untersuchung solcher Faktoren zu nicht schlüssigen Ergebnissen geführt hat. Angesichts der Tatsache, dass die Erforschung der sexuellen Zwanghaftigkeit überwiegend an Männern beteiligt war, die Sex mit Männern (MSM) haben, bestand das Ziel der aktuellen Studie darin, die mittleren Effektstärken von sieben psychosozialen syndemischen Indikatoren mit sexueller Zwanghaftigkeit zu ermitteln, um festzustellen, ob die Wirkung als Funktion variierte vom Typ der psychosozialen Syndemie und untersuchen die potenziellen moderierenden Effekte anhand von MSM-Proben. Insgesamt 95 Studien wurden für Analysen zu den interessierenden psychosozialen syndemischen Indikatoren (d. h. Depression, Angst, Alkoholkonsum, Drogenkonsum, Gewalt in der Partnerschaft, sexueller Missbrauch in der Kindheit und sexuelles Risikoverhalten) eingeschlossen. Die Ergebnisse zeigten eine mittlere mittlere Effektstärke der sexuellen Zwanghaftigkeit, deren Stärke durch die Art des psychosozialen syndemischen Indikators signifikant moderiert wurde. Signifikante mittlere Effektstärken für alle syndemischen Indikatoren auf die sexuelle Zwanghaftigkeit wurden gefunden, wobei Depression und Angst die stärksten Beziehungen aufwiesen, signifikante moderierende Effekte wurden gefunden und werden diskutiert. Die Ergebnisse heben klinische Erwägungen bezüglich sexueller Zwanghaftigkeit und ihrer Rolle im Rahmen der HIV-Syndemie bei MSM hervor.;-;-;-;https://link.springer.com/article/10.1007/s10508-017-1032-3 52661ddb841389b6b317dd027b0f915c;de;;;5.2.;;;Segmentierung medizinischer Bilder basierend auf dem beschleunigten Dijkstra-Algorithmus Der Dijkstra-Algorithmus ist eine der optimalen Pfadsuchmethoden. Ein beschleunigter Dijkstra-Algorithmus wird für die Segmentierung medizinischer Bilder vorgestellt: (1) Ein Beispiel wird verwendet, um den vorgeschlagenen Algorithmus zu veranschaulichen, um die Berechnungsarbeit zu reduzieren und die Betriebsgeschwindigkeit des klassischen Dijkstra-Algorithmus zu erhöhen. (2) Ein auf diesem Algorithmus basierendes Live-Wire-Bildsegmentierungsverfahren wird vorgestellt, um die Leberkontur in einem Abdomenbild zu skizzieren, und ein morphologisches Verfahren wird verwendet, um das Leberbild zu segmentieren. Experimentelle Ergebnisse zeigen, dass dieses Verfahren die Bildsegmentierung erfolgreich ausführen kann, weniger interaktive Zeiten hat als das manuelle Segmentierungsverfahren und schneller als der klassische Dijkstra-Algorithmus läuft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27869-3_45 cf309556ff884d5b77d39f51d6dc7e9c;de;;;5.2.;;;Eine neuartige Methode zur Extraktion von Augenmerkmalen Die Extraktion der Augenmerkmale wie Pupillenzentrum und -radius, Augenwinkel und Augenlidkonturen aus den Frontalgesichtsbildern liefert uns oft nützliche Hinweise in vielen wichtigen Anwendungen wie Gesichtserkennung, Gesichtsausdruckerkennung und 3D-Gesichtsmodellierung aus 2D-Bildern. Unter der Annahme, dass das grobe Augenfenster bekannt ist, werden die Farbinformationen, Gabor-Merkmale aus dem Augenfenster extrahiert und dann wurden diese beiden Merkmale und ihre gegenseitige Beziehung in das Design unseres Algorithmus integriert. Nachdem die Pupillenmitte im H-Kanal des HSV-Farbraums erfasst wurde, wird zunächst der Pupillenradius geschätzt und verfeinert. Zweitens werden Augenwinkel unter Verwendung eines Augenwinkelfilters basierend auf dem Gabor-Merkmalsraum lokalisiert. Schließlich werden die Augenlidkurven durch die Spline-Funktion angepasst. Der neue Algorithmus wurde in unserer SJTU-Datenbank und einigen anderen Bildern aus dem Internet getestet. Die experimentellen Ergebnisse zeigen, dass unser Algorithmus eine hohe Genauigkeit aufweist und unter verschiedenen Bedingungen robust ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30497-5_154 43ce8d4892a1809e28d5628bee36cb37;de;;;5.2.;;;Adaptive parallele Optimierung von Ameisenkolonien In dieser Arbeit wird eine adaptive parallele Optimierung von Ameisenkolonien entwickelt. Wir schlagen zwei verschiedene Strategien für den Informationsaustausch zwischen den Prozessoren vor: Auswahl nach Sortierung und nach Entfernung, wodurch jeder Prozessor einen Partner für die Kommunikation auswählt und das Pheromon entsprechend dem Pheromon des Partners aktualisiert. Um die Suchfähigkeit zu erhöhen und eine frühe Konvergenz zu vermeiden, schlagen wir auch ein Verfahren zum adaptiven Anpassen des Zeitintervalls des Informationsaustauschs entsprechend dem Konvergenzfaktor jedes Prozessors vor. Experimentelle Ergebnisse basierend auf dem Travelling-Salesman-Problem auf den massiven Parallelprozessoren (MPP) Dawn 2000 zeigen, dass die vorgeschlagenen APACO der klassischen Ameisenkolonie-Optimierung überlegen sind.;-;-;-;https://link.springer.com/chapter/10.1007/11576235_32 819feab7ecce20c2ceffd0ce6ccadc63;de;;;5.2.;;;Form- und texturbasierte verformbare Modelle für die Gesichtsbildanalyse In diesem Kapitel stellen wir Konzepte und Algorithmen form- und texturbasierter deformierbarer Modelle – genauer Active Shape Models (ASMs), Active Appearance Models (AAMs) und Morphable Models – für die Gesichtsbildanalyse vor. Solche aus Trainingsbeispielen erlernten Modelle erlauben zulässige Verformungen unter statistischen Beschränkungen der Form und/oder Textur des Interessenmusters. Als solche entspricht die Verformung den spezifischen Beschränkungen des Musters. Basierend auf der Analyse von Problemen mit dem Standard-ASM und AAM beschreiben wir weiter verbesserte Modelle und Algorithmen, nämlich Direct Appearance Models (DAMs) und ein Texture-ConstrainedASM (TC-ASM), für eine verbesserte Anpassung von Formen und Texturen. Es wird auch ein Verfahren zur Bewertung der Anpassungsgüte unter Verwendung eines ASM beschrieben. Experimentelle Ergebnisse werden bereitgestellt, um verschiedene Methoden zu vergleichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-68413-0_4 8cde38785ca6efb8c352a736aa41d3d4;de;;;4.2.;;;Nicht kooperative Spiele In den ersten Abschnitten von Kapitel I haben wir die Definitionen eines nichtkooperativen Spiels und einer Gleichgewichtssituation eingeführt. Die Gründe für den Wunsch und die Tendenz der Spieler, Gleichgewichtssituationen zu erreichen, wurden erläutert. Eine solche Gleichgewichtstendenz kann daher als eine Art optimales Verhalten angesehen werden. Eine sehr wichtige Tatsache, die mit diesen Konzepten verbunden ist, ist, dass eine Gleichgewichtssituation tatsächlich für eine beträchtlich breite Klasse nichtkooperativer Spiele erreichbar ist. Daher ist die Vorstellung einer Gleichgewichtssituation nicht nur logisch sinnvoll, sondern auch praktisch nützlich.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-6341-8_3 3bb1f3d1c8f2a5ae4b8e11e6a5edf50f;de;;;5.2.;;;Robuste diskriminante niederrangige Darstellung für Unterraum-Clustering Für das darstellungsbasierte Unterraum-Clustering mit niedrigem Rang ist die Affinitätsmatrix blockdiagonale. In diesem Artikel wird ein neuartiger robuster diskriminanter niederrangiger Repräsentationsalgorithmus (RDLRR) vorgeschlagen, um die Blockdiagonaleigenschaft zu verbessern, um die multiplen Unterraumstrukturen von Samples zu untersuchen. Um Stichproben in ihren entsprechenden Unterraum zu gruppieren und Ausreißer zu entfernen, berücksichtigt der vorgeschlagene RDLRR sowohl den Abstand innerhalb der Klasse als auch den Abstand zwischen den Klassen beim Suchen der niedrigstrangigen Darstellung von Stichproben. RDLRR könnte durchaus die globale Struktur von Proben anzeigen, wenn die Kennzeichnung verfügbar ist. Wir führen Experimente an mehreren Datensätzen durch, darunter Extended Yale B, AR und Hopkins 155, um zu zeigen, dass unser Ansatz alle anderen hochmodernen Ansätze übertrifft.;-;-;-;https://link.springer.com/article/10.1007/s00500-018-3339-y cc66ca3fb351d8dc6c0a30a0e6713694;de;;;5.2.;;;Forschung zum Distributed Environment Module von SPMM Um das große Verkehrsproblem zu lösen, das durch ein zentralisiertes Umgebungsmodell in der Simulationsplattform von Militär-intelligentem-UUV auf der Grundlage von MAS (SPMM) verursacht wird, wurde ein verteiltes Umgebungsmodell vorgeschlagen, die Umgebungselemente für die Konzeptmodellierung extrahiert, indem die Umgebung als intelligent und dynamisch betrachtet wird -Objekt, entwarf die Betriebssystemstruktur des verteilten Umgebungsmodells und entwickelte ein Verfahren, das die verteilte Umgebung mit Interessenverwaltung kombinierte. Die Simulation bestätigte, dass die Methode den Verkehr zwischen UUV und der Umgebung effektiv reduzieren und dazu beitragen kann, die Raumkonsistenz aufrechtzuerhalten. Die Forschung lieferte technische Unterstützung für SPMM.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34396-4_47 1400287f1975ab7decf2e8dc6739650c;de;;;5.2.;;;Semantische Begriffsklärung in der automatischen semantischen Annotation Um die Metadaten des Semantic Web zu generieren, müssen semantische Informationen aus Webdokumenten extrahiert werden. Angesichts des Massenumfangs von Webdokumenten ist die automatische semantische Annotation im Vergleich zur künstlichen oder halbautomatischen semantischen Annotation eine praktikable Methode. Um benannte Kandidatenentitäten zu erkennen, wird das semantische Wörterbuch entworfen und der semantische Abstand zwischen Entitäten wird durch den semantischen Relevanzpfad berechnet. Das komplexeste Problem bei der semantischen Annotation ist die semantische Begriffsklärung. Es wird ein semantisches Disambiguierungsverfahren basierend auf dem kürzesten Pfad und n-Gramm vorgeschlagen. Es wurden Experimente an einem Nachrichtenkorpus durchgeführt. Das Ergebnis zeigt, dass das Verfahren für die Aufgabe der automatischen semantischen Annotation geeignet ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23226-8_18 04361081940a1ac7829d7d64d0443ae2;de;;;5.2.;;;Das Extended Branch-Arrow-Modell der Bildung retino-tektaler Verbindungen Dieser Artikel präsentiert XBAM (das Extended Branch-Arrow Model), ein neues Modell der Entwicklung der retino-tektalen topographischen Kartierung, wie sie in visuellen Systemen von Frosch, Kröte und Goldfisch beobachtet wird. Der von XBAM verwendete Aktualisierungsprozess ist in der Natur verteilt und hängt von den Wechselwirkungen zwischen den Zweigen der Netzhautfasern, den Zweigen und den Grenzen des Tektums und der Transplantate sowie den Zweigen und der Tektaloberfläche ab. Die Ergebnisse der Computersimulation des Modells beziehen sich auf experimentelle Daten aus tektalen und retinalen Transplantat- und Läsionsstudien, und es werden auch Vergleiche mit anderen Modellen angestellt.;-;-;-;https://link.springer.com/article/10.1007/BF00336189 068532c248b7d1123a54e34295b9aab8;de;;;4.2.;;;LCA-Mainstreaming-Bedingungen in Lateinamerika – basierend auf Erkenntnissen aus den Jahren 2005 bis 2014 Basierend auf den Entwicklungen von 2005 bis 2014 in der lateinamerikanischen und karibischen Region (LAC) zielt dieses Papier darauf ab, die Bedingungen für das Mainstreaming von Ökobilanzen/Lebenszyklusmanagement (LCA/LCM) zu verstehen und die wichtigsten nächsten Maßnahmen aufzuzeigen.;-;-;-;https://link.springer.com/article/10.1007/s11367-016-1142-5 8c1fa119f636d0b3bea373757d61b078;de;;;5.2.;;;Eine Klasse hybrider Projektionsmethoden mit Störungen In diesem Artikel wird eine neue Art von Verfahren vorgeschlagen, die als hybride Projektionsverfahren mit Störungen bezeichnet wird, und eine nichtmonotone Liniensuchtechnik verwendet wird. Gleichzeitig ist die globale Konvergenz dieser Verfahren nur für den Fall bewiesen, dass die Gradientenfunktion auf einer offenen konvexen Menge, die die Iterationsfolge enthält, gleichmäßig stetig ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21783-8_36 943e03f34ca81ae70ac74663817ac970;de;;;4.2.;;;Strategiesicherer Mechanismus für die Online-Ressourcenzuweisung in Cloud- und Edge-Collaboration Cloud Computing zeichnet sich durch starke Rechen- und Speicherfähigkeiten aus, und Edge Computing hat die Vorteile geringer Latenz und geringer Leistungsaufnahme. Viele Dienstanbieter haben damit begonnen, die Vorteile von Cloud- und Edge-Computing zu kombinieren, um eine bessere Servicequalität zu bieten, aber die Heterogenität von Cloud- und Edge-Computing stellt eine Herausforderung für die Dienstbereitstellung und Ressourcenzuweisung dar. Dieses Papier schlägt einen Rahmen für die Cloud-Edge-Kollaboration basierend auf Live-Video-Webcast-Diensten vor und transformiert das Ressourcenallokationsproblem in ein eingeschränktes Integer-Programmiermodell (IP). Darüber hinaus führen wir einen Auktionsmechanismus ein, um das Problem des Ressourcenwettbewerbs zwischen den Ankernutzern in Live-Diensten zu lösen. Durch Lösen des IP-Ressourcenzuweisungsproblems und des Vickrey-Clarke-Groves-Mechanismus erhalten wir den optimalen Ressourcenzuweisungsmechanismus. Basierend auf dem dominanten Ressourcenanteil und dem Matching-Modell entwerfen wir einen Ressourcenallokationsmechanismus für die Online-Umgebung. Diese Mechanismen können für Reservierungs- und Live-Webcast-Szenarien verwendet werden. Darüber hinaus beweisen wir, dass die beiden Mechanismen individuelle Rationalität und Wahrhaftigkeit besitzen. Unser Ansatz zeichnet sich durch hohe Sozialleistungen, hohe Ressourcenauslastung und kurze Ausführungszeit aus.;-;-;-;https://link.springer.com/article/10.1007/s00607-021-00962-6 6550e2c756e1cced98de8f8886e3d790;de;;;5.2.;;;Ein neuer Algorithmus für Daten-Clustering basierend auf der Kuckucks-Suchoptimierung In diesem Beitrag wird ein neuer Algorithmus zum Datenclustering basierend auf der Kuckuckssuchoptimierung vorgestellt. Die Kuckuckssuche ist generisch und robust für viele Optimierungsprobleme und hat attraktive Eigenschaften wie einfache Implementierung, stabile Konvergenzcharakteristik und gute Recheneffizienz. Die Leistung des vorgeschlagenen Algorithmus wurde anhand von vier verschiedenen Datensätzen aus dem UCI Machine Learning Repository bewertet und mit bekannten und neueren Algorithmen verglichen: K-Means, Partikelschwarmoptimierung, Gravitationssuchalgorithmus, der Urknall-Big-Crunch-Algorithmus und das Schwarze Loch Algorithmus. Die experimentellen Ergebnisse verbessern die Leistungsfähigkeit der neuen Methode, die besten Werte für drei Datensätze zu erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-01796-9_6 f9f3b3b68c784a6bb18bcf57a2624ad9;de;;;5.2.;;;Optimale Algorithmen in der Multiview-Geometrie Dies ist ein Übersichtspapier, das die jüngsten Forschungsergebnisse zusammenfasst, die darauf abzielen, garantiert optimale Algorithmen zur Lösung von Problemen in der Multiview-Geometrie zu finden. Viele der traditionellen Probleme in der Multiview-Geometrie haben jetzt optimale Lösungen im Hinblick auf die Minimierung des Restfehlers der Bildebene. Erfolg wurde bei der Minimierung erzielt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76386-4_2 2114667c54d6ec14ed9f692a9bcf45a4;de;;;5.2.;;;ZURÜCKGEZOGENES KAPITEL: Softwareprojektplanung durch Vergleich bioinspirierter Algorithmen Derzeit haben viele Organisationen die Entwicklung von Softwareprojekten mit agilen Methoden übernommen, insbesondere Scrum, das über mehr als 20 Jahre Entwicklungserfahrung verfügt. Bei diesen Methoden wird Software iterativ entwickelt und in Inkrementen, sogenannten Releases, an den Kunden ausgeliefert. In den Releases besteht das Ziel darin, Systemfunktionen zu entwickeln, die dem Geschäft des Kunden schnell einen Mehrwert verleihen. Zu Beginn des Projekts sind ein oder mehrere Releases geplant. Zur Lösung des Problems der Neuplanung im Rahmen von Releases wird ein Modell vorgeschlagen, das die Besonderheiten der agilen Entwicklung mit Scrum berücksichtigt. Die erhaltenen Ergebnisse zeigen, dass der Algorithmus etwas weniger als 7 Minuten für Lösungen benötigt, die eine Neuplanung vorschlagen, die aus 16 Sprints besteht, was 240 Projekttagen entspricht. Sie zeigen, dass die Anwendung eines Reparaturoperators den Hypervolumen-Qualitätsindikator in der resultierenden Population erhöht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6648-6_27 68cbd90115e430b7ab79de480db9a869;de;;;4.2.;;;Die Gesichtsstrukturanalyse trennt Autismus-Spektrum-Störungen in sinnvolle klinische Untergruppen Bei 62 präpubertären Jungen mit essentiellem Autismus wurden verschiedene Clusteranalysen auf Gesichtsoberflächenmessungen angewendet, um zu bestimmen, ob die Gesichtsmorphologie einen brauchbaren Biomarker für die Abgrenzung einzelner Untergruppen von Autismus-Spektrum-Störungen (ASD) darstellt. Frühere Studien zeigten den Nutzen der Gesichtsmorphologie für die Untergruppe von Autismus (Aldridge et al. in Mol Autism 2(1):15,;-;-;-;https://link.springer.com/article/10.1007/s10803-014-2290-8 aae157c30f21ad1701e1e8dbca2c6760;de;;;4.2.;;;Zum 70-jährigen Jubiläum des Akademikers V. S. Mikhalevich Akademiker V. S. Mikhalevich als Wissenschaftler und Wissenschaftsorganisator Der Artikel ist dem 70. Geburtstag des Akademiemitglieds V. S. Mikhalevich gewidmet und gibt einen Überblick über seine fruchtbare Tätigkeit als Wissenschaftler und Wissenschaftsorganisator.;-;-;-;https://link.springer.com/article/10.1007/BF02733302 6a0a67ed99db78ef27284b5b25f87065;de;;;5.2.;;;Erkrankungen der weiblichen äußeren Genitalien Die Bewertung der weiblichen Genitalien bringt viele der gleichen Probleme mit sich, die im vorhergehenden Kapitel über die männlichen Genitalien diskutiert wurden. Häufige Erkrankungen wie Psoriasis und seborrhoische Dermatitis können an den Genitalien am auffälligsten sein oder anfänglich darauf beschränkt sein. Ein weiteres Merkmal ist der häufige Zusammenhang zwischen vaginalem Ausfluss und sekundärer Entzündung der äußeren Genitalien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-97931-6_35 347e61b3cdc649b094f8fc4c522a501f;de;;;4.2.;;;Informationskonsummuster aus Big Data Virtuelle soziale Netzwerke bieten eine wichtige Gelegenheit, freundliche Kommunikationsbrücken zwischen Schülern, Lehrern und anderen Akteuren im Bildungsbereich zu schaffen. In diesem Sinne stellt unsere Studie eine Annäherung an die Verbindungsgewohnheiten zwischen Universitätsstudenten in diesen Netzwerken dar, die es in Zukunft ermöglichen werden, diese Plattformen zu nutzen, um eine erfolgreiche Kommunikation zwischen den Akteuren zu erreichen. Daher wird die Charakterisierung von Nutzungen, Gewohnheiten und Konsum von virtuellen sozialen Netzwerken sehr relevant.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1304-6_3 ceae4733c7202569d64281034e347704;de;;;4.2.;;;Korrelate und Mediatoren von Problemverhalten bei Kindern, die von HIV/AIDS im ländlichen China betroffen sind: Eine Strukturgleichungsmodellanalyse Die aktuelle Studie untersucht die Zusammenhänge verschiedener psychosozialer Korrelate und vermittelnder Faktoren mit Problemverhalten von Kindern (6–18 Jahre), die von elterlicher HIV/AIDS-Erkrankung im ländlichen China betroffen sind. Es wurden Querschnittsdaten von 755 AIDS-Waisen („Waisen“) und 466 Kindern mit HIV-positiven Eltern („vulnerable children“) im Zeitraum 2006–2007 im ländlichen Zentralchina erhoben. Die Strukturgleichungsmodellierungsanalysen zeigten, dass HIV-bezogene Stigmatisierung einen positiven direkten Effekt auf problematisches Verhalten gefährdeter Kinder hatte, während HIV-bezogene Stigmatisierung und niedriges Bildungsstreben direkte negative Auswirkungen auf die Schulanpassung sowohl bei Waisen als auch bei gefährdeten Kindern hatten. Maßnahmen der Zukunftsorientierung und der wahrgenommenen sozialen Unterstützung vermittelten den Effekt von HIV-bedingter Stigmatisierung und niedrigem Bildungsanspruch auf die Schulanpassung, der wiederum negativ mit Problemverhalten beider Gruppen verbunden war. Die Daten zeigten auch, dass die schulische Anpassung die Wirkung von niedrigem Bildungsanspruch und HIV-bezogener Stigmatisierung auf das Problemverhalten von Waisen und gefährdeten Kindern vermittelte. Zukünftige Präventionsmaßnahmen, die darauf abzielen, Problemverhalten zu reduzieren und die schulische Anpassung dieser Kinder zu verbessern, sollten auf mehrere Faktoren auf individueller, gemeinschaftlicher und gesellschaftlicher Ebene abzielen, wie z HIV-bezogene Stigmatisierung von Kindern und Familien, die von HIV betroffen sind.;-;-;-;https://link.springer.com/article/10.1007/s10826-014-0093-3 be0fcfe44335c36b5bae716898d67771;de;;;4.2.;;;Die Vergänglichkeit Es wird oft behauptet, dass Merkmale der Raumzeit der speziellen Relativitätstheorie dem Lauf der Zeit abträglich sind. Entgegen dieser Auffassung zeige ich, wie der Zeitablauf in der Minkowski-Raumzeit zu verstehen ist. Eine (lokale, fadenscheinige) Gegenwart wird in der Alexandroff-Topologie als offene Menge aufgefasst, und der Zeitverlauf ist eine Folge von Geschenken entlang einer zeitähnlichen Kurve. Zeitliches Werden ist eher ein lokales als ein globales Phänomen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-9107-0_18 631ab9f0e25116f96c90f77017082536;de;;;4.2.;;;Wie man keine Untersuchung durchführt Die erste und umfangreichste Untersuchung des mutmaßlichen Betrugs der Sobells wurde vom Dickens-Komitee durchgeführt, das vom Arbeitgeber der Sobells zum Zeitpunkt des Auftretens von Vorwürfen wegen Fehlverhaltens ernannt wurde (Boffey, 1982), der Addiction Research Foundation, einer staatlich unterstützten Forschungs- und Behandlungsstiftung in Toronto Kanada. Vorsitzender des Ausschusses, Bernard M. Dickens, war Professor für Rechtswissenschaften an der University of Toronto sowie Professor am Department of Preventive Medicine and Biostatistics und Mitglied der Graduate Faculty in Law, Criminology, and Community. Ein zweites Mitglied war Anthony N. Doob, Professor für Psychologie an der University of Toronto und Direktor des Zentrums für Kriminologie. Außerdem war er Mitglied des Fachbeirats der Stiftung Suchtforschung. O. Harold Warwick, M.D., war das dritte Mitglied des Komitees, ein emeritierter Professor der University of Western Ontario. William Charles Winegard, Physiker und ehemaliger Präsident und Vizekanzler der University of Guelph, war das letzte Mitglied des Komitees. Es war eine angesehene Gruppe in dem Sinne, dass alle eine illustre Karriere in ihren Berufen hatten. Keiner hatte jedoch offensichtliche Erfahrungen mit der Untersuchung von Betrug in der Wissenschaft oder mit der Durchführung von Studien zu Behandlungsergebnissen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4633-7_5 a73961ce898e8563584116d78d835105;de;;;4.2.;;;Darstellende Klasse In den Kapiteln 2 und 3 wurde skizziert, wie die Kategorien von Klasse und Authentizität verstanden wurden, und die möglichen Probleme bei der Anwendung eines solchen Verständnisses auf Lesarten aus dem Kanon der britischen Populärmusik. Klasse selbst wird zu einer Kategorie, die weniger ein Effekt wirtschaftlicher, politischer oder sozialer Determinanten ist (obwohl sie zweifellos eine Rolle spielen), sondern eine Kategorie der Selbstwahrnehmung, die zu unterschiedlichen Zeiten auf vielfältige Weise für unterschiedliche Zwecke verwendet werden kann . Wenn wir Authentizität als Hauptmotivation hinter der Artikulation von Klasse in der britischen Popmusik verstehen wollen, müssen wir sie gleichermaßen als eine fließende Kategorie betrachten, einen Wert, der mit bestimmten Textmomenten oder Aufführungen verbunden ist, die ihren Status als wirklich „authentisch“ in ihrer Bedeutung untergraben gebräuchlichere Definition. Während der obigen Diskussion habe ich die Wörter „Performance“ und „performativ“ verwendet, um die Art und Weise vorzuschlagen, in der die Kategorien Klasse und Authentizität verwendet werden können. Es ist die Aufgabe dieses Kapitels, genau zu untersuchen, was in diesem Zusammenhang mit diesen Begriffen gemeint ist.;-;-;-;https://link.springer.com/chapter/10.1057/9780230594975_4 97a8b11635fd73b88709db3fb43de8a2;de;;;5.2.;;;Ein einfacher Vorschlag zur Sentimentanalyse von Filmkritiken mit Hidden-Markov-Modellen Die Sentimentanalyse von Texten ist das Studiengebiet, das Meinungen, Gefühle, Werturteile, Zuneigungen und Emotionen in Texten wie Blogs, Nachrichten und Behandlungen von Produkten, Organisationen, Veranstaltungen und Themen analysiert und untersucht. Wenn Informationen über subjektive Inhalte benötigt werden, wie etwa die durch ein Ereignis ausgelöste Emotion, müssen Computertechniken eingesetzt werden, um das Muster der öffentlichen Meinung zu analysieren. Eine gängige Technik zur Analyse von Texten ist der „Bag of Words“, der gute Ergebnisse liefert, wenn die Wörter unabhängig voneinander sind. In dieser Arbeit schlagen wir die Verwendung von Hidden Markov Chains vor, um die Polarität der in Filmkritiken geäußerten Meinungen zu bestimmen. Wir schlagen eine Methode zur Simulation versteckter Zustände durch Clustering-Techniken vor und führen dann eine Sensitivitätsanalyse des Modells durch, bei der wir Variationen auf Modellparameter wie die Anzahl der versteckten Zustände oder die Anzahl der verwendeten Wörter anwenden. Die Ergebnisse zeigen, dass unser Vorschlag eine Verbesserung von 3% gegenüber dem Basismodell mit F-Score für reale Datenbanken der öffentlichen Meinung bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-33904-3_14 b87b84fb7884d558bec9c27ab1145383;de;;;4.2.;;;Kritische Darstellung einiger Hauptmodelle der RGW-Integration anhand von Preisen Zum Thema Modellierung des Regimes der RGW-Beziehung und insbesondere Modellierung seines Preissystems existiert in den Mitgliedsländern eine umfangreiche, nicht strenge Literatur. Seine Debatte dreht sich hauptsächlich um die Anwendbarkeit oder Nichtigkeit eines ricardischen Kostenvergleichsprinzips. Eine stark vertretene Denkschule behauptet, sie sei als Kern einer Vorschrift für eine Gruppe sozialistischer (Planungs-)Nationen akzeptabel.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-05753-5_2 11d0892c354f3fa2bad855f18c82712d;de;;;4.2.;;;Patienten-Ergebnisse Der theoretische Zusammenhang zwischen Empathie und positiven Patientenergebnissen basiert auf drei Annahmen: Wenn empathisches Engagement entsteht, (a) verschwinden die Beziehungszwänge, was zu einer genaueren Diagnose führt, (b) der Kliniker wird zu einer vertrauensvollen Bezugsperson und dient als sichere Basis, um das Unbekannte der Krankheit und die Ungewissheit der Zukunft zu erforschen, und (c) der Patient den Arzt als helfendes Mitglied eines sozialen Unterstützungssystems mit allen positiven gesundheitlichen Auswirkungen der menschlichen Verbindung wahrnimmt. In diesem Kapitel werden Forschungsergebnisse zur Arzt-Patient-Beziehung im Allgemeinen und zum empathischen Engagement in der Patientenversorgung im Besonderen vorgestellt, um die folgenden positiven klinischen Ergebnisse zu unterstützen: höhere Zufriedenheit der Patienten mit ihren Gesundheitsdienstleistern, bessere Einhaltung der Ratschläge ihres Arztes und eine festere Verpflichtung zum Behandlungsplan und eine geringere Wahrscheinlichkeit von Rechtsstreitigkeiten wegen Behandlungsfehlern. Weitere empirische Bestätigungen sind erforderlich, um eine direkte Verbindung zwischen Empathie-Maßnahmen und einigen objektiven Indikatoren für Patientenergebnisse zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-33608-7_10 ea2966b93fc5e13d0d0376c8561fe3dc;de;;;4.2.;;;Justizaktivismus als Zielsetzung – Ziviljustiz in Brasilien Das Ziel der Ziviljustiz in Brasilien ist es, Streitigkeiten zwischen Einzelpersonen beizulegen und auch Probleme zu lösen, die durch unangemessene Aktivitäten der Regierung entstehen. Heutzutage haben wir neutrale und unparteiische Richter, aber Umstände wie die große Zahl von Klagen und Berufungen sowie ein erheblicher und unerwünschter Bürokratieaufwand erschweren die Leistungsfähigkeit der Justiz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03443-0_12 124f86133384aff69b1ff4638970bfd1;de;;;5.2.;;;Entscheidungsanalyse mit Fuzzy Targets Es ist allgemein anerkannt, dass das Prinzip der erwarteten Nutzenmaximierung, das axiomatisch aufgestellt wurde, ein gängiges Gebot für die Wahl unter Unsicherheit ist. Kürzlich wurde eine formale Äquivalenz zwischen diesem Wahlprinzip und dem zielbasierten Prinzip festgestellt und ausführlich diskutiert, die vorschlägt, eine Aktion auszuwählen, die die (erwartete) Wahrscheinlichkeit, ein (probabilistisch) unsicheres Ziel zu erreichen, maximiert. Dieses Kapitel stellt das Fuzzy-Zielmodell für eine Klasse der Entscheidungsfindung unter Unsicherheitsproblemen vor. Es werden zwei Methoden zur Induktion von Nutzenfunktionen aus Fuzzy-Zielen vorgestellt, zusammen mit einem interessanterweise festgestellten Zusammenhang zwischen den unterschiedlichen Einstellungen des Entscheidungsträgers zum Ziel und unterschiedlichen Risikoeinstellungen in Bezug auf Nutzenfunktionen. Darüber hinaus stellen wir vor, wie der zielbasierte Fuzzy-Ansatz einen einheitlichen Weg zur Lösung des Problems der Fuzzy-Entscheidungsfindung mit Unsicherheit über den Naturzustand und Ungenauigkeit der Auszahlungen bieten kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76829-6_5 8b757daee22afde6c1a1f053379fa92d;de;;;5.2.;;;Modelle als Laborausstattung: Wissenschaft aus Computerexperimenten Computermodelle sind Artefakte, die die Durchführung von Computerexperimenten erleichtern. In diesem Sinne sind sie Laborgeräte. Der Nutzen eines Laborgerätes ergibt sich aus der Reihe nützlicher Experimente, die es unterstützt. Allzweckmodelle sind jedoch im Allgemeinen viel kostspieliger in der Erstellung und Wartung. Folglich lassen sich Fragen zum Entwurf von Computermodellen am besten als pragmatische Fragen zu Kosten und Nutzen alternativer Entwürfe verstehen.;-;-;-;https://link.springer.com/article/10.1007/s10588-008-9046-y 6970cf81ccc6045d6a7b4a8a7c360481;de;;;5.2.;;;Die Auswirkungen der US-Präsidentschaftswahlen 2016 auf Transgender und geschlechtsspezifische Menschen Mit Trumps Präsidentschaft nahm die Unterdrückung von Transgender- und Gender-Diversity-Menschen (TGD) zu, da die Nation erlebte, dass der Schutz für TGD-Menschen aufgehoben wurde.;-;-;-;https://link.springer.com/article/10.1007/s13178-020-00513-2 e9ecba4b295f06b00fde78cff77dc69b;de;;;4.2.;;;Cue-Nutzung bei der Emotionszuordnung durch auditive Reize Elektronisch synthetisierte Tonfolgen mit systematischer Manipulation von Amplitude und Tonhöhenvariation, Tonhöhe und Kontur, Tempo, Hüllkurve und Filterung wurden nach emotionaler Ausdruckskraft bewertet. Die Ergebnisse zeigen, dass zwei Drittel bis drei Viertel der Varianz in den Emotionsattributionen durch die Manipulation der akustischen Hinweise erklärt werden können und dass ein lineares Modell der Cue-Nutzung der Richter eine gute Annäherung an ihr Reaktionssystem zu sein scheint . Implikationen für phylogenetische und ontogenetische Aspekte des stimmlichen Ausdrucks von Emotionen und für die Psychologie der Musik werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF00992539 ad2baae748f2418f6bed4b4d0476ec7b;de;;;4.2.;;;Ein Herz für Wien – Das Präventionsprogramm für die Großstadt. Arbeiter als besondere Zielgruppe ZIEL: durch Screening nach kardiovaskulären Risikofaktoren Bewusstsein für kardiovaskuläre Gesundheit zu erschaffen, und dabei zu einem gesünderen Lebensstil zu motivieren. Dieses Projekt im Rahmen des öffentlichen Präventionsprojektes Ein Herz für Wien konzentriert sich auf Arbeiterinnen und Arbeiter in der Großstadt, Eine Bevölkerung mit höchstem Risiko für sterben von Herz-Kreislauferkrankungen. ERGEBNISSE: Die Prävalenz von Hypertonie, Übergewicht, Adipositas, abdomineller Adipositas und Rauchenbetrug je 29,7 %, 62,4 %, 16,4 %, 29,3 % und 49,8 %. 87,6 % hatten zumindest einen der untersuchten kardialen Risikofaktoren. Mit zunehmendem Alter stieg die Prävalenz von Hypertonie, Übergewicht, Adipositas und abdomineller Adipositas an. Hypertonie, Übergewicht und abdominelle Adipositas waren häufig bei männlichen Hilfsarbeitern als bei männlichen Facharbeitern. Bei weiblichen Arbeiterinnen war die Prävalenz von Adipositas und abdomineller Adipositas mehr als 1,5 Mal höher, als bei männlichen Arbeitern. SCHLUSSFOLGERUNG: Arbeiterinnen und Arbeiter eine Bevölkerung, in der Gesundheitsförderung und Prävention von Herz-Kreislauferkrankungen hohe Priorität haben sollten. Selbst in der Gruppe der Arbeiterinnen und Arbeiter gilt, je niedriger der Ausbildungsgrad, umso schlechter ist das kardiovaskuläre Risikoprofil.;-;-;-;https://link.springer.com/article/10.1007/s10354-006-0340-3 83a5b0a79d7bd0620f3822893e1f5a11;de;;;4.2.;;;Hausaufgaben, 1945–1985 In den Jahren unmittelbar vor dem Ersten Weltkrieg und in der Anfangsphase des Krieges selbst war die Frauenarbeitslosigkeit hoch. Eine Reihe traditioneller Frauenberufe wie Schneiderei und Hutmacherei steckten in einer Depression. In der Zeit vom ersten Trade Boards Act bis 1914 wurden einige sporadische Versuche unternommen, die Situation zu entschärfen. Zum Beispiel eröffnete die Zentrale Arbeitslosenbehörde für London eine Reihe von Nähstuben, in denen arbeitslose Frauen Kleidungsstücke herstellten, die auf dem Markt verkauft wurden. Verschiedene philanthropische Unternehmungen wurden von betroffenen Personen in die gleiche Richtung unternommen, aber diese hatten keinen wirklichen Einfluss auf die Situation. Tatsächlich nahmen viele der wohlmeinenden Akte der Philanthropie lediglich Arbeit von einem Sektor von Frauen weg und gaben sie einem anderen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-19854-2_8 aa13547e5838001f2b8f88423c0edf86;de;;;4.2.;;;Das indikative Verschreibungsschema des Vereinigten Königreichs Die Arzneimittelkosten im Vereinigten Königreich sind in den letzten zehn Jahren um 4 % über der Inflationsrate gestiegen. Die Verschreibung in der Allgemeinmedizin macht 80 % der gesamten Arzneimittelrechnung aus. Innerhalb der Allgemeinmedizin gibt es erhebliche Unterschiede in der individuellen Verordnungshäufigkeit und den Kosten, die demografische, morbide und berufliche Einflüsse widerspiegeln. Die Erkenntnis, dass viele Verschreibungen unnötig sind und Ressourcen verschwenden, die anderswo im NHS besser eingesetzt werden könnten, ist eine wesentliche Triebkraft für die jüngsten radikalen Veränderungen in der Organisation der britischen Allgemeinmedizin.;-;-;-;https://link.springer.com/article/10.2165/00019053-199202020-00006 85eb13472c178feae93e313644ae3608;de;;;4.2.;;;Auswahl und Nutzung des Lebensraums überwinternder Migranten Ziel dieses Kapitels ist es, zu erörtern, welche Lebensräume Migranten für die Winterquartiere wählen und wie sie diese Lebensräume nutzen. Diese Diskussion konzentriert sich auf kleine Zugvögel, die von hohen in tropische Breiten wandern. Daher bezieht sich der Begriff „Migranten“ auf Arten der nördlichen gemäßigten Zone, die in tropischen und subtropischen Breiten überwintern, und der Begriff „Einwohner“ bezieht sich auf lokale, tropische, ansässige Arten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-74542-3_11 f5833e5bb2133a533b91d8a8e3b09138;de;;;4.2.;;;Technologische Praxis und Wandel in der Bildung Das Potenzial der Technologie, als wichtiger Katalysator für den Bildungswandel in unserem Handeln und Handeln zu wirken, ist heute mehr denn je offensichtlicher denn je. Dieses Kapitel untersucht einen Fall innerhalb einer Institution in Hongkong, die sich der Herausforderung gestellt hat, Dinge anders zu machen und Studenten und Lehrkräften neue Arbeitsweisen zu bieten, unter Berücksichtigung neuer technologischer Praktiken und sich ändernder Bildungsbedürfnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22383-9_1 bd46675a80d230e4cc887f89866c13bf;de;;;4.2.;;;Hin zu sozialem Verhalten in der Navigation virtueller Agenten Wir präsentieren Social Groups and Navigation (SGN), eine Methode zur Simulation des Gehverhaltens kleiner Fußgängergruppen in virtuellen Umgebungen. SGN ist die erste Methode, um das Gruppenverhalten sowohl auf globaler als auch auf lokaler Ebene einer zugrunde liegenden Planungshierarchie zu simulieren. Wir definieren quantitative Metriken, um die Kohärenz und die Sozialität einer Gruppe auf der Grundlage bestehender empirischer Daten realer Menschenmengen zu messen. SGN modelliert nicht explizit kohärente und soziale Formationen, sondern lässt solche Formationen aus einfachen geometrischen Regeln entstehen. Zusätzlich zu einer früheren Version übernimmt SGN während der Navigation auch die Gruppenaufteilung in kleinere Gruppen sowie das Verhalten sozialer Untergruppen, wenn sich eine Gruppe vorübergehend aufteilen muss, um ihre Kohärenz wiederherzustellen. Für Vierergruppen generiert SGN zwischen 13 % und 53 % mehr sozialfreundliches Verhalten als bisherige Methoden, gemessen über die Lebensdauer einer Gruppe in der Simulation. Bei Dreiergruppen liegt der Gewinn zwischen 15 % und 31 % und bei Zweiergruppen zwischen 1 % und 4 %. SGN ist flexibel konzipiert und kann in jedes Crowd-Simulations-Framework integriert werden, das die globale Pfadplanung und jede Pfadverfolgung als separate Schritte abwickelt. Experimente zeigen, dass SGN die Simulation von Tausenden von Agenten in Echtzeit ermöglicht.;-;-;-;https://link.springer.com/article/10.1007/s11432-016-0074-9 01d77cd4eafed650fea86d69ec9bbdb3;de;;;4.2.;;;Dorfwahlen und Dorfmachtstruktur Immer mehr Literatur hat die Auswirkungen von Dorfwahlen auf die Machtstruktur und die Dorfverwaltung untersucht. Melanie Manion (1996: 745) kommt zu dem Schluss, dass „die Kongruenz zwischen Dorfvorstehern und Dorfbewohnern zu einem erheblichen Teil das Ergebnis einer Wahlverbindung ist, die die Wahl der Wähler beinhaltet“. Robert A. Pastor und Qingshan Tan (2000:511) schlagen vor, dass „es Beweise dafür gibt, dass freie Wahlen nicht nur bessere Führer und Politik, sondern auch soziale Stabilität hervorbringen können“. Und nach Jean C. Oi und Scott Rozelle (2000: 513–39) eröffnen Wahlen eine neue Quelle politischer Macht und dienen dazu, den Ort der Dorfmacht in Frage zu stellen. Die Studie von Lianjiang Li (1999: 103–18) zum Zweistimmigkeitssystem unterstreicht die Tatsache, dass der Mangel an Legitimität des Parteisekretärs zu einem Experiment geführt hat, bei dem Dorfparteisekretäre durch eine Volksabstimmung gewählt werden. Baogang He (2002) hat den Einfluss von Dorfwahlen auf das Verhalten der Dorfvorsteher und die Dorfmachtstruktur untersucht (siehe auch Baogang He und Lang Youxing 2000b und 2002). Auch Jonathan Unger (2002:222) behauptet: „Das Beispiel der Dorfwahlen ist ansteckend.“ Er argumentiert: „Die Struktur der ländlichen Verwaltung, die seit dem Ende der Ära Maos weitgehend unverändert geblieben war, beginnt sich vielleicht in wichtigen Punkten zu verbiegen.“ Im Gegensatz dazu stellt Jude Howell (1998:101) die Frage, ob Dorfwahlen tatsächlich die Machtstrukturen der Dörfer beeinflusst haben. Sie stellt fest, dass die Parteisekretäre in einigen Dörfern zwar nach wie vor beträchtliche Macht ausüben, sich der Parteisekretär jedoch in einem Fall auf die Dorfversammlung verlassen musste, um seine Autorität geltend zu machen. Sie schlägt auch vor, dass „weitere Untersuchungen erforderlich sind, um festzustellen, wie mächtig diese Komitees in Bezug auf die Partei- und Gemeinderegierung sind“.;-;-;-;https://link.springer.com/chapter/10.1057/9780230607316_7 7786eb74670b7c4f79254d5c54d6b358;de;;;4.2.;;;Einfluss der Gewichtsabnahme auf die Lebensqualität von Krebspatienten zu Beginn der Chemotherapie Unter den prognostischen Faktoren, die für den Zustand onkologischer Patienten relevant sind, hat der Ernährungsstatus (NS) den größten Einzeleinfluss auf die Lebensqualität (QL). Die Ziele unserer Studie bestanden darin, den Einfluss von NS, Gewichtsverlust (WL) und dem Vorhandensein von Kachexie vor Beginn der Chemotherapie auf die Lebensqualität des Patienten zu bewerten.;-;-;-;https://link.springer.com/article/10.1007/s00520-020-05496-9 de395a5213bb61a4d3408d236080ea63;de;;;4.2.;;;Liberalismus und konventionelle Entscheidungsfindung In Kapitel 1 haben wir gesehen, dass die Prinzipien des Liberalismus in Bezug auf die Eigenschaften der Verfahren definiert wurden, durch die eine kollektive Entscheidungsfindung stattfindet. Da wir zunächst das Verhältnis von Rechten und Entscheidungsverfahren untersuchen wollten, haben wir eine Diskussion über die Merkmale des Liberalismus verschoben. Die Semantik der Sprachen DLA und DLA* lieferte Modelle von Entscheidungsfindungsprozessen. Die vorgestellten Modelle, d. h. die Modellstrukturen, und die Erkenntnisse der deontischen Logik geben uns die Möglichkeit, individuelle Rechte im Sinne kollektiver Entscheidungsprozesse zu definieren. In diesem Kapitel zeigen wir, wie diese Modelle verwendet werden können, um liberale Prinzipien der Entscheidungsfindung zu formulieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-2903-1_7 ead6df6c2badde87e37b6433e780309f;de;;;5.2.;;;Ablehnung von Empathie in Verhandlungen Vertrauen ist eine entscheidende Qualität in der Entwicklung von Individuen und Gesellschaften und Empathie spielt eine Schlüsselrolle bei der Vertrauensbildung. Vertrauen und Empathie werden in der Verhandlungsforschung immer wichtiger. Empathie kann jedoch abgelehnt werden, was ihre Rolle in Verhandlungen erschwert. In diesem Beitrag wird eine linguistische Analyse von Empathie vorgestellt, die sich auf die Ablehnung von Empathie in Verhandlungen konzentriert. Einige der Ablehnungen sind darauf zurückzuführen, dass die Bedürfnisse und Wünsche des Ablehnungsberechtigten nicht erkannt wurden, während andere hauptsächlich strategische Funktionen haben, die in den Verhandlungen an Dynamik gewinnen. In beiden Fällen ist die Ablehnung von Empathie eine Phase in der Verhandlung, kein Zusammenbruch.;-;-;-;https://link.springer.com/article/10.1007/s10726-006-9032-z 6a0ee046394c18b7a80d664b29496db2;de;;;5.2.;;;Optimierung der dynamischen Supply-Chain-Bildung im Supply Mesh mit dem CSET-Modell Ein neues e-Service-Modell namens dynamische Lieferkette zeichnet sich durch ihre dynamische Natur aus, indem es mit der nahtlosen Konnektivität von e-Marketplace leicht gebildet und aufgelöst werden kann. Für diese virtuelle Unternehmensgemeinschaft, in der dynamische Lieferketten projektbezogen (auch Auftragsfertigung genannt) über verschiedene Lieferantenstufen hinweg gebildet werden, wurde der neue Begriff „Supply Mesh“ geprägt. In einem Supply Mesh kann eine dynamische Supply Chain vertikal von der obersten bis zur untersten Schicht gebildet werden, die verschiedene Unternehmen für ein Projekt vermittelt. Unternehmen, die seitlich auf gleicher Ebene stehen, sind in der Regel Konkurrenten, und die vertikal als Lieferketten verbundenen Unternehmen sind Handelspartner. Aus globaler Sicht können die Unternehmen, die im Liefergeflecht verbunden sind, als einzelne Einheiten mit Eigeninteresse betrachtet werden. Sie können ums Überleben konkurrieren oder auch um Arbeitsplätze zusammenarbeiten. Bei solch komplexen Zusammenhängen besteht die Herausforderung darin, einen optimalen Mitgliederkreis für eine dynamische Supply Chain im Supply Mesh zu finden. Ein Multi-Agenten-Modell namens Collaborative Single Machine Earlyiness/Tardiness (CSET) wurde kürzlich für die optimale Gestaltung von Auftragslieferketten vorgeschlagen. In diesem Beitrag werden die Möglichkeiten der Anwendung von CSET in einem Versorgungsnetz untersucht und die entsprechenden Zuordnungsschemata experimentell in Simulationen untersucht. Ein Schema, das als kostengetriebenes Prinzip bezeichnet wird, führt zu destruktivem Wettbewerb, während sich das andere, nämlich Pareto-optimal, zu einem kooperativen Wettbewerb entwickelt, der versucht, alle Beteiligten gegenseitig zu nutzen. Die Ergebnisse anhand von Stichproben aus der US-Textilindustrie zeigen, dass ein kooperatives Wettbewerbsmodell hinsichtlich einer optimalen Zuteilung überlegen ist, die eine maximale Zufriedenheit aller Teilnehmer erzielt.;-;-;-;https://link.springer.com/article/10.1007/s10796-012-9380-y a73cd3fd99eb679ad82bdc0c97ae6a12;de;;;4.2.;;;Wahrgenommene krebsbedingte finanzielle Schwierigkeiten: Auswirkungen auf die Patientenzufriedenheit mit der Lebensqualität bei Krebs im fortgeschrittenen Stadium Krebs und seine Behandlung führen bei Patienten mit fortgeschrittenem Krebs oft zu finanziellen Schwierigkeiten. Das Ziel dieser Studie war es, den Zusammenhang zwischen wahrgenommenen krebsbedingten finanziellen Schwierigkeiten und der Patientenzufriedenheit mit der Lebensqualität (QoL) bei Krebs im fortgeschrittenen Stadium zu untersuchen.;-;-;-;https://link.springer.com/article/10.1007/s00520-007-0214-2 a72179a9c482de61c60b9eb3b4ba368b;de;;;4.2.;;;Die Konvention in den Parlamenten der Mitgliedstaaten AAnfrage Nr. 385/69 von Herrn Raedts an die Kommission der Europäischen Wirtschaftsgemeinschaft betreffend die Behandlung von in griechischen Gefängnissen inhaftierten politischen Gefangenen: Bulletin des Europäischen Parlaments, 1969–1970, Nr. 48, Seite 4.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-1230-5_9 2893d1522861879c99723d3f17734bdf;de;;;4.2.;;;Kheti: Mobile Multimedia in einer landwirtschaftlichen Genossenschaft Kheti ist ein auf Mobiltelefonen basierendes, multimediales Kommunikationssystem, das den Austausch von landwirtschaftlichem Wissen und Ratschlägen innerhalb einer Erzeugergenossenschaft unterstützt. Die erste Version dieses Systems wurde mit der Sironj Crop Producers Company Ltd., einer Kooperative von Kleinbauern in Madhya Pradesh, Zentralindien, entwickelt und von dieser getestet. In diesem Beitrag beschreiben wir das Kheti-System und untersuchen, wie es die Probleme der Bereitstellung von landwirtschaftlichem Wissen adressiert, indem wir anerkennen, dass praktisches Wissen immer in einem komplexen Netzwerk sozialer Beziehungen und Praktiken verortet ist. Wir untersuchen auch die Ergebnisse von Feldversuchen und einige der Herausforderungen bei der Umsetzung einer erfolgreichen Technologie in eine nachhaltige Entwicklungsmaßnahme.;-;-;-;https://link.springer.com/article/10.1007/s00779-010-0335-3 df3df19d6e30c6a778778c1aace62da3;de;;;5.2.;;;Fehlerverteilungsabhängige zuverlässige Steuerung für zeitveränderliches Verzögerungssystem Dieser Beitrag befasst sich mit dem Problem der zuverlässigen Steuerung für zeitkontinuierliche Systeme mit zeitvariabler Verzögerung. Durch die Einführung einer Zufallsmatrix wird ein neues praktisches Aktorfehlermodell erstellt. Unter Verwendung des Lyapunov-Krasovskii-Ansatzes wird eine hinreichende Bedingung für die Existenz eines zuverlässigen Reglers durch eine lineare Matrixungleichung (LMI) ausgedrückt. Ein anschauliches Beispiel wird verwendet, um die Wirksamkeit der vorgeschlagenen Entwurfsverfahren zu zeigen.;-;-;-;https://link.springer.com/article/10.1007/s11768-011-9164-9 3d0599262aeb67d69180d306423969c3;de;;;5.2.;;;Zu den wirtschaftlichen Auswirkungen des Wettbewerbs zwischen Doppelauktionsmärkten Reale Marktinstitutionen, beispielsweise Aktien- und Warenbörsen, treten nicht isoliert auf. Dieselben Aktien und Rohstoffe können an mehreren Börsen notiert sein, und Händler, die mit diesen Waren handeln möchten, haben die Wahl zwischen Märkten, auf denen sie handeln möchten. Während in einzelnen Märkten umfangreiche Forschungen zum agentenbasierten Handel durchgeführt wurden, gibt es nur wenige Arbeiten zu dieser Art von Szenario mit mehreren Märkten. Unsere Arbeit versucht, dieses Ungleichgewicht zu beseitigen. Dieses Papier untersucht insbesondere, wie die allokative Effizienz, das Standardmaß für die Fähigkeit eines Marktes, Überschüsse zu extrahieren, durch das Vorhandensein mehrerer Märkte für dasselbe Gut beeinflusst wird. Wir stellen fest, dass die Aufteilung von Händlern auf mehrere kleine Märkte zwar in der Regel zu einer geringeren Effizienz führt als die Gruppierung zu einem großen Markt, die Bewegung der Händler zwischen den Märkten und Preisanreize für sich ändernde Märkte diesen Effizienzverlust jedoch verringern können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15237-5_7 271a0b3116d53bb14ddaea90d978a820;de;;;5.2.;;;Stabilität der Gleitmodi In den vorangegangenen Kapiteln wurde den Methoden zur Beschreibung der Bewegung entlang einer Diskontinuitätsfläche oder einem Schnittpunkt solcher Flächen große Aufmerksamkeit gewidmet. Die in diesen Kapiteln gefundenen Gleichungen des Gleitmodus oder der Satz solcher Gleichungen in mehrdeutigen Fällen weisen nur auf die Möglichkeit hin, dass diese Art von Bewegung existieren kann. Lassen Sie uns nun direkt dazu übergehen, die Bedingungen für die weitere Bewegung als Gleitmodus zu finden, falls der Anfangszustand auf dem Schnittpunkt von Unstetigkeitsflächen liegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-84379-2_4 2513e77c54e088e1bb80edced0136f03;de;;;5.2.;;;Level Set-Schnittstellenbehandlung und ihre Anwendung in der Euler-Methode Die Level Set-Grenzflächenbehandlungsmethode wird in die Euler-Methode eingeführt, die für die Grenzflächenbehandlungsmethode für Multimaterialien verwendet wird. In Kombination mit der Ghost-Fluid-Methode wird die bewegte Schnittstelle verfolgt. Es werden die räumlichen Diskretisierungsmethoden der fünften Ordnung WENO und die Runge-Kutta-Zeitdiskretisierungsmethoden der dritten Ordnung der TVD verwendet. Stoßwellenwirkung auf Blase, Implosion und Geschwindigkeitsfeld Stoßwirkungsblasen, Implosion und Geschwindigkeitsfeld werden mit Hilfe von C++ programmiertem LS-MMIC3D simuliert. Numerische Ergebnisse zeigen, dass die Level Set-Grenzflächenbehandlungsmethode im Vergleich zur WENO-Methode effektiv und für die Multimaterial-Grenzflächenbehandlung geeignet ist.;-;-;-;https://link.springer.com/article/10.1007/s11433-009-0265-0 38560362351400f6a8c0bf408a48f4aa;de;;;5.2.;;;Planung und Gestaltung von Tunneln für den Ausbau der Jubilee Line, London Die Verlängerung der London Underground Jubilee Line von Green Park nach Stratford ist eines der großen Infrastrukturprojekte, die derzeit in Großbritannien gebaut werden. Die Tunnelbauverträge machen etwa 30 % der Gesamtkosten des Projekts in Höhe von 1,8 Mrd. GBP aus. Dieses Papier konzentriert sich auf die Planungs- und Entwurfskonzepte und die vorgeschlagene Praxis. Es enthält eine kurze Historie des Projekts, der beschlossenen Projektmanagement- und Beschaffungsstrategien sowie der durchgeführten Planungs- und parlamentarischen Prozesse und beschreibt Aspekte der detaillierten Planung der Tunnel und deren angenommenen Baumethoden sowie den aktuellen Stand der Bauarbeiten, einschließlich der Alternativen der Auftragnehmer Entwürfe und vorgeschlagene Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-2646-9_4 03838561df8100533240366050665f6d;de;;;5.2.;;;Europäische Einheit und Zwietracht Die Entsendung sowjetischer Truppen nach Afghanistan im Dezember 1979, um ein wackeliges kommunistisches Regime zu stützen, war ein gefährlicher Beginn des Jahrzehnts, und die anhaltenden Kämpfe in Afghanistan warfen bis Mitte der 1980er Jahre einen ständigen Schatten auf die internationalen Beziehungen. Die bemerkenswerten Ereignisse in der UdSSR und Osteuropa, die durch die Politik Gorbatschows hervorgerufen wurden, haben jedoch die Möglichkeit tiefgreifender Veränderungen in den Beziehungen zwischen Westeuropa und den Nachfolgestaaten der UdSSR und ihrer ehemaligen Satelliten signalisiert. Gleichzeitig haben diese Entwicklungen zusammen mit den Veränderungen in der amerikanischen Innenpolitik die Beziehungen des westlichen Bündnisses beeinflusst.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-13789-3_36 72a398c0175902a3c62695e9bc26ee00;de;;;4.2.;;;Lebenslanges Lernen in Taiwan, China, Korea und Japan Vergleicht man das lebenslange Lernen in Taiwan, China, Korea und Japan, so ist Taiwans Gesamtentwicklung des lebenslangen Lernens gemäß den Qualitätsindikatoren der EU im Bereich des lebenslangen Lernens besser als in China, aber die Qualität liegt weit unter der der Nachbarländer. Unter den 4 Gebieten weist Taiwan eine höhere Beteiligung am lebenslangen Lernen in den Gebieten B und C auf. Die taiwanesische Regierung sollte dem Beispiel der Nachbarländer folgen, eine regelmäßige öffentliche Beteiligung und eine Umfrage zu den Bedingungen des lebenslangen Lernens als Referenz für politische Verbesserungen durchführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22456-0_24 908bb679367660ce67fedffccecfef6f;de;;;4.2.;;;Simulationsbasierte Modellierung und Bewertung von Anreizsystemen in Crowdsourcing-Umgebungen Konventionelle Anreizmechanismen wurden für Geschäftsumgebungen mit statischen Geschäftsprozessen und einer begrenzten Anzahl von Akteuren entwickelt. Sie sind nicht ohne weiteres auf Crowdsourcing und andere Social-Computing-Plattformen anwendbar, die sich durch dynamische Kooperationsmuster und eine hohe Anzahl von Akteuren auszeichnen, da die Auswirkungen von Anreizen in diesen Umgebungen oft unvorhergesehen und teurer sind als in einer gut kontrollierten Umgebung eines traditionellen Unternehmens.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41030-7_11 c91fbe77b287847a0f1adab82d92c27a;de;;;5.2.;;;Der Einfluss der Komplexität des Rechts auf die Prozessstrategie In diesem Kapitel wird vorgeschlagen, dass die Komplexität des Rechts zu Prozessstrategien inspiriert. Das Kapitel illustriert anhand verschiedener Bereiche und Rechtsordnungen, belegt aber nicht die zentrale These, dass das Rechtssystem so komplex geworden ist, dass die Rechtsstaatlichkeit so weit geschädigt ist, dass sich das System von seinen Subjekten losgelöst hat dienen. Das Kapitel weist darauf hin, dass das Rechtssystem selbst keinen Rechtsbehelf gegen diese Systemmängel und folglich die sie ausnutzenden Rechtsstrategien bietet, und weist darauf hin, dass sich die Prozessstrategie von der Strategie unterscheidet, die nur in Rechtsstreitigkeiten angewandt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02135-0_16 89cc6b44b99add20b98c27e03addbbe1;de;;;4.2.;;;Hauptdaten — Tabelle Die Labels der Datensätze, in denen die Informationen zu finden sind, sind in Klammern angegeben, Datensatzlabels mit einem nachgestellten Stern sind nur vorhanden, wenn dies relevant ist. Eine detaillierte Erläuterung jedes Datensatzes finden Sie in Kapitel 5.2.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-10644-0_2 4639b744c626dd11915d1b9f33ce5306;de;;;5.2.;;;Stochastisches Engpass-Spanning-Tree-Problem in einem Fuzzy-Netzwerk Dieses Papier betrachtet eine Fuzzy-Netzwerkversion des stochastischen Engpass-Spanning-Tree-Problems. Die Existenz jeder Kante ist nicht unbedingt sicher und wird durch einen bestimmten Wert zwischen 0 und 1 angegeben. 1 bedeutet, dass sie sicher existiert und 0 bedeutet, dass sie nicht existiert. Bei Zwischenzahlen entspricht ein höherer Wert einer höheren Existenzmöglichkeit. Darüber hinaus hat jede Kante zufällige Kosten, die von anderen Kanten unabhängig sind. Die Wahrscheinlichkeit, dass die maximale Belastung unter diesen ausgewählten Kanten nicht größer als die Kapazität ist, sollte nicht kleiner als die feste Wahrscheinlichkeit sein. Unter der obigen Einstellung suchen wir einen Spannbaum, der die Kapazität minimiert und die minimale Existenzmöglichkeit unter diesen ausgewählten Kanten maximiert. Da es normalerweise keinen Spannbaum gibt, der zwei Ziele gleichzeitig optimiert, leiten wir ein effizientes Lösungsverfahren ab, um eine Menge von einigen nicht dominierten Spannbäumen zu erhalten, nachdem die Nicht-Dominanz von Spannbäumen definiert wurde. Abschließend diskutieren wir die weiteren Forschungsprobleme.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13935-2_14 63f483f4738eeb16b374610f63871336;de;;;4.2.;;;Entwicklung von Demenz-Personas für nutzerzentrierte Architekturdesignüberlegungen in nicht spezialisierten Kontexten Dieses Papier befasst sich mit der Entwicklung von Demenz-Persona als Forschungs- und Designwerkzeug, das Architekten und Designern hilft, wichtige Informationen für Designprozesse und Entscheidungen in der Praxis aufzudecken. Architekten entwerfen Räume für bestimmte Funktionen, aber ziehen sie es wirklich in Betracht, diese Ziele zu integrieren, wobei der Fokus darauf liegt, bei der Gestaltung sinnvolle Räume für Menschen mit Demenz zu schaffen und wenn ja, aus welchen Gründen? Der Grund dafür, Demenz-Personas zu verwenden und Menschen mit Demenz nicht direkt anzusprechen, liegt in der Tatsache, dass es sehr schwierig sein kann, die Bedürfnisse der Demenzversorgung zu verstehen, da Menschen mit Demenz neben diesen vielen Designern und Architekten haben aufgrund ihrer Benennung keine ethische Freigabe, mit Menschen mit Demenz zu arbeiten. Eine Literaturanalyse und partizipative Workshops wurden verwendet, um die in diesem Papier diskutierten Demenz-Personas zu entwickeln. Der Prozess der Entwicklung von Demenz-Personas stellte viele Herausforderungen dar. Es mussten iterative Überarbeitungen vorgenommen werden, um die Personas zuordenbar und konkret genug zu machen, um als erfolgreiches Designwerkzeug verwendet zu werden. Der komplexe Kontext des Falles erfordert mehr Personas, um die Vielfalt von Menschen mit Demenz in der Leistungserbringung auf verschiedenen Ebenen zu repräsentieren, und dies ist der Beginn des Persona-Entwicklungsprozesses. Die Ergebnisse werden hier berichtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-33540-3_5 0aebdc3b51719d58c30dd7ccd9134735;de;;;4.2.;;;Unterstützung von Nachhaltigkeitsinitiativen durch biometeorologische Aus- und Weiterbildung Die International Society of Biometeorology (ISB) hat sich in den letzten 60 Jahren mit grundlegenden und angewandten gesellschaftlichen und ökologischen Herausforderungen intensiv befasst. Biometeorologie ist eine interdisziplinäre Wissenschaft, die lebende Organismen mit ihrer Umwelt verbindet, aber es gibt sehr wenig Verständnis für die Existenz und Einordnung dieser Disziplin in formalen Bildungssystemen und -institutionen. Es ist daher schwierig, die Fähigkeit der Mitglieder der biometeorologischen Gemeinschaft – insbesondere der Biometeorologen der Zukunft – zur Lösung globaler Herausforderungen zu prognostizieren. In diesem Beitrag fragen wir: Wie trainieren wir derzeit die Menschen, um Biometeorologie zu verstehen und darüber nachzudenken? Wir fragen auch: Was sind die aktuellen Werkzeuge und Möglichkeiten, mit denen Biometeorologen zukünftige Herausforderungen angehen könnten? Schließlich verbinden wir diese beiden Fragen, indem wir fragen: Welche Art von neuer Ausbildung und Kompetenzentwicklung ist erforderlich, um „Biometeorologen der Zukunft“ besser auszubilden, um die zukünftigen Herausforderungen effektiver zu bewältigen? Um diese Fragen zu beantworten, liefern wir quantitative und qualitative Beweise aus einem bildungsorientierten Workshop, an dem neue Fachleute in der Biometeorologie teilnahmen. Wir identifizieren vier gemeinsame Themen (thermische Behaglichkeit und Exposition, landwirtschaftliche Produktivität, Luftqualität und Urbanisierung), die Biometeorologen derzeit untersuchen und von denen wir erwarten, dass sie in Zukunft aufgrund ihrer Ausrichtung an den Zielen der Vereinten Nationen für nachhaltige Entwicklung wichtig sein werden. Die Überprüfung der neueren Literatur zu jedem dieser Themenbereiche zeigt eine breite Palette von Fähigkeiten und Perspektiven auf, die Biometeorologen bereits nutzen. Aktuelle und neue Fachkräfte innerhalb der ISB haben sehr unterschiedliche und weitgehend improvisierte Bildungswege in diesem Bereich festgestellt. Während Variabilität und Improvisation Vorteile bei der Förderung von Flexibilität, Anpassung und Interdisziplinarität sein können, wirft der Mangel an formaler Ausbildung in Biometeorologie Bedenken darüber auf, inwieweit sich nachfolgende Generationen von Wissenschaftlern mit der wissenschaftlichen Gemeinschaft, die das ISB im Laufe seiner Jahre entwickelt hat, identifizieren und mit ihr interagieren werden 60-jährige Geschichte.;-;-;-;https://link.springer.com/article/10.1007/s00484-017-1408-z 892689f24bf1ce0a5bd7d8c269d1f41b;de;;;4.2.;;;Generieren kulturspezifischer Gesten für Dialoge mit virtuellen Agenten Die Integration von Kultur in das Verhaltensmodell virtueller Agenten ist in letzter Zeit in den Fokus gerückt. Wenn verbale Verhaltensaspekte untersucht werden, werden nonverbale Verhaltensweisen wünschenswerterweise automatisch hinzugefügt, getrieben durch den Sprechakt. In diesem Beitrag präsentieren wir einen korpusgetriebenen Ansatz zur kulturspezifischen Generierung von Gesten, die Agentendialoge begleiten. Die Häufigkeit von Gesten und Gestentypen, die Korrelation von Gestentypen und Sprechakten sowie die Expressivität von Gesten wurden in den beiden Kulturen Deutschland und Japan analysiert und in einen Demonstrator integriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15892-6_34 d8565aae90bd23aee6633c0a3ecce212;de;;;5.2.;;;Authentifizierung von 3D-Polygonnetzen Das Entwerfen einer leistungsstarken fragilen Wasserzeichentechnik zum Authentifizieren von 3D-Polygonnetzen ist eine sehr schwierige Aufgabe. Yeo und Yeung [17] schlugen als erste eine fragile Wasserzeichenmethode vor, um die Authentifizierung von 3D-Polygonnetzen durchzuführen. Obwohl ihre Methode die Integrität von 3D-Polygonnetzen authentifizieren kann, ist sie nicht in der Lage, böswillige Angriffe von zufälligen Datenverarbeitungen zu unterscheiden. In diesem Beitrag schlagen wir eine neue fragile Wasserzeichenmethode vor, die nicht nur böswillige Angriffe erkennen kann, sondern auch gegen zufällige Datenverarbeitungen immun ist. Während des Prozesses der Wasserzeicheneinbettung werden Netzparametrisierungstechniken verwendet, um die Koordinaten ungültiger Scheitelpunkte zu stören, während das Aussehen des Originalmodells vorsichtig beibehalten wird. Da das vorgeschlagene Einbettungsverfahren von der Reihenfolge der Scheitelpunkte unabhängig ist, ist das versteckte Wasserzeichen gegen einige Angriffe immun, wie etwa die Neuordnung von Scheitelpunkten. Darüber hinaus kann das vorgeschlagene Verfahren verwendet werden, um eine bereichsbasierte Manipulationserkennung durchzuführen. Die experimentellen Ergebnisse haben gezeigt, dass das vorgeschlagene fragile Wasserzeichenschema tatsächlich leistungsstark ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24624-4_13 14e9b118f3fe13f58010a6ddc4ab1cc5;de;;;4.2.;;;Forschung zu Problemen und Gegenmaßnahmen der chinesischen Stadtplanungsbildung Die Stadtplanungsausbildung in China ist typischerweise durch eine vage Orientierung, redundante Studienleistungen und sich wiederholende Modelle gekennzeichnet. Die Bildungsreform der Stadtplanung sollte sich auf die sozialen Bedürfnisse und die Humanressourcen konzentrieren. Zukünftige Ziele, Kernkurse und verschiedene Niveaus sollten in das System integriert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27452-7_43 ca6d587b8a6ad94bc6f04363e5b7fa8d;de;;;4.2.;;;Entwicklungstrend und Anwendung digitaler Medienkunst unter künstlicher Intelligenz Das 21. Jahrhundert ist das Zeitalter der Wissenschaft und Technologie. Mit der rasanten Entwicklung digitaler Medien und Technologien tauchen immer mehr digitale Technologien in der Ausstellungsgestaltung auf. Die Einführung digitaler Medienkunst macht den Ausdruck moderner Ausstellungsgestaltung vielfältiger und interessanter und stärkt das Ausstellungserlebnis. Die Entwicklung von Neuem steht vor neuen Chancen und vielfältigen Herausforderungen. Dieser Beitrag analysiert und kämmt den aktuellen Stand der Entwicklung digitaler Medienkunst in Ausstellungsgestaltung und -anwendung in China. Und für die heimische digitale Medienkunst bei der Anwendung der Ausstellung einige Anregungen zu geben. Dieses Papier testet das VR-Displaysystem für digitale Medienkunst basierend auf der VR-Technologie. Der Test zeigt, dass die Reaktionszeit jeder Funktion des Systems die Anforderung von weniger als 0,3 S erfüllt. Insgesamt 190 Tester, 95 Männer und Frauen, Altersverteilung, Zufriedenheitsrate von mehr als 90%.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-74811-1_94 1043ec900109d0e3dcc7d6a8362d9fce;de;;;5.2.;;;"Auf Wiedersehen von all dem: Britische Innenpolitik während des Zweiten Weltkriegs 1940–1945 „Als sie London erreichten, war Chamberlain bereits zurückgetreten, und Attlee und Greenwood wurden gebeten, Churchill bei der Admiralität zu besuchen“, notierte Dalton am 10. Mai 1940 in seinem Tagebuch Napfschnecke wurde heute Nachmittag in Bournemouth von uns geschlagen"", sagte Dalton, der Nationale Vorstand der Labour Party, der in der Stadt, in der ihre Konferenz stattfand, tagte, beschloss einstimmig, dass die Partei bereit sei, ""unseren Anteil an der Verantwortung zu übernehmen"" eine neue Regierung, die unter einem neuen Premierminister das Vertrauen der Nation genießen würde“.";-;-;-;https://link.springer.com/chapter/10.1057/9780230628113_6 b16a411067ff8942456956bdd9197942;de;;;5.2.;;;Der Syphilitische als moralisch Entarteter Aus neueren Forschungen geht hervor, dass Syphilis aufgrund ihrer erblichen Folgen die Spezies entwürdigen und verderben kann, indem sie minderwertige, dekadente, dystrophische und mangelhafte Wesen hervorbringt. Ja, mangelhaft … oder sie können geistig mangelhaft sein, je nach Grad ihrer intellektuellen Erniedrigung zurückgeblieben, einfältig, unausgeglichen, wahnsinnig, idiotisch oder idiotisch sein.;-;-;-;https://link.springer.com/chapter/10.1057/9780230375130_10 641ae6757fa884cb6c9b85362482cfc5;de;;;5.2.;;;Verstopfung und Prolaps Verstopfung ist ein Symptom, das wir alle schon einmal erlebt haben. Während die allermeisten Patienten mit Obstipation keiner fachärztlichen Untersuchung bedürfen, hat die radiologische Abklärung schwer betroffener Patienten in den letzten Jahren große Aufmerksamkeit erregt. Dies geschah parallel zur Entwicklung von Techniken zur physiologischen Beurteilung und einem besseren Verständnis der Pathophysiologie der Erkrankung. Letztlich bleibt trotz dieser Fülle an Forschung die Rolle der Bildgebung umstritten. Dieses Kapitel wird die Rolle der Evakuierungsproktographie bei der Untersuchung von Patienten mit schwerer Obstipation definieren und die Bedeutung einer ausgewogenen Interpretation betonen, die sowohl strukturelle als auch funktionelle bildgebende Befunde bei diesen Personen berücksichtigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71968-7_14 1ef72de55dff41e77a25babb6990d54e;de;;;5.2.;;;"RNA-Polymerase II transkribiert alle Hitzeschock-induzierten Gene von Der Hitzeschock von Drosophila melanogaster induziert die Transkription einer kleinen Anzahl von RNAs. Einige davon kodieren für Proteinprodukte, aber nicht alle. Wir haben untersucht, ob die verschiedenen induzierten RNAs von der RNA-Polymerase II oder von einer anderen RNA-Polymerase transkribiert werden. Die immunchemische Färbung von Polytänchromosomen weist darauf hin, dass die RNA-Polymerase II bei einem Hitzeschock relokalisiert wird, sie von zuvor aktiven Transkriptionsstellen zu den hitzeschockinduzierten Loci „wandert“. Alle durch Hitzeschock induzierten Züge zeigen eine immunchemische Färbung. Eine solche Färbung korreliert mit der RNA-Polymerase-II-Aktivität, wie durch die Empfindlichkeit der RNA-Synthese an diesen Stellen gegenüber niedrigen Konzentrationen von &agr;-Amanitin beurteilt wird. Somit ist die Proteincodierung";-;-;-;https://link.springer.com/article/10.1007/BF00344596 e6102426281e4263016524c317c2beaa;de;;;5.2.;;;Auswertung paralleler Aggregate-Erstellungsreihenfolgen: Smoothed Aggregation Algebraic Multigrid Method Die Algebraic MultiGrid Methode (AMG) wurde intensiv als idealer Löser für große Poisson-Probleme untersucht. Die Smoothed Aggregation Algebraic MultiGrid (SA-AMG) Methode ist eine der effizientesten dieser Methoden. Das Aggregationsverfahren ist der wichtigste Teil der Methode und das Hauptinteresse mehrerer Forscher.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-24049-7_6 48b54657ff5109869d5dace97cf2823e;de;;;5.2.;;;Arbeit mit anspruchsvollen Patienten in der Diabetesbehandlung Patienten in Diabetesbehandlung haben manchmal mit psychosozialen Problemen zu kämpfen, die mit ihren Fähigkeiten zur Behandlung von Diabetes interagieren können. Gesundheitsdienstleister können sich frustriert, ineffektiv und hilflos fühlen, weil es schwierig ist, mit diesen herausfordernden Patienten ein Arbeitsbündnis zu bilden. Dieses Kapitel definiert das Arbeitsbündnis und stellt es als wesentlichen Bestandteil einer patientenzentrierten Diabetesbehandlung und als herausragenden Faktor dar, um herausfordernden Patientenbegegnungen entgegenzuwirken. Es gibt auch einen Überblick über die Literatur zu angstbasierten psychosozialen Problemen im Zusammenhang mit Hypoglykämie, Hyperglykämie oder Gewichtszunahme sowie zu Begleiterkrankungen von Diabetes, Depression und anderen chronischen Erkrankungen. In diesem Kapitel wird auch erörtert, wie diese Erkrankungen zu herausfordernden Patientenbegegnungen beitragen, und präsentiert klinische Vignetten, um die Dynamik und Komplexität der Arbeit mit diesen psychosozialen Schwierigkeiten zu veranschaulichen. Schließlich werden Vorschläge gemacht, wie in herausfordernden Patientenbegegnungen eine Arbeitsallianz mit Patienten aufgebaut werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-60327-208-7_13 9cad73db2ec8c4cb18bd103933ae5528;de;;;4.2.;;;Verteilte Führung bei der Entwicklung eines Wissensaustauschsystems Dieser Beitrag untersucht Führungsdynamiken bei der Entwicklung eines Wissensaustauschsystems. Wir wenden das Konzept der verteilten Führung an und untersuchen, wie Führungsrollen bei der Entwicklung und Implementierung eines Wissensaustauschsystems auf verschiedene Personen in der Organisation verteilt sind. Die Ergebnisse einer Fallstudie zeigen, dass die Führung durch die interdependenten und aufstrebenden Rollen mehrerer Personen erfüllt wurde: die führende und koordinierende Rolle eines sachkundigen und beharrlichen Projektleiters, die unterstützende und steuernde Rolle einer Gruppe von Wahrnehmungs- und Kooperationspartnern. geneigte Führungskräfte und die Rollen des Wissensaustauschs und der Dynamik, die von Wissens-Champions ausgeübt werden. Jeder dieser Führungseinflüsse war unverzichtbar. Keiner der Leiter hätte diese Aufgabe einzeln bewältigen können, ohne die aktive Beteiligung der anderen Leitertypen. Diese Forschung leistet ihren Beitrag zum Verständnis der Entstehung und Dynamik verteilter Führung in der Informationssystemumgebung und zeigt die Bedeutung eines vollständigen Bewusstseins für verteilte Führung bei der Durchführung von Aufgaben bei der Entwicklung eines Wissensaustauschsystems.;-;-;-;https://link.springer.com/article/10.1057/palgrave.ejis.3000694 20baa0d9540c6f90115ffb5d59752c0a;de;;;5.2.;;;Unterlidstraffung: Aktuelle Konzepte im Management Die Augenlider sind eine kritische Struktur, die für die Erhaltung der Gesundheit des Auges und der Augenoberfläche von größter Bedeutung ist. Eine Fehlstellung des Augenlids führt zu einer Vielzahl von Problemen, die dem Patienten Unbehagen bereiten und oft nach Intervention suchen. Bei der Behandlung von Lidfehlstellungen gibt es zwei Hauptziele: erstens die Funktion zu erhalten oder wiederherzustellen und zweitens dies auf ästhetisch ansprechende Weise zu erreichen. Die beiden sind miteinander verflochten, wenn eine Operation zu funktionellen oder kosmetischen Zwecken angegangen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-33677-8_4 444e212908b21027ccb30035d7f08d41;de;;;5.2.;;;Minimales Dirichlet-Integral der Wachstumsrate als Metrik für den intrinsischen Formunterschied In diesem Kapitel wird ein allgemeiner theoretischer Rahmen für die Konstruktion von Modellen biologischer Oberflächen vorgestellt. Die Beispiele des vorigen Kapitels können als Einführung in das Vokabular der folgenden Entwicklung angesehen werden. Insbesondere kann die geometrische Strategie als eine Verallgemeinerung des in den Abschnitten 2.2 und 2.3 verwendeten Ansatzes zur Modellierung des Spitzenwachstums und der Entwicklung der Hirnbläschen bei Mäusen angesehen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-93320-2_3 fe7a3dbad9faf012c8a3b3c4bd29a442;de;;;4.2.;;;Skalierung lokaler Erfahrungen auf globale Herausforderungen: Erkenntnisse aus Grounded Design und Value Sensitive Design Dieses VSD-Nugget untersucht, wie die kleinräumigen Effekte praxisbasierter Designaktivitäten aufrechterhalten und skaliert werden können, um zum globalen gesellschaftlichen Wandel beizutragen. Wir untersuchen insbesondere den Charakter von Social-Networking-Aktivitäten und diskutieren, wie die Nachhaltigkeit einer Initiative mit ihrer Fähigkeit zusammenhängt: (i) skaliert und mit gleichgesinnten Initiativen verbunden zu werden, (ii) verschiedene Werte zu steuern, (iii) zu etablieren Organisationsstrukturen über den wissenschaftlichen Kontext hinaus, (iv) eine Stimme im öffentlichen Diskurs zu etablieren und (v) relevante politische Entscheidungsträger zu identifizieren und einzubeziehen.;-;-;-;https://link.springer.com/article/10.1007/s10676-018-9470-8 d6e8ce1b96c19a495477944dfd4d7734;de;;;4.2.;;;Systeme zur Beilegung von Arbeitsstreitigkeiten: Die Erfahrung nimmt zu, aber einige Fragen bleiben bestehen Brown & Root, ein großes privates Bauunternehmen, hat ein Streitbeilegungssystem (DRS) konzipiert und implementiert, das auf eine frühzeitige, informelle Beilegung von Streitigkeiten setzt. Dieser Artikel zeichnet die Entwicklung, Implementierung und Errungenschaften des Systems bis jetzt nach: Der Autor beschreibt auch den umstrittensten Aspekt des Systems – eine vorstreitige Vereinbarung zur obligatorischen Schiedsgerichtsbarkeit als Beschäftigungsbedingung.;-;-;-;https://link.springer.com/article/10.1007/BF02187174 16bf8f2b7ef42ea51ff69c3c7db9bb83;de;;;4.2.;;;Umgang mit Mediennutzung in Vorlesungen: Machbarkeit und Wert einer Split-Class-Politik Die hohe Nutzung digitaler Medien ist zu einem Merkmal der Hochschullehre geworden. Obwohl dies sicherlich in der Lage ist, Lernergebnisse zu unterstützen, weisen Studien darauf hin, dass die Mediennutzung, wenn sie nicht zu den Aufgaben gehört, eine Störung darstellt, die sowohl die Benutzer als auch ihre Umgebung von akademischen Aufgaben ablenkt. In dieser Studie wird eine explorative Mixed-Methods-Bewertung einer Mediennutzungspolitik für einen einsemestrigen Studiengang vorgestellt. Diese Richtlinie teilte den Hörsaal in zwei Bereiche, einen für diejenigen, die digitale Geräte nutzen wollten, und einen für diejenigen, die dies nicht wollten. Eine solche Politik ermöglichte es den Schülern, den Wert der Medien auf Wunsch zu nutzen, während sie denjenigen, die keine Medien nutzen wollten oder durch die Mediennutzung ihrer Mitschüler gestört werden wollten, ein gewisses Maß an Schutz vor ablenkenden Hinweisen bot. Die Ergebnisse zeigen, dass diejenigen, die konsequent dieselbe Seite ausgewählt haben, besser abschneiden als diejenigen, die von einer Seite zur anderen wechseln. Zwei Fokusgruppen nach dem Kurs zeigten, dass die Richtlinie trotz einiger Einschränkungen von den Teilnehmern gut aufgenommen wurde und ihr Bewusstsein für die möglichen Ablenkungen der Mediennutzung außerhalb der Aufgaben geschärft hat, sodass sie eine Strategie für ihre Vorlesung identifizieren und beibehalten können Aufmerksamkeitsverteilung und Verhalten.;-;-;-;https://link.springer.com/article/10.1007/s12528-019-09232-z 6059a65867a0fd9e17ca71e7bbd64333;de;;;5.2.;;;Anwendungen der Graphentheorie auf die Grobfehlererkennung für geodätische GPS-Kontrollnetze Dieses Papier beschreibt eine breite Perspektive der Anwendung der Graphentheorie auf den Aufbau von GPS-Kontrollnetzwerken, wobei das GPS-Netzwerk als verbundener und gerichteter Graph mit drei Komponenten betrachtet wird. Bei diesem Algorithmus erfolgt die Grobfehlererkennung durch Schleifen unterschiedlicher Spannbäume nach dem „Schleifengesetz“, bei dem die einzelnen Komponenten Δ;-;-;-;https://link.springer.com/article/10.1007/BF02826471 9ab9882bf05fe089ba8caf5134fc1638;de;;;5.2.;;;Das Ersticken von Finned Arrays Die Parametrisierung der Wärmeübertragungsmatrix, um eine lineare Transformation zwischen Spitzenbedingungen und Basisbedingungen von Temperaturüberschuss und Wärmefluss für eine einzelne Rippe bereitzustellen, wird als Grundlage für die Diskussion des Drosselungsphänomens verwendet, das in Anordnungen von Rippen auftritt. Es werden Beispiele bereitgestellt, die das Erstickungsproblem veranschaulichen und zeigen, wie die Erstickung gemildert werden kann. Berücksichtigt wird das Problem der Variation des Wärmeübergangskoeffizienten an den Stirnseiten einer einzelnen Rippe über den Kaskadenalgorithmus für die Kombination von aneinander gereihten Rippen. Es wird ein Verfahren zur Beseitigung einer Wärmestromdrosselung vorgeschlagen, wenn die Größe des Wärmeübergangskoeffizienten niedrig wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-1090-7_28 8de8756a65c6b459bdcb9ed6c8b40987;de;;;5.2.;;;Duale teleologische Perspektiven in der qualitativen Kreislaufanalyse Diese Forschung verwendet qualitative und teleologiebasierte Techniken, um Modelle physiologischer Systeme zu simulieren, zu bewerten und zu erklären. Der Biology Critic, BIOTIC, basiert auf den qualitativen teleologischen Konstrukten, die von Physiologen verwendet werden [BURG87,ERA88,GUYT86]. Mit einem qualitativen Kreislaufmodell, Umweltfaktoren und einer Teleologie erstellt BIOTIC eine Verhaltensspur, eine Bewertung und eine Erklärung, wie die Struktur des Modells zu seiner Funktion beiträgt. BIOTIC verwendet das Bipartite Teleology Model (BTM), um Kreislaufsysteme sowohl aus statischer als auch aus dynamischer Sicht zu kritisieren. Diese Perspektiven verkörpern zwei Wege, auf denen physiologische Systeme Teleologien erreichen: über normale Aktivität in einer stabilen Umgebung und über Regulationsmechanismen, wenn sie von außen gestört werden. Nach dem Vorbild der dualen Perspektiven der Teleologie, die sich sowohl in philosophischen als auch in physiologischen Interpretationen des Systemverhaltens zeigen, verdeutlicht BTM die Rolle des funktionalen Wissens bei der qualitativen Analyse physikalischer Systeme.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-48650-0_15 1678955d35b3dfb7b333b5781ce53261;de;;;4.2.;;;Das nordische Modell der Informationsgesellschaft: Der finnische Fall Erhöht der Aufstieg des Informationszeitalters notwendigerweise die soziale Ungleichheit und Ausgrenzung, wie es der weltweit vorherrschende Trend zu sein scheint? In vielen politischen Kreisen wird angenommen, dass die Antwort „Ja“ lautet. Viele Länder haben daher den Weg gewählt, in der globalen Welt zu konkurrieren, indem sie den Sozialstaat kürzen.;-;-;-;https://link.springer.com/chapter/10.1057/9780230523500_11 9fe9ad754d6da92ea01bf2a891ee1cff;de;;;4.2.;;;Räumliche Konflikte in der Verkehrspolitik: Strukturierung der Analyse für große Infrastrukturprojekte Die Politikgestaltung in der Europäischen Union verfolgt die Integration nationaler und lokaler Politiken unter Wahrung der nationalen und regionalen Identitäten. Räumliche Konflikte treten in diesem Rahmen häufig auf. In diesem Beitrag werden Art und Charakteristika räumlicher Konflikte für die Verkehrspolitik diskutiert und ein methodischer Rahmen für ihre Untersuchung vorgestellt. Ziel ist es, Einblicke in horizontale Konflikte (zwischen Politikeinheiten auf derselben Ebene, wie Regionen) und vertikale Konflikte (zwischen verschachtelten Politikeinheiten, wie der Europäischen Union, Nationen, Regionen usw.) zu gewinnen. Räumliche Analyse, Entscheidungsanalyse und Organisationstheorie liefern die Methoden für die Analyse. Das Papier illustriert den Ansatz und beschreibt die Phase der Problemstrukturierung. Hierfür wird ein großes Verkehrsinfrastrukturprojekt in Betracht gezogen. Die räumliche Natur der Akteure wird analysiert und ihre Ziele und Anliegen werden explizit gemacht. Zusammen mit den räumlichen Informationen für die Entscheidung führt dies zu einer räumlichen Darstellung des Entscheidungskontextes jedes Akteurs, der der Konfliktanalyse zugrunde liegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45772-2_32 42f1e57a00c5c65e21fac1ca7c166394;de;;;4.2.;;;NEP in der Literatur Die Ursprünge der Neuen Wirtschaftspolitik (NEP) lagen in der Gesellschaft, die dem Bolschewismus nach seinem Sieg im Bürgerkrieg gegenüberstand, und in den Perspektiven, die ihre Führer zu diesem Zeitpunkt vor ihnen sahen. Geschult darin, Politik als Produkt sozialer Kräfte zu sehen, erwarteten sie, dass die Sozialanalyse den Schlüssel zur Zukunft Russlands liefert und sie – nicht zuletzt in diesen frühen Jahren – auch in die Lage versetzt, die Chancen ihres eigenen politischen Überlebens abzuschätzen. Aber der Unterricht, der sich präsentierte, war ganz anders als der, den die Theorie sie erwartet hatte. Anstatt die Macht an der Spitze eines starken Industrieproletariats zu übernehmen, wie es der Marxismus forderte, erbte die Partei ein ruiniertes, weitgehend bäuerliches Land. Andere Schichten waren abwesend, zerstreut oder nach sieben Jahren Weltkrieg, Revolution und Bürgerkrieg einfach zerstört. Wie Moshe Lewin betonte, hatten die Bolschewiki immer gewusst, dass sie eines Tages regieren würden, aber niemand hatte damit gerechnet, dass sie dies in sozialer Isolation tun würden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-21447-1_2 d2a95c02a408a787bfdf1755c706dc71;de;;;5.2.;;;Chaotischer Fruchtfliegen-Optimierungsalgorithmus Der Fruchtfliegen-Optimierungsalgorithmus (FOA) war ein neuartiger schwarmintelligenter Algorithmus, der vom Nahrungsfindungsverhalten von Fruchtfliegen inspiriert wurde. Aufgrund des Mangels des Einfangens im lokalen Optimum von FOA wurde in diesem Papier eine neue Fruchtfliegenoptimierung integriert mit Chaosoperation (genannt CFOA) vorgeschlagen, bei der logistisches Chaos-Mapping in die Bewegung der Fruchtfliegen eingeführt wurde, das Optimum war sowohl von der besten Fruchtfliege als auch von der besten Fruchtfliege im Chaos erzeugt. Experimente zu Singlemode- und Multimode-Funktionen zeigen, dass CFOA nicht nur die grundlegende FOA und andere Algorithmen zur Optimierung der Schwarmintelligenz in Präzision und Effizienz übertrifft, sondern auch über die hervorragende Suchfähigkeit verfügt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11857-4_9 946776cbf05b27e2c8fb86ebb7a4025e;de;;;5.2.;;;Tabellenformdokumentanalyse basierend auf der Dokumentstrukturgrammatik Die Strukturanalyse von Dokumenten in Tabellenform ist ein wichtiges Thema, da ein gedrucktes Dokument und sogar ein elektronisches Dokument keine logischen Strukturinformationen, sondern lediglich geometrisches Layout und lexikalische Informationen liefern. Um diese Dokumente automatisch verarbeiten zu können, sind logische Strukturinformationen erforderlich. In diesem Beitrag analysieren wir zunächst die Elemente der Formulardokumente aus kommunikativer Sicht und ermitteln die darin vorkommenden grammatikalischen Elemente. Dann präsentieren wir eine Dokumentstrukturgrammatik, die die logische Struktur der Formulardokumente regelt. Schließlich schlagen wir ein auf der Grammatik basierendes Strukturanalysesystem der Tabellenformdokumente vor. Durch die Verwendung der Grammatiknotation können wir sie leicht ändern und konsistent halten, da die Regeln relativ einfach sind. Ein weiterer Vorteil der Verwendung der Grammatiknotation besteht darin, dass sie zum Generieren von Dokumenten nur aus einer logischen Struktur verwendet werden kann. In unserem System wird davon ausgegangen, dass Dokumente aus einer Reihe von Boxen bestehen und in sieben Boxtypen eingeteilt werden. Dann werden die Box-Beziehungen zwischen der Anzeigebox und ihrer zugehörigen Eingabebox basierend auf dem semantischen und geometrischen Wissen analysiert, das in der Dokumentenstrukturgrammatik definiert ist. Experimentelle Ergebnisse haben gezeigt, dass das System mehrere Arten von Tabellenformularen erfolgreich analysiert.;-;-;-;https://link.springer.com/article/10.1007/s10032-005-0008-3 18227e6b754b8e48129df2a13f1ffe83;de;;;4.2.;;;The Grand Challenges Discourse: Transforming Identity Work in Science and Science Policy Dieser Artikel analysiert das Konzept der „großen Herausforderungen“ als Teil einer Veränderung in der Art und Weise, wie Wissenschaftler und politische Entscheidungsträger ihre jeweiligen Agenden formulieren und kommunizieren. Die Geschichte des Grand-Challenge-Diskurses hilft zu verstehen, wie sich Identitätsarbeit in Wissenschaft und Wissenschaftspolitik in den letzten Jahrzehnten gewandelt hat. Darüber hinaus stellt sich die Frage, ob dieser Diskurs nur ein Indikator oder auch ein Faktor dieser Transformation ist. Aufbauend auf Begriffsgeschichte und historischer Semantik rekonstruieren die beiden Teile des Beitrags zwei diskursive Verschiebungen. Erstens weist die Beobachtung, dass in der wissenschaftlichen Kommunikation Verweise auf „Probleme“ zunehmend durch Verweise auf „Herausforderungen“ ersetzt werden, auf einen breiteren kulturellen Trend hin, wie sich die Einstellungen zum Problematischen in den letzten Jahrzehnten verändert haben. Zweitens, da der Diskurs über große Herausforderungen im Bereich des Sports und des Wettbewerbs verwurzelt ist, führt er eine spezifische neue Reihe von gesellschaftlichen Werten und Praktiken in die Bereiche von Wissenschaft und Technologie ein. Der Artikel kommt zu dem Schluss, dass dieser Prozess als Sportifizierung der Wissenschaft charakterisiert werden kann, die zur Selbstmobilisierung und letztlich zur Selbstoptimierung der beteiligten Wissenschaftler, Ingenieure und politischen Entscheidungsträger beiträgt.;-;-;-;https://link.springer.com/article/10.1007/s11024-017-9332-2 198d94ed35f439b84529608f57859c5c;de;;;4.2.;;;Sind erweiterte Resilienzkapazitäten mit einer besseren Lebensqualität verbunden? Beweise von armen Haushalten, die sich mit dem Klimawandel in Bangladesch, Tschad, Indien und Nepal auseinandersetzen Arme Menschen sind durch den Klimawandel und insbesondere die zunehmende Häufigkeit und Schwere extremer Klimaereignisse wie Überschwemmungen und Dürren besonders anfällig für Schocks und Unsicherheiten. Solche Schocks verschärfen die bestehenden Macht- und Reichtumsungleichheiten. In diesem Kapitel wird untersucht, ob arme Haushalte mit höheren Resilienzkapazitäten auch eine höhere Lebensqualität genießen. Basisdaten aus zwei laufenden Oxfam-Projekten mit lokalen Partnern bieten einen reichhaltigen und neuartigen Datensatz zur Erforschung dieser Beziehungen in vier verschiedenen geografischen und sozialen (sozio-räumlichen) Kontexten in Bangladesch, Tschad, Indien und Nepal. Diese verschiedenen Projektdatensätze teilen eine Reihe gemeinsamer Indikatoren für die Lebensqualität sowie Proxys für absorbierende, adaptive und transformative Resilienzkapazitäten. Wir konstruierten Modelle mit den Umfragedaten, um zu untersuchen, welche Faktoren mit einer besseren Lebensqualität verbunden sind und ob Resilienzkapazitäten signifikante Erklärungsfaktoren sind. Die Rolle des Geschlechts wird in den Modellen gezielt untersucht. Die Ergebnisse zeigen, dass selbst bei Umfrageteilnehmern, die in Gemeinschaften leben, die durch ein hohes Maß an Armut und Marginalisierung gekennzeichnet sind, ein hohes Maß an Resilienz und am deutlichsten transformative Resilienz einen positiven Zusammenhang mit Lebensqualitätsindikatoren haben. Älteres Alter ist tendenziell mit niedrigeren Lebensqualitätsindikatoren verbunden. Die Rolle des Geschlechts wird als wichtig erachtet, aber die Ergebnisse unterscheiden sich je nach Projekt. Das Kapitel schließt mit einer Diskussion der Relevanz der Ergebnisse für Entwicklungspraktiker, die in der Resilienzarbeit mit in Armut lebenden Menschen arbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-50540-0_9 819e4c682e9f59f5e732ddd105a77277;de;;;4.2.;;;Common People in Media: Content Gaps als Herausforderung für Digital Media Professionals Nach Recherchen der Autoren hat das traditionelle Medienpersonal das starke Interesse an den Normalbürgern verloren. Ein solcher Trend bedeutet ein Desinteresse am Mainstream-Alltag, der im Leben der einfachen Leute vertreten ist. Diese inhaltlichen Lücken sollten für nichttraditionelle Medien in den Mittelpunkt der Aufmerksamkeit gerückt werden, wenn sie das „Mensch-zu-Mensch“-Kommunikationsmodell in einer neuen Medienumgebung entwickeln wollen. Neue Social-Internet-Projekte fordern den traditionellen Medienalltag heraus. Damit können sich die digitalen Medien im Wettbewerb mit Print- und audiovisuellen Kanälen einen Vorteil verschaffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49700-6_3 b99b68ffb99dec052dc6b4b85705ef04;de;;;4.2.;;;OperA/ALIVE/OperettA Umfassende Modelle für Organisationen müssen einerseits globale Ziele und Anforderungen spezifizieren können, können andererseits aber nicht davon ausgehen, dass einzelne Akteure immer den Bedürfnissen und Erwartungen des Systemdesigns entsprechend handeln. Konzepte als Organisationsregeln (Zambonelli;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-33570-4_9 032e235f28ac26ca7c347b89b020c2e1;de;;;4.2.;;;Zeugnis ablegen: Der physische Ausdruck des Spirituellen im Erzählzyklus von Assisi In der Unterbasilika der Wallfahrtskirche San Francesco in Assisi sind die sterblichen Überreste von Francis Bernardone beigesetzt, der 1228 etwas mehr als zwanzig Monate nach seinem Tod heiliggesprochen wurde.;-;-;-;https://link.springer.com/chapter/10.1057/9780230623736_3 ce16959505a2f6a48b3bf9d5be8e0975;de;;;4.2.;;;Institutionalisierung neuer C2G-Kommunikationsformen: Trends und Dynamik in Sankt Petersburg Es wurden Untersuchungen vorgeschlagen, um Trends und die Dynamik des Vertrauens der Bürger in neue C2G-Kommunikationsformen zu bestimmen. Die Umfrage beleuchtet das Vertrauenskonzept und seine Belege für die IT-Leistung im öffentlichen Sektor. Es wurde eine repräsentative Befragung nach einem SCOT-Ansatz durchgeführt. Bei den 800 Befragten dieser Umfrage betrug der Stichprobenfehler nicht mehr als 4%, die Zuverlässigkeit erreichte 95%. Der Fragebogen enthielt Variablen zur Bewertung der Nutzungserfahrung und des Vertrauens in neue Technologien in der Interaktion mit der Regierung. Die Studie ergab eine Zunahme des Vertrauens der Bürger in die Kommunikation mit Behörden über das Internet und in den Empfang staatlicher und kommunaler Dienstleistungen in elektronischer Form.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-67238-6_14 84ed0848273967074f3dc8553960a492;de;;;5.2.;;;Bioterrorismus und Bioethik: Herausforderungen für Industrie, Staat und Gesellschaft Die aufkommende Bedrohung durch den Bioterrorismus stellt die Biotechnologiebranche vor große Herausforderungen. Für Unternehmen, die Chancen der Produktentwicklung nutzen wollen, ergeben sich nicht nur neue ethische Fragen, sondern auch die Industrie muss sich weiterhin mit langjährigen Problemen auseinandersetzen, die sich aus Fortschritten in der Humangenetik und der medizinischen Forschung ergeben. Es wird nicht mehr ausreichen, die bioethische Aufmerksamkeit nur darauf zu richten, ob die „Ethik“ einer klinischen Studie so gut ist wie die „Wissenschaft“ (eine wichtige Begründung für die pharmazeutische und biotechnologische Forschung). Die Bedrohung durch Bioterrorismus erfordert, dass wirtschaftlichen, politischen und ethischen Erwägungen verstärkte Aufmerksamkeit geschenkt wird.;-;-;-;https://link.springer.com/article/10.1057/palgrave.jcb.3040015 6a60c05461e1f8885e69eb9f4f918c13;de;;;5.2.;;;Der Maxwellsche Ausblick In seiner Analyse der Signalausbreitung in Telegrafenkabeln demonstrierte Heaviside eine meisterhafte Fähigkeit, die Mathematik partieller Differentialgleichungen zu manipulieren. Maxwells Theorie, der er an dieser Stelle seine volle Aufmerksamkeit widmete, trug Obertöne von Hamiltons mächtiger, wenn auch etwas abstruser Algebra der Quaternionen. Nachdem man Heavisides Frühwerk gelesen hatte, konnte man erwarten, dass er diesem Beispiel folgt, die Analyse erweitert und seine mathematischen Fähigkeiten auf das detaillierte Studium spezifischer, anschaulicher Fälle anwendet, genau wie er es beim Telegraphenkabel getan hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-0177-5_3 98a87850a451d9119d4ca1096610b9d4;de;;;5.2.;;;Werbung im Vereinigten Königreich Das Jahr 2000 hat eine sich verschärfende Krise für die britische Werbebranche erlebt, die das immer schwierigere Geschäftsumfeld und die sich verschlechternde Wirtschaftslage widerspiegelt. Die Befürchtungen eines Einbruchs und einer vollständigen Rezession sind seit dem Jahreswechsel gewachsen, die amerikanische Wirtschaft schwächelte und deutete auf eine weitere Verlangsamung des Wachstums in der Eurozone hin. Eine Reihe von Zinssenkungen im Frühjahr und Frühsommer 2001 diente dazu, das Vertrauen vorübergehend zu stärken und möglicherweise die zugrunde liegenden Trends zu verschleiern. Die unausweichliche Schlussfolgerung ist, dass sowohl die Wall Street als auch London seit Mitte '89 seit etwa zwei Jahren einen Bärenmarkt erleben und der Zusammenbruch des Dot.com-Sektors und die negative Stimmung in Bezug auf den Telekommunikationssektor zu einem enormen Wertverlust der Aktien geführt haben in diesen Sektoren und ein schwerer Schlag für die Gesamtleistung der großen Player mit direkten Folgen für die Werbeausgaben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24788-3_14 ffc099bb4e940328a5817209dafa8e43;de;;;4.2.;;;Chronischer akuter Schmerz Die meisten von uns können sich an eine Zeit mit akuten Schmerzen erinnern, aber wir erinnern uns auch daran, dass es sich um einen vorübergehenden Zustand handelte. Medikamente, medizinische oder zahnärztliche Eingriffe oder die Zeit selbst können dazu beigetragen haben, die Schmerzen zu lindern. Wenn ein schmerzhafter Zustand zu einem chronischen Zustand wird, stört er das Leben. Aber wenn chronischer Schmerz zu einem chronischen akuten Stadium eskaliert, entfernt es die Person weiter von allem außer ihrer eigenen schmerzhaften Existenz. Es ist eine sehr einsame, subjektive Erfahrung. Für andere ist es schwierig, den Schmerz einer anderen Person vollständig anzuerkennen. Jeder Mensch muss seinen eigenen Boden wahren, und das Leiden eines anderen kann sein eigenes Sicherheitsgefühl in der Welt bedrohen. Dies mag ein Grund sein, warum wir so oft Alte, Kranke und Sterbende in unserer Gesellschaft isolieren. Wir mögen es nicht, mit unserer eigenen Sterblichkeit konfrontiert zu werden, und Schmerz wird oft mit dem Verlust von Menschenleben in Verbindung gebracht.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-5968-3_16 9c147106244af03e17fe43692b3518ba;de;;;4.2.;;;Die kognitive Landschaft Wissenschaftliches Denken, wie wir es heute kennen, basiert auf der Annahme einer objektiven Außenwelt. Diese Überzeugung wird durch eine Begründung gestützt, die sich auf mechanische Gesetze der kausalen Wirksamkeit und des Determinismus stützt. Grundsätzlich bildet die Übereinstimmung zwischen den Hypothesen und ihren Vorhersagen durch experimentelle Forschung den empirischen Erfolg von Science. Die Natur entspricht jedoch nicht den Bedingungen einer klassischen thermodynamischen Theorie, in der sich ein physikalischer Zustand irreversibel aus seinem wahrscheinlichsten, gleichförmigen, inerten und unveränderlichen makroskopischen Vorläufer entwickelt. Der auf die Ökologie angewandte reduktionistische Ansatz hat innerhalb seiner eigenen Exzellenzbereiche Grenzen gezeigt. Die vom Determinismus gesteuerten homöostatischen Gleichgewichte werden oft von unvorhersehbaren Instabilitäten begleitet, bei denen die Energiedissipation zur Quelle neuer makroskopischer Strukturen wird (May 1974 1976 1986 Kauffman 1993 Prigogine und Stengers 1984.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-3138-9_8 d081cd59941f23d3826108037d023cdd;de;;;5.2.;;;Verwendung von semantischem Clustering zur Unterstützung des Situationsbewusstseins auf Twitter: der Fall von Weltanschauungen In den letzten Jahren hat sich das Situationsbewusstsein als entscheidender Bestandteil einer effektiven Entscheidungsfindung, insbesondere für das Krisenmanagement, herausgestellt. Eine Möglichkeit, Wert zu extrahieren und ein besseres Situationsbewusstsein zu ermöglichen, besteht darin, ein System zu entwickeln, das in der Lage ist, einen Datensatz mit mehreren Beiträgen zu analysieren und konsistente Beiträge in verschiedene Ansichten oder Geschichten (oder „Weltanschauungen“) zu gruppieren. Dies kann jedoch eine Herausforderung sein, da es eine;-;-;-;https://link.springer.com/article/10.1186/s13673-018-0145-6 b2f8dd93626a4ad55a6f34ef8d55c906;de;;;4.2.;;;Russland und die Welt Vor der Auflösung der Sowjetunion war die Außenpolitik der ehemaligen UdSSR immer einigermaßen klar definiert. Während des Kalten Krieges galt sie als vom ideologischen Konflikt mit den Vereinigten Staaten bestimmt, und die sowjetischen Beziehungen zu einem fremden Land wurden durch den Grad der Opposition gegen die Politik der Vereinigten Staaten bedingt. Die UdSSR konnte sich normalerweise auf die Unterstützung der „progressiven Kräfte“ in den Vereinten Nationen verlassen, und der sowjetische Einfluss auf das Weltgeschehen wurde auch durch ihr Vetorecht im Sicherheitsrat bestimmt. Die sowjetische Außenpolitik operierte damals in einem bipolaren Weltsystem, in dem die Vereinigten Staaten und die Sowjetunion die dominierenden Mächte waren. Aus sowjetischer Sicht war dies ein zufriedenstellender Zustand, da er die UdSSR als gleichberechtigten Hauptakteur auf die Weltbühne stellte.;-;-;-;https://link.springer.com/chapter/10.1057/9780230373990_7 05728373d88252f3a1069eddee73a362;de;;;5.2.;;;Ableiten von Volumenkörpern aus linearen und quadratischen Flächen aus unvollständigen drei Ansichten In diesem Artikel wird ein automatisches Argumentationssystem zum Ableiten von linearen und quadratischen Oberflächenkörpern aus unvollständigen drei Ansichten vorgestellt. Die Methode basiert auf menschlichem Denken. Anfänglich werden quadratische Oberflächenprimitive erkannt und gemäß der Möglichkeitsberechnung extrahiert. Dann werden die Daten, die sich nur auf quadratische Oberflächenprimitive beziehen, aus den gegebenen drei Ansichten entfernt und Polyeder werden basierend auf den verbleibenden Daten konstruiert. Der endgültige Volumenkörper wird konstruiert, indem alle erzeugten quadratischen Oberflächenprimitive und die Polyeder zusammengefügt werden. Das System wurde in C und OpenGL unter Windows NT implementiert. Durch Drehen mit der Tastatur kann der konstruierte Körper in jedem Winkel betrachtet werden. Viele Beispiele werden getestet und die experimentellen Ergebnisse zeigen, dass das System sehr robust ist und einen geeigneten Körper aus linearen und quadratischen Flächen aus unvollständigen drei Ansichten genau und effektiv konstruieren kann.;-;-;-;https://link.springer.com/article/10.1007/BF02948903 0009cbc7d3d56d1b2f3ca72c30e7673a;de;;;5.2.;;;„Next“-Heuristik für die On-the-Fly-Modellprüfung Wir präsentieren eine neue Heuristik für die on-the-fly enumerative invarianten Verifikation. Die Heuristik basiert auf einem Konstrukt für die zeitliche Skalierung, das als next bezeichnet wird und eine Folge von Übergängen, die zu einem bestimmten Zielsatz führen, in einen einzigen Metaübergang komprimiert. Zuerst geben wir einen On-the-Fly-Algorithmus zum Suchen eines Prozessausdrucks an, der unter Verwendung der Konstrukte des Verbergens, der parallelen Komposition und der zeitlichen Skalierung erstellt wurde. Zweitens zeigen wir, dass solange die Zielmenge;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48320-9_9 33bcb95ab10dfbcaa4b035b5b79da065;de;;;5.2.;;;Datenübertragungen in Netzwerken Das Scheduling der Übertragung von rückständigen Daten in einem Netzwerk zur Minimierung der Fertigstellungszeit wird untersucht. Die vollständigste Behandlung (einer Version) des Problems geht auf Gopal, Bongiovanni, Bonucelli, Tang und Wong zurück, die das Problem mit dem Birkhoff-von-Neumann-Theorem angegriffen haben. Diese Autoren liefern jedoch keine Komplexitätsanalyse ihres Algorithmus.;-;-;-;https://link.springer.com/article/10.1007/BF01762116 4c6f80053f7a577781aab7ccd6eb9b5a;de;;;4.2.;;;Warum kulturübergreifend arbeiten? Anfang 2009, als ich die Stufen zu den hohen Zinnen der Burg von Ankara hinaufstieg, traf ich eine andere ausländische Frau, die hinunterstieg. Von diesem Nachmittag an, als wir uns zum ersten Mal begrüßten, wusste ich, dass wir Freunde werden würden. Mary Anne McFarlane und ich entdeckten bei diesem ersten zufälligen Treffen, dass wir beide im Bereich der Dienste für Opfer sexueller und häuslicher Gewalt tätig waren. Sie arbeitete für das Justizministerium und die Bewährungshilfe in der Türkei, und ich recherchierte mit türkischen Psychiaterkollegen und arbeitete mit türkischen Frauenorganisationen zusammen. Als sie mich einlud, ihr Projekt interkulturell zu beraten und zu unterstützen, freute ich mich über die Gelegenheit, neue internationale Kollegen kennenzulernen und mit ihnen zu arbeiten, und war froh, mehr über das türkische Justizsystem zu erfahren. In diesem Kapitel werden einige der Dinge erörtert, die ich aus meiner jahrelangen Arbeit als klinischer interkultureller Psychologe und Projektentwickler in den Vereinigten Staaten und der Türkei gelernt habe.;-;-;-;https://link.springer.com/chapter/10.1057/9781137300607_5 29a97c801c746aab27e62b1ba46d226e;de;;;5.2.;;;Ab-initio-Konfigurationsinteraktionsstudie der elektronischen und geometrischen Struktur von Alkalimetallclustern Die Untersuchung elektronischer und geometrischer Eigenschaften von Metallclustern mit quantenchemischen Methoden ist aus theoretischer Sicht eine anspruchsvolle Aufgabe und stellt ein interessantes Anwendungsfeld der modernen Computerchemie dar.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-2599-1_8 7eecdeb8bc506fda695bcf9b934b3d91;de;;;5.2.;;;Verwenden von Branch-and-Bound-Algorithmen, um suboptimale Lösungen zu erhalten Das Branch-and-Bound-Prinzip ist erfolgreich bei der Lösung verschiedener kombinatorischer Optimierungsprobleme. Im Allgemeinen wird die Rechenzeit jedoch mit zunehmender Größe der Probleme zu groß. Um diese Schwierigkeit zu überwinden, werden in der Praxis häufig die folgenden drei suboptimalen Methoden eingesetzt.;-;-;-;https://link.springer.com/article/10.1007/BF01916914 141e1367c483c69bec903b494930cb51;de;;;5.2.;;;Allgemeine Prinzipien zur Steuerung von Strukturen kleiner Cluster Es werden allgemeine Regeln für elektronische und geometrische Strukturen kleiner Cluster formuliert und deren Gültigkeit mit den Ergebnissen der MRD – CI-Untersuchungen für Li . dokumentiert;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-71571-6_8 8f5b3808088f4df2331eb2ff121db357;de;;;5.2.;;;Neue Stabilitätsbedingungen für unsichere T-S-Fuzzy-Systeme mit zeitveränderlicher Intervallverzögerung Dieses Papier konzentriert sich auf das Stabilitätsproblem für unsichere T-S-Fuzzy-Systeme mit zeitvariabler Intervallverzögerung. Die Systemunsicherheiten werden als zeitvariabel und normbegrenzt angenommen. Die zeitveränderliche Verzögerung wird entweder als differenzierbar gleichförmig begrenzt mit einer durch ein konstantes Intervall begrenzten Verzögerungsableitung oder als schnell veränderlicher Fall ohne Beschränkungen der Verzögerungsableitung betrachtet. Da wir ein neuartiges Lyapunov-Krasovskii-Funktional (LKF) verwenden, das die Informationen über die zeitveränderliche Verzögerung enthält, und die obere Schranke seiner Ableitung weniger konservativ schätzen und den Ansatz der konvexen Optimierung anwenden, ergeben sich einige weniger konservative verzögerungsableitungsabhängige Stabilitätsbedingungen werden als lineare Matrixungleichungen (LMIs) erhalten, ohne eine freie Gewichtungsmatrix zu verwenden. Diese Bedingungen werden abgeleitet, die sowohl von der oberen als auch der unteren Grenze der Verzögerungsableitungen abhängen. Schließlich werden einige numerische Beispiele gegeben, um die Wirksamkeit und den reduzierten Konservatismus der vorgeschlagenen Methode zu demonstrieren.;-;-;-;https://link.springer.com/article/10.1007/s12555-012-0305-9 4bbc147738d4d46afad2dafe9b781677;de;;;5.2.;;;Eine quadratische Suchmethode mit vollständigen Tabellen, die sekundäres Clustering eliminiert Es wird eine quadratische Suchmethode für Hash-Tabellen vorgestellt, deren Größe eine Potenz von 2 ist. Es ermöglicht die vollständige Tabellensuche und eliminiert dennoch sekundäres Clustering, das auftritt, wenn verschiedene Schlüssel, die ursprünglich an denselben Ort gehasht wurden, die Verfolgung durch dieselbe Sequenz von Orten fortsetzen. Vergleiche mit anderen Methoden werden experimentell angestellt.;-;-;-;https://link.springer.com/article/10.1007/BF00976638 5d6b5eb1c71dfe3634e850df971b4257;de;;;4.2.;;;Freies Verhalten von Rhesusaffen nach Läsionen des dorsolateralen und orbitalen präfrontalen Kortex im Säuglingsalter In der vorliegenden Studie sollte untersucht werden, ob unterschiedliche Effekte im freien Verhalten früh operierter Affen mit selektiver Entfernung des dorsolateralen und orbitalen präfrontalen Kortex gefunden werden können. Die früh operierten Affen wurden zunächst in ihren Heimkäfigen in stabilen Wohngruppen beobachtet, die mindestens 6 1/2 Monate bestanden (Gemeinschaftszustand) und dann unmittelbar nach ihrer Trennung (getrennter Zustand) erneut. Die wichtigsten Ergebnisse zeigten, dass sich die Affen mit orbitalen Läsionen in mehr Punkten von den nicht operierten Kontrollen unterschieden als die dorsolateralen Affen: In der gemeinsamen Bedingung schlief die orbitale Gruppe mehr und war selbst im wachen Zustand sesshafter, in der getrennten Bedingung hingegen waren sie wurde hyperaktiv und verbrachte die meiste Zeit in der Fortbewegung. Diese Ergebnisse stützen die aus Studien zum kognitiven Verhalten von Affen mit Säuglingsoperation abgeleitete Annahme, dass Funktionen des orbitalen Kortex im Gegensatz zu denen des dorsolateralen Kortex nach Hirnschäden im Säuglingsalter nicht verschont bleiben. Darüber hinaus führte die Natur des Verhaltens der beeinträchtigten Affen zu der Annahme, dass der orbitale Kortex eine wichtige Rolle bei der Modulation der Erregungsmechanismen sowohl bei Säuglingen als auch bei erwachsenen Affen spielen könnte.;-;-;-;https://link.springer.com/article/10.1007/BF00237919 6bfcefe3605e632aa7af42a6714aa4a3;de;;;4.2.;;;Fünf agile Faktoren: Unterstützung des Selbstmanagements zur Selbstreflexion In diesem Beitrag wird ein Werkzeug vorgeschlagen, um die Reflexion in agilen Softwareentwicklungsteams zu fördern. Basierend auf dem qualitativen Modell von Moe et al. [11] stellen wir einen quantitativen Fragebogen bei, der analog zum „Fünf-Faktoren-Modell“ in der zeitgenössischen Psychologie in fünf Dimensionen agiler Teamarbeit organisiert ist. Um dieses Befragungstool und seine Angleichung an bestehende Studien zu testen, haben wir eine empirische Validierung des Tools mit 79 Personen und 8 internationalen Scrum-Teams durchgeführt. Wir stellen fest, dass die Übereinstimmung zwischen den Teams über die Faktoren hoch ist und dass das Umfragetool sehr nützlich ist. Das Instrument bietet einen vergleichbaren Maßstab zu agilen Teams und gibt Empfehlungen für jeden der Faktoren, die helfen, individuelle und organisatorische Barrieren zu verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22206-1_8 6731b22c80bfc1e8f0897164fa4fbbb5;de;;;4.2.;;;Überarbeitung des Harris-Todaro-Rahmens zur Modellierung der Arbeitsmigration von der kanadischen Nordgrenze Das Harris-Todaro-Modell der Arbeitsmigration wurde vor fast vier Jahrzehnten entwickelt und ist seitdem eine klassische Methode der Migrationsanalyse in weniger entwickelten Ländern. Dieses Papier untersucht die Anwendbarkeit des Harris-Todaro (HT)-Frameworks außerhalb seiner traditionellen Verwendung, indem es die Grenz-Metropolen-Migration in Kanada modelliert. Gegebenenfalls kann der Rahmen möglicherweise in anderen Ländern mit ähnlichen regionalen Dichotomien wie Russland und Australien verwendet werden. Das Papier argumentiert, dass das HT-Modell im Kontext der Migration von der Ressourcengrenze in große Ballungsräume des kanadischen Südens allgemein anwendbar ist, obwohl es mehrere Modifikationen erfordert. Das klassische HT-Modell wird erweitert, um die Heterogenität der Erwerbsbevölkerung im Norden (Aborigines und Nicht-Aborigines), die Möglichkeit, Arbeitsplätze in der rückläufigen und undiversifizierten Grenzwirtschaft zu haben oder zu verlieren, und die Unterschiede bei den Lebenshaltungskosten zu berücksichtigen. Die weitere Analyse konzentriert sich auf die Migration der Aborigines aus isolierten Gemeinden im Norden. Die Plausibilität des modifizierten HT-Modells wird durch einen empirischen Test nachgewiesen, in dem das Modell zur Bewertung der Migrationswahrscheinlichkeiten von Aborigines-Arbeitsmigranten verwendet wird. Diese neuen Erkenntnisse über die Mechanismen der Migration in Grenzmetropolen könnten eine bessere Grundlage für die Entwicklung von Planungsstrategien bieten, die darauf abzielen, das Humankapital im kanadischen Norden zu erhalten und die Wohlfahrtspolitik sowohl im Norden als auch im Süden zu optimieren.;-;-;-;https://link.springer.com/article/10.1007/BF03031930 c2880988e67c25561ad0b270b14f6289;de;;;4.2.;;;Organisatorisches Verhalten Ob Sie wollen oder nicht, und viele Menschen tun es nicht, während Sie die berufliche Leiter erklimmen, werden Sie sich immer mehr mit Managementfragen beschäftigen. Bis vor kurzem hatten Fachleute, die in Regierungsorganisationen arbeiten, keinerlei Ausbildung oder Unterricht, wie sie ihre jeweiligen Abteilungen führen, wie diese Abteilungen mit anderen Abteilungen verflochten sind, wie man mit Gewerkschaftsangelegenheiten umgeht oder allgemein darüber, was mit den Menschen passiert, wenn sie es sind. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Engagement in großen Organisationen und Institutionen. Die nächsten beiden Kapitel richten sich daher an Sie in der Rolle des Managers.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-16882-8_16 92925a478ffb51861ac45697140db51f;de;;;4.2.;;;Nicht-maritime internationale Wasserressourcen: Entwicklung und Erhaltung in Amerika Die XXV. Generalversammlung der Vereinten Nationen verabschiedete am 8. Dezember 1970 eine Resolution über die „Fortschrittliche Entwicklung und Kodifizierung der Regeln des Völkerrechts in Bezug auf internationale Wasserläufe“.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-9214-9_1 7131425223f4e9e3a434f7980723e0e1;de;;;5.2.;;;Vorausschauende Suche nach Kettencodierung durch Computer Dieses Papier stellt eine neue Methode zur Umwandlung einer Kurve in eine Kettencode-Darstellung vor. Bei jedem Schritt der Kettencodierung wird eine prädiktive Suche durchgeführt, so dass eine optimale Coderichtung bestimmt wird. Die Optimierung erfolgt auf der Grundlage eines Minimum-Mean-Square-Error-Kriteriums. Dieser Ansatz funktioniert sehr gut für komplexe geometrische Konfigurationen mit Überlappungs-, Kreuzungs- und Berührungseigenschaften. Wir haben diese Methode mit großem Erfolg auf die Computeranalyse von Chromosomen angewendet.;-;-;-;https://link.springer.com/article/10.1007/BF00999441 e657e761e0f590d0f97d84db4fe41e8c;de;;;5.2.;;;Die Auswirkungen und das Potenzial des Einsatzes von Blockchain-fähigen Smart Contracts im Anwendungsbereich der Lieferkette Das Blockchain-Potenzial im Supply Chain Management (SCM) hat in den letzten Jahren sowohl in der Wissenschaft als auch in der Industrie stark zugenommen. Der Literatur zufolge haben sich jedoch nur wenige Forscher mit den tatsächlichen Auswirkungen der Blockchain auf die Veränderung von Unternehmen und die Wertschöpfung befasst. Diese Forschung befasste sich vollständig mit einer Analyse der SCM-Funktion mit besonderem Fokus auf der Messung des Potenzials der Verwendung eines Blockchain-basierten Systems im Hinblick auf die Steigerung von Effektivität, Vertrauen und Transparenz. Die Hauptbeiträge dieser Forschung zielen darauf ab, die Hauptherausforderungen der Blockchain-fähigen Implementierung von Smart Contracts im Bereich SCM durch eine eingehende qualitative Forschung anzugehen, die die Inkonsistenzen und Fehlpassungen hervorhebt, die in diesem Anwendungsbereich üblich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-75018-3_52 b57aafb33094df31db451995fc26cca9;de;;;4.2.;;;Turnier in der Wissenschaft: eine vergleichende Analyse von Fakultätsbewertungssystemen an Forschungsuniversitäten in China und den USA Basierend auf einer Inhaltsanalyse von Fakultätsbewertungsrichtlinien befasst sich dieser Artikel mit der Fakultätsbewertungspolitik und weist auf die Verbindungen zwischen der Ideologie des Neoliberalismus und einem Turniersystem der Fakultätsbewertung an forschungsintensiven Universitäten in China und den USA hin. Der Fokus liegt auf den Gemeinsamkeiten und Unterschieden von Fakultätsbewertungssystemen in China und den USA. Die Fakultätsbewertung spiegelt neoliberale Werte und die Logik des Marktes wider, mit entsprechender Abschwächung der akademischen Logik und der traditionellen Werte der Akademie, insbesondere der akademischen Qualität, durch marktorientierten Wettbewerb. Beide Systeme sind turnierähnliche Systeme, die das Leistungsmanagement und den Betrieb von Wettbewerbsmechanismen mit den Zielen Effizienz und Effektivität betonen. Drei wesentliche Unterschiede zwischen den Fakultätsbewertungssystemen an US-Forschungsuniversitäten und chinesischen Forschungsuniversitäten sind offensichtlich: Ein traditionelles Konzept der Kollegialität an der US-Universität, aber nicht in China, in den USA weisen Kriterien und Verfahren der Fakultätsförderungsbewertung eine angemessene Flexibilität auf, während die Das Fakultätsbewertungssystem an chinesischen Forschungsuniversitäten ist nicht flexibel, und die Serviceanforderungen für die Bewertung der Fakultätsförderung an chinesischen Forschungsuniversitäten sind nicht so streng wie in den USA. Zwei institutionelle Logiken wirken im Promotionsbewertungsprozess von Forschungsuniversitäten – akademisch und marktwirtschaftlich oder neoliberal – und es bedarf weiterer Forschung, um die Auswirkungen dieser beiden Logiken zu bestimmen.;-;-;-;https://link.springer.com/article/10.1007/s10734-020-00585-4 77ba952475859c9218f25b3c1b7bd81b;de;;;4.2.;;;„Fragments of Reminiscence“: Populäre Musik als Träger globaler Erinnerung Während meines Aufenthaltes an einer deutschen Hochschule als Austauschstudentin erreichte die Musik des französisch-spanischen Nomadenkünstlers Manu Chao die Radiowellen und fand in unserem internationalen Studentenwohnheim einen willigen Hörerkreis. Das Album von Manu Chao;-;-;-;https://link.springer.com/chapter/10.1057/9780230283367_11 84ee8f8184ec29dc756d4cca86fcb188;de;;;5.2.;;;Abrufen von Videoszenen mit Online-Videoanmerkung In diesem Artikel schlagen wir eine effiziente Methode zum Extrahieren von Szenen-Tags aus Online-Videoannotationen (z. B. Kommentare zu Videoszenen) vor. Um dieses Verfahren durch Anwenden extrahierter Informationen auf den Abruf von Videoszen auszuwerten, haben wir ein System zum Abrufen von Videoszen basierend auf Szenen-Tags (d. h. Tags, die mit Videoszenen verknüpft sind) entwickelt. Wir haben auch ein Tag-Auswahlsystem entwickelt, das es Online-Benutzern ermöglicht, geeignete Szenen-Tags aus Daten auszuwählen, die automatisch aus Online-Videoanmerkungen erstellt wurden. Darüber hinaus führten wir Experimente zur Tag-Auswahl und zum Abruf von Videoszenen durch. Wir haben festgestellt, dass Szenen-Tags, die mit unserem Tag-Auswahlsystem extrahiert wurden, eine bessere Kostenleistung hatten als solche, die mit einem herkömmlichen clientseitigen Videoannotationstool erstellt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78197-4_7 099b144315f88e0903316ad17c9a335e;de;;;4.2.;;;Computational Intelligence-Algorithmen und DNA-Mikroarrays In diesem Kapitel stellen wir Computational Intelligence-Algorithmen vor, wie z. B. neuronale Netzwerkalgorithmen, evolutionäre Algorithmen und Clustering-Algorithmen und ihre Anwendung auf die experimentelle Datenanalyse von DNA-Mikroarrays. Zusätzlich werden Dimensionsreduktionstechniken evaluiert. Unser Ziel ist es, verschiedene Computational Intelligence-Ansätze zu untersuchen und zu vergleichen und ihre Anwendbarkeit sowie ihre Schwächen und Unzulänglichkeiten für eine effiziente DNA-Microarray-Datenanalyse aufzuzeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76803-6_1 43f9c4f8ccebc7679d50816ad9c80024;de;;;4.2.;;;Die Rolle institutioneller Forschung bei der Positionierung von Universitäten Die Region Mittel- und Osteuropa (MOE) ist ein politisches Konstrukt, das sich auf alle Ostblockstaaten westlich der ehemaligen Sowjetunion, die unabhängigen Staaten im ehemaligen Jugoslawien, die drei baltischen Staaten (Estland, Lettland, Litauen) und manchmal . bezieht Österreich. In den letzten 25 Jahren haben alle Länder der Region mit Ausnahme Österreichs den Übergang von der kommunistischen Herrschaft zur Demokratie und von der Staatswirtschaft zur liberalen Marktwirtschaft vollzogen. Die ehemaligen jugoslawischen Republiken wurden unabhängige Länder, einige nach einer Zeit ethnischer Konflikte und Kriege.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-6300-660-6_1 894a7ba02035512248459a65fa9f0098;de;;;4.2.;;;Wissenschaft: Fakultätsmitglieder – Management Die Wissenschaft verändert sich und ist kein Elfenbeinturm mehr. Das bedeutet, dass, ähnlich wie in anderen Sektoren, auch Führungsfunktionen in der Wissenschaft mit sozialen und finanziellen Veränderungen umgehen sollten. Um beispielsweise wettbewerbsfähig zu sein und die besten Studenten zu gewinnen, sollte eine akademische Einrichtung einen reaktiveren Ansatz verfolgen, und wenn staatliche Haushalte gekürzt werden, sollten andere Ressourcen gefunden werden, um die steigenden Ausgaben der Universität zu decken und die zukünftige Entwicklung zu unterstützen. Tatsächlich scheint das akademische Management mehr und mehr den Führungspositionen in Organisationen des zweiten Sektors ähnlicher zu werden, deren Hauptziel (und einige ihrer Existenzrechte) auf finanziellem Gewinn basieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30225-6_9 99b81851a8ebc3566501f66deea6cea3;de;;;5.2.;;;Zur Kosmologie der Literatur: Paralleluniversen und Bedeutung jenseits von Information In diesem Artikel werden aktuelle Berichte über die führenden Theorien der Physiker über parallele und multiple Universen im Lichte der kreativen Arbeitsweisen von Romanautoren und Geschichtenerzählern diskutiert. In Anerkennung des großen Einflusses wissenschaftlicher Theorien wie der Relativitätstheorie und der Quantenmechanik auf Literatur und Philosophie untersucht der Artikel die Herausforderung des String-Theoretikers Brian Greene an Platons Höhlengleichnis. Es schöpft auch aus James Gleicks;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-4261-1_1 7079be4f3c579aabe70191f8ea538338;de;;;4.2.;;;Skalierung, Aggregation und das Problem der veränderbaren Flächeneinheiten Das modifizierbare Flächeneinheitsproblem (MAUP) ist ein ernstzunehmendes analytisches Problem für die Forschung mit Geodaten. Der MAUP manifestiert sich durch die offensichtliche Instabilität statistischer Ergebnisse, die aus alternativen Aggregationen derselben Daten abgeleitet wurden. Diese Ergebnisse hängen von zwei Aspekten der Aggregation ab – dem räumlichen Maßstab, auf dem die Einheiten gemessen werden, und der Konfiguration der auf dieser Skala verwendeten Einheiten. Die durch das MAUP verursachte Unsicherheit beeinträchtigt die Robustheit und Zuverlässigkeit statistischer Ergebnisse. Obwohl Lösungen vorgeschlagen wurden, war keine in mehr als einer Handvoll spezifischer Fälle anwendbar, obwohl neuere Arbeiten auf einige der zugrunde liegenden Ursachen hingewiesen haben, die zu unserem besseren Verständnis beitragen. In diesem Kapitel werden die Skalen- und Zonierungseffekte grafisch dargestellt und die wichtige Rolle der räumlichen Autokorrelation und der räumlichen Strukturen beim Verständnis der Prozesse beschrieben, die zu der statistischen Unsicherheit führen. Die Rolle des Zonendesigns als Werkzeug zur Verbesserung der Analyse wird untersucht und es wird auf Analysen Bezug genommen, die explizite räumliche Rahmenbedingungen angenommen haben.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-642-36203-3_69-1 edd3616c74f46f57d44f82344e67d266;de;;;5.2.;;;Zeitinkonsistente stochastische linear-quadratische Regelung für zeitdiskrete Systeme Dieser Artikel befasst sich hauptsächlich mit dem zeitinkonsistenten stochastischen linear-quadratischen (LQ) Regelungsproblem in einer allgemeineren Formulierung für zeitdiskrete Systeme. Die zeitliche Inkonsistenz ergibt sich aus drei Aspekten: den Koeffizientenmatrizen in Abhängigkeit vom Anfangspaar, dem Terminal der Kostenfunktion mit dem Anfangspaar zusammen mit den nichtlinearen Termen des bedingten Erwartungswerts. Die Hauptbeiträge sind: erstens wird das Maximumprinzip mit Variationsverfahren abgeleitet, das einen Fluss von vorwärts und rückwärts stochastischen Differenzengleichungen (FBSDE) bildet, zweitens ist bei eindimensionalem Systemzustand die Gleichgewichtsregelung equilibrium erhalten durch Lösen der FBSDE mit Rückkopplungsverstärkung basierend auf mehreren nichtsymmetrischen Riccati-Gleichungen, schließlich wird die notwendige und ausreichende Lösbarkeitsbedingung für das zeitinkonsistente LQ-Steuerungsproblem explizit dargestellt. Die verwendeten Schlüsseltechniken sind das Maximum-Prinzip und die Lösung der in diesem Papier entwickelten FBSDE.;-;-;-;https://link.springer.com/article/10.1007/s11432-017-9167-3 6911e7ecf961b4c1553c06cb255e3719;de;;;5.2.;;;Eigenschaften und Algorithmen für die geometrische Fuzzy-Programmierung Auf der Grundlage früherer Arbeiten wird die Fuzzy-Reverse-Posynomial-Geometrie-Programmierung in den Eigenschaften und Algorithmen mit zwei in dieser Arbeit vorgestellten Algorithmen untersucht: einem direkten Algorithmus und einem dualen Algorithmus. Inzwischen wird seine optimale Lösung vorgeschlagen, und dem direkten Algorithmus wird eine verbesserte Vorstellungskraft vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28592-9_5 fa043d2a177ce430adad478944a98a7b;de;;;4.2.;;;Die Herausforderung von NHK WORLD-JAPAN zur Schaffung einer BOSAI-Kultur in Japan und auf der ganzen Welt BOSAI ist ein japanisches Wort, das verschiedene Bemühungen zur Minderung des Katastrophenrisikos ausdrückt. Dieses Kapitel dokumentiert, wie NHK-Sender Programme und andere Inhalte entwickelt haben, um das BOSAI-Know-how aus Sicht der Programmproduzenten zu verbreiten. NHK WORLD-JAPAN ist ein internationales Segment von NHK, der Japan Broadcasting Corporation. Sein Service richtet sich in erster Linie an ausländische Zielgruppen und sein Inhalt ist mehrsprachig. Im Jahr 2017 startete NHK eine Radioprogrammreihe von BOSAI oder Katastrophenvorsorge. Seitdem hat das Produktionsteam nach effektiven Ansätzen gesucht, um die Menschen zu ermutigen, echte Maßnahmen zur Verringerung des Katastrophenrisikos zu ergreifen, indem es seine Dienste von Rundfunk auf Online-Inhalte, SNS, Veranstaltungen usw. ausweitet. In diesem Kapitel, basierend auf den Erfahrungen von NHK WORLD-JAPAN, Die Autoren konzentrieren sich auf das Konzept der „partizipativen Berichterstattung“, inspiriert von der „Aktionsforschung“ in der akademischen Welt. „Partizipative Berichterstattung“ bedeutet, dass Medien und Bürger zusammenarbeiten, um die Gesellschaft durch den Prozess der Inhaltsproduktion und durch die Nutzung der Inhalte zu verbessern. Dies ist insbesondere im Bereich der Katastrophenvorsorge wichtig, wo Maßnahmen zum Schutz von Menschenleben unabdingbar sind. Das Kapitel erkennt auch eine Fernsehsendung als Beispiel für „partizipative Berichterstattung“ an, da die Mitarbeiter BOSAI auch nach dem Ende der Sendung selbstständig weiterlernen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0285-6_15 a29cc6959434d7c3762f1f82fb08115e;de;;;5.2.;;;Eine neuartige P2P-VoD-Streaming-Technik, die Lokalisierungs- und Stauerkennungsstrategien integriert Das Konzept des „Internet der Zukunft“ hat sich in jüngster Zeit unter Forschern entwickelt, um den enormen Druck auf die aktuelle Internet-Infrastruktur zu verringern, um die heterogenen Netzwerktechnologien, mobilen Geräte, die wachsende Benutzerzahl und auch die hohen Benutzeranforderungen an Echtzeitdienste zu unterstützen und Anwendungen. Peer-to-Peer (P2P) Video on Demand (VoD) Streaming-Technologien werden voraussichtlich eine Schlüsseltechnologie im zukünftigen Internet sein. Da den bestehenden P2P-Streaming-Techniken eine Reihe von Unzulänglichkeiten zugeschrieben werden, müssen P2P-VoD-Schemata für das zukünftige Internet angemessen umgestaltet werden. In diesem Papier schlagen wir ein Schema vor, um VoD effektiv bereitzustellen, indem P2P-basierte Mesh-Overlay-Netzwerke verwendet werden, die für das zukünftige Internet geeignet sein könnten. Unser Schema wählt die am besten geeigneten Peers aus, indem es domänenbasierte Lokalisierungs- und Engpassbewusstseinsstrategien ausnutzt. Durch Simulationen wird gezeigt, dass unser vorgeschlagenes Schema Skalierbarkeit und Fähigkeit besitzt, die Startverzögerung und die Gesamtverbindungskosten zu reduzieren, während eine hohe Wiedergaberate beibehalten wird. Die Ergebnisse sind ermutigend und zeigen die Bedeutung der Neugestaltung von P2P-VoD-Diensten im zukünftigen Internet.;-;-;-;https://link.springer.com/article/10.1007/s11036-011-0342-2 ec7dbcc525fdddeba97ff04aaaf71722;de;;;5.2.;;;Monadische logische Definierbarkeit von NP-vollständigen Problemen Es ist bekannt, dass die monadische Logik zweiter Ordnung mit linearer Ordnung genau reguläre Sprachen erfasst. Auf der anderen Seite, wenn Addition erlaubt ist, dann hat J.F.Lynch bewiesen, dass die existenzielle monadische Logik zweiter Ordnung zumindest alle Sprachen in NTIME(n) erfasst und dann einige NP-vollständige Sprachen ausdrückt (z.B. Rucksackproblem).;-;-;-;https://link.springer.com/chapter/10.1007/BFb0022256 580512f644cef2d71ab4319165fe02d3;de;;;5.2.;;;Das quadratische Zuordnungsproblem Das quadratische Zuordnungsproblem (QAP) wurde 1957 von Koopmans und Beckmann als mathematisches Modell für die Lokalisierung einer Menge unteilbarer wirtschaftlicher Aktivitäten eingeführt [113]. Betrachten Sie das Problem der Zuweisung eines Satzes von Einrichtungen zu einem Satz von Standorten, wobei die Kosten eine Funktion der Entfernung und des Flusses zwischen den Einrichtungen sind, zuzüglich der Kosten, die mit der Platzierung einer Einrichtung an einem bestimmten Standort verbunden sind. Ziel ist es, jede Einrichtung einem Standort so zuzuordnen, dass die Gesamtkosten minimiert werden. Konkret erhalten wir drei n x n Eingangsmatrizen mit reellen Elementen;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0303-9_27 69095836703382bf070edecba1cd479d;de;;;5.2.;;;Eine empirische Studie über suchbasiertes Refactoring mit alternativen multiplen und bevölkerungsbasierten Suchtechniken Die automatisierte Wartung von objektorientierten Softwaresystemdesigns durch Refactoring ist ein leistungsforderndes kombinatorisches Optimierungsproblem. In dieser Studie haben wir eine empirische Vergleichsstudie durchgeführt, um die Leistung alternativer Suchalgorithmen unter einem Qualitätsmodell zu sehen, das durch eine aggregierte Software-Fitness-Metrik definiert wird. Wir haben 20 verschiedene Refactoring-Aktionen durchgeführt, die Suchen in der Designlandschaft realisieren, die durch die Kombination von 24 objektorientierten Softwaremetriken definiert ist. Die untersuchten Algorithmen umfassen zufällige, steilste Abfahrt, mehrfache Erstabfahrt, mehrfache steilste Abfahrt, simuliertes Annealing und künstliche Bienenvölkersuche. Die Studie wird durch die Verwendung eines in Java entwickelten Tools namens A-CMA realisiert, das Bytecode-kompilierte Java-Codes als Eingabe akzeptiert. Die empirische Studie zeigte, dass mehrere steilste Abstiegs- und populationsbasierte Algorithmen für künstliche Bienenvölker zwei am besten geeignete Ansätze zur effizienten Lösung des suchbasierten Refactoring-Problems sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-2155-8_7 64807ad1636970864715e5fdce7ca189;de;;;5.2.;;;Wertbasierte und darstellungsbasierte Abfrage possibilistischer Datenbanken In diesem Papier behandeln wir das Problem der Abfrage von unvollständigen Daten, die durch Möglichkeitsverteilungen repräsentiert werden. Wir unterscheiden zwischen zwei Arten von Abfragen: Abfragen mit Bedingungen für die Werte und Abfragen mit Kriterien für die Darstellung unbekannter Werte. Diese beiden Ansätze werden nacheinander betrachtet. Wir erinnern zunächst an einige klassische Ergebnisse bei der Abfrage von Datenbanken mit Nullwerten und weisen auf die Probleme hin, die sich im speziellen Kontext disjunktiv gewichteter Daten bei wertbasierten Abfragen ergeben. Die Notwendigkeit, eine Typologie relevanter Anfragen zu definieren, wird betont. Dann führen wir ein neues Abfrage-Framework ein, das es ermöglicht, unbekannte Daten auf Repräsentationsebene zu verarbeiten. Dieses Framework, das auf dem Konzept einer gewichteten Menge basiert, bietet eine alternative Lösung zur Verwendung von wertbasierten Abfragen und könnte daher verwendet werden, um die Abfragefähigkeiten von Datenbanksystemen zu erweitern, die auf den Umgang mit unbekannten Werten abzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-1845-1_1 063551c257269cf9527398566790838e;de;;;5.2.;;;Lokale Bifurkationen In diesem Kapitel untersuchen wir die lokalen Verzweigungen von Vektorfeldern und Karten. Wie wir gesehen haben, haben Systeme von physikalischem Interesse typischerweise Parameter, die in den definierenden Gleichungssystemen erscheinen. Da diese Parameter variiert werden, können Änderungen in der qualitativen Struktur der Lösungen für bestimmte Parameterwerte auftreten. Diese Änderungen heißen;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-1140-2_3 616cfc6f3bce879de624d9f17f9f0d22;de;;;5.2.;;;Ein räumlich-zeitlicher Rahmen für die Suche nach verwandten Themen im Micro-Blogging Mit der rasanten Entwicklung des Web 2.0 wird Microblogging wie Twitter immer mehr zu einer wichtigen Quelle für aktuelle Themen rund um das Weltgeschehen. Durch die Analyse von Thementrends und die Identifizierung von Zusammenhängen zwischen Themen haben wir die Möglichkeit, Einblicke in Themenzusammenhänge zu gewinnen und dadurch bessere Dienstleistungen für Mikroblogger bereitzustellen. Dieses Papier schlägt einen neuartigen Rahmen vor, der die Assoziationen zwischen Thementrends in Twitter analysiert, indem sowohl zeitliche als auch örtliche Informationen berücksichtigt werden. Das Framework besteht aus der Extraktion der räumlich-zeitlichen Informationen von Themen und der Berechnung der Ähnlichkeit zwischen den Themen. Die experimentellen Ergebnisse zeigen, dass unsere Methode die verwandten Themen effektiv und genau finden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15470-6_8 dd64d57cd9b6a52bca643fe0bebca579;de;;;5.2.;;;Gemeinschaftsbildung durch elektronische Diskussionsforen: Reflektierende Dialoge von Lehrern vor dem Dienst über den naturwissenschaftlichen Unterricht Diese Forschungsstudie konzentriert sich auf ein elektronisches Forum für den Aufbau einer Gemeinschaft von Lehramtsstudierenden, um über neue Richtungen im naturwissenschaftlichen Unterricht nachzudenken. Die These dieses Papiers besteht darin, den Begriff der Gemeinschaftsbildung für die reflexive Praxis von Lehrern zu modellieren. Durch WebCT-Postings von Lehrkräften vor dem Dienst zu „Studententheorien“ in den Naturwissenschaften zeigen wir, wie das WebCT-Diskussionsforum als Forum für den Aufbau von Gemeinschaften diente, um reflektierende Praktiken durchzuführen. Wir kommen zu dem Schluss, dass das WebCT-Diskussionsforum ein praktikables Werkzeug für den Aufbau einer Gemeinschaft reflektierender Lehrer sein kann. Diese Studie impliziert, dass WebCT und ähnliche elektronische Internet-Diskussionstools effektiv für den Aufbau von Gemeinschaften verwendet werden können, um reflektierende Dialoge in der Lehrerausbildung durchzuführen.;-;-;-;https://link.springer.com/article/10.1023/B%3AJOST.0000006299.07433.eb a11fddf60dcfb03fb3ea261b58b39700;de;;;5.2.;;;Verteilte Leitungssuche für die konvexe Optimierung mit mehreren Agenten Diese Anmerkung betrachtet Multiagentensysteme, die versuchen, eine konvexe Aggregatfunktion zu optimieren. Wir nehmen an, dass der Gradient dieser Funktion verteilt ist, was bedeutet, dass jeder Agent seine entsprechende partielle Ableitung nur mit Informationen über seine Nachbarn und sich selbst berechnen kann. In solchen Szenarien stellt die zeitdiskrete Implementierung des Gradientenabstiegsverfahrens die grundlegende Herausforderung dar, geeignete Agentenschrittgrößen zu bestimmen, die die monotone Entwicklung der Zielfunktion garantieren. Wir bieten eine verteilte algorithmische Lösung für dieses Problem basierend auf der Aggregation von Agentenschrittgrößen über adaptive konvexe Kombinationen. Simulationen veranschaulichen unsere Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-20988-3_6 1afa8d01d4bb4450205d46699f4cbdb4;de;;;5.2.;;;„Ich bin gut.“ „Ich bin nett.“ „Ich bin schön.“ Idealisierung und Widerspruch im Diskurs weiblicher Psychiatriepatienten Dieser Artikel konzentriert sich darauf, wie sich Frauen in einem psychiatrischen Interview darstellen. Wir werden sehen, dass Patienten ein fragmentiertes und multiples Selbstgefühl zeigen. Oft sind diese verschiedenen Aspekte des Selbst widersprüchlich (wie „die gute Ehefrau“ und „diejenige, die verrät“). Wir werden argumentieren, dass diese Frauen sich häufig auf ein „ideales Ich“ oder ein „ideales Anderes“ beziehen, um ein Gefühl für sich selbst zu haben, ein Gefühl dafür, wer sie sind, wobei die Identität jedoch in einer ziemlich festen Repräsentation zu erscheinen scheint in vielen Widersprüchen geschichtet.;-;-;-;https://link.springer.com/chapter/10.1057/9780230593329_10 1508e1df0b19ae7a5b943828de4a63aa;de;;;5.2.;;;Die Antwort des Grabenkämpfers: Die Ritualisierung der Aggression In der Erzählung zeichnet sich nun eine Sequenz ab. Leben und Leben lassen traten zu Beginn des Stellungskrieges oft als offene Verbrüderung und mündlich vereinbarte Waffenstillstände auf. Diese waren jedoch unübersehbar und damit anfällig für Oberkommandos, die mit rechtlichen Schritten gegen identifizierbare Personen, die an identifizierbaren Waffenstillständen beteiligt waren, konterten. Leben und leben lassen jedoch, angepasst an diese Gegenmaßnahmen, indem sie sich von einer offenen zu einer verdeckten Form entwickeln, nämlich Trägheit. Die Bedeutung von Trägheit bei Antagonisten, das heißt die Wahl der Nicht-Aggression, wo Aggression möglich war, war etwa: Wir verzichten auf das Schießen, wenn Sie dasselbe tun. Eine solche Wahl war gleichzeitig ein Akt des Friedens und der Kommunikation und darüber hinaus eine Hintergrundannahme stiller Fronten, die von allen erfahrenen Soldaten geteilt und verstanden wurde. Es entwickelte sich spontan, nicht konspirativ, als Gegner mit gleichen Interessen in ähnlichen Situationen in Schützengräben interagierten. Trägheit war ein einfacher, aber subtiler Waffenstillstand, dem jedoch im Laufe des Jahres 1916 schwer zu begegnen war, und danach gelang es dem Oberkommando, in den Worten von Charles Sorley, die Köpfe widerstrebender Kämpfer „zusammenzuschlagen“. Die Spezialisierung der Gewaltmittel, das Thema von Kapitel 3, und die Zentralisierung der Gewaltkontrolle, das Thema des letzten Kapitels, waren Gegenmaßnahmen, die die Grabenkämpfer mit Zwängen säumten, die Aggressionen immer schwerer zu vermeiden machten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-04356-9_5 777c02dca8439bf0fabc251326575fc1;de;;;5.2.;;;Die Nebelwüste Namib im südlichen Afrika Es gibt viele Hinweise darauf, dass sowohl die Namib-Wüste als auch die peruanisch-chilenische Wüste im Pleistozän nach der Entwicklung eines kalten südlichen Ozeans und westlicher arktischer Winde entstanden sind. Diese brachten Winterregen an den südlichen Teil der Westküste Afrikas. Zeitweise reichte der Einfluss dieser Winde bis 23° S, so dass sich das jetzt auf den äußersten Süden beschränkte Winterregengebiet des Zonobioms IV weiter nach Norden erstreckte. Viele Pflanzenrelikte in feuchten Habitaten des Hochlandrückens (Abb. 3.49) zeugen von dieser ehemaligen Winterregenvegetation, Beispiele sind;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-06812-0_27 d2c21abb604fc98916a0de206a316bac;de;;;5.2.;;;Wasserabkommen im Nahost-Friedensprozess: Auf dem Weg zur Zusammenarbeit? Angesichts der Wasserknappheit im Nahen Osten sind sowohl der Jordan als auch der Gebirgsgrundwasserleiter des Westjordanlandes Paradebeispiele für international geteilte Wasserressourcen mit Konfliktpotenzial. Im letzten Jahrhundert gab es erhebliche Spannungen zwischen den Anrainerstaaten und beinhaltete Scharmützel um Wasser (Wolf/Ross 1992, Reguer 1993, Lowi 1995). Zwischen 1950 und 1990 versuchte die US-Regierung mit begrenztem Erfolg, eine Reihe von Wasserstreitigkeiten zu schlichten. In den frühen 1990er Jahren gab es keine Wasserabkommen zwischen Israel und seinen Nachbarn, und die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55854-2_46 eb2f712b09be8363456c02d09e4a1688;de;;;5.2.;;;Verbesserte Fußgängererkennung mit Peer-AdaBoost-Kaskade Mit Fokus auf Datenungleichgewicht und Intraklassenvariation wird eine verbesserte Fußgängererkennung mit einer Kaskade komplexer Peer-AdaBoost-Klassifikatoren vorgeschlagen. Die Reihe der AdaBoost-Klassifikatoren werden gierig erlernt, zusammen mit Negativbeispiel-Mining. Die Komplexität der Klassifikatoren in der Kaskade ist nicht begrenzt, daher werden eher negative Beispiele zum Training verwendet. Darüber hinaus wird die Kaskade zu einem Ensemble von starken Peer-Klassifikatoren, die die klasseninterne Variation behandeln. Um die AdaBoost-Klassifikatoren lokal mit einer hohen Erkennungsrate zu trainieren, wird eine Verfeinerungsstrategie verwendet, um die härtesten negativen Trainingsbeispiele zu verwerfen, anstatt ihre Schwellenwerte zu verringern. Unter Verwendung des Aggregat-Channel-Features (ACF) erreicht die Methode beim Caltech-Fußgänger-Benchmark und dem Inria-Fußgänger-Datensatz Fehlraten von 35 % bzw. 14 %, die niedriger sind als die von immer komplexer werdenden AdaBoost-Klassifikatoren, dh 44 % und 17 %. , beziehungsweise. Unter Verwendung von Tiefenmerkmalen, die durch das Region Proposal Network (RPN) extrahiert wurden, erreicht die Methode eine Fehltrefferrate von 10,06 % beim Caltech-Fußgänger-Benchmark, was ebenfalls unter 10,53 % der immer komplexer werdenden Kaskade liegt. Diese Studie zeigt, dass die vorgeschlagene Methode mehr negative Beispiele verwenden kann, um den Fußgängerdetektor zu trainieren. Es übertrifft die bestehende Kaskade von immer komplexer werdenden Klassifikatoren.;-;-;-;https://link.springer.com/article/10.1007/s11771-020-4448-1 4d005bfaf1f07945ccb38cc8187f89ac;de;;;4.2.;;;Die Beziehung zwischen den Eigenschaften der Geschichtenstruktur und der Erinnerung an Fernsehgeschichten bei kleinen Kindern mit Aufmerksamkeitsdefizit-Hyperaktivitätsstörung und nicht verwiesenen Gleichaltrigen In dieser Studie untersuchten die Autoren das Gedächtnis für im Fernsehen übertragene Geschichten, um einen Einblick in Ähnlichkeiten und Unterschiede im Geschichtenverständnis zwischen kleinen Kindern mit Aufmerksamkeitsdefizit-Hyperaktivitätsstörung (ADHS) und ihren typischen Altersgenossen zu gewinnen. Insbesondere untersuchten die Autoren, inwieweit die freie Erinnerung von 4- bis 6-jährigen Kindern an Geschichtenereignisse durch verschiedene strukturelle Eigenschaften von Geschichtenereignissen vorhergesagt wird (Anzahl der Kausalzusammenhänge, ob ein Ereignis in oder außerhalb der Kausalkette der Geschichte liegt) , Kategorie der Geschichte-Grammatik und Position in der hierarchischen Struktur der Geschichte), ob Unterschiede zwischen Kindern mit ADHS und nicht-referenzierten Vergleichskindern in ihrer Sensibilität für strukturelle Merkmale von Geschichten bestehen und ob die Altersunterschiede in der Sensibilität für strukturelle Merkmale für beide Gruppen ähnlich sind. Für beide Gruppen wurde die Erinnerung an Geschichtenereignisse durch alle vier strukturellen Eigenschaften vorhergesagt, aber die Auswirkungen der beiden kausalen Eigenschaften waren bei Vergleichskindern stärker als bei Kindern mit ADHS. Eine weitere Untersuchung ergab, dass dieser Unterschied nur dann beobachtet wurde, wenn eine konkurrierende Aktivität während des Fernsehens verfügbar war. Diese Ergebnisse deuten darauf hin, dass beide Gruppen von Vorschulkindern beim Erinnern von Fernsehgeschichten von einer Kausalstruktur profitieren können, dass Kinder mit ADHS diesen Vorteil jedoch verlieren, wenn die Aufmerksamkeit geteilt wird. In Übereinstimmung mit früheren Befunden für nicht überwiesene Kinder (PW van den Broek, EP Lorch & R. Thurlow, 1996) nahmen in beiden diagnostischen Gruppen die Effekte kausaler Eigenschaften mit dem Alter zu und ältere Kinder nahmen eher die Ziele der kausal wichtigen Protagonisten auf in ihren Erinnerungen als jüngere Kinder.;-;-;-;https://link.springer.com/article/10.1023/A%3A1022658625678 7109727c8033b8c3c040d64ea106b2a3;de;;;5.2.;;;Billiges Latex, High-End-Thrills: Eine Fantasieübung in Suche und Beschlagnahme Studenten der Computerforensik haben oft wenig oder keine Möglichkeit, Erfahrungen mit dem Auffinden digitaler Beweise an einem Tatort zu sammeln. Für unser Angebot wurde der Ausschluss auf fehlende Ressourcen in Bezug auf Zeit, Raum und Ausrüstung zurückgeführt. Um die oben genannten Mängel zu umgehen, haben wir uns der Vorstellungskraft unserer Studierenden zu Nutze gemacht, um mittels Rollenspiel-Simulation eine Such- und Beschlagnahmeübung einzuführen, die als aktives Lernen angesehen wird. In diesem Artikel wird beschrieben, wie wir den Ansatz der problembasierten Lernaktivitäten der Universitäten Sunderland und Glamorgan angepasst haben, um unseren Studenten eine ähnliche Studenten-zentrierte Lernmöglichkeit zu bieten und das Fehlen einer professionellen Umgebung am Tatort durch einen Geschichtenerzähler zu ergänzen, der die Details zu dem, was die Schüler während ihrer Rollenspielsimulation erleben. Wir überprüfen unsere Version der Durchsuchungs- und Beschlagnahme-Rollenspielsimulation anhand der in Sunderland und Glamorgan gewonnenen Erkenntnisse und untersuchen, wie zukünftige Implementierungen überarbeitet werden können, um Best Practices widerzuspiegeln, um unseren Schülern verbesserte Lernmöglichkeiten zu bieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-69670-6_19 2cdc31a5c2284ad171b2f58ed8d698db;de;;;5.2.;;;Elefantensuchalgorithmus angewendet auf Datenclustering Data Clustering ist einer der beliebtesten Zweige des maschinellen Lernens und der Datenanalyse. Ein auf Partitionierung basierender Typ von Clustering-Algorithmen, wie beispielsweise K-Means, ist anfällig für das Problem, einen Satz von Clustern zu erzeugen, der aufgrund seiner wahrscheinlichkeitstheoretischen Natur alles andere als perfekt ist. Der Clustering-Prozess beginnt mit einigen zufälligen Partitionen am Anfang und versucht dann, die Partitionen nach und nach zu verbessern. Unterschiedliche anfängliche Partitionen können zu unterschiedlichen endgültigen Clustern führen. Das Ausprobieren aller möglichen Kandidatencluster für das perfekte Ergebnis ist rechenintensiv. Der metaheuristische Algorithmus zielt darauf ab, das globale Optimum in hochdimensionalen Problemen zu suchen. Ein metaheuristischer Algorithmus wurde erfolgreich bei Datenclustering-Problemen implementiert, um eine nahezu optimale Lösung in Bezug auf die Qualität der resultierenden Cluster zu suchen. In diesem Artikel wird eine neue metaheuristische Suchmethode namens Elephant Search Algorithm (ESA) vorgeschlagen, die in K-Means integriert wird und einen neuen Datenclustering-Algorithmus, nämlich C-ESA, bildet. Der Vorteil von C-ESA ist seine doppelte Eigenschaft von (i) evolutionären Operationen und (ii) Gleichgewicht zwischen lokaler Intensivierung und globaler Exploration. Die Ergebnisse von C-ESA werden mit klassischen Clustering-Algorithmen wie K-Means, DBSCAN und GMM-EM verglichen. In einer Computersimulation wurde gezeigt, dass C-ESA die anderen Algorithmen in Bezug auf die Clustering-Genauigkeit übertrifft. C-ESA wird auch beim Zeitreihen-Clustering im Vergleich zu klassischen Algorithmen K-Means, Fuzzy C-Means und klassischen meta-heuristischen Algorithmen PSO implementiert. C-ESA übertrifft die anderen Algorithmen in Bezug auf die Clustering-Genauigkeit. C-ESA ist immer noch vergleichbar mit dem Stand der Technik des Zeitreihen-Clustering-Algorithmus K-Form.;-;-;-;https://link.springer.com/article/10.1007/s00500-018-3076-2 6dc1d30eb945546f190994b249b26cc8;de;;;5.2.;;;Zusammenspiel zweier Roboterschwärme mit Fledermausalgorithmus bei der nicht-kooperativen Zielpunktsuche In diesem Beitrag analysieren wir das Zusammenspiel zweier Roboterschwärme, die zur Lösung einer Zielpunktsuche in einem nicht kooperativen Modus angewendet werden. Insbesondere betrachten wir den Fall von zwei identischen Roboterschwärmen, die in derselben Umgebung eingesetzt werden, um eine dynamische Erkundungssuche nach zwei verschiedenen unbekannten Zielpunkten durchzuführen. Es wird davon ausgegangen, dass die Umgebung unbekannt und vollständig dunkel ist, sodass keine Vision-Sensoren verwendet werden können. Unsere Arbeit basiert auf einem Roboterschwarmansatz, über den kürzlich in der Literatur berichtet wurde. Bei diesem Ansatz werden die Robotereinheiten von einer beliebten Schwarmintelligenztechnik namens Fledermausalgorithmus angetrieben. Diese Technik basiert auf der Echoortung mit Ultraschall und ist daher für unser Problem besonders gut geeignet. Der Artikel diskutiert die wichtigsten Ergebnisse unserer Computerexperimente anhand von drei anschaulichen Videos einzelner Ausführungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94779-2_47 4516422b682878fe5486d1f5a53c9f67;de;;;5.2.;;;Anwendung der Evolutionsmodellierung auf das Problem der Suche nach der optimalen Sensorposition des Feuerlöschsystems Ziel der Studie ist die Entwicklung eines evolutionären Algorithmus zur optimalen Sensorpositionierung in multisensorischen Systemen zur Früherkennung von Bränden in Räumen. Die Gesetzgebungsakte, die den Bereich des Brandschutzes in Russland regeln, sind gegeben. Es wird darauf hingewiesen, dass es keine Rechtfertigung für die Wahl des Standorts von Brandmeldern gibt. Ein evolutionärer Algorithmus für die optimale Platzierung von Sensoren, die Brandfaktoren wie Temperatur, Kohlendioxidkonzentration und Sicht in Abhängigkeit von der Rauchdichte kontrollieren. Der Artikel beschreibt den Prozess der Entwicklung eines evolutionären Algorithmus und dessen Anwendung auf das Problem der optimalen Standortfindung. Methoden der evolutionären Modellierung, wie genetische Methoden, genetische Programmierung, Methoden der Partikelschwarmoptimierung und Methoden der „Ameisenkolonie“ und deren grundlegende Anwendungen werden beschrieben. Die Hauptoperatoren des genetischen Algorithmus, wie Reproduktion, Kreuzung und Mutation, und ihre Modifikationen werden berücksichtigt. Wir schlagen unsere eigene Modifikationsmethode vor, um sie für die aktuelle Aufgabe anzuwenden. Im Supercomputerzentrum der Polytechnischen Universität Peter der Große modellieren wir Brände aus verschiedenen Materialien: Lumpen, Benzin, Öl, Dieselkraftstoff, Elektrokabel. Die Simulationsergebnisse wurden als Daten verwendet, um den Algorithmus zu verifizieren. Die Ergebnisse des Testens des Algorithmus an Modelldaten werden präsentiert. Sie zeigt den durch den genetischen Algorithmus berechneten Gewinn an Reaktionszeit der Feuerlöschanlage auf das Auftreten eines Brandes bei der Ortung der Sensoren im Vergleich zur üblichen einheitlichen Anordnung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37436-5_17 06eaf3b205d3724edfb1f367a354d872;de;;;5.2.;;;Konsequenzen und alternative Methoden Wenn meine Argumentation (in den Kapiteln 2 und 3) bezüglich der epistemischen/Entwicklungsstrukturen unseres Wissens und seines Wachstums überhaupt irgendwelchen Mustern gefolgt ist, dann müssen diese nun gemäß meiner These (in Kapitel 3) weiterentwickelt werden, dass ein solides methodisches Modell der epistemischen Bewertung muss in ein solides Modell der epistemischen Struktur eingebettet sein, wobei letzteres ersteres mit sich bringt. Genauer ist dies möglich, wenn klar ist, dass zwischen den beiden Problemen der epistemischen Struktur und der epistemischen Bewertung ein inniger Zusammenhang besteht. Die Verbindung ist tatsächlich so eng, dass TE und die aktuellen Methoden, die eine Variation der ersteren sind, sie als ein einziges Problem behandeln. Dies ist das bekannte, aber derzeit umstrittene Problem der;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-7680-2_4 ec50be741a7932efc229f74526221f4c;de;;;5.2.;;;Harmoniesuche mit Lehr-Lern-Strategie für 0-1 Optimierungsproblem Das 0-1-Optimierungsproblem spielt eine wichtige Rolle in der operativen Forschung. In diesem Papier verwenden wir einen kürzlich vorgeschlagenen Algorithmus namens Harmony Search with Teaching-Learning (HSTL)-Strategie, der aus der Teaching-Learning-Based-Optimierung (TLBO) zum Lösen abgeleitet wurde. Vier Strategien (Überlegung des harmonischen Gedächtnisses, Lehr-Lern-Strategie, lokale Tonhöhenanpassung und zufällige Mutation) werden verwendet, um die Leistung des HS-Algorithmus zu verbessern. Numerische Ergebnisse zeigten eine sehr gute Rechenleistung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-03766-6_32 ddd04baddc0ae63a0f10c3401ebe7796;de;;;5.2.;;;Über einen großen Aktionsraum bei der Optimierung der Ladeplanung von Elektrofahrzeugen Um die Luftverschmutzung durch traditionelle fossile Brennstoffe zu reduzieren und die Ladekosten zu sparen, wurde der Ladeplanung von Elektrofahrzeugen (EVs) in der unsicheren Ergänzung von Windkraft und Solarenergie viel Aufmerksamkeit geschenkt. Aufgrund der Zufälligkeit in der erneuerbaren Stromerzeugung und der Ladenachfrage von Elektrofahrzeugen wurde die simulationsbasierte Politikverbesserung (SBPI) gut für die Ladeentscheidung eingesetzt. Es ist jedoch eine Herausforderung, den großen Aktionsraum zu erkunden, der in Bezug auf die Systemskala exponentiell wächst. Wir betrachten dieses wichtige Problem in diesem Papier und machen die folgenden Beiträge. Zuerst untersuchen wir die strukturelle Eigenschaft des Problems und entwickeln einen Dringlichkeitsindex, um die EVs einzuordnen. Zweitens wenden wir drei Methoden an, um im Aktionsraum zu suchen. Drittens demonstrieren wir numerisch die Leistungsfähigkeit des Dringlichkeitsindex und der Suchmethoden und vergleichen die SBPI-Methoden mit der CPLEX-basierten Methode. Es zeigt, dass SBPI in all diesen Fällen die Basisrichtlinien verbessert.;-;-;-;https://link.springer.com/article/10.1007/s11432-020-3106-7 316fec0942c5231c1c37a365c000f83e;de;;;5.2.;;;Ein auf diskreter Eichhörnchen-Suchoptimierung basierender Algorithmus für Bi-Objective TSP Dieser Artikel stellt einen neuartigen Algorithmus zur diskreten Eichhörnchen-Suchoptimierung für das bi-objektive Travelling-Salesman-Problem (TSP) vor. Zunächst muss der Eichhörnchensuchalgorithmus, ein Einzelziel-Optimierungsalgorithmus, zu einem Mehrziel-Optimierungsalgorithmus verbessert werden. Dieses Papier entwirft eine Mapping-Fitness-Funktion gemäß dem Pareto-Sortierniveau und der Gitterdichte, um alle möglichen Lösungen zu bewerten, und wendet eine Auswahlwahrscheinlichkeit basierend auf der Roulette-Radauswahl an. Anschließend implementiert dieses Papier diesen Algorithmus und andere Algorithmen auf klassische Multi-Objektiv-Testfunktionen, um die Konvergenz und Diversität von Lösungen zu analysieren. Es wird geschlussfolgert, dass es eine gute Leistung bei der Lösung von Mehrzielproblemen hat. Darüber hinaus entwirft dieser Artikel basierend auf diesem multi-objektiven Eichhörnchen-Suchalgorithmus ein Codierungsverfahren zum Initialisieren von Lösungen, wendet einen Crossover-Operator auf den Eichhörnchen-Migrationsprozess an und verwendet einen Mutationsoperator auf die Eichhörnchen-Mutationsstufe. In diesem Fall wird schließlich eine diskrete Eichhörnchen-Suchoptimierung für das bi-objektive Travelling-Salesman-Problem (TSP) entworfen. Und dieses Papier analysiert die Ergebnisse dieses Algorithmus und anderer Algorithmen, die auf klassischen TSPs mit zwei Zielen laufen. Dadurch sind die Lösungen des vorgestellten Algorithmus auch anderen Algorithmen für Konvergenz und Spreizung überlegen.;-;-;-;https://link.springer.com/article/10.1007/s11276-021-02653-8 81ecef74bc3273c00757a5a8c060f76b;de;;;5.2.;;;Zelluläre Automaten und Immunitätsverstärkte stochastische Diffusionssuche Die Natur hat oft die notwendige Inspiration für neue Rechenparadigmen und Metaphern geliefert [1,16]. Natürliche Systeme existieren jedoch nicht isoliert und so ist es nur natürlich, dass hybride Ansätze erforscht werden. Der Artikel untersucht das Zusammenspiel von drei biologisch inspirierten Techniken, die aus einer Vielzahl von Naturphänomenen abgeleitet wurden. Zelluläre Automaten mit ihren Ursprüngen in der kristallinen Gitterbildung werden mit dem vom Immunsystem abgeleiteten klonalen Selektionsprinzip gekoppelt, um die Konvergenz des stochastischen Diffusionssuchalgorithmus zu regulieren. Die stochastische Diffusionssuche ist selbst insofern biologisch inspiriert, als sie ein inhärent multiagentenorientierter Suchalgorithmus ist, der aus dem nicht-stigmergen Tandemruf-/Laufrekrutierungsverhalten von Ameisenarten wie;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16098-1_2 502d8965199f9e5ebf00c6dd68735ce6;de;;;5.2.;;;Ensemble Adaptation Networks mit kostengünstiger unüberwachter Hyperparameter-Suche Die Entwicklung von Deep Learning führt dazu, dass das Lernmodell mehr Parameter hat, die gelernt werden müssen, und es bedeutet, dass genügend Stichproben benötigt werden. Auf der anderen Seite ist es extrem schwierig, Tonnen von Labels zu finden, die den Modelltrainingsprozess unterstützen. Die vorhandenen Methoden können das Modell auf eine neue Domäne erweitern, indem nach domäneninvarianten Merkmalen aus verschiedenen Domänen gesucht wird. In diesem Beitrag schlagen wir ein neuartiges Deep-Domain-Adaptionsmodell vor. Zunächst versuchen wir, eine Vielzahl von Statistiken zu erstellen, die gleichzeitig auf High-Level-Feature-Layern arbeiten, um eine bessere Leistung zu erzielen. Darüber hinaus schlagen wir, inspiriert vom aktiven Lernen, die Metrik „Unsicherheit“ vor, um nach Hyperparametern in einer unbeaufsichtigten Umgebung zu suchen. Die „Unsicherheit“ verwendet die Entropie, um den Lernstatus des aktuellen Diskriminators zu beschreiben. Je kleiner die „Unsicherheit“, desto stabiler sagt der Diskriminator die Daten voraus. Schließlich werden die Netzwerkparameter durch Feinabstimmung eines generischen vortrainierten tiefen Netzwerks erhalten. Zusammenfassend lässt sich sagen, dass die Leistung unseres Algorithmus gegenüber anderen verglichenen Algorithmen auf Standard-Benchmarks weiter verbessert wurde.;-;-;-;https://link.springer.com/article/10.1007/s10044-019-00846-8 d671411b37d8c8b94d2a969b864bc8fa;de;;;5.2.;;;Das mit der mittleren Varianz der Kardinalität eingeschränkte Portfoliooptimierungsproblem unter Verwendung eines auf lokaler Suche basierenden evolutionären Mehrzielalgorithmus Das Problem der Portfoliooptimierung ist ein wichtiges Forschungsthema im Finanzwesen. Das Standardmodell dieses Problems, das Markowitz-Mean-Varianz-Modell genannt wird, hat zwei widersprüchliche Kriterien: erwartete Renditen und Risiken. In diesem Papier betrachten wir ein realistischeres Portfoliooptimierungsproblem, das sowohl Kardinalitäts- als auch Mengenbeschränkungen umfasst, das als Markowitz-Mean-Varianz-Kardinalitätsbeschränkungs-Portfoliooptimierungsproblem (MVCCPO-Problem) bezeichnet wird. Wir erweitern einen Algorithmus, der auf einem multi-objektiven evolutionären Framework basiert, das ein lokales Suchschema und eine nicht dominierte Sortierung beinhaltet. Um die Effektivität des vorgeschlagenen Algorithmus quantitativ zu analysieren, haben wir unseren Algorithmus mit den anderen fünf Algorithmen an öffentlich verfügbaren Datensätzen mit bis zu 225 Assets verglichen. Mehrere Modifikationen, die auf den grundlegenden Operatoren und Prozeduren des Algorithmus basieren, nämlich der Strategie zur Behandlung von Grenzbeschränkungen, dem lokalen Suchschema, der Ersetzungsstrategie und dem Ansatz des weitesten Kandidaten, werden nacheinander vorgeschlagen. Der Erfolg dieser Übung wird über Simulationsergebnisse angezeigt. Die experimentellen Ergebnisse mit unterschiedlichen Kardinalitätsbeschränkungen veranschaulichen, dass der vorgeschlagene Algorithmus die anderen Algorithmen in Bezug auf Nähe und Diversität übertrifft. Darüber hinaus wird die im Algorithmus verwendete Diversity-Aufrechterhaltungsstrategie auch im Hinblick auf eine Streumetrik untersucht, um die Verteilung der erhaltenen nicht dominierten Lösungen zu bewerten. Auch die Sensitivität unseres Algorithmus wurde in dieser Arbeit experimentell untersucht.;-;-;-;https://link.springer.com/article/10.1007/s10489-017-0898-z 6375d53a40f7aafcd430710b3a526e97;de;;;5.2.;;;Ein verbesserter Eichhörnchen-Suchalgorithmus mit Reproduktions- und Konkurrenzmechanismen Die Leistung des kürzlich vorgeschlagenen Squirrel Search Algorithm (SSA) wird in diesem Artikel verbessert. SSA ist ein Schwarmintelligenz-Algorithmus, der das dynamische Futtersuchverhalten von Eichhörnchen simuliert. Die traditionelle SSA neigt bei der Lösung von Optimierungsproblemen zu vorzeitiger Konvergenz. Diese Arbeit schlug einen Ausbreitungs- und Diffusionssuchmechanismus vor, um diese Nachteile durch Erweiterung des Suchraums unter Verwendung des Invasive Weed Algorithm (IWO) zu mildern. Der vorgeschlagene Algorithmus, der SSIWO genannt wird, hat eine hohe Fähigkeit, die Exploration und lokal optimale Vermeidung von SSA zu verbessern. Um die Leistung des vorgeschlagenen SSIWO-Algorithmus zu untersuchen, werden mehrere Experimente an acht Benchmark-Funktionen und unter Verwendung von drei Algorithmen durchgeführt. Die experimentellen Ergebnisse zeigen die überlegene Leistung des vorgeschlagenen SSIWO-Algorithmus, um die optimalen Lösungen der Benchmark-Funktionsprobleme zu bestimmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3425-6_29 890b36de236da20d63c41d008c7e4f24;de;;;5.2.;;;CNN-SIFT Konsekutives Suchen und Abgleichen zum Abrufen von Weinetiketten Das Abrufen von Weinetiketten ist der Schlüssel zur automatischen Suche nach Weinmarken über das Internet oder Mobiltelefon in unserem täglichen Leben. Im Vergleich zu den allgemeinen Image-Retrieval-Aufgaben ist es bei einer Vielzahl von unausgewogenen Weinmarken-Images ein ziemlich anspruchsvolles Problem. In diesem Beitrag schlagen wir ein CNN-SIFT Consecutive Searching and Matching (CSCSM)-Framework für den Abruf von Weinetiketten vor. Insbesondere wird ein CNN darauf trainiert, die Hauptmarke (Hersteller) zu erkennen, um den Suchbereich einzuschränken, während der SIFT-Deskriptor durch die Übernahme der RANSAC- und TF-IDF-Mechanismen verbessert wird, um der endgültigen Untermarke (Artikelattribut unter dem Hersteller) zu entsprechen ). Die Experimente werden mit einem Datensatz durchgeführt, der ungefähr 548.000 Bilder von Weinetiketten mit 17.328 Hauptmarken und 260. 579 Untermarken enthält. Die experimentellen Ergebnisse zeigen, dass unsere vorgeschlagene CSCSM-Methode das Problem des Abrufens von Weinetiketten effektiv und effizient lösen und die Methoden der Konkurrenz übertreffen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-26763-6_24 3d2873f3c8b20fd30c8b3249a735411c;de;;;5.2.;;;Eine stochastische Suche auf der linienbasierten Lösung der diskretisierten Schätzung Vor kurzem haben Oommen und Rueda [11] eine Strategie vorgestellt, mit der die Parameter einer Binomial-/Multinomialverteilung geschätzt werden können, wenn die zugrunde liegende Verteilung nicht stationär ist. Die Methode wird als Stochastic Learning Weak Estimator (SLWE) bezeichnet und basiert auf den Prinzipien von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31087-4_77 07d8846c92e4a2a569e1d3af6e67a531;de;;;5.2.;;;Evolutionäre Suche zum Verständnis von Bewegungsdynamiken in gemischten Netzwerken Dieses Papier beschreibt einen Ansatz zur Verwendung evolutionärer Algorithmen, um über Pfade durch Netzwerkdaten nachzudenken. Die im Rahmen dieser Forschung untersuchten Pfade sind funktionale Pfade, bei denen die Eigenschaften (z. B. Pfadlänge, Morphologie, Lage) des Pfades integraler Bestandteil des objektiven Zwecks des Pfades sind. Anhand von zwei Datensätzen kombinierter Oberflächen- und Straßennetze demonstriert die Forschung, wie ein evolutionärer Algorithmus verwendet werden kann, um über funktionale Pfade nachzudenken. Wir präsentieren den Algorithmusansatz, die Parameter und die Fitnessfunktion, die die funktionalen Aspekte des Pfads steuern, und einen Ansatz zur Verwendung des Algorithmus, um auf dynamische Änderungen im Suchraum zu reagieren. Die Ergebnisse des Suchprozesses werden im Hinblick auf den Gesamterfolg basierend auf der Reaktion der Suche auf Veränderungen in der Umgebung und durch die Verwendung eines den gesamten Suchprozess charakterisierenden Belegungsrasters dargestellt. Der Ansatz bietet viel Flexibilität gegenüber konventionelleren heuristischen Pfadfindungsansätzen und bietet zusätzliche Perspektiven auf die dynamische Netzwerkanalyse.;-;-;-;https://link.springer.com/article/10.1007/s10707-012-0155-x eed93b60d6558d536b48c15e297dd18a;de;;;5.2.;;;Identifizierungs- und Kontrollprobleme in der Erdöl- und Grundwassermodellierung Die Erdölindustrie verfügt über gut etablierte partielle Differentialgleichungsmodelle für mehrphasige Fluidströmungen durch poröse Medien, aber der Einsatz steuerungstheoretischer Methoden zur Optimierung der Erdölgewinnung ist relativ neu. Die in dieser Umfrage diskutierten Ansätze könnten durch eine verbesserte Effizienz bei der Erdölförderung zu einem erheblichen Gewinn für die Erdölindustrie führen. Auch in der Grundwassersanierung besteht ein erhebliches Potenzial für die Anwendung dieser Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-2580-5_6 1c2bc483fe768e79dc65011f148212af;de;;;5.2.;;;Bewertungsleistung des genetischen Algorithmus und Tabu-Suchalgorithmus zur Lösung des Max-RWA-Problems in rein optischen Netzen In diesem Papier beschäftigen wir uns mit dem Problem der statischen Routing- und Wellenlängenzuweisung (RWA) in Netzwerken ohne Wellenlängenumsetzer, in denen ein bestimmter statischer Satz von Verbindungsanforderungen im Voraus festgelegt ist. Unser Ziel ist es, die Anzahl optischer Verbindungsanfragen zu maximieren, die für eine gegebene Anzahl von Wellenlängen aufgebaut werden können. Eine mathematische Formulierung für Max-RWA wurde vorgestellt. In diesem Artikel implementieren und vergleichen wir die Leistung von zwei zufälligen Suchalgorithmen, nämlich dem genetischen Algorithmus und dem Tabu-Suchalgorithmus. Unter Verwendung dieser Metaheuristiken haben wir ungefähr das Wellenlängenzuordnungsproblem für Max-RWA gelöst, während wir sein Routing durch ein deterministisches Verfahren, das Backtracking, berechnet haben. Deshalb haben wir viele umfangreiche Experimente unter verschiedenen Umständen durchgeführt. Diagramme und repräsentative Zahlenbeispiele zeigen die Genauigkeit unserer Algorithmen.;-;-;-;https://link.springer.com/article/10.1007/s10878-013-9676-y 790a9fe5361cd6df608a8dfcd3b46aea;de;;;5.2.;;;Verwenden von Attributgrammatiken zur Beschreibung des induktiven Inferenzsuchraums Das Problem der praktisch durchführbaren induktiven Inferenz von Funktionen oder anderen Objekten, die mit einer Attributgrammatik beschrieben werden können, wird in dieser Arbeit untersucht. In unserem auf Attributgrammatiken basierenden Ansatz können verschiedene Arten von Wissen über das zu findende Objekt kodiert werden, von üblichen Eingabe-/Ausgabebeispielen über Annahmen über die syntaktische Struktur unbekannter Objekte bis hin zu den Eigenschaften einiger dynamischer Objekte. Wir präsentieren theoretische Ergebnisse und beschreiben die Architektur eines praktischen induktiven Synthesesystems basierend auf theoretischen Erkenntnissen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-49730-7_28 205196117a8c016417130dd61f0a9c5d;de;;;5.2.;;;Vorhersage des Fehlverhaltens von CEOs anhand von Observablen: Vergleichende Bewertung zweier wichtiger Persönlichkeitsmodelle Der Hauptzweck dieser Studie besteht darin, zu zeigen, wie öffentlich beobachtbare Informationen verwendet werden können, um verschiedene psychologische Profile zu erstellen, die für die Vorhersage von Verhalten innerhalb eines Rahmens der Risikoanalyse verwendet werden können. Um die Machbarkeit der vorgeschlagenen Methode zu bewerten, werden öffentlich verfügbare Interviewdaten von einer Stichprobe von Chief Executive Officers (CEOs) mithilfe des IBM Watson Personality Insights-Service verarbeitet. Die Hypothese, dass die Gruppenmitgliedschaft zu einem spezifischen Selektionsbias führt, wird untersucht, indem die von IBM Watson abgeleiteten Persönlichkeitsprofile auf aggregierter Ebene analysiert werden. Die Profile werden durch zwei große Motivations- und Persönlichkeitstheorien repräsentiert: die grundlegenden menschlichen Werte und die Big-Five-Modelle. Beide Theorien werden hinsichtlich ihres Nutzens für die Vorhersage nachteiliger Verhaltensergebnisse bewertet. Die Ergebnisse zeigen, dass beide Modelle nützlich sind, um Unterschiede auf Gruppenebene zwischen (1) der Stichprobe der CEOs und der allgemeinen Bevölkerung und (2) zwischen zwei Gruppen von CEOs zu identifizieren, wenn eine Vorgeschichte von regelverletzendem Verhalten berücksichtigt wird. Die an der aktuellen Stichprobe durchgeführte prädiktive Leistungsbewertung zeigt, dass das binäre logistische Regressionsmodell, das aus den grundlegenden menschlichen Werten erstellt wurde, das Big-Five-Modell übertrifft und eine praktisch nützlichere Messung individueller Unterschiede bietet. Diese Ergebnisse tragen zur Entwicklung einer Risikoanalysemethode im Bereich der Informationssicherheit bei, die sich mit menschenbezogenen Risiken befasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-34866-3_7 48a64a24617e88f4c880f82e66fb55db;de;;;5.2.;;;Kuckucks-Suchalgorithmus für die parametrische Datenanpassung von Kennlinien der Van-der-Waals-Zustandsgleichung Die Van-der-Waals-Gleichung (VdW) ist eine Zustandsgleichung, die das ideale Gasgesetz verallgemeinert, indem sie die Molekülgröße und die molekularen Wechselwirkungskräfte berücksichtigt. Diese Gleichung wird häufig verwendet, um das Zusammenspiel und die Übergänge zwischen der flüssigen und der gasförmigen Phase zu analysieren. Dazu sollen zwei Kennlinien, Binodale und Spinodalkurven genannt, berechnet werden. Sie werden normalerweise durch polynomiale Anpassung aus einer Sammlung von 2D-Punkten in der Druck-Volumen-Ebene unter Verwendung von numerischen Standardverfahren rekonstruiert. Die resultierenden Anpassungsmodelle sind jedoch in mehrfacher Hinsicht stark eingeschränkt und können weiter verbessert werden. In diesem Papier behandeln wir dieses Problem durch die Methode der kleinsten Quadrate der Menge von 2D-Punkten unter Verwendung von Freiform-Bézier-Kurven. Dieser neue Ansatz erfordert zusätzlich zur Berechnung der Pole der Kurven eine geeignete Datenparametrisierung. Erreicht wird dies durch eine leistungsstarke, von der Natur inspirierte Schwarmintelligenz-Methode zur kontinuierlichen Optimierung: den Kuckucks-Suchalgorithmus. Um die Leistungsfähigkeit dieses neuen Ansatzes zu testen, wurde er auf reale Daten angewendet, in diesem Fall für ein Gas. Unsere experimentellen Ergebnisse belegen, dass diese Methode diese Kennlinien mit hoher Genauigkeit rekonstruieren kann. Darüber hinaus führten wir eine vergleichende Analyse zwischen dieser Methode und vier in der Literatur vorhandenen alternativen Techniken durch, darunter zwei der neuesten Methoden auf diesem Gebiet (Polynomkurvenanpassung und das mehrschichtige Perzeptron-Neuralnetzwerk) und zwei populäre, von der Natur inspirierte metaheuristische Methoden (Firefly Algorithmus und Fledermausalgorithmus). Eine solche vergleichende Analyse zeigt, dass unser Ansatz diese vier Methoden für das untersuchte Beispiel um mindestens zwei Größenordnungen übertrifft. Wir schließen daraus, dass der erwähnte Ansatz nicht nur sicherlich vielversprechend ist, sondern auch bereit ist, erfolgreich auf reale, praktische Beispiele von chemischen Komponenten und Mischungen angewendet zu werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5163-5_2 d9c2c94ac68769bdf517b662443d281c;de;;;5.2.;;;Akute experimentelle Glomerulonephritis, induziert durch die glomeruläre Ablagerung von zirkulierenden polymeren IGA-Concanavalin A-Komplexen Die Perfusion von polymeren oder sekretorischen IgA-Concanavalin A-Komplexen in die Aorta von Ratten führte zu einer Mannose-abhängigen Bindung von IgA und Lektin an die glomeruläre Kapillarwand, wie durch doppelte Immunlokalisierungsexperimente durch quantitative Analyse der Menge an radioaktiv markierten Komplexen gezeigt wurde pro g Niere gebunden und durch Blockierungsversuche mit dem entsprechenden Kohlenhydrat. Ratten, denen solche Komplexe in Mengen von nur 500 µg injiziert wurden, entwickelten eine Stunde später eine fokale und segmentale proliferative Glomerulonephritis, die durch die Ablagerung von injizierten Komplexen und von Ratten-C . gekennzeichnet war;-;-;-;https://link.springer.com/article/10.1007/BF00718600 1448e69de03e978ef4a6ab1168eea7fd;de;;;5.2.;;;Modellforschung zur Verkehrszuweisungsprognose in ITS Als wichtige Rolle bei der Entwicklung von ITS steht die Verkehrsverteilungsprognose immer im Fokus der Forschung. Basierend auf der Analyse klassischer Verkehrszuweisungsprognosemodelle wird ein verbessertes Verkehrszuweisungsprognosemodell, Mehrwegewahrscheinlichkeit und Kapazitätsbeschränkung (MPCC) vorgestellt. Die Verwendung des neuen Verkehrsverteilungsprognosemodells zur Vorhersage des Verkehrsaufkommens wird die Rationalität und Genauigkeit der Verkehrsverteilungsprognose verbessern.;-;-;-;https://link.springer.com/article/10.1007/s11806-007-0057-5 420e6849e46636078efd0d92941cad54;de;;;5.2.;;;Reale Faktorpreise und Beschäftigung im verarbeitenden Gewerbe in Deutschland: Eine Zeitreihenanalyse, 1960I–1979IV Reale Faktorpreise und BeschÄftigung in der Verarbeitenden Industrie der Bundesrepublik Deutschland: Eine Zeitreihenanalyse vom I.Quartal 1960 bis zum 4. Quartal 1979. — In diesem Aufsatz wird die Beziehung zwischen den realen Faktorpreisen (dh Reallöhnen und realen Preisen für Rohstoffe und Zwischenprodukte)und der Beschäftigung in der Verarbeitenden Industrie der Bundesrepublik in der Zeit zwischen dem 1. Quartal 1960 und dem 4. Quartal 1979 untersucht. Die wichtigsten Ergebnisse sind : (a) Die Struktur der geschÄtzten Beziehung hat sich zwischen den 6oer und den 70er Jahren erheblich verschoben, so da\ Regressionen, die für die ganze Periode vorgenommen werden, irreführend sind, (b) von 1970 bis 1979 hatten die Reallöhne einen negativen Einflu\ auf die BeschÄftigung, (c) jede Untersuchung mu\ aber sterben Entwicklung der Preise von Rohstoffen und Zwischenprodukten berücksichtigen, denn this waren quantitativ bedeutsamer als sterben Reallöhne. Als ökonometrische Technik wurde durchweg die Zeitreihenanalyse benutzt. Im Besonderen wurde sterben Vektor-Autoregressions-Technik von Sims angewandt, sterben Auch im Sinne einer Grangerschen Ursachenanalyse interpretiert werden can.;-;-;-;https://link.springer.com/article/10.1007/BF02706080 721f8369cd3fef4ebfe48fb7810df619;de;;;5.2.;;;Eine randomisierte Diversifikationsstrategie zur Lösung des Erfüllbarkeitsproblems mit langen Klauseln Das Erfüllbarkeitsproblem (SAT) ist aufgrund seiner Rechenkomplexität und Nützlichkeit in industriellen Anwendungen ein zentrales Problem der künstlichen Intelligenz. Stochastische lokale Suchalgorithmen (SLS) sind leistungsstark, um harte Fälle von Erfüllbarkeitsproblemen zu lösen, darunter CScoreSAT zum Lösen von SAT-Instanzen mit langen Klauseln unter Verwendung des Greedy-Modus und des Diversifikationsmodus. In diesem Papier stellen wir eine randomisierte Variablenauswahlstrategie vor, um die Effizienz des Diversifikationsmodus zu verbessern, und schlagen daher einen neuen SLS-Algorithmus vor. Wir führen eine Reihe von Experimenten durch, um den neuen Algorithmus im Vergleich zu den kürzlich vorgeschlagenen Algorithmen zu bewerten, und zeigen, dass unser Algorithmus mit anderen vergleichbar ist, um zufällige Instanzen nahe der Phasenübergangsschwelle zu lösen.;-;-;-;https://link.springer.com/article/10.1007/s11432-016-0258-4 6ccf1bd4517d6c5a800d8d13969c172a;de;;;5.2.;;;Große Extradimensionen und heiße dunkle Materie Ein Neutrino-Massenmischschema, das alle vorhandenen Beweise für die Neutrinomasse (das solare und atmosphärische Neutrino-Defizit, LSND und signifikante heiße dunkle Materie) qualitativ erklärt, vermeidet ebenfalls erfolgreich den „Alpha-Effekt“ und ermöglicht die r-Prozess-Nukleosynthese im neutrinoerhitzten Auswurf von Supernovae. Die Eigenschaften von Neutrinos, die erforderlich sind, um die Produktion schwerer Kerne sicherzustellen, liefern unabhängige Beweise für (1) mindestens ein leichtes steriles Neutrino,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-04587-9_51 32b4b40534c2c1a22221d65b78422935;de;;;5.2.;;;Zuweisen von Bahnsteigen mit einem genetischen Algorithmus Dieses Papier beschreibt einen Ansatz zur Automatisierung der Bahnsteigzuweisung. Das System verwendet einen genetischen Algorithmus (GA), um herauszufinden, wie die Ressourcen einer Station zugeteilt werden sollten. Es werden echte Daten verwendet, die transformiert werden müssen, um für das automatisierte System geeignet zu sein. Erfolgreiche oder „passende“ Zuweisungen bieten eine Lösung, die die Anforderungen des Bahnhofsfahrplans einschließlich der Bahnsteigneubelegung und verschiedener anderer Einschränkungen erfüllt. Das System verknüpft die Zugdaten, um die Bahnhofsanforderungen abzuleiten. Der genetische Algorithmus wird verwendet, um Plattformzuordnungen abzuleiten. Schließlich kann das System erweitert werden, um zu berücksichtigen, wie sich weitere Parameter außerhalb der Station darauf auswirken, wie eine Zuweisung angewendet werden soll. Das System ordnet in rund 30 Sekunden rund 1000 Züge erfolgreich den Plattformen zu, was ein Genom von rund 1000 Genen erfordert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84882-983-1_33 6147dec767a625004e15445e89f916b7;de;;;5.2.;;;Eigenwertprobleme für Hemivariationsungleichungen auf der Kugel Die Theorie der Hemivariationsungleichungen steht in engem Zusammenhang mit der Herleitung von Variations-”Prinzipien” für Probleme mit nichtkonvexen, nichtglatten Energiefunktionen. Wir verweisen auf [10]–[12] für alle verwandten Literaturhinweise und auf [13], [14] zum Bereich der nicht glatten Mechanik. Mathematische Fragen zur Existenz von Lösungen hemivariationaler Ungleichungen wurden mit Kompaktheitsargumenten [11] [12] oder mit Pseudomonotonieargumenten für mehrwertige Abbildungen [7]–[9] behandelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4064-9_6 3efafb41d579e45a9100c1c282f0f336;de;;;5.2.;;;Der geostatistische Rahmen für die räumliche Vorhersage Geostatistik bietet einen kohärenten Rahmen für die räumliche Vorhersage und Unsicherheitsbewertung, wobei die räumliche Abhängigkeit, wie sie durch Variogramme quantifiziert wird, für die beste lineare unverzerrte Schätzung einer regionalisierten Variablen an nicht abgetasteten Standorten verwendet wird. Die Geostatistik zur Vorhersage kontinuierlicher regionalisierter Variablen wird überprüft, wobei die Schlüsselmethoden, die der Ableitung der Hauptvarianten des univariaten Kriging zugrunde liegen, in leicht verständlicher Weise beschrieben werden. Dieses Papier wird zur Entmystifizierung und damit zur Popularisierung der Geostatistik in Geoinformatik-Communitys beitragen.;-;-;-;https://link.springer.com/article/10.1007/s11806-008-0087-7 312ad2f684570a2b87c8d3db5beaf317;de;;;4.2.;;;Die Rolle des vorderen Inselkortex bei sozialen Emotionen Funktionelle bildgebende Untersuchungen in den Bereichen Soziale Neurowissenschaften und Neuroökonomie weisen darauf hin, dass der vordere Inselkortex (AI) konsequent an Empathie, Mitgefühl und zwischenmenschlichen Phänomenen wie Fairness und Kooperation beteiligt ist. Diese Ergebnisse legen nahe, dass KI eine wichtige Rolle bei sozialen Emotionen spielt, hiermit definiert als affektive Zustände, die entstehen, wenn wir mit anderen Menschen interagieren und die vom sozialen Kontext abhängen. Nachdem wir die Rolle der KI bei sozialen Emotionen mit interozeptivem Bewusstsein und der Darstellung aktueller globaler emotionaler Zustände in Verbindung gebracht haben, werden wir ein Modell präsentieren, das nahelegt, dass KI nicht nur an der Darstellung aktueller Zustände beteiligt ist, sondern auch an der Vorhersage von emotionalen Zuständen, die für das Selbst relevant sind, und Andere. Dieses Modell schlägt auch vor, dass KI uns ermöglicht, über emotionale Zustände sowie über die mit Ereignissen verbundene Unsicherheit zu lernen, und impliziert, dass KI eine dominante Rolle bei der Entscheidungsfindung in komplexen und unsicheren Umgebungen spielt. Unser Review unterstreicht weiter, dass dorsale und ventro-zentrale sowie anteriore und posteriore Unterteilungen der KI möglicherweise unterschiedliche Funktionen erfüllen und verschiedene Aspekte der Verhaltensregulation leiten. Wir schließen mit einem Abschnitt, der verschiedene Wege zum Verständnis der Handlungen, Gefühle und Gedanken anderer Menschen zusammenfasst, und betonen die Vorstellung, dass die vorherrschende Rolle der KI darin besteht, die Gefühle und körperlichen Zustände anderer zu verstehen und nicht ihre Handlungsabsichten oder abstrakten Überzeugungen.;-;-;-;https://link.springer.com/article/10.1007/s00429-010-0251-3 b983081344bc2c9e2f953de78d77580b;de;;;5.2.;;;Der Beitrag von Kopfbewegungshinweisen zur Lokalisierung von Tiefpassgeräuschen Die Lokalisierung von Tiefpassgeräuschen wurde in Bezug auf Aspekte von Wallachs (1939, 1940) Hypothesen über die Rolle der Kopfbewegung bei der Vor- und Zurück- und Höhenunterscheidung getestet. Bei einem 3-Sek.-Signal bot die freie Kopfbewegung nur einen geringen Vorteil gegenüber einer einzigen Drehung um 45° zur Erkennung von Höhenunterschieden. Eine sehr geringe Drehung, wie unter Verwendung eines 0,5-sek.-Signals beobachtet, schien ausreichend, um eine Verwechslung von vorne/hinten zu verhindern. Die Clusteranalyse zeigte, dass einige Hörer beim Erkennen von Höhen von der Rotation profitierten, einige von der natürlichen Bewegung und einige von beiden. Es wurden Hinweise gefunden, dass ein sich bewegendes Hörsystem Informationen über den Verbleib von Geräuschen erzeugt, selbst wenn die Bewegung nicht dazu führt, dass der Hörer der Quelle gegenübersteht. Die Ergebnisse bieten eine signifikante, wenn auch teilweise Unterstützung für Wallachs Hypothesen.;-;-;-;https://link.springer.com/article/10.3758/BF03205517 5c2b86234b6a764949e92ab6f0621ede;de;;;5.2.;;;Einführung schwerer und leichter radioaktiver Kerne in Kernemulsionen Die Teilchenspurfotografie mit dicken fotografischen Emulsionen hat für die Entwicklung der Kern- und Elementarteilchenphysik große Bedeutung erlangt. Einer der Vorteile dieser Technik für die Untersuchung von Kernreaktionen und Elementarteilchen liegt in der Möglichkeit, einzelne Wechselwirkungen nach dem Einbringen von Zielkeimen in die Emulsion zu beobachten. Dabei spielt die fotografische Platte die Rolle sowohl des Detektors als auch des Ziels und enthält die Kerne der Elemente, die zu den Emulsionskomponenten beitragen, sowie die Kerne der Elemente, die in irgendeiner Weise in die Emulsion eingebracht (beladen) wurden, je nach besonderes Problem betrachtet. Um die Effizienz eines Experiments zu erhöhen, muss je nach Zweck der Studie versucht werden, die Konzentration der Keime von Elementen, die ohnehin in der Emulsion enthalten sind, zu erhöhen (um die Scaneffizienz zu erhöhen), oder man muss möglichst viele schwere (oder leichte) Kerne, die ursprünglich nicht in der Emulsion enthalten waren. Dies ist ein schwieriges Problem, da die Haupteigenschaften der fotografischen Emulsion, die aus bestimmten Elementen zusammengesetzt ist, auf spezifische Weise beibehalten werden müssen. Besondere Schwierigkeiten treten auf, wenn die Emulsion zum Aufzeichnen von Teilchen beim Ionisationsminimum vorgesehen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-6032-3_4 3ad2af2a85ccbdb24cada46304b8e826;de;;;5.2.;;;Turbulenzen und Rotation von Gewässern in Ozeanen und Meeren Die im vorigen Kapitel beschriebenen Modelle liefern nützliche Informationen über die Beschaffenheit von Strömungen und die Dichtestruktur des Meerwassers. Sie bringen uns jedoch dem Verständnis der Drehung der Meeresströmungen in der horizontalen Ebene nicht näher. Tatsächlich sind Wirbel unterschiedlicher Größenordnung ein charakteristisches Merkmal der ozeanischen Zirkulation. Wie wir wissen, bewegen sich sowohl pazifische als auch atlantische Gewässer an mindestens fünf Stellen auf einer fast geschlossenen Bahn, im Indischen Ozean werden je nach Jahreszeit Wirbel an drei oder vier Stellen beobachtet. Wenn wir auf der Karte der Strömungen in Abbildung 2.2 die Zirkulationen in den Meeren der nördlichen Hemisphäre-Mittelmeer, Ostsee, Ochotskischen Meer und anderen darstellen könnten, würden wir auch dort zyklonische Wasserbewegungen sehen. Meereswirbel, obwohl weniger stetig als ihre ozeanischen Gegenstücke, treten fast überall auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-4856-3_4 08d8c058303b2b924e3647dc3112d26e;de;;;4.2.;;;Aufbau von Netzwerkreputation durch Mechanism Design In jedem Netzwerksystem wie dem Internet muss ein Netzwerk ein gewisses Maß an Sicherheit berücksichtigen, wenn es entscheidet, ob eingehender Verkehr zugelassen wird und wie verschiedene Filter konfiguriert werden, wenn Routing-Entscheidungen getroffen werden. Bestehende Methoden verlassen sich bei solchen Entscheidungen in der Regel auf die Qualität bestimmter Hosts, was zu meist reaktiven Sicherheitsrichtlinien führt. In dieser Studie untersuchen wir den Begriff der Reputation von a;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35582-0_4 3ade436a4f77a1125fe0eb5576772a0b;de;;;4.2.;;;Reflektierendes Lernen durch das Spielen eines digitalen Spiels Die Sims 2 Mit zu vielen Aktionen und nur wenig Zeit zum Nachdenken waren frühere Spiele eher reflexiv als reflexiv. Die meiste Forschungsliteratur zum Spiel betont das Lernen, das durch Spielhandlungen stattfindet, aber relativ wenige betreffen das Potenzial für emotionale Erfahrungen und Reflexion, die im Spiel auftreten. Durch die Kombination von Techniken der künstlichen Intelligenz (KI) und fortschrittlichen Simulationssystemen wird das digitale Spiel;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03364-3_28 cfe0c16117834a82174dba5a69b9f896;de;;;5.2.;;;Virusumgehung natürlicher Killerzellen während einer Infektion mit dem humanen Cytomegalovirus Zytotoxische T-Zellen spielen eine wichtige Rolle bei der Immunabwehr gegen das humane Cytomegalievirus (HCMV). Das Virus hat jedoch mehrere Mechanismen entwickelt, um dieser Kontrolle zu entkommen. Insbesondere reguliert es die Zelloberflächenexpression von HLA-Klasse-I-Molekülen herunter. Weil natürliche Killerzellen (NK) Zellen erkennen und eliminieren, denen HLA-Klasse-I-Moleküle fehlen. HCMV-infizierte Zellen könnten anfälliger für die NK-Lyse sein. In diesem Review diskutieren wir die Rolle, die NK-Zellen bei der Immunabwehr gegen HCMV spielen, und beschreiben mögliche Strategien, die das Virus entwickelt hat, um der NK-Zell-vermittelten Lyse zu entkommen. Wir konzentrieren uns insbesondere auf ein neu beschriebenes Protein, HCMV gpUL40, das die Zelloberflächenexpression von HLA-E induziert, einem nicht-klassischen Klasse-I-Molekül, von dem bekannt ist, dass es NK-Zellfunktionen reguliert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-59421-2_8 098be9fae0495aad28ae4d6df3a59aa0;de;;;4.2.;;;Anwender planen Optimierung für partizipative urbane Texturdokumentation Wir stellen uns die partizipative Texturdokumentation (PTD) als einen Prozess vor, bei dem eine Gruppe von Benutzern (engagierte Einzelpersonen und/oder die allgemeine Öffentlichkeit) mit kamerabestückten Mobiltelefonen an der kollaborativen Sammlung von urbanen Texturinformationen teilnimmt. PTD ermöglicht eine kostengünstige, skalierbare und qualitativ hochwertige Dokumentation von urbanen Texturen. Wir schlagen vor, PTD in zwei Schritten zu implementieren. Im ersten Schritt, der als Blickpunktauswahl bezeichnet wird, wird eine minimale Anzahl von Blickpunkten in der städtischen Umgebung ausgewählt, aus der die Textur der gesamten städtischen Umgebung (der für Kameras sichtbare Teil) mit einer wünschenswerten Qualität gesammelt/erfasst werden kann. Im zweiten Schritt, der sogenannten Viewpoint-Zuweisung, werden die ausgewählten Viewpoints den teilnehmenden Benutzern so zugewiesen, dass Benutzer bei einer begrenzten Anzahl von Benutzern mit verschiedenen Einschränkungen (z. B. eingeschränkte verfügbare Zeit) kollektiv die maximale Menge an Texturinformationen innerhalb einer begrenzten Zeit erfassen können Intervall. In diesem Papier definieren wir jeden dieser Schritte und beweisen, dass beide NP-schwere Probleme sind. Dementsprechend schlagen wir effiziente Algorithmen vor, um die Probleme der Standpunktauswahl und -zuweisung zu implementieren. Wir untersuchen, profilieren und verifizieren unsere Lösungsvorschläge vergleichend sowohl durch rigorose Analysen als auch durch umfangreiche Experimente.;-;-;-;https://link.springer.com/article/10.1007/s10707-012-0166-7 842750e6de56c739dad4c15472e71e5f;de;;;5.2.;;;Ein gemeinsames räumliches Modell für GIS Dieses Kapitel versucht, die Rolle von tessellierten Raummodellen innerhalb der Disziplin der Geographischen Informationssysteme (GIS) zu beschreiben. Wir betrachten einige der grundlegenden Operationen in GIS, einschließlich dynamischer und kinetischer Anwendungen. Wir untersuchen Fragen der Topologie und Datenstrukturen und erstellten ein Tessellationsmodell, das sowohl auf traditionelle „Objekt“- als auch auf „Feld“-Datentypen angewendet werden kann. Basierend auf diesem Rahmen kann argumentiert werden, dass Tessellationsmodelle für unser Verständnis und die Verarbeitung des geografischen Raums von grundlegender Bedeutung sind und einen kohärenten Rahmen für das Verständnis des „Raums“, in dem wir existieren, bieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88244-2_6 77e94729c8539324eb99ed707b4aebd2;de;;;5.2.;;;Physikalische Anwendungen der Vektorrechnung Dieses Kapitel stellt den Höhepunkt der Multivariablenrechnung dar. Wir untersuchen die bemerkenswerten physikalischen Anwendungen der Vektorrechnung, die im 17., 18. und 19. Jahrhundert die ursprüngliche Motivation für die Entwicklung dieses Themas lieferten. Die von uns untersuchten Vektorfelder entstehen auf natürliche Weise in der Himmelsmechanik, im Elektromagnetismus und in der Flüssigkeitsströmung. Wir werden die grundlegenden Konzepte der Vektorrechnung verwenden, um grundlegende Gesetze der Physik in diesen Fächern abzuleiten. Im beigefügten Problem-Set I haben Sie die Möglichkeit,;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-1698-8_9 5fb02018e31438cc5d797e6e32eeaf36;de;;;5.2.;;;Zeitgeographische Dichteschätzung für bewegte Punktobjekte Diese Forschung stellt eine zeitgeographische Methode zur Dichteschätzung für sich bewegende Punktobjekte vor. Der Ansatz integriert traditionelle Kerneldichteschätzung (KDE) mit Techniken der Zeitgeographie, um eine kontinuierliche Intensitätsoberfläche zu erzeugen, die die räumliche Verteilung eines sich bewegenden Objekts über einen festen Zeitrahmen charakterisiert. Diese Aufgabe wird erfüllt, indem Dichteschätzungen als Funktion einer Geoellipse berechnet werden, die für jedes aufeinanderfolgende Paar von Kontrollpunkten im Raum-Zeit-Pfad des Objekts erzeugt wird, und diese Werte an jedem Ort ähnlich wie bei KDE summiert werden. Die Hauptvorteile dieses Ansatzes sind: (1) dass positive Intensitäten nur Orten innerhalb des potenziellen Pfadbereichs eines sich bewegenden Objekts zugewiesen werden und (2) dass eine willkürliche Parameterauswahl vermieden wird, da der Grad der Glättung durch die maximale potenzielle Geschwindigkeit des Objekts gesteuert wird. Die Methode zur Schätzung der zeitgeographischen Dichte wird mit einem Beispieldatensatz veranschaulicht, und es werden Einschränkungen und zukünftige Arbeiten erörtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15300-6_2 91bf29058a84f8c109e7bcf7d4b5e2ce;de;;;5.2.;;;Berechtigungsverwaltung in einer verteilten Umgebung mit mehreren Anwendungen Um die Anforderungen der Autorisierungsverwaltung in einer verteilten Computernetzwerkumgebung zu erfüllen, erweitert dieses Dokument das rollenbasierte Zugriffskontrollmodell um mehrere Anwendungsdimensionen und erstellt ein neues Zugriffskontrollmodell ED-RBAC (Extended Role Based Access Control Model) für die verteilte Umgebung. Wir schlagen ein erweiterbares hierarchisches Berechtigungszuweisungs-Framework vor und entwerfen ein effektives Protokoll zur Rollenregistrierung, Rollenanwendung und Rollenzuweisung mit symmetrischen und asymmetrischen kryptografischen Systemen. Das Modell kann verwendet werden, um die Berechtigungsverwaltung in einer verteilten Umgebung mit mehreren Anwendungen zu vereinfachen.;-;-;-;https://link.springer.com/article/10.1007/BF02828557 0772fe9f3bc6982494001ee226477213;de;;;4.2.;;;Automatische Mediation bei der Gruppenproblemlösung Sowohl bei formellen als auch bei informellen Konferenzen kommt es häufig zu Konflikten über die Zuteilung der Redezeit. In einem Problemlösungsexperiment löste ein automatischer Mediator widersprüchliche Anfragen während einer Telefonkonferenz. Es kombinierte Eingänge, die die Absicht zum Sprechen signalisierten, unter Verwendung vorprogrammierter Regeln, die dann den neuen Sprecher auswählten. Teams von vier Bachelor-Studenten forderten wiederholt den Mechanismus, um widersprüchliche Anfragen zu lösen. Das Verhalten von Teilnehmern und Mechanismen wurde für die spätere Auswertung durch ein Protokollanalyseprogramm aufgezeichnet, das Datenstrings auf korrekte Syntax, simuliertes Verhalten alternativer Auflösungsregeln und aggregierte Gruppen- und Einzeldaten für die Verarbeitung mit einem Statistikpaket überprüfte. Dieser Ansatz für Gruppenexperimente bietet erhebliche methodische Vorteile in Bezug auf die Überprüfung der korrekten Experimentdurchführung, die Reduzierung von Experimentatoreneffekten und die Förderung der Selbststeuerung der Teilnehmer.;-;-;-;https://link.springer.com/article/10.3758/BF03207941 bf074ca49ffd9b2d08eb75431a450253;de;;;4.2.;;;Verhandlungsspannungen: Eine Studie über Englisch im Vorbereitungsdienst als Identitätsgefühl von Fremdsprachenlehrern in ihrer Praxisgemeinschaft Die dynamische Natur der Identität von Sprachlehrern erfordert ein Verständnis der Prozesse, die mit der Bildung der professionellen Identität von Lehrern verbunden sind. Im Kontext von Englisch als Fremdsprache (EFL) beinhaltet Identitätsbildung das Navigieren vorherrschender Diskurse um eine hierarchische Dichotomie von Muttersprachlern und Nicht-Muttersprachlern, die nicht-muttersprachliche Lehrer in eine geringere Kategorie einordnen. Diese Studie präsentiert eine qualitative Analyse der Interviewdaten von 4 Lehramtsstudenten in einem EFL-Lehrerausbildungsprogramm. Die Ergebnisse dieser Studie unter Verwendung des Rahmens für die Identitätsverhandlungen der Praxisgemeinschaft zeigen, wie Lehrkräfte in der Ausbildung zum Lehramt über Praktiken verhandeln, die von ihrem Ausbildungsprogramm als wertvoll erachtet werden. Die Ergebnisse dieser Studie deuten darauf hin, dass die Prozesse der Identitätsverhandlung von EFL-Lehrkräften in der Vorausbildung hauptsächlich durch Adoption und ein gewisses Maß an Spannungen um Ideologien, die die NS privilegieren, und unmarkierte Sprache gekennzeichnet waren. Diese Studie trägt zur aktuellen Diskussion über die Problematisierung der Dichotomie von Muttersprachlern bei und diskutiert die einzigartigen Möglichkeiten der epistemischen Netzwerkanalyse, um Prozesse der Identitätsbildung und Aushandlung über den Kontext von Sprachlehrern hinaus zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-67788-6_19 d070554fb8aea0769d35897b31cf6bf8;de;;;4.2.;;;Société Française — Cinéma et Télévision Während das britische Kino der amerikanischen Importwelle weitgehend nachgegeben zu haben scheint, ist es Frankreich gelungen, eine aktive Kinoindustrie und ein anhaltendes Interesse des Publikums aufrechtzuerhalten, das trotz der konkurrierenden Anziehungskraft des Fernsehens weiterhin ins Kino geht.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-07971-1_11 b738dc85bb55f2fe140101684de33ae0;de;;;4.2.;;;Entwicklung und Anwendung eines m-Learning-Systems, das ein effizientes Management von „kreativen Aktivitäten“ und Gruppenlernen unterstützt In diesem Papier haben wir eine App eines SNS-basierten mobilen Lernsystems entwickelt, mit der Schüler jederzeit und überall interagieren können und der Lehrer ein Echtzeit-Feedback erhalten kann. Durch die Aktivierung der entwickelten App auf Smartphones können Nutzer eine Vielzahl von Daten auf einem Webserver speichern, ohne auf die Website zuzugreifen. Wenn sich Lehrer und Schüler an einem anderen Ort befinden, können Probleme außerdem in Echtzeit über das SNS des Systems mit Feedback vom Lehrer gelöst werden. Daher kann die entwickelte App, wenn sie für andere Aktivitäten wie Klassen mit kreativer Aktivität und Gruppenunterricht verwendet wird, zum selbstgesteuerten Lernen und als Medium der Echtzeitkommunikation verwendet werden, um die Leistung und das Interesse der Schüler zu steigern. Außerdem kann der Lehrer anhand der gesammelten Daten ein tiefgreifendes Verständnis des Niveaus jedes Schülers erlangen, und die Schüler können verschiedene Portfolios entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27207-3_60 34f061f118d81b2de3d2e5ff14f84ab1;de;;;5.2.;;;Remote-Beratung und Unterstützung bei Spezialoperationen: eine Ethikbewertung Spezialeinheiten der US-Armee, die Mitte 2014 im Irak stationiert waren und den irakischen Streitkräften bei der Bekämpfung des Islamischen Staates (ISIL) helfen wollten, standen vor einer erheblichen Herausforderung: Wie könnte eine Truppe von weniger als 50 Einsatzkräften ihren irakischen Verbündeten (meist irakische Spezialeinheiten, die von US-Streitkräften vor dem US-Abzug aus dem Irak im Jahr 2011 ausgebildet wurden) und gleichzeitig der Politik Washingtons folgend, jegliche Möglichkeit von Kampfverlusten unter den eingesetzten US-Spezialeinheiten zu vermeiden? Ihre Lösung für dieses Dilemma wurde „Remote Advise and Assist“ (RAA) genannt. Durch das Zusammenschustern eines Systems aus Sprach- und Textkommunikation, Kameras, interaktiven Karten und Mobiltelefonen fanden diese Mitarbeiter der Special Forces heraus, dass sie ihre irakischen Partner virtuell in heiße Zonen begleiten konnten, in denen US-Stiefel auf dem Boden verboten waren. Dieser Ansatz scheint äußerst erfolgreich gewesen zu sein, wirft jedoch möglicherweise eine Reihe ethischer Bedenken auf. Vor dem Hintergrund einer allgemeinen Darstellung der Ethik des Einsatzes von Ersatzkräften untersucht dieser Beitrag die ethischen Fragen, die durch die Praxis von „Remote Advise and Assist“ aufgeworfen werden.;-;-;-;https://link.springer.com/article/10.1007/s10676-018-9483-3 24854fd8b08c85209ba30273806f4a50;de;;;5.2.;;;Die Hypophyse und Bluthochdruck Viele Faktoren sind am Mechanismus der Hypertonie beteiligt, und jeder von ihnen kann eine bestimmte Art von Hypertonie hervorrufen. Es muss aufgeklärt werden, wie diese Faktoren oder eine Kombination einiger von ihnen miteinander interagieren, um die als primäre oder essentielle Hypertonie bekannte Erkrankung hervorzurufen, von der etwa 90% der hypertensiven Bevölkerung betroffen sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-6741-0_44 861f19fc468fb1cb1e0935ac906423ac;de;;;4.2.;;;Rahmen eines Frühwarnsystems für Ökotourismus: Was können wir für Hainan, China, lernen? Frühwarnsysteme (EWS) sind wichtig für das Risikomanagement. In diesem Kapitel wird ein Rahmen für ein Ökotourismus-EWS entwickelt, der das Gefahrenrisiko, die Tragfähigkeit von Serviceeinrichtungen und Tourismusstandorten sowie die Folgenabschätzung, Überwachung und Warnung für die Tourismusentwicklung umfasst. Der Einfluss des Tourismus ist ein aufstrebender Forschungsstandort. In FWS sollten negative Auswirkungen auf den Tourismus betont werden, einschließlich ökologischer, wirtschaftlicher und sozialer Auswirkungen. Nachdem der Rahmen erstellt und analysiert wurde, werden Fälle basierend auf lokalen Merkmalen ausgewählt und die konzentrierten Punkte für die Frühwarnung des Ökotourismus analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03449-2_3 c13a3d876eb94a7ffdb086f533d39dff;de;;;4.2.;;;Studien zur genetischen Variabilität der kodierenden Region des Hepatocyte Nuclear Factor-4α bei Kaukasiern mit Reifebeginn NIDDM Mutationen im Hepatocyte Nuclear Factor-4α (HNF-4α)-Gen verursachen die Typ-1-Form des Altersdiabetes bei jungen Menschen (MODY1). Um die Frage zu beantworten, ob die genetische Variabilität von HNF-4α mit spät einsetzendem nicht insulinabhängigem Diabetes mellitus (NIDDM) assoziiert ist, haben wir die kodierende Region und die Intron/Exon-Grenzen des Gens bei 36 zufällig rekrutierten dänischen NIDDM-Patienten sequenziert. Zwei Nukleotid-Substitutionen, die die Sequenz von HNF-4α veränderten, wurden identifiziert: Thr/Ile130, über das zuvor berichtet wurde, und ein neues Val/Met255. Die Val/Met 255-Mutation wurde bei 4 von 477 dänischen NIDDM-Patienten und bei keinem von 217 glukosetoleranten Kontrollpersonen gefunden, daher kann nicht ausgeschlossen werden, dass diese Mutation einen Einfluss auf die NIDDM-Anfälligkeit haben könnte. Bei 509 NIDDM-Patienten betrug die Allelfrequenz der Thr/Ile130-Variante 4,7 % (95 % Konfidenzintervall: 3,4–6,0 %) gegenüber 1,9 % (0,7–3,1 %) bei 239 Kontrollpersonen (;-;-;-;https://link.springer.com/article/10.1007/s001250050778 07fcdea4fcca279bc3980986031272de;de;;;4.2.;;;Effiziente Erkennung von Co-Location-Mustern aus massiven Geodatensätzen mit oder ohne seltene Merkmale Ein Co-Location-Muster weist auf eine Gruppe räumlicher Features hin, deren Instanzen sich häufig gemeinsam in einem nahen geografischen Gebiet befinden. Spatial Co-Location Pattern Mining (SCPM) ist für viele praktische Anwendungen wertvoll. Zahlreiche bisherige SCPM-Studien betonen die gleichberechtigte Beteiligung pro Merkmal. Dadurch können die interessanten Co-Locations mit seltenen Merkmalen nicht erfasst werden. In diesem Papier schlagen wir ein neues Interessemaß vor, d. h. den gewichteten Beteiligungsindex (WPI), um Co-Locations mit oder ohne seltene Merkmale zu identifizieren. Das WPI-Maß besitzt eine bedingte antimonotone Eigenschaft, die verwendet werden kann, um den Suchraum zu beschneiden. Außerdem wird ein schneller Reiheninstanzidentifikationsmechanismus basierend auf dem geordneten NR-Baum vorgeschlagen, um die Effizienz zu verbessern. Anschließend wird der geordnete NR-Baum-basierte Algorithmus entwickelt. Um die Effizienz weiter zu verbessern und massive räumliche Daten zu verarbeiten, unterteilen wir den geordneten NR-Baum in mehrere unabhängige Teilbäume und parallelisieren den geordneten NR-Baum-basierten Algorithmus auf dem MapReduce-Framework. Umfangreiche Experimente werden sowohl an realen als auch an synthetischen Datensätzen durchgeführt, um die Effektivität, Effizienz und Skalierbarkeit unserer Techniken zu überprüfen.;-;-;-;https://link.springer.com/article/10.1007/s10115-021-01559-3 f3f173ea19b044caf8f94d532bbd3fa1;de;;;5.2.;;;Was ist die Wissenschaft? Was haben die Menschen stattdessen und warum brauchen wir die Korrosiologie? Die Menschen brauchen eine Wissenschaft, die sowohl ihr als auch ihr eigenes Ziel begreift, universell, weitsichtig, die gesamte Biosphäre harmonisiert und Fehler verhindert. Es war eine solche Wissenschaft, Ya.M. Kolotyrkin hat davon geträumt, und das war sein eigener alter Trend. Allerdings... Nachdem sie ihre Entwicklung erheblich beschleunigt und pragmatisiert hatte, spaltete die industrielle Revolution sie in eine handliche Reihe von engstirnigen, schwach gebundenen Zweigen und beraubte sie so des Panoramas und der Fähigkeit, zwischen Wesen und Illusion zu unterscheiden. Auf den ersten Blick ist alles in Ordnung (besonders nach der wissenschaftlich-technischen Revolution, die Krisen illusorisch überwunden hat): Die Wissenschaft findet Mineralvorkommen, entdeckt die Wege und lehrt, wie man daraus etwas macht, erfindet und entwickelt alles, was unseren Alltag erfüllt , dient und ersetzt uns in der Industrie, verbindet die Kontinente und so weiter. Aber im Wesentlichen... ist dies der kürzeste Weg zur Hölle für die Kinder unserer Kinder. Wir ebnen es selbst, indem wir die Minen und Brunnen erschöpfen, als ob die Bodenschätze, die von der Obersten Intelligenz (durch die zahlreichen vergangenen Biosphären seit Jahrmilliarden!) geschaffen wurden, keinen Hundert- und Tausendfachen Preis haben die Marktkosten für alles, was wir daraus herstellen, übersteigt. Durch eine gründliche Analyse werden unzerbrechliche semantische Definitionen des grundlegenden Dreiklangs der wissenschaftlichen Kategorien Life, Science und Verity geklärt. Als Beispiel für die Qualität der noch verwendeten Theorien wird die absolute Schwäche des S. Arrhenius-Konzepts der elektrolytischen Dissoziation (das die Entwicklung der Elektrochemie seit mehr als einem Jahrhundert gestoppt hat) aufgezeigt. Die Wiedervereinigung und engste Zusammenarbeit zwischen Wissenschaft und Kirche ist die letzte Chance für den Mann, die Wahre Wissenschaft und das wahre Leben zu erlangen!;-;-;-;https://link.springer.com/article/10.1007/s11124-005-0001-8 a8fcc61cb6dc3ab7d04051fb1ef69e13;de;;;4.2.;;;Mutationsanalyse der kodierenden Region des Entkopplungsprotein-2-Gens bei adipösen NIDDM-Patienten: Einfluss eines gemeinsamen Aminosäurepolymorphismus auf juvenile und reife Formen von Fettleibigkeit und Insulinresistenz Vor kurzem wurde ein Gen entdeckt, das ein neues menschliches Entkopplungsprotein mit der Bezeichnung UCP2 kodiert. Das Maus-UCP2 wurde einer Region auf dem Maus-Chromosom 7 zugeordnet, von der in mehreren Modellen gezeigt wurde, dass sie mit Fettleibigkeit und Hyperinsulinämie in Verbindung steht. Einzelstrang-Konformationspolymorphismus (SSCP)-Analyse und direkte Sequenzierung der kodierenden Region des UCP2-Gens bei 35 adipösen kaukasischen NIDDM-Patienten dänischer Abstammung ergaben eine Nukleotidsubstitution, bei der ein Alanin durch ein Valin am Codon 55 ersetzt wurde 24 der 35 (69 %) untersuchten Probanden. Die Allelfrequenz der A/V55-Variante betrug 48,3 % (95 %-KI: 42,5–54,1 %) bei 144 Probanden mit juveniler Adipositas, 45,6 % (40,5–50,7 %) bei 182 zufällig bei der Draft Board-Prüfung ausgewählten Probanden und 45,5 % (37,1–53,9 %) unter den schlanken Kontrollpersonen, die aus derselben Studienkohorte ausgewählt wurden. Innerhalb dieser Kohorten gab es keine Unterschiede in den BMI-Werten in verschiedenen Altersstufen zwischen Wildtyp-Trägern und A/V55-Trägern. In einer bevölkerungsbasierten Stichprobe von 369 jungen gesunden Kaukasiern zeigte die Variante keine Assoziation mit Veränderungen des BMI, des Taillen-Hüft-Verhältnisses, der Fettmasse oder der Gewichtszunahme während der Kindheit oder Jugend. Der A/V55-Polymorphismus war nicht mit Veränderungen der Nüchternwerte von Seruminsulin und C-Peptid oder einem beeinträchtigten Insulinsensitivitätsindex verbunden. Wir schlussfolgern, dass die genetische Variabilität im humanen UCP2-Gen kein gemeinsamer Faktor ist, der bei adipösen dänischen Kaukasiern zu NIDDM beiträgt, und der gemeinsame A/V55-Aminosäure-Polymorphismus des Gens ist nicht an der Pathogenese von juveniler oder im Alter einsetzender Fettleibigkeit oder Insulinresistenz beteiligt bei Kaukasiern. [Diabetologia (1997) 40: 1227–1230];-;-;-;https://link.springer.com/article/10.1007/s001250050811 9579bf927e3071b71356cd40c6cbe819;de;;;4.2.;;;"Bewertung von Böden im tropischen Tiefland Ostboliviens Seit langem gibt es Bedenken, dass Landwirte Bodenressourcen ohne Rücksicht auf ihren langfristigen Wert extraktiv nutzen. Vor über 30 Jahren warnten FAO-Mitarbeiter, dass ""die Verlagerung des Anbaus in den feuchttropischen Ländern das größte Hindernis nicht nur für die sofortige Steigerung der landwirtschaftlichen Produktion ist, sondern auch für die Erhaltung des Produktionspotenzials der Zukunft in Form von Böden und Wäldern"". (FAO, 1957).";-;-;-;https://link.springer.com/chapter/10.1057/9780230374744_10 5a8e6d28178283ccef9668e318fec3d3;de;;;4.2.;;;Welcher Technologietransfer: Für alle außer den wahren Gläubigen beginnt die Befürwortung des Technologietransfers aus den westlichen Industrieländern in die „weniger entwickelten Länder“ (LDCs) an Überzeugungskraft zu verlieren. Es ist nicht zu leugnen, dass technologische Abhängigkeitsverhältnisse älteren kolonialen Beziehungen vorzuziehen sind. Auch der Gedanke, dass der Technologietransfer die Verbreitung industrieller Technologie in die am wenigsten entwickelten Länder beschleunigen kann, wurde nicht vollständig aufgegeben. Aber Ereignisse wie bestätigte Berichte über die massive Zerstörung der Regenwälder der Welt, die als entscheidend für den Wasserkreislauf angesehen werden, durch westlich gelieferte Ausrüstung oder Bevölkerungsprobleme, die durch Maßnahmen der „Grünen Revolution“ verschärft werden, lassen alle außer den technologischen Pollyannas innehalten .;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-2597-7_11 7c9ba275c7d89e8cb411291c6d4faa8e;de;;;4.2.;;;Reaganomics und Thatcherismus Dieses und das folgende Kapitel zeichnen die makroökonomischen und strukturellen Entwicklungen in einer Reihe wichtiger Industrieländer ab 1980 nach. Kapitel 6 widmet sich den Wechselwirkungen zwischen diesen Volkswirtschaften. Der Zweck besteht nicht darin, die Geschichte umfassend zu überprüfen, sondern die nachhaltigeren Auswirkungen der Ereignisse von 1980-93 herauszustellen – das Vermächtnis von Margaret Thatcher, Ronald Reagan, François Mitterrand und anderen nationalen Führern. Der Fokus liegt zunächst auf den Vereinigten Staaten, da sie die größte Volkswirtschaft mit den größten Auswirkungen auf andere Länder sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-23675-6_4 3735c81c812da24efee794499353e4e6;de;;;5.2.;;;Modellierung und Simulation einer geplanten biochemischen in situ Sanierung In diesem Beitrag wird die Simulation eines biochemischen in situ Sanierungsansatzes diskutiert. Wir betrachten einen Feldfall einer Schadstofffahne, die aus gelösten Chlorethenen besteht. Ein regionales Strömungsmodell zeigt, dass die Schadstoffe ein Wasserwerk erreichen können, das 2 km flussabwärts des Spill-Bereichs liegt. Somit wird eine In-situ-Sanierung erwartet, bei der die Dechlorierung und Mineralisierung der Chlorethene durch eine Abfolge von aeroben und anaeroben Behandlungen stimuliert wird. Die Gleichungen des reaktiven Transportmodells werden mit impliziten Zeitschemata und lokal verfeinerten Netzen diskretisiert. Die resultierenden diskreten Gleichungen werden gleichzeitig mit einem Newton-Verfahren und einem Punktblock-Mehrgitterverfahren gelöst, das sich als effizienter Löser für die betrachteten Systeme herausgestellt hat. Simulationsergebnisse für mehrere Sanierungskonfigurationen zeigen einen schnellen biochemischen Abbau der Chlorethene, der jedoch auf die Umgebung der Injektionsbrunnen beschränkt ist. Nach zwei Jahren werden etwa 60 % der anfänglichen Schadstoffmasse entfernt, während ein reines Pump-and-Treat-Verfahren in der gleichen Zeit nur 40 % der anfänglichen Masse entfernt. Die Simulationen legen nahe, dass das Sanierungsschema im Hinblick auf die Effizienz des biologischen Abbaus in situ optimiert werden könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55753-8_11 1f63a351ec1fcda85ca80770cfce8cce;de;;;5.2.;;;"Einige Lektionen Lassen Sie mich mit einer Anekdote über zwei zehnjährige Jungen beginnen, die in einem Spiel von „Multiplication Snap“ (Brown, 1994 c) verschiedene Fähigkeiten demonstrieren. Jeder hatte einen Anteil an Spielkarten und legte abwechselnd eine Karte auf einen mittleren Stapel. Mein Verständnis der Absicht des Lehrers war, dass, wenn das Produkt von zwei aufeinanderfolgenden Karten im Bereich von zwanzig bis vierzig lag, die erste Person, die ""Schnapp"" sagte, den mittleren Stapel sammelte. Das Spiel endete, als einem Spieler die Karten ausgingen.";-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0726-9_6 65b6d05f3ebdbbb5d00c87cf1709b7fe;de;;;4.2.;;;Marginalität, Ethnizität und Strafe in der neoliberalen Stadt: Eine analytische Kartographie Zunächst möchte ich den Teilnehmern dieser Konferenz meinen herzlichen Dank aussprechen – es ist besser, dies gleich zu Beginn zu tun, da wir am Ende wahrscheinlich starke Meinungsverschiedenheiten haben werden. Es ist paradox, aber eines der Haupthindernisse für den Fortschritt der Sozialwissenschaften liegt heute in der sozialen und zeitlichen Organisation der Forschung mit dem unkontrollierten Eindringen von Zeitplänen, der Überlastung der Arbeit und der Vervielfachung von Missionen ohne eine entsprechende Ausweitung der Ressourcen, die für deren Durchführung benötigt werden. Es erklärt, dass wir kaum die konkreten Anreize oder auch nur die Zeit haben, uns hinzusetzen und die Arbeiten anderer Wissenschaftler gründlich zu lesen, auch diejenigen, die wir verdauen müssten, um mit unseren eigenen Fachgebieten Schritt zu halten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-22413-4_18 8dd4d15c443e46be8f6b2234aa6491d9;de;;;5.2.;;;Zellzyklusregulation durch Proteinkinasen und Phosphatasen Die beiden Hauptphasen des eukaryotischen Zellzyklus sind die S-Phase, wenn die DNA repliziert wird, und die M-Phase (Mitose), wenn die duplizierten Chromosomen auf die beiden Tochterzellen segregiert werden. S- und M-Phasen sind durch zwei sogenannte „Lücken“-Phasen G1 (vor S) bzw. G2 (vor M) getrennt. Nicht-proliferierende Zellen werden als in einem separaten Zustand, der als Go bezeichnet wird, betrachtet, von wo aus sie durch mitogene Stimulation zum Eintritt in den Zellzyklus veranlasst werden können. Der geordnete Ablauf des Zellzyklus ist entscheidend für die korrekte Weitergabe der Erbinformation an nachfolgende Zellgenerationen und damit für das Leben und die Entwicklung aller Organismen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-04645-6_2 532c557138eea355d323730f1722ba64;de;;;4.2.;;;Katastrophenwahrscheinlichkeit, optimale staatliche Ausgaben für Katastrophenvorsorge und -minderung und erwartetes Wirtschaftswachstum Mit der globalen Klimaerwärmung nehmen die Häufigkeit und der Verlust von Naturkatastrophen zu, was eine große Bedrohung für die nachhaltige Entwicklung der menschlichen Gesellschaft darstellt. Einer der wichtigsten Ansätze des Katastrophenmanagements ist die Verhütung von Katastrophen und die Reduzierung von Katastrophenschäden durch Staatsausgaben, jedoch war der optimale Anteil der Ausgaben für Katastrophenprävention und -minderung immer ein schwieriges Thema, das den Menschen Sorgen bereitet. Zunächst wurde in diesem Papier unter Berücksichtigung der Auswirkungen von Katastrophen auf das Humankapital ein Entscheidungsfindungsmodell für ansässige Hersteller und Regierungen erstellt, das die Wahrscheinlichkeit einer Katastrophe enthält, und dann den optimalen Anteil der Staatsausgaben für Katastrophenvorsorge und -reduzierung sowie die erwartete Wirtschaftswachstumsraten unter verschiedenen Bedingungen. Zweitens untersuchte diese Arbeit durch numerische Simulationsmethoden die Auswirkungen von Faktoren wie dem Koeffizienten der Risikoaversion und dem Elastizitätskoeffizienten der Substitution auf das optimale Verhältnis der Ausgaben für Katastrophenvorsorge und -reduzierung. Drittens verifizierte dieses Papier durch die konstante Elastizität der Sub-Situations-(CES)-Produktionsfunktion und die Kammregressionsmethode die Anwendbarkeit des vorgeschlagenen Modells mit den Daten der Ausgaben für Katastrophenprävention und -minderung der Provinz Hunan im Jahr 2014. Schließlich fasste dieses Papier zusammen die Forschungsergebnisse und unterbreiten entsprechende Politikvorschläge. Das in diesem Papier vorgeschlagene theoretische Modell bereichert die verwandten Forschungen der Katastrophenökonomie, und die Schlussfolgerungen der empirischen Analyse können den Regierungsstellen nützliche Referenzen für die Praxis der Katastrophenprävention und -minderung bieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1319-7_1 63ba42749708f7ca3af58cf0d098b482;de;;;4.2.;;;Die Bedeutung der Einbeziehung von Menschen mit Demenz in die Designforschung Mehrere Forscher und Designer haben versucht, Menschen mit Demenz in den Designforschungsprozess einzubeziehen. Dieser Beitrag befasst sich mit der Relevanz dieser Vorgehensweise. Es wird diskutiert, wie die Gesellschaft von der Einbeziehung von Menschen mit Demenz in den Gestaltungsprozess profitieren kann. Darüber hinaus wird untersucht, wie Menschen mit Demenz ein solches Engagement erleben (und wie relevant es für sie ist). Die Arbeit besteht aus theoretischen Reflexionen, ergänzt durch Erfahrungen aus einer Fallstudie und einem Bildungsmodul zu Design und Demenz. Der Beitrag endet mit konkreten Vorschlägen, wie die Relevanz durch die agonistischen Qualitäten von Design gesteigert werden kann und wie die Gestaltungsbeteiligung dazu beitragen kann, unerfüllte Bedürfnisse von Menschen mit Demenz zu erfüllen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-33540-3_1 a58cdc7732579bba6679caa79df7a8d3;de;;;4.2.;;;Entwicklung der Team-Kreativität basierend auf Exploitation und Exploration mit Netzwerkstruktur-Perspektiven Obwohl mehrere Forschungen zu Teamkreativität und organisatorischer Anpassung durch den Prozess der Ausbeutung und Exploration durchgeführt wurden, haben nur wenige versucht, die direkte Struktur der Ausbeutung und Exploration in Bezug auf die Netzwerkstruktur von Organisationen zu analysieren. Diese Forschung befasst sich mit der Frage, wie Teamkreativität durch die Wissensgenerierung von Explorations- und Explorationsprozessen mit einem Schwerpunkt auf der Netzwerkstruktur offenbart werden kann. Mehrere Netzwerkstrukturen wie Beziehungsstärke, Heterogenität und Wissensvielfalt werden berücksichtigt, um die Wissenserzeugungsstruktur direkt zu analysieren. Wir schlagen ein logisches Modell vor, das durch die Wissenserzeugungsfunktionen der Ausbeutung und Exploration definiert ist, und es wurden zeitabhängige Simulationen durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24267-0_34 b8dec474c688989a356f8355b1c1d555;de;;;4.2.;;;Achtung von Personen, Identität und Informationstechnologie In der IT-Ethik wird der Achtung von Personen überraschend wenig Aufmerksamkeit geschenkt, sei es als ethische Frage oder als Kernwert der IT-Ethik oder als konzeptionelles Instrument zur Diskussion ethischer Fragen der IT. Darin unterscheidet sich die IT-Ethik stark von einem anderen Feld der angewandten Ethik, der Bioethik, in der Respekt ein zentraler Wert und ein konzeptionelles Instrument ist. Dieser Beitrag argumentiert, dass es sinnvoll ist, über ethische Fragen im Zusammenhang mit Informationstechnologien nachzudenken, insbesondere, aber nicht ausschließlich, über Fragen der Identität und des Identitätsmanagements, explizit im Hinblick auf den Respekt vor Personen, die als Kernwert der IT-Ethik verstanden werden. Nachdem der Respekt gegenüber Personen erläutert wurde, identifiziert das Papier eine Reihe von Möglichkeiten, wie es wertvoll sein könnte, das Konzept des Respekts gegenüber Personen ausdrücklich in den Mittelpunkt sowohl der IT-Praxis als auch der IT-Ethik zu stellen, und untersucht dann einige der impliziten und problematischen Annahmen über Personen, ihre Identitäten und Respekt, die in das Design, die Implementierung und die Nutzung von Informationstechnologien eingebaut sind und in Diskussionen über die IT-Ethik als selbstverständlich angesehen werden. Die Diskussion schließt mit der Frage, wie bessere Vorstellungen von der Achtung von Personen in IT-Kontexten besser eingesetzt oder auf spezifische Identitätsfragen in IT-Kontexten besser zur Geltung gebracht werden können.;-;-;-;https://link.springer.com/article/10.1007/s10676-009-9188-8 8be02933312c32c0254ea99e7f80c101;de;;;4.2.;;;Präzise Nivellierung des sehr langen Qinling-Gebirgstunnels Der Qinling-Tunnel mit einer Länge von 18.488 km liegt an der Bahnstrecke von Xi’an (Provinz Shanxi) nach Ankan (Provinz Sichuan) inmitten des Qinling-Gebirges. Er ist der längste zweigleisige Eisenbahntunnel Chinas und belegt den dritten Platz weltweit. Der Durchbruchsfehler in vertikaler Richtung durch die Höhenkontrollvermessung ist konstruktionsbedingt auf 18 mm bei einer Durchstechfläche begrenzt. Da die Nivellierstrecke über 120 km lang ist und über zwei Berge in 2 800 m Höhe führen muss, sollte in der Bauphase eine präzise Nivellementierung erster Ordnung und eine genaue Schwerkraftmessung durchgeführt werden. In diesem Beitrag werden der Field-Leveling-Ansatz, die Anwendung neuer Technologien, einige Erfahrungen sowie die Büroberechnung mit abschließender Ergebnisanalyse vorgestellt. Durch sorgfältige Planung, Organisation und Beobachtung beträgt die Endgenauigkeit der vertikalen Differenz zwischen zwei Tunnelendpunkten nur 8 mm und bietet eine zuverlässige Vermessungsgarantie für diese großartige Tunneltechnik. Abschließend sei darauf hingewiesen, dass sich dieser vertikale Unterschied deutlich vom primären Messergebnis von bis zu 114 mm unterscheidet. Dies bedeutet, dass das primäre Ergebnis nicht genau genug ist.;-;-;-;https://link.springer.com/article/10.1007/BF02826808 a2af6b3a557e66f155dba37818496749;de;;;5.2.;;;Chaotische künstliche Bienenkolonien für die Clusteranalyse Ein neuer Ansatz basierend auf künstlichen Bienenvölkern (ABC) mit chaotischer Theorie wurde vorgeschlagen, um das Problem der partitionierten Cluster zu lösen. Wir untersuchen zunächst das Optimierungsmodell, das sowohl die Codierungsstrategie als auch das Varianzverhältniskriterium (VRC) umfasst. Zweitens wurde ein chaotischer ABC-Algorithmus basierend auf dem Rossler-Attraktor entwickelt. Experimente mit drei Arten von künstlichen Daten mit unterschiedlichem Überlappungsgrad zeigen alle, dass CABC sowohl dem genetischen Algorithmus (GA) als auch der kombinatorischen Partikelschwarmoptimierung (CPSO) in Bezug auf Robustheit und Rechenzeit überlegen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18129-0_33 d4e2cf51ca7ae2f859f597618c361f8f;de;;;5.2.;;;2D-PIV-Analyse von Schmerlebewegung und Strömungsfeld Die Antriebsmethoden des Wasserlebens sind das Ergebnis der Optimierung durch die Evolution und sind nützlich für das Design von Schwimmrobotern usw. Unter ihnen hat Schmerle eine einzigartige Antriebstechnik, sowohl beim Biegen ihres langen Körpers als auch beim Schütteln der Schwanzflosse. Unser Ziel der Forschung ist es, seinen Schwimmmechanismus durch Strömungsfeldanalyse zu klären. Zweidimensionale Bewegung und Strömung um ihn herum wurden experimentell durch Particle Image Velocimetry (PIV) visualisiert. Wirbel um eine Schmerle und die Wechselwirkungen zwischen dem Körper der Schmerle und dem umgebenden Wasser werden analysiert. Es erzeugt und wächst Wirbel, indem es seinen Körper biegt, drückt Wasser nach hinten, um eine abstoßende Kraft zu gewinnen, und es scheint, dass es sich durch Wirbel bewegt und gleichzeitig die Widerstandskraft verringert. Wenn ein Wirbel die Schwanzflosse erreicht, beschleunigt er beide Seiten des Wirbels, drückt das Wasser nach hinten und scheint unter Verwendung der Schwanzflosse Vortrieb zu gewinnen. Nach der Vorwärtsbewegung verlässt die Schmerle eine Wirbelstraße wie umgekehrte Karman-Wirbel, was bedeutet, dass die Schmerle an Vortrieb gewinnt.;-;-;-;https://link.springer.com/article/10.1007/BF03181778 0a561588edf22d537699bc0cb4898144;de;;;4.2.;;;Zwei Arten von Meinungsverschiedenheiten in Gruppendiskussionen japanischer Studenten In dieser Studie haben wir die Natur von Meinungsverschiedenheiten untersucht, die ein notwendiger Bestandteil einer guten Diskussion sind. Wir erhielten 27 Gruppendiskussionsszenen von japanischen Studenten, die auf zwei Arten bewertet wurden: Eindrucksbewertung und Rangfolge. Als Ergebnis der Faktorenanalyse für die Impression-Rating-Daten wurden fünf Faktoren extrahiert:;-;-;-;https://link.springer.com/article/10.1007/s10726-008-9152-8 a7186babf613c760bb9c607b9dc2ba34;de;;;4.2.;;;Anwendung von Fuzzy DEMATEL zur Entwicklung eines Ursache-Wirkungs-Modells der kommunalen Abfallwirtschaft in Metro Manila Die Bewertung der Siedlungsabfallwirtschaft (MSW) wird in der Regel subjektiv bewertet und qualitativ in sprachlichen Informationen beschrieben, es ist für Expertengruppen sehr schwierig, die Präferenzen mit genauen Zahlenwerten auszudrücken. Eine Expertengruppe für Siedlungsabfall wird konsultiert, um zu spiegeln, wie Regierungsbeamte zu einem Ursache-Wirkungs-Modell für das Siedlungsabfallmanagement in Metro Manila gelangen könnten. Eine kritische Frage in diesem Zusammenhang ist, wie die Expertengruppe die Kriterien für das Management von Siedlungsabfall bei Unsicherheit besser bewerten kann. Eine Ursache-Wirkungs-Modellentwicklung kann bei der Verarbeitung von Entscheidungsproblemen helfen. Das Decision Making Trial and Evaluation Laboratory (DEMATEL) kann nicht nur die Zusammenhänge zwischen Ursache und Wirkung von Kriterien in ein Modell überführen, sondern auch die inneren Abhängigkeiten innerhalb eines Kriteriensets handhaben. Die Nachbefragung wird weiter diskutiert und das Validitätsergebnis bewiesen.;-;-;-;https://link.springer.com/article/10.1007/s10661-008-0601-2 da20162aac80f6e5b623b9231d461846;de;;;4.2.;;;Wie man territoriale Netzwerke aufbaut: Kriterien für die Bewertung des Vernetzungspotenzials für eine lokale selbstnachhaltige Entwicklung Die Globalisierungsprozesse haben zu einer wesentlichen Veränderung der städtischen und territorialen Systeme und der Rolle jedes ihrer Teile geführt. Im Zeitalter des technologischen Wandels und der Wissensgesellschaft hat der Strukturwandel der Stadt als Folge der Reaktion der Territorien auf die globale Dynamik eine soziale und kulturelle Neuordnung in Gang gesetzt. Dies ist ein multidimensionales Phänomen, das die gesamte menschliche Dynamik im Zusammenhang mit dem freien Verkehr von Waren, Dienstleistungen, Kapital, Wissen und Menschen einbeziehen kann. Dieses Papier versucht zu verstehen, ob das Modell territorialer Netzwerke die Antwort auf die Probleme sein kann, die sich aus dem Territorium ergeben. Ziel ist es insbesondere zu verstehen, ob es möglich ist, die Potenziale des Territoriums, d. h. seine materiellen und immateriellen Ressourcen, zu bewerten und auf diesen territorialen Netzwerken aufzubauen, die in der Lage sind, Prozesse einer selbsttragenden lokalen Entwicklung zu aktivieren. Der erste Teil des Papiers versucht, die theoretische Verbindung zwischen retikulären Modellen, dem territorialen Kapital und der lokalen selbsttragenden Entwicklung zu untersuchen. Im zentralen Teil schlagen wir einen möglichen methodischen Ansatz für den Aufbau territorialer Netzwerke auf der Grundlage vorhandener Ressourcen und Potenziale vor. Im letzten Abschnitt wenden wir das theoretische Modell auf die Fallstudie des Bezirks Sibiu (Rumänien) an, um zu überprüfen, ob das Gebiet Valea Hartibaciului wirklich ein territoriales Netzwerk ist, dessen Identifizierungsmerkmale als Entwicklungsmöglichkeit gesehen werden können. Schließlich versuchen wir, die Grenzen des vorgeschlagenen Modells und die zukünftigen Berufsaussichten zu definieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09150-1_27 13f5ec946819094aef1322fbb6989154;de;;;4.2.;;;Agentenbasierte soziale Simulation zur Untersuchung des Auftretens von Pareto Principal in der menschlichen Gesellschaft Agentenbasierte Simulationen erhalten in den letzten Tagen mehr Aufmerksamkeit, um die sozialen Phänomene zu untersuchen. Diese Forschung konzentrierte sich auf das Pareto-Prinzip, das im Bereich der Wirtschaftswissenschaften weithin bekannt ist. Unsere Motivation ist es, den Grund zu untersuchen, warum das Pareto-Prinzip in der menschlichen Gesellschaft existiert. Wir schlugen ein Modell für die Mensch-Agenten- und Durchführungssimulation vor. Unser Simulationsergebnis konvergiert zum Pareto-Prinzip, das die Wirksamkeit unseres vorgeschlagenen Modells für menschliche Agenten rechtfertigt. Basierend auf den Simulationsergebnissen fanden wir heraus, dass aufgrund einiger Faktoren des menschlichen Charakters das Pareto-Prinzip in der menschlichen Gesellschaft auftrat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-00804-2_19 fe36b3b4c0bf2496b71444900450c7b6;de;;;4.2.;;;„e“ in Storyworlds nutzen: Engage, Enhance, Experience, Entertain Konversation ist der Schlüssel und da sich die Kommunikationslandschaft schnell verändert, ist die Nutzung von „e“ entscheidend, um die „Story“ im Zuge der digitalen Entwicklung zu erweitern und das Publizieren vom Analogen zum Digitalen zu katapultieren. Die Nutzung von „e“ ist eine spannende und effektive Möglichkeit, einen Mehrwert zu schaffen, aber für eine erfolgreiche und nahtlose Implementierung von „e“ ist mehr als eine standardmäßige „Roll-out“-Strategie erforderlich.;-;-;-;https://link.springer.com/article/10.1007/s12109-010-9161-8 2d442f11605d8402afdb7f83b85ae759;de;;;4.2.;;;Eine vergleichende Analyse der klein- und mittelständischen Industrieentwicklung in der Region Amhara, Äthiopien North Wollo ist eine von zehn Zonen des Amhara-Gebiets im Norden Äthiopiens mit Ressourcen und Versprechen eines möglicherweise extrem industrialisierten Staates. Diese Forschung misst den Stand der industriellen Entwicklung im Land und verbindet sie mit anderen Staaten des Landes. Vorhergehende Schätzungen und Ergebnisse wurden ebenfalls ausgewertet, da bestimmte Fälle bestehender kleiner und mittlerer Unternehmen (KMU) in der Landeshauptstadt Akure mit den vorgelegten Ergebnissen untersucht wurden, um die besonderen Schwierigkeiten zu ermitteln, die ihrem Erfolg und ihrer Rentabilität entgegenstehen. Als Probleme wurden mangelnde Verfügbarkeit von Kreditfazilitäten, ausreichende Infrastrukturen und schlechtes oder schwaches Management festgestellt. Bevölkerungsgröße von 500 Klein- und Mittelindustrielle Entwicklung in der Region North Wollo Amhara, Äthiopien. In welcher Forscherstudie die Stichprobe von 100 Befragten, für 14 Fragen von jedem Befragten. Zur besseren Analyse wurde die Likert-Skala verwendet. Der Alpha-Wert für die 14 Items beträgt 0,714, was bedeutet, dass die Elemente eine mäßig starke interne Konsistenz aufweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4080-0_67 850a8d4eb670e63d2a608cda3f0abe3a;de;;;4.2.;;;Beratung: Integration von Analyseergebnissen in Umweltentscheidungen unter Beteiligung mehrerer Interessengruppen Der Nationale Forschungsrat hat die Anwendung eines analytischen/deliberativen Entscheidungsprozesses bei Entscheidungen zur Umweltsanierung empfohlen, an denen mehrere Interessengruppen beteiligt sind. Diese Arbeit untersucht die Verwendung der Ergebnisse der Risikobewertung und der multiattributiven Nutzenanalyse (die „Analyse“) als Orientierungshilfe für die Beratung. Zu diesen Ergebnissen gehören die Rangfolge der vorgeschlagenen Abhilfemaßnahmen gemäß den Präferenzen der einzelnen Interessengruppen sowie die Identifizierung der Hauptgründe für diese Rangfolge. Die Präferenzen der Stakeholder gehen über eine Reihe von Leistungskennzahlen, die die traditionellen Risikobewertungsmetriken umfassen, z. B. das individuelle Arbeitnehmerrisiko sowie programmatische, kulturelle und kostenbezogene Auswirkungen. Basierend auf diesen Ergebnissen werden eine Reihe von Vorschlägen erarbeitet, die von den Interessengruppen während der Beratungen berücksichtigt werden. Diese Vorschläge sind der Ausgangspunkt für die Formulierung konkreter Empfehlungen durch die Gruppe. In unserer Fallstudie beinhalteten diese Empfehlungen neue Sanierungsalternativen, die von den Stakeholdern nach ausführlicher Diskussion der detaillierten Analyseergebnisse erarbeitet wurden.;-;-;-;https://link.springer.com/article/10.1023/B%3ARIAN.0000005936.45310.22 48e050c0c266187775f6fcff745d1fe1;de;;;5.2.;;;Ein optimaler Planungsalgorithmus für mehrere AGVs basierend auf der Partikelschwarmoptimierung Mit der zunehmenden Verwendung von AGV in industriellen Automatisierungssystemen ist es notwendig, einen vernünftigen Aufgabenverteilungsplan und eine optimierte Planung von AGV zu studieren, um einen effizienten Transport zu gewährleisten. Dieses Papier schlägt einen optimalen Planungsalgorithmus für mehrere AGV vor, der auf der Partikelschwarmoptimierung in einem intelligenten Lagersystem basiert. Basierend auf der Analyse des Betriebsmechanismus der FTS-Ausrüstung und der Dispositionsanforderungen der Lagerumgebung wird ein mathematisches Modell erstellt, um die Dispositionsstrategie zu optimieren. Der minimale Wert der Zielfunktion des Optimierungsproblems wird durch Verwendung des Partikelschwarm-Optimierungsalgorithmus erhalten, d. h. die Zeit, die das Multi-AGV benötigt, um die Transportaufgabe im festen Zyklus zu erledigen, ist am kürzesten. Durch die Kombination der Eigenschaften dieses Problems ist der Partikelschwarm-Optimierungsalgorithmus in der Lage, die Fähigkeit der globalen Suche zu verbessern und die Möglichkeit zu erhöhen, die optimale Planungsstrategie zu finden. Die Simulationsergebnisse zeigen, dass der vorgeschlagene Algorithmus die FTS-Wartezeit verkürzen und die Systembetriebseffizienz verbessern kann, was einen optimierten und praktischen Weg für die Multi-AGV-Planung im Lagersystem bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8083-3_47 7ad3a189a027dd24487f48361f88a162;de;;;4.2.;;;Dreidimensionale Komponenten der E-Business-Nachhaltigkeit E-Business-Modellierung ist heutzutage ein weit verbreiteter Begriff, da sie Technologie in wirtschaftlichen Wert umwandelt. Die Nachhaltigkeit des Geschäfts ist ein weiteres globales aktuelles Thema. Obwohl E-Business-Modellierung und Nachhaltigkeit derzeit die beiden großen globalen Trends sind, gibt es noch kein gemeinsames Verständnis über die Elemente, die für ein nachhaltiges E-Business-Modell verwendet werden müssen. Überraschenderweise berücksichtigt keiner der E-Business-Modellierungsansätze Nachhaltigkeit als ein wesentliches Element. In diesem Papier identifizieren und bestimmen wir daher nach ausführlicher Literaturrecherche zu E-Business-Modellierung und Nachhaltigkeit des Unternehmens sorgfältig die erforderlichen Elemente für ein nachhaltiges E-Business-Modell. Die Elemente sind dreidimensional und aus Kundenwertbereich, Geschäftswertbereich und Prozesswertbereich ausgewählt, sodass die Modellierungselemente die Interessen aller Stakeholder (Kunde, Unternehmen, Gesellschaft und Umwelt) wahren und gleichzeitig die Nachhaltigkeit wahren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44791-8_4 787d881aaac6a0487015374a7a8451ef;de;;;5.2.;;;Methode zur Unterwasserzielverfolgung basierend auf einem interagierenden Mehrfachmodell Entsprechend den Anforderungen an Echtzeitleistung und -zuverlässigkeit bei der Zielverfolgung unter Wassermanövern sowie zur Klärung von Bewegungsmerkmalen des Unterwasserziels wird ein interagierender Mehrfachmodellalgorithmus basierend auf Fuzzy-Logik-Inferenz (FIMM) vorgeschlagen. Manövriermuster des Ziels werden durch Modellsätze dargestellt, darunter das Konstantgeschwindigkeitsmodell (CA), das Singer-Modell und das Horizontaldrehungsmodell (HT) mit nahezu konstanter Geschwindigkeit in der FIMM-Technologie. Die Simulationsergebnisse zeigen, dass im Vergleich zu herkömmlichem IMM die Zuverlässigkeit und Echtzeitleistung der Unterwasserzielverfolgung durch den FIMM-Algorithmus verbessert werden kann.;-;-;-;https://link.springer.com/article/10.1007/s11806-008-0092-x 08093e41a9b51a9237ed6a465677f199;de;;;5.2.;;;Therapeutische Eigenschaften von Lektinen in pflanzlichen Nahrungsergänzungsmitteln Heilpflanzen beherbergen zahlreiche therapeutische niedermolekulare Phytochemikalien und Makromoleküle wie Polysaccharide und Proteine. Lektine sind Glykan-bindende Proteine, die in der Zelle und der extrazellulären Oberfläche aller lebenden Organismen allgegenwärtig sind. Pflanzenteile enthalten Lektine mit unterschiedlichen Glykanbindungsspezifitäten. Diese Übersicht hebt das Vorkommen von Lektinen in pflanzlichen Heilmitteln, ihre Persistenz und Bioaktivität hervor. Zu den Rollen von Lektinen in Pflanzen gehören Signalübertragung, Abwehr und Stressreaktionen. Art, Pflanzenteil, biotische und abiotische Faktoren beeinflussen die Art und Konzentration der Lektine. Viele Lektine widerstehen Verfahren der Zubereitung von Kräuterportionen, widerstehen dem Abbau im Verdauungskanal und dem Übergang in das Kreislaufsystem. Exogene Pflanzenlektine binden Glykane mit hoher Spezifität und rufen zelluläre Reaktionen hervor, die antimikrobielle, antitumorale und immunmodulierende Wirkungen umfassen. Einige Lektine sind schädlich für die normale Physiologie.;-;-;-;https://link.springer.com/article/10.1007/s11101-018-9572-2 c466b1c6377688e398019303596d2fcc;de;;;5.2.;;;Computergestützter Mikromagnetismus magnetischer Strukturen und Magnetisierungsprozesse in dünnen Plättchen und kleinen Partikeln Der mikromagnetische Hintergrund zur Untersuchung magnetischer Konfigurationen in dünnen Plättchen und kleinen Partikeln mittels der Finite-Elemente-Methode wird diskutiert. Es wird gezeigt, dass in dünnen rechteckigen Plättchen Konfigurationen hoher Remanenz und niedriger Remanenz existieren können.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0624-8_27 7b1cb4db8a42ed6feb4931030d6f5a6e;de;;;4.2.;;;Stimmungsanalyse in Twitter für Spanisch Dieses Paper beschreibt einen SVM-Ansatz zur Sentiment Analysis (SA) in Twitter für Spanisch. Diese Aufgabe war Teil des TASS2013-Workshops, einem Rahmen für SA, der sich auf die spanische Sprache konzentriert. Wir beschreiben den verwendeten Ansatz und präsentieren einen experimentellen Vergleich der Ansätze der verschiedenen Teams, die am Wettbewerb teilgenommen haben. Wir beschreiben auch die Verbesserungen, die nach unserer Teilnahme am Wettbewerb an unserem System hinzugefügt wurden. Mit diesen Verbesserungen erreichten wir eine Genauigkeit von 62,88 % und 70,25 % auf dem SA-Testset für;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07983-7_27 c1c40413aa7f8bb0c1b1ff9d33611186;de;;;4.2.;;;Ein gekoppelter Ansatz von natürlichen und menschlichen Systemen zur Biodiversität: Überlegungen von Sozialwissenschaftlern In diesem abschließenden Kapitel werden die wichtigsten Themen und Ergebnisse der vorangegangenen Kapitel diskutiert und kritisiert, die von verschiedenen Sozial- und Naturwissenschaftlern verfasst wurden. Wir positionieren die Themen und Erkenntnisse im Kontext der Biodiversität als große Herausforderung in den Umweltwissenschaften, wie sie vom US National Research Council identifiziert wurde. Wir zeigen unterschiedliche Grade der Auseinandersetzung mit den Themen: (1) Fortschritte beim Verständnis von Biogeographie, Artbildung und Aussterben, (2) Fortschritte beim Verständnis der Interaktion von Biodiversität und Ökosystemfunktionen, (3) neue und verbesserte Instrumente, (4) Fortschritte in Naturschutzwissenschaften und (5) Integration der Ökologie mit den Sozialwissenschaften. In den Kapiteln des Bandes ist ein aufkommendes integratives Paradigma unter Sozial- und Ökologiewissenschaftlern zu erkennen, das Biodiversität und Naturschutzwissenschaften mit Hilfe von Geodaten und anderen Techniken untersucht. Wir argumentieren, dass diese Bemühungen von einer noch stärkeren Kopplung zwischen Sozial- und Umweltwissenschaftlern profitieren können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16707-2_12 1bfb887a6668b6f9e261bd10cf96a5bc;de;;;4.2.;;;Wertbewertung und Analyse von Raummerkmalen auf dem linearen Kulturerbe-Korridor Ancient Puer Tea Horse Road Die alte Puer-Teepferdestraße ist einer der bedeutenden Knotenpunkte der alten Teepferdestraße Yunnan-Tibet. Nun haben wir mittels Standorterkundung und GIS-Informationstechnologie mit Hilfe des analytischen Hierarchieverfahrens (AHP) die Wertbewertung und -klassifizierung und mit GIS-Software in Kombination mit dem angrenzenden Indexmodell die Analyse von Raummerkmalen durchgeführt. Die wichtigsten Ergebnisse sind: Wir haben die Ressourcenzusammensetzung und Wertermittlung des linearen Kulturerbekorridors abgeschlossen. Und haben die Identifizierung und Anmeldung des Erbes bestimmt und die Analyse der räumlichen Merkmale des Erbes abgeschlossen. Die räumliche Verteilung des Kulturerbes weist zwei typische Merkmale auf: Zwischen den Denkmalpunkten ist der räumliche Agglomerationsgrad hoch und es gibt erhebliche Gehaltsunterschiede. Die Entfernung zwischen dem Denkmalpunkt und der alten Straße innerhalb von 10 km beträgt 80 % der Anzahl der Denkmale und bildet die Grundlage für die Breite des Schutzkorridors.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-49155-3_75 2a26334f3afecc5d1906ef68820bf832;de;;;4.2.;;;Studie zur Nutzung, Privatsphäre und Abhängigkeit von sozialen Netzwerken durch Studenten der ecuadorianischen Universitäten Universitäten haben Bedenken über die zunehmende Nutzung sozialer Netzwerke durch ihre Studenten geäußert, da sie immer mehr Zeit damit verbringen als mit ihrer eigenen Hochschule. Der Zweck dieses Papiers besteht darin, die Ergebnisse der Analyse zur verstärkten Nutzung sozialer Netzwerke und insbesondere in Bezug auf die Erfahrungen mit Sicherheit und Datenschutz vorzustellen. Dies ermöglicht es uns, den Grad der extremen Abhängigkeit von seiner Verwendung zu bestimmen. Um diese Forschung zu betreiben, haben wir eine Reihe von Umfragen entworfen, die mit Studenten zweier ecuadorianischer Universitäten durchgeführt wurden. Die Daten wurden tabellarisch und statistisch berechnet, so dass wir die Hauptnutzungen in sozialen Netzwerken erkennen und im Rahmen dieser Ergebnisse einige Empfehlungen geben können, die eine effizientere und sicherere Nutzung dieser Dienste ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48024-4_10 269ba9b13d75c14e8f93edc37bb02c41;de;;;4.2.;;;Kulturelle Einrichtungen in Boliviens geschlechtsspezifischer Umwelt Dieser Beitrag nähert sich dem kulturellen Körper als dynamischem Interaktionsnexus zwischen biophysikalischen Faktoren und unterschiedlichen sozialen Umgebungen in Bolivien. Die Diskussion entwickelt Erkenntnisse aus vier aktuellen Studien, die die Überzeugungen, Praktiken und Beziehungen untersuchen, die der Sexualität und der reproduktiven Gesundheit in Bolivien Form und Bedeutung verleihen. Visionen und Stimmen von Frauen und Männern mit unterschiedlichen Sexualitäten und Identitäten werfen ein kritisches Licht auf eine Reihe gängiger theoretischer Annahmen über Gender.;-;-;-;https://link.springer.com/article/10.1023/A%3A1010172528390 1c055137660e45fe94b3b19c1d90a7c3;de;;;4.2.;;;Risikomanagement von Grundwasserverschmutzung, Nachhaltigkeit und Lebensqualität: Die Lücke zwischen Theorie und Praxis in einer Zwischenstadt des globalen Südens (Mar Del Plata, Argentinien) Innerhalb der vielfältigen Ansätze zum Konzept der Lebensqualität ist der Zugang zu sauberem Wasser direkt oder indirekt Teil der Variablen, die seine Komponenten definieren. Dieser Zugang zu sauberem Wasser bringt jedoch die ökologischen, soziokulturellen, politischen und wirtschaftlichen Dimensionen der Nachhaltigkeit ins Spiel. Daher zielt dieses Kapitel darauf ab, die Beziehung zwischen Nachhaltigkeit und Lebensqualität aus der Perspektive des Grundwasserverschmutzungsrisikomanagements zu analysieren und die Politik („was es sein sollte“) mit der Praxis („was es wirklich ist“) in jeder Phase der Grundwasserverschmutzung zu vergleichen Risikomanagementprozess (Bewertungs-, Vorhersage-, Präventions- und Warnsystem) sowie Vorschlagen von Anpassungsmaßnahmen für den Studienfall einer Zwischenstadt des Globalen Südens. Mar del Plata ist eine Zwischenstadt des Globalen Südens, in der Grundwasser die einzige Wasserversorgungsquelle ist. Die Stadt stellt ein beträchtliches peri-urbanes Gebiet dar, in dem mehrere Landnutzungen entwickelt wurden. Diese Entwicklung erhöht das Auftreten von Verschmutzungsprozessen, da der Großteil dieses Gebiets keine Wasser- und Abwassersysteme aufweist. Daher wurde der politische Aspekt anhand internationaler und nationaler Richtlinien und Gesetze überprüft, während die Praxis aus halbstrukturierten Interviews gewonnen wurde. Die Hauptgründe, die die Kluft zwischen Politik und Praxis erklären, hängen mit politischen, administrativen, Informations-, Finanzierungs- und Rechenschaftsfaktoren zusammen. Daher wurden Anpassungsmaßnahmen für das Untersuchungsgebiet vorgeschlagen, um diese Lücken zu schließen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-50540-0_16 5a2ad15d4884d4858bf1f80fb1bd76c4;de;;;4.2.;;;Multi-Kernel-Kollaborations-induzierte Fuzzy Local Information C-Means-Algorithmus für die Bildsegmentierung Als ein fortschrittliches Verfahren auf dem Gebiet der Bildsegmentierung weist der Fuzzy-Local-Information-C-Means-(FLICM)-Algorithmus das Problem auf, welche Segmentierungsleistung verschlechtert wird, wenn benachbarte Pixel verschmutzt sind, und er ist für das Clustern von nichtlinearen Daten unvollkommen. Konzentriert auf diese Punkte wird der durch Multi-Kernel Collaboration-induzierte Fuzzy Local Information C-Means (MCFLICM)-Algorithmus vorgestellt. Zunächst wird das Konzept der Multi-Kernel-Kollaboration in die Bildsegmentierung eingeführt und die euklidische Distanz des ursprünglichen Raums wird durch mehrere Kernel-induzierte Distanzen ersetzt, die sich aus mehreren Kernen in unterschiedlichen Proportionen zusammensetzen. Darüber hinaus wird ein neuer Fuzzy-Faktor im Hinblick auf Pixelmittelwerte und lokale Informationen vorgeschlagen, um die Rauschunempfindlichkeit zu erhöhen. Schließlich werden die Multi-Kernel-Kollaboration und der neue Fuzzy-Faktor synthetisiert, und dann wird der MCFLICM-Algorithmus vorgestellt. MCFLICM kann die Anforderungen verschiedener Datenpunkte für Kernelfunktionen im iterativen Verfahren automatisch anpassen und kann die Unsicherheit der Auswahl der Kernelfunktion durch die gewöhnlichen Kernelalgorithmen vermeiden. Diese Vorteile erhöhen die Robustheit des Algorithmus. Darüber hinaus hat MCFLICM eine stärkere Entrauschungsleistung, um die Fähigkeit zu verbessern, die ursprünglichen Bilddetails beizubehalten. Durch den Vergleich von Experimenten mit sieben verwandten Algorithmen wurde festgestellt, dass die Segmentierungsleistung von MCFLICM in binärem Bild, dreiwertigem Bild und natürlichem Bild anderen Algorithmen überlegen ist und die besten Ergebnisse von MCFLICM aus Sicht der visuellen Effekte und der Bewertung erzielt werden Indizes.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3044-5_32 b7321f049789536fd5f71794ac306e54;de;;;5.2.;;;Die räumlichen Eigenschaften einer Linie und ihre Anwendung auf die Linienvereinfachung In diesem Artikel wird das räumliche Wissen in Bezug auf eine Linie diskutiert und die charakteristischen Punkte von Linien werden erkannt. Entsprechend den Anforderungen der Linienverallgemeinerung werden neue Algorithmen zur Erkennung von charakteristischen Linienpunkten vorgestellt. Diese charakteristischen Punkte werden verwendet, um die Algorithmen der Linienverallgemeinerung zu verbessern. Ein Algorithmus zum Identifizieren von Biegungen wird gezeigt. In diesem Beitrag werden verbesserte Algorithmen gezeigt, die auf denen von Douglas-Peucker, Visvalingam und Whyatt basieren. In diesem Test wird der fortschreitende Prozess der Linienverallgemeinerung betont.;-;-;-;https://link.springer.com/article/10.1007/BF02863496 24d5133c13d53b620e11bc0a432d98b9;de;;;4.2.;;;Autonomie bei körperlich gebrechlichen älteren Menschen in Pflegeheimen: ein Studienprotokoll für eine Interventionsstudie Es ist anerkannt, dass die Erfahrung von Autonomie Gesundheit und Wohlbefinden für alle Altersgruppen fördert. Es wurde festgestellt, dass ein wahrgenommener Mangel an Kontrolle die körperliche und geistige Gesundheit beeinträchtigt. Es fehlt an evidenzbasiertem Wissen darüber, wie gebrechliche ältere Menschen in Pflegeheimen selbst Autonomie im Alltag wahrnehmen. Darüber hinaus liegen keine Studien vor, inwieweit diese Wahrnehmung durch die Teilnahme an einem individuell zugeschnittenen Programm nach den eigenen Wünschen der Bewohnerinnen und Bewohner für die täglichen Aktivitäten positiv beeinflusst werden kann.;-;-;-;https://link.springer.com/article/10.1186/1471-2318-8-32 9a766769cb5f2852023f216a54e985ef;de;;;4.2.;;;Was ist Strategie? Strategie ist das Muster von Entscheidungen, die die langfristige Ausrichtung einer Organisation vorgeben. Für eine Universität leitet und koordiniert sie ihre Haupttätigkeiten in Forschung, Lehre und Engagement mit der Gesellschaft und der Industrie. Der hier beschriebene Strategierahmen hebt die Rollen von Vision, Zielen, Betrieb, Geschäftsmodell und Organisationsdesign hervor. All diese Elemente müssen vorhanden und aufeinander abgestimmt sein, damit die Strategie umfassend und kohärent ist. Die meisten Hochschulstrategien enthalten jedoch nur einige dieser Elemente. Vision und Ziele werden überbetont und das Geschäftsmodell der Institution kaum erwähnt. Als solche sind sie mangelhaft.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3397-6_4 05177140f9e9a4087952da68c46f1482;de;;;4.2.;;;Lernstilmodell für E-Learning-Systeme E-Learning ist die Nutzung digitaler Geräte und Netzwerke, um den Lernenden Fähigkeiten und Wissen zu vermitteln. E-Learning-Anwendungen und -Tools umfassen aktive Medien, Multimedia, webbasiertes Lernen, computerbasiertes Lernen, virtuelle Bildungstools usw. In solch einer reichhaltigen Lernumgebung benötigen die Lernenden eine Methode, um einen klaren Lernpfad festzulegen, der ihren Lernpräferenzen entspricht. Als Grundlage für solche Methoden kann das Lernstilmodell dienen. In diesem Papier untersuchen und implementieren wir ein webbasiertes Lernstilmodell, das Lernenden helfen kann, einen Lernpfad in einem E-Learning-System zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35236-2_19 3e6146130879eb14cc3a68e23f863c51;de;;;4.2.;;;Ein agentenbasiertes Framework für die interorganisationale Zusammenarbeit: OperA+ Die Zusammenarbeit zwischen Organisationen findet häufig in komplexen, dynamischen und unvorhersehbaren Umgebungen statt. Regulierungsstrukturen sollten explizit und unabhängig von den agierenden Komponenten auf unterschiedlichen Abstraktionsebenen abgebildet werden, damit Stakeholder das Gesamtsetup analysieren und über ihre Beteiligung entscheiden können. Dieses Papier schlägt einen Rahmen für die Beschreibung von Kooperationsbeziehungen in interorganisationalen Partnerschaften vor. Das Framework basiert auf dem OperA-Modell für Multi-Agenten-Organisationen und bietet eine Spezifikationsdimension, die beschreibt, welche Ziele aus Sicht des Designers basierend auf dem Konzept der Organisation, Rolle und Rollenabhängigkeit erreicht werden sollen, und eine Enactment-Dimension, die die Agenten und ihre Rollenerzwingende Beziehungen, um zu beschreiben, wer welche Ziele aus einer Implementierungsperspektive erreicht. Die Übernahme von zusammengesetzten Rollen und zusammengesetzten Agenten ermöglicht eine Modellierung verschachtelter Organisationen, die eine geeignete Möglichkeit bietet, interorganisationale Interaktionen zu verwalten/zu regulieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35545-5_4 8403870ee739d519812461b1938e235f;de;;;4.2.;;;Rund um Spiel- und Interaktionsdesignforschung Der Beitrag präsentiert eine fakultätsübergreifende Erfahrung, die aus dem gemeinsamen Interesse von Forschern und Designern an spielerischen Interaktionen zwischen Menschen und Schnittstellen resultiert. Die neuen Territorien, die das Spiel und die Ambient Intelligence (AmI)-Paradigmen in alltäglichen Kommunikationsschnittstellen abbilden, sind eine Veränderung in der Art und Weise, wie Design neue Funktionen und Bedeutungen einbezieht. Design selbst ist zu einer Möglichkeit geworden, mit Artefakten, komplexen Systemen und Netzwerken zu spielen. Über den formalen und ästhetischen Einsatz von Spielen hinaus ist es möglich, unterschiedliche Kompetenzen zusammenzubringen, um über die Befragung von Spiel- und Spielelementen bei der Gestaltung von Alltagsräumen, Objekten und Aktivitäten zu reflektieren. Es stellt sich die Frage, wie das Spielparadigma die Beziehung zwischen Mensch und Umgebung und damit die Fragestellungen des Interaction Design im Studienbereich AmI verbessern kann. In diesem Beitrag stellen wir unsere Initiative zum Aufbau einer multidisziplinären Designgruppe vor. Aus unserer Synergie wurden drei besondere Bereiche als neue Designsektoren identifiziert, in denen Spiele in die Umgebungen von Personen eingebunden sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31479-7_37 fa579bf72aee4d16ad62fca674265f78;de;;;4.2.;;;Beschleunigte Produktion und Identifizierung von fruchtbaren, homozygoten transgenen Weizenlinien durch Antherenkultur Antherenkultur wurde in der Winterweizensorte Florida entwickelt, um eine beschleunigte Produktion und Identifizierung von homozygoten transgenen Linien zu erreichen. Bei nicht transformierten, aus Samen gewonnenen Pflanzen zur Entwicklung des Kultursystems wurde gezeigt, dass eine kalte Vorbehandlung von aus Spenderpflanzen herausgeschnittenen Ähren und die Zugabe von 2,4-Dichlorphenoxyessigsäure zusammen mit entweder Kinetin oder 6-Benzylaminopurin in das Kallus-Induktionsmedium verbessert improve die Antherenkulturantwort. Das entwickelte Verfahren ermöglichte die Produktion von fruchtbaren homozygoten Linien innerhalb von 8–9 Monaten, einschließlich einer 8-wöchigen Vernalisationsphase. Mit transgenen Weizenpflanzen, die durch Partikelbombardierung als Spender produziert wurden, zeigen wir, dass das System verwendet werden kann, um homozygote transgene Pflanzen zu produzieren, die einen Generationszyklus erfordern. Beide T;-;-;-;https://link.springer.com/article/10.1023/A%3A1011308916226 1addd2a4f133f8c74ae2c693fec4a383;de;;;5.2.;;;Auswirkungen von Aufmerksamkeitssatz und rhythmischer Komplexität auf die Teilnahme Bei einer Zielerkennungsaufgabe mit anhaltender Aufmerksamkeitsüberwachung wurde festgestellt, dass rhythmische Eigenschaften von Tonfolgen die Erkennungsleistung (Bereich unter den Betriebskennlinien des Empfängers) und die Reaktionszeiten beeinflussen. Abwechselnde Tonfrequenzen (hoch, tief) bildeten drei verschiedene wiederkehrende Rhythmen (binär, trinär, gemischt) mit unterschiedlicher Komplexität. Der Aufmerksamkeitssatz wurde auch so manipuliert, dass die Teilnehmer entweder auf Töne beider Frequenzen (geteilt) oder nur auf den höheren der beiden Töne (selektiv) achteten. Das interessanteste Ergebnis war eine Interaktion zwischen Aufmerksamkeitssatz und Rhythmus, was darauf hindeutet, dass die selektive Betreuung durch den komplexesten (gemischten) Rhythmus verbessert wird, während die geteilte Betreuung mit dem einfachsten Rhythmus (binär) am besten ist. Die Ergebnisse werden im Sinne einer Theorie der dynamischen Teilnahme diskutiert, bei der davon ausgegangen wird, dass Hörer aktiv Anwesenheitsoszillatoren verwenden, um die Anwesenheit zu lenken.;-;-;-;https://link.springer.com/article/10.3758/BF03205473 8a96631de4478e094155e9c765bbcac9;de;;;5.2.;;;Nicht umfassender Zugang zu Quark-Materie Wir überprüfen die Idee, nicht umfangreiche stationäre Verteilungen basierend auf abstrakten Zusammensetzungsregeln der Subsystemenergien, insbesondere der Partonkaskadenmethode, unter Verwendung einer Boltzmann-Gleichung mit relativistischer Kinematik und modifizierten Zweikörperenergiezusammensetzungsregeln zu erzeugen. Das thermodynamische Verhalten solcher Modellsysteme wird untersucht. Als Anwendung werden hadronische Spektren mit Potenzgesetzschweifen im Rahmen eines Quark-Koaleszenzmodells analysiert.;-;-;-;https://link.springer.com/article/10.1140/epja/i2009-10806-6 726c62bc346f76f02bc3d8d8b5fa96f0;de;;;5.2.;;;Viroide: Strukturbildung und Funktion Unter den Nukleinsäuren haben die einzelsträngigen RNA-Moleküle das höchste Potenzial, verschiedenste Strukturen zu bilden und ganz unterschiedliche Strukturübergänge einzugehen. Die Bestimmung ihrer Struktur und ihrer strukturellen Übergänge ist eine Voraussetzung für das Verständnis ihrer Funktion bei Replikation, Transkription, Translation und Regulation. In vielen Fällen ist das Problem der RNA-Struktur besonders schwierig, da neben der Sekundärstruktur, die durch Watson-Crick-Basenpaare und möglicherweise Wobble-Basenpaare gebildet wird, eine komplizierte Tertiärstruktur existiert, die nicht durch einige wenige Prototypen von Wechselwirkungen beschrieben werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-5173-3_26 c6d7b18a9156711557088b54e5f685ec;de;;;5.2.;;;Anwendung von Kortikosteroiden bei schwerkranken Patienten Neben der primären und sekundären Nebennierenrindeninsuffizienz profitieren viele Erkrankungen aufgrund ihrer entzündungshemmenden und immunsuppressiven Wirkung von der Anwendung von Kortikosteroiden. An der Unterdrückung der Entzündung durch die Glukokortikoide sind mehrere Mechanismen beteiligt, und viele müssen noch aufgeklärt werden. Glukokortikoide hemmen die Rekrutierung von Leukozyten und Monozyten-Makrophagen in betroffene Bereiche und die Synthese einer Vielzahl von chemotaktischen Substanzen und anderen Faktoren, die eine erhöhte Kapillarpermeabilität, Vasodilatation und Kontraktion verschiedener nicht-vaskulärer glatter Muskeln vermitteln. Alle natürlichen und synthetischen Glukokortikoide wirken durch die Bindung eines spezifischen zytoplasmatischen Glukokortikoidrezeptors. Der komplexe Glucocorticoid-Rezeptor hat die Fähigkeit, in den Zellkern einzudringen und spezifische DNA-Stellen zu binden und die Transkription von Glucocorticoid-regulierten Genen zu kontrollieren. Derzeit umfasst die Liste der Substanzen, deren Synthese oder Freisetzung durch Glukokortikoide gehemmt wird, Arachidonsäure und ihre Metaboliten (Prostaglandine und Leukotriene), den Thrombozytenaktivierungsfaktor (PAF), den Stickoxidweg, den Tumornekrosefaktor (TNF) und viele Interleukine. Glukokortikoide können somit die Synthese oder Freisetzung von Substanzen steuern, die an der Entstehung und Entwicklung von Entzündungen beteiligt sind [1–7].;-;-;-;https://link.springer.com/chapter/10.1007/978-88-470-2286-7_56 570d64e5cd26c9145e9efc5eceeab299;de;;;5.2.;;;Der Soundtrack nach dem Faschismus: Das neorealistische Spiel ohne Ton Der Rechtsapparat des faschistischen Regimes, der die sprachliche und kulturelle Autarkie der Nation sicherstellt, beeinflusst auf komplexe und belastbare Weise das Format nicht nur ausländischer, sondern auch inländischer Filme. Die Produktions- und Reproduktionsweisen des Soundtracks durch die Einführung und Normalisierung der Technik der Nachsynchronisation charakterisieren das italienische Kino sowohl während der faschistischen Zeit als auch nach seinem Untergang.;-;-;-;https://link.springer.com/chapter/10.1057/9781137387714_5 26c5246553ad6896bd89e0bbcbe55e82;de;;;5.2.;;;Entwurf von Approximationsschemata für stochastische Optimierungsprobleme, insbesondere für stochastische Programme mit Rekurs Es werden verschiedene Approximationsschemata für stochastische Optimierungsprobleme untersucht, die entweder Approximationen der Wahrscheinlichkeitsmaße und/oder Approximationen des Zielfunktionals beinhalten. Wir diskutieren deren mögliche Umsetzung im Rahmen allgemeiner Verfahren zur Lösung stochastischer Programme mit Rückgriff.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0121114 4de843685324754d880b1c3bf6981739;de;;;5.2.;;;Messung der Qualität klinischer Veterinärdienstleistungen für Rinder: eine Anwendung eines Rollenspielexperiments im ländlichen Uganda Die Dominanz der Veterinärsachverständigen auf den Tiergesundheitsmärkten wurde mit dem Rückgang der Qualität der Veterinärdienstleistungen in Verbindung gebracht. In dieser Studie wird in einem Rollenspiel-Experiment analysiert, wie das Zusammenspiel von Landwirten und Dienstleistern die Qualität und die Nachfrage nach klinischen Dienstleistungen für Rinder beeinflusst. Die Qualität der klinischen Dienstleistungen wurde gemessen, indem die Genauigkeit der Verschreibung des geeigneten Arzneimittels für ausgewählte Rinderkrankheiten durch den Leistungserbringer bewertet wurde.;-;-;-;https://link.springer.com/article/10.1186/1756-0500-7-894 5ab3157fe131ff2ec79cffb5d72627ab;de;;;5.2.;;;Über Fairness in einem Wechselangebots-Verhandlungsmodell mit Evolutionären Agenten Die Entstehung von Agenten, die faire Strategien spielen, wird in einem einfachen Verhandlungsmodell untersucht. Die von den Agenten gespielten Strategien werden durch evolutionäre Algorithmen konstruiert. Agenten machen sich gegenseitig Angebote, die mögliche Wege beschreiben, eine bestimmte Ware zu teilen, bis ein Angebot angenommen wird. Finite-Horizon-Verhandlungsmodelle geben dem ersten oder letzten Teil, der ein Angebot unterbreitet, einen Vorteil, abhängig vom Rabattfaktor, den die Spieler bei jeder Transaktion erhalten. Durch die Einführung von Unsicherheit bezüglich der Spielreihenfolge, d. h. wer die ersten oder letzten Angebote macht, zeigen experimentelle Ergebnisse, dass evolutionäre Agenten gierige Strategien aufgeben, die versuchen, die gesamte Ware ohne Teilen zu erhalten, für solche, die zu gerechteren Aufteilungen der Ware führen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44637-0_5 8182512276acdd15bb059860dd44fcec;de;;;4.2.;;;E-Demokratie, E-Contestation und der Monitorial Citizen* Es wird argumentiert, dass Pettits Konzept der „kontestatorischen Demokratie“ der deliberativen, direkten und epistemischen Demokratie überlegen ist. Die Stärken und Schwächen dieser Konzepte werden anhand der Arbeit von u.a. Bruce Bimber diskutiert. Es wird weiter argumentiert, dass „Wettstreit“ und „Information“ hochrelevante Begriffe sind, wenn man über eine gerechte, tragfähige und nachhaltige Gestaltung der E-Demokratie nachdenkt.;-;-;-;https://link.springer.com/article/10.1007/s10676-005-4581-4 fe49ad7f656d9a8f571ba33a0f9cf1b8;de;;;5.2.;;;Aufgabenzentrierte Anpassung geografischer Informationen zur Unterstützung des Katastrophenmanagements Die Fähigkeit einer Behörde oder Gruppe von Behörden, Katastrophen zu bewältigen, anstatt nur auf Krisen zu reagieren, hängt entscheidend von der sofortigen Verfügbarkeit und dem Fluss von geografischen Informationen an die Einsatzkräfte vor Ort zur Entscheidungsunterstützung ab. Solche Informationen können den Standort von Notfallmanagementeinrichtungen, den Zustand der Transportwege, das Vorhandensein von Bevölkerungszentren, die Anfälligkeit von Umwelt- und Lebensraumzonen, Szenario- und Simulationsmodelle usw. umfassen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-27468-5_70 9ceaafe605a6492ef78a1ec3679b33de;de;;;5.2.;;;Optimistische Schritte Was ist Kalkül? Es ist die Untersuchung des Zusammenspiels zwischen einer Funktion und ihrer Ableitung. Dieses Zusammenspiel hat einige Aspekte, von denen einige überraschen mögen. In diesem Kapitel werden wir mehr über die Verwendung von Ableitungen bei der Lösung von Optimierungsproblemen erfahren. Um dies effizient zu tun, konzentriert sich der Hauptteil des Kapitels auf die Entwicklung von Shortcut-Regeln zum Finden von Ableitungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-1658-2_5 06fac41a2ced0d61b70ec8669900c864;de;;;5.2.;;;Das Real-World-Computing-Programm Das Real World Computing Program (RWC) ist ein nationales Forschungsprogramm, das vom japanischen Ministerium für Internationalen Handel und Industrie (MITI) mit einem Budget von 500 Millionen US-Dollar für 10 Jahre (1992–2001) finanziert wird. Das übergeordnete technische Ziel des RWC ist die Entwicklung flexibler und fortschrittlicher Informationstechnologien, die in der Lage sind, eine Vielzahl unterschiedlicher Informationen (wie Bilder, Sprache, Texte usw.) zu verarbeiten. Der RWC betont Technologien, die der Flexibilität menschlicher Informationsverarbeitungsfähigkeiten entsprechen, wie Mustererkennung, Umgang mit unvollständigen Informationen, Lernen und Selbstorganisation, die sich alle in der Art und Weise manifestieren, wie Menschen Probleme in der realen Welt lösen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-0273-5_1 8c02ddfc168926e345cd09ee6a4c6a0c;de;;;5.2.;;;Bedingte Bewertung in der Praxis Bei der bedingten Bewertung handelt es sich um eine auf Umfragen basierende Methode zur Ermittlung der Werte, die Menschen auf Waren, Dienstleistungen und Annehmlichkeiten legen. Die erste kontingente Bewertungsstudie wurde von Davis (1963) durchgeführt, um den Wert der Großwildjagd in Maine zu schätzen. Ein Jahrzehnt später wendeten Hammack und Brown (1974) die kontingente Bewertung auf die Bewertung der Wasservogeljagd an. Gleichzeitig stellte eine Anwendung zur Bewertung der Sichtbarkeit in der Four Corners-Region des Südwestens einen Wendepunkt dar, nach dem die bedingte Bewertung als Methode zur Schätzung des Hicks'schen Überschusses für öffentliche Güter anerkannt wurde (Randall, Ives und Eastman 1974). Die bedingte Bewertung hat eine erhebliche Lücke geschlossen, indem sie eine Möglichkeit zur Schätzung von Werten bietet, wenn keine Märkte existieren und Methoden der Offenlegung von Präferenzen nicht anwendbar sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-0826-6_5 eec3930c44cb5423b55690fffe6ac00e;de;;;5.2.;;;Aspekte der menschlichen Chronopathologie Oftmals ist bei einer Einzelperson oder einer Gruppe von Patienten die Manifestation der Krankheit oder die Verschlimmerung der Symptome vorhersehbar und zeigt Zeitabhängigkeiten (Chronopathologien) über 24-Stunden-, 1-Monats- und 1-Jahres-Zeiträume. Chronopathologie kann auch Veränderungen in der zeitlichen Struktur biologischer Funktionen umfassen, die durch Unterschiede in der Periode, Akrophase, Mesor und/oder Amplitude quantifizierbar sind, die einer Änderung des Gesundheitszustands vorausgehen, folgen oder damit zusammenfallen. Während das Hauptaugenmerk der meisten Untersuchungen auf der Begründung von Periodizitäten beim Auftreten von Symptomen oder morbiden Ereignissen lag, muss die Untersuchung von Veränderungen der zeitlichen Struktur des Körpers im Zusammenhang mit dem Beginn einer Erkrankung noch intensiv vorangetrieben werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-9496-9_5 210c075fa5b495f83aad3898bdd120a1;de;;;5.2.;;;Modell und Algorithmus für Multi-Follower Tri-Level hierarchische Entscheidungsfindung Die Entscheidungsfindung auf drei Ebenen befasst sich mit Kompromissen zwischen interagierenden Entscheidungsentitäten, die über eine dreistufige Hierarchie verteilt sind. Entscheidungsentitäten auf den drei hierarchischen Ebenen werden jeweils als der Top-Level-Führer, der Middle-Level-Follower und der Bottom-Level-Follower bezeichnet. Wenn mehrere Follower auf der mittleren und unteren Ebene beteiligt sind, wird die Entscheidung des Leaders nicht nur von den Reaktionen der Follower, sondern auch von verschiedenen Beziehungen zwischen ihnen beeinflusst. Um einen solchen Multi-Follower Tri-Level (MFTL)-Entscheidungsprozess zu unterstützen, schlägt diese Studie zunächst ein allgemeines MFTL-Entscheidungsmodell für die Situation vor, die sowohl kooperative als auch unkooperative Beziehungen zwischen mehreren Followern beinhaltet. Es entwickelt dann eine MFTL;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12643-2_49 0d59f4c7d4a3da1fbe9faa63d8521f89;de;;;5.2.;;;Regulierung und Verwaltung des öffentlichen Sektors Durch die Privatisierung und die Einführung von Marktdisziplinen in die Regierung hat das Thatcher-Regime eine ganze Reihe neuer Regulierungsbehörden benötigt und versorgt. Der Zweck dieses Kapitels ist es, einige Ideen über die soziale Rolle solcher Agenturen zu untersuchen und den Einsatz von Marktkräften bei der Bereitstellung von Bildungs- und Gesundheitsdiensten zu untersuchen, da dieser Prozess die Ersetzung der direkten staatlichen Regulierung durch unabhängige Agenturen beinhaltet öffentliche Bereitstellung, die die bisherige Norm war.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-11473-3_2 e64d81b8e7e112cdb83d22567a1b96c4;de;;;5.2.;;;Verbesserte iterative Projektion für die Unterklassenanalyse unter EM Framework Die lineare Diskriminanzanalyse (LDA) ist ein sehr beliebter überwachter Klassifikationsansatz. In einigen Fällen, wie z. B. bei einer großen Stichprobengröße usw., kann sie jedoch keine gute Leistung erbringen. In Bezug auf ihre Unzulänglichkeiten stellen einige Wissenschaftler auf diesem Gebiet die Idee der Unterklasse auf, die die Beschränkungen von LDA durchbrechen und bessere Klassifikationsergebnisse erzielen kann. Unterklassen-Diskriminanzanalyse (SDA) erarbeitete die Unterteilung von Unterklassen, bevor das verallgemeinerte Eigenwertproblem gelöst wurde. Im Gegensatz dazu führt unser vorgeschlagener Ansatz in den iterativen Schritten des EM-Frameworks eine Unterklassenunterteilung basierend auf einem K-Means-Cluster, Klasse für Klasse, durch. Die experimentellen Ergebnisse an Datenbanken mit zwei Zeichen zeigen, dass unser vorgeschlagener Ansatz bessere Ergebnisse erzielen kann als SDA, jedoch nicht ganz zeitaufwändig.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33506-8_1 8dea5aed1ce71d17c433248fd555bc12;de;;;5.2.;;;Kräuter und andere Pflanzenstoffe in der Krebspatientenversorgung Nicht verschreibungspflichtige pflanzliche Heilmittel werden häufig von Krebspatienten verwendet, um ihre Krankheit zu kontrollieren oder Symptome im Zusammenhang mit Krebs und Krebsbehandlungen zu behandeln. Wir befassen uns mit den Fragen rund um die Verwendung von Kräutern, Kräuterverbindungen und anderen botanischen Wirkstoffen im Kontext der Onkologie. Botanicals sind biologisch aktive Wirkstoffe, die unter geeigneten Umständen nützlich sein können, aber sie können kontraproduktiv sein, wenn sie von Patienten unter Chemotherapie oder anderen verschreibungspflichtigen Medikamenten verwendet werden. Kräuter und andere botanische Wirkstoffe sind trotz allgemeiner öffentlicher Meinung nicht gutartig. Sie sind als unraffinierte Pharmazeutika mit der Fähigkeit zu verstehen, physiologische Veränderungen zum Guten oder zum Schlechten herbeizuführen. Tatsächlich wurden viele verschreibungspflichtige Medikamente, darunter Chemotherapeutika, aus Pflanzen und anderen natürlichen Wirkstoffen gewonnen, und die Suche nach zusätzlichen Bestandteilen von Pflanzen, Tieren und Mineralien zur Verwendung als pharmazeutische Wirkstoffe bleibt an vielen Fronten eine aktive Anstrengung. Vorsichtsmaßnahmen, geeignete Anwendung und potenzieller Nutzen von Pflanzenwirkstoffen werden unten diskutiert und Quellen für zuverlässige Informationen werden bereitgestellt.;-;-;-;https://link.springer.com/article/10.1007/s11864-008-0061-5 b92b5f9f30e0323b0d3d4da3bdbba22d;de;;;5.2.;;;Die Widersprüche des Verlangens Der Geschichtenerzähler Aesop sagte einmal: „Es gibt viele operative Definitionen von Begehren. Es ist mit unseren Leidenschaften, wie mit Feuer und Wasser, sie sind gute Diener, aber schlechte Herren.“ Aesop war nicht der Einzige, der Schwierigkeiten hatte, dem Begehren einen Sinn zu geben. Er drückt aus, was viele Menschen erleben, wenn sie versuchen, die Fragen zu beantworten, die ich im vorigen Kapitel gestellt habe. Die Antwort eines meiner Kunden war: „Für mich bedeutet sexuelle Begierde die Suche nach verbotenen Früchten. Ich scheine mich immer nach dem Verbotenen zu sehnen und begehre das, was mir verweigert wird. Es ist, als ob meine tierische Natur meine Vernunft regiert. Aber es ist für mich ein sehr wichtiger Aspekt dessen, worum es im Leben geht.“ Ein anderer schrieb: „Für mich ist sexuelles Verlangen wie Poesie. Es bedeutet, all diese seltsamen, unwiderstehlichen Fantasien in mir zu haben. In mir lebt eine zwingende Kraft, die darauf besteht, dass man ihr zuhört. Das kann der Grund sein, warum ich morgens aufstehe. Wenn ich auf mein Leben zurückblicke, auf die Dinge, die ich getan habe, hat mich das Verlangen sehr zu dem Menschen gemacht, der ich bin.“ Eine Führungskraft hatte eine düsterere Sichtweise: „Immer wenn ich mich mit Verlangen auseinandersetzen muss, sehe ich eine Tragödie im Entstehen. Es gab Zeiten, in denen ich die Kontrolle verlor. Um ehrlich zu sein, waren alle Fehler, die ich in meinem Leben gemacht habe, das Ergebnis von Sehnsucht. Ich war zum Beispiel mehrmals verheiratet. War es das wert? Jetzt frage ich mich.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-230-24036-0_2 51e681b8ee8472fd12cba60320ef26f8;de;;;5.2.;;;Umrisserfassung von Bildern durch mehrstufige Koordinatensuche auf kubischen Splines Für die Umrisserfassung von planaren Bildern wird eine Optimierungstechnik vorgeschlagen. Die Gesamttechnik weist verschiedene Phasen auf, einschließlich des Extrahierens von Umrissen von Bildern, Erfassen von Eckpunkten aus dem erfassten Umriss und Kurvenanpassung. Die Idee der mehrstufigen Koordinatensuche wurde verwendet, um die Formparameter in der Beschreibung des eingeführten verallgemeinerten kubischen Splines zu optimieren. Das Spline-Verfahren liefert schließlich optimale Ergebnisse für die angenäherte Vektorisierung der aus den generischen Formen erhaltenen digitalen Kontur.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10439-8_64 9838c097d7e66ed0c4f8e3865d1668d5;de;;;5.2.;;;Ein integrierter QoS-Multicast-Routing-Algorithmus basierend auf der Tabu-Suche im optischen IP/DWDM-Internet In diesem Papier wird ein integrierter QoS-Multicast-Routing-Algorithmus im optischen IP/DWDM-Internet vorgeschlagen. Unter Berücksichtigung des Lastausgleichs ist das Auffinden eines QoS-Multicast-Routingbaums bei einer gegebenen Multicast-Anforderung und flexiblen QoS-Anforderung NP-schwer. Somit wird ein auf Tabusuche basierender Algorithmus eingeführt, um einen kostensuboptimalen QoS-Multicast-Routing-Baum zu konstruieren, der das Wellenlängenzuweisungsverfahren basierend auf Segment- und Wellenlängengraph-Ideen einbettet. Somit werden das Multicast-Routing und die Wellenlängenzuweisung integriert gelöst. Simulationsergebnisse haben gezeigt, dass der vorgeschlagene Algorithmus sowohl machbar als auch effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/11557654_16 db2b52ec37895d92c6ba5da0504346cc;de;;;5.2.;;;Ein hybrider Algorithmus basierend auf Tabu-Suche und chemischer Reaktionsoptimierung für das 0-1-Knapsack-Problem Das 0-1 Rucksackproblem (01KP) ist ein bekanntes NP-vollständiges Problem in kombinatorischen Optimierungsproblemen. Es gibt verschiedene Ansätze zur Lösung des Problems wie Brute Force, dynamische Programmierung, Branch and Bound usw. In diesem Beitrag wird ein hybrider Algorithmus CROTS (Chemical Reaction Optimization kombiniert mit Tabu Search) vorgeschlagen, um dieses Problem anzugehen. Zuerst wird eine der vier elementaren Reaktionen von CRO durchgeführt, und danach wird eine Tabu-Suche verwendet, um nach den Nachbarn der optimalen Lösung in der Population zu suchen. Die experimentellen Ergebnisse zeigen, dass CROTS im Vergleich zu GA und dem ursprünglichen CRO eine bessere Leistung aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-20472-7_25 fae620cb88cda4c57fd397b55154fb0c;de;;;5.2.;;;Bildschirmprogrammierung Die Grundlagen der Bildschirmprogrammierung wurden Ihnen im Kapitel 12 „ALV (ABAP List Viewer Outputs – Part 1)“ vorgestellt. Die Bildschirmprogrammierung dient der Eingabe von Daten. Eingaben können mehrere Bildschirme und komplexe Bildschirmelemente umfassen (benutzerdefinierte Steuerelemente, Tabstrip-Steuerelemente, Tabellensteuerelemente usw. sind komplexe Bildschirmelemente. Dieses Kapitel wird die zuvor behandelte Bildschirmprogrammierung zusammenfassen und ergänzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-4804-0_14 546486c5022e73c92090bac1cd84ebee;de;;;5.2.;;;Lösen extrem schwieriger MINLP-Probleme mit Adaptive Resolution Micro-GA mit Tabu Search Nicht konvexe gemischt ganzzahlige nichtlineare Programmierprobleme (MINLPs) sind die allgemeinste Form von globalen Optimierungsproblemen. Solche Probleme betreffen sowohl diskrete als auch kontinuierliche Variablen mit mehreren aktiven nichtlinearen Gleichheits- und Ungleichheitsbeschränkungen. In diesem Beitrag wird ein neuer Ansatz zur Lösung von MINLPs vorgestellt, der auf adaptiver Auflösung basierende mikrogenetische Algorithmen mit lokaler Suche verwendet. Niching wird in den Algorithmus integriert, indem eine vom Tabu-Suchalgorithmus inspirierte Technik verwendet wird. Der vorgeschlagene Algorithmus steuert adaptiv die Intensität der genetischen Suche in einem gegebenen Teillösungsraum, d. h. vielversprechende Regionen werden im Vergleich zu anderen Regionen intensiver durchsucht. Der Algorithmus reduziert die Konvergenzchancen auf ein lokales Minimum, indem er eine Liste bereits besuchter Minima führt und deren Nachbarschaften bestraft. Diese Technik ist von der Tabu-Listenstrategie inspiriert, die im Tabu-Suchalgorithmus verwendet wird. Die vorgeschlagene Technik war in der Lage, in wettbewerbsfähiger Zeit die bekanntesten Lösungen für extrem schwierige MINLP/NLP-Probleme zu finden. Der Ergebnisteil diskutiert die Leistungsfähigkeit des Algorithmus und die Wirkung verschiedener Operatoren unter Verwendung einer Vielzahl von MINLP/NLPs aus unterschiedlichen Problembereichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25566-3_15 9a027177a17f77d576fa7487515599f3;de;;;5.2.;;;Eine sichere kanalfreie Verschlüsselung mit öffentlichem Schlüssel mit Schlüsselwortsuchschema ohne zufälliges Oracle Das von Boneh, Di Crescenzo, Ostrovsky und Persiano vorgeschlagene Verschlüsselungsschema mit öffentlichem Schlüssel mit Schlüsselwortsuche (PEKS) ermöglicht die Suche nach verschlüsselten Schlüsselwörtern, ohne die Sicherheit der Originaldaten zu beeinträchtigen. Baek;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10433-6_16 1bb3490f43aacc02ebe08fe437e1b019;de;;;4.2.;;;Anfahrt zu CORE Der Weg zu einer kohärenten Organisationsverantwortung (CORE) ist eine Reise, die eine Neuausrichtung sowohl des organisatorischen Zwecks als auch der betrieblichen Praxis erfordert. Dieses Kapitel skizziert die wichtigsten Ideen im Bereich Reengineering und verwendet sie, um die Kohärenzreise zu skizzieren. Es betrachtet sowohl die CSR-Organisation als auch die kohärent verantwortliche Organisation auf zwei verschiedenen Ebenen – Zusammenfassung und System – und zeigt, was die fünf Kohärenzsäulen in Kapitel 1 vorgestellt haben;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-13523-2_10 eb25a4ade204b3b0370888a23af55535;de;;;4.2.;;;Ein neuartiges JFE-Schema für die Verbreitung von Social Multimedia in komprimierter Domäne unter Verwendung von SVD und CA Das Aufkommen sozialer Netzwerke hat das Teilen von sozialen Medien in sozialen Netzwerken erleichtert. Es kann jedoch auch zu ernsthaften Sicherheits- und Datenschutzproblemen führen, der sichere Medienaustausch und die Aufspürung von Verrätern sind kritisch und dringend geworden. In diesem Papier wird ein gemeinsames Fingerabdruck- und Verschlüsselungsschema (JFE) basierend auf Game of Life (GF) und Singular Value Dekomposition (SVD) mit dem Ziel beschrieben, die Verbreitung von Inhalten in sozialen Netzwerken zu schützen. Zunächst wird der Fingerabdruck-Code mittels Social-Network-Analyse erstellt. Zweitens werden Fingerabdrücke in die LL-, HL- und LH-Teilbänder eingebettet. Schließlich werden GF und SVD für Verwirrung bzw. Verbreitung verwendet. Die vorgeschlagene Methode ist nach unserem besten Wissen die erste JFE-Methode, die GF und SVD im komprimierten Bereich aus Sicherheits- und Datenschutzgründen verwendet. Die Verwendung von Fingerabdrücken zusammen mit Verschlüsselung kann einen doppelten Schutz für die gemeinsame Nutzung von Medien in sozialen Netzwerken bieten. Theorieanalyse und experimentelle Ergebnisse zeigen die Wirksamkeit des vorgeschlagenen JFE-Schemas.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40099-5_41 43acd4010a6669c7a3c7a4462364c8be;de;;;4.2.;;;Forschung zu Beratungsklassen mit dem Ziel, die Unternehmereigenschaften von Studierenden an Wirtschaftswissenschaftlichen Fakultäten auf Basis des Webs zu kultivieren Basierend auf einer spezifischen Analyse der Notwendigkeit, die unternehmerischen Eigenschaften aktueller College-Studenten zu kultivieren, analysiert dieses Papier die Machbarkeit der Verwendung von Beratungsklassen, um die unternehmerischen Eigenschaften von Studenten zu fördern. Unser Ziel ist es, die Wirksamkeit und Innovationsbedeutung der Verwendung von Beratungsklassen zur Förderung der Unternehmermerkmale der Schüler zu beweisen, die den Entdeckergeist, die Wettbewerbsfähigkeit, die Innovationseigenschaften, die wissenschaftliche Qualität, die soziale Verantwortung und andere unternehmerische Merkmale stark mobilisieren drei Lehrziele erreichen: „Kognition, Fähigkeit, Emotion“. Dieser Beitrag zeigt auch, dass dieser Klassentyp in anderen Lehrveranstaltungen der Forschungslehre erweitert und praktiziert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23357-9_105 b834a8b395afcbcad3cc221018b4679d;de;;;4.2.;;;Erstellung einer lokalen Sehenswürdigkeitenkarte gemäß der sozialen visuellen Aufmerksamkeit Soziale Medien im Internet, in denen Millionen von Menschen ihre persönlichen Erfahrungen teilen, können als Informationsquelle angesehen werden, die die implizite und/oder explizite visuelle Aufmerksamkeit der Menschen impliziert. Insbesondere wenn sich die Aufmerksamkeit vieler Menschen an einem bestimmten geografischen Standort auf einen gemeinsamen Inhalt konzentriert, können wir davon ausgehen, dass ein bestimmtes Ziel die Aufmerksamkeit der Menschen in der Umgebung auf sich zieht. In diesem Beitrag schlagen wir einen Rahmen vor, der die gemeinsame Aufmerksamkeit von Menschen in einem lokalen Gebiet (lokale Attraktion) aus einer großen Anzahl von Fotos mit Geo-Tags erkennt und auf der „Local Attraction Map“ visualisiert. Basierend auf dem Framework berichten wir als ersten Schritt der Forschung über die Ergebnisse einer Benutzerstudie, die auf einer Browsing-Oberfläche einer Karte von lokalen Attraktionen durchgeführt wurde, die die repräsentativen Szenenkategorien als lokale Attraktionen für geografische Cluster der mit Geo-Tags versehenen Fotos zeigte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29934-6_15 9518e73ce8b3a8c66b3993faa226125d;de;;;5.2.;;;Entscheidungsfindung und Unterstützung für Personen, die eine Elektrokrampftherapie (EKT) erwägen und durchführen: eine qualitative, verbrauchergeführte Studie Die Elektrokrampftherapie (EKT) ist eine der umstrittensten Behandlungsmethoden in der Psychiatrie. Diese Kontroverse und die unterschiedlichen und oft stark vertretenen Meinungen können Entscheidungsprozesse rund um ECT komplexer machen.;-;-;-;https://link.springer.com/article/10.1186/s12888-018-1813-9 bfe37ae5f6cdc76a7074bbd2f1539762;de;;;5.2.;;;Zwei neue selbstadaptive Abstiegsmethoden ohne Liniensuche für kokoerzitive strukturierte Variationsungleichungsprobleme In diesem Beitrag werden zwei neue selbstadaptive Abstiegsmethoden ohne Liniensuche für koerzitiv strukturierte Variationsungleichheitsprobleme vorgestellt, deren Abbildung keine explizite analytische Form hat und nur der funktionale Wert durch exogene Auswertung oder direkte Beobachtung verfügbar ist. Die erste Methode benötigt nur funktionale Werte für gegebene Variablen im Lösungsprozess und kann als Modifikation der Methode von Zhang und Han (Comput. Math. Appl. 57(7):1168–1178, 2009) betrachtet werden, indem ein self . angenommen wird -adaptive Technik zum Anpassen von Parametern;-;-;-;https://link.springer.com/article/10.1007/s12190-009-0350-6 b9325d0cca78497f3530a578d02a8ed2;de;;;5.2.;;;Adaptive Secure-Channel-freie Verschlüsselung mit öffentlichen Schlüsseln mit Schlüsselwortsuche impliziert Verschlüsselung mit zeitgesteuerter Freigabe Als bekannte Ergebnisse sind die Verschlüsselung mit zeitgesteuerter Freigabe (TRE) und das Verschlüsselungsverfahren mit öffentlichem Schlüssel mit Schlüsselwortsuche (PEKS) der identitätsbasierten Verschlüsselung (IBE) sehr nahe. Es scheint natürlich, dass zwischen TRE und PEKS eine enge Beziehung besteht. Allerdings wurde bisher keine explizite Brücke zwischen TRE und PEKS gezeigt. In diesem Papier zeigen wir, dass TRE generisch von PEKS mit erweiterten Funktionalitäten konstruiert werden kann, die als sicheres Kanal-freies PEKS (SCF-PEKS) mit adaptiver Sicherheit bezeichnet werden, und diskutieren den Grund, warum PEKS und (nicht-adaptive) SCF-PEKS es nicht sind geeignet für den Bau von TRE. Zusätzlich zu diesem Ergebnis zeigen wir auch, dass adaptive SCF-PEKS nur durch anonyme IBE generisch konstruiert werden können. Das heißt, zum Konstruieren adaptiver SCF-PEKS müssen wir im Vergleich zu Abdalla et al. PEKS-Konstruktion (J. Cryptology 2008), obwohl adaptive SCF-PEKS zusätzliche Funktionalitäten erfordert. Dieses Ergebnis erscheint auch unabhängig davon interessant.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24861-0_8 51b286c7a864346753d113e8f495db36;de;;;5.2.;;;Intuitive Schnittstellen für Bewegungsgenerierung und Suche In diesem Whitepaper werden intuitive Schnittstellen zur Bewegungsgenerierung und Bewegungssuche behandelt. Dies sind Forschungsergebnisse zum interaktiven Animationssystem, die die Forschungsgruppe der Autoren im Rahmen des Forschungsprojekts „Intuitive Human Interface for Organizing and Accessing Intellectual Assets“ erarbeitet hat. Für die Erstellung von CG-Animationen ist sowohl das Motion-Design von CG-Charakteren als auch das Shape-Design sehr mühsam. Für das Bewegungsdesign haben die Autoren bereits eine komponentenbasierte Bewegungsbearbeitungsumgebung, ein Echtzeit-Bewegungserzeugungssystem unter Verwendung von Puppen-/Marionetten-Metaphern und ein Bewegungsdatenbank-Verwaltungssystem vorgeschlagen. Diese ermöglichen es dem Benutzer, Bewegungen interaktiv und intuitiv zu erstellen und erleichtern das Verteilen und Nachbearbeiten von Bewegungen. In diesem Artikel stellen die Autoren diese Bewegungserzeugungs- und Bewegungssuchsysteme vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-32279-5_4 6908805f49b76247dce9ea20c2edd771;de;;;4.2.;;;Skalenadaptive Gruppenoptimierung für die Planung sozialer Aktivitäten Studien haben gezeigt, dass jede Person eher dazu neigt, eine Gruppenaktivität zu genießen, wenn 1) sie sich für die Aktivität interessiert und 2) viele Freunde mit dem gleichen Interesse daran teilnehmen. Trotz der in sozialen Online-Netzwerken verfügbaren Informationen zu Interessen und sozialer Dichte müssen jedoch viele Aktivitäten sozialer Gruppen heutzutage immer noch manuell koordiniert werden. In diesem Papier formulieren wir daher zunächst ein neues Problem namens Participant Selection for Group Activity (PSGA), um die Gruppengröße zu bestimmen und geeignete Teilnehmer auszuwählen, damit die Summe aus persönlichen Interessen und sozialer Enge der Teilnehmer in der Gruppe maximiert wird , während auch die Aktivitätskosten sorgfältig geprüft werden. Um das Problem zu lösen, entwerfen wir einen neuen randomisierten Algorithmus namens Budget-Aware Randomized Group Selection (BARGS), um die Rechenbudgets für eine effektive Auswahl der Gruppengröße und der Teilnehmer optimal zuzuweisen, und wir beweisen, dass BARGS die Lösung mit a garantierte Leistung gebunden. Der vorgeschlagene Algorithmus wurde in Facebook implementiert und experimentelle Ergebnisse zeigen, dass durch den vorgeschlagenen Algorithmus generierte soziale Gruppen die Basislösungen deutlich übertreffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-18038-0_4 32b48e943a140bb3b5dfac3fcb81a7db;de;;;4.2.;;;Content Centricity in eingeschränkter zellulargestützter D2D-Kommunikation Der enorme Anstieg des Mobilfunkverkehrs in den letzten Jahren hat die Mobilfunknetze unter Druck gesetzt. Um dieser Situation zu begegnen, schlagen Betreiber vor, Techniken zum Auslagern von Daten auf der Grundlage von Gerät-zu-Gerät-Kommunikation zu übernehmen, um ihre Infrastruktur zu entlasten. In diesem Papier betrachten wir ein spezifisches Szenario, in dem der zellulare Kanal starke Kapazitätsbeschränkungen hat. Bestehende Offloading-Techniken konzentrieren sich auf die zugrunde liegenden Kommunikationsmechanismen und können das Interesse der Benutzer nicht richtig verwalten;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13329-4_12 f2bfdacd4e80425f8e7567a1bab78961;de;;;4.2.;;;Wissensentdeckung und Informationsvisualisierung für terroristische soziale Netzwerke Terroristische soziale Netzwerke bieten Informationen über die Beziehungen zwischen Terroristen, die für Ermittler bei der Bekämpfung des Terrorismus wichtig sind. Eine gute Analyse terroristischer sozialer Netzwerke ist unerlässlich, um Erkenntnisse über die Struktur terroristischer Organisationen zu gewinnen. Typische Techniken der sozialen Netzwerkanalyse entdecken Interaktionsmuster zwischen sozialen Akteuren, zum Beispiel das Erkennen von Untergruppen und das Identifizieren von zentralen Individuen. Dieses Wissen ist wichtig, um wirksame Strategien zur Bekämpfung des Terrorismus zu entwickeln. Ein typisches terroristisches soziales Netzwerk hat mehrere Hundert bis Tausende von Knoten. Angesichts der großen Anzahl von Knoten und Verbindungen ist es schwierig, das extrahierte Muster in die globale Struktur des terroristischen sozialen Netzwerks zu integrieren, um die zugehörigen Akteure weiter zu analysieren. Mithilfe interaktiver Visualisierungstools können Ermittler das Netzwerk weiter erkunden, indem sie den Interessenschwerpunkt auswählen und die nützlichen Informationen und Muster extrahieren. In diesem Kapitel stellen wir eine soziale Netzwerkanalyse und interaktive Visualisierungstechnik für komplexe terroristische soziale Netzwerke vor. Fallstudien werden vorgestellt, um zu veranschaulichen, wie solche Techniken in der Lage sind, die verborgenen Beziehungen zwischen Terroristen im Netzwerk durch Benutzerinteraktionen zu extrahieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69209-6_3 373d964f9a3d04d24ea2291881367c4a;de;;;5.2.;;;Ressourcensuche im unstrukturierten Peer-to-Peer-System basierend auf einer Mehrfachbaum-Overlay-Struktur Wir schlagen eine Mehrfachbaum-Overlay-Struktur für die Ressourcenerkennung in unstrukturierten P2P-Systemen vor. Peers mit ähnlichen Interessen oder ähnlichen Ressourcen werden in einem baumartigen Cluster gruppiert. Wir nutzen die Heterogenität der Peers in jedem Cluster, indem wir Peers mit mehr Kapazitäten näher an der Wurzel des Baums verbinden. Die Kapazität eines Peers kann auf unterschiedliche Weise (z. B. höhere Netzwerkbandbreite, größerer Speicherplatz, mehr Datenelemente eines bestimmten Typs usw.) entsprechend den unterschiedlichen Anforderungen von Benutzern oder Anwendungen definiert werden.;-;-;-;https://link.springer.com/article/10.1007/s11859-007-0006-z 32edc1342c24469726e961c4b2ed8afb;de;;;5.2.;;;Die Konvergenz eines neuen modifizierten BFGS-Verfahrens ohne Liniensuche für uneingeschränkte Optimierungs- oder Komplexitätssysteme In diesem Beitrag wird ein neues modifiziertes BFGS-Verfahren ohne Zeilensuche vorgeschlagen. Im Gegensatz zum traditionellen BFGS-Verfahren wird dieses modifizierte BFGS-Verfahren basierend auf der von Sun und Zhang eingeführten sogenannten festen Schrittlängenstrategie vorgeschlagen. Unter einigen geeigneten Annahmen werden die globale Konvergenz bzw. die superlineare Konvergenz des neuen Algorithmus festgelegt. Und es wird auch über einige vorläufige numerische Experimente berichtet, die zeigen, dass der neue Algorithmus machbar ist.;-;-;-;https://link.springer.com/article/10.1007/s11424-010-7180-3 0474cd48df6c6a12e94a7d91acb28836;de;;;5.2.;;;Formalisierung von Graphsuchalgorithmen und deren Anwendungen Dieses Papier beschreibt eine Formalisierung einer Klasse von Fixkommaproblemen auf Graphen und ihre Anwendungen. In dieser Klasse werden mehrere bekannte graphentheoretische Probleme erfasst, z. B. solche des kürzesten Pfadtyps und für die Datenflussanalyse. Ein abstrakter Lösungsalgorithmus des Fixpunktproblems wird formalisiert und seine Korrektheit mit einem Theorem-Beweissystem bewiesen. Darüber hinaus ist die Gültigkeit der A;-;-;-;https://link.springer.com/chapter/10.1007/BFb0055153 25de1e31e81c1fb3c54f962935df35cc;de;;;4.2.;;;Empirische Forschung zur Kokonstruktion von Kernlehrpraktiken Dieses Papier identifiziert eine Sammlung von Lehrwissen und -fähigkeiten für einen effektiven Unterricht, die als Kernpraktiken bezeichnet werden. Zunächst werden der Hintergrund, die Geschichte und das Konzept der Kernpraktiken vorgestellt. Zweitens führen wir im Rahmen eines empirischen Forschungsparadigmas drei Umfragerunden durch, um die zentralen Unterrichtspraktiken zu identifizieren, die für muttersprachliche Lehrkräfte geeignet sind. Dazu gehören das Auffinden und Aufzeichnen von Praktiken von Lehrkräften an vorderster Front, das Clustern und Aufteilen von Praktiken durch erfahrene Lehrkräfte sowie die Identifizierung und Definition von Praktiken durch Lehrerausbilder. Abschließend schließen wir unsere Studie mit Beispielen ab und diskutieren die zukünftige Forschungsrichtung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-0008-0_19 fdf010a99be70c3b0b2b24a516f4c32c;de;;;4.2.;;;FHAN: Hierarchisches Aufmerksamkeitsnetzwerk auf Funktionsebene für Gruppenereignisempfehlungen Das Empfehlen von Veranstaltungen an Gruppen unterscheidet sich von einzelnen Benutzern in ereignisbasierten sozialen Netzwerken (EBSN), was verschiedene komplexe Faktoren beinhaltet. Im Allgemeinen basieren Gruppenempfehlungsmethoden entweder auf Empfehlungsfusion oder Modellfusion. Die meisten existierenden Methoden vernachlässigen jedoch die Tatsache, dass sich die Benutzerpräferenzen im Laufe der Zeit ändern. Darüber hinaus glauben sie, dass die Gewichtung verschiedener Faktoren, die die Entscheidungsfindung der Gruppe beeinflussen, in verschiedenen Zeiträumen festgelegt ist. In letzter Zeit gibt es einige Arbeiten, die den Aufmerksamkeitsmechanismus für Gruppenempfehlungen verwenden. Obwohl sie die dynamische Variabilität der Benutzerpräferenzen und die dynamische Anpassung der Gewichtung von Benutzermerkmalen berücksichtigen, haben sie nicht weitere Merkmale von Gruppen und Ereignissen erörtert, die die Gruppenentscheidungsfindung beeinflussen. Zu diesem Zweck schlagen wir einen Roman vor;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-60259-8_35 4ead06c24679358a1b006d5472d50fd9;de;;;4.2.;;;INCUVA: Ein Meta-Framework zur Werterhaltung von Innovationen in multikulturellen Umgebungen Innovation wird zunehmend als wichtigstes Vehikel für die Wertschöpfung in Unternehmensorganisationen sowie in Zivilgesellschaften gesehen. Folglich investieren Förderagenturen und Unternehmen weiterhin riesige Summen und andere Ressourcen in innovative Projekte, um die gewünschten Ergebnisse zu erzielen und zu erhalten. Wertschöpfung ist jedoch nicht dasselbe wie das Teilen und Erhalten von Werten, insbesondere wenn dieser Wert in einem multikulturellen Raum geteilt und erhalten werden muss. Dieses Papier analysiert das Zusammenspiel von drei Schlüsselelementen, nämlich Innovation, Kultur und Wert, die das Teilen und Erhalten von Werten, die durch innovative Projekte geschaffen werden, erleichtern oder hemmen könnten. Das Papier schlägt auch einen Meta-Rahmen vor, der auf der Arbeit des EU-finanzierten Projekts VALO basiert und darauf abzielt, wirksame Wege zur Maximierung und Erhaltung des in innovativen Projekten geschaffenen Wertes zu entwickeln und zu verbreiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39179-8_24 2e02fe5e5ae4df66db8c9faf069e25a6;de;;;4.2.;;;Blickwinkel und Bezugssysteme der Managementtheorie Der Gewinn wird normalerweise als erster Blickwinkel des Managements aufgeführt. Worauf sich der sogenannte „Management-Wunsch“ bezieht, sollte eine Art Machthunger sein. Gleichzeitig dringt eine stimmige Idee in jeden Bereich des Managements ein. Das Management verfolgt den Effekt, dass 1+1> 2, als eine Art interaktiver Blickwinkel impliziert. Ökonomie ist als Referenzsystem bei der Zerlegung des Managements nach Gewinngesichtspunkten unumgänglich. Beim Eintritt in den kommerziellen Bereich erscheint Macht durch Formen der Unternehmenspolitik und der Marktpolitik. Die sogenannte „Konstruktion einer harmonischen Gesellschaft“ wählt eher die Gesellschaft als Referenzstandard. Das Selbstkonzept ist ein zur Interaktion im Widerspruch stehendes Führungsphänomen. Um damit umzugehen, muss man das gesamte oder das größere System als Referenz nehmen, nämlich die systematische Betrachtung. Kernpunkt dieses Artikels ist daher: Management kann aus vier verschiedenen Blickwinkeln von Profit, Autorität, Harmonie & Interaktion erforscht werden, die relativen Bezugssysteme sind Wirtschaft, Politik, Gesellschaft und System.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23993-9_76 c002e16170e49763452bb01bf3ec0d90;de;;;4.2.;;;Crowdsourced Cyber ​​Defense: Erkenntnisse aus einem groß angelegten, spielbasierten Ansatz zur Bedrohungserkennung in einem Live-Netzwerk Heute ist die Verantwortung für die US-Cyberverteidigung asymmetrisch zwischen einer großen Zahl von Cyber-naiven Endbenutzern und einem kleinen Kader von Cyber-versierten Sicherheitsexperten in der Regierung und im privaten Sektor aufgeteilt. Wir sehen den Anstieg des „Cyber ​​Civil Defense“ voraus, der durch die Wahrnehmung von Schwachstellen in unserer gegenwärtigen übermäßigen Abhängigkeit von Fachleuten und durch zwei zusätzliche Faktoren angetrieben wird: Crowdsourcing-Cyber;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29047-3_5 2b12767796b4458825498ff8ca554393;de;;;5.2.;;;Verbesserung der Leistung und Energieeffizienz von OFDMA-Systemen mit adaptiven Antennen und CoMP Die in diesem Beitrag beschriebene Forschung zeigt, wie es durch die Kombination von CoMP mit anpassungsfähigen Semi-Smart-Antennen möglich ist, den Durchsatz eines OFDMA-LTE-Systems zu verbessern und gleichzeitig die für die Übertragung erforderliche Leistung zu reduzieren, d. h. eine bessere Leistung zu geringeren Kosten bereitzustellen. Die Optimierung der Antennenmuster wird durch einen genetischen Algorithmus durchgeführt, um eine Zielfunktion zu erfüllen, die den Durchsatz, die Anzahl der gehandhabten UEs sowie die Leistung bei der Übertragung berücksichtigt. Es wird gezeigt, dass der dominante Effekt bei der Verwendung der semi-intelligenten Antennen ist und dass die Ergebnisse nicht empfindlich auf kleine Bewegungen reagieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-4154-9_1 a3cd52597dfed2aca8d75f7adddfa185;de;;;5.2.;;;Top-Down-SLCA-Berechnung basierend auf Hash-Suche In diesem Papier konzentrieren wir uns auf die effiziente Verarbeitung einer bestimmten XML-Schlüsselwortabfrage basierend auf der SLCA-Semantik. Wir weisen jedem Knoten eine ID zu, die seiner Besuchsreihenfolge entspricht, wenn wir das XML-Dokument in tiefer erster Reihenfolge durchlaufen, auf deren Grundlage wir zwei Arten von Indizes konstruieren. Der erste Index ist eine invertierte Liste;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32281-5_27 6c54b3e4bd18796a85e479e45c65ec02;de;;;5.2.;;;Aufrechterhaltung von Gleichgewichten während der Exploration in gesponserten Suchauktionen Wir führen ein Erkundungsschema ein, das darauf abzielt, die Klickraten von Werbetreibenden in gesponserten Suchauktionen mit minimalen Auswirkungen auf die Anreize für Werbetreibende zu ermitteln. Das Schema behält sowohl die aktuelle Rangordnungs- als auch die Preispolitik der Suchmaschine bei und führt nur einen Satz von Parametern ein, die die Explorationsrate steuern. Diese Parameter können so eingestellt werden, dass eine ausreichende Untersuchung ermöglicht wird, um die Klickraten von Werbetreibenden im Laufe der Zeit zu erfahren, aber auch Anreize für Werbetreibende eliminieren, ihre aktuell abgegebenen Gebote zu ändern. Wenn Werbetreibende viel mehr Informationen haben als die Suchmaschine, zeigen wir, dass dieses Ziel zwar nicht erreichbar ist, aber die Anreize zum Abweichen durch eine entsprechende Einstellung der Explorationsrate beliebig klein gehalten werden können. Da Werbetreibende ihre Gebote nicht ändern, haben wir Umsatzverluste aufgrund von Explorationen begrenzt.;-;-;-;https://link.springer.com/article/10.1007/s00453-009-9318-z ff05f9bf0bb83e55bb53d168e6bcd1b5;de;;;5.2.;;;Ein verbesserter Harmony-Suchalgorithmus für das Distributed Two Machine Flow-Shop Scheduling Problem In diesem Artikel wird ein verbesserter Harmoniesuchalgorithmus (IHS) vorgeschlagen, um das verteilte Zwei-Maschinen-Flow-Shop-Scheduling-Problem (DTMFSP) mit Makespan-Kriterium zu lösen. Zunächst wird eine zweistufige Decodierungsregel für die dezimalvektorbasierte Darstellung entwickelt. In der ersten Stufe wird ein Job-to-Factory-Zuweisungsverfahren entwickelt, um einen kontinuierlichen Harmonievektor in eine Fabrikzuweisung zu transformieren. Im zweiten Schritt wird die Johnson-Methode angewendet, um in jeder Fabrik eine Jobsequenz bereitzustellen. Zweitens wird eine neue Tonhöhenanpassungsregel entwickelt, um die Werkszuordnung effektiv anzupassen. Der Einfluss der Parametereinstellung auf das IHS wird anhand der Taguchi-Methode der Versuchsplanung untersucht und numerische Experimente durchgeführt. Die Vergleiche mit der weltweit besten Harmoniesuche und der ursprünglichen Harmoniesuche zeigen die Wirksamkeit des IHS bei der Lösung des DTMFSP.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-47926-1_11 41dfdf1529fd4bcd5104cb36e64852f5;de;;;5.2.;;;Suche nach anomalen Top-Gluon-Kopplungen am LHC erneut besucht Durch die Produktion von Top-Quark-Paaren am LHC untersuchen wir mögliche Effekte von nicht standardmäßigen Top-Gluon-Kopplungen, die durch SU(3)×SU(2)×U(1)-invarianten Dimension-6-Effektivoperatoren erhalten werden. Wir berechnen den Gesamtquerschnitt und auch einige Verteilungen für;-;-;-;https://link.springer.com/article/10.1140/epjc/s10052-009-1204-y 12a0e6c8dd1a7a51727a702e7d5232cc;de;;;5.2.;;;Befriedigung von Gleichgewichten: Eine nicht-klassische Theorie von Spielen und Entscheidungen Zufrieden zu sein oder „gut genug“ zu sein, ist die grundlegende Verpflichtung rationaler Entscheidungsträger. Wir können keine Option rational wählen, auch wenn wir nichts Besseres kennen, es sei denn, wir wissen, dass es gut genug ist. Leider wissen wir nicht oft, dass es keine bessere Option geben kann und dass die Option daher gut genug sein muss. Eine vollständige Suche durch alle logischen Möglichkeiten ist insbesondere in Multi-Agenten-Kontexten aufgrund übermäßiger Rechenschwierigkeiten, Modellierungskomplexität und Unsicherheit oft unpraktisch. Ebenso unpraktisch kann es, wenn überhaupt möglich, sein, die Kosten für die zusätzlich erforderliche Suche zu ermitteln, um eine ausreichend gute Option zu finden. Abweichend von der traditionellen Vorstellung von Satisficing als einer Art begrenzter Rationalität wird Satisficing hier im Sinne einer intrinsischen Rationalität neu definiert. Die epistemische Nutzentheorie dient als philosophische Grundlage eines neuen praxeologischen Entscheidungsparadigmas zur Befriedigung von Gleichgewichten, das sowohl auf Single- als auch auf Multi-Agent-Szenarien anwendbar ist. Alle Interagentenbeziehungen werden durch eine Interdependenzfunktion modelliert, die explizit sowohl Selbst- als auch Gruppeninteressen berücksichtigt, aus der multilaterale und unilaterale Selektierbarkeits- und Zurückweisungsmassenfunktionen abgeleitet und über den praxeischen Likelihood-Quotienten-Test verglichen werden können.;-;-;-;https://link.springer.com/article/10.1023/A%3A1015556407380 3d57d78561d76e6e73a7eddcd485be74;de;;;5.2.;;;Dynamische Spinchemie Das in den 1970er Jahren gegründete Gebiet der dynamischen Spinchemie ist das etablierteste Gebiet der Magnetowissenschaften. In der dynamischen Spinchemie beeinflusst ein Magnetfeld die Übergänge von Elektronenspinzuständen eines kurzlebigen Reaktionszwischenprodukts, das als Radikalpaar bezeichnet wird, was zu Änderungen der Zwischenlebensdauer und Produktausbeute führt. Die magnetischen Phänomene werden semiquantitativ oder quantitativ im Sinne der Quantenchemie interpretiert. Das stille Merkmal der Spinchemie ist, dass Magnetfelder von einem sehr schwachen Feld von ca. 0,0001 T auf ein sehr hohes Feld von ca. 30 T beeinflussen chemische Prozesse auf unterschiedliche Weise erheblich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-37062-8_6 8e9baa433fa0c25891717a9dc2423a43;de;;;5.2.;;;Selbstbericht im Vergleich zu leistungsbasierten Aktivitäten der täglichen Lebenskapazität bei Herztransplantationskandidaten und ihren Betreuern Transplantationskandidaten absolvierten den Every Day Problems Test (EPT), ein leistungsbasiertes Maß für instrumentelle Aktivitäten des täglichen Lebens (IADL) und die Katz-Selbstberichtsskala der IADL-Funktion. Das Pflegepersonal schätzte die IADL-Kapazität des Kandidaten anhand der Katz-Skala. Als Kontrollen dienten eine gesunde Gemeindegruppe und Patienten mit Herzerkrankungen, die sich keiner Transplantationsbewertung unterzogen, und ihre Betreuer. Es wurden Diskrepanzen zwischen den EPT- und Katz-Skalen erzeugt. Die Ergebnisse zeigten, dass die Gesamtzahl der Diskrepanzen zwischen den beiden Patientengruppen im Vergleich zu den Kontrollen signifikant höher war. Drei oder mehr Diskrepanzen (insgesamt wurden 7 IADL-Domänen bewertet) traten bei 40–52 % der Teilnehmer und deren Betreuer in den beiden Patientengruppen auf. In ähnlicher Weise war die Gesamtzahl der Diskrepanzen zwischen der Katz-Skala des Teilnehmers und ihrer Pflegeperson bei den beiden Patientengruppen signifikant höher als bei den Kontrollen, wobei nur 33–44 % in den Patientengruppen eine perfekte Übereinstimmung zeigten, verglichen mit 97 % bei den Kontrollen . Trotz einer hohen Prävalenz von Diskrepanzen in beiden Patientengruppen unterstützten die Ergebnisse nicht die Hypothese, dass Transplantationskandidaten dazu neigen, ihr Fähigkeitsniveau bei Selbstberichts-IADL-Messungen systematisch zu überschätzen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1009595615381 a48d2e12d78e236076fca6a59e6b8835;de;;;4.2.;;;Einfluss von Bakterienaerosol, Feinstaub und mikroklimatischen Parametern auf den Tierschutz im Zoologischen Garten Chorzów (Polen) Zoos sind sehr beliebte Einrichtungen, die von ganzen Familien mit Kindern besucht werden, um dort lebende Tiere zu beobachten. Zoos bieten auch Arbeitsplätze für eine Vielzahl von Menschen, die sich direkt um die Tiere kümmern. Für die Unterbringung von Tieren, egal ob Nutz-, Heim- oder Zootiere, ist mit einer höheren Konzentration sowohl von Staub als auch potenziell schädlicher Bioaerosole zu rechnen. Leider gibt es kaum Studien zur Konzentration bakterieller Bioaerosole und Feinstaub in Tierheimen, die die Frage beantworten würden, ob diese Schadstoffe konstant oder variabel und abhängig von einem bestimmten Zoo, Tiergruppe, Anzahl in Gehegen, oder Saison. Ziel dieser Studie war es, den Gehalt an Bakterienaerosol in Räumen für Tiere (Giraffen, Kamele, Elefanten, Kängurus und Colobinae) im Schlesischen Zoologischen Garten in Chorzów (Polen) zu bestimmen. Die Bioaerosolproben wurden unter Verwendung eines sechsstufigen Andersen-Kaskadenimpaktors gesammelt, um die Konzentrationen und Größenverteilung von Bakterien in der Luft zu bestimmen. Feinstaub (PM10) wurde mit einem elektronischen Staubmessgerät bewertet. Die Messungen der Mikroklimaparameter wurden mit dem Airflow™ Instruments Velocity Meter TA440 durchgeführt, während die Gaskonzentrationen mit dem GFG Microtector II G450 bestimmt wurden. Die Ergebnisse zeigten, dass die Konzentration von luftgetragenen Bakterien zwischen den Einrichtungen für die analysierten Tiergruppen signifikant variierte. Die niedrigste Konzentration des gesamten Bakterienaerosols wurde in Gehegen für Colobinae beobachtet (ca. 850 KBE/m²;-;-;-;https://link.springer.com/article/10.1007/s11356-020-10680-9 ccfff31189eb55e38d8fdbdde966c117;de;;;5.2.;;;Ein energiebewusster Ameisenkolonie-Algorithmus für das Routing von drahtlosen Sensornetzwerken Basierend auf den Eigenschaften des Routing-Protokolls für drahtlose Sensornetzwerke wird in diesem Beitrag ein energiebewusster Ameisenkolonie-Algorithmus (EAACA) für das Routing von drahtlosen Sensornetzwerken vorgeschlagen. Wenn das EAACA-Routing-Protokoll den nächsten Nachbarknoten wählt, werden nicht nur die Entfernung des Senkenknotens, sondern auch die Restenergie des nächsten Knotens und der Pfad der durchschnittlichen Energie berücksichtigt. Theoretische Analyse- und Simulationsergebnisse zeigen, dass das EAACA-Routingprotokoll im Vergleich zum traditionellen ACA-Algorithmus für das Routing von drahtlosen Sensornetzwerken den Energieverbrauch der Knoten im Netzwerk ausgleicht und die Netzwerklebensdauer verlängert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18129-0_62 5bd0827a62ec4aa359403b11eabc1f65;de;;;4.2.;;;Technologietransfer in der Festkörperelektronik Perspektiven und Chancen INNOVATION ist das Zauberwort, das in der heutigen Welt wirtschaftlichen und sozialen Erfolg und Misserfolg zu erklären scheint. Es bezeichnet eine komplexe und irgendwie nicht genau definierte Handlung, die zur erfolgreichen Markteinführung neuer Produkte und Prozesse führt, die im Vergleich zu den bestehenden effektiver sind und ein Unternehmen, eine Organisation, ein Land im XXI Jahrhundert wettbewerbsfähiger machen;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-5074-3_6 3ff3b2f10c9e198fddf7302bfd499843;de;;;5.2.;;;Ein Laplace-basierter Algorithmus für Bayes'sches adaptives Design Dieser Artikel stellt einen neuartigen Laplace-basierten Algorithmus vor, der verwendet werden kann, um Bayes'sche adaptive Designs unter Modell- und Parameterunsicherheit zu finden. Unser Algorithmus verwendet Laplace-Wichtiges-Sampling, um einen rechnerisch effizienten Ansatz für adaptives Design und Inferenz im Vergleich zu Standardansätzen wie denen, die auf dem sequentiellen Monte-Carlo-Algorithmus (SMC) basieren, bereitzustellen. Wie der SMC-Ansatz erfordert unser neuer Algorithmus nur sehr wenig problemspezifisches Tuning und bietet eine effiziente Schätzung von Nutzenfunktionen für die Parameterschätzung und/oder Modellwahl. Darüber hinaus verwenden wir in unserem Algorithmus Methoden der Pareto-Glättung, um die Robustheit des Algorithmus bei der Bildung von Partikel-Approximationen an Posterior-Verteilungen zu verbessern. Um unseren neuen adaptiven Designalgorithmus zu bewerten, werden drei motivierende Beispiele aus der Literatur berücksichtigt, darunter Beispiele, bei denen Binär-, Mehrfachantwort- und Zähldaten unter erheblicher Modell- und Parameterunsicherheit beobachtet werden. Wir vergleichen die Leistung unseres neuen Algorithmus mit: (1) dem Standard-SMC-Algorithmus und (2) einer Standardimplementierung der Laplace-Approximation im adaptiven Design. Wir bewerten die Leistung jedes Algorithmus, indem wir die Recheneffizienz und die Designauswahl vergleichen. Die Ergebnisse zeigen, dass unser neuer Algorithmus recheneffizient ist und Designs auswählt, die genauso gut oder besser funktionieren als die anderen beiden Ansätze. Daher schlagen wir unseren Laplace-basierten Algorithmus als effizienten Ansatz für das Design adaptiver Experimente vor.;-;-;-;https://link.springer.com/article/10.1007/s11222-020-09938-6 0dd65b17e49d4e8ed53d12271c5d782d;de;;;5.2.;;;GA-basierter Optimierungsansatz für fraktionierte lineare neuronale Netze und seine Anwendung Ein GA-basiertes Optimierungsverfahren des fraktionalen linearen neuronalen Netzes (FNN) wird vorgeschlagen. Erstens wird der GA verwendet, um das Gewicht des fraktionalen linearen neuronalen Netzwerks zu optimieren. Es wird eine Lösung nahe dem globalen Optimum gefunden. Dann kann das globale Optimum im lokalen Bereich mit einem Backpropagation-Algorithmus für das FNN erhalten werden, um das Netzwerk basierend auf der Lösung zu trainieren. Die Simulationsergebnisse zeigen, dass der GA-basierte neue Ansatz zur Optimierung des fraktionalen neuronalen Netzes machbar und effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18129-0_21 4993eb43a798d6cd3c6ab06b3557620e;de;;;4.2.;;;Gesundheitsbezogene Lebensqualität und Gesamtmortalität bei Dialysepatienten Diese Studie testet die Hypothese, dass die gesundheitsbezogene Lebensqualität (HRQOL) bei prävalenten Dialysepatienten mit Diabetes niedriger ist als bei Dialysepatienten ohne Diabetes und mindestens genauso schlecht ist wie bei Diabetikern mit einer anderen schweren Komplikation, dem Fußulkus. Diese Studie untersucht auch das mit Diabetes verbundene Sterblichkeitsrisiko bei Dialysepatienten.;-;-;-;https://link.springer.com/article/10.1186/1471-2369-13-78 d046c49d5e27da22e5cc63623d8dc202;de;;;5.2.;;;Eine Vorverarbeitung für den ungefähren String-Matching Der ungefähre String-Matching ist ein grundlegendes und wichtiges Konzept in vielen Anwendungen des Informationsabrufs. Dieses Papier schlägt einen Algorithmus für das Problem des approximativen String-Matchings vor. Der Algorithmus löst das Match-Count-Problem als Vorverarbeitung. Für Eingabestrings jeder Länge;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25453-6_50 083a946e3b50c983cb8e44f26ae6c02e;de;;;5.2.;;;Fehlerberichterstattung basierend auf geografischen Informationen des Fehlerortungssystems im Verteilnetz Für die Fehleridentifizierung im Nicht-Kontrollbereich des Verteilungsnetzes wird eine neue Methode zur Fehlerortung im Verteilungsnetz verwendet. Ein auf GIS basierendes Verteilungsnetzmodell wird eingeführt, gemischt aus Modell des Stromnetzverteilungsnetzes und Modell des geografischen Informationssystems (GIS). Ein auf der Grobmengentheorie basierender Fehlerlokalisierungsalgorithmus des Verteilungsnetzes wird konstruiert, ebenso wie ein Implementierungsprozess der Fehlerlokalisierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18129-0_70 6f7bde303ce764305528179ad48e71cd;de;;;5.2.;;;Inflation und Frustration 1948–1957 Das Jahrzehnt von 1948 bis 1957 war das frustrierendste in der Geschichte der Föderation. Kontinuierliche Vollbeschäftigung und Mangel an Arbeitskräften, insbesondere an Fachkräften, führten zu jährlichen Forderungen nach höherem Lohn oder kürzeren Arbeitszeiten oder beidem. Die Geschichte des Bundes wurde zu einer Geschichte fast ununterbrochener Lohnverhandlungen vor dem Hintergrund chronischer Inflation und periodischer Wirtschaftskrisen, begleitet von Appellen der Regierung zur Zurückhaltung und zahlreichen Bemühungen zur Stimulierung einer höheren Produktivität. Mehrmals sträubte sich die Föderation, dem Druck der Gewerkschaften zu widerstehen, sogar um den Preis einer nationalen Arbeitsniederlegung, aber jedes Mal zog die Regierung, die nicht bereit war, sich den Folgen eines großen Kampfes zu stellen, im letzten Moment den Teppich unter den Füßen weg . Das Ergebnis war eine Reihe von demütigenden Antiklimaxen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-01264-0_8 621954f55968804fac5c6fe2c4bc828b;de;;;5.2.;;;Ein Finite-Elemente-Ansatz für die Oberflächenrekonstruktion Dieser Beitrag widmet sich der Vorstellung von Algorithmen zur Interpolation mit simplizialen polynomischen Finiten Elementen. Wir präsentieren zunächst einige allgemeine Ergebnisse zur Konstruktion der stückweisen Polynominterpolation der Klasse;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-2017-0_8 c406f8599687a7b06c5f484187923da4;de;;;4.2.;;;Musikgeschmack als Assemblage Der Begriff „Geschmack“ ist zentral für eine Analyse des Musikkonsums. Das Konzept baut ein Verständnis der zugrunde liegenden Gründe auf, warum Menschen die Musik, die sie hören, mögen, wie sie sie verwenden und assoziieren und wie sie davon betroffen sind. Geschmack bleibt jedoch meist ein ziemlich verschwommener Begriff. Tatsächlich ist „Geschmack“ ein Überbegriff, der sich in der wissenschaftlichen Forschung abwechselnd auf „Musikpräferenzen“, „musikalische Bedeutungen“ oder sogar „Hörpraktiken“ bezieht. Abhängig von der Disziplin, aus der diese Analysen stammen, und der Methodik, die verwendet wird, um den „Musikgeschmack“ zu erfassen, hat das Konzept unterschiedliche theoretische Definitionen und Implikationen. Im Gegenzug werden Rückschlüsse auf die Zusammensetzung des Musikgeschmacks, seine Herkunft und seine Bedeutung für das Verhältnis zum sozialen Umfeld und zu Gleichaltrigen gezogen.;-;-;-;https://link.springer.com/chapter/10.1057/9781137492562_5 2a54e07f10ee3da0c7f2b7f7a72574d2;de;;;5.2.;;;Der Einfluss von DCT- und DWT-Domänen auf die Robustheit genetischer Wasserzeichenmark Das Wasserzeichen unter Verwendung eines genetischen Algorithmus zur Optimierung des Abtretens zwischen den Wasserzeichen-Anforderungen hat die Aufmerksamkeit der Forscher auf sich gezogen, unter den Wasserzeichen-Anforderungen ist die Robustheit eine wichtige. Das Einbetten von Wasserzeichen in die Frequenzdomäne unter Verwendung von DWT oder DCT kann die Robustheit von Wasserzeichen beeinflussen. In diesem Artikel wird der Einfluss der Einbettungsdomäne auf die Robustheit bei genetischen Wasserzeichen untersucht. Ergebnisse von Angriffen basierend auf numerischer Korrelation (NC) werden durch die Papierabschnitte analysiert, die DWT-Ergebnisse zeigten mehr Robustheit als DCT bei der Wasserzeichenmarkierung basierend auf GA.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25327-0_27 a6a3504ed95156f3feafb875b23d9123;de;;;4.2.;;;Anionentransport in Erythrozyten Vor zwanzig Jahren hätte ein solches Buch wahrscheinlich kein Kapitel über den Anionentransport enthalten. Damals gab es wenig Interesse an Anionen, da man der Meinung war, dass die wichtigsten physiologischen Prozesse den Transport von Kationen beinhalten und dass Anionen einfach mit Kationen einhergehen, um die Elektroneutralität aufrechtzuerhalten. Es wurde angenommen, dass der Großteil des Anionentransports eine passive Diffusion beinhaltet und mit Ausnahme von Sonderfällen wie dem Cl;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-1943-6_12 12efc0b8a7231a0634afe3abe1f20398;de;;;5.2.;;;Ein effizienter Ansatz zur Erkennung von Kommentar-Spam Dieses Papier schlägt einen neuartigen Ansatz zur Erkennung von Kommentar-Spam basierend auf Inhaltsanalyse vor. Drei Hauptmerkmale, einschließlich der Anzahl der Links, der Wiederholung von Inhalten und der Textähnlichkeit, werden zur Identifizierung von Kommentar-Spam verwendet. In der Praxis wird die Wiederholbarkeit des Inhalts durch die Länge und Häufigkeit der längsten gemeinsamen Teilzeichenfolge bestimmt. Außerdem wird die Textähnlichkeit unter Verwendung des Vektorraummodells berechnet. Die Genauigkeiten vorläufiger Experimente zur Identifizierung von Kommentar-Spam, die auf Chinesisch und Englisch durchgeführt wurden, liegen bei 93 % bzw. 82 %. Die Ergebnisse zeigen die Validität und Sprachunabhängigkeit dieses Ansatzes. Im Vergleich zu herkömmlichen Spam-Filtering-Ansätzen erfordert unsere Methode kein Training, keine Regelsätze und keine Linkbeziehungen. Der vorgeschlagene Ansatz kann auch mit neuen Kommentaren sowie mit bestehenden Kommentaren umgehen.;-;-;-;https://link.springer.com/article/10.1007/s11767-007-0115-z 431ece4fdd1e3e20df6cc662f038bec9;de;;;4.2.;;;Die Aufschlüsselung des Status Quo „Ich bin der festen Überzeugung, dass es unsere beste Politik ist, schlafende Hunde liegen zu lassen.“ Dies war das Ergebnis einer langen Depesche über den Streit von Sir George Middleton, dem britischen Botschafter in Buenos Aires, im November 1963. Länge und Ton des Berichts deuteten jedoch darauf hin, dass „der schläfrigste aller schlafenden Hunde“ bereits wieder erwacht war.;-;-;-;https://link.springer.com/chapter/10.1057/9781137354235_2 467a170a51f48160f49faef1abc8d449;de;;;4.2.;;;Vielfalt der Kulturen und Naturrecht Huntington prognostiziert die Gefahr des Zusammenpralls der Zivilisationen in der Weltordnung. Der Multikulturalismus hat die Ordnungen einiger Staaten überschattet. Die verschiedenen Gesellschaftsordnungen stehen kurz vor der Spaltung. Die Absicht dieses Beitrags ist zu zeigen, dass die Vielfalt der Kulturen nicht gleich die Relativität der Ethik bedeutet, dass nur die auf Naturrecht basierende Bonum Commune verhindert, dass die Vielfalt der Gesellschaften Klüfte verursacht und die Einheit der Ordnung sichert;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-2702-0_12 debfcd9e3fd649c4219a0fc249316433;de;;;5.2.;;;Eine Methode zur effizienten Schätzung der Nicht-Gaussianität von stetig-variablen Quantenzuständen Wir entwickeln eine Methode zur effizienten Berechnung der Nicht-Gaussianität von Quantenzuständen in der Wigner-Funktionsdarstellung basierend auf der Sinusmetrik. Im Gegensatz zu den bekannten Nicht-Gaußschen Maßen suchen wir das entsprechende Referenz-Gauss-Gegenstück über die Kumulanten-Expansions-Techniken des Quantenzustands. Wir analysieren diese Größe für einige nicht-Gaußsche Quantenzustände, die durch andere nicht-Gaußsche Maßzahlen wie den Grad der Gaussianität, die Hilbert-Schmidt-Metrik und die relative Entropie-Metrik nicht gut erfasst oder quantifiziert werden können, und bieten damit ein gutes Maß für einen echten nicht-Gaußschen Zustand quantifizieren.;-;-;-;https://link.springer.com/article/10.1140/epjd/e2019-100421-6 21c917985389b31f95dc3a1954e1e838;de;;;5.2.;;;Asynchroner verteilter genetischer Algorithmus für optimales Kanalrouting Dieses Papier stellt einen verteilten genetischen Algorithmus für das Kanalroutingproblem in MPI-Umgebungen vor. Dieses System ist in einem Netzwerk von PCs implementiert, auf denen das Linux-Betriebssystem läuft, die über 10 Mbit/s Ethernet verbunden sind. Jeder Slave-Prozessor erzeugt seine eigene Subpopulation unter Verwendung genetischer Operationen und kommuniziert asynchron mit dem Master-Prozessor, um die globale Population zu bilden. Die experimentellen Ergebnisse zeigen, dass der vorgeschlagene Algorithmus die Konvergenzeigenschaften des sequentiellen genetischen Algorithmus beibehält, während er eine lineare Beschleunigung erreicht, wenn die Netze des Kanalroutings und die Anzahl der Rechenprozessoren zunehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30497-5_31 dd17a87ee1285cb8e864ea9d6eb73d48;de;;;5.2.;;;Zum kognitiven Status von Pausen in der Diskursproduktion In diesem Kapitel werden einige Aspekte zum kognitiven Status von Pausen in der Forschung zur Diskursproduktion diskutiert. Es beginnt mit einem kurzen Überblick über einige der „kanonischen“ Studien zur Sprachproduktion, in denen die pausenanalytische Methodik angewendet wird. Abschnitt 2 erörtert Methoden zum Sammeln von Pausendaten und zum Erstellen von Pausendatenbanken. Abschnitt 3 befasst sich mit einem zentralen Thema: Der empirische Status von Pausen. Zunächst wird gezeigt, dass die Beziehung zwischen Pausen und kognitiven Prozessen in der Diskursproduktion aufrechterhalten werden kann, indem man betrachtet, was in der unmittelbaren Nachbarschaft von Pausen passiert. Basierend auf einer Analyse tatsächlicher Transkripte werden vier Arten von Pausen unterschieden: Pausen signalisieren das Abrufen, Pausen signalisieren die Überwachung und Pausen signalisieren Reparaturprozesse. Zweitens wird in diesem Abschnitt erörtert, wie Varianzen der Pausenzeit im Hinblick auf unterognitive Prozesse interpretiert werden können, und der Abschnitt schließt mit einer Diskussion darüber, wie Pausen mit Textstrukturmerkmalen zusammenhängen. Der vierte Abschnitt diskutiert verschiedene statistische Methoden zur Analyse von Pausendaten und zeigt die Art von Forschungsfragen, die mit jeder Methode behandelt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0468-8_4 46488121731ccc7c16fa75c03c6d4926;de;;;5.2.;;;Lehrveröffentlichung im Vereinigten Königreich In einer Branche, in der sich der technologische Wandel schnell vollzieht und in der Entscheidungen politische, soziale und kulturelle Auswirkungen haben, ist es unklug – und vielleicht sogar unmöglich –, Praxis von Theorie zu trennen. Indem sie das Publizieren als Berufsausübung betrachten, können Lehrkräfte den Schülern sowohl die Fähigkeiten als auch das Verständnis vermitteln, die sie als Verleger benötigen.;-;-;-;https://link.springer.com/article/10.1007/BF02683728 5a81626187baca014d0b8f486b539fe4;de;;;5.2.;;;Israelische Strategische Kultur und der Iran „Preemption Scare“ von 2009–2013 Gregory Giles bietet eine nützliche und unkonventionelle Sichtweise auf die israelische Nuklearfrage, indem er sich auf die Verpflichtung des jüdischen Staates konzentriert, sein weithin vermutetes regionales Nuklearmonopol zu schützen – falls erforderlich mit einseitiger militärischer Gewalt – und die Bemühungen der USA, potenzielle israelische Maßnahmen zu steuern und zu moderieren. Giles fängt kurz und bündig die grundlegenden Elemente von Israels operativer kultureller Erzählung in Bezug auf die Begin-Doktrin ein. Um eine Reihe spezifischer kritischer Faktoren zu demonstrieren, die in Israels operativer kultureller Erzählung zu Nuklearfragen durchweg funktioniert haben, beschreibt Giles den Entscheidungsprozess hinter den israelischen Militärschlägen auf Nuklearanlagen in Syrien und im Irak und zeigt, wie jedes der Kriterien innerhalb dieser Erzählung erfüllt wurde . Anschließend vergleicht und kontrastiert er diese beiden Fälle mit dem Versäumnis Israels, die iranischen Nuklearanlagen während der kritischen Periode 2009-2013 anzugreifen. Giles stellt fest, dass es sich als schwierig erweisen kann, den Code des israelischen Entscheidungsprozesses zu knacken, wenn die US-Interessen und das projizierte Sicherheitsverhalten nicht sauber mit Israels bevorzugter Vorgehensweise übereinstimmen, und bietet unschätzbare Einblicke und Empfehlungen für den weiteren Weg.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-72670-0_5 39b11bf36721ffe0a437214f74f29897;de;;;5.2.;;;Ein hybrider genetischer Algorithmus und Tabu-Suchansatz für die Stundenplanung nach der Einschreibung Das Stundenplanproblem nach der Immatrikulation (PECTP) ist eine Form des Stundenplanproblems von Universitäten, bei dem eine Reihe von Veranstaltungen in Zeitfenstern geplant und gemäß den Immatrikulationsdaten in geeigneten Räumen untergebracht werden müssen. Das PECTP ist ein NP-hartes kombinatorisches Optimierungsproblem und daher sehr schwer optimal zu lösen. Dieses Papier schlägt einen hybriden Ansatz vor, um das PECTP in zwei Phasen zu lösen. In der ersten Phase wird ein genetischer Algorithmus zur geführten Suche angewendet, um das PECTP zu lösen. Dieser genetische Algorithmus für geführte Suche integriert eine geführte Suchstrategie und einige lokale Suchtechniken, wobei die geführte Suchstrategie eine Datenstruktur verwendet, die nützliche Informationen speichert, die von früheren guten Individuen extrahiert wurden, um die Erzeugung von Nachkommen in der Population zu leiten, und die lokalen Suchtechniken sind verwendet, um die Qualität des Einzelnen zu verbessern. In der zweiten Phase wird weiterhin eine Tabu-Suchheuristik für die beste Lösung verwendet, die durch die erste Phase erhalten wurde, um die Optimalität der Lösung nach Möglichkeit zu verbessern. Der vorgeschlagene hybride Ansatz wird an einem Set von Benchmark-PECTPs aus dem internationalen Fahrplanwettbewerb im Vergleich zu einem Set von State-of-the-Art-Methoden aus der Literatur getestet. Die experimentellen Ergebnisse zeigen, dass der vorgeschlagene Hybridansatz vielversprechende Ergebnisse für die Test-PECTPs liefern kann.;-;-;-;https://link.springer.com/article/10.1007/s10951-010-0202-0 ca658bb006c2d99363a7cb0c5d4f4769;de;;;5.2.;;;Gehört werden Halten Sie immer Ihre Augen und Ohren offen für neue Möglichkeiten, Ihre Show bei neuen Zuhörern zu bewerben. Stellen Sie sicher, dass Ihre Podcast-Informationen in der Signatur aller Ihrer E-Mails enthalten sind. Wenn Sie auf einem schwarzen Brett posten, vergessen Sie nicht zu sagen, von welchem ​​Podcast Sie stammen. Erwähnen Sie Ihren Podcast auf Schritt und Tritt. Ja, Sie können Ihre Arztpraxis anrufen, um einen Termin zu vereinbaren und sich versehentlich über Ihre URL ansprechen, aber hey, Ihr Arzt könnte ein Podcast-Hörer sein, oder?;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-0054-3_10 5d4f1e7ab4817edba3f539978dbe64ed;de;;;5.2.;;;Mining von Telekommunikationsnetzwerken zur Verbesserung der Vorhersagen über die Kundenlebensdauer Kundenbindung ist in vielen Märkten, einschließlich der mobilen Telekommunikation, zu einer Notwendigkeit geworden. Da es für Kunden einfacher wird, den Anbieter zu wechseln, versuchen die Anbieter, Vorhersagemodelle zu verbessern, um bei potenziellen Abwanderungsforschern einzugreifen. Viele Studien haben verschiedene Modelle evaluiert, um eine Verbesserung der Vorhersagegenauigkeit zu erzielen. Diese Studie schlägt vor, dass die Attribute, nicht das Modell, überdacht werden müssen. Durch die Darstellung von Anrufdetaildatensätzen als soziales Kundennetzwerk können Netzwerkattribute zur Verwendung in verschiedenen traditionellen Vorhersagemodellen extrahiert werden. Die Verwendung von Netzwerkattributen weist eine signifikante Zunahme der Fläche unter der Receiver Operating Curve (AUC) im Vergleich zur Verwendung nur einzelner Kundenattribute auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07176-3_2 fa3e8910d4918df93f5c9049903cbf84;de;;;4.2.;;;Trend Mining und Visualisierung in sozialen Netzwerken Ein Framework, das IGCV-Framework (Identification, Grouping, Clustering and Visualisation), wird beschrieben, um die zeitliche Analyse von Daten sozialer Netzwerke zu unterstützen. Genauer gesagt die Identifizierung und Visualisierung von „Verkehrsbewegungen“ von Mustern in solchen Netzwerken und wie sich diese Muster im Laufe der Zeit ändern. Es wird eine vollständige Beschreibung der Funktionsweise der IGCV sowie eine Bewertung ihrer Funktionsweise unter Verwendung eines Rinderbewegungsnetzes vorgelegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-2318-7_21 a218c5338c23671ff5357f348a771e6b;de;;;4.2.;;;Die Auswirkungen des Beziehungsnutzens auf die Beziehungsqualität und die Geschäftstreue von Konvergenzumgebungen – NPS-Analyse und Moderationseffekte Das Hauptanliegen von CRM sind Kernkunden aus Konvergenzumgebungen. Sie zeigen eine so leidenschaftliche Partnerschaft mit dem Unternehmen, dass sie ihre Meinung zur Verbesserung von Produkten und Dienstleistungen durch freiwillige unternehmensfreundliche Aktivitäten aktiv einbringen und sich durch offene Innovation an der Entwicklung neuer Produkte beteiligen. Daher sollte die oberste Priorität eines Unternehmens darin bestehen, seine Kernkunden zu definieren und sie genau zu verstehen und zu verwalten, was zum Wachstum des Unternehmens beitragen würde. Diese Studie hat den Zweck, den Net Promoter Score (NPS) des Unternehmens zu ermitteln, indem ein Index verwendet wird, der den Grad der Kundenloyalität gegenüber dem Unternehmen bei der Beurteilung der Beziehung zwischen Unternehmen und Kunden bewertet, und später eine Strategie zur Erhöhung der Anzahl treuer Kunden zu entwickeln Klassifizieren der Kunden nach der Punktzahl. Es ist heute wichtiger geworden, eine langfristige Kundenbeziehung zu führen, denn sie kann dem Unternehmen trotz des starken Wettbewerbs mit Konkurrenzunternehmen steigende Einnahmen sichern. Daher ist eine starke Kundenbeziehung ein wichtiges Mittel, um dem Unternehmen einen Wettbewerbsvorteil zu verschaffen und den Unternehmensgewinn zu maximieren. Da der NPS als Anpassungsvariable dient, wurden außerdem Net Promoter analysiert, um einen signifikanten Beitrag zur Loyalität im Geschäft zu leisten. Der Weg für Buchhandlung A, als Unternehmen mit Potenzial für zukünftiges Wachstum zu wachsen, besteht darin, Kunden durch eine eingehendere Analyse der Kunden wiederherzustellen und nach Methoden zur Erhöhung des NPS zu suchen.;-;-;-;https://link.springer.com/article/10.1007/s10660-013-9117-0 1ed17a998b0015b44b582406fbf40d4b;de;;;5.2.;;;Studie zur MAP-basierten Vektorsteuerungsmethode für den Fahrzeugantriebsmotor Im Gegensatz zu dem Mangel an schmalem effizientem Bereich und Überstrom, wenn das Vektorsteuerungsverfahren auf Fahrzeugantriebsmotoren angewendet wird, schlägt dieses Papier ein MAP-basiertes Vektorsteuerungsverfahren des Fahrzeugantriebsmotors mit Vorwärtskopplung vor. Steuern Sie entsprechend dem erforderlichen Motordrehmoment und der erforderlichen Drehzahl direkt die Größe und Richtung des Spannungsraumvektors, um das Ziel der Motordrehmomentsteuerung zu erreichen. Daher ist die Berechnung der Drehmomentstromkomponente und der Feldstromkomponente nicht erforderlich, was nicht nur Überströme vermeidet, zu denen die PID-Regelung führt, was die Zuverlässigkeit des Reglers verbessert, sondern auch die Abhängigkeit von der Strommessung vermeidet und die Regelgenauigkeit verbessert und Motorwirkungsgrad. Schließlich beweisen Simulationsergebnisse und Motorprüfstandstests, dass diese Methode den effizienten Bereich erheblich vergrößern kann und für Fahrzeugbetriebsbedingungen geeignet ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18134-4_18 272910559a61d02024be841d493ff527;de;;;5.2.;;;Genetische Programmierung — Einführung, Anwendungen, Theorie und offene Fragen Genetische Programmierung (GP) ist ein evolutionärer Ansatz, der genetische Algorithmen erweitert, um die Erforschung des Raums von Computerprogrammen zu ermöglichen. Wie andere evolutionäre Algorithmen arbeitet GP, indem es ein Ziel in Form eines Qualitätskriteriums (oder Fitness) definiert und dann dieses Kriterium verwendet, um einen Satz (oder eine Population) von Kandidatenlösungen (Individuen) zu entwickeln, indem die Grundprinzipien der Darwinschen Evolution nachgeahmt werden. GP züchtet die Lösungen für Probleme durch einen iterativen Prozess, der die probabilistische Auswahl der geeignetsten Lösungen und deren Variation mittels einer Reihe von genetischen Operatoren, normalerweise Crossover und Mutation, beinhaltet. GP wurde erfolgreich auf eine Reihe von herausfordernden realen Problembereichen angewendet. Seine Funktionsweise und sein Verhalten sind dank einer Vielzahl leistungsfähiger theoretischer Ergebnisse inzwischen einigermaßen gut verstanden. In diesem Kapitel stellen wir die wichtigsten Definitionen und Funktionen von GP vor und beschreiben ihre typischen Operationen. Wir begutachten dann einige seiner Anwendungen. Wir besprechen auch einige wichtige theoretische Ergebnisse auf diesem Gebiet, darunter einige sehr neue, und diskutieren einige der schwierigsten offenen Fragen und Richtungen für die zukünftige Forschung.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-540-92910-9_24 af79be94a955821d65b9b98c90023a19;de;;;5.2.;;;Gleichheit und andere Theorien Theoretische Argumentation ist eine wichtige Technik zur Steigerung der Effizienz automatisierter Deduktionssysteme. Das Wissen aus einem gegebenen Bereich (oder einer Theorie) wird verwendet, indem effiziente Methoden zur Argumentation in diesem Bereich angewendet werden. Der allgemeine Zweck;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1754-0_4 1702e369e7a0717d528887714dd2769c;de;;;5.2.;;;Genselektion im Klassenraum zur molekularen Klassifikation von Krebs Die Genselektion (Merkmalsselektion) wird im Allgemeinen im Genraum (Merkmalsraum) durchgeführt, wo immer ein sehr ernstes Fluch des Dimensionalitätsproblems besteht, da die Anzahl der Gene viel größer ist als die Anzahl der Proben im Genraum (G-Raum). Dies führt zu Schwierigkeiten bei der Modellierung des Datensatzes in diesem Raum und zu einer geringen Zuverlässigkeit des Ergebnisses der Genselektion. Wie man in diesem Fall eine Genuntergruppe findet, ist ein schwieriges Thema. In dieser Arbeit wird der obige G-Raum in seinen dualen Raum transformiert, der als Klassenraum (C-Raum) bezeichnet wird, so dass die Anzahl der Dimensionen genau der Anzahl der Klassen der Proben im G-Raum und der Anzahl der Proben entspricht im C-Raum ist die Anzahl der Gene im G-Raum. Es ist offensichtlich, dass der Fluch der Dimensionalität im C-Raum nicht existiert. Mit Hilfe der Principal Component Analysis (PCA) wird ein neues Genselektionsverfahren vorgestellt, das auf dem Prinzip der möglichst weitgehenden Trennung verschiedener Klassen beruht. Die experimentellen Ergebnisse zur Genselektion für reale Datensätze werden mit dem Fisher-Kriterium, dem gewichteten Fisher-Kriterium sowie der Leave-One-Out-Kreuzvalidierung ausgewertet, was zeigt, dass die hier vorgestellte Methode effektiv und effizient ist.;-;-;-;https://link.springer.com/article/10.1360/02yf0420 fb2ee5aff124c33ab515312c8307cb00;de;;;5.2.;;;Zusammenfassung und Neuheit: Eine experimentelle Untersuchung Die kontinuierliche Entwicklung von Technologien für mobile Geräte, ihrer unterstützenden Infrastrukturen und zugehörigen Dienste ist wichtig, um die Anforderungen der heutigen Benutzer an den Zugriff auf Informationen jederzeit und überall zu erfüllen. Die wachsende Notwendigkeit, Informationen auf Anfrage in einer für unterwegs leicht und leicht verdaulichen Form zu liefern, bleibt weiterhin eine Herausforderung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71496-5_83 0144b2b008b674e4f16dd559f2369074;de;;;4.2.;;;Biomolekül-Screening zur effizienten Anlagerung biofunktionalisierter Mikropartikel an die Zona pellucida von Säugetier-Oozyten und Embryonen Die individuelle Kennzeichnung von Eizellen und Embryonen durch Anbringen von mikrometergroßen Polysilizium-Barcodes an ihrer Zona pellucida (ZP) ist ein vielversprechender Ansatz, um ihre korrekte Identifizierung und Rückverfolgbarkeit in der humangestützten Reproduktion und in Tierproduktionsprogrammen sicherzustellen. Um Barcodes mit der Fähigkeit zur Bindung an das ZP bereitzustellen, müssen sie zunächst mit einem Biomolekül biofunktionalisiert werden, das sowohl an das ZP von Eizellen als auch Embryonen binden kann. Ziel dieser Arbeit war es, unter einem Anti-ZP2-Antikörper und den beiden Lektinen Weizenkeim-Agglutinin (WGA) und Phytohämagglutinin-L das optimalste Biomolekül für die eventuelle Biofunktionalisierung von Barcodes unter Verwendung von Maus-Oozyten und -Embryonen sowie kommerziell erhältlichen Mikrosphären auszuwählen Wie ein Model. Obwohl der Anti-ZP2-Antikörper die höchste Anzahl von Bindungsstellen auf der ZP-Oberfläche zeigte, wie durch Feldemissions-Rasterelektronenmikroskopie bestimmt, war die Bindung von anti-ZP2-biofunktionalisierten Mikrosphären an das ZP von kultivierten Oozyten und Embryonen weniger robust und weniger stabil als die Bindung von Lektin-biofunktionalisierten. WGA erwies sich unter den drei getesteten Kandidaten als das am besten geeignete Biomolekül zur Biofunktionalisierung von Mikropartikeln mit dem Ziel, sie an das ZP von Eizellen und Embryonen zu binden und durch Eizellenaktivierung (Zonareaktion) zu erhalten und;-;-;-;https://link.springer.com/article/10.1007/s10544-013-9766-8 49ae0ad55d1630c22d6dd19e02f1ec64;de;;;5.2.;;;Einführung in GIS-MCDA In diesem Kapitel werden die wichtigsten Elemente und Konzepte von MCDA erörtert. In der MCDA-Literatur wurden eine Reihe von Ansätzen zur Definition von Entscheidungsproblemen vorgeschlagen. Auf der rudimentärsten Ebene umfasst ein multikriterielles Entscheidungsproblem eine Reihe von Alternativen, die auf der Grundlage widersprüchlicher und inadäquater Kriterien gemäß den Präferenzen des Entscheidungsträgers bewertet werden. Zu den Hauptelementen eines multikriteriellen Entscheidungsproblems gehören: Entscheidungsträger, Alternativen und Kriterien. Die Verfahren zur Lösung multikriterieller Entscheidungsprobleme umfassen drei Hauptkonzepte: Wertskalierung (oder Standardisierung), Kriteriumsgewichtung und Kombinations-(Entscheidungs-)Regel. Dies sind grundlegende Konzepte für MCDA im Allgemeinen und GIS-MCDA im Besonderen. Sie können als Bausteine ​​räumlicher Entscheidungsunterstützungsverfahren betrachtet werden. In der MCDA-Literatur wurden eine Reihe von Ansätzen zur Definition von Entscheidungsproblemen vorgeschlagen (z. B. Keeney;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74757-4_2 5e0fb428a4a601f82b8099afd0120dd0;de;;;5.2.;;;Ein paralleler Algorithmus zur Lösung von Problemen mit den kürzesten Pfaden in Rastergraphen Der Near-Shortest Path (NSP)-Algorithmus (Carlyle and Wood, Networks 46(2): 98–109, 2005, Medrano and Church, GeoTrans RP-01-12-01, UC Santa Barbara, 2012) wurde als effektiv bei der Generierung von guten Routenalternativen für die Gestaltung neuer Infrastrukturen. Während der Algorithmus selbst schneller ist als andere enumerative Shortest-Path-Set-Ansätze, einschließlich des K-th-shortest-path-Problems, wachsen die Größe der Lösungsmenge und die Rechenzeit exponentiell mit der Problemgröße oder den Parametern und erfordert die Verwendung von Hochleistungs-Parallelrechnen zur Lösung to für reale Probleme. Wir präsentieren eine neue Breitensuche-Parallelisierung des NSP-Algorithmus. Rechenergebnisse und zukünftige Arbeiten zur parallelen Effizienzsteigerung werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-8745-6_7 e546a0e31829f590cab1b82720253d0c;de;;;5.2.;;;TACL: TRON Application Control-Flow-Sprache Im TRON-Projekt werden viele Schnittstellen erweiterbar unter Verwendung einer Sprache namens TULS (TRON Universal Language System) beschrieben. TACL (TRON Application Control-Flow Language), die eine Programmierumgebung auf BTRON bereitstellt, basiert auf TULS. Die Ausführung von TACL erfolgt durch die Erweiterung von Makros. Es verwendet lokal gespeicherte flüchtige Wörterbücher und eine dauerhafte Speicherung in Form von realen Objekten, die den realen/virtuellen Objekten des BTRON-Datenmodells entsprechen. Makros sind in den Wörterbüchern definiert. Die Anzeige von Daten innerhalb eines Fensters erfolgt durch Interpretieren des Dateninhalts als TACL-Programm. TACL verarbeitet externe Ereignisse, z. B. von Geräten, als Teil der Makroverarbeitung. die in TACL verwendeten Wörterbücher bieten eine vielseitige Verarbeitungsfähigkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-68081-9_6 0feb8476ff03751955c03c3eda4338cc;de;;;5.2.;;;Algorithmus zur Erzeugung von dem basierend auf Kegel con Das digitale Höhenmodell (DEM) hat eine Vielzahl von Anwendungen in GIS und CAD. Es ist das Basismodell zum Generieren von dreidimensionalen Geländemerkmalen. Im Allgemeinen gibt es zwei Methoden zum Erstellen von DEM. Einer basiert auf dem digitalen Geländemodell diskreter Punkte und zeichnet sich durch hohe Geschwindigkeit und geringe Präzision aus. Das andere basiert auf einem dreieckigen digitalen Geländemodell, und langsame Geschwindigkeit und hohe Präzision sind die Merkmale des Verfahrens. In diesem Beitrag wird ein Algorithmus zur Erzeugung von DEM mit diskreten Punkten vorgestellt, der die Vorteile der beiden Methoden kombiniert. Beim Interpolieren der Höhe kann mit dieser Methode ein Dreieck erstellt werden, das einen Interpolationspunkt enthält, und die Höhe des Interpolationspunkts kann aus dem Traingle erhalten werden. Das Verfahren hat den Vorteil hoher Geschwindigkeit, hoher Präzision und weniger Speicher.;-;-;-;https://link.springer.com/article/10.1007/BF02826606 003cbafe89a355da262df5dff2e4e1d3;de;;;4.2.;;;Significant Learning Communities – Ein humanistischer Ansatz zur Wissens- und Personalentwicklung im Zeitalter des Internets Dieser Beitrag zielt darauf ab, die Potenziale humanistischer, personenzentrierter Begegnungsgruppen mit kollaborativem Lernen, unterstützt durch interaktive Webspaces, zusammenzuführen. Die resultierenden soziotechnischen Systeme werden als Significant Learning Communities bezeichnet. Sie basieren auf dem Konzept des signifikanten Lernens, das Prozesse der Persönlichkeits- und Wissensentwicklung auf der Grundlage konstruktiver Beziehungen zwischen Individuen und ihrer Umwelt subsumiert. Der Beitrag charakterisiert Significant Learning Communities, vergleicht sie mit ähnlichen Beziehungssystemen, reflektiert die Rolle webbasierter Tools und identifiziert sowohl die Herausforderungen als auch den Nutzen des neuen sozio-technischen Konstrukts.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87783-7_1 caaa514f1250f7c6ea4546a2cf28e870;de;;;5.2.;;;Eine Studie zur Verwendung von authentischem Video in Hörkursen Dieser Artikel berichtet über eine Fallstudie, die die Verwendung von authentischem Video im öffentlichen Englischunterricht und im Englischunterricht untersucht und vergleicht. Die Studie wurde sowohl unter Klassenzimmerbedingungen als auch unter autonomem Lernen durchgeführt. Durch die Beobachtung der Teilnehmer, einschließlich Lehrer und Schüler, legen die Ergebnisse nahe, dass Lehrer über eine systematische Kognition verfügen, die ihre Praxis prägt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_399 5655ed08eaecdc2cc9890661076cc664;de;;;5.2.;;;Die Entscheidung der optimalen Parameter in Markov-Zufallsfeldern von Bildern durch einen genetischen Algorithmus Dieser Artikel stellt das Prinzip des genetischen Algorithmus und die grundlegende Methode zur Lösung von Markov-Zufallsfeldparametern vor. Ausgehend von den Unzulänglichkeiten der gegenwärtigen Verfahren wird ein neues Verfahren basierend auf genetischen Algorithmen vorgeschlagen, um die Parameter im Markov-Zufallsfeld zu lösen. Die detaillierte Vorgehensweise wird besprochen. Anhand der durch genetische Algorithmen gelösten Parameter werden einige Versuche zur Klassifizierung von Luftbildern gegeben. Experimentelle Ergebnisse zeigen, dass das vorgeschlagene Verfahren effektiv ist und die Klassifizierungsergebnisse zufriedenstellend sind.;-;-;-;https://link.springer.com/article/10.1007/BF02826603 4110102418bb7e10c7e264dce3132de9;de;;;5.2.;;;Einige mathematische Überlegungen zur Zweimodus-Suche I Zweck dieser Arbeit ist es, die Beziehung zwischen der Effizienz des Zweimoden-Suchverhaltens und der lückenhaften Verteilung des Ziels mathematisch zu betrachten. Die Suche in zwei Modi umfasst die Patch-Suche und die Zielerfassung. Zwei intuitive Modelle werden vorgestellt: Modell 1 konstruiert durch einen Wiener-Prozess auf;-;-;-;https://link.springer.com/article/10.1007/BF03167685 a59f67e8a25b29c594d9017130108cb4;de;;;5.2.;;;Ineffiziente Konjunktionssuche durch gleichzeitige gesprochene Übermittlung der Zielidentität effizient gemacht Die visuelle Suche auf der Grundlage einer Verbindung zweier Merkmale ruft typischerweise Reaktionszeiten hervor, die als Funktion der Anzahl der Distraktoren linear ansteigen, während die Suche auf der Grundlage eines einzelnen Merkmals im Wesentlichen nicht von der Satzgröße beeinflusst wird. Diese und verwandte Ergebnisse wurden oft als Beweis für eine serielle Suchphase interpretiert, die einer parallelen Suchphase folgt. Eine Vielzahl von Studien hat jedoch eine Form der Vermischung dieser beiden Prozesse gezeigt. Wenn beispielsweise eine gesprochene Anweisung das Konjunktionsziel gleichzeitig mit der visuellen Anzeige identifiziert, wird der Effekt der Satzgröße erheblich reduziert, was darauf hindeutet, dass eine inkrementelle linguistische Verarbeitung des ersten Merkmalsadjektivs und dann des zweiten Merkmalsadjektivs etwas erleichtern kann, das einer parallelen Extraktion von Objekte während der Suche nach dem Ziel. Hier erweitern wir diese Ergebnisse auf eine Vielzahl von experimentellen Designs. Zuerst replizieren wir das Ergebnis mit einem gemischten Studiendesign (wodurch potenzielle Strategien ausgeschlossen werden, die mit dem blockierten Design der ursprünglichen Studie verbunden sind). Zweitens variiert in einem Experiment mit gemischten Studien die Reihenfolge der Adjektivtypen in der gesprochenen Abfrage zufällig zwischen den Bedingungen. In einem dritten Experiment erweitern wir den Effekt auf eine Suchaufgabe mit dreifacher Konjunktion. Ein viertes (Kontroll-)Experiment zeigt, dass diese Effekte nicht auf eine effiziente Odd-One-Out-Suche zurückzuführen sind, die die linguistische Eingabe ignoriert. Diese Reihe von Experimenten liefert zusammen mit Attraktornetzwerk-Simulationen der Phänomene weitere Beweise für das Verständnis linguistisch vermittelter Einflüsse in der visuellen Echtzeit-Suchverarbeitung.;-;-;-;https://link.springer.com/article/10.3758/BF03193358 ba14e0abda989ed4b15714b322514812;de;;;5.2.;;;Flexible Suchtaktiken und effiziente Nahrungssuche bei Saltatorischen Suchtieren Die Nahrungssuche ist eine der wichtigsten Aktivitäten der Tiere und wurde sowohl aus mechanistisch-empirischer als auch aus optimaler Nahrungssuche intensiv untersucht. Plankivore Fische eignen sich hervorragend als Studienorganismen für Studien zur Nahrungssuche, da sie häufig und in einer relativ einfachen Umgebung fressen. Die meisten Studien zur optimalen Nahrungssuche an planktiv fressenden Fischen konzentrierten sich entweder auf die Wahl der Nahrung oder die Auswahl des Lebensraums und gingen davon aus, dass diese Tiere eine Strategie zur Suche nach Kreuzfahrten verwendeten. Wir haben kürzlich erkannt, dass weiße Crappies keine Kreuzfahrt-Suchstrategie verwenden (kontinuierlich schwimmen und ständig suchen), während sie nach Zooplankton suchen, sondern sich in einem Stop-and-Go-Muster bewegen und nur suchen, während sie angehalten sind. Wir haben das genannt;-;-;-;https://link.springer.com/article/10.1007/BF00789938 c232543dc8557c9189339f939c6a843b;de;;;5.2.;;;Ausgewählte Erkrankungen des Bewegungsapparates Fibromyalgie (FM) ist ein häufiges muskuloskelettales Syndrom, das durch generalisierte Schmerzen, Müdigkeit und eine Reihe von damit verbundenen Symptomen gekennzeichnet ist. Der Zustand wurde früher als Fibrositis und psychogener Rheumatismus bezeichnet. Der Zustand ist insofern verwirrend, als es eine beträchtliche Überlappung zwischen FM-Symptomen und denen anderer Zustände wie dem myofaszialen Schmerzsyndrom, dem Kiefergelenksyndrom und dem chronischen Müdigkeitssyndrom gibt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-2947-4_114 f6571d6d7aeb828171e3f6b44bea1451;de;;;5.2.;;;Über Kompromisse zwischen Vertrauen und Überlebensfähigkeit mit einem spieltheoretischen Ansatz Militärische Gemeinschaften in taktischen Netzwerken müssen oft eine hohe Gruppensolidarität aufrechterhalten, die auf der Vertrauenswürdigkeit der teilnehmenden einzelnen Einheiten beruht, wo die Zusammenarbeit für die Durchführung teamorientierter Missionen entscheidend ist. Das Vertrauen der Gruppe wird als wichtiger angesehen als das Vertrauen einer einzelnen Entität, da der Konsens zwischen den teilnehmenden Entitäten oder die Einhaltung bestimmter Protokolle den erfolgreichen Abschluss einer Mission erheblich beeinflussen kann. Diese Arbeit führt einen spieltheoretischen Ansatz ein, nämlich Aoyagis Spieltheorie, die auf positiver Absprache von Spielern basiert. Dieser Ansatz verbessert das Gruppenvertrauen, indem er die Knoten ermutigt, einstimmig ein bestimmtes Gruppenprotokoll einzuhalten. Wenn jedoch ein Gruppenmitglied das vorgegebene Gruppenprotokoll nicht befolgt, wird es bestraft, indem es aus dem System entfernt wird, was zu einer kürzeren Systemlebensdauer aufgrund des Mangels an verfügbaren Mitgliedern für die Missionsausführung führt. Darüber hinaus passen wir, inspiriert von der Aspirationstheorie in den Sozialwissenschaften, einen erwarteten Schwellenwert für das Systemvertrauen an, der von allen teilnehmenden Einheiten aufrechterhalten werden sollte, um gutartige Verhaltensweisen effektiv zu fördern. Die Ergebnisse zeigen, dass es den optimalen Vertrauensschwellenwert gibt, der das Vertrauensniveau der Gruppe maximieren kann, während die erforderliche Systemlebensdauer (Überlebensfähigkeit) erfüllt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22200-9_16 49d9f906e9525839f98b7428c0efa3e1;de;;;5.2.;;;Ein neuer meta-heuristischer Ebbe-Flut-Fisch-inspirierter Algorithmus für die Verkehrsnavigation Immer mehr bioinspirierte oder metaheuristische Algorithmen werden vorgeschlagen, um die schwierigen Optimierungsprobleme anzugehen. Sie alle zielen auf eine erträgliche Konvergenzgeschwindigkeit, eine bessere Präzision, Robustheit und Leistung. In diesem Artikel haben wir einen neuen Algorithmus vorgeschlagen, den Ebbe-Fisch-Algorithmus (ETFA), der sich hauptsächlich auf die Verwendung eines einfachen, aber nützlichen Aktualisierungsschemas konzentriert, um verschiedene Lösungen zu entwickeln, um die globalen Optima in dem verwandten schwierigen Optimierungsproblem zu erreichen, anstatt PSO-ähnliche Geschwindigkeitsparameter Vielfalt auf Kosten einer langsamen Konvergenzrate zu erreichen. Mit dem vorgeschlagenen ETFA wird eine Intensivierung und Diversifizierung auf neue Weise erreicht. Zuerst wird ein Flag verwendet, um den Suchstatus jedes Partikelkandidaten zu demonstrieren. Zweitens gehen der Einzelsuchmodus und der Populationssuchmodus die Intensivierung bzw. Diversifizierung für das schwierige Optimierungsproblem an. Wir vergleichen den vorgeschlagenen Algorithmus auch mit anderen bestehenden Algorithmen, einschließlich Fledermausalgorithmus, Katzenschwarmoptimierung, Harmoniesuchalgorithmus und Partikelschwarmoptimierung. Simulationsergebnisse zeigen, dass der vorgeschlagene Ebbe-Fisch-Algorithmus nicht nur eine bessere Präzision, sondern auch eine bessere Konvergenzrate erzielt. Schließlich wird der vorgeschlagene Algorithmus bei der Anwendung der Fahrzeugroutenoptimierung in Intelligent Transportation Systems (ITS) verwendet. Die Versuchsergebnisse zeigen, dass das vorgeschlagene Schema auch für die Fahrzeugnavigation mit einer besseren Leistung der Reduzierung des Benzinverbrauchs als der kürzeste Weg-Algorithmus (Dijkstra-Algorithmus) und der A*-Algorithmus gut durchgeführt werden kann.;-;-;-;https://link.springer.com/article/10.1007/s11235-015-0088-4 58b7a6a61104da97965138d9f94ead21;de;;;5.2.;;;Ausgewählte Themen der Molekularbiologie, die „harte“ Wissenschaft brauchen Die fast ausschließliche Quelle der Informationen, die alle uns bekannten Wesen für Geburt, Entwicklung, Leben, Reproduktion und (höchstwahrscheinlich) Festlegung ihrer Lebensspanne benötigen, ist die DNA (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-08994-1_3 f9386cf23f5804cd896ee8fc6bbf2d12;de;;;5.2.;;;Interpolatives Denken für eine rechnerisch effiziente optimale mehrstufige Fuzzy-Steuerung Eine optimale mehrstufige Fuzzy-Steuerung wird so betrachtet, dass sie eine optimale Folge von Steuerungen findet, die Fuzzy-Beschränkungen an die angewendeten Steuerungen und Fuzzy-Ziele an den erreichten Zuständen (Ausgängen) am besten erfüllt, wobei ein Fuzzy-System gesteuert wird. Es wird eine Steuerung mit einer festen und spezifizierten, implizit spezifizierten, unscharfen und unendlichen Beendigungszeit diskutiert. Aus Gründen der Recheneffizienz wird eine kleine Anzahl von Referenz-Fuzzy-Zuständen und -Steuerungen angenommen, durch die alle Fuzzy-Steuerungen und -Zustände angenähert werden. Optimale Steuerungsrichtlinien, die optimale Referenz-Fuzzy-Regelungen mit aktuellen Referenz-Fuzzy-Zuständen in Beziehung setzen, werden als eine Fuzzy-Beziehung bestimmt, die über die Zusammensetzungs-Schlußfolgerungsregel verwendet wird, um optimale Regelungen abzuleiten. Dies erfordert eine große Anzahl überlappender Referenz-Fuzzy-Steuerungen und -Zustände, was eine geringe Recheneffizienz impliziert. Um dies zu überwinden, wird eine kleine Anzahl von nicht überlappenden Referenz-Fuzzy-Zuständen und -Steuerungen angenommen, und dann wird interpolatives Schlussfolgern verwendet, um eine optimale Fuzzy-Steuerung für einen aktuellen Fuzzy-Zustand abzuleiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-0125-4_21 829f06c708d94bb68b9f8383668e837e;de;;;4.2.;;;Phylogenese von Fortpflanzungsstrategien bei Labyrinthfischen (Anabantoidei) und ihren Schwestergruppen Klado- und semogenetische Ansätze ermöglichen im Zusammenspiel, Fragen bezüglich der phylogenetischen Beziehungen zwischen Gruppenrepräsentanten sowie der Phylogenese der Charaktere dieser Repräsentanten zu klären. Ebenso wie morphologische Strukturen können elterliche Fürsorgemuster und andere Formen des Fortpflanzungsverhaltens ebenso wie die Fortpflanzungsstrategie insgesamt Gegenstand der semogenetischen Analyse sein analysis;-;-;-;https://link.springer.com/article/10.1134/S2079086417050085 f1a575069bafe9e6cf6fe22049cb7228;de;;;4.2.;;;Personenfernverkehr Der Personenfernverkehr umfasst eine Vielzahl von Interaktionselementen in Bezug auf die möglichen Verkehrsmittel, die jeweiligen Kosten, die sozialen, wirtschaftlichen und demografischen Merkmale der Reisenden und deren Reisezwecke. Einen umfassenden Überblick über dieses Thema zu geben, ist keine leichte Aufgabe, da es offensichtlich Schwierigkeiten gibt, sicherzustellen, dass die verschiedenen Elemente des Personenverkehrs einheitlich und umfassend behandelt werden. Die verfügbaren statistischen und sonstigen Informationen erlauben wahrscheinlich nicht den idealen Überblick im Hinblick auf die Angemessenheit der Gesamtabdeckung. Dennoch zielt dieses Papier zumindest auf eine Suboptimierung ab, indem scheinbar relevante Informationen präsentiert und diskutiert werden, die die Elemente charakterisieren, die der Begriff „Fernverkehr“ impliziert. Es muss betont werden, dass dieses Papier keinen Versuch unternimmt, wirtschaftliche oder finanzielle Prinzipien zu diskutieren, die mit einer Kostendeckung verbunden sein könnten. Weitere Beiträge des Seminars werden sich mit diesen Prinzipien befassen. Wo hier wirtschaftliche oder finanzielle Aspekte dargestellt werden, haben sie eher „beschreibenden“ als „vorschreibenden“ Charakter.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-7591-0_6 77990cefbe5e92b541312e43841d3a09;de;;;4.2.;;;Falsches Gedächtnis für verknüpfte Wortlisten in Einzelpersonen und kollaborierenden Gruppen Unter Verwendung des Deese/Roediger-McDermott (DRM)-Paradigmas untersuchten wir die Erinnerung an präsentierte und nicht präsentierte assoziierte Wörter durch zusammenarbeitende Gruppen, Nominalgruppen und Einzelpersonen. In Experiment 1 erinnerten sich die Teilnehmer einzeln und erinnerten sich dann in zusammenarbeitenden Gruppen. Nominale Gruppen, die aus individueller Erinnerung bestanden, produzierten mehr präsentierte und nicht präsentierte assoziierte Wörter als kollaborierende Gruppen. Kollaborierende Gruppen erinnerten sich an mehr präsentierte Wörter als Einzelpersonen, aber nicht mehr nicht präsentierte Wörter. In Experiment 2 war kollaborierende Gruppen im Vergleich zu Einzelpersonen eine Variable zwischen den Probanden, und jeder unternahm zwei Erinnerungsversuche. Beim Erinnern war das Muster das gleiche wie in Experiment 1, da kollaborierende Gruppen mehr präsentierte Wörter erinnerten als Einzelpersonen, aber ungefähr die gleiche Anzahl von nicht präsentierten Wörtern. In einem DRM-Paradigma waren kollaborierende Gruppen in der Lage, mehr präsentierte Wörter zu produzieren als Einzelpersonen, ohne ihre falsche Erinnerung zu erhöhen.;-;-;-;https://link.springer.com/article/10.3758/MC.36.3.598 897df73abb79411c99115f0e5e2862a4;de;;;5.2.;;;Hybride genetische Algorithmen für Bin-Packing und verwandte Probleme Das Paradigma des genetischen Algorithmus (GA) hat als vielversprechender heuristischer Ansatz zur Lösung von Optimierungsproblemen große Aufmerksamkeit auf sich gezogen. Ein Großteil der Entwicklung bezog sich auf Probleme der Optimierung von Funktionen stetiger Variablen, aber in letzter Zeit gab es mehrere Anwendungen auf Probleme kombinatorischer Natur. Häufig wird festgestellt, dass GAs bei naiver Implementierung eine ziemlich schlechte Leistung bei kombinatorischen Problemen aufweisen, und die meisten berichteten Arbeiten beinhalteten etwas Ad-hoc-Anpassungen an der grundlegenden Methode. In diesem Papier werden wir einen allgemeinen Ansatz beschreiben, der eine gute Leistung für eine ziemlich umfangreiche Klasse von Problemen verspricht, indem wir die GA mit bestehenden einfachen Heuristiken hybridisieren. Das Verfahren wird hauptsächlich in Bezug auf das Problem der;-;-;-;https://link.springer.com/article/10.1007/BF02125404 9ad355e7bbd10a689bdd4b77b0c69006;de;;;5.2.;;;Der Einfluss von Migration auf die Immobilienpreise im urbanen Umfeld Die Standortwahl der Haushalte ist eine wichtige Determinante für die Struktur urbaner Agglomerationen. Sie beeinflussen Wirtschaftswachstum, Sozialstruktur, Infrastrukturinvestitionen, soziale und räumliche Segregation und den Urbanitätsgrad. In der Stadtökonomie ist die Modellierung und das Verständnis der Standortwahl von Haushalten daher ein wichtiges Thema, um Stadtplanern, Entwicklern und politischen Entscheidungsträgern Orientierungshilfen für ihre Entscheidungsfindung zu geben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-31623-5_3 f799590f7e2a9eb5dafa7a04fabe041a;de;;;5.2.;;;Automatisierte Übergangsanalyse der aktivierten Genregulation während der diauxischen Nährstoffverschiebung in Die Dynamik biologischer Systeme umfassend zu verstehen, gehört zu den größten aktuellen Herausforderungen in Biologie und Medizin. Um dieses Verständnis zu erlangen, haben Forscher die Zeitreihen-Expressionsprofile von Zelllinien verschiedener Organismen gemessen. Auch die biologischen Technologien haben sich drastisch verbessert und liefern mit Unterstützung der Bioinformatik und Systembiologie eine riesige Menge an Informationen. Allerdings sind die Übergänge zwischen der Aktivierung und Inaktivierung von Genregulationen bei der zeitlichen Auflösung einzelner Zeitpunkte schwer aus zeitlichen Genexpressionsprofilen zu extrahieren.;-;-;-;https://link.springer.com/article/10.1186/s12859-018-2072-y 5b336928814b95f2ff190181b1f07b86;de;;;5.2.;;;Der Balanceakt der Reagan-Administration m Amtsantritt im Januar 1981 kündigte Präsident Ronald Reagan einen dramatischen Bruch mit der Außenpolitik seines Vorgängers an. In einer neuartigen Mischung aus muskulösem Realismus und Moralismus rief die neue Regierung dazu auf, den Kommunismus und seinen Fahnenträger, die Sowjetunion, herauszufordern. Reagans Philosophie, die später als Neokonservatismus bezeichnet wurde, behauptete, die Sowjetunion sei „auf der falschen Seite der Geschichte“ und würde in den „Müllbehälter der Geschichte“ geworfen. Um den Prozess zu beschleunigen, half das Weiße Haus bei der Entwicklung der Demokratie in Osteuropa und erhöhte Moskaus „Geschäftskosten“ anderswo, indem es beispielsweise antikommunistischen Aufständischen in Nicaragua half.;-;-;-;https://link.springer.com/chapter/10.1057/9781137010889_4 2197aadd253ead7c0d62e1c93595d37b;de;;;5.2.;;;Die Untersuchung sozialer und Motivationsfaktoren, die die Nutzung von Gesundheits-Websites in Taiwan beeinflussen Die Studie integriert soziale Faktoren (Mensch-Nachrichten-Interaktivität und Mensch-Mensch-Interaktivität) und Motivationsfaktoren (wahrgenommener nützlicher und wahrgenommener Genuss), um die Nutzung von Gesundheitswebsites zu untersuchen. Eine Umfrage unter 467 Benutzern von Gesundheitswebsites wurde durchgeführt, um das vorgeschlagene Modell zu validieren Die Ergebnisse zeigen, dass alle sozialen Faktoren einen signifikant positiven Einfluss auf die Motivationsfaktoren haben. Diese Studie bestätigt auch, dass Motivationsfaktoren wichtige Mittler zwischen sozialen Faktoren und der Webnutzung sind. Diese Studie betont die Bedeutung von sozialen und Motivationsfaktoren für den Erfolg von Gesundheitswebsites Die Ergebnisse können als theoretische Grundlage für zukünftige Forschungen verwendet werden und können auch Führungskräften und Managern von Krankenhäusern bei der erstmaligen Einführung und Aktualisierung der Gesundheitswebsites in ihren Organisationen empirische Voraussicht bieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22694-6_37 7e88702a32654c42cd26c4d5cc0b1690;de;;;5.2.;;;Auf dem Weg zur Forensik nach Strichreihenfolgevariation – Leistungsbewertung von Strichkorrespondenzmethoden Wir betrachten die Personenidentifikation anhand von Variationen der Strichreihenfolge von handgeschriebenen Online-Zeichenmustern, die z. B. auf elektrischen Tablets geschrieben sind. Um die Strichreihenfolgevariation eines eingegebenen Zeichenmusters zu extrahieren, ist es notwendig, die genaue Strichkorrespondenz zwischen dem Eingabemuster und dem Referenzmuster derselben Kategorie herzustellen. In diesem Beitrag vergleichen wir fünf Stroke-Korrespondenz-Methoden: die individuelle Korrespondenzentscheidung (ICD), die Würfelsuche (CS), das bipartite Weighted Matching (BWM), die stabile Ehe (SM) und das Abweichungs-Expansions-Modell (DE). Nach ihrer kurzen Überprüfung werden sie experimentell nicht nur hinsichtlich ihrer Strichkorrespondenzgenauigkeit, sondern auch hinsichtlich ihrer Zeichenerkennungsgenauigkeit quantitativ verglichen. Die experimentellen Ergebnisse zeigten die Überlegenheit CS und BWM gegenüber ICD, SM und DE.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19376-7_4 86e5f441a6cbd92f113c2cec1887eec5;de;;;5.2.;;;Infrarotuntersuchung von Wasser im Kometen P/Halley In der Koma des Kometen P/Halley wurde während Infrarot-(IR-)Beobachtungen des NASA Kuiper Airborne Observatory (KAO) gasförmiges, neutrales Wasser nachgewiesen. Hochauflösende Spektren zeigten eine intensive solargepumpte IR-Fluoreszenzemission im (001-000)-Band von H;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82971-0_75 e18452c8afdd018bcdf83230f306edd0;de;;;5.2.;;;Elektrostatische molekulare Potential-Konturkarten von In den Abschnitten der Hyperfläche der Wechselwirkungsenergie zwischen zwei Molekülen, in denen die Polarisation für das Verständnis des untersuchten physikalischen Phänomens als unwesentlich angesehen werden kann, kann die Wechselwirkungshyperfläche durch elektrostatische Wechselwirkungen gut angenähert werden. Diese Näherung muss sorgfältig kontrolliert werden, da ihre Gültigkeit nicht immer gut begründet ist. In bestimmten Fällen kann es bei einer Reihe ähnlicher, aber nicht sehr nahe verwandter Moleküle, die sich einem Substrat nähern, einen Unterschied in der Austauschabstoßung geben, jedoch sind solche Fälle die Ausnahme. Das von Molekül A ausgehende elektrostatische Potential ist an jedem Punkt des Raumes vollständig definiert, wenn man die Ladungsverteilung (elektronisch und nuklear) des Moleküls kennt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-9634-6_15 f44883ea59f3824474e34be3a4bc4b03;de;;;5.2.;;;Analyse eines nicht-monotonen Glättungsalgorithmus für die Kegelprogrammierung zweiter Ordnung Der Algorithmus vom Glättungstyp ist ein leistungsfähiges Werkzeug zur Lösung der Kegelprogrammierung zweiter Ordnung (SOCP), die im Allgemeinen auf der Grundlage einer monotonen Liniensuche entwickelt wurde. In diesem Artikel schlagen wir einen Algorithmus vom Glättungstyp zum Lösen des SOCP mit einer nicht monotonen Liniensuche vor. Mit der Theorie der euklidischen Jordanalgebren beweisen wir, dass der vorgeschlagene Algorithmus unter geeigneten Annahmen global und lokal quadratisch konvergent ist. Es werden auch vorläufige numerische Ergebnisse berichtet, die darauf hinweisen, dass der Algorithmus vom nicht-monotonen Glättungstyp vielversprechend für die Lösung des SOCP ist.;-;-;-;https://link.springer.com/article/10.1007/s10492-015-0084-8 6867614ef6cc137f9790474b063a4e50;de;;;5.2.;;;Clearance seneszenter Erythrozyten: Weizenkeim-Agglutininverteilung auf jungen und alten humanen Erythrozyten Um den Prozess der Erkennung und Entfernung seneszenter humaner Erythrozyten aus dem Kreislauf um einen weiteren Aspekt zu ergänzen, wird die Bindung von Weizenkeim-Agglutinin (WGA) an separierte junge, alte und mit Sialidase behandelte humane Erythrozyten mit der immunelektronenmikroskopischen Methode untersucht. Die Bindung von WGA/Gold-Konjugat an alte Erythrozyten war geringer (27%) als an junge Erythrozyten und sogar geringer nach Behandlung mit Sialidase (82%), was ein geclustertes, nicht kontinuierliches Markierungsmuster in allen drei Erythrozytenpopulationen aufwies, was eine mögliche Umverteilung zeigt von WGA-Bindungsstellen. Die Abnahme der gebundenen WGA/Gold-Partikel korreliert gut mit der zuvor berichteten Abnahme der Oberflächen-Sialinsäure auf alten Erythrozyten. Die Bindung von WGA/Gold ist ein Hinweis auf die Veränderungen, die auf Erythrozytenmembranoberflächen auftreten, wenn sie mit verschiedenen Agglutininen interagieren.;-;-;-;https://link.springer.com/article/10.1023/A%3A1022513327982 ec0fb380fde619e33e953eba195a9091;de;;;5.2.;;;Der Einfluss der Neugier des Therapeuten auf den Behandlungsprozess von Kindern und Jugendlichen Therapeuten bringen ihre eigene Initiative, ihr Interesse und ihr Staunen – ihre „professionelle Neugier“ – in die Behandlungssitzungen ein. Manche Kinder und Jugendliche ziehen sich als Reaktion auf diese Neugierde zurück, sträuben sich oder ziehen sich zurück, wenn auch nur für einen Moment. Dies kann abrupt geschehen, sogar als Reaktion auf das erste „Hallo“, aber meistens geschieht es subtil im Laufe der Behandlung. Diese Kinder und Jugendlichen können die Brüche in Beziehungen wiederholen, die sie erlebt haben, als sie ihre eigene Initiative und Neugierde gegenüber wichtigen anderen in ihrem Leben zum Ausdruck brachten. Therapeuten müssen Gelegenheiten nutzen, um die Dynamik zu verstehen, herauszufinden, wo die ursprünglichen Brüche aufgetreten sein könnten, und die Erfahrung in den therapeutischen Fokus zu rücken. Fallvignetten veranschaulichen diese Dynamik.;-;-;-;https://link.springer.com/article/10.1023/A%3A1020218413598 263fe70f380f7a1ad23f25145d3fc118;de;;;5.2.;;;Abwassersysteme Kapitel 7 überbrückte die Lücke zwischen der reinen Wasserversorgungstechnik und der Abwassertechnik, indem es einen Rahmen für das Recycling von aufbereitetem Abwasser als separate, aber verwandte Unterkategorie des gesamten Wasserversorgungssystems darstellte. Obwohl es im Rahmen der technischen Möglichkeiten liegt, alle Abwässer von Weinkellereien zu recyceln, wird in diesem Kapitel aus praktischer, mikrobiologischer Sicherheit und wirtschaftlicher Sicht nur auf die Prozessabwasserrückgewinnung eingegangen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-5282-4_8 1d54a2174372629bc6d486343630384f;de;;;5.2.;;;Grobe Mengen und evolutionäre Berechnungen zur Lösung des Merkmalsauswahlproblems Das Merkmalsauswahlproblem wurde aufgrund seiner erheblichen Rechenkomplexität normalerweise durch heuristische Ansätze angegangen. In diesem Zusammenhang haben evolutionäre Techniken aufgrund ihrer ansprechenden Optimierungsmöglichkeiten die Aufmerksamkeit der Forscher auf sich gezogen. In diesem Kapitel werden vielversprechende Ergebnisse besprochen, die die Autoren bei der Lösung des Merkmalsauswahlproblems durch eine gemeinsame Anstrengung zwischen Grobmengentheorie und evolutionären Berechnungstechniken erzielt haben. Insbesondere werden zwei neue heuristische Suchalgorithmen eingeführt, nämlich die Dynamic Mesh Optimization und ein weiterer Ansatz, der den Suchprozess durch Schwarmintelligenzverfahren aufspaltet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89921-1_9 ba65446bbd92981d17ddd29d8ac27ff3;de;;;5.2.;;;Selbstorganisationsphänomene an Kristalloberflächen Die Entdeckung der spontanen Bildung von Strukturen im Nanometerbereich auf Kristalloberflächen markierte einen Wendepunkt in der Physik und Technologie niederdimensionaler (1D und OD) Systeme. Es ist schwer, die Bedeutung dieser Phänomene zu überschätzen. Die Natur bietet uns in der Tat eine große Hilfestellung, indem sie kleinformatige und qualitativ hochwertige Systeme bereitstellt, die mit konventioneller Lithographie nicht hergestellt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-07066-6_3 b414196ab0b4bee5351adae56fd42f93;de;;;5.2.;;;Martin Luther King, Jr. und militante Gewaltfreiheit: Eine psychoanalytische Studie Es ist ein Hindernis für eine psychoanalytische Untersuchung des Lebens und Werks von Martin Luther King, Jr., dass seine heroischen Eigenschaften zahlreich und groß sind. Er war ein charismatischer Führer der schwarzen Kirche, ein Taktiker, der eine amerikanische Version von Gandhis gewaltfreier Bewegung in Indien schmiedete, ein Prediger und Redner, der die schwarz-weiße liberale Gemeinschaft bei der Überwindung des Rassismus elektrisierte, ein Gewinner des Friedensnobelpreises in Anerkennung von sein Kampf gegen die Ungerechtigkeit des Separatismus und der Rassenungleichheit und ein Märtyrer, der der Kugel eines Attentäters zum Opfer fiel und dadurch zum Symbol für Amerikas unsicheren Fortschritt bei der Vollendung einer Union wurde, die sich dem Vorschlag verschrieben hat, dass alle Menschen gleich geschaffen sind. Vor allem aber war er ein Mensch, der seine eigene Unvollkommenheit erkannte und mit einem persönlichen und zugleich gemeinschaftlichen Sündengefühl kämpfte.;-;-;-;https://link.springer.com/chapter/10.1057/9780230614154_11 f021e27366685a3d4b5bcda0c55f60bd;de;;;5.2.;;;Was ist Dialog? „Niemand weiß alles über alles!“ Um immer mehr zu wissen, muss sich daher jeder Mensch dem Anderen öffnen, der anders erfährt und denkt als er selbst. Dialog bedeutet daher, dem Anderen zu begegnen, um mehr Wahrheit zu erfahren (Dialog des Kopfes), sich mit dem Anderen zu verbinden, um die Welt zu heilen (Dialog der Hände), die Schönheit und den „Geist/das Herz“ des Anderen zu umarmen ( Dialog des Herzens) und integriere alles in ein;-;-;-;https://link.springer.com/chapter/10.1057/9781137470690_4 7455a8aaf41e651f710a4ed3bc861734;de;;;5.2.;;;Psychiatrische Notfälle bei Kindern und Jugendlichen Die meisten psychiatrischen Störungen bei Kindern und Jugendlichen entwickeln sich langsam und treten selten als Notfälle auf. Dieses Kapitel skizziert die Ausnahmen und bestimmte Situationen, in denen sofortiges Handeln psychiatrische Symptome bei Kindern abwenden kann, die in Ereignisse geraten, die sie nicht beeinflussen oder kontrollieren können.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-3191-6_10 f739b6477bbf4e082193f18e093525c7;de;;;5.2.;;;Datenschutz, Geheimhaltung und Sicherheit Ich werde argumentieren, dass eine Klasse von Fragen der Computerethik, die oft mit Privatsphäre und einem vermeintlichen Recht auf Privatsphäre in Verbindung gebracht wird, am besten in Begriffen analysiert wird, die überhaupt keinen inhaltlichen Bezug zu Privatsphäre haben. Diese Fragen betreffen die Art und Weise, wie die vernetzte Informationstechnologie neue Wege schafft, auf denen konventionelle Rechte auf persönliche Sicherheit gefährdet werden können. Wie auch immer man sich für die Analyse von Rechten entscheidet, werden Rechte zur Sicherung von Personen und Eigentum zu den grundlegendsten, am wenigsten umstrittenen und allgemein anerkannten gehören. Eine risikobasierte Herangehensweise an diese Themen liefert eine klarere Aussage darüber, was ethisch wichtig und was ethisch problematisch ist. Sind die Sicherheitsfragen erst einmal klar artikuliert, wird es möglich, im Gegensatz dazu echte Fragen der Privatsphäre auszumachen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1011423705643 166e4cdf6e94733110e2840b7f166445;de;;;5.2.;;;Eine Unze Prävention: Ein Modell für die Arbeit mit gefährdeten Paaren Es gibt praktisch keine Literatur zur Verhinderung von Gewalt gegen Ehepartner, bevor sie beginnt. Dieser Artikel beschreibt ein Programm zur Missbrauchsprävention, das sich an Paare richtet, die von Schlägen bedroht sind. Risikopaare und der Prozess ihrer Einbindung in die Paarberatung werden beschrieben. Das Präventionsmodell basiert auf einem Bowenschen Ansatz, der sich auf die Partnerdifferenzierung und die Reduzierung der Emotionalität konzentriert und rationales Denken fördert. Es wird davon ausgegangen, dass eine zunehmende Differenzierung das Risiko von Ehegattenschlägen verringert. Die verschiedenen Techniken zur Erleichterung der Differenzierung werden vorgestellt sowie ein Fallbeispiel, das eine erfolgreiche Prävention von Missbrauchserfahrungen veranschaulicht.;-;-;-;https://link.springer.com/article/10.1023/A%3A1026171219726 6834d110ccb2ff4b47a6cbab3357c5c0;de;;;5.2.;;;Ein Immobilienverwaltungssystem basierend auf Soft Computing Der Artikel beschreibt ein webbasiertes System, das Soft Computing-Techniken auf den Bereich der Immobilienverwaltung anwendet. Die Anwendung basiert auf einem relationalen Fuzzy-Datenbankverwaltungssystem namens Soft Data Server, das Anwendungsfunktionen für die Handhabung von Fuzzy-Daten bereitstellt. Ein kurzer Überblick über Fuzzy-Typen und -Operationen, die in Soft Data Server verfügbar sind, wird ebenfalls dargestellt. Der Beitrag zeigt, wie Immobilienattribute mit Fuzzy-Daten ausgedrückt werden können und wie Fuzzy-Abfragen verwendet werden können, um typische Immobilienkundenanforderungen in einer Fuzzy-Immobiliendatenbank auszudrücken. Abschließend wird ein kurzer Überblick über die mehrschichtige Architektur der Anwendung gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89619-7_4 05d36618d992a787790d037f1d9aa4e0;de;;;5.2.;;;Wälder, Rahmen und Spiele: Algorithmen für Matroid-Summen und Anwendungen Dieses Papier stellt verbesserte Algorithmen für Matroid-Partitionierungsprobleme vor, wie z. B. das Finden einer maximalen Kardinalitätsmenge von Kanten eines Graphen, die unterteilt werden können in;-;-;-;https://link.springer.com/article/10.1007/BF01758774 88e0ad860ae9877da366666223c2936d;de;;;5.2.;;;Diversity-Maßnahmen in künstlichen Bienenvölkern Artificial Bee Colony (ABC) ist ein neuer auf Schwarmintelligenz basierender Ansatz zur Lösung nichtlinearer und komplexer Optimierungsprobleme. Exploration und Exploitation sind die beiden wichtigen Merkmale der schwarmbasierten Optimierungsalgorithmen. Die Explorationsfähigkeit eines Algorithmus ist die Fähigkeit, den Lösungsraum zu untersuchen, um die mögliche Lösung zu finden, während die Explorationsfähigkeit eines Algorithmus die Fähigkeit ist, einen bestimmten Bereich des Suchraums für eine bessere Lösung auszunutzen. In der Regel sind Explorations- und Explorationsfähigkeiten widersprüchlich, d. h. eine bessere Explorationsfähigkeit führt zu einer schlechteren Explorationsfähigkeit und umgekehrt. Ein ökonomischer und effizienter Algorithmus kann den gesamten Lösungsraum untersuchen und zeigt nach einer endlichen Anzahl von Versuchen ein konvergentes Verhalten. Explorations- und Verwertungsfähigkeiten werden anhand verschiedener using quantifiziert;-;-;-;https://link.springer.com/chapter/10.1007/978-81-322-1038-2_26 eb4c593bd85ad312c2fc851a9c83f66a;de;;;5.2.;;;Vorschlag für ein hybrides Expertensystem und ein Optimierungsmodell für das Routingproblem im Kurierdienst Kurierdienste bestehen im Allgemeinen darin, Pakete oder Umschläge zu verteilen, die täglich für eine Gruppe von Kunden empfangen werden, die geografisch über eine Fahrzeugflotte verteilt sind. Somit könnten diese Dienste als Vehicle Routing Problem modelliert werden. Ziel dieser Arbeit ist es, einen Ansatz zur Lösung dieses Problems aufzuzeigen. Wir schlagen eine dreistufige Herangehensweise vor. Die erste besteht aus der Terminplanung, die zweite besteht aus einer Clusterung von Kunden und die letzte ist eine Routing-Phase. Abschließend präsentierten wir numerische Ergebnisse anhand einer Fallstudie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-50880-1_13 eca4414ffd910040e727e3b39ea6a8d4;de;;;5.2.;;;Simultane lineare Gleichungen Um die Notation zu etablieren, beschreiben wir zunächst das allgemeinste System simultaner linearer Gleichungen. Erklärungen und viele Beispiele folgen gleich danach. Lassen;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-4540-7_1 57d68ddd4b259c1d41897b4b781daf0c;de;;;5.2.;;;Nicht konforme Grenzelemente für 3-D stationäre elektromagnetische Felder In diesem Beitrag wird eine Familie von konformen oder nicht-konformen Randelementen in die 3-D BE-Analyse elektromagnetischer Felder eingeführt. Da in praktischen Problemen die meisten interessierenden Volumen durch eine Kombination einiger regelmäßiger Oberflächen wie Ebenen, Kugeln oder Zylinder usw. begrenzt sind, wird die Verwendung von Ebenen zur Modellierung der Volumengeometrie beschrieben und das Gaußsche Quadraturschema über jedem Unterelement für Oberfläche Integrale verwendet. Damit kann die Randlösung richtig dargestellt werden. Darüber hinaus besteht die Möglichkeit, die Felder einschließlich diskontinuierlicher Lösungen genauer zu simulieren. Das vorgeschlagene Verfahren wurde auf einige stationäre elektromagnetische Felder angewendet und die erhaltenen Ergebnisse erscheinen zufriedenstellend.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-51027-4_22 28d625907c546e5b3ee96bf1a81d6544;de;;;5.2.;;;Avidin und Pflanzenbiotechnologie zur Schädlingsbekämpfung Die Dringlichkeit der globalen Nahrungsmittelkrise in Verbindung mit den Umweltauswirkungen der globalen Erwärmung und der Treibstoffknappheit weisen darauf hin, dass transgene Methoden erforderlich sein könnten, um die Nahrungsmittelproduktion und -qualität zu verbessern. Weit verbreitete chemische Insektizide wie Phosphin und Methylbromid verlieren ihre Nützlichkeit entweder aufgrund der Insektenresistenz oder aufgrund der von ihnen verursachten Umweltschäden. Es ist höchst unwahrscheinlich, dass traditionelle Pflanzenzüchtungsmethoden zur Erzeugung von Insektenresistenz die erforderlichen Pflanzenverbesserungen im verfügbaren Zeitrahmen liefern werden. In diesem Review diskutieren wir die Anwendung von transgenem Avidin, einem natürlich in Eiweiß vorkommenden Protein, zum Schutz von Reis, Mais, Kartoffel und Apfelblättern vor Schadinsekten. Avidin bindet das Vitamin Biotin mit außergewöhnlicher Affinität (10;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-8741-6_1 11b3002d010a611016d399e57fad2592;de;;;5.2.;;;Multi-Objective Topic Modeling für die explorative Suche in Tech News Die explorative Suche ist ein Paradigma des Information Retrieval, bei dem die Absicht des Benutzers ist, die Themendomäne besser zu erlernen. Dazu wiederholt der Benutzer viele Male die „Abfrage-Durchsuchen-Verfeinern“-Interaktionen mit der Suchmaschine. Wir betrachten typische explorative Suchaufgaben, die durch Langtextabfragen formuliert werden. Die Leute lösen eine solche Aufgabe normalerweise in etwa einer halben Stunde und finden Dutzende von Dokumenten mit herkömmlichen Suchfunktionen iterativ. Ziel dieser Arbeit ist es, den zeitaufwendigen mehrstufigen Prozess auf einen Schritt zu reduzieren, ohne die Qualität der Suche zu beeinträchtigen. Die probabilistische Topic-Modellierung ist eine geeignete Text-Mining-Technik, um Dokumente abzurufen, die für eine Langtextabfrage semantisch relevant sind. Wir verwenden die additive Regularisierung von Themenmodellen (ARTM), um ein Modell zu erstellen, das mehrere Ziele erfüllt. Das Modell sollte spärliche, vielfältige und interpretierbare Themen haben. Außerdem sollten Metadaten und multimodale Daten wie z;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-71746-3_16 b6faef97fdce6b233559a1473e598350;de;;;5.2.;;;Energieeffiziente Downlink-MIMO-Übertragung mit linearer Vorcodierung Energieeffizienz (EE) wird für drahtlose Mobilfunknetze immer wichtiger. Dieses Papier befasst sich mit EE-Optimierungsproblemen in Downlink-Mehrbenutzer-MIMO-Systemen mit linearer Vorcodierung. Unter Bezugnahme auf verschiedene aktive Sende-/Empfangsantennensätze und Sendeschemata als verschiedene Modi schlagen wir ein gemeinsames Bandbreiten-/Leistungsoptimierungs- und Modusumschaltschema vor, um EE zu maximieren. Mit einem bestimmten Modus beweisen wir, dass die optimale Bandbreite und Sendeleistung entweder die volle Sendeleistung oder die volle Bandbreite ist. Nach der Ableitung der optimalen Bandbreite und Sendeleistung schlagen wir weiterhin eine Modusumschaltung vor, um den Modus mit optimaler EE auszuwählen. Da das Umschalten des optimalen Modus, d. h. die erschöpfende Suche, zu komplex ist, um zu implementieren, wird ein alternatives heuristisches Verfahren entwickelt, um die Komplexität durch Verringern der Suchgröße und Vermeiden der EE-Berechnung während jeder Suche zu verringern. Durch Simulationen zeigen wir, dass die vorgeschlagenen Methoden EE signifikant verbessern können und die Leistung der optimalen erschöpfenden Suche ähnlich ist.;-;-;-;https://link.springer.com/article/10.1007/s11432-012-4766-5 34c654cdfb3c50c6149d32ef9657a794;de;;;5.2.;;;Biosimilars: Sind sie wirklich sicher? Eine zunehmende Verfügbarkeit von Biosimilars ist ein wichtiger Schritt auf dem Weg zu einer optimalen Versorgung bei gleichzeitig verbessertem Zugang für Krebspatienten. Sich entwickelnde Regulierungsmechanismen befassen sich mit Biosimilars mit unterschiedlichen Ansätzen innerhalb der großen Regulierungsbehörden. Wir diskutieren einige der spezifischen Eigenschaften von Biosimilars, die im Hinblick auf die Optimierung ihrer Sicherheit, die Erzielung entsprechender Kosteneinsparungen und die Sicherstellung, dass angemessene Prämien für innovative Forschung verfügbar sind, um kontinuierliche Fortschritte in der Krebstherapie sicherzustellen, Aufmerksamkeit verdienen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-43896-2_5 3b59ad3238080ea9239dd579dd1406a5;de;;;5.2.;;;Positionsgrammatiken: Ein Formalismus für das LR-ähnliche Parsing visueller Sprachen Language Positionsgrammatiken erweitern natürlich kontextfreie Grammatiken für Zeichenkettensprachen zu Grammatiken für visuelle Sprachen, indem zusätzlich zur Zeichenkettenverkettung neue Beziehungen berücksichtigt werden. Dank dieser Analogie können die meisten Ergebnisse des LR-Parsings auf Positionsgrammatiken ausgeweitet werden, während die bekannte Effizienz beibehalten wird. Das Positionsgrammatikmodell ist der zugrundeliegende Formalismus des VLCC-Systems (Visual Language Compiler-Compiler) zur automatischen Generierung von visuellen Programmierumgebungen. VLCC erbt und erstreckt sich auf das visuelle Feld, Konzepte und Techniken von Compiler-Generierungstools wie YACC. Aufgrund ihrer Natur sind die Positionsgrammatiken ein sehr geeigneter Formalismus für die Verarbeitung von Sprachen, die visuelle und textuelle Konstrukte integrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-1676-6_5 bcd259510cc32218f404a1b5fa1f5378;de;;;5.2.;;;Strukturanpassungskredite: Begründung und handelspolitische Aspekte In Teil I dieses Bandes wurde die Rolle der Handelspolitik im Prozess der wirtschaftlichen Entwicklung hervorgehoben. Die Teile II und III konzentrierten sich auf empirische Aspekte der Handelspolitik – die Techniken der Politikbewertung und ihre potenzielle Verwendung bei der Politikbewertung. In diesem Teil führen wir die Analyse noch einen Schritt weiter und untersuchen, wie die Techniken der Politikbewertung im Prozess der Politikreform in den LDCs eingesetzt wurden. In den letzten Jahren hat die Weltbank eine wichtige neue Quelle für bedingte Finanzierungen erschlossen. Wie wir sehen werden, hat dies ein Fenster für beträchtliche Ressourcen geöffnet, die schnell an die LDCs ausgezahlt werden können. Die Auszahlungen hängen jedoch davon ab, dass politische Reformen vereinbart und umgesetzt werden. Viele der erforderlichen politischen Reformen drehen sich um Änderungen in der Handelspolitik.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-22782-2_12 04cc596952b07886ce6eed4d9568bbd1;de;;;5.2.;;;Dynamische Stabilität nicht konstanter Gleichgewichte für die kompressiblen Navier-Stokes-Gleichungen in Eulerschen Koordinaten In diesem Papier stellen wir die globale Existenz und Eindeutigkeit starker Lösungen der nicht-isothermen kompressiblen Navier-Stokes-Gleichungen in beschränkten Bereichen fest. Die Anfangsdaten müssen in der Nähe von Gleichgewichten liegen, die aufgrund der Berücksichtigung großer externer Kräfte nicht konstant sein können. Wir sind in der Lage, die exponentielle Stabilität von Gleichgewichten im Phasenraum zu zeigen und vor allem das Problem in Eulerschen Koordinaten zu studieren. Letzteres scheint ein Novum zu sein, da in Werken anderer Autoren global stark;-;-;-;https://link.springer.com/article/10.1007/s00220-014-2023-z 64a48a6edc139d6aa7ef769105b28054;de;;;5.2.;;;Phantomeliminierung basierend auf linearer Stabilität und lokaler Intensitätsdisparität für Sonarbilder Das Papier schlägt einen neuartigen Ansatz zur Phantomeliminierung von Sonarbildern basierend auf einer Bildnachbearbeitungstechnik vor. Zuerst werden die Bilder in Polarkoordinaten transformiert, um ein gerades Phantom zu bilden. In den kartierten Bildern wird die Verteilung der Linearstabilität weiter ausgewertet, so dass die Entfernungsrichtungspositionen von Phantomen durch Lokalisieren von Peakbereichen der Linearstabilität angezeigt werden können. Dann werden die benachbarten Spitzenbereiche kombiniert, um gegenseitige Störungen zu vermeiden. Schließlich wird die lokale Intensitätsdisparität jedes Peakbereichs berechnet, die den Inpainting-Strategien verwendet wird, um die Inpainting-Arbeit von Phantombereichen zu erfüllen. Der Algorithmus erfordert keine Maskenbilder im Voraus und weist eine gute Inpainting-Leistung und einen einfachen Inpainting-Prozess auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-42051-1_49 9dc4f901ae293e9292ab487193179bb3;de;;;4.1.;;;Erkundung der Informationskompetenz-Erfahrungen von ESOL-Lernenden (Englisch für Sprecher anderer Sprachen): Eine Diskussion der Methoden Der Beitrag teilt die frühen Stadien der Promotionsforschung und diskutiert die Forschungsfragen, Methoden und Ergebnisse von Pilotstudien. Die vollständige Untersuchung wird eine Längsschnitt-Fallstudie von drei ESOL-Gemeinschaftsklassen in England sein. ESOL-Lernende sind erwachsene Migranten, die Englisch lernen und sich in der Regel stark von Hochschulstudenten unterscheiden, die im Mittelpunkt vieler Forschungen zur Informationskompetenz stehen. Das Papier diskutiert die Herausforderungen der Pilotstudie und freut sich auf die vollständige Datenerhebung, die eine Reihe partizipativer Methoden verwenden wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-28197-1_61 e2b56f1830e8d8867b42378be7d3bbb4;de;;;4.1.;;;Eine Größe passt nicht für alle – Effektivität und subjektive Bewertungen von anpassungsfähigem Informationskompetenzunterricht Der Beitrag untersucht, ob Effekte eines anpassungsfähigen Informationskompetenz-Unterrichtsprogramms mit (a) der Einhaltung der Empfehlungen von Online-Lerninhalten, die aus einem Vorwissenstest abgeleitet wurden, und (b) subjektiven Bewertungen des Programms zusammenhängen. In einer Studie mit Pretest-Posttest-Design wurde ein anpassungsfähiges Blended-Learning-Training für deutsche Psychologiestudierende evaluiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-28197-1_29 eefe20f0c7799e68331fd058794568a3;de;;;4.1.;;;Prismatic Realities: Multidisziplinäre und interdisziplinäre Kulturen und Implikationen für die Informationskompetenz in Visual Studies: Der Fall der Geschichte der Fotografie Das Fachgebiet der Geschichte der Fotografie (HP) entwickelt sich ständig weiter, und seine Fähigkeit, ein historisches Bild als Erklärungslinse zu verwenden, fordert die Studierenden heraus, sich in der wissenschaftlichen Literatur zurechtzufinden, mit Auswirkungen auf die Informationskompetenz und wissenschaftliche Kommunikation. Wie wird HP konstruiert oder über verschiedene disziplinäre Perspektiven vermittelt? Im Bereich der visuellen Studien ist es unerlässlich, den Benutzern den besten Weg zu finden, die disziplinären Kulturen, die HP animieren, vorzustellen, um ihnen zu helfen, die Komplexität und den Einfluss auf die wissenschaftliche Kommunikation im breiteren Rahmen der visuellen Studien und der Alphabetisierung zu verstehen. Allzu oft ist der erste Rückgriff die Literatur der bildenden Künste und nicht die vielschichtige Literatur, die in anderen Disziplinen auftaucht – daher wird diese schematische und grafische Darstellung vorgeschlagen, um ihren Informationsbedarf und ihre Informationsstrategien zu untermauern. Basierend auf einem definierenden konzeptionellen Modell der disziplinären Kultur und disziplinären Bildung, das Informationskompetenz vermittelt, kann diese Präsentation auf andere geisteswissenschaftliche Disziplinen übertragen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-28197-1_60 d393477ecb16cbb3a23b6012a1c8c053;de;;;4.1.;;;Motivation der Lernenden durch Informationskompetenz In diesem Papier wird ein Modell für die Entwicklung von Lernaktivitäten zur Informationskompetenz vorgestellt, die die Schüler motivieren. Das Modell basiert auf informiertem Lernen, einem Ansatz zur Informationskompetenz, der die Rolle betont, die Informationen bei der Förderung des Lernens über ein Thema spielen. Die Selbstbestimmungstheorie, eine Motivationstheorie, die sich darauf konzentriert, selbstbestimmte Lernende zu befähigen, wird im Rahmen des informierten Lernens angewendet. Die Ergebnisse der Untersuchung skizzieren Merkmale motivierender Lernaktivitäten, die das Erlernen von Sachinhalten durch die Auseinandersetzung mit Informationen ermöglichen. Das Modell soll von Bibliothekaren bei der Zusammenarbeit mit Klassenlehrern verwendet werden, um durch kreative und reflexive Auseinandersetzung mit Informationen größere Lernerfolge der Schüler zu erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-52162-6_68 4326424e9a17a459b36939c735723c82;de;;;4.1.;;;Lehrerperspektiven auf Ganzaufgaben-Informationskompetenzunterricht Dieser Beitrag präsentiert Ergebnisse einer explorativen Studie zu den wahrgenommenen Vorzügen zeitgenössischer ganzheitlicher Ansätze zur Gestaltung des Informationskompetenzunterrichts in einem universitären Umfeld. Sieben Pädagoginnen und Pädagogen evaluierten ihren Premaster-Studiengang zur Durchführung einer nach einem modernen Gestaltungsansatz gestalteten Literaturrecherche mit dem Namen Four-Component Instructional Design (4C/ID). Ihre Wahrnehmungen zur Kursqualität notierten sie mittels eines standardisierten Kursbewertungsfragebogens und einer SWOT-Analyse. Die Ergebnisse des Fragebogens zeigten, dass die Lehrkräfte bezüglich des Informationskompetenzunterrichts über alle Aufgaben hinweg positiv waren, was die Ergebnisse einer früheren Studie zu 4C/ID-induzierten Unterrichtseffekten bestätigte. Die SWOT-Analyse zeigte, dass Lehrkräfte den Wert der angewandten 4C/ID-Prinzipien wie Gesamtaufgabenorientierung, strukturierte Anleitung und Gerüste erkannten. Wir fügten Vorschläge hinzu, wie die positiven Auswirkungen einer ganzheitlichen Unterrichtsgestaltung basierend auf identifizierten pädagogischen Schwächen wie relativ schlechter konstruktiver Ausrichtung und Bedrohungen wie mangelhafter Lehrplankohärenz verbessert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-52162-6_66 53e888a33ff7cf06a3bf09cfbcbbb66e;de;;;4.1.;;;Einige Prädiktoren für die Informationskompetenz von Universitätsstudenten Die Studie untersuchte die Vorhersagekraft der wissenschaftlichen Kompetenz (SL), der IKT-Nutzung, des Selbstkonzepts, der Selbstwirksamkeit und der Motivation von 139 Universitätsstudenten hinsichtlich ihrer Informationskompetenz (IL) vor der Teilnahme an einem obligatorischen IL-Kurs. Es wurden Wissenstests für IL und SL durchgeführt und Fragebögen zur IKT-Nutzung und zu psychologischen Faktoren. Alle Prädiktoren zusammen machten 33,3% der Varianz im IL-Wert vor dem Test aus. Signifikante positive Prädiktoren waren SL und Selbstkonzept über das Lernen, während extern kontrollierte Motivation negativ mit IL korrelierte. IKT-Tools und Internet-Vertrauen waren schlechte Prädiktoren für IL. Die interne Motivation spielte im Modell eine unterdrückende Rolle. Der IL-Studiengang verbesserte den IL der Studierenden signifikant, mit einem mittleren Unterschied von 16,38 % profitierten die Studierenden, die im Pre-Test schlecht abgeschnitten hatten, stärker als andere.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-74334-9_60 7dbddb1de2abc9b815284a31a71279e8;de;;;4.1.;;;Argumentgetriebene Untersuchung im Informationskompetenzunterricht in Taiwan Der Zweck dieser Studie war es, die Auswirkungen von argumentorientiertem Unterricht in Informationskompetenz (IL) auf das argumentative Lernen von Fünftklässlern und die Meinungen der Lehrer zum Unterricht zu untersuchen. Der Forschungsstandort war ein Klassenzimmer der fünften Klasse mit 30 Schülern in Taiwan und dauerte siebzehn Wochen. Der IL-Unterricht wurde über einen Zeitraum pro Woche von einem Lehrerbibliothekar unterrichtet, der mit einem Klassenlehrer zusammenarbeitete. In den IL- und Chinesischkursen wurde ein Anfrageprojekt eingesetzt. Der Argumenttest wurde für den Pretest und Posttest verwendet. Forschungsdaten wurden aus Interviews, teilnehmenden Beobachtungen, Tests und Dokumentenanalysen gesammelt. Die Ergebnisse zeigten, dass argumentorientierte Befragung ein effektives Projekt zur Förderung der Argumentationsfertigkeiten dieser Schüler war. Sowohl der Lehrerbibliothekar als auch der Klassenlehrer schlugen vor, dass wir systematisch argumentorientierte Untersuchungsprojekte im Lehrplan für IL entwickeln, um das argumentative Denken der Schüler schrittweise zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-28197-1_28 e78f4f4693f620281f4eaf2175182ecb;de;;;6.4.;;;Chinesisches Dolmetschen: Strukturelle Determinanten der Berufswahl von MA-Studierenden In den letzten 30 Jahren war das Wachstum der Dolmetscherindustrie in China hervorragend. Die zunehmende wirtschaftliche und politische Zusammenarbeit hat die Nachfrage nach Dolmetschern erhöht, um die sprachlichen und kulturellen Kluften zwischen China und dem Westen zu überbrücken. Mit der Schaffung von Master- und Bachelor-Studiengängen in Dolmetschen und Übersetzen in ganz China haben Hunderte von Absolventen verschiedener Universitäten seitdem deutlich unterschiedliche Karrierewege eingeschlagen. Anhand eines umfassenden Korpus von Masterarbeiten und einer Kombination aus logistischer Regression und Targeted Maximum Likelihood Estimation zur Ermittlung von Kausalitäten konzentriert sich dieser Beitrag auf einige der strukturellen Determinanten der Berufswahl von Doktoranden. Der Beitrag untersucht, inwieweit Hochschulzugehörigkeit, Dissertationsbetreuer, Forschungsmethodik und Dissertationsinhalt die Entscheidung für eine wissenschaftliche Laufbahn beeinflussen. Die Forschung zeigt, dass ein Abschluss an einer Top-Universität die Wahrscheinlichkeit verringert, Akademiker zu werden, und ein Studium bei einem Top-Berater nicht unbedingt die Chancen auf eine akademische Stelle erhöht. Verfasser empirischer oder ausbildungsbezogener Thesen tendieren dagegen eher in den akademischen Bereich.;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1717-0 d808e6e38a511ab153ca403c2e834ca1;de;;;6.4.;;;Potenzgesetze in Zitationsverteilungen: Beweise von Scopus Die Modellierung der Verteilungen von Zitaten auf wissenschaftliche Arbeiten ist entscheidend für das Verständnis der Entwicklung der Wissenschaft. Es gibt jedoch eine beträchtliche empirische Kontroverse darüber, welches statistische Modell am besten zu den Zitationsverteilungen passt. Dieser Artikel befasst sich mit der rigorosen empirischen Erfassung von Potenzgesetzen bei der Verteilung von Zitaten, die von den am häufigsten zitierten wissenschaftlichen Artikeln eingehen. Wir haben einen großen, neuartigen Datensatz zu Zitaten zu wissenschaftlichen Arbeiten verwendet, die zwischen 1998 und 2002 veröffentlicht wurden und von Scopus stammen. Das Power-Law-Modell wird mit einer Reihe alternativer Modelle unter Verwendung eines Likelihood-Quotienten-Tests verglichen. Wir haben festgestellt, dass die Potenzgesetz-Hypothese für etwa die Hälfte der Scopus-Wissenschaftsgebiete abgelehnt wird. Für diese Wissenschaftsgebiete scheint das Yule, das Potenzgesetz mit exponentiellem Cut-off und logarithmischen Normalverteilungen besser zu den Daten zu passen als das reine Potenzgesetz. Andererseits, wenn die Potenzgesetz-Hypothese nicht abgelehnt wird, ist sie in der Regel empirisch von den meisten alternativen Modellen nicht zu unterscheiden. Das reine Potenzgesetz-Modell scheint nur für die am häufigsten zitierten Arbeiten in „Physics and Astronomy“ das beste Modell zu sein. Insgesamt scheinen unsere Ergebnisse Theorien zu unterstützen, die implizieren, dass die am häufigsten zitierten wissenschaftlichen Arbeiten dem Yule, dem Potenzgesetz mit exponentiellem Cut-off oder Log-Normalverteilung, folgen. Unsere Ergebnisse legen auch nahe, dass Potenzgesetze in Zitationsverteilungen, falls vorhanden, nur einen sehr kleinen Teil der veröffentlichten Arbeiten ausmachen (weniger als 1 % für die meisten Wissenschaftsgebiete) und dass der Skalierungsparameter (Exponent) des Potenzgesetzes wesentlich höher ist (von ca. 3,2 bis ca. 4,7) als in der älteren Literatur gefunden.;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1524-z 226c22570023b497f410f931a204dd7e;de;;;6.4.;;;Beziehen sich Zitate und Impact-Faktoren auf die realen Zahlen in Publikationen? Eine Fallstudie zu Zitationsraten, Auswirkungen und Effektstärken in Ökologie und Evolutionsbiologie Erfolgs- oder Wirkungsmetriken in der Wissenschaft können mehr schaden als nützen. Um den Wert von Zitaten zu untersuchen, wurde die berichtete Wirksamkeit von Behandlungen in Ökologie und Evolution aus fast 1.500 Veröffentlichungen untersucht. Wenn das Zitierverhalten rational ist, d. h. Studien, die eine Behandlung erfolgreich angewendet und größere biologische Effekte festgestellt haben, werden häufiger zitiert, dann sagen wir voraus, dass größere Effektstärken die relativen Zitierraten von Studien erhöhen. Diese Vorhersage wurde nicht unterstützt. Zitate sind daher wahrscheinlich ein schlechter Indikator für den quantitativen Wert einer bestimmten Behandlung in Ökologie und Evolutionsbiologie – im Gegensatz zur evidenzbasierten Medizin, bei der der Erfolg eines Medikaments oder einer Behandlung für die menschliche Gesundheit eines der entscheidenden Attribute ist. Der Impact-Faktor der Zeitschrift ist erwartungsgemäß eine breitere Metrik, aber auch unabhängig von den mittleren Effektstärken der jeweiligen Publikationspopulationen. Die Interpretation der Behandlungseffekte durch die Autoren innerhalb jeder Studie war unterschiedlich, je nachdem, ob die Hypothese unterstützt oder abgelehnt wurde. Deutlich größere Effektstärken waren mit der Ablehnung einer Hypothese verbunden. Dies deutet darauf hin, dass nur die strengsten Studien veröffentlicht werden, die negative Ergebnisse berichten, oder dass die Autoren eine höhere Beweislast bei der Ablehnung einer Hypothese auferlegen. Ersteres dürfte weitgehend zutreffen, da nur 29 % der Studien die getesteten Hypothesen verwarfen. Diese Ergebnisse weisen darauf hin, dass die Verwendung von Zitaten zur Identifizierung wichtiger Arbeiten in dieser speziellen Disziplin – zumindest im Hinblick auf die Gestaltung eines neuen Experiments oder kontrastierende Behandlungen – von begrenztem Wert ist.;-;-;-;https://link.springer.com/article/10.1007/s11192-012-0822-6 f07aac8a143abc0ed9ec79be5fea32d8;de;;;6.4.;;;Schlafende Schönheiten ohne Prinzen nach dem Ko-Zitat-Kriterium In der Wissenschaft bezeichnet Dornröschen (SB) eine viel zitierte Arbeit, die nach Veröffentlichung zunächst mehrere Jahre unbeachtet bleibt. Es ist allgemein anerkannt, dass jeder SB von Fürsten geweckt wird, in Form anderer Papiere, die den SB zitieren. Untersuchungen haben ergeben, dass ein Fürst ein Merkmal ist, dass er eine beträchtliche Anzahl von Kozitationen mit dem SB unterhält. In der vorliegenden Studie wendeten wir eine Methode an, um nach Fürsten aus Papieren zu suchen, die den SB zitieren, basierend auf der Anzahl der Kozitationen im Web of Science, und identifizierten vier SBs, die ohne einen Prinzen geweckt wurden, basierend auf dem Kozitationskriterium. Für dieses Phänomen gibt es zwei mögliche Erklärungen. Der erste ist, dass einige SBs möglicherweise keinen Prinzen brauchen, um die Aufmerksamkeit anderer Akademiker auf sich zu ziehen. Die Autoren von drei der vier oben genannten SBs waren Nobelpreisträger, und ihre Arbeiten waren auf ihrem jeweiligen Gebiet bekannt. Die Zeitungen hatten lange geschlafen, weil ihre Arbeit ihrer Zeit voraus war. Die lange Schlafdauer spiegelt das hohe akademische Niveau und die Einsicht der Autoren wider. Die andere mögliche Erklärung ist, dass Prinzen nicht mit SBs kozitiert werden müssen. Unsere Ergebnisse zeigen einen erheblichen Mangel an den bisherigen Kriterien für Fürsten auf der Grundlage von Kozitationen. Daher sind neue Kriterien erforderlich, um Fürsten zu identifizieren.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2932-2 c5c5aaa3824ee519e4164e63216cd1d7;de;;;6.4.;;;Eine diachron vergleichende Untersuchung von Forschungsartikeltiteln in Linguistik- und Literaturzeitschriften Durch die Untersuchung einer Gesamtzahl von 1364 Artikeltiteln aus sieben SSCI-indexierten Linguistik-Zeitschriften und sieben A&HCI-indexierten Literaturzeitschriften zwischen 1980 und 2018 versucht diese Studie, die herausragenden Form- und Inhaltsmerkmale der Titel und ihre diachronen Variationen darzustellen sowie die Ähnlichkeiten oder Unterschiede zwischen den beiden Disziplinen in Bezug auf Titelmerkmale. Die Ergebnisse zeigen, dass die Artikeltitel in beiden Fachgebieten eine Konsistenz im langfristigen Trend der Titellänge und der Informativität aufweisen, wobei sie ein stetiges und lineares Längenwachstum und eine Zunahme mit Fluktuationen in der Informativität aufweisen. Nominale und zusammengesetzte Strukturen werden in Linguistik- und Literaturzeitschriften häufig verwendet, aber der Anteil der zusammengesetzten Konstruktionen war in den letzten 39 Jahren immer höher als der der nominalen in Literaturzeitschriften. Titel mit aktuellen Informationen haben in den 1980er bis 2010er Jahren den höchsten Anteil sowohl in Linguistik- als auch in Literaturzeitschriften. In den letzten zehn Jahren sind jedoch die Inhaltsinformationen, die durch linguistische Artikeltitel bereitgestellt werden, tendenziell vielfältiger und präsentieren nicht nur Forschungsthemen, sondern auch Ergebnisse, Datensätze und Methoden der Studie. Bei der lexikalischen Vielfalt wurden keine signifikanten Unterschiede zwischen den beiden Disziplinen festgestellt, die beide einen allgemeinen Abwärtstrend verzeichneten.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03329-z 81734edcddf6135f3832c95a9078480a;de;;;6.4.;;;Totalisierte Input-Output-Bewertung der Forschungsproduktivität von Nationen mit multidimensionalem Input und Output Forschungsevaluation ist ein mehrdimensionales Problem, da es mehrere Input- und Output-Dimensionen und einen Länderraum mit vielen Dimensionen gibt. Die Daten, die die Verbindungen herstellen, liegen normalerweise in Matrixform vor. In diesem Papier verwenden wir die Matrixnormalisierung und -multiplikation, damit aufsummierte Eingabe- und Ausgabemaße erhalten werden können. Dies erleichtert die vergleichende Forschungsevaluation. Die USA und Japan führen als Hauptakteure, wenn Patente und Papiere gemeinsam betrachtet werden. Die meisten der betrachteten Länder registrieren einen summierten Output, der dem summierten Input entspricht. Drei Länder verfehlen dieses Ideal: China, Russland und Mexiko.;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2605-6 49a6fd328e3721026f36b0a60ada3702;de;;;6.4.;;;Learning Analytics in der Hochschulbildung: Analytics überwiegt, aber wenig gelernt? In einem Kontext, in dem technologievermitteltes Lernen in der Hochschulbildung an Bedeutung gewonnen hat, hat sich die Lernanalyse zu einem leistungsstarken Werkzeug zur Sammlung und Analyse von Daten mit dem Ziel entwickelt, das Lernen der Studierenden zu verbessern. Learning Analytics ist jedoch Teil einer jungen Community und ihre Entwicklungen verdienen weitere Erforschung. Einige kritische Positionen behaupten, dass Learning Analytics tendenziell die Komplexität von Lehr-Lern-Prozessen unterschätzt. Dieser Beitrag untersucht sowohl anhand einer bibliometrischen als auch einer inhaltsanalytischen Untersuchung die Publikationsmuster zu Learning Analytics im Hochschulbereich und deren zentrale Herausforderungen. 385 Papiere, die zwischen 2013 und 2019 in WoScc- und SciELO-Indizes veröffentlicht wurden, wurden identifiziert und analysiert. Learning Analytics ist eine lebendige und sich schnell entwickelnde Community. Es steht jedoch weiterhin vor zahlreichen und komplexen Herausforderungen, insbesondere im Hinblick auf das Lernen der Schüler und deren Auswirkungen. Der Beitrag schließt mit der Unterscheidung zwischen einer praxisorientierten und managementorientierten Community von Learning Analytics und einer akademisch orientierten Community. In beiden Communities scheint der Fokus jedoch mehr auf Analytik als auf Lernen zu liegen.;-;-;-;https://link.springer.com/article/10.1186/s41239-021-00258-x cab9060d0e571fd814b865763f08f631;de;;;6.4.;;;Die Resilienz gegenüber gesundheitlichen Herausforderungen hängt mit unterschiedlichen Denkweisen zusammen: Mediatoren der körperlichen und emotionalen Lebensqualität in einer heterogenen Kohorte mit seltenen Krankheiten Wir wollten verstehen, was Menschen auszeichnet, die mit gesundheitlichen Herausforderungen konfrontiert sind, aber dennoch erfolgreich sind. In dieser Studie wurde untersucht, ob Resilienz dazu beiträgt, die Auswirkungen gesundheitlicher Herausforderungen auf die Ergebnisse der Lebensqualität (QOL) zu erklären und wie Resilienz mit der Beurteilung zusammenhängt.;-;-;-;https://link.springer.com/article/10.1007/s11136-017-1633-2 75b3bff6defb42db9218d3ed34a34577;de;;;6.4.;;;Wissenschaftlicher Output und Wirkung von Postdoktoranden: eine Gender-Perspektive Dieses Papier analysiert den wissenschaftlichen Output und die Wirkung von 731 Ph.D. Inhaberinnen und Inhaber, die zwischen 1990 und 2002 an spanischen Universitäten promoviert wurden. Ziel war es, Unterschiede in der Höhe des wissenschaftlichen Outputs und der Wirkung von Publikationen in Bezug auf Zitationen nach Geschlecht zu identifizieren. Die Analyse ergab keine signifikanten Unterschiede in der Höhe des wissenschaftlichen Outputs zwischen Männern und Frauen. Allerdings ist der Anteil der weiblichen Ph.D. Inhaber ohne Postdoktorandenleistung war signifikant höher als die ihrer männlichen Kollegen, und die durchschnittliche Anzahl der nach dem Ph.D. Auch bei den Frauen war der Abschluss geringer. In Bezug auf die Forschung vor und nach der Promotion zeigten die Daten, dass frühe wissenschaftliche Leistungen ein guter Prädiktor für die spätere Produktivität in beiden Geschlechtergruppen sein können. Die Ergebnisse zeigten auch, dass Artikel von weiblichen Ph.D. Inhaber wurden deutlich häufiger zitiert, auch wenn Eigenzitate ausgeschlossen wurden.;-;-;-;https://link.springer.com/article/10.1007/s11192-009-0025-y 28d591904a3b9c4ecabf3a4f7d0e37df;de;;;6.4.;;;Beeinflusst der Multi-Authorship-Trend die Qualität eines Artikels? In den letzten Jahrzehnten haben Artikel mit mehreren Autoren in verschiedenen Disziplinen mit zunehmenden Fällen von Autoritätsmissbrauch zugenommen, obwohl Multiautorenschaft nicht immer auf unverdiente Autorenschaft zurückzuführen ist (McDonald et al. in Mayo Clin Proc 85(10):920–927,;-;-;-;https://link.springer.com/article/10.1007/s11192-013-1127-0 c2c4d26a487fa64fecaad996819b1c1b;de;;;6.4.;;;Eine Analyse der malaysischen eingezogenen Papiere: Fehlverhalten oder Fehler? Zurückgezogene Veröffentlichungen sind ein wichtiges, aber übersehenes Thema in der wissenschaftlichen Gemeinschaft. Der Zweck dieser Studie war es, die Prävalenz, Merkmale und Gründe von malaysischen zurückgezogenen Papieren zu analysieren. Die Datenbanken Web of Science und Scopus wurden abgefragt, um zurückgezogene malaysische Veröffentlichungen zu identifizieren. Auf verfügbare Versionen von Originalartikeln und Veröffentlichungshinweisen wurde von Zeitschriften-Websites zugegriffen. Die Publikationen wurden auf verschiedene Merkmale hin bewertet, einschließlich des Grundes für den Widerruf, basierend auf den Richtlinien des Ausschusses für Veröffentlichungsethik und der Behörde, die den Widerruf forderte. Von 2009 bis Juni 2017 wurden 125 malaysische Publikationen (33 Zeitschriftenartikel und 92 Konferenzbeiträge) zurückgezogen. Die Prävalenz zurückgezogener Artikel war 2010 und 2012 mit 42 Artikeln (33,6%) bzw. 41 Artikeln (32,8%) von 125 zurückgezogenen Artikeln stark angestiegen. Die durchschnittliche Zeit von der elektronischen Veröffentlichung bis zum Widerruf betrug 1 Jahr. Es gibt keinen signifikanten Zusammenhang zwischen einem Journalquartil und der durchschnittlichen Anzahl der Monate bis zum Widerruf (;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2720-z fea96effb42226c622d6f968b9ce0d3c;de;;;6.4.;;;Räumliche Mobilität in Eliteuniversitäten der Wirtschaftswissenschaften: der Fall Spanien Anhand eines Datensatzes von 3540 Ökonomen, die 2007 in 125 der besten akademischen Zentren in 22 Ländern arbeiteten, präsentiert dieser Artikel einige Belege für räumliche Mobilitätsmuster in Spanien und anderen Ländern, die von einigen persönlichen, Abteilungs- und Ländermerkmalen abhängig sind. Es gibt Produktivitäts- und andere Gründe für die Gestaltung einer Wissenschaftspolitik mit dem Ziel, ausländische Talente anzuziehen (;-;-;-;https://link.springer.com/article/10.1007/s13209-019-0189-5 57c06315d60117d988d44e5e9a37c70c;de;;;6.4.;;;Die Ozeanfernerkundung zum Laufen bringen Bisher hat sich dieses Buch in seiner Zielsetzung, die Anwendungsmöglichkeiten von Methoden der Satellitenozeanographie darzustellen, eher auf die Ergebnisse der wissenschaftlichen Forschung konzentriert. Es hat versucht, neue Erkenntnisse und ein verbessertes Verständnis von Ozeanphänomenen hervorzuheben, die durch Beobachtung und Messung von Satelliten in der Erdumlaufbahn entdeckt wurden. Jedes Kapitel hat die Perspektive einer Satellitenfernerkundung auf einen anderen Aspekt der Meeresforschung gebracht. Prozesse wie mesoskalige Wirbel, großräumige dynamische Merkmale wie Rossby-Wellen, Luft-Meer-Interaktionsphänomene wie El Niño oder klimatologische Ereignisse (z. . Auf dem Weg wurde auch darauf hingewiesen, wie Fernerkundungsmethoden die Überwachung des Meeresverhaltens erleichtern, nicht nur zur Unterstützung der wissenschaftlichen Forschung und Entdeckung, sondern auch zur Unterstützung derjenigen, die auf See leben. Dieses vorletzte Kapitel greift dieses Thema der angewandten Satellitenozeanographie auf, wie die Ozeanfernerkundung eingesetzt werden kann, um die operativen Bedürfnisse der menschlichen Zivilisation in den Interaktionen der Menschheit mit dem Meer zu erfüllen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68322-3_14 88c2a553372563b07a9a149f89662c4b;de;;;6.4.;;;Innovationen in den Fächern Wissenstechnologien Entsprechend der Forderung nach neuen Kenntnissen und Fähigkeiten, die von den Absolventen der Fakultät für Informatik und Management der Universität Hradec Králové verlangt werden, wurde das Thema Smart and Knowledge Technology in den Lehrplan aufgenommen. Um die Qualität eines hochprofessionellen Ausbildungsprogramms zu gewährleisten, hat die Fakultät eine Zusammenarbeit mit Unternehmen aufgenommen. Ziel der Beziehung ist es, den Studierenden theoretische und praktische berufliche Fähigkeiten zu vermitteln und sie auf neue, neu geschaffene Positionen auf dem Arbeitsmarkt vorzubereiten. Seit der Einführung von Smartphones hat sich der Mobilfunkmarkt schnell von Feature-Phones zu Smartphones gewandelt. Daher befasst sich der Bildungsbereich mit der Vermittlung von Wissen durch intelligente Geräte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-39690-3_22 892ed711dbfc2f5dd24633a79afdc334;de;;;6.4.;;;Unterstützendes System der Servicetechnologie Nach der Gründung der Yuan-Dynastie vereinte Kublai Khan China wieder und beschloss, einen neuen genauen und einheitlichen Kalender zu erstellen, um die landwirtschaftliche Produktion zu leiten. Die Aufgabe wurde der Astrologischen Kommission übertragen und die Arbeit der Kalenderrevision wurde von Guo Shoujing und seinem Klassenkameraden Wang Xun geleitet. Als die Arbeit der Kalenderrevision begann, schlug Guo Shoujing vor, dass der Beobachtung Vorrang eingeräumt werden sollte, um den Kalender zu studieren, während die Beobachtung von Metern abhängen muss. Die große Armillarsphäre, die von Kaifeng zur astronomischen Beobachtung transportiert wurde, war veraltet, und sie konnten keine zuverlässigen Daten mehr erhalten. Außerdem war seine Struktur komplex und nicht einfach zu bedienen. Guo Shoujing entwarf ein Set einfach konstruierter Instrumente mit präziser Skalenmarkierung, die einfach zu bedienen ist. Mit den neuen Instrumenten wurde eine solide Grundlage geschaffen, um Beobachtungen vor Ort zu realisieren. 1279 n. Chr. wurde das Studium von Wang Xun und Guo Shoujing von Kublai Khan akzeptiert und anerkannt. Die Expertengruppe baute im Hof ​​der Astrologischen Kommission ein neues Observatorium und errichtete 27 großflächige Beobachtungspunkte im ganzen Land. Der nördlichste Aussichtspunkt befindet sich in Tiele (heutiges Jenissei-Flusstal in Sibirien) und der südlichste im Südchinesischen Meer (auf den heutigen Xisha-Inseln). Es wurden 14 Überwachungsbeamte ausgewählt und an verschiedenen Orten zur Beobachtung eingesetzt, und Guo Shoujing führte auch einige Personen persönlich zu wichtigen Beobachtungspunkten. Alle Daten, die von verschiedenen Beobachtungspunkten gesammelt wurden, wurden in der Astrologischen Kommission aggregiert. Feine Instrumente und präzise Messungen belohnten Guo Shoujing und seine Leute schließlich mit einer großen Menge zuverlässiger Daten, auf deren Grundlage der Shoushi-Kalender erstellt wurde. Der Kalender war viel genauer als der vorherige, da er berechnete, dass es 365,2425 Tage im Jahr gibt, was von der Zeit abweicht, in der die Erde nur 26 s lang die Sonne umkreist. Der im Kalender berechnete Zyklus ist der gleiche wie der des Gregorianischen Kalenders (der heute verwendet wird), der 302 Jahre später erstellt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34497-8_8 c0d28b973856d7fd683925c8a4d6cc50;de;;;6.4.;;;Auf dem Weg zu einer geisteswissenschaftlichen Pädagogik im 21. Jahrhundert Das hier diskutierte Konzept der digitalen Epistemologie legt eine Überarbeitung des historischen Curriculums nahe, da „das Digitale“ – verstanden als Perspektive oder Linse (Lindhé;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-56425-4_5 085637116cebfe33240b50763751327e;de;;;6.4.;;;Schema-Mapping mit Qualitätssicherung für die Datenintegration Mit der Popularität des Internets werden immer mehr Daten im Internet generiert. Aufgrund der Verwendbarkeit der Extensible Markup Language (kurz XML) werden mehr Daten nach dem XML-Dokumentformat organisiert. Aufgrund der Flexibilität von XML weisen XML-organisierte Daten eine Vielzahl von Organisationsformaten auf, was die Datenverwaltung sehr umständlich macht. Insbesondere wenn umfangreiche Datenoperationen an XML-Daten durchgeführt werden, beispielsweise Datenintegration, Modelländerung usw., gibt es viele Probleme. Eine der aktuellen Implementierungen besteht darin, Data Exchange zu verwenden, um die oben genannten Operationen auszuführen. Die Arbeiten der Vorgänger bestehen hauptsächlich darin, die Eigenschaften des Schema-Mappings auf XML zu analysieren und Datenaustauschregeln einzuführen. Diese Regeln berücksichtigen nur die Datenintegrität und -zuverlässigkeit, aber nicht die Qualität der Daten nach der Konvertierung. Dieses Papier schlägt das Konzept der Qualitätssicherungsmechanismen vor. Zunächst diskutieren wir, dass es sich um ein neues Modell mit Qualitätssicherung handelt und stellen eine geeignete Methode für dieses Modell zur Verfügung. Dann schlagen wir die Strategie der Konvergenz des schwachen Zweigs auf der Grundlage des Schemas vor. Am Ende zeigen theoretische Analysen und experimentelle Ergebnisse, dass die Methode richtig und machbar ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20291-9_53 4ef3dfde0eb2e29ccf2ee10612892003;de;;;6.4.;;;Die Entwicklung und der aufkommende Trend der Closed-Loop-Supply-Chain-Forschung in China: Visuelle Analyse von CSSCI-Dokumenten von CNKI In den letzten Jahren wurde unter dem doppelten Druck von ökologischer Umwelt und nachhaltiger Entwicklung der Reform der geschlossenen Lieferkette immer mehr Aufmerksamkeit geschenkt. Die geschlossene Lieferkette garantiert die Entwicklung der Kreislaufwirtschaft und die Verbesserung der ökologischen Nachhaltigkeit. Die Erforschung der geschlossenen Lieferkette ist zu einem heißen Thema geworden, das von einheimischen Wissenschaftlern weit verbreitet ist. Um den Forschungsstatus und die Hot-Spot-Verteilung von Closed-Loop-Lieferketten klar zu verstehen, wurde die SSCI-Literatur in der CNKI-Datenbank als Forschungsobjekt verwendet und die deskriptive statistische Analyse und Clusteranalyse von CiteSpace durchgeführt. Dieses Papier fasst den Evolutionsprozess, den Forschungskontext und andere Informationen der Closed-Loop-Supply-Chain-Forschung zusammen und verwendet die Visualisierungskarte, um die neuesten Forschungstrends und Trends der Closed-Loop-Supply-Chain zu ermitteln, um eine Referenz für die Konstruktion von Makros Wissenslandkarte im Bereich Closed-Loop-Supply-Chain und vermitteln in- und ausländischen Wissenschaftlern ein Grundverständnis zur Erforschung von Closed-Loop-Supply-Chain;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9605-6_27 094368748301c0b150cdc51a28167acd;de;;;6.4.;;;Was sagen die Wissenschaftler zum Impact-Faktor? Der Impact Factor ist eine hoch polemische Metrik. Es wurde entwickelt, um Wissenschaftlern bei der Suche nach bibliographischen Referenzen für ihre eigenen Werke zu helfen, die Kommunikation zwischen Forschern zu ermöglichen und Bibliothekaren bei der Entscheidung zu helfen, welche Zeitschrift sie kaufen sollten. Nichtsdestotrotz wurde es bald zum wichtigsten Maß für die wissenschaftliche Leistung von Zeitschriften, Artikeln, Wissenschaftlern, Universitäten usw. Seitdem argumentieren einige Forscher, dass es ein nutzloses und fehlerhaftes Maß ist, während andere seinen Nutzen verteidigen. Die aktuelle Studie ist die erste Umfrage zur Meinung einer breiten Stichprobe von Wissenschaftlern aus der ganzen Welt zum Thema. Der Fragebogen wurde von 1.704 Forschern aus 86 verschiedenen Ländern, allen Kontinenten und allen wichtigen Wissensgebieten der UNESCO beantwortet. Die Ergebnisse zeigen, dass die Meinung leicht über dem Median liegt, der als „weder positiv noch negativ“ verstanden werden kann. Überraschenderweise besteht eine negative Korrelation zwischen der Anzahl der von den Befragten veröffentlichten Artikel und ihrer Meinung zum Impact-Faktor.;-;-;-;https://link.springer.com/article/10.1007/s11192-012-0676-y 40a2b0477e3c9ecb93d46dbb27ee24e1;de;;;6.4.;;;Entwicklung eines Innovationsmaßstabs aus der Forschung in Hochschuldaten Der Nutzen der Wissenschaft beschränkt sich oft auf den Beitrag zum Allgemeinwissen. Die Definition von Innovation in der Forschung ist komplex und mehrdimensional. Die Höhe des Forschungsausgabenbudgets sowie Publikations- und Zitationsmetriken werden am häufigsten verwendet, um die Innovation der institutionellen Forschung zu messen. Ziel des Projekts ist es, ein Innovationsmaß für institutionelle Forschung zu konstruieren, das konvergente Validität mit gesellschaftlichem Nutzen aus der universitären Forschung hat. Die Stichprobe umfasste 143 Institutionen in den USA, die an der Licensing Survey 2014 der Association of University Technology Managers (AUTM) teilgenommen haben Richtlinien enthalten waren. Exploratory Structural Equation Modeling (ESEM) wurde verwendet, um das sparsamste Modell mit allen verfügbaren Indikatoren aus den AUTM Licensing Survey Data zu bestimmen. Eine Bestätigungsfaktoranalyse zweiter Ordnung (CFA) wurde verwendet, um die ESEM-Ergebnisse zu validieren. CFA zweiter Ordnung bestätigte die Hypothese eines insgesamt latenten Faktors der Forschungsinnovation. Diese Ergebnisse zeigen, dass Innovation institutioneller Forschung anhand von drei Faktoren bewertet werden kann: Beitrag zum Wissen, Innovation im Bereich der öffentlichen Gesundheit und wirtschaftliche Auswirkungen. Bisher gab es keine Bemühungen, die Mehrdimensionalität der Innovation institutioneller Forschung unter Einbeziehung der Auswirkungen auf die öffentliche Gesundheit empirisch zu messen.;-;-;-;https://link.springer.com/article/10.1007/s11192-021-03916-z c90c77e2896cb8da17478ce072b9ea76;de;;;6.4.;;;Indikatoren zweiter Ordnung zur Bewertung internationaler wissenschaftlicher Zusammenarbeit Wir schlagen einen Indikator vor, um das Ausmaß zu „messen“, in dem Ko-Publikationen durch internationale Zusammenarbeit den Wert des wissenschaftlichen Outputs einer Organisation oder Einrichtung, die wissenschaftliche Forschung betreibt, steigern. Es wird ein Ansatz zweiter Ordnung verwendet, der einen Qualitäts-Proxy (Impact) und einen Quantitäts- oder Größen-Proxy (Anzahl der veröffentlichten Artikel) kombiniert, um eine Dreiheit von Energie wie skalare Proxys zu erhalten. Aus diesen lassen sich ein Index der ausländischen Zusammenarbeit und ein weiterer Gleichmäßigkeitsindikator definieren, der den Umfang und die Ungleichmäßigkeit der Rolle der ausländischen Zusammenarbeit in der gesamten akademischen Leistung der Organisation zeigt.;-;-;-;https://link.springer.com/article/10.1007/s11192-012-0804-8 43436e72c8beaae973b129232a601b2c;de;;;6.4.;;;Die Schwierigkeit, Manuskript-Rezensenten zu finden, ist nicht mit Manuskript-Akzeptanzraten verbunden: eine Studie zum Peer-Review-Prozess bei der Zeitschrift Über den expliziten Kommentar des Gutachters hinaus können sich Redakteure bei der Bewertung von Manuskripten, die für eine Veröffentlichung in Betracht gezogen werden, auf andere Metriken stützen. Ein potenzielles, indirektes Maß für den Wert kann die Leichtigkeit oder Schwierigkeit sein, Gutachter zu finden, die bereit sind, eine bestimmte Arbeit zu überprüfen. Wir wollten feststellen, ob die Entscheidungen der Gutachter, der Begutachtung eines Manuskripts zuzustimmen oder abzulehnen, mit der Annahme des Manuskripts verbunden sind. Original-Research-Einreichungen an „;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2331-0 db5ba71032460419b84a26c0792dba7c;de;;;6.4.;;;Patentstrategie an chinesischen Universitäten: eine vergleichende Perspektive Patentierung und Lizenzierung sind nicht nur eine bedeutende Methode des universitären Wissenstransfers, sondern auch ein wichtiger Indikator zur Messung der akademischen F&E-Stärke und der Wissensnutzung. Die Methoden der quantitativen und qualitativen Analyse, einschließlich eines speziellen Patents;-;-;-;https://link.springer.com/article/10.1007/s11192-010-0194-8 d10bc021ca6845502ad5d3da4faeac7f;de;;;6.4.;;;Was macht eine Zeitschrift international? Eine Fallstudie unter Verwendung von Zeitschriften für Naturschutzbiologie Das qualitative Label „internationale Zeitschrift“ wird häufig verwendet, auch bei nationalen Bewertungen der Forschungsqualität. Wir haben die Praktikabilität einer quantitativen Analyse der Internationalität anhand von 39 naturschutzbiologischen Zeitschriften ermittelt und einen einzigen numerischen Index (IIJ) basierend auf 10 Variablen bereitgestellt, der die in den Herausgebergremien der Zeitschriften vertretenen Länder, Autoren und Autoren, die die Artikel der Zeitschriften zitieren, abdeckt. Eine numerische taxonomische Analyse verfeinerte die Interpretation und enthüllte sechs Kategorien von Zeitschriften, die unterschiedliche internationale Schwerpunkte widerspiegeln, die bei einer einfachen Betrachtung der IIJs allein nicht erkennbar sind. Kategorien korrelierten signifikant mit der Zitationswirkung von Zeitschriften (gemessen am Hirsch-Index), mit ihren Rankings unter der „Excellence in Research for Australia“ des australischen Commonwealth und mit einigen Publikationsländern, jedoch nicht mit der Listung durch ISI Web of Science. Die Bewertungen spiegeln nicht die Qualität wider, können jedoch Redakteuren bei der Planung unverwechselbarer Zeitschriftenprofile oder Autoren bei der Suche nach geeigneten Medien helfen.;-;-;-;https://link.springer.com/article/10.1007/s11192-010-0273-x d00ad0307597718a39d2aa5b03ea8b06;de;;;6.4.;;;Auswertung der vielzitierten Forscherdatenbank für ein Land: Vorschläge für aussagekräftige Analysen am Beispiel Deutschland Im Jahr 2014 veröffentlichte Thomson Reuters (TR, Anbieter des Web of Science, WoS) eine Liste der vielzitierten Forscher weltweit. Dazu gehören diejenigen Wissenschaftler, die in ihrer Disziplin die meisten Veröffentlichungen veröffentlicht haben, die zu den 1 % der meistzitierten Veröffentlichungen gehören. Bornmann und Bauer (J Assoc Inf Sci Technol, im Druck) haben eine erste Auswertung vorgelegt, in der die Wissenschaftlerinnen und Wissenschaftler anhand ihrer Zugehörigkeit bewertet werden. In dieser kurzen Mitteilung möchten wir aufzeigen, wie die TR-Daten für eine sinnvolle länderspezifische Auswertung genutzt werden können. Als Beispiel für die Analyse dient Deutschland.;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1619-1 d3b8016d5cd2d0a119db38d179e82623;de;;;6.4.;;;Risiken des modularen integrierten Bauens: Ein Rückblick und zukünftige Forschungsrichtungen Die Interessengruppen bleiben aufgrund der damit verbundenen Risiken und Unsicherheiten skeptisch gegenüber der Einführung des modularen integrierten Bauens (MiC), obwohl die Vorteile ausführlich dokumentiert wurden. Das einzigartige Geschäftsmodell von MiC birgt verschiedene Risiken und Unsicherheiten, die sich von denen des konventionellen Bauansatzes unterscheiden. Trotz der wachsenden Aufmerksamkeit für MiC mit seiner Marktexpansion gibt es keine systematische Bewertung, um den Fortschritt der Risikoforschung zu überwachen. Dementsprechend hat diese Studie die veröffentlichte Literatur zu den Risiken im Zusammenhang mit MiC von 1992 bis 2019 überprüft. Die Analyse zeigt, dass die Forschungspublikationen zu den Risiken von MiC ein stetiges Wachstum verzeichneten, wobei in den letzten zehn Jahren erhebliche Fortschritte erzielt wurden. Das Ergebnis deutet darauf hin, dass dem MiC-Risiko in letzter Zeit im Bereich Bauingenieurwesen und -management besondere Aufmerksamkeit geschenkt wurde. Bestehende empirische Studien haben sich stark auf wahrgenommene Umsetzungsrisiken, Lieferkettenrisiken, Terminrisiken, Investitionsrisiken, strukturelle Risiken, ergonomische Risiken und MiC-Risikomanagementstrategien konzentriert, was darauf hindeutet, dass MiC mit einer Vielzahl von Risikoereignissen verbunden ist. Die Forschung identifizierte außerdem die kritischen Risikoereignisse (CRE) bei der Anwendung von MiC basierend auf der Häufigkeit des Auftretens. Die identifizierten CREs tragen zu den Checklisten von Risikoereignissen bei der Umsetzung von Offsite Construction (OSC) bei. Letzteres kann bei der Risikoplanung nützlich sein, insbesondere wenn das MiC weniger entwickelt ist und weniger oder keine maßgeschneiderte Risikobewertung existiert. Dabei werden Forschungslücken in bestehenden Studien aufgezeigt und Bereiche für weitere Studien vorgeschlagen. Somit leistet es einen nützlichen Beitrag zur wissenschaftlichen Literatur zum OSC-Risiko und kann sich für externe Bauforscher, Industriepraktiker und Projektmanager als nützlich erweisen.;-;-;-;https://link.springer.com/article/10.1007/s42524-019-0059-7 1e4994662c46366d07c64315db939fff;de;;;6.4.;;;Skizzieren Sie eine Technologie-Roadmap unter Verwendung eines neuartigen visionsorientierten Service-Innovations-Ansatzes: Umwelttechnologie-Roadmap für die Gestaltung einer nachhaltigen Stadt als Beispiel Um die Herausforderungen durch die rasante Urbanisierung zu meistern, legen zukunftsorientierte Regierungen großen Wert auf Smart Living Services. Smart Living Services, die IKT-gestützte Intelligenz nutzen, um städtische Systeme zu verbessern, können nicht nur die Lebensqualität der Menschen verbessern, sondern auch neue Möglichkeiten für wirtschaftliches Wachstum schaffen. Insbesondere werden aufkommende Technologien wie Greentech zunehmend eingeführt, um intelligentere Wohndienstleistungen zu schaffen, die der Nachhaltigkeit der Stadt förderlich sind. Allerdings sind aufkommende Technologien im Wesentlichen einflussreiche und hochgradig ungewisse Kräfte, die die Welt der Zukunft verändern. Um dieses Problem zu lösen, schlagen wir einen Vision-orientierten Service Innovation (VioSIn)-Ansatz vor, der ausreichend ist, um eine Technologie-Roadmap für Service-Innovation zu skizzieren. Als nächstes demonstrieren wir mit dem VioSIn-Prozess eine umwelttechnische Roadmap zur modellhaften Gestaltung einer nachhaltigen Stadt. Aus praktischer Sicht bietet das VioSIn eine systematische Methode, die nützlich ist, um die aufkommenden Technologien und Dienste zu entwerfen und strategische Initiativen zur Förderung dieser Dienste aufzuzeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19536-5_11 71359136091c5d6390a2dbe010a01f3f;de;;;6.4.;;;Bewertung der Leistungskennzahlen von Zeitschriften Zeitschriften werden seit langem nach Impact-Faktoren geordnet. Dies ist ein Qualitätsindikator und begünstigt oft Review-Zeitschriften mit wenigen Artikeln. Integrierte Wirkungsindikatoren versuchen auch die Größe (Quantität) zu berücksichtigen und werden mit der Gesamtzahl der Zitationen korreliert. Die Gesamtzahl der Arbeiten in einem Portfolio kann als Leistungsindikator nullter Ordnung und die Gesamtzahl der Zitationen als Leistungsindikator erster Ordnung angesehen werden. Indikatoren wie die;-;-;-;https://link.springer.com/article/10.1007/s11192-012-0746-1 8bb92fbdcb202d55ac9b905fdff447cf;de;;;6.4.;;;Schlafende Schönheiten gewinnen im Overdrive-Modus an Wirkung In dieser Studie konzentrieren wir uns auf Eigenschaften von SBs, die bisher nicht oder kaum untersucht wurden. Wir stellen fest, dass die Wahl der Wachperiode bei der Auswahl der SBs Konsequenzen für die gemessenen Zitationsmuster hat. Mit dem Fokus auf medizinische SBs analysieren wir Muster in der zeitlichen Entwicklung der Zitierwirkung von SBs, den Einfluss von Selbstzitaten auf den Erwachungsprozess und das Auftreten medizinischer Forschungsfelder, denen die SBs und ihre zitierenden Arbeiten angehören. Eine wichtige Erkenntnis ist, dass SBs im Allgemeinen durch einen immer weniger tiefen Schlaf statt durch einen dauerhaften Tiefschlaf gekennzeichnet sind. Auf die Schlafphase folgt ein phasenübergangsartiger Sprung als Beginn der Aufwachphase und eine bemerkenswerte Regelmäßigkeit für den Zitierschlag unmittelbar vor und nach dem Sprung.;-;-;-;https://link.springer.com/article/10.1007/s11192-021-03910-5 1b771d7c796c4cd44a7989932708c98e;de;;;6.4.;;;Modellierung des Basic Research Competitiveness Index (BR-CI) mit einer Anwendung auf den Energiebereich Biomasse Wie ein effektiver internationaler Vergleich der Grundlagenforschungskapazitäten in einem bestimmten Bereich durchgeführt werden kann, ist ein dringendes Problem für ein Land, um die wissenschaftlichen und technologischen Aktivitäten zu überwachen. In diesem Papier entwickeln wir einen zusammengesetzten Index, d. h. den Basic Research Competitiveness Index (BR-CI), um die Grundlagenforschungsleistung der Länder im Vergleich zum weltweiten Durchschnitt im Zeitverlauf zu bewerten. Zu diesem Zweck werden die drei Teilindizes Activity Index (AcI), Atltive Index (AtI) und Efficiency Index (EI) vorgeschlagen, die jeweils verwendet werden, um die Forschungsanstrengungen der Länder, Auswirkungen, Effizienz im Vergleich zu den Weltdurchschnittsniveau in einem bestimmten Wissenschaftsbereich im Zeitverlauf Das vorgeschlagene Indikatorensystem kann einen zeit- und länderübergreifenden Vergleich der Forschungsleistung darstellen, der die Wettbewerbsfähigkeit der Grundlagenforschung im Verhältnis zum Weltdurchschnittsniveau quantifizieren und die Wettbewerbslandschaft zwischen den Ländern der Welt beschreiben kann. Als erste Anwendung verwendet dieses Papier die vier Indikatoren AcI, AtI, EI und BR-CI, um die Forschungsleistungen der fünf führenden Länder im Bereich der Biomasseenergie zu messen und zu vergleichen. Kurz gesagt, die Modellierung und empirische Untersuchung in diesem Beitrag bietet nicht nur einige neue Referenzen, um den internationalen Wettbewerb in der Grundlagenforschung im Bereich Biomasseenergie umfassend zu untersuchen, sondern bietet auch einige neue Perspektiven und Ideen zur Untersuchung der internationalen Wettbewerbsfähigkeit im Bereich der Grundlagenforschung von Wissenschaft und Technik.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-2042-y 8b8f78cf3a5117736d99823c216bccb4;de;;;6.4.;;;Analyse der Faktoren, die die Zitierbarkeit von Forschungsartikeln beeinflussen Die Zitationshäufigkeit wird beim Monitoring der Forschungsleistung von Institutionen berücksichtigt, ein Zitationsindex sollte beim Ausfüllen von Förderanträgen oder der Teilnahme an Förderwettbewerben angegeben werden und ist entscheidend für zusätzliche Anreize. In diesem Beitrag werden die Ergebnisse einer Analyse von Veröffentlichungen zur physikalisch-chemischen Biologie aus einem der Institute des Forschungszentrums vorgestellt. Diese Publikationen wurden seit 2014 nicht mehr zitiert. Die Autoren untersuchen die Auswirkungen verschiedener potenzieller Faktoren auf die Zitationszahlen, geben Empfehlungen zur Erhöhung der Publikationssichtbarkeit im wissenschaftlichen Netzwerk;-;-;-;https://link.springer.com/article/10.3103/S0147688220020070 23e87b3e669970618c6f6d920da75cc0;de;;;6.4.;;;Einblicke in die Auswirkungen des Technologiemodernisierungsprogramms des BID auf die argentinische STI-Politik Seit Mitte der 1990er Jahre hat die Politik zu Wissenschaft, Technologie und Innovation (WTI) einen herausragenden Platz auf der Agenda der lateinamerikanischen Länder wiedererlangt. Sowohl in den institutionellen Systemen als auch in den politischen Regulierungs-, Planungs- und Koordinierungsbehörden haben mehrere Veränderungen stattgefunden. Gleichzeitig wurden neue Instrumente zur Förderung der wissenschaftlichen Forschung und der technologischen Innovation im produktiven Sektor aufgenommen. Internationale Kreditinstitute wie die Interamerikanische Entwicklungsbank (IDB) spielten eine wichtige Rolle, insbesondere in Argentinien, wo spezifische Politiken und Instrumente entwickelt und durch sukzessive Versionen des Programms zur technologischen Modernisierung (PMT) umgesetzt wurden. Dieses Kapitel zeigt die Ergebnisse der Evaluierung dieses Programms und seiner wichtigsten Instrumente in den letzten 10 Jahren, die von Experten der Quilmes National University durchgeführt wurden. Die Bewertung zeigt, dass die Programmdurchführung sowohl die wissenschaftlichen als auch die technologischen Fähigkeiten des Landes gestärkt und auch die Wettbewerbsfähigkeit des Produktionssektors durch die Produktion und Einbindung von Wissen und Technologie erhöht hat. Kurz gesagt, die Umsetzung von PMT III hat zur Entwicklung und Stärkung des Nationalen Innovationssystems und der Regionalen Innovationssysteme in Argentinien beigetragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-04108-7_4 bd4ce7350e16c0cbef60522cd7daff48;de;;;6.4.;;;Kartierung eines Waldmosaiks – Ein Vergleich von Vegetations- und Vogelverteilungen mittels geografischer Grenzanalyse Viele Bereiche der ökologischen Forschung erfordern die Fähigkeit, Veränderungen ökologischer Variablen über Raum und Zeit hinweg zu erkennen und zu charakterisieren. Der Zweck dieser Studie war es, Wege zu untersuchen, wie geographische Grenzanalysetechniken verwendet werden könnten, um das Muster der räumlichen Veränderung in Pflanzenverteilungen in einem bewaldeten Feuchtgebietsmosaik zu charakterisieren. Mit Vegetationskarten, die mit räumlich eingeschränkter Clusterbildung und Differenzgrenzenabgrenzung erstellt wurden, untersuchten wir Ähnlichkeiten zwischen den identifizierten Grenzen in Pflanzenverteilungen und dem Vorkommen von sechs Singvogelarten. Wir fanden heraus, dass die Vegetationsgrenzen signifikant zusammenhängend waren, was darauf hindeutet, dass im Untersuchungsgebiet eine oder mehrere klare Vegetationsübergangszonen vorhanden sind. Kleinere, weniger zusammenhängende Grenzflächen lieferten auch wichtige Informationen über Muster von Baumfalllücken und dichten Unterholzflecken innerhalb des Untersuchungsgebiets. Die Grenzen für die Häufigkeit von Singvögeln waren nicht zusammenhängend, und die Grenzen der Vogel- und Vegetationsunterschiede zeigten keine signifikante Überlappung. Allerdings überlappten sich die Vogelgrenzen signifikant mit den Vegetationsclustergrenzen. Vegetationscluster, die mit Constrained-Clustering-Techniken abgegrenzt wurden, haben das Potenzial, sehr nützlich für die Stratifizierung der in verschiedenen Abschnitten des Untersuchungsgebiets gesammelten Vogelabundanzdaten zu sein, die verwendet werden könnten, um die Effizienz der Überwachung seltener Vogelarten zu verbessern.;-;-;-;https://link.springer.com/article/10.1023/A%3A1011905124393 2d2526739a19606024db74daab4aaea8;de;;;6.4.;;;IRank: Ein begriffsbasiertes Innovationsrankingsystem für Konferenzen und Wissenschaftler Seit der Einführung des Journal Impact Factor [1] im Jahr 1963 ist das klassische zitationsbasierte Ranking ein Standardkriterium für das Ranking von Zeitschriften und Konferenzen. Allerdings kann die Referenz eines Papers nicht alle relevanten Publikationen auflisten und die Zitationsverhältnisse sind nicht immer verfügbar, insbesondere wenn es um urheberrechtliche Probleme geht. Außerdem können wir eine neu veröffentlichte Arbeit nicht bewerten, bevor sie von anderen zitiert wird. Daher schlagen wir eine alternative Methode vor, ein begriffsbasiertes Bewertungsschema, das Publikationen anhand der von ihnen verwendeten Begriffe bewerten kann. Dann können wir Konferenzen, Zeitschriften und Wissenschaftler entsprechend einstufen. Wir denken, dass dieses begriffsbasierte Ranking-Schema verwendet werden kann, um die Innovationsqualität für Konferenzen und Wissenschaftler zu bewerten. Um unser Programm zu bewerten und seine Anwendung zu erleichtern, entwickeln wir ein Innovationsrankingsystem namens;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00672-2_13 095974412564625a39bd388efd79d846;de;;;6.4.;;;Systematische Reviews: Eigenschaften und Auswirkungen Seit 1990 nehmen systematische Übersichten exponentiell zu, wobei jedes Jahr Tausende veröffentlicht werden. Ziel dieser Studie war es, sowohl deren zeitliche Charakteristik in Bezug auf Wachstum pro Jahr, Fachgebiete und Verlagszugehörigkeit als auch ihre wissenschaftliche Wirkung zu ermitteln. In dieser Studie haben wir 106.038 systematische Übersichten verwendet, die 2019 aus dem Web of Science gesammelt wurden. Diese Artikel wurden analysiert, um Themen und Veröffentlichungsinstitutionen, wissenschaftliche Auswirkungen und mehr zu identifizieren. Unsere Daten zeigen, dass die Zahl der systematischen Übersichten jedes Jahr wächst, ihre wissenschaftliche Bedeutung jedoch abnimmt. Dies kann sowohl in Zitaten als auch in Nutzungsmetriken gesehen werden. Die Zeitschriften, die die meisten systematischen Übersichten veröffentlichen, liegen unter dem normalen Impact Factor für Zeitschriften im medizinischen und biomedizinischen Bereich. Es gibt weltweit nur sehr wenige Institutionen, die die meisten systematischen Übersichten erstellen. Die Themen variieren von Institution zu Institution. Die bloße Anzahl von Veröffentlichungen in systematischen Übersichten ist kein Hinweis auf Qualität oder Wirkung. Tatsächlich zeigen unsere Daten, dass diese rückläufig sind. In diesem Bereich scheint es eine Sättigung zu geben, was zu einem geringeren Interesse und Nutzen systematischer Übersichtsarbeiten führt.;-;-;-;https://link.springer.com/article/10.1007/s12109-020-09766-6 9eb1cfc04663f96db24cc9a399714982;de;;;6.4.;;;Die Determinanten der Wahl zum Präsidenten der American Economic Association: Beweise einer Kohorte angesehener Ökonomen der 1950er Jahre Für die Jahre 1950–1960 (einschließlich) wurden Daten von 55 Mitgliedern der AEA-Exekutivkomitees zu einer Vielzahl von Variablen gesammelt, die die Verdienst- und Nichtverdienstmerkmale der Ökonomen messen. Es wird ein Logit geschätzt, bei dem die abhängige Variable eine Dummy-Variable dafür ist, ob ein Mitglied des Exekutivausschusses jemals zum Präsidenten der American Economic Association (AEA) gewählt wurde. Die Zahl der Veröffentlichungen und Zitationen sind wichtige Determinanten der Wahl. Einen Doktortitel an einer der drei besten Schulen zu erhalten, hilft nicht und das Leben im Süden schadet nicht. Wirtschaftswissenschaftler, die 1956 älter waren, wurden mit größerer Wahrscheinlichkeit schließlich in die AEA-Präsidentschaft gewählt.;-;-;-;https://link.springer.com/article/10.1007/s11192-006-1747-8 5583e624d467e3e62d92bb0914914d01;de;;;6.4.;;;Die Verwendung von „Theorie“ und „Modell“ in der wissenschaftlichen Konzeptualisierung Die Ergebnisse einer Umfrage werden berichtet und interpretiert, und zwar in Bezug auf die Art und Weise, wie Wissenschaftler die Begriffe „Theorie“ und „Modell“ verwenden, um die wissenschaftlichen Informationen und Ideen, mit denen sie sich beschäftigen, zu konzeptualisieren. Die Einschätzung der Bedeutung eines neuen theoretischen Ansatzes in der Wissenschaft erfolgt zunächst weitgehend anhand der konzeptionellen Struktur des neuen Ansatzes, später spielt jedoch die Vorhersagekraft eine immer wichtigere Rolle. Es wird vorgeschlagen, dass Ergebnisse wie die in dieser Studie möglicherweise dazu verwendet werden könnten, neue theoretische Ansätze in der Wissenschaft bereits zum Zeitpunkt ihrer Konzeption kritisch zu bewerten.;-;-;-;https://link.springer.com/article/10.1007/BF02017099 0628552a341eb90b81d2cd6d282692c3;de;;;6.4.;;;Ist größer für die Umweltforschung unbedingt besser? Bei der Umstrukturierung von Umweltforschungsorganisationen verschwinden in der Regel kleinere Standorte und es werden größere Standorte geschaffen. Diese Entscheidungen basieren auf dem wirtschaftlichen Prinzip „Economies of Scale“, wonach die durchschnittlichen Kosten jeder produzierten Einheit mit steigender Produktion sinken. Wir zeigen, dass dieses Prinzip für die wissenschaftliche Leistung von Umweltforschungsinstituten nicht gilt, da die Produktivität pro Wissenschaftler mit zunehmender Größe eines Forschungsstandortes abnimmt. Die Ergebnisse lassen sich am besten mit dem Prinzip „Diseconomies of Scale“ erklären, wonach starke soziale Faktoren die Produktivität größerer Gruppen begrenzen. Diese Erkenntnisse sollten bei der Umstrukturierung umweltwissenschaftlicher Organisationen berücksichtigt werden, um ihre Qualität zu maximieren.;-;-;-;https://link.springer.com/article/10.1007/s11192-007-2017-0 e06700713de95288abe1f7752050d294;de;;;6.4.;;;Forschungs-Hotspots und Trends in der Schwarmintelligenz: Von 2000 bis 2015 Schwarmintelligenz (SI) ist das kollektive Verhalten dezentraler, selbstorganisierter Systeme, natürlich oder künstlich. Dieser Beitrag sollte einen bibliometrischen Ansatz zur quantitativen Bewertung aktueller Forschungsschwerpunkte und Trends zur Schwarmintelligenz unter Verwendung der einschlägigen Literatur in der Datenbank des Science Citation Index (SCI) von 2000 bis 2015 untersuchen. Artikel zu Schwarmintelligenz konzentrierten sich auf die Analyse wissenschaftlicher Outputs, Verteilung von Ländern, Institutionen, Zeitschriften, Themenkategorien und Forschungsleistungen von Einzelpersonen. Darüber hinaus wurden innovative Methoden wie Keyword-Co-Citation-Analyse, semantisches Clustering und Keyword Frequent Burst Detection angewendet, um einen dynamischen Blick auf die Entwicklung von Schwarmintelligenzforschungs-Hotspots und -Trends aus verschiedenen Perspektiven zu ermöglichen, die als potenzieller Leitfaden für zukünftige Forschungen dienen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-41000-5_3 dac1691f66cbd6ce7fee68417ce8570a;de;;;6.4.;;;Forschungs- und Entwicklungspotenzial der polnischen Industrie Der Beitrag stellt die Methodik der Untersuchung der Forschungsintensität sowie die Ergebnisse empirischer Untersuchungen der polnischen Industrie vor. Das Ergebnis der Analyse ist die Einteilung der Branchen nach ihrer Forschungsintensität. Der Autor weist auch darauf hin, dass diese Art der Analyse für die Planung der Entwicklung der Industrie verwendet werden kann.;-;-;-;https://link.springer.com/article/10.1007/BF02016290 7ea193e5bda7617ceffb552b8c2b0f35;de;;;6.4.;;;Kommentare zu „Indikatoren für die Auswirkungen von F&E auf die Wirtschaft“ Diese Kommentare behaupten, dass die Beziehungen zwischen F&E-Ausgaben und Produktivitätswachstum weitaus komplexer sind, als es gewöhnlich angenommen wird. Die FuE-Ausgaben umfassen mehrere sehr unterschiedliche Komponenten, und nur ein relativ kleiner Prozentsatz der Gesamtausgaben besteht aus Ausgaben für die Grundlagenforschung. Es ist nicht zu erwarten, dass zwischen den Ausgaben für FuE und dem beobachteten Wachstum der wirtschaftlichen Produktivität im Zeitverlauf oder zwischen den Ländern ein sehr enger Zusammenhang besteht.;-;-;-;https://link.springer.com/article/10.1007/BF02095081 883ad2227885c00cee1b7bd030360ec3;de;;;6.4.;;;Rankings der wirtschaftswissenschaftlichen Fakultäten in der Bundesrepublik Deutschland Der erste Teil des Beitrags gibt einen kurzen Überblick über Studien zur Forschungsproduktivität in wirtschaftswissenschaftlichen Fachbereichen in der Bundesrepublik Deutschland, die vor allem in der zweiten Hälfte der 1980er Jahre veröffentlicht wurden. Im zweiten Teil werden die Ergebnisse einer aktuellen Studie zu Rankings wirtschaftswissenschaftlicher Fakultäten an Hochschulen in der BRD vorgestellt. Das Papier behauptet, dass Rankingstudien eine Vielzahl von Leistungsindikatoren (quantitativ und qualitativ) umfassen und immer den Inhalt und den Kontext der Forschungsproduktivität berücksichtigen sollten.;-;-;-;https://link.springer.com/article/10.1007/BF02020700 d0912c2f0ce9e9cff781dfd74548561e;de;;;6.4.;;;Eine kybernetische Theorie der physikalisch-wissenschaftlichen Berufe: Die Ursachen der periodischen Normal- und Revolutionswissenschaft zwischen 1000 und 1870 n. Chr. Die sich ändernden Tätigkeitsebenen in einem naturwissenschaftlichen Beruf werden als Netz von Beziehungen zwischen verschiedenen Karrierestufen modelliert. Diese kybernetische Theorie sagt voraus, dass die Dominanz der Eliten 300-Jahres-Zyklen mit scharfen Wechseln durchmacht, während die Herausforderung der embryonalen Eliten in 100-Jahres-Zyklen schwankt. Diese Ergebnisse scheinen durch einen Überblick über die Chemiegeschichte bestätigt: Die Geburtenrate herausragender Chemiker oszilliert in 300-Jahres-Zyklen und weniger Chemiker in 100-Jahres-Zyklen, beide mit dem vom Modell vorgegebenen Wellenprofil. Diese Schwankungen scheinen zu entsprechen;-;-;-;https://link.springer.com/article/10.1007/BF02279365 eb568f0df774dd25435c5bc8de3db8b5;de;;;6.4.;;;Schwarzafrika im Science Citation Index Laut einer quantitativen Analyse der im SCI indizierten Veröffentlichungen der schwarzafrikanischen Länder zwischen 1992 und 1998 scheint Nigeria in dieser Zeit führend in der wissenschaftlichen Produktion auf dem schwarzen Kontinent zu sein (der Begriff „Schwarzafrika“ bezeichnet alle afrikanischen Länder ohne Südafrika, Maghrebi und Ägypten). Eine Analyse, die nur die Zahl der Publikationen berücksichtigt, sagt jedoch nicht unbedingt viel aus, weder über die Dynamik der jeweiligen Wissenschaftsgemeinschaft noch über die Repräsentativität der Produktion des Landes bezogen auf die Gesamtbevölkerung. Daher wird die Anzahl der Veröffentlichungen pro Land mit der jeweiligen Gesamtbevölkerung verglichen. Nach dieser Methode erweist sich Kenia als führend in der Produktion von wissenschaftlichen Publikationen und mehrere andere Länder erhalten höhere Ränge. Darüber hinaus sollte jede Bewertung der wissenschaftlichen Produktion in diesem Teil der Welt auch die Besonderheiten dieser Länder berücksichtigen, z. die Schwierigkeiten bei der Veröffentlichung und die Existenz einer großen Zahl unveröffentlichter Texte.;-;-;-;https://link.springer.com/article/10.1007/BF02766292 899a17678cd92fe33805d683573738ef;de;;;6.4.;;;Autorenmuster in der Wissenschaft von Meeressäugern, 1985–1993 Studien zur Autorenschaft in Disziplinen wie Physik und Wirtschaftswissenschaften zeigen, dass im Laufe der Zeit die Zahl der Autoren pro Aufsatz zugenommen hat, was auf einen Trend zu mehr Zusammenarbeit hindeutet. In dieser Studie wurde eine Suche in der Datenbank Aquatic Sciences and Fisheries Abstracts durchgeführt, um wissenschaftliche Arbeiten zu Meeressäugern zu identifizieren, die von 1985 bis 1993 veröffentlicht wurden. Es gab schwache, aber statistisch signifikante Trends bei der Zunahme der Zahl der Autoren pro Aufsatz sowie der Zahl der von Autoren verschiedener Institutionen verfassten Aufsätze mit mehreren Autoren im Laufe der Zeit. Mögliche Gründe für diese Ergebnisse sind die zunehmende Spezialisierung der Forschenden, die Kooperationen erfordert, der bessere Zugang zu elektronischen Kommunikationsmitteln und ein stärkerer Wettbewerb um Forschungsmittel. Zu den Störfaktoren in dieser Analyse gehören die Möglichkeit, dass verschiedene Zeitschriften unterschiedliche Publikationsmuster aufweisen und regionale vs. nationale/internationale Zeitschriftenunterschiede.;-;-;-;https://link.springer.com/article/10.1007/BF02457432 881021ea09d66286e26154e2a2b394f9;de;;;6.4.;;;Quantitative Untersuchung von Faktoren, die die Auswahl und Präsentation von wissenschaftlichem Material für die breite Öffentlichkeit beeinflussen Das in Zeitungen veröffentlichte wissenschaftsbezogene Material kann analysiert werden, um einen Einblick in die Vorurteile und Techniken zu geben, die bei der Weitergabe von Wissen aus der Wissenschaftsgemeinschaft an die breite Öffentlichkeit beteiligt sind. Ein Teil solcher Studien kann quantitativ durchgeführt werden. Drei solcher quantitativer Ansätze werden hier veranschaulicht: (1) Messung des Wissenschaftsraums, (2) Ableitung von Lesbarkeitsindizes, (3) Inhaltsanalyse.;-;-;-;https://link.springer.com/article/10.1007/BF02018149 6cb0c7479e7548bd9c5c242fd03b0f45;de;;;6.4.;;;Ein Rahmen für die Bewertung und Belohnung der Forschungsproduktivität eines Wissenschaftlers Es gibt einen Wettbewerb um die weltweite Führungsrolle in Wissenschaft und Technologie. Neue Wege zur Motivation von Wissenschaftlern scheinen ebenso wichtig zu sein, um Ergebnisse anzufechten, wie neue Geldquellen. Ein Rahmen, der durch Kreuztabellen der Schwierigkeit der Frage und der Allgemeinheit der Antworten gebildet wird, sollte helfen, den Beitrag eines Forschers zu identifizieren. Eine auf diesem Rahmen basierende Belohnungsbeziehung soll dazu beitragen, dass Wissenschaftler an den schwierigsten Forschungsproblemen arbeiten, eine Notwendigkeit für ein qualitativ hochwertiges Forschungsprogramm.;-;-;-;https://link.springer.com/article/10.1007/BF02020139 5d12f24ab76a438227ca5972651bd80e;de;;;6.4.;;;Unterschiede in der Forschungsorientierung, die sich in der Vergabe der Stipendien widerspiegeln Denn die Wissenschaftlerinnen und Wissenschaftler in den Sozialwissenschaftlichen Forschungsräten sind menschlich und ihre eigene Forschungsorientierung wird ihre Einstellung zu Antragstellern und Projekten beeinflussen. Aber ihre Haltung wird durch andere Faktoren verstärkt oder entgegengewirkt. Sie können sich ihrer Voreingenommenheit bewusst sein und versuchen, diese auszugleichen, entweder weil sie wirklich fair sein wollen oder weil sie Angst haben, in den Augen der anderen Ratsmitglieder voreingenommen zu erscheinen. Und dann können andere persönliche Faktoren ihre Entscheidung beeinflussen: die Freundschaft zu den Bewerbern, ihr Wunsch, einem ehemaligen Ratsmitglied die einst von ihm erhaltenen Stipendien zurückzuzahlen oder das Streben nach einem eigenen persönlichen Forschungsimperium. Jeder dieser Faktoren wird die Gewährung von Zuschüssen in besonderer Weise beeinflussen. Der neopositivistische Soziologe im schwedischen Forschungsrat für Sozialwissenschaften wurde 1973 von einem radikaleren Soziologen abgelöst, und wir haben diese Gelegenheit genutzt, um zu sehen, ob es möglich ist, die Auswirkungen der veränderten Forschungsorientierung zu untersuchen, obwohl andere persönliche Faktoren die Förderung beeinflussen werden Zuweisung. Wir erarbeiteten alternative Hypothesensysteme, die auf a) Forschungsorientierung und b) persönlichem Forschungsimperium aufbauen. Unsere Methode war in diesem speziellen Fall sinnvoll und sollte unter ähnlichen Bedingungen anwendbar sein.;-;-;-;https://link.springer.com/article/10.1007/BF02016967 d87f0a06f474e0820e06c943da069d36;de;;;6.4.;;;Abwanderung chinesischer Eliten in die USA: eine Untersuchung von 100 nationalen Universitäten der Vereinigten Staaten In dieser Forschung durch die vollständige Untersuchung von 100 amerikanischen nationalen Universitäten. Eine Liste von 3.776 chinesisch-amerikanischen Fakultäten wird gesammelt. Die Analyse erfolgt nach fünf Aspekten, darunter Regionalstatistiken, Institutionenstatistiken, Geschlechterstatistiken, Stellenstatistiken und Disziplinstatistiken. New York, Kalifornien und Pennsylvania haben die meisten chinesisch-amerikanischen Wissenschaftler, wobei die drei besten Universitäten die Ohio State University-Columbus, die Emory University und die Texas A&M University sind. Die Zahl der männlichen Fakultäten ist viel größer als die der weiblichen, wenn das Verhältnis etwa 7:3 beträgt. Für die Stellenstatistik beträgt das Verhältnis von Professor, Associate Professor und Assistant Professor 2,7:3:4,3. Biologie, Medizin und Informatik sind die drei Disziplinen mit den meisten chinesisch-amerikanischen Fakultäten.;-;-;-;https://link.springer.com/article/10.1007/s11192-013-1024-6 f11b5a60e4dbfebf347dac1f9449e4b4;de;;;6.4.;;;Die Validität der Erstbewertungen von Manuskripten durch Redakteure: eine Fallstudie von In diesem Beitrag wird untersucht, inwieweit die Bewertungen der eingereichten Manuskripte durch die Redaktionen – also interne Bewertungen, die vor der externen Begutachtung durchgeführt wurden – valide sind. Um diese Frage zu beantworten, nutzten wir Daten zum Manuskript-Review-Prozess der Zeitschrift;-;-;-;https://link.springer.com/article/10.1007/s11192-010-0215-7 c37b8b94708cbbb279ced7b2f99c4f33;de;;;6.4.;;;Binnenmigration von Wissenschaftlern in Russland und den USA: der Fall der Physiker Wenn Wissenschaftler den Arbeitsplatz wechseln, bringen sie die Erfahrungen, das stillschweigende Wissen und die sozialen Bindungen, die sie an ihrem vorherigen Arbeitsplatz erworben haben, an ihren neuen Arbeitsplatz ein. Bei der Diskussion des Wissenstransfers zwischen Wissenschaftsorganisationen oder zwischen Regionen ist nicht nur der Grad der Mobilität wichtig, sondern auch die Topologie eines Mobilitätsnetzwerks. Diese Studie präsentiert einen Vergleich der Struktur von internen Migrationsnetzwerken für russische und amerikanische Physiker, insbesondere für Wissenschaftler im Bereich der angewandten Physik. Der Vergleich führte zu einer Reihe von Hypothesen, wie die Eigenschaften des Netzwerks mit der wissenschaftlichen Gesamtproduktivität des Systems verbunden sind.;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2478-8 4c6122ee331626faadaa9a961f1ef84a;de;;;6.4.;;;Einflussgeographien: eine Zitationsnetzwerkanalyse von Dieses Papier bietet eine Zitationsnetzwerkanalyse der Publikationen der Zeitschrift Higher Education von 1972 bis einschließlich 2014. Dies repräsentiert fast die gesamte Geschichte der Zeitschrift. Es analysiert die am häufigsten veröffentlichten Autoren und die am häufigsten zitierten Artikel sowie die am häufigsten zitierten Autoren. Diese Daten beinhalten die höchste Anzahl an Publikationen sowohl nach Institution als auch nach Herkunftsland. 2176 Artikel wurden dem Web of Science™ als Quelle für Primärdaten entnommen. Für diese Artikel wurden 68.009 Referenzen gefunden. Die Analyse erfolgte mit dem Online-Analysetool Web of Science™ und Excel;-;-;-;https://link.springer.com/article/10.1007/s11192-016-2228-3 083659a0d4e6270fce9ace9fc897afc7;de;;;6.4.;;;Geschlechterunterschiede bei der Vergütung in der akademischen Medizin: die Ergebnisse aus vier neurologischen Fachgebieten innerhalb des Gesundheitssystems der University of California Diese Studie zeigt das Fortbestehen der geschlechtsspezifischen Ungleichheit in Bezug auf das Gehalt in vier neurologischen Fachrichtungen im größten öffentlichen Gesundheitssystem der westlichen Vereinigten Staaten ohne die Voreingenommenheit der Selbstauskunft. Wir haben die Gehaltsinformationen von Ärzten aus der öffentlich verfügbaren UC-Bezahlungssystemdatenbank extrahiert und Scopus (;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1266-y 86a6f57384dbc3db813770fcb74081e8;de;;;6.4.;;;Zwei-Phasen-Edge-Ausreißer-Erkennungsmethode für die Entdeckung von Technologiechancen Dieser Artikel stellt eine Methode vor, um potenzielle Innovationschancen zu identifizieren, die sich aus der Konvergenz verschiedener Technologiebereiche ergeben, basierend auf dem Vorhandensein von Edge-Ausreißern in einem Patentzitierungsnetzwerk. Edge-Ausreißer werden durch die Bewertung ihrer Zentralität erkannt, Patentpaare, die durch Edge-Ausreißer verbunden sind, werden dann auf technologische Verwandtschaft und vergangene Beteiligung an der technologischen Konvergenz analysiert. Die Paare mit dem höchsten Potenzial für zukünftige Konvergenz werden schließlich ausgewählt und ihre Schlüsselwörter kombiniert, um neue Innovationsrichtungen vorzuschlagen. Wir veranschaulichen unsere Methode an einem Datensatz von US-Patenten im Bereich der digitalen Information und Sicherheit.;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2472-1 590d227b9960ef451538a822d5a9f185;de;;;6.4.;;;Fragmentiertes Publizieren: eine groß angelegte Studie der Gesundheitswissenschaften Fragmentierte oder mehrfache Veröffentlichungen gelten allgemein als negativ, da Autoren ihre Artikelanzahl durch Doppelpublikationen und Salami-Publikationen erhöhen können. Es gibt jedoch gültige und vertretbare Argumente dafür, dass eine einzelne Forschungsstudie mehrere Publikationen hervorbringt. Die vorhandene Literatur bestätigt die Existenz fragmentierter Publikationen, das Ausmaß des Phänomens wird jedoch in Frage gestellt. Die vorliegende Studie ist eine groß angelegte Analyse innerhalb der Gesundheitswissenschaften von mehr als 50.000 Studien und den daraus resultierenden Publikationen. Die Daten ermöglichen es uns, Unterschiede zwischen Teildisziplinen sowie im Zeitverlauf zu analysieren. Die Ergebnisse zeigen, dass es sich bei der Mehrzahl der fragmentierten Publikationen um Zeitschriftenartikel handelt. Diese Studie zeigt auch, dass das Ausmaß des fragmentierten Publizierens an Teildisziplinen gebunden ist. Wenn wir die Teildisziplinen vergleichen, findet man sowohl eine Zunahme als auch eine Abnahme fragmentierter Veröffentlichungen, da die Entwicklung an Teildisziplinen gebunden ist. Die Auswirkungen werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03109-9 615ce4693876858359256f04b6f0c865;de;;;6.4.;;;Verlässlichkeitsbasierter Zitierungs-Impact-Faktor und die Manipulation des Impact-Faktors Gemäß der von KUO & RUPE vorgeschlagenen Definition des zuverlässigkeitsbasierten Citation Impact Factor (R-Impact Factor) und dem kumulativen Zitationsaltersverteilungsmodell wird in dieser Arbeit ein mathematischer Ausdruck der Beziehung zwischen R-Impact Factor und Impact Factor erstellt. Durch Simulation der Änderungsprozesse des R-Impact-Faktors und des Impact-Faktors im Manipulationsprozess des Impact-Faktors zeigt sich, dass der Manipulationseffekt in einigen Fällen durch den R-Impact-Faktor teilweise korrigiert werden kann. Basierend auf der Journal Citation Report Datenbank wurden Impact Factors von 4 normalen Journalen und 4 manipulierten Journalen erhoben. Für die Jahre 2000 bis 2007 wurden die R-Impact-Faktoren und Selbstzitate der Zeitschriften der letzten beiden Jahre berechnet und verschiedene durch die Manipulation beeinflusste Merkmale analysiert. Wir stellen fest, dass der R-Impact-Faktor bei Zeitschriften mit relativ kurzen zitierten Halbwertszeiten fairer ist als der Impact-Faktor. Abschließend werden einige Fragen zur Verwendung des R-Impact-Faktors als Maß für die Bewertung wissenschaftlicher Zeitschriften diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s11192-009-0083-1 e9bba3d1c82d85158e15734d233e146e;de;;;6.4.;;;Der öffentliche Wert der Nanotechnologie? Wissenschafts- und Innovationspolitik (SIP) wird typischerweise mit öffentlichen Werten begründet, während SIP-Programmbewertungen typischerweise auf wirtschaftliche Begriffe beschränkt sind, die diese Werte nur unvollkommen berücksichtigen. Der Untersuchung öffentlicher Werte durch Public Value Mapping (PVM) fehlen allgemein anerkannte Methoden zur systematischen Identifizierung von Wertstrukturen innerhalb des SIP und seiner Prozesse der öffentlichen Politik, insbesondere wenn es mehrere Interessengruppen gibt. Dieses Papier fördert die Untersuchung öffentlicher Werte in SIP unter Verwendung der Politik der Wissenschaft und Technik im Nanobereich (NSE), indem es zeigt, dass die quantitative Analyse von Wertaussagen eine glaubwürdige und robuste Grundlage für die Politikanalyse bieten kann. Wir verwenden die Inhaltsanalyse von über 1.000 Dokumenten mit über 100.000 Seiten von wichtigen Mitwirkenden zum NSE-Politikdiskurs, um eine breite Palette von Aussagen zum öffentlichen Wert zu identifizieren und zu analysieren. Datenanalyse- und Reduktionsmethoden zeigen eine multifaktorielle Struktur öffentlicher Werte, die von einer Reihe von Akteuren in einem forschungspolitischen Netzwerk der NSE konsequent zitiert wird.;-;-;-;https://link.springer.com/article/10.1007/s11192-010-0237-1 af948f9e0e71bdc9fa0cd55dd034c3ba;de;;;6.4.;;;Die globale Geographie der wissenschaftlichen Sichtbarkeit: ein Dekonzentrationsprozess (1999–2011) In diesem Beitrag soll untersucht werden, ob sich die zwischen 1999 und 2008 in der Geographie der wissenschaftlichen Produktion beobachtete territoriale Umverteilung in eine Umverteilung der Geographie der Zitationen und damit der wissenschaftlichen Sichtbarkeit niederschlägt. Können Publikationen von ehemals marginalen Standorten die Forschenden an „zentralen Standorten“ beeinflussen oder sind ihre Wirkungen meist „provinziell“? Da die Verteilung der Zitationen extrem asymmetrisch ist, kann es durchaus sein, dass die geografische Dekonzentration der Produktionsaktivitäten nicht zur geografischen Dekonzentration der Zitationen geführt hat, sondern dazu beigetragen hat, zunehmend asymmetrische Informationsflüsse zugunsten von „ zentralen“ Städten und Ländern. In diesem Artikel soll überprüft werden, ob dies der Fall ist, indem die geographische Verteilung der eingegangenen Zitationen anhand einer Methode zur Lokalisierung der im Web of Science indizierten Publikationen nach städtischen Gebieten analysiert wird. Die Ergebnisse zeigen eine zunehmende Konvergenz zwischen der Geographie der wissenschaftlichen Produktion und der Geographie wissenschaftlicher Zitate. Die Zahl der Zitationen, die von den 30 führenden Verlagsländern und -städten der Welt eingegangen sind, nähert sich tendenziell dem globalen Durchschnitt an. Während Singapur, China, Indien und der Iran im Jahr 2000 noch unter einem Sichtbarkeitsdefizit litten, hat sich ihr Niveau bis 2007 deutlich verbessert. Darüber hinaus ist in fast allen Ländern der Welt eine Abnahme der Diskrepanz zwischen der wissenschaftlichen Sichtbarkeit von Städten zu beobachten, mit Ausnahme von drei: Schweden, Ägypten und Dänemark. Abschließend zeigen unsere Ergebnisse, dass die Lücke zwischen dem Zitationsanteil und dem Publikationsanteil über alle Disziplinen hinweg kleiner geworden ist. Eine erhebliche Asymmetrie zugunsten der englischsprachigen Länder ist in den Geistes- und Sozialwissenschaften in der Verteilung der Zitate erhalten geblieben (aber sie nimmt ab).;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2463-2 eed58a8990fcac3a86c6a122797bcab7;de;;;6.4.;;;Eine Intelligenzkonstante der wissenschaftlichen Arbeit Es wird ein Anfälligkeitsparameter namens „Intelligenzkonstante“ vorgeschlagen, mit dem die Komplexität der wissenschaftlichen Forschung in den verschiedenen Epochen der Geschichte beurteilt werden kann. Im wissenschaftlichen Sinne misst die Intelligenzkonstante die schöpferische Energie, die zum Erreichen eines bedeutenden wissenschaftlichen Ergebnisses aufgewendet wird. Es wird gezeigt, dass die plötzliche Änderung der Intelligenzkonstante eine wissenschaftliche Revolution signalisiert und daher könnte das Gesetz der Intelligenzkonstanten eine besondere Methode zur Vorhersage zukünftiger wissenschaftlicher Revolutionen bieten.;-;-;-;https://link.springer.com/article/10.1007/BF02020109 d2354e4452ba240fca0e06d78043aee3;de;;;6.4.;;;Faire Aufteilung der Anerkennung von Arbeiten von mehreren Autoren und ihrer Anwendung bei der Änderung von Mit Ausnahme der alphabetisch geordneten Autorschaftsbeiträge werden die Zitate von Mehrfachautorenbeiträgen den Autoren anhand ihrer Beiträge zum Beitrag zugeordnet. Bei Arbeiten ohne Klärung des Beitragsanteils wird eine Funktion der Autorennummer und des Rangs dargestellt, um den Anteil der Credits und die zugeordneten Zitate jedes Autors richtig zu bestimmen. Unser Schema für die Zuweisung von Zitaten liegt zwischen der gleichen fraktionierten Zählung und derjenigen, die die Umkehrung des Autorenrangs verwendet. Es hat einen Parameter, um die Kreditverteilung zwischen den verschiedenen Autoren anzupassen. Die zugewiesenen Zitate können entweder allein verwendet werden, um die eigene Leistung in einer Arbeit anzuzeigen, oder können in der Modifikation von . verwendet werden;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0571-y fdd6700c0b952f2d867d222fcb5ee0d1;de;;;6.4.;;;Die Rolle chinesisch-amerikanischer Wissenschaftler in der chinesisch-amerikanischen wissenschaftlichen Zusammenarbeit: eine Studie zur Nanotechnologie In diesem Papier verwenden wir bibliometrische Methoden und soziale Netzwerkanalysen, um das Muster der chinesisch-amerikanischen wissenschaftlichen Zusammenarbeit auf individueller Ebene in der Nanotechnologie zu analysieren. Die Ergebnisse zeigen, dass chinesisch-amerikanische Wissenschaftler eine wichtige Rolle in der wissenschaftlichen Zusammenarbeit zwischen China und den USA spielen. Wir stellen fest, dass die Zusammenarbeit zwischen China und den USA in der Nanotechnologie hauptsächlich zwischen chinesischen und chinesisch-amerikanischen Wissenschaftlern stattfindet. Im Koautorenschaftsnetzwerk neigen chinesisch-amerikanische Wissenschaftler zu einer höheren Betweenness-Zentralität. Darüber hinaus scheint die Reihe von Maßnahmen der chinesischen Regierung zur Rekrutierung von Überseeexperten viel zur wissenschaftlichen Zusammenarbeit zwischen China und den USA beizutragen.;-;-;-;https://link.springer.com/article/10.1007/s11192-012-0693-x c937f9b1151146b64ceff777c1dccc89;de;;;6.4.;;;Ein Vergleich der wissenschaftlichen Leistung der USA und der Europäischen Union an der Wende zum 21. In dieser Arbeit wird wissenschaftliche Leistung mit der Wirkung identifiziert, die Zeitschriftenartikel durch die erhaltenen Zitate haben. In 15 Disziplinen sowie in allen Wissenschaften insgesamt ist der EU-Anteil an den Gesamtpublikationen höher als der der USA. Sobald jedoch die Zitierungen dieser Publikationen berücksichtigt werden, kehrt sich das Bild völlig um. Erstens ist der EU-Anteil an den Gesamtzitierungen immer noch in nur sieben Bereichen größer als der der USA. Zweitens ist die durchschnittliche Zitationsrate in den USA in jedem der 22 untersuchten Bereiche höher als in der EU. Drittens vergleicht dieser Beitrag die Publikationsanteile der USA und der EU bei jedem Perzentil der weltweiten Zitationsverteilung in jedem Bereich, da Standardindikatoren – wie normalisierte mittlere Zitationsquoten – keine Angaben dazu machen, was in verschiedenen Teilen der Zitationsverteilung geschieht . Es zeigt sich, dass in sieben Bereichen die anfängliche Kluft zwischen den USA und der EU größer wird, wenn wir uns den häufiger zitierten Artikeln nähern, während die USA in den verbleibenden 15 Bereichen – mit Ausnahme der Agrarwissenschaften – die EU immer übertreffen, wenn es darauf ankommt, nämlich am oberen Ende der Zitationsverteilungen. Schließlich wird für alle Wissenschaften insgesamt der US-Publikationsanteil für die Top 50 % der am häufigsten zitierten Artikel größer als der der EU. Die verwendeten Daten beziehen sich auf 3,6 Millionen Artikel, die 1998–2002 veröffentlicht wurden, und die mehr als 47 Millionen Zitierungen, die sie in den Jahren 1998–2007 erhielten.;-;-;-;https://link.springer.com/article/10.1007/s11192-010-0223-7 a0cea2ec57cae583a94265a3d8abd00b;de;;;6.4.;;;Navigationsbasierte Kandidatenerweiterung und vortrainierte Sprachmodelle für Zitationsempfehlungen Zitationsempfehlungssysteme für die wissenschaftliche Literatur, die Autoren helfen, zu zitierende Arbeiten zu finden, haben das Potenzial, Entdeckungen zu beschleunigen und neue Wege für die wissenschaftliche Erkundung aufzudecken. Wir behandeln diese Aufgabe als Ranking-Problem, das wir mit einem zweistufigen Ansatz angehen: Kandidatengenerierung gefolgt von Reranking. In diesem Rahmen passen wir eine bewährte Kombination auf der Grundlage des Abrufs von Wörtern und anschließender Neubewertung mit einem BERT-Modell an den wissenschaftlichen Bereich an. Wir zeigen experimentell die Auswirkungen der Domänenanpassung, sowohl im Hinblick auf das Vortraining auf domäneninterne Daten als auch auf die Nutzung des domäneninternen Vokabulars. Darüber hinaus führen wir eine neuartige navigationsbasierte Strategie zur Dokumentenerweiterung ein, um die in unsere neuronalen Modelle eingespeisten Kandidatendokumente anzureichern. Auf drei Benchmark-Datensätzen erreichen unsere Methoden den Stand der Technik in der Zitierempfehlungsaufgabe.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03718-9 b08039ec029b532e1e9b1062887b1ea7;de;;;6.4.;;;Sammeln von Daten und Erstellen von Datenbanken Während Daten zu Lernergebnissen für die Überwachung der Verbesserung dieser Lernergebnisse unerlässlich sind, sind andere Daten für die Interpretation der Lernergebnisdaten wichtig. Dazu gehören zum Beispiel der Hintergrund und die Interessen der Schüler, die Erwartungen der Schüler und der Eltern, die Wahrnehmung und Zufriedenheit, das Schulklima, die Unterrichtspraxis und die Interaktion mit den Schülern sowie die Ziele und Leistungen der Schüler. In diesem Kapitel wird ein Input-Prozess-Ergebnis-Modell verwendet, um 14 verschiedene Datentypen zu klassifizieren. Die Relevanz dieser verschiedenen Datentypen wird in Bezug auf jeden der in Kap.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63539-8_4 0c90d2e0daa848bc8d6fac41b29a86d0;de;;;6.4.;;;Ein Maß für das Durchhaltevermögen: Wird die Persistenz aufkommender Konzepte stärker von der technischen Domäne oder dem Umfang beeinflusst? Diese Studie entwickelt einen vierteiligen Indikator für die technische Emergenz. Dabei konzentriert es sich auf eine bestimmte Klasse von emergenten Konzepten – solche, die die Fähigkeit zeigen, einen emergenten Status über mehrere Zeiträume hinweg wiederholt aufrechtzuerhalten. Die Autoren bezeichnen diese Eigenschaft als Durchhaltevermögen und argumentieren, dass diejenigen Konzepte, die diese Fähigkeit erhalten, größere Aufmerksamkeit verdienen. Die von uns betrachtete Fallstudie besteht aus 15 Teildatensätzen innerhalb des farbstoffsensibilisierten Solarzellenrahmens. In dieser Studie betrachten die Autoren den Einfluss der technischen Domäne und des Maßstabs auf das Verhalten von persistent emergenten Konzepten und testen, welcher davon einen größeren Einfluss hat.;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2342-x 9f83c7f36d479c2aec47609554a02d68;de;;;6.4.;;;Internationalisierung von begutachteten und nicht begutachteten Buchpublikationen in den Sozial- und Geisteswissenschaften In diesem Artikel werden Schwerpunkte der Publikationsorte von Monographien, Sammelbänden und Buchkapiteln verwendet, um die Internationalisierung der sozial- und geisteswissenschaftlichen Forschung (SSH) an den Universitäten in Flandern (Belgien) darzustellen. Unsere Ergebnisse deuten darauf hin, dass die Distanz zwischen begutachteter und nicht begutachteter SSH-Buchliteratur in Bezug auf die Publikationsorte zunimmt. Während begutachtete Bücher zunehmend im Ausland und in englischer Sprache veröffentlicht werden, bleibt die nicht begutachtete Buchliteratur fest im Inland und wird in niederländischer Sprache veröffentlicht. Diese Divergenz gilt eher für die Sozialwissenschaften als für die Geisteswissenschaften. Für die Rechtswissenschaften haben wir ein Muster nach dem Vorbild der Sozialwissenschaften gefunden. Wir diskutieren diese Ergebnisse im Hinblick auf die beiden Hauptleserschaften der SSH-Publikationen: einerseits die internationale Wissenschaft und andererseits eine überwiegend inländische Intelligenz.;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1267-x 995d533c3cb2ca2244df7a7f5a0b7fa6;de;;;6.4.;;;F&E-Dynamik und wissenschaftliche Durchbrüche bei der Entwicklung von HIV/AIDS-Medikamenten: der Fall von Integrase-Inhibitoren Transformationen und Anwendungen wissenschaftlicher Erkenntnisse in neue Technologien sind meist komplexe interaktive Prozesse. Ist es möglich, allein anhand von bibliographischen Informationen strukturelle Veränderungen und bedeutende Ereignisse innerhalb dieser Prozesse zu erkennen, die auf bahnbrechende Entdeckungen hinweisen könnten? In dieser empirischen Studie konzentrieren wir uns auf F&E-Prozesse, die zu HIV/AIDS-Medikamenten namens Integrase-Inhibitoren führen. Wo sich wissenschaftlicher Fortschritt und Entdeckungen in Forschungsarbeiten widerspiegeln, stehen Patente für Erfindungen und technologische Errungenschaften. Unsere zeitliche Analyse charakteristischer Ereignisse in diesem F&E-Bereich, die Trends innerhalb beider bibliografischer Informationsquellen verfolgt, wird von drei bibliometrischen Indikatoren angetrieben: (1) Beiträge von „Brückenforschern“, die auch Erfinder sind, (2) „Schlüsselpapiere“, die Fachexperten betreffen auf dem Gebiet gelten als Meilensteine ​​im Forschungsprozess und (3) die multidisziplinäre Wirkung dieser Arbeiten. Die wichtigsten Ergebnisse deuten darauf hin, dass eine Kombination aus Schlüsselpapieren, Brückenforschern und multidisziplinären Auswirkungen dazu beitragen könnte, potenzielle bahnbrechende Entwicklungen im Bereich der „Ladungsart“ zu verfolgen.;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1330-7 3cfbe9ed184056b452e14475afe25fa2;de;;;6.4.;;;Freiwillige Offenlegung des Unternehmens In diesem Kapitel wird die Literatur zur freiwilligen Offenlegung von Unternehmen vorgestellt und diskutiert. Sie achtet auf Kosten und Nutzen der Selbstanzeige. Der Diskurs betrachtet auch die führende Rolle, die Corporate Governance-Strukturen bei der Gestaltung des freiwilligen Informationsumfelds von Unternehmen spielen. Diese Diskussion konzentriert sich auf die Literatur über Unternehmensvorstände, Unternehmensmerkmale und Eigentumsstrukturen, die den größten Einfluss auf die freiwillige Offenlegung von Unternehmen haben. Darüber hinaus erscheint es bis heute immer relevanter, die Kanäle zu untersuchen, die Unternehmen zur freiwilligen Verbreitung von Informationen nutzen, wie Telefonkonferenzen und Managementprognosen, sowie bestimmte spezifische Arten von Offenlegungen, beispielsweise in Bezug auf geistiges Kapital. Schließlich schließt das Kapitel mit einer Analyse der Herausforderungen und Chancen der freiwilligen Offenlegung, wobei versucht wird, die Anzahl der Wege für die zukünftige Forschung zu verfolgen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-42299-8_3 13b54599a6bc87d97a857d27ff8f92bf;de;;;6.4.;;;Korrelation zwischen dem Journal Impact Factor und drei anderen Zeitschriftenzitationsindizes Um den Korrelationsgrad zwischen den Zitationsindizes von Zeitschriften zu bestimmen, die die durchschnittliche Anzahl der Zitationen pro Artikel widerspiegeln, wurden die neuesten Zeitschriftenbewertungen von den Websites heruntergeladen, die vier Zeitschriftenzitationsindizes veröffentlichen: die des Institute of Scientific Information;-;-;-;https://link.springer.com/article/10.1007/s11192-010-0262-0 68b55b8e45548c7ca63e152f9c999b5d;de;;;6.4.;;;Die internationale Zusammenarbeit in der Psychologie nimmt zu Der Prozentsatz der Veröffentlichungen mit Koautoren in Abteilungen aus verschiedenen Ländern in 12 großen psychologischen Zeitschriften ist erheblich gestiegen. Die Ergebnisse belegen eine bemerkenswerte Internationalisierung der psychologischen Forschung, die Mitte der 1970er Jahre begann und Anfang der 1990er Jahre an Geschwindigkeit zunahm. Dieses Wachstum erfolgt gegenüber einer konstanten Anzahl von Artikeln mit Autoren aus demselben Land, es ist nicht auf eine gleichzeitige Zunahme der Zahl der Koautoren pro Artikel zurückzuführen. Daher nimmt die internationale Zusammenarbeit in der Psychologie offensichtlich zu.;-;-;-;https://link.springer.com/article/10.1007/s11192-010-0299-0 70ecff7cc2223e33c344034b07827254;de;;;6.4.;;;Analyse des Zusammenhangs zwischen der Zitationshäufigkeit von Patenten und der Diversität ihrer Rückwärtszitate für japanische Patente Herkömmliche Patentzitierungsanalysen haben sich hauptsächlich auf das Vorhandensein von Zitationsbeziehungen, die Anzahl der vom Gegenstandspatent zitierten Patente und die Anzahl der Zitate des Gegenstandspatents durch andere konzentriert (dh die Anzahl der Rückwärts- und Vorwärtszitate des Gegenstandspatents). ). Die meisten von ihnen haben sich jedoch nicht auf Patentklassifikationen konzentriert. Unter der Annahme, dass ein Patent, das auf einer Vielzahl von technologischen Grundlagen basiert, tendenziell ein wichtiges Patent ist, das häufiger zitiert wird, untersucht und klärt diese Studie den Zusammenhang zwischen der Vielfalt der Klassifikationen, die Rückwärtszitationen zugeordnet werden, und der Anzahl der Vorwärtszitationen für japanische Patente. Die Ergebnisse zeigen deutliche Unterschiede in der Anzahl der Klassifikationen, die Rückwärtszitationen zwischen den häufig zitierten und den weniger häufig zitierten Gruppen zugeordnet werden. Es wird davon ausgegangen, dass die Vielfalt der Rückwärtszitate in den Bewertungskriterien für eine Gruppierung genutzt werden kann, die die häufig zitierten Patente grob identifiziert oder einen Großteil der weniger häufig zitierten Patente eliminiert.;-;-;-;https://link.springer.com/article/10.1007/s11192-011-0612-6 5471950ba86646914a60f101365e2a05;de;;;2.3.;;;Anwendung Gegenmaßnahmen der KI-Technologie im Steuereintreibungsmanagement Begleitet von einer wachsenden Zahl von Steuerzahlern wird auch die Steuererhebung der Steuerzahler immer umfangreicher und komplexer Kosten, Verbesserung der Effizienz der Erhebung und Verwaltung, Verbesserung der Einhaltung der Sozialsteuern, Erleichterung der Beziehung zwischen Steuerzahlern und Zöllnern, Verbesserung der Steuerzahlerzufriedenheit. Förderung der Einführung des neuen Modells „künstliche Intelligenz + Steuerverwaltung“, um die Reform des Steuererhebungs- und -verwaltungssystems zu fördern, die Intelligenz des intelligenten KI-Systems zu verbessern, um die Reform des Steuererhebungs- und -verwaltungssystems zu fördern , den Aufbau eines modernen Steuererhebungs- und -verwaltungssystems zu beschleunigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-74811-1_88 9ad7b7008a37bcd3577dca182605d19d;de;;;6.4.;;;Die Verteilung von N-Gramm N-Gramme sind verallgemeinerte Wörter, die aus N aufeinanderfolgenden Symbolen bestehen, wie sie in einem Text verwendet werden. Dieses Papier bestimmt die Rang-Häufigkeitsverteilung für redundante N-Gramme. Für ganze Texte ist dies das Zipfsche Gesetz (d. h. ein inverses Potenzgesetz). Für N-Gramme zeigen wir jedoch, dass die Rang (r)-Häufigkeitsverteilung;-;-;-;https://link.springer.com/article/10.1023/A%3A1005634925734 50b7a20062bf08b6afbb9e22ec1fd174;de;;;6.4.;;;Einige Merkmale der kolumbianischen Forschungsbevölkerung (1983–1994) Wir stellen einige Merkmale vor, die die Mobilität und Interaktion von Forschern in einem bestimmten W&T-Umfeld charakterisieren. Die interessierende Variable ist die Anzahl der zur Förderung eingereichten Forschungsanträge. Das Modell wird auf den Fall Kolumbien angewendet und die folgenden Ergebnisse werden gezeigt: a) eine Flussmatrix, die die Interaktionen zwischen Forschern und COLCIENCIAS (nationale W&T-Förderagentur) als Funktion der Zeit charakterisiert. Einige Eigenschaften der Matrix werden ermittelt und eine Wahrscheinlichkeit für einen Wiedereinstieg eines Forschers, der zuvor einen Antrag eingereicht hat, als Funktion der Zeit berechnet. Es zeigt sich, dass diese Wahrscheinlichkeit zumindest für die nächsten 7 Jahre nach dem ersten Erscheinen des Forschers annähernd zeitunabhängig ist, b) Interaktionsmuster zwischen Forschern/Institutionen und COLCIENCIAS, gesehen durch die Anzahl der eingereichten Vorschläge. Die Interaktion nimmt die bei solchen Verteilungen bekannte Form an: eine kleine Gruppe von Akteuren (Forscher/Institutionen) ist für den größten Teil der Interaktion verantwortlich, c) es wird ein zeitliches Muster für das mittlere Forscheralter erstellt und festgestellt, dass durch Am Ende des beobachteten Zeitraums beginnen die Forscher in einem Alter zu interagieren, das deutlich größer ist als das zu Beginn beobachtete.;-;-;-;https://link.springer.com/article/10.1023/A%3A1005684303869 80235c95ac7783e4f78ab917dba2c950;de;;;6.4.;;;Ist die Zeit abgelaufen für das Flesch-Maß der Leseerleichterung? Das Flesch Reading Ease-Maß wird häufig verwendet, um die Schwierigkeit von Texten in verschiedenen Disziplinen, einschließlich der Scientometrics, zu messen. In diesem Schreiben/Papier wird argumentiert, dass die Maßnahme nun veraltet, unangemessen verwendet und unzuverlässig ist.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-1920-7 8dc0b324354caa8addc0a72ba1b4300f;de;;;6.4.;;;Das Phänomen der All-Elemente-Sleeping-Schönheiten in der wissenschaftlichen Literatur Das Phänomen der All-Elemente-Sleeping-Schönheiten in der Wissenschaft wird durch vier Sonderfälle aufgedeckt. Die „schlafenden Schönheiten“ stechen sich die Finger an den „Spindeln“, damit sie einschlafen und dann von ihren „Fürsten“ geweckt werden. Die Autoren spekulieren, dass das Phänomen in wissenschaftlicher Literatur mit hoher Qualität auftreten könnte.;-;-;-;https://link.springer.com/article/10.1007/s11192-012-0643-7 26a6cc7f3764cdc78c118fe872ef7f67;de;;;6.4.;;;Vergessen und Altern wissenschaftlicher Publikationen In diesem Beitrag werde ich argumentieren, dass sich der Alterungsprozess in wissenschaftlichen Publikationen einerseits und der Prozess des Veraltens und Vergessens, dem alle möglichen Phänomene, Menschen und Ereignisse ausgesetzt sind, mit gleicher Geschwindigkeit entwickeln. Während in der Literatur zu diesem Thema behauptet wird, dass die Alterung der wissenschaftlichen Literatur exponentiell ist, wird gezeigt, dass der Zerfall ab dem '4 Vergessen von Personen und Ereignissen gemessen an der Häufigkeit von Kalenderjahren in großen Textkorpora. Die empirischen Grundlagen sind SCI-Daten wie präsentiert von;-;-;-;https://link.springer.com/article/10.1023/A%3A1005613725039 cea91753c1b26b1fe90b9db99d6a404b;de;;;6.4.;;;Impact-Faktor: Unvollkommen, aber noch nicht ersetzbar Eine aktuelle Kritik an der Verwendung von Journal Impact Factors (IF) durch Vanclay stellte Ungenauigkeiten und Missbrauch von IF fest. Die von ihm vorgeschlagenen substanziellen Alternativen bieten jedoch keine klare Verbesserung gegenüber IF als Einzelmaßstab für den wissenschaftlichen Einfluss einer Zeitschrift, so dass IF noch nicht ersetzbar ist.;-;-;-;https://link.springer.com/article/10.1007/s11192-012-0863-x c4be6ae00347b213df284b08bfabf547;de;;;6.4.;;;The Bias of Sighted Reviewers in Research Proposal Evaluation: A Comparative Analysis of Blind and Open Review in Korea Dieser Artikel vergleicht empirisch die wichtigsten Faktoren, die blinde und sehende Gutachter bei der Auswahl von Forschungsanträgen, die in einem wissenschaftlich kleinen Land gefördert werden sollen, beeinflussen. Fishers Z-Test zeigt, dass die Bewerbermerkmale (Rang des Studiengangs, Berufsalter des Bewerbers und akademische Anerkennung des Bewerbers) die wesentlichen Faktoren sind, die zu den signifikant unterschiedlichen Bewertungswerten zwischen blinden und sehenden Gutachtern führen. Dies bedeutet, dass die offene Bewertung von Forschungsanträgen offensichtlich voreingenommen ist. Politische Implikationen der Ergebnisse und zukünftige Forschungsrichtungen werden diskutiert.;-;-;-;https://link.springer.com/article/10.1023/A%3A1005636503358 95b9e649873f006cfdf96bdaab6f79bd;de;;;6.4.;;;Partnerempfehlung In diesem Kapitel stellen wir einen neuartigen Ansatz zur Messung und Kombination verschiedener Kriterien zur Bewertung der Partnerwichtigkeit in wissenschaftlichen Kooperationsnetzwerken vor. Der vorgestellte Ansatz ist kostensensibel, kennt zeitliche und kontextbasierte Partnerautoritäten und berücksichtigt strukturelle Informationen in Bezug auf strukturelle Löcher. Die Anwendbarkeit des vorgeschlagenen Ansatzes und die Auswirkungen der Parameterauswahl werden ausführlich anhand von realen Daten aus dem Forschungsprogramm der Europäischen Union untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22735-1_4 9bf242a7bd0c61e750a3cd53450a3a24;de;;;6.4.;;;Schätzungen von Die Jensen-Ungleichung spielt eine entscheidende Rolle, um Ungleichungen für Divergenzen zwischen Wahrscheinlichkeitsverteilungen zu erhalten. In diesem Beitrag stellen wir eine neue Funktion vor, die auf der;-;-;-;https://link.springer.com/article/10.1007/s40840-017-0526-4 064e66fa2322afc2bbfe273d392c905d;de;;;6.4.;;;Aufbau eines globalen Leistungsindikators zur Bewertung akademischer Aktivitäten mit Fuzzy-Kennzahlen Ziel dieses Hinweises ist es, einen globalen Leistungsindex bereitzustellen, der es ermöglicht, die Leistung jedes Fakultätsmitglieds zu bewerten und der in der Lage ist, die mehrdimensionale Natur der akademischen Tätigkeit in Bezug auf Forschung, Lehre und andere Aktivitäten zu berücksichtigen, die Wissenschaftler ausüben sollten/könnten . Um auch den Fall zu modellieren, in dem es synergetische und redundante Verbindungen zwischen den verschiedenen Bereichen der akademischen Tätigkeit geben könnte, schlagen wir vor, Fuzzy-Maße und das Choquet-Integral als Aggregator der verschiedenen Komponenten zu verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35467-0_23 3cea5603ad444fea33b2e1a2bcbc0ba7;de;;;6.4.;;;Beeinflusst die Alphabetisierung maßgeblich die akademische Laufbahn? Es gibt erhebliche Belege dafür, dass Akademiker mit Nachnamensinitialen, die früh im Alphabet platziert sind, Vorteile bei Veröffentlichungen, Zitationen und anderen akademischen Ergebnissen haben, wenn sie in akademischen Bereichen arbeiten, die Autorennamen alphabetisch ordnen. Wir analysieren die Verteilung der Anfangsbuchstaben der Nachnamen der ordentlichen Professoren in neun Wissenschaftsbereichen. Den erwarteten Effekt der Alphabetisierung auf die akademische Laufbahn können wir nicht feststellen. Die Akademiker, deren Nachnamensinitialen früh im Alphabet stehen, sind in alphabetischen Wissenschaftsbereichen nicht häufiger als in nicht-alphabetischen Wissenschaftsbereichen. Die Akademiker in den Spitzenabteilungen haben nicht häufiger Nachnamensinitialen, die im Alphabet zu früh stehen, im Vergleich zu den Akademikern in den niedrigeren Abteilungen.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-2058-3 ae1c28ae032194e320e3f9871dd2bf1d;de;;;6.4.;;;Journal of Radioanalytical and Nuclear Chemistry, 2005–2009: eine zitationsbasierte Bibliographie und Wirkungsanalyse mit Statistik vom Hirsch-Typ Alle im Journal of Radioanalytical and Nuclear Chemistry (JRNC) im Zeitraum 2005–2009 veröffentlichten Artikel (Quelldatensatz) und alle diese Artikel zitierenden und in anderen Zeitschriften veröffentlichten Artikel (Zieldatensatz) wurden zusammengestellt. Eine szientometrische Analyse der Datensätze wurde unter Verwendung von Hirsch-Statistiken durchgeführt. Eine umfassende Bibliographie der zitierten Arbeiten wird vorgestellt.;-;-;-;https://link.springer.com/article/10.1007/s10967-010-0571-z 768fb3fb083d8b68233144dafe14cf4d;de;;;6.4.;;;Verwendung gegenseitiger Informationen als Maß für die Ähnlichkeit der Kozitation Die Debatte darüber, welches Ähnlichkeitsmaß in der Kozitationsanalyse verwendet werden kann, dauerte viele Jahre. Das am meisten diskutierte Maß ist der Korrelationskoeffizient von Pearson;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03098-9 a66aa515301923073ebdd0069ad1caeb;de;;;6.4.;;;Die digitale Person – eine neue juristische Person? Zur Rolle des Rechts in einer KI-basierten Gesellschaft Ausgangspunkt ist, dass angesichts der Entwicklung und Anwendung der KI-Technologie das Konzept der „digitalen Person“ als neuer Rechtsträger diskutiert werden muss. Der Zweck besteht nicht nur darin, einen weiteren Begriff einzuführen, der zu den Begriffen der natürlichen und der juristischen Person hinzugefügt wird. Vielmehr soll die Idee einer neuen Rechtspersönlichkeit, der unter Umständen vorläufig eine Rechtsfähigkeit verliehen werden könnte, mit Rechten und Pflichten angestoßen werden. Das Risiko besteht ansonsten in einer entstehenden dysfunktionalen Rechtsgesellschaft, in der es keine juristische Person gibt, die die Rolle des Subjekts übernehmen kann. Auftauchende Themen betreffen beispielsweise die Haftung für selbstfahrende Autos, Preisalgorithmen auf dem Wettbewerbsmarkt und den Datenschutz bei der Profilerstellung von Verbrauchern. Darüber hinaus sind auch bewährte Grundsätze zu Offenheit und Transparenz gefährdet. Dies wird insbesondere im Kontext von maschinellem Lernen und dynamischen Algorithmen deutlich. Insbesondere besteht das Risiko, dass eine passive Gemeinschaft zu rechtlichen Verlusten sowohl für Einzelpersonen als auch für Organisationen führen kann. Ein Risikoszenario wäre, wenn verschiedene Transaktionen, die in digitalen Umgebungen stattfinden, nicht als rechtsgültig anerkannt werden, weil der eingesetzte Intelligent Agent weder als natürliche noch als juristische Person anerkannt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1350-3_4 d6bf7d0bd3fb2cf1fb03ec680607cbf9;de;;;6.4.;;;Experimentelle Forschung in der Politikwissenschaft Experimente sind eine Möglichkeit, die Richtigkeit einer Theorie oder Hypothese unter künstlichen Bedingungen zu überprüfen. Sie sind besonders effektiv bei der Identifizierung von Kausalitäten in einer bestimmten Situation. Experimente sind seit jeher die treibende Kraft der Natur- und Biowissenschaften. Um ein einfaches Beispiel zu nennen, müssen die frühen Menschen Experimente in der Landwirtschaft gemacht haben: Das Pflanzen von Saatgut auf verschiedenen Feldern mit den gleichen klimatischen Bedingungen und die Gabe unterschiedlicher Mengen an Wasser und Dünger hätte zu unterschiedlichen Erträgen geführt. Gerade die Methoden mit den höchsten Erträgen waren die Fortschritte in der Landwirtschaft.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6065-7_4 986de4817a32b01e22a072def54294de;de;;;6.4.;;;Outsourcing von histopathologischen Gewebeuntersuchungen zur Unterstützung klinischer Studien für neuartige Therapeutika: Überlegungen und Perspektiven Gewebehistopathologische Untersuchungen sind von zentraler Bedeutung für die Entdeckung und präklinische Entwicklung neuer Therapeutika und für die medizinische Routineversorgung, aber ihr variabler Einsatz in klinischen Studien stellt eine verpasste Gelegenheit dar, unser Verständnis von Krankheiten und den Auswirkungen verschiedener Therapien auf Krankheiten zu verbessern. Hier diskutieren wir wichtige Überlegungen und schlagen einen fragenbasierten Rahmen für die Implementierung von Gewebehistopathologie-Biomarker-Untersuchungen in klinischen Studien für neue Therapeutika vor.;-;-;-;https://link.springer.com/protocol/10.1007/7653_2014_28 25e8426bd4150aab0305ac8e716af198;de;;;6.4.;;;Der Einfluss moderner Technologie auf die Japanologie Dieses Kapitel untersucht die Auswirkungen von Computer, Internet und Informationstechnologie (IT) auf die Japanstudien in den letzten drei Jahrzehnten. Im Guten wie im Schlechten hat die moderne Technologie die Landschaft der Japanologie in vielerlei Hinsicht bis zur Unkenntlichkeit verändert. Diese Studie bietet einen historischen Überblick über die Verwendung von Textverarbeitung, Computern, Internet und IT-Technologien, um Japan von den 1980er Jahren bis heute zu studieren, und gewichtet die Vor- und Nachteile des Einsatzes moderner Technologie in der Japanologie. Diskutiert wird, ob Technologie die Qualität der Forschung verbessert, Einstellungen und Methodik der Forscher verändert, internationale Zusammenarbeit gefördert und forschungsethische Probleme geschaffen hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6336-8_3 777930841ec7fc8ed15ddd4db076b0b0;de;;;6.4.;;;Identitätsgeschichte Die Ansammlung digitalisierter Daten jeder Person seit ihrer Geburt wird schließlich zu einer Art Big Data. Diese digitalisierten personenbezogenen Daten repräsentieren vollständig jede persönliche Geschichte. Hier,;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2248-2_12 769cc47b73e857a201098fa219cdc423;de;;;6.4.;;;Interoperabilität, Datenermittlung und Zugang: Die e-Infrastrukturen für Geowissenschaften-Ressourcen Die ständig wachsende Notwendigkeit, Wissen aus den unterschiedlichen Disziplinen der Erdsystemwissenschaften zu integrieren, erfordert den Wechsel von datenzentrierten Systemen hin zu serviceorientierten Infrastrukturen. Wichtige internationale Initiativen und Programme definieren eine Standardgrundlage für die Interoperabilität von Geoinformationen, -modellen und -technologien, insbesondere für die Datenermittlung und den Datenzugriff. Wir beschreiben das Design einer E-Infrastruktur für die Geowissenschaften aus Sicht des Daten-, Dienste- und Verteilungsmodells. Dieses Design wird im Siberian Earth System Science Cluster (SIB-ESS-C) implementiert, einer E-Infrastruktur, die die Erzeugung und Verteilung von Produkten und Informationen über Zentralsibirien zusammen mit fortschrittlichen Analysewerkzeugen für die Geowissenschaften unterstützt.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-8641-9_13 515c2e3dfec4333b948a3d2774c43f88;de;;;6.4.;;;Unsicherheit im Design von nicht prototypisch konstruierten Systemen Technisches Design muss unter Bedingungen der Unsicherheit durchgeführt werden, von denen einige offensichtlich sind und von denen viele Ingenieure vielleicht nie bewusst in Betracht gezogen haben. Die Unsicherheit bei nicht prototypisch konstruierten Systemen ist größer als bei Systemen, bei denen ein Prototypentest möglich ist. In diesem Papier betrachten wir die Unsicherheiten, mit denen Ingenieure konfrontiert sind, die nicht-prototypische technische Systeme entwerfen, und einige der Methoden, mit denen diese Ingenieure mit Unsicherheiten umgehen, sodass Konstruktionsentscheidungen getroffen werden können. Unsicherheiten werden mit Hilfe von Verhaltensregeln behandelt, um ein Mindestmaß an Sicherheit zu erreichen, und Qualitätskontrollen, um menschliche Fehler zu minimieren. Der Möglichkeit extremer, unvorhersehbarer Ereignisse kann nur dadurch begegnet werden, dass technische Details in ein System aufgenommen werden, die es robuster machen, aber nicht nach Mindeststandards erforderlich sind. Diese zusätzlichen technischen Details können es dem System ermöglichen, Ereignissen standzuhalten, die die Auslegungskapazität bei weitem überschreiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7762-0_25 bd58375358d18829fef041595ac147d6;de;;;6.4.;;;"1971–2017: Evolution, Exploration und Zeittest der Conjoint-Analyse Der Zweck dieser Studie ist eine epistemologische und systematische eingehende Überprüfung der „Conjoint-Analyse“, einer multivariaten Datenanalysetechnik. Darüber hinaus wird versucht, den bisherigen und aktuellen Stand der Forschung sowie deren Beitrag, Relevanz und zukünftige Forschungsagenda im Forschungsbereich darzustellen. Um vielfältige Aspekte der Conjoint-Analyse zu untersuchen, wurden systematische Literaturrecherche (SLR) und Metasynthesetechniken in Kombination zur qualitativen Bewertung verwendet, die eine strenge Überprüfung gewährleistet. Insgesamt wurden 119 Peer-Review-Artikel in die Überprüfung eingeschlossen. Die aktuelle Studie bildete den Auf- und Ausbau der Conjoint-Analyse in der Marktforschung und darüber hinaus in anderen angrenzenden Feldern ab. Durch die kombinierte Anwendung von systematischer Literaturrecherche (SLR) und Metasynthese wurden die verschiedenen kommerziellen und industriellen Anwendungen dieser Technik erforscht. Darüber hinaus wurden der Umsetzungsprozess der Conjoint-Analyse anhand eines Beispiels sowie Grenzen bisheriger und aktueller Studien diskutiert. Basierend auf unserer soliden Suche durch relevante Veröffentlichungen in renommierten Datenbanken und nach unserem besten Wissen ist dies die erste Literaturübersichtsarbeit im letzten Jahrzehnt, die Hintergrund, Entwicklung, Anwendung, Einschränkung und zukünftige Forschungswege der ""Conjoint-Analyse"" -Technik, die andere Studie hat bisher getan.";-;-;-;https://link.springer.com/article/10.1007/s11135-018-0717-6 18a47308ac77a11dd95229a2f64b4363;de;;;6.4.;;;Interaktionen zwischen Wissenschaftlern, Managern und der Öffentlichkeit bei der Definition von Forschungsprioritäten und Managementstrategien für Meeres- und Küstenressourcen: Ist der Marine-Friedenspark des Roten Meeres ein neues Paradigma? Es wurde angenommen, dass insbesondere marine Lebensräume und Ressourcen nahezu unbegrenzt sind und dass, wenn ein Lebensraum degradiert oder eine bestimmte Fischereiressource erschöpft wird, immer ein anderer ersetzt werden kann. Daher beginnen die Prinzipien des Managements natürlicher Ressourcen, menschliche Motivation und Reaktionen als Teil der Meeres- und Küstensysteme einzubeziehen, die untersucht und verwaltet werden. Bewirtschafter von Meeresressourcen stehen vor der Herausforderung, Schutz- und Entwicklungsziele im Kontext der inhärenten Unsicherheit natürlicher Systeme und des politischen und sozialen Drucks menschlicher Systeme in Einklang zu bringen. Ressourcenmanager, Wissenschaftler und die breite Öffentlichkeit scheinen eine Zukunftsvision zu teilen, in der gesellschaftliche und wirtschaftliche Entscheidungen stark an ein immer umfassenderes Verständnis der Umwelt gekoppelt sind. Dies wiederum wird sowohl zu einer sozioökonomischen Gesundheit als auch zu einer Gesundheit des Ökosystems führen. Ein Paradigmenwechsel ist in der Entwicklung der Rolle der Wissenschaftler in der Gesellschaft von einfachen Beobachtern der Natur mit schwachen Verbindungen zu Ressourcenmanagern und der Öffentlichkeit zu Partnern bei der Suche der modernen Gesellschaft nach Antworten auf dringende Fragen im Zusammenhang mit nachhaltiger Nutzung und Erhaltung zu beobachten von natürlichen Ressourcen. Eine von der US-Agentur für internationale Entwicklung unterstützte gemeinsame Anstrengung der US-amerikanischen National Oceanic and Atmospheric Administration, der Regierung Israels und des Haschemitischen Königreichs Jordanien zur Durchführung eines umfassenden Forschungs- und Überwachungsprogramms, das sich auf den neuen Binationalen Marine-Pearce-Park des Roten Meeres richtet, wird a Pionierarbeit zur Anwendung und Erprobung dieses neuen Paradigmas.;-;-;-;https://link.springer.com/article/10.1023/A%3A1005281403279 a431ec034901dc7854fbaaa2d127c3d1;de;;;6.4.;;;Web-Tool zur Selbstbewertung für die Java-Programmierung Fähigkeiten zur Selbsteinschätzung, die es dem Studenten ermöglichen, einen Einblick in seinen eigenen Lernprozess zu erhalten, sind für jeden Hochschulstudenten eine sehr wünschenswerte Fähigkeit. Für transnationale Studierende ist es noch wichtiger, da es ihnen ermöglicht, sich erfolgreich an ihre neue internationale Lernumgebung anzupassen. Die vorliegende Arbeit schlägt ein Online-Tool vor, das Informatikstudenten dabei hilft, ihre Fähigkeiten zur Selbsteinschätzung zu entwickeln, während sie Java-Programmierung lernen. Es besteht aus einem Plug-In für das weit verbreitete Lernmanagementsystem Moodle, um mit Quellcode für die Programmiersprache Java zu arbeiten. Das entwickelte Plug-in ermöglicht es den Schülern, Quelldateien hochzuladen, den Code zu analysieren und den Schülern einen Bericht mit branchenüblichen Tools zu präsentieren. Der Bericht enthält sowohl Fehler, Verbesserungspunkte als auch einen allgemeinen Vergleich mit dem Rest seiner Klassenkameraden aus Sicht der Softwarequalität. Auf diese Weise wird dem Schüler ein Rahmen zur Verfügung gestellt, mit dem die Richtigkeit der von ihm programmierten Lösung verglichen werden kann, bevor sie dem Lehrer zur Bewertung übergeben wird. Auch der Lehrer kann auf all diese Informationen zugreifen, was einen Einblick in den Fortschritt der Klasse sowie einzelner Schüler ermöglicht. Es wird erwartet, dass die Verkürzung der klassischen Schleife der Schülerproblemlösung und des Lehrerfeedbacks das Selbstbewusstsein des Schülers erhöht und seine Gesamtleistung in Programmierkursen verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19713-5_51 50540e7304517455a536c8494efc0822;de;;;6.4.;;;Vertrauen in die Vorurteile anderer: Förderung des geschützten Vertrauens in kollaborative Filter- und Empfehlungssysteme Kollaboratives Filtern wird innerhalb von Organisationen und in Community-Kontexten zum Wissensmanagement und zur Entscheidungsunterstützung sowie zur Erleichterung von Interaktionen zwischen Einzelpersonen verwendet. Dieser Artikel analysiert rhetorische und technische Bemühungen, Vertrauen in die Konstruktionen individueller Meinungen, Reputation und Geschmack zu schaffen, die von diesen Systemen geliefert werden. Diese Initiativen weisen einige wichtige Parallelen zu frühen Bemühungen auf, quantitative Meinungsumfragen zu unterstützen und den Begriff der „öffentlichen Meinung“ zu konstruieren. Der Artikel untersucht spezifische Möglichkeiten, das Vertrauen in diese Systeme zu stärken, wenn auch ein „geschütztes Vertrauen“, bei dem Einzelpersonen aktiv nach Informationen über Systemschwächen suchen und den Ruf der Teilnehmer analysieren.;-;-;-;https://link.springer.com/article/10.1007/s12130-004-1006-3 f743fb8f4610708192ed05a3062b8a6c;de;;;6.4.;;;Verflechtung der Darstellungen: Risiko und digitale Technologien Obwohl sie aus unterschiedlichen Orten und Hintergründen stammen, basieren Risikomanagement und digitale Anwendungen beide auf ausgeklügelten Darstellungstechniken. Dieses Papier verfolgt die mehrfachen Überlappungen und Konvergenzen zwischen diesen beiden Darstellungsströmen. Digitale Technologien spielen zunächst eine Hintergrundrolle, als Werkzeug zur Ausführung der Algorithmen der Risikokalkulation. Dann sind sie bei der Verwaltung von Umfragen und Datenanalysen für die Bereiche nützlich, in denen das Risikomanagement beispielsweise Daten zu Unfällen speichern muss. Mit der Ausweitung der Märkte für Handelsrisiken werden Computer und Netzwerke (oder Informations- und Kommunikationstechnologien, IKT) zu den Werkzeugen der Wahl, um das effiziente Funktionieren von Branchen wie Versicherungen zu ermöglichen. In anderen Branchen wie dem Bankwesen, wo „das Geschäft“ ein riesiges Archipel von Anwendungen ist, die auf Systemen und Netzwerken laufen, ist es offensichtlich, dass diese integrierten Systeme von Natur aus Risiken ausgesetzt sind. Somit werden diese bescheidenen Werkzeuge sowohl zur Infrastruktur der Risikoindustrie als auch zur Quelle neuer, oft unkalkulierbarer Risiken, sie bewegen sich von einem klaren untergeordneten Verhältnis (als Werkzeug) zu dem von;-;-;-;https://link.springer.com/chapter/10.1057/9780230250611_4 fc7b01286f5e876710c8744d1d31ba3d;de;;;6.4.;;;Zunehmendes Datei-Drawer-Problem in den Abstracts natur-, medizin- und sozialwissenschaftlicher Datenbanken Das File-Drawer-Problem ist die Tendenz von Zeitschriften, Studien mit statistisch signifikanten Ergebnissen bevorzugt zu veröffentlichen. Das Problem ist alt und wurde in verschiedenen Bereichen dokumentiert, aber meines Wissens wurde nicht darauf geachtet, wie sich das Problem im Laufe der Zeit quantitativ entwickelt. In den Abstracts verschiedener bedeutender wissenschaftlicher Datenbanken (Science and Social Science Citation Index (1991–2008), CAB Abstracts und Medline (1970s–2008) verschärft sich das Aktenschubladenproblem trotz steigender (1) Gesamtzahl der Veröffentlichungen und (2) der Anteil der Veröffentlichungen, die sowohl das Vorhandensein als auch das Fehlen signifikanter Unterschiede belegen Der Trend wird für bestimmte naturwissenschaftliche Themen wie Biologie, Energie und Umwelt bestätigt, jedoch nicht für Artikel, die mit den Schlüsselwörtern Biodiversität, Chemie abgerufen wurden , Computer, Ingenieurwissenschaften, Genetik, Psychologie und Quantenphysik. Ein sich verschlechterndes Aktenfachproblem kann in verschiedenen medizinischen Bereichen (Infektion, Immunologie, Malaria, Fettleibigkeit, Onkologie und Pharmakologie) festgestellt werden, jedoch nicht bei Arbeiten, die mit Zeichenfolgen wie AIDS/HIV, Epidemiologie, Gesundheit und Neurologie: Eine Zunahme der selektiven Veröffentlichung einiger Ergebnisse gegenüber anderen ist besorgniserregend, da dies zu verstärkten Verzerrungen in Metaanalysen und -analysen führen kann d daher zu einem verzerrten Bild der Beweise für oder gegen eine bestimmte Hypothese. Um eine nachhaltige und verlässliche Produktion von (peer-reviewed) wissenschaftlichen Erkenntnissen zu gewährleisten, ist ein langfristiges Monitoring des Aktenordnerproblems erforderlich.;-;-;-;https://link.springer.com/article/10.1007/s11192-010-0233-5 45547ce0d9bb76ab47b89639dc0b2277;de;;;6.4.;;;Identifizieren von räumlichen Technologieclustern aus Patentierungskonzentrationen unter Verwendung der Heatmap-Kerneldichteschätzung In diesem Beitrag wird eine Methodik zur Identifizierung und Abgrenzung von räumlichen Technologieclustern basierend auf der Patentkonzentration entwickelt. Die Methodik beinhaltet die automatisierte Geokodierung von Patenterfinderadressen, die Anwendung eines Home-Bias-Korrekturfaktors und eine Sensitivitätsanalyse, um die optimalen Parameter des Interpolationsabstands zur Schätzung der Kerndichte und der minimalen Konzentrationsschwelle zur Identifizierung von Clustern zu bestimmen. Die Leistung der Methodik wird mit einer Reihe anderer Methoden zur Clusteridentifikation verglichen und in 18 einzelnen Sektoren validiert, einschließlich ausgereifter breit aufgestellter Hochtechnologiesektoren und aufstrebender Nischensektoren der nachhaltigen Energietechnologie. Die Ergebnisse deuten darauf hin, dass die Leistung der Methodik die von alternativen Methoden zur Clusteridentifikation übertrifft, obwohl die Leistung zwischen verschiedenen Sektoren variiert. Dies zeigt, dass die Methodik Forschern, Praktikern und politischen Entscheidungsträgern ein nützliches Instrument bietet, um Einblicke in die räumliche Verteilung sektoraler Innovationsaktivitäten auf globaler Ebene und auf subnationaler regionaler Ebene zu gewinnen und Veränderungen im Zeitverlauf zu überwachen, wodurch leichter verfügbare globale statistische Daten, die auf nationaler Ebene verfügbar sind.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03751-8 595c7e1e62b986add31a3b411d984d9a;de;;;6.4.;;;Die Dynamik von Kollaborationsnetzwerken und die Geschichte der Allgemeinen Relativitätstheorie, 1925–1970 Dieser Beitrag stellt eine neuartige Methodik zur Definition und Analyse der Dynamik der Kollaborationsnetzwerke von Wissenschaftlern vor, die von Mitte der 1920er bis 1970 an der Allgemeinen Relativitätstheorie arbeiten. In diesen viereinhalb Jahrzehnten hat sich der Status der Theorie radikal gewandelt: von einer Randtheorie vor Mitte der 1950er Jahre zu einer Säule der modernen Physik. Um diese Passage – bekannt als die Renaissance der Allgemeinen Relativitätstheorie – zu untersuchen, haben wir eine Definition von Kollaborationsnetzwerken verwendet, die breiter ist als die aus Online-Datensätzen abrufbaren Koautorenschaftsbeziehungen. Wir haben ein mehrschichtiges Netzwerk aufgebaut, in dem jede Schicht eine andere Art der Zusammenarbeit darstellt. Nachdem wir die Entwicklung bestimmter Parameter des Koautorenschaftsnetzwerks im Laufe der Zeit analysiert hatten, untersuchten wir die Auswirkungen des Hinzufügens einer Art von Kollaborationskante nach dem anderen auf die Werte dieser Parameter und auf die Topologie der Kollaboration Netzwerk im Laufe der Zeit, einschließlich schneller Veränderungen in der dynamischen Entwicklung der größten Komponente. Diese Analyse liefert belastbare quantitative Beweise dafür, dass zwischen den späten 1950er und den frühen 1960er Jahren eine Verschiebung in der Struktur des Relativitätskollaborationsnetzwerks stattfand, als sich eine riesige Komponente zu bilden begann. Wir interpretieren diese Verschiebung als zentrale gesellschaftliche Dynamik des Renaissance-Prozesses und identifizieren dann ihre zentralen Akteure. Unsere Analyse widerlegt gängige Erklärungen des Renaissance-Prozesses. Es zeigt, dass dieses Phänomen weder eine Folge astrophysikalischer Entdeckungen in den 1960er Jahren war, noch ein einfaches Nebenprodukt sozioökonomischer Transformationen in der Physiklandschaft nach dem Zweiten Weltkrieg war.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03327-1 776ae2f241e10d75da88f9b2e7fa8ca7;de;;;6.4.;;;Auswirkungen von Ph.D. Ausbildung: eine umfassende Analyse basierend auf einer nationalen japanischen Doktorandenumfrage Ph.D. Die Ausbildung in akademischen Laboren bietet die Grundlage für die Produktion von Wissensarbeitern, die für die moderne Wissensgesellschaft unverzichtbar sind. Nichtsdestotrotz ist unser Verständnis von Ph.D. Die Ausbildung war aufgrund des begrenzten Zugangs zum Inneren der akademischen Labore unzureichend. Darüber hinaus sind frühe Karrieren von Ph.D. Absolventen sind oft schwer zu verfolgen, was die Bewertung von Ausbildungseffekten erschwert. Um diese Einschränkungen anzugehen, zielt diese Studie darauf ab, die Einstellungen von Ph.D. Ausbildung in akademischen Labors und untersuchen ihre Auswirkungen auf verschiedene Ausbildungsergebnisse anhand einer nationalen Umfrage unter einer Kohorte von 5000 Doktoranden Absolventen japanischer Universitäten. Das Ergebnis legt nahe, dass eine betreuende Teamstruktur sowie die Häufigkeit der Supervision, abhängig von einigen kontextuellen Faktoren, die Promotion bestimmen. Berufsentscheidungen, Leistungen und Zufriedenheit der Absolventen mit der Ausbildung.;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2479-7 acc6357dbfac5ddcef57e218acb7f70f;de;;;6.4.;;;Wissenschaftliche Publikationen von Ingenieuren in Südafrika, 1975–2005 Bei der Produktion wissenschaftlicher Erkenntnisse steht Südafrika, wie die Publikationsergebnisse zeigen, an der Spitze vieler anderer Länder in den Entwicklungsländern und auf dem afrikanischen Kontinent. Diese Studie untersucht zum ersten Mal die Publikationstrends südafrikanischer Ingenieurforscher über einen Zeitraum von 30 Jahren seit 1975. Dieser Artikel untersucht anhand von Daten aus dem ISI Web of Knowledge speziell die Publikationsmuster von Ingenieurforschern in Südafrika.;-;-;-;https://link.springer.com/article/10.1007/s11192-010-0288-3 3902e0aef69abda97b3537f1740972a4;de;;;6.4.;;;Vergleich des Anteils von Dokumenten und Zitationen aus verschiedenen Quartil-Zeitschriften in 25 Forschungsbereichen Die Gesamtzahl der Publikationen bzw. der Anteil der Gesamtpublikationen in einem bestimmten Quartil, meist im ersten Quartil (Q1), wird zunehmend in der leistungsorientierten Förderung der öffentlichen Forschung verwendet. Allerdings ist die Qualitätsbedeutung des Publizierens in Q1-Zeitschriften je nach Forschungsbereich sehr unterschiedlich. Sowohl die erwartete Veröffentlichungswahrscheinlichkeit in Q1-Zeitschriften, angegeben durch die Anzahl der in jedem Quartil veröffentlichten Artikel, als auch die durchschnittliche Zitierung von Q1-Publikationen im Vergleich zu anderen Quartilen ist stark vom Forschungsgebiet abhängig. Diese Studie analysiert den Anteil der in jedem Quartil veröffentlichten Artikel in den 25 größten Forschungsbereichen, die von Science Citation Index-Expanded (Web of Science) indiziert sind, und ihre wichtigsten Zitiermerkmale mit dem Ziel, die Diskussion über zeitschriftenbasierte Bewertungssysteme zu bereichern und insbesondere die Anzahl und /oder der Anteil der Veröffentlichungen im 1. Quartal. Es zeigte sich, dass der durchschnittliche Anteil der im ersten Quartal veröffentlichten Dokumente 45,7 % (38,4 % für Artikel und Rezensionen) betrug und je nach Gebiet zwischen 25,4 und 85,6 % (von 17,1 bis 88,9 % für Artikel und Rezensionen) schwankte. Q1-Publikationen wurden im Durchschnitt 2,07-mal häufiger zitiert als Q2-Publikationen (2,41-mal für Artikel plus Rezensionen), dieses Verhältnis variierte jedoch je nach Bereich zwischen 0,9 und 6,1 (von 1,7- bis 5,4-mal für Artikel plus Rezensionen). Q1 (Gesamtpublikationen oder Artikel plus Rezensionen) erhielt im Durchschnitt 65% der Gesamtzitate des Forschungsgebiets, aber auch dieser Wert variierte je nach Gebiet zwischen 46 und 98%.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03210-z 1fce370c71865b50e359a8812419e4f5;de;;;6.4.;;;Die SOHO-Mission: Ein Überblick Das Solar and Heliospheric Observatory (SOHO) ist eine Weltraummission, die Teil des Solar-Terrestrial Science Program (STSP) ist, das in Zusammenarbeit der Europäischen Weltraumorganisation (ESA) und der National Aeronautics and Space Administration (NASA) entwickelt wurde. Das STSP bildet den ersten „Eckpfeiler“ des langfristigen Programms der ESA, das als „Space Science – Horizon 2000“ bekannt ist. Die wichtigsten wissenschaftlichen Ziele der SOHO-Mission sind a) ein besseres Verständnis der Struktur und Dynamik des Sonneninneren mit Hilfe von Techniken der Helioseismologie und b) bessere Einblicke in die physikalischen Prozesse zu gewinnen, die die Sonnenkorona bilden und erhitzen es und führen zu seiner Beschleunigung in den Sonnenwind. Um diese Ziele zu erreichen, trägt SOHO eine Nutzlast, die aus 12 Sets ergänzender Instrumente besteht. SOHO ist ein dreiachsig stabilisiertes Raumfahrzeug mit einer Gesamtmasse von 1850 kg, 1150 W Leistung werden von den Sonnenkollektoren bereitgestellt. Die Nutzlast wiegt etwa 640 kg und wird im Orbit 450 W verbrauchen. SOHO wird von einem ATLAS II-AS gestartet und in einer Halo-Umlaufbahn um den Lagrange-Punkt Sonne-Erde L1 platziert, wo es kontinuierlich mit einer Genauigkeit von 10 Bogensekunden auf das Sonnenzentrum zeigt. Die Pointing-Stabilität ist besser als 1 Bogensekunde über 15-Minuten-Intervalle. Die SOHO-Nutzlast erzeugt einen kontinuierlichen wissenschaftlichen Datenstrom von 40 kbit/s, der um 160 kbit/s erhöht wird, wenn das Solaroszillations-Bildgebungsinstrument im Hochgeschwindigkeitsmodus betrieben wird. Telemetrie wird vom Deep Space Network (DSN) der NASA empfangen. Planung, Koordination und Betrieb des Raumfahrzeugs und der wissenschaftlichen Nutzlast werden von der Experiment Operations Facility (EOF) im Goddard Space Flight Center (GSFC) der NASA durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-0191-9_1 f631f56861a9a48b92adcfb8b2ace2f2;de;;;6.4.;;;Lehrplanangelegenheiten: Was wir lehren und was die Schüler gewinnen Diese Studie untersuchte und verglich die vorgesehenen Mathematiklehrpläne nach Themenabdeckung, Schwerpunkt, Kohärenz und Lernfortschritt in den Klassen 1 – 12 in China und der Provinz Ontario, Kanada. Die Ergebnisse zeigen, dass die allgemeinen Themen in den beiden Lehrplänen ähnlich sind: Der chinesische Lehrplan deckt 78 von 79 Themen ab, während der Lehrplan von Ontario 76 umfasst mit konstanter Mathematik, dann variabler Mathematik und schließlich Funktionen. Die detaillierte Themengestaltung der beiden Curricula unterscheidet sich jedoch deutlich. Der chinesische Lehrplan umfasst wenige Themen in jedem Jahr, eine kurze Dauer oder Spannweite jedes Themas und einen schnellen Themenverlauf. Im Gegensatz dazu enthält der Lehrplan von Ontario jedes Jahr mehr Themen, eine längere Dauer vieler Themen und ein geringes Tempo des Themenfortschritts in den Klassen 1 – 8 und ein schnelles Tempo des Themenfortschritts in den Klassen 9 – 12. Aufgrund unterschiedlicher Lehrplandesigns in Klassen 1 – 12 kann der vorgesehene Lehrplan die kognitiven Strukturen der Schüler in Mathematik, das Lernverhalten und das Denken, die Lerneffizienz und -leistung sowie die berufliche Entwicklung der Lehrer beeinflussen. Dies erfordert eine verfeinerte und fortgeschrittene Forschung zu der definierten Liste von Themen, der Themenorganisation und den Begriffen des Studienplans, um die Lernmöglichkeiten der Studierenden zu erhöhen.;-;-;-;https://link.springer.com/article/10.1007/s10763-018-9915-x cd35be19800d6cfe1fa7ae8029e7411b;de;;;6.4.;;;Integration der Forschung in eine klinische Praxis Während der Umgang mit Forschungstechniken ein Standardbestandteil der Ausbildung der meisten Ärzte und Laborleiter ist, hat die fortschreitende Migration von Kliniken für Reproduktionsmedizin weg von akademischen Einrichtungen und in private Praxen die Exposition und das Engagement vieler Kliniker und Labortechniker von klinischen oder Studium der Grundlagenforschung. In diesem Kapitel werden die Vorteile der Implementierung von Forschung in Kliniken und Labors für reproduktive Endokrinologie untersucht. Zu den Vorteilen können die Entwicklung einer breiteren klinischen Wissensbasis, verbesserte Denkfähigkeiten und eine verbesserte Karrierezufriedenheit gehören. Die Einbeziehung der Forschung in eine klinische Praxis kann umsichtig und maßvoll im Einklang mit den Zielen und Vorzügen der Praxis erfolgen. Zu den einfachen ersten Instrumenten gehören Journal Clubs und fokussierte Studien sowie die Verwendung eines unschätzbaren Instruments, des Qualitätssicherungsprogramms. Kliniker können Kooperationsbeziehungen mit Grundlagenwissenschaftlern aufbauen, indem sie eine sorgfältige Charakterisierung, Dokumentation und Organisation von Patientenakten (Phänotypisierung) sowie relevante klinische Erkenntnisse bereitstellen. Die Vorteile der Teilnahme an Forschungsstudien stehen allen klinischen Praxen durch sorgfältige Ressourcenbewertung und nachhaltiges Engagement zur Verfügung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-1436-1_52 a12a59c390eb1115eda23a5587ce8570;de;;;6.4.;;;Für eine gerechtere Bewertung Aufbauend auf der bisher größten australischen Sammlung und Analyse empirischer Daten zu mehreren Facetten der Bildung der Aborigines und der Torres Strait Islander an staatlichen Schulen analysiert dieser Artikel kritisch den systemischen Druck auf standardisierte Tests und verbesserte Ergebnisse und plädiert für ein ausgewogeneres Verhältnis der Bewertungsarten durch die Bereitstellung alternativer, inklusiver, partizipativer Ansätze für die Schülerbewertung. Die Beweise für diesen Artikel stammen aus einer umfassenden Evaluierung der Stronger Smarter Learning Communities. Das erste groß angelegte Bild dessen, was bei der Bewertung im Klassenzimmer und in der Pädagogik für indigene Schüler geschieht, wird in dieser Evaluierung dargestellt, doch der Schwerpunkt dieses Artikels liegt weiterhin auf der Frage der Fairness bei der Schülerbewertung. Das vorgetragene Argument fordert „eine gute Balance zwischen formativer und summativer Bewertung“ (OECD, Synergies for Better Learning;-;-;-;https://link.springer.com/article/10.1007/s13384-013-0132-x 0001647b04a7d5211dc8655199d64d0d;de;;;6.4.;;;Genetische Evolution der Ameisenarten im Funktionsrepräsentations-Framework Dieser Artikel untersucht die Machbarkeit der Computersimulation von sich entwickelnden Populationen sozialer Tiere in der Natur, sowohl aus anatomischer als auch aus sozio-ökologischer Sicht, und schließt die Lücke zwischen den Algorithmen für die Evolution digitaler Objekte und der Evolution von Arten in der Natur. Die Hauptbestandteile des Ameisenkörpers werden im Rahmen der Funktionsdarstellung mathematisch beschrieben, die Parameter bestimmen direkt sowohl die visuellen Eigenschaften der Ameise als auch die vom Genom kodierten Körpereigenschaften. Die Umweltdiversifizierung von Ameisenunterarten wird für pilzwachsende Ameisen untersucht, bei denen die Reproduktion einer einzigen Königin mit großen männlichen Nebendrüsen koppelt, während die Paarung mehrerer Königinnen mit einer großen Größe von Nebenhoden korreliert. Unsere Ergebnisse zeigen, dass in einer Umgebung begrenzter Ressourcen beide konkurrierenden Arten der sexuellen Fortpflanzung überleben. Die Häufigkeit, mit der einer der beiden Modi in der Population dominant wird, wird durch den Wert der Mutationswahrscheinlichkeit bestimmt. Das Funktionsrepräsentationsmodell sollte auch bei der Simulation anderer einfacher Tierarten nützlich sein, da die Genomparameter leicht mit Computervisualisierungswerkzeugen in Verbindung gebracht werden können.;-;-;-;https://link.springer.com/chapter/10.1007/11903697_83 cbcaf364c7b051c2b80de02697c125cc;de;;;6.4.;;;International Comparative Studies of Education and Large Scale Change Die Entwicklung internationaler vergleichender Studien zu Bildungsleistungen reicht bis in die frühen 1960er Jahre zurück und wurde durch Entwicklungen in der Methodik der Stichprobenerhebung, der Gruppentestverfahren, der Testentwicklung und der Datenanalyse ermöglicht (;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-3201-3_4 23c7535ceef47fd3ba5499f75fc4223d;de;;;6.4.;;;Über einige Eigenschaften verallgemeinerter symbolischer Modifikatoren und ihre Rolle beim symbolischen approximativen Schließen Linguistische Modifikatoren, von Zadeh im Fuzzy-Logic-Kontext definiert, sind Operatoren, die einen linguistischen Begriff in einen anderen linguistischen Begriff umwandeln. Akdag und al. erweitern linguistische Modifikatoren auf symbolischen mehrwertigen logischen Kontext und nennen sie;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04020-7_21 2d168ffc3a7c480c80333b7056d9d872;de;;;6.4.;;;Serious Games für Ökonomen Dieses Kapitel untersucht die methodischen Fragen der Modellierung menschlichen Verhaltens auf der relativ hohen Abstraktionsebene der Unterschiede zwischen individueller und systemischer Perspektive. In Anlehnung an frühere Literatur wird argumentiert, dass formale Rahmen in den Sozialwissenschaften im Wesentlichen deduktiv sind, da sie als Implikationen gelesen werden können, die aus einer Reihe von Axiomen abgeleitet werden, oder;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-70556-7_13 9adf6620621198a2ea3d4954ca39e850;de;;;6.4.;;;Eine dynamische Netzwerkansicht von Lyons Velo’v Shared Bicycle System Gemeinschaftlich genutzte Fahrradsysteme sind ein Beispiel für öffentliche Verkehrssysteme, die digitale Fußabdrücke aller mit diesem System durchgeführten Bewegungen bereitstellen. Die Vollständigkeit eines solchen Datensatzes ermöglicht ihre Untersuchung unter einem komplexen Systemgesichtspunkt. In diesem Kapitel wird diskutiert, wie Lyons gemeinsames Fahrradsystem namens Velo’v als dynamisches komplexes Netzwerk angesehen werden kann und wie der Einsatz von Community-Erkennungsmethoden dank der Aggregation in Raum und/oder Zeit, die die Communities vorschlagen, interessante Ergebnisse liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-6729-8_13 9951b20002811ade857786b34113a7d7;de;;;6.4.;;;Faktoren, die die interregionale akademische wissenschaftliche Zusammenarbeit in Europa beeinflussen: die Rolle der wirtschaftlichen Distanz Dieser Beitrag bietet einige Einblicke in die wissenschaftliche Zusammenarbeit (SC) auf regionaler Ebene, indem er sich auf zwei Untersuchungsstränge stützt. Die erste umfasst die Untersuchung der räumlichen Muster der universitären SC in der EU-15 (alle Länder, die zwischen 1995 und 2004 der Europäischen Union angehören). Die zweite besteht darin, die aktuelle empirische Analyse zur regionalen Zusammenarbeit von SC zu erweitern, indem die wirtschaftliche Distanz zwischen den Regionen in das Modell zusammen mit anderen Variablen, die von der vorhandenen Literatur vorgeschlagen werden, einbezogen wird. Die Methodik stützt sich auf Ko-Publikationen als Proxy für die akademische Zusammenarbeit, und um die Relevanz der wirtschaftlichen Distanz für die Intensität der Zusammenarbeit zwischen Regionen zu testen, stellen wir eine Gravitationsgleichung auf. Die deskriptiven Ergebnisse zeigen, dass zwischen benachteiligten Regionen und Kernregionen signifikante Unterschiede in der Produktion wissenschaftlicher Arbeiten bestehen. Die Intensität der Zusammenarbeit ist jedoch in beiden Regionen ähnlich. Unsere ökonometrischen Ergebnisse legen nahe, dass Unterschiede bei den wissenschaftlichen Ressourcen (gemessen an F&E-Ausgaben) zwischen den Regionen relevant sind, um akademische wissenschaftliche Kooperationen zu erklären, während die Entfernung im Entwicklungsstand (gemessen am BIP pro Kopf) keine wesentliche Rolle zu spielen scheint. Nichtsdestotrotz liefern andere Variablen in der Analyse, einschließlich geografischer Entfernung, Spezialisierung und kultureller Faktoren, signifikante geschätzte Koeffizienten, und dies steht im Einklang mit der früheren Literatur zu regionalen SC.;-;-;-;https://link.springer.com/article/10.1007/s11192-010-0305-6 0e8b029bb2390e10d347de2f9bf256cf;de;;;6.4.;;;Die evolutionären Muster der Wissensproduktion in Korea Der jüngste Trend des schnellen Wachstums der wissenschaftlichen und technischen Aktivitäten in den ostasiatischen Newly Industrializing Economies (NIEs) führte zu einer Veränderung der Struktur der weltweiten Wissensproduktion. Vor allem in Südkorea sind nicht nur die Zahl der Veröffentlichungen gestiegen, sondern es gibt auch eine spürbare Veränderung in der Zusammensetzung der wissenschaftlichen und ingenieurwissenschaftlichen Aktivitäten. In diesem Beitrag werden die meisten Forschungsarbeiten zur Wissensproduktion in fortgeschrittenen Ländern zusammen mit einer Handvoll Studien zur Wissensproduktion von Nachzüglern aufgeführt. Jüngste Veränderungen in den Mustern der Wissensproduktion in Nachzüglerländern provozieren ein tieferes Verständnis der zugrunde liegenden Mechanismen des fortlaufenden Wandels. Daher untersucht dieser Artikel die Muster der Wissensproduktionsaktivitäten bei Nachzüglern, indem wissenschaftliche und technische Fähigkeiten anhand empirischer Beweise aus Korea analysiert werden. Die Ergebnisse legen nahe, dass sich die Muster der Akkumulation der Wissensproduktion in Korea allmählich von ingenieurwissenschaftlichen zu wissenschaftlichen Aktivitäten entwickelt haben. Aus den Ergebnissen lassen sich wichtige politische Implikationen für die Unterstützung der wissenschaftlichen und ingenieurwissenschaftlichen Forschungsaktivitäten bei den Nachzüglern im Allgemeinen und den NIEs im Besonderen ableiten.;-;-;-;https://link.springer.com/article/10.1007/s11192-012-0780-z d993bd68235c6ffa82937d212fb7e469;de;;;6.4.;;;Zeit, die wichtigen Dinge nicht mehr zu recherchieren? Ab 2010 wird die staatliche Finanzierung der britischen Forschung teilweise auf Metriken basieren. Eine der wichtigsten Kennzahlen werden Zitationen sein, wobei auch das Forschungseinkommen und die Zahl der Doktoranden bewertet werden. Während Zitationsmetriken sinnvoll erscheinen, gibt es eine ernsthafte Frage, welche Themen man recherchiert, welche Methoden verwendet werden und in welcher Weise ein Wechsel zur Verwendung von Zitaten eine Änderung des Forschungsverhaltens bewirkt – insbesondere eine Verschiebung in den langweiligen Mittelweg. Dieser Beitrag untersucht die möglichen Auswirkungen eines solchen Schritts auf Nischenbereiche der IS-Forschung – hier die Forschung an kleinen und mittleren Unternehmen. Die Argumente gelten jedoch für jeden neuen, aufstrebenden oder nicht zum Mainstream gehörenden Forschungsbereich. Die Auswirkungen von Zitationsmetriken auf Publikationskanäle und die Wahl der Forschungsmethode werden bewertet.;-;-;-;https://link.springer.com/article/10.1057/ejis.2008.11 475ab85fcf6bfeb72eb0336444d62728;de;;;6.4.;;;Wie man mit TRIZ Evolution Tree eine Wissensbasis organisiert: Ein Fall über nachhaltige Lebensmittelverpackungen Dieses Papier schlägt ein System der Wissensorganisation vor, das auf TRIZ-abgeleiteten evolutiven Trends basiert. Die Organisation wird durch die Übernahme des Macro-to-Micro-TRIZ-Gesetzes als Auslöser für die Definition von Suchzielen und als Rückgrat zum Aufbau des Wissensbaums betrieben. Dieser Ansatz wurde angewendet, um Tausende von Dokumenten aus der weltweiten Patentdatenbank und Artikel aus internationalen Zeitschriften nach einer High-Level-Klassifikation zu klassifizieren. Das Ziel dieser Arbeit ist es, High-Level-Ranking-Strategien zu finden, die eine Hierarchie von Informationen und eine bessere Organisation ermöglichen, um eine Wissensbasis aufzubauen, die perfekt mit den Forschungsbedingungen während der Problemlösung in der am besten geeigneten Weise in Bezug auf das spezifische Zwecke. Diese Methode wurde auf eine praktische Fallstudie zum Thema Lebensmittelverpackungen während einer Aktivität angewendet, die in Zusammenarbeit mit dem Beratungsunternehmen Warrant Innovation Lab im Rahmen des Programms durchgeführt wurde, das kleinen und mittleren italienischen Unternehmen zum Thema zur Unterstützung von TRIZ -basierte Innovationsaktivitäten. Der Beitrag dieser Arbeit besteht darin, KMU einen neuartigen und intuitiven Ansatz zu bieten, bei dem die Organisation von Wissen für Experten auf diesem Gebiet sofort lesbar und ausgeführt werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-61295-5_18 63a21d281e94da30a4999c04829d8633;de;;;6.4.;;;Integration und Strukturierung für erweitertes Wissensmanagement In der Gesundheits- und Pharmaindustrie können Anstrengungen zur Wissensintegration die Aussichten auf einen kommerziellen Vorteil verbessern. In diesem Beitrag wird die häufig auftretende paradoxe Situation untersucht, die durch Informationsüberflutung, aber Wissensmangel und die Notwendigkeit einer intellektuellen Beteiligung an der Informationsaufnahme gekennzeichnet ist. In innovativen und lernenden Organisationen kann diese Beteiligung nicht vollständig auf entfernte Systeme oder externe Stellen übertragen werden. Die Wissensintegration wird als ein Aspekt des Wissensmanagements dargestellt, der häufig übersehen wird, aber für die Entwicklung organisatorischer Intelligenz wichtig ist. Es werden Prozesse der Wissensaneignung und -strukturierung in Bezug auf Bedeutung und Relevanz untersucht und Möglichkeiten diskutiert, wie integriertes Wissen zu Innovation und Wettbewerbsintelligenz beitragen kann.;-;-;-;https://link.springer.com/article/10.1177/009286150403800212 6c71580b20840179874a16dfb0ea7c25;de;;;6.4.;;;Geocode-Abgleich und Datenschutz Geokodierung ist der Prozess des Abgleichs von Adressen mit geografischen Standorten wie Breiten- und Längengraden oder lokalen Zählgebieten. In vielen Anwendungen sind Adressen der Schlüssel zur Geodatenanalyse und zum Mining. Datenschutz und Vertraulichkeit sind von größter Bedeutung, wenn Daten beispielsweise aus Krebsregistern oder Kriminalitätsdatenbanken geokodiert werden. In jüngster Zeit wurden verschiedene Ansätze zum datenschutzwahrenden Datenabgleich, auch Record Linkage oder Entity Resolution genannt, entwickelt. Die meisten dieser Ansätze haben jedoch die spezifischen Datenschutzprobleme, die mit dem Geocode-Abgleich verbunden sind, nicht berücksichtigt. Dieses Whitepaper bietet eine kurze Einführung in den Datenschutz wahrenden Daten- und Geocode-Abgleich und anhand mehrerer realer Szenarien werden die Probleme im Zusammenhang mit Datenschutz und Vertraulichkeit beim Daten- und Geocode-Abgleich veranschaulicht. Die Herausforderungen bei der praktischen Umsetzung des datenschutzwahrenden Matchings für reale Anwendungen werden aufgezeigt und potenzielle Richtungen für zukünftige Forschungen diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01718-6_2 544425cd026f82e1cae4aede7c3729e4;de;;;6.4.;;;Wie große Erwartungen an Bredgade bei Frue Plads enttäuscht wurden Es wurde erwartet, dass die Forschungsproduktivität aufgrund des BRI steigen würde. In diesem Kapitel wird untersucht, inwieweit diese Erwartung erfüllt wurde. Die Produktivität ist insgesamt nicht gestiegen, ganz im Gegenteil. Nach einem Indikator war er nahezu konstant, nach einem anderen sank er um fünf Prozent. Die offensichtliche Schlussfolgerung ist, dass die BRI nicht die erwartete Wirkung hatte. Diese Schlussfolgerung ist jedoch nicht vollständig gerechtfertigt. Der BRI zeigte Wirkung: Je mehr der BRI umgesetzt wurde, desto mehr Forschung wuchs quantitativ. Mit anderen Worten, hätte es keinen Indikator gegeben, der umgesetzt werden müsste, wäre die Forschungsproduktivität in Dänemark wahrscheinlich noch stärker gesunken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-21325-1_11 4a31ab495253341407805fc60a02b501;de;;;6.4.;;;Auswirkungen der Globalisierung der Lieferkette auf das Qualitätsmanagement und die Unternehmensleistung: Einige Beweise in Shanghai, China In diesem Beitrag werden ein Forschungsmodell und einige Hypothesen in Bezug auf die Auswirkungen der Globalisierung der Lieferkette auf das Qualitätsmanagement und die Unternehmensleistung basierend auf einer umfassenden Literaturrecherche vorgeschlagen. Strukturelle Gleichungsmodellierungstechniken (SEM) werden verwendet, um das konzeptionelle Modell unter Verwendung empirischer Daten zu testen, die von praktizierenden Managern von Unternehmen in Shanghai, China, gesammelt wurden. Die Ergebnisse zeigen, dass das globale Supply Chain Management signifikant mit dem Qualitätsmanagement korreliert und direkt und indirekt die Unternehmensleistung positiv beeinflusst. Die Implikationen der Ergebnisse für Forscher und Praktiker werden weiter diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14616-9_25 3574889b47c6de320099cb032dd87f45;de;;;6.4.;;;Durchführung einer familiären psychosozialen Risikobewertung bei pädiatrischem Krebs mit dem Psychosocial Assessment Tool (PAT): Studienprotokoll für eine clusterrandomisierte vergleichende Wirksamkeitsstudie Krebs im Kindesalter beeinflusst und wird von mehreren Ebenen der sozialen Ökologie beeinflusst, einschließlich sozialer und relationaler Determinanten der Gesundheit (z. B. wirtschaftliche Stabilität, Wohnung, Kinderbetreuung, Zugang zur Gesundheitsversorgung, Kinder- und Familienprobleme). Die Standards der psychosozialen Versorgung bei pädiatrischen Krebserkrankungen von 2015 skizzieren eine optimale psychosoziale Versorgung, die diesen ökologischen Faktoren Rechnung trägt, beginnend mit der Bewertung des Bedarfs an psychosozialer Versorgung, um die medizinischen und psychosozialen Ergebnisse bei allen krebskranken Kindern zu fördern. Um dem ersten Standard der psychosozialen Familienbeurteilung gerecht zu werden, ist das Psychosocial Assessment Tool (PAT) ein validierter Screener, der für eine breite Anwendung bereit ist.;-;-;-;https://link.springer.com/article/10.1186/s13012-020-01023-w 23e82314cb7337bf4662a582042f1b16;de;;;6.4.;;;Messung des objektiven und subjektiven Wohlbefindens: Dimensionen und Datenquellen Wohlbefinden ist ein wichtiger Wert für das Leben der Menschen und könnte als Indikator für den gesellschaftlichen Fortschritt angesehen werden. Forscher haben zwei Hauptansätze für die Gesamtmessung des Wohlbefindens vorgeschlagen, das objektive und das subjektive Wohlbefinden. Beide Ansätze sowie ihre relevanten Dimensionen werden traditionell mit Umfragen erfasst. In den letzten Jahrzehnten wurden neue Datenquellen als Alternative oder Ergänzung zu herkömmlichen Daten vorgeschlagen. Ziel dieses Papiers ist es, den theoretischen Hintergrund des Wohlbefindens darzustellen, indem zwischen objektiven und subjektiven Ansätzen, ihren relevanten Dimensionen, den neuen Datenquellen, die für ihre Messung verwendet werden, und relevanten Studien unterschieden wird. Wir beabsichtigen auch, noch kaum erforschte Dimensionen und Datenquellen zu beleuchten, die potenziell als Schlüssel für die öffentliche Polizei und die soziale Entwicklung beitragen könnten.;-;-;-;https://link.springer.com/article/10.1007/s41060-020-00224-2 3094539bfef0ae10c11dcd8114fc2268;de;;;6.4.;;;Einschätzung der Anfälligkeit für Erdrutsche mithilfe von Objektkartierungseinheiten, Entscheidungsbäumen und Modellen von Support-Vektor-Maschinen in den Drei Schluchten Chinas Aufgrund der besonderen geographischen Lage und der komplexen geologischen Bedingungen leiden die Drei-Schluchten von China unter vielen Erdrutschgefahren, die oft zu tragischen Verlusten von Menschenleben und wirtschaftlichen Verwüstungen führen. Um Opfer und Schäden zu reduzieren, ist eine effektive und genaue Methode zur Beurteilung der Anfälligkeit für Erdrutsche erforderlich. Objektbasierte Data-Mining-Methoden wurden auf eine Fallstudie zur Einschätzung der Erdrutschanfälligkeit in der Stadt Guojiaba der Drei Schluchten angewendet. Das Untersuchungsgebiet wurde in Objektkartierungseinheiten unterteilt, die aus Landsat TM -Bildern mit einer Auflösung von 30 m abgeleitet wurden, wobei ein Segmentierungsalgorithmus mit mehreren Auflösungen auf der Grundlage der Erdrutschfaktoren der technischen Gesteinsgruppe, der Homogenität und des Reservoirwasserstands verwendet wurde. Die Orte von Erdrutschen wurden durch Interpretation von Landsat TM -Bildern und umfangreiche Felduntersuchungen bestimmt. Aus den topografischen und geologischen Karten und Satellitenbildern wurden elf primäre erdrutschbedingte Faktoren extrahiert. Diese Faktoren wurden unter Verwendung von Signifikanztests und Korrelationskoeffizientenanalyse als unabhängige Variablen ausgewählt, einschließlich Neigung, Profilkrümmung, technische Gesteinsgruppe, Hangstruktur, Abstand von Verwerfungen, Landbedeckung, Quastenkappentransformations-Feuchteindex, Reservoirwasserstand, Homogenität und erste zweiten Hauptbestandteil der Bilder. Entscheidungsbaum- und Support Vector Machine (SVM)-Modelle mit den optimalen Parametern wurden trainiert und dann verwendet, um die Anfälligkeit für Erdrutsche abzubilden. Die Analyseergebnisse wurden durch den Vergleich mit bekannten Erdrutschen anhand der Erfolgsraten- und Vorhersageratenkurven und der Klassifikationsgenauigkeit validiert. Das objektbasierte SVM-Modell hat die höchste Korrektheitsrate von 89,36 % und einen Kappa-Koeffizienten von 0,8286 und übertrifft die pixelbasierten SVM-, objektbasierten C5.0- und pixelbasierten SVM-Modelle.;-;-;-;https://link.springer.com/article/10.1007/s12665-013-2863-4 51d6fdf7b35732b07332d2e126bf1e15;de;;;6.4.;;;Protokoll für eine systematische Überprüfung von Selbstmanagement-Interventionen bei älteren Erwachsenen mit Krebs Krebs überwiegt bei Erwachsenen über 65 Jahren. Es ist bekannt, dass Krebsbehandlungen körperliche und psychosoziale Herausforderungen mit sich bringen, die bei älteren Erwachsenen mit Krebs verstärkt werden können.;-;-;-;https://link.springer.com/article/10.1186/s13643-020-01346-1 a140986bd73f51dbdd26346f52518572;de;;;6.4.;;;Institutionelle gemeinsame Ressourcen und translationale Krebsforschung Die Entwicklung und Pflege angemessener gemeinsamer Infrastrukturen gilt als ein wichtiges Ziel akademischer Zentren, die translationale Forschungsprogramme fördern. Unter den Infrastrukturen, die die translationale Forschung begünstigen, sind zentralisierte Einrichtungen erforderlich, die sich durch die gemeinsame, multidisziplinäre Nutzung teurer Laborinstrumente oder durch komplexe Computerhardware und -software und/oder durch hohe fachliche Fähigkeiten auszeichnen, um die Wettbewerbsfähigkeit der institutionellen Wissenschaft zu erhalten oder zu verbessern. Der Erfolg oder Misserfolg eines Programms für gemeinsame Ressourcen hängt auch von der Wahl geeigneter institutioneller Richtlinien ab und erfordert eine wirksame institutionelle Governance in Bezug auf Personalentscheidungen, Existenz und Zusammensetzung von beratenden Ausschüssen, Richtlinien und definierten Mechanismen der Berichterstattung, Budgetierung und finanziellen Unterstützung jedes Ressource. Gemeinsame Ressourcen stellen ein weit verbreitetes Modell zur Unterstützung der Krebsforschung dar. Tatsächlich enthalten Websites einer beeindruckenden Anzahl von Forschungsinstituten und Universitäten in den USA Seiten, die den SR gewidmet sind, die in jedem Zentrum eingerichtet wurden und einen vollständigen Überblick über die Situation geben unmöglich. Ein landesweiter Überblick darüber, wie Krebszentren SR-Programme entwickeln, ist jedoch auf der Website der vom NCI benannten Krebszentren in den USA verfügbar, während in Europa Informationen für einzelne Krebszentren verfügbar sind. Dieser Artikel fasst kurz die institutionellen Richtlinien, die organisatorischen Bedürfnisse, die Merkmale, wissenschaftlichen Ziele und zukünftigen Entwicklungen von SRs zusammen, die für die Entwicklung effektiver translationaler Forschungsprogramme in der Onkologie erforderlich sind.;-;-;-;https://link.springer.com/article/10.1186/1479-5876-7-54 7caf9811b2513ba73b478dbe82a7a94f;de;;;2.3.;;;Überwachung sozialer Ereignisse auf Sina Weibo Die öffentliche Meinung aus sozialen Netzwerken hat sich als wichtige Rolle im alltäglichen Leben erwiesen. Wie sie massive Daten aus sozialen Netzwerken und sozialen Medien extrahieren können, hat viele Forschungsanstrengungen nach sich gezogen. Dieses Papier befasst sich mit mehreren Schlüsselfragen beim Entwurf und der Implementierung eines Ereignisüberwachungssystems basierend auf sozialen Netzwerken. Unser vorgeschlagenes System zielt darauf ab, soziale Ereignisse aus sozialen Netzwerken zu extrahieren und zu minen, und konzentriert sich auf: (1) Sammeln von Daten von Weibo, (2) Extrahieren von Ereignisinformationen wie Zeit und Ort, (3) Modellieren und Anzeigen. Wir beschreiben die Hauptarchitektur und den Verarbeitungsablauf des Systems im Detail.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-47401-3_43 946c689a98ce18100736fbaada37af4c;de;;;6.4.;;;Forschung im Management: Analyse von Publikationen Basierend auf den Publikationsdatensätzen der Web of Science-Datenbank untersuchen wir die Merkmale und Trends von Publikationen in Managementstudien in Südafrika. Die Analyse umfasst den Zeitraum 1966–2015, bestehend aus 1294 Publikationen. Die rassischen und geschlechtlichen Hintergründe der Autorinnen und Autoren werden gesammelt und untersucht. Die Analyse zeigt die Merkmale von Veröffentlichungen über verschiedene historische Perioden hinweg. Es zeigt auch die Besonderheiten der Publikationen in Bezug auf Geschlecht, Rasse, Sektor, Institution, Abteilung und Provinz des Autors auf. Die Wechselbeziehung zwischen Rasse, Geschlecht, Sektor, Institution und Koautorenschaft ist auf diesem Gebiet bemerkenswert. Die Ergebnisse haben Auswirkungen auf die Zukunft der Disziplin in Südafrika.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99657-8_3 4173d7c4efebf24d06c31897fd1abba0;de;;;6.4.;;;Zwei Kulturen technischer Kurse und Diskurse: Computer Aided Design Forscher im Bereich Science and Technology Studies (STS) sind dabei, die von C. P. Snow und Generationen von Designern, Ingenieuren, Forschern, Wissenschaftlern und Lehrern verfestigten konventionellen Grenzen zwischen Mensch-Maschine und Natur-Gesellschaft-Technik aufzubrechen. Am Beispiel von Computer Aided Design (CAD) argumentiere ich, dass wir durch die Kombination des gesellschaftspolitischen Wissens der STS mit technischem Wissen endlich und mit Nachdruck der technischen Bildung ein Ende setzen können. Für diese Argumentation greife ich auf meine Erfahrungen im Unterrichten von CAD an postsekundären Einrichtungen in den Bereichen Design, Ingenieurwesen und Lehrerbildung zurück. Theorien und Praktiken werden beschrieben, um Design- und Technologiepädagogen bei dem Dilemma der Auseinandersetzung mit gesellschaftspolitischem Wissen zu unterstützen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1022389815503 4fb9f2749704bf0087ba278490a19423;de;;;6.4.;;;Mikrobielle Gemeinschaften, die mit menschlicher Zersetzung in Verbindung stehen, und ihre potenzielle Verwendung als postmortale Uhren Die meisten forensischen Untersuchungen, die verwendet werden, um besser zu verstehen, wie das Postmortem-Intervall (PMI) geschätzt werden kann, umfassen die Untersuchung der physikalisch-chemischen Eigenschaften der Zersetzung und der Auswirkungen, die Umweltfaktoren auf den Zersetzungsprozess haben. Die forensische Entomologie nutzt die Lebenszyklen von Arthropoden wie Diptera (Schweißfliegen oder Fleischfliegen) und Coleoptera (Käfer), die auf dem verwesenden Kadaver abgelagert sind, um den PMI zu bestimmen. Forensische Taphonomie, vom griechischen Wort;-;-;-;https://link.springer.com/article/10.1007/s00414-014-1059-0 964c4826c9395418feb1cfc86cc5f508;de;;;6.4.;;;Das Archiv als soziale Welt Geschichtswissenschaftler verfolgen oft eine einsame Ethik und betrachten ihre Arbeit als das Produkt einer einsamen und isolierten Person, die sich in einem staubigen Archiv abmüht. In diesem Artikel bewerten wir die Gültigkeit dieser Ethik, indem wir die tatsächliche Praxis der Archivforschung untersuchen. Anhand halbstrukturierter Interviews mit praktizierenden historischen Soziologen zeigen wir, dass die Ethik des Einsamens weitgehend illusorisch ist und dass das Archiv stattdessen eine robuste soziale Welt ist. Wir identifizieren zwei Kerngruppen sozialer Beziehungen im Archiv – Beziehungen zum Archivar und zur Archivgemeinschaft –, die die Erfahrung des historischen Soziologen im Archiv prägen. Wir zeigen weiter, dass historische Soziologen diese Interaktionen mobilisieren, um konkrete Forschungsprobleme im Archiv zu lösen. Wir argumentieren daher, dass der soziale Charakter des Archivs als methodische Chance für historische Soziologen zu verstehen ist, die es ihnen ermöglicht, ihre Forschung durch die Inspiration kreativer Forschungsstrategien zu maximieren und zu erweitern.;-;-;-;https://link.springer.com/article/10.1007/s11133-020-09462-z 48296485fd8fc65b311ada2fb2e86916;de;;;6.4.;;;Bewertung diagnostischer Innovationen: Auf dem Weg zu einer verantwortungsvollen Technologiebewertung im Gesundheitsbereich Diagnostische Innovation wird zunehmend als institutionelles Zusammenspiel mit vielen heterogenen Akteuren wahrgenommen, bei dem die Anwender proaktiver in die Diagnose eingebunden werden. Dies stellt die traditionellen Praktiken der Health Technology Assessment (HTA) in Frage, die sich auf Wirksamkeit, Sicherheit, Qualität und Kosten konzentrieren. Andere Werte werden bei diagnostischen Innovationen wichtig, darunter soziale und ethische Normen, Erwartungen, Positionen und verteilte Rollen von Stakeholdern. In diesem Kapitel wird die Frage gestellt, welcher Wertesatz, welche Bewertungslogik in solchen neuen Praktiken der HTA für diagnostische Innovationen führen könnte. Es vergrößert die aktuelle Bewertungslogik in HTA. Es stellt verschiedene empirische Fälle vor, die über diagnostische Innovationen berichten, und reflektiert, wie HTA-Strategien, -Politiken und -Interventionen für Praktiker und Anwender diagnostischer Innovationen flexibler und verantwortungsbewusster sein könnten.;-;-;-;https://link.springer.com/chapter/10.1057/978-1-137-54097-3_13 717c80b18583afca849351212452f061;de;;;6.4.;;;Zurück in die Zukunft: Die kommende Systembiologie Die Systembiologie ist ein multidimensionales Unterfangen, das von kulturellen und gesellschaftlichen Faktoren sowie den Anforderungen der wissenschaftlichen Praxis geprägt ist. Dieses Kapitel greift die Ausgangsfragen unserer Studie auf, legt Grundannahmen und konstitutive Bedingungen der Systembiologie offen und bettet unsere Erkenntnisse in einen breiteren wissenschaftlichen und soziokulturellen Kontext ein. Zunächst werden einige Voraussetzungen der zeitgenössischen Wissenschaft im Allgemeinen und der Systembiologie im Besonderen herausgearbeitet und im Hinblick auf unterschiedliche Paradigmen der Biologie sowie deren vergangene und zukünftige Entwicklungen reflektiert, die sich Systembiologen vorstellen. Als nächstes diskutieren wir die epistemischen Implikationen der Praxis der Systembiologie, insbesondere ihre Abhängigkeit von IKT. Vor diesem Hintergrund gehen wir der Frage nach, ob die Systembiologie als Ansatz oder als Disziplin betrachtet werden sollte und bieten eine neue und erfrischende Antwort auf diese anhaltende Kontroverse. Wie die Systembiologie relevante Wissenschaftspolitik von verschiedenen Akteuren auf diesem Gebiet wahrgenommen wird und wie sie die Systembiologie prägt, vervollständigt das Bild kontextualisierter wissenschaftlicher Entwicklung. Unter Bezugnahme auf die öffentliche Wahrnehmung der Systembiologie in Deutschland und Österreich und ihre metaphorischen Einrahmungen in den Medien bietet der letzte Abschnitt einen kurzen und spekulativen Ausblick auf die mögliche Zukunft der Systembiologie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-17106-7_7 3a00c110264e46a3969d8e2e08f54231;de;;;6.4.;;;Verantwortung in der Praxis Verantwortung scheint fast unmöglich geworden zu sein, genau in dem historischen Moment, als wir die Tugend artikulierten und begannen, sie von unseren Institutionen und uns selbst einzufordern. Dieser scheinbare Widerspruch könnte erklären, warum wir uns heute so stark der Verantwortung bewusst sind: Wir wurden getrieben, zu bemerken, was uns entglitten ist. Williams (1994, S. 11);-;-;-;https://link.springer.com/chapter/10.1007/978-1-84628-626-1_3 d26d88e03cb925af55c3872b6e8e9c5c;de;;;6.4.;;;Wissenschaft und Herstellung einer politischen Ordnung Dieses Kapitel zielt darauf ab, die Funktion der Wissenschaft bei der Aufrechterhaltung einer politischen Macht der EU zu hinterfragen, basierend auf gemischten soziologischen Methoden. Der europäische Beitrag zur Internationalen Raumstation ISS liefert dazu einige relevante Antworten. Zunächst werde ich internationale Kooperationsmuster vorstellen, die die Organisation der Wissenschaft an Bord der europäischen Forschungseinrichtung („Columbus“) strukturieren, um den Kontext zu definieren, in dem der europäische Beitrag stattfand, und die Entwicklung seines Raumfahrtprogramms, das einer zunehmenden Zunahme folgte organisatorische Standardisierung von Raumfahrtaktivitäten. Der zweite Abschnitt konzentriert sich genau auf die daraus resultierenden organisatorischen Voraussetzungen für eine politische Stabilität auf der internationalen Raumfahrtbühne, die stark von der bürokratischen Steuerung der Raumfahrt abhängig ist, was auch zu einer Form autoritärer Steuerung wissenschaftlicher Prozesse führt. Dieser zentrale Platz der Wissenschaft in den Bedingungen politischer Stabilität vermeinte sich als axiologische Grundlage für eine legitimierte Weltraumbesetzung, ohne strategische und militärische Logiken zu verlangen. Der letzte Abschnitt beleuchtet dann die wissenschaftlichen Wurzeln politischer Mechanismen wie Nationalismus aus einer kritischen soziologischen Perspektive, in der Wissenschaft und ihre kulturelle Autorität die politische Integration und den Rhythmus der Machtverhältnisse in internationalen Angelegenheiten erleichtern. Im Endeffekt wird es unser Anliegen sein, zu messen, wie heuristisch es wäre, wissenschaftliche Aktivität zu einem Teil der Produktionsverhältnisse zu machen, die in jeder marxistischen Staatstheorie diese strukturiert und ihre Reduktion auf einen verdinglichten Monolithen verhindert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-18852-8_4 87cc352d6fc216a8e6ddf095ea02bf04;de;;;6.4.;;;Nabelschnur-abgeleitetes Wharton-Gelee für regenerative Medizinanwendungen in der orthopädischen Chirurgie: ein systematisches Überprüfungsprotokoll Muskel-Skelett-Verletzungen und -Erkrankungen betreffen Millionen von Menschen. Diese Beschwerden werden in der Regel durch Immobilisierung, Physiotherapie oder Aktivitätsmodifikation behandelt. Die regenerative Medizin hat in den letzten Jahrzehnten ein enormes Wachstum erfahren, insbesondere in der muskuloskeletalen Medizin. Nabelschnur-abgeleitetes Wharton-Gelee ist eine aufregende neue Option für solche Therapien. Wharton-Gelee ist ein Bindegewebe in der Nabelschnur, das größtenteils aus mesenchymalen Stammzellen und extrazellulären Matrixkomponenten besteht, darunter Kollagen, Chondroitinsulfat, Hyaluronsäure und sulfatierte Proteoglykane. Whartons Gelee ist eine vielversprechende und anwendbare biologische Quelle für orthopädische regenerative Anwendungen.;-;-;-;https://link.springer.com/article/10.1186/s13018-020-02067-w c4bbf74a789d943a09ef7239d8a4fc8b;de;;;6.4.;;;Ursprungsmythen in der Bioethik: Quellen, Motive und Vernunft in der Bioethik(en) konstruieren Bioethik, der Begriff steht heute meist für Biomedizinische Ethik, ist ein Feld des medizinisch-anthropologischen Engagements. Während viele Anthropologen und andere Sozialwissenschaftler mit Bioethikern und Medizinern zusammenarbeiten, betrachtet dieser Beitrag Bioethik als Thema der Kulturforschung aus der Perspektive der Kulturbioethik und der interpretativen medizinischen Anthropologie. Die Anwendung nützlicher Erkenntnisse der alten anthropologischen Forschung in der Kulturanthropologie und der Religionsanthropologie und eine interpretative Linse offenbaren ein Feld ohne einen einzigen Ursprung oder eine einheitliche Methodik. Das Papier legt nahe, dass eine wörtliche Bedeutung der gegenwärtigen konzeptionellen Gemeinsamkeit des Begriffs Bioethik angemessen ist: dass sich der Begriff tatsächlich auf eine Vielzahl unterschiedlicher Unternehmen mit unterschiedlichen Ursprüngen und damit Rechtfertigungen bezieht.;-;-;-;https://link.springer.com/article/10.1007/s11013-008-9105-3 dd7f4d75d14d49c5deea87b7320d0292;de;;;6.4.;;;Leistungen und Zahlungen für Forschungsteilnehmer: Erfahrungen und Ansichten aus einem Forschungszentrum an der kenianischen Küste International herrscht allgemeiner Konsens darüber, dass eine ungerechte Verteilung des Forschungsnutzens ausbeuterisch ist und vermieden oder reduziert werden sollte. Was jedoch unter gerechten Vorteilen zu verstehen ist, sowie die genaue Art der Leistungen und die Art ihrer Bereitstellung, können stark bestritten werden. Empirische Studien haben das Potenzial, Standpunkte und Erfahrungen in Debatten und Leitlinien einzubringen, aber es wurden nur wenige durchgeführt. Wir haben eine Studie durchgeführt, um die Entwicklung von Leitlinien zu Leistungen und Zahlungen für Studien des KEMRI-Wellcome Trust-Programms in Kilifi, Kenia, zu unterstützen.;-;-;-;https://link.springer.com/article/10.1186/1472-6939-13-13 a203aa1ccd827b0bcb7dea305b347121;de;;;6.4.;;;Interaktive Regulation der insulinähnlichen Wachstumsfaktorachse des postmenopausalen Wachstumshormons durch Östrogen und Wachstumshormon freisetzendes Peptid-2 Östrogen ist das nächste Sexualsteroid, das die GH-Sekretion während der gesamten menschlichen Lebensspanne bei beiden Geschlechtern aufrechterhält. Es ist jedoch sehr wenig über die spezifischen neuroendokrinen Mechanismen bekannt, durch die Östrogen die GH-Sekretion bei jungen oder alternden Menschen aktiviert und aufrechterhält. Die Identifizierung von Somatostatin im Jahr 1973 als wichtiger negativer Peptidyl-Regulator der GH-Achse und die Entdeckung des GH-Releasing-Hormons (GHRH) im Jahr 1982 als dominanter Feedforward-Agonist der GH-Sekretion lieferten eine erste grundlegende wissenschaftliche Grundlage für die Erforschung der Sexualsteroid-Kontrolle von die GH-IGF-1-Achse. Obwohl GH-freisetzende Peptide (GHRPs) erstmals 1977–1981 erkannt wurden, erweitert die nachfolgende Klonierung von hypothalamopituitären Rezeptoren 1996, die potente Sekretagogenwirkungen von GHRPs und 1999 eines endogenen Liganden für diesen Effektorweg übertrugen, nun den Rahmen für die Untersuchung der Mechanismen von Östrogen -getriebene GH-Sekretion im Alter. Hier überprüfen wir mehrere neuartige und facettenreiche Wechselwirkungen bei postmenopausalen Frauen zwischen Östrogen und GHRP-2. Wir kombinieren diese Beobachtungen zu einem vereinfachten Konstrukt der GH-Achsen-Neuroregulation, das die Somatostatin-, GHRH- und GHRP-Effektorwege sowie GH- und IGF-1-Autofeedback umfasst. Wir schlagen die These vor, dass Östrogen die Schnittstellen zwischen diesen entscheidenden regulatorischen Peptiden bei hyposomatotropen postmenopausalen Individuen kontrolliert.;-;-;-;https://link.springer.com/article/10.1385/ENDO%3A14%3A1%3A045 ce448ee54229c7d658e9d0d22ee4788e;de;;;2.3.;;;Klassifikation von MI-Aufgaben mit mehreren Klassen unter Verwendung logistischer Regression und gemeinsamer räumlicher Muster der Filterbank Wir schlugen eine Klassifikationstechnik von motorischen EEG-Bildsignalen unter Verwendung der logistischen Regression und des Merkmalsextraktionsalgorithmus unter Verwendung des gemeinsamen räumlichen Musters der Filterbank (FBCSP) vor. Hauptthema von FBCSP ist, dass die Signale in 5 Unterbänder zerlegt und dann CSP für jedes Unterband berechnet werden. Dieser Algorithmus ermöglicht auch eine automatisierte Frequenzbandauswahl. Wir haben jeden Subband-CSP-Merkmalsvektor kombiniert und diesen Merkmalsvektor in einen maschinellen Lernalgorithmus eingespeist. In der Arbeit wird die logistische Regression verwendet, um zwischen mehreren Klassen zu klassifizieren. Um diese Methode zu evaluieren, haben wir den hier öffentlich verfügbaren Datensatz verwendet, nämlich den Brain-Computer Interface Competition IV-2a. Aufgrund der hohen Genauigkeit und Kappa, die in der Genauigkeitstabelle gezeigt werden, ist das vorgeschlagene Verfahren vielversprechend.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6648-6_13 292c28564316fb0f77b591a87174280f;de;;;6.4.;;;Quantitative Analyse einer sichtbaren Spitze des Peer-Review-Eisbergs: Buchbesprechungen in der Chemie Buchbesprechungen sind praktisch einzigartig, da sie öffentliche, „sichtbare“ Manifestationen des Peer-Review-Prozesses sind. 200 Rezensionen von 39 Büchern zu chemischen Themen wurden einer statistischen Kontextanalyse unterzogen. Analysiert wurden die Dominanz der Einstellungen, der Konsens unter den Gutachtern, die Korrelation zwischen den Bewertungen der Gutachter und die spätere Zitationsrate des rezensierten Buches.;-;-;-;https://link.springer.com/article/10.1007/BF02025830 df263671664ff1630094efcbea241f02;de;;;6.4.;;;Biografische Artikel in der wissenschaftlichen Literatur: Analyse von im Web of Science indizierten Artikeln Biografische Artikel in wissenschaftlichen Zeitschriften bieten eine Plattform zum Gedenken an herausragende Persönlichkeiten der Wissenschaft. Trotz einer so wichtigen Rolle für die wissenschaftliche Gemeinschaft ist die Forschung zu biografischen Artikeln rar. Um diese Lücke zu schließen, haben wir 190.350 biografische Artikel analysiert, die im Web of Science indiziert sind und von 251.908 Autoren in den Jahren 1945–2014 verfasst wurden. Wir haben die Entwicklung dieses Artikeltyps über den untersuchten Zeitraum und die Forschungsbereiche analysiert, wie Frauen und Männer in der Thematik der Artikel vertreten sind und wer die Autoren sind. Im Laufe der Zeit hat die Zahl der biografischen Artikel zugenommen, mit der höchsten Zahl in den Biowissenschaften und der Biomedizin. Rund 20 % der Artikel wurden über Frauen geschrieben, wobei der höchste Anteil mit 24 % in den Geisteswissenschaften lag. Sowohl männliche als auch weibliche Autoren schreiben häufiger über Männer als über Frauen, eine seit 70 Jahren stabile Situation.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2923-3 b0fb318d0e3fcdf9c03ffb85ea3178e8;de;;;2.3.;;;Bewertung des Engagements: Verwendung von Schülerengagement auf Mikroebene als eine Form der kontinuierlichen Bewertung Schülerbewertung ist ein anspruchsvolles Thema, bei dem noch Methoden entwickelt werden, um aktives Lernen, tieferes Verständnis, Fairness und Angemessenheit in den Lernprozess einzubetten. Als Bewertungsfaktor für Kandidaten trägt das Engagement der Schüler bekanntermaßen zum Erfolg der Schüler bei, obwohl das mangelnde Engagement und der Erfolg der Schüler, insbesondere in Online-Umgebungen, sowohl eine Herausforderung als auch ein anhaltendes Problem darstellen. Das Engagement der Schüler wird normalerweise in einer retrospektiven Datenerhebung gemessen, um zu verstehen, wie sich das Engagement auf das Lernen der Schüler ausgewirkt hat. In Online-Lernumgebungen haben wir jedoch zeitnahen Zugriff auf Daten, vom Ressourcenzugriff bis hin zu Bewertungsaufgaben, wo sie nahtlos erfasst und in Analysen verwendet werden können, um das Verhalten und die Lernmuster der Schüler zu verstehen. Durch die Kombination einer von uns implementierten Messung des studentischen Engagements auf Mikroebene mit dem Ziel, das Engagement zu bewerten, präsentieren wir in diesem Artikel erste Ergebnisse einer Studie, die wir an der Universitat Oberta de Catalunya in Spanien durchgeführt haben und die die Messung des studentischen Engagements als Form vielversprechend zeigt der kontinuierlichen Bewertung. Durch die Messung des Engagements auf Mikroebene haben wir festgestellt, dass wir eine Vielzahl von fehlenden subjektiven Datensätzen sammeln können, um die Daten auf Systemebene zu ergänzen, und es kann auch eine Gelegenheit für die Schüler sein, über ihr eigenes Engagement nachzudenken und eine Methode zur Aufzeichnung ihrer Mikroebene zu haben Zustand. In mehreren Kursen vergaben Lehrer Punkte basierend auf Engagement, was zu einem anhaltenden Engagement der Schüler und einem Strom von umsetzbaren Informationen führte, um zu verstehen, wo Schüler Schwierigkeiten beim Lernen und Überarbeiten von Kursinhalten haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-97807-9_12 a5aeec51c16912c97a2b2e5cfaa36758;de;;;2.3.;;;Erstellen der BISAC-Fachcodes 2018: Prozess und Aktualisierungen Der Fachkodex-Ausschuss der BISG verfolgt einen strukturierten, konsensgesteuerten Prozess, um mehr als 4800 Schlagworte zu aktualisieren und zu pflegen. Die neueste Version fügte 210 Themencodes hinzu, änderte 90 Literale, reaktivierte einen zuvor inaktiven Code und deaktivierte 8 Codes. Die Änderungen betrafen 23 der 54 Hauptthemenbereiche.;-;-;-;https://link.springer.com/article/10.1007/s12109-018-09627-3 106f0f044b9dba9d9f8f9697ecb9af69;de;;;6.4.;;;Zeitschriften-Peer-Review: eine Bar oder eine Brücke? Eine Analyse des Revisionsverlaufs und der Bearbeitungszeit eines Artikels sowie der Auswirkungen auf das Zitieren Journal Peer Review ist das Herzstück der akademischen Qualitätskontrolle. Dieser Artikel untersucht den Peer-Review-Prozess von Zeitschriften und versucht zu untersuchen, wie der Review-Prozess selbst zu Artikeln beitragen kann, die dazu führen, dass sie häufiger zitiert werden und eine größere Anerkennung erzielen. Unsere Arbeit baut auf früheren Beobachtungen und Ansichten in der Literatur zu (a) der Rolle der am Forschungs- und Publikationsprozess beteiligten Akteure auf, die darauf hindeuten, dass Peer-Review dem Forschungsprozess innewohnt, und (b) zu dem Beitrag der Gutachter selbst zu den Inhalt und die vermehrte Zitierweise von Papieren. Anhand von Daten aus dem Zeitschriften-Peer-Review-Prozess einer einzelnen Zeitschrift im Bereich der Sozialwissenschaften (Wirtschaft, Management und Rechnungswesen) untersuchen wir die Auswirkungen von Peer-Reviews auf die bei dieser Zeitschrift eingereichten Arbeiten, einschließlich der Auswirkungen auf das Zitieren, ein neuer Schritt in der Studie des Ergebnisses des Peer-Reviews. Unsere detaillierte Analyse legt entgegen den anfänglichen Annahmen nahe, dass nicht der Zeitaufwand für die Überarbeitung von Beiträgen, sondern die tatsächliche Anzahl der Überarbeitungen zu einer größeren Anerkennung von Beiträgen in Bezug auf die Zitationswirkung führt. Unsere Studie belegt, wenn auch auf den Fall einer einzelnen Zeitschrift beschränkt, dass das Peer-Review-Verfahren eine Form der Wissensproduktion darstellen kann und nicht die einfache Korrektur von Fehlern in eingereichten Beiträgen ist.;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2630-5 11fe4d3b270e9f352b94a7eed82fbd16;de;;;2.3.;;;Erstellung der BISAC-Themen 2016: Prozess und Aktualisierungen Der Fachkodex-Ausschuss von BISG verfolgt einen strukturierten, konsensorientierten Prozess zur Aktualisierung und Pflege von mehr als 4500 Schlagworten. Die neueste Version fügte 93 Themencodes hinzu, änderte 68 Literale, reaktivierte einen zuvor inaktiven Code und deaktivierte 11 Themen. Die Änderungen betrafen 22 der 54 Hauptthemenbereiche.;-;-;-;https://link.springer.com/article/10.1007/s12109-017-9515-6 cf4441e89fa3d6352e9cb1d6b80e716e;de;;;6.4.;;;Sicherheitstechnologien im E-Commerce Eines der wichtigsten Probleme bei der Umwandlung eines traditionellen Unternehmens in ein elektronisches Unternehmen ist das Sicherheitsproblem. Im Vergleich zu traditionellen papiergestützten Transaktionen müssen Informationen über ein öffentliches Internet-Netzwerk in der elektronischen Umgebung übertragen werden. Die Aufzeichnungsmedien des E-Commerce haben sich von Papier- zu Magnetmedien gewandelt. Die Eigenschaften, dass die auf magnetischen Medien aufgezeichneten Informationen leicht kopiert, gelöscht und geändert werden können, und die Offenheit des Internets führen dazu, dass E-Commerce-Informationen leicht durchgesickert, manipuliert, gefälscht und geleugnet werden können. Um E-Commerce zu entwickeln, müssen die Vertraulichkeit, Integrität und Authentifizierung von E-Commerce-Transaktionsdaten sichergestellt werden. Die zur Behandlung dieser Probleme verwendeten Technologien stammen hauptsächlich aus der Kryptographie und umfassen Technologien wie Verschlüsselung, Authentifizierung, Hash, digitale Signatur, Firewall, Erkennung von Eindringlingen usw. Dieses Kapitel enthält eine kurze Beschreibung der genannten Technologien, die ein grundlegendes Verständnis der Vorgehensweise vermittelt sie funktionieren so, dass wir diese Technologien bewusst einsetzen können, um die Sicherheit des E-Commerce während des Geschäftsprozesses zu schützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-49645-8_4 295d599ac38b62bd5c1e584f1305fc5a;de;;;6.4.;;;Geografische Mobilität und Forschungsproduktivität in einer Auswahl der weltweit führenden Wirtschaftsabteilungen In diesem Papier untersuchen wir die räumlichen Eigenschaften einer Stichprobe von 2605 hochproduktiven Ökonomen und einer Teilstichprobe von 332 Ökonomen mit herausragender Produktivität. Die individuelle Produktivität wird anhand eines Qualitätsindex gemessen, der die Anzahl der Publikationen bis 2007 in vier Zeitschriftenklassen gewichtet. Wir analysieren die folgenden vier Themen. (1) Der „Funneling-Effekt“ in Richtung der USA und das Clustern von Wissenschaftlern in den Top-US-Institutionen. (2) Der hohe Grad an kollektiver Inzucht bei der Ausbildung von Elitemitgliedern. (3) Die Aufteilung der in einem bestimmten Land Geborenen in;-;-;-;https://link.springer.com/article/10.1007/s11192-017-2245-x 965fa36a7daba93c3a8e748c04d4c9db;de;;;6.4.;;;Wissenschaftlicher Bezug und intellektuelle Basis: eine Zitationsanalyse von unzitierten und vielzitierten Arbeiten im Bereich Solarenergie Im Bereich Solarenergie veröffentlichen Wissenschaftler jedes Jahr zahlreiche wissenschaftliche Artikel. Einige werden häufig zitiert, während andere möglicherweise nicht einmal zitiert werden. In diesem Artikel stellen wir zwei zugrunde liegende wissenschaftliche Eigenschaften eines Artikels vor, um die häufig zitierte oder nicht zitierte Wahrscheinlichkeit dieses Artikels zu erklären: wissenschaftlicher Bezug und intellektuelle Basis. Wir verwenden zwei Hauptnetzwerktechniken, Knowledge Element Coupling Network (gleichzeitig-basiert) und Paper Citation Network (Zitat-basiert) Analysen, um den wissenschaftlichen Bezug bzw. die intellektuelle Basis zu messen. Darüber hinaus führen wir deskriptive Analysen von unzitierten und vielzitierten Artikeln auf Länder-, Organisations- und Zeitschriftenebene durch. Dann bilden wir Wissenselement-Ko-Auftrittsnetzwerke und Paper-Citation-Netzwerke ab, um die Netzwerkeigenschaften von nicht zitierten und häufig zitierten Papers zu vergleichen. Darüber hinaus verwenden wir Artikeldaten aus dem Bereich Solarenergie zwischen 2004 und 2010, um unsere Hypothesen zu überprüfen. Ergebnisse aus geordneten Logit-Modellen weisen darauf hin, dass eine Arbeit mit hoher wissenschaftlicher Relevanz eher nicht zitiert wird, während sie seltener häufig zitiert wird. Die Arbeit mit höherer intellektueller Basis hat eine höhere Wahrscheinlichkeit, hoch zitiert zu werden, während eine geringe Wahrscheinlichkeit, nicht zitiert zu werden. Insgesamt bietet dieser Artikel wichtige Einblicke in die bestimmenden Faktoren der Zitationshäufigkeit eines Artikels, was für Forscher hilfreich ist, um die wissenschaftliche Wirkung ihrer Bemühungen zu maximieren.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-2155-3 3d27717294dbea4d1e4e37271bac8bf7;de;;;6.4.;;;Der Einfluss neuer Kombinationen und neuer Komponenten eines Artikels auf sein Zitieren Die Neuheit eines Papiers erhöht seine Wirkung und Zitierfähigkeit. In diesem Papier untersuchen wir zwei Dimensionen der Neuheit eines Papiers: neue Kombinationen und neue Komponenten. Wir definieren neue Kombinationen als neue Paare von Wissenselementen in einem verwandten Forschungsgebiet und neue Komponenten als neue Wissenselemente, die noch nie in einem verwandten Forschungsgebiet aufgetaucht sind. Die Bedeutung beider Dimensionen wird betont, und wir analysieren die Mechanismen, die die Häufigkeit der Zitation einer Arbeit beeinflussen. Wir glauben, dass die neuen Kombinationen und neuen Komponenten einer Arbeit beide einen umgekehrten U-förmigen Effekt auf die Anzahl der Zitationen haben. Unter Verwendung eines Text-Mining-Ansatzes entwickeln wir eine neuartige Methode zur Konstruktion neuer Kombinationen und neuer Komponenten unter Verwendung der Schlüsselwörter eines Papiers. Anhand von Schlagworten aus Veröffentlichungen im Bereich Windenergie zwischen 2002 und 2015 als Stichprobe führen wir eine empirische Analyse der oben genannten Zusammenhänge durch. Dazu verwenden wir die Methode der negativen Binomialregression und mehrere Robustheitstests. Die Ergebnisse unterstützen unsere Hypothesen, dass neue Kombinationen und neue Komponenten eines Papiers seine Wirkung maßgeblich beeinflussen. Konkret führen neue Kombinationen und neue Komponenten zu mehr Zitationszahlen bis zu einem bestimmten Schwellenwert. Wenn die Anzahl neuer Kombinationen und neuer Komponenten den Schwellenwert überschreitet, wird das Papier wahrscheinlich weniger häufig zitiert. Abschließend diskutieren wir die theoretischen Beiträge, methodischen Beiträge und praktischen Implikationen dieser Ergebnisse.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03314-6 e87c2014051298cc79f51e73792f46f0;de;;;6.4.;;;Generieren eines repräsentativen Keyword-Subsets zu einer wissenschaftlichen Konferenzreihe Die Breite und Geschwindigkeit der Innovation hat Tag für Tag zu einer Explosion von Forschungsdokumenten geführt. Weltweit werden, meist in regelmäßigen Abständen, wissenschaftliche Konferenzen veranstaltet, die eine riesige Menge an Forschungsdokumenten generieren. Unentdecktes Wissen aus den Tagungsbeiträgen zu extrahieren und damit den Zusammenhang von Tagungsforschungsthemen zu finden, ist eine anspruchsvolle Aufgabe. Dieser Beitrag versucht mit Hilfe von Schlüsselwörtern, die in den dort vorgestellten Beiträgen erwähnt werden, eine Wissensentdeckung für die Konferenz zu erreichen. Das hier vorgeschlagene Schema versucht, den gesamten Satz von Konferenzforschungspapieren unter Verwendung einer kleinen Teilmenge aller verfügbaren Schlüsselwörter einzuschließen. Die Richtigkeit und Komplexität des Schemas werden analysiert. Der Proof of Concept wird durch einige Flaggschiff-Konferenzen erstellt, die jährlich rund um den Globus abgehalten werden. Die Performance ist im Vergleich zu verfügbaren Text-Mining-Methoden, soweit praktikabel, günstig. Die Ergebnisse deuten darauf hin, dass das System bei der Charakterisierung aktueller Themen wissenschaftlicher Konferenzen nützlich sein könnte, was sowohl den Teilnehmern als auch den Organisatoren zugute kommen kann.;-;-;-;https://link.springer.com/article/10.1007/s11192-019-03068-1 618ac338189c83b87d1610ff68aebc8f;de;;;6.4.;;;Die Entwicklung kollaborativer Problemlösungsfähigkeiten von Lehramtsstudierenden für Naturwissenschaften durch schrittweise Problemlösungsstrategien Der Artikel befasst sich mit der Entwicklung von Fähigkeiten zur kollaborativen Problemlösung (CPS) von angehenden Lehrkräften für Naturwissenschaften unter Verwendung der folgenden schrittweisen Problemlösungsstrategien (SPS): (1) Identifizierung (diese Phase setzt die Identifizierung grundlegender Probleme voraus), (2) Lösung (diese Phase umfasst im Wesentlichen die Umsetzung) und (3) Überprüfung (diese Phase umfasst hauptsächlich Überwachung, Einstellung und Kontrolle). Die Forschung zur Entwicklung der kollaborativen Problemlösungsfähigkeit von Lehramtsstudierenden basierte auf fächerübergreifenden Inhalten (Biologie, Chemie oder Physik). SPS-Strategien wurden in verschiedenen Schritten der fächerübergreifenden Problemlösungsaktivität umgesetzt. Die erste Strategie (Identifikation) umfasste folgende Schritte: Diskussion und sorgfältige Erforschung des Wissens, Vertiefung des Wissens, Definition des Problems, Formulierung der Hypothese der Problemlösung, „Brain Storming“, Konkretisierung des Problems und Bildung einer Gruppe planen. Die zweite Strategie (Lösung) umfasste drei Schritte: Informationsmanagement, Erläuterung der Problemlösung und praktische Anwendung der Erfahrungen. Die Selbstevaluation der angehenden Lehrkräfte wurde am Ende jeder Phase durchgeführt. Die quantitative Studie ergab, dass die CPS-Fähigkeiten der naturwissenschaftlichen Lehramtsstudierenden entsprechend der zweiten Problemlösungsstrategie (Implementierung) höher waren als die Problemlösungsfähigkeiten der ersten Problemlösungsstrategie (Identifikation). Die Ergebnisse der qualitativen Forschung unterstrichen die Rolle der Zusammenarbeit bei der fächerübergreifenden Problemlösungsaktivität.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-91406-0_9 74a105db1477737f822dc3945ca1aa03;de;;;6.4.;;;Den wirtschaftlichen Wert triadischer Patente erfassen Diese Studie bietet eine umfassende Analyse der Patentfamilienmerkmale triadischer Patente. Wir testen spezifische Merkmale triadischer Patentfamilien, um gemeinsame Korrelationsmuster zwischen dem Patentwert, gemessen anhand von Patent-Forward-Citation-Daten, und der Struktur triadischer Patentfamilien, die dieselbe Erfindung auf internationaler Ebene abdecken, aufzuzeigen. Unsere Ergebnisse legen nahe, dass der Anteil der USPTO-, EPO- und JPO-Patente an der Patentfamilie sowie die Zeitspanne zwischen der frühesten Prioritätsanmeldung und der letzten Prioritätsanmeldung positiv mit dem Wert von Erfindungen in den triadischen Patentfamilien verbunden sind.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2959-4 0b26daffaed442dac279b6709eac277f;de;;;6.4.;;;Bewertung und Vergleich der universitären Leistungen bei der Wissensnutzung für patentierte Erfindungen Obwohl Universitäten eine wichtige Rolle bei der Wissensschaffung gespielt haben, ist es auch von Bedeutung zu sehen, wie Universitäten bei der Wissensnutzung abschneiden. Im vorliegenden Artikel wird ein effektiver Ansatz vorgeschlagen, um die Leistung von Hochschulen bei der Wissensnutzung für patentierte Erfindungen zu bewerten und zu vergleichen. Wachstumsverläufe der kumulativen Patentzitierungen zu wissenschaftlichen Publikationen einzelner Universitäten werden mittels latenter Wachstumsmodellierung analysiert. Darüber hinaus untersuchen wir, wie sich die Nutzung von wissenschaftlichen Erkenntnissen aus den Jahren 1995 und 2005 durch die Forschungswirkung und die Zusammenarbeit zwischen Universitäten und Unternehmen in Europa, Nordamerika und Ostasien auswirkt. Die Ergebnisse zeigen, dass nicht alle Top-300-Forschungsuniversitäten der Welt bei der Wissensnutzung für patentierte Erfindungen gut abschneiden. Einige politische Implikationen werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1470-9 267cab3de586ae36762cb963cbd67833;de;;;6.4.;;;Länderübergreifende Konzentration und Spezialisierung bergbaulicher Erfindungen Dieser Artikel konzentriert sich auf die länderübergreifende Verteilung von Bergbaupatentfamilien im Zeitraum 1970 – 2018. Alternative Konzentrationsmaße zeigen, dass nur wenige Länder die meisten Bergbauerfindungen ausmachen (z. B. China, Deutschland, Japan, USA), und dass die Zusammensetzung dieser Länder im Laufe der Zeit relativ stabil geblieben ist. Dies gilt auch für Patentfamilien aller Technologiefelder. Andererseits zeigt die Evidenz, dass die relativ auf Bergbautechnologien spezialisierten Länder nicht unbedingt einen hohen Anteil an Bergbauerfindungen aufweisen (z. B. Peru und Indonesien). Diese stilisierten Fakten werden durch Panel-Regressionsmodelle der Anzahl der Bergbaupatentfamilien – die zwischen patentierten Erfindungen und Gebrauchsmustern unterscheiden –, der Rangfolge der Bergbaupatentfamilien und der relativen Spezialisierung im Bergbau ergänzt. Die empirischen Ergebnisse zeigen, dass Mineralpreise und -produktion, Familienmerkmale und die Anzahl der Patentfamilien aller Technologiebereiche (d. h. die gesamte erfinderische Leistung) wichtige Treiber von Bergbaupatentfamilien sind. Darüber hinaus zeigen die Beweise, dass Erhöhungen der Mineralrenten/BIP einen positiven Einfluss auf die Wahrscheinlichkeit einer relativen Spezialisierung bei einigen Bergbautechnologien wie Sprengen, Bergbau und Verarbeitung haben.;-;-;-;https://link.springer.com/article/10.1007/s11192-021-04044-4 3821b05b37d49974490af8627173d4d1;de;;;6.4.;;;Wissensentdeckung in digitalen Bibliotheken für elektronische Abschlussarbeiten und Dissertationen: eine NDLTD-Fallstudie Viele wissenschaftliche Schriften sind heute in elektronischer Form verfügbar. Da sich Universitäten auf der ganzen Welt dafür entscheiden, digitale Versionen ihrer Dissertationen, Abschlussarbeiten, Projektberichte und zugehörigen Dateien und Datensätze online verfügbar zu machen, wird eine überwältigende Menge an Informationen zu fast jedem bestimmten Thema verfügbar. Wie entscheiden Benutzer, welche Dissertation oder ein Teilabschnitt einer Dissertation gelesen werden soll, um die erforderlichen Informationen zu einem bestimmten Thema zu erhalten? Welche Dienste können solche digitalen Bibliotheken bieten, um das Auffinden von Wissen zu erleichtern? In diesem Artikel untersuchen wir diese Fragen und verwenden als Fallstudie die Networked Digital Library of Theses and Dissertations (NDLTD), eine schnell wachsende Sammlung, die bereits etwa 800.000 elektronische Abschlussarbeiten (ETDs) von Universitäten weltweit umfasst. Wir schlagen das Design für ein skalierbares, auf Webservices basierendes Tool vor;-;-;-;https://link.springer.com/article/10.1007/s00799-008-0046-9 a23a57c49d52b0a4512b7ea75d912e57;de;;;6.4.;;;Aufbau und Evaluierung automatisierter Literaturreview-Systeme Automatisierte Literaturrecherchen haben das Potenzial, die Wissenssynthese zu beschleunigen und neue Erkenntnisse zu liefern. Ein Mangel an gekennzeichneten Ground-Truth-Daten hat es jedoch erschwert, diese Methoden zu entwickeln und zu evaluieren. Wir schlagen ein Framework vor, das die Referenzlisten aus bestehenden Review-Papieren als gekennzeichnete Daten verwendet, die dann zum Trainieren überwachter Klassifikatoren verwendet werden können, was das Experimentieren und Testen von Modellen und Funktionen in großem Maßstab ermöglicht. Wir demonstrieren unseren Rahmen, indem wir Klassifikatoren mit verschiedenen Kombinationen von zitat- und textbasierten Merkmalen an 500 Rezensionsarbeiten trainieren. Wir verwenden die R-Precision-Scores für die Rekonstruktion der Referenzlisten der Review-Papiere, um Methoden zu bewerten und zu vergleichen. Darüber hinaus erweitern wir unsere Methode, indem wir eine neue Reihe von Artikeln generieren, die für die Bereiche Desinformation Studies und Wissenschaftskommunikation relevant sind. Wir stellen fest, dass unsere Methode viele der relevantesten Artikel für eine Literaturrecherche aus einer großen Anzahl von Kandidatenpapieren identifizieren kann und dass unser Framework die Entwicklung und das Testen von Modellen und Funktionen ermöglicht, um die Ergebnisse schrittweise zu verbessern. Die von uns gebauten Modelle sind in der Lage, relevante Papiere zu identifizieren, selbst wenn Sie mit einem sehr kleinen Satz von Samenpapieren beginnen. Wir stellen auch fest, dass die Methoden angepasst werden können, um zuvor unentdeckte Artikel zu identifizieren, die für ein bestimmtes Thema relevant sein könnten.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03490-w 11d7b2894d78e1b49afdca74e3d4ac22;de;;;6.4.;;;Dynamische Entwicklung kollaborativer Netzwerke: Beweise aus der Nanoenergieforschung in China In Organisationen sind Wissensgenerierungsaktivitäten in kollaborative Netzwerke eingebettet und werden von ihren Partnern beeinflusst. Daher untersuchen wir in dieser Studie, wie sich ganze Netzwerke im Laufe der Zeit verändern, sowie die Gründe für die Strukturen von Ego-Netzwerken basierend auf einzigartigen wissenschaftlichen Forschungsergebnissen, die im aufstrebenden interdisziplinären Gebiet der Nanoenergie veröffentlicht wurden. Diese Daten wurden dem Science Citation Index Expanded entnommen. Konkret konzentrieren wir uns hauptsächlich auf zwei Dimensionen der Veränderungen des Ego-Netzwerks: Netzwerkwachstum und Diversität. Die Ergebnisse zeigen das bemerkenswerte Wachstum interorganisationaler Kooperationsnetzwerke im Nanoenergiebereich in jüngster Zeit und belegen empirisch, dass das anschließende Wachstum und die Diversität von Ego-Netzwerken durch drei koexistierende treibende Kräfte (kollaborative Kapazität, Netzwerkstatusposition und Zusammenhalt) verursacht werden, die kollektiv agieren . Unsere Studie wird auf organisatorischer Ebene durchgeführt, weil wir die Universitäten, Forschungsinstitute und Unternehmen untersuchen, die an der wissenschaftlichen Forschung im Bereich der Nanoenergie beteiligt sind, und die kollaborativen Netzwerke, die durch Co-Autorenschaften zwischen diesen Institutionen in Prozessen der Wissenserzeugung gebildet werden. Darüber hinaus hat unsere Studie erhebliche Auswirkungen auf die wissenschaftliche Forschung, die von Organisationen in Entwicklungsländern und aufstrebenden Gebieten durchgeführt wird.;-;-;-;https://link.springer.com/article/10.1007/s11192-014-1508-z 46dfcbde97f5ec24fc4862bca862263e;de;;;6.4.;;;Nah am Rand: Koautorenschaft Nähe von Nobelpreisträgern für Physiologie oder Medizin 1991–2010 zu interdisziplinären Maklern Zwischen 1991 und 2010 wurden 45 Wissenschaftler mit dem Nobelpreis für Physiologie oder Medizin geehrt. Es wird gezeigt, dass diese 45 Nobelpreisträger im Durchschnitt durch höchstens 2,8 Co-Autorenschaftsschritte von mindestens einem interdisziplinären Makler getrennt sind, definiert als ein Forscher, der sowohl in einigen biomedizinischen Disziplinen als auch in einigen . Co-Autoren veröffentlicht hat nicht-biomedizinische Disziplin. Wenn Nobelpreisträger für Physiologie oder Medizin und ihre unmittelbaren Mitarbeiter als das intuitive „Zentrum“ der biomedizinischen Wissenschaften angesehen werden können, dann zumindest für diese 20-jährige Stichprobe von Nobelpreisträgern das Zentrum der biomedizinischen Wissenschaften innerhalb der Koautorenschaft Der Graph aller Wissenschaften liegt näher an den Rändern mehrerer nicht-biomedizinischer Disziplinen als typische biomedizinische Forscher zueinander.;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1526-5 55172ed6e3dba94b68991187b50d1e8d;de;;;6.4.;;;Berechnen eines Journal-Meta-Rankings mit gepaarten Vergleichen und adaptiven Lasso-Schätzern In einer „Publish-or-perish-Kultur“ spielt das Ranking wissenschaftlicher Zeitschriften eine zentrale Rolle bei der Leistungsbewertung im aktuellen Forschungsumfeld. Mit einer Vielzahl existierender Methoden zur Ableitung von Zeitschriftenrankings haben Meta-Rankings als Mittel zur Aggregation verschiedener Informationsquellen an Popularität gewonnen. In diesem Beitrag schlagen wir eine Methode zur Erstellung eines Meta-Rankings unter Verwendung heterogener Zeitschriftenrankings vor. Unter Verwendung eines parametrischen Modells für gepaarte Vergleichsdaten schätzen wir Qualitätswerte für 58 Zeitschriften in der OR/MS/POM-Community, die zusammen mit einem Schrumpfungsverfahren die Identifizierung von Clustern von Zeitschriften mit ähnlicher Qualität ermöglicht. Die Verwendung von Paarvergleichen bietet einen flexiblen Rahmen für die Ableitung einer aggregierten Punktzahl, während das Problem fehlender Daten beseitigt wird.;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1772-6 c0b08770171c4f5cbc5ad689d644fc0e;de;;;6.4.;;;Ein Cluster-basierter Ansatz für die Bewertung von Kandidaten für neue Technologien Das Ziel dieser Studie ist es, einen auf Patentinformationen basierenden Clustering-basierten Ansatz für die Bewertung von neuen Technologien zu entwickeln. Der vorgeschlagene Ansatz verwendet Patentanalyse- und Clustering-Ansätze im Data Mining. Die Patentanalyse ist eine in der Literatur weit verbreitete Methode zur Bewertung von Kandidaten für neue Technologien. Die in dieser Studie verwendeten Clustering-Algorithmen sind selbstorganisierende Karten, erwartete Maximierung und dichtebasiertes Clustering. Anhand einer praktischen Anwendung der Zahnimplantattechnologie wird gezeigt, wie der vorgeschlagene Ansatz in der Praxis funktioniert. Die Beiträge dieser Studie sind zweifach. Diese Studie trägt zur Literatur bei, indem sie Behauptungen, Vorwärtszitationen, Rückwärtszitationen, Technologiezykluszeiten und Technologiebewertungen für die Bewertung von Kandidaten für neue Technologien berücksichtigt. Zweitens wurde die Bewertung der Zahnimplantattechnologie in Bezug auf Claims, Forward Citations, Backward Citations, Technologiezykluszeiten und Technologiebewertungen bisher nicht durchgeführt. Die aus dem Antrag erhaltenen Ergebnisse zeigen, dass die Zahnimplantattechnologie ein aufstrebender Technologiekandidat ist und der vorgeschlagene Ansatz leicht in Fallstudien aus dem wirklichen Leben durchgeführt werden kann.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03535-0 643cd9ebe29ac52a84a3ca2b37a9ac9c;de;;;6.4.;;;Orientierungen und Ergebnisse interdisziplinärer Forschung: der Fall des Forschungsverhaltens in der translationalen Medizin Die Bedeutung interdisziplinärer Forschung für die Beschleunigung des Fortschritts und der Kommerzialisierung der Wissenschaft ist allgemein anerkannt, doch ist wenig darüber bekannt, wie sich die akademische Forschung in Richtung Interdisziplinarität selbst organisiert. In diesem Beitrag untersuchen wir daher das Verhalten von Forschern auf Mikroebene, wenn sie sich in einen vielversprechenden Raum für interdisziplinäre Forschung begeben, nämlich die translationale Forschung – eine Brücke zwischen Grundlagenforschung und angewandter biomedizinischer Forschung. Konkret fragen wir (1), ob die Wissenschaftlerinnen und Wissenschaftler, die sich für translationale Forschung entscheiden, über eine starke wissenschaftliche Bilanz verfügen, (2) wie interdisziplinäre Forschung, die Grundlagen- und angewandte Forschung umfasst, die Ergebnisse der akademischen Forschung beeinflusst und (3) wie unterschiedlich disziplinäre Distanz in der interdisziplinären Forschung trägt zum Reputationsgewinn von Forschern bei. Wir stellen fest, dass Interdisziplinarität bei einigen Arten der Zusammenarbeit zu häufiger zitierten Forschungsergebnissen führt, bei anderen jedoch nicht, und suchen nach Erklärungen für diesen Unterschied. Unsere Ergebnisse zeigen, dass translationale Forschung häufiger zitiert wird, wenn sie Universitätsforscher aus dem grundlegendsten Ende des disziplinären Spektrums einbezieht und wenn ihre Fragestellungen auf die Grundlagenforschung (und nicht auf die angewandte) gerichtet sind.;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1784-2 703a649b7654260fe3a4bdd439127be5;de;;;6.4.;;;Entstehende Strukturen in Einstellungsnetzwerken von Fakultäten und die Auswirkungen von Mobilität auf die akademische Leistung In diesem Papier geht es um den südafrikanischen Arbeitsmarkt für Doktoranden. Ph.D. Die erste berufliche Mobilität umfasst die Präferenzen sowohl der einstellenden Institution als auch des Bewerbers. Beide wollen die beste Wahl treffen und dabei spielt institutionelles Prestige eine entscheidende Rolle. Das Prestige einer Universität ist eine auftauchende Eigenschaft der Einstellungsinteraktionen, daher verwenden wir eine Netzwerkperspektive, um es zu messen. Anhand dieser emergenten Ordnung vergleichen wir die spätere wissenschaftliche Leistung von Gelehrten mit unterschiedlichen Veränderungen in der Prestigehierarchie. Wir fragen, wie Bewegungen zwischen Universitäten mit unterschiedlichem Prestige von Ph.D. zum ersten Job korreliert mit der schulischen Leistung. Wir verwenden Daten südafrikanischer Wissenschaftler von 1970 bis 2012 und stellen fest, dass diejenigen, die große Prestigebewegungen machen, niedrigere Forschungsbewertungen haben als diejenigen, die dies nicht tun. Betrachtet man außerdem nur diejenigen mit großen Prestigebewegungen, haben diejenigen mit höheren Prestige-Promotionen oder ersten Jobs während ihrer Karriere höhere Forschungsbewertungen.;-;-;-;https://link.springer.com/article/10.1007/s11192-018-2858-8 f3db83888e63e5f8498da8f52ed562b5;de;;;6.4.;;;Referenzklassen: ein Instrument zum Benchmarking der Hochschulforschung Basierend auf neuen Vergleichsprinzipien, die sowohl das Volumen der wissenschaftlichen Produktion als auch deren Auswirkungen berücksichtigen, schlägt dieser Beitrag eine Methode zur Definition von Referenzklassen von Universitäten vor. Um es Hochschulleitungen zu ermöglichen, das Wertesystem zu definieren, nach dem ihre Hochschule mit anderen verglichen werden soll, werden verschiedene Instrumente entwickelt. Wir wenden diese Methodik auf französische Universitäten an und veranschaulichen sie anhand der Referenzklassen der bestplatzierten Universitäten nach mehreren Wertesystemen.;-;-;-;https://link.springer.com/article/10.1007/s11192-012-0672-2 f3df6126ee9bfeaf5b4e81f21a16ffd8;de;;;6.4.;;;Atomic Vapor Laser Isotopentrennung Atomic Vapor Laser Isotope Separation (AVLIS) ist eine allgemeine und leistungsstarke Technik, die auf viele Elemente anwendbar ist. Seit 1973 wird am Lawrence Livermore National Laboratory eine wichtige Anwendung zur Anreicherung von Uran für Leichtwasserreaktorbrennstoffe entwickelt international wettbewerbsfähige Produktion von Uran-Trennwerk. Unter Berücksichtigung der Prozesskennzahlen werden wesentliche Merkmale des AVLIS-Prozesses diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-52476-9_5 3f4d9635a4c630a13d11b62d182da25b;de;;;6.4.;;;Kooperationsnetzwerk zur Wissensgenerierung und -verbreitung zur Managementforschung: Ranking der führenden Institutionen Ziel dieses Papiers ist es, die Relevanz der Institutionen der akademischen Gemeinschaft zu messen, die durch ihre Position im Kooperationsnetzwerk an der Schaffung und Verbreitung von Wissen im Bereich Management beteiligt sind. Diese Relevanz wird durch einen originellen und umfassenderen Ansatz zur Analyse der Bedeutung jeder Institution durch die Zentralität des Abschlusses definiert, da er wissenschaftliche Ergebnisse einbezieht und gleichzeitig den Grad der Zusammenarbeit zwischen den Institutionen sowie die Auswirkungen Publikationen, an denen jede Institution beteiligt ist. Dieser Ansatz ermöglicht es uns, ein Ranking der 103 führenden Institutionen zu erstellen und einige der Einschränkungen früherer Studien zu überwinden, indem wir die Rolle jeder Institution in der akademischen Gemeinschaft berücksichtigen, nicht nur durch ihre wissenschaftlichen Ergebnisse oder Zitationen, sondern auch durch die Beziehungen knüpft sie zu anderen Institutionen. Unsere Ergebnisse bestätigen die Existenz von Elitegruppen weltweit, die mit anderen kleineren Institutionen zusammenarbeiten, während große Institutionen weniger miteinander zusammenarbeiten.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-1924-3 26947526ce170f96c60d697a46b76d11;de;;;6.4.;;;Gewünschte Lernergebnisse definieren und bewerten Welche Lerndaten benötigt werden, hängt davon ab, welche Lernergebnisse erwartet werden. In diesem Kapitel werden zwei neuerdings einflussreiche Perspektiven auf Lernergebnisse betrachtet: die Forschung zum Gehirn (Neurowissenschaften) und die Forschung zu den Anforderungen des Informationszeitalters. Wünschenswertes Lernen für das Informationszeitalter lässt sich in Wissensdomänen sowie verschiedene Kompetenzen des 21. Die Auswirkungen auf die Erhebung von Bewertungsdaten zum Lernen von Schülern werden berücksichtigt und weisen auf die Notwendigkeit einer Bewertungsreform hin.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63539-8_3 8b172b34b37c61bcbc802d33ef60471f;de;;;6.4.;;;Eine Begründung für die Beziehung zwischen dem Citer-h-Index und dem klassischen h-Index eines Forschers Es wurde festgestellt, dass der Ziter-h-Index eines Forschers (eingeführt von Ajiferuke und Wolfram) eine starke lineare Beziehung zum h-Index dieses Forschers hat. Dieser Befund von Franceschini, Maisano, Perotti und Proto zeigte auch experimentell, dass die Steigung dieser geraden Linie (die durch den Ursprung verläuft) strikt größer als eins ist. In diesem Beitrag präsentieren wir eine Begründung für dieses empirische Ergebnis dieses Autors zum Zusammenhang zwischen dem h-Index vor und nach einer Transformation der Zitationsdaten.;-;-;-;https://link.springer.com/article/10.1007/s11192-012-0770-1 d47ad25d3f2b871b7ce531bf201458af;de;;;6.4.;;;Schlafende Schönheiten in der Psychologie Als „Dornröschen“ bezeichnet man einen Forschungsartikel, der über mehrere Jahre relativ unzitiert blieb und dann plötzlich nach vorne blüht. Dank neuer Technologien können wir solche Artikel jetzt leichter als bisher erkennen und schlafende Schönheiten finden sich in zahlreichen Disziplinen. In diesem Artikel beschreiben wir drei schlafende Schönheiten, die wir in der Psychologie gefunden haben – Stroop (J Exp Psychol 18:643–662,;-;-;-;https://link.springer.com/article/10.1007/s11192-016-2174-0 f9e1102d30d913e19f929bd20fb2f930;de;;;6.4.;;;Sind zwei Autoren besser als einer? Kann das Schreiben zu zweit die Lesbarkeit von wissenschaftlichen Blogs beeinträchtigen? Die Literatur zum wissenschaftlichen Schreiben legt nahe, dass das Schreiben in Paaren zu besser lesbaren Arbeiten führt als das alleinige Schreiben. Wir fragten uns, ob akademische Blog-Beiträge, die einzeln oder in Paaren geschrieben werden, sich im Stil unterscheiden würden. Wir haben ein Korpus von 104 Beiträgen gesammelt, die mit dem LSE Impact of the Social Sciences Blog veröffentlicht wurden. Wir fanden keine Unterschiede in der durchschnittlichen Satzlänge zwischen einzelnen und gemeinsam verfassten Beiträgen. Allerdings waren die paarweise verfassten Beiträge etwas weniger lesbar als die von Einzelautoren verfassten Beiträge, was die aktuelle Sichtweise auf die Vorteile des paarweisen Schreibens in Frage stellt.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-2116-x 31fcfd69557741fc4986220fee1ba9e5;de;;;2.3.;;;Fehlertolerante intelligente Verkehrssysteme mit einem Agenten Die Intelligent Transportation Systems (ITS) bestehen aus fortschrittlichen Kommunikations-, Elektronik- und Informationstechnologien, um die Effizienz, Sicherheit und Zuverlässigkeit landesweiter Verkehrssysteme zu verbessern. Die Kernfunktionen des ITS sind die Erfassung, Verwaltung und Bereitstellung von Echtzeit-Transportinformationen und kann auf Basis der Common Object Request Broker Architecture (CORBA) der Object Management Group (OMG) eingesetzt werden, da sie aus miteinander verbundenen heterogenen Systemen besteht über nationale und lokale Regierungen hinweg. Fault Tolerant CORBA (FT-CORBA) unterstützt Echtzeitanforderungen von Transportinformationen durch Redundanz durch Replikation von Serverobjekten. Objektreplikation, Verwaltung und verwandte Protokolle von FT-CORBA erfordern jedoch zusätzliche CPU- und Speicherressourcen des Systems und können die End-to-End-Vorhersagbarkeit sowohl lokal als auch insgesamt verschlechtern. Dieses Papier schlägt eine verbesserte Architektur vor, um die Fehlertoleranz, Zuverlässigkeit und letztendlich die Vorhersagbarkeit von FT-CORBA-basierten ITS zu verbessern, indem Objektreplikate während des Systembetriebs mit einem Agenten adaptiv generiert und verwaltet werden. Es wird erwartet, dass die vorgeschlagene Architektur auf andere FT-CORBA-basierte Systeme für eine elektronische Regierung (E-Government) anwendbar ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24267-0_3 47f7334507c006383fd9731e7ddc3d7f;de;;;2.3.;;;Autonomes Management der Objektreplikation für FT-CORBA-basierte intelligente Verkehrssysteme Intelligent Transportation Systems (ITS) umfasst die Elektronik, Kommunikation oder Informationsverarbeitung, die einzeln oder integriert verwendet wird, um die Effizienz oder Sicherheit des Landverkehrs zu verbessern. Dementsprechend muss der ITS die Erfassung, Verwaltung und Bereitstellung von Echtzeit-Transportinformationen zuverlässig durchführen. Es kann basierend auf der Common Object Request Broker Architecture (CORBA) der Object Management Group (OMG) bereitgestellt werden, da es aus vielen miteinander verbundenen heterogenen Systemen besteht, die von unabhängigen Organisationen bereitgestellt werden. Fault Tolerant CORBA (FT-CORBA) unterstützt die Echtzeitanforderung von Transportinformationen stabil durch Redundanz durch Replikation von Serverobjekten. Objektreplikation, Verwaltung und verwandte Protokolle von FT-CORBA erfordern jedoch zusätzliche Systemressourcen von CPU und Speicher und können die Systemleistung sowohl lokal als auch insgesamt beeinträchtigen. Dieses Papier schlägt eine Architektur vor, um die Leistung von FT-CORBA-basierten ITS in Bezug auf CPU und Speicher zu verbessern, indem die Objektreplikation während des Systembetriebs mit einem Agent adaptiv verwaltet wird. Von der Anwendung des Agenten wird erwartet, dass sie die Fehlertoleranz von realen ITS effizient unterstützt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10549-4_1 93e783c044b1045ba8ca3386054e6a6f;de;;;2.3.;;;Umweltrisikomodellierung unter Wahrscheinlichkeits-Normalintervall-bewerteter Fuzzy-Zahl Unter fast allen realistischen Umständen, wie der Bewertung des Gesundheitsrisikos und der Unsicherheitsanalyse der atmosphärischen Ausbreitung, ist es sehr wichtig, alle Informationen in die Modellierung einzubeziehen. Die einem bestimmten Modell zugeordneten Parameter können unterschiedliche Arten von Variabilität, Ungenauigkeit und Unsicherheit umfassen. Häufiger wird beobachtet, dass verfügbare Informationen im probabilistischen Sinne interpretiert werden. Die Wahrscheinlichkeitstheorie ist eine gut etablierte Theorie, um eine solche Variabilität zu messen. Allerdings können nicht alle verfügbaren Informationen, Daten oder Modellparameter, die von Variabilität, Ungenauigkeit und Unsicherheit beeinflusst werden, mit der traditionellen Wahrscheinlichkeitstheorie behandelt werden. Unsicherheit oder Ungenauigkeit können aufgrund unvollständiger Informationen oder Daten, Messfehlern oder Daten, die aus Expertenurteilen oder subjektiver Interpretation verfügbarer Daten oder Informationen stammen, auftreten. Somit können Modellparameter und Daten durch subjektive Unsicherheit beeinflusst werden. Die traditionelle Wahrscheinlichkeitstheorie ist ungeeignet, sie darzustellen. Möglichkeitstheorie und Fuzzy-Set-Theorie ist ein weiterer Zweig der Mathematik, der als Werkzeug verwendet wird, um die Parameter mit unzureichendem oder vagem Wissen zu beschreiben. In diesem Beitrag wurde versucht, Wahrscheinlichkeitswissen und Möglichkeitswissen zu kombinieren und die Unsicherheit zu zeichnen. Das Papier beschreibt einen Algorithmus zur Kombination von Wahrscheinlichkeitsverteilung und intervallbewerteter Fuzzy-Zahl und wird mit einer Fallstudie auf Umweltrisikomodellierung angewendet. Das Hauptziel dieser Arbeit ist es, die vorgeschlagene Methode zu verbreiten. Computercodes werden für das vorgeschlagene Verfahren mit MATLAB vorbereitet.;-;-;-;https://link.springer.com/article/10.1007/s12543-013-0150-4 8a80edcbc700c9a9398261a9af643c5c;de;;;6.4.;;;Fakt oder Spekulation? Wie eine feministische Perspektive den Schülern helfen kann zu verstehen, was Archäologen wissen und warum sie glauben, es zu wissen Si somos serios respecto la importancia de la educación pública y la comunicación, entonces necesitamos bedenkend die pedagogía de la arqueología. Enseñar a los universitarios sobre arqueología tendrá más éxito cuando los themas sobre metodo, teoría, und ética señalan como aspektos integrados y centrales de la práctica arqueóloga. Tomando ejemplos de mi experiencia en la enseñanza en varias instituciones académicas norteamericanas verificaciń de las interpretaciones.;-;-;-;https://link.springer.com/article/10.1007/s11759-005-0018-2 dbbf542966403170fad68ebdee014a7b;de;;;6.4.;;;High-Level Waste Characterization and Process Monitoring Technologieentwicklungsaktivitäten als Reaktion auf den DOE 2006 Plan Der Plan 2006 des Department of Energy (DOE) zielt darauf ab, die Kosten und das Risiko im Zusammenhang mit Aufräumarbeiten erheblich zu reduzieren. Die Planvision sieht vor, die meisten kontaminierten Standorte des DOE bis Ende 2006 zu säubern und in verschiedene Landnutzungskategorien umzuwandeln. Der Abfall wird entweder eingedämmt oder entfernt, behandelt und entsorgt. Jüngste Einreichungen von DOE-Standortplänen zur Säuberung einzelner Mülldeponien zeigten jedoch, dass die Sanierung hochaktiver Abfälle an den DOE-Standorten Richland und Savannah River erst 2048 bzw. Diese Standortpläne wurden unter einem hohen Finanzierungsszenario formuliert, jedoch ohne Berücksichtigung der vom DOE angestrebten Leistungssteigerungsziele. Die Pläne sahen vor allem vor, dass 60 Prozent der Lebenszykluskosten für die Sanierung nach 2006 anfallen. Von den Sanierungskosten nach 2006 entfällt der größte Teil, nämlich neunundsiebzig Prozent, auf die Altlastensanierung. Daher bestehen große Chancen, kosteneffektive Technologien zu entwickeln, die Probleme mit hochradioaktiven Abfällen angehen und einen nachhaltigen Einfluss auf die Entsorgungskosten des DOE im Lebenszyklus haben könnten. Aufgrund der hartnäckigen Eigenschaften und der komplexen Chemie, die hochaktiven Abfällen innewohnen, stehen technische Herausforderungen bei der Entwicklung und Anwendung von Technologien zur schnelleren Lösung der Probleme bevor. Dieses Papier präsentiert für die Charakterisierung von hochaktiven Abfällen und die Prozessüberwachung eine Bewertung des Technologiebedarfs, eine Überprüfung der Technologien, die entwickelt wurden oder entwickelt werden, um diesen Bedarf zu decken, sowie Strategien für den Jahresablauf zur Erreichung der Planvision 2006.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-1543-6_36 48c3f770e589c064cff49edbacf8528f;de;;;6.4.;;;Patentstatistik als Wettbewerbsindikator und Analyse der Patentierung in der Biotechnologie Die Anzahl der Patente kann weder den Stand der Forschung wiedergeben noch der Inhalt der Patentdokumentation die tatsächlich erreichten technologischen Eigenschaften wiedergeben. Obwohl die Patentstatistik so verwendet wird, ist sie kein guter Indikator für den wirtschaftlichen Ertrag von Investitionen in die Forschung. Die Nutzung dieser Statistik zum Verständnis des Wettbewerbsgrades und der wettbewerbsorientierten Forschungsstrategie ist attraktiv. Ein Patentdokument ist so Teil des öffentlichen Wissens, dass das Wachstum des zukünftigen öffentlichen Wissens eingeschränkt wird. Dieses Vorzeichen auf den künftigen Forschungsinhalt sowie auf die Anzahl und Bereiche der Forschung durch eine laufende Bewerbung ist ein wettbewerbsbestimmender Aspekt. Dieser Effekt auf die verzögerten zukünftigen Anmeldungen und das Akzeptieren der Patentoffenlegung als beabsichtigte strategische Daten sind die wichtigsten Merkmale der Patentstatistik. Das vorliegende Papier hat dieses Verständnis angewandt und eine Reihe von Indizes generiert, die aus Datenbanken zum Patentwesen abgeleitet wurden. Dies sind Indikatoren zum Wettbewerb, zum Technologiepool, zum Sprachtechnologiepool, zum modifizierten Wettbewerb, zur Marktattraktivität und zur Stärke des Patentmarktes. Als Beispiel wurden Werte dieser Indikatoren für die biotechnologische Forschung und für mehrere Länder abgeleitet.;-;-;-;https://link.springer.com/article/10.1023/A%3A1005669810018 ef531af9c349ab3a0e311a2958655464;de;;;2.3.;;;Entwicklung eines robusten Algorithmus zur Erkennung von Kernen weißer Blutkörperchen in peripheren Blutausstrichbildern Die mikroskopische Auswertung der peripheren Blutausstrichanalyse ist ein häufig verwendetes Laborverfahren zur Diagnose verschiedener Krankheiten wie Anämie, Malaria, Leukämie usw. Die manuelle mikroskopische Auswertung ist mühsam und daher haben viele Forschungsgruppen versucht, die Ausstrichanalyse zu automatisieren. Variationen des Färbeverfahrens und der Ausstrichpräparation führen zu Farbtonvariationen in peripheren Blutausstrichbildern. Die Beleuchtung durch eine Punktquellenbirne führt zu Helligkeitsschwankungen über den Ausstrich, die die Leistung eines automatisierten Verfahrens beeinträchtigen. In diesem Beitrag stellen wir einen Bildverarbeitungsalgorithmus zur Erkennung von Kernen weißer Blutkörperchen vor, der robust gegenüber Farb- und Helligkeitsschwankungen ist. In der vorgeschlagenen Methode haben wir zwei verschiedene Datensätze verwendet und auch fünf Datensätze, die aus Originalbildern durch Einführung von Helligkeitsvariationen abgeleitet wurden. Wir haben auch die Ergebnisse der vorgeschlagenen Methode mit vier Methoden des Standes der Technik verglichen. Die Ergebnisse zeigen, dass die vorgeschlagene Methode Kerne mit einer durchschnittlichen Genauigkeit von 0,99 und einem Dice-Koeffizienten von 0,965 genau erkennt.;-;-;-;https://link.springer.com/article/10.1007/s11042-018-7107-x 8efedd410f9cb64312ca491175a5de34;de;;;6.4.;;;Über Wachstum, Alterung und fraktale Differenzierung der Wissenschaft Auf Basis der gemessenen zeitabhängigen Verteilung von Literaturangaben in neueren wissenschaftlichen Publikationen formulieren wir ein neuartiges Modell zur Alterung neuer wissenschaftlicher Literatur. Den Rahmen dieses Modells bildet ein grundlegender Satz mathematischer Ausdrücke, der es uns ermöglicht, groß angelegte Wachstums- und Alterungsprozesse in der Wissenschaft über einen langen Zeitraum zu verstehen und zu beschreiben. Darüber hinaus ergibt sich in selbstkonsistenter Weise aus unserem Modell eine weitere und auffällige Konsequenz. Nach der wissenschaftlichen Revolution im Europa des 16. Jahrhunderts beginnt die 'Wissenschaftliche Evolution', und die treibenden Prozesse Wachstum und Altern führen - wie in unserer biologischen Evolution - unvermeidlich zu einer fraktalen Differenzierung der Wissenschaft. Eine fraktale Struktur bedeutet ein System, das mit Subsystemen aufgebaut ist, die durch eine Potenzgesetz-Größenverteilung gekennzeichnet sind. Eine solche Verteilung impliziert, dass es keine Präferenz von Größe oder Maßstab gibt. Dieses Phänomen wird oft als Fingerabdruck der Selbstorganisation angesehen. Diese Befunde stimmen mit früheren empirischen Befunden zur Clusterbildung wissenschaftlicher Literatur überein. Unsere Beobachtungen bestärken die Vorstellung von Wissenschaft als einem komplexen, weitgehend selbstorganisierenden „kognitiven Ökosystem“. Sie widerlegen auch Kuhns Paradigmenmodell der wissenschaftlichen Entwicklung.;-;-;-;https://link.springer.com/article/10.1023/A%3A1005647328460 4c3ad0ea9ebfbc9a1c263a4f74e8177f;de;;;6.4.;;;Demonstration der Überlegenheit der COVID-19-Forschung mit Akronymen „COVID“, das für die Coronavirus-Krankheit steht, ist zum berüchtigtsten Akronym der Welt geworden. Frühere Analysen von Akronymen in Gesundheits- und medizinischen Fachzeitschriften ergaben im Laufe der Zeit eine zunehmende Verwendung von Akronymen in Titeln und Abstracts, wobei „DNA“ am häufigsten verwendet wurde. Hier untersuchen wir Akronyme im Pandemiejahr 2020, um den dramatischen Anstieg der COVID-bezogenen Forschung aufzuzeigen. „COVID“ wurde im Jahr 2020 über fünfmal häufiger verwendet als „DNA“ und ist in nur einem Jahr das sechstbeliebteste Akronym aller Zeiten, noch vor „AIDS“, „PCR“ und „MRT“.;-;-;-;https://link.springer.com/article/10.1007/s11192-021-04016-8 0f6e8033dfc443a4bcf744b3d4f5ec10;de;;;6.4.;;;Eine Anmerkung zum Jaccardized-Czekanowski-Ähnlichkeitsindex Es zeigt sich, dass der „Jaccardized Czekanowski-Index“ eigentlich eine Neuinterpretation des Ružička-Index ist. Damit ist bewiesen, dass ihr Ein-Komplement eine echte Distanzfunktion ist, was sie besonders für den Einsatz in Ähnlichkeitsstudien auch mit mehrdimensionalen statistischen Verfahren geeignet macht.;-;-;-;https://link.springer.com/article/10.1007/s11192-013-1044-2 9c7a109d6601bb0475a1fa866a3771a2;de;;;6.4.;;;Uranus und Neptun: Ursprung, Evolution und innere Struktur Es gibt noch viele offene Fragen zur Natur von Uranus und Neptun, den äußersten Planeten im Sonnensystem. In diesem Aufsatz fassen wir den aktuellen Wissensstand über Uranus und Neptun mit einem Fokus auf ihre Zusammensetzung und innere Struktur, Bildung einschließlich möglicher anschließender Rieseneinschläge und thermische Entwicklung zusammen. Wir stellen zentrale offene Fragen und diskutieren die Unsicherheit in den inneren Strukturen der Planeten aufgrund der Möglichkeit nicht-adiabatischer und inhomogener Innenräume. Wir liefern auch die Gründe für verbesserte Beobachtungsbeschränkungen für ihre grundlegenden physikalischen Parameter wie Gravitations- und Magnetfelder, Rotationsgeschwindigkeiten sowie Zusammensetzung und Temperatur der tiefen Atmosphäre. Nur so können wir unser Verständnis dieser planetarischen Objekte und der vielen ähnlich großen Objekte, die andere Sterne umkreisen, verbessern.;-;-;-;https://link.springer.com/article/10.1007/s11214-020-00660-3 3c6c2ace51a220fd7f91c8a34d458848;de;;;6.4.;;;Patentzitate in einem neuartigen Technologiefeld – Was können sie über die Wechselwirkungen zwischen aufstrebenden Wissenschafts- und Technologiegemeinschaften aussagen? Dieser Beitrag soll zu einem besseren Verständnis der Patentzitierungsanalyse im Allgemeinen und ihrer Anwendung auf neue Gebiete der Wissenschaft und Technologie im Besonderen beitragen. Es führt in die Thematik ein, indem es ein empirisches Problem diskutiert, das Verhältnis von Nanopublikationen und Nanopatenten als Repräsentationen von Nanowissenschaft und Nanotechnologie. Anhand verschiedener Quellen werden unterschiedliche Interpretationen von Patentzitaten vorgestellt. Anschließend wird die Natur von Patentzitierungen weiter untersucht, indem sie mit Zitaten in der wissenschaftlichen Literatur verglichen werden. Nach der Charakterisierung der Citation Linkage als Indikatoren für wechselseitige Beziehungen zwischen Wissenschaft und Technologie werden Patentzitierungen in Nanowissenschaft und -technologie im Hinblick auf feldübergreifende und organisatorische Wissensflüsse analysiert.;-;-;-;https://link.springer.com/article/10.1023/A%3A1005692621105 8cf2081ad189c10ded95a19076a50a3e;de;;;6.4.;;;Leistungsmessung im belgischen Dokumentenbestell- und Liefersystem Impala Dieses Papier befasst sich mit Leistungskennzahlen und Leistungsindikatoren im elektronischen Dokumentenbestell- und -liefersystem Impala für Forschungsbibliotheken in Belgien und vergleicht diese mit einigen internationalen Standards wie z. B. der von der Europäischen Kommission in Auftrag gegebenen ProLib/PI-Studie.;-;-;-;https://link.springer.com/article/10.1023/A%3A1005630824825 0e896989b0e06fe8847bd0a538db90cf;de;;;6.4.;;;Erkennung von redaktionellen Verzerrungen in medizinischen Publikationen Da Publikationen die wichtigste Methode zur Verbreitung von Forschung sind, dienen Zeitschriftenredakteure als Torwächter für neu entstehendes Wissen. Hier stellen wir eine „Fall-Kontroll-Studie“ zur Verfügung, um die Rolle von redaktionellen Verzerrungen im New England Journal of Medicine, einer großen medizinischen Zeitschrift, zu untersuchen, indem wir die Autorendemografie von Fallberichten untersuchen, die entweder redaktionell oder verdienstvoll ausgewählt werden. Unsere Ergebnisse zeigen, dass die redaktionelle Voreingenommenheit, die die Veröffentlichung von Autoren aus ausgewählten Hochleistungsländern fördert, abnimmt, obwohl eine zunehmende redaktionelle Präferenz für universitäre Autoren besteht. Diese Erkenntnisse sind relevant für die Bemühungen, die Transparenz im wissenschaftlichen Publizieren zu erhöhen.;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1753-9 61a46b9f9cb7c01ae4b83331d5999ae3;de;;;6.4.;;;Charakterisierungstechniken Die experimentelle Anordnung von MBE ist unter den epitaktischen Dünnschicht-Herstellungsverfahren einzigartig, da sie es ermöglicht, den Wachstumsprozess in situ auf verschiedene Weise zu untersuchen und zu kontrollieren. Insbesondere die Reflection High Energy Electron Diffraction (RHEED) ermöglicht direkte Messungen der Oberflächenstruktur des Substratwafers und der bereits gewachsenen Epischicht. Es ermöglicht auch die Beobachtung der Dynamik des MBE-Wachstums [4.1–30]. Die vorwärts streuende Geometrie von RHEED ist für MBE am besten geeignet, da der Elektronenstrahl streifend einfällt (Abb. 3.29), während die Molekularstrahlen fast normal auf das Substrat treffen. Daher kann RHEED als Einwuchsoberflächen- und Analyseverfahren bezeichnet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-80060-3_4 16efbfd04bd9d2927d4e359e4c2903cb;de;;;6.4.;;;Autoren und ihre Zitate: ein Standpunkt Dieser Brief beschreibt, wie erfreulich viele Zitate für bestimmte Veröffentlichungen sind, eine geringe jedoch nicht, insbesondere wenn der Autor der Meinung ist, dass einige der letztgenannten Veröffentlichungen genauso, wenn nicht sogar wichtiger sind als die ersteren. Wenn ein Autor seine Zitate in Google Scholar nachschlägt, erleidet er möglicherweise einen Schock. Man könnte annehmen, dass man sich über die Anerkennung einiger von ihnen freut, wie die hohe Zahl der Zitationen zeigt, und enttäuscht über die mangelnde Anerkennung anderer. Nun, in meinem Fall ist es noch schlimmer! Ich habe das Schicksal (in Bezug auf die Anzahl der Zitationen) von über 500 Büchern und Artikeln, die ich seit 1964 veröffentlicht habe, nachgeschlagen. Glücklicherweise wurden einige davon häufig zitiert. Aber zu meiner Überraschung wurden einige Stücke, die meiner Meinung nach einen großen Beitrag geleistet hatten, kaum zitiert.;-;-;-;https://link.springer.com/article/10.1007/s11192-016-2211-z c0496ab57e371b8feda212b6375ed588;de;;;6.4.;;;Höchste Zeit für ein gemeinsames Plagiatserkennungssystem Plagiate stellen ein ernstes und wachsendes Problem in der Wissenschaft dar, wobei nur ein Bruchteil dieser Veröffentlichungen entdeckt und zurückgezogen wird. Jede Initiative zur effizienten Bearbeitung der Plagiatsproblematik würde eine gemeinsame Anstrengung von wissenschaftlichen Verlagen und Herausgebern erfordern. Die effektivste Maßnahme wäre die Einrichtung eines gemeinsamen Plagiat-Erkennungssystems, das von allen begutachteten Zeitschriften und großen Verlagen übernommen wird, mit automatischem Hochladen und Abgleichen jedes neu eingereichten Manuskripts mit veröffentlichtem Material und allen weiteren und laufenden Einreichungen. Bei einer angemessenen Implementierung würde ein solches System das Problem der Mehrfacheinreichung vollständig lösen und Fälle von Plagiaten von unveröffentlichtem Material erkennen. Ein erheblicher Teil der Fälle von wissenschaftlichem Fehlverhalten würde in den meisten Fällen viel vor der Veröffentlichungsphase gelöst. Dies würde der wissenschaftlichen Gemeinschaft und der Wissenschaft im Allgemeinen sehr zugute kommen. Auch die Notwendigkeit der Veröffentlichung von Widerrufsbelehrungen würde verringert, wodurch die Veröffentlichungskosten gesenkt würden. Schließlich würde das System wahrscheinlich abschreckend wirken und passiv zur Reduzierung der Plagiatshäufigkeit beitragen.;-;-;-;https://link.springer.com/article/10.1007/s11192-015-1756-6 e54ab7ca5a55c55b549a307394ba9401;de;;;6.4.;;;Chronische Schmerzen – ist etwas Neues? Unser Verständnis von chronischen Schmerzen und deren Folgen verbessert sich immer weiter, gleichzeitig verwirrt uns die Komplexität des Nervensystems jedoch weiter. In dieser Übersichtsarbeit wurde versucht, auf einige der Kontroversen, einige der Fortschritte, einige Gedanken zur Beurteilung des Ergebnisses und unserer Leistungsfähigkeit bei der Behandlung chronischer Schmerzen aufmerksam zu machen.;-;-;-;https://link.springer.com/article/10.1007/BF03011020 6a3ce7b177d821214f1277520721465d;de;;;2.3.;;;So führen Sie eine Bewertungsaufgabe aus Dieses Kapitel bietet eine allgemeine Richtlinie für Forscher, die zum ersten Mal eine gemeinsame Evaluierungsaufgabe durchführen möchten, wobei der Schwerpunkt auf einfachen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-22948-1_3 8b3579796b5d13469002982b5409aa61;de;;;6.4.;;;Zolas Neues Testament Barbey d’Aurevilly verdankt sein Image als selbstaufgeblasene, heuchlerische und sogar unheimliche Figur dem destruktiven Porträt von Émile Zola. Der Dandy in engen Hosen und plissiertem Frack, der schrille Romantiker, Folterknecht widerspenstiger Syntax und Erbe des perversen Katholizismus des Marquis de Sade – das war die Persönlichkeit, die Zola in seinen Artikeln über Barbey schuf.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-10846-6_4 1887aea08c19633c39923c0f38128ec0;de;;;6.4.;;;Autorenschaft und Zitationsmuster in Operational Research Journals in Bezug auf Wettbewerb und Reform Autorschafts- und Zitationsmuster in wichtigen Zeitschriften des Operational Research (OR) werden analysiert. Als Vorreiter interdisziplinärer Spezialisierungen, die mathematische oder quantitative Methoden auf gesellschaftliche Probleme anwenden, steht die OR in jüngster Zeit im harten Wettbewerb mit neuen Herausforderern hinsichtlich anwendbarer Methoden und realer Umsetzung. Anhand der Analysen von Autorenschaft und Zitationsmustern diskutiert dieser Beitrag das Verhalten der Zeitschriftenredakteure und -autoren in Bezug auf die Wettbewerbs- und Reformpolitik von OR-Zeitschriften.;-;-;-;https://link.springer.com/article/10.1023/A%3A1005661608200 5713bf252af708ceca3cafb028af46d5;de;;;6.4.;;;Elektrochemische, mikroskopische und oberflächenanalytische Untersuchungen amorpher und nanokristalliner Legierungen Um den extremen Anforderungen der modernen Technik gerecht zu werden, werden funktionalisierte Materialien mit verbesserten spezifischen Eigenschaften benötigt. Darüber hinaus werden hochauflösende Methoden zur Charakterisierung neuer Materialien benötigt, um die Faktoren zu identifizieren, die für die einzigartigen Eigenschaften solcher Materialien verantwortlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-92263-8_3 b49a459079e575f8045113c0f39947b7;de;;;6.4.;;;Bradfords Gesetz im Kontext der Informationsbereitstellung Ziel der Studie ist es, die empirische Anwendung des Bradfordschen Gesetzes für Entscheidungen über Informationssysteme in problembasierten Bereichen zu untersuchen, in denen Zeitschriften verschiedener Disziplinen relevante Informationen behandeln. Die Ergebnisse des Vergleichs der Kerne in verschiedenen Bereichen können als Grundlage für die Anpassung eines Informationssystems verwendet werden. Bradfords Gesetz wird in der Studie auf fünf Datenbanken zum Thema Information Retrieval und Search angewendet, um Umfang und Titel der Kernzeitschriften zu vergleichen. Diese Datenbanken geben unterschiedliche Sichtweisen auf das gleiche interdisziplinäre Thema. Probleme sind Relevanzbeurteilungen, die die Form der Graphen verändern, und Konsistenz von Konzepten in der Analyse. Die Ergebnisse zeigen, dass Bradford-Analysen nützliche Werkzeuge bei der Entwicklung von Informationssystemen sein können.;-;-;-;https://link.springer.com/article/10.1023/A%3A1005669410627 a745011a4cf69ad68a75b8cd3a3b0a54;de;;;6.4.;;;Zitationskurven von „Alles-Elemente-Schlafen-Schönheiten“: zuerst „Flash in the Pan“ und dann „Verzögerte Erkennung“ „Verzögerte Anerkennung“ bezieht sich auf das Phänomen, dass Arbeiten erst einige Jahre nach ihrer ursprünglichen Veröffentlichung eine Anerkennung in Bezug auf Zitationen erreichten. Ein Papier mit verzögerter Erkennung wurde als „Dornröschen“ bezeichnet: Eine Prinzessin schläft (unbemerkt) und wird dann fast plötzlich von einem Prinzen geweckt (erhält viele Zitate). Es gibt eine Schlafphase und eine Aufwachphase in der Definition einer „Dornröschen“. Außerhalb und vor den beiden Perioden fand sich in Zitationskurven einiger Publikationen eine Erwachungsperiode, „sleeping beauties“ wurde daher zu „all-elements-sleeping-beauties“ erweitert. Der gegenteilige Effekt der „verzögerten Erkennung“ wurde als „Flash in the pan“ bezeichnet: Dokumente, die unmittelbar nach der Veröffentlichung aufgefallen sind, aber keine nachhaltige Wirkung zu haben schienen. In dieser Arbeit haben wir kurz die Zitationskurven zweier bemerkenswerter „Alle-Elemente-Schlafschönheiten“ diskutiert. Wir stellten fest, dass sie zuerst „in der Pfanne blitzen“ und dann „verzögerte Erkennung“ erschienen. Wir fanden auch Happy Ends von schlafenden Schönheiten und Prinzen und schlagen daher vor, dass die Zitationskurve einer „Alle-Elemente-Schlafschönheit“ eine Aufwachperiode, eine Schlafperiode, eine Aufwachperiode und ein Happy End umfasst.;-;-;-;https://link.springer.com/article/10.1007/s11192-013-1217-z b37f411699b7d42c6e7e66402503a849;de;;;2.3.;;;Design, Entwicklung und Anwendung von Industrial Engineering in der neuen Werksmontagewerkstatt Gegründet am 18. Oktober 2002, Beijing Hyundai Motor Co., Ltd. Es ist das erste chinesisch-ausländische Joint-Venture-Projekt im Bereich der Automobilproduktion, das nach dem Beitritt Chinas zur WTO genehmigt wurde. Beijing Hyundai Motor Co., Ltd muss bis 2020 eine Produktionskapazität von 1,8 Millionen Einheiten haben, um seinen Marktanteil von Beijing Hyundai Motor Co., Ltd zu sichern, da die Pkw in China mit einer Wachstumsrate von mehr als 7 % in China gewachsen sind den letzten Jahren. Daher werden auf Basis der ursprünglich drei Fabriken zwei komplette Fahrzeugfertigungswerke mit einer durchschnittlichen Jahreskapazität von 300.000 Kapazitäten hinzukommen. Als Abteilung mit dem komplexesten Produktionsprozess und der größten Anzahl von Bedienern, der Endmontagewerkstatt, wird sich ihr Entwurf in der Entwurfsphase der neuen Fabrik direkt auf die Betriebseffizienz der schlanken Produktion der gesamten Fabrik auswirken. Daher analysiert diese Diplomarbeit zu Pekings moderner neuer Fabrik in der Montagewerkstatt im Projekt zur Verbesserung des industrietechnischen Designs der systematischen Anwendung als Forschungsobjekt unter Verwendung aller Arten grundlegender Konstruktionsmethoden der Disziplin und Philosophie des Wirtschaftsingenieurwesens nachdrücklich das alte interne Montagewerkstattdesign Logistikbetrieb Mensch-Maschine-Konstruktionsfehler, die im Betrieb vorhanden sind, gleichzeitig in Kombination mit dem Anlagendesign vor der Bühne als Ganzes die Verbesserung des Materialsystems vorschlagen, die Ermüdungsfestigkeit des Mensch-Maschine-Betriebs reduzieren, verbessern Produktionseffizienz usw. umfassende Anwendung der grundlegenden wirtschaftstechnischen Arbeitsmethode Forschungsstrategie, Aktionsanalyse und wirtschaftliche Verbesserungsstudienmethode, basierend auf der Anwendung von wirtschaftstechnischem Know-how wird das optimierte Systementwurfsschema erhalten, das eine systematische Grundlage für die Planungsentscheidung bietet Materialdesign der Endmontagewerkstatt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9718-9_15 7ed4a56ca130fcce59322ded192b572e;de;;;2.3.;;;Forschung zur intelligenten Fehler- und Sicherheitsbehandlung basierend auf IMS in Power System Der Betriebs- und Wartungsdruck des IMS-Systems ist groß, und die Anzahl der zu wartenden Geräte ist groß. Es ist dringend erforderlich, fortschrittliche Methoden des Instandhaltungsmanagements und eine intelligente Überwachung durchzuführen. Vor diesem Hintergrund wird die intelligente Fehlerbehandlung von IMS detailliert analysiert. Zunächst werden die Gesamtarchitektur und die Deployment-Architektur der integrierten Betriebs- und Wartungsplattform analysiert. Auf dieser Grundlage werden die Netzwerksignalisierungsüberwachung und die Dienstüberwachung basierend auf dem IMS-System durchgeführt und die intelligente Fehlerbehandlungsfunktion von IMS wird realisiert. Durch den Aufbau der intelligenten IMS-Fehlerbehandlungsplattform wird eine umfassende Unterstützung für den Betrieb, die Wartung und das Management des IMS-Systems bereitgestellt. Es wird bemerkenswerte wirtschaftliche, soziale und Managementvorteile im Bereich des Managements von Stromkommunikationsnetzen bringen und einen neuen und größeren Beitrag zum sicheren und stabilen Betrieb des Stromnetzes sowie zum Betrieb und zur Verwaltung des Unternehmens leisten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-3150-4_23 eafa81688047e0dcbeeef508369dfc51;de;;;6.4.;;;Nichtstaatliche und gemeinnützige Organisationseffizienz: eine moderne Synthese Die Wirksamkeit von NGOs/NPOs bleibt ein wichtiges Anliegen von Wissenschaftlern und Praktikern, aber die Literatur zu diesem Thema ist zunehmend nach Disziplinen zersplittert. Wir gehen dieses Problem an, indem wir eine umfassende und interdisziplinäre Literaturrecherche zur NGO- und NPO-Effektivität mittels Zitationsanalyse präsentieren. Um Gemeinsamkeiten zwischen Disziplinen mit ähnlichen Fragestellungen aufzudecken, setzen wir eine strukturierte Literaturrecherche mit Schneeballstichproben innerhalb von Zitationsnetzwerken ein. Dieser Ansatz schränkt Autorenverzerrungen ein, fördert eine interdisziplinäre Perspektive und fügt konventionelle inhaltsbasierte Literaturrecherchen einen anderen methodischen Ansatz hinzu. Unser Review deckt drei Trends auf: (1) Es besteht ein breiter wissenschaftlicher Konsens darüber, dass eindimensionale Effektivitätsmaße nicht sinnvoll sind – obwohl solche Maßnahmen häufig von NGO/NPO-Ratingagenturen verwendet werden, (2) das Stipendium zur NGO/NPO-Effektivität wird dominiert von konzeptionelle Arbeiten, während empirische Studien selten sind, (3) bleibt ein Konsens darüber, wie Effektivität operationalisiert werden kann, schwer fassbar. Diese Ergebnisse deuten darauf hin, dass Fortschritte in unserem Verständnis der Wirksamkeit von NGOs/NPOs verstärkte Anstrengungen erfordern, disziplinäre Gräben zu überwinden, empirische Analysen hinzuzufügen und der Entwicklung gemeinsamer Kategorien und Methoden mehr Aufmerksamkeit zu widmen.;-;-;-;https://link.springer.com/article/10.1007/s11266-011-9204-6 0ae6c6e27d5a882ee650e6eeae3117b9;de;;;2.3.;;;Stand der Technik: Entscheidungsschemata für vertikale Übergaben in drahtlosen Netzwerken der nächsten Generation Der Stand der Technik bezüglich vertikaler Handover-Entscheidungen in drahtlosen Netzwerken der nächsten Generation bietet einen detaillierten Überblick über vertikale Handover-Studien. Dieses Papier klassifiziert die Forschungsinitiativen unter dem vertikalen Handover-Entscheidungsmechanismus für heterogene drahtlose Netzwerke. Ein fairer Vergleich traditioneller und neuerer Techniken wird entworfen, um eine Richtung der vertikalen Übergabeentscheidung zu erhalten. In der Literatur wurden mehrere Probleme im Zusammenhang mit der nahtlosen Unterstützung von Mobilitätsmanagementtechniken beschrieben. Das Mobilfunknetz der nächsten Generation verspricht verbesserte Datendienste im Vergleich zu anderen Netzen in der Mobilkommunikation. Da alle Netzwerke der nächsten Generation (NGN) ein IP-basiertes Netzwerk sind, treiben die Herausforderungen die Bereitstellung von Dienstqualität im Übergabeprozess voran. Die Notwendigkeit des Übergabeprozesses ist eine nahtlose Verbindung. Die Übergabeoperationen, die die Verzögerung bei der Einrichtung einer neuen Netzwerkverbindung minimieren oder sogar darauf abzielen, zu beseitigen, werden am meisten begrüßt. Häufiges Trennen und ineffiziente nahtlose Übergaben führen jedoch zu Fehlern beim Übergabevorgang. Die meisten der existierenden Verfahren für Übergabeentscheidungen basieren auf mobilgesteuerten Übergaben. Hier werden die Entscheidungen in die mobilen Geräte eingearbeitet. Mehrere mobilgesteuerte Übergaben nehmen einen einzelnen Parameter oder zwei oder mehr zusätzliche Parameter als Kombination, um die Richtlinienentscheidung zu bewerten. Diese Ansätze werden sorgfältig untersucht und klassifiziert.;-;-;-;https://link.springer.com/article/10.1007/s41650-018-0009-2 d70541092ca990316c59015e2c405ed8;de;;;2.3.;;;Auf dem Weg zur Business Intelligence der nächsten Generation: ein integriertes Framework basierend auf DME und KID Fusion Engine Fortschritte in der Informationstechnologie führen zu einem enormen Nutzungswachstum des Internets. Online-Aktivitäten wie E-Commerce, soziale Interaktion usw. haben in Bezug auf die Bereitstellung personalisierter Dienste, die ein optimales und umfassendes Verständnis der Benutzer erfordern, zunehmende Aufmerksamkeit auf sich gezogen. Als Ansatz skizziert diese Studie einen allgemeinen Rahmen, der auf menschlichen (oder Verbraucher-) Kontexten für die Entdeckung und Erstellung von Business Intelligence basiert. Drei Hauptteile werden besprochen. Zunächst wird die Sammlung menschlicher Kontexte, einschließlich Aktivitätsprotokollen sowohl in der Cyber- als auch in der physischen Welt, modelliert. Zweitens wurde die Datenanalyse über vorgeschlagene Bergbaualgorithmen durchgeführt, die die potenzielle Fusion auf verschiedenen Ebenen je nach Situation und Endzweck betreffen. Drittens wird dann die Erhaltung des entwickelten Modells konzentriert. Es wurde eine offene Plattform entwickelt, um den Evolutionsprozess von Menschmodellen zu unterstützen und Beiträge (z.;-;-;-;https://link.springer.com/article/10.1007/s11042-014-2387-2 f0c2c0f83607e6cc405939eebdca4c0f;de;;;2.3.;;;Bau des Smart Campus vor dem Hintergrund von Big Data Seit Beginn des 21. Jahrhunderts ist das Internet nicht nur in verschiedenen Industrienetzwerken weit verbreitet, sondern hat sich nach und nach auf alle Lebensbereiche der Menschen ausgeweitet. In den letzten Jahren wurde die auf Big Data basierende Internettechnologie auf den Campus ausgeweitet, was höhere Anforderungen an den Bau von Smart Campus gestellt hat. Cloud-Computing und Big-Data-Technologie sind typische Vertreter der Effizienz des Informationsbetriebs, und nach und nach entstehen neue Technologien. Dieses Paper basiert auf Big Data und Cloud Computing und forscht zum Bau eines Smart Campus. Der Zweck dieses Papiers ist es, die Konstruktionsstrategie eines Smart Campus Service Systems im Kontext von Big Data zu analysieren und Big Data-Technologie von einer tieferen Ebene aus zu analysieren und anzuwenden, um die Erweiterung des Anwendungsraums von Big Data zu unterstützen. Basierend auf dem umfassenden Vergleich bestehender Forschungsergebnisse schlägt dieser Beitrag ein Smart-Campus-Systemmodell basierend auf Big-Data-Analyse vor, um die Effizienz des Informationsbetriebs auf dem Campus zu verbessern. Die experimentellen Ergebnisse dieses Papiers zeigen, dass dieses Modell eine starke Fähigkeit hat, Daten zu speichern und zu verarbeiten und die gemeinsame Nutzung und den Aufbau von Ressourcen auf dem intelligenten Campus vollständig realisieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-51556-0_5 426e41651fa3666bdc5ade3a20a76850;de;;;2.3.;;;Evaluating Data Abstraction Assistant, eine neuartige Softwareanwendung zur Datenabstraktion während systematischer Übersichtsarbeiten: Protokoll für eine randomisierte kontrollierte Studie Die Datenabstraktion, ein kritischer systematischer Überprüfungsschritt, ist zeitaufwendig und fehleranfällig. Aktuelle Standards für Ansätze zur Datenabstraktion beruhen auf einer schwachen Evidenzbasis. Wir haben den Data Abstraction Assistant (DAA) entwickelt, eine neuartige Softwareanwendung, die den Abstraktionsprozess erleichtert, indem sie es Benutzern ermöglicht, (1) PDFs von Studienartikeln neben elektronischen Datenabstraktionsformularen anzuzeigen, die mit einem Datenabstraktionssystem verknüpft sind, (2) hervorzuheben (oder „pin“) die Position des Textes im PDF und (3) den relevanten Text aus dem PDF in das Formular kopieren. Wir beschreiben das Design einer randomisierten kontrollierten Studie (RCT), die die relative Wirksamkeit von (A) DAA-erleichterter Einzelabstraktion plus Verifizierung durch eine zweite Person, (B) traditioneller (nicht DAA-erleichterter) Einzelabstraktion plus Verifizierung durch eine zweite Person, und (C) traditionelle unabhängige duale Abstraktion plus Urteil zur Feststellung der Genauigkeit und Effizienz der Abstraktion.;-;-;-;https://link.springer.com/article/10.1186/s13643-016-0373-7 bbb06c37dbd1309ad16430e52ba289b0;de;;;2.3.;;;Forschung zum Lehrverhalten von Lehrkräften im Klassenzimmer moderner Berufsbildung Die moderne Lehre ist eine Kombination aus traditioneller Lehre und moderner Schulbildung. Es ist auch ein Berufsbildungssystem, das von Unternehmen und Schulen implementiert wird. In den westlichen Ländern, in denen die Berufsbildung hoch entwickelt ist, wurde die moderne Lehrlingsausbildung durch den Vorstoß nationaler Strategien weitgehend durchgeführt. In China hat das Bildungsministerium im August 2014 die Richtlinie „Pilot Implementation of Modern Apprenticeship“ herausgegeben, die das Zeichen dafür ist, dass die moderne Ausbildung im Land auf nationaler Ebene eingeführt wird. Am 5. August 2015 kündigte das Bildungsministerium die ersten Piloteinheiten des Landes für moderne Lehrlingsausbildung an, die 100 Berufsfachschulen umfassen. Mit der schrittweisen Vertiefung des modernen Lehrlingsausbildungssystems an den höheren Berufsschulen in unserem Land ist der Trend zur Entwicklung der modernen Lehrlingsausbildung unumkehrbar, und auch die Lehrerausbildung an den höheren Berufsschulen muss sich neuen Herausforderungen stellen. Welche Veränderungen hat sich vor diesem Hintergrund im Lehrverhalten von Berufsschullehrern im Unterricht der modernen Lehrlingsausbildung in China vollzogen? Wie ist ihr typisches Unterrichtsverhalten im Unterricht? Aus der Perspektive der berufsbildenden Hochschulpraxis vor Ort ist die Charakteristik des Lehrverhaltens von Lehrkräften in der modernen Lehrlingsausbildung zu beachten und zu erforschen. Diese Forschung verwendet qualitative Forschungsmethoden durch die nationale erste Charge des modernen Pilotlehrlingssystems in höheren Berufsschulen durch die zugehörige Lehrer-Tracking-Umfrage, und es wurde festgestellt, dass das Lehrverhalten von Lehrern in der modernen Lehrlingsausbildung drei Hauptkategorien umfasst, die präsentiert werden Verhalten, Dialogverhalten und Bewertungsverhalten. Inzwischen enthält jede Kategorie vier Arten von Lehrverhalten. Genauer gesagt umfasst das Präsentieren von Verhalten das Erzählen, Anschauen, Demonstrieren und Lehren anderer durch das eigene Beispiel. Das Dialogverhalten umfasst Fragen, Antworten, Berichte und ergänzende Antworten. Das Bewertungsverhalten umfasst Anleitung, Kontrast, Anwendung und Produktion. Es spiegelt die interne Konsistenz des Lehrverhaltens von Lehrkräften zwischen modernen Lehrklassen und anderen Unterrichtsklassen wider und spiegelt auch das Lehrverhalten von Sonderlehrkräften in modernen Lehrklassen wider. Gleichzeitig interessiert diese Studie zum aktuellen Präsenzunterricht an höheren Berufsschulen: das reale Projekt vorzustellen, die akademischen Fähigkeiten der Schüler mit Unternehmensstandard zu bewerten und die Autorität der fachlichen Fähigkeiten der Lehrer zu manifestieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9031-9_4 0ab5e02a638f6ee6ec67a0df5e321c2a;de;;;2.3.;;;Studie und Anwendung des Smart Car Control Algorithmus Die Geschwindigkeits- und Richtungssteuerung des eigenen intelligenten Autos ist der Kern des intelligenten Autosteuerungssystems. Um ein schnelles, stabiles und zuverlässiges Fahren auf einer anderen Strecke zu erreichen, sammelt das System die diskreten Weginformationen durch eine Reihe von photoelektrischen Sensoren, der digitale PID-Algorithmus und der indirekte PID-Algorithmus werden am Antriebsmotor und am Lenkgetriebe verwendet. Daher vermeidet das System die schrittweise Änderung der Richtungs- und Geschwindigkeitsänderung des intelligenten Fahrzeugs, eliminiert die Übersteuerung und Oszillation und erhält ungefähr einen kontinuierlichen Steuerungseffekt. Die Studie zeigt, dass der Kontrollalgorithmus einen schönen Selbstverfolgungseffekt auf der Schwarzweißspur (oder großen Farbunterschied) hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24097-3_23 9e74f005b2a65cdc1ee0a00dd9ff2a22;de;;;2.3.;;;Test und Bewertung eines differentiellen GNSS-Tracking-Geräts für Ski Alpin und Langlauf In diesem Papier wird die Notwendigkeit bewertet, eine Tracking-Technologie zu finden, die in alpinen Umgebungen angewendet werden kann und sowohl Langläufer als auch Abfahrtsläufer verfolgt. Die verwendete Technologie ist das differentielle Global Navigation Satellite System (DGNSS), eine hochpräzise Positionierungstechnologie. Das grundlegende GNSS verwendet mehrere Satellitennavigationssysteme und bietet immer eine gute Positionsabdeckung. Der Differentialteil erhöht die Genauigkeit durch die Verwendung einer genau vermessenen Referenzstation. Dadurch erhält das verfolgte Objekt ein Korrektursignal, das eine höhere Genauigkeit der Positionsdaten erhält. Die Technologie demonstriert die Fähigkeit, genaue Daten zu liefern, aber es besteht Bedarf, die Verwendung für die kontinuierliche Verfolgung eines Athleten zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-14526-2_3 c44259b8edbab80a5e8913e73e1b29c2;de;;;2.3.;;;Unscharfe Abhängigkeiten zwischen Bereitschaft und Lernergebnis Es gibt eine Vielzahl von Lernmanagementsystemen sowie intelligenten Nachhilfesystemen, die den heutigen Bildungsprozess unterstützen. Einige dieser Systeme hängen stark von der Verwendung und Wiederverwendung von Lernobjekten ab. Es wurde viel daran gearbeitet, Lernobjekte in Bezug auf ein bestimmtes Thema zu erstellen, zu speichern, zu klassifizieren und zu filtern. Ein beträchtlicher Teil der Forschung konzentriert sich darauf, den Prozess der Wiederverwendung bereits vorhandener Lernobjekte zu erleichtern. Diese Arbeit widmet sich der Untersuchung eines Entscheidungsprozesses im Zusammenhang mit der Empfehlung der am besten geeigneten Lernobjekte für jeden einzelnen Schüler.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-0221-4_63 2008edfe366e7b578b5157afd33f4249;de;;;2.3.;;;Bewertung der Verwendung von Fibrinkleber zum Verschließen von enterokutanen Fisteln mit niedrigem Output: Studienprotokoll für eine randomisierte kontrollierte Studie Das Management einer enterokutanen Fistel stellt Chirurgen vor große Herausforderungen und ist oft mit einem kostspieligen Krankenhausaufenthalt und langfristigen Beschwerden verbunden. Es hat sich gezeigt, dass die Verwendung von Fibrinkleber im Fisteltrakt den Verschluss von enterokutanen Fisteln mit geringem Output fördert. Unsere frühere, nicht randomisierte Studie zeigte, dass die Behandlung mit autologem plättchenreichem Fibrinkleber die Zeit bis zum Fistelverschluss signifikant verkürzt und die Verschlussraten erhöht. Es gibt jedoch mehrere Einschränkungen in der Studie, die zu einer Verzerrung unserer Schlussfolgerung führen können. Daher ist eine multizentrische, randomisierte, kontrollierte klinische Studie erforderlich.;-;-;-;https://link.springer.com/article/10.1186/s13063-015-0966-9 6d5f6f422885500ea52ba664e06d26a1;de;;;2.3.;;;Entwicklung eines Algorithmus zur Identifizierung maximal diverser Kernsammlungen Der Aufbau einer Kernsammlung, die die genetische Vielfalt einer Kulturpflanze mit minimaler Redundanz repräsentiert und den Nutzen der Sammlung insgesamt erhöht, ist besonders wichtig, da die Finanzierung für Keimplasmasammlungen sinkt. Mit begrenzten Ressourcen ist es schwierig, große Keimplasmasammlungen zu verwalten und genetisch vielfältiges Keimplasma an Pflanzenzüchter zu verteilen. Ein Algorithmus wurde entwickelt, um die Auswahl von Kernsammlungen basierend auf Schätzungen der genetischen Distanz zu unterstützen. Die Kriterien für die Auswahl des maximal genetisch unterschiedlichen Sets basierten auf Rangordnungen der genetischen Distanz zwischen einem Beitritt in Bezug auf alle anderen Beitritte. Abhängig von der von einem Benutzer gewünschten Kerngröße wurde eine Zone um jeden ausgewählten Zugang bestimmt und kein anderer Zugang innerhalb dieser Grenzen ausgewählt. Die Prämisse für den Algorithmus war, dass die im Kern dargestellte genetische Variabilität repräsentativ für die Verteilung der genetischen Distanzen innerhalb der interessierenden Population sein muss. In der vorliegenden Studie wurde der Algorithmus mit RAPD-Marker-basierten Schätzungen der genetischen Distanz für 270 . verwendet;-;-;-;https://link.springer.com/article/10.1023/A%3A1008784610962 caab291b5954680a5424a69f80e43c3b;de;;;6.4.;;;Auf der Welle der Globalisierung: Strategie und Erfolge von Epfl Die akademische Welt ist mehr denn je ein globaler Kampf um Talente, internationale Mobilität von Studierenden und Dozenten, Diversifizierung der Finanzierung sind einige der Hauptmerkmale dieses sich wandelnden Umfelds der Universitäten. Internationale Rankings blühen und tragen – trotz ihrer offensichtlichen Grenzen – zur Globalisierung und zum Wettbewerb bei.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-6091-355-6_9 2aa096164b0f15b11ec3f2ad1ce27873;de;;;6.4.;;;Das adaptive Feld im logischen Begriffsraum Mit der Definition des adaptiven Feldes können wir jeder möglichen Welt in der Modallogik eine besondere Bedeutung zuweisen. Auf diese Weise kann unsere Aufmerksamkeit auf bedeutsamere Welten oder auf den Vergleich zwischen zwei verschiedenen Welten gerichtet werden. Die Informationen sind eine der wichtigsten Quellen, die in der Lage sind, die logische Struktur von Informationen aufzuzeigen. Daraus ergibt sich ein Leitfaden zur Verwendung von Informationen. Es ist auch in der Lage, den Grad der enthaltenen Unsicherheit zu entdecken und zu messen. Der Raum der Welten ist daher in seiner Fähigkeit nützlich, Informationen in die wichtigen Teile zu unterteilen. Eine Zugänglichkeitsbeziehung besteht zwischen den höchstwertigen Welten in Bezug auf die am wenigsten bedeutsamen Welten. Logische Informationsmodelle sind unter Verwendung der adaptiven Felder möglich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-44401-5_8 e733a3d05cad8683ba2db6a94842b8e4;de;;;6.4.;;;Literaturhinweise aus der Wirtschaft in Patentdokumenten: eine Fallstudie zu Ladetechnologien für Elektrofahrzeuge Die Ausweitung der staatlichen FuE-Budgets zur Förderung der Einführung von Elektrofahrzeugen (EV) und der Entwicklung der Ladeinfrastruktur wird wahrscheinlich auch weiterhin eine Schlüsselkomponente der ökologischen Innovationspolitik sein. Unter Verwendung eines Originaldatensatzes von Nichtpatentliteratur (NPL)-Referenzen, die aus Patentdokumenten zu Ladetechnologien für Elektrofahrzeuge extrahiert wurden, liefert dieses Papier neue Beweise für die Wissensflüsse mit oder ohne wissenschaftlichen Beitrag aus der Wirtschaft. In diesem Beitrag werden drei Hauptfragen behandelt, um zu untersuchen, ob sich unterschiedliche Muster des Wissensflusses zwischen Beiträgen von Wissenschaftlern und/oder der Wirtschaft herausbilden Förderung weiterer Partnerschaften und Erschließung weiterer Investitionen in die Forschung. Erstens, welche Informationen erleichtern den Wissensfluss von der Wissenschaft zur Technologie? NPL-Referenzen mit Autoren aus der Wirtschaft haben im Durchschnitt eine geringere Anzahl von Patentzitierungen erhalten, und Universitäten nehmen nach wie vor den primären Ort der Wissensproduktion ein. Patente, die Firmenveröffentlichungen zitieren, haben jedoch einen besonderen Fokus auf Technologien rund um Bahnhöfe und Schienenfahrzeuge und haben im Vergleich zu anderen einen breiteren Umfang, eine größere Familiengröße, mehr Ansprüche und Weiterzitate als andere. Zweitens, gibt es Unterschiede zwischen den Arten von Autorenbeiträgen? Die Kooperationen von Unternehmen mit Hochschulen bei NPL-Referenzen tragen zu einem noch höheren Index bei, während die zwischen 2001 und 2005 veröffentlichten Patente mit Zitaten zu kollaborativen wissenschaftlichen Arbeiten aus der Wirtschaft weniger zitiert wurden als die anderen. Inwiefern sind Nichtpatentzitate schließlich relevant für die Übertragung von Patenten und Patentanmeldungen sowie für andere Ereignisse, die sich auf den Titel oder das Patenteigentum auswirken? Patente, die Firmenveröffentlichungen zitieren, haben im Allgemeinen weniger Aufgaben, aber im Durchschnitt mehr, und Patente, die gemeinschaftliche Werke zitieren, ändern sich eher in Titel oder Eigentum. Die Rolle der Firmenpublikation in einem technologischen Grenzbereich muss unter Berücksichtigung ihrer besonderen Relevanz sowohl für die Generierung angewandter Technologien als auch für den Technologietransfer, wie durch Patente zum Laden von Elektrofahrzeugen aufgezeigt, weiter untersucht werden.;-;-;-;https://link.springer.com/article/10.1007/s11192-020-03518-1 da2e5ed77544d224c8069b1042f4b526;de;;;6.4.;;;Automatisierte Generierung und Validierung von Multi-Agent-Simulationen Multi-Agenten-basierte Simulation (MABS) wird zunehmend für sozialwissenschaftliche Studien verwendet. Es gibt jedoch nur wenige Methoden und Werkzeuge. Ein starkes Thema ist die Wahl der Anzahl der Simulationsläufe und die Validierung der Ergebnisse durch statistische Methoden. In diesem Artikel schlagen wir ein Werkzeugmodell vor, das automatisch neue Simulationen generiert und ausführt, bis die Ergebnisse mithilfe eines Chi-Quadrat-Tests statistisch valide sind. Die Wahl der Testkonfiguration ermöglicht sowohl einen allgemeinen Überblick über die variablen Verknüpfungen als auch eine spezifischere Unabhängigkeitsanalyse. Wir präsentieren ein generisches Werkzeug für jede RePast-basierte Simulation und wenden es auf eine ökonomische Simulation des akademischen Arbeitsmarktes an.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25920-3_29 f57faff20b68033d2d9a686b31054c8a;de;;;6.4.;;;Einige gute Gründe für die agentenbasierte Modellierung in ökonomischen Analysen Ein agentenbasiertes Modell (ABM) ist ein formales Werkzeug für wissenschaftliche Untersuchungen. Wenn man sich mit einer unbekannten wissenschaftlichen Methode beschäftigt, lohnt es sich, mehrere Fragen zu stellen: Was ist das? Wie benutzt man es? Und vor allem, ist es nützlich?;-;-;-;https://link.springer.com/chapter/10.1057/9781137339812_1 e8cc714e7d34c26a90bb4d385a466b07;de;;;6.4.;;;Prognose des Studienerfolgs in den MINT-Fächern ausschließlich auf der Grundlage von Studienleistungen Wir präsentieren einen Ansatz zur Prognose des Studienerfolgs in ausgewählten MINT-Disziplinen (Informatik, Mathematik, Physik und Meteorologie), der ausschließlich auf den bisherigen Studienleistungen eines Studierenden basiert, ohne Zugriff auf demografische oder sozioökonomische Daten. Ziel der Analyse ist es, die Studienberatung zu verbessern, die für den Abschluss eines Studiums in einem der oben genannten Bereiche unerlässlich sein kann. Technisch zeigen wir den erfolgreichen Einsatz von Propositionalisierung auf relationalen Daten aus dem Bildungs-Data-Mining, basierend auf Standardaggregaten und grundlegenden LSTM-trainierten Aggregaten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-43823-4_51 9040468eb5dbf68f1e13685883b88988;de;;;2.3.;;;Studie zum Management- und Kontrollmodell des Cashflows in Unternehmen Die schrittweise Förderung und Umsetzung der finanziellen Transformation in Unternehmen hat ein perfekteres Kontrollumfeld und die Möglichkeit für die gesamte Verwaltung und Kontrolle des Cashflows und des Wertmanagements in Unternehmen geschaffen. Daher versucht dieses Papier, das Management- und Kontrollmodell des Cashflows in Unternehmen zu etablieren. Das Modell besteht aus zwei Teilen: dem strategischen Cashflow-Management und dem taktischen Cashflow-Management auf vier Ebenen: Betreiber, Manager, Überwacher und Entscheidungsträger. Seine Kerninhalte umfassen drei Teile: Strategische Planung von Cashflow und Cash-Value-Added (Ziel), „dreidimensionale“ Bilanz der Steuerung und Kontrolle von Cashflow und Cashflow-Budget (Prozess) und Leistungsbewertung des Cashflows (Ergebnis). Es ist ein vollständig in sich geschlossenes Feedback-System, das sich aus „Ziel-Prozess-Ergebnis“ zusammensetzt, und der physische Fluss des Unternehmens, der Informationsfluss und der Kapitalfluss liefern die Basisdaten für das Modell.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23020-2_3 f596453255e1ed93ab926637f115f0d3;de;;;6.4.;;;Ein kurzer Essay über das Wesen (und in) der Umweltpolitik Die Gestaltung der Umweltpolitik ist ein auf menschlichen Werten basierender Prozess, der auf der Produktion wissenschaftlicher Daten und Informationen sowie auf effektiver Unterstützung und Interessenvertretung beruht. Es ist immer im Wesentlichen ein politischer Prozess und beinhaltet immer Kompromisse zwischen Zielen und Auswirkungen. Es ist im Kern ein Designprozess – ein Design für menschliches Verhalten durch Governance-Institutionen für das Leben in einer biophysikalischen Umgebung, deren endgültige Konfiguration weitgehend von menschlichen Werten und Verhalten bestimmt wird. Diese Dissertation wird im Rahmen der allgemeinen Perspektive der „totalen Ökologie“ – biophysikalischer, menschlicher und institutioneller – von Umweltfragen untersucht.;-;-;-;https://link.springer.com/article/10.1007/s13412-014-0170-3 4f45e4d89c66cc82e78fa136f62ca989;de;;;6.4.;;;Projektion von Fuzzy-Wissen über Heute müssen wissensbasierte Systeme in der Lage sein, unvollkommenes Wissen zu modellieren und zu behandeln. Unter den Unvollkommenheiten des Wissens nennen wir Ungenauigkeit. Ungenaue Informationen werden in der Regel quantitativ mit Fuzzy-Logik oder qualitativ mit symbolischer Mehrwertlogik dargestellt. Soweit wir wussten, hat keine Arbeit gleichzeitig sowohl unscharfes als auch symbolisches mehrwertiges Wissen in demselben wissensbasierten System berücksichtigt. Der Benutzer benötigt jedoch häufig beide Datentypen, um eine relevante Entscheidungsfindung sicherzustellen. Um die Leistung von Entscheidungsprozessen zu verbessern, schlagen wir in diesem Beitrag einen Ansatz vor, der in der Lage ist, Input-Wissen zu standardisieren. Tatsächlich schlagen wir vor, a;-;-;-;https://link.springer.com/article/10.1007/s13369-018-3385-x 8c1972fdb85fad0e4a828b8f9cb23fa3;de;;;6.4.;;;Die Polywater-Episode und die Bewertung von Theorien Anstatt nur zu untersuchen, wie oft eine These über wissenschaftlichen Wandel bei wissenschaftlichem Fortschritt bestätigt wird, wäre es besser, sowohl zu untersuchen, wie oft die These bei wissenschaftlichem Fortschritt zutrifft, als auch wie oft sie bei wissenschaftlichen Fehlern zutrifft. (Für die Zwecke dieses Papiers ist ein „Fehler“ definiert als eine wissenschaftliche Behauptung, die zunächst von einem beträchtlichen Anteil von Fachleuten akzeptiert wird, sich jedoch als falsch erweist, bevor sie in die vorherrschende Interpretation des jeweiligen Forschungsgebiets integriert wird.) Daraus könnte man schließen, dass je höher das Verhältnis von Erfolg zu Misserfolg (aus der Gesamtzahl der erfolgreichen und fehlerhaften Episoden, in denen die These wahr war) desto größer ist die Berechtigung, die These als normativen Maßstab dafür zu bestätigen, wie gute Wissenschaft gemacht werden sollte . Das Hauptkriterium für die Auswahl einer Episode für diese Studie war, dass die Episode ein beispielhafter Fehler ist. Für die Zwecke dieser Studie hat die Polywater-Episode mehrere Vorteile gegenüber anderen Fehlern, die untersucht werden könnten: (a) Die Episode trat kürzlich genug auf, damit biografische und Zitationsdaten verfügbar waren, und (b) die Zahl der identifizierbaren beteiligten Wissenschaftler war größer als bei den meisten anderen Fehlern, die untersucht werden könnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-2855-8_9 f44cb879799a4a9265246a992966d76a;de;;;6.4.;;;Kontrollartefakte des Managements: ein befähigendes oder einschränkendes Instrument für Maßnahmen? Hinterfragen der Definition und Verwendung des Konzepts der Affordances aus einer Management-Kontroll-Perspektive Ziel der Soziomaterialität ist es, Praktiken in Organisationen zu untersuchen, indem gezeigt wird, wie sich Materielles und Soziales wechselseitig und konstitutiv formen (Orlikowski & Scott, 2008, Orlikowski, 2010, Leonardi, 2012). Aus dieser Perspektive ist ein Konzept von besonderem Interesse, wenn man die Rolle von Managementinstrumenten bei der Transformation der Aktivitäten einer Organisation untersucht: Affordances. Kurz gesagt, jedes Objekt bietet Handlungsangebote, die sowohl von seiner Materialität als auch von der Handlungswahrnehmung der Akteure abhängen. Das Konzept der Affordances hat sich jedoch nicht weit über das Feld der Informations- und Technologiestudien hinaus ausgebreitet, und sein Interpretationsspielraum ist noch offen für die Untersuchung der Rolle von Objekten in Organisationen. Das Ziel dieses Kapitels ist es daher, die Definition des Begriffs sowie seine potenzielle Verwendung und seinen Nutzen für den Bereich der Managementkontrolle zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1057/9781137432124_6 861b9a0a121f34fd7c6baee4b29d098f;de;;;6.4.;;;Eine Einladung zur kritischen Sozialwissenschaft von Big Data: von der kritischen Theorie und der kritischen Forschung bis zum Omniwiderstand Wie könnte eine Sozialwissenschaft von Big Data aussehen? In diesem Artikel veranschaulichen wir eine solche Sozialwissenschaft anhand einer Reihe von Fällen. Wir beginnen unsere Diskussion mit den epistemischen Qualitäten von Big Data. Wir weisen darauf hin, dass Big Data im Gegensatz zu den Big-Data-Champions weder neu noch ein fehlerfreies Wunder noch zuverlässig und rigoros ist, wie es von seinen Jubel-Führern angenommen wird. Zweitens identifizieren wir drei Arten von Big Data: Natural Big Data, Artificial Big Data und Human Big Data. Wir präsentieren und diskutieren, worin sie sich ähneln und was sie sonst noch unterscheiden. Die Annahme homogener Big Data führt in der Tat in die Irre. Drittens haben wir 3 Vs der Big Data erweitert und die Richtigkeit in Bezug auf andere Forscher und Verletzlichkeit hinzugefügt, was der aktuelle Vorschlag des Autors ist. Wir erklären, warum die Trinität von Vs nicht ausreicht, um Big Data zu charakterisieren. Stattdessen wird eine Quintinität vorgeschlagen. Viertens entwickeln wir eine ökonomische Analogie, um die Begriffe Datenproduktion, Datenkonsum, Datenkolonialismus, Datenaktivismus, Datenrevolution usw. zu diskutieren. In diesem Zusammenhang erklären wir mit einem marxistischen Ansatz, was wir unter Datenfetischismus verstehen. Fünftens reflektieren wir die Auswirkungen des Aufwachsens mit Big Data und bieten ein neues Forschungsgebiet an, das als Entwicklungspsychologie von Big Data bezeichnet wird. Schließlich skizzieren wir Datenresistenz und den neu vorgeschlagenen Begriff der Omniresistenz, d. h. Widerstand überall und zu jeder Gelegenheit gegen den großen Bruder, der uns überall und überall beobachtet.;-;-;-;https://link.springer.com/article/10.1007/s00146-018-0868-y 2c65b97b09cbdab8eef1468df6912333;de;;;2.3.;;;Die Nutzung von Google Apps-Diensten in der Hochschulbildung Google Apps wird als eine der Cloud-Computing-Anwendungen immer beliebter und kann im Bildungsbereich effektiv für die Kommunikation zwischen akademischen Mitarbeitern und ihren Studenten eingesetzt werden. In diesem Papier wird über die Verwendung von Google Apps-Diensten für die Hochschulbildung berichtet. Es untersucht die Nutzung von Google Apps-Diensten (Mail, Docs/Drive, Kalender und Sites) als Paket unter den Mitarbeitern der Informationsabteilung selbst und die Nutzung des Google Apps-Dienstpakets zwischen akademischen Mitarbeitern und ihren Studenten an der akademischen Einrichtung ABC. Die Untersuchung zielt darauf ab, herauszufinden, ob es einen signifikanten Unterschied bei der Nutzung der Google Apps-Dienste durch das IT-Personal und ihre Studenten gab. Das Ergebnis zeigt, dass trotz der häufigen Nutzung des Google Apps-Dienstleistungspakets durch IT-Mitarbeiter die Nutzung derselben Gruppe mit ihren Schülern weniger als normal war. Die Ergebnisse zeigen auch, dass die Unterschiede signifikant waren. Die Analyse der Ergebnisse zeigt, dass es Faktoren gibt, die zu den Unterschieden beitragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10671-7_9 aa51f0c31032d7f8923e082ccaf2e36d;de;;;2.3.;;;Auf dem Weg zu einem Service Broker für die Bereitstellung und Verhandlung von Telekommunikationsdiensten im IMS-Netzwerk Die Welt der Telekommunikation durchläuft einen rasanten Wandel beim Design und der Entwicklung von Anwendungen. Telekommunikationsbetreiber sind zunehmend gezwungen, das Portfolio der verfügbaren Dienste zu diversifizieren, um die Kundenbindung sicherzustellen. Tatsächlich hat das Geschäft des Betreibers das Angebot der traditionellen Telefonie weit übertroffen, um sich für die anspruchsvollsten Dienste zu öffnen. Zu diesem Zweck ist das IP Multimedia Subsystem (IMS) seit mehreren Jahren ein wichtiger Arbeitsaufwand der 3GPP (3rd Generation Partnership Project) Standardisierungsgremien. Der Erwerb von Diensten durch die Betreiber verlangsamt jedoch die Entwicklung der angebotenen Dienste aufgrund der Integrationsschwierigkeiten und der Verhandlungsprobleme. In diesem Beitrag schlagen wir einen neuen Verhandlungsansatz vor. Die Idee ist, einen Service Broker einzurichten, der in der Lage ist, das beste Angebot des Dienstes zu suchen und das Service Level Agreement (SLA) zwischen Service Provider, Netzbetreiber und Kunde durchzuführen. Um eine transparente Kommunikation auf allen Ebenen zu gewährleisten, wird konsequent das NGOSS (New Generation Operations Systems and Software) Framework verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-1627-1_21 191a71df17c4b087dd7c21eb900cbdb1;de;;;2.3.;;;Analyse des Graukorrelationsgrades zur Betriebsleistung des börsennotierten Unternehmens in China Um die Stärken und Schwächen des Unternehmens aufzudecken, identifizieren Sie die wichtigsten Finanzindikatoren, die die operative Leistung beeinflussen, und bewertet die Leistung jedes Unternehmens. Durch eine graue Korrelationsgradanalyse wählte ich 18 Finanzindizes aus und reflektierte umfassend die operative Leistung des börsennotierten Unternehmens in sechs Punkten: Rentabilität, Solvabilität, Vermögensverwaltung, Wachstumskapazität, Kapitalausweitung und Cashflow. Die operative Leistung der 14 börsennotierten Gesellschaft unseres Landes wird einer umfassenden Auswertung und Sortierung unterzogen. Von der Analyse bis zu den Bewertungsergebnissen erhalten wir, dass die touristische Betriebsleistung des börsennotierten Unternehmens keine Unterschiede in Bezug auf den grauen Korrelationsgrad aufweist, das Potenzial der Branche weiter erschließen muss, auch nach der Analyse eines einzelnen Index genügend Gründe für eine unzureichende Betriebsleistung finden, die die Betriebsleistung beeinflusst die graue Korrelationsgradanalyse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23020-2_16 4206f20cb170105b1731dac1f970332b;de;;;2.3.;;;GIS-basierte Forschung und Praxis zur Verbesserung des kommerziellen Netzwerkmanagements In Bezug auf Anwendungsanforderungen für das kommerzielle Netzwerkmanagement diskutierte dieses Papier die Machbarkeit von GIS zur Verbesserung des kommerziellen Netzwerkmanagements und verwendete GIS-Technologie zur Verbesserung der traditionellen Anwendungsmodelle des Unternehmensnetzwerkmanagements. Nach diesen Modellen wurde ein GIS-basiertes kommerzielles Netzwerkmanagementsystem entwickelt , und die praktische Anwendung des Systems zeigen, dass das System die Effizienz des Netzwerkmanagements verbessern kann und wissenschaftlich ist und einen wichtigen Wert in Anwendungen hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23993-9_32 110b6217cd2bcf2b80f162f1993e9773;de;;;2.3.;;;Die Anwendung der Telemedizin-Technologie Ausgehend von der Entwicklung der Telemedizin in den USA und Europa stellt der Artikel die Geschichte und die aktuelle Situation der Entwicklung der Telemedizin vor. Die derzeitige Telemedizin umfasst hauptsächlich: Telekonsultation, Telediagnose, Tele-Education, Telecare und Telemedical Car usw. Telemedizin kann in der häuslichen Pflege, Seemedizin, Notfallbehandlung und Militär usw einige Schlüsseltechnologien der Telemedizin. Die Technologien, die in der Telemedizin verwendet werden, haben sich allmählich von der Ferndiagnose mit einem einzigen Fernsehmonitor oder Telefon zur Übertragung von Zahlen, Bildern und Lauten über mobile Kommunikationsgeräte, kabelgebundene und drahtlose Netzwerke gewandelt. Gleichzeitig sind Überwachungsgeräte, alle Arten von Vitalparametermonitoren und drahtlose Sensoren kleiner und tragbarer geworden. Der Forschungsschwerpunkt im Bereich der Telemedizin ist das tragbare biomedizinische Instrument. Obwohl es einige Probleme gibt, wie zum Beispiel unzureichendes Verständnis, hohe Kosten, geringe Genauigkeit und Privatsphäre, hat die Telemedizin die Vorteile von Zeit und Raum und löst effektiv das Problem der irrationalen Zuweisung medizinischer Ressourcen und des Ungleichgewichts des medizinischen Niveaus.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_420 c3da29520326bb66c5b1be35757a4366;de;;;2.3.;;;Fortschrittliche Sichtverschmelzung im Requirements Engineering: eine theoretische Nachbildung und erklärende Studie Im Vergleich zum Aufbau einer einzelnen Anforderungsansicht verbessert die Modellierung von Stakeholder-Ansichten und ihre anschließende Zusammenführung das Verständnis der Problemdomäne, ist aber auch sehr zeitaufwändig. Wie hat sich die Situation verändert? Dieses Papier berichtet über unsere Replikation einer Fallstudie, in der wir die theoretische Replikation nutzen, um eine der Bedrohungen des ursprünglichen Studiendesigns zu mindern und einen wichtigen sich entwickelnden Faktor zu berücksichtigen, nämlich die automatisierte Werkzeugunterstützung für die Produktion;-;-;-;https://link.springer.com/article/10.1007/s00766-017-0271-0 b0862435cc98d3010de1b4d1d4a8add6;de;;;2.3.;;;Ansatz zur Sicherstellung der Fragmentierung und Integrität von Daten in SEDuLOUS Mit der schnellen Einführung von Cloud-Diensten werden immer mehr Daten auf die Cloud-Plattform hochgeladen. Diese Daten werden von verschiedenen Bedrohungsakteuren bedroht, die ständig nachforschen, um die Daten zu stehlen, zu korrumpieren oder die Kontrolle über sie zu erlangen. Die Bedrohungsakteure sind nicht nur auf böswillige Angreifer beschränkt, sondern umfassen auch neugierige Dienstanbieter, soziale Aktivisten, Wirtschaftsunternehmen und Nationen. Sie stellen ein ernsthaftes Risiko für Cloud-Dienste dar. Es gibt verschiedene Ansätze zum Schutz von Daten auf verschiedenen Ebenen. Division und Replikation ist ein solcher Ansatz, bei dem Daten in Blöcke aufgeteilt und über die Cloud verteilt werden, um das Risiko von Datenverlusten zu reduzieren und gleichzeitig die Zugänglichkeit zu erhöhen. Unter dem Divisions- und Replikationsansatz bietet SEDuLOUS einen heuristischen Algorithmus für die Datenplatzierung in einer verteilten Cloud-Umgebung. In dieser Forschungsarbeit haben wir eine umfassende Analyse zu Cloud-Datenspeicherdiensten und damit verbundenen Sicherheitsproblemen, eine Analyse des SEDuLOUS-Algorithmus und eine Methodik zur Verbesserung des SEDuLOUS durch Angabe von Mindestfragmenten bereitgestellt, um die Fragmentierung aller Dateien und Hashing jedes Chunks zur Identifizierung kompromittierte Speicherknoten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0733-2_61 eac2e42624d14f0074172dbf255b6bcb;de;;;6.1.;;;Datenerfassung und Datenaustausch für CAFMFM benötigt verlässliche Informationen, um erfolgreich betrieben werden zu können. Informationsmanagement im FM dient der Bereitstellung von Informationen mit korrektem Inhalt, mit ausreichendem Umfang und Detailliertheit, in der erforderlichen Form, zum rechten Zeitpunkt und am richtigen Ort. Die im FM benötigten Informationen dienen vorwiegend der Konzeption und Planung, der Unterstützung von Entscheidungsprozessen, der Aufgabenlösung und -abwicklung sowie dem Controlling.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-08041-2_7 22aecfed4931d509c4e54a7c0df30700;de;;;6.1.;;;Informationsmanagement: Einsatz und Nutzung Interner und Externer Datenbanken in OesterreichDie stetig wachsende Informationsflut macht jedem klar, dass es so nicht weitergehen kann. Wir koennen nicht auf Vorrat Information verbrauchen sprich lesen und erwarten, im Bedarfsfall optimal ausgeruestet zu sein. Information wird zum vierten Produktionsfaktor neben Mensch, Kapital sowie Grund und Boden. Die Art Daten zu recherchieren, zu sammeln, aufzubereiten und zu verwerten, ist eine Managementaufgabe.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-71384-2_24 1f0dacf65fd4f4177e5a2a87becdc286;de;;;6.1.;;;Organisation und InformationsmanagementSobald mehrere Menschen an einer gemeinsamen Aufgabe zusammenarbeiten, bedarf es irgendeiner Form von Organisation. Sie definiert, über welche Instanzen, Abteilungen oder Stellen eine sinnvolle Arbeitsteilung erreicht werden kann und in welchen Beziehungen alle Beteiligten miteinander stehen. Die Organisation ist also kein Selbstzweck, sondern ein Mittel zum Erreichen der gesteckten Unternehmensziele, mit dem sich das gesamte persönliche Know-how und alle Sachmittel optimal koordinieren lassen. Die Besonderheiten der Leistungserstellung der Banken verschärfen dabei die organisatorische Aufgabenstellung: Eine eindeutige Aufspaltung in Produktion und Absatz ist bei Banken kaum möglich, auch eine Lagerhaltung, wie wir sie von Industrieunternehmen kennen, entfällt. Und obwohl „Geld“ der Geschäftsgegenstand der Banken ist, steht es den Instituten selbst nicht unbegrenzt zur Verfügung — auch sie müssen rechnen!;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-93187-0_12 b2a8045fc72b69f7f5f7eb50e8dfde47;de;;;6.1.;;;Erlösformen für Web-Content und -ServicesIn diesem Artikel werden verschiedene Erlösformen für den Handel mit Web-Content und -Services vorgestellt, bewertet und miteinander verglichen. Ziel des Artikels ist es, auf der einen Seite Anbietern von digitalen Produkten und Dienstleistungen Möglichkeiten aufzuzeigen, wie sie Einnahmen erzielen können, und auf der anderen Seite WWW-Nutzer darauf einzustellen, dass und in welcher Form sie in Zukunft für den Zugriff auf qualitativ hochwertige Web-Inhalte und -Leistungen bezahlen werden müssen.;-;-;-;https://link.springer.com/article/10.1007/s00450-003-0142-4 5f1b105a7ac64a806badf7bacab92529;de;;;6.1.;;;Der neue OGC-Standard GeoPackage — Ein Vergleich mit einer Auswahl bereits etablierter StandardsGeodaten spielen heute bei schätzungsweise mehr als achtzig Prozent aller Projekte, Prozesse und Entscheidungen in Wirtschaft, Verwaltung, Wissenschaft und Politik eine wichtige Rolle. Mit dem hohen Aufkommen an Geodaten ist es wichtig, diese geeignet zu verwalten und passende Schnittstellen für einen Datenaustausch zu finden. Geeignete Lösungen wurden mithilfe von Geodatendiensten, die eine Internetverbindung voraussetzen, bereits geschaffen, jedoch existiert noch kein Standard für den dateibasierten Austausch, der mit GeoPackage vergleichbar ist. Im Rahmen einer Masterarbeit hat sich anhand einer Untersuchung mit Testdatensätzen (ALKIS-Daten und ein Digitales Orthophoto) vom Bayerischen Landesamt für Digitalisierung, Breitband und Vermessung München (LDBV) herausgestellt, dass GeoPackage bedingt als Alternative zu Shapefile beziehungsweise GeoTIFF geeignet ist.;-;-;-;https://link.springer.com/article/10.1007/BF03545252 109a47fdba8d9d7f98ae6b979c9080a7;de;;;6.1.;;;e-science in den Geo- und UmweltwissenschaftenDie Geo- und Umweltwissenschaften arbeiten heute in großem Maße und entlang des gesamten Forschungsprozesses digital: Von der Beobachtung, Erfassung und kontinuierlichen Messung der Umweltphänomene mit unterschiedlicher Sensorik über die Analyse dieser Beobachtungsdaten und Erstellung von Modellen und Simulationen zum Verständnis oder der Vorhersage von Umweltprozessen, der Synthese von Daten verschiedener Quellen zur Beschreibung und Bewertung von Umweltveränderungen bis hin zur Publikation der Ergebnisse als wissenschaftliche Beiträge, Empfehlungen oder interaktive Visualisierungen. Allerdings gibt es viele Brüche in den Arbeitsprozessen und vielfache Hemmnisse für ein kollaboratives, auch interdisziplinäres wissenschaftliches Arbeiten im Sinne von e-science. Hier skizziert der Beitrag aktuelle Entwicklungsstände, derzeitige Forschungsansätze und verbleibende Herausforderungen für Informatik und Geoinformatik. ;-;-;-;https://link.springer.com/article/10.1007/s00287-018-01138-x f45cb3600539b98bcb73252cf02d0ed8;de;;;6.1.;;;Prozess- und Data Governance als strategischer Ansatz zur Verbesserung der Prozess- und Datenqualität in UnternehmenDas Stammdatenmanagement steht unter Druck, den geleisteten Beitrag zum Unternehmenserfolg aufzuzeigen. Der Wertbeitrag von Stammdatenmanagement (MDM — Master Data Management) ist meist nicht oder nur indirekt erkennbzw. bestimmbar. Dieser Herausforderung hat sich das »Product and Master Data Management Centre« (PMDMC) angenommen. Mit einem Prozess- und Data-Governance-Ansatz soll der Wertbeitrag von Stammdaten in direktem Zusammenhang mit den Geschäftsprozessen ermittelt werden. Ziele sind die Schaffung von mehr Transparenz, die Analyse der Wirkungszusammenhänge zwischen Stammdaten und Geschäftsprozessen sowie die Nutzung von Standards am Beispiel des Klassifikationsstandards eCl@ss.;-;-;-;https://link.springer.com/article/10.1007/BF03340590 92425c33785609eb1efaa0b544381f16;de;;;6.1.;;;Data-Management-Plattform (DMP) – Daten sammeln und managenIm Rahmen des Online-Marketings entstehen immer mehr Daten aus verschiedenen Quellen, die von einem Unternehmen so bewältigt werden müssen, dass sie noch auswertbar sind, einzelnen Nutzer zugeordnet werden können und anschließend für Werbemaßnahmen zur Verfügung stehen. Das wird mit einer Data-Management-Plattform (DMP) erledigt. Welche Daten in einer DMP gespeichert werden können und wie diese dann gezielt genutzt werden können, wird in diesem Kapitel beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-18453-7_15 a3b56bfc2493d68d2b06ab0f8f6491a9;de;;;6.1.;;;Master Data Management und Service-orientierte Architekturen – eine symbiotische BeziehungIn den letzten Jahren hat sich die Diskussion um den Nutzen von IT für Unternehmen zunehmend in Richtung der Argumentation verlagert, dass es nicht die IT an sich, sondern deren Anwendung bei der Umsetzung von Geschäftsprozessen ist, die einen Unterschied für die Wertschöpfung eines Unternehmens ausmacht. Mit steigendem Anteil der IT an der Wertschöpfung, wachsen auch die Anforderungen für Flexibilität und Agilität an IT-Systeme und Anwendungen, denn es sind vor allem die Umsetzungsgeschwindigkeit und die Fähigkeit, auf Änderungen des Markts und des Geschäftsmodells zu reagieren, die wettbewerbsdifferenzierend wirken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-8737-2_13 54ce22f0a0fd01886e2cbbe773743292;de;;;6.1.;;;Interactive deductive data management — the Smart Data Interaction packageWhat function does a general-purpose interactive data manipulation package need to provide, and how complex does it have to be? The development of data base software has given no definitive answer to this question. The commercial packages developed during the first two decades of data base technology kept growing in size and typically require medium sized or large computers, but in recent years the proliferation of personal computers has spawned a generation of data manipulation packages that fit into half a Megabyte of memory and operate off floppy disks.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-70840-4_16 110fccc52183c368f84ec6b5b1c19045;de;;;6.1.;;;NachrichtenagenturenOhne Nachrichtenagenturen würde das weltweite Mediensystem in der heute bekannten Form nicht funktionieren. Unabhängig von der jeweiligen Medienlandschaft und Meinungsfreiheit sind Print, Rundfunk, TV und Online-Medien darauf angewiesen, permanent verlässliche Informationen über politische Ereignisse, wirtschaftliche Kennzahlen oder auch Naturkatastrophen zu beziehen. Nachrichtenagenturen sammeln, überprüfen und bearbeiten solche Informationen, um diese dann weiterzuverbreiten. Doch ihr Geschäftsmodell gerät mit dem Medienwandel zunehmend unter Druck. Sie versuchen immer stärker, Kunden außerhalb des klassischen Feldes tagesaktueller Medien zu gewinnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-09560-4_31 be8244d1eaebf58de561bfb0761781ff;de;;;6.1.;;;Einsatzpotenziale von XML in Business-Intelligence-SystemenThis article describes the actual applications of XML in the context of Business- Intelligence-Systems (BI). The potentials and synergies of XML and BI will be emphasized.;-;-;-;https://link.springer.com/article/10.1007/BF03250991 00f9152def02d932cf73944ebffedf89;de;;;6.1.;;;Data Management System II (DMS II)Der Ausdruck “Datenbank” hat heute in der Industrie viele zum Teil voneinander sehr abweichende Bedeutungen. Im Sinne von DMS II ist eine Datenbank eine Sammlung von zusammengehörigen Daten, wobei Speicherung der Daten und Zugriff auf die Daten durch Systemsoftware durchgeführt wird. Für diese Aufgaben-Speicherung und Zugriff — ist daher keines der Benützerprogramme verantwortlich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-41567-2_9 3f3e025bd4976754deeae2f129706576;de;;;6.1.;;;Überblick: Social Media-Dienste, Funktionen, FormateWas sind die wichtigsten Plattformen für Social Media? Was sind die technischen Besonderheiten der einzelnen Dienste? Welche Stilformen und Formate sind dort besonders erfolgreich? Und was muss beim journalistischen Einsatz bedacht werden? Wer professionell bloggt, twittert oder auf Facebook unterwegs ist, muss die technischen Möglichkeiten dieser Plattformen kennen und seine Inhalte gezielt an diese anpassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-07359-6_3 56e5748e09dbdb6358e9e5f124a4a558;de;;;6.1.;;;Cloud to Cloud Integration im IoT UmfeldDas Internet of Things (IoT) ist ein wichtiger Baustein bei der Digitalen Transformation von Unternehmen und ein stark wachsender Markt. In dem Zeitraum von 2015–2025 wird laut einer Studie von IHS Technology eine Verfünffachung auf 75 Mrd. IoT-fähige Geräte erwartet. McKinsey beziffert den entsprechenden Markt für 2025 auf 11 Billionen US-$. Schon heute gibt es eine Vielzahl von Anbietern und Plattformen, die mit jeweils unterschiedlichen Kernkompetenzen einen Einstieg in das Themenfeld IoT bieten. Um Unternehmen spezifische Lösungen für deren konkrete Anwendungs- und Geschäftsprozesse zu bieten, gilt es die verschiedene Plattformen mehrwertbringend zu verknüpfen und so ein integriertes Gesamtsystem bereitzustellen. Eine vielversprechende Lösung für diese Problemstellung bietet die Cloud to Cloud Integration zwischen den verschiedenen Anbietern und Plattformen.;-;-;-;https://link.springer.com/article/10.1365/s40702-019-00565-y 9c91b27e16bc83086a47b5dbd92ec431;de;;;6.1.;;;Föderatives Identitätsmanagement am Beispiel der elektronischen FallakteFür Krankenhäuser sind Anwendungen für kooperativ angelegte Behandlungsprozesse wesentliche Werkzeuge um einen zeitnahen einrichtungs- und sektorübergreifenden Austausch patientenbezogener medizinischer Daten zu gewährleisten. ;-;-;-;https://link.springer.com/article/10.1007/s00287-007-0164-6 6c24267119cb2be151f59f2a0dc62b71;de;;;6.1.;;;Social Intranets als Grundlage für die interne Unternehmenskommunikation und ZusammenarbeitEffektive Zusammenarbeit ist in der heutigen Zeit für erfolgreiche Unternehmen unverzichtbar. Besonders für international tätige Unternehmen kann ein Social Intranet die Erreichung der Unternehmensziele unterstützen sowie die Zusammenarbeit zwischen den Mitarbeitern vereinfachen. In diesem Beitrag wird speziell auf die interne Unternehmenskommunikation und Zusammenarbeit der Mitarbeiter eines internationalen Konzerns eingegangen. Ziel ist es, anhand theoretischer Betrachtungen und der innerhalb der Deutschen Telekom AG durchgeführten Studie zu deren Social Intranet namens „you and me“, Aussagen zur Wirksamkeit und Empfehlungen für die Gestaltung von Social Intranets abzuleiten.;-;-;-;https://link.springer.com/article/10.1365/s40702-019-00564-z 9ebb64fca0ca2d1290096e557b961f46;de;;;6.1.;;;Graphik-COM: Computer-Output-Microfilm, der direkte Weg vom CAD-System in ein MikrofilminformationssystemEs handelt sich bei der Graphischen Datenverarbeitung darum, analoge Zusammenhänge auf digitalen Rechnern zu erzeugen und auf geeigneten Geräten sichtbar zu machen. Die Abbildungen 1,2,3 und 4 geben einen kleinen Überblick über die vielfältigen Möglichkeiten der GDV. Alle gezeigten Abbildungen wurden auf Digitalrechnern erzeugt, auf Mikrofilm-Plottern ausgegeben und für diese Wiedergaben vergrößert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-73373-4_7 4f1cf8062c3a695250fb24e97f78907e;de;;;6.1.;;;Integration wirtschaftlicher und technischer Komponenten in CIM-SystemenViele Produktionsunternehmen sind heute gezwungen, Produkte herzustellen, die individuellen Kundenwünschen entsprechen, wodurch die Anzahl der zu verarbeitenden Produktvarianten enorm ansteigt. Durch den Einsatz von leistungsfähigen CIM-Softwarekomponenten versuchen viele Unternehmen, die Verarbeitung der entstehenden großen Datenmengen zu bewältigen. In vielen Fällen sind heterogene EDV-Landschaften entstanden, in denen jede Softwarekomponente seine eigene Datenbasis verwaltet. In diesem Artikel wird eine Möglichkeit gezeigt, wie mittels eines Regelsystems einerseits die Menge der Produktdaten deutlich verringert werden kann und andererseits der Datenaustausch zwischen verschiedenen Komponenten automatisiert werden kann. Dadurch wird die Integration insbesondere der wirtschaftlichen und technischen Komponenten in CIM-Systemen wesentlich verbessert.;-;-;-;https://link.springer.com/article/10.1007/BF03159040 f6ea6b60c05af9f4ee18c7a54f213185;de;;;6.1.;;;Die Koordination von Supply Chains — eine transaktionskostentheoretische UntersuchungDas Supply Chain Management stellt hohe Anforderungen an die Koordination von Transaktionen. In der Literatur existieren zahlreiche heuristische Ansätze, welche entsprechende organisatorische Gestaltungsempfehlungen geben. Diese entbehren jedoch bislang einer theoretischen Fundierung. In diesem Beitrag wird daher mittels einer transaktionskostentheoretischen Analyse die Koordination von Supply Chains untersucht. Es zeigte sich, dass die Verwirklichung dieser Ansätze durch hohe Spezifität und Unsicherheit gekennzeichnet sind. Unter diesen Bedingungen empfiehlt die Transaktionskostentheorie die vertikale Integration. Diese Gestaltungsempfehlung steht allerdings im Widerspruch zur Flexibilitätsanforderung, welche sich aus Wettbewerbs- und Kundenanforderungen des SCM ableitet. Daher wird abschließend untersucht, ob der Einsatz von Informations- und Kommunikationstechnologien (IuK) Unsicherheit und Spezifität reduzieren kann.;-;-;-;https://link.springer.com/article/10.1007/BF03371639 5dc23e0b368d8efc663085c67aede88d;de;;;6.1.;;;Neues Urheberrecht: Gesetz zur Angleichung des Urheberrechts an die aktuellen Erfordernisse der WissensgesellschaftDigitalisierung und Vernetzung haben in unserer Wissensgesellschaft die Möglichkeiten der Schöpfung, Verbreitung und Nutzung urheberrechtlich geschützter lnhalte erheblich verändert. Diesen Veränderungen wurden die bisherigen Bestirnmungen, insbesondere zugunsten von Unterricht und Forschung, durch das UrhWissG angeglichen. Das Gesetz fasst die Regelungen klarer, erweitert sie behutsam und sichert einen fairen Interessenausgleich. So kann sichergestellt werden, dass zeitgemäße Nutzungen nicht unterbleiben oder rechtswidrig geschehen.;-;-;-;https://link.springer.com/article/10.1007/BF03545343 573fb4f5b8cd5dfe2e5f2e913efea395;de;;;6.1.;;;Vernetzung von Unternehmen bei veränderten TransaktionskostenstrukturenDie Vernetzung von Unternehmen bzw. Geschäftseinheiten bezieht sich im Allgemeinen auf die personelle, organisatorische und technische Anbindung einzelner Entitäten, wobei menschliche Akteure im Vordergrund stehen. Die Abgrenzung dieser Kooperationsform von anderen ist Gegenstand des Kapitels 3.1. Die Entstehung netzwerkartiger Gebilde wird anschließend in Kapitel 3.2 durch veränderte Transaktionskostenstrukturen erklärt. In Kapitel 3.3 wird schließlich die These aufgeworfen, dass Informations- und Kommunikationstechnologie im Allgemeinen zu einer Veränderung von Transaktionskostenstrukturen in dem Sinne fuhrt, dass eine Vernetzung von Unternehmen wahrscheinlicher wird. Dieser für das Internet bereits hinlänglich dargestellte Trend wird somit hier zunächst einfach für Software-Agenten fortgeschrieben. Die hieraus resultierenden Anforderungen für das Management einer agentenunterstützten Vernetzung werden am Beispiel eines ausgewählten Problems, des Peitscheneffektes, in Kapitel 3.4 herausgearbeitet. Die detaillierte Analyse der Veränderung von Transaktionskostenstrukturen durch Software-Agenten im Speziellen wird sich dann in Kapitel 4 anschließen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-81684-9_3 82c5f4e13b73cc04305aa73e60971eaf;de;;;6.1.;;;Anleitung zur Selbstmedikation. LiteraturverwaltungDie Symptome sind eindeutig: Sie suchen unnötig lange nach einem Zitat, einem Text oder einer bibliografischen Angabe. Sie versinken in Kopien, die Sie zwar gelesen, deren Inhalt Sie jedoch schon wieder vergessen und nicht ausreichend ausgewertet haben. Sie bestellen dasselbe Buch oder denselben Aufsatz mehrfach und erleben erst in der fortgeschrittenen erneuten Lektüre Ihr ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-92386-4_29 6a3c6ff9b1ec3a0d2bd8a540a815c66d;de;;;6.1.;;;Strategische Optionen multinationaler Banken in der VR ChinaAls systemtheoretische Elemente des wettbewerbsstrategisch vermaschten Regelkreises wurden im einführenden Kapitel der Arbeit neben der Wettbewerbsanalyse auch der Wettbewerbsvorteil und die Wettbewerbsstrategie identifiziert. Aufgabe des folgenden Kapitels soll dementsprechend zunächst eine Systematisierung von denkbaren Wettbewerbsvorteilsdimensionen sein, die bei zielführender Realisierung ein gegenüber der Konkurrenz unverwechselbares Wettbewerbsprofil determinieren. Dabei wird festgestellt, daß die bisher in der Literatur vorgenommene Unterscheidung zwischen „Kosten“ und „Nutzen“ als primäre Wettbewerbsvorteilsdimensionen aufgrund der besonderen bankbetrieblichen Bedingungslage nicht ausreichend ist. Aus diesen Gründen wird eine Erweiterung der Wettbewerbsvorteilsdimensionen um das sog. „Perzeptionsresiduum“ vorgeschlagen, bei dem es sich um ein perzeptions- und qualitätsorientiertes Denkkonstrukt handelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-10848-1_5 c2826b0abba92d07c938eed8dfae0a19;de;;;6.1.;;;Datenhoheit im Cloud-UmfeldCloud-Technologien halten zunehmend Einzug in die Arbeits- und Lebenswelt des Einzelnen. Die Speicherung unter Nutzung von Virtualisierungstechniken entbindet einerseits von dem Erfordernis, individuelle Infrastrukturen vorzuhalten und eigene Datenschutz- und Datensicherungsmaßnahmen zu ergreifen. Andererseits kann der Datenaustausch „über die Cloud“ in Form von Freigabe- und Abruffunktionen die bestehenden Kommunikationsprozesse mit Behörden und Unternehmen nachhaltig erleichtern. Gerade der Privatanwender wird diese Möglichkeiten jedoch nur nutzen, wenn er sicher sein kann, „Herr seiner Daten“ zu bleiben. Die individuelle Datenhoheit ist also ein Kernelement, welches es sowohl technisch-organisatorisch als auch rechtlich zu erfassen und zu sichern gilt.;-;-;-;https://link.springer.com/article/10.1007/s11623-013-0025-1 171b8b33cb647e505d11512eaa7aed68;de;;;6.1.;;;OSS — Erscheinungsformen und systematische KategorisierungOpen-Source-Software (OSS) ist in vielfacher Hinsicht faszinierend. Sie ermöglicht die Vereinigung zwischen Wettbewerb und kollektivem Eigentum, die Integration des Produktnutzers in den Erstellungsprozess, die Beteiligung von einzelnen Programmieren ebenso wie das Engagement von großen Konzernen, die gleichzeitige Verfolgung von Wettbewerb und Kooperation sowie die Vereinigung von altruistischem Verhalten mit ökonomischem Nutzenkalkül.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17024-9_3 af2e5e1afca7d7bb7803913342739046;de;;;6.1.;;;Empirische Einblicke in die Funktion von EinkaufskooperationenDas nachfolgende Kapitel beschäftigt sich eingehender mit empirischen Einblicken in die Funktionsweise von Einkaufskooperationen. Ermittelt werden soll, in wie fern sich die bisherigen Einblicke zu Einkaufskooperationen durch empirische Erkenntnisse absichern und um das Phänomen der Komplexität erweitern lassen. Unter empirischer Forschung wird im Rahmen der hier vorliegenden Arbeit der Prozess zur systematischen Erfassung, Analyse und Interpretation von Daten verstanden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-25284-7_6 f8ab8e099951d7bad409aba181d279e6;de;;;6.1.;;;Kriterien zur Auswahl von Hard- und SoftwarePlant man EDV-Projekte, so hat es sich bewährt, die Auswahl von Hard- und Softwareprodukten anhand von sogenannten Pflichtenheften vorzunehmen. Hierbei handelt es sich um eine systematische Zusammenstellung von Kriterien, die bei der Auswahl berücksichtigt werden sollen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-91715-7_8 437208fc857d266de15191da449513be;de;;;6.1.;;;Vollautomatische Kalkulation desPflegeaufwandes auf einer OperativenIntensivstationTo evaluate prospectively, whether the TISS-28(Therapeutic Intervention Scoring System) and the NineEquivalents of Nursing Manpower Use Score (NEMS) can be equallyused to represent the nursing expense of an operative intensivecare unit (ICU).;-;-;-;https://link.springer.com/article/10.1007/s00390-004-0466-8 b5e293354ab9ca946ef0165724cae3ac;de;;;2.2.;;;Algorithmus zur Pipeline-Indizierung mit feiner Granularität für Multi-Core-Plattform Der Umfang und die Wachstumsrate der Textsammlung bringen neue Herausforderungen für die Indexkonstruktion mit sich. Um dieses Problem anzugehen, wird ein effizienter Indexierungsalgorithmus, die Fine Granularity Pipeline (FGP), vorgeschlagen, um die Indexierungsleistung für Multi-Core-Plattformen zu verbessern. Im Vergleich zum Simple Pipeline (SP)-Algorithmus sind Komprimierung und Parsing im FGP aufgeteilt, um ausgewogenere Pipeline-Stufen zu erhalten. Auswertungen für drei Sammlungen von Terabyte-Track im TREC 2011 über die Intel Woodcrest-Plattform zeigten, dass die Leistungsverbesserungen des FGP über 45 % und 17 % im Vergleich zur Indizierung in Indri 2.4 und dem SP mit drei Kernen betrugen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34038-3_61 ca9fbc992bcc154ececc3c56a41d9927;de;;;6.1.;;;Bedeutung und Nutzung von Patenten für die UnternehmensplanungKapitel 2 beschäftigt sich mit der Bedeutung und Nutzung von Patentdaten für Zwecke der Unternehmensplanung. Der Aufbau dieses Kapitels leitet sich aus den zwei fundamentalen Funktionen des Patentes ab: der Schutz- und der Informationsfunktion. Die Schutzfunktion des Patentes entsteht aus der Möglichkeit des Patentinhabers, Dritte von der wirtschaftlichen Nutzung des durch F&E generierten Wissens zumindest zeitweise auszuschließen. Die Durchsetzung des Ausschließlichkeitsprinzips ist eine wesentliche Voraussetzung für die Aufnahme industrieller F&E-Aktivitäten und steht daher im Mittelpunkt des Abschnittes 2.1. Dabei wird in Abschnitt 2.1.1 zuerst aus theoretischer Sicht erläutert, daß technisches Wissen die Eigenschaften eines öffentlichen Gutes aufweist und die Sicherung des Ausschließlichkeitsprinzips erst den notwendigen Anreiz schafft, um privatwirtschaftliche F&E-Aktivitäten zu betreiben. In Abschnitt 2.1.2 werden dann, neben dem Patentschutz, alternative Instrumente zur Sicherung des Ausschließlichkeitsprinzips diskutiert und ihre Bedeutung im Lichte empirischer Befunde aus der Literatur beurteilt. Die Informationsfunktion des Patentes entsteht aus der gesetzlichen Verpflichtung des Patentinhabers, das geschützte Wissen zu offenbaren. Dieses Wissen steht Dritten nach Ablauf einer bestimmten zeitlichen Frist zur Verfügung. Die Nutzung der in Patentschriften enthaltenen Informationen für Aufgaben der Unternehmensplanung steht im Vordergrund des Kapitels 2. Abschnitt 2.2 stellt verschiedene Möglichkeiten der Nutzung von Patentinformation für das Technologiemanagement dar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08839-4_2 c7d3897d354f291981023fba7ee43a90;de;;;2.2.;;;Parallele und speichereffiziente Reads-Indizierung für die Genommontage Da Genome, Transkriptome und Meta-Genome schneller denn je sequenziert werden, besteht ein dringender Bedarf an effizienten Methoden zur Genommontage. Zwei praktische Probleme bei der Assemblierung sind die hohe Speicherauslastung und die lange Ausführungszeit während der Leseindexierungsphase. In diesem Artikel wird eine parallele und speichereffiziente Methode für die Leseindizierung vor der Assemblierung vorgeschlagen. Insbesondere wird eine Hash-basierte Struktur entworfen, die eine reduzierte Menge an gelesenen Informationen speichert. Fehlerhafte Einträge werden während der Indexerstellung im laufenden Betrieb gefiltert. Eine prototypische Implementierung wurde entworfen und auf aktuelle Illumina-Short-Reads angewendet. Eine Benchmark-Auswertung zeigt, dass diese Indizierungsmethode deutlich weniger Speicher benötigt als die von gängigen Assemblern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31500-8_28 044c9172766eb0dd8a1236df2d8aeea5;de;;;6.1.;;;Architektur von AnwendungssystemenDieses Buch beschäftigt sich dem Titel nach mit Modellen, Methoden und Techniken für das Informationsmanagement. Eingegrenzt wird das Thema durch die Beschränkung der Betrachtungen auf den Entwurf, die Entwicklung und den Einsatz von computergestützten Informations- und Kommunikationssystemen zur Lösung betriebswirtschaftlicher Probleme. Dabei stehen Ziele der qualitäts-, kosten- und zeitgerechten Systemgestaltung im Vordergrund. Zu ihrer Erfüllung braucht man geeignete Modelle. Modelle werden mit Methoden erstellt und bearbeitet. Techniken sind Bestandteile von Methoden und werden von diesen benutzt. Der Schwerpunkt der Ausführungen liegt somit auf der ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-58621-7_1 fa3cfa4616fb02ef10d189c4b96c9888;de;;;2.2.;;;Indizierung zum Abrufen von Bildern: Ein auf maschinellem Lernen basierender Ansatz In diesem Papier untersuchen wir die Verwendung von maschinellem Lernen für die Multimedia-Indexierung und das Abrufen von einzelnen/mehreren Funktionen. Die Indizierung einer großen Bildsammlung ist ein gut erforschtes Problem. Maschinelles Lernen für die Kombination von Funktionen im Bildindexierungs- und Abruf-Framework wird jedoch nicht untersucht. In diesem Zusammenhang stellt der Beitrag eine neuartige Formulierung des multiplen Kernel-Lernens beim Hashing für die Multimedia-Indexierung vor. Das Framework lernt die Kombination mehrerer Merkmale/Modalitäten zum Definieren zusammengesetzter Dokumentindizes in einem auf genetischen Algorithmen basierenden Framework. Wir haben die Bewertung des Rahmens für einen Datensatz handschriftlicher Ziffernbilder demonstriert. Anschließend wird die Nützlichkeit des Frameworks für die Entwicklung zum multimodalen Abrufen von Dokumentenbildern untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37463-0_3 8d102023782bc1c4d53683af528a0657;de;;;2.2.;;;Eine Indizierungstechnik für ähnlichkeitsbasierte Fuzzy-Objektorientierte Datenmodelle Das objektorientierte Fuzzy-Datenmodell ist eine auf Fuzzy-Logik basierende Erweiterung des objektorientierten Datenbankmodells, die die explizite Darstellung unsicherer Daten ermöglicht. Eines der vorgeschlagenen objektorientierten Fuzzy-Datenbankmodelle basierend auf Ähnlichkeitsbeziehungen ist das FOOD-Modell. Im FOOD-Modell werden verschiedene Arten von Unschärfe behandelt, einschließlich Unschärfe zwischen Objekt/Klasse- und Klasse/Superklassen-Beziehungen. Die traditionellen Indexstrukturen sind für das FOOD-Modell für einen effizienten Zugriff auf die Objekte mit scharfen oder unscharfen Werten ungeeignet, da sie nicht effizient sind, um sowohl scharfe als auch unscharfe Anfragen zu verarbeiten. In dieser Studie schlagen wir eine neue Indexstruktur (den FOOD-Index) vor, die sich mit verschiedenen Arten von Unschärfe in FOOD-Datenbanken befasst und eine mehrdimensionale Indexierung unterstützt. Wir beschreiben, wie der FOOD-Index verschiedene Arten von flexiblen Abfragen unterstützt und die Leistungsergebnisse von scharfen, bereichsbezogenen und unscharfen Abfragen mithilfe des FOOD-Index auswerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-25957-2_27 927f18ee9a78f814b18fa49524a2fd5e;de;;;6.1.;;;Die erfolgreiche Einführung eines CRM-SystemsSchlagzeilen über Misserfolge von CRM-Systemen gibt es viele. Als künftiger User werden Sie mit zum Teil deftigen Aussagen aus der Analysten- und Beraterszene über Flops von solchen Projekten konfrontiert. Auch Klagen von CRM-Anwendern und Vertriebsmanagern sind immer wieder zu hören — und Untersuchungen aus den USA (zum Beispiel Gartner Group) kommen zu dem Ergebnis, dass rund 60 Prozent aller CRM-Projekte scheitern. Nach Analyseergebnissen der Forrester Group entsprachen nur 14 Prozent der CRM-Projekte den ursprünglichen Erwartungen. „Es gibt für Firmen keinen besseren Weg, Geld zum Fenster hinaus zu werfen, als sich Software für Marketing und Vertrieb zuzulegen”, behauptet in diesem Zusammenhang Chip Gliedman, Analyst der Marktforschungs- und Beratungsgesellschaft Giga Information Group, und beobachtet, dass weniger als die Hälfte der Anwender von Sales-Force-Automation-Lösungen einen positiven Effekt feststellten. Das Hauptproblem sieht Gliedman in der Akzeptanz der Anwender. Nur wenig tröstlich ist die Tatsache, dass sich alle Befragungsergebnisse auf den amerikanischen Markt beziehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-89528-8_8 6af4da6c1f24853ce24f4582ced32632;de;;;2.2.;;;Adaptives Rangindexierungsschema mit arithmetischer Codierung in farbindizierten Bildern In diesem Papier stellen wir die Neuindizierungsmethode bei der Indizierung von Bildern mit Rangfolge vor und schlagen zwei Algorithmen vor, um den Rang äquivalenter gezählter Werte in einer Reihe von Kookkurrenz-Zähltabellen zu bestimmen. Das Ziel aller Algorithmen besteht darin, die Leistung der verlustfreien Bildkomprimierung zu verbessern. Bei Verwendung dieser Algorithmen kann eine Komprimierungseffizienz mit höherer Datenredundanz erwartet werden, da die meisten Pixel in wenigen höheren Rängen enthalten sind. Nach der Simulation wird verifiziert, dass unsere vorgeschlagenen Algorithmen die Verbesserung des Kompressionsverhältnisses im Vergleich zu existierenden herkömmlichen Neuindizierungsalgorithmen zeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-37258-5_45 c296b2c9644943ea3183f0acfd207f9e;de;;;2.2.;;;Big Data Analytics: Partitionierte B+-Tree-basierte Indizierung in MapReduce Big-Data-Analyseplattformen wurden entwickelt, um die Leistung zu verbessern, indem sie den Ansatz der Extraktübertragungslast vermeiden. Außerdem gibt es Techniken, die bei der Leistungsoptimierung für relationale Datenbanken sehr gut funktioniert haben. Diese Techniken sind jedoch dabei, in Big Data Analytics integriert zu werden. Die Indizierung und ihre Datenstruktur ist ein Beispiel für solche Techniken. Trotz seiner Popularität in der Abfrageoptimierung für effizientes Data Mining wurde die Indexierung nicht in die MapReduce-Plattform integriert. Das MapReduce wurde so konzipiert, dass es einen vollständigen Scan der Eingabedaten durchführt. Allerdings gab es in den letzten Jahren Versuche, die Indizierung zur Performance-Verbesserung in MapReduce einzubinden. Diese Versuche haben jedoch die Möglichkeiten der Indizierung in der MapReduce-Abfrageverarbeitung noch nicht ausgeschöpft. Folglich stellt dieses Kapitel einen Indexierungsansatz vor, der den partitionierten B+-Baum als seine Datenstruktur verwendet, um die InputSplit-Komponente des verteilten Hadoop-Dateisystems zu indizieren. Dies wurde getan, um eine effiziente Data-Mining-Abfrageverarbeitung zu erreichen, wenn sie mit Hadoop MapReduce verwendet wird. Die Ergebnisse dieser Studie zeigten, dass die vorgeschlagene Indexmethode die Indexgröße sowie die Ausführungslaufzeit aller Suchanfragen für alle verwendeten Datengrößen im Vergleich zur Normal MapReduce-Verarbeitung und einem anderen Clustered-Index-Ansatz signifikant um mindestens 50 % reduziert hat . Somit hat die Verwendung des vorgeschlagenen Indexansatzes das Potenzial, den Zeitaufwand für Bergbaudaten innerhalb eines Datensatzes deutlich um die Hälfte zu reduzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-66288-2_9 ac9638aa1c529346aff0a46d1c2ac0fe;de;;;6.1.;;;Explorative Synthese: Anwendungspotential im InnovationsprozeßWie aus den bisherigen Darstellungen erkennbar ist, scheinen Multimediakonferenzen und Business-TV besonders geeignete Technologien für die Unterstützung des Innovationsprozesses zu sein, da Innovationsaufgaben häufig schwach- oder teilstrukturiert sind und meist dezentral bearbeitet bzw. (im Ergebnis) multimedial kommuniziert werden müssen. Damit hängt ihre Lösung in hohem Maße von der Qualität der Information, Kommunikation und Kooperation ab, die durch beide Technologien sehr gut vermittelt bzw. nachgebildet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-09274-2_6 c74e945f6b84470b597cd476e31acd05;de;;;2.2.;;;Indizierung gültiger Zeitintervalle Um temporale Operatoren zu unterstützen und die Effizienz von temporalen Abfragen zu erhöhen, ist eine Indizierung basierend auf temporalen Attributen erforderlich. Wir betrachten das Problem der Indizierung der zeitlichen Dimension in gültigen Zeitdatenbanken, in denen die zeitlichen Informationen von Datenobjekten als gültige Zeitintervalle dargestellt werden, die durch eine effiziente Indexstruktur dynamisch verwaltet werden müssen. Wir schlagen ein Indexierungsschema vor, das erweiterte B+Bäume verwendet, die als Intervall B+Bäume bezeichnet werden, um einen dynamischen Satz gültiger Zeitintervalle zu indizieren. Wir wenden Zeitteilungen auf Blattebene des IB+Baums an, die lange gültige Zeitintervalle in disjunkte Teilintervalle unterteilen und auf mehrere Blattknoten verteilen, um die Effizienz der Suchoperation zu erhöhen, insbesondere;-;-;-;https://link.springer.com/chapter/10.1007/BFb0054512 15600d265116d8c78247bac2d5ad8ed6;de;;;2.2.;;;Modellbasierte Videoklassifizierung in Richtung hierarchische Darstellung, Indizierung und Zugriff In diesem Papier entwickeln wir einen inhaltsbasierten Videoklassifizierungsansatz, um semantische Kategorisierung, hochdimensionale Indexierung und mehrstufigen Zugriff zu unterstützen. Unsere Beiträge umfassen vier Punkte: (a) Wir präsentieren zunächst ein hierarchisches Videodatenbankmodell, das die Strukturen und Semantik von Videoinhalten in Datenbanken erfasst. Ein Vorteil dieses hierarchischen Videodatenbankmodells besteht darin, dass es einen Rahmen für die automatische Abbildung von Konzepten auf hoher Ebene zu repräsentativen Merkmalen auf niedriger Ebene bereitstellen kann. (b) Als zweites schlagen wir eine Reihe nützlicher Techniken vor, um die Basiseinheiten (z. B. Aufnahmen oder Objekte) auszunutzen, um auf die Videos in der Datenbank zuzugreifen. (c) Drittens schlagen wir eine lernbasierte semantische Klassifikationstechnik vor, um die Strukturen und Semantiken von Videoinhalten in Datenbanken auszunutzen. (d) Wir entwickeln eine Cluster-basierte Indexierungsstruktur weiter, um sowohl die Abfrage pro Beispiel zu beschleunigen als auch Datenbanken zu organisieren, um ein effektiveres Browsen zu unterstützen. Die Anwendungen dieser vorgeschlagenen mehrstufigen Videodatenbankdarstellung und Indizierungsstrukturen für MPEG-7 werden ebenfalls diskutiert.;-;-;-;https://link.springer.com/article/10.1023/A%3A1014635823052 ac8cdd115a4654aa87d482b4d8519773;de;;;6.1.;;;Der Kinder- und Jugendgesundheitssurvey (KiGGS): DatenmanagementIm Rahmen des Kinder- und Jugendgesundheitssurveys (KiGGS) wurden erstmals umfassend und bundesweit repräsentative Daten zum Gesundheitszustand von Kindern und Jugendlichen in Deutschland erhoben. Im Laufe der 3-jährigen Erhebungsphase wurden 17.641 Probanden untersucht und befragt und ca. 1500 Items erfasst. Das Datenmanagement beschränkte sich nicht allein auf die Erfassung, Verwaltung und Qualitätssicherung der Erhebungsdaten, sondern ebenso auf die Bereitstellung von Werkzeugen zur Verwaltung und Kontrolle von Prozessdaten sowie zur Steuerung surveyspezifischer Geschäftsabläufe. Im Rahmen der KiGGS-Studie wurde eine Vielzahl von Komponenten zur Unterstützung der umfangreichen und komplexen Prozessabläufe für die Studienmitarbeiter entwickelt. Dies betraf in erster Linie die Aufgabenbereiche Probanden- und Sample-Point-Verwaltung, Terminplanung, Stichprobenziehung, Berichterstattung, Feldlogistik und Labordatenverwaltung. Die computergestützte Bearbeitung von Routineaufgaben im Rahmen der Feldorganisation führte zu einer deutlichen Arbeitserleichterung sowie zu einer verbesserten Projektablaufkontrolle. Teilweise konnten die KiGGS-spezifischen Komponenten mit minimalem Anpassungsaufwand bereits auf andere Studien übertragen werden. Beim Datenmanagement der Erhebungsdaten stand die Standardisierung der Verfahren ihrer Aufbereitung, Prüfung und Bereinigung im Vordergrund. Hier konnte auf einen breiten Erfahrungsschatz aufgebaut werden. Die etablierten Methoden zur Qualitätssicherung wurden weitgehend standardisiert und teilweise automatisiert und durch Datenbanktools zur Verwaltung und Dokumentation von Erhebungsinstrumenten und Qualitätssicherungsmaßnahmen ergänzt. Die Summe aller Maßnahmen ermöglichte es, den Datennutzern relativ schnell einen geprüften und bereinigten Enddatensatz einschließlich einer ausführlichen Dokumentation zur Verfügung zu stellen.;-;-;-;https://link.springer.com/article/10.1007/s00103-007-0217-7 43bd96f4df9b4e10cdd2102d011a6b14;de;;;6.1.;;;Process Support System-Architektur als Erfolgsfaktor für Kommunikationsanbieter im IKT-ZeitalterDie Konvergenz von Informations- und Kommunikationstechnologie bringt viele Möglichkeiten für die Gesellschaft und stellt die Unternehmen dieser Branche, vor allem die klassischen Telekommunikationsbetreiber, vor große Herausforderungen. Die Dynamik am Markt und die zunehmende Konvergenz unterschiedlicher Technologien und Produkte erfordert eine Evolution unternehmensinterner Strukturen und Prozesse. Der Schlüssel zum Erfolg ist dabei die Anpassung der Architektur prozessunterstützender IT-Systeme zur Reduktion von Durchlaufzeiten und zur Erhöhung der Agilität und Anpassungsfähigkeit. Aufgrund der Historie und innerbetrieblicher Faktoren fordert diese hoch komplexe Aufgabe das gesamte Unternehmen und ist nur durch das konsequente, schrittweise Vorgehen der Architekturmethode zu lösen.;-;-;-;https://link.springer.com/article/10.1007/s00502-006-0358-7 3ea98d9aed935318fb8ed83837e62318;de;;;6.1.;;;Kundennahe Auftragsabwicklung im Absatzbereich (Absatz-/Distributionslogistik)Mit der Fertigstellung der industriellen Produkte ist die Unternehmensgrenze zum Absatzbereich erreicht — die Fortsetzung der Versorgungskette bis zu den Endverbrauchern, die betrieblichen Leistungen müssen umgehend dem Käufer/Konsumenten zugeführt werden, um das durch den Produktionsprozeß gebundene Kapital durch den Verkauf (Umsatz) als Liquidität wiederzugewinnen. Aus der Sicht der Unternehmensführung müssen alle Aktivitäten darauf gerichtet sein, den Absatzmarkt, in dessen Mittelpunkt die jeweiligen Kunden stehen, aktiv zu beeinflussen und den Unternehmenserfolg zu sichern. Veränderte Marktstrukturen und Kooperationsstrategien haben die Anforderungen an logistische Aufgaben erhöht. Hinzu kommen neue Distributionswege — etwa E-Commerce — die eine reibungslose physische Abwicklung verlangen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-93114-6_4 a262fe62d78233b161d61cd772743f3a;de;;;2.2.;;;Eine LF-basierte Antwortindexierungsmethode für ein Enzyklopädie-Fragen-Antwort-System Dieses Papier schlägt ein schnelles und effektives Frage-Antwort-System für den Enzyklopädiebereich vor, das eine neue Antwortindexierungsmethode verwendet. Wir definieren etwa 160 Antworttypen. Der Indexer erzeugt AIU (Answer Index Unit)-Strukturen zwischen Antwortkandidaten und Inhaltswörtern innerhalb von LF (Logical Form) und Satzgrenze. Wir wählen unter den Fragebegriffen wesentliche Begriffe aus, indem wir syntaktische Informationen zum Ranking der Antwortkandidaten verwenden. Experimente zeigen, dass unsere neue Methode gut für das Frage-Antwort-System der Enzyklopädie ist.;-;-;-;https://link.springer.com/chapter/10.1007/11562382_67 5c9bdd158c674c78a76b2d1b417f53f6;de;;;6.1.;;;SNOMED CT und IHTSDO-Mitgliedschaft – Nutzen einer Referenzterminologie für Deutschland aus der Perspektive der Neuen InstitutionenökonomikFür die qualitativ hochwertige Dokumentation, Verarbeitung und den sicheren Austausch von Gesundheitsdaten werden E-Health-Standards benötigt, die den Anforderungen eines modernen Gesundheitssystems in besonderem Maße entsprechen. Die steigende Relevanz von SNOMED CT als internationale Referenzterminologie rechtfertigt eine Auseinandersetzung mit deren Einsatz in Deutschland. Sämtliche Eigentumsrechte an SNOMED CT sind im Besitz der International Health Terminology Standards Development Organisation (IHTSDO).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-10788-8_14 d47d2847a73ca61bf887046f199eeadc;de;;;2.2.;;;Effiziente Multimedia-Datenbank-Indizierung mit Structural Join-Indexhierarchie In diesem Papier stellen wir Indexierungsmechanismen der Structural Join Index Hierarchy (SJIH) vor, die die Klassenzusammensetzungshierarchie der komplexen Objekte nachahmen, um einen direkten Zugriff auf Multimediaobjekte und/oder deren Komponentenobjekte zu ermöglichen. Ein Kostenmodell für die Bearbeitung der Abfragen und die Pflege der Indizes wird entwickelt. Ein heuristischer Algorithmus ist entworfen, um geeignete Indizes auszuwählen, um einen gegebenen Satz von Multimedia-Anfragen effizient zu verarbeiten. Anhand eines News-on-Demand-Beispiels zeigen wir, dass SJIH-Indexierungsmechanismen eine effiziente Abfrageverarbeitung in Multimedia-Anwendungen ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45453-5_46 855b6a95028eeb31a9b56c07aa8bb996;de;;;2.2.;;;Air-Indizierung auf fehleranfälligen Kommunikationskanälen Air-Indexing zielt auf eine effiziente Datenverbreitung über einen drahtlosen Übertragungskanal an eine Vielzahl von mobilen Clients ab. Da mobile Geräte nur über sehr begrenzte Ressourcen verfügen, ist Energieeffizienz in solchen Szenarien entscheidend. Außerdem muss man bei drahtlosen Übertragungen mit hohen Fehlerraten und damit zu Paketverlusten, die zu einem hohen Energieverbrauch und langen Wartezeiten bis zum Vorliegen eines Abfrageergebnisses führen, verkraften. Wir schlagen ein neuartiges Cross-Layer-Scheduling mit adaptiver Fehlerkorrektur vor, das eine flexible Abfrageoptimierung auf mobilen Clients ermöglicht. RepAir sorgt für Effizienz, indem es seine Anfragebearbeitung an die individuelle Fehlerquote jedes Kunden anpasst. Gründliche Experimente zeigen, dass RepAir im Vergleich zu konkurrierenden Air-Indexing-Ansätzen erhebliche Effizienzsteigerungen in Bezug auf Zugriffslatenz und Abstimmungszeit liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12026-8_39 ed87ae833f161a477154b29d68d30c49;de;;;2.2.;;;Traverse: Vereinfachte Indizierung bei großen Map-Reduce-Merge-Clustern Die Suchmaschinen, die heute das World Wide Web indizieren, verwenden Zugriffsmethoden, die hauptsächlich auf Scan-, Sortier-, Hash- und Partitionierungstechniken (SSHP) basieren. Das MapReduce-Framework ist ein hervorragendes Beispiel. Im Gegensatz zu DBMS bietet diese Suchmaschineninfrastruktur nur wenige allgemeine Tools zum Indizieren von Benutzerdatensätzen. Insbesondere enthält es keine ordnungserhaltenden Baumindizes, auch wenn sie möglicherweise unter Verwendung solcher Indizierungskomponenten erstellt wurden. Somit ist die Datenverarbeitung auf diesen Infrastrukturen bestenfalls linear skalierbar, während indexbasierte Techniken logarithmisch skalierbar sein können. DBMS verwenden Indizes, um die Leistung zu verbessern, insbesondere bei Abfragen und Joins mit geringer Selektivität. Daher ist es naheliegend, die Indexierung in die Suchmaschineninfrastruktur zu integrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00887-0_27 52aecd26f8e1a04eb8fef1028e090212;de;;;2.2.;;;Indizieren und Abfragen von sich ständig weiterentwickelnden Daten mithilfe der Zeitreihenanalyse In diesem Whitepaper wird ein neuer Ansatz zur effizienten Indizierung und Abfrage von sich ständig weiterentwickelnden Daten vorgestellt. Herkömmliche Datenindexstrukturen leiden unter häufigen Aktualisierungskosten und führen zu einer unbefriedigenden Leistung, wenn sich Daten ständig ändern. Bestehende Ansätze versuchen, die Kosten für die Indexaktualisierung durch Verwendung einer einfachen linearen oder rekursiven Funktion zu reduzieren, um die Datenentwicklung zu definieren, jedoch ist die Datenentwicklung in vielen Anwendungen viel zu komplex, um durch eine einfache Funktion genau beschrieben zu werden. Wir schlagen vor, alle sich ständig weiterentwickelnden Daten als Zeitreihen zu nehmen und die ARIMA-Methode (Autoregressive Integrated Moving Average) zu verwenden, um sie zu analysieren und zu modellieren. Das Modell ermöglicht effektive Vorhersagen für die Daten. Der Index wird auf Basis der Prognoseintervalle entwickelt. Solange sich die Daten innerhalb ihres entsprechenden Prognoseintervalls ändern, muss nur ihr aktueller Wert im Blattknoten aktualisiert werden und es muss keine weitere Aktualisierung der Indexstruktur vorgenommen werden. Die Modellparameter und die Indexstruktur können dynamisch angepasst werden. Experimente zeigen, dass der Prognoseintervallindex (FI-Index) herkömmliche Indizes in einer Umgebung mit hoher Aktualisierung deutlich übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/11408079_59 c8bc4cc3c378f703cee4ab12b6f64fd8;de;;;2.2.;;;Hypergraph-Abfrage mit struktureller Indizierung und schichtbezogener Abschlussprüfung Mechanismen zur Indexierung und Abfrage von Graphen haben aufgrund ihrer Bedeutung bei der Analyse der wachsenden Graph-Datensätze in vielen Domänen große Aufmerksamkeit erhalten. Obwohl im Zusammenhang mit einfachen Graphen viel Arbeit geleistet wurde, sind sie nicht direkt auf Hypergraphen anwendbar, die komplexere Beziehungen in verschiedenen Anwendungen darstellen. Das Hauptproblem hier besteht darin, eine bestimmte Subhypergraph-Abfrage in einem größeren Hypergraph-Dataset zu durchsuchen. Dieses Suchproblem ist als NP-schwer bekannt, da es mit dem Graphenisomorphismus zusammenhängt. Um dieses Suchproblem effizient zu lösen, erstellen wir zunächst einen Indexsatz, indem wir die gängigen Subhypergraph-Strukturen aus dem gegebenen Hypergraph-Datensatz extrahieren. Beim Empfang einer Abfrage verwenden wir dieselben Indizierungstechniken und erstellen einen Abfrageindexsatz aus dem angegebenen Subhypergraphen. Unter Verwendung beider Indizes identifizieren wir die möglichen Positionen der Abfrage im Hypergraph-Dataset. Wir starten dann die Subhypergraph-Suche, um zu überprüfen, ob die Abfrage wirklich an jedem Ort auftritt, indem wir einen beschleunigten Überprüfungsmechanismus verwenden, der als schichtbezogene Abschlussmethode bezeichnet wird. Durch Experimente an einem realen Hypergraph-Datensatz und zufälligen Datensätzen demonstrieren wir die Effizienz und Effektivität der Hypergraph-Indizierung und unserer Verifikationsmethode.;-;-;-;https://link.springer.com/article/10.1007/s10115-015-0829-4 ef3f524ec7cb67fd7968b18b2dc612f5;de;;;2.2.;;;Indizierung der biometrischen Iris-Datenbank unter Verwendung des Energiehistogramms von DCT-Subbändern Das Hauptanliegen der Indizierung besteht darin, einen kleinen Teil der Datenbank zum Durchsuchen der Abfrage abzurufen. In der vorgeschlagenen Papier-Iris-Datenbank wird ein Energiehistogramm verwendet. Das normalisierte Irisbild wird unter Verwendung einer DCT-Transformation mit mehreren Auflösungen in Teilbänder unterteilt. Für jedes Teilband wird ein energiebasiertes Histogramm unter Verwendung aller Bilder in der Datenbank gebildet. Jedes Histogramm ist in Bins fester Größe unterteilt, um die Irisbilder mit ähnlichem Energiewert zu gruppieren. Die Bin-Nummer für jedes Subband wird erhalten und alle Subanden werden in Morton durchlaufen, um einen globalen Schlüssel für jedes Bild zu bilden. Während der Datenbankvorbereitung wird der Schlüssel verwendet, um den B-Baum zu durchlaufen. Die Bilder mit demselben Schlüssel werden im selben Blattknoten gespeichert. Für ein gegebenes Abfragebild wird der Schlüssel generiert und der Baum durchquert, um zu einem Blattknoten zu gelangen. Die am Blattknoten gespeicherten Vorlagen werden abgerufen und mit der Abfragevorlage verglichen, um die beste Übereinstimmung zu finden. Das vorgeschlagene Indexierungsschema zeigt eine beträchtlich niedrige Penetrationsrate von 0,63 %, 0,06 % bzw. 0,20 % für die Irisdatenbanken CASIA, BATH und IITK.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03547-0_19 4431c717ce1cdf137102cb55113d4399;de;;;2.2.;;;FC-LID: Dateiklassifizierer-basierte lineare Indizierung für die Deduplizierung in Cloud-Sicherungsdiensten Datendeduplizierungsverfahren sind optimale Lösungen, um sowohl den Bandbreiten- als auch den Speicherplatzbedarf für Cloud-Backup-Dienste in Rechenzentren zu reduzieren. Während des Deduplizierungsprozesses ist die Verwaltung eines Index im RAM ein grundlegender Vorgang. Ein sehr großer Index benötigt mehr Speicherplatz. Es ist schwierig, einen so großen Index vollständig im RAM zu speichern, und der Zugriff auf große Festplatten verringert auch den Durchsatz. Um dieses Problem zu überwinden, wurde ein Indexsystem entwickelt, das auf der auf Dateiklassifizierern basierenden linearen Indexierungsdeduplizierung namens FC-LID basiert, die Linear Hashing with Representative Group (LHRG) verwendet. Die vorgeschlagene lineare Indexstruktur reduziert den Rechenaufwand für die Deduplizierung und erhöht die Deduplizierungseffizienz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-28034-9_28 14a2852e9f75b0f924d1e5ecd3a66ff0;de;;;2.2.;;;Ein adaptives Framework zur Reduzierung von Subspace-Clustern für die Zeitreihenindizierung in Knime-Workflows Die Leistung traditioneller Indexstrukturen verschlechtert sich mit zunehmender Dimensionalität, es wurden Konzepte entwickelt, um dem Fluch der Datendimensionalität [2,5,6] für viele Domänen zu begegnen. Die meisten existierenden Konzepte nutzen globale Korrelationen zwischen Dimensionen, um die Dimensionalität des Merkmalsraums zu reduzieren. Bei hochdimensionalen Daten sind Korrelationen jedoch oft lokal auf eine Teilmenge der Daten beschränkt und jedes Objekt kann an mehreren dieser Korrelationen teilnehmen. Hier wurde ein neuartiges Framework für Knime (Data Analyzing Toolkit)[3] vorgeschlagen. Ein Unterraum-Clustering ist ein Verfahren, das für das Dimensionsreduktions-Framework verwendet wird. Das System erzeugt ein effektives Dimensionsreduktionsergebnis für die Knime-Umgebung und ist für die verschiedenen Datendomänen adaptiv. Hier kann jede Datendarstellung als Baumstruktur geplottet werden und dann eine Unterraumextraktion durchführen, die für die zukünftige Beschneidungsaktivität hilfreicher ist. Die Knoten werden dann in die Knime-Workflows [3] transformiert und können unabhängig voneinander auf verschiedene Workflow-Knoten wirken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29216-3_79 ccd48f63e850d3f9169180555655a02b;de;;;2.2.;;;Indizierung possibilistischer numerischer Daten: Das Intervall B Wenn Datensatzgruppen groß werden, wird die Indizierung zu einer erforderlichen Technik, um die Abfrage zu beschleunigen. Dies gilt für normale Datenbanken, aber auch für „unscharfe“ Datenbanken. In diesem Beitrag schlagen wir eine neuartige Indexierungstechnik vor, die die Abfrage unvollständiger numerischer Daten unterstützt. Eine möglichkeitsbasierte relationale Datenbankeinstellung wird in Betracht gezogen. Unser Ansatz basiert auf einer neuartigen Adaption eines B;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-40581-0_25 5059bf256bb083c5d90947d77f9d296e;de;;;2.2.;;;Indizierung der partiellen Verlaufsbahn und der zukünftigen Position sich bewegender Objekte mit HTPR*-Baum Derzeit konzentrieren sich die meisten Indizierungsmethoden zum Bewegen von Objekten auf die vergangene Position oder die gegenwärtige und zukünftige Position. In diesem Artikel schlagen wir eine neuartige Indexierungsmethode namens History TPR*-tree (HTPR*-tree) vor, die nicht nur prädiktive Abfragen unterstützt, sondern auch partielle historische Abfragen vom letzten Aktualisierungszeitpunkt jedes Objekts bis zum letzten Aktualisierungszeitpunkt aller Gegenstände. Basierend auf dem TPR*-Baum fügt unser Basic HTPR*-Baum die Erstellungs- oder Aktualisierungszeit von bewegten Objekten zu Blattknoteneinträgen hinzu. Um die Update-Performance zu verbessern, präsentieren wir eine Bottom-Up-Update-Strategie für den HTPR*-Baum durch Ergänzung einer Hash-Tabelle, eines Bit-Vektors und einer Direktzugriffstabelle. Experimentelle Ergebnisse zeigen, dass die Aktualisierungsleistung des HTPR*-Baums besser ist als die des Basic HTPR*- und TPR*-Baums. Zusätzlich zur Unterstützung von partiellen Verlaufsabfragen sind die Aktualisierungs- und Vorhersageabfrageleistung des HTPR*-Baums im Vergleich zu denen des R . erheblich verbessert;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29023-7_23 d01ba796bab82d957948b80bec467187;de;;;2.2.;;;Verteilte Cache-Indizierung für effiziente Subspace-Skyline-Berechnung in P2P-Netzwerken Skyline-Abfragen spielen eine wichtige Rolle in Anwendungen wie Multi-Kriterien-Entscheidungsfindungs- und Benutzerpräferenzsystemen. In letzter Zeit wurde dem Problem der effizienten Skyline-Berechnung in den P2P-Systemen mehr Aufmerksamkeit geschenkt. Aufgrund der hohen Verbreitung der P2P-Netzwerke werden bei der Skyline-Berechnung zu viele Zwischenergebnisse zwischen Peers übertragen, was viel Netzwerkbandbreite verbraucht. Außerdem ist eine große Anzahl von Peers an der Skyline-Berechnung beteiligt, was sowohl hohe Kommunikationskosten als auch Rechenaufwand mit sich bringt. In diesem Beitrag schlagen wir einen Roman vor;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12026-8_3 d0f25e7bbb6c589727ed8d6f74f7607c;de;;;6.1.;;;PrintmedienindikatorenIn diesem Beitrag stellen wir eine auf bibliografischen Daten basierende Untersuchungsmethode vor, die zur Betrachtung von Organisationskonzepten genutzt werden kann. Organisationskonzepte sollen hier als normative, mehr oder weniger kohärente Auffassungen von Management definiert werden. Solche Gestaltungsvorgaben zur Organisation von Unternehmen werden von Akademikern, „Managementgurus“ oder Unternehmensberatern geschaffen, genutzt bzw. konsumiert werden sie von Managern. Oft erfahren Organisationskonzepte beachtliche Aufmerksamkeit in der Fachpresse, die eine Welle von Projekten zu ihrer Umsetzung in Unternehmen nach sich zieht. Allerdings ist diese Popularität meist von beschränkter Dauer und das öffentliche Interesse kann so schnell abklingen, wie es entstanden ist. Die Ähnlichkeit dieses Prozesses mit ästhetischen Moden hat Wissenschaftler dazu bewogen solche Phänomene als „Managementmoden“ zu konzipieren. Zu den bekanntesten Managementmoden der 1990er Jahre zählen Lean Production (LP) und Business Process Reengineering (BPR).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-91570-8_30 6ec35e3b953fcaa0b79cbe88ae3ac2c6;de;;;6.1.;;;Empirische Untersuchungen zu betrieblichen und überbetrieblichen UmweltinformationssystemenUm für die Entwicklung von Implementierungskonzepten für Umweltinformationssysteme auf betrieblicher und überbetrieblicher Ebene auf bestehende Strukturen in den Unternehmen und der Industrie entsprechend Rücksicht zu nehmen, wurde im Rahmen der vorliegenden Arbeit Augenmerk auf eine empirische Erhebung zu Möglichkeiten der Verarbeitung von Umweltinformationen in Unternehmen gelegt. Darüber hinaus war es unter anderem Ziel der Arbeit, den Stand der Wissenschaft bezogen auf Forschungsprojekte in diesem Tätigkeitsfeld zu erheben, da aus den zahlreich durchgeführten Forschungsprojekten regelmäßig wichtige Impulse für Weiterentwicklungen in den Unternehmen kommen. Die Seite der Anbieter von Konzepten und Lösungen für die Verarbeitung von Umweltinformationen wird durch eine Analyse von Softwareanbietern komplettiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-9085-9_5 5e20fed1cf12d1cf9ff8be7a15c924a1;de;;;2.2.;;;Auf dem Weg zur optimalen Nutzung des Hauptspeichers für die Indizierung von bewegten Objekten In bewegten Objektdatenbanken können vorhandene plattenbasierte Indizes nicht mit der hohen Aktualisierungsrate mithalten und gleichzeitig einen schnellen Abruf ermöglichen. Eine effiziente Verwaltung der Datenbank mit bewegten Objekten kann jedoch durch aggressive Nutzung des Hauptspeichers erreicht werden. In diesem Beitrag schlagen wir eine;-;-;-;https://link.springer.com/chapter/10.1007/11408079_56 9c6b1d0c298abf86c0e310bd004f6b54;de;;;2.2.;;;Eine neue Indexierungstechnik zur Unterstützung der nach Attributen geordneten Mitgliedschaftsabfrage von mehrdimensionalen Daten Die Indizierung und Suche von mehrdimensionalen Daten wird häufig in datenintensiven Online-Anwendungen verwendet, die Daten mit mehreren Attributen beinhalten. Für die leistungsstarke Multi-Attribut-Datendarstellung und -Suche ist es jedoch noch ein weiter Weg: Die Leistung des Index sinkt mit der Zunahme der Dimensionen. In diesem Papier stellen wir eine neuartige Datenstruktur namens Bloom Filter Matrix (BFM) vor, um die multidimensionale Datenindexierung und die Suche nach Attributen zu unterstützen. Die vorgeschlagene Matrix basiert auf dem kartesischen Produkt verschiedener Bloomfilter, die jeweils ein Attribut der Originaldaten repräsentieren. Die Struktur und die Parameter jedes Bloom-Filters sind so ausgelegt, dass sie den tatsächlichen Datenmerkmalen und Systemanforderungen entsprechen, was eine schnelle Objektindizierung und -suche ermöglicht, insbesondere die Suche nach mehrdimensionalen Daten nach Attributen. Experimente zeigen, dass Bloom Filter Matrix eine schnelle und genaue Datenstruktur für die Datenindizierung mit mehreren Attributen und die Suche nach Attributen mit hochkorrelierten Abfragen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39527-7_27 98c57d320ffed1b67dd6fffdeb71bc2f;de;;;2.2.;;;Zufällige Indizierung und schwerpunktbasierte Technik für die Zusammenfassung mehrerer Dokumente Im Zeitalter der Präsenz multipler Textinformationen zu einem bestimmten Thema wird es von immenser Bedeutung, diese multiplen Dokumente zu verarbeiten und zusammenzufassen. Dies ist der Prozess der Multi-Document Summarization (MDS). Eine der sehr bekannten Techniken für die Zusammenfassung mehrerer Dokumente ist die Centroid-basierte Methode, die in einem beliebten Tool für MDS, nämlich, verwendet wird. MET. Diese Forschung zielt darauf ab, die Lücke der Entwicklungen der letzten Jahre und der Technik der zentroidbasierten Zusammenfassung zu schließen. In erster Linie arbeitet die schwerpunktbasierte Technik auf einem Vektorraummodell der Darstellung von Satzvektoren. Kürzlich wurde Random Indexing für eine effiziente Einzeldokumentzusammenfassung vorgeschlagen. Diese Forschung zielt darauf ab, eine Hybridtechnik für MDS zu entwickeln, die das Beste beider Techniken in einem nutzt. Die experimentellen Ergebnisse bestätigen nicht nur eine Abnahme des zeitlichen Bedarfs, sondern auch der Effizienz gemessen in ROUGE-Scores. Die vorgeschlagene Arbeit wurde für die generische Zusammenfassung mehrerer Dokumente unter Verwendung des DUC2005-Datensatzes validiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1420-3_26 96e5efdefc5b9d5a434978728bee83ae;de;;;2.2.;;;Effiziente Indizierung raumzeitlicher Objekte Raumzeitliche Objekte, d. h. Objekte, die ihre Position und/oder Ausdehnung im Laufe der Zeit ändern, kommen in vielen Anwendungen vor. Dieses Papier befasst sich mit dem Problem der Indexierung großer Mengen solcher Daten. Wir berücksichtigen allgemeine Objektbewegungen und Ausdehnungsänderungen. Wir konzentrieren uns weiterhin auf „Snapshot“- sowie kleine „Intervall“-Historienabfragen zu den gesammelten Daten. Der offensichtliche Ansatz, der räumlich-zeitliche Objekte mit MBRs annähert und ein traditionelles mehrdimensionales Zugriffsverfahren verwendet, um sie zu indizieren, ist ineffizient. Objekte, die über lange Zeitintervalle „leben“, haben große MBRs, die viel leeren Raum einführen. Das Clustern langer Intervalle wurde in temporalen Datenbanken durch die Verwendung von teilweise persistenten Indizes behandelt. Was dieses Problem von der traditionellen zeitlichen Indexierung unterscheidet, ist, dass sich Objekte während ihrer Lebensdauer bewegen/ändern dürfen. Es werden daher bessere Methoden benötigt, um allgemeine raumzeitliche Objekte anzunähern. Eine naheliegende Lösung ist die Einführung künstlicher Splits: Die Lebensdauer eines langlebigen Objekts wird in kleinere aufeinanderfolgende Teile aufgeteilt. Dadurch wird der Leerraum verringert, aber die Anzahl der indizierten MBRs erhöht. Wir führen zunächst zwei Algorithmen zur Aufspaltung eines gegebenen raumzeitlichen Objekts ein. Dann präsentieren wir bei einer gegebenen oberen Schranke für die Gesamtzahl möglicher Aufteilungen drei Algorithmen, die entscheiden, wie die Aufteilungen auf die Objekte verteilt werden sollen, damit der gesamte leere Raum minimiert wird.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45876-X_17 c7b7afb2e75bdc0efef86234f8f34de6;de;;;2.2.;;;Indizierung von Venenmustern unter Verwendung von Texturen und hierarchischer Zerlegung der Delaunay-Triangulation Bei biometrischen Identifikationssystemen wird die dem Abfragebild entsprechende Identität durch Vergleich mit allen Bildern in der Datenbank bestimmt. Dieser erschöpfende Abgleichprozess erhöht die Reaktionszeit und die Anzahl falsch positiver Ergebnisse des Systems, daher ist ein effektiver Mechanismus wesentlich, um eine kleine Sammlung von Kandidaten auszuwählen, auf die der tatsächliche Abgleichprozess angewendet wird. Dieses Papier stellt einen effizienten Indexierungsalgorithmus für Venenmusterdatenbanken vor, um die Suchgeschwindigkeit und die Genauigkeit der Identifizierung zu verbessern. In dieser Arbeit generieren wir für jedes Bild einen Binärcode anhand von Texturinformationen. Eine hierarchische Zerlegung des auf Delaunay-Triangulation basierenden Ansatzes für Minutien wird vorgeschlagen und mit Binärcode verwendet, um den Suchraum der Datenbank einzugrenzen. Es werden Experimente an zwei Datenbanken mit Venenmustern durchgeführt, und die Ergebnisse zeigen, dass das vorgeschlagene Verfahren bei Beibehaltung einer Trefferrate von 100 % eine niedrigere Penetrationsrate erreicht als die bisherigen Verfahren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40576-1_21 01956713c66f1c12734e016e1fecf266;de;;;2.2.;;;Indizierung von DNA-Sequenzen mit q-Grams Wir haben in den letzten Jahren ein wachsendes Interesse an der Ähnlichkeitssuche in großen Sammlungen biologischer Sequenzen beobachtet. Dieser Beitrag trägt zum Interesse bei und präsentiert eine Methode zur effizienten Indizierung der DNA-Sequenzen basierend auf;-;-;-;https://link.springer.com/chapter/10.1007/11408079_4 b9b0811ffb1c09c322baa04ea6ac4897;de;;;2.2.;;;Effiziente Indizierung der vergangenen, gegenwärtigen und zukünftigen Positionen von bewegten Objekten im Straßennetz Um sich bewegende Objekte im Straßennetz zu untersuchen, schlagen wir eine neuartige Indizierung namens PPFN*-Baum vor, um vergangene Trajektorien, gegenwärtige Positionen zu speichern und nahe Zukunftspositionen von sich bewegenden Objekten vorherzusagen. PPFN*-Baum ist eine hybride Indizierungsstruktur, die aus einem 2D-R*-Baum zur Verwaltung der Straßennetze, einem Satz von TB*-Baum-Indexierungsobjekten Bewegungsverlauf entlang der Polylinien und einem Satz grundlegender HTPR*-Baum-Indexierung besteht die Position sich bewegender Objekte nach der letzten Aktualisierung. Der PPFN*-Baum kann nicht nur die Abfrage der vergangenen Trajektorie und die Abfrage der gegenwärtigen Position unterstützen, sondern auch die Abfrage der zukünftigen Vorhersage. Je nach Bereichsabfragezeit kann eine Abfrage im PPFN*-Baum nur im TB*-Baum oder nur im HTPR*-Baum oder in beiden implementiert werden. Experimentelle Ergebnisse zeigen, dass die Aktualisierungsleistung des PPFN*-Baums besser ist als die des PPFI und des R;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39527-7_23 3a54663b45e5b79a81e099f465c745be;de;;;2.2.;;;PA-Baum: Ein parametrisches Indexierungsschema für raum-zeitliche Trajektorien Viele neue Anwendungen mit sich bewegenden Objekten erfordern das Sammeln und Abfragen von Trajektoriendaten, daher sind effiziente Indizierungsverfahren erforderlich, um komplexe räumlich-zeitliche Abfragen solcher Daten zu unterstützen. Aktuelle Arbeiten in diesem Bereich haben MBRs verwendet, um Trajektorien anzunähern, die einige grundlegende Eigenschaften von Trajektorien, einschließlich Glätte und fehlender innerer Fläche, nicht erfassen. Diese Nichtübereinstimmung führt zu einer schlechten Beschneidung, wenn solche Indizes verwendet werden. In dieser Arbeit befassen wir uns erneut mit der Frage der parametrischen Raumindizierung für historische Trajektoriendaten. Wir approximieren eine Folge von Bewegungsfunktionen mit einem einzigen stetigen Polynom. Da Trajektorien dazu neigen, glatt zu sein, funktionieren unsere Näherungen gut und liefern eine viel feinere Näherungsqualität als MBRs. Wir präsentieren den PA-Baum, einen parametrischen Index, der diese neue Näherungsmethode verwendet. Experimente zeigen, dass die Baukosten für PA-Baum um Größenordnungen niedriger sind als bei konkurrierenden Methoden. Darüber hinaus erfordern MBR-basierte Methoden für räumlich-zeitliche Bereichsabfragen 20–60% mehr E/A als PA-Bäume mit geclusterten Indizes und 300–400% mehr E/A als PA-Bäume mit nicht geclusterten Indizes .;-;-;-;https://link.springer.com/chapter/10.1007/11535331_15 4378ff4d34a195b715bc3b30c78ebac1;de;;;2.2.;;;Eine neue dynamische Indexierungsstruktur für die Suche nach Zeitreihenmustern Wir zielen auf das wachsende Thema der Darstellung und Suche von Zeitreihendaten. Eine neue MABI-Technik (Moving Average Based Indexing) wird vorgeschlagen, um die Leistung der Ähnlichkeitssuche in großen Zeitreihendatenbanken zu verbessern. Begriffe des gleitenden Durchschnitts und der euklidischen Distanzen werden eingeführt, um die Zeitreihendaten darzustellen und den Abstand zwischen zwei Reihen zu messen. Basierend auf dem Theorem der entfernungsreduzierenden Rate hat die MABI-Technik die Fähigkeit, die unqualifizierten Sequenzen bei Ähnlichkeitssuchen schnell herauszuschneiden und die Suche auf einen viel kleineren Bereich im Vergleich zu den fraglichen Daten zu beschränken. Schließlich berichtet der Artikel über einige Ergebnisse des Experiments an einem Aktienkursdatensatz und zeigt die gute Leistung der MABI-Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30466-1_27 80cdd811eefcdc05431fc74b6baaeb1f;de;;;2.2.;;;Optimieren der Sortier- und Top-k-Auswahlschritte bei der permutationsbasierten Indizierung auf GPUs Permutationsbasierte Indizierung ist eine der beliebtesten Techniken für das approximative Problem der Suche nach dem nächsten Nachbarn in hochdimensionalen Räumen. Aufgrund der exponentiellen Zunahme von Multimediadaten ist die zum Indexieren dieser Daten erforderliche Zeit zu einer ernsthaften Einschränkung der gegenwärtigen Techniken geworden. Einer der möglichen Schritte zur schnelleren Indexerstellung ist die Nutzung massiv paralleler Plattformen wie der GPGPU-Architekturen. In diesem Artikel haben wir uns auf zwei besondere Schritte der Permutationsindexkonstruktion konzentriert – die Auswahl der nächstgelegenen Pivot-Punkte der Top-k und das Sortieren dieser Pivots nach ihren jeweiligen Abständen. Obwohl diese Schritte in einen komplexeren Algorithmus integriert sind, gehen wir sie selektiv an, da sie individuell für verschiedene Indexierungstechniken oder Abfrageverarbeitungsalgorithmen in Multimediadatenbanken verwendet werden können. Wir bieten auch eine Diskussion von alternativen Ansätzen, die wir getestet haben, die sich jedoch auf der gegenwärtigen Hardware als weniger effizient erwiesen haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23201-0_33 6d24eda27537dd3fefbd06aa74ff9575;de;;;2.2.;;;Effizientes Codieren und Indizieren von XML-Dokumenten In diesem Beitrag wird ein neuartiges und effizientes Nummerierungsschema vorgestellt, das die Etikettenpfadinformationen und Datenpfadinformationen kombiniert und alle Arten von Abfragen effizient unterstützen kann. In diesem Beitrag wird auch eine kompakte Indexstruktur namens HiD vorgeschlagen. Auf dieser Indexstruktur basierende Abfragealgorithmen werden eingeführt. Schließlich werden die umfangreichen Experimente durchgeführt, um alle in Frage kommenden Technologien zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/11408079_14 7dcfc33896b41ba22f5ba9f7202d4173;de;;;2.2.;;;Effiziente Intervallindexierung und Suche in der Cloud Intervallabfragen werden häufig in sozialen Netzwerken, Informationsabfragen und Datenbankdomänen verwendet. Als wichtiger Abfragetyp wurde die Intervallabfrage schon vor langer Zeit von Forschern eingehend untersucht. Es gibt jedoch nur wenige Arbeiten zur Untersuchung der Intervallindizierung und -abfrage auf der Cloud-Plattform. Das Papier analysiert die Mängel der bestehenden Arbeit der Intervallindizierung und der Suche im Schlüsselwertspeicher. Um den Speicherplatz-Overhead und die Reaktionszeit zu reduzieren, schlagen wir eine neue Indexstruktur und entsprechende Suchalgorithmen vor. Die Indexstruktur nutzt die Funktionen des Schlüsselwertspeichers voll aus, um die Abfrageleistung zu verbessern. Die umfangreichen Experimente auf Basis realer und simulierter Datensätze zeigen, dass unser Ansatz effektiv und effizient ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-47121-1_24 c5ffb1332863a74bf49b9dbba67a4714;de;;;2.2.;;;Graph Ähnlichkeitsverknüpfung mit K-Hop Tree Indexing Tree Die Verknüpfung von Graphenähnlichkeiten ist für die Integration verrauschter und inkonsistenter Daten aus mehreren Datenquellen unerlässlich geworden. Der Bearbeitungsabstand wird häufig verwendet, um die Ähnlichkeit zwischen Diagrammen zu messen. Um den Ähnlichkeits-Join basierend auf dem Graph-Edit-Abstand zu beschleunigen, verwenden wir in der Arbeit eine Vorverarbeitungsstrategie, um die nicht übereinstimmenden Graphenpaare mit signifikanten Unterschieden zu entfernen. Dann wird ein neues Verfahren zum Erstellen von Indizes für jeden Graphen vorgeschlagen, indem die Knoten, die in k Sprüngen für jeden Schlüsselknoten erreichbar sind, mit Strukturerhaltung gruppiert werden, was das k-Sprungbaum-basierte Indexierungsverfahren ist. Experimente an realen und synthetischen Graphdatenbanken bestätigen auch, dass unsere Methode eine gute Join-Qualität beim Graph-Ähnlichkeits-Join erreichen kann. Außerdem kann der Join-Prozess in polynomieller Zeit abgeschlossen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46248-5_6 081a2ddc3e25a6cda6c31bd0a626b376;de;;;2.2.;;;VTPR-Tree: Eine effiziente Indexierungsmethode zum Verschieben von Objekten mit häufigen Updates Datenbanken für sich bewegende Objekte sind erforderlich, um Abfragen für eine große Anzahl von sich fortlaufend bewegenden Objekten zu unterstützen. Indizes zum Verschieben von Objekten müssen sowohl Abfrage- als auch Aktualisierungsvorgänge effizient unterstützen. In früheren Arbeiten ist der TPR-Baum die beliebteste Indexierungsmethode für die zukünftige vorhergesagte Position, aber seine Leistung bei häufigen Aktualisierungen ist sehr schlecht. In diesem Artikel schlagen wir eine neuartige Indexierungsmethode namens VTPR-Baum für die vorhergesagte Trajektorie sich bewegender Objekte vor. Der VTPR-Baum berücksichtigt sowohl die Geschwindigkeits- als auch die Raumverteilung von bewegten Objekten. Zuerst wird der Geschwindigkeitsbereich geteilt und sich bewegende Objekte werden nach ihrer Geschwindigkeit in verschiedene Geschwindigkeits-Buckets klassifiziert, so dass Objekte in einem Bucket ähnliche Geschwindigkeiten haben. Dann verwenden wir eine verbesserte TPR-Baumstruktur, um Objekte in jedem Bucket zu indizieren. Der VTPR-Baum wird durch einen Hash-Index der IDs von bewegten Objekten ergänzt, um häufige Aktualisierungen zu unterstützen. Für den VTPR-Baum wurde auch ein erweiterter Bottom-Up-Aktualisierungsalgorithmus entwickelt, der eine gute dynamische Aktualisierungsleistung und Parallelität aufweist. Experimentelle Ergebnisse zeigen, dass die Aktualisierungs- und Abfrageleistung des VTPR-Baums die des TPR*-Baums übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/11908883_15 34108e59e84b3d44e1c6bd8e79baf2b2;de;;;2.2.;;;Schnelles Durchsuchen des Log-Bereichs in FAST FTL mithilfe der Log-Area-Indizierung Da Flash-Speicher weit verbreitet für eingebettete Geräte verwendet wird, wird die Forschung zum Flash Translation Layer (FTL), einer Systemsoftware, die die Vor- und Nachteile von Flash-Speichern widerspiegelt, ständig untersucht. FAST FTL, das die neuesten Daten in Form eines Protokolls speichert, durchsucht die Protokollblöcke, um festzustellen, ob die Daten aktualisiert wurden. Aufgrund des geringen Prozentsatzes der neuesten Daten ist es jedoch ineffizient zu bestimmen, ob Daten aktualisiert werden, indem Protokollblöcke für alle Daten untersucht werden. Daher schlägt dieses Dokument eine Möglichkeit vor, Informationen zu Protokollblöcken zu indizieren, um festzustellen, ob die Daten aktuell sind. Das vorgeschlagene Verfahren kann die Leseleistung verbessern, indem Informationen über Protokollblöcke in einem binären Suchbaum (BST) indiziert werden, um schnell den Ort von Daten zu durchsuchen, die aktualisiert wurden, und ohne Protokollblöcke durchsuchen zu müssen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9244-4_34 4208047f56e1c5da8cc4349f35e26d25;de;;;2.2.;;;Eine neue Indexierungsstruktur zur Beschleunigung der Verarbeitung von XPath-Abfragen In diesem Papier liegt der Fokus auf der Beschleunigung von XPath-Location-Schritten für die Auswertung von regulären Pfadausdrücken mit Prädikatsparametern, insbesondere da es eine Kernkomponente vieler XML-Verarbeitungsstandards wie XSLT oder XQuery ist. Wir präsentieren eine neue Indexierungsstruktur, nämlich Xp-tree, die verwendet wird, um die Auswertung von XPath zu beschleunigen. Basierend auf der Beschleunigung eines Knotens durch planare Kombination mit dem Nummerierungsschema entwickeln wir effiziente Ableitungsalgorithmen. Unsere experimentellen Ergebnisse zeigen, dass die vorgeschlagene Methode frühere Ansätze übertrifft, die den R-Baum-Indexierungsmechanismus bei der Verarbeitung von XML-Abfragen verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/11408079_82 90f33730d16224e49e562a716656c52a;de;;;2.2.;;;Eine neue Indexierungsmethode für hochdimensionale Datensätze Die Indizierung hochdimensionaler Datensätze hat in den letzten zehn Jahren bei vielen Forschern große Aufmerksamkeit auf sich gezogen. Da Indexstrukturen vom R-Baum-Typ als Probleme mit dem „Fluch der Dimensionalität“ bekannt sind, wurden Indexstrukturen vom Pyramidenbaum-Typ, die auf dem B-Baum basieren, vorgeschlagen, um den Fluch der Dimensionalität zu durchbrechen. Bei hochdimensionalen Daten reicht die Anzahl der Pyramiden jedoch oft nicht aus, um Datenpunkte zu unterscheiden, wenn die Anzahl der Dimensionen hoch ist. Seine Wirksamkeit nimmt mit zunehmender Dimensionalität dramatisch ab. In diesem Artikel konzentrieren wir uns auf ein spezielles Problem des „Fluchs der Dimensionalität“, d. h. die Oberfläche eines Hyperwürfels in einem hochdimensionalen Raum nähert sich 100% des gesamten Hyperwürfelvolumens, wenn die Anzahl der Dimensionen gegen unendlich geht. Wir schlagen eine neue Indexierungsmethode vor, die auf der Oberfläche der Dimensionalität basiert. Wir beweisen, dass die Pyramidenbaum-Technologie ein Sonderfall unserer Methode ist. Die Ergebnisse unserer Experimente zeigen die klare Priorität unserer neuartigen Methode.;-;-;-;https://link.springer.com/chapter/10.1007/11408079_35 60f88ba91ebb0d2222698ca1f3b9ad35;de;;;2.2.;;;Schnelle Erkennung sequenzieller Muster durch Speicherindizierung Das Mining sequenzieller Muster ist ein wichtiges Thema für die Komplexität der zeitlichen Mustererkennung aus Sequenzen. Aktuelle Mining-Ansätze erfordern entweder viele Datenbank-Scans oder erzeugen mehrere Zwischendatenbanken. Da Datenbanken in den ständig wachsenden Hauptspeicher passen, wird eine effiziente speicherbasierte Erkennung von sequentiellen Mustern möglich. In diesem Papier schlagen wir einen Ansatz zur Speicherindizierung für schnelles sequenzielles Pattern-Mining vor, genannt;-;-;-;https://link.springer.com/chapter/10.1007/3-540-46145-0_15 3d35f7a9eceb8ce15573452220700de7;de;;;2.2.;;;Indizieren von temporärem XML mit FIX XML ist zu einem wichtigen Kriterium für die Beschreibung und den Austausch von Informationen geworden. Es ist von praktischer Bedeutung, die zeitlichen Informationen auf dieser Grundlage einzuführen, da die Zeit als wichtige Eigenschaftsinformation in alle Lebensbereiche eingedrungen ist Zeitliche XML-Datenbank. Wir empfehlen einen neuen Feature-Vektor auf der Basis von FIX, einem merkmalsbasierten XML-Index, und bauen einen Index auf einer temporalen XML-Datenbank mit B+-Baum auf, gespendet TFIX. Wir stellen auch einen neuen Abfragealgorithmus für die zeitliche Abfrage vor. Unsere Experimente haben gezeigt, dass dieser Index gegenüber anderen Arten von XML-Indizes eine bessere Leistung aufweist. Der Index kann alle TXPath-Abfragen mit einer Tiefe von bis zu K(>0) erfüllen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05250-7_24 3aa64462ab0a3ec5827bda293eea4616;de;;;2.2.;;;Multi Minimum Product Spanning Tree-basierter Indexierungsansatz für den inhaltsbasierten Abruf von Bio-Bildern Die Ähnlichkeitsberechnung zwischen Biobildern unterscheidet sich stark von der Ähnlichkeitsberechnung zwischen Routinebildern, da die Informationen über Biobilder nicht vollständig in Textform vorliegen. Ähnlich wie bei Biobildern (nämlich Proteinstrukturen) kann Ähnlichkeit anhand ihrer Sequenzähnlichkeit und ihrer strukturellen Ähnlichkeit berechnet werden. In der vorangegangenen Arbeit wurde AMIPRO vorgeschlagen, das sowohl strukturelle als auch sequentielle Ähnlichkeiten berücksichtigt. Auf die Proteinbilder wurde ein Intelligent Vision Algorithm angewendet und die Sequenzinformationen in der PDB-Datei wurden verwendet, um die sequenzielle Ähnlichkeit zu bestimmen. Das vorgeschlagene Modell minimiert die Zeit, die bei der Online-Ähnlichkeitsbestimmung benötigt wird, indem es die vorberechneten geordneten Ergebnisse speichert. Im vorliegenden Manuskript wurde eine speichereffiziente Indexstruktur Multi Minimum Product Spanning Tree vorgeschlagen und auf AMIPRO angewendet. Unsere Ergebnisse zeigen, dass die MMPST-basierte Implementierung der Indexstruktur ähnliche Datensätze auf der Grundlage ihres für mehrere Merkmale berechneten Ähnlichkeitsgrades leicht abbilden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8660-1_73 b1ccdc4e7a51229403f137a8a870577a;de;;;6.1.;;;Management des Sef „Umwelt“In diesem Abschnitt wird, aufbauend auf den Ausführungen der vorangegangenen Kapitel, ein offensives strategisches Umweltmanagementkonzept erarbeitet. Ziel der durch das Konzept induzierten Leistungen ist es, unter Beachtung ethischer Kriterien die betriebliche Effektivität zu erhöhen, bei gleichzeitiger Wahrung, nach Möglichkeit auch Steigerung der betrieblichen Effizienz. Die Leistungen werden daher in Einklang mit der in Kapitel 2 getroffenen Einteilung nach den Kriterien der Effektivität und Effizienz geordnet. Gegenstand der Betrachtungen sind die strategischen Leistungen dieses Umweltmanagements.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-85171-0_4 fede1a9d507115a07ebcc86e6f63ea97;de;;;2.2.;;;Indexierung von Personennamen in einem großen Datensatz einer Zeitung Ein Index ist ein sehr gutes Werkzeug, um die notwendigen Informationen aus einer Reihe von Dokumenten zu finden. Bisher reichen die vorhandenen Index-Tools sowohl in der gedruckten als auch in der digitalen Zeitungsversion nicht aus, um den Benutzern das Auffinden von Informationen zu erleichtern. Benutzer müssen die gesamte Zeitung durchsuchen, um ihren Bedarf zu decken, oder später, nachdem sie viel Energie aufgewendet haben, feststellen, dass die gesuchten Informationen nicht verfügbar sind. Wir schlagen hier vor, State-of-the-Art-Strategien zur Extraktion von benannten Entitäten speziell für Personennamen zu verwenden und dem Benutzer mit einem Namensverzeichnis ein wichtiges Werkzeug zum Auffinden von Namen auf Zeitungsseiten zur Verfügung zu stellen. Das betrachtete hochmoderne System verwendete die Goldene Sammlung des ersten und zweiten HAREM, eine Referenz für Systeme zur Anerkennung benannter Entitäten in portugiesischer Sprache, als Trainings- bzw. Testsätze. Darüber hinaus haben wir aus den aktuellen Zeitungsartikeln einen neuen Trainingsdatensatz erstellt. In diesem Fall haben wir 100 Artikel der Zeitung verarbeitet und es geschafft, 87,0 % der vorhandenen Namen und ihre jeweiligen Teilzitate korrekt zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99722-3_15 d6a7f188e97877b1c5e050fd3ab3bab3;de;;;2.2.;;;Unmerkliche Bildindizierung mit digitalem Wasserzeichen Das vorgeschlagene Bild-Wasserzeichen-Schema bettet ein Identifikations-Wasserzeichen in bestimmten ausgewählten Regionen ein, wo während des Prozesses des Wasserzeichen-Markierens eingeführte Modifikationen weniger empfindlich gegenüber HVS (Human Visual System) sind. Kantendetektoren werden verwendet, um Bereiche im Bild abzuschätzen, in denen sich die Intensität schnell ändert. Modifikationen an solchen Pixeln werden die Aufmerksamkeit des menschlichen Auges nicht auf sich ziehen. Wasserzeichen werden so unmerklich in die digitalen Bilder integriert. Vorgeschlagen wird ein Schema zum Einbetten einer eindeutigen Indexnummer als Wasserzeichen zur Inhaltsverfolgung und -identifikation.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34135-9_11 27bac6be7ed6c47680177615956ea620;de;;;2.2.;;;Keyframe-Erkennung basierend auf semantischer Ereigniserkennung und -klassifizierung unter Verwendung eines heirarchischen Ansatzes für die Indexierung von Cricket-Sport-Videos In diesem Artikel schlagen wir einen auf Keyframe-Erkennung basierenden Ansatz zur semantischen Ereigniserkennung und Klassifizierung in Cricket-Videos vor. Das vorgeschlagene Schema führt eine Top-Down-Ereigniserkennung und -klassifizierung unter Verwendung eines hierarchischen Baums durch. Auf Ebene 1 extrahieren wir Keyframes für die Indizierung basierend auf der Farbton-Histogramm-Differenz. Auf Level 2 erkennen wir Logoübergänge und klassifizieren die Frames als Echtzeit- oder Replay-Fragmente. Auf Level 3 klassifizieren wir die Echtzeit-Frames als Field View, Pitch View oder Non Field View basierend auf Farbmerkmalen wie Bodenfarbe für Pitch View und Grasfarbe für Field View. Auf Stufe 4 erkennen wir Nahaufnahmen und Crowd-Frames basierend auf der Kantenerkennung. Auf Stufe 5a klassifizieren wir die Nahaufnahmen in Spieler von Team A, Spieler von Team B und Schiedsrichter basierend auf der Hautfarbe und der entsprechenden Trikotfarbe. Auf Stufe 5b klassifizieren wir die Crowd-Frames in Zuschauer, Spielerversammlung von Team A oder Spielerversammlung von Team B. Unsere Klassifikatoren zeigen hervorragende Ergebnisse bei korrekter Erkennung und Klassifizierung bei reduzierter Verarbeitungszeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17857-3_39 faea9a200c5bfa7e3d56f37eed2a49c7;de;;;2.2.;;;Root-Tabelle: Dynamisches Indexierungsschema für den Zugriffsschutz in der e-Healthcare-Cloud Die Popularität und die breite Einführung von Cloud-Computing haben die Entwicklung von E-Healthcare-Systemen beschleunigt. Die Auslagerung elektronischer Patientenakten (EHRs) erfordert die Gewährleistung des Datenschutzes bei der Suche, da die Daten und deren Zugriff nicht unter der Kontrolle des EHR-Eigentümers liegen. Hier haben wir einen anderen Ansatz für das Problem des Zugriffsschutzes in EHRs gewählt, indem wir das Problem des Informationsverlusts basierend auf der Offenlegung von Zugriffsmustern in semi-vertrauenswürdigen Cloud-Servern angegangen sind. In diesem Papier haben wir eine dynamische Datenstruktur namens Root-Tabelle (R-Tabelle) vorgeschlagen, um einen Speicherindex zu erstellen, der den Zugriffsschutz beim Abfragen der ausgelagerten Datenbank gewährleistet. Das Ziel von R-Table besteht darin, das Zugriffsmuster vor einem ehrlichen, aber neugierigen Server zu verbergen. Die R-Tabelle ist eine Anpassung dynamischer Arrays und randomisierter binärer Suchbäume, die nach jedem Zugriff die Orte von Datenblöcken zufällig mischen. Dieses Modell bietet Zugriffsschutz bei minimalem Kommunikations- und Speicheraufwand und ermöglicht es dem EHR-Besitzer, private Lese- oder Schreibvorgänge durchzuführen, ohne die Art des Vorgangs und das verarbeitete Zieldatenfragment preiszugeben. Die Ergebnisse unserer Experimente zeigten einen begrenzten Leistungs-Overhead, was darauf hinweist, dass R-table für den praktischen Einsatz geeignet ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8657-1_17 64ad1e6e29e3e12cae8ded7004d73fae;de;;;2.2.;;;DBC-Ko-Auftritts-Matrix für die Indexierung und den Abruf von Texturbildern In diesem Artikel wird ein neuer Bildindexierungs- und -abrufalgorithmus vorgeschlagen, der eine Ko-Auftrittsmatrix mit gerichtetem Binärcode (DBC) verwendet. Die Ausgänge DBC sammeln die Richtungskanten, die durch Anwendung der Ableitungen erster Ordnung in 0º-, 45º-, 90º- und 135º-Richtung berechnet werden. Die Merkmalsvektorlänge von DBC für eine bestimmte Richtung beträgt 512, was eher für den Bildabruf bestimmt ist. Um dieses Problem zu vermeiden, sammeln wir die Richtungskanten, indem wir das Mittelpixel ausschließen und die rotationsinvariante Eigenschaft weiter anwenden. Schließlich haben wir die Kookkurrenzmatrix berechnet, um den Merkmalsvektor zu bilden. Die Retrieval-Ergebnisse des vorgeschlagenen Verfahrens wurden getestet, indem das Experiment auf der Brodatz-Texturdatenbank durchgeführt wurde. Die Ergebnisse nach der Untersuchung zeigen eine signifikante Verbesserung hinsichtlich ihrer Bewertungsmaße im Vergleich zu LBP, DBC und anderen Transformationsdomänenmerkmalen.;-;-;-;https://link.springer.com/chapter/10.1007/978-81-322-1665-0_77 4a27c59c4a4bd45f542345dee214efd1;de;;;2.2.;;;Ein Vorschlag einer hybriden räumlichen Indizierung zur Adressierung der Messpunkte in Überwachungssensornetzwerken Ein wichtiges Merkmal von Datenanalyseverfahren im Bereich kontinuierlicher Überwachungssysteme ist die Rechenzeit. Dieser Artikel enthält eine Forschung, die sich auf die Verbesserung der Verarbeitungsleistung durch eine möglichst effiziente Indexierung von Geodaten konzentriert. Die Autoren schlugen eine Struktur der Indeximplementierung vor, die auf einer geschichteten Gruppierung von Sensoren basiert, um die Datenmenge in Zeitfenstern zu reduzieren. Dies ermöglicht den Vergleich von Daten auf Schichtebene, wodurch das Problem des Vergleichs zwischen allen Sensoren reduziert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-18422-7_39 7aec50367967fb5d5beb8b148af69333;de;;;2.2.;;;Eine linguistische Steganographie basierend auf der Komprimierung der Wortindexierung und der Kandidatenauswahl In diesem Artikel wird eine neuartige linguistische Steganographie mit hoher Unwahrnehmlichkeit und Unauffindbarkeit durch geheime Nachrichtenkompression und Auswahl von Kandidatentexten vorgeschlagen. Die Länge der praktischen eingebetteten Nutzlast kann durch den vorgeschlagenen Wortindexierungs-Kompressionsalgorithmus (WIC) reduziert werden, während ein bester Stego-Text mit hoher Unauffindbarkeit durch die Stego-Textauswahlstrategie aus Kandidaten ausgewählt werden kann. Der WIC-Algorithmus komprimiert die geheime Nachricht verlustfrei, indem er einen Minimal-Maximum-Gewicht-Algorithmus mit Huffman-Codierung mit Hilfe des Kandidaten-Cover-Textes kombiniert. Um die Anti-Steganalysis-Fähigkeit zu verbessern, werden zehn Covertexte mit kleinen Kompressionsraten aus einem riesigen Covertextsatz ausgewählt und die entsprechende komprimierte geheime Nachricht unter Verwendung von Synonymsubstitutionen eingebettet. Nur ein Stegotext wird durch eine gegebene Regel ausgewählt, die aus dem Abstand zwischen einem Covertext und seinem Stegotext abgeleitet wird. Experimentelle Ergebnisse zeigen, dass der vorgeschlagene Komprimierungsalgorithmus bessere Komprimierungsverhältnisse als die Huffman- und LZW-Codierungsalgorithmen erreicht, was zu einer höheren Einbettungseffizienz führt, und dass unsere Steganographie bei der Anti-Steganalyse-Fähigkeit mit Komprimierung und der Stego-Textauswahlregel gut funktioniert.;-;-;-;https://link.springer.com/article/10.1007/s11042-018-6072-8 6e136d5a5d18f7e97a81416b2bdff4da;de;;;2.2.;;;Ein lineares Broadcast-Indizierungsschema in Straßenumgebungen mit Sensornetzwerken Es wurden verschiedene Rundsendeschemata vorgeschlagen, um sich bewegende Objekte auf dem Straßennetz mit effizienten ortsbasierten Diensten zu versorgen. Sie beschäftigten sich jedoch hauptsächlich mit der Implementierung eines Broadcast-Index und berücksichtigten keine Straßennetzumgebungen, in denen sich bewegende Objekte häufig ändern. In diesem Beitrag schlagen wir ein neuartiges bidirektionales lineares Sendeschema vor, das die Eigenschaften des Straßennetzes berücksichtigt. Das vorgeschlagene Schema teilt einen Servicebereich in die Sensorcluster-basierten Segmente auf, um eine Anfrage effizient zu verarbeiten. Das vorgeschlagene Schema führt auch die optimierte Datenaktualisierung basierend auf in Sensornetzwerken gesammelten Straßeninformationen durch, indem die häufig geänderten Umgebungen von bewegten Objekten berücksichtigt werden. Als Ergebnis kann es die Übertragung unnötiger Daten minimieren. Um die Überlegenheit unseres vorgeschlagenen Schemas zu zeigen, vergleichen wir es mit dem bestehenden Sendeschema. Unsere experimentellen Ergebnisse zeigen, dass unser vorgeschlagenes Schema im Durchschnitt etwa 13 % der Abstimmungszeit und etwa 22 % der Zugriffslatenz gegenüber den bestehenden Schemata reduziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29023-7_24 811b5e5bb191bde323274aef49fb3c68;de;;;2.2.;;;Robuste Bildsuche durch fehlende Farbindizierung Die Bildsuche ist zu einem wichtigen Bestandteil der Bildverarbeitung geworden, bei der farbhistogrammbasierte Methoden Objekte effektiv identifizieren können. Herkömmliche Farbhistogramm-basierte Verfahren sind jedoch für ähnliche Objekte nicht empfindlich. Ziel dieser Arbeit ist es, ein neuartiges Schema für eine robuste Bildsuche basierend auf Absent Color Indexing, kurz ABC, vorzuschlagen. Es generiert zweidimensionale Farbhistogramme über den CIE Lab-Farbraum. Dann verwenden wir einen Schwellenwert;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9441-7_88 6f9d8ebe5b4dcc1b1747e937634d6f1b;de;;;2.2.;;;Automatische Zusammenfassung von Wearable-Videos - Indexierung des subjektiven Interesses - „Wir wollen unser ganzes Leben per Video festhalten“ ist die Motivation dieser Forschung. Die jüngste Entwicklung von tragbaren Geräten und riesigen Speichergeräten wird es ermöglichen, das gesamte Leben per Video zu speichern. Wir könnten 70 Jahre unseres Lebens festhalten, aber das Problem ist, wie wir mit so großen Daten umgehen. Eine automatische Zusammenfassung nach persönlichem Interesse sollte unabdingbar sein. In diesem Beitrag schlagen wir einen Ansatz zur automatischen Strukturierung und Zusammenfassung von Wearable-Videos vor. (Wearable Video ist unsere Abkürzung für „Video Captured by a Wearable Camera“.) In unserem Ansatz verwenden wir eine tragbare Kamera und einen Sensor für Gehirnwellen. Video wird zunächst nach objektiven Merkmalen von Video strukturiert, und die Aufnahmen werden durch subjektive Messungen basierend auf Gehirnwellen bewertet. Der Ansatz war für Experimente in der realen Welt sehr erfolgreich und extrahierte automatisch alle Ereignisse, von denen die Probanden berichteten, dass sie sich interessant gefühlt hatten.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45453-5_3 35fca0a50190bf18a72de5509787299d;de;;;2.2.;;;KNN-basierte schnellere Indizierung mit Schulungsfehlerkompensation für die MW-Sicherheitsbewertung des Stromsystems Ein vereinfachtes schnelleres Verfahren für die Kontingenzanalyse und das Screening wird sowohl für Online- als auch Offline-Anwendungen in Stromnetzen vorgeschlagen. Das vorgeschlagene Verfahren verwendet die Leistungsflüsse der Übertragungsleitung, um künstliche neuronale Netzmodelle zu entwickeln, die dann zum Überwachen der Übertragungsleitungen in Echtzeit verwendet werden und eine binäre Ausgabe liefern, die den Zustand des Netzes anzeigt. Die Ausgaben des neuronalen Netzes werden dann verwendet, um einen Index zu berechnen, um den Zustand des gesamten Stromnetzes zu bestimmen. Ein zusätzlicher Begriff für die Fehlklassifizierungsdaten wurde ebenfalls eingefügt, um die Fehler bei der Klassifizierung von Zuständen bei der Verwendung der neuronalen Netze zu kompensieren. Der vorgeschlagene Ansatz wurde auf ein Testbussystem und ein staatliches Versorgungsunternehmen angewendet. Die Ergebnisse belegen, dass die vorgeschlagene Methode schnellere Ergebnisse in kürzerer Reaktionszeit liefert. Der gesamte Prozess der KNN-basierten Sicherheitsbewertung ist innerhalb von 8 Minuten abgeschlossen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5089-8_4 92f10021d98753039ade91bbbce5ad28;de;;;2.2.;;;Fusion auf Rangebene von zufälliger Indizierung, Worteinbettung und TF-IDF-basierten Ranglisten für den Abruf klinischer Dokumente Die Menge an klinischen Daten, die medizinischem Fachpersonal vorliegen, wächst rasant. Die Daten können aus klinischen Aufzeichnungen, dem Internet, sozialen Medien und medizinischen Büchern gesammelt werden, um nur einige zu nennen. Diese riesige Menge an umfangreichen strukturierten und unstrukturierten klinischen Daten ist oft mühsam zu durchsuchen und zu analysieren. Der Abruf klinischer Dokumente ist für den schnellen Zugriff auf die erforderlichen klinischen Dokumente durch ein Personal, einen Patienten, einen Arzt, eine Krankenschwester oder eine andere verantwortliche Person vorgesehen. Daher ist es von größter Bedeutung, ein System zum Durchsuchen von Daten/Dokumenten in den medizinischen Archiven für eine effiziente und schnelle Analyse eines Patientenfalls zu entwickeln, der sofortige Aufmerksamkeit erfordern kann. Die Benutzer eines solchen Systems können mehrere Anfragen stellen und den Abruf relevanter klinischer Dokumente erwarten. Die in diesem Beitrag vorgeschlagene Forschungsarbeit basiert auf der Verschmelzung von Dokumentenabrufergebnissen, die auf mehrere neuartige Techniken angewendet werden. Eine neuartige Technik der Rangstufenfusion zum Abrufen wird zusätzlich zu anderen Abruftechniken angewendet, um eine Entscheidung über den endgültigen Rang zu erhalten. Der Beitrag und die Neuheit der vorliegenden Arbeit sind zweierlei: Erstens schlagen wir vor, zwei neue Techniken für den klinischen Dokumentenabruf zu verwenden, nämlich. Zufallsindizierungsbasierter Abruf und GLOVE-Darstellungsbasierter Abruf. Zweitens führen wir die vorgeschlagene Technik der Rangstufenfusion über die Ergebnisse aus, die durch verschiedene Rangfolgetechniken erhalten wurden. Der fusionierte Rang hilft bei der Entscheidungsfindung in dem Szenario, dass verschiedene Ränge durch verschiedene Algorithmen erzeugt werden, die zum Abrufen verwendet werden. Die mit diesem neuartigen Ansatz erzielten Ergebnisse zeigen eine Verbesserung gegenüber bestehenden Techniken.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7804-5_22 6f5d41c6287b5757575dea7389fa88cd;de;;;2.2.;;;Wortfehlerkorrektur der kontinuierlichen Spracherkennung mit WEB-Dokumenten für die Indizierung gesprochener Dokumente Dieses Papier beschreibt ein Fehlerkorrekturverfahren der kontinuierlichen Spracherkennung unter Verwendung von WEB-Dokumenten für die Indizierung gesprochener Dokumente. Wir führten ein Experiment zur Fehlerkorrektur für automatisch transkribierte Nachrichtensprache durch, wobei wir uns auf besonders Eigennamen konzentrierten. Zwei LVCSR-Systeme wurden verwendet, um richtig und falsch erkannte Wörter zu erkennen. Unter den korrekt transkribierten Wörtern wurden Schlüsselwörter für die Internetsuchmaschine ausgewählt, dann wurden in den abgerufenen Dokumenten richtige Kandidaten für die falsch erkannten Wörter erhalten. Eine Technik der dynamischen Programmierung (DP) mit einer Verwirrungsmatrix wurde verwendet, um die Kandidaten mit den falsch erkannten Wörtern zu vergleichen. In den Ergebnissen des Experiments zur Fehlerkorrektur erreichte die Erkennungsrate von Eigennamen eine Verbesserung von etwa 10 % unter Verwendung von WEB-Dokumenten.;-;-;-;https://link.springer.com/chapter/10.1007/11940098_23 eba903a0157635129e73361fae286085;de;;;2.2.;;;Effiziente SPARQL-Abfrageverarbeitung in MapReduce durch Datenpartitionierung und -indizierung Die Verarbeitung von SPARQL-Abfragen auf einem einzelnen Knoten ist angesichts des schnellen Wachstums von RDF-Wissensdatenbanken offensichtlich nicht skalierbar. Dies erfordert skalierbare Lösungen der SPARQL-Abfrageverarbeitung über RDF-Daten im Webmaßstab. Es gab Versuche, SPARQL-Abfrageverarbeitungstechniken in MapReduce-Umgebungen anzuwenden. Es wurde jedoch keine Studie durchgeführt, um optimale Partitionierungs- und Indexierungsschemata für die Verteilung von RDF-Daten in MapReduce zu finden. In diesem Whitepaper untersuchen wir die RDF-Datenpartitionierungstechnik, die effektive Indexierungsschemata zur Unterstützung einer effizienten SPARQL-Abfrageverarbeitung in MapReduce bietet. Unsere umfangreichen Experimente mit einem riesigen realen RDF-Datensatz zeigen die Leistung der vorgeschlagenen Partitionierungs- und Indexierungsschemata für eine effiziente SPARQL-Abfrageverarbeitung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29253-8_58 856e6ae68517f6a8c2bf6d1d516255fb;de;;;6.1.;;;Ein Service-System orientiertes Rahmenwerk für System-Integration, -Migration und KonsolidierungDie Integration, Migration und Konsolidierung von Anwendungssystemen in neue System-Welten erfolgt bisher technologie- bzw. systemspezifisch. Daher wird hier ein unabhängiger Ansatz auf der Basis sogenannter Service-Systeme entwickelt. Es werden zunächst Begriffe wie Integration und Migration in ihrer Bedeutung geklärt und die wichtigsten Ausformungen dargestellt. Auf dieser Grundlage werden Service-Systeme als abstrakte Darstellung von Software-Systemen eingeführt. Die auf ihnen stattfindenden Operationen werden selbst wieder als Services – sogenannte Meta-Services – dargestellt und erlauben die Spezifikation von Migrations- und Konsolidierungsaufgaben.;-;-;-;https://link.springer.com/article/10.1365/s40702-014-0020-5 875d82d717a4b0c0255e8b864bc380a3;de;;;6.1.;;;Mobil, aber sicher!Der rasante Siegeszug des Internets und die neuen Möglichkeiten der Telekommunikation verändern Arbeitswelt und Alltag. Durch die Globalisierung von Arbeitsabläufen können Aufgaben zunehmend in virtuellen Projektteams erledigt werden, ohne dass die Partner physisch am gleichen Ort arbeiten müssen. Teure Ressourcen lassen sich so kostengünstig gemeinsam nutzen. Mit mobilen Endgeräten wie Mobiltelefonen oder PDAs (Persönliche Digitale Assistenten) und neuen Kommunikationsmöglichkeiten wie WLAN, GPRS und UMTS können Mitarbeiter von unterwegs auf Unternehmensdaten zugreifen. Ein derartiges mobiles Arbeiten ist beispielsweise nützlich, um Kundenaufträge direkt vor Ort beim Kunden, aber unter Nutzung der aktuellen, nur im Unternehmensnetz abruf baren Daten, zu bearbeiten, oder um bei Wartungsarbeiten im Außendienst direkt elektronische Hilfesysteme zurate zu ziehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55550-3_4 2a66a581e754167142d4e8f421c92c92;de;;;2.2.;;;Inhaltsbasierte Bildindexierung durch Daten-Clustering und inverse Dokumentenhäufigkeit In diesem Beitrag stellen wir einen Algorithmus zum Erstellen und Durchsuchen großer Bilddatenbanken vor. Das effektive Durchsuchen und Durchsuchen solcher Bildsammlungen anhand ihres Inhalts ist eine der wichtigsten Herausforderungen der Informatik. Im vorgestellten Algorithmus besteht der Vorgang des Einfügens von Daten in die Datenbank aus mehreren Stufen. Im ersten Schritt werden Interessenpunkte aus Bildern generiert, z.B. SIFT-, SURF- oder PCA-SIFT-Algorithmen. Die daraus resultierende große Anzahl von Schlüsselpunkten wird dann durch Datenclustering reduziert, in unserem Fall durch eine neuartige, parameterlose Version des Mean-Shift-Algorithmus. Die Reduzierung wird durch den anschließenden Betrieb auf generierten Clusterzentren erreicht. Dieser Algorithmus wurde speziell für das vorgestellte Verfahren angepasst. Clusterzentren werden im Term Frequency-Inverse Document Frequency (TF-IDF)-Algorithmus als Begriffe und Bilder als Dokumente behandelt. Der TF-IDF-Algorithmus ermöglicht es, eine indizierte Bilddatenbank zu erstellen und gewünschte Bilder schnell abzurufen. Der vorgeschlagene Ansatz wird durch numerische Experimente an Bildern mit unterschiedlichen Inhalten validiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06932-6_36 6086a3901afe4ccd79747dae85014078;de;;;2.2.;;;Eine empirische Studie zur visuellen Datenanalyse im Einklang mit dem Indexierungsansatz Die Unternehmen suchen die Tiefenlösung, die ihnen bei ihren Problemlösungen helfen kann. Die einfachen Ergebnisdiagramme und Grafiken reichen dafür nicht aus. Sie möchten mehr im Detail erfahren. Dafür haben wir uns für die visuelle Analyse entschieden, die die beste Leistungsoption ist. In diesem Papier diskutieren wir die Grundlagen der Visual Analytics, einige Arbeiten der Visual Analytics und ihre Bedeutung in den kommenden Jahren, die uns motivieren, in der zukünftigen Arbeit zu forschen. Das Manuskript besteht aus vier Teilen. z.B. Abschn.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1420-3_62 6931aa5d71bd23179eeb154454af9065;de;;;2.2.;;;Indizierung von Werten in Endlosfelddatenbanken Mit der Erweiterung räumlicher Datenbankanwendungen haben sich in den letzten Jahren kontinuierliche Felddatenbanken zu einem wichtigen Forschungsthema entwickelt, um kontinuierliche Naturphänomene der letzten Jahre zu behandeln. Ein Feld kann durch einen Satz von Zellen dargestellt werden, die einige explizit gemessene Abtastpunkte enthalten, und durch willkürliche Interpolationsverfahren, die verwendet werden, um implizite Werte an nicht abgetasteten Positionen abzuleiten. Die Form der Zellen hängt vom spezifischen Datenmodell in einer Anwendung ab. In diesem Beitrag stellen wir eine effiziente Indexierungsmethode für den Wertebereich in einer großen Felddatenbank für Feldwertabfragen vor (z. B. das Auffinden von Regionen, in denen die Temperatur zwischen 20 Grad und 30 Grad liegt). Die Grundidee besteht darin, ein Feld in;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45876-X_14 bc6cd62cfdf14071db7b6443b953d035;de;;;2.2.;;;Videoindizierung durch das menschliche Gesicht Es gibt so viele Techniken für die Videoindizierung mit Gesichtserkennung, aber alle Methoden sind nicht in der Lage, die räumliche und zeitliche Komplexität zu reduzieren. Dieses Papier schlägt einen neuartigen Weg vor, mit separaten Daten aus Video durch das menschliche Gesicht umzugehen und sie an jedem wichtigen Punkt zu ordnen und wiederherzustellen. Diese Arbeit konzentriert sich auf die begleitenden Fortschritte: Keyframe-Extraktion aus dem Infovideo, Gesichtserkennung aus Keyframe, Gesichtserkennungsnachweis mit standardisierter Identifizierung und Videobestellung über den Barcode. Zuerst erkennen wir in dieser Arbeit ein Video als Information, und daraus wird jede der Kanten gewonnen. Anhand der Farbhistogrammdifferenz werden die Hauptbilder aus allen im Video vorhandenen Bildern entnommen. Ein Farbhistogramm wird verwendet, um den Unterschied zwischen zwei Bildern zu ermitteln und das Farbhistogramm zurückzugeben. Mit dem Viola-Jones-Algorithmus werden Gesichter aus den extrahierten Hauptbildern identifiziert. Mithilfe der Schiebefenstertechnik wird der Bildverlauf aus dem Gesichtsbild erstellt und identifiziert das aus dem Video extrahierte menschliche Gesicht unter Verwendung eines individuellen EAN-8-Barcodes für Videoindexierungszwecke. Das Hauptziel dieser Arbeit ist es, menschliche Gesichter aus Videos zu identifizieren und sie als EAN-8 linearer Videoindexierungs-Barcode darzustellen. Dieser Ansatz ist für Sicherheitszwecke, Videoüberwachungsnetzwerke, Videobeschreibung des Kommunikationskanals usw. nützlich. Er ist nützlich für Zwecke der Videoindizierung und des Abrufs. Dies reduziert die Bandbreite der Korrespondenz, den Speicherplatz und die Zeitkomplexität. Der Effekt dieses Ansatzes besteht darin, das Video als linearen EAN-8-Barcode basierend auf dem im Video vorhandenen menschlichen Gesicht zu indizieren, nachdem das individuelle menschliche Gesicht des Videos beschrieben wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4866-0_13 47a8a5878ee284e92d41410d72473553;de;;;2.2.;;;Indizierung von Informationssystemen mit intuitionistischen groben Fuzzy-Gruppen mit intuitionistischen Fuzzy-Entscheidungsattributen Ein naiver Ansatz in grober Berechnung unter Unschärfe und intuitionistischer Unschärfe durch Schwellenwerte wurde von G. Ganesan im Jahr 2005 gegeben. Später im Jahr 2013 hatten B. Krishnaveni und G. Ganesan ein Verfahren zur Charakterisierung von Informationssystemen unter Verwendung von intuitionistischen Fuzzy-Entscheidungsattributen durch intuitionistische grobe Fuzzy abgeleitet Gruppen. Auf dieser Grundlage haben G. Ganesan und B. Krishnaveni im Jahr 2014 das Indizierungsverfahren bei der Charakterisierung eingeführt, die mit Fuzzy-Entscheidungsattributen erhalten wird. Im vorliegenden Beitrag wenden wir dieses Verfahren unter intuitionistischen Fuzzy-Entscheidungsattributen an.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-3433-6_31 5ba97b5d22ef875ce9adca435c4e5f84;de;;;2.2.;;;Verbesserung der Themenkohärenz durch sparsames Sprachmodell und latente semantische Indizierung Das Themenmodell beinhaltet die statistische Modellierung unstrukturierter Daten. Die kritische Anforderung für ein effizientes Themenmodell beinhaltet die Entfernung von nicht verwandten Wörtern, die zu einer fadenscheinigen Koexistenz der nicht verwandten Wörter führen könnten, die in die Themenmodelle eindringen. Um eine bessere Themenqualität der Dokumente zu erhalten, ist die Vorverarbeitung ein wesentlicher Schritt, um Stoppwörter zu entfernen. Abgesehen von Stoppwörtern gibt es jedoch viele nichtinformatische Wörter im Korpus, die die Qualität von Themenmodellen beeinflussen. In einem Versuch, ein effizientes Themenmodell zu erstellen, schlägt dieses Papier eine effiziente Strategie für die Schaffung von viel mehr Themenkohärenz vor, indem das Parsimonious Language Model als Vorverarbeitungsrahmen verwendet wird. Das sparsame Sprachmodell extrahiert den dokumentspezifischen Begriff und verdrängt die allgemeinen Wörter. Um die Leistung von Themenmodellen zu bewerten, berechnet dieses Papier die Themenkohärenz, indem der Abstand zwischen Vektoren geschätzt wird. In diesem Artikel wurden 20 Newsgroup-Datensätze verwendet, um Experimente durchzuführen. Es wurde beobachtet, dass die vorgeschlagene Methodik im Vergleich zu anderen Basismodellen kohärentere Ergebnisse liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1420-3_89 b18b2db04b24a66a72234ef59da0fe10;de;;;2.2.;;;Effiziente Tabellenführung strukturierter Daten durch Indizierung und Programmtransformation Die Tabellendarstellung strukturierter Daten ist wichtig, um die dynamische Programmierung in Logikprogrammen zu unterstützen. Mehrere bestehende Tabellensysteme für Prolog verarbeiten strukturierte Daten nicht effizient, sondern duplizieren einen Teil der strukturierten Daten in verschiedenen Fällen von Tabellenzielen. Infolgedessen kann die zeitliche und räumliche Komplexität oft deutlich höher sein als das theoretisch optimale. Es wird eine einfache Programmtransformation vorgeschlagen, die eine Indexierung strukturierter Daten verwendet, die dieses Problem beseitigt, und drastische Verbesserungen der Zeit- und Raumkomplexität können demonstriert werden. Die Technik wird für dynamische Programmierbeispiele demonstriert, die in Prolog und PRISM ausgedrückt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27694-1_8 06466130f8d2a01c9326104f54298351;de;;;2.2.;;;Akteurbasierte Videoindizierung und -abruf mit visuellen Informationen In diesem Beitrag werden inhaltsbasierte Videoindexierungs- und -abrufalgorithmen vorgestellt, die darauf abzielen, eine Videosequenz zeitlich nach Akteuren zu indizieren. Unser System teilt ein Video in eine Sequenz von wenigen repräsentativen Frames auf. Wir verwenden Farbinformationen und dann die SGLD-Matrix für die repräsentativen Frames zur Gesichtsbereichserkennung. Erkannte Gesichter werden verwendet, um eine Gesichtsdatenbank aufzubauen. Wir konstruieren Eigengesichter, indem wir PCA auf die Gesichter in der Gesichtsdatenbank anwenden, um wichtige Merkmale zu extrahieren. Extrahierte Merkmale werden dann in MPM verwendet, um das Eingabegesicht aus den Trainingsgesichtern zu identifizieren. Das experimentelle Ergebnis zeigt, dass unser Ansatz 95,3% bzw. 90,84% der Gesichter aus der AT&T-Gesichtsdatenbank bzw. der Videosequenz korrekt erkennen kann.;-;-;-;https://link.springer.com/chapter/10.1007/11881223_61 cbf7e2c724aff6d2a4eeb580ce332ea4;de;;;2.2.;;;Auf dem Weg zur trainingsfreien Verfeinerung für die semantische Indexierung visueller Medien Die inhaltsanalytische Indexierung visueller Medien geht über die Verwendung einzelner Konzeptdetektoren hinaus und konzentriert sich nun auf die Kombination von Konzepten oder die Nachbearbeitung der Ergebnisse der individuellen Konzepterkennung. Aufgrund der Einschränkungen und Verfügbarkeit von Trainingskorpora, die normalerweise spärlich und ungenau beschriftet sind, leiden trainingsbasierte Verfeinerungsmethoden für die semantische Indexierung von visuellen Medien an der korrekten Erfassung von Beziehungen zwischen Konzepten, einschließlich Kookkurrenz und ontologischer Beziehungen. Im Gegensatz zu trainingsabhängigen Methoden, die dieses Feld dominieren, stellt dieser Beitrag einen trainingsfreien Verfeinerungsalgorithmus (TFR) zur Verbesserung der semantischen Indexierung visueller Medien basierend auf reinen Konzepterkennungsergebnissen vor, der die Verfeinerung anfänglicher Konzepterkennungen basierend auf semantischer Erweiterung, praktisch und flexibel. Dies wird unter Verwendung von globalen und zeitlichen Nachbarschaftsinformationen erreicht, die aus den ursprünglichen Konzepterkennungen im Hinblick auf eine gewichtete nicht-negative Matrixfaktorisierung bzw. nachbarschaftsbasierte Graphausbreitung abgeleitet wurden. In dieses Modell können auch alle verfügbaren ontologischen Konzeptbeziehungen als zusätzliche externe Quelle integriert werden;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27671-7_21 64c3d8d3b7f1fae8e92935f74553eaf7;de;;;2.2.;;;Drei-Wege-Indexierung von ZDDs für große, spärliche Datensätze Nullunterdrückte Entscheidungsdiagramme (ZDDs) sind eine Datenstruktur zum Darstellen von Kombinationen über Elementmengen. Sie wurden in vielen Bereichen wie Data Mining angewendet. Wenn ZDDs große, spärliche Datensätze darstellen, neigen sie dazu, eine unausgeglichene Form anzunehmen, was zu Leistungseinbußen führt. In diesem Papier schlagen wir als Variante von ZDDs eine neue Datenstruktur mit Drei-Wege-Indexierung vor. Wir präsentieren außerdem Algorithmen zur Umwandlung zwischen Drei-Wege-Indexierungs-ZDDs und gewöhnlichen ZDDs. Experimentelle Ergebnisse zeigen die Effektivität unserer Datenstruktur und Algorithmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13186-3_41 06d523e35db230e4303e0704c2532d2b;de;;;2.2.;;;Indizieren und Durchsuchen von Mathematik in digitalen Bibliotheken Dieser Beitrag gibt einen Überblick über Ansätze und Systeme zur Suche nach mathematischen Formeln in mathematischen Korpora und im Internet. Das Design und die Architektur unseres MIaS-Systems (Math Indexer and Searcher) werden vorgestellt und unsere Designentscheidungen werden ausführlich diskutiert. Ein auf Präsentations-MathML basierender Ansatz, der eine Ähnlichkeit mathematischer Teilformeln verwendet, wird vorgeschlagen und durch die Implementierung als mathematische Suchmaschine basierend auf dem hochmodernen System Apache Lucene überprüft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22673-1_16 96d0ea8ca8febb957cf510c40737eadd;de;;;2.2.;;;Echtzeit-Videoindexierungssystem für digitale Live-TV-Programme In diesem Papier stellen wir ein Echtzeit-Metadatendienstsystem vor, das für digitale Live-Fernsehprogramme implementiert wird. Das System besteht aus drei Teilen: einem Indexierungshost, der Sendeprogramme in Echtzeit indiziert, einem Sender, bei dem die vom Indexierungshost gelieferten Segmentierungsmetadaten in den Broadcast-Stream gemultiplext und an Clients übertragen werden, und einem Client-PVR, der die Metadaten empfängt und lokalisiert ein interessierendes Segment aus dem aufgezeichneten Strom gemäß der Zeitbeschreibung der gelieferten Metadaten. Wir schlagen vor, die Sendezeit für eine Zeitbeschreibung der Segmentierungsmetadaten zu verwenden, um frei von Medienlokalisierungsproblemen in der Sendeumgebung zu sein. Darüber hinaus verwenden wir ein räumlich-zeitliches visuelles Muster eines Videos für ein Verifizierungstool der Echtzeit-Indizierung, so dass wir die Fehlalarme der Videosegmentierung reduzieren können, die durch das Fehlen eines effizienten Tools zum Verifizieren von Videosegmenten verursacht werden. Als Ergebnis zeigen wir die realen Experimente, die ohne Rückkanal durchgeführt werden, und demonstrieren die Machbarkeit des vorgeschlagenen Systems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27814-6_33 527f7ef28d5098007fd584765bba00c0;de;;;2.2.;;;Indizierung multimodaler biometrischer Datenbanken mit Kd-Tree mit Feature Level Fusion Dieses Papier schlägt eine effiziente Indexierungstechnik vor, die in einem Identifikationssystem mit großen multimodalen biometrischen Datenbanken verwendet werden kann. Die vorgeschlagene Technik basiert auf Kd-Baum mit Feature-Level-Fusion, die den mehrdimensionalen Feature-Vektor verwendet. Ein mehrdimensionaler Merkmalsvektor jedes Merkmals wird zuerst normalisiert und dann auf einen niedrigerdimensionalen Merkmalsraum projiziert. Die reduzierten dimensionalen Merkmalsvektoren werden auf Merkmalsebene fusioniert und die fusionierten Merkmalsvektoren werden verwendet, um die Datenbank durch Bilden eines Kd-Baums zu indizieren. Das vorgeschlagene Verfahren reduziert die Datenabrufzeit zusammen mit möglichen Fehlerraten. Das System wird auf multimodalen Datenbanken getestet (Fusion auf Funktionsebene von Ohr, Gesicht, Iris und Signatur) und besteht aus 5400 Bildern von 150 Probanden (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89862-7_19 856628279b37cb68ebadfaece1923736;de;;;2.2.;;;Experimentelle Leistungsanalyse von B+-Bäumen mit Big-Data-Indexierungspotenzialen Die Indizierung hat erheblich zur Leistungsverbesserung der Abfrageverarbeitung beigetragen. Dabei wurden in den letzten Jahrzehnten viele Indexierungstechniken entwickelt und eingesetzt. Einige dieser Techniken sind statisch und basieren auf Daten, während andere dynamisch und adaptiv sind und normalerweise auf Abfragen basieren. Mit dem Aufkommen von Big Data und seinen Analysetools wird erwartet, dass sich die Implementierung der Indexierung auf solche Tools zur Leistungsverbesserung ausdehnt. Bisher wurden jedoch nur sehr wenige der erfolgreichen Indexierungstechniken in relationalen Datenbanken auf Big-Data-Plattformen untersucht. Daher teilt dieser Artikel die Ergebnisse eines vergleichenden Experiments, das mit B+-Tree-Varianten bei der Indizierung von Big Data durchgeführt wurde. Dies geschieht mit dem Ziel, die Indizierungspotenziale von B+-Bäumen in der Big-Data-Analyse aufzudecken. Die ausgewählten Bäume sind: Traditioneller B+-Baum, Partitionierter B+-Baum, Einfacher Präfix B+-Baum und Hybrid Partitionierter Einfacher Präfix B+-Baum. Im Experiment werden Faktoren für die Bewertung des Indexansatzes verwendet, um die Leistung der Datenstrukturen zu bewerten und zu vergleichen. Die experimentellen Ergebnisse zeigten, dass der partitionierte B+-Baum insgesamt hinsichtlich der Ausführungszeit besser abgeschnitten hat als die übrigen B+-Baum-Varianten. Dies ist neben der Flexibilität und Anpassungsfähigkeit des partitionierten B+-Baums.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-59427-9_3 0f0f9b8fa87950c953ceecbb4b935975;de;;;2.2.;;;Integration eines Metadaten-Editors mit Hyperbolic Tree zur Verbesserung des Datenzugriffs in Geodateninfrastrukturen Die Speicherung und Verwaltung von Metadaten ist eine wesentliche Aufgabe in Systemen, die mit Geodaten umgehen. Um diese Aufgabe zu erfüllen, ist es jedoch notwendig, mit einer Reihe von Werkzeugen zu rechnen, die im integrierten Modus arbeiten. Dieses Papier beschreibt die Entwicklung von edpMGB, einem Metadateneditor für das MGB-Profil. Der Editor ist quelloffen und wird nach dem Software-as-a-Service-Modell (SaaS) in der Cloud über das Web veröffentlicht, sodass er von jeder Site im Internet aus zugänglich ist und nur ein Webbrowser erforderlich ist. Der Editor wurde im Rahmen des Forschungs- und Entwicklungsprojekts (F&E) Geoportal Cemig SDI-based Corporate GIS (Geoportal Cemig - SIG corporativo baseado em IDE) entwickelt, dessen Ziel die Implementierung eines Corporate SDI für die Minas Gerais Power Company Companhia Energética de Minas Gerais - Cemig). Darüber hinaus schlägt diese Arbeit die Verwendung eines hyperbolischen Baums vor, um die Indizierung von Metadaten zu unterstützen und ihre Wiederherstellung zu erleichtern. Nach der Indizierung kann der Benutzer durch die Baumknoten navigieren und Suchen in den Metadaten zu den Suchwörtern durchführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-62618-5_2 12692a54f1445d205c885a2a037b2ed0;de;;;2.2.;;;Zweisprachige Chunk-Ausrichtung basierend auf interaktivem Matching und probabilistischer latenter semantischer Indexierung In diesem Papier wird eine integrierte Methode zur zweisprachigen Chunk-Partition und -Ausrichtung vorgeschlagen, die als „Interactional Matching“ bezeichnet wird. Im Gegensatz zu früheren Arbeiten versucht unsere Methode, so notwendige Informationen wie möglich aus den zweisprachigen Korpora selbst zu erhalten, und kann durch die zweisprachige Einschränkung automatisch eins-zu-eins-Chunk-Paare bilden, die den Chunk-Paar-Konfidenzkoeffizienten zugeordnet sind. Außerdem unterteilt unsere Methode zweisprachige Sätze vollständig in Blöcke, ohne dass Fragmente übrig bleiben, anders als bei Kollokationsextraktionsmethoden. Darüber hinaus kann diese Methode mit der Technologie des Probabilistic Latent Semantic Indexing (PLSI) nicht nur kompositorische, sondern auch nicht kompositorische Chunks behandeln. Die Experimente zeigen, dass unsere Methode für den Gesamtprozess (einschließlich Partition und Ausrichtung) eine 85%-Präzision mit 57%-Erinnerung für die Chunk-Paare der geschriebenen Sprache und 78% Präzision mit 53%-Erinnerung für die Chunk-Paare der gesprochenen Sprache erreichen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30211-7_44 6c1635968ddf8b484a4a76c905ec9b93;de;;;2.2.;;;Ein Indexierungsmodell von Fernerkundungsbildern Dieser Beitrag beschäftigt sich mit dem Problem der Indizierung von Fernerkundungsbildern. Diese Art von Bildern hat eine Semantik, die sich hauptsächlich auf die spektralen Eigenschaften des Bildes bezieht. Aus diesen Gründen können die spektralen Eigenschaften als effektive Bilddeskriptoren angesehen werden. Das in diesem Papier vorgeschlagene Modell geht davon aus, dass die Bilddeskriptoren Spektralbereiche und deren spektrale Signaturen sind. Durch die Anwendung eines Clustering-Algorithmus wird jedes Bild in einen Satz von Spektralbereichen segmentiert, die grundlegenden (vordefinierten) Bodenbedeckungsklassen zugeordnet werden. Um die Unsicherheit zu berücksichtigen, die häufig den Clusterkennzeichnungsprozess beeinflusst, erzeugt das Indexierungsmodell für jede Region und jede Referenzklasse einen Möglichkeitsgrad, der die Möglichkeit anzeigt, dass die Region dieser Klasse entspricht. Die Unsicherheit dieser Assoziation wird explizit modelliert und ermöglicht die Definition einer flexibleren Bilddarstellung in Bezug auf einen knackigen Ansatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27814-6_61 c1edd439b3e964fdf7eb6e53086bdd31;de;;;2.2.;;;Lokale Kantenmuster für Farbbilder: Ein Ansatz für die Bildindizierung und -wiederherstellung Local Edge Patterns for Colour Images (LEPCI) für die Bildindizierung und das Wiederauffinden sind eine neuartige Merkmalsextraktionstechnik, die mit diesem Dokument geliefert wird. Das in RGB und LEPCI umgewandelte Bild kodiert die einzigartige ODER-(XoR)-Operation zwischen dem mittleren Pixel jeder Farbebene und seinen umgebenden Assoziierten quantisierten Orientierungs- und Gradientenwerten. Während Nachbarschafts-Binärstile (LBP) und lokale Orientierungs- und Gradienten-XoR-Stile (LOGXoRP) die Beziehung zwischen den Grauwerten des mittleren Pixels und seinen assoziierten Elementen kodieren, zeigen wir, dass LEPCI im Vergleich zu LBP und LOGXoRP effektive Textur-(Facetten-)Features extrahieren kann für Farbbilder. Die Gesamtleistung der vorgeschlagenen Technik wird durch Experimente mit Corel-10K-Datenbanken getestet. Die Auswirkungen des vorgeschlagenen Verfahrens zeigen Fortschritte hinsichtlich ihrer Bewertungsmaßnahmen im Gegensatz zu LBP, LOGXoRP und anderen gegenwärtigen Systemen mit bestimmten Datenbanken.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1580-0_5 0b80f5ad118ab1a75b6b49b98721e849;de;;;2.2.;;;Ikonische Indizierung für visuelle Datenbanken In diesem Kapitel beschreiben wir die verallgemeinerte kombinierte 2D-String-Darstellung für Bilder und Multimedia-Dokumente in visuellen Datenbanken. Jedes 2D-Bild wird als verallgemeinertes erweitertes pseudosymbolisches Bild (GEP) modelliert, das durch die GEP-2D-String-Darstellung dargestellt wird. Wir präsentieren einen effizienten Algorithmus, um die GEP-2D-String-Darstellung für jedes 2D-Bild zu generieren. Dieses ikonische Indexierungsschema kombiniert sowohl die GEP-2D-String-Darstellung als auch die übliche 2D-String-Darstellung, um absolute und relative räumliche Beziehungen im Bild zu erfassen. Die Anwendung auf das Wiederauffinden von Multimediadokumenten durch verallgemeinerte kombinierte 2D-Strings wird diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4825-6_6 894d927d05a8fa7543cac2af975fb1e0;de;;;2.2.;;;Das CIMWOS Multimedia Indexing System Wir beschreiben ein multimediales, mehrsprachiges und multimodales Forschungssystem (CIMWOS), das die inhaltsbasierte Indexierung, Archivierung, Abfrage und Bereitstellung von audiovisuellen Inhalten auf Abruf unterstützt. CIMWOS (Combined IMage and WOrd Spotting) enthält einen umfangreichen Satz von Multimedia-Technologien durch nahtlose Integration von drei Hauptkomponenten – Sprach-, Text- und Bildverarbeitung – und erzeugt eine reichhaltige Sammlung von XML-Metadaten-Annotationen nach dem MPEG-7-Standard. Diese XML-Annotationen werden weiter zusammengeführt und in die CIMWOS Multimedia Database geladen. Darüber hinaus können sie dynamisch transformiert werden, um semantikbasierte Informationen über XSL-Stylesheets in RDF-Dokumente auszutauschen. Die CIMWOS Retrieval Engine basiert auf einem gewichteten booleschen Modell mit intelligenten Indexierungskomponenten. Eine benutzerfreundliche webbasierte Schnittstelle ermöglicht es Benutzern, Videosegmente durch eine Kombination aus Medienbeschreibung, Inhaltsmetadaten und Text in natürlicher Sprache effizient abzurufen. Die Datenbank umfasst Sport, Nachrichtensendungen und Dokumentationen in drei Sprachen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27814-6_72 780e490547d067ba8dec5bc1519019c9;de;;;6.1.;;;Wissenschaftlerinnen auf Informatikkonferenzen:Frauen sind in der Informatik mit einem Anteil von circa 15 % unterrepräsentiert. In der Forschung verteilten sie sich auf die Themen unterschiedlich, nämlich überproportional auf die ,,weichen“ Themen wie das Requirements Engineering und deutlich weniger auf andere (,,harte“?) Themen wie Programmierung, Managementthemen und Bioinformatik. In einer Gender-Studie im Rahmen meiner Klara-Marie-Faßbender-Gastprofessur an der Fachhochschule Bingen haben wir quantitativ untersucht, wie aktiv Informatikerinnen sich in verschiedenen Funktionen an Konferenzen beteiligen. Anhand dieser Daten wurden Fragen untersucht wie: Engagieren sich Frauen aktiv an der Konferenzorganisation und auf Gate-keeper-Positionen? Werden sie genügend als Expertinnen in Programmkomitees (PK) eingeladen? Fördern Frauen Frauen, tragen also beispielsweise mehr Frauen bei einer Veranstaltung vor, wo mehr Frauen im PK sind? Aus den Antworten auf diese rein statistischen Fragen kann man Schlussfolgerungen darüber ziehen, wo und warum auf der wissenschaftlichen Karriereleiter Frauen ,,verloren“ gehen. ;-;-;-;https://link.springer.com/article/10.1007/s00287-014-0839-8 dbf0b3a30884ef71ecec392be0c83b84;de;;;6.1.;;;Ergebnisse der Delphi-StudieIm folgenden werden die Ergebnisse der Studie dokumentiert und in den Zusammenhang des oben erstellten theoretischen Bezugsrahmens gestellt. Bei der Darstellung der Ergebnisse wird versucht, aus der Vielzahl der Daten die wesentlichen Resultate hervorzuheben. Bei der Interpretation wird besonderes Augenmerk auf eine Übereinstimmung oder auch Diskrepanz mit den aus den theoretischen Erwägungen erwarteten Ergebnissen gelegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-81506-4_5 14f6525580e3831b888f2e801a3ab384;de;;;6.1.;;;Wertorientiertes Vendor Managed Inventory durch IT-gestützte SteuerungIm Wettbewerb um die begrenzten Verkaufsflächen im Lebensmitteleinzelhandel (LEH) bieten Lieferanten Vendor Managed Inventory (VMI) als komplementäre Dienstleistung zu ihren Produkten an. Der LEH stellt mit über 30.000 Filialen deutschlandweit besondere Herausforderungen an Zulieferer, die mittels VMI die Warendisposition in den Verkaufsregalen steuern. Eine effiziente Bewältigung dieser logistischen Aufgabe kann nur durch eine eng aufeinander abgestimmte Zusammenarbeit zwischen den beteiligten Akteuren erfolgen. Die gezielte Zusammenführung und Nutzung von Informationen zur wertorientierten Steuerung eröffnet dabei Potenziale zur Einsparung von Kosten und Steigerung der Servicequalität, wie eine Fallstudie aufzeigt.;-;-;-;https://link.springer.com/article/10.1007/BF03340703 a70bc5e6a2b9eecba5b71a5bed2e533d;de;;;6.1.;;;Entwicklung des In-House BankingVoraussetzung für die Entwicklung von nationalen Unternehmen zu internationalen Unternehmen sind bestimmte Umweltkonstellationen, insbesondere rechtliche Rahmenbedingungen, die den ungehinderten Austausch von Gütern und Dienstleistungen zwischen Staaten, die Ansiedlung von Produktionsbetrieben, den Erwerb ausländischer Produktionsbetriebe und einen möglichst freien Kapitalverkehr ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-84588-7_3 63e5fb7a4d97c8f2bbf7f110ba44ecb6;de;;;2.2.;;;Statistische Auswertung von abgerufenen Bildern und Videos mit dem INACT-Tool Das INACT-Tool wurde entwickelt, um von Polizeibehörden in Fällen von Strafverfolgung wegen Herstellung, Verbreitung und Besitz von Kinderpornografie (CP) eingesetzt zu werden. Das INACT-Tool wird im Rahmen des Forschungsprojekts INDECT entwickelt. Wir haben eine statistische Auswertung der Ergebnisse durchgeführt, um den Erfolg und die Leistung im Suchprozess zu bestimmen. Wir haben uns auf die Größe des Konfidenzintervalls konzentriert, das auf den Werten der ersten Trefferzeiten basiert. Ziel der Experimente war es, zu bestätigen, dass die INACT-Anwendung funktionsfähig ist und gut genug funktioniert, um von Polizeikräften bei der Suche nach CP verwendet zu werden. Das Papier beschreibt auch Fortschritte bei der Entwicklung der INACT-Anwendung in Bezug auf die Indexierung und Suche von Filmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07569-3_16 5731e905e3a7bdb1878ad4e57d423c5e;de;;;6.1.;;; Techniken für Web-basierte Datenbankanwendungen: Anforderungen, Ansätze, Architekturen Die rasche Verbreitung und einfache Nutzungsmöglichkeit des World Wide Web (WWW) hat heute schon zu einer Vielzahl Web-basierter Datenbankanwendungen geführt. Man geht jedoch davon aus, daß das eigentliche Wachstum des WWW und seiner Anwendungen durch die Fortschritte in der Kommunikations- und Informationstechnik erst noch bevorsteht [10]. In diesem Beitrag stellen wir die bei der Realisierung Web-basierter DB-Anwendungen eingesetzten Techniken vor. Hierzu untersuchen wir zunächst typische DB-Anwendungen, die über das WWW abgewickelt werden, um sie anhand ihrer Kriterien charakterisieren zu können. Daran anschließend diskutieren und analysieren wir nach einem Überblick die unterschiedlichen Realisierungstechniken im Detail.;-;-;-;https://link.springer.com/article/10.1007/s004500050113 99357517fc53e0bb31030c63db2af656;de;;;6.1.;;;Erläuterungen der Bestimmungen der DIN-Norm 77006Im Visier der DIN-Norm 77006 ist ohne jede Einschränkung das gesamte IP-Management eines Wirtschaftsbetriebs. Dabei unterstellt die Norm die Sinnhaftigkeit eines IP-Managements (IPM). Zu Recht. Denn ein aktives qualifiziertes IPM ist in der Lage, das geistige Eigentum eines Unternehmens konsequent zu nutzen, seinen Schutz zu optimieren, seine Wettbewerbsstärke zu steigern, den Unternehmenswert zu mehren und wesentlich dazu beizutragen, die Zukunft des Unternehmens zu sichern. IPM ermöglicht die Schaffung und Gestaltung von geistigem Eigentum, die Kapitalisierung von Elementen des geistigen Eigentums und deren Konvertierung in alternative Wirtschaftsgüter.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-31320-3_2 1cfa7aab1aa6d9af373ba550d8277cfa;de;;;6.1.;;;Flexibilitätspotentiale zur Verbesserung der Migrationsfähigkeit der InformationsinfrastrukturIn einer sich dynamisch verändernden Umwelt hängen die dauerhafte Existenz und der Erfolg einer Unternehmung in zunehmendem Maße von der Fähigkeit ab, sich Veränderungen in ihrem Umfeld anpassen zu können. Dabei hat die Bedeutung der Information im Wettbewerb zwischen den Unternehmen immer mehr zugenommen. Das Informationsmanagement ist aufgrund der Bedeutung der Ressource Information für den Erfolg der Unternehmung eine Aufgabe der Unternehmensführung. Es stellt “einen integralen Bestandteil der Unternehmensführung dar”;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08281-1_1 2cd296c171a18814e70d05963f972762;de;;;6.1.;;;MIS-Paradigmen und ihre Beeinflussung durch das Produktivitätsparadoxon“Mehr Informationstechnologie führt zu mehr Unternehmenserfolg”: Daß die Verbindung zwischen IT und Produktivität — dem quantitativ meßbaren Verhältnis zwischen Input und Output — empirisch nicht nachweisbar gewesen war, erlebten viele Wissenschafter als paradox. Durch die Erweiterung dieses Ansatzes um organisationswissenschaftliche, strategische und verhaltenswissenschaftliche Komponenten gelang es im ersten und zweiten Kapitel, einen etwas komplexeren Zusammenhang zwischen IT und Unternehmenserfolg zu validieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08358-0_4 95bbb1b13f9b293bf7af05554738ecb3;de;;;6.1.;;;Vorgehensweise zur Anwendung Digitaler Geschäftsprozesse auf Basis von Künstlicher IntelligenzInitialer Schritt in der Generierung von KI-Anwendungen ist die Definition der Strategie. Aufbauend auf der Strategie wird das Geschäftsmodell konzipiert und die Projektumsetzung geplant.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-33532-8_3 f53a0921f5a5114aa28f311609dfae23;de;;;6.1.;;;Technologien für mobile InformationssystemeDer Einsatz mobiler Anwendungen im Unternehmen fuhrt meist zu einer Erweiterung der bereits vorhandenen Übertragungsmöglichkeiten (z.B. Internet). Dabei müssen zusätzliche Aspekte betrachtet werden, die bei stationären Anwendungen keine oder nur eine untergeordnete Rolle spielen. Abhängig vom verwendeten Browser bzw. Protokoll kann zwischen zwei Möglichkeiten bei der Datenübertragung unterschieden werden. Diese zwei Modelle, das Web-Modell und das WAPModell, werden einschließlich der Protokolle vorgestellt und kurz verglichen. Abschließend wird auf die Möglichkeiten von Push- und Pull-Diensten eingegangen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55626-5_3 b2b2aed5ce129bac91d92351fcece2d2;de;;;2.2.;;;Broadcast-basierter Datenzugriff in drahtlosen Umgebungen Broadcast ist eine der am besten geeigneten Formen der Informationsverbreitung über drahtlose Netzwerke. Es ist besonders attraktiv für mobile Kunden mit eingeschränkten Ressourcen in;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45876-X_35 cbe273aadf854f7f17fa7e9b65c2cc0b;de;;;6.1.;;;VPE an der Technischen Universität KaiserslauternProf. Dr.-Ing. Martin Eigner, geboren 1951, studierte an der Technischen Universität Karlsruhe und promovierte dort 1980 auf dem Gebiet CAD. Anschließend war er Leiter der Technischen Datenverarbeitung und Organisation in einem Geschäftsbereich der Robert Bosch GmbH. Hier lagen seine Schwerpunkte im Technischen Rechenzentrum, in der Elektronikentwicklung und Mikroprozessoranwendung, Rationalisierung, Produktfreigabe und im Produktänderungswesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87898-8_31 ebc16af8b3b385098e681be1293559b9;de;;;6.1.;;;Was ist Social Media?Was ist das Besondere an Social Media? Wie bringt man die Nutzer dazu, Inhalte zu teilen? Warum sind Social Networks und ist die öffentliche Konversation darin so wichtig? Journalisten und ihre Medienhäuser können Massenwirkung erzielen, wenn sie verstehen, wie Social Media und deren Nutzer ticken. Dazu braucht es Informationsmanagement, Identitätsmanagement und Beziehungsmanagement.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-07359-6_2 52c0d4bd66bfb2e2fbcc50423753a0f1;de;;;2.2.;;;Räumliche Zugriffsmethoden Spatial Databases decken eine breite Palette von Anwendungen ab, die räumliche Daten verarbeiten, z. B. Punkte, Linien und Regionen im mehrdimensionalen Raum. GIS sind die beliebtesten. GIS-Anwendungen umfassen Kartografie und Netzwerk- (wie Straßen-, Telefon- oder Computer-) Kartierung, abgesehen von solchen Anwendungen sind Geodatensätze in den Bereichen Computer Aided Design (CAD), Robotik, Very Large Scale Integration (VLSI) Design von Interesse und Multimedia-Systeme. In diesem Kapitel stellen wir kurz die grundlegenden Eigenschaften einer Geodatenbank vor und beschreiben anschließend detailliert die wesentlichen Anstrengungen zur effizienten Manipulation von Geodaten durch spezialisierte Indexierungsstrukturen und Zugriffsmethoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-8590-3_6 47dd937398c2e1a3a7ea39f61aafeb57;de;;;6.1.;;;Open Source SoftwareSoftwareanbieter im engeren Sinne erstellen Software mit dem Ziel, Lizenz- und gegebenenfalls auch Dienstleistungserlöse zu generieren. Die Motivationslage bei Open-Source-Projekten sieht demgegenüber meistens anders aus: Eine internationale Gemeinde von Softwareentwicklern schließt sich zusammen, um gemeinsam ein Problem zu lösen und ihr Wissen zu teilen. Dabei investieren viele Entwickler ihre Zeit, ohne dass sie – zumindest gilt dies in den meisten Fällen – dafür bezahlt werden. Das bedeutet jedoch nicht, dass Open Source Software (OSS) ökonomisch nicht relevant ist. Im Gegenteil: OSS stellt sowohl die Softwareindustrie als auch die Anwender vor grundlegende Fragen, denen wir in diesem Kapitel nachgehen möchten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45589-0_8 5662ee481d3e6fb428eda25cd1809569;de;;;6.1.;;;Ausgewählte Gestaltungsperspektiven in den Bereichen des normativen und strategischen Managements einer wertorientierten Etablierung von Biotech-UnternehmenJunge technologieorientierte und wachstumsstarke Biotech-Unternehmen stehen vor der Herausforderung, sich heute in einem von Dynamik und Komplexität gekennzeichnetem Umfeld zu etablieren. Zur Etablierung, d. h. zur Sicherung der eigenen Existenz, müssen die Unternehmen sich auf die Entwicklungs- und Fortschrittsfähigkeit ihres Unternehmens fokussieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-81777-8_4 cda8723f74e5e558e79ea3bd64551c0f;de;;;6.1.;;;Faktoren für Erfolg und Mißerfolg von SoftwareprojektenHauptanliegen dieser Arbeit ist es, ausgehend von Beobachtungen komplexer internationaler Softwareprojekte, einerseits Risikofaktoren für die Projektdurchführung zu identifizieren und andererseits Voraussetzungen zum Gelingen verteilter Softwareprojekte aufzuzählen, die bei erfolgreichen Software-Projekten beobachtet werden konnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-10722-4_3 c507fefbe679518e7a45c999bf8778b9;de;;;6.1.;;;Die Information als Basis des ErfolgesWissen ist Macht! Dieser Ausdruck hat schon von alters her seine Bedeutung im menschlichen Leben, so auch im wirtschaftlichen Bereich. Trotzdem wurde über Jahrzehnte hinweg in den Betrieben und in der Betriebswirtschaftslehre dem „Wissen“ nicht der Rang zugebilligt wie den sogenannten Produktionsfaktoren Arbeit, Betriebsmittel und Werkstoff. Zu sehr war die Betrachtung produktionsorientiert im Sinne von Leistungserstellung und -verwertung. Folgerichtig wurde der Erfolg eines Unternehmens in Abhängigkeit von der Optimierung des Einsatzes der Produktionsfaktoren gesehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-87043-8_7 746e917329cc98c1711bca2c350e23e0;de;;;6.1.;;;Das UNIX-SystemAls Ken Thompson 1969 bei Bell Laboratories, einer gemeinsamen Tochter der Firmen AT&T und Westem Electric, die Entwicklung eines neuen Betriebssystems begann, waren die meisten der vorhandenen Systeme ausgesprochene ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-97109-9_2 c80e1ca8181cd3092d459a89285345c8;de;;;6.1.;;;Lernplattformen für das Corporate e-LearningEs gibt eine Vielzahl an Werkzeugen, die unter dem Begriff „Lernplattform“ vermarktet werden. Als bekannteste Vertreter dieser Software-Gattung werden Learning Management Systeme (LMS) bereits in zahlreichen Großbetrieben für die Gestaltung der betrieblichen Lernprozesse eingesetzt. Die dabei verwendeten Systeme sind technisch mittlerweile sehr ausgereift, beschränken sich in der Kernfunktionalität aber meist auf die Steuerung der Lehr- und Lernprozesse nach einem instruktionistisch motivierten Grundprinzip. Um die Ziele für das Corporate e-Learning breiter fassen und weitere strategische Optionen verwirklichen zu können, werden Systeme benötigt, die auch didaktisch gut skalieren. Die dafür notwendigen und über entsprechende Schnittstellen integrierbaren Zusatzwerkzeuge für Learning Content Management und e-Collaboration werden kurz vorgestellt und deren Möglichkeiten zur Gestaltung der betrieblichen Lernprozesse beschrieben. Abschließend werden 16 LMS aufgelistet, die sich in einer kürzlich durchgeführten Evaluationsstudie als technisch und didaktisch vielseitige e-Learning-Systeme erwiesen haben;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-81837-9_5 2d15f20bd199164ba47111a6fb4608ef;de;;;2.2.;;;Über die Verbesserung der Von 1963 bis 1972 wurden etwa 45 000 absolute und semi-absolute Beobachtungen der Rektaszension der FK4-Sterne gemacht. Die Beobachtungen wurden mit den drei Instrumenten des Cerro Calán-Observatoriums gemeinsam von chilenischen und sowjetischen Astronomen durchgeführt. Dadurch wird systematisch;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-2199-9_6 d7bad8fa58d7f42204196b1bdc9ee4b1;de;;;6.1.;;;Industrieunternehmen und die Transformation von Geschäftsmodellen im Kontext der Digitalisierung – Eine empirische Studie über die Auswirkungen anhand des Business Model CanvasIm Beitrag werden die Auswirkungen der Digitalisierung auf die Geschäftsmodelle von Industrieunternehmen im Zusammenhang mit der Entwicklung integrierter, datenbasierter Produkt-Dienstleistungsbündel untersucht. Beispiele hierfür sind Produzenten von Automatisierungsrobotern, die zusätzlich zum physischen Kernprodukt ihren Kunden verknüpfte, digitale Services zur intelligenten Steuerung, Optimierung oder Wartung anbieten. Dabei können durch die Analyse der im laufenden Betrieb erzeugten Daten neue kundenindividuelle Lösungsangebote geschaffen und damit zusätzlicher Kundennutzen generiert werden. Industrieunternehmen können somit durch die Entwicklung digitaler Geschäftsmodelle entscheidende Wettbewerbsvorteile generieren und neue Märkte erschließen. Im Beitrag werden zunächst die Auswirkungen der Digitalisierung auf die Geschäftsmodelle von Industrieunternehmen untersucht und anhand des Business Model Canvas als etablierte Methode zur Geschäftsmodellentwicklung strukturiert dargestellt und beurteilt. Auf Basis von fünf Interviews mit Experten von führenden Unternehmen in verschiedenen Schlüsselbranchen werden zentrale Auswirkungen, die daraus resultierenden Herausforderungen sowie praxisrelevante Handlungsempfehlungen diskutiert und abgeleitet. Veranschaulicht werden die mit der Digitalisierung einhergehenden Entwicklungen anhand einer Fallstudie am Beispiel von Mitsubishi Electric. Durch den Beitrag werden Praktikern die mit der digitalen Transformation von Geschäftsmodellen einhergehenden Auswirkungen erläutert sowie Ansatzpunkte für den Wandel hin zur digitalen, hybriden Wertschöpfung aufgezeigt.;-;-;-;https://link.springer.com/article/10.1365/s40702-018-0429-3 f9049efb8fb39439a34391ea4a76dd75;de;;;6.1.;;;Strategien für SoftwareanbieterVor dem Hintergrund der dargestellten ökonomischen Prinzipien untersuchen wir in diesem Kapitel ausgewählte Strategien für Softwareanbieter. Grundlegend für ein Unternehmen ist seine Positionierung in der Wertschöpfungskette. In Abschn. 3.1 gehen wir zunächst auf Möglichkeiten und Herausforderungen von Kooperationsstrategien ein. In diesem Kontext behandeln wir auch Unternehmensübernahmen, die auf Softwaremärkten eine besondere Rolle spielen. Darauf aufbauend untersuchen wir angebots-seitige Strategien. Darunter verstehen wir die Geschäftspolitik an der Schnittstelle zu Vertriebspartnern und Kunden, also den in der Wertschöpfungskette nachgelagerten Geschäftspartnern. In diesem Bereich werden Vertriebs- (Abschn. 3.2) und Preisstrategien (Abschn. 3.3) thematisiert. Abschließend betrachten wir in Abschn. 3.4 zentrale Managementfragen bei der Entwicklung von Software.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45589-0_3 b2d308dc921ba499839b4d1edacdd94c;de;;;6.1.;;;IT-Management serviceorientierter ArchitekturenMit einer serviceorientierten Architektur (SOA) geht die strikte Forderung einher, das IT-Servicemanagement entsprechend den Geschäftsfunktionen der unterstützten Geschäftsprozesse auszurichten. Es gilt, die im Rahmen einer Applikation genutzten Services jederzeit identifizieren zu können, um in der Lage zu sein, strategisch, planerisch und operativ auf Änderungsbedürfnisse zu reagieren. Dabei spielt die Zeitdauer, in der Services innerhalb einer Anwendung eingebunden bzw. abgeschaltet werden können, eine entscheidende Rolle in der Differenzierung zum Mitbewerber. Insbesondere die geringere Bindung an einen IT-Provider stellt einen wichtigen Vorteil einer SOA gegenüber klassischen Architekturen dar. Ebenso erfordert eine SOA eine stärkere Berücksichtigung des IT-Servicemanagements im Rahmen der Serviceentwicklung, denn dort werden die Grundlagen für eine derartige Flexibilität gelegt. Eine wesentliche Voraussetzung zur SOA-Implementierung bezieht sich auf die Integrierbarkeit der verwendeten Servicemanagementlösungen. Nur wenn diese über offene und standardisierte Schnittstellen mit geringem Aufwand eingebunden werden können, kann tatsächlich auf »ad hoc« genutzte Serviceangebote im Sinne eines ITIL-konformen Managements reagiert werden.;-;-;-;https://link.springer.com/article/10.1007/BF03340250 3355cedca0eb2aa2067f05ab932dad58;de;;;2.2.;;;Eine neue Methode zur Genselektion für die Multi-Katalog-Klassifizierung von Krebsdaten In dieser Arbeit wurde eine neuartige Genselektionsmethode vorgeschlagen, die den Relevanzscore (BW Ratio) und den Flexible Neural Tree (FNT) für die Klassifizierung von Krebsdaten mit mehreren Klassen zusammenführt. Zuerst wurde die BW-Ratio-Methode verwendet, um einige informative Gene auszuwählen, und dann wurde die FNT-Methode verwendet, um charakteristischere Gene aus den Genuntergruppen zu extrahieren. FNT ist ein baumstrukturiertes neuronales Netz mit Auswahl von Eingangsvariablen, Überschichtverbindungen und verschiedenen Aktivierungsfunktionen für verschiedene Knoten. Basierend auf den vordefinierten Befehls-/Operatorsätzen kann ein flexibles neuronales Baummodell erstellt und weiterentwickelt werden. Die FNT-Struktur wird unter Verwendung des probabilistischen inkrementellen Programmentwicklungsalgorithmus (PIPE) entwickelt, und die in neuronalen Bäumen eingebetteten freien Parameter werden durch den PSO-Algorithmus (Particle Swarm Optimization) optimiert. Experimente mit zwei bekannten Krebsdatensätzen zeigen, dass die vorgeschlagene Methode im Vergleich zu anderen Methoden bessere Ergebnisse erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31588-6_41 9569433ccbcf94ef86fdbb7ef1cfec9d;de;;;6.1.;;;EDIFACT: Die Normung des elektronischen DatenaustauschsDer Beitrag behandelt Formen und Entwicklungen des elektronischen Datenaustauschs (EDI) im Business-to-Business-Bereich. Erörtert wird die Anwendung des internationalen Standards EDIFACT. Dabei wird auf Implementierungsfragen, Potentiale zur Entwicklung von Wettbewerbsvorteilen und Einzelprobleme aus der Sicht des Konsumgüterbereichs eingegangen. Auf der Grundlage einer Dokumentanalyse folgt eine Statusbeurteilung über die Akzeptanz und die Verbreitung des Systems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08099-2_1 7412006db3d541c05232875718d238de;de;;;6.1.;;;Mobile-Computing in Anästhesie und Intensivmedizin“Taschencomputer” oder auch PDAs (“portable digital assistants”) können in der heutigen Zeit für den Anästhesisten und Intensivmediziner von großem Wert sein. Die Entwicklung in der Medizin geht kontinuierlich in Richtung “bedside computing”. Kleine portable Geräte stehen in unterschiedlichen Ausführungen zur Verfügung. Zu jeder Zeit ist es dem Mediziner möglich, einen fast vollwertigen Computer bei sich zu tragen. Er ist Datenbank, Nachschlagewerk, Patientenverwaltung, Terminplaner, Rechner, Buch, Zeitschrift und vieles mehr in einem Gerät. Der PDA sorgt dafür, dass für die Arbeit notwendige Informationen jederzeit und überall schnell verfügbar sind. In dieser Übersicht sollen die Möglichkeiten für die Benutzung des PDA in Anästhesie und Intensivmedizin aufgezeigt werden. Entwicklungen in anderen Ländern, Möglichkeiten aber auch Probleme wie Datensicherheit und Netzwerktechnologie werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s00101-003-0503-1 809bd650c0ab432e3994a579fa24d6ef;de;;;6.1.;;;Perspektiven internationaler Unternehmenstätigkeit in der PostmoderneInternational tätige Unternehmen sind gegenwärtig mit fundamentalen Wandlungsprozessen konfrontiert, die sich in tiefgreifender und nachhaltiger Weise auf Internationalisierungsentscheidungen und das Management internationaler Aktivitäten auswirken. Die traditionellen Vorteile der Internationalisierung, wie die Ausnutzung von Kostendegressions- und Standortvorteilen, verlieren durch die Intensivierung des internationalen Technologie- und Zeitwettbewerbs an Bedeutung. An die Stelle von Großuntemehmm, die ihre Beschaffungs-, Produktions- und Vertriebsprozesse durch die Errichtung ausländischer Tochtergesellschaften und internationale Akquisitionen weltweit internalisiert haben, treten zunehmend kleinere, stark spezialisierte und auf ihre Kernkompetenzen konzentrierte “Micro-Multinationals” (Prahalad/Hamel 1994, 14), die mit einer Vielzahl anderer Untemehmen in grenzüberschreitenden strategischen Netzwerken verbunden sind (vgl. Sydow 1992). Diese Entwicklung steht damit in fundamentalem Widerspruch zu der vielen Interntionalisierungstheorien zugrundeliegenden Transaktionskostentheorie, nach der international tätige Unternehmen gerade durch die vertikale Integration von Aktivitäten und deren unternehmensinterne Koordination durch Hierarchie entstehen (vgl z.B. Buckley/Casson 1976).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-84577-1_12 e45beb763c4cd83e0871e8d1bd6f3cc4;de;;;6.1.;;;Procurement-Planning: Erfolgspotenziale eröffnenDas Procurement‐Planning ist eine strategische Aufgabenstellung, mit der die Erfolgspotenziale für das Beschaffungsmanagement eröffnet und gesichert werden. Für die Procurement‐ Funktion werden bereits an diesem Punkt alle erforderlichen Voraussetzungen geschaffen, damit sie in der Praxis kompetent und durchsetzungsstark agieren kann. Dazu sind die folgenden strategischen Einzelaufgaben auszugestalten und zu implementieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-07119-6_3 9838184f03362aa0be4dfbe8cb935885;de;;;6.1.;;;GesamtfahrzeugMobilität stellt eines der Grundbedürfnisse der Menschen dar. Das Fahrzeug ist als individuelles Verkehrsmittel in der heutigen Gesellschaft nicht mehr wegzudenken. Die Mobilität in Zukunft sicher zu stellen ist neben der gesellschaftspolitischen Verantwortung auch eine technische Herausforderung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8348-9479-3_1 a813087709bcb0499dde7ffab3b7a8f6;de;;;6.1.;;;Expertise bewerben und finden im Social Semantic WebIm vorliegenden Beitrag diskutieren wir Rahmenbedingungen zur Kombination, Wiederverwendung und Erweiterung bestehender RDFVokabulare im Social Semantic Web. Hierbei konzentrieren wir uns auf das Anwendungsszenario des Auffindens und Bewerbens von Experten im Web oder Intranet. Wir präsentieren, wie RDF-Vokabulare einerseits und de facto Standardformate andererseits, die von täglich verwendeten Applikationen benutzt werden (z. B. vCard, iCal oder Dublin Core), kombiniert werden können, um konkrete Anwendungsfälle der Expertensuche und zum Management von Expertise zu lösen. Unser Fokus liegt darauf aufzuzeigen, dass für praktische Anwendungsszenarien nicht notwendigerweise neue Ontologien entwickelt werden müssen, sondern der Schlüssel vielmehr in der Integration von bestehenden, weit verbreiteten und sich ergänzenden Formaten zu einem kohärenten Netzwerk von Ontologien liegt. Dieser Ansatz garantiert sowohl direkte Anwendbarkeit von als auch niedrige Einstiegsbarrieren in Semantic Web-Technologien sowie einfache Integrierbarkeit in bestehende Applikationen. Die im Web verfügbaren und verwendeten RDFFormate decken zwar einen großen Bereich der Aspekte zur Beschreibung von Personen und Expertisen ab, zeigen aber auch signifikante Überlappungen. Bisher gibt es wenig systematische Ansätze, um diese Vokabulare zu verbinden, sei es in Form von allgemeingültigen Praktiken, die definieren, wann welches Format zu benutzen ist, oder in Form von Regeln, die Überlappungen zwischen einzelnen Formaten formalisieren. Der vorliegende Artikel analysiert, wie bestehende Formate zur Beschreibung von Personen, Organisationen und deren Expertise kombiniert und, wo nötig, erweitert werden können. Darüber hinaus diskutieren wir Regelsprachen zur Beschreibung von Formatüberlappungen sowie deren praktische Verwendbarkeit zur Erstellung eines Ontologie-Netzwerks zur Beschreibung von Experten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72216-8_10 f7491dac091b1642f5b0ce4678eba50a;de;;;2.2.;;;Ein effizientes Index Schema für XML-Datenbanken Die Suche nach effizienten und nützlichen Wegen zum Durchsuchen und Indexieren von XML-Dokumenten ist heute ein beliebtes Forschungsthema im Bereich der Computer- und Informationswissenschaften. Die pfadbasierte Indizierungsmethode weist Nachteile einer Leistungsverschlechterung auf, wenn Join-Operationen von Vorfahren-Nachkommen-Beziehungen und Suchen nach Knoten der mittleren und unteren Ebene durchgeführt werden. Um diese Nachteile zu mildern, wurde eine auf einem Nummerierungsschema basierende Indexierungstechnik vorgeschlagen. Diese Technik zeigt eine bessere Leistung bei einer Vielzahl von Abfragen. Um allen Knoten aller XML-Dokumente Nummern zuzuweisen, ist jedoch eine auf einem Nummerierungsschema basierende Indexierungsmethode erforderlich. Es tritt das Problem des Such-Overheads und der Speicherplatznutzung für Indizes auf. In diesem Papier schlagen wir eine neuartige Methode vor, die gemeinsame Pfade aller XML-Dokumente effizient konstruieren und verwalten kann. Die vorgeschlagene Methode speichert ähnlich strukturierte XML-Dokumente effizienter. Darüber hinaus unterstützt es sowohl das Einfügen als auch das Löschen von XML-Dokumenten flexibler.;-;-;-;https://link.springer.com/chapter/10.1007/11611257_35 09f38d21bd3b82b33c7172cfa13b5dd1;de;;;6.1.;;;Bewertung von Discountoptionen bei SoftwarelizenzverträgenViele Unternehmen setzen für Systemsoftware und Applikationen lizenzpflichtige Standardsoftware kommerzieller Anbieter ein. Neben der Regelung zum Nutzungsrecht sind in den Softwarelizenzverträgen immer öfter Leistungen, wie Softwareupgrades oder Anwenderschulungen, enthalten oder gegen Gebühr integrierbar, die vom Lizenznehmer während der Vertragslaufzeit zu einem vergünstigten Leistungspreis oder kostenlos in Anspruch genommen werden können. Dieses Recht auf eine Vergünstigung wird als Discountoption bezeichnet und muss bei der Vertragsauswahl und -gestaltung bewertet werden. Der Beitrag zeigt die grundsätzliche Bewertungsproblematik, sowie einige Schwächen bisheriger Bewertungsansätze auf und stellt anschließend auf Basis der Realoptionstheorie ein Modell vor, das eine Bewertung der Discountoptionen mit finanzmathematischen Methoden ermöglicht. Da der Wert von Discountoptionen mit einem analytischen Verfahren häufig nur mit Einschränkungen abgeschätzt werden kann, wird auf Basis der numerischen Rückwärtsinduktion ein praxistaugliches Lösungsverfahren erläutert. Die Vorgehensweise bei der Modellanwendung und der erzielte Erkenntnisfortschritt werden anhand eines Beispiels illustriert.;-;-;-;https://link.springer.com/article/10.1007/s11576-011-0283-1 c26d98644880cb53a3d77ad0ee84ce7e;de;;;6.1.;;;Prozessorientierte Bewertung von informationstechnologischen Innovationen in Krankenhäusern im Rahmen des „Hospital Engineering“Deutsche Krankenhäuser sind meist aufgrund ihrer finanziellen Lage gezwungen, bei Investitionen auf kurze ROI-Zyklen zu achten und besonderen Wert auf deren kurzfristig erreichbare Wirtschaftlichkeit zu legen. Um dem in deutschen Krankenhäusern herrschenden Investitionsstau entgegenwirken zu können, benötigen sie Werkzeuge zur transparenten Ermittlung des Kosten-Nutzen-Verhältnisses einer Innovation. In diesem Beitrag wird dieses Problemfeld mit dem Fokus auf die Einführung innovativer IT-Produkte in Krankenhäusern analysiert und als Lösungsansatz eine prozessbasierte Methodik zur Durchführung einer Kosten-Nutzen-Analyse vorgestellt. Durch Analyse von Anwendungsfällen des ITSystems und daraus ableitbaren Informationsflüssen werden von der Innovation direkt und indirekt betroffene operative Prozesse des Krankenhausbetriebs identifiziert und die Auswirkungen einer Einführung durch eine Prozesskostenrechnung quantifiziert. Diesem ökonomisch bewerteten Nutzen werden die systematisch erhobenen Kosten der Einführung gegenüber gestellt. Die Methodik wird anhand eines innovativen Systems zur Anwesenheitserfassung des OP-Personals exemplarisch vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-00873-4_1 27a90ad565c61afcc692aaeff35246c5;de;;;6.1.;;;Unternehmenskommunikation und InternetDer Begriff „Kommunikation“ wird häufig als „Austausch von Informationen zwischen Sendern und Empfängern“definiert. Dabei kann Kommunikation in diesem Kontext nicht nur zwischen Menschen, sondern auch zwischen Mensch und Maschine sowie zwischen Maschinen auftreten. So können Computer — mit Hilfe kleiner Programme, sogenannter „Scripts“— automatisiert im Internet Informationen beschaffen, also kommunizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-89108-2_5 fa9e7cd1cd2fd0b6b988bf55bdd13d1b;de;;;6.1.;;;Typologie und Terminologie in Bezug auf kleine und mittlere UnternehmenIm Hinblick auf die Förderung und die dazu ergriffenen Maßnahmen für KMU in Deutschland und China ist zunächst der potenziell förderungsfähige Adressatenkreis zu bestimmen. Nach einer länderübergreifenden Abgrenzung von KMU (s. A.) erfolgt anschließend eine länderspezifische Betrachtung der Abgrenzungsmöglichkeiten von KMU innerhalb der EU, in Deutschland und in China (s. B.). Ziel ist, neben der Analyse des Adressartenkreises der in § 3 betrachteten rechtlichen Fördermaßnahmen, Gemeinsamkeiten und Unterschiede in Bezug auf die Abgrenzung im länderspezifischen Vergleich aufzuzeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-20011-4_2 bdddfee6365ac1db04cbcd55e23cded0;de;;;6.1.;;;Unternehmenskooperationen und die Rolle von VerträgenAls Grundlage für die weitere Analyse wird das Untersuchungsthema zunächst in den Kontext des Managements von Unternehmenskooperationen eingeordnet (2.1). Im Anschluss erfolgt eine Einführung in die für die Vertragsgestaltung zentrale Transaktionskostentheorie (2.2), bevor der Stand der empirischen Forschung zur Rolle von Verträgen in Unternehmenskooperationen aufgezeigt wird (2.3). Aufbauend auf diesen Ergebnissen werden erste Hypothesen zu den transaktionsspezifischen Determinanten vertraglicher Regelungen abgeleitet (2.4). 34 Vgl. Das/Teng (1998, S. 21 f.) und Mellewigt (2003, S. 8 ff.) für die Darstellung dieser Situation in der englischsprachigen respektive deutschsprachigen Kooperationsliteratur.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-9984-9_2 a89e65ac57300e647535f751e85630bd;de;;;2.2.;;;Indexierte, durchsuchbare Videos mit Untertiteln: Ein Lernbegleiter für MINT-Kurse Videos von Vorlesungen im Klassenzimmer haben sich als beliebte und vielseitige Lernressource erwiesen. Ein wesentliches Manko des Vorlesungsvideoformats besteht darin, auf die in einem Video versteckten Inhalte von Interesse zuzugreifen. Diese Arbeit begegnet dieser Herausforderung mit einem fortschrittlichen Video-Framework mit thematischer Indexierung, Suche und Untertitelung (ICS-Videos). Die Standardtechnologie zur optischen Zeichenerkennung (OCR) wurde um Bildtransformationen zur Extraktion von Text aus Videoframes erweitert, um Indexierung und Suche zu unterstützen. Die Bilder und Texte auf Videoframes werden analysiert, um Vorlesungsvideos in thematische Segmente zu unterteilen. Der ICS-Videoplayer integriert Indizierung, Suche und Untertitel in die Videowiedergabe und bietet sofortigen Zugriff auf den gewünschten Inhalt. Dieses Video-Framework wurde von mehr als 70 Kursen in einer Vielzahl von MINT-Disziplinen verwendet und von mehr als 4000 Studenten bewertet. Die Ergebnisse der Umfragen zeigen den Wert der Videos als Lernressource und die Rolle, die Videos im Lernprozess der Schüler spielen. Umfrageergebnisse belegen auch den Wert von Indexierungs- und Suchfunktionen in einer Videoplattform für den Bildungsbereich. Dieses Papier berichtet über die Entwicklung und Evaluierung des ICS-Videoframeworks und über 5 Jahre Nutzungserfahrung in mehreren MINT-Kursen.;-;-;-;https://link.springer.com/article/10.1007/s10956-016-9653-1 30dad859d48a081e1607f20587cb45e0;de;;;6.1.;;;Intelligente Telemedizin in der IntensivstationPatientendatenmanagementsysteme (PDMS) sind in der Lage, die Zufriedenheit der Mitarbeiter der Intensivstation mit dem Dokumentationssystem zu steigern. Neben einer reinen Dokumentation bieten viele Systeme dem ärztlichen und pflegerischen Personal eine Unterstützung bei der Therapie- und Pflegeplanung. Die erfassten Daten (Medizingeräte, pflegerische oder ärztliche Dokumentation, Labordaten etc.) stehen für verschiedene Auswertungen für administrative Aufgaben (Abrechnung, Personalsteuerung, Qualitätssicherung) oder für wissenschaftliche Fragestellungen zur Verfügung. Voraussetzung für diese Leistungen ist eine semantische Interoperabilität bei der Integration in die IT des Klinikums und bei der Anbindung von Medizingeräten. Hierzu stehen Terminologien wie LOINC und SNOMED-CT zur Verfügung, die aber bisher kaum Verbreitung gefunden haben. Ein Grund dafür ist, dass der Aufwand für das Mapping bei den sendenden Systemen und der Nutzen bei den empfangenden Systemen ungleich verteilt ist. Daher sollte das Ziel sein, die Messwerte der Medizingeräte LOINC kodiert zu versenden. Die Erfahrung erster LOINC-Implementierungen zeigen, dass an dieser Stelle auch bei den klinischen Arbeitsplatzsystemen und PDMS hinsichtlich der Präsentation und Verarbeitung kodierter Daten noch Entwicklungsbedarf besteht.;-;-;-;https://link.springer.com/article/10.1007/s00103-009-0792-x c528e72923c33afd008fbdb1b178e9e9;de;;;6.1.;;; — Ein Webservice für die Konvertierung von XML-DokumentenIn diesem Beitrag zeigen wir, wie es auf Basis von offenen Standards und Open-Source-Software möglich ist, moderne EDI-Lösungen zu entwickeln. Eine Schlüsselrolle spielen dabei die Extensible Markup Language (XML) sowie komplementäre Technologien. Praxiserfahrungen haben jedoch gezeigt, dass auch die Nutzung von XML das Problem der Konvertierung zwischen unterschiedlichen Formaten, wie z. B. xCBL und OAGIS, nicht löst. Vor diesem Hintergrund stellen wir den Webservice vor, der eine solche Übersetzung zwischen unterschiedlichen XML-Formaten durchführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-57445-0_8 14e59b2b23ad13cb0efd3f8fb0c01376;de;;;6.1.;;;Die Zukunft selbst gestaltenDie Digitalisierung im Gesundheitswesen verändert pflegerische Tätigkeiten und eröffnet Pflegepersonen neue und spannende Berufsbilder. Pflegepersonen benötigen aber neue Kompetenzen, um Digitalisierung aktiv mitgestalten und digitale Werkzeuge sinnvoll einsetzen zu können. Eine internationale Gruppe von Experten hat genauer untersucht, welche Grundkompetenzen dies sind. Als Ergebnis wurden spezielle Kompetenzprofile für bestimmte pflegerische Rollen erarbeitet. Die Experten erachteten dabei insbesondere übergreifende Kompetenzen wie z. B. zum Prozessmanagement und zum Projektmanagement als besonders wichtig. Basis-Kompetenzen sollten in der pflegerischen Grundausbildung vermittelt und durch Praxiserfahrung in Digitalisierungsprojekten sowie in entsprechenden Weiterbildungen vertieft werden. Die zukünftigen Aufgaben und Herausforderungen bei der Digitalisierung in der Pflege sind vielfältig. Es erscheint sinnvoll, dass Pflegepersonen hier eine aktive Rolle übernehmen und die Frage, wie die Digitalisierung in der Pflege am besten zu gestalten ist, nicht anderen Berufsgruppen überlassen.;-;-;-;https://link.springer.com/article/10.1007/s00735-020-1148-x a435665febedeb99e191237f198f5c1b;de;;;2.2.;;;Katalog der Weißen Zwerge Bisher existiert kein einheitlicher Katalog der Weißen Zwerge, der alle verfügbaren Hauptdaten enthält. Zuvor haben verschiedene Autoren, darunter Eggen und Greenstein (1965, 1967), Luyten (1962), Greenstein (1972) und Greenstein;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-7962-8_1 9cd30b4a77f89218e9767374e3a4dce3;de;;;6.1.;;;AAL-Architektur und Integration in die GesundheitsversorgungEiner der größten Erfolgsfaktoren, die für den Einsatz von regionalen AAL-Lösungen sprechen, ist die Unterstützung von Leistungsprozessen zwischen dem häuslichen Bereich der Patienten und den Dienstleistern des Gesundheitswesens. Durch definierte Workflows sollen insbesondere ältere, chronisch kranke Personen unterstützt werden, die Pflegebedarf haben und von einem langfristigen Gesundheitsmonitoring profitieren können. Hierdurch ergeben sich eine Reihe neuer Anforderungen an die Kommunikationspartner häuslicher Bereich und Leistungserbringer (LE), z. B. Krankenhäuser, Pflegeeinrichtungen und niedergelassenen Ärzten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-10788-8_27 02ada19f99fd8cd6f0936fab37d2db67;de;;;6.1.;;;Digitaltechnik in der DiabetologieDer zunehmende Einsatz von Digitaltechnik in der Diabetologie verändert unseren Arbeitsalltag. Unterschiedliche Systeme der Stoffwechselkontrolle, Insulinapplikation, Dokumentation und Softwarelösungen müssen zur Datenaufbereitung und -analyse zusammengeführt werden. Neben neuen Herausforderungen an unsere tägliche Arbeit kommt es häufig zu kleineren und größeren Problemen, die unsere Arbeitsabläufe teils erheblich beeinträchtigen.;-;-;-;https://link.springer.com/article/10.1007/s11428-019-00558-x 48b37d53be8a0da7db47acb677019da3;de;;;6.1.;;;Planungsprozeß einer einzelnen AllianzIm vorangegangenen Kapitel wurde die Bedeutung der Strategischen Allianz als mögliche Antwort auf die Herausforderungen der internationalen Unternehmensumwelt erläutert. Ausgehend von den durch die Allianzstrategie realisierbaren Erfolgspotentialen soll nun mit Hilfe der in Kapitel II gewonnenen theoretischen Erkenntnisse ein Allianzplanungsprozeß entwickelt werden. Soweit es von Nutzen ist, werden verschiedene Instrumente der strategischen Planung in diesen Prozeß integriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-97683-3_4 f577cd7f376cf8c014211d1c57327ae4;de;;;6.1.;;;Eine kritische Hinterfragung des Software-Marktes oder Industrieprojekte durch Studenten?Spätestens seit der Green-Card-Diskussion ist die Tatsache, dass IT-Fachleute fehlen, Allgemeinwissen geworden. Die Hochschulen sind aufgefordert den Arbeitsmarkt schnell und in hohem Umfang zu befriedigen. Dies darf jedoch nicht auf Kosten der Qualität gehen. Wir werden einige Thesen formulieren, die hoffentlich zu einer fruchtbaren Diskussion über die Ausbildung von IT-Fachleuten fuhren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-84798-0_22 a8a51d0f459c24a0f4a69f39e705690b;de;;;6.1.;;;Die Internationale RegulierungsbehördeMission: Ob durch die Entwicklung von Standards für Telekommunikationsdienste auf weltweiter Basis, über unparteiisches Management des Funkspektrums und der Satellitenorbits oder durch Unterstützung bei Strategien zur Entwicklung der Telekommunikation – alle Aktivitäten sind fokussiert auf das Ziel, jedem Menschen einen erschwinglichen Zugang zu weltweiter Information und Kommunikation zu verhelfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29203-3_6 2cfb7d1aacb47eb93de8b2017608379e;de;;;6.1.;;;Beitrag einer zentralen Datenhaltung zur Qualitätssicherung in KORADie Durchführung groβer, kooperativer Studien in der Gesundheitsforschung erfordert besondere Beachtung aller Aspekte einer umfassenden Qualitätssicherung. Im Falle einer multiplen Nutzung der Daten durch mehrere beteiligte Forschergruppen sind eine standardisierte Dokumentation und Datendefinition sowie klare Regeln zur Datenprüfung und -korrekturnotwendig. Die engmaschige Kontrolle der Vollständigkeit und Qualität der erhobenen und gespeicherten Daten trägt zur Verbesserung der Studienqualität und zur Erreichung valider Ergebnisse bei. Ein effektives Datenhaltungskonzept sollte als Kernstück eine zentrale Datenbank enthalten, die alle Teilprojekte zur Vereinheitlichung verpflichtet, aber auch in der Sickening der Datenqualität unterstützt. Am Beispiel des KORA Projektverbundes wird das Konzept der zentralen Datenhaltung und seine Umsetzung beschrieben.;-;-;-;https://link.springer.com/article/10.1007/BF02962639 c625007d1e60705996329c4efe489a34;de;;;6.1.;;;Informationssysteme für das ProduktionsmanagementDie Aufgaben des Produktionsmanagements in den direkten und indirekten Bereichen eines Produktionsunternehmens sind typischerweise als IT-Funktionalitäten in betrieblichen Informations- bzw. Anwendungssystemen umgesetzt. Diese Informationssysteme unterstützen beispielsweise die Verwaltung und Bereitstellung von Informationen, die Erstellung von Plänen, die Koordination von Abteilungen oder die Überwachung und Steuerung von Prozessen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54288-6_7 977bcea1e4c906be63298dff52f9b729;de;;;2.2.;;;Ein Katalog mit Beispielen In diesem Kapitel werden wir die Methoden der vorherigen Kapitel auf eine Vielzahl von Beispielen anwenden. Dies wird uns helfen, die Stärken sowie die Mängel der vorgestellten Ideen zu bewerten. Der ultimative Test kann nur kommen, wenn diese Ideen in einem Anerkennungsschema angewendet werden. Dies wurde jedoch aufgrund der vielen verschiedenen Komponenten, die hinzugefügt werden müssen, wie bereits erwähnt, nicht realisiert. An dieser Stelle muss die Bewertung auf einer intuitiven Anziehungskraft der Ideen und auf der Durchführung verschiedener Beispiele basieren. Angesichts der Tatsache, dass das Ziel im Wesentlichen darin besteht, die in einem Spektrogramm (den Sonorbereichen) gesehenen Informationen zu „schematisieren“, besteht ein offensichtlicher Test darin, zu sehen, wie vernünftig die berechnete Beschreibung im Vergleich zum Spektrogramm aussieht. Angesichts der Tatsache, dass bisherige Ansätze in bestimmten Kontexten schlecht abschneiden (siehe Abbildung 4.1), werden deutliche Verbesserungen erkennbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-1079-2_5 cfbca7455d6af6a22f54d046e8312e7a;de;;;2.2.;;;Einige Auswirkungen verschiedener Quellen der Variation von Breitengraddaten auf Meridiankreiskataloge Bei grundlegenden Meridiankreisbeobachtungen muss die Variation des Breitengrades angewendet werden, bevor die Beobachtungen zu einem Katalog zusammengefasst werden. In den letzten 80 Jahren haben verschiedene Observatorien verschiedene Bestimmungen der Polarbewegung verwendet, um ihre Beobachtungen zu reduzieren. Diese Studie zeigt, dass die Verwendung unterschiedlicher Bestimmungen der Breitengradvariation die einzelnen Beobachtungen erheblich beeinflusst und große Zonenfehler in der Größenordnung von 0,05 Bogensekunden in das Deklinationssystem des Katalogs einbringen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-4676-7_10 d228ecfa5cbe9a741b25772e807c957d;de;;;6.1.;;;Internationale BeschaffungDas Pendant zum Global Sourcing, das Local Sourcing (die Beschaffung in nationalen und regionalen Märkten), wird durch den verstärkten weltweiten Einkauf beeinflußt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-58907-2_2 bb018e4734d65233efc78062067b98e3;de;;;6.1.;;;Wettbewerbsstrategische Positionierung von Mobilfunknetzbetreibern im Mobile BusinessIm Herbst 1989 wurden in Deutschland die ersten beiden Lizenzen für die zweite, digitale Generation von öffentlichen Mobilfunknetzen nach dem GSM-Standard (GSM = Global System for Mobile Communication) an die damalige ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-90464-5_3 115d0266f722cb4ca04bb3c507f1d3b5;de;;;6.1.;;;Strategische Ansätze für die EDI-Gestaltung in VerbundgruppenHäufig werden strategische Aspekte bei der erstmaligen Einführung einer EDI-Anwendung und die sich daraus ergebenden Konsequenzen nicht bedacht. Das Augenmerk ist auf eine schnelle Einführung und die Erlangung von Rationalisierungspotentialen gerichtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-97763-2_4 c01a52bcc5575553fc45f9c6e974086c;de;;;6.1.;;;Das Phänomen der Sozialen MedienSoziale Medien beschreiben zunächst den schlichten Umstand, dass das Internet immer weiter in die Gesellschaft hineinwächst. Ähnelten die Angebote der ersten Generation des Internets noch stark der Kommunikationsstruktur der traditionellen Massenmedien, entwickelten sich in der vergangenen Dekade unzählige Kanäle, Dienste und Plattformen, die den Netzwerkcharakter des Internets zur Anregung, Entwicklung und Stabilisierung sozialer Beziehungen nutzen. Internetauftritte werden dabei so gestaltet, dass ihre Gestalt von den Partizipationsmöglichkeiten der Nutzer mitbestimmt wird. „Während der Informationsfluss in klassischen Internetangeboten weitgehend einseitig verläuft, erlaubt das Web 2.0 oder Social Web seinen Nutzern eine aktive Beteiligung mit geringen Einstiegshürden“. Kommunikationstheoretisch betrachtet bestehen Soziale Medien aus den in unterschiedlichen Kombinationen verknüpften formalen Kategorien Kommunikation (der Verständigung dienender inhaltlicher Bedeutungsprozess, Interaktion (formaler Akt des In-Beziehung-Treten zwischen Nutzern, Partizipation (Teilhabe, die aus Initiation und Reaktion besteht) und Kollaboration (mit dem Zweck sozialer Sinnstiftung).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38192-8_2 f2e9e74a097492d4e996d16060e510c1;de;;;6.1.;;;Baustein 6: Verbindung mit anderen Programmen/ Informationssystemen in der VerwaltungEin gemeinsames ämterübergreifendes Informationsmanagement in Verwaltungen bietet eine Reihe von Vorteilen, nicht nur hinsichtlich einer besseren Transparenz innerhalb der Verwaltung, sondern auch in Bezug auf die Weitergabe von Informationen an andere regionale Akteure. Die häufig ins Feld geführten Gegenargumente sollen in diesem Baustein andiskutiert werden. Gleichzeitig wird aufgezeigt, dass insbesondere unter den Aspekten der Kosteneinsparpotenziale und der Zunahme an Informationsgehalt eine verwaltungsübergreifende Informationsstrategie unerlässlich ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-12467-0_7 9da89f43f5f6f14fa7298de34fe72654;de;;;6.1.;;;Chancen und Anforderungen für integriertes Umweltcontrolling durch elektronisches Datenmanagement im AbfallrechtDer Automatisierungsgrad der Wirtschaft konnte in den letzten Jahrzehnten kontinuierlich gesteigert werden. An dieser Entwicklung hat vor allem die Implementierung von elektronischen Datenverarbeitungssystemen und Systemen zum elektronischen Datenaustausch in allen Wirtschaftsbereichen großen Anteil. Mit der Einführung von elektronischen IKT (Informations- und Kommunikationstechnologien) allgemein und ERP-Systemen speziell konnten in vielen Fällen Aufwendungen für Administration und Verwaltung optimiert werden. Der effiziente Datenaustausch mit inner- und außerbetrieblichen Stellen wurde dabei durch die Einführung von einheitlichen Schnittstellen und internationalen Standards für den elektronischen Datenaustausch ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-90514-7_14 fed0c535c2b08068dec7ae357fa066ba;de;;;6.1.;;;Evaluation des DIES Konzepts und der PrototypenIm Kapitel I Einleitung und Methodik wurde „Design Science“ erklärt. Wie in diesem Forschungsparadigma üblich, wurden auf Grund einer eingehenden Problemanalyse ein Lösungskonzept und verschiedene Prototypen erstellt, welche die Artefakte darstellen. Es wurde darauf hingewiesen, dass die Evaluation der Artefakte Teil dieser Art wissenschaftlichen Vorgehens ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-81223-0_6 0741b30b91c6f314dd19551f40998cb3;de;;;2.2.;;;Das Nutzenproblem für faule Lernende – Hin zu einem nicht eifrigen Ansatz Das Nützlichkeitsproblem tritt auf, wenn sich die Leistung lernender Systeme verschlechtert, anstatt sich zu verbessern, wenn zusätzliches Wissen hinzugefügt wird. Bei faulen Lernern wird diese Verschlechterung als die zunehmende Zeit angesehen, die benötigt wird, um dieses zusätzliche Wissen zu durchsuchen, was bei einer ausreichend großen Fallbasis schließlich alle Gewinne aus dem Hinzufügen des Wissens aufwiegt. Die beiden Hauptansätze zur Behandlung des Nutzenproblems bestehen in der effizienten Indizierung und der Reduzierung der Fallzahl während der Pflege der Fallbasis. Wir zeigen, dass die gefundenen Fallbasisgrößen für viele Arten praktischer fallbasierter Argumentationssysteme nicht dazu führen, dass sich die Abrufeffizienz so verschlechtert, dass sie zu einem Problem wird. Wir zeigen auch, wie komplizierte Fallbasis-Wartungslösungen, die das Versorgungsproblem angehen sollen, die kombinierte Systemeffizienz tatsächlich verringern können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14274-1_12 994c5cdb834197f36f73d95dd77b0cc4;de;;;2.2.;;;ISS-Projekt: Das integrierte Suchsystem in den nationalbibliographischen Diensten Das Projekt entstand aus der Notwendigkeit, die Kritikalitäten separater Such- und Abrufplattformen für jedes der von der ICCU bereitgestellten nationalen Systeme zu überwinden und gleichzeitig die Kluft zwischen dem Nationalen Verbundkatalog (SBN) und der Digitalen Bibliothek ( Internetkultur). Die Maßnahmen zur Rationalisierung des Abrufmodells von ICCU-Systemen und zur Gewährleistung eines konsistenten Abrufs von Informationsobjekten über ihre Zugriffsschnittstellen gehen in zwei Entwicklungslinien: (1) Verwendung einer einzigen Softwareplattform, die die Grundlage für die Anwendung der neuen integrierten Suche bildet System (ISS), diese Lösung ermöglicht die Erstellung eines einzigen Zugangspunkts, der als Gesamtkatalog konfiguriert ist, und gleichzeitig die Außerbetriebnahme verschiedener OPACs, deren Besonderheiten durch dedizierte Suchindizes in der einzigen Plattform implementiert werden, (2) native Integration zwischen bibliografischen Datensätzen und digitalen Kopien von Publikationen durch die Integration der Dienste des digitalen Bibliothekssystems und der SBN-Bibliotheksverwaltungssoftware.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-73165-0_22 ebab7adfb6f31127d6b9a81f680d97c7;de;;;6.1.;;;Handlungsstrategien: Wege zur guten EntscheidungIn diesem Kapitel geht es um die Struktur von und den (psycho-kognitiven) Weg zur Entscheidung: Eine gute Entscheidung in der Akutmedizin bewirkt, dass man den Anforderungen der Notfallsituation gerecht wird. Dabei können bestimmte Strategien und Entscheidungsketten helfen, um die es in diesem Kapitel gehen soll. Eine gute Strategie beinhaltet z. B. fünf wesentliche Schritte: Vorbereitet sein, die Situation analysieren, Ziele festlegen und Pläne entwerfen, Strategien umsetzen, Ergebnis überprüfen. Ferner zeichnet eine gute Strategie aus, dass Sie möglichst „mehrere Türen offen“ lässt. Entscheidungshilfen (z. B. DECIDE, FOR-DEC) ermöglichen es, Entscheidungsprozesse anhand einer Regel zu strukturieren und „durchzubuchstabieren“. Der große Vorteil dieser Entscheidungshilfen besteht darin, dass alle Teammitglieder die gleichen Ansätze im Entscheiden und Handeln teilen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-60485-4_10 f574d4d4fd145ae44deca79218d80edf;de;;;6.1.;;;Ein graphbasiertes Managementsystem für dynamische Entwicklungsprozesse Wir präsentieren ein Managementsystem, das insbesondere hinsichtlich der Dynamik von Entwicklungsprozessen über die Funktionalität kommerzieller Systeme zum Projektmanagement, Workflowmanagement und Engineering Data Management hinausgeht. ;-;-;-;https://link.springer.com/article/10.1007/PL00009148 16100af158649039d9d775b80ba2f399;de;;;6.1.;;;Laborautomation und Labordatenverarbeitung: Zielsetzungen und Lösungswege aus der Sicht eines industriellen AnalysenlaborsThree typical examples for laboratory automation and data processing (automatic head-space gas chromatography, density measurements, and a laboratory information management system) are described. They illustrate the situation in a large industrial analytical laboratory and outline some general principles for the selection and utilization of analytical instruments and computers.;-;-;-;https://link.springer.com/article/10.1007/BF00464480 5ead83ad08a0dd1da1bb3de1f3945eff;de;;;6.1.;;;„Machen finanzielle Mittel einen Unterschied?“ Organisiertes Verbrechen auf grenzübergreifender EbeneWie die Wirtschaftstheorie zeigt (Levine, 1997), rechtfertigen nur die Kosten für Informationsbeschaffung und Transaktionen die Position eines Finanzsystems. Wenn man, Kriminelle inbegriffen, keine Informations-oder Transaktionskosten hat, dann hat man auch keinen Anreiz, Geld in ein Finanzsystem zu stecken. Warum sollte man Finanzinstituten Geld für Nachforschungen über Projekte, Partner und Manager geben oder für das Treffen von Vorkehrungen, um Risiken zu minimieren und Transaktionen zu vereinfachen, wenn man all diese Ziele allein und ohne Kostenaufwand erreichen könnte?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-58432-9_10 49ca75d1764db750f59c36dd9da30961;de;;;6.1.;;;IT-Potenziale zur Gestaltung der Auftragsabwicklung in der KonsumgüterindustrieSchlagworte, wie z.B. E-Business, Supply Chain Management, M-Business, Customer Relationship Management oder elektronische Marktplätze zeigen, dass Informationstechnologie eine wichtige Rolle bei der Gestaltung von Prozessen in Unternehmen spielt. Dieser Beitrag setzt sich mit den relevanten Technologien auseinander, die für die Gestaltung der Auftragsabwicklung in der Konsumgüterindustrie von Bedeutung sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-07744-2_18 b5b958f277ba4b7cd333f28fa3011f35;de;;;2.2.;;;Verbesserung der Metadaten-Caching-Effizienz für die Datendeduplizierung durch In-RAM-Metadatennutzung Wir beschreiben ein Datendeduplizierungssystem für die Backup-Speicherung von PC-Disk-Images, genannt In-RAM-Metadaten, die Deduplizierung (IR-MUD) verwenden. In-RAM-Hash-Granularitätsanpassung und miniLZO-basierte Datenkompression werden zuerst vorgeschlagen, um die In-RAM-Metadatengröße zu reduzieren und dadurch den Platz-Overhead zu reduzieren, der von den In-RAM-Metadaten-Caches benötigt wird. Zweitens wird ein Metadaten-Schreib-Cache im RAM im Gegensatz zum herkömmlichen Metadaten-Lese-Cache vorgeschlagen, um metadatenbezogene Platten-I/O-Operationen weiter zu reduzieren und den Deduplizierungsdurchsatz zu verbessern. Während der Deduplizierung wird der Metadaten-Schreibcache gemäß der LRU-Caching-Richtlinie verwaltet. Für jedes Manifest, das im Metadaten-Schreibcache getroffen wird, wird ein teurer Manifest-Neuladevorgang von der Festplatte vermieden. Nach der Deduplizierung werden alle Manifeste im Metadaten-Schreibcache gelöscht und auf der Festplatte gespeichert. Unsere experimentellen Ergebnisse mit 1,5 TB realem Disk-Image-Dataset zeigen, dass 1) IR-MUD eine Größenreduktion von etwa 95 % für die Deduplizierungs-Metadaten mit einem geringen Zeitaufwand erreichte, 2) wenn der Metadaten-Schreibcache nicht verwendet wurde, mit der Bei gleicher RAM-Speicherplatzgröße für den Metadaten-Lese-Cache erreichte IR-MUD eine 400 % höhere RAM-Trefferquote und einen 50 % höheren Deduplizierungsdurchsatz im Vergleich zum klassischen Sparse Indexing-Deduplizierungssystem, bei dem keine Ansätze zur Metadatennutzung verwendet werden, und 3) wenn der Metadaten-Schreibcache genutzt wurde und genügend RAM-Speicher zur Verfügung stand, erreichte IR-MUD eine 500 % höhere RAM-Trefferquote im Vergleich zu Sparse Indexing und einen 70 % höheren Deduplizierungsdurchsatz im Vergleich zu IR-MUD mit nur einem einzigen Metadaten-Lesecache. Die Ansätze der In-RAM-Metadatennutzung und des Metadaten-Schreib-Caching von IR-MUD können in den meisten parallelen Deduplizierungssystemen angewendet werden, um die Effizienz des Metadaten-Caching zu verbessern.;-;-;-;https://link.springer.com/article/10.1007/s11390-016-1664-0 10bac2f722779055fd48931d6469570a;de;;;2.2.;;;Ein Katalog von Radioquellen von Nach einer kurzen Beschreibung der Eigenschaften des Bologna-Radioteleskops wird eine Quellenliste zwischen Deklinationen -30° und -20° und zwischen 0 und 13 Stunden Rektaszension gegeben. Für jede Quelle sind die Koordinaten (Epoche 1950) und die Flussdichte angegeben. Diese Liste (;-;-;-;https://link.springer.com/article/10.1007/BF02710779 0a8feb6e7893ae8fd19fff8e1ea7860e;de;;;6.1.;;;Perspektiven der Wirtschaftsinformatik aus Sicht der InformatikDie Beziehung der Wirtschaftsinformatik zu ihren Referenzdisziplinen Wirtschaftswissenschaften und Informatik war in der Vergangenheit einem stetigen Wandel unterworfen. Trotz einiger Spannungen in den 1980er- und 1990er-Jahren hat sich das Verhältnis zwischen Informatik und Wirtschaftsinformatik deutlich entspannt und als außerordentlich fruchtbar erwiesen. Wichtige Beispiele dieser Ko-Evolution sind konzeptuelle Modellierung und Datenmanagement, Internet-basierte Informations- und Transaktionssysteme und die Entwicklung von Computational Business Sciences. Die zunehmende Integration von virtueller und realer Welt bspw. durch Sensoren und Aktuatoren im „Internet der Dinge“ stellt neue fachliche und organisatorische Herausforderungen an die Zusammenarbeit zwischen Informatik und Wirtschaftsinformatik, die nur gemeinsam formuliert und gelöst werden können.;-;-;-;https://link.springer.com/article/10.1007/s11576-008-0127-9 3cd0d4762d8515cebc7d633e2e0ae284;de;;;2.2.;;;Eins-zu-Zwei digitale Erde Das digitale Earth-Framework ist ein 3D-Modell mit mehreren Auflösungen, das verwendet wird, um standortbezogene Daten zu visualisieren. In diesem Papier stellen wir ein neues digitales Earth-Framework vor, das einen Würfel als zugrunde liegendes Polyeder verwendet. Um eine Mehrfachauflösung zu erstellen, führen wir zwei Arten der 1-zu-2-Verfeinerung ein. Ein kleinerer Verfeinerungsfaktor ermöglicht es uns, mehr Auflösungen und damit einen reibungsloseren Übergang zwischen den Auflösungen bereitzustellen. Wir schlagen auch zwei Indexierungsmethoden vor, die speziell für vierseitige Zellen entwickelt wurden, die aus einer 1-zu-2-Verfeinerung resultieren. Schließlich diskutieren wir die flächentreue sphärische Projektion, die wir in diesem Rahmen verwenden, um die Erde als Kugel zu modellieren, die in Zellen mit gleicher Fläche unterteilt ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41939-3_67 acab10fcc5750170896695c8915efed4;de;;;6.1.;;;Verso – accelerating sustainable change – die Software für NachhaltigkeitsmanagementDer Beitrag beschreibt und veranschaulicht die Software von Verso. Wie kann das Nachhaltigkeitsprogramm in Verso abgebildet werden? Wie können ohne Vorkenntnisse Prozesse für ganze Teams mit einer Software abgebildet werden? Welche Anforderungen und Anwendungsfälle gibt es? Nachhaltigkeitsberichterstattung und Corporate-Social-Responsibility-Kommunikation auf Knopfdruck in einer Software? Diese und viele weitere Fragen werden ausführlich in acht Abschnitten dargestellt. Anschauliche Abbildungen der Software dürfen dabei nicht fehlen. Zudem berichtet auch ein Verso-Kunde von seinen Erfahrungen mit der Verso-Software und dem Verso-Team. Wenn Sie erfahren wollen, wie die Zusammenarbeit mit Verso ist und wie Sie Ihre Unternehmensziele erreichen, dann ist dieser Beitrag genau der richtige für Sie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-57307-5_12 c9b0169d1632fc8591349835c7c59681;de;;;6.1.;;;Conjointanalyse: Erfassung von Kundenpräferenzen im ÜberblickIn diesem einführenden Kapitel werden überblicksartig zunächst die Grundlagen der Conjointanalyse mit ihrer Entwicklung und Einordnung in die multivariaten Verfahren diskutiert sowie die wichtigsten Varianten – die bewertungsbasierte und die auswahlbasierte Conjointanalyse – und deren Verbreitung in Forschung und Praxis erläutert. Es folgen ein Anwendungsbeispiel und eine Übersicht über Stärken und Schwächen der Conjointanalyse sowie ein Softwareüberblick zur Gestaltung und Durchführung von Conjointanalysen bis hin zu ersten konkreten R-Codes. Die vorgestellten Inhalte werden in den nachfolgenden Kapiteln dieses Buches vertieft und erweitert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-63364-9_1 f4c4e7bf3bf7676dcab3c27220f6c391;de;;;6.1.;;;Steuerflucht und SteueroasenDie Debatte über Offshore-Leaks und die sehr geringen Steuerzahlungen großer multinationaler Konzerne haben das öffentliche Interesse auf das Problem „Steueroasen“ gelenkt. Wenn Konzerne Steuersatzunterschiede zwischen verschiedenen Ländern ausnutzen, kann Steuergestaltung durchaus legal sein. Werden aber steuerpflichtige Einkommen von Privatpersonen nicht deklariert, ist das illegal. Maßnahmen dagegen können neben der Aufdeckung von Straftaten an verschiedenen Stellen ansetzen: bei den Steuersätzen, der Regulierungsintensität, der Bemessungsgrundlage und den Informationspflichten. Werden die bestehenden Steueroasen ausgetrocknet, kann dies allerdings dazu führen, dass sich in großen Staaten neue Steueroasen herausbilden.;-;-;-;https://link.springer.com/article/10.1007/s10273-013-1536-y 959db98f41271d215ef29581bd5d18e4;de;;;2.2.;;;Katalog genetischer Variationen (SNPs und CNVs) und Analysetools für thailändische genetische Studien Die Initiative Thailand SNP Database (ThaiSNPdb) ist der erste Versuch, sowohl Single Nucleotide Polymorphisms (SNPs) als auch Copy Number Variations (CNVs) von 32 gesunden Personen in der Zentralregion Thailands unter Verwendung des 5 . zu katalogisieren;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16750-8_12 f7d4c1b2a627ce0da1832fe7176f4551;de;;;2.2.;;;Optimieren des Multimedia Retrieval mit multimodalen Fusions- und Relevanz-Feedback-Techniken In diesem Beitrag wird ein neuartiger Ansatz für die Suche und das Abrufen von Multimediainhalten vorgestellt. Das vorgeschlagene Framework ruft mehrere Medientypen gleichzeitig ab, nämlich 3D-Objekte, 2D-Bilder und Audiodateien, indem ein entsprechend modifizierter Manifold-Lernalgorithmus verwendet wird. Letzteres basiert auf Laplace-Eigenmaps und ist in der Lage, die monomodalen Low-Level-Deskriptoren der verschiedenen Modalitäten in einen neuen niederdimensionalen multimodalen Merkmalsraum abzubilden. Um das Suchen und Wiederauffinden zu beschleunigen und das Framework sogar für groß angelegte Anwendungen geeignet zu machen, wird ein neues Multimedia-Indexierungsschema verwendet. Die Abrufgenauigkeit des vorgeschlagenen Verfahrens wird durch Relevanz-Feedback weiter verbessert, wodurch Benutzer ihre Abfragen verfeinern können, indem sie die abgerufenen Ergebnisse als relevant oder nicht relevant markieren. Experimente, die an einem multimodalen Datensatz durchgeführt wurden, zeigen die Effektivität und Effizienz unseres Ansatzes. Schließlich kann der vorgeschlagene Rahmen leicht erweitert werden, um so viele heterogene Modalitäten wie möglich einzubeziehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27355-1_76 bf3df4de65f45af97898ed6ae2588192;de;;;6.1.;;;Strategische Überlegungen für die F&E-OrganisationBei der Darstellung der Einflußgrößen der Wahl von Bereitstellungsformen für F&E- Leistungen wurden bereits vielfach strategische Fragen angeschnitten. Dies mußte zwangsläufig geschehen. Denn den transaktionskostentheoretischen Einflußgrößen kommt für Fragen der Unternehmensorganisation unmittelbar übergeordnete strategische Bedeutung zu.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-82517-9_6 657eaafac2c7dca736ddd429a0597b30;de;;;6.1.;;;Workstation-Server-Datenbanksysteme für Ingenieuranwendungen: Anforderungen, Probleme, LösungsmöglichkeitenDatenbanksysteme spielen schon seit Jahren in den verschiedensten Anwendungsbereichen — vor allem betriebswirtschaftlicher Art — eine entscheidende Rolle. In letzter Zeit ist darüber hinaus ein deutlicher Trend dahingehend zu erkennen, Datenbanksysteme verstärkt auch in technischen Anwendungsgebieten, etwa im Konstruktionsbereich (CAD) einzusetzen. Dort werden typischerweise dezentrale Arbeitsplatzrechner (Workstations) benutzt, von denen aus zur Datenverwaltung bei Bedarf ein Zugriff zum Zentralrechner (Server) und zur dort befindlichen Datenbank erfolgt. Die heute üblichen und als Produkt erhältlichen Datenbanksysteme sind für solche Ingenieuranwendungen in Workstation-Server-Umgebungen kaum geeignet, da sie u.a. keine hinreichende Entkopplung zwischen Workstation und Server (Workstation-Autonomie) aufweisen, keine geeigneten Mechanismen für die Check-Out- und Check-In- Verarbeitung bieten, Versionskonzepte nur unzureichend unterstützen etc. Im vorliegenden Papier werden die Anforderungen an Workstation-Server-Datenbanksysteme zusammengestellt und diskutiert, und es wird auf die Probleme in diesem Umfeld hingewiesen. Entsprechende Lösungsmöglichkeiten werden herausgearbeitet, wobei größtenteils auf Konzepte des ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-75177-6_22 ea57cb3df877bfee7bc43a1792848b81;de;;;6.1.;;;Fallstudien — „Escalation of Commitment“ in gescheiterten DV-ProjektenBei den in diesem Kapitel beschriebenen Fällen handelt es sich um DV-Projekte, die in Folge von „Escalation of Commitment“ scheiterten. Dies wurde im Theorieteil allgemein als eine zu starke Bindung zu einer einmal getroffenen Entscheidung verstanden, die in einer neuerlichen Entscheidungssituation in der Wahrnehmung der Entscheider keine weiteren Alternativen zulässt. Die Rekonstruktion der Fallstudien soll Verständnis für das Auftreten von „Escalation of Commitment“ in DV-Projekten wecken sowie einen Einblick in das Dilemma gewähren, dass den Handelnden ab einem gewissen Zeitpunkt Alternativentscheidungen unmöglich erscheinen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-81489-0_4 69c0f8deb337dbc4de9052a4e264e5a3;de;;;6.1.;;;Soziale Medien als Erlebnisräume für PopmusikJede mediatisierte Welt manifestiert sich in kommunikativen Arenen (Hepp 2011), die der Kommunikation, Vernetzung, Organisation, Stabilisierung und Erweiterung dienen. Foren, Chats, Mailing-Listen und Napster waren dabei die ersten Kristallisationspunkte digitaler Musikkultur im Netz. Dem folgte die Verbreitung von MySpace sowie die Entstehung von u.a. Facebook, YouTube, Blogs oder SoundCloud. Das folgende Kapitel fokussiert die Ursprünge der Digitalisierung von Musik, zentrale medienhistorische Entwicklungslinien digitaler Musikkultur in Netz und Social Media, Frühformen digitaler Musikkultur sowie die gegenwärtig für Popmusik wichtigsten Social-Media-Plattformen, durch die sich Popmusik in sozialen Medien zu einer umfangreichen und hochgradig ausdifferenzierten mediatisierten Welt entwickelt hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-27882-3_5 2fcc4f6fc87c1ac02fc4e480d76bde37;de;;;6.1.;;;Herausforderungen an die Betriebswirtschaftslehre — Die Perspektive der WissenschaftDie Frage, ob die Betriebswirtschaftslehre für die Zukunft gerüstet ist, wird angesichts des tiefgreifenden Wandels in Wirtschaft und Gesellschaft seit geraumer Zeit kontrovers diskutiert. Alle Anzeichen deuten daraufhin, daß sich die Betriebswirtschaftslehre nach stürmischem Wachstum derzeit in einer Phase der Selbstbesinnung befindet. Der Ruf nach größerer Effektivität und Effizienz in Forschung und Lehre kommt von vielen Seiten. Vor diesem Hintergrund werden wichtige Zukunftsaufgaben der betriebswirtschaftlichen Forschung und Lehre aufgezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-84425-5_22 233faa4bb04eb7056ebac69fca1aae2c;de;;;6.1.;;;Ökonomisch-theoretische Grundlagen für das Organisations-Management von Forschung und EntwicklungIn diesem Kapitel werden in einem kurzen Überblick allgemeine ökonomischtheoretische Grundlagen für die Organisation von Forschung und Entwicklung aufgezeigt. Dabei stellt sich vor allem die Frage, auf welche zentralen ökonomischen Elemente sich die Analyse von Organisationproblemen zurückführen läßt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-82517-9_4 399ebba8e74c7f35039faf9518156cbd;de;;;6.1.;;;ArbeitsmaterialienDie theoretische und die praktisch-klinische Umweltmedizin steckt in Deutschland noch in den Kinderschuhen. Forschung, Lehre und Qualitätssicherung müssen in diesem Bereich intensiv weiterentwickelt werden. Ein großes Problem für die in der Umweltmedizin tätigen Ärzte, Naturwissenschaftler, Verwaltungsbeamte, Verantwortlichen in Ministerien und sonstigen Behörden besteht in der Informationsbeschaffung, da die an sie herangetragenen Fragestellungen oft Themen betreffen, die nicht in den gängigen Lehrbüchern, Nachschlagewerken etc. zu finden sind. Im Gegensatz zur »etablierten Medizin« gibt es keinen kontinuierlich gewachsenen Wissensstand und folglich ist das Angebot an speziellen »Umweltmedizin-Fachbüchern« noch sehr gering.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-12746-9_4 c1e124ab010f77ba93f6105537f936b4;de;;;6.1.;;;SAP HANA - Einsatzmöglichkeiten des SAP Solution ManagersUnsere Gesellschaft entwickelt sich zunehmend zur Informationsgesellschaft. Informationen und Wissen haben daher immer mehr Einfluss auf den Erfolg einer Person oder eines Unternehmens. Informationstechnologie spielt dabei eine wichtige Rolle, da sie die Speicherung, Verarbeitung und den Transport von Informationen ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-18603-6_4 69185f6c628274fbe3f6a365743341fd;de;;;2.2.;;;Softgoal-Interdependenzgraphen In diesem und im nächsten Kapitel stellen wir das NFR-Framework genauer vor. Das NFR-Framework hilft Entwicklern beim Umgang mit nicht-funktionalen Anforderungen (NFRs) während der Softwareentwicklung. Das Framework hilft Entwicklern, NFRs explizit auszudrücken, systematisch damit umzugehen und sie zu nutzen, um den Softwareentwicklungsprozess rational voranzutreiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5269-7_3 ee89b38f1a813826be6bc4ddc6589b20;de;;;2.2.;;;Ein CNV-Katalog Schnelle Einbindung der Microarray-Analyse/aCGH in Studien an Kindern mit Entwicklungsstörungen und deren Befürwortung als First-Tier-Test für diese Kinder [;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-3035-2_10 027335a164a8d2b4a984889ba789d283;de;;;6.1.;;;Strategien und Geschäftsmodelle für mobile ApplikationenErster Schritt in der Generierung mobiler Applikationen ist die Definition der Strategie. Aufbauend auf der Strategie wird das Geschäftsmodell konzipiert und die Projektumsetzung geplant.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8348-2436-3_3 e40fed1bb1baae9f01fc5d9dec912b2f;de;;;6.1.;;;Geschäftsbeziehungen in einem LogistiknetzwerkSelten hat heute ein Unternehmen alle notwendigen technologischen Kompetenzen zur technologisch hochstehenden, genügend schnellen und wirtschaftlichen Entwicklung und Herstellung von Produkten einer gewissen Komplexität. Entwicklung und Herstellung werden deshalb nicht von einer einzigen organisatorischen Einheit besorgt. Sie werden vielmehr auf verschiedene Unternehmen oder organisatorische Einheiten eines Unternehmens aufgeteilt. Grundsätzliches Verständnis ist somit darüber nötig, wie sich Unternehmen bilden und in ihren Grenzen nach aussen und im inneren Aufbau verändern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-07920-1_2 cb1cdcacc685b149df00534ba045ff82;de;;;6.1.;;;Organisation von Innovation — Koordination und Motivation von Open-Source-Software-ProjektenDas Erstaunliche bei vielen Open-Source-Software (OSS) Projekten ist, dass trotz des Fehlens von Anweisungsrechten, klaren Aufgabenteilungen und Aufgabenzuordnungen oder gar eindeutigen Arbeitsprozessen kein Chaos bei der Entwicklung derartiger Software herrscht, sondern Software entsteht, die teilweise in Bezug auf Stabilität und Qualität klassisch proprietär entwickelter Software überlegen ist. Dennoch ist es nicht so, dass Open-Source- Software quasi selbstorganisierend entsteht und keinerlei organisatorischer Hilfsmittel bedarf, vielmehr werden diese Projekte durch eine spezielle Organisation von Innovation zum Erfolg geführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-9585-8_15 0e853c07a0f4f7f92d16deab74712838;de;;;6.1.;;;Bestwestern.deBest Western ist eine internationale Hotelkette mit mehr als 4.000 Hotels in 72 Ländern der Erde. Die Best Western Hotels Deutschland GmbH ist Lizenznehmer bei Best Western International, Inc., mit Sitz in Phoenix, Arizona. Dieser Lizenzvertrag berechtigt zur Nutzung der Marke und verpflichtet dazu, im definierten Territorium wichtige Standorte mit Best Western Hotels zu besetzen. Diese Hotels müssen die definierten Qualitätsstandards erfüllen. Die möglichst flächendeckende Standortbesetzung sorgt in Verbindung mit geeigneten Marketingmaßnahmen für Markenbekanntheit. Best Western Hotels Deutschland und die Hotels sind über einen Dienstleistungsvertrag miteinander verbunden. Überdurchschnittliche ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-56498-7_5 7a67cef496760c7e618690e783d2330f;de;;;6.1.;;;Architektur von Führungsinformationssystemen zur Unterstützung moderner EndgeräteEinstellung und Nutzungsbereitschaft der Führungskräfte gegenüber Informations- und Kommunikationstechnologien (IKT) haben sich stark verändert. Neue Anforderungen sind zudem durch eine rasante technische Entwicklung geprägt. Das vorgestellte Schnittstellenkonzept ermöglicht es, Inhalte und Darstellung von Führungsinformationssystemen (FIS) an verschiedene Endgeräte anzupassen. In einem Anwendungsbeispiel wird eine solche Anpassung aufgezeigt.;-;-;-;https://link.springer.com/article/10.1007/BF03340642 c6969542d6dda859f84232b125829665;de;;;2.2.;;;Raum-zeitliche Zugriffsmethoden: eine Umfrage (2010 - 2017) Das Volumen raum-zeitlicher Daten nimmt aufgrund der Fortschritte bei ortserkennenden Geräten, z. B. Smartphones, und der Popularität von standortbasierten Diensten, z. B. Navigationsdiensten, rasant zu. Eine Anzahl von raum-zeitlichen Zugriffsverfahren wurde vorgeschlagen, um eine effiziente Verarbeitung von Abfragen über die raum-zeitlichen Daten zu unterstützen. Räumlich-zeitliche Zugriffsverfahren können je nach Art der indizierten Daten in die folgenden Kategorien eingeteilt werden: (1) Indizes für historische raum-zeitliche Daten, (2) Indizes für aktuelle und aktuelle raum-zeitliche Daten, (3) Indizes für zukünftige raumzeitliche Daten, (4) Indizes für vergangene, gegenwärtige und zukünftige raumzeitliche Daten, (5) Indizes für raumzeitliche Daten mit zugehörigen Textdaten und (6) parallele und verteilte raumzeitliche Systeme und Indizes. Diese Umfrage ist Teil 3 unserer früheren Umfragen zum gleichen Thema (Mokbel et al. IEEE Data Eng Bull 26(2):40–49,;-;-;-;https://link.springer.com/article/10.1007/s10707-018-0329-2 c9fb0e1ad33210509f974b1dec809cf9;de;;;6.1.;;;XXX. ArzneimittelprüfungDie klinische Prüfung von Medikamenten dient der Feststellung der Wirksamkeit und Sicherheit des Arzneimittels. Klinisch geprüft werden nicht nur neue Substanzen, sondern auch bekannte Medikamente für eine neue Indikation, etwa ein Gichtmittel für Herzerkrankungen. Zu Beginn hat der Grundsatz zu stehen, dass der Staat und seine Einrichtungen die klinische Prüfung auf jede zulässige Weise unterstützen sollen. Auf manchen Gebieten sind die therapeutischen Lücken größer als die therapeutischen Erfolge. Man sollte daher die Forschung ermutigen und nicht niederhalten. Die neuerdings gelegentlich zu bemerkenden generellen Verbote von Klinikverwaltungen an ihre Ärzte, an der klinischen Prüfung von Arzneimitteln mitzuwirken, sind nicht nur irregeleitet, sondern auch rechtswidrig. Irregeleitet, weil man wohl imaginäre Haftungsrisiken befürchtet, die in Wirklichkeit nach § 40 AMG vom pharmazeutischen Unternehmen getragen werden. Rechtswidrig aus dem Grunde, dass Krankenhäuser, die den jeweils höchsten Standard der medizinischen Wissenschaft anwenden sollen, nicht die Weiterentwicklung dieses Standards durch das Verbot wissenschaftlicher Arbeit hemmen dürfen. Es ist auch zu vermeiden, durch besonders hohe oder bürokratisch verfeinerte Anforderungen die klinische Prüfung an sich zu erschweren. Ein bedauerliches Beispiel im Hinblick auf bürokratische Hürden stellte die Note for Guidance mit Bezug auf die Prüfung von Arzneimitteln der EU dar. Sie ist leider weitgehend in die deutsche GCP-VO aufgegangen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38149-2_30 261e32760bb6d83cceb98a57f080b455;de;;;6.1.;;;Change Management — Reform des Gesundheitswesens in BulgarienZur Gewährleistung qualitativ hochwertiger medizinischer und zahnmedizinischer Versorgung der Bevölkerung, eines bulgarischen Krankenversicherungssystems sowie aller relevanten sozialen Verbindungen verabschiedete das bulgarische Parlament das Krankenversicherungsgesetz, mit dem das gesamte Gesundheitswesen von einem sozialistischen System in ein Gesundheitssystem westeuropäischer Prägung umgewandelt werden soll. Die Reform wird zum Teil von der Weltbank in Washington D.C. finanziert. Eine wichtige Komponente dieses enormen Wandels bilden die Definition neuer Prozesse zur Gesundheitsversorgung sowie die Planung und Implementierung eines neuen Informationssystems und einer neuen Infrastruktur.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19020-9_8 3e8fd434f32c2c1f46f3aac9898eef27;de;;;6.1.;;;Ein Kostentreibermodell für IT-LösungenUm zu ermitteln, welche Kostenarten über den Lebenszyklus einer IT-Lösung relevant sind und was die Höhe der Lebenszykluskosten beeinflusst, werden in diesem Kapitel Kostenarten und -treiber in der Literatur und der Praxis identifiziert. Dann wird, basierend auf der Servicetheorie, der Ressourcentheorie und der Transaktionskostentheorie, ein Kostentreibermodell entwickelt. Anschließend wird ein Praxisbeispiel vorgestellt, das in Kooperation mit dem IT-Dienstleister der Flughafen München GmbH durchgeführt wurde. In diesem Praxisbeispiel wird die Nützlichkeit des Kostentreibermodells und einer Lebenszyklusbetrachtung für die Prozesskostenrechnung gezeigt. Dieses Praxisbeispiel stellt somit eine (Teil-)Evaluation des Kostentreibermodells im Sinne der Design-Science-Forschung dar (vgl. 2.4.2).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-08855-2_4 71d7b9ea4adde94eb9ecd86f1b478fc9;de;;;2.2.;;;Cache-bewusster Indexmechanismus für Hauptspeicherdatenbanken Neuere Studien haben sich damit befasst, dass das Cache-Verhalten beim Entwurf von Hauptspeicherindexstrukturen wichtig ist. Cache-bewusste Indizes wie der CSB;-;-;-;https://link.springer.com/article/10.1007/BF02831753 c1893aa3a880564614356e7cf2b54ca4;de;;;6.1.;;;(Neue) Medien, Partizipation und nachhaltige EntwicklungDie Idee einer nachhaltigen Entwicklung ist ein international anerkanntes Leitbild, welches einen tief greifenden gesellschaftlichen Transformationsprozess impliziert, dessen konkrete Ausgestaltung allerdings nicht feststeht. Vielmehr sind kontinuierliche Verständigungs- und Lernprozesse erforderlich, in denen verschiedene und zum Teil auch gegensätzliche Problemdeutungen, Lösungsstrategien und Weltbilder aufeinander treffen und die einen Wandel gesellschaftlicher Institutionen in allen Lebensbereichen hervorrufen. Die Gestaltung dieses Wandels darf nicht (nur) auf Politik und Wissenschaft beschränkt bleiben, sondern muss zwischen Akteuren aller gesellschaftlich relevanten Teilsysteme, insbesondere Politik, Bildung, Recht, Wissenschaft, Wirtschaft und Zivilgesellschaft, stattfinden (Michelsen 2007: 25).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-93020-6_9 53d73afc2665b17c31797db031f6d0c6;de;;;6.1.;;;Mergers & Acquisitions im globalen UmfeldWeltweit steigt die Anzahl von M&A-Transaktionen seit den 1980er-Jahren kontinuierlich an. Der Begriff Mergers & Acquisitions (M&A) umschreibt Geschäfte, die durch den Übergang von Leitungs- bzw. Kontrollbefugnissen an Unternehmen auf andere Unternehmen gekennzeichnet sind. Käufe geringfügiger Wertpapierpositionen sowie rein finanziell motivierte Paketkäufe durch Privatpersonen und institutionelle Anleger (z. B. Banken und Versicherungen) werden meist nicht darunter gefasst. Unter einer Akquisition wird der Erwerb von Unternehmen bzw. Unternehmensteilen, Mehrheitssowie Minderheitsbeteiligungen verstanden. Eine Akquisition erfolgt in der Regel entweder durch die Übertragung von Gesellschaftsanteilen (Share Deal), durch die Übertragung aller oder bestimmter Wirtschaftsgüter und Verbindlichkeiten eines Unternehmens (Asset Deal) oder durch eine Kombination von beidem. Bei einem Merger handelt es sich dagegen um die Fusion zweier oder mehrerer, bis dahin rechtlich selbständiger Unternehmen. Hierbei verliert mindestens ein beteiligtes Unternehmen seine rechtliche Selbständigkeit. Zunehmend lassen sich grenzüberschreitende Fusionen beobachten. Auch strategische Allianzen, die von Kooperationsformen ohne gegenseitige Kapitalbeteiligung bis zum Joint Venture reichen, können Gegenstand einer M&A-Transaktion sein. Unter einem Joint Venture wird die Einbringung von Unternehmen bzw. Unternehmensteilen verschiedener Unternehmen in ein Gemeinschaftsunternehmen bzw. sein gemeinsamer Aufbau von Grund auf verstanden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-89667-4_3 1043abbb676cdb739db93ea0200078c6;de;;;6.1.;;;Veränderte Blickwinkel auf UnternehmenWenn der Zusammenschluß von Unternehmen zu Produktionsnetzwerken einen entscheidenden Entwicklungsschritt auf dem Weg in eine erfolgreiche Zukunft der industriellen Produktion darstellt, so müßte man annehmen, daß viele Produktionsbetriebe diese Chance auch wahrnehmen. Sieht man jedoch genauer hin, so stellt man zweierlei fest: zum einen sind heute viele Produktionsbetriebe noch sehr zurückhaltend, was Kooperationen anbelangt, zum anderen stellt sich bei denjenigen, die den Schritt in Richtung Vernetzung tatsächlich gehen, oftmals nicht der gewünschte Erfolg ein. Eine Studie des Instituts für Mittelstandsforschung beispielsweise zeigt, daß in der Bundesrepublik Deutschland insbesondere mittelständische Unternehmen selten eng mit anderen Unternehmen zusammenarbeiten (vgl. Dör-sam 1997). An Bereitschaft der Unternehmen zur Netzwerkbildung mangelt es nicht. Woran es mangelt, sind Kenntnisse und das Wissen der Unternehmen, wie man nach geeigneten Partnern sucht, Produktionsnetzwerke zielgerichtet aufbaut und Kooperationen erfolgreich durchführt (Abb. 1).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-10808-6_2 df15e6a4d6b673f802de6477afc0890c;de;;;6.1.;;;Ökonomische Aspekte von mHealth-AnwendungenMit der Digitalisierung werden im Gesundheitswesen große Erwartungen verbunden. Die gegenwärtig zu verzeichnende Bandbreite an Entwicklungen in den Bereichen eHealth und mHealth erinnert dabei stark an die Anfangsphase des eBusiness und die damit eng verknüpfte so genannte New-Economy-Blase. Im Zuge dieser Entwicklung wurden unterschiedliche Paradoxien der Informationswirtschaft beschrieben. Diese sind auch in der Diskussion der Digitalisierung des Gesundheitswesens zu beachten. Ein Transfer aus dem Unternehmenssektor macht deutlich, dass die Digitalisierung im Gesundheitswesen nicht automatisch effizientere und effektivere Abläufe bringen wird. Um die Potenziale der Digitalisierung nutzen zu können, müssen bestehende Prozesse grundlegend hinterfragt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-29133-4_3 4c99ffbf15a70a0462986982e23e43c3;de;;;6.1.;;;Geschäftsprozesse: Lenken mit komplexen Systemen1992 lud Professor August-Wilhelm Scheer, Leiter des Instituts für Wirtschaftsinformatik an der Universität des Saarlandes, zu einer kleinen, bescheidenen Pressekonferenz in den Bayerischen Hof in München ein. Dort erläuterte er — noch ein wenig schüchtern — seine Idee der computergestützten Beratung unter Einsatz von Geschäftsprozessmodellen. Außer den Technikern zeigten sich wenig Besucher dieser Konferenz angetan von der Idee. Menschliches Wissen durch Computerprozesse ablösen? Undenkbar. Besonders die Beraterbranche lehnte ein derartiges Modell ab, lief es doch vielleicht sogar darauf hinaus, die eigenen Jobs überflüssig zu machen. Die Angst war durchaus verständlich, denn die Consultants erklärten ihren Kunden mit Stift und Papier, wie moderne, computergetriebene Informations- und Kommunikationsprozesse in Unternehmen mit möglichst wenig Stift und Papier auszusehen haben. „Es war ein eklatanter Widerspruch, der schnell einleuchtete“, sagt Professor Scheer heute.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-82487-5_3 8aa0a027c8c567c122ae0b50b53a2ea8;de;;;6.1.;;;Efficient Consumer Response — Eine kritische BetrachtungEfficient Consumer Response (ECR) gilt als Weg zur Steigerung der Kundenzufriedenheit und zur Realisierung von Kosteneinsparungen in der Lebensmittelindustrie. Die damit verbundene Euphorie läßt sich aber nicht unbedingt bei allen Unternehmen beobachten. Gründe dafür sind etwa die Marktmacht des Handels und das veränderte Käuferverhalten. In Anbetracht der Entwicklung der Beziehung zwischen Hersteller- und Handelsunternehmen und dem Scheitern bisheriger Bemühungen um kooperative Zusammenarbeit ergibt sich die Frage, inwieweit der ECR-Ansatz die Realisierung kooperativer Beziehungen überhaupt ermöglichen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-05636-2_14 6f484ae97806c50c9891fa76e13ebc08;de;;;6.1.;;;Betriebliches Lernen in Händen neuer Akteure – Herausforderungen für die Innovationsfähigkeit von UnternehmenDie aktuellen Entwicklungen in der Wissensökonomie beschleunigen neue Wege für Innovationen in den Betrieben. Ihre Schnelligkeit bedingt eine zunehmende Wissensintensität von Arbeitsinhalten und sich wandelnde Arbeitsformen. In diesen Arbeitsprozessen findet Lernen statt, das vielfach informell und ungesteuert und ohne eine professionelle (pädagogische) Begleitung erfolgt. Neue Akteursgruppen, fern von klassischen Professionen der Personalentwicklung, erhalten Einfluss und prägen diese Prozesse zunehmend. Zwei betriebliche Fallbeispiele verweisen auf diese neuen Entwicklungen und werden in ihrer Rolle und Bedeutung für betriebliches Lernen dargestellt. In dem Beitrag wird für eine Analyse der Verschmelzungsprozesse von Arbeiten und Lernen sowie der Aufgaben und Rollen der dort agierenden Akteursgruppen plädiert. Ziel ist, die Kompetenzentwicklung von ausgewählten Akteursgruppen in diesen Arbeitsprozessen und damit betriebliche Innovationsfähigkeit zu steigern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24299-1_14 cf32b7de43ff6c778710218f3a4e33af;de;;;6.1.;;;Einführung von Kommunikationsstandards in Unternehmensnetzwerken – ein gestaltungsorientierter Ansatz bei dezentraler EntscheidungsstrukturAktuell diskutierte Standards und Technologien (bspw. im Bereich Web Services) werden die IT-gestützte Kommunikation zwischen Unternehmen stark verändern. Die Standardisierungsentscheidung geht jedoch mit dem Risiko einher, einen Standard einzuführen, den andere Unternehmen danach nicht verwenden. Somit entsteht durch die netzeffektbedingte Interdependenz der Standardisierungsentscheidungen ein Koordinationsproblem, das Standardisierungsproblem. Handelt es sich dabei um autonom entscheidende Akteure (bspw. eigenständige Unternehmen), denen die Standardisierungsentscheidungen der anderen Akteure im Netzwerk nicht bekannt sind, liegt das Standardisierungsproblem bei dezentraler Entscheidungsstruktur und unvollständiger Information vor. Die Akteure müssen folglich jeweils unter Unsicherheit über die eigene Einführung eines Standards entscheiden. Um daraus resultierende Ineffizienzen zu reduzieren und Fehlentscheidungen zu vermeiden, wird im Beitrag ein gestaltungsorientierter Ansatz entwickelt. Dieser soll die einzelnen Akteure im Netzwerk unterstützen, die Standardisierungsentscheidungen der anderen Akteure und somit die im Falle einer Standardisierung resultierenden Netzeffekte zu antizipieren. Kern des Ansatzes ist es dabei, die Interdependenz der Entscheidungen modellendogen zu repräsentieren und das resultierende Gleichungssystem zu lösen.;-;-;-;https://link.springer.com/article/10.1007/s11573-011-0447-x 508ac5575cd8870daf31597683088afd;de;;;6.1.;;;Informationstechnologie und KundenorientierungKundenorientierung kann man verstehen als die Ausrichtung aller marktrelevanten Maßnahmen eines Unternehmens an den Bedürfnissen und Problemen der Kunden. In meinem Beitrag möchte ich dabei die Kundenorientierung so verstanden wissen, dass dieses Ziel und die daraus folgenden Maßnahmen mit anderen Unternehmenszielen abgewogen wurden. Denn letzen Endes sind es aus meiner Sicht eine Vielzahl von Einflussfaktoren, die am Ende ein erfolgreiches Unternehmen ausmachen. Dennoch ausgehend von der Gewissheit, dass der Kunde die Prozesse des Unternehmens oder zumindest maßgebliche Ausschnitte davon täglich „erlebt“, bin ich der Überzeugung, dass das Informationsmanagement und die an den Prozessen ausgerichtete Ausgestaltung der eingesetzten Technologie maßgeblich zur Kundenzufriedenheit und damit zum Unternehmenserfolg beiträgt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17109-3_15 7673372c70523df36ef918ca6f20d5b2;de;;;6.1.;;;Unternehmens- und InformationsstrategieDer institutioneile Handel steht vor tiefgreifenden Veränderungen. Diese plakative Aussage wird von vielen Experten aus Theorie und Praxis geteilt. Für den in der Unternehmung beschäftigten Manager oder den selbständigen Händler stellt sich jedoch die Frage, was sich in Zukunft ändert und wie die Unternehmensstrategie angepaßt werden sollte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-98050-3_1 395103e3fb80d39f168be1b4dc3b5533;de;;;6.1.;;;Outsourcing von F&E - Entwicklungsperspektiven für KMUKleine und mittlere Unternehmen (KMU) verfolgen in der Regel Nischenstrategien, um sich erfolgreich auf Märkten mit intensivem Wettbewerb behaupten zu können. Durch die Konzentration auf ihre Kernkompetenzen und aufgrund niedrigerer Kapazitäten für Forschung und Entwicklung (F&E) besteht die latente Gefahr, wichtige technologische Entwicklungen zu übersehen oder nicht an ihnen teilnehmen zu können. Die Integration fremden technologischen Wissens in die eigene Wertschöpfung stellt für KMU eine Handlungsoption dar, auch mit vergleichsweise geringen Investitionen mit der technologischen Entwicklung schritthalten zu können. Umgekehrt bietet der Trend zum Outsourcing KMU die Möglichkeit, eigene Kernkompetenzen breiter zu vermarkten. Im folgenden Beitrag werden organisatorische Voraussetzungen für die Integration externer F&E-Ergebnisse in das eigene Unternehmen benannt, das Management ausgelagerter F&E-Prozesse beschrieben und Normstrategien für KMU beim Outsourcing von F&E-Dienstleistungen vorgelegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-9765-4_2 c32c65c03f8f2f0a4f0116fbfbc5fed7;de;;;6.1.;;;Auswirkungen auf das BauvertragsrechtDer Einsatz von BIM-Planungstechnologien wirft eine Vielzahl von rechtlichen Fragestellungen auf. Im Kern ist es Aufgabe des Bauvertragsrechts, die bei dem Einsatz dieser Planungsmethodik erforderlichen Prozesse und die Rechte und Pflichten der Vertragsparteien zu regeln. Die Autoren behandeln in diesem Kapitel nach einer einleitendenden Stellungnahme zu im internationalen Kontext diskutierten, neuen Vertragsstrukturen die Regelungsbereiche Arbeitsorganisation/Abwicklungsdetails, Rechte an Daten, Haftung, BIM-Management und Vergütung. Herausgestellt werden die nach Ansicht der Autoren bei der Vertragsgestaltung maßgeblich zu berücksichtigenden Interessenlagen. Dabei werden auch die Lösungsansätze international gebräuchlicher Vertragsmuster (AIA, ConsensusDocs, nec3) vorgestellt und miteinander verglichen. Die Autoren kommen zu dem Ergebnis, dass BIM weder ein neues Paradigma der Vertragstypen, noch ein neues Haftungsregime erfordert. Einzelheiten zum BIM-Einsatz können in BIM-spezifischen Vertragsanlagen, die zur Anlage sämtlicher Einzelverträge gemacht werden, geregelt werden. Das HOAI-Preisrecht steht hierbei einer aufwandsangemessenen Vergütung der durch die BIM-Prozesse entstehenden Mehr- oder Minderaufwendungen nicht entgegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-05606-3_14 601f8dfa5e2d3baa8b1ca9bf7487039f;de;;;6.1.;;;Konsortialforschung zur Entwicklung von Referenzmodellen für die Digitalisierung von Unternehmen – Erfahrungen aus dem DatenmanagementReferenzmodelle sind wichtige, praxisrelevante Forschungsergebnisse der Wirtschaftsinformatik, die Unternehmen bei Digitalisierungsthemen wertvolle Orientierung bieten. Zu den Herausforderungen bei der Entwicklung von Referenzmodellen gehört der Zugang zu „implizitem“ Praxiswissen, das bei der Einführung und Nutzung von Technologien im Unternehmen entsteht. Dieser Beitrag beschäftigt sich damit, wie Konsortialforschung – als Form der multilateralen, institutionalisierten Zusammenarbeit zwischen Forschung und Praxis – für den Wissenstransfer und die rigorose Entwicklung von Referenzmodellen genutzt werden kann. Am Fallbeispiel des Data Excellence Models (DXM) illustrieren wir die iterative (Weiter‑)Entwicklung eines Referenzmodells, an dem 15 Unternehmen sowie Forscher aus drei Universitäten mitgewirkt haben. Aus dem Entwicklungsprozess und den Erfahrungen leiten wir Empfehlungen für die Referenzmodellentwicklung in Zusammenarbeit zwischen Forschung und Praxis ab.;-;-;-;https://link.springer.com/article/10.1365/s40702-020-00590-2 f8d0bb7e2550b5a4af3e7d2741fd8e6b;de;;;6.1.;;;Business-Intelligence-Strategie als BasisDas Thema Business-Intelligence gewann in den vergangenen Jahren erheblich an Bedeutung und belegt in einer Vielzahl an CIO-Umfragen einen der Top-Plätze. Demzufolge sieht eine immer größere Anzahl von Unternehmen entsprechende Projekte vor. Aufgrund der Bedeutung dieser Projekte für den Unternehmenserfolg stellt Business-Intelligence ein Themengebiet dar, dessen Einbezug in die Unternehmensstrategie sehr wertvoll und notwendig ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8348-2292-5_1 e57d26ce10c43ab8c3cdb687950aea2f;de;;;6.1.;;;EntwicklungsmanagementFür Unternehmen, die technische Produkte herstellen, hat sich in den letzten Jahren die Marktsituation drastisch geändert. Ausgangszustand war eine stabilstatische Situation, die gekennzeichnet war durch langfristige Kundenbeziehungen, gleichartige Konkurrenten und regionale Begrenzung. Davon erfolgte ein Wandel hin zu sprunghaft-dynamischen Märkten, die charakterisiert werden können durch preisgünstigen und technisch versierten Wettbewerb aus Schwellenländern, einem kritischen Käufermarkt sowie einem Weltmarkt mit großen regionalen Unterschieden. Die Produkte sind kurzlebiger und müssen neben niedrigeren Preisvorstellungen immer differenzierteren Funktionen genügen. Dies wird bei erfolgreichen Produktentwicklungen mitberücksichtigt. So ist Entwicklung auch nicht mehr als stabil-statische Abteilung anzusehen, sondern Entwicklung ist als Gesamtheit aller Prozesse von der Kundenanforderung bis zur Auslieferung zu verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-59075-7_2 99a9386237e51c4dc3ffb1b43a9107cb;de;;;6.1.;;;Weblogs in UnternehmenWeblogs sind — neben Wikis und Social-Networking-Plattformen — das derzeit wohl am stärksten diskutierte Format des Web 2.0. Für diesen Stellenwert ist neben der rein quantitativen Verbreitung vor allem der Umstand verantwortlich, dass die spezifische Kommunikationsarchitektur von Weblogs zur Herausbildung neuer Öffentlichkeiten beiträgt. Diese ergänzen teilweise die bestehenden Öffentlichkeiten des Journalismus und der professionellen Marktkommunikation, fordern sie teilweise aber auch heraus: Leitideen wie Authentizität, Dialogorientierung und dezentraler Austausch, die mit Weblogs verbunden sind, machen sie für eine Vielzahl von Personen attraktiv, die nach Alternativen zur oft als unauthentisch, gar manipulativ empfundenen Kommunikation von Massenmedien, Marketing und PR suchen. Indem sie die Merkmale bereits etablierter Online-Formate, namentlich der Homepage und des Diskussionsforums kombinieren, schließen Weblogs an bekannte Nutzungsmuster an, betonen aber deutlich stärker den Stellenwert des einzelnen Autors, der regelmäßig zu bestimmten Themen relevante Informationen publiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73701-8_8 8a750139a8ac2937c4a585df93490c11;de;;;6.1.;;;Effiziente Verträglichkeitsprüfung und automatische Migration von Workflow-Instanzen bei der Evolution von Workflow-Schemata Sollen Workflow-Management-Systeme (WfMS) in umfassender Weise für die rechnerbasierte Verwaltung und Steuerung von Geschäftsprozessen einsetzbar sein, müssen die von ihnen verwalteten Workflow-Schemata und -Instanzen bei Bedarf rasch anpassbar sein. Dabei müssen die auf Basis eines (alten) Workflow-Schemas erzeugten Instanzen auch nach dessen Änderung ungestört weiterlaufen können, etwa durch Bereitstellung geeigneter Versionskonzepte. Sehr viel schwieriger wird es, wenn die angewandten Schemaänderungen – wo gewünscht und möglich – auch auf die bereits (vielleicht in großer Zahl) laufenden Workflow-Instanzen übertragen werden sollen. Dies bei Bedarf zu können – und zwar ohne Inkonsistenzen oder Fehler zu verursachen – ist aber ungemein wichtig, wenn ein WfMS breit und flexibel einsetzbar sein soll. In diesem Beitrag wird ein Ansatz zur effizienten Prüfung der Verträglichkeit von Workflow-Instanzen mit einem geänderten Workflow-Schema vorgestellt. Durch Einbeziehung aller Beschreibungskonstrukte (z.B. auch Schleifen und Datenflüsse) und damit zusammenhängender Fragestellungen wird darüber hinaus zum ersten Mal die Grundlage für ein umfassendes Änderungsmanagement geschaffen. Außerdem wird aufgezeigt, wie der Benutzer bei der Migration verträglicher Instanzen auf das neue Schema konkret unterstützt werden kann.;-;-;-;https://link.springer.com/article/10.1007/s00450-002-0122-0 31dbc2b1edb20be95051a07793662ee1;de;;;6.1.;;;Datenbankunterstützung für den ingenieurwissenschaftlichen EntwurfDatenbanksysteme zeichnen sich durch Charakteristika aus, die über den „klassischen“ administrativ-betriebswirtschaftlichen Bereich hinaus zunehmend auch für Ingenieuranwendungen als vorteilhaft erkannt werden. Die Schwierigkeiten für einen sofortigen Einsatz in diesem Sektor liegen darin, daß existierende Systeme hinsichtlich Datenstrukturierung, Konsistenz, Mehrbenutzerbetrieb und Datensicherung keine den neuen Anforderungen entsprechenden Konzepte anbieten. Der Bericht nennt beispielhaft für den Bereich des Entwurfs technischer Objekte die wichtigsten Unterschiede zu traditionellen Anwendungen und stellt Lösungsvorschläge für die genannten Problemkreise vor.;-;-;-;https://link.springer.com/article/10.1007/BF00425952 67d0a77fa8adae00b1f83aafb70b32d9;de;;;6.1.;;;eProduction — Von der Push- zur Pull-ProduktionDie Produktion im e-Zeitalter ist ein komplett über das Internet gesteuerter Fertigungsprozess, der bereits mit der Planung des Produktionsprogramms beginnt und mit der Einlagerung ins Auslieferungslager endet. Die eProduction bildet einen wesentlichen Bestandteil des eSupply Chain Managements und wird, aufgrund des Wandels zur Pull- Produktion, durch tatsächliche Aufträge angestoßen. Der reibungslose Ablauf der Produktion hängt vor allem von der termingenauen Bereitstellung von Teilen ab, die mit Hilfe der Internettechnologie fertigungssynchron angeliefert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-82873-6_6 4495016657edae1ce4a2a4ba1f69a811;de;;;2.2.;;;Schemaversionierungs- und Datenbankkonvertierungstechniken für bitemporale Datenbanken Schemaentwicklung und Schemaversionierung sind zwei Techniken, die zum Verwalten der Datenbankentwicklung verwendet werden. Die Schemaentwicklung behält nur die aktuelle Version eines Schemas und einer Datenbank bei, nachdem Schemaänderungen angewendet wurden. Die Schemaversionierung erstellt neue Schemaversionen und konvertiert die entsprechenden Daten unter Beibehaltung der alten Schemaversionen und Daten. Um die größtmögliche Allgemeinheit zu gewährleisten, können bitemporale Datenbanken verwendet werden, um die Schemaversionierung zu realisieren, da sie sowohl rückwirkende als auch proaktive Aktualisierungen des Schemas und der Datenbank ermöglichen. In diesem Papier untersuchen wir zunächst zwei vorgeschlagene Datenbankkonvertierungsansätze zur Unterstützung der Schemaentwicklung und Schemaversionierung: Einzeltabellenversionsansatz und Mehrfachtabellenversionsansatz. Wir schlagen dann den Ansatz der partiellen Tabellenversion vor, um die Probleme zu lösen, die bei diesen Ansätzen bei Anwendung auf bitemporale Datenbanken auftreten.;-;-;-;https://link.springer.com/article/10.1023/A%3A1016622202755 ff1c484391eae0dc56d84060fa12bcd1;de;;;2.2.;;;Heuristiken für die hierarchische Partitionierung mit Anwendung auf die Modellprüfung Bei einer Ansammlung verbundener Komponenten ist es oft erwünscht, Teile mit starker Übereinstimmung zu gruppieren, was eine hierarchische Struktur ergibt. Wir befassen uns mit der Automatisierung dieses Prozesses und wenden Heuristiken an, um die kombinatorische und rechnerische Komplexität zu bekämpfen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44798-9_5 5c7ff8d7a0117ee312a73a4ff9cdecde;de;;;6.1.;;;Vom Knowledge Management zum Learning Service Providing — Leitfaden zur Einführung von E-LearningUnternehmen schließen sich zu Weltkonzernen zusammen und müssen deshalb sehr schnell ihre Mitarbeiter global mit aktuellem Wissen versorgen, um die weltweite Implementierung der Konzernstrategie sicherzustellen. Nur ein gezielter Informationsund Wissenstransfer, der sehr individuell auf die Bedürfnisse der Mitarbeiter zugeschnitten sein muss, kann Innovation, Geschwindigkeit und Profitabilität gewährleis-ten.[l];-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-99813-3_19 bb0c1acca6e52676b295b7a8344150ba;de;;;6.1.;;;Die Rolle der KMU im Europäischen BinnenmarktBereits vor der Gründung des Gemeinsamen Marktes waren große Unternehmen meist in der Lage, innerhalb der Europäischen Gemeinschaft Handelsbarrieren zu überwinden. Sie betrachteten daher schon damals diese Länder als ihren Heimatmarkt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-97817-2_2 4c3a2b6810e016f0147ab94917b3a7a0;de;;;6.1.;;;Social Media in Influencer RelationsSocial Media sind in aller Munde. Kommunikationsabteilungen weltweit machen sich Gedanken, ob und wie sie diese neue Form der Beziehungspflege nutzen können. Was aber ist genau gemeint, wenn die Rede von Social Media ist? Vielen ist inzwischen bewusst, dass es dabei nicht nur um einige neue Kanäle, sondern auch um veränderte Rahmenbedingungen, ein neues Verständnis von Zielgruppen und nicht zuletzt um ein neues Kommunikationsverhalten geht. Anstatt einer schlichten Definition möchte ich daher direkt mit einem Beispiel die Dynamik und Kultur von Social Media veranschaulichen und im Folgenden zeigen, wie man im Zeitalter von Social Media zu einer Definition derselben kommen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18410-9_13 11951fe63461b4ce1dad48cef7ad28ae;de;;;6.1.;;;IS-Architektur für UnternehmensnetzwerkeDieses Kapitel entwickelt eine Referenz-IS-Architektur für das CRM in Finanzdienstleistungsnetzwerken. Dafür werden zunächst die Anforderungen an eine solche Architektur aus den vorherigen Kapiteln zusammengefasst (s. Abschnitt 5.1). Aufbauend darauf werden Daten und Funktionen (s. Abschnitt 5.2), Applikationsarchitektur (s. Abschnitt 5.3) und Integrationsarchitektur (s. Abschnitt 5.4) erarbeitet. Im Anschluss findet eine Analyse ausgewählter Standardsoftware statt (s. Abschnitt 5.5).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-9107-8_5 d2e8e5024d8192c3c19e09d2b5905d4b;de;;;6.1.;;;Podiumsdiskussion Wann vertrauen Sie Ihrem IT-Versorger? Cloud und Trust in der Kontroverse von Anbietern und KonsumentenIch möchte unser Panel kurz vorstellen und gehe alphabetisch vor. Zunächst Herr Michael Auerbach. Er ist Diplom-Ingenieur, war bei EDS, einer Outsourcing Firma, tätig, beim IT Service debis Systemhaus und dann bei der T-Systems, wo er durch verschiedene Stufen in eine hohe Managementverantwortung gelangt ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18110-8_10 0599d093c812d8a9717a8cce2b3a7ab9;de;;;6.1.;;;Bildung, Jugend und WissenschaftDas rasche Zusammenwachsen Europas und der Prozess der Globalisierung in einer Weltökonomie fordern eine entsprechende Bildungs-, Jugend- und Forschungspolitik, die das Europa der Nationen und Regionen in diesen Bereichen zusammenhält, aber auch Raum für die Entfaltung von Eigenständigkeit bel&Lasst. Qualitätssicherung als Antwort auf weltweite Herausforderung gerade im Bildungs- und Forschungsraum Europa sowie Vergleichbarkeitssicherung als Reaktion auf national und lokal gewählte autonome Lösungswege treffen sich in ihrem Steuerungsinteresse. Der hier vorgelegte Beitrag nimmt zunächst mit dem ersten Kapitel die Aspekte ‚Bildung‘, ‚Jugend‘ und ‚Wissenschaft‘ aus europäischer Sicht in den Blick und legt die gemeinsame Rechtsgrundlage dieser Aktionsfelder dar. Das nachfolgende Kapitel geht in entsprechenden Unterkapiteln den einzelnen Bereichen differenzierter nach, indem die jeweilige rechtliche Basis vertieft sowie Ziele, Strategien, Programme und Perspektiven skizziert werden. Mit dem dritten Kapitel wird vor dem aufgezeigten euroäischen Hintergrund abschließend gefragt, wie sich das Land Nordrhein-Westfalen als europäische Region mit regional-europäischen Verflechtungen in den drei benannten Politikbereichen mit entsprechenden politischen Leitlinien und Initiativen darstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-90104-6_2 31a8a2a829dab63b407565a901a612d2;de;;;6.1.;;;Beiträge des Semantic Web zum Engineering für Industrie 4.0Ein wesentlicher Aspekt für die Umsetzung der Vision von Industrie 4.0 ist die Verbesserung des Engineering-Prozesses von Produktionssystemen . Dieses Kapitel untersucht, welche Beiträge ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-53248-5_90 2eac0c7c8822be92811b14ff57be7bb0;de;;;2.2.;;;iDISQUE: Abstimmung hochdimensionaler Ähnlichkeitsabfragen in DHT-Netzwerken In diesem Papier schlagen wir ein vollständig dezentralisiertes Framework namens iDISQUE vor, um einstellbare ungefähre Ähnlichkeitsabfragen von hochdimensionalen Daten in DHT-Netzwerken zu unterstützen. Das iDISQUE-Framework verwendet ein verteiltes Indexierungsschema, um Datenzusammenfassungsstrukturen namens iDisques zu organisieren, die die Clusterinformationen der Daten auf jedem Peer beschreiben. Der Veröffentlichungsprozess von iDisques verwendet ein lokalitätserhaltendes Mapping-Schema. Ungefähre Ähnlichkeitsabfragen können mit dem verteilten Index aufgelöst werden. Die Genauigkeit der Abfrageergebnisse kann sowohl mit den Veröffentlichungs- als auch mit den Abfragekosten abgestimmt werden. Wir verwenden eine Multi-Probe-Technik, um die Indexgröße zu reduzieren, ohne die Effektivität von Abfragen zu beeinträchtigen. Wir schlagen auch eine effektive Load-Balancing-Technik vor, die auf Multi-Probing basiert. Experimente an realen und synthetischen Datensätzen bestätigen die Wirksamkeit und Effizienz von iDISQUE.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12026-8_4 2b654f539eb71459fb673a12d4872dda;de;;;6.1.;;;Sentiment-Analyse im Unternehmenskontext und Softwarelösungen im MarktDie Sentiment-Analyse hat sich in den letzten Jahren als manifester Anwendungszweig von Natural Language Processing entwickelt. Dies wird nicht nur durch die große Anzahl an wissenschaftlichen Veröffentlichungen oder durch die Vielfalt der Softwarelösungen deutlich, die im Markt angeboten werden, sondern auch dadurch, dass es zurzeit eine Reihe von verschiedenen Anwendungsfeldern in der Wirtschaft gibt, die Sentiment-Analyse als Methode einsetzen. In diesem Kapitel geben wir einen Überblick über die Softwarelösungen im Markt für deutschsprachige Sentiment-Analyse sowie die Praxis in der Wirtschaft. Zunächst betrachten wir den Markt für Sentiment-Analyse-Tools und – Services. Anschließend stellen wir Anwendungsfelder verschiedener Industrien vor und zeigen Fragestellungen, die mithilfe von Sentiment-Analyse im Unternehmenskontext beantwortet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-29699-5_11 b829945455d6b2f73bf4afc7227a45d6;de;;;2.2.;;;Ein auf zyklischer Übersetzung basierender Grid-Quadtree-Index für kontinuierliche Bereichsabfragen über bewegte Objekte Um die Verarbeitung von Abfragen mit kontinuierlichem Bereich über Datenströme von sich bewegenden Objekten zu beschleunigen, wurden verschiedene Abfrageindexierungstechniken vorgeschlagen. Wir präsentieren einen auf zyklischer Übersetzung basierenden Grid-Quadtree-Abfrageindex und verwenden die Methoden der Abfragepositionsübersetzung und des Index-Tunings, um die Indizierung von Abfragen mit kontinuierlichem Bereich zu optimieren. Wir untersuchen die Leistung unseres Indexierungsansatzes und vergleichen ihn mit einem früheren CES-basierten Indexierungsansatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21937-5_10 55b0fa98335f253392c634cc014b2fe5;de;;;6.1.;;;Die Schwingen ausbreiten: Hochleistungsmanagement in der kommerziellen LuftfahrtNach ausreichendem Schlaf und mehr oder weniger kurzer Anfahrt betritt Flugkapitän Müller eine Stunde vor seinem Flug um fünf Uhr morgens den Vorbereitungsraum auf dem Airport Franz Josef Strauß in München, seinem Heimatflughafen. Der frühe Termin macht ihm nichts mehr aus, er ist seit Jahren das Schichtsystem gewohnt. Er meldet sich im Informationssystem seiner Airline an und trifft dann auf den mit ihm heute eingeteilten Co-Piloten. Sie kennen sich und kommen bald auf dessen gestrigen Simulatorcheck zu sprechen: Der simulierte Triebwerksausfall bei gleichzeitig heftigen Turbulenzen hatte De Vaal zwar einige Mühe gemacht, aber er hatte alles regelgerecht bewältigt. Sie wenden sich dann dem im Intranet der Airline hinterlegten Briefing Package zu, das das Flight Management für ihre Flüge an diesem Tag ausgearbeitet hat. Nachdem sie den umfänglichen Datensatz — Flugstrecke, Ausweichflughäfen, Wetterlage, voraussichtliche Passagierzahl etc. — detailliert kontrolliert haben, besprechen sie die einzelnen Punkte und zeichnen ab. Anschließend gehen sie zum Crewraum und treffen dort auf die ebenfalls schon gebrieften Flugbegleiter, mit einigen sind sie schon geflogen. Kapitän Müller gibt für die Cabin-Crew relevante Informationen weiter, dann erfolgt der Transport zum Flugzeug.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-9878-1_14 f846e8f0b92230b7d051aea9b592423b;de;;;6.1.;;;Internationales F&E-ManagementGlobalization of markets and shorter product and technology cycles have led up to an intensification of competition in many markets, thus, multinational firms face the necessity of an effective and efficient management of international R&D activities. This article focuses on two main aspects of international R&D management: planning and organization of international R&D activities.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-57009-4_9 561dc5b8556f20b6cb57b1de72c2911c;de;;;2.2.;;;Selbstorganisierende Karten für die hierarchische Baumansicht Dokument-Clustering unter Verwendung von Kontextinformationen In diesem Papier schlagen wir eine effektive Methode vor, um Dokumente in eine dynamisch aufgebaute Taxonomie von Themen zu gruppieren, die direkt aus den Dokumenten extrahiert wird. Wir berücksichtigen kurze Kontextinformationen innerhalb des Textkorpus, die nach Wichtigkeit gewichtet und als Input für einen Satz unabhängig gesponnener wachsender Self-Organising Maps (SOM) verwendet werden. Diese Arbeit zeigt eine Steigerung der Genauigkeit und Kennzeichnungsqualität in der Themenhierarchie unter Verwendung dieser Indexierungseinheiten. Die Verwendung der Baumstruktur über Sets herkömmlicher zweidimensionaler Karten erzeugt leicht zu durchsuchende und verständliche Themenhierarchien, in denen die Dokumente aufgrund ihrer inhaltlichen Ähnlichkeit gespeichert werden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45675-9_21 2033b8bcb9107d1cde10c4b4fe167a9f;de;;;6.1.;;;Ökonomische Grundlagen der eTransformationDieses Zitat aus einem Buch, das Orientierung in der unübersichtlichen Welt digitalisierter Interaktion zwischen Unternehmen und Kunden verspricht, beschreibt zwei miteinander verwobene Perspektiven auf E-Transformation: die Veränderung von Produkt-und Servicemärkten sowie den Prozessen, die in Unternehmen zu diesen Produkten führen. Heinrich von Pierer (2001) integriert diese Perspektiven in einen übergeordneten Zusammenhang und beschreibt E-Transformation als Wechselspiel zwischen technischen, ökonomischen und politischen Entwicklungen, die durch zwei Megatrends bestimmt werden: Globalisierung und Digitalisierung. Als ein Treibsatz dieser Megatrends wirkt die Miniaturisierung von Informations-und Kommunikationstechnologie, die in der Informatik zum Ende der PC Ära und zur Genese von Embedded Systems und,Smart Devices’ geführt hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-57550-1_4 47af0a877faf94658972623ea4fd2bc3;de;;;6.1.;;;Informations- und Kommunikationssysteme in der VerkehrslogistikDie Informatik beschäftigt sich mit der systematischen Verarbeitung von Informationen. Mit Hilfe der Telekommunikation werden Nachrichten oder Informationen über größere Entfernungen mittels leitungsgebundener Technik oder Funk ausgetauscht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-07705-4_7 3006db4b449a656aee3f6ca27e1e3dd0;de;;;2.2.;;;Der Entwurf und die Evaluierung einer magnetischen/optischen Zugangsstruktur für temporäre Datenbanken Dieses Papier beschreibt eine magnetische/optische Zugriffsstruktur für nur anhängende temporale Datenbanken. Wir definieren formal die Eigenschaften einer Zugriffsstruktur, die als Monotonie bezeichnet wird;-;-;-;https://link.springer.com/article/10.1023/A%3A1008230606859 27d9cc2f2304e138fa794ec65935eefe;de;;;2.2.;;;Table-Lookup-Ansatz zum Kompilieren von zweistufigen Datenprozessorzuordnungen in HPF In diesem Artikel werden einige Kompilierungstechniken zum Komprimieren von Löchern vorgestellt. Löcher sind die Speicherorte, die von nutzlosen Schablonenzellen abgebildet werden, und werden durch den Nicht-Einheiten-Ausrichtungsschritt in einer zweistufigen Datenprozessor-Abbildung verursacht. Bei einer zweistufigen Datenprozessorabbildung gibt es ein wiederholtes Muster für Arrayelemente, die auf Prozessoren abgebildet werden. Wir klassifizieren Blöcke in Klassen und verwenden a;-;-;-;https://link.springer.com/chapter/10.1007/BFb0032682 e4cf4f6ac6644b186b9925cbc705e1ef;de;;;6.1.;;;SpeditionsunternehmenNach der Legaldefinition des HGB ist Spediteur, „wer es gewerbsmäßig übernimmt, Güterversendungen durch Frachtfiihrer oder Verfrachter von Seeschiffen für Rechnung eines anderen (des Versenders) im eigenen Namen zu besorgen.“;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-95405-3_3 a7641d4ccffe234376c81b101150df6f;de;;;6.1.;;;SystemtechnikWichtig bei der Auswahl ist, daß beide Systeme: Experten- und CAD/CAM-System, auf einer Hardwareplattform laufen. Natürlich ist es technisch möglich, eine Datenkommunikation zwischen Systemen auf unterschiedlichen Rechnern zu betreiben. Bei einer interaktiven Nutzung der Anwendung ist dies aus Gründen der Performance nicht möglich und auch sonst wegen der Integrationsprobleme nicht empfehlenswert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-89466-3_4 0afca9a02a091b9c7a1c341cc9571233;de;;;6.1.;;;Aus- und Weiterbildung für eine controlling-basierte ganzheitliche Unternehmensführung am Beispiel des Planspiels OPEXEine systematisch aus den Unternehmenszielen abgeleitete strategische und operative Unternehmensführung ist insbesondere dann eine Seltenheit, wenn sie funktionsbereichsübergreifend, also das gesamte Unternehmen betreffend, durchgeführt werden soll. Neben einer adäquaten Informationsversorgung ist hierfür ein optimal funktionierendes Koordinationssystem eine notwendige Voraussetzung — Aufgabenfelder, die dem Controlling zuzuordnen sind. Das Unternehmensplanspiel OPEX vermittelt sowohl die Fähigkeit zur ganzheitlichen Unternehmensführung als auch grundlegende Kenntnisse und Fertigkeiten im Controlling. Jeder Teilnehmer des Planspiels ist im Rahmen eines Self-Controlling-Ansatzes in einer Person Manager und Controller. Er trainiert somit einerseits, ein Unternehmen im ganzheitlichen Sinne zu führen. Dabei lernt er, die auftretende Komplexität durch einen systematischen Reduktionsprozeß zu bewältigen. Andererseits wird er mit den Fähigkeiten ausgestattet, die dafür notwendige Informationsversorgungs- und Koordinationsstruktur zu schaffen und weiterzuentwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-13270-8_18 8a1c1e4df0565473969e1a4b2366fc22;de;;;6.1.;;;Smartphone-Evolution: Rückblick und Ausblick auf die Entwicklungen im Bereich der Mobile-Media-TechnologienSeit Einführung des GSM-Mobilfunks in Deutschland zu Beginn der 1990er-Jahre hat sich die Mobilkommunikation zu einem Massenphänomen entwickelt. Mobilfunknetze und -endgeräte waren aber zunächst noch vornehmlich auf das Angebot von Sprachdiensten und den Versand von Kurzmitteilungen ausgerichtet. Durch die technische Weiterentwicklung der GSM-Netze und die Einführung der UMTS-Netze zu Beginn der 2000er-Jahre wurden dann eine breitbandigere Datenkommunikation und ein umfassenderer Zugriff auf die Anwendungen und Dienste des Internets möglich. Die damit in Zusammenhang stehende Einführung leistungsfähiger Smartphones markiert einen weiteren Meilenstein in der Entwicklung der Mobilkommunikation. Mit diesen Geräten und den verbesserten Netzinfrastrukturen war nicht nur erstmals ein komfortabler Internetzugriff möglich, sondern eröffneten sich auch neuartige Vermarktungsperspektiven für Medienangebote. Die grundlegenden technischen Entwicklungen und gleichzeitige Herausbildung eines Mobile-Media-Marktes sowie aktuelle Entwicklungstrends und zukünftige Entwicklungsperspektiven in diesem Bereich sind Gegenstand dieses Beitrags.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-23297-9_19 d40309222a16a408745cacc1df8e4b07;de;;;2.2.;;;Das Design und die Implementierung eines inkrementellen portablen Hochgeschwindigkeits-Prolog-Compilers Das Design und die Implementierung eines relativ portablen Prolog-Compilers, der 12K LIPS auf dem Standard-Benchmark erreicht, wird beschrieben. Der Compiler ist inkrementell und verwendet Dekompilierung, um Retract, Klausel und Listing zu implementieren und die Anforderungen seines Debuggers mit vier Ports zu unterstützen. Das System unterstützt Module, Garbage Collection, Datenbankzeiger und eine ganze Reihe integrierter Funktionen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-16492-8_114 0b4206637e6c696de1916ed1366b3ad8;de;;;2.2.;;;Indexbasierter Lastabwurf für das Streaming von Sliding Window Joins Wir präsentieren eine neuartige Clustering-basierte Indizierungs-Lastabwurftechnik für Sliding Window Joins (CILS). Wenn die Details der Verteilung von Strömen unbekannt sind, pflegen wir dynamisch ein duales Indexmodell (CRA-Index und CCRA-Index) für jedes gleitende Fenster, um die Datenstatistik zu erhalten. Die Indizes werden durch Clustering-Technik erstellt und verwaltet, und die Lokalität der Daten wird beibehalten. Wenn die CPU-Kapazität nicht ausreicht, wird unsere indexbasierte Lastabwurftechnik verwendet, indem der CRA-Index und der CCRA-Index verwendet werden, ein Teil der Tupel wird ausgewählt und daran gehindert, Sondierungen durchzuführen, und schließlich werden maximale Teilmengen-Join-Ausgaben erzeugt. Die Indizes sind platzsparend (eine feste Speichermenge wird verwendet) und zeiteffizient. Experimentelle Ergebnisse zu synthetischen und realen Daten zeigen, dass unser indexbasierter Lastabwurfansatz effektiv maximale Teilmengenergebnisse erzielt und die bestehenden Lastabwurfstrategien unter den gleichen Bedingungen übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74282-1_19 2cd936324deebab2e7af4cdfe6d561c2;de;;;6.1.;;;PraxisberichteIn diesem Beitrag werden die praktischen Erfahrungen von Unternehmen mit ihrer Entscheidung für eine Internet-Präsenz geschildert. Von der Ausgangslage, über Planungs- und Realisierungsphase bis hin zur Erfolgsbewertung und zum weiteren Vorgehen werden Sie über den Gang ins Internet und die ersten Ergebnisse informiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-98081-7_9 e65f93f1597aee233b8e204324cfb122;de;;;6.1.;;;Orphanet – das europäische Portal für seltene KrankheitenOrphanet ist eine relationale Datenbank über seltene Krankheiten und Arzneimittel für seltene Krankheiten (Orphan Drugs). Die internetbasierte Informationsplattform wurde im Jahr 1997 durch das französische Gesundheitsministerium und INSERM (Institut National de la Santé et de la Recherche Médicale) ins Leben gerufen. Seit dem Jahr 2000 wird Orphanet als europäisches Projekt fortgeführt. Das Konzept der Datenbank basiert auf der Idee, allen beteiligten Interessengruppen Informationen über seltene Krankheiten in Form eines Katalogs von Fachdienstleistungen bereitzustellen. Dieses Angebotsverzeichnis umfasst Informationen über Spezialsprechstunden und Kliniken, Diagnostikangebote, Forschungsprojekte, klinische Studien, Netzwerke, Register und Selbsthilfegruppen aus derzeit 38 Ländern. Die erfassten Leistungen sind unmittelbar mit dem Verzeichnis der seltenen Krankheiten assoziiert, darüber hinaus ist eine umfangreiche Enzyklopädie verfügbar. Alle Informationen sind kostenfrei und in 5 Sprachen über die Website http://www.orpha.net abrufbar.;-;-;-;https://link.springer.com/article/10.1007/s11825-010-0219-y 66ea316952fbceeff17f6d8268befdc3;de;;;6.1.;;;Der Service Navigator als Instrument des Produktivitätsmanagements in KMU-DienstleistungsunternehmenTrotz der breiten Aufmerksamkeit, welche das Thema der Dienstleistungsproduktivität in Wissenschaft und Praxis gefunden hat, ist festzustellen, dass bislang noch keine ganzheitlichen und breit akzeptierten Methoden zur Erfassung, Bewertung und Steuerung der Dienstleistungsproduktivität vorliegen (Baumgärtner und Bienzeisler 2006, 22).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-00863-5_8 f6c343904d5e64beda13b913162a83fe;de;;;2.2.;;;Zur Generierung von 2-dimensionalen Index-Workloads In den letzten zwei Jahrzehnten wurde eine große Anzahl von Datenbankindexstrukturen vorgeschlagen, und hinsichtlich ihrer relativen Wirksamkeit hat sich nur wenig Konsens herausgebildet. Um diese Indizes empirisch zu evaluieren, ist es hilfreich, über Methoden zum Generieren von Zufallsabfragen für Leistungstests zu verfügen. In diesem Beitrag schlagen wir einen domänenunabhängigen Ansatz zur Generierung von Zufallsanfragen vor: Zufällig unter allen logisch verschiedenen Anfragen auswählen Wir untersuchen diese Idee im Zusammenhang mit Entfernungsabfragen über 2-dimensionale Punkte. Wir präsentieren einen Algorithmus, der zufällig zwischen logisch unterschiedlichen 2-D-Bereichsabfragen auswählt. Es hat eine erwartete Leistung bei konstanter Zeit über gleichmäßig verteilte Daten und zeigte eine gute Leistung in Experimenten mit einer Vielzahl von realen und synthetischen Datensätzen. Wir beobachten Ungleichmäßigkeiten in der Art und Weise, wie zufällig ausgewählte logische 2-D-Bereichsabfragen über eine Vielzahl von räumlichen Eigenschaften verteilt werden. Dies wirft Fragen zur Qualität der aus solchen Abfragen generierten Workloads auf. Wir kontrastieren unseren Ansatz mit früheren Arbeiten, die Workloads mit zufälligen räumlichen Bereichen generieren, und skizzieren Richtungen für zukünftige Arbeiten zur robusten Generierung von Workloads zur Untersuchung der Indexleistung.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-49257-7_9 276d8a3d5276ca82e33eff8489a18572;de;;;6.1.;;;EFQM Projekt der Univ. Augenklinik im Rahmen der C2E Rezertifizierung: Management ambulanter PatientInnen ohne TerminBACKGROUND: Core function of an outpatient clinic is the management of patients scheduled after surgery, patients in subspecialities and those suffering from emergencies. MATERIAL AND METHODS: The Department of Ophthalmology aims at the reduction of ambulatory patients without an appointment, an ambitious goal supported by the management of the hospital, too. This EFQM project was designed to renew the C2E award after the first C2E certificate could be accomplished in 2008. The trigger for the project was the result of an employee survey which ruled out a deterioration of the labor's conditions and lack of transparency in the outpatient process. In 2009 an survey yielded 350 patients without an appointment per month in the outpatient clinic. RESULTS: Different measures had been implemented to improve the current process like the implementation of a new triage process to differentiate between acute patients with emergencies, patients to be dealt by an external ophthalmologist and patients to be scheduled for a subspeciality team. An information package about this initiative was developed for physicians, referring hospitals and patients (articles in newspapers, letters, personal communication). CONCLUSION: This project which was awarded with the Committed to Excellence certificate in 2010 succeeded in reducing the number of patients without an appointment by 30 % within a period of 8 months.;-;-;-;https://link.springer.com/article/10.1007/s00717-011-0051-z 580c22321f282394cbe8bef8e6417fe5;de;;;6.1.;;;Möglichkeiten der Betriebsgestaltung in der ForstwirtschaftDie deutsche Forstwirtschaft befindet sich in einer schweren wirtschaftlichen Krise. Die Ansichten darüber, wie darauf zu reagieren sei, gehen erheblich auseinander.;-;-;-;https://link.springer.com/article/10.1007/BF02742214 bd9c8a86ef290c2f113e3c36c6202066;de;;;6.1.;;;Kreditfinanzierung von Gebrauchsgütern – Informationsprobleme und die Suche nach VertrauensankernGebrauchsgüter sind Güter, die über einen längeren Zeitraum immer wieder genutzt werden können. Die Unternehmen haben ihre Investitionsgüter – Maschinen, Geräte, Fahrzeuge und Ausstattungen – und die privaten Haushalten die Gebrauchsgüter, allen voran auch hier Kraftfahrzeuge, Möbel, Elektro-und Hauhaltsgeräte, Unterhaltungselektronik. Im Rahmen dieses Beitrages werden als Kreditnehmer nur private Haushalte, also Konsumenten oder Verbraucher, betrachtet. Häufig können Gebrauchsgüter, vor allem, wenn es sich um langlebige handelt, nicht aus dem laufenden Einkommen finanziert werden. Die erforderlichen Beträge werden also vorher über einen längeren Zeitraum durch Konsumverzicht angespart oder ihr Erwerb wird über Kredite finanziert. In diesem Fall folgt der Konsumverzicht der Anschaffung. Manche Güter werden sogar nur deswegen angeschafft, weil eine Fremdfinanzierung möglich ist und entsprechend beworben wird. Es gibt Haushalte, die fallweise auch Reisen, Kleidung oder Güter mit einer nur kurzen Nutzungsdauer oder solche zur einmaligen Nutzung über Kredite finanzieren, manchmal durch die Inanspruchnahme von Zahlungszielen oder über die Verwendung von Kredit-und Kundenkarten mit Kreditkartenfunktion. Obwohl hier nicht explizit auf Leasingtransaktionen eingegangen wird, ist der ökonomische Gehalt einer solchen Beziehung ganz ähnlich gelagert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-8961-1_5 a990c406b57b4aefd10a67425c66f2ed;de;;;2.2.;;;AstroDAS: Teilen von Behauptungen in Astronomiekatalogen durch verteilte Anmerkungen Da verschiedene wissenschaftliche Datensammlungen online migrieren, möchten Forscher die Möglichkeit haben, ihre Aussagen zu den Entitäten zu teilen, die diese unterschiedlichen Datenbanken umfassen. Wir konzentrieren uns auf eine Fallstudie, die vom Virtual Observatory der astronomischen Gemeinschaft bereitgestellt wurde, um die Verwendung von Anmerkungen zur Aufzeichnung und Weitergabe der von verschiedenen Forschungsgruppen behaupteten Himmelsobjektkartierungen zu untersuchen. Der Prototyp für unser Astronomy Distributed Annotation System (AstroDAS) ergänzt die bestehenden OpenSkyQuery-Tools für föderierte Datenbankabfragen und bietet Webservice-Methoden, mit denen Clients Mapping-Annotationen als relationale Datenbanktupel auf Annotationsservern erstellen und speichern können. Wir erwarten, dass die Mechanismen zum Erstellen und Abfragen von Annotationen in AstroDAS erweitert werden können, um andere Aufgaben als das Entity-Mapping in anderen Domänen mit relationalen Datenquellen zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/11890850_20 e8e9d6a39d1b822efe40523efc9109d5;de;;;2.2.;;;Kostenanalyse für die Verarbeitung großer Geodaten in öffentlichen Cloud-Anbietern Cloud Computing ist eine geeignete Plattform, um Anwendungen zur Verarbeitung großer Datenmengen auszuführen. Gegenwärtig wurden mit dem Wachstum des geographischen und räumlichen Datenvolumens, das als Big Geospatial Data konzeptualisiert wird, einige Werkzeuge entwickelt, um eine effiziente Verarbeitung dieser Daten zu ermöglichen. Diese Arbeit stellt eine kosteneffiziente Methode zur Verarbeitung von Geodaten vor, indem die Anzahl der Datenknoten in einem SpatialHadoop-Cluster entsprechend der Datensatzgröße optimiert wird. Damit ist es möglich, die Kosten für diese Art der Anwendung bei Public-Cloud-Anbietern zu analysieren und zu vergleichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94959-8_12 499e84b096d3e9bb60df0f4e8ff17063;de;;;6.1.;;;Innovative Luftverkehrsinfrastruktur und FlugzeugkonzepteDer Luftverkehr (die Flugbewegungen) soll sich in den nächsten Jahren verdoppeln bis verdreifachen. Bei den derzeitigen Engpässen im europäischen Luftraum und auf den europäischen Verkehrsflughäfen ist das praktisch nicht vorstellbar. In Kenntnis dieser Fakten hat die Europäische Union die Initiative ergriffen und im Rahmen eines europäischen Programms eine Rekonfigurierung des europäisch zersplitterten Luftraumes initiiert. Das Projekt hat den Oberbegriff „Single European Sky“. Das heißt die derzeit nationalen Lufträume sollen in einen einzigen europäischen Luftraum überführt werden. Dieser europäische Luftraum der Zukunft wird aus so genannten „Functional Blocks of Airspace“ bestehen, die sich nicht an Landesgrenzen, sondern sich an den maßgeblichen europäischen Verkehrsströmen orientieren. Dem Single European Sky Projekt ist ein Forschungs- und Entwicklungsprogramm unterlegt, das den Namen SESAR (Single European Sky Air Traffic Management Research) trägt. Das SESAR Programm ist eine konsequente Weiterentwicklung und Erweiterung des EATCHIP Programms (European Air Traffic Control Harmonisation and Integration Programme) der EUROCONTROL (Europäischen Organisation zur Sicherung der Luftfahrt) der 90er- Jahre, das die technologischen Fortschritte in den Bereichen Flugsicherung (Kommunikation, Navigation, und Überwachung) und der Flugführung (Automatisierung) in innovativer Weise berücksichtigt. Der europäische ATM Master Plan (ATM = Air Traffic Management) ist im Wesentlichen zu sehen im Kontext der Ziele der Vision 2020 und berücksichtigt die ATM 2000 + Strategie, den Mid-Term European Common Implementation Plan (ECIP) sowie die strategische Forschungsagenda des Advisory Council for Aeronautics Research in Europe (ACARE SRA), einschließlich der angedachten Konfiguration des Single European Sky.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34402-2_13 d897c9e7edb69bf281ec26c63af6ca33;de;;;6.1.;;;Informations- und Kommunikationstechnik als SchrittmacherDie folgenden Ausführungen basieren im wesentlichen auf praktischen Erfahrungen innerhalb einer Großforschungseinrichtung und aus intensiver Zusammenarbeit mit Unternehmungen aus der Wirtschaft, mit Hochschulen und anderen Forschungseinrichtungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-93440-7_43 dd410131675f6d31bf17b7e6bf913311;de;;;6.1.;;;Datenverfügbarkeit und Datenzugang am Forschungsdatenzentrum der Bundesagentur für Arbeit im Institut für Arbeitsmarkt- und BerufsforschungDie Bundesagentur für Arbeit (BA) gehört zu den wichtigsten Produzenten statistischer Daten über den Arbeitsmarkt und die wirtschaftliche Entwicklung in Deutschland. Bislang bestand kein institutionalisierter Datenzugangsweg für Forschende außerhalb des Instituts für Arbeitsmarkt- und Berufsforschung (IAB). Das Forschungsdatenzentrum (FDZ) der BA im IAB wurde mit dem Ziel eingerichtet, den Zugang zu den Daten der BA und des IAB für externe Forscher zu erschließen und systematisch auszubauen. In dem Beitrag beschreiben wir die im FDZ für die Fachöffentlichkeit zugänglich gemachten Daten der BA und des IAB sowie die verschiedenen Zugangsmöglichkeiten der wissenschaftlichen Forschung zu diesen Daten.;-;-;-;https://link.springer.com/article/10.1007/s10182-005-0199-4 607c2cb9030e36a3b3666c23c71ad388;de;;;2.2.;;;Immunhistochemische Marker für die Prognose anaplastischer Astrozytome Unter dem gesamten Spektrum astrozytärer Neoplasien scheint allein das anaplastische Astrozytom (oder Grad-III-Astrozytom) eine rätselhaftere Tumorentität mit vagen Kriterien für die pathologische Diagnose, unklarem biologischem Verhalten und unterschiedlichen klinischen Ergebnissen zu sein. Es wurden Versuche unternommen, biologische Marker zu identifizieren, die bei der Vorhersage der Prognose von anaplastischen Astrozytomen nützlich wären, aber die erhaltenen Ergebnisse sind umstritten. In der vorliegenden Studie wurden Überlebensdaten von 63 Patienten mit anaplastischem Astrozytom untersucht, um einen möglichen Zusammenhang zwischen dem klinischen Ergebnis und der Expression einiger immunhistochemischer Variablen zu bewerten. Sowohl die progressionsfreie (PFS) als auch die Gesamtüberlebenszeit (OS) waren bei Patienten über 45 Jahren, bei anaplastischen Astrozytomen mit multiplen Mitosen, bei Ki-67 LI > 5 %, bei Cyclin A LI > 4 % und bei PTEN-negative Tumoren. Wir fanden keine Unterschiede in den Überlebenszeiten bei Patienten mit oder ohne p53-Immunreaktivität und auch bei Fällen mit unterschiedlichen Werten der p16- und p27-Immunfärbung. Die multivariate Analyse ergab, dass das Risiko für Tumorprogression und -tod unabhängig von Tumoren mit multiplen Mitosen und PTEN-negativen Tumoren verbunden ist. Gemäß den Daten aus der CART-Modellierung wurden Tumoren basierend auf den drei folgenden Untergruppen unterteilt: (1) Anaplastische Astrozytome mit solitärer Mitose. (2) Anaplastische Astrozytome mit multiplen Mitosen und PTEN-Positivität. (3) Anaplastische Astrozytome mit multiplen Mitosen und PTEN-Negativität. Somit zeigen die erhaltenen Ergebnisse den Vorteil eines kombinierten Ansatzes einschließlich der Auswertung von routinemäßigen histologischen Parametern und immunhistochemischen Variablen für die weitere klinische Unterteilung von anaplastischen Astrozytomen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1016261900413 781d5a07e007204d26b1b1493d3aae79;de;;;6.1.;;;KooperationsfelderEinen Einblick in Kooperationsaufgaben bietet ein Fallbeispiel, nämlich die Entwicklung eines Programms zur Mitarbeiterkapitalbeteiligung bei der Continental AG ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-95256-1_5 577bb0987715fcf2127f01c92dd6c4c1;de;;;6.1.;;;Modellentwicklungen und KonzeptstudienDie Ingenieurkammern Sachsen-Anhalt (IK S-A) und Hessen (IK H) waren bereits an früheren Projekten des Verbundpartners RKW-Kompetenzzentrum als Praxispartner beteiligt, so dass diese Kontakte im PräTrans-Vorhaben für eine neuerliche Kooperation genutzt werden konnten. Die Geschäftsführungen beider Einrichtungen hatten die Projektidee schon in der Antragsphase durch förmliche Interessenbekundungen unterstützt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-94060-1_5 78f92caaf2b51ed26c96a082a95c609f;de;;;6.1.;;;Computereinsatz in der praxisbezogenen forensisch-toxikologischen AnalytikFor more than 10 years the analytical data gathered on nearly 600 drugs and other potentially poisonous substances that came up in our own investigations, as well as the pertinent bibliography, were stored in card indexes and lists. For immediate and fast recall via terminal we now store this cumulative data collection on magnetic tapes or disks in our clinic host computer. Extensive software was developed in FORTRAN compiler language to achieve rapid coordination of the data measured to that stored and consequently permit positive identification of unknown substances. The data obtained by different analytical methods such as TLC, GC, ultraviolet and infrared spectra, or HPLC can be evaluated by selective or sequential procedures using variable tolerances. That is also possible to enlarge and complete these data files in an easy manner using the same software.;-;-;-;https://link.springer.com/article/10.1007/BF00200251 524f0efe4b3227a319fc2eebbf96ee44;de;;;6.1.;;;Neue Anforderungen in der wirtschaftspolitischen Journalismus-AusbildungDer Berichterstattungsgegenstand für wirtschaftspolitischen Journalismus ist durch Globalisierung und Europäisierung enorm komplex geworden und erfordert von Journalistinnen und Journalisten, die im Bereich Wirtschaftspolitik arbeiten, ein hohes Maß an ökonomischem Fachwissen, damit sie ihrer Funktion für die Gesellschaft nachkommen können. Gleichzeitig ist crossmediales Arbeiten, also das Publizieren über verschiedene Medienkanäle, einer der wichtigsten Trends im Journalismus – so auch im Bereich des wirtschaftspolitischen Journalismus. Die Ausbildung muss auf beide Entwicklungen reagieren und entsprechende Kompetenzen vermitteln. Der Beitrag vermittelt die wesentlichen Kernkompetenzen im wirtschaftspolitischen Journalismus und beschreibt das Konzept einer crossmedialen Lehrredaktion, in der diese Kompetenzen vermittelt werden sollen. Schließlich werden bestehende Ausbildungsangebote für den wirtschaftspolitischen Journalismus dargestellt und eingeordnet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-17467-5_18 4167ce112a2533376a30a79421b8da5f;de;;;6.1.;;;Neue (berufsbegleitende) Lernformen: E-Learning und WebinareSmartphones, Tablets, das Internet – heute sind sie nicht mehr wegzudenken. Kinder und Jugendliche lernen schon von klein auf den Umgang mit diesen Medien, Lehrer bilden sich im Bereich Mediendidaktik fort. Etwas wissen wollen, dafür braucht man heute kein Lexikon mehr, es reicht die entsprechende App auf dem Smartphone.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-22591-9_6 540c0efc43470b415a11067542a1963a;de;;;6.1.;;;Analyse der Globalen Umweltfaktoren Auf Einzelnen Märkten SüdostasiensEine Ausweitung der internationalen Geschäftstätigkeit auf ausländische Märkte mit hohem Fremdheitsgrad, unterschiedlichem wirtschaftlichem und politischem Entwicklungsstand sowie weiter geographischer Distanz ist mit einem erhöhten unternehmerischen Risiko verbunden, da langfristige Entscheidungen unter unvollkommenen Informationsbedingungen getroffen werden müssen. Sowohl die Ermittlung der in Südostasien bestehenden Absatzchancen als auch die Berücksichtigung einer Vielzahl neuer in- und ausländischer Wettbewerber und deren Wettbewerbsverhalten stellen im Rahmen der internationalen Analysen einen besonders komplexen Problembereich dar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-14539-4_4 81df50d221df7e83189f3650db3c237f;de;;;2.2.;;;DER DIGITALE HYBRIDBAUM Es besteht eine zunehmende Nachfrage nach effizienten Indizierungstechniken, um Abfragen in großen Zeichenfolgendatenbanken zu unterstützen. In diesem Papier wird eine hybride RAM/disk-basierte Indexstruktur vorgeschlagen, die als Hybrid Digital Tree (HD-Tree) bezeichnet wird. Der HD-Baum behält interne Knoten im RAM, um die Anzahl der Platten-I/Os zu minimieren, während Blattknoten auf der Platte beibehalten werden, um die Fähigkeit des Baums zum Indizieren großer Datenbanken zu maximieren. Experimentelle Ergebnisse mit realen Daten haben gezeigt, dass der HD-Baum den Präfix-B-Baum bei der Suche nach Präfixen und Teilzeichenfolgen übertraf. Insbesondere bei markanten Zufallsabfragen in den Experimenten wurde die durchschnittliche Anzahl der Platten-I/Os um den Faktor zwei bis drei reduziert, während die Laufzeit um eine Größenordnung reduziert wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-5347-4_5 c00beac341a50582adb08e2bc4776c99;de;;;6.1.;;;Der Axel-Springer-Verlag überschreitet den digitalen RubikonMit voller Wucht wurde die Zeitungsindustrie von der digitalen Revolution erwischt. Dabei erwies sich der Versuch, mit den bestehenden Ressourcen, Prozessen, Unternehmenskulturen und Produkten die digitale Transformation zu vollziehen oder sich gegen den digitalen Transformationsdruck zu stemmen, als fataler Irrtum in der Branche. Es verwundert kaum, dass die stark von dem Transformationsprozess betroffenen Zeitungsverleger keine adäquate Antwort auf die digitale Dauerdisruption gefunden haben. Es reicht nicht, eine gedruckte Zeitung nur zu digitalisieren. Dieses Vorgehen vernebelt nur die Vorstellung vom digitalen Zeitalter des Journalismus. Die andere Option der simplen Abwehr jedweder Digitalisierungsbestrebungen bringt Sascha Lobo unter der Überschrift „Zyklus der Zerstörung“ in einem Artikel lakonisch auf den Punkt: „Verzweifelte Zeitungsverleger glauben, ihr Heil im „Herbeilobbyieren“ eines Leistungsschutzrechtes suchen zu müssen – ein sinnfrei konstruiertes Gesetz, das so wirksam sein wird wie ein Fön zum Haaretrocknen unter Wasser“ [LOB]. Das bringt das Dilemma der Zeitungsbranche auf den Punkt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-28569-2_3 e66533d02e59b0587d8332b7a365a9ba;de;;;6.1.;;;Social Media verstehenDie große Chance von Social Media für Journalisten bzw. ein Medienhaus liegt darin, die User zu Unterstützern und Verbündeten zu machen. Doch das kann nur gelingen, wenn sich das Selbstverständnis der Medienschaffenden ändert. Denn Social Media ist im Kern ausgelegt auf einen Dialog auf Augenhöhe. Die Rolle des Lesers/Zuschauers/Zuhörers/Users wird zu der des Beteiligten. Und die Journalisten werden greifbar, angreifbar – und gewinnen gerade dadurch Vertrauen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-07359-6_4 1d7fa2cdfc9c3dc073a709bbc2dd1bc0;de;;;6.1.;;;Flexibilitätspotenziale heben — IT-Wertbeitrag steigernVor dem Hintergrund der Dynamik internationaler Märkte erhält der Leser einen Einblick, welche Anforderungen derzeit an die IT-Funktion gestellt werden. Es wird gezeigt, dass die Marktdynamik die Unsicherheit aller Beteiligten erhöht. Flexibilität wird als Instrument präsentiert, mit dem Anforderungen in der IT-Funktion effektiv umgesetzt werden können. Mithilfe von Redundanz, Modularität, Lernfähigkeit und Rekonfigurations-fähigkeit kann die IT-Funktion so ausgestaltet werden, dass die induzierte Flexibilitätsverbesserung den Wertbeitrag maßgeblich erhöht.;-;-;-;https://link.springer.com/article/10.1007/BF03340782 7a471b123f28d264df09343f775c63c7;de;;;6.1.;;;Möglichkeiten zur Umsetzung des Grundsatzes der VerfügbarkeitUm herauszufinden, ob bzw. wie der Grundsatz der Verfügbarkeit in der Europäischen Union umsetzbar ist, müssen die Voraussetzungen dafür abgeklärt werden. Das bedeutet konkret die Klärung der Kompetenzen der Europäischen Union, sowie der anderen Voraussetzungen für ein solches Umsetzungsinstrument. Dabei wird nicht nach den verschiedenen technischen Möglichkeiten differenziert, da diese für die Frage der Zuständigkeit keine Rolle spielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-22243-7_4 f4c3c8ab3e0ee4f5904910e3aefc4a95;de;;;6.1.;;;Social Semantic Software — was soziale Dynamik im Semantic Web auslöstDieser Artikel befasst sich mit der Entwicklung, dem Wesen und der Zukunft von Social Software. Es wird dabei der Versuch unternommen, den Beitrag von Weblogs, Wikis und Personal Publishing insgesamt auf die Entwicklung des Information Management und den Konvergenzpfad mit der Vision des Semantic Web, hin zu einer Social Semantic Software zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-29325-6_12 32f68e60e421b2974026a0d64a467c4d;de;;;2.2.;;;Ein kodierungsbasierter hochdimensionaler Index mit dualem Distanzbaum Das Papier schlägt eine neuartige symmetrische kodierungsbasierte Indexstruktur vor, die als EDD-Baum (für kodierungsbasierten Dual-Distanz-Baum) bezeichnet wird, um schnelle;-;-;-;https://link.springer.com/article/10.1007/s11432-008-0104-3 889581cb414624a922902683ac405f57;de;;;6.1.;;;IoT Best PracticesDas Internet der Dinge treibt die Digitalisierung in vielen Lebensbereichen und vor allem in der Industrie stark voran. Dabei ergeben sich eine Vielzahl von neuen und verbesserten Anwendungsszenarien und Geschäftsmodellen. Getrieben durch die (theoretisch) unbegrenzten Möglichkeiten der Umsetzung, müssen besonders in der Planung zentrale Sachverhalte vorab evaluiert und bewertet werden, um in Bereichen wie Sicherheit, Betriebsfähigkeit, Skalierung, Wirtschaftlichkeit sowie Geschäftsmodell eine bestmögliche Qualität zu erreichen. Wir geben einen Überblick über die Bedeutung und Zusammenhänge dieser verschiedenen Aspekte und zeigen an einem internationalen (I)IoT-Projekt konkrete Fallstricke und die getroffenen Gegenmaßnahmen auf, um darauf basierend eine Empfehlung an Best Practices abzugeben, um neu zu beginnende (I)IoT-Projekte zukünftig zielgerichtet planen zu können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-32439-1_5 d34a7dcd886a772c8a1b3620219b913c;de;;;6.1.;;;Mobility on-demand: Kategorisierung von Informations- und AssistenzsystemenDie Nutzung und das Verständnis von Mobilität haben sich gewandelt. Immer mehr wird Mobilität als ein on‐demand Service (Mobility on‐demand – Mod) verstanden [1]. Vor allem junge Menschen wollen und besitzen keine eignen Autos mehr, sondern verwenden stattdessen eine Kombination aus verschiedenen Mobilitätsangeboten [2]. Diese steigende Nachfrage nach flexiblen Mobilitätsangeboten wird flankiert durch den Trend der zunehmenden Urbanisierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-18613-5_24 34c584beab68f70b2312558f5093d045;de;;;6.1.;;;Digitale Geschäftsmodelle in der Industrie: Eine Analyse der Auswirkungen und HerausforderungenIm Zuge der Digitalisierung gewinnt die Entwicklung integrierter, datenbasierter Produkt-Dienstleistungsbündel und die Transformation der Geschäftsmodelle von Industrieunternehmen zunehmend an Bedeutung. Beispielsweise entwickeln Produzenten von Industriegütern zusätzliche digitale Services zur intelligenten Steuerung, Optimierung oder Wartung und bieten damit neue, kundenindividuelle Lösungsangebote. Unternehmen können durch digitale, hybride Wertschöpfung entscheidende Wettbewerbsvorteile generieren und neue Märkte erschließen. Im Beitrag werden die Auswirkungen auf Geschäftsmodelle untersucht und anhand des Business Model Canvas strukturiert dargestellt. Auf Basis von Interviews mit Experten von Unternehmen und aktuellen Erkenntnissen aus einem Konsortialforschungsprojekt werden Auswirkungen, resultierende Herausforderungen sowie Handlungsempfehlungen diskutiert und abgeleitet. Veranschaulicht werden die Entwicklungen anhand einer Fallstudie von Mitsubishi Electric.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-26316-4_9 57611852dda4f06cfbe67afcf8c5c64b;de;;;2.2.;;;Kapitel 6: Zugriffsmethoden und Abfrageverarbeitungstechniken Die Leistungsfähigkeit eines Datenbankverwaltungssystems (DBMS) hängt grundsätzlich von den Zugriffsmethoden und Abfrageverarbeitungstechniken ab, die dem System zur Verfügung stehen. Traditionell stützen sich relationale DBMS auf bekannte Zugriffsmethoden wie das allgegenwärtige B;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45081-8_6 2c4e884851188640e975b060371cb3b8;de;;;6.1.;;;Gespensterdebatte oder was ist soziologische Aufklärung?In diesem Beitrag antworten wir auf die in dieser Zeitschrift erschienenen Kommentare von Richard Münch und der Autorengruppe Jansen, Heidler und von Goertz zu unserem Artikel „Herausbildung einer akademischen Elite? Zum Einfluss von Größe und Reputation von Universitäten auf Forschungsförderung“. Ausgehend von Stellungnahmen anderer Soziologen zu Richard Münchs Thesen über die akademische Elite bekräftigen wir den Erkenntnisgewinn unserer empirischen Analysen zu generellen wissenschaftssoziologischen Thesen sowie speziell dem Matthäus-Effekt und einer möglichen Kartellbildung im deutschen Wissenschaftssystem. Die Kernkritik, das Normalverfahren der DFG würde eine ungeeignete Datenbasis bieten, greift angesichts der postulierten Reichweite der untersuchten Thesen zu kurz. Eine Evaluation der Exzellenzinitiative kann und soll erklärtermaßen mit unserer Analyse nicht geleistet werden.;-;-;-;https://link.springer.com/article/10.1007/s11577-009-0076-3 4eebdcddd8aea4ec2f25f2f79133c61f;de;;;6.1.;;;Wirtschaft und UnternehmenDer Begriff Wirtschaft umfasst eine Vielzahl an Institutionen und Prozessen, die miteinander verknüpft sind und der Bereitstellung von Gütern dienen. Die Wirtschaft wird angetrieben von den menschlichen Bedürfnissen, die einen Bedarf hervorrufen, den die Wirtschaft befriedigt. Die bereitgestellten Wirtschaftsgüter sind knappe Güter, die materieller oder immaterieller Natur sein können. Unternehmen sind produktionsorientierte Wirtschaftseinheiten, die der Bereitstellung der knappen Güter dienen. Um die Bereitstellung stetig zu optimieren, werden immer wieder Problemlösungsprozesse – von der Problemanalyse bis zur Festlegung der Maßnahmen – durchlaufen. Unternehmen sind dem Einfluss vieler Faktoren, interner wie externer, ausgesetzt. Mithilfe des Issue-Managements werden Maßnahmen entwickelt, die alle Einflussfaktoren gleichermaßen adressieren und nach Lösungsmöglichkeiten suchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-27246-3_1 24eaa61dbc069cdc894a93a894234f56;de;;;6.1.;;;Digitale Stadt und virtueller Raum: Visionen zur Implementierung und Organisation des ImmateriellenDigitale Informationssysteme sind Infrastruktureinrichtungen mit der systemeigenen Besonderheit, daß neben der physisch-materiellen Komponente ein quasi immaterielles Prinzip zum Tragen kommt. Im Gegensatz zu herkömmlichen Einrichtungen und Anlagen der (technischen) Infrastruktur beruht die besondere Leistungsfähigkeit solcher Systeme deshalb auf der Möglichkeit, immateriell sich vollziehende, abstrakte Signaloperationen durchzuführen, die sich etwa in der Beliebigkeit von Bitmanipulationen für nahezu jede gewünschte Anwendungsdomäne oder beim Datentransfer ohne physische Begrenzungen zeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-83291-7_7 89a6ee63589d1a6f2ec859ab2624e828;de;;;6.1.;;;E-Commerce — Eine Einführung in juristische Grundprobleme der InformationswirtschaftDer elektronische Handel wirft eine Reihe schwieriger juristischer Fragen auf, die im Folgenden kaum in der nötigen Breite dargestellt werden können. Im Weiteren werden — bedingt durch die herausgeberische Seitenbeschränkung — nur einige wenige Probleme angedeutet. Ausser Acht müssen vor allem urheber-, wettbewerbs- und markenrechtliche Fragen bleiben, auch zum Internationalen Zivilverfahrensrecht enthält der Beitrag keine Hinweise. Vielmehr sollen Fragen des Vertragsschlusses im Internet und die daran anknüpfenden verbraucherschutzrechtlichen Fragen im Vordergrund stehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-98086-2_11 d807a70bb7fdc58968b684bc636eca06;de;;;6.1.;;;Abschlussprüfung und Beratung - Eine experimentelle Analyse der Auswirkungen auf Unabhängigkeitswahrnehmungen deutscher AufsichtsräteDie Verknüpfung von Prüfungs- und Beratungstätigkeiten gefährdet die Unabhängigkeit des Abschlussprüfers. Dadurch erhöhen sich mandantenspezifische Quasirenten und die Gefahr für Unabhängigkeitsbeeinträchtigungen steigt. Aus der bisherigen, anglo-amerikanisch dominierten Forschung lässt sich erkennen, dass gleichzeitige Beratung weniger die tatsächliche sondern eher die wahrgenommene Unabhängigkeit gefährdet. Die wenigen deutschen Studien erkennen dagegen mehrheitlich keinen negativen Einfluss auf Unabhängigkeitswahrnehmungen. Über eine experimentelle Studie wurde der Einfluss auf die Unabhängigkeitswahrnehmungen der Aufsichtsräte der DAX 30-, MDAX-, SDAX- und TechDAX-Unternehmen untersucht. Betrachtet wurden die Steuerberatung, die Personalberatung und die Beratung in Bezug auf Finanzinformationssysteme. Alle drei Leistungen entfalten eine negative Wirkung. Einzig die Personalberatung ist einem Abschlussprüfer einer kapitalmarktorientierten Gesellschaft in Deutschland nicht explizit untersagt. Ihr negativer Einfluss war aber am stärksten. Über univariate und multivariate Analysen ließ sich des Weiteren zeigen, dass das Ausmaß der Beeinträchtigung der wahrgenommenen Unabhängigkeit von der Art der Beratungsleistung abhängt. Ein generelles Beratungsverbot erscheint daher nicht als erforderlich. Zudem wurde deutlich, dass Unabhängigkeitswahrnehmungen umso stärker beeinflusst werden, je geringer die Erfahrungen der Aufsichtsräte und deren Vertrauen in Abschlussprüfer sind. Dagegen konnten keine Unterschiede zwischen den Wahrnehmungen von Aktionärs- und Arbeitnehmervertretern identifiziert werden.;-;-;-;https://link.springer.com/article/10.1007/BF03373659 915930fc2a19ee04bf5fd451104fa830;de;;;6.1.;;;Einführung eines integrierten Qualitätsmanagementsystems in der prähospitalen NotfallmedizinDie Einsetzung des „Ärztlicher Leiter Rettungsdienst“ (ÄLRD) in Bundesländern in Deutschland, in der Schweiz und in Tirol/Österreich wirft die Frage auf, ob die Einführung eines integrierten Qualitätsmanagement- (QM-)Systems über den gesamten prähospitalen Notfallprozess forciert werden sollte. Die Autoren stellen die These auf, dass die klassische und alleinige Evaluierung der Struktur-, Prozess- und Ergebnisqualität den zu erwartenden Anforderungen der Zukunft nicht standhält und die Implementierung eines intergierten QM-Systems notwendig wird.;-;-;-;https://link.springer.com/article/10.1007/s10049-012-1594-5 4866109def3958cc44a28fbbfa901d66;de;;;6.1.;;;Mobile Anwendungen für eine mobile MedizinMobile Informationssysteme spielen in zunehmendem Maße auch im Gesundheitswesen eine Rolle. Ambulante Dienstleistungen wie beispielsweise der Pflegeoder Rettungsdienst sind oftmals mit Situationen konfrontiert, bei denen Informationen von außerhalb notwendig sind oder auch routinemäßige administrative Aufgaben zu erledigen sind. In diesem Beitrag wird beschrieben, wie — nicht nur für Gesundheitsdienstleistungen — Anforderungen an Assistenzsysteme zur Unterstützung mobiler Dienstleistungen erhoben werden und schließlich in einer Systemspezifikation münden.;-;-;-;https://link.springer.com/article/10.1007/BF03340741 30e02a796de7e1e69240fe190e7a6f2f;de;;;6.1.;;;Basiswissen: Was ist Social Media?Selbst für ausgewiesene intensive Nutzer ist es bisweilen herausfordernd, die anzutreffende, sich permanent verändernde Social-Media-Vielfalt im Überblick und aktuell zu halten und zu verstehen, worin denn nun der Mehrwert konkret besteht. Für Privatpersonen mag diese Herausforderung im Grunde keine sein, sie nutzen Social Media fast ausschließlich zum „privaten Vergnügen“. Ein KMU muss demgegenüber den Mehrwert in betrieblichen Nutzendimensionen messen, die beispielsweise sehr stark reduziert lauten könnten, den Umsatz zu steigern oder weniger Kosten aufzubringen. Worin besteht nun also dieser betriebliche Mehrwert und wo lauern Gefahren beim Einsatz von Social Media? Dazu wird zunächst eine Begriffsdefinition für Social Media auf Basis der beiden Begriffe „Sozial“ und „Medien“ leicht nachvollziehbar hergeleitet. Die ausgemachten Eigenschaften Sozialer Medien werden dann verwendet, um Social-Media-Anwendungen (Social Software) anhand von drei einfachen Basisfragen zu kategorisieren und damit das bekannte ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-07739-6_2 5080e28543929d2c7b5b4084410b6053;de;;;2.2.;;;AISS: Ein Index für nicht mit Zeitstempel versehene Set-Subsequence-Abfragen In vielen neueren Anwendungen von Datenbankverwaltungssystemen können Daten in benutzerdefinierten komplexen Datentypen (wie beispielsweise Sequenzen) gespeichert werden. Eine effiziente Abfrage solcher Daten wird jedoch von kommerziell erhältlichen Datenbankverwaltungssystemen nicht unterstützt und daher müssen effiziente Indexierungsschemata für komplexe Datentypen entwickelt werden. In diesem Papier konzentrieren wir uns hauptsächlich auf die Indizierung von Sequenzen von kategorialen Datenmengen ohne Zeitstempel, insbesondere auf die Indizierung für Mengenuntersequenzabfragen. Wir adressieren beides: logische Struktur und Implementierungsprobleme solcher Indizes. Unsere Hauptbeiträge sind dreifach. Zuerst spezifizieren wir die logische Struktur des Index und schlagen Algorithmen für die Ausführung von Set-Subsequence-Abfragen vor, die die Indexstruktur verwenden. Zweitens liefern wir den Vorschlag für die Implementierung eines solchen Index, der Mittel verwendet, die in allen gängigen Datenbankverwaltungssystemen verfügbar sind. Schließlich bewerten wir experimentell die Performance des Index.;-;-;-;https://link.springer.com/chapter/10.1007/11823728_48 9534e2804b33a873297ad332641f7c88;de;;;6.1.;;;Smart-Grid-Architekturen in Österreich: Eine Bewertung der IKT-Sicherheitsaspekte relevanter PilotprojekteDie Stromversorgung der Zukunft (Smart Grid) wird weit mehr auf IKT setzen als bisher, und damit werden Cyber Security-Risiken auch zu einer Gefahr für die Energieversorgung. Das Forschungsprojekt ;-;-;-;https://link.springer.com/article/10.1007/s00502-013-0141-5 8eea1e4e5482ccf637936aed4d3b8b86;de;;;2.2.;;;Eine neue Methode zur Web-Wissenssuche und -organisation Eine der grundlegenden Stützen der Web-Wissensvision ist ein Agentensystem, das es ermöglicht, Wissen in einer durchsuchbaren Wissensdatenbank zu veröffentlichen und später von potenziellen Benutzern abzurufen. Dies ist die grundlegende Motivation für den UDDI-Standard, einen der drei Standards, die die aktuelle Web-Wissenstechnologie gründen. Dieser Aspekt der Technologie war jedoch am wenigsten erfolgreich, und die wenigen Websites, die heute versuchen, eine Web-Knowledge-Agent-Funktion bereitzustellen, tun dies mit einer einfachen Katalogisierungsmethode anstelle von UDDI. In diesem Artikel analysieren wir, warum sich der Agentenaspekt der Web-Wissensvision in der Praxis als so schwer zu verwirklichen erwiesen hat, und skizzieren die technischen Schwierigkeiten, die beim Aufbau und der Pflege einer nützlichen Wissensdatenbank von Web-Wissen auftreten. Anschließend beschreiben wir eine praktische Methode zum Web-Wissensagenten basierend auf einer automatisierten Indexierung und diskutieren die erforderlichen technologischen Grundlagen. Wir schlagen auch einige Ideen zur Verbesserung der bestehenden Standards vor, um diese Methode und die Web-Wissenssuche im Allgemeinen besser zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20370-1_72 aa292873b49505803ddf7bc61c48d3ee;de;;;6.1.;;;Content Management Systeme im Servicemanagement bei der Union Investment1956 gegründet, ist die Union Investment heute die drittgrösste deutsche Investmentgruppe mit einem Fondsvermögen von rund EUR 100 Mrd. per Ende Dezember 2002. Union Investment verwaltet Publikumsfonds und Spezialfonds. Die Publikumsfondspalette umfasst Aktien-, Renten-, Geldmarkt- und gemischte Wertpapier- und Immobilienfonds sowie offene Immobilienfonds. Anleger erhalten diese Produkte in Deutschland bei allen Volksbanken, Raiffeisenbanken, Sparda-Banken und PSD-Banken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55496-4_12 26e893349993a837e58274b0935bbdc3;de;;;6.1.;;;Führung als Moderator von Gesundheit, Absentismus und Präsentismus bei RestrukturierungsprozessenStrukturelle Veränderungen von Unternehmen wie zum Beispiel Personalabbau oder Standortverlagerungen geben den Mitarbeitern häufig Anlass zur Sorge, etwa dass sie entlassen oder versetzt, ganz neuen Anforderungen gegenübergestellt oder in ihren Befugnissen beschnitten werden. Widerstand gegen Restrukturierungen ist aufgrund dieser Sorgen und Unsicherheiten sehr häufig, physisches, psychisches und soziales Wohlbefinden (Gesundheit) können beeinträchtigt werden, Absentismus und Präsentismus können damit einhergehen. In den Daten des Gesundheitsmonitors der Bertelsmann Stiftung von 2008 zeigt sich, dass Personen, die sich große Sorgen machen, eher einen schlechteren Gesundheitszustand berichteten, krankheitsbedingt weniger arbeiten können und dass diese Zusammenhänge kleiner sind, wenn sie gut geführt werden. Es ist daher wichtig, die Mitarbeiter frühzeitig und regelmäßig sowohl über das Ziel wie auch den Prozess der Restrukturierung (seine Einzelschritte und deren Ablauf) zu informieren und ihnen durch gute Führung einen konstruktiven Umgang mit der Restrukturierung zu ermöglichen.;-;-;-;https://link.springer.com/article/10.1007/BF03373886 1aae28f4b5b4da83a1647f0d18b8b363;de;;;6.1.;;;Innovation und Wachstum in der AutomobilindustrieVor dem Hintergrund sich weltweit rasch verändernder Nachfrage- und Angebotsstrukturen liegt die Zukunft der deutschen Automobilindustrie in der Herstellung qualitativ hochwertiger und technisch überlegener Fahrzeuge. Die steigenden Anforderungen an das Automobil im Hinblick auf Sicherheit, Verbrauchssparsamkeit und Umweltverträglichkeit können dabei nur durch die konsequente Anwendung moderner Technologie erfüllt werden. Eine solche Innovationsstrategie bedarf die Ergänzung durch ein effizientes Kostenmanagement und des Einsatzes fortschrittlicher technischer Lösungen. Sich Zugang zu neuen Technologien zu verschaffen, wird damit sowohl im Hinblick auf die Produkt- als auch die Prozeßinnovation zu einer Überlebensfrage für die einzelnen Automobilunternehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-72831-0_61 d3862739528685c358ec8079a400afb5;de;;;6.1.;;;Design und Umsetzung eines Big Data Service im Zuge der digitalen Transformation eines VersicherungsunternehmensDer folgende Beitrag verschafft einen Überblick über verschiedene Facetten, Dimensionen und Auswirkungen der digitalen Transformation in Unternehmen. Dabei werden im ersten Teil verschiedene Definitionen, Studien und Modelle diskutiert, mit welchen Unternehmen die Ziele sowie ihren digitalen Reifegrad messen, bewerten und verbessern können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-11589-0_16 377d3dc8e618c77cb1f4b84b6663e27d;de;;;6.1.;;;Vertragskonstrukt zur Einführung der E-AkteEin agiles DMS-Projekt bedeutet Anpassung einer variablen Software an noch unbekannte Bedarfe der künftigen Anwender. Das beinhaltet unvermeidliche Unsicherheiten aufseiten der auftraggebenden Verwaltung wie des Software-Lieferanten. Weder ein herkömmlicher Werk- noch ein Dienstvertrag bieten den Rahmen für eine angemessene Risikoverteilung. Das hier vorgestellte Modell eines Dienstleistungs-Rahmenvertrages mit einzelnen eingebetteten Werkverträgen stellt einen neuen Ansatz dar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-59705-7_12 4a9796cce1fa416d8beaf0806377aa7d;de;;;6.1.;;;Begriffe aus der Welt der EinkäuferInfolge der zunehmenden Globalisierung und Digitalisierung hat sich in den letzten Jahren ein ganz eigener Einkäuferjargon mit speziellen – meist englischen – Begriffen gebildet. Für Verkäufer und Unternehmer ist es wichtig, die grundlegende Bedeutung der Fachbegriffe aus der Welt der Einkäufer zu kennen, um Verhandlungen auf Augenhöhe führen zu können. Daher werden in diesem Kapitel die wichtigsten Bezeichnungen kurz und prägnant erläutert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-22548-3_10 3bfe899967a308e9983730ba0b921372;de;;;2.2.;;;Minutienbasiertes geometrisches Hashing für Fingerabdruckdatenbank Dieser Artikel schlägt eine effiziente Indexierungstechnik für Fingerabdruckdatenbanken vor, die auf minutienbasiertem geometrischem Hashing basiert. Ein Merkmalsvektor fester Länge, der aus jeder Minutia erstellt wird, bekannt als Minutia Binary Pattern, wurde für die genaue Übereinstimmung zum Zeitpunkt der Suche vorgeschlagen. Im Gegensatz zu existierenden geometrisch basierten Indizierungstechniken fügt die vorgeschlagene Technik jede Minutia zusammen mit dem Merkmalsvektor genau einmal in eine Hash-Tabelle ein. Dadurch werden sowohl die Rechen- als auch die Speicherkosten gesenkt. Da festgestellt wird, dass die Details aller Fingerabdruckbilder in der Datenbank gut in der Hash-Tabelle verteilt sind, ist kein erneutes Hashing erforderlich. Experimente mit FVC-2004-Datensätzen beweisen die Überlegenheit der vorgeschlagenen Indexierungstechnik gegenüber bekannten geometrisch basierten Indexierungstechniken, die Fingerabdrücke verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31837-5_61 76fa0c9415d3e5d7b4bc309b7d8e4d31;de;;;6.1.;;;Unternehmensnetzwerke des Informationszeitalters1995 erzählte uns ein Manager eines führenden japanischen Herstellers von Computern und Unterhaltungselektronik voller Begeisterung von den Plänen seines Unternehmens, den amerikanischen PC-Markt zu erobern. Ohne zu zögern sagte er den Erfolg seines Unternehmens voraus: „Wir haben bereits einen starken Markennamen in der Unterhaltungselektronik. Und am wichtigsten ist, dass wir viele PC-Bauteile selbst herstellen: Bildschirme, Audioequipment, CD-ROM, DRAM und so weiter. Das wird uns einen enormen Vorteil gegenüber der amerikanischen Konkurrenz verschaffen, die alles außerhalb einkaufen müssen“. Klingt sehr überzeugend, nicht wahr?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-82344-1_7 deeb9b996481ed4933ee8d1dc22d8f73;de;;;6.1.;;;Möglichkeiten der Produktionssteuerung in einer DatenfabrikDie Produktionssteuerung in einer Datenfabrik findet auf der Anwendungsebene und auf der Ebene der Steuerungssysteme statt, die den Datenfluß kontrol1ieren, die Betriebsmittel verwalten, die Auftragsabwicklung koordinieren und anderes mehr. Mit Hilfe eines allgemeinen Transaktionenmodel1s werden zunächst wesentliche Eigenschaften des hier betrachteten Dienstleistungs-Systems spezifiziert. Dann wird ein ablauforientiertes Produktionsmodel1 vorgestellt, welches das Zusammenspiel der produktionssteuernden Teilsysteme einer Datenfabrik darstellt. Der technische Aufbau der Teilsysteme hängt vom zugrundeliegenden Konzept der Auftragsabwicklung ab. Drei unterschiedliche Konzepte für die Batch-Verarbeitung werden vorgestellt und diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-46438-6_20 ac782a30ebdcf7e49634d29142a0a8e1;de;;;6.1.;;;Fallstudie „Howeg Online“In Kapitel 8 wird das Projekt “Howeg Online” beschrieben, das im Rahmen einer Fallstudie bei der Howeg-Planteur Réunis AG untersucht worden ist. Das Projekt “Howeg Online” umfasst die Planung, Entwicklung und Einführung eines IOS. Im folgenden wird das Forschungsvorgehen vorgestellt und begründet. Im Anschluss wird der Fall “Howeg Online” beschrieben und analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-91517-7_8 ec08dd0ae5bafb84ec8b92e00a69d70b;de;;;6.1.;;;Der Einsatz von Electronic Commerce zur Unterstützung der Beschaffung im KrankenhausDer folgende Abschnitt dient der Eingrenzung des Untersuchungsgegenstands elektronischer B2B-Marktplatz. Diese erfolgt schrittweise. Nach einer kurzen Vorstellung der technologischen Entwicklungen, die die Verbreitung von E-Commerce gefördert haben, gehen wir zunächst auf E-Commerce als eine Form von Internet-Anwendung ein. Im Anschluss zeigen wir Möglichkeiten zum Einsatz von E-Commerce in der Beschaffung auf. Schließlich werden elektronische B2B-Marktplätze als eine spezielle Form von E-Commerce in der Beschaffung definiert und charakterisiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-81549-1_2 9b95ddf838de8f87e19a1e01e3774e06;de;;;2.2.;;;Erfahrungsaustauschsystem mit allgegenwärtigen Sensorumgebungen In diesem Beitrag wird ein Erfahrungsaustauschsystem vorgeschlagen, das Erfahrungen durch den Einsatz allgegenwärtiger Sensorumgebungen und eines humanoiden Kommunikationsroboters erfasst. Für den Erfahrungsaustausch ist eine zusammenfassende Methode unbedingt erforderlich, da es unmöglich ist, genügend Zeit aufzuwenden, um alle Erfahrungen anderer oder vergangener Erfahrungen stellvertretend zu erleben. Dieses System verwendet die Mensch-Mensch- oder Mensch-Objekt-Interaktion als zusammenfassenden Schlüssel. Interaktionsdaten werden mit einem Infrarot-ID-Tag-System und Mikrofonen erfasst und so werden diese Daten automatisch zum Index für Streaming-Daten. Diese beiden Daten bilden den hInteraction Corpus.h Eine weitere charakteristische Funktion ist die Interaktionserleichterung, dh das System schafft neue und sinnvolle Interaktionen für einen Benutzer mit einem HMD oder einem humanoiden Kommunikationsroboter. In einer realen Ausstellungshallenumgebung untersuchten wir unsere Hypothese zu den Unterschieden in den Interessen der Ausstellungsbesucher basierend auf den Unterschieden in der Aufenthaltsdauer an den einzelnen Ausstellungsstücken.;-;-;-;https://link.springer.com/chapter/10.1007/11526858_8 1295781e81ae7eca2a566b254a7dc365;de;;;6.1.;;;Soziale Interaktion in Open-Source-CommunitysDas Projektmanagement von Open-Source-Software- (OSS- )Projekten findet fast ausschließlich webbasiert statt. Die medialen Spuren von Entwicklungsprozessen können als Basis für die Analyse des Einflusses zwischenmenschlicher Faktoren auf die OSS-Entwicklung genutzt werden. Durch statistische Auswertung der Mailinglisten von drei erfolgreichen OSS-Bioinformatikprojekten über einen Zeitraum von elf Jahren wurden Zusammenhänge zwischen Projektentwicklung und Kommunikation festgestellt sowie bedeutsame Gruppen und Generationswechsel innerhalb der Projektmitglieder aufgedeckt. Daraus lassen sich Hinweise für OSS-Fördermaßnahmen aus Sicht nutzender Unternehmen ableiten.;-;-;-;https://link.springer.com/article/10.1007/BF03340660 1ae17e93ff770cad453c4c498f0e35e7;de;;;6.1.;;;Simultane oder isolier isolierte te Präsentation von WahlmöglichkeitenDieser Beitrag gibt einen überblick über einen neueren Bereich in der Marketingforschung, über die so genannte JE/SE-Forschung. Dabei bezeichnen JE die „joint evaluation“ und SE die „separate evaluation“ von Wahlmöglichkeiten durch die Entscheider. In diesem Bereich wird erforscht, unter welchen Bedingungen es vorteilhaft ist, den Konsumenten entweder nur eine Option (SE) oder ihm mehrere Optionen simultan (JE) zu präsentieren. Diese Thematik ist für die Marketingpraxis von Interesse, weil sich auf Anbieterseite häufig die Frage stellt, ob man Konsumenten einen direkten Vergleich der eigenen Produkte bzw. Dienstleistungen mit denen der Konkurrenz ermöglichen bzw. erleichtern oder ob man sich möglichst isoliert von der Konkurrenz präsentieren sollte. Die dazu im Folgenden dargestellten bisherigen und eigenen empirischen Studien zeigen, unter welchen Bedingungen entweder die isolierte oder die simultane Präsentation vorzuziehen ist. Abschließend werden anhand von Beispielen Konsequenzen für die Praxis vorgestellt.;-;-;-;https://link.springer.com/article/10.1007/BF03032145 dcd04820491dd50c665f24141ce2c14d;de;;;6.1.;;;Fallstudie zum Führungssystem für Stammdatenqualität bei der Bayer CropScience AGZur Konsolidierung der Systemlandschaft führte die Bayer CropScience AG eine globale Harmonisierung der Geschäftsprozesse mit Stammdatenkonsolidierung durch. Die dabei ermittelten Defizite in den Unternehmensprozessen konnten auf mangelnde Datenqualität zurückgeführt werden. Zur langfristigen Verbesserung der Prozesseffizienz wurden Geschäftsregeln definiert, die die Daten qualitativ bewerten und Verbesserungsmaßnahmen nach sich ziehen. Ein Kennzahlensystem dient der Auswertung der Regeln. Zur kontinuierlichen Überwachung der Datenqualität und Steuerung von Maßnahmen sind Aufgaben und Verantwortung definiert, zugewiesen und in den Zielsystemen der Mitarbeiter verankert.;-;-;-;https://link.springer.com/article/10.1007/BF03340588 6eb7ef507072a075b19b0a87d5da74f4;de;;;6.1.;;;Vom Schrauber zum Informationsnetzwerker – ein Paradigmenwechsel bei den Dienstleistungsprozessen in der Krankenhaus ITDie Entwicklung der IT im Krankenhaus ist ein gutes Beispiel dafür, wie insbesondere technologische Entwicklungen Einfluss auf die Stellenbildung, aber auch auf Strategien und Prozesse nehmen. Im Laufe der Jahre hat sich die IT-Abteilung von einem „Anhängsel“ des Rechnungswesens zu einem Erfolgsfaktor im Krankenhaus entwickelt. Keine Strategie des modernen Krankenhauses kann ohne eine Spiegelung mit einer IT-Strategie Erfolg versprechend implementiert werden. Die Aufgaben wandeln sich von reinen Ausführungstätigkeiten hin zu Planungs-, Führungs- und Kontrollaufgaben. Parallel dazu kann gezeigt werden, inwieweit auch Veränderungen in den Rahmenbedingungen (hier sind es in der Regel neue Abrechnungssysteme) Einfluss haben. Diese Entwicklungen sind noch nicht abgeschlossen. Gerade die Implementierung von regionalen Vernetzungsstrukturen fordert die IT-Abteilung gegenwärtig heraus. Mit diesen Entwicklungen einher geht die Forderung nach einer höheren Eingliederung in die Krankenhaushierarchie einerseits, aber auch hinsichtlich der Besetzung dieser Stelle mit hochqualifiziertem Personal.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-05134-1_5 7523feb9372154e4a68dd84d8a517a16;de;;;6.1.;;;Ausgewählte Aspekte des Marketings in Verknüpfung mit dem Social WebDas vorliegende Kapitel befasst sich mit der Rolle des Web 2.0 bzw. des Social Web und im Speziellen der Social Software, wenn diese Phänomene in Verbindung mit der betrieblichen Sichtweise der Marketinglehre gebracht werden – lapidar also mit dem Social Media Marketing (SMM), welches aber noch genauer zu definieren und einzuordnen sein wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37952-9_5 c410ee21eda3d38a56e7b30da04c34c4;de;;;6.1.;;;Cash Management – ein ganzheitlicher AnsatzCash Management – was versteht man unter diesem Begriff? Übersetzt bedeutet „Cash Management“ die Bewirtschaftung der Liquidität. Die Liquidität stellt einen der wichtigsten Vermögenswerte eines Unternehmens dar und ist vergleichbar mit der „Luft zum Atmen“. Die Begründung hierzu ist simpel: Alle Unternehmen müssen in der Lage sein, ihren finanziellen Verpflichtungen jederzeit nachkommen zu können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-18567-1_5 003dd3d2cae0401a9eb2e2b6e0ecdb61;de;;;2.2.;;;FDSI-Tree: Ein vollständig verteilter räumlicher Indexbaum für effiziente und energiebewusste Reichweitenabfragen in Sensornetzwerken In diesem Beitrag wird ein vollständig verteilter räumlicher Indexbaum (FDSI-Baum) für effiziente und energiebewusste Reichweitenabfragen in Sensornetzwerken vorgeschlagen. Die vorgeschlagene Technik ist ein neuer Ansatz für Bereichsabfragen, der eine räumliche Indizierung verwendet. Bereichsabfragen werden am häufigsten unter Sensornetzwerken zur Berechnung von Aggregationswerten angetroffen. Frühere Arbeiten haben jedoch nur die Bedeutung angesprochen, aber keine effiziente Technik zur Verarbeitung von Bereichsabfragen bereitgestellt. Ein FDSI-Baum ist somit darauf ausgelegt, diese effizient zu verarbeiten. Jeder Knoten im Sensornetzwerk hat den MBR der Region, in der sich seine Kinderknoten und der Knoten selbst befinden. Die Reichweitenabfrage wird über den Bereich ausgewertet, der den geografischen Standort von Sensoren schneidet. Es sorgt für maximale Energieeinsparung, indem es die Kommunikation von Knoten vermeidet, die nicht an der Auswertung der Anfrage teilnehmen.;-;-;-;https://link.springer.com/chapter/10.1007/11611257_23 95abcabdcabd62027b278f00a9e2d159;de;;;2.2.;;;Constraint-Programmierung und Datenbankabfragesprachen Die in Constraint-Sprachen verwendeten deklarativen Programmierparadigmen können zu mächtigen Erweiterungen des relationalen Datenmodells von Codd führen. Die Entwicklung von Einschränkungsdatenbank-Abfragesprachen aus logischen Datenbankabfragesprachen hat viele Ähnlichkeiten mit der Entwicklung von Einschränkungslogikprogrammierung aus der Logikprogrammierung, jedoch mit den zusätzlichen Anforderungen einer dateneffizienten, zeitgleichen und Bottom-up-Auswertung. In diesem Überblick über Constraint Query Languages ​​(CQLs) stellen wir zunächst das Framework von [41] vor. Die Grundidee ist: „die;-;-;-;https://link.springer.com/chapter/10.1007/3-540-57887-0_92 1fc3932bae7d79146feb22f8c5ec9331;de;;;6.1.;;;MES als Werkzeug für die perfekte ProduktionWarum ein Manufacturing Execution System (MES) ein geeignetes Werkzeug für die perfekte Produktion ist, erfährt der Leser in diesem Kapitel. Dabei wird sowohl auf die Entstehungsgeschichte als auch auf den grundliegenden Aufbau eingegangen. Am Beispiel der VDI-Richtlinie 5600 wird erklärt, wie der MES-Gedanke immer mehr zu einem klar umrissenen Produkt geworden ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46902-6_2 7fbd011d5d6ec97576d3ff8ee6856ac2;de;;;2.2.;;;Kombination von C-Signatur mit Path Dictionary für die Abfrageverarbeitung von geschachtelten Objekten in OODBS Da ein objektorientiertes Datenbanksystem (OODBS), das sich mit zusammengesetzten Objekten befasst, teure Durchlaufkosten zum Verarbeiten von Benutzeranfragen erfordert, sind die Anfrageverarbeitung und die Indizierung zu wichtigen Themen für den Erfolg objektorientierter Datenbanksysteme geworden. In diesem Papier schlagen wir ein neues signaturbasiertes Indexierungsschema mit dem Namen c-signature vor. Die c-Signaturen werden von Objekten in einem Pfad in Verkettung abstrahiert und klassenorientiert gespeichert, um den Suchraum zu reduzieren. Durch die Positionierung der C-Signatur-Datei vor dem Pfadwörterbuch können wir teures Durchsuchen der Datenbank vermeiden. Außerdem machen es die auf einen s-Ausdruck im Pfadwörterbuch zeigenden Signaturen möglich, das sequentielle Scannen des Pfadwörterbuchs zu vermeiden. Basierend auf dem vorgeschlagenen Schema entwickeln wir die Implementierung der C-Signatur und ihrer Konkurrenten wie Pfadindex-, Pfadsignatur-, Pfadwörterbuch-, Klasseneinheitssignatur-, Pfadwörterbuchindex- und S-Signaturschemata. Anhand der experimentellen Ergebnisse vergleichen wir die c-Signatur mit denen der Konkurrenz bei unterschiedlichem Referenz-Sharing und in Bezug auf die Seiten-I/Os jedes Schemas. Schließlich zeigen wir, dass unser Csignatur-Schema signifikante Verbesserungen in der Retrieval-Operation erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48309-8_29 343462c504ad382c5e28951d912441c3;de;;;6.1.;;;Aufbau und Organisation des GSM-SystemsIn diesem Abschnitt wird zuerst auf die Netzstruktur und Komponenten des GSM-PLMN-Netzes eingegangen. Ein tieferer Einblick in die Art und Weise, wie sie zusammenarbeiten, wird erst in späteren Kapiteln gegeben. Die Beschreibung der GSM-Architektur wird immer abstrakter und führt unausweichlich auf die komplexe Signalisierung. An dieser Stelle werden die Flächeneinteilung des GSM-Versorgungsgebietes und dann die Strukturierung der Funkkanäle beschrieben. Im weiteren Verlauf werden die MF-spezifischen Daten und Parameter sowie andere wichtige Systemdaten aufgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-87270-8_3 6f7012db5dc590abf2c4382a082dcbcc;de;;;2.2.;;;Ein effizienter Ansatz zur Verarbeitung von P2P-Bereichsabfragen für mehrdimensionale unsichere Daten In den letzten Jahren hat die Verwaltung unsicherer Daten in einer zentralisierten Datenbank viel Aufmerksamkeit erhalten. Nach unserem Kenntnisstand wurde dieses Thema jedoch im Kontext von Peer-to-Peer (P2P)-Systemen nicht bearbeitet, und die bestehenden Techniken der P2P-Bereichsabfragen können für unsichere Daten nicht geeignet sein. In diesem Artikel untersuchen wir das Problem der Beantwortung probabilistischer Schwellenwertbereichsabfragen zu mehrdimensionalen unsicheren Daten für P2P-Systeme. Unsere neuartige Lösung des Problems, PeerUN, basiert auf einem Baumstruktur-Overlay, das den optimalen Durchmesser hat und ein effizientes Routing in hochdynamischen Szenarien unterstützen kann. Die Probleme (die auch mit mehrdimensionalen unsicheren Daten konfrontiert sind) bestehender Techniken für die mehrdimensionale Indizierung über ein strukturiertes P2P-Netzwerk sind (1) sie verarbeiten Anfragen effizient auf Kosten eines enormen Wartungsaufwands, (2) sie haben niedrige Wartungskosten aber sie leiden unter schlechter Routing-Effizienz oder verursachen einen enormen Netzwerk-Overhead. PeerUN kann Reichweitenabfragen zu mehrdimensionalen unsicheren Daten effizient und mit geringen Wartungskosten verarbeiten. PeerUN erreicht dies durch die Einführung einer Reihe neuartiger Abfrageverarbeitungsalgorithmen und einer kostenbasierten optimalen Datenreplikationsstrategie. Experimentelle Ergebnisse bestätigen die Wirksamkeit des vorgeschlagenen Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04205-8_26 70d3a4aca245a9b8f4a6c71d6c465876;de;;;2.2.;;;Parallele Algorithmen für den Abgleich von Bildvorlagen Wir überprüfen einige effiziente Algorithmen zum Abgleich von Bildvorlagen für systolische Arrays, Netze, Pyramiden, feinkörnige MIMD- und SIMD-Hyperwürfel sowie mittelkörnige MIMD-Hyperwürfel. Die feinkörnigen Algorithmen benötigen nur 0(1) Speicher pro Prozessor und der mittelkörnige Algorithmus geht von einer festen Anzahl von Prozessoren aus. Der Hypercube-Algorithmus mittlerer Körnung wird experimentell unter Verwendung eines NCUBE-Hyperwürfels evaluiert. Außerdem werden Vergleichslaufzeiten für einen für den Supercomputer CRAY2 optimierten Algorithmus vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-3390-9_11 f31c9b5b0eae1ee9d9f103be1d23a365;de;;;2.2.;;;Das dimensionsreduzierte Multiskalen-Histogramm: Eine neue Methode zum schnellen und effizienten Abrufen ähnlicher Zeitfolgen und Teilfolgen In diesem Beitrag schlagen wir eine Dimensionsreduktionsdarstellung von Multiskalen-Zeitreihenhistogrammen vor, die basierend auf den Multiskalen-Histogrammen durchgeführt wird. Es ist eine schnellere und effiziente Möglichkeit, eine Zeitreihenfolge in einer Datenbank vorzuselektieren und führt dazu, dass bei der Beantwortung von Ähnlichkeitsanfragen keine Zeitreihenvergleiche erforderlich sind. Eine neue metrische Distanzfunktion MD ( ), die konsistent untere Schranken WED setzt und auch die Dreiecksungleichung erfüllt, wird ebenfalls vorgestellt und darauf aufbauend konstruieren wir die Slim-Tree-Indexstruktur als metrische Zugriffsmethode zur Beantwortung von Ähnlichkeitsanfragen. Wir erweitern es auch auf Subsequenz-Matching und präsentierten eine MSST-Indexstruktur.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27772-9_6 151fcb6b55677c1654b9b4125749582d;de;;;2.2.;;;Das Solo-Betriebssystem: Prozesse, Monitore und Klassen Dieses Dokument beschreibt die Implementierung des Solo-Betriebssystems, das in Concurrent Pascal geschrieben wurde. Es erklärt die Gesamtstruktur und Details des Systems, in dem nebenläufige Prozesse über eine Hierarchie von Monitoren und Klassen kommunizieren. Das nebenläufige Programm ist eine Folge nahezu unabhängiger Komponenten von jeweils weniger als einer Textseite. Das System ist seit Mai 1975 in Betrieb.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-3510-9_17 46f21e82c8434aa1c39130c499e90982;de;;;2.2.;;;Mathematische Eigenschaften Die kinetischen theoretischen Untersuchungen der Kapitel 2 und 3 haben die Struktureigenschaften der linearen Transportsysteme eines gegebenen mehratomigen Gasgemisches ergeben. In den Kapiteln 4 und 5 werden diese Eigenschaften in eine Reihe von Annahmen umgewandelt, die in einem mathematischen Rahmen geschrieben sind. Der Zweck dieses Rahmenwerks besteht darin, mehrere Ergebnisse zu erstellen, die für jede Systemmatrix gültig sind, die die entsprechenden mathematischen Annahmen erfüllt. Dieser Ansatz wird benötigt, um die Wohlgesetztheit der linearen Transportsysteme und den singulären Grenzwert verschwindender Massenanteile gründlich zu untersuchen. Wenn Kollisionsintegrale nicht exakt, sondern geschätzt sind, reicht es außerdem aus, zu überprüfen, ob die angenäherte Systemmatrix die entsprechenden mathematischen Annahmen erfüllt, damit die in Kapitel 4 und 5 abgeleiteten theoretischen Ergebnisse gelten. Dies wird bei den in Abschnitt 2.10 vorgestellten praktischen Näherungen systematisch überprüft [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-48650-3_4 099e519afe55b545eded714e85fc9f70;de;;;2.2.;;;Commission des Classifications Spectrales et Indices de Couleur a Plusieurs Bandes Es ist unsere traurige Pflicht, zu Beginn dieses ersten Berichts der Kommission 45 den Tod von vier der angesehensten Mitglieder der Kommission festzuhalten: Daniel Barbier, Bertil Lindblad, Jason J. Nassau und Robert M. Petrie. Und obwohl keine Mitglieder der Kommission, ist es angebracht, die Namen von Dean B. McLaughlin und Joel Stebbins zu dieser Liste hinzuzufügen. Jeder dieser sechs Männer war auf seine Weise ein echter Pionier auf den Gebieten, die für diese Kommission von Interesse waren. Ihre Arbeit wird ihren Nachfolgern noch lange in Erinnerung bleiben. Unser tiefstes Mitgefühl gilt ihren Familien und Kollegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-3476-0_36 f97c62b4dde57da51563ff351307c1d3;de;;;6.1.;;;Kompetenzentwicklung in OrganisationsnetzwerkenDas wesentliche Merkmal eines Organisationsnetzwerks ist der hybride Koordinationsmechanismus, der sich aus Elementen des Marktes und der Hierarchie zusammensetzt. Seine konkrete Ausprägung hängt vom Kooperationsgegenstand und den daraus resultierenden Opportunismusgefahren ab. Nur wenn diese wirksam und wahrnehmbar kontrolliert werden, kann die zentrale Voraussetzung für den Erfolg des Netzwerks, also interorganisationales Vertrauen vor und während der Kooperation, entstehen. Wegen besonders großer Opportunismusspielräume ist die Herstellung von Vertrauen in Kompetenzentwicklungsnetzwerken besonders anspruchsvoll. Es werden vertrauensschaffende Gestaltungsempfehlungen für wichtige praxisrelevante Managementfelder gegeben. Abschließend wird ein Selbstevaluierungsleitfaden als Voraussetzung der Entwicklung vertrauensbildender Maßnahmen präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-54954-4_3 148f0f52b97f0700f91e4d8f7a7d8690;de;;;2.2.;;;GrHyMM: Ein graphenorientiertes hybrides multidimensionales Modell Die Hauptmethoden für das Data Warehouse Design basieren auf zwei gegensätzlichen und alternativen Ansätzen. Der eine, der auf dem datengetriebenen Ansatz basiert, zielt darauf ab, ein konzeptionelles Schema hauptsächlich durch einen Reengineering-Prozess der Datenquellen zu erstellen, während die Beteiligung der Endbenutzer minimiert wird. Der andere basiert auf dem anforderungsorientierten Ansatz und zielt darauf ab, ein konzeptionelles Schema nur auf der Grundlage der von den Endbenutzern geäußerten Anforderungen zu erstellen. Da jeder dieser Ansätze wertvolle Vorteile hat, hat sich die Notwendigkeit herausgestellt, eine hybride Methodik anzuwenden, die die besten Eigenschaften der beiden Ansätze kombiniert. Wir stellen ein konzeptionelles Modell vor, das auf einer graphenorientierten Darstellung der Datenquellen basiert. Der Kern der vorgeschlagenen hybriden Methodik besteht aus einem automatischen Prozess des Reengineering von Datenquellen, der das konzeptionelle Schema unter Verwendung einer Reihe von anforderungsbezogenen Einschränkungen erstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24574-9_12 8e062ebe85219569a99ecd9de11d10cf;de;;;6.1.;;;Computerunterstützte identifizierung basischer substanzenThe potential applications of a personal computer with integrated database software in toxicologic analysis are discussed. A toxicologic database including 370 basic compounds, is presented that was built up without knowledge of a higher programming language and was used as a base for drug identification in normal analysis by PC, DC and GC.;-;-;-;https://link.springer.com/article/10.1007/BF00201231 3e1a193164b9fc4541e45531876128fd;de;;;6.1.;;;Knorpelverletzungen: Eine retrospektive multizentrische Analyse von 31.516 Kniegelenks-Arthroskopien: Die Informationen über die Lokalisation von Knorpelschäden im Knie sowie deren demographische Charakteristika sind von großer Bedeutung für die Indikation und den Therapieerfolg neuer biologischer Verfahren zur Behandlung von Knorpelschäden. In dieser Studie wurden die Protokolle von 31.516 Kniegelenksarthroskopien datenbankgestützt nach demographischen Daten, Lokalisation des Knorpelschadens und weiterer Gelenkspathologie retrospektiv analysiert.;-;-;-;https://link.springer.com/article/10.1007/BF02949896 94f3668e25f81dfba91697ab6deb62a1;de;;;6.1.;;;Enterprise Marketing Management (EMM)Das dritte Kapitel dieses Buches wendet sich den im ISCM anwendbaren Systemlandschaften und deren Bestandteile zu. Die vorangegangenen Wissenschaftsbereiche werden also nun konkret in dem Umfeld platziert, in dem sie in der Praxis als Tragwerk Anwendung finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-00532-0_3 cf7eebf9f1a4328244182cfe8b0c580c;de;;;6.1.;;;„Mittelstandsberatung“ als BankdienstleistungDie Fa. Gebhard & Söhne KG betrieb ein alteingesessenes Elektroinstallationsgeschäft. Neben dem Ladenverkauf (auch mit elektrotechnischen Haushaltswaren) beschäftigte man in der „Produktion“ mehrere Elektroinstallateure. In der Kreisstadt, in der die Firma ansässig war, galt die Gebhard & Söhne KG als das erste Fachgeschäft am Platz, der Einzugsbereich erstreckte sich auch auf mehrere Nachbargemeinden. Der Seniorchef war sich mit dem älteren seiner beiden Söhne, der in das Geschäft eingetreten war, einig: Der von ihm geführte Familienbetrieb, ein „sicheres Bein“, solle so weiter geführt werden, zudem wollte der Sohn ein zweites Bein aufbauen. Der Junior hatte sich auf Grund einer regionalen Marktanalyse sowie nach dem Studium entsprechender Branchenprognosen dafür entschieden, einen Computerzubehör-Fachhandel — ein benachbartes Geschäftsfeld — auf Kommissionsbasis aufzubauen, und er glaubte auch, über einiges Know-how zu verfügen. Dieses Franchising-Bein sollte noch dadurch ergänzt werden, daß man für etablierte Netzwerkanbieter in einem regionalen Einzugsbereich Installations- und Wartungsdienst anbieten wollte. So verhandelte man mit der Deutschlandniederlassung eines international renommierten Netzwerkanbieters.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-05955-4_4 7c1eedece89488cc64db719f203ab212;de;;;6.1.;;;Portalentwicklung: „Virtuelle Hochschule“Die Entwicklung einer Internet-Anwendung unterscheidet sich im Detail von der Entwicklung eines „normalen“ Softwaresystems. Das Vorgehen im Entwicklungsprozess ist weitgehend übertragbar. Die vorhandenen Unterschiede liegen z.B. in der Oberflächenentwicklung. Diese ist sehr stark von den technischen Voraussetzungen abhängig, da die Gestaltungsmöglichkeiten durch die zur Verfügung stehenden Leitungskapazitäten und den damit verbundenen Übertragungszeiten eingeschränkt werden. Ein weiterer Unterschied liegt im Debugging und Testen des Systems. „Herkömmliche“ Software wird in der Regel plattformspezifisch programmiert (natürlich sind die Möglichkeiten der plattformübergreifenden Programmierung in anderen Programmiersprachen z.B. in C mit den „#ifdef-Anweisungen“ bekannt, diese sind jedoch in der Praxis eher die Ausnahmen). Das heißt das System wird nur für diese Plattform kompiliert und deshalb auch nur auf dieser Plattform getestet. Für die GUI müssen dann unterschiedliche Bildschirmauflösungen etc. getestet werden. Ausnahmen sind hier nur wenige zu nennen, wie z.B. JAVA, das ebenfalls plattformübergreifend eingesetzt werden kann. Hier jedoch wird die UmgebungsKonformität durch die JAVA-Virtual-Runtime-Machine erreicht, die zur Ausführung des Programms erforderlich und selbst plattformspezifisch ist. Bei der Web-Entwicklung stellt die Sicherstellung eben dieser Konformität eines der größten Hindernisse dar. Denn die Darstellung des Codes erfolgt auf unterschiedlichen Plattformen und in unterschiedlichen Browsern. Somit ist der Aufwand ein auf allen Plattformen und in allen Browsern nahezu gleichaussehendes Portal zu erstellen um ein vielfaches größer, als eine Desktop-Softwareanwendung mit einem Toolkit für eine Plattform zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08610-9_4 b61e890c83f7246c534108ca04914918;de;;;6.1.;;;Zum Verhältnis von Facility Management und CAFMErfolgreiches FM wird heute mitbestimmt durch ein „maßgefertigtes“ CAFM. Dabei stellen die konkreten FM-Aufgaben in Abhängigkeit vom Kerngeschäft und von der Größe sowie Komplexität der Facilities sehr differenzierte Anforderungen, an denen sich sowohl die FM-Organisation als auch die IT-Unterstützung mittels CAFM ausrichten muss. Potenzielle Nutzer aber auch Berater und Softwareentwickler finden umfassende Unterstützung zum Thema CAFM in dem komplexen Richtlinienwerk der GEFMA.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-21357-2_2 6070b1b0f9d5e55f210131d513d9342a;de;;;6.1.;;;Das Industrial InternetDas Engineering unterliegt derzeit einem massiven Wandel. Smarte Systeme und Technologien, Cybertronische Produkte, Big Data und Cloud Computing im Kontext des Internet der Dinge und Dienste sowie Industrie 4.0. Die Medien überschlagen sich mit Meldungen über die neue, die vierte industrielle Revolution. Der amerikanische Ansatz des „Industrial Internet“ beschreibt diese (R)evolution jedoch weitaus besser als der eingeschränkte und stark deutsch geprägte Begriff Industrie 4.0. Industrial Internet berücksichtigt den gesamten Produktlebenszyklus und adressiert sowohl Konsum- und Investitionsgüter als auch Dienstleistungen. Dieser Beitrag beleuchtet das zukunftsträchtige Trendthema und bietet fundierte Einblicke in die vernetzte Engineering-Welt von morgen, auf Ihre Konstruktionsmethoden und -prozesse sowie auf die IT-Lösungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-48278-0_9 5403a847d8490fe6cb0b71911d8cdf0e;de;;;6.1.;;;Dokumentation EuropaDiese Übersicht enthält eine Aufstellung wichtiger zwischen 23. Juni und 11. Oktober 2010 gemachter Vorschläge der Europäischen Kommission für von Rat und Europäischem Parlament zu beschließende Rechtsakte. Zusätzlich wird auf interessante Texte der Europäischen Kommission wie zB Grünbücher oder Erfahrungsberichte hingewiesen. Damit soll dem Leser die Möglichkeit gegeben werden, in einem möglichst frühen Stadium von neuen Entwicklungen im Gemeinschaftsrecht Kenntnis zu erhalten. Die Übersicht enthält umgekehrt keine Angaben über von Europäischem Parlament und Rat endgültig verabschiedete Texte. Als Fundstelle wird grundsätzlich die Referenz des Kommissionsdokumentes angegeben (COM, SEC). Soweit nicht anders angegeben, handelt es sich um EU- Rechtsakte.;-;-;-;https://link.springer.com/article/10.1007/s00730-010-0326-8 526052641f1e3d872d098acb66dc153e;de;;;6.1.;;;Die Evolution des Hauptspeicher-Datenbanksystems HyPer: Von Transaktionen und Analytik zu Big Data sowie von der Forschung zum TechnologietransferWir beschreiben die evolutionäre Entwicklung des an der TUM entwickelten Hauptspeicher‐Datenbanksystems HyPer, das für heterogene Workloads bestehend aus Transaktionen, analytischen Anfragen bis hin zu Big Data Explorationen gleichermaßen konzipiert wurde. Der Vorteil eines solchen „all-in-one“ Datenbanksystems gegenüber bisher gebräuchlichen dedizierten Einzelsystemen besteht darin, dass die Datenexploration auf dem jüngsten Datenbankzustand basiert und somit aktuell gültige Erkenntnisse liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-54712-0_13 67f5f58cb85f498e75330c86421bb07f;de;;;2.2.;;;Ein in Echtzeit verteilter Index basierend auf einem Thema für das Microblogging-System Mit der Entwicklung der Internet-Technologie und der weit verbreiteten Verwendung in mobilen Geräten haben sich die Microblogging-Systeme wie Twitter und Sina Weibo in China zur wichtigsten Plattform für Menschen entwickelt, um Informationen abzurufen und miteinander zu kommunizieren. Die Echtzeitsuche wurde für Microblogging-Systeme aufgrund der Menge an Daten und Benutzern zu einer großen Herausforderung. Bestehende Ansätze bauen alle Microblogs in einem Index auf, was die Kosten für die Indexaktualisierung und -abfrage erhöht. Die Suchergebnisse konnten den zeitnahen und hohen Qualitätsansprüchen der Nutzer nicht genügen. In diesem Papier schlagen wir einen neuen verteilten Echtzeitindex basierend auf einem Thema (RDIBT) vor, der einen Index für jedes Thema erstellen kann. Diese thematischen Indizes werden an viele Sites verteilt, sodass die gleichzeitige Abfrage von Abfragen verbessert werden kann. Umfangreiche Experimente belegen die Effektivität und Effizienz von RDIBT am realen Datensatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8530-7_22 390b346a00204491f80e37f2a46f9e14;de;;;6.1.;;;Planung, Realisierung und Einführung von AnwendungssystemenAnwendungssysteme sollen die Benutzer beim Bearbeiten von Geschäftsprozessen effektiv unterstützen. Für viele Bereiche ist dazu geeignete Standardsoftware vorhanden, mit der die fachlichen Anforderungen abgedeckt werden. Sind dagegen diese Anforderungen sehr spezifisch, so ist entweder die Individualentwicklung eines Anwendungssystems erforderlich oder ein Standardsoftwareprodukt muss modifiziert bzw. erweitert werden. Das Kapitel geht der Frage nach, wann eine Individualentwicklung und wann das Einführen einer Standardsoftware vorteilhafter ist und zeigt für diese Auswahlentscheidung entsprechende Entscheidungskriterien auf. Daneben wird gezeigt, wie Software in diesem Kontext gestaltet, eingeführt, genutzt, im Rahmen von Wartungsprojekten weiterentwickelt und zu einem vorher nicht prognostizierbaren Zeitpunkt abgeschaltet wird. Daneben wird ein Überblick über den Softwaremarkt gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-53362-8_5 73475452968a9ad793006cbf43e9bf8d;de;;;2.2.;;;Schemalose halbstrukturierte Daten erneut besucht In diesem Artikel wird das Design von Datenmodellen für semistrukturierte Daten untersucht, wobei insbesondere deren schemalose Natur im Mittelpunkt steht. Wichtig bei der Gestaltung solcher Datenmodelle ist eine einheitliche Behandlung von Schemainformationen und Daten, also eine einheitliche Behandlung von Metadaten und Daten. Dieses Papier diskutiert, was Daten und Metadaten sind, und argumentiert, dass Attributnamen, die normalerweise als Metadaten betrachtet werden, und Schlüsselwerte, die normalerweise als Daten betrachtet werden, ähnliche Rollen spielen, wenn wir große Datensätze organisieren. Der Artikel überarbeitet eines der standardmäßigen semistrukturierten Datenmodelle in Übereinstimmung mit diesem Argument und erfindet schließlich das von Peter Buneman und seinen Kollegen vorgeschlagene deterministische semistrukturierte Datenmodell neu. Der Beitrag dieses Papiers ist eine zusätzliche Begründung für das Design dieses Datenmodells, eine Begründung, die auf der Ähnlichkeit zwischen Attributnamen und Schlüsselwerten basiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41660-6_25 fbbff8051f46074292c52bf5473499da;de;;;2.2.;;;Effizientes Untersequenz-Matching unter Verwendung der längsten gemeinsamen Untersequenz mit einem Dual-Match-Index Der Zweck des Untersequenzabgleichs besteht darin, eine Abfragesequenz aus einer langen Datensequenz zu finden. Aufgrund der Fülle von Anwendungen wurden viele Lösungen vorgeschlagen. Praktisch alle bisherigen Lösungen verwenden das euklidische Maß als Grundlage für die Messung des Abstands zwischen Sequenzen. Neuere Studien deuten jedoch darauf hin, dass die euklidische Distanz aufgrund der Unregelmäßigkeit der Daten oft keine korrekten Ergebnisse liefert, was in unserem Problembereich nicht so ungewöhnlich ist. Um dieses Problem anzugehen, wurden einige nicht-euklidische Maßnahmen wie;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73499-4_44 6d4372f6a3701f53b06db9dc230d58b0;de;;;6.1.;;;AbietinsäureVorbemerkung: „Ein immunologischer Mechanismus für das auf Abietinsäure-haltige Arbeitsstoffe öfter beobachtete Asthma ist nicht gesichert.” Mit dieser Einschränkung belegt die Senatskommission zur Prüfung gesundheitsschädlicher Arbeitsstoffe der Deutschen Forschungs;-;-;-;https://link.springer.com/article/10.1007/BF03034159 6a32e2d36e099de54ca7627a53e78def;de;;;2.2.;;;Aufkommende Probleme In diesem Kapitel besprechen wir einige der aufkommenden Datenbankprobleme im Zusammenhang mit geografischen Informationssystemen. Um Wiederholungen zu vermeiden, gehen wir nicht auf die bereits in den vorangegangenen Kapiteln erwähnten Themen ein, obwohl viele davon noch offene Forschungsfragen sind. Wir befassen uns mit einigen der neuesten Entwicklungen in der Computertechnologie und beschreiben die Art der Auswirkungen, die solche Entwicklungen auf GIS haben. Dieses Kapitel ist wie folgt aufgebaut. In jedem der folgenden Abschnitte beschreiben wir zunächst kurz das Gebiet und diskutieren dann die Art der Auswirkungen, die es auf das GIS hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-6109-5_7 d0de095f5d08b9eb882733700c4e25de;de;;;2.2.;;;Ein einheitliches Framework für Ad-hoc-Indizes zur Beantwortung von Erreichbarkeitsabfragen bei großen Graphen Graphenstrukturierte Datenbanken und verwandte Probleme wie die Verarbeitung von Erreichbarkeitsabfragen wurden für viele Anwendungen wie XML-Datenbanken, biologische Datenbanken, soziale Netzwerkanalyse und das Semantische Web zunehmend relevant. Um Erreichbarkeitsabfragen in großen Datenbanken mit Graphenstruktur effizient auszuwerten, gab es eine Vielzahl neuer Forschungen zur Graphenindexierung. Bisher werden Erreichbarkeitsindizes im Allgemeinen auf den gesamten Graphen angewendet. Dies kann oft suboptimal sein, wenn der Graph groß ist oder/und seine Untergraphen unterschiedlich strukturiert sind. In diesem Papier schlagen wir einen einheitlichen Rahmen vor, um die bestehende Erreichbarkeitsindexierung für Untergraphen eines gegebenen Graphen zu unterstützen. Dies wiederum unterstützt die schnelle Verarbeitung von Erreichbarkeitsabfragen in großen Datenbanken mit Graphenstruktur. Die Beiträge unseres einheitlichen Frameworks sind wie folgt: (1) Wir definieren formal ein Graph-Framework, das die Indizierung von Untergraphen im Gegensatz zum gesamten Graphen erleichtert. (2) Wir schlagen einen heuristischen Algorithmus vor, um einen gegebenen Graphen zur Indizierung in Untergraphen zu unterteilen. (3) Wir zeigen, wie Erreichbarkeitsanfragen im Graph-Framework ausgewertet werden. Unsere vorläufigen experimentellen Ergebnisse zeigten, dass das Framework eine kleinere Gesamtindexgröße ergibt und bei der Verarbeitung von Erreichbarkeitsabfragen für große Diagramme effizienter ist als ein festes Indexschema für die gesamten Diagramme.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00887-0_12 37f5bf271c0f22fad18e771ba74ff450;de;;;2.2.;;;Parallelitätsprobleme bei Zugriffsmethoden B-Trees, R-Trees und Linear Hashing wurden in kommerziellen DBMS als Indizierungsmechanismen verwendet, um eine schnelle Datenabfrage zu unterstützen. In diesem Kapitel werden wir untersuchen, wie verschiedene Sperrtechniken für diese drei Zugriffsmethoden verwendet werden können, um eine korrekte gleichzeitige Ausführung und gleichzeitige Transaktionen ohne Deadlocks zu ermöglichen. Es ist wichtig, effiziente Parallelitätskontrollprotokolle für Indexstrukturen zu haben, da Indizes „heiße“ Daten in dem Sinne sind, dass sie stark an der Abfrageverarbeitung beteiligt sind. Außerdem würde die Verwendung von einfachen Standardansätzen für die Parallelität in Baumindizes zu einem hohen Sperrkonflikt in den höheren Baumebenen führen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-8590-3_12 e909b72feb09cbd6258ceb5c593e5cc8;de;;;6.1.;;;Architektur des Ablaufkontrollsystems ActManDas Ablaufkontrollsystem ActMan realisiert den Kontroll- und Datenfluß in geregelten arbeitsteiligen Anwendungssystemen. In diesem Kapitel wird die Architektur des Ablaufkontrollsystems in ihren einzelnen Teilkomponenten beschrieben, während im anschließenden Kapitel ausgewählte Implementierungsaspekte bei der Realisierung von ActMan aufgezeigt werden. Zunächst wird die Stellung des Ablaufkontrollsystems im Verhältnis zu den zu integrierenden Anwendungssystemen erläutert (Abschnitt 7.1). Anhand der dabei eingeführten Zusatzebene lassen sich die systemtechnischen Anforderungen an das Ablaufkontrollsystem konkretisieren und grundsätzliche Entwurfsentscheidungen aufzeigen. Auf der Basis der getroffenen Entwurfsentscheidungen wird anschließend die softwaretechnische Rahmenarchitektur des Ablaufkontrollsystems ActMan eingeführt (Abschnitt 7.2). Die Rahmenarchitektur schafft einen Überblick über die zu realisierenden Softwarekomponenten und somit über den restlichen Teil des vorliegenden Kapitels.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-11889-3_7 3d129db9c992ca3e3e305e8a2fb27a7a;de;;;2.2.;;;Bewertung von RGB-Quantisierungsschemata beim histogrammbasierten inhaltsbasierten Bildabruf Die Indizierung von Farbmerkmalen für Bilder hat mehrere Ansätze wie konventionelles Farbhistogramm, Farbkohärenter Vektor, Farbmoment und Farbkorrelogramm gesehen. Diese Ansätze zum Indizieren von Bildern haben sich als schnell und einfach erwiesen und können Bilder mit zufriedenstellenden Ergebnissen aus der Datenbank abrufen. Die Stärke dieser Ansätze beruht jedoch auf dem Farbraum und den Quantisierungsschemata, die für die Indizierung von Bildern verwendet werden. Verschiedene Arbeiten haben Farbräume und Quantisierung für CBIR-Anwendungen untersucht und haben berichtet, dass der RGB-Farbraum für CBIR manchmal an einigen Unzulänglichkeiten bei der Abrufgenauigkeit leidet. Interessanterweise verwendeten fast alle Experimente Bilder, die aus dem RGB-Farbraum konvertiert wurden. Um diese Umwandlung des RGB-Farbraums in die anderen Räume durchzuführen, wurden mathematische Formeln verwendet. Dies legt nahe, dass der RGB-Farbraum nicht unbedingt ein schlechterer Farbraum für CBIR-Anwendungen ist, aber die Wahl der Quantisierung beeinflusst seine Leistung bei der CBIR-Aufgabe. Diese Arbeit wertete daher verschiedene Quantisierungsschemata (gleichmäßig und nicht gleichförmig) aus, um zu bestimmen, welches der Schemata für die histogrammbasierte CBIR-Anwendung am besten abschneidet. Die Ergebnisse zeigen, dass CBIR-Entwickler sich für RGB-Quantisierungsschemata in der Kombination von 4s- und 8s-Bins auf jedem der Farbkanäle oder -bänder für eine optimale Wiedergewinnung entscheiden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-78612-0_60 e27270553e23946dd72ed6411889a26d;de;;;2.2.;;;Kriterien und Funktionen für die Auswahl der Darstellung von Experteninformationen Unter Experteninformationen verstehen wir die Informationen, die ein Mensch-Experte auf einem Gebiet der Wissenschaft und Technologie oder ein intelligentes Programm (zB intelligente Agenten) bei der Lösung einer Aufgabe gibt. In diesem Beitrag wird das Problem der Wahl der Informationsrepräsentation durch Experten vorgestellt und analysiert. Die Analyse wurde auf zwei Generalitätsebenen durchgeführt. Auf der ersten Ebene wurde angenommen, dass in der Sammlung möglicher Lösungen eine Funktion definiert wird, die den Abstand zwischen ihren Elementen ausdrückt. Anschließend wurden die Bedingungen für die Auswahlfunktion, die die Darstellung von Experteninformationen regelt, festgelegt. Es wurde darauf hingewiesen, dass die beste Wahlfunktion diejenige ist, die die Objekte mit der kleinsten Summe der quadratischen Abstände von den Experteninformationen repräsentierenden Objekten zur Darstellung qualifiziert. Auf der zweiten Ebene wurde davon ausgegangen, dass die Struktur der Objektmenge bekannt ist. Sechs Strukturen, die Experteninformationen im Repräsentationswahlproblem beschreiben, werden betrachtet und analysiert. Für diese Strukturen wird auch die Rechenkomplexität von Auswahlproblemen untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-1813-0_20 94ae98bdb6b13b30a6be37ce0591dce8;de;;;6.1.;;;Formulierung einer neuen StrategieJedes Unternehmen besitzt eine Zukunftsvorstellung, eine Strategie und Unternehmenziele. Diese können in Leitbildern oder Leitsätzen ausgedrückt sein, vielfach sind sie jedoch (leider!) nur in den Köpfen weniger Top-Manager. In einer Zeit technologischen Umschwunges ist jedoch die Notwendigkeit eines stetigen kollektiven Überdenkens bestehender Strategien und Unternehmensziele unbestritten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-02140-7_2 beffb04c4dcfa89d19239428de9d17eb;de;;;6.1.;;;KontaminationsverdachtNach dem Giftgasanschlag in der Tokioter U-Bahn 1995 strömten viele Patienten ungesteuert in die Krankenhäuser und kontaminierten Einrichtung und Personal. Der vorliegende Beitrag gibt Verantwortlichen praktische Hilfe bei der Erstellung eines individuellen ABC-Vorsorgekonzepts einer Notaufnahme, um sowohl Patienten angemessen zu behandeln als auch das Personal zu schützen. Im Weiteren werden die Erstmaßnahmen durch das Rettungsstellenpersonal und geeignete Schutzausrüstung erklärt. Zusätzlich wird über praxisnahe Erfahrungen des Berliner Gesundheitswesens berichtet.;-;-;-;https://link.springer.com/article/10.1007/s10049-007-0934-3 5fe8f561074f502edb9207b915c4dd44;de;;;2.2.;;;Interaktive Visualisierung von Gelehrtentexten Die Textvisualisierungsmethode hängt vom Inhalt von Dokumenten ab, um Muster und abstrakte Zeichen zu analysieren. Oft spielen Wortsätze oder semantische Beziehungen eine Rolle. Es ist jedoch eine Herausforderung, den großen Gelehrtentext als verständliche Ansicht für Benutzer zu visualisieren. Wir schlagen ein interaktives Modell vor, um die Informationen von Wissenschaftlern durch statistische Arbeiten und Clustering-Ergebnisse zu beschreiben. Durch die Anpassung der Parameter werden die unterschiedlichen Interessen der Nutzer berücksichtigt. Und die Schnittstelle ist so konzipiert, dass sie einfach auf Daten zugreifen kann. Unsere Konzeption basiert auf unseren Erfahrungen bei der Gestaltung des Scholar Browsers für eine Universität, der den Beitrag der Fachbereiche und die Themenähnlichkeit zwischen ihnen darstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_356 223703093a60ff5efd04bc83de9c8ccd;de;;;6.1.;;;Logistik-ControllingDer Trend zu immer kürzeren Innovationszyklen wird künftig die Unternehmen dazu veranlassen, eher: zwingen, den Zeitaufwand für alle Leistungen nicht nur genauer zu beobachten und zu steuern, sondern auch mit allen verfügbaren Mitteln und Instrumentarien wesentlich zu verringern. In jüngster Zeit sind die logistischen Leistungen der Unternehmen als kaufentscheidende Faktoren aus Marktsicht in ihrer Bedeutung und Priorität nahe an Qualität und Preis der Produkte gerückt. Die erbrachten logistischen Leistungen bedürfen des Controllings, das per defmitionem Analyse, Steuerung und Planungsansätze zur Verbesserung der Wirtschaftlichkeit der Aktivitäten umfaßt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-91599-3_6 2432142c6ecdcdad134d6317736cadcf;de;;;6.1.;;;Begriffliche BestandsaufnahmeDie Begriffe Zivilgesellschaft, zivilgesellschaftliche Organisation und Web 2.0 bedürfen einer Klärung, da sie in unterschiedlicher Art und Weise genutzt werden und somit leicht Missverständnisse aufkommen können. Aus diesem Grund wird zunächst die Genese des heutigen Verständnisses von Zivilgesellschaft beschrieben und die in ihr verorteten Organisationen definiert (Kapitel 2.1), wobei anhand des Forschungsstands eine Systematisierung zivilgesellschaftlicher Organisationen erarbeitet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-21433-3_2 065c11efc789b943eb094d764b2a2f58;de;;;6.1.;;;Wir sind die Besten: Warum tolle Teams dumme Fehler machenPeer Streit, Oberstleutnant der Bundeswehr und Bundeswehrpilot, gibt Auskunft darüber, wie Selbstüberschätzung im Team zu Fehlern führt und wie möglichst abgewogene Entscheidungen im Team erreicht werden können. Wir stellen dar, wie Gruppendenken und Stress die Wahrscheinlichkeit von Fehlentscheidungen erhöht, dass Gruppen risikoreichere Entscheidungen treffen als Einzelne, und was man dagegen tun kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-62054-0_6 0793173ba184a70867520c86bf509373;de;;;6.1.;;;Informationstechnologie als Wegbereiter für Geschäftsprozesse im Smart MarketDie Energieversorgungsbranche ist mitten im Umbruch. Die Substitution konventioneller Stromproduktion durch dezentrale, oft regenerative Produktionsanlagen und die damit verbundene Veränderung des klassischen EVU-Geschäftsmodells bezeichnen Experten als die größte Herausforderung in der 140-jährigen Branchengeschichte. Worin liegt die Herausforderung und wie können EVU diesen Veränderungen begegnen, um auch zukünftig eine wichtige und profitable Rolle in einem Smart Market einzunehmen? Antworten auf diese Fragestellungen mit besonderem Fokus auf die Bedeutung der Informationstechnologie als „Ermöglicher“ neuer Geschäftsmodelle sind Gegenstand dieser Abhandlung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-02778-0_21 1ca4966c85f4f82d857dec7b15a04282;de;;;6.1.;;;Die transparente Verwaltung eines demokratischen RechtsstaatsAus verfassungstheoretischer Perspektive ist die Erforderlichkeit der staatlichen Beteiligung am Prozess der politischen Willensbildung vielfach beschrieben worden. Die Begriffe „Rechtsstaat“ und „Demokratie“ haben zwar einen Kerninhalt, der von allen geteilt wird, in den Definitionen bestehen allerdings Divergenzen. In der österreichischen Verfassungsordnung werden das rechtsstaatliche und das demokratische Prinzip aufeinander bezogen und miteinander verschränkt, sie sind „benachbarte Säulen des modernen Verfassungsstaates“.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-211-69387-2_5 fb22ec5aef285190ca4bc96c7805b867;de;;;2.2.;;;Integration von Farbe, Textur und räumlichen Merkmalen für die Bildinterpretation In diesem Papier stellen wir einen Ansatz vor, um die regionenbasierte semantische Bildinterpretation und den Abrufprozess in Farbbildern aus einer Bilddatenbank zu erreichen. Dieses System umfasst die Merkmalsextraktion der Region, den Indexierungsprozess, die Konstruktion von linguistischen Inferenzregeln sowie eine semantische Beschreibung des Regionsbildes. Basierend auf diesen Merkmalen kann jede von Menschen markierte Regionen in einem Bild durch eine entsprechende linguistische Bedeutung beschrieben werden. Das Hauptverfahren besteht aus zwei Teilen: Verfahren 1 (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30541-5_41 d6c165ffb2ba5b5778e68d3d4ee459b4;de;;;2.2.;;;Interpretation der Beugungsinformationen Die Interpretation von Beugungsinformationen, die durch die Wechselwirkung zwischen Elektron und Probe erzeugt werden, wird in diesem Kapitel und in Anhang A diskutiert. Die Erzeugung und Sammlung von Beugungsdaten wurde in früheren Kapiteln diskutiert, aber das gegenwärtige Interesse gilt den Informationen, die über die Probe erhalten werden , wobei das Ziel von Elektronenstrahltechniken darin besteht, detaillierte strukturelle und chemische Informationen aus definierten Bereichen der Probe zu erhalten. Es sollte klar sein, dass viele der in den Kapiteln 4-6 diskutierten Signale aus demselben definierten Bereich der Probe gewonnen werden können, und dies ist einer der wichtigsten Faktoren für den Erfolg von Elektronenstrahlinstrumenten.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-5540-0_4 f32fb12c4b8e088265742d595be1e8cc;de;;;6.1.;;;EDV-Dokumentation in AugsburgDie EDV in der Gefäßchirurgischen Klinik Augsburg beruht auf der relationalen Datenbank-Software Dataease. Nachdem eine von S. Gupta, New York entwickelte Eingabeform sich als zu umfangreich erwies, wurden kleinere, operationsbe-zogene Masken erstellt, die sich bewährt haben. Für eine umfassende Datenverarbeitung sind jedoch Voraussetzungen wie Netzwerkbetrieb, on line Ein- und Ausgabe und Personalschulung erforderlich. Ziel ist neben der medizinischen Auswertung und Qualitätskontrolle die Bewältigung sämtlicher anfallender Klinikroutinen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-78145-2_288 c17613828ef327ee900f1e321572f8bf;de;;;2.2.;;;Agilität trifft Systems Engineering: Ein Katalog von Erfolgsfaktoren aus der Industriepraxis Agile Softwareentwicklungsmethoden sind in softwaredominierten Branchen weithin akzeptiert und geschätzt. In komplexeren Setups wie der multidisziplinären Systementwicklung ist die Einführung eines agilen Entwicklungsparadigmas viel weniger einfach. Größere Teams, längere Entwicklungszyklen, Prozess- und Produktstandard-Compliance sowie mangelnde Flexibilität bei Produkten erschweren ein agiles Verhalten. Dieses Papier konzentriert sich auf das grundlegende Problem des Umgangs mit dem ständigen Wandel und präsentiert einen agilen Systems-Engineering-Ansatz als mögliche Lösung. Dazu wurde ein generisches Systems-Engineering-Aktionsmodell unter Berücksichtigung agiler Prinzipien weiterentwickelt und an die in einer empirischen Studie ermittelten praktischen Bedürfnisse angepasst. Diese Studie wurde von den Partnern der agilen Arbeitsgruppe S2QI durchgeführt, die sich aus Experten der Automobil-, Logistik- und Elektronikindustrie zusammensetzt. Neben einem agilen Systems-Engineering-Aktionsmodell ist eine Liste von 15 praktischen Erfolgsfaktoren, die beim Einsatz eines agilen Systems-Engineering-Ansatzes berücksichtigt werden sollten, eines der wichtigsten Ergebnisse dieser Umfrage. Es wurde auch festgestellt, dass ein agiles Verhalten im Systems Engineering in vielen verschiedenen Bereichen innerhalb von Unternehmen unterstützt werden kann. Diese Bereiche werden aufgelistet und es wird auch gezeigt, wie das agile Handlungsmodell und die agilen Erfolgsfaktoren damit zusammenhängen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15666-3_22 f4cfd8d00e15772de22678177cc7ea08;de;;;2.2.;;;Funktionsanalyse von Enterprise 2.0-Tools: Ein Servicekatalog In den letzten Jahren ist eine neue Klasse integrierter webbasierter Unternehmenstools entstanden, die die Zusammenarbeit im Team und das Wissensmanagement erleichtern. In diesem Papier bieten wir eine detaillierte Analyse ihrer Konzepte und Dienstleistungen. Wir haben die folgenden kommerziellen und Open Source Enterprise 2.0 Tools im Detail untersucht:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19032-2_26 0a0ab34149b21c08ff16b5c596fe4e7f;de;;;2.2.;;;Einfluss der Speichertechnologie auf die Effizienz der Cluster-basierten hochdimensionalen Indexerstellung Der Umfang multimedialer Datensammlungen wächst sehr schnell. Um mit diesem Wachstum fertig zu werden, müssen sich die hochdimensionalen Indexierungsverfahren, die für inhaltsbasierte Multimedia-Wiedergewinnung verwendet werden, elegant an Sekundärspeicher anpassen. Die jüngsten Fortschritte in der Speichertechnologie bedeuten jedoch, dass die Entwickler von Algorithmen jetzt mit einem Spektrum sekundärer Speicherlösungen umgehen müssen, das von traditionellen magnetischen Festplatten bis hin zu hochmodernen Solid State Disks reicht. Wir untersuchen den Einfluss der Speichertechnologie auf eine einfache, prototypische hochdimensionale Indexierungsmethode für die Verarbeitung großer Abfragen. Wir zeigen, dass die Algorithmusimplementierung zwar einen großen Einfluss auf die Leistung der Indexierungsmethode hat, die Wahl der zugrunde liegenden Speichertechnologie jedoch ebenso wichtig ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29023-7_6 27a45f4757bd431cea4e775e9719822a;de;;;2.2.;;;Anreicherung von Produktkatalogen mit Benutzermeinungen Jeden Tag werden auf E-Commerce-Websites viele Meinungen zu Produkten und deren Eigenschaften in Benutzerbewertungen veröffentlicht. Sie sind eine wertvolle Wissensquelle für Hersteller und Kunden. Rezensionen enthalten jedoch oft so viele Informationen, die die menschliche Denkfähigkeit übersteigen und ihre effektive Nutzung behindern. Daher spielen Forscher, die sich mit der Organisation einer großen Zahl von Meinungen zu den Rezensionen im Web befassen, eine wesentliche Rolle. Herkömmliche Zusammenfassungsmethoden gruppieren Meinungen um Aspekte, aber sie neigen dazu, zu viele Aspektgruppen zu generieren, die allgemein und schwer zu interpretieren sind. Wir behaupten, dass die wichtigsten Eigenschaften der Produkte den Attributen in Produktkatalogen entsprechen. Daher sollten diese Attribute den Prozess der Organisation von Meinungen leiten. Dieses Papier präsentiert eine Zusammenfassung eines Ansatzes namens;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-52485-2_17 34b34e06b4f290405b621845a742c043;de;;;2.2.;;;Zur mathematischen Systemtheorie Intuitiv sind Systeme, häufig hierarchisch, Ansammlungen von physischen oder mentalen Objekten, die entweder von der Natur oder von uns zu einem bestimmten Zweck oder aus logischen Gründen nach beobachtbaren und unterscheidbaren „Eigenschaften“ zusammengesetzt sind. Eigenschaften können physikalische oder logische Qualitäten und Größen, Lage im physikalischen Raum, Verhalten in physikalischer Zeit, physikalische oder logische Beziehungen zwischen Objekten sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-6451-8_3 cbf0bb67e49215af6454e42f72cfd75f;de;;;6.1.;;;Kumulieren, Panaschieren, Mehrmandatswahlkreise — mehr Demokratie beim Wahlrecht?In many states of Germany (Länder), voters can cumulate and cross-vote in local elections. That means that they have several votes to distribute amongst parties and candidates. The experiences with these voting systems are quite positive. Many voters use the possibilities which the voting system offers — in small villages up to 90 per cent. Although the voting systems are quite complicated the number of invalid votes increases only slightly. Female candidates have disadvantages in small communities but in cities they normally win more personal votes than competing men. In addition, there are no significant changes in the voter turnout.;-;-;-;https://link.springer.com/article/10.1007/s11619-006-0010-z a0dac1a9bbad3ccd96e89e957cbdb9c7;de;;;6.1.;;;Baustein 3: Einsatz von CRM-Systemen in der WirtschaftsförderungWährend das Informationsmanagement anfänglich insbesondere mit Excel-Datenbanken oder mit speziellen – auf die Belange der Wirtschaftsförderung ausgerichteten – Access-Datenbanken organisiert wurde, werden in jüngerer Zeit zunehmend CRM-Systeme (Customer-Relationship-Management) eingesetzt. Diese stellen in der Regel auf die automatisierte Kundenpflege spezialisierte Datenbanklösungen dar. Die gezielte Kundenansprache, die Pflege der Daten und die Unterstützung des Kontaktmanagements stehen im Mittelpunkt dieser Softwarelösungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-12467-0_4 331eb4597dc473f98aae08a83849b751;de;;;6.1.;;;Mobile-Commerce bei der Helsana: Mobile PrämienerstellungAuf dem Feld der mobilen Technologien sind seit der Einführung von GSM (Global System for Mobile Communications) basierten Sprachnetzen und SMS (Short Message Service) als Datendienst viele Technologien entstanden, ohne sich jedoch wirklich durchsetzen zu können. Die Nutzung von SMS ist dazu im Wesentlichen auf den privaten Gebrauch reduziert. Die Frage nach den Einsatzmöglichkeiten der bestehenden sowie der neuen mobilen Technologien in kundenorientierten Geschäftsprozessen gilt es zu beantworten. Hierzu sind die entsprechenden Prozesse zu identifizieren sowie passende Geschäftsmodelle zu entwickeln und mit entsprechenden Kennzahlen für die Messung der Performance zu versehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-10718-7_20 776a7f59ed4a4485f746d8e6dac71df7;de;;;6.1.;;;Die Referenzarchitektur für das objektorientierte EDM-SystemFür die Unterstützung von teamorientierten Organisationsformen in E&K entlang ihrer Leistungsprozesse wird die folgende ooEDMS-Referenzarchitektur beschrieben (vgl Bild 67).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-47906-9_5 cf53b10cf37cc5eb210df46a7d8a7c20;de;;;6.1.;;;Service Oriented PlatformViele Organisationen befinden sich heute in der Situation, dass sie eine zunehmend komplexe IT-Umgebung immer kostengünstiger unterstützen und weiterentwickeln müssen. Dabei müssen neue Technologien integriert und alte weiterhin unterstützt werden. Von der Infrastruktur wird heute erwartet, dass sie ihre Fähigkeiten als „Service“ der ganzen Organisation zur Verfügung stellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71872-7_6 bd9b9953f5a91bacb69e8c06e9352613;de;;;6.1.;;;Service Engineering — Entwicklungspfad und Bild einer jungen DisziplinService Engineering ist eine junge Disziplin in Praxis und Forschung. Seit Mitte der neunziger Jahre wird der sich zunehmend etablierende Begriff „Service Engineering“ regelmäßig und konsequent in Deutschland sowie international verwendet. Der folgende Beitrag zeigt die Hintergründe zur Entstehung und Entwicklung der Disziplin Service Engineering sowie über ihre inhaltliche Ausrichtung auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-09871-4_4 c40932a34905e3fdf9f04a4af27d0370;de;;;6.1.;;;Rammjungfern, Teichmönche und Verjüngungshiebe – von genormter Terminologie und TerminologienormungDer für die terminologische Grundsatznormung zuständige nationale DIN-Normenausschuss Terminologie (NAT) und der internationale Normenausschuss ISO/TC 37 (Language and Terminology) haben viele Grundsatznormen entwickelt, die sich mit den theoretischen und anwendungsorientierten Aspekten der Terminologiearbeit, mit der Modellierung von Terminologiedatenbanken sowie mit dem Austausch von terminologischen Daten beschäftigen. Berücksichtigt man die in diesen terminologischen Grundsatznormen festgelegten Prinzipien, Methoden und Formate für die Terminologiearbeit und die IT-basierte Terminologieverwaltung, so schafft man eine solide Basis für eine gute und konsistente fachgebiets- und unternehmensspezifische Terminologiesammlung, die je nach Zielsetzung ein- oder mehrsprachig sein kann. Darüber hinaus helfen die terminologischen Einzelnormen in den einzelnen Fachdisziplinen sowie die in den jeweiligen Sachnormen festgelegten Begriffe und Benennungen Technischen Redakteuren, Übersetzern und allen Experten, die in ihrer Disziplin Texte mit fachlichen Inhalten erstellen, bei der Klärung, Nutzung, Erarbeitung und Festlegung des jeweiligen Fachwortschatzes. DIN stellt diese Terminologie aus nationalen Normen und ihren europäischen sowie internationalen Paralleldokumenten über das DIN-TERMinologieportal kostenfrei zur Verfügung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-58949-6_8 1a01ac5004da9fa4150443e3c40716c2;de;;;6.1.;;;Medizinische RegisterTraditionell werden Register als Instrumente derepidemiologischen Forschung verstanden. In jüngererVergangenheit treten zahlreiche neue Aufgaben aus dem Bereichder Qualitätssicherung und der Versorgungsforschung hinzu. Indem Maß, in dem Register definierte Zielpopulationen vollständigund repräsentativ abbilden,werden sie zum ergänzendenSpiegelbild der an spezifischen Fragestellungen orientiertenepidemiologischen und klinischen Studien mit ausgewähltenStudienpopulationen. Dabei können sie von der etabliertenMethodik geplanter Studien profitieren, z. B. im Bereich derStichprobenplanung. Um dem vergrößerten Aufgabenspektrum gerechtzu werden, müssen Register gesteigerten methodischenAnforderungen genügen. Die Organisation und das Datenmanagementsollten sich an den Anforderungen orientieren, die fürrandomisierte kontrollierte Studien selbstverständlich gewordensind. Bei der Auswertung ist eine über die Grundauszählunghinausgehende komplexe statistische Modellbildung unbedingterforderlich, um die unausweichlichen Probleme mit der internenValidität von Vergleichen innerhalb von Registern zu minimieren.Erfüllen Register diese Voraussetzungen, so sind sie wertvolledurch keine anderen Instrumente zu ersetzende aktuelleInformationsquellen über die Ausbreitung von Krankheiten undRisikofaktoren. Sie enthalten zudem Informationen über dieVerbreitung und praktische Bewährung von präventiven Maßnahmenund Therapien, deren allgemeine Wirksamkeit allerdings durchrandomisierte kontrollierte Studien belegt sein sollte.;-;-;-;https://link.springer.com/article/10.1007/s00103-004-0828-1 7fdad5fa4ace016dedd253facf1d53aa;de;;;6.1.;;;Virtuelle Gemeinschaften als sozio-technische SystemeDas vorliegende Kapitel beschäftigt sich mit Virtuellen Gemeinschaften (synonym hierzu werden in der Literatur Online Gemeinschaft, Cyber Community, Virtual Community, Online Community, oder weitere Kombinationen der Begrifflichkeiten verwandt) als sozio-technischen Systemen. Zur Annäherung an das Forschungsobjekt wird zunächst auf die Semantik der beiden Wörter eingegangen. Aufgrund der uneinheitlichen, mitunter inflationären Verwendung des Begriffs der Virtuellen Gemeinschaft in Literatur und Praxis wird zunächst ein kurzer Überblick über verschiedene Definitions- und Kategorisierungsansätze aus unterschiedlichen Disziplinen gegeben. Daran anschließend wird auf Potenziale und Grenzen und schließlich auf die informationstechnischen Grundlagen von Virtuellen Gemeinschaften eingegangen. Diese technische Infrastruktur mit diversen Diensten und Funktionalitäten wird auch als Community-Plattform bezeichnet. Synonym hierzu werden in der Literatur auch die Begriffe Community-Systeme, Community Support Systeme oder Community Ware verwandt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-81860-7_3 63546b87a189e2180890c2ebdde0ebf8;de;;;6.1.;;;Auswahl und Einführung von SCM-SoftwaresystemenDie SCM-Philosophie beschäftigt sich nicht nur mit dem Management und der Optimierung der internen Prozesse und Abläufe eines Unternehmens: Sie hat das Management und die Optimierung des ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17057-7_2 9848512aa97ec2cb16410decdfbedd5d;de;;;6.1.;;;Partizipative Formen und FormateNutzer können online grundsätzlich zwei Dinge tun: erstens Vorgegebenes abrufen, das heißt: mit einem Server interagieren (siehe das vorige Kapitel), zweitens mit anderen Nutzern sowie der Online-Redaktion interagieren. Die Formen, bei denen die Kommunikation mit anderen Nutzern im Vordergrund steht, nenne ich die ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-29664-3_6 6bc7e71a1b1f13b4ad651bfe659dd6ed;de;;;2.2.;;;Probabilistisches XML: Modelle und Komplexität Datenunsicherheit entsteht natürlich bei verschiedenen Anwendungen, wie beispielsweise der Datenintegration und der Extraktion von Webinformationen. Probabilistisches XML ist eines der Konzepte, die vorgeschlagen wurden, um verschiedene Arten von unsicheren Daten zu modellieren und zu verwalten. Im Wesentlichen ist ein probabilistisches XML-Dokument eine kompakte Darstellung einer Wahrscheinlichkeitsverteilung über gewöhnliche XML-Dokumente. Verschiedene Modelle von probabilistischem XML bieten verschiedene Sprachen mit unterschiedlichem Grad an Ausdruckskraft für solche kompakten Darstellungen. Über die Darstellung hinaus wird von probabilistischen XML-Systemen erwartet, dass sie das Datenmanagement in einer Weise unterstützen, die die Unsicherheit angemessen widerspiegelt. Beispielsweise beinhaltet die Abfrageauswertung probabilistische Inferenz, und Aktualisierungsoperationen müssen den gesamten Wahrscheinlichkeitsraum richtig ändern. Aufgaben des Datenmanagements auf diese Weise effizient und effektiv zu bewältigen, ist eine große technische Herausforderung. Dieses Kapitel gibt einen Überblick über die Literatur zu probabilistischem XML. In diesem Kapitel werden insbesondere die vorgeschlagenen probabilistischen XML-Modelle und die darin enthaltene Komplexität der Abfrageauswertung erörtert. Außerdem werden andere Aufgaben des Datenmanagements wie Updates und Komprimierung sowie systemische und Implementierungsaspekte erörtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37509-5_3 9f1b725fb76c7a40f2dea544b2fc4cec;de;;;6.1.;;;To be connected — or not to be: Polaritäten einer globalen InformationsgesellschaftKeine technologische Neuerung hat mehr Hoffnungen auf Globalisierungspotentiale geweckt als das Internet. Bei der weltweiten digitalen Vernetzung geht es allerdings nicht nur darum, Informations- und Kommunikationsgrenzen zu überwinden. Mit fortschreitender Vernetzung manifestieren sich auch Entwürfe einer neuen Welt, einer globalen Internetkultur, in der jeder jederzeit Anschluss an jeden und alles findet. Die Platinen und Prozessoren der Computerchips werden zu Nervenzellen und Synapsen eines „Global Brain“.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-07898-2_4 82b47c57e265e5912ca9e6c7154061bb;de;;;6.1.;;;Gesamtresümee und AbschlusskontrolleDie kommunale Wirtschaftsförderung steht aufgrund der wirtschaftlichen und gesellschaftlichen Entwicklungen der letzten Jahre vor deutlich gestiegenen Herausforderungen. Die zunehmende Globalisierung der Wirtschaftsprozesse führt dazu, dass die Einflussmöglichkeiten der lokalen und regionalen Wirtschaftsförderungseinrichtungen auf die Entscheidungsprozesse der ansässigen Unternehmen weiter abnehmen. Gleichzeitig haben sich die Standortanforderungen der Unternehmen im letzten Jahrzehnt ebenfalls in hohem Maße geändert. Waren früher harte Standortfaktoren wie Verkehrsanbindung und Flächenverfügbarkeit für die Standortentscheidung die bedeutendsten Faktoren, werden von den Unternehmen heute vor allem die Verfügbarkeit von qualifizierten Arbeitskräften und die Breitbandverfügbarkeit als die mit Abstand wichtigsten Standortfaktoren betont. Beide Faktoren liegen in Tätigkeitsfeldern, die bisher nicht unbedingt zu den klassischen Aufgabenbereichen der Wirtschaftsförderung liegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-12467-0_9 17cbe46b5648bb138e872bbc1453f4bd;de;;;6.1.;;;Business Intelligence: Aus Daten systematisch Wissen entwickelnFundiertes Wissen über Kunden, Konkurrenz und technologische Entwicklungen ist heute zum wichtigsten Aktivposten der Unternehmen geworden. Wenn nun die Anforderungen durch Ausweitung und Beschleunigung des Unternehmensumfeldes drastisch zunehmen, dann muß auch die methoden-und instrumentenbezogene Unterstützung weiterentwickelt werden. Die Qualität der Entscheidungsfindung und Wissesent-wicklung kann nur dann gewährleistet werden, wenn dem Anwender über die Bereitstellung von Daten hinaus auch intelligente Instrumente und Infrastrukturen zur Verfügung gestellt werden. Nur so kann er Beziehungen und Muster in den „Datenbergen“ erkennen. Vor diesem Hintergrund zeigt der Artikel, wie mit Hilfe von Business Intelligence durch das Zusammenspiel von Mensch und moderner Informationstechnologie die Wissensschätze im Unternehmen sowie in seinem Umfeld gehoben werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-58692-7_10 b3ff48a7f11654b2667c3d7f10d53d92;de;;;6.1.;;;Baustein 2: Einsatz von Informationssystemen in der WirtschaftsförderungDie kommunalen Wirtschaftsförderer verstehen sich zunehmend als Dienstleister für die lokale Wirtschaft und die Bürgerschaft. Die ansässigen Unternehmen werden zum „Kunden“ der Wirtschaftsförderung, deren Dienstleistungsangebote auf die Bedürfnisse ihrer Klientel ausgerichtet werden müssen. Die kundenorientierte Strategie wird nur funktionieren, wenn ein intensiver Dialog zwischen der Verwaltung und den Unternehmen aufgebaut wird. Dieser Dialog und die gezielte Ansprache der Unternehmen kann nur mit den Mitteln eines modernen Informationsmanagements erreicht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-12467-0_3 731fd14d8f051b1cf327e2e9237b10c2;de;;;2.2.;;;Erkennungs- und Lokalisierungstechniken Nachdem eine Beschreibung der Szene auf Merkmalsebene erhalten wurde, besteht der nächste Schritt darin, diese Merkmale mit denen abzugleichen, die aus der internen Darstellung der Objektmodelle berechnet wurden. Der Abgleich hat einen zweifachen Zweck: erstens die Merkmale in der Szene als Instanz eines Objektmodells zu kennzeichnen und zweitens die Position und Orientierung des Objekts in der Szene in Bezug auf einen Referenzkoordinatenrahmen zu bestimmen . Der Prozess der Kennzeichnung von Szenenmerkmalen als aus einem bestimmten Objektmodell hervorgegangen, wird als . bezeichnet;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-68213-4_5 94db0799512fb4fbce746fa2d37d94e2;de;;;6.1.;;;Betriebswirtschaftslehre und Interessenkonflikte: Zum potentiellen Einfluss der Wirtschaft auf Forschung und LehreVersteht man die Betriebswirtschaftslehre (BWL) als Erfahrungswissenschaft, dann ist ihr Erkenntnisziel die Findung von möglichst wahren und gehaltvollen Aussagen über ihren Gegenstandsbereich. In Anlehnung an Schneider kann dieser z.B. gekennzeichnet werden durch individuelle Entscheidungen, welche auf Einkommenserzielung und –verwendung unter Berücksichtigung von Unsicherheit gerichtet sind und die durch Institutionen koordiniert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-09599-4_29 12b1c8c8fd2c6958e92a584a5c94071a;de;;;6.1.;;;Vom Grenz- zum AktionsraumOberfranken hatte immer um eine gute Zukunft zu ringen – nach innen wie nach außen. Eine lange und vielfältige gewerbliche Tradition macht Oberfranken zu einem in Deutschland ebenso wie international bekannten und anerkannten Standortraum für Unternehmen der Entwicklung und Produktion hochqualitativer Produkte. Sowohl die Konsum- als auch die Investitionsgüterindustrie sind gut vertreten. Von der Glas- und Porzellanindustrie im östlichen Oberfranken über die Textil- und Bekleidungswirtschaft, die Nahrungs- und Genussmittelhersteller bis zu den Korb- und Spielzeugmachern im Westen – Oberfranken vereint das ganze Spektrum gewerblicher und handwerklicher Berufe und Produkte. Die industrielle Tradition sowie die Weiterentwicklung der Produkte und Verfahren haben Oberfranken insgesamt vorangebracht.;-;-;-;https://link.springer.com/article/10.1007/s00548-007-0043-z 677393e7b845b828b3240653182c7219;de;;;6.1.;;;Organisatorische Anforderungen des Electronic Business an die betriebliche DatenverarbeitungZu den Folgerungen die aus der technischen Entwicklung zu ziehen sind, werden im Allgemeinen nicht nur standige Anpassungen von Hardware, Software und Netztechnik gehoren sondern auch laufend neue Ausbildungsprojekte fir die Mitarbeiter. Weil die Datenverarbeitungs-und -ubertragungstechnik nicht nur - wie im alten Rechenzentrum - von Fall zu Fall eingesetztes Werkzeug ist, sondern inharenter Bestandteil aller Bereiche des Unternehmens, ist die Ausbildung und laufende Weiterbildung aller Mitarbeiter in allen relevanten Gebieten dieser Technik unumganglich. Hierbei wird das eben genannte Rechenzentrum durch seine Beteiligung ebenfalls eine Schhisselrolle ubernehmen mfissen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-57496-2_15 6497de9346b761952a13d5413078007c;de;;;6.1.;;;SystemsoftwareIn den vorausgehenden Kapiteln wurden die einzelnen Hardwarekomponenten eines PCs beschrieben. Obwohl dabei stellenweise auch schon auf die zu deren Betrieb benötigte Software eingegangen wurde, fehlt noch eine vollständige Darstellung dieser so genannten ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16812-3_8 4b84a3ebe303fdc24ea7095a8545378d;de;;;6.1.;;;CSR, Nachhaltigkeit und Controlling – Zwischen Praxislücke und ForschungskonzeptenEine nachhaltige Entwicklung von Wirtschaft und Gesellschaft erfordert eine nachhaltige Entwicklung von Unternehmen und damit eine Berücksichtigung von Nachhaltigkeit in Managemententscheidungen. Die Nachhaltigkeit von Managemententscheidungen wird wiederum von den vorliegenden Informationen mitbeeinflusst und wie gut Nachhaltigkeit von den wichtigsten Informationssystemen, dem Rechnungswesen und dem Controlling, aufgegriffen wird. Besonders für den Umsetzungsprozess von Nachhaltigkeitsstrategien und die Steuerung operativer Maßnahmen könnte eine gute Unterstützung durch das Controlling deren Wirksamkeit und Effizienz erhöhen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-47702-1_4 1c06fc8a2ee2ea5611913c56d5b8ad20;de;;;6.1.;;;Die „smarte“ Revolution der EnergiemärkteDer Energiemarkt steht nach Meinung vieler Experten vor einer Umbruchsituation, die man als „smarte“ Revolution bezeichnen könnte. Dies hat zwei Ursachen, die „Energiewende“ und die rasanten Fortschritte im Bereich der Informationstechnologien im Energiebereich. Im Rahmen des Artikels wird analysiert, wie sich die Energiemärkte in den nächsten Jahren durch die obigen Trends verändern werden. Dabei wird auf wesentliche Konzepte und Entwicklungen eingegangen, die die Energiemärkte prägen werden. Hierzu gehören Smart Meter, Smart Grids, Smart Home Automation & Value Adding Services, Smart Storage und am Ende auch Smart Market als neue Marktstruktur. Nach einer Beschreibung von wesentlichen rechtlichen Grundlagen wird ferner untersucht, welche „Player“ in Zukunft auf den Energiemärkten tätig sein werden. Neben klassischen Energieversorgern sind dies z. B. Telekommunikations- und Internetunternehmen sowie virtuelle Kraftwerke. Abschließend erfolgt ein Blick ins Silicon Valley, um festzustellen, ob und wie die dort angesiedelten hoch-innovativen Unternehmen derzeit im Energiesektor agieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-07816-4_3 5faa1b9c5aeb5b722c4c493c931f68a8;de;;;6.1.;;;Medienkompetenz: Bildungsaufgabe und ZielkategorieDie zunehmende Mediatisierung des Alltags stellt insbesondere Kinder und Jugendliche, aber auch Erwachsene vor neue, sich ständig wandelnde Herausforderungen. Der kompetente Umgang mit konvergenten Medienangeboten, Technologien und Kommunikationsformen (z. B. E-Mail, Chat, Soziale Netzwerkplattformen, Messenger, Streaming-Dienste etc.) wird mehr denn je zu einer Aufgabe, die es im Kontext allgemeiner Entwicklungs- und Sozialisationsprozesse zu bewältigen gilt. Die genannten technologischen Entwicklungen verweisen darauf, dass Medienkompetenz kein statischer Zustand ist, sondern eine zentrale Aufgabe lebenslangen Lernens.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-19824-4_5 6e38143b4366f70bffb4def1f2bc08bb;de;;;6.1.;;;Supply Chain Management (SCM) mit Nach Schätzungen von Mercer Management Consulting und dem Fraunhofer Institut wird der Wertschöpfungsanteil in der Automobilindustrie von durchschnittlich 35 % im Jahr 2002 auf 23 % im Jahr 2015 sinken ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79515-5_5 47e52a67e9c897c0e0e075e084a3e021;de;;;6.1.;;;Interactive Data Marts — Wege zum anwendungsorientierten Knowledge ManagementDer Beitrag führt einige Probleme heutiger Data Warehouse-Lösungen auf und beschreibt die Anforderungen, die an Data Warehouses gestellt werden. Der pragmatische Ansatz der interaktiven Data Marts wird als erfolgreicher Weg zur Realisierung von anwendungsorientierten Data Warehouses aufgezeigt und in seiner Softwarearchitektur erläutert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-84950-2_13 beff0dda0c020e43a35154bbd96f3d88;de;;;6.1.;;;Das Konzept eines verteilten DatenverwaltungssystemsIn diesern Kapitel wird ein System zur Datenverwaltung in verteilten Rechnersystemen vorgestellt. Es wird Distributed Data Management System (DDMS) genannt. Das Konzept des DDMS spiegelt die Umsetzung der theoretisehen Ausführungen des Modells der verteilten Datenverarbeitung (Kapitel 6) in ein realisierbares System wider. Allerdings wird in diesem Kapitel zunächst nur ein systemunabhängiges Implementierungskonzept für das DDMS vorgeschlagen, im anschließenden achten Kapitel erfolgt die Besehreibung zweier konkreter Implementierungsansätze. Dutch die ausschließliehe Konzentration auf die globale konzeptionelle Gestaltung einer Implementierung kann in diesem Kapitel eine übersichtliche und auf Optimalität ausgerichtete Arehitektur des DDMS präsentiert werden, die Einschränkungen, welche aus der Verwendung bestimmter Hard- oder Softwarebausteine resultieren, nieht berücksichtigen muß.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-75434-0_7 f2bd9e2b23585ffb5f75eb5eedafc4ac;de;;;6.1.;;;Multimediale Welten und ihre jungen BewohnerViele Medien und Formate – ein Gerät. Darauf scheint die Geräteentwicklung hinauszulaufen. Insbesondere die mobil nutzbaren Gadgets sind im Gespräch, unter ihnen prominent das Handy, das sich zu einem Alleskönner mausert, zu einer „eierlegenden Wollmilchsau“ (Kantel, Ertelt 2007, 32).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-07814-0_2 8db1e8da591d6774c079dc811776ef62;de;;;6.1.;;;Patientenverständliche Arztbriefe und BefundePatientenzentrierte Kommunikation spielt eine immer wichtigere Rolle bei der Erreichung einer qualitativ hochwertigen Patientenversorgung. Viele Patienten beklagen sich über eine unzureichende Aufklärung sowie unverständliche Diagnosen und Therapieansätze. Medizinische Patientenakten werden im Wesentlichen für die Kommunikation zwischen behandelnden Ärzten verwendet. Die meisten Patienten möchten jedoch ihre persönlichen Gesundheitsinformationen einschließlich Pathologieberichte, Medikamentenlisten und Laborteste verstehen. Klinische Studien haben gezeigt, dass die Vereinfachung medizinischer Berichte das Verständnis verbessert und die Interaktion zwischen Patient und Arzt optimiert. Diese Daten sollten genutzt werden, um den etablierten Weg der medizinischen Berichterstellung zu verändern und die Bedürfnisse der Patienten hinsichtlich Kommunikation und Aufklärung in den Vordergrund zu stellen.;-;-;-;https://link.springer.com/article/10.1007/s12312-018-0410-7 28755c392efbe5e7764927d9431f13c5;de;;;6.1.;;;Univ.-Prof. Dr.-Ing. Bernd KochendörferGeboren am 08.01.1947 in Mühlacker, Kreis Vaihingen/Enz, damals noch Reg.-Bezirk Nordwürttemberg, bei der späteren Verwaltungsreform nach Nordbaden „zwangsreformiert“ (Schwabe von Geburt und aus Überzeugung).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8351-9091-7_7 5bed797006ed9579662e25523dd3c618;de;;;6.1.;;;Wettbewerbsstrategische Implikationen nachhaltigen Wirtschaftens in der LebensmittelproduktionIn der Fachliteratur zur nachhaltigen Entwicklung werden zum einen zahlreiche Maßnahmen zum nachhaltigen Wirtschaften erörtert. Zum anderen wird die Wahl einer generischen Wettbewerbsstrategie nach Porter in nachhaltig wirtschaftenden Unternehmen diskutiert. Im vorliegenden Beitrag wird diese Diskussion für die Lebensmittelproduktion aufgegriffen und aufgezeigt, inwiefern Maßnahmentypen zum nachhaltigen Wirtschaften mit den generischen Wettbewerbsstrategien kompatibel sind.;-;-;-;https://link.springer.com/article/10.1007/s00550-008-0081-4 b639d0bc9a810467693c5116976acfd8;de;;;2.2.;;;Multimodaler abfragebasierter Ansatz für den Abruf von Dokumentenbildern Das Scannen und Aufbewahren von Dokumenten sind gängige Praxis. Der Abruf solcher Dokumente ist zur Unterstützung der Büroarbeit erforderlich. In diesem Beitrag wird ein neuartiger multimodaler abfragebasierter Ansatz zum Abrufen von Dokumenten unter Verwendung von Text-, Nicht-Text-Inhalten vorgestellt. Diese Arbeit konzentriert sich auf Logos, Stempel, Signaturen für die Nicht-Text-Abfrage sowie Daten und Schlüsselwörter für die Textabfrage zum Abrufen. Der vorgeschlagene Algorithmus heißt als;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4015-8_32 6b0c9bbeb17a98858a80a8b6b8df4d09;de;;;2.2.;;;Parallelisierungsprobleme des domänenspezifischen Frageantwortsystems auf Zelle B.E. Prozessoren Ein Frage-Antwort-System ist eine Anwendung zum Abrufen von Informationen, die es Benutzern ermöglicht, direkt geeignete Antworten auf eine Frage zu erhalten. Um mit einem explosionsartigen Wachstum von Informationen über das Internet und einer erhöhten Anzahl von Verarbeitungsstufen beim Abrufen von Antworten fertig zu werden, ist die Zeit und die Verarbeitungshardware, die für das Frageantwortsystem erforderlich ist, gestiegen. Der Bedarf an Hardware wird derzeit durch die Verbindung von Tausenden von Computern in Clustern gedeckt. Aber auch schnellere und weniger komplexe Alternativen finden sich als Multi-Core-Prozessor. Dieses Papier stellt eine Pionierarbeit vor, indem es die wichtigsten Probleme identifiziert, die bei der Portierung eines allgemeinen Frameworks zur Beantwortung von Fragen auf einen Zellprozessor und deren mögliche Lösungen auftreten. Die Auswertung der Arbeit erfolgt durch die Portierung des Indexierungsalgorithmus unseres biomedizinischen Frageantwortsystems INDOC (Internet Doctor) auf Zellprozessoren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03547-0_39 7cee58b456e16d936a6830f6f778db60;de;;;6.1.;;;Wahlblogs revisited: Nutzung von Weblogs im Bundestagswahlkampf 2009„Hier entsteht eine Internetpräsenz“. Diesen Satz bekamen Internetnutzer zu lesen, die im Bundestagswahlkampf 2005 die URL des Wahlblogs einer etablierten deutschen Partei aufriefen. Viel mehr gab es über weite Strecken des Wahlkampfes nicht zu sehen, doch die Ankündigung klang verheißungsvoll.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-92853-1_7 d891511a7b5f6b16c3f33fa2cfcc16c9;de;;;6.1.;;;Hinter dem Hype – praxisbezogene Anwendungsfälle und Utilisierungspotenziale innovativer TechnologienBig Data, Augmented Reality, Artificial Intelligence, Blockchain – was hat das noch mit Energiewirtschaft zu tun? Nichts. Und doch sehr viel – denn der Einfluss innovativer Technologien auf die Energiewirtschaft ist in den letzten Jahren rapide gewachsen. Mit zunehmender Digitalisierung müssen sich energiewirtschaftliche Marktakteure gleich mehreren neuen Herausforderungen stellen: erhöhtem Wettbewerb aufgrund neuer, branchenfremder Player, effizienterer Prozessausgestaltung, Agilität und Flexibilität bei der Entwicklung neuer, datengetriebener Geschäftsmodelle, Aufbau von technologischer Expertise, Implementierung digitaler Kundenschnittstellen und nicht zuletzt der Umsetzung von Cyber-Security-Anforderungen. Anhand praktischer Beispiele potenzieller Geschäftsmodelle werden konkrete Anwendungsfälle und Utilisierungspotenziale innovativer Technologien kritisch betrachtet und Handlungsempfehlungen ausgesprochen. Dazu werden zunächst die Herausforderungen und Potenziale einiger ausgewählter Geschäftsmodelle, wie Big Data, Energiemanagementsysteme und Smart Home, beschrieben. Im Schwerpunkt jedoch wird Bezug genommen auf die derzeit „gehyptesten“ innovativen Technologien, wie Augmented Reality und Blockchain, und deren Anwendungspotenziale in der Energiewirtschaft erörtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-25332-5_11 146ef777b399912ea8f0e08212f4128d;de;;;6.1.;;;Komplexe Arbeitswelten in der WissensgesellschaftDie Arbeitswelt zukünftiger Wissensarbeiter wird in zunehmendem Maße durch die Dimensionen Mobilität, Verteiltheit und Kollaboration, sowie explizite Einbettung in Arbeitsziele und Prozesse charakterisiert. Die Anforderungen flexibler, räumlich und zeitlich verteilter, ggf. globaler Arbeitsorganisation einerseits und die technischen Möglichkeiten moderner Informations- und Kommunikationstechnik andererseits führen zu völlig neuen Formen der kooperativen, verteilten und ad hoc organisierten Problemlösung. Wir identifizieren die Herausforderungen und präsentieren die Techniken des Semantic Web als eine erfolgversprechende Basis für deren Lösung.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-29325-6_3 f224bb6ce96ecf8a2562dceeb37b7639;de;;;6.1.;;;Moneybee — Vernetzung künstlicher IntelligenzIn der Informationsgesellschaft fallen immer mehr Daten an, die in EDV-Systemen gespeichert werden. Viele dieser Daten lassen sich wirtschaftlich nutzen — sei es dazu, Wissen zum Beispiel innerhalb eines Unternehmens verfügbar zu machen (Knowledge-Management) oder durch weitere Daten-Auswertungen neues Wissen zu erlangen (Data-Mining). Groβe Rechenkapazitäten braucht man, wenn man aus den Daten Hinweise auf künftige Entwicklungen ziehen möchte. Das ist beispielsweise beim Risiko-Management innerhalb von Unternehmen oder auch bei der Analyse der Entwicklung von Aktienkursen der Fall. Die i42 Informationsmanagement GmbH, Mannheim, hat das System MoneyBee® entwickelt, das mit künstlicher Intelligenz Vorhersagen für Aktienkurse, Börsen-Indizes und Währungen erstellt. Die erforderliche Rechenkapazität stellen angemeldete Nutzer über das Internet (www.moneybee.net) zur Verfügung. Im Gegenzug erhalten sie einen Teil der Daten zur privaten Nutzung. Das Börsenprognosesystem nutzt so die über das Internet vernetzten Rechner als Labor für Entwicklungen, die eine kleinere Firma anders nicht leisten könnte. Die nutzbar gemachte Rechenleistung erreicht inzwischen die Dimension eines Rechenzentrums.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-56176-4_3 b64b6a354159152cf1bd921c4fd17c92;de;;;2.2.;;;Dynamische Generierung adaptiver Webkataloge In diesem Whitepaper werden die Techniken zum dynamischen Generieren personalisierter Webkatalogseiten in einem Prototyp-Toolkit für die Erstellung adaptiver Webshops beschrieben. Wir konzentrieren uns auf die Integration von Personalisierungsstrategien für die Auswahl des Layouts und des Inhalts der Katalogseiten mit Techniken der Natural Language Generation, die verwendet werden, um dynamisch auf den einzelnen Benutzer zugeschnittene Produktbeschreibungen zu erstellen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44595-1_2 65eb726adc4ae0210b5fb94c2f87bd0a;de;;;6.1.;;;Einsatz und Wartung eines wissensbasierten Benutzerführungssystems am Rechenzentrum: Erfahrungen, Problematik aus Sicht des InformationsmanagementsTrotz der vorherrschenden Tendenz, daß selbst komplexe DV-Systeme an Rechenzentren besser beherrschbar und pflegbar geworden sind, kann man davon ausgehen, daß durch die Spezialisierung und Vielfalt der eingesetzten Systeme sich neue Aufgaben des Informationsmanagements am Rechenzentrum ergeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-76758-6_9 67b8cf267ea29091ac89e95205fdc905;de;;;6.1.;;;Datenschutzaspekte in CRM-ProjektenIm Customer Relationship Management lassen sich drei generelle Aufgabenbereiche unterscheiden: das strategische CRM (sCRM), das operative CRM (oCRM) und das analytische CRM (aCRM). Im Bereich des sCRM sind die langfristigen CRM-Ziele und Strategien zu definieren, zu kontrollieren und gegebenenfalls anzupassen. Diese umfassen einerseits die kundengerichteten Dialogstrategien, die mittels der operativen CRMAktivitäten zu verfolgen sind (Hougaard/Bjerre 2002, S. 251 ff.) und andererseits die strukturgerichteten internen Strategien, die auf den Aufbau der gewünschten internen Unternehmenskultur, Prozesse, IT-Systeme und Organisationseinheiten abzielen. Das oCRM umfasst alle operativen Maßnahmen zur Ausgestaltung und Unterstützung der kundenorientierten Geschäftsprozesse, insbesondere in Marketing, Vertrieb und Service. Unter dem Begriff des aCRM werden alle Aufgaben zusammengefasst, die zur Sammlung, Speicherung und Auswertung der Daten notwendig sind und zur Ausrichtung bzw. Kontrolle der Aktivitäten im oCRM sowie zur Entwicklung der Strategien im sCRM benötigt werden (Arndt 2008, S. 53 ff.).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-6618-6_6 4ab779dab850bcdb1317a1fc4cedb1c5;de;;;2.2.;;;Ein verkettetes Signaturschema im Pfadverzeichnis für die Abfrageverarbeitung von zusammengesetzten Objekten Aufgrund der breiten Akzeptanz objektorientierter Datenbanksysteme sind Abfrageverarbeitung und Indizierung zu einem wichtigen Erfolgsfaktor objektorientierter Datenbanksysteme geworden, insbesondere wenn es sich um zusammengesetzte Objekte handelt. Um das Problem anzugehen, schlagen wir ein C-Signatur-Schema vor, das ein kombinierter Ansatz mit dem Pfadverzeichnis ist. Bei den C-Signaturen werden die Signaturen von Objekten in einem Pfad in Verkettung abstrahiert und klassenorientiert gespeichert, um den Suchraum zu reduzieren, vergleichen wir das C-Signatur-Schema mit anderen Indexierungsschemata wie Pfadindex, Pfadverzeichnis , Class-Unit-Signaturen und S-Signaturen. Schließlich kommen wir zu dem Schluss, dass das c-Signatur-Schema signifikante Verbesserungen bei der Abrufoperation zeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-1525-0_5 e04f946d25c21926e8209cf27cc80517;de;;;2.2.;;;Eine Datenbank für sich wiederholende, unvorhersehbare bewegliche Objekte In letzter Zeit wurde viel geforscht in der Anwendung von Datenbanktechnologie zum Verfolgen sich bewegender Objekte. Die meisten Techniken gehen von einer vorhersagbaren linearen Bewegung aus. Wir präsentieren eine neue Anwendung für bewegte Objektdatenbanken, die sich durch repetitive, unvorhersehbare Bewegungen mit sehr hohen Datenraten auszeichnet. Insbesondere wird der Bereich Sport- und Autorennen vorgestellt. Wir haben festgestellt, dass existierende Verfahren für bewegte Objekte diesen Anwendungsbereich nicht ausreichend adressieren. Es wird ein Datenmodell zum effizienten Speichern der Daten präsentiert. Ein raumzeitlicher Index wird zum schnellen Abrufen von Daten entwickelt. Wir geben eine Reihe von Anfragen an, die in diesem Anwendungsbereich wahrscheinlich von Interesse sind. Es wird eine Studie vorgestellt, die zeigt, dass unsere Implementierung eine bessere Leistung aufweist als diejenigen, die auf relationalen DBMS basieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-46146-9_67 fddcc9a246ea0743c6073faae7d977e3;de;;;6.1.;;;Konzept und Evaluierung der Münchner PrüfarztkurseDie zunehmende Bedeutung klinischer Studien und deren hochwertige Realisierung in Deutschland erfordern Prüfärzte, die in entsprechenden Kursen für ihre Tätigkeit qualifiziert wurden. Das Koordinationszentrum für Chirurgische Studien der Universität München hat im November 2007 zum 3. Mal einen Prüfarztkurs durchgeführt und durch die Teilnehmer evaluieren lassen.;-;-;-;https://link.springer.com/article/10.1007/s00104-008-1652-1 bf070ffa45cb04fc666d01789b67232b;de;;;6.1.;;;Analyse und ProblemstellungDie aktuellen Zahlen des Maschinen- und des Automobilbaus im Vergleich zur Bauindustrie, zusammengefasst in Abschnitt 2.1, spiegelt eine hohe Produktivität dieser stationären Industriezweige wider. Die Gründe sind unter anderem die Optimierung der Fertigungsverfahren sowie der Organisationsstrukturen. Um daraus zu lernen und Potenziale für die Bauindustrie ableiten zu können, müssen Gemeinsamkeiten und Unterschiede der beiden Industrien analysiert werden. Für Beispiele und spezielle Vergleiche soll die Automobilindustrie als Vertreter der stationären Industrie in die Betrachtung einfließen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8348-8185-4_2 6175326312d9d097241e94832ccbd4e5;de;;;6.1.;;;Aufbau- und Ablauforganisation des Debitorenratings in einem weltweit agierenden Konzern„Wenn Siemens wüsste, was Siemens weiß“. Diesen häufig zitierten Satz kann man leicht auch für manche Geschäftsbeziehung anwenden, bei der verschiedene Geschäftseinheiten im Konzern Informationen zu einem Kunden gewinnen, ohne diese in systematischer Weise auszutauschen und zu nutzen. Mit dem Aufbau des internen Factorings durch die Siemens Financial Services GmbH (SFS) vor gut 10 Jahren wurden erstmals an zentraler Stelle bonitätsrelevante Daten zu Kunden erfasst und methodisch ausgewertet. Das Bewertungsergebnis führte zu einem „Kundenrating“, das entsprechend bankmäßigem Standard ermittelt und für die Preisfindung beim Factoring herangezogen wurde. Damit erfolgte ein Übergang von einer stark vertriebsorientierten Einschätzung der Bonität eines Kunden in den operativen Geschäftseinheiten hin zu einer nach klaren Kriterien festgelegten Bonitätsbeurteilung durch eine Fachabteilung. Allerdings standen auf beiden Seiten, beim Forderungskäufer wie auch beim Forderungsverkäufer starke eigene Interessen im Vordergrund. Daraus resultierte eine selektive Forderungsauswahl auf beiden Seiten, so dass nicht alle Forderungen des Konzerns angekauft und somit nicht alle Debitoren mit einem Rating bewertet wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-6377-2_5 d9920bfed5367fd3585b3c2942755961;de;;;2.2.;;;Darstellung thematischer Ebenen Heutzutage werden wir oft mit der Aufgabe konfrontiert, große Mengen zweidimensionaler Daten zu verarbeiten, die mehrere Merkmale darstellen. Beispiele finden sich in Anwendungen wie Bilddatenbanken, geografischen Informationssystemen (GIS), wissenschaftlicher Visualisierung und computergestütztem Design. Bisher wurden verschiedene Ansätze vorgestellt, um bestimmte Klassen räumlicher Daten (dh Punkte, Linien, Rechtecke, Volumen und Hypervolumen) zu manipulieren, von denen die beliebtesten Quadtrees, Bintrees [19], R-Bäume, den Zellbaum und die Rasterdatei [9]. Ausführliche Übersichten zum Thema finden interessierte Leser in [2, 4, 16].;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-8636-8_5 0d097b48cb4cc1d64a6e668175a2c79d;de;;;2.2.;;;Konturbasierte Formwiederherstellung In diesem Papier wird eine konturbasierte Indexierungs- und Abrufmethode für inhaltsbasierte Bild-/Video-Suchanwendungen vorgestellt. Es basiert auf dem Extrahieren geschlossener Konturen, dem Glätten der Kontur, dem Indizieren mit einer Variation von BK-Bäumen und der Verwendung einer Drehfunktionsmetrik zum Datenvergleich. Die Methode ist sehr leichtgewichtig, schnell und robust – das Ziel besteht darin, nahezu Echtzeitgeschwindigkeiten für eine echte Anwendbarkeit beizubehalten. Wir liefern Bewertungsdaten, die zeigen, dass die Methode gut und schnell funktioniert und sich für die Aufnahme in inhaltsbasierte Retrievalsysteme als Deskriptor für die Erkennung von Objekten und Formen im Rahmen eignet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17277-9_7 782e85103fbc98d3cb9abd46b56a8574;de;;;6.1.;;;Prototypische Realisierung des EDMS auf der Basis objektorientierter SystemeFür die prototypische Realisierung des ooEDMS wird ein durchgängig objektorientierter Ansatz gewählt. Sowohl die Implementierung der Programme wie auch die Datenhaltung erfolgt objektorientiert. Über die Eigenschaften der Objektorientierung liegen bereits umfangreiche Erkenntnisse vor [SWA91], [MIT89]. In Anhang F sind die wesentlichen Prinzipien zusammengefaßt Für die prototypische Realisierung des ooEDMS wird die Programmiersprache C++ und die Datenbank ObjectStore© verwendet. Die beiden folgenden Kapitel beschreiben kurz die relevanten Implementierungsaspekte. In dem daran anschließenden Anwendungsbeispiel aus dem Anlagenbau wird die Modellierung von Projektteams im ooEDMS sowie von einem Angebotsprozeß demonstriert. Die Darstellung eines Konferenzablaufs vervollständigt das Leistungsprofil des ooEDM-Systems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-47906-9_6 6c001ea4583bca25f67817ef3504434b;de;;;6.1.;;;Teamorientierte OrganisationsformenZiel dieses Kapitels ist die Ermittlung von Anforderungen an EDM-Systeme zur Unterstützung der Zusammenarbeit in teamorientierten Organisationsformen. Diese Anforderungen dienen zum Aufbau eines Bewertungsmaßstabes für den Stand der Technik im darauffolgenden Kapitel.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-47906-9_2 de8766b23e1661f6225764facae77631;de;;;6.1.;;;Gesundheitsressourcen von Fach- und Führungskräften mit wissensbasierten TätigkeitenAls Teilbeitrag einer „applied research“ steht die deskriptive Betrachtung psychischer Belastung von Fach- und Führungskräften mit vorwiegend wissensbasierten Tätigkeiten (z. B. Projektarbeit) im Vordergrund. Die Daten werden aus Beobachtungsinterviews der unternehmensinternen Gefährdungsbeurteilung psychischer Belastung gewonnen. In diesem Beitrag wird zudem die Bedeutung von internal-individuellen, external-sozialen und organisationalen Gesundheitsressourcen zur Tätigkeitsbewältigung hervorgehoben.;-;-;-;https://link.springer.com/article/10.1007/s11553-016-0542-5 f70168a5af8dac31f31cada460c4d8eb;de;;;6.1.;;;Die Bedeutung externer Wirtschaftsinformationen für das Management — Strategien für die wirkungsvolle Nutzung und die Integration in ein Management-InformationssystemDie Nutzung moderner Management-Informationssysteme (MIS) [1] im betrieblichen Produktions- und Dienstleistungsprozeß ist — nach den hochgesteckten Zielen in den Pionierjahren der siebziger Jahre — heute an einem neuen Wendepunkt angelangt. Zunehmende Komplexität neuartiger Fertigungs- und Logistikprozesse, die Globalisierung und Verschärfung des Wettbewerbs sowie die sich immer schneller ändernden externen Einflüsse durch neue Technologien sowie durch rechtliche und politische Rahmenbedingungen verursachen große Anstrengungen in vielen Unternehmen. Diese bleibenden Veränderungen erzwingen insbesondere von mittelständischen Unternehmen eine Neustrukturierung und den rationellen Umgang mit der Ressource Information.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-79701-9_8 4c4a4599a20e82a1fd04d3da35c09a4a;de;;;6.1.;;;Soziale Medien: Funktionen, Praktiken, FormationenDer Beitrag stellt eine Reihe grundlegender Kategorien und Klassifikationen vor, um die Gestalt und den Gebrauch sozialer Medien aus einer sozialwissenschaftlichen Perspektive zu beschreiben. Dazu gehören erstens die grundlegenden Funktionen, die sich über die verschiedenen Gattungen der sozialen Medien hinweg identifizieren lassen. Zweitens werden zentrale Praktiken angesprochen, die das Wechselspiel von individuellem Handeln und rahmenden Strukturen zu erfassen helfen. Drittens werden unterschiedliche Typen von sozialen Formationen vorgestellt, die in den und mithilfe von sozialen Medien entstehen oder sichtbar gemacht werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-03765-9_2 207c5925871954fc2889a4be792b9ffd;de;;;6.1.;;;Rollout-Prozesse –#x2013 Planung, Ausführung, 8IntegrationIn Smart-Metering-Projekten erfordern Rollout-Prozesse besondere Aufmerksamkeit. Die Auswirkungen eines Projekts dieser Größenordnung sind in fast allen Bereicheneines Energieversorgers zu spüren. Neben der umfassenden Planung und Dokumentationaller Rollout-Prozesse, hat die Prozessplanung im Projekt und Unternehmendie Funktion, für Transparenz zu sorgen. Prozessplanung ist ein Kommunikationsprozess,der sich maßgeblich auf die Motivation der Beteiligten und damit auf den Erfolgdes Projekts auswirkt.Die Realität stellt sich häufig anders dar als theoretisch erdachte Prozessmodelle.Rollouts sind personalintensive Maßnahmen, die einen hohen Koordinationsaufwandmit sich bringen und ein nicht zu unterschätzendes finanzielles Risiko in sich bergen.Eine Generalprobe in echten Objekten unter realen Bedingungen hilft das Risiko zuminimieren.Die derzeitige Einmaligkeit von Rollouts täuscht darüber hinweg, dass Rolloutsmassiv das Tagesgeschäft beeinflussen. Tradierte Prozesse müssen erweitert oder aufgebrochenwerden. Neue Prozesse, Aufgaben und Organisationseinheiten entstehen.In Unternehmen bilden sich parallele Prozesswelten, die der Verknüpfung bedürfen.Ein großer Rollout verändert ein Unternehmen dauerhaft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8348-2440-0_8 2aee8f65ed5d9b67219fdf470b0efea2;de;;;6.1.;;;Die Spielregeln in der SoftwareindustrieDie Softwareindustrie unterscheidet sich grundsätzlich von anderen Branchen. Dies ist zum einen auf die spezifischen Eigenschaften des Produkts Software, zum anderen auf die Struktur von Softwaremärkten zurückzuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45589-0_1 d30d74c5f60fb255145c941c26b2556d;de;;;2.2.;;;Die instrumentelle Seismizität der Barents- und Karaseeregion: Verlagerter Ereigniskatalog vom frühen 20. Jahrhundert bis 1989 Wir haben seismische Ereignisse, die in der Barents- und Karaseeregion vom frühen 20. Jahrhundert bis 1989 registriert wurden, verschoben, um einen verschobenen Katalog zu erstellen. Für die Verlagerung sammelten wir alle verfügbaren seismischen Bulletins aus dem globalen Netzwerk mit Daten aus dem ISC Bulletin (International Seismological Centre), dem ISC-GEM-Projekt (International Seismological Centre – Global Earthquake Model), dem EuroSeismos-Projekt und von sowjetischen seismischen Stationen von Geophysical Umfrage der Russischen Akademie der Wissenschaften. Die Ortung wurde durch Anwendung einer modifizierten Methode des generalisierten Beamformings durchgeführt. Wir haben mehrere Reisezeitmodelle in Betracht gezogen und eines mit der besten Standortgenauigkeit für Ground-Truth-Ereignisse ausgewählt. Die Überprüfung der modifizierten Methode und die Auswahl des Reisezeitmodells wurden anhand von Daten von vier nuklearen Explosionen durchgeführt, die sich im Gebiet des Nowaja Semlja-Archipels und im Norden des europäischen Teils Russlands ereigneten. Die modifizierte Methode und das Barents-Reisezeitmodell bieten eine ausreichende Genauigkeit für den Veranstaltungsort in der Region. Das Umsiedlungsverfahren wurde bei 31 von 36 in der Barents- und Karaseeregion registrierten seismischen Ereignissen angewendet.;-;-;-;https://link.springer.com/article/10.1007/s10950-018-9760-y 48173cf6720148633a5c34e6dc4f6f16;de;;;6.1.;;;Abbildung auf bestehende und neue PlattformenBestehende, zu erweiternde und neue Werkzeuge der Gesamtumgebung für verfahrenstechnische Entwicklungsprozesse müssen auf einer geeigneten Plattform realisiert werden. Erschwernisse sind dabei, daß sich Entwicklungsprozesse über lange Zeiträume erstrek- ken, Entwickler an verschiedenen Standorten beteiligt sind und die Werkzeuge auf unterschiedlicher und heterogener Hard-/Software laufen. Bestehende ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-59857-9_8 942b3e4c2efc3706a2d3da10e0491e2f;de;;;6.1.;;;E-Commerce als Chance zur Optimierung der Prozesse zwischen Industrie und HandelDie Optimierung der Prozessabläufe ist traditionell ein wesentliches Instrument innerbetrieblicher Kostensenkungs- und Rationalisierungsvorhaben. Neuei Erkenntnisse werden dazu verwendet, Arbeitsabläufe neu zu definieren, Schnittstellen zu vereinfachen bzw. zu beseitigen und Organisationsstrukturen den veränderten Prozessen anzupassen. Oftmals bilden neue Technologien hierbei den Ausgangspunkt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-01548-2_19 c4df228828c26d97db32ba70629929c5;de;;;2.2.;;;Das BIRD-Nummerierungsschema für XML- und Baumdatenbanken – Baumbeziehungen mit effizienten arithmetischen Operationen erkennen und rekonstruieren Dieses Papier stellt die BIRD-Familie von Nummerierungsschemata für Baumdatenbanken vor, die auf einer strukturellen Zusammenfassung wie dem DataGuide basiert. Angesichts der BIRD-IDs zweier Datenbankknoten und der entsprechenden Knoten in der Strukturzusammenfassung wir;-;-;-;https://link.springer.com/chapter/10.1007/11547273_5 f4ba155dee9cf41fbf203d17a0ca685f;de;;;2.2.;;;Die Erforschung des aktuellen Konzepts des Dokumentenclusters basierend auf neuronalen Netzen Heutzutage wird die Dokumenten-Clustering-Technologie in Text-Mining, Informations-Retrieval-Systemen usw. umfassend verwendet. Die Eingabe des Netzwerks ist das Schlüsselproblem für ein aktuelles Konzept, das das neuronale Netzwerk verwendet. Dieses Papier stellt ein Eingabemodell des neuronalen Netzes vor, das die gegenseitigen Informationen zwischen kontextbezogenen Wörtern und mehrdeutigen Wörtern berechnet, indem es statistische Methoden verwendet und die kontextbezogenen Wörter auf eine bestimmte Zahl neben dem thematischen Konzept gemäß (-M, +N) nimmt. In diesem Whitepaper stellen wir eine neuartige Methode zum Clustering von aktuellen Dokumenten vor, die als Document Characters Indexing Clustering (DCIC) bezeichnet wird und mit der Themen genau identifiziert und Dokumente nach diesen Themen gruppiert werden können. In DCIC werden „topic elements“ definiert und extrahiert, um Basiscluster zu indizieren. Zusätzlich werden Dokumentzeichen untersucht und ausgenutzt. Experimentelle Ergebnisse zeigen, dass DCIC basierend auf BP Neural Networks-Modellen eine höhere Präzision (92,76 %) erreichen kann als einige weit verbreitete traditionelle Clustering-Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12436-0_69 f72e0d3f4172f37e6179a9f3524c0321;de;;;2.2.;;;Kontextbasierter Empfehlungsdienst im Ubiquitous Commerce Da der allgegenwärtige Handel kommt, wächst das Interesse an Personalisierungsdiensten. Und auch die Empfehlungsmethode, die den Kunden nützliche Informationen bietet, wird immer wichtiger. Die bisherigen Methoden sind jedoch methodenabhängig und auf den E-Commerce beschränkt. Für die Anwendung dieser Empfehlungsmethoden auf den U-Commerce schlagen wir eine Modellierungstechnik von Kontextinformationen in Bezug auf die persönliche Aktivierung in kommerziellen Transaktionen vor und zeigen eine inkrementelle Präferenzanalysemethode unter Verwendung eines Präferenzbaums, der in jedem Schritt eng mit der Empfehlungsmethode verbunden ist. Außerdem verwenden wir eine XML-Indexierungstechnik, um die Empfehlungsinformationen effizient aus einem Präferenzbaum zu extrahieren.;-;-;-;https://link.springer.com/chapter/10.1007/11424826_104 f75b42f51cc4584f53699046df7dd388;de;;;6.1.;;;Analyse der IT-Unterstützung des Supplier Relationship ManagementDie Umsetzung aktueller Managementkonzepte wie Customer und Supplier Relationship Management (CRM, SRM) erfordert eine systematische Analyse, inwieweit die jeweiligen Konzepte durch die bestehenden Anwendungssysteme eines Unternehmens unterstützt werden. Zur methodischen Bewerkstelligung dieser Aufgabe wird ein Vorgehen vorgestellt, das als instrumentale Basis Ordnungsrahmen verwendet. Mittels Ordnungsrahmen wird dabei die gegenwärtige Abdeckung der von den Managementkonzepten vorgegebenen Funktionalität analysiert. Die Analyse liefert Hinweise auf notwendige Detailuntersuchungen, die sich in Form des Ordnungsrahmens besonders anschaulich kommunizieren lassen. Die Anwendung dieses Vorgehens wird am Fallbeispiel der BASF Coatings AG illustriert. Die Analyse hat dabei wesentliche Perspektiven für die Weiterentwicklung der Anwendungssystemarchitektur des Unternehmens aufgezeigt.;-;-;-;https://link.springer.com/article/10.1007/BF03341176 f42fc46528819510c1f92005349c6583;de;;;6.1.;;;Hochwasser kennt keine Grenzen Transnationale Zusammenarbeit in den Flussgebieten von Oder und ElbeIn den Flusseinzugsgebieten der Oder und der Elbe tragen die beiden INTERREG III B CADSES Projekte ELLA und OderRegio zum vorsorgenden Hochwasserschutz bei, indem vor allem die notwendigen Beiträge der Raumordnung verbessert und stärker in die Vorsorgestrategien integriert werden. Ferner erzielen sie wichtige Fortschritte beim Aufbau transnationaler Raumordnungsnetzwerke. An den Projekten sind zahlreiche Planungsbehörden aus den Einzugsgebieten als Projektpartner beteiligt. Innerhalb der beiden Projekte, die eine ähnliche Zielsetzung – allerdings unter verschiedenen Gegebenheiten der Einzugsgebiete – aufweisen, wird die transnationale Zusammenarbeit im Einzugsgebiet verbessert. Dazu werden grenzübergreifende Gefahrenkarten erarbeitet und der Planung zur Verfügung gestellt. Regionale Raumplanungsorganisationen der Oberlieger und Unterlieger entwickeln gemeinsam Strategien und bereiten deren Umsetzung vor. Ein besonderes Augenmerk wird dabei auf die Erhöhung des Problembewusstseins gelegt. Auf Ebene der Regionalplanung wird der Umgang mit Hochwasserschutzbelangen verbessert, schließlich werden kommunale Managementkonzepte aufgebaut. Damit unterstützen die Projektpartner die Ziele für die Raumentwicklungspolitik hinsichtlich der Hochwasservorsorge auf europäischer Ebene und antizipieren bereits heute zentrale künftige Anforderungen der EU-Hochwasserrichtlinie. Eine langfristige Fortsetzung der Kooperationen scheint notwendig, um die weitgesteckten Ziele und messbare Erfolge zu erreichen.;-;-;-;https://link.springer.com/article/10.1007/s00548-006-0324-y 1451762de3551edec08727f82c382591;de;;;6.1.;;;Ein Lebenszyklusmodell für IT-Lösungen aus Sicht kleiner und mittelständischer AnbieterKleine und mittelständische IT-Unternehmen treten zunehmend als Lösungsanbieter auf. Als solche müssen sie Leistungen anbieten, die kundenindividuell gestaltet und über den Lebenszyklus betrieben werden. Der dabei entstehende Koordinations-, Integrations- und Organisationsaufwand führt zu einer hohen Komplexität bei der Erbringung von IT-Lösungen. Hierzu wird ein Modell vorgestellt, das die notwendigen Aktivitäten eines Lösungsanbieters anhand des Lebenszyklus von IT-Lösungen strukturiert. Der Fokus liegt insbesondere auf der Integration von selbst entwickelten und fremdbezogenen Leistungskomponenten als einer typischen Anforderung kleiner und mittelständischer Anbieter.;-;-;-;https://link.springer.com/article/10.1007/BF03340698 15e9619bfb4c7e180cffeefefd23d40a;de;;;6.1.;;;Identifikation und Gestaltung von ServicesAn einen Service, der in einer Serviceorientierten Architektur eines Unternehmens zur Verfügung gestellt werden soll, werden oftmals die folgenden fachlichen Anforderungen gestellt:;-;-;-;https://link.springer.com/article/10.1007/s11576-007-0062-1 c6a3512591c61996496d24c0cfa7eceb;de;;;6.1.;;;Datenschutz bei Big Data Rechtliche und politische ImplikationenMit dem einerseits intuitiv anschlussfähigen, andererseits erheblich erklärungsbedürftigen Begriff „Big Data“ verbinden sich seit einigen Jahren enorme wirtschaftliche Hoffnungen. Zugleich birgt er Herausforderungen für verschiedene Wissenschaftsdisziplinen, beispielsweise die Informatik (Fels et al. 2015, Bitkom 2014), die Wirtschaftswissenschaften (EY 2014, McKinsey 2011, Booz & Company 2012) oder die Philosophie (Himma und Tavani 2008, Richards und King 2014). Aus rechtswissenschaftlicher Perspektive stellen sich zum einen kurzfristige, eher mit hergebrachten Instrumente zu bewältigende Fragen der (insbesondere datenschutz-)rechtlichen Zulässigkeit, wenn große Mengen personenbezogener Daten erhoben und verwendet werden sollen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-20083-1_11 d614808a38d3fd6bec6b55c4c6152aad;de;;;6.1.;;;IBIHS — Ein modulares Such- und Entscheidungsmodell zur Handhabung internationaler Handelsbarrieren im Rahmen internationaler KundenorientierungWeltweit werden Wirtschaftszonen erweitert, neue Märkte öffnen sich oder andern ihren Status im Welthandel. Trotz der angestrebten Liberalisierung wird diese Entwicklung von neuartigen und vielfältig ausgeprägten Hemmechanismen begleitet. Internationale Handelsunternehmen gelten als Spezialisten im operativen Umgang mit internationalen Handelsbarrieren. Aber erst die strategische kundenorientierte Barrierehandhabung durch Integration internationaler Informationsquellen führt zu spezifischen Wettbewerbsvorteilen. IBIHS als barrierebezogenes Informationssysstem soll internationale Handelsbarrieren frühzeitig methodisch erfassen und bewerten, um optimale kundenorientierte Handelsleistungen bieten zu können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-10279-3_5 08a8a4026fe357fa9c25be1a8f537ab5;de;;;6.1.;;;Vom Content Management zum intelligenten UnternehmensportalDie Wirtschaftsunternehmen begannen 1995 verstärkt, das Internet für ihre Zwecke einzusetzen. In den ersten Jahren diente es vor allem als Marketing-Plattform. Etwa ab 1997 unterstützten Websites auch massiv den Intranet-Zugriff. Erst seit 1998 werden mehr und mehr dynamische Inhalte integriert, und für 2001 steht der endgültige Durchbruch als Business-Plattform bevor. Diese Evolution brachte und bringt es mit sich, dass die Größe, die Anzahl und die Komplexität von Websites exponentiell zunehmen. Es gibt große deutsche Industrieunternehmen, die die Zahl der in ihrem Intranet betriebenen, offiziellen und inoffiziellen Webserver auf mehrere Hundert bis in die Tausende schätzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-84440-8_11 d0ed92b08089a37b400e2218ec9aff97;de;;;6.1.;;;Rolloutlogistik: Vom Einkauf 9 bis zum angebundenen ZählerDie flächendeckende Ausbringung intelligenter Zähler stellt für jedes Versorgungsunternehmenzweifelsohne eine herausfordernde Aufgabenstellung dar. Dabei erscheintauf den ersten Blick der Ablauf vom Einkauf der Geräte und Dienstleistungen,über die innerbetriebliche Warenwirtschaft bis hin zum Einbau der neuen, intelligentenGeräteinfrastruktur beim Verbraucher vor Ort verhältnismäßig unspektakulär zusein. Die Praxis zeigt jedoch, dass neben den IT- und systemtechnischen Aufgabenstellungenauch der Logistik eine besondere Bedeutung bei der erfolgreichen Umsetzungvon Rollout-Projekten zukommt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8348-2440-0_9 a8383752883342cbc0dd6a63f3e0bf0b;de;;;2.2.;;;Indexbasiertes Suchschema in Peer-to-Peer-Netzwerken Peer-to-Peer (P2P)-Systeme werden vorgeschlagen, um eine dezentrale Infrastruktur für die gemeinsame Nutzung von Ressourcen bereitzustellen. Insbesondere das Filesharing war die anfängliche Motivation für viele der bahnbrechenden P2P-Systeme. Da sich P2P-Systeme weiterentwickeln, um die gemeinsame Nutzung großer Datenmengen zu unterstützen, müssen Probleme bei der Ressourcenlokalisierung angegangen werden. In dieser Umfrage schlagen wir eine Referenzarchitektur für P2P-Systeme vor, die sich auf die Datenindexierungstechnologie konzentriert, die zur Unterstützung der Ressourcenlokalisierung erforderlich ist. Basierend auf dieser Referenzarchitektur präsentieren und klassifizieren wir Technologien, die vorgeschlagen wurden, um die Datenindexierungsprobleme zu lösen, die insbesondere bei der Ressourcenlokalisierung in P2P-Systemen auftreten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22691-5_18 e72d9b774f962965bb9a82f0cbfa1275;de;;;6.1.;;;Ansätze und Entwicklungsmöglichkeiten europäischer Intelligencestrukturen„Wissen ist Macht“: Aus diesem Grundsatz leitet sich seit jeher die Existenzberechtigung von Nachrichtendiensten oder Intelligence-Einrichtungen ab. Und in einer Abwandlung dieser uns allen bekannten Aussage ist man in der Welt der Dienste der Auffassung, dass mit der richtigen Information zum richtigen Zeitpunkt die„Welt aus den Angeln“ gehoben werden kann. Je verborgener die Information ist, je geschützter oder geheimer sie ist, umso wertvoller kann sie sein. So werden von altersher Nachrichtendienste vor allem als Geheimdienste gesehen, die Informationen verdeckt erheben, im Verborgenen zusammenführen und bewerten und sie dann auf geschützten Wegen dem Auftraggeber zur Entscheidungsfindung und weiteren Nutzung zukommen lassen. Im Allgemeinen sind die Auftraggeber Regierungen, staatliche Organe oder die militärische Führung. Aber immer schon nutzten auch private Unternehmen für Produktion, Handel und die Verbesserung von Marktchancen staatliche oder eigene Nachrichtendienste oder private Auskunfteien. Auch heute noch erleben wir, dass staatliche Nachrichtendienste zur Förderung der Wirtschaft mit Billigung oder sogar auf Geheiß ihrer Regierungen Informationen aus anderen, manchmal sogar befreundeten Staaten an die heimische Industrie weitergeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-91491-6_7 60d4f49257f914e6e96b87e4f3fb4bd8;de;;;6.1.;;;Einflußfaktoren auf die Transaktionskosten der HandelskooperationMit den nachfolgenden Ausführungen verbindet sich das Ziel, die relevanten Einflußfaktoren auf die Entstehung und Höhe der Transaktionskosten von Handelskooperationen zu ermitteln. Hierauf aufbauend werden Hypothesen über die Wirkung dieser Einflußfaktoren, auf die Transaktionskosteneffizienz der Handelskooperation, gebildet. Diese Hypothesen werden Aussagen darüber treffen, unter welchen Bedingungen eine eher marktliche oder eine eher hierarchische Koordinationsform die Transaktionskosten der Handelskooperation reduziert. Zu diesem Zweck soll zunächst das Grundkonzept allgemeiner Einflußfaktoren auf die Transaktionskostenhöhe vorgestellt werden, das in zahlreichen Publikationen zur Transaktionskostentheorie Berücksichtigung findet. In einem weiteren Schritt wird dann der Frage nachgegangen, welche speziellen Einflußfaktoren auf die Transaktionskosten von distributiven Systemen einwirken. Es wird somit dem ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-59254-6_4 89149951711aa10c4fdb8009615c59dd;de;;;6.1.;;;Auswirkungen von InsurTech auf die Wertschöpfungslogik der Versicherungsindustrie im Digitalen ZeitalterDie Digitalisierung hat die Versicherungsindustrie erreicht. Der rasante Anstieg an InsurTech Innovationen bringt digitale Geschäftsmodelle, Strategien, Produkte und Dienstleistungen in eine Industrie in der vielen Unternehmen der Wechsel ins digitale Zeitalter noch bevorsteht. Entsprechend groß ist die Relevanz zur Klärung der Frage wie sich die Wertschöpfungslogik durch InsurTech verändert. Anhand eines InsurTech Innovationsmodells wird ganzheitlich aufgezeigt wie die Koordination der drei Primäraktivitäten „Infrastructure Operations“, „Service Provisioning“ und „Network Promotion“ ins Zentrum der Wertschöpfungslogik rückt. Die darin enthaltenen transformationellen Fähigkeiten bilden die Grundlage um Kosten- und Werttreiber zu identifizieren und so digitale Geschäftsmodelle auszuarbeiten und Entscheidungen zur strategischen Positionierung zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-26316-4_11 551f8ff4688064b17beff574659e9807;de;;;6.1.;;;Organisation der internationalen BeschaffungGegenstand von Kapitel 5. ist die Organisation der internationalen Beschaffung. Die Beschreibung des Beschaffungsprozesses in Kapitel 5.1. schafft hierfür die Grundlage. Im Anschluß daran werden die innerbetriebliche und die zwischenbetriebliche Organisation des Global Sourcing analysiert (Kapitel 5.2. und 5.3.). Kapitel 5.4. bietet eine thesenartige Zusammenfassung der wichtigsten Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-91487-3_5 5a41c4a30150f3a7a6833b4bbaec6459;de;;;6.1.;;;Literaturverzeichnis zu Band I (Teil I-III) Beim Zusammenführen der einzelnen elf veröffentlichten Beiträge mussten die entsprechenden elf Quellen- und Literaturverzeichnisse ebenfalls in ein einhetliches Verzeichnis zusammen mit aus den Teilen A und E sich ergebenden Verweisen integriert werden. Diese Vorgehensweise hatte zur Folge, dass der Zitatstil im Einzelnen überprüft werden musste, um neben der aus Gründen der Darstellungsweise erwünschten Einheitlichkeit auch weiterhin die nötige Konkordanz zwischen Quellen-/Literaturverweisen im laufenden Text einerseits und dem Verzeichnis andererseits sicher zu stellen: die Nachweise mussten auch weiterhin ausnahms- und luckenlos erbracht werden, auch wenn dabei dieselbe Publikation mehrfach im Verzeichnis auftreten sollte. Das Weißbuch zum Sport der Kommission tritt beispielsweise ganze drei Mal im Literaturverzeichnis auf, da es in den einzelnen veröffentlichten Beiträgen jeweils deutsch (Europäische Kommission, 2007), englisch (European Commission, 2007b) bzw. französisch (Commission européenne, 2007a) unterschiedlich zitiert wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-31392-0_24 00b992d3852c8d971c8a366885577eaf;de;;;2.2.;;;Integrieren des globalen Index in das Datenplatzierungsschema für eine mobile Mehrkanal-Broadcast-Umgebung Ein skalierbarer Informationslieferdienst wie ein Datenrundfunksystem ist definitiv von großem Interesse, insbesondere um mit der exponentiellen Zunahme mobiler Benutzer umzugehen. In diesem Papier stellen wir Global Indexing mit Datenplatzierungsschema für eine Umgebung mit mehreren Sendekanälen vor, das darauf abzielt, Abfragezugriffszeit, Abstimmungszeit und Stromverbrauch zu minimieren. Dieses Schema berücksichtigt die Index- und Datenzuordnung über einen separaten Rundfunkkanal. Darüber hinaus handelt es sich bei der Anforderung einzelner und mehrerer Datenelemente. Ein Simulationsmodell wird entwickelt, um die Leistung des vorgeschlagenen Schemas zu analysieren. Wir vergleichen das vorgeschlagene Schema mit dem konventionellen Schema. Es wurde festgestellt, dass das vorgeschlagene Schema in jedem Aspekt der Bewertung wesentlich bessere Leistungen liefert.;-;-;-;https://link.springer.com/chapter/10.1007/11596356_75 40ca0fdadd39f4cf6c2a637986ec6b5f;de;;;6.1.;;;Analyse von SCM-Kooperationsplattformen für die Pharma Supply ChainDie im vorherigen Kapitel durchgeführte deduktive Ermittlung von Gestaltungsempfehlungen basierte zu einem großen Teil auf SCM-Referenzmodellen, die sich in der Automobil-, Konsumgüter- und Logistikindustrie durch eine hohe Anzahl von erfolgreichen Praxisanwendungen etabliert haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-16369-3_5 713fffb40cc119bbddda49dc488b133f;de;;;2.2.;;;Unsicherheit sich bewegender Objekte Eines der wichtigsten Forschungsthemen bei Datenbanken mit bewegten Objekten ist das Unsicherheitsmanagement. Das Unsicherheitsmanagement für sich bewegende Objekte wurde in letzter Zeit gut untersucht, wobei viele Modelle und Algorithmen vorgeschlagen wurden. In diesem Kapitel analysieren wir die Unsicherheit bewegter Objekte in räumlichen Netzwerken und stellen ein unsicheres Trajektorienmodell und ein Index-Framework, den unsicheren Trajektorien-basierten Rtree (UTR-Baum), zur Indizierung der vollständig unsicheren Trajektorien von netzwerkbeschränkten bewegten Objekten vor. Anschließend stellen wir vor, wie Abfragen in diesem Framework verarbeitet werden. Der Inhalt dieses Kapitels stammt hauptsächlich aus der Arbeit von Ding in [14].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13199-8_8 5a03f4ff1709f8f44f477812122c8857;de;;;6.1.;;;Die Gestaltung von Geschäftsprozessen im Mobile BusinessIn diesem Kapitel soll aufgezeigt werden, welche Auswirkungen die neuen Technologien des mBusiness auf bestehende Geschäftsprozesse haben und wie sie zu deren effizienteren Gestaltung beitragen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-90275-7_8 8d3991f831129187e7e06f6b74b708a5;de;;;6.1.;;;Erfahrungen mit dem Patientendaten-Managementsystem COPRADas System COPRA entstand in enger Zusammenarbeit zwischen dem Ingenieurbüro Heurich und der Universität Leipzig für den Routinebetrieb einer ITS. COPRA umfasst den Präsentationsmanager, die Datenbank ATROPOS, Datenschnittstellen und Auswerte-Tools. Im Mittelpunkt des Systemkonzeptes steht die automatische Wertübernahme von Patientenmonitor und Respirator und die zeitliche Integration von Labordaten, Medikation sowie Therapie- und Pflegemaßnahmen. Die gesamte Dokumentation besteht aus einer Reihe von Formularen fester Größe (elektronische Tageskurve, Pflegeprotokoll, Beatmungsprotokoll). Die Eingabe per Mausklick eröffnet Sektionen des Formulars, die direkt beschrieben bzw. im Dialog vervollständigt werden. Die Funktionalität der Formularbeschreibungssprache gestattet Nachbesserungen und Erweiterungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-59573-8_227 daff46be354599150df163d0692765dc;de;;;6.1.;;;CRM auf Business-to-Business-MärktenCustomer Relationship Management (CRM) wird in den Medien immer wieder als ein neuer Managementansatz vorgestellt, der insbesondere auf die Fortschritte in der Informations- und Kommunikationstechnologie (I&K-Technologie) zurückzuführen sei. In der Tat eröffnen die neuen Technologien vielen Unternehmen erweiterte Möglichkeiten zur Kundenanalyse, Kundengewinnung und Kundenbindung. Jedoch ist Customer Relationship Management keineswegs ein rein technologiegetriebener Managementansatz, sondern er kann inhaltlich auf die Überlegungen zum Relationship Marketing bzw. Geschäftsbeziehungsmanagement zurückgeführt werden. Und diese sind wiederum maßgeblich von den Erfahrungen und Vorgehensweisen auf Business-to-Business-Märkten geprägt, auf denen die aktive Steuerung von Kundenbeziehungen bereits seit langem zum Unternehmensalltag gehört (Sheth/Parvatiyar 1995, S. 397, Grönroos 1997, S. 337).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-10718-7_9 8522242c6f53400641644c94a3fc0dcf;de;;;6.1.;;;Tsunami 2004Die Opferidentifizierung nach dem Tsunami 2004 in Südostasien hat sich zu einer langfristigen multinationalen Kooperation entwickelt. Die Identifizierungsmaßnahmen bestehen aus einer vollständigen äußeren und selektiven inneren rechtsmedizinischen Untersuchung, Fotodokumentation, Erhebung des Zahnstatus, Zahnröntgen und der Asservierung von Gewebeproben zur molekulargenetischen Untersuchung. Die überwiegende Zahl der Identifizierungen in Thailand stützt sich auf den Zahnstatus, dennoch sind vollständige Untersuchungen der Leichen unerlässlich. Hauptproblem bei der Befunderhebung war fortgeschrittene Fäulnis. Es besteht Bedarf an der Entwicklung fortgeschrittener Standards und der Harmonisierung rechts- und zahnmedizinischer Vorgehensweisen bei internationalen Identifizierungsmaßnahmen.;-;-;-;https://link.springer.com/article/10.1007/s00194-005-0350-2 3fdf2fcf431d02efae67dffd250e2846;de;;;6.1.;;;Implementierung der Datenhaltung für BüroservicesEine der wichtigsten Entscheidungen beim Entwurf eines integrierten Bürosystems ist die Auswahl des Datenhaltungssystems für die einzelnen Bürodienste. In diesem Papier werden drei Klassen von Lösungsalternativen — Datenverwaltungssystem, Datenbankverwaltungssysteme und Datenbankkernsystem — näher auf ihre Eignung für ein Bürosystem untersucht. Hierzu werden für die Services Ablage, Mailbox und Directory (in der Form wie sie zur Zeit von ISO, ECMA und CCITT diskutiert werden) die Anforderung an ihre Datenhaltung abgeleitet und jeweils mehrere konkrete Lösungsalternativen vorgestellt und diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-01110-2_12 a8bb41a158b66529ab9cbe694f9645d0;de;;;6.1.;;;Multimodellaufbau unter Einsatz von BauteilbibliothekenEs werden Multimodelle für zwei Projekte aus dem Hochbau aufgebaut, die besondere Herausforderungen an den Bauwerksentstehungsprozess und die Logistik stellen. Es wird ein direkter Informationsbezug zwischen 3D Bauteilen, Mengen, Kosten, Terminen, Baumaschinen, Baustelleneinrichtung, Bauprozessen und Aufwandswerten geschaffen. Für die Planungsphasen werden Modelle in unterschiedlicher Detailliertheit erstellt, die auf den Vorgängermodellen basieren, mit diesen verlinkt sind und mit dem Planungs- und Baufortschritt immer weiter verfeinert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40883-0_7 4a889d1a300504aaf0d351b732966027;de;;;6.1.;;;Online-Kommunikation in einem sich verändernden KommunikationsumfeldDie Forschungsfrage der vorliegenden Studie richtet sich auf den Einfluss von Social Media auf die Unternehmenskommunikation. Die theoretischen Grundlagen der Unternehmenskommunikation wurden in den vorherigen Kapiteln erörtert. Die folgenden Ausführungen widmen sich dem Thema „Social Media“. Um deren Spezifik und Relevanz zu veranschaulichen, werden zunächst die Ursprünge des Internets skizziert, bevor Social Media an sich vorgestellt und anschließend im Kontext der Unternehmenskommunikation verortet werden. Auf diese Wiese wird analysiert, inwiefern das Social Web ein neues, spezifisches Umfeld darstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-08110-2_3 0d57ea72463132020c06ff143ecc6f57;de;;;6.1.;;;Partneropportunismus in Geschäftsbeziehungen: Zum Stand der ForschungBevor in Kapitel 3 relevante begriffliche Grundlagen aufgezeigt und im Einzelnen auf die transaktionskostentheoretische Logik opportunismusbezogener Kausalzusammenhänge abgestellt wird, soll zunächst ein kurzer Überblick über die empirische Managementforschung gegeben werden, die im weitesten Sinne auf das Opportunismusphänomen fokussiert. Zum gegenwärtigen Zeitpunkt liegen im Schrifttum zwei Überblicksartikel vor, die aus Sicht des Verfassers allerdings ausreichend Argumente dafür liefern, den Stand der aktuellen Opportunismusforschung auch an vorliegender Stelle erneut zu replizieren: Die von Crosno/ Dahlstrom (2008) veröffentliche Meta-Analyse berücksichtigt 16 verschiedene Zeitschriften im Suchzeitraum zwischen 1975 und 2005 und kann hierbei 54 Studien identifizieren. Die entsprechenden Ergebnisse sind aus drei Gründen kritisch zu hinterfragen: Folgt man den Hinweisen von Geyskens et al. (2009), so entspricht die Vorgehensweise der Autoren erstens nicht den aktuellen Anforderungen an eine fundierte Meta-Analyse. So unterbleiben bspw. nicht nur die Korrekturen für Messfehler, sondern auch Homogenitätsanalysen sowie eine Schätzung des Publikations-Bias.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-6614-8_2 6929cc783a55e2ae23e788777e2b725d;de;;;6.1.;;;Aufbau und Ablauf des TANDEM-ProjektesDas Verbundprojekt ist als Aktionsforschungsprojekt angelegt. Aktionsforschung ist keine ausschließlich auf die Überprüfung bzw. Gewinnung theoretischer Erkenntnisse zielende Forschung, sondern sie orientiert sich bei der Problemwahl und der Problemlösung an konkreten gesellschaftlichen Bedürfnissen und bemüht sich gleichzeitig, wissenschaftliche Grundlagen für die Veränderung sozialer Situationen zu liefern. Sie basiert u. a. auf der Annahme, dass die Untersuchung sozialer Systeme eine spezifische, den besonderen Eigenarten dieser Systeme angemessene Vorgehensweise erfordert (Frank 1998).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-13128-9_2 06376b2ac1b113b16c70328e0f09d7ba;de;;;6.1.;;;Verwaltung von SystemmodellenIn diesem Kapitel werden grundsätzliche Varianten einer IT-System-Kopplung für die Verwaltung von SysML-Modellen behandelt. Die Vernetzung der Modellinformation in einer IT-Architektur und insbesondere mit anderen Elementen aus PLM-Systemen steht hierbei im Fokus. Ziel ist es, die technische Umsetzung hinsichtlich „Traceability” (Nachverfolgbarkeit) aufzuzeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-55124-0_19 0a890e2cc1aa1a9638431a2d7ab854b8;de;;;6.1.;;;Die Gestaltung interorganisationaler Informationssysteme — Möglichkeiten und Grenzen einer transaktionskostentheoretischen ErklärungDieser Beitrag versucht, die institutionelle Gestaltung interorganisationaler Informationssysteme (IOS) mittels transaktionskostentheoretischer Argumente zu erklären. Er weist dabei auf vier wichtige theoretische Lücken der Transaktionskostentheorie im allgemeinen und bisheriger transaktionskostentheoretischer Analysen von IOS im besonderen hin und versucht, diese zu schließen. Die Lücken betreffen: 1. die problematische Konzeptualisierung institutioneller Gestaltungsformen von IOS als elektronische Märkte und elektronische Hierarchien, 2. die mangelnde Spezifizierung und Operationalisierung der einschlägigen transaktionskostentheoretischen Erklärungsfaktoren, 3. die fehlende Erklärung des Ausmaßes transaktionsspezifischer Investitionen, und 4. die mangelnde Berücksichtigung von Interdependenzen zwischen Transaktionen. Auf der Basis dieser Erweiterungen der herkömmlichen Argumentation stellt der Beitrag eine differenziertere und fundiertere transaktionskostentheoretische Erklärung der institutionellen Gestaltung von IOS zur Diskussion.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-96384-0_2 db040d26426874794999ed356574d3d2;de;;;6.1.;;;Erhaltungszuchtprogramme und moderner ArtenschutzVor dem Hintergrund eines rasanten Bevölkerungswachstums vollzieht sich seit wenigen Jahrzehnten eine in der Menschheitsgeschichte einmalige „Übernutzung“ und Zerstörung natürlicher Ökosysteme einschließlich der darin vorkommenden Tier- und Pflanzenarten. Über 30.000 Tierarten werden derzeit von der IUCN als bedroht eingestuft, von vielen weiteren (insbesondere den wirbellosen Arten) kennt man bislang kaum die Namen oder ihren Status. Vor diesem Hintergrund bemühen sich die Zoologischen Gärten, Vogelparks und auch einige Privathalter um gezielte Erhaltungszuchten, um wenigstens einige dieser Arten (in der Regel besonders „charismatische“ Säugetier- und Vogelarten, zunehmend aber auch Amphibien) vor der Ausrottung zu bewahren. Ein Instrument zur Koordination solcher Bemühungen sind die Europäischen Erhaltungszuchtprogramme (EEPs und ESBs), von denen mittlerweile etwa 400, darunter 48 EEPs und 65 ESBs für Vögel, unter dem Dach des Europäischen Zooverbandes EAZA gemanagt werden. Im Rahmen einer neuen Strategie werden alle diese Programme seit 2019 überarbeitet, auch für Nicht-Zoos (also z. B. auch für Privatleute) geöffnet und heißen seither EAZA Ex-Situ-Programme (mit gleichem Kürzel = EEPs). Vorrangiges Ziel ist die Erhaltung von demografisch gesunden Gehege- bzw. Volierenpopulationen mit möglichst hoher genetischer Variabilität. Fernziel ist die Auswilderung der Nachzuchttiere in (renaturierten) ursprünglichen Lebensräumen. Im Idealfall werden diese Programme durch In-Situ-Projekte flankierend unterstützt.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-662-59613-5_6-1 edcc3c7a5b01c471112d48f67b582749;de;;;6.1.;;;Informationsgesellschaft — Utopie oder Herausforderung der Unternehmensführung?Man mag sich darüber streiten, ob wir bereits in einer Informationsgesellschaft leben, oder ob wir gerade erst den Aufbruch zu einer solchen neuen Gesellschaftsform erleben. Sicher ist jedoch, daß wir Zeugen grundlegender, durch die Entwicklung neuer Informations- und Kommunikationstechnologien ermöglichter Umwälzungen sind. Diese „digitale Revolution“, deren künftiges Ausmaß heute noch nicht abschätzbar ist, wird von vielen Beobachtern als mindestens so bedeutend wie die industrielle Revolution im 19. Jahrhundert eingeschätzt [1].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-52413-4_1 722fea28e90bd17511db9e1424c39c1a;de;;;6.1.;;;Empirische Untersuchung der Integration am Beispiel der Aerospace Supply ChainEine empirische Beobachtung der Realität führt zum theoretischen Wissen über das Wesen des Forschungsgegenstandes, wobei die realen Probleme der Unternehmen eine Basis für die neue Disziplin liefern. Somit soll die Untersuchung der SCI an den ausgewählten Fällen (case studies), wie das Fallbeispiel aus der Airbus-Praxis, die Probleme identifizieren und die neuen Erkenntnisse zur Konzeptentwicklung liefern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-02664-6_4 341de1ec412245c354e1cb75b311f0ac;de;;;2.2.;;;Eine neue hochdimensionale Indexstruktur mit einer zellbasierten Filtertechnik Im Allgemeinen müssen Multimediadatenbankanwendungen eine Ähnlichkeitssuche für einen inhaltsbasierten Abruf von Multimediadaten, d. h. Bild, Animation, Video und Audio, unterstützen. Da die Ähnlichkeit zweier Multimediaobjekte als Abstand zwischen ihren Merkmalsvektoren gemessen wird, entspricht die Ähnlichkeitssuche einer Suche nach den nächsten Nachbarn im Merkmalsvektorraum. In diesem Artikel schlagen wir ein neues hochdimensionales Indexierungsschema vor, das eine zellenbasierte Filtertechnik verwendet, die die Suche nach dem nächsten Nachbarn effizient unterstützt. Unser Cell-Based Filtering (CBF)-Schema teilt einen hochdimensionalen Merkmalsvektorraum in Zellen, wie eine VA-Datei. Um jedoch eine bessere Wirkung auf die Filterung zu erzielen, führt unser CBF-Schema eine zusätzliche Filterung basierend auf einer Entfernung zwischen einem Objektmerkmalsvektor und dem Zentrum einer Zelle einschließlich dieser durch, zusätzlich zur Filterung basierend auf Zellsignaturen vor dem Zugriff auf eine Datendatei. Aus unserem Experiment mit hochdimensionalen Merkmalsvektoren zeigen wir, dass unser CBF-Schema bei der Suche nach dem nächsten Nachbarn eine bessere Leistung erzielt als seine Konkurrenten wie VA-File und X-tree.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44472-6_7 cf25ac519405714b5949c2551f0c787f;de;;;2.2.;;;Beiträge der textuellen Datenanalyse zum Text Retrieval Das Ziel dieses Beitrags ist es aufzuzeigen, wie Techniken der Textdatenanalyse, die in Europa unter dem Einfluss der Analyze Multidimen-sionelle des Données School entwickelt wurden, die Leistung der LSI-Retrieval-Methode verbessern können. Eine erste Verbesserung kann erreicht werden, indem die in einer lexikalischen Tabelle enthaltenen Daten richtig berücksichtigt werden. LSI basiert auf der euklidischen Distanz, die für Frequenzdaten nicht ausreichend ist. Durch die Verwendung der Chi-Quadrat-Metrik, auf der die Korrespondenzanalyse basiert, können deutliche Verbesserungen erzielt werden. Weitere Verbesserungen können durch die Berücksichtigung externer Informationen wie Schlagwörter, Autoren usw. erzielt werden. Hier wird ein Ansatz zur Textsuche mit externen Informationen basierend auf der PLS-Regression gezeigt. Die vorgeschlagenen Strategien werden in Text-Retrieval-Experimenten auf Abstracts medizinischer Zeitschriften angewendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17103-1_48 e6dda9cfe1a1884012eb14faef90d77e;de;;;6.1.;;;Electronic Commerce — Effiziente Gestaltung von GeschäftsabläufenAngesichts immer schwierigerer Rahmenbedingungen durchlaufen heute nahezu alle Unternehmen grundlegende strukturelle Änderungen. Man hat erkannt, daß Erfolg und damit Sicherheit für das eigene Unternehmen nicht mehr durch statische Eigenschaften wie Größe, Reputation oder Technologisierungsgrad erzielt werden, wie die Krisen namhafter Unternehmen etwa in der Automobil- oder Computerindustrie deutlich machen. Vielmehr kommt es heute darauf an, sich durch dynamische Eigenschaften wie Schnelligkeit, Flexibilität, engagierte Ausrichtung auf den Kunden und permanentes Streben nach Produktivitätsverbesserungen auszuzeichnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-82682-4_6 62372c3085ae0cef5372e53736a2473a;de;;;6.1.;;;Die letzte StudienphaseWenn Sie dieses Buch zur Hand nehmen, haben Sie wahrscheinlich den größten Teil Ihres Studiums erfolgreich absolviert und bereiten sich intensiv auf die kommenden Etappen Ihres Berufslebens vor. Welchen Studiengang Sie auch gewählt haben und wie Sie sich Ihre berufl iche Zukunft auch vorstellen: Den ersten entscheidenden Schritt haben Sie auf jeden Fall – fast – geschafft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-8503-3_1 20d87c9f8f20de5fd5ebde36c9ab8a0b;de;;;6.1.;;;Die Letzte StudienphaseWenn Sie dieses Buch zur Hand nehmen, haben Sie wahrscheinlich den größten Teil Ihres Studiums erfolgreich absolviert und bereiten sich intensiv auf die kommenden Etappen Ihres Berufslebens vor. Welchen Studiengang Sie auch gewählt haben und wie Sie sich Ihre berufl iche Zukunft auch vorstellen: Den ersten entscheidenden Schritt haben Sie auf jeden Fall — fast — geschafft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-8085-4_1 1230a86e4a953e27f5f070d20f5d8002;de;;;6.1.;;;Zur Implementierungsproblematik bei Business-Reengineering ProjektenDie Zyklen werden immer kürzer, in denen die Arbeitswelt von neuartigen soziotechnischen Instrumenten überflutet wird. Diese Modekonzepte, auch dies gehört inzwischen zum Ritual, werden jeweils erbarmungslos zu Überlebensstrategien hochstilisiert, zu denen es eigentlich keine Alternativen gibt. Die Existenz eines Unternehmens hängt nach Ansicht der entsprechenden Promotoren davon ab, wie schnell die neue Philosophie im Vergleich zur Konkurrenz realisiert wird. Wer zu spät kommt, den bestraft in diesem Falle das Wirtschaftsleben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-82513-1_14 72154105a043ff9b4b6c407dfe70eb97;de;;;2.2.;;;Mathematische Linguistik in kognitiven medizinischen Bildinterpretationssystemen Die Aufgabe der semantischen Suche nach nützlichen Informationen wurde für textuelle Daten teilweise gelöst. Leider hat die medizinische Bildanalyse gezeigt, dass die inhaltliche Suche nach nützlichen semantischen Informationen in der Praxis eine unlösbare Aufgabe ist. Wir haben ein gewisses Know-how in der Verwendung automatischer Techniken zum Abrufen von Merkmalen erworben, die den semantischen Inhalt visueller Daten definieren. Alles scheint darauf hinzudeuten, dass die Techniken der syntaktischen Musteranalyse, die in der computergestützten medizinischen Diagnose nützlich sind, auch bei Aufgaben mit automatischen Verständnisverfahren in medizinischen Bildinterpretationssystemen sehr hilfreich sein können.;-;-;-;https://link.springer.com/article/10.1007/s10851-009-0151-4 40bbe04754a2b7fa6eb518793a02edf9;de;;;2.2.;;;Dynamische Verarbeitung und Analyse von Continuous Streaming Börsendaten mit MBCQ Tree Approach Die schwierigste Facette in der heutigen Analyse ist der Umgang mit dynamischen Echtzeitdaten, die sich im Laufe der Zeit ändern und daher zu einem kontinuierlichen Datenfluss führen, der oft als Streaming-Daten bezeichnet wird. Eine eigene Datenbank wurde assimiliert, um die kontinuierlichen Daten zu speichern, und so konzipiert, dass sie an diesem Punkt nach den sprudelnden Daten fragt, anstatt an Snapshot-Daten zu arbeiten. Folglich hat die Abfrage dieser dynamischen Daten verschiedene Konfrontationen in den Bereichen der Datenverteilung, des optimierten Abrufens von Ergebnismengen und der Abfrageverarbeitung. Um die Probleme beim Abfragen der kontinuierlichen Daten zu überwinden, wurde eine neue Idee der Indexierungstechnik Multilevel with Balanced Continuous Query Tree (MBCQ) eingeführt, um die Abfrage kontinuierlicher Daten effizient zu handhaben. Das vorgeschlagene System wird in der Aktienmarktanalyse angewendet, die diese Probleme des Erhaltens der Geschäftsdaten für den Aktienmarkt durch die Implementierung dynamischer, auf Zeitstempeln basierender Schiebefenster behandelt, die eingehende Daten steuern und sie mit den erforderlichen Daten zur Anzeige filtern. Diese werden verwendet, um wertvolle Aktienentscheidungen zu treffen, die dem Analysten helfen, einen Aktiendeal zu gewinnen. Dies bestätigt auch die Kosten für die Speicherbehandlung und die Indexwartung im Vergleich zu den bestehenden Techniken und es wurde beobachtet, dass das vorgeschlagene System besser abschneidet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8657-1_48 c51f396b40c00b65152a92ba6eb5cb95;de;;;2.2.;;;Identifizieren von Metadaten auf sowjetischen Militärkarten: Ein illustrierter Leitfaden Nach der Auflösung der Sowjetunion hat die kommerzielle Verfügbarkeit von zuvor klassifizierten sowjetischen Militärkartierungen die Größe eines globalen Kartierungsprojekts offenbart, das dem Rest der Welt zuvor unbekannt war und detaillierte topografische Karten und Stadtpläne in mehreren Maßstäben umfasst. Obwohl zahlreiche Bibliotheken und Archive auf der ganzen Welt diese Karten erworben haben und dies auch weiterhin tun, haben Schwierigkeiten bei der Interpretation der Metadaten jedes Blattes zu Fehlern und Inkonsistenzen bei der Katalogisierung der Karten geführt, was ihre Zugänglichkeit möglicherweise beeinträchtigt. Dieses Papier konzentriert sich auf Ansätze zur Identifizierung von Metadaten auf den Karten und stellt einige illustrierte Beispiele als Leitfaden vor. Es ist zu hoffen, dass diese Hilfestellung bei der Interpretation dieser Karten im Allgemeinen auch für Katalogisierer von Nutzen sein wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-61515-8_17 f03929081b3b0a23e01085156140c2ec;de;;;6.1.;;;Motivation und BausteineDieses Kapitel beschreibt die Motivation hinter dem Forschungsprojekt „ExCELL – Echtzeitanalyse und Crowdsourcing für eine selbstorganisierte City-Logistik“ des Technologieprogramms „Smart Data – Innovationen aus Daten“ des Bundeswirtschaftsministeriums für Wirtschaft und Energie (BMWi). Die zentralen Ergebnisse dieses Forschungsprojekts werden in diesem Buch erläutert. Des Weiteren werden in diesem Kapitel die am Projekt beteiligten Partner und der Aufbau des Buchs vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-21214-8_1 7b10587321bec140360f8597c302adb8;de;;;6.1.;;;HP CareVue 9000 Intensive Nursing SystemDas HP CareVue 9000 ist ein bettseitiges klinisches Informationssystem zur Automatisierung des Überwachungsprotokolls im Intensivpflegebereich. Eine komfortable Benutzeroberfläche mit intuitiver Systembedienung erleichtert dem Anwender den problemlosen Übergang vom herkömmlichen manuellen Dokumentationssystem zum HP CareVue 9000, ohne daß bewährte Abläufe geändert werden müssen. HP CareVue 9000 ermöglicht ein effektives klinisches Datenmanagement mit Hilfe von leistungsfähigen hochauflösenden Bettseit-Systemen. Die Arbeitsplätze bieten die Möglichkeit, die Patientendaten in einem für die speziellen Anforderungen jeder Intensivstation konfigurierbaren Format zu erfassen und darzustellen. Das System umfaßt Funktionen für das Krankenblatt, Arzt-/Schwesternnotizen, Pflegeplanung, Bestimmung des Pflegebedarfs für den einzelnen Patienten und des Schweregrads der Erkrankung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-78145-2_319 0aaf415836535017db5c41ebf102b1fb;de;;;6.1.;;;Die strategische Krisenmanagementübung LÜKEX 2009/2010Die Übungsserie LÜKEX im strategischen Krisenmanagement ist auf die Verbesserung des Zusammenwirkens aller für die Bewältigung von Krisenlagen im Bevölkerungsschutz Verantwortlichen auf der politisch-administrativen Ebene gerichtet. Im Mittelpunkt stehen die Krisenstäbe bei Bund und Ländern. Der Übung LÜKEX 2009/10 lag ein Szenario zugrunde, das vor dem Hintergrund der tatsächlichen terroristischen Bedrohungslage die Androhung und Durchführung von Anschlägen mit konventionellen Sprengstoffen, chemischen oder radioaktiven Tatmitteln vorsah. Die Übung hat zur Optimierung der ressort-, länder- und bereichsübergreifenden Zusammenarbeit beitragen und die Handlungssicherheit der politisch-administrativen Entscheidungsträger auf der strategischen Ebene erhöht.;-;-;-;https://link.springer.com/article/10.1007/s12399-010-0152-9 0fceb766ccdb778ec4243de84fbb2165;de;;;2.2.;;;Verbesserte Beantwortung von Fragen mit Kombination von vorab erfassten Antworten In letzter Zeit besteht ein Bedarf an einem QS-System, um verschiedene Arten von Benutzerfragen zu beantworten. Unter diesen Fragen konzentrieren wir uns auf Aufzeichnungsfragen und beschreibende Fragen. Auf diese Fragen sollten vorab erfasste Antworten vorbereitet werden, während die traditionelle QA in Echtzeit die passenden Antworten findet. In diesem Papier schlagen wir ein verbessertes QA-Modell vor, indem wir verschiedene vorab erworbene Antworten in einer Enzyklopädie kombinieren. Wir haben vorab erworbene Antworttypen, 55 Record Type(RT)s und 10 Descriptive Answer Type(DAT)s, im Voraus definiert. Um Antworteinheiten zu konstruieren, haben wir 183 Datensatz-Antwort-Indexierungsvorlagen und 3.254 beschreibende Muster erstellt. Wir diskutierten mit einigen Experimenten, wie unser vorgeschlagenes Modell auf die Aufzeichnungs- und Beschreibungsfragen angewendet wurde.;-;-;-;https://link.springer.com/chapter/10.1007/11562382_20 2189a6f039100d32a4878b288b7ae5de;de;;;2.2.;;;GraphREL: Ein auf Zerlegung basierendes und selektivitätsbewusstes relationales Framework für die Verarbeitung von Untergraph-Abfragen Graphen werden häufig zur Modellierung komplizierter Daten verwendet, wie z. Das Abrufen verwandter Graphen, die einen Abfragegraphen aus einer großen Graphdatenbank enthalten, ist ein Schlüsselproblem in vielen graphbasierten Anwendungen wie der Wirkstoffforschung und der strukturellen Mustererkennung. Relationale Datenbankmanagementsysteme (RDBMS) haben sich wiederholt als in der Lage gezeigt, verschiedene Arten von Daten effizient zu hosten, von denen früher nicht erwartet wurde, dass sie sich in relationalen Datenbanken befinden, wie beispielsweise komplexe Objekte und XML-Daten. Die Hauptvorteile relationaler Datenbanksysteme sind ihre bekannter Reifegrad und seiner Skalierbarkeit, um große Datenmengen sehr effizient zu verarbeiten. RDMBSs beziehen einen Großteil ihrer Leistung von ausgeklügelten Optimiererkomponenten, die physikalische Eigenschaften nutzen, die für das relationale Modell spezifisch sind, wie zum Beispiel: Sortierung, richtige Join-Reihenfolge und leistungsstarke Indizierungsmechanismen. In diesem Papier untersuchen wir das Problem der Indizierung und Abfrage von Graphdatenbanken mithilfe der relationalen Infrastruktur. Wir schlagen einen neuartigen, zerlegungsbasierten und selektivitätsbewussten SQL-Übersetzungsmechanismus von Subgraph-Suchanfragen vor. Darüber hinaus nutzen wir vorhandene Datenbankfunktionen wie partitionierte B-Trees-Indizes und die Beeinflussung der relationalen Abfrageoptimierer durch Selektivitätsannotationen sorgfältig aus, um die Zugriffskosten des Sekundärspeichers auf ein Minimum zu reduzieren. Schließlich verwenden unsere Experimente ein IBM DB2 RDBMS als konkretes Beispiel, um zu bestätigen, dass relationale Datenbanksysteme als effizienter und sehr skalierbarer Prozessor für Teilgraphabfragen verwendet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00887-0_11 b5708c14d5fe7b740a084b282faa2986;de;;;2.2.;;;Effektive Lösungen für ein globales 3D-Visualsystem in Netzwerkumgebungen Die Entwicklung des webbasierten globalen 3D-Visualsystems hat Fortschritte gemacht. Es gibt jedoch nur wenige ausgereifte und effektive Möglichkeiten zur Verwaltung, Übertragung und Visualisierung massiver räumlicher Daten. Basierend auf der verwandten Arbeit veranschaulicht der Artikel die Ellipsoid-Quadtree-Technik für den schnellen Zugriff auf geographische Daten mit mehreren Maßstäben und mehreren Ebenen, integriert das Streaming- mit der Detail-Rendering-Methode zur Übertragung der Daten im Netzwerk und implementiert großräumiges Gelände Oberflächenvereinfachung unter Verwendung von M-Band-Wavelet-Transformationen und Triangulationen mit mehreren Auflösungen. Wir realisieren ein webbasiertes globales Terrain-Visual-System mit COM-Komponenten auf Basis der oben genannten Techniken. Das System hat eine gute Perspektive in der Militärsimulation und in Stadtplänen.;-;-;-;https://link.springer.com/article/10.1360/04yd0077 5dbdd5415a7a4024efe3c22fb42a92c8;de;;;6.1.;;;Einbettung von Interpolationsverfahren in die Anfragesprache SQL zur Bearbeitung von Umwelt-MeßwertenIn diesem Papier wird eine Erweiterung eines konventionellen relationalen Datenbanksystems vorgestellt, um Umwelt-Meßwerte effizient zu verarbeiten. Dieser Ansatz wurde innerhalb eines interdisziplinären Umwelt-Forschungsprojekts entwickelt, das die Schadstoffbelastung von Grundwasser und Boden erforscht. Ausgehend von den besonderen Eigenschaften von Umwelt-Meßwerten wird eine DBS-Erweiterung vorgeschlagen, die es erlaubt, Meßdaten auch zwischen den eigentlichen Meßpunkten abzufragen. Das Zusammenwirken dieser Erweiterung mit den relationalen Operationen wird untersucht, und das System-Design des ersten Prototypen wird beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-77296-2_19 471715be873de3da75b1761c6b3ca791;de;;;6.1.;;;Digitale Geschäftsmodelle in ActionDas vielen Lesern bekannte Unternehmen Amazon agiert als Hybrid zwischen Unternehmen mit nativ digitalem Geschäftsmodell und digital transformierten Unternehmen – die Antipoden in der Digitalmoderne. Betrachten wir kurz das von Gründer Jeff Bezos konsequent ausdifferenzierte semi-digitale Geschäftsmodell von Amazon.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-12281-2_4 17f824075746459f4de634421c702221;de;;;6.1.;;;Einführung in Online-MediaDas zweite Kapitel vermittelt die Grundlagen für das weitere Leseverständnis und führt in das Thema „Online-Mediaplanung“ ein. Nach einer verständlichen Erklärung der zentralen Online- und Media-Begriffe werden die gängigen Kosten- und Leistungskennzahlen beschrieben sowie der Begriff KPI und seine Festlegung erläutert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-31212-1_2 48ee1fc6d8c5875cff0a6ab44d07d018;de;;;6.1.;;;Wie viel Terminologiearbeit steckt in der Übersetzung der Dewey-Dezimalklassifikation?Bibliotheken weltweit setzen die Dewey-Dezimalklassifikation (DDC) als Aufstellungssystematik und/oder zur Katalogsuche ein. Es existieren Übersetzungen der DDC in über 30 Sprachen. Als ein umfassendes System zur Ordnung von Wissen bestehend aus numerischen Notationen und sprachlichen Klasseninhalten bietet die DDC dem Terminologen bzw. der Terminologin ein weites Arbeits- und Forschungsfeld. Aber wie spielen Terminologiearbeit und Übersetzung zusammen, wenn, wie in diesem Fall, die Terminologie selbst das Übersetzungsobjekt ist? Der Aufsatz kann nicht alle Themen erschöpfend behandeln, aber er präsentiert Merkmale der DDC erstmals aus der Perspektive der DDC-Übersetzungsarbeit, und er wirft die Frage auf, ob dem Aspekt der Terminologiearbeit in der DDC-Übersetzung bislang tatsächlich genügend Aufmerksamkeit geschenkt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-58949-6_14 dd2c5dfdc19d31c4617ff3cbb8343487;de;;;6.1.;;;Standardisierung der Berichterstattung durch XBRLOhne schwarz malen zu wollen: Nicht nur in kleinen und mittleren Unternehmen wirken die technologischen Prozesse zur Bewältigung der finanziellen Berichterstattung oftmals wie Relikte aus einer vergangenen Zeit. Schon die reine Erfüllung der externen Berichtspflichten stellt einen Hindernislauf dar: Aus verschiedensten lokalen Umgebungen werden Zahlen mit manueller Hilfe in zentrale Konsolidierungssysteme übertragen. Für viele Bereiche wie zum Beispiel den Konzernanhang steht gar keine automatisierte Unterstützung zur Verfügung. Der sich ergebende Konzernabschluss wird wieder von Hand in eine Word- oder Excel-Datei eingegeben, die von den dafür zuständigen Personen dann hoffentlich fehlerfrei in den Geschäftsbericht übernommen wird. In eine PDF-Datei konvertiert, stellt das Unternehmen seine Zahlen dann interessierten Anlegern und Analysten zur Verfügung. Doch bevor diese mit den Zahlen etwas anfangen können, erfolgt meist die nächste Stufe der Verarbeitung, in Form von Eingaben in Datenbanken, Bewertungs- und Analyseprogrammen und Berichtsmodulen, die ironischerweise dann oftmals wieder Word- oder Excel-basiert sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-9596-4_12 51371a6b7584c01aa07fdcaf022a9b4b;de;;;6.1.;;;Additive Fertigungsverfahren im Kontext von Industrie 4.0 Additive Fertigungsverfahren haben sich seit den 80er-Jahren vom Rapid Prototyping zum Direct Manufacturing weiterentwickelt und gelten als Musterbeispiel für die Anwendung von Industrie 4.0 : Die Prozesse basieren auf neuen Verfahren des Informationsmanagement s entlang einer durchgängig digitalen Prozesskette, die sowohl die horizontale als auch die vertikale Vernetzung ermöglicht. Mittlerweile können einsatzfertige Bauteile mit bekannten Eigenschaften erzeugt werden. In diese Bauteile können viele verschiedene Features integriert sein, die die Basis für „smart products“ liefern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-53251-5_19 7d0d4dfb30532187691561f129de40cd;de;;;6.1.;;;Marketing-Decision-Support-Systeme im Pharma-MarktZahlreiche Diskontinuitäten zwingen die Unternehmen im Pharma-Markt zur raschen Anpassung an veränderte Wettbewerbs-Bedingungen. Dies erzwingt eine Abkehr vom „erfahrungsgestützten Management“ und die konsequente Nutzung objektiver Marktdaten und Markterfahrungen durch Marketing-Decision-Support-Systeme (MDSS). Die Voraussetzungen für MDSS, aktuelle und detaillierte Marktdaten und leistungsfähige Marketing-Informations-Systeme sind für die Pharma-Industrie verfügbar, führen aber ohne konsequente, entscheidungsorientierte Informations-Verdichtung nur zum „information overload“ und zur resignierenden Rückkehr zum „erfahrungsgestützten Management“. Anhand eines strategischen MDSS-Moduls zur Portfolio-Planung und eines operativen MDSS-Moduls zur Zielgruppen- und Besuchsfrequenz-Planung werden die Möglichkeiten moderner Entscheidungsunterstützung vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-90784-4_29 cf7a5ab9c42fbfc9079562340c3a8774;de;;;6.1.;;;Zur Rahmenkonzeption Des Umweltinformationssystems Baden-WürttembergUmweltaufgaben sind komplex, zur Lösung werden die Fachkenntnisse vieler Experten benötigt. Das Umweltinformationssystem (UIS) ist der aufgabenorientierte informationstechnische und organisatorische Rahmen für die Bereitstellung von Umweltdaten und die Bearbeitung von fachbezogenen und fachübergreifenden Aufgaben im Umweltbereich der Landesverwaltung. Das Ministerium für Umwelt, die Landesanstalt für Umweltschutz und an der Umweltpolitik beteiligte Ressorts haben gemeinsam mit dem Beratungsunternehmen McKinsey eine umfassende Konzeption für das Land Baden-Württemberg erarbeitet. Das UIS wird als Teil des Landessystemkonzepts Baden-Württemberg entwickelt, realisiert und betrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-77296-2_1 d491fccecc73f05329ab95bb2328968f;de;;;6.1.;;;Genanalysen für das eigene GesundheitsmanagementDie Ära der genetischen Medizin hat begonnen. Mit einem neuen Informationsportal ist erstmals für jeden Interessierten der Abgleich des eigenen Genoms mit individuellen Arzneimittelwirkungen möglich.;-;-;-;https://link.springer.com/article/10.1007/s12268-011-0089-0 464ffd19561cacdea0e9776a7fc0ad3f;de;;;6.1.;;;From Data to Vial: Der Einfluss vertikaler IT-Integration auf den Erfolg von CDMOsDie digitale Transformation ist in aller Munde. Dabei handelt es sich hierbei weniger um ein neues Phänomen, sondern vielmehr um ein Modewort, hinter dem sich eine Vielzahl von technologischen, prozessualen und organisatorischen Veränderungen und Herausforderungen verbirgt. In diesem Beitrag werden wir anhand eines Beispiels aus der Biopharma-Branche das Kernthema der Nutzung von Unternehmensdaten näher beleuchten und daraus mögliche Handlungsempfehlungen mit Blick auf vertikale IT-Integration ableiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-26670-7_14 ca30ef1bf50c467dbe54401d01a2c364;de;;;6.1.;;;Auf- und Ausbau einer europäischen Informations- und KommunikationsplattformDer Bereich “Umwelt und Gesundheit” zeichnet sich durch einen interdisziplinären Charakter und einen daraus resultierenden hohen Kommunikationsbedarf aus. Erschwerend kommt hinzu, dass sich mitunter bei der Informationsbeschaffung erhebliche Probleme ergeben. Ein Vergleich nationaler Problemlösungsstrategien in Form elektronischer Vernetzungsaktivitäten auf diesem Gebiet hat zum Entwicklungsprojekt für eine europäische Informations- und Kommunikationsplattform für diesen Bereich geführt. Internationaler Erfahrungsaustausch, koordinierte Vorgehensweisen, Harmonisierungsbestrebungen und Qualifizierungsmöglichkeiten für “environmental health professionals” sollen hierdurch erleichtert werden.;-;-;-;https://link.springer.com/article/10.1007/s001030050264 e466888a612f009766215fedb624a130;de;;;6.1.;;;Nachhaltigkeitsberichterstattung zwischen Transparenzanspruch und Management der NachhaltigkeitsleistungDie Nachhaltigkeitsberichterstattung von Unternehmen hat in den letzten beiden Dekaden sowohl in der Nachhaltigkeits-/CSR- als auch in der Rechnungswesen- und Kommunikationsliteratur sehr stark an Bedeutung gewonnen. Dabei wurden unterschiedlichste theoretische und empirische Analysezugänge gewählt, internationale Vergleiche vorgenommen, Inhalte, Kanäle der Nachhaltigkeitsberichterstattung und Branchen untersucht und Kriteriensets für die Güte von Nachhaltigkeitsberichten entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-53893-3_2 4365cd491b779f53d51f0c720915cb9a;de;;;2.2.;;;Multi-Attribute-Optimierung in der Serviceauswahl Da mehrere Dienstanbieter konkurrieren können, um dieselbe Funktionalität mit unterschiedlicher Dienstqualität (z. B. Latenz, Gebühr und Ruf) anzubieten, ist ein Schlüsselproblem bei der Dienstdatenverarbeitung die Auswahl von Dienstanbietern mit der besten vom Benutzer gewünschten Qualität. Bestehende Dienstauswahlansätze beruhen meistens auf der Berechnung einer vordefinierten Zielfunktion. Wenn mehrere Qualitätskriterien berücksichtigt werden, müssen Benutzer ihre Präferenz gegenüber verschiedenen (und manchmal widersprüchlichen) Qualitätsattributen als numerisch ausdrücken;-;-;-;https://link.springer.com/article/10.1007/s11280-011-0121-9 fd9a2f340100c2cab952a1081c92276e;de;;;6.1.;;;Technisches Konzept einer MobilitätsplattformVon Datenplattformen zum Cloud Computing – Software-as-a-Service-Produkte bestimmen zunehmend den Markt. Was früher Funktionen einer Software waren, sind heute eigenständige autonome Dienste mit eignen Entwicklungs- und Veröffentlichungszyklen. Das spart administrativen Aufwand, Zeit und Kosten. Es gibt zudem kaum noch übergeordnete technische Vorgaben, welche Programmiersprache, Datenbank oder Server-Umgebung verwendet werden muss.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-21214-8_4 8f7e067d38b8ded202fbdf55d77ecb00;de;;;6.1.;;;Architekturinformatik — Die neuen Instrumente des ArchitekturbürosDie Begriffe Bauinformatik oder Architekturinformatik klingen technisch, fast abweisend. Oft verstand man darunter alles, was eine «richtige» Architektin oder ein «richtiger» Architekt nicht wissen mußte, sollte oder konnte. Es schien, als sei unter diesem Begriff alles zusammengetragen worden, wofür man Computer einsetzen konnte. In Wirklichkeit beschreibt Architekturinformatik aber lediglich eine Sammlung von physischen und intellektuellen Instrumenten, die sich zunächst in den Phasen nach dem Entwurf etablierten und jetzt langsam in den Entwurfsbereich selbst vordringen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-83153-8_6 b2a1d69c08a7b89243803c61627bf5dc;de;;;6.1.;;;Vollständig papierlos tagen – Ergebnisse der 12. Internationalen Tagung WirtschaftsinformatikDie 12. Internationale Tagung Wirtschaftsinformatik (WI 2015) gilt als erste vollständig papierlos durchgeführte Tagung im deutschsprachigen Raum. Basis der erfolgreichen Umsetzung war das digitale Tagungskonzept „pAPPyrOS“, das im Rahmen eines Förderprojektes der Deutschen Bundesstiftung Umwelt entwickelt wurde. Dies beinhaltete eine vollständige Substitution von Printprodukten durch digitale Technologien über alle Prozessschritte einer Tagung hinweg. ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-16223-8_2 ac02929b9500b12daee4c44de150bf2d;de;;;6.1.;;;Das Recht der Zivilen Sicherheit an der Schnittstelle von nationaler, europäischer und internationaler ZuständigkeitDie Entdeckung der zivilen Sicherheit durch die Sicherheitsforschung wie auch die Sicherheitspolitik beschränkt sich nicht auf den Rahmen einzelner Staaten, sondern ist auf allen Ebenen internationaler Sicherheitsgewährleistung zu beobachten. Räumlich, sachlich und zeitlich entgrenzte Gefahren entgrenzen auch den Umgang mit diesen in vielfacher Hinsicht, lassen Grenzziehungen zwischen innen und außen, Verteidigung und Gefahrenabwehr, Katastrophenschutz und Polizeirecht, Prävention und Repression verschwimmen. Entgrenzten Gefahren entsprechen entgrenzte Sicherheitsstrategien, wie sie sich in jüngeren Ansätzen insbesondere im europäischen, aber auch im nationalen und internationalen Recht finden lassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-53289-8_33 b202c5504792df10db2a83f1688e000e;de;;;6.1.;;;eHealth: Rechtliche Rahmenbedingungen, Datenschutz und DatensicherheitDas Kapitel befasst sich mit den rechtlichen Rahmenbedingungen für eHealth-Angebote im Allgemeinen und Angeboten der Telemedizin (wie Telediagnostik, Telekonsile, Telematikplattformen, Telemonitoring) im Speziellen. Neben dem allgemeinen Vertragsrecht, insbesondere dem Behandlungsvertrag zwischen Arzt/Ärztin und Patient/Patientin, wird auch das E-Health-Gesetz behandelt. Ferner werden die werberechtlichen Vorgaben und die Probleme von ärztlichem Rat und Laienrat im Internet erläutert. Zudem werden die Grundlagen des Datenschutzes und der Datensicherheit ausgeführt, wobei auch die Vorgaben der Europäischen Datenschutzgrundverordnung vorgestellt werden. Den Abschluss bilden Leitlinien für die Ausgestaltung von internetbasierten gesundheits- bzw. krankheitsbezogenen Informationsangeboten. Dadurch werden konkrete Hilfestellungen gegeben, um die rechtlichen Rahmenbedingungen für eHealth-Angebote auch in der Praxis sicher umzusetzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-49504-9_3 9431d838541329664c789852a071e10b;de;;;2.2.;;;Schematische Argumentation: Eine Perspektive der Künstlichen Intelligenz Eine häufige Motivation für die Entwicklung von Computerframeworks für das diagrammartige Denken ist die Hoffnung, dass sie als rekonfigurierbare Werkzeuge zum Studium der menschlichen Problemlösungsleistung dienen könnten. Trotz der anhaltenden Debatte über die genauen Mechanismen, mit denen Diagramme oder andere externe Darstellungen zur unmenschlichen Problemlösung verwendet werden, besteht kaum ein Zweifel, dass Diagrammdarstellungen Menschen bei der Lösung bestimmter Klassen von Problemen erheblich helfen. Tatsächlich gibt es eine Vielzahl von Anwendungen von Diagrammen und Diagrammdarstellungen in der Informatik, von der Datenpräsentation bis hin zu visuellen Programmiersprachen. Im Gegensatz sowohl zur Verwendung von Diagrammen bei der menschlichen Problemlösung als auch zur allgegenwärtigen Verwendung von Diagrammen in der Computerindustrie, ist das Thema dieser Übersicht die Verwendung von Diagrammdarstellungen bei der automatisierten Problemlösung. Untersuchen Sie daher die allgemeine und oft implizite Annahme, dass, wenn Diagramme für die menschliche Problemlösung so nützlich und für menschliche Bemühungen so offensichtlich sind, es analoge Rechengeräte von ähnlichem Nutzen geben muss.;-;-;-;https://link.springer.com/article/10.1023/A%3A1006669526043 af2ccff241963527f1c566ec5722e98e;de;;;6.1.;;;Alles ist möglich — XML: Extensible Markup LanguageMangelnde Flexibilität war stets einer der Hauptkritikpunkte an der Markup-Sprache HTML. Mit der Entwicklung und Einführung der erweiterbaren Extensible Markup Language (XML) wurde es dann möglich, eigene Dokumententypen zu beschreiben, die genau den jeweiligen Bedürfnissen entsprachen, und für diese selbst eine neue, eigene Syntax zu definieren. Dank dieser Fähigkeit konnte XML zur Ausgangsbasis einer ganzen Reihe von anwendungsspezifischen Markup-Sprachen werden, die genau auf die Eigenschaften spezialisierter Ausgabegeräte, etwa im Bereich mobiler Endgeräte (Wireless Markup Language — WML) oder auf ganz bestimmte Einsatzbereiche (Mathematical Markup Language — MathML, Chemical Markup Language — CML, Scalable Vector Graphics — SVG, Synchronized Multimedia Integration Language — SMIL, und viele andere) zugeschnitten sind. Im Zusammenspiel mit XML wurden eine Reihe von unterstützenden Sprachkomponenten geschaffen, wie z.B. XML Path Language (XPath) und XML Linking Language (XLink), die eine Navigation innerhalb des XML-Dokumentenraums möglich machen, oder XML Style Language Transformations (XSLT), mit deren Hilfe Formatierungen und Transformationen von XML-Dokumenten ausgeführt werden können. Die Möglichkeiten dieses System-verbundes in Verbindung mit seiner großen Flexibilität eröffnen dieser noch relativ jungen Technologie auch völlig neue Anwendungsbereiche neben dem WWW.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18963-0_14 c9a59aaa29b19e6ef846ef0cb7e0dd31;de;;;6.1.;;;Smart Meter Rollout: Intelligente Messsysteme als Schnittstelle zum Kunden im Smart Grid und Smart MarketDas Gesetz zur Digitalisierung der Energiewende ist verabschiedet. Ab 2017 sind moderne Messeinrichtungen (mME) und intelligente Messsysteme (iMSys) zu verbauen und zu betreiben. Der „deutsche Weg“ für die Einführung von Smart Metern sieht einen stufenweisen Rollout sowie ein Höchstmaß an Informations‐ und Datensicherheit vor. Dabei spielen iMSys und mME eine wichtige Rolle bei der Neugestaltung der intelligenten Netze (Smart Grids) und des neuen Marktmodells (Smart Market). Dieser Beitrag beschäftigt sich mit den neuen Gesetzen, den Marktrollen und ihren Aufgaben, Datenschutz und Datensicherheit, dem iMSys als sichere Lösung, dem sicheren Betrieb von Smart Meter Gateways, Smart Grid – Smart Market, dem Zusammenspiel zwischen reguliertem Bereich und Markt, den Einsatzbereichen der iMSys sowie den Auswirkungen auf Prozesse und Systeme und gibt Handlungsempfehlungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-15737-1_30 deb82a0c71071d4c35bf9e0d65999c02;de;;;6.1.;;;Stand der Technik im Bereich CAD/CAM-KopplungAusgehend vom technischen Informationsfluß in Betrieben werden zugeordnete rechnerunterstützte Insellösungen und die Anwendungskette CAD-CAP-CAM dargestellt. Beschreibungsregeln, Systemfähigkeit und Schnittstellen bestimmen technische Eigenschaften. Damit sind unterschiedliche Strukturvarianten von Anwendungsketten gegeben, die hinsichtlich der Funktionalität von Kommunikationsfähigkeit, Methoden- und Datenbasen beschrieben werden. Lösungsbeispiele werden vorgestellt. Außerdem wird auf personelle Voraussetzungen wie Anwender-Know-how und Qualifizierungsmaßnahmen kurz eingegangen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-48058-4_8 298477fc55f6421a2cde35b398e2f618;de;;;2.2.;;;Flache Systeme: offene Probleme, unendliche dimensionale Ausdehnung, Symmetrien und Katalog Dieses Kapitel widmet sich offenen Problemen und neuen Perspektiven auf flache Systeme, einschließlich Entwicklungen zu Symmetrien und Systemen mit verteilten Parametern, basierend auf physikalisch interessanten Beispielen. Es enthält einen repräsentativen Katalog von Flachsystemen aus verschiedenen Bereichen der Technik.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0110378 686ddda0c14fa91a5637f3450702ba39;de;;;2.2.;;;Genauigkeitsanforderungen Die Genauigkeit von Informationen wird oft als eine inhärente Eigenschaft eines automatisierten Informationssystems angesehen. Als bekanntes Beispiel fragen einige Leute nach einer Zahlungsanforderung wie einer monatlichen Kreditkarte oder einer Telefonrechnung und erhalten eine Antwort von einem Mitarbeiter, die sagt:;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5269-7_6 9df98e26970dffb9e0e880a0dbb8d00a;de;;;6.1.;;;Secondary Data Reviews in the Context of Humanitarian Needs Assessments: Determination of RequirementsThe importance of humanitarian logistics has been increasingly recognized during recent years. Similar to logistics processes in the commercial sector, humanitarian logistics is driven by demand. Determining this demand is essential for the management of the whole procurement and distribution process. Therefore, humanitarian organizations developed various needs assessment routines. Immediately after the onset of a disaster, they start to collect and analyze the available data. This process of reviewing secondary data is highly complex and often unstructured. However, accurate information in this early stage of aid operations can be very beneficial for the determination of demand and the according humanitarian procurement and distribution processes. Therefore, the support of Secondary Data Reviews by regarding routines and procedures or a particular tool seems to be appropriate. This paper aims to identify functional requirements on such tool‐supported Secondary Data Reviews. A four steps approach has been applied in order to determine the regarding requirements, including the requirements elicitation, analysis, specification and validation. Information has been gathered by expert interviews and the review of documents. As a result, 215 relevant requirement specifications could be derived.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-18632-6_6 2c4bd59b9710d1fee231daf1cb268375;de;;;6.1.;;;Baustein 4: Mögliche Wege zur Verbesserung des KontaktmanagementsDie verbesserten technischen Möglichkeiten des Informationsmanagements in den vergangenen Jahren bieten zahlreiche Chancen zur Intensivierung und Verbesserung des Kontaktmanagements.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-12467-0_5 f49fd62b4c4b73af5aeaf6381c59fdf8;de;;;2.2.;;;UniNE beim CLEF-IP 2009 Dieses Papier beschreibt unsere Teilnahme an der Aufgabe des geistigen Eigentums während der CLEF-2009-Kampagne. Unser Hauptziel war es, verschiedene Suchmodelle zu evaluieren und verschiedene Strategien auszuprobieren, um relevante Begriffe aus einem Patent auszuwählen und zu gewichten, um eine effektive Abfrage zu bilden. Wir fanden heraus, dass die probabilistischen Modelle tendenziell besser abschneiden als andere und dass die Kombination verschiedener Indizierungs- und Suchstrategien die Wiederauffindbarkeit weiter verbessern kann. Die endgültige Leistung ist immer noch niedriger als erwartet und daher sind weitere Untersuchungen in diesem Bereich erforderlich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15754-7_57 dcfe769146e2ab2587d254ae6d299d8a;de;;;2.2.;;;Physisches Design von Fuzzy-Datenbanken Erheblicher Forschungsaufwand wurde in Methoden investiert, um ungenaue Informationen in verschiedenen Datenbankmodellen unter Verwendung der Fuzzy-Set-Theorie darzustellen. Die Forschung, die sich auf Zugriffsstrukturen zur effektiven Handhabung von Fuzzy-Abfragen richtet, befindet sich jedoch noch in einem unausgereiften Stadium. Die Fuzzy-Abfrage beinhaltet eine komplexere Verarbeitung als die normale Abfrage. Im Vergleich zu den scharfen Abfragen wird möglicherweise eine größere Anzahl von Tupeln durch Fuzzy-Abfragen ausgewählt. Es liegt auf der Hand, dass die Notwendigkeit einer schnellen Reaktionszeit sehr wichtig ist, wenn die Datenbanksysteme mit ungenauen (unscharfen) Daten umgehen. Die gegenwärtigen scharfen Indexstrukturen sind ungeeignet, um Fuzzy-Daten darzustellen und effizient darauf zuzugreifen. Es ist notwendig, zuzulassen, dass sowohl die Nicht-Fuzzy- als auch die Fuzzy-Attribute gemeinsam indiziert werden, daher ist eine mehrdimensionale Zugriffsstruktur erforderlich. In diesem Kapitel beschreiben wir eine mehrdimensionale Datenstruktur, nämlich Multi Level Grid File (MLGF), die effizient sowohl auf scharfe als auch auf Fuzzy-Daten aus Fuzzy-Datenbanken zugreifen kann. Neben geeigneten Zugriffsstrukturen ist eine effektive Partitionierung, Darstellung und Speicherung von Fuzzy-Daten für eine effiziente Wiedergewinnung erforderlich. Die Implementierung der Zugriffsstruktur wird beschrieben und mit bestehenden Fuzzy-Zugriffsverfahren verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-1880-2_2 d7e6b62439c858a6ef0aceb71ef4e42a;de;;;6.1.;;;Durch Governance zu einer gemeinsamen Verantwortungskultur?Unter dem Einfluss neuer Informations- und Kommunikationstechnologien verändern sich die herkömmlichen medialen Vermittlungsstrukturen und die mit ihnen institutionalisierten Normen und Regeln. Damit ändern sich das Verständnis von Öffentlichkeit und Privatheit sowie die damit verbundenen sozialen wie rechtlichen Regelungsvorstellungen. Es stellt sich deshalb die Frage, was Social Media-Anbieter bislang intern regeln und wie diese Regelstrukturen zu bewerten sind. Dabei interessiert uns in diesem Zusammenhang, inwiefern die Nutzer in die interne Regelung der Social Media-Anbieter, insbesondere im Bereich des technischen Selbstschutzes, einbezogen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-10140-4_6 241c10972337aeed675e78bd223b25e2;de;;;6.1.;;;Begriffsdefinitionen und AnforderungenDass es ökonomisch notwendig ist, den Unternehmenswert zu mehren, darüber besteht heute weitgehender Konsens in Wissenschaft, Politik und Unternehmenspraxis. Als Leitbegriff moderner Unternehmensführung und als Managementkonzept hat sich die Wertorientierung heute weitestgehend durchgesetzt. Jedoch fehlt – in der Praxis wie auch in der Forschung – meist ein einheitliches Begriffsverständnis, was überhaupt einen Wertbeitrag darstellt, da Unternehmen unterschiedliche und nicht nur monetäre Ziele verfolgen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-23110-1_2 7593ac55b0e42d73b455c2a0d54d6d5a;de;;;2.2.;;;Wann ist eine Typenverfeinerung ein induktiver Typ? Abhängig typisierte Programmiersprachen ermöglichen es, anspruchsvolle Eigenschaften von Daten innerhalb des Typsystems auszudrücken. Von besonderem Nutzen bei der abhängig typisierten Programmierung sind indizierte Typen, die Daten durch rechnerisch nützliche Informationen verfeinern. Zum Beispiel verfeinert der ℕ-indizierte Vektortyp Listen nach ihrer Länge. Andere Datentypen können auf ähnliche Weise verfeinert werden, aber Programmierer müssen zweckspezifische Verfeinerungen an einem;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19805-2_6 683280a6ef1ff5468fb068fab4ce5f63;de;;;2.2.;;;Kategorisierung und Abrufen von Szenenfotos aus einer komprimierten JPEG-Datenbank Die natürliche Bildkategorisierung und das Wiederauffinden ist die größte Herausforderung bei der Bildindexierung. Mit der Zunahme der verfügbaren Bild- und Videodatenbanken besteht ein echter Bedarf, die Datenbank erstens automatisch nach verschiedenen semantischen Gruppen zu organisieren und zweitens diese großen Datenbanken zu berücksichtigen, in denen die meisten Daten in komprimierter Form gespeichert sind . Die globale Verteilung von Orientierungsmerkmalen ist ein sehr mächtiges Werkzeug, um die Datenbank semantisch in Gruppen zu gliedern, wie z. Felder, Strände usw.). Die Einschränkung einer JPEG-komprimierten Datenbank ist vollständig in eine effiziente Implementierung eines Orientierungsschätzers im DCT-Bereich (Discrete Cosinus Transform) integriert. Der vorgeschlagene Schätzer wird unter verschiedenen Gesichtspunkten (Genauigkeit und Unterscheidungskraft) analysiert. Die Bilder werden dann global durch einen Satz einiger weniger Parameter (zwei oder drei) charakterisiert, was eine schnelle Kategorisierung und Organisation von Szenen ermöglicht, die sehr robust gegenüber dem Quantisierungseffekt ist, bis zu einem Qualitätsfaktor von 10 im JPEG-Format.;-;-;-;https://link.springer.com/article/10.1007/s100440170016 a09d0c706d904e83d6ffaf58bcad1204;de;;;2.2.;;;Begrenzte Pfade für LCR-Abfragen in beschrifteten gewichteten gerichteten Graphen Die meisten Daten in der Big Data-Ära sind halbstrukturiert oder unstrukturiert, die als Diagramme modelliert werden können, in denen Knoten Objekte sein können und Kanten die Beziehungen zwischen den Objekten darstellen. Bei einem gegebenen Quell- und Zielscheitelpunkt zusammen mit dem Label-Einschränkungssatz findet die Label-Constraint Reachability(LCR)-Abfrage das Vorhandensein eines Pfads zwischen dem Quell-Scheitelpunkt und dem Ziel-Scheitelpunkt innerhalb der Label-Einschränkung. Das Ziel des Papiers ist es, die etikettenbeschränkten Pfade effizient durch die Kosten zu finden. Wir erweitern und schlagen die markenbasierte Pfadindizierung vor, um begrenzte Pfade für LCR-Abfragen in Graphen zu berechnen. Es beinhaltet die Auswahl einer Teilmenge von Knoten als Landmarkenknoten, das Erstellen eines Index, der ihre erreichbaren Knoten und die entsprechenden Pfadinformationen darstellt. Für jeden Nicht-Landmark-Knoten wird ein zusätzlicher Index konstruiert, der die Erreichbarkeit von Landmark-Knoten und ihre entsprechenden Pfadinformationen darstellt. Bei der Abfrageverarbeitung werden diese Indizes verwendet, um die Erreichbarkeit zu prüfen und die begrenzten Pfade effizient zu finden. Die Experimente wurden an realen Graphen und synthetischen Benchmark-Datensätzen durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1810-8_13 a08dc43c22b29b86ea4f2ed0ce5bf842;de;;;6.1.;;;Datentechnische Grundlagen von Facility ManagementIn den 80er und 90er Jahren des letzten Jahrhunderts hielt die Informationstechnologie Einzug in Fabriken und Verwaltungen. Damit wurde das sog. „Kemgeschaft“ — vor allem die Produktion — automatisiert und wenn möglich rationalisiert. Dadurch wurden hohe Einspareffekte erzielt. Mitte der 90er Jahre wurde damit begonnen, auch in den Bereichen von Industrie und Verwaltung, die nicht zum Kerngeschäft gehören, den Einsatz der Informationstechnologie voranzutreiben. Ein wichtiger Bereich dabei sind Grundstücke und Gebäude und ihre Bewirtschaftung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-56050-7_1 920a75359023d3b619f667545d11f1a5;de;;;2.2.;;;Ein KE-LSA-Ansatz für nutzerzentriertes Design In der heutigen hart umkämpften Geschäftsumgebung verwenden die meisten erfolgreichen Unternehmen „benutzerzentrierte“ Designtechniken, um Produkte zu entwickeln, die den Benutzeranforderungen entsprechen. Designer haben mit einem gewissen Erfolg traditionelle benutzerzentrierte Designtechniken verwendet. Auf dem heutigen Markt benötigen Unternehmen jedoch genauere, fortschrittlichere benutzerzentrierte Designtechniken, um maßgeschneiderte Produkte für einzelne Benutzer in Serie herzustellen. Diese Studie stellt einen neuen KE-LSA-Ansatz für nutzerzentriertes Design vor. Frühere Techniken verwendeten Kansei Engineering (KE) für das Produktdesign. Frühere Techniken verwendeten latente semantische Analyse (LSA) für die Dokumentenindexierung. Der KE-LSA-Ansatz verwendet KE und einen KE-LSA-Semantikraum für ein individuell angepasstes Produktdesign. Anhand einer Fallstudie wird der KE-LSA-Ansatz beschrieben. Die Fallstudie verwendet den KE-LSA-Ansatz, um die Kansei-Werte für die Bedürfnisse der einzelnen Benutzer mit den Mobiltelefondesigns für jeden Benutzer abzugleichen. Die Fallstudie bestimmt auch die Genauigkeit für die Anpassung der KE-LSA-Designs an die tatsächliche Wahl jedes Benutzers für ein Mobiltelefon. In der Fallstudie passte ein iterativer KE-LSA-Ansatz die Designs mit einer Gesamtgenauigkeit von 82,3 % an die Auswahl der Benutzer an. Der iterative KE-LSA-Ansatz verbesserte die Gesamtgenauigkeit um 11,4 % im Vergleich zu einem traditionellen iterativen KE-QT1-Ansatz. Der KE-LSA-Ansatz verbessert die Übereinstimmungsgenauigkeit für die Massenproduktion individuell angepasster Mobiltelefondesigns. Daher verbessert diese Studie das individuell angepasste Produktdesign und die Produktqualität.;-;-;-;https://link.springer.com/article/10.1007/s10845-012-0625-x 9f57644362efe2640c96002453dbfee5;de;;;2.2.;;;Smith: Eine effiziente modellbasierte zweidimensionale Formanpassungstechnik Frühere Forschungen zur modellbasierten 2 – D-Objekterkennung haben die Szenendarstellung entweder mit jedem Modell in einer Modelldatenbank oder mit jedem einer Sammlung von Merkmalen, die zu einer Modelldatenbank gehören, verglichen, bis die Szene vollständig analysiert war. Mit anderen Worten, diese Techniken waren modellgesteuert und es fehlte ein datengesteuerter Indexierungsmechanismus für den Modellabruf. In diesem Beitrag entwickeln wir einen solchen Indexierungsmechanismus. Dieser Mechanismus ist Teil eines Gesamtschemas namens;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83462-2_15 0acdb4ec0131b5b97ec382323f9effc5;de;;;6.1.;;;Arnold Picot und die WirtschaftsinformatikPlötzlich und unerwartet starb Arnold Picot im Alter von nur 72 Jahren. Als einer der Vordenker der deutschen Betriebswirtschaftslehre hat er eine Vielzahl von Forschungsfeldern adressiert. Der vorliegende Artikel zeigt auf, dass die Wirtschaftsinformatik als eines dieser Felder zu erachten ist. Um dies zu belegen, werden die zehn meistzitierten Arbeiten Picots analysiert sowie zwei ausgewählte Arbeiten Picots tiefergehend betrachtet. Die Analysen ergeben, dass Arnold Picot tatsächlich auch ein Wirtschaftsinformatiker war. Sein Wirken beschränkt sich dabei nicht allein auf die akademische Forschung, sondern auch auf die institutionelle Entwicklung der Disziplin.;-;-;-;https://link.springer.com/article/10.1007/s41471-019-00066-0 49a90edea940a9f003fd4dbef5941a48;de;;;6.1.;;;Führung und Privatheit in der digitalen ArbeitsweltDurch die Digitalisierung wächst die Menge an generierten Daten in Unternehmen immer weiter an. Das Unternehmen, seine Produktions- und Arbeitsprozesse sowie das Verhalten der Mitarbeiter werden dadurch zunehmend transparent. Eine derartige Entwicklung bietet Chancen für die Führung genauso wie für den einzelnen Mitarbeiter. Doch besonders mit Blick auf das Thema Privatheit wird deutlich, dass der Trend hin zu mehr Transparenz auch Risiken bergen kann. Daher gilt es, die potentiellen Auswirkungen einer erhöhten Transparenz auf den unterschiedlichen Unternehmensebenen zu identifizieren und gegeneinander abzuwägen.;-;-;-;https://link.springer.com/article/10.1007/s11623-016-0602-1 bbf25040daa4708a79d4645cbc031843;de;;;6.1.;;;Ansatzpunkte zur Messung der Reputation von VersicherungsunternehmenUm die Reputation von Top-Unternehmen zu messen, wird in zahlreichen Ländern schon seit mehreren Jahren der sog. RQ (‚Reputation Quotient’) eingesetzt. Im Hinblick auf ein gezieltes Benchmarking erscheint es einerseits zweckdienlich, auch in der deutschen Versicherungswirtschaft auf den RQ zurückgreifen, andererseits sprechen die Ergebnisse einer empirischen Studie in Deutschland dafür, zur Messung der Reputation von Versicherungsunternehmen ein spezielleres Messkonzept zu entwickeln. Der Verfasser stellt beide Konzepte sowie ausgewählte Ergebnisse der RQ-Studie 2004 und einer in Deutschland u. a. für Versicherungsunternehmen durchgeführten Studie vor und plädiert für einen integrierten Ansatz einer Reputationsanalyse auf mehreren Ebenen (Unternehmens-, Branchen- und branchenübergreifende Ebene), um zu einem tragfähigen RQI (‚Reputation Quotient Insurances’) zu gelangen.;-;-;-;https://link.springer.com/article/10.1007/BF03353480 e1c1af84d62b502d701032086a204549;de;;;2.2.;;;Sequenzierung und Zusammenbau der Kern- und Organellengenome nordamerikanischer Fichten Referenzgenome liefern wertvolle Informationen zum Studium der Molekularbiologie und der genomischen Architektur von Arten und bilden eine Grundlage für angewandte Wissenschaften wie molekulare Züchtung und Gen-Editierung. Die Sequenzierung von Koniferen-Genomen hinkt noch hinter anderen Pflanzen- und Tierarten hinterher, da bisher nur wenige verfügbare Koniferen Genome mit vollständiger Sequenz aufweisen. Dieses Kapitel zielt darauf ab, Details zur Sequenzierung und bioinformatischen Analyse der nuklearen und organellen Genomanordnungen der wirtschaftlich wichtigen Weißfichte (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-21001-4_1 229ba204a6f5370dc182a24a53399c90;de;;;2.2.;;;Dynamische Abfragen über mobile Objekte Anwendungen erfordern zunehmend das Speichern und Abrufen von räumlich-zeitlichen Informationen in einem Datenbankverwaltungssystem. Eine Art solcher Informationen ist;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45876-X_18 31b838945a402ff42b83a530285e17cc;de;;;2.2.;;;Ein kritischer Überblick über mathematische Suchmaschinen Herkömmliche Textabrufsysteme können nicht effektiv nach mathematischen Ausdrücken suchen, da sie Formeln enthalten können, die von einfachen Symbolen bis hin zu komplexen Strukturen reichen. Im Bereich des mathematischen Retrievalsystems spielen Indexdatenstruktur und Dokumentendarstellung eine entscheidende Rolle für das Ranking und die Relevanz von Ergebnissen. Der Artikel untersucht die aktuellen mathematischen Suchmaschinen, um einen kritischen Überblick über ihre relativen Stärken und Grenzen zu geben und die aktuellen Herausforderungen rund um das Fach.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-8581-0_16 b9482a162e20c7d2c2652eb4ef995379;de;;;6.1.;;;Management unternehmensübergreifender Automotive-Projekte („C3PM“)Kein anderer Aspekt beeinflusst die Projektarbeit in der Automobilindustrie heute mehr als die zunehmende Vernetzung zwischen den Automobilherstellern und ihren Zulieferern. Unter dem Stichwort „Cross-Company-Collaboration-Projektmanagement (C3PM)“ stellen wir in diesem Teil die wichtigsten Aspekte bzw. Besonderheiten des Managements unternehmensübergreifender Projekte vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-10472-6_4 20aabaebd9848ff5cef78512507da517;de;;;2.2.;;;Marginalisierung ohne Summation unter Ausnutzung des Determinismus in der Faktoralgebra Es ist bekannt, dass das Lösen eines exakten Inferenzproblems in einem diskreten Bayesschen Netzwerk mit vielen deterministischen Knoten viel billiger sein kann, als es aufgrund seiner Baumbreite zu erwarten wäre. In diesem Artikel stellen wir hierfür eine neuartige Technik vor: Zu den Operationen der Faktormultiplikation und Faktorsummation, die die Grundlage vieler Inferenzalgorithmen bilden, fügen wir;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22152-1_22 95400d2b48acbb3adb6951cc83984353;de;;;6.1.;;;Mittelstand und Prävention 4.0Die digitale Transformation wirkt sich auf Organisations- und Arbeitsformen von Unternehmen aus. Diese Entwicklungen zeigen sich auch in mittelständischen Unternehmen. Charakterisiert wird der Mittelstand durch die Einheit von Eigentum und Leitung sowie durch besondere strukturelle und prozessuale Merkmale. Trotz der Gemeinsamkeiten handelt es sich beim Mittelstand um eine heterogene Gruppe. Diese Vielfältigkeit spiegelt sich auch im Digitalisierungsgrad mittelständischer Unternehmen wieder. Einige Unternehmen setzen bereits CPS-Systeme im gesamten Wertschöpfungsprozess ein, hingegen sind andere Unternehmen kaum oder nicht digitalisiert. Im dynamischen Prozess der zunehmenden Digitalisierung ist es wichtig, dass mittelständische Unternehmen sich frühzeitig mit Chancen und Gefahren der Digitalisierung auseinandersetzen und entsprechende Präventionsmaßnahmen umsetzen. Eine gute Präventionskultur ist im Unternehmen erreicht, wenn die Sicherheit und Gesundheit der Erwerbstätigen im Rahmen des betrieblichen Handelns einen eigenständigen Wert hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-17964-9_17 631ea71ab391898ace3a035ad77090a0;de;;;2.2.;;;Die Auswirkungen der Redundanz räumlicher Daten auf die SOLAP-Abfrageleistung Geographic Data Warehouses (GDW) sind eine der Haupttechnologien, die in Entscheidungsprozessen und räumlichen Analysen verwendet werden, und die Literatur schlägt mehrere konzeptionelle und logische Datenmodelle für GDW vor. Es wurden jedoch nur wenige Anstrengungen unternommen, um zu untersuchen, wie sich die Redundanz räumlicher Daten auf die SOLAP-Abfrageleistung (Spatial On-Line Analytical Processing) über GDW auswirkt. In diesem Beitrag untersuchen wir dieses Problem. Zunächst vergleichen wir redundante und nicht-redundante GDW-Schemata und kommen zu dem Schluss, dass Redundanz mit hohen Leistungsverlusten verbunden ist. Wir analysieren auch das Problem der Indexierung mit dem Ziel, die SOLAP-Abfrageleistung auf einem redundanten GDW zu verbessern. Vergleiche des SB-Index-Ansatzes, des Star-Join mit Hilfe von R-Tree und des Star-Joins mit Hilfe von GiST zeigen, dass der SB-Index die verstrichene Zeit bei der Abfrageverarbeitung in Bezug auf SOLAP . von 25% auf 99% verbessert Abfragen, die über die räumlichen Prädikate von Kreuzung, Umschließung und Eindämmung definiert und auf Roll-up- und Drill-down-Operationen angewendet werden. Wir untersuchen auch die Auswirkungen der Zunahme des Datenvolumens auf die Performance. Die Erhöhung beeinträchtigte die Leistung des SB-Index nicht, was die verstrichene Zeit bei der Abfrageverarbeitung stark verbesserte. Leistungstests zeigen auch, dass der SB-Index viel kompakter ist als der Star-Join und nur einen kleinen Bruchteil von höchstens 0,20% des Volumens benötigt. Darüber hinaus schlagen wir eine spezifische Erweiterung des SB-Index vor, um der Redundanz von Geodaten Rechnung zu tragen. Diese Verbesserung verbesserte die Leistung von 80 auf 91 % für redundante GDW-Schemas.;-;-;-;https://link.springer.com/article/10.1007/BF03194499 a595e61b339b0effee4de1ff6b365cf1;de;;;2.2.;;;Hochdimensionale Suche mit polyedrischen Abfragen Es ist allgemein bekannt, dass mit zunehmender Dimensionalität eines metrischen Raums metrische Suchtechniken weniger effektiv werden und die Kosten der Indizierungsmechanismen größer werden als die dadurch erzielten Einsparungen. Dies liegt an der sogenannten;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11988-5_16 de258aea821da368b1443562c834a38b;de;;;2.2.;;;Zur Komplexität der Szilard-Sprachen regulierter Grammatiken Wir untersuchen Rechenressourcen, die von alternierenden Turing-Maschinen (ATMs) verwendet werden, um Szilard-Sprachen (SZLs) von regulierten Umschreibungsgrammatiken zu akzeptieren. Das Hauptziel besteht darin, diese Sprachen mit Klassen niedriger Komplexität wie z;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23283-1_8 4ae68790ce77997a5d850c963fb21efb;de;;;6.1.;;;Datenmarktplätze in verschiedenen Forschungsdisziplinen: Eine ÜbersichtDer Handel mit Daten etabliert sich als immer wichtigerer Wirtschaftsbereich, in dem Datenmarktplätzen als Handelsplattformen eine Schlüsselrolle zukommt. Dementsprechend nimmt auch die Forschung zu Datenmarktplätzen zu und es werden neue Forschungsgebiete und -richtungen identifiziert, welche von verschiedenen Forschungsteams in unterschiedlichen Disziplinen bearbeitet werden. Dieser Artikel gibt zum ersten Mal einen Überblick über die aktuelle Forschung im Bereich Datenmarktplätze in unterschiedlichen Disziplinen. Es wird analysiert, welche Themenfelder erforscht werden und welche Forschungsgebiete weitgehend unberührt sind, außerdem werden Forschungsarbeiten aus ähnlichen Bereichen gegenübergestellt und der Gesamtzusammenhang aufgezeigt. ;-;-;-;https://link.springer.com/article/10.1007/s00287-017-1044-3 4af4291304f526e88e5112f91d2df764;de;;;2.2.;;;Generieren eingeschränkter Zufallsdaten mit gleichmäßiger Verteilung Wir präsentieren eine Technik zum automatischen Ableiten von Testdatengeneratoren aus einem Prädikat, das als boolesche Funktion ausgedrückt wird. Die Verteilung dieser Generatoren ist über Werte einer gegebenen Größe gleichmäßig. Um die Generierung effizient zu gestalten, verlassen wir uns auf die Faulheit des Prädikats, die es uns ermöglicht, den Werteraum schnell zu beschneiden. Im Gegensatz dazu ist die manuelle Implementierung von Testdatengeneratoren arbeitsintensiv und fehleranfällig. Darüber hinaus weisen handschriftliche Generatoren oft eine unvorhersehbare Verteilung von Werten auf, wodurch die Gefahr besteht, dass einige Werte willkürlich unterrepräsentiert werden. Wir präsentieren auch eine Variante der Technik, bei der die Verteilung auf eine begrenzte und vorhersehbare Weise verzerrt ist, was möglicherweise die Leistung erhöht. Die experimentelle Bewertung der Techniken zeigt, dass die einheitlich abgeleiteten Generatoren viel einfacher zu definieren sind als handgeschriebene und ihre Leistung, obwohl sie niedriger ist, für einige realistische Anwendungen ausreichend ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07151-0_2 d535c8f1385036b3bfb1c45c1d701d41;de;;;2.2.;;;Multimodale Erkennung von Highlights für Multimedia-Inhalte Wir präsentieren ein multimediales Informationsanalyse-Framework für das inhaltsbasierte Durchsuchen von Videos. Konkret entwickeln wir Algorithmen zur automatisierten Extraktion von Video-Highlights in Sportvideos, die auf Audio-, Text- und Bildmerkmalen basieren. Die extrahierten Anmerkungen werden verwendet, um Anwendungen zum selektiven Durchsuchen von Sportvideos zu erstellen. Solche Zusammenfassungstechniken ermöglichen eine inhaltsbasierte Indexierung von Multimediadokumenten für eine effiziente Speicherung und Wiederauffindung. Darüber hinaus werden diese Verfahren im Kontext des neu entstehenden Standards MPEG-7 Anwendungen ermöglichen, die MPEG-7-Beschreibungen verwenden. Da dieser Standard nur die Syntax zum Darstellen solcher Beschreibungen und keine spezifischen Algorithmen zu ihrer Extraktion bereitstellt, sind diese Algorithmen von großem Wert, um MPEG-7 als akzeptierten Standard zu etablieren. Wir liefern experimentelle Ergebnisse für die vorgeschlagenen Algorithmen zu mehreren Stunden Sportprogrammen, die die Machbarkeit effizienter Videozugriffstechniken in einer multimedialen Umgebung beweisen.;-;-;-;https://link.springer.com/article/10.1007/s00530-003-0130-3 f2b163a8671d23dc5a397846285423c3;de;;;2.2.;;;Service Design, Wettbewerb und Marktsegmentierung in Business Information Services mit Datenaktualisierungen Unternehmensinformationsdienste sind Vermittler, die wertvolle Informationen für professionelle Nutzer sammeln, zusammenstellen, bündeln und verteilen. Wir betrachten zwei Technologien, die solche Vermittler für die Bereitstellung von Informationen verwenden können. Erstens, ein verpacktes Design, das physische Medien wie CD-ROMs verwendet, um Informationen zu verteilen. Zweitens ein Online-Dienst, der solche Informationen über das Internet oder andere Online-Netzwerke liefert. Wir modellieren einen Markt, in dem Abonnenten zwischen „Self-Service“ wählen können, bei dem sie Informationen direkt aus Quellen sammeln und zusammenstellen, und einem Drittanbieter, der entweder ein verpacktes Design oder einen Online-Dienst anbietet. Abonnenten werden nach ihrem Nutzungsvolumen für den Dienst indiziert. Im Duopol zeigen wir, dass Anbieter mit Online- oder Pakettechnologien unterschiedliche Marktsegmente bedienen werden. Die eingeschränkte Fähigkeit des Paketanbieters, aktuelle Informationen bereitzustellen, in Verbindung mit sinkenden Suchkosten in einem Online-Dienst wird einen Paketanbieter zunehmend anfällig dafür machen, vom Online-Anbieter aus dem Markt gedrängt zu werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-36892-4_13 949992b320d28c4ac217745bb9879703;de;;;2.2.;;;Eine komprimierte selbstindizierte Darstellung von XML-Dokumenten Dieses Papier präsentiert eine Struktur, die wir XML Wavelet Tree (XWT) nennen, um jedes XML-Dokument in komprimierter und selbstindizierter Form darzustellen. Daher kann jede Abfrage oder Prozedur, die über das Originaldokument ausgeführt werden könnte, effizienter über die XWT-Darstellung ausgeführt werden, da sie kürzer ist und einige Indizierungseigenschaften aufweist. Tatsächlich ermöglicht XWT eine effizientere Beantwortung von XPath-Anfragen als die Verwendung der unkomprimierten Version der Dokumente. XWT ist auch beim Vergleich mit invertierten Indizes über das XML-Dokument konkurrenzfähig (wenn beide Strukturen denselben Platz verwenden).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04346-8_27 7222b7e7dd965d454c5e84eff56162a6;de;;;6.1.;;;Die Bedeutung von Service- Innovationen für die deutsche IndustrieIn diesem Kapitel werden wir verdeutlichen, was man unter Service-Innovationen in der Industrie versteht, welche Treiber gegenwärtig von Bedeutung sind, ob und wenn ja, inwiefern sich der Innovationsprozess im Service-Bereich vom Innovationsprozess in der Sachgüterherstellung unterscheidet, welche Erfolgsfaktoren dabei eine Rolle spielen und welche Anforderungen daraus für den Transformationsprozess zu einem stärker service- orientierten Industrieunternehmen abzuleiten sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-6933-0_3 15c6ba1c1c5af99739faa1a45f530a20;de;;;6.1.;;;Schlussbemerkungen und Ausblick“Information bewegt Kapitalströme, beeinflusst Kunden und Märkte”). “Auswahl und Zugang zu den ’richtigen’ Informationen zur richtigen Zeit und ihre optimale Aufarbeitung werden angesichts der Ueberflutung mit Informationen sowie der immer komplexeren Finanzwelt um so wesentlicher, je mehr Marktteilnehmer über gleiche Informationen zur gleichen Zeit verfügen”;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-00138-6_18 e68b80d79953c5ad6e4687e89b23f97c;de;;;6.1.;;;Die Logistik des Datenmanagements im Energiemarkt der Zukunft – Akteure, Objekte und VerteilungsmodelleDie Digitalisierung und Technologisierung unserer Welt in allen Lebensbereichen sorgt dafür, dass immer mehr Daten erzeugt werden. Ein effektiver und effizienter Umgang mit der Masse an Daten ist daher unerlässlich. Der Begriff „;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-02778-0_17 787103bf1a688b86241ab275a139416a;de;;;2.2.;;;Bereitstellung integrierter Schlüsselwortsuchfunktionen in RDBMS Ein üblicher Ansatz zum Durchführen einer Schlüsselwortsuche in relationalen Datenbanken besteht darin, die minimalen Steiner-Bäume in Datenbankgraphen zu finden, die aus relationalen Daten transformiert wurden. Diese Methoden sind jedoch ziemlich teuer, da das minimale Steiner-Baum-Problem als NP-schwer bekannt ist. Darüber hinaus sind diese Verfahren unabhängig vom zugrunde liegenden relationalen Datenbankmanagementsystem (RDBMS) und können daher nicht von den Fähigkeiten des RDBMS profitieren. Als Alternative schlagen wir in diesem Beitrag ein neues Konzept namens . vor;-;-;-;https://link.springer.com/article/10.1007/s00778-010-0188-4 c0199682511a6aa6177a074c17b76bf7;de;;;6.1.;;;Simulation - Analyse der organisationellen Etablierungsbestrebungen der epistemischen Kultur des Simulierens am Beispiel der Klimamodellierung„’Meteorology is a branch of physics,’ a weather expert remarked in 1939, ‘andphysics makes use of two powerful tools: experiment and mathematics. The first ofthese tools is denied to the meteorologist and the second does not prove of muchuse to him in climatological problems.’ So many interrelated factors affected climate,he explained, that you couldn’t write it all down mathematically without makingso many implifying assumptions that the result would never match reality. It wasn’teven possible to calculate from first principles the average temperature of a place,let alone how the temperature might change in future years. And ‘without numericalvalues our deductions are only opinions.’“ (Weart 2006);-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-91639-2_2 5180fab41269831ce057735139092adc;de;;;6.1.;;;Envision E-Learning — Von der Strategie zum detaillierten ProjektplanZunehmend beschließen große und mittelgroße Unternehmen umfassende E-Learning Projekte zu starten. Diesem Beschluss geht nicht selten ein über mehrere Monate andauernder Entscheidungsprozess voraus. Im Laufe dieses Prozesses werden z. B. unternehmensinterne Workshops mit Entscheidungsträgern durchgeführt, E-Learning Strategien des Unternehmens diskutiert sowie Marktstudien für mögliche Lösungsanbieter erarbeitet. Das Ergebnis ist typischerweise eine Aufforderung an potenzielle Lieferanten, ein Angebot für die Realisierung einer E-Learning Lösung zu erstellen. Letztlich erhält ein ausgewählter Anbieter den Auftrag und das E-Learning Projekt beginnt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-05672-0_12 851cd95ce80e1fa0bc9108f1e89e772b;de;;;6.1.;;;Aktuelle Strategien des DiabetesmanagementMedizinisches Diabetesmanagement ist ein komplexer Prozess, der sich nicht allein auf die Behandlung der Hyperglykämie beschränkt. Vielmehr sind alle Aspekte der Primärprävention (Vermeidung des Typ-2-Diabetes, s. Kap.1 und 38), der Sekundärprävention (Vermeidung und Therapie metabolischer Entgleisungen) und der Tertiärprävention (Behandlung diabetesassoziierter Folgeerkrankungen) zu berücksichtigen (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18571-7_34 9371348e978a959eabd3903be1ae8b4b;de;;;6.1.;;;Strukturierte Analyse von Nachfrageflexibilität im Stromsystem und Ableitung eines generischen Geschäftsmodells für (stromintensive) UnternehmenIm Zuge des Ausbaus erneuerbarer Energien bedarf es im Stromsystem entsprechender Flexibilität, um das Gleichgewicht von Stromerzeugung und -verbrauch jederzeit aufrechterhalten zu können. Gleichzeitig nimmt der Industriesektor aufgrund der stromintensiven Prozesse und dem daraus resultierenden hohen Strombedarf eine zentrale Rolle für eine erfolgreiche Energiewende ein. Industrielle Nachfrageflexibilität kann im Vergleich zu anderen Flexibilitätsoptionen eine kostengünstige Alternative darstellen. Unternehmen können wiederum durch die Bereitstellung von Flexibilität die eigenen Strombeschaffungskosten reduzieren. Aufgrund eines komplexen Entscheidungsumfelds sowie mangelnder Planungssicherheit nutzen aktuell nur wenige Unternehmen das vorhandene Potenzial. Zum Erreichen der Ziele der Energiewende muss das genutzte Potenzial noch deutlich gehoben werden, d. h. die Unternehmen müssen die Stromnachfrage zukünftig stärker an das vorhandene Stromangebot anpassen. Der vorliegende Artikel soll Unternehmen bei diesem Transformationsprozess unterstützen, indem Dimensionen und Ausprägungen eines generischen Geschäftsmodells für Nachfrageflexibilität aufgezeigt werden. Durch eine Literaturstudie und anschließende Expertenworkshops wird ein generisches Geschäftsmodell für Unternehmen abgeleitet, welches Transparenz hinsichtlich der notwendigen Aktivitäten und Ressourcen für die Befähigung sowie der Umsetzung von Nachfrageflexibilität schafft. Die Ergebnisse wurden mithilfe des etablierten Business Model Canvas erarbeitet. Dadurch werden Unternehmen, die sich bislang noch nicht mit Nachfrageflexibilität auseinandersetzen, bei der Einführung unterstützt, und somit Einstiegsbarrieren reduziert. Die vorgestellten Ergebnisse tragen dadurch zu einer Steigerung des Nachfrageflexibilitätspotenzials der Industrie bei.;-;-;-;https://link.springer.com/article/10.1007/s12398-020-00279-5 3ccf69bcbfff87d70b1f53f4e0e23af5;de;;;2.2.;;;Automatische Partitionierung von Full-Motion-Videos Das Aufteilen einer Videoquelle in sinnvolle Segmente ist ein wichtiger Schritt für die Videoindizierung. Wir präsentieren eine umfassende Studie eines Partitionierungssystems, das Segmentgrenzen erkennt. Das System basiert auf einer Reihe von Differenzmetriken und misst die Inhaltsänderungen zwischen Videoframes. Ein Zwillingsvergleichsansatz wurde entwickelt, um das Problem der Erkennung von Übergängen zu lösen, die durch Spezialeffekte implementiert werden. Um die falsche Interpretation von Kamerabewegungen als Übergänge zu eliminieren, wird ein Bewegungsanalysealgorithmus angewendet, um zu bestimmen, ob ein tatsächlicher Übergang aufgetreten ist. Eine Technik zum Bestimmen des Schwellenwerts für eine Differenzmetrik und ein Multi-Pass-Ansatz zur Verbesserung der Rechengeschwindigkeit und Genauigkeit wurden ebenfalls entwickelt.;-;-;-;https://link.springer.com/article/10.1007/BF01210504 1d66c3c542acdf7700aedca28d6dbff9;de;;;6.1.;;;Internet und Intranet im TourismusDer folgende Beitrag entstand aus der planerischen Mitwirkung und Mitgestaltung an Stadt- und Regionalinformationssystemen, insbesondere dem RIS (Regionales Informationssystem Steyr-Kirchdorf) und dem Tourismusinformationssystem der Stadt Salzburg. Die Darstellung erfolgt anhand von Determinanten der Planung von Stadt- bzw. Regional-, bzw. Tourismusinformationssystemen. Die Entstehung dieses Beitrages wurde innerhalb des Forschungs- und Entwicklungsvorhabens „Benutzeroberflächen für pluralistische Stadtinformationssysteme“ vom Berliner Senat gefördert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-98055-8_8 2b2a37d1c7d8da3bc348aeef0d97a1a6;de;;;6.1.;;;RFID – Radio Frequency IdentificationDer Radio Frequency Identification (RFID) wurde sowohl in der wissenschaftlichen als auch in der populärwissenschaftlichen Literatur in der letzten Zeit viel Aufmerksamkeit eingeräumt. Es handelt sich dabei um eine Technologie, mit der Objekte der Realwelt über Funkwellen identifiziert werden können. ;-;-;-;https://link.springer.com/article/10.1007/s00287-008-0267-8 bb62f78e51b2f61547f98991674d99a2;de;;;6.1.;;;Unternehmen und UmweltJegliches Unternehmen ist in ein Umfeld (synonym: Umwelt) eingebettet, welches das unternehmerische Handeln in bestimmtem Ausmaß determiniert. Das Unternehmen selbst kann dabei als ein eigenes System interpretiert werden, welches in Interaktion mit seiner Umwelt tritt. In diesem Zusammenhang taucht zwangsläufig die Frage nach der Abgrenzung von Unternehmen und Umwelt auf, welche nicht eindeutig zu beantworten ist, da jede Grenzdefinition letztlich von der eingenommenen Perspektive abhängt (vgl. Schreyögg 1993, Sp. 4232 f.). Dieser Frage der Grenzziehung hat sich insbesondere die moderne Systemtheorie angenommen. Nach ihr konstituieren sich Systeme durch Herstellung einer Differenz zwischen sich und der Umwelt, wobei im Innenverhältnis eine Komplexitätsreduktion stattfindet, welche zielgerichtetes Handeln ermöglicht. Alles außerhalb dieser Differenz bzw. Grenze stellt entsprechend die Umwelt dar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-58961-4_2 50f6b5b0446f605a851e9e9092e9d9e4;de;;;6.1.;;;Entwicklung von Visual-Analytics-Anwendungen zur raumzeitlichen Analyse von KraftstoffpreisenTankstellen in Deutschland müssen seit Ende 2013 sämtliche ihrer Preisänderungen in Echtzeit an eine Meldestelle des Bundeskartellamts mitteilen. Entsprechende Daten wurden im Rahmen dieser Arbeit in Bezug auf kleinräumliche Reaktionen in der Preisgestaltung zwischen benachbarten Tankstellen analysiert. Typische Verhaltensmuster einzelner Tankstellen und Tankstellen ketten wurden festgestellt. Mit der Hypothese, dass davon abweichendes Verhalten zu entsprechenden Reaktionen der konkurrierenden Nachbartankstellen führt, wurden die Daten auf ungewöhnliche Preisänderungen einzelner Tankstellen und die darauffolgenden Reaktionen ihrer Nachbarn untersucht. Dazu wurden zwei prototypische, webbasierte Visual-Analytics-Anwendungen auf Basis von PostgreSQL/PostGIS (Datenhaltung und Berechnungen), Leaflet (Karten) und verschiedenen D3-basierten Bibliotheken (Diagramme) entwickelt.;-;-;-;https://link.springer.com/article/10.1007/BF03545283 219352341ba40fcba7d6e8c2a406d75d;de;;;6.1.;;;Product Lifecycle Management im Konzernumfeld – Herausforderungen, Lösungsansätze und HandlungsempfehlungenFür produzierende Unternehmen hat sich Product Lifecycle Management in den letzten Jahrzehnten in wachsendem Maße zu einem strategisch wichtigen Ansatz entwickelt. Forciert durch steigende Effektivitäts- und Effizienzanforderungen stellen viele Unternehmen ihre Product Lifecycle Management-Prozesse und -Informationssysteme auf den Prüfstand, wobei besonders große, heterogene Industriekonzerne mit weitreichenden Aufgaben bei der Strategieentwicklung und -umsetzung betraut sind. Basierend auf einer Einzelfallstudie bei einem weltweit führenden, diversifizierten Konglomerat beschreibt der vorliegende Beitrag entlang eines etablierten Analyseframeworks Herausforderungen und Lösungsansätze im Product Lifecycle Management im Konzernumfeld. Als zentraler Inhalt werden Handlungsimplikationen auf strategischer, organisationaler, prozessualer und informationstechnologischer Ebene abgeleitet. Für Manager in fertigenden Unternehmen bietet die Fallstudie einen wertvollen Überblick über relevante Aspekte. Für industrienahe Forscher zielt die Fallstudie auf ein besseres Verständnis des Phänomens Product Lifecycle Management im Kontext von Großunternehmen ab und trägt zur Erweiterung des Wissensfundus bei.;-;-;-;https://link.springer.com/article/10.1365/s40702-017-0372-8 fd2c20a0647c8a24e7300683c08a65ec;de;;;6.1.;;;Applikations-Architektur: Ein Ansatz zur Integration von Informations-SystemenDer Informatik soll in der Wirtschaft strategisch mehr Gewicht beigemessen werden. Dies zwingt uns, implementierte und geplante Informations-Systeme integriert zu betrachten und — wenn möglich — integriert zu nutzen. Diesem Ziel dient der hier beschriebene Top-Down-Ansatz zur Modellierung von Applikations-Architekturen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-76530-8_20 f6b97db02a0a4c57eee0341587e12f88;de;;;2.2.;;;Ein Indexmodell für die mandantenfähige Datenspeicherung in SaaS Bei SaaS-Anwendungen, bei denen mehrere Mandanten Tabellen mit geringer Dichte gemeinsam nutzen, werden Felder unterschiedlicher Datentypen je nach Anpassung in einer flexiblen Spalte gespeichert. Daher ist es nicht praktikabel, native physische Indizes für Mieter zu erstellen. In diesem Whitepaper stellen wir ein Indexierungsmodell für das Sparse-Table-Storage-Modell vor, das auf Pivot-Tabellen in Umgebungen mit mehreren Knoten basiert. Die Kernidee besteht darin, zu indizierende Felddaten in eine andere Tabelle zu kopieren und physische Indizes in dieser Tabelle zu erstellen. Dieses Modell unterstützt Anpassungs- und Isolationseigenschaften von mandantenfähigen Anwendungen und stellt Lastausgleichsmittel im Index-Subsystem bereit und steuert die Anzahl der Indexdatentabellen, wodurch der Speicher angemessen verbraucht wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38562-9_43 19115415ef3c090d252ad5cb45a2d4f6;de;;;6.1.;;;Unternehmensweites Datenqualitätsmanagement: Ordnungsrahmen und AnwendungsbeispieleDas Marktumfeld vieler Unternehmen zeichnet sich heutzutage einerseits durch kurze Innovationszyklen und kurze Markteinführungszeiten aus. Andererseits wächst die zu beherrschende Komplexität z. B. durch global harmonisierte Geschäftsprozesse und weltweit einheitlichen Kundenservice. Beides führt dazu, dass Entscheidungen im Unternehmen in immer kürzeren Abständen und auf Grundlage einer wachsenden Menge an Informationen getroffen werden müssen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78498-2_10 bcdbf8695361627ddb1b089a67fcafc9;de;;;6.1.;;;Entwicklung von Partialmodellen des ooEDM-System zur Unterstützung von TeamsZur Entwicklung des ooEDM-Systems werden in diesem Kapitel die Partialmodelle für die rechnerinterne Abbildung von Informationsobjekten in E&K wie Produkt, Dokument und Methoden, von teamorientierten Organisationsformen sowie von Geschäftsprozessen erstellt. Darüber hinaus werden die Aspekte des kooperativen Arbeitens im Team über die Gestaltung synchroner Konferenzen berücksichtigt. Die Modellbildung wird maßgeblich durch die Analyseergebnisse und standardisierten Vorgaben in STEP beeinflußt. Es werden wesentliche Erweiterungen gegenüber STEP für die Funktionen eines ooEDM-Systems formuliert. Die verschiedenen Partialmodelle werden in Kapitel 5 zu einer ooEDMS-Referenzarchitektur zusammengeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-47906-9_4 9a8e8d2a5074449854b18a6d11a7b460;de;;;6.1.;;;Verteilte ProduktentwicklungsumgebungenDie Automobilzulieferindustrie ist mit ständig steigenden Anforderungen ihrer Kunden sowie zunehmendem Konkurrenzdruck konfrontiert. Die Reaktion sind massive Konzentrationsprozesse innerhalb der Zulieferbranchen mit der daraus resultierenden Aufgabe der optimalen Integration der einzelnen Unternehmensbereiche. Interne und externe Kooperationen sind die einzige Chance, um langfristig die Wettbewerbsfähigkeit zu sichern und auszubauen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-59804-3_24 a0c3430cc54e1487c24ce0591210bf27;de;;;6.1.;;;Die Digitale Transformation als Disruption der öffentlichen VerwaltungE-Government haben wir als Bürger und Einwohner wenig nachgefragt und wenig angeboten bekommen. Die rechtlichen, organisatorischen und technischen Grundlagen für ein e-Government oder gar ein Smart Government sind noch nicht vollständig geschaffen. Dies attestieren Fromm et al. (2015: 3) in ihrer Studie mit den Worten: „Viel Gutes – oft Gleiches – wird an vielen Stellen erdacht und mit großem finanziellem Aufwand umgesetzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-21528-6_12 ae430f96fa2d3b9cd31bf8bee07f57ce;de;;;6.1.;;;Grundlagen des Web 2.0Das Web 2.0 hat viele Nutzer in einem stärkeren Maße oder sogar erstmals dazu gebracht, aktiv Inhalte im Netz zu gestalten und nicht mehr lediglich passiv Informationen aus dem World Wide Web zu beziehen (Busch 2006). Diese Kernidee des Web 2.0, den Konsumenten Raum zu geben, sich zu präsentieren und miteinander zu kommunizieren, erfreut sich sowohl nutzer-, als auch angebotsseitig zunehmender Beliebtheit. Portale wie ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73701-8_1 a233cce1970e42cca4ab1dc9d87b895f;de;;;6.1.;;;Anbieter — Baan, Produkt — ERPBaan ist mit seinem Paket ein im ERP-Sektor weltweit auftretender Anbieter, der auch weltweit agierende Kunden mit seinen Lösungen unterstützt, und ist unter diesem Aspekt in einer Reihe mit SAP R/3, Oracle Applications und ggf. noch Peoplesoft und J.D. Edwards (OneWorld) zu sehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-86534-2_5 d248a389d1d30e0fa04265dc68049fea;de;;;6.1.;;;Wettbewerbswirkungen durch IV-Systeme — Empirische Befunde und Systematisierung —Der Beitrag stellt Wettbewerbswirkungen, die durch verschiedene Arten und Ausprägungen von IV-Systemen verursacht werden, dar und zeigt ihren Einfluß auf die Porterschen Wettbewerbsgrößen auf. Diese Größen sind ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-78486-6_13 027fef5c2f20a2c4a963cdbb7c846bd5;de;;;6.1.;;;Instrumente des Supply Chain ManagementsInstrumente sind Techniken, die zur Lösung von Problemstellungen dienen. Unter diesem Gliederungsabschnitt werden ausgewählte Hilfsmittel des Supply Chain Managements diskutiert. Ihr Einsatz ermöglicht die Umsetzung der unter Abschnitt C charakterisierten Strategien moderner Logistikketten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-3769-8_4 eb1561a336a7033699d24d635c65a79c;de;;;6.1.;;;Der PC-ImpulsPreiswerte Arbeitsplatz- und Personalcomputer revolutionieren geradezu die bisherigen Arbeitsstrukturen in den meisten grö ßeren und mittleren Unternehmen. Wer die Leistungskraft und Wettbewerbsfähigkeit seiner Firma erhalten will, kommt nicht umhin, sich mit den neuen EDV-Perspektiven vertraut zu machen und die notwendigen Konsequenzen daraus zu ziehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-83906-0_40 112c994d7e2c87d0079ba66bdfa89ace;de;;;6.1.;;;Die Gemeinschaften der Eigensinnigen. Interaktionsmediale Kommunikationsbedingungen und virtuelle GemeinschaftenIst alles wieder neu im Netz oder sogar am Netz? Verfolgt man derzeit die Berichte der Massenmedien, dann drängt sich der Eindruck auf, das Internet sei wieder da. Mehr noch: der Internet-Hype scheint zurückgekehrt. Kaum sind die Abgesänge auf die Dotcom-Euphorie verklungen, da liest, hört und sieht man allerorten vom Internet und seinen gesellschaftlichen Konsequenzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-90793-2_4 0ff0aedda664273289846b9f3e69572e;de;;;6.1.;;;Dezentrale Verantwortungsbereiche in ProduktionsnetzwerkenKundenorientierung erfordert höchste Flexibilität in allen Unternehmensbereichen. Entscheidend für die Flexibilität eines Unternehmens ist die Organisation in dezentrale, prozeßorientierte und weitgehend autonome Verantwortungsbereiche, die Geschäftsprozesse möglichst vollständig ausführen. Ein Geschäftsprozeß ist eine zielgerichtete Abfolge von Ereignissen und Aktivitäten mit einem definierten Anfang und Ende. Geschäftsprozesse werden durch einen externen Auslöser gestartet und erbringen einen für Kunden wahrnehmbaren Nutzen [Bullinger 93, Görgens 95].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-57268-5_14 7498d4ba7ee7f3700123a3a7506f48ca;de;;;6.1.;;;Die rationale Marketing-Mix Entscheidung bei vager Kenntnis einzelner InstrumentwirkungenIn dieser Arbeit wird ein quantitativer Zugang zur Wirkungsprognose eines Marketing-Mix mittels probabilistischer Konditionallogik vorgestellt. Als Regeln formuliertes vages, d.h. mit Unsicherheit behaftetes Teilwissen über die Absatzwirkung einzelner oder einiger weniger Instrumenteneinsätze bildet die Wissensbasis, welche nach einem Lernprozeß informationstreu eine gemeinsame Verteilung über alle Modellvariable bereitstellt und somit künstlich die vollständige Risikosituation als Grundlage der rationalen Entscheidungsfindung schafft. Nun fuhren Anfragen an die Wissensbasis zu Prognosen über die Wirkung eines ganzen Maßnahmen-Bündels. Die hier in der probabilistischen Expertensystemsheil Spirit aufgebaute Wissensbasis besteht aus 20 Variablen und 143 Regeln. Zwei Szenarien führen die Identifikation von Synergie- beziehungsweise Kompensationseffekten sowie die Ableitung des zieladäquaten Instrumenteneinsatzes mit Hilfe von Spirit vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-50282-8_43 c25433357ec3f9cb9562dd205145f713;de;;;6.1.;;;PAO — ein Organisations- und Kommunikationsmittelfür die Produktinnovation und AuftragsabwicklungDie Produkt-Ablauf-Organisation PAO ist ein situativ flexibel gestaltbares Organisationsmittel für die „time-to-market“-orientierte Produktinnovation wie auch die Auftragsabwicklung von Telekommunikationsprodukten. Eine auf dem Phasenmodell PAO basierende Informationslogistik unterstützt mit dem Dokumentationsund Konfigurationssystem DOKOS das Product-life-cycle und das Product-Information Management, insbesondere auch im Hinblick auf Qualitätsanforderungen nach ISO 9000.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-10878-9_18 a9f691fb218e0dfc31a92508243a254d;de;;;6.1.;;;Technik und Einsatzmöglichkeiten Räumlicher DatenverwaltungssystemeDie Kopplung moderner graphischer Systeme mit Datenbanksystemen und die hieraus resultierenden Möglichkeiten des humanen, laienfreundlichen Umgangs mit großen Datenmengen sind Diskussionsgrundlage dieser Abhandlung. Es werden fünf Entwicklungsstufen einer graphisch-räumlichen Datenbankverwaltung skizziert, Prototypen und insbesondere Einsatzmöglichkeiten entsprechender Systeme beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-67953-7_17 89dc8aad7a96346065a7f6eb1b67f585;de;;;6.1.;;;Die neue Dimension des KundenkontaktesWenn Dustin Hoffmann im Film „Der Tod eines Handlungsreisenden“ seinen Söhnen von den großen Vertriebserfolgen der Vergangenheit erzählt, möchte man Parallelen zur heutigen Situation in vielen Wirtschaftsunternehmen ziehen. Der Vertriebsberater im Außendienst steht vor einem einschneidenden Umbruch in seinem Arbeitsumfeld. Elektronische Medien nehmen ihm mehr und mehr Routineaufgaben ab und seine Kunden erwarten qualitativ besseren Service. Er ist gezwungen, sich den neuen Trends anzupassen oder, wie in Millers Buch angedeutet, eine Alternative außerhalb dieser neuen Vertriebswelt zu suchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-86980-7_2 13cadd60e59c5dc2126f685c8cb3e558;de;;;6.1.;;;Internet-Ökonomie – Grundlagen und Strategien aus kommunikationswissenschaftlicher PerspektiveDer Beitrag führt in die (medien)ökonomischen Merkmale und Besonderheiten des Internets ein. Im Zentrum steht dabei der Begriff der Internet-Ökonomie, unter dem in der Literatur die ökonomischen Auswirkungen von Digitalisierung und Vernetzung beschrieben werden. Nach einer begrifflichen Klärung und Abgrenzung verwandter Begriffe wie E-Commerce, digitale Ökonomie und New Economy werden die in der Literatur identifizierten Merkmale der Internet-Ökonomie systematisiert und beschrieben. Als zentrale Besonderheiten des Wirtschaftens mit Mediengütern im Netz erweisen sich die Entkopplung von Medium und Inhalt, eine veränderte Kostenstruktur, zunehmende Netzwerkeffekte sowie die wachsende Bedeutung von Nutzern. Auf dieser Grundlage werden die Auswirkungen auf Geschäftsmodelle und Strategien entlang der Wertschöpfungskette von Medienunternehmen diskutiert. Insbesondere zeigen sich Veränderungen in der Akteurskonstellation (Dis-/Reintermediation), der Erstellung und Verwertung von Medieninhalten, der Distribution und der Einbindung der Nutzenden. Dabei wird nachgewiesen, dass das Internet zu keinem radikalen Wandel medienökonomischer Gesetzmäßigkeiten geführt hat, sondern vor allem bestehende Merkmale und Strategie modifiziert hat – wenn auch zum Teil stark.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-92437-3_5 fac3250026d1c33964a40ba33d8d7eec;de;;;6.1.;;;Datenmigration von SAP ERP nach SAP HANAEine Herausforderung, mit der Unternehmen heute konfrontiert sind, ist die Verarbeitung großer, häufig unstrukturierter, Datenmengen, um so wertvolle Informationen zu gewinnen, die dann wiederum in strategische, taktische und operative Unternehmensentscheidungen einfließen können. Diese Daten entstehen nicht nur durch das eigentliche Tagesgeschäft, sondern auch durch unternehmensexternen Datenquellen, wie beispielsweise soziale Netzwerke.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-18603-6_2 b672b0cb0c61d3668775880bab61c64b;de;;;2.2.;;;Eine automatische Bild-Text-Ausrichtungsmethode für den groß angelegten Web-Bildabruf Um große Unsicherheiten bezüglich des Zusammenhangs zwischen den Webbildern und ihren Hilfstextbegriffen zu reduzieren, wurde ein automatischer Bild-Text-Ausrichtungsalgorithmus entwickelt, um eine genauere Indizierung und Wiedergewinnung von großformatigen Webbildern zu erreichen, indem die Webbilder ihrem relevantesten visuellen Text zugeordnet werden Begriffe genau. Zunächst werden großformatige Webseiten gecrawlt, wobei die informativen Bilder und ihre wichtigsten Hilfstextblöcke extrahiert werden. Zweitens wird ein paralleles Bildclustering durchgeführt, um umfangreiche informative Webbilder in eine große Anzahl von Clustern zu unterteilen. Durch das Gruppieren der visuell ähnlichen Webbilder in denselben Cluster kann unser paralleler Bildclustering-Algorithmus die große Unsicherheit bezüglich der Verwandtschaft zwischen den Webbildern und ihren Hilfstextbegriffen erheblich reduzieren, was einen guten Ausgangspunkt für die Unterstützung automatischer Bildtexte bieten kann Ausrichtung. Schließlich wird ein Algorithmus zur Neuordnung der Relevanz entwickelt, um die relevantesten Textbegriffe zu identifizieren, um die Semantik der visuell ähnlichen Webbilder in demselben Cluster zu charakterisieren, z. B. um die Webbilder ihren relevantesten visuellen Textbegriffen zuzuordnen. Unsere Experimente mit großformatigen Webbildern haben sehr positive Ergebnisse erzielt.;-;-;-;https://link.springer.com/article/10.1007/s11042-016-4059-x e70eac2a4e57b3f2240955599c7880b1;de;;;2.2.;;;Sammeln für den Volltextabruf Wir schlagen einen Ansatz zur Distributed Information Retrieval vor, der auf der periodischen und inkrementellen Zentralisierung von Volltextindizes weit verstreuter und autonom verwalteter Inhaltsquellen basiert.;-;-;-;https://link.springer.com/chapter/10.1007/11599517_24 a6c75d264b75ce36689f357bab143b20;de;;;6.1.;;;Planung und Einsatz rechnerintegrierter Techniken als Schlüsselfaktoren für den UnternehmenserfolgIn Zeiten gesättigter Märkte können Unternehmen nur dann erfolgreich operieren, wenn es ihnen gelingt, ihren Kunden mehr zu bieten als der Wettbewerb. Dies kann beispielsweise durch bessere technische Produkte, durch günstigere Preise oder kürzere Lieferzeiten geschehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-95808-3_2 0dfcd3f4b773fe2744ff324077d9e23b;de;;;6.1.;;;Social Media als Management-Herausforderung – Ansätze zur erfolgreichen Implementierung von Social Media-StrategienSocial Media erleichtern den direkten Kundenkontakt und eröffnen von der aktiven Beteiligung an Innovationsprozessen über die Stärkung von Kundenbeziehungen bis hin zur digitalen Distribution vielfältige Optionen für das Marketing. Gerade für das Dienstleistungsmanagement bietet der Einsatz einen großen Mehrwert, da Social Media die Kundenintegration über die eigentliche Leistungserstellung hinaus ermöglichen (Bruhn/Meffert 2012). Auch die hohe Popularität von Kommunikationsplattformen wie Facebook oder Twitter bei Onlinenutzern (Busemann/Gscheidle 2012) und niedrige Einstiegsbarrieren haben zur Verbreitung im Dienstleistungsmanagement beigetragen, so dass der Einsatz von Social Media immer mehr zum Standard gehört.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-01248-9_2 af7df143003e1ba08d0a34141ca3faa8;de;;;6.1.;;;Modellgetriebene Entscheidungsunterstützung für die Umwidmung gebrauchter TraktionsbatterienFür künftige Akteure eines Geschäftsmodells mit gebrauchten Traktionsbatterien ist insbesondere die technisch zulässige und ökonomisch erfolgreiche Umwidmung der Batteriesysteme zu geeigneten Weiterverwendungsszenarien als ein komplexes Unterfangen zu bewerten. Mit einer zunehmenden Anzahl gebrauchter Traktionsbatterien, die in den nächsten Jahren ihren Weg zurück aus der Erstanwendung in den Elektroautos finden (Hoyer et al. 2011, Foster et al. 2014), wird für menschliche Entscheider sowohl der Entscheidungsaufwand als auch eine zufriedenstellende Entscheidungsqualität mit den bisher zur Verfügung stehenden Hilfsmitteln nicht beherrschbar bzw. erreichbar sein. Dennoch müssen zukünftige Akteure auf dem Markt für gebrauchte Traktionsbatterien effiziente (Aufwand) und effektive (Qualität) Entscheidungen treffen, um geeignete bzw. optimale Dispositionen für die Weiterverwendung von Gebrauchtbatterien zu identifizieren und das Geschäft erfolgreich betreiben zu können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-21021-2_5 6fb65143210b0ca01c37bbd77d1e7dd8;de;;;6.1.;;;Durchführung von UnternehmenszusammenschlüssenDie Zahl der Unternehmenszusammenschlüsse ist in den letzten zehn Jahren weltweit etwa um den Faktor 10 gestiegen. Gleichzeitig verweisen vorwiegend angelsächsische Studien beständig darauf, dass in bis zu 70 % der Zusammenschlüsse die angestrebten Ziele nicht vollständig erreicht werden. Mit etwa 62 % liegt die Hauptursache für diese Zielverfehlungen in der Post-Merger-Integrationsphase [1].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-08934-7_23 f800f89da74c065e50c4e9efcc345448;de;;;2.2.;;;TPKDB-Baum: Eine Indexstruktur zum effizienten Abrufen zukünftiger Positionen bewegter Objekte Durch die kontinuierliche Zunahme von drahtloser Kommunikationstechnologie und mobilen Geräten entsteht der Bedarf an der Speicherung und Verarbeitung von Daten von sich bewegenden Objekten in einer Vielzahl von ortsbezogenen Anwendungen. In diesem Beitrag schlagen wir eine neue räumlich-zeitliche Indexstruktur für bewegte Objekte vor, nämlich den TPKDB-Baum, der das effiziente Abrufen zukünftiger Positionen unterstützt und die Aktualisierungskosten reduziert. Die vorgeschlagene Indexstruktur kombiniert eine Assistentenindexstruktur, die direkt auf die aktuellen Positionen von sich bewegenden Objekten zugreift, mit einer räumlich-zeitlichen Indexstruktur, die die zukünftigen Positionen von sich bewegenden Objekten verwaltet. Der interne Knoten in unserer Indexstruktur speichert Zeitparameter, um den zukünftigen Positionsabruf zu unterstützen und die Aktualisierungskosten zu reduzieren. Wir schlagen auch neue Aktualisierungs- und Aufteilungsmethoden vor, um die Suchleistung und Speicherplatznutzung zu verbessern. Wir zeigen durch verschiedene experimentelle Auswertungen, dass unsere Indexstruktur die bestehende Indexstruktur übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30466-1_7 294380d51f4ab959c63e0e2b4df49458;de;;;2.2.;;;Tertiäre Hashbaum-basierte Indexstruktur für hochdimensionale Multimediadaten Dominierende Merkmale für den inhaltsbasierten Bildabruf weisen in der Regel eine hohe Dimensionalität auf. Bisher wurden viele Untersuchungen durchgeführt, um solche Werte zu indizieren, um einen schnellen Abruf zu unterstützen. Dennoch leiden viele existierende Indexierungsschemata unter einer Leistungsverschlechterung aufgrund des Fluch des Dimensionsproblems. Als Alternative wurden heuristische Algorithmen vorgeschlagen, um die Antwort auf Kosten der Genauigkeit mit „hoher Wahrscheinlichkeit“ zu berechnen. In diesem Artikel schlagen wir eine neue Hashbaum-basierte Indexierungsstruktur namens tertiärer Hashbaum vor, um hochdimensionale Merkmalsdaten zu indizieren. Der tertiäre Hash-Baum bietet im Vergleich zur herkömmlichen erweiterbaren Hash-Struktur mehrere Vorteile in Bezug auf Ressourcennutzung und Suchleistung. Durch umfangreiche Experimente zeigen wir, dass unsere vorgeschlagene Indexstruktur eine hervorragende Performance erzielt.;-;-;-;https://link.springer.com/article/10.1007/s11042-010-0687-8 c577e892581985df642017aced0705a0;de;;;6.1.;;;Die Lösung: Customer Relationship Management (CRM)Seit Mitte der Achtzigerjahre tut sich etwas in puncto systematischem Computereinsatz beim Verkauf: Die Softwareanbieter entwickeln für fast alle Bereiche spezielle Programme zur Unterstützung des Vertriebs, vornehmlich des Außendiensts. Als Vorreiter dieses neuen Computereinsatzes gelten dabei die Konsum- und Markenartikelbranche, Versicherungsgesellschaften und die Pharmaindustrie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-89528-8_2 81a5f1f278dd6eab4130ace8f9233d2b;de;;;6.1.;;;Strategisches RahmenwerkDas folgende Kapitel bildet mit der Herleitung eines strategischen Rahmenwerks den ersten Bestandteil für die Ausgestaltung des internen IT-Kundenbeziehungsmanagements. Hierzu werden zunächst mögliche Ziele für das interne IT-CRM aus der klassischen CRM-Domäne und dem Informationsmanagement zusammengeführt (s. Kapitel 4.1). Aufbauend auf diese Betrachtung wird in Kapitel 4.2 ein Zieleraster für interne IT-Dienstleister vorgeschlagen, das die Rahmenbedingungen der unterschiedlichen Dienstleistertypen A (1:1-Verhältnis), B (1:n-Verhältnis) und C (m:n-Verhältnis, s. Grundlagenkapitel 2.2.4) berücksichtigt. Kapitel 4.3 fasst die Erkenntnisse des Kapitels zusammen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-5446-2_4 800ee920d715ecf171fd124032f237d6;de;;;6.1.;;;Hypercompetition. Managing the Dynamics of Strategic ManeuveringNeue Technologien, globale Wettbewerber und flexible Produktionseinrichtungen führen zur Aufheizung der Märkte überall auf der Welt. Mit dem Wort „Hyperwettbewerb“ wird dieses Umfeld des äußerst häufigen und intensiven Wandels bezeichnet, das die Vorteile etablierter Anbieter erodiert. Generische Wettbewerbsstrategien wie Kostenführerschaft, Differenzierung und Fokussierung erweisen sich als instabil — sind angestammte Wettbewerbsvorteile noch nachhaltig? Welche Wettbewerbsstrategien sind in einem solchen Umfeld noch erfolgreich?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-9320-5_8 61a0d7115634c2119d9255c9df4f78b3;de;;;6.1.;;;Neue Geschäftsmodelle in der digitalen Zeit: Ein entschiedenes Jein, denn noch hat sich nicht überall der Nebel verzogenWenn es um Digitalisierung geht, ist häufig das Wort „Disruption“, also die Zerstörung, das Auseinanderreißen von Altbewährtem in aller Munde. Alte Geschäftsmodelle werden obsolet, funktionieren nicht mehr. Oft heißt es, sie werden durch völlig neue, digitale Geschäftsmodelle ersetzt. Altes geht, Neues kommt und erobert den Markt in Windeseile. Aber ist das wirklich so? Verschwinden alte Geschäftsmodelle? Findet ein Austausch statt? In diesem Kapitel schildern oberste Führungskräfte aus der Wirtschaft, dem öffentlichen Sektor und den Gewerkschaften, welche Veränderung sie in den Geschäftsmodellen sehen. Welche Anpassungen geleistet werden, aber auch, was so bleibt, wie es schon immer war.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-50533-5_3 f2c3921b6d219d932fdd9515c17ef7dc;de;;;2.2.;;;Entwicklung eines Datenreihenindex Durch mehrere Anwendungen in verschiedenen Bereichen besteht ein zunehmend dringender Bedarf an der Entwicklung von Techniken, die in der Lage sind, sehr große Sammlungen von Sequenzen oder Datenreihen zu indizieren und zu minen. Nicht selten handelt es sich bei diesen Anwendungen um Datenreihen im Milliardenbereich, die aufgrund ihrer Größe oft nicht in allen Details analysiert werden. In dieser Arbeit beschreiben wir Techniken zur Indizierung und effizienten Ähnlichkeitssuche in wirklich riesigen Sammlungen von Datenreihen, wobei wir uns auf die iSAX-Familie von Datenreihenindizes konzentrieren. Wir stellen ihre Designmerkmale vor und beschreiben ihre Entwicklung, um verschiedene Anforderungen zu erfüllen: Massenladen, adaptive Indizierung, Parallelität und Verteilung, Abfragen mit variabler Länge und Bottom-up-Indexierung. Basierend auf dieser Diskussion schließen wir mit der Vorstellung vielversprechender Forschungsrichtungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-44900-1_5 70bdaf3b804dee987ba402bd01cc87bb;de;;;6.1.;;;Was sich für Patienten geändert hat: Gelingt der Transfer in die Praxis?Die Diagnose Krebs ist für den individuellen Menschen ein Zusammenbruch seiner bisherigen Normalität, ruft extreme Ängste hervor und lässt nach dem Sinn des Daseins fragen. Die existenziellen Fragen des Betroffenen bleiben immer dieselben: Werde ich den Krebs überleben? Werde ich genug Kraft und Ressourcen haben, um die Strapazen der Behandlung zu überstehen? Wo finde ich die für mich beste Behandlungsmöglichkeit? Wie finde ich mich im Dschungel von Informationen und Behandlungsoptionen zurecht? Viele Antworten auf diese Fragen werden im Nationalen Krebsplan aufgegriffen und von Experten aus den unterschiedlichsten Disziplinen durch (Be)handlungsansätze beantwortet. Insgesamt wurden 4 Handlungsfelder mit 13 Zielen herausgearbeitet, die insgesamt sowohl die physische als auch die psychische, soziale und spirituelle Dimension des erkrankten Menschen berücksichtigen. Für die Patienten hat sich in diesen 10 Jahren auf jeden Fall dahingehend eine deutliche Verbesserung ergeben, dass es zu einem zunehmenden Problembewusstsein bezüglich der Ausnahmesituation kommt, in der sich ein Mensch mit einer Krebserkrankung befindet. Dieser Weg muss weiter beschritten werden, um den Weg durch die Krebserkrankung immer übersichtlicher und gangbarer für die Betroffenen zu machen.;-;-;-;https://link.springer.com/article/10.1007/s12312-019-00690-1 8c4d6bdd751d108d5dfb899f1f62d45a;de;;;6.1.;;;Ergebnisse Einer Längsschnitt-Studie Über den Software-LebenszyklusDie Lebenszyklus-Theorie ist seit langem als wertvolles Instrument zur Analyse der dynamischen Entwicklung von Produkten am Markt bekannt. Der Begriff Lebenszyklus hat auch im Zusammenhang mit Anwendungssystemen große Verbreitung gefunden. Bei vielen Autoren findet sich in der Folge die Forderung nach einem „Lebenszyklus-Management“, die inhaltliche Präzisierung fehlt jedoch meist oder wird nur stichwortartig skizziert. Der Lebenszyklus und das Lebenszyklus-Management sind eine Übertragung vom Produkt-Management, wobei die Inhalte an völlig andere Voraussetzungen angepaßt werden müssen. Vergleicht man das Konzept des Produkt-Lebenszyklus mit dem Software-Lebenszyklus, so bestehen sowohl inhaltlich und methodisch als auch bei den empirischen Forschungen noch große Defizite im Softwarebereich. Von vielen Autoren wird der Lebenszyklus (im Sinne eines Software-Lebenszyklus) allerdings auch als Synonym für die Phasen der Softwareentwicklung verstanden. Die Begriffe Lebenszyklus und Phasenkonzept beschreiben jedoch etwas grundsätzlich verschiedenes. Mit der Bezeichnung Lebenszyklus soll, im Gegensatz zum Phasenkonzept als reinem Vorgehensmodell, der iterative und zyklische Charakter des Entwicklungs- und Wartungsprozesses betopt werden (vgl. GEWA-82).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-74872-1_3 963df838bc250f08185b4823956c5d81;de;;;6.1.;;;Produktmarketing für internationale MärkteVor dem Hintergrund der weltwirtschaftlichen Entwicklungsprozesse und der spezifischen Wettbewerbsfaktoren, die sich auf internationalen Märkten ergeben haben, wird die besondere Dynamik des Produktmarketing erörtert. Im Vordergrund des Produktmarketing steht die Frage nach einer weltweiten Standardisierung gegenüber der regionalen Differenzierung. Beide Strategien weisen bestimmte Vorteile, aber auch Nachteile auf, die durch ein sorgfältiges Informationsmanagement abgestimmt werden müssen. Das internationale Produktmarketing ist eingebettet in eine Matrix von Märkten und Produkten, wobei den Innovationen ein besonderer Stellenwert für das internationale Geschäft zukommt. Das Produktmarketing stellt eine besondere Herausforderung für die deutschen mittelständischen Unternehmen dar. Aufgrund der engen persönlichen Bindungen, über die mittelständische Unternehmen gegenüber ihren ausländischen Abnehmern verfugen, spielt hierbei das Instrument des Relationship-Marketing eine herausragende Rolle.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-93365-2_3 f58992a5ae17f0237e1cddd2696d3fb3;de;;;6.1.;;;Die Entwicklung der Marinetechnik im Bereich der ÜberwasserkampfschiffeNaval shipbuilding has been a cornerstone in the history of the STG from the very beginning. This paper deals with the field of surface combat ships with a major emphasis on their further development during the era of the Bundeswehr. The marginal conditions and the procedures which have to be observed in the development and procurement of ships as well as today’s status regarding individual components and overall design are presented. The description focuses on the integration and system aspects which are the characteristic features of naval shipbuilding. An outlook onto future focal areas and development trends concludes the presentation.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-93390-5_11 9cacf9395d2e2703dc5d7949592d5d5a;de;;;6.1.;;;Empirische Auswertung I: KIT als Idee und OrganisationDas Karlsruhe Institut für Technologie (KIT) vereinigt mit dem Forschungszentrum Karlsruhe (FZK) und der Universität Karlsruhe (TH) zwei unterschiedliche Wissenschaftsorganisationen, die nicht nur durch einen gesonderten Entstehungszusammenhang zu charakterisieren sind, sondern auch durch eine gemeinsame Vergangenheit verbunden sind, die die ideelle Basis für das KIT als Organisation bildet. Unter Berücksichtigung dieser Tatsachen wird dieses Kapitel folgende Gliederung annehmen, um sowohl das KIT als Idee als auch das KIT als Organisation zu erläutern: ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-11964-5_5 9929b438139b8a2a908fa843d7801db5;de;;;6.1.;;;Reorganisation von Unternehmensprozessen: vom Vorstandsbeschluß zum neuen FormularMißerfolge bei der Einführung neuer Informations- und Kommunikationssysteme führen häufig dazu, daß die verwendeten EDV-Systeme vorschnell für untauglich erklärt werden. Oft sind die eigentlichen Gründe für den Mißerfolg jedoch darin zu suchen, daß die Informationstechnik und die betrieblichen Abläufe nicht ausreichend aufeinander abgestimmt sind. Organisatorische Mängel sind eine der Hauptursachen für das Scheitern umfassender EDV-Projekte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-41507-8_1 f104af149dd899db776bea528123bb50;de;;;6.1.;;;Das Diktat der Ökonomie oder effektives Abrechnungsmanagement in der ChirurgieAuch das Krankenhaus muß sich heute den aktuellen politischen und wirtschaftlichen Herausforderungen stellen. Die Analyse der letzten Jahre zeigt eine zunehmende Bürokratisierung und Häufung von -unberechtigten- Einsprüchen von Seiten der Kostenträger gegen unsere korrekten Rechnungen. U. E.gehört es jedoch zu den Spielregeln, daß der Leistungserbringer seine Kosten gemäß der geltenden Vorschriften zeitnah bezahlt bekommt. Optimale Abrechnung durch exakte Codierung, leistungsstarke EDV und Einsatz des Chirurgen (Schriftwechsel mit den Krankenkassen) sowie rigoroses Einfordern der berechtigten Forderungen sichern über die Erlösoptimierung die wirtschaftliche Existenz des Krankenhauses zum Wohle der Patienten und der Mitarbeiter.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-59573-8_329 dedb31086a892033188b9310afe8d334;de;;;6.1.;;;Identifikation von Nutzenpotenzialen und Herausforderungen einer SOAIn diesem Kapitel wird das Vorgehen zur Identifikation der Nutzenpotenziale und Herausforderungen einer SOA vorgestellt. Dieses erfolgte in einem dreischrittigen Vorgehen: Zunächst wurden bestehende Publikationen nach Aussagen zu der Forschungsfrage untersucht (Vorgehen und Ergebnisse finden sich in Abschnitt 4.1). Dabei zeigte sich, dass die allermeisten Aussagen reine Behauptungen, ohne theoretische Herleitung oder empirische Überprüfung, darstellten. Daher wurde zur weiteren Durchdringung der Fragestellung im zweiten Schritt eine explorative Vorstudie mit der Methode der Experteninterviews durchgeführt. Die Erläuterung der Methode und eine Zusammenfassung der wichtigsten Ergebnisse werden in Abschnitt 4.2 vorgestellt. Darauf aufbauend wurde dann als dritter Schritt ein Rahmenwerk entwickelt (Abschnitt 4.3), anhand dessen sich die Nutzenpotenziale und Herausforderungen strukturieren ließen und das als Grundlage für die empirische Überprüfung in der quantitativen Befragung (Kapitel 5) dienen sollte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-6228-7_4 5131995291cba4dd3591dd1df67b946f;de;;;6.1.;;;Dynamische Planung von FahrgemeinschaftenFahrgemeinschaften sind ein wichtiger Bestandteil des nachhaltigen Stadtverkehrs, da sie die Nutzung von Fahrzeugen erhöhen und gleichzeitig den Straßenverkehr verringern. Durch das Teilen von Fahrten bieten Autofahrer freie Plätze in ihren Fahrzeugen anderen Passagieren an, die in ähnliche Richtungen fahren möchten. Traditionelle Fahrgemeinschaften eignen sich für Fernreisen, insbesondere für Reisen zwischen Städten, sind jedoch für kurze Strecken innerhalb von Städten nicht flexibel genug. Ziel dieses Kapitels ist es, einen Service zu entwickeln, der dynamische Fahrgemeinschaften als Teil einer nachhaltigen urbanen Mobilität ermöglicht („Dynamic Ridesharing“).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-21214-8_16 b7ca97722297b83b7c2736e2f221a11a;de;;;2.2.;;;K-mulus: Strategien für BLAST in der Cloud Mit der zunehmenden Verfügbarkeit von Sequenzierungstechnologien der nächsten Generation sammeln Forscher mehr Daten, als sie verarbeiten und analysieren können. Eine der am häufigsten durchgeführten Analysen besteht darin, Ähnlichkeitsregionen zwischen DNA- oder Proteinsequenzen mit dem Basic Local Alignment Search Tool oder BLAST zu identifizieren. Aufgrund der großen Menge an erzeugten Sequenzierungsdaten sind parallele Implementierungen von BLAST erforderlich, um die Daten zeitnah zu verarbeiten. Während diese Implementierungen für Forscher mit Zugang zu Computer-Grids entwickelt wurden, bieten neuere webbasierte Dienste, wie die Elastic Compute Cloud von Amazon, jetzt skalierbares, nutzungsbasiertes Computing. In diesem Papier stellen wir K-mulus vor, eine Anwendung, die verteilte BLAST-Abfragen über Hadoop MapReduce unter Verwendung einer Sammlung etablierter Parallelisierungsstrategien ausführt. Darüber hinaus stellen wir eine Methode zur Beschleunigung von BLAST bereit, indem die Sequenzdatenbank geclustert wird, um den Suchraum für eine bestimmte Abfrage zu reduzieren. Unsere Ergebnisse zeigen, dass Benutzer die Größe der BLAST-Datenbank und den Speicher der zugrunde liegenden Hardware berücksichtigen müssen, um die BLAST-Abfragen effizient parallel ausführen zu können. Schließlich zeigen wir, dass unser Ansatz zur Clusterbildung und Indexierung von Datenbanken zwar eine erhebliche theoretische Beschleunigung bietet, in der Praxis jedoch die Verteilung von Proteinsequenzen verhindert, dass dieses Potenzial realisiert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55195-6_22 79fd3c30e996a35ba2d6b128eb1fe56a;de;;;6.1.;;;Die Memo Clinic®Aus den Interviews mit den Menschen mit Demenz und ihren Angehörigen (s. Kap. 2.1) sowie aus dem Literaturstudium (s. Abschnitt 2.2) lassen sich zentrale Anforderungen an eine gute Versorgung ableiten, wie z. B.:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-89935-286-3_3 77de44cf345cc4f32a2b55ed8eeb1545;de;;;2.2.;;;Ein Bitmap-Index für mehrdimensionale Datenwürfel Mehrdimensionale Arrays können verwendet werden, um mehrdimensionale Datenwürfel zu speichern. Eine Möglichkeit, ein solches Array auf einer Platte zu speichern, besteht darin, das Array in einen Satz kleiner Blöcke zu unterteilen, die in einen Plattenblock passen. Chunks haben normalerweise die gleiche Seitenlänge und werden vor dem Speichern komprimiert, um eine hohe Abfrageverarbeitungsgeschwindigkeit und Platznutzung zu erreichen. Dieses Schema wird als stückbasiertes Cube-Speicherschema bezeichnet. Obwohl das Schema als ein positionsbasiertes Speicherschema angesehen wird, können die Chunks ohne die Verwendung von Indizes nicht schnell abgerufen werden, da sie komprimiert sind. In diesem Papier schlagen wir einen Bitmap-Index für ein solches Speicherschema vor. Der Index kann parallel zum Datenwürfel aufgebaut werden. Die relativen Positionen des Chunk-Abrufs können in konstanter Zeit erfolgen. Wir haben so viele Chunks wie möglich in einen Indexblock platziert, damit die Anzahl der Indexsuchen für OLAP-Operationen wie Slice-, Dice- und Range-Abfragen minimiert wird. Wir haben den vorgeschlagenen Index evaluiert, indem wir ihn mit bestehenden mehrdimensionalen Indizes wie UB-Tree und Rasterdatei in Bezug auf Zeit und Raum verglichen haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30075-5_34 615b48c15c70af103e2aeebb69189e5e;de;;;6.1.;;;Kundeninformationen sind eine strategische Ressource von UnternehmenDer Anspruch lässt sich prägnant umschreiben: Ein Unternehmen sollte mindestens über ein ebenso gutes Gedächtnis zu einer Beziehung mit dem Kunden verfügen, wie dieser selbst (Oggenfuss 2008). Gezielt ausgewählte Kundeninformationen sind die Basis für eine wirksame Zusammenarbeit mit Kunden. Inzwischen sind Systeme des Customer Relationship Management und der Kundeninformationen selbstverständlich. Trotzdem bleibt viel zu tun.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-6456-4_4 15a7a212cb2be1654408c9aa937e5698;de;;;6.1.;;;Das datenzentrierte Unternehmen: Eine Business-Engineering-PerspektiveÜber die Ressource „Daten“ differenzieren sich viele Unternehmen in Zukunft vom Wettbewerb. Voraussetzung dafür ist, die aktuellen Herausforderungen im Datenmanagement zu überwinden. Beispiele sind schlechte Datenqualität, redundante Datenpflege sowie die Trennung zwischen „strukturierten“ und „unstrukturierten“ Daten. Der Beitrag identifiziert Lösungsansätze hierfür und bewertet ihr Problemlösungspotenzial. Fallstudien zeigen, wie Unternehmen Konzepte der Datenzentrierung bereits erfolgreich einsetzen. „Data-Engineering“ wird zu einem Eckpfeiler des Business-Engineerings.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41891-4_8 a632de2bfdec25d9058f8256d17031c9;de;;;6.1.;;;Evidenzbasierte GesundheitsinformationenVerbraucher und Patienten wollen in Entscheidungen zu ihrer Gesundheit einbezogen werden. Sie haben einen ethisch legitimierten Anspruch auf informierte Entscheidungen. Gesundheitsinformationen sind jedoch oft irreführend und interessengeleitet. Krankheitsrisiken und der Nutzen medizinischer Maßnahmen werden üblicherweise überschätzt, der Schaden unterschätzt. Evidenzbasierte Gesundheitsinformationen müssen wissenschaftsbasiert, unabhängig, vollständig, ehrlich und verständlich sein. Es ist notwendig, dass Ziele einer medizinischen Maßnahme erklärt und Optionen, einschließlich der Möglichkeit des Verzichts auf eine Intervention, dargestellt werden. Außerdem ist die nummerische und verständliche Kommunikation von Wahrscheinlichkeiten für Erfolg, fehlenden Erfolg und unerwünschte Effekte erforderlich. Medizinische Eingriffe müssen ohne Sanktionen abgelehnt werden können.;-;-;-;https://link.springer.com/article/10.1007/s40664-014-0054-0 0004be94a7e54e35f65d8aad15977e3b;de;;;6.1.;;;Empirische Untersuchung zu Kompetenzen und Kernkompetenzen im AnlagenbauDas vorliegende dritte Kapitel der Arbeit setzt sich mit der empirischen Untersuchung der Kompetenzen im Anlagenbau auseinander. Im Vordergrund steht dabei die Identifikation von (wettbewerbsrelevanten) Kompetenzen und (erfolgskritischen) Kernkompetenzen im Anlagenbau. Das Fehlen von veröffentlichten Untersuchungen im Anlagenbau verleiht der empirischen Untersuchung einen explorativen Charakter, so daß die Datenbasis qualitativ geprägt ist. Ein Vorteil einer derartigen Ausrichtung liegt jedoch darin, daß im Rahmen von Fallbeispielen Gestaltungsempfehlungen zum Management von Kompetenzen ableitbar sind und sich zusätzlich ein pragmatisches Wissenschaftsziel verfolgen läßt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-88960-7_4 b2199ec8df223ab73ebfe98ffbe41c3f;de;;;6.1.;;;Impression ManagementWas ich „bin“, ob ich zum Beispiel ein guter Sozial- oder Politikwissenschaftler, Sportler oder Autor von Kriminalgeschichten bin, ob ich zuverlässig oder schwer berechenbar, beliebt oder manchmal nicht gern gesehen bin — all das erfahre ich permanent aus den Reaktionen meiner Mitmenschen. Einem alten Psychologen-Witz zufolge sagt ein Psychologe zum anderen: „Ihnen geht’s gut, und wie geht’s mir? “ In diesem Sinne ist jeder Mensch ein Laien-Psychologe: Jeder liefert seinen Mitmenschen ständig irgendwelche Informationen darüber, wie er sie beurteilt und bewertet, und jeder formt sein eigenes Selbstbild aus solchen selbstbezogenen Informationen, die er von anderen erhält.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-11890-9_45 4ba4948e2e16938f8e4b51079c612d7a;de;;;6.1.;;;Organisation effektiver UnternehmensberichterstattungInnerhalb des abschließenden institutionellen Elements der Konzeption des Publizitäts-Controlling werden zwei grundlegende Teilbereiche unterschieden. Die Aufbauorganisation beschreibt die Strukturierung einer Unternehmung in organisatorische Einheiten, Stellen und Abteilungen, welche die auf funktioneller Ebene beschriebenen Aufgabenbündel des Publizitäts-Controlling wahrnehmen. Die Definition von Arbeitsprozessen unter Berücksichtigung von Raum, Zeit, Sachmitteln und Personen ist hingegen Gegenstand der Ablauforganisation.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-5521-6_6 b9e8f4a4f519d03f04aeeaa79a26bf05;de;;;2.2.;;;Spektroskopische Rotverschiebungsmessungen für Galaxienhaufen aus dem Planck-Survey und Beobachtungen dieser Cluster in der SRG/eROSITA-Studie Wir präsentieren die Ergebnisse unserer spektroskopischen Rotverschiebungsmessungen für Galaxienhaufen, die zuvor aus Planck-All-Sky-Survey-Daten sowie aus Sloan Digital Sky Survey- und WISE-All-Sky-Survey-Daten erfasst wurden. Die Rotverschiebungen wurden für 23 Cluster gemessen, darunter vier Galaxienhaufen aus dem zweiten Planck-Katalog der Sunyaev-Zeldovich-Quellen. Die wichtigsten spektroskopischen Beobachtungen wurden von 2019 bis Anfang 2020 am 1,6-m-AZT-33IK-Teleskop des Sayan-Observatoriums und am 1,5-m-Russisch-Türkisch-Teleskop (RTT-150) durchgeführt. Einige der Daten wurden zuvor am 3,5-m-Teleskop Calar Alto gewonnen. Von den 23 Clustern in dieser Stichprobe befinden sich 14 Objekte in der Himmelshälfte, wo die Rechte an den Daten der eROSITA-Himmelsdurchmusterung an Bord des Orbital-Röntgenobservatoriums SRG der russischen Seite gehören. Alle diese Haufen wurden mit dem eROSITA-Teleskop im Rahmen der Himmelsdurchmusterung im Jahr 2020 entdeckt. Insgesamt haben wir im Rahmen unseres Programms zur optischen Identifizierung von Galaxienhaufen aus dem Planck-Katalog über mehrere Jahre die spektroskopischen Rotverschiebungen für 220 Galaxienhaufen gemessen. Viele von ihnen wurden bereits in der SRG/eROSITA-Durchmusterung entdeckt, ein erheblicher Teil dieser Objekte gehört zu den massereichsten Galaxienhaufen der eROSITA-Himmelsdurchmusterung und wird höchstwahrscheinlich in kosmologische Proben von Sternhaufen dieser Durchmusterung eingehen.;-;-;-;https://link.springer.com/article/10.1134/S1063773721020055 931bd3acc2531960751c0da07f58b82f;de;;;6.1.;;;IMI an der Universität Karlsruhe (TH)Frau Prof. Dr. Dr.-Ing. Jivka Ovtcharova, geboren 1957, studierte 1975 und 1976 Maschinenbau an der Technischen Universität Sofia in Bulgarien. Von 1976 bis 1982 folgte ein Studium der Wärmeenergetik und Automatisierung am Institut für Energetik in Moskau, das sie als Diplom-Ingenieurin abschloss. Zwischen 1982 und 1996 war sie an der Bulgarischen Akademie der Wissenschaften in Sofia und am Fraunhofer Institut für Graphische Datenverarbeitung (Fraunhofer IGD) in Darmstadt als wissenschaftliche Mitarbeiterin und Projektleiterin tätig. Von 1996 bis 1998 war sie Projektleiterin für Menschmodellierung und Individualproduktion bei Tecmath, von 1998 bis 2003 Leiterin für Prozess- und Systemintegration im Internationalen Technischen Entwicklungszentrum der Adam Opel AG.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87898-8_32 5a5d89193418586ee9440efaf965a0b4;de;;;2.2.;;;Be Stars als rotierende Sterne: Beobachtungen Die klassische Rotationshypothese für Be-Sterne wird überprüft und diskutiert. Es werden Methoden zur Messung von Rotationsgeschwindigkeiten betrachtet und auf die besonderen Schwierigkeiten hingewiesen, die Be-Sterne dabei mit sich bringen. Mehrere Tests der Rotationshypothese werden diskutiert und es wird gezeigt, dass sie diese Idee unterstützen. Neue Beobachtungen von Balmer-Emissionslinienbreiten in den Spektren von 46 Be-Sternen zeigen eine Korrelation mit der Rotationsgeschwindigkeit, auch zur Unterstützung der Rotationshypothese. Die für einige Be-Sterne gefundenen sehr großen Emissionsbreiten werden diskutiert und mögliche Gründe für die Verbreiterung aufgezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-1498-4_18 9056af5b01a31fc3e24e35faba0ae6e2;de;;;6.1.;;;Kosten-Nutzen-Analysen zur Beurteilung von Gesundheitsregionen – Geht das?Die wohnortnahe Gesundheitsversorgung in Deutschland durch innovative Versorgungsmodelle sicherzustellen ist eine der gesundheitswirtschaftlichen Herausforderungen der Zukunft. Als eine mögliche Lösung werden „Gesundheitsregionen“ gesehen, wobei diesem Begriff noch keine einheitliche Definition zugrunde liegt. Die Praxis zeigt, dass ein unterschiedliches Verständnis und Definitionen des Begriffs vorherrschen, diese sind abhängig von den jeweiligen Zielen und Motivationen der Initiatoren der „Gesundheitsregion“.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-06626-0_9 95e755c39b6fdf34a5ac259cd9f15221;de;;;6.1.;;;Qualitätssicherung und Kosten-Nutzen-Analyse in der internen IntensivmedizinMöglichkeiten – Probleme – Effizienz Quality control concepts will provide a basis for inter-Unit comparisons. A classification in: appraisal of structure, assessment of process and assessment of outcomes provides a systematical approach to quality assurance and control. Patient data management sytsems including Score systems can be useful to evaluate diagnostic, therapeutic and scientific standards. Quality is matched with the already mentioned cost effectiveness. The use of computerized systems allows to determine the costs for a patient. But it is important to consider some principles of economic analysis. An explicit statement of the perspective of the analysis should be provided and an explicit description of the benefits of the programme or technology being studied.;-;-;-;https://link.springer.com/article/10.1007/s003900050077 025839e38f2008eed47bb99e3ac8422b;de;;;6.1.;;;Strategische Kommunikation in der auswärtigen PolitikKommunikation ist sicherlich kein neues Element der auswärtigen Politik. Sowohl frühzeitliche Herrscher als auch die Regierungen moderner Staaten nutzten gezielt Maßnahmen der kommunikativen Selbstrepräsentation im Ausland (vgl. Kunczik 2009, Düwell 2005). Im historischen Rückblick lässt sich der Erste Weltkrieg als Geburtsstunde der grenzüberschreitenden „professional image cultivation“ (Melissen 2007b: 4) ausmachen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-02905-0_3 29d3bfa19381f0da1efaf08905de65a2;de;;;6.1.;;;Engineering 4.0 – Grundlagen der Digitalisierung des EngineeringsDas Internet der Dinge und Services (IOT/IOS) sowie Industrie 4.0 gehen in der Zukunft von vernetzten Produkten, Systemen und Dienstleistungen aus. Der wertmäßige Anteil an Elektronik und Software wird bei dieser Art von Produkten und eingebetteten Dienstleistungen kontinuierlich steigen. Kommunizieren Produkte miteinander über das Internet, wird von Cyber-Physical Systems bzw. Cybertronischen Systemen gesprochen. Die Entwicklung dieser neuen Systeme wird mehrere Konsequenzen nach sich ziehen: interdisziplinäre, regional und organisatorisch verteilte sowie integrierte Produktentwicklung, ein Überdenken heutiger Konstruktionsmethoden, Prozesse, IT-Lösungen und Organisationsformen sowie die Forderung nach durchgängigen Prozessketten, basierend auf digitalen Modellen in der Anforderungsdefinition, Systemarchitektur, Produktentwicklung, Simulation, Produktionsplanung, Produktion und Service. Weiterhin müssen Planungs- und Entwurfsmethoden aller Disziplinen – Mechanik, Elektronik und Software – auf den System-Prüfstand gestellt und ihre Tauglichkeit für ein neues Vorgehensmodell der Produkt-, System und Serviceentwicklung überprüft werden, um diese in einen gemeinsamen, integrierten und interdisziplinären Methoden-, Prozess- und IT-Lösungsansatz zu überführen. Dieser Ansatz der Digitalisierung der Produktentwicklung wird Engineering 4.0 genannt. Der hier verwendete Begriff Produktenwicklung bezieht sich sowohl auf die eigentlichen Produkte als auch auf die Produktionsmittel, denn diese sind auch Produkte im eigentlichen Sinne. Diese Begriffsdefinition lehnt sich an die Begriffsbestimmung von Ehrlenspiel an [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-62183-7_3 42442deb7b5cb47ca7af2a5f4206e373;de;;;6.1.;;;Möglichkeiten und Grenzen des “Analytic Hierarchy Process” (AHP) als Verfahren zur WirtschaftlichkeitsanalyseDer Analytic Hierarchy Process (AHP) kann als multikriterielles Evaluationsverfahren bei der Durchführung von Wirtschaftlichkeitsanalysen eingesetzt werden. Der AHP ist in seiner ursprünglichen Form eher zur Beurteilung von Handlungsalternativen anhand qualitativer als anhand quantitativer Kriterien geeignet. Bei Wirtschaftlichkeitsanalysen finden jedoch regelmäβig quantitative Kriterien Berücksichtigung. Dieser Beitrag erörtert daher Möglichkeiten und Grenzen des AHP, quantitative Kriterien zu berücksichtigen und Wirtschaftlichkeitskennzahlen abzuleiten.;-;-;-;https://link.springer.com/article/10.1007/BF03401253 e78c219e6a66e329d640f3fde8b59d8e;de;;;6.1.;;;Innovationspartnerschaften in Forschung & Entwicklung und Marketing & Vertrieb der PharmaindustrieZiel aller Unternehmen ist es, erfolgreicher zu wirtschaften, Wertschöpfung zu steigern und Mehrwert zu schaffen. Dabei stehen Arzneimittelhersteller heute nicht nur unter wachsendem Kosten- und Leistungsdruck. Sie kämpfen zugleich mit zunehmender Dynamik und Komplexität der pharmazeutischen, technologischen und organisatorischen Entwicklung im globalen Marktumfeld. Das stellt sie vor zentrale Herausforderungen: Wie können sie in diesem Kontext die Qualität ihrer Prozesse und Produkte wettbewerbsfähig erhalten oder gar weiterentwickeln? Wie können sie Geschäftsmodelle schaffen, mit denen sie die Produktivität fortlaufend steigern? Wie sollen sie in kurzer Zeit die dafür nötigen Ressourcen mobilisieren? Keine leichte Aufgabe.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-90422-5_14 a4e04ff461b2d91e3b186e0b1aa8d5b7;de;;;6.1.;;;Medienmanagement Betriebswirtschaftliche Fokussierung im interdisziplinären Spannungsfeld Neuer Medien, ökonomischer Konzepte und sozialwissenschaftlicher ErkenntnisseDie wissenschaftliche Positionierung der relativ jungen betriebswirtschaftlichen Disziplin „Medienmanagement“gegenüber angrenzenden Bereichen wie der Medienökonomie oder den eher sozialwissenschaftlich ausgerichteten Medienwissenschaften ist Gegenstand dieses Beitrages. Die Begriffe „Medien“und „Medienmanagement“werden erläutert, sowie ein historischorientierter Exkurs über die wirtschaftliche Relevanz der Medien gegeben. Die komplexe Einflußnahme der Medien auf Politik, Gesellschaft und Wirtschaft führt zu der Einsicht, dass nicht auf einen Wissensaustausch zwischen dem betriebswirtschaftlich-orientierten Bereich „Medienmanagement“und den Nachbar-disziplinen verzichtet werden kann, sich allerdings auch jede Disziplin ihrer Fähigkeiten und Kernkompetenzen bewusst sein und in ihrem wissenschaftlichen Rahmen neue Erkenntnisse gewinnen sollte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-82387-8_12 7dbb70817a63638a9716f3842ba59b25;de;;;6.1.;;;Wettbewerbsvorteile von TX-Banken durch IT-Architektur und ReferenzdatenIn diesem Kapitel werden zwei zentrale Erfolgsfaktoren von TX-Banken vorgestellt, eine kurze Statusanalyse der Industrie gezeichnet und Gestaltungswege aufgezeigt, wie der Geschäftszweck erreicht werden kann. Es handelt sich zum einen um die Diskussion von IT-Architekturen und die bessere Abbildung von Workflows, zum anderen um den sinnvollen Umgang mit Referenzdaten, da dieser Bereich ein enormes Fehlerpotenzial aufweist. Beide Themen werden aus der aktuellen Sicht des Praktikers und ohne Anspruch auf vollständige akademische Durchdringung behandelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18703-2_15 cf033fc9896b0a3456d7f8fe1a3af9ef;de;;;6.1.;;;Qualitätsmanagement in der Regionalanästhesie am Beispiel des Regionalanästhesie Surveillance Systems (RASS)Regionalanästhesieverfahren finden sowohl in Form einmaliger Bolusapplikationen als auch als kontinuierliche Verfahren über Katheter in allen Bereichen der Anästhesiologie Anwendung. Es ist mittlerweile unumstritten, dass sie nicht nur individuelle, sondern auch ökonomische Vorteile mit sich bringen können. Trotzdem bergen Regionalanästhesieverfahren, insbesondere rückenmarksnah angewandte Techniken, beispielsweise aufgrund von sich ausbreitenden Hämatomen oder Infektionen, Risiken. Die auftretenden Komplikationen sind zwar selten und oft schicksalhaft, in einigen Fällen aber möglicherweise vermeidbar. Aufgrund der geringen Inzidenz dieser Ereignisse ist die aktuelle Studienlage kontrovers. Eine standardisierte Dokumentation seltener Komplikationen ist unerlässlich zur Schaffung einer überregionalen Datenbasis. Standardisierte Codes werden u. a. durch das Regionalanästhesie Surveillance System (RASS) zur Verfügung gestellt. Durch Integration dieser Codes in eine Software für die Akutschmerztherapie kann einerseits die Dokumentationsqualität gesteigert werden und andererseits auch die Grundlage für eine multizentrische Datensammlung geschaffen werden. Die Erkenntnisse aus den engmaschigen Datenanalysen sollten dann als Feedback an die Kliniker mit dem Ziel einer Prozessoptimierung geschickt werden.;-;-;-;https://link.springer.com/article/10.1007/s00482-012-1266-x 6f38b962f4d2908ede3173488ec5a11e;de;;;6.1.;;;Organisationsübergreifende modellbasierte ProduktentwicklungIn Abschnitt 3 wurde ein dezentrales Konzept für die kollaborative Produktentwicklung vorgestellt. In diesem Abschnitt wird nun ein Vorgehensmodell für die modellbasierte Entwicklung einer DeCPD-Architektur vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8348-8180-9_4 d97648898f816411cc3a8b0387bb82df;de;;;6.1.;;;Digitale Werkzeuge im Mathematikunterricht – Konzepte, empirische Ergebnisse und DesiderateDie mathematikdidaktische Auseinandersetzung mit dem Einsatz digitaler Werkzeuge im Mathematikunterricht ist so alt wie die Verfügbarkeit von digitalen Werkzeugen. Diese Auseinandersetzung hat verschiedene Phasen durchlebt, an denen Bärbel Barzel in vielfältiger Weise mitgearbeitet hat. Diese Phasen werden hier retrospektiv zusammengestellt und ihre Bedeutung für die fachdidaktische Forschung sowie den Mathematikunterricht in Form von Einsatzszenarien für digitale Werkzeuge diskutiert. Dazu werden einige wesentliche Fragen bezüglich des Einsatzes digitaler Werkzeuge benannt und mit dem didaktischen Tetraeder ein Modell zur Analyse des Einsatzes digitaler Werkzeuge im Mathematikunterricht vorgestellt. Auf dieser Basis werden Konzepte zur Gestaltung und zum Einsatz digitaler Werkzeuge im Rahmen von Lernumgebungen erläutert. Abschließend werden eigene Forschungsergebnisse bzgl. der Effektivität des Einsatzes digitaler Werkzeuge im Mathematikunterricht zusammengestellt und bezugnehmend auf die zu klärenden Fragen noch bestehende Forschungsdesiderate aufgezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-24292-3_17 c8f43a2809f382357548391ee72bf3a9;de;;;2.2.;;;Effizientes Ressourcenmanagementsystem für die Speicherverarbeitung in einer Cloud-Infrastruktur mit Internet der Dinge In letzter Zeit wurde die Forschung zum Cloud-integrierten Internet der Dinge, bei dem ein Internet der Dinge (IoT) mit einer Cloud-Umgebung konvergiert, aktiv betrieben. Ein IoT funktioniert durch die Interaktion zwischen vielen Kompositionselementen wie Aktoren und Sensoren. Gegenwärtig werden IoTs in verschiedenen Bereichen eingesetzt (z. B. Verkehrssteuerung und -sicherheit, Energieeinsparung, Prozesssteuerung, Kommunikationssysteme, verteilte Roboter und andere wichtige Anwendungen). Im täglichen Leben sollten IoTs Dienste mit hoher Zuverlässigkeit bereitstellen, die verschiedenen physischen Elementen entsprechen. Um hochzuverlässige IoT-Dienste zu gewährleisten, sind optimierte Modellierungs-, Simulations- und Ressourcenmanagementtechnologien erforderlich, die physische Elemente und Rechenelemente integrieren. Aus diesen Gründen werden viele Systeme entwickelt, bei denen autonome Computertechnologien angewendet werden, die alle internen Fehler oder externen Umgebungsänderungen erfassen, die während des Systembetriebs auftreten, und bei denen sich Systeme selbst anpassen oder weiterentwickeln. In einer IoT-Umgebung, die aus großen Knoten besteht, erfordert autonomes Computing einen hohen Verarbeitungsaufwand und eine effiziente Speicherverarbeitung des Computings, um Sensordaten effizient zu verarbeiten. Darüber hinaus ist aufgrund der heterogenen Zusammensetzung von IoT-Umgebungen eine separate Middleware erforderlich, um gesammelte Informationen auszutauschen. Dementsprechend schlug dieses Papier ein effizientes Ressourcenmanagementschema (ERMS) vor, das IoT-Ressourcen mithilfe einer Cloud-Infrastruktur effizient verwaltet und die Anforderungen an hohe Verfügbarkeit, Erweiterung und hohe Verarbeitungsmenge erfüllt. ERMS bietet ein XML-basiertes Standard-Sensing-Datenspeicherschema, um heterogene IoT-Sensing-Daten in der Cloud-Infrastruktur zu speichern und zu verarbeiten. Darüber hinaus bietet ERMS Klassifizierungstechniken, um verteilte IoT-Daten effizient zu speichern und zu verarbeiten.;-;-;-;https://link.springer.com/article/10.1007/s11277-015-3093-8 640790842bda717c8e0dec1dee936251;de;;;2.2.;;;Wavelet- und Hadamard-Transformationen für den Bildabruf mit Farbmodellen Die diskreten Bildtransformationen werden hauptsächlich zur Energiekomprimierung verwendet und werden daher bei der Bilddatenkomprimierung verwendet. Das Energieniveau des Bildes hängt von dem verwendeten Farbniveau ab. In diesem Papier verwenden wir zwei diskrete Bildtransformationen, nämlich die diskrete Hadamard-Transformation (DHT) und die diskrete Wavelet-Transformation (DWT). Diese Transformationen werden auf zwei verschiedene Farbmodelle, nämlich HSV und YCbCr, separat in einer gegebenen großen Standarddatenbank mit 1000 Bildern aus 10 verschiedenen Klassen aus der Corel-Sammlung angewendet. Die vorgeschlagenen Funktionen sind effektiv und nützlich für die Indexierung und den Abruf von Bildern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15766-0_50 be6a1b957a7d156b0ad0aacbe9d11935;de;;;2.2.;;;Effizienter Index für handschriftlichen Text Dieser Artikel befasst sich mit einem der neu aufkommenden Multimedia-Datentypen, nämlich handgeschriebenem Kursivtext. Der Beitrag stellt zwei Indexierungsmethoden zum Durchsuchen einer Sammlung kursiver Handschriften vor. Der erste Index, der Index auf Wortebene, behandelt Wörter als Piktogramme und verwendet globale Funktionen zum Abrufen. Der Index auf Wortebene eignet sich für große Sammlungen von kursivem Text. Während der zweite, der als Index auf Strichebene bezeichnet wird, das Wort als eine Reihe von Strichen behandelt. Der Index auf Strichebene ist genauer, aber teurer als der Index auf Wortebene. Jedes Wort (oder jeder Strich) kann mit einem Satz von Merkmalen beschrieben und somit als Punkte im Merkmalsraum gespeichert werden. Die Karhunen-Loeve-Transformation wird dann verwendet, um die Anzahl der verwendeten Features (Datendimensionalität) und damit die Indexgröße zu minimieren. Merkmalsvektoren werden in einem R-Baum gespeichert. Wir haben beide Indizes implementiert und viele Simulationsexperimente durchgeführt, um die Effektivität und die Kosten des Suchalgorithmus zu messen. Die vorgeschlagenen Indizes erzielen gegenüber der sequentiellen Suche eine erhebliche Einsparung an Suchzeit. Darüber hinaus verbessern die vorgeschlagenen Indizes die Übereinstimmungsrate gegenüber der sequentiellen Suche um bis zu 46%.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10512-8_4 97ac7b06d7f5a37e844a7aa527569f08;de;;;2.2.;;;Unterstützung von relationalen Indizes für XPath-Achsen In diesem Whitepaper haben wir eine effiziente Indexierungsstruktur für XML-Dokumente entworfen, damit jeder grundlegende XPath-Achsenschritt unterstützt wird. Die Indexierungsstruktur baut auf dem B . auf;-;-;-;https://link.springer.com/chapter/10.1007/11547273_7 dbb2b55def339d6a2686465c16b506bd;de;;;6.1.;;;Ausgewählte Managementaspekte im Bezug zu Facility ServicesFacility Services werden intern durch Mitarbeiter einer Organisation oder extern durch spezialisierte Dienstleister erbracht. Wie schon in Abschn. 1.5.2 aufgezeigt, ergibt sich aus dem hohen Anteil der Fremddienstleistungen ein großer Markt für extern erbrachte Dienstleistungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39544-4_5 b2809dfed0282421deef6bb1e5e0c88b;de;;;2.2.;;;Ein Vergleich von Array-Theorie und einer Mathematik von Arrays Array-basierte Programmierung begann mit APL. Aus den Datenkonzepten von APL haben sich zwei mathematische Behandlungen von Array-Berechnungen entwickelt. Die erste, Mores Array-Theorie, erweitert die APL-Konzepte um verschachtelte Arrays und die systematische Behandlung von Funktionen zweiter Ordnung. In jüngerer Zeit hat Mullin eine mathematische Behandlung flacher Arrays entwickelt, die den ursprünglichen APL-Konzepten viel näher kommt. Die beiden Ansätze werden verglichen und bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4002-1_14 27b24659f020c54812a8d7e6f86eb54c;de;;;6.1.;;;OSI-Standards zur Unterstützung für den Transfer multimedialer InformationenDer Austausch multimedialer Dokumente innerhalb der multimedialen Kommunikation über Netze unterschiedlicher Bandbreite sowohl im lokalen, privaten als auch im öffentlichen Bereich ist ein Grundpfeiler zukünftiger Anwendungen der Informationstechnik. Dieser Austausch sollte dabei weitgehend als standardisierter Dienst sowohl für die Verteilkommunikation als auch für eine typische Ende-zu-Ende Verbindungen unterschiedlicher Anwendungen eingeführt werden, wobei auf bereits standardisierte Protokolle für unterschiedliche Leitungen aufgebaut werden kann und Benutzer-, Anwendungs- und Programmierschnittstellen einheitlich zu definieren sind. In diesem Papier wird zunächst eine Charakterisierung multimedialer Kommunikation an Hand eines Szenarios gegeben, Anforderungen unterschiedlicher Anwendungen aufgezeigt sowie konkrete Lösungsmöglichkeiten innerhalb aktueller Standardisierungsvorschläge diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-76758-6_23 28a77e13d9e4d435802cd528d0bc4fdb;de;;;6.1.;;;Freelance-Terminologie: ein Erfahrungsbericht aus der SchweizIn der mehrsprachigen Schweiz hat übersetzungsorientierte Terminologiearbeit in der Privatwirtschaft, in der Verwaltung und in internationalen Organisationen einen hohen Stellenwert. Terminologie ist als Qualitäts- und Produktivitätsfaktor anerkannt. Zahlreiche Institutionen beschäftigen in ihren Sprachendiensten oder anderen Organisationsbereichen Terminologinnen und Terminologen, die voll- oder nebenamtlich die professionelle Terminologiearbeit koordinieren. Wo diese Koordinationsstelle fehlt, kommen im Rahmen punktueller Projekte oder befristeter Mandate freiberufliche Terminologinnen und Terminologen zum Einsatz. Dank ihrer fundierten Fachkenntnisse und ihrer breiten Berufserfahrung schaffen diese Sprachfachleute einen Mehrwert für die mehrsprachige Fachkommunikation im Allgemeinen und für den Übersetzungsprozess im Besonderen. Sie erbringen professionelle Dienstleistungen in den Bereichen Terminologieberatung, Datenbankkonzeption, Schulung, Ad-hoc-Terminologiearbeit, Datenvalidierung usw. Sie vermitteln Arbeitsmethoden zur nachhaltigen Qualitäts- und Effizienzsteigerung und unterstützen ihre Auftraggeber bei der Einführung eines hochwertigen Terminologiemanagements und bei der Optimierung bestehender Prozesse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-58949-6_20 42e9f522fa475f2bb5f6c9ab6713c5a8;de;;;6.1.;;;Terminologiearbeit im Sprachendienst der BundeswehrDas Bundessprachenamt ist der zentrale Sprachendienstleister für die Bundeswehr und den öffentlichen Dienst und deckt den fremdsprachigen Bedarf der Bundeswehr durch Sprachausbildung, Übersetzen und Dolmetschen. Bereits im Gründungserlass für das Bundessprachenamt vom 4. Juli 1969 wurde die Terminologiearbeit als eine der Hauptaufgaben der Oberbehörde im Geschäftsbereich des Bundesministeriums der Verteidigung genannt. Heute ist die Bedeutung der ein- und mehrsprachigen Terminologiearbeit in der Bundeswehr und im Atlantischen Bündnis unbestritten, denn alle NATO-Mitgliedstaaten müssen auf sprachliche Sicherheit vertrauen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-58949-6_16 a98ae8c5ea37cbc171c2cb8a90b1838d;de;;;6.1.;;;Abstimmungsprobleme bei branchenübergreifenden Telematikanwendungen als kritischer Faktor für die Diffusion der DatenfernübertragungSeit den 70er Jahren wird im Hinblick auf die weitere Entwicklung der Telekommunikation ein Anstieg des Anteils der Datenfernübertragung prognostiziert. In keinem anderen Bereich ist die tatsächliche Entwicklung jedoch so weit hinter den Prognosen zurückgeblieben. In diesem Beitrag soll gezeigt werden, daß diese Fehlprognosen nicht nur auf das allgemeine Problem der Ungewißheit über zukünftige Entwicklungen zurückzuführen sind (vgl. Werle 1994), sondern daß sie auf einer systematischen Fehleinschätzung der Diffusionsdynamik von Datenfernübertragungsdiensten beruhen. In einem ersten allgemeinen Teil wird argumentiert, daß die in der ökonomischen Theorie für das Fernsprechnetz entwickelten Begriffe und Konzepte (v.a. kritische Masse und positive Netzwerkexternalitäten) nicht auf Datenfernübertragungsdienste übertragbar sind, sondern daß diese ganz anderen Gesetzmäßigkeiten unterliegen. Als Hauptproblem erweist sich die Abstimmung einer Reihe von Elementen von Telematikanwendungen, die weit über die technische Standardisierung hinausgehen. In einem zweiten Teil wird die Problematik bei derartigen Abstimmungen an vier Beispielen illustriert. Im dritten und abschließenden Teil wird für einen Paradigmenwechsel plädiert, der den traditionellen Dienstebegriff auflöst in einzelne Anwendungen einerseits und anwendungsunabhängige Netzdienstleistungen andererseits.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-79868-9_5 e764444514dfc10014ed0163406c6deb;de;;;2.2.;;;Beitrag des Astrolabes a la Determination du Systeme de Reference Dans L’Hemisphere Sud Die Möglichkeiten von Astrolabienbeobachtungen, die zur Verbesserung des Fundamentalsystems insbesondere auf der Südhalbkugel zur Verfügung stehen, werden diskutiert. Schwierigkeiten ergeben sich aufgrund der schlechten Breitenverteilung der Beobachtungsstationen und der Vielfalt der Beobachtungsprogramme.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-2199-9_16 2babcc3baf3df648a6008ba1c88b450e;de;;;6.1.;;;Gedanken zur VorgeschichteBegbt man sich auf die Spurensuche nach den ersten Anfängen öffentlicher Diskussionen im deutschsprachigen Raum über die Einsatzmöglichkeiten der elektronischen Rechner in Wirtschaft und Verwaltung, ergibt sich als erstes die Aufgabe, die konkreten historischen Ausgangsbedingungen genauer in den Blick zu nehmen. Hierbei sind Langzeitprozesse der industriegesellschaftlichen und technischen Entwicklung ebenso einzubeziehen wie jene Veränderungen, die sich insbesondere durch den Zweiten Weltkrieg ergeben hatten. Dies ist vor allem deshalb von Bedeutung, weil sich die historische Analyse wissenschaftlicher und technologischer Innovationen häufig auf die unmittelbare Entstehungsgeschichte einzelner, isolierter Erkenntnisse, Technologien oder technischer Artefakte beschränkt. Das gilt auch für die Geschichte der elektronischen oder automatisierten Datenverarbeitung, kurz EDV oder ADV genannt, bzw. des Computers. Zumindest skizzenhaft und an Hand einiger Beispiele soll daher gezeigt werden, dass die Entwicklung elektronischer Rechner (electronic calculator) oder der ersten Maschinen, die auch als „computer“ bezeichnet wurden, in einen langen, kontinuierlichen Entwicklungsprozess von Wissenschaft und Technik ebenso wie in einen wesentlich breiteren Kontext von Politik, Wirtschaft und Kultur eingebettet war.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28143-3_1 7e5be4ee09bf55f3c0eb6274a80c8ebd;de;;;6.1.;;;Leitstelle der Zukunft: Projekt Leitstelle 2020+ der integrierten Leitstelle MünchenDas Bild der Leitstelle wird sich wandeln. Die Leitstelle der Zukunft wird eine zentrale Rolle als Informationsbroker einnehmen. Sie stellt damit, in Ergänzung zur Effektivitätssteigerung der operativen Gefahrenabwehr, einen Informationsraum zur Verfügung, der organisationsübergreifend vernetzt und zudem ermöglicht, alle gespeicherten Informationen zeitgerecht abzurufen. Der konsequente Umbau der Leitstelle entwickelt sich vom aktuellen taktischen und operativen Verständnis durch einen kontinuierlichen Anpassungsprozess hin zur Nutzung moderner Informationstechnologien und standardisierter Verfahrensabläufe. Die Leitstelle der Zukunft schafft, mittels neuer Kombinationen von Fähigkeiten, die Grundlage für eine flexiblere, effizientere und effektivere Einsatzführung. Sie verfügt über eine vernetzte Gefahrenabwehr und wird zum Garant für eine vernetzte Stadt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-56627-5_9 7f91113680841c310cec7d3cf89d1425;de;;;2.2.;;;Das Aufnahmeobjekt Das Record-Objekt ist für die Verwendung mit Document Source Providern konzipiert, der OLE DB-Provider für Internet Publishing ist der erste, der seine Verwendung ermöglicht. Obwohl dieser Anbieter mit ADO 2.1 ausgeliefert wurde, war seine Funktionalität stark eingeschränkt, und erst mit der Veröffentlichung von ADO 2.5 wurden alle seine Funktionen verfügbar gemacht. Die einzige Änderung mit Version 2.6 war, dass das Command-Objekt jetzt Ergebnisse in einen Record zurückgeben kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-0718-4_6 fe6c09afef4eda6f51d3d75ce2f7ea4f;de;;;6.1.;;;Lösungen zu den Aufgaben des FallbeispielsDie hier wiedergegebenen Lösungen stellen mögliche Lösungen dar. Sie erheben nicht den Anspruch, die in jedem Falle bestmögliche oder einzige Lösung zu sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-93946-3_12 107e17fd09fe50eb45c8111a7507c453;de;;;6.1.;;;Integrierte Bildgebung bei PolytraumaFür die bildgebende Diagnostik beim Polytrauma führte die Weiterentwicklung der Geräte zu einem immer breiteren Einsatz der Computertomographie. Die langen Untersuchungszeiten von 30–60 Minuten wurden bei den neuen Mehrzeilen-CT-Geräten (MSCT) entscheidend verkürzt. MSCT’s machen Untersuchungen des Gesamtkörpers in etwa 90 s möglich. Somit ist die CT nunmehr auch ausschließlich in der Erstdiagnostik polytraumatisierter und schwerstverletzter Patienten einsetzbar. Der vorliegende Beitrag zeigt, dass dieser Einsatz sinnvoll ist und bei entsprechender Nutzung einen Zeitgewinn von bis zu 50% gegenüber bisherigen Konzepten ermöglicht. Das Outcome kann entscheidend verbessert werden. Die CT-Untersuchungseinheit sollte im Schockraum eingebunden sein. Der bisherige Konsekutivprozess von Diagnostik und Versorgung geht damit in einen synchronisierten Simultanprozess von bildgebender Diagnostik, intensivmedizinischer Erstversorgung und chirurgisch orientierter Entscheidungsfindung über. Qualitativer Endpunkt des Gesamtkonzepts ist die frühzeitige Bereitstellung aller erhobenen Befunddaten mittels Bilddatenmanagementprogrammen (Web-Server-Bildverteilung) und hochleistungsfähiger Netzwerkinfrastruktur.;-;-;-;https://link.springer.com/article/10.1007/s10039-004-0970-x 954c8a858b4dbaf81f497439057748bd;de;;;6.1.;;;Service-Ansatz für die chemische Industrie im SchwellenländergeschäftDie Daten und Fakten in diesem Kapitel basieren zum einen auf Statistiken, Studien und weiteren Publikationen verschiedener Industrieverbände, hier v. a. dem Verband der Chemischen Industrie (VCI) und dem European Chemical Industry Council (CEFIC) sowie diverser Wirtschaftsforschungsinstitute (z. B. das Zentrum für Europäische Wirtschaftsforschung). Zum anderen stützen sich die Aussagen auf Interviews mit Vertretern aus führenden Chemie- Unternehmen Deutschlands.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-6933-0_5 80f01265c7d4cf1c463f1d8c3c47edec;de;;;6.1.;;;Leistungstiefenentscheidung und IT-Sourcing – Veränderte Herausforderungen des Strategischen InformationsmanagementsDie Make-or-Buy-Entscheidung repräsentiert mit dem Bestreben einer zielgerichteten Gestaltung der unternehmensspezifischen Leistungstiefe eine der zentralen betriebswirtschaftlichen Herausforderungen und wird seit Jahrzehnten intensiv – im IT-Umfeld insbesondere unter dem Gesichtspunkt „Outsourcing“ – diskutiert. Alle, insbesondere die dem globalen Wettbewerbs- und damit globalen Kostendruck ausgesetzten Unternehmen benötigen eine klare Strategie, welche Teile der primären oder sekundären Wertschöpfungsaktivitäten aufgrund ihrer besonderen Wettbewerbsrelevanz in den stärker kontrollierbaren internen Strukturen erbracht und welche Aktivitäten zum Beispiel aus Effizienzüberlegungen oder zur Absicherung der technologischen Kompetenz an Spezialisten im In- oder Ausland übertragen werden können oder sollten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-8290-2_2 b82cac29e27a7f6871f2c4006acbe151;de;;;6.1.;;;Von Klinischen MikroSystemen lernen: Aufbau und Bedeutung einer ergiebigen InformationsumgebungZwanzig der besten klinischen Einheiten der Vereinigten Staaten von Amerika wurden von einer Forschergruppe des Center for Clinical Evaluation Sciences an der Dartmouth Medical School untersucht, um Erfolgseigenschaften dieser klinischen Mikro-systeme für andere Versorgungseinheiten des Gesundheitswesens nutzbar zu machen. Aus der umfangreichen Dokumentation dieser qualitativen Analysen und der Wissenstransferma βnahmen in andere Mikrosysteme wird im Folgenden die Bedeutung eines systematischen und umfassenden Informationsmanagements für klinische Mikrosysteme hervorgehoben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-5453-0_14 c4af01e941ed8f80ce0f3d4d930779e7;de;;;6.1.;;;Management der RealisierungNach der Einordnung und Charakterisierung der Unterfunktionen der Realisierung erfolgt nun, wie schon bei den anderen Teilfunktionen, eine Umsetzung anhand der bekannten Managementfunktionen Konzeption, Planung, Ausführung und Kontrolle. Wie bei der Differenzierung der Unterfunktionen bereits deutlich wurde, können in der Realisierungsphase unter zeitlichen Aspekt zwei Dimensionen (Zeitpunkt versus Zeitraum) unterschieden werden. Die inhaltliche Ausgestaltung der Managementfunktionen orientiert sich daher im Folgenden an dieser Zweiteilung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-9375-5_17 b8c969913645deafe70c10954e132894;de;;;6.1.;;;Die Praxis – Unternehmen mit und ohne IP-ManagementWie die in diesem Kapitel zusammengestellten Erzählungen und Schilderungen zeigen, ist die Realität des Managements im IP-Bereich bunt und sehr unterschiedlich. Es drängt sich der Eindruck auf, dass die Geschehnisse nicht selten von Zufälligkeit und Glück bestimmt sind – bisweilen aber durchaus auch von Einsicht und Konsequenz. Man kann allenfalls daraus lernen. Nach Durchsicht der ersten drei Kapitel dieses Buches mögen Sie selbst beurteilen, ob in den nachfolgend geschilderten Sachverhalten von einem tatsächlichen IP-Management die Rede sein kann oder auch von einem Wissensmanagement. Unter dem hier noch stärker interessierenden Gesichtspunkt der Unternehmensführung stellt sich die Frage, ob, in welcher Weise und in welchem Maße das Verhalten der beteiligten Firmen Führung im Bereich IP-Management erkennen lässt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-02992-0_4 ff8615f60070feebea07515db86650c4;de;;;6.1.;;;Viertes Kapitel: Einführung in das Cloud ComputingNachdem die Basis der Strafverfolgung im Internet gelegt wurde, erfolgt nun der Einstieg in das „Cloud Computing“. Dies geschieht durch eine Beschreibung dieses „Phänomens“ (A.), das prognostiziert und statistisch bereits erkennbar (C.), maßgeblich die zukünftige Gestalt und Gestaltung des Geschäfts- und Privatlebens im 21. Jahrhundert gleichermaßen prägen wird. Hierbei spielen jedoch nicht alle Teilbereiche und Bestandteile des Cloud Computing auch eine Rolle aus strafverfolgungspraktischer und -rechtlicher Sicht. Fokus der Sicherheitsbehörden liegt auf dem sog. „Cloud Storage“ – der dezentralen Datenspeicherung als Cloud-Computing-Dienstleistung (B.).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-12630-8_4 7eed993f82b1a5e9e6da92dddd33b925;de;;;6.1.;;;Umsetzung eines ITIL-konformen IT-Service-Support auf der Grundlage von Web-ServicesDie Umsetzung von IT-Service-Support-Prozessen auf der Basis des Referenzmodells IT Infrastructure Library (ITIL) geschieht in vielen Unternehmen derzeit mit hoher Priorität. Obwohl zur Unterstützung der Support-Prozesse eine Vielzahl von Softwarelösungen zur Verfügung stehen, basieren diese heute nicht auf Service-orientierten-Architekturen. Die Vorteile einer Service-orientierten-Architektur werden daher im Rahmen des IT-Service-Supports nicht genutzt. Der Beitrag zeigt am Beispiel eines zentralen ITIL-Support-Prozesses, dem Incident-Management, wie dieser technisch auf der Basis von Web-Services umgesetzt werden kann. Die Grundlage bilden sechs Fallstudien, in denen die Gestaltung ITIL-basierter Support-Prozesse untersucht wurde. Aufbauend auf den Fallstudien wird ein generischer Incident-Management-Prozess definiert und mit Hilfe von Web-Services umgesetzt. Dabei kommen sowohl atomare als auch aggregierte Web-Services zum Einsatz. Für ein konkretes Service-Anliegen wird der Prozessablauf grafisch beschrieben. Die Umsetzung erfolgt exemplarisch unter Zuhilfenahme der Web Services Description Language (WSDL).;-;-;-;https://link.springer.com/chapter/10.1007/3-7908-1624-8_34 05c5a5483029bc6fbd9db7e051cd6db8;de;;;6.1.;;;Ein Patientendokumentationssystem für Schmerzkliniken und Schmerzambulanzen auf Basis vernetzter PersonalcomputerIn pain clinics, thorough documentation of patient-related data is essential for analysis of patient history, long-term evaluation of diagnostic and therapeutic procedures, and research on the etiology and epidemiology of chronic pain syndromes. With these requirements in mind, we realized a microcomputer documentation system based on a commercial data-base software concept (dBASE). Each patient's data are stored in three different sections: data for identification, basic data (mainly diagnostic findings), and treatment related follow-up data. The program was initially developed to run on a single IBM/XT- or AT-compatible computer (at least 640 kB RAM, 1 hard-disk-drive) with MS-DOS but has now been improved to work on a local area network (LAN) with the NOVELL-Netware operating system. Important features of our new system are: multi-user capability, flexible data management via menu-driven user dialogue, rapid data access, and high compatibility allowing data exchange with other standard software packages. The microcomputer documentation system offers listings for administration as well as effective patient scheduling thanks to a recall system by date of last contact, selected therapeutic procedures and any other item in the medical record. A mail-merge service can be applied, which is particularly useful for follow-up-studies. The documentation system means routine work can be standardized and performed in an economical manner, with the ultimate aim of enhancing the quality of pain therapy.;-;-;-;https://link.springer.com/article/10.1007/BF02527392 36313ec4ee62b97a1677e3ec933a3ca6;de;;;6.1.;;;Grundlagen zur elektronischen BeschaffungDie zielgerichtete Auseinandersetzung mit der Frage nach der „Organisation elektronischer Beschaffung“ setzt zunächst ein Grundverständnis des Untersuchungsgegenstandes voraus. Abschnitt 2.1 widmet sich einer Einordnung sowie den notwendigen Basisdefinitionen. Es wird vorgeschlagen, den Untersuchungsgegenstand in drei Betrachtungsebenen zu zergliedern. Abschnitt 2.2 beschäftigt sich demzufolge mit der — von technologischen Aspekten abstrahierten — Beschaffungsfunktion. In Abschnitt 2.3 werden Beschaffungsformen aufgezeigt, welche sich nur mit Hilfe neuer IuK-Technologie realisieren lassen. Abschnitt 2.4 widmet sich schließlich der IuK-Technologie selbst. Ein Zwischenresümee fasst die wichtigsten Ergebnisse zusammen und schließt dieses Kapitel ab (Abschnitt 2.5).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-9624-0_2 3af2c23a90151f922d9b030ad96e854e;de;;;6.1.;;;Operationsdatenbank der Universitäts-Augenklinik GrazEs wird über eine kostengünstige, selbst entwickelte Datenbank für den Operationsbereich der Universitäts-Augenklinik Graz berichtet. Nach Eingabe der Stammdaten in einen Operationsplan werden diese durch Referenzierung in eine Operationendatei mit verschiedenen Layouts (für Katarakt, Glaukom, Keratoplastik, Amotio, Vitrektomie, Strabismus, andere Operationen) übernommen. Die Operationen selbst werden schrittweise durch Anklicken von Auswahlfeldern nachvollzogen. Durch Formeln wird dieses Protokoll in Klartext gewandelt, ausgedruckt und dem Patienten auf die Station mitgegeben. ICD-9 Codes für Diagnosen und sowie Leistungscodes für Operationen werden automatisch generiert.;-;-;-;https://link.springer.com/article/10.1007/BF03164005 082960252f7e50778ad87bcba49d1c26;de;;;2.2.;;;Konstruktion und Interpretation von Datenstrukturen für rotierende Bilder von Münzen Dieser Artikel orientiert sich an der Verarbeitung von Multimediadaten. Dies ist ein Vorschlag für ein schnelles und recheneffizientes Verfahren, das im Internet-Umfeld mit minimalen Anforderungen an Hard- und Software anwendbar ist. Der Artikel bildet den aktuellen Stand der Erkennung von Multimediadaten unabhängig von Rotation und Verformung ab. Schlägt eine eigene Lösung für die Vorverarbeitung, Speicherung und Indizierung von Bildern in Form von Vektoren vor. Hier werden verschiedene Verfahren zum Suchen in Bilddaten diskutiert. Zur Erkennung von Gedenkmünzen wurde der Ansatz auf Basis einer Kantenerkennung und anschließender Indizierung gewählt. Es werden Richtungen für die weitere Entwicklung des gesamten Projekts skizziert. Ein besonderer Fokus liegt auf der effektiven Vorverarbeitung und Indexierung großer Datensammlungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22389-1_39 1a53d87f0963415f71b72168e7a2c0d3;de;;;6.1.;;;B2C-E-Commerce als Treiber simultaner Veränderungen in IT-Struktur und MarkenarchitekturIT-Struktur und Markenarchitektur verbindet das Ziel der Minimierung von Transaktionskosten innerhalb des Unternehmens sowie zwischen Unternehmen und Kunden. B2C-E-Commerce verändert die Zusammensetzung der für IT-Struktur und Markenarchitektur relevanten Transaktionskosten tief greifend. Eine Untersuchung unter 101 IT-und Markenverantwortlichen in 67 der 100 wichtigsten B2C-Unternehmen in Österreich belegt, dass;-;-;-;https://link.springer.com/article/10.1007/s11576-006-0023-0 1e3ea1b25afa4a23ecd3723c2ef6a41f;de;;;6.1.;;;Theoretische Grundlagen und Stand der ForschungDie kombinierte Anwendung von Produktentwicklungsmethoden ist einer der zentralen, jedoch bisher noch nicht umfangreich untersuchten Einflussfaktoren der Produktentwicklung. Um dies zu zeigen, wird im folgenden Kapitel zunächst eine Einordnung und Abgrenzung des Forschungsbereichs und der verwendeten Begriffe vorgenommen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-01278-6_2 d0d9f7691e376e3ceb6274e8dd97d7a3;de;;;6.1.;;;Die 12. Novelle des Arzneimittelgesetzes in DeutschlandDie Richtlinie 2001/20/EG des Europäischen Parlaments und des Rates vom April 2001—die so genannte Clinical Trials Directive—wurde im August 2004 in Deutschland in Form der 12. Novelle des Arzneimittelgesetzes (AMG) in nationales Recht umgesetzt. Die Direktive hat die Harmonisierung der Regulation klinischer Prüfungen mit Humanarzneimitteln innerhalb der Mitgliedsstaaten in Bezug auf die Anwendung von Good Clinical Practice (GCP) und den Schutz von Studienteilnehmern zum Ziel. Da lediglich nicht-interventionelle klinische Prüfungen nicht in den Geltungsbereich der Direktive fallen, unterliegen damit auch akademische, Investigator-initiierte Studien der Regulation durch das novellierte AMG. In einer solchen Studie übernimmt der Prüfarzt (Investigator) die Verantwortung eines Sponsors, d. h., er trägt als sogenannter Investigator-Sponsor die volle rechtliche und finanzielle Verantwortung für die klinische Prüfung. Diese neuen Anforderungen an klinische Prüfungen werden zu steigenden Kosten und möglichen Verzögerungen führen. Da öffentlich geförderte Studien u. a. einen erheblichen Beitrag zur Verbesserung von Therapiestrategien leisten, wurden Stimmen laut, die besorgt die Verhinderung nicht-kommerzieller klinischer Prüfungen und der akademischen klinischen Forschung durch die Umsetzung der Direktive prophezeiten. Dessen ungeachtet, garantiert die Einhaltung von GCP-Grundsätzen aber ein valides Studiendesign, ein qualifiziertes Datenmanagement sowie Monitoring und eine qualifizierte Analyse der klinischen Prüfung. Sie führt somit zu aussagekräftigen Daten und zum Schutz der Studienteilnehmer. GCP-gerechte Studien gewährleisten valide Ergebnisse, die wiederum zu neuen Therapien, Strategien oder zu einem tieferen Verständnis von Krankheiten führen. Daher ist neben einer Verbesserung der öffentlichen Förderung klinischer Studien die Etablierung klinischer Studienzentren an Universitäten und Kliniken nötig. Neben der an solchen Institutionen geleisteten Fortbildung des Studienpersonals können hier unabhängige klinische Forscher durch professionelle Beratung und praktische Dienstleistungen bei der Planung, Durchführung und Auswertung klinischer Prüfungen unterstützt werden. Letztendlich könnte die Direktive einen Anstoß zur Verbesserung der nationalen Infrastruktur für die patientenorientierte klinische Forschung geben, helfen die öffentliche Förderungslandschaft zu optimieren und zu vielleicht weniger, aber qualitativ besseren klinischen Studien führen.;-;-;-;https://link.springer.com/article/10.1007/s00103-005-1019-4 e19946f9592c4407bf0222fada5cff96;de;;;6.1.;;;IT-Management und Investments in mittelständischen UnternehmenDie Wirtschaftsordnung in einer globalen Wirtschaft ändert sich ständig und mit rasanter Geschwindigkeit. Auch mittelständische Unternehmen müssen sich einem internationalen, immer transparenter werdenden Wettbewerbsumfeld stellen und sich auf neue Transparenzanforderungen vorbereiten. Die Liberalisierung und Öffnung der Weltmärkte in Verbindung mit den Einsatzmöglichkeiten neuer Informations- und Kommunikationstechnik (luK-Technik) haben für alle Marktteilnehmer die Barrieren für weltweites unternehmerisches Agieren gesenkt. Damit verbessern sich die Chancen für mittelständische Unternehmen, ihre Märkte auszudehnen und der Gefahr einer Abhängigkeit von wachstumsschwachen Marktnischen vorzubeugen. Gleichzeitig steigt aber auch der Bedarf an internen Produktivitätssteigerungsmaßnahmen aufgrund der besseren Vergleichbarkeit der angebotenen Leistungen und Produkte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-81437-1_8 62e088af2be4b1b0b373b4af81667970;de;;;6.1.;;;FahrwerkentwicklungDie Entwicklung eines Fahrwerks ist gekennzeichnet durch sehr große Fertigungsstückzahlen, anspruchsvolle Technologien, strenge Sicherheitsanforderungen, hohe Umweltauflagen sowie Termin- und Kostendruck.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-15468-4_5 a02b34f9410267df4561b08ae3e69da4;de;;;6.1.;;;Sicherung intersektoraler Versorgung durch ein IT-gestütztes Dienstleistungskonzept für multimorbide Patienten mit Demenz – Digitales FallmanagementDas vom Bundesministerium für Bildung und Forschung geförderte Projekt „Sicherung intersektoraler Versorgung durch ein IT-gestütztes Dienstleistungskonzept für multimorbide Patienten mit Demenz“ (SimPat) hat zum Ziel, ein digitales Fallmanagementsystem für Demenzpatienten zu entwickeln, zu implementieren und zu evaluieren. Im Rahmen des Projekts konnte aufgezeigt werden, dass die Abstimmungsprozesse, die den Übergang des Patienten aus der stationären in die ambulante Versorgung betreffen, eine besondere Herausforderung darstellen. Daher weist die Einführung eines Fallmanagementsystems das große Potenzial auf, insbesondere das Entlassmanagement, als einen zentralen Teilaspekt des Versorgungsprozesses, zu unterstützen. Besonders relevant bei der Einführung und Umsetzung eines solchen digitalen Fallmanagementsystems sind dabei das Informations- und Kommunikationsmanagement sowie die Aspekte Koordination, Zusammenarbeit, Partizipation und Mitwirkung. Die Etablierung und Nutzung eines sektorenübergreifenden Fallmanagementsystems kann hier zu einer Strukturierung und partiellen Formalisierung des Informationsflusses und der Dokumentation beitragen. Es hilft somit Angehörigen und allen am Prozess Beteiligten die Versorgung von demenziell Erkrankten zu verbessern. Zudem werden Angehörige durch E-Learnings unterstützt und in ihrer Resilienz gestärkt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-62144-8_12 9af26e4d4b6d44d114b7c4b085b7e5e0;de;;;6.1.;;;Fraunhofer IPK/IWF an der TU BerlinProf. Dr.-Ing. Rainer Stark, Jahrgang 1964, studierte von 1984 bis 1989 Maschinenbau an der Ruhr-Universität Bochum und an der Texas A&M University (USA). Von 1989 bis 1994 war er als Wissenschaftlicher Mitarbeiter des Lehrstuhls für Konstruktionstechnik/CAD der Universität des Saarlandes maßgeblich am Aufbau des Instituts für Innovative Produktion mit sechs weiteren technischen Lehrstühlen im Technologiezentrum Saarbrücken beteiligt. Er promovierte mit dem Thema ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87898-8_27 9df4f1185aceeb80d41130f4ad21a703;de;;;6.1.;;;Herausforderungen und neue Lösungsansätze für die strategische KommunikationSeit einigen Jahren boomt das so genannte Content Marketing, das von Unternehmen eingesetzte „Marketing mit journalistischen Mitteln“. Technikjournalismus zeichnet sich durch seine implizite Technikakzeptanz aus und stellt die Vorstellung neuer Produkte in den Mittelpunkt. Dadurch entstehen Berührungspunkte mit dem Content Marketing. Folglich stellt sich die Frage, ob und inwieweit es dem Content Marketing gelingt, vergleichbare technikjournalistische Publikationen zu imitieren. Dies wird an Hand der beiden Mobilfunkportale Featured. de von Vodafone und Curved.de der E-Plus-Gruppe untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-14953-6_4 1beb327828011c67d221a92185a5ea8c;de;;;6.1.;;;Digitale Transformation von UnternehmenIT-Lösungen eröffnen Unternehmen Chancen für neue betriebswirtschaftliche Konzepte und stellen bestehende in Frage. Kapitel 7 zeigt in einem Überblick, wie weit diese Chancen und Risiken im Zuge der sogenannten digitalen Transformation, z. B. mit veränderten oder neu gestalteten Geschäftsmodellen, aussehen können. Es wird vertieft auf zwei Ansätze der digitalen Transformation sowie auf die Gestaltung des mit der Einführung neuer Lösungen verbundenen Wandlungsprozesses eingegangen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-53362-8_7 023b9104e076f624dd1e45702241608e;de;;;6.1.;;;Informationstechnologie als Werkzeug im ProduktentwicklungsprozessDer Einsatz der Informationstechnologie im Produktentwicklungsprozess hat bereits einen hohen Durchdringungsgrad erreicht und zielt darauf ab, die Produktentwicklung weitgehend auf Basis digitaler Modelle durchzuführen, die entweder eine detaillierte und eindeutige Beschreibung oder die Voraussetzungen für Simulationen und Berechnungen darstellen. Dafür ist der Begriff der virtuellen Produktentwicklung geprägt worden. IT-Lösungen für die virtuelle Produktentwicklung sind Autorensysteme, die digitale Modelle generieren, Lösungen zur Berechnung, Planung, Simulation sowie Kooperations- und Visualisierungswerkzeuge. Produktdaten-Management und Product Lifecycle Management Lösungen bilden den administrativen Verwaltungsbackbone für diese Systeme und Lösungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24893-1_2 7bd5ea42d513982dea1f6c02af74016b;de;;;6.1.;;;Die wichtigste Ressource: Die MitarbeiterEs ist natürlich wichtig, dass ein Unternehmer eine Strategie besitzt und versucht, diese im operativen Geschäft umzusetzen. Hierbei durchwandern sämtliche Aktionen die Wertkette des Unternehmens und gemäß den bereits dargestellten Ausführungen ist dies der Schlüssel, um eine Gewinnmarge erwirtschaften zu können. Ausschlaggebend für die Umsetzung sind jedoch die Mitarbeiter im Unternehmen, welche überhaupt den Transfer von Strategie zu Unternehmensgewinnen ermöglichen. Die Erfahrungen von Personen, welche in Familienunternehmen arbeiten, unterscheiden sich von denen, die in shareholderorientierten Unternehmen angestellt sind. Im vorliegenden Kapitel berichten zwei Angestellte von ihren Erfahrungen als Arbeitnehmer in unterschiedlichsten Familienunternehmen. Hierbei werden Aspekte der Entscheidungsfindung, der Beziehung zu Mitarbeitern als auch die Unterschiede zu Nicht-Familienunternehmen diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-18740-8_16 8de69f10fb0711d2d9726d0e8053cba5;de;;;6.1.;;;Europäische Telekommunikationspolitik — Ausgewählter Überblick über die aktuelle Telekommunikations- und Datenschutzpolitik in der Europäischen UnionDie politischen Initiativen im Bereich der Informations- und Telekommunikationspolitik in der Europäischen Union (EU) führten in den Jahren 2001/2002 zu einer weiteren Liberalisierung und Harmonisierung, die im Jahre 1990 mit der Richtlinie für Mehrwertdienste;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55653-1_7 359cbaf592dce9a871e419731e18c188;de;;;6.1.;;;Social Media-Programmfeedback im NahraumEs ist inzwischen ein Gemeinplatz, dass sich die bisherige traditionelle Trennung zwischen den Medienwelten der Presse, des Hörfunks und des Fernsehens auflöst und dies zu neuen, „mehrmedialen“, „multimedialen“, „crossmedialen“, „konvergenten“ und „hybriden“ Formen medialer Präsentation, zu neuen Geschäftsmodellen und zu individuellen, personalisierten Ausprägungen der Nutzung führt. Erweiterte Möglichkeiten der Nutzerbeteiligung können sich aus diesen evolutionären Entwicklungen ergeben. Die Geschwindigkeit dieses Paradigmenwechsels mag international leicht variieren, und seine Ausprägungen mögen je nach Mediensystem, -politik, kulturspezifischer Ausprägung der Mediennutzung und der Medien-Macht privat-kommerzieller und öffentlich-rechtlicher Konzerne etwas unterschiedlich sein. Klar ist jedoch, dass alle Beteiligten – Medienpolitiker, Medienunternehmen, Journalisten, Mediennutzer und Medien-Aufseher – Abschied nehmen müssen von Bewährtem und Erprobtem.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-10140-4_13 df543fc28e8c36f061d1df16a4621d67;de;;;6.1.;;;Politische Führung in der CDU/CSU Bundestagsfraktion„Information und Entscheidung — Kommunikationsmanagement der politischen Führung“: Schon der Buchtitel ist ein aufschlussreiches Beispiel dafür, wie sehr Medien, Öffentlichkeit und auch die Wissenschaft auf die Exekutive fixiert sind. Regierungen handeln, können sichtbar gestalten, Beschlüsse fassen und diese auch umsetzen. Regierungschefs und Minister in Bund und Ländern zeigen sich mit schönen Bildern und Inszenierungen als „Macher“ und profitieren in besonderer Weise vom „Eros der Macht“, sprich, allen Ehrerbietungen, Anbiederungen, Gefälligkeiten und Akten vorauseilenden Gehorsams denen gegenüber, die „dran“ sind und etwas zu verteilen und zu vergeben haben. Welchen Rang nehmen da die politischen Spitzen z.B. der Opposition im Deutschen Bundestag ein? Welche Gestaltungsspielräume haben sie, welche Gestalt hat politische Führung im Parlament?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-90492-8_6 74c448e1b707bcaaf1eb00e3fc2bfb59;de;;;6.1.;;;Gedankenskizzen zum Thema „Virtualisierung der Stadtplanung“Ziel räumlicher Planung ist die Herstellung von „schönen“ Städten oder „schönen“ urbanen Systemen für Menschen mit zunehmend mehr Muße. Dies gilt trotz der Tatsache, daß zunehmend mehr Menschen Muße als Arbeitslosigkeit erfahren müssen. Schön kann die Stadt nur sein, wenn sie ökonomisch, ökologisch, sozial, ästhetisch und demokratisch gefällt. Dieses „Gefallen“ ist heute Gegenstand permanenter und kooperativer diskursiver Prozesse, ihm dienen Virtualisierung und Informationsmanagement ebenso wie eine intelligente Bauleitplanung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-83291-7_5 8c8b4aa521281eba001674ab046aec52;de;;;6.1.;;;Zusammenarbeit mit anderen KräftenWie eingangs beschrieben, machen viele Einsatzszenarien ein gemeinsames Handeln mit unterschiedlichen Kräften notwendig. Dabei haben alle diese Kräfte eigene Einsatzgrundsätze, Informations- und Kommunikationswege und Befugnisse. Alle Aktivitäten der unterschiedlichen Bereiche müssen unter Berücksichtigung der verschiedenen Einsatzgrundsätze und Befugnisse koordiniert und die Informations- und Kommunikationswege zusammengeführt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-12634-6_45 de355758f095cb0325005844ad838deb;de;;;6.1.;;;15 Jahre Master Sozialmanagement aus der Sicht eines „Verwalters“Sozialmanagement beschreibt alle Managementfunktionen, die zum Führen und Leiten sozialer Organisationen notwendig sind. Es verbindet betriebswirtschaftliches mit sozialpädagogischem und psychologischem Wissen und ist weder an eine formale Rechtsform der Organisation gebunden noch zwingend mit dem Ziel einer Gewinnerzielung verknüpft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-19156-6_3 5ab154319ebf504603ab4fbe1756e2bc;de;;;6.1.;;;EDV-gestützte DatenstrukturierungDie Wettbewerbsfähigkeit mittelständischer Unternehmen hängt entscheidend von dem strategischen Einsatz der Informationstechnologie ab. Obwohl die Investitionen in diesem Bereich sehr hoch sind — 1988 wurden in der Bundesrepublik ca. 36 Mrd. DM für die EDV ausgegeben;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-75547-7_5 b6b4a03dcf60279d70edc26cd047fc12;de;;;6.1.;;;Stand und Entwicklungspfade der Digitalen Transformation in DeutschlandZiel digitaler Transformation ist die Schaffung spezifischer organisatorischer Fähigkeiten mit dem Potential, das Wettbewerbsumfeld eines Unternehmens umzugestalten. Unternehmen müssen wissen, welche Fähigkeiten das sind, wie diese aufgebaut werden und wie sie sich gegenüber anderen Unternehmen hinsichtlich dieser Fähigkeiten positionieren können. Der Beitrag untersucht den theoretischen Hintergrund solcher Fähigkeiten und stellt eine erste Fähigkeitensammlung vor. Auf Basis dieser Sammlung werden Umfrageergebnisse zum Stand der digitalen Transformation vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-16527-7_5 06aa1ebdb416104de71dd2d1325cfeb3;de;;;6.1.;;;Sicherstellung der Compliance von Sekundärsystemen bei digitaler BetriebsprüfungDie Abgabenordnung erlaubt Finanzbehörden bei Außenprüfungen die Einsichtnahme in steuerrelevante Aufzeichnungen, die mit IT-Systemen erstellt wurden. Nach den »Grundsätzen zum Datenzugriff und zur Prüfung digitaler Unterlagen« (GDPdU) hat ein Unternehmen nicht nur die Einsichtnahme zu ermöglichen, sondern auch die Daten nach Vorgabe der Betriebsprüfung auszuwerten oder den Finanzbehörden bereitzustellen. Dies betrifft zunehmend Sekundär- und Nebensysteme. Für diese Systeme diskutiert der Beitrag die Problematik der GDPdU-konformen Bereitstellung steuerrelevanter Daten mittels Datenträgerüberlassung.;-;-;-;https://link.springer.com/article/10.1007/BF03340777 f39586527ef829a7056c341e954a0ab8;de;;;6.1.;;;Unterstützung der Wartung von Produktionsmaschinen mittels Augmented Reality: technische HerangehensweiseDie Wartung von Produktionsmaschinen ist von hoher Bedeutung. Der Ausfall beziehungsweise die reine Standzeit einer Maschine kann ganze Fertigungsstraßen ausbremsen oder stoppen und so hohe Kosten verursachen. Wartung ist jedoch für den jeweiligen Maschinentyp hochspezifisch, sodass es sich um eine flexible Dienstleistung handelt. Der Wartungsvorgang orientiert sich an den konkreten, spezifischen Gegebenheiten anstatt eines festgelegten Musters. In diesem Kontext hochspezialisierter individueller Tätigkeiten ist eine technische Unterstützung des Prozesses einerseits besonders wünschenswert und andererseits aufgrund der flexiblen Natur herausfordernd. In diesem Spannungsfeld beschreibt der vorliegende Beitrag aus insbesondere technischer Sicht die prototypische Entwicklung einer Augmented Reality (AR) Anwendung zur Unterstützung der Wartung von Sondermaschinen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-31768-3_18 409165d5c6711afb31be778676325107;de;;;2.2.;;;Stabilität des prämonitorischen Seismizitätsmusters und mittelfristige Erdbebenvorhersage in Mittelitalien Der Algorithmus CN verwendet normalisierte Funktionen. Daher kann der ursprüngliche Algorithmus, der für die Region Kalifornien-Nevada entwickelt wurde, ohne Anpassung der Parameter direkt auf die Bestimmung des Zeitpunkts der erhöhten Wahrscheinlichkeit (TIP) starker Erdbeben für Mittelitalien angewendet werden. Die Vorhersage wird auf die Ereignisse mit der Magnitude . angewendet;-;-;-;https://link.springer.com/article/10.1007/BF00880270 906bb6dbba34c91f7b33d61c75137a45;de;;;6.1.;;;Aktienmarktreaktionen auf internationale Markterschließungsmaßnahmen von MobilfunknetzbetreibernTrotz der Vielzahl internationaler Markterschließungsmaßnahmen von Telekommunikationskonzernen im Mobilfunk in den letzten 15 Jahren, liegen kaum Befunde zu Auswirkungen solcher Schritte auf Aktienkurse dieser Unternehmen sowie zur Erklärung von Unterschieden zwischen den ereignisbedingten Kursreaktionen in Abhängigkeit von den gewählten Markteintrittsformen und zeitbezogenen Merkmalen der Internationalisierung vor. In der eigenen Arbeit werden deshalb Aktienmarktreaktionen für eine Stichprobe von 148, zwischen Dezember 1989 und Dezember 2004 von 29 Mobilfunknetzbetreibern angekündigten, internationalen Markterschließungsmaßnahmen untersucht. Expansionsschritte in ausländische Mobilfunkmärkte werden vom Kapitalmarkt im Durchschnitt als wertneutral für den internationalisierenden Telekommunikationskonzern eingestuft. Die Varianz der kumulierten abnormalen Renditen (KAR) ist jedoch groß. Zwischen internationalen Vertragskooperationen, Beteiligungen an bestehenden und Neugründungen von Mobilfunknetzbetreibern unterscheiden sich die KAR-Durchschnittswerte deutlich: Internationale vertragsbasierte Kooperationen werden vom Aktienmarkt im Zeitfenster von 10 Tagen vor bis 5 Tage nach deren Ankündigungsdatum signifikant negativ und schlechter als Beteiligungen an bestehenden Mobilfunknetzbetreibern im Ausland bewertet, deren durchschnittliche KAR ihrerseits signifikant unter dem KAR-Mittelwert von internationalen Neugründungen von Mobilfunknetzbetreibern liegt. Eine positivere Kapitalmarktreaktion ist bei internationalen Markterschließungsmaßnahmen von Mobilfunknetzbetreibern festzustellen, wenn sie von weiteren Auslandsexpansionsschritten innerhalb der letzten zwei Jahre flankiert werden und wenn sie zu einem Zeitpunkt erfolgen, an dem im Zielland bereits länger (digitale) Mobilfunkdienste vermarktet werden.;-;-;-;https://link.springer.com/article/10.1007/s11573-006-0051-7 1a322493084797f0a12d22430601660b;de;;;6.1.;;;HoffnungsschimmerDas Los der Banken ist zur Zeit nicht einfach: Negative Schlagzeilen machen blitzschnell die Runde, sobald wiedereinmal irgendein „Tester“ nachweisen kann, dass die Beratung in Banken und Sparkassen „skandalös“ ist. PositiveUntersuchungsergebnisse dagegen bleiben relativ unbeachtet. So hat das Deutsche Institut für Service-Qualität im Auftrag des Nachrichtensenders n-tv Service und Konditionen von 36 regional und überregional aktiven Filialbanken in zehn Städten getestet (BANKMAGAZIN 07/2011). Ergebnis: Knapp 60 % der Institute präsentierten sich mit gutem Service.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-06719-9_8 2e325a81dd199048c8b2a155c2243b97;de;;;6.1.;;;Der Kundenwert in der aktuellen betriebswirtschaftlichen DiskussionWenn es in der vorliegenden Arbeit im Wesentlichen um den Begriff des Kundenwertes und der Kundenbewertung in den verschiedensten Ausprägungsformen (z.B. Customer Value, Customer Lifetime Value, Customer Equity u.ä.m.) geht, so sind zunächst klare begriffliche Fassungen des Begriffes „Wert“ (im Sinne eines ökonomischen Wertes) mit Blickrichtung auf den interessierenden Begriff „Kundenwert“ sowie des Begriffes „Bewertung“ mit Blickrichtung auf die Bewertung von Kundenbeziehungen zu entwickeln. Insbesondere gilt es zwischen dem ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-9789-0_2 e2fde549356044b5dd9930393443bac8;de;;;6.1.;;;Maßnahmen der Bundesrepublik Deutschland zur Bekämpfung des Internationalen Islamistischen TerrorismusDen Kampf islamistischer Terroristen und Extremisten zu delegitimieren, ist in vielerlei Hinsicht die bedeutsamste aller Gegenstrategien, besonders in einer offenen, demokratischen Gesellschaft. „Die Ursachen des Terrorismus bekämpfen“ — so bezeichnet auch die Bundesregierung eine (die fünfte) von fünf „Ziel-Dimensionen“ in ihrem inoffiziellen Bekämpfungskonzept von 2004.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-90487-0_5 79b1ab29960e036c9cddc022340fe837;de;;;2.2.;;;Förderung von Ethik und Integrität in der wirtschaftswissenschaftlichen Forschung: Rückzugsinitiative Im Management werden wissenschaftliche Forschung, wissenschaftlicher Aufstieg, Arbeitsplatzsicherheit und die Sicherung von Forschungsgeldern an der Hochschule vor allem an den Veröffentlichungen in High Impact Journals gemessen. Mit gefälschten Lebensläufen, die mit veröffentlichten Zeitschriftenartikeln gefüllt sind, sind Universitäten und andere verbundene Institutionen daran interessiert, solche Akademiker zu rekrutieren oder zu ernennen. Dies übt häufig einen unangemessenen Druck auf angehende Akademiker und diejenigen aus, die bereits rekrutiert wurden, um wissenschaftliches Fehlverhalten zu begehen, was häufig zu wissenschaftlicher Integrität führt. Diese strukturierte Überprüfung konzentriert sich auf die Ethik und Integrität der Managementforschung durch eine Analyse von zurückgezogenen Artikeln, die zwischen 2005 und 2016 veröffentlicht wurden. Die Studie verwendet eine strukturierte Literaturübersichtsmethodik, bei der zurückgezogene Artikel, die zwischen 2005 und 2016 im Bereich der Managementwissenschaften veröffentlicht wurden, mithilfe von Crossref gefunden wurden und Google Scholar. Die gesuchten Artikel wurden dann gestrafft, indem Artikel nach Relevanz und Inhalt gemäß den Einschlusskriterien ausgewählt wurden. Basierend auf den analysierten zurückgezogenen Artikeln zeigt die Studie Hinweise auf ethisches Fehlverhalten unter Forschenden der Managementwissenschaften. Solches Fehlverhalten umfasst Datenfälschung, die Vervielfältigung von eingereichten Artikeln, Plagiate, Datenunregelmäßigkeiten und unvollständige Zitierpraktiken. Interessanterweise weisen die analysierten Ergebnisse darauf hin, dass der Bereich Wissensmanagement die meisten zurückgezogenen Artikel umfasst, wobei Plagiate das bedeutendste ethische Problem darstellen. Darüber hinaus zeigen die Ergebnisse dieser Studie, dass ethisches Fehlverhalten nicht auf einen bestimmten geografischen Ort beschränkt ist, sondern in zahlreichen Ländern auftritt. Im Gegenzug werden Wege für weitere Studien zu wissenschaftlichem Fehlverhalten in der Managementforschung vorgeschlagen.;-;-;-;https://link.springer.com/article/10.1007/s11948-017-9941-z e5721e7f344fa5dd86bb645730257f8b;de;;;6.1.;;;Die Entwertung des Expertenurteils durch das GutachtendilemmaWissenschaftliche Erkenntnis ist nicht unmittelbar praxisfähig. Erkenntnis bedarf der Vermittlung. Es ist der Experte, der aus theoretisch-kognitiver Erkenntnis Verfügungswissen formt und in die Wirtschaft, die Industrie und in die Politikberatung einbringt. Expertentum impliziert Kompetenz. Expertenkompetenz ist das Resultat eines wirklichen Vertrautseins mit Erkenntnis. Wenn irgend jemand angesichts eines akuten Problems zur Stellungnahme, auch zu einer ad-hoc-Stellungnahme fähig ist, dann der Experte. Auch er kann sich täuschen, aber die Irrtumswahrscheinlichkeit ist bei ihm am geringsten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-5718-5_18 308f2f98ac8f730e417443b74d949780;de;;;6.1.;;;Ausfallsicheres Betriebs- und Wartungszentrum BSEThe paper describes a computer system, which serves as an operating and maintenance center in a satelite based telecommunication network. Fault tolerant features are implemented in several areas to achieve the required high reliability of the system. On the basis of a redundant hardware system extensions to the operating system of a single computer have been designed to implement a fault tolerant dual computer system. Extensions are introduced in the areas of data management, external communication and system control.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45628-2_36 77d93bc521e2a306a2d28c66d29afece;de;;;2.2.;;;Schnelle Fourier-Transformation für sechseckige Aggregate Hexagonale Aggregate sind hierarchische Anordnungen von hexagonalen Zellen. Diese hexagonalen Zellen können effizient mit einem Schema adressiert werden, das als Generalized Balanced Ternary for Dimension 2 oder GBT . bekannt ist;-;-;-;https://link.springer.com/article/10.1023/A%3A1008370531376 5c877d0795df2c699c40b84dcfa65b79;de;;;2.2.;;;Durchführen einer effizienten Keyword-Suche nach Keyword-Gruppierung im DHT-Peer-to-Peer-Netzwerk Die größte Herausforderung bei der Entwicklung eines Peer-to-Peer-Filesharing-Systems besteht in der Implementierung eines effizienten Schlüsselwortsuchmechanismus. Aktuelle Schlagwortsuchsysteme für strukturierte P2P-Systeme beruhen auf der Schnittmenge des verteilten invertierten Index. Beim Ausführen von Abfragen mit mehreren Attributen ist der Bandbreiten-Overhead jedoch nicht akzeptabel. Um den Abfrageaufwand zu reduzieren, kann die Indizierung durch einen Satz von Schlüsselwörtern erfolgen, die im KSS-System übernommen werden. Der KSS-Index ist jedoch erheblich größer als der standardmäßige invertierte Index und der Einfüge- und Speicheraufwand wird drastisch erhöht. In diesem Papier wird durch die Annahme eines Begriffsranking-Ansatzes wie TFIDF und die Nutzung der Beziehungsinformationen zwischen Abfrageschlüsselwörtern die Indexierung nach einzelnen Schlüsselwörtern durchgeführt, während die Suche in einem Satz verwandter Schlüsselwörter wie KSS erfolgen kann. Die Ergebnisse der Experimente zeigten deutlich, dass das verbesserte Schlüsselwortsuchsystem beim Einfügungs- und Speicheraufwand mit dem standardmäßigen invertierten Index mithalten kann, während es beim Abfragenaufwand mit dem KSS-Index konkurrieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/11576259_3 b258a2250ccea3da3b213623cfd8e037;de;;;6.1.;;;IT-Compliance als Triebkraft von Leistungssteigerung und Wertbeitrag der ITInformationstechnologie (IT) muss die Position des Unternehmens gegenüber dem Wettbewerb verbessern sowie den Geschäftsbetrieb sicher, fehlerfrei, effizient und kostengünstig unterstützen. Hinzu kommt die Einhaltung gesetzlicher und regulatorischer Vorgaben (IT-Compliance). Dies führt zu erheblichem Aufwand, etwa für die Einführung von Überwachungsmaβnahmen, die Änderung von IT-Prozessen, für Dokumentation sowie durch die verschiedenartigen Compliance-Nachweise. Der Beitrag zeigt, wie Gesetzes- und Vorgabenkonformität hergestellt und damit gleichzeitig Wertbeitrag und Performance der IT gesteigert werden, wenn die Herstellung der IT-Compliance besondere Gestaltungsgrundsätze beachtet und einer wirksamen IT-Governance unterliegt.;-;-;-;https://link.springer.com/article/10.1007/BF03341246 3e81590460d9c5231301e64f827cb6cb;de;;;6.1.;;;Kundenprozess und Prozessportal als BasisDas folgende Kapitel analysiert Ziele und grenzt Elemente der Kundenprozessorientierung gegeneinander ab, identifiziert Gründe für eine effiziente Kundenpro-zessorientierung, zieht Folgerungen daraus und leitet Techniken für die Analyse von Kundenprozessen und das Portaldesign aus Literatur und Praxis ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19027-8_3 8191b2d4b2cec6bec8f84c2fcf981e04;de;;;2.2.;;;: Abrufen und Materialisieren von Tupeleinheiten für eine effektive Schlüsselwortsuche über relationale Datenbanken Die bestehenden Ansätze der Stichwortsuche über relationale Datenbanken identifizieren immer die Beziehungen zwischen Tupeln im laufenden Betrieb, was ziemlich ineffizient ist, da solche relationalen Beziehungen in den zugrunde liegenden Datenbanken sehr reich sind. Alternativ schlägt dieses Papier einen alternativen Weg vor, indem Tupeleinheiten abgerufen und materialisiert werden, um die Online-Verarbeitung der Stichwortsuche zu erleichtern. Wir schlagen zunächst ein neues Konzept von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87877-3_34 e2777f3bd5d9382886cda435d7e8b62d;de;;;6.1.;;;Manufacturing Execution Systeme und Industrie 4.0Nachdem in den letzten Jahrzehnten die Geschäftsprozesse durch ERP-Systeme horizontal und danach durch weitere Systeme (etwa SCM, CRM, PLM, SRM) die Geschäftsprozesse vertikal integriert wurden, rückte in den letzten Jahren im Rahmen der Vertikalisierung die Digitalisierung der Fertigung wieder stärker in den Fokus. In der deutschsprachigen Begriffswelt hat sich insbesondere das Schlagwort „Industrie 4.0“ etabliert, in der „intelligente Maschinen“ selbstständig Fertigungsprozesse koordinieren oder etwa „Service Roboter“ Menschen in der Montage unterstützen (BMWI (2017) Dossier Industrie 4.0: Digitale Transformation in der Industrie, Bundesministerium für Wirtschaft und Energie. https://www.bmwi.de/Redaktion/DE/Dossier/industrie-40.html. Zugegriffen am 04.12.2017). Ziel dieser Automatisierung sind insbesondere individuelle Produkte, also Einzelstücke, zu einem Preis und einer Qualität vergleichbar einer Massenproduktion.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-22773-9_11 6ee3cfaffa0935b44b6fc740c2ccf1d0;de;;;6.1.;;;MedienkompetenzTechnische, soziale und mediale Wandlungsprozesse hin zu einer kommerziell mitgeprägten Medienkulturgesellschaft erfordern einen evidenzbasierten, bei den tatsächlichen Gebrauchsweisen von Nutzern und Nutzerinnen ansetzenden, interdisziplinär angelegten Diskurs zur Medienkompetenz. Im Zuge der Zunahme konvergenter Mediendienste und -angebote plädiert der Beitrag für die Neujustierung der Medienkompetenz hin zu einer Gebrauchskompetenz, deren Ziel die Stärkung der partizipativen Teilhabe von Nutzern und Nutzerinnen an der Gesellschaft ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-09560-4_56 d85fd2a98980e481c63ffca71f65256f;de;;;6.1.;;;Strukturwandel der Öffentlichkeitsarbeit durch interaktive MedienInwieweit hat sich die Rolle der „Öffentlichkeit“ unter dem Einfluss interaktiver Medien verändert und diese sich als ein zusätzliches Machtinstrument von Eliten unserer Gesellschaft entwickelt? Kommunikations- und Informationsmethoden werden stetig optimiert. Unternehmen, Verbände und Bürokratien ziehen strategische, organisatorische und personelle Konsequenzen daraus. Doch ist dies eine Bereicherung oder der Beginn einer Medienkrise?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-06571-3_14 dc0b8f6ab2bb63ecf8de7fa3dfa6e6cc;de;;;6.1.;;;Zertifizierung der Serviceprozesse nach ISO 9001 – Nutzen für das UnternehmenDas Informationsmanagement in Krankenhäusern wird immer mehr zu einem entscheidenden Faktor einer guten und sicheren und vor allem effizienten Patientenversorgung. Trotz dieser hohen Bedeutung für die Organisation, die inzwischen auch in der obersten Leitung meist erkannt wird, arbeiten viele IT-Abteilungen noch sehr unstrukturiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8348-9393-2_9 b1d4fabc0763a17160073a0ebab3ced1;de;;;6.1.;;;Öffentlichkeit als Teil des SchlachtfeldesDass die Medienberichterstattung ein wichtiger militärischer Faktor ist, hätte während der Nato-Luftoperationen gegen Jugoslawien im Jahr 1999 eigentlich bereits zum Allgemeingut der Akteure gehören müssen. Dennoch stellte sich die Nato erst im Laufe des Konfliktes auf diese Erkenntnis ein. Erfahrene Medienberater aus Großbritannien und den USA waren ihr dabei behilflich (vgl. Beham 2000: 221). Bundesregierung und Bundeswehr-Führung dagegen traten Journalisten und Öffentlichkeit mit den routinemäßigen Informationsmaßnahmen (Pressekonferenzen, Broschüren) gegenüber, ergänzt um eher spontane Aktionen des Bundesministers der Verteidigung. Einen besonderen Plan für ein Informationsmanagement während dieses ersten Krieges des Bündnisses gab es weder in der Nato noch im Bundesministerium der Verteidigung (BMVg) bzw. in der Bundeswehr. Mittierweile zogen alle Beteiligten die Lehren aus den kommunikativen Abläufen (vgl. Shea 2000: 215). Die US-Streitkräfte haben im Irak-Krieg ein breit gestreutes Spektrum von Information Operations eingesetzt, zu dem auch die Maßnahmen mit gezielter Wirkung auf die Öffentlichkeit gehören.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-90833-9_8 b8239a11062106fced45f09a20e104a8;de;;;6.1.;;;Normativität in der Medienkonvergenzforschung – Eine kommunikations-kommunikationswissenschaftliche BetrachtungWissenschaftstheoretiker und Erfahrungswissenschaftler debattieren regelmäßig mit- und untereinander, ob und inwiefern normative Aussagen Bestandteil von Wissenschaft sein sollten. Dieser Beitrag reiht sich nicht in diese Diskussionen ein. Ziel ist es vielmehr, zu untersuchen, inwieweit Medienkonvergenzforschung als Teilbereich der Medien- und Kommunikationswissenschaften ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-19015-0_20 7efaba7a0a447e3b0bf646e0c595d159;de;;;6.1.;;;Zum Stand der Forschung zum Tableteinsatz in Schule und Unterricht aus nationaler und internationaler SichtIn den sechs Jahren seit Erscheinen des iPads von Apple haben sich viele Schulen weltweit mit Tablets ausgestattet und gestalten damit Unterricht. Die dazu erfolgten wissenschaftlichen Begleitstudien national und international zeigen fast durchweg positive Ergebnisse auf, die u. a. auf gesteigerte Motivation und Aufmerksamkeit, auf verändernden Unterricht sowie auf selbstständigeres Lernen der Schülerinnen und Schüler hinweisen. Methodisch orientieren sich die meisten Studien an Befragungen, nur wenige an Unterrichtsbeobachten. Insgesamt kann von einem Erfolg der Tablets in Schule und Unterricht gesprochen werden, der sich zwar nicht immer in besseren Leistungen, aber häufig in einer veränderten Lernkultur ausdrückt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-13809-7_6 747ccf5bf56f2d48d2a09f57fb2c4b92;de;;;6.1.;;;Welchen Einfluß haben verteilte Informationssysteme auf die betriebliche Organisation?Aktuelle Untersuchungen deuten auf eine neue strategische Orientierung in den Unternehmungen hin: Nicht mehr Kostensenkung und Personal-Reduktion werden als die wesentlichen Nutzenfaktoren bei der Einführung von Informationstechnologie vom Management gesehen, sondern Faktoren wie eine Verbesserung der Konkurrenzfähigkeit, der Management-Effektivität, des Kundendienstes und/oder der Produktqualität.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-10785-0_2 72612d852cfd71e3510b1cd77a014bd8;de;;;6.1.;;;Gattungen und GenresDas Kapitel „Gattungen und Genres“ versucht sich an grundlegenden Definitionen der beiden Begriffe und möchte diese voneinander differenzieren. Historisch wird eine Herleitung der Bezeichnungen über die Genese der Formen in der Literaturwissenschaft und Kunstgeschichte geleistet. Im Anschluss daran werden die Definitionsversuche des Gattungsbegriffs in der deutschsprachigen Medien- und Filmwissenschaft seit 1980 überblickshaft dargestellt, um daraus eine operationalisierbare Konkretisierung abzuleiten. Im Folgenden werden noch zwei grundsätzliche Fragen geklärt: Erstens geht es darum, in welchem Verhältnis Gattungen und Genres zueinander stehen können und welche Bezüge denkbar sind. Zweitens wird der Frage nachgegangen, ob nicht nur Genres mittlerweile als hybrid angesehen werden müssen, sondern ob man auch von Gattungshybriden sprechen kann. Eine abschließende Begriffsbestimmung und Zusammenfassung schließen den Beitrag ab.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-658-09631-1_1-1 cfe0a119f0d1325dee3c6e7244981604;de;;;2.2.;;;Anwendungen der Pipeline-Umgebung für visuelle Informatik und Genomik-Berechnungen Die moderne Informatik- und Genomforschung erfordert ein effizientes, flexibles und robustes Management großer heterogener Daten, fortschrittliche Rechenwerkzeuge, leistungsstarke Visualisierung, zuverlässige Hardware-Infrastruktur, Interoperabilität von Rechenressourcen und detaillierte Daten- und Analyseprotokollherkunft. Die Pipeline ist eine verteilte Client-Server-Rechenumgebung, die die visuelle grafische Konstruktion, Ausführung, Überwachung, Validierung und Verbreitung fortgeschrittener Datenanalyseprotokolle erleichtert.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-12-304 55e4b76661882c23eb7cc7a237106859;de;;;6.1.;;;Öffentliche Verwaltung und Informationstechnik — Neue Möglichkeiten, neue Probleme, neue Perspektiven: Begründung des Tagungsprogramms —1984 ist ein besonderes Jahr: Durch 4 teilbar ist es ein Jahr Olympischer Spiele. Genau eine Olympiade ist es auch her, daß die Gesellschaft für Informatik, gemeinsam mit dem Forschungsinstitut der Hochschule Speyer ihre erste Fachtagung über Verwaltungsautomation abgehalten hat. 300 Teilnehmer aus Praxis und Wissenschaft waren damals in eben diesem Raum zusammengekommen <1>.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-95469-6_3 16ac0b2a7be80140927dbc75b0823f9a;de;;;6.1.;;;Content LogisticDie digitale Schnelllebigkeit erfordert verstärkt agile Datenmodelle, die den Anforderungen wachsender Informationsmengen und schrumpfender Produktlebenszyklen gerecht werden können. Darüber hinaus muss sich innerhalb der Unternehmen ein neues Denken etablieren, das alle Perspektiven durchdringt und sie an zukunftweisenden digitalen und betriebswirtschaftlichen Strategien ausrichtet. Die Information Supply Chain als Visualisierungswerkzeug für unternehmensspezifische Applikationsstrukturen hilft dabei, den Datenfluss durch die unterschiedlichen Systeme abbilden, nachvollziehen und effizienter gestalten zu können. Nur durch ein durchdachtes Information Supply Chain Management lässt sich die Aufgabe der Content Logistic, also der an den Unternehmenszielen ausgerichteten Bereitstellung von Informationen über unterschiedliche Kanäle, bewältigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-24620-4_8 8b89a0b0aec4bfab78d64a94d7e9e5f1;de;;;6.1.;;;Theoretische Grundlagen der UntersuchungZu den wissenschaftstheoretischen Grundlagen gehören die methodologischen Leitideen. Durch Leitfragen sollen gültige und legitime Erkenntnisprinzipien für den zu erforschenden Objektbereich festgelegt werden. Sie sind für eine wissenschaftliche Forschung unabdingbar und sollen im Folgenden kurz vorgestellt werden. Des Weiteren soll der forschungslogische Rahmen der Untersuchung abgegrenzt werden, indem bestimmte Problemlösungsverfahren für zulässig oder unzulässig erklärt werden. Da die Erlangung gesicherter Erkenntnisse über reale Phänomene und ihre komplexen Wechselbeziehungen ein wesentliches Ziel wissenschaftlicher Forschung ist, kommt dem Anspruch der Erklärung im Sinne des kritischen Rationalismus eine besondere Bedeutung zu. Nach P;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-8605-4_2 cb9df57964cbda5804f7df48a0940698;de;;;6.1.;;;Wirkungen interorganisatorischer InformationssystemeIn Kapitel 6 wird der Frage nachgegangen, welchen Einfluss IOS auf die Leistungskoordination zwischen Unternehmen haben. Eine Wirkungsanalyse eines IOS-Einsatzes sowie die Klärung der zugrundeliegenden Zusammenhänge bilden die Voraussetzung, um die Gestaltungsaufgabe systematisch zu strukturieren. Darüber hinaus muss das IM die möglichen Wirkungen eines IOS-Einsatzes kennen, um die Gestaltungsaufgabe zielgerichtet erfüllen zu können. Erst durch die Kenntnis der Wirkungszusammenhänge kann das IM geeignete Massnahmen zur Planung, Entwicklung und Einführung eines IOS vorschlagen. Aus diesem Grunde werden im folgenden die Wirkungen eines IOS Einsatzes ausführlich analysiert und erklärt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-91517-7_6 2c3e0ebc0457db80d55c804752e9e7a9;de;;;2.2.;;;Zangen und Schneeball beim CLEF 2002 Wir testen die Nützlichkeit von europäischen Sprachstemmern, die mit der Snowball-Sprache erstellt wurden. Dies ermöglicht es uns, mit ZANGEN in anderen Sprachen als Englisch zu experimentieren. Wir berichten auch über einige Experimente zur Abstimmung von BM25-Konstanten, die durchgeführt wurden, um die besten Einstellungen für unsere Suche zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45237-9_27 137282c8d1e2bccb3b5db3ecc29faed3;de;;;6.1.;;;Herausforderungen bei der Konzeption und Nutzung von GeräteservicesZiel von Abschnitt 3 ist die Erarbeitung der wesentlichen Unterschiede bei der Konzeption und Nutzung von Geräteservices im Vergleich zu Softwareservices im medizinischen Umfeld (Abbildung 3-1). Darüber hinaus werden betrachtenswerte Anwendungsbeispiele identifiziert, die die Basis der Evaluation sind. Zur Umsetzung dieser Ziele wurden drei Fallstudien durchgeführt, deren Design in Abschnitt 3.1 erläutert wird. Anschließend werden in Abschnitt 3.2 die rechtlichen Rahmenbedingungen beschrieben, die bei der Integration medizinischer Geräte zu beachten sind. Die Abschnitte 3.3 bis 3.5 beinhalten die Ergebnisse der einzelnen Fallstudien, welche in Abschnitt 3.6 zu einer konsolidierten Liste von Charakteristika medizinischer Geräte subsumiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-4167-1_3 945d5f554547935811a6bb10d8489c16;de;;;6.1.;;;Datenschutzrechtliche VorgabenNachdem im vorangegangenen Kapitel erweiterte berufsbezogene Erreichbarkeit aus individualarbeitsrechtlicher und kollektivrechtlicher Sicht dargestellt worden ist und Anwendungen impliziter Kommunikation als taugliche Instrumente zum Umgang mit erweiterter berufsbezogener Erreichbarkeit identifiziert werden konnten, sollen sie im Folgenden aufgrund ihres datenintensiven Charakters aus datenschutzrechtlicher Sicht näher beleuchtet werden. Die Untersuchung datenschutzrechtlicher Normen ist notwendig, da sich auch aus ihnen Anforderungen und darauf aufbauend Kriterien, Gestaltungsziele und Gestaltungsvorschläge für die rechtsverträgliche Gestaltung von Anwendungen impliziter Kommunikation gewinnen lassen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-23470-6_7 5f3654a1fe62046dee229b2be7b9a74a;de;;;2.2.;;;Experimentelle Studie zum latenten Fingerabdruck-Matching mit geclusterten Minutienmustern Die Verwendung von Biometrie, insbesondere von Fingerabdrücken, nimmt aufgrund ihrer zuverlässigen Verifizierung und Identifizierung von Tag zu Tag zu. Diese Dominanz hat zur Einrichtung des automatischen Fingerabdruck-Identifikationssystems (AFIS) geführt. Latent AFIS wird zunehmend nachgefragt, da beim Abgleich kein manueller menschlicher Eingriff erforderlich ist. Aber latentes AFIS steht noch am Anfang und muss viele Herausforderungen meistern. Somit besteht ein Bedarf an der Entwicklung eines schnellen, zuverlässigen und robusten latenten AFIS. In diesem Artikel haben wir eine robuste Hash-basierte Indexierungstechnik für den Abgleich großer latenter Fingerabdrücke vorgeschlagen, um den Abgleich zu beschleunigen. In diesem System werden lokale Nachbarschaftsinformationen von Minutien extrahiert, um Minutiae-Merkmale zu erzeugen. Diese erhaltenen Minutiae-Merkmale sind invariant gegenüber Maßstab, Translation, Rotation und jede Minutia wird als Merkmalsvektor dargestellt. Diese Informationen können weiter verwendet werden, um eine Hash-Tabelle zu erstellen und ein Abgleich kann durchgeführt werden. In den Experimenten wird die korrekte Indexleistung (CIP) verwendet, um die Wiederfindungsgenauigkeit zu messen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9184-2_35 0199b339676e2bcf366e9fa95e1cb569;de;;;2.2.;;;Textrecherche aus frühen gedruckten Büchern Das Auffinden von Texten aus frühen gedruckten Büchern ist besonders schwierig, da in diesen Dokumenten die Wörter sehr nahe beieinander stehen und ähnlich wie in mittelalterlichen Handschriften viel Ligaturen und Abkürzungen verwendet werden. Um diese Probleme anzugehen, schlagen wir eine Wortindexierungs- und -wiedergewinnungstechnik vor, die keine Wortsegmentierung erfordert und gegenüber Fehlern bei der Zeichensegmentierung tolerant ist. Zwei Hauptprinzipien charakterisieren den Ansatz. Zunächst werden die Zeichen auf den Seiten identifiziert und mit einer selbstorganisierenden Karte (SOM) gruppiert. Während des Abrufens wird die Ähnlichkeit von Zeichen unter Berücksichtigung der Nähe von Clusterschwerpunkten im SOM-Raum geschätzt, anstatt die Zeichenbilder direkt zu vergleichen. Zweitens werden Abfragewörter mit der indizierten Zeichenfolge mittels eines auf dynamischer Zeitverzerrung (DTW) basierenden Ansatzes abgeglichen. Die vorgeschlagene Technik integriert die SOM-Ähnlichkeit und die Informationen über die Breite von Zeichen in den String-Matching-Prozess. Der beste Pfad im DTW-Array wird unter Berücksichtigung der Breiten übereinstimmender Wörter in Bezug auf die Abfrage identifiziert, um mit unterbrochenen oder sich berührenden Symbolen umzugehen. Die vorgeschlagene Methode wird an vier Exemplaren der Gutenberg-Bibeln getestet.;-;-;-;https://link.springer.com/article/10.1007/s10032-010-0146-0 6b089f73d00c3da5e7e8f66fbbdc51fb;de;;;2.2.;;;Effiziente Zusammenstellung von Bildidentifikatoren für Bilddatenbanken Da Geräte mit Bilderfassungsfunktion erschwinglich geworden sind, ist die Menge an Bildern, die in verschiedenen Anwendungen produziert werden, enorm. Daher muss die Bindung eines Bildes mit einem unverwechselbaren Wert für die Zweckidentifikation wirtschaftlich effizient und auch in Bezug auf das Ziel effektiv sein. In diesem Beitrag stellen wir einen neuartigen Ansatz zur Generierung von Bildidentifikatoren vor. Das vorgeschlagene Verfahren zur Generierung von Identifikatoren wird durch die Verfolgung eines einfachen, aber effektiven und effizienten Ansatzes motiviert. Unter Berücksichtigung grundlegender Verfahren zur Extraktion von Bildmerkmalen verwenden wir die Verteilung von Liniensegmenten, um Identifikatoren zusammenzustellen, die grundsätzlich eine Eins-zu-Eins-Beziehung zwischen einem Bild und einem entsprechenden Identifikator erfüllen. Die generierten Identifikatoren können für Namenszusammensetzungsmechanismen in einem Speichersystem oder für die Indizierung in einer riesigen Bilddatenbank verwendet werden. Unsere experimentellen Ergebnisse zur Erzeugung von Indexwerten der Bestandteile haben positive Ergebnisse gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27207-3_34 f9dc3edac52897680ed3b5db7f77fe15;de;;;2.2.;;;Fingerabdruck-Identifikationsalgorithmus basierend auf Delaunay-Triangulation und Zylindercodes Es wird ein neuer effizienter Fingerabdruck-Identifikationsalgorithmus vorgeschlagen, der eine Modifikation der Delaunay-Triangulations-Minutien-basierten Hashing-Technik für einen Modelldatensatz, das Maltonsche Zylindercodierungsverfahren für Fingerabdrücke und das MAP-Klassifizierer-Lernverfahren kombiniert. Numerische Experimente beweisen die Robustheit des Algorithmus bzgl. kleine Störungen der Minutiendaten und das ausreichend hohe Niveau des natürlichen Rauschens für Abfrage-Fingerabdrücke. Außerdem werden die Ergebnisse der Leistungsanalyse im Vergleich zum hochmodernen „Suprema“-Identifikationsalgorithmus präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12580-0_13 e60253ead10c76a1d99ac2ad13f38baa;de;;;2.2.;;;Abrufen von Graphdatenbanken basierend auf Metrikbäumen M-Bäume sind bekannte Strukturen, die verwendet werden, um Abfragen in Datenbanken zu beschleunigen. In diesem Artikel untersuchen wir die Anwendbarkeit von m-Bäumen auf Graphdatenbanken. In klassischen Schemata, die auf Metrikbäumen basieren, sind die Routinginformationen, die in einem Metrikbaumknoten gespeichert sind, ein ausgewähltes Element aus dem Untercluster, der repräsentiert. Dennoch ist die Definition eines Graphen, der eine Menge von Graphen darstellt, keine triviale Aufgabe. Wir evaluieren verschiedene Prototypen der Graphenklasse als Routingknoten im Metrikbaum. Die betrachteten Prototypen sind: Median-Graphen, Closure-Graphen, Zufallsgraphen erster Ordnung, funktionsbeschriebene Graphen und Zufallsgraphen zweiter Ordnung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34166-3_48 33c1e51a57555fce926715f2d5a84e3c;de;;;2.2.;;;Eine ressourceneffiziente hybride Datenstruktur für Twig-Abfragen Der Entwurf von Datenstrukturen für den Einsatz in mobilen Geräten erfordert ein Augenmerk auf die Optimierung der Datenmengen mit den damit verbundenen Vorteilen für Datenübertragung, Speicherplatz und Batterieverbrauch. Für halbstrukturierte Daten können Baumzusammenfassungstechniken verwendet werden, um das Volumen strukturierter Elemente zu reduzieren, während die Wörterbuchkomprimierung effizient mit wertbasierten Prädikaten umgehen kann. Dieses Papier stellt eine Integration der beiden Ansätze unter Verwendung von Nummerierungsschemata vor, um die einzelnen Elemente zu verbinden. Leistungskennzahlen, die die Vorteile dieser Hybridstruktur aufzeigen, werden zusammen mit einer Analyse der Abfrageauflösung unter Verwendung verschiedener Indexgranularitäten vorgestellt. Da der aktuelle Trend dahin geht, mit größeren semi-strukturierten Datensätzen zu arbeiten, ermöglicht diese Arbeit die Nutzung dieser Datensätze bei gleichzeitiger Reduzierung der erforderlichen Bandbreite und des erforderlichen Speicherplatzes.;-;-;-;https://link.springer.com/chapter/10.1007/11841920_6 69f99763c801d6267f77fd6bf56f6099;de;;;6.1.;;;Ein Integrationskonzept für DV-Systeme in der FertigungDie Anforderungen an DV-Systeme im Produktionsumfeld lassen sich in zwei Hauptpunkten zusammenfassen: der Integrationsfähigkeit für bestehende DV-Systeme und der informationstechnischen Unterstützung unternehmensspezifischer Prozesse. Da die in Kapitel 4 untersuchten Integrationsansätze diesen Anforderungen nicht gerecht werden, müssen die grundlegenden Bestandteile eines Informations- und Kommunikationssystems in die Betrachtung mit einbezogen werden. Für den hier eingegrenzten Betrachtungsfall der Fertigung sind das: die technischen Informationen, die Architekturen und die zur Kommunikation eingesetzten Softwaretechniken, die unter dem Begriff Middleware zusammengefaßt werden. Das neue Integrationskonzept wird aus den modernen Architekturen abgeleitet. Damit ist sichergestellt, daß die in der Architektur zur Kommunikation verwendeten Softwaretechnologien auch für das entwickelte Integrationskonzept anwendbar sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-47972-4_5 33df87af119b76e8aa5cdf92e1b7a070;de;;;6.1.;;;Überblick SAP Advanced Planner & OptimizerDer Einsatz von mySAP Supply Chain Management (mySAP SCM) ermöglicht eine unternehmensübergreifende Planung, Koordination, Ausführung und Vernetzung entlang der gesamten logistischen Kette. Als Planungs- und Optimierungs-Komponente nimmt der SAP APO dabei eine zentrale Stellung innerhalb von mySAP SCM ein. Basierend auf einem ganzheitlichen Planungsansatz bietet er Funktio- nen zur Absatzplanung, Supply Network Planung, Produk- tions- und Feinplanung, Transportplanung sowie zur globalen Verfügbarkeitsprüfung. Daneben umfasst der SAP APO zahlreiche branchenspezifische Erweiterungen und unterstützt die unternehmensübergreifende Zusammenarbeit mit Geschäftspartnern über das Internet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-90812-4_2 f800cadcc33fc56a66e9050689165454;de;;;6.1.;;;Eine bibliografische Analyse zum Supply Chain Risikomanagement unter besonderer Berücksichtigung der RisikoquantifizierungEine Aufgabe innerhalb des Supply Chain Risikomanagements ist es, Risiken einzelner Elemente als auch Risiken der gesamten Supply Chain zu untersuchen. Allerdings wurde in diesem Zusammenhang eine funktionale Beschreibung der Risikostruktur in der Literatur bisher weitgehend vernachlässigt. Zur Unterstützung dieser These zeigen die Ausführungen innerhalb des Beitrages die Ergebnisse einer umfassenden Literaturrecherche zum Forschungsgebiet Supply Chain Risikomanagement auf. Dabei werden basierend auf dem aktuellen Forschungsstand zentrale Fragen für weiterführende Arbeiten identifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-5458-5_15 49583187d285d09e4bb31f140447cf4e;de;;;6.1.;;;Systemtechnologien und die Entwicklung zum SystemgeschäftDie zunehmende Verbreitung und Bedeutung von Systemtechnologien resultiert insbesondere daraus, daß die Informationstechnologie heute einer der Eckpfeiler industrieller Innovationen darstellt. Die Informationstechnologie ist damit keine spezifische Technologie mehr, die sich auf ein bestimmtes Anwendungsgebiet konzentriert, sondern übernimmt immer mehr die Rolle einer ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-09799-0_2 77789237e89ea1aa860130d06684ca16;de;;;6.1.;;;IT im AuslandszahlungsverkehrDer Begriff Auslandszahlungsverkehr (AZV) wird unterschiedlich interpretiert. Während in vielen Fällen nur der Überweisungsverkehr und das Scheckgeschäft dem Auslandszahlungsverkehr zugerechnet werden, gibt es andere Sichtweisen, die hierunter auch den dokumentären Zahlungsverkehr (Inkassi, Akkreditive) verstehen. Bei noch weiter gehender Auslegung müssen hierzu auch die kartenbasierten Zahlungen gerechnet werden. Zusätzlich wird der Begriff „Ausland“ unterschiedlich interpretiert. So wird überwiegend der grenzüberschreitende Zahlungsverkehr als Auslandszahlungsverkehr definiert, vielfach werden darunter aber auch Zahlungen im Inland verstanden, wenn entweder in fremder Währung gezahlt wird oder es sich beim Auftraggeber bzw. Begünstigten um einen so genannten Gebietsfremden handelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-91154-4_28 9969c938651cce8fdd294b0d553cc861;de;;;6.1.;;;Moderne Instrumente des InformationsmanagementsInformationsmanagement ist eine zentrale Aufgabe, die ein MES im Fertigungsumfeld und auch darüber hinaus bewältigen muss. Zur Steigerung der Transparenz kann beispielsweise ein Manufacturing Cockpit Kennzahlen berechnen und für unterschiedliche Unternehmensbereiche visualisieren. Dabei ist sowohl die Relevanz der jeweiligen Kennzahlen bzw. Auswertungen als auch eine gesicherte Datenherkunft von großer Bedeutung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46902-6_5 0c7b9dea6af6475a7e264fe1c31afeb6;de;;;6.1.;;;Der Beitrag des Supply Chain Management zum Management von Supply Chains — Überlegungen zu einer unpopulären FrageSupply Chain Management is a rather young, but fast growing discipline, which is concerned with the management of long, interwoven chains of industrial actors. So far, the overwhelming reception of this concept on current conferences, especially in logistics, mirrors the extent to which the field is involved not only in the implementation of the practices, but also in the conceptual advancement. Following all “managerial revolutions“ the question of the potential beneficiaries of supply chain management emerges. The paper addresses this question, which is relevant not only to the practitioner, but also to the academic. After a comprehensive review, criteria to evaluate the value of the supply chain management research are developed and applied in order to provide a systematic and transparent evaluation from the perspective of the practitioner.;-;-;-;https://link.springer.com/article/10.1007/BF03372646 c7d247fa2d1b794b483a573a6e6e813b;de;;;2.2.;;;Sequence Alignment als Herausforderung der Datenbanktechnologie Der Sequenzabgleich ist eine wichtige Aufgabe für Molekularbiologen. Da das Alignment im Wesentlichen mit dem ungefähren String-Matching in großen biologischen Sequenzsammlungen befasst ist, ist es sowohl datenintensiv als auch rechentechnisch komplex. Es gibt mehrere Werkzeuge für die Vielzahl von Problemen im Zusammenhang mit der Sequenzausrichtung. Unsere erste Beobachtung ist, dass der Begriff „Sequenzdatenbank“ im Allgemeinen für textuell formatierte String-Sammlungen verwendet wird. Eine zweite Beobachtung ist, dass die Suchwerkzeuge speziell einem einzelnen Problem gewidmet sind. Sie haben begrenzte Fähigkeiten, um als Lösung für verwandte Probleme zu dienen, die geringfügige Anpassungen erfordern. Unser Ziel ist es, die Möglichkeiten und Vorteile eines DBMS-basierten Ansatzes zum Sequenz-Alignment aufzuzeigen. Zu diesem Zweck werden wir Techniken vom Einzelsequenz-Alignment anwenden, um das Mehrfachsequenz-Alignment zu beschleunigen. Wir werden zeigen, wie das Problem des Abgleichs einer Proteinstring-Familie mit einer großen Proteinstring-Datenbank mit q-Gramm-Indexierungstechniken auf der Grundlage relationaler Datenbanktechnologie angegangen werden kann. Die Verwendung von Monet, einem Hauptspeicher-DBMS, ermöglicht es uns, eine flexible Umgebung für die Entwicklung von Suchheuristiken zu schaffen, die die klassische dynamische Programmierung übertreffen und gleichzeitig zufriedenstellende Sensitivitätszahlen beibehalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74469-6_45 8526ae019645c2c039adc6cab40fcb9a;de;;;6.1.;;;PR-Ausbildung: Und sie bewegt sich dochMit dem Thema „PR-Ausbildung“ hat sich die DGPuK-Fachgruppe „PR und Organisationskommunikation“ bisher (nur?) zweimal beschäftigt: 1992 unter dem Titel „PR-Ausbildung“ auf Einladung Günter Benteles in Bamberg, es war die erste Tagung unserer Fachgruppe nach ihrer Gründung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-19121-8_6 f1c73e0a854aa5e60ed8d1f95df6feb0;de;;;6.1.;;;ProjektkonzeptionNachdem das Projekt in der Phase der Projektinitiierung (siehe Kap. 3) grob umrissen wurde, gilt es nun in einer nächsten Stufe, dieses auf der Basis detaillierter und systematischer Analysen auf seine Machbarkeit hin zu untersuchen. Diese Phase, in der DIN 69901-5 auch Definitionsphase (engl.: ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-05687-2_5 a218810c1131e2f5ebe3576ed52f439a;de;;;6.1.;;;Praktische Beispiele zur Systemsicherheit bei der Anwendung mobiler Hard- und SoftwaresystemeMobile Technologien rücken immer mehr in den Mittelpunkt der Arbeitswelt und werden dadurch zu Mitgestaltern des unternehmerischen Erfolgs. Die Anwendung adäquater Sicherheitsstrategien schützt nicht nur vor den damit entstehenden Gefahren sondern gewährleistet auch den richtigen Umgang mit sensiblen Daten über weitreichende Netzwerke.;-;-;-;https://link.springer.com/article/10.1365/s40702-014-0007-2 71322c2682036c3f39c2460d028a6a2c;de;;;6.1.;;;Der leitende Abteilungsarzt (Chefarzt) in einer modernen KlinikDie Gliederungsstruktur einer bettenführenden medizinischen Abteilung und eines Krankenhauses ist typischerweise durch eine an den einzelnen Berufsständen orientierte Aufbauorganisation gekennzeichnet. Diese in jeder Klinik anzutreffende Organisationsstruktur hat jedoch im Hinblick auf das Erreichen der Zielsetzung des Gesamtkrankenhauses Schwachstellen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08255-2_17 56626142b25eb3c96870b05f41168d1f;de;;;6.1.;;;Leistungsbild GebäudemanagementEntsprechend der GEFMA, dem deutschen Verband für Facility Management, wird Facility Management als ein unternehmerischer Prozess verstanden, der durch die Integration von Planung, Kontrolle und Bewirtschaftung bei Gebäuden, Anlagen und Einrichtungen sowie unter Berücksichtigung von Arbeitsplatz und Arbeitsumfeld eine verbesserte Nutzungsflexibilität, Arbeitsproduktivität und Kapitalrentabilität zum Ziel hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-21630-6_2 bfafecae2a083999d8bba14cd6c7dc61;de;;;2.2.;;;Indexstrukturen für Pfadausdrücke In den letzten Jahren hat das Interesse an der Verwaltung von Daten zugenommen, die nicht mit traditionellen Datenmodellen wie dem relationalen oder objektorientierten Modell übereinstimmen. Die Gründe für diese Nichtkonformität sind vielfältig. Einerseits können Daten auf der physischen Ebene nicht solchen Modellen entsprechen: Sie können in Datenaustauschformaten gespeichert, aus dem Web geholt oder als strukturierte Dateien gespeichert werden. Andererseits kann es auf logischer Ebene nicht konform sein: Daten können fehlende Attribute aufweisen, einige Attribute können in verschiedenen Datenelementen unterschiedlichen Typs sein, es können heterogene Sammlungen vorliegen oder das Schema kann zu komplex sein oder sich zu oft ändern. Der Begriff;-;-;-;https://link.springer.com/chapter/10.1007/3-540-49257-7_18 c6cee2f4ef5d6e02eb13a21f3e4dbbcb;de;;;2.2.;;;Eine Übersicht über die Verarbeitung von umfangreichen analytischen Abfragen in MapReduce Unternehmen erfassen heute riesige Datenmengen aus unterschiedlichen Quellen und nutzen diese Informationen mittels Datenanalyse, um eine effektive Entscheidungsfindung zu unterstützen und neue Funktionalitäten und Services bereitzustellen. Die wichtigste Anforderung an die Datenanalyse ist die Skalierbarkeit, allein aufgrund der immensen Datenmengen, die zeitnah extrahiert, verarbeitet und analysiert werden müssen. Das wohl beliebteste Framework für moderne groß angelegte Datenanalysen ist MapReduce, hauptsächlich aufgrund seiner herausragenden Funktionen wie Skalierbarkeit, Fehlertoleranz, einfache Programmierung und Flexibilität. Trotz seiner Vorzüge weist MapReduce jedoch offensichtliche Leistungseinschränkungen bei verschiedenen analytischen Aufgaben auf, und dies hat zu einer umfangreichen Forschung geführt, die darauf abzielt, seine Effizienz zu verbessern und gleichzeitig seine wünschenswerten Eigenschaften beizubehalten. Diese Umfrage zielt darauf ab, den Stand der Technik bei der Verbesserung der Leistung der parallelen Abfrageverarbeitung mit MapReduce zu überprüfen. Eine Reihe der wichtigsten Schwächen und Einschränkungen von MapReduce wird zusammen mit Lösungstechniken auf hoher Ebene diskutiert. Es wird eine Taxonomie zur Kategorisierung bestehender Forschungen zu MapReduce-Verbesserungen nach dem spezifischen Problem präsentiert, auf das sie abzielen. Basierend auf der vorgeschlagenen Taxonomie wird eine Klassifikation der bestehenden Forschung mit Fokus auf das Optimierungsziel bereitgestellt. Abschließend skizzieren wir interessante Richtungen für zukünftige parallele Datenverarbeitungssysteme.;-;-;-;https://link.springer.com/article/10.1007/s00778-013-0319-9 db8fd77f4da10da04d21dbca24bc4338;de;;;2.2.;;;Ein effizientes Bildabrufsystem mit geordneter gewichteter Aggregation In dieser Studie wird ein XML-basiertes inhaltsbasiertes Bildabrufsystem vorgestellt, das drei visuelle Deskriptoren von MPEG-7 (Dominant Color (DC), Color Layout (CL) und Edge Histogram (EH)) kombiniert. Das System wird erweitert, um hochdimensionale Indizierung für effizientes Suchen und Abrufen von einem nativen XML-basierten DBMS zu unterstützen. Dazu wird eine Indexstruktur namens M-Tree verwendet, die für jedes Feature eine euklidische Distanzfunktion verwendet. Darüber hinaus sind die Operatoren der geordneten gewichteten Aggregation (OWA) für die Aggregation der Entfernungsfunktionen dieser Merkmale angepasst. Das System unterstützt Nächste-Nachbar-Anfragen und verschiedene Arten von Fuzzy-Anfragen, merkmalsbasierte, bildbasierte und farbbasierte Anfragen. Die experimentellen Ergebnisse zeigen, dass unser System hinsichtlich der Abrufeffizienz effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76973-6_3 2a8864254cd85e7aa4552b1167270894;de;;;2.2.;;;Verfolgen von bewegten Objekten mithilfe der Datenbanktechnologie in DOMINO Stellen Sie sich eine Datenbank vor, die Informationen über sich bewegende Objekte und ihren Standort darstellt. Eine typische Abfrage für eine Datenbank, die den Standort von Taxis darstellt, kann beispielsweise sein: Abrufen der freien Taxis, die sich derzeit im Umkreis von 1 Meile von 33 N. Michigan Ave., Chicago befinden (um einen Kunden abzuholen) oder für a Die Datenbank eines LKW-Unternehmens kann eine typische Abfrage sein: Abrufen der LKWs, die sich derzeit im Umkreis von 1 Meile um den LKW ABT312 befinden (der Unterstützung benötigt) oder für eine Datenbank, die den aktuellen Standort von Objekten auf einem Schlachtfeld darstellt, kann eine typische Abfrage sein: die sich in einer bestimmten Region befinden, oder rufen Sie die befreundeten Hubschrauber ab, von denen erwartet wird, dass sie innerhalb der nächsten 10 Minuten in die Region einfliegen. Die Anfragen können von bewegten Objekten oder von stationären Benutzern stammen. Anwendungen mit den oben genannten Eigenschaften werden wir als Moving-Objects-Database (MOD)-Anwendungen und Anfragen wie die oben genannten als MOD-Anfragen bezeichnen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48521-X_9 46dc758a7dffdeb6e4eca6561024f32c;de;;;2.2.;;;Ein effizienter erschöpfender Sampling-Algorithmus zu jeder Zeit für Einflussdiagramme Wir beschreiben einen effizienten Stichprobenalgorithmus zum Lösen von Einflussdiagrammen, der seine Effizienz dadurch erreicht, dass er Kandidatenentscheidungsstrategien gegen denselben Stichprobensatz testet und Stichproben für jede der Strategien effektiv wiederverwendet. Wir zeigen, wie wir durch die Befolgung dieses Verfahrens nicht nur einen erheblichen Rechenaufwand einsparen, sondern auch jederzeit ein besseres Verhalten erzielen. Unser Algorithmus ist erschöpfend im Sinne der Berechnung des erwarteten Nutzens jeder der möglichen Entscheidungsstrategien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68996-6_12 aecfbe9ed7bf7d30fd9a67f599d26fd5;de;;;6.1.;;;Vertikale F&E-Kooperationen in der AutomobilindustrieForschungs- und Entwicklungsvorsprünge haben nur temporären Charakter. Strategische Wettbewerbsvorteile und monopolartige Gewinnpotenziale auf der Basis von Informationsvorsprüngen können von Konkurrenten heute wesentlich schneller egalisiert werden. Möglich wurde dies vor allem durch den weitreichenden Einsatz von modernen Informations- und Kommunikationstechnologien und der Entwicklung hin zu einer Informations- und Wissensgesellschaft. Dabei verkürzen sich die Produktlebenszyklen ebenso wie die Nutzungspotenziale der gewonnenen Informationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-9552-6_4 41cf01b56934fb7da06d2084c00c0554;de;;;2.2.;;;Aus den Augen, aus dem Sinn: eine distanzbewusste Vergessensstrategie für adaptive Zufallstests Adaptive Random Testing (ART) erreicht eine bessere Fehlererkennungseffektivität als Zufallstests, indem die Vielfalt der Testfälle erhöht wird. Die Absicht, eine gleichmäßige Verteilung von Testfällen sicherzustellen, verursacht jedoch unweigerlich ein Overhead-Problem. Obwohl zwei grundlegende Vergessensstrategien (d. h. zufälliges Vergessen und fortlaufendes Aufbewahren) vorgeschlagen wurden, um den Rechenaufwand von ART zu reduzieren, berücksichtigten sie nur die zeitliche Verteilung von Testfällen. In der Arbeit haben wir eine distanzbewusste Vergessensstrategie für die Fixed Size Candidate Set Version von ART (DF-FSCS) vorgestellt, bei der die räumliche Verteilung von Testfällen berücksichtigt wird. Für einen bestimmten Kandidaten werden die Testfälle außerhalb seiner „Sicht“ ignoriert, um die Kosten für die Entfernungsberechnung zu reduzieren. Gleichzeitig werden die dynamische Anpassung für die Partitionierung und das Vergessen der zweiten Runde übernommen, um die lineare Komplexität des DF-FSCS-Algorithmus sicherzustellen. Sowohl Simulationsanalysen als auch empirische Studien werden verwendet, um die Effizienz und Effektivität von DF-FSCS zu untersuchen. Die experimentellen Ergebnisse zeigen, dass DF-FSCS den klassischen ART-Algorithmus FSCS-ART in der Effizienz deutlich übertrifft und eine vergleichbare Fehlererkennungseffektivität aufweist. Verglichen mit zwei grundlegenden Vergessensmethoden ist DF-FSCS sowohl in Bezug auf Effizienz als auch Effektivität besser. Im Gegensatz zu einem typischen ART-Algorithmus mit linearer Zeit RBCVT-Fast erfordert unser Algorithmus weniger Rechenaufwand und weist eine ähnliche Fehlererkennungsfähigkeit auf. Darüber hinaus hat DF-FSCS eine zuverlässigere Leistung als RBCVT-Fast beim Erkennen von Fehlern für Programme mit hochdimensionaler Eingabedomäne.;-;-;-;https://link.springer.com/article/10.1007/s11432-016-0087-0 8bd68915e1810bbfeaa9d69b1fa819eb;de;;;2.2.;;;Eine abgestufte Schemaextraktion für XML-Dokumente mit benutzerdefinierten Diagrammen Die EXtended Markup Language (XML), die zum neuen Standard für die Darstellung und den Austausch von Daten im Internet wird, hat kein definiertes Schema. Es ist nicht richtig, XML-Dokumente direkt auf die vorhandene SQL oder OQL anzuwenden. Es wird aktiv daran geforscht, wie man Schemas für XML-Dokumente und Abfragesprachen extrahiert. Bei der Abfrage von Benutzern können die Abfrageergebnisse zu viele oder zu wenige sein. Es ist wichtig, den Benutzern gute Größenergebnisse zu liefern. Wir schlagen vor, das Schema mithilfe einiger Diagramme entsprechend der Häufigkeit des Vorkommens von Elementen in XML-Dokumenten zu extrahieren. Das extrahierte Schema kann verkleinert oder erweitert werden, um der Anfrage der Benutzer flexibler zu entsprechen. Wir testen unsere vorgeschlagene Methode und die Ergebnisse zeigen, dass unsere Methode ein wünschenswertes Extraktionsschema für XML-Dokumente ist.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36087-5_51 49d5756c1957e72b7193a26ec0f6a23c;de;;;2.2.;;;Multikriterielle Indexauswahl für gruppierte SQL-Abfragen Die Indizierung ist ein Schlüsselelement der Optimierung relationaler Datenbanksysteme (RDBMS). Kommerzielle Tools, die die Indexauswahl unterstützen (z. B. SQL Access Advisor, Toad, SQL Server Database Tuning Advisor, DB2 Advisor) basieren auf den Methoden, die für einzelne Abfragen bestimmt sind. In diesem Whitepaper wird ein neuer Ansatz für die Tabellenindizierung für die Gruppe SQL-Abfragen vorgestellt, der die Größe der Indizes und ihre Erstellungszeit berücksichtigt. Beispiele verdeutlichen, dass die Verwendung des Gruppenkonzepts die Abfrageausführungszeit um 44% im Vergleich zu klassischen Methoden reduziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38865-1_57 a7f2ab30a11280613cd46d04ea8c6d9a;de;;;6.1.;;;Datenmanagement in der Hand des ChirurgenIn zunehmendem Maße wird auch das Umfeld unserer chirurgischen Tätigkeit durch die Informationstechnologie bestimmt. Bestrebungen wie die Zertifizierungen und die Einführung der diagnose related groups (DRGs) bestätigen diese Entwicklung in besonderem Maße. Dabei ist der Arzt darauf angewiesen, daß die erforderlichen Computerprogramme auf die klinische Arbeit abgestimmt sind, sowohl hinsichtlich der Benutzeroberfläche als auch der Datenstruktur. Dabei bestimmt die Datenstruktur ein möglichst optimales Verhältnis von Eingabeaufwand und retrieval.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55715-6_565 9cd214b2c18daf8b58c0b9b45a0c4afb;de;;;6.1.;;;Eine APL2-Programmschnittstelle für ein Datenbanksystem mit erweiterten NFHeutige Datenbanksysteme weisen Schnittstellen sowohl für den Ad-hoc-Zugriff vom Bildschirm als auch für den Zugriff aus Anwendungsprogrammen auf. Programmiersprachen großer Mächtigkeit, wie etwa APL2, bieten für den Anwendungsprogrammzugriff gewichtige Vorteile, da Datenmodell und Operatoren der Programmiersprache und des Datenbanksystems nicht allzuweit voneinander entfernt liegen. In dem Beitrag wird auf die Konzepte und Realisierung einer APL2-Programmschnittstelle für ein NF;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-76530-8_17 da4acc1046d58f5ca9b098a56877ec40;de;;;6.1.;;;Arbeit und Gemeinschaft bei computervermittelter KommunikationDer Computer wird häufig als technisches Phänomen betrachtet, bei dem es um die Herstellung von Software und Hardware geht. Die Kommunikation über Computernetzwerke ist im Grunde jedoch ein soziales Phänomen, dessen Bedeutung und Umsetzung von den Anwendern - nicht den Systementwicklern - definiert wird. Wesen und Form der genutzten Medien werden mehr durch soziale Beziehungen und soziale Netzwerke beeinflusst, als durch die technischen Attribute dieser Medien selbst. Ein Überblick über die Forschung zur computervermittelten Kommunikation (CMC = computer-mediated communication) zeigt, dass das Soziale im Angesicht des Technischen weiterhin besteht und dass, trotz früherer Befürchtungen hinsichtlich der “Armut” von CMC, in der Online-Welt Kommunikationsreichtum herrscht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-80844-8_14 9fee0734a2717e9ed598a951c56d45eb;de;;;2.2.;;;MaxMatcher: Extraktion biologischer Konzepte mit ungefährer Wörterbuchsuche Die wörterbuchbasierte Extraktion biologischer Konzepte ist immer noch der Stand der Technik für die groß angelegte Annotation und Indexierung biomedizinischer Literatur. Das;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36668-3_150 a97581460cd86947dc5c83850c1777f1;de;;;6.1.;;;Terminologieverwendung in TextenIm letzten Kapitel dieses Buchs werden die Möglichkeiten der effizienten und korrekten Verwendung von Terminologie beschrieben. Nach einer zusammenfassenden Thematisierung der Notwendigkeit von Terminologie, die als Leitmotiv durch das ganze Buch scheint, werden die Grundlagen zur Kontrolle der Terminologieverwendung gelegt. Danach wird im Detail auf die Verwendung von Terminologie bei der Erstellung von Ausgangstexten und beim Übersetzen eingegangen, wobei bei Ausgangstexten das Zusammenwirken von Terminologie mit Authoring-Memory-Systemen und Controlled-Language-Checkern und bei der Übersetzung das mit Translation-Memory-Systemen beschrieben wird. In Abschn. 7.4.1 wird zudem die grundlegende Rolle der Terminologiearbeit im Übersetzungsprozess dargestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-53315-4_7 ead3119142bac655a8e19f65491d4ac9;de;;;6.1.;;;Die Digitalisierung nutzerzentriert gestalten: Das digitale Kontrollzentrum für die WarenannahmeViele kleine und mittlere Unternehmen (KMU) haben in den letzten Jahren in die Einführung von IT-Systemen investiert. Vielfach sind bereits Enterprise-Ressource-Planning-Systeme (ERP-Systeme) in der Verwaltung im Einsatz. Die Kommunikation zwischen der Verwaltung und Produktion erfolgt jedoch oftmals papierbasiert. Das führt zu Unterbrechungen im Informationsfluss, doppelter Datenhaltung sowie zu Informationsasymmetrien und -verlusten. Der folgende Beitrag zeigt am Beispiel der Entwicklung, Umsetzung und Einführung eines digitalen Kontrollzentrums (kurz: DiKo) für die Warenannahme bei der Firma Zemmler Siebanlagen GmbH, wie diese Herausforderungen nutzerzentriert gelöst werden können. Nach einer Beschreibung der Ausgangssituation werden die angewendeten nutzerzentrierten Methoden und das Vorgehensmodell dargestellt. Den Kern des Beitrags bildet die Beschreibung der entwickelten technischen Lösung mit ihren Elementen. Ergänzend wird ein innovativer didaktischer Ansatz zur Übertragbarkeit der Lösung vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-59474-2_14 ccd38dbae42bddc6e2c1ad03fb6e84f7;de;;;6.1.;;;Qualitätssicherung auf der SICU mittels weitgehend automatisierter DatenerfassungDer Hauptvorteil eines Patienten Daten Management Systems auf der Intensivstation ist die verbesserte Qualität der Dokumentation und die damit verbundene Verbesserung der Versorgung. Kommerziell angebotene Systeme waren bislang kaum in der Lage den Zeitaufwand für Dokumentation zu reduzieren. Dies lag vor allem in der mangelhaften Möglichkeit Daten von Bedside Geräten zu übernehmen insbesondere von Spritzen- und Infusionspumpen. Unser Konzept zeigt das eine weitgehende Datenübernahme durchaus möglich ist, und das diese Daten die Grundlage für ein Qualitäts- und Kostenmanagement bilden können. Arbeitsgruppenübergreifende Dokumentation gibt einen schnellen, korrekten und konzentrierten Uberblick über den Zustand des Patienten. Statistische Auswertungen können zu praktisch jeder Fragestellung durchgeführt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-60881-0_451 f5a00856e304198610e6a2428fa63846;de;;;6.1.;;;Optimale Liquiditätsdisposition bei Kommunen im Computer-DialogIm Referat wird ein modular aufgebautes Dialogsystem zur optima-len Liquiditätsdisposition vorgestellt, mit dem Datenerfassung und Verwaltung, Dokumentation, Optimierungsrechnung, Alternativenrechnung und Abruf der Ergebnisse im Online-Betrieb durchgeführt werden. Die realisierbaren Nutzeffekte des Planungssystems hängen weitgehend von der Genauigkeit ab, mit der die Zahlungsströme prognostiziert werden können. Es werden daher die spezifischen Probleme skizziert, die bei der Entwicklung eines Systems zur tagesgenauen Prognose der Vielzahl heterogener Zahlungsarten von Kommunen auftreten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-38529-6_47 5df43e650ed91f06cc5d43987edfd03e;de;;;6.1.;;;Generische Ergebnisse der GeschäftsmodellentwicklungIn diesem Kapitel werden die generischen Ergebnisse der Geschäftsmodellentwicklung präsentiert. Die Ergebnisse resultierten aus der Durchführung des Konzepts zur Entwicklung verfügbarkeitsorientierter Geschäftsmodelle aus Kap. ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-59643-2_9 7700a7fcbf1e560a236a1324df7505c9;de;;;6.1.;;;Geliebter FeindDie Medien, jeden Tag auf der Jagd nach neuen und spannenden Geschichten und damit immer bemüht, der Politik möglichst dicht auf den Fersen zu bleiben. Die Politiker, jeden Tag hinter den Medien her, um sich selbst möglichst häufig im Fokus der Öffentlichkeit wiederzufinden. Oder wie es Altkanzler Gerhard Schröder einmal formulierte: „Bild, BamS und Glotze“ – das sei alles, was er zum Regieren brauche. Politik findet immer öfter ausschließlich in den Medien statt. „Besonders im Wahlkampf stehen die Parteien und Medienvertreter in einem ständigen Ringen um die medialen Agenden, die die Öffentlichkeit erreichen und somit potentielle Wähler informieren“ (Politika Berlin 2008: 1). Dabei verläuft das Zusammenspiel von Politik und Medien selten ohne Spannungen: Unterschiedliche Zielvorstellungen und Interessen prallen aufeinander. Politiker versuchen die Journalisten für ihre Zwecke zu instrumentalisieren – mit ausgefeilten Strategien, die von bis ins Detail geplanten Werbekampagnen bis hin zu monströsen Wahlkampfveranstaltungen reichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-93261-3_8 deccc1f285b8149166de2aab8b8bcc32;de;;;6.1.;;;Bestandsdatenerfassung und DokumentationInformation ist heute zu einem wichtigen Produktionsfaktor geworden. Die Geschäftsprozesse in einem Unternehmen werden immer komplexer, und die benötigten Informationen, um diese Prozesse zu handhaben, werden immer umfangreicher. Dies gilt zuerst einmal für die Kernprozesse der Unternehmen, Produktion und Logistik. Prozesskettenmangement und Supply Chain Management (siehe z. B. [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18661-5_6 ac0cfc8699b157afcf243d891d4420bf;de;;;6.1.;;;Ein netzwerkanalytisches Vierebenenkonzept zur struktur- und akteursbezogenen Deutung sozialer InteraktionenDer vorliegende Beitrag stellt ein netzwerkanalytisches Vierebenenkonzept zur Diskussion, mittels dessen menschliche Interaktionen in ihrer sozialen Mehrdi-mensionalität erfassbar und deutbar werden. Insbesondere leistet dieses Konzept eine Verknüpfung der interaktionssoziologischen Akteursperspektive mit der strukturellen Perspektive auf die herrschenden Interaktionskonstellationen und übergeordneten Rahmenbedingungen. Beide Perspektiven besitzen ihre Berech-tigung und stehen eher in einem Ergänzungs- als in einem Konkurrenz- oder gar Ausschlussverhältnis.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-90074-2_5 9b48d5f3cae7a93a5aef827435460ec1;de;;;6.1.;;;ProjektaufbauorganisationDie Durchführung von Projekten erfordert eine spezifische Organisationsform. Darunter sind jene Regeln und Normen zu verstehen, die dazu beitragen, die Zusammenarbeit aller am Projekt Beteiligten miteinander sowie mit den übrigen Mitgliedern der Organisation möglichst effizient zu gestalten. Bei der Gestaltung der Projektorganisation kommt es vor allem darauf an, daß die jeweiligen Aufgaben sowie Kompetenz- bzw. Verantwortungsbereiche klar festgelegt werden und die Informationswege einschließlich der Rückkoppelung der Projektarbeit an die übrigen Mitglieder der Organisation transparent sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-99743-2_4 efab4b4382a4b341e13b03aea3b5155b;de;;;6.1.;;;Perspektiven auf die Zukunft der ArbeitIn diesem Abschnitt werden verschiedene Perspektiven auf Arbeit 4.0 dargestellt, um sich dem Thema aus psychologischer, soziologischer und rechtlicher Perspektive anzunähern. Die umfassenden Facetten und zahlreichen Implikationen von Arbeit 4.0 werden auf dieser Basis sehr deutlich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-53885-2_3 fe14dedce648d4cb125df69770a8d54c;de;;;6.1.;;;Big Data und Privatheit – eine prozesssoziologische PerspektiveAus prozesssoziologischer Perspektive tritt hervor, dass sich in der gegenwärtigen Diskussion um Big Data und Privatheit viele Thesen und Erwartungen widerspiegeln, die im Zuge der allmählichen Computerisierung und Informatisierung der Gesellschaft bereits in den Jahrzehnten zuvor immer wieder formuliert worden sind. Darüber hinaus zeigt sich, dass sich die Unterscheidung zwischen ‚privat‘ und ‚öffentlich‘ selbst in vielen Belangen erst im Horizont grundlegender medientechnischer Umbrüche in der Lebenswelt verfestigt hat. Der vorliegende Beitrag beschreibt den Übergang zur Daten- und Informationsgesellschaft insofern nicht als Revolution in kurzer Frist, sondern als graduellen und langfristigen Transformationsprozess, in dem das Verhältnis von Privatheit und Öffentlichkeit beständig neu austariert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-476-04860-8_13 db2812ed7df41116a43399b51162d92c;de;;;6.1.;;;AMI Business Integration in SAP IT-LandschaftenSmart-Meter-Technologie darf nicht isoliert betrachtet werden. Sie stellt eine revolutionäreBasistechnologie in der Energiewirtschaft dar, deren Bedeutung erst durch einekonsequente Integration in die Geschäftsanwendungen von Versorgern und Großverbrauchernsichtbar wird. Die effiziente Integration aus betriebswirtschaftlichenAnwendungen einerseits und der Smart-Meter-Technologie andererseits bietet diePlattform für moderne Anreizsysteme zur Verteilung oder Senkung von Energieverbrauchsspitzenund schafft bedarfsgerechte Transparenz über das eigene Verbrauchsverhaltensowie Kosteneinsparmöglichkeiten. Um einen eigenen Beitrag zum effizienterenUmgang mit Energie zu liefern, hat die SAP AG als einer der führenden Anbietervon betriebswirtschaftlichen Anwendungen weltweit ein flexibles Integrationskonzeptfür Hersteller und Anbieter von Smart-Meter-Technik und Lösungen entwickelt,das hier unter dem Aspekt des Smart-Meter-Massenrollouts näher betrachtet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8348-2440-0_13 78d04ff84563b0ce0239ce449b1b2138;de;;;6.1.;;;Leitlinien und Evidenz-basierte Medizin in Deutschland Auf die Bedeutung von Leitlinien als Instrumentarium der Evidenz-basierten Medizin ist von Bundesärztekammer und Kassenärztliche Bundesvereinigung Ende 1998 in der gemeinsamen Stellungnahme zur Qualitätssicherung hingewiesen worden: So sollen die Prinzipien der Evidenz-basierten Medizin in der Gesundheitsversorgung dadurch Berücksichtigung finden, dass die aktuellen wissenschaftlichen Erkenntnisse an den praktizierenden Arzt künftig systematischer als bisher herangetragen werden, und zwar mittels eines mehrstufigen Vorgehens:;-;-;-;https://link.springer.com/article/10.1007/s003910050161 d425420887520a0a3d75c5e79b4e7608;de;;;2.2.;;;Ein generisches Persistenzmodell für (C)LP-Systeme (und zwei nützliche Implementierungen) Dieses Papier beschreibt ein Modell der Persistenz in (C)LP-Sprachen und zwei verschiedene und praktisch sehr nützliche Wege, dieses Modell in aktuelle Systeme zu implementieren. Die Grundidee ist, dass Persistenz ein Merkmal bestimmter dynamischer Prädikate ist (d. h. solcher, die den Zustand einkapseln). Der Haupteffekt der Deklaration eines Prädikats als persistent besteht darin, dass die dynamischen Änderungen an solchen Prädikaten;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24836-1_8 b5a587a254cf4f14a4562217f6a256a9;de;;;2.2.;;;Modellieren und Strukturieren von Videos mit mehreren Perspektiven zum Durchsuchen In letzter Zeit ist MPV (Multiple Perspektivisches Video) aufgrund der jüngsten Fortschritte in den digitalen Videotechnologien populär geworden. Tatsächlich ist Videoüberwachung derzeit eine große Anwendung von MPV. Bei der Verwendung vieler Videokameras ist das Annotieren von menschlichen Schlüsselwörtern eine mühsame Aufgabe, und automatische Bilderkennungstechniken erfordern hohe Kosten, um zu finden, was im MPV aufgenommen wurde. Daher benötigen wir eine effektive Möglichkeit, Camare-Metadaten zu erfassen und Anmerkungsinformationen zwischen MPV-Daten auszutauschen. In diesem Papier schlagen wir eine Möglichkeit vor, MPV-Daten basierend auf mehreren semantischen Beziehungen für das Browsen und Abrufen zu modellieren und zu strukturieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45581-7_36 395b7b2e18cba957cf04e742c0c7fe09;de;;;2.2.;;;PATRICIA-II. Zweistufige überlagerte Indizes für große Bibliotheken PATRICIA ist ein praktischer Algorithmus zum Abrufen von alphanumerischen Informationen. Der von PATRICIA erstellte Index ist vollständig kernresident. PATRICIA-II erweitert PATRICIA, indem es sowohl einen unteren als auch einen oberen Index erstellt. Der untere Index ist kernresident und der obere Index ist in obere Seiten unterteilt, die auf der Festplatte gespeichert werden. Im Kern befinden sich jeweils nur der untere Index und eine obere Seite. Die oberen Seiten verweisen nur auf sich selbst, nicht aufeinander. Diese Methode ermöglicht die Indizierung einer viel größeren Bibliothek. Neben diesen Neuerungen behält PATRICIA-II alle Features des Vorgängers bei. PATRICIA-II wurde als FORTRAN-Programm auf den CDC 6600 und 7600 implementiert. In Verbindung mit der Entwicklung der Erweiterung werden Theoreme gegeben, die sowohl für PATRICIA als auch für PATRICIA-II grundlegend sind.;-;-;-;https://link.springer.com/article/10.1007/BF00985662 87e34e18f7e28f26bb53171a4ef47a55;de;;;2.2.;;;Teilweise persistente B-Bäume mit konstanter Worst-Case-Aktualisierungszeit Ein teilweise persistenter B-Baum wird mit einer im schlimmsten Fall konstanten Aktualisierungszeit für den Fall präsentiert, dass die Position der Aktualisierung angegeben ist. Dies wird durch die Verwendung der Fat-Node-Methode erreicht, die die Transformation eines ephemeren (a, b)-Baums mit konstanter Aktualisierungszeit in einen teilweise persistenten Baum ermöglicht. Eine solche Struktur kann in persistenten Datenbanken für Anwendungen nützlich sein, bei denen die Aktualisierungszeit kritisch ist. Das Berechnungsmodell ist das externe Speichermodell.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-9794-1_1 4a3d3ec318f4116295a7122f173d4c57;de;;;6.1.;;;Integrationskomponenten als Leveragefaktor eines Data-Warehouse-ProjektesDie Situation der Konsumgüterindustrie, insbesondere im Bereich der Fast-Moving-Consumer-Goods (FMCG), ist herausfordemd: Die Notwendigkeit zur Investition in permanente Produktinnovationen und Kommunikation einerseits sowie der durch den Handel ausgelöste Preiskampf und die damit einhergehende Wertevemichtung andererseits erfordem strategisch fundierte Entscheidungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-56847-3_15 8f1b14f1ec2f4391a6f033911aeba89c;de;;;6.1.;;;Mobile MarketinginstrumenteFür seine Nutzer bietet das Smartphone vielseitige Einsatzmöglichkeiten und einen stetig wachsenden Funktionsumfang. Wer seine Zielgruppe dort ansprechen möchte, wo sie sich aufhält, muss sich einen umfassenden Überblick über alle zur Verfügung stehenden Kanäle verschaffen und die jeweiligen Einsatzmöglichkeiten fürs Marketing evaluieren. Dies ermöglicht es Marketern, das Potenzial einzelner Instrumente fürs eigene Geschäftsmodell abzuschätzen und so einen maßgeschneiderten Marketingmix zu erstellen. Der Prozess beginnt bei der mobilen Optimierung der eigenen Website, führt über die Prüfung von Konzepten für eigene Apps und geht bis hin zur Evaluierung innovativer Technologien wie NFC, Beacon, Chatbots oder Skills für Personal Assistants. Der folgende Abschnitt behandelt die in Abschn. ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-14777-8_3 fbb498eabe5051dbc903a962b5fe6dae;de;;;6.1.;;;Konstruieren als Gruppenarbeit Anforderungen an eine zukünftige SoftwaregestaltungMit dem Modell der selbständigen Gruppenarbeit wird eine Organisationsform vorgestellt, mit der eine menschengerechte Arbeitsgestaltung erreicht werden kann. Gegenüber stark arbeitsteiligen Organisationsformen mit hierarchischen Aufbaustrukturen, zeichnet sich die selbständige Gruppenarbeit durch höhere Flexibilität, gute Koordination und Kooperation, sowie kurze Entscheidungs- und Informationswege aus. Bei der Bearbeitung komplexer Konstruktionsaufgaben kann innerhalb der interdisziplinären Produktionsgruppen die qualifizierte Assistenz (KonstrukteurIn / assistierende Fachkraft) realisiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-01087-6_19 977217322280637799e3382a7d894b25;de;;;6.1.;;;Multimedia in der Medizin — Integration und Kommunikationen heterogener und verteilter medizinischer Daten und Funktionen zu einer elektronischen PatientenakteDie Verwendung von multimedialen Daten hat in der Medizin eine lange Tradition. Die Informationen, die zur Erstellung einer Diagnose oder zum Planen einer Therapie notwendig sind, bestehen meist aus einer Sammlung von unterschiedlichsten Untersuchungen, die bei handschriftlichen Notizen oder Aufzeichungen beginnen, Graphiken (z.B. EKG), Krankenblätter, Befunde, Tonaufzeichnungen umfassen, und bis hin zu hochkomplexen digitalen räumlichen oder zeitlichen Bildsequenzen und daraus abgeleiteten Computervisiualisierungen reichen. Diese zur optimalen Versorgung des Patienten akquirierten Daten sind sehr oft über verschiedene Institutionen verteilt. Damit wird ein darauf notwendiger Zugriff zeitraubend und umständlich. Obwohl die eigentliche Integration und Verarbeitung der multimedialen Informationen durch den Mediziner erfolgt, leistet ein moderner, computerbasierter Arbeitsplatz wertvolle Hilfe, indem die Speicherung, die Integration, das Wiederfinden, das Verarbeiten und Ausdünnen, und die Repräsentation der angeforderten Daten wesentlich unterstützt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-79768-2_9 2b3d02e3d6f1941be2d510b9930b2e20;de;;;2.2.;;;Indizes für den Dokumentenabruf mit Relevanz Der Dokumentenabruf ist eine spezielle Art des Musterabgleichs, die eng mit dem Abrufen von Informationen und der Websuche verbunden ist. Bei diesem Problem bestehen die Daten aus einer Sammlung von Textdokumenten, denen ein Abfragemuster zugewiesen wird;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40273-9_22 932248b35c1c7d65a4c49feac261675e;de;;;2.2.;;;Wissensbasiertes Engineering Die ersten computergestützten Engineering-Systeme waren eigentlich automatisierte Zeichnungssysteme, die zur Erstellung von Konstruktionszeichnungen verwendet wurden. Später automatisierten computergestützte Fertigungssysteme die Generierung von numerischen Steuerungsausgaben für Werkzeugmaschinen. Erhöhte Qualität, kürzere Entwicklungszykluszeiten und niedrigere Kosten sind entscheidend, um die Herstellbarkeit zu gewährleisten und Produkte schneller auf den Markt zu bringen. Diese CAD/CAM-Systeme adressierten nicht den Bereich mit dem größten Potenzial zur Reduzierung von Entwicklungszeit und -kosten – das Design (Potter, 1989).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-6518-1_13 7879bae4467e9d6464a984350b23d154;de;;;2.2.;;;Eine adaptive Indexstruktur für die hochdimensionale Ähnlichkeitssuche Eine praktische Methode zur Erstellung einer hochdimensionalen Indexstruktur, die sich der Datenverteilung anpasst und gut mit der Datenbankgröße skaliert, wird vorgestellt. Typische Mediendeskriptoren sind hochdimensional und nicht gleichmäßig im Merkmalsraum verteilt. Die Leistung vieler existierender Methoden verschlechtert sich, wenn die Daten nicht gleichmäßig verteilt sind. Das vorgeschlagene Verfahren bietet eine effiziente Lösung für dieses Problem. Zuerst wird die Randverteilung der Daten entlang jeder Dimension mit einem Gaußschen Mischungsmodell charakterisiert. Die Parameter dieses Modells werden unter Verwendung der bekannten Methode Expectation-Maximization (EM) geschätzt. Diese Modellparameter können auch sequentiell für die Online-Aktualisierung geschätzt werden. Unter Verwendung der Randverteilungsinformationen kann jede der Datendimensionen so partitioniert werden, dass jeder Behälter ungefähr eine gleiche Anzahl von Objekten enthält. Experimentelle Ergebnisse an einem realen Bildtexturdatensatz werden präsentiert. Vergleiche mit bestehenden Techniken, wie der VA-Datei, zeigen eine signifikante Gesamtverbesserung.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45453-5_10 dd4e0256ca9fa4a1f024f6583475909c;de;;;2.2.;;;Technische Fragen und Entwicklungen in der Methodik In den vorangegangenen Kapiteln lag der Schwerpunkt auf der Darstellung der Ergebnisse der Co-Word-Analyse und der Interpretation der auf diese Weise untersuchten wissenschaftlichen und technologischen Gebiete. Die Methode selbst wurde in Kapitel 7 skizziert und begründet, aber es gibt eine Reihe von technischen Problemen, die eine detailliertere Behandlung verdienen, und sei es nur, um die Neugier des Lesers zu befriedigen. Darüber hinaus erlaubt uns die Diskussion dieser Fragen, auf einige Weiterentwicklungen in der Methodik hinzuweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-07408-2_11 f441f6e8a0b23336ecb2dfbb2153ed6b;de;;;6.1.;;;Mehr Transparenz – höheres Risiko: Sicherheit für Unternehmen im WebOb Datenlecks bei eBay, kompromittierte Kassensysteme im Einzelhandel oder umfassender Datendiebstahl im Rahmen von Online-Banking – Cyber-Kriminelle nutzen die zahllosen Möglichkeiten des Internets professionell für folgenreiche Attacken. Diese erschüttern das Vertrauen in die Datensicherheit im Internet. Verbraucher wie Unternehmen sind dadurch verunsichert, inwieweit sie die Vorzüge des (mobilen) Internets nutzen können. Denn mit ihren vielfältigen und immer aufwändigeren Angriffsmethoden sind die Angreifer den Unternehmen in der Regel einen Schritt voraus. Unternehmen, die im (mobilen) Web agieren, sind deshalb gefordert, Abwehrmechanismen etablieren, die sie selbst, ihr geistiges Eigentum und ihre Kunden besser schützen. Das Defense-in-Depth-Modell bietet dafür einen Ansatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-43782-7_71 d523244db7e7c90f9a1e69072b9960a2;de;;;6.1.;;;Semantic Web und semantische Technologien: Zentrale Begriffe und UnterscheidungenNaturgemäß zieht jede interdisziplinäre Auseinandersetzung, wie hier zum Thema Semantic Web, Ungereimtheiten auf begrifflicher Ebene nach sich. „Wenn die Begriffe nicht klar sind, breitet sich Unordnung aus“ weiß man spätestens seit Konfuzius. Dieses Kapitel soll daher jene zentralen Begriffe der Semantic Web-Entwicklung einführen und weitgehend definieren, die dann in den einzelnen Kapiteln jeweils in unterschiedliche Kontexte gesetzt werden. Anhand des „A-O-I-Modells des Semantic Web“ werden schließlich jene drei Betrachtungsweisen zueinander in Beziehung gesetzt, denen in der derzeitigen Entwicklungsstufe des Semantic Web die jeweils höchste Aufmerksamkeit geschenkt wird: Anwenderkontext, Organisations-Kontext und (technische) Infrastruktur. Es eignet sich als Orientierungshilfe, um die unterschiedlichen Zielsetzungen in der Auseinandersetzung mit semantischen Technologien und dem Semantic Web zu einem „Big Picture“ verschmelzen zu lassen, und um damit etwaige Missverständnisse, die immer dann entstehen, wenn unterschiedliche Standpunkte eingenommen werden, zu vermeiden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-29325-6_2 95d8da21a754a7c9cac92a1148a1a2f1;de;;;6.1.;;;Angewandte Politikforschung – Konzeption und ForschungstraditionPolitische Akteure sind in ihrem täglichen Handeln und Entscheiden auf kompetente Beratung angewiesen. Es verwundert daher, dass die offensichtliche Verknüpfung von Politik, Wissenschaft und Politikberatung von der Politikwissenschaft in Deutschland lange Zeit wenig zur Kenntnis genommen wurde. Während in den USA der Politikberatung schon immer ein hoher Stellenwert im wissenschaftlichen Diskurs beigemessen wird und als Beratungskultur auch Teil öffentlicher Debatten ist, steckt diese Diskussion in Deutschland noch in den Anfängen. In den 1990er Jahren – auch durch die Regierungszeit des Bundeskanzlers Gerhard Schröder – verstärkte sich jedoch in der öffentlichen Wahrnehmung der Eindruck eines neuen Politikstils mit einem wachsenden Einfluss politischer Berater und Ideengeber von außen: „Die Berater sind los!“ titelte ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-19672-5_1 60ab75645ff659a9fe5282fccbb343a7;de;;;6.1.;;; — Die Produktgestaltung bei DienstleistungenGerade das Thema “Evaluierung von Dienstleistungsqualität” hat seit den frühen 80’er Jahren Akzente in der Dienstleistungsmarketingforschung gesetzt. Nach den frühen Arbeiten von Shostack;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-81375-6_7 e13dea409c82fb74940ccac9dd9edacf;de;;;6.1.;;;E-Business-SystemeUnternehmen arbeiten nicht in einem luftleeren Raum. Es gibt vor- und nachgelagerte Prozesse, die eine Zusammenarbeit mit anderen Unternehmen erforderlich machen. Die Optimierung von Geschäftsprozessen sollte daher auch nicht an den Unternehmensgrenzen halt machen. Durch die Nutzung des Internets können Unternehmen mit anderen Unternehmen vernetzt arbeiten und die Schnittstellen eines Unternehmens mit der Außenwelt möglichst reibungslos gestalten. Wer in der Lage ist, mit Lieferanten und Kunden effektiv zusammenzuarbeiten, hat eindeutig einen Wettbewerbsvorteil. Mit E-Business können Geschäftsprozesse schneller durchlaufen und Entscheidungen auf transparenteren Informationen getroffen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-6856-2_8 36751844df7acc5516cd8fbad9c66b7e;de;;;6.1.;;;Die Regierung der HIV-InfektionAusgangspunkt der vorliegenden Arbeit war die Frage, wie sich HIV-positive Frauen unter den Bedingungen einer Infektion konstituieren, die im gesellschaftlichen Kontext Diskreditierungen und Stigmatisierungen hervorruft. Um die Selbstkonstituierung im gesellschaftspolitischen Kontext zu analysieren, nutzte ich das Konzept der Gouvernementalität. Dieses Instrumentarium ermöglicht es, den Zusammenhang zwischen Mikro- und Makropraktiken in den Blick zu nehmen und damit zu zeigen, in welcher Form und mit welchen Effekten Machtausübung in den als problematisch erachteten Feldern erfolgt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-92130-3_8 2d3facfea9a16c3896d0220256d18fc0;de;;;6.1.;;;Managementimplikationen in Form eines Leitfadens für ein Kennzahlensystem für DMOsAus den bisherigen Erkenntnissen dieser Arbeit ergeben sich einige Besonderheiten von DMOs, die sich in speziellen Anforderungen für ein Kennzahlensystem niederschlagen. Diese Besonderheiten sollen bei der Entwicklung des Leitfadens zur Erstellung eines Kennzahlensystems für DMOs berücksichtigt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-5476-9_7 cdaf0f60f32fac1545f7d6faff27bc1f;de;;;6.1.;;;Wie viel Partei steckt in Regierungskommunikation? Zur Ausgestaltung des Kommunikationsmanagements der BundesregierungIm Zentrum steht die Frage, inwiefern parteipolitische Orientierungen das Kommunikationsmanagement der Bundesregierung beeinflussen und dahingehend Auswirkungen auf deren operative Koordinierung festzustellen sind. Grundlegend steht dem Vorhaben die Annahme einer Beschränkung der Regierungskommunikation durch das Parteiensystem zugrunde. Um diesen Komplex zu erläutern, werden drei wesentliche Strukturprinzipien genauer in den Blick genommen: 1) Das strategische Ziel der Regierungsführung (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-05309-3_9 62cf258e3526927d037b24e96ffa4d14;de;;;6.1.;;;Web Warehousing: Nutzung von Synergieeffekten zweier bewährter KonzepteUm die Potentiale eines Data Warehouses voll ausschöpfen zu können, müssen die entsprechenden Daten aktiv in das Unternehmen getragen werden, um möglichst vielen Anwendern zur Verfügung zu stehen. Dieses kann durch eine sinnvolle Nutzung der Internet-Technologie im Rahmen einer Integration in das Data Warehouse-Konzept erreicht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-05710-0_9 54d15173ffa878c576195520763fb3c6;de;;;6.1.;;;Die Regierungserklärung: Visitenkarte und Führungsinstrument der Kanzler„Das Wort hat der Herr Bundeskanzler“— Mit diesem Satz erteilt der Bundestagspräsident im Plenum des Deutschen Bundestages dem Bundeskanzler das Wort, der daraufhin seine Regierungserklärung abgibt. An dieser standardisierten Formulierung hat sich seit der ersten Regierungserklärung von Bundeskanzler Konrad Adenauer nichts verändert. Der Redner kann sich nach dieser Einführung der vollen Aufmerksamkeit der Abgeordneten sicher sein. Regierungserklärungen gehören zum Alltag einer parlamentarischen Demokratie. Sie sind Ausdruck des wechselseitigen Vertrauens zwischen dem Parlament und der Regierung. Im Grundgesetz der Bundesrepublik Deutschland sucht man vergeblich nach einem Artikel, der die Abgabe von Regierungserklärungen ausdrücklich regelt. Nach Interpretation des Artikels 43 Absatz 1 des Grundgesetzes kann die Regierung Jederzeit“vor dem Deutschen Bundestag eine Erklärung abgeben. Mitglieder der Bundesregierung müssen auf Antrag dem Bundestag bzw. seinen Ausschüssen Rede und Antwort stehen. In der parlamentarischen Praxis ist es üblich geworden, dass der Bundeskanzler nach vorheriger Abstimmung mit dem Koalitionspartner eine Regierungserklärung im Ältestenrat ankündigt (Ismayr 2000: 352–354). Zwischen acht (in der dritten Wahlperiode) und 49 (in der 10. Wahlperiode) Regierungserklärungen wurden bisher von den Bundeskanzlern bzw. den Bundesministern abgegeben. In der letzten, der 13.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-90251-1_1 e3f4b20e7da1a09cb901d35250a76b6a;de;;;6.1.;;;Nutzungspraktiken im Social Web – Impulse für die medienpädagogische DiskussionIn den vergangenen Jahren haben sich die Nutzungsmöglichkeiten und -praktiken im Internet deutlich verändert. Angestoßen wurde diese Entwicklung vor allem durch die fortschreitende Diffusion von leistungsfähigen Breitbandanschlüssen und innovativern Software-Anwendungen. Als Sammelbegriff für diese Veränderungen hat sich die Bezeichnung ‘Web 2.0’ eingebürgert und Eingang in die öffentliche Diskussion gefunden (vgl. bspw. Spiegel 2007). Allerdings besteht bisweilen Unsicherheit darüber, was eigentlich das Neue am Web 2.0 ist und ob – nicht zuletzt auch aus medienpädagogischer Perspektive – gesellschaftlicher Handlungsbedarf besteht, um auf die Veränderungen zu reagieren. Im Vergleich zu anderen Themen (wie zuletzt beispielsweise bei der Debatte über Computerspiele) ist im Zusammenhang mit Web 2.0 zu beobachten, dass die öffentliche Berichterstattung uneins scheint, ob das Gefahren- oder das Partizipationspotenzial schwerer wiegt und wie die Entwicklung im Netz insgesamt zu bewerten ist. Die hohe soziotechnische Dynamik erschwert den Überblick über das Angebotsspektrum und führt dazu, dass trotz eines scheinbar souveränen Umgangs von Heranwachsenden mit den neuen Möglichkeiten bislang noch vergleichsweise wenig diskutiert wird, welche Herausforderungen das Web 2.0 an Kinder und Jugendliche und damit auch an die Medienpädagogik stellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-92135-8_14 65f19e0f8ac3ad9b1f8a405c4c246a36;de;;;6.1.;;;Innovative Geschäftsmodelle mit Web 2.0Für die erfolgreiche Anwendung sozialer Netzwerke und ihrer Tools gibt es vor allem in den USA bereits eine große Zahl von Beispielen. Aber auch deutsche Unternehmen bemühen sich um innovative Ansätze. Im Folgenden werden viel versprechende deutsche Geschäftsmodelle vorgestellt:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-9522-3_8 82f824a7c9c94bce051bf1c780631a48;de;;;6.1.;;;Terminologiearbeit: im öffentlichen Dienst – im Dienste der ÖffentlichkeitAls Ende der 1980er-Jahre die bernische Kantonsverwaltung ihre terminologischen Aktivitäten auf nahm, konnten lediglich die Übersetzerinnen und Übersetzer davon profitieren, denn die Terminologiedatenbank war nur ihnen zugänglich. Mit der Öffnung der Terminologiedatenbank 1999 für die gesamte Kantonsverwaltung und seit 2009 für die breite Öffentlichkeit wurde Terminologie auch zum Werkzeug des Öffentlichkeitsprinzips und der politischen Meinungsbildung. Der Aufsatz umreißt die Geschichte der Terminologiearbeit in der bernischen Kantonsverwaltung und beschreibt einige der damit verbundenen Aufgaben und Tätigkeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-58949-6_10 6b2355d08b62c5ea677f1a00b77356ae;de;;;6.1.;;;E-Leadership: Führung und Leistungssteigerung in digitalen KontextenWie geht Führung im Zeitalter digitaler Transformation? Digitale Medien verändern nicht nur die Art des Zusammenarbeitens und Führens und damit den Leistungserstellungsprozess selbst, sondern auch direkt das Performance Management. Dies zeigt besonders plastisch das hoch aktuelle Thema „Big Data“: Durch digitale Tools, IT-Lösungen, Datenbanken und Algorithmen lassen sich beträchtliche Datenmengen erfassen, auswerten und bewerten und damit wiederum Rückschlüsse für die Optimierung von Leistungsprozessen ziehen. Der Autor diskutiert das Phänomen E-Leadership aus Perspektive verschiedener Beeinflussungspotenziale der Führung und geht der Frage nach, welche Möglichkeiten und Grenzen sich für E-Leadership im Rahmen der Leistungssteigerung in digitalen Kontexten ergeben. Abschließend findet sich eine Checkliste mit Empfehlungen, deren Berücksichtigung dazu beitragen kann, E-Leadership in der Praxis zu etablieren und zu optimieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-47102-9_8 17b065d56471cb117fd4cde3ea514f0e;de;;;6.1.;;;Workflow-Management im Handelsbereich einer Bank - Eine FallstudieIm Unternehmen werden zunehmend Funktionalitäten weg von den eigentlichen Anwendungssystemen hin zu anwendungsneutralen Steuerungssystemen verlagert. Dadurch soll die Anzahl der Schnittstellen zum Anwender reduziert und damit die Effizienz gesteigert werden. Gleichzeitig wird das Ziel verfolgt, mit Hilfe einer ganzheitlichen Vorgangsbearbeitung die Ausrichtung der Unternehmen an markt-und kundenorientierten Geschäftsprozessen zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-56991-3_8 9af4da9c55ba67d3f9b29ae983fb66b9;de;;;6.1.;;;Online-ServiceIm Wandel eines auf die Abwicklung von Transaktionen ausgerichteten Massenmarketing hin zu einem stärker beziehungsorientierten Individualmarketing ist der Service ein wichtiger Erfolgsfaktor für die marktorientierte Unternehmensführung geworden (vgl. u.a. ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-93133-7_19 e0200e93f4cdd8617f7ac0e39fbf539c;de;;;6.1.;;;Zusammenfassung und Implikationen der UntersuchungDas Primärziel der vorliegenden Arbeit lag in der theoretischen Konzeptionalisierung strategischer Flexibilität. Ferner sollten die Wirkungen strategischer Flexibilität auf den Marktwert von Unternehmen theoretisch hergeleitet und empirisch nachgewiesen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-81984-0_6 bad485abfb6aea9cc9dce1d73d50bf00;de;;;2.2.;;;Die Verwendung digitaler Bilder verbessert die Reproduzierbarkeit des Ki-67-Markierungsindex als Proliferationsmarker bei Brustkrebs Der Anteil der Ki-67-immungefärbten Zellen (Ki-67-Labeling-Index, LI) ist eine der am häufigsten verwendeten histologischen Methoden zur Abschätzung der Proliferation von Mammakarzinomen. Obwohl der Ki-67 LI bei der Entscheidungsfindung bei der Behandlung verwendet wird, zeigt seine Reproduzierbarkeit in verschiedenen Studien Variationen und ist im Allgemeinen nicht optimal. Ziel der vorliegenden Studie war es zu untersuchen, wie sich der Einsatz eines standardisierten, teildigitalisierten Zählverfahrens auf die Reproduzierbarkeit der Bestimmung des Ki-67 LI auswirken könnte. Dreißig Brustkrebs-Stanzbiopsieproben wurden mit den monoklonalen Ki-67-Antikörpern B-56, SP-6 und MIB-1 gefärbt. Jede Probe wurde durch ein einzelnes digitales Foto repräsentiert, das mit einem x20-Objektiv aufgenommen wurde. Vier Forscher bestimmten den Ki-67 LI auf diesen digitalen Bildern durch Schätzung, dann durch Zählen mit Hilfe eines Gitters, das denselben Bildern überlagert war. Insgesamt wurden 720 Auswertungen von 4 unabhängigen Pathologen vorgenommen. Es wurde eine gute bis ausgezeichnete Korrelation zwischen Schätzungen und Berechnungen jedes Beobachters gefunden. Kappa-Werte >0,6 deuten auf eine erhebliche Übereinstimmung zwischen den Beobachtern hin, wenn die Fälle in eine 15 % und 30 % Cut-off-bestimmte dreistufige oder eine 4-viertel-basierte vierstufige Kategorisierung eingeteilt werden, was besser ist als die faire Reproduzierbarkeit, die auf der echte Folien in einer früheren Studie. Die Ergebnisse deuten auch darauf hin, dass die Art des Antikörpers auch die Konsistenz sowohl der Schätzung als auch der Berechnung der Ki-67 LIs beeinflussen kann. Die Ergebnisse zeigen, dass das Zählen auf digitalen Bildern die Reproduzierbarkeit der Bestimmung des KI-67 LI signifikant verbessern kann. Interessanterweise ist die Schätzung auf denselben Bildern nicht schlechter, aber offensichtlich schneller und bequemer.;-;-;-;https://link.springer.com/article/10.1007/s12253-013-9708-z 0252d4495720ca6b784a29755f93aff2;de;;;2.2.;;;Intratumorale Heterogenität des MIB-1-Markierungsindex bei Magen-Darm-Stromatumoren (GIST) Der MIB-1-Markierungsindex (LI) wird als prognostischer Indikator für gastrointestinale Stromatumoren (GISTs) verwendet. Ob ein biopsiebasierter LI den gesamten Tumor repräsentiert, ist jedoch ungewiss, da der LI nicht immer homogen ist. In dieser Studie untersuchten wir das Ausmaß und die Merkmale der LI-Heterogenität bei Magen-GISTs.;-;-;-;https://link.springer.com/article/10.1007/s10120-006-0386-3 5691973eb2d63efa94c8550077bcbb7a;de;;;2.2.;;;Pegasus: Zuordnung umfangreicher Arbeitsabläufe zu verteilten Ressourcen Viele wissenschaftliche Fortschritte werden heute aus der Analyse großer Datenmengen abgeleitet. Die Berechnungen selbst können sehr komplex sein und erhebliche Ressourcen verbrauchen. Wissenschaftliche Bemühungen werden auch nicht von einzelnen Wissenschaftlern durchgeführt, sondern beruhen auf Kooperationen, die viele Forscher verschiedener Organisationen umfassen. Die Analyse setzt sich oft aus mehreren einzelnen Anwendungskomponenten zusammen, die von unterschiedlichen Wissenschaftlern entworfen wurden. Zur Beschreibung der gewünschten Analyse werden die Komponenten in einem Workflow zusammengestellt, die Abhängigkeiten zwischen ihnen definiert und die für die Analyse benötigten Daten identifiziert. Um den Umfang der Anwendungen zu unterstützen, werden viele Ressourcen benötigt, um eine angemessene Leistung bereitzustellen. Diese Ressourcen werden häufig aus einem heterogenen Pool geografisch verteilter Rechen- und Datenressourcen bezogen. Das Ausführen großer, kollaborativer Anwendungen in solchen Umgebungen birgt viele Herausforderungen. Dazu gehören das systematische Management der Anwendungen, ihrer Komponenten und der Daten sowie die erfolgreiche und effiziente Ausführung auf den verteilten Ressourcen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84628-757-2_23 d5e3dd459979bd6d7288e625fb57faaf;de;;;6.1.;;;Wie funktioniert Radiomics?Die reproduzierbare und umfassende Extraktion von Informationen aus radiologischen Bildern ist eine Kernaufgabe der Radiologie. Dynamische Entwicklungen im Bereich der künstlichen Intelligenz (KI) und des maschinellen Lernens stellen hierzu Methoden bereit. Radiomics ist eine solche Methode und bietet neue Möglichkeiten und Herausforderungen für die Zukunft der Radiologie.;-;-;-;https://link.springer.com/article/10.1007/s00117-019-00617-w 2d4f68c749e247a9cb1a02130224e22f;de;;;6.1.;;;HRS-Expertenkonsensus (2017) Sondenmanagement und -extraktion von kardialen elektronischen Implantaten sowie EHRA-Expertenkonsensus (2018) zur wissenschaftlichen Aufarbeitung von SondenextraktionenIn den vergangenen Jahren wurden zwei wesentliche internationale Experten-Empfehlungen zum Sondenmanagement kardialer implantierbarer elektronischer Devices (CIED) überarbeitet.;-;-;-;https://link.springer.com/article/10.1007/s00398-021-00421-6 47ebf7c2fa887f043575c57cafeedec2;de;;;6.1.;;;Problematische Managementkonzepte und prekäre ArbeitsverhältnisseIn den neunziger Jahren des letzten Jahrhunderts wurden die Unternehmen mit einer Reihe von „neuen“ Managementkonzepten wie Lean Production bzw. Lean Management, Business Process Reengineering, Downsizing oder Outsourcing konfrontiert (Brödner, 2001, Ulich, 2011). Der rasche Wechsel der Etiketten, gekoppelt mit anscheinend ungebremster Vermarktungsintention und die meist unzureichende historische und konzeptionelle Verortung haben es vielen Unternehmen erschwert zu durchschauen, was an diesen Wellen systematischer gedanklicher Prüfung stand hält.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-18435-3_6 ae76d343e47a86488ffbbff16c2a01a7;de;;;2.2.;;;Die Geometrie der Unsicherheit in Datenbanken für bewegte Objekte Diese Arbeit befasst sich mit dem Problem der Abfrage von Datenbanken mit bewegten Objekten. die die inhärente Unsicherheit erfassen, die mit der Position von sich bewegenden Punktobjekten verbunden ist. Wir adressieren das Problem der Modellierung, Konstruktion und Abfrage einer Trajektoriendatenbank. Wir schlagen vor, eine Trajektorie als zylindrischen 3D-Körper zu modellieren. Das Modell berücksichtigt Unsicherheit in einer Weise, die eine effiziente Abfrage ermöglicht. Somit schafft unser Modell ein Gleichgewicht zwischen Modellierungsleistung und Recheneffizienz. Um die Effizienz zu demonstrieren, berichten wir über experimentelle Ergebnisse, die die Länge einer Trajektorie mit ihrer Größe in Bytes in Beziehung setzen. Die Experimente wurden mit einer realen Karte der Metropolregion Chicago durchgeführt. Wir führen eine Reihe neuartiger, aber natürlicher raumzeitlicher Operatoren ein, die Unsicherheit erfassen und verwendet werden, um raumzeitliche Bereichsabfragen auszudrücken. Wir entwickeln und analysieren auch Algorithmen zur Verarbeitung der Operatoren. Die Operatoren wurden im Rahmen unseres DOMINO-Projekts implementiert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45876-X_16 3e87a16ac3a943757cff9e4859a4cc19;de;;;6.1.;;;Wege zum Manager der Supply ChainDie Konzentration auf Kernkompetenzen und der nachhaltige Trend zum Outsourcing führen zu einer verstärkten Fragmentierung der Wertschöpfungskette. Die Steuerung dieser Fragmente über eine Vielzahl von Unternehmen und Unternehmensteilen bedarf insbesondere der Nutzung adäquater Informations- und Kommunikationssysteme. Das komplexeste und gleichzeitig aktuellste Aufgabenfeld in der Logistik ist damit die Steuerung unternehmensübergreifender Versorgungs- und Distributionsnetzwerke. Die Supply-Chain-Steuerung umfasst demnach alle übergreifenden Maßnahmen, die eine Ergebnisverbesserung über Unternehmensgrenzen hinweg zum Ziel haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-10148-3_15 21c91484e4d1743bac941e0f424b3865;de;;;6.1.;;;Datenmanagement für stoffstromorientierte betriebliche Umweltinformationssysteme (BUIS)Die Aufgabe eines betrieblichen Stoffstrommanagements liegt im Erkenntnisgewinn über betriebliche Stoffströme, um vor allem unerwünschte Stoffströme zu beherrschen. Das Ziel sind ökologisch und ökonomisch effizient arbeitende Stoffsysteme, welche sich durch reduzierten Materialdurchsatz und geringen Einsatz ökologisch bedenklicher Stoffe auszeichnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-6844-9_13 829a4a575284a5dda59bf9f8f3f29740;de;;;6.1.;;;Die EU als Akteur in der internationalen Gemeinschaft – Variationen und Perspektiven des Bosnien und Herzegowina befindet sich massenpsychologisch nach Volkan (1999a) nach wie vor in einem „gewählten Trauma“: dem sozial breit geteilten (Selbst-)Bild einer ethnischen Großgruppe der Hilflosigkeit und der Viktimisierung (des Gedrängtwerdens in eine „Opferrolle“, lat. victima: das Opfer). Während der Zustand der Traumatisierung von keiner Großgruppe bewusst angestrebt werde, könne solch eine Gruppe ‚ihr‘ Trauma jedoch sehr wohl bewusst „psychologisieren“ und „mythologisieren“ sowie das Bezugsereignis zusammen mit seinen affektiven Komponenten und den kollektiven Abwehrmechanismen gegen durch die ausgelösten Schamgefühle von Generation zu Generation weitergeben. Dieser Prozess institutionalisiert sich dadurch, dass das „gewählte Trauma“ zum Teil der Gruppenidentität wird und die Gruppengrenzen festlegt (Volkan 1999b, Volkan o.J.).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-19951-1_11 ed8bd8f3a5239bb40a9a09a8ce2a9cd3;de;;;2.2.;;;Farborientierter inhaltsbasierter Bildabruf Das Ziel dieser Arbeit ist es, eine Metrik zu untersuchen, die den Wahrnehmungsraum der Farben repräsentiert. Außerdem wollen wir innovative Methoden und Werkzeuge zum Kommentieren und Suchen von Bildern bereitstellen. Die experimentellen Ergebnisse haben gezeigt, dass sich die Probanden bei Aufgaben der Ähnlichkeitsbewertung nicht auf die allgemeinste Kategorie von „Farbe“ beziehen, sondern untergeordnete Kategorien in der Basis einer bestimmten Farbe bilden. Diese Kategorien enthalten alle Variationen dieser Farbe und bilden außerdem Schnittmengen zwischen Kategorien, in denen alle Variationen geteilt werden. Die Wahrnehmung der Variationen ist nicht isometrisch, im Gegenteil, die Wahrnehmung wird unterschiedlich gewichtet, wenn die Variationen zu einer bestimmten Farbe gehören. Die Variationen, die zum Schnittbereich gehören, haben also unterschiedliche Ähnlichkeitswerte in Bezug auf die eigene Kategorie. Mit diesen Metriken haben wir ein System zur farborientierten, inhaltsbasierten Bildsuche entwickelt. Dieses System analysiert das Bild anhand von Farbmerkmalen, die der eigenen Wahrnehmung des Menschen entsprechen. Dieser Ansatz stellt nicht nur eine hohe Zufriedenheit des Benutzers sicher, sondern stellt auch ein Novum in der Entwicklung der CBIR-Systeme dar. Tatsächlich wurde ein Kriterium zur Indexierung der Zahlen eingeführt, das sehr synthetisch und schnell ist.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-28898-8_45 84bca8dcaeb71481192f7c3b67adfabd;de;;;6.1.;;;Dialogmarketing mit Big-DataAuf Unternehmensseite ist das Interesse an dem Thema Big Data zwar groß, doch wissen die meisten Unternehmen nicht, wie und wofür sie es konkret einsetzen könnten. Als eine der Hürden am Markt gilt der Mangel an Anwendungsbeispielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-28959-1_11 ff99350ca7f07381670e845eea17640c;de;;;6.1.;;;Empirische Auswertung II: Zwischen Kollegialität und HierarchieIm fünften Kapitel wurde das KIT als Idee und Organisation erläutert. Die KITVorgängerorganisationen, so das Ergebnis, stehen für zwei diamtrale Formen der Selbststeuerung: Zentralität und Dezentralität. Im Folgenden werden nun die Wirkungen der KIT-Fusion auf die Zentralverwaltung einerseits sowie auf die Beziehungen zwischen der Zentralverwaltung und den Professionellen andererseits erörtert. Der ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-11964-5_6 a88977dff210aa8840e9608563f6d7f3;de;;;6.1.;;;Borderless Business — Führungsinformations- Management im globalen KonzernFür ein global operierendes Unternehmen wie Sony ist der europäische Binnenmarkt ein entscheidender Faktor. Die Konzernstrategie berücksichtigt die europäische Wirtschaftszone als Managementaufgabe, die bis Ende 1992 entsprechende Konzentration und Aufmerksamkeit erfordert hat. Sony ist ein in viele Geschäftsbereiche und Länder gegliederter Konzern mit technologischem Führungsanspruch. Das Unternehmen hat seit Jahren daran gearbeitet, sich weltweit auszurichten und in seiner geschäftlichen Tätigkeit heute noch bestehende Grenzen zu überwinden. 1992 realisiert der Konzern weltweit mit 570 Gesellschaften und 120.000 Mitarbeitern 60 Milliarden DM Umsatz. Instrumente der Unternehmensführung und insbesondere das dazugehörende Informationsmanagement sind die Voraussetzung für den Geschäftserfolg sowohl in globaler Hinsicht als auch im Europa ohne Grenzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08112-8_16 db1ae1dce1d29ffa482e4ec2849d4ba7;de;;;6.1.;;;Ontologiebasierte Informationsextraktion im eTourismusInformationsextraktion (IE) aus touristischen Websites stellt für zahlreiche touristische Anwendungen eine Alternative zur manuellen Datenerfassung dar. Touristische Websites weisen dabei spezifische Herausforderungen an die Webinformationsextraktion auf, z.B. natürlichsprachige Beschreibungen touristischer Angebote, heterogene Struktur der Webseiten oder komplexe Preisstrukturen. Aktuelle Systeme realisieren dabei ontologiebasierte Informationsextraktion (OBIE) und verwenden eine (existente) touristische Domänenontologie als Wissensbasis. Die Diskussion und Evaluierung des im Beitrag vorgestellten Systems TourIE zeigen, dass ontologiebasierte Informationsextraktion im eTourismus vielversprechend ist, diese jedoch nur eine semiautomatische Maβnahme sein kann.;-;-;-;https://link.springer.com/article/10.1007/BF03340420 e0c0bdb264274f3bb8637316a23c50e2;de;;;6.1.;;;Transparenz über den Innovationsprozess mithilfe der WertstromanalyseUnternehmen sind stets bestrebt, neuartige Produkte und Services am Markt anbieten zu können, da Innovationen als wesentliches Element unternehmerischen Wachstums gelten. Aufgrund des steigenden Wettbewerbs sind Unternehmen mehr denn je mit der Herausforderung konfrontiert, den Prozess von der Ideenfindung bis hin zur Markteinführung möglichst schnell und mit knappen Ressourceneinsatz bei gleichzeitig möglichst hoher Erfolgswahrscheinlichkeit zu durchlaufen. Dies setzt ein ganzheitliches Innovationsmanagement, beginnend mit den frühen Phasen der Ideengenerierung, ‐bewertung und ‐auswahl, bis hin zur Weiterentwicklung der Ideen zu marktfähigen Produkten und Services voraus. Während andere Geschäftsprozesse in Unternehmen, insbesondere Produktionsprozesse, mithilfe einer Vielzahl von Kenngrößen gesteuert und hinsichtlich ihres Wertbeitrages bewertet werden, findet dies bei Innovationsprozessen in der Regel unzureichend statt. Begründet wird dies meist mit den unterschiedlichen Charakteristika der Prozesse: Während Produktionsprozesse kontinuierlich und damit gut vorhersehbar sind und sich innerhalb einer Produktfamilie stets auf gleiche oder sehr ähnliche Weise wiederholen, ist der Innovationsprozess in der Regel mit hoher Unsicherheit belastet und vielmehr ein Prozess des kreativen Schaffens – besonders in seinen frühen Phasen. Ziel dieses Beitrages ist es, die Übertragung der im Produktionsmanagement gängigen Methode der Wertstromanalyse auf den Innovationsprozess zu diskutieren. Ein besonderer Schwerpunkt liegt hierbei in der Betrachtung der frühen Phasen des Innovationsmanagements.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-09722-6_9 63390e0f426755ba4d6f9e292dafcbba;de;;;6.1.;;;Ungenutzte Potenziale in der IT-LeistungsverrechnungLeistungserstellungsprozesse, insbesondere IT-Leistungsverrechnungsprozesse, die Transparenz, Nachvollziehbarkeit und Beeinflussbarkeit seitens der Fachabteilung ermöglichen, sind in deutschen Unternehmen noch lange nicht flächendeckend umgesetzt, wie die Ergebnisse einer empirischen Studie der TU München zeigen. Dies war Anlass, im Rahmen eines Arbeitskreises gemeinsam mit einem Pilotunternehmen ein Konzept für eine effiziente Leistungsverrechnung zu entwickeln. Zwei Jahre nach der Implementierung zeigt sich eine überwiegend positive Bilanz. Als zentraler Erfolgsfaktor hat sich dabei herauskristallisiert, ob das Unternehmen fähig ist, den optimalen Grad zwischen Detaillierung und Transparenz einerseits und entsprechendem Aufwand andererseits zu finden und zu implementieren.;-;-;-;https://link.springer.com/article/10.1007/BF03341161 1900c29c0d7a0bd315feadcfe10e294b;de;;;6.1.;;;Grundwissen zur Entwicklung mechanischer SystemeDie effiziente Anwendung von Verfahren der Strukturoptimierung erfordert die Kenntnis des eigenen Handlungsrahmens im Produktentwicklungsprozess. Um diesen abzuschätzen, sind Grundkenntnisse der Konstruktionsprinzipen, der Verfahren der Strukturanalyse und des Produktentwicklungsprozesses selbst notwendig. Werden die Rahmenbedingungen nicht berücksichtigt, lässt sich ein Optimierungsergebnis nicht in ein Produkt umsetzen. Dieses Kapitel umreißt das notwendige Basiswissen zur Abschätzung des eigenen Handlungsrahmens.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-60328-4_2 e4d5258c118b5195541a4baf13f7889e;de;;;6.1.;;;Transparenz und Digitalisierung in nachhaltigen WertschöpfungskettenGlobale Wertschöpfungsketten rücken spätestens seit dem verheerenden Unfall von Rhana Plaza oder den Debatten um menschenrechtliche Verfehlungen von Unternehmen beispielsweise in der Textil- oder Bergbau- und Mineralbranche in den Fokus der gesellschaftlichen Debatte. Mit der wachsenden globalen Verflechtung von Unternehmen, wächst auch deren Verantwortungsraum für die ökologischen, sozialen wie menschenrechtlichen Auswirkungen, die in Verbindung mit ihren Tätigkeiten stehen. Transparenz, Nachvollziehbarkeit und die Einhaltung von Normen sind Forderungen, die Investoren, Verbraucher, Aufsichtsbehörden sowie Umwelt- und Menschenrechtsgruppen in Form von unternehmerischen Sorgfaltspflichten an Unternehmen im Zusammenhang mit der Einhaltung von Nachhaltigkeitskriterien verlangen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-61836-3_22 8ec658bca1db86f4c74960eb144162c5;de;;;6.1.;;;LegacyarchitekturenDie meisten Unternehmen haben große Softwaresysteme schon lange im Einsatz und bezeichnen diese „Altsysteme“ als Legacysysteme. Was jedoch ist ein Legacysystem genau, oder was charakterisiert es?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01659-2_7 9499a2858a6da66045d43c4562e7ea0c;de;;;6.1.;;;TourenplanungBei der menschlichen Planung von Touren taucht ab einer gewissen Komplexität das Problem der Optimierung dieser Touren auf, da zu viele Parameter bei der Planung berücksichtig werden müssen. Demzufolge ist eine automatische Berechnung der Touren nötig, um Kosten und Mehrkilometer zu reduzieren. Das Problem der optimalen Planung von Touren lösen wir mit der Software jsprit. Im Kontext von ExCELL sind zwei Anwendungsfälle wesentlich, dazu zählen die Tourenplanung im Logistikbereich und im Servicebereich. Beispielsweise liegen die Herausforderungen der Tourenplanung bei der Pflege in der komplexen Modellierung von gesetzlichen Rahmenbedingungen wie das Arbeitszeitgesetz und den drei beteiligten Akteuren Pflegedienst, Pfleger und Patient. Auf der ExCELL Plattform existiert aus den genannten Gründen ein Webservice zur automatischen Tourenplanung für die Anwendungsfälle.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-21214-8_15 484d698b18cba10b9b3d8381ea8ce6bc;de;;;6.1.;;;Methods matterDer schulische Tableteinsatz impliziert regelmäßig eine Verbesserung von Lern- und Lehrprozessen. Empirisch lässt sich das kaum ausreichend belegen. Dazu kommen methodisch-methodologische Herausforderungen, die mit neuen Formen der Aneignung digitaler Medien in Lern- und Lehrkontexten und deren Erforschung einhergehen. Nohls Modell verschiedener Transaktionsräume offeriert einen elaborierten qualitativen Ansatz, um die angedeuteten Veränderungen zu analysieren und besser zu verstehen. Anschlüsse aus den Bereichen Digital Methods und E-Research unterstreichen aber, dass das nur ein Zwischenschritt sein kann im Zuge notwendiger methodisch-methodologischer Neuorientierungen auf der Hintergrundfolie der zunehmenden Mediatisierung und Digitalisierung von Lern- und Lehrprozessen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-13809-7_2 8bd6f917461e7f8c2acc4c1a98c79056;de;;;2.2.;;;Schneller und effektiver fokussierter Abruf Der Aufbau einer effizienten und effektiven Suchmaschine ist eine sehr anspruchsvolle Aufgabe. In diesem Beitrag stellen wir die Effizienz und Effektivität unserer Suchmaschine auf den INEX 2009 Efficiency and Ad Hoc Tracks vor. Wir haben eine einfache und effektive Pruning-Methode zur schnellen Abfrageauswertung entwickelt und einen zweistufigen Prozess für den Ad-hoc-Abruf verwendet. Die Gesamtergebnisse beider Tracks zeigen, dass unsere Suchmaschine in Bezug auf Effizienz und Effektivität sehr wettbewerbsfähig abschneidet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14556-8_24 a495e8ecb793a5e385697c94dd5f25e4;de;;;2.2.;;;Videozusammenfassungs- und -abrufsystem mit Gesichtserkennung und MPEG-7-Deskriptoren In diesem Whitepaper stellen wir ein automatisches Videozusammenfassungs- und Indexierungstool für einen persönlichen Videorekorder vor. Das Tool verwendet visuelle MPEG-7-Deskriptoren, um einen Videoindex zur Zusammenfassung zu generieren. Der resultierende Index erzeugt nicht nur eine Vorschau eines Films, sondern ermöglicht auch einen nichtlinearen Zugriff mit Miniaturansichten. Darüber hinaus unterstützt der Index die Suche nach einer Aufnahme ähnlich einer gewünschten Aufnahme innerhalb gespeicherter Videosequenzen. Darüber hinaus wird eine Gesichtserkennungstechnik zur personenbezogenen Videozusammenfassung und Indexierung in gespeicherten Videodaten verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27814-6_23 e04b90b218e921c3a88f0c27d346767c;de;;;2.2.;;;Multithread-Verarbeitung von langen Aggregatlisten In diesem Beitrag stellen wir eine Lösung namens Materialized Aggregate List vor, die für die Speicherung und Verarbeitung langer Aggregatlisten entwickelt wurde. Eine Aggregatliste enthält Aggregate, die aus den in der Datenbank gespeicherten Daten berechnet werden. In unserem Ansatz werden die Aggregate nach ihrer Erstellung für die weitere Verwendung materialisiert. Die Listenstruktur enthält eine in Seiten unterteilte Tabelle. Wir stellen drei verschiedene Algorithmen zum Ausfüllen von Seiten mit mehreren Threads vor, die beim Durchsuchen der Liste verwendet werden. Die Materialized Aggregate List kann als Bestandteil eines Knotens auf jeder Aggregationsebene in Indexierungsstrukturen, zB einem aR-Baum, angewendet werden. Wir präsentieren Testergebnisse, die die Effizienz der vorgeschlagenen Lösung abschätzen.;-;-;-;https://link.springer.com/chapter/10.1007/11752578_8 68619894554df5b453fc87fe2bdf1ffe;de;;;6.1.;;;Fallstudien zu den Patent Intelligence ElementenPatent Intelligence Elemente bilden Fähigkeiten ab, die Unternehmen bei der Überführung von Patentdaten in unternehmensrelevantes Wissen sowie der Anwendung des Wissens unterstützen. Diese Elemente werden im 7D Reifegradmodell für das Patentmanagement in der Dimension Intelligence abgebildet und in bis zu fünf Reifestufen beschrieben. Die Patent Intelligence Elemente sowie die Beschreibung der Reifestufen unterstützen Unternehmen bei der Analyse der Patent Intelligence, indem die Ist- und Soll-Zustände einzelner Elemente erfasst und definiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-24066-0_5 a7fa31dfea797c8c4cef1a49309238d7;de;;;6.1.;;;Mass Customisation in der Schuhindustrie:Der kundenindividuell gefertigte SchuhAls Prof. Milberg 1981 seinen Dienst als Institutsleiter im iwb antrat, hatte ich so gerade bei seinem Vorgänger die Promotion abgeschlossen und auch meinen Arbeitsvertrag mit der Firma Kasto fir Start August 81 schon unterschrieben. Ich war also völlig frei und unbelastet, so dass ich mich ganz darauf konzentrieren konnte, Herrn Milberg dabei zu helfen den Anfang zu machen. Dieses knappe halbe Jahr wird mir immer in besonderer Erinnerung bleiben. Es hat sehr großen Spaß gemacht mit meinem neuen Chef, der kommunikativ und zupackend zugleich vom ersten Tag an Vieles.in Bewegung brachte. Auch in meiner Industriezeit bei Kasto arbeiteten wir eng zusammen. Nicht zuletzt verdanke ich seinem Impuls den Sprung zurück in die Hochschule auf den Lehrstuhl für Werkzeugmaschinen und Betriebstechnik in Karlsruhe. In der wgp, in der intensiven Zusammenarbeit mit Prof. Lotter im Montagekongress und an vielen anderen Stellen trafen sich unsere Wege in fruchtbarer Weise. Das intensive Verfolgen der flexiblen Automatisierung befruchtete mich in meiner Entwicklungsarbeit im Hause Kasto besonders. Und so ist es nicht zuletzt richtig, heute zum Thema „Mass-Customization“ einen Beitrag zu leisten, der wieder Individualisierung von Produkten und damit flexibles Fertigen für Märkte von heute und morgen in den Mittelpunkt stellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55495-7_34 954150ae577987962a4eedad2183fdae;de;;;6.1.;;;Zum Profil und den Entwicklungsperspektiven von Hochschulen für angewandte Wissenschaften in der Bundesrepublik DeutschlandMit der Gründung der Fachhochschulen sollte Anfang der 1970er Jahre die strukturelle Lücke zwischen der theoretisch orientierten, universitären Ausbildung und dem System der dualen Berufsausbildung geschlossen werden. In den Jahrzehnten nach ihrer Gründung hat sich dieser Hochschultyp von akademischen Lehranstalten hin zu Hochschulen für Angewandte Wissenschaften entwickelt, in denen die Einheit von Lehre und anwendungsorientierter Forschung wie selbstverständlich praktiziert und gelebt wird. Wesentlicher Anstoß für den Entwicklungsprozess hierfür war neben der Bologna-Reform sicherlich auch ein Generationenwechsel in der ProfessorInnenschaft, in dessen Zuge junge forschungsorientierte Wissenschaftler an die Fachhochschulen kamen. Das zentrale Signum der Hochschulen für Angewandte Wissenschaften ist der Praxisbezug in der Ausbildung der Studierenden und die anwendungsorientierte Forschung samt Technologietransfer in die Sphäre der kleinen und mittelständischen Unternehmen. Im Hinblick auf die monetäre Ausstattung und die strukturellen Rahmenbedingungen der Fachhochschulen muss von einem deutlichen Nachholbedarf dieses Hochschultyps gesprochen werden. Dabei müsste ein höheres Budget für Forschungspersonal und Forschungsinfrastrukturen sowie ein geringeres Lehrdeputat der forschenden ProfessorInnen hinterlegt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-22103-4_10 329ddaaa2b5916a8fafc6e70e0f0e68b;de;;;2.2.;;;Verknüpfen von benannten Entitäten in niederländischen historischen Zeitungen Wir haben den Zugang zur Sammlung niederländischer historischer Zeitungen der Koninklijke Bibliotheek verbessert, indem wir benannte Entitäten in den Zeitungsartikeln mit entsprechenden Wikidata-Beschreibungen mittels maschineller Lerntechniken und Crowdsourcing verknüpft haben. Die Indizierung der Wikidata-Identifikatoren für benannte Entitäten zusammen mit den Zeitungsartikeln eröffnet neue Möglichkeiten, Artikel zu finden, die diese Ressourcen erwähnen, und die Zeitungssammlung mit semantischen Beziehungen aus Wikidata zu durchsuchen. In diesem Paper beschreiben wir unsere bisherigen Schritte beim Aufbau dieser Kombination aus Entity Linking, Machine Learning und Crowdsourcing in unserer Forschungsumgebung sowie unsere geplanten Aktivitäten zur Verbesserung der Qualität der Links und zur Erweiterung der semantischen Suchmöglichkeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49157-8_18 a6be8eb3498a68cc730737ceeba5b160;de;;;6.1.;;;Vernetzung und Unterstützung von Schulen und Wirtschaft durch WirtschaftsförderungseinrichtungenDie ökonomischen und soziostrukturellen Zukunftsperspektiven eines Standortes werden zu einem nicht unerheblichen Ausmaß durch die Anzahl, die Qualifikationen, die Weiterbildungsbereitschaft und das Weiterbildungsvermögen der künftig für diesen Standort zur Verfügung stehenden Arbeitskräfte determiniert. Um junge, engagierte, talentierte und qualifizierte Menschen in einer Region zu halten, bedarf es zunächst deren Kenntnis bezüglich der regionalen Unternehmen, der dort vorzufindenden Arbeitsplätze und der sich vor Ort ergebenden Chancen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-33603-5_61 1044416d5cad9d94e9174d58059747ca;de;;;6.1.;;;Werkzeugmaschinenlabor WZL der RWTH Aachen (Lehrstuhl für Produktionssystematik)Prof. Dr.-Ing. Dipl.-Wirt. Ing. Günther Schuh wurde 1958 in Köln geboren. 1978 bis 1985 studierte er Maschinenbau und Betriebswirtschaftslehre an der RWTH Aachen. Er promovierte 1988 nach einer Assistentenzeit am WZL bei Prof. Eversheim, wo er bis 1990 als Oberingenieur tätig war. Ab 1990 war er vollamtlicher Dozent für Fertigungswirtschaft und Industriebetriebslehre an der Universität St. Gallen (HSG). 1993 wurde er dort Professor für betriebswirtschaftliches Produktionsmanagement und zugleich Mitglied des Direktoriums am Institut für Technologiemanagement. Er ist Gründer der GPS Firmengruppe in Würselen, St. Gallen und Atlanta, deren Beratungsportfolio auf strategisches und operatives Komplexitätsmanagement spezialisiert ist. Prof. Schuh folgte im September 2002 Prof. Eversheim auf dem Lehrstuhl für Produktionssystematik der RWTH Aachen und im Direktorium des Werkzeugmaschinenlabors WZL und des Fraunhofer-Instituts für Produktionstechnologie (IPT) in Aachen nach. Seit 2003 ist er auch Direktor des Forschungsinstituts für Rationalisierung e.V. an der RWTH Aachen, dessen Schwerpunkte auf dem Informationsmanagement, dem Dienstleistungsmanagement und der Produktionsplanung und -steuerung liegen. 2008 wurde er Prorektor für Industrie und Wirtschaft der RWTH Aachen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87898-8_26 008fd9fc4cef334aacc92bc3af5ce7dc;de;;;6.1.;;;„Connectivity is King“ - Zur Rolle von Beratungsnetzwerken bei der Entwicklung regionaler InternetportaleDie Zeiten, in denen es ausreichte, eine Website mit statischen Inhalten und hübschem Design zu prä sentieren, sind zumindest für große öffentliche und private Anbieter von Onlinediensten und -Informationen, wie zum Beispiel Unternehmen, Verwaltungen und Universitäten, längst vorbei. Mit der Konsolidierung der „Internetökonomie“ (Zerdick et al. 2001) und dem Internet als Medium für unterschiedlichste Inhalte (Sjurts 2005) ist der Bedarf nach zielgruppengerechten Internetlösungen und damit auch nach professioneller Beratung bei der Entwicklung komplexer Internetauftritte gestiegen (Lash/Wittel 2002). Beratungsleistungen umfassen im Ideal erstens eine ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-9218-5_13 445f27922b8ec824ae79c5909e3bab2a;de;;;6.1.;;;Optimierungspotenzial im Retourennetzwerk am Beispiel der MediendistributionBranchenspezifisch besteht in produzierenden oder distribuierenden Unternehmen zumeist die Möglichkeit für den jeweiligen Kunden (Handel), Artikel wieder zurückzusenden. Dieser oft zeit- und kostenintensive Rücklauf von Produkten, der als Retourenprozess bezeichnet wird, kann dabei eine beliebige Anzahl und unvorhersehbare Verteilung von Artikeln umfassen, die qualitätsgeprüft wieder eingelagert werden müssen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-15280-2_9 8b13574168742348bc9d9f9f5e688e26;de;;;2.2.;;;Bildbasierte Kameralokalisierung für große Umgebungen und im Freien Das Auffinden der Kameraposition und -ausrichtung ist ein wichtiger Schritt für viele Augmented Reality (AR)-Anwendungen. In diesem Artikel entwickeln wir ein System zur Schätzung der Kamerapose für große Umgebungen und im Freien. Ein großer Satz von Bildern für Außenumgebungen wird gesammelt und die 3D-Struktur der Szenen wird unter Verwendung einer Struktur-aus-Bewegungs-Technik wiederhergestellt. Um die Genauigkeit und Effizienz der Bildindexierung zu verbessern, wird ein Convolutional Neural Network (CNN) verwendet, um Bildmerkmale zu extrahieren, und ein Satz von ortssensitiven Hashing-(LSH)-Funktionen wird verwendet, um CNN-Merkmale zu klassifizieren. Mit diesen Techniken wird die Kameralokalisierung erreicht, indem zuerst die nächstgelegenen Bilder durch CNN und LSH indexiert werden und dann ein Satz von 2D-3D-Korrespondenzen aus den indizierten Bildern und der wiederhergestellten 3D-Struktur erstellt wird. Ein perspektivischer n-Punkt (PnP)-Algorithmus wird dann auf die 2D-3D-Korrespondenzen angewendet, um die Kamerapose zu schätzen. Eine Reihe von Experimenten wird durchgeführt und die Ergebnisse bestätigen die Wirksamkeit des vorgeschlagenen Systems. Die nächsten Nachbarn für die Bildabfrage können genau und effizient extrahiert und die Kamerapose genau geschätzt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-54427-4_11 f377ff119e119a5182f19f26a174159e;de;;;6.1.;;;Wie können virtuelle Teams leistungsfördernd geführt werden?Dieser Übersichtsartikel thematisiert den aktuellen Forschungsstand zu spezifischen Anforderungen an die Führung in der virtuellen Teamarbeit, welche in den Bereichen Kommunikation, Koordination, kulturelle Diversität, Vertrauensentwicklung und im Umgang mit Konflikten bestehen können. Die Gestaltung der Kommunikation in der virtuellen Teamarbeit umfasst beispielsweise den expliziten Einbezug aller Parteien, um eine wahrgenommene geografische Teilung dieser zu verringern. Weiterhin müssen die Arbeitsprozesse unter Einbezug von unterschiedlichen Zeitplänen und -zonen, Terminen und Rahmenbedingungen der Teammitglieder koordiniert sowie kulturelle Diversität adressiert werden. Um auf Führungsebene auf eine erschwerte Vertrauensentwicklung im virtuellen Team zu reagieren, können u. a. Dokumentationsmaßnahmen genutzt werden. Zusätzlich sollten Konfliktmanagementstrukturen implementiert werden. Im Kontext verschiedener Führungsstile zeigt die Forschungslage, dass sich eine geteilte Führung und strukturelle Unterstützung positiv auf die Leistungsfähigkeit in virtuellen Teams auswirken können und damit besonders relevant für die Führung dieser sind.;-;-;-;https://link.springer.com/article/10.1007/s40664-019-0327-8 6d7763db27501b90ec4e3f9c7cdc3380;de;;;6.1.;;;Akzeptanz ergonomisch gestalteter Schichtpläne – Ergebnisse einer betriebsübergreifenden Evaluationsstudie in der bayerischen Metall- und ElektroindustrieErgonomische Schichtpläne können gesundheitliche Belastungen verringern und die Teilnahme am sozialen Leben erleichtern. Schichtplanänderungen können jedoch Widerstände in der Belegschaft bedingen. In einer betriebsübergreifende Evaluationsstudie in fünf Werken der bayerischen Metall- und Elektroindustrie wurde die Akzeptanz ergonomischer Schichtpläne untersucht, wobei inhaltliche (z. B. Schichtrotation) und verfahrensmäßige Parameter (z. B. Gestaltung der Beteiligungsprozesse) erhoben worden. Die Mehrheit der Befragten akzeptiert ergonomische Schichtpläne, jedoch erst nach einer Eingewöhnungszeit von ca. sechs Monaten. Akzeptanzfördernd wirken eine verbesserte Schlafqualität, größere Chancen auf soziale Teilhabe sowie eine adäquate Information und Beteiligung von Akteuren.;-;-;-;https://link.springer.com/article/10.1007/s41449-016-0013-z 09c603b3728c6b6e2c395c9e6f9fe057;de;;;6.1.;;;Kinder und Jugendliche mit Störungen der GeschlechtsentwicklungDie Diagnose von Störungen der Geschlechtsentwicklung (DSD) ist zu jedem Zeitpunkt im Leben eines Menschen möglich. Sie wirft eine Vielzahl von Fragen hinsichtlich der weiteren körperlichen, psychosexuellen und -sozialen Entwicklungen auf. Bisherige Erkenntnisse geben Hinweis darauf, dass ein weitestgehend störungsfreies Heranwachsen der betroffenen Kinder und Jugendlichen weniger von der Art und der Ausprägung der Störung selbst als vielmehr von der Art des Versorgungsmanagements abhängt. Für eine adäquate Versorgung von Personen mit DSD wird heute die Betreuung durch ein multiprofessionelles Team innerhalb eines spezialisierten Referenzzentrums als notwendig angesehen.;-;-;-;https://link.springer.com/article/10.1007/s00112-008-1674-2 4066a00099cef2b83bbbe5a3264236e9;de;;;6.1.;;;Promotoren in regionalen Innovationssystemen – Drei Fallbeispiele aus NordwestdeutschlandDie organisationale Ausgestaltung von regionalen Innovationssystemen ist vielschichtig und resultiert nicht nur aus den spezifischen Bedingungen vor Ort, sondern insbesondere aus der Netzwerkarbeit einzelner Akteure. Eine wichtige Rolle nehmen hierbei die regionalen Wirtschaftsförderungen ein, deren Aufgabenportfolio in der Regel auch die Initiierung und Begleitung von Innovationsprozessen umfasst. Die entsprechende Umsetzung erfolgt in der Praxis häufig durch ein Zusammenspiel von Wirtschaftsförderern und Innovationsberatern. Diese verfügen jeweils über engmaschige Netzwerke mit potenziellen Innovationspartnern und können somit vor allem kleinen und mittleren Unternehmen eine wichtige Hilfestellung im Innovationsprozess bieten. Um diese Netzwerkkompetenz konzeptionell zu rahmen, hat sich in der betriebswirtschaftlichen Innovationsforschung das Rollenmodell des Beziehungspromotors etabliert. Der Beitrag analysiert am Beispiel von drei nordwestdeutschen Regionen, auf welche Art und Weise die verantwortlichen Wirtschaftsförderer und Innovationsberater ihre Rolle als Beziehungspromotoren ausfüllen und wie sich die daraus resultierenden strategischen Ansätze in der Konfiguration der jeweiligen Innovationssysteme niederschlagen. Es kann gezeigt werden, dass die drei untersuchten Regionen – Landkreis Oldenburg, Oldenburger Münsterland, Elbe-Weser-Region – auf unterschiedliche strategische Ansätze zurückgreifen, die im Hinblick auf Raumbezug, Akteursspektrum und Vernetzungsgrad differieren. Grundsätzlich ist die Ausgestaltung der regionalen Innovationssysteme in hohem Maße von den Machtquellen der Promotoren abhängig. Neben den aus der Literatur abgeleiteten typischen Machtquellen – Sozialkompetenz, Netzwerkwissen, Beziehungsportfolio – lässt sich nach der Analyse der drei Fallbeispiele auch die Reputation eines Beziehungspromotors als wichtige Ressource identifizieren.;-;-;-;https://link.springer.com/article/10.1007/s13147-016-0416-5 b5c025464982abb6fb9d3680262cb029;de;;;6.1.;;;Psychische Belastung in Kleinst- und Kleinbetrieben. Eine Interviewstudie mit Unternehmensleitungen der VerkehrswirtschaftEs fehlen bislang explizite wissenschaftliche Erkenntnisse zu psychischer Belastung in Kleinst- und Kleinbetrieben (mit weniger als 50 Beschäftigten) und damit auch fundierte und zielgruppengerechte Handlungshilfen zur Unterstützung bei der Ermittlung, Analyse und Bewertung von psychischen Belastungsfaktoren im Rahmen der Gefährdungsanalyse. Für diese Interviewstudie wurden ;-;-;-;https://link.springer.com/article/10.1007/s41449-021-00245-y 12c1b2104d91a0ef6b10524566f9fde5;de;;;6.1.;;;Surveillance gemäß den Internationalen Gesundheitsvorschriften (2005)Die Internationalen Gesundheitsvorschriften (2005) (IGV) sind das zentrale völkerrechtliche Instrument im Zuständigkeitsbereich der Weltgesundheitsorganisation (WHO) für die Verhütung und Bekämpfung einer grenzüberschreitenden Ausbreitung von Krankheiten. Nach einem 10-jährigen Revisionsprozess hat sich die Völkergemeinschaft auf dieses moderne und flexible Vertragswerk geeinigt, das den Herausforderungen einer globalisierten Welt Rechnung trägt. Seit Juni 2007 sind die IGV für alle Mitgliedsstaaten der WHO völkerrechtlich verbindlich. Sie enthalten weitreichende Rechte und Pflichten der Vertragsstaaten sowie Aufgaben der WHO, die der nationalen und internationalen Surveillance, Risikobewertung sowie Krankheitsverhütung und -bekämpfung dienen. In Bezug auf die Surveillance besteht die zentrale Verplichtung der Vertragsstaaten, Ereignisse, die eine gesundheitliche Notlage von internationaler Tragweite darstellen können, der WHO zu melden. Diese Verpflichtung ist auch auf alle bisher unbekannten Risiken für die öffentliche Gesundheit anzuwenden, und zwar unter Berücksichtigung der jeweiligen Umstände, unter denen ein Ereignis auftritt. Zudem besteht die Forderung an alle Vertragsstaaten nach der Schaffung, Stärkung und Aufrechterhaltung von Strukturen des öffentlichen Gesundheitssystems, die ein effektives Surveillancesystem und die adäquate Reaktion auf Ereignisse, z. B. Krankheitsausbrüche, gewährleisten.;-;-;-;https://link.springer.com/article/10.1007/s00103-009-0758-z 369102a7ddc147871b22fda718483647;de;;;6.1.;;;Notfallplan für die Massenveranstaltung „Il Palio“ in SienaDer Palio in Siena ist ein weltberühmtes Pferderennen, welches 2-mal im Jahr im Sommer, und zwar am 2. Juli und am 16. August, stattfindet. Seine Besonderheit liegt in der Tatsache, dass das Rennen mitten in der Stadt auf der muschelförmigen „Piazza del Campo“ ausgetragen wird.;-;-;-;https://link.springer.com/article/10.1007/s10049-004-0645-y 0b9790241379731d254f4fb4b58a156a;de;;;6.1.;;;Medizinische Versorgung in der hausärztlichen PraxisDie Bildung von Kompetenznetzen unter maßgeblicher Beteiligung allgemeinmedizinischer Abteilungen und die Einrichtung eines Förderschwerpunkts „Allgemeinmedizin“ beim Bundesministerium für Bildung und Forschung (BMBF) spiegeln die wachsende Bedeutung der Allgemeinmedizin für die Versorgungsforschung. Die mögliche Nutzung elektronischer Routinedaten aus Hausarztpraxen soll exemplarisch anhand der Klassifikation therapeutischer Maßnahmen und der Schätzung von Krankheitsprävalenzen dargestellt werden. Aus 134 Praxen konnten elektronische Daten über die BehandlungsDatenTräger- (BDT-)Schnittstelle pseudonymisiert extrahiert werden. Mittels SQL- (Structured Query Language-)Abfragen wurden dann in den BDT-Datensätzen Patienten mit Harnwegsinfekten, obstruktiven Atemwegserkrankungen und Herzinsuffizienz sowie ihre Behandlung identifiziert. Nahezu vollständig dokumentiert fanden sich in den exportierten Daten Alter (99,9%) und Geschlecht der Patienten (98%). Pro Abrechnungsdiagnose wurden im Durchschnitt 2,3 Medikamente verordnet. Bei 6239 Konsultationen für Harnwegsinfekte in 53 Praxen wurden zumeist Cotrimoxazol (69%) und Fluorochinolone (15%), seltener Trimethoprim (9%) und pflanzliche Harnwegsmittel (4%) verordnet. Von 2714 Asthmapatienten in 78 Praxen erhielten nur 50% inhalative Steroide, ihr Anteil lag sogar leicht unter dem Anteil entsprechender COPD-Patienten (53%). In 44 Praxen waren 4120 Patienten mit der Diagnose Herzinsuffizienz dokumentiert. Auf Basis einer entsprechenden Auswertungstechnologie lassen sich durch elektronische Patientendaten aus Hausarztpraxen Fragen und Themen der Versorgungsforschung aufgreifen und zur zukünftigen Qualitätssicherung der medizinischen Versorgung verwenden.;-;-;-;https://link.springer.com/article/10.1007/s00103-005-1215-2 0968928f5707b05c19915ce480430d5e;de;;;6.1.;;;Was bedeutet „politische Führung“?Das Phänomen der „politischen Führung“ wird in Wissenschaft wie Öffentlichkeit als mehrdeutig und zum Teil auch als paradox wahrgenommen. Sukzessive hat sich der Eindruck verfestigt, dass sich „politische Führung“ einer konkreten und konsensfähigen Definition entzieht. Dieser Aufsatz geht der Frage nach, wie politische Führung bisher verstanden worden ist und worin ein Ausgangspunkt für ein analytisch weiterführendes Begriffsverständnis liegt. Dabei zeigt sich, dass insbesondere eine strukturfunktionalistische Perspektive hierfür das größte Potenzial aufweist.;-;-;-;https://link.springer.com/article/10.1007/s12392-009-0090-x f46e2354be268a0a78d32bc461c0e4b2;de;;;2.2.;;;Eine geclusterte Zwergenstruktur zur Beschleunigung von Abfragen in Datenwürfeln Dwarf ist eine stark komprimierte Struktur, die den Würfel komprimiert, indem die semantischen Redundanzen beim Berechnen eines Datenwürfels eliminiert werden. Obwohl es ein hohes Komprimierungsverhältnis hat, ist Dwarf aufgrund seiner Strukturmerkmale langsamer beim Abfragen und schwieriger beim Aktualisieren. Daher schlagen wir zwei neuartige Clustering-Verfahren zur Abfrageoptimierung vor: das Rekursions-Clustering-Verfahren für Punktabfragen und das hierarchische Clustering-Verfahren für Bereichsabfragen. Um die Implementierung zu erleichtern, entwerfen wir eine Partitionsstrategie und einen logischen Clustering-Mechanismus. Experimentelle Ergebnisse zeigen, dass unsere Methoden die Abfrageleistung für Datenwürfel effektiv verbessern können und die Rekursionsclustering-Methode sowohl für Punktabfragen als auch für Bereichsabfragen geeignet ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74553-2_16 e5da3618df8b67de4ccc97c8b7313baf;de;;;2.2.;;;Großflächige Ähnlichkeitsverknüpfung mit Bearbeitungs-Abstandsbeschränkungen Im Zeitalter von Big Data ist das Problem der Datenqualität schwerwiegender denn je. Als wesentlicher Schritt bei der Datenbereinigung hat Ähnlichkeitsverknüpfung viel Aufmerksamkeit in der Datenbank-Community auf sich gezogen. In dieser Arbeit verbessern wir zunächst den partitionsbasierten Join-Algorithmus für kleinskalige Daten, um das Ähnlichkeits-Join-Problem mit Edit-Distanz-Beschränkungen anzugehen. Dann erweitern wir den Algorithmus basierend auf dem MapReduce-Framework für große Datenmengen. Umfangreiche Experimente an realen und simulierten Datensätzen demonstrieren die Leistungsfähigkeit unserer Algorithmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-05813-9_22 0aa83f41e9d2c482605791955e28bed8;de;;;6.1.;;;Differenzierte Lebenslagen im AlterDer Beitrag gibt einen Überblick zur Diskussion im Bereich Lebenslagen homosexueller Männern im Prozess des Alter(n)s. Der Stand der internationale Forschung wird aufgearbeitet und die Projekte im Rahmen der Selbsthilfe in der Bundesrepublik werden berichtet. Das Material dient zur Anregung in der Debatte um die Differenzierung von Lebenslagen im Alter am Beispiel dieser spezifischen Gruppe, es zeigt die dort entstehenden „eigenen“ Vorstellungen und versteht sich als erste Anregung zur weiteren Diskussion des Themas.;-;-;-;https://link.springer.com/article/10.1007/s00391-006-0364-8 2fd3b05f0746885e8d11839861370600;de;;;6.1.;;;Erprobung von Funkkommunikationstechnik im Rahmen des SchockraummanagementsDie Sicherstellung einer durchgängigen Kommunikation zwischen den einzelnen Teammitgliedern zur Vermittlung von diagnostischen Befunden und der Festlegung von therapeutischen Maßnahmen nimmt im Rahmen des Schockraummanagements eine Schlüsselfunktion ein. Die Aufrechterhaltung der Vitalfunktionen des Patienten verläuft parallel mit der Auswertung der bildgebenden Diagnostik (Sonographie, Röntgenaufnahmen, Computertomographie) und ist in den meisten Kliniken räumlich voneinander getrennt (Schockraum – Befundungsraum). Durch den Einsatz moderner Kommunikationstechnologien kann der Informationsfluss und Entscheidungsprozess für das weitere Vorgehen in kritischen Situationen beschleunigt und damit der Workflow optimiert werden. Eine drahtlose Kommunikation mittels Funkgeräten eröffnet speziell bei der Behandlung schwerstkranker Patienten mit dynamischer Veränderung der Vitalparameter Vorteile, da hier der Entscheidungsprozess, z. B. die Indikationsstellung für eine sofortige Operation, komplexer ist. Mit zunehmender Informationsmenge, wie z. B. beim Massenanfall von Verletzten oder in der Katastrophenmedizin, könnte eine drahtlose Kommunikation der Teammitglieder untereinander zudem eine bessere Koordination und damit Beschleunigung der Patientenströme ermöglichen.;-;-;-;https://link.springer.com/article/10.1007/s10049-006-0820-4 4f9500a2db83364f0a57d1abad2bbd88;de;;;6.1.;;;Europäische ReferenznetzwerkeAb dem Jahr 2017 werden in der Europäischen Union Europäische Referenznetzwerke (ERN) für Patienten mit seltenen Erkrankungen etabliert werden. In den ERN wird Expertise in Zentren gebündelt und über Grenzen hinweg ausgetauscht, um den Zugang zur Diagnose und Behandlung zu ermöglichen und zu erleichtern. Die Integration der ERN in die Organisation der Versorgung der Patienten mit seltenen Erkrankungen in Deutschland stellt eine große Herausforderung dar. Wesentliche Problematiken der ERN-Etablierung sind (i) eine mögliche Kompetition zwischen nationalen und europäischen Interessen durch den Konflikt von nationaler Zuständigkeit und angestrebter grenzüberschreitender Verfügbarkeit von Gesundheitsdienstleistungen, (ii) das fehlende Finanzierungskonzept sowie (iii) die Etablierung von ERN in Ländern (wie Deutschland) mit einem noch nicht umgesetzten nationalen Aktionsplan für Menschen mit seltenen Erkrankungen. Die geringere Umsetzungsgeschwindigkeit des im deutschen Aktionsplan beschlossenen Zentrumsmodells und die höhere Konkretisierung der ERN in Hinsicht auf Leistungen und Aktivitäten wird möglicherweise dazu führen, dass erzielte Zugewinne an Patientennutzen den ERN zuerkannt werden.;-;-;-;https://link.springer.com/article/10.1007/s00103-017-2533-x 50e7f117b920b28ca72923a7113568f6;de;;;6.1.;;;Internationale und europäische polizeiliche ZusammenarbeitIn den vergangenen zehn Jahren ist die internationale polizeiliche Zusammenarbeit normativ stark fortentwickelt worden, ebenso internationale Missionen und grenzübergreifende Polizeieinsätze. Mit Inkrafttreten des neuen EU-Vertrages hat die polizeiliche Zusammenarbeit eine neue Arbeitsgrundlage erhalten, auf die sich die europäischen und nationalen Akteure erst noch einstellen müssen.;-;-;-;https://link.springer.com/article/10.1007/s12399-010-0139-6 7717e2f762719ef9db3f663b897bda79;de;;;6.1.;;;Einsatz von Java Applikationen für das Organisationsdesign virtueller UnternehmenOrganisationsstrukturen, die ausschließlich durch Hierarchien, Bürokratie und viele Entscheidungsebenen gekennzeichnet sind, erscheinen nicht länger geeignet, den vieldiskutierten Umweltanforderungen nach Reaktionsschnelligkeit gerecht zu werden. Netzorientierte Informationstechnologie und innovative Kommunikationsformen eröffnen Wege, die zusammen mit einer Neuordnung von Strukturen und Aufgabenausführung dazu beitragen können, bewegliche Organisationsformen zu realisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-05852-6_6 cc4445fa44c7467582bb0ac198e3062e;de;;;6.1.;;;Aufbau von NetzwerkenIn diesem Kapitel soll der Aufbau von Netzwerken geschildert werden, wobei im Gegensatz zu den Ausführungen in Abschnitt 1.6 weniger grundsätzliche Überlegungen, sondern technische Realisierungen im Vordergrund stehen. Im ersten Teil geht es um die Konzepte und den Aufbau der Lokalen Netze, im zweiten Teil um firmenorientierte Netzwerkkonzepte. Wegen der Vielzahl der heute verbreiteten Konzepte muß sich besonders der zweite Teil auf einige Beispiele beschränken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-91974-8_9 04c50bc2b16e494640b15e7fd656a18d;de;;;6.1.;;;Bewertung von diffusen Stoffeinträgen im Rahmen der nationalen Biodiversitätsstrategie 2007 hat die Bundesregierung eine nationale Strategie zur biologischen Vielfalt verabschiedet. Die Biodiversitätsstrategie fordert die Integration ihrer Qualitäts- und Handlungsziele in andere politische Sektorstrategien. Flächendeckende diffuse Stoffeinträge tragen erheblich zum Verlust der biologischen Vielfalt bei. Ihre Reduktion auf ein langfristig verträgliches Niveau stellt eines der Handlungsziele dar. Der Beitrag soll einen Überblick zu den inhaltlichen und organisatorischen Voraussetzungen für die Umsetzung dieses Ziels geben und wichtige Defizite aufzeigen.;-;-;-;https://link.springer.com/article/10.1007/s12302-009-0081-1 dc85bc88bde9a5a08f8792f22554660e;de;;;6.1.;;;Beschwerden im Bereich des Bewegungsapparats bei Pflegekräften in einem Krankenhaus der Schwerpunktversorgung in Sachsen-AnhaltKörperliche Beschwerden im Bereich des Bewegungsapparats sind unter Pflegekräften durchaus verbreitete Probleme. In einer Befragung unter Pflegekräften eines Krankenhauses der Schwerpunktversorgung in Sachsen-Anhalt sollte diese Aussage überprüft werden. Des Weiteren sollten anhand der Ergebnisse im Rahmen eines betrieblichen Gesundheitsmanagements Programme initiiert werden, die helfen können, Beschwerden im Bereich des Bewegungsapparats langfristig zu lindern und Belastungen, die negativen Einfluss auf den Bewegungsapparat haben, zu minimieren bzw. zu beseitigen.;-;-;-;https://link.springer.com/article/10.1007/s16024-013-0172-1 6700ebba999c0cc6fb186d145f6cfac5;de;;;6.1.;;;Psychische Gesundheit und Belastung bei StudierendenStudierende können aufgrund hochschulinterner wie auch externer Faktoren als eine vulnerable Gruppe betreffend psychischen Erkrankungen bezeichnet werden und mehrere Studien weisen auf eine erhöhte Prävalenz psychischer Beeinträchtigungen bei Studierenden hin.;-;-;-;https://link.springer.com/article/10.1007/s11553-019-00746-z a1f063390d04d382f99eff26c7812447;de;;;6.1.;;;Vernetzte Sicherheit: Grundlagen, Zwischenbilanz und EntwicklungspotenzialDieser Beitrag skizziert die konzeptionellen Grundlagen der Vernetzten Sicherheit, zieht eine Zwischenbilanz des bisher Erreichten und unterbreitet konkrete Vorschläge zur Weiterentwicklung des Konzepts. Dabei stellen die Autoren die Vernetzte Sicherheit in den größeren Zusammenhang der außen- und sicherheitspolitischen Strategiefähigkeit und betonen die engen Wechselwirkungen im „goldenen Dreieck“ zwischen strategischen Leitlinien, den vorhandenen Sicherheitsinstitutionen und der sicherheitspolitischen Kultur. Die Zwischenbilanz verbucht auf der Habenseite konkrete Fortschritte in Form von themenspezifischen Konzepten und Leitlinien, institutionellen Veränderungen und neuen Instrumenten, die die ressortübergreifende Zusammenarbeit und die Kooperation mit nicht-staatlichen Akteuren unterstützen und fördern. Auf der Sollseite stehen Defizite wie der Mangel an übergreifenden strategischen Vorgaben für die deutsche Außen- und Sicherheitspolitik als Rahmen für die Ausrichtung der Vernetzten Sicherheit, kulturelles und institutionelles Beharrungsvermögen sowie Defizite in der Kommunikation. Um diese Schwächen zu beheben, unterbreiten die Autoren konkrete Vorschläge in den Bereichen Lageanalyse, -beurteilung und -monitoring, Strategieentwicklung, -umsetzung und -controlling, ;-;-;-;https://link.springer.com/article/10.1007/s12399-012-0272-5 055cbf894e9211e9c88f7cb22b954acd;de;;;6.1.;;;Psychologische Faktoren im Kontext perioperativer Knie- und Gelenkschmerzen: die Rolle der Behandlungserwartungen für den SchmerzverlaufChronische Knie- und Gelenkschmerzen stellen wie alle chronischen Schmerzen ein komplexes multidimensionales Geschehen dar, an dem gleichzeitig somatische, psychische und soziale Faktoren beteiligt sind. Patienten mit Knie- und anderen Gelenkschmerzen erleben sich in ihrem alltäglichen Leben, in ihrer beruflichen Tätigkeit, bei privaten Aktivitäten und in der Ausübung von sportlichen Freizeitaktivitäten eingeschränkt. Der Schmerz hindert sie zunehmend daran, ihre Ziele zu erreichen. Bei der Entwicklung und Aufrechterhaltung der Schmerzen spielen psychische Einflussfaktoren eine wichtige Rolle. Sie treten in Interaktion mit den am Schmerz beteiligten neurobiologischen und immunologischen Abläufen. Eine besondere Rolle spielen Erwartungen an den Krankheitsverlauf der Knie- und Gelenkschmerzen und Erwartungen an deren Behandlung. Studiendesigns, die eine Placeboknieoperation beinhalten, zeigen den hohen Einfluss dieser Variablen. Die Patienten, die eine Verumoperation erhalten, berichten nicht – wie erwartet – über weniger Schmerzen oder über eine bessere Funktionsfähigkeit als diejenigen, die eine Placebooperation erhalten. Der bedeutende Einfluss psychologischer Faktoren kann klinisch relevant genutzt werden. Eine positive Patienten-Behandler-Beziehung – geprägt durch Vertrauen, Wärme und Empathie – ist essenziell, um optimale therapeutische Wirksamkeit einer Behandlung zu erlangen. Jeder Operateur, Schmerzmediziner, Schmerzpsychologe oder Schmerzphysiotherapeut ist dafür verantwortlich, eine vertrauensvolle zwischenmenschliche Beziehung zwischen sich und dem Patienten zu gestalten.;-;-;-;https://link.springer.com/article/10.1007/s00482-018-0350-2 ed1b90f45a6feddb432bee3b162511b2;de;;;6.1.;;;Die wissenschaftliche Erforschung von SpiritualitätDie Psychologie beschäftigt sich mit den Fragen, die uns Menschen seit jeher bewegen. Diese Disziplin ist mittlerweile etwas über ein Jahrhundert alt und damit sogar vergleichsweise jung (Zimbardo ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-48457-9_2 3a5b759141768c0d608204d478e9e0fb;de;;;6.1.;;;Quantitatives IT-PortfoliomanagementZentraler Bestandteil des IT-Business-Alignments ist das IT-Portfoliomanagement (ITPM), d. h. die auf ökonomischen Kriterien beruhende Auswahl von IT-Projekten und deren Allokation zu einem Portfolio. In diesem Beitrag wird ein Ansatz zum quantitativen ITPM vorgestellt und dessen Umsetzung am Beispiel einer realen Fallstudie expliziert.;-;-;-;https://link.springer.com/article/10.1007/s11576-006-0055-5 c3bb662771b878614757bbc9baf3bca9;de;;;6.1.;;;Qualitätsmanagement aus juristischer SichtDas Ziel des Qualitätsmanagements in der Medizin muss eine Steigerung der Behandlungssicherheit, Optimierung der Behandlungsergebnisse, aber auch die Bestätigung ökonomischer Vertretbarkeit sein. Durch die Beteiligung an einrichtungsübergreifenden Qualitätssicherungsmaßnahmen soll die Möglichkeit geschaffen werden, die Qualität des Leistungsangebots im Vergleich zu anderen Leistungserbringern zu beurteilen und entsprechende Defizite zu erkennen und abstellen zu können. Vergleichende Prüfungen und Bewertungen sollen dazu dienen, die Ergebnisqualität zu verbessern. Die Vorteile von Qualitätsmanagement als wichtiger Ansatz zur Förderung der Patientensicherheit sollen allen Beteiligten bewusst gemacht werden. Eine patientenorientierte Prozessoptimierung sowie die Patientenzufriedenheit stehen im Mittelpunkt. Zusätzlich soll Qualitätsmanagement dazu beitragen, die Zufriedenheit aller am Prozess Beteiligten zu erhöhen.;-;-;-;https://link.springer.com/article/10.1007/s00120-019-01027-5 80a2f445d783b8c43aa483faf8725f07;de;;;6.1.;;;PLM-AnsprechpartnerIm Folgenden sind die Ansprechpartner für die Kapitel über Industrie, IT-Branche, Verbände und Vereine sowie Wissenschaft und Forschung in alphabetischer Reihenfolge aufgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87898-8_48 f1185e6666cbcc33d11b1fd2a24ecfcb;de;;;6.1.;;;Logistik und Supply Chain Management im KatastrophenfallHerbert Kotzab und Andrea Kaput beschäftigen sich mit „Logistik und Supply Chain Management im Katastrophenfall“. Probleme der sog. humanitären Logistik treten insbesondere in Entwicklungsländern und im Zusammenhang mit internationalen Katastropheneinsätzen auf. Die AutorInnen modifizieren das für die kommerzielle Logistik entwickelte Konzept der Supply Chain Performance-Treiber von Chopra und Meindl für den Anwendungsfall der humanitären Logistik, wobei sie nicht versäumen, auf deren Spezifika hinzuweisen, insbesondere auf die Vielzahl und Verschiedenartigkeit der Akteure und auf den temporären Charakter der Katastrophenbekämpfung. Das Konzept besteht aus sechs Elementen: Ziele und Restriktionen, Lager- und Umschlagseinrichtungen, Lagerbestände, Transportsysteme, Beschaffung von Hilfsgütern und Dienstleistungen sowie Informations- und Kommunikationssysteme. Jedes Element wird hinsichtlich seiner Bedeutung in der Katastrophenvorsorge und der Katastrophenbekämpfung spezifiziert. Das in der kommerziellen Logistik dominierende Ziel der Effizienz ist im Fall der humanitären Logistik von geringerer Bedeutung. Vorrangig ist die Effektivität i. S. der schnellstmöglichen Versorgung der Betroffenen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-06173-9_13 fd3dacc584b027c42aa028202ec67c25;de;;;6.1.;;;Personelle Auswirkungen und organisatorisches GestaltungspotentialIn den vorangegangenen Kapiteln wurden nach einführenden Überlegungen zur Konzeption eines EDV-gestützten Marketing (Kapitel 1) moderne Informations- und Kommunikationstechnologien dargestellt (Kapitel 2). Ihre Einsatzmöglichkeiten zur Informationsgewinnung und Informationsanalyse waren Gegenstand der Kapitel 3 und 4. Im folgenden werden die personellen Auswirkungen eines verstärkten Einsatzes moderner Informations- und Kommunikationstechnologien aufgezeigt, zugleich wird ihr organisatorisches Gestaltungspotential analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-72933-1_5 025f63e2f898bcfa159e18244da43672;de;;;6.1.;;;Die umsatzsteigernde Nummer „800“Eine Schlüsselstellung nimmt das Telefon in Amerika in Multimedia-Kampagnen ein, bei denen der potentielle Kunde mit Hinweisen in anderen Werbemitteln aufgefordert wird, selbst mit dem Anbieter telefonischen Kontakt aufzunehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-85646-3_13 eefe8b9e3c340db0a1a7bffd7eaa6ccd;de;;;6.1.;;;Führungsinformationssystem als zentrales Informationsmedium in einem Controlling-SystemWer in schnellebigen Zeiten agieren statt reagieren will, muß ein umfassendes Informationsmanagement mit dem Ziel betreiben, die Führungskräfte mit Informationen in hochverdichteter Form bei schnellem und komfortablem Datenzugriff zu versorgen. Mausbedienung und grafische Oberfläche sind dabei ein Muß. Um das Ziel zu erreichen, bedarf es eines ausgereiften Informationskonzeptes und hochentwickelter Rechnerprogramme.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-79701-9_41 183ea3877bbe45ad57dce81778d9c72f;de;;;2.2.;;;Online-Datenstrukturen im externen Speicher Die Datensätze vieler heutiger Computeranwendungen sind zu groß, um in den internen Speicher des Computers zu passen, und müssen stattdessen auf externen Speichergeräten wie Festplatten gespeichert werden. Ein großer Leistungsengpass kann die Eingabe/Ausgabe-Kommunikation (oder I/O) zwischen dem externen und dem internen Speicher sein. In diesem Papier diskutieren wir eine Vielzahl von Online-Datenstrukturen für externen Speicher – einige sehr alt und einige sehr neu – wie Hashing (für Wörterbücher), B-Bäume (für Wörterbücher und 1-D-Bereichssuche), Pufferbäume ( für gestapelte dynamische Probleme), Intervallbäume mit gewichtsausgeglichenen B-Bäumen (für Stichabfragen), Prioritätssuchbäume (für 3-seitige 2-D-Bereichssuche) und R-Bäume und andere räumliche Strukturen. Dabei besprechen wir auch einige offene Probleme.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48447-7_35 79476bd3a1b850ae16f201f782155815;de;;;2.2.;;;Verwendung des fallbasierten Argumentationsansatzes bei der Planung von Unterrichtsaktivitäten Case-Based Reasoning (CBR) ist eine Methodik der Künstlichen Intelligenz, die spezifische Vorerfahrungen als Grundlage für die Argumentation über neue ähnliche Situationen verwendet. Beim individualisierten Unterricht lernen die Tutorinnen und Tutoren aus ihren Erfahrungen und nutzen diese Erfahrungen als Grundlage für die Ermittlung geeigneter Unterrichtsaktivitäten. Die meisten Ansätze zur Gestaltung von Tutorensystemen, die sich an ihre Lernenden anpassen, verwenden den regelbasierten Ansatz. Wenn Regeln verwendet wurden, wird viel Arbeit an Verkettungsregeln gemacht, nur um herauszufinden, dass es nicht nützlich ist [;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45683-X_54 ef21027a0757b31273464ef21770d270;de;;;6.1.;;;City Management: Planung zwischen Globalisierung und Virtualisierung — Einführung und ÜberblickWährend das „Lean“-Paradigma in der Wirtschaft und in der Produktion bereits in weiten Bereichen Einzug gehalten hat, gibt es einen Nachholbedarf in der öffentlichen Verwaltung. In verstärktem Maße gilt dies, wenn wir etwa an Aufgaben der städtebaulichen Planung denken, die im Gegensatz zu halböffentlichen Institutionen — etwa zur kommunalen Wirtschaftsförderung — kaum mit fortschrittlichen ökonomischen Prinzipien in Verbindung gebracht werden. Defizite können in zweierlei Hinsicht festgestellt werden: Zum einen im Hinblick auf die Umsetzung des „Lean“-Prinzips im Rahmen der Verwaltungsorganisation selbst, zum anderen aber auch, was die Konsequenzen des „Lean“-Prinzips im Hinblick auf Stadt- und Regionalentwicklung oder die Entwicklung urbaner Agglomerationen im globalen Maßstab anbetrifft. Ein Nachdenken über die im „Lean“-Paradigma innewohnenden Entfaltungskräfte auf Raum- und Zeitstrukturen muß im Interesse einer vorausschauenden (Kommunal-)Politik liegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-83291-7_1 ef5499795988368a9ae630a9969dce77;de;;;6.1.;;;Beschaffung in der chemischen GrundstoffindustrieDie Beschaffung innerhalb der chemischen Industrie unterscheidet sich grundlegend von der in den meisten übrigen Industriezweigen. Dies ergibt sich aus der komplexen Struktur der Wertschöpfungsketten, die über viele verschiedene Veredelungsstufen reichen und diverse Kreuz- und Wechselbeziehungen aufweisen. Kein Industrieunternehmen der Chemie ist über alle Wertschöpfungsstufen selbstversorgt. Entsprechend werden auf den verschiedenen Veredelungsstufen chemische Produkte verkauft, aber auch zugekauft. Da dies im Wesentlichen auf die gesamte Chemiebranche zutrifft, kommt es vor, dass ein Lieferant des Produktes X gleichzeitig Wettbewerber auf derselben Marktstufe oder auch Kunde für das Produkt Y ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-82475-2_2 06d6ac0b468c0e6e41c0bf8f597ded5b;de;;;6.1.;;;Stand der Entwicklung von DatenbankenDie wichtigsten Datenmodelle, das hierarchische Modell und das relationale Modell werden dargestellt. Der Stand der Entwicklung von Datenbanksystemen wird mit den Entwicklungszielen verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-41567-2_1 5d5bfa340b8c4f23416e267fa1b94283;de;;;2.2.;;;Eine Technik zum Aktualisieren von Datenbankmaschinen online Um die Leistung von Datenbanksystemen zu verbessern, müssen wir möglicherweise eine vorhandene Datenbankmaschine durch eine leistungsfähigere ersetzen. Somit wird eine Datenbankmigration zwischen zwei Maschinen notwendig. Die Datenbankmigration erfordert jedoch im Allgemeinen, dass eine Datenbank für lange Zeit offline genommen wird, was für zahlreiche Anwendungen inakzeptabel ist. Dieser Artikel behandelt ein sehr praktisches und wichtiges Thema: Wie man einen Datenbankrechner online ersetzt, d. Zu diesem Zweck wird eine Technik vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-40888-6_8 20b55537c81800117bfa0e7010659e76;de;;;2.2.;;;Blockchain-gestütztes Content-Cache-System für Fahrzeug-Edge-Computing-Netzwerke Der Content-Cache für das Vehicle Edge Computing (VEC)-Netzwerk ist ein vielversprechender Dienst, um Übertragungsverzögerungen und -kosten zu reduzieren. Ein vorhandenes Content-Cache-System erfordert, dass Road Side Units (RSUs) am Inhaltsübertragungsprozess teilnehmen, RSUs werden jedoch normalerweise ohne starken Sicherheitsschutz entlang der Straße verteilt, was anfällig für Angriffe durch Angreifer ist. Auf diese Weise sind die zwischengespeicherten Inhalte anfällig für Manipulationen und die weit verbreitete Verbreitung bösartiger Inhalte wird dem Vertrauensmechanismus des Caching-Systems einen verheerenden Schlag versetzen. In diesem Papier schlagen wir ein Blockchain-gestütztes Content-Cache-System vor, bei dem der Inhaltsindex (der die Adresse des Anbieters, den Hash-Wert des Inhalts enthält) übernommen wird, um die Gültigkeit des Inhalts zu gewährleisten. Der Inhaltsindex wird im Blockchain-System hinterlegt, die Unveränderlichkeit und verteilte Architektur von Blockchain kann effektiv verhindern, dass der Inhaltsindex manipuliert wird. Eine solche manipulationssichere Eigenschaft geht jedoch auf Kosten einer langen Bestätigung, die durch den Konsensprozess verursacht wird. Ein zeitorientierter Proof of Work (PoW) Konsensalgorithmus wird vorgeschlagen, um die Blockchain-Effizienz zu verbessern. Und ein satzbasierter Suchmechanismus mit lokaler Indexierung wird eingerichtet, um die lange Suchverzögerung zu reduzieren, die durch die kettenbasierte Struktur verursacht wird. Darüber hinaus zeigen die Simulationsergebnisse auch, dass das Blockchain-gestützte Cache-System die Trefferquote von Servern verbessern kann, indem es maßgeschneiderte Anfrageinformationen bereitstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2777-7_33 d1e81d516ce3a685dd9ad513c7359119;de;;;6.1.;;;Modernes Messdatenmanagement im FlottenbetriebUmfangreiche Validierungsmaßnahmen zur Absicherung neuer Funktionen und Komponenten in der Serie sind mittlerweile unumstritten. Hierbei sind neben dem Einsatz von Technologien zur virtuellen Produktentwicklung auch Praxistests mit dem Fahrzeug und das Aufzeichnen zahlreicher relevanter Messdaten unerlässliche Bestandteile. Das neue Datenmanagementsystem der AFT Atlas Fahrzeugtechnik GmbH ermöglicht es dem Flottenbetreiber und dessen Kunden, die anfallende Versuchs- und Messdatenflut effizient zu managen.;-;-;-;https://link.springer.com/article/10.1007/BF03223837 a6bc6c7a79dde9f4b3ae0f944dd52cfd;de;;;6.1.;;;Persistent Reusable Java Virtual Machine unter z/OS und LinuxDie Nutzung von Java zur Entwicklung von Anwendungen für Hochleistungstransaktionssysteme stellt besondere Anforderungen an die Isolation und das Leistungsverhalten in der transaktionalen Ausführung.;-;-;-;https://link.springer.com/article/10.1007/s00450-005-0195-7 8dee0cb399ef0f388da88cd6fd206a75;de;;;6.1.;;;Überprüfung eines Optimierungsverfahrens für einen Spanplattenformstrang durch Simulation mit Betriebs-DatensätzenMit dem Ziel einer Prozeßkontrolle für Spanplatten-Formstränge wurden drei neu entwickelte Rechenprogramme (MINISYS, OLC, CLC) zusammengefaßt. Dies ermöglicht die automatische Durchrechnung von vollständigen Datensätzen und entspricht dem Echtzeit-Betrieb an einem Formstrang mit Datenerfassung. Im Rahmen einer Simulation lieferten die verwendeten Rechenverfahren, unter Verwendung von Datensätzen aus vier Betrieben ausreichend gute Werte.;-;-;-;https://link.springer.com/article/10.1007/BF02606153 7961affc15f382287f108a4b6f4d3ba3;de;;;6.1.;;;Arzneimittelgebrauch und gesundheitliche Selbsteinschätzung selbstständig lebender, älterer HamburgerDie gesundheitliche Selbsteinschätzung älterer Menschen korrespondiert mit der Morbidität und Mortalität und besitzt daher prognostischen Wert. In der vorliegenden Untersuchung wurden relevante Daten zur Verwendung von Arzneimitteln, zur Anzahl der jährlichen Arztbesuche und zum Gesundheitszustand in Form von Selbstauskünften anhand eines validierten Instruments erhoben. Die Stichprobe bildeten 804 selbstständig lebende, deutschsprachige Personen im Alter von 60 Jahren und älter, die über 14 kooperierende Hamburger Hausarztpraxen rekrutiert wurden. Ausschlusskriterien waren bekannte demenzielle Erkrankungen oder Pflegebedürftigkeit (Pflegestufe). Je Teilnehmer;-;-;-;https://link.springer.com/article/10.1007/s00391-005-0308-8 6b1234fea91f481a4206dc1648110e2f;de;;;6.1.;;;7W-Strategie zur digitalen Transformation des Vertriebs: WIE schließen wir die Lücken?Die Entwicklung und die Umsetzung der digitalen Transformation im Vertrieb bedarf einer durchdachten Vorgehensweise und der Berücksichtigung vieler Faktoren, die teils offensichtlich, aber auch verborgen sein können. Das 7W-Digital-Sales-Transformation-Modell stellt sicher, dass bei der Erarbeitung der Strategie nichts übersehen wird, indem es auf alle relevanten Kernfragen und Bereiche eingeht, die bei der Konzeption der Transformationsstrategie wichtig sind: vom Leistungsversprechen, den Zielkunden, dem Vertriebszugang und -modell, den Vertriebskanälen und -prozessen, der Technologieauswahl und dem Aufbau von State-of-the-Art-Organisationsstrukturen, der Marktpositionierung und -differenzierung, der Vertriebs- und Marketingaktivitäten bis hin zur strategischen Zielsetzung und digitalen Positionierung – und nicht zuletzt der Vertriebssteuerung. Abgerundet wird das Modell mit nützlichen Hinweisen zum Prozess seiner Entwicklung und Umsetzung sowie auch zur Vermeidung von gängigen Fehlern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-33671-4_3 3ac653d813cdef980ad7a7218c48eba4;de;;;2.2.;;;AILabel: Ein Ansatz zur schnellen Intervallbeschriftung für Erreichbarkeitsabfragen bei sehr großen Graphen In letzter Zeit haben Erreichbarkeitsabfragen in großen Diagrammen viel Aufmerksamkeit auf sich gezogen. Viele moderne Ansätze nutzen Spanning Tree, um Indizes zu erstellen. Fast alle diese Arbeiten erfordern jedoch gleichzeitig Indizes und Originalgraphen im Speicher, was die Skalierbarkeit einschränkt. Daher wird in dieser Arbeit ein neuer Ansatz zur Intervallkennzeichnung namens AILabel (Augmented Interval Label) vorgeschlagen. AILabel kennzeichnet jeden Knoten mit Quadrupeln. Die Indexerstellungszeit von AILabel ist O(;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25255-1_46 070e59861a371da268e023a930d9f816;de;;;2.2.;;;Ein KNN-Abfrageverarbeitungsalgorithmus über hochdimensionale Datenobjekte in P2P-Systemen In diesem Papier schlagen wir einen Quad-Tree-basierten verteilten mehrdimensionalen Datenindex (QDBI) für eine effiziente Datenverwaltung und Abfrageverarbeitung in P2P-Systemen vor. In dem jeder Peer einen MX-CIF-Quad-Tree verwendet, um Indexelemente seiner hochdimensionalen Daten zu generieren und Indexelemente in einer eindimensionalen Ringstruktur organisiert sind, Super-Peers dynamisch dem Ring beitreten, die Routing-Verbindungen zwischen Super-Peers erstellt, die dem Chord-Ring ähnlich sind, bildet somit ein semantikbasiertes strukturiertes Super-Peer-Netzwerk, und ein effizienter KNN-Abfrageverarbeitungsalgorithmus für hochdimensionale Datenobjekte basierend auf der Indexstruktur wird vorgeschlagen. Experimente zeigen, dass die Indexstruktur und der KNN-Abfragealgorithmus eine gute Suchleistung und Skalierbarkeit aufweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28314-7_19 37ea78d92fff1ff36b91ee173d60c4e3;de;;;6.1.;;;Herausforderungen und Chancen für die Digitalisierung von Handelsunternehmen.„Durch die zunehmende Digitalisierung aufgrund technologischer Innovationen haben sich die Arbeitswelten im Handel grundlegend verändert und werden dies weiter tun“ (Weinfurtner et al. 2015, S. 2). Diese Aussage von Weinfurtner spiegelt exemplarisch eine Vielzahl aktueller Einschätzungen wider, die den fundamentalen Einfluss der Digitalisierung auf bisherige sowie zukünftige Prozesse in Handelsunternehmen diskutieren. Darüber hinaus ist aus unternehmerischen Sicht dem Umstand Rechnung zu tragen, dass die Komplexität entscheidungsrelevanter Rahmenbedingungen zugenommen hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-53332-1_10 d5f9c0f13cacbb1fee09fd3e54b28e9f;de;;;6.1.;;;Modulare mechatronische Produktentwicklung im Maschinen- und Anlagenbau mit Anwendungen zur Smart FactoryDie Maschinen und Anlagen des Maschinen- und Anlagenbaus, speziell auch die Maschinen- und Anlagen des Verpackungsmaschinenbaus, sind einerseits durch eine hohe Produktkomplexität, die sich u. a. durch die komplexe Verfahrenstechnik und die vielfältigen kinematischen Bewegungsvorgänge ergeben, andererseits durch die marketinggetriebenen Entwicklungen der Konsumgüterproduzenten. Dieser Produktkomplexität, aus Sicht der Hersteller handelt es sich um eine ;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-662-45537-1_128-1 cfd9d3eb31917c0588dc05f556056c6a;de;;;6.1.;;;Einordnung und Funktionsumfang von MESDer Zwang zu mehr Effizienz und Qualität sowie der Preisdruck, der durch den globalen Wettbewerb entsteht, zwingen Fertigungsunternehmen immer mehr, die Produktion zu optimieren und Abläufe zu verbessern. Eine pünktliche, fehlerfreie Lieferung an den Kunden ist längst nicht mehr das höchste Ziel eines Fertigungsunternehmens, sondern die Produktion, in der erst gar keine Fehler entstehen. Mögliche Qualitätsmängel sollen bereits vor der Entstehung vermieden oder fehlerhafte Teile sollen sofort nach deren Entdecken aus der Produktion ausgeschleust werden. Damit werden Aufwände und Kosten reduziert, die durch das Weiterbearbeiten von Teilen entstehen, deren Qualität durch die Probleme in den vorhergehenden Verarbeitungsschritten ohnehin nicht mehr gewährleistet ist. Weitere Schwachstellen in der Produktion sind überhöhte Umlaufbestände durch hohe Liegezeiten, Energieverschwendung durch schlechte Planung oder überdimensionierter Personaleinsatz durch nicht optimierte Prozessauslegung. Diese Liste ließe sich nahezu beliebig fortsetzen. Die Effekte hierzu wurden in zahlreichen Untersuchungen zu Verschwendungen in der Produktion beschrieben unter anderem im Buch „Die perfekte Produktion“ (Kletti und Schumacher 2011).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-59508-4_1 28b73fd0738c504a3d319f1b1e2cf1f5;de;;;6.1.;;;Techniken der TelekonsultationDie aktuellen telemedizinischen Entwicklungen verwenden die neuen Kommunikationstechnologien für eine Verbesserung der medizinischen Versorgung, wobei die Telekonsultation ein wichtiger Bestandteil der Telemedizin ist. Telepräsenzsysteme stellen die höchsten Anforderungen an ein Kommunikationssystem und erlauben interaktive Telekonsultation. Der Vergleich der Qualität der Bildübertragung über verschiedene Kommunikationsnetze zeigt, daß für Bewegtbilder die Bandbreite einer ISDN-Übertragung nicht ausreicht. Das SICONET/OP 2000-Kommunikationsmodul erlaubt demgegenüber den Aufbau eines interaktiven Telepräsenzsystems mit einer 3D-Visualisierung in Broadcast-Qualität.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-60881-0_141 993410136b5b2156e5d5c357bd841393;de;;;6.1.;;;Managementarchitekturen in Hersteller- und anwendungsspezifischen RechnernetzenWie offenbar bei allen Rechnemetzarchitekturen (OSI nicht ausgeschlossen), haben sich auch bei SNA konzeptionelle Ideen und Komponenten für das Netzmanagement sowie Werkzeuge zu ihrer Umsetzung erst mit zeitlicher Verzögerung gegenüber den auf den eigentlichen Zweck eines Rechnernetzes bezogenen Komponenten und Funktionen entwickelt. In [6–1] wird davon gesprochen, daß dies für SNA für etwa 1979 zutrifft, was einen fünfjährigen Abstand zur Ankündigung von SNA darstellt. Es wird weiter betont, daß nicht systemkonzeptionelle Überlegungen der Entwickler zu diesem Schritt geführt haben, sondern Forderungen des firmeneigenen technischen Kundendienstes, der offenbar die immer komplexer werdenden Netzkonfigurationen ohne geeignete Netzmanagement-Hilfsmittel nicht mehr beherrschen konnte. In dieser frühen Phase entstanden eine Reihe voneinander unabhängiger Einzelwerkzeugen, z.B.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-92145-1_6 f183185df16ce1ecec51ca6285c7046e;de;;;6.1.;;;Daten importieren, exportieren, aufbereiten und aggregierenEmpirische Daten können auf verschiedenen Wegen in R verfügbar gemacht werden. Zunächst ist es möglich, Werte durch Zuweisungen etwa in Vektoren zu speichern und diese dann zu Datensätzen zusammenzufügen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-61736-6_3 08629ac7ae79d5d1bfa7bc82c8fdd744;de;;;6.1.;;;GeodatenbankenIn diesem Kapitel wollen wir die in den Kapiteln 1 bis 8 gesammelten Erfahrungen bei der Modellierung von Geodaten umsetzen. Unser Ziel ist eine Schematisierung der entwickelten Modelle, um sie einer automatisierten Verarbeitung zuführen zu können. Datenmodelle, die bisher quasi als Absichtserklärung zur Diskussion standen, münden also nun in konkrete Schemata. Bereits im vorangegangenen Kapitel 8 taten wir einige Schritte in Richtung Datenorganisation, wobei wir dort hauptsächlich den Raum und die raumbezogene Speicherung von Objektgeometrien vor Augen hatten. Nun wollen wir dies auch für den thematischen Teil der Daten tun, dabei stoßen wir in das Gebiet der Datenbanktechnologie vor. Auf weiten Strecken können wir uns — zumindest, was den thematischen Aspekt von Geodaten angeht — von den allgemeinen Richtlinien dieser Technologie leiten lassen. Es genügt also, wenn wir hier die wichtigsten Konzepte und Techniken, die ja auch in allen anderen Sektoren der Informationstechnologie verwendet werden, zusammenfassen. Allerdings werden wir auch sehen, daß sich Geodaten nicht immer so glatt in die Konzepte einer Datenbank einfügen, wie wir dies wünschen. Im weiteren Verlauf des Kapitels wollen wir dies diskutieren und entsprechende Lösungsvorschläge anbieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-07438-1_9 af41ad9fee03c46c7d2fc48c4e00d9b7;de;;;6.1.;;;Implementierung eines verteilten Datenverwaltungssystems für technische AnwendungenIn diesem Aufsatz wird die prototypische Implementierung eines Datenverwaltungssystems vorgestellt, das insbesondere für technische Anwendungsbereiche konzipiert wurde. Das System kann als Obermenge gängiger Datenverwaltungskonzepte wie verteilte Dateisysteme sowie zentralisierte und verteilte Datenbanksysteme angesehen werden. Die Grundidee ist die Anreicherung des Konsistenzkonzepts aus klassischen Datenbanksystemen um einen flexiblen, anwendungsorientierten Datenverteilmechanismus. Anhand der prototypischen Implementierung wird die Gültigkeit der Grundkonzepte gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-74135-7_47 23cb159a2d9e1da82724b98c7875db39;de;;;6.1.;;;Gesundheitskompetenz – ein vielversprechender Driver für die Gestaltung der Zukunft des österreichischen GesundheitssystemsIn diesem Buch geht es um die Zukunft der Gesundheit und des Gesundheitssystems in Österreich vor dem Hintergrund globaler Entwicklungen, die auf Österreich und sein Gesundheitssystem einwirken. In diesem Kapitel des Buches soll erörtert werden was das Konzept der Gesundheitskompetenz, das derzeit ausgehend von den USA auch in Europa und Asien und insbesondere auch in Österreich in der Gesundheitspolitik eine Hochkonjunktur erlebt, zum Verständnis und zur Gestaltung künftiger Entwicklungen leisten kann. Die Überschneidungen und Wechselwirkungen mit den Themen anderer Kapitel, wie Chancengleichheit, Gesundheitsberichterstattung, IT und Steuerung sollen dabei zu mindestens angedeutet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-10783-3_10 e99c5f4537cd6e1c3111fea29736f151;de;;;2.2.;;;Angeschlossene Operatoren für die Signal- und Bildverarbeitung Die Daten- und Signalmodellierung für Bilder und Videosequenzen erfährt wichtige Entwicklungen. Ein Teil dieser Entwicklung ist auf die Notwendigkeit zurückzuführen, eine große Anzahl neuer Multimediadienste zu unterstützen. Traditionell wurden digitale Bilder als rechteckige Pixelarrays dargestellt, und digitales Video wurde als kontinuierlicher Fluss digitaler Bilder betrachtet. Neue Multimediaanwendungen und -dienste implizieren eine Darstellung, die näher an der realen Welt ist oder zumindest einen Teil des Prozesses berücksichtigt, der die digitalen Informationen erzeugt hat. Inhaltsbasierte Komprimierung und Indexierung sind zwei typische Anwendungsbeispiele, bei denen neue Modellierungsstrategien und Verarbeitungswerkzeuge erforderlich sind:;-;-;-;https://link.springer.com/chapter/10.1007/11613107_3 40816893a1f195f0f8d906ff26726d27;de;;;6.1.;;;Hub, Fine-Tuner oder Business as Usual? Social Network Sites und die Bundestagswahl 2009Social Network Sites bzw. Netzwerkplattformen wie Facebook, MySpace oder StudiVZ haben sich in den vergangenen Jahren als populäre Form der Online-Kommunikation etabliert. Sie stehen prototypisch für das „Web 2.0“, in dem der einzelne Nutzer eigene Inhalte bereitstellen und mit einem erweiterten sozialen Netzwerk teilen kann. Spätestens mit Barack Obamas Wahlkampf 2007/2008 haben Netzwerkplattformen zudem einen festen Platz im Ensemble der Wahlkampfaktivitäten erhalten. Auch im Bundestagswahlkampf 2009 fungierten sie als „neue Arena der onlinebasierten politischen Kommunikation“ (Bieber, 2010), in der nicht nur die Spitzenkandidaten wie Angela Merkel oder Frank-Walter Steinmeier, sondern auch viele nur regional bekannte Bundestagskandidaten präsent waren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-92853-1_9 420dcf25be550960472643a7675a7c62;de;;;6.1.;;;Europäisierung der kommunalen EbeneDie fortschreitende Europäische Integration betrifft nicht nur die nationalstaatliche, sondem in besonderem Maße auch die regionale und die lokale Ebene. Die Bundesebene ist seit der Schaffung der Europäischen Gemeinschaft für Kohle und Stahl (EGKS) besonders in die supranationale Organisation eingebunden, denn schließlich sind die Mitgliedstaaten die Unterzeichner der Verträge. Um ihre Interessen gewahrt zu wissen, mussten sich die Mitgliedstaaten schon in den 50er Jahren mit der europäischen Politik auseinandersetzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-90070-4_5 3ef3601505f574ab07aea7d9d5b6a508;de;;;6.1.;;;Einführung und Implementierung von Big DataIn diesem Abschnitt wird die Vorgehensweise der Einführung von Big Data thematisiert. Insbesondere werden übliche Vorgehensmodelle dargestellt und mit Praxisbeispielen hinterlegt. Bislang wurden nur wenige spezifische Vorgehensmodelle entwickelt. Die meisten veröffentlichten Modelle setzen einen bestehenden „Use Case“ voraus, obwohl die strategische Begleitung des Unternehmens vorher ansetzen sollte um z. B. losgelöst von bisherigen Denkweisen neue Geschäftsmodelle zu entwickeln. Neben den Vorgehensmodellen müssen im Unternehmen neue Berufsbilder (Data Scientist) nebst einem Kulturwandel im Umgang mit Daten etabliert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-17340-1_3 cd76945da57a10a1ebcb745f32c610d0;de;;;6.1.;;;Konzeption von Competitive Manufacturing IntelligenceNachdem in Teil zwei und drei dieser Arbeit ein gemeinsames Verständnis zu den wichtigsten Grundlagen des strategischen Produktionsmanagements und der strategischen Wettbewerbsanalyse geschaffen wurde, wird nun ein Konzept zur Gestaltung der Wettbewerbsanalyse im strategischen Produktionsmanagement der Automobilindustrie entwickelt und beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-9385-0_4 a2dedf43afa6344b050b3dd43757bb1f;de;;;6.1.;;;Tätigkeitsfelder und Berufsbilder der WirtschaftsinformatikSie kennen den Gegenstandsbereich der Wirtschaftsinformatik, wissen also, mit welchen Problemen sich Wirtschaftsinformatik als Wissenschaft befasst. Nach dem Durcharbeiten dieses Kapitels kennen Sie Tätigkeitsfelder und Berufsbilder, die es für Wirtschaftsinformatiker in der Praxis gibt. Sie wissen, welches die charakteristischen Merkmale der Tätigkeitsfelder und Berufsbilder sind, in denen Sie arbeiten können, wenn Sie ein Studium der Wirtschaftsinformatik absolviert haben. Sie kennen Entwicklungsphasen der Ausbildung in Wirtschaftsinformatik und damit ein Stück ihrer Geschichte (vgl. das gleichnamige Kapitel). Sie erkennen, dass für einige der erläuterten Tätigkeitsfelder und Berufsbilder, insbesondere solche für Leitungsfunktionen (z. B. Leitung von IT-Projekten), ein Hochschulstudium nicht ausreicht, sondern dass ergänzend dazu eine mehrjährige Berufserfahrung erforderlich ist. Sie können mit den Informationen dieses Kapitels besser als zuvor darüber entscheiden, ob Sie mit Wirtschaftsinformatik das für Sie passende Studium gewählt haben bzw. ob Wirtschaftsinformatik für Sie das passende Studium ist, falls Sie vor der Studienwahl stehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15426-3_2 051bc408a2fb9de6b321bda80a659236;de;;;6.1.;;;Grundkompetenzen für lebenslanges Lernen - eine Herausforderung für Schule und Hochschule?Zwei Zitate spannen den Bogen des Beitrags auf und belegen gleichzeitig Relevanz und Dringlichkeit des Themas. Senecas Worte „non scholae, sed vitae discimus“ haben seit Jahrhunderten ihre Aktualität nicht verloren. Zweifellos soll nicht ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-90208-1_5 59d085a2afe609c133732fda7980ad53;de;;;6.1.;;;Der Einsatz moderner IuK-Technologien in BankenDie Kreditwirtschaft war in den letzten Jahren neben einer wachsenden bankaufsichtlichen Regulierung vor allem durch starke Strukturveränderungen geprägt. Ein wesentlicher Grund hierfür war die rasante Entwicklung von technologischen Neuerungen, die die EDV-technische Unterstützung der bankwirtschaftlichen Leistungserstellung direkt beeinflußten. Nur so ist zu erklären, daß sich neben klassischen Filialbanken sogenannte Direktbanken und Discount-Broker etablieren konnten, die aufgrund der Nutzung elektronischer Distributionskanäle auf kostenintensive Filialnetze verzichten. Die Gründung einer Filialbank mittels Nutzung elektronischer Medien ist jedoch keine Innovation im eigentlichen Sinne. Das heute häufig als innovativer Vertriebskanal bezeichnete Telefonbanking wurde auch von den klassischen Filialbanken seit Existenz des Telefons genutzt. Innovativ erscheint lediglich die öffentliche Präsentation der Direktbanken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-90182-8_17 eb9681e5bf6278abdb35402e59bf073e;de;;;2.2.;;;Neuordnung von permutationsbasierten Kandidatensätzen mit der n-Simplex-Projektion Im Bereich der metrischen Suche haben die permutationsbasierten Ansätze eine sehr gute Leistung bei der Indizierung und Unterstützung der ungefähren Suche in großen Datenbanken gezeigt. Diese Verfahren betten die Metrikobjekte in einen Permutationsraum ein, in dem Kandidatenergebnisse für eine gegebene Abfrage effizient identifiziert werden können. Um eine hohe Effektivität zu erreichen, wird die permutationsbasierte Ergebnismenge typischerweise verfeinert, indem jedes Kandidatenobjekt direkt mit dem Abfrageobjekt verglichen wird. Ein Nachteil dieser Ansätze besteht daher darin, dass der ursprüngliche Datensatz gespeichert und dann während des Verfeinerungsschritts darauf zugegriffen werden muss. Wir schlagen einen Verfeinerungsansatz vor, der auf einer metrischen Einbettung basiert, genannt n-Simplex-Projektion, die auf metrischen Räumen verwendet werden kann, die die n-Punkteigenschaft erfüllen. Die n-Simplex-Projektion liefert Ober- und Untergrenzen des tatsächlichen Abstands, die aus den Abständen zwischen den Datenobjekten und einem endlichen Satz von Drehpunkten abgeleitet werden. Wir schlagen vor, die berechneten Distanzen für den Aufbau der Datenpermutationen wiederzuverwenden, um diese Grenzen abzuleiten, und wir zeigen, wie sie verwendet werden können, um die permutationsbasierten Ergebnisse zu verbessern. Besonders vorteilhaft ist unser Ansatz für alle Fälle, in denen der traditionelle Raffinationsschritt zu aufwendig ist, z.B. sehr großer Datensatz oder sehr teure metrische Funktion.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-02224-2_1 864f47bac0393d6b59857eef0b00e2c7;de;;;6.1.;;;Aktuelle Herausforderungen an die Bankorganisation im veränderten UmfeldAn den internationalen Finanzmärkten hat sich in den vergangenen Jahren ein tiefgreifender Wandel vollzogen. Globalisierung, Konzentration und Deregulierung sind nur einige Stichworte, die für diese spürbaren Entwicklungen stehen. Die steigende Komplexität weltweiter, finanzwirtschaftlicher Aktivitäten und Produkte sowie die wachsenden Risiken verlangen entsprechende Instrumente, Führungsprozesse und -strukturen. Unter dem Druck des intensivierten Konkurrenzkampfes und ermöglicht durch die rasante, technologische Entwicklung entstanden neue, weltumspannende, globale Märkte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-84764-5_17 13178d95a8219960ee28813f08fcb582;de;;;6.1.;;;Software für die Entwicklung und unternehmensweite Anwendung von FührungsinformationssystemenDie Themen Führungsinformationssysteme (Executive Information Systems — EIS), Management-Informationssysteme (MIS) und Entscheidungsunterstüt-zungssysteme (Decision Support Systems — DSS) werden schon seit über zwei Jahrzehnten mit Phasen unterschiedlicher Intensität diskutiert [1]. Heute sind sie jedoch betrachtenswerter denn je. Nicht nur vor dem Hintergrund erheblicher Marktveränderungen [2], sondern auch in Anbetracht durchgreifender technischer Neuerungen in der Datenverarbeitung, die für sich genommen neue Hoffnung auf die Verwirklichung von Führungsinformationssystemen bedeuten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-79701-9_9 74d68484aa427e8795fa9a9c243644ea;de;;;6.1.;;;Webgestützter OrganisationsaufbauJunge Firmen oder neue Unternehmensbereiche müssen von Beginn an kosteneffizient arbeiten und problemlos wachsen können. Dies kann durch neue Internet-Tools maß geblich unterstützt werden, wenn sie beherrschbar und wirklich effizienzstiftend sind. Junge Teams haben dabei die Chance, die neuen Internet-Tools und die damit einhergehende, offene Kommunikation und Projektarbeit auch gleich in ihrer Arbeitskultur zu verankern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-6881-4_7 9ccbf56e4877c722aebcb70e1a47ccec;de;;;6.1.;;;Führungsinformationssysteme zur Bewältigung des dynamischen UmfeldsMeine Aufgabe besteht darin, Beziehungen herzustellen zwischen dem strategischen Management (strategische Planung und strategisches Controlling) auf der einen Seite und den Führungsinformationssystemen (FIS) auf der anderen Seite.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-87513-6_1 c32b5ee6e45990c4dce340be32014c89;de;;;6.1.;;;Das Planungsinformationssystem der Stadt Kaiserslautern — Stand und ZielDie künftige Struktur der öffentlichen Verwaltung ist zu einem Modethema der öffentlichen Diskussion geworden. Für die Medien und die Politik bietet sich ein sehr publikumswirksames Agitationsfeld, denn jeder Leser, Hörer, Fernsehzuschauer und Bürger verfugt über entsprechende persönliche Erfahrungen oder gar Vorurteile im Umgang mit Behörden. Da diese die individuellen Freiheiten und Wünsche zu Gunsten der Gesellschaft begrenzen müssen, wird der „Staat“ überwiegend distanziert betrachtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-83291-7_4 2a184bd146e2d3c1fab9dcf03b0959dd;de;;;6.1.;;;Erfolgsfaktoren von FranchisesystemenIn vielen Bereichen der Wirtschaft ist die Erfolgsermittlung von großer Bedeutung. Die Messung des Konstruktes Erfolg sowie der dahinterliegenden Faktoren (Erfolgsfaktoren) gestaltet sich in der Realität sehr schwierig. Es handelt sich um theoretische Konstrukte, die nicht ohne weiteres operationalisiert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-90863-6_5 092eb37c283c31792a5529f764ee6608;de;;;6.1.;;;Integrierte DV-SystemeEin integriertes System ermöglicht neue Abläufe, und ist damit wohl die wichtigste Grundlage des Business Process Reengineering (BPR), das neue Wirtschafts- und Unternehmensstrukturen im Informationszeitalter ermöglicht /Ös96/. Der Stand des Wissens bei der Systemintegration wird aufgezeigt, wobei die grundlegenden Möglichkeiten der Verknüpfung und der Festlegung von Schnittstellen sowie Standardisierungsbemühungen aufgenommen werden. Umfassende Verknüpfungskonzepte aus der Literatur, die sowohl Methode, Technologie als auch Architektur umfassen können, werden auf ihre Anwendbarkeit hin untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-47972-4_4 1a2d0f70b17d43319f06b6855358c538;de;;;6.1.;;;Auf dem Weg zu einem neuen Produktionsregime?Im Modell des sorgenden Staates haben öffentliche Verwaltungen die meisten öffentlichen Leistungen selbst produziert und den Bürgern zur Verfügung gestellt. Im Zuge der Entwicklung des gewährleistenden Staates sind aber mittlerweile immer mehr halbstaatliche, gemeinnützige und privat-kommerzielle Organisationen daran beteiligt, öffentliche Aufgaben zu erfüllen und öffentliche Leistungen zu erbringen. Demzufolge hat sich die Institutionenlandschaft bei öffentlichen Dienstleistungen in jüngerer Zeit deutlich ausdifferenziert – mit der Folge, dass inzwischen sehr unterschiedliche Akteure in die Produktion öffentlicher Leistungen eingebunden sind (vgl. auch Reichard/ Röber 2010 und KGSt 2010).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-6371-0_10 60ae475a73988fb20e55243f55a2092d;de;;;6.1.;;;Einleitung und Überblick: Willensbildung und Partizipation per InternetPolitik wird im Internet alles andere als neu erfunden, doch sie wird in den nächsten Jahren immer mehr auch im Internet und über das Internet gemacht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-09803-4_1 70a1a624e98426a152ef349cf52b30c9;de;;;6.1.;;;Charakteristiken des Komplex-Objekt-Begriffs und Ansätze zu dessen RealisierungDie Modellierung und Verwaltung von komplexen Objekten stellt eines der Hauptprobleme für den effektiven Einsatz von Datenbanksystemen in den sog. nichtkonventionellen Anwendungsgebieten dar. Unter dem Begriff ‘Komplex-Objekt“ wird dabei die Sicht der Anwendung auf den betreffenden Realitätsausschnitt verstanden (etwa Entwurfs- und Konstruktionsobjekte im CAD/CAM/CAE-Bereich, Objekte in der Computergrafik, Texte in der Büroautomatisierung etc.).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-70284-6_27 17d1b332300653e29a3aa3b4f48e7d65;de;;;6.1.;;;Stellung zu und Zusammenarbeit mit anderen OrganisationenZiel dieses Kapitels ist, Chancen und Risiken der Zusammenarbeit der Kommunalverwaltung mit externen Dritten/Stakeholdern kennen zu lernen und Arbeitsweisen im Umgang mit dieser Zusammenarbeit und Koordination aufzuzeigen. Die unterschiedlichen Formen der öffentlich-privaten Zusammenarbeit haben verschiedenen Vor- und Nachteile. Die Privatisierung als solche wird kritisch betrachtet und den Gegentrend der Rekommunalisierung/des Insourcings dargelegt. Die Einbindung der Stakeholder bei der Leistungserbringung wird detailliert aufgezeigt (organisationspolitischen Entscheidungsprozesses, KSM). Die Entscheidung über die Einbindung Dritter sollte sowohl aus kommunaler, wie auch aus bürgerlicher Perspektive anhand verschiedener Zielfelder erfolgen. Die Netzwerksteuerung stellt aufgrund der diversen Spannungsfelder, denen sie unterliegt, eine besondere Herausforderung im Public Governance dar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-18011-9_5 61af28e6c11491241a2fe016233994b0;de;;;6.1.;;;Arztbriefschreibung in der Dermatologie im Rahmen eines elektronischen PatientendatenmanagementsDie Zusammenführung sämtlicher Patientendaten in ein umfassendes Klinikinformationssystem (KIS) bietet ein erhebliches Potenzial zur Rationalisierung und Beschleunigung der administrativen Arbeitsabläufe, die aktuell immer mehr zeitliche Ressourcen der patientenbezogenen Primärprozesse binden. Wichtig für ein solches Datenmanagement ist, dass sowohl die persönlichen Daten (Patientenstammdaten) wie Name, Adresse und Geburtsdatum des Patienten und nach Möglichkeit weitere behandelnde Kollegen erfasst sind, als auch sämtliche medizinischen Daten des Patienten eingespeist und untereinander kompatibel aufbereitet werden. Dafür muss das KIS bei aller Komplexität eine ausreichende Benutzerfreundlichkeit zeigen, um Anwender aus den unterschiedlichen Bereichen einer Klinik zu befähigen, sein Potenzial zu nutzen. In der vorliegenden Untersuchung wird die konkrete Zeitersparnis bei der Erstellung von Arztbriefen mithilfe des KIS (Soarian®) gegenüber der Arztbrieferstellung mit einem konventionellen, isolierten Textverarbeitungsprogramm (Word®) analysiert, und bestehende Potenziale und Limitierungen werden aufgezeigt. Bei der objektiven Zeiterfassung zeigte sich eine Reduzierung der Bearbeitungsdauer pro Seite für die Schreibkräfte, allerdings keine Zeitersparnis für den diktierenden Arzt. In der subjektiven Wahrnehmung aller beteiligten Berufsgruppen wurde ein vermehrter Zeitaufwand durch die Bearbeitung im KIS angenommen, bedingt durch rigide Editier- und Navigationsfunktionen. Zur Steigerung der Akzeptanz bei den Anwendern besteht diesbezüglich Verbesserungspotenzial.;-;-;-;https://link.springer.com/article/10.1007/s00105-009-1781-6 a91e911ecd752c82e5dd800c78d37093;de;;;6.1.;;;“Business Success”: Reorganisation eines KundenservicesBeratungsprojekte im Informationstechnologie-Sektor (IT) „boomen“. Nichtsdestotrotz ist die Erfolgsrate breit angelegter Restrukturierungsinitiativen oder Transformationsprojekte stark abhängig von einigen wenigen Schlüsselfaktoren. Diese mögen oft nicht explizit in der Zielformulierung der Projektgestaltung und Managements betont sein, stellen sich aber allzu oft als kritische Determinanten für den gesamten Projekterfolg heraus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-84442-2_9 ff085a62468dc96f2789fcfd0d39b1be;de;;;6.1.;;;Externe Qualitätssicherung der ersten Welle der Studie zur Gesundheit Erwachsener in Deutschland (DEGS1)Das Qualitätsmanagementkonzept für die erste Welle der Studie zur Gesundheit Erwachsener in Deutschland (DEGS1) umfasste neben einer internen Qualitätssicherung (QS) durch das RKI auch eine externe Qualitätssicherung (QS) durch ein externes unabhängiges Institut. Zur Durchführung der externen Qualitätssicherung wurde das Leibniz-Institut für Präventionsforschung und Epidemiologie – BIPS GmbH nach einem beschränkten Ausschreibungsverfahren beauftragt. Die externe QS beinhaltete die Prüfung des Operationshandbuchs, die Schulung des Untersuchungspersonals, die Supervision der Feldarbeit (einschließlich der Untersuchungsabläufe), die Beobachtung der Stichprobenziehung und Ausschöpfung sowie die Kontrolle des Datenmanagements. Seitens der externen QS wurden Prüfpläne erarbeitet, um frühzeitig Fehlentwicklungen aufdecken zu können und Empfehlungen für die interne Qualitätssicherung auszusprechen. Im vorliegenden Beitrag werden das Konzept und die Ausführung der begleitenden externen Qualitätssicherung hinsichtlich der oben genannten Bereiche beschrieben.;-;-;-;https://link.springer.com/article/10.1007/s00103-013-1685-6 a766d8a638f87a50f824d6fdf24ba23a;de;;;2.2.;;;Ein Framework zur Unterstützung baumartiger Indizes auf der Akkordüberlagerung Angesichts des explosionsartigen Datenwachstums wird erwartet, dass das Datenbanksystem baumartige Indizes wie R-Baum, M-Baum, B . bereitstellt, um ein effizientes Datenmanagement einschließlich Abfragen und Aktualisierungen zu unterstützen;-;-;-;https://link.springer.com/article/10.1007/s11390-013-1391-8 e2fad197bca91f1d4b857ae6fd56d7ec;de;;;2.2.;;;Inkrementelle Generierung von Indexsätzen für die Ausführung von Array-Anweisungen auf Maschinen mit verteiltem Speicher Beim Kompilieren von Array-Anweisungen für Maschinen mit verteiltem Speicher ist die effiziente Erzeugung lokaler Indexsätze und Kommunikationssätze wichtig. In der Literatur wurden mehrere Techniken zum Aufzählen dieser Sätze für blockzyklisch verteilte Arrays vorgestellt. Wenn keine ausreichenden Kompilierzeitinformationen verfügbar sind, wird die Erzeugung der Strukturen, die eine effiziente Aufzählung dieser Sätze ermöglichen, zur Laufzeit durchgeführt. In diesem Whitepaper befassen wir uns mit der inkrementellen Generierung von lokalen Indexgruppen und Kommunikationsgruppen, um die Laufzeitkosten der Ausführung von Array-Anweisungen zu reduzieren. Wir entwickeln Techniken zur Durchführung der inkrementellen Generierung unter Verwendung des virtuellen Prozessoransatzes zur Ausführung von Array-Anweisungen mit blockzyklisch verteilten Arrays.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0025883 494c6cf7ade559f802989d1093c3cc14;de;;;2.2.;;;Statistische Modelle für das Auftreten von Erdbeben: Cluster, Zyklen und charakteristische Erdbeben In diesem Artikel werden verschiedene Ansätze zur Modellierung zweier zentraler, aber gegensätzlicher Merkmale von Erdbebendaten, ihrer Tendenz zur Clusterbildung und ihrer Tendenz zu regelmäßigem oder periodischem Verhalten, untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-0854-6_6 12de02bb299e82e00be060c0fa0a94dd;de;;;6.1.;;;Finite Element Analysis as a Key Functionality for eRobotics to Predict the Interdependencies between Robot Control and Structural DeformationThe design and usage of a robot requests knowledge from many different disciplines, like mechatronics, materials science, data management etc. Nowadays, computational simulations are an acknowledged method to assure an effective development process of a robotic system. Nevertheless, those simulations are limited to the analysis of single components. This leads to a negligence of the overall picture, which can be fatal, as the failure of a system is often caused by a defective interplay of different components. The concept of eRobotics proposes a framework for an Overall System Simulation, where all occurring interdependencies are explicitly considered. Still missing is an interaction with Finite Element Analysis, which calculates the structural deformation of a component with respect to the actual load case. This work closes the gap and gives a newkey functionality to eRobotics, which allows analyzing the impact of structural deformation on robot control and vice versa.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-56714-2_12 027730c2bfc1228dbb15af4234a1fe85;de;;;6.1.;;;Rechtliche Aspekte bei CRM-ProjektenIm Customer Relationship Management lassen sich drei generelle Aufgabenbereiche unterscheiden: das strategische CRM (sCRM), das operative CRM (oCRM) und das analytische CRM (aCRM). Im Bereich des sCRM sind die langfristigen CRM-Ziele und Strategien zu definieren, zu kontrollieren und gegebenenfalls anzupassen. Diese umfassen einerseits die kundengerichteten Dialogstrategien, die mittels der operativen CRM-Aktivitäten zu verfolgen sind (Hougaard/Bjerre 2002, S. 251 ff.) und andererseits die strukturgerichteten internen Strategien, die auf den Aufbau der gewünschten internen Unternehmenskultur, Prozesse, IT-Systeme und Organisationseinheiten abzielen. Das oCRM umfasst alle operativen Maßnahmen zur Ausgestaltung und Unterstützung der kundenorientierten Geschäftsprozesse, insbesondere in Marketing, Vertrieb und Service. Unter dem Begriff des aCRM werden alle Aufgaben zusammengefasst, die zur Sammlung, Speicherung und Auswertung der Daten notwendig sind und zur Ausrichtung bzw. Kontrolle der Aktivitäten im oCRM sowie zur Entwicklung der Strategien im sCRM benötigt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-10718-7_7 86d2ef5e3fdd310bd073fbe164b266c9;de;;;6.1.;;;Generische und konventionalisierte Kontexte – Zur Systematik und Dynamik von Genres und GattungenBevor sich die Arbeit im Folgenden der Hybridisierung – also der Vermischung, Differenzierung und Integration filmischer Gattungen – widmen will, soll hier zunächst die Grundlage einer gattungs- und genrespezifischen Definition hergestellt werden, ohne dass ein Anspruch auf Allgemeingültigkeit erhoben werden soll (vgl. dazu beispielsweise die jungen Abhandlungen von Grant 2007 im englischsprachigen und von Schweinitz 2006 und Leschke/Venus 2007 im deutschsprachigen Raum, genereller Grant 1977, Neale 1992, Altman 2006).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-15603-9_2 faf80a80e216d34bef21698f5abcc8d0;de;;;6.1.;;;Anwendungen der Digitalen FabrikIn der praktischen Anwendung der DF kommen meist unterschiedliche Methoden und Werkzeuge in branchenspezifischen Kombinationen mit jeweils besonderen Anforderungen zum Einsatz. Das Kapitel 7 stellt hierzu einige typische Anwendungen ganzheitlicher Lösungen vor. Zunächst wird der Industriebau als Beispiel angeführt, dessen digitale Modelle – insbesondere auch der BIM-Ansatz – die Grundlage für die Integration weiterer Gewerke bilden. Es folgt die Darstellung der Gesamtfabrik unter Einschluss des Gebäudes, der Logistik und der geplanten Fertigungsanlagen. Als weiteres Querschnittsthema für alle Fabrikplanungen wird die Logistikplanung vorgestellt. Sie bildet den Abschluss der allgemeinen Beispiele, die anhand der Automobilbranche vorgestellt werden, aber grundsätzlich für alle Industriebranchen gültig sind. Im Anschluss folgen Beispiele für typische Nutzungen der Methoden und Werkzeuge der DF in der Automobilindustrie. Hier werden die Besonderheiten der einzelnen Fertigungsgewerke vom Presswerk bis zur Fahrzeugendmontage sowie dem Anlagenbau vertieft. Ausgangsbasis ist dabei jeweils die Aufgabe, ein neues Fahrzeug in die bestehende Fertigung einzuplanen. Ausführlich wird im Abschnitt 7.4.9 auf die Planung einer energieeffizienten Produktion eingegangen. Einen anderen Schwerpunkt setzt Abschnitt 7.6. In diesem wird aufgezeigt, wie die Werkzeuge und Methoden bei der Konzeption neuer Fertigungstechnologien eingesetzt werden können, um die Einführung der Technologie ganzheitlich abzusichern. Der Einsatz der DF bei KMU ist das Thema von Abschnitt 7.7. In diesem werden die Methoden und Organisationsformen dargestellt, die besonders für diese Unternehmensgröße geeignet sind. Es folgt der Blick in weitere Industriebranchen, bei dem anhand des Schiffbaus sowie der Getränkeindustrie spezifische Einsätze der c Abschnitt 7.10 wird ausführlich der Einsatz mobiler Endgeräte für die Fabrikplanung vorgestellt und diskutiert. Smarte Datenaufnahmeassistenten und spezifische Anwendungssoftware (sogenannte Apps) können dem Planer die Arbeit erleichtern. VR- und AR-Einsätze unterstützt von Quadrokoptern bilden ein Highlight. Abschließend wird die Vision einer Digital Lean Factory 4.0 auf Basis einer Delphi-Umfrage vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-55783-9_7 fb1556bd3998f795b3b04734c01d7715;de;;;6.1.;;;Politische Führung – eine ProblemskizzeDie politische Führung, die ein Bundeskanzler übernimmt, ist gewiss kein leichtes Geschäft. Er steht vor Herausforderungen, die sich erst im Vergleich mit anderen Führungsrollen erschließen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-92744-2_1 6251849ed6d8f1605c46d1fa9559ca4f;de;;;6.1.;;;Digitalizing the Customer Process – Opportunities and Risks for Financial ServicesWith regard to the proliferation of digital customer interactions in the financial services industry, this study analyzes how digitalization impacts the customer process and investigates the opportunities and risks this has for building customer trust. It is suggested that established and FinTech companies should pursue different strategies. Based on expert interviews, three groups of trust enablers are identified and respective priorities for the different service providers are determined.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-17550-4_21 f2e552553d04204fdc3c7def94176d2c;de;;;6.1.;;;Die .NET- StategieDas Internet wandelt sich zu einer wirklich übergreifenden Plattform — die totale Interaktivität ist Kern der Microsoft-Initiative. NET (sprich: „DOT-NET“). Diese Strategie umschreibt ein neues Architekturmodell und eine neue Plattform für die nächste Generation des Internet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-90275-7_15 cd3242c819765c6310390d2eb6175b87;de;;;6.1.;;;Ostdeutscher Sparkassenverband: Social CollaborationDer Ostdeutsche Sparkassenverband (OSV) ist als einer von zwölf Regionalverbänden der Sparkassen Interessenvertreter und Dienstleister seiner Mitgliedssparkassen und ihrer Träger.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-52819-8_23 6114ec01408227759a1f6ffb2de9730a;de;;;6.1.;;;Kapitel 2: GrundlegungBegriffsentwicklung bedarf zunächst einer Vergewisserung über das mit dem Begriff zu beschreibende Phänomen. Diese setzt bei der Beobachtung an, dass bestimmte gerichtliche Entscheidungen eine besondere Funktion für die Kommunikation in einer Rechtsordnung haben. Ein Blick auf die bisherigen Beschreibungsversuche trägt weiter dazu bei, den Untersuchungsgegenstand zu konkretisieren (I.). Zugleich werden beim Abgleich von kommunikativer Relevanz und Forschungsstand Lücken deutlich. Aus ihnen erwächst das Ziel der Arbeit, mit dem Begriff der Leitentscheidung eine grundlegende Beschreibung zu entwickeln. Hierfür besteht insbesondere im Zusammenhang mit unionsgerichtlichen Entscheidungen Bedarf (II.). Die festgestellten Diskrepanzen legen zudem zur Zielverfolgung eine in analytischer, disziplinärer und methodischer Hinsicht geweitete Untersuchungsperspektive nahe (III.).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-54864-6_2 af82cb9ecfda5a29a1648296ab0e0040;de;;;2.2.;;;Ein XML-Dokumentabrufsystem, das struktur- und inhaltsbasierte Abfragen unterstützt In diesem Beitrag entwerfen und implementieren wir ein XML-Dokumentenabrufsystem, das sowohl struktur- als auch inhaltsbasierte Abfragen unterstützen kann. Um eine strukturbasierte Abfrage zu unterstützen, entwerfen wir vier effiziente Indexstrukturen, nämlich Schlüsselwort-, Struktur-, Element- und Attributstrukturen, und implementieren diese mit dem O2-Store-Speichersystem. Um eine inhaltsbasierte Abfrage zu unterstützen, entwerfen und implementieren wir eine hochdimensionale Indexstruktur basierend auf der CBF-Methode, um sowohl Farb- als auch Formmerkmalsvektoren effizient zu speichern und abzurufen. Schließlich führen wir die Leistungsanalyse unseres XML-Dokumentabrufsystems im Hinblick auf die Systemeffizienz wie Abrufzeit, Einfügezeit und Speicheraufwand sowie die Systemeffektivität wie Rückruf- und Präzisionsmessungen durch.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-46140-X_25 d162a6bf9031f6d5cb39a3cd334e743a;de;;;6.1.;;;Die Kommunikationskultur der UnternehmungIm Lichte der Definitionen von “Kommunikation” und “Kultur” versteht der Autor die Unternehmenskultur als Postulat in der Unternehmenspraxis, das Wahrnehmungsvermögen der Menschen, die an Interaktionen beteiligt sind, zu pflegen und zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-00804-1_11 f87d6bab11583272112fc86ee5abc5f7;de;;;6.1.;;;Virtuelle Chefentlastung – Leitfaden zur effektiven Zusammenarbeit auf DistanzDie Zusammenarbeit zwischen Vorgesetztem und Assistenz wird in Zukunft ganz neue Aspekte mit sich bringen: Patchwork-Arbeitsleben der Manager mit Zeitverträgen in den obersten Hierarchieebenen, Interimsmanagement und voranschreitende Globalisierung werden immer öfter eine Zusammenarbeit auf Distanz schaffen. Dann gilt es, einen Chef zu entlasten, der nur selten im Büro ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-6420-5_5 9e7c89efd07e2e8b9a0f9c1bf4d39af7;de;;;6.1.;;;Professionalisierung von Führung und PersonalmanagementCIOs waren in den letzten Jahren häufig mit der paradoxen Situation konfrontiert, dass der Unterstützung des Kerngeschäfts durch moderne Informationstechnologie unternehmensintern eine immer größere Bedeutung beigemessen wurde, gleichzeitig aber die Unternehmens-IT als starker Kostenverursacher immer stärker in Frage gestellt wurde. Der Erfolg von Standard-Software, von großen und teils global tätigen IT-Service-Providern und der immer stärker hervortretende Commodity-Charakter von IT-Services machte die Unternehmens-IT dabei an vielen Flanken angreifbar. Es bestand also Handlungsbedarf für den CIO und der konnte nur in eine klare Standortbestimmung und eine darauf aufbauende, überzeugende und nachhaltige Positionierung der Unternehmens-IT münden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18674-5_16 c51aba5c0e8a5505b6f2f1019dac02a0;de;;;6.1.;;;eHealth in Mitteleuropa: Der Weg vom Wunsch zur WirklichkeitSehr geehrte Damen und Herren, ich hoffe, nicht der einzige hier anwesende Arzt zu sein, geschweige denn als „Alibi-Arzt“. Auch die Rolle der Ärzteschaft ist ein Thema, das wir heute ansprechen sollten. Geht es um Technologiefragen, um Gesundheitsversorgung oder gar um Politik? Wer sind eigentlich die Endanwender und wirklichen Nutznießer? Nebst den Ärzten gibt es schließlich auch noch die Patienten, welche zumindest rhetorisch stets im Mittelpunkt stehen - auch wieder ein Alibi-Konstrukt ‖ Und wer ist dafür verantwortlich, dass eHealth endlich Realität wird?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15633-5_2 1b44b253e8d7cabeb521c4f364613129;de;;;6.1.;;;Multidisziplinäres Tumorboard: sektorenübergreifende Kooperation jenseits gesetzlicher InstrumenteMultidisziplinären Tumorboards (MTB) kommt in der onkologischen Behandlung eine zentrale Bedeutung zu. Aufgrund der derzeitigen Strukturen im Gesundheitswesen bilden oftmals Institutionen aus dem ambulanten Sektor zusammen mit stationären Behandlungseinheiten sektorenübergreifende MTB. Ungeachtet der Tatsache, dass für MTB allgemein kaum Struktur- oder Prozessmerkmale definiert sind, bestehen für sektorenübergreifende MTB besondere Hürden, u. a. in den Bereichen Datenschutz, Datenverarbeitung, Terminierung, Qualitätssicherung und Vergütung. Hierfür sind auch unterschiedliche normative Vorgaben ursächlich. Eine umfassende, interdisziplinäre wissenschaftliche Auseinandersetzung ist notwendig, um MTB weiter zu optimieren. Ziel muss eine gesetzliche oder gesetzesähnliche Vorgabe für MTB sein, die bestehende Unterschiede (u. a. z. B. in Bezug auf Qualitätsanforderungen) zwischen den Sektoren und Behandlungsmodellen beseitigt. Diese Vorgabe muss eine adäquate Vergütung des Aufwandes aller am MTB beteiligten Personen beinhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-29015-3_6 a62d5e1319f92602e00fe8048915bdf3;de;;;6.1.;;;Projektdefinition und Projektmanagement bei der KLR-EinführungNachdem im vorangegangenen Kapitel die relevanten Grundlagen des Projektmanagements dargestellt wurden, folgt die Betrachtung der konkreten Umsetzung in bezug auf die Einführung der Kosten- und Leistungsrechnung in nordrhein-westfälischen Landesbehörden. Im ersten Abschnitt erfolgt eine Einordnung der betrachteten Vorhaben in den Bezugsrahmen „Projekt“. Im Anschluß werden die der Projektdefinition und dem Projektmanagement zuzuordnenden Aufgaben, d.h. die primär prozeßbezogenen Aufgaben bei der KLR-Einführung dargestellt. Dazu gehören die Entscheidung über einen Beratereinsatz, die Team-Zusammenstellung, die objektbezogene Projektplanung, die mitlaufende Projektüberwachung und das Stakeholder-Management. Dabei wird in Abschnitt 4.4.2 die ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-95340-7_4 678dca1b1d6bd773d90879a492018b83;de;;;6.1.;;;Informationspotentiale computergestützter Warenwirtschaftssysteme aus der Perspektive des MarketingComputergestützte Warenwirtschaftssysteme stellen nicht nur Informationsgrundlagen für die operative Steuerung der Warenprozesse bereit, sondern liefern auch wertvolle Informationen für das Handelsmarketing und das Marketing der Industrie. Der vorliegende Beitrag zeigt die aktuellen Entwicklungen auf dem Gebiet computergestützter Warenwirtschaftssysteme auf und verdeutlicht aus der Perspektive des Marketing, für welche Zwecke Daten aus der Warenwirtschaft genutzt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-11996-8_35 bfccbca8d43a2e4db726aeb875f400da;de;;;6.1.;;;Die Schaffung zukunftsweisender Verwaltungsstrukturen als GestaltungsprozeßDie Informatik bringt überall dort Veränderungen im Arbeiten, wo Menschen mit Informationen umgehen, um zu handeln, ihr Wissen umzubauen oder zu kommunizieren. Damit können sich die Anordnungen zu gemeinschaftlichem Arbeiten, die wir Organisation nennen, verändern. Die Gestaltungsfreiheit wächst. Auch die dispositive Seite der Arbeit in Organisationen, die wir uns mit wenigen Strukturmerkmalen zu beschreiben angewöhnt haben, wird davon berührt. Und Management als die Kunst zu erreichen, daß die Arbeit getan wird, besteht ebenfalls in Information.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-78486-6_3 3b28327a99b7fb5cf1f3bd7ea91496ac;de;;;6.1.;;;Zwischen Informatisierung und Neuem Steuerungsmodell. Zum inneren Wandel der VerwaltungenAnfang der 90er Jahre werden die öffentlichen Verwaltungen in der Bundesrepublik Deutschland von einer Reformwelle erfasst, die unter dem Titel „New Public Management“ bereits in einer Vielzahl anderer westlicher Länder zu grundlegenden Umstrukturierungen der Administrationen geführt hatte. 1993 von der Kommunalen Gemeinschaftsstelle zum „Neuen Steuerungsmodell“ (NSM) deklariert, bestimmt die Einführung einer Dienstleistungskonzeption öffentlicher Verwaltungen (mit den Elementen: Output-Steuerung, Produktkatalog, Aufgabenkritik, Kontraktmanagement, Kosten-und Leistungsrechnung, Controlling, dezentrale Ressourcenverantwortlichkeit, Übergang von der Kameralistik zur Doppik — der kaufmännischen Buchführung, modernes Personal-, Informations- und Qualitätsmanagement, Kundenorientierung, vereinzelt auch Einführung von Wettbewerbselementen) die Reformanstrengungen in den Verwaltungen und auch die politik- und verwaltungswissenschaftliche Reflexion (vgl. Wollmann 2000). Letztere weist darauf hin, dass das bundesdeutsche Profil der Verwaltungsmodernisierung gegenüber der internationalen Entwicklung eine spezifische Verengung durch Konzentration auf finanzwirtschaftliche Binnenmodernisierung aufweist (Naschold/Bogumil 1998).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-80387-0_14 b60fc6434b27b7d4383ed8dbacb19726;de;;;6.1.;;;Konsumentenverhaltensforschung im Internet mittels Profilbildungstechniken: Methodische GrundlagenMit der wachsenden Bedeutung des Internet für die Abwicklung von Transaktionen und die Ausgestaltung der Austauschbeziehungen zu den Absatz- und Beschaffungsmärkten gewinnt die Auseinandersetzung mit den Potenzialen, Chancen und Risiken des Electronic Commerce zunehmend an Bedeutung für die Marketingforschung und -praxis. Neben der effizienzsteigemden Wirkung durch eine Beschleunigung und Dekomposition traditioneller Wertschöpfungsprozesse kommt dem Internet z.T. auch ein revolutionärer Charakter zu, indem es neue Formen der Gestaltung der Austauschbeziehungen zum Nachfrager und die Entwicklung wie Anwendung neuartiger Marketingmodelle und — Instrumente ermöglicht. Die Liste derjenigen Innovationen, die in diesem Zusanmienhang aufgeführt werden können, ist lang und reicht von interaktiven, individualisierbaren Werbekontaktmitteln über Möglichkeiten der maschinellen Beratung von Nachfragern durch den Einsatz von „intelligenten“Agentensystemen bis hin zum Angebot von Webseiten, die auf die individuellen persönlichen Bedürfnisse des einzelnen Nachfragers kundenindividuell und in Echtzeit abgestimmt werden können ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-90689-2_12 a580c1b1442827b15125af859f7fec7c;de;;;6.1.;;;Bedeutung des Online Marketing für die DistributionspolitikDie Neuen elektronischen Medien in Deutschland haben mittlerweile breiten Einzug in den beruflichen und privaten Alltag gehalten. Immer mehr Firmen und Privatpersonen sammeln erste Erfahrungen mit der neuen Interaktionstechnik. Und mittlerweile existiert kaum ein Großunternehmen, das nicht seinen virtuellen Auftritt unter;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-58317-9_6 fdc395cc8b0274c5718fa8314f862fda;de;;;6.1.;;;APC/ComLink e.V. HannoverIm Mittelpunkt dieser Fallstudie steht eine seit 1988 in Hannover bestehende, damals noch „Ökoline“ benannte Mailbox, die als Verein unter dem Namen „APC/ComLink e.V.“ seit August 1993 den deutschen Knotenpunkt (den sogenannten „Gateway“) zu dem internationalen APC-Netz („Association for Progressive Communication“) betreibt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-83282-5_8 21c7f525a30851a51ed3344db973e762;de;;;6.1.;;;Autonomie oder Heteronomie – Welchen Weg geht das Datenschuldrecht?Mit der Datenschutzgrundverordnung (DSGVO) hat der europäische Gesetzgeber auf die ubiquitäre Verarbeitung von personenbezogenen Daten reagiert. Der Schwerpunkt der DSGVO liegt auf der Abwehr von Eingriffen in die Privatsphäre und dem Schutz personenbezogener Daten. Allerdings werden personenbezogene Daten zunehmend kommerzialisiert. Derzeit wachsen gerade solche Geschäftsmodelle sehr dynamisch, die digitale Inhalte anbieten und als Gegenleistung keine Geldzahlung, sondern (zusätzlich) den Zugang zu personenbezogenen Daten nachfragen. Dieser Beitrag macht einen Vorschlag, wie diese Entwicklung aus privatrechtlicher Perspektive mit der DSGVO in Einklang gebracht werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-27511-2_10 47bc5d3296b01fe023b2bdf9d817ee2a;de;;;6.1.;;;Theoretische BezugsbasisDas vorliegende Kapitel II beinhaltet die theoretische Bezugsbasis und somit die theoretischen Grundlagen, welche das Fundament für die im einleitenden Kapitel I dargestellten Forschungsanliegen darstellen und einer eingehenden Analyse unterzogen werden. Zur Positionierung der Arbeit ist Abschnitt II.1 der Spezifizierung des Untersuchungskontexts International Entrepreneurship gewidmet, um die Arbeit in diesem Forschungsgebiet klar und eindeutig einzuordnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-6494-6_2 95e8cbd12f0541848471e5a36b1c0570;de;;;6.1.;;;Hintergrund und Prüfplan der Studie zum Selbstmanagement der Antikoagulation bei Patienten mit nichtvalvulärem Vorhofflimmern (SMAAF-Studie)The objective of this open, randomized, multicenter study is to investigate the benefits and economic efficiency of self-management of oral anticoagulation in patients with atrial fibrillation (SMAAF study) in comparison with a group of patients given conventional care by a general practitioner or specialist. Two thousand patients suitable for self-management will be assigned at random to either the self-management group or the control group. The numbers of thromboembolic and hemorrhagic complications requiring treatment during the 2-year follow-up period will be recorded as the primary end point. The secondary endpoint variables will be maintenance of the INR value in the individual target range, INR variance, the course of complications over time, and the cost efficiency of self-management compared with the routine procedures. The last of these parameters will include the diagnostic and/or therapeutic measures carried out, the duration of inpatient hospital treatment, and the social consequences (subsequent rehabilitation treatment, inability to work, forced rentirement). The estimate of the required number of patients was based on the assumption that during long-term anticoagulant therapy within the framework of primary and secondary prevention 4% of patients with chronic non-valvular atrial fibrillation would have severe thromboembolic of hemorrhagic complications each year. Since this rate can be halved by self-management, a one-tailed χ;-;-;-;https://link.springer.com/article/10.1007/s003920050486 cdbf7d6f4fbc996677777be7f088a18c;de;;;6.1.;;;Die programmierte MoralDie Maschinenethik ist den Kinderschuhen entwachsen. Man kann sie als Disziplin oder Unterdisziplin ansehen. Man darf sie auch als Arbeitsgebiet einstufen, entweder der Moralphilosophie, die damit über die Menschenethik hinausgehen würde, oder der Informatik bzw. der Künstlichen Intelligenz (KI) oder der Robotik. Die Forschung findet hauptsächlich in den USA statt, aber auch Europa verfügt inzwischen über einen vorzeigbaren Leistungsausweis. Die Schwerpunkte sind jeweils verschieden. In den Vereinigten Staaten wird, anders als auf dem alten Kontinent, immer wieder der militärische Zusammenhang gesucht. In Europa scheint man, in Fortsetzung der entsprechenden Traditionen, gerade an den theoretischen philosophischen Aspekten interessiert zu sein. Die Medien haben weltweit das Thema aufgegriffen, variieren bei Roboterautos das Trolley-Problem und insistieren in Bezug auf Kampfroboter.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-57765-3_3 4f837d888af52004e5669e0aa6178bea;de;;;6.1.;;;Serverseitige ArchitekturFelix, unser Webserviceentwickler, widmet sich der Fragestellung der serverseitigen Architektur: „Wir schauen uns basierend auf den Ausführungen aus dem Kap. 3 zur Mehrschichtenarchitektur nun die detaillierte Schichtenaufteilung des Servers an. In Bezug darauf ist es wichtig, die drei grundsätzlichen serverseitigen Architekturmöglichkeiten, wie die monolithische Mehrschichtenarchitektur, die Microservices mit deren jeweiligen Mikroarchitekturen basierend auf den Darlegungen aus Kap. 4 zur flexiblen Architektur sowie der serverlosen Applikation, im Blickfeld zu behalten. Weiter informiere ich über die drei aktuell gängigen Technologie-Stacks, nämlich auf Skriptsprachen basiert, .NET und Jakarta EE. Wie ihr seht, gibt es da für uns noch einige Entscheidungen zu treffen, welche dieser Technologievarianten für uns infrage kommen.“;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-33179-5_6 7c1d8a00dd65de81fb5fbc1a98d841d5;de;;;6.1.;;;Erving Goffman: Stigma. Über Techniken der Bewältigung beschädigter IdentitätErving Goffman war ein überaus innovativer Soziologe, dessen herausragende Bedeutung als empirisch ausgerichteter Theoretiker erst nach seinem Tode 1982 voll erkannt wurde (vgl. Drew/Wooton 1988, Hettlage/Lenz 1991, Burns 1992, Maning 1992, Smith 2006, Raab 2008). Diese herausragende Bedeutung zeigt sich in einer breiten wissenschaftlichen Rezeption weit über die Grenzen der Soziologie hinaus. Einige seiner wichtigen Werke – darunter vor allem „Wir alle spielen Theater“ und die hier zu behandelnde Arbeit „Stigma“ – wurden und werden auch außerhalb der Wissenschaft mit großem Interesse aufgenommen. Goffman hat mit seinen Arbeiten ganz entscheidend zur „Alltagswende“ in der Soziologie und den angrenzenden Wissenschaften beigetragen. Im Zentrum seines Forschungsinteresses steht die unmittelbare soziale Interaktion, in der sich die Menschen direkt als Körper-Leib-Wesen begegnen und eine gemeinsame Wirklichkeit herzustellen versuchen. Dieser Bereich des zwischenmenschlichen Alltagslebens stellt für Goffman eine gesellschaftliche Wirklichkeit „sui generis“ dar, die zwar in einem Zusammenhang mit der übergeordneten Sozialstruktur und Kultur der Gesellschaft steht, die daraus aber nicht einfach abgeleitet werden kann und die deshalb einer gesonderten Erforschung bedarf.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-92196-9_8 14fd216044d16337015308ea453424e2;de;;;6.1.;;;Grundlagen des NachhaltigkeitsmanagementsBei einer Abhandlung über Nachhaitigkeit ist es eine wesentliche Aufgabe der Vielfältigkeit des Nachhaltigkeitsbegriffs gerecht zu werden. Die deflatorischen Grundlagen in Kapitel 2.1 zeigen dazu zunächst auf, wie weit sich die Bedeutung von Nachhaltigkeit erstreckt. In Anlehnung an den Begriff Umweltmanagement wird hier auch ein Verständnis für das in betriebswirtschaftlicher Hinsicht wesentliche “Nachhaltigkeitsmanagement” geschaffen. Den drei Dimensionen der Nachhaltigkeit und deren Integration ist das Kapitel 2.2 gewidmet. Im Anschluss folgt ein kurzer historischer Abriss über die Entwicklungsgeschichte und die rechtliche Verankerung des Nachhaltigkeitsgedankens. Im Hinblick auf die im Rahmen dieser Arbeit durchgeführte Untersuchung auf betrieblicher Ebene werden schließlich die Unternehmen als wichtige Akteure in das Konzept einer nachhaltigen Entwicklung eingebunden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-5518-6_2 9cc1e248c424100a858a98460e011c40;de;;;6.1.;;;Datenbereitstellung und deren informationstechnische UnterstützungZur Anwendung quantitativer Methoden zur Entscheidungsunterstützung im Umweltschutz und damit zur Herleitung optimaler umweltbezogener Entscheidungen sind sowohl wirtschaftliche und umweltrelevante Daten als auch je nach Entscheidungssituation etwa anlagenbezogene technische Daten, standortbezogene Daten, Daten über die Nachfrage nach Marktprodukten und/oder Daten über Repetier-und Potentialfaktoren (das heißt etwa Daten über Rohstoffe und Anlagen) sowohl für eine Quantifizierung des Entscheidungsfeldes als auch für eine Quantifizierung der Entscheidungsziele bereitzustellen. Diese sind ergänzend zu der zur Entscheidungsunterstützung bereitgestellten Methodik unabdingbar. Es besteht damit ein auf die Entscheidungssituation bezogener Datenbedarf (vgl. Abb. 63).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-61035-6_7 b78dcb60cada7de97b39fdaaa1423a48;de;;;6.1.;;;ProblemanalyseMit der Entwicklung eines Controlling-Informationssystems (CIS) für Unternehmen der Einzel- und Kleinserienfertigung mit fertigungstechnischen Produktionsprozessen beschäftigt sich die vorliegende Arbeit. Nachfolgend werden die Begriffe Unternehmen und Betrieb synonym verwandt. Bei einem Unternehmen bzw. Betrieb handelt es sich um eine Wirtschaftseinheit zur Erstellung und Verwertung von Gütern in Form von Sach- oder Dienstleistungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-90646-5_2 53f7b99020e1117530cb14263878b8c1;de;;;6.1.;;;Neustrukturierung betrieblicher FunktionenEine Fabrik ist ein komplexes System bestehend aus Elementen, wie z. B. Menschen, Einrichtungen und Anlagen, Werkstoffe und Informationen (Abbildung 6.1), die so zusammenwirken, daß aus Rohmaterial bzw. Ausgangsprodukten über Zwischenformen die End- oder Fertigprodukte entstehen [SCHI, 1986], [SCHU, 1984].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-95630-0_6 9a798574fe59505a34dfa95b55a315d4;de;;;6.1.;;;Medienerziehung, Medienkompetenz und Medienwirkungsforschung — eine integrative PerspektiveAktuelle Konzepte allgemeiner und spezieller Medienkompetenzen werden vor dem Hintergrund ihrer historischen Entwicklung sowie medienwissenschaftlicher, pädagogischer und psychologischer Theorien und Konzepte analysiert. Es wird eine „medienkritische“ und eine „funktional-technologische“ Tradition der Medienkompetenzforschung herausgearbeitet. Die medienkritische Tradition (klassische CVS Programme) orientiert sich am Leitmedium Fernsehen. Die Programme basieren mehrheitlich auf klassischen Medienwirkungstheorien und zielen auf den Abbau von Kultivierungseffekten. Die Teilnehmer sind Teil eines Publikums. Die verschiedenen Trainingselemente haben die Erhöhung einer ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-90735-6_24 66add9a4eaeea731b8677994ee3a0e5e;de;;;6.1.;;;Speicher-Klimatisierung für Hybridfahrzeuge mit Start-Stopp-FunktionHybridfahrzeuge sind unabhängig vom Grad ihrer Hybridisierung mit einer Start-Stopp-Funktion ausgestattet, die den Motor im Leerlauf abschaltet, um Kraftstoffverbrauch und Emissionen zu reduzieren. Die Kraftstoff-Einsparung ergibt sich durch den Stillstand des Motors und — zu einem kleinen Teil — den gleichzeitigen Stillstand des Klimakompressors. Bei Kompressor-Stillstand steigt im Sommer die Kabinentemperatur sehr schnell an, der Klimakomfort geht verloren. Mithilfe des Speicherverdampfers von Behr, einer Neuentwicklung, kann der Klimakomfort in der Kabine in 95 % aller Stopp-Phasen im Stadt-Umlandverkehr aufrechterhalten werden.;-;-;-;https://link.springer.com/article/10.1007/BF03221841 f74d6e5545d3427de758282b045688e8;de;;;6.1.;;;Reflexivität in Lobbying und Medienstrategien für die Kinder- und JugendarbeitDer vorliegende Beitrag analysiert die Relevanz von Politikberatung und Lobbying und Medienstrategien im Hinblick auf die reflexive (Re-)Politisierung der Kinder- und Jugendarbeit. Aufgrund der primär konzeptionellen Ausrichtung ist an dieser Stelle weder ein politikwissenschaftlicher Theorie-Diskurs etwa über das Pro und Contra von Lobbying-Aktivitäten intendiert noch eine unmittelbar praxisbezogene bzw. rezeptförmige Handreichung (vgl. hierzu: Bentele ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-18963-5_15 c296e769cf87dc0e6afa74cab6048058;de;;;6.1.;;;Eine Projektsprache und ein Domänenmodell für die Collaboration PlatformEin Projekt bedarf einer eindeutigen Projektsprache, in der sich alle Projektbeteiligten verständigen. Das gilt auch für die Kommunikation zwischen Verwaltung und Software-Lieferanten. Diese Kommunikation beginnt mit der Ausschreibung, insbesondere bei Erstellung eines Lastenhefts. Die Vorarbeit dafür wird in diesem Kapitel geleistet, indem es die Vision der E-Akte, wie sie in Kap. 1 entworfen wurde, in eindeutig definierte Begriffe der Verwaltungsarbeit übersetzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-59705-7_3 0df63be1c9c9820b1ff964450a145a47;de;;;2.2.;;;Saisonale Seismizität von Nordkalifornien vor dem großen Erdbeben von 1906 Während des späten neunzehnten Jahrhunderts erlebten Küstenteile Nordkaliforniens eine Seismizität, die intensiver war als zu jedem anderen Zeitpunkt in der historischen Aufzeichnung und konzentrierte sich auf das Frühjahr. Der saisonale Charakter dieser anomalen Seismizität war von den 1880er Jahren, wenn nicht früher, bis zum großen Erdbeben von 1906 statistisch signifikant. Sie kann als Ergebnis saisonaler Spannungstransienten erklärt werden, die durch die großen saisonalen Sedimentfrachten verursacht werden, die sich in Küstenbuchten angesammelt haben, die aktive Streichbewegungen überlagern, als Ergebnis des hydraulischen Abbaus von Gold im Landesinneren. Eine solche lokalisierte Belastung erhöht die absolute vertikale Spannung und verringert die absolute horizontale Spannung, wodurch ein Scherversagen durch Lösen vertikaler Verwerfungsebenen erleichtert wird. Anstatt jedoch nur den Zeitpunkt von Erdbeben zu beeinflussen, die sonst sowieso irgendwann später aufgetreten wären, scheint dieser Prozess den Charakter der Seismizität der Region beeinflusst zu haben und eine Folge von Erdbeben der Stärke 5–6 zu verursachen, die sich von diesen Küstendepozentren nach außen ausbreiteten. Diese Ergebnisse haben drei wichtige Implikationen. Erstens ist der vorgeschlagene physikalische Mechanismus nur möglich, wenn die tiefste kontinentale Kruste in dieser Region eine Viskosität von nicht mehr als ~10 . hat;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-8179-1_2 56a7cec8e4f5711dba4474d8b9725413;de;;;2.2.;;;Massenladen des ND-Baums in nicht geordneten diskreten Datenräumen Anwendungen, die mehrdimensionale Indexstrukturen zum Ausführen effizienter Ähnlichkeitsabfragen erfordern, beinhalten oft eine große Datenmenge. Der herkömmliche Ansatz zum Laden von Tupeln zum Erstellen einer solchen Indexstruktur für einen großen Datensatz ist ineffizient. Um das Problem zu überwinden, wurde eine Reihe von Algorithmen vorgeschlagen, um die Indexstrukturen wie den R-Baum für große Datensätze in kontinuierlichen Datenräumen von Grund auf neu zu laden. Viele von ihnen können jedoch nicht direkt auf einen nicht geordneten diskreten Datenraum (NDDS) angewendet werden, in dem Datenwerte in jeder Dimension diskret sind und keine natürliche Ordnung haben. Es wurde kein Bulk-Loading-Algorithmus speziell für eine Indexstruktur wie den ND-Baum in einem NDDS entwickelt. In diesem Artikel stellen wir einen Bulk-Loading-Algorithmus namens NDTBL für den ND-Baum in NDDSs vor. Es verwendet eine spezielle In-Memory-Struktur, um den Ziel-ND-Baum effizient zu konstruieren. Es verwendet und erweitert einige Operationen im ursprünglichen ND-Baum-Tupelladealgorithmus, um die Eigenschaften eines NDDS beim Auswählen und Aufteilen von Datensätzen/Knoten während des Massenladevorgangs auszunutzen. Es verwendet auch einige Strategien wie Multi-Way-Splitting und Speicherpufferung, um die Effizienz zu verbessern. Unsere experimentellen Studien zeigen, dass der vorgestellte Algorithmus beim Massenladen des ND-Baums für große Datensätze in NDDSs recht vielversprechend ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78568-2_14 ba16ca951d1557098f7a801f08c94f8a;de;;;2.2.;;;Bissoziative Wissensentdeckung durch Erkennung von Literaturausreißern Das Ziel dieses Kapitels ist es, die Rolle von Ausreißern in der literaturbasierten Wissensfindung darzustellen, die verwendet werden kann, um potenzielle bissoziative Verbindungen zwischen verschiedenen Fachgebieten zu untersuchen. Der vorgeschlagene Ansatz wertet die RaJoLink-Methode auf, die einen neuen Rahmen für die effektive Führung der Wissensentdeckung aus der Literatur bietet, basierend auf dem Prinzip seltener Begriffe aus wissenschaftlichen Artikeln. Dieses Kapitel zeigt, dass Ausreißerdokumente erfolgreich als Mittel zur Erkennung von Brückenbegriffen verwendet werden können, die Dokumente aus zwei unterschiedlichen Literaturquellen verbinden. Dieser Verknüpfungsprozess, auch als Closed Discovery bekannt, ist einer der Schritte der RaJoLink-Methodik und wird mithilfe des öffentlich verfügbaren Topic-Ontologie-Konstruktionstools OntoGen durchgeführt. Als Anwendungsbeispiel wählten wir wissenschaftliche Artikel zum Thema Autismus, mit denen wir den vorgeschlagenen Ansatz demonstrierten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31830-6_22 74c81b5a7f6056228456f26c75f95fb3;de;;;2.2.;;;Auswertung der Jensen-Shannon-Distanz über spärliche Daten Jensen-Shannon Divergenz ist eine symmetrisierte, geglättete Version von Küllback-Leibler. Es hat sich als das Quadrat einer echten Distanzmetrik erwiesen und hat andere Eigenschaften, die es zu einer ausgezeichneten Wahl für viele hochdimensionale Räume in ℝ . machen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41062-8_16 7138e3ceddb9f0f2139d0aea2a9c7541;de;;;6.1.;;;Zusammenfassende Bewertung der ArbeitIn diesem abschließenden Kapitel werden zum einen die wesentlichen Erkenntnisse der Arbeit zusammengefasst (Abschnitt 7.1). Zum anderen werden die Implikationen aus den Ergebnissen der Arbeit für die Forschung (Abschnitt 7.2) und die Unternehmenspraxis (Abschnitt 7.3) herausgearbeitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-9642-4_7 f1175570e9e59cc31ca43419a354b4ef;de;;;6.1.;;;Zwischenfazit: Anknüpfungspunkte für die empirische AnalyseDie in den vorangegangenen Kapiteln rekonstruierten zeitgeschichtlichen und institutionellen Kontexte der untersuchten Landesregierungen sind zentrale Rahmenbedingungen für die Analyse der personellen Faktoren im Politik- und Informationsmanagement der drei Ministerpräsidenten. Die jeweilige Entwicklung der demoskopischen Performanz und die jeweils als bedeutsam identifizierten Herausforderungen bieten Anknüpfungspunkte für die Analyse von Funktion, Einfluss und Arbeitsweise der persönlichen Berater. Gleiches gilt für den institutionellen Kontext. Regierungsformat sowie Anzahl, politisches Gewicht und Verhältnis der Machtzentren einer Regierungsformation erzeugen unterhalb verfassungsrechtlicher Regelsysteme jeweils spezifische Anforderungen an das Politikmanagement des Regierungschefs und damit auch einen jeweils spezifischen Informations- und Beratungsbedarf. Denn der institutionelle Kontext konstituiert auch die Handlungskorridore für die Lösung der darstellungs- und entscheidungspolitischen Herausforderungen, die im zeitgeschichtlichen Kontext herausgearbeitet wurden. Die Verbindung von zeitgeschichtlichen Herausforderungen und institutionellen Arrangements führt zu der fallspezifischen Ausprägung der Strukturmerkmale des Regierens mit samt ihren Handlungsoptionen und -imperativen, anhand derer in den folgenden Kapiteln die personellen Faktoren der Politikberatung von innen analysiert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-91355-1_12 33b7bc1744e8f76db818feec4616e5f5;de;;;6.1.;;;Shared Value – Vom Risikomanagement zur MarktgestaltungDie entscheidende Frage der Corporate Responsibility (CR) ist: Wie kann das zukünftige Geschäftsmodell eines Unternehmens nachhaltig und von der Gesellschaft akzeptiert aussehen? CR wird nach wie vor von vielen Unternehmen als Momentum der Risikoüberwachung verstanden, nicht aber als Bestandteil eines erfolgreichen Innovationsmodells. Dieser Artikel zeigt auf, dass nachhaltiges Innovationsmanagement kein Widerspruch in sich ist, sondern vielmehr eine große Chance für Unternehmen darstellt, besonders im Hinblick auf den wachsenden Druck europäischer Regulierungen. Wer also nachweisen will, dass Nachhaltigkeit auch einen Return on Invest (RoI) hat, der muss das enorme Innovationspotenzial für Produkte, Lösungen und Ideen systematisch identifizieren und umsetzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-49952-8_27 d3cbe5347a4d3d1040edc819d27c6214;de;;;6.1.;;;Der Eintritt ins UntersuchungsfeldUm die Leserinnen an den Untersuchungsgegenstand heranzuführen, möchte ich in diesem, vorwiegend auf den ethnographischen Erfahrungen aufbauenden Kapitel beschreiben, wie meine ersten Kontakte mit dem Unternehmen, seinen MitarbeiterInnen und den elektronisch vermittelten Arbeitsstrukturen aussahen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-07865-4_4 dc3aabf5237f4ddd46fff0af4192eb99;de;;;6.1.;;;Der Einsatz von Managed Care im deutschen GesundheitswesenMit der Verabschiedung des zweiten GKV-Neuordungsgesetzes (2. NOG) am 01.07.1997 wurden die Rechtsgrundlagen für die Einführung und Erprobung neuer Versorgungsmodelle geschaffen. Mit den Regelungen zu den Modellvorhaben (§§ 63 ff SGB V) und den Strukturverträgen (§ 73a SGB V) hat der Gesetzgeber neue Möglichkeiten in bisher ungewohnt breitem Umfang zur Weiterentwicklung der Versorgungsstrukturen in der GKV ermöglicht. Neben den seit 1997 bestehenden Möglichkeiten der Modellvorhaben und Strukturverträge sind mit der Verabschiedung des Gesetzes zur Reform der gesetzlichen Krankenversicherung (GKV-Gesundheitsreform 2000) zum 01.01.2000 die Regelungen zur Integrierten Versorgung nach den §§ 140a ff SGB V hinzugekommen. Die Integrierte Versorgung bietet im Vergleich zu den bisherigen Modellvorhaben und Strukturverträgen noch mehr Gestaltungsfreiheit und zusätzliche Möglichkeiten, einzelne Managed Care Konzepte in Deutschland umzusetzen. Mit den neuen Regelungen wollte der Gesetzgeber den Partnern im Gesundheitswesen (Krankenkassen, Ärzten, Versicherten) die Möglichkeit geben, durch neue Strukturen die Effektivität und Effizienz der Gesundheitsversorgung zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-07971-2_5 52cb607ff9b2bc10dd6cbf8ec5d7e225;de;;;6.1.;;;Entwicklung und Betrieb nicht entscheidend – Das IT-Management folgt dem Paradigma „Innovate-Design-Transform“Informationstechnologie wird seit ihrer Entstehung als Mittel gesehen, Geschäftsprozesse zu automatisieren und zu rationalisieren. Daher ist es nicht überraschend, dass die Unternehmens-IT in den Jahren ihrer Entwicklung immer professionellere Strukturen und Abläufe entwickelt hat, um die Anforderungen von Fachabteilungen aufzunehmen, eine angemessene IT-Unterstützung zu planen, diese zu implementieren und dann in Form von IT-Services zu betreiben und anzubieten. Dabei arbeiten IT-Organisationen oftmals reaktiv, das heißt sie „warten“ auf die Wünsche der Fachabteilungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-52832-7_4 93475e149e0e38e8106bcafbb17188c9;de;;;6.1.;;;Einleitung in die sicherheitskritische Mensch-Computer-InteraktionDie sicherheitskritische Mensch-Computer-Interaktion (MCI) ist eine interdisziplinäre Herausforderung und ein für die Informatik und die jeweiligen Anwendungsdomänen ein zunehmend an Bedeutung gewinnendes Thema.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-32795-8_1 dd616566ccea987741b8673ea0489963;de;;;6.1.;;;Die Herausforderungen der IT heuteDie Welt der Informationstechnologie (IT) verändert sich nach wie vor rasant. Neue Technologien wie Cloud Computing, mobile Kommunikation, die sozialen Medien (Social Media) oder Big Data entstehen und beeinflussen nachhaltig existierende Industrien und prägen sogar neue Industriezweige und die Gesellschaft. Beispiele sind Unternehmen wie Zalando oder Car2Go, welche mit Hilfe von IT erfolgreich neue Geschäftsmodelle aufbauen konnten und etablierte Unternehmen im Markt attackieren. Der Fortschritt verlangt jedoch Agilität (vgl. hierzu Schaffry 2012) und Kundenorientierung sowie Effizienz, Effektivität und Qualität von der gesamten IT-Branche. Die geforderte Taktrate für die Entwicklung von Produkten und die Geschwindigkeit bei der Entwicklung neuer Anwendungssysteme und Anwendungen für mobile Endgeräte nimmt deutlich zu. Gleichzeitig steigen die Anforderungen an den Betrieb dieser Systeme in Bezug auf Stabilität, Sicherheit und Flexibilität in der Skalierung. Auch auf Seiten der Kunden ist ein neues und besseres Bildungsniveau hinsichtlich IT anzutreffen. Die sogenannten „Digital Natives“ fordern aktiv neue IT-basierte Lösungen für ihren Lebens- und Arbeitsalltag (vgl. hierzu Brenner et al. 2011).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-01483-4_2 5e18910f0e226121d6d47369dcd82df6;de;;;6.1.;;;Eine Dienstgüte unterstützende Webservice-Architektur für flexible GeschäftsprozesseWeb services as a technology to enable distributed business processes gain in importance. However, the support of Quality of Service (QoS) is crucial in this context. Thus, we present an integrated web service architecture with comprehensive QoS support. The architecture we introduce in this paper supports the assessment of web services to assure that only web services will be used in critical business processes that satisfy the requirements defined by the user. The selection and execution of a certain web service depends on its QoS-properties that must be guaranteed in Service Level Agreements (SLAs). The compliance with SLAs is monitored by the system as well. Furthermore we introduce a prototypical implementation of our web service architecture.;-;-;-;https://link.springer.com/article/10.1007/BF03254914 0e3270eed05dfb9f6dc781542271b92b;de;;;6.1.;;;Juristische ProfessionenDer Beitrag bietet einen schlaglichtartigen Überblick über die sozialwissenschaftliche Forschung zu juristischen Professionen. Dabei werden neben grundlegenden Studien älteren Datums auch aktuelle Untersuchungen thematisiert. Als allgemeiner Leitfaden dient die Frage nach dem Verhältnis von Einheit und Fragmentierung der heutigen Rechtsberufe. Bei der Beantwortung dieser Frage stehen die professionelle Wissensbasis, die sozialhistorische Ausdifferenzierung der professionellen Selbstverwaltungsinstitutionen im internationalen Vergleich, die Betätigungsformen und der Feminisierungstrend im Mittelpunkt.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-658-13154-8_22-1 1455a95b6cdfc1121e85bf4c5b5ca990;de;;;2.2.;;;Ein effizienter KNN-Ansatz zur Verarbeitung von Abfragen für hochdimensionale Datenobjekte in P2P-Systemen Obwohl P2P-Systeme häufig für die gemeinsame Nutzung von Ressourcen und das Abrufen von Informationen zwischen zahlreichen Benutzern verwendet werden, besteht eine der grundlegenden Herausforderungen für P2P-Systeme darin, ein Overlay-Netzwerk aufzubauen, das komplexe Abfragen hochdimensionaler Daten effizient verarbeiten kann. In diesem Papier schlagen wir eine semantische Cluster-basierte Overlay-Struktur (SCBO) vor, in der Peers gemäß ihren semantischen Dateninformationen in semantische Cluster geclustert werden und diese Cluster dann zu einem semantischen Overlay-Netzwerk geformt werden. Und ein effizienter KNN-Abfrageverarbeitungsalgorithmus wird für hochdimensionale Datenobjekte basierend auf der SCBO-Struktur vorgeschlagen. Experimente mit realen und synthetischen Datensätzen zeigen, dass SCBO und die vorgeschlagenen KNN-Abfragealgorithmen eine gute Leistung und Skalierbarkeit aufweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25781-0_65 4d8d54923c366bbafca79ddcf35c36b1;de;;;2.2.;;;Ein Musikabrufsystem basierend auf Query-by-Singing für Karaoke Jukebox Dieser Beitrag untersucht das Problem des Abrufens von Karaoke-Musik durch Singen. Die Karaoke-Musik umfasst zwei Audiokanäle in jedem Track: einer ist eine Mischung aus Gesang und Hintergrundbegleitung, der andere besteht nur aus der Begleitung. Die Begleitungen in den beiden Kanälen ähneln sich oft, sind aber nicht identisch. Diese Eigenschaft wird ausgenutzt, um die Hintergrundmusik des Gesangs aus dem Nur-Begleitungs-Kanal abzuleiten, damit die den Gesangssignalen zugrunde liegende Hauptmelodie effektiver extrahiert werden kann. Um eine effiziente und genaue Suche nach einer großen Musikdatenbank zu ermöglichen, schlagen wir eine Methode zur Erkennung von Phrasenbeginn basierend auf Bayesian Information Criterion (BIC) vor, um den wahrscheinlichsten Beginn einer gesungenen Abfrage vorherzusagen, und verwenden eine mehrstufige Dynamic Time mit mehreren Durchläufen Warping (DTW) für den Vergleich der Melodieähnlichkeit. Die Experimente, die an einer Karaoke-Datenbank mit 1.071 populären Liedern durchgeführt wurden, zeigen die vielversprechenden Ergebnisse der Abfrage von Karaoke-Musik durch Singen.;-;-;-;https://link.springer.com/chapter/10.1007/11880592_34 6e15418beaa30b6faffcdfccb46a93c6;de;;;6.1.;;;Soziale Medien in der internen OrganisationskommunikationAufgrund des großen Erfolges von sozialen Medien im privaten Umfeld beschäftigen sich auch Organisationen zunehmend mit dem Potenzial der Enterprise Social Software (ESS). Im Organisationskontext können Werkzeuge wie Weblogs und Wikis dazu beitragen, dass die Kommunikation transparenter und schneller, die Zusammenarbeit effizienter und die Unternehmenskultur partizipativer wird. Gleichzeitig bringt die ESS Herausforderungen mit sich, die ihrem nutzbringenden Einsatz entgegenstehen können. Diese Effekte sind bedingt durch die besonderen Eigenschaften von ESS, mit denen sich Mitarbeiter auf allen Unternehmensebenen und Funktionen konfrontiert sehen. Der Beitrag fasst verschiedene Studien zum Einsatz der ESS in Organisationen zusammen und erläutert aus der Perspektive der Wirtschaftsinformatik insbesondere Randbedingungen für die Einführung sowie Ansätze zur Erfolgsmessung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-03765-9_8 200400e4f5a6935324cc5e34d84b9929;de;;;6.1.;;;SFB 627 – Umgebungsmodelle für mobile kontextbezogene SystemeComputersysteme, wie wir sie heute kennen, passen sich typischerweise nicht an den Benutzer und dessen Situation an. Erste Beispiele von Systemen, die durch den Bezug zur Realwelt den ;-;-;-;https://link.springer.com/article/10.1007/s00450-006-0005-x 4d07845e9d9e1598fd4d92119185871a;de;;;2.2.;;;String-Ähnlichkeit suchen und beitreten: eine Umfrage String-Ähnlichkeitssuche und -verknüpfung sind zwei wichtige Operationen bei der Datenbereinigung und -integration, die die traditionelle exakte Suche und exakte Verknüpfungsoperationen in Datenbanken erweitern, indem sie Fehler und Inkonsistenzen in den Daten tolerieren. Sie verfügen über viele reale Anwendungen wie Rechtschreibprüfung, Duplikaterkennung, Entitätsauflösung und Webseiten-Clustering. Obwohl diese beiden Probleme in den letzten zehn Jahren ausführlich untersucht wurden, gibt es keine gründliche Untersuchung. In diesem Artikel präsentieren wir eine umfassende Umfrage zur Suche und Verknüpfung von Zeichenfolgenähnlichkeiten. Wir geben zunächst die Problemdefinitionen und führen weit verbreitete Ähnlichkeitsfunktionen ein, um die Ähnlichkeit zu quantifizieren. Anschließend präsentieren wir einen umfangreichen Satz von Algorithmen für die Suche und Verknüpfung von Zeichenfolgenähnlichkeiten. Wir besprechen auch ihre Varianten, einschließlich ungefährer Entitätsextraktion, Typ-Ahead-Suche und ungefährer Teilstring-Übereinstimmung. Schließlich stellen wir einige offene Datensätze bereit und fassen einige Forschungsherausforderungen und offene Probleme zusammen.;-;-;-;https://link.springer.com/article/10.1007/s11704-015-5900-5 a1df3b175fde6f658b3d58f535391e4b;de;;;2.2.;;;Ein relationales Modell für XML-Strukturverknüpfungen und deren Größenschätzungen Strukturelle XML-Joins, die die Containment-Beziehungen (Vorfahren-Nachkommen) zwischen XML-Elementen auswerten, sind wichtige Operationen der XML-Abfrageverarbeitung. Die genaue und schnelle Schätzung der strukturellen Join-Größe ist entscheidend für den Erfolg der XML-Abfrageplanauswahl und der Abfrageoptimierung. XML-Struktur-Joins sind im Wesentlichen komplexe θ-Joins, die bekannte Schätztechniken für relationale Equijoins, wie z. B. diskrete Kosinustransformation, Wavelet-Transformation und Skizze, nicht anwendbar machen. In diesem Papier modellieren wir strukturelle Joins aus einer relationalen Sicht und konvertieren die komplexen θ-Joins in Equijoins, sodass diese wohlbekannten Schätztechniken für die Schätzung der strukturellen Join-Größe anwendbar werden. Zu diesen Schätzverfahren wurden theoretische Analysen und umfangreiche Experimente durchgeführt. Es wird gezeigt, dass die diskrete Kosinustransformation am wenigsten Speicher benötigt und die besten Schätzungen unter den drei Techniken liefert. Verglichen mit dem Stand der Technik IM-DA-Est ist die diskrete Kosinustransformation viel schneller, benötigt weniger Speicher und liefert vergleichbare Schätzungen.;-;-;-;https://link.springer.com/article/10.1007/s10115-007-0089-z 3a2d6369e710495e36ed95e800845311;de;;;2.2.;;;Darstellung von Audiodaten durch FS-Bäume und anpassungsfähige TV-Bäume Eine automatische Inhaltsextraktion aus Multimediadateien basierend sowohl auf manueller als auch auf automatischer Indexierung wird ausführlich untersucht. Im Bereich der Musikdaten wurde eine automatische Inhaltsbeschreibung von Musikklängen jedoch noch nicht umfassend untersucht und bedarf noch intensiver Forschung. In diesem Beitrag wird die spektro-zeitliche Klangdarstellung zum Zweck der automatischen Musikinstrumentenerkennung verwendet. Unter der Annahme, dass Musikinstrumente in Bezug auf eine Gruppe von Merkmalen erlernt werden können und auch darauf basierend entweder eine automatische oder manuelle Indexierung einer Audiodatei erfolgt, können Frame Segment Trees (FS-Bäume) verwendet werden, um Segmente eines Audios zu identifizieren, die mit . gekennzeichnet sind die gleichen Indizes. Teleskopische Vektorbäume (TV-Trees) sind aus ihren Anwendungen in der Textverarbeitung und neuerdings in Datenclustering-Algorithmen bekannt. In diesem Papier verwenden wir sie gemeinsam mit FS-Bäumen, um ein neues Query Answering System (QAS) für Audiodaten zu konstruieren. Audiosegmente werden von QAS als Antworten auf Benutzeranfragen zurückgegeben. Es wird eine heuristische Strategie zum Aufbau anpassungsfähiger TV-Bäume vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39592-8_19 877f286732b28e33bf214fb3947fd014;de;;;6.1.;;;Elemente des LogistikmanagementsDamit die Kernprozesse der Logistik effektiv und effizient erfolgen können und ein geldwerter Kundennutzen erzielt wird, müssen die Prozesse und die dafür notwendigen Strukturen gemanagt werden. Das Kapitel vermittelt eine grundlegende Einführung in das Logistikmanagement und gibt einen Überblick über die relevanten Dimensionen. Hierzu gehört zunächst der Aufbau eines Zielsystems der Logistik. Hiermit wird ein grundsätzlicher Orientierungsrahmen für logistische Entscheidungsprozesse gegeben. Als weitere Dimensionen des Logistikmanagements werden die Einbindung der Logistik in die Unternehmensstrategie und Aspekte des Logistikcontrollings behandelt, wobei Logistikkennzahlen herausgehoben werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-18593-0_2 1b00f8c1de4f33aa58dc3942997c2535;de;;;6.1.;;;Patientenidentifikation und Prozessorientierung – Problemstellung und GrundlagenDie Aufgabe des Gesundheitswesens liegt in der „Gesamtheit des organisierten gesellschaftlichen Handelns als Antwort auf das Auftreten von Krankheit und Behinderung und zur Abwehr gesundheitlicher Gefahren“ (Schwartz u. Busse 2003, S. 519). Als zentraler Teil des Gesundheitswesens umfasst die Gesundheitsversorgung die Erbringung, Organisation, Finanzierung und Steuerung von Leistungen zur Heilung und Linderung von akuten Krankheiten, zur Gesundheitsprävention oder zur dauerhaften Versorgung chronisch kranker Personen. Diese Leistungen werden von verschiedenen, hoch spezialisierten Berufsgruppen, den Wissensträgern des Gesundheitswesens, erbracht. Die Strukturen und Verfahren des Gesundheitswesens kombinieren in Prozessen und Organisationen die ärztlichen Leistungen unterschiedlicher Disziplinen, beispielsweise Chirurgie oder Innerer Medizin, mit denen der Pflege, Physiotherapie etc. und den teilweise hoch spezialisierten Leistungen wie der Intensivpflege oder der Anästhesie sowie den medizinischen Querschnittsleistungen des Labors, der Pharmazie oder der Radiologie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13087-8_2 204967fed40d065af3a3b670dc48dbd4;de;;;2.2.;;;Ein inhaltsbasierter Empfehlungsrahmen für Gerichtsverfahren Vor dem Hintergrund der Justizreform Chinas werden Big Data von Gerichtsverfahren häufig verwendet, um das Problem der Justizforschung zu lösen. Die Ähnlichkeitsanalyse von Gerichtsverfahren ist die Grundlage der Weisheitsgerichtsbarkeit. Angesichts der Notwendigkeit, die ineffektiven Informationen loszuwerden und nützliche Regeln und Bedingungen aus dem beschreibenden Dokument zu extrahieren, ist die Analyse chinesischer Gerichtsverfahren mit einem bestimmten Format eine große Herausforderung. Daher schlagen wir eine Methode vor, die sich auf die Erstellung von Empfehlungen konzentriert, die auf dem Inhalt von Gerichtsverfahren basieren. In Anbetracht der Besonderheiten der chinesischen Sprache verwenden wir zur Vorverarbeitung der Fälle die Textsegmentierung „jieba“. Angesichts des Fehlens von Labels für Benutzerinteresse und -verhalten berücksichtigt die vorgeschlagene Methode die Inhaltsinformationen durch die Übernahme von TF-IDF in Kombination mit dem LDA-Themenmodell im Gegensatz zu herkömmlichen Methoden wie CF (Collaborative Filtering Recommendations). Benutzern wird empfohlen, die Kosinusähnlichkeit von Fällen im selben Thema zu berechnen. In den Experimenten bewerten wir die Leistung des vorgeschlagenen Modells an einem gegebenen Datensatz von fast 200.000 Gerichtsverfahren. Das experimentelle Ergebnis zeigt, dass die vorgeschlagene Methode die beste Leistung erzielt, wenn die Anzahl der Themen etwa 80 beträgt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0118-0_7 447ace24ddce4c30cfc48b5c16cb8472;de;;;2.2.;;;Modellieren und Abrufen von bewegten Objekten Dieses Papier präsentiert einen symbolischen Formalismus zum Modellieren und Abrufen von Videodaten über die in den Videobildern enthaltenen bewegten Objekte. Das Modell integriert die Darstellungen einzelner sich bewegender Objekte in einer Szene mit den zeitlich veränderlichen Beziehungen zwischen ihnen, indem es sowohl die Begriffe der Objektspuren als auch die zeitlichen Abfolgen von PIRs (Projektionsintervallbeziehungen) einbezieht. Das Modell wird durch eine Reihe von Operationen unterstützt, die die Grundlage einer Algebra für bewegte Objekte bilden. Diese Algebra ermöglicht es, Szenen und Informationen aus Szenen abzurufen, indem sowohl räumliche als auch zeitliche Eigenschaften der beteiligten Objekte angegeben werden. Es bietet auch Operationen zum Erstellen neuer Szenen aus bestehenden. Es wird eine prototypische Implementierung beschrieben, die es ermöglicht, Abfragen entweder über eine Animationsskizze oder über die Algebra der bewegten Objekte zu spezifizieren.;-;-;-;https://link.springer.com/article/10.1023/A%3A1009677223697 b7c612781866bf2be1e4db79f6d1c08f;de;;;6.1.;;;Bildungsmonitoring zwischen Berichterstattung und SteuerungsanspruchBildungsmonitoring gewinnt in der bildungspolitischen Praxis wie in der wissenschaftlichen Diskussion zunehmend an Bedeutung. Mit der zunehmenden Entwicklung regionaler Bildungsmonitoringsysteme besteht die Chance, Steuerungsfragen stärker zu berücksichtigen. Ob und wie dies geschieht ist allerdings von den Interaktions- und Aushandlungsprozessen zwischen verschiedenen Akteuren abhängig. Die Einführung regionalen Bildungsmonitorings bietet daher Anknüpfungspunkte für eine governanceanalytische Betrachtung. Hierzu skizzieren wir zunächst einige grundsätzliche theoretische Überlegungen entlang von ausgewählter Literatur. Anschließend vertiefen wir die governanceanalytische Perspektive anhand erster Befunde aus der wissenschaft lichen Begleitforschung des Programms „Lernen vor Ort“.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-12442-7_4 563540a218a65c6c9feaccab30a8ea24;de;;;2.2.;;;Optimierung wissenschaftlicher Datenbanken für die kundenseitige Datenverarbeitung Datenbanken sind heutzutage ein weiterer Baustein in komplexen mehrschichtigen Architekturen. Im Allgemeinen werden sie jedoch immer noch ohne Rücksicht auf die Anwendungen entwickelt und optimiert, die darauf laufen. Dieses Problem ist besonders bei wissenschaftlichen Anwendungen akut, wo die Daten normalerweise beim Client verarbeitet werden und daher konventionelle serverseitige Optimierungen nur begrenzt helfen. In diesem Beitrag stellen wir eine Vielzahl von Techniken und eine neuartige Client/Server-Architektur vor, die entwickelt wurde, um die clientseitige Verarbeitung wissenschaftlicher Daten zu optimieren. Der Hauptbaustein unseres Ansatzes besteht darin, Daten, auf die häufig zugegriffen wird, als relativ kleine Wavelet-codierte Segmente zu speichern. Diese Segmente können in unterschiedlichen Qualitäten und Auflösungen verarbeitet werden, wodurch eine effiziente Verarbeitung sehr großer Datenmengen ermöglicht wird. Experimentelle Ergebnisse zeigen, dass unser Ansatz den Overhead (I/O, Übertragung über das Netzwerk, Dekodierung und Analyse) erheblich reduziert, keine Änderungen an den Analyseroutinen erfordert und alle möglichen Auflösungsbereiche bietet.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45876-X_26 c17067844ddbe29218e2b0305ae8c14b;de;;;2.2.;;;Verarbeitung von XML-Abfragen mithilfe eines schemabasierten Nummerierungsschemas Das Einrichten der hierarchischen Ordnung zwischen XML-Elementen ist eine wesentliche Funktion von XML-Abfrageverarbeitungstechniken. Obwohl die meisten XML-Dokumente eine zugehörige DTD oder ein XML-Schema aufweisen, wurden die Dokumentstrukturinformationen in bisher vorgeschlagenen Abfrageverarbeitungstechniken nicht effizient genutzt. In diesem Papier schlagen wir eine neuartige Technik vor, die DTD- oder XML-Schema verwendet, um die Disk-I/O-Komplexität der XML-Abfrageverarbeitung zu verbessern. Wir präsentieren ein schemabasiertes Nummerierungsschema namens;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30081-6_3 42d8d1cdfb0b7df517e7690f2a94dd97;de;;;2.2.;;;Subraum-Skyline-Abfragen Skyline-Abfragen helfen Benutzern, intelligente Entscheidungen über komplexe Daten zu treffen, wenn verschiedene und oft widersprüchliche Kriterien berücksichtigt werden. Solche Abfragen geben einen Satz von Datenpunkten zurück, die in allen Dimensionen von keinem anderen Punkt dominiert werden. Skyline-Abfragen wurden in zentralisierten Systemen und in jüngerer Zeit in verteilten Umgebungen wie Web-Informationssystemen und Peer-to-Peer (P2P)-Netzwerken untersucht. Die Verarbeitung von Skyline-Anfragen in P2P-Netzwerken stellt inhärente Herausforderungen und erfordert aufgrund der Verteilung von Inhalten und des Mangels an globalem Wissen nicht-traditionelle Techniken. Eine verteilte Skyline-Verarbeitung sollte die Übertragung von global dominierten Datenpunkten minimieren. Außerdem sollten Peers, die keine globalen Skyline-Punkte speichern, idealerweise überhaupt nicht kontaktiert werden. Das Erkennen der Dominanz zwischen Punkten, die von verschiedenen Peers gespeichert sind, ist eine Herausforderung und erfordert die Verwendung von zusammenfassenden Informationen, die die lokal und im Netzwerk gespeicherten Daten beschreiben. In diesem Abschnitt beschreiben wir im Detail ein verteiltes Framework für die Subraum-Skyline-Verarbeitung namens SKYPEER+ [130]. SKYPEER+ reduziert sowohl die Rechenzeit als auch das Volumen der übertragenen Daten durch (i) effizientes Routing von Skyline-Anfragen über das Super-Peer-Netzwerk und (ii) ein effektives Schwellwert- und Indexierungsschema zum Verwerfen dominierter Punkte.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-2110-8_6 9226f7dcee32fce397e3665372aebaff;de;;;2.2.;;;Studie der Indexstruktur von Geodaten basierend auf Hybrid Tree Um die Effizienz des Zugriffs auf räumliche Daten und die Abrufleistung zu verbessern, wird eine Indexstruktur entworfen, die das Problem der geringen Abfrageeffizienz der einzelnen Indexstruktur bei großen Datenmengen löst. Durch die Herstellung der Korrespondenz zwischen den logischen Datensätzen und den physischen Datensätzen der Geodaten wird die hybride Geodatenindexstruktur basierend auf 2;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25661-5_68 3260dcdf6db56fe6b9ff7897771cc6c1;de;;;2.2.;;;Softwarekonzepte Programme werden benötigt, um einen Mikrocomputer zum Laufen zu bringen. Glücklicherweise gibt es eine große Auswahl an Software: Die Chancen stehen gut, dass etwas gefunden wird, um ein bestimmtes Problem zu lösen. Viele Mikrocomputerbenutzer werden daher niemals einen einzigen Programmbefehl schreiben. Wären die für sie interessanten Programme nicht verfügbar gewesen, hätten sie sich nie einen Mikrocomputer gekauft.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-3206-8_3 815e023ceea703cd5f02b054dbde8871;de;;;2.2.;;;Kovariant funktional verpackte Floer-Theorie auf Liouville-Sektoren Wir führen eine Klasse von Liouville-Mannigfaltigkeiten mit Rand ein, die wir Liouville-Sektoren nennen. Wir definieren die umhüllte Fukaya-Kategorie, die symplektische Kohomologie und die offen-geschlossene Karte für Liouville-Sektoren und zeigen, dass diese Invarianten in Bezug auf Einschlüsse von Liouville-Sektoren kovariant funktorial sind. Aus diesem Grundaufbau folgt ein Local-to-Global-Prinzip für das Erzeugungskriterium von Abouzaid.;-;-;-;https://link.springer.com/article/10.1007/s10240-019-00112-x 3e237a8c4ee53233933cb04834043270;de;;;2.2.;;;Der SH-Baum: Eine superhybride Indexstruktur für mehrdimensionale Daten Heutzutage kommt in Datenbanksystemen zunehmend eine auf Merkmalsvektoren basierende Ähnlichkeitssuche zum Tragen. Folglich wurden viele mehrdimensionale Datenindextechniken in der Datenbankforschergemeinschaft weithin eingeführt. Diese Indextechniken werden in zwei Hauptklassen eingeteilt: SP (Raumpartitionierung)/KD-Baum-basiert und DP (Datenpartitionierung)/R-Baum-basiert. Vor kurzem wurde eine hybride Indexstruktur vorgeschlagen. Es kombiniert sowohl SP/KDtree-basierte als auch DP/R-Tree-basierte Techniken, um eine neue, effizientere Indexstruktur zu bilden. Bei den oben genannten Techniken bestehen jedoch immer noch Schwächen. In diesem Beitrag stellen wir eine neuartige und flexible Indexstruktur für mehrdimensionale Daten vor, den SH-Baum (Super Hybrid Tree). Theoretische Analysen zeigen, dass der SHtree eine gute Kombination beider Techniken sowohl in Bezug auf Präsentations- als auch Suchalgorithmen darstellt. Es überwindet die Mängel und nutzt ihre positiven Aspekte, um eine effiziente Ähnlichkeitssuche zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44759-8_34 98c667d90ec0ce92d3f2662a3f48e568;de;;;2.2.;;;Eingabesysteme, Anaphora, Ellipse und Operatorbindung Mit der Modularitätstheorie des Geistes von Fodor (Fodor 1983) und der Relevanztheorie von Sperber und Wilson zusammen (Sperber und Wilson 1986) haben wir eine neue Gesamttheorie des Geistes. Erster Fodor, der bekannt ist. Der Verstand verarbeitet Informationen aus der Welt um ihn herum, indem er Darstellungen in der sogenannten Denksprache konstruiert. Die Konstruktion solcher Darstellungen aus auftreffenden visuellen oder anderen Daten ist die Aufgabe von Eingabesystemen, und die Sprachfähigkeit ist ein solches komplexes Eingabesystem. Prozesse des zentralen kognitiven Systems werden dann über syntaktische Repräsentationen der Denksprache definiert. Zu diesen Annahmen fügen Sperber und Wilson eine Einschränkung für das zentrale kognitive System hinzu, dass der Geist darauf eingestellt ist, auf maximale Relevanz zu zielen. Diese Einschränkung der Relevanzmaximierung ist ein relativiertes Minimalitätsprinzip – der Verstand unternimmt die geringste kognitive Anstrengung, die dem Erreichen einer ausreichenden Schlussfolgerung oder anderer kontextueller Effekte entspricht. Mit dieser Einschränkung als Grundstein entwickeln Sperber und Wilson eine Kommunikationstheorie, nach der Kommunikation durch ein einziges Relevanzprinzip gesteuert wird: Jeder Akt der inferentiellen Kommunikation trägt eine Garantie für optimale Relevanz.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-1842-2_4 12896f1e702a97d30f0553e5af5f4fad;de;;;2.2.;;;Ein erweiterter Vorbestellungsindex zur Optimierung von XPath-Ausdrücken Viele der Probleme mit nativen XML-Datenbanken beziehen sich auf die Abfrageleistung und folglich kann es schwierig sein, traditionelle Datenbankbenutzer von den Vorteilen der Verwendung semi- oder unstrukturierter Datenbanken zu überzeugen. Derzeit fehlt noch eine Indexstruktur, die eine effiziente Unterstützung für strukturelle Abfragen und die traditionellen datenzentrierten und inhaltsbezogenen Abfragen bietet. Dieses Papier stellt eine erweiterte Indexstruktur vor, die auf dem Preorder-Traversal-Rang und dem Level- (oder Tiefen-)Rang jedes Knotens in einem Dokumentbaum basiert. Der erweiterte Index unterstützt die Navigation aller XPath-Achsen vollständig und unterstützt gleichzeitig effizient datenzentrierte Abfragen. Die Möglichkeit, Pfaddurchläufe von beliebigen Knoten in einem Dokumentbaum zu starten, ermöglicht es dem erweiterten Index auch, die Auswertung von Pfaddurchläufen zu unterstützen, die in XQuery-Ausdrücken eingebettet sind. Darüber hinaus wird eine Codierungstechnik vorgestellt, bei der Eigenschaften des Level-Rankings ausgenutzt werden können, um effiziente und optimierte Level-basierte XPath-Bewertungen bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/11547273_9 4feed36f9eb31d1f9660a5f49c10e9a3;de;;;2.2.;;;Implementierung mehrdimensionaler Indexstrukturen zur Wissensermittlung in relationalen Datenbanken Eine effiziente Abfrageverarbeitung ist eine der Grundvoraussetzungen für Data-Mining-Algorithmen. Clustering-Algorithmen, Assoziationsregel-Mining-Algorithmen und OLAP-Tools beruhen alle darauf, dass effiziente Abfrageprozessoren mit hochdimensionalen Daten umgehen können. Innerhalb eines solchen Abfrageprozessors werden als grundlegende Technik mehrdimensionale Indexstrukturen verwendet. Da die Implementierung einer solchen Indexstruktur eine schwierige und zeitaufwändige Aufgabe ist, schlagen wir einen neuen Ansatz vor, um eine Indexstruktur auf einem kommerziellen relationalen Datenbanksystem zu implementieren. Insbesondere bilden wir die Indexstruktur auf ein relationales Datenbankdesign ab und simulieren das Verhalten der Indexstruktur mithilfe von Triggern und Stored Procedures. Dies kann leicht für eine sehr große Klasse mehrdimensionaler Indexstrukturen durchgeführt werden. Um die Machbarkeit und Effizienz zu demonstrieren, haben wir einen X-Tree auf Oracle 8 implementiert. Wir haben mehrere Experimente an großen Datenbanken durchgeführt und eine Leistungssteigerung von bis zu Faktor 11,5 im Vergleich zu einem sequentiellen Scan der Datenbank festgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48298-9_28 465fb451ec8da98cb125c4bd315fa40f;de;;;2.2.;;;Einschränkungsdatenbanken: Eine Umfrage Constraint-Datenbanken verallgemeinern relationale Datenbanken durch endlich darstellbare unendliche Beziehungen. Dieser Artikel gibt einen Überblick über den Stand der Technik bei Constraint-Datenbanken: bekannte Ergebnisse, noch offene Probleme und aktuelle Forschungsrichtungen. Das Papier beschreibt auch eine neue Algebra für Datenbanken mit Beschränkungen der ganzzahligen Ordnung und eine Komplexitätsanalyse der Auswertung von Anfragen in dieser Algebra.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0035010 1fd94a7a77724f6944357d48d79e4bc2;de;;;2.2.;;;Visuelle Polysemie und Synonymie: Auf dem Weg zum nahezu duplizierten Bildabruf Beim Abrufen von Beinahe-Duplikat-Bildern werden alle Bilder gefunden, die doppelt oder nahezu doppelt zu einem Abfragebild sind. Eine der beliebtesten und praktischsten Methoden zur Wiederherstellung nahezu doppelter Bilder basiert auf dem Bag-of-Words (BoW)-Modell. Der grundlegende Mangel der aktuellen BoW-Methode ist jedoch die Kluft zwischen der semantischen Bedeutung des visuellen Wortes und des Bildes. Ein ähnliches Problem plagt auch die vorhandene Textsuche. Ein vorherrschendes Verfahren gegen ein solches Problem bei der Textwiederherstellung besteht darin, Textsynonymie und -polysemie zu beseitigen und daher die gesamte Leistung zu verbessern. Unser vorgeschlagener Ansatz übernimmt Ideen aus der Textsuche und versucht, diese Mängel des BoW-Modells zu überwinden, indem das Problem der semantischen Lücke als visuelle Synonymie- und Polysemieprobleme behandelt wird. Wir verwenden visuelle Synonymie in einem sehr allgemeinen Sinn, um die Tatsache zu beschreiben, dass es viele verschiedene visuelle Wörter gibt, die sich auf dieselbe visuelle Bedeutung beziehen. Mit visueller Polysemie beziehen wir uns auf die allgemeine Tatsache, dass die meisten visuellen Wörter mehr als eine unterschiedliche Bedeutung haben. Um visuelle Synonymie zu eliminieren, präsentieren wir eine erweiterte Ähnlichkeitsfunktion, um visuelle Abfragewörter implizit zu erweitern. Um visuelle Polysemie zu eliminieren, verwenden wir visuelle Muster und beweisen, dass die effizienteste Art der Verwendung von visuellen Mustern darin besteht, den visuellen Wortvektor mit dem visuellen Mustervektor zu verschmelzen und die Ähnlichkeitsbewertung durch die Kosinusfunktion zu erhalten. Darüber hinaus beobachten wir, dass eine hohe Wahrscheinlichkeit besteht, dass in einem angrenzenden Bereich doppelte visuelle Wörter vorkommen. Daher modifizieren wir den traditionellen Apriori-Algorithmus, um quantitative Muster zu ermitteln, die als Muster mit doppelten Elementen definiert werden können. Experimente beweisen quantitative Muster, die die mittlere durchschnittliche Präzision (MAP) signifikant verbessern.;-;-;-;https://link.springer.com/article/10.1007/s11460-010-0099-6 fa1fe3229abfe90f49d9d260955aa9fc;de;;;2.2.;;;Abfragen zu synthetischen Bildern für große multivariate Engineering-Datenbanksuchen Ingenieure sind oft daran interessiert, historische Motorentestdatensätze zu durchsuchen, um das Systemverhalten in Experimenten zu untersuchen oder einfach die Integrität von Daten anhand von Erfahrungen aus der Vergangenheit zu validieren. Motortests bestehen normalerweise aus Design-of-Experiment-Tests (DoE), die bei verschiedenen Betriebsbedingungen eines Motors durchgeführt werden. Während DoE-Tests ein Zeit- oder Messfeld aufzeichnen, so dass es unter die multivariate Zeitreihendomäne fallen könnte, haben die technischen Experimente jedoch keinen wichtigen Zusammenhang mit der Ordnung. Mit diesem Wissen haben wir eine Methode entwickelt, um die technischen Daten als einen Satz normalisierter Histogramme zu visualisieren, um synthetische Bilder für jeden Test herzustellen. Aus diesen Bildern und ihren Pixelzeilen schlagen wir eine Listenbasis-Indexierungsmethode vor, um die Motortestbilder effizient zu indizieren, und einen schnellen Algorithmus, um sowohl die univariaten als auch die multivariaten Fälle zu durchsuchen. Das Abfragen der Daten nach ähnlichen Verhaltensweisen wird somit für den Ingenieur viel einfacher als das manuelle Durchsuchen von Dateien. Unsere Daten haben eine heterogene Form, was oft bedeuten kann, dass Spalten fehlen, wo sie in anderen Datensätzen vorhanden sind. Es kann manchmal sogar den Vergleich zwischen verschiedenen Datentypen bedeuten. Diese Dateninkonsistenz ist etwas, das in unserer Forschung selten berichtet oder versucht wird, zu durchqueren, aber in echten multivariaten Datenfallstudien immer wieder auftritt. Um dieses realistische Problem zu überwinden, ermöglicht unsere Methode den Vergleich von univariaten Daten mit unterschiedlichen Qualitätswerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29933-0_43 759d6c977d4b99e5c583420ba109a645;de;;;2.2.;;;Multilineare Algebra und parallele Programmierung Wir diskutieren eine Programmiermethodik, die auf der Verwendung multilinearer Algebra basiert, um parallele Algorithmen für lineare Berechnungen zu entwerfen und zu implementieren. Insbesondere überprüfen wir Techniken zur Implementierung von Ausdrücken, die das Tensorprodukt beinhalten. Wir zeigen dann, wie das Tensorprodukt verwendet werden kann, um den Matrixmultiplikationsalgorithmus von Strassen zu formulieren. Wir berichten über unsere Erfahrungen mit dieser Formulierung und diesen Techniken, um eine parallele Version des Matrix-Multiplikationsalgorithmus von Strassen auf dem Encore Multimax zu implementieren.;-;-;-;https://link.springer.com/article/10.1007/BF00127843 56c5f830ff89a44a75de40c0a1de6d00;de;;;2.2.;;;Diskretisierung von Zeitreihendatensätzen mit relativer Häufigkeit und K-Nearest Neighbor-Ansatz In dieser Arbeit schlagen wir einen verbesserten Ansatz zur Diskretisierung von Zeitreihendaten unter Verwendung der Funktionen Relative Frequenz und K-nächster Nachbar vor, die als RFknn-Methode bezeichnet wird. Die Hauptidee des Verfahrens besteht darin, den Prozess der Bestimmung der ausreichenden Anzahl von Intervallen für die Diskretisierung von Zeitreihendaten zu verbessern. Der vorgeschlagene Ansatz verbesserte die Darstellung der Zeitreihendaten durch die Integration mit der Piecewise Aggregate Approximation (PAA) und der Symbolic Aggregate Approximation (SAX)-Darstellung. Die Intervalle werden als Symbol dargestellt und können einen effizienten Mining-Prozess gewährleisten, bei dem ein besseres Wissensmodell ohne großen Wissensverlust gewonnen werden kann. Die Grundidee besteht nicht darin, die Anzahl der Intervalle der zeitlichen Muster über ihre Klassenlabels zu minimieren oder zu maximieren. Die Leistung von RFknn wird anhand von 22 zeitlichen Datensätzen bewertet und mit der ursprünglichen SAX-Methode zur Diskretisierung von Zeitreihen mit ähnlicher Darstellung verglichen. Wir zeigen, dass RFknn die Darstellungsgenauigkeit verbessern kann, ohne den symbolischen Charakter der ursprünglichen SAX-Darstellung zu verlieren. Die experimentellen Ergebnisse zeigten, dass RFknn eine bessere Darstellung mit geringeren und vergleichbaren Fehlerraten liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17316-5_18 49771d6d8d5fb8fcf710b58efc055e02;de;;;2.2.;;;Das System der offenen Sternhaufen erneut besucht Das System der offenen Sternhaufen ist eine hervorragende Untersuchung der Struktur und Entwicklung der galaktischen Scheibe. Ihre räumlichen, Größen-, Alters- und Massenverteilungen liefern wertvolle Informationen über den Clusterbildungsprozess. Die heutige Astronomie ist reich an Daten, und daher versuchen wir in dieser Arbeit, eine umfassende statistische Untersuchung von Sternhaufen aufzubauen. Diese Studie basiert auf verfügbaren Katalogen, sowohl homogenen als auch inhomogenen, um einige nützliche Einblicke in die Evolutionsgeschichte des Systems offener Sternhaufen und folglich der Galaxie zu geben. Wir finden, dass die optimale Größe eines Clusters für sein Überleben 3–4 pc beträgt. Wir finden auch, dass zwischen dem Alter und den mittleren linearen Durchmessern von Clustern und auch mit normalisierter Rötung eine einfache lineare Beziehung besteht. Anhand der Kataloge, die auf Gaia DR2 und anderen Katalogen basieren, stellen wir fest, dass das System der offenen Sternhaufen wertvolle Hinweise auf unser Verständnis der Entwicklung der Galaxie liefert. Dieses System kann durch k-Mittel unterteilt werden, um Cluster im statistischen Sinne zu erhalten, was auf eine mögliche Clusterbildung in der Galaxie bei verschiedenen galaktozentrischen Abständen und mit unterschiedlichen Parametern hinweist. Dies legt eine Kombination der Szenarien des gesamten Halokollapses und der Akkretion nahe, um die Bildung der Scheibe der Galaxie zu erklären. Diese Methode wird für die Untersuchung externer Galaxien mit Katalogen extragalaktischer Haufen vorgeschlagen, da sie gut mit den Haufen der Milchstraße funktioniert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6463-9_11 258b39bf6647c7421422bc2b4fe5d285;de;;;6.1.;;;Ergonomie-Reviews und Usability-Testing als Beratungs- und QualifizierungsinstrumenteDas Projekt „Software-Ergonomie-Transfer“ (SET) berät auf regionaler Ebene in einem Verbundvorhaben Meine und mittlere Softwarehäuser zur Fragen der Software-Ergonomie. Die dabei in allen Phasen der Software-Entwicklung eingesetzten punktuellen Reviews und Usability-Tests fungieren keineswegs nur als Prüfverfahren, sondern zusätzlich als Qualifizierungsinstrumente für die Software-Entwickler.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-86782-7_4 6ea17f94fa860746d553730aff8865ed;de;;;6.1.;;;IT auf dem Weg zur Integrationstechnologie am Beispiel eines AutomobilherstellersDer Informationstechnologie (IT) kommt in der Automobilindustrie große Bedeutung zu. Fast alle Kernprozesse eines Automobilherstellers (Entwicklung, Herstellung, Vermarktung von Produkten, Querschnitts- und Steuerungsprozesse) sind ohne effektiven und effizienten IT-Einsatz heute nicht mehr denkbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-01577-2_40 d93f091345425213494a3a930201fd3e;de;;;2.2.;;;Analyse mit Popularity Awareness Index, Recency Index und Purchase Diversity im Group Buying Wir schlagen neue Metriken für das Kaufverhalten von Kunden auf einer Website mit Gruppenkauf-Coupons vor, die auf HITS-Algorithmen und Informationsentropie basieren: das heißt Popularitätsbewusstseinsindex, Aktualitätsindex und Kaufvielfalt. Diese Indizes werden verwendet, um Kunden zu klassifizieren und zukünftiges Verhalten vorherzusagen. Dieses Papier enthält Definitionen dieser neuen Indizes, die in echten Gruppenkauf-Websites verwendet werden sollen. Auf diesen Websites sind angemessene Eigenschaften für Kunden dringend erforderlich und für Marketingzwecke von entscheidender Bedeutung. Wir werden auch einige experimentelle Ergebnisse zu realen Datensätzen bereitstellen, einschließlich der Kundensegmentierung, die in der zukünftigen Marketingplanung verwendet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08976-8_8 42cbaffdfbc13b957ca362bf397bbf59;de;;;2.2.;;;Bewertung des Druck-Volumen-Index während einer Lumbalinfusionsstudie: Was ist die optimale Methode? : Die Bewertung des Druck-Volumen-Index (PVI) während einer lumbalen Infusionsstudie (LIS) wurde vorgeschlagen, um die allgemeine Compliance des kranio-spinalen Systems zu bewerten. Sie wird aus der Messung der Liquordruckänderungen berechnet, Δ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-59436-7_64 337ca0f71e80113ff9d1c255904d96b0;de;;;6.1.;;;Bike Now: Eine mobile App für das Crowdsourcing von Floating Bike DataDer städtische Radverkehr in Deutschland nimmt zu. Die Radverkehrsinfrastruktur ist darauf oft nicht vorbereitet und die auf den motorisierten Individualverkehr (MIV) optimierte Verkehrssteuerung trägt nicht zur Attraktivität des Radverkehrs bei. BikeNow ist ein Prototyp eines Fahrerinformationssystems für Radfahrende.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-21214-8_25 6e6846fc69ef64fbdf921aecd1e5439b;de;;;6.1.;;;Wireframes und Click-Prototypen als GestaltungsmethodeIm Fokus von diesem Kapitel stehen Wireframes und Click-Prototypen. Diese zwei Gestaltungsmethoden ergänzen sich und nehmen eine wichtige Rolle im der Entwicklung von digitalen Produkten ein. Wireframes sind zweidimensionale konzeptionelle Abbildungen des zukünftigen Produkts mit einem hohen Abstraktionsgrad.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-21214-8_23 cf823a7758e3510b1a5be3cf2e81e3e9;de;;;6.1.;;;Bürgerbeteiligung und Versorgungsgestaltung im Alter – „Gut und aktiv älter werden in Schorndorf“„Aktive Bürgerbeteiligung ist ein Stück gestaltete Stadtentwicklung und soll neue Wege eröffnen statt nur Interessen zu vertreten“ (Hummel 2015, S. 31).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-14809-6_11 418c57362a3f301da3768accc12e8643;de;;;6.1.;;;Nutzung von Verkehrsdaten zur VerkehrsflussoptimierungDer städtische Verkehr in Dresden zählt zu den Besten in ganz Deutschland. Das hat eine repräsentative Onlineumfrage des ADAC ergeben, in der die 15 größten deutschen Städte bewertet wurden (ADAC e.V. 2017). Die Landeshauptstadt Dresden verfügt mit seinem ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-21214-8_7 925c261f36e1e2e6d3f283daee63267b;de;;;6.1.;;;Einleitung und ForschungsstandTrotz umfangreicher und langjähriger Anstrengungen in der wissenschaftlichen Forschung bleiben der Terrorismusbegriff, seine Formen und Ursachen sowie Ansätze zur Verhinderung terroristischer Gewalt im wissenschaftlichen Diskurs wie in der öffentlichen politischen Debatte kontrovers. Fest steht, dass Terrorismus ein negatives Label ist (Hirschmann, 2003), das in der politischen Arena dazu instrumentalisiert wird, politische Opponenten zu diskreditieren (Dahlke, 2006). Die Hauptströmung der Terrorismusforschung beschreibt den Terrorismus als politische Gewalt von sub-staatlichen Akteuren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-17393-7_1 809bb0e5787b786c04aa5173e94dce93;de;;;2.2.;;;Abrufen von Landschaftsbildern mit der Szenenstrukturmatrix In diesem Papier stellen wir die Scene Structural Matrix (SSM) vor und wenden sie auf den Abruf von Landschaftsbildern an. Das SSM erfasst die strukturellen Gesamteigenschaften der Szene durch Indizierung der geometrischen Merkmale des Bildes. Ein binärer Bildbaum (bintree) wird verwendet, um das Bild zu unterteilen, und aus dem wir geometrische Strukturdeskriptoren mit mehreren Auflösungen des Bildes ableiten. Es wird gezeigt, dass SSM besonders effektiv beim Abrufen von Bildern mit starken Strukturmerkmalen, wie beispielsweise Landschaftsaufnahmen, ist. Wir zeigen, dass SSM robust gegenüber räumlichen und spektralen Verzerrungen ist, wodurch es in bestimmten Anwendungen dem aktuellen Stand der Technik wie dem Farbkorrelogramm überlegen ist. Wir werden auch zeigen, dass Bilder, die vom SSM abgerufen werden, relevanter sind als diejenigen, die vom Farbkorrelogramm und Farbhistogramm zurückgegeben werden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45453-5_122 1aac1a3496015c6ccfa609fa0e730a5c;de;;;2.2.;;;Digitale Verarbeitung von synchron abgetasteten Wechselstromsignalen in Anwesenheit von Zwischenharmonischen und Subharmonischen Dieses Kapitel des Buches befasst sich mit dem Problem der Schätzung des Wertes der Wirkleistung des Wechselstromsignals in Gegenwart von Subharmonischen und Zwischenharmonischen. Das Verfahren kann analog auch zur Bestimmung des Effektivwertes von elektrischen Grundwerten angewendet werden. Die Analyse verwendet das allgemeinste Modell des Spannungs- und Stromsignals, also den komplexesten spektralen Inhalt, der in der Praxis zu erwarten ist. Eine Simulation des vorgeschlagenen Verfahrens wurde ebenfalls durchgeführt, um die Möglichkeit einer genauen Verarbeitung durch Verwendung der synchronisierten Abtasttechnik auch bei Vorhandensein von Subharmonischen und Zwischenharmonischen endgültig zu bestätigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03843-3_2 80347c944b2f70ba4edc5d9666587978;de;;;6.1.;;;Design Thinking für industrienahe Dienstleister – Was ein analoges und digitales DETHIS-Verfahren mit und für KMU leisten kannKleine und mittlere Unternehmen im Bereich industrienaher Dienstleistungen werden durch den digitalen Wandel mit großen Herausforderungen konfrontiert. Anders als im klassischen Produktgeschäft besitzen diese Unternehmen für ihre Dienstleistungen häufig keine spezialisierte Forschungs- und Entwicklungsabteilung oder ein institutionalisiertes Innovationsmanagement. An diesem Punkt knüpft das Projekt „DETHIS – Design Thinking for Industrial Services“ an. Im Rahmen des Projekts wird den Herausforderungen des digitalen Wandels an die Unternehmen und ihrem Bedarf nach innovativen Dienstleistungen mit einem Design-Thinking-Ansatz begegnet, der speziell für die Anforderungen kleiner und mittlerer Unternehmen weiterentwickelt wurde. Das im Projekt entwickelte DETHIS-Verfahren ermöglicht es allen Teilnehmenden im Innovationsprozess, gemeinsam orts- und zeitunabhängig neue industrienahe Dienstleistungen zu entwickeln. In diesem Beitrag geben wir einen Einblick in die Ergebnisse und Erkenntnisse des Projekts mitsamt den Erfolgen und Hindernissen. Die Resultate zeigen vielfältige Möglichkeiten für kleine und mittlere Unternehmen, ihren Innovationsprozess zu strukturieren und Dienstleistungsinnovationen systematisch und kreativ zu entwickeln. Die Implementierung des analogen und digitalen DETHIS-Verfahrens in den Unternehmen des Projekts ergab, dass vor allem die Organisationsstruktur und -kultur eine große Rolle für den Erfolg eines institutionalisierten Innovationsmanagements spielen. Eine transparente Beschreibung möglicher Hürden und Fehltritte kann dabei helfen, Kosten und Zeit bei der Implementierung des Ansatzes zu sparen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-62144-8_3 ff114236c9bc659e8a135b0a4be614be;de;;;6.1.;;;Produktivität, Produktivitätsmanagement und ProduktivitätsstrategienDer Begriff der Produktivität wurde von dem französischen Forscher Quesnay bereits 1766 in einer wissenschaftlichen Publikation verwendet und steht für einen möglichst optimalen Ressourceneinsatz zur Erreichung gegebener Ziele. Spätestens seit der Industrialisierung im 18. Jahrhundert und der Gründung von Handelshochschulen im 19. Jahrhundert wurde eine unüberschaubare Menge an Literatur zu Produktivität, dem Management der Produktivität und dessen strategische Integration in Unternehmen publiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-63131-7_2 9844be3cbf71e5c9c187b821da184265;de;;;6.1.;;;Internationales Key Account ManagementKey Account Management (KAM) ist ein Konzept, das in der betriebswirtschaftlichen Literatur seit drei Jahrzehnten bekannt ist. In den USA setzten Ende der 1960er Jahre bereits mehr als 250 Unternehmen das „National Account Management” (NAM) für landesweit tätige Kunden ein (Ebert/Lauer, 1988, S. 8). Die Mehrzahl der Unternehmen stammte aus dem Industriegüterbereich. Nach Europa kam das Schlüsselkunden-Management zu Beginn der 1970er Jahre. Es kam zunächst vor allem bei Konsumgüterunternehmen zum Einsatz, die sich bereits zu dieser Zeit einer dynamischen Entwicklung im Lebensmittel-Einzelhandel gegenübersahen (z. B. Kemna, 1979).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-91260-2_22 1bde99e21021e2022b8b16642ceae770;de;;;6.1.;;;Infrastrukturseitige Herausforderungen in der ZahlungsverkehrsabwicklungDas nachfolgende Kapitel versucht, aufbauend auf der in den Kapiteln 6 und 7 vorgenommenen Analyse von Zahlungsverkehrssystemen im Großbetragsbe­reich zum einen die sich hieraus ergebenden Infrastruktur-Herausforderungen stärker in der Einzelbank-Perspektive zu beleuchten. Zum anderen werden die Herausforderungen, die sich für die übrige — nicht direkt im Zusammenhang mit Systemen des Großzahlungsverkehrs stehende — Infrastrukturbasis der bankbetrieblichen Zahlungsverkehrsabwicklung ergeben, herausgearbeitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-57471-9_8 2b774432d62faaecd2565c5f6516a89e;de;;;6.1.;;;Implementierung der konstruktiven FehlerkulturNachdem die Dimensionen und positiven Effekte einer konstruktiven Fehlerkultur im Krankenhaus im vorherigen Kapitel erörtert wurden, stellt sich die Frage der konkreten Veränderung hin zu eben dieser Form der Fehlerkultur. Dieses Kapitel hat daher zum Ziel, einen generischen Veränderungsprozess zu präsentieren, mit Hilfe dessen Krankenhäuser ihre fehlerkulturellen Zielsetzungen erreichen können. Eingangs werden hierfür grundlegende Annahmen zur Einbettung entsprechender Veränderungsmaßnahmen in den Krankenhauskontext geklärt und ein mentales Orientierungsmodell des kulturellen Wandels vorgestellt (7.1). Das Hauptaugenmerk des Kapitels liegt dann in der Darstellung zentraler Schritte und Maßnahmen, die das Krankenhaus für eine erfolgreiche fehlerkulturelle Transformation in Erwägung ziehen sollte. Hierfür wird auf ein bestehendes Phasenmodell des Wandels zurückgegriffen, das auf den Fehlerkulturkontext angepasst wird und neben konkreten Umsetzungsempfehlungen auch Implementierungsbarrieren und Maßnahmen zu ihrer Überwindung thematisiert (7.2). Das Kapitel schließt mit einem kurzen zusammenfassenden Fazit (7.3).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-7106-7_7 241bd142c9673fe6993bfde61eb33246;de;;;2.2.;;;Subquadratische Zeitalgorithmen für abelsche Stringologieprobleme Diese Arbeit kann als Fortsetzung einer neueren, sehr aktiven Forschungslinie zur subquadratischen Raum- und Zeitindexierung für binäre und konstant große Alphabete angesehen werden (z. B. Moosa und Rahman, 2012). Alle unsere Algorithmen arbeiten im linearen Raum.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-32859-1_27 89da86f99a0f4e1e5656505f505ef93a;de;;;6.1.;;;Objektorientierte Baustellenplanung und dynamische lokale 3D SimulationUm kritische Abläufe in der Produktion frühzeitig zu erkennen und zu vermeiden, müssen schnell Situationsvarianten erstellt und untersucht werden können. Die objektorientierte 3D Planung unterstützt dies schon erheblich, da in der virtuellen Baustelle einfach Baumaschinen platziert und ihre Raum Zeit Konflikte visuell erfasst werden können. Schwieriger ist die Darstellung von Vorgängen. Eine komplette Simulation des gesamten Bauablaufs scheidet aus. Sinnvoll ist eine räumlich und zeitlich begrenzte, dynamische lokale 3D Simulation von einzelnen Vorgängen oder von Vorgangsketten. In dieser im Gegensatz zu den klassischen Montage- und Logistiksimulationen die 3D Darstellung die zentrale Rolle spielt, denn es gilt vor allem, Arbeitsräume, Montageräume, Interaktionen, Behinderungen etc. qualitativ einzuschätzen, um Strategieentscheidungen zu unterstützen. Erst nachgeordnet in weiterführenden Simulationen sind diese auch detailliert quantitativ zu bewerten. Ergebnisse aus der Simulation müssen daher visualisiert und in knapper, aussagekräftiger Form zur Verfügung stehen, ohne den Anwender mit den komplexen Simulationsvorgängen und dem Informationsmanagement zu belasten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44760-4_2 75a65ee382139c5a6b5df0bed1c22abe;de;;;6.1.;;;Service Management und Service OperationsDieses Kapitel erläutert die Aufgaben und Ziele des IT-Service-Managements sowie das Referenzmodell ITIL. Außerdem wird der Begriff DevOps im Zusammenhang mit Microservices und der Cloud erklärt. Es wird gezeigt, wie durch Service Analytics aus großen Datenmengen (Big Data) Informationen gewonnen werden, um bei der Steuerung des Geschäftsfeldes bessere Entscheidungen treffen zu können und wie durch Strategien die Nachfrage nach Dienstleistungen sowie die verfügbaren Kapazitäten möglichst optimal im Rahmen des Kapazitätsmanagements aufeinander abgestimmt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-59858-0_8 d53427cb803fc38111085aa835a8668f;de;;;2.2.;;;Bitmap-Index: Eine rekonfigurierbare Implementierung von Processing-in-Memory Im Laufe der Jahre haben Mikroprozessoren dank der technologischen Entwicklung eine beeindruckende Leistungssteigerung erfahren. CPUs wurden in der Lage, große Datenmengen zu verarbeiten. Auch die Erinnerungen waren mit einem Wachstum, insbesondere in Bezug auf die Dichte, konfrontiert, aber was die Geschwindigkeit betrifft, verlief die Verbesserung nicht in gleichem Maße. Processing-in-Memory (PIM) besteht darin, die Speichereinheit eines Systems zu verbessern, den Speicherzellen Rechenfähigkeiten hinzuzufügen und die Notwendigkeit, Daten vom Speicher zur Ausführungseinheit zu übertragen, teilweise überflüssig. In diesem Papier wird eine PIM-Architektur für den bitweisen Massenbetrieb vorgestellt, die auf die Bitmap-Index-Anwendung abgebildet wird. Die Architektur ist ein Speicherarray mit logischen Rechenfähigkeiten innerhalb der Zellen. Das Array ist eine konfigurierbare modulare Architektur, die auf verschiedene Bänke verteilt ist, wobei jede Bank gleichzeitig eine andere Operation ausführen kann. Diese Architektur weist eine bemerkenswerte Leistung auf, die schneller ist als andere in der Literatur verfügbare Lösungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37277-4_20 0f140f6c4be4e46c29144a86f094e055;de;;;2.2.;;;Massivumformung (Schmieden) Die Begriffe Blechumformung und Massivumformung basieren auf der praktischen industriellen Anwendung und gliedern das Gebiet der Umformtechnik in zwei unterschiedliche Bereiche. Diese Unterscheidung erfolgt zusätzlich zu den Definitionen der DIN 8582 „Umformen“ (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-58857-0_6 04ea43d7112472e15aa722a1005034ef;de;;;2.2.;;;Design des B+Tree-basierten Prädikatsindex für effizientes Event-Matching Effiziente Event-Matching-Algorithmen sind der Kern von Publish/Subscribe-Systemen. Solche Algorithmen werden aus Leistungsgründen typischerweise basierend auf einer Speicherstruktur entworfen. Angesichts des explosiven Informationswachstums ist es;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36901-5_55 e109ab040a63684661a467ba894f4eda;de;;;2.2.;;;Anwendung von rUID bei der Verarbeitung von XML-Abfragen zu Struktur und Schlüsselwort Die Anwendung von Nummerierungsschemata zur Simulation der Struktur von XML-Daten ist eine vielversprechende Technik für die Verarbeitung von XML-Abfragen. In diesem Beitrag beschreiben wir SKEYRUS, ein System, das die integrierte Struktur-Schlüsselwortsuche auf XML-Daten unter Verwendung des rUID-Nummerierungsschemas ermöglicht. rUID wurde entwickelt, um bei strukturellen Aktualisierungen robust zu sein und auf beliebig große XML-Dokumente anwendbar zu sein. SKEYRUS akzeptiert als Eingabe XPath-Ausdrücke, die Wort enthaltende Prädikate enthalten, daher wird die Aussagekraft der Abfrage erheblich erweitert. Die strukturelle Eigenschaft und die Fähigkeit, XPath-Achsen von rUID zu generieren, werden bei der Abfrageverarbeitung ausgenutzt. Vorläufige Leistungsergebnisse von SKEYRUS wurden ebenfalls berichtet.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-46146-9_28 5f0b4ee08b51f04335fc260a5cd4cbfb;de;;;6.1.;;;Grundlagen des Qualitäts- und UmweltmanagementsDie strategische und - daraus abgeleitet - operative Planung, Steuerung und Kontrolle basieren auf dem unternehmerischen Zielsystem, verstanden als normative Vorstellungen ü ber einen zukü nftigen Zustand des Unternehmens, der durch Handlungen hergestellt werden soil.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-9112-2_2 4c9f3b21f36071a755e9987b3075b6da;de;;;6.1.;;;GesundheitskompetenzGesundheitskompetenz ist die Fähigkeit, aktiv und selbstbestimmt Verantwortung für die eigene Gesundheit zu übernehmen. Was dies im Einzelnen bedeutet und welche Fähigkeiten und Fertigkeiten hierfür notwendig sind, wird im vorliegenden Beitrag aufgezeigt.;-;-;-;https://link.springer.com/article/10.1007/s11428-015-0041-x 9b131fb8f87f17700effc1686b7b21e4;de;;;6.1.;;;RSD-XPS — Ein Expertensystem für die Internet-SicherheitskonzeptionEine wachsende Anzahl von Unternehmen betrachtet die Nutzung von Online-Diensten des Internets als wichtiges zukünftiges Geschäfts- und Werbeinstrument. Speziell für kleinere und mittlere Unternehmen (KMUs) stellt das Internet eine Möglichkeit dar, ihre geschäftlichen Beziehungen auszudehnen. Einerseits ermöglicht das Internet eine ständige Marktpräsenz, andererseits können Unternehmen von den angebotenen Dienstleistungen und Informationen profitieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-84901-4_5 5f8c8999c838052810b3e11ab171f44d;de;;;6.1.;;;Regierungsführung zwischen Formalität und Informalität. Deutschland und Großbritannien im VergleichDer Beitrag beschäftigt sich in vergleichender Perspektive mit der Regierungsführung in Großbritannien und Deutschland im Spannungsfeld von Formalität und Informalität. Nach einer theoretischen Verortung der Fragestellung wird zunächst auf die im jeweiligen Regierungssystem unterschiedlich ausgeprägten Formalitäts- bzw. Informalitätskulturen eingegangen. Vor diesem Hintergrund wird untersucht, über welche formalen wie informalen Führungsressourcen Premierminister und Bundeskanzler in Kernbereichen der Regierungsführung, genauer in Handlungskontexten der Regierungsbildung, des Kabinetts sowie der Regierungszentrale, verfügen. Es wird argumentiert, dass sowohl Informalisierung als auch Formalisierung strategische Antworten auf vorhandene Handlungsrestriktionen darstellen können. Abschließend werden weiterführende Forschungsperspektiven eines graduellen wie auch dynamischen Informalitätsbegriffs aufgezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-06145-6_9 b2983d64bc016799a909ab7471fee0ce;de;;;6.1.;;;Kundenorientierung im Unternehmen umsetzenIn den vorangegangenen Kapiteln wurde der sinnvolle Umgang mit verschiedenen Kommunikationsmedien und mit besonderen Situationen im Kundendialog dargestellt und beschrieben. Das Spektrum von so genannten Tools, die in ihrer Gesamtheit umgesetzt werden müssen, wenn man wirklich kundenorientiert sein will, ist breit. Kundenorientierte Kommunikation stellt einen wichtigen Teil in einem ganzen „Bausatz“ von Kundenorientierungs-Tools dar. Das folgende Kapitel gibt einen komprimierten Überblick darüber, wie Sie den Baustein Kommunikation mit weiteren Instrumenten kombinieren, um der komplexen Herausforderung Kundenorientierung gerecht zu werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-86978-4_8 6d110d477a7777b7de8c2963e0d2930c;de;;;6.1.;;;Die Visite auf der IntensivstationObwohl die Visiten zu den wichtigsten täglichen Aktivitäten auf einer Intensivstation gehören, gibt es in Bezug auf Form und Inhalt der Visiten keine etablierten Konzepte oder Standards. Dieser Artikel geht auf verschiedene organisatorische Aspekte wie den Zeitpunkt und den Ort der Visite ein. Er beschreibt die Zusammensetzung eines Visitenteams und die Rollen der Teilnehmer ebenso wie die Aufgaben der Visite. Diese reichen von allen Aspekten des Patientenmanagements bis hin zu organisationsbezogenen Aufgaben wie Ausbildung der Mitarbeiter und Pflege einer guten Kommunikations-, Sicherheits- und Fehlerkultur. Eine gut strukturierte Visite ist aus unserer Sicht ein wesentlicher Teil des Qualitätsmanagements auf einer Intensivstation.;-;-;-;https://link.springer.com/article/10.1007/s00390-010-0240-z b8d022702132f04ed8097f4b1bc3a8db;de;;;6.1.;;;Knowledge Map des Wissensmanagements„Unter dem Etikett Wissensmanagement kommt ... viel auf die Unternehmen zu: Eine Neudefinition ihres Selbstverständnisses, ein Umbau der Strukturen, neue Rollenverteilungen, neue Grenzziehungen. Dieser Bedarf trifft sich am Markt mit einer Fülle von Angeboten an Informations- und Kommunikationstechnik, die ihn unterstützen aber auch formen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-05808-3_1 9d2d95c39c5a8ccefb9496c0987ccbc2;de;;;6.1.;;;Transkutane osseointegrierte Prothesensysteme (TOPS) nach ExtremitätenamputationDie Mehrheit transfemoral und -tibial Amputierter kann mit der herkömmlichen Prothesentechnik funktionell zufriedenstellend versorgt werden. Dennoch haben ca. 60 % der Patienten erhebliche Probleme mit der konventionellen Stumpfversorgung, sodass selbst jüngere Patienten in ca. 1/6 der Fälle ihre Prothese nicht täglich tragen können. Nach Einführung der transkutanen osseointegrierten Prothesensysteme (TOPS) besteht für diese Patienten die Möglichkeit, stumpfassoziierte Probleme zu vermeiden. Die vorliegende Übersicht zeigt den aktuellen Stand der Entwicklung transkutaner osseointegrierter Prothesensysteme in Schweden, Deutschland, den Niederlanden, Australien und den USA – heute mittlerweile in 9 Zentren. Bei den Arbeitsgruppen dieser Zentren besteht Übereinstimmung, dass TOPS eine Situation der Endbelastung, eine verbesserte Beweglichkeit der proximalen Gelenke, ein osseoperzeptives sensorisches Feedback und damit eine bessere Kontrolle der betroffenen Extremität ermöglicht. Ebenso besteht Übereinstimmung, dass in der Regel eine klinisch weniger relevante oberflächliche Kontamination des Stomas besteht. TOPS wird heute auch zur Versorgung transhumeral Amputierter und nach Daumenverlust eingesetzt, inzwischen mit einer Ausweitung der Indikation für diese Technik. Für zukünftige Anwendungen besteht die Möglichkeit, in das intramedulläre Implantat Elektroden zu verlegen und somit eine fortlaufende bidirektionale Kommunikation mit dem Körper zu erlauben („osseointegrated human-machine gateway“). So können eventuell eine innovative Form der Prothesenkontrolle, aber auch die Möglichkeit der Kombination mit der Targeted-muscle-reinnervation(TMR)-Chirurgie realisiert werden, um schließlich weiter fortgeschrittene Prothesenmodelle für die obere und untere Extremitätenamputationschirurgie zu entwickeln.;-;-;-;https://link.springer.com/article/10.1007/s00113-017-0347-9 54c3dce5d7e0f87eb5ecbc4ce936d010;de;;;6.1.;;;Bildungsmonitoring zwischen Berichterstattung und Steuerungsanspruch – Entwicklungslinien und akteurtheoretische ImplikationenBildungsmonitoring gewinnt in der bildungspolitischen Praxis wie in der wissenschaftlichen Diskussion zunehmend an Bedeutung. Mit der zunehmenden Entwicklung regionaler Bildungsmonitoringsysteme besteht die Chance, Steuerungsfragen stärker zu berücksichtigen. Ob und wie dies geschieht, ist allerdings von den Interaktions- und Aushandlungsprozessen zwischen verschiedenen Akteuren abhängig. Die Einführung regionalen Bildungsmonitorings bietet daher Anknüpfungspunkte für eine governanceanalytische Betrachtung. Hierzu skizzieren wir zunächst einige grundsätzliche ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-94183-7_6 0a04f2d501a1fae897fea6ad38dca455;de;;;6.1.;;;KI-Handlungsplanung — Woran wir arbeiten, und woran wir arbeiten solltenDas KI-Gebiet Handlungsplanung befindet sich in einer Phase der Neuorientierung. In Phasen von Neuorientierung ist es wichtig zu verstehen, wo man hinwollen kann. Der Aufsatz skizziert eine Perspektive „ingenieurorientierter“ Handlungsplanung, die wesentlich basiert auf einem Raster aus Einschränkungen von Anwendungsbereichen und Anforderungen an Pläne und Planer. Er beschreibt dieses Raster, und er gibt Beispiele von Arbeiten, die sich in die Perspektive einordnen lassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-78545-0_1 f199f5ef88d5bccaf4e8c6b9e5e97453;de;;;6.1.;;;Chirurgischer Prüfarztkurs des Studienzentrums der Deutschen Gesellschaft für ChirurgiePatientenorientierte Forschung, insbesondere die Durchführung von randomisierten, kontrollierten, multizentrischen klinischen Studien ist eine Herausforderung für chirurgische Prüfärzte. Um das Hintergrundwissen und die notwendigen Kenntnisse zu vermitteln, sind die eher am Arzneimittelgesetz (AMG) orientierten Prüfarztkurse spezifisch für den chirurgischen Bereich fortzuentwickeln. Die Hauptunterschiede liegen im regulatorischen und inhaltlichen Bereich, insbesondere in der Erarbeitung und Sicherstellung der Struktur, in der Behandlungs- und Beobachtungsgleichheit durch spezielle Randomisierungstechniken sowie in der Standardisierung der Operationsverfahren.;-;-;-;https://link.springer.com/article/10.1007/s00104-006-1179-2 81687a7fa68c69e61712c5149c3d6a95;de;;;6.1.;;;Antibiotic Stewardship – Klinische Infektiologie auf der IntensivstationDurchschnittlich die Hälfte aller Patienten auf europäischen Intensivstationen (ICU) erleidet eine Infektion. Auch auf deutschen ICUs sind hierbei sowohl der Anteil multiresistenter Erreger als auch der Verbrauch von Antibiotika in den letzten Jahren angestiegen. Insbesondere die Therapie von Infektionen, die durch multiresistente Erreger verursacht sind, führt neben verlängerten Intensivaufenthalten und erhöhter Sterblichkeit der Patienten zu hohen logistischen und finanziellen Aufwendungen der Krankenhäuser. Hinzu kommt eine nur zögerliche Entwicklung neuer Antibiotika durch die pharmazeutische Industrie sowie zunehmende Lieferschwierigkeiten etablierter Antiinfektiva. Um diesen Herausforderungen Rechnung zu tragen, erschien 2013 die S3-Leitlinie der AWMF zur Sicherung rationaler Antibiotikaanwendung im Krankenhaus. Wir beschreiben einige wesentliche Aspekte des Antibitic Stewardship (ABS) auf der ICU anhand von konkreten Beispielen, wie auf der Anästhesiologischen Intensivstation des Universitätsklinikums Ulm vorgegangen wird.;-;-;-;https://link.springer.com/article/10.1007/s10405-016-0057-y 79e429504dff5464658063f8b9060136;de;;;6.1.;;;Monetarisierungsstrategien für MobilitätsplattformenIn diesem Kapitel werden Monetarisierungsstrategien für Mobilitätsplattformen abgeleitet, die anhand mehrerer Dimensionen charakterisiert werden. Zu diesen Dimensionen gehören sowohl verschiedene direkte Gebühren als auch spezielle Strategien wie die Subvention oder Absorption. Mit den Erkenntnissen über den Einfluss der Dimensionen wird eine geeignete Monetarisierungsstrategie für eine Mobilitätsplattform geschaffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-21214-8_6 e29397bdaa48ac64addc124ed7040c05;de;;;6.1.;;;Schule und MedienDie Einführung neuer Medientechniken (wie z.B. Computer, Netzwerke, Lehr- und Lernsoftware etc.) stellt Schulen heute vor große Herausforderungen. Auffällig ist dabei ein hoher außerschulischer Erwartungsdruck, die Schule müsse sich auf diese wichtigen Informationstechnologien einstellen. Es zeichnen sich allerdings verschiedenste pädagogische, organisatorische, personelle und technische Schwierigkeiten ab, die einer reibungslosen Integration von neuen Medien in den Schulalltag entgegenstehen. Probleme im Kontext der Einführung neuer Medien sind indes kein neues Phänomen, da der Einbezug neuer Medien nie schnell und reibungslos erfolgte und zudem oft von kontroversen und heftigen pädagogischen Debatten über die gesellschaftliche Relevanz und den (individuellen) Lerngewinn begleitet war. Neuerdings basiert die Zukunfts- und Veränderungsfähigkeit von Schule nicht mehr nur auf pädagogischen Überlegungen sowie technischen Machbarkeiten, sondern orientiert sich zunehmend auch an wirtschaftlichen, gesellschaftlichen und politischen Erfordernissen. Hinzu kommt, dass die neuen Technologien neue Dimensionen in vielerlei Hinsicht eröffnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-91095-6_19 bd3e999b6398211d9877a7560cac94df;de;;;6.1.;;;Verteilte Datenbanksysteme: Stand der Technik und aktuelle EntwicklungenDieser Übersichtsaufsatz richtet sich vornehmlich an Informatiker und Informatik-Anwender, die nicht über spezifische Datenbank-Kenntnisse verfügen. Er zeichnet zunächst die Entwicklung der Technik verteilter Datenbanksysteme nach und resümiert dann den gegenwärtigen Entwicklungsstand, wie er sich vor allem in den jetzt auf den Markt kommenden Produkten präsentiert. Davon ausgehend werden dann durch Betrachtung einiger für große verteilte Systeme typischer Verarbeitungsformen Problembereiche identifiziert, in denen heute verfügbare Systeme noch hinter den Forderungen der Anwendungen zurückbleiben. Der Aufsatz schließt mit einigen Thesen zur weiteren Entwicklung dieses Gebietes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-74127-2_2 e4c4e9e3a411b4297d586882faad9099;de;;;6.1.;;;Optimale Dateiallokation und Auftragsbearbeitung: Modellierungsaspekte eines verteilten DateisystemsVerteilte Dateisysteme spielen eine wichtige Rolle, wenn es darum geht, dezentral gespeicherte Daten gemeinsam zu nutzen. Die Entwicklung sowie die Modellierung solcher Systeme erfordert die Berücksichtigung vieler Einzelaspekte. In dieser Arbeit werden zwei wichtige Aspekte näher untersucht:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-76462-2_21 2c843c140421bbfa3827004f54fb0b79;de;;;6.1.;;;Smart Metering und das Human InterfaceSmart Metering wird in den kommenden Jahren zweifelsohne eine flächendeckendeEinführung in Europa erfahren. Parallel zur Entwicklungsgeschichte z. B. des Mobilfunksbzw. anderer Technologien stehen die technischen Herausforderungen rundum die Standardisierung und Implementierung von Smart Metern bzw. der dahinterliegendenPlattformen derzeit im Mittelpunkt des Interesses. Dabei kann leicht übersehenwerden, dass alleine die vollautomatische Erhebung, Übertragung und Speicherungder Stromverbrauchsdaten per se keine Verbrauchs- bzw. Gewohnheitsänderungeninduzieren.Neben dieser rein technischen Dimension, kommt daher der Steuerungsfunktiondurch Smart-Meter-Daten mittel- bis langfristig die mit Abstand wichtigste Rolle zu.Dies bedeutet, dass die Daten in geeigneter Art und Weise, Form und mittels der richtigenÜbertragungs- und Displaytechnologie so an den Kunden übermittelt werdenmüssen, um einen möglichst optimalen Ausgleich zwischen dem aktuellen Angebotund der Nachfrage nach Strom herzustellen. Hierin liegt der zentrale Grund dafür,den ursprünglich Ende des 19. Jahrhunderts entwickelten und millionenfach bewährtenelektromechanischen Stromzähler gegen ein komplexes IP-basierendes Gesamtsystemauszutauschen.Dies geschieht einzig und alleine mit dem Ziel, das Verhalten des Kunden bezüglichdes Stromverbrauchs aktiv zu steuern. Anhand der im Beitrag vorgestellten „Hierarchiedes Meterings“ wird die Entwicklung des Verbrauchsmessens aufgezeigt undinsbesondere der beachtliche Dimensionssprung hin zum Smart Metering konkretdargestellt. Wichtig ist hierbei, zwischen assistierenden und kontrollierenden KundenEnergiemanagement Systemen zu differenzieren. Während assistierende Systeme denKunden über gewisse Smart-Meter-Zustände informieren, um eine Verhaltensänderung zu bewirken, greifen kontrollierende Systeme nach festgelegten oder zu lernendenRegeln direkt in den Haushalt ein.Bevor im Folgenden die vielfältigen und faszinierenden Möglichkeiten der Übertragungvon Informationen an den Stromkunden von Heute und Morgen skizziertwerden, erscheint es sinnvoll, kurz auf die völlig veränderten Parameter zwischenStromerzeugung und Stromverbrauch einzugehen, um so die hohe Relevanz vonSmart Meter im Gesamtkontext zu verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8348-2440-0_7 6e20e0ff346d7b85d1c4eeee3a74ff6d;de;;;6.1.;;;Was eigentlich ist „gutes“ Personalmanagement? Einige Anregungen zur ProfessionalisierungsdebatteManchmal sind es die auf den ersten Blick geradezu simplen Fragen, die später bei der Suche nach ernsthaften Antworten zu überraschenden Schwierigkeiten führen. Diese Beobachtung gilt zweifelsohne für die Frage nach den Kriterien für „gute“ Personalarbeit. Eigentlich erstaunlich: Nach Jahrzehnten substanzieller Forschungsanstrengungen, nach diversen Professionalisierungsdebatten in Theorie und Praxis, nach immer mehr HR-Lehrbüchern, nach diversen HR-Praktikerzeitschriften mit euphorischen Beiträgen von HR-Beratern, nach inzwischen mindestens vier HR-Verbänden im deutschsprachigen Bereich sowie nach imposanten Konferenzen von und für Praktiker sollten wir eigentlich wissen, was „gutes“ Personalmanagement ist. Um es kurz zu machen: Wir haben nicht nur eine Antwort, wir haben ein ganzes Bündel von sich widersprechenden Antworten!;-;-;-;https://link.springer.com/article/10.1007/s12354-010-0127-8 6271ed1707f4342da22df5087e01c2ff;de;;;6.1.;;;Die Bedeutung von Peer-to-Peer-Technologien für das Electronic BusinessMit dem Begriff Peer-to-Peer (P2P) ist die Vorstellung verbunden, dass in einem Verbund Gleichberechtigter („Peers“), die sich wechselseitig Ressourcen wie Informationen, CPU-Laufzeiten, Speicher und Bandbreite zugänglich machen, kollaborative Prozesse unter Verzicht auf zentrale Koordinationsinstanzen durchgeführt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-96349-9_4 3a8efad72db2325e532e665e77721c40;de;;;6.1.;;;Quantitative Entscheidungsunterstützung für das Preismanagement von TK-DienstleistungenIm wettbewerbsumkämpften Telekommunikationsmarkt stellt für Anbieter von klassischen festnetzbasierten Telefondienstleistungen ein gewinnorientiertes Preismanagement und die zielgruppenspezifische Marktbearbeitung durch attraktive Tarifgestaltung eines der wichtigsten Marketinginstrumente zur Sicherung des langfristigen Markterfolgs dar [9], Dabei müssen alle relevanten Determinanten der Preisbildung im Hinblick auf ihre Gewinnwirkung berücksichtigt werden: Nachfragereaktionen, Kosten- und Konkurrenzaspekte sowie regulatorische Rahmenbedingungen [8]. Zudem erstreckt sich die Preisentscheidung i.a. nicht nur über eine eindimensionale Größe, sondern betrifft eine mehrdimensionale Preisstruktur, die verschiedene Preiskomponenten umfaßt. Mit dem Ziel, modell- und methodenbasierte Entscheidungsunterstützung für die gewinnorientierte Tarifgestaltung von festnetzbasierten TK-Dienstleistungen aus Sicht der Deutschen Telekom (DT) zu leisten, werden im folgenden die wesentlichen Determinanten des TK-Preismanagements diskutiert und Modell- und Lösungsansätze vorgestellt. Die Komplexität der Fragestellung gestattet dabei nur einen kleinen Einblick, der aufgrund des Datengeheimnisses gegenüber der DT stellenweise mehr als Ansatz generischer Natur zu verstehen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-50282-8_13 ed3325873b8a66f75047c0505fbb3023;de;;;6.1.;;;Förderung der individuellen Lösungskompetenz durch interne Kommunikation: Möglichkeiten und VoraussetzungenUnternehmen unterschiedlichster Branchen nutzen seit einiger Zeit verstärkt Dienstleistungen als integrative Bestandteile von Kundenlösungen, um Kundenvorteile zu erzielen und sich im Wettbewerb zu profilieren. Kundenlösungen sind systematisch aufeinander abgestimmte Kombinationen aus Sach- und Dienstleistungen, die als ganzheitliche Lösungen auf die Bewältigung individueller Kundenprobleme ausgerichtet sind (z.B. Kersten et al. 2006, S. 191, Schmitz 2008, S. 668). Das Angebot von Kundenlösungen wird oftmals als Ausdruck eines wettbewerbsstrategischen Evolutionspfades bzw. als ein Diversifikationsprozess in das Dienstleistungsgeschäft betrachtet, der mit vielfältigen Herausforderungen verbunden ist (Burr 2003, S. 363). So kann die Wertschöpfung von Kundenlösungen als interaktive Wertschöpfung (Reichwald/Piller 2002, S. 29ff.) nur in intensiver Zusammenarbeit zwischen den jeweils beteiligten Mitarbeitern auf Anbieterund Kundenseite erfolgen. Daher stellt die zielorientierte Steuerung des Kundenkontaktpersonals bei Kundenlösungen unbestritten ein Schlüsselproblem dar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-8577-4_12 02a8c5561400160b415a3b6fb6091b19;de;;;6.1.;;;Deutschsprachige Terminologie, globalisierende Firma: Erfahrungen der SAPIst die deutsche Sprache ein Wettbewerbsnachteil? Die SAP SE glaubt, dass das Gegenteil der Fall ist. Die interne Festlegung der deutschen Termini kostet zwar Zeit und Geld und ist auf den ersten Blick für eine Weltfirma mit Englisch als offizieller Sprache eine unnötige Ablenkung. Nichtsdestotrotz setzt die SAP die Terminologiearbeit im Deutschen weiter fort und unterstützt die Verwendung von deutschsprachiger Terminologie in ihren Produkten, da sie darin Chancen im Wettbewerb mit ihren Konkurrenten sieht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-58949-6_18 228257ed182325b61e2924ae99bb9bad;de;;;6.1.;;;Praktische TerminologiearbeitDie Begriffe und Grundlagen der Terminologiewissenschaft (siehe Kap. 2) und der Terminologiearbeit (siehe Kap. 3) bilden die Basis für die praktische Terminologiearbeit. Zunächst werden unterschiedliche Formen der Terminologiegewinnung erläutert, wobei vor allem auf die Extraktion von Termini aus Texten und die Nutzung des Internets als Wissensquelle für die Terminologierecherche eingegangen wird. Das Internet ist auch eine gute Quelle für das Auffinden von Definitionen, deren Formen und Gestaltung ebenfalls in diesem Kapitel beschrieben werden. Eine wichtige Aufgabe im Rahmen der praktischen Terminologiearbeit ist die Bildung neuer Benennungen und Auswahl von Vorzugsbenennungen mit dem Ziel der Terminologiebereinigung. Die Festlegung von einheitlichen Schreibweisen der Termini wird in einem eigenen Abschnitt thematisiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-53315-4_4 f733ab836888d68a7afb854438129855;de;;;6.1.;;;Allgemeines zum Studium der NaturwissenschaftenAlle biowissenschaftlichen Studienangebote in Deutschland, in Österreich und der Schweiz können unter www.studienfuehrer-bio.de abgerufen werden. Neben deutschsprachigen Angeboten steigt die Anzahl englischsprachiger (Aufbau)Studiengänge überproportional an.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-07800-5_2 3757ef2cf3478d2f94de7974aa329b1f;de;;;6.1.;;;Modellierung der Randüberströme zwischen Erftscholle, Rurscholle und Venloer Scholle durch Kopplung von Großraum-GrundwassermodellenFür die wasserwirtschaftliche Begleitung des Braunkohlentagebaubetriebs in der Niederrheinischen Bucht stehen die drei Großraum-Grundwassermodelle Erftscholle, Rurscholle und Venloer Scholle zur Verfügung. Ihre Modellgebiete orientieren sich an der Lage der entsprechenden geologischen Einheiten. Zwischen diesen drei Schollen findet ein reduzierter Grundwasseraustausch statt, der in den Grundwassermodellen über den Ansatz von Randbedingungen realisiert wird. Diese Randbedingungen müssen in einem iterativen Prozess des Randabgleichs so eingestellt werden, dass innerhalb der Modelle an gemeinsamen Rändern Konsistenz hinsichtlich der Randstrommengen erreicht wird. Mit der numerischen Kopplung der Grundwassermodelle durch finite Stabelemente kann dieser aufwändige Prozess umgangen werden. Über die Stabelemente wird jedoch nicht die Störung selbst, sondern nur ein Überstrompfad im Modell abgebildet. Für die Großraummodellierung ist diese Methode zweckmäßig, da beliebige Überstromverbindungen hergestellt werden können, ohne die Störung detailliert beschreiben zu müssen.;-;-;-;https://link.springer.com/article/10.1007/s00767-007-0056-3 7bc66171f31f60d49a6ec2ea44f556fd;de;;;6.1.;;;Quasar EnterpriseDie Gestaltung und Weiterentwicklung großer Anwendungslandschaften gilt heutzutage als eine der größten Herausforderungen in der Softwaretechnik. Als Lösungsansatz wurde in den letzten Jahren vielfach das Paradigma einer ;-;-;-;https://link.springer.com/article/10.1007/s00287-008-0287-4 3ed7a3846639e94a3d9c2f878bc548a2;de;;;6.1.;;;Dienstleistungen und BeziehungsmanagementDie letzten Jahrzehnte standen im Zeichen eines kontinuierlichen Tertiarisierungsprozesses in den entwickelten Volkswirtschaften, der nicht nur die Anzahl von Dienstleistungsunternehmen rapide ansteigen ließ, sondern damit einhergehend auch die Bedeutung von ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-9672-5_14 9d9daaa22258a085fba867ea20a054b7;de;;;2.2.;;;SINAI beim CLEF 2002: Experimente mit Fusionsstrategien Für unsere erste Teilnahme an der mehrsprachigen CLEF-Aufgabe präsentieren wir einen neuen Ansatz, um eine einzige Liste relevanter Dokumente für CLIR-Systeme basierend auf der Übersetzung von Abfragen zu erhalten. Dieser neue Ansatz, den wir zweistufiges RSV nennen, basiert auf der Neuindizierung der Retrievaldokumente nach dem Abfragevokabular und schneidet deutlich besser ab als herkömmliche Methoden;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45237-9_15 5c431ad0617bd614ee135dd0cd409e14;de;;;6.1.;;;Kundeninformationen als Basis des CRMEmpirische Untersuchungen aus den USA belegen, dass Unternehmen mit einer überdurchschnittlichen CRM-Kompetenz nachweislich deutlich bessere Umsatzrenditen und deutlich bessere Marktwerte erzielen (National Quality Research Center 2002, S. 1). CRM-Investitionen versprechen demnach äußerst attraktive Renditen, aber nur unter der Ägide eines umfassenden CRM-Projektmanagement, das Strategieentwicklung, Geschäftsprozessoptimierung, Change-Management und Informationstechnologie sorgfältig aufeinander abstimmt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-10414-8_6 3806d476acbf0148f94faecf6ba7ad17;de;;;6.1.;;;Schwäbisch Hall TV — Eine Kommunikationsplattform mit ZukunftDer Grundsatz, die “richtige Information zur richtigen Zeit am richtigen Ort in nutzerfreundlicher Form” erhebt immer mehr den Anspruch eines kritischen Erfolgsfaktors, insbesondere in der Finanzdienstleistungsbranche. Dieser Anspruch führt aber oftmals dazu, dass es ein Überangebot an schriftlichen Informationen gibt. Fachabteilungen eines jeden Dienstleistungsunternehmens erstellen fast täglich die unterschiedlichsten Auswertungen, Statistiken und Rundschreiben. Es werden buchstäblich Tonnen von Papier an sämtliche Vertriebseinheiten verschickt, um den oben definierten Ansprüchen annähernd Rechnung zu tragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-84902-1_12 36b5a7b92c607bd2ebc85a15ecff786f;de;;;6.1.;;;Studie: Einführung von GAMAGS in einem Unternehmen der Branche „Feinmechanik und Elektrotechnik“Die zweite Evaluationsstudie zur Einführung von GAMAGS wurde in zwei Betrieben (Werk A und Werk B) aus der Branche „Feinmechanik und Elektrotechnik“ in NRW durchgeführt. Bei dem Unternehmen, zu dem die beiden Werke gehörten, handelte es sich um eine große Kapitalgesellschaft mit einer Gesamtmitarbeiterzahl von ca. 13.200 und einer divisionalen Führungs- und Organisationsstruktur (Produkt-Sparten, siehe Abb. 7.1), kombiniert mit Einrichtungen, die übergreifende zentrale Aufgaben, wie „Forschung und Entwicklung“, wahrnehmen. Die bereits im Geschäftsbericht 1994 beklagte unbefriedigende Mengenentwicklung der Produkte bei gleichzeitiger Preiserosion setzte sich auch in den Folgejahren fort und führte zu einem starken Rückgang des Weltumsatzes. Die Verschlechterung der wirtschaftlichen Situation veranlaßte den Konzern im Jahre 1996 die Sparte A an eine britische Gesellschaft zu verkaufen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-08179-1_7 dd0a1529a729d2303671fd28ed08927f;de;;;6.1.;;;Darstellung und Verbreitung von Terminologie mittels TerminologiedatenbankenDer Nutzen von Terminologie zeigt sich erst durch ihre Verwendung. Um die Verwendung einer erarbeiteten Terminologie zu gewährleisten, muss sie verbreitet werden. Zu den Formen der Verbreitung von Terminologie zählen neben Glossaren und Fachwörterbüchern auch Terminologiedatenbanken und Terminologie-Plug-ins. Bei der Verbreitung von Terminologie mittels Terminologiedatenbanken gilt es, die Zielgruppe, das Ziel und den Zweck der Terminologiearbeit zu berücksichtigen. Diese Aspekte bestimmen die Anforderungen an die Datenbank, wie beispielsweise die Art, den Umfang und die Gestaltung ihres Inhalts, die für bestimmte Benutzergruppen verfügbaren Funktionen und Ansichten sowie die Benutzeroberfläche. Bei der Erstellung einer Terminologiedatenbank stehen damit im Sinne des benutzerorientierten Designs die Benutzerinnen und Benutzer und ihre Bedürfnisse im Vordergrund. Zudem sorgt die Einhaltung von Barrierefreiheitsrichtlinien dafür, dass Terminologiedatenbanken und Terminologie-Plug-ins für möglichst viele Menschen mit unterschiedlichen Bedürfnissen, Fähigkeiten und Merkmalen zugänglich werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-58949-6_9 e949e4234243b316d84c3e4821b3d1bd;de;;;6.1.;;;Computer-assistierte Datenerfassung: Fragebogendesign, Schulung und qualitätssichernde MaßnahmenDie Erfassung von Fragebogendaten als Computer-assistierte persönliche Interviews (CAPI) ist eine aktuelle Methode der Datenerhebung, welche die zeitnahe, zeitökonomische und zuverlässige Integration von Qualitätssicherungsmaβnahmen und innovativen Befragungsmodalitäten erlaubt. In der Forschungspraxis stellen sich häufig eine Reihe von Problemen, deren Bewältigung erst den erfolgreichen Einsatz der genannten neuen Technologien ermöglicht. Der Beitrag will solche praktischen Schwierigkeiten bekannt machen und Hilfen zu ihrer Überwindung geben.;-;-;-;https://link.springer.com/article/10.1007/BF02962634 da60e7ac3c3b93608460ee63d5f682f5;de;;;6.1.;;;Das Militär und seine Sprache – am Beispiel des Österreichischen BundesheersDer Verfasser legt mit diesem Aufsatz am Beispiel des Österreichischen Bundesheeres dar, dass die Schaffung einer vereinheitlichten Terminologie, eines normierten Fachwortschatzes die Grundlage einer raschen Weitergabe von Informationen und daraus abgeleiteten Befehlen bildet. Eine qualitativ hochwertige Kommunikation wird durch die dazugehörende erarbeitete Terminologie sichergestellt, insbesondere gilt das für das Militär, denn Basis jeden militärischen Erfolgs ist eine möglichst rasche Reaktion der Truppe auf Lageänderungen. Die Mitgliedschaft in internationalen Organisationen wie VN, EU oder NATO zwingt nationale Behörden auch zu einer sprachübergreifenden bzw. mehrsprachigen Terminologiearbeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-58949-6_17 0f20cec916a10b41e09129ac22a173b5;de;;;6.1.;;;Modernisierung in der Bundeswehr – Der Beitrag von HERKULES und SASPFDie Anfänge der beiden größten IT-Projekte der Bundeswehr – SASPF und HERKULES – liegen mittlerweile mehr als zehn Jahre zurück. Da liegt die Frage nahe, ob und wenn ja, welchen Beitrag diese beiden Projekte für die Modernisierung der Bundeswehr geleistet haben, bzw. heute noch zu leisten vermögen. Schließlich geht es hier um einen der schnelllebigsten und innovativsten Sektoren der Wirtschaft: den Markt der Informationstechnik. Zudem hat sich die ‚Lebenswirklichkeit’ in der Bundeswehr im letzten Jahrzehnt deutlich gewandelt. Es ist daher kritisch zu hinterfragen, ob die IT-Projekte mit Blick auf die Neuausrichtung der Bundeswehr auch heute unter veränderten Bedingungen Grundlage für die Modernisierung sein können. Die Antwort ist ja! Mehr noch: Wenn es die beiden Projekte nicht gäbe, so müssten sie spätestens jetzt initiiert werden. Um dies nachvollziehen zu können hilft zuerst ein Blick auf die Entstehungszusammenhänge der Projekte, ihre Kooperationsstruktur mit der Wirtschaft, ihre Projektorganisation und auf ihren bisher erreichten Sachstand (Abschnitte 2–6). Danach wird dargelegt, welche Bedeutung HERKULES und SASPF für die Modernisierung der Bundeswehr und ihre Neuausrichtung haben (Abschnitte 7–8). Ziel dieses Beitrags ist es auch aufzuzeigen, auf welcher DV-technischen Basis heutige und auch zukünftige professionelle Führungs- und Steuerungsinstrumente in der Bundeswehr aufbauen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-94331-2_11 0ea2e4115a81213f95d352bfd01f9414;de;;;6.1.;;;Workflow-ManagementDer in dieser Arbeit behandelte Lösungsansatz ist dem Workflow-Management zuzurechnen. In diesem Abschnitt werden Begriffe des Workflow-Managements erläutert, die diesem Ansatz zugrundeliegenden Technologien beschrieben und die Verbindung zwischen dem BPR und dem Workflow-Management aufgezeigt. Damit wird in diesem Abschnitt Wissen beschrieben, das essentiell zum Verständnis der Konzepte und Technologien des Workflow-Managements beiträgt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-90847-6_2 934a85b469ccd363ce8b3b63f682870d;de;;;2.2.;;;UTACLIR @ CLEF 2002 — Zwei- und mehrsprachige Läufe mit einem einheitlichen Prozess Das UTACLIR-System der Universität Tampere verwendet einen wörterbuchbasierten CLIR-Ansatz. Die Idee von UTACLIR besteht darin, verschiedene Quellschlüsseltypen zu erkennen und entsprechend zu verarbeiten. Die vom Framework verwendeten linguistischen Ressourcen umfassen die morphologische Analyse oder Stammbildung bei der Indexierung, die Normalisierung von thematischen Wörtern, das Entfernen von Stoppwörtern, das Aufteilen von Verbindungen, die Übersetzung mit zweisprachigen Wörterbüchern, den Umgang mit nicht übersetzten Wörtern, die Satzzusammensetzung von Verbindungen in der Zielsprache und Strukturierte Abfragen erstellen. Es wurde gezeigt, dass UTACLIR mit verschiedenen Sprachpaaren konsistent funktioniert. Die größten Leistungsunterschiede sind auf das verwendete Übersetzungswörterbuch zurückzuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45237-9_7 fdb60511d19e48fcc2c705dd55988c68;de;;;6.1.;;;Planung und Steuerung im Straßengütertransport unter dem Einfluß von InformationstechnologienDie Effizinz der Abläufe im Straßengütertransport wird sehr wesentlich durch die immer stärker zunehmende Nutzung leistungsfähiger Informationstechnologien beeinflußt. Dies betrifft nicht nur die Prozesse im mikrologistischen Bereich der (intraorganisatorischen) betrieblichen Planung und Steuerung innerhalb einzelner Unternehmen bzw. Unternehmenskooperationen sowie die (interorganisatorische) Abstimmung aller Beteiligten, sondern auch das Einwirken von (weitgehend) öffentlich-rechtlich betriebenen Systemen, das als (externer) makrologistischer Aspekt zu betrachten ist. Die verfügbaren Informationstechnologien werden beschrieben und analysiert, wobei die funktionalen Verknüpfungen im Vordergrund stehen. Auf der Grundlage dieser Darstellungen werden bestehende Defizite aufgezeigt und Aussagen zu möglichen Entwicklungen vorgenommen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-87181-7_21 103479ed6f29443264096133d8401454;de;;;6.1.;;;Efficient Consumer ResponseHersteller-Handels-Beziehungen sind seit jeher durch Wettbewerb geprägt. Konzentrations- und Verdrängungsprozesse auf Hersteller- und Handelsebene, steigende Kosten und wachsende Erwartungen auf der Konsumentenseite bestimmen das Bild. Diese Entwicklungen führen zu einer Verschärfung nicht nur des horizontalen, sondern auch des vertikalen Wettbewerbs. Eine Neuorientierung der Zusammenarbeit zwischen Hersteller und Handel könnte einen Ausweg bilden. Dies kann durch die Ablösung einer konfrontativen durch eine kooperative Ausgestaltung der Geschäftsbeziehung umgesetzt werden. Betrachtet man die damit angesprochene Entwicklung, so zeichnet sich in den neunziger Jahren ein zunehmendes Interesse an vertikaler Kooperation zwischen Industrie und Handel ab (Müller-Hagedorn et al., 1999, S. 62, Zentes/Swoboda, 1999, S. 275, Töpfer, 1996, S. 9, und Schenk 1998, S. 158 f.).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-05717-8_35 96ec0cb1f50d78112eb91bb97a8636e0;de;;;6.1.;;;Mitarbeiterblogs als Baustein eines zeitgemäßen WissensmanagementsIch bin der technische Projektleiter für die Plattformen. Von meinem Hintergrund bin ich Psychologe. Insofern hat mich das Thema Mensch und Technik, wie beides zusammenspielt, an diesem Projekt besonders fasziniert. Ich kann eigentlich nahtlos an meinen Vorredner anschließen was das Thema Missbrauch angeht. Bei der Siemens AG gibt es die Weblog Plattform, die aus dem Intranet seit 2006 intern zugänglich ist. Damit sind wir ein paar Jahre hinter der IBM, auch von den absoluten Zahlen. Was die Missbrauchsfälle angeht ist nichts vorgefallen, was mitunter äußerst schwierig zu vermitteln ist. Wenn man sich zurückversetzt an den Moment, wo man das einführt, gibt es schon die Ängste der Art: „was ist, wenn die Leute durchdrehen?“.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14151-5_11 323d3e8b8e1ba965f5d5074f637bfedd;de;;;2.2.;;;Parallele bidirektionale Shortest Path Computing in Graphen mit relationalen Datenbankmanagementsystemen (RDBMSs) Graphendatenstrukturen werden häufig in Informatikbereichen wie biometrischen Informationen, Navigationssystemen usw. verwendet. In letzter Zeit wurde intensiv daran geforscht, den kürzesten Pfad eines Graphen mithilfe der neuesten Datenbanken wie Neo4j, Spark usw -Expand-Merge-Operator (FEM) bietet eine Methode zum Finden des kürzesten Pfads, der nur SQL in RDBMSs verwendet. Die FEM verwendet jedoch sequentielle Such- und iterative Aggregatfunktionen, um den kürzesten Weg zu finden. Als Ersatz für die Aggregatfunktion schlagen wir die parallele Suche nach dem kürzesten Pfad und die Tabellenindizierung vor. Um die Wirksamkeit dieses Ansatzes zu beweisen, haben wir jede Methode experimentell verglichen und konnten mit unserem Vorschlag eine Verbesserung der Verarbeitungsgeschwindigkeit um bis zu 80 % nachweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9341-9_12 ba2e1b27dce5ec4d0138e09ca2e894b7;de;;;6.1.;;;Managementsysteme: Von der Information zur Unterstützung“Der Computer wird in den Chefetagen nicht genutzt„, so lautete noch 1991 das Ergebnis einer Umfrage bei unseren großen Kunden. Die Systeme seien zu starr, zu aufwendig zu bedienen, die Informationen veraltet und die Darstellung unübersichtlich, so hieß es oft in den Kommentaren. Eine Business Intelligence-Studie bei britischen Großunternehmen zeigt: 48 Prozent der Manager bemängeln die Präsentation der Informationen, 53 Prozent hätten gerne bessere Zusammenfassungen und 56 Prozent der Befragten wünschen aktuellere Informationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-78876-5_1 f0af3172b49ffed9ff8dce8306ebef92;de;;;6.1.;;;Prüfung durch einen UmweltgutachterDer Rahmen der Zusammenarbeit zwischen dem Gutachter und dem zu begutachtenden Unternehmen wird schriftlich vereinbart. Der Gutachter muß unabhängig arbeiten können und in entsprechender Weise von dem zu begutachtenden Unternehmen unterstützt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-59165-5_9 5ff1f36dad64678830d3a78f191977cc;de;;;6.1.;;;Folgerungen für den Umgang mit Wissen und WissensmanagementZum Stand unserer Überlegungen: Anhand der hier dargestellten Praxiseinblicke lassen sich Muster beobachten, die den Verantwortlichen Schwierigkeiten bei der einfachen Umsetzung von (klassischen) Ideen des Wissensmanagements bereiten. So wird Wissen als zentraler Begriff konsequent nicht geklärt, sondern als höherwertige Information bzw. als Ressource „verschleiert“ und damit geradezu der Begriffsklärung entzogen. Das führt dazu, dass kein klares und vor allem einheitliches Bild davon existiert, worum es geht, wenn Wissen gemanagt werden soll. Manager greifen die Metapher von Wissen als Ressource dankbar auf und folgen der von klassisch-instrumentellen Ansätzen formulierten Überzeugung, dass diese Ressource genauso plan- und steuerbar sei wie die bereits vertrauten Ressourcen Arbeit, Kapital, Rohstoffe. Unerwünschte (aber gleichsam zwangsläufige) Nebeneffekte — die sich aus unterschiedlichen Interessenslagen ergeben, die miteinander in Verhandlung treten — und Widerstände gegen Steuerungsbemühungen rund um Wissen werden als dysfunktional abgetan und unter dem Schlagwort „Etablieren einer wissensfreundlichen Kultur“ der Bearbeitung von Beratern und Personalverantwortlichen überantwortet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-82339-7_14 41d4f8a45562b531024beea7ba709fd7;de;;;6.1.;;;Anwendung der Blockchain außerhalb von GeldwährungenDer Beitrag stellt Konzepte und Modelle von Blockchain-Anwendungen außerhalb des Finanzbereichs vor. Die Anwendungsgebiete reichen derzeit vom Schutz persönlicher Daten bis zur Sicherung und Überwachung von Nahrungsmittelproduktionsketten.;-;-;-;https://link.springer.com/article/10.1007/s11623-017-0816-x 6b9e499077096fcde8fb744624f40f55;de;;;6.1.;;;Soziale Arbeit mit geflüchteten MenschenSoziale Arbeit ist zumeist ein einziger ‚Spagat‘ zwischen unauflösbaren Widersprüchen, zwischen Macht und Ohnmacht, Hilfe und Kontrolle, Distanz und Nähe, Reflexivität und Pragmatik, Vorgabe und Aushandeln. Diese Spannungsfelder treten im Asylkontext in besonderer Weise zutage. In dem Beitrag wird die Soziale Arbeit mit geflüchteten Menschen in den Blick genommen und einige der hiermit verbundenen Spannungsfelder und Herausforderungen werden thematisiert, und zwar zunächst professionsbezogen im Sinne Sozialer Arbeit als Menschenrechtsprofession und daraufhin bezogen auf das SONI-Modell, ein Handlungsmodell, in dem folgende vier Handlungsfelder zum Teil ineinandergreifen: Struktur, Organisation, Netzwerk und Individuum.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-19540-3_46 daab4e9cc0ec9ad615aa75fbdb3f2c57;de;;;6.1.;;;Eine Entscheidung auf Leben und Tod: Decision Support für AIDS-Kontroll-Programme in OstafrikaDie erworbene Immunschwächekrankheit AIDS (Acquired Immune Deficiency Syndrome) stellt die größte Bedrohung der Gesundheit der Bevölkerung Ostafrikas dar. In manchen Regionen ist diese Krankheit bereits die Haupttodesursache, in vielen Krankenhäusern überfordert die Behandlung der AIDS-Patienten längst die knappen Ressourcen. Die Gesundheitspolitik muss diese Veränderungen antizipieren und entsprechend rechtzeitig planen. Hierzu sind möglichst verlässliche Prognosedaten unentbehrlich. Aus diesem Grunde wurde ein System Dynamics Model der AIDS-Ausbreitung entwickelt und mögliche Interventionsstrategien wurden bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-50282-8_28 6b39e89aab2df457594d07e6372ad44c;de;;;2.2.;;;Selbstorganisierende Karten als Relevanz-Feedback-Technik beim inhaltsbasierten Bildabruf Self-Organising Maps (SOMs) können bei der Implementierung eines leistungsstarken Relevanz-Feedback-Mechanismus für Content-Based Image Retrieval (CBIR) verwendet werden. Dieses Papier stellt das PicSOM CBIR-System vor und beschreibt die Verwendung von SOMs als Relevanz-Feedback-Technik darin. Die Technik basiert auf der dem SOM innewohnenden Eigenschaft der topologieerhaltenden Abbildung von einem hochdimensionalen Merkmalsraum auf ein zweidimensionales Gitter künstlicher Neuronen. Auf diesem Raster werden ähnliche Bilder an nahegelegenen Orten abgebildet. Da die Bildähnlichkeit in nicht annotierten Datenbanken auf visuellen Merkmalen niedriger Ebene basieren muss, hängt die Ähnlichkeit von Bildern vom verwendeten Merkmalsextraktionsschema ab. Daher existiert in PicSOM für jeden unterschiedlichen Merkmalstyp ein separates baumstrukturiertes SOM. Die Einbindung der Relevanzrückmeldung und die Kombination der Ausgaben der SOMs erfolgen in zwei aufeinander folgenden Verarbeitungsschritten. Die vorgeschlagene Technik des Relevanz-Feedbacks wird beschrieben, qualitativ analysiert und im Paper visualisiert. Außerdem wird seine Leistung mit einer Referenzmethode verglichen.;-;-;-;https://link.springer.com/article/10.1007/PL00014575 0d34bc62f88cc2254f2bbec9230bcefe;de;;;6.1.;;;ProjektfazitDas Projekt AVILUS entstand auf Initiative des Bundesministeriums für Bildung und Forschung (BMBF) und des Industriekreises Augmented Reality (IK AR), in dem sich führende Industrieunternehmen und KMU nach Ende des Vorgängerprojektes ARVIKA 2003 zusammenschlossen, um die Entwicklung auf dem Sektor der Virtuellen Techniken im Sinne einer breiteren industriellen Nutzung voran zu treiben. Der Ansatz von AVILUS war die Erforschung und Weiterentwicklung von Komponenten der Virtuellen Technologien und der Nachweis ihrer Nutzung bzw. ihrer Nützlichkeit im industriellen Maßstab mit Hilfe von Demonstratoren über den gesamten Lebenszyklus von der Entstehung bis zum Ende der Produktion (Product Life Cycle).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20636-8_9 87ecf9c5b3f4b0a5115912e710e9b0d9;de;;;6.1.;;;CRM als Teil des InformationsmanagementsZunehmender Konkurrenzkampf, Globalisierung, Konzentration und kritischere Kunden, die einen maximalen Nutzen aus individualisierten Dienstleistungen und Produkten erwarten - dies sind nur einige der Herausforderungen, denen sich Unternehmen heute über alle Branchen hinweg ausgesetzt sehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55653-1_5 63d5338a44998ee0e639e1d599c28bb0;de;;;6.1.;;;Hebel zur Erschließung der Effizienzsteigerungspotentiale im VertriebDer Markterfolg eines Unternehmens hängt maßgeblich von der Effizienz seiner einzelnen Bereiche ab. Wettbewerbsdruck und Änderungen im Umfeld führen jedoch häufig zu ungeplanten internen Entwicklungen, die von Mal zu Mal mehr von der optimalen Linie abweichen. Optimiert wird freilich erst, wenn die Probleme unübersehbar geworden sind. Dann jedoch stehen die einzelnen Bereiche unter einem massiven, kurzfristigen Erfolgsdruck mit der Konsequenz bereichszentrierter, hastiger Reaktionen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-82702-9_3 f67c678902cc8816665d26a6c6865a2d;de;;;6.1.;;;Fazit und SchlussbetrachtungDiese Arbeit hat versucht zu zeigen, was „Change“ eigentlich ist, wie solche Veränderungen in einer individualistisch geprägten Umgebung zustande kommen und Wirkung entfalten und wie sie Eingang in Organisationen finden und Handlungen bestimmen. Die so beschriebene Basisstruktur von Organisationsdynamik lässt sich als wissenschaftlicher Beitrag der Evolutorischen Ökonomik positionieren, der bisher implizit entwickelt wurde und dessen Gehalt hier rückblickend explizit zusammengefasst wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-81113-4_12 0f6ffcbb1a3b87463610f8c5f5b63ac9;de;;;6.1.;;;Typische InformationslückenWer schreibt, braucht Materialien, die in den Text einfl ießen – manchmal eine riesige Menge an Informationen. Einiges scheint offensichtlich, anderes müssen Autoren mühsam recherchieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13827-0_2 106ebb0badeb33c9caf88de697a04938;de;;;6.1.;;;Aspekte der Qualitätssicherung von UnternehmensdatenmodellenUm ein Unternehmensdatenmodell als wichtigste Basis zur Integration der Informationssysteme eines Unternehmens effektiv nutzen zu können, hat dessen Qualität eine sehr große Bedeutung. Dieser Beitrag definiert zunächst den Begriff Qualität eines Unternehmensdatenmodells auf Basis der Unternehmensziele, aus denen sich die Ziele, die mit diesen Modellen verfolgt werden, ableiten lassen. Darauf aufbauend werden die wesentlichen Kriterien zur Qualitätsbeurteilung vorgestellt. Abschließend werden verschiedene Verfahren zur Qualitätssicherung vorgestellt und ihre Eignung zur Prüfung der jeweils anwendbaren Kriterien bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-52400-4_18 1b4b2f107259f7358a9c2b9f4d378484;de;;;6.1.;;;Die Fünfte Generation der Informationstechnik — was die öffentliche Verwaltung zu Erwarten HatDie fünfte Generation in der Informationstechnik ist unter dem Titel der japanischen Herausforderung aktuell geworden. Hinter dem Schlagwort verbirgt sich ein breit angelegter Vorstoß auf eine neue Computertechnologie hin, der vor allem von Japan und Amerika getragen wird. Als Folge dieser Entwicklung wird eine neue Basissoftware entwickelt: Logische Deduktion statt üblicher Programmierung und Wissensbasen statt Datenbanken. Diese bilden zugleich mit neuen Formen der Mensch-Maschine-Kommunikation und (computergestützter) Entwurfsmethoden die Grundlagen neuer Einsatzformen. Mit ihnen verändern sich Gestaltungsmöglichkeiten und Auswirkungen der Informationstechnik grundlegend. Der Tagung entsprechend sollen Möglichkeiten und Auswirkungen in den öffentlichen Verwaltungen antizipiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-95469-6_11 140bf612111676043aefbcad82a10528;de;;;6.1.;;;TodesforschungDie Erforschung der Bedeutung des Todes im Alltag ist ein Forschungsgebiet, das lange Zeit von der Soziologie übersehen wurde. Dafür interessierte sich die Volkskunde schon immer für jene Sitten und Bräuche, die durch Gemeinschaftsleistung die Abfederung der Schicksalssituation Tod gewähren sollen. Doch die Sitten und Bräuche haben unlängst an Bedeutung verloren. Gleichzeitig nahm die Expansion des Wissens über den Tod aber zu. Die Volkskunde registrierte diesen Wandel und interpretiert ihn als Anzeichen eines grundlegenden Wandels der gesellschaftlichen Todbedeutung am Ausgang des 20.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-22862-0_4 a479cd3f8fc8147662ee36b6ce5c22ac;de;;;6.1.;;;Wie kommt Gesundheit auf die Agenda der Politikfelder? Das Beispiel der StadtentwicklungGesundheit ist vielfältig mit anderen Politikfeldern verknüpft. Die Bemühungen, das Thema „Gesundheit“ in allen Sektoren und insbesondere im Politikfeld „Stadtplanung und -entwicklung“ besser sichtbar zu machen, sind zahlreich. Das vorliegende, an die Arbeitsbiographie des Autors angelehnte Kapitel schildert vor allem Projekt- und Strukturarbeit sowie Kooperation und Kommunikation, im Zeitraum von den 1970er Jahren bis heute.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-30504-8_40 fbe676c27ccc98d60f7a98b09a04d545;de;;;6.1.;;;Einleitung: Controlling als integriertes Konzept ertragsorientierter BanksteuerungDas Management in deutschen Kreditinstituten befindet sich seit einiger Zeit zum zweiten Male in der Nachkriegsgeschichte in einem geschäftspolitischen Umbruch. Während zum Ende der 60er Jahre als Folge der Wandlung des Bankenmarktes vom Verkäufer- zum Käufermarkt das Marketing in den Mittelpunkt der Geschäftspolitik rückte, zeichnete sich mit dem Beginn der 80er Jahre ein Umdenkungsprozeß ab, der aus den negativen Erfahrungen des einseitigen Wachstums- und Volumensdenkens in den 70er Jahren resultiert. Die Kreditinstitute sehen sich zudem auf nationaler und internationaler Ebene mit einer Reihe von neuen Problemen konfrontiert, die sich aus veränderten geschäftspolitischen Rahmenbedingungen und der gewachsenen Komplexität der bankbetrieblichen Leistungs-und Marktprozesse ergeben (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-83556-7_1 389f79b568bdd03522feb63e569aa598;de;;;6.1.;;;Der CFO im produzierenden Mittelstand – Sparringspartner des CEOAnalysiert wird das Rollenbild des CFO im deutschen Mittelstand und dessen Veränderung im Zeitverlauf. Als Datengrundlage werden 42 leitfadengestützte Interviews mit CFOs herangezogen. Diskutiert werden die Einflussfaktoren auf die CFO-Rolle und die Bedeutung des CFO als Sparringpartner des CEO.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-02142-9_5 0a1c250b96cd6a9035510409c2f4eb67;de;;;6.1.;;;Der Ingenieur als ManagerDie klassische Ingenieurausbildung bereitet angehende Ingenieure vortrefflich auf die Bewältigung technischer Fragestellungen des späteren Berufslebens vor. Sie trägt jedoch nicht oder nur unzureichend der Tatsache Rechnung, daß der Ingenieuralltag nicht nur aus der Anwendung von Fachwissen, sondern auch zum großen Teil aus ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-08473-1_1 943a0616f8c9c79a7edb149d670640b8;de;;;6.1.;;;Wie Unternehmen atmen lernen - Gedanken zur virtuellen OrganisationUm die virtuelle Organisation zu verstehen, mag es hilfreich sein, sich die Gesetze der Märkte einmal vor Augen führen. Die meisten technologischen und gesellschaftlichen Entwicklungen, die die Menschheit durchlebt hat, waren kein Zufall, sondern Konsequenz des ökonomischen Prinzips. Von der Erfindung des Rades über die Eisenbahn bis hin zum Superjet, von Semaphoren über das Telefon zum Internet - es waren in der Technologiegeschichte immer die Technologien erfolgreich, die, sieht man einmal von Erfindungen mit vorrangig militärischstrategischer Bedeutung ab, den maximalen Rationalisierungsvorteil brachten - die Zeit, Geld und Arbeitskraft sparten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-59457-1_1 32aaad43a65ab74fb52dbfcb1557feec;de;;;2.2.;;;Biologische Aktivität des metallreichen Nachflotations-Tailings eines aufgelassenen Minen-Tailings-Teiches (vier Jahrzehnte nach experimenteller Aufforstung) Im Frühjahr 2012 wurden die Tailings der inaktiven Stauanlage Lintich (Slowakei) nach der Flotation beprobt. Im Aufstausediment und auch in dessen Umgebung haben wir Grenzwertüberschreitungen von Pb, Zn, Cd, Cu und Ba festgestellt. Wir fanden niedrige Werte des mikrobiellen Biomasse-Kohlenstoffs und der mikrobiellen Aktivität im Aufstausediment (LiS) und seinem Damm (DAM) zusammen mit der potentiellen Atmung blieben relativ niedrig und daher blieben auch der Substratverfügbarkeitsindex und der metabolische Quotient (qCO;-;-;-;https://link.springer.com/article/10.1007/s11356-015-4489-4 100b98d0711c13f622b69b34e6b646ff;de;;;6.1.;;;Eine integrative Sicherheitsarchitektur für betriebliche Informationssysteme aus der Praxis der Management-BeratungBetriebliche Informationssysteme können als das Nervensystem von Unternehmen verstanden werden. Dieses Nervensystem ist in seiner Sicherheit in den Dimensionen Verfügbarkeit, Integrität und Vertraulichkeit allerdings äußerst verwundbar. Der vorliegende Beitrag beschreibt eine in der Praxis der Managementberatung entstandene ganzheitliche Sicherheitsarchitektur für betriebliche Informationssysteme vor dem Hintergrund relevanter Treiber und Trends für die zugehörige Bedrohungslage von Unternehmen und Organisationen. Ziel ist es, den entwickelten Ansatz der wissenschaftlichen Diskussion zugänglich zu machen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27700-9_3 fe5c42ecdf74540d2be268b1cd1007b8;de;;;6.1.;;;Wissen ist meßbarDer Abgleich von a priori-Wissen auf neue relevante Sachverhalte und die Verwendung des so erworbenen Wissens zur Beantwortung einer Anfrage sind das zentrale Thema dieses Aufsatzes. Hierbei wird der gesamte Wissensverarbeitungsprozeß in einem probabilistischen Modell konditionaler Struktur informationstreu umgesetzt. Er ist meßbar: Wissen(sumfänge), Schlußstärken und Relevanz sind ebenso quantifizierbar wie die verbleibende Unsicherheit in erlernten Zusammenhängen und die Ungewißheit über die Korrektheit gegebener Antworten. Die Expertensystemshell SPIRIT unterstützt diese Form der Wissensverarbeitung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-50282-8_49 87e105cf1ccbd5654f4c957bcb0b54d2;de;;;6.1.;;;EMOS – Der European Master in Official StatisticsDer European Master in Official Statistics (EMOS) ist nicht länger nur eine gute Idee, EMOS ist seit dem 21. Mai 2015 Realität. Auf seiner 25. Sitzung zeichnete der Ausschuss für das Europäische Statistische System (AESS) die ersten zwölf universitären Masterprogramme mit dem EMOS-Label aus. Damit werden ab dem Wintersemester 2015/2016 europaweit Masterprogramme starten, die im Kern der Ausbildung weite Themenbereiche der amtlichen Statistik umfassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-12568-4_9 ecda3909202eeacc8a3b5e5f9371db59;de;;;6.1.;;;Verwaltungsausbildung und Informationstechnologie — Sind Unsere Mitarbeiter Gerüstet?MITARBEITER sollen alle Personen sein, die — gleichgültig auf welcher Hierarchieebene und in welcher Funktion — in der öffentlichen Verwaltung mitarbeiten, damit soll gesagt sein, daß beispielsweise auch die Ausbildung der Führungskräfte diskutiert werden muß. AUSBILDUNG soll bedeuten die Vermittlung von Fachwissen vor Beginn der beruflichen Tätigkeit, FORTBILDUNG entspricht der Notwendigkeit, die Kenntnisse der Berufstätigen an die Ausbildungskenntnisse der Neueintretenden anzupassen. INFORMATIONSTECHNOLOGIEN soll bedeuten Geräte und Betriebssoftware, zugleich aber auch die Technologie der Anwendungsentwicklung — eine Betrachtungsweise, wie sie im Rahmen dieser Tagung von Herrn Professor ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-95469-6_19 c9ef8b7ebfb70ef54041673206651b9d;de;;;2.2.;;;Design und Implementierung eines inhaltsbasierten Video-Retrieval-Systems mit Trajektorien von bewegten Objekten In diesem Beitrag entwerfen und implementieren wir ein inhaltsbasiertes Video-Retrieval-System, das die Trajektorien von bewegten Objekten verwendet. Dazu präsentieren wir zunächst ein räumlich-zeitliches Darstellungsschema, das sowohl mit einem einzelnen bewegten Objekt als auch mit mehreren bewegten Objekten effizient umgehen kann. Zweitens beschreiben wir ein effizientes ähnliches Sub-Trajektorien-Retrieval-Schema basierend auf einem neuen k-Warping-Distanz-Algorithmus. Drittens schlagen wir eine neue signaturbasierte Zugriffsmethode vor, die mit einer großen Datenbankmenge umgehen kann und eine effiziente Abfrage einer Benutzeranfrage basierend auf den Trajektorien von bewegten Objekten unterstützen kann. Um die Nützlichkeit der Anwendung unserer obigen Schemata auf eine echte Videodatenbankanwendung zu zeigen, implementieren wir ein inhaltsbasiertes Fußballvideo-Abrufsystem namens CSVR, da die Fußballvideodaten viele Bewegungsinformationen enthalten, die darauf basieren, dass ein Fußball ein herausragendes Objekt ist . Der CSVR bietet grafische Benutzeroberflächen für die Indizierung und den Abruf von Fußballvideos. Schließlich führen wir die Leistungsanalyse unseres ähnlichen Sub-Trajektorien-Retrieval-Schemas basierend auf unserem k-Warping-Distanz-Algorithmus durch.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24594-0_74 cc2b96f9570ca58433a6f4d3a8cace4e;de;;;6.1.;;;‘War of Annihilation’Zur Jahrtau sendwende sagte Ted Turner der Welt eine hoffnungsvolle Zukunft voraus: „[...] ‚There will not be a totalitarian state on the planet in 10 years due to communications‘.“ (Flournoy 1992: 2) Der Medienmogul mag dabei wohl an seinen eigenen Nachrichtenkanal gedacht haben, der sich spätestens seit der umstrittenen Berichterstattung über den Golfkrieg zu einem Synonym für globale Kommunikation schlechthin entwickelt hat: Das Cable News Network (CNN). Seit 1980 strahlt der kommerzielle Spartenkanal sein 24stündiges Nachrichtenprogramm über Satelliten und alle ‚eisernen Vorhänge‘ hinweg in mehr als 200 Länder dieser Erde aus. Rund um die Uhr arbeiten 2.500 Journalisten für CNN, 29 Nachrichtenbüros umspannen die Welt, mehr als 160 Mio. Fernsehhaushalte beliefert der Sender mit dem Konsumgut ‚Information‘. — Für all dies steht die ‚Nachrichtenfabrik‘ mit Sitz in Atlanta im US-Bundesstaat Georgia.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-90658-8_14 5c6f559af7e37b0b1d58885f730031ad;de;;;6.1.;;;Angewandte Forschung und Entwicklung im FMDie Fernsehwerbung gibt ein falsches Bild von der Wirklichkeit wieder:„Sie machen Klick und wir machen den Rest“. Damit wird suggeriert, dass der Computer alle Probleme des Alltags löst. Dies trifft im Facility Management (FM) nicht zu und wird auch in Zukunft nicht zu erwarten sein. Beim FM steht der Mensch im Mittelpunkt. Er bedient sich des Computers, die Dienstleistung und die Koordination müssen immer noch Männer und Frauen erbringen. Dies gilt sowohl im operativen Bereich als auch im strategischen FM.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-56050-7_13 8d67201273dc7407a32d123e373b1f44;de;;;6.1.;;;Durchgängige Prozeßketten in der ProduktentwicklungIn Zeiten immer größeren Wettbewerbsdrucks, der zur Ausschöpfung noch vorhandener Rationalisierungspotentiale zwingt, gerät neben Produktqualität und Produktionsgeschwindigkeit auch die Entwicklung selbst, mithin der Zeitraum zwischen Idee und Vermarktung ( ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-87249-4_8 2f9423403fa50d81111550ca5aae11fa;de;;;6.1.;;;Electronic BankingElectronic Banking wird heute nicht mehr als bestimmte Software zur Abwicklung von Zahlungsverkehrsaufträgen, sondern als Geschäftsmodell zur elektronischen Abwicklung von Finanztransaktionen durch Kunden definiert. Der Beitrag behandelt IT-Herausforderungen der Evolution des Electronic Banking vom einfachen PC-Banking hin zum Internet-Banking. War es bei der Entwicklung des PC-Bankings noch ein Ziel, Bankkunden mit einer PC-Software zur Abwicklung einfacher Zahlungsverkehrsfunktionen auszustatten und damit sowohl dem Kunden (Zeit- und Ortsunabhängigkeit) als auch dem Bankinstitut (Entlastung teurer Schalterdienstleistungen) einen Vorteil zu bieten, so entwickelt sich das Electronic Banking im Internet-Zeitalter zur umfassenden Kunden(bindungs)plattform für Finanztransaktionen. Die radikalen Veränderungen im Wettbewerbsumfeld der Banken und die Internet-Revolution bringen viele neue Herausforderungen für die Systementwicklung mit sich, so z.B. die nachhaltigen Änderungen der Geschäftsmodelle, die Neubewertung von Legacy-Systemen, den Paradigmenwechsel in der Software-Entwicklung sowie den Einsatz einer neuen Generation von Werkzeugen der Systemadministration.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-85202-1_5 fbe3e9680bcbb384672865979e67242c;de;;;6.1.;;;Collaborative Commerce und CSCW—Zum Nutzen der CSCW-Forschung für das collaborative E-BusinessUnter dem Begriff „C-Commerce“ (Collaborative Commerce) konvergieren zwei bislang weitgehend getrennt betrachtete Themen der Wirtschaftsinformatik: E- Commerce und CSCW. Die Gartner Group definiert C-Commerce als “… the set of electronically enabled collaborative interactions between an enterprise, its suppliers, trading partners, customers and employees. Otherwise known as collaborative commerce, c-commerce leverages the web to create and maintain an interactive business community of employees, trading partners, suppliers and customers. This real-time internet connectivity enables data, intellectual capital, human resources and processes that were once considered internal to be shared—and used—by the collaborative community at large” (vgl. ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-81606-1_14 84e6ac9cabe848cfa525d91258eeb5a2;de;;;6.1.;;;Kommerzielle PublikumsmarktforschungDieser Beitrag berichtet über die betriebswirtschaftliche Relevanz der Media- und Marktforschung. Gleichzeitig sollen den akademischen Forschern Hinweise über die erhobenen Daten geben werden, die für wissenschaftliche Zwecke durchaus nutzbar sind. Medien bewegen sich, neben Diversifikationsgeschäften (vgl. Tropp und Baetzgen in diesem Kapitel), in zwei Märkten: Dem Markt der Nutzer und dem der Werbekunden. Für letzteren sind die verlässlichen Daten über das Publikum wichtig, denn sie bilden die Grundlage für die Mediaplanung und damit für die Entscheidungen, in welche Werbeträger Werbungtreibende ihr Geld aufwenden. Es ist üblich, dass die Werbevermarkter ihre Leistung gegenüber ihren Auftraggebern nachweisen müssen. Da es zu einem Prinzipal-Agent-Konflikt (hat die Agentur wirklich die Werbegelder des Auftraggebers richtig investiert?) kommt, ist eine nachvollziehbare und gemeinschaftlich durch alle Marktpartner initiierte Erhebung dieser Daten notwendig. Dies wird durch Joint-Industry-Committees (JICs) gewährleistet. Die Mediaforschung ist eine sehr ausdifferenzierte Form der Sozial- und Marktforschung und arbeitet mit hohen methodischen Standards. Hier sind in erster Linie Media-Studien wichtig, da sie für die jeweiligen Mediengattungen vergleichbare Reichweiten und Strukturdaten für Werbeträger liefern, die im Werbemarkt als Währung akzeptiert sind. Hinzu kommen Markt-Media-Studien (die neben Mediennutzung auch Konsumverhalten und psychografische Zielgruppenmerkmale erheben) und die Werbestatistik für Auflagen und Werbeaufwendungen. Bei den Media- und Markt-Media-Studien kommen spezielle und gattungsadäquate Methoden zum Einsatz, über die in den JICs entschieden wird. Diese Daten werden für die Mediaplanung (vgl. Hofsäss und Engel in diesem Handbuch) und die Gestaltung der Werbepreise herangezogen. Ergänzend dazu werden sie für andere Zwecke eingesetzt, z. B. für Marketing- und Vertriebsmaßnahmen im Nutzermarkt. Um Werbekunden zu überzeugen, setzen Medienvermarkter noch eine Vielzahl anderer Studien ein. So gewinnen Untersuchungen zur Werbewirkung zunehmend an Bedeutung, was an der Digitalisierung und der besseren Verfügbarkeit von digitalen Daten liegt. Moderne statistische Analyseverfahren (Modelling) und automatisierte Prozesse (Predictive Analytics) übernehmen so auch Funktionen der etablierten, auf Reichweiten und Strukturen fokussierten Mediaforschung. Neben den Werbevermarktern und den JICs betreiben Werbe- und Mediaagenturen Publikums- und Werbewirkungsforschung, um einen Mehrwehrt für ihre Auftraggeber, die Werbungtreibenden, zu bieten. Neue digitale Kommunikationsformen und der dynamische Wandel im Mediengeschäft führen dazu, dass die klassischen Methoden der Mediaforschung durch andere Techniken und Datenlieferanten ergänzt werden, was den Einfluss der durch JICs organisierten Forschungsinstitutionen beeinträchtigt. Andererseits bilden sie die zurzeit beste Garantie für Transparenz und Verlässlichkeit, um den Prinzipal-Agent-Konflikt zu lösen. Die Dynamik des sich weiter digitalisierenden und ausdifferenzierenden Medienmarktes führt mittelfristig zu weiteren Anpassungen der Mediaforschungsmethoden, langfristig sind größere Umbrüche nicht auszuschließen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-09560-4_27 9bb4df5c97c958f7853c658af32096d6;de;;;6.1.;;;Kommerzielle PublikumsforschungDieser Beitrag berichtet über die betriebswirtschaftliche Relevanz der Media- und Marktforschung. Gleichzeitig sollen den akademischen Forschern Hinweise über die erhobenen Daten geben werden, die für wissenschaftliche Zwecke durchaus nutzbar sind. Medien bewegen sich, neben Diversifikationsgeschäften (vgl. Tropp und Baetzgen in diesem Kapitel), in zwei Märkten: Dem Markt der Nutzer und dem der Werbekunden. Für letzteren sind die verlässlichen Daten über das Publikum wichtig, denn sie bilden die Grundlage für die Mediaplanung und damit für die Entscheidungen, in welche Werbeträger Werbungtreibende ihr Geld aufwenden. Es ist üblich, dass die Werbevermarkter ihre Leistung gegenüber ihren Auftraggebern nachweisen müssen. Da es zu einem Prinzipal-Agent-Konflikt (hat die Agentur wirklich die Werbegelder des Auftraggebers richtig investiert?) kommt, ist eine nachvollziehbare und gemeinschaftlich durch alle Marktpartner initiierte Erhebung dieser Daten notwendig. Dies wird durch Joint-Industry-Committees (JICs) gewährleistet. Die Mediaforschung ist eine sehr ausdifferenzierte Form der Sozial- und Marktforschung und arbeitet mit hohen methodischen Standards. Hier sind in erster Linie Media-Studien wichtig, da sie für die jeweiligen Mediengattungen vergleichbare Reichweiten und Strukturdaten für Werbeträger liefern, die im Werbemarkt als Währung akzeptiert sind. Hinzu kommen Markt-Media-Studien (die neben Mediennutzung auch Konsumverhalten und psychografische Zielgruppenmerkmale erheben) und die Werbestatistik für Auflagen und Werbeaufwendungen. Bei den Media- und Markt-Media-Studien kommen spezielle und gattungsadäquate Methoden zum Einsatz, über die in den JICs entschieden wird. Diese Daten werden für die Mediaplanung (vgl. Hofsäss und Engel in diesem Handbuch) und die Gestaltung der Werbepreise herangezogen. Ergänzend dazu werden sie für andere Zwecke eingesetzt, z. B. für Marketing- und Vertriebsmaßnahmen im Nutzermarkt. Um Werbekunden zu überzeugen, setzen Medienvermarkter noch eine Vielzahl anderer Studien ein. So gewinnen Untersuchungen zur Werbewirkung zunehmend an Bedeutung, was an der Digitalisierung und der besseren Verfügbarkeit von digitalen Daten liegt. Moderne statistische Analyseverfahren (Modelling) und automatisierte Prozesse (Predictive Analytics) übernehmen so auch Funktionen der etablierten, auf Reichweiten und Strukturen fokussierten Mediaforschung. Neben den Werbevermarktern und den JICs betreiben Werbe- und Mediaagenturen Publikums- und Werbewirkungsforschung, um einen Mehrwehrt für ihre Auftraggeber, die Werbungtreibenden, zu bieten. Neue digitale Kommunikationsformen und der dynamische Wandel im Mediengeschäft führen dazu, dass die klassischen Methoden der Mediaforschung durch andere Techniken und Datenlieferanten ergänzt werden, was den Einfluss der durch JICs organisierten Forschungsinstitutionen beeinträchtigt. Andererseits bilden sie die zurzeit beste Garantie für Transparenz und Verlässlichkeit, um den Prinzipal-Agent-Konflikt zu lösen. Die Dynamik des sich weiter digitalisierenden und ausdifferenzierenden Medienmarktes führt mittelfristig zu weiteren Anpassungen der Mediaforschungsmethoden, langfristig sind größere Umbrüche nicht auszuschließen.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-658-09632-8_27-1 0d0983edc5f70948d7ebd7b670a0111a;de;;;6.1.;;;Kritische Erfolgsfaktoren für die Erstellung universitärer Multimediakurse — mit einem Beispiel aus dem Bereich des OR —Die Ziele des Einsatzes multimedialer Lehre an Hochschulen sind erweiterte Möglichkeiten beim Transport abstrakter Inhalte, Zukunftsorientierung, langfristige Personalkostensenkung in der Kursberatung sowie die Antizipation möglicher Umstrukturierungen in der Hochschullandschaft. Damit verbietet sich eine strikte Orientierung an Multimediaprodukten für den industriellen Einsatz und deren Erstellungsprozessen. Vielmehr sind die kritischen Erfolgsfaktoren für die Erstellung universitärer Multimediakurse zum einen die Anwendung von Pro-jektmanagement, und hier insbesondere die Aufstellung des relevanten Zielsystems, welches hier auch als verbales Optimierungsmodell angegeben wird, die Zeitplanung sowie die geeignete Personalwahl, und zum anderen die geeignete Wahl der technischen Plattform, des Front-Ends sowie der einzusetzenden Medien. Gerade die Wahl der einzusetzenden Medien ist entscheidend für an Studierende der Wirtschaftswissenschaften gerichtete Inhalte des Operations Research. Weiter lassen sich wichtige Hinweise zwecks Projektrisikoverkleinerung aussprechen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-50282-8_54 cb91d6f311bca98b17db82e9098a2cea;de;;;2.2.;;;Effektiver Musterähnlichkeitsabgleich für mehrdimensionale Sequenzdatensätze In diesem Beitrag präsentieren wir einen effektiven Musterähnlichkeits-Match-Algorithmus für mehrdimensionale Sequenzdatensätze wie Videostreams und verschiedene analoge oder digitale Signale. Um eine Folge von Datenpunkten anzunähern, führen wir a;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72584-8_27 05f0bae4a2b8346099523b6a067174e1;de;;;6.1.;;;Organisatorische Ansiedlung eines DatenqualitätsmanagementsFür die meisten Unternehmen im deutschsprachigen Raum ist Daten- bzw. Informationsqualität ein junges Thema – ein Thema, das in den letzten Jahren in vielen Organisationen an Bedeutung gewonnen hat. Dies zeigt die Vielzahl der Aktivitäten, die mit dem Thema Datenqualität (DQ) verknüpft sind. In den letzten Jahren werden vermehrt DQ-Werkzeuge am Markt angeboten, immer mehr Beratungsunternehmen spezialisieren sich auf dieses Thema.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8348-9953-8_13 32316f4b2ed5c3d9c64c8cc57049cd72;de;;;6.1.;;;Prinzipien der Replikationskontrolle in verteilten DatenbanksystemenDurch Datenreplikation können prinzipiell schnellere Zugriffszeiten und eine beliebig hohe Fehlertoleranz in verteilten Datenbanksystemen erreicht werden. Anderseits erhöht Replikation die Gefahr von Inkonsistenzen und den Aufwand von Änderungsoperationen. Zur Lösung dieses Zielkonflikts wurden in der Literatur viele unterschiedliche ;-;-;-;https://link.springer.com/article/10.1007/s004500050062 758b53cd794127d643bd97bc2e9d922f;de;;;6.1.;;;Evaluation der CASTLE Umgebung für kooperatives LernenUnbestritten und in zahlreichen Publikationen in den letzten Jahren aufgegriffen, bietet Distance Learning zahlreiche Vorteile für unsere Gesellschaft: Lernen zu Zeiten und an Orten, die optimal in den persönlichen Rhythmus passen, Lernen in selbst gewählter Geschwindigkeit, oder die Auswahl individueller lerntypengerechter Vermittlungsformen sind nur einige der beschriebenen Vorteile. Dies ist gerade unter dem Aspekt „lifelong learning“ und in diesem Zusammenhang für Menschen, die aufgrund beruflicher und familiärer Verpflichtungen nur über ein sehr stark eingeschränktes Zeitbudget verfügen, interessant. Distance Learning ermöglicht dieser bedeutenden Zielgruppe eine Weiterqualifizierung, die in traditionellen Seminaren mit vielen Präsenzveranstaltungen nicht möglich wäre. Der direkte Austausch mit Mitlernenden bringt jedoch gerade aus pädagogischdidaktischer Sicht unbestreitbare Vorteile mit sich (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-57673-7_10 4e2b2427a311e402318adca2187838b3;de;;;6.1.;;;Ein Modell zur Konstruktion Optimaler Konfigurationen von RechensystemenAuf der Grundlage eines graphentheoretischen Modells für Programmsysteme wird die optimale Konfigurierung eines Rechensystems, auf dem ein gegebenes Programmsystem implementiert werden soll, als ein Graphenzerlegungsproblem der kombinatorischen Optimierung formuliert und ein Algorithmus der dynamischen Optimierung zu seiner Lösung angegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-67979-7_12 e124a112ea289cf2c5448ca8ef46b745;de;;;6.1.;;;Personal- und Fahrzeugeinsatzplanung in der MüllentsorgungDie Diskussion um eine leistungsfähige und auch kostengünstige Entsorgung der anfallenden Müllmengen hat sich in den vergangenen Jahren erheblich verschärft. Dies bezieht sich (u.a.) auch auf die Hausmüllentsorgung, die durch die unmittelbare Betroffenheit der privaten Haushalte, eine (kommunal-)politische Dimension beinhaltet. Diese Situation erzwingt eine stärkere Beachtung betriebswirtschaftlicher Zielsetzungen, u.a. in der Form von betriebsinternen Kostensenkungsmassnahmen. Ein wesentlicher Aspekt ist in diesem Zusammenhang die Verbesserung der Tourenplanung sowie der Personaleinsatzplanung in der Müllentsorgung. Ein möglicher Lösungsansatz für diese Problemstellung wird in den Grundzügen skizziert. Ausserdem werden die mit einer Realisierung verbundenen Randbedingungen beschrieben sowie notwendige Veränderungsprozesse aufgezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17022-5_17 1619d6e51355618dbe1e84c284f839ba;de;;;6.1.;;;Definition und AbgrenzungIn diesem Kapitel wird der Begriff IOS definiert sowie die charakteristischen Beschreibungsmerkmale herausgearbeitet. Wir verwenden im folgenden die Bezeichnung ‘;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-91517-7_4 ebb89ee80b0df5d2b00312ba0873f32f;de;;;6.1.;;;Führen und IP-ManagementFührungstätigkeiten brauchen vor dem Bereich IP nicht haltzumachen. Warum auch? Soweit Führungsdefizite im Bereich des geistigen Eigentums festzustellen sind, beruhen sie nach meiner Einschätzung in erster Linie auf dem Vorurteil, dieser Bereich sei einem systematischen und an der allgemeinen Unternehmensstrategie ausgerichteten Management nicht zugänglich. Tatsächlich ist das Gegenteil der Fall.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-02992-0_8 ea8fec394be54aeae350d1f2e67137ad;de;;;6.1.;;;SFB 346—Integrationstechnologie als Innovationsmotor für MaschinenbauanwendungenDer Sonderforschungsbereich 346 „Rechnerintegrierte Konstruktion und Fertigung von Bauteilen“ ist ein interdisziplinäres Forschungsprojekt von Informatik- und Maschinenbauinstituten der Universität Karlsruhe. Sein Ziel ist es, durchgängige maschinenbauliche Prozeßketten von der Konstruktion über die Planung von Produktionssystemen und -abläufen bis hin zur Teilefertigung informationstechnisch zu unterstützen und zu optimieren. Dabei wird von der Prämisse ausgegangen, daß durch eine Integration der in den verschiedenen Produktlebensphasen anfallenden Daten und ihrer Bearbeitungswerkzeuge auf der Basis eines integrierten Produkt- und Produktionsmodells ein deutlicher Effizienz- und Flexibilitätsgewinn gegenüber herkömmlichen Insellösungen zu erzielen ist. In dem vorliegenden Papier werden die verschiedenen Spielarten der Umsetzung dieses Integrationsansatzes im SFB 346 beschrieben und einige der verwendeten Techniken vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-60831-5_26 c662fcd9435a517abbb42f1b1428ba6d;de;;;2.2.;;;Verbesserung der Beschreibung von Support-Vektordaten für die Dokument-Clustering Dokumenten-Clustering hat aufgrund seiner breiten Anwendung in vielen Bereichen viel Aufmerksamkeit erhalten. Um dieses Problem effektiv zu lösen, wird in diesem Artikel ein neuer Dokumentenclustering-Algorithmus vorgeschlagen, der die Marginal Fisher Analysis (MFA) und verbesserte Support Vector Data Description (SVDD)-Algorithmen verwendet. Die hochdimensionalen Dokumentdaten werden zuerst mit MFA in den niederdimensionalen Merkmalsraum abgebildet, dann wird das verbesserte SVDD angewendet, um die Dokumente in verschiedene Klassen im reduzierten Merkmalsraum zu gruppieren. Experimentelle Ergebnisse an zwei Dokumentendatenbanken demonstrieren die Wirksamkeit des vorgeschlagenen Algorithmus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29390-0_44 dda61ad31b7dcd7a6ef5e4e814655121;de;;;6.1.;;;Data Envelopment Analysis als Instrument für ZeitvergleicheDie Data Envelopment Analysis (DEA) ist bisher als Instrument für Betriebsvergleiche genutzt worden und hat damit verschiedene Formen des Benchmarkings unterstützt. Dieser Beitrag zeigt, dass sich die DEA auch als Instrument für Zeitvergleiche nutzen und damit für vielfältige interne Analysen heranziehen lässt. Beispielsweise kann die Entwicklung der Produktivität verfolgt und auf verschiedene Einflussgrößen bezogen und auch der Erfolg von spezifischen Rationalisierungsmaßnahmen überprüft werden.;-;-;-;https://link.springer.com/article/10.1007/BF03401266 587dbb9dedff145105f7eefcb7da5b24;de;;;2.2.;;;Video-Parsing und -Browsing mit komprimierten Daten Das Parsen von Videoinhalten ist ein wichtiger erster Schritt bei der Videoindizierung. In diesem Whitepaper werden Algorithmen vorgestellt, um die Videoanalyse-Aufgabe zu automatisieren, einschließlich der Partitionierung eines Quellvideos in Clips und der Klassifizierung dieser Clips nach Kameraoperationen unter Verwendung komprimierter Videodaten. Wir haben zwei Algorithmen und einen hybriden Ansatz zur Partitionierung von Videodaten entwickelt, die nach den Standards JPEG und MPEG komprimiert wurden. Die Algorithmen verwenden sowohl den Videoinhalt, der in DCT-Koeffizienten (diskrete Kosinustransformation) codiert ist, als auch die Bewegungsvektoren zwischen den Bildern. Der hybride Ansatz integriert die beiden Algorithmen und beinhaltet Multi-Pass-Strategien und Bewegungsanalysen, um sowohl die Genauigkeit als auch die Verarbeitungsgeschwindigkeit zu verbessern. Außerdem präsentieren wir inhaltsbasierte Video-Browsing-Tools, die die Informationen, insbesondere über die Aufnahmegrenzen und Schlüsselbilder, die beim Parsen gewonnen werden, verwenden.;-;-;-;https://link.springer.com/article/10.1007/BF01261227 f3c5bdfb753dfea5b1aaded9cec9775f;de;;;2.2.;;;Ein relationales Codierungsschema mit verschachtelten Intervallen für die Speicherung und den Abruf von XML Die XML-Daten sind eine typische Art von Baumdaten. Allerdings hat die XML-Forschungsgemeinschaft den traditionellen, auf dem relationalen Datenbankmanagementsystem (RDBMS) basierenden Kodierungsschemata für Baumdaten wenig Aufmerksamkeit gewidmet. In diesem Artikel untersuchen wir eines der traditionellen RDBMS-basierten Codierungsschemata, genannt Nested Interval, zum Speichern und Abrufen von XML-Daten. Insbesondere ist unser Ansatz sehr robust für die Aktualisierung von XML-Daten, einschließlich des Einfügens neuer Knoten. Tatsächlich funktionieren die bestehenden RDBMS-basierten XML-Speicher- und Indexierungstechniken sehr schlecht bei XML-Datenaktualisierungen, da sie von Grund auf neu erstellt werden sollten, wenn eine Aktualisierung in XML-Daten auftritt. Im Vertrag erfordert unser Schema keine Neucodierung. Insofern ist unser Ansatz eine praktikable Option, um updateintensive XML-Anwendungen zu speichern und abzufragen.;-;-;-;https://link.springer.com/chapter/10.1007/11562382_73 a65fd076983b35c365be5027203e6d54;de;;;2.2.;;;Eine kontinuierliche Abfrageverarbeitungsmethode in Broadcast-Umgebungen Um effiziente standortbasierte Dienste bereitzustellen, wurden verschiedene Verfahren vorgeschlagen, die eine Anfrage in Rundfunkumgebungen verarbeiten. In Broadcast-Umgebungen sendet ein Server periodisch Daten und ein Client empfängt die Daten und verarbeitet eine Anfrage. Kürzlich wurden mehrere Verfahren zum Verarbeiten einer kontinuierlichen Abfrage nach mobilen Objekten in Broadcast-Umgebungen vorgeschlagen. Da Clients die Abfrage jedoch unter Verwendung des Index der vergangenen Daten verarbeiten, der bereits vor der Übertragung in den Methoden erstellt wurde, ist die Genauigkeit des Abfrageergebnisses gering. Sie berücksichtigen auch nicht die Mobilität der Objekte während des Sendezyklus. Daher sind die Methoden nicht für eine kontinuierliche Abfrage der sich dynamisch bewegenden Objekte geeignet. In diesem Papier schlagen wir eine neue Indexierungsmethode für eine kontinuierliche Abfrage in Broadcast-Umgebungen vor. Das vorgeschlagene Verfahren verwendet die Vektorattribute von Objekten, um den Fehler des Ergebnisses während des Sendezyklus zu reduzieren. Um die kontinuierliche Abfrage zu verarbeiten, empfangen Clients alle Daten, die mit zusätzlichen Bereichen geschnitten sind, die die Objekte enthalten, die die Abfrage im Sendezyklus sowie den Abfragebereich betreffen. Das vorgeschlagene Verfahren minimiert auch die zusätzlichen Suchbereiche, um die Kosten für den Empfang der Daten und die Berechnung der Abfrage zu sparen. Um die Überlegenheit der vorgeschlagenen Methode zu zeigen, bewerten wir die Leistung aus verschiedenen Perspektiven.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27186-1_45 7aca03c0542f0e9ab62e8d33bf467041;de;;;2.2.;;;Korrelierte Trends: Eine neue Darstellung für unvollkommene und große Datenreihen Die rechnerische Darstellung von Datenreihen ist heutzutage eine Aufgabe mit wachsendem Interesse. Da diese Daten jedoch oft unvollkommen sind, sind neue Darstellungsmodelle erforderlich, um sie effektiv zu verarbeiten. Diese Arbeit präsentiert;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40769-7_27 d366ecd8a61af7d7f4a039dcd713f480;de;;;6.1.;;;Öffentliche Kommunikationsnetze im Umbruch – vom ISDN zum Future InternetDie öffentlichen Kommunikationsnetze haben in den letzten beiden Dekaden einen Umbruch erlebt, der für Nutzer, Hersteller und Netzbetreiber gleichermaßen dramatisch verlaufen ist. Der Schwerpunkt hat sich dabei von den in einem weitgehend monopolistisch geprägten Umfeld entstandenen, telefoniezentrierten ISDN-Netzen hin zu weitgehend deregulierten, datenzentrischen Internet-Infrastrukturen verschoben – Telefonie ist nur noch eine unter vielen Anwendungen. Im Zuge dieser Entwicklung konnten sich Netzkonzepte wie ATM nicht durchsetzen – trotz der offensichtlichen Defizite der IP-basierten Technologien in Bereichen wie Dienstgüte, Sicherheit und Management. In diesem Beitrag werden einige der Schlüsselfaktoren für diese Entwicklungen diskutiert. Als Ausblick werden dann die momentan sichtbar werdenden Möglichkeiten für die längerfristige Weiterentwicklung hin zu einem Future Internet aufgezeigt.;-;-;-;https://link.springer.com/article/10.1007/s00502-008-0546-8 6e33f35e8b829afcecffe12586ebd27b;de;;;2.2.;;;Erstellen eines E-Shops In diesem Kapitel erfahren Sie, wie Sie einen E-Shop erstellen. Dies beinhaltet die Anzeige einer Produktliste (mittels einer Schleife), die Implementierung eines Warenkorbs für jeden Benutzer, die Unterstützung der Benutzeranmeldung und -abmeldung und die Anforderung eines authentifizierten Zugriffs für die Checkout-Seite.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-1923-1_4 2284a309ff1b7be5c9567ec01a1dea7a;de;;;2.2.;;;Interstellare Phänomene Deutlich abgegrenzte starke Konzentrationen interstellarer Materie, wie die dichten Molekülwolken und die heißen HII-Regionen, sind als Einzelobjekte Gegenstand der Forschung. Andererseits macht uns das alles andere als homogene Medium in den verbleibenden weiten Räumen zwischen solchen markanten Merkmalen zunächst nur durch integrale Phänomene auf seine Existenz aufmerksam: Die verteilte Materie erstreckt sich über eine große Länge der Sichtlinie. Ein typisches Beispiel ist die interstellare Auslöschung des Sternenlichts. Der Nachweis über das Material an einer bestimmten Position ist nicht direkt möglich, Bereiche höherer optischer Dichte, die als „Wolken“ bezeichnet werden können, sind zunächst durch die Bestimmung der Lichtabsorption von Sternen in verschiedenen Entfernungen oder durch Sternzählungen unterscheidbar in die betrachtete Richtung. Bei anderen integralen Phänomenen, wie den interstellaren Absorptionslinien in Sternspektren, aber auch der 21-cm-Linienstrahlung des universell verteilten Wasserstoffs, ist eine Lokalisierung der verursachenden Materie nur bei Kenntnis des räumlichen Geschwindigkeitsfeldes möglich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-71721-5_4 6da6ec2dc2b6674db096a5706b2a8a6a;de;;;6.1.;;;Einsatzmöglichkeiten des Datenmanagements für die Simulation in der FertigungssteuerungEin Reihe von Problemen bei der Durchführung von Simulationsstudien läßt sich auf die mangelnde Integration von Datenmanagement und Simulation zurückführen. Dazu zählt u.a. der hohe Zeitaufwand zur Erhebung und Analyse der Daten sowie deren fehleranfällige Umsetzung in simulationsspezifische Syntax [1]. Aktuelle Änderungen in der operativen Datenbasis, die insbesondere bei der kurzfristigen Fertigungssteuerung zu berücksichtigen sind, werden nur zeitverzögert in das Simulationsmodell übenommen und verringern so dessen Nutzen für die Entscheidungsunterstützung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-91115-5_4 e5840c466ab3cba82db456687782d1f3;de;;;6.1.;;;Sitzungsunterstützung durch Computer Aided TeamComputer Aided Team (CATeam), die Computerunterstützung für die Gruppenarbeit, findet wachsende Beachtung bei den Führungskräften. Ziel des CATeam ist es, Kommunikation über die Hierarchien des Unternehmens zu unterstützen und die Teamarbeit insgesamt produktiver zu machen. Dieser Beitrag gibt zunächst eine kurze Übersicht über die Werkzeuge des CATeam, um dann an einem Beispiel die Unterstützung von Sitzungen zu erläutern. Dabei werden die Wirkungsweise verdeutlicht und die praktischen Ergebnisse dargelegt [1].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-78876-5_9 f6c9dd3798e7ffa327365de966c730b2;de;;;6.1.;;;Information Technology (IT) Outsourcing: an Alternative to Reengineer your ITDas Outsourcing des Information Technology-Systems wird als Alternative zum Reengineering des eigenen Informationssystems bewertet. Die Vor- und Nachteile des Outsourcing werden herausgearbeitet. Detailliert beschrieben und bewertet wird das Management (Vorbereitung, Implementierung und Durchfuhrungsstrategien) des Outsourcing.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-59187-7_15 48bf68cedb6f7e17d7b3b42208228dab;de;;;6.1.;;;Begriffsbestimmung und Einordnung des UntersuchungsgegenstandesDieses Kapitel bestimmt den Untersuchungsgegenstand genauer und betrachtet ihn als Teil der unternehmerischen Kommunikationspolitik, das heißt der Entscheidungen und Verhaltensweisens eines Unternehmens in Bezug auf seine Unternehmenskommunikation.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-22405-9_3 49d93c08cdf55fe9a8e30bb4c216a277;de;;;6.1.;;;Teil B: Management der RealisierungNach der Einordnung und Charakterisierung der Unterfunktionen der Realisierung erfolgt nun, wie schon bei den anderen Teilfunktionen, eine Umsetzung anhand der bekannten Managementfunktionen Konzeption, Planung, Ausführung und Kontrolle. Wie bei der Differenzierung der Unterfunktionen bereits deutlich wurde, können in der Realisierungsphase unter zeitlichem Aspekt zwei Dimensionen (Zeitpunkt versus Zeitraum) unterschieden werden. Die inhaltliche Ausgestaltung der Managementfunktionen orientiert sich daher im Folgenden an dieser Zweiteilung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-4470-2_17 a40f990a6896f2925768f8339d608e6a;de;;;6.1.;;;Die Heraufkunft der systemtechnologischen Superinformationsgesellschaft und deren BildungserfordernisseDie Welt, in der wir leben und uns orientieren müssen, wird anscheinend immer komplexer, weil sie in immer höherem Maße in sich verflochten ist: sie ist systemhaft, d.h., Veränderungen auf entfernten Kontinenten und in andersartigen Gebieten zeigen Rückwirkungen anderswo, manchmal überall. Man denke nur an die Börsenkurse in Tokio und New York. Globalisierung, internationale Verflechtung der „global players“ oder Multis bzw. internationaler Weltorganisationen, und eine aufgrund der Informations- und Nachrichtentechnik vermittelte planetarische Allgegenwärtigkeit zeigen diese systemhaften Verflechtungen. Einzelne Akteure und Agenturen sind kaum noch in der Lage, die systemhaften Wechselwirkungen zu steuern, die ihrerseits sehr empfindlich auf manche Ereignisse und Nachrichten reagieren können. Orientierung wird in dieser vielfältig von menschlichen Eingriffen mitgeprägten, aber nicht im Einzelnen gesteuerten oder gar steuerbaren technisch-ökonomischen Komplexwelt immer schwieriger, aber immer wichtiger und zugleich weniger wirksam, da die Nachrichten- und Orientierungsdaten immer schneller veralten, höchst unübersichtlich — geradezu chaotisch — sind und eben einzelne Institutionen kaum noch steuernd handeln, sondern allenfalls im Konzert der strategisch zugleich miteinander und oft konkurrierend gegeneinander handelnden Institutionen nur Akzente setzen bzw. unter den Bedingungen vorausgeschätzter Rückwirkungen und Reaktionen der Konkurrenten und übernationalen Trends planen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-14883-8_9 06cafd40a59f42a1035a5cd22e3c96f7;de;;;6.1.;;;Die EU verlassen heißt nicht Europa verlassen – Fehlsicht von May?In der ersten Parlamentsdebatte mit einer Rede von Frau May als britische Regierungschefin sagte diese am 20. Juli, die EU zu verlassen heißt nicht Europa verlassen. Das sagt sich leicht nach der BREXIT-Entscheidung vom 23. Juni 2016 und ist dennoch wohl eine Fehlsicht, wenn man bedenkt, dass das Vereinigte Königreich sich nach rund 45 Jahren von 27 EU-Ländern scheiden lässt. Außen vor bleiben im Wesentlichen die Schweiz und Liechtenstein plus Norwegen und Island sowie die Türkei und Russland – und auf die beiden letzteren hat Frau May wohl nicht Bezug genommen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-15875-0_12 7e2254518eeff3c2c54a03eb70d97190;de;;;6.1.;;;Die Bedeutung des Lieferanten für den Erfolg der Omnichannel-Händler am Beispiel des selektiven Kosmetikmarktes in DeutschlandDer Omnichannel-Vertrieb gewinnt vor allem innerhalb der Lieferanten-Händler-Beziehung zunehmend an Bedeutung. Eine strategische Partnerschaft spielt hierbei für ein nahtloses Kommunikations- und Einkaufserlebnis eine entscheidende Rolle – dabei beginnt die Verantwortung innerhalb der Wertschöpfungskette bereits beim Lieferanten. Inwiefern L’Oréal Luxe es schafft, im B2B-Vertrieb nachhaltige Omnichannel-Lösungen auf allen Stufen der Wertschöpfungskette umzusetzen, wird anhand dieses Beitrags verdeutlicht: Eine auf den Omnichannel-Vertrieb ausgerichtete, agile Vertriebsstruktur, konsistente und kundenrelevante Kommunikation auf allen Kanälen sowie professionelle technische Voraussetzungen durch Produktinformations- und Data-Management-Systeme sind Grundvoraussetzungen, um langfristig im Wettbewerb bestehen zu können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-20182-1_5 f4c4760c224398212f4594e6ab077696;de;;;6.1.;;;Prozesse und Prozessmanagement in der öffentlichen VerwaltungDie prozessorientierte Betrachtung von Organisationen verspricht vielfältige Potenziale bei der Verwaltungsmodernisierung. Eine am Bürger und Unternehmen ausgerichtete Leistungserbringung verlangt als Grundlage ein umfassendes Verständnis der eigenen Abläufe. Hierbei ist es wichtig, jeden Prozess für sich verstehen zu können, um die richtigen Weichen zu stellen. Grundlage für die Hebung dieser Potenziale ist die Etablierung eines Prozessmanagements. Im Beitrag werden entsprechende Vorgehensweisen, Modellierungsmethoden und die sich ergebenden Nutzenpotenziale aufgezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-21402-9_24 609030bf79590a77ee6f786120826c1f;de;;;6.1.;;;Informationsleistungen von Medien in KrisenzeitenAls in der Nacht vom 16. auf den 17. Januar 1991 die heiße Phase des Golfkriegs mit Luftangriffen auf Bagdad eingeleitet wurde, verzichtete die diensthabende Tagesthemen-Moderatorin Sabine Christiansen auf den verdienten Schlaf, um die aktuelle Entwicklung verzögerungsfrei — sozusagen in Echtzeit — dem gespannten Publikum zu übermitteln: “Hallo Bagdad, können Sie mich hören?” Im Jargon von Saddam Hussein begann die ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-95654-5_11 9b586a947d09939fd04e149f3318e783;de;;;6.1.;;;CRM — So können auch Sie profitierenKeine Frage: Ohne moderne Computerunterstützung lassen sich die in vielen Vertriebsorganisationen bestehenden wettbewerbsbedingten Defizite und Engpässe nicht mehr beseitigen. CRM-Systeme helfen ihnen dabei, auf der Basis einer Reorganisation des Vertriebs und der Vertriebsprozesse diese Schwierigkeiten in Zukunft zu verringern und erfolgreicher zu wirtschaften.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-89528-8_4 c575cec3656c597617f0bc2447a2e502;de;;;6.1.;;;Management interindustrieller EntsorgungsnetzwerkeAufgrund irreversibler Umweltschäden durch die ständig zunehmenden Entnahme- und Abgabevorgänge industrieller Produktion ist der Erhalt menschlicher Lebensgrundlagen gefährdet. Die Funktionen der Natur zur Ressourcenstiftung, zur Schadstoffassimilation und als Grundlage jeglicher menschlichen Lebensqualität sind aus globaler Sicht bedroht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-82432-5_13 4a343e79ce19580a08f9de608e825aec;de;;;6.1.;;;Die Dynamik des Wandels beherrschenManagementtheorie zahlt sich in der Managementpraxis aus. Die Anwendung der Prinzipien des evolutionären Managements macht sich durch eine besser informierte und zuverlässigere tagtägliche Geschäftsführung bezahlt. Dies trifft auf eine große Bandbreite praktischer Aufgaben zu, vom Informationsmanagement bis zu strategischer Planung und organisatorischer Strukturierung — und Umstrukturierung. Ein besonders fruchtbares Gebiet für die Anwendung evolutionärer Prinzipien ist die Umgestaltung von Abläufen: die Umstrukturierung der Organisation, so daß sie funktionaler und konkurrenzfähiger ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-84665-5_5 982616fa73e500acb262ec0b5f611fbd;de;;;6.1.;;;Promovieren Im Institutsverband IMA/ZLW & IFU Der RWTH AachenInnovationen werden nicht mehr von einzelnen hochspezialisierten Fachkräften entwickelt, sondern erfordern interdisziplinäre Teams. Interdisziplinäres Arbeiten ist damit für eine exzellente Ingenieurausbildung unabdingbar. Nach wie vor ist die Ingenieurausbildung jedoch stark disziplinlastig, neue Konzepte sowohl für die akademische Ausbildung als auch für interdisziplinäre Promotionen sind notwendig.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23662-4_14 ca34a71572c155aea769c5c24e09e425;de;;;6.1.;;;Fallstudie: Antragsbearbeitung in der VersicherungsindustrieIn der hier untersuchten Fallstudie werden zwei BPR-Projekte verglichen, die zur Lösung der gleichen Fragestellung durchgeführt wurden. Sie wurden bei einem Unternehmen der Lebensversicherungsbranche nacheinander durchgeführt. Um das Verfahren der systematischen Untersuchung von Potentialen der IT im Rahmen von BPR-Projekten zu illustrieren, werden die Lösungsansätze aus den Projekten hier allerdings so betrachtet, als seien sie als Alternativen zum gleichen Zeitpunkt erarbeitet worden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-97802-8_7 7686172cecdf64938a889eb6a49b1438;de;;;6.1.;;;British Petroleum: Vom Tanker zum SchnellbootHat unser IQ-Konzept außerhalb des Silicon Valley irgendeine Bedeutung? Wir haben bereits gesehen, dass die Antwort ein klares „Ja“ ist. Doch wie steht es mit Unternehmen in der Schwerindustrie wie zum Beispiel der Erdölindustrie? Bis vor kurzem war die Erdölindustrie eine gemütliche, etwas schwerfällige Branche mit einer überschaubaren Anzahl altbekannter Anbieter — das genaue Gegenteil der hoch dynamischen IT-Branche. Doch wie wir sehen werden, ist Informationsmanagement auch in dieser Branche der Schlüssel zum Erfolg, und unsere Prinzipien für das Informationszeitalter bieten dafür eine Anleitung. In diesem Kapitel verfolgen wir die Entwicklung von BP, einem Erdölunternehmen, dem es gelungen ist, im Informationszeitalter eine Führungsposition zu erobern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-82344-1_10 9f47dc2d5871331374769be976f725cf;de;;;6.1.;;;These 4: „Management-Computing “ eröffnet attraktive PerspektivenBei der Gestaltung leistungsstarker Organisationen dominiert weniger der Rationalisierungsgedanke, als vielmehr die Absicht, im Wettbewerb überlegen zu sein. Die Hauptver änderungen, welche die Informationstechnologie für die Organisation der Zukunft bewirkt, liegen in der F ähigkeit, zerlegte T ätigkeiten nach Inhalt und Ergebnis und damit auch am Arbeitsplatz wieder zusammenzuführen. Die moderne Informationstechnologie wirkt somit in hohem Maße integrierend.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-83906-0_4 5c402922ea354e9d1155c03498baf8ea;de;;;6.1.;;;Strategische Informationssysteme im MarketingIm Kampf um Kunden und Marktanteile bewegen sich Unternehmungen heutzutage in einer Umwelt, die durch zunehmende Komplexität, Dynamik und Diskontinuität gekennzeichnet ist. Bei wachsendem Verdrängungswettbewerb sind immer mehr Unternehmungen bemüht, sich Wettbewerbsvorteile durch ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-86290-7_14 26daf255f7882685f246b598aa68a16d;de;;;6.1.;;;Zeitoptimierte Assoziationsanalyse durch Stichprobenauswahl dargestellt am Beispiel aus der TelekommunikationsbrancheDer vorliegende Artikel zeigt die Anwendbarkeit der Stichprobentheorie zur schnelleren Berechnung von Assoziationsregeln in großen Datenbeständen. Assoziationsregeln beschreiben Zusammenhänge zwischen Attributwerten von Datensätzen einer Datei. Statt diese Regeln durch Analyse des gesamten Datenbestandes zu generieren reicht es aus, eine Stichprobe aus diesem Datenbestand zu analysieren und die hier erhaltenen Maßzahlen für die Regeln als Schätzer für die im Datenbestand tatsächlich vorliegenden Maßzahlen anzusehen. Es werden Formeln angegeben, mit denen Stichprobengrößen bestimmt werden können, so dass die in der Stichprobe gefundenen Maßzahlen der Regeln hinreichend genau die tatsächlich vorliegenden Maßzahlen der Regeln darstellen. Durch dieses Vorgehen lässt sich die Gesamtdauer des zugehörigen Prozesses des „Knowledge Discovery in Databases “ erheblich verringern. Dazu werden die Ergebnisse einiger Tests angegeben. Die praktische Anwendbarkeit dieses Ansatzes der Assoziationsanalyse wird durch eine Analyse von Telekommunikationsdaten zur Ermittlung von Fehlroutings sowie Bündelver-tauschungen dargestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-50282-8_52 e581c37a1e4e86c31f637726bcd144cd;de;;;6.1.;;;Bestimmung der Gewichte bei Mehrzielentscheidungen. Eine vergleichende Analyse ausgewählter VerfahrenSowohl in der betrieblichen Praxis als auch bei privaten Entscheidungen hat man es zumeist mit Problemen zu tun, die sich wegen ihrer Komplexität nur durch eine Vielzahl unterschiedlichster Kriterien in ihrer ökonomischen Bedeutung voll erfassen lassen. Um dem Wunsch der Praktiker nach realistischeren und anwendbaren Entscheidungsunterstützungsmethoden zu entsprechen und die beschränkte Informationsverarbeitungskapazität bzw. die eingeschränkte Rationalität eines Entscheiders zu berücksichtigen, wird häufig vorgeschlagen, bei Vorliegen sehr vieler Ziele diese in einem hierarchisch aufgebauten Zielsystem zu strukturieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-50282-8_48 6b82c44d21f71dbaa34903bb03f4d8e6;de;;;6.1.;;;Modellierung und Implementierung von Stammdaten für die Demontageplanung und -steuerung mit ERP-SystemenVor dem Hintergrund gestiegener Anforderungen an die Produktverantwortung von Herstellern gewinnen Fragestellungen einer wirtschaftlichen Demontage zunehmend an Bedeutung. Neben der Entwicklung demontagespezifischer Planungssysteme bietet sich grundsätzlich auch die Möglichkeit an, Aufgaben der Demontageplanung und -Steuerung (DPS) mit Enterprise Resource Planning-Systemen (ERP-Systemen) wahrzunehmen. Eine Schlüsselrolle in diesem Zusammenhang spielen Stammdaten als zentrale Daten- und Planungsgrundlage dieser Systeme. Im vorliegenden Beitrag werden daher die demontagespezifischen Anforderungen an Stammdaten für die DPS umrissen. Anhand des ERP-Systems SAP;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-50282-8_9 109839acce761909ebe3cf064c1763c7;de;;;6.1.;;;Strategisches und operatives Controlling im Rahmen des E-CommerceAls 1993 der Siegeszug des Internet begann und die Informationsmenge stetig exponentiell anstieg, konnte sich niemand vorstellen, welche Auswirkungen daraus entstehen würden. Inzwischen sind Millionen von Rechnern mehr oder weniger wahllos miteinander vernetzt. Eine Zentrale gibt es nicht. Sowohl Firmen, Firmenmitarbeiter als auch Privatpersonen nutzen das Internet. Schwerpunkt ist dabei die Suche nach Informationen aller Art, der Versand und Empfang von E-Mail, die Suche nach aktuellen Nachrichten, nach Verbrauchertipps, nach Produkten oder die Nutzung von Online-Banking.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-92159-8_12 f89b9c241b13c1e55e357f3ac010a411;de;;;6.1.;;;Der Markt für Politikberatung und Lobbyismus aus der Perspektive polnischer und deutscher ParlamentarierThe number of forms, contexts and actors of policy advice and lobbying has grown over the years to such an extent that the problem of diffuse boundaries between these processes, and of capturing the specificity of the market that they form, gains in both theoretical and practical importance. This study is based on interviews with members of parliament: the Polish Sejm and the German Bundestag and concentrates on the question about how the market for political advice and lobbying is perceived by the very addressees. The comparative perspective is multi-layered and includes the cognitive, affective and normative dimensions. The image that emerges as a result offers a starting point for a discussion on the role of decision makers (who not only take part in the processes of our concern but also co-shape their regulatory framework) and on the features of a mature market of policy advice and lobbying, including mechanisms that favorably affect it.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-27418-4_8 914ce28f360931b2a78e8f1bff4f3c31;de;;;6.1.;;;Anlagenbelegungsplanung in der ProzeßindustrieBei der Anlagenbelegungsplanung in der Prozeßindustrie muß eine im Vergleich zur Situation in der Fertigungsindustrie erheblich schwierigere Optimierungsaufgabe gelöst werden. Restriktionen wie Mindestbestände und begrenzte Kapazitäten von Lagern für Zwischenprodukte, reihenfolgeabhängige Um-rüstzeiten von Apparaten, Nachliege- und Verfallszeiten, variable Chargengrößen oder zyklische Materialflüsse bestimmen die Komplexität des Problems. Wir stellen einen Dekompositionsansatz zur Optimierung der Chargenproduktion auf Mehrzweckanlagen vor, der eine Belegungsplanung mit Hilfe von Modellen und Methoden zur ressourcenbeschränkten Projektplanung sowie Standardsoftware zur nichtlinearen Optimierung ermöglicht. Die in einer experimentellen Performanceanalyse nachgewiesene Planungsqualität bei kurzer Rechenzeit erlaubt die Einbindung der Modelle und Methoden in Advanced-Planning-Systeme zum Supply Chain Management wie SAP APO.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-50282-8_59 941c4cadc9dbcbddac3976b1fe36fd1b;de;;;6.1.;;;Pickup & Delivery-Probleme mit Umlademöglichkeit Ein Tourenplanungsproblem aus der AutomobilzulieferindustrieGrundlage für die Modellierung ist das Pickup & Delivery-Problem. Dieses wird um die Möglichkeit erweitert, zusätzlich bei der Planung von Touren für jedes einzelne Gut die Transportart (Sammelgut, Milkrun) bestimmen zu können. Ein Gut wird als ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-50282-8_5 4cbbe97473fd08f73f1e8e7550b974a4;de;;;2.2.;;;Das projektive Tensorprodukt In diesem Kapitel untersuchen wir den einfachsten Weg, das Tensorprodukt zweier Banachräume zu normieren. Das projektive Tensorprodukt linearisiert beschränkte bilineare Abbildungen genauso wie das algebraische Tensorprodukt bilineare Abbildungen linearisiert. Das projektive Tensorprodukt leitet seinen Namen von der Tatsache ab, dass es sich gegenüber Quotientenraumkonstruktionen gut verhält. Das projektive Tensorprodukt von ℓ;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-3903-4_2 0c8e781b2b09794eabeaf2495737b50c;de;;;6.1.;;;Anforderungen an Augmented Reality in der PflegeDer demografische Wandel und die gesellschaftliche Entwicklung stellen die Pflege vor umfassende Herausforderungen. Gleichzeitig schreiten die Entwicklungen und die Möglichkeiten im Bereich der Augmented Reality (AR)-Anwendungen stetig voran. Bisherige Studien zu AR in der Pflege beziehen sich auf prototypische Entwicklungen. In den Evaluationen werden besonders technische Anforderungen beschrieben. In Form einer qualitativen Untersuchung wurden hier fachliche Anforderungen für einen Einsatz von AR in der Pflege erhoben. Die Anforderungen können in den Aspekten Verbesserung des Pflegealltags, Datenbrillen im direkten Patientenkontakt, Akzeptanz, Kompetenzanforderungen, strukturelle Anforderungen und Designanforderungen zusammengefasst werden. Die hier erhobenen Anforderungen können für weitere Entwicklungen von AR Anwendungen in der Pflege grundlegend sein. Sie ersetzen aber nicht die Anforderungserhebung im konkreten Anwendungsfall. Diese können zum Beispiel durch partizipatives Vorgehen oder die Anwendung ethischer Bewertungsinstrumente ergänzt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-31768-3_10 78872bfac017527ad9d50f3157623bc1;de;;;6.1.;;;Einflussfaktoren der Adoption von Connected Cars durch die EndnutzerConnected Cars zeichnen sich aus durch eine internetbasierte, bi- oder multilaterale Verbindung zum Fahrzeughersteller, Fahrzeughändler, zu Versicherern, zu Regierungsbehörden (z. B. Mautstellen oder Straßenverkehrsamt), zur Infrastruktur (z. B. Ampeln, Parkhäuser oder Verkehrsschilder) und anderen Fahrzeugen. Vernetzte Fahrzeuge sind auf technische Daten und Daten anderer Nutzer angewiesen, um einen Mehrwert gegenüber herkömmlichen Fahrzeugen zu generieren. Die Vorzüge und Potenziale der Connected Cars können allerdings nur dann realisiert werden, wenn eine kritische Masse von Nutzern diese Konnektivitätstechnologien im Fahrzeug akzeptiert und nutzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-20598-0_8 07167a344a76ab6b4c7be96fd559d857;de;;;6.1.;;;Zentrale Datenbasis im EnergiehandelIm Zuge der Liberalisierung der Energiemärkte, insbesondere der Strommärkte, innerhalb der Europäischen Union sahen sich die Vereinigten Elektrizitätswerke Westfalen Energie Aktiengesellschaft (VEW Energie AG) zahlreichen neuen Herausforderungen gegenübergestellt. Die Sicherstellung der Wettbewerbsfähigkeit ist daher zu einem elementaren Unternehmensziel geworden. Die Beschaffungsoptimierung zur Kostenreduzierung umfasst nun nicht mehr nur die Beschaffung von Primärenergien, die in den eigenen Kraftwerken in elektrischen Strom umgewandelt werden, sondern auch die Beschaffung von Strom selbst. Die Möglichkeit des Handels mit Strom führte zu einer großen Vielfalt an neuen Produkten und potenziellen Handelspartnern. Dies alles hatte eine Steigerung der Komplexität des Strommarktes zur Folge. Die VEW Energie AG trug dieser Entwicklung Rechnung, indem sie einen sogenannten Trading Floor einrichtete, dessen Mitarbeiter sich vorwiegend der Aufgabe des Energiehandels widmen. Zu ihrer Unterstützung sollte ein Marktinformationssystem bereitgestellt werden, das allen Mitarbeitern des Handelsbereichs als Datenbank für Marktdaten zur Verfügung steht. Auf Grundlage der Marktdaten können Marktanalysen, statistische Auswertungen und Preisprognosen erstellt werden. Daraus resultiert, dass zu diesem Zweck heterogene Datenformate in der Datenbank zusammen geführt werden müssen, die strukturiert oder unstrukturiert;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-50282-8_6 89e004cf45c31ad7fd36aa7c53509bd9;de;;;6.1.;;;Organisationales Gedächtnis undKonventionen: Über Hypothesen,Akteure und RechtfertigungDer Beitrag erweitert aus der theoretischen Perspektive der Soziologie der Konventionen (Économie des Conventions, EC) die Forschung zur pragmatischen Dimension des organisationalen Gedächtnisses. Dabei wird erstens argumentiert, dass Konventionen als organisationales Gedächtnis verstanden werden können, in denen gespeichert wird, wie Koordinationsprobleme erfolgreich lösbar sind. Zweitens wird anhand des Akteurstatus der EC sowie des Konzepts der Handlungsregime diskutiert, wie Akteure auf gespeichertes Wissen zugreifen. Und drittens wird die bislang nicht berücksichtigte normative Dimension des organisationalen Gedächtnisses analysiert. Dabei wird argumentiert, dass Akteure sich auf Konventionen gestützt rechtfertigen, wenn sie Elemente des organisationalen Gedächtnisses aufgreifen. Insgesamt trägt der Beitrag dazu bei, die Verbindung von kollektivem Gedächtnis und Entscheidung besser zu verstehen, indem sie auf Basis der EC als eine interaktionistische, pragmatische und normativ geprägte Aushandlung von Erinnerungen in konkreten Situationen betrachtet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-11827-3_2 80defa2c679bcc12cc524817ddf708a6;de;;;6.1.;;;Risk-/Return-orientierte Optimierung des Gesamtbank-Portfolios unter Verwendung des Conditional Value at RiskIn einem sich verschärfenden Wettbewerb sind die Banken gezwungen, Rentabilitäts- und Risikomanagement eng miteinander zu verzahnen und die Risi-ko-/Ertrags-Struktur des Gesamtbank-Portfolios zu optimieren. In diesem Beitrag wird ein Überblick über ein Optimierungsmodell gegeben, das den erwarteten Ge-samtbank-Return maximiert und dabei die Verlustrisiken gleichzeitig aus interner und aus aufsichtrechtlicher Sicht begrenzt und dadurch die zur Verfügung stehenden Kapitalressourcen des ökonomischen und des regulatorischen Kapitals bestmöglich nutzt. Die Optimierung basiert auf einem neuen Ansatz der internen Risikomessung mittels des Conditional Value at Risk, der eine integrierte Betrachtung von Marktpreis- und Kreditrisiken erlaubt, ein konvexes Risikomaß darstellt und die Lösbarkeit der betrachteten Portfolio-Optimierungsaufgabe sichert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-50282-8_23 47d1789a0585d6347b5b4a716b0f6ab1;de;;;6.1.;;;Eine spieltheoretische Analyse von Zulieferer-Abnehmer-Beziehungen auf Basis des JELS-ModellsDie ganzheitliche Analyse, Planung, Steuerung und Kontrolle Unternehmens-übergreifender Wertschöpfungsprozesse stellt die zentrale Aufgabe des Supply Chain Management dar (vgl. [3], S. 1–2). Im Rahmen der Analyse einer gemeinsamen Bestell- und Produktionspolitik eines Zulieferers und eines Abnehmers entwickelte ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-50282-8_19 5b48a4fd39525ca87cfe474dfa1e8fdb;de;;;2.2.;;;Probleme bei der Auswahl des HMM-Modells für Fußballvideos Die Video Retrieval-Community hat konzertierte Anstrengungen unternommen, um Tools zu entwickeln, die den Annotationsprozess von Sportvideos automatisieren. In diesem Beitrag bieten wir eine eingehende Untersuchung von drei Auswahlansätzen des Hidden-Markov-Modells (HMM). HMM, ein beliebtes Indexierungs-Framework, wird oft ad hoc angewendet. Wir untersuchen, welche Auswirkungen, wenn überhaupt, eine schlechte HMM-Auswahl auf die zukünftige Indexierungsleistung bei der Klassifizierung bestimmter Audioinhalte haben kann. Audio ist eine reichhaltige Informationsquelle, die eine effektive Alternative zu hochdimensionalen visuellen oder bewegungsbasierten Funktionen darstellen kann. Als Fallstudie veranschaulichen wir auch, wie ein überlegenes HMM-Framework, das mit einer Bayesschen HMM-Auswahlstrategie optimiert wurde, Fußballvideos sowohl segmentieren als auch klassifizieren kann, was vielversprechende Ergebnisse liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27814-6_12 3c86ee5f83becdfeea9af7ba9b777c2a;de;;;6.1.;;;Change ManagementPeter Drucker sieht die größte Gefahr in Zeiten der Veränderung nicht in der Veränderung selbst, sondern im Handeln in der Logik von gestern. Und Peter Senge sieht in den Lösungen von gestern die Probleme von heute. Wenn beispielsweise der Polizei ein Schlag gegen Drogenhändler gelingt, sinkt das Angebot an Drogen und die Nachfrage und somit die Preise steigen. Das wiederum lässt die Drogenkriminalität steigen — wegen der gestiegenen Preise unter Umständen sogar über das vorherige Niveau. Dies fuhrt in einen Kreislauf permanenter Aktion und Reaktion auf Umwelteinflüsse, welche zum Teil auch durch das eigene Handeln determiniert sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-90327-3_7 e82d900517e3201c50f18edaab579afd;de;;;6.1.;;;SDAI auf DBS implementieren und anwendenDer internationale Standard zum Austausch von Produktdaten, STEP, erlaubt die elektronische Verwaltung aller während des gesamten Lebenszyklus eines Produktes anfallenden Daten. Mit SDAI wird in STEP eine Zugriffsschnittstelle standardisiert, die von konkreten Datenbanksystemen (DBS) abstrahiert. Wir stellen ein Projekt vor, das zum einen die Eignung von relationalen und objektorientierten Datenbanksystemen (RDBS bzw. OODBS) zur Implementierung von SDAI-Schnittstellen untersucht. Zum anderen soll die Eignung von SDAI zur Implementierung von DB-Anwendungen geprüft werden. Dabei identifizieren wir wichtige Aspekte aus Sicht des SDAI- und des Anwendungsprogrammierers. Während die Implementierung der SDAI-Schnittstelle auf einem OODBS aufgrund der ähnlichen Datenmodelle und der Unterstützung einfacher Zugriffsfunktionen nahtloser ist, bieten RDBS bessere Adaptions- und Optimierungsmöglichkeiten für verschiedenste Anwendungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-79646-3_24 c90f1defe07787745d7954d6e1936814;de;;;6.1.;;;Geographische Informationssysteme (GIS) und raumbezogene Prozeßmodellierung in der Angewandten LandschaftsökologieDer Einsatz Geographischer Informationssysteme erstreckt sich über ein breites Anwendungsspektrum sowohl in den raumbezogenen Wissenschaftsdisziplinen (Kartographie, Vermessung, Photogrammetrie, Geographie, Hydrologie, Meteorologie, Forstwirtschaft u.a.) als auch in der Stadt- und Landschaftsplanung, der öffentlichen Verwaltung (z.B. bei Landesvermessungsämtern, Umweltämtern) und in der Industrie (Telekommunikation, Logistik u.a.) (Saurer u. Behr 1997, Goodchild et al. 1996, Bill 1996, Buziek 1995). Auch aus der landschaftsökologischen Forschung und Praxis sind Geographische Informationssysteme heute nicht mehr wegzudenken. Ihre Anwendung als Analyse-, Modellier- und Darstellungswerkzeug ist hier mittlerweile ebenso selbstverständlich wie der Einsatz von Kartier-, Feldmeß- und Laborverfahren oder die Handhabung statistischer Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-58488-6_11 1fd6fc336eb0222e171e4326fb7009d6;de;;;6.1.;;;Zahlungssysteme im InternetDie kommerzielle Nutzung des Internet über das World Wide Web (WWW) hat seit Mitte der 90er Jahre spürbar zugenommen. Auch für die Zukunft werden erhebliche Wachstumsraten prognostiziert. Wurde beispielsweise die Zahl der Internet-Nutzer im Jahr 1996 weltweit noch mit rund 60 Millionen beziffert, rechnet man bis zum Jahr 2001 mit einem Anstieg auf über 300 Millionen Personen. Schon heute wird im Internet ein beachtliches Geschäftsvolumen abgewickelt. So wird nach einer Studie des Marktforschungsinstitut Forrester-Research für das Jahr 1998 mit einem Umsatz von 1,2 Mrd. US-$ gerechnet. Die Bandbreite derartiger Schätzungen ist allerdings groß.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-99316-8_8 5b7b1504d202ec1b7bb18f01469af353;de;;;6.1.;;;Ein Modell zur Transaktionsorientierten Externen IntegrationEine Gemeinsamkeit der bisher vorgestellten und diskutierten Konzepte war die Weiterleitung von Informationen aus einem Informationssystem ohne erneuten Bedienereingriff in das Informationssystem eines anderen Unternehmens. Damit ist zwar eine isolierte Beschleunigung des Datentransportvorgangs und das Entfallen von Datenerfassungsarbeiten verbunden (vgl. Zielsetzungen der EI in I.2.2.2). Eine Aussage über die Beschleunigung oder Verbesserung der gesamten Bearbeitungskette ist damit noch nicht möglich. In einigen Anwendungsbereichen genügt eine periodische Datenübermittlung völlig (bei relativ zeitunkritischen Daten, etwa für statistische Daten), in anderen erscheint sie nicht angemessen. Zeigt sich z.B., daß bestimmte Leistungsprozesse dringend erfüllt werden müssen, mit der vorgesehenen Informationsabwicklung aber nicht entsprechend terminlich behandelt werden können, wird in vielen Fällen eine parallele manuelle — die bestehende EDV-Lösung umgehende — Organisation bestehen bleiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-30491-4_7 04315d8ac42d56567f34b8955c5eb52a;de;;;2.2.;;;Auf die Datenflussanalyse angewendete Pathlistings In diesem Beitrag wird der Pathlisting-Mechanismus als neues Werkzeug entwickelt, das bei der Durchführung einer effizienten Datenflussanalyse von Programmen für eine Vielzahl von Problemen nützlich ist. Ein Algorithmus, der dieses Werkzeug für Vorwärtsfluss- und Codeverbesserungsprobleme verwendet, wird vorgestellt. Es wird gezeigt, dass dieser Algorithmus für alle praktischen Zwecke linear in der Größe der Eingabe ist, die im Allgemeinen ein reduzierbarer Flussgraph ist, der das gegebene Programm modelliert. Pathlistings verallgemeinern den von Kennedy eingeführten Nodelisting-Ansatz zur Lösung von Datenflussproblemen. Die Effizienz des Pathlisting-Algorithmus beruht auf der Wiederverwendung von Zwischenwerten und auf der Tatsache, dass die Zyklen eines reduzierbaren Flussdiagramms geordnet werden können. Weitere Vorteile des Ansatzes werden ebenfalls diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF00289306 a8c491e98bc6e6f3da73237806e075db;de;;;2.2.;;;Fallbasierte Argumentation für mehrstufige Probleme und deren Integration mit heuristischer Suche Der übliche Ansatz der fallbasierten Argumentation geht davon aus, dass es für jede gegebene Probleminstanz notwendig ist, einen ähnlichen Fall von Grund auf aus der Fallbasis abzurufen. Daher wird typischerweise eine indizierte Speicherstruktur oder andere Mittel zum Erleichtern eines schnellen Zugriffs benötigt. Außerdem wird in der Regel mit jedem Fall eine Komplettlösung hinterlegt, die an das jeweilige Problem angepasst werden kann. Wir haben einen anderen Ansatz für . entwickelt;-;-;-;https://link.springer.com/chapter/10.1007/3-540-60364-6_31 fec950c0f8d9c09160ca18dc7cc4d508;de;;;6.1.;;;Konfigurierungskonzepte für DB-basierte technische Entwurfsanwendungen. Schwerpunkte einer Datenbank-Unterstützung von technischen Entwurfsanwendungen sind eine geeignete Ablaufkontrolle sowie ein geeignetes Datenmodell. Letzteres muß Versionen komplexer Objekte verwalten können. Um aus der Gesamtmenge der in einer Datenbank enthaltenen Versionen konsistente Einheiten (Mengen ‚kompatibler’ Versionen) hervorheben zu können, werden geeignete Konfigurierungskonzepte benötigt. Dieses Papier gibt eine Klassifikation verschiedener DB-bezogener Konfigurierungsansätze, bewertet diese und begründet damit die Wahl, die im Rahmen des Objekt- und Versionsdatenmodells OVM hinsichtlich des zu unterstützenden Konfigurierungskonzeptes getroffen wurde. Wir werden argumentieren, daß insbesondere die Flexibilität, die das gewählte Konzept sowohl hinsichtlich der Definition von Konfigurationstypen als auch hinsichtlich des Anlegens von Konfigurationen bietet, zu einer besseren Unterstützung von technischen Entwurfsanwendungen als in bestehenden objekt-orientierten Systemen führt.;-;-;-;https://link.springer.com/article/10.1007/s004500050092 e0365c8804a7085f7c135a7c8a17d337;de;;;6.1.;;;Marketing aus betriebswirtschaftlicher Sicht – wichtige AspekteDer Markt für Arzneimittel befindet sich in einem tief greifenden Umbruch. Auch wenn es den Pharmaunternehmen in einem stetigen Entwicklungsprozess gelingt die Einsatzgebiete und Wirksamkeit von Arzneimitteln auszuweiten, so kann der nachhaltige Unternehmenserfolg allein dadurch nicht abgesichert werden. Zunehmende Wettbewerbeskonzentrationen, Deregulierungen und eine gestiegene Sensibilität der Unternehmensumwelt auf Meldungen aus dem Gesundheitswesen betreffend potenzielle Nebenwirkungen und Kosteneffektivität, führen dazu, dass ein offenes, professionelles Marketing einen wesentlichen Erfolgsfaktor darstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72637-1_1 3cc581b6b54fe3fd9def4812a3065de4;de;;;6.1.;;;Barter als Geschäftsmodell für den interuniversitären Tausch von LehrangebotenIn dem vorliegenden Beitrag beschreiben wir einen Tausch von elektronischen Lehrangeboten zwischen der Carl von Ossietzky Universität Oldenburg und der Universität Osnabrück. Der Tausch erfolgt als Teil des Projekts epolos, in dem der Verbund beider Hochschulen als einer von drei „Piloten“ die niedersächsische Landesstrategie im Netzwerk ELAN umsetzt. Der Austausch erfolgt als Bartergeschäft, d. h. Leistungen werden für Gegenleistungen erbracht, ohne dass Zahlungsmittel zum Ausgleich fließen. Wir diskutieren Bartergeschäfte als Form eines Geschäftsmodells für das eLearning. Auf der Basis einer Literaturrecherche zeigen wir die Strukturen eines solchen Geschäftsmodells auf. Nachfolgend beschreiben wir die Komponenten des Geschäftsmodells, d. h. das Leistungsangebot des Tausches, die Beschaffung der erforderlichen Ressourcen, den Leistungserstellungsprozess, die Distribution der Angebote, das Modell der Kooperation zwischen den Partnern sowie das Finanzierungsmodell (verstanden als allgemeines Kosten-Nutzenkalkül). Eine nachfolgende theoretische Analyse erklärt die Bedingungen der Vorteilhaftigkeit derartiger Bildungskooperationen, wobei wir die Transaktionskostentheorie und die Theorie der Kernkompetenzen heranziehen. Wir schließen den Beitrag mit einem Ausblick auf künftige Arbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-1922-9_16 8f5d3e3690b32d88b8f6b235887482cc;de;;;2.2.;;;Einsatz von Intelligenz in objektbasierten Speichergeräten, um attributbasierten Dateizugriff bereitzustellen Der attributbasierte Dateizugriff wurde als vielversprechende Methode angesehen, um Dateien basierend auf ihren Attributen und nicht über die übliche Verzeichnishierarchie zu erreichen, was insbesondere für das Auffinden des Ziels unter einer Masse von Dateien von Bedeutung ist. Da jedoch das attributbasierte Dateisystem einen höheren Performance-Overhead einführt und normalerweise mit bestehenden Dateizugriffsschnittstellen nicht kompatibel ist, gibt es bis jetzt nur wenige praktische attributbasierte Dateisysteme. Dieses Papier entwirft ein Dateisystem mit attributbasierten Zugriffsmethoden und einer kompatiblen Zugriffsschnittstelle unter Verwendung von objektbasierten Speichergeräten (OSD). Im Detail nutzt dieses Design vorhandene Features des OSD-Standards (T10) voll aus: Objektattribute und Zugriffsmethoden werden in Dateiattribute bzw. die entsprechenden Zugriffsschnittstellen abgebildet, Collection-Objekte werden zur schnellen Indexierung von Benutzerobjekten verwendet. Daher kann die auf Attributen basierende Objektorganisation in OSD effizient erreicht werden, und die leistungsstarke Verarbeitungsfähigkeit von OSD wird verwendet, um Objektabfragen abzuschließen, um die Leistung zu beschleunigen. Darüber hinaus wird der Export der neuen Zugriffsmethoden über ein Dateisystem mit einer kompatiblen Schnittstelle vorgestellt. Ein solcher Prototyp wurde implementiert. Tests haben gezeigt, dass es viel weniger Overhead verursacht als einige vorhandene attributbasierte Dateisysteme und die Abfrageleistung höher ist als bei seinem Gegenstück, das auf dem Gerät auf Blockebene basiert.;-;-;-;https://link.springer.com/article/10.1007/s11432-012-4661-0 60c3f05dd872548e3716e021f4b24e75;de;;;2.2.;;;LSimRank: Knotenähnlichkeit in einem beschrifteten Graphen Der Begriff der Knotenähnlichkeit ist in vielen realen Anwendungen nützlich. Viele existierende Ähnlichkeitsmessungen wie SimRank und seine Varianten wurden vorgeschlagen. Von diesen Messungen erfassen die meisten nur die Strukturinformationen eines Diagramms und sind daher nicht für Diagramme mit zusätzlichen Beschriftungsinformationen geeignet. Wir schlagen eine neue Ähnlichkeitsmessung namens LSimRank vor, die die Ähnlichkeiten zwischen Knoten misst, indem sowohl die strukturellen Informationen als auch die Label-Informationen eines Graphen verwendet werden. Umfangreiche Experimente mit Datensätzen bestätigen, dass LSimRank SimRank und anderen Varianten von beschrifteten Grafiken überlegen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-60259-8_10 7fb1ac1b1a962e8230d3101c7d66439f;de;;;6.1.;;;Sicherung der Netzwerkintegrität in der UnternehmenssanierungDie Anzahl der Insolvenzen in Deutschland steigt seit geraumer Zeit drastisch an, obgleich gegensteuernde Unternehmenssanierungen archetypische Phänomene der klassischen Unternehmensführung sind und deshalb entsprechend viele Publikationen zur Ursachenforschung existieren (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-9149-2_23 60b4362c9e208b65ab9624777425777f;de;;;6.1.;;;Ethics in Digital ResearchThis chapter provides a broad overview of the technological landscape of today’s Internet and considers the ways in which Internet research, as an umbrella term, has morphed and changed into today’s big data infrastructure. It furthermore discusses the implications of these changes for ethical decision-making and conduct of research. The guiding anticipatory ethics approach of the Association of Internet Researchers is used as an ethical frame.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-658-08460-8_47-1 db613050e669966e921c0064bec7a96a;de;;;2.2.;;;Beantworten von Untergraph-Abfragen über große Graphen In letzter Zeit haben Subgraph-Abfragen über große, graphisch strukturierte Daten viel Aufmerksamkeit auf sich gezogen. Die meisten der neueren Algorithmen, die zur Lösung dieses Problems vorgeschlagen wurden, verwenden die strukturellen Merkmale von Graphen, um den Index zu konstruieren, wie Pfad, Baum und Untergraph. Es gibt jedoch keine solide theoretische Grundlage dafür, welche Struktur die beste ist, um den Index zu konstruieren. Darüber hinaus sind die Kosten für den Abbau dieser Strukturen ziemlich hoch. In diesem Artikel stellen wir einen leistungsstarken Graphenabfragealgorithmus, SMS, vor, der auf der einfachen, aber effektiven Nachbarschaftsstruktur basiert. Um die Abfrageleistung weiter zu verbessern, wird eine Graphpartitionslösung vorgeschlagen und die effizienten Codes von Scheitelpunkten und Blöcken werden sorgfältig entworfen. Umfangreiche experimentelle Studien belegen die Effektivität und Skalierbarkeit unseres Algorithmus bei der Ausgabe von Teilgraph-Abfragen auf große graph-strukturierte Daten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23535-1_34 e113078caf108651cbfae0baf3644a5a;de;;;2.2.;;;Integrieren von auf mehreren Zielen basierendem genetischen Algorithmus-basierten Clustering und Datenpartitionierung für die Skyline-Berechnung Die Skyline-Berechnung in Datenbanken ist aufgrund ihrer interessanten Anwendungen ein heißes Thema in der Literatur. Die Grundidee besteht darin, nicht dominierte Werte innerhalb einer Datenbank zu finden. Die Aufgabenstellung ist im Wesentlichen ein mehrzieliger Optimierungsprozess, wie er in diesem Papier beschrieben wird. Dies motiviert für unseren Ansatz, der einen multiobjektiven, auf genetischen Algorithmen basierenden Clustering-Ansatz verwendet, um die pareto-optimale Front zu finden, die es uns ermöglicht, Skylines in gegebenen Daten zu lokalisieren. Um große Datenmengen zu bewältigen, teilen wir die Daten einfach in überschaubare Teilmengen auf und konzentrieren unsere Analyse auf die Teilmengen anstatt auf die gesamten Daten auf einmal. Der vorgeschlagene Ansatz führte zu interessanten Ergebnissen, wie die Ergebnisse der durchgeführten Experimente zeigen.;-;-;-;https://link.springer.com/article/10.1007/s10489-009-0206-7 35d63a2c2e122b5f0b36b4fdb65ae61c;de;;;2.2.;;;Effiziente Auswertung von teildimensionalen Bereichsabfragen mit adaptivem R*-Baum In diesem Artikel geht es darum, wie man teildimensionale Bereichsabfragen effizient auswertet, die oft in vielen tatsächlichen Anwendungen verwendet werden. Werden die vorhandenen mehrdimensionalen Indizes zur Auswertung teildimensionaler Bereichsabfragen verwendet, so müssen auch viele für die Abfragen irrelevante Informationen von der Platte gelesen werden. In diesem Artikel wird eine Modifikation des R*-Baums beschrieben, um eine solche Situation zu verbessern. Diskussionen und Experimente zeigen, dass die vorgeschlagene Modifikation die Leistung von teildimensionalen Bereichsabfragen deutlich verbessern kann, insbesondere für große Datensätze.;-;-;-;https://link.springer.com/chapter/10.1007/11827405_67 1d8ed056da4163f52a447ab8df47c349;de;;;2.2.;;;Integration einer Textsuchmaschine mit einem Java Messaging Service Große Informationsverarbeitungsanwendungen müssen schnell große Datenströme strukturierter und unstrukturierter Textdaten durchsuchen, um nützliche Informationen zu finden. Inhaltsbasierte Messaging-Systeme (CBMS) bieten eine leistungsstarke Technologieplattform zum Aufbau solcher Stream-Handling-Systeme. CBMSs ermöglichen die effiziente Ausführung von Abfragen von Nachrichten in Streams, um diejenigen zu extrahieren, die interessierenden Inhalt enthalten. In diesem Artikel beschreiben wir Bemühungen, ein experimentelles CBMS um die Fähigkeit zu erweitern, effiziente Freitextsuchoperationen durchzuführen. Das Design der CBMS-Plattform, basierend auf einem Java Messaging Service, wird beschrieben, und eine empirische Bewertung wird präsentiert, um die Leistungsauswirkungen einer Reihe von Abfragen unterschiedlicher Komplexität zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/11407386_3 7665a1d69ec230ddb824ee38f6ecdedb;de;;;2.2.;;;Eine neue Struktur zur Beschleunigung der XPath-Location-Schritte Multidimensionale Indizes wurden erfolgreich im Bereich der Abfrage von XML-Daten eingeführt. Unter Verwendung von R*-Tree schlug T. Grust eine interessante Methode vor, um alle XPath-Achsen zu unterstützen. Bei dieser Methode wird jeder Knoten eines XML-Dokuments mit einem fünfdimensionalen Deskriptor gekennzeichnet. Alle Knoten des XML-Dokuments werden auf eine Punktmenge in einem fünfdimensionalen Raum abgebildet. T. Grust machte deutlich, dass jede der XPath-Achsen durch eine Range-Abfrage im obigen fünfdimensionalen Raum implementiert werden kann. Somit kann der R*-Baum verwendet werden, um die Abfrageleistung für XPath-Achsen zu verbessern. Nach unseren Untersuchungen handelt es sich jedoch bei den meisten Bereichsabfragen für die XPath-Achsen um teildimensionale Bereichsabfragen. Das heißt, die Anzahl der Abfragedimensionen in jeder der Bereichsabfragen beträgt weniger als fünf, obwohl der R*-Baum im fünfdimensionalen Raum aufgebaut ist. Werden für solche Bereichsabfragen die vorhandenen mehrdimensionalen Indizes verwendet, müssen auch viele für die Abfragen irrelevante Informationen von der Platte gelesen werden. Basierend auf dieser Beobachtung wird in diesem Artikel eine neue mehrdimensionale Indexstruktur (genannt Adaptive R*-Baum) vorgeschlagen, um die XPath-Achsen effizienter zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/11775300_5 6282cbeb71ee01876d84a101bbf0aef9;de;;;2.2.;;;Struktur zum Abrufen von Videoobjekten verwenden Die in diesem Papier vorgestellte Arbeit zielt darauf ab, die semantische Lücke zwischen Videofunktionen auf niedriger Ebene und semantischen Videoobjekten zu verringern. Das vorgeschlagene Verfahren zum Auffinden von Assoziationen zwischen segmentierten Rahmenbereichsmerkmalen beruht auf der Stärke der Latent Semantic Analysis (LSA). Unsere früheren Experimente [1] mit Farbhistogrammen und Gabor-Features haben schnell das Potenzial dieses Ansatzes gezeigt, aber auch einige seiner Grenzen aufgedeckt. Die Verwendung von Strukturinformationen ist für eine solche Aufgabe notwendig, wird aber selten eingesetzt. In diesem Beitrag sprechen wir zwei wichtige Themen an. Der erste besteht darin, zu überprüfen, ob die Verwendung struktureller Informationen tatsächlich die Leistung verbessert, während der zweite die Art und Weise betrifft, in der diese zusätzlichen Informationen in das Framework integriert werden. Hier schlagen wir zwei Methoden vor, die die Strukturinformationen verwenden. Die erste fügt der LSA während der Vorverarbeitung des Videos indirekt strukturelle Einschränkungen hinzu, während die andere die Struktur direkt in die LSA einschließt. Darüber hinaus werden wir zeigen, dass der Leistungsgewinn durch die Kombination von visuellen (low level) und strukturellen Informationen überzeugend ist, wenn die Struktur direkt zum LSA hinzugefügt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27814-6_66 87058ba3810de4b69bc3225320ae8545;de;;;6.1.;;;Framework zur Umsetzung von Performance-Based-Contracting auf dem IndustriegütermarktHervorgerufen durch lange Produktlebenszyklen von Investitionsgütern sehen sich Unternehmen vermehrt einer hohen Marktsättigung gegenüber, die mit einer wachsenden von auf dem Markt befindlichen Anzahl an Primärprodukten – auch als Installed Base (IB) bezeichnet – einhergeht. Dies bewirkt ein Umdenken hinsichtlich der strategischen Ausrichtung von Unternehmen (Greenough & Grubic, 2011, S. 1118). Auf wettbewerbs- und kundenorientierten Märkten ist es häufig nicht mehr das Ziel, ein Alleinstellungsmerkmal lediglich über die physischen Produkte zu generieren, sondern das Angebot um umfangreiche Services zu erweitern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-25412-4_15 b5af47c7be404bcdcae76db8b1e0e059;de;;;6.1.;;;Das Spektrum filmischer GattungshybrideDie folgende Gliederung will vorschlagen, die hier genannten Filme in verschiedenen pragmatischen Wahrnehmungszusammenhängen zu kontextualisieren, in denen sie rezipiert werden. Es lässt sich dabei nicht immer ganz ausschließen, dass Filme auch innerhalb einzelner Beispiele hybrid sind und im Überschneidungsraum von mehreren der drei Wahrnehmungsweisen liegen. Dennoch kann auf diese Weise eine erste, vor allem an der Zuschauerwahrnehmung orientierte Einordnung der Filme vorgenommen werden, zumal der intendierte Effekt (Integration, Irritation, Reflexion) durchaus übergreifend und stabil für eine Reihe sehr unterschiedlicher Filme feststellbar ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-15603-9_7 3bf9ef4b02e56a7af005d0fbae87724c;de;;;6.1.;;;Veränderung, Veränderungskompetenz und persönliches WachstumVorgestellt wird das Konzept der Veränderungskompetenz, das der Veränderungsstudie zugrunde liegt, die das Institut für Zukunftspsychologie und Zukunftsmanagement (IZZ) in Kooperation mit dem Ressortbereich Customer Insights & Experience der Allianz Deutschland AG 2017 durchgeführt hat. Kapitel 1 gibt eine allgemeine Einführung in die Problematik, Veränderungen und Veränderungsprozesse überhaupt zu erkennen, zu benennen und ein entsprechendes adaptives Verhalten zu entwickeln. Kapitel 2 führt den Begriff der Veränderungskompetenz als allgemeine Handlungskompetenz ein sowie als Metakompetenz, relevante Einzelkompetenzen angesichts bestimmter Herausforderungen zu aktivieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-19762-9_3 64b45a7409d79cc80ad7d5c49eb6fd3a;de;;;6.1.;;;Von privaten und öffentlichen RäumenIm folgenden Abschnitt werden ausgewählte private wie öffentliche Räume fokussiert. Unter ‘Räumen’ werden in diesem Kontext sowohl materielle Orte wie beispielsweise der spezifische Wohnraum als auch ‘Räume’ im Sinn von ideellen Kontaktorten wie beispielsweise ein Verein verstanden. In diesem Sinn werden zu Beginn des Kapitels konkret die Wohnräume älterer gleichgeschlechtlich l(i)ebender Frauen in den Blick genommen (vgl. Kap. 9.1), anschließend werden die Kontakträume mit Gleichgesinnten und in diesem Zusammenhang vor allem auch die subkulturelle Szene thematisiert (vgl. Kap. 9.2), und abschließend wird auf die Frage eingegangen, wie die Interviewten mit ihrer gleichgeschlechtlichen L(i)ebensweise in unterschiedlichen Sozialräumen umgehen bzw. diese nicht-/öffentlich machen (vgl. Kap. 9.2).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-20045-9_9 4eccc8e29bde99f3c50f29b4e1d6d4e7;de;;;6.1.;;;Kulturentwicklung und -veränderungDie geplante Kulturentwicklung und Kulturveränderung ist Thema von Kap. 8. Zunächst wird die Problematik von Veränderungen in Humansystemen aufgezeigt. Anschließend wird das Instrument der Risikoanalyse dargelegt und dann zwei mögliche Vorgehensweisen bei der Kulturveränderung diskutiert. Dieses sind ein revolutionärer und ein evolutionärer Ansatz, die mit ihren jeweiligen Charakteristika und Vorgehensweisen im Veränderungsprozess behandelt werden. Da Organisationen Humansysteme sind, werden einige ihrer Besonderheiten besprochen, die für Kulturveränderungen im Kontext von Organisationen relevant sind. Mögliche Maßnahmen, die für eine Kulturveränderung eingesetzt werden können, setzten einerseits bei den Organisationsmitgliedern und andererseits bei den Kontextbedingungen an. Bei den personenbezogenen Maßnahmen werden die Personalplanung und -selektion, die Einführung neuer Mitarbeiter, Beförderung und Versetzung, Job-Rotation sowie Aus- und Weiterbildung besprochen. Bei den Kontextbedingungen werden das Unternehmens- und Job-Design, Entlohnungssysteme und -praktiken, Führungssysteme und -instrumente sowie Technologien, Architektur und Raumgestaltung behandelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-18634-0_8 7c81055957a6fe2d477afc6f599ea3a2;de;;;6.1.;;;Qualitätsplanung und QualitätsorganisationDas Kap. 4 widmet sich der Qualitätsplanung als Ausgangspunkt des Qualitätsmanagements auf der normativen und strategischen Managementebene. Es wird ein methodischer Rahmen für die Gestaltung der Qualitätspolitik, der Ermittlung der Anforderungen, die Ausbildung eines einheitlichen Qualitätsverständnisses und die Ableitung und Formulierung von Qualitätszielen durch die oberste Leitung erarbeitet. Ziel der Qualitätspolitik ist die Schaffung einer integrierenden Qualitätskultur, die in Wechselwirkung mit den technokratischen und organisationalen Dimensionen des Qualitätsmanagements steht. Im zweiten Teil dieses Kapitels werden die organisationalen Prinzipien von Führung, Ablauf- und Aufbauorganisation weiter vertieft. Dabei werden grundsätzliche Organisationsmodelle, insbesondere die Unterscheidung von Primär- und Sekundärorganisation, als auch Merkmalsdimensionen unterschiedlicher Organisationsformen, insbesondere der einfachen und umfassenden Qualitätsorganisation, herausgearbeitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-07745-7_4 f4833f51b4af50d8f2de900342e8ade4;de;;;6.1.;;;Ausgewählte Aspekte in der OrganisationsdiagnoseIn diesem Kapitel beschreiben die Autorinnen spezielle Aspekte der Organisationsdiagnose wie Kommunikation, Konflikt, Macht und Reflexives Management, die aus ihrer Erfahrung heraus immer wieder Basisfolien für Team- und Organisationsdiagnosen sind. Diese Aspekte werden teilweise explizit von den Teilnehmerinnen in die Diagnoseprozesse eingebracht, teilweise wirken diese Aspekte implizit und können, indem sie besprechbar gemacht werden, für die weitere Entwicklung des Teams oder der Organisation genutzt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-19831-2_5 561812432d161e8b636188d973b09015;de;;;6.1.;;;Crowdsourced DeliveryDas schnelle Wachstum des Absatzvolumens im elektronischen Handels führt dazu, dass das Konzept der klassischen Paketzustellung durch innovative Ansätze wie Crowdsourced Delivery in Frage gestellt wird. Die Einbindung von Privatpersonen, wie beispielsweise Pendlern, um Pakete zuzustellen, bietet wirtschaftliche und ökologische Vorteile. In diesem Kapitel wird ein algorithmisches Modell vorgestellt, das die Zuordnung von Fahrern zu Lieferaufträgen automatisiert und auf der Grundlage von Transportwegen und zeitlichen Einschränkungen optimiert. Der Algorithmus wurde in einer Simulationsumgebung mithilfe von Mobilitätsdaten einer deutschen Großstadt evaluiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-21214-8_17 3fde3ce5417a3e19e516a91cfb25ecb1;de;;;6.1.;;;Das EUREKA-Projekt PROTOSDie Prolog-Programmierumgebung soll u.a. eine Schnittstelle zu Modula-2, Möglichkeiten zur Programm- Modularisierung und einen komfortablen Debugger anbieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-88719-2_1 a4223ce2ff7f36917b64dbb5c8d83bdd;de;;;6.1.;;;Governance der Akteure einer digitalen PlattformMehrseitige Plattformen (MSPs) beeinflussen die ökonomische Landschaft und somit etablierte Industrien nachhaltig. Daher wird es immer wichtiger zu untersuchen, wie und warum diese Plattformen an wirtschaftlicher Relevanz gewinnen. Das Herzstück, um die Interaktion zwischen den beteiligten Parteien einer Plattform zu orchestrieren, ist die sogenannte Plattform-Governance.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-21214-8_5 dd664b3d29cfb03c969d8de46ed42a01;de;;;6.1.;;;Prognose von ParkplatzdatenDie Suche nach freien Parkplätzen am Straßenrand ist aufwändig und verursacht einen signifikanten Teil des innerstädtischen Verkehrs. Existierende Lösungsansätze haben einige Nachteile, da sie zum Beispiel mit hohen Kosten verbunden sind oder eine aktive Nutzerbasis voraussetzen. Dieses Kapitel befasst sich mit der Vorhersage von freien Parkplätzen basierend auf öffentlich zugänglichen Daten, auf die kosteneffizient zugegriffen werden kann. Geeignete Datenkategorien werden basierend auf einer Literaturstudie identifiziert. Anschließend wird ein solcher Service beispielhaft mittels eines neuronalen Netzes umgesetzt. Die Relevanz der einzelnen Datenkategorien wird basierend auf 2779 Datensätzen evaluiert. Die Ergebnisse zeigen, dass Informationen zu Wochentag, Standort, Temperatur und Uhrzeit die Vorhersage stark verbessern, wohingegen Informationen zu Events, Verkehr, Feiertagen und Regenmenge nur von untergeordneter Wichtigkeit sind. Dieses Kapitel kategorisiert bestehende Lösungen zur Unterstützung der Parkplatzsuche und zeigt, dass einfach zugängliche Daten ausreichen, um mithilfe eines Service die Verfügbarkeit von Parkmöglichkeiten vorherzusagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-21214-8_13 3430997a19d978e62cec2573c20626b0;de;;;6.1.;;;Our Thinking – Must it be Aligned only to the Given Data?New technological possibilities in Big Data allow finding unexpected structures and relations in datasets, provided by different realms and areas. This article distinguishes between signals, data, information and knowledge, and discusses ownership of data and information. Knowledge will be considered as the result of understanding information. The results of big data analyses cannot be adequately interpreted if the research question, i.e. the question of what to look for, has not been asked beforehand. Thus, a model is required to perform a satisfactory data analysis. A model, which allows a causal explanation, is better than a model, which delivers only extrapolations. The potential tendency to replace scientific models with merely numerical procedures will be discussed critically.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-12153-2_5 4ef5ca84f4434a49039c9255b2ce0297;de;;;6.1.;;;Methodik der Zeit- und ZielplanungDer wesentliche Effekt der mit Zeit- und Zielplanung erreicht wird, ist die Konzentration der Kräfte auf die wichtigen Aufgaben, die einen hohen Beitrag zur Erreichung von Zielen leisten. Diese Ziele werden in aller Regel jedoch nur durch die Mit- und Zusammenarbeit anderer erreicht. Deshalb ist das inhaltliche Ziel der Zeit- und Zielplanung die Verbesserung der Kommunikation und Information mit anderen zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-82660-2_2 07331eda2406adf5ffc68f3cc2dd5c1e;de;;;6.1.;;;BIM für die Trinkwasser-Installation – Quo Vadis Systemauslegung?Die integrierte Planungsmethode BIM macht es erforderlich, sämtliche Fachplanungen und die daraus resultierenden detaillierten Bauteilinformationen zusammenzuführen. Die Konsequenzen dieser Vorgehensweise sind die sorgfältige Auslegung der Bauteile einer Trinkwasser-Installation und die exakte Beschreibung der Bauteileigenschaften – z. B. für Armaturen und Spülsysteme – damit die im Raumbuch festgelegten Bedarfe auch gedeckt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-52825-9_3 1a5526eb093bd5059d92e91642e41031;de;;;6.1.;;;Zwischen Zensur und VerantwortungVor der 15. Kammer des Arbeitsgerichts Hamburg wurde am 26. September 1991 die Kündigungsklage eines Redakteurs der Illustrierten „Stern“ verhandelt. Das Blatt hatte sich von diesem Mitarbeiter mit der Begründung trennen wollen, er habe während des Golfkriegs in Bagdad für 5.000 Dollar völlig wertloses Filmmaterial erstanden und damit dem Verlag Gruner & Jahr Schaden zugefügt. Als Kronzeuge des Arbeitgebers trat sein Kollege, ein Fotograph, auf, der ihn während der Kriegstage begleitet hatte. Der gekündigte Journalist, ein langjähriges Redaktionsmitglied des „Stern“, zeigte sich vor Gericht erstaunt darüber, daß es angesichts der hohen Kosten der Golfkriegs-Berichterstattung nun Streit um eine solche Summe gebe. Unterstützt wurde er bei seinem Begehren auf Weiterbeschäftigung auch von zahlreichen Prominenten der Kulturszene, die am Tag vor dem Gerichstermin in verschiedenen Tageszeitungen die Anzeige „Appell an den Stern“ geschaltet hatten (vgl. Die Welt v. 27.9.1991: 32).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-99646-6_4 bd2093b2534a9431b433924808522385;de;;;6.1.;;;Storytelling als narrative Managementmethode. Das Wissen von/als NarrationDie für die Gegenwartsliteratur vielfach konstatierte Rückkehr des Erzählens lässt sich mit dem Bedeutungsgewinn des Erzählens in der Betriebswirtschaft analogisieren. Dort firmiert seit mehreren Jahren das Erzählen als Methode unter dem Begriff Storytelling.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-01294-6_13 76370d4e5ff69f9640222f6b17b936aa;de;;;6.1.;;;Von PIK zu PIC?Es ist soweit: Eine weitere Bastion ist gefallen, nämlich das Festhalten der PIK an Beiträgen in deutscher Sprache! Das übrigens sehr gut gelungene (Themen)-Heft 2/2003 ist nämlich – abgesehen vom Inhalt natürlich – nur dem/der verständlich, der/die mit dem Angelsächsischen einigermaßen vertraut ist. Ich hatte den Eindruck, dass die deutschen Themen am Ende des Hefts zum Beispiel über „Innovation und intellektuelles Eigentum“ oder über „Informationsmanagement als Teil der Unternehmensführung“ ein wenig provinziell wirkten – vielleicht deswegen, weil die englische Sprache vornehmer ist, jedenfalls in unserer Branche.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22975-6_47 db0ebdbd284a4643640c70d1e9847b14;de;;;6.1.;;;Transaktionsorientierte Datenverwaltung in einem intelligenten Disk ControllerZugriffe auf den Sekundärspeicher bilden einen immer gröβeren Engpaβ im zeitlichen Ablauf eines Prozesses. Zeitliche Verbesserungen (Leistungsfähigkeit, Kapazität) sind dabei nicht so sehr durch die Weiterentwicklung des eigentlichen Datenzugriffs als vielmehr durch Reduzierung des I/O-Verkehrs und Parallelisierung verschiedener Prozesse zu erwarten. Im Rahmen dieses Artikels wird die Auslagerung von Teilen des Datenverwaltungskerns eines Betriebssystems in einen „Intelligent Disk Controller“ beschrieben. Nach einer Übersicht über den Stand der Technik bei Plattensteuerungen und transaktionsorientierter Datenverwaltung wird die Spezifikation für einen intelligenten Disk Controller vorgeschlagen. Verschiedene Realisierungsvorschläge werden etabliert und abschlieβend die Implementierung von Hardware und Software vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-73451-9_19 408a375f21c978a8ea1cd09889f28e55;de;;;6.1.;;;eSig — Lust oder Frust?Eines der Hauptprobleme im E-Commerce ist die eindeutige Identitätsfeststellung und Authentisierung bei rechtskräftigen Geschäften. Während die Verschmelzung von handschriftlich bestätigtem Vertragsabschluss und Bezahlvorgang in der traditionellen Geschäftswelt gängige Praxis ist, muss dies noch mit ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-86973-9_14 d15cd2913f510397e0c3a2f86c999dda;de;;;6.1.;;;COBIT-ProzessbeschreibungDas zentrale Thema in COBIT ist die Kontrolle über die Prozesse, die in der IT aufzusetzen sind, um im Sinne einer guten IT-Governance die IT zu steuern. Dies bedeutet, es ist ein internes Kontrollsystem (IKS) aufzusetzen, das entsprechend begutachtet und bewertet werden kann. Dies entspricht auch den Anforderungen der entsprechenden Corporate Governance-Richtlinien, denen die Firma unterliegt. Dieses Kapitel erläutert daher die Prozesse so detailliert wie nötig, nennt die Kontrollmöglichkeiten, Ergebnisse, Aktivitäten und zeigt die Beziehungen zu den anderen Prozessen auf. Die Aufstellung von Kontrollzielen erfordert die Frage, wie die Kontrollziele überprüft werden. Auch auf dieses Thema wird bei den jeweiligen Prozessen eingegangen. Zum besseren Verständnis beginnt das Kapitel mit einer Einführung über die Darstellung von Prozessen, wie sie in diesem Buch verwendet wird. Die Darstellung der Prozesse soll einen ersten Überblick liefern und bildet keineswegs das vollständige Set von Kontrollzielen und Kontrollmöglichkeiten ab, die in COBIT genannt werden. Sie ergeben aber durch die Konzentration auf das Wesentliche einen guten Einstieg in die Problematik.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8348-9015-3_3 fbe39df4868fd8ac394a9e9b1ad02e0e;de;;;6.1.;;;Rehabilitation diabetischer Kinder und JugendlicherDer Typ-I-Diabetes ist eine lebenslange chronische Erkrankung, die zwar nicht geheilt, aber durch eine sorgfältige ambulante Langzeitbehandlung so gut kontrolliert werden kann, daß die Patienten fast ohne Klinikaufenthalte ein relativ freies Leben führen können. Die Trias von Insulinsubstitution, diätetischer Behandlung und Stoffwechselselbstkontrolle bestimmt das tägliche Leben der Patienten und ihrer Familien. Daraus erwachsen zahlreiche Probleme, die ohne fremde Hilfe häufig nicht gelöst werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-06575-4_3 4cd1221504e9c9948a8b99ffd181d59d;de;;;6.1.;;;Unterstützung zwischenbetrieblicher Logistikprozesse mit dem System SAP R/3Das R/3-System ist eine Client-Server-Lösung der SAP AG zur Unterstützung und Automatisierung von Geschäftsprozessen in verschiedenen Branchen. Die Softwarearchitektur basiert auf der Trennung der Bereiche Datenbank, Anwendung und Präsentation. Das R/3-System stellt Prozesse und Datenstrukturen für unterschiedliche Funktionsbereiche bereit, die bei Bedarf im Rahmen eines Customizing an die spezifischen Bedürfnisse der Unternehmen angepasst werden können. Zu Möglichkeiten und Grenzen des Customizing siehe zum Beispiel Dittrich u. a. (1999), zu empirischen Ergebnissen siehe beispielsweise Buxmann/König (1997).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-98043-5_3 0f4d2c4dd87c449f9454ae75f81f4084;de;;;6.1.;;;TESIS PLMwareTESIS PLMware ist einer der wenigen Dienstleistungsanbieter, die sich gewissermaßen mit Haut und Haaren dem Thema PLM verschrieben haben, was sich ja auch im Namen niederschlägt. Obwohl mit 30 Mitarbeitern nicht in der Oberliga der großen Beratungshäuser angesiedelt, spielt TESIS PLMware — vor allem auch aufgrund eigener Produkte — eine nicht unbedeutende Rolle, vor allem im Umfeld von Siemens PLM Software und SAP, und zwar auch auf globaler Ebene. Gegenwärtig befindet sich ein Standort in Chicago im Aufbau, um Kundenprojekte in den USA vor Ort betreuen zu können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87898-8_23 55025f4251176b0f23012c23b42cf0d0;de;;;6.1.;;;Stand der Forschung bei der Kooperation mit Anwendern sowie bei der Nutzung des Internets im EntwicklungsprozessInhalt dieses Kapitels ist die Definition der wichtigsten Begriffe dieser Arbeit. Darüber hinaus werden bei der Definition des Begriffes Internetbasiert durch die Betrachtung aus mehreren Perspektiven Hinweise zur praktischen Umsetzung gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-81517-0_2 8ac7e613ed89eb51d3b8841456f0efcb;de;;;6.1.;;;Omni-Channel und Modularisierung bei CoopWer in der Schweiz „Coop“ hört, denkt sofort an den Supermarkt um die Ecke. Doch Coop ist weit mehr als das: Neben den über 800 Supermärkten führt Coop im Schweizer Detailhandel (Einzelhandel) zahlreiche Fachformate, die oftmals nicht das Coop-Logo tragen. Beispielsweise gehören Interdiscount, die Nummer eins im Schweizer Markt für Unterhaltungselektronik, The Body Shop Switzerland und Christ, die größte Uhren- und Schmuckkette der Schweiz, zur Coop-Gruppe. Tab. 1 gibt einen Überblick über die Fachformate der Coop-Gruppe.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-53332-1_12 ea2c887e9e2492a364834fe4af5c98fd;de;;;6.1.;;;„Social Processes“ – Prozesse neu gestaltenBei Tätigkeiten mit wiederkehrendem Ablauf spricht man gern von Prozessen. Wenn sie häufiger zur Anwendung kommen, macht es Sinn sich Gedanken über eine Optimierung des Ablaufs zu machen. Das ist eine Idee von Frederick Winslow Taylor und einigen seiner Zeitgenossen Ende des 19. Jahrhunderts gewesen. Peter Drucker nahm diese Ideen auf und erweiterte das Modell in Richtung Wissensarbeiter, deren Zahl nach dem Zweiten Weltkrieg deutlich zunahm. Aktuell verändern Unternehmen und Organisationen ihre Organisationsstrukturen und nutzen vermehrt partizipative Ansätze, die den Mitarbeitern mehr kreative Einbringungsmöglichkeiten eröffnen und weiterhin dafür sorgen sollen, dass die Produktivität weiter steigt und neue, innovative Ideen neue Geschäftschancen eröffnen. Auch das Steuern von Ideen ist letztlich wieder ein Prozess, in den man sogar Kunden direkt mit einbinden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34641-5_7 742efe7d50eab09af35fca1e586b642d;de;;;6.1.;;;Organisatorisches Umfeld der SystementwicklungEin Paradigmenwechsel im Software-Engineering erfolgt im Regelfall vor dem Hintergrund großer Bestände an Altsystemen und Altdaten. Aus diesem Grund sind objektorientierte Software-Entwicklung und objektorientiertes Reengineering gemeinsam zu betrachten. Dieser Abschnitt soll kurz wesentliche Vorgehensweisen sowie den derzeitigen Sachstand erläutern. Abschnitt 6.4.2 greift die Problematik aus Sicht übergeordneter Planungsansätze noch einmal auf. Auf einen Vergleich zwischen Entwurfsmethoden soll hier verzichtet werden, da sich derartige Arbeiten bereits vielfach in der Literatur finden, siehe etwa (Schaschinger et al. 1991), (Champeaux/Faure 1992), (Fowler 1992), (Schader/Rundshagen 1993) oder die sehr umfassende Arbeit von Stein (Stein 1993).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-99479-0_5 8b68899f362b28b7ede2d85b3ff423b4;de;;;6.1.;;;Modellierung von Geschäftsprozessen — Ein Ansatz zur Optimierung durch Integration von Produkt und DienstleistungTrotz einer Vielzahl unterschiedlicher Reorganisationskonzepte haben sich in den letzten Jahren die Geschäftsprozesse als zentraler Betrachtungsgegenstand organisatorischer Umgestaltungen herausgebildet. Während Geschäftsprozesse in der Fertigung seit langem methodisch beherrscht sind, blieben die Prozesse der indirektproduktiven Bereiche eines Industrieunternehmens bzw. von Verwaltungsund Dienstleistungsunternehmungen in der Regel unberücksichtigt (vgl. Scheer 1996a). Da Dienstleistungen in beiden Bereichen aber immer mehr an Bedeutung gewinnen, scheint die Übertragung der methodischen Ansätze von industriellenauf dienstleistungsorientierte Geschäftsprozesse unumgänglich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-60841-4_9 d350e6036cb570ada01ba81c605036b0;de;;;2.2.;;;Adaptive Echtzeit-Bandbreitenzuweisung für die drahtlose Datenübertragung Die Kombination von Broadcast- und On-Demand-Datenlieferdiensten ist eine wirtschaftliche Möglichkeit, ein hochskalierbares drahtloses Informationssystem mit begrenzter Bandbreite aufzubauen. Die Verwendung von Datenrundfunk sollte adaptiv sein, damit die Systemantwortzeit immer minimiert werden kann. Ein traditioneller Ansatz erfordert die Entwicklung einer Systemantwortzeitgleichung, um die optimale Lösung zu finden. Es ist jedoch nicht immer möglich, eine solche Gleichung zu erhalten. Wir beobachten, dass durch Beibehalten eines bestimmten Niveaus der Ankunftsrate der Anforderungsanforderung eine enge Annäherung an die optimale Lösung erhalten werden kann. Unter Verwendung dieses Ansatzes wird ein adaptiver Echtzeit-Datenlieferalgorithmus entwickelt. Unser Algorithmus erfordert nicht, dass die Zugriffsinformationen der Datenelemente genau bekannt sind, was normalerweise für diese Art von Optimierungsproblemen benötigt wird. Ein einfacher Bitvektormechanismus mit geringem Overhead ist in der Lage, die relative Popularität der Datenelemente zu erfassen. Mit diesen Informationen kann unser Algorithmus eine Leistung liefern, die mit dem Idealfall vergleichbar ist, in dem die Zugriffsinformationen für jedes Datenelement genau bekannt sind.;-;-;-;https://link.springer.com/article/10.1023/B%3AWINE.0000013076.30510.b4 ddeb46aa9bd882db391cf81f6504d71e;de;;;6.1.;;;Wertorientierung im ProzessmanagementUnbestritten hat sich die Prozessorientierung spätestens seit den 1990er Jahren als ein zentrales Paradigma der Organisationsgestaltung etabliert. Seitdem haben alle Teilaufgaben des Prozessmanagements eine Reifung durchlaufen. Prozessmanagement-Entscheidungen hingegen mangelt es an einer betriebswirtschaftlich fundierten Zielorientierung. Sie werden i. d. R. anhand von qualitativen bzw. technischen Kriterien oder Plausibilitätsüberlegungen getroffen, die nur bedingt mit marktwirtschaftlichen Unternehmenszielen konform sind. Prozessgestaltungsalternativen lassen sich daher schwer vergleichen. Eine integrierte Betrachtung mit anderen Bewertungsobjekten ist unmöglich. Diese Situation erstaunt, da Prozessmanagement-Entscheidungen Investitionsprojekte mit unterschiedlicher Ertrags-/Risikoposition und Kapitalbindung zugrunde liegen sowie der Bedarf einer an der Unternehmenszielerreichung ausgerichteten Prozessgestaltung bekannt ist. Zudem existiert mit der Wertorientierten Unternehmensführung ein in der betriebswirtschaftlichen Forschung anerkanntes Paradigma, das unter bestimmten Voraussetzungen die Ertrags- und Risikowirkung von Entscheidungen auf die Unternehmenszielerreichung über Unternehmensbereiche, Hierarchiestufen und Bewertungsobjekte hinweg zu analysieren vermag. Dies führt zu der Hypothese, dass sich das Prozessmanagement im Allgemeinen und die Zielorientierung von Prozessmanagement-Entscheidungen im Speziellen weitestgehend unabhängig von den Erkenntnissen der Wertorientierten Unternehmensführung entwickelt haben. Im vorliegenden Beitrag kann diese Hypothese auf Basis einer Stichprobe aus Prozessmanagement-Publikationen bestätigt werden. Hierzu wird die Forschungslücke hinsichtlich der Wertorientierung im Prozessmanagement herausgearbeitet. Um die Brücke zwischen Wertorientierter Unternehmensführung und prozessorientierter Organisationsgestaltung zu schlagen, werden betriebswirtschaftlich fundierte Zielfunktionen auf Prozessmanagement-Entscheidungen übertragen.;-;-;-;https://link.springer.com/article/10.1007/s11576-011-0271-5 dcb62e7656b7ec4213408f7d5207ea16;de;;;6.1.;;;Entstehung eines StabsraummodellsKommunikative Problemstellungen in überfüllten und zunächst defizitär ausgestatteten Stabsräumen führten zur Entwicklung eines Stabsraummodells, in dem der Planungs-/Entscheidungszirkel von dem Arbeits-/Realisierungszirkel in Form einer Matrixorganisation getrennt ist. Der Beitrag skizziert die Entwicklung und Vorteile dieser Lösung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-48187-5_27 5fed9eff310d36cf2812672521c06c4b;de;;;6.1.;;;Politische Stäbe am Beispiel des Krisenstabes des Landes HessenDer Krisenstab der hessischen Landesregierung – angesiedelt im Innenministerium – ist einer der modernsten politischen Stäbe in der Bundesrepublik Deutschland. Dieser Beitrag erläutert Aufbau und Struktur dieses Stabsgefüges zur Koordinierung der Gefahrenabwehr auf der Ebene der obersten Landesbehörden bei flächendeckenden Gefahrenlagen oder Schadensereignissen in Hessen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-48187-5_11 607cd638f51a12ac4cb30fb195309860;de;;;6.1.;;;Nationale RahmenbedingungenAuf kaum einen Untersuchungsgegenstand lässt sich Kleinsteubers Aussage so unmittelbar übertragen wie auf die Europäische Union (EU): ein kulturell fragmentierter politischer Raum, der durch übergreifende Gemeinsamkeiten zusammengehalten wird. Nur in der vergleichenden Betrachtung, der parallelen Analyse von Gemeinsamkeit und Differenz, lassen sich sowohl die nationalen Einflüsse auf die Kommunikationssituation des Europäischen Rates (Differenz) als auch die prägende Kraft der zentralen Institution (Gemeinsamkeit) auf die jeweiligen Akteure beschreiben. Dabei ist es vor allem der transnationale Charakter der EU als Staatenbund (In Vielfalt geeint), der ein solches Vorgehen notwendig macht. Pfetsch et al. stellen fest, dass die Bedeutung von international vergleichender politischer Kommunikationsforschung „in gleichem Maße zunimmt wie die Internationalisierung und ‚Entgrenzung‘ der Politik fortschreitet“ (Pfetsch et al. 2007:61).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-94343-5_4 fceae58dd0f7e41214e735da9d768ba5;de;;;6.1.;;;Einordnung des Projektes in die Innovationsallianz Virtuelle TechnikenKap. 2 ordnet das Projekt Angewandte Virtuelle Technologien mit Langfristfokus im Produkt- und Produktionsmittellebenszyklus (AVILUSplus) in die Innovationsallianz Virtuelle Techniken ein. Anhand der Ziele des verwandten Projektes AVILUS werden die daraus entwickelten Forschungsschwerpunkte für AVILUSplus benannt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-49317-5_2 3bae2f5a93e5aea004598aa9dc78da5e;de;;;2.2.;;;Videosuche mit Map Reduce Framework in einer Education Cloud Videosuchsysteme sind in den letzten Jahren populär geworden. Das System fordert Benutzer auf, eine Zeichenfolgenabfrage zu geben und ruft das übereinstimmende Video schnell vom Benutzer zum Abspielen ab. Für eine skalierbare Schnellsuche in großen verteilten Videodatenbanken steht noch kein etabliertes Suchverfahren zur Verfügung. Wenn die Anzahl der Online-Benutzer in Videosuchsystemen eine bestimmte Größenordnung erreicht, wird die Antwort des Servers stark reduziert. Es sind viele Videoressourcen in verteilten Datenbanken gespeichert, die für alle Benutzer zugänglich sein sollten. Greifen viele Nutzer gleichzeitig auf die Videos zu, kann es zu einer erhöhten Belastung des Servers kommen. Um dieses Problem zu lösen, wird Cloud-Computing-Technologie verwendet. Eine verteilte Datenbank wird zum Speichern und Indizieren von Videos verwendet. Dieses System verwendet das Map-Reduce-Paradigma zum Abrufen der Videos in verteilter Weise. Der Map Reduce-Ansatz ermöglicht es, die Aufgaben in Teilaufgaben aufzuteilen und sie dann verschiedenen in der Cloud vorhandenen virtuellen Knoten zuzuweisen, die dann verarbeitet und konsolidiert werden, um die endgültige Ausgabe zu erhalten. Somit wird die Verarbeitungsgeschwindigkeit erhöht, während die Verarbeitungszeit stark reduziert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-81-322-1299-7_32 a2d53d3fb0ac504fed9e39061be25be6;de;;;2.2.;;;Schnell und wütend: Einblicke in die Back-Splicing-Regulierung während der entstehenden RNA-Synthese Alternatives Spleißen von eukaryotischen Vorläufer-(Messenger-)RNAs im Zellkern erhöht nicht nur die transkriptomische Komplexität, sondern erweitert auch die proteomische und funktionelle Vielfalt. Neben grundlegenden Arten des alternativen Spleißens haben jüngste transkriptomweite Analysen auch andere neue Arten des nicht-kanonischen Spleißens vorgeschlagen, wie z , einschließlich Erkenntnissen aus Analysen der naszierenden RNA-Sequenzierung. In diesem Review diskutieren wir unser derzeitiges Verständnis der Back-Splicing-Regulierung und heben ihre unterschiedlichen Eigenschaften bei der Verarbeitung während der naszierenden RNA-Synthese hervor, indem wir die metabolische Markierung der naszierenden RNA-Sequenzierung nutzen. Merkmale des rekursiven Spleißens werden auch im Hinblick auf die naszierende RNA-Sequenzierung diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s11427-020-1881-1 99291e3f99a856b256635a4a33b4b963;de;;;6.1.;;;Die Funktionen der KanzleimarkeIch habe zwar definiert, dass jedes System automatisch einen eigenen Charakter ausbildet und durch die unverkennbare Markierung dieses Charakters an ihren Systemgrenzen immer eine Marke ist. Ich weiß aber natürlich, dass die Definition nicht befriedigt – angesichts der Herausforderung, dass es bei erfolgreich geführten Marken im Wesentlichen um ökonomische Aspekte geht. Und Kanzleien sind in erster Linie gewinnorientierte Wirtschaftsbetriebe. Außerdem befinden sich Kanzleien erstens in einem immer dichteren Wettbewerb, der zunehmend globaler wird, und zweitens in einem Marktumfeld, das immer ausdifferenzierter, immer komplexer und auch immer komplizierter wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-09801-8_3 afe2afffa4cb7919d9de7c4c55245104;de;;;6.1.;;;Facebook und andere soziale MedienSocial Media, im deutschen Sprachraum auch als „soziale Medien“ bezeichnet, sind digitale Medien, die der Bereitstellung und Unterstützung menschlicher Kommunikation auf algorithmisch vermittelten Social-Networking-Plattformen im Internet dienen. Gemeinsam haben diese Plattformen zunächst nur die Genese im Digitalen. Es erscheint aus sozialwissenschaftlicher Sicht daher nicht dienlich, von „dem Internet“ oder „den sozialen Medien“ insgesamt zu sprechen. Vielmehr bildet jedes soziale Medium durch seine Programmierung, seinen unternehmerischen Zweck und die damit verbundene Vorstellung des Zielpublikums spezifische Regeln und Formen der Kommunikation aus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-21308-4_75 bc52c92dd064d1170eccd7f215210160;de;;;6.1.;;;Gleichstellungspolitik an Hochschulen im WandelGegenwärtige gleichstellungspolitische Entwicklungen im Hochschulbereich können nur vor dem Hintergrund der umfassenden Umstrukturierungen des Wissenschaftsbetriebs in den letzten Jahren angemessen diskutiert und erfasst werden. Ein Rückblick auf die Entstehung des gleichstellungspolitischen Engagements an Hochschulen (3.1) bildet in diesem Kapitel die historische Folie, auf der die derzeitigen Rahmenbedingungen hochschulischer Gleichstellungspolitik aufgefächert und kritisch reflektiert werden: die gesetzlichen Grundlagen gleichstellungspolitischen Handelns (3.2), verschiedene Modelle und Strukturen (3.3) sowie aktuelle Ziele und Schwerpunkte gleichstellungspolitischer Arbeit im Hochschulbereich (3.4). Es folgt eine Darstellung der aktuellen Veränderungen im Berufsbild der Frauen- bzw. Gleichstellungsbeauftragten und damit zusammenhängender divergierender Selbstverständnisse (3.5). Gender Mainstreaming und Diversity Management werden als gegenwärtig besonders einflussreiche Gleichstellungsstrategien besonders gewürdigt (3.6). Mit den Forschungsorientierten Gleichstellungsstandards der DFG und dem Professorinnenprogramm des Bundes und der Länder werden zudem die beiden größten bundesweiten Gleichstellungsinitiativen der letzten Jahre vorgestellt (3.7). Darüber hinaus werden weitreichende strukturelle Neuerungen im Hochschulbereich auf ihre gleichstellungspolitischen Implikationen hin befragt: die Exzellenzinitiative (3.8.1), die Juniorprofessur (3.8.2) und die Befristungsregelungen insbesondere im Rahmen des Wissenschaftszeitvertragsgesetzes (3.8.3).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-93157-9_3 eedd128708d04d6afd63922e1f048319;de;;;6.1.;;;GLASSROOM – Kompetenzaufbau und -entwicklung in virtuellen LebensweltenZiel von GLASSROOM ist es, ein bedarfsorientiertes Bildungskonzept zu entwickeln, das die Potenziale der virtuellen und erweiterten Realitätsbrillen (VR-/AR-Brillen) im Verbund mit neuen digitalen Medien für die berufliche Bildung im Bereich des Maschinen- und Anlagenbaus unterstützt. Die zentrale These ist, dass durch eine modernere Gestaltung der beruflichen Bildung den Herausforderungen aus dem Bereich der technischen Kundendienstleistungen wirkungsvoll begegnet werden kann. Zu diesen Herausforderungen gehören insb. komplexe Produkte, hohe Fehlerfolgekosten und kurze Innovationszyklen. Die besondere Innovation von GLASSROOM liegt in der Verwendung von VR-/AR-Brillen aus dem Privatkundensektor, welche sich aktuell als „Wohnzimmertechnik“ manifestieren. Aufgrund der geringen Anschaffungskosten und der hohen Potenziale von virtuellen Technologien in der Bildung ist von einer breiten Anwendbarkeit des GLASSROOM-Ansatzes auszugehen. Mit GLASSROOM wird eine bis dato nicht erreichte Form des Zugangs zu Lerninhalten geschaffen, der zudem unabhängig von räumlichen, zeitlichen und individuellen Gegebenheiten erreichbar ist. Das Projektakronym lautet GLASSROOM, um durch die orthographische Nähe zum Klassenraum (engl.: classroom) die Verbindung der VR-/AR-Brillen (engl.: glasses) mit digitalen Lerninhalten zu betonen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-56551-3_1 ee349beaef573af67af22dfa074618b7;de;;;6.1.;;;Das Geschäftsmodell „Virtual Community“ — RevisitedDer Geschäftsmodellbegriff ist durch die Wirren der New Economy verstärkt in den Vordergrund gerückt. Neue Projekte/Innovationen insbesondere im Internetbereich müssen auf ökonomische Fragen sinnvoll eingehen und den Mehrwert für Nutzer und Betreiber klar aufzeigen. Eine dieser Innovationen, die sich dieser kritischen Betrachtung stellen muss, sind virtuelle Communities.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-84540-5_3 bdf49da64cbd067cdffbd5b8119461f8;de;;;6.1.;;;Betrachtung ausgewählter AnbieterIn diesem Kapitel wird ein Überblick über die verschiedenen Arten der am Markt angebotenen Lösungen gegeben, indem Beispiele vorgestellt werden. Zur Auswahl dieser Beispiele wurde der Markt für E-Procurement-Lösungen anhand von geeigneten Kriterien;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8348-9181-5_5 ca6927d7e713e7bb491a0990f6b43769;de;;;6.1.;;;PDM-Basisdienste für die integrierte virtuelle ProduktentstehungIn diesem Beitrag wird die integrierte virtuelle Produktentstehung im BMBF-Leitprojekt iViP’ (Innovative Technologien und Systeme fair die integrierte Virtuelle Produktentstehung) vorgestellt. Es wird dabei näher auf die PDM-Basisdienste als zentraler Bestandteil des Clusters „Infrastruktur Datenmanagement“ eingegangen. Diese haben die Aufgabe, Dienste zur bedarfsgerechten Verwaltung von Produktdaten über den gesamten Prozeß der virtuellen Produktentstehung zur Verfügung zu stellen. Um dieser Aufgabe gerecht zu werden, bedarf es einer neuartigen Softwarearchitektur, die ausführlich vorgestellt wird. Nach der Vorstellung der Architektur folgt ein Anwendungsszenario für das Customizing der PDM-Basisdienste zur Definition und Erweiterung von Diensten durch den Administrator.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-57547-1_81 212ff235eabb681e29d5e3f41a7984ed;de;;;6.1.;;;Systemtheoretische Analyse von Qualitätsmanagementsfstemen in der Agrar- und ErnährungswirtschaftBei der Beschreibung von Systemen stellt sich die Frage, nach welchen Kriterien systemrelevante Elemente ausgewählt und abgegrenzt werden. Im Falle von Qualitätsmanagementsystemen ist es naheliegend, Elemente (i. e. Faktoren) auszuwählen, die einen Einfluss auf den Erfolg von Unternehmen haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-0726-3_5 5725cd4c7ea2fce48d937d24a169826e;de;;;6.1.;;;Digitales Wissensmanagement oder die Frage: Kann Innerhalb dieses Beitrages beantworten die Autoren Eva-Maria Kern und Johannes C. Müller die Frage, inwiefern Wissen online gemanagt werden kann. Um diesen oftmals schwer greifbaren Themenkomplex nachvollziehbar darzustellen, wird zunächst einleitend erläutert, was unter Wissen und Wissensmanagement – sowohl aus wissenschaftlicher als auch aus einer für die betriebliche Praxis relevanten Perspektive – verstanden wird. Nachfolgend skizzieren die Autoren ein Spannungsfeld zwischen analogem und digitalem Wissensmanagement. Diesbezüglich wird unter anderem beschrieben, welche Instrumente für digitales Wissensmanagement prädestiniert sind. Aufbauend auf diesen Erkenntnissen werden Handlungsempfehlungen auf strategischer bzw. operativer Ebene für einen zielgerichteten Umgang mit Wissen im gegenständlichen Kontext abgeleitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-17291-6_65 35d1bec1036398ee33ca8ec4056b2505;de;;;2.2.;;;Die Zukunft der DNA-Sequenzierung: Nach dem Humangenomprojekt Die Idee, die DNA-Sequenz des gesamten menschlichen Genoms zu bestimmen, entstand Mitte der 1980er Jahre. Der anfängliche Impuls kam von einer Überlegung, wie eine verbesserte DNA-Sequenzierungsmethodik unsere Fähigkeit, Mutationen zu finden und die Auswirkungen von Strahlung und anderen Umwelteinflüssen auf vom Menschen vererbte Mutationen quantitativ zu bestimmen, dramatisch verbessern könnte. Eine stärkere und konstante treibende Kraft war jedoch die Nützlichkeit von DNA-Sequenzinformationen beim Auffinden von Genen und beim Studium ihrer Aktivität.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-5550-2_12 4e0bfc60b201be468c3e7c6c36001f95;de;;;6.1.;;;Modulare ServicearchitekturenService Engineering stellt Dienstleistungsunternehmen vor große Herausforderungen. Auf der einen Seite sollen Dienstleistungen Probleme für Kunden lösen. Dienstleistungsanbieter sehen sich daher oft individuellen Kundenanforderungen gegenüber. Teilweise können Kunden diese Anforderungen selbst nicht präzise angeben, weil ihnen im eigenen Haus die Expertise für das entsprechende Gebiet fehlt. Gleichzeitig sind Märkte auch von einem hohen Wettbewerbs- und Innovationsdruck gekennzeichnet — oder zumindest einer entsprechenden Rhetorik. Neue Leistungen werden in das Portfolio aufgenommen oder neue Geschäftsmodelle für Dienstleistungen im Markt erprobt. Nicht zuletzt sind aber gerade bei technischen Dienstleistungen die technologischen Veränderungen einer der Gründe, die eine Anpassung des Leistungsportfolios erfordern und Möglichkeiten für innovative Dienstleistungen eröffnen. Dabei verändern sich die Teile der Dienstleistung oft unterschiedlich, z. B. weil sie Technologien zur Grundlage haben, die sich in unterschiedlichen Lebenszyklusphasen befinden. Gerade komplexe Unternehmensdienstleistungen, wie z. B. Informationstechnologie-Dienstleistungen oder das Facility Management sehen sich diesen Herausforderungen gegenüber.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-09871-4_16 572a44dc9a28f248ed0ca3834980f69b;de;;;6.1.;;;Kundenintegrationsprozesse als FaktorkombinationsprozesseKundenintegrationsprozesse, bei denen der Kunde in die Leistungserstellung mit eingebunden ist, gibt es in der Praxis sowohl im Business-to-Consumer-Bereich als auch im Business-to-Business-Bereich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-81844-7_2 54872859b209572efd8cb3d24b3d80c0;de;;;6.1.;;;Erwachsenenbildung in Österreich: Finanzierung als Materialisierung von PolitikDieser Beitrag versucht, die Erwachsenenbildungspolitik in Österreich, insbesondere im Hinblick auf die öffentliche Finanzierung, zu interpretieren. Aus drei Blickwinkeln werden die Erwachsenenbildung und die Bildungspolitik betrachtet: Welche Anforderungen stellen sich aus gesellschaftlichen, wirtschaftlichen und technologischen Entwicklungen? Welche Aufgaben ergeben sich aus einer bildungstheoretischen Betrachtung? Schließlich wird auch der bildungspolitische Diskurs, insbesondere der europäische, aber auch der internationale Diskurs, in den Blickwinkel genommen. Die österreichische Erwachsenenbildungspolitik wird dabei im Rückspiegel betrachtet, aus der Gegenwart heraus wird versucht, große Entwicklungslinien auszumachen. Die öffentliche Finanzierung der Erwachsenenbildung wird als Folie herangezogen, um darzustellen, welche politischen Schwerpunkt sich „materialisieren“. Im abschließenden Kapitel werden die Befunde diskutiert und Bedarfe, Lücken und Herausforderungen für Erwachsenenbildung und Bildungspolitik vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-31054-7_3 ae0fdc519c21689953ada78803b5ab73;de;;;6.1.;;;Das Zentrum für Lehrerbildung an der Universität Bielefeld: Unterstützung, Förderung und Weiterentwicklung der LehrerbildungSeit rund zehn Jahren gibt es bundesweit eine Gründungswelle für Zentren für Lehrerbildung. Nicht immer ist deutlich, welche Erwartungen sich seitens der Initiatoren mit solchen Gründungen verknüpfen. Das Zentrum für Lehrerbildung (ZfL) der Universität Bielefeld wurde bereits vor mehr als 20 Jahren gegründet. Die Konzeption des ZfL geht sogar auf grundlegende Strukturplanungen aus der ersten Aufbauphase der Universität Bielefeld vor mehr als 30 Jahren zurück. Entstehung, Entwicklung und heutige Stellung werden durch einen Rückblick auf die hochschulpolitischen Rahmenbedingungen der damaligen Zeit verständlich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-80717-5_7 7078585b36083a0daed9fe6238d0a025;de;;;2.2.;;;Präklinischer Western Blot im Zeitalter der digitalen Transformation und reproduzierbarer Forschung, eine östliche Perspektive Die aktuelle Forschung ist ein interdisziplinäres Bestreben, ein notwendiges Werkzeug für präklinische Proteinstudien von Krankheiten oder Störungen durch Western Blotting zu entwickeln. Im Zeitalter der digitalen Transformation und der Open-Access-Prinzipien wurde eine interaktive Cloud-basierte Datenbank namens East-West Blot (;-;-;-;https://link.springer.com/article/10.1007/s12539-021-00442-7 2c8d97dbc22908af0a0d0a86a81fe8c5;de;;;2.2.;;;Ein neuartiger Ansatz für den quadratischen Rückstandscode In diesem Artikel wird ein neuartiger Hash-Tabellen-Algorithmus für die Hochdurchsatz-Decodierung des (n, k, d) Quadratischen Rückstands (QR)-Codes vorgestellt. Die Hauptideen dieser Decodierungstechnik basieren auf einer Eins-zu-Eins-Abbildung zwischen den Syndromen „S1“ und korrigierbaren Fehlermustern. Verglichen mit dem binären Nachschlagetabellenverfahren ist die vorgestellte Technik schneller als das binäre Suchverfahren zum Auffinden von Fehlermustern. Darüber hinaus hat es den Vorteil, dass mit einer Maskierungsoperation als Auswahl-Hash-Tabelle der Größe schnell durchgeführt werden kann;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-50212-0_23 d48d16d5cd1ad29fa19e2bdbb1e8e038;de;;;2.2.;;;Proliferationsrate von intrakraniellen Meningeomen, definiert durch den monoklonalen Antikörper MIB-1 In Paraffin eingebettete chirurgische Proben von 55 Meningeomen wurden nach Mikrowellenprozessierung unter Verwendung der Streptavidin/Peroxidase-Methode und des monoklonalen Antikörpers (moAb) MIB-1 gegen das Ki-67-Antigen immungefärbt. Die Autoren bewerteten den proliferativen Markierungsindex (LI) einer Reihe von chirurgisch entfernten Meningeomen mit immunhistochemischen Methoden und MIB-1 und korrelierten diesen Index mit klinischen, radiologischen und histologischen Faktoren. Es wurde keine Beziehung zwischen LI, Geschlecht, Alter, Resektion und histologischen Graden oder Volumen gefunden. Symptome, Lokalisation und peritumorales Ödem hatten eine signifikante Beziehung zum MIB-1 LI. Die symptomatischen Patienten, d. h. solche mit Tumoren an der Schädelbasis und mit peritumoralen Ödemen GR3 (Grad 3), hatten ein höheres Risiko für einen höheren MIB-1 LI. Es wurde nachgewiesen, dass die Erhöhung der peritumoralen Ödemklassifikation um eine Einheit ein erhöhtes Risiko von 3,312 und einen LI von mehr als 3% ergab. Die Autoren diskutieren auch die verschiedenen Methoden zur Bewertung von LIs bei Meningeomen, basierend auf der verfügbaren Literatur.;-;-;-;https://link.springer.com/article/10.1007/s10143-003-0261-1 71cd05a971d2a0aa89e41433ef4e8307;de;;;6.1.;;;Lehramtsanwärter/innen in der ZwickmühleDas Land Nordrhein-Westfalen hat durch die Implementierung von personenorientierter Beratung mit Coachingelementen einen entscheidenden Anstoß für die Veränderung der zweiten Phase der Lehrerinnen- und Lehrerbildung gegeben. Im Folgenden gilt es, einen Überblick über theoretische Grundlagen sowie die praktische Ausgestaltung eines diagnostischen Instrumentes zu schaffen, welches eine Hilfestellung in der Personenorientierten Beratung mit Coachingelementen geben soll und welches dabei aufzeigt, inwiefern das Selbstmanagement bei den Lehramtsanwärter/innen ausgebildet ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-12854-8_12 bf255d912ff4c25201d06a9325d1764a;de;;;6.1.;;;Informelles HandelnDie begriffliche und konzeptionelle Unterscheidung zwischen formell und informell läßt sich zum einen auf einen organisationssoziologischen und -theoretischen Diskussions- und Theoriestrang zurückverfolgen. Dieser entstand in der Auseinandersetzung mit dem Max ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-11890-9_47 7494b0ee3b98dcca6fdb5acba747ee51;de;;;6.1.;;;Schweiz: Die Menschenrechte in der BildungObwohl die Schweiz ein kleines Land ist, ist es aufgrund der ausgeprägten föderalistischen Struktur schwierig, einen Überblick über die Menschenrechtsbildungsprogramme und -projekte zu verschaffen. Es gibt keine Institution, die im Bereich der Menschenrechtsbildung auf nationaler Ebene koordinierend und fördernd wirkt. So bleibt das meiste Stückwerk, wie auch diese kurze Übersicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-81001-4_15 87c028269136c881b16935ec71f777d5;de;;;6.1.;;;Kinder, Jugend und MedienIndividuation und Sozialisation gestalten sich unter Bedingungen der Individualisierung und Mediatisierung deutlich komplexer als in früheren Gesellschaften. Gerade die Convergence Culture, die Permanentvernetzung und die zunehmende mobile Kommunikation verändern das kommunikative Arrangement der Familienmitglieder, generieren und modifizieren Medienpraktiken sowie Formen der Partizipation und Vergemeinschaftung. Aufgezeigt werden einige Trends und Entwicklungen der soziologisch orientierten Kinder- und Jugendmedienforschung respektive Sozialisations- und Medienaneignungsforschung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-04207-3_59 e01fd53209b44856b163a2c579c0092a;de;;;6.1.;;;Digitalisierung im BaugewerbeDas Baugewerbe gilt als „Bricks & Mortar“-Geschäft, das von den Auswirkungen der Digitalisierung wegen seines analogen und materiellen Charakters scheinbar kaum betroffen sein dürfte. Diese Annahme ist falsch. Besonders in den Bereichen der Bauplanung und Bauvorbereitung, der Logistik an verschiedenen Stellen im Bauprozess und des Managements von Kundenbeziehungen manifestiert sich die digitale Transformation am deutlichsten. Unternehmen der Baubranchen müssen sich darauf einstellen, wenn sie am Markt bestehen und das Feld nicht allein den großen Baukonzernen überlassen wollen. Dieses Kapitel stellt die unterschiedlichen Trends und Entwicklungen der Digitalisierung im Baugewerbe dar, ordnet sie analytisch ein und gibt praxisrelevante Empfehlungen zum erfolgreichen Umgang mit den genannten Herausforderungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-19387-4_3 3c175602224d34dfcc925a0140cea077;de;;;6.1.;;;Psychische Belastungen und GesundheitPsychische Belastungen haben in den vergangenen zehn Jahren beim Management von Sicherheit und Gesundheit am Arbeitsplatz an Bedeutung gewonnen. In diesem Beitrag werden psychische Belastungen im Kontext der Arbeit zuerst beschrieben und anhand eines Modells umfassend erläutert. Insbesondere der Zusammenhang zwischen psychischen Belastungen und psychischen Erkrankungen wird dargestellt, die Bedeutung dessen für die Prävention wird herausgestellt. In der Prävention wird aktuell nicht (mehr) beachtet, dass auch Unfälle und körperliche Erkrankungen mit psychischen Belastungen in Zusammenhang stehen. Abschließend wird herausgearbeitet, wie psychischen Belastungen mit ungünstigen Folgen für Gesundheit und Sicherheit am Arbeitsplatz grundsätzlich vorgebeugt werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-08840-8_23 6915b83e336dfdb3c5b720a1e9cb27ba;de;;;6.1.;;;Gesundheitsökonomie und kulturelle ErfahrungKulturwissenschaftliche Ansichten zur Gesundheitsökonomie – sind das tatsächlich ‘Außenansichten’? Das scheint falsch, gibt es doch massiv Evidenzen, die den engen Zusammenhang zwischen Gesundheitsökonomie (enger gefasst: Medizin) und Kultur (enger gefasst vor allem Literatur) eindrucksvoll belegen. Hervorragende Fachleute beider Seiten, etwa Medizinhistoriker, haben massenweise Studien zu Fragen vom Typ ‘Was treibt die Literatur zur Medizin?’ und umgekehrt vorgelegt. Es gibt seit einigen Jahren ein materialreiches Lexikon zu dem als Buchtitel schon öfter vergebenen Bereich „Literatur und Medizin“ (cf. Bettina von Jagow und Florian Steger, eds. ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-6662-9_11 15e308a52da7921915c232315ccad1f5;de;;;6.1.;;;Herausforderung AkutmedizinDas Arbeitsumfeld der „Akutmedizin“ stellt besondere Herausforderungen an Entscheidungsprozesse. Zudem bedingen die vorliegenden Rahmenbedingungen eine „komplexe Arbeitswelt“. Dieses Kapitel befasst sich mit Komplexität und ihren Merkmalen. Außerdem wird die Entwicklung von Expertise erläutert, die sich über persönliche Charakteristika, Fertigkeiten und Wissen definiert. Beste Voraussetzung dafür, Experte zu werden, ist das Bemühen, sich beständig an die Grenze der eigenen Möglichkeiten heranzutasten und diese Grenzen aktiv zu erweitern. Experten werden gemacht, nicht geboren: Schlüsselfaktoren für Expertise sind die Quantität und Qualität der Übung. Handeln in kritischen Situationen kann quasi-automatisch auf Ebene der Fertigkeiten, über die Anwendung von Regeln und über die Anwendung von Wissen und Problemlösen erfolgen. Komplexe, kritische Situationen fordern alle diese drei Ebenen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-60485-4_2 b2c107373e547c7e8642223e5c32c571;de;;;6.1.;;;Wissensmanagement für ProjekteBetrachtet man die aktuelle Diskussion in Unternehmen zum Thema Wissensmanagement, so zeigen sich häufig Zweifel am tatsächlichen Nutzen dieses Konzepts für die Praxis. Malik beispielsweise weist mit dem Ausspruch: »Wissensmanagement – auch dieser Kaiser ist nackt« deutlich auf diese Entwicklung hin (Malik, 2001).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19920-2_5 50991b276031ba16bd091e79baf8845d;de;;;6.1.;;;Kapitel: Konzeption einer Wirkungsprüfung für das KatastrophenmanagementIn diesem Kapitel werden auf Basis der im Zuge der Analyse der Ereignisdokumentation und der Experteninterviews generierten Daten zunächst die Anforderungen an eine in der Praxis anwendbare Wirkungsprüfung und ein entsprechendes Konzept mit insgesamt 49 Indikatoren für eine Prüfung des kommunalen Katastrophenmanagements bei Überschwemmungen präsentiert. Im Anschluss daran wird ein möglicher Modus der Durchführung dargelegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-9364-5_6 c15acd7b1e8b0b085fb84984f17ea553;de;;;6.1.;;;Praxis – Großgruppenveranstaltungen zu unterschiedlichen AnlässenEinblick in unsere Praxis. Anhand von 8 Beispielen zeigen wir exemplarisch unser Vorgehen und die praktische Umsetzung auf. Von der Management Summerschool bis zu Großgruppen im Rahmen von Veränderungsprojekten spannen wir den Bogen. Zum Schluss werfen wir in diesem Kapitel den Blick auf die häufigsten Fehlerquellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35317-8_5 04a0a7e67d16f915adc336f4fd983ee5;de;;;6.1.;;;Gesetzliche Grundlagen und Anforderungen der PharmalogistikDas Kapitel befasst sich mit den gesetzlichen Anforderungen an Transportdienstleister zur Abfertigung von Sendungen mit pharmazeutischem Inhalt. Resultierend aus dem demografischen Wandel der Bevölkerung, gewinnt die Pharmabranche kontinuierlich an Bedeutung und wird auch in Zukunft eine wachsende Branche bleiben. Da pharmazeutische Erzeugnisse weltweit benötigt und dadurch transportiert werden müssen, ergibt sich die Auseinandersetzung mit der Thematik auch für die Transportbranche.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-15264-2_2 f2ee016e7bd23affd952d7bbcc77238a;de;;;6.1.;;;Ethik der InformationsgesellschaftDer zehnte Beitrag „Ethik der Informationsgesellschaft. Ein interkultureller Versuch“ hat als Ziel, das Phänomen der indirekten Rede, das insbesondere für die Kulturen im Fernen Ost prägend ist, in die gegenwärtige informationsethische Debatte einzuführen. Die Differenz direkte/indirekte Rede soll Anlass dazu geben, über Interkulturalität und Geschichtlichkeit informationsethischer Ansätze sowie über unterschiedliche moralische Ausformungen vergangener und gegenwärtiger Informationsgesellschaften nachzudenken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-17131-5_10 7acbc08dc7344ec0f892e7f02e7a1ca0;de;;;6.1.;;;Einführung eines PatientendatenmanagementsystemsDie elektronische Dokumentation hat nachgewiesene Effekte auf die Vollständigkeit, Quantität und Qualität der medizinischen Dokumentation. Diese Vorteile müssten in der aktuellen Abrechnungssystematik des deutschen „Diagnosis-Related-Groups“(DRG)-Systems auch ökonomische Auswirkungen in den Abrechnungsdaten einer Intensivstation (ITS) zeigen.;-;-;-;https://link.springer.com/article/10.1007/s00101-013-2239-x f2252170ac8fef027253170eb2593530;de;;;6.1.;;;SAP NetWeaver in der Praxis – Wie gut bewährt sich der Technologie-Stack in der praktischen Arbeit?SAP NetWeaver ist eine Zusammenführung von bereits bewährten und neuen technischen Komponenten von SAP zur Realisierung von Integrationsprojekten auf unterschiedlichster Ebene. Dieser Artikel zeigt auf, dass sich unserer Meinung nach NetWeaver erst am Beginn eines breiteren Einsatzes befindet. ;-;-;-;https://link.springer.com/article/10.1007/s00287-007-0191-3 3a36526eb11b0ebf98eb567ac65359cc;de;;;6.1.;;;Glaubwürdigkeit in dynamischen WirkleistungsverbündenVertrauenswürdigkeit kann ein Schlüsselfaktor für die Entscheidungsfindung im Rahmen agentenbasierter Systeme sein. Im vorliegenden Beitrag soll die Vertrauenswürdigkeitsfacette Glaubwürdigkeit, die das frühere Verhalten von Agenten innerhalb von Verbundbildungsprozessen an Elektrizitätsmärkten abbildet, betrachtet werden. Diese Facette dient Agenten im Rahmen von Verhandlungen als Kriterium, um über die Kooperation mit anderen Handelspartnern zu entscheiden. Schwerpunkt dieses Beitrags ist ein Konzept zur Berechnung und Verwendung der Facette Glaubwürdigkeit, die einen Teil eines Vertrauensmodells für ein agentenbasiertes Verbundbildungssystem darstellt. Das Vertrauensmodell soll als ein Sicherheitsmechanismus für den Schutz der kritischen Infrastruktur Energie dienen. ;-;-;-;https://link.springer.com/article/10.1007/s00287-014-0856-7 68354887e31311db951b2a8c188b4236;de;;;6.1.;;;DV-Unterstützung zur wertorientierten Transportgestaltung im intermodalen GüterverkehrThe form of transportation of goods interferes with the company value. It is a significant lever for the increase of shareholder value. The valuebased map out of goods transportation requires a methodology that permits managers in charge to substantiate the correlation between the transportation design, the value drivers, and the company value. However, in the first place, most companies lack a methodology by which, for example, the advantages of alternative transportation modes could be demonstrated. Secondly, information systems are missing, which assist in assessing the multitude of aspects of transportation design and their complex valuation relationships in no time. This article presents a software-based methodology for the assessment of transportation alternatives.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-9777-7_8 2db1410d0d9be4face8efd5274497162;de;;;6.1.;;;Gesundheitserziehung und -bildung als Handlungsfelder einer reflexiven GesundheitspädagogikGesundheitserziehung und Gesundheitsbildung können als Handlungsfelder der sich seit einigen Jahren etablierenden Wissenschaftsdisziplin Gesundheitspädagogik beschrieben werden. Die Notwendigkeit einer disziplinären Einbettung gesundheitspädagogischer Handlungsfelder ist innerhalb der erziehungswissenschaftlichen Diskussion bereits von verschiedener Seite betont worden, so zum Beispiel von Georg Hörmann (1999, 2009), Britta Wulfhorst (2002), und Elisabeth Zwick (2004). Eine wissenschafts- und disziplinbezogene Kontextuierung der Handlungsfelder (Stroß, 2006, 2009) hat darüber hinaus den Vorteil, die Besonderheiten des erziehungswissenschaftlichen Zugangs herauszustellen und zugleich eine distanzierte (Beobachter-)Perspektive gegenüber der in den Handlungsfeldern wirkenden Logik – die Gesundheit als oberstes Ziel postuliert – einzunehmen („reflexive health pedagogy“, zur „Reflexivität“ als Ziel einer neuen – nicht elitären – Forschungspraxis, vergleiche auch Lynch 2004).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-16582-6_6 f502d6e3200cab5424bcdd19cc2ed4c4;de;;;6.1.;;;Konzeption eines WWW-basierten ProzeßinformationssystemsIn dem vorliegenden Beitrag wird ein Prozeßinfonnationssystem, ein Anwendungssystem zum Workflowbasierten Prozeßcontrolling, das die Überwachung und Auswertung der Prozeßausführung unterstützt, skizziert. Basierend auf einer kurzen Erörterung der zugrundeliegenden betriebswirtschaftlichen Motivation, werden die systemseitig zu erfüllenden Anforderungen abgeleitet. Anschließend wird exemplarisch ein mögliches Realisierungkonzept eines Web-basierten Prozeßinformationssystems anhand des Prototypen PISA 3 dargestellt. Dieser Beitrag präsentiert damit Zwischenergebnisse aus dem DFG-Projekt ‚Controlling und Monitoring von verteilten Workflows zur kontinuierlichen Geschäftsprozeßoptimierung‘ (CONGO).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-05852-6_15 c99f72c60c795d8f2eef01d8d9f86508;de;;;6.1.;;;Verfahren zur optimalen Regelung eines Formstrangs zur Herstellung von SpanplattenDie Grundlagen für ein Verfahren zur optimalen Regelung eines Spanplattenformstangs mit den Schätz- und Regelprogrammen MINISYS, SYSFOR, OLC, CLC werden dargestellt. Die für Analyse des Prozesses und Entwicklung des Systemmodells geschaffenen Werkzeuge MODEV, OPTSEL, RESRF, MIXEST sowie der Einfluß der Meßungenauigkeit der Instrumente werden erläutert. Erste Ergebnisse aus Betriebsversuchen werden mitgeleit. Eine Schätzung von Kosten und Nutzen wird gegeben.;-;-;-;https://link.springer.com/article/10.1007/BF02611402 3aaee460852038a3b612bbab6636f4a9;de;;;6.1.;;;Mobile Marketing im Multi-Channel-MarketingMulti-Channel-Marketing ist zu einem gängigen Bestandteil für die meisten Unternehmen geworden und hat damit in der Marketingwelt erheblich an Bedeutung gewonnen. Der Einsatz von innovativen Marketingkanälen ist für Unternehmen dabei insofern notwendig, um dem sich ändernden Kundenverhalten gerecht zu werden. Die Integration neuer Kanäle in das bestehende Kanalportfolio sowie dessen erfolgreiche kanalübergreifende Koordination stellen Marketingmanager dabei vor eine Vielzahl von Entscheidungsproblemen. Dieser Beitrag liefert eine Übersicht zu relevanten Erfolgsfaktoren der Integration und Koordination von mobilen Marketingkanälen in eine bestehende Mehrkanalstruktur. Es zeigt sich, dass es sowohl auf organisatorischer Ebene, hier insbesondere beim Komplexitätsmanagement und der Aufbauorganisation, als auch auf marktbezogener Ebene, speziell im Bereich des Endkundenmarketing und der eingesetzten Absatzmittler, relevante Stellgrößen gibt, die von einem Multi-Channel-Marketing-Unternehmen beachtet werden müssen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85296-4_10 eee174890890e6e8381df102360e3cc8;de;;;6.1.;;;Engineering-IT in der Automobilindustrie – Wege in die ZukunftDie Kernsysteme in Großunternehmen sind in der Regel schon viele Jahre im Einsatz und über viele heterogene Schnittstellen miteinander verbunden. Dies beeinträchtigt massiv die Wartung und Weiterentwicklung und erhöht das Risiko bei Releasewechseln. Eine Neuimplementierung ist meist teuer und langwierig, der Business-Case dafür ist kaum darstellbar. Serviceorientierte Architekturen (SOA) können die Basis einer stufenweisen, kostenoptimierten und risikoarmen Erneuerung der IT-Landschaft bilden. Die Einführung von SOA ist nur zum Teil eine technische Herausforderung. Vielmehr müssen Organisation und Geschäftsprozesse mitbetrachtet und bereits in der frühen Phase angepasst werden. Der richtige Zuschnitt der Services und ein gestuftes Vorgehen bei der Frontend- und Backend-Integration ermöglichen ,,Quick Wins“. Darüber hinaus erfordert die nachhaltige Umsetzung konzeptionelle Schärfe und Weitsicht, technische Exzellenz und einen langen Atem. Am Beispiel der Engineering-IT bei Daimler wird der Weg zu einer strategischen Ausrichtung auf Basis einer SOA gezeigt. Inhalte sind die Entwicklung des strategischen Ansatzes, der Aufbau einer Governance-Struktur, die Weiterentwicklung der internen Geschäftsprozesse sowie die Entwicklung und Einführung eines geschäftsprozessorientierten gemeinsamen Engineering Clients und eines Engineering Service Bus. ;-;-;-;https://link.springer.com/article/10.1007/s00287-010-0502-y 787651f0c86f7e775805de1717e52562;de;;;6.1.;;;Wissensportal für Anwendungen des Mobile Business — Ergebnisse einer empirischen Untersuchung zum Mobile Business in der PraxisIm Mobile Business sehen derzeit viele Unternehmen die Antwort auf ihre betrieblichen Herausforderungen in einem Wirtschaftsumfeld, das stark geprägt ist von höchsten Kundenansprüchen, Wettbewerb und Kostendruck. Über die Technologien und Potentiale mobiler betrieblicher Lösungen wird sehr viel kommuniziert. Inwieweit Mobile Business tatsächlich in die Geschäftsprozesse integriert ist und welcher Nutzen für die Unternehmen dadurch real erzielt wird, ist indes noch nicht hinreichend deutlich. Ein Wissensportal zu Anwendungen des Mobile Business, in dessen Wissensbasis einschlägige Anwendungsfall-Beschreibungen systematisiert werden, soll zur Schaffung von Transparenz in dieser Frage beitragen. Das Vorgehen bei der Entwicklung dieser Wissensbasis und die Erkenntnisse, die nach inhaltsanalytischer Auswertung der erhobenen Fallstudien gewonnen wurden, werden in diesem Beitrag vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-82110-2_4 07863a0e8b657f17a4f5894d2a36b0c2;de;;;6.1.;;;Quantitative UntersuchungsergebnisseDas fünfte Kapitel beantwortet die Frage, wie häufig die untersuchten Coaches und Klienten die sich ihnen anbietenden Kommunikationsentscheidungsmöglichkeiten wählen, die im vierten Kapitel vorgestellt wurden, und welche Auffälligkeiten sich dabei zeigen. Eine der wichtigsten Auffälligkeiten ist, dass die Coaches ihre Klienten bei der Bearbeitung ihrer Coachingthematik so gut wie gar nicht durch instruktionalistische, sondern fast ausschließlich durch facilitative Problemlösungsaktivitäten anleiten, und zwar vor allem durch Fragen, die darauf zielen, zunächst einmal alle relevanten Einzelheiten ihrer Coachingproblematik zu identifizieren. In diesem Sinne dient ihre Führung der Selbstführung der Klienten. Auf dieses übergeordnete Ziel ist auch die Metakommunikation ausgerichtet, aber in anderer Ausprägung: Denn hier ist die Interaktion deutlich symmetrisch-kooperativer, indem die Coaches relativ mehr instruktionalistische und die Klienten relativ mehr facilitative Sprechhandlungen wählen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-09640-3_5 6db3666d010a78ed14ed8fdf62a0630c;de;;;6.1.;;;Ein Hoarding-Verfahren für ortsbezogene Informationen Mit der zunehmenden Verbreitung mobiler Endgeräte wächst auch der Bedarf in mobilen Umgebungen auf entfernt gespeicherte Informationen zuzugreifen. Da dieser Informationszugriff meist über drahtlose Netzwerke erfolgt, treten in mobilen Informationssystemen häufig Probleme wie geringe Bandbreite, große Verzögerungen oder Verbindungsausfälle auf. Hoarding-Verfahren versuchen diese Probleme zu lösen, indem sie Informationen, auf die der Benutzer voraussichtlich zugreifen wird, im voraus übertragen. Dazu müssen sie jedoch vorhersagen, welche Informationen der Benutzer benötigen wird. In diesem Beitrag stellen wir ein Hoarding-Verfahren vor, das für diese Vorhersage die Ortsabhängigkeit von Informationszugriffen ausnutzt. Wie wir durch Simulationen zeigen, wird der Speicherplatz auf dem Endgerät dadurch sehr effizient genutzt. (Die hier vorgestellte Arbeit ist mit Unterstützung der DFG im Rahmen der Forschergruppe Nexus sowie des Graduiertenkollegs Parallele und Verteilte Systeme entstanden.;-;-;-;https://link.springer.com/article/10.1007/s004500100084 70ca5fc0b4c53fe924349dbfa9a7146f;de;;;6.1.;;; VergütungssystemeDie Gestaltung von Vergütungssystemen für die Leistungserbringer ist ein wesentliches Steuerungsinstrument von Managed Care. Zum besseren Verständnis dieses Instruments und seiner Wirkungsweise werden zunächst die Grundlagen von Vergütungssystemen ganz allgemein dargestellt (s. Abbildung 2‐1), um dann genauer auf die Vergütungssysteme in Managed Care einzugehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-7129-6_10 fb198b375ec415cc2baa31dbf32ecb8a;de;;;6.1.;;;PatientendatenmanagementsystemeDie meisten heute auf dem Markt verfügbaren Patientendatenmanagementsysteme (PDMS) haben ihre Gebrauchstauglichkeit über Pilotinstallationen bewiesen. Hauptgrund gegen die Einführung eines PDMS sind die damit verbundenen hohen Kosten. Hier sind neben den Beschaffungskosten (Hardware, Softwarelizenzen, Dienstleistung) auch die Eigenleistungen (Personalkosten) zu berücksichtigen. Eigenleistungen führen neben dem technologischen Kompetenzerwerb auch zu einer strukturierten Reflexion der eigenen Strukturen und Prozesse.;-;-;-;https://link.springer.com/article/10.1007/s00390-010-0241-y f385703c196e289d68055435d5b017dd;de;;;6.1.;;;Ökonomie und QualitätsmanagementExterne Qualitätssicherung, wie sie in Deutschland mit dem Kerndatensatz Intensivmedizin möglich ist, erlaubt ein Benchmarking der eigenen Station mit der Gesamtheit der Teilnehmer [1]. Die Umsetzung eines gefundenen Verbesserungspotenzials muss jedoch immer über ein internes Qualitätsmanagement durchgeführt werden. Ziel eines Qualitätsmanagements ist es, die Struktur und die Prozesse so zu organisieren, dass ein optimales Ergebnis entsteht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16929-8_9 498da870f8c98a300c9161e7289808ce;de;;;6.1.;;;Situativer Datenschutz im Fog-ComputingFog-Computing erlaubt, Software-Code oder Daten dynamisch von ressourcenschwachen Endgeräten an leistungsstärkere Geräte am Rande des Netzwerks und in der Cloud auszulagern. Eine solche dynamische Auslagerung ermöglicht eine performante Ausführung rechenintensiver Aufgaben, bei gleichzeitig geringer Latenzzeit für die Datenübertragung. Beim Datenschutz ergeben sich im Fog-Computing jedoch spezifische Herausforderungen. Wir beschreiben die wesentlichen Herausforderungen des Datenschutzes im Fog-Computing und diskutieren, wie diese Herausforderungen durch die situative Kombination verschiedener Datenschutztechniken zur Laufzeit adressiert werden können. ;-;-;-;https://link.springer.com/article/10.1007/s00287-019-01190-1 09874f83e8d926ba614fa71ce61b724a;de;;;6.1.;;;Informationsvermittlung, Besucheranalyse und nachhaltige Angebotsplanung in Schutzgebieten auf der Basis eines mobilen GuidesAuf Grund ständig steigender Besucherzahlen in Großschutzgebieten ist bei der Angebotsplanung für Besucher eine langfristige Sicherung kultureller und natürlicher Gegebenheiten wichtig. Im Rahmen des Projekts BALANCE wurden dazu eine GPS-basierte mobile Applikation zur Informationsvermittlung und zur Datenaufzeichnung, ein Datenmanagementtool zur Angebotserstellung und ein Tool zur Besucheranalyse entwickelt. Die gesammelten Daten wurden mit Hilfe des entwickelten Analysetools ausgewertet. Für das Schutzgebietsmanagement wurden dadurch wichtige Informationen über das Verhalten der Besucher (z.B. bevorzugte Routen, Anzahl und Dauer von Stopps, etc.) ersichtlich. Die Entwicklung erfolgte in Zusammenarbeit mit zwei Nationalparks und wurde abschließend im Rahmen eines Pilottests durch Besucher und Nationalparkbetreiber getestet und evaluiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-8694-8_14 fc269f8df185b6522ac7ce9d31ce43dd;de;;;6.1.;;;Die Einflussnahme von NGOs auf den politischen Prozess: Lobbying als KommunikationsinstrumentNGOs streben nach Umsetzung ihrer politischen Ziele. Sie versuchen über Lobbying Einfluss auf politische Akteure zu nehmen, um ihre Ziele zu realisieren. Lobbying ist eine Kommunikationsstrategie und ist als solche in ihrem Erfolg abhängig von zahlreichen Einflussfaktoren und Grundbedingungen. Relevante Akteure können mit unterschiedlichen Lobbying-Instrumenten angesprochen werden, die sich aus kommunikationswissenschaftlicher Perspektive bezüglich ihrer Öffentlichkeit, ihrer Formalität und des Kontakts differenzieren lassen. Mittels dieser Differenzierung können bestimmte Instrumente systematisch bestimmten Situationen und Akteuren zugeordnet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-18808-9_10 6826931d27bf723d544347424bfb0fd2;de;;;6.1.;;;Grundsätze der ProjektorganisationDer Projekterfolg hängt ganz wesentlich von den getroffenen organisatorischen Maßnahmen ab. Dazu gehören die Organisationsstruktur, die personelle Besetzung und das Mandat der Projektleitung. Folgender Grundsatz sollte dabei beachtet werden: Der Projektleiter ist für die Projektdurchführung verantwortlich, muss aber mit entsprechenden Vollmachten ausgestattet sein. Das gilt auch für Kooperationsprojekte im In- und Ausland.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-59384-4_5 cb1dad34e089f9f6a366b8f394f461c0;de;;;6.1.;;;Digitalisierung als Herausforderung für die Industrie – Das Beispiel der Automotive BrancheDie Digitalisierung führt zu tiefgreifenden Veränderungen in der Wirtschaft. Insbesondere der zunehmend digitale Anteil an Produkten, Dienstleistungen und Prozessen bildet die Grundlage eines technisch-ökonomischem Paradigmenwechsels, dessen Ausmaß mit fundamentalen Technologiesprüngen wie der Einführung der Dampfmaschine (vgl. Brynjolfsson/McAfee 2014, S. 6 ff.) verglichen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-16042-5_5 4b206d50dc6befc85b80392994eb7af7;de;;;6.1.;;;Das Internet — Eine Bedrohung für den stationären Einzelhandel?Der deutsche Einzelhandel wird bereits seit dem Ende des zweiten Weltkriegs ununterbrochen mit „Bedrohungen“ konfrontiert. Fortlaufend muss er theoretisch, vor allem aber praktisch seine Existenzberechtigung legitimieren. Derzeit werden die neuen Medien auf ihr Bedrohungspotenzial gegenüber dem stationären Handel untersucht. Die Ergebnisse dieser Untersuchungen sind zwar in weiten Teilen unterschiedlich, unabhängig davon sollte man angesichts dieser neuen Technologie nicht übersehen, dass die Handelslandschaft auch von anderen Entwicklungen zum Teil gravierend verändert wird. Bevor im Folgenden auf die Frage nach dem Bedrohungspotenzial der neuen Medien — und hier insbesondere des Internets — eingegangen wird, soll daher zunächst ein Überblick über andere wichtige Entwicklungstendenzen in der deutschen Distributionswirtschaft gegeben werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-98086-2_8 bc27ef4273bc21eb6c8b87592e77299b;de;;;6.1.;;;Heckenschütze im Informationskrieg?Wohl kaum ein anderer Fernsehsender löste im Laufe seines Bestehens mehr Kontroversen aus als der katarische Nachrichtenkanal Al-Jazeera. Der Sender brachte nicht nur in den zehn Jahren seines Bestehens annähernd alle staatlichen Autoritäten der arabischen Welt gegen sich auf, sondern auch beträchtliche Teile der westlichen Welt verfolgen seine Arbeit mit Misstrauen. Den Höhepunkt fand die internationale Auseinandersetzung um Al-Jazeera im Irakkrieg von 2003. Hatte zunächst bereits eine auf die Opferperspektive des Krieges fokussierte Berichterstattung in den USA politisches Misstrauen ausgelöst, so brach der „Kampf der Fernsehkulturen “ (vgl. ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-90703-1_9 47b1616b79ac74e2b0f729bf17ac6570;de;;;6.1.;;;DSGVO im Digitalen Marketing – heutige und künftige Herausforderungen für den CMOIm Mai 2018 ist die Datenschutz-Grundverordnung (DSGVO) in Kraft getreten, mit der die EU beabsichtigt, den Schutz der Daten von Individuen zu erhöhen und die Rechtslage in den EU-Staaten zu vereinheitlichen. Daraus resultieren strengere Vorschriften für die Erhebung, Speicherung und Verarbeitung personenbezogener Daten (pbD/engl. PII) von EU-Bürgern für Unternehmen, ganz gleich, wo das Unternehmen selbst sitzt, auch außerhalb der EU. Dieser Beitrag beschäftigt sich mit Möglichkeiten, die eigenen Marketingmaßnahmen kundenzentriert auszurichten und dabei den neuen rechtlichen Rahmen zur Verwendung von Kundendaten auszuschöpfen. Thematisiert werden nicht nur operative Quick Wins, sondern auch strategische Optionen, die sowohl funktionale als auch technisch relevante Aspekte beinhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-26195-5_2 1a0738d22703c51fc83d4d46d9bc8cb7;de;;;6.1.;;;Methodik zur Organisationsplanung im Büro„Welche Computer und welche Software sollen wir denn kaufen?“ Der Versuch, diese Frage zu beantworten, löst eine Lawine von neuen Fragestellungen aus. Um Informations- und Kommunikationssysteme effektiv planen und realisieren zu können, muß man zunächst natürlich eine Analyse durchführen. Darauf wird man sich noch sehr schnell in der Unternehmung einigen können. Auf einen Schlag wird es wohl nicht gehen, da reichen die verfügbaren Geldmittel nicht, man braucht also einen Stufenplan. Im Vordergrund dieses Informationsvorhabens sollte die Verbesserung der Kommunikation stehen, aber wer kommuniziert eigentlich mit wem über was? Das sollte eigentlich die Organisationsabteilung wissen, die hat ja die Abläufe festgelegt. Ach ja, auch bei uns gibt es sowas wie eine „informale” Organisation. Die Organisation spielt aber auf jeden Fall bei der Analyse eine wichtige Rolle. Mit der alten Organisationsform möchte man nur ungern weitermachen. Die Qualifikation der Mitarbeiter muß in die Überlegungen einbezogen werden, Aussagen zum Personalbedarf werden erwartet. Auf der grünen Wiese lebt man ja auch nicht, einzelne Bereiche haben in der Vergangenheit bereits investiert. Wissen das eigentlich nicht unsere „Datenverarbeiter”?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-87171-8_6 edbc6bd0642fd749aa4844a7cbed04ff;de;;;6.1.;;;Herausforderungen in Hersteller-Handels-BeziehungenDie Situation im deutschen Einzelhandel war in den letzten Jahren durch sich dynamisch wandelnde Rahmenbedingungen und damit verbundene neue Herausforderungen für alle Marktteilnehmer gekennzeichnet. Die zu beobachtende Stagnation des Bruttosozialproduktes;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-9502-1_1 a548fecf26c518075b32bd30746536e1;de;;;6.1.;;;Wissenstypen im „Web 2.0“ — eine wissenssoziologische Deutung von Prodnutzung im InternetDie inter- bzw. transdisziplinäre Online-Forschung hat in den letzten zehn bis fünfzehn Jahren eine Vielzahl von Beiträgen und Studien produziert, die sich mit Entwicklung, Nutzung und Konsequenzen des Internet befassen (vgl. für einen aktuellen Überblick ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-91033-8_8 8e6e4569181a7c5e446627cd4a661735;de;;;6.1.;;;Politische Führung in der Westminster-Demokratie: Großbritannien„If the Cabinet is the kitchen, is it then the Prime Minister who is the Cook? And is it the Study upstairs at Number Ten which is the centre of government?“ (Mount 1993: 134). Diese Fragen, die der Journalist und langjährige Regierungsbeamte Ferdinand Mount aufwarf, leiten ohne Umwege zu den nach wie vor drängenden Fragestellungen der britischen Politikwissenschaft: Wo ist die politische Führung im Institutionensystem Großbritanniens zu verorten? Fungiert das Kabinett als zentrales Entscheidungsgremium oder dominiert der Premierminister dieses im Sinne eines ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-91929-4_3 8be749e3545e79fc0883c682555e26bc;de;;;6.1.;;;IT-Management: Mehr als die Summe der ProjekteWenn alle einzelnen IT-Projekte erfolgreich gemanagt werden, ist das Thema IT-Management im öffentlichen Bereich noch nicht beendet. Es gilt, ein Multiprojektportfolio und die IT als Ganzes zu steuern. Wie das Management eines IT-Projekts ist das Gesamtmanagement der IT einer öffentlichen Einrichtung schwieriger als in der Privatwirtschaft. Insbesondere die kameralistische Haushaltslogik und die stark politisch geprägten Entscheidungsstrukturen und -prozesse des öffentlichen Sektors erschweren das Management der IT.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-9104-1_10 679aeadb06030f3d10fc237bc56bc867;de;;;6.1.;;;Wissensbasierte Systeme in der Intensivmedizin: Was können sie, was sollten sie können?Ausgehend von der Analyse der Notwendigkeit sowie der Vor- und Nachteile einer informationstechnischen Unterstützung werden einige Anwendungen aus dem Bereich der wissensbasierten Monitoring-, Diagnose- und Therapieplanungssysteme vorgestellt. Abschließend werden Forderungen für die effektive und erfolgreiche Planung und Implementierung eines solchen Systems aus medizinischer und technischer Sicht formuliert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-9404-1_4 d5de5249b80133dfe2384b3763e201d7;de;;;6.1.;;;IntegrationenDie PLM-Lösung bildet das Rückgrat des Datenbackbones eines Unternehmens und ist damit eingebettet in ein Netz komplexer Informationsbeziehungen. Diese bestehen sowohl zwischen den verschiedenen unternehmensinternen Applikationen als auch unternehmensübergreifend zwischen den verschiedenen PLM-Lösungen der am Produktentstehungsprozess beteiligten Partner. Unternehmensinterne und unternehmensübergreifende Datenflüsse unterliegen dabei unterschiedlichen Anforderungen und Restriktionen und nutzen unterschiedliche technische Lösungen. Softwarekomponenten, welche die Schnittstellen der PLM-Komponenten an diese unterschiedlichen Applikationen bereitstellen, werden Integrationen genannt. Deren Funktionalität und Architektur hängt von den konkreten Nutzerforderungen ebenso ab, wie von der Spezifik der Applikationen und soll im vorliegenden Kapitel ausführlich besprochen werden. Wegen deren besonderer Bedeutung wird dabei schwerpunktmäßig auf die Anforderungen der Integration mechanischer CAD-Systeme eingegangen.;-;-;-;https://link.springer.com/chapter/10.1007/b93672_8 449af5784e88f64fd5484975acde5031;de;;;6.1.;;;Potentiale und Risiken von In-Memory-Technologie: Eine Business Engineering-PerspektiveIn-Memory-Datenbanken erfahren derzeit große Aufmerksamkeit in der Praxis. So positioniert SAP die eigene In-Memory-Datenbanktechnologie SAP HANA als strategische „Appliance“. Aber auch andere Anbieter wie IBM und Oracle bieten Produkte auf Basis von In-Memory-Datenbanktechnologie an, so dass Gartner bereits der Ansicht ist, bei In-Memory-Datenbanken handele es sich bereits um „Mainstream“ (Pezzini, 2013).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54411-8_11 442076227e2c139557886495978adb39;de;;;6.1.;;;Semantik durch Merkmale für Industrie 4.0Der Grad an Interaktion und Kooperation zwischen informationstechnisch gekoppelten Maschinen- und Anlagenkomponenten steigt ständig. Während Menschen vage Informationen teilweise richtig interpretieren können, weil sie Erfahrungen und Wissen einbringen, können Maschinen nur richtig agieren, wenn die Informationen eindeutig sind. Deshalb wird die semantisch eindeutige Beschreibung von Informationsmodellen immer wichtiger. Ein vielversprechender Ansatz um Semantik eindeutig und auch maschinenlesbar zu beschreiben ist, Merkmale zur Beschreibung der Eigenschaften von Komponenten zu verwenden. Diese Merkmale können mit einem Informationsmodell unterlegt werden, welches maschinell auswertbar ist. Wird dieser Ansatz in Engineering-Werkzeugen umgesetzt, so kann die Durchgängigkeit von Informationen im Lebenszyklus technischer Systeme wesentlich erhöht werden. Die methodischen Grundlagen und das prinzipielle Vorgehen werden in diesem Beitrag vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-53248-5_69 10b082c499c31c033653f1e8d683e0ec;de;;;6.1.;;;Outsourcing technologieorientierter wissensintensiver Dienstleistungen (T-KIBS)Im Themenbereich des Outsourcings reicht der Fokus des Betrachtungsgegenstands über das weithin geläufige Outsourcing von IT-Leistungen hinaus. Dies betrifft vor allem den Bereich der T-KIBS, die vorrangig von Kleinen und Mittleren Unternehmen (KMU) erbracht werden. Das Thema Standardisierung spielt hierbei in der integrierten Betrachtung eine wichtige Rolle, da die Etablierung von Standards eine hohe Relevanz für das Gelingen von Outsourcing- Vorhaben aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-8290-2_9 ba42e6cd297d8c3256d2cb089ff086e5;de;;;6.1.;;;Social Media im Intranet – Arbeitskultur der grenzenlosen Offenheit?T-Systems Multimedia Solutions GmbH (T-Systems MMS) wurde 1995 als reiner Konzerndienstleister der Telekom mit dem Versprechen gegründet, 50 Arbeitsplätze in den neuen Bundesländern zu schaffen. Fast 20 Jahre später hat sich die Zahl der Arbeitsplätze auf über 1 000 erhöht und wir sind heute an sieben unterschiedlichen Standorten in Deutschland vertreten. Binnen weniger Jahre wurde die T-Systems Multimedia Solutions GmbH zum größten und umsatzstärksten Internetdienstleister in Deutschland. Mit steigender Größe des Unternehmens und geografisch verteilten Standorten steigt auch der Bedarf, diesen Wandel zu meistern, neue Konzepte der Zusammenarbeit zu schaffen. Moderne Kollaborationskonzepte und soziale Softwaresysteme potenzieren die Möglichkeiten der Zusammenarbeit und des Wissensaustausches um ein Vielfaches gegenüber der herkömmlichen Individualkommunikation. Die Zusammenarbeit von Gruppen und Individuen wird gefördert, der Wissensaustausch und die direkte Interaktion zwischen verschiedenen Wirkungsebenen optimiert. Gleichzeitig wird so viel Inhalt produziert, dass schnell ein Überangebot an Informationen vorliegt. Und beim begeisterten Sharing wird auch unternehmensintern rechtlich Verbotenes oder kulturell Ungewolltes geteilt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-06092-3_10 f8dc3e6af84ee1322ff4ba2cbcc1b80a;de;;;6.1.;;;Das BioRegio-Konzept des Rhein-Neckar-Dreieckes: Vision und StrategieDer Bundeswettbewerb „BioRegio“ war eine Förderinitiative besonderer Art. Sein Ziel war es, die Anwendung von Wissen und Erkenntnis in der Biotechnologie zu fördern — das heißt, die Umsetzung von Ideen in Produkte, Produktionsprozesse und Dienstleistungen vor Ort — und mithin qualifizierte Arbeitsplätze mit hoher Wertschöpfimg in Deutschland zu erhalten sowie neue zu schaffen. Der Bundesminister für Bildung, Wissenschaft, Forschung und Technologie wollte mit dem Wettbewerb um die besten BioRegio-Konzepte den volkswirtschaftlich fatalen Ablauf durchbrechen, daß in deutschen Labors entstandene Ideen in der Regel ins Ausland, meist nach USA exportiert werden, sofern die Voraussetzung ihrer Kommerzialisierbarkeit, nämlich eine ausreichende Patentierung, gegeben ist. Im Erfolgsfall werden sie als Produkte wieder nach Deutschland importiert, wobei sie die wesentliche Wertschöpfung in den USA hinterlassen. Eine richtige Einsicht und begrüßenswerte Initiative, die freilich politische Versäumnisse von zwei Jahrzehnten und ihre Folgewirkungen nicht in den wenigen Jahren bis zur Jahrtausendwende ungeschehen machen kann. Allerdings scheint die geniale Idee eines bundesweiten Wettbewerbes regionaler Konzepte in besonderer Weise geeignet, das Beste aus dieser späten Chance für unser Land zu machen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-60028-9_2 a0de0ea5c7ef8da717bfeac856dbbc8d;de;;;6.1.;;;Virtualisierungsstrategie im internationalen Bankenmarkt: enba ltd.Die private Nachfrage nach Bankdienstleistungen unterliegt gegenwärtig einem rapiden Wandel, der sich aus den neuen Informationstechnologien ergibt. Konkreten Daten verdeutlichen den stattfindenden Umbruch von traditionellem Privatkundengeschäft in der Bankfiliale hin zu zeit- und ortsunabhängigen Formen der Geschäftsabwicklung: Die Zahl der über Online-Banking (Abwicklung über geschlossene Dienste wie T-Online) sowie Internet-Banking geführten deutschen Privatkonten wird sich von 4,55 Millionen im Jahr 1998 auf geschätzte 11,8 Millionen im Jahr 2002 entwickeln (vgl. z.B. Forit 1999).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-10032-4_47 24c722839580dcbcc55c4a4aeb5e4785;de;;;6.1.;;;Perspektiven der Bioinformatik in der Funktionellen GenomforschungDie Bioinformatik gilt zurzeit als die Schlüsseltechnologie im Life-Science Bereich. Die Bioinformatik übernimmt das Informationsmanagement, simuliert einzelne Prozessabläufe, beschreibt Molekülstrukturen (dreidimensionale Faltungen), Molekül-Molekül Interaktionen, metabolische und regulatorische Netzwerke, Zellorganellen, ganze Zellen und ihre Interaktionen, bishin zu ganzen Organismen. Hiermit rücken makroskopische und mikroskopische Biowissenschaften zusammen und werden somit einer ganzheitlichen Betrachtung zugeführt. In der Suche nach neuen Medikamenten (Drug-compound-screening) warden im Hochdurchsatzverfahren (High-throughput-Screening (HTS)) u.a. biologische Prozesse (Rezeptor-Ligand-Interaktionen) parametrisiert und quantifiziert. Um dieses zukünftig noch effizienter unter Einbindung einer genom- und proteomorientierten Bioinformatik in den Forschungs- und Entwicklungsabteilungen der Wirtschaft und den akademischen Instituten zu realisieren, sind hohe Anforderungen auch an die Lehrinhalte der zukünftigen Studiengänge für Bioinformatik und der Qualifikation ihrer Lehrstuhlinhaber zu stellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-58322-3_7 9be8c5450b4335c0ce729e2dbe1f8e89;de;;;6.1.;;;StudienangeboteAusgangspunkt für eine Karriere im IT-Bereich ist zumeist eine Ausbildung im Fach Informatik. Ausbildungen in anderen technischen oder wirtschaftswissenschaftlichen Fächern zählen zu den weiteren Optionen. Die Auflistung der Berufsfelder im ersten Kapitel deutet bereits an, dass es für Informatiker eine Vielzahl von Ausrichtungen gibt. Das ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-99614-5_2 223c016b38c031f600c84ffbad2a91cc;de;;;6.1.;;;Entwicklungs- und Vergütungskonzepte für das BeschaffungsmanagementDem Beschaffungsmanagement („Supply Management“) kommt längst eine essentielle Rolle im Kampf um Wettbewerbsvorteile zu. Über die schlichte Einkaufsfunktion hinausgehend befaßt es sich als wichtige Schnittstelle des Unternehmens zur beschaffungsseitigen Umwelt mit Sachgütern ebenso wie mit Dienstleistungen, Informationen und Arbeitskräften (vgl. Arnold 1997, S. 1-3). Internen Kunden gegenüber sorgt das Beschaffungsmanagement für die zielorientierte Planung, Steuerung und Kontrolle von Abnehmer-Zulieferer-Beziehungen, externen Kunden gegenüber als Beziehungsmanager und Ansprechpartner im Unternehmen für ein mehrschichtiges Kommunikationsnetzwerk.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-99462-2_45 008c05aad41f994135161b6267197e39;de;;;6.1.;;;Einsatz externer »Online-Datenbanken« zum Risikomanagement im AuslandsgeschäftDie Informationslandschaft im Bereich der Fachpublikationen zeigt eine zunehmend komplexere Struktur. Auf der einen Seite steht ein ständig wachsendes Informationsangebot: Schätzungen zufolge verdoppelt sich der gesamte Informationsbestand in etwa sieben Jahren, demnach kommt man weltweit auf ca. 14.000 Fachpublikationen täglich (Palme 1988, S.3 f.). Angesichts dieser Zahlen ist es verständlich, wenn Schlagwörter wie Informationsflut, Informationschaos oder der Superlativ »Information Overkill« deutlich auch auf Schattenseiten des strategischen Zukunftaspekts Information hinweisen. Die Chance, gut informiert zu sein und damit strategische Wettbewerbsvorteile sichern zu können, geht immer auch mit dem Risiko der betrieblichen Desinformation einher.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-85475-9_8 a8a8ef8f4cd65c5a2263e04b0ae21e23;de;;;6.1.;;;Wiederverwendung von Software-Elementen: Das Java RepositoryDie weltweite Entwicklung von Java-Applets und -Klassen eröffnet ein enormes Potential für die Wiederverwendung dieser Software-Elemente mit dem Internet als einer großen „Klassenbibliothek“. Das Hauptproblem der Nutzung von Klassenbibliotheken besteht häufig darin, die richtigen Klassen für bestimmte Problemstellungen zu finden. Zur Unterstützung der Suche, Evaluation und anschließendem Austausch von Java-Elementen wurde das Java Repository (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-85166-6_13 b6132415299571aaa86715456d036740;de;;;6.1.;;;Externe RahmenbedingungenDaher ist es am wahrscheinlichsten, daß sich die Lohnpolitik in Zukunft noch stärker als heute auf Betriebsebene abspielt. In Deutschland wird die Flexibilität des Flächentarifvertrages weiter zunehmen. Seine Abschaffung ist allerdings in nächster Zeit nicht zu erwarten. Die Entwicklung der Tarifgehälter wird sich in ganz Europa wohl zunehmend an der Produktivitätsentwicklung orientieren. Dies hält die Lohnstückkostenentwicklung konstant und verhindert Inflationsgefahren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-26502-4_1 65d3dfc575dcfe477e42a9e4e480dafa;de;;;6.1.;;;Personalmanagement-Funktionen im ÜberblickIn diesem Beitrag wird versucht, die zentralen Funktionen des Personalmanagements integriert darzustellen. Der zu erläuternde Matrix-Ansatz hat sich in der Forschung (in einer Studie über multikulturelles Personalmanagement), in der Lehre (zur Konzeption des „Schweizerischen Nachdiplomstudiums in Personalwesen“) und in der Praxis (in einer internationalen Firmengruppe) bereits bewährt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-48220-5_6 b88ac3fcb89263851fdd041ac5a47677;de;;;6.1.;;;Konstruktion und Anwendung einer Entwicklungsmethodik für Service- UnterstützungssystemeEin integriertes Produkt-Design, welches sowohl die Sachleistung, die Dienstleistung und die Informationssysteme berücksichtigt, ist aufgrund der gegenseitigen Einflüsse zwischen den drei Komponenten wesentlich. Besonders im technischen Kundendienst (TKD) ist dies relevant, da hier komplexe Produkte mit unterschiedlichen Arten von Dienstleistungen kombiniert werden. Allerdings existiert bis dato keine Methode zur systematischen Integration von Informationssystemen in den Produkt-Service-Engineering-Prozess. Daher wird im Folgenden eine Methode zur Konstruktion von Service-Unterstützungssystemen vorgestellt. Für die Gestaltung der Methode wurde ein Design-Science-Forschungsansatz verwendet. Mit dieser Methode leisten wir einen Forschungsbeitrag im Bereich des Service-Engineerings und der Konstruktion von Informationssystemen. Zusätzlich wird der praktische Beitrag mit Leitlinien für Designer von neuen Produkten, Dienstleistungen und Informationssystemen zur Bewältigung der Komplexität und Förderung der Informationsunterstützung der Techniker gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-56551-3_4 0cdfdc2a399512ef53dfded901a4e944;de;;;6.1.;;;Vergütung und Entwicklung: Motivationskonzepte für das BeschaffungsmanagementDem Beschaffungsmanagement („Supply Management“) kommt eine essentielle Rolle im Kampf um Wettbewerbsvorteile zu. Es geht über die schlichte Einkaufsfunktion hinaus und befaßt sich als wichtige Schnittstelle des Unternehmens zur beschaffungsseitigen Umwelt mit Sachgütern ebenso wie mit Dienstleistungen, Informationen und Arbeitskräften (vgl. Arnold 1999, Steiner 1999). Externen Kunden gegenüber sorgt das Beschaffungsmanagement als Beziehungsmanager und Ansprechpartner im Unternehmen für ein mehrschichtiges Kommunikationsnetzwerk, internen Kunden gegenüber für die zielorientierte Planung, Steuerung und Kontrolle der Abnehmer-Zulieferer-Beziehungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-01582-6_52 79faeaca859c425a71d439d5920df33e;de;;;6.1.;;;Politische Frauenorganisationen: Neue Kulturen im Cyberspace schaffenDieser Beitrag untersucht, wie die neue Informations- und Kommunikationstechnologie, vor allem Internet und Web in Kombination mit anderen Medien, Frauen neue Formen interpersoneller politischer Beziehungen und neue Formen der Entwicklung über traditionelle kulturelle Erfahrungen hinaus ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-91096-3_10 bc5b788307649376b7bd6506b8cad33e;de;;;6.1.;;;Geodatenbanksysteme als Basis für Geoweb-AnwendungenDie Nutzung von Geodatenbanksystemen zur Speicherung und Abfrage von geocodierten Inhalten dient dem Ziel, Offenheit und Interoperabilität zwischen Anwendungen zu schaffen. Geodatenbanksysteme besitzen geeignete Datentypen zur Speicherung der Geometrien und stellen hinreichend mächtige geometrische und topologische Operationen bereit, die zur Formulierung von Anfragen verwendet werden können. Das entsprechende Klassenmodell sollte gängigen Standards folgen. Zudem sind interne Mechanismen zur effizienten Bearbeitung von räumlichen Anfragen erforderlich. So können dann auf Basis von kommerziellen und Open-Source-Geodatenbanksystemen vielfältige Anwendungen für das Geoweb realisiert werden.;-;-;-;https://link.springer.com/article/10.1007/BF03340529 b4d8307270c0cf6f9d72bd4a8420ef70;de;;;6.1.;;;IT-Integration und Migration —Konzepte und VorgehensweisenDie Applikationslandschaft in den Unternehmen ist durch Heterogenität geprägt. Dies ist nicht nur eine Unzulänglichkeit in der gegenwärtigen Situation, sondern ein charakteristisches Merkmal, für das es diverse Gründe gibt. Da andererseits eine unternehmensübergreifend barrierefreie IT-Landschaft gefordert wird, werden verschiedene Lösungsansätze für die IT-Integration vorgestellt. Zukunftsweisend ist die serviceorientierte Architektur (SOA), da hier insbesondere in Verbindung mit der Web-Service-Technologie die wesentlichen Voraussetzungen für eine Integration auf der Basis von Standardadaptern sichtbar werden. Mit diesem Architekturmodell lässt sich eine unternehmensweite oder sogar unternehmensübergreifende Steuerung der Geschäftsprozesse mithilfe einer Prozess-Engine umsetzen. Die zugehörigen Migrationsprojekte weisen einige Besonderheiten auf, da unabhängig konzipierte Applikationen mit zum Teil recht unterschiedlichen Organisationsmodellen zu einem durchgängig funktionierenden System zusammengefügt werden müssen.;-;-;-;https://link.springer.com/article/10.1007/BF03341120 4992e24f2d82f28bf087bec548a6e42b;de;;;6.1.;;;Nicht-photorealistische Darstellungen zur Präsentation und Kommunikation zur InnenraumnavigationDie Darstellung von Innenräumen findet eine immer größere Verbreitung, so enthalten heute die bekannten Internetkartendarstellungen auch immer mehr Informationen über die Aufteilung des Gebäudeinneren. Mit diesem Beitrag wollen wir uns von der zweidimensionalen Darstellung des Gebäudeinneren lösen und eine informationsreduzierte dreidimensionale Darstellung vorstellen, die sich an den Grundzügen der nicht-photorealistischen Visualisierung orientiert. Neben dem Gebäudeinneren werden auch Navigationshinweise in die Darstellung integriert. Ein Nutzertest mit Gebäuden der Technischen Universität München gibt Aufschluss darüber, ob diese Art der Darstellung von der Nutzergruppe der Studenten angenommen wird und ihnen hilfreich bei der Wegfindung im Gebäude ist. Der Nutzertest hat ergeben, dass diese Art der Darstellung für ihre Klarheit gelobt und der Nutzer bei seiner Navigationsaufgabe unterstützt wird, jedoch der Grad der Detaillierung der (Innenraum-) Darstellung weiterer Untersuchungen bedarf.;-;-;-;https://link.springer.com/article/10.1007/BF03544116 baec35ea64264f5fc952e2072fdf44ac;de;;;6.1.;;;Konzeptueller und logischer Data-Warehouse-EntwurfIm Data-Warehouse-Bereich gibt es sowohl auf der konzeptuellen als auch auf der logischen Ebene unterschiedliche Modellierungsansätze, deren Entwicklung sich in der Regel an typischen Fragestellungen aus dem Bereich des Online Analytical Processing (OLAP) orientierte. Daneben spielen aber auch andere Ansätze zur Analyse der Daten in einem Data Warehouse eine bedeutende Rolle. Ein wichtiger Vertreter ist Data Mining, mit dessen Hilfe bislang unbekannte Muster und Zusammenhänge in Daten identifiziert werden können. Im vorliegenden Artikel wird untersucht, inwieweit sich die in der Literatur vorgeschlagenen konzeptuellen Datenmodelle für ein Data Warehouse eignen, das OLAP- und Data-Mining-Analysen gleichermaßen unterstützt. Hierzu wird das COCOM-Modell, das auf den Modellierungsmöglichkeiten verschiedener publizierter Modelle aufbaut, vorgestellt und bewertet. Für das logische Schema eines Data Warehouse wird häufig ein sogenanntes Star-Schema oder ein Snowflake-Schema erstellt. Für diese und weitere Schematypen wird analysiert, welchen Einfluss die Wahl des logischen Schemas auf Anwendungen aus den Bereichen OLAP und Data Mining hat. Wichtige Kriterien sind hier unter anderem der Informationsgehalt und die Performanz. Insgesamt zeigt dieser Beitrag, dass das COCOM-Modell und das Star-Schema eine gute Grundlage für den integrierten Einsatz von OLAP und Data-Mining bilden.;-;-;-;https://link.springer.com/article/10.1007/s00450-003-0131-7 85af52929b4caae5b4a4844fcbe7ed6b;de;;;6.1.;;; Objektorientierter Entwurf eines flexiblen Workflow-Management-Systems Dieser Beitrag enthält die wesentlichen konzeptionellen Überlegungen zur Entwicklung eines flexiblen Workflow-Management-Systems. Ausgehend von einer Diskussion möglicher Modellierungsalternativen wird unter Verwendung objektorientierter Modellierungstechniken ein Workflow-Meta-Schema entwickelt, das die relevanten Entitäten klassifiziert und ihre Beziehungen abbildet. Anhand eines Beispiels werden die getroffenen Entwurfentscheidungen ausführlich begründet. Schließlich werden Zustände und Zustandsübergänge von Workflow-Instanzen beschrieben, und es wird diskutiert, wie dynamische Veränderungen von Workflows zur Laufzeit durchgeführt werden können, um laufende Workflows dynamisch an veränderte Umweltbedingungen anzupassen.;-;-;-;https://link.springer.com/article/10.1007/s004500050112 6e1492e1b38cd69c9e22e0cbe03801c5;de;;;6.1.;;;Koordinierung der IT-SicherheitsnormungIT-Sicherheitsverfahren werden in den internationalen Normungsorganisationen ISO und IEC seit gut 20 Jahren unter der Projektführerschaft des DIN, Deutsches Institut für Normung e. V., genormt. Der Normenausschuss Informationstechnik und Anwendungen (NIA) im DIN stellt dabei den Vorsitzenden des internationalen Normungskomitees ISO/IEC JTC 1/ SC 27 „IT Security Techniques“ und auch dessen Sekretariat. Zusammen steuern diese derzeit mehrere Dutzend Normungsprojekte. Viele wichtige IT-Sicherheitsnormen wurden bisher erarbeitet (siehe DuD 1/2011). Das ;-;-;-;https://link.springer.com/article/10.1007/s11623-013-0008-2 c2a8d6d5029458e553cb8c4c86c204ad;de;;;6.1.;;;Modell der Selbstmanagementkompetenz in der AnwendungDas letzte Kapitel bezieht sich auf die Anwendung des Modells der Selbstmanagementkompetenz in der Praxis. Zuerst findet sich eine Übersicht über alle ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-22866-8_14 473bd1f048e867b63adbb52d88d0352c;de;;;6.1.;;;Einleitung, Definition und Stand der Umsetzung sowie der Bezug zu Industrie 4.0Das erste Kapitel gibt zunächst einen Rückblick auf die geschichtliche Entwicklung der Rechnerunterstützung für Geschäfts-, Planungs- und Produktionsprozesse in Unternehmen. Im Anschluss folgt eine Gegenüberstellung unterschiedlicher Definitionen zur DF, eine abschließende Begriffsdefinition für dieses Buch und eine Abgrenzung des Begriffs zu ähnlichen in Wissenschaft und Industrie verwendeten Begriffen. Danach wird der branchenbezogene Stand der Umsetzung der DF näher beleuchtet. Abschließend wird der Bezug zu Industrie 4.0 hergestellt und gezeigt, dass die Entwicklungen von Industrie 4.0 bis hin zur Smart Factory auf der DF aufbauen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-55783-9_1 f853735e07688737698f653d579db54d;de;;;6.1.;;;Handelsinformationssysteme — intra- und interorganisationale AspekteDie Schwächen derzeitiger Handelsinformationssysteme setzen zunächst die Strukturierung der Aufgabenbereiche von Handelsorganisationen und ihrer Zusammenhänge voraus. Mit dem Handels-H-Modell wird ein strukturierendes Framework als Ordnungsrahmen und Navigationshilfe durch alle von EDV-Systemen zu unterstützenden Aufgaben vorgestellt. Die Bearbeitung und Gestaltung von Abläufen in Handelsunternehmen kann durch Einsatz von Referenzmodellen für Funktionen, Daten und Prozesse wesentlich vereinfacht und beschleunigt werden. Zu den zukünftigen Herausforderungen an den Handel zählen insbesondere Entwicklungen, die unter dem Schlagwort Electronic Commerce diskutiert werden. Die elektronische Bearbeitung gesamter Transaktionen zwischen Handelsunternehmen und ihren Marktpartnern oder einzelner Phasen (z. B. Informationsphase, Anbahnungsphase) wird das klassische Aufgabengebiet des Handels wesentlich erweitern. Volkswirtschaftliche Ansätze, insbesondere die Transaktionskostentheorie, liefern Erklärungsmuster für das Auftreten neuer Formen des Handelns im Handel.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-10279-3_16 737d85053caec99eff7f7a2fe4b05f4e;de;;;6.1.;;;Aktueller Stand zum Thema Online-TestsIn zunehmendem Maß setzen Unternehmen internetbasierte Dienste für verschiedene Aufgaben ein. E-Commerce, also der Austausch von Waren und Dienstleistungen über das Internet, und E-Business, der Einsatz von vernetzten Informations- und Kommunikationstechnologien zur effizienteren Geschäftsabwicklung erfreuen sich einer anhaltend steigenden Verbreitung (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78919-2_1 20512ecb883da306e08eeb585e206289;de;;;6.1.;;;Vom Data Warehouse zum Business Performance Management — Anforderungen an das MetadatenmanagementBusiness Performance Management in Verbindung mit Data Warehousing und einem effizienten Metadatenmanagement bildet heute die Basis, um in Unternehmen einheitliche und stufengerechte Führungsinformationen aufzubereiten. Die flexiblen Anforderungen des Managements nach Informationen stellen das Data Warehousing vor immer grössere Herausforderungen. Verschiedene Praxisbeispiele zeigen, dass diese Anforderungen realisierbar sind und ein hohes Nutzenpotential aufweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55477-3_12 1e1adebea9479fcd8b9a813cc778666b;de;;;6.1.;;;Evolution der Organisation durch InformationstechnologieDie Informationstechnologie beeinflusst neben gesellscftlichen Veränderungen zunehmend viele Bereiche des organisatorischen Lebens, auch die von finanzdienstleistungsorientierten Unternehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-56991-3_2 5b927fc405c493315ecc7fa5f5b571a0;de;;;6.1.;;;Ganzheitliches Fraud Management und der Schlüsselfaktor MenschDas Thema Wirtschaftskriminalität (englisch: „Fraud“) spielt in der Wirtschaft eine immer bedeutsamere Rolle, nachdem diese Thematik in den Unternehmen lange Zeit sogar mehr oder weniger negiert wurde. So waren Kommentare wie „Bei uns passiert so etwas nicht“, „Wir sind ja viel zu klein für so etwas“ oder „Da sprechen wir nicht drüber“ häufig anzutreffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-24637-2_14 a5eb223d0b4340cbfe93f9b06c61511a;de;;;2.2.;;;Abgleich und Verifizierung mehrerer stellarer Systeme in der Identifizierungsliste der Binärdateien Binäre und multiple stellare Systeme wurden mit verschiedenen Methoden und Werkzeugen beobachtet. Kataloge von Binärdateien verschiedener Beobachtungstypen sind unabhängig und verwenden inhärente Sternidentifikationssysteme. Katalogzeilen, die Komponenten stellarer Systeme beschreiben, beziehen sich auf Kennungen von Durchmusterungen und Katalogen einzelner Sterne. Das Problem der Kreuzidentifikation stellarer Objekte, die in Himmelsdurchmusterungen und Katalogen von Doppelsternen unterschiedlicher Beobachtungstypen enthalten sind, erfordert nicht nur die Kombination von Listen bestehender Identifikatoren von Doppelsternen, sondern vielmehr übereinstimmende Komponenten und mehrere Systeme und Komponentenpaare durch ihre astrometrischen und astrophysikalischen Parameter. Vorhandene Identifikatoren werden auf ihre Zugehörigkeit zu übereinstimmenden Komponenten, Paaren und Systemen überprüft. Danach können sie aufeinander abgestimmt werden. Der in der Arbeit vorgestellte Rahmen des Multi-System-Crossmatching verwendet Domänenwissen von Binärdateien verschiedener Beobachtungstypen, um Sätze von Matching-Kriterien zu bilden. Die Identification List of Binaries (ILB) wurde nach einem genauen Abgleich von Systemen, ihren Komponenten und Paaren aller Beobachtungstypen erstellt. Diese Arbeit setzt die Erforschung binärer und multipler Systemidentifikationsverfahren fort.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-96553-6_8 072a964b6ea4e43337a6f502dae10e3a;de;;;2.2.;;;MB+tree: Ein dynamisch aktualisierbarer Metrikindex für die Ähnlichkeitssuche Eines der häufigsten Abfragemuster besteht darin, ungefähre Übereinstimmungen mit einem bestimmten Abfrageobjekt in einer großen Datenbank zu finden. Diese Art der Abfrageverarbeitung wird als Ähnlichkeitssuche in einem metrischen Raum bezeichnet. In diesem Papier schlagen wir einen neuen metrischen Index MB+Baum vor, genannt;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45151-X_34 60867a537786a60de47e0d3f595a6ba0;de;;;6.1.;;;Zielsetzungen und Aufbau des BuchesDieses Buch vermittelt Grundlagenwissen im Lean Management. Im Vordergrund steht eine systematische und auf das Wesentliche konzentrierte, gleichwohl umfassende Einführung in das Themengebiet. Damit soll gleichzeitig den weitverbreiteten begrifflichen und konzeptionellen Unklarheiten und der Gefahr der „Verflachung“ der Besonderheiten durch zu starke Ausweitung des Sujets entgegengewirkt werden. Auf der Basis einer kritischen begrifflichen und konzeptionellen Analyse sollen differenziert praxisnahe Lösungsansätze in Kernbereichen des Lean Management aufgezeigt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-90752-3_3 26b05874fd2ee0d9ad4f1963ec9d1fab;de;;;6.1.;;;Terminologie à la carte: Besonderheiten der Terminologiearbeit in der Deutschsprachigen Gemeinschaft BelgiensDieser Aufsatz legt dar, wie sich das komplizierte Staatsgefüge des belgischen Föderalstaats sowie die Plurizentralität der deutschen Sprache auf die Erarbeitung der deutschen Rechtsterminologie für Belgien auswirken. Nach einer kurzen Erläuterung der Position der Deutschsprachigen Gemeinschaft im föderalen Belgien, einer Übersicht über die Quellen deutschsprachiger Rechtstexte in Belgien und Erläuterungen zur Funktion und Arbeitsweise des Ausschusses der Deutschsprachigen Gemeinschaft für die deutsche Rechtsterminologie widmet sich der Aufsatz anhand einiger nicht erschöpfender Beispiele den besonderen Herausforderungen, denen sich der Terminologieausschuss bei seiner Arbeit stellen muss.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-58949-6_12 5e779dabe148d3a87a466163bdeeaf36;de;;;6.1.;;;Produktionssynchrone ZulieferungskonzepteNeben der Bevorratung und der insbesondere im Anlagengeschäft üblichen fallweisen Einzelbeschaffung wird seit Ende der 70er Jahre in der englisch- und deutschsprachigen Fachliteratur zunehmend die Idee der produktionssynchronen Beschaffung diskutiert. Während die ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-99462-2_13 190ad98c6761ec8e7faa0bebec12d343;de;;;6.1.;;;Problemstellung der UntersuchungAls stark exportabhängige und rohstoffarme Industrienation ist die deutsche Volkswirtschaft auf die ständige Entwicklung neuer, innovativer Güter und Dienstleistungen angewiesen, um sich an den ständigen wirtschaftlichen Strukturwandel anpassen zu können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-82009-9_1 a3e64317325bf8caae053318ab0c5cfa;de;;;6.1.;;;Mobile Communities — Erweiterung von Virtuellen Communities mit mobilen DienstenIm Leben von Menschen steht soziales Miteinander im Vordergrund. Von Kindesbeinen an besitzt der Mensch eine natürliche Neigung zur Bildung von Gemeinschaften. Waren Gruppen früher an Raum und Zeit gebunden, so werden diese Restriktionen durch die globalen Konmiunikationsmöglichkeiten des Internets überwunden. Analog zur realen Welt organisieren sich Menschen mit gleichen Interessen in elektronischen Gemeinschaften, sog. Virtuellen Communities (vgl. Reichwald/Fremuth/Ney 2001).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-90695-3_31 6db44efdb88a4311abb1b22fcac5a43b;de;;;6.1.;;;Lean Hospital Management – Neues Vokabular für das ControllingLean Management ist ein Leadership-orientierter Ansatz, der von sich aus wenig Bezug zu den gängigen Managementsystemen einer Organisation bildet. Statt sich auf Ziele, Anreize und Kennzahlen zu beziehen, fokussiert sich Lean Management auf die Initiative des Einzelnen, die Delegierung von Aufgaben und großflächige Motivation für vernetzte Aktivitätsketten und querfunktionale Geschäftsprozesse. Dieser Aufsatz empfiehlt hierfür, im Controlling den Fokus auf Pflicht, Verantwortung und Rolle des einzelnen Mitarbeiters zu richten. Hierdurch lässt sich die Arbeitsbeschreibung eines jeden Mitarbeiters problematisieren. Zweitens ermöglichen diese Begriffe eine praxisnahe Kontextualisierung abstrakter Geschäftsprozesse. Und drittens lassen sich durch die Anwendung dieser Begriffe konkrete Leadership-Initiativen mit abstrakten Managementsystemen verbinden. Im Rahmen von Lean (Hospital) Management besteht die Herausforderung für das Controlling nicht mehr in der Kalkulation, sondern in der fortlaufenden Moderation organisatorischer Aktivitäten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-21710-5_3 777e18bf6a5f5f6aecce7ef97c80fe59;de;;;6.1.;;;Erfolgspotenziale durch VernetzungBetrachtet man die in den vorherigen Kapiteln adressierten Problemfelder, verwundert es nicht, dass über 70% der Marketiers mit den Prozessen und Ergebnissen in ihrer Abteilung unzufrieden sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-00532-0_5 15b5fe80b3cc1b27b7373e213407518c;de;;;6.1.;;;Resilienz als Perspektive auf gesellschaftliche ProzesseDas Konzept der Resilienz gehört nicht zu den klassischen Grundbegriff en der Soziologie. Dennoch wird auf dieses momentan in vielfacher Weise in der soziologischen Diskussion Bezug genommen – mit unterschiedlichen Schwerpunktsetzungen, hinsichtlich diverser Anwendungsfelder und letztlich auch auf Basis divergierender Verständnisse des Konzepts.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-05999-6_3 76cd8b271dc62482b64d0183f03b5df1;de;;;2.2.;;;Leistungsbewertung eines groß angelegten Objekterkennungssystems unter Verwendung des Bag-of-Visual-Word-Modells Die Objekterkennungstechnologie wird normalerweise zum Erkennen spezifischer Objekte verwendet, wie zum Beispiel Buchumschläge, Orientierungspunkte, Fahrzeuge usw. Diese Technologie wird in den meisten Situationen durch mehrdimensionale lokale Bilddeskriptoren unterstützt. Diese Deskriptoren sind so konzipiert, dass sie gegenüber Umgebungsänderungen wie Beleuchtungsänderungen, Blickwinkeländerungen, Maßstabsänderungen usw. robust sind. Wenn Ihre Datenbank viele Zielobjekte enthält, ist die Objekterkennung mithilfe einer großen lokalen Bilddeskriptordatenbank möglicherweise nicht trivial Aufgabe aufgrund der hohen Dimensionalität der lokalen Bilddeskriptoren. Für konsistente Antworten aus einer großen Datenbank mit einer angemessenen Zeitverzögerung benötigen wir eine geeignete Datenstruktur, die die Indizierungs- und Abfragefunktionalität unterstützt. Ein Vokabularbaum ist eine Datenstruktur, die auf lokalen Bilddeskriptoren basiert, und diese Datenstruktur wird üblicherweise verwendet, um mit riesigen Datenbanken fertig zu werden, die lokale Bilddeskriptoren enthalten. Durch die Verwendung eines Vokabularbaums kann ein lokaler Bilddeskriptor auf die Blattknoten-ID eines Vokabularbaums abgebildet werden, wodurch ein visuelles Wort für die Objekterkennung konstruiert wird. Visuelle Wörter werden dann effektiv von einer traditionellen Text-Retrieval-Engine genutzt. In dieser Studie haben wir ein groß angelegtes Objekterkennungssystem unter Verwendung eines Vokabularbaums aufgebaut, der Blattknoten von 1 Million Scale-Invariant Feature Transform (SIFT)-Deskriptoren aufweist, was der vielversprechendste lokale Bilddeskriptor in Bezug auf Präzision ist. Wir implementieren das vorgeschlagene System unter Verwendung öffentlich verfügbarer Software, so dass weitere Verbesserungen und/oder Reproduzierbarkeit leicht erreicht werden können. Anschließend verglichen und bewerteten wir die Leistung des vorgeschlagenen Systems mit dem aktuellen MPEG CDVS (Compact Descriptors for Visual Search)-Standard unter Verwendung einer Datenbank, die zweidimensionale planare Objektdatensätze von drei Kategorien mit einer Million Distraktorenbildern enthält. Zusätzlich zu diesen Datensätzen, die denen von CDVS entsprechen, fügen wir einen neuen Datensatz hinzu, der realistische Okklusions- und Clutter-Effekte nachahmt. Experimentelle Ergebnisse zeigen, dass die Leistung unseres vorgeschlagenen Systems mit der des CDVS vergleichbar ist und eine Genauigkeit von 90 % bei einer Abrufzeit von 5 s erreicht. Wir finden auch Merkmale des Wortschatzbaums, die die Anpassung an eine spezifische Anwendungsdomäne einschränken.;-;-;-;https://link.springer.com/article/10.1007/s11042-014-2152-6 8ee5f7c57fad3cd783b8d4492f5860fa;de;;;2.2.;;;Multi-Attribute-Börsenmarkt: Theorie und Experimente Das Internet hat Möglichkeiten für einen effizienten Online-Handel eröffnet, und Forscher haben Algorithmen für verschiedene Auktionen sowie Börsen für standardisierte Waren entwickelt, jedoch wenig Arbeit an Börsen für komplexe nicht standardisierte Güter geleistet. Wir schlagen ein formales Modell für den Handel mit komplexen Gütern vor, präsentieren ein Börsensystem, das es Händlern ermöglicht, Käufe und Verkäufe durch mehrere Attribute zu beschreiben, und geben die Ergebnisse seiner Anwendung auf einen Gebrauchtwagenmarkt und einen Markt für Unternehmensanleihen an.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44886-1_57 e87e8a15efbdc8299fa1f65db0952074;de;;;6.1.;;;Web 2.0 als pädagogische HerausforderungWeb 2.0-Anwendungen zeichnen sich durch eine fortwährende Dynamik aus. Charakteristisch für diese Entwicklung sind die Partizipation der Nutzer und der permanente Austausch der Beteiligten. Neue Formen von Beteiligung, Teilnahme, Mitwirkung und Mitbestimmung kristallisieren sich heraus. Kennzeichnend für diese Bewegung ist eine Ethik der Kooperation. Kollektiv werden Ressourcen erschlossen, Kompetenzen und Potenziale zur Verfügung gestellt. Es handelt sich um ein auf ein hedonistisches Interesse beziehendes Unterstützungssystem auf Gegenseitigkeit. Kooperiert wird im Rahmen gemeinsamer Angelegenheiten. Web 2.0 fördert die Tendenz, dass die NutzerInnen Personen mit gleichen Interessen und/oder Intentionen finden. Es handelt sich um auf Tauschprinzip beruhende Beziehungen, bei der die Teilnahme freiwillig ist und eine Personenorientierung vorherrscht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-92135-8_11 26243dc1eb2cc3afd939a9e6c1f8e07f;de;;;2.2.;;;Ein neuartiges Air-Index-Schema für Twig-Abfragen in On-Demand-XML-Datensendungen Data Broadcast ist ein effizienter Weg zur Informationsverbreitung in drahtlosen mobilen Umgebungen, und On-Demand XML Data Broadcast ist eines der wichtigsten Forschungsthemen in diesem Bereich. Die Indizierung von XML-Daten auf dem drahtlosen Kanal ist für dieses Problem von entscheidender Bedeutung, da das Energiemanagement in drahtlosen mobilen Umgebungen sehr wichtig ist. Frühere Arbeiten haben sich auf Luftindexschemata für Einzelpfadabfragen konzentriert. In diesem Papier schlagen wir ein neuartiges Luftindexschema vor, das präzise Luftindizes für Twig-Abfragen in On-Demand-XML-Datensendungen erstellt. Wir übernehmen die Document Tree-Struktur als grundlegende Luftindexstruktur für Twig-Abfragen und schlagen vor, redundante Strukturen der grundlegenden Document Tree-Indizes zu beschneiden, um den Energieverbrauch zu reduzieren. Dann schlagen wir vor, alle beschnittenen Indizes zu einem zusammenzufassen, wodurch Strukturredundanzen zwischen den Indizes beseitigt werden können, um den Energieverbrauch weiter zu reduzieren. Unsere vorläufigen Experimente zeigen, dass unser Luftindexschema sehr effektiv und effizient ist, da es präzise Luftindizes erstellt und Twig-Abfragen unterstützt, ohne an Präzision zu verlieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03573-9_35 6f85b91517490e51c86580dd3cae8061;de;;;2.2.;;;Modifizierte 9DLT-Matrix für die Ähnlichkeitssuche von Linienzeichnungsbildern Es wird ein Versuch unternommen, räumliche Beziehungen wahrzunehmen, die zwischen den generischen Komponenten von Strichzeichnungsbildern existieren, um deren Ähnlichkeitsabruf zu ermöglichen. Die vorgeschlagene Arbeit basiert auf einer modifizierten 9DLT-Matrixdarstellung. Das konventionelle Konzept der 9DLT-Matrix wurde darauf abgestimmt, mehrfaches Auftreten identischer Komponenten in Bildern zu berücksichtigen. Ein neues Ähnlichkeitsmaß zum Schätzen des Ähnlichkeitsgrades zwischen zwei 9DLT-Matrizen, die Bilder darstellen, wird eingeführt und zum Abrufen von Strichzeichnungsbildern verwendet. Eine Datenbank mit 118 Strichzeichnungsbildern wurde erstellt, um die Wirksamkeit des vorgeschlagenen Modells für die Ähnlichkeitssuche durch umfangreiche Experimente zu untermauern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77046-6_17 1a617764f7c16cc12c05b3b5e5f35782;de;;;2.2.;;;Untersuchung von Methoden zur Reduzierung der Dimensionalität von Features zur Verbesserung der automatischen Sportbildanmerkung Heutzutage erfordern Multimedia-Informationen den Bedarf, effiziente Techniken für bessere Annotations- und Abrufzwecke zu untersuchen und anzuwenden. Bei der inhaltsbasierten Indexierung werden im Allgemeinen Merkmale niedriger Ebene aus Bildern extrahiert, um als Bilddeskriptoren zu dienen. Abgesehen davon, dass der Deskriptor einen Rechenaufwand mit sich bringt, kann das Lernmodell auch zu einer Überanpassung neigen, was zu einer Leistungsverschlechterung führt. Diese Arbeit löst solche Probleme im Sportbildbereich, indem sie Techniken zur Reduzierung der Merkmalsdimensionalität für das Abrufen und Annotieren von Bilddatensätzen vorschlägt. Es werden verschiedene Techniken untersucht, wie Information Gain, Gain Ratio, Chi-Square und Latent Semantic Analysis (LSA) und für die Klassifizierung von Sportbildern mit Hilfe des Klassifikators Support Vector Machine (SVM) angewendet. Es wird ein Vergleich zwischen den Leistungen der alleinigen Anwendung von SVM und der Einbeziehung der verschiedenen Reduktionsmethoden vorgestellt. Experimentelle Ergebnisse zeigen, dass die SVM-Klassifizierungsgenauigkeit 76,4% beträgt, während die Integration der LSA-Technik die Genauigkeit auf 96% erhöht, während die anderen Techniken eine Genauigkeit von 74% bei einer Reduzierung des Merkmalsraums von 50% aufzeichnen.;-;-;-;https://link.springer.com/article/10.1007/s11042-017-5417-z 987526779dc6f972cabdd8b746a5c588;de;;;2.2.;;;Ein räumlicher Index mit MBR-Kompression und Hashing-Technik für den mobilen Kartendienst Während die Menge an Geodaten enorm und räumliche Operationen zeitintensiv sind, verfügen mobile Geräte über begrenzte Speicher und geringe Rechenressourcen. Daher sollte ein räumlicher Index für mobile Kartendienste klein sein und auch die Kandidatenobjekte einer räumlichen Operation effizient herausfiltern. Dieses Papier schlägt einen räumlichen Index namens MHF (Multilevel Hashing File) für den mobilen Kartendienst vor. Der MHF hat eine einfache Struktur für die Speichernutzung und verwendet eine Hashing-Technik für die Sucheffizienz. Dieses Papier entwirft auch ein Kompressionsschema von MBR (Minimum Bounding Rectangle), genannt HMBR. Obwohl das HMBR-Schema das Volumen des MBR auf fast ein Drittel reduziert, erreicht es dennoch eine gute Filtereffizienz, da bei kleinen Objekten, die einen großen Teil einnehmen, kein Informationsverlust durch Quantisierung stattfindet. Unsere experimentellen Tests zeigen, dass die vorgeschlagene MHF mit HMBR hinsichtlich des Indexvolumens, der Anzahl der MBR-Vergleiche, der Filtereffizienz und der Ausführungszeit räumlicher Operationen für mobile Geräte geeignet ist.;-;-;-;https://link.springer.com/chapter/10.1007/11408079_58 2d2b410115c1bba6199bc2b032affbed;de;;;2.2.;;;Reduzieren des Umbenennungs-Overheads in vollständig pfadindizierten Dateisystemen Vollständig pfadindizierte Dateisysteme verwenden eine Schlüsselwertdatenbank, um die vollständigen Pfadnamen von Dateien und deren Metadaten zu speichern. Mit diesem Muster kann die E/A-Effizienz verbessert werden, da die Daten in Scan-Reihenfolge im persistenten Speicher abgelegt werden. Es führt jedoch zu einem unerträglichen Aufwand beim Umbenennen eines Verzeichnisses, da die vollständigen Pfadnamen der Dateien in diesem Verzeichnis geändert wurden. In diesem Beitrag stellen wir vor;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29611-7_4 25d4bb63c43de9c919ccc40a0a4db30d;de;;;2.2.;;;OpenDLibG: Erweiterung von OpenDLib durch Nutzung einer gLite Grid-Infrastruktur Dieser Beitrag zeigt, wie ein bestehendes digitales Bibliothekssystem, OpenDLib, erweitert wurde, um es in die Lage zu versetzen, die Speicher- und Verarbeitungsfähigkeiten einer gLite Grid-Infrastruktur zu nutzen. Dank dieser Erweiterung kann OpenDLib nun eine viel größere Klasse von Dokumenten verarbeiten als in seiner ursprünglichen Version und kann folglich eine größere Klasse von Anwendungsdomänen bedienen. Insbesondere kann OpenDLib Dokumente verwalten, die große Speicherkapazitäten erfordern, wie bestimmte Arten von Bildern, Videos und 3D-Objekten, und sie auch nach Bedarf als Ergebnis einer rechenintensiven Bearbeitung eines dynamischen Datensatzes erstellen, obwohl dies mit eine billige Investition in Bezug auf Computerressourcen.;-;-;-;https://link.springer.com/chapter/10.1007/11863878_1 dd43fca277f6bcdd14af023b03020f5c;de;;;2.2.;;;Aberrante Expression eines „Darmmarkers“ Cdx2 beim Pylorusdrüsenadenom der Gallenblase Das Ziel dieser Studie war es, die Cdx2-Expression im Pylorusdrüsenadenom (PGA) der Gallenblase zu untersuchen. Wir überprüften 29 PGA-Fälle, von denen zehn (34,4%) und sieben (24,1%) eine intestinale Metaplasie (IM) bzw. Plattenepithelkarzinom (SM) aufwiesen. Die Immunfärbung für Cdx2, Beta-Catenin, MUC5AC, MUC2, MUC6 und M-GGMC-1 wurde durchgeführt und bewertet (0 = negativ, 1+ = <10%, 2+ = 10% bis <30%, 3+ = 30% bis <50%, 4+ = 50% bis <70%, 5+ = 70–100%). Obwohl die Werte relativ niedrig waren (1+ oder 2+), wurde Cdx2 in 27 Fällen (93,1%) häufig ausgedrückt. Nicht nur Becher- und/oder Paneth-Zellen waren positiv, sondern auch Nicht-IM-Zellen in PGAs, im Gegensatz zu der fehlenden Färbung in der Hintergrundschleimhaut. Cdx2-Werte korrelierten nicht mit denen von IM (;-;-;-;https://link.springer.com/article/10.1007/s00428-008-0680-z 5a0f4ed572655865bc8c42871df81429;de;;;2.2.;;;Dynamische Visualisierung bei der Modellierung und Optimierung schlecht definierter Probleme Wir betrachten Visualisierung als Werkzeug zur Entscheidungsoptimierung bei Problemen, bei denen das Modell und/oder die Ziele nicht genau definiert sind. Wir untersuchen vier spezifische Probleme, die unterschiedliche Entschlossenheitsgrade aufweisen. Das erste Problem betrifft eine reibungslose dynamische Darstellung von Daten, die an festen Standorten gesammelt wurden. Im Beispiel wollen wir die Abweichungen von einer Solltemperatur über Raum und Zeit minimieren. Das zweite und dritte Problem sind die dynamische Darstellung von Beobachtungen in Form von Mittelwerten über Regionen in Raum und Zeit und werden beispielhaft durch epidemiologische Daten veranschaulicht. Wir suchen nach räumlich-zeitlichen Mustern, die die effizientesten Wege der Prävention und Kontrolle vorschlagen können. Das vierte Problem kann als visuelle Indizierung bezeichnet werden. Wir führen explorative Analysen einer großen Sammlung komplexer Objekte durch. Das Beispiel ist ein dynamischer Index zu einer Sammlung von 30.000 Bildern. Wir suchen die „interessantesten“ Teilmengen von Bildern durch visuelle Inspektion des Index. In allen Fällen definieren wir geeignete Techniken für die visuelle Darstellung. Wir beschreiben die Soft- und Hardware.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-3437-8_30 1bbb121cbf55145e33cf746753abbf20;de;;;2.2.;;;Wann ist „nächster Nachbar“ sinnvoll? Wir untersuchen den Einfluss der Dimensionalität auf das „Nächster Nachbar“-Problem. Wir zeigen, dass sich unter einer Vielzahl von Bedingungen (viel breiter als unabhängige und identisch verteilte Dimensionen) mit zunehmender Dimensionalität die Entfernung zum nächsten Datenpunkt der Entfernung zum entferntesten Datenpunkt annähert. Um eine praktische Perspektive zu bieten, präsentieren wir empirische Ergebnisse sowohl zu realen als auch zu synthetischen Datensätzen, die zeigen, dass dieser Effekt für nur 10–15 Dimensionen auftreten kann.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-49257-7_15 9598ed3ec1b22cce2adfe8bb494dafae;de;;;2.2.;;;Erweiterung von EXPRESS für ungenaue und unsichere Modellierung von Engineering-Informationen Informationen mit Ungenauigkeit und Unsicherheit werden in der Konstruktion und Fertigung von Natur aus präsentiert. Die Natur der Ungenauigkeit und Ungewissheit ist Unvollständigkeit. Das Produktdatenmodell als Kern intelligenter Fertigungssysteme besteht aus allen relevanten Daten im Produktlebenszyklus. Es ist möglich, dass sowohl gestochen scharfe Daten als auch unvollständige Daten in das Produktdatenmodell involviert sind. EXPRESS als mächtiges Werkzeug zur Entwicklung eines Produktdatenmodells sollte daher für diesen Zweck erweitert werden. Unter Verwendung von Fuzzy-Sets und Möglichkeitsverteilungen erweitert dieses Dokument den EXPRESS, um die Modellierung von Fuzzy-Engineering-Informationen zu ermöglichen;-;-;-;https://link.springer.com/article/10.1007/s10845-005-5513-1 c9702c82fb9be30b3ec0d21e9cc20cd9;de;;;2.2.;;;Ein raum- und zeiteffizienter Algorithmus zur Konstruktion komprimierter Suffix-Arrays Nachdem die erste menschliche DNA in eine Sequenz von etwa 2,8 Milliarden Basenpaaren entschlüsselt wurde, haben sich viele biologische Forschungen auf die Analyse dieser Sequenz konzentriert. Theoretisch ist es nun möglich, einen Index für die menschliche DNA im Hauptspeicher unterzubringen, damit jedes Muster effizient lokalisiert werden kann. Dies ist auf den jüngsten Durchbruch bei komprimierten Suffix-Arrays zurückzuführen, der den Platzbedarf von;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45655-4_43 3fea11a6310096f747718d93612dccea;de;;;2.2.;;;Tintenabruf aus handschriftlichen Dokumenten Dieser Artikel vergleicht mehrere Information Retrieval (IR)-Methoden, die auf das Problem des Abrufens bestimmter Wörter aus einem handschriftlichen Dokument angewendet werden. Die verglichenen Methoden umfassen Varianten der Okapi-Formel und Latent Semantic Indexing (LSI), erkennungsbasiertes Retrieval und Stichwortsuche. Ein neuer Aspekt der vorgestellten Arbeit besteht darin, dass sie den Ausgabestapel eines Hidden-Markov-Modell-(HMM)-Handschrifterkenners mit einem 30.000-Wörter-Lexikon verwendet, um jedes handgeschriebene Wort in ein Dokument umzuwandeln, das dann zum Wiederauffinden von Dokumenten verwendet wird. Vorläufige Experimente an einer Datenbank mit 1158 Wörtern von 75 Autoren zeigen, dass die Stichwortsuche eine überlegene Präzision und Erinnerung für Textabfragen aufweist und dass Tintenabfragen zu geringfügigen Leistungseinbußen führen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44491-2_67 7695f8eb6a73d1293d2a2d5bc262892d;de;;;2.2.;;;Oligopole und aggregierte Marktmacht Ein Index der aggregierten Marktmacht in einer homogenen Güterindustrie ist eine reell bewertete Funktion der Lerner-Indizes der Monopolmacht der Unternehmen in der Branche. In diesem Beitrag wird eine Majorisierungsrelation entwickelt, die die von einer sehr breiten Klasse von aggregierten Marktmachtfunktionen erzeugte Ordnung impliziert und impliziert. Anschließend schlagen wir ein allgemeines Verfahren vor, um die Lerner-Indizes der Unternehmen einer Branche zu einem Gesamtindikator zusammenzufassen. Unter Annahmen über das Verhalten der Unternehmen und des Aggregators erhalten wir eine explizite Form des Index. Die von Saving (1970), Rader (1972), Cowling und Waterson (1976) sowie Encaoua und Jacquemin (1980) vorgeschlagenen Formen der aggregierten Marktmacht werden zu besonderen Fällen unserer allgemeinen Formulierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-78508-5_35 6471a4b400b1c8de76100c8deff3e84d;de;;;2.2.;;;Verwenden von Bildsegmenten im PicSOM CBIR-System Das inhaltsbasierte Bildabrufsystem (CBIR) PicSOM verwendet eine Vielzahl von Low-Level-Visualfunktionen zum Indizieren einer Bilddatenbank. In diesem Papier beschreiben wir die Implementierung der Segmentierung in das PicSOM-Framework. Das heißt, wir haben das System so modifiziert, dass Bildsegmente als Ergänzung zu ganzen Bildern verwendet werden, um die Abrufgenauigkeit zu verbessern. In einer Reihe von Experimenten vergleichen wir diese neue Methode mit dem PicSOM-Basissystem. Die Ergebnisse bestätigen, dass die gemeinsame Verwendung von Segmenten und Gesamtbildern immer die Genauigkeit des Abrufs erhöht.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45103-X_145 f3fcfeaccce0e7f0a67f041a96b8c3dc;de;;;2.2.;;;Translation Relationship Quantification: Ein clusterbasierter Ansatz und seine Anwendung auf Shakespeares Sonette Wir stellen eine Methode zur Quantifizierung der Übersetzungsbeziehung zwischen Quell- und Zieltexten vor. Bei dieser Methode unterteilen wir Quell- und Zieltexte in entsprechende Blöcke und clustern sie getrennt mit Wortphrasen, die durch einen Suffx-Tree-Ansatz extrahiert werden. Wir quantifizieren die Übersetzungsbeziehung, indem wir die Ähnlichkeit zwischen Quell- und Ziel-Clustering-Strukturen untersuchen. In diesem Vergleich wollen wir beobachten, dass ihre Ähnlichkeit sinnvoll ist, d. h. sie unterscheidet sich signifikant von zufällig. Das Verfahren basiert auf der Hypothese, dass Ähnlichkeiten und Unähnlichkeiten zwischen den Quellblöcken bei der Übersetzung nicht verloren gehen und zwischen den Zielblöcken wieder auftauchen. Zum Testen verwenden wir Shakespeares Sonette und ihre Übersetzung ins Türkische. Die Ergebnisse zeigen, dass unsere Methode erfolgreich Übersetzungsbeziehungen quantifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-9794-1_24 159aea357a19a49f7de155476dee99e9;de;;;2.2.;;;Die Zählung der Radioquellen Dem Rat von Professor Zel’dovich folgend, werde ich mit zwei Plattitüden beginnen – erstens, wenn wir die Auswirkungen der Zählung von Radioquellen betrachten, müssen wir uns ansehen;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-2220-0_7 c42f34ca87f2ac6776cfedc756c597dd;de;;;2.2.;;;Eine adaptive Bereichsabfrageoptimierungstechnik mit verteilten Replikaten Die Replikation ist ein Ansatz, der häufig verwendet wird, um die Ausführung von Abfragen zu beschleunigen, die an einen großen Datensatz gesendet werden. Es wird ein Kompilierzeit-/Laufzeit-Ansatz vorgestellt, um die Reaktionszeit des zweidimensionalen Bereichs zu minimieren, wenn ein verteiltes Replikat eines Datasets vorhanden ist. Das Ziel besteht darin, die Abfragenutzlast (und ihren Bereich) in Teilmengen zu unterteilen und diese so auf die Replikatknoten zu verteilen, dass die Antwortzeit eines Clients minimiert wird. Da jedoch Abfragegröße und Verteilungscharakteristiken von Daten (datendichte/sparse-Regionen) in unterschiedlichen Bereichen nicht von vornherein bekannt sind, ist es schwierig, einen effizienten Lastausgleich und eine parallele Verarbeitung über die unvorhersehbare Arbeitslast durchzuführen. Es wurde eine Technik vorgeschlagen, die auf der Erstellung und Manipulation dynamischer räumlicher Indizes für die Schätzung der Abfragenutzlast in verteilten Abfragen basiert. Die Wirksamkeit dieser Technik wurde bei Abfragen zur Analyse von archivierten erdbebengenerierten seismischen Datensätzen demonstriert.;-;-;-;https://link.springer.com/article/10.1007/s11771-014-1930-7 3792db889a5b3087476de708de2cf2f4;de;;;2.2.;;;Zeitliche Aggregation über Datenströme mit mehreren Granularitäten Die zeitliche Aggregation ist ein wichtiger, aber kostspieliger Vorgang für Anwendungen, die zeitveränderliche Daten verwalten (Data Warehouses, zeitliche Datenbanken usw.). In diesem Beitrag untersuchen wir das Problem der Berechnung zeitlicher Aggregate über Datenströme. Solche Aggregate werden mit mehreren Ebenen zeitlicher Granularität verwaltet: ältere Daten werden mit gröberen Granularitäten aggregiert, während neuere Daten mit feineren Details aggregiert werden. Wir präsentieren spezialisierte Indexierungsschemata für die dynamische und progressive Pflege von temporalen Aggregaten. Darüber hinaus können diese Schemata parametrisiert werden. Die Granularität sowie die entsprechenden Indexgrößen (bzw. Gültigkeitslängen) können dynamisch angepasst werden. Dies bietet ein nützliches Trade-O. zwischen Aggregationsdetail und Speicherplatz. Analytische und experimentelle Ergebnisse zeigen die Effizienz der vorgeschlagenen Strukturen. Darüber hinaus diskutieren wir, wie die Indexierungsschemata erweitert werden können, um die allgemeineren zeitlichen und raumzeitlichen Aggregationsprobleme zu lösen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45876-X_40 0c0b8444c704ef121bf3e70f84358fbb;de;;;2.2.;;;Effizientes Auffinden von am längsten andauernden Korrelationen in Sequenzdatenbanken Die Suche nach ähnlichen Teilsequenzen ist ein Kernmodul für verschiedene analytische Aufgaben in Sequenzdatenbanken. Typischerweise erfordern die Ähnlichkeitsberechnungen, dass Benutzer eine Länge festlegen. Es gibt jedoch keine robusten Mittel, um die richtige Länge für unterschiedliche Anwendungsanforderungen zu definieren. In dieser Studie untersuchen wir eine neue Abfrage, die in der Lage ist, die längsten hochkorrelierten Teilsequenzen in einer Sequenzdatenbank zurückzugeben, was insbesondere für Analysen ohne Vorkenntnisse bezüglich der Abfragelänge hilfreich ist. Eine grundlegende, aber teure Lösung besteht darin, die Korrelationen für jede mögliche Teilsequenzlänge zu berechnen. Um die Leistung zu steigern, untersuchen wir einen raumbeschränkten Index, der eine enge Korrelationsgrenze für Teilsequenzen ähnlicher Länge und Offset durch objektinterne und objektübergreifende Gruppierungstechniken bietet. Nach unserem besten Wissen ist dies der erste Index, der eine normalisierte Distanzmetrik von Teilfolgen beliebiger Länge unterstützt. Darüber hinaus untersuchen wir die Verwendung eines intelligenten Cache für plattenresidente Daten (z. B. Millionen von Sequenzobjekten) und eine auf Graphverarbeitungseinheiten basierende parallele Verarbeitungstechnik für häufig aktualisierte Daten (z. dauerhafte hochkorrelierte Teilsequenzen. Umfangreiche experimentelle Auswertungen sowohl an realen als auch an synthetischen Sequenzdatensätzen bestätigen die Effizienz und Effektivität unserer vorgeschlagenen Methoden.;-;-;-;https://link.springer.com/article/10.1007/s00778-016-0432-7 070531ab124410bbf6160df25bb15ae7;de;;;2.2.;;;Symbolerkennung: Aktuelle Fortschritte und Perspektiven Die Erkennung von Symbolen in grafischen Dokumenten ist eine intensive Forschungstätigkeit in der Gemeinschaft der Mustererkennung und Dokumentenanalyse. Ein zentrales Thema bei der Interpretation von Karten, technischen Zeichnungen, Diagrammen usw. ist die Erkennung von domänenabhängigen Symbolen gemäß einer Symboldatenbank. In dieser Arbeit betrachten wir zunächst die herausragendsten Symbolerkennungsmethoden aus zwei verschiedenen Blickwinkeln: Anwendungsdomänen und Mustererkennungsmethoden. Im zweiten Teil des Beitrags werden offene und nicht adressierte Probleme der Symbolerkennung beschrieben, deren aktuellen Stand der Technik analysiert und zukünftige Forschungsherausforderungen diskutiert. Daher werden in dieser Arbeit Themen wie Symboldarstellung, Matching, Segmentierung, Lernen, Skalierbarkeit von Erkennungsmethoden und Leistungsbewertung behandelt. Schließlich diskutieren wir die Perspektiven der Symbolerkennung in Bezug auf neue Paradigmen wie Benutzeroberflächen in Handheld-Computern oder Dokumentendatenbanken und WWW-Indexierung durch grafische Inhalte.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45868-9_9 31f6f61d56b9ce6e3af96921c6443090;de;;;2.2.;;;Anerkennung der Musiknotation: SSPR’90 Working Group Report Dieser Bericht fasst die Diskussionen der Working Group on the Recognition of Music Notation des IAPR 1990 Workshop on Syntactic and Structural Pattern Recognition, Murray Hill, NJ, 13.-15. Juni 1990 zusammen. Die Teilnehmer waren: D. Blostein, N. Carter , R. Haralick, T. Itagaki, H. Kato, H. Nishida und R. Siromoney. Die Diskussion wurde von Nicholas Carter moderiert und von Dorothea Blostein aufgezeichnet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-77281-8_32 010d61243d6c2acd4cfd5140f6fe62ba;de;;;2.2.;;;Ein grammatikbasierter funktionaler Syntheseansatz für komplexe Mechanismen durch die Zuweisung funktionaler Anforderungen an Grafikträger Die funktionsbasierte Synthese ist ein wichtiger Ansatz für die KI (künstliche Intelligenz)-basierte Typsynthese komplexer Mechanismen. Aufgrund eines Mangels an Wissen, um funktionelle Schlussfolgerungen vom Verhalten konstituierender Basismechanismen bis hin zum gesamten funktionalen Verhalten komplexer Mechanismen zu unterstützen, ist die KI-basierte Typsynthese von zusammengesetzten Mechanismen immer noch eine große Herausforderung. In diesem Beitrag wird ein grammatikbasierter Ansatz zur funktionalen Synthese vorgeschlagen, um die Typsynthese komplexer Mechanismen durchzuführen. Die funktionalen Syntheseregeln, in denen die funktionalen Anforderungen und die topologischen Verbindungen zwischen den funktionalen Gliedern enthalten sind, werden mit Hilfe von neun Arten von gemeinsamen funktionalen Anforderungen definiert, die hauptsächlich von komplexen mechanischen Systemen gestellt werden. Durch die Zuordnung einer Funktion sowie topologischer Verbindungen zu jedem Element des Grafikträgers nach den grammatikbasierten Funktionssyntheseregeln wird der Typsyntheseprozess für komplexe Mechanismen automatisch durchgeführt. Da die kreative Divergenzentwurfstechnik angewendet wird, kann dieses System den Syntheselösungsraum komplexer Mechanismen effizient erweitern und innovativere Entwurfsschemata für komplexe Mechanismen können ausgearbeitet werden. Bei extrem komplexen Mechanismen kann durch Aufteilen des Entwurfsproblems in mehrere Teile und Durchführen einer logischen Operation an jedem Teil die funktionsbasierte Synthese für komplexe Mechanismen auch durch Kombinieren der generierten Schemata aus jedem Teil gelöst werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20131-9_169 12744c95d6c2b84cb932b0e42cfd59fc;de;;;2.2.;;;Framework für die Auflösung räumlicher Abfragen zur Entscheidungsunterstützung mit Geospatial Service Chaining und Fuzzy Reasoning Geodaten spielen in verschiedenen Entscheidungssystemen eine entscheidende Rolle. Technologische Fortschritte haben es den Benutzern ermöglicht, über das Internet auf raumbezogene Funktionalitäten als Dienste zuzugreifen. In vielen Entscheidungsunterstützungssystemen ist es erforderlich, dass mehr als ein Dienst beteiligt ist, um Entscheidungsträgern zu helfen, was eine Verkettung von Diensten erfordert. Die Verkettung verteilter Geodatendienste erfordert den Umgang mit mehreren Heterogenitätsproblemen wie semantischen und syntaktischen Problemen. Darüber hinaus sind die Eigenschaften von Geodaten von Natur aus unscharf. Die Unschärfe kann in der thematischen Definition und in räumlichen Eigenschaften vorhanden sein. Dies kann zu unflexiblen und weniger genauen Entscheidungen führen. Um eine genauere Entscheidungsfindung zu ermöglichen, sollte daher die mit den räumlichen Informationen verbundene Unsicherheit erfasst werden. In diesem Beitrag wurde ein Ansatz für die Dienstverkettung in Entscheidungsunterstützungssystemen verfolgt, zusammen mit Fuzzy-Logik, um Benutzeranfragen aufzulösen und ungenaue Informationen zu verarbeiten. Service Chaining wurde für die Integration verteilter Geodatendienste verwendet, und Fuzzy-Logik wurde in Dienste integriert, um Unschärfe und Unsicherheit zu erfassen, die den Daten eigen sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19423-8_9 0b8e094f242d00d92541b253cc50c9ac;de;;;2.2.;;;Compiler-Optimierungen für das WAM Es wird eine Reihe von Implementierungstechniken der Warren Abstract Machine (WAM) vorgestellt. Diese Techniken und Kompilierungsstrategien sind für die Verwendung in einem hochoptimierten Prolog-Compiler für nativen Code konzipiert. Eine gründliche Kenntnis der WAM- und Prolog-Kompilierung wird vorausgesetzt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-16492-8_115 977cc1cf9a98a00e5330a44e5e3ad360;de;;;2.2.;;;Abruf von Farbbildern basierend auf Primitiven von Farbmomenten In dieser Arbeit wird ein Verfahren zum Wiederauffinden von Farbbildern basierend auf den Grundelementen von Farbmomenten vorgeschlagen. Zunächst wird ein Bild in mehrere Blöcke unterteilt. Dann werden die Farbmomente aller Blöcke extrahiert und in mehrere Klassen geclustert. Die mittleren Momente jeder Klasse werden als Primitive des Bildes betrachtet. Alle Primitive werden als Features verwendet. Da zwei verschiedene Bilder eine unterschiedliche Anzahl von Merkmalen aufweisen können, wird dann ein neues Ähnlichkeitsmaß vorgeschlagen. Um die Wirksamkeit der vorgeschlagenen Methode zu demonstrieren, wird eine Testdatenbank von Corel verwendet, um die Leistungen der vorgeschlagenen Methode mit anderen bestehenden zu vergleichen. Die experimentellen Ergebnisse zeigen, dass die vorgeschlagene Methode besser ist als andere.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45925-1_8 4f879c01f7a845959fd3059f1a043665;de;;;2.2.;;;Erweiterung der Leistungsfähigkeit der verschiedenen LSI-Versionen, die beim Dokumentenabruf verwendet werden Dieser Beitrag verdeutlicht die scheinbare Zufälligkeit und Verwirrung bei der Wahl verschiedener Abfragemethoden mit LSI, die in der aktuellen Literatur zur Text- und Bildsuche zu finden sind. Wir schlagen und testen auch einige modifizierte Abfrageansätze unter Verwendung der neuartigen Technik der Singulärwert-Reskalierung (SVR). Experimente mit standardisierten TREC-Datensätzen bestätigten die Wirksamkeit von SVR und zeigten ein Verbesserungsverhältnis von 5,6% gegenüber dem besten herkömmlichen LSI-Abfrageansatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-31970-2_12 9ccf1743a43e2c3881cf1b8d12256dd1;de;;;2.2.;;;Lokale topologische Beziehungen für komplexe Regionen Topologische Beziehungen zwischen räumlichen Objekten sind wichtig für die Abfrage, Argumentation und Indizierung von Daten in räumlichen Datenbanken. Diese Beziehungen sind qualitativ und beantworten Fragen nach den relativen Positionen (z. B. Unzusammenhängen oder Eindämmung) von räumlichen Objekten. Es wurden mehrere Modelle vorgeschlagen, die effektiv formale Sätze topologischer Beziehungen zwischen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73540-3_12 ec0f3cbd4b3eb54bd63f2447df3e6da8;de;;;2.2.;;;Erweiterung von R2RML mit Unterstützung für RDF-Sammlungen und -Container zur Generierung von MADS-RDF-Datensätzen Data Es ist eine bewährte Methode, die Verwendung von RDF-Sammlungen und -Containern beim Veröffentlichen von Linked Data zu vermeiden, aber manchmal schreiben Vokabulare wie MADS-RDF diese Konstrukte vor. Die Bibliothek des Trinity College Dublin baut ein neues Asset-Management-System auf, das von einer relationalen Datenbank unterstützt wird und möchte ihre Metadaten gemäß diesem Vokabular veröffentlichen. Wir haben uns für die Verwendung der W3C-Empfehlung R2RML entschieden, um die Datenbank mit RDF-Datensätzen zu verknüpfen, aber R2RML unterstützt leider keine Sammlungen und Container. In diesem Papier schlagen wir eine Erweiterung von R2RML vor, um dieses Problem anzugehen. Wir unterstützen das Sammeln von Sammlungen und Containern aus verschiedenen Feldern in einer Zeile einer (logischen) Tabelle sowie über Zeilen hinweg. Außerdem schreiben wir vor, wie die erweiterte R2RML-Engine mit benannten Graphen im RDF-Datensatz sowie mit leeren Mengen umgeht. Beispiele und unsere Demonstration an einem Teil der Bibliotheksdatenbank belegen die Machbarkeit unseres Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67008-9_42 bb47fe6813f7361bca74fcd2797f8506;de;;;2.2.;;;Schriftklassifizierung mit NMF In diesem Artikel schlagen wir eine Methode zur Schriftklassifizierung in gescannten Dokumenten vor, die eine nicht negative Matrixfaktorisierung (NMF) verwendet. Mit NMF extrahieren wir automatisch räumlich lokale Merkmale, die ausreichen, um jede Schriftart zu klassifizieren. Die Eignung der Merkmale zur Klassifizierung einer bestimmten Schriftart wird in den experimentellen Ergebnissen gezeigt. Es wird erwartet, dass das vorgeschlagene Verfahren die Leistung von Systemen zur optischen Zeichenerkennung (OCR), zur Dokumentenindexierung und zum Wiederauffinden erhöht, wenn solche Systeme einen Schriftklassifizierer als Vorprozessor verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45179-2_58 72161d53ece615d066c471b92ff0d902;de;;;2.2.;;;Aufbau eines Bowling-Informationssystems mit Videoinhaltsanalyse In diesem Beitrag stellen wir das Design und die Implementierung eines Bowling-Informationssystems vor. Dieses System enthält drei Arten von Bowlingspielinformationen, einschließlich der Bowlingvideoinhaltsinformationen, der spielbezogenen Informationen und der Spielerinformationen. Die MPEG-7-Beschreibungsschemata werden verwendet, um diese Arten von Informationen und die Beziehungen zwischen ihnen zu beschreiben. Diese Informationen werden durch einen Annotator erhalten, in den eine manuelle konzeptionelle Merkmalsanmerkung (für die spieler- und spielbezogenen Informationen) und eine automatische Wahrnehmungsmerkmalsextraktion (für die Videoinhaltsinformationen) integriert sind. Mehrere interessante Ereignisse im Video wie Streiks und die wichtigen Frames werden durch die automatische Analyse des Videoinhalts ermittelt. Mit einer interaktiven Benutzeroberfläche werden die Abfragen der Benutzer in einen XQuery-Pfadausdruck umgewandelt, um die erforderlichen Informationen über die Bowlingspiele abzurufen, um die Fähigkeiten des Bowlings zu erlernen. Neben der Implementierung des Systems führen wir auch Experimente durch, um die Wirksamkeit der automatischen Extraktion von Videoinhaltsinformationen zu zeigen.;-;-;-;https://link.springer.com/article/10.1007/s11042-005-0452-6 62cfc762e1414b620da3e208e14c3123;de;;;2.2.;;;Modellierung und Implementierung digitaler semantischer Bearbeitungsmodelle für 5-Achs-Bearbeitungsanwendungen Um die artikulierte Verbindung zwischen Design und Fertigung zu realisieren, ist es notwendig, interoperable digitale Werkzeuge zu realisieren, die die Semantik von Informationen unabhängig von irgendwelchen Implementierungen darstellen. Es muss sichergestellt werden, dass die Qualität der Forminformationen die Beschränkung der Interoperabilität der Forminformationen überwindet. In der Fertigung können die interoperablen CNC-Bearbeitungssysteme als in der Lage sein, 1) nahtlosen Informationsfluss, 2) merkmalsbasierte Bearbeitung usw Anforderungen vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84800-267-8_36 b01459ddeef091f85223f78dc2dfda2d;de;;;2.2.;;;Compound-Behandlung von verketteten Declustered-Replikaten mit einem parallelen B-Baum für hohe Skalierbarkeit und Verfügbarkeit Skalierbarkeit und Verfügbarkeit sind Schlüsselmerkmale paralleler Datenbanksysteme. Um Skalierbarkeit zu realisieren, wurden viele dynamische Lastenausgleichsmethoden mit Datenplatzierung und parallelen Indexstrukturen auf einer parallelen Infrastruktur mit gemeinsam genutztem Nichts vorgeschlagen. Die Datenmigration mit bereichspartitionierter Platzierung unter Verwendung eines parallelen Btree ist eine Lösung. Die Kombination aus Bereichspartitionierung und verketteten Declustered-Replikaten bietet hohe Verfügbarkeit bei gleichzeitiger Beibehaltung der Skalierbarkeit. Die unabhängige Behandlung der Primär- und Backup-Daten in jedem Knoten führt jedoch zu langen Failover-Zeiten. Wir schlagen eine neuartige Methode zur Behandlung von verketteten declustered Replikaten unter Verwendung eines parallelen B-Baums, genannt Fat-Btree, vor. Bei der vorgeschlagenen Methode bietet der einzelne Fat-Btree Zugriffspfade sowohl auf Primär- als auch auf Backup-Daten in allen Prozessorelementen, was die Ausfallzeit erheblich verkürzt. Darüber hinaus ermöglicht es einen dynamischen Lastausgleich ohne physische Datenmigration und verbessert die Speicherplatznutzung für die Verarbeitung des Indexes. Experimente mit PostgreSQL auf einem 160-Knoten-PC-Cluster demonstrieren den Effekt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15251-1_4 efe1534a9cb030fb8b2eb1cf108204f7;de;;;2.2.;;;Membranlipidphasenverhalten und Lipid-Protein-Wechselwirkungen Eines der charakteristischsten Merkmale fast aller biologischen Membranen ist, dass sie ein hochkomplexes Sortiment an polaren Lipiden enthalten. Es können nur wenige Hauptlipidklassen erkannt werden, aber innerhalb jeder dieser Hauptlipidklassen gibt es ein ganzes Spektrum molekularer Spezies, die sich in Art, Länge und Anzahl der ungesättigten Reste ihrer hydrophoben Komponente unterscheiden. Es besteht allgemeiner Konsens, basierend auf Beobachtungen, die mit einer Vielzahl von biophysikalischen Methoden gewonnen wurden, dass die Lipidbestandteile aller biologischen Membranen in einer Doppelschichtkonfiguration angeordnet sind, in der sich die polaren Gruppen außen befinden, in Kontakt mit dem wässrigen Medium, und die Kohlenwasserstoffsubstituenten sind nach innen orientiert, um eine hydrophobe Domäne zu bilden, die Wasser ausschließt. Auf der Grundlage des hydrophilen zu hydrophoben Gleichgewichts innerhalb der Moleküle wurde argumentiert, dass Membranlipide eine relativ niedrige kritische Mizellenkonzentration und eine diskrete Verteilung von Domänen innerhalb des Moleküls aufweisen und dies für die Bildung einer stabilen Doppelschichtstruktur verantwortlich ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-9362-7_2 ee78484650006fbccb60f93a58d6894d;de;;;2.2.;;;Ant-basierte Dokumenten-Clustering und -Visualisierung In diesem Whitepaper wird der Prozess der Dokumenten-Clusterbildung und -Visualisierung erläutert: Analysieren des Dokumentenindex, Clustering von Dokumenten und Visualisieren der Exploration. Es konzentriert sich auf den ameisenbasierten Clustering-Algorithmus und einige signifikante Verbesserungen. Ansammlungen werden in der Ebene durch Ameisen gebildet, die mit unterschiedlicher Wahrscheinlichkeit projizierte Dokumentvektoren laufen, aufnehmen oder fallen lassen. Es wird gezeigt, dass die ähnlichen Dokumente in räumlicher Nähe erscheinen, während nicht verwandte Dokumente im visuellen Raum klar getrennt sind.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-29295-0_20 e9f311c4538719690bc39a4f2cc3d1e7;de;;;2.2.;;;Effiziente Abfrageausführungstechniken in einem 4DIS Videodatenbanksystem für eLearning In diesem Papier beschreiben wir unsere Arbeit an der Entwicklung eines eLearning-Videodatenbanksystems. Die eLearning-Videodatenbank bietet einen zeitlichen Modellierungsrahmen zum Beschreiben von eLearning-Videodaten und unterstützt die Datenverteilung durch Anwendung von Techniken zur vertikalen Klassenpartitionierung. Aufbauend auf unseren früheren Arbeiten zum Vierdimensionalen Informationssystem (4DIS) – einem objektorientierten Zeitmodellierungs-Framework, wenden wir;-;-;-;https://link.springer.com/article/10.1023/A%3A1023418316038 79cf4c720bf39cb2b4b3209003068f07;de;;;2.2.;;;Objektwiederherstellungsschema mit Farbmerkmalen im Überwachungssystem In diesem Artikel haben wir das farbbasierte Objektabrufschema für die Videoüberwachung beschrieben, das durch die verschiedenen Lichtänderungen und die Einstellung der überlappenden/nicht überlappenden Ansichtskameras beeinflusst wird. Das vorgeschlagene Videowiedergewinnungsschema trennt das Objekt in oben und unten und extrahiert dominante Farben aus jedem Bereich. Jede dominante Farbe umfasst Farbton, Sättigung, Wert im HSV-Raum und Anteil der Farbtonfarbe. Darüber hinaus verwendet es die verschiedenen Schwellenwerte und vordefinierten Gewichte basierend auf dem Experiment und verarbeitet die Ähnlichkeitsmessung, um die Suchergebnisse zu ordnen. Daher bietet unser Abrufschema die Empfindlichkeit und die Robustheit bei unterschiedlichen Überwachungsumgebungsbedingungen. Es kann auch in Echtzeit-Überwachungssystemen angewendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40861-8_15 3a2807d3520ee9dc736182d8eb80da72;de;;;2.2.;;;Toolkit-Demonstrationen In diesem Kapitel beginnen wir mit der Anwendung der bisher entwickelten Werkzeuge und demonstrieren einige der Techniken, die sie unterstützen. Wir glauben, dass sich diese Werkzeuge und Techniken weit über diese Monographie hinaus als nützlich erweisen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-0249-3_9 df4dadae8bd26a95266905b99e4f18f8;de;;;2.2.;;;Datenorganisationsmethode für die parallele Ausführung relationaler Operationen Wir schlagen die Verwendung einer Indexierungstechnik namens M-Cycle-Hash-Datei als Datenorganisationsmethode zum Speichern von Beziehungen in der Datenbankmaschine vor. Der Vorteil der Verwendung der M-Cycle-Hash-Datei besteht in der effektiven parallelen Ausführung von Auswahl-, Projektions- und Join-Operationen, ohne dass spezielle Hardware erforderlich ist. Ohne spezielle Hardware hat unsere Datenbankmaschine ein viel einfacheres Design als andere Datenbankmaschinen. Darüber hinaus reduziert die Verwendung von M-Cycle-Hash-Dateien die Komplexität der Software, da es kein Verzeichnis zur Pflege der Indizes gibt. In diesem Papier überprüfen wir die M-Cycle-Hash-Datei, stellen die Architektur unserer Datenbankmaschine vor und beschreiben die High-Level-Algorithmen für die parallele Ausführung von relationalen Operationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-1881-1_44 e3552e9d81872c7c65e2fa06624b8731;de;;;2.2.;;;Dokumentenklassifizierung nach Dimensionsreduktion durch ein modifiziertes Gram-Schmidt-Verfahren Dieses Papier schlägt einen modifizierten Gram-Schmidt-Algorithmus zur Dimensionsreduktion eines Dokumentenvektorraums vor, um eine Klassifizierung durchzuführen. Wir bewerten auch die Leistung des vorgeschlagenen Algorithmus durch Vergleich mit allgemein bekannten Algorithmen wie dem zentroidbasierten Algorithmus und der latenten semantischen Indexierung. Um die Effizienz zu messen, wird außerdem ein modifizierter Gram-Schmidt-Trainingssatz im Schwerpunkt-basierten Algorithmus und auch bei der latenten semantischen Indizierung angewendet. Die Leistungsmessung basierte auf zwei verschiedenen Parametern, nämlich der Klassifikationsgenauigkeit und der Ähnlichkeit mit dem entsprechenden Trainingssatz. Die Ergebnisse zeigen, dass der modifizierte Gram-Schmidt-Algorithmus tatsächlich eine effektive Methode zur Dimensionsreduktion vor der Klassifizierung ist. Darüber hinaus ist es einfach zu codieren und rechnerisch kostengünstig.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31686-9_28 2fdcd66b0fc966bcf3230fb71f23e8c2;de;;;2.2.;;;Klassifizieren von Werbevideos durch Topicalisierung von semantischen Konzepten auf hoher Ebene Die jüngste Verbreitung von Videos hat die Erforschung verschiedener Anwendungen vorangetrieben, die von der Videoanalyse bis hin zur Indexierung und zum Abruf reichen. Diese Anwendungen profitieren stark von der Domänenkenntnis von Videos. Als besondere Art von Videos ist das Klassifizieren von Werbevideos eine wichtige Aufgabe, da es eine automatische Organisation von Videos nach Kategorien oder Genres ermöglicht, was die Indizierung und den Abruf von Werbevideos weiter ermöglicht. Die Klassifizierung von Werbevideos ist jedoch aufgrund seines uneingeschränkten Inhalts und seines unverwechselbaren Ausdrucks eine Herausforderung. Während sich viele Studien auf die Auswahl von Anzeigen konzentrieren, die für die Zielvideos relevant sind, konzentrieren sich unseres Wissens nur wenige auf die Klassifizierung von Anzeigenvideos. Zur Klassifizierung von Werbevideos schlagen wir eine neuartige Videodarstellung vor, die darauf abzielt, die latente Semantik von Werbevideos unbeaufsichtigt zu erfassen. Insbesondere integriert dieser Artikel die spätere Auftrittswahrscheinlichkeit zwischen Marken-/Logoinformationen und den Objektinformationen auf hoher Ebene in ein vereinheitlichtes Lernparadigma der latenten Dirichlet-Zuordnung, genannt ppLDA. Eine thematische Darstellung für Werbevideos wird durch die vorgeschlagene Methode erhalten, die kategoriebezogene Aufgaben unterstützen kann. Unsere Experimente mit 10.111 realen Werbevideos, die aus dem Internet heruntergeladen wurden, zeigen, dass die vorgeschlagene Methode Werbevideos effektiv unterscheiden kann.;-;-;-;https://link.springer.com/article/10.1007/s11042-018-5801-3 d3c49f7aadcd60132760df346c2d0bb1;de;;;2.2.;;;Nichtparametrische Schätzung eines hedonischen Preisindex für ADSL-Anschlüsse im europäischen Markt anhand des Akaike-Informationskriteriums Es ist ein Beweis dafür, dass die Nachfrage nach ADSL-Anschlüssen (Asymmetric Digital Subscriber Line) in allen europäischen Ländern sowie weltweit von Tag zu Tag steigt, und es ist bekannt, dass die Verbreitung des Internets erstaunlich ist. Gleichzeitig werden aufgrund des starken Wettbewerbs unter den Anbietern von ADSL-Anschlüssen mehrere Pakete zu attraktiven Tarifen angeboten. Da ein Produkt aus verschiedenen Merkmalen besteht, die Verbraucher schätzen, könnte die aufkommende Frage wie folgt zusammengefasst werden: Wie sollten sich die Entscheidungen und Präferenzen der Verbraucher für ADSL-Anschlüsse auf die Tarife auswirken und was sind die wichtigeren und stärkeren Merkmale, die die Tarife von ADSL-Anschlüssen prägen?;-;-;-;https://link.springer.com/article/10.1007/s11235-008-9066-4 6bbd39fa40ffdd12691a7c94a795314a;de;;;2.2.;;;Knowledge-Computing-Methode zur Steigerung der Effektivität eines WWW-Fernunterrichtssystems Das ultimative Ziel unserer Forschung ist eine kostenlose, evolutionäre, internetbasierte, agentenbasierte Fernlehrumgebung für akademisches Englisch. Zu diesem Zweck bauen wir 2 Umgebungen auf: die Lernumgebung für Schüler und die Designumgebung für Lehrer-Kursunterlagen. Hier fokussieren wir uns auf die zweite Forschungsrichtung, den Aufbau der Lehrer-Authorware-Umgebung (Courseware-Management) und insbesondere auf eine neue Methode der automatischen, Knowledge Computing-basierten Courseware-Indizierung, die das KI-Paradigma des Concept Mappings nutzt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44595-1_31 57595b745c3a38a3da4b7b33d7416a18;de;;;2.2.;;;Filtern und Abgleichen von Datenblöcken zur Vermeidung von Festplattenengpässen im Deduplizierungsdateisystem Da die wachsende Datenmenge eine enorme Redundanz erzeugt hat, wurde die Deduplizierung, die Redundanz eliminieren und die Raumausnutzung der Speichervorrichtung verbessern kann, weit verbreitet. Das Deduplizierungsdateisystem kann eine einheitliche Schnittstelle zur übergeordneten Anwendung bereitstellen und die Inline-Deduplizierung implementieren. In diesem Whitepaper entwerfen und implementieren wir FmdFS, ein Kernel-Space-Deduplizierungsdateisystem. Aufgrund von Speicherbeschränkungen werden Metadaten von FmdFS auf der Datenträgergruppe gespeichert. Inzwischen ist im Speicher ein skalenadaptiver Binärbaumfilter aufgebaut, der nicht nur den Zugriff auf die Metadaten auf der Festplatte für die Suche nach Fingerabdrücken der meisten neuen Daten vermeidet, sondern auch die Gruppen aufzeichnet, in denen doppelte Daten gespeichert sind. Darüber hinaus verwendet FmdFS den LRU-Hash-Cache, der die Metadatengruppe enthält, auf die kürzlich zugegriffen wurde, um die Lokalität auszunutzen, um die doppelten Daten abzugleichen, um den Zugriff auf die Metadaten auf der Festplatte zu vermeiden. Im Vergleich zu herkömmlichen Deduplizierungs-Dateisystemen hat FmdFS die höhere Schreibleistung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44491-7_6 3ea40e96580cfad8613e0fd2c57c80c6;de;;;2.2.;;;Bewertung der Erhaltung von Derivatbeziehungen in Mappings von FRBR zu BIBFRAME Die Unterstützung der Benutzeraufgabe Exploration erfordert die explizite Darstellung von bibliographischen Familien und inhaltlichen Beziehungen. Eine nahtlose Navigation durch unterschiedlich modellierte bibliografische Datensätze setzt die Existenz von Mappings voraus. Die semantische Interoperabilität durch Mappings wird mit einem Testbed evaluiert. Dieses Papier beginnt mit der Feinabstimmung eines Testbeds für Mappings von FRBR zu BIBFRAME. Zwei;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-14401-2_22 2c76ed770b6a983d045215367ed9c9e9;de;;;2.2.;;;Elektronischer Regierungsbeschluss in einem kleinen Entwicklungsland – Politik und Praxis der Palästinensischen Autonomiebehörde Die erfolgreiche Implementierung und Nutzung der elektronischen Regierung in Palästina war für die Palästinensische Autonomiebehörde, Unternehmen und verstreute Bürger eine Herausforderung. Unsere Forschung bietet einen Überblick über die aktuelle Politik und Praxis, die palästinensischen Institutionen zur Umsetzung von E-Government-Diensten zur Verfügung steht. Er erörtert die Notwendigkeit von E-Government-Diensten und identifiziert potenzielle Vorteile sowie realistische Einschränkungen, denen in diesem politisch sensiblen Bereich begegnet werden könnte. Dabei werden die Herausforderungen identifiziert, denen sich die verstreute Natur des geographischen Gebiets gegenübersieht, das von der PA ausgeübt wird, und die erforderliche Infrastruktur für eine erfolgreiche Verbesserung der von der Regierung angebotenen Dienstleistungen für die Bürger Palästinas herausgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11710-2_8 df5712e0c1cf205dff30c527ed8f1adb;de;;;2.2.;;;Effektive Ausführung von Skyline-Abfragen in drahtlosen Broadcast-Umgebungen Die Verwendung von Datenrundfunk zur Bereitstellung von Diensten hat seit Jahren viel Aufmerksamkeit auf sich gezogen, und viele Arten von Datenrundfunk mit ortsbasierten Diensten (LBSs) wurden untersucht. Die Skyline-Abfrage ist eine der LBSs und kann die Ergebnisse finden, die eine der in der Abfrage angegebenen Bedingungen erfüllen. In diesem Papier betrachten wir die Skyline-Abfrage in drahtlosen Broadcast-Umgebungen und jedes Datenobjekt hat zwei Arten von Attributen: räumliche und nicht-räumliche Attribute. Unterschiedliche Abfragen an unterschiedlichen Standorten haben somit unterschiedliche Skyline-Sets. Zwei Indizierungsstrukturen basierend auf R*-Bäumen werden untersucht: der ursprüngliche R*-Baum und der AR*-Baum, der die Datenobjekte hauptsächlich anhand von räumlichen Attributen indiziert und das nicht-räumliche Attribut wird zum R*-Baum erweitert. Anschließend schlagen wir effektive Ansätze vor, die es den Kunden ermöglichen, die Skyline-Abfrage an jedem Ort auszuführen. Zuletzt werden die vorgeschlagenen Rundfunkprotokolle bewertet, indem die Experimente hinsichtlich der Latenzzeit, der Abstimmungszeit und der Speichernutzung durchgeführt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10073-9_15 a381ce63b8fcd979af66ebb551c94047;de;;;2.2.;;;Ein XML-basiertes Informationsmodell für archäologische Keramik Ein Informationsmodell wird definiert, um den Austausch wissenschaftlicher Informationen im Internet für archäologische Keramik zu unterstützen. Außer Forminformationen wie Alter, Material usw. besteht das Modell auch aus Forminformationen und Formmerkmalsinformationen. Forminformationen werden durch Laserscanner und geometrische Modellierungstechniken gesammelt. Merkmalsinformationen werden aus Forminformationen über Merkmalsextraktionstechniken erzeugt. Das Modell wird in einem integrierten Speicher-, Archivierungs- und skizzenbasierten Abfrage- und Abrufsystem für 3D-Objekte, indianische Keramikgefäße, verwendet. Ein neuer Aspekt des Informationsmodells besteht darin, dass es vollständig mit XML implementiert ist und für webbasierte visuelle Abfrage- und Speicheranwendungen ausgelegt ist.;-;-;-;https://link.springer.com/article/10.1631/jzus.2005.A0447 7a4f554bb3413e0e6f0fe8bedb0a22a5;de;;;2.2.;;;Zufällige und pseudozufällige Sequenzen Das Studium von Zufallssequenzen ist für viele Aspekte der Datenübertragung erforderlich. Synchronisation und Datenschutz sind nur zwei davon. In diesem Kapitel untersuchen wir das Verhalten von Zufallsfolgen und schließen mit einer Untersuchung der;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2195-8_8 dbfda54361cdb8f51a761598fc3e4ccc;de;;;2.2.;;;Proliferierende Zellkernantigen/Cyclin-Expression in kleinen Adenomen des Dickdarms in Bezug auf Größe und makroskopisches Erscheinungsbild 62 kolorektale Adenome mit einem Durchmesser von 10 mm oder weniger, endoskopisch reseziert und in Formalin für 3 Tage oder weniger fixiert, wurden mit monoklonalen Antikörpern gegen proliferierendes Zellkernantigen/Cyclin (PCNA) untersucht, um die Zellproliferationskinetik zu untersuchen. Alle Läsionen waren tubuläre Adenome mit geringgradiger Atypie. Diese Läsionen wurden nach makroskopischem Typ klassifiziert als: I, polypoid (;-;-;-;https://link.springer.com/article/10.1007/BF02358674 e608fa3cad518d01b34969d27fe1c65e;de;;;2.2.;;;Ein mehrsprachiges Framework für ein Frageantwortsystem zur Unterstützung von Ticketdaten: Ein erweiterter Ansatz In diesem Kapitel wird ein mehrsprachiges Framework für den semantischen Matcher beschrieben, bei dem die Aufgabe darin besteht, die besten semantisch übereinstimmenden K-Ergebnisse für eine Benutzerabfrage zu erhalten. Das vorgeschlagene Framework verwendet Worteinbettungen verschiedener betrachteter Sprachen mit Hilfe der vortrainierten Modelle, um die Wortbedeutungen von Suchanfragen zu erkennen und die besten Übereinstimmungen anzuzeigen, die derselben Klasse angehören. Semantik auf Wortebene bis auf Kontextebene wird durch das trainierte semantische Modell mit Worteinbettungen erreicht. Dieser semantische Matching-Ansatz wird anhand von Fehlerbehebungsabfragen zu Ticketdaten in verschiedenen Sprachen wie Englisch, Spanisch, Französisch usw. ausgewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98566-4_6 cc15a7b42f03a2bc738fb6be72dd814f;de;;;2.2.;;;Effiziente Suche nach Schlüsselwörtern in räumlichen Datenbanken Die Schlüsselwortsuche in räumlichen Datenbanken ist in vielen Echtzeitanwendungen sehr nützlich. Der herkömmliche m-nächste Schlüsselwortalgorithmus ist für sehr große Datensätze nicht skalierbar und darüber hinaus basieren existierende Algorithmen hauptsächlich nur auf Zwischenobjektabständen. Dieses Papier zielte darauf ab, einen Prozess zu entwickeln, der die beste Schlüsselwortsuche durchführen kann. Außerdem soll ein Algorithmus entwickelt werden, um die Skalierbarkeit sowohl hinsichtlich des Abstands zwischen den Objekten als auch der Bewertung von Objekten zu verbessern. Die vorliegende Studie schlägt eine Methode vor, um räumliche Objektgruppen gemäß der gestellten räumlichen Abfrage zu finden. Die Ergebnisse bewiesen, dass der vorgeschlagene dreidimensionale Suchprozess nach Schlüsselwörtern eine bessere Effizienz in Bezug auf Genauigkeit und optimale Ergebnisse bieten kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1420-3_186 26f4615506e7586b202373c8a4b1d2e1;de;;;2.2.;;;Visualisierungstechniken für nicht symmetrische Beziehungen Viele Strategien des Text Retrieval basieren auf Latent Semantic Indexing und seinen Variationen, indem unterschiedliche Gewichtungssysteme für Wörter und Dokumente berücksichtigt werden. Korrespondenzanalyse und L.S.I. teilen das grundlegende algebraische Werkzeug, d. h. die Singularwertzerlegung und ihre Verallgemeinerung, im Zusammenhang mit der Verwendung einer anderen Methode zur Messung der Bedeutung jedes Elements, sowohl bei der Bestimmung als auch bei der Darstellung von Ähnlichkeiten zwischen Dokumenten und Wörtern. Ziel der Arbeit ist es, einen besonderen faktoriellen Ansatz vorzuschlagen, um die Beziehungen zwischen Textdaten und Dokumenten im Vergleich zur klassischen Korrespondenzanalyse besser zu visualisieren. Hier betrachten wir a;-;-;-;https://link.springer.com/chapter/10.1007/3-540-32394-5_3 9b8fba5503d7db9df556611b1dde41f2;de;;;2.2.;;;Bild-Clustering mit multimodalen Schlüsselwörtern Wir erweitern unsere bisherige Arbeit an visuellen Schlüsselwörtern und verwenden das Konzept der vorlagenbasierten visuellen Schlüsselwörter mit MPEG-7-Farbdeskriptoren. MPEG-7, auch als . bezeichnet;-;-;-;https://link.springer.com/chapter/10.1007/11930334_9 78bb93681eea7cf6c1b10faca57b2dfc;de;;;2.2.;;;Studie zur Schlüsseltechnologie des HPSIN-basierten Vektorgeodaten-Onlinedienstes P2P-Technologie kann „Single Point of Failure“- und „Hot-Spot-Engpass“-Probleme vermeiden, die in traditionellen zentralisierten Systemen für räumliche Informationen existieren. Das hybride P2P Spatial Indexing Network kombiniert verteilten Quad-Tree mit einem DHT-basierten Chord-Netzwerk, um sowohl die Abfrageeffizienz als auch den Systemlastausgleich aufrechtzuerhalten. In diesem Beitrag wird die Schlüsseltechnologie des HPSIN-basierten verteilten Vektorgeodaten-Onlinedienstes untersucht, das Muster der Vektorgeodatenorganisation basierend auf dem Linking Mechanism, Segmentierung und verlustfreie Rekonstruktion vorgeschlagen. Dieses neuartige Organisationsmuster kann verwendet werden, um eine lose und global verteilte Topologie zu bilden. Segmentierungs- und verlustfreie Rekonstruktionsverfahren nutzen die Verknüpfung von Informationen, um beschädigte Geometrien verlustfrei zu rekonstruieren. Vergleichsexperimente zeigen, dass die Organisation und die zugehörigen Algorithmen verlustfrei und zuverlässig sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29050-3_25 b29baf5594d78ec3486de583324fc10b;de;;;2.2.;;;Ein effizientes Datenverbreitungssystem für standortabhängige Informationsdienste Standortabhängige Informationsdienste (LDISs) produzieren Antworten auf Anfragen gemäß dem Standort des Clients, der die Anfrage ausgibt. Bei LDIS sind Techniken wie Caching, Prefetching und Broadcasting effektive Ansätze, um den Bedarf an drahtloser Bandbreite und die Antwortzeit für Abfragen zu reduzieren. Die Mobilität des Kunden kann jedoch zu Inkonsistenzproblemen führen. In diesem Papier stellen wir das Broadcast-basierte LDIS-Schema (BBS) für die mobile Computerumgebung vor. In der BBS werden gesendete Datenelemente sequentiell basierend auf ihrem Standort sortiert und der Server sendet die ortsabhängigen Daten (LDD) zusammen mit einem Indexsegment. Dann präsentieren wir ein Daten-Prefetching-Schema und OBC (Object Boundary Circle), um die Antwortzeit der Abfrage zu verkürzen. Die Leistung des vorgeschlagenen Systems wird in Bezug auf verschiedene Umgebungsvariablen untersucht, wie beispielsweise die Verteilung der Datenelemente, die durchschnittliche Geschwindigkeit der Kunden und die Größe des Versorgungsgebiets.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30555-2_12 35bd50a77e206db07cc8a03811191341;de;;;2.2.;;;Bevorzugtes Online-Browsing des nächsten Nachbarn in großen attributierten Diagrammen Bei einem großen gewichteten gerichteten Graphen, in dem Knoten mit Attributen assoziiert sind und Kanten gewichtet sind, untersuchen wir in diesem Artikel ein neues Problem, das als präferentielles Browsen der nächsten Nachbarn (NN) bezeichnet wird. Bei einem solchen Durchsuchen kann ein Benutzer einen oder mehrere Quellknoten und einige Schlüsselwörter bereitstellen, um die nächsten Nachbarn dieser Quellknoten abzurufen, die die gegebenen Schlüsselwörter enthalten. Wenn ein Tourist beispielsweise plant, mehrere Orte (Quellknoten) zu besuchen, möchte er Hotels mit einigen bevorzugten Funktionen (z. B. Internet und Schwimmbäder) suchen. Es ist sehr wünschenswert, eine Liste von Hotels in der Nähe mit diesen bevorzugten Merkmalen zu empfehlen, geordnet nach der Entfernung des Straßennetzes zu den Orten (Quellknoten), die der Tourist besuchen möchte. Der bestehende Ansatz durch Graphendurchquerung zur Abfragezeit erfordert eine lange Abfrageverarbeitungszeit, und der Ansatz durch Beibehalten der vorberechneten kürzesten Distanzen aller Paare erfordert einen riesigen Speicherplatz auf der Platte. In diesem Papier schlagen wir neue Ansätze zur Unterstützung des bevorzugten Online-NN-Browsings vor. Die Datengraphen, mit denen wir es zu tun haben, sind gewichtete gerichtete Graphen, bei denen Knoten mit Attributen verknüpft sind und die Abstände zwischen den zu findenden Knoten die genauen Abstände im Graphen sind. Wir setzen auf zweistufige Ansätze. Im ersten Schritt identifizieren wir eine Anzahl von Referenzknoten (auch Zentren genannt), die allein auf kürzesten Wegen zwischen einem Quellknoten und einem bevorzugten NN-Knoten existieren, der die vom Benutzer angegebenen Schlüsselwörter enthält. Im zweiten Schritt finden wir die bevorzugten NN-Knoten innerhalb eines bestimmten Abstands zu den Quellknoten über die entsprechenden Referenzknoten, indem wir einen Index verwenden, der sowohl textural (Attribute) als auch die Distanz unterstützt. Unser Ansatz integriert die NN-Suche eng mit der Präferenzsuche, die sich als effizient und effektiv zum Auffinden von bevorzugten NN-Knoten erwiesen hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14589-6_2 112ff881c11bf5b4c89111feae29a9a9;de;;;2.2.;;;Eine Übersicht über verschiedene kostenbasierte Optimierer für verteilte Abfragen Der Artikel beschreibt die Überprüfung kostenbasierter Abfrageoptimierer, die unter Verwendung von Datenbankstrategien, deterministischen, stochastischen, hybriden und energieeffizienten Techniken entwickelt wurden. Es wurde gewürdigt, dass frühere Autoren eine andere Datenbank- und deterministische Strategie wie Indizierung, Abfragefilterung, Normalisierung, Abfragegraph, Tableau, erschöpfende Aufzählung, Abfragegraph und dynamische Programmierung verwendet haben, um Abfragen zu optimieren. Diese Techniken sind jedoch für die Optimierung von Serpentinen-Datenbankabfragen nicht relevant. Nichtsdestotrotz kann es einfallsreich optimiert werden, indem unterschiedliche individuelle und hybride, von der Natur inspirierte Computertechniken verwendet werden. Die Forschung enthüllt, dass der hybride Ansatz effektiv war und bleibt, um das Problem der Abfrageoptimierung zu lösen. Darüber hinaus wird bemerkenswerte Arbeit geleistet, um nur Datenwiedergewinnungsabfragen zu optimieren, jedoch wird wenig Arbeit ausgeführt, um Schreib-, Lösch- und Aktualisierungsabfragen zu optimieren. Darüber hinaus ist die energieeffiziente Abfrageoptimierung ein wichtiger Bereich. Die enorme Energiemenge kann durch den Einsatz energieeffizienter Abfrageoptimierer verteidigt werden. Der umfangreiche Veröffentlichungstrend von verteilten Abfrageoptimierern hat ebenfalls untersucht, was für Forscher, die ihren Artikel veröffentlichen und ihre Forschung in diesem Domänenbereich fortsetzen möchten, von enormer Bedeutung sein kann. Es wird festgestellt, dass ein enormes Volumen an Abfrageoptimierungsarbeit unter Verwendung eines genetischen Algorithmus, gefolgt von einer Schwarmpartikeloptimierung, bewirkt wurde. Darüber hinaus muss der Forscher die Leistung verschiedener aufkommender evolutionärer Techniken (Ant Lion Optimization, Whale Optimization, Monkey Search, Dolphin Echolocation, Chaotic Swarming) beim Design eines kostenbasierten Abfrageoptimierers verwenden und analysieren.;-;-;-;https://link.springer.com/article/10.1007/s13748-018-0154-8 daf9270caed3e2fc682c73facf0fd106;de;;;2.2.;;;Fallbasiertes Denken: Konzepte, Funktionen und Soft Computing Hier beschreiben wir zunächst die Konzepte, Komponenten und Funktionen von CBR. Anschließend werden die Machbarkeit und die Vorteile der Verwendung von CBR zur Problemlösung erläutert. Darauf folgt eine Beschreibung der Relevanz von Soft-Computing-Tools für CBR. Insbesondere werden einige der Aufgaben in den vier REs, nämlich Retrieve, Reuse, Revise und Retain, des CBR-Zyklus, die als potenzielle Kandidaten für Soft-Computing-Anwendungen relevant sind, erläutert.;-;-;-;https://link.springer.com/article/10.1023/B%3AAPIN.0000043556.29968.81 e98ee28f801c4e6d60ae14b5a3a7fb5e;de;;;2.2.;;;Xevolver: Ein Ansatz zur benutzerdefinierten Codetransformation zur Optimierung der Migration von Legacy-Code Da verschiedene Systeme normalerweise unterschiedliche Leistungsoptimierungen erfordern, ist ein Anwendungscode wahrscheinlich auf eine bestimmte Systemkonfiguration „spezialisiert“, um die Systemleistung vollständig zu extrahieren. Dies ist ein wesentlicher Grund dafür, dass die Migration eines bestehenden Anwendungscodes, die sogenannte Legacy Code Migration, insbesondere im High Performance Computing (HPC) Bereich so arbeitsintensiv und fehleranfällig ist. Erschwerend kommt hinzu, dass die Vielfalt der Systemarchitekturen die Anzahl der Systemkonfigurationen erhöhen würde, die während der Lebensdauer einer Anwendung berücksichtigt werden müssen. Die zunehmende Systemkomplexität und -vielfalt zwingt Programmierer daher, weiterhin enormen Zeit- und Arbeitsaufwand in die Entwicklung und Wartung von HPC-Anwendungen zu investieren. Für eine langfristige Softwareentwicklung und -wartung sollte ein HPC-Anwendungscode nicht für eine bestimmte Systemkonfiguration optimiert werden. Das einfache Ausschließen von System-Awareness aus dem Code führt jedoch nur zu einer Reduzierung der Leistung, da System-Awareness als die notwendige Information angesehen werden kann, um die Leistung des Zielsystems auszunutzen. Das Ziel dieses Projekts ist es, Systembewusstsein getrennt vom HPC-Anwendungscode auszudrücken, um eine hohe Leistung zu erreichen und gleichzeitig die Wartbarkeit des Codes zu erhalten. Zu diesem Zweck haben wir ein Codetransformations-Framework, Xevolver, entwickelt, damit Benutzer Systembewusstsein als benutzerdefinierte Codetransformationsregeln getrennt von HPC-Anwendungscodes ausdrücken können. Durch die Definition benutzerdefinierter Codetransformationen für einzelne Fälle muss ein HPC-Anwendungscode selbst nicht für jede Systemkonfiguration geändert werden und wird für jedes System mithilfe der separat vom Code definierten Codetransformationen transformiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1924-2_9 957a631078b2b2853a40b9f7cd091ffb;de;;;2.2.;;;Formale Konzeptanalyse und semantische Dateisysteme Dieses Dokument stellt aktuelle Bemühungen zur Anwendung der Formalen Konzeptanalyse (FCA) auf einige halbstrukturierte Dokumentensammlungen und Dateisysteme im Allgemeinen vor und kontrastiert sie. Bestehende Bemühungen werden dann laufenden Bemühungen gegenübergestellt, die das libferris Virtual File System (VFS) als Basis für FCA auf Dateisystemen verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24651-0_9 0e69ea1085110ca20db97403e77f2868;de;;;2.2.;;;Forschung zu Metadatensystemen und Modellen von Informationsressourcen für die Militärlogistik Mit Blick auf die bestehenden Probleme beim Teilen und Austauschen von militärischen Logistikinformationsressourcen erweitert dieses Papier zunächst die Kernmetadaten von Logistikinformationsressourcen, konstruiert das Inhaltssystem der Logistikinformationsressourcen-Metadaten und zeigt es basierend auf XML-Dateien an. Anschließend wird das Metadatenmodell von Logistikinformationsressourcen untersucht und die Zuordnungsregeln von Logistikinformationsressourcen-Metadaten zu Logistikdatenquellen definiert, einschließlich der Zuordnung von Metadaten zu relationalen Datenbanken und der Zuordnung von Metadaten zu XML-Dateien. Abschließend werden einige Gegenmaßnahmen und Vorschläge für die Anwendung von Metadaten in Logistikinformationsressourcen vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9050-1_79 c3063ffc4b2d1c048ed410b3a39a37ad;de;;;2.2.;;;Skalierbare räumliche Abfrageverarbeitung für standortbezogene mobile Dienste Location-Aware Mobile Services (LAMS) zeichnen sich durch eine Vielzahl von Objekten und eine Vielzahl von Anfragen aus. Darüber hinaus wird bei einem großen Kandidatendatensatz das Beantworten von LAMS durch Scannen des gesamten Datensatzes extrem teuer. Bei rundfunkbasierten Diensten kann eine beliebige Anzahl von Clients den Rundsendekanal überwachen und die Daten abrufen, wenn sie über den Rundsendekanal eintreffen. Somit wird ein drahtloses Rundfunksystem, das in der Lage ist, LAMS-Anfragen zu beantworten, als eine vielversprechende Lösung angesehen, da es eine praktisch unbegrenzte Anzahl von Benutzern innerhalb seiner Abdeckung bedienen kann. Wenn die Daten richtig organisiert sind, um den Bedürfnissen der Clients gerecht zu werden, nutzt ein solches Schema außerdem effektiv die geringe drahtlose Bandbreite und ist ideal, um maximale Skalierbarkeit zu erreichen. In diesem Papier behandeln wir die Probleme der Unterstützung von räumlichen Abfragen von standortbezogenen Daten über drahtlose Datenübermittlung. Eine lineare Datensendung basierend auf ihrem Standort wird vorgeschlagen, um räumliche Abfragen aus der Luft zu beantworten. Umfassende Experimente zeigen, dass das vorgeschlagene Schema hochskalierbar ist und im Vergleich zu anderen Techniken sowohl hinsichtlich der Abstimmungszeit als auch der Zugriffslatenz effizienter ist.;-;-;-;https://link.springer.com/chapter/10.1007/11596356_71 a2f6312627cb21d010da5a79f843c99f;de;;;2.2.;;;Das Fahrzeugverfolgungssystem zur Analyse von Transportfahrzeuginformationen Die verschiedenen Abfragesprachen für sich bewegende Objekte wurden entwickelt, um mit sich bewegenden Objekten effektiv umzugehen. Die meisten von ihnen reichen jedoch nicht aus, um Fahrzeuge im Verkehrssystem zu verwalten. Um Fahrzeuginformationen im Transportwesen effektiv zu analysieren, schlagen wir das webbasierte Transportfahrzeugmanagementsystem vor, das eine strukturierte Abfragesprache für bewegliche Objekte unterstützt. Das entwickelte System kann Fahrzeuge verwalten, indem es die Verlaufsdaten von Fahrzeugen wie Abfahrtszeit, überlappte Trajektorien und die Entfernung zwischen Fahrzeugen untersucht und die Fahrzeuginformationen über das Internet und einen PDA durch gleichzeitiges Verarbeiten der von Clients übertragenen Abfragesprache bereitstellt.;-;-;-;https://link.springer.com/chapter/10.1007/11610496_141 cca36262b3f04d8baeafc994fd4f07aa;de;;;2.2.;;;Datenschutzerhaltende geordnete Keyword-Suche über verschlüsselte Cloud-Daten Dieses Papier stellt ein Schema vor, das eine sichere rangbasierte Schlüsselwortsuche über verschlüsselte Cloud-Daten diskutiert. Die auszulagernden Daten werden zur Vertraulichkeit der Daten mit einem symmetrischen Verschlüsselungsalgorithmus verschlüsselt. Die Indexdatei des durchsuchbaren Stichwortsatzes wird auf den lokalen Trusted Server ausgelagert, wo auch der aus den Datendateien generierte Stichwortsatz gespeichert wird. Im Gegensatz zu Architekturen, die in früheren Artikeln vorgeschlagen wurden, bei denen der verschlüsselte Index auf einem nicht vertrauenswürdigen Server gespeichert wird, wird der Index in unserem Schema auf dem lokalen vertrauenswürdigen Server gespeichert, um die Umlaufzeit und den Verarbeitungsaufwand zu reduzieren. Dies geschieht, damit der nicht vertrauenswürdige Server mit Hilfe des gebildeten Index nicht von den Daten erfahren kann. Der Index wird mit Hilfe des Aho-Corasick Multiple String Matching Algorithmus erstellt, der den vordefinierten Satz von Schlüsselwörtern mit Informationen in den Datendateien abgleicht, um sie zu indizieren und relevante Daten in B+ Bäumen zu speichern. Immer wenn der Benutzer nach einem Schlüsselwort sucht, wird die Anfrage an den lokalen vertrauenswürdigen Server gesendet und auf die indizierten Daten verwiesen. Die Dateien werden nach bestimmten Relevanzkriterien abgerufen und geordnet. Die für das Ranking erforderlichen Parameter werden aus den bei der Indizierung gespeicherten Daten entnommen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54525-2_35 e6d6335c9dfe416a25f935fe619bcc41;de;;;2.2.;;;Weitere Beobachtungen neuer Quellen in der AFCRL-Umfrage In diesem Aufsatz werde ich zumindest einige der Höhepunkte der Folgebeobachtungen zusammenfassen, die für die neuen Quellen gewonnen wurden, die im AFCRL-Raketen-Infrarot-Sky-Survey (Walker und Price, 1975) entdeckt wurden. Diese Beobachtungen sollen die Natur der neuen AFCRL-Quellen bestimmen, in der Erwartung, dass einige der Quellen im Katalog neue Klassen von astrophysikalischen Objekten darstellen könnten. Dazu werden Beobachtungen verwendet, die praktisch die gesamte Skala der verfügbaren astronomischen Werkzeuge abdecken. Ich hoffe, zeigen zu können, dass die Entdeckung einer Reihe wirklich bemerkenswerter Objekte in der AFCRL-Umfrage weitere Bemühungen um ihre Erforschung rechtfertigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-1211-9_3 eb7e791543fb30d3ef69e04b1ba4f2fb;de;;;2.2.;;;Eine Baumanalyse unbeweisbarer kombinatorischer Aussagen In diesem Artikel führen wir ein kombinatorisches Maß für die Größe endlicher Mengen von ganzen Zahlen (genannt Arborizität) ein, das ein finitäres Analogon von Königs Infinity Lemma ist. Es wird gezeigt, dass die Existenz baumbewohnender Mengen sehr eng mit der Paris-Harrington-Version von Ramseys Theorem korreliert und daher in der Peano-Arithmetik nicht beweisbar ist. Arborizität lässt sich auch durch Ordnungszahlen kleiner als ε charakterisieren;-;-;-;https://link.springer.com/chapter/10.1007/BFb0090170 9004e4b10ccfb42c85fc1efa003bafd7;de;;;2.2.;;;Wissenschaftliche Zeitschriften, die von falschen Einflussfaktoren geplagt werden Der aktuelle Stand des wissenschaftlichen Publizierens ist besorgniserregend. Cyberkriminelle zielen jetzt auf ein akademisches Publikum ab, was es erforderlich macht, sowohl Herausgeber als auch Autoren über solche Themen zu informieren. Die neueste betrifft falsche Impact-Faktoren, die das wissenschaftliche Publizieren herausfordern. Legitime Impact-Faktoren werden von Autoren und Herausgebern verwendet, um eine allgemeine Vorstellung vom Publikum, falls vorhanden, für ein bestimmtes Stück oder eine bestimmte Zeitschrift zu bekommen. Die gefälschten Metriken sorgen nur für Verwirrung und unterstützen die Cyberkriminalität ihrer Initiatoren. In diesem Papier diskutieren wir gefälschte Einflussfaktoren und Opferländer und versuchen, die Phänomene sowohl für Autoren als auch für Herausgeber zu klären.;-;-;-;https://link.springer.com/article/10.1007/s12109-017-9509-4 7ec85f7306014e27b9c0f9892e9e4c6f;de;;;2.2.;;;Bulk-Typen für umfangreiche Programmierung Es wird über Arbeiten am Entwurf von Konstruktoren für Massendatentypen berichtet. Es führt hochparametrische Konstruktoren ein, die sowohl nach Typen als auch nach anderen Eigenschaften als Typen parametrisiert werden. Solche Konstruktoren nennen wir Typ-Quarks. Die Motivation und Eigenschaften von Bulk-Typen werden diskutiert. Die beiden Beispiele von Bulk-Typen, die über Typ-Quarks, Maps und Quads bereitgestellt werden, werden diskutiert. Mehrere wichtige Fragen zu diesem Ansatz für Massentypen werden identifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-54141-1_13 8f24434107eb247a6f0255796b9cbde1;de;;;2.2.;;;Umgebungsintelligenz durch Bildabruf Eine Umgebung mit intelligenter Umgebung erfordert die dynamische Registrierung von Fremden ohne zu viel menschliches Eingreifen. Zu diesem Zweck schlagen wir einen Entitätserkennungsprozess vor, der auf Bildern basiert, die mit kostengünstigen, aber weit verbreiteten Webcams und einfach zu implementierenden Bildverarbeitungstechniken aufgenommen wurden. Wir stellen fest, dass die Verwendung von Vertrauensniveaus bei der Erkennung aufgrund verschiedener Techniken und kontextbasierter Bildsuche den Prozess verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27814-6_62 2c261bbba4b6f3b2136c6e01236745fc;de;;;2.2.;;;Die partitionierte exponentielle Datei für die Datenbankspeicherverwaltung Die Zunahmerate der Festplattenspeicherkapazität übertrifft weiterhin die Abnahmerate der Festplattensuchzeit. Dieser Trend impliziert, dass der Wert einer Suche im Verhältnis zum Speicherwert exponentiell ansteigt.;-;-;-;https://link.springer.com/article/10.1007/s00778-005-0171-7 6bb617d697f3d759342ef34fad6730bb;de;;;2.2.;;;TripleID: Darstellung mit geringem Overhead und Abfragen mit GPU für große RDFs Resource Description Framework (RDF) ist ein häufig verwendetes Format für die semantische Webverarbeitung. Es enthält im Wesentlichen Zeichenfolgen, die Begriffe und ihre Beziehungen darstellen, die abgefragt oder abgeleitet werden können. RDF ist normalerweise eine große Textdatei, die viele Millionen Beziehungen enthält. In dieser Arbeit schlagen wir einen Rahmen vor,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-34099-9_31 6a1540063f63929abf1c188cd0b93a02;de;;;2.2.;;;Von endoskopischer Bildgebung und Wissen zu semantischen formalen Bildern Ausgestattet mit weiterentwickelten Funktionalitäten kann ein Atlas der Verdauungsendoskopie als Trainings- und sogar als Diagnosehilfe verwendet werden. Die Architektur eines solchen Systems stützt sich auf zwei Grundlagen, zum einen auf das endoskopische Wissen und zum anderen auf die Fallikonographie. Inspiriert von der medizinischen Praxis ermöglicht eine zweistufige Krankheitswissensbasis eine Klassifikation möglicher Diagnosen und eine Fallauswahl der endoskopischen Fallbasis, sodass der Ähnlichkeitsschritt die Abfrage vervollständigt. Dieses Projekt profitiert auf vielen Ebenen vom „Pixelisierungs-Paradigma“. Tatsächlich ist es von großem Interesse, die Wissens- und Falldatenbanken zu visualisieren, aber es ist spannender, die Schritte der Klassifikation und des ähnlichen Fallauffindens durch die Erzeugung von Bildern zu visualisieren, die die Wissensdatenbank und die Falldatenbank dem neuen Fall gegenüberstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71027-1_17 bb928cdc3c1280afa751aa635c35b5ff;de;;;2.2.;;;Höhere Laurentide- und Grönland-Eisschilde stärken die Nordatlantik-Ozeanzirkulation Während des letzten Glazial-Interglazial-Zyklus traten Veränderungen in der großräumigen nordatlantischen Ozeanzirkulation auf, und gleichzeitig variierte auch die Topographie der Laurentiden- und Grönland-Eisschilde. In dieser Studie konzentrieren wir uns darauf, die Veränderungen der nordatlantischen Wirbel, des westlichen Grenzstroms und der atlantischen meridionalen Umwälzzirkulation (AMOC) entsprechend den verschiedenen Laurentiden- und Grönland-Eisschildtopographien zu erkennen. Unter Verwendung eines Erdsystemmodells führten wir Simulationen für fünf Klimazustände mit unterschiedlichen Eisschildtopographien durch: Vorindustrielles, Mittleres Holozän, Letztes Glazialmaximum, 32 Kilojahre vor der Gegenwart und Eemische Zwischeneiszeit. Unsere Simulationsergebnisse zeigen, dass höhere Topographien der Laurentiden- und Grönland-Eisschilde die Windstress-Kräuselung über dem Nordatlantik verstärken und die subtropischen und subpolaren Wirbel und die westlichen Grenzströmungen verstärken. Die entsprechende Abnahme der Meeresoberflächenhöhe von subtropisch zu subpolar begünstigt eine stärkere AMOC. Eine Offshore-Verschiebung des Golfstroms wird auch während der Eiszeiten im Vergleich zu der vorindustriellen aufgrund des niedrigeren Meeresspiegels identifiziert, was einen schwächeren glazialen Golfstrom erklärt, der in Proxy-Daten nachgewiesen wurde. Inzwischen zeigen die Nordatlantikwirbel und AMOC eine positiv korrelierte Beziehung unter jeder der Klimabedingungen mit höheren Eisschilden.;-;-;-;https://link.springer.com/article/10.1007/s00382-015-2502-8 6b9eec7a9414187a3f8cf020ca8e143c;de;;;2.2.;;;Verbesserung der Konnektivität in einer von Studenten erstellten kollaborativen Datenbank CSILE ist ein pädagogisches Wissensmediensystem, mit dem Studierende zusammenarbeiten, um eine Datenbank zu erstellen, die den größten Teil ihrer wissenschaftlichen Arbeit umfasst. Es soll den Aufbau und die Erforschung von Verbindungen zwischen Ideen fördern. Schlüsselwörter werden als Grundlage für die Verknüpfung der Notizen der Schüler verwendet. Eine von Schülern der Klassen 5–6 erstellte CSILE-Datenbank wurde analysiert. Obwohl die Schüler dazu neigen, nur wenige Schlüsselwörter pro Notiz zu verwenden, enthalten die Texte ihrer Notizen umfangreiche und konsistente Domänenvokabulare. Es wurde eine Simulation einer Form der Verfahrenserleichterung durchgeführt, die dieses Phänomen den Schülern aufzeigen und die Konnektivität in der Datenbank erheblich verbessern würde.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-3506-1_15 25497fd6f87d50a4b6166831e1dc5399;de;;;2.2.;;;Adaptive Cutoff Distance Based Density Peak Pivot zur Erkennung von Ausreißern im metrischen Raum Die Ausreißererkennung ist eine Schlüsseltechnik, um abnormale Muster aus Massendaten zu entdecken. Der Pivot-basierte Algorithmus zur metrischen Raumausreißererkennung wurde entwickelt, um den Cutoff-Wert des Ausreißergrades schneller zu verbessern und das Erkennungsprogramm früher zu beenden, um Erkennungszeit zu sparen. Aufgrund des Fehlens einer effizienten Pivot-Auswahlmethode ist die Leistung bestehender verwandter Algorithmen jedoch nicht so gut, wie sie hätte sein können. In diesem Artikel schlagen wir einen adaptiven Cutoff-Distanz-basierten Pivot-Auswahlalgorithmus (ADP) vor, um schnell einen geeigneten Pivot zu erhalten. Darüber hinaus entwickeln wir auch einen verbesserten Ausreißererkennungsalgorithmus basierend auf dem ADP-Algorithmus (ADPOD). Experimentelle Ergebnisse zeigen, dass ADPOD den bestehenden Beziehungsalgorithmus effektiv überwinden kann und eine durchschnittliche Geschwindigkeit von 2,67 und in bestimmten Fällen bis zu 8,06 erreicht. Die Entfernungsberechnungszeiten werden um durchschnittlich 53,39 % und bis zu 94,84 % reduziert, ebenso wie eine akzeptable Indizierungszeit und die Universalität des metrischen Raums.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-7986-4_35 7f73f88c811881feb9f1651a5f6fdd3c;de;;;2.2.;;;Rasterbasiertes Clustering von Waze-Daten in einer relationalen Datenbank Im urbanen Umfeld können Daten aus Verkehrsereignissen als Studienelemente für die Stadtplanung dienen. Die Herausforderung besteht darin, diese Rohdaten in Mobilitätswissen umzuwandeln. Ereignisse werden in der Regel als einzelne Datensätze in einem Datenbanksystem gespeichert, und die Stadtplanung erfordert kostspielige räumliche Abfragen. In diesem Artikel untersuchen wir die Auswirkungen eines gitterbasierten Clusterings auf die Leistung solcher Abfragen unter Verwendung einer handelsüblichen relationalen Datenbank und Indexstruktur. Wir berichten über die Ergebnisse dieses Ansatzes anhand von Daten, die von Waze über einen Zeitraum von einem Jahr gesammelt wurden. Wir vergleichen die Leistung unseres gitterbasierten Ansatzes mit einem geclusterten R-Baum-Index über dem geometrischen Attribut. Die Ergebnisse dieser Studie sind für Entwickler von Anwendungen interessant, die Geodaten über ein bestimmtes geografisches Gebiet unter Verwendung eines bestehenden Datenbankverwaltungssystems verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-55814-7_21 6d2f6aa64a5880d725ac33b9ff24063e;de;;;2.2.;;;Die Geometrie von Orthogonal-Serie, Square-Root Density-Schätzern: Anwendungen in Computer Vision und Modellauswahl Wir betrachten die Geometrie- und Modellordnungsspezifikation einer Klasse von Dichtemodellen, bei denen die Quadratwurzel der Verteilung in eine orthogonale Reihe entwickelt wird. Die Einfachheit der resultierenden sphärischen Geometrie macht dieses Framework ideal für viele Anwendungen, die auf informationsgeometrischen Konzepten wie Entfernungen und Mannigfaltigkeitsstatistiken beruhen. Konkret demonstrieren wir Anwendungen dieser Modelle im Bereich Computer Vision der Objekterkennung und -abfrage. Wir veranschaulichen, wie invariante Formdarstellungen in Verbindung mit diesen probabilistischen Modellen verwendet werden können, um hochmoderne Klassifikatoren zu erhalten. Darüber hinaus wird die Möglichkeit untersucht, Klassifikationsmodelle zu formulieren, die Formverformungen in einem optimalen Transportkontext berücksichtigen, was Einblicke in die praktische Arbeit mit dem Parameterraum der Dichten im Vergleich zum Wasserstein-Maßraumansatz gibt. Die freien Parameter, die diesen Quadratwurzelschätzern zugeordnet sind, können unter Verwendung des Kriteriums der minimalen Beschreibungslänge (MDL) für die Modellauswahl streng ausgewählt werden. Unter diesen Modellen wird gezeigt, dass die MDL eine geschlossene Darstellung hat, die für die meisten Anwendungen der MDL bei der Dichteschätzung untypisch ist. Die experimentelle Bewertung unserer Techniken wird an ein-, zwei- und dreidimensionalen Dichteschätzungsproblemen in der Formanalyse durchgeführt, wobei die vergleichende Analyse zeigt, dass unser Ansatz bei der Objekterkennung und Modellauswahl auf dem neuesten Stand der Technik ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-47058-0_9 cd62bace0e36cef0dfd5fbed66e32271;de;;;2.2.;;;Modellieren der Entdeckung kritischer Äußerungen Die Allgegenwart der Zufallsentdeckung zeigt sich in vielen Anwendungsbereichen, vor allem bei schwer auffindbaren oder vorhersehbaren Ereignissen. In diesem Beitrag stellen wir unsere Idee vor, ein Zufallsentdeckungswerkzeug anzuwenden, das;-;-;-;https://link.springer.com/chapter/10.1007/11552413_80 3b17296b0ec16e9268f47f521cc652dd;de;;;2.2.;;;Ein Vorschlag zur Kombination von Musterstrukturen und relationaler Konzeptanalyse In diesem Beitrag schlagen wir eine Adaption des RCA-Prozesses vor, die die relationale Skalierung von Musterstrukturen ermöglicht. Kurz gesagt, diese Anpassung ermöglicht das Szenario, in dem RCA in einer relationalen Kontextfamilie angewendet werden muss, die aus Musterstrukturen anstelle von formalen Kontexten besteht. Um dies zu erreichen, definieren wir die heterogenen Musterstrukturen als Modell zur Beschreibung von Objekten in einer Kombination von Räumen, nämlich dem ursprünglichen Objektbeschreibungsraum und dem Satz von relationalen Attributen, die aus dem RCA-Skalierungsprozess abgeleitet wurden. Wir rahmen unseren Ansatz in das Problem der Charakterisierung von latenten Variablen (LV) in einem latenten Variablenmodell von Dokumenten und Begriffen ein. LVs werden als kompakte und verbesserte Datensatzdarstellungen verwendet. Wir nähern uns dem Problem der im ursprünglichen LV-Modell fehlenden LV-Charakterisierung durch die Anwendung des angepassten RCA-Prozesses unter Verwendung von Musterstrukturen. Abschließend diskutieren wir die Implikationen unserer These.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07248-7_8 f646cb8e581b54619bbdf02f59084abd;de;;;2.2.;;;Berechnung der Sparse Singular Value Decomposition über SVDPACK SVDPACK umfasst vier numerische (iterative) Verfahren zum Berechnen der Singulärwertzerlegung (SVD) großer dünn besetzter Matrizen unter Verwendung von ANSI Fortran-77 mit doppelter Genauigkeit. Dieses Softwarepaket implementiert Lanczos- und Unterraum-Iterations-basierte Verfahren zum Bestimmen mehrerer der größten singulären Tripletts (Singulärwerte und entsprechende links- und rechts-singuläre Vektoren) für große dünn besetzte Matrizen. Das Paket wurde auf eine Vielzahl von Maschinen portiert, von Supercomputern bis hin zu Workstations: CRAY Y-MP, CRAY-2S, Alliant FX/80, IBM RS/6000-550, DEC 5000-100 und Sun SPARCstation 2. Die Leistung von SVDPACK, gemessen an seiner Verwendung bei der Berechnung von Näherungen mit großem Rang an spärliche;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-9353-5_2 8e161c4f1a8e3ffa951f2d85036ed32b;de;;;2.2.;;;Ganzzahlige gitterbasierte Methoden zur Erzeugung lokaler Adressen für blockzyklische Verteilungen In datenparallelen Sprachen wie High Performance Fortran und Fortran D werden Arrays durch einen zweistufigen Prozess mit Ausrichtung und anschließender Verteilung auf Prozessoren abgebildet. Ein Compiler, der Code für jeden Prozessor erzeugt, muss die Sequenz von lokalen Speicheradressen berechnen, auf die von jedem Prozessor zugegriffen wird, und die Sequenz von Sende- und Empfangsvorgängen für einen gegebenen Prozessor, um auf nicht lokale Daten zuzugreifen. In diesem Kapitel stellen wir einen neuartigen Ansatz für das Problem der Adresssequenzgenerierung vor, der auf ganzzahligen Gittern basiert. Wenn der Ausrichtungsschritt eins ist, heißt die Abbildung a;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45403-9_17 834a5f9038d75fcb238aaa0243a01ccd;de;;;2.2.;;;Ein Framework für Zugriffsmethoden für versionierte Daten Dieses Papier stellt einen Rahmen für das Verständnis und die Konstruktion von Zugriffsmethoden für versionierte Daten vor. Datensätze sind mit Versionsbereichen in einer Versionsstruktur verknüpft. Es wird eine minimale Darstellung für die Endmenge eines Versionsbereichs angegeben. Wir zeigen, wie innerhalb einer Seite eine kompakte Darstellung eines Datensatzes nur mit der Startversion des Versionsbereichs erfolgen kann. Splits der aktuellen Version, Splits von Version und Schlüssel und Konsolidierungen werden erklärt. Diese Operationen bewahren eine Invariante, die es erlaubt, nur eine Seite auf jeder Ebene der Zugriffsmethode zu besuchen, wenn eine exakte Übereinstimmungssuche durchgeführt wird (kein Zurückverfolgen). Aufteilungen und Konsolidierungen ermöglichen auch effiziente Stichabfragen, indem Daten in einer bestimmten Version lebendig auf eine kleine Anzahl von Datenseiten geclustert werden. Schließlich untersuchen wir die Methoden in der Literatur, um zu zeigen, in welcher Weise sie unserem Rahmen entsprechen oder nicht. Diese Verfahren umfassen zeitliche Zugriffsmethoden, verzweigte Versionierungszugriffsmethoden und raum-zeitliche Zugriffsmethoden. Unser Beitrag besteht nicht darin, eine neue Zugriffsmethode zu schaffen, sondern grundlegende Eigenschaften von versionierten Zugriffsmethoden ans Licht zu bringen und eine Blaupause für zukünftige versionierte Zugriffsmethoden bereitzustellen. Darüber hinaus haben wir nicht die unrealistische Annahme getroffen, dass Transaktionen, die eine neue Version erstellen, nur ein Update durchführen, und haben gezeigt, wie mehrere Updates zu behandeln sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24741-8_42 f1666214a9afcb35ef3a3a47e68ca14d;de;;;2.2.;;;Effiziente Heuristiken für die Datenausstrahlung auf mehreren Kanälen Das Problem des Datenrundsendens über mehrere Kanäle besteht darin, Daten in Abhängigkeit von Datenpopularitäten unter Kanälen aufzuteilen und sie dann zyklisch über jeden Kanal zu übertragen, so dass die durchschnittliche Wartezeit der Clients minimiert wird. Es ist bekannt, dass ein solches Problem für Datenelemente mit gleichförmiger Länge polynomiell zeitlöslich ist, während es für Datenelemente mit ungleichförmiger Länge rechnerisch schwer zu lösen ist. In dieser Arbeit werden zwei neue Heuristiken vorgeschlagen, die eine neuartige Charakterisierung optimaler Lösungen für den Spezialfall von zwei Kanälen und Datenelementen einheitlicher Länge ausnutzen. Es werden suboptimale Lösungen für den allgemeinsten Fall einer willkürlichen Anzahl von Kanälen und Datenelementen ungleichmäßiger Länge bereitgestellt. Die erste Heuristik, genannt;-;-;-;https://link.springer.com/article/10.1007/s11276-006-9146-x 72980085ab157f5e19d8ed497a4c0083;de;;;2.2.;;;Probenbasierte Datenbanken australischer Pflanzenpathogene: Vergangenheit, Gegenwart und Zukunft Auf probenbasierte Aufzeichnungen der meisten in Australien vorkommenden Pflanzenpathogene kann über die Australian Plant Disease Database und die Australian Plant Pest Database zugegriffen werden. Diese Datenbanken und die ihnen zugrunde liegenden Herbarien sind wichtige Ressourcen für die Lösung von Quarantäne- und Handelsproblemen sowie für die Diagnose von Pflanzenkrankheiten. Die Bedeutung dieser Sammlungen und Datenbanken für die australische Agrarindustrie wird diskutiert. Australasiatische Gesellschaft für Pflanzenpathologie 2006;-;-;-;https://link.springer.com/article/10.1071/AP06003 0f7080e1a3c38ae190da3a3b06673501;de;;;2.2.;;;Das dynamische Prädikat: Integration der Zugriffskontrolle mit der Abfrageverarbeitung in XML-Datenbanken In letzter Zeit ist die Zugriffskontrolle auf XML-Daten zu einem wichtigen Forschungsthema geworden. Frühere Forschungen zu Zugriffskontrollmechanismen für XML-Daten haben sich auf die Steigerung der Effizienz der Zugriffskontrolle selbst konzentriert, jedoch nicht auf das Problem der Integration der Zugriffskontrolle in die Abfrageverarbeitung eingegangen. In diesem Papier schlagen wir einen effizienten Zugriffskontrollmechanismus vor, der eng in die Abfrageverarbeitung für XML-Datenbanken integriert ist. Wir präsentieren das neuartige Konzept der;-;-;-;https://link.springer.com/article/10.1007/s00778-006-0037-7 a18c866d42e7d6b59a28e43466ddfe53;de;;;2.2.;;;Schnelle Dekodierungsalgorithmen für Reed-Solomon-Codes Reed-Solomon-Codes und BCH-Codes mit großer Blocklänge und großer Alphabetgröße werden in Kommunikations- und Speichersystemen weit verbreitet verwendet. Sichere Kommunikationssysteme verwenden üblicherweise einen Reed-Solomon-Code als eine Methode zum Schutz vor Staus. Die Bedeutung dieser Codes liegt teilweise an ihrer überlegenen Fehlerkorrekturleistung, aber auch an der Verfügbarkeit effizienter Decodieralgorithmen für sie. Zukünftige Anforderungen werden für immer größere Fehlerkontrollcodes bestehen, jedoch nur, wenn die Decodierungskosten erschwinglich bleiben. Es ist wichtig, die Komplexität der Decodieralgorithmen zu reduzieren. Diese Vorlesungen untersuchen die Komplexität solcher Algorithmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-2640-0_11 61a48ffc97a9be2f2fccb66c1f792595;de;;;2.2.;;;Anwendungen zellkinetischer Techniken bei menschlichen Malignomen Der Zweck dieses Kapitels ist es, Methoden zusammenzufassen, die derzeit und potenziell verfügbar sind, um die Kinetik von Krebszellen zu messen und Daten zu überprüfen, die für bestimmte menschliche Neoplasmen verfügbar sind. Das Kapitel enthält Informationen, die die Behandlungsplanung beeinflussen, sowie Informationen, die das Ansprechen auf die Therapie widerspiegeln. Eine Vielzahl von Techniken, beides;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-6628-1_2 72a59e3541d64251ea8096dcd18362d6;de;;;2.2.;;;Grobes Set reduziert basierende Klassifikation Die Textklassifizierung zielt darauf ab, Dokumente anhand ihres Inhalts automatisch in Kategorien oder Klassen zu klassifizieren. Während immer mehr Textinformationen online verfügbar sind, wird ein effektiver Abruf ohne eine gute Indexierung und Zusammenfassung der Dokumentinhalte schwierig. Eine grobe mengenbasierte Reduzierung ist eine minimale Teilmenge von Merkmalen, die fast die gleiche erkennbare Kraft wie die gesamten bedingten Merkmale hat. Hier schlagen wir einen Greedy-Algorithmus vor, um einen Satz von groben Mengenreduktionen zu berechnen, denen der k-nächste Nachbar folgt, um Dokumente zu klassifizieren. Um die Klassifikationsleistung zu verbessern, wurde reducts-kNN with trust entwickelt. Diese vorgeschlagenen, auf Grobsatzreduzierungen basierenden Klassifikationsverfahren für Dokumente werden durch Klassifikationsexperimente verglichen. Es wurden Experimente mit einigen Benchmark-Datensätzen aus dem Reuters-Nachrichtendatensatz durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00909-9_36 0467386a6de1eec87d3cc16a12035219;de;;;2.2.;;;Morphosyntaktische und semantische Analyse von Text: Das MPRO-Tagging-Verfahren Das MPRO-System ist ein vom Institut für Angewandte Informationswissenschaft (IAI) entwickeltes Programmpaket zur Durchführung morphologischer, syntaktischer und semantischer Analysen für mehrere Sprachen. Speziell für Deutsch ist das MPRO-System ein sehr effizientes und robustes Sprachsoftware-Tool. Die linguistische Analyse innerhalb des Systems gliedert sich in mehrere Teilaufgaben. In diesem Papier werden wir das allgemeine MPRO-Tagging-Verfahren und seine Unteraufgaben etwas detaillierter vorstellen. Wir werden uns die einzelnen Programmmodule und deren jeweilige Leistung genauer ansehen. Die Funktion jedes Moduls wird zusammen mit den möglichen Parametern der in der jeweiligen Ausgabe angegebenen Merkmale detailliert beschrieben. Darüber hinaus wird die Beschreibung jedes Moduls mit zahlreichen Praxisbeispielen angereichert, um die Funktionsweise des Systems zu demonstrieren. Abschließend werden einige mögliche Anwendungsgebiete des MPRO-Softwarepakets genannt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04131-0_6 1a2b429773c2f955aae0632af3856133;de;;;2.2.;;;Kontrafaktuale und Vergleichsmöglichkeiten In den letzten zwölf Jahren hat sich unser Verständnis von Modalität durch die Möglich-Welt-Semantik stark verbessert: das Projekt der Analyse modaler Sprache durch systematische Spezifizierung der Bedingungen, unter denen ein Modalsatz in einer möglichen Welt wahr ist. Ich hoffe, das Gleiche für kontrafaktische Konditionale zu tun. ich schreibe;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-1756-5_1 1bf84aa2a8c86b92ec980e7018cc583e;de;;;2.2.;;;Atemnotsyndrom: Anforderungen an die perinatale Diagnose, Prävention und Behandlung In den letzten zehn Jahren wurde die Strategie zur Prävention und kausalen Behandlung des Atemnotsyndroms (RDS) des Neugeborenen auf die Beschleunigung der fetalen Lungenreife ausgerichtet;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-73305-5_7 4271d11bd7b9e9d5b8b98eca986f7603;de;;;2.2.;;;Räumlich erweiterte Wissensdatenbank Da immer mehr Anwendungen im Web einige Elemente von Geodaten enthalten, besteht die Notwendigkeit, Semantic Web-Technologien und Geodatenverarbeitung effizient zu integrieren. Dieses Papier beschreibt ein prototypisches System zum gemeinsamen Speichern von Geodaten und Semantic Web-Daten in einer SPatially-AUgmented Knowledgebase (SPAUK) ohne Einbußen bei der Abfrageeffizienz. Die Ziele werden durch die Verwendung mehrerer Use Cases motiviert. Das Design und die Architektur des Prototyps werden beschrieben und die resultierenden Leistungsverbesserungen werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76298-0_57 fa53f5ba725070cd008edc5bdd2bfb8b;de;;;2.2.;;;Schneller inhaltsbasierter Abruf von Online-Foto-Sharing-Sites Buchstäblich Milliarden von Bildern wurden seit ihrer Gründung auf Foto-Sharing-Sites hochgeladen, die eine erstaunliche Fülle an visuellen Informationen umfassen. Effektive Tools zum Abfragen dieser Sammlungen sind jedoch selten und schlüsselwortbasiert. Da Benutzer ihre Bilder nur selten mit Anmerkungen versehen, ist dieser Ansatz nur bedingt sinnvoll. Content-based Image Retrieval (CBIR) extrahiert Merkmale direkt aus Bildern und führt die Suche auf diesen Merkmalen aus. Herkömmliche CBIR-Ansätze erfordern jedoch ein dediziertes System, das die Merkmalsextraktion während des Hochladens von Fotos durchführt, und ein Datenbanksystem zum Speichern der Merkmale und sind daher für den durchschnittlichen Benutzer nicht verfügbar. In diesem Artikel stellen wir eine sehr schnelle inhaltsbasierte Abrufmethode vor, die während des Abrufprozesses eine Merkmalsextraktion im laufenden Betrieb durchführt und somit clientseitig auf Bilder angewendet werden kann, die von Foto-Sharing-Sites wie Flickr heruntergeladen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35236-2_28 000f83e5cff7dc26c57bf6da1da91420;de;;;2.2.;;;Flexible Abfrage von XML-Dokumenten Textsuchmaschinen sind für das Indizieren und Durchsuchen von XML-Dokumenten ungeeignet, da sie Metadaten und die in den XML-Dokumenten implizite Aggregationsstruktur ignorieren. Andererseits sind die von spezialisierten XML-Suchmaschinen unterstützten Abfragesprachen sehr komplex. In diesem Papier stellen wir eine einfache, aber flexible Abfragesprache vor und entwickeln ihre Semantik, um intuitiv ansprechend;-;-;-;https://link.springer.com/chapter/10.1007/11875604_23 555f439f0630325db5a969d1a743c91a;de;;;2.2.;;;Heap-basierte Algorithmen zur Beschleunigung des Fingerabdruck-Matchings auf parallelen Plattformen Heutzutage ist der Fingerabdruck das am häufigsten verwendete biometrische Merkmal zur Identifizierung von Personen. In diesem Bereich sind die aktuellen Algorithmen sehr genau, aber wenn die Datenbank Millionen von Identitäten enthält, ist eine Beschleunigung des Algorithmus erforderlich. Von diesen Algorithmen sticht Minutia Cylinder-Code (MCC) durch seine guten Ergebnisse in Bezug auf die Genauigkeit hervor, seine Effizienz in der Rechenzeit ist jedoch nicht hoch. In dieser Arbeit schlagen wir vor, zwei verschiedene parallele Plattformen zu verwenden, um den Fingerabdruck-Abgleichprozess mithilfe von MCC zu beschleunigen: (1) einen Multi-Core-Server und (2) einen Xeon Phi-Coprozessor. Unser Vorschlag basiert auf Heaps als Hilfsstruktur, um die globale Ähnlichkeit von MCC zu verarbeiten. Da heap-basierte Algorithmen erschöpfend sind (auf alle Elemente wird zugegriffen), haben wir auch die Verwendung eines Indexierungsalgorithmus untersucht, um den Vergleich der Abfrage mit allen Fingerabdrücken der Datenbank zu vermeiden. Experimentelle Ergebnisse zeigen eine bis zu 97,15-fache Verbesserung der Geschwindigkeit, was im Vergleich zu anderen hochmodernen Algorithmen in GPU und FPGA konkurrenzfähig ist. Nach unserem besten Wissen ist dies die erste Arbeit zur Fingerabdruckerkennung mit einem Xeon Phi-Coprozessor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-27713-0_6 7658a8f6ba03ecfd39cee2c0ad82872f;de;;;2.2.;;;Datenschutz in der elektronischen Gesellschaft schützen Die Privatsphäre der Benutzer, die Vertraulichkeit von Organisationen und der Schutz riesiger Sammlungen sensibler Informationen, möglicherweise im Zusammenhang mit Daten, die für verschiedene Zwecke öffentlich oder halböffentlich veröffentlicht werden können, sind wesentliche Anforderungen für die heutige elektronische Gesellschaft. In diesem Kapitel besprechen wir die wichtigsten Datenschutzbedenken, die bei der Weitergabe von Informationen an Dritte auftreten. Insbesondere konzentrieren wir uns auf die Datenpublikations- und Daten-Outsourcing-Szenarien, veranschaulichen die sich abzeichnenden Trends in Bezug auf Privatsphäre und Datenschutz und identifizieren einige Forschungsrichtungen, die untersucht werden müssen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20077-9_2 d83677eda69fb919bc6c17b75f639270;de;;;2.2.;;;Ein probabilistisches Clustering-Projektionsmodell für diskrete Daten Für diskrete Kookkurrenzdaten wie Dokumente und Wörter sind die Berechnung optimaler Projektionen und das Clustering zwei verschiedene, aber verwandte Aufgaben. Das Ziel der Projektion besteht darin, einen niederdimensionalen latenten Raum für Wörter zu finden, und das Clustering zielt darauf ab, Dokumente basierend auf ihren Merkmalsdarstellungen zu gruppieren. Im Allgemeinen werden Projektion und Clustering unabhängig voneinander untersucht, aber beide repräsentieren die intrinsische Struktur von Daten und sollten sich gegenseitig verstärken. In diesem Papier stellen wir ein probabilistisches Clustering-Projection (PCP)-Modell für diskrete Daten vor, bei dem beide in einem einheitlichen Rahmen dargestellt werden. Es wird gesehen, dass Clustering im projizierten Raum durchgeführt wird, und die Projektion berücksichtigt explizit die Clustering-Struktur. Es stellt sich heraus, dass die Iteration der beiden Operationen genau der Variational-EM-Algorithmus unter Bayes-Modellinferenz ist und somit garantiert die Datenwahrscheinlichkeit verbessert. Das Modell wird an zwei Textdatensätzen evaluiert, die beide sehr ermutigende Ergebnisse zeigen.;-;-;-;https://link.springer.com/chapter/10.1007/11564126_41 7e55278a98a7a7fe166530763826d3ec;de;;;2.2.;;;Indexstruktur für klassenübergreifende Abfragen in der Object Deputy Database Dieses Papier schlägt eine Indexstruktur für die Object Deputy Database vor, die als „Object Deputy Path Index (ODPI)“ bezeichnet wird. ODPI kann die Kosten für die Auswertung von Pfadausdrücken reduzieren, dem wichtigsten Prozess der klassenübergreifenden Abfrage in der Object Deputy Database. Der Object Deputy Path Index kann Pfadinstanzen in der Indexstruktur materialisieren, wodurch eine redundante Objektdurchquerung bei der Abfrageverarbeitung vermieden wird. Dieses Dokument stellt auch eine Wartungsmethode für ODPI vor. Die Experimente analysieren die Einflussfaktoren der Pfadexpressionsbewertung und die experimentellen Ergebnisse zeigen, dass die Pfadexpressionsbewertung mit ODPI die anderen Methoden in den meisten Fällen übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23535-1_42 19fb2e604332db45c4ef7c10b48268ab;de;;;2.2.;;;Fortgeschrittene Methoden zur Gewinnung von Werten aus wissenschaftlichen Datensätzen Heutzutage ist die wissenschaftliche Gemeinschaft im Vergleich zu den vergangenen Jahrhunderten um ein Vielfaches größer. Der Bedarf an leistungsstarken Werkzeugen zum Sammeln und Analysieren von Informationen über Artikel, Bücher und andere Veröffentlichungen wird mit jedem veröffentlichten Artikel größer. In diesem Papier beschreiben wir eine Lösung zum Verständnis und zur Nutzung dieser Daten. Die Plattform integriert folgende Anforderungen: Datenaggregation, Datenanalyse (Visualisierungen, Dashboards, Grafiken), komplexe und einfache Suchen und Unterstützung für den Datenexport. Die Plattform bietet ihren Nutzern aus verschiedenen Gründen einen Mehrwert, wie z. B. die schnelle Identifizierung relevanter Daten und die eingehende Analyse der bereitgestellten Eingaben. Ein weiteres wichtiges Merkmal ist die Granularität, da die Anwendung für anspruchsvolle Anwendungsfälle leicht konfigurierbar ist: nur ein Autor, eine Gruppe von Autoren oder ein ganzes wissenschaftliches Gebiet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30143-9_7 0a529be8281a2b975e7b1c68401953a7;de;;;2.2.;;;Ein Bildabrufsystem für Video Seit den 1970er Jahren ist das Content-Based Image Indexing and Retrieval (CBIR) ein aktiver Bereich. Heutzutage hat die schnelle Zunahme von Videodaten den Weg für die Weiterentwicklung der Technologien in vielen verschiedenen Communities zur Erstellung von Content-Based Video Indexing and Retrieval (CBVIR) geebnet. Der Entwicklung effektiver Tools für die Videosuche und das Browsen muss jedoch größere Aufmerksamkeit gewidmet werden. In diesem Beitrag präsentieren wir;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-32047-8_29 8f24fe79bae1a3f3e3d1a30d5caab4f8;de;;;2.2.;;;Organisation und Evolution ribosomaler RNA-Gene in Weizenmitochondrien Mitochondriale DNA (mtDNA) ist dafür bekannt, die charakteristische ribosomale RNA (rRNA)-Spezies zu kodieren, die in den organellenspezifischen Ribosomen zu finden ist, die bei der mitochondrialen Proteinsynthese wirken [1]. Qualitativ und quantitativ ist die rRNA-Produktion eine wichtige genetische Funktion der mtDNA und die Faktoren, die die mitochondriale rRNA (mt-rRNA)-Synthese steuern, sind daher von großem Interesse. Da zudem homologe rRNA-Spezies in allen Systemen (eukaryotisches Zytosol, prokaryotisch, chloroplastisch, mitochondrial) mit einem Ribosomen-basierten Translationssystem vorkommen, sind vergleichende Untersuchungen dieser rRNAs und ihrer Gene ein wichtiges Mittel, um die Evolutionsgeschichte der eukaryotischen Zelle zu beleuchten und seine Organellen [2]. Aus diesen Gründen haben wir die Organisation und Evolution der rRNA-Gene in Pflanzenmitochondrien untersucht, insbesondere in denen von Weizen,;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-4538-1_36 02c69eb5191198358dbd9ede00a353b1;de;;;2.2.;;;Modell zur adaptiven Erkennung von Schusswechseln in Echtzeit Die Aufnahmeänderungserkennung ist die Haupttechnik bei der Videosegmentierung, die eine Echtzeitverarbeitung und eine automatische Verarbeitung in der Hardware erfordert. In diesem Papier schlagen wir das SCD-Modell für die Echtzeiterkennung von Schusswechseln in PMPs und Mobiltelefonen vor. Das Echtzeit-SCD-Modell bestimmt die Aufnahmeänderungserkennung durch Vergleichen des Merkmalswerts des aktuellen Rahmens und eines mittleren Merkmalswerts auf einem variablen Referenzblock. Das vorgeschlagene Verfahren kann unabhängig vom Merkmalswert des Rahmens verwendet werden, kann einen automatischen Schwellenwert unter Verwendung eines mittleren Merkmalswerts auf einem variablen Referenzblock einstellen. Wir erhielten im Experiment mit der gleichen Testsequenz ein besseres Detektionsverhältnis als die herkömmlichen Methoden maximal durch die Präzision 0,146, Recall 0,083, F1 0,089. Daher wird unser vorgeschlagener Algorithmus beim Durchsuchen von Videodaten auf tragbaren Mediaplayern wie PMPs und Mobiltelefonen hilfreich sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17641-8_29 c9918c937d8b2bd56248153fb98dacd7;de;;;2.2.;;;Generisches und effizientes Framework für Suchbäume auf Flash-Speichersystemen Baumindexstrukturen sind entscheidende Komponenten in Datenmanagementsystemen. Bestehende Baumindexstrukturen werden mit der impliziten Annahme entworfen, dass der zugrunde liegende externe Speicher die herkömmlichen magnetischen Festplattenlaufwerke sind. Diese Annahme wird bald ungültig sein, da Flash-Speicher zunehmend als Hauptspeichermedium in mobilen Geräten, Digitalkameras, eingebetteten Sensoren und Notebooks verwendet werden. Obwohl es direkt und einfach ist, bestehende Baumindexstrukturen auf den Flash-Speicher zu portieren, berücksichtigt dieser direkte Ansatz nicht die einzigartigen Eigenschaften von Flash-Speichern, dh langsame Schreibvorgänge und die Eigenschaft zum Löschen vor dem Aktualisieren, was zu einem suboptimale Leistung. In diesem Whitepaper stellen wir FAST (d. h. Flash-Aware Search Trees) als generisches Framework für Flash-fähige Baumindexstrukturen vor. FAST unterscheidet sich von allen bisherigen Versuchen der Flash-Speicher-Indizierung in zwei Aspekten: (1) FAST ist ein generisches Framework, das auf eine breite Klasse von Datenpartitionierungsbaumstrukturen einschließlich des R-Baumes und seiner Varianten angewendet werden kann, und (2) beide;-;-;-;https://link.springer.com/article/10.1007/s10707-012-0164-9 735a16b5d0f97b19a86ca274a3644b98;de;;;2.2.;;;KRBKSS: ein auf Schlüsselwörtern basierendes Suchsystem mit Schlüsselwörtern für Peer-to-Peer-Netzwerke Die verteilte invertierte Indextechnologie wird in vielen Peer-to-Peer (P2P)-Systemen verwendet, um schnell Dokumente zu finden, in denen ein bestimmtes Wort vorkommt. Ein verteilter invertierter Index nach Schlüsselwörtern kann eine erhebliche Bandbreite für die Ausführung komplizierterer Suchabfragen, wie z. B. Abfragen mit mehreren Attributen, erfordern. Um den Abfrageaufwand zu reduzieren, partitioniert KSS (Keyword-Set Search) von Gnawali den Index nach einer Reihe von Schlüsselwörtern. Ein KSS-Index ist jedoch erheblich größer als ein standardmäßiger invertierter Index, da es mehr Wortgruppen als einzelne Wörter gibt. Und der Einfüge- und Speicheraufwand ist für die Volltextsuche in einer Dokumentensammlung offensichtlich nicht akzeptabel, selbst wenn KSS die Distance Window-Technologie verwendet. In diesem Artikel extrahieren wir die Beziehungsinformationen zwischen Abfrageschlüsselwörtern aus den Abfrageprotokollen von Websites, um die Leistung des KSS-Systems zu verbessern. Die Ergebnisse der Experimente zeigten deutlich, dass das verbesserte Suchsystem mit Schlüsselwörtern basierend auf der Schlüsselwortbeziehung (KRBKSS) effizienter ist als der KSS-Index in Bezug auf den Einfügungs- und Speicheraufwand und ein invertierter Standardindex in Bezug auf die Kommunikationskosten für die Abfrage.;-;-;-;https://link.springer.com/article/10.1631/jzus.2005.A0577 4e40a20e1eda36a1313bac540c6b521f;de;;;2.2.;;;Zeitliche Regelerkennung mit genetischer Programmierung und spezialisierter Hardware Das Auffinden von Assoziationsregeln ist ein etabliertes Problem im Bereich Data Mining, für das viele Lösungen existieren. In späteren Jahren wurden mehrere Methoden zum Mining von Regeln aus sequentiellen und zeitlichen Daten vorgeschlagen. In diesem Beitrag wird eine neuartige Technik vorgestellt, die auf genetischer Programmierung und spezialisierter Mustervergleichshardware basiert. Die Vorteile dieser Methode sind ihre Flexibilität und Anpassungsfähigkeit sowie ihre Fähigkeit, verständliche Regeln von beträchtlicher Komplexität zu erstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45240-9_13 4074c55d112b8deb62767f708dc9675b;de;;;2.2.;;;Vektorverarbeitung auf CRAY-1 und CRAY X-MP Vektorprozessoren bieten große Leistungsverbesserungen bei wissenschaftlichen und technischen Berechnungen. Dies wird durch eine spezialisierte Architektur erreicht, die für die schnelle Verarbeitung bestimmter Arten von Operationen ausgelegt ist. Andererseits führt diese Spezialisierung in Hardware und Architektur zu einer entsprechenden Spezialisierung in der Programmierung und Programmoptimierung für solche Maschinen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-5021-7_2 6f2022360dc27f1aeecddddb014b8ac5;de;;;2.2.;;;Analyse von Tweets in arabischer Sprache zur Erkennung von Straßenverkehrsbedingungen Verkehrsstaus sind ein weltweites Problem, das zu massiven Verzögerungen, erhöhtem Kraftstoffverbrauch und Schäden an menschlichem Reichtum, Gesundheit und Leben führt. Diverse soziale Medien z.B. Twitter hat sich zu einer wichtigen Informationsquelle zu verschiedenen Themen, einschließlich Echtzeit-Straßenverkehr, entwickelt. Insbesondere können soziale Medien Informationen über bestimmte zukünftige Ereignisse, die Ursachen für das bestimmte Verhalten, Anomalien und Unfälle sowie die öffentliche Meinung zu einer Angelegenheit liefern. In diesem Papier wollen wir Tweets (in arabischer Sprache) analysieren, die sich auf den Straßenverkehr in der Stadt Jeddah beziehen, um die am stärksten überlasteten Straßen zu erkennen. Mit der SAP HANA-Plattform für Twitter-Datenextraktion, -speicherung und -analyse stellen wir fest, dass Al-Madinah, King AbdulAziz und Alharamain die am stärksten überlasteten Straßen der Stadt sind. Die Tweets zum Straßenverkehr werden hauptsächlich in den Stoßzeiten veröffentlicht , und die höchste Zeit für Tweets ist 13 Uhr.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94180-6_12 9acca0874f44294c6b32dec3079a4f5d;de;;;2.2.;;;Schnelle 3D-Erkennung für Forensik- und Anti-Terror-Anwendungen Die Entwicklung fortschrittlicher Techniken zur schnellen 3D-Rekonstruktion und Erkennung menschlicher Gesichter in uneingeschränkten Szenarien kann die Bekämpfung von Kriminalität und Terrorismus erheblich unterstützen. Wir beschreiben eine 3D-Lösung, die innerhalb der Sheffield Hallam University entwickelt wurde und eine Reihe wichtiger Anforderungen erfüllt, wie z. Es werden experimentelle Ergebnisse der 3D-Gesichtserkennung berichtet und zwei Szenarien bereitgestellt, die verwendet werden können, um die Ergebnisse dieser Forschung für forensische Analysen und zur Erkennung potenzieller Bedrohungen in der Terrorismusbekämpfung zu nutzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-2140-4_7 fb84af1c0c3fb080171a08d918e0698f;de;;;2.2.;;;Fortschritte beim Erdrutsch-Nowcasting: Evaluierung eines globalen und regionalen Modellierungsansatzes Die zunehmende Verfügbarkeit von Fernerkundungsdaten bietet eine neue Möglichkeit, die Gefährdungsbeurteilung von Erdrutschen in größeren räumlichen Maßstäben anzugehen. Es wurde ein Prototyp eines globalen satellitengestützten Erdrutschgefahralgorithmus entwickelt, um Gebiete zu identifizieren, in denen Erdrutschaktivitäten auftreten können. Dieses System kombiniert eine Berechnung der statischen Anfälligkeit für Erdrutsche mit satellitengestützten Niederschlagsschätzungen und verwendet einen Schwellenwertansatz, um eine Reihe von „Nowcasts“ zu generieren, die potenziell gefährliche Gebiete klassifizieren. Eine kürzlich durchgeführte Evaluierung dieses Algorithmus-Frameworks ergab, dass dieses Tool zwar einen wichtigen ersten Schritt bei groß angelegten Bemühungen zur zeitnahen Erdrutschgefahrenbewertung darstellt, jedoch mehrere Modifikationen erfordert, bevor es vollständig als operatives Tool umgesetzt werden kann. Diese Studie stützt sich auf die Empfehlungen einer früheren Arbeit, um einen neuen Ansatz zur Berücksichtigung der Anfälligkeit und Gefahr von Erdrutschen auf regionaler Ebene zu entwickeln. Diese Fallstudie berechnet eine regionale Anfälligkeitskarte unter Verwendung von Fernerkundungs- und In-situ-Informationen und einer Datenbank von Erdrutschen, die 1998 durch Hurrikan Mitch in vier Ländern Mittelamerikas ausgelöst wurden. Die Anfälligkeitskarte wird mit einem regionalen Auslöseschwellenwert für Niederschlagsintensität und -dauer bewertet und die Ergebnisse werden mit dem globalen Algorithmus-Framework für dasselbe Ereignis verglichen. Die Bewertung dieses regionalen Systems legt nahe, dass dieser empirisch basierte Ansatz einen plausiblen Weg bietet, einige der in der globalen Bewertung identifizierten Daten- und Lösungsprobleme anzugehen. Die vorgestellte Methodik ist einfach umzusetzen, verbessert den globalen Ansatz und ermöglicht die Übertragbarkeit der Ergebnisse zwischen den Regionen. Die Ergebnisse heben auch einige verbleibende Herausforderungen hervor, einschließlich der empirischen Natur des Algorithmus-Frameworks und angemessener Informationen für die Algorithmusvalidierung. Die Schlussfolgerungen deuten darauf hin, dass die Integration zusätzlicher auslösender Faktoren wie der Bodenfeuchtigkeit dazu beitragen kann, die Genauigkeit der Algorithmenleistung zu verbessern. Das regionale Algorithmus-Szenario stellt einen wichtigen Schritt nach vorn dar, um die Gefährdungsbeurteilung von Erdrutschen auf regionaler und globaler Ebene voranzutreiben.;-;-;-;https://link.springer.com/article/10.1007/s12665-011-0990-3 cfd68fbe55f93d377a9f84145da2adde;de;;;2.2.;;;Die klinische Bedeutung des MIB-1-Markierungsindex bei Hypophysenadenomen Hypophysenadenome sind in mehrfacher Hinsicht einzigartig – sie sind selten bösartig und können dennoch in mehrere Kompartimente invasiv sein. Rezidive bei Tumoren mit milden histologischen Merkmalen, die radikal entfernt wurden, sind ein Grund für die Frustration, mit der Endokrinologen und Neurochirurgen bei der Behandlung von Hypophysenadenomen konfrontiert sind. Es wurden daher mehrere Versuche unternommen, das Wachstumspotential von Hypophysenadenomen zu bestimmen. Ziel der vorliegenden Studie war es, die biologische Bedeutung des MIB-1-Markierungsindex (MIB-1 LI) bei Hypophysenadenomen zu definieren. Die Studie umfasste 159 Fälle von chirurgisch behandeltem Hypophysenadenom, die in einer einzigen Einrichtung beobachtet wurden. Es wurde kein Zusammenhang von MIB-1 LI mit Alter oder Geschlecht gefunden. Der mittlere MIB-1 LI für klinisch funktionelle Adenome war geringfügig höher als der für klinisch nicht funktionelle Adenome. Bei Tumoren mit einem maximalen Durchmesser von mehr als 4 cm zeigte sich ein signifikanter Unterschied im MIB-1 LI bei einem MIB-1 LI von ≥2%, dieser Unterschied war jedoch bei einem höheren MIB-1 LI Cut-Off-Wert nicht statistisch signifikant von >3%. Der mittlere MIB-1 LI war signifikant höher bei Tumoren, die Hydrozephalus verursachten, und bei solchen mit einer Invasion des Sinus cavernosus und nicht, wenn die Invasion als Invasion durch einen Tumor in jede Richtung definiert wurde. Wir schließen daraus, dass große Hypophysenmakroadenome, Tumoren, die den dritten Ventrikel füllen und einen Hydrozephalus verursachen, und Tumoren mit echten Invasionen des Sinus cavernosus wahrscheinlich einen höheren Proliferationsindex aufweisen. Eine engmaschige Nachuntersuchung von Tumoren, die diese Bildgebungsmerkmale aufweisen, wird empfohlen.;-;-;-;https://link.springer.com/article/10.1007/s11102-010-0242-7 94f3bbe095194afe2cb397eb415d53e1;de;;;2.2.;;;SportsVBR: Ein inhaltsbasiertes System zum Durchsuchen und Abrufen von TV-Sportvideos In dieser Arbeit wird ein fortschrittliches inhaltsbasiertes Sportvideo-Browsing- und -Retrieval-System, SportsVBR, vorgeschlagen. Zu den Hauptfunktionen gehören das ereignisbasierte Durchsuchen von Sportvideos und das schlüsselwortbasierte Abrufen von Sportvideos. Der Artikel definiert zunächst die Grundstruktur unseres SportsVBR-Systems und stellt dann einen neuartigen Ansatz vor, der multimodale Analysen wie visuelle Stream-Analyse, Spracherkennung, Sprachsignalverarbeitung und Textextraktion integriert, um eine ereignisbasierte Videoclipauswahl zu realisieren. Die experimentellen Ergebnisse für Sportvideos von Fußballweltmeisterschaften zeigen, dass die multimodale Analyse zum Durchsuchen und Abrufen von Videos effektiv ist, indem ereignisbasierte Videoclips schnell durchsucht und Schlüsselwörter gemäß einer vordefinierten Sportvokabulardatenbank eingegeben werden. Das System hat sich als hilfreich und effektiv für das Gesamtverständnis der Sportvideoinhalte erwiesen.;-;-;-;https://link.springer.com/chapter/10.1007/11558651_11 5ea19466527a461214bb3692907cbd2d;de;;;2.2.;;;Ringe – Wie wichtig es ist, wahrgenommen zu werden In Bereichen wie Retrieval, QSAR, Synthesedesign, Reaktionsindizierung und Strukturdarstellung ist die Ringanalyse als deskriptives Hilfsmittel und als Ergänzung zu anderen Strukturanalysen erforderlich. Es ist nicht trivial, jene Ringe zu finden, die für eine eindeutige Darstellung notwendig und ausreichend sind, auf effiziente Weise und für die schlimmsten Fälle. Zu den Themen gehören die 2D-Darstellung von 3D-Strukturen, die Definition und Wahrnehmung eines Ringsatzes und ob Vertex- und Cut-Vertex-Graphen die Analyse vereinfachen. Besondere Probleme bereiten generische und Teil-/Unterstrukturen. Unterstrukturabfragen können am schlechtesten definiert sein, was zu Problemen bei strukturellen Konventionen und der Ring-/Kettendifferenzierung führt. Nach der Ringwahrnehmung ist es notwendig, die für eine bestimmte Anwendung relevanten Informationen auszuwählen und darzustellen. Dies kann als Verdichtung verwendet werden, um ein effizienteres Matching zu ermöglichen, und als Ausdruck, um reduzierten Graphen mehr Details zu geben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-78027-1_19 38701d31bb13d6626912f3153e8550bc;de;;;2.2.;;;XQuery-basierte Abfrageverarbeitung in Open Street Map Freiwillige geographische Informationen (VGI) stellen eine sehr große Ressource an geographischen Daten zur Verfügung. Die Verwertung von Daten aus solchen Ressourcen erfordert zusätzlichen Aufwand in Form von Werkzeugen und effektiven Verarbeitungstechniken. Eine der etabliertesten VGIs ist Open Street Map (OSM), die Daten von Stadt- und Landkarten von der Erde bietet. In diesem Papier stellen wir eine Bibliothek zum Abfragen von OSM mit XQuery vor. Diese Bibliothek basiert auf den bekannten räumlichen Operatoren von Clementini und Egenhofer und bietet ein Repertoire an XQuery-Funktionen, die die Suche im XML-Dokument, das eine OSM-Schicht darstellt, kapseln und die Definition von Abfragen auf OSM-Schichten vereinfachen. Im Wesentlichen ist die Bibliothek mit einer Reihe von OSM-Operatoren für OSM-Elemente ausgestattet, die in Kombination mit den Higher Order-Funktionen von XQuery die Zusammenstellung von Abfragen und die Definition von schlüsselwortbasierten geolokalisierten Suchabfragen erleichtert. OSM-Daten werden durch eine R-Baumstruktur indiziert, in der OSM-Elemente von Minimum Bounding Rectangles (MBRs) eingeschlossen sind, um eine kürzere Antwortzeit zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-29589-3_4 89922c37e5bb7322fa4a462d704598c2;de;;;2.2.;;;Visualisierung von Clusterstrukturen und ihrer zeitlichen Veränderungen durch die zweistufige Anwendung selbstorganisierender Karten In diesem Beitrag wird eine neuartige Methode zur Visualisierung von Clusterstrukturen und ihrer zeitlichen Veränderungen vorgeschlagen. Das Clustering wird durch die zweistufige Anwendung von selbstorganisierenden Karten (SOMs) erreicht. Durch die zweistufige Anwendung von SOMs wird jedem Cluster ein Winkel und eine Farbe zugewiesen. Ähnliche Cluster werden ähnlichen zugewiesen. Durch die Verwendung von Farben und Winkeln werden Clusterstrukturen auf verschiedene Weise visualisiert. In diesen Visualisierungen ist es einfach, ähnliche Cluster zu identifizieren und den Grad der Clustertrennung zu sehen. So können wir visuell entscheiden, ob einige Cluster gruppiert oder getrennt werden sollen. Farben und Winkel werden auch verwendet, um Cluster in mehreren Datensätzen aus verschiedenen Zeiträumen vergleichbar zu machen. Auch wenn sie zu unterschiedlichen Perioden gehören, werden ähnlichen Clustern ähnliche Farben und Winkel zugeordnet, so dass man leicht erkennen kann, welcher Cluster im Laufe der Zeit gewachsen oder abgenommen hat. Als Beispiel wird das vorgeschlagene Verfahren auf eine Sammlung japanischer Nachrichtenartikel angewendet. Experimentelle Ergebnisse zeigen, dass die vorgeschlagene Methode Clusterstrukturen und deren zeitliche Veränderungen klar visualisieren kann, selbst wenn es sich um mehrere Datensätze aus verschiedenen Zeiträumen handelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28320-8_14 cdf900ef644f3808897e5ccc2f0f1060;de;;;2.2.;;;Die reine Theorie des internationalen Handels: Eine Umfrage Kapitel gibt einen Überblick über den Zweig der internationalen Handelstheorie, der in Anlehnung an Marshall allgemein als „rein“ bezeichnet wird. Dieser Beiname trennt sie von der „monetären“ Theorie. es ist;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-00460-7_3 bd2f9e852770499a1d0f6c5479b35ec4;de;;;2.2.;;;Überprüfung der elektronischen Speckle-Pattern-Interferometrie (ESPI) zur dreidimensionalen Wegmessung Dreidimensionale (3D) Verschiebungen, die weiter in 3D Dehnungen übersetzt werden können, sind Schlüsselparameter für Design, Fertigung und Qualitätskontrolle. Unter Verwendung verschiedener optischer Setups, Phasenverschiebungsmethoden und Algorithmen wurden mehrere verschiedene elektronische 3D-Speckle-Pattern-Interferometrie(ESPI)-Systeme für Verschiebungs- und Dehnungsmessungen entwickelt und vermarktet. Dieses Papier bietet einen Überblick über die jüngsten Entwicklungen bei ESPI-Systemen zur 3D-Verschiebungs- und Dehnungsmessung. Nach einem Überblick über die Grundlagen der ESPI-Theorie, der temporalen Phasenverschiebungs- und räumlichen Phasenverschiebungstechniken, 3D-Deformationsmessungen durch das für statische Messungen gut geeignete temporale Phasenverschiebungs-ESPI-System und durch die räumliche Phasenverschiebungs-ESPI System, das besonders für dynamische Messungen nützlich ist, werden diskutiert. Für jede Methode werden die grundlegende Theorie, eine kurze Herleitung und verschiedene optische Layouts vorgestellt. Der Stand der Technik Anwendung, Potenzial und Grenzen der ESPI-Systeme werden gezeigt und demonstriert.;-;-;-;https://link.springer.com/article/10.3901/CJME.2014.01.001 55f3aaf9bf808a741850ee2f13d5cb18;de;;;2.2.;;;Konten, Cookies und Warenkörbe Es wird eine Anwendung entwickelt, die erfordert, dass sich ein Benutzer bei der Site einloggt. Nach der Anmeldung des Benutzers werden die bisherigen Daten des Benutzers aus der Datenbank abgerufen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-2443-6_7 f5d0f1e0af91936fee973a38e70d768a;de;;;2.2.;;;Eine linear-algebraische Technik mit einer Anwendung bei der semantischen Bildwiederherstellung Dieses Papier stellt eine neuartige Technik zum Erlernen der zugrunde liegenden Struktur vor, die visuelle Beobachtungen mit Semantik verknüpft. Die Technik, inspiriert von einer Textabruftechnik, die als sprachenübergreifende latente semantische Indizierung bekannt ist, verwendet lineare Algebra, um die semantische Struktur zu lernen, die Bildmerkmale und Schlüsselwörter aus einem Trainingssatz annotierter Bilder verknüpft. Diese Struktur kann dann auf nicht kommentierte Bilder angewendet werden, wodurch die Möglichkeit bereitgestellt wird, die nicht kommentierten Bilder basierend auf Schlüsselwörtern zu durchsuchen. Dies;-;-;-;https://link.springer.com/chapter/10.1007/11788034_4 bce1e8a5b4cb0db3ba1c8c8082b7b7c7;de;;;2.2.;;;Wiederkehrende Aufgaben Als meine Kinder noch klein waren, habe ich mit ihnen gespielt und ihnen Bücher vorgelesen. Wenn sie besonders unterhalten würden, würde ich von ihnen den Befehl „Mach es nochmal! Und natürlich habe ich es getan oder noch einmal gelesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-6642-9_3 8e6c6562b74ac9f8343d5ea1a8381dca;de;;;2.2.;;;Auswertung von Deskriptoralgorithmen biologischer Sequenzen und Distanzmaße für den Intelligent Cluster Index (ICIx) Im Rückblick auf die vergangenen Jahrzehnte ist ein rasantes Datenwachstum in allen Bereichen der Life Sciences erkennbar. Am bemerkenswertesten ist die allgemeine Tendenz, bewährte Techniken in Bezug auf spezifische biologische Anforderungen und gemeinsame Taxonomien für die Datenklassifizierung beizubehalten. Daher ist ein Perspektivwechsel hin zu fortschrittlichen technologischen Konzepten zur Persistenz, Organisation und Analyse dieser riesigen Datenmengen unabdingbar. Der Intelligent Cluster Index (ICIx) ist eine moderne Technologie, die mehrdimensionale Daten nach semantischen Kriterien indiziert und für diese Herausforderung qualifiziert ist. In diesem Beitrag werden methodische Ansätze zur Indexierung biologischer Sequenzen mit dem ICIx diskutiert und evaluiert. Dies beinhaltet die Untersuchung etablierter Methoden, die sich auf die Vektortransformation konzentrieren, sowie die Leistungsfähigkeit verschiedener Distanzmaße, die auf diese Vektoren angewendet werden. Basierend auf unseren Ergebnissen wird deutlich, dass positionserhaltende Methoden anderen Ansätzen überlegen sind und die eingesetzten Distanzmaße die Leistung und Qualität stark beeinflussen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-34099-9_33 86df611110a2bcbbdf1cd462fea867dc;de;;;2.2.;;;Radikale Exzision des pädiatrischen Kraniopharyngeoms: Rezidivmuster und prognostische Faktoren Das Ziel unserer Studie war es, das Rezidivmuster und die prognostischen Faktoren für das Rezidiv von pädiatrischen Kraniopharyngeomen nach radikaler Exzision zu untersuchen. Eine Serie von 36 Patienten mit Kraniopharyngeomen (21 Jungen und 15 Mädchen, Altersspanne 1–15 Jahre, Mittelwert 7,3 Jahre) wurde untersucht. Alle Patienten hatten sich einer radikalen Exzision ohne Strahlentherapie unterzogen. Die mittlere Nachbeobachtungszeit betrug 52 Monate (Bereich 1–149 Monate). Bei 14 Patienten traten innerhalb von 83 Monaten (Mittelwert 31,4 Monate) Tumorrezidive auf. Die rezidivfreie 5-Jahres-Überlebensrate betrug 55 %. Regelmäßige bildgebende Nachuntersuchungen entdeckten ein Tumorrezidiv, während die Läsionen noch klein waren, bevor sich Symptome entwickelten (;-;-;-;https://link.springer.com/article/10.1007/s003810100458 ef485b6c8cff7d6da2750ca0120869bb;de;;;2.2.;;;Einheitliche Designs und Codes Ein einheitliches Design ist eine Sammlung von einheitlichen Matrizen, die sich der gesamten Einheitsgruppe annähern, ähnlich wie ein sphärisches Design die gesamte Einheitskugel approximiert. In dieser Arbeit verwenden wir irreduzible Darstellungen der unitären Gruppe, um eine allgemeine untere Schranke für die Größe einer unitären Gruppe zu finden;-;-;-;https://link.springer.com/article/10.1007/s10623-009-9290-2 e691067ee9af3b99ff5e8edb34427ac5;de;;;2.2.;;;Kontinuierliche Standortabfragen mit mobilen Agenten überwachen Heutzutage nimmt die Zahl der Nutzer mobiler Geräte kontinuierlich zu. Die verfügbaren Datendienste für diese Benutzer sind jedoch selten und bieten normalerweise eine ineffiziente Leistung. Insbesondere an ortsbezogenen Diensten besteht ein wachsendes Interesse, aber die Verarbeitung ortsabhängiger Anfragen ist in der neuen mobilen Computerumgebung immer noch Gegenstand der Forschung. Besondere Schwierigkeiten ergeben sich bei der Notwendigkeit, die Beantwortung dieser Anfragen aufgrund der Mobilität der beteiligten Objekte aktuell zu halten. In diesem Beitrag stellen wir einen neuen Ansatz zur Verarbeitung von ortsabhängigen Abfragen vor, der die folgenden Merkmale aufweist: 1) Er behandelt Szenarien, in denen Benutzer, die Abfragen ausgeben, sowie an solchen Abfragen beteiligte Objekte ihren Standort ändern können, 2) er befasst sich mit kontinuierlichen Abfragen und so werden Antworten in einer bestimmten Häufigkeit aktualisiert, 3) es bietet eine vollständig dezentrale Lösung und 4) es optimiert die Kosten für die drahtlose Kommunikation durch den Einsatz mobiler Agenten. Wir konzentrieren uns auf die Art und Weise, wie dem Benutzer präsentierte Daten aktualisiert werden müssen, um eine aktuelle Antwort zu zeigen, aber den Kommunikationsaufwand zu optimieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45710-0_9 6efd383f38ef568984688d5f24c26a93;de;;;2.2.;;;Himmlische Mechanik Das Debüt von Karl Schwarzschild in seiner herausragenden Verlagslaufbahn gab es mit zwei Aufsätzen zur Himmelsmechanik, die er 1890 im Alter von nur 16 Jahren verfasste für seine eigene wissenschaftliche Entwicklung. Vierzehn Jahre nach diesen ersten Veröffentlichungen schrieb er einen Artikel, den letzten von acht Veröffentlichungen, in dem er den damaligen Stand der Himmelsmechanik zusammenfasste und Vorhersagen über ihre zukünftige Entwicklung machte. (Wir können seinen Beitrag zu Newcomb-Engelmanns „Popular Astronomy“, der zehn Jahre später verfasst wurde, zunächst außer Acht lassen.) In den folgenden Jahren beschäftigte er sich mit einem damals modischen Zweig der Astronomie, nämlich der Astrophysik. Seine Aufsätze zur Himmelsmechanik schrieb er in der Zeit zwischen 1890 und 1903 in Frankfurt und München und später an der von Kuffner-Sternwarte in Wien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-58086-4_3 94a4b4b831f2408d68ddcafb7c809d85;de;;;2.2.;;;Effiziente Simulationen einfacher Modelle paralleler Berechnungen durch zeitbegrenzte ATMs und raumbegrenzte TMs Wir präsentieren effiziente zeitbegrenzte ATM- und raumbegrenzte TM-Simulationen von Einwegkonglomeraten (OWCs), die miteinander verbundene Netzwerke von endlichen Automaten sind, die nur eine Einwegkommunikation zwischen benachbarten Knoten ermöglichen. Insbesondere zeigen wir, dass OWCs mit Tiefe;-;-;-;https://link.springer.com/chapter/10.1007/3-540-19488-6_111 e1c0ed19c6cd464f24eb9aa1842e1a5c;de;;;2.2.;;;Untersuchung großer digitaler Himmelsvermessungen Wir besprechen einige der wissenschaftlichen Möglichkeiten und technischen Herausforderungen, die sich aus der Erforschung der großen digitalen Himmelsdurchmusterungen im Kontext eines virtuellen Observatoriums (VO) ergeben. Das VO-Paradigma wird die Art und Weise, wie Beobachtungsastronomie betrieben wird, grundlegend verändern. Clustering-Analysetechniken können verwendet werden, um Proben seltener, ungewöhnlicher oder sogar zuvor unbekannter Arten von astronomischen Objekten und Phänomenen zu entdecken. Besonders vielversprechend ist die Erforschung der zuvor schlecht untersuchten Bereiche des beobachtbaren Parameterraums. Einige der möglichen Studientypen veranschaulichen wir mit Beispielen aus DPOSS, viel komplexere und interessantere Anwendungen sind in Vorbereitung. Die Entwicklung der neuen Werkzeuge, die für eine effiziente Erforschung dieser riesigen Datensätze erforderlich sind, erfordert eine Synergie zwischen Astronomie und Informationswissenschaften mit großem Ertragspotenzial für beide Bereiche.;-;-;-;https://link.springer.com/chapter/10.1007/10849171_37 86e51f3febac7e12ddbbe5932f22e349;de;;;2.2.;;;DOSR: Eine Methode des domänenorientierten semantischen Abrufs in XML-Daten Dieses Papier stellt eine Methode (mit dem Namen DOSR) vor, um das semantische Abrufen von XML-Dokumenten in einer bestimmten Domäne zu unterstützen. Es benötigt die Entität als grundlegende Einheit der Informationsverarbeitung, um die semantische Integrität der zurückgegebenen Ergebnisse zu gewährleisten. Eine effiziente Indexmethode namens Entity-based index ist für die Indizierung der Entitäten konzipiert. Es kann die Größe der Indexdatei erheblich reduzieren und gleichzeitig die Geschwindigkeit der Parsing-Entität garantieren. Um die Abfrageergebnisse zu ordnen, wird die Stratified-Weight-Methode als Verbesserung gegenüber der traditionellen Technologie vorgeschlagen. Experimentelle Ergebnisse zeigen, dass DOSR die Suchabsichten der Nutzer effektiv ableiten, das Suchziel schnell lokalisieren und die genauen Ergebnisse gemäß den Erwartungen der Nutzer zurückgeben kann. Die von DOSR verarbeiteten Ergebnisse garantieren semantische Integrität und vernünftige Ranking-Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29934-6_22 fdea701e7264e0307ec84f20b2d8649b;de;;;2.2.;;;Experimente mit einem Chunker und Lucene Das vorliegende Papier beschreibt die Art und Weise, wie wir an der französischen Strecke des CLEF-2002 teilgenommen haben. Wir haben einen morphologischen Analysator und einen syntaktischen Chunker verwendet, um Wörter eindeutig zu machen und bestimmte Wortkategorien herauszufiltern. Anschließend haben wir mit dem Lucene Indexor einen globalen Index erstellt. Für den Suchprozess haben wir boolesche Abfragen manuell geschrieben und mit dem Lucene-Abfrageauswerter getestet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45237-9_28 b070e317ef1940cd9bb399880e5167b6;de;;;2.2.;;;Datenschutzerhaltende Schlüsselwortsuche über verschlüsselte Cloud-Daten Cloud Computing ermöglicht es Unternehmen, ihre Daten auszulagern, indem ein Servicemodell namens Infrastructure as a Service (IaaS) bereitgestellt wird. In einer Public Cloud gehört die Infrastruktur einem Cloud-Dienstleister und wird von diesem verwaltet und befindet sich in der Kontrolle des Anbieters. Um die Privatsphäre sensibler Daten zu schützen, müssen Dokumente vor dem Outsourcing verschlüsselt werden. Wenn die Anzahl verschlüsselter Dokumente exponentiell ansteigt, werden der Suchdienst und das Abrufen kritisch. Der Prozess des Abrufens der Dateien, die das abgefragte Schlüsselwort enthalten, verursacht außerdem unnötigen Netzwerkverkehr, was im Cloud-Paradigma mit nutzungsbasierter Bezahlung absolut unerwünscht ist. In dieser Veröffentlichung wurde ein Suchschema vorgeschlagen, das sowohl Datenschutz als auch eine Rangfolgesuchfähigkeit mit weniger Overhead bietet. Suchindizes und Dokumente werden zunächst vom Dateneigentümer verschlüsselt und dann auf dem Cloud-Server gespeichert. Abrufergebnisse einer verschlüsselten Daten- und Sicherheitsanalyse unter verschiedenen Angriffsmodellen zeigen, dass der Datenschutz bei gleichzeitig sehr guter Abrufleistung gewahrt werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22709-7_47 213acda6d7710922edf9d82dabb9ab12;de;;;2.2.;;;Inhaltsbasierte Komprimierung für das Quicx-System XML wird weithin über das Internet für gängige Aufgaben bereitgestellt, darunter Konfigurationsdateien, Protokolle und Webdienste. In XML können einfache Nachrichten aufgrund der ausführlichen Syntax ziemlich groß sein. Die beiden Haupteinschränkungen in XML-Anwendungen sind ihre Größe und Abfrageeffizienz. Dieses Papier schlägt ein Schema vor, um das Komprimierungsverhältnis des QUICX-Systems (Query and Update support for Indexed and Compressed XML) zu erhöhen, indem ein auf Bitmasken basierender Komprimierungsalgorithmus anstelle der LZW-Komprimierung angewendet wird. Der vorgeschlagene Algorithmus übernimmt die im System vorhandenen Datencontainer zur Erhöhung des Kompressionsverhältnisses. Bei der herkömmlichen LZW-Komprimierung werden die sich wiederholenden Inhalte durch entsprechenden Code ersetzt, der im Wörterbuch verfügbar ist. Beim Auftreffen auf neue Inhalte wird entsprechender Code erzeugt und in das Wörterbuch und in die komprimierte Datei eingegeben. Die Wörterbuchgröße wird für die Datei erhöht, die mehr sich nicht wiederholende Wörter enthält. Dieser Nachteil wird durch die Verwendung einer auf Bitmasken basierenden Komprimierung vermieden, und die Ergebnisse werden gezeichnet, die die Effizienz des vorgeschlagenen Systems zeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22714-1_3 2c4163ea97ef27fb518fe181fbf01f62;de;;;2.2.;;;Rekonstruktion und Vorhersage von Variationen des offenen solaren magnetischen Flusses und der interplanetaren Bedingungen Historische geomagnetische Aktivitätsbeobachtungen wurden verwendet, um hundertjährige Variationen des offenen Sonnenflusses und der erdnahen heliosphärischen Bedingungen (das interplanetare Magnetfeld und die Sonnenwindgeschwindigkeit) aufzudecken. Die verschiedenen Methoden stimmen seit 135 Jahren sehr gut überein, als genügend zuverlässige magnetische Observatorien in Betrieb waren, um Probleme durch ortsspezifische Fehler und Kalibrierdriften zu beseitigen. Diese Übersicht unterstreicht die physikalischen Prinzipien, die diese Rekonstruktionen ermöglichen, sowie die Details der verschiedenen verwendeten Algorithmen und die erhaltenen Ergebnisse. Die Diskussion umfasst: die Bedeutung der Mittelungszeitskala, die Hauptunterschiede zwischen geomagnetischen Daten „Bereich“ und „zwischenzeitliche Variabilität“, die Notwendigkeit, die Sektorstruktur des Quellfeldes von der heliosphärischen Feldstruktur zu unterscheiden, die Bedeutung der Sicherstellung, dass Regressionen verwendet werden used statistisch robust und Unsicherheitsanalyse. Die Rekonstruktionen sind äußerst nützlich, da sie eine Kalibrierung zwischen den in-situ-Raumsondenmessungen der letzten fünf Jahrzehnte und den tausendjährigen Aufzeichnungen des heliosphärischen Verhaltens ermöglichen, die aus gemessenen Häufigkeiten kosmogener Radionuklide in terrestrischen Reservoirs abgeleitet wurden. Die Kontinuität des offenen Sonnenflusses unter Verwendung der Sonnenfleckenzahl zur Quantifizierung der Entstehungsrate ist die Grundlage einer Reihe von Modellen, die sehr erfolgreich bei der Reproduktion der von der geomagnetischen Aktivität abgeleiteten Variation waren. Diese Modelle erlauben es uns, die Rekonstruktionen bis vor die Entwicklung des Magnetometers zurückzuverfolgen und das Maunder-Minimum abzudecken. In Verbindung mit den Radionukliddaten verraten die Modelle viel darüber, wie sich Sonne und Heliosphäre außerhalb der großen Sonnenmaxima verhalten haben, und bieten eine Möglichkeit, vorherzusagen, wie sich die Sonnenaktivität wahrscheinlich entwickeln wird, jetzt, da das jüngste große Maximum (das im gesamten Raum vorherrschte) Alter) ist zu Ende.;-;-;-;https://link.springer.com/article/10.12942/lrsp-2013-4 e9b35f8f42ae8c4283cdf5bbc5064630;de;;;2.2.;;;Modellierungs- und Engineering-Algorithmen für mobile Daten In diesem Papier stellen wir einen objektorientierten Ansatz zur Modellierung mobiler Daten und Algorithmen vor, die mit solchen Daten arbeiten. Unser Modell ist allgemein genug, um jede Art von kontinuierlicher Bewegung zu erfassen und gleichzeitig umfassende Algorithmen zu ermöglichen, die für bestimmte Bewegungsarten optimiert sind. Eine solche Bewegung kann in einer bestimmten Form verfügbar sein, z. B. durch Polynome oder Splines beschrieben, oder implizit unter Verwendung von Geschwindigkeits- oder Beschleunigungsgrenzen, die durch den Anwendungskontext gegeben sind, eingeschränkt werden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-35589-8_5 8f433f7651bd0a3cb9e65423af48dbd6;de;;;2.2.;;;Vision-basierte feingranulare Standortschätzung In diesem Kapitel untersuchen wir eine Vielzahl von Techniken zur visuellen Standortbestimmung, bei denen das Ziel darin besteht, die Position eines Bildes auf einer feinkörnigen Ebene zu bestimmen. Zuerst stellen wir das Konzept über;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09861-6_4 146c42034d0fe84bf86fdfb8102a987f;de;;;2.2.;;;Effiziente k-Nearest Neighbor-Suchen nach parallelen mehrdimensionalen Indexstrukturen In diesem Beitrag schlagen wir eine parallele multidimensionale Indexstruktur- und Bereichssuche sowie k-NN-Suchmethoden für die Indexstrukturen vor. Die vorgeschlagene Indexstruktur ist die nP(Prozessor)-n×mD(Platte)-Architektur, die der Hybridtyp von nP-nD und 1P-nD ist. Seine Knotenstruktur erhöht die Auffächerung und verringert die Höhe eines Indexbaums. Außerdem sind die vorgeschlagenen Bereichssuchmethoden darauf ausgelegt, die E/A-Parallelität der Indexstruktur zu maximieren. Schließlich stellen wir eine neue Methode vor, um k-NN-Abfragen in Bereichssuchabfragen umzuwandeln. Durch verschiedene Experimente wird gezeigt, dass das vorgeschlagene Verfahren andere parallele Indexstrukturen übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/11733836_64 55206f02ddc4fa233dd1767ade7ef266;de;;;2.2.;;;Eine verschmolzene zeitliche Logik Es gibt zwei typische Möglichkeiten, Argumentation im Laufe der Zeit zu formalisieren. Die erste ist in einer modalen Logik, in der die Zeit implizit durch Tempusoperatoren charakterisiert wird. Die zweite befasst sich explizit mit der Zeit in einer Theorie erster Ordnung, in der die Argumentation selbst im Wesentlichen erster Ordnung ist. In diesem Beitrag werden wir eine fusionierte temporale Logik vorstellen, die die Tempusoperatoren des modalen Ansatzes mit den referentiellen Aspekten des Ansatzes erster Ordnung kombiniert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-3421-3_15 b27a45e44730a4980f90c74f4afe31f6;de;;;2.2.;;;Optimierung des Wavelet SPECK Image Coding Algorithm Diese Änderung in diesem Verfahren basiert auf der Wavelet-Transformation des Bildcodieralgorithmus, die Spots optimiert wurden. Die Geschwindigkeit transformiert den Algorithmus des Algorithmus und die Punkte des Hybridalgorithmus kombiniert, die hochauflösende Bildcodierung, wodurch die für die Änderung erforderliche Zeit erheblich reduziert wird. Statistiken zeigen, dass in Kombination mit dem Wavelet-Transformations-Haar-Schnell-Algorithmus die Gesamteffizienz des Algorithmus verbessert und die 0,1-BPP-Geschwindigkeit um fast 30% erhöht wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29084-8_107 4dea2b534399a3eb148d8b445173a925;de;;;2.2.;;;Eine WAM-basierte Implementierung einer Logiksprache mit Mengen Der Beitrag analysiert einen Ansatz zur Integration mengentheoretischer Konstrukte in eine logische Programmiersprache. Der Fokus liegt auf der Beschreibung einer neuen abstrakten Maschine, die auf dem klassischen WAM basiert und diese neuen Funktionen unterstützen soll. Ein Großteil des Papiers konzentriert sich auf die Implementierung des neuen Vereinheitlichungsalgorithmus und die Unterstützung des Set-Constraints-Managements;-;-;-;https://link.springer.com/chapter/10.1007/3-540-57186-8_85 b5da7f039f590832aab675893370b56b;de;;;2.2.;;;Objektorientierte Programmierung in Ökonometrie und Statistik mit Ox: Ein Vergleich mit C++, Java und C# Es wird argumentiert, dass objektorientierte Programmierung wichtige Vorteile bringen kann, wenn sie in ökonometrischer, finanzieller und statistischer Berechnung verwendet wird. Die Sprache Ox wird verwendet, um die Probleme zu diskutieren, und mit C++, Java und C# verglichen. Ein Monte-Carlo-Experiment eines einfachen Bootstrap-Problems veranschaulicht die Vorteile.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-1049-9_5 2f7742dfd7dea61f75341ee376420ac0;de;;;2.2.;;;Encoder-Decoder-basierte semantische Bildraumerstellung für den Abruf von Kleidungsstücken Das Vorschlagen von Kleidungsstücken mithilfe von Abfragebildern ist beim Online-Shopping sehr praktisch, jedoch ist die Merkmalsextraktion für die beabsichtigte Abfrage aufgrund anderer Objekte und Hintergrundvariationen in diesen Bildern nicht sehr einfach. Wir brauchen einen besseren Merkmalsextrahierer, der Merkmale nur aus dem beabsichtigten Kleidungsstück im Abfragebild extrahiert und starke Merkmale aus dem verbleibenden Teil ablehnt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4015-8_34 b1c62229915eb114d045f11b99a8ab0e;de;;;2.2.;;;Ein String-Matching-Algorithmus basierend auf echter Skalierung Ein guter Intrusion Detection Algorithmus ist nicht nur in traditionellen Netzwerken wichtig, sondern auch in Ad-hoc-Netzwerken. Dieses Papier schlägt einen neuartigen Intrusion Detection-Algorithmus vor, der auf dem realen Maßstab des String-Matchings basiert. Basierend auf den Eigenschaften von Ad-hoc-Netzwerken entwerfen wir einen echten Indexierungsbaum, der eine vollständige Implementierung des Algorithmus basierend auf dem realen Maßstab des String-Matchings liefert. Der Algorithmus kann alle möglichen Textskalierungen herausfinden und alle möglichen Strings mit der Textskalierung identifizieren. Um die Effizienz unserer Algorithmen zu bewerten, verwenden wir einen Evaluierungsdatensatz, der in der Intrusion Detection weit verbreitet ist, um unsere Algorithmen zu testen. Die experimentellen Ergebnisse zeigen, dass unser Algorithmus anderen hochmodernen Algorithmen überlegen ist und die Ad-hoc-Netzwerksicherheit verbessert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25789-6_14 2aeb7f4ce1fbf24742cf02ebd242fccf;de;;;2.2.;;;Dual-Layer DNA-Encoding-Decoding Operation Based Image Encryption mit eindimensionaler chaotischer Karte Dieses Papier beschreibt eine Technik, die Bilder in Form von DNA-Sequenzen unter Verwendung des PWLCM-Systems verschlüsselt, d. h. Piecewise Linear Chaotic Map. Diese Methode hat zwei DNA-Codierungs-Decodierungs-Operationen zusammen mit DNA-Permutations- und DNA-Diffusions-Operationen, um das Chiffrierbild zu erhalten. Der Vorteil dieses Algorithmus ist im Vergleich zu anderen Verfahren leicht zu berechnen, verwirrt aber einen Kryptoanalytiker sehr. Abgesehen davon führen zweischichtige DNA-Encoding-Decoding-Prozesse im Algorithmus zu guten Verschlüsselungsergebnissen. Wenn die Ausgaben verschiedenen Sicherheitsanalysen unterzogen werden, um die Stärke des Algorithmus herauszufinden, ergeben sich Ergebnisse mit verschlüsselten Bildern mit höheren Werten von UACI, NPCR, Schlüsselraum, Informationsentropie und gutem Korrelationskoeffizienten. Dies führt zu einer starken Resistenz gegenüber weit verbreiteten Angriffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0694-9_8 3305e8d3a7980142359c0eb6411a0d4e;de;;;2.2.;;;Zellkinetik und Zelltod im Sehnerv der myelindefizienten Ratte Die Sehnerven von Myelin-defizienten (md) und normalen Ratten wurden während des ersten postnatalen Monats durch lichtmikroskopische Thymidin-Autoradiographie und Elektronenmikroskopie untersucht. Die mittleren Gesamt-Gliazellzahlen waren in den meisten Altersstufen in den md- und normalen Sehnerven ähnlich, waren jedoch in den md-Nerven im Alter von 18 Tagen signifikant erhöht und nach 30 Tagen im Vergleich zu den Kontrollen signifikant verringert. Die Markierungsindizes in den Md-Optiknerven waren nach 16–25 Tagen signifikant höher als die Kontrollwerte. Oligodendrozyten, Astrozyten, Mikrogliozyten und nicht klassifizierte Zellen wurden sowohl bei normalen als auch bei md-Ratten markiert. Die Mutanten zeigten höhere Prozentsätze an markierten Astroglia und Mikroglia, und die markierten Oligodendroglia erschienen im Vergleich zu den normalen Tieren unreif. Md Sehnerven zeigten nach 14–30 Tagen eine signifikant höhere Anzahl an nekrotischen Zellen als die Kontrollen. Elektronenmikroskopie zeigte das Vorhandensein von abnormen Oligodendrozyten, gekennzeichnet durch ein ausgedehntes raues endoplasmatisches Retikulum und eine erweiterte perinukleäre Hülle, ab einem Alter von 6 Tagen bei der Mutante. Diese Zellen scheinen zu degenerieren und abzusterben. Diese Ergebnisse legen einen Defekt in den Oligodendrozyten der md-Ratte nahe, der zu einer verlängerten Aufnahme von Thymidin und einem erhöhten Zelltod führt. Die Untersuchung des Zusammenhangs zwischen diesen Beobachtungen und dem vorgeschlagenen Myelin-Proteolipid-Proteindefekt bei der md-Ratte könnte mehr über die Rolle von Myelinproteinen im ZNS und den/die spezifischen zellulären Defekt(e) in dieser Mutante aufdecken.;-;-;-;https://link.springer.com/article/10.1007/BF01260993 ac36716b1863eab92d6824ff3f04098b;de;;;2.2.;;;Neue Ergebnisse zur Analyse nebenläufiger Systeme mit unbestimmter Anzahl von Prozessen In diesem Beitrag erweitern wir einige der von German und Sistla in [4] vorgestellten Ergebnisse. Ihr Framework für nebenläufige Systeme ist auf einem bestimmten Abstraktionsniveau geeignet, eine Reihe von ressourcenorientierten Problemen in der Nebenläufigkeit zu modellieren, bei denen es einen einzigartigen Kontrollprozess;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-48654-1_7 6fb59401a0fe1c34018c4ff55b47bc65;de;;;2.2.;;;Protein-Protein-Wechselwirkungen Protein-Protein-Wechselwirkungen treten bei vielen chemischen und physikalischen Prozessen auf, die an der komplexen molekularen Organisation von Pflanzen- und Tierzellen beteiligt sind. Die meisten dieser Wechselwirkungen beeinflussen die Verarbeitung, Lagerung und das Verhalten von Proteinen in Lebensmitteln. Es gibt verschiedene Gründe, Proteininteraktionen zu untersuchen, darunter Kenntnisse über Struktur-Funktions-Beziehungen von Proteinen, optimierte Verwendung von Produktbestandteilen, Verbesserung der Qualität, Kostensenkung und neue Proteinanwendungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-9895-0_2 2980d54dfbebddbe229b0994c090e169;de;;;2.2.;;;2D-lineare optimale statistische Signalverarbeitung auf endlichen Gittern Dieses Papier untersucht die Verarbeitung von Signalen, die in der Ebene definiert sind. Zu den Anwendungen gehören eine Vielzahl von Problemen wie die Datenassimilation in Ozeanzirkulationsmodellen, die Transportphänomene im Ozean beschreiben, oder die Bildwiederherstellung oder Kodierung von Bodenkarten, die durch Side-Scan-Sonaren gewonnen wurden. Wir befassen uns mit der linearen optimalen statistischen Verarbeitung in zwei Dimensionen (2 D). Die Verarbeitung raumabhängiger Phänomene wirft zwei Hauptprobleme auf. Die erste ist konzeptionell und hat mit der;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-1604-6_37 cb14a6da65b192c250d779a00fbe6e05;de;;;2.2.;;;Daten für Binärsterne von Gaia DR2 Die Weltraummission Gaia hat eine große Menge astrometrischer und photometrischer Daten für die Sternpopulation der Milchstraße bereitgestellt. Binäre oder multiple Systeme bilden einen wesentlichen Teil davon. Trotz der Tatsache, dass Gaia DR2 alle Sterne in Bezug auf astrometrische Lösungen als Einzelsterne behandelt, kann es dennoch unser Wissen über die binäre Population auf verschiedene Weise bereichern. Viele Sterne, von denen bekannt ist, dass sie Komponenten von Doppelsternen sind, haben neue astrometrische Gültigkeitsmessungen erhalten, die diskutiert werden sollen. Zehntausende potenzieller Doppelsterne wurden von verschiedenen Autoren als sich gleichzeitig bewegende Sterne entdeckt, die sich im Weltraum nahe beieinander befinden. Wir kombinieren und analysieren die neuen Informationen für Doppelsterne aus Gaia DR2 und nehmen sie in die Identification List of Binaries (ILB) auf, eine vollständige Liste bekannter Doppel- und Mehrfachsterne.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-81200-3_9 a2bf8dbd17aa854f956609bb0a611976;de;;;2.2.;;;Bifunktionelle Rollen von Survivin-ΔEx3 und Survivin-2B für die Apoptoseanfälligkeit bei Endometriumkarzinomen Alternative Spleißvarianten von Survivin haben unterschiedliche biologische Rollen auf die Zellkinetik. Hier konzentrierten wir uns auf die Auswirkungen verschiedener Varianten, einschließlich Wildtyp (wt), Survivin-ΔEx3 und Survivin-2B, auf die Apoptose und Zellproliferation in Endometriumkarzinomen (Em Cas).;-;-;-;https://link.springer.com/article/10.1007/s00432-014-1762-8 d8a3cf2376b860f5ca13047856ec7978;de;;;2.2.;;;Weiße Zwerge aus dem Edinburgh-Cape Survey Der Edinburgh-Cape Blue Object Survey ist ein großflächiger Survey, der darauf abzielt, stellare Objekte mit ultraviolettem Überschuss (UVX) in hohen galaktischen Breiten auf der Südhalbkugel zu entdecken. Weiße Zwerge sind ein wichtiger Bestandteil der Erhebungspopulation. Die Untersuchung wird beschrieben und erste Ergebnisse der bisher entdeckten Weißen Zwerge präsentiert, einschließlich einer Schätzung ihrer Raumdichte.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-2020-3_6 21d98576f6c17817ffc682ffcd8ec92a;de;;;2.2.;;;Stress in der absteigenden Reliktplatte unter der Region Vrancea, Rumänien Wir untersuchen die Auswirkungen von viskoser Strömung, Phasenübergang und Dehydration auf das Spannungsfeld einer Reliktplatte, um die seismische Aktivität mittlerer Tiefe in der Region Vrancea zu erklären. Ein 2D-Finite-Elemente-Modell einer im Erdmantel gravitativ absinkenden Platte sagt (1) die Ausdehnung der Platte nach unten, abgeleitet aus den Spannungsachsen von Erdbeben, (2) die maximal auftretende Spannung im Tiefenbereich von 70 km bis 160 km und (3) ein sehr schmaler Bereich der maximalen Spannung. Die Tiefenverteilung der bei Erdbeben freigesetzten seismischen Energie im Jahresmittel hat eine ähnliche Form wie die Tiefenverteilung der Spannungen in der Platte. Schätzungen des kumulierten jährlichen seismischen Moments, das beobachtet und mit der Volumenänderung aufgrund der Basalt-Eklogit-Phasenänderungen in der ozeanischen Platte verbunden ist, zeigen, dass ein reines Phasenübergangsmodell die mitteltiefen Erdbeben in der Region nicht allein erklären kann. Wir sind der Ansicht, dass einer der realistischen Mechanismen zum Auslösen dieser Ereignisse in der Vrancea-Platte die Austrocknung von Gesteinen sein kann, die eine flüssigkeitsunterstützte Verwerfung ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-8415-0_7 dfd784f6163c1fcd2976432f09fbd794;de;;;2.2.;;;X-chromosomal dominant vererbte Erkrankungen mit Letalität bei hemizygoten Männern X-chromosomal dominante Vererbung mit Letalität bei hemizygoten Männchen ist eine seltene Vererbungsart. Die drei bekanntesten auf diese Weise vererbten Erkrankungen sind Incontinentia pigmenti (IP) Bloch-Sulzberger, Oral-Fazial-Digital I (OFD I) Syndrom und fokale dermale Hypoplasie (FDH-Syndrom, Goltz-Syndrom). Ziel dieses Artikels ist es, einen Überblick über die klinischen und genetischen Aspekte der oben genannten Erkrankungen zu geben und diejenigen Erkrankungen hinzuzufügen, bei denen dieser Vererbungsmodus diskutiert wird. Diese Erkrankungen sind: X-chromosomale Chondrodysplasia punctata (CP), Zerviko-Okulo-Acusticus-Syndrom (Wildervanck-Syndrom, COA), angeborene Katarakt mit Mikrokornea oder leichter Mikrophthalmie, Muskeldystrophie-hemizygot letal, partielle Lipodystrophie mit lipatrophem Diabetes und Hyperlipidämie , Coxo-Auricular-Syndrom und Johanson-Blizzard-Syndrom. OTC-Defizienz ist in die Studie eingeschlossen, obwohl es keine Letalität in utero gibt, sondern nur in der Neugeborenenperiode.;-;-;-;https://link.springer.com/article/10.1007/BF00289472 6de226c59dc6a43f5053c990c82d06ac;de;;;2.2.;;;Dynamisches Hybrid-Multimedia-Verteilungsschema basierend auf Netzwerkrekonfiguration Dieses Papier befasst sich mit einer zentralen Herausforderung beim Design und der Implementierung von Multimedia-Verteilungssystemen, damit Benutzer eine gute Leistung bei minimalen Betriebskosten erleben können. In aktuellen Strukturen führt der Konflikt zwischen Netzarchitekturen und Servicebereitstellung zu einem Rückgang der Qualitätserwartungen der Nutzer. Die Netzrekonfiguration bietet eine praktikable Lösung für die dynamische Verteilung als Primitiv sowohl für die Qualität als auch für die Effizienz. In diesem Papier stellen wir zunächst ein Schema für ein schichtbasiertes hybrides Multimedia-Verteilungssystem LHMDS vor und führen dann einen dynamischen gleitenden Push-Delivery-Mechanismus ein, der auf der Rekonfiguration der Verteilung von Hotspot-Dateien basiert. Das LHMDS verwendet eine einzigartige Struktur mit Hybridkanälen, einschließlich Broadcast- und Unicast-Kanälen, und passt seine Verteilungstopologie entsprechend dem Überlastungsstatus an, wodurch Hotspot-Dateien dynamisch übertragen werden. Der Mechanismus schiebt Dateien je nach Netzwerkstatus dynamisch auf obere oder untere Netzwerkschichten, während Hotspot-Dateien über Broadcast-Kanäle und andere Dateien über Unicast-Kanäle verteilt werden. Dies garantiert die Servicequalität und verbessert die Ressourcenauslastung. Schließlich validieren wir die Machbarkeit und Leistung des Schemas durch eine Simulation.;-;-;-;https://link.springer.com/article/10.1007/s11432-013-4962-y 9d93d13c3ecc83441c1732cbcfa2e417;de;;;2.2.;;;Ein Übertragungsmechanismus, der stromsparende Mobilstationen unterstützt Energiesparen ist ein wichtiges Thema in der mobilen Computerumgebung. In diesem Papier schlagen wir einen Rundsendemechanismus vor, der die Rundsendekanäle entsprechend der Zugriffsfrequenz jeder verbreiteten Art von Nachricht konstruiert, um Energie in Mobilstationen zu sparen. Das;-;-;-;https://link.springer.com/article/10.1007/s10776-005-7656-6 e60e86d4ad22779f75eac0f1cded8e44;de;;;2.2.;;;Effiziente Handhabung von 2D-Bildabfragen mit VPC Die Handhabung von Abfragen über Bilder ist ein interessantes Thema, das in jüngster Zeit in Informationssystemen auftaucht. Eines der schwierigsten Probleme bei dieser Arbeit besteht darin, die Bildrotation effizient zu verarbeiten, da das Abfragebild und die in der Datenbank gespeicherten Bilder normalerweise nicht aus denselben Blickwinkeln aufgenommen wurden. In diesem Beitrag wird ein Ansatz vorgestellt, der die Zeitreihendarstellung von Bildern verwendet. Anschließend kann eine Fourier-Transformationstechnik durchgeführt werden, um die unveränderliche Drehung zwischen den Bildern zu erreichen. Darüber hinaus können die Daten auf dieser Darstellung effizient komprimiert werden, wenn mit großen Datenmengen gearbeitet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35455-7_17 636cde96f027dedade211d3408b525ce;de;;;2.2.;;;Plattenförmige Umwandlungsprodukte in Zirkonium-Basislegierungen In der vorliegenden Studie werden plattenförmige Produkte aus martensitischen, Diffusions- und Mixed-Mode-Umwandlungen in Legierungen auf Zirkoniumbasis verglichen. Diese Legierungen eignen sich besonders für den Vergleich, da die Gitterkorrespondenz zwischen den Eltern;-;-;-;https://link.springer.com/article/10.1007/s11661-997-0178-3 ef313ccf761a9908a3186e7d3c0e223d;de;;;2.2.;;;Eine Verbesserung und Erweiterung des Hybrid-Index für den ungefähren String-Matching In [2] fanden Navarro und Baeza-Yates ihren sogenannten Hybridindex als beste Alternative für die indexierte Näherungssuche in englischen Texten. Der ursprüngliche Hybridindex basiert auf der Levenshtein-Bearbeitungsdistanz. Wir schlagen zwei Modifikationen des Hybridindex vor. Der erste ist eine Möglichkeit, die Suche zu beschleunigen. Die zweite Modifikation besteht darin, dass der Index auch den Fehler der Transponierung zweier benachbarter Zeichen („Damerau-Distanz“) zulässt. Eine vollständige Diskussion findet sich in Abschnitt 11 von [1].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30213-1_28 f4b91aedb7d0a9928cd0cb4d552c106e;de;;;2.2.;;;Abwasserbehandlungssysteme aus fallbasierter Argumentation Case-Based Reasoning (CBR) ist eines der aufkommenden Paradigmen für den Entwurf intelligenter Systeme. Vorläufige Studien zeigen, dass das Gebiet reif für theoretische Fortschritte und innovative Anwendungen ist. Die heuristische Suche ist eine der am häufigsten verwendeten Techniken, um optimale Lösungen für viele Probleme der realen Welt zu erhalten. Die Auslegung von Abwasserbehandlungsanlagen haben wir als heuristisches Suchproblem formuliert. In diesem Artikel identifizieren wir einige notwendige Eigenschaften der heuristischen Suchprobleme, die im CBR-Paradigma gelöst werden müssen. Basierend auf diesen Beobachtungen haben wir ein CBR-System entworfen und mehrere Experimente mit dem Problem der Abwasserbehandlung durchgeführt. Wir vergleichen die Leistung des CBR-Systems mit dem A*-Suchalgorithmus.;-;-;-;https://link.springer.com/article/10.1023/A%3A1022643228269 85ce7bb287a7d45eb976f49e06219ae5;de;;;2.2.;;;Abfragen in einer großen Hyperbase Dieses Papier schlägt eine Abfragesprache und eine Datenorganisation für große Hyperbasissysteme vor. Die Sprache ermöglicht es, dass Abfragen sowohl die Links als auch den Text einbeziehen. Die Architektur ermöglicht eine effiziente Indizierung der Daten sowie die Unterstützung mehrerer Benutzer.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-7555-2_76 0f92a20e72fc0d8d47434ec0a19e8a72;de;;;2.2.;;;Aufzählung von Kryptographien mit deterministischen endlichen Automaten Ein Kryptarithmus ist ein mathematisches Rätsel, bei dem ein Spieler bei einer arithmetischen Gleichung, die mit Buchstaben statt mit Zahlen geschrieben ist, eine Zuordnung von Zahlen zu Buchstaben finden muss, die die Gleichung wahr macht. In diesem Papier schlagen wir eine Methode vor, um einen DFA zu konstruieren, der Kryptoarithmen akzeptiert, die (eindeutige) Lösungen für jede Basis zulassen. Wir haben die Methode implementiert und einen DFA für Basen konstruiert;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94812-6_24 9206b350c13f9acd581bd5cd202f563a;de;;;2.2.;;;Abwasserbehandlungssysteme aus fallbasierter Argumentation Case-Based Reasoning (CBR) ist eines der aufkommenden Paradigmen für den Entwurf intelligenter Systeme. Vorläufige Studien zeigen, dass das Gebiet reif für theoretische Fortschritte und innovative Anwendungen ist. Die heuristische Suche ist eine der am häufigsten verwendeten Techniken, um optimale Lösungen für viele Probleme der realen Welt zu erhalten. Die Auslegung von Abwasserbehandlungsanlagen haben wir als heuristisches Suchproblem formuliert. In diesem Artikel identifizieren wir einige notwendige Eigenschaften der heuristischen Suchprobleme, die im CBR-Paradigma gelöst werden müssen. Basierend auf diesen Beobachtungen haben wir ein CBR-System entworfen und mehrere Experimente mit dem Problem der Abwasserbehandlung durchgeführt. Wir vergleichen die Leistung des CBR-Systems mit dem A*-Suchalgorithmus.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-3228-6_6 b62d886c35e04f04d839413d046d720c;de;;;2.2.;;;CASEP2: Hybrid Case-Based Reasoning System für die Sequenzverarbeitung In diesem Beitrag stellen wir ein hybrides neuro-symbolisches System namens „CASEP2“ vor, das das fallbasierte Denken mit einem adäquaten künstlichen neuronalen Netzwerk „M-SOM-ART“ zur Sequenzklassifizierung oder Vorhersageaufgabe kombiniert. In CASEP2 präsentieren wir eine neue Fallmodellierung durch dynamische Kovarianzmatrizen. Dieses Modell berücksichtigt die in den Sequenzen enthaltene zeitliche Dynamik und ermöglicht es, Probleme im Zusammenhang mit dem Vergleich von Sequenzen unterschiedlicher Länge zu vermeiden. Im CBR-Zyklus wird ein neuronales Netz während der Abrufphase zur Indizierung der Fallbasis und ein weiteres während der Wiederverwendungsphase verwendet, um die Zielfalllösung bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-28631-8_33 eeec5af6602e7bdd856db03371d09f24;de;;;2.2.;;;Semantisches Caching in der ortsabhängigen Abfrageverarbeitung In diesem Beitrag wird eine Methode zur Beantwortung ortsabhängiger Anfragen in einer mobilen Computerumgebung vorgestellt. Wir untersuchen ein häufiges Szenario, bei dem Datenobjekte (z. B. Restaurants und Tankstellen) stationär sind, während Clients, die Abfragen zu den Datenobjekten ausgeben, mobil sind. Unsere vorgeschlagene Technik erstellt ein Voronoi-Diagramm (VD) auf den Datenobjekten, um als Index für sie zu dienen. Ein VD definiert für jedes Datenobjekt;-;-;-;https://link.springer.com/chapter/10.1007/3-540-47724-1_6 71406dbb0fecd63d23b402210e121219;de;;;2.2.;;;Transkription und Destillation von Spontansprache Die automatische Transkription spontaner Sprache von Mensch zu Mensch soll die Anwendungsmöglichkeiten der Sprachtechnologie erweitern und einen effizienten Zugriff auf Audioarchive wie Rundfunkprogramme, Vorträge und Meetings ermöglichen. Verglichen mit Äußerungen in Mensch-Maschine-Schnittstellen, die im Fokus der meisten konventionellen Spracherkennungsforschung standen, weist spontane Sprache eine größere Variation sowohl in ihren akustischen als auch in ihren sprachlichen Eigenschaften auf. Daher ist es notwendig, aufwendigere und flexiblere Modellierungstechniken für die spontane Spracherkennung zu erforschen. Darüber hinaus erfordert die spontane Sprachverarbeitung die Entwicklung eines anderen Paradigmas, da eine getreue Transkription aufgrund der Existenz von Unstimmigkeiten und des Fehlens von Satz- und Absatzmarkierungen nicht unbedingt nützlich ist. Studien zur automatischen Erkennung von Satz-/Diskursgrenzen und Unstimmigkeiten sind ebenfalls erforderlich. Die Sprachzusammenfassung ist ein Ansatz, der eine effektive Ausgabe aus einem Transkript erzeugt. Dieses Kapitel gibt einen Überblick über die wichtigsten Forschungsaktivitäten und eine Reihe neuerer Erkenntnisse zu diesen Themen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-49127-9_32 7007c184abe5a7e8827c1f8acfe26702;de;;;2.2.;;;Multi-View-Feature-Matching und Bildgruppierung aus mehreren ungeordneten Wide-Baseline-Bildern In diesem Papier stellen wir eine Fotogruppierungsmethode für das Feature-Matching-Problem mit mehreren Ansichten vor, insbesondere aus mehreren ungeordneten Bildern mit breiter Grundlinie. Durch die Analyse und den Vergleich der Verbindungen zwischen Bildern mit ungerichteten gewichteten Graphen abstrahieren wir die Fotogruppierung in ein nichtlineares Optimierungsproblem und gehen es mit einem Annealing-basierten Verfahren an. Darüber hinaus wird ein neuer hochdimensionaler Merkmalssuchalgorithmus entwickelt, um die anfängliche Merkmalsübereinstimmungsnummer robuster zu finden, die als Messung von Bildrelativitäten im Gruppierungsalgorithmus verwendet wird. Schließlich zeigen wir die Analysen und Diskussionen zur Leistungsfähigkeit der vorgeschlagenen Methode und experimentelle Ergebnisse haben bewiesen, dass der neue Ansatz effizienter ist als der traditionelle.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89646-3_40 a7be2809d79da6b9610a9ae0acef8da7;de;;;2.2.;;;Adaptive stückweise und symbolische Aggregat-Approximation als verbesserte Darstellungsmethode zur Erkennung von Hitzewellen Bergbauzeitreihen haben aufgrund ihrer breiten Anwendung in den Bereichen Finanzen, Industrie, Biologie, Umwelt usw. ein zunehmendes Interesse auf sich gezogen. Um die Ausführungszeit und den Speicherplatz zu reduzieren, wurden viele Darstellungen oder Abstraktionen der Rohdaten der Zeitreihen auf hoher Ebene vorgeschlagen, einschließlich der diskreten Fourier-Transformation (DFT), der diskreten Wavelet-Transformation (DWT), der stückweisen Aggregat-Annäherung (PAA) und der symbolischen Aggregat-ApproXimation (SAXOPHON). In diesem Beitrag stellen wir eine neuartige adaptive stückweise und symbolische Aggregat-Approximation (APAA/ASAX) vor, die Segmente variabler Länge erzeugt, um jede Segmentlänge automatisch an ihre lokale Variabilitätsbedingung und Differenz zum Mittelwert der aktuellen Werte in . anzupassen welches Segment definiert ist. Der Durchschnitt jeder variablen Segmentlänge von APAA wird als Symbol aus einem geordneten Alphabet dargestellt, das eine modifizierte Version für SAX erzeugt, die adaptive SAX (ASAX) genannt wird. Dies ermöglicht auf einfache Weise eine vielseitigere Definition der Ereignisdauer. Die Methode APAA/ASAX wurde zur Lokalisierung von Hitzewellenmustern in realen Zeitreihendatensätzen mit täglichen Temperaturinformationen von 1970 bis 2009 verwendet Datenbanken. Die Vorteile von APAA gegenüber herkömmlicher PAA beruhen hauptsächlich darauf, dass sie frei von festen Schemata der Segmentlänge sind. Es unterstreicht auch die Fähigkeit, diese Länge in Abhängigkeit von lokalen Zeitreiheneigenschaften selbst zu optimieren. Dies bedeutet, dass APAA für flache Zeitreihen eine geringere Anzahl von Segmenten vorschlägt, um die Dimensionalität zu reduzieren, als bei Zeitreihen mit hoher Variabilität. Der Ansatz wird für diejenigen von Nutzen sein, die extreme Ereignisse in beliebigen Zeitreihen suchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-01174-1_51 9f67673fc201145a8131301fec992e0a;de;;;2.2.;;;Semantischer Datenabgleich: Prinzipien und Leistung Die automatisierte Verwaltung von Kundenbeziehungen in Echtzeit erfordert einen robusten und intelligenten Datenabgleich über weit verbreitete und unterschiedliche Datenquellen. Einfache String-Matching-Algorithmen wie dynamische Programmierung können typografische Fehler in den Daten verarbeiten, sind jedoch weniger in der Lage, Datensätze abzugleichen, die Kontext- und Erfahrungswissen erfordern. Latent Semantic Indexing (LSI) (Berry et al., Deerwester et al. ist eine maschinelle Intelligenztechnik, die Daten basierend auf einer Struktur höherer Ordnung abgleichen kann und in der Lage ist, schwierige Probleme zu bewältigen, wie z. B. Wörter mit unterschiedlichen Bedeutungen, aber derselben Schreibweise , sind synonym oder haben mehrere Bedeutungen.Im Wesentlichen gleicht die Technik Datensätze basierend auf dem Kontext ab oder mathematisch quantifiziert, wenn Begriffe in demselben Datensatz vorkommen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-0176-7_4 f6821911cd5afc4d99108a238342a033;de;;;2.2.;;;Skalierbare iterative Implementierung von Mondrian für die multidimensionale Anonymisierung von Big Data Skalierbare Datenverarbeitungsplattformen, die auf Cloud Computing basieren, werden als Infrastruktur zur Unterstützung von Big Data Mining- und Analyseanwendungen immer attraktiver. Datenschutzbedenken sind jedoch eines der Haupthindernisse bei der Nutzung öffentlicher Cloud-Plattformen. In der Praxis ist die Datengeneralisierung eine weit verbreitete Anonymisierungstechnik für den Datenschutz bei der Veröffentlichung oder Weitergabe von Daten. Die multidimensionale Anonymisierung, ein Schema zur Verallgemeinerung von Global-Recoding, ist aufgrund seiner Fähigkeit, Datenverschleierung und Datenverwendbarkeit auszubalancieren, in letzter Zeit ein Schwerpunktthema gewesen. Bestehende Ansätze haben das Skalierbarkeitsproblem der mehrdimensionalen Anonymisierung für Datensätze, die viel größer als der Hauptspeicher sind, gelöst, indem Daten zur Laufzeit auf der Festplatte gespeichert wurden, was zu unpraktischen Kosten für serielle E/A führt. In diesem Beitrag schlagen wir einen skalierbaren iterativen multidimensionalen Anonymisierungsansatz für große Datenmengen vor, der auf MapReduce basiert, einem hochmodernen Paradigma der großen Datenverarbeitung. Unsere grundlegende und intuitive Idee besteht darin, einen großen Datensatz mit MapReduce rekursiv in kleinere Datenpartitionen zu partitionieren, bis alle Partitionen in den Speicher jedes Rechenknotens passen. Eine Baumindexierungsstruktur wird vorgeschlagen, um eine rekursive Berechnung auf MapReduce zur Datenpartitionierung in mehrdimensionaler Anonymisierung zu erreichen. Experimentelle Ergebnisse an realen Datensätzen zeigen, dass der vorgeschlagene Ansatz die Skalierbarkeit und Zeiteffizienz der mehrdimensionalen Anonymisierung gegenüber bestehenden Ansätzen erheblich verbessern kann und daher auf Big-Data-Anwendungen anwendbar ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49145-5_31 17dddf195e8c2b5cdb4d578bd06e975f;de;;;2.2.;;;Inhaltsbasierter Abruf von Nachrichtenvideos mit Untertiteln und zeitlicher Ausrichtung In diesem Beitrag schlagen wir eine neue Methode zum Suchen und Durchsuchen von Nachrichtenvideos vor, die auf einem multimodalen Ansatz basiert. Im vorgeschlagenen Schema verwenden wir Closed Caption (CC)-Daten, um den Inhalt von TV-Nachrichtenartikeln effektiv zu indizieren. Um eine zeitliche Ausrichtung zwischen den CC-Texten und den Videodaten zu erreichen, die für die multimodale Suche und Visualisierung erforderlich ist, wird eine überwachte Spracherkennungstechnik verwendet. In unseren Implementierungen bieten wir zwei verschiedene Mechanismen zum Durchsuchen von Nachrichtenvideos. Eine besteht darin, eine auf Textabfragen basierende Suchmaschine zu verwenden, und die andere besteht darin, einen themenbasierten Browser zu verwenden, der als Hilfswerkzeug zum Auffinden der gewünschten Nachrichtenartikel fungiert. Im Vergleich zu anderen Systemen, die hauptsächlich von visuellen Merkmalen abhängig sind, könnte das vorgeschlagene Schema semantisch relevantere Artikel recht gut abrufen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45453-5_115 1f49e030116ec900ade8bf62c0712a48;de;;;2.2.;;;Lexikalische Verkettung für den webbasierten Abruf von Eilmeldungen In diesem Artikel wird ein System zur Online-Erkennung neuer Ereignisse im Bereich von Nachrichtenartikeln im Web diskutiert. Dieser Bereich bezieht sich auf die Initiative zur Themenerkennung und -verfolgung. Wir evaluieren zwei Benchmark-Systeme: Das erste basiert wie die meisten aktuellen Web-Retrieval-Systeme auf der Begriffswiederholung, um die Dokumentbezogenheit zu berechnen. Der zweite Versuch, eine konzeptionelle Indexierung durch die Verwendung der WordNet-Thesaurus-Software durchzuführen. Wir schlagen einen neuartigen Ansatz zur Identifizierung von Eilmeldungen vor, der eine Technik namens lexikalische Verkettung verwendet. Wir glauben, dass diese Technik die Gesamtleistung unseres Web-Retrieval-Systems verbessern wird, indem sie es uns ermöglicht, den Kontext um ein Wort zu kapseln und seine Bedeutungen zu unterscheiden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44595-1_40 615694c47664c9e6722052dbf32fc987;de;;;2.2.;;;Symbolische Darstellung von Textdokumenten mit Multi-Kernel-FCM In diesem Artikel haben wir eine neuartige Methode zur Darstellung von Textdokumenten vorgeschlagen, die auf der Clusterung des Begriffshäufigkeitsvektors basiert. Um den Begriff Frequenzvektoren zu clustern, verwenden wir Multiple Kernel Fuzzy C-Means (MKFCM). Nach dem Clustern werden die Termfrequenzvektoren jedes Clusters verwendet, um eine intervallbewertete Darstellung (symbolische Darstellung) unter Verwendung von Mittelwert und Standardabweichung zu bilden. Ferner werden Intervallwertmerkmale als Repräsentanten des Clusters in der Wissensdatenbank gespeichert. Um die Wirksamkeit des vorgeschlagenen Modells zu bestätigen, haben wir umfangreiche Experimente mit Standarddatensätzen wie Reuters-21578 und 20 Newsgroup durchgeführt. Wir haben unsere mit dem symbolischen Klassifikator erreichte Klassifikationsgenauigkeit mit den anderen bestehenden Naive Bayes-Klassifikatoren, KNN-Klassifikatoren und SVM-Klassifikatoren verglichen. Das experimentelle Ergebnis zeigt, dass die durch die Verwendung des symbolischen Klassifikators erreichte Klassifikationsgenauigkeit besser ist als bei anderen drei Klassifikatoren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-26832-3_10 23986030aa5d4c869a6008974d7ea648;de;;;2.2.;;;Explizite Wort-Kooperationen verwenden, um die begriffsbasierte Textsuche zu verbessern Das Erreichen einer hohen Genauigkeit und Wiedererkennungsrate in den Ergebnissen begriffsbasierter Abfragen von Textsammlungen wird immer wichtiger, solange die Menge der verfügbaren Dokumente steigt und deren Qualität tendenziell abnimmt. Insbesondere bei Abfragetechniken, die auf der strikten Übereinstimmung zwischen Begriffen in der Abfrage und Begriffen in den Dokumenten basieren, werden wichtige und relevante Dokumente übersehen, bei denen es einfach vorkommt, dass die von ihren Autoren ausgewählten Begriffe geringfügig von denen abweichen, die vom Endbenutzer verwendet werden, der die Abfrage ausgibt . Unser Vorschlag besteht darin, beim Aufbau des Vektorraums explizit Term-Kookkurrenzen zu berücksichtigen. Tatsächlich sollte das Vorhandensein unterschiedlicher, aber verwandter Begriffe in einem Dokument zu denen in der Abfrage das Vertrauen stärken, dass das Dokument ebenfalls relevant ist. Das Fehlen eines Abfragebegriffs in einem Dokument, aber das Finden mehrerer Begriffe, die eng damit zusammenhängen, sollte gleichermaßen die Hypothese stützen, dass das Dokument tatsächlich relevant ist. Die Berechnungsperspektive, die eine solche Verwandtschaft einbettet, besteht in Matrixoperationen, die das direkte oder indirekte Vorkommen von Termen in der Sammlung erfassen. Wir schlagen zwei verschiedene Ansätze vor, um eine solche Perspektive durchzusetzen, und führen vorläufige Experimente zu einer prototypischen Implementierung durch, was darauf hindeutet, dass diese Technik potenziell profitabel ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15850-6_13 3f0c5039e646d8541deef3af3cc2602f;de;;;2.2.;;;Fuzzy-XML-Abfragen und -Index Im Internet sind riesige Mengen elektronischer Daten verfügbar, und XML ist der De-facto-Standard für die Darstellung und den Austausch von Informationen über das Web. Die Grundstruktur von XML ist ein Baum, und eine XML-Abfrage wird oft als Zweigmuster mit Prädikaten gebildet, die den Inhalten oder Attributwerten der Baumknoten zusätzlich auferlegt werden. Außerdem wird die XML-Abfragetechnik basierend auf einem Indexmechanismus entwickelt, um die Abfrageeffizienz weiter zu verbessern. XML ist jedoch nicht in der Lage, ungenaue und unsichere Informationen in vielen realen Anwendungen zu verarbeiten, und auch die relevanten XML-Abfragetechniken können Zweigmusterabfragen in Fuzzy-XML nicht unterstützen. Derzeit wurde die Fuzzy-XML-Datenmodellierung ausführlich untersucht, wie sie in;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-44899-7_4 5a11d65a060772b6926bd8fdc59e1ce0;de;;;2.2.;;;Unterstützung des Vector Machine-Ansatzes zur Erkennung von Ereignissen in Videostreams Die Objekterkennung ist ein wichtiges Thema in der Bildverarbeitung. In diesem Beitrag präsentieren wir einen Überblick über einen robusten Ansatz zur Ereigniserkennung aus der Videoüberwachung. Unser Ereigniserkennungssystem besteht aus drei Modulen, Lernen, Extraktion und Erkennung. Der Extraktionsteil der Videomerkmale basiert auf MPEG 7. Im Erkennungsteil verwenden wir inzwischen SVMs zur Erkennung von Ereignissen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35326-0_15 be45206139d0b98363eb8f954402d301;de;;;2.2.;;;Konstruieren optimaler zyklischer Touren für die Erkundung der Ebene und die Vermeidung von Hindernissen: Ein Ansatz der Graphentheorie Wir schlagen einen graphentheoretischen Ansatz für die planare autonome Exploration vor. Wir unterteilen zuerst den planaren Raum unter Verwendung von Peano-Cesaro-Dreiecks-Kacheln und konstruieren dann einen dualen Graphen mit Kantennachbarschaft des Kachelmusters. Der duale Graph der Peano-Cesaro-Triangulation wird erhalten, indem für jede dreieckige Kachel ein Scheitelpunkt definiert und eine Kante zwischen zwei Kacheln gezeichnet wird, die eine gemeinsame Kante haben. Bei Vorhandensein von Hindernissen analysieren wir den Teilgraphen, der durch die Nicht-Hindernis-Kacheln im dualen Graphen induziert wird. Wir beweisen die Existenz von Hamiltonschen Kreisen in diesem induzierten Teilgraphen für eine bestimmte Klasse von Hindernissen. Wir beweisen auch die Nichtexistenz von Hamiltonschen Kreisen für bestimmte andere Hinderniskonfigurationen. Wir präsentieren heuristische Algorithmen und vergleichen ihre Ergebnisse für die Fälle, in denen wir eine definitive Antwort auf die Existenz von Hamilton-Zyklen haben. Beispiele mit Abbildungen sind enthalten, um das Konzept zu veranschaulichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74356-9_9 4280d3ce57fdb3976d5d04dde7a3d7c0;de;;;2.2.;;;Visualisierung der Codon-Nutzung innerhalb und zwischen Genomen: Konzepte und Tools Kosten und Zeitaufwand für die Genomsequenzierung sind in den letzten zehn Jahren stark gesunken. Dies führt zu einem explosionsartigen Wachstum genetischer Datenbanken und zur Entwicklung neuer sequenzierungsbasierter Ansätze zur Untersuchung verschiedener biologischer Phänomene. Das Datenbankwachstum war besonders vorteilhaft für die Untersuchung von Protein-kodierenden Sequenzen auf Codon-Ebene, die den Zugang zu großen Sätzen verwandter Genome erfordert. Von solchen Studien wird erwartet, dass sie biologische Kräfte beleuchten, die die Primärstruktur von Kodierungssequenzen formen, und ihre evolutionären Bahnen genauer vorhersagen. Neben grundlegendem Interesse sind Codon-Usage-Studien von großem praktischen Wert, beispielsweise in der Wirkstoffforschung und in der Genommedizin. Nichtsdestotrotz ist unser Verständnis von Codon-bezogenen Fragen derzeit flacher als das, was wir über Nukleotid- und Aminosäuresequenzen wissen. Neben dem Mangel an adäquaten Datensätzen in den frühen Tagen der Molekularbiologie leiden Codon-Usage-Studien unserer Meinung nach unter der Unterentwicklung von einfach zu verwendenden Werkzeugen, um zu analysieren und zu visualisieren, wie sich die Codon-Sequenz entlang des Gens und über die homologen Gene hinweg verändert der Evolution. In diesem Review wollen wir die Hauptbereiche von Studien zur Codonverwendung beschreiben, wobei der Schwerpunkt auf den Tools liegt, die eine visuelle Interpretation der Daten ermöglichen. Wir diskutieren die Grundprinzipien verschiedener Ansätze, welche Statistiken Vertrauen in ihre Ergebnisse geben und was getan werden muss, um das Feld der Codon-Use-Forschung weiter zu stärken.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2445-5_13 d66ef456660f347d99a3ef247840813d;de;;;2.2.;;;Eingebettete Cluster Sternentstehung ist ein kontinuierlicher Prozess, der während der Lebensdauer unserer Galaxie und des Universums auftritt. In den letzten zwei Jahrzehnten haben wir aufgrund von Fortschritten in der Beobachtungstechnologie, insbesondere im Infrarot- und Millimeterwellenbereich, die eine direkte Beobachtung der Orte der Sternentstehung ermöglichen, bemerkenswerte Fortschritte beim Verständnis der Sternentstehung gemacht. Solche Beobachtungen legen nahe, dass eingebettete Cluster die grundlegenden Einheiten der Sternentstehung in Molekülwolken sein könnten. Eine geringe Sternentstehungseffizienz und eine schnelle Gasausbreitung lassen diese Cluster zerstreuen, um die Feldsternpopulation bereitzustellen. Folglich bieten eingebettete Sternhaufen wichtige Laboratorien für die Untersuchung grundlegender Fragen der Sternentstehung innerhalb unserer Galaxie.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-26357-8_11 217bc28af1cc5912cc96fc557263e17e;de;;;2.2.;;;Die proliferative Aktivität mikrovaskulärer Zellen in Glioblastomen korreliert nicht mit der Zeit bis zum Wiederauftreten Die Zeit bis zur Rezidivoperation (TR) ist ein guter Wachstumsparameter, insbesondere für Glioblastome. Kürzlich haben wir gezeigt, dass der Ki-67-Markierungsindex (LI) von Tumorzellen eine hohe inverse Korrelation mit diesem Zeitintervall aufweist. In der aktuellen Studie wurde der LI von mikrovaskulären Zellen (MVC) in den gleichen Glioblastom-Fällen untersucht. Der LI von MVC von primären und rezidivierenden Tumoren hatte keine Beziehung und zeigte keine Korrelation mit TR. Die Wachstumsfraktion von MVC war signifikant niedriger als die von Tumorzellen. Die MVC in Glioblastomen scheint chaotische Proliferationseigenschaften ohne Zusammenhang mit dem Tumorwachstumspotenzial zu haben. Diese Beobachtung kann Auswirkungen auf die antiangiogenetische Therapie haben.;-;-;-;https://link.springer.com/article/10.1023/A%3A1023795417525 58d4659ed1921634f6159402c805e408;de;;;2.2.;;;Manipulieren des „Spalier“-Objekts Das Trellis-Paradigma unterscheidet sich in einem wichtigen Punkt von herkömmlichen R-Grafiken: High-Level-„Plotting“-Funktionen in Gitter erzeugen eher Objekte als jede tatsächliche Grafikausgabe. Wie bei anderen Objekten in R können diese Objekte Variablen zugewiesen, auf Platte in serialisierter Form gespeichert werden, um in einer späteren Sitzung wiederhergestellt zu werden, und auf andere Weise auf verschiedene Weise manipuliert werden. Sie können auch geplottet werden, was wir in den allermeisten Fällen auch nur wollen. In diesem Buch haben wir uns weitgehend auf diese letzte Aufgabe konzentriert. In diesem Kapitel werfen wir einen genaueren Blick auf die Implikationen des objektbasierten Designs und wie man es nutzen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75969-2_11 9a08602184bd693c95cc118a0617660d;de;;;2.2.;;;Meromorphe Funktionen, Abbildungen und ihre rationalen Approximanten in ℂ Wir diskutieren Montessus- und Nicht-Montessus-Konvergenztypen für (μ,υ) rationale Approximanten an meromorphe Funktionen und ihre Verallgemeinerungen auf meromorphe Abbildungen in ℂ;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-6466-2_23 d3eb52f88c98e63346e175e0d30fccac;de;;;2.2.;;;Menschzentrierter objektbasierter Bildabruf Ein neues objektbasiertes Bildabruf-(OBIR)-Schema wird eingeführt. Die Bilder werden mit dem neu entwickelten, menschenbasierten 11-Farben-Quantisierungsschema und dem Farbkorrelogramm analysiert. Ihre Ausgabe diente als Eingabe für den Bildsegmentierungsalgorithmus: agglomeratives Zusammenführen, das auf Farbbilder erweitert wird. Aus den resultierenden groben Segmenten werden durch pixelweise Klassifikation Grenzen extrahiert, die durch Erosions- und Dilatationsoperatoren geglättet werden. Die resultierenden Merkmale der extrahierten Formen vervollständigten die Daten für einen -Vektor. In Kombination mit dem Schnittpunktabstandsmaß wird dieser Vektor für OBIR verwendet, ebenso wie seine Komponenten. Obwohl die Formanpassung selbst gute Ergebnisse liefert, übertrifft der komplette Vektor seine Komponenten mit einer Genauigkeit von bis zu 80 %. Somit wird ein einzigartiges, hervorragend funktionierendes, schnelles, auf menschlicher Wahrnehmung basierendes OBIR-Schema erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/11552499_55 3fd7ff16334fb469152b9eca08db0d72;de;;;2.2.;;;Einbinden von Entitäten in die Modellierung von Nachrichtenthemen Nachrichtenartikel drücken Informationen aus, indem sie sich auf benannte Entitäten konzentrieren, z. B. wer, wann und wo in Nachrichten. Dagegen ist es nicht trivial, die Beziehungen zwischen Entitäten, Wörtern und Themen durch eine große Menge von Nachrichtenartikeln zu extrahieren. Topic Modeling wie Latent Dirichlet Allocation wurde viel verwendet, um versteckte Themen in der Textanalyse zu ermitteln, die eine beachtliche Leistung erbracht haben. Es kann jedoch nicht explizit die Beziehung zwischen Wörtern und Entitäten zeigen. In diesem Papier schlagen wir ein generatives Modell, das Entity-Centered Topic Model (ECTM), vor, um die Korrelation zwischen Entitäten, Wörtern und Themen zusammenzufassen, indem wir das Entitätsthema als eine Mischung aus Wortthemen nehmen. Experimente mit realen Nachrichtendatensätzen zeigen, dass unser Modell eine geringere Perplexität und eine bessere Clusterbildung von Entitäten aufweist als das State-of-the-Art-Entity-Topic-Modell (CorrLDA2). Wir präsentieren auch Analysen für Ergebnisse von ECTM und vergleichen sie weiter mit CorrLDA2.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41644-6_14 681a0ece9a0abd6f5349a6fec1d34d7e;de;;;2.2.;;;Eine schnelle und effektive Methode zum Clustern von großen chinesischen Fragendatensätzen Fragenclustering spielt in QS-Systemen eine wichtige Rolle. Aufgrund von Datenknappheit und lexikalischen Lücken in Fragen gibt es keine ausreichenden Informationen, um gute Clustering-Ergebnisse zu garantieren. Außerdem schenken frühere Arbeiten der Komplexität von Algorithmen wenig Aufmerksamkeit, was dazu führt, dass große Datensätze nicht durchführbar sind. In diesem Artikel schlagen wir ein neuartiges Ähnlichkeitsmaß vor, das die Wortverwandtschaft als zusätzliche Information verwendet, um die Ähnlichkeit zwischen Fragen zu berechnen. Basierend auf dem Ähnlichkeitsmaß und dem k-Means-Algorithmus werden ein semantischer k-Means-Algorithmus und seine erweiterte Version vorgeschlagen. Experimentelle Ergebnisse zeigen, dass die vorgeschlagenen Methoden eine vergleichbare Leistung mit den modernsten Methoden aufweisen und weniger Zeit kosten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45924-9_31 e651a2ba36d7a1430930cf4e2f754f25;de;;;2.2.;;;Lokale latente semantische Analyse basierend auf Support Vector Machine für unausgeglichene Textkategorisierung Viele Textkategorisierungsaufgaben beinhalten unausgewogene Trainingsbeispiele. Wir gehen dieses Problem an, indem wir eine verbesserte lokale latente semantische Analyse verwenden. LSA hat sich als äußerst nützlich erwiesen, ist jedoch keine optimale Darstellung für die Textkategorisierung, da diese unüberwachte Methode die Klassendiskriminierung ignoriert und sich nur auf die Darstellung konzentriert. Einige lokale LSI-Verfahren wurden vorgeschlagen, um die Klassifizierung durch Verwendung von Klassenunterscheidungsinformationen zu verbessern. In diesem Papier wählen wir Support Vector Machine (SVM), um einen unausgeglichenen Datensatz als lokale Regionen für lokale LSA zu generieren. Experimentelle Ergebnisse zeigen, dass unsere Methode bei der Klassifizierung innerhalb einer viel kleineren LSA-Dimension besser ist als globale LSA- und traditionelle lokale LSA-Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23235-0_42 fa3f41d630578d4faaaa2f232abe5149;de;;;2.2.;;;Eine Speicherstruktur für nicht normalisierte relationale Datenbanken Der Zweck dieses Papiers besteht darin, eine Speicherstruktur für nicht normalisierte relationale Datenbanken zu definieren. Insbesondere definieren wir eine Kombination aus zwei Datenstrukturen: herkömmliche Datensatzlistenstrukturen und einen Baum, der alle atomaren Werte speichert, die in den Tupeln und Untertupeln der Datenbank vorhanden sind. Diese Speicherstruktur ermöglicht eine effiziente Ausführung von Aktualisierungen und Abfragen, die in der erweiterten relationalen Algebra des nicht normalisierten relationalen Datenbankmodells ausgedrückt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-72617-0_49 eca749366d0c2f47aaca95eb3bf966f1;de;;;2.2.;;;Ein innovativer Algorithmus zur Extraktion von Schlüsselbildern bei der Videozusammenfassung Die Videozusammenfassung, die darauf abzielt, die Datenmenge zu reduzieren, die untersucht werden muss, um die gewünschten Informationen aus den Informationen in einem Video zu gewinnen, ist eine wesentliche Aufgabe in Videoanalyse- und Indexierungsanwendungen. Wir schlagen einen innovativen Ansatz zur Auswahl repräsentativer (Schlüssel-)Frames einer Videosequenz für die Videozusammenfassung vor. Durch Analysieren der Unterschiede zwischen zwei aufeinanderfolgenden Frames einer Videosequenz bestimmt der Algorithmus die Komplexität der Sequenz im Hinblick auf Änderungen des visuellen Inhalts, der durch verschiedene Frame-Deskriptoren ausgedrückt wird. Der Algorithmus, der sich der Komplexität bestehender Verfahren entzieht, die beispielsweise auf Cluster- oder Optimierungsstrategien basieren, wählt dynamisch und schnell eine variable Anzahl von Schlüsselbildern innerhalb jeder Sequenz aus. Die Keyframes werden durch Erfassen von Krümmungspunkten innerhalb der Kurve der kumulativen Framedifferenzen extrahiert. Ein weiterer Vorteil ist, dass es die Keyframes im laufenden Betrieb extrahieren kann: Krümmungspunkte können während der Berechnung der Framedifferenzen bestimmt werden und die Keyframes können extrahiert werden, sobald ein zweiter Punkt mit hoher Krümmung erkannt wurde. Wir vergleichen die Leistung dieses Algorithmus mit der anderer Keyframe-Extraktionsalgorithmen, die auf unterschiedlichen Ansätzen basieren. Die erhaltenen Zusammenfassungen wurden durch drei Qualitätsmaße objektiv bewertet: das Maß für die Wiedergabetreue, das Maß für den Schussrekonstruktionsgrad und das Maß für das Kompressionsverhältnis.;-;-;-;https://link.springer.com/article/10.1007/s11554-006-0001-1 bee8f09f160d025343fbec45a2a55928;de;;;2.2.;;;Messung der Winkelbrechung mit zwei Wellenlängen Die Genauigkeit von Vermessungen mit optischen Techniken war schon immer durch refraktive Effekte in der Atmosphäre eingeschränkt. Bei der Distanzmessung hängt die mittlere Geschwindigkeit der elektromagnetischen Welle vom Mittelwert des Brechungsindex entlang der Strecke ab. Bei der Triangulation und bei der trigonometrischen Höhen- und Nivellierung wird die ideal gerade Sichtlinie zum Ziel durch die Brechungsindexänderungen über die Linie gebogen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45583-4_2 a95ff35b378be701e304e5cd4378771e;de;;;2.2.;;;Anwendungen virtueller Daten im LIGO-Experiment Viele Physikexperimente erzeugen heute große Datenmengen. Diese Daten werden dann auf vielfältige Weise verarbeitet, um grundlegende physikalische Phänomene zu verstehen. Virtuelle Daten sind ein Konzept, das die Ansicht der Daten vereinheitlicht, unabhängig davon, ob sie roh oder abgeleitet sind. Es bietet ein neues Maß an Transparenz bei der Integration von Datenverarbeitungs- und Verarbeitungsfunktionen, um Datenprodukte an Endbenutzer oder Anwendungen bereitzustellen, sodass Anfragen nach solchen Produkten einfach in Berechnungen und/oder Datenzugriffe an mehreren Standorten abgebildet werden können. GriPhyN (Grid Physics Network) ist ein von der NSF gefördertes Projekt, das darauf abzielt, die Konzepte virtueller Daten zu verwirklichen. Zu den an dem Projekt beteiligten Physikanwendungen gehört das Laser Interferometer Gravitational-wave Observatory (LIGO), das gebaut wird, um die von der Allgemeinen Relativitätstheorie vorhergesagten Gravitationswellen zu beobachten. LIGO wird große Datenmengen produzieren, die in den nächsten zehn Jahren Hunderte von Petabyte erreichen werden. Große Gemeinschaften von Wissenschaftlern, die über die ganze Welt verteilt sind, müssen auf Teile dieser Datensätze zugreifen und sie effizient analysieren. Es wird erwartet, dass die Rohdaten und die verarbeiteten Daten auf verschiedene nationale Zentren, Universitätsrechenzentren und Einzelarbeitsplätze verteilt werden. In diesem Papier beschreiben wir einige der Herausforderungen, die mit dem Aufbau virtueller Datengitter für Experimente wie LIGO verbunden sind.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48086-2_3 1efe881f6c35afd1cd1e9fb1a4835a90;de;;;2.2.;;;Steigerung der Effizienz der Verarbeitung von GPU-Bitmap-Indexabfragen Computerbeschleuniger, die einst exotisch waren, sind heute in vielen Computersystemen allgemein verfügbar. Grafikprozessoren (GPUs) sind vielleicht die am häufigsten anzutreffenden Rechenbeschleuniger. Jüngste Arbeiten haben gezeigt, dass GPUs bei der Analyse riesiger Datensätze von Vorteil sind. Speziell im Zusammenhang mit dieser Studie wurde gezeigt, dass GPUs die Abfrageverarbeitungszeit von Datenbank-Bitmap-Indexabfragen erheblich reduzieren können. Bitmap-Indizes werden normalerweise für große, schreibgeschützte Datensätze verwendet und häufig mit einer Form der hybriden Lauflängenkomprimierung komprimiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-59419-0_21 c105bc2baae3604287a3e3942d862ad0;de;;;2.2.;;;Eine auf der intrinsischen Dimensionalität basierende Heuristik zur Reduzierung der Anzahl zyklischer DTW-Vergleiche bei der Formklassifizierung und -suche mit AESA Cyclic Dynamic Time Warping (CDTW) ist eine gute Unähnlichkeit von Formdeskriptoren hoher Dimensionalität basierend auf Konturen, ist jedoch rechenaufwendig. Aus diesem Grund ist zum Durchführen von Erkennungsaufgaben ein Verfahren zum Reduzieren der Anzahl von Vergleichen und zum Vermeiden einer erschöpfenden Suche praktisch. Der Approximate and Eliminate Search Algorithm (AESA) ist aufgrund seiner drastischen Reduzierung der Vergleiche ein relevantes Indexierungsverfahren, jedoch erfordert dieser Algorithmus einen metrischen Abstand und das ist bei CDTW nicht der Fall. In diesem Papier stellen wir eine Heuristik vor, die auf der intrinsischen Dimensionalität basiert, die es ermöglicht, CDTW und AESA zusammen in Klassifikations- und Retrievalaufgaben über diese Formdeskriptoren zu verwenden. Experimentelle Ergebnisse zeigen, dass unser Vorschlag für Deskriptoren hoher Dimensionalität in der Praxis optimal ist und eine erschöpfende Suche, die bei diesen Aufgaben die einzige Alternative für sie und CDTW darstellt, deutlich übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34166-3_60 7dd9ce6b5a3bd1033e3fa94bf13dc197;de;;;2.2.;;;Ungefähre Untergrafik-Abgleichsabfrage über große Grafik Eine angenäherte Teilgraph-Übereinstimmungsabfrage wird zunehmend verwendet, um gekennzeichnete, heterogene Netzwerke mit Millionen von Scheitelpunkten und Kanten abzurufen. Diese Netzwerke sind normalerweise verrauscht und haben kein festes Schema. Frühere exakte Untergraphen-Matching-Anfragen (wie zB Untergraphen-Isomorphismus) und ungefähre Matchings, die auf ein kleines proprietäres Netzwerk gerichtet sind, sind nicht praktikabel. Kürzlich angenäherte Untergraphenübereinstimmungen über große Graphen verringern in der Regel die Übereinstimmungsgenauigkeit, um die Abfrageeffizienz sicherzustellen. In diesem Papier stellen wir eine neue Methode zur approximativen Subgraph-Matching-Abfrage vor. Wir schlagen eine Ähnlichkeitsbewertungsfunktion vor, um die Übereinstimmungsqualität des Teilgraphen zu messen. Darauf aufbauend wenden wir eine zweistufige Strategie bei der Verarbeitung von Subgraph-Matching-Abfragen an: Kandidatenauswahl und Abfrageverarbeitung. Und wir verwenden eine Indexierungstechnik, um die Abfrageeffizienz zu verbessern. Wir evaluieren unsere Methode experimentell auf Abfrageeffizienz und -effektivität. Die Ergebnisse zeigen, dass unsere Methode insbesondere hinsichtlich der Effizienz die modernste Methode NeMa übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-42553-5_21 9722b47372df51e928a67d3cad993126;de;;;2.2.;;;Edge-to-Edge-Matching von Gitterebenen und Kopplung von Kristallographie und Migrationsmechanismen planarer Grenzflächen Struktur und Migrationsmechanismen planarer Grenzflächen werden geometrisch mit dem Konzept des Edge-to-Edge-Matching von Gitterebenen und dem daraus abgeleiteten Moiré-Ebenen-Ansatz untersucht. Die ausgewählten Beispiele für planare Schnittstellen umfassen solche, die mit rationalen, fastrationalen oder irrationalen Orientierungsbeziehungen verbunden sind. Es wird gezeigt, dass die Orientierung und Struktur von planaren Grenzflächen, die mit diesen Orientierungsbeziehungen verbunden sind, durch den Ansatz der Moiré-Ebene rationalisiert werden können und dass die Migration dieser Grenzflächen in ihre Normalenrichtungen auftreten kann;-;-;-;https://link.springer.com/article/10.1007/s11661-006-0057-3 3a14213ab54327da2218b95243b22cbe;de;;;2.2.;;;Gesichtsbildabruf mit diskriminierender ternärer Zensustransformation und räumlichem Pyramidenabgleich Das Abrufen von Gesichtsbildern ist ein Prozess zum effizienten Auswählen eines oder mehrerer Gesichter aus Gesichtsdatenbanken, die dem Abfragegesichtsbild ähnlich sind. Diese Studie schlägt eine neue Methode zum Abrufen von Gesichtsbildern vor, bei der Bilder mithilfe des Discriminative Ternary Census Transform Histogram (DTCTH) indiziert werden, das die diskriminierenden strukturellen Eigenschaften eines Bildes erfasst, indem unerwünschte Hintergrundinformationen vermieden werden. Es kodiert lokale Mikrostrukturen eines Bildes wie Linie, Kante, Ecken usw. und verwendet eine dynamische Schwelle während der Bildtransformation, wodurch es stabiler gegen Intensitätsschwankungen wird. Die globale Struktur des diskriminativ transformierten Bildes wird unter Verwendung der räumlichen Pyramidendarstellung während der Histogrammindexberechnung erfasst. Der berechnete Histogrammindex wird als Gesichtsbilddeskriptor verwendet. Der berechnete Histogrammindex wird zusammen mit dem Gesichtsbild in der Datenbank gespeichert. Auf diese Weise wird eine Gesichtsbilddatenbank aufgebaut. In der Abrufphase, wenn ein Abfragebild gegeben wird, wird der Histogrammindex unter Verwendung des gleichen Prozesses berechnet, und dann wird der Abstand zwischen den Merkmalsvektoren der Abfragebilder und den Merkmalsvektoren der Datenbankbilder berechnet. Bilder mit geringerer Entfernung werden als Ausgabe registriert. Die vorgeschlagenen Lösungen werden experimentell anhand der standardmäßigen eingeschränkten FRAV2D-, JAFFE- und FERET-Gesichtsbilddatenbanken bewertet. Das experimentelle Ergebnis zeigt, dass die Gesichtserkennungsmethode bei Datenbanken, die Gesichtsbilder mit Gesichtsausdruck und Intensitätsvariationen enthalten, sehr effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-8581-0_26 aa2fe0ee08a67499d7b6376be1e3bfb2;de;;;2.2.;;;Skalierbare Ähnlichkeitssuche für Big Data Die Analyse aktueller Big-Data-Sammlungen erfordert einen effektiven und effizienten inhaltsbasierten Zugriff auf Daten, die in der Regel unstrukturiert sind. Dies impliziert zunächst die Notwendigkeit, deskriptives Wissen über komplexe und heterogene Objekte aufzudecken, um sie auffindbar zu machen. Zweitens werden multimodale Suchstrukturen benötigt, um komplexe Ähnlichkeitsabfragen möglicherweise in ausgelagerten Umgebungen unter Wahrung der Privatsphäre effizient auszuführen. Vier konkrete Forschungsziele zur Bewältigung der Herausforderungen werden skizziert und diskutiert. Es wird angenommen, dass eine relevante Lösung dieser Probleme für eine skalierbare Ähnlichkeitssuche mit Big Data erforderlich ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16868-5_1 8124a7b61fb9a67e805da3cb937df050;de;;;2.2.;;;Clustering im Verzögerungsvektorraum sinnvoll machen Sequentielles Zeitreihen-Clustering ist eine Technik, die verwendet wird, um wichtige Merkmale aus Zeitreihendaten zu extrahieren. Es kann gezeigt werden, dass die Methode der Prozess der Clusterbildung im Verzögerungsvektorraum-Formalismus ist, der in der Literatur zu dynamischen Systemen verwendet wird. Vor kurzem wurde die verblüffende Behauptung aufgestellt, dass sequenzielle Zeitreihen-Clustering bedeutungslos ist. Dies hat wichtige Konsequenzen für einen erheblichen Umfang an Arbeiten in der Literatur, da eine solche Behauptung den Beitrag dieser Arbeit ungültig macht. In diesem Beitrag zeigen wir, dass sequenzielle Zeitreihen-Clustering nicht bedeutungslos ist und dass das in diesen Arbeiten hervorgehobene Problem von der Verwendung der euklidischen Distanzmetrik als Distanzmaß im Verzögerungsvektorraum herrührt. Als Lösung betrachten wir eine recht allgemeine Klasse von Zeitreihen und schlagen ein Regime vor, das auf zwei Arten von Ähnlichkeiten basiert, die zwischen Verzögerungsvektoren existieren können, was natürlich zu einem alternativen Entfernungsmaß zur euklidischen Entfernung im Verzögerungsvektorraum führt. Wir zeigen, dass mit diesem alternativen Entfernungsmaß sequenzielle Zeitreihen-Clustering durchaus sinnvoll sein kann. Wir wiederholen ein Schlüsselexperiment in der Arbeit, auf dem die „bedeutungslose“ Behauptung beruhte, und zeigen, dass unsere Methode zu einem erfolgreichen Clustering-Ergebnis führt.;-;-;-;https://link.springer.com/article/10.1007/s10115-006-0042-6 b1362d96e55bf73a5fc070df1e1350d6;de;;;2.2.;;;XML Concurrency Control Protocols: Eine Übersicht Da XML zu einem Standardformat für den Datenaustausch und die Datendarstellung geworden ist, wird die Sicherstellung der Korrektheit der gleichzeitigen Aktualisierung von XML-Daten zu einem kritischen Thema. Dieses Papier gibt einen Überblick über einige der bisher wichtigsten XML-Protokolle zur Parallelitätskontrolle, wie beispielsweise sperrbasierte, zeitstempelbasierte und optimistische XML-Protokolle zur Parallelitätskontrolle. Zusammenfassung und Vergleich werden für jedes Protokoll unter den Gesichtspunkten des Implementierungsprinzips, des optimistischen Algorithmus, der Multiversionstechnologie und der Serialisierbarkeit gegeben. Einige aktuelle Forschungstrends in XML-Protokollen zur Parallelitätssteuerung werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33050-6_29 75834afd2a5ccf1318400dedd7dd89a0;de;;;2.2.;;;Ag-Tree: Eine neuartige Struktur für Bereichsabfragen in Data Warehouse-Umgebungen Um Range-Aggregat-Abfragen in Data Warehouse-Umgebungen effizient auszuwerten, werden mehrere Arbeiten zu Datenwürfeln (wie dem Aggregat-Cubetree) vorgeschlagen. Im Aggregat-Cubetree speichert jeder Eintrag in jedem Knoten die Aggregatwerte seines entsprechenden Unterbaums. Daher können Bereichsaggregat-Abfragen verarbeitet werden, ohne die untergeordneten Knoten zu besuchen, deren Elternknoten vollständig im Abfragebereich enthalten sind. Der aggregierte Cubetree berücksichtigt jedoch keine Bereichsabfragen mit Teildimensionen und Bereichsabfragen ohne Aggregationsoperationen. Das heißt, 1) bei teildimensionalen Bereichsabfragen müssen auch viele für die Abfragen irrelevante Informationen von der Festplatte gelesen werden und 2.) die Bereichsabfragen ohne Aggregatoperationen. In diesem Beitrag haben wir eine neuartige Indexstruktur vorgeschlagen, genannt;-;-;-;https://link.springer.com/chapter/10.1007/11733836_35 3d5d0a29fa993ca95b20d6fdff82b3eb;de;;;2.2.;;;Hypertextuelle Programmierung für domänenspezifische Endbenutzerentwicklung Domänenspezifische Sprachen (DSLs) wurden erfolgreich für die Endbenutzerentwicklung verwendet. Der Umgang mit Sprachsyntax stellt jedoch erhebliche Lernherausforderungen. In diesem Artikel stellen wir die hypertextuelle Programmierung vor, eine Technik, die die Sprachsyntax als Hypertext darstellt. Mit dieser Technik können Benutzer, anstatt sich mit Textsprachen zu befassen, ihre Programme hauptsächlich unter Verwendung der Navigation überprüfen und konstruieren. Über die bloße Darstellung der Syntax hinaus kann Hypertext verwendet werden, um verschiedene Ansichten eines einzelnen Programmcodes bereitzustellen. Um die Vorteile dieser Technik zu nutzen, müssen jedoch geeignete Hypertext-Editoren gebaut werden. In diesem Beitrag wird argumentiert, dass viele der Erkenntnisse aus dem Web-Engineering-Bereich verwendet werden können, um dieses Problem zu lösen. Millionen von Benutzern navigieren im World Wide Web. Die hypertextuelle Programmierung nutzt diese weit verbreitete Fertigkeit des Endbenutzers, um die Konstruktion von Computerprogrammen zu erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00427-8_13 e74e70c0962f0bc2fba9462e338a51c2;de;;;2.2.;;;Fraktale Kapazitätsdimension des dreidimensionalen Histogramms aus Farbbildern Um zu der wichtigen Aufgabe der Charakterisierung der komplexen mehrdimensionalen Struktur natürlicher Bilder beizutragen, wird eine fraktale Charakterisierung für die kolorimetrische Organisation natürlicher Farbbilder vorgeschlagen. Dies wird aus ihrem dreidimensionalen RGB-Farbhistogramm realisiert, indem ein Kastenzählverfahren angewendet wird, um die Dimensionalität seines Trägers zu beurteilen. Es entsteht eine regelmäßige Skalierung, fast linear über den gesamten Bereich der zugänglichen Skalen und mit einer nicht ganzzahligen Steigung im Log-Log, die die Definition einer Kapazitätsdimension für das Histogramm ermöglicht. Dies manifestiert eine fraktale kolorimetrische Organisation mit einer selbstähnlichen Struktur der Farbpalette, die typischerweise natürliche Bilder zusammensetzt. Eine solche fraktale Charakterisierung ergänzt andere zuvor bekannte fraktale Eigenschaften natürlicher Bilder, von denen einige kürzlich in ihrer kolorimetrischen Organisation berichtet wurden und andere eher klassisch in ihrer räumlichen Organisation berichtet wurden. Solche fraktalen Multiskalen-Merkmale, die in natürlichen Bildern entdeckt werden, liefern hilfreiche Hinweise, die für die Bildmodellierung, -verarbeitung und visuelle Wahrnehmung relevant sind.;-;-;-;https://link.springer.com/article/10.1007/s11045-009-0097-0 484f3e3200705262df44c8939f19ac50;de;;;2.2.;;;R-Baum-Darstellungen von Katastrophengebieten basierend auf probabilistischen Schätzungen Um ein Navigationssystem für Flüchtlinge in Katastrophengebieten zu realisieren, müssen wir den Rechenaufwand beim Festlegen von Fluchtwegen reduzieren. Daher schlagen wir in diesem Beitrag eine Methode zur Kostenreduzierung vor, indem aus einer globalen Perspektive ganze Gefahrenregionen in einem Katastrophengebiet erfasst werden. Zunächst schätzen wir auf einfache Weise zukünftige Veränderungen gefährlicher Regionen ab und verknüpfen alle Regionen mit Gefahrenstufen. Dann indexieren wir geschätzte gefährliche Regionen nach erweitertem R-Baum. In diesem Schritt verknüpfen wir die Gefahrenstufen mit den Tiefen des erweiterten R-Baums und jede Gefahrenstufe wird in jeder Tiefe des erweiterten R-Baumes verwaltet. Schließlich zeigen wir, wie sich unser Ansatz bei der Festlegung von Fluchtwegen auswirkt.;-;-;-;https://link.springer.com/chapter/10.1007/11504894_34 d7922916e3cb59383efa60d1d1402ed0;de;;;2.2.;;;Der Vorteil der Kategorisierung bei der visuellen Suche: Zielort ohne Identifikation Frühere Studien haben gezeigt, dass die visuelle Suche zwischen Kategorien (z. B. die Suche nach einer „6“ unter Buchstaben) einfacher ist als die Suche innerhalb einer Kategorie (z. B. die Suche nach einer „6“ unter anderen Ziffern). Vier Experimente wurden durchgeführt, um zu bestimmen, welche besonderen Vorteile sich bei der Suche zwischen den Kategorien ergeben. Das erste Experiment zeigt, dass dieser Kategorieeffekt auch dann auftritt, wenn das Subjekt das Ziel identifizieren muss, was darauf hindeutet, dass die Suche zwischen den Kategorien den kategorial unterschiedlichen Gegenstand zur weiteren Verarbeitung „markieren“ kann. Drei weitere Experimente belegen, dass dieses Tag auf der räumlichen Position des Elements innerhalb des Arrays basiert.;-;-;-;https://link.springer.com/article/10.3758/BF03199455 0c032cf12fbf27020480f549d2cea299;de;;;2.2.;;;Eine Hadoop-Erweiterung zur Analyse von räumlich-zeitlich referenzierten Ereignissen Ein raumzeitlich referenziertes Ereignis ist ein Tupel, das sowohl einen Raumbezug als auch einen Zeitbezug enthält. Der Raumbezug ist typischerweise eine Punktkoordinate und der Zeitbezug ist ein Zeitstempel. Die Ereignisnutzlast kann das Auslesen eines Sensors (IoT-Systeme), ein Benutzerkommentar (geotagged soziale Netzwerke), ein Nachrichtenartikel (gdelt) usw. sein. Räumlich-zeitliche Ereignisdatensätze werden immer größer und die Anforderungen an ihre Verarbeitung gehen darüber hinaus traditionelle Client-Server-GIS-Architekturen. Vielmehr sollen Hadoop-ähnliche Architekturen verwendet werden. Hadoop bietet jedoch nicht die Arten und Operationen, die für die Verarbeitung solcher Datensätze erforderlich sind. In diesem Artikel schlagen wir eine Hadoop-Erweiterung (in der Tat eine SpatialHadoop-Erweiterung) vor, die Analysen an großen raumzeitlich referenzierten Ereignisdatensätzen durchführen kann. Die Erweiterung umfasst Datentypen und Operatoren, die in den Hadoop-Kern integriert sind, um als native Benutzer verwendet zu werden. Wir optimieren die Abfrage weiter mit Hilfe eines raumzeitlichen Index. Experimente mit dem gdelt-Ereignisdatensatz demonstrieren den Nutzen der vorgeschlagenen Erweiterung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-64861-3_85 e71c622e24f110c4aff01b6b8a4e75bc;de;;;2.2.;;;Ein dynamischer Ansatz für das Mining generalisierter sequenzieller Muster in klinischen Zeitreihendatensätzen Auf Ähnlichkeit basierende Stream-Zeitreihen gewinnen aufgrund ihrer Bedeutung in vielen Anwendungen wie Finanzdatenverarbeitung, Netzwerküberwachung, Web-Click-Stream-Analyse, Sensor-Data-Mining und Anomalieerkennung immer mehr Aufmerksamkeit. Diese Anwendungen erfordern die Verwaltung von Datenströmen, d. h. Daten, die aus einer kontinuierlichen Echtzeitsequenz von Elementen bestehen. Wir schlagen eine Technik zum Mustervergleich innerhalb von statischen Mustern und klinischen Datensätzen von Stream-Zeitreihen vor. Das Hauptziel unseres Projekts ist es, versteckte Muster zwischen eingehenden klinischen Zeitreihendatensätzen und dem Satz vorgegebener klinischer Muster zu ermitteln. Unter Berücksichtigung der eingehenden Bilddaten zu einem bestimmten Zeitstempel erstellen wir ein MultiScale Median-Modell auf mehreren Ebenen, um es an die Stream-Zeitreihen anzupassen, die durch häufige Aktualisierungen gekennzeichnet sind. Darüber hinaus verwenden wir einen Beschneidungsalgorithmus, Segment Median Pruning auf klinischen Bilddaten, um alle Kandidatenmuster zu beschneiden. Experimente wurden mit Datensätzen von Netzhauterkrankungen durchgeführt, die als altersbedingte Makuladegeneration (ARMD) bekannt sind, und Simulationsergebnisse zeigen, dass das System bei der Verarbeitung von Bilddatensätzen effizient ist, um effiziente und genaue Entscheidungen zu treffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31552-7_67 79232d4573fb8b19771a302cb0c91b87;de;;;2.2.;;;Intermittierende Eisschildaustrittsereignisse im Nordosten Nordamerikas während der letzten Eiszeit Das 3D-Eisschildmodell von Marshall und Clarke, das sowohl Dynamik als auch Thermodynamik umfasst, wird verwendet, um Oszillationen im tausendjährigen Maßstab innerhalb eines Eisschildes unter stetigem externem Antrieb erfolgreich zu simulieren. Solche internen Oszillationen gelten als Hauptursache für quasi-periodische großräumige Eisentladungen, die als Heinrich Events bekannt sind. Es wird eine Analyse der Mechanismen durchgeführt, die mit mehrtausendjährigen Oszillationen des Laurentiden-Eisschildes verbunden sind, einschließlich der Initiierung und Beendigung von Gleitereignissen. Diese Analyse beinhaltet eine Untersuchung der verschiedenen Wärmequellen und -senken, die die basale Eistemperatur beeinflussen, die wiederum die Art der Eisschildbewegung bestimmt. Die Eisschilddicke und die Oberflächenneigung, die den Druckschmelzpunkt bzw. die Dehnungserwärmung beeinflussen, haben sich als kritisch für die Bildung und Entwicklung von sich schnell bewegenden Eisströmen erwiesen, die zum Kalben großer Eisberge führen. Obwohl die Hauptherkunft für Heinrich Events in der Hudson Bay und der Hudson Strait vermutet wird, zeigen wir, dass auch die nördlicheren Regionen um Lancaster Strait und Baffin Island wichtige Quellen für Eisabflüsse während der letzten Eiszeit sein können.;-;-;-;https://link.springer.com/article/10.1007/s00382-005-0078-4 90cf0476bfab692b5e5261df69e562a6;de;;;2.2.;;;Berechnung von Retentionsindizes bei einer zugeordneten Temperatur aus temperaturprogrammierten Daten Es wird eine Methode zur Berechnung von Retentionsindizes bei einer zugeordneten Temperatur aus temperaturprogrammierten Daten vorgestellt. Wenn die Retentionszeiten bei zwei verschiedenen Programmraten für die gelösten Stoffe und die n-Alkane bekannt sind, können die Retentionsindizes bei einer zugeordneten Temperatur direkt berechnet werden.;-;-;-;https://link.springer.com/article/10.1007/BF02324830 86300a7753ad64c3d95246669dfb8857;de;;;2.2.;;;Die Struktur von Molekülwolken Die Struktur und Eigenschaften kleiner, lokaler Molekülwolken und riesiger Molekülwolken, wie sie von der Rosette Molecular Cloud verkörpert werden, werden besprochen. Die kleinen Wolken befinden sich in hohen galaktischen Breiten mit typischen Durchmessern von 2 pc, Massen von 40 M;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-3945-5_3 9a3dc43e843fc7a13a6204d7dd9e1c5f;de;;;2.2.;;;Sind QSOs Gravitationslinsen? Es sind jetzt vier Fälle von mehrfach abgebildeten QSOs bekannt, einer mit einem erkannten Vordergrundobjekt in etwa der halben affinen Entfernung zum QSO: 0957+561 (17 mag, z=1.4, Abstand =6″), 1115+080 (17 mag , z=1.7, s1=1.8″, s2=2.3″), 2345+007 (19 mag, z=2.1, s=7″) und 1635+267 (19 mag z=2, s=5″). Außerdem ist 1548+115 (19 mag, z=1.9) ein wahrscheinliches Linsenereignis mit einem Vordergrund-QSO, aber es wurde kein Sekundärbild gefunden. Vielleicht wurden 500 QSO-Kandidaten von allen Beobachtern optisch auf mehrere Bilder untersucht. 0957+561 ist das einzige katalogisierte QSO, das als mehrfach angezeigt wird. Von den verbleibenden 1548 derzeit katalogisierten QSOs wird jedes Sekundärbild durch atmosphärische Streuung des QSO-Lichts maskiert. Typischerweise werden hierdurch Nachweisgrenzen von ≳ 3 mag schwächer und < 2 Bogensekunden Abstand von der hellen Komponente für jedes Sekundärbild festgelegt. Objektive Prismen- und Grism-Durchmusterungen suchen direkt nach mehreren QSOs mit identischen Emissionslinien und haben 1500 QSOs vermessen. Die verbleibenden drei Linsen-QSOs stammen aus diesen effizienteren Umfragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-7220-9_89 6a9f6aee8ef73576bf8a2398da3056a0;de;;;2.2.;;;Eine experimentelle Bewertung von relationalen RDF-Speicher- und Abfragetechniken Das Resource Description Framework (RDF) ist ein flexibles Modell zur Darstellung von Informationen über Ressourcen im Web. Mit der zunehmenden Menge an RDF-Daten, die verfügbar werden, ist eine effiziente und skalierbare Verwaltung von RDF-Daten zu einer grundlegenden Herausforderung geworden, um die Vision des Semantic Web zu verwirklichen. Das RDF-Modell hat viel Aufmerksamkeit der Datenbank-Community auf sich gezogen und viele Forscher haben verschiedene Lösungen vorgeschlagen, um RDF-Daten effizient zu speichern und abzufragen. In diesem Papier konzentrieren wir uns auf die Bewertung des Stands der Technik der Ansätze, die auf der relationalen Infrastruktur beruhen, um skalierbare Engines zum Speichern und Abfragen von RDF-Daten bereitzustellen. Unsere experimentelle Bewertung erfolgt zusätzlich zu den kürzlich eingeführten SP;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14589-6_22 590f80050058b52111ba94fe2d780079;de;;;2.2.;;;Die räumliche Organisation von Bildregionen anhand von Krafthistogrammen verstehen: Eine Führung Das Verständnis der räumlichen Organisation von Regionen in Bildern ist eine entscheidende Aufgabe, die für viele Bereiche der Computer Vision unerlässlich ist. Das Krafthistogramm – eine quantitative Darstellung der relativen Position zwischen zwei Objekten – ist ein mächtiges Werkzeug für diese Aufgabe. Es kapselt strukturelle Informationen über die Objekte sowie Informationen über ihre räumlichen Beziehungen. Darüber hinaus bietet es solide theoretische Garantien und schöne geometrische Eigenschaften. Zahlreiche Anwendungen wurden untersucht, und neue Anwendungen werden weiterhin erforscht. Zum Beispiel können Krafthistogramme durch Ähnlichkeitsmaße für den Fuzzy-Szenenvergleich verglichen werden. Sie können verwendet werden, um relative Positionen in Form von räumlichen Beziehungen zu beschreiben, die durch Fuzzy-Beziehungen modelliert werden. Sie können auch zur Szenenbeschreibung verwendet werden, bei der relative Positionen durch sprachliche Ausdrücke dargestellt werden. In diesem Kapitel werden die Arbeiten zum Histogramm der Kräfte überprüft und klassifiziert. Es berührt so unterschiedliche Themen wie die Mensch-Roboter-Kommunikation und räumliche Indexierungsmechanismen für medizinische Bilddatenbanken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-1752-2_5 98ae6eaa4727d684fb2a3479377d77d9;de;;;2.2.;;;Aktualisierungsstrategie basierend auf der Regionsklassifizierung mit ELM für den mobilen Objektindex Der mobile Objektindex sollte neben effizienten Abfragevorgängen auch effiziente Aktualisierungsvorgänge unterstützen. In diesem Papier betrachten wir die Frage der effizienten Aktualisierung des mobilen Objektindex. Basierend auf einem Modell für die mobilen Daten stellen wir eine Methode vor, um statistische Informationen der von den mobilen Objekten abgedeckten Regionen in Merkmalsvektoren zu integrieren. Wir schlagen dann eine neuartige Architektur des mobilen Objektindex vor, bei der R-Baum verwendet wird, um die besetzten Regionen anstelle der mobilen Objekte selbst zu indizieren, und Extreme Learning Machine (ELM) wird verwendet, um die Regionen zu klassifizieren. Darüber hinaus beschreiben wir mehrere verwandte Algorithmen und die Aktualisierungsstrategie basierend auf der Klassifizierung der Regionen. Die vorgeschlagene Strategie und Algorithmen werden in einer simulierten Umgebung evaluiert. Die Experimente zeigen, dass die vorgeschlagene Aktualisierungsstrategie basierend auf der Regionsklassifizierung unter Verwendung von ELM eine höhere Leistung in Bezug auf E/A-Operationen erreichen kann. Im Vergleich zur Strategie ohne Regionsklassifizierung kann die vorgeschlagene Methode die Anzahl der I/O-Operationen um mehr als 80% reduzieren.;-;-;-;https://link.springer.com/article/10.1007/s00500-012-0821-9 f950cb0e3944f0cd7a848949bf1927b9;de;;;2.2.;;;Organische Verbindungen Um eine bestimmte organische Verbindung zu finden, sollte der Sachindex oder der Formelindex verwendet werden. Die allgemeine Anordnung ist: aliphatische oder offenkettige Verbindungen, offene Ketten mit N, S, Benzolderivate, cyclische Kohlenwasserstoffe, kondensierte Ringsysteme, heterocyclische Verbindungen, Kohlenhydrate, Aminosäuren, Naturstoffe, Molekülkomplexe, metallorganische Verbindungen — B, Si , P, As, Sb, Gruppen IA, IIA, III, IV, VI, Übergangsmetallkomplexe — -Komplexe, andere Liganden, Polymere, Proteine, Elektronenbeugungs- und Mikrowellenstudien. Es werden nur vollständige Strukturanalysen beschrieben, Verbindungen, für die nur Gitterparameter bestimmt werden, und solche, die nur in Vormitteilungen beschrieben wurden und zu denen später Details erscheinen werden, wurden nicht berichtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-3115-7_1 67c352d0eb9a72016aab5dff8f52caeb;de;;;2.2.;;;Beziehungen zwischen temperaturprogrammierten und isothermen Kovats-Retentionsindizes in der Gas-Flüssig-Chromatographie Theoretische Beziehungen zwischen dem unter isothermen Säulenbedingungen gemessenen Wert eines Kovats-Index und dem mit linearer Temperaturprogrammierung gemessenen Wert wurden erneut untersucht. Es wird eine neue Beziehung vorgeschlagen, die anzeigt, dass ein mit Temperaturprogrammierung gemessener Retentionsindex einem isotherm gemessenen Retentionsindex mit der Säulentemperatur beim harmonischen Mittel der Injektions- und Elutionstemperaturen entspricht. Dies wurde experimentell für eine Reihe von unpolaren Verbindungen unter Verwendung von OV 101 als stationäre Phase getestet.;-;-;-;https://link.springer.com/article/10.1007/BF02258921 33e73b031041a148f5729d475df939a9;de;;;2.2.;;;Ein räumlich-zeitliches Darstellungsschema für die inhalts- und semantikbasierte Videosuche auf den Trajektorien bewegter Objekte In diesem Artikel schlagen wir ein neues räumlich-zeitliches Darstellungsschema vor, das die Trajektorien von bewegten Objekten in Videodaten effektiv modellieren kann, und schlagen eine neue signaturbasierte Zugriffsmethode vor, die eine effiziente Abfrage der Benutzeranfrage basierend auf den Trajektorien der bewegten Objekte unterstützen kann. Das vorgeschlagene räumlich-zeitliche Darstellungsschema unterstützt inhaltsbasiertes Abrufen basierend auf den Trajektorien von bewegten Objekten und unterstützt semantikbasiertes Abrufen basierend auf Konzepten, die durch die Standortinformationen von sich bewegenden Objekten erfasst werden. Im Vergleich zur sequentiellen Suche kann unsere signaturbasierte Zugriffsmethode die Abrufleistung verbessern, indem sie die signifikante Anzahl von Plattenzugriffen reduziert, da sie nur auf Kandidatensignaturen zugreifen kann, indem sie die Signaturdatei filtert. Schließlich zeigen wir aus unserem experimentellen Ergebnis, dass unser Schema dem Schema von Li und dem von Shan sowohl in Bezug auf die Abrufeffektivität als auch auf die Effizienz überlegen ist.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45703-8_5 d10cd089f8ce57abdf8dc2b250f3ec45;de;;;2.2.;;;Fraktalbasierte Video Shot Cut/Fade-Erkennung und -Klassifizierung Die Videosegmentierung spielt eine wichtige Rolle bei der Videoindexierung, der inhaltsbasierten Videocodierung und dem Abruf. In diesem Artikel schlagen wir eine neue Methode zur Erkennung von Schnitt- und Überblendungen unter Verwendung der fraktalen Dimension vor. Außerdem klassifizieren wir Frames in drei Kategorien: „CUT“, „FADE IN/OUT“ und „None SHOT“. Um unsere Methode zu testen, haben wir 20 Videos verwendet, die mehr als 33.000 Frames in verschiedenen Motiven enthalten, einschließlich verschiedener Arten von Aufnahmegrenzen. Es wurde auch erfolgreich mit zwei anderen Methoden zur Erkennung von Schussgrenzen verglichen. Ergebnisse aus Experimenten zeigen die verbesserte Präzision und Wiedererkennung der vorgeschlagenen Methode bei der Erkennung der Ein-/Ausblendbilder unserer Datenbank.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15470-6_14 42defbf6a42ff577d6ce7ea66f7c8b0b;de;;;2.2.;;;Extrahieren von Inhalten aus Lehrvideos durch statistische Modellierung und Klassifizierung Dieses Papier präsentiert einen robusten Ansatz zum Extrahieren von Inhalten aus Lehrvideos für die handschriftliche Erkennung, Indexierung und Abfrage sowie andere E-Learning-Anwendungen. Für die Lehrvideos von Tafelpräsentationen ist das Abrufen der handgeschriebenen Inhalte (z. B. Zeichen, Zeichnungen, Figuren) auf Tafeln der erste und Voraussetzung für die weitere Erforschung von Lehrvideoinhalten. Die Inhaltsextraktion in Lehrvideos ist jedoch aufgrund von Videorauschen, Ungleichmäßigkeit der Farbe in den Board-Bereichen, Änderungen der Lichtverhältnisse in einer Videositzung, Kamerabewegungen und unvermeidbaren Okklusionen durch die Lehrer immer noch eine Herausforderung. Um dieses Problem zu lösen, segmentieren wir zunächst Videoframes in mehrere Regionen und schätzen die Parameter der Platinenregionen basierend auf einer statistischen Analyse der Pixel in dominanten Regionen. Dann trennen wir die Board-Regionen mithilfe eines probabilistischen Klassifizierers genau von irrelevanten Regionen. Schließlich kombinieren wir die morphologische Top-Hat-Verarbeitung mit einer gradientenbasierten adaptiven Schwellenwerttechnik, um Inhaltspixel aus den Platinenbereichen abzurufen. Die Auswertung der Ergebnisse der Inhaltsextraktion von vier Lehrvideos in voller Länge zeigt die hohe Leistungsfähigkeit der vorgeschlagenen Methode. Die Extraktion von Inhaltstext erleichtert die Recherche zur vollständigen Nutzung von Lehrvideos, wie z. B. Inhaltsverbesserung, Indexierung und Abruf.;-;-;-;https://link.springer.com/article/10.1007/s10044-006-0051-9 46265e29e73847118643be235686f1d0;de;;;2.2.;;;Szenenbestimmung mit auditiven Segmentierungsmodellen von bearbeitetem Video In diesem Kapitel werden verschiedene Ansätze beschrieben, die Audiofunktionen zur Bestimmung von Szenen in bearbeiteten Videos verwenden. Es konzentriert sich auf die Analyse der Tonspur von Videos zur Extraktion der Videostruktur auf höherer Ebene. Wir definieren eine Szene in einem Video als semantisch kohärentes zeitliches Intervall. Die semantische Kohärenz einer Szene wird oft während der filmischen Bearbeitung eines Videos konstruiert. Ein Beispiel ist die Verwendung von Musik zur Verkettung mehrerer Einstellungen zu einer Szene, die einen längeren Zeitraum wie die Reise einer Figur beschreibt. Auch dem unbearbeiteten Videomaterial ist eine gewisse semantische Kohärenz innewohnt, wie beispielsweise die Klangumgebung bei einer bestimmten Einstellung oder das Wechselmuster der Sprecher in einem Dialog. Eine andere Art von semantischer Kohärenz wird aus dem Textinhalt der Tonspur konstruiert, der beispielsweise verschiedene Geschichten einer Nachrichtensendung oder eines Dokumentarfilms enthüllt. In diesem Kapitel werden die Szenentypen erläutert, die aus der Perspektive der Filmkunst über Audio-Cues konstruiert werden können. Es diskutiert die Machbarkeit einer automatischen Extraktion dieser Szenentypen und präsentiert abschließend einen Überblick über bestehende Ansätze.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-1119-9_6 8b58a6c0e1c12c37b456a5421596a25e;de;;;2.2.;;;Ein nichtparametrischer Copula-basierter Entscheidungsbaum für zwei Zufallsvariablen mit MIC als Klassifikationsindex Die Kopula ist dafür bekannt, skalenfreie Messungen der Abhängigkeit zwischen Variablen zu lernen und hat in den letzten Jahren großes Interesse geweckt. Im Herzen der Kopula ist das Konzept der bekannte Satz von Sklar. Es besagt, dass jede multivariate Verteilungsfunktion in die Randverteilungen und eine Copula, die die Abhängigkeit zwischen Variablen umfasst, zerlegt werden kann. Andererseits ist der Entscheidungsbaum ein bekannter nichtparametrischer dominanter Modellierungsansatz, der sowohl für Regressions- als auch für Kennzeichnungsprobleme verwendet wird. Ein Entscheidungsbaum stellt eine baumstrukturierte Klassifizierung der Daten in überraschende Anweisungen aus Gründen der Einfachheit und Vorhersage dar. In diesem Beitrag untersuchen wir eine neuartige nichtparametrische Copula-basierte Entscheidungsbaumorganisation anhand eines Abhängigkeitsmaßes: maximaler Informationskoeffizient als Klassifikationsindex für zwei verwandte Variablen, die die Daten hinsichtlich der Faktorenbetrachtung am besten klassifizieren, aber zusätzlich die Faktoren rangieren im Einklang mit ihren Schlussfolgerungen. Darüber hinaus testen wir den Wert des Aufteilungskriteriums vorab, um wachsende Zweige des Entscheidungsbaums an jedem Säuglingsknoten zu antizipieren. Zum Beispiel folgten wir unserer vorgeschlagenen Methode zu Kreditkartenaufzeichnungen für Taiwan und Aufzeichnungen über koronare Herzkrankheiten in Pakistan und erzielten die gewünschten Ergebnisse. Als Ergebnis wird die erwartete Methode zur Initiierung von Entscheidungsbäumen mit zwei Variablen mit konstruktiven Werkzeugen zur Klassifizierung, Vorhersage und Wiederverbindung kritischer Faktoren in Statistik, Finanzen, Fitnesswissenschaften, maschinellem Lernen und vielen anderen verwandten Bereichen getestet.;-;-;-;https://link.springer.com/article/10.1007/s00500-020-05399-1 b16b72aab3f62a187d93a02cea9ad43b;de;;;2.2.;;;Ranking-Antworten nach hierarchischen Themenmodellen Themenmodelle sind hierarchische Wahrscheinlichkeitsmodelle zur statistischen Analyse von Dokumentensammlungen. Es wird davon ausgegangen, dass jedes Dokument eine Mischung von latenten Themen umfasst und jedes Thema durch eine Verteilung über das Vokabular repräsentiert werden kann. Die Dimensionalität für einen großen Korpus unstrukturierter Dokumente kann durch die Modellierung mit diesen austauschbaren Themen reduziert werden. In früheren Arbeiten haben wir eine Multi-Pipe-Struktur für Frage-Antwort-(QA)-Systeme entworfen, indem wir die Schlüsselwortsuche, klassische Natural Language Processing (NLP)-Techniken und Prototyperkennungen verschachtelt haben. In dieser Studie verwenden wir diese Technologien, um eine Reihe von Sätzen als Kandidatenantworten auszuwählen. Wir verwenden dann Themenmodelle, um diese Kandidatenantworten zu ordnen, indem wir die semantischen Distanzen zwischen diesen Sätzen und der gegebenen Abfrage berechnen. In unseren Experimenten haben wir festgestellt, dass das neue Modell der Verwendung von Themenmodellen das Antwortranking verbessert, sodass die besseren Antworten für die gegebene Abfrage zurückgegeben werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02568-6_11 9951356a24d0fb4e04cf9ffe085f031e;de;;;2.2.;;;Anwenden von Peer-to-Peer-Techniken auf Grid Replica Location Services Peer-to-Peer-Systeme bieten attraktive Systemverwaltungseigenschaften, einschließlich der Fähigkeit von Komponenten, die dem Netzwerk beitreten, sich selbst zu organisieren, Skalierbarkeit auf bis zu Zehntausende von Mitgliedern, die Fähigkeit des Netzwerks, seine Topologie nach Knotenausfällen automatisch zu reparieren, und Techniken zum Aufrechterhalten redundanter Informationen zur Verbesserung der Zuverlässigkeit und des Lastausgleichs. Wir untersuchen die Anwendung von Peer-to-Peer-Techniken auf Grid-Dienste, die auf Ressourcenerkennung ausgerichtet sind. Insbesondere wenden wir das strukturierte Peer-to-Peer-Overlay-Netzwerk von Chord auf den Globus Replica Location Service an, der die Registrierung und Erkennung von Datenreplikaten ermöglicht. Wir beschreiben das Design und die Leistung eines Peer-to-Peer Replica Location Service (P-RLS), der den Chord-Algorithmus verwendet, um P-RLS-Server selbst zu organisieren und das Chord-Overlay-Netzwerk nutzt, um P-RLS-Zuordnungen adaptiv zu replizieren. Wir präsentieren Leistungsmessungen und Simulationsergebnisse für das P-RLS-System. Wir diskutieren auch offene Fragen bei der Anwendung von Peer-to-Peer-Techniken auf Grid-Ressourcenerkennungsdienste.;-;-;-;https://link.springer.com/article/10.1007/s10723-005-9009-1 97079d89de32b685bfd8ef16558a6378;de;;;2.2.;;;Computer-Seltenheit bei unsicheren Daten Die Essenz des unsicheren Datenmanagements wurde gut angenommen, da Datenunsicherheit in vielen Anwendungen wie Web, Sensornetzwerken usw. weit verbreitet ist. Die meisten der unsicheren Datenmodelle basieren auf der möglichen Weltsemantik. Da die Anzahl der möglichen Welten mit dem Wachstum des Datensatzes exponentiell explodieren wird, ist es viel schwieriger, mit unsicheren Daten umzugehen als mit deterministischen Daten. In diesem Beitrag unternehmen wir den ersten Versuch, die Seltenheit, eine wichtige Statistik, die den Anteil von Gegenständen mit gleicher Häufigkeit beschreibt, auf unsicheren Daten zu untersuchen. Wir haben drei neue Lösungen vorgeschlagen, darunter ein exaktes Verfahren und ein ungefähres Verfahren zum Berechnen der Seltenheit einer gegebenen Häufigkeit bzw. ein Verfahren zum Ermitteln der Häufigkeit der maximalen Seltenheit. Die Analyse im Theorem und umfangreiche experimentelle Ergebnisse belegen die Wirksamkeit und Effizienz der vorgeschlagenen Lösungen.;-;-;-;https://link.springer.com/article/10.1007/s11432-011-4378-5 ea8dcf4572a1c735423de12e93d2070b;de;;;2.2.;;;Funktionen zweiter Ordnung zur Maximierung der Textklassifizierungsleistung Die Arbeit zeigt, dass das Hinzufügen automatisch ausgewählter Wortpaare die Genauigkeit der Textklassifizierung wesentlich erhöht, was im Gegensatz zu den meisten bisher veröffentlichten Forschungsarbeiten steht. Die Wortpaare werden automatisch mit einer Technik ausgewählt, die auf Häufigkeiten von . basiert;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44795-4_36 d5aeb7ccedaadad1b5e5fb07dc8e40c5;de;;;2.2.;;;Forschung zur Technologie des semantischen Abrufens von Videos basierend auf strukturierten semantischen Strings Um einen prägnanten und effizienten Ansatz zur Lösung des Problems des semantischen Abrufs von Videos zu untersuchen, schlagen wir in diesem Papier kreativ ein Konzept einer strukturierten semantischen Zeichenfolge vor, um die Videoindizierung und den Abruf von Videos zu realisieren. Integriert in die NLP-Technologie (Natural Language Processing) und den invertierten Index von Dokumenten könnte unsere Methode dabei helfen, Informationen auf Satzebene darzustellen, damit der Computer die Beschreibungen von Videos besser verstehen kann. Darüber hinaus trägt die Erweiterung auf Synonyme und Hypernyme zu einem umfassenden semantischen Ausdruck bei. Gegenwärtig wurde der Ansatz in unserem verteilten semantischen Video-Retrieval-System – Xunet – angewendet und erreicht nachweislich eine hohe Rückrufrate und Präzisionsrate.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25664-6_85 96beef563eed325ffc5fe2dc4299bb07;de;;;2.2.;;;Fuzzy Image Labeling durch teilweise überwachte Form-Clustering In diesem Beitrag wird ein Ansatz zur Fuzzy-Shape-Annotation für die automatische Bildbeschriftung vorgestellt. Auf Formen, die durch Fourier-Deskriptoren repräsentiert werden, wird ein Fuzzy-Clustering-Prozess angewendet, der durch eine partielle Überwachung geführt wird, um einen Satz von Formprototypen abzuleiten, die eine Anzahl semantischer Kategorien repräsentieren. Als Nächstes werden Prototypen manuell mit Anmerkungen versehen, indem Textetiketten in Bezug auf semantische Kategorien angebracht werden. Basierend auf den beschrifteten Prototypen wird eine neue Form automatisch beschriftet, indem ein Fuzzy-Set zugeordnet wird, das Zugehörigkeitsgrade der Form zu allen semantischen Kategorien bereitstellt. Experimentelle Ergebnisse werden vorgelegt, um die Eignung des vorgeschlagenen Ansatzes zu zeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23863-5_9 52c54f0685dc787d213ee93e656d4d83;de;;;2.2.;;;Automatisierte Extraktion von Kraterrändern auf 3D-Netzen, die künstliches neuronales Netzwerk und diskrete Krümmungskennzeichnung kombinieren Eine der Herausforderungen der Planetenforschung ist die Altersbestimmung von geologischen Einheiten auf der Oberfläche der verschiedenen Planetenkörper im Sonnensystem. Dies dient dazu, eine Chronologie der geologischen Ereignisse auf diesen verschiedenen Körpern zu erstellen und damit deren Entstehungs- und Evolutionsprozesse zu verstehen. Ein Ansatz zur Datierung von Planetenoberflächen beruht auf der Analyse der Einschlagskraterdichten mit der Größe. Es wurden Ansätze zur automatischen Erkennung von Einschlagskratern vorgeschlagen, um den Datierungsprozess zu erleichtern. Sie stützen sich auf Farbwerte aus Bildern oder Höhenwerte aus Digital Elevation Models (DEM). In diesem Artikel schlagen wir einen neuen Ansatz für die Kratererkennung vor, genauer gesagt unter Verwendung ihrer Ränder. Die Krater können durch eine runde Form charakterisiert werden, die als Merkmal verwendet werden kann. Die entwickelte Methode basiert auf einer Analyse der DEM-Geometrie, dargestellt als 3D-Netz, gefolgt von einer Krümmungsanalyse. Der Klassifizierungsprozess wird mit einem einschichtigen Perzeptron durchgeführt. Die Validierung der Methode wird an DHMs des Mars durchgeführt, die von einem Laser-Höhenmesser an Bord der NASA-Raumsonde Mars Global Surveyor erfasst und mit einer Datenbank manuell identifizierter Krater kombiniert werden. Die Ergebnisse zeigen, dass der vorgeschlagene Ansatz die Anzahl der falsch-negativen Ergebnisse im Vergleich zu anderen, die nur auf topografischen Informationen basieren, signifikant reduziert.;-;-;-;https://link.springer.com/article/10.1007/s11038-020-09535-7 7b1c75e314e59b69cdeb9c049a49a97b;de;;;2.2.;;;Eine Methode zur Definition und Behandlung von konzeptionellen Schemaqualitätsproblemen In der Literatur gibt es viele Vorschläge zu Qualitätseigenschaften von konzeptionellen Schemata, aber nur wenige davon (hauptsächlich Syntax-bezogene) wurden in die von Fachleuten und Studenten verwendeten Entwicklungsumgebungen integriert. Eine mögliche Erklärung für diese bedauerliche Tatsache könnte sein, dass die Vorschläge unterschiedlich definiert wurden, was ihre Integration in diese Umgebung erschwert. In diesem Papier definieren wir Qualitätseigenschaften in Bezug auf Qualitätsprobleme, die im Wesentlichen Bedingungen sind, die nicht eintreten sollten, und wir schlagen eine einheitliche Methode zu ihrer Definition und Behandlung vor. Wir zeigen, dass unsere Methode in der Lage ist, die meisten der vorhandenen Qualitätseigenschaften einheitlich zu definieren und Qualitätsaspekte in Entwicklungsumgebungen zu integrieren. Die Methode kann an mehrere Sprachen angepasst werden. Wir präsentieren eine prototypische Implementierung unserer Methode als Eclipse-Plugin. Wir haben die potenzielle Nützlichkeit unserer Methode bewertet, indem wir das Vorhandensein einer Reihe von Qualitätsproblemen in einer Reihe von konzeptionellen Schemata analysiert haben, die von Studenten im Rahmen ihrer Projekte entwickelt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34002-4_39 e138288aa8116065c515810b19672f05;de;;;2.2.;;;Auf der Suche nach versteckten Galaxien Es gibt zunehmend Hinweise darauf, dass es viel mehr Galaxien gibt, als wir aufgrund der Extrapolation von Beobachtungen des nahen Universums erwartet hätten. Tiefe Beobachtungen des fernen Universums zeigen eine viel größere Anzahl von Galaxien als lokal beobachtet wird. Die Spektren entfernter Quasare zeigen viel zu viele Absorptionslinienmerkmale, als dass sie von der lokalen Galaxienpopulation erklärt werden könnten. Die Urknall-Nukleosynthese sagt einen Faktor von 5–10 mal mehr baryonische Materie im Universum voraus als in Galaxien. Die Helligkeit des irdischen Nachthimmels (ungefähr 23 blaue Magnituden aresec;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-1882-8_6 ed0cd99750bfafd5c318ee4101dccbdb;de;;;2.2.;;;Methode zur Bestimmung der atmosphärischen Extinktion Die Erstellung eines grundlegenden Katalogs von Sterngrößen mit Hilfe eines modernen photoelektrischen Photometers erfordert eine sorgfältige Bestimmung der Lichtabsorption in der Atmosphäre. Der erwartete Fehler der photoelektrischen Helligkeitsmessung beträgt O;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-7879-2_25 3b490aa4523e718b2f764296c11d2ff1;de;;;2.2.;;;Ein effektiver semantischer Cache zur Ausnutzung der XPath-Abfrage-/Ansichts-Beantwortbarkeit Die Pflege eines semantischen Caches von materialisierten XPath-Ansichten innerhalb oder außerhalb der Datenbank ist ein neuartiger, praktikabler und effizienter Ansatz zur Erleichterung der XML-Abfrageverarbeitung. Die meisten der existierenden Ansätze haben jedoch die folgenden Nachteile: 1) Sie können nicht genügend potenzielle zwischengespeicherte Ansichten entdecken, um nachfolgende Abfragen effektiv zu beantworten, oder 2) sie sind für die Ansichtsauswahl aufgrund der Komplexität von XPath-Ausdrücken ineffizient. In diesem Papier schlagen wir vor;-;-;-;https://link.springer.com/article/10.1007/s11390-010-9328-y 31a1d857f48c1604c9a5e3830a554a15;de;;;2.2.;;;Bestimmung der kristallographischen Parameter im Zusammenhang mit der martensitischen Umwandlung in der Legierung Fe-24,5 at % Pt Betrachtet man das Betongleitsystem als gitterinvariantes Schersystem, wurden die Orientierungsbeziehung zwischen Austenit und Martensit und die analytischen Lösungen für die Habitusorientierung, den Betrag der gitterinvarianten Verformung und die Größe der Gesamtformverformung unter Verwendung der strengen Version des infinitesimalen Deformationsansatz (ID) zur Beschreibung der martensitischen Umwandlung von fcc in bcc, die in einer Eisen-Platin-Legierung mit 24,5 Atom-% Pt beobachtet wurde. Die Ergebnisse der vorliegenden Studie werden numerisch mit denen verglichen, die sowohl im Experiment als auch im Rahmen des infinitesimalen Ansatzes und einer phänomenologischen Theorie von Bowles und Mackenzie (BM) gewonnen wurden.;-;-;-;https://link.springer.com/article/10.1134/S0031918X11030045 f59cb37ce0c3ce483d4020e22945b663;de;;;2.2.;;;Online-Probleme mit erblichen Teilgraphen maximaler Ordnung Wir untersuchen zunächst das Kompetitivitätsverhältnis für die Online-Version des Problems, einen induzierten Teilgraphen maximaler Ordnung zu finden, der eine erbliche Eigenschaft erfüllt, unter der Hypothese, dass der Eingabegraph durch Cluster offenbart wird. Dann konzentrieren wir uns auf zwei der bekanntesten Instanzen dieses Problems, die maximale unabhängige Menge und die maximale Clique.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44411-4_21 f21baa9294814600c70ac9f73a3be5a8;de;;;2.2.;;;Hören wir Größe oder Klang? Bälle fallen auf Teller Ziel dieser Studie ist es zu untersuchen, ob es möglich ist, die Größe eines Objekts direkt aus dem Geräusch eines Aufpralls zu ermitteln. Konkret soll in der Studie untersucht werden, ob Hörer die Größe einer Kugel anhand des Klangs erkennen können, wenn sie auf Platten mit unterschiedlichen Durchmessern (in Experiment 1, 2 bzw. In diesem Paradigma kommt der größte Teil des erzeugten Tons von der Platte und nicht von der Kugel. Den Zuhörern wurde weder mitgeteilt, wie viele verschiedene Kugeln oder Platten verwendet wurden, noch die Materialien der Kugeln und Platten. Obwohl die Zuhörer vernünftige Schätzungen der Ballgröße machten, wurden ihre Urteile von der Größe der Platte beeinflusst: Bälle wurden als größer beurteilt, wenn sie auf größere Platten fallen gelassen wurden. Darüber hinaus waren Hörer im Allgemeinen weder in der Lage, Kugel- und Plattenmaterialien noch die Anzahl der verwendeten Platten in den Experimenten 2 und 3 zu erkennen. Schließlich wird gezeigt, dass verschiedene akustische Eigenschaften der Klänge mit den Urteilen der Hörer korrelieren.;-;-;-;https://link.springer.com/article/10.3758/BF03206491 27eb32e1b7697bc25b7c0776db7fd5e4;de;;;2.2.;;;Mit deiner Ausrüstung den nächsten Hale-Bopp finden Welche Lehren lassen sich also aus den Amateurentdeckungen der letzten Jahre ziehen, die im vorigen Kapitel behandelt wurden? Machen wir uns hier keine Illusionen: Kometen zu entdecken ist für den Amateurastronomen des 21. Jahrhunderts nicht einfach! Ich habe dieses Kapitel ambitioniert „Finde den nächsten Hale-Bopp mit deiner Ausrüstung“ betitelt. Offensichtlich lebe ich in einer Fantasiewelt, denkst du vielleicht? Nun, vielleicht, aber für den Anfang hat der Titel wahrscheinlich Ihre Aufmerksamkeit erregt. Seien wir ehrlich, für die meisten Amateurastronomen ist jede Kometenentdeckung eine große Errungenschaft. Weltweit gibt es Zehntausende von Amateurastronomen, aber nur ein Bruchteil eines Prozents von ihnen wird jemals einen Kometen entdecken. Dennoch ist es in der CCD-Ära offensichtlich, dass lichtschwache Kometen entdeckt werden können, während routinemäßige astrometrische oder photometrische Arbeiten an Kometen und Asteroiden in der Ekliptikebene durchgeführt werden. Der fortgeschrittene Amateur kann mit Leichtigkeit eine begrenzende Sterngröße von 20 erreichen, und es gibt immer noch Objekte, die heller sind als diese Größe, die darauf warten, entdeckt zu werden. Viele der Amateurkometenentdeckungen der letzten Jahre wurden mit Amateur-CCD-Systemen im Zuge der routinemäßigen astrometrischen Arbeit an NEOs entdeckt, die Tage zuvor von den professionellen Patrouillen entdeckt wurden. Am anderen Ende der Skala sehen wir auch Entdeckungen mit digitalen Spiegelreflexkameras mit 100–200 mm Objektiven. Die unbarmherzigen Maschinen;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-6905-7_5 5b4739f72ea91ff87670c36b4e14544c;de;;;2.2.;;;Sternhaufen und Assoziationen Das vergangene Triennium war in den meisten Zweigen der Clusterforschung eine sehr aktive Zeit. Einige kontroverse Themen, insbesondere die Häufigkeit und das Alter von Kugelsternhaufen, haben viel Aufmerksamkeit erhalten. Es wurden zahlreiche photometrische Arbeiten zu Clustern und Assoziationen veröffentlicht. Beobachtungseffekte des Massenverlusts wurden von mehreren Astronomen diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-7837-9_28 c0285b1b15813c3b52986a14a458e923;de;;;2.2.;;;Erweiterte Replikatverwaltung mit Reptor Die Datenreplikation ist eine der bekanntesten Strategien, um eine hohe Verfügbarkeit und Fehlertoleranz sowie minimale Zugriffszeiten für große, verteilte Benutzergemeinschaften mithilfe eines weltweiten Data Grids zu erreichen. In bestimmten wissenschaftlichen Anwendungsbereichen kann das Datenvolumen mehrere Petabyte erreichen, in diesen Bereichen spielen Datenreplikation und Zugriffsoptimierung eine wichtige Rolle für die Handhabbarkeit und Nutzbarkeit des Grids.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24669-5_110 2c8609f8440a025c58ea461f6570b6bb;de;;;2.2.;;;Automatische Bildannotation mit Relevanz-Feedback und latenter semantischer Analyse Das Ziel dieser Arbeit ist es, die Bild-Konzept-Beziehung in Bezug auf die Bildannotation zu untersuchen. Wir demonstrieren, wie die automatische Annotation von Bildern auf teilweise annotierten Datenbanken implementiert werden kann, indem Bild-Konzept-Beziehungen aus positiven Beispielen über Inter-Query-Lernen gelernt werden. Latent Semantic Analysis (LSA), eine ursprünglich für den Textabruf entwickelte Methode, wird auf eine Bild-/Sitzungsmatrix angewendet, bei der Relevanz-Feedback-Beispiele aus einer großen Anzahl künstlicher Abfragen (Sitzungen) gesammelt werden. Die Singulärwertzerlegung (SVD) wird während der LSA ausgenutzt, um Bildanmerkungen nur unter Verwendung von Relevanzrückkopplungsinformationen zu verbreiten. Wir zeigen, wie SVD verwendet werden kann, um eine verrauschte Bild-/Sitzungsmatrix zu filtern und fehlende Werte zu rekonstruieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79860-6_6 b1673cca28bc690140ec4058cc0990b1;de;;;2.2.;;;Fragiles Wasserzeichensystem zur Selbstwiederherstellung mit variabler Wasserzeichennutzlast Um Sicherheit, Unsichtbarkeit und Wiederherstellungsqualität zu berücksichtigen, schlägt diese Arbeit ein fragiles Wasserzeichensystem zur Selbstwiederherstellung mit variabler Nutzlast vor. Für jeden Block enthalten die Wasserzeichen das Gesamtwasserzeichen mit variabler Bitanzahl und das Basiswasserzeichen mit einer Länge von 24 Bit. Die zwei Wasserzeichenversionen jedes Blocks werden jeweils auf der Grundlage des geheimen Schlüssels in die weniger signifikanten Bitebenen der verschiedenen Blöcke eingebettet. Sie können nicht nur das Problem der zufälligen Manipulation teilweise lösen, sondern auch die Leistung der Manipulationserkennung verbessern. Die variable Wasserzeichen-Nutzlast bewahrt die adäquaten Informationen des Bildblocks auf so wenig Bits wie möglich. Simulationsergebnisse zeigen, dass das vorgeschlagene Schema nicht nur eine bessere Unsichtbarkeit und Sicherheit gegen die bekannten Fälschungsangriffe bietet, sondern auch eine Bildwiederherstellung mit einer akzeptablen visuellen Qualität bis zu 60% Manipulation ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32205-1_13 0c6b7b51fd1049cbd504205d63edeb2f;de;;;2.2.;;;Ein intelligenter Wissensabruf-Rahmen für die klinische Diagnose und Behandlung bei CDSS Im Bereich des Clinical Decision Support Systems (CDSS) wurde der klinische Pfad in den Krankenhäusern weit verbreitet und gefördert. Die traditionelle Art und Weise, den klinischen Pfad zu verwalten und zu organisieren, hat sich bereits nicht an die Bedürfnisse der Gegenwart angepasst. Zur Anpassung an die aktuellen Anwendungsanforderungen des klinischen Pfads und zur Verbesserung der Verwaltung, Organisation und Suche des klinischen Pfads schlägt dieser Beitrag vor, eine Datenbank für klinische Pfade aufzubauen, um den klinischen Pfad zu verwalten und zu speichern. Basierend auf den Strukturmerkmalen des klinischen Pfades werden in diesem Papier eine neue Lucene-basierte Methode und ein Rahmen vorgeschlagen. Das auf Lucene basierende Verfahren kann den klinischen Pfad entsprechend der Struktur des Artikels des klinischen Pfads indizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34240-0_26 6544d6c40ba77173aeca49d97c400970;de;;;2.2.;;;Adaptive Navigation für Selbstbewertungs-Quiz Webbasierte, parametrisierte Quizfragen bieten Lehrern und Schülern mehrere Vorteile als Technologie zur Selbstbewertung. Die Wirkung dieser Vorteile wird jedoch stark gemindert, wenn ein Student nicht genügend Unterstützung erhält und seine Fortschritte während des Studiums nicht sehen kann. Wir haben das System QuizGuide entwickelt, das versucht, dieses Problem zu lösen, indem es die Schüler adaptiv durch das Quizmaterial des Kurses führt. Architektur, Schnittstelle und Pläne der zukünftigen Systementwicklung werden hier beschrieben. Das Papier präsentiert auch erste Ergebnisse der Systembewertung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27780-4_52 3548bbd566afd857495a99fe07708489;de;;;2.2.;;;Räumlich-zeitliche Analyse von akuten Aufnahmen wegen ischämischer Herzkrankheit in NSW, Australien Das kürzlich finanzierte Projekt Spatial Environmental Epidemiology in New South Wales (SEE NSW) zielt darauf ab, routinemäßig gesammelte Daten in NSW Australien zu verwenden, um Risikofaktoren für verschiedene chronische Krankheiten zu untersuchen. In diesem Beitrag präsentieren wir eine Fallstudie, die sich auf den Zusammenhang zwischen sozialer Benachteiligung und ischämischer Herzkrankheit konzentriert, um einige der methodischen Herausforderungen aufzuzeigen, die wahrscheinlich auftreten werden.;-;-;-;https://link.springer.com/article/10.1007/s10651-005-1517-4 c8bf0a21e134c94fdb2b60cf9b4bc69f;de;;;2.2.;;;Zeitliche Data Warehouses Aktuelle Data-Warehouse- und OLAP-Modelle enthalten eine Zeitdimension, die wie andere Dimensionen zu Gruppierungszwecken (mithilfe des Roll-up-Vorgangs) oder in einer Prädikatsrolle (mithilfe des Slice-and-Dice-Vorgangs) verwendet wird. Die Zeitdimension gibt auch den Zeitrahmen für Maßnahmen an (zB um zu wissen, wie viele Einheiten eines Produkts im März 2007 verkauft wurden). Die Zeitdimension kann jedoch nicht verwendet werden, um Änderungen in anderen Dimensionen zu verfolgen, beispielsweise wenn ein Produkt seine Inhaltsstoffe oder seine Verpackung ändert. Folglich gelten die in der Definition eines Data Warehouse (Abschn. 2.5) enthaltenen „nichtflüchtigen und“ zeitvariablen Merkmale nur für Kennzahlen, und diese Situation überlässt den Anwendungen die Verantwortung, Dimensionsänderungen abzubilden. Kimballet al. [147] schlugen im Zusammenhang mit relationalen Datenbanken, den sich langsam ändernden Dimensionen, mehrere Lösungen für dieses Problem vor. Dennoch sind diese Lösungen nicht zufriedenstellend, da sie entweder nicht die gesamte Historie der Daten speichern oder schwer zu implementieren sind. Außerdem berücksichtigen sie nicht alle Forschungen, die auf dem Gebiet der temporalen Datenbanken durchgeführt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74405-4_5 b32a9fed24a987b6a577b7ec06d276f9;de;;;2.2.;;;Auswertung von Entfernungsmaßen für partielle Bildwiederherstellung mit selbstorganisierender Karte Digitale Bildbibliotheken werden immer häufiger und weit verbreiteter, da immer mehr visuelle Informationen in schnell wachsender Geschwindigkeit produziert werden. Bei diesem immensen Wachstum besteht die Notwendigkeit, diese Datenbanken zu organisieren und zu indizieren, damit wir die gewünschten Bilder effizient abrufen können. In diesem Artikel bewerten wir die Leistung der selbstorganisierenden Karten (SOMs) mit unterschiedlichen Entfernungsmaßen beim Abrufen ähnlicher Bilder, wenn dem SOM ein vollständiges oder teilweises Abfragebild präsentiert wird. Unsere Methode verwendet RGB-Farbhistogramme. Da der RGB-Farbraum sehr groß ist, wird ein weiterer SOM verwendet, um den Farbraum adaptiv zu quantisieren, bevor die Histogramme erzeugt werden. Einige vielversprechende Ergebnisse werden berichtet.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44668-0_144 ebf2b58d55d591104061edd80251b858;de;;;2.2.;;;Erreichen chemischer Genauigkeit mit der Theorie der gekoppelten Cluster Aufgrund formaler und rechnerischer Fortschritte in der Theorie gekoppelter Cluster in den letzten Jahren ist es nun möglich, sehr genaue Molekülgeometrien, Schwingungsfrequenzen, Bildungswärmen, Bindungsenergien und vertikale elektronische Anregungsenergien zu erhalten. Beispielsweise zeigt sich anhand statistischer Analysen einer Vielzahl von Berechnungen, dass die CCSD(T)/;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-0193-6_2 4e28ae2f3bcef6f023f6227bf9703465;de;;;2.2.;;;Molekülladung als Determinante der Permeabilität von Makromolekülen durch das fetale Kapillarendothel der Meerschweinchenplazenta Der Einfluss der molekularen Ladung auf die Permeabilität für Makromoleküle des fetalen Kapillarendothels der Meerschweinchenplazenta wurde untersucht.;-;-;-;https://link.springer.com/article/10.1007/BF00214979 80052cb994fd80f8d71f0e8a321f7a40;de;;;2.2.;;;Multimodale Videodatenbank-Modellierung, -Abfrage und -Browsing In diesem Beitrag wird ein multimodales Videoindexierungs- und -abrufsystem, MMVIRS, vorgestellt. MMVIRS modelliert die auditiven, visuellen und textuellen Quellen von Videosammlungen aus einer semantischen Perspektive. Neben der Multimodalität basiert unser Modell auf semantischen Hierarchien, die es uns ermöglichen, von verschiedenen semantischen Ebenen aus auf das Video zuzugreifen. MMVIRS wurde mit Datenannotations-, Abfrage- und Browsing-Teilen implementiert. Im Anmerkungsteil werden Metadateninformationen und Videosemantik auf hierarchische Weise extrahiert. Im Abfrageteil wurden semantische Abfragen, räumliche Abfragen, regionale Abfragen, räumlich-zeitliche Abfragen und zeitliche Abfragen über Videosammlungen unter Verwendung des vorgeschlagenen Modells verarbeitet. In den Browsing-Teilen werden Videosammlungen anhand von Kategorieinformationen, visuellen und auditiven Hierarchien navigiert.;-;-;-;https://link.springer.com/chapter/10.1007/11569596_82 383acece6f6ae0aff6771b24fed9f3f8;de;;;2.2.;;;Massively Parallel Image Index für den vokabularbaumbasierten Bildabruf Obwohl der auf einem Vokabularbaum basierende Algorithmus eine hohe Effizienz beim Wiederauffinden von Bildern aufweist, steht er beim Umgang mit großen Datenmengen immer noch vor einem Dilemma. In diesem Beitrag zeigen wir, dass die Bildindexierung der Hauptengpass des vokabularbaumbasierten Bildabrufs ist, und schlagen dann vor, wie die GPU-Hardware und das parallele CUDA-Programmiermodell genutzt werden können, um die Bildindexphase effizient zu lösen und anschließend die verbleibende Abrufphase zu beschleunigen. Unsere Hauptbeiträge umfassen Baumstrukturtransformation, Bildpaketverarbeitung und Aufgabenparallelität. Unser GPU-basierter Bildindex ist bis zu dreißigmal schneller als die ursprüngliche Methode und der gesamte GPU-basierte Vokabularbaumalgorithmus ist um zwanzig Prozent schneller.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7302-1_9 489c3090f521ff83012b7b9b91c8720d;de;;;2.2.;;;Formale Restrukturierungsfunktionen für hierarchische Datenbanken Traditionell wurde die Datenrestrukturierung hierarchischer Datenstrukturen anhand von Beispielen im Kontext der Ausdrücke einiger Transformationssprachen veranschaulicht. In diesem Beitrag definieren wir allgemeine und genaue Analyse- und Restrukturierungsfunktionen für hierarchische Datenbanken. Diese Funktionen beschreiben die Umstrukturierung struktureller Beziehungen zwischen Datenstrukturen, d. h. der Aufbau einer Zieldatenbank aus einer Quelldatenbank wird detailliert definiert. Tatsächlich definieren die Analyse- und Restrukturierungsfunktionen die von der Restrukturierungssoftware zur Laufzeit auszuführenden Aufgaben.;-;-;-;https://link.springer.com/article/10.1007/BF00977967 3d2eed56f47f5cbea7706119440db9b8;de;;;2.2.;;;Ein bioinformatischer Workflow für genetische Assoziationsstudien von Merkmalen in indonesischem Reis Asiatischer Reis ist in Indonesien und weltweit ein Grundnahrungsmittel und seine Produktion ist für die Ernährungssicherheit von wesentlicher Bedeutung. Die Katalogisierung und Verknüpfung genetischer Variationen in asiatischem Reis mit wichtigen Merkmalen wie Qualität und Ertrag ist für die Entwicklung überlegener Reissorten erforderlich. Wir entwickeln einen Bioinformatik-Workflow zur Qualitätskontrolle und Datenanalyse von genetischen und Merkmalsdaten für ein Diversitätspanel von 467 Reissorten aus Indonesien. Der Bioinformatik-Workflow arbeitet mit einer relationalen Back-End-Datenbank zum Speichern und Abrufen von Daten. Qualitätskontroll- und Datenanalyseverfahren werden unter Verwendung des gesamten Genomdatenanalyse-Toolset, PLINK und der statistischen Computersprache [R] implementiert und automatisiert. Die 467 Reissorten wurden mit einem benutzerdefinierten Array (717.312 Genotypen insgesamt) genotypisiert und für 12 Merkmale an vier Standorten in Indonesien über mehrere Saisons hinweg phänotypisiert. Wir haben unseren Bioinformatik-Workflow auf diese Daten angewendet und präsentieren prototypische genomweite Assoziationsergebnisse für ein kontinuierliches Merkmal – Tage bis zur Blüte. Zwei genetische Varianten, die sich auf den Chromosomen 4 und 12 des Reisgenoms befinden, zeigten in diesen Daten Hinweise auf eine Assoziation. Abschließend skizzieren wir Erweiterungen des Workflows und Pläne für anspruchsvollere statistische Analysen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55032-4_35 aec8dc5367ee13c6a74ae6726636a9b9;de;;;2.2.;;;Strukturintegritätsbewertung: Die relevante Bruchzähigkeitsbewertung In diesem Kapitel beschreiben wir, wie die Bruchfestigkeit von Materialien vor dem Erscheinen der Theorie der linearen elastischen Bruchmechanik vor fünfzig Jahren bewertet wurde und wie diese Eigenschaft heute bewertet wird. Die fraglichen Bruchverhalten sind die drei grundlegenden, d. h. Sprödbruch, duktiles Reißen mit oder ohne Instabilität und Versagen durch spröden Bruch nach einem gewissen Maß an duktilem Reißen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0155-4_1 b16eab195744d6fae1475ffc734d474b;de;;;2.2.;;;Implementierung auf parallelen Architekturen In diesem Kapitel werden wir einige Fragen im Zusammenhang mit der parallelen Implementierung mehrerer MDFT-Algorithmen auf einer Multiprozessormaschine im Broadcast-Modus betrachten. Solche Maschinen weisen typischerweise eine Sammlung homogener Verarbeitungselemente (Knoten) zusammen mit einem Verbindungsnetzwerk einer regulären Topologie für die Kommunikation zwischen Prozessoren auf. Die Knotenprozessoren sind extern über einen einzigen I/O-Kanal mit einem Host verbunden, über den alle Datenladungen und -entladungen durchgeführt werden (siehe Abbildung 11.1).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-1948-4_11 454e3bc53724ad75a741c75f9bc014f4;de;;;2.2.;;;Hochdimensionale Simplexe für die supermetrische Suche In einem metrischen Raum impliziert die Dreiecksungleichung, dass für drei beliebige Objekte ein Dreieck mit Kantenlängen entsprechend ihren paarweisen Abständen gebildet werden kann. Das;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-68474-1_7 663f5d36206a729a0a2fa4c7c416390a;de;;;2.2.;;;Ein kompakter In-Memory-Index zum Verwalten von Gruppenmitgliedschaftsabfragen zu Streaming-Daten Die Mitgliedschaftsabfrage dynamischer Mengen ist für Anwendungen wesentlich, die einen kontinuierlichen Strom von Datenelementen erzeugen oder verarbeiten. Diese Anwendungen müssen häufig Elemente dynamisch zwischenspeichern und Mitgliedschaftsanfragen beantworten, um Duplikate in unbegrenzten Datenströmen zu erkennen. Drei Hauptherausforderungen für den Caching-Mechanismus sind der begrenzte Speicherplatz, hohe Präzisionsanforderungen und unterschiedliche Prioritätsstufen in Bezug auf Elemente. In diesem Papier schlagen wir einen kompakten In-Memory-Index vor, Bloom Filter Ring (BFR), der sich besser für das dynamische Caching von Elementen in unbegrenzten Datenströmen eignet. Wir demonstrieren die zeitliche Komplexität und Präzision von BFR in endlichem Speicherraum und beweisen theoretisch, dass BFR höhere Erwartungen an die durchschnittliche Kapazität hat als Aging Bloom Filter, dem aktuellen Stand der Technik. Darüber hinaus schlagen wir eine prioritätsbewusste BFR (PBFR) vor, um ein Mitgliedschaftsabfrageschema zu unterstützen, das Prioritätsstufen von Elementen berücksichtigt. Experimentelle Ergebnisse zeigen, dass unsere Algorithmen hinsichtlich der Cache-Trefferquote und der Falsch-Negativ-Rate eine bessere Leistung erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-42553-5_8 1f9fa2ef8e52c58bfb83b87e93e05d0d;de;;;2.2.;;;Pfadindex-erweiterter inkrementeller Subgraph-Matching-Algorithmus für dynamische Graphen Ein dynamischer Graph wird durch einen anfänglichen Graphen und einen Graphenaktualisierungsstrom definiert, der aus Kanteneinfügungen und -löschungen besteht. Bei einem gegebenen Abfragegraph und einem dynamischen Datengraph besteht das Problem des inkrementellen Untergraphen-Matchings darin, alle isomorphen Untergraphen-Matchings für die Kanteneinfügung durchzuführen. In diesem Artikel wird ein inkrementeller Untergraphen-Matching, IncISM, vorgeschlagen. Es wird ein hierarchischer Pfadindex-basierter inkrementeller Untergraphen-Matching-Algorithmus für dynamische Graphen vorgeschlagen. Entwerfen Sie zunächst einen positiv-negativ-möglichen Pfadindex (PNPC-PI), um die Zwischenergebnisse und Endergebnisse zu indizieren. Schlagen Sie dann eine inkrementelle Strategie vor, um die Zwischenergebnisse beizubehalten und die Untergraphenvergleiche für die Kanteneinfügung durchzuführen. Im Vergleich zu SJ-Tree und GraphFlow zeigen experimentelle Ergebnisse, dass IncISM effizienter ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8411-4_247 8dc20c1cdd181c8fe84ab73dd9475988;de;;;2.2.;;;TMOM: Ein speicherbasiertes Haupt-DBMS für bewegliche Objekte für Telematikdienste Mit dem Wachstum des Internets und der Aktivierung der drahtlosen Kommunikation entwickeln sich in jüngster Zeit Telematikdienste als vielversprechendes Geschäft der nächsten Generation im IT-Bereich. Zur Bereitstellung von Telematikdiensten werden Technologien in verschiedenen Bereichen benötigt, aber insbesondere die DBMS-Technologie zur effizienten Datenverarbeitung und -verwaltung ist eine wesentliche Schlüsseltechnologie für alle Arten von Telematikdiensten. In diesem Artikel wurde TMOM (Telematics Moving Object Main Memory DBMS) entworfen und implementiert, um die Anforderungen an die Bereitstellung von Telematikdiensten in Echtzeit effizient zu erfüllen. TMOM folgt dem räumlichen Datenmodell von OpenGIS „Simple Features Specification for SQL“ und bietet räumliche, räumlich-zeitliche und zeitliche Typen und entsprechende Operatoren zur Verarbeitung der bewegten Objektdaten. Darüber hinaus unterstützt es optimierte räumliche, räumlich-zeitliche und Trajektorienindizes im Hauptspeicher für eine schnelle Suche nach großen bewegten Objektdaten und bietet eine Wiederherstellungsfunktion, die die Eingabe-Ausgabe der Festplatte minimieren kann, um die Systemleistung zu maximieren. Für eine hohe Übertragungseffizienz beim Datenimport/-export zwischen Telematikanwendungen und einem Back-End-DBMS unterstützt es außerdem eine Komprimierungsfunktion und eine Daten-Caching-Funktion, die für die Eigenschaften von Geodaten geeignet sind.;-;-;-;https://link.springer.com/chapter/10.1007/11935148_24 69b0769a1f324700ec560cf56271c778;de;;;2.2.;;;Textklassifizierung: Kombination von Gruppierung, LSA und kNN vs. Support Vector Machine Die Textklassifizierung ist eine Schlüsseltechnik für die Handhabung und Organisation von Textdaten. Es zeigt sich, dass die Support Vector Machine (SVM) für die Klassifizierung unter den bekannten Verfahren besser geeignet ist. In diesem Beitrag wird die Gruppierungsmethode ähnlicher Wörter für die Klassifizierung von Dokumenten vorgeschlagen, die auf Reuters-Nachrichten angewendet wird, und es wird gezeigt, dass die Gruppierung von Wörtern in der Klassifizierungsgenauigkeit der Latent Semantic Analysis (LSA) gleichwertig ist . Weiterhin wird ein neues Kombinationsverfahren für die Klassifizierung vorgeschlagen, das aus Gruppierung, LSA, gefolgt von der k-Nächster Nachbar-Klassifizierung (k-NN) besteht. Das hier vorgeschlagene Kombinationsverfahren zeigt die höhere Genauigkeit bei der Klassifizierung als die herkömmlichen Verfahren des kNN und der LSA gefolgt vom kNN. Dann zeigt die Kombinationsmethode fast die gleichen Genauigkeiten wie SVM.;-;-;-;https://link.springer.com/chapter/10.1007/11893004_51 af579c7a5668526d91ca4f4d0cd1854f;de;;;2.2.;;;Grafikprogrammierung In diesem Kapitel besprechen wir Programmiertechniken, die bei der Erzeugung von grafischen Bildern für mathematische Objekte wie Kurven und Flächen verwendet werden. Wir werden auch die Plotstrukturen PLOT und PLOT3D untersuchen, die Maple verwendet, um diese Bilder auf Plotgeräten wie Bildschirmen oder Druckern zu rendern.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0067-0_7 422711e7bd8076f05de9e429b0c9c0e0;de;;;2.2.;;;Visuelle Unterscheidbarkeitserkennung von Fußgängern basierend auf statistisch gewichtetem PLSA für intelligente Systeme Intelligente Systeme für autonome Fahrzeuge, einschließlich Drohnen, Robotersicht und Videoüberwachung, müssen Fußgänger von anderen Objekten unterscheiden. Die Fußgängererkennung ist aufgrund ihrer vielfältigen Anwendungen ein wesentliches und bedeutendes Forschungsthema. In diesem Beitrag wird ein neues Verfahren zur Erkennung der visuellen Unterscheidungskraft für Fußgänger vorgeschlagen, das auf der statistisch gewichtenden probabilistischen latenten semantischen Analyse basiert. Wir erkennen die Unterscheidungskraft, indem wir drei Schritte wie folgt integrieren: zuerst die Ko-Auftrittsmatrix von Bildern darstellen, die mit dem Bag of Visual Words (BoVW)-Framework vektorisiert wurden, dann die Gewichtungen durch die Histogramme der visuellen Wörter jeder Klasse berechnen schließlich Anwenden der Gewichte auf die Testbilder als Unterscheidungskraft visueller Wörter. Als Klassifikationsmethode wurde in unserem System die probabilistische latente semantische Analyse (PLSA) verwendet. Wir haben die gewichteten visuellen Wörter extrahiert, indem wir die Patches aus dem aktuellen Bild abgetastet haben. Die vorgeschlagene Methode wurde mit der PLSA unter Verwendung der Caltech 256-Datensätze verglichen. Die verwendeten Klassen umfassen Fußgänger, Autos, Motorräder, Flugzeuge und Pferde. Die Ergebnisse des Experiments zeigen, dass die vorgeschlagene Methode aktuelle Methoden bei der Vorhersage von Fußgängern und Transportobjekten übertrifft.;-;-;-;https://link.springer.com/article/10.1007/s12555-017-0253-5 07c20546127116391384e446eae157a3;de;;;2.2.;;;Die heterogene Cluster-Ensemble-Methode mit Hubness zum Clustering von Textdokumenten Wir schlagen eine Cluster-Ensemble-Methode vor, um die Korpusdokumente in den in Wikipedia eingebetteten semantischen Raum abzubilden und sie mit mehreren Arten von Merkmalsräumen zu gruppieren. Ein heterogenes Cluster-Ensemble wird mit mehreren Arten von Beziehungen aufgebaut, d. h. Dokument-Begriff, Dokument-Konzept und Dokument-Kategorie. Eine endgültige Clustering-Lösung wird durch Ausnutzen von Assoziationen zwischen Dokumentpaaren und;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41230-1_9 e5d6985d12fbd18cca154a6c05008ec1;de;;;2.2.;;;Handphone Open-Air-Gesichtsbildabruf für unterschiedliche Brennweiten und Okklusion aus dem Cloud-Speicher Das schnelle Wachstum von Smartphone-Instrumenten-Apps wie Fluke Thermal App und Medizingeräte-Apps ersetzt die bestehenden Instrumente. In einem solchen Szenario spielt die Smartphone-Kamera eine entscheidende Rolle beim Ersetzen von Vision-Instrumenten. Das Smartphone-Kamerabild und der Bildabruf benötigen effektive Algorithmen, die zu den bestehenden Algorithmen konkurrieren. In diesem Artikel bewerte ich die verschiedenen Smartphone-Bilder für eine verbesserte Gesichtsbildabfrage. Die Smartphone-Gesichtsbildabruf-ID wurde mit mehreren Gesichts- und eingebetteten Attributen für spärliche Codewörter entwickelt, um bessere Ergebnisse der Bilder zu erzielen, die unter verschiedenen Umgebungsbedingungen wie Innen-, Außen- und Beleuchtungsaufnahmen aufgenommen wurden. Die 50 Bilder werden aus vier verschiedenen Smartphone-Gesichtsbildern und öffentlich zugänglichen Datensätzen wie PubFig gewonnen, um die Effizienz des vorgeschlagenen Algorithmus zu vergleichen. Aus dem Vergleich ruft die dynamische Indizierung im Algorithmus das Bild in Millisekunden aus der Datenbank ab. Aus den Ergebnissen schließe ich, dass die Leistung des Algorithmus für Smartphone- und Datensatzbilder variierte.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-0586-3_53 a7d726be35788862bffcc1187c86ff03;de;;;2.2.;;;Ungefähre Abfrageverarbeitung für eine inhaltsbasierte Bildabrufmethode Ein angenäherter Abfrageverarbeitungsansatz für ein inhaltsbasiertes Bildwiedergewinnungsverfahren basierend auf probabilistischer Relaxationskennzeichnung wird vorgeschlagen. Die Neuheit liegt in der Aufnahme eines Filtermechanismus, der auf einer quasi unteren Abstandsgrenze im Vektorraum basiert, der dem Abgleich zwischen der Abfrage und einer Anzahl von Datenbankbildern effektiv den kostspieligen Schritt des iterativen Aktualisierens der Kennzeichnungswahrscheinlichkeiten erspart. Dies ähnelt dem zweistufigen Filter-and-Refine-Anfrageverarbeitungsansatz, der bei der Datenbankforschung auf das Abrufen von k-nächsten Nachbarn (k-NN) angewendet wurde. Es wird durch Experimente bestätigt, dass der vorgeschlagene Ansatz durchweg eine enge „Annäherung des genauen Ergebnisses im Sinne des ersten k“ in der Top-k-Ausgabe einer k-NN-Suche liefert, während gleichzeitig der erforderliche Verarbeitungsaufwand reduziert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45227-0_51 d68fa31e7111e2f7164cf575ddbdf233;de;;;2.2.;;;Ein strukturbasierter Ansatz für das Abrufen mathematischer Ausdrücke Das Problem des Abrufens von mathematischen Ausdrücken (ME) hat derzeit viel Aufmerksamkeit aufgrund der weit verbreiteten Verfügbarkeit von MEs im World Wide Web erhalten. Da MEs von Natur aus zweidimensional sind, reichen herkömmliche Textabruftechniken, die bei der Verarbeitung natürlicher Sprache verwendet werden, nicht aus, um sie abzurufen. In diesem Artikel haben wir einen neuartigen strukturbasierten Ansatz für das ME-Retrieval-Problem vorgeschlagen. In unserem Ansatz, Abfrage in given;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35455-7_3 b98c4b16b9140298525148b6a1cf47fe;de;;;2.2.;;;Quarks und Strings auf einem Gitter Drei Vorlesungen beschreiben die Gitterversion der Farblehre von Quarks. Die String-Interpretation der Theorie wird betont. Die starke Kopplungsexpansion wird durch einen Satz von Feynman-Regeln definiert. Die dominierenden Diagramme werden identifiziert. Das Ergebnis ist, dass bei starker Quark-Gluon-Kopplung der Gitterabstand etwa 1/5 x 10 . beträgt;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-4208-3_6 4fa22c7916e69220daab5409c985e462;de;;;2.2.;;;Eine Studie zur demonstrativen Wortextraktion in den Äußerungen von Ausbildern zur Kommunikationsunterstützung für hörgeschädigte Personen Das Remote-Transkriptionssystem ist eines der Kommunikationsunterstützungssysteme für hörgeschädigte Studenten in einer Vorlesung. Da das Ferntranskriptionssystem von der Äußerung des Lehrers bis zur Anzeige des zusammengefassten Textes mehrere Sekunden benötigt, können hörgeschädigte Schüler das demonstrative Wort nicht assoziieren. In diesem Papier analysieren wir, wie demonstrative Wörter in der Äußerung des Lehrers erscheinen. Ungefähr 75% der demonstrativen Wörter folgen der Pause und werden innerhalb von 500 ms nach der Pause ausgesprochen. Wir schlagen eine Methode zum Extrahieren von demonstrativen Wörtern basierend auf akustischen Merkmalen und durchgeführten Experimenten vor. Experimentelle Ergebnisse zeigen, dass die Rückrufrate mehr als 80 % beträgt, die Relevanzrate jedoch im Kreuzvalidierungstest weniger als 20 % beträgt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-70540-6_90 68d55f9a1a86bff80f484998bd579f74;de;;;2.2.;;;Flash-basierte Datenbanksysteme: Erfahrungen aus dem FlashDB-Projekt Die neuen Eigenschaften des Flash-Speichers bringen große Herausforderungen bei der Optimierung der Datenbankleistung mit sich, indem neue Abfragealgorithmen, Indizes, Pufferverwaltungsschemata und neue Transaktionsverarbeitungsprotokolle verwendet werden. In diesem Vortrag geben wir zunächst einen Überblick über das 2009 gestartete und von der National Natural Science Foundation of China unterstützte FlashDB-Projekt (Nr. 60833005). Das Projekt zielt darauf ab, die grundlegenden Theorie- und Entwurfsprinzipien von Flash-basierten Datenbanksystemen zu konstruieren, einschließlich einer Reihe von Schlüsselproblemen wie Systemarchitektur, Speicherverwaltung und Indizierung, Abfrageverarbeitung, Transaktionsverarbeitung, Pufferverwaltung usw. Insbesondere konzentrieren wir bei der Schaffung einer Basis für das Datenmanagement mit Flash-Speicher, der Entwicklung von Datenbankmanagementsystemen für Flash-basierte SSDs und der Vorbereitung einer Testumgebung für flashbasierte Datenbankanwendungen In den letzten zwei Jahren haben wir einige Erfolge in den Bereichen Pufferverwaltung [1, 2], Indexstrukturen [3], Speicherverwaltung [4] und SSD-Simulationsplattform [5] erzielt. Nach einer kurzen Einführung in die aktuellen Forschungsergebnisse im Projekt werden einige Erfahrungen und Lehren aus der Studie diskutiert. Wir werden einige Themen hervorheben, die spannende Wege eröffnen und die Forschungsrichtung im Rahmen von Flash-basierten Datenbanksystemen beeinflussen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20244-5_23 5fe6e699e8034b85cb711b6fbb134bdc;de;;;2.2.;;;Ein bioinspirierter hierarchischer Clustering-Algorithmus mit Backtracking-Strategie Biologische Entitäten wie Vögel mit ihrem Schwarmverhalten, Ameisen mit ihren sozialen Kolonien, Fische mit ihrem Schwarmverhalten und Honigbienen mit ihrem komplexen Nestbau sind eine große Inspirationsquelle im Bereich Optimierung und Data Mining. Diesem Gedanken folgend schlagen wir den Algorithmus Communicating Ants for Clustering with Backtracking Strategy (CACB) vor, der auf einer dynamischen und einer adaptiven Aggregationsschwelle und einer Backtracking-Strategie basiert, bei der künstliche Ameisen in ihre vorherigen Aggregationsentscheidungen zurückkehren dürfen. Der CACB-Algorithmus ist ein hierarchischer Clustering-Algorithmus, der kompakte Dendrogramme erzeugt, da er die Aggregation von mehr als zwei Clustern gleichzeitig ermöglicht. Seine hohe Leistungsfähigkeit wird experimentell durch mehrere reale Benchmark-Datensätze und ein inhaltsbasiertes Bildabrufsystem nachgewiesen.;-;-;-;https://link.springer.com/article/10.1007/s10489-014-0573-6 547a9e02c1f77bc80c041931aaa2aa4a;de;;;2.2.;;;Erstellen privater Indizes für verschlüsselte Daten für ausgelagerte Datenbanken Datenschutz und Abfrageleistung sind zwei eng miteinander verbundene und inkonsistente Herausforderungen für ausgelagerte Datenbanken. Die Verwendung gemischter Verschlüsselungsmethoden für Datenattribute kann teilweise einen Kompromiss zwischen den beiden Herausforderungen erreichen. Allerdings kann die Verschlüsselung die Korrelationen zwischen den Attributwerten nicht immer verbergen. Wenn auf die Datentupel selektiv zugegriffen wird, könnten Schlussfolgerungen basierend auf dem Vergleichen verschlüsselter Werte gestartet werden und einige sensible Werte können offenbart werden. In diesem Papier untersuchen wir die intraattributbasierten und interattributbasierten Inferenzen in gemischt verschlüsselten Datenbanken. Wir entwickeln eine Methode zum Erstellen privater Indizes für verschlüsselte Werte, um diese Schlussfolgerungen abzuwehren und gleichzeitig einen effizienten selektiven Zugriff auf verschlüsselte Daten zu unterstützen. Wir haben einige Experimente durchgeführt, um unsere vorgeschlagene Methode zu validieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12778-1_6 7ad7d2ea988071310b83e6a4d2e627b4;de;;;2.2.;;;Forschung zum Cache-Management für mobile Lerngeräte Die Erweiterung der Bandbreite mobiler Kommunikationsgeräte und eine verbesserte Cache-Auslastung sind zwei Aspekte zur Verbesserung der Servicequalität für mobiles Lernen bei gleicher Expansionsrate. Der neuen Anwendung großer Datenmengen des mobilen Lernens werden mit der neuen Technologie bald die Ressourcen bei der Bandbreitenreservierung ausgehen. In diesem Papier stellen wir einen neuen mobilen Cache-Verwaltungsmechanismus vor, der die Effizienz der Informationssammlung, Abfragen, Synchronisierung, Caching, Prefetching und Wartung für mobile Lerngeräte verbessern kann. Experimentelle Ergebnisse zeigen, dass die Leistung des Cache-Managements in einem begrenzten Bereich für mobile Lerngeräte besser funktionieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22456-0_23 74848b694b0d956b0cfa9c350041e7e5;de;;;2.2.;;;Bestimmung der kristallographischen Parameter der martensitischen Umwandlung von kubisch in tetragonal mit dem infinitesimalen Deformationsansatz und der Wechsler-, Lieberman- und Read-Theorie Ziel der vorliegenden Studie ist es, die Anwendung und praktische Anwendbarkeit des Ansatzes der infinitesimalen Deformation (ID) zu diskutieren. Daher wurde die ID-Theorie neu formuliert und auf die kubisch-flächenzentrierte (fcc) in tetragonal-raumzentrierte (bct) martensitische Transformation für den Fall der (110);-;-;-;https://link.springer.com/article/10.1007/s11661-001-0255-y f96d5d54fbfc7b46d32cbbb8212df6d0;de;;;2.2.;;;Ein „Cluster“-basiertes Suchschema in einem Peer-to-Peer-Netzwerk Dieses Papier stellt ein „Cluster“-basiertes Suchschema in Peer-to-Peer-Netzwerken vor. Die Idee basiert auf der Tatsache, dass die Datenverteilung in einer Informationsgesellschaft strukturierte Eigenschaften hat. Wir haben einen Algorithmus entwickelt, um Peers mit ähnlichen Interessen zu clustern. Wenn ein Peer eine Anfrageanfrage empfängt, leitet er diese vorzugsweise an einen anderen Peer weiter, der demselben Cluster angehört und ähnliche Interessen teilt. Auf diese Weise wird die Sucheffizienz erheblich verbessert und gleichzeitig wird eine gute Widerstandsfähigkeit gegen Peer-Ausfälle (die Fähigkeit, Peer-Ausfällen zu widerstehen) vorbehalten.;-;-;-;https://link.springer.com/article/10.1631/jzus.2003.0549 11423360e20d8f68794dfc701ce7c8bf;de;;;2.2.;;;Konstruieren von interrelationalen Regeln für die Optimierung von semantischen Abfragen Die semantische Abfrageoptimierung ist der Prozess, bei dem eine Benutzerabfrage in einen Satz alternativer Abfragen umgewandelt wird, von denen jede dieselbe Antwort wie das Original zurückgibt. Die effizienteste dieser Alternativen wird dann zur Ausführung unter Verwendung von Standardkostenschätzungsverfahren ausgewählt. Der Anfragetransformationsprozess basiert auf der Verwendung von semantischem Wissen in Form von Regeln, die entweder während des Anfrageprozesses selbst generiert oder nach definierten Heuristiken konstruiert werden. Frühere Forschungen konzentrierten sich eher auf die Konstruktion von Regeln, die auf einzelne Beziehungen anwendbar sind, und nutzten nicht das zusätzliche semantische Wissen, das den meisten Datenbanken innewohnt und mit relationalen Verknüpfungen verbunden ist. Unser Beitrag versucht, diese Schwäche zu beheben, indem er zeigt, wie der Regelableitungsprozess mit einem auf induktivem Lernen basierenden Ansatz auf die Generierung interrelationaler Regeln ausgedehnt werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-46146-9_58 f561f1ced4f317cc57cf6d89cd4448b2;de;;;2.2.;;;Erlernen von Klassifikatoren zur Missbrauchserkennung mithilfe einer Reihe von Systemaufrufen In diesem Papier schlagen wir eine „Beute von Systemaufrufen“-Darstellung für die Erkennung von Eindringversuchen von Systemaufrufsequenzen vor und beschreiben die Ergebnisse der Missbrauchserkennung mit weit verbreiteten maschinellen Lerntechniken bei Systemaufrufen der University of New Mexico (UNM) und des MIT Lincoln Lab (MIT LL). Sequenzen mit der vorgeschlagenen Darstellung. Mit der Feature-Repräsentation als Eingabe vergleichen wir die Leistung mehrerer Machine-Learning-Techniken und zeigen experimentelle Ergebnisse. Die Ergebnisse zeigen, dass die Techniken des maschinellen Lernens bei der einfachen Darstellung von Systemaufrufsequenzen als „Beute von Systemaufrufen“ effektiv sind und oft eine bessere Leistung erbringen als die Ansätze, die fremde zusammenhängende Teilsequenzen verwenden, um aufdringliches Verhalten kompromittierter Prozesse zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/11427995_51 7fcea3374ec4e645bfabb20ad30f383c;de;;;2.2.;;;Quanteneffizienz der Lumineszenz von Eu(III), Tb(III) und Dy(III) in wässrigen Lösungen Die Lumineszenzquanteneffizienz von Eu(III), Tb(III) und Dy(III) in Chloridlösungen sowie komplexiert mit Aminopolyessigsäuren wurde bestimmt. Eine Interpretation der beobachteten Abhängigkeiten im untersuchten System wurde vorgeschlagen.;-;-;-;https://link.springer.com/article/10.1007/BF00809960 b4be262a70e0a4818e95912a3bf8be2e;de;;;2.2.;;;Invertierte Dateien im Vergleich zu Suffix-Arrays zum Auffinden von Mustern im Primärspeicher Jüngste Fortschritte bei den asymptotischen Ressourcenkosten des Mustervergleichs mit komprimierten Suffix-Arrays sind attraktiv, aber eine wichtige Konkurrenzstruktur, die komprimierte invertierte Datei, wurde in Papieren, die die neuen Strukturen präsentieren, verworfen oder ignoriert. In diesem Artikel untersuchen wir die Ressourcenanforderungen von komprimierten Suffix-Array-Algorithmen gegenüber komprimierten invertierten Dateidatenstrukturen für den allgemeinen Mustervergleich in genomischen und englischen Texten. In beiden Fällen sind die invertierten Dateiindizes;-;-;-;https://link.springer.com/chapter/10.1007/11880561_11 c9f895d87871afe4ac8a24594a614ee7;de;;;2.2.;;;Optimierung der XML-Laufzeitverarbeitung in relationalen Datenbanken Die XML-Verarbeitungsleistung in Datenbanksystemen hängt von statischen Optimierungen wie dem Umschreiben von XML-Abfragen, kostenbasierten Optimierungen wie der Auswahl geeigneter XML-Indizes und der Effizienz von Laufzeitaufgaben wie XML-Parsing und -Serialisierung ab. In diesem Artikel werden einige der Laufzeitleistungsaspekte der XML-Verarbeitung in relationalen Datenbanksystemen mit Microsoft;-;-;-;https://link.springer.com/chapter/10.1007/11547273_16 01618bc08b3bdcfd174fa57bdf0b5975;de;;;2.2.;;;Dokumentensuchmaschine mit Begriffsähnlichkeit Vektorraummodell auf englischem und indonesischem Dokument Im Einklang mit der technologischen Entwicklung nimmt die Anzahl der digitalen Dokumente erheblich zu, dies wird den Prozess der Suche nach bestimmten Dokumenten zu einem kleinen Problem machen. Daher ist die Rolle von Suchmaschinen unvermeidlich geworden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46742-8_15 a3aec85683f375c79f10d486bd1c936c;de;;;2.2.;;;Schnelle Suche nach dem nächsten Nachbarn basierend auf ungefähren Die Suche nach dem nächstgelegenen Nachbarn ist als schwieriges Thema bekannt, das seit mehreren Jahrzehnten untersucht wird. In letzter Zeit wird dieses Thema immer dringlicher, da das Big-Data-Problem aus verschiedenen Bereichen entsteht. Laut einer aktuellen Studie sind graphenbasierte Methoden effektiv, um dieses Problem anzugehen. Jedoch ist die k-nächste Nachbar-Graphenkonstruktion der existierenden Lösungen rechnerisch ineffizient, was zum Verarbeitungsengpass wird. Um dieses Problem anzugehen, ein Roman;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8530-7_32 be4d9cb59a569488e12e72ab4e489e7d;de;;;2.2.;;;Eine Analyse der BoVW- und cBoVW-basierten Bildwiederherstellung Bag-of-Visual Word (BoVW) ist eines der am häufigsten verwendeten Bilddarstellungsmodelle. Es handelt sich um ein sparsames Vektormodell, das auf der Häufigkeit des Auftretens der visuellen Wörter basiert, die aus Bildmerkmalen extrahiert wurden. Eine der Haupteinschränkungen des BoVW-Modells ist der Quantisierungsfehler, der hauptsächlich durch falsche Übereinstimmungen verursacht wird. In dieser Arbeit wird zunächst der auf dem BoVW-Modell basierende Image Retrieval experimentiert und auf verschiedene visuelle Wortgrößen und Wortschatzgrößen analysiert. Die Neuheit dieser Arbeit basiert auf der Annahme, dass Objekte von unserem Interesse meist den mittleren Teil der Bilder abdecken. In diesem Artikel wird ein Algorithmus verwendet, bei dem Merkmale, die zum mittleren Teil der Bilder gehören, beachtet werden (cBoVW) und für die Online-Abfrage Image Retrieval angewendet wird. Unter Verwendung des CalTech 256-Datensatzes werden mehrere Auswertungen durchgeführt und die Ergebnisse scheinen vielversprechend bei der Auflösung des Quantisierungsfehlers im Vergleich zum herkömmlichen BoVW-Modell zu sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30348-2_19 253272cf19d114e3b70a433da885b6f7;de;;;2.2.;;;Eine Umfrage zur Videosegmentierung Dieses Papier präsentiert eine kurze Umfrage zur Videosegmentierung. Aufgrund der Zunahme von Multimediainformationen ist eine effektive Videoindizierung und Videowiederauffindung erforderlich. Dies kann erreicht werden, wenn effektive Videosegmentierungstools und -algorithmen verfügbar sind. MPEG-komprimierte Videos werden hauptsächlich von Forschern zur Videosegmentierung verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-81-322-1665-0_91 ef5ca329a5d81306c20cde24eb40c2d3;de;;;2.2.;;;Adjunkte und minimalistische Grammatiken Das Verhalten von Adverbien und Adjektiven hat sowohl Eigenschaften der gewöhnlichen Selektion als auch etwas anderes, etwas Einzigartiges für Modifikatoren. Das macht sie schwer zu modellieren. Modifikatoren sind im Allgemeinen optional und für die Auswahl transparent, während Argumente erforderlich sind und durch die Auswahl gesteuert werden. Cinque [4] schlägt vor, dass Adverbien, Funktionsköpfe und beschreibende Adjektive grundsätzlich einheitlich über Sprachen hinweg geordnet sind und modelliert sie durch gewöhnliches Zusammenführen oder Auswählen. Ein solches Modell erfasst nur die Ordnungsbeschränkungen für diese Morpheme, es erfasst jedoch nicht ihre Optionalität und Transparenz für die Auswahl. Ich schlage ein Adjunktionsmodell mit einer separaten Adjoin-Funktion vor, die es der Ableitung ermöglicht, sowohl den wahren Kopf der Phrase als auch die Position des Modifikators in der Cinque-Hierarchie zu verfolgen, wodurch invertierte Modifikatorreihenfolgen ohne Move verhindert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44121-3_3 9a29eda628688af2ed29b089b625402b;de;;;2.2.;;;Hauterkennung aus verschiedenen Farbräumen für die modellbasierte Gesichtserkennung Die Haut- und Gesichtserkennung hat viele wichtige Anwendungen in intelligenten Mensch-Maschine-Schnittstellen, zuverlässiger Videoüberwachung und visuellem Verständnis menschlicher Aktivitäten. In diesem Beitrag schlagen wir eine effiziente und effektive Methode zur Gesichtserkennung in Frontalansicht vor, die auf Hauterkennung und wissensbasierter Modellierung basiert. Zuerst werden Hautpixel unter Verwendung von überwachtem Training modelliert und dann werden Randbedingungen für die Hautsegmentierung extrahiert. Gesichter werden außerdem durch Formfilterung und wissensbasierte Modellierung erkannt. Hautergebnisse aus verschiedenen Farbräumen werden verglichen. Darüber hinaus haben experimentelle Ergebnisse gezeigt, dass unsere Methode auch bei unterschiedlichen Lichtverhältnissen und Posen robust bei der erfolgreichen Erkennung von Haut- und Gesichtsregionen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85930-7_62 25018bce1daf27e8788af117822f0108;de;;;2.2.;;;Ein semantikfähiger intelligenter halbstrukturierter Dokumentenprozessor In den letzten Jahren hat die Menge an halbstrukturierten Dokumenten, die elektrisch verfügbar sind, dramatisch zugenommen. Semistrukturierte Dokumente sind aufgrund des Fehlens expliziter Metadaten in der Regel schwer wiederzuverwenden. Um die Integration und das Abrufen über halbstrukturierte Dokumente zu ermöglichen, sollten die wesentlichen Aspekte in den Dokumenten explizit durch Metadaten beschrieben werden. Die Metadaten könnten Dokumenten zugeordnet werden und mithilfe verschiedener IE-Techniken einen Teil ihres Informationsgehalts darstellen. Dieses Dokument bietet auch einen flexiblen Benutzerinteraktionsmechanismus, um eine bessere Leistung gegenüber weniger trainierten Beispieldokumenten zu erzielen. Bei der semantischen View-Extraktion konnten wir durch die Verwendung ähnlichkeitsbasierter Regelinduktion das Regellernverfahren verbessern. Experimentelle Ergebnisse zeigen, dass unser Ansatz die meisten der bestehenden Wrapper-Methoden deutlich übertreffen kann. Wir verwenden die Semantik, die sich in der logischen Struktur eines Dokuments befindet, um Beziehungen zwischen semantischen Entitäten zu finden. Nach semantischen Annotationen der Dokumente ermöglicht TIPSI deren Indexierung in Bezug auf die extrahierten Textelemente. Um die Abfrage zu beantworten, wendet TIPSI semantische Einschränkungen auf die Entitäten in der KB an.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-43908-1_41 d78a9be9f48e00f646f7d65b538bb0ab;de;;;2.2.;;;Effiziente Intervallabfrage von Genom-Alignment und Intervalldatenbanken in Cloud-Umgebung Die Abfrage von Intervallüberlappungen ist zu einem grundlegenden Werkzeug für biomedizinische Forschungen geworden. Bestehende Verfahren sind jedoch entweder nicht effizient oder kaum erweiterbar. In diesem Artikel wird Cloud Computing angewendet, um die Probleme mit begrenzter Geschwindigkeit und Skalierbarkeit von Abfragen mit Intervallüberlappung zu lösen. Zunächst wird der auf einer zentralisierten Umgebung basierende NCList-Algorithmus auf Cloud Computing angewendet, um die Abfrageeffizienz zu verbessern, und der CNCList-Algorithmus wird vorgestellt. Zweitens werden zwei Optimierungsstrategien vorgeschlagen, um die Abfrageeffizienz von CNCList und einen fortschrittlichen Algorithmus namens CNCList weiter zu verbessern;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31965-5_24 18b490e7056dee7dc7a54361549159f3;de;;;2.2.;;;Ein verbesserter Ansatz zur Fehlerlokalisierung auf Methodenebene mit minimiertem Coderaum Bei der automatischen Lokalisierung von Softwarefehlern werden häufig Quellcodeklassen und -methoden als Einheit für Vorschläge verwendet. Bestehende Techniken berücksichtigen jedoch den gesamten Quellcode, um die fehlerhaften Orte zu finden, was die Genauigkeit der Fehlerlokalisierung beeinträchtigt. In diesem Papier wurde eine Fehlerlokalisierung auf Methodenebene unter Verwendung von Minimized Code Space (MBuM) vorgeschlagen, die die Genauigkeit verbessert, indem nur fehlerspezifischen Quellcode berücksichtigt wird. Später wird dieser Quellcode verwendet, um die Ähnlichkeit mit dem Fehlerbericht zu identifizieren. Diese Ähnlichkeitsbewertungen werden unter Verwendung eines modifizierten Vektorraummodells (mVSM) gemessen, und basierend auf diesen Bewertungen ordnet MBuM eine Liste von Quellcodemethoden ein. Die Validität von MBuM wurde durch den theoretischen Nachweis mit formalen Methoden überprüft. Es wurden Fallstudien zu zwei großen Open-Source-Projekten durchgeführt, nämlich Eclipse und Mozilla, und die Ergebnisse zeigen, dass MBuM bestehende Techniken zur Fehlerlokalisierung übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-56390-9_9 0092bfeb4dbad0976ffa1ba666f23388;de;;;2.2.;;;Adaptives modellbasiertes Mehrpersonen-Tracking Dieses Papier schlägt ein Verfahren zum Verfolgen und Identifizieren von Personen aus Videobildern vor, die von einer fest installierten Kamera aufgenommen wurden. Die meisten herkömmlichen Video-Tracking-Überwachungssysteme nehmen für einige Zeit eine Ähnlichkeit mit dem Aussehen einer Person an, und bestehende Menschen-Tracking-Systeme berücksichtigen normalerweise kurzfristige Situationen. Um dieser Situation zu begegnen, verwenden wir ein adaptives Hintergrund- und Körpermodell, das statistisch Frame für Frame aktualisiert wird, um eine Person mit Körperteilen korrekt zu konstruieren. Die gebildete Person wird beschriftet und in einer Personenliste aufgezeichnet, in der die Details des menschlichen Körpermodells der Person gespeichert sind. Solche aufgezeichneten Informationen können verwendet werden, um verfolgte Personen zu identifizieren. Die Ergebnisse dieses Experiments werden in mehreren Indoor-Situationen demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30497-5_184 acfa7724896b0c9d7a5a356010cf1c5f;de;;;2.2.;;;Rezidiv von Meningeomen versus Proliferation Cell Nuclear Antigen (PCNA)-Positivität und AgNOR-Zählung Meningeome haben ein breites Spektrum an biologischem Potenzial und klinischem Verhalten. Histologische Befunde sind hilfreich, um das maligne Potenzial zu erkennen, korrelieren jedoch oft nicht mit dem klinischen Verhalten. Diese Studie versucht, die nukleolären Silberorganisatorregionen (AgNORs) und das proliferierende Zellkernantigen (PCNA) mit klinisch-pathologischen Merkmalen biologischer Aktivität zu korrelieren. 34 vollständig resezierte Meningeome wurden als gutartig [19], atypisch [6] und bösartig [9] klassifiziert. 48 initiale und rezidivierende Tumormaterialien wurden auf Anfärbung von AgNORs und Immunhistochemie mit monoklonalen Antikörpern gegen PCNA (Klon 19A2 und PC10) untersucht. Hinsichtlich der AgNOR-, PC10- und 19A2-Werte gab es keine Unterschiede zwischen den rezidivierenden und nicht-rezidivierenden Fällen. Auch wurde kein signifikanter Unterschied zwischen den primären und rezidivierenden Tumoren gefunden. Sowohl die PC10- als auch die 19A2-Markierungsindizes (LI) zeigten einen signifikanten Unterschied zwischen benignen und malignen Meningeomen. Der 19A2 LI betrug 0,56 ± 0,21 bei benignen und 2,45 ± 16 bei atypischen Meningeomen. Die 19 A2-Zahlen zeigten einen signifikanten Unterschied zwischen gutartigen und atypischen Tumoren, aber die PC10-Werte zeigten keine solche Korrelation. AgNOR- und PCNA-Indizes erwiesen sich im Vergleich zum chirurgischen Verfahren und den histopathologischen Kriterien als nicht hilfreich bei der Vorhersage von Rezidiven.;-;-;-;https://link.springer.com/article/10.1007/BF01411126 9894c2e5f28bea3e8da9fa13bcfc3be1;de;;;2.2.;;;Beantworten von Range-aggregierten Abfragen zu Objekten, die Datenströme generieren Heutzutage verarbeiten Computersysteme verschiedene Arten von Daten wie Bilder, Videos, Karten, Datenströme, um nur einige zu nennen. In diesem Papier konzentrieren wir uns auf das Problem der Beantwortung von Range-Aggregat-Abfragen über Objekte, die Datenströme erzeugen. Unser motivierendes Beispiel ist ein Netzwerk von Zählern, die den Verbrauch von Versorgungsunternehmen überwachen und die Messwerte kontinuierlich an zentrale Sammelstellen melden. Eine Antwort auf eine Bereichsaggregat-Abfrage ist ein zusammengeführter Strom von Aggregaten, der Analysen des Verbrauchs von Versorgungsunternehmen in einer bestimmten Region ermöglicht. Um die Antwort zu berechnen, integrieren wir MAL (Materialized Aggregates List) mit einem räumlichen Aggregationsindex, z.B. aR-Baum. Das Ergebnis, das wir erhalten, ist ein räumlicher Aggregationsindex mit der Funktionalität zur Beantwortung von Bereichsabfragen über Objekte, die Datenströme erzeugen. Der Index ist in ein in Java implementiertes experimentelles Stream-Data-Warehouse-System eingebettet. Die Implementierung bot uns die Möglichkeit, die Indexoperation vorzustellen und auch eine Reihe von Tests durchzuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12098-5_44 e598d03b2cc85b54781cc4057096c9e5;de;;;2.2.;;;SimSim: Eine Service-Discovery-Methode zur Erhaltung von Inhaltsähnlichkeit und räumlicher Ähnlichkeit in der P2P Mobile Cloud Mobile Cloud ist zu einem neuen Computing-Paradigma geworden, bei dem Dienste an jedem Ort und zu jeder Zeit zugänglich sind. Trotz seiner vielversprechenden Aussichten ergeben sich Herausforderungen aufgrund unzuverlässiger Kanalbedingungen und begrenzter Bandbreite in der drahtlosen Kommunikation, dynamischer Routenaufbau aufgrund von Knotenmobilität, Schwierigkeiten beim Zuordnen von Anfragen zu relevanten Dienstanbietern und Komplikationen bei der Dienstbereitstellung. Um die Fairness der Ressourcenzuweisung und des Netzlastausgleichs sicherzustellen, müssen Strategien zur Verteilung von Diensten in Betracht gezogen werden. In diesem Artikel schlagen wir SimSim vor, ein Diensterkennungsschema, das auf der Schlüsselwortsuche basiert und die inhaltliche Ähnlichkeit und räumliche Ähnlichkeit beibehält. Eine Zuordnung von einem Schlüsselwortsatz von Diensten zu einem Bitvektor mit identischem Hash soll die Ähnlichkeit des Inhalts bewahren. Die vorgeschlagene Technik wendet ein hierarchisches Hash-Clustering-Modell an und untersucht die Strategien der Dienstbereitstellung und -erkennung. Durch die Abbildung der durch Schlüsselwörter gekennzeichneten Dienste auf den Grauraum bietet SimSim ähnliche Dienste in unmittelbarer geografischer Nähe. Umfangreiche Simulationen wurden durchgeführt, um das vorgeschlagene System zu bewerten.;-;-;-;https://link.springer.com/article/10.1007/s10723-019-09475-1 f9ec837a10a21566ac45525b6e806694;de;;;2.2.;;;Partielle und vollständige 16S rDNA-Sequenzen, ihre Verwendung bei der Generierung von 16S rDNA-phylogenetischen Bäumen und ihre Implikationen in molekularökologischen Studien Als vor etwa 20 Jahren die ersten Berichte zur 16S-rRNA-Sequenzanalyse veröffentlicht wurden, war das Potenzial ribosomaler RNA-Spezies für Studien in Evolution, Phylogenie, Systematik und Identifizierung [47] und Ökologie [28, 29] noch lange nicht vollständig erkannt. Was mit kurzen Sequenzen aus einer begrenzten Anzahl pro- und eukaryotischer Arten begann, revolutionierte unser Verständnis von (i) dem Ursprung des Lebens auf dem Planeten Erde, (ii) der Entwicklung unbekannter, alter Vorfahrenformen zu Hauptlinien, die führen auf vorhandene Organismen wie Bakterien, Archaeen und Eukaryoten, (iii) die Verwandtschaft zwischen kürzlich entwickelten Arten und (iv) den Reichtum an mikrobiellen Formen in der Umwelt. Die gewonnenen Ergebnisse haben nicht nur das Interesse an der Arbeit der Systematiker wiederbelebt, sondern auch die Zusammenarbeit von Forschern unterschiedlicher Disziplinen angeregt. Sowohl die mikrobielle Taxonomie als auch die mikrobielle Ökologie haben sich von Dornröschen-Typen, etwas langweiligen Feldern zu aufregenden Disziplinen, in denen Objektivität jahrzehntelange subjektive Beurteilung von Tatsachen ersetzt hat, wiederbelebt. Die Molekularbiologie unter Verwendung von Techniken wie PCR-Amplifikation, Klonierung, Sequenzierung, Hybridisierung und Sondierung wurde schließlich von diesen Disziplinen vollständig akzeptiert. Als Symbionten und Parasiten bekannte Organismen standen plötzlich einer weiteren Charakterisierung zur Verfügung, und das Ausmaß der lebenden, aber unkultivierten Mikroorganismen wurde offensichtlich, ohne jedoch eine Abschätzung der Größenordnung zu erlauben, mit der diese ruhenden Formen die kultivierbaren Organismen übertreffen. In der Vergangenheit wurden unkultivierte Stämme in natürlichen Proben ausschließlich durch Licht- und Elektronenmikroskopie beobachtet. Die Bestimmung der phylogenetischen Verwandtschaft einiger dieser zwangsweise inter- und intrazellulären Organismen war in den 80er Jahren einer der wissenschaftlichen Höhepunkte. Mit dem Katalogisierungsansatz war die Aufgabe einfach, wenn der Symbiont als fast reine Kultur reichlich vorkam, wie im Fall von;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-0351-0_18 172c7d9bd33e1cfd44797e0641d15562;de;;;2.2.;;;Eine Systeminfrastruktur für die Zusammenarbeit von Sponsoren/CRO bei internationalen klinischen Studien Genentech Medical Affairs und Corning Besselaar haben eine Infrastruktur für Informationssysteme aufgebaut, um ihre Zusammenarbeit bei internationalen klinischen Phase-III-Studien zu unterstützen. Mit dem Ziel, den klinischen Entwicklungsprozess zu beschleunigen, wird Informationstechnologie verwendet, um verteilte Teammitglieder aus mehreren Unternehmen und Ländern effektiver zu verknüpfen.;-;-;-;https://link.springer.com/article/10.1177/009286159803200122 028215a33a5e322441dc8fb628ead424;de;;;2.2.;;;Entwerfen von Ansichten in HypothesisCreator: System zur Unterstützung bei der Erkennung Wir diskutieren die Bedeutung des Entwurfs von Ansichten zu Daten in einem Computersystem, das Wissenschaftler beim Entdeckungsprozess unterstützt. Eine Sicht auf Daten wird als eine besondere Art der Interpretation der Daten angesehen. In der wissenschaftlichen Literatur ist die Entwicklung einer neuen Sichtweise, die das Wesen von Daten erfasst, ein Schlüssel zur Entdeckung. Ein System;-;-;-;https://link.springer.com/chapter/10.1007/3-540-46846-3_11 2af5da6244da77763b7739898bea7d7d;de;;;2.2.;;;Das Solo-Betriebssystem: Ein gleichzeitiges Pascal-Programm Dies ist eine Beschreibung des Single-User-Betriebssystems Solo in der Programmiersprache Concurrent Pascal. Es unterstützt die Entwicklung von sequentiellen und gleichzeitigen Pascal-Programmen für den PDP 11/45-Computer. Ein-/Ausgabe wird durch gleichzeitige Prozesse gehandhabt. Pascal-Programme können sich rekursiv aufrufen und untereinander beliebige Parameter übergeben. Dadurch ist es möglich, Pascal als Jobsteuerungssprache zu verwenden. Solo ist das erste wichtige Beispiel für ein hierarchisches nebenläufiges Programm, das in Bezug auf abstrakte Datentypen (Klassen, Monitore und Prozesse) implementiert ist und die meisten Zugriffsrechte zur Kompilierzeit kontrolliert. Es wird hier aus der Sicht des Benutzers als Einführung in ein anderes Papier beschrieben, das seine interne Struktur beschreibt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-3472-0_12 e438bcddc402fea8f4c93dbe956340c4;de;;;2.2.;;;Gastrointestinale Stromatumoren des Duodenums: ein Bericht von vier Fällen report Hier berichten wir über vier Fälle von duodenalen gastrointestinalen Stromatumoren (GISTs). Bei drei Patienten wurde eine endoskopische ultrasonographisch gesteuerte Feinnadelaspirationsbiopsie (EUS FNAB) durchgeführt und bei einem Patienten wurde das Tumorgewebe mittels Pinzettenbiopsie entnommen. In allen Fällen konnten GISTs durch histopathologische Untersuchung der Biopsieproben diagnostiziert werden. Die Ki-67-Markierungsindizes (Ki-67 LIs) der 3 EUS FNAB-Proben waren sehr niedrig. Es ist zu beachten, dass in einem dieser Fälle keine ausreichende Menge an Gewebeprobe gewonnen werden konnte. Bei zwei Laparotomiepatienten entsprachen die Ki-67 LIs der Biopsieproben den Ki-67 LIs der chirurgisch resezierten Proben und stimmten auch mit dem Tumorrisikograd überein. Bei zwei Patienten ohne Laparotomie korrespondierten die niedrigen Ki-67 LIs mit einem guten klinischen Verlauf.;-;-;-;https://link.springer.com/article/10.1007/s12328-011-0218-9 b4181f4de0c3ecc67957ce5ee26639ac;de;;;2.2.;;;Die Rolle von Biodiversität und Pflanzenschutz für die Zierpflanzenzüchtung In diesem Kapitel wird die Pflanzenbiodiversität der Welt kurz vorgestellt. Basierend auf einer Biodiversitätsinformatikanalyse wird geschätzt, dass es auf der Erde 340.000–390.900 Arten von Gefäßpflanzen in 452 Familien gibt. Die Artenzahl der Zierpflanzen und ihrer wilden Verwandten wird auf 85.000–99.000 geschätzt. Es lassen sich vier Strategien zur Erhaltung von Zierpflanzen unterscheiden, nämlich In-situ-Erhaltung, Ex-situ-Erhaltung, nachhaltige Nutzungen und Rechtsordnung. Das Übereinkommen über die biologische Vielfalt und andere internationale Rechtssysteme, zusammen mit nationalen oder lokalen Gesetzen und Verordnungen, tragen zur Erhaltung der biologischen Vielfalt und zur nachhaltigen Nutzung biologischer Ressourcen bei. Das Nagoya-Protokoll über den Zugang zu genetischen Ressourcen und die gerechte und gerechte Aufteilung der aus ihrer Nutzung resultierenden Vorteile wird die Sammlung, Züchtung und Vermarktung von Zierpflanzen weltweit tiefgreifend beeinflussen. Neue Technologien wie die Genomsequenzierung beschleunigen unser Verständnis der pflanzengenetischen Vielfalt und werden die Züchtung und Entwicklung von Zierpflanzen verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-90698-0_1 3af50cbae8322a80dc2237836a5fc983;de;;;2.2.;;;Nitrate bei akutem Myokardinfarkt Nitrate lindern die Symptome und verbessern die linksventrikuläre Hämodynamik bei akuter myokardialer Ischämie. Die Fähigkeit, das Herzzeitvolumen zu erhöhen, scheint bei den Patienten mit der schwersten linksventrikulären Insuffizienz am größten zu sein. Am Menschen und im Tierversuch wurde gezeigt, dass die Indizes der Infarktentwicklung durch eine frühe (<6 Stunden) Gabe von Nitrat reduziert werden. Glyceryltrinitrat reduziert den myokardialen Sauerstoffverbrauch und verbessert die Sauerstoffzufuhr zum ischämischen Subendokard. Darüber hinaus erweitern Nitrate die epikardialen Koronargefäße und verbessern den Kollateralfluss. Glyceryltrinitrat scheint eine günstigere Wirkung auf den koronaren Kollateralfluss, den Lungenarteriendruck, den myokardialen Sauerstoffverbrauch und die Laktatproduktion zu haben als andere Vasodilatatoren. Die Wirkung von Glyceryltrinitrat ist dosisabhängig, Dosen über 100 µg/min können eine paradoxe Zunahme des ischämischen Zustands verursachen. Hypovolämische Patienten oder Patienten mit Rechtsherzinfarkt scheinen besonders anfällig für Hypotonie zu sein. Eine Nitrat-induzierte Hypotonie tritt bei 15 bis 20 % aller Patienten mit akutem Myokardinfarkt auf.;-;-;-;https://link.springer.com/article/10.2165/00003495-198700334-00026 257be471a4be097c1d5ae94d4f4383f1;de;;;2.2.;;;Charakterisierung der Progression von Azaserin-induziertem Pankreaskarzinom der Ratte durch proliferatives Zellkernantigen, Basalmembran-Laminin und Trypsinogen-Immunhistochemie Das Fortschreiten des Azaserin-induzierten Pankreas-Adenokarzinoms (AC) der Ratte wurde mit quantitativer und semiquantitativer Immunhistochemie für proliferierendes Zellkernantigen (PCNA), Basalmembran-Laminin (BML) und Trypsinogen (TG) charakterisiert. Die Proben wurden 5–20 Monate nach der Initiation entnommen. Hohe PCNA-Markierungsindizes (PCNA LIs) wurden 5 Monate nach Induktion atypischer Azinuszellknoten (AACNs) gemessen, die später abnahmen und bis zu einem weiteren Rückgang im Monat 10 Adenome stagnierten. Dann wurde eine zweite prämaligne proliferative Welle (Monat 13) innerhalb des Adenomstadiums beobachtet. Später, in Monat 20, fielen die PCNA LIs auf das Niveau des Wirtsgewebes, wurden jedoch in den anaplastischen ACs des Monats 20 am höchsten gefunden, was auf einen Wechsel zur malignen Proliferation hindeutet. Monat 20 zeigten invasive ACs eine Reihe von separaten proliferativen Herden. In frühen AACNs nahm die BML ab und blieb bis zum lokalen Maximum im 13. Monat des Adenoms niedrig. Invasive ACs exprimierten keine BML. Monat 5 wiesen AACN und differenzierte AC einen TG-Mangel auf, aber anaplastische AC gewannen ihre TG-Expression wieder. Allerdings war die invasive AC wieder TG-negativ. Diese Ergebnisse werden in Kombination mit unseren früheren Daten zu fortschreitenden Veränderungen der autophagischen Kapazität und der Mikrogefäßdichte diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s00418-003-0520-9 3020a3a8b6f639c08567af53d89e51dd;de;;;2.2.;;;Extrahieren eines Zeigeobjekts mit demonstrativer Sprachphrase für die Ferntranskription in der Vorlesung In dieser Forschung schlagen wir ein System vor, um das Objekt zu extrahieren, auf das der Lehrer mit einer demonstrativen Sprachphrase zeigt. Das System extrahiert Audiomerkmale aus Sprachsignalen des Lehrers und berechnet die Wahrscheinlichkeit der demonstrativen Sprachphrase. Das System extrahiert auch Videomerkmale von der Videokamera und berechnet die Wahrscheinlichkeit der Zeigegeste. Dann kombiniert das System die Wahrscheinlichkeit von Audio- und Videomerkmalen, um zu entscheiden, ob der Ausbilder mit demonstrativen Sprachsätzen auf das Objekt zeigt. Wir haben ein Experiment mit einem echten Vortrag durchgeführt, das die Wirksamkeit der vorgeschlagenen Methode gezeigt hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-70540-6_89 3fef78dc9cebc8062c5fa14b0f95849f;de;;;2.2.;;;Integration qualitativer und quantitativer Formwiederherstellung Neuere Arbeiten zur qualitativen Formwiederherstellung und Objekterkennung haben sich auf die Lösung des „Was ist es“-Problems konzentriert, während das „Wo ist es“-Problem vermieden wurde. Im Gegensatz dazu haben sich typische CAD-basierte Erkennungssysteme auf das „Wo ist es“-Problem konzentriert, während sie davon ausgehen, dass sie wissen, was das Objekt ist. Obwohl jeder Ansatz einen wichtigen Aspekt des Problems der Erkennung von 3D-Objekten anspricht, greift jeder nicht das vollständige Problem des Erkennens und Lokalisierens von 3D-Objekten aus einer großen Datenbank an. In diesem Artikel synthetisieren wir zunächst einen neuen Ansatz zur Formwiederherstellung für die 3D-Objekterkennung, der die Erkennung von der Lokalisierung entkoppelt, indem wir grundlegende Elemente dieser beiden Ansätze kombinieren. Insbesondere verwenden wir qualitative Formwiederherstellungs- und Erkennungstechniken, um starke Anpassungsbeschränkungen für physikbasierte Techniken zur Wiederherstellung verformbarer Modelle bereitzustellen. Zweitens erweitern wir unsere zuvor entwickelte Technik der Anpassung verformbarer Modelle zum Verdecken von Bildkonturen auf den Fall von Bilddaten, die unter allgemeinen orthographischen, perspektivischen und Stereoprojektionen aufgenommen wurden. Einerseits unterstützt das Integrieren qualitativer Kenntnisse über das Objekt, das an die Daten angepasst wird, zusammen mit Wissen über Okklusion eine viel robustere und genauere quantitative Anpassung. Andererseits bietet die Wiederherstellung der Objektpose und der quantitativen Oberflächenform nicht nur eine umfassendere Beschreibung für die Indizierung, sondern unterstützt auch die Interaktion mit der Welt, wenn eine Objektmanipulation erforderlich ist. Dieser Beitrag stellt den Ansatz im Detail vor und wendet ihn auf reale Bilder an.;-;-;-;https://link.springer.com/article/10.1007/BF02028351 7d21b0062534d628f48f4dbdaece6afe;de;;;2.2.;;;National Federation of Abstracting and Information Services Member Data Services Die Föderation sammelt seit 1957 Daten über die Anzahl der einzigartigen Artikel, die in den gedruckten Publikationen und Datenbanken unserer Mitglieder enthalten sind. Diese Daten, die jährlich von NFAIS veröffentlicht werden, zeigen nicht nur die Produktivität der NFAIS-Mitgliedsorganisationen auf, sondern auch Trends in der wissenschaftlichen Kommunikation, einschließlich der politischen , wirtschaftliche und soziale Faktoren.;-;-;-;https://link.springer.com/article/10.1007/BF02680650 a8adda0473b1cd6c9f13bbfcd7d30f27;de;;;2.2.;;;Schnelle Dekompilierung kompilierter Prolog-Klauseln Seriöse Prolog-Implementierungen waren in den letzten Jahren hauptsächlich Compiler-basiert, die fast alle auf dem abstrakten Befehlssatz von Warren [1983] basieren. Die von solchen Implementierungen erreichte Leistung übertrifft bei weitem die in interpreterbasierten Systemen erreichbare Leistung. Leider ist die Ausgereiftheit dieser Compiler-basierten Umgebungen Umgebungen von interpreterbasierten Systemen insofern oft unterlegen, als für ernsthafte Softwareentwicklung oft ein „kompatibler“ Interpreter benötigt wird. Von den Unzulänglichkeiten dieser Umgebungen scheinen Datenbankoperationen wie Assert, Retract und Clause besonders betroffen zu sein. Darüber hinaus war die Möglichkeit, kompilierten Code zu debuggen, entweder nicht vorhanden oder bestenfalls sehr eingeschränkt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-16492-8_116 625b9cdd219ddea79739660ffa0a62fc;de;;;2.2.;;;Ein Framework für die Beschreibung und das Abrufen von Musikinhalten Das kürzlich genehmigte Format für die Beschreibung von Musikinhalten IEEE PAR1599 (MX) definiert einen Standard für die Darstellung von Abrufmodellen in Musik- und Audio-/Videoformaten, der XML-Dokumente als Inhaltsdeskriptoren verwendet. Wir zeigen, wie Musik/Audio-Semantik innerhalb der strukturellen Schicht von MX durch die Einführung neuartiger Music Information Retrieval (MIR)-Objekte dargestellt werden kann, um Metadaten in Bezug auf bestimmte Abrufmodelle einzubetten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87599-4_58 a0d359e066e6326c2048a9cfa221dea1;de;;;2.2.;;;Qualitätsbewertung von Merkmalsdaten im GIS auf Basis einfacher Stichproben Ausgehend von den Prinzipien der einfachen Zufallsstichprobe wird das statistische Modell der Entstellungsrate (RD) vorgestellt und detailliert beschrieben. Gemäß der Definition der einfachen Zufallsstichprobe für die Merkmalsdaten im GIS werden der Mittelwert und die Varianz des RD als charakteristischer Wert des statistischen Modells abgeleitet, um die Machbarkeit der Genauigkeitsmessung der Merkmalsdaten im GIS mit Hilfe von der RD. Darüber hinaus wird anhand des Mittelwertes und der Varianz des RD das Qualitätsbewertungsverfahren für Attributdaten von Vektorkarten während der Datenerhebung diskutiert. Der RD-Spread-Graph wird auch gezeichnet, um zu sehen, ob die Qualität der Attributdaten unter Kontrolle ist. Das RD-Modell kann die Qualität von Attributdaten synthetisch beurteilen, was sich von anderen Messkoeffizienten unterscheidet, die nur die Genauigkeit der Klassifizierung diskutieren.;-;-;-;https://link.springer.com/article/10.1007/BF02826748 b5f7eac7cc567c5fd749da774b9cd8b5;de;;;2.2.;;;Funktional arrangierte Daten für Algorithmen mit Raum-Zeit-Wellenfront Algorithmen mit Raum-Zeit-Kachelung erhöhen die Leistung numerischer Simulationen, indem sie die Datenwiederverwendung und die arithmetische Intensität erhöhen, sie verbessern auch die parallele Skalierung, indem sie die Prozesssynchronisation weniger häufig machen. Die Theorie der lokal rekursiven nicht-lokal asynchronen (LRnLA) Algorithmen liefert dem Leistungsmodell eine Berücksichtigung der Datenlokalisierung auf allen Ebenen der Speicherhierarchie. Eine effektive Implementierung ist jedoch schwierig, da moderne optimierende Compiler die erforderlichen Durchquerungsmethoden und Datenstrukturen standardmäßig nicht unterstützen. Der Datenaustausch wird typischerweise durch Schreiben der aktualisierten Werte in das Hauptdatenarray implementiert. Hier schlagen wir eine neue Datenstruktur vor, die den teilweise aktualisierten Zustand der Simulationsdomäne enthält. Die Daten werden innerhalb dieser Struktur für einen koaleszierten Zugriff und einen nahtlosen Austausch zwischen Teilaufgaben angeordnet. Wir demonstrieren die vorläufigen Ergebnisse seiner Überlegenheit gegenüber bisher verwendeten Methoden, indem wir die verarbeiteten Daten im L2-GPU-Cache für die Lattice-Boltzmann-Methode (LBM)-Simulation so lokalisieren, dass die Leistung nicht durch den GDDR-Durchsatz begrenzt wird, sondern durch den L2-Cache-Zugriff bestimmt wird Bewertung. Wenn wir die ideale schrittweise Codeleistung als speichergebunden mit einem Lese-/Schreibverhältnis von 1 schätzen und davon ausgehen, dass sie im GPU-Speicher lokalisiert ist und bei 100 % der theoretischen Speicherbandbreite arbeitet, dann übertreffen die Ergebnisse unserer Benchmarks das Spitze um einen Faktor in der Größenordnung von 1,2.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-81691-9_10 84f70783d964bf901d21f5c1c6b6d9be;de;;;2.2.;;;Anwendung auf iterative Lernkontrolle In diesem Kapitel wird die Anwendung der Theorie repetitiver Prozesse auf die iterative Lernkontrolle betrachtet. Der erste Teil verwendet die Stabilitätstheorie von Kap. 2, um eine grundlegende Verbindung zwischen der Konvergenz einer mächtigen Klasse solcher Schemata und der resultierenden Fehlerdynamik herzustellen. Anschließend wird der normoptimale Ansatz entwickelt und eine experimentelle Verifikation an einem Kettenfördersystem beschrieben. Schließlich werden einige vielversprechende Ergebnisse zur robusten Steuerung gewonnen und experimentell an einem Portalrobotersystem verifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71537-5_9 ce36892c841c1ce6e5168e7eba920dec;de;;;2.2.;;;Effizientes Model Repository für Webanwendungen Viele modellbasierte Anwendungen wurden mit Blick auf die eigenständige Verwendung entwickelt. Bei der Migration solcher Anwendungen ins Web müssen wir daran denken, dass mehrere Benutzer um begrenzte Serverressourcen konkurrieren. Darüber hinaus besteht die Notwendigkeit, Modelle für den clientseitigen Zugriff über das Netzwerk zu synchronisieren. Somit besteht die Gefahr, dass der Modellspeicher zum Engpass werden könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-97571-9_18 c9764ce926e9179765458206abb3fd42;de;;;2.2.;;;Ein neuer agglomerativer 2–3 hierarchischer Clustering-Algorithmus Wir untersuchten ein neues allgemeines Clustering-Verfahren, das wir hier Agglomeratives 2–3 Hierarchical Clustering (2–3 AHC) nennen, das in Bertrand (2002a, 2002b) vorgeschlagen wurde. Die drei Hauptbeiträge dieses Papiers sind: Erstens hat die theoretische Studie dazu geführt, die Komplexität des Algorithmus von;-;-;-;https://link.springer.com/chapter/10.1007/3-540-26981-9_1 24fe5bc07bdd7a8338019fbd7aec85be;de;;;2.2.;;;Interaction Mining: Die neue Grenze der Kundeninteraktionsanalyse In diesem Papier stellen wir unsere Lösung für die argumentative Analyse von Callcenter-Gesprächen vor, um nützliche Erkenntnisse zur Verbesserung der Customer Interaction Analytics auf ein Niveau zu liefern, das mehr qualitative Metriken und enable;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31546-6_6 3bd35d092d11533b31c58684d1f9d175;de;;;2.2.;;;Ist die Zitationsanalyse ein legitimes Bewertungsinstrument? Eine umfassende Diskussion über den Einsatz der Zitationsanalyse zur Bewertung wissenschaftlicher Leistung und die damit verbundene Kontroverse. Die allgemeine negative Kritik, dass Zitieren zählt, sind zu viele negative Zitate (Zitate zu angreifbaren falschen Ergebnissen), Selbstzitate (Zitate zu Werken der zitierenden Autoren) und Zitate auf methodische Arbeiten. Dazu gehört auch eine Diskussion von Messproblemen wie das Zählen von Zitaten für Arbeiten mit mehreren Autoren, die Unterscheidung zwischen mehreren Personen mit demselben Nachnamen (Homografen) und was die Zitationsanalyse tatsächlich misst. Es wird der Schluss gezogen, dass es mit zunehmender Größe und Komplexität des wissenschaftlichen Unternehmens und seiner kritischeren Rolle in der Gesellschaft schwieriger, teurer und notwendiger wird, die größten Mitwirkenden zu bewerten und zu identifizieren. Bei richtiger Anwendung kann die Zitationsanalyse mit relativ geringem finanziellen Aufwand ein nützliches Maß an Objektivität in den Bewertungsprozess einführen.;-;-;-;https://link.springer.com/article/10.1007/BF02019306 faa1526da10efd40287bbca509222e19;de;;;2.2.;;;Ein neuartiger Algorithmus zur Identifizierung von Körperteilen in medizinischen Bildern In diesem Artikel stellen wir einen Algorithmus vor, der auf Energieinformationen aus der Wavelet-Transformation basiert, um medizinische Bilder nach Bildgebungsmodalitäten und Körperteilen zu klassifizieren. Heute stehen verschiedene medizinische Bildwiederherstellungssysteme zur Verfügung, die Bilder nach Bildgebungsmodalitäten, Orientierungen, Körperteilen oder Krankheiten klassifizieren. Im Allgemeinen sind diese entweder auf einen bestimmten Körperteil oder eine bestimmte Krankheit beschränkt. Darüber hinaus befassen sich fast alle mit dem DICOM-Bildgebungsformat. Unsere Technik hingegen kann auf alle Bildformate angewendet werden. Die Ergebnisse werden für JPEG-Bilder zusätzlich zum DICOM-Bildformat angezeigt. Wir haben zwei Arten von Wavelets verwendet und gezeigt, dass die in beiden Fällen erhaltene Energie für jeden Körperteil ziemlich unterschiedlich ist.;-;-;-;https://link.springer.com/chapter/10.1007/11881599_143 0dda4e4bae9117d7f31c22929bfb3082;de;;;2.2.;;;Design der E-Commerce-Plattform basierend auf Supply Chain Management Die E-Commerce-Technologie in der Internetzeit ist ein Treiber der neuen Generation des Supply Chain Managements. Es ist der Schlüssel zur Steigerung der Kernwettbewerbsfähigkeit aktueller Unternehmen, um die Prozessoptimierung des Lieferkettenmanagements zu implementieren und eine vollständigere und schnellere E-Commerce-Anwendungsplattform im Netzwerkumfeld aufzubauen. Dieser Artikel stellt die Schlüsseltechnologien des Designkonzepts, der funktionalen Struktur und der Entwicklung von E-Commerce-Plattformen basierend auf Supply Chain Management vor. Diese Plattform unterstützt mehrere Geschäftsmodelle, Multi-Site-Operationen und Cross-Channel-Selling und kann in die Front-End-Handelssysteme, das Back-End-Support-System und andere externe Systeme wie Partner und Lieferanten integriert werden erfüllen die E-Commerce-Anforderungen von Unternehmen mit unterschiedlicher Größe und unterschiedlichen Entwicklungsstadien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19853-3_72 d6d2db71bd47f43ead4940d73aef0d30;de;;;2.2.;;;Lokale quantisierte Extremamuster für den inhaltsbasierten Abruf von Natur- und Texturbildern Dieses Papier schlägt einen neuartigen Merkmalsdeskriptor vor, der als lokale quantisierte Extremamuster (LQEP) bezeichnet wird, um inhaltsbasierte Bildabrufe zu ermöglichen. Die standardmäßigen lokalen quantisierten Muster (LQP) sammeln die Richtungsbeziehung zwischen dem mittleren Pixel und seinen umgebenden Nachbarn und die gerichteten lokalen Extremamuster (DLEP) sammeln die Richtungsinformationen basierend auf lokalen Extrema in 0°, 45°, 90° und 135° Richtungen für ein bestimmtes zentrales Pixel in einem Bild. In diesem Papier werden die Konzepte von LQP und DLEP integriert, um das LQEP für die Anwendung zum Abrufen von Bildern vorzuschlagen. Zuerst werden die richtungsquantisierten Informationen aus dem gegebenen Bild gesammelt. Dann werden die Richtungsextrema aus den quantisierten Informationen gesammelt. Schließlich wird das RGB-Farbhistogramm mit dem LQEP für eine Merkmalsvektorgenerierung integriert. Die Leistungsfähigkeit der vorgeschlagenen Methode wird getestet, indem drei Experimente mit Coel-1K-, Corel-5K- und MIT VisTex-Datenbanken zum Abrufen von Natur- und Texturbildern durchgeführt werden. Die Leistung der vorgeschlagenen Methode wird in Bezug auf Präzision, Wiedererkennungswert, durchschnittliche Abrufpräzision und durchschnittliche Abrufrate in Benchmark-Datenbanken bewertet. Die Ergebnisse nach Untersuchung zeigen eine erhebliche Verbesserung hinsichtlich ihrer Bewertungsmaßstäbe im Vergleich zu den bestehenden Methoden auf entsprechenden Datenbanken.;-;-;-;https://link.springer.com/article/10.1186/s13673-015-0044-z 1b3736ee34cf69085d40348b473d2918;de;;;2.2.;;;Lidar-unterstütztes Kamera-Feature-Tracking und visuelles SLAM für die Navigation in niedrigen Umlaufbahnen und die Planetenlandung von Raumfahrzeugen In diesem Beitrag wird das Problem der Zustandsschätzung für einen autonomen Präzisionslandeanflug auf Himmelskörper untersucht. Dies basiert im Allgemeinen auf einer Sensorfusion aus Trägheits- und optischen Sensordaten. Unabhängig vom Zustandsschätzfilter besteht ein verbleibendes Problem in der Bereitstellung von Positionsaktualisierungen ohne die Verwendung bekannter absoluter Unterstützungsinformationen, wie sie erscheinen, wenn das Fahrzeug in unbekanntem Gelände navigiert. Visuelle Odometrie oder simultane Lokalisierungs- und Kartierungs-(SLAM)-Ansätze liefern typischerweise eine relative Position. Dies ist durchaus geeignet, kann aber aufgrund von Fehleranhäufungen nachteilig sein. Die vorgestellte Methode kombiniert monokulare Kamerabilder mit Laserabstandsmessungen, um visuelles SLAM ohne Fehler durch zunehmende Skalenunsicherheit zu ermöglichen. Es wird gezeigt, dass dies den akkumulierten Fehler im Vergleich zum alleinigen monokularen visuellen SLAM reduziert. Weiterhin integriert das vorgestellte Verfahren die Anpassung an bekannte Landmarken, wenn diese zu Beginn eines Landeanflugs verfügbar sind, sodass die relative optische Navigation ohne systematische Fehler initialisiert werden kann. Abschließend werden Tests mit einer simulierten Mondlandung durchgeführt und gezeigt, dass das Verfahren bis zum Bodenaufprall navigieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-17518-8_35 6ee85f9bb14ad3195df93daab5c91a17;de;;;2.2.;;;Wiederverwendung von Aufgabenwissensmustern in der Entwicklung von Multi-Agent-Systemen Vorlagenbasierte Wissensmodelle können als Entwurfsmuster zur Spezifizierung einer Aufgabe angesehen werden [12]. Die Modelle können als wiederverwendbare Artefakte bei der Entwicklung eines Multi-Agenten-Systems mit der MAS-CommonKADS-Methodik dienen. Aufgrund unserer Beobachtung bestehender Muster stellen wir jedoch Einschränkungen bei der Wiederverwendung dieser Muster in der Agentenentwicklung fest. Dieses Papier präsentiert;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25920-3_33 51087296e9905fd89a914d3afcf309b2;de;;;2.2.;;;Anwenden von Kosinusreihen auf die XML-Struktur-Join-Größenschätzung Da XML zum De-facto-Standard für die Datenpräsentation und den Datenaustausch im Web geworden ist, hat sich die XML-Abfrageoptimierung zu einem wichtigen Forschungsthema entwickelt. Es ist allgemein anerkannt, dass strukturelle Verknüpfungen, die die Einschluss-(Vorfahren-Nachkommen-)Beziehungen zwischen XML-Elementen auswerten, für die Verarbeitung von XML-Abfragen wichtig sind. Die genaue und schnelle Schätzung der Größe der strukturellen Joins ist daher entscheidend für den Erfolg der XML-Abfrageplanauswahl. In diesem Papier schlagen wir vor, die Kosinustransformation auf die Schätzung der strukturellen Verbindungsgröße anzuwenden. Unser Ansatz erfasst strukturelle Informationen von XML-Daten mithilfe mathematischer Funktionen, die dann durch die Cosinus-Reihe approximiert werden. Wir leiten eine einfache Formel ab, um die strukturelle Verbindungsgröße mithilfe der Cosinus-Reihe abzuschätzen. Theoretische Analysen und umfangreiche Experimente wurden durchgeführt. Die experimentellen Ergebnisse zeigen, dass unser Verfahren im Vergleich zum Stand der Technik IM-DA-Est um mehrere Größenordnungen schneller ist, weniger Speicher benötigt und bessere oder vergleichbare Schätzungen liefert.;-;-;-;https://link.springer.com/chapter/10.1007/11827405_74 bf91b21eadfc2a7025158524ac2f8338;de;;;2.2.;;;Eine Multimodellanalyse der Höhen der Gletschergleichgewichtslinie in Westchina während des letzten glazialen Maximums Basierend auf numerischen Experimenten mit neun Klimamodellen werden die Gletschergleichgewichtslinienhöhen (ELAs) in Westchina während des letzten glazialen Maximums (LGM) untersucht, um unser Verständnis der Oberflächenumgebung auf dem tibetischen Plateau zu vertiefen. Im Vergleich zur vorindustriellen Zeit sinken die sommerlichen Oberflächenlufttemperaturen um 4–8 °C, während der jährliche Niederschlag während der LGM auf dem tibetischen Plateau um durchschnittlich 25 % abnimmt. Unter den gemeinsamen Auswirkungen der Verringerung der Sommertemperatur und des Jahresniederschlags werden die LGM-ELAs in Westchina um regional unterschiedliche Größenordnungen gesenkt. Die ELAs am Südrand und im nordwestlichen tibetischen Plateau nehmen um ca. 1100 m ab, das zentrale Hinterland um 650–800 m und der östliche Teil um 550–800 m mit einem Abwärtstrend von Südwest nach Nordost. Die Reduzierung der ELAs beträgt nicht mehr als 650 m im Tian-Shan-Gebirge innerhalb Chinas und etwa 500–600 m im Qilian-Gebirge und im Altai-Gebirge. Die hochauflösenden Modelle reproduzieren die niedrigen Werte von nicht mehr als 500 m in ELA-Reduktionen im zentralen tibetischen Plateau, die mit den Proxy-Aufzeichnungen von Gletscherresten übereinstimmen. Die Akkumulationszonen der Gletscher des tibetischen Plateaus befinden sich während des LGM hauptsächlich in den Randgebirgen und haben Flächen, die 2–5 mal größer sind als die der modernen Gletscher, erreichen aber noch nicht den zentralen Teil.;-;-;-;https://link.springer.com/article/10.1007/s11430-018-9266-8 84efd63ab18a33984747250183c69c84;de;;;2.2.;;;DataRouter: Ein Dienst auf Netzwerkebene für die Weiterleitung auf Anwendungsebene DataRouter leitet Netzwerkschichtpakete unter Verwendung von Anwendungsschicht-Tags weiter, ohne dass eine Pro-Hop-Terminierung von Transportprotokollen und die konsequente Neuimplementierung von Transportdiensten in der Anwendung erforderlich ist. DataRouter bietet eine Netzwerkbereitstellung basierend auf Musterabgleich und String-Ersatz. Es kombiniert eine Byte-Zeichenfolge als loses IP-Options-Tag für die Quellroute und Routing-Einträge für reguläre Ausdrücke, um einen neuen Netzwerkdienst bereitzustellen. DataRouter-Tags haben eine Vielzahl von Formen, einschließlich fester Länge mit genauen Übereinstimmungen für verteilte Hash-Tabellen und variabler Länge mit Übereinstimmungen mit regulären Ausdrücken für die URL-Umleitung. Mit Tags versehene IPv6-Pakete durchlaufen transparent Nicht-DataRouter-Router. Auf einer Plattform, die IPv4-Pakete mit 310K Paketen/Sek. weiterleitet, leitet ein nicht optimierter FreeBSD IPv4 DataRouter Hash-Match-Pakete mit bis zu 270K Paketen/Sek. (87und Pattern-Match-Pakete 155.000 Pakete/Sek. (50-leistungsstärkere Alternative zur Implementierung der Weiterleitung auf Anwendungsebene, in einem generischen Dienst, der besser mit bestehenden Netzwerk- und Transportprotokollen interoperabel ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24715-9_11 ffd81b6cd8cd286ddee1284b9b0dff17;de;;;2.2.;;;Ein effizienter intervallbasierter Ansatz zum Mining häufiger Muster in einer Zeitreihendatenbank In diesem Papier stellen wir einen intervallbasierten Ansatz zum Mining häufiger Muster in einer Zeitreihendatenbank vor. Im Vergleich zu häufigen Mustern in den bestehenden Ansätzen sind häufige Muster in unserem Ansatz informativer, da explizite Zeitlücken automatisch zusammen mit den zeitlichen Beziehungen zwischen den Komponenten in jedem Muster entdeckt werden. Darüber hinaus ist unser intervallbasierter Frequent Pattern Mining-Algorithmus für Zeitreihendatenbanken, genannt IFPATS, mit einem einzigen Datenbankscan und einem Vorausschaumechanismus zur Reduzierung nicht potenzieller Kandidaten für häufige Muster effizienter. Experimentelle Ergebnisse wurden durchgeführt und haben bestätigt, dass unser IFPATS-Algorithmus sowohl den bestehenden intervallbasierten Algorithmus auf sequentiellen Datenbanken als auch den unkomplizierten Ansatz mit Nachbearbeitung für explizite Zeitlücken in den zeitlichen Beziehungen der resultierenden Muster übertrifft. Insbesondere da eine Zeitreihendatenbank größer wird und Zeitreihen in einem höherdimensionalen Raum länger werden, ist unser Ansatz viel effizienter.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-44949-9_20 13d1a661b77b392de97f1c1df2950643;de;;;2.2.;;;Anwenden von unüberwachtem Fuzzy-C-Prototypen-Clustering in der bewegungsbasierten Segmentierung Die neueste Technologie in der digitalen Videoverarbeitung hat sich auf die „inhaltsbasierte“ Speicherung und Abfrage verlagert. Es besteht ein starker Bedarf, mehrere sich bewegende Objekte in einer Videosequenz zu segmentieren, damit an dem einzelnen Objekt eine übergeordnete Aufgabe ausgeführt werden kann. Bei der Segmentierung ist robustes Clustering ein notwendiger Schritt, der eine wichtige Rolle bei der Identifizierung von Regionen spielt. In diesem Papier stellen wir ein Schema zum Extrahieren von bewegten Objekten vor. Zuerst werden die dichten optischen Flussfelder berechnet, um Bewegungsvektoren zu extrahieren. Die Oberflächenanpassung erfolgt über das parametrische Bewegungsmodell. Dann wird eine unbeaufsichtigte robuste Fuzzy-C-Prototypen-Clustering-Technik auf die bewegungsbasierte Segmentierung im Parameterraum angewendet. Schließlich können die einzelnen bewegten Objekte und der Hintergrund in Ebenen dargestellt werden. Es werden experimentelle Ergebnisse bereitgestellt, die die Bedeutung des vorgeschlagenen Verfahrens zeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-49121-7_51 8e23766086a87b6992bc42b00f0d10da;de;;;2.2.;;;Probleme der Datenorganisation bei standortabhängigen Abfragen im Mobile Computing Wir betrachten Anfragen, die von einer mobilen Einheit stammen und deren Ergebnis vom Standort des Benutzers abhängt, der die Anfrage initiiert. Beispiel für eine solche Abfrage ist;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44472-6_12 f186fdd6004c1c829aa231d85ea24291;de;;;2.2.;;;Forschung zur Cloud-Speicherung von Vektordaten basierend auf HBase Heute treten wir in das Big-Data-Zeitalter ein. Die Menge an Vektordaten wächst explosionsartig. Es besteht ein dringender Bedarf an einer effizienten Speichermethode für große Vektordaten. In diesem Beitrag wird eine Cloud-Speicherstrategie von Vektordaten basierend auf HBase vorgeschlagen. Zuerst wird ein Quadtree-Zerlegungsverfahren angewendet, um einen mehrstufigen Gitterindex aufzubauen, und eine Hilbert-Raumfüllkurve wird auf Partitionsvektordaten angewendet. Zweitens wird die eindeutige Kennung des Vektorelements basierend auf einem mehrstufigen Gittercode und einem Hilbert-Sequenzcode entworfen. Es wird als RowKey des Vektorelements in HBase behandelt. Drittens wird die Speicherregel von Vektordaten im Detail entworfen. Schließlich werden zwei Kontrastexperimente verwendet, um die gute Durchführbarkeit und hohe Effizienz dieser vorgeschlagenen Methode zu überprüfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-3969-0_52 41d0c373294b30b66361908828f29c38;de;;;2.2.;;;Sind Mega-Erdbeben vorhersehbar? Im Zuge des seit 1992 laufenden Global Tests der mittelfristigen mittelfristigen Erdbebenvorhersage/-vorhersage durch die Algorithmen M8 und MSc Ort und Zeit jedes der Mega-Erdbeben vom 27. Februar 2010 in Chile und 11. März 2011 in Japan als im Zustand erhöhter Eintrittswahrscheinlichkeit solcher Ereignisse vor ihrem Eintritt erkannt wurden. In Verbindung mit einer retrospektiven Analyse der seismischen Aktivität vor dem ersten einer Reihe von Mega-Erdbeben des 21.;-;-;-;https://link.springer.com/article/10.1134/S0001433811080032 db16cd14cd639af91afd5bbe1290ed2e;de;;;2.2.;;;Musterbasierte Richtlinien für das Koordinations-Engineering Dieser Artikel konzentriert sich auf die Koordinationstechnik. Wir stellen fest, dass Koordinations-Engineering durch eine doppelte Sichtweise angegangen werden kann. Einerseits treten Koordinationsprobleme immer wieder auf, andererseits existieren erprobte Formen der Koordination. Wir definieren eine Typologie von Koordinationsproblemen, die durch die Durchsetzung bekannter Koordinationsformen gelöst werden können. Wir zeigen einen Zusammenhang zwischen unserem Ansatz und der Kontext-Problem-Lösungs-Formulierung von Mustern auf. Wir präsentieren einen Katalog von Koordinationsmustern, der eine Bestandsaufnahme einer Reihe von Koordinationsproblemen erstellt, und eine Reihe von Lösungen, die beschreiben, wie diese Probleme gelöst werden können. Nachdem wir ein Beispiel für ein Koordinationsmuster beschrieben haben, stellen wir schließlich Richtlinien vor, die den Katalog im Rahmen der Prozesskoordinationstechnik verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44759-8_17 87351e660132406d906a81d3d48d0bdb;de;;;2.2.;;;Lexikalisches und algorithmisches Stemming im Vergleich für 9 europäische Sprachen mit Hummingbird SearchServer Hummingbird beteiligte sich an den einsprachigen Informationsbeschaffungsaufgaben des Cross-Language Evaluation Forum (CLEF) 2003: für natürlichsprachliche Abfragen in 9 europäischen Sprachen (Deutsch, Französisch, Italienisch, Spanisch, Niederländisch, Finnisch, Schwedisch, Russisch und Englisch), alle finden die relevanten Dokumente (mit hoher Genauigkeit) in den Dokumentensets des CLEF 2003. SearchServer lieferte die höchste durchschnittliche Präzisionsbewertung der eingereichten automatischen Titel+Beschreibungsläufe für Deutsch, Finnisch und Niederländisch, die CLEF-Sprachen, für die SearchServer Wörter finden konnte, die Bestandteile von Verbindungen sind. Bei einem Vergleich experimenteller lexikalischer Stemmer von SearchServer mit den algorithmischen Stemmern von Porter gab es die größten Unterschiede (die meisten von ihnen signifikant) für Sprachen, in denen zusammengesetzte Wörter häufig vorkommen. Bei den anderen Sprachen, in der Regel die lexikalischen Stemmer, führten die Flexions-Stemmer durch, während die algorithmischen Stemmer oft zusätzlich die Derivational-Stemmer durchführten, bestanden diese Unterschiede keinen Signifikanztest.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30222-3_27 935ab79199822bbd7bc50ec9bcbeb7df;de;;;2.2.;;;Liedtextbasierter Audioabruf und multimodale Navigation in Musiksammlungen Moderne digitale Musikbibliotheken enthalten Text-, Bild- und Audiodaten, die Musik auf verschiedenen semantischen Ebenen beschreiben. Unter Ausnutzung der Verfügbarkeit verschiedener semantisch zusammenhängender Repräsentationen für ein Musikstück präsentiert dieser Beitrag ein Abfrage-durch-Text-Retrieval-System, das die multimodale Navigation in CD-Audiosammlungen erleichtert. Insbesondere führen wir eine automatisierte Methode ein, um gegebene Liedtexte unter Verwendung einer Kombination von Synchronisationsalgorithmen zeitlich an eine Audioaufnahme des zugrunde liegenden Liedes anzupassen. Darüber hinaus beschreiben wir eine Songtext-Suchmaschine und zeigen, wie man mit den Songtext-Audio-Alignments direkt aus der Liste der Abfrageergebnisse zu den entsprechenden passenden Positionen innerhalb der Audioaufnahmen navigieren kann. Schließlich präsentieren wir eine Benutzeroberfläche für songtextbasierte Abfragen und die Wiedergabe der Abfrageergebnisse, die die Funktionalität unseres SyncPlayer-Frameworks für inhaltsbasierte Musik- und Audionavigation erweitert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74851-9_10 417a3f9de73b2dc333d8e9b017474c81;de;;;2.2.;;;Eine Überprüfung und Untersuchung der mathematischen Räume, die der molekularen Ähnlichkeitsanalyse zugrunde liegen Als intuitives Konzept hat die molekulare Ähnlichkeit eine grundlegende Rolle in der Chemie gespielt. Es ist in Hammionds Postulat, im Prinzip der minimalen Strukturänderung und in der Annahme, dass ähnliche Strukturen tendenziell ähnliche Eigenschaften haben, implizit enthalten. Unähnlichkeitsselektion, molekulare Superposition, Strukturgenerierung und quantitative Struktur-Aktivitäts-Analyse. Die Vielfalt der Anwendungen berechenbarer Definitionen molekularer Ähnlichkeit hat oft wichtige mathematische Gemeinsamkeiten, die diesen Definitionen zugrunde liegen, verschleiert. Die breitesten Gemeinsamkeiten sind Beziehungen, die auf Äquivalenz, Übereinstimmung, teilweiser Ordnung und Nähe basieren. Ein für die molekulare Ähnlichkeitsanalyse geeigneter mathematischer Raum besteht aus einem Satz mathematischer Strukturen und einer oder mehreren dieser Ähnlichkeitsbeziehungen, die auf diesem Satz definiert sind. Dieser Bericht gibt einen Überblick über die mathematischen Räume, die bei der molekularen Ähnlichkeitsanalyse verwendet werden. Die Übersicht umfasst die Arten chemischer Informationen, Ähnlichkeitsbeziehungen und Anwendungen, die mit der Verwendung jedes mathematischen Raums in einem molekularen Ähnlichkeitskontext verbunden sind.;-;-;-;https://link.springer.com/article/10.1007/BF01166045 c317a17373b28f7af67f62ad075c9e8f;de;;;2.2.;;;Effizientes Massenladen großer hochdimensionaler Indizes Eine effiziente Indexkonstruktion in mehrdimensionalen Datenräumen ist für viele Knowledge Discovery-Algorithmen wichtig, da Konstruktionszeiten typischerweise durch Leistungssteigerungen bei der Abfrageverarbeitung amortisiert werden müssen. In diesem Beitrag schlagen wir eine generische Bulk-Loading-Methode vor, die die Anwendung benutzerdefinierter Split-Strategien bei der Indexkonstruktion ermöglicht. Dieser Ansatz ermöglicht die Anpassung der Indexeigenschaften an die Anforderungen eines bestimmten Knowledge Discovery-Algorithmus. Da unser Algorithmus berücksichtigt, dass große Datensätze nicht in den Hauptspeicher passen, basiert unser Algorithmus auf einer externen Sortierung. Entscheidungen über die Aufteilungsstrategie können gemäß einer automatisch ausgewählten Stichprobe des Datensatzes getroffen werden. Der Sortieralgorithmus ist eine Variante des bekannten Quicksort-Algorithmus, der erweitert wurde, um auf sekundärem Speicher zu funktionieren. Die Indexkonstruktion hat eine Laufzeitkomplexität von O(;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48298-9_27 ffce4f81c0d8396362cd6048cff65137;de;;;2.2.;;;MHB-Tree: Eine verteilte räumliche Indexmethode für ein dokumentenbasiertes NoSQL-Datenbanksystem Als Entwicklung der Telekommunikationstechnologie und der Mobilgerätetechnologie kamen Geolokalisierungsdaten überall und jederzeit aus dem wirklichen Leben des Menschen. Denn alle Anwendungen des Smart Device enthalten jetzt räumliche Komponenten. Wenn die traditionelle relationale Datenbank die kontinuierlich überfluteten Daten nicht unterstützen kann, entwickelten die Forscher ein auf Schlüsselwerten basierendes NoSQL-Datenbanksystem, um dieses Problem zu lösen. Doch Geodatenprozesse werden bisher kaum berücksichtigt. In diesem Fall muss der Client-Benutzer über eine eigene Verarbeitungskomponente für räumliche Daten verfügen, um die räumlichen Daten aus der NoSQL-Datenbank zu verarbeiten. In diesem Beitrag haben wir einen räumlichen Index auf Basis von dokumentenbasiertem NoSQL vorgeschlagen, der die räumlichen Daten mithilfe der Geo-Hash-Methode verteilen und die hohe Einfügerate mithilfe der b-tree-basierten Indexmethode erfüllen kann. Schließlich haben wir unsere Methode auf OrientDB entwickelt, die dokumentenbasiertes NoSQL ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-5857-5_53 d06808906e32fd397764b5af9acf86ba;de;;;2.2.;;;Kurztextberechnung basierend auf dem lexikalischen Ähnlichkeitsmodell Bei der Kurztextähnlichkeit geht es darum, die Nähe zweier Texte zu bestimmen, die dasselbe lexikalisch oder semantisch bedeuten. Es wurden verschiedene Kurztextähnlichkeitsansätze vorgeschlagen, die auf lexikalischem Matching, semantischem Wissenshintergrund oder Kombinationsmodellen basieren. Das lexikalische Modell erfasst nicht die tatsächliche Bedeutung der Wörter. Semantische Ansätze stützen sich jedoch auf Wissenshintergrund oder -korpus, von dem nicht angenommen werden kann, dass er bei der Handhabung eines so großen neuen Wortes an Datenknappheit und Rauschen in kurzen Texten verfügbar ist. Diese Arbeiten konzentrieren sich auf lexikalische Ähnlichkeitsmodelle zur Analyse des unstrukturierten Kurztextes. Das begriffsbasierte und das editierbare Distanzmodell werden verwendet, um die Anwendbarkeit dieser Modelle zu vergleichen, um den Ähnlichkeitswert von Kurztext zu berechnen. Die experimentellen Ergebnisse zeigen, dass jedes Modell seine wichtigsten Stärken und Einschränkungen bei der Berechnung des Ähnlichkeitswerts von Kurztext hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30275-7_27 e39e686d6d46d4da398abdd5eea01216;de;;;2.2.;;;Arktische Ozeansedimente, Mikrofauna und die Klimaaufzeichnung im späten Känozoikum Tiefseekerne aus dem zentralen Arktischen Becken liefern signifikante faunen- und lithologische Hinweise auf Zyklen mit normalem und niedrigem Salzgehalt, die den Temperaturschwankungen im späten Känozoikum überlagert sind. Die niedrigsten Temperaturen entsprechen dem oberen Pleistozän (der Brunnes-Epoche mit normaler Polarität), während während der Matuyama-Epoche mit umgekehrter Polarität höhere Temperaturen und niedrigere Salzgehalte von planktonischen Foraminiferen aufgezeichnet wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-87411-6_13 3ab5ede3d29374049c6562f8f6fc5fa0;de;;;2.2.;;;Abstract- und Indexdatenbanken (Web of Knowledge, Scopus, Google Scholar) Dieses Kapitel fasst kurz die drei wichtigsten über das Internet zugänglichen Abstract- und Indexdatenbanken zusammen, die wissenschaftliche Veröffentlichungen und verwandte Zitate erfassen. Web of Knowledge, Scopus und Google Scholar werden vorgestellt und deren Inhalt und Hauptfunktionen beschrieben. Die Kapitel schließen mit einem Vergleich ab, der die Vor- und Nachteile dieser Referenzseiten enthält.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38646-6_5 f5918b48c2bd07051f31bb0449fdfb7a;de;;;2.2.;;;Konjunktive Schlüsselwortweiterleitung Sichere dynamische, durchsuchbare Verschlüsselung über ausgelagerte verschlüsselte Daten Cloud Computing ermöglicht Einzelpersonen und Organisationen umfassende Rechenkapazitäten zusammen mit skalierbaren Speicherdiensten. Die Sicherheit ausgelagerter Daten führt jedoch zu Datenschutzbedenken, wenn vertrauliche Daten an Drittanbieter ausgelagert werden. Die Searchable Symmetric Encryption (SSE) ist eine Lösung, die es Datenbesitzern ermöglicht, die passenden Dokumente basierend auf verschlüsselten Abfragen sicher auszulagern und später abzurufen. Bei den meisten bestehenden SSE-Schemata fehlt die Unterstützung für das relevanzbasierte Abrufen übereinstimmender Dokumente mit abgefragten Schlüsselwörtern, aussagekräftigen Abfragen und der Vertraulichkeit von Abfragebegriffen und Dokumenten. In diesem Papier stellen wir ein neuartiges dynamisches SSE-Schema vor, das Dokumente nach ihrer Relevanz für die Abfragen geordnet abruft und die von R Bost et al. Unser Schema ist leichtgewichtig, da es dem Server ermöglicht, die Relevanz von Dokumentenabfragen auf sichere Weise zu berechnen, ohne den gesamten ausgelagerten Index zu beeinträchtigen, insbesondere während Aktualisierungsvorgängen, was normalerweise beim bestehenden Stand der Technik der Fall ist. Wir verwenden einen Indexierungsmechanismus, der eine Alternative zur am häufigsten verwendeten invertierten Indexstruktur darstellt, aber die Nachteile eines solchen Index überwindet. Die experimentelle Analyse unseres Schemas auf RFC-Datensätzen zeigte eine sublineare Suchzeit und effiziente Aktualisierungsvorgänge. Das vorgeschlagene Schema gewährleistet auch die Vorwärts- und Rückwärtssicherheit während Such- und Aktualisierungsvorgängen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0422-5_14 93754f0232f464757e38f75167fd8959;de;;;2.2.;;;Ein räumliches SQL basierend auf SparkSQL Die Menge an Geodaten hat enorm zugenommen, und der Erforschung verteilter Systeme zur Geodatenanalyse wurde zunehmend Aufmerksamkeit geschenkt. Spark, ein verteiltes In-Memory-System, das in Bezug auf Geschwindigkeit und viele andere Aspekte viel besser als Hadoop ist, hat keine räumlichen SQL-Abfrageerweiterungen. In diesem Whitepaper untersuchen wir das Technologie-Framework von Spark SQL und implementieren das Spatial-Query-Erweiterungssystem in enger Kombination mit dem nativen Spark-System. Die Erweiterungen im System umfassen räumliche Typen, räumliche Operatoren, räumliche Abfrageoptimierungen und räumliche Datenquellenformate. Das räumliche Erweiterungssystem von Spark behält die Skalierbarkeit und kann mit weiteren Abfrageoptimierungen und Datenquellenformaten erweitert werden. In diesem Papier folgen das Geodatentypsystem und das Geooperatorsystem den OGC-Standards. Darüber hinaus ist die Erweiterungsmethode auch eine allgemeine Methode für Abfrageerweiterungen in Spark SQL in anderen Feldern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-3966-9_50 3fb5299fbbc406985d9543e2ebe5778c;de;;;2.2.;;;Ein schnellerer Algorithmus zur Motivfindung in Sequenzen aus ChIP-Seq-Daten Die Motivfindung in Nukleotidsequenzen für die Entdeckung überrepräsentierter Transkriptionsfaktor-Bindungsstellen ist sowohl aus rechnerischer als auch aus experimenteller Sicht ein sehr anspruchsvolles Problem. Transkriptionsfaktoren erkennen tatsächlich sehr schwach konservierte Sequenzelemente, die in typischen Anwendungen sehr schwer von zufälligen Sequenzähnlichkeiten zu unterscheiden sind. Jüngste technologische Fortschritte wie ChIP-Seq können bessere zu untersuchende Datensätze generieren, bei denen der Erhaltungsgrad der Bindungsstellen höher ist: Andererseits hat die Größe der Datensätze selbst neue Herausforderungen an das Design effizienter Algorithmen gestellt algorithm in angemessener Zeit Ergebnisse zu liefern. In dieser Arbeit stellen wir eine aktualisierte Version unseres Algorithmus Weeder vor, bei der der Zeit- und Platzbedarf deutlich reduziert und darüber hinaus auch die Genauigkeit der Ergebnisse deutlich verbessert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35686-5_17 99bd52740ec31155dae5e41519082039;de;;;2.2.;;;EMD-basiertes Multiskalenmodell für hochauflösende Bildfusion Die hochauflösende Bildfusion ist ein wesentlicher Schwerpunkt im Bereich der Bildverarbeitung. Basierend auf dem charakteristischen Niveau der empirischen Modenzerlegung (EMD) wird ein neues Bildfusionsmodell vorgestellt. Die Intensitäts-Farbton-Sättigungs-(IHS)-Transformation des multispektralen Bildes ergibt zuerst das Intensitätsbild. Danach wird die 2D-EMD im Sinne einer Zeilen-Spalten-Erweiterung des 1D-EMD-Modells verwendet, um das Detailbild und das Grobbild aus dem hochauflösenden Bandbild und dem Intensitätsbild zu zerlegen. Schließlich wird ein verschmolzenes Intensitätsbild durch Rekonstruktion mit hoher Frequenz des hochauflösenden Bildes und niedriger Frequenz des Intensitätsbildes und IHS-Inverstransformationsergebnis in dem verschmolzenen Bild erhalten. Nach der Vorstellung des EMD-Prinzips wird ein Multiskalen-Zerlegungs- und Rekonstruktionsalgorithmus von 2D-EMD definiert und ein Fusionstechnikschema basierend auf EMD entwickelt. Panchromatisches Band und Multispektralband 3,2,1 von Quickbird werden verwendet, um die Qualität des Fusionsalgorithmus zu beurteilen. Nach Auswahl der geeigneten Intrinsic Mode Function (IMF) für die Fusion auf Basis der EMD-Analyse an bestimmten Zeilen-(Spalten-)Pixel-Grauwertreihen ergibt das Fusionsschema ein fusioniertes Bild, das mit allgemein verwendeten Fusionsalgorithmen (Wavelet, IHS .) verglichen wird , Brove). Zu den Zielen der Bildfusion gehören die Verbesserung der Sichtbarkeit des Bildes und die Verbesserung der räumlichen Auflösung und der spektralen Informationen der Originalbilder. Um die Qualität eines Bildes nach der Fusion zu beurteilen, werden Informationsentropie und Standardabweichung angewendet, um räumliche Details der fusionierten Bilder und Korrelationskoeffizienten, Bias-Index und Verzerrungsgrad zum Messen der Verzerrung zwischen dem Originalbild und dem fusionierten Bild in Bezug auf spektrale Informationen zu bewerten. Für den vorgeschlagenen Fusionsalgorithmus werden bessere Ergebnisse erzielt, wenn der EMD-Algorithmus verwendet wird, um die Fusionserfahrung durchzuführen.;-;-;-;https://link.springer.com/article/10.1007/s11806-007-0150-9 229f8f2c8fbe6a80a930ea446ac7b370;de;;;2.2.;;;Eine Datenstruktur zur effizienten Übertragung verallgemeinerter Vektorkarten Als mögliche Lösung für den Austausch sehr großer Vektordatensätze über das Internet wurde die schrittweise Übertragung einer Folge von Darstellungen mit zunehmender Detailgenauigkeit identifiziert. In diesem Zusammenhang betrifft ein wichtiges Thema die Entwicklung von Datenstrukturen, um mehrere Repräsentationen effizient zu speichern und zu manipulieren. In diesem Papier beschreiben wir eine neue Datenstruktur, die verwendet wird, um Repräsentationen zu kodieren, die durch Anwendung des modifizierten RDP-Algorithmus von Saalfeld erhalten wurden [10]. Die Datenstruktur enthält vertikale Verknüpfungen zwischen verschiedenen Darstellungen und zwingt daher der Mehrfachauflösungssequenz eine hierarchische Organisation auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-25944-2_122 095511bdf992e145fa6f8167397c22ff;de;;;2.2.;;;Verwenden einer objektrelationalen Fuzzy-Datenbank zum Abrufen von Farbbildern Der Artikel stellt ein Fuzzy-Datenbankverwaltungssystem und ein Fuzzy-Verfahren zur Dominant-Farbbeschreibung von Bildern vor, auf denen ein Bildabrufsystem aufgebaut ist. Der Beitrag zeigt die Eignung des Fuzzy-Datenbankmanagementsystems für diese Art von Anwendungen, wenn die Bilder durch Fuzzy-Daten charakterisiert sind. Die Synergie dieser beiden eingeführten Komponenten verbessert herkömmliche Bildabrufsysteme in drei Aspekten: natürliche und automatische Bildbeschreibung, eine natürliche und einfache Abfragesprache und hohe Leistung bei der Abfrageauflösung.;-;-;-;https://link.springer.com/chapter/10.1007/11766254_26 69a482a0b4bc9aac4c83255dba3dafba;de;;;2.2.;;;CLEF 2002 – Pilotbericht zum Abruf sprachübergreifender Dokumente Document Die aktuelle Erweiterung der Sammlungen natürlicher sprachbasierter digitaler Dokumente in verschiedenen Medien und Sprachen schafft herausfordernde Möglichkeiten für den automatischen Zugriff auf die in diesen Dokumenten enthaltenen Informationen. Dieser Artikel beschreibt die CLEF 2002-Pilotstudie zum Cross-Language Spoken Document Retrieval (CLSDR), die Informationsabruf, sprachübergreifende Übersetzung und Spracherkennung kombiniert. Die experimentelle Untersuchung basiert auf den SDR-Auswertungsaufgaben TREC-8 und TREC-9, ergänzt um eine CLSDR-Aufgabe. Die ursprüngliche Aufgabe des Abrufens englischsprachiger gesprochener Dokumente unter Verwendung englischer Anfragethemen wird mit dem sprachübergreifenden Abrufen unter Verwendung von französischen, deutschen, italienischen und spanischen Themenübersetzungen verglichen. Die Ergebnisse des Pilot-Tracks legen grundlegende Leistungsniveaus fest und zeigen, dass Pseudo-Relevanz-Feedback und gleichzeitige Textdokumentsammlungen verwendet werden können, um die CLSDR-Leistung zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45237-9_39 7a1d3663ea451e0885421b1ae826fd24;de;;;2.2.;;;Fallbasierte Polierprozessplanung mit Fuzzy Set Theory Das Polieren wird häufig als abschließender Bearbeitungsvorgang für viele Produkte und Komponenten verwendet. Obwohl der Automatisierungsgrad im Laufe der Jahre sukzessive zunimmt, wird immer noch das manuelle oder halbautomatische Polieren praktiziert. Die Wahl der Polierprozessparameter basiert weitgehend auf der Erfahrung der Poliertechniker und erfordert eine lange „Trial and Error“-Iteration, bevor ein akzeptables Niveau erreicht wird. Dieses Papier schlägt vor, erfolgreiche Projekte zu akquirieren und ein Fallarchiv von Polierparametern sowohl von Produkten als auch von Prozessen aufzubauen. Anschließend wird Case Based Reasoning (CBR) angewendet, um die erfahrungsbasierte Polierprozessplanung nachzuahmen. Ein Problemfall wird zunächst gut strukturiert und dann mit allen Fällen im Repository abgeglichen. Die ähnlichsten werden zur weiteren Begründung für ihr Überarbeitungs- und Anpassungspotential zu einer optimalen Lösung herangezogen. Diese Forschung kombiniert die Fuzzy-Set-Theorie mit CBR, um zwei grundlegende Probleme bei der Planung von Polierprozessen anzugehen. Zum einen können Werte von Produkteigenschaften und Prozessparametern wie Polierkraft, Poliermittelmenge, Polierscheiben, Drehzahl und Vorschub nicht exakt gemessen und kontrolliert werden. Zum anderen können Einflussbeziehungen zwischen Prozessparametern und Polierqualitätsindikatoren gemessen durch Oberflächenrauheit (Ra) und Grobheit (Gu) mathematisch nicht wissenschaftlich begründet werden. Innerhalb des kooperierenden Unternehmens wird eine Fallstudie durchgeführt und die Ergebnisse des vorgeschlagenen Systems stimmen im Allgemeinen mit den tatsächlichen Entscheidungen überein.;-;-;-;https://link.springer.com/article/10.1007/s10845-009-0259-9 07fe1fca8b59157a6d9c56e58e160e0e;de;;;2.2.;;;Datenmodelle mit mehreren zeitlichen Dimensionen: Das Bild vervollständigen Es gibt eine weit verbreitete Erkenntnis, dass Gültigkeits- und Transaktionszeiten die grundlegenden zeitlichen Dimensionen jeder Tatsache in Bezug auf eine Datenbank sind. Es gibt jedoch zeitliche Aspekte von Tatsachen, die nicht auf natürliche Weise durch sie modelliert werden können. Eine bemerkenswerte Einschränkung der Gültigkeits- und Transaktionszeiten besteht darin, dass sie nicht zwischen rückwirkenden und verzögerten Aktualisierungen unterscheiden können. In der Literatur wurde eine dritte zeitliche Dimension, die Ereigniszeit genannt, vorgeschlagen, die es ermöglicht, rückwirkende, pünktliche und proaktive Aktualisierungen zu modellieren. In diesem Beitrag verfeinern wir zunächst den Begriff der Ereigniszeit, indem wir zeigen, dass eine Ereigniszeit nicht ausreicht, um relevante Phänomene zu modellieren, und führen dann eine weitere zeitliche Dimension ein, die wir Verfügbarkeitszeit nennen, die als das Gegenstück des Informationssystems betrachtet werden kann der realen Ereigniszeit. Wir schließen das Papier ab, indem wir aktuelle und zukünftige Arbeitsrichtungen skizzieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45341-5_13 ad235aff783542bb94f9c4c76a640d7a;de;;;2.2.;;;Die Struktur ausgereifter physikalischer Theorien nach Sneed Teil I befasst sich mit dem völlig neuen Ansatz von J. D. Sneed. Um das Verständnis der späteren Kapitel zu erleichtern, beginnen wir jedoch mit a;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-01671-8_2 ad38726297ada8bb13cff0f004de0f96;de;;;2.2.;;;Ein nahtloses und adaptives LOD-Modell des globalen Terrains basierend auf dem QTM In diesem Beitrag wird eine neue nahtlose und adaptive LOD (Level of Details) Modellierungsmethode des globalen Terrains basierend auf dem QTM (Quaternary Triangular Mesh) beschrieben. Unser Ansatz beginnt mit der QTM-Tessellation basierend auf der WGS84-Ellipsoid-Oberfläche. Somit kann das globale Terrain durch ein Array von Höhenwerten von QTM-Scheitelpunkten dargestellt werden. Als nächstes eine adaptive Idee von a;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77800-4_5 3b245f25d198463d5c9e5112795daf5a;de;;;2.2.;;;Parallele Verarbeitung von räumlichen Batch-Abfragen mit Eine effiziente Abfrageverarbeitung in Geodatenbanken ist für zahlreiche moderne Anwendungen von entscheidender Bedeutung. In den meisten Fällen wird eine solche Verarbeitung durch Nutzung räumlicher Indizes erreicht. Das;-;-;-;https://link.springer.com/article/10.1007/s10586-019-03013-0 971320390f8217dc910b54015adc8c72;de;;;2.2.;;;Nichtparametrisches Clustering seismischer Ereignisse In diesem Artikel schlagen wir eine Clustering-Technik vor, die auf der Maximierung der Likelihood-Funktion basiert, die aus der Verallgemeinerung eines Modells für seismische Aktivität (ETAS-Modell, (Ogata (1988))) definiert wurde und die Aufteilung der Ereignisse iterativ ändert. In diesem Zusammenhang ist es sinnvoll, Modelle anzuwenden, die die Unterscheidung zwischen unabhängigen Ereignissen (d. h. der Hintergrundseismizität) und stark korrelierten Ereignissen erfordern. Diese Technik entwickelt nichtparametrische Schätzverfahren der Punktprozessintensitätsfunktion. Um die Anpassungsgüte des Modells zu bewerten, aus dem die Clustering-Methode implementiert wird, wird die Residuenprozessanalyse verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-35978-8_44 12e131b1bb83de3366ba0870c492c89b;de;;;2.2.;;;Interstitielle Bestrahlung supratentorieller zerebraler Gliome im Kindesalter mit permanent implantiertem Jod 125: Vorläufige Ergebnisse Eine lokale Heilung eines zerebralen Glioms allein durch eine Operation wird oft durch das Eindringen von Tumorzellen in umgebendes makroskopisch gesundes Hirngewebe verhindert. Bei Patienten mit Hirnstammgliomen, die 10–25 % aller intrakraniellen Neoplasien bei Kindern ausmachen [5], sind Hirnareale betroffen, die funktionell mehr oder weniger unmöglich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-76182-9_29 084652a7401763bcc32b5e13134461cd;de;;;2.2.;;;Ein Pegasus-Computerprogramm zur Verbesserung der Bahnparameter eines Erdsatelliten Das für die Bewegung eines Satelliten angenommene dynamische Modell umfasst die kurzperiodischen und säkularen Störungen erster Ordnung der Bahnelemente aufgrund der Abflachung der Erde und andere Störungen der Elemente werden durch Polynome in der Zeit bis zum dritten Grad dargestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-48130-7_9 0c9214fb46f8ff0ed89b9cc95074f3d1;de;;;2.2.;;;Im Wesentlichen nilpotente Ringe In dieser Anmerkung führen wir eine Klasse von Nullringen (im Wesentlichen nilpotent genannt) ein, die die Klasse der nilpotenten Ringe richtig enthält. Ein Nullring heißt im Wesentlichen nilpotent, wenn er ein wesentliches Rechtsideal enthält, das nilpotent ist. Es werden verschiedene Eigenschaften von im Wesentlichen nilpotenten Ringen untersucht. Ein Nullring ist genau dann nilpotent, wenn er ein wesentliches Rechtsideal enthält, das links ist;-;-;-;https://link.springer.com/article/10.1007/BF02771582 55ffe47a92fa1e25950c2634df417cde;de;;;2.2.;;;Einige Ergebnisse des 22-Jahres-Monitorings (1982–2003) von Schütze B2 in der 1,35-cm-Linie Ein Katalog von λ=1,35 cm Wasserdampf-Maser-Spektren in Sgr B2 aus den Jahren 1992–2003 wird vorgestellt, der unsere Ergebnisse zu früheren Beobachtungen in den Jahren 1982–1992 ergänzt. Sgr B2 wurde mit dem 22 m Radioteleskop des Pushchino Radio Astronomy Observatory überwacht. Der gesamte Monitoring-Datensatz für 1982–2003 wurde analysiert. Die empfangene Emission ist eine Überlagerung von Strahlung aus verschiedenen Teilen der gesamten Sgr B2-Region, aber der Hauptbeitrag wird von zwei Quellen geleistet: Sgr B2(M) und Sgr B2(N). Das Monitoring ergab keine Langzeitkomponente der integrierten Maserflussschwankungen mit einem Zeitraum von weniger als 20 Jahren. Es wurden die Flare-Komponente der Flussvariabilität und eine kurzperiodische Komponente mit einer mittleren Periode von zwei Jahren gefunden. Letztere sind mit Variationen des Geschwindigkeitsschwerpunkts korreliert, was die Realität der kurzperiodischen Variationen unterstützt. Es ist wahrscheinlich, dass alle verschiedenen Variationstypen sowohl Sgr B2(M) als auch Sgr B2(N) inhärent sind und eine Überlagerung der Variationen darstellen, die in jeder dieser Quellen auftreten. Es gibt einen Wechsel der Maxima der Emission von Sgr B2(M) und Sgr B2(N).;-;-;-;https://link.springer.com/article/10.1134/1.1836020 68a5828fc174ade65e18118e7dff4416;de;;;2.2.;;;Vorhersage der Erdbebenstärke mit maschineller Lerntechnik Die Prophezeiung eines Erdbebens ist eine sehr komplizierte Aufgabe, die auf unterschiedliche Weise gelöst wurde. Es bedarf jedoch einer elementaren Definition sowie adäquater Kataloge. Diese Gebiete wurden mit weit verbreiteten geologischen Parametern markiert. Die Gesamtcharakteristik der Studie basiert nicht nur auf den Trainings- und Testdatensätzen, sondern auch auf qualitativen Daten zur Erdbebenvorhersage. Die maschinelle Lerntechnik wird in den Regionen Japan, Türkei, Griechenland und dem indischen Subkontinent angewendet. Das Modell zeigt eine Beziehung zwischen berechneten seismischen Daten und zukünftigen Erdbebenereignissen. Es ist das Setup, das festgelegt wurde, um die Vorhersagen für Erdbeben mit einer Stärke von 5,0 und höher für Japan, 4,5 und mehr für die Region Indischer Subkontinent, 3,7 und mehr für die Türkei, 3,2 und mehr für die Region Griechenland vor fünfzehn Tagen bereitzustellen zu den Erdbeben. Eine deutliche Verbesserung hat das Modell bei Erdbebenvorhersagen und im Vergleich zu früheren Vorhersagestudien erzielt. Die im Rahmen dieser Arbeit durchgeführten Studien analysieren die Leistung der Vorhersage über die Erdbebenstärkestatistiken der seismogenen Zielzonen, die bei der weiteren Entwicklung und Verbesserung des Systems helfen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-66763-4_4 493006cd397bded1df3be3edbb62d0c3;de;;;2.2.;;;Ein neuartiger Video-Clustering-Algorithmus für Gesichter basierend auf der Divide-and-Conquer-Strategie Videobasiertes Face Clustering ist ein sehr wichtiges Thema in der Gesichtsanalyse. In diesem Beitrag wird ein Framework für videobasiertes Face Clustering vorgeschlagen. Das Framework enthält zwei Schritte. Zunächst werden Gesichter aus Videos erkannt und mithilfe von Informationen zur zeitlichen Kontinuität und SIFT-Funktionen (Scale Invariant Feature Transform) in Untergruppen unterteilt. Zweitens werden die typischen Muster aus diesen Untergruppen ausgewählt, um einige untypische Gesichter zu entfernen. Aus diesen typischen Stichproben in den Untergruppen wird dann eine Ähnlichkeitsmatrix konstruiert. Die Ähnlichkeitsmatrix wird durch unser Verfahren weiter verarbeitet, um die Gesichter-Cluster-Ergebnisse dieses Videos zu erzeugen. Unser Algorithmus wird anhand der SPEVI-Datensätze validiert. Die Experimente zeigten vielversprechende Ergebnisse unseres Algorithmus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32695-0_7 a036283a5a035ed54283fffa54626297;de;;;2.2.;;;Unüberwachte Bildsegmentierung basierend auf Contourlet Texture Features und BYY Harmony Learning von t-Mixtures Dieses Papier schlägt einen unüberwachten Farbbildsegmentierungsansatz vor, der sich hervorragend bei der Multitextur-Bildsegmentierung eignet. Tatsächlich verwendet es einen neuartigen Mechanismus zur Extraktion von Texturmerkmalen durch das Contourlet-Subband-Koeffizienten-Clustering, der bei der Bildsegmentierung effektiver ist als die auf diskrete Kosinustransformation basierende Normalisierungstechnik (DCT). Darüber hinaus verwendet es das Gradient Bayesian Ying-Yang Harmony Learning of t-Mixtures (BYY-t) für die automatische Erkennung von Bildobjekten, so dass die Bildsegmentierung in einem unbeaufsichtigten Modus erfolgt. Die Experimente mit den Bildern in der Berkeley Segmentation Database und der Benchmark (BSDB)-Datenbank demonstrieren die verbesserte Leistung dieses Ansatzes bei der Segmentierung von unterschiedlichen und komplexen Farbbildern. Zusätzliche Experimente an Farbbildern mit mehreren Texturen demonstrieren weiterhin seine besseren Leistungen im Vergleich zu denen der Algorithmen des Standes der Technik.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09333-8_55 3c2d3fb6b26bac0d215490e7aaf602fc;de;;;2.2.;;;BSBM+: Erweiterung von BSBM zur Bewertung von annotierten RDF-Features in Graphdatenbanken Heutzutage wird immer mehr Wissen in Form von RDF-Tripeln veröffentlicht, die mit zahlreichen Arten von Annotationen wie Provenienz, Zeit- und Geoinformationen angereichert sind. Aufgrund der Popularität der ständig wachsenden Anmerkungen haben Graphdatenbanken verschiedene Speicher-Engines zum Speichern dieser Daten vorgeschlagen und ihre Abfrage-Engine erweitert, um Abfragen mit diesen Anmerkungsbeschränkungen zu unterstützen. Die Entwickler dürfen auf die Leistung verschiedener Motoren gespannt sein. Angesichts des Fehlens eines solchen Benchmarks entwickeln wir hierfür den ersten Benchmark durch die Erweiterung von BSBM (einer der am weitesten verbreiteten Benchmarks für Graphdatenbanken). Wir formalisieren die annotierte RDF in ein Datenmodell mit wohldefinierten Kategorien von Annotationen und ihren entsprechenden zu unterstützenden Operatoren. Dann erweitern wir den Datensatz von BSBM, um einige Tripel mit einer oder mehreren Annotationen zu versehen. Wir erweitern den Abfragesatz weiter, um Anmerkungseinschränkungen in eine bestimmte Abfrage aufzunehmen, die als Erweiterung der SPARQL-Abfrage angesehen werden kann. Schließlich wählen wir mehrere beliebte Graphdatenbanken für den Benchmark aus. Die Testergebnisse zeigen für jede Engine eine ähnliche Leistung, wenn sie mit unterschiedlichen Anmerkungsbeschränkungen abgefragt wird. Keine allgemeine Datenbank entwirft einen speziellen Speicher- oder Abfrageplan für eine bestimmte Art von Anmerkungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7359-5_13 edfad7e7d2fea8976af61c6b6b8b90d5;de;;;2.2.;;;Kombination relationaler und semistrukturierter Datenbanken für eine Anfrageanwendung Die Popularität von NoSQL-Datenbanken nimmt stetig zu und immer mehr Unternehmen haben sich von relationalen Datenbanken zu nicht-relationalen NoSQL-Datenbanken verlagert. In diesem Beitrag wird die Partitionierung eines relationalen Datenmodells eines Abfragesystems in semistrukturierte und relationale Daten zur Speicherung in SQL- und NoSQL-Datenbanken gezeigt. Darüber hinaus wird das CAP-Theorem angewendet, um die Speicherung der richtigen Teile des Modells in ihren entsprechenden Datenbanken zu kategorisieren. Durch diese Umstrukturierungen und die Einführung zusätzlicher Histogrammdaten werden insgesamt Leistungssteigerungen von ca. 93% bis 98% erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32498-7_6 af00712d788469fd654f4f9f2ad28223;de;;;2.2.;;;Fusion von VNIR- und thermischen Infrarot-Fernerkundungsdaten basierend auf dem neuronalen GA-SOFM-Netzwerk Die Methoden der Multi-Source-Datenfusion werden derzeit nur selten in VNIR und thermische Infrarot-Fernerkundung eingesetzt. Daher wurden die potenziellen Vorteile der beiden Arten von Daten noch nicht ausreichend ausgeschöpft, was zu einer geringen Berechnungsgenauigkeit von Parametern in Bezug auf die Landoberflächentemperatur führt. In dieser Arbeit wird eine neue Fusionsmethode vorgeschlagen, bei der die Eigenschaften der hohen räumlichen Auflösung von VNIR-Daten (sichtbares und nahes Infrarot) und die hohe zeitliche Auflösung von thermischen Infrarotdaten vollständig untersucht werden. Die nichtlineare Fusion wird implementiert, um die Landoberflächentemperatur in hoher räumlicher Auflösung und der hohen zeitlichen Auflösung zwischen den aus VNIR-Daten geschätzten Landoberflächenparametern und den thermischen Infrarotdaten mittels GA-SOFM (genetische Algorithmen & selbstorganisierende Merkmalskarten) zu erhalten )-ANN (künstliches neuronales Netz). Schließlich wird die Methode durch ASTER-Satellitendaten verifiziert. Das Ergebnis zeigt, dass das Verfahren einfach und bequem ist und die Temperaturverteilung der Landoberfläche mit höherer Auflösung und hoher Präzision schnell erfassen kann.;-;-;-;https://link.springer.com/article/10.1007/s11806-009-0093-4 f86e13d66430709f74e24f23e48fcbeb;de;;;2.2.;;;Zeichenbasiertes N-Gramm-Modell für den uigurischen Textabruf Uigurisch ist eine Sprache mit geringen Ressourcen, aber Uyghur Information Retrieval (IR) wird in letzter Zeit immer wichtiger. Obwohl es entsprechende Forschungsergebnisse und stammbasierte uigurische IR-Systeme gibt, ist es aufgrund der Einschränkungen der bestehenden Stammmethode immer schwierig, leistungsstarke Retrievalergebnisse zu erhalten. In diesem Papier schlagen wir ein zeichenbasiertes N-Gramm-Modell und den entsprechenden Glättungsalgorithmus für Uigurische IR vor. Mit dem Open-Source-Tool Lucene wird ein Volltext-IR-System auf Basis des Character-N-Gram-Modells entwickelt. Es werden eine Reihe von Experimenten und vergleichende Analysen durchgeführt. Experimentelle Ergebnisse zeigen, dass unser vorgeschlagenes Verfahren im Vergleich zu herkömmlichen uigurischen IR-Systemen die bessere Leistung aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-97909-0_72 062cf293b292238b642c8ea27943e497;de;;;2.2.;;;Erkunden von Zitationsnetzwerken mit hybriden Baummusterabfragen Die wissenschaftliche Wirkung von Publikationen wird häufig mit Zitationsnetzwerken gemessen. Herkömmliche Maßnahmen beruhen jedoch in der Regel nur auf direkten Zitaten. Um Zitationsnetzwerke für die Bewertung des wissenschaftlichen Impacts voll zu nutzen, ist es notwendig, auch indirekte wissenschaftliche Einflüsse zu untersuchen, die durch Zitationspfade erfasst werden. Darüber hinaus erfordert die Analyse und Erforschung von Zitationsnetzwerken die Fähigkeit, aussagekräftige Anfragen auf diese effizient auszuwerten. In diesem Artikel schlagen wir vor, hybride Abfragemuster zu verwenden, um Zitationsnetzwerke abzufragen. Diese ermöglichen sowohl Edge-to-Edge- als auch Edge-to-Path-Zuordnungen zwischen dem Abfragemuster und dem Graphen, wodurch sowohl direkte als auch indirekte Beziehungen extrahiert werden können. Um Hybridmusterabfragen in Zitationsgraphen effizient auszuwerten, verwenden wir einen Mustervergleichsalgorithmus, der die Graphensimulation nutzt, um Knoten zu beschneiden, die nicht in der endgültigen Antwort erscheinen. Unsere experimentellen Ergebnisse zu Zitationsnetzwerken zeigen, dass unsere Methode nicht nur aussagekräftigere Abfragen ermöglicht, sondern auch effizient und skalierbar ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-55814-7_26 c04c67d6dc37c8487a9e7e66f8816882;de;;;2.2.;;;Dynamischer Wandel des Landschaftsmusters in der Provinz Jilin von 1980 bis 2000 Durch die Verwendung von Fernerkundungsbildern aus drei Perioden (1980, 1995, 2000) und mit Unterstützung von GIS und RS wurden die räumlichen Informationen von Landschaftselementen der Provinz Jilin von 1980 bis 2000 interpretiert und extrahiert. Mit Modellen von Landschaftsindizes wie Diversität, Fragmentierung und mittlerer Patch-Fraktal-Dimension wurden dynamische raum-zeitliche Veränderungen von Landschaftsmustern der Provinz analysiert. Die Ergebnisse: ① Ackerland und Waldland waren die wichtigsten Landschaftstypen, und Wald wurde zu einer Landschaftsmatrix, im Untersuchungsgebiet waren die Landschaften ungleich verteilt und es gab eine geringe Heterogenität, eine einfache Ökosystemstruktur und eine Tendenz zu irrationalen Landschaftsmustern. Es gab auch einfache räumliche Formen von Patches und starke Selbstähnlichkeiten, und in Bezug auf dynamische Veränderungsanalysen waren Patch-Formen tendenziell einfacher, ③ von 1980 bis 2000 war die holistische Landschaftszerschneidung gering und veränderte sich leicht. Was die Landschaftselemente anbelangt, war die Fragmentierung von Grünland, Wasserfläche, Land für Wohngebiete und Fabrikanlagen relativ gering, die Landverteilung für Wohngebiete und Fabrikanlagen war zerstreut und Ackerland und Waldland waren am stärksten konzentriert – ein Hinweis darauf, dass die Trend wird sich fortsetzen. Umfassende Auswirkungen auf menschliches Handeln, lokale Politik, regionale Klima- und Umweltveränderungen führten zu den Ergebnissen.;-;-;-;https://link.springer.com/article/10.1007/s11806-007-0045-9 bf8405f536c5efefccec76fdfa29cdb1;de;;;2.2.;;;Analyse von Gesichtserkennungsalgorithmen für die Online- und automatische Annotation von persönlichen Videos Im Gegensatz zu früheren automatischen, aber Offline-Annotationssystemen untersucht dieser Artikel die automatische und Online-Gesichtsannotation für persönliche Videos/Episoden von TV-Serien unter Berücksichtigung von Nearest Neighbourhood, LDA- und SVM-Klassifizierung mit Local Binary Patterns, Discrete Cosinus Transform und Histogram of Oriented Gradients Feature Extraktionsmethoden in hinsichtlich ihrer Erkennungsgenauigkeit und Ausführungszeit. Die SVM-Klassifizierung mit diskreten Kosinustransformationsfunktionen hat sich als die leistungsfähigste Methode zur Merkmalsextraktion und das Klassifikatorpaar erwiesen;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-9794-1_45 87711f1eb6b268666870f095580a9f70;de;;;2.2.;;;Relevanz versus Verbreitung von Primärinformationen in der Tierwissenschaft Im Anschluss an eine Bestandsaufnahme von Medien mit Primärinformationen zur Tierwissenschaft wurde eine Reihe von Interviews geführt, um die internationale Relevanz tierwissenschaftlicher Literatur zu quantifizieren. Offenbar bestehen große Diskrepanzen zwischen der Verbreitung, die viele Primärbeiträge erhalten, und der geografischen Verteilung ihrer potenziellen Leserschaft. Eine häufigere Nutzung von Letter Publishing könnte dazu beitragen, solche Mängel zu verringern.;-;-;-;https://link.springer.com/article/10.1007/BF02268969 4e58b5efee639dfcadaad852babc5fdd;de;;;2.2.;;;Aapl: Eine Array-Verarbeitungssprache AAPL ist ein Dialekt von APL, der leichter kompilierbar ist als die Standardversion von APL. Die Hauptunterschiede umfassen die Verwendung von Namenspräfixen, die Fähigkeit, einen begrenzten Zeichensatz zum Bezeichnen der primitiven Funktionen zu akzeptieren, einige Variationen und Einschränkungen bei der Verwendung des Programmverzweigungsprimitiven und einige zusätzliche I/O-Primitive. Die Gründe für jede dieser Modifikationen werden im Detail diskutiert, ebenso wie die Auswirkungen auf die Übertragbarkeit zwischen den beiden Dialekten. Für den STARAN Assoziativen Prozessor wurde eine Implementierung von AAPL vorgenommen. Ein Überblick über diese Umsetzung und ein Fortschrittsbericht über die Arbeiten werden vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-07135-0_125 939d1d88e641590c19f771c1c78afac9;de;;;2.2.;;;Automatisieren des GIS-Bildabrufs basierend auf MCM Dieser Beitrag beschreibt die Automatisierung einer CBIR-Methode basierend auf der Bildbeschreibung durch die „Motiv-Ko-Auftritts-Matrix“ (MCM). Motive beziehen sich in diesem Fall auf einen optimalen Peano-Scan des Bildes. Es zeigt sich, dass eine vorherige Segmentierung in Regionen basierend auf MCM durch Blöcke angepasster Größe mit dem Finden der menschlichen Region konkurriert. Der Abruf aus dem MCM-Vektor der Regionen wird dann für Mensch und Maschine vergleichbar. Ergebnisse zum Vergleich von Präzisions- und Recall-Support-Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30125-7_97 f6da5572c304db9aeb3ea876e17caf41;de;;;2.2.;;;Soundex-Algorithmus für Namen in Hindi-Sprache In der aktuellen Phase der umfassenden Globalisierung, in der Menschen auf der ganzen Welt Zugang zu Internet und Informationen haben, freuen sich Softwareunternehmen und große Technologiekonzerne auf die Lokalisierung und Internationalisierung (i18n), um ihr Material besser an die lokale Bevölkerung zu gewöhnen zu ihrem besseren Verständnis. In diesem Szenario verfügt die junge und aufstrebende Bevölkerung Indiens über ein grenzenloses Entwicklungspotenzial auf lokaler und internationaler Ebene. In solchen Fällen müssen wir eine zusammenhängende Struktur schaffen, in der wir die verschiedenen Komponenten einer lokalen Sprache nach einem vorgefertigten Paradigma sortieren und ihrem richtigen Satz zuordnen können, bei dem die Fehlerwahrscheinlichkeit durch eine voreingestellte Datenbank mit eine große Anzahl von Einträgen, von denen abgeglichen werden kann. In dieser Forschungsarbeit haben wir den Soundex-Algorithmus verwendet, um ähnlich klingende Wörter aus dem Eintrag eines Benutzers mit den Einträgen in der Datenbank abzugleichen. Wir haben mit Hindi-Namen begonnen, die in ein Formular eingegeben und dann mit ihren jeweiligen Soundex-Codes in der Datenbank abgeglichen werden, um so eine korrekte Übereinstimmung zu generieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0372-6_22 fd1ab8b6f4df4400fc92031d2dcb53d5;de;;;2.2.;;;Eine neue Suchtechnologie für Biosequenz-Ähnlichkeit basierend auf dem Sortierindex Da die Ähnlichkeit der Gensequenz in der Struktur normalerweise zu der Ähnlichkeit in der Funktion in der Bioinformatik führt, ist das Auffinden von Teilsequenzen, die eine teilweise Ähnlichkeit mit einer bestimmten Biosequenz in der Datenbank aufweisen, und die Annahme der Funktion der abgefragten Sequenz eine Arbeit, die oft in der Menge benötigt wird. Dieser Beitrag stellt eine neue Biosequenz-Suchmethode vor, die Indexergebnisse basierend auf der Sortierstruktur komprimiert. Das Verfahren reduziert einerseits den Platzbedarf für den Index und verbessert die Platznutzungsrate, andererseits führt das Verfahren eine dynamische Planung mit gleichzeitiger Erweiterung des Fragmentvektors durch, um die Filtereffizienz zu verbessern und die Zeitkomplexität zu reduzieren. Unter der Prämisse, die Genauigkeitsrate der Suchergebnisse zu garantieren, wird die Sucheffizienz stark erhöht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25437-6_120 1d80857e10bb5572d54781373c14df86;de;;;2.2.;;;Ein Vergleich von Text- und Shape-Matching zum Abrufen von Online-3D-Modellen Aufgrund der jüngsten Fortschritte in der Grafikhard- und -software nehmen sowohl die Produktion als auch die Verwendung von 3D-Modellen rasant zu. Infolgedessen ist eine große Anzahl von 3D-Modellen im Internet verfügbar geworden, und neue Forschungen zu Methoden zum Abrufen von 3D-Modellen werden durchgeführt. Die Abfrage und das Abrufen können ausschließlich auf Basis von zugehörigem Text erfolgen, wie z. B. bei der Bildsuche (z. B. Google Bildersuche [1] und [2,3]). Andere Forschungen konzentrieren sich auf das formbasierte Retrieval, basierend auf Methoden, die die Formähnlichkeit zwischen 3D-Modellen messen (z. B. [4]). Das Ziel unserer Arbeit ist es, aktuelle text- und formbasierte Matching-Methoden zu verwenden, zu sehen, welche am besten abschneiden und diese zu vergleichen. Wir verglichen vier Text-Matching-Methoden und vier Shape-Matching-Methoden, indem wir Klassifizierungstests mit einer großen Datenbank von 3D-Modellen durchgeführt haben, die aus dem Internet heruntergeladen wurden [5]. Darüber hinaus haben wir verschiedene Methoden untersucht, um die Ergebnisse des Text- und Formabgleichs zu kombinieren. Wir haben festgestellt, dass die Formanpassung in allen unseren Experimenten die Textanpassung übertrifft. Der Hauptgrund ist, dass Herausgeber von Online-3D-Modellen einfach nicht genügend beschreibenden Text in ausreichender Qualität bereitstellen: 3D-Modelle erscheinen in der Regel in Listen auf Webseiten, nur mit kryptischen Dateinamen oder Miniaturbildern versehen. Durch die Kombination der Ergebnisse von Text- und Formabgleich wurde die Leistung weiter verbessert. Die Ergebnisse dieses Papiers bieten einen zusätzlichen Anreiz, die Forschung zu formbasierten Retrievalmethoden für 3D-Modelle sowie zum Retrieval basierend auf anderen Attributen fortzusetzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30230-8_20 b4d27aec26c23c48998e1796a4cd8db8;de;;;2.2.;;;Kombinatorische PCPs mit effizienten Verifizierern Das PCP-Theorem behauptet die Existenz von Beweisen, die von einem Verifizierer verifiziert werden können, der nur einen sehr kleinen Teil des Beweises liest. Der Satz wurde ursprünglich von Arora und Safra (J. ACM 45(1)) und Arora et al. (J. ACM 45(3)) mit ausgeklügelten algebraischen Werkzeugen. Mehr als ein Jahrzehnt später lieferte Dinur (J. ACM 54(3)) einen einfacheren und wohl intuitiveren Beweis mit alternativen kombinatorischen Techniken.;-;-;-;https://link.springer.com/article/10.1007/s00037-014-0080-5 f0ab974ea0d8488001bfef7eb5739231;de;;;2.2.;;;Schleifen, lateinische Quadrate und stark reguläre Graphen: Ein algorithmischer Ansatz über algebraische Kombinatorik In Verbindung mit den Computerpaketen GAP und COCO etablieren wir einen effizienten algorithmischen Ansatz zur Untersuchung von Automorphismusgruppen geometrischer lateinischer Quadratgraphen. Mit Hilfe dieses Ansatzes wird eine unendliche Reihe von echten Schleifen präsentiert, die eine scharf transitive Gruppe von Kollineationen aufweisen. Das Interesse an solchen Schleifen wurde von A. Barlotti und K. Strambach bekundet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01960-9_1 a7293f62a971437cd29b46ca70f77dcd;de;;;2.2.;;;Dynamische Skyline-Abfragen in großen Diagrammen Bei einer Reihe von Abfragepunkten meldet eine dynamische Skyline-Abfrage alle Datenpunkte, die nicht von anderen Datenpunkten dominiert werden, gemäß den Abständen zwischen Datenpunkten und Abfragepunkten. In diesem Papier untersuchen wir;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12098-5_5 59b09eefec6dca4bc70fff33edad4957;de;;;2.2.;;;Eine neuartige Formfunktion für die Bildklassifizierung und -wiederherstellung In diesem Beitrag wird ein neuartiges statistisches Formmerkmal namens Edge-Co-Occurrence-Matrix (ECM) für die Bildklassifizierung und -wiederherstellung vorgeschlagen. Das ECM gibt die gemeinsame Wahrscheinlichkeit von Kantenrichtungen von zwei Pixeln bei einer bestimmten Verschiebung in einem Bild an. Das ECM kann auf verschiedene Aufgaben angewendet werden, da es im Gegensatz zu den meisten Formmerkmalen keine Segmentierungsinformationen benötigt. Es werden Vergleiche zwischen dem ECM und mehreren anderen Merkmalsdeskriptoren mit zwei Fehlerbilddatenbanken durchgeführt. Sowohl die Klassifikations- als auch die Abrufleistung werden getestet und diskutiert. Die Ergebnisse zeigen, dass das ECM effizient ist und die Leistung unseres CBIR-Systems spürbar verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30125-7_93 59ee35ed9476b449b31c3ec9a45c09be;de;;;2.2.;;;Baumbasierter Datenabrufalgorithmus für Mehrfachanfragen mit Frist in drahtlosen Netzwerken Das Problem des Datenabrufs bei der drahtlosen Kommunikation hat bei vielen Anwendungen, wie beispielsweise beim elektronischen Informationsaustausch und im elektronischen Geschäftsverkehr, zunehmende Aufmerksamkeit auf sich gezogen. Die meisten bestehenden Studien berücksichtigen jedoch nicht, wie die angeforderten Datenelemente innerhalb ihrer Fristen abgerufen werden können. In diesem Papier diskutieren wir das sogenannte fristbasierte Multi-Item-Datenabrufproblem, das darauf abzielt, ein Zugriffsmuster zum Abrufen angeforderter Datenelemente in bestimmten Fristen zu finden, so dass die Zugriffslatenz und die Datenfehlschlagsrate minimiert werden. Wir schlagen zwei Algorithmen namens EDFS und UR vor, um das obige Problem zu lösen. Der EDFS-Algorithmus räumt dem Abrufen des angeforderten Datenelements mit der geringsten Frist Priorität ein, während der UR-Algorithmus die dringende Rate einführt, die durch die Sendezeit und die Frist des angeforderten Datenelements berechnet wird, um die Zugriffslatenz und das Datenausfallverhältnis weiter zu reduzieren. Darüber hinaus entwerfen wir einen baumbasierten Datenabrufalgorithmus, der die längste Downloadsequenz von Datenelementen in einem Sendezyklus findet und auf EDFS und UR angewendet wird, um die Datenabrufsequenz angeforderter Datenelemente zu finden. Die Effizienz unserer vorgeschlagenen Schemata wurde durch die umfangreichen Experimente bestätigt.;-;-;-;https://link.springer.com/article/10.1007/s12083-014-0316-9 05dcf5fbbb858a0bbdc55b3e1aa17f4c;de;;;2.2.;;;Darstellung topologischer Beziehungen zwischen komplexen Regionen durch F-Histogramme In früheren Arbeiten haben wir den Begriff des F-Histogramms eingeführt und gezeigt, dass es beim Verständnis der räumlichen Organisation von Regionen in Bildern von großem Nutzen sein kann. Darüber hinaus haben wir vor kurzem F-Histogramme entworfen, die mit sich gegenseitig ausschließenden und kollektiv erschöpfenden Beziehungen zwischen Liniensegmenten gekoppelt sind. Diese Histogramme sind ein wertvolles Werkzeug zum Extrahieren topologischer Beziehungsinformationen aus konkaven 2D-Objekten. Für jede Richtung in der Ebene definieren sie eine unscharfe Partition aller Objektpaare, und jede Klasse der Partition entspricht einer der obigen Beziehungen. Der vorliegende Beitrag setzt diese Forschungsrichtung fort. Sie legt die Grundlage für die Generierung einer linguistischen Beschreibung, die das Wesen der topologischen Beziehungen zwischen zwei Regionen im Sinne der dreizehn Allen-Beziehungen erfasst. Ein Index zur Messung der Komplexität der Beziehungen in beliebiger Richtung wird entwickelt und Experimente mit realen Daten durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-26772-7_19 97c39faa4d02bf5bb4c2db6b196a1b31;de;;;2.2.;;;Ein Stichprobenansatz für die Kardinalitätsschätzung von Skyline-Abfragen Eine Skyline-Abfrage gibt einen Satz von Kandidatendatensätzen zurück, die mehrere Präferenzen erfüllen. Es ist eine Operation, die häufig durchgeführt wird, um die Entscheidungsfindung zu unterstützen. Da das Ausführen einer Skyline-Abfrage teuer ist und ein Abfrageplan Skyline-Abfragen mit anderen Datenoperationen wie Join kombinieren kann, ist es wichtig, dass der Abfrageoptimierer schnell eine genaue Kardinalitätsschätzung für eine Skyline-Abfrage liefern kann. Log Sampling (LS) und Kernel-Based (KB) Skyline-Kardinalitätsschätzung sind die beiden State-of-the-Art-Skyline-Kardinalitäts-Schätzmethoden. LS basiert auf einem hypothetischen Modell;-;-;-;https://link.springer.com/article/10.1007/s10115-011-0441-1 526faa78825560ae89931de5899a2cfb;de;;;2.2.;;;DC Stream Based JPEG Compressed Domain Image Retrieval Die überwiegende Mehrheit der Bilder wird im komprimierten JPEG-Format gespeichert. Beim inhaltsbasierten Bildabruf ist eine schnellere Merkmalsextraktion möglich, wenn sie direkt in der komprimierten Domäne berechnet werden, wodurch eine vollständige Dekompression der Bilder vermieden wird. Auf diese Weise arbeitende Algorithmen berechnen Bildmerkmale auf Basis von DCT-Koeffizienten und benötigen daher noch eine teilweise Dekodierung des Bildes, um zu diesen zu gelangen. In diesem Artikel stellen wir einen JPEG-komprimierten Domänenabrufalgorithmus vor, der nicht direkt auf DCT-Koeffizienten basiert, sondern auf Unterschieden dieser, die in einem JPEG-Kompressionsstrom leicht verfügbar sind. Insbesondere verwenden wir ausschließlich den DC-Stream von JPEG-Dateien und nutzen direkt die Tatsache, dass DC-Terme differentiell kodiert sind. Wir erstellen Histogramme dieser Unterschiede und verwenden sie als Bildmerkmale, wodurch die Notwendigkeit beseitigt wird, die differentielle Codierung wie bei anderen Verfahren rückgängig zu machen. In Kombination mit einem Farbhistogramm, das ebenfalls aus DC-Daten extrahiert wurde, zeigen wir unseren Ansatz, um (unseres Wissens) die beste Suchgenauigkeit eines JPEG-Domain-Retrieval-Algorithmus zu erzielen, der andere komprimierte Domain-Methoden übertrifft und eine Leistung nahe der besten erreicht Durchführung eines MPEG-7-Deskriptors.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35236-2_32 5ca68d83de6d5d9f80bcdb0428793064;de;;;2.2.;;;Ein-Klassen-Klassifizierung von Textdokumenten mit OCSVM und LSI In diesem Beitrag schlagen wir einen neuartigen Ein-Klassen-Klassifikationsansatz für die Textdokumentklassifizierung vor, der eine One-Class Support Vector Machine (OCSVM) und Latent Semantic Indexing (LSI) im Tandem verwendet. Zuerst wenden wir die t-statistikbasierte Merkmalsauswahl auf den Textkorpus an. Dann wenden wir OCSVM auf die Zeilen an, die der negativen Klasse der Dokumenttermmatrix einer Sammlung von Textdokumenten entsprechen, und extrahieren die Support Vectors (SV). In der Testphase verwenden wir dann LSI für die Abfragedokumente der positiven Klasse, um sie mit den SVs zu vergleichen, die aus der negativen Klasse extrahiert wurden, und der Match-Score wird unter Verwendung des Cosinus-Ähnlichkeitsmaßes berechnet. Dann klassifizieren wir basierend auf einem vordefinierten Schwellenwert für den Match-Score die positive Kategorie des Textkorpus. Die Verwendung von SV zum Vergleich reduziert die Rechenlast, die den Hauptbeitrag der Arbeit darstellt. Wir haben die Wirksamkeit unseres Ansatzes an den Datensätzen zu Phishing und der Sentimentanalyse in einer Bank demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-3174-8_50 5524896f1fcbaf7a7d76b0d7fb5a51cf;de;;;2.2.;;;Eine geometrische Methode zur Auswahl von Keyframes, die die dominante Bewegungsschätzung in Videos nutzt Wir beschreiben eine originelle Methode zum Auswählen von Schlüsselbildern, um den Inhalt jeder Aufnahme in einem Video darzustellen. Unser Ziel ist es, die Abdeckung der in jeder Aufnahme betrachteten Szene auf eine einheitliche Weise räumlich abzutasten. Unser Verfahren nutzt die Berechnung der dominanten Bildbewegung (von der angenommen wird, dass sie auf die Kamerabewegung zurückzuführen ist) und beruht hauptsächlich auf geometrischen Eigenschaften, die sich auf den inkrementellen Beitrag eines Frames in der betrachteten Aufnahme beziehen. Wir präsentieren auch eine Verfeinerung des vorgeschlagenen Verfahrens, um eine genauere Darstellung der Szene zu erhalten, jedoch auf Kosten einer höheren Rechenzeit, indem wir die iterative Minimierung einer geeigneten Energiefunktion berücksichtigen. Wir berichten über experimentelle Ergebnisse zu Sportvideos und Dokumentationen, die die Genauigkeit und Effizienz des vorgeschlagenen Ansatzes demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27814-6_50 dc80a0d5b51f384ef1d22dc5835cd5af;de;;;2.2.;;;MBlab: Labor für molekulare Biodiversität Technologien in verfügbaren biomedizinischen Repositorien bieten noch keine angemessenen Mechanismen, um das Verständnis und die Analyse der gespeicherten Inhalte zu unterstützen. In diesem Projekt untersuchen wir dieses Problem unter verschiedenen Perspektiven. Unser Beitrag ist das Design computergestützter Lösungen zur Analyse biomedizinischer Dokumente und Bilder. Diese integrieren ausgereifte Technologien und innovative Ansätze der Informationsextraktion, des Data Mining und des maschinellen Lernens, um beschreibende Aufgaben der Wissensentdeckung aus biomedizinischen Repositorien durchzuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27302-5_18 b355af1c1be1e6c09b4db130e9c7582f;de;;;2.2.;;;Unbestimmtheit von Gleichgewichten und Makroökonomie Der Artikel gibt einen Überblick über Ergebnisse zur Unbestimmtheit von Gleichgewichten in zwei Erweiterungen des Standardmodells (Pfeil-Debreu) ​​des allgemeinen Gleichgewichts. Diese durch makroökonomische Interpretationen motivierten Erweiterungen betreffen Geld- und Preisrigiditäten. Bei einer natürlichen Erweiterung des Geldes (zu Transaktionszwecken gehalten) ist die Variabilität der Inflationsraten im Gleichgewichtszustand unbegrenzt, wenn die Geldpolitik entweder die Nominalzinssätze oder die Geldmenge festlegt (aber nicht beides). Ohne anfängliche nominale Vermögenspositionen ist die Unbestimmtheit der Inflationsraten im Rahmen der vollständigen Märkte von Arrow-Debreu harmlos. Wenn einige relative Preise vorherbestimmt sind, existiert im Allgemeinen ein Kontinuum realer Gleichgewichte, die durch den Gesamtrationierungsgrad indiziert sind. In einem Modell, das Geld- und Nominalpreisrigiditäten kombiniert, begrenzen die fixen Nominalpreise die Unbestimmtheit der Inflationsraten, aber die reale Unbestimmtheit ersetzt. Wenn man zusätzlich einen Tâtonnement-Prozess der nominalen Preisbildung einführt, der einige nach unten gerichtete nominale Rigiditäten beinhaltet, können sowohl die nominale als auch die reale Unbestimmtheit (durch die Anfangsbedingungen) im Rahmen der vollständigen Märkte beseitigt werden. Es wird argumentiert, dass makroökonomische Interpretationen einen unvollständigen Marktrahmen erfordern, also Erwartungen, eine weitere Quelle der Unbestimmtheit. Ein abschließender Abschnitt bietet einige heuristische Bemerkungen zu den offenen Problemen im Zusammenhang mit Marktunvollständigkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-56131-3_2 dc8c24fdce712daf0265197d53377b2d;de;;;2.2.;;;Unterschiedliche apoptotische Aktivität und p21 Serratierte Adenome (SAs), die ein breites Spektrum von Läsionen umfassen, können grob in zwei Subtypen unterteilt werden: Typ I, eng nachahmende hyperplastische Polypen (HPs) und Typ II, eindeutiger adenomatöser Tumor. Unsere vorläufigen Ergebnisse zeigten klinisch-pathologische Unterschiede zwischen ihnen. Die vorliegende Studie wurde durchgeführt, um die apoptotische Aktivität und Expression der Zellzyklus-Regulatorproteine ​​p21 . zu untersuchen;-;-;-;https://link.springer.com/article/10.1007/s00432-003-0478-y fcfed9a9fe13cd61053e67c6e65607ea;de;;;2.2.;;;Binäre Erweiterungen von S1S und die Kompositionsmethode Die Untersuchung der Entscheidbarkeit des sogenannten sequentiellen Kalküls S1S ruft zwei Techniken ins Spiel, die Werkzeuge aus dem Herzen der Logik und Informatik verwenden: Büchi-Automaten auf unendlichen Wörtern [1] und Shelahs Kompositionsmethode [10]. In dieser Arbeit setzen wir die von Thomas in [14] begonnene Linie fort und vergleichen die Entscheidbarkeitsbeweise für S1S auch in einem Fall, in dem die Grundausstattung interpretierter Prädikate nicht auf < beschränkt ist, sondern um einen binären Operator erweitert wird. Insbesondere skizzieren wir, wie die Kompositionsmethode erfolgreich angewendet werden kann, um einen alternativen Beweis für die Entscheidbarkeit der richtigen Erweiterung von S1S mit dem binären Prädikat zu liefern;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39910-0_27 6c26931788ab434029acb7835ddcb536;de;;;2.2.;;;Die Korrelation von P-Center-Anpassungen mit artikulatorischen und akustischen Ereignissen Um artikulatorische Modelle der Lage des Wahrnehmungszentrums (P-Zentrum) zu bewerten, führten Hörer Wahrnehmungsanpassungen an Reizen durch, die aus einem Korpus artikulatorischer Daten extrahiert wurden. Um Streaming-Effekte zu vermeiden, wurden die Stimuli nicht bearbeitet, um eine zeitliche Variation zu erhalten, sondern variierten in Stress und segmentalen Inhalten. Die Anpassungen wurden hinsichtlich ihrer Gleichzeitigkeit mit akustischen und artikulatorischen Ereignissen bewertet. Das erste Experiment ergab verschiedene artikulatorische und akustische Korrelate der Position des P-Zentrums, das zweite ergab verschiedene artikulatorische Prädiktoren und keine akustisch wirksamen Prädiktoren. Mehrere Korrelationsanalysen zeigten eine Abweichung von den P-Zentren-Positionen, die durch die artikulatorischen Ereignisse vorhergesagt wurden, die mit anderen Prädiktoren verbunden waren. Somit entsprechen die Positionen des P-Zentrums keinem bestimmten kinematischen Artikulationsereignis, sondern eher einem Komplex von Ereignissen, die aus allen Stimuli entnommen werden. Diese Ergebnisse werden hinsichtlich ihrer Relevanz für ein Modell von P-Zentren als Indizes für das zugrunde liegende gestische Timing diskutiert.;-;-;-;https://link.springer.com/article/10.3758/BF03206736 c61ae6e2c84b9dcb84eaa449fd1d3f21;de;;;2.2.;;;Die Verwendung der magnetischen Kernresonanzspektroskopie von Kohlenstoff-13 in der Naturstoffchemie Seit Ende der 1950er Jahre, als Proton n. m. R. Die Spektroskopie wurde erstmals bei der Untersuchung organischer Naturstoffe eingesetzt. Die Technik hat zunehmend zum schnellen Fortschritt dieses wichtigen Gebiets der Chemie beigetragen. Obwohl der potenzielle Nutzen von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-3265-4_1 8edb23eb5a3bc68b39cd9f08c597b050;de;;;2.2.;;;Permutationszeichen unter der Robinson-Schensted-Korrespondenz Wir zeigen, wie aus den durch die Permutation induzierten Tableaus unter der Robinson-Schensted-Korrespondenz das Vorzeichen einer Permutation abgeleitet werden kann. Das Ergebnis liefert einen einfachen Beweis für eine kürzlich von Stanley aufgestellte Vermutung über die Quadrate von Ungleichgewichten.;-;-;-;https://link.springer.com/article/10.1007/s00026-004-0208-4 fe0876f31d5fc21339caab3737e5f37c;de;;;2.2.;;;Verwaltung von Sensordaten zum Stadtverkehr Sensordaten zu Verkehrsereignissen haben vielfältige Forschungsfragen im Zusammenhang mit den sogenannten ITS (Intelligent Transportation Systems) ausgelöst. Es werden Daten sowohl für statische (feste) als auch mobile (einschiffende) Sensoren geliefert, wodurch große und komplexe räumlich-zeitliche Reihen generiert werden. Die Forschungsanstrengungen im Umgang mit diesen Daten reichen von Mustervergleichs- und Data-Mining-Techniken (für Vorhersagen und Trendanalysen) bis hin zur Arbeit an Datenbankabfragen (z. B. zum Konstruieren von Szenarien). Die Arbeit an eingeschifften Sensoren befasst sich auch mit Fragen zu Flugbahnen und bewegten Objekten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87991-6_45 3483fddc546819764c9efa981c175392;de;;;2.2.;;;Clustering von Textdokumenten mit Kernel Possibilistic C-Means Text Document Clustering ist eines der klassischen Themen im Text Mining, das Textdokumente auf unbeaufsichtigte Weise gruppiert. Es stehen verschiedene Clustering-Techniken zum Clustern von Textdokumenten zur Verfügung. Fuzzy C-Means (FCM) ist einer der beliebtesten Fuzzy-Clustering-Algorithmen. Leider ist der Fuzzy-C-Means-Algorithmus zu empfindlich gegenüber Rauschen. Possibilistic C-Means überwindet diesen Nachteil, indem es die Wahrscheinlichkeitsbeschränkung der Zugehörigkeitsfunktion aufhebt. In diesem Papier haben wir eine Kernel Possibilistic C-Means (KPCM)-Methode für das Clustering von Textdokumenten vorgeschlagen. Im Gegensatz zum klassischen possibilistischen C-Means-Algorithmus verwendet das vorgeschlagene Verfahren die Kernel-Distanzmetrik, um den Abstand zwischen dem Clusterzentrum und dem Textdokument zu berechnen. Wir haben den Standard-20NewsGroups-Datensatz für Experimente verwendet und einen Vergleich zwischen der vorgeschlagenen Methode (KPCM), Fuzzy C-Means, Kernel Fuzzy C-Means und Possibilistic C-Means durchgeführt. Die experimentellen Ergebnisse zeigen, dass das Kernel Possibilistic C-Means die anderen Methoden in Bezug auf die Genauigkeit übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-5146-3_13 d57919e2f4c79feadc2e8a64138582d6;de;;;2.2.;;;Inkrementelle Symbolverarbeitung Dieses Papier stellt ein neuartiges Entity-Relational-Modell für die inkrementelle Symbolverarbeitung vor. Dieses Modell bildet die Grundlage für die Generierung effizienter Symbolverarbeitungsmechanismen aus deklarativen Spezifikationen und Abfrageausdrücken auf hoher Ebene unter Verwendung von Programmtransformationstechniken wie Datentypverfeinerung.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-51364-7_2 1d886e1b5407361d13ecbabda589d919;de;;;2.2.;;;Das Vorhandensein von Wassermasern in farbselektierten IRAS-Quellen Eder, Lewis und Terzian (1987) untersuchten ~ 400 Quellen aus dem IRAS-Punktquellenkatalog mit Farben, die für OH/IR-Sterne geeignet sind, auf das Vorhandensein von 1612 MHz-Emission. Wir haben einen Teil dieser Objekte in Effelsberg auf das Vorhandensein von Wasser-Maser-Emissionen untersucht. In Quellen mit |b;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-0865-9_148 48f49c238aab940a8d9f1e35b016587f;de;;;2.2.;;;Den am besten befahrbaren Weg in Straßennetzen finden Die Eingabe für das MNP-Problem (Most Navigable Path) besteht aus Folgendem: (a) einem Straßennetz, dargestellt als gerichteter Graph, wobei jede Kante mit numerischen Kostenattributen und „Navigability Score“-Werten assoziiert ist, (b) einer Quelle ein Ziel und (c) einen Budgetwert, der die maximal zulässigen Kosten der Lösung bezeichnet. Ausgehend von den Eingaben zielt MNP darauf ab, einen Pfad zwischen der Quelle und dem Ziel zu bestimmen, der die Navigationsfähigkeitsbewertung maximiert und gleichzeitig die Kosten auf den gegebenen Budgetwert beschränkt. Das Problem kann als Lichtbogenorientierungsproblem modelliert werden, das als NP-hart bekannt ist. Der gegenwärtige Stand der Technik für dieses Problem kann Pfade mit Schleifen erzeugen, und seine Anpassung für MNP, die einfache Pfade ergibt, hat sich als ineffizient erwiesen. In diesem Beitrag schlagen wir fünf neuartige Algorithmen für das MNP-Problem vor. Unsere Algorithmen berechnen zuerst einen Seed-Pfad von der Quelle zum Ziel und ändern dann den Seed-Pfad, um seine Navigierbarkeit zu verbessern. Wir untersuchen zwei Ansätze, um den Seed-Pfad zu berechnen. Zur Modifikation des Seed-Pfads untersuchen wir verschiedene Ansätze auf Basis der dynamischen Programmierung. Wir schlagen auch eine Indexierungsstruktur für das MNP-Problem vor, die dabei hilft, die Laufzeit einiger unserer Algorithmen zu reduzieren. Unsere experimentellen Ergebnisse zeigen, dass die vorgeschlagenen Lösungen vergleichbare oder bessere Lösungen liefern, während sie für große reale Straßennetze um Größenordnungen schneller sind als der aktuelle Stand der Technik.;-;-;-;https://link.springer.com/article/10.1007/s10707-020-00428-5 3d9d5606feded800d02cde0db8a04dfc;de;;;2.2.;;;Evolution in der digitalen Audiotechnologie Das Replizieren von Musikinstrumenten ist ein klassisches Problem in der Computermusik. Eine systematische Sammlung von Instrumentendesigns für jede der wichtigsten Synthesemethoden ist seit langem das Eldorado der Computermusik-Community. Hier ist, was James Moorer, der bahnbrechende Computermusikforscher an der Stanford University und späterer Leiter des Audioprojekts bei Lucasfilm, dazu sagte (Roads 1982):;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84628-600-1_3 91694296d0b4b14ccd436844baf99864;de;;;2.2.;;;Effiziente bildsequentielle Etikettenausbreitung für die Segmentierung von Videoobjekten In dieser Arbeit stellen wir einen Ansatz zur Segmentierung von Objekten in Videos vor, die in komplexen Szenen aufgenommen wurden. Es verbreitet die anfängliche Objektkennzeichnung durch das gesamte Video in einer bildsequentiellen Weise, wobei die anfängliche Kennung normalerweise vom Benutzer gegeben wird. Das vorgeschlagene Verfahren hat mehrere Beiträge, die die Ausbreitung viel robuster und genauer als andere Verfahren machen. Zuerst wird ein neuer überwachter Bewegungsschätzungsalgorithmus zwischen jedem Paar benachbarter Rahmen verwendet, durch den ein vorhergesagtes Formmodell verzerrt werden kann, um die ähnliche Farbe um die Objektgrenze herum zu segmentieren. Zweitens entwickeln wir im Gegensatz zu früheren Methoden mit festem Modellierungsbereich ein neuartiges bereichsadaptives Erscheinungsbildmodell, um das schwierige Problem der Okklusion zu bewältigen. Schließlich bietet das Papier einen vernünftigen Rahmen, der auf dem GraphCut-Algorithmus basiert, um die endgültige Beschriftung des Objekts zu erhalten, indem die Hinweise aus Aussehen und Bewegung kombiniert werden. In den Experimenten wird der vorgeschlagene Ansatz mit einigen neueren Methoden qualitativ und quantitativ bewertet, um zu zeigen, dass er bei mehreren Videos aus Benchmark-Datensätzen State-of-Art-Ergebnisse erzielt.;-;-;-;https://link.springer.com/article/10.1007/s11042-017-4520-5 653026594bcbc791b6d449398cef3dcc;de;;;2.2.;;;Unbestimmte Zugfolge in chinesischen Schachendspielen Im westlichen Schach wurde die retrograde Analyse erfolgreich angewendet, um 6-teilige Endspieldatenbanken zu erstellen. Dieser klassische Algorithmus bestimmt zuerst alle Endgewinn- oder -verlustpositionen, d. h. diejenigen, die entweder Schachmatt oder Patt sind, und propagiert dann die Werte an ihre Vorgänger zurück, bis keine weitere Propagation mehr möglich ist. Die nicht propagierten Positionen werden dann als Unentschieden deklariert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-40031-8_18 d2a496e9e68442ff200235d2726227a1;de;;;2.2.;;;Periodischer String-Vergleich In unserer vorherigen Arbeit haben wir das Konzept des semilokalen Stringvergleichs eingeführt und dafür eine effiziente Methode namens Algenalgorithmus entwickelt. In der aktuellen Arbeit stellen wir seine Erweiterung vor, die als periodischer Algenalgorithmus bezeichnet wird. Der neue Algorithmus ermöglicht eine effiziente Nutzung der periodischen Struktur in einem der Eingabestrings. Durch Anwendung des periodischen Algenalgorithmus erhalten wir neue Algorithmen für das Tandem-LCS-Problem und das Tandem-Cyclic-Alignment-Problem, die bestehende Algorithmen zur Laufzeit verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02441-2_18 9ee93839ef855379bd88c846fe046754;de;;;2.2.;;;Wachstumsparameter im epiphysären Knorpel brachymorpher (bm/bm) Mäuse Wir untersuchten die Kinetik im epiphysären Knorpel der brachymorphen (bm/bm) Maus, indem wir Morphometrie und Markierung mit halogenierten Nukleotiden kombinierten. Die fehlerhafte Synthese des Sulfatdonors PAPS in diesen homozygoten Mutanten ist in Geweben mit einer großen Produktion von Glykosaminoglykanen offensichtlich, diese Verbindungen werden untersulfatiert. Im Vergleich zu ihren heterozygoten Geschwistern war das Längenwachstum der mutierten Mäuse um zwei Drittel reduziert. Dies war hauptsächlich mit (1) einer verringerten Höhe der proliferierenden Zone, (2) einer beträchtlichen Anzahl von G0-Zellen in dieser Zone und (3) einer verringerten Hypertrophie verbunden, die wiederum mit einer vorzeitigen Mineralisierung und Verhinderung einer normalen Expansion zusammenhängen könnte von Zellen. Es wurden keine signifikanten Auswirkungen auf die Zellzyklusparameter, wie die S-Phasenzeit oder die Zellzykluszeit, festgestellt, und die Rate, mit der jede Zelle das Matrixvolumen erhöhte, schien normal zu sein. Ein Effekt auf die Matrixmineralisierung kann mit bekannten Veränderungen in der Struktur von Matrix-PGs zusammenhängen, wohingegen der Effekt auf die Proliferation mit anderen Faktoren zusammenhängen kann. Kandidaten für solche anderen Effekte der Untersulfatierung sind die Zelloberflächen-PGs, die für die Bindung von Wachstumsfaktoren wichtig sind.;-;-;-;https://link.springer.com/article/10.1007/s002230010073 70aa7da415fbac744ad4fbe8301ec519;de;;;2.2.;;;Eine vorläufige Doppelblindstudie mit intravenös verabreichtem Nitroglycerin bei akutem Myokardinfarkt Es wurde eine vorläufige doppelblinde, placebokontrollierte Studie zu den Auswirkungen einer 48-stündigen intravenösen Infusion von Nitroglycerin (NG) bei 140 Patienten mit akutem Myokardinfarkt durchgeführt. Die Patienten wurden innerhalb von 12 Stunden nach Auftreten der Symptome randomisiert einer Placebo- oder einer aktiven Behandlung zugeteilt. Die mit Nitroglycerin behandelten Patienten zeigten an beiden Tagen eine signifikante Verringerung des systolischen Blutdrucks, der Hämoglobinkonzentration und des gepackten Zellvolumens. Auch der Diamorphinkonsum war in den ersten 24 Stunden signifikant reduziert. Es gab eine höhere Inzidenz (nicht signifikant) von Herzrhythmusstörungen in der Placebo-Gruppe trotz einer verstärkten Anwendung einer antirhythmischen Therapie. Die Sterblichkeitsrate in der Placebogruppe betrug 13 % und in der Verumgruppe 7,8 %, aber dieser Unterschied war nicht signifikant. Bei der Nachuntersuchung nach 3 Monaten konnten 83 % der behandelten Patienten im Gegensatz zu 60 % der Placebo-Gruppe normale oder nahezu normale Aktivitäten wieder aufnehmen. Vorläufige Ergebnisse deuten darauf hin, dass intravenöse NG eine nützliche Behandlung für Patienten mit akutem Myokardinfarkt sein könnte, und eine größere Studie ist gerechtfertigt.;-;-;-;https://link.springer.com/article/10.1007/BF00259434 4bb7624c21e32ec3746cfe5d22ee13a4;de;;;2.2.;;;Effiziente Proof-Codierung Diese Arbeit schlägt eine Methode vor, um die Beweise der Lernbeispiele auf effiziente Weise zu speichern. FOIL-ähnliche Top-Down-Lerner speichern normalerweise die berechneten Antworten einer teilweise induzierten Klausel als eine Reihe von Grundsubstitutionen. Die Notwendigkeit der Neuberechnung des Wurzelteils des SLDNF-Baums wird auf diese Weise reduziert, aber der Ansatz ist platzineffizient, wenn die Literale in der Klausel unbestimmt sind. Wir führen eine schwache syntaktische Sprachverzerrung ein, die den Hypothesenraum praktisch nicht einschränkt. Darüber hinaus präsentieren wir ein Proof-Encoding-Schema, das eine maschenartige Datenstruktur verwendet, die die Eigenschaften dieser Verzerrung nutzt, um die berechneten Antworten effizient zu speichern. Wir zeigen, dass eine solche Codierung höchstens linear mit der Klausellänge wächst. Das Ergebnis wird nicht durch das Vorhandensein von Nichtdeterminismus im Hintergrundwissen beeinflusst.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-63494-0_62 b43637516a01962498969c3c73616d30;de;;;2.2.;;;Ein latentes Themenmodell mit mehreren Sammlungen für die föderierte Suche Die Sammlungsauswahl ist eine entscheidende Funktion, die für die Effektivität und Effizienz eines föderierten Informationsabrufsystems von zentraler Bedeutung ist. Für die Sammlungsauswahl wurde eine Vielzahl von Lösungen vorgeschlagen, die bewährte Techniken adaptieren, die beim zentralisierten Abruf verwendet werden. Dieses Papier definiert einen neuen Ansatz zur Sammlungsauswahl, der die Themenverteilung in jeder Sammlung modelliert. Wir beschreiben eine erweiterte Version der latenten Dirichlet-Zuordnung, die einen hierarchischen Hyperprior verwendet, um die Modellierung der verschiedenen thematischen Verteilungen in jeder Sammlung zu ermöglichen. Im Modell werden Ressourcen basierend auf der thematischen Beziehung zwischen Abfrage und Sammlung eingestuft. Durch die Modellierung von Sammlungen in einem niedrigdimensionalen Themenraum können wir implizit deren begriffsbasierte Charakterisierung mit geeigneten Begriffen aus thematisch verwandten Stichproben glätten und damit das Problem des fehlenden Vokabulars in den Stichproben lösen. Ein wichtiger Vorteil der Übernahme dieses hierarchischen Modells gegenüber aktuellen Ansätzen besteht darin, dass sich das Modell bei kleinen Stichproben jeder Sammlung gut auf unsichtbare Dokumente verallgemeinern lässt. Die latente Struktur jeder Sammlung kann daher trotz unvollständiger Informationen für jede Sammlung, wie z. B. Stichprobendokumente, die durch abfragebasiertes Sampling gewonnen wurden, gut geschätzt werden. Experimente zeigen, dass dieses neue, vollständig integrierte thematische Modell robuster ist als aktuelle Sammlungsauswahlalgorithmen.;-;-;-;https://link.springer.com/article/10.1007/s10791-010-9147-3 b09c82bb32543a09f637ea6a6c1477f6;de;;;2.2.;;;Aktivieren von Joins über Cassandra NoSQL-Datenbanken In den letzten Jahren erleben wir eine explosionsartige Entwicklung von Datenmanagementlösungen für Big-Data-Anwendungen. In dieser Richtung bieten NoSQL-Datenbanken neue Möglichkeiten, indem sie elastische Skalierung, Fehlertoleranz, Hochverfügbarkeit und Schemaflexibilität ermöglichen. Trotz dieser Vorteile stellen ihre Einschränkungen in der Flexibilität der Abfragemechanismen eine echte Barriere für jede Anwendung dar, die keine vordefinierten Zugriffsanwendungsfälle hat. Einer der Hauptgründe für diesen Engpass ist, dass NoSQL-Datenbanken Joins nicht direkt unterstützen. In diesem Whitepaper schlagen wir eine Datenverwaltungslösung vor, die ursprünglich für eHealth-Umgebungen entwickelt wurde, auf NoSQL Cassandra-Datenbanken basiert und Joins effizient unterstützt, ohne dass Einrichtungszeit erforderlich ist. Genauer gesagt präsentieren wir ein Abfrageoptimierungs- und Ausführungsmodul, das zur Laufzeit auf jedem Cassandra-Cluster platziert werden kann und Informationen aus verschiedenen Spaltenfamilien effizient kombiniert. Unser Optimierer schreibt Eingabeabfragen in Abfragen für einzelne Spaltenfamilien um und berücksichtigt zwei Join-Algorithmen, die für die effiziente Ausführung der angeforderten Joins implementiert sind. Unsere Bewertung zeigt die Machbarkeit unserer Lösung und die gewonnenen Vorteile gegenüber der derzeit einzigen von DataStax verfügbaren Lösung. Nach unserem besten Wissen ist unser Ansatz die erste und einzige verfügbare Open-Source-Lösung, die Joins über NoSQL Cassandra-Datenbanken ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-27355-2_1 e70a535605e86fb65fa284a0796b7a35;de;;;2.2.;;;Ein neuartiger SNP der PCR-Einzelstrang-Konformationspolymorphismus mit niedriger Ionenstärke (PCR-LIS-SSCP) und DNA-Sequenzierungsmethoden wurden verwendet, um die Polymorphismen innerhalb der kodierenden Region von Rindern zu analysieren;-;-;-;https://link.springer.com/article/10.1007/s11033-010-0080-8 1cf082989ce942e2f447a9a2dbabfdc1;de;;;2.2.;;;Skalierbare Erkennung von Cyber-Angriffen Angreifer können Schwachstellen ausnutzen, um schrittweise in ein Netzwerk einzudringen und kritische Systeme zu kompromittieren. Die enorme Menge an Sicherheitsrohdaten, die Analysten zur Verfügung stehen, und die komplexen Abhängigkeiten zwischen den Schwachstellen machen die manuelle Analyse extrem arbeitsintensiv und fehleranfällig. Um dieses wichtige Problem anzugehen, bauen wir auf früheren Arbeiten zur topologischen Schwachstellenanalyse auf und schlagen ein automatisiertes Framework vor, um sehr große Angriffsgraphen zu verwalten und große Mengen eingehender Warnungen in Echtzeit auf das Auftreten bekannter Angriffsmuster zu überwachen. Insbesondere schlagen wir (i) eine Datenstruktur vor, die mehrere Angriffsgraphen zusammenführt und die gleichzeitige Überwachung mehrerer Angriffsarten ermöglicht, (ii) eine Indexstruktur, die Millionen von Warnungen mit Zeitstempel effektiv indizieren kann, (iii) einen Echtzeit-Algorithmus die einen kontinuierlichen Strom von Warnungen verarbeiten, den Index aktualisieren und Angriffsereignisse erkennen können. Wir zeigen, dass die vorgeschlagene Lösung den Stand der Technik bei der Erkennung von Cyber-Angriffen deutlich verbessert und eine Echtzeit-Angriffserkennung ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27245-5_4 168f0eb6087d685c364bfb15a07cc71d;de;;;2.2.;;;AFS-basierte formale Konzeptanalyse innerhalb der logischen Beschreibung von Granulaten AFS (Axiomatic Fuzzy Sets)-basiertes formales Konzept ist eine Verallgemeinerung und Weiterentwicklung des klassischen Konzeptgitters und des monotonen Konzepts, das zur Darstellung der logischen Operationen von Abfragen im Information Retrieval angewendet werden kann. Granular Computing ist ein aufstrebendes Studiengebiet, das versucht, Methoden und Heuristiken der menschlichen Problemlösung mit mehreren Granularitäts- und Abstraktionsebenen zu formalisieren und zu erforschen. Das Hauptziel dieses Papiers ist die Untersuchung und Entwicklung eines AFS-basierten formalen Konzepts unter Verwendung von Granularlogiken. Es werden einige verallgemeinerte Formeln des Granular Computing eingeführt, in denen das AFS-basierte formale Konzept bzw. das AFS-basierte formale Konzept des mehrwertigen Kontexts aus dem Blickwinkel des Granular Computing interpretiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32115-3_38 439b7a815b3fc23b9229cf0a5eba9677;de;;;2.2.;;;Verarbeitung von Phasendoppler-Daten Während sich die Signalerkennung auf die Feststellung bezieht, ob sich ein Partikel im Messvolumen befindet oder nicht, wird mit der Validierung entschieden, ob die geschätzten Signalparameter, z. Frequenz, Phasendifferenz, Laufzeit, Ankunftszeit usw. vertrauenswürdig sind. Die Signalerkennung erfolgt online durch den Prozessor und wurde in Abschnitt 6.2 besprochen. Die meisten Signalerkennungsschemata basieren auf Messungen des Signal-Rausch-Verhältnisses;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-05165-8_12 56126ac5ce322201cca747a3177e3363;de;;;2.2.;;;Funktor-Kategorie-Semantik von Programmiersprachen und Logiken Eine kategorietheoretische Technik zur denotational-semantischen Beschreibung von Programmiersprachen wurde kürzlich von J. C. Reynolds und F. J. Oles entwickelt. Die erste Anwendung war eine „abstrakte“ Beschreibung des Stack-orientierten Speichermanagements in Algol 60-ähnlichen Programmiersprachen. Eine neuere Anwendung bestand darin, ein Modell der „Spezifikationslogik“ von Reynolds zu erhalten, das nicht betriebsfähig ist und bestimmte intuitiv wahre Axiome validiert. Diese Anwendung erforderte Ideen aus der Topos-Theorie. Dieses Papier ist eine Einführung in die Reynolds-Oles-Technik und ihre Anwendungen. Ein neues Merkmal der Präsentation ist die systematische Verwendung von Analoga zu konventionellen Domänenkonstruktionen in Funktorkategorien.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-17162-2_124 53c6ed0a834efda90f4df6a5f8885653;de;;;2.2.;;;NOVA: Ein neuartiges und effizientes Framework zum Finden von Subgraph-Isomorphismus-Abbildungen in großen Graphen Es wurden beträchtliche Anstrengungen unternommen, um das Untergraphenproblem zu untersuchen. Bei der herkömmlichen Abfrage zur Eindämmung von Untergraphen werden alle Datenbankgraphen abgerufen, die den Abfragegraphen enthalten;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12026-8_13 7e4d2d7d8a0bb76d8fe0d58a7951c4a8;de;;;2.2.;;;Singuläre hermitesche Metriken für positive Leitungsbündel Der Begriff einer singulären hermiteschen Metrik auf einem holomorphen Linienbündel wird als Werkzeug zum Studium verschiedener algebraischer Fragen eingeführt. Eines der Hauptinteressen solcher Metriken ist die entsprechende L;-;-;-;https://link.springer.com/chapter/10.1007/BFb0094512 3c3e181acfdeae6413409ffab67d7f70;de;;;2.2.;;;Rekonstruktion des ER-Schemas aus Datenbankanwendungen: ein kognitiver Ansatz In der Forward-Engineering-Phase modifiziert der Designer das konzeptionelle Datenbankschema und erstellt ein logisches und physisches Schema, das einige „falsche“ Beziehungen enthält, die durch Designtricks und die Einschränkungen des DBMS diktiert werden. Daher ist der Wiederaufbau des konzeptionellen Datenbankschemas aus der physischen Datenbankstruktur ein grundlegendes Problem bei den Re-Engineering- und Design-Recovery-Prozessen. Einige vorgeschlagene Methoden versuchen, die notwendigen Informationen aus dem Schema und dem Inhalt der Datenbank zu erhalten, wobei der Analyse der Verwendung der Daten durch die Programme wenig Aufmerksamkeit geschenkt wird, obwohl dies als die zuverlässigste Informationsquelle angesehen werden kann. In diesem Beitrag stellen wir einen Ansatz für das Reverse Engineering vor, der auf der Identifizierung von Schema, Primärschlüssel, SQL und prozeduralen Indikatoren basiert, die zur Behauptung von Prolog-Fakten und nach einigen heuristischen Regeln zum Wiederaufbau des konzeptionellen Schemas führen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-58786-1_92 b52767a41b5de1e00c93c9086aba5ff3;de;;;2.2.;;;AFS-Logik, AFS-Struktur und Kohärenz-Mitgliedschaftsfunktionen In diesem Kapitel beginnen wir mit einer Einführung in die EI-Algebra und die AFS-Struktur. Dann werden die Kohärenzmitgliedsfunktionen von Fuzzy-Konzepten für AFS-Fuzzy-Logik für die AFS-Struktur vorgeschlagen und ein neuer Rahmen zur Bestimmung von Kohärenzmitgliedsfunktionen unter Berücksichtigung sowohl von Unschärfe (subjektive Ungenauigkeit) als auch Zufälligkeit (objektive Unsicherheit) entwickelt. Singpurwallas Maß der Fuzzy-Ereignisse in einem Wahrscheinlichkeitsraum wurde angewendet, um den vorgeschlagenen Rahmen zu untersuchen. Abschließend werden die Konsistenz, Stabilität, Effizienz und Praktikabilität der vorgeschlagenen Methodik anhand verschiedener numerischer Experimente veranschaulicht und untersucht. Die Untersuchungen in diesem Kapitel öffnen eine Tür, um die tiefen statistischen Eigenschaften von Fuzzy-Mengen zu erforschen. In diesem Sinne können sie weitere Einblicke in die Rolle natürlicher Sprachen in der Wahrscheinlichkeitstheorie bieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00402-5_4 e811145356868b068e119dd69fcc1b43;de;;;2.2.;;;Räumlich-zeitliche Analyse der Erdoberflächendeformation durch GPS- und InSAR-Daten Wir präsentieren Technologieelemente für das räumlich-zeitliche Data Mining, das darauf abzielt, natürliche Prozesse anhand von zeitlichen Abläufen zu untersuchen. Die betrachteten Methoden werden auf die Analyse von Erdoberflächendeformationen durch GPS- und InSAR-Messungen von Bodenverschiebungen angewendet. Oftmals beschränkt sich die Untersuchung der Erdverformung auf die Analyse der durchschnittlichen Dehnungsraten. Es wird gezeigt, dass die Einbeziehung der zeitlichen Komponente von GPS-Daten es ermöglicht, den Zusammenhang zwischen Seismizität und Dynamik der Felder der horizontalen Oberflächendeformationen zu finden. Die Berücksichtigung der zeitlichen Komponente von InSAR-Daten ermöglicht die Identifizierung urbaner Landflächen, die sich nicht nur in der Intensität des Verformungsprozesses, sondern auch in der Art ihrer Dynamik unterscheiden. Die betrachteten Methoden sind in GIS GeoTime 3 (http://www.geo.iitp.ru/GT3/) realisiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09144-0_17 fd3217e78ee96912140ebf4d64daff32;de;;;2.2.;;;Transmissionselektronenmikroskopische Untersuchung von gleichzeitig vorhandenem Pyrophyllit und Muskovit: Direkter Beweis für die Metastabilität von Illit Transmissionselektronenmikroskopie wurde verwendet, um koexistierende Pyrophyllit und Muskovit in geringgradigen metamorphosierten Peliten aus Witwatersrand und dem Nordosten von Pennsylvania zu charakterisieren. Die Witwatersrand-Probe bestand größtenteils aus Porphyroblasten aus zwischengeschichteten Muskovit und Pyrophyllit in einer feinkörnigen Matrix der gleichen Phasen. In beiden Texturen traten Muskovit und Pyrophyllit als überlagerte Pakete (mit scheinbar kohärenten Grenzflächen) von etwa 300 Å bis zu einigen Mikrometern Dicke auf, ohne gemischte Schichten. Ihre Zusammensetzungen wurden mit einem Rastertransmissionselektronenmikroskop als;-;-;-;https://link.springer.com/article/10.1346/CCMN.1990.0380301 e87a82a9dbd1325046e7a4e21c915ef0;de;;;2.2.;;;OntoQuad: Natives Hochgeschwindigkeits-RDF-DBMS für Semantic Web In den letzten Jahren haben native RDF-Stores enorme Fortschritte gemacht, um die Leistungslücke gegenüber RDBMS zu schließen. Diese, wenn auch kleinere Lücke, verhindert jedoch immer noch die Einführung von RDF-Speichern in Szenarien mit hohen Anforderungen an die Reaktionsfähigkeit. Wir versuchen, die Lücke zu schließen und präsentieren einen nativen RDF-Store „OntoQuad“ und seine grundlegenden Designprinzipien. Basierend auf früheren Forschungen entwickeln wir ein Vektordatenbankschema für Quadrupel, dessen Umsetzung auf Indexdatenstrukturen und Möglichkeiten, das Zusammenfügen von zwei und mehr Datensätzen gleichzeitig effizient zu implementieren. Wir bieten auch Ansätze zur Optimierung des SPARQL-Abfrageausführungsplans, der auf seinen heuristischen Transformationen basiert. Die Effizienz der Abfrageleistung wird in BSBM-Tests überprüft und nachgewiesen. Die Studienergebnisse können bei der Entwicklung von RDF-DBMS berücksichtigt werden, die sich für die Speicherung großer Mengen von Semantic-Web-Daten sowie für die Erstellung großer Repositories semantischer Daten eignen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41360-5_10 b1f37b1d48dbc2a8c653fadda3219bb5;de;;;2.2.;;;Ein schneller Deskriptor-Matching-Algorithmus für die umfassende Suche in großen Datenbanken Um die beste Übereinstimmung mit einem Abfragebild in einer Datenbank zu finden, benötigen herkömmliche inhaltsbasierte Bildabrufschemata eine erschöpfende Suche, bei der der Deskriptor der Abfrage, z. Der einfache erschöpfende Suchalgorithmus ist jedoch rechenaufwendig. Daher sind schnelle erschöpfende Suchalgorithmen gefragt. Dieser Artikel präsentiert einen schnellen erschöpfenden Suchalgorithmus, der auf einer Multi-Resolution-Deskriptorstruktur und einer normsortierten Datenbank basiert. Zunächst leiten wir eine Bedingung ab, um unnötige Matching-Operationen aus dem Suchverfahren zu entfernen, indem wir eine normsortierte Struktur der Datenbank verwenden. Dann schlagen wir einen schnellen Suchalgorithmus basierend auf der Eliminationsbedingung vor, der eine erschöpfende Suche entweder nach der besten Übereinstimmung oder nach mehreren besten Übereinstimmungen mit einer Abfrage garantiert. Mit einem Luminanzhistogramm als Deskriptor zeigen wir, dass der vorgeschlagene Algorithmus eine Suchgenauigkeit von 100% bei hoher Suchgeschwindigkeit bietet.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45453-5_94 05cdc47f1683810893c1452290a29b5d;de;;;2.2.;;;Iterative Rauschunterdrückung für Cross-Corpus Discovery Discover Wir betrachten das Problem der statistischen Mustererkennung in einem heterogenen, hochdimensionalen Setting. Insbesondere betrachten wir die Suche nach sinnvollen kategorieübergreifenden Assoziationen in einem heterogenen Textdokumentenkorpus. Unser Ansatz beinhaltet „iterative Entrauschung“ – d. h. das iterative Extrahieren von (korpusabhängigen) Merkmalen und das Aufteilen der Dokumentensammlung in Unterkorpora. Wir präsentieren eine Anekdote, in der diese Methodik einen sinnvollen kategorieübergreifenden Zusammenhang in einer heterogenen Sammlung wissenschaftlicher Dokumente entdeckt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-2656-2_31 288aa0c9084768b214811877f9746974;de;;;2.2.;;;Projizieren eines regelmäßigen Gitters auf eine Kugel oder ein Ellipsoid In diesem Beitrag wird eine neue Kartenprojektion vorgestellt, die für die Kartierung von regulären Level-of-Detail-Strukturen wie Quad-Trees, Wavelets oder Lindstrom/ROAM-Triangulationen auf einer kugelförmigen/ellipsoiden Erde gedacht ist. Die Projektion bildet die Quadrate regelmäßiger Strukturen auf nahezu Quadrate auf dem Globus ab, sogar in der Nähe der Pole. Die Projektion liefert einfache Gleichungen, visuell ansprechende Grafikausgaben und funktioniert gut mit vertrauten Algorithmen und Datenstrukturen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-56094-1_25 94ed6eb221e4e4d269149f61174d78c7;de;;;2.2.;;;Bildabrufsystem mit KANSEI-Funktionen Wir haben ein Image Retrieval System entwickelt, das KANSEI-Funktionen (Gefühl oder Sensibilität) verwendet. Dieses System kann das gleiche sinnliche Bild aus einem großen Bildspeicher suchen, ohne Text oder Wort, sondern ein Bild zu verwenden. Daher muss nicht jedes Bild indiziert werden, um den Bildabruf vorzubereiten. Unser System extrahiert die KANSEI-Merkmale aus jedem Bild und legt angemessene Gewichtungen zum Kombinieren dieser Merkmale fest. Um die Gewichte zu bestimmen, führen wir einen neuen Wert namens „Anpassbarkeit“ ein. Es beurteilt, wie stark die Merkmale aus dem Bild extrahiert werden. Als Ergebnis macht es die Anpassungsfähigkeit möglich, ein KANSEI-Modell entsprechend jedem Bild zu konstruieren und Ähnlichkeiten zwischen Bildern zu berechnen.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0095306 ad80f1fb20994bdaaa5974371a6f4991;de;;;2.2.;;;Strukturierung von Ergänzungsmaterialien zur Unterstützung der Reproduzierbarkeit Ergänzungen werden immer wichtiger für die wissenschaftliche Bilanz, insbesondere in der Genomik. Sie werden jedoch oft zu wenig genutzt. Im Optimalfall sollten Ergänzungen Ergebnisse auffindbar, zugänglich, interoperabel und wiederverwendbar machen (d. h. „FAIR“). Darüber hinaus könnte die Lesbarkeit des Haupttextes durch eine ordnungsgemäße Übertragung der Daten und Details in einem Papier an sie verbessert werden. Wir schlagen eine hierarchische Gliederung für Ergänzungen vor, wobei einige Teile den Haupttext parallelisieren und „schatten“ und andere Elemente davon abzweigen, und wir schlagen eine spezielle Formatierung vor, um diese Struktur deutlich zu machen. Darüber hinaus könnten Abschnitte der Beilage in mehreren wissenschaftlichen „Dialekten“ präsentiert werden, einschließlich maschinenlesbarer und laienfreundlicher Formate.;-;-;-;https://link.springer.com/article/10.1186/s13059-017-1205-3 ac409dab8ba3b0c68a8e2421c78760dc;de;;;2.2.;;;Auswahl von Interessenpunkten nach Topologiekohärenz für den Abruf von Bildern mit mehreren Abfragen Obwohl das Bag-of-Visual-Words-(BOVW)-Modell in der Computervision erfolgreich für das Wiederauffinden bestimmter Objekte demonstriert wurde, leidet es unter einer begrenzten Genauigkeit, wenn Bilder desselben Objekts in Bezug auf Blickwinkel oder Maßstab sehr unterschiedlich sind. Die naive Nutzung mehrerer Ansichten desselben Objekts zum Abfragen der Datenbank lindert dieses Problem natürlich bis zu einem gewissen Grad. Der Flaschenhals scheint jedoch das Vorhandensein von Hintergrundechos zu sein, die erhebliche Verwirrung mit Bildern verschiedener Objekte verursachen. Um dieses Problem anzugehen, untersuchen wir die strukturelle Organisation von Interessenpunkten in mehreren Abfragebildern und wählen diejenigen aus, die aus der vorläufigen Region von Interesse (ROI) stammen, um die negativen Beiträge verwirrender Bilder erheblich zu reduzieren. Konkret schlagen wir die Verwendung eines mehrschichtigen ungerichteten Graphenmodells vor, das auf Sätzen von hessischen affinen Interessenpunkten aufgebaut ist, um die elastische räumliche Topologie der Bilder zu modellieren. Wir erkennen sich wiederholende Muster, die eine kohärente lokale Topologie bewahren, zeigen, wie diese Redundanzen genutzt werden, um vorläufige ROIs zu schätzen, und zeigen, wie dieser neuartige Ansatz zur Auswahl von Interessenpunkten die Qualität des visuellen Abgleichs verbessert. Der Ansatz unterscheidet beim Unterscheiden von Störflecken von Interessenpunkten und ist gleichzeitig sehr robust in Bezug auf Variationen im Blickpunkt und Maßstab sowie auf Fehler bei der Erkennung und Beschreibung von Interessenpunkten. Große Datensätze werden für umfangreiche Experimente und Diskussionen verwendet.;-;-;-;https://link.springer.com/article/10.1007/s11042-014-1957-7 b0bc07525ba48a07d0baabb8ad2f31e8;de;;;2.2.;;;Molekülwolken Es wird angenommen, dass alle bekannten Sternentstehungen in Molekülwolken stattfinden. Die Assoziation von Molekülwolken mit Sternentstehung ist so stark, dass man allgemein annimmt, dass man überall dort, wo junge Sterne sind, auch bei gegenteiligen Hinweisen immer molekulares Gas finden kann (z. Krauter 1983). Tatsächlich wird bei ausreichend empfindlichen Beobachtungen die Assoziation der Sternentstehung mit Molekülwolken in allen Umgebungen, galaktisch oder extragalaktisch, beobachtet. Hinweise auf Sternentstehung in Molekülwolken wurden sogar schon z = 4,7 beobachtet (Omont;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4509-1_1 9e3d3dd3829c15aa8aa440b61e5ea91d;de;;;2.2.;;;Klassifizierung und Skimming von Artikeln für ein effektives News-Browsing Um das Nachrichtenvideo effektiv zu durchsuchen, ist die Klassifizierung und das Überfliegen von Nachrichtenartikeln unbedingt erforderlich. In diesem Beitrag schlagen wir die Klassifizierung und das Skimming von Artikeln für ein effektives News-Browsing vor. Die Klassifizierungsmethode verwendet Tags, um Sprecher in den Untertiteln zu unterscheiden. Das Skimming-Verfahren extrahiert den repräsentativen Satz aus dem Teil des Artikels, der durch den Anker in die Untertitel eingefügt wird, und die repräsentativen Rahmen, die aus Ankerrahmen, Untertitelrahmen und mit Hochfrequenztermen synchronisierten Rahmen bestehen. In dem Experiment haben wir die vorgeschlagenen Klassifizierungs- und Skimming-Methoden auf Nachrichtenvideos mit koreanischen Untertiteln angewendet und empirisch bestätigt, dass die vorgeschlagenen Methoden das effektive Durchsuchen von Nachrichtenvideos unterstützen können.;-;-;-;https://link.springer.com/chapter/10.1007/11553939_100 c2b7bac4785205e737b137f17424776e;de;;;2.2.;;;Clustering von Blogs mithilfe von Dokumentkontextähnlichkeit und Spektraldiagrammpartitionierung Semantikbasiertes Dokumenten-Clustering war in den letzten Jahren ein herausforderndes Problem und seine Ausführung hängt von der Modellierung des zugrunde liegenden Inhalts und seiner Ähnlichkeitsmetriken ab. Vorhandene Metriken bewerten paarweise;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25661-5_60 6b8bd0e7ed8ca28b8e3ce8f5cdf14366;de;;;2.2.;;;Ergebnisse und Lektionen des Question Answering Tracks bei CLEF at Der Question Answering Track am CLEF lief 13 Jahre lang, von 2003 bis 2015. In diesen Jahren wurden viele verschiedene Aufgaben, Ressourcen und Evaluationsmethoden entwickelt. Wir teilen die CLEF Question Answering-Kampagnen in vier Abschnitte ein: (1) Nicht gruppierte, hauptsächlich faktische Fragen, die gegen einsprachige Zeitungen gestellt wurden (2003–2006), (2) Gruppierte Fragen, die gegen Zeitungen und Wikipedias gestellt wurden (2007–2008), (3) Nicht gruppierte Fragen gegen mehrsprachige parallel ausgerichtete EU-Rechtsdokumente (2009–2010) und (4) Fragen zu einem einzigen Dokument unter Verwendung einer zugehörigen Dokumentensammlung als Hintergrundinformationen (2011–2015). Wir liefern die Beschreibung und die wichtigsten Ergebnisse für jede dieser Epochen zusammen mit den Pilotübungen und anderen Aufgaben zur Beantwortung von Fragen, die in CLEF ausgeführt wurden. Schließlich schließen wir mit einigen der Lehren, die wir in diesen Jahren gelernt haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-22948-1_18 fcfb52c5a78a30eec881c860e51b123c;de;;;2.2.;;;Kategorisieren von visuellen Inhalten durch Abgleichen von visuellen „Keywords“ In diesem Beitrag schlagen wir eine dreischichtige Architektur zur visuellen Informationsverarbeitung vor, um prägnante nicht-textuelle Beschreibungen aus visuellen Inhalten zu extrahieren. Diese codierten Beschreibungen erfassen sowohl lokale Besonderheiten als auch räumliche Konfigurationen, die in visuellen Inhalten vorhanden sind, über prototypische visuelle Token, die als visuelle „Schlüsselwörter“ bezeichnet werden. Die Kategorisierung von Bildern und Videoaufnahmen, die durch Keyframes dargestellt werden, kann durch Vergleichen ihrer codierten Beschreibungen durchgeführt werden. Wir demonstrieren unsere vorgeschlagene Architektur in der Kategorisierung von Bildern natürlicher Szenen, die Methoden übertrifft, die aggregierte Maße von Merkmalen auf niedriger Ebene verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48762-X_46 0aa9941a2c0d3c93f6f09e356bfb38a0;de;;;2.2.;;;Unterhaltungen nach Thema, Initiative und Stil segmentieren Die Themensegmentierung ist ein grundlegendes Werkzeug für den Informationszugriff auf Audioaufzeichnungen von Besprechungen und andere Arten von Sprachdokumenten, die ziemlich lang sein können und mehrere Themen enthalten. Standardmäßige Segmentierungsalgorithmen basieren typischerweise auf Schlüsselwörtern, Tonhöhenkonturen oder Pausen. Diese Arbeit zeigt, dass Sprecherinitiative und -stil auch als Segmentierungskriterien verwendet werden können. Es wird ein probabilistisches Segmentierungsverfahren vorgestellt, das die Integration und Modellierung dieser Merkmale in einem sauberen Rahmen mit guten Ergebnissen ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45637-6_5 9fcd35202a5e33156a7ac627ee206a80;de;;;2.2.;;;Einfache Gruppen mit niedrigem 2-Rang Mit der Vollendung der Klassifikation einfacher Gruppen mit quasidiedrischen oder umkränzten Sylow-2-Untergruppen (und damit des 2-Rang ≤ 2-Theorems) entwickelte sich eine veritable „Hüttenindustrie“, deren Zweck die Klassifizierung einfacher Gruppen mit Sylow 2-Untergruppe;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-3685-3_3 cf6985cb2047d5cf6d5f30173e7d271a;de;;;2.2.;;;Inhaltsbasierter Bildabruf mit PSO und k-Means-Clustering-Algorithmus In verschiedenen Anwendungsbereichen wie Website, Bildung, Kriminalprävention, Handel und Biomedizin nimmt die Menge an digitalen Daten rasant zu. Das Problem tritt beim Abrufen der Daten von den Speichermedien auf, da einige der bestehenden Verfahren das Abfragebild mit allen Bildern in der Datenbank vergleichen, wodurch der Suchraum bzw. die Rechenkomplexität erhöht wird. Die Methoden des inhaltsbasierten Bildabrufs (CBIR) zielen darauf ab, Bilder aus großen Bilddatenbanken ähnlich dem Abfragebild basierend auf der Ähnlichkeit zwischen Bildmerkmalen genau abzurufen. In dieser Studie wurde eine neue Hybridmethode für das Bildclustering vorgeschlagen, die auf der Kombination der Partikelschwarmoptimierung (PSO) mit k-Means-Clustering-Algorithmen basiert. Es wird als ein vorgeschlagenes CBIR-Verfahren präsentiert, das die Farb- und Texturbilder als visuelle Merkmale verwendet, um die Bilder darzustellen. Das vorgeschlagene Verfahren basiert auf vier Merkmalsextraktionen zum Messen der Ähnlichkeit, nämlich Farbhistogramm, Farbmoment, Ko-Auftrittsmatrizen und Wavelet-Moment. Die experimentellen Ergebnisse haben gezeigt, dass das vorgeschlagene System im Vergleich zu den anderen Systemen hinsichtlich der Genauigkeit eine überlegene Leistung aufweist.;-;-;-;https://link.springer.com/article/10.1007/s12517-014-1584-7 7e9ce7ed0615dd50af63ff5ea2315bdb;de;;;2.2.;;;Budgetbeschränkte Ressourcenzuweisung für nicht-deterministische Workflows in einer IaaS-Cloud Viele wissenschaftliche Anwendungen werden durch Workflow-Strukturen beschrieben. Aufgrund der zunehmenden Parallelität moderner Recheninfrastrukturen müssen Workflow-Anwendungen heute nicht nur aus sequentiellen, sondern auch aus parallelen Programmen bestehen. Cloud-Plattformen bieten On-Demand-Ressourcenbereitstellung und ein nutzungsbasiertes Abrechnungsmodell. Dann entspricht die Ausführung eines Workflows einem bestimmten Budget. Die aktuelle Arbeit befasst sich mit dem Problem der Ressourcenallokation für nicht-deterministische Workflows unter Budgetbeschränkungen. Wir präsentieren eine Möglichkeit, das Ausgangsproblem in zuvor untersuchte Teilprobleme umzuwandeln. Wir schlagen zwei neue Allokationsalgorithmen vor, die in der Lage sind, Ressourcenallokationen unter Budgetbeschränkungen zu bestimmen, und stellen Wege vor, sie zur Lösung des vorliegenden Problems zu verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33078-0_14 8851eb5951d028bf245f8426bd03d959;de;;;2.2.;;;Beschleunigen von XML Structural Join durch Partitionierung Structural Join ist der Kernbestandteil von XML-Abfragen und hat einen erheblichen Einfluss auf die Leistung von XML-Abfragen. Es wurden mehrere klassische Structural-Join-Algorithmen vorgeschlagen, wie z;-;-;-;https://link.springer.com/chapter/10.1007/11546924_28 c753d5ad02c2033b7fa9cde563986064;de;;;2.2.;;;Ein kontrollierter Skip-Parser Sätze in natürlicher Sprache aus der realen Welt sind oft lang und komplex und enthalten unerwartete grammatikalische Konstruktionen. Sie beinhalten sogar Rauschen und Ungrammatikalität. Dieser Artikel beschreibt den Controlled Skip Parser, ein Programm, das solche Sätze aus der realen Welt analysiert, indem es einige der Wörter im Satz überspringt. Die neue Funktion dieses Parsers besteht darin, dass er sein Verhalten steuert, indem er herausfindet, welche Wörter übersprungen werden sollen, ohne domänenspezifisches Wissen zu verwenden. Der Parser ist ein prioritätsbasierter Diagrammparser. Durch Zuweisen geeigneter Prioritätsstufen zu den Bestandteilen im Diagramm wird das Verhalten des Parsers gesteuert. Statistische Informationen werden für die Zuweisung von Prioritätsstufen verwendet. Die statistischen Informationen (n-Gramm) können als eine verallgemeinerte Annäherung der aus vergangenen erfolgreichen Erfahrungen gelernten Grammatik betrachtet werden. Der Kontrollmechanismus sorgt für eine große Beschleunigung und Reduzierung der Speichernutzung. Es werden Experimente an echten Zeitungsartikeln gezeigt und unsere Erfahrungen mit diesem Parser in einem maschinellen Übersetzungssystem beschrieben.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008044302570 8d06fb447302cdf1d2121933ae089165;de;;;2.2.;;;Replay-Erkennung in Sportvideosequenzen In vielen Sportarten beschränken sich die meisten Highlights auf relativ kurze Dauer intensiver Aktion. In gewisser Weise erfassen diese Segmente die Essenz eines Spiels und fassen die Momente einer wichtigen Aktion zusammen. Die automatische Erkennung dieser Highlights könnte ein wichtiger Suchmechanismus in einer Videobibliothek von Sportspielen sein. In diesem Beitrag stellen wir effiziente Algorithmen vor, die im MPEG-Bereich arbeiten, um zwei Arten von Wiederholungen von Sportvideosequenzen zu erkennen. Diese Replays entsprechen oft Highlights in einem Spiel und können als Indizes eines Sportvideos verwendet werden. Der erste Algorithmus erkennt exakte Wiederholungen, während der zweite Algorithmus Zeitlupen-Wiederholungen erkennt. Beide Algorithmen arbeiten direkt mit MPEG-1/MPEG-2-Videodaten und sind daher sehr effizient, da die teure Decodierung entfällt. Experimentelle Ergebnisse an mehreren Videosequenzen zeigen, dass die vorgeschlagenen Algorithmen bei der Erkennung von Wiederholungen in den meisten Sportvideosequenzen effektiv sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-6771-7_2 dd100ea8de74ca56dfd0d38db51fe76d;de;;;2.2.;;;Ein ungefährer Abruf unsicherer Daten in Datenquellen Es ist ein sehr wichtiges Thema, ein ungefähres Abrufmodell von Materialdatenquellen mit unsicherem Inhalt zu erstellen. Basierend auf der groben relationalen Datenbanktheorie wurde das approximative Retrievalmodell von Materialdatenquellen mit unvollständiger interner Struktur untersucht. Die Adjazenzliste wurde verwendet, um Äquivalenzklassen zu speichern. Entsprechend der Hamming-Distanz wurde der Index der unsicheren Daten in unvollständigen Materialdatenquellen erstellt. Basierend auf den Äquivalenzklassen wurde ein Ansatz zur Berechnung der Ähnlichkeit zwischen zwei Sets eingeführt. Entsprechend der Ähnlichkeit wurde ein Algorithmus zum Abrufen unsicherer Daten in den Materialdatenquellen vorgestellt. Schließlich wurde ein reales Beispiel veranschaulicht und es wird gezeigt, dass der vorgeschlagene Algorithmus nützlich und effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23777-5_62 48039231bab621c5359f5a30b51be252;de;;;2.2.;;;Ausgeschlossener Mittelwald versus Aussichtspunktbaum: Ein analytischer und empirischer Vergleich Ein kritisches Leistungsproblem beim Durchsuchen von entfernungsbasierten Indizierungsbäumen besteht darin, dass üblicherweise mehrere Knoten oder Datenpartitionen auf jeder Ebene des Baums weiter untersucht werden müssen. Als Ergebnis ist eine logarithmische Suchzeit gewöhnlich nicht erreichbar. Um dieses Problem zu lösen, erstellt der ausgeschlossene mittlere Wald einen Baum für jede abzusteigende Datenpartition, so dass für jeden Baum eine logarithmische Suchzeit erreicht wird. Vielversprechende empirische Ergebnisse werden aus ausgeschlossenen Mittelwäldern berichtet. Wir stellen jedoch fest, dass die Daten, aus denen sie zusammengesetzt ist, bestimmen, ob eine Datenpartition weiter untersucht werden muss, nicht aber ihr Standort. Obwohl jeder Baum des ausgeschlossenen mittleren Waldes in logarithmischer Zeit durchsucht werden kann, wird die Gesamtabfrageleistung durch das Vorhandensein mehrerer Bäume belastet. Wir zeigen analytisch und empirisch, dass der Baum mit mehreren Aussichtspunkten den ausgeschlossenen mittleren Wald übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54927-4_41 9a9d3626ca8132b3cceb1764c6a9caa0;de;;;2.2.;;;Ein Netzwerk von Mikroprozessoren zur Ausführung von Reduktionssprachen, Teil I Dieses Papier beschreibt die Architektur eines zellularen Prozessors, der in der Lage ist, Reduktionssprachen, wie von Backus definiert, direkt und effizient auszuführen. Der Prozessor besteht aus zwei miteinander verbundenen Netzwerken von Mikroprozessoren, von denen eines eine lineare Anordnung identischer Zellen und das andere ein baumstrukturiertes Netzwerk identischer Zellen ist. Beide Arten von Zellen haben bescheidene Verarbeitungs- und Speicheranforderungen. Der Prozessor interpretiert direkt eine Hochsprache, und sein effizienter Betrieb ist nicht auf eine spezielle Klasse von Problemen beschränkt. Wenn es der Speicherplatz zulässt, nimmt der Prozessor die unbegrenzte Parallelität auf, die von Reduktionssprachen in jedem einzelnen Benutzerprogramm ermöglicht wird, und ist auch in der Lage, viele Benutzerprogramme gleichzeitig auszuführen.;-;-;-;https://link.springer.com/article/10.1007/BF00995174 c37d05473e75bf695b5fd40ae57bfb05;de;;;2.2.;;;Die Herausforderung des E-Book-Wachstums auf internationalen Märkten Dieser Auszug aus einer Dissertation für den M.S. Das Publishing Program untersucht die Herausforderungen, denen sich wichtige internationale Märkte und aufstrebende internationale Märkte gegenübersehen, wenn sie versuchen, ihre jeweiligen E-Book-Märkte zu vergrößern. Als besondere Herausforderungen werden die Verfügbarkeit digitaler Inhalte und die Erschwinglichkeit von E-Lesegeräten diskutiert. Trotz dieser Herausforderungen sind internationale Verlage optimistisch, dass in den nächsten Jahren ein E-Book-Boom eintreten wird, der den Erfolg des US-amerikanischen E-Books widerspiegelt Markt.;-;-;-;https://link.springer.com/article/10.1007/s12109-012-9292-1 e10fbb84b0beddb672bd33a0f2f54e7c;de;;;2.2.;;;AID: Eine alternative Implementierung von DCGs Dieses Papier stellt einen alternativen Ansatz zur Umsetzung von DCGs vor. Im Gegensatz zur Standardimplementierung verwenden wir die bekannte Bottom-Up-SLR(1)-Parsing-Technik. Ein auf dieser Technik basierendes experimentelles System, AID, wird vorgestellt und diskutiert. Das Ziel dieser Arbeit ist zweifach. Zunächst beschreiben wir ein alternatives Prinzip der Implementierung von DCGs, das es ermöglicht, linksrekursive DCGs zu bewältigen und unnötiges Backtracking beim Parsen zu vermeiden. Zweitens zeigen wir, dass Prolog zur Implementierung von tabellengesteuerten Parsern verwendet werden kann, die deterministische LR(k)-Parsing-Techniken auf den Fall mehrdeutiger Grammatiken verallgemeinern. Die von unserem System generierten Parser sind immer dann deterministisch, wenn die übermittelte Grammatik SLR(1) ist. Andernfalls werden die Verschiebungs-/Reduzierungs- oder Reduzierungs-/Reduzierungskonflikte in der verallgemeinerten Tabelle gespeichert und als Prolog-Rückverfolgungspunkte verwendet.;-;-;-;https://link.springer.com/article/10.1007/BF03037391 98ac2c6e13fe5ea98dcb58f7362f2443;de;;;2.2.;;;Tipps und Fallen in der Textverarbeitung Mehr Menschen verwenden PCs für die Textverarbeitung als für jede andere Funktion. Auch die meisten Leute verwenden nur eine kleine Anzahl von Funktionen in ihren Textverarbeitungsprogrammen. In diesem Kapitel untersuchen wir Möglichkeiten, wie Sie einige der Funktionen Ihres Textverarbeitungsprogramms optimal nutzen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-3234-1_8 60c146850fd61f4587ef11a41976ea45;de;;;2.2.;;;ROSY-Anwendung zur Auswahl von R-Paketen, die eine ROC-Analyse durchführen Die empirische ROC-Kurve ist ein leistungsstarkes statistisches Werkzeug, um die Präzision von Tests in mehreren Studienbereichen zu bewerten. Dies ist ein zweidimensionales Diagramm, bei dem die horizontale und die vertikale Achse den falsch positiven bzw. den richtig positiven Anteil darstellen, auch als 1-Spezifität und Sensitivität bezeichnet, wobei die Präzision durch einen zusammenfassenden Index, die Fläche unter der Kurve (AUC), bewertet wird. Zur Durchführung dieser Analyse werden mehrere Computertools verwendet, darunter die R-Umgebung. Dies ist eine Open-Source- und frei zu verwendende Umgebung, die die Erstellung verschiedener Pakete ermöglicht, die die gleichen Aufgaben auf unterschiedliche Weise ausführen, was oft zu unterschiedlichen Anpassungen und Funktionen führt liefert oft ähnliche Ergebnisse. Es besteht die Notwendigkeit, diese verschiedenen Pakete zu untersuchen, um einem erfahrenen Benutzer die einfachste und robusteste Ausführung einer erforderlichen Analyse zu bieten. In dieser Arbeit wurden die verschiedenen R-Pakete katalogisiert, die eine ROC-Analyse durchführen können, um ihre Leistung zu untersuchen. Es wird eine glänzende Webanwendung präsentiert, die als Repository dient und eine effiziente Nutzung all dieser Pakete ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58808-3_16 9ca91a7aee342c4a858b4809005879ba;de;;;2.2.;;;Analyse superplastischer Mikrostrukturen mit interaktiven EBSP-Methoden Mikrotextur und Grenzeigenschaften wurden in einer vergleichenden Studie von Zugproben nach der Verformung einer superplastisch bearbeiteten Al-10Mg-0,1Zr-Legierung unter Verwendung von Elektronenrückstreumusterverfahren im Rasterelektronenmikroskop analysiert. Interaktive Methoden wurden verwendet, um die Beugungsmuster des nächsten Nachbarn (Sub)korn zu erfassen, und die Daten wurden anschließend computeranalysiert, um Informationen über den Charakter der Grenzflächengrenze zu erhalten, die durch die Fehlorientierung zwischen benachbarten Kristallen repräsentiert wird. Die Daten aus dieser Studie werden verwendet, um zu bestimmen, ob der Korngrenzencharakter ein mikrostrukturelles Merkmal ist, das für das deutlich unterschiedliche Zugverhalten verantwortlich ist, das bei Materialien beobachtet wird, die nach zwei verschiedenen thermomechanischen Verarbeitungsplänen verarbeitet werden.;-;-;-;https://link.springer.com/article/10.1007/BF03221385 fc05ece4610307dc0e26174aeb402e23;de;;;2.2.;;;Leistungsvergleich von Segmentzugriffsmethoden, die auf dem Buddy-Tree implementiert sind Mehrdimensionale Segmentzugriffsverfahren organisieren effizient ein- und mehrdimensionale Intervalle auf dem Sekundärspeicher. In diesem Beitrag präsentieren wir eine detaillierte Diskussion und einen umfassenden experimentellen Leistungsvergleich dieser Methoden. Jedes der Segmentzugriffsverfahren wird zusätzlich zu einem gewöhnlichen Punktzugriffsverfahren unter Verwendung der Techniken Abschneiden, Überlappen von Bereichen und Transformation implementiert. Als Basispunktzugriffsmethode haben wir den Buddy-Tree gewählt. Die Leistung des Buddy-Trees wird weniger durch die zugrunde liegende Datenverteilung beeinflusst und daher können die resultierenden Segmentzugriffsverfahren hinsichtlich ihrer individuellen Techniken beurteilt werden. Neben den verschiedenen Buddy-Trees-Versionen nehmen der R*-Tree (ein verbesserter Ansatz des R-Trees) und die Grid-Datei an unserem experimentellen Leistungsvergleich teil.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-54414-3_43 46a5d0aa25010a098c4d4783906464e2;de;;;2.2.;;;Die inkommensurable kristalline Phase und ihre Symmetrie Der Begriff „inkommensurate Struktur“ ist zur allgemeinen Bezeichnung für eine bestimmte Klasse von modulierten Strukturen geworden. Streng genommen ist dies eine unangemessene Angabe, da sich „inkommensurate“ (im Sinne von inkompatibel oder ohne gemeinsames Maß) eindeutig auf mindestens zwei Dinge und nicht auf ein einzelnes Objekt wie eine Kristallstruktur beziehen sollte. Die beiden Dinge sind in diesem Fall die beiden Elemente einer modulierten Struktur, wie sie beispielsweise von Cowley (1) definiert wurde: einerseits die Grundstruktur und die periodische Störung dieser Grundstruktur, die zur modulierten Struktur auf die andere Hand. Daher lautet der richtige, wenn auch unbequeme Begriff: inkommensurabel modulierte Strukturen. Wir bleiben jedoch bei dem falschen, aber kurzen Begriff, der im Titel dieser Arbeit verwendet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-6195-1_8 eea5b335cf4942b4c73785ad8ad938c6;de;;;2.2.;;;Ein vielseitiges Laborpaket für 0S/8 BASIC Es wird eine Reihe von BASIC-aufrufbaren Assembler-Routinen beschrieben, die die experimentelle Programmierung auf dem PDP-8/e-Laborcomputer unterstützen. Das Paket enthält sowohl allgemeine Labordienstprogramme (z. B. für Zeitverzögerungen, Abtast- und Steuerschalter usw.) als auch spezielle Funktionen zur Erleichterung elementarer Signalverarbeitungsvorgänge. Die Systemleistung wird in Bezug auf Zeitgenauigkeit, optimale Abtastraten und Transportierbarkeit zu anderen Labors bewertet.;-;-;-;https://link.springer.com/article/10.3758/BF03205698 0ca9b0b724fce215d41afeb07b74b694;de;;;2.2.;;;Legitime Sprecher von Authentic Breton: Wer entscheidet? Ein Grund, warum viele Sprecher von Minderheitensprachen Schwierigkeiten haben, ihre Minderheitensprache weiterhin zu verwenden, ist der Mangel an Prestige, der ihr oft gewährt wird. Dies kann zu Situationen führen, in denen die öffentliche „Aufführung“ des Andersseins, die durch die Verwendung einer Minderheitensprache in einem öffentlichen Raum indiziert wird, von Sprechern einer Minderheitensprache selbstzensiert werden kann, um nicht übermäßig auf sich aufmerksam zu machen. Aber es ist nicht nur der gesellschaftliche Druck von einsprachigen Sprechern der Mehrheitssprache, der dazu führen kann, dass Sprecher von Minderheitensprachen sich unzulänglich oder fehl am Platz fühlen. Manchmal kommt das Othering aus der Minderheitensprachengemeinschaft der Sprecher selbst. Einige Sprecher von Minderheitensprachen empfinden nicht nur ein Gefühl der Unbeholfenheit oder Unangemessenheit durch den öffentlichen Gebrauch einer Nicht-Mehrheitssprache, sondern sie können manchmal auch das Gefühl haben, dass ihr eigenes Kompetenzniveau in der Minderheitensprache oder sogar ihr Recht, sie zu verwenden, in Frage gestellt wird andere Sprecher von Minderheitensprachen. Auf diese Weise erfahren sie ein Gefühl der Delegitimierung, entweder in der Art, wie sie die Sprache sprechen, oder, was noch grundlegender ist, ein Gefühl des Fehlens einer ausreichenden „Sprecherschaft“, da sie nicht als legitimer Sprecher oder Benutzer einer Minderheitensprache gelten, wie in Abschnitt . veranschaulicht 1.2 mit Bezug auf Walisisch. In diesem Kapitel wird die Idee untersucht, ein legitimer Sprecher des Bretonischen zu sein, wobei Behauptungen, die sich auf legitime Sprache und legitime Sprecherschaft konzentrieren, im Mittelpunkt der Fallstudie stehen. Solche Ansprüche werden natürlich oft angefochten, und es werden auch Versuche untersucht, die darauf abzielen, diese Ansprüche als illegitim zu machen. Der Fall Breton ist besonders detailreich und die Debatte über solche Fragen hat eine vergleichsweise lange und etwas erbitterte Geschichte. Trotz der Besonderheit des bretonischen Beispiels erlaubt die Situation in der Bretagne direkte und nützliche Vergleiche mit anderen Situationen der Sprachminorisierung und kann uns helfen, näher an einer Typologie „neuer“ Sprecher von Minderheitensprachen zu arbeiten.;-;-;-;https://link.springer.com/chapter/10.1057/9781137498809_3 7ff2103e9fd08fcb4aefb7852a7bdff2;de;;;2.2.;;;Abschätzung eines nicht kardiogenen Lungenödems unter Verwendung der elektrischen Zweifrequenzimpedanz Die Studie untersucht die Auswirkungen von nicht kardiogenen Ödemen, insbesondere der Akkumulation von Proteinen in extrazellulärer Flüssigkeit, auf die thorakale Impedanz und schlägt eine neue Methode der Ödemmessung vor, die auf einem Impedanzverhältnis aus einer Zweifrequenzmessung basiert. In-vitro-Messungen in einer Zelle, die eine Albumin-in-Kochsalzlösung enthält, ergeben eine Resistenzerhöhung, wenn die Albuminkonzentration ansteigt. Anschließend werden 13 Patienten mit akutem Atemversagen gemessen. Die einfrequente Z;-;-;-;https://link.springer.com/article/10.1007/BF02523214 295d39935dc33740ec56d60ffcc00167;de;;;2.2.;;;Ungleichmäßige Medien Kontinuierliche oder diskontinuierliche Änderungen der thermophysikalischen und optischen Eigenschaften von Materialien ändern die laserinduzierten Temperaturverteilungen in Bezug auf diejenigen, die für ebene gleichmäßige (homogene) Substrate geschätzt werden, signifikant.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-04074-4_9 58c96aeae28ee0bcaff1262039cfe72a;de;;;2.2.;;;Änderungen der topologischen Beziehungen beim Teilen und Zusammenführen von Regionen Region Dieses Papier befasst sich mit Änderungen in topologischen Beziehungen, wie sie beim Aufteilen einer Region in zwei Bereiche auftreten. Es leitet systematisch ab, welche qualitativen Rückschlüsse auf binäre topologische Beziehungen gezogen werden können, wenn eine Region in zwei Teile zerlegt wird. Die neuen Erkenntnisse über die möglichen topologischen Beziehungen, die nach dem Aufteilen von Regionen gewonnen wurden, bilden eine Grundlage für räumlich-zeitliche Überlegungen auf hoher Ebene ohne explizite geometrische Informationen über die Formen jedes Objekts sowie für Transaktionen in raum-zeitlichen Datenbanken, die Konsistenzbeschränkungen erzwingen wollen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-35589-8_22 4cb9494eb6cdb9cb05a813cac6ff667e;de;;;2.2.;;;Effiziente Identifizierung des Objekts mit dem höchsten Diversity-Gain Diversifikation hat in letzter Zeit viel Aufmerksamkeit auf sich gezogen, um Objekte abzurufen, die sowohl für eine Abfrage relevant als auch hinreichend unterschiedlich sind. Da es sich um ein rechenintensives Problem handelt, werden typischerweise gierige Techniken verwendet, die iterativ die vielversprechendsten Objekte identifizieren. Wir konzentrieren uns auf die Teilaufgabe innerhalb einer Iteration und formalisieren sie als das Problem mit dem höchsten Diversity-Gain. Wir zeigen, dass es möglich ist, solche Probleme optimal zu lösen, indem man eine Neuheitsfunktion entsprechend definiert und das Objekt mit der höchsten Neuheit identifiziert. Darüber hinaus sind wir in der Lage, Teile des Suchraums zu bestimmen, die keine vielversprechenden Objekte enthalten können. Basierend auf diesen Ergebnissen schlagen wir einen gierigen Diversifikationsalgorithmus vor, der iterativ ein Verfahren aufruft, um das neuste Objekt zu bestimmen. Dieses Verfahren verwendet einen Index, um die Suche zu vielversprechenden Objekten zu leiten, und berechnet Grenzen, um große Teile des Raums zu beschneiden. Als Ergebnis zeigt sich, dass das Verfahren unter bestimmten Bedingungen I/O-optimal ist, und experimentelle Studien an realen und synthetischen Daten belegen seine Effizienz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-38901-1_1 24e83960a353083e67d639f08b23edef;de;;;2.2.;;;Ein Überblick über Textverarbeitungswerkzeuge zur automatischen Analyse molekularer Sequenzen Die automatische Analyse molekularer Sequenzen ist ein interdisziplinäres Wissenschaftsgebiet mit vielen Analogien zu den Analysemethoden und dem Verständnis natürlicher Sprachen. In beiden Feldern hat der Untersuchungsgegenstand einen komplexen, hierarchischen Charakter, der sich aus der natürlichen Evolution ergibt. In diesem Beitrag haben wir einen Überblick über Textverarbeitungsalgorithmen im Hinblick auf ihre Anwendung auf molekulare Sequenzen gegeben. Wir haben Methoden zur Problemlösung für die exakte und angenäherte Suche nach Mustern in Texten gezeigt: Aligning und Block Aligning von molekularen Sequenzen und Analyse molekularer Sequenzen durch indizierte Strukturen und Transformationen. Wir haben einige neuere Entwicklungen auf diesen Gebieten behandelt und einige Beispiele für die Ableitung von biologischem Wissen durch die Verwendung von Textverarbeitungsalgorithmen für molekulare Sequenzen bereitgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04735-0_15 5b8586e893c54b4b6016e73f3bf8a162;de;;;2.2.;;;Clustering-basiert Datenschutz ist eines der Hauptanliegen, wenn Daten mit sensiblen Informationen für eine Ad-hoc-Analyse freigegeben werden müssen, was in den letzten Jahren ein breites Forschungsinteresse an der datenschutzwahrenden Veröffentlichung geweckt hat. Ein Strategieansatz zur Anonymisierung von Daten ist die Generalisierung. In einem typischen Generalisierungsansatz wurden Tupel in einer Tabelle zunächst in viele QI (Quasi-Identifier)-Gruppen unterteilt, so dass die Größe jeder QI-Gruppe nicht kleiner als ist;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30217-6_34 cdb9ee6a8746f76352ee8af3a9f22fd1;de;;;2.2.;;;UBM-basierte Sprechersegmentierung und Clustering für die 2-Sprecher-Erkennung In diesem Beitrag werden ein Sprechersegmentierungsverfahren basierend auf dem Log-Likelihood-Ratio-Score (LLRS) über dem universellen Hintergrundmodell (UBM) und ein Sprecher-Clustering-Verfahren basierend auf der Differenz von Log-Likelihood-Scores zwischen zwei Sprechermodellen vorgeschlagen. Während des Segmentierungsprozesses wird die LLRS zwischen zwei benachbarten Sprachsegmenten über UBM als Distanzmaß C verwendet, während während des Clustering-Prozesses C die Differenz der Log-Likelihood-Scores zwischen zwei Sprechermodellen als Sprecherklassifizierungskriterium verwendet wird. Ein vollständiges System für die NIST 2002 2-Speaker-Aufgabe wird unter Verwendung der oben genannten Methoden vorgestellt. Experimentelle Ergebnisse auf dem NIST 2002 Switchboard Cellular Speaker Segmentation Corpus, 1-Speaker Evaluation Corpus und 2- Speaker Evaluation Corpus zeigen das Potenzial der vorgeschlagenen Algorithmen.;-;-;-;https://link.springer.com/chapter/10.1007/11939993_16 c7809ff11711c031dca0395b7b5e1545;de;;;2.2.;;;Leichte Software-Prozessverbesserung durch Produktivitäts- und Nachhaltigkeitsverbesserungsplanung (PSIP) Productivity and Sustainability Improvement Planning (PSIP) ist ein einfacher, iterativer Workflow, der es Softwareentwicklungsteams ermöglicht, Entwicklungsengpässe zu identifizieren und den Fortschritt zu verfolgen, um sie zu überwinden. In diesem Papier geben wir einen Überblick über PSIP und wie es im Vergleich zu anderen Software Process Improvement (SPI)-Methoden abschneidet, und stellen zwei Fallstudien bereit, die beschreiben, wie der Einsatz von PSIP zu erfolgreichen Verbesserungen der Teameffektivität und -effizienz führte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-44728-1_6 dfad1206a56400003df6356f2c33d11e;de;;;2.2.;;;Entitätsverknüpfung von Microblogs zur Wissensdatenbank mithilfe des ListNet-Algorithmus Entity Linking (EL) ist eine grundlegende Technologie in der Verarbeitung natürlicher Sprache und im Knowledge Engineering. Frühere Arbeiten konzentrieren sich hauptsächlich darauf, erwähnte Namen, die in Nachrichten oder Artikeln erkannt werden, mit der Wissensdatenbank zu verknüpfen. In sozialen Netzwerken unterscheiden sich nutzergenerierte Inhalte jedoch deutlich von typischen Nachrichtentexten. Benutzer verwenden Wörter manchmal informeller, erstellen sogar neue Wörter. Eine Entität kann verschiedene Aliase haben, die von Webbenutzern erwähnt werden, daher erfordert die Identifizierung dieser Aliase mehr Aufmerksamkeit als zuvor. Es werden mehrere Methoden zum Mining von Aliasen vorgeschlagen und ein Learning-to-Rank-Framework wird angewendet, um verschiedene Typen von Feature miteinander zu kombinieren. Ein auf SVM basierender binärer Klassifizierer wird trainiert, um zu beurteilen, ob der durch den Rangordnungsalgorithmus gegebene erste Kandidat akzeptiert wird. Die Evaluierungsergebnisse des NLP&CC 2013 Entity Linking Track zeigen die Wirksamkeit dieses Rahmenwerks.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41644-6_26 33415860e24fc6b44e9b34ed2e9d4a54;de;;;2.2.;;;Analysieren von Micropolluants Organiques des Eaux par Couplage CG/SM Collection de Specters de Masse de Reference GC/MS ist eine der am weitesten verbreiteten Analysetechniken zur Identifizierung organischer Mikroverunreinigungen in Wasser. Die Identifizierung erfolgt durch Vergleich der erzeugten Spektren mit denen von Referenzsammlungen. Kommerzielle Sammlungen, die mehrere zehntausend Spektren enthalten und viele Produkte außerhalb unseres Interessengebiets enthalten, sind nur schwer effektiv zu nutzen. Das Identifizieren wird stark vereinfacht, wenn eine bestimmte Sammlung verwendet wird. Eines der Ziele der COST-Projekte 64B, 64B bis und 641 war die Zusammenstellung einer Sammlung von Massenspektren von organischen Verbindungen, die wahrscheinlich in Wasser vorkommen. Die 2000 Spektren der COST-Sammlung stammen hauptsächlich aus Laboratorien, die für die COST-Projekte arbeiten. Die Massenspektren werden gesammelt, verifiziert und wenn möglich korrigiert und dann in standardisierte Tabellen umgewandelt, in Abschnitte von 100 Einheiten zusammengefasst und an die teilnehmenden Länder verteilt. Wir haben auch einen Index zusammengestellt, der die Hauptmerkmale der Massenspektraldaten enthält. Dieser Index bietet nicht nur eine vollständige Auflistung der Inhalte der Spektrensammlung, sondern ist in vielen Fällen auch ein Mittel zur Identifizierung der organischen Schadstoffe.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-4660-6_9 6eed15c630f8fa0f743e13c6f2cc0b71;de;;;2.2.;;;Leistungsbewertung von wortorientierten Komprimierungsverfahren für Bitmap-Indizes Bitmap-Indizes sind ein weit verbreitetes Schema für große schreibgeschützte Repositorys in Data Warehouses und wissenschaftlichen Datenbanken. Diese binäre Darstellung ermöglicht die Verwendung von bitweisen Operationen für eine schnelle Abfrageverarbeitung und wird typischerweise unter Verwendung von Lauflängencodierungstechniken komprimiert. Die meisten Bitmap-Komprimierungstechniken werden unter Verwendung einer festen Codierungslänge (32 oder 64 Bit) ausgerichtet, um eine explizite Dekompression während der Abfragezeit zu vermeiden. Sie wurden vorgeschlagen, um die wortausgerichtete Hybridkompression (WAH) zu erweitern oder zu verbessern. Dieses Papier präsentiert eine vergleichende Studie von vier Bitmap-Komprimierungstechniken: WAH, PLWAH, CONCISE und EWAH. Experimente sind darauf ausgerichtet, die Bedingungen zu ermitteln, unter denen jede Methode angewendet werden sollte, und den bei der Abfrageverarbeitung anfallenden Overhead zu quantifizieren. Die Leistung in Bezug auf Komprimierungsverhältnis und Abfragezeit wird über synthetisch generierte Bitmap-Indizes bewertet und die Ergebnisse werden über Bitmap-Indizes validiert, die aus realen Datensätzen generiert wurden. Es werden verschiedene Abfrageoptimierungen untersucht, Formeln zur Schätzung der Abfragezeit definiert und die Bedingungen, unter denen eine Methode gegenüber einer anderen bevorzugt werden sollte, formalisiert.;-;-;-;https://link.springer.com/article/10.1007/s10115-015-0877-9 52d4efcaf8f131003f1f14a39c927869;de;;;2.2.;;;Effiziente Transformation von Proteinsequenzdatenbanken in ein kolumnares Indexschema Massenspektrometrie wird verwendet, um Proteine ​​zu sequenzieren und Biomarker biologischer Umgebungen zu extrahieren. Diese Biomarker können verwendet werden, um Tausende von Krankheiten zu diagnostizieren und biologische Umgebungen wie Biogasanlagen zu optimieren. Die Indizierung der Proteinsequenzdaten ermöglicht es, die Experimente zu rationalisieren und die Analyse zu beschleunigen. In unserer Arbeit stellen wir ein Schema für verteilte spaltenbasierte Datenbankmanagementsysteme vor, das einen spaltenorientierten Index zum Speichern von Sequenzdaten verwendet. Dies führt zu dem Problem, die Proteinsequenzdaten vom Standardformat in das neue Schema zu transformieren. Wir analysieren vier unterschiedliche Transformationsmethoden und evaluieren diese vier unterschiedlichen Methoden. Die Ergebnisse zeigen, dass unser vorgeschlagener erweiterter Radixbaum die beste Leistung in Bezug auf Speicherverbrauch und Rechenzeit hat. Damit erweist sich der Radixbaum als geeignete Datenstruktur für die Transformation von Proteinsequenzen in das indizierte Schema.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-27684-3_10 804676db2ee74ede7fe64404f47416f6;de;;;2.2.;;;Anreicherung von Prolog mit S-Unification Das Konzept der S-Unification bietet eine semantisch saubere Möglichkeit, logische Programme mit in anderen Sprachen geschriebenen Funktionen zu kombinieren. Dieses Papier zeigt, wie man eine logische Programmiersprache mit S-Unification implementiert, indem man sie in ein Prolog-Programm umwandelt. Das Schema ist einigermaßen effizient, wenn Prolog effizientes Coroutining unterstützt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-3794-8_4 ea07636a4311feab8341ff3865c28094;de;;;2.2.;;;Standort- und formatunabhängige verteilte Annotationen für Verbundforschung Dieser Beitrag beschreibt die Entwicklung eines verteilten Anmerkungssystems, das eine kollaborative Dokumentenabfrage ermöglicht und einen neuen Zugang zu ansonsten schwer zu indizierenden digitalen Dokumenten schafft. Es geht mit den Anmerkungen noch einen Schritt weiter: Es sind nicht nur die gleichen Arten von Anmerkungen in allen Dateiformaten verfügbar, sondern robuste Verweise auf die Dokumente führen zu Format- und Ortsunabhängigkeit und ermöglichen den Anhang, auch wenn das Dokument geändert wurde. Diese Funktionen werden durch die Standards der digitalen Bibliothekssysteme erreicht und erfordern keine Modifikation der Originaldokumente oder weitere Einschränkungen, sind also infrastrukturunabhängig. Die Integration in das Kepler-Workflow-System ermöglicht die Kommentierung von Workflow-Ergebnissen und die automatische Erstellung und Indexierung von Annotationen in dokumentenorientierten Workflows, die als flexible Möglichkeit zur Archivierung und Indexierung von Sammlungen in der Cheshire3-Suchmaschine verwendet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74851-9_50 f52473de3b09f2fa192bd1c935e9e1f4;de;;;2.2.;;;Parametrische Approximationsalgorithmen für hochdimensionale euklidische Ähnlichkeit Wir stellen ein Spektrum von Algorithmen zur Messung der Ähnlichkeit hochdimensionaler Vektoren im euklidischen Raum vor. Die vorgeschlagenen Algorithmen bestehen aus einer konvexen Kombination von zwei Maßen: eines, das zusammenfassende Daten über die;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44794-6_7 1b52b8544912221fe00c598e4a4c6bd5;de;;;2.2.;;;Erweiterter Heartbeat-Mechanismus für die Fehlererkennungsdienst-Methodik Die Fehlererkennungsmethodik ist ein entscheidender Bestandteil bei der Bereitstellung einer skalierbaren, zuverlässigen und hochverfügbaren Grid-Computing-Umgebung. Die beliebteste Technik zur Fehlererkennung ist der Heartbeat-Mechanismus, bei dem die Netzressourcen in einem sehr kurzen Intervall überwacht werden. Diese Technik hat jedoch ihre Schwäche, da sie eine Zeitspanne benötigt, bevor erkannt wird, dass der Knoten fehlerhaft ist, und daher die durchzuführenden Wiederherstellungsaktionen verzögert. Dies ist auf den nicht indizierten Status für jede Transaktion zurückzuführen und muss ein bestimmtes Zeitintervall warten, bevor erkannt wird, dass die Knoten ausgefallen sind. In diesem Papier werden Fehlererkennungsmechanismen und Dienste vorgeschlagen, die einen erweiterten Heartbeat-Mechanismus verwenden. Diese Technik führte die Verwendung eines Indexservers zum Indizieren der Transaktion und die Verwendung eines Ping-Dienstes für den Push-Mechanismus ein. Das Modell übertraf die bestehenden Techniken, indem es die Zeit zur Fehlererkennung um etwa 30 % reduzierte. Außerdem bietet der Mechanismus eine Grundlage für anpassbare Wiederherstellungsaktionen, die bereitgestellt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10549-4_11 bed0f02b4962ed5675cc87772f5613d5;de;;;2.2.;;;Fourier-Transformation endlicher abelscher Gruppen Die Standarddefinition der mehrdimensionalen Fourier-Transformation (MDFT) geht von einer festen Koordinatensystemdarstellung des Indexierungssatzes aus. In diesem Kapitel werden wir die MDFT in einer abstrakteren Umgebung definieren und untersuchen, die die Abhängigkeit von Koordinaten aufhebt und ausschließlich auf die additive abelsche Gruppenstruktur der Indexierungsmenge verweist. Dieser Ansatz unterstreicht die grundlegende Rolle, die die Dualität zwischen Periodisierung und Dezimierung beim Design von MDFT-Algorithmen spielt. Diese Dualität ist das Herzstück aller standardmäßigen und kürzlich entdeckten MDFT-Algorithmen zum Teilen und Erobern. Die Betonung der Einheit, die diesen Algorithmen zugrunde liegt, ermöglicht ein tieferes Verständnis ihrer Unterschiede und wie diese Unterschiede bei der Implementierung ausgenutzt werden können. Dies gilt insbesondere beim Entwurf von massiv parallelen Algorithmen. Der Algorithmusentwurf wird auf relativ wenige Grundprinzipien reduziert, ohne die Details bestimmter Koordinaten berücksichtigen zu müssen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-1948-4_4 090f2a4a52572ea9cba296790d1c14c7;de;;;2.2.;;;Cooley – Tukey und Good – Thomas Die abstrakte Definition der Fourier-Transformation und die Aussage der Fourier-Transformations-Dualität, ausgedrückt durch die Periodisierungs-Dezimierungs-Ergebnisse von Kapitel 4, liefern ein vereinheitlichendes Prinzip, das den meisten eindimensionalen und mehrdimensionalen FFTs zugrunde liegt. Die C-T-FFTs der Kapitel 1 und 2 sind Ausdruck dieser Dualität. In [1] wurde eine Vektor-Radix-FFT abgeleitet, die diese Dualität relativ zu Gruppen affiner Bewegungen auf dem Indexierungssatz erweitert. Diese Klasse von FFT ist hochgradig parallelisierbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-1948-4_5 54a8e72a3af2e17cec9f2bbd65b01c50;de;;;2.2.;;;Ein automatisches Patch-Management-System mit verbesserter Sicherheit Da die Anzahl der Patches in einem Patch-Management-System aufgrund von Software-Updates ansteigt und Sicherheitsprobleme im bestehenden Patch-Management-System auftreten, wird ein effizienteres Patch-Management-System mit verstärkter Sicherheit benötigt. Außerdem müssen bestehende Patch-Management-Systeme verbessert werden, da sie die Patch-Sammlung ineffizient durchführen und ihre Schemata zur Überprüfung der Patch-Integrität einfach sind. In diesem Dokument schlagen wir ein automatisches Patch-Management-System mit verbesserter Sicherheit, verbesserter Patch-Sammlungseffizienz und verstärkter Überprüfung der Patch-Integrität vor, das Patches automatisch über Patch-Sites sammelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-5041-1_13 2bafa062635f2e61924363e10bb3f31a;de;;;2.2.;;;String-Techniken zum Erkennen von Duplikaten in Dokumentdatenbanken Das Erkennen von Duplikaten in Dokumenten-Bilddatenbanken ist ein Problem von wachsender Bedeutung. Die Aufgabe wird durch die verschiedenen Verschlechterungen, die gedruckte Dokumente erleiden, und durch widersprüchliche Vorstellungen davon, was es bedeutet, ein „Duplikat“ zu sein, erschwert. Um diese Probleme anzugehen, stellt dieses Papier einen Rahmen zur Klärung und Formalisierung des Problems der Duplikaterkennung vor. Es werden vier verschiedene Modelle präsentiert, jedes mit einem entsprechenden Algorithmus für seine Lösung, der aus dem Bereich des ungefähren String-Matchings angepasst ist. Die Robustheit dieser Techniken wird durch eine Reihe von Experimenten unter Verwendung von Daten aus realen Rauschquellen demonstriert. Außerdem werden verschiedene Heuristiken beschrieben, die das Potenzial haben, die Berechnung um mehrere Größenordnungen zu beschleunigen.;-;-;-;https://link.springer.com/article/10.1007/PL00021525 471a0718c93c4b0ccce7244ddc4b90c5;de;;;2.2.;;;Modellierung und Leistungsvergleich von Caching-Strategien für beliebte Inhalte im Internet Der Artikel widmet sich dem Caching von populären Multimedia- und Webinhalten im Internet. Wir untersuchen die kürzlich von den Autoren vorgeschlagene Cluster Caching Rule (CCR). Es basiert auf der Idee, nur populäre Inhalte zu speichern, die in Clustern verwandter Popularitätsprozesse entstehen. Solche Cluster, die als aufeinanderfolgende Überschreitungen von Popularitätsindizes über einen hohen Schwellenwert definiert sind, werden durch die Abhängigkeit der Inter-Request-Zeiten der Objekte und damit verbundene Popularitätsprozesse verursacht. Wir vergleichen CCR mit den bekannten Caching-Schemata Time-To-Live (TTL) und Least-Recently-Used (LRU). Wir modellieren den Anfrageprozess für Objekte als eine Mischung aus Poisson- und Markov-Prozessen mit einem starken Rauschen. Wir konzentrieren uns auf die Trefferwahrscheinlichkeit als Hauptmerkmal einer Caching-Regel und führen Cache-Effektivität als neue Metrik ein. Anschließend wird die Abhängigkeit der Trefferwahrscheinlichkeit von der Cachegröße durch Simulation untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-51917-3_5 21bfa9e15772470ccd237c58a845caa5;de;;;2.2.;;;Themenmodelle mit statistischen Wortsinnen LDA betrachtet ein Oberflächenwort in allen Dokumenten als identisch und misst den Beitrag eines Oberflächenworts zu jedem Thema. Ein Oberflächenwort kann jedoch in unterschiedlichen Kontexten unterschiedliche Signaturen aufweisen, d. h. polyseme Wörter können in unterschiedlichen Kontexten mit unterschiedlichen Bedeutungen verwendet werden. Intuitiv kann die Begriffsklärung von Wortbedeutungen für Themenmodelle deren Unterscheidungsfähigkeit verbessern. In dieser Arbeit schlagen wir ein gemeinsames Modell vor, um automatisch Dokumentthemen und Wortsinne gleichzeitig zu induzieren. Anstatt einige vordefinierte Wortsinn-Ressourcen zu verwenden, erfassen wir die Wortsinn-Informationen über eine latente Variable und induzieren sie direkt und völlig unbeaufsichtigt aus den Korpora. Experimentelle Ergebnisse zeigen, dass das vorgeschlagene gemeinsame Modell das klassische LDA und ein eigenständiges Sense-basiertes LDA-Modell beim Dokumentenclustering deutlich übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54906-9_13 38563ae5937c3c58135c566eed6b0cee;de;;;2.2.;;;Ein unscharfer Ansatz für den Zugriff auf Unfalldatenbanken Dieser Beitrag befasst sich mit dem Zugriff auf Informationen aus Unfalldatenbanken. Es diskutiert die Grenzen aktueller Unfalldatenbanken und konzentriert sich auf das Auffinden und Rangieren von Informationen, die sich auf eine Abfrage beziehen. Ein Benutzer oder System initiiert eine Interaktion mit einer Datenbank, indem es in Form einer Abfrage spezifiziert, was von Interesse ist. Die Abfrage muss nicht als genaue Beschreibung des Interessanten behandelt werden, sondern als vage oder „unscharf“. Fuzzy-Datenbanktechniken ermöglichen es, alle verfügbaren Informationen auszunutzen, indem nicht nur Elemente zurückgegeben werden, die genau der Abfrage entsprechen, sondern auch Elemente, die einen Bezug zu der Abfrage haben.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008263918762 91f72f5ef14e791eb7b7b2a577efb4c6;de;;;2.2.;;;Eine hybride zeigerlose Darstellung von Quadtrees zur effizienten Verarbeitung von Fensterabfragen Eine effiziente Verwaltung von Geodaten wird immer wichtiger und für sehr große Mengen von 2-dimensionalen Daten werden sekundäre Speicherdatendarstellungen benötigt. Eine wichtige Klasse von Abfragen für Geodaten sind Abfragen, die eine Teilmenge der Daten extrahieren: Sie heißen;-;-;-;https://link.springer.com/chapter/10.1007/3-540-58795-0_53 7cb4549012d380e95a532d28d000b303;de;;;2.2.;;;Implementierung der Davis-Putnam-Methode Die von Davis, Putnam, Logemann und Loveland vorgeschlagene Methode zur propositionalen Argumentation, die oft als Davis-Putnam-Methode bezeichnet wird, ist eine der wichtigsten praktischen Methoden für das Erfüllbarkeitsproblem (SAT) der Aussagenlogik. Wir zeigen, wie die Davis-Putnam-Methode effizient implementiert wird, indem die Trie-Datenstruktur für Aussagenklauseln verwendet wird. Eine neue Technik, bei der nur die ersten und letzten Literale von Klauseln indiziert werden, führt zu einem Einheitspropagationsverfahren, dessen Komplexität sublinear zur Anzahl der Vorkommen der Variablen in der Eingabe ist. Wir zeigen auch, dass die Davis-Putnam-Methode besser funktionieren kann, wenn keine Einheitensubsumtion verwendet wird. Wir veranschaulichen die Leistungsfähigkeit unserer Programme bei einigen Quasigruppenproblemen. Die Effizienz unserer Programme hat es uns ermöglicht, einige offene Quasigruppenprobleme zu lösen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1006351428454 f54a6db1828bffeb92d75bc0283a1148;de;;;2.2.;;;Erlernen von Mustern für menschliche Fotoaufnahmen aus großen Community-Fotosammlungen Soziale Foto-Sharing-Plattformen im Internet (z. B. Flickr) beherbergen Milliarden öffentlich zugänglicher Fotos, die von Millionen einzelner Nutzer aus der ganzen Welt aufgenommen wurden. Diese von Nutzern beigesteuerten und mit Geo-Tags versehenen Fotosammlungen bieten Einblicke in das menschliche soziokulturelle Leben und liefern wichtige Hinweise, um das Engagement und die Reaktion der Menschen auf Orte und Ereignisse auf der ganzen Welt heute zu verstehen. In diesem Artikel analysieren wir über 2 Millionen Bilder mit Geo-Tags, die von 12.000 einzelnen Flickr-Benutzern hochgeladen wurden, um die Fotoaufnahmemuster verschiedener Benutzergruppen zu untersuchen, d. h. Touristen und lokale, asiatische und europäische sowie männliche und weibliche Benutzer. Insbesondere verwenden wir visuelle Merkmale, die aus einzelnen monokularen Bildern und deren räumlichen Konfigurationen extrahiert wurden, um 3D-Tiefeninformationen der Fotografien abzuleiten, um den bevorzugten Aufnahmemaßstab (Nahaufnahme oder Ferne) der Benutzergruppen festzulegen. Die Ergebnisse zeigen, welche Objekte und Szenen unterschiedliche Personengruppen interessieren und wie sich diese Präferenzen über Raum und Zeit verändern. Als solche bietet die Forschung einen neuen Zugang zu den Geisteswissenschaften, die das Individuum, Gruppen und die Gesellschaft untersuchen.;-;-;-;https://link.springer.com/article/10.1007/s11042-014-2247-0 bee28e4312801382bb6e38c830a09c4b;de;;;2.2.;;;Interprozesspuffer in Trennlogik mit Vertrauensgarantie Die Trennlogik erlaubt einfache Beweise von nebenläufigen Algorithmen, die Blockierungsmechanismen wie Semaphoren verwenden. Es kann sogar mit nicht blockierenden Algorithmen umgehen. Durch das Hinzufügen von Mechanismen, die von der Vertrauensgarantie übernommen wurden, können wir relativ einfache Beweise für einige einfache nicht blockierende Algorithmen liefern. Wir zeigen, dass es sich auf Beweise einiger komplizierter Algorithmen erstreckt, einschließlich des berühmten asynchronen Vier-Schlitz-Puffers von Simpson und des neuartigen Drei-Schlitz-Algorithmus von Harris auf eine Weise, die wohl einfacher ist als frühere Behandlungen, obwohl wir nicht behaupten können, dass wir Beweise dafür gefunden haben sind so einfach wie wir es uns wünschen. Unsere Beispielbeweise zeigen funktionale Korrektheit, beschäftigen sich aber nicht mit Fragen der Lebendigkeit.;-;-;-;https://link.springer.com/article/10.1007/s00165-009-0141-8 733c5167f0b57ba76b4ce434ff0bcb41;de;;;2.2.;;;Synchrotronstrahlung und Freie-Elektronen-Laser Das letzte Kapitel eines Lehrbuchs ist normalerweise nicht das einfachste, aber hoffentlich wird es Ihnen leicht fallen. Synchrotronstrahlung (SR) ist eine dringend zu empfehlende Lichtquelle, aber leider finden Sie in den meisten gängigen Lehrbüchern keine Beschreibung dazu. Im folgenden Kapitel werden daher auch experimentelle und technische Designs vorgestellt. Wenn Sie SR als Lichtquelle verwenden, sollten Sie verstehen, was die Maschinenbediener mit dieser Lichtquelle tun.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-79407-0_13 cd0d1944e286ac2d8fe4fcd2d11cf802;de;;;2.2.;;;Multivariate Präferenzmodelle und Entscheidungsfindung mit der MAUT-Maschine Mit dem Aufkommen des E-Commerce haben Systeme, die den Benutzer dabei unterstützen, das richtige Produkt in einem elektronischen Katalog zu finden, zunehmend an Bedeutung gewonnen. Während;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44963-9_40 c1c62ff54acdedeb2278ba5d2d12c540;de;;;2.2.;;;Überprüfung der Methode zur Schätzung der Nettoprimärproduktion im mongolischen Plateau mit landsat ETM+Daten Wir planen, die globale Nettoprimärproduktion (NPP) der Vegetation mit den multispektralen Daten des Advanced Earth Observing Satellite-II (ADEOS-II) Global Imager (GLI) zu schätzen. Wir leiten einen NPP-Schätzalgorithmus aus Bodenmessdaten von Pflanzen in gemäßigten Klimazonen in Japan ab. Mit dem Algorithmus schätzen wir NPP unter Verwendung eines Vegetationsindex basierend auf der Musterzerlegung (VIPD) für das mongolische Plateau. Die VIPD wird aus Landsat ETM+ Multispektraldaten abgeleitet und die resultierende NPP-Schätzung wird mit Bodendaten verglichen, die in einem semiariden Gebiet der Mongolei gemessen wurden. Die aus Satellitenfernerkundungsdaten abgeleitete NPP-Schätzung stimmt mit den Bodenmessdaten im Fehlerbereich von 15% überein, wenn alle oberirdischen Vegetations-NPP für verschiedene Vegetationsklassifikationen berechnet werden.;-;-;-;https://link.springer.com/article/10.1007/BF02826648 bfe205e8cd20fbc5bb98b72fd25b764c;de;;;2.2.;;;Kriterienerfüllung unter messbasierter Unsicherheit Eine grundlegende Aufgabe bei der Entscheidungsfindung ist die Bestimmung der Erfüllung einiger Kriterien in Form eines skalaren Wertes angesichts unsicherer Informationen. Unser Ziel ist es, diese Aufgabe zu unterstützen. Wir diskutieren zunächst den Prozess der Auswahl eines Unsicherheitsmodells für unser Wissen, hier betonen wir den Kompromiss zwischen der Funktionalität der Darstellung und ihrer Fähigkeit, unser Wissen zu modellieren, Cointention. Als nächstes diskutieren wir den Prozess der Skalarisierung, wobei ein einzelner Wert bestimmt wird, um einen unsicheren Wert darzustellen. Einige Funktionen, die für Operationen erforderlich sind, die für die Skalarisierung verwendet werden, werden eingeführt. Wir betrachten die in der Wahrscheinlichkeitstheorie verwendeten Skalarisierungsverfahren, den Erwartungswert und das in der Möglichkeitstheorie. Wir wenden uns dann einem allgemeineren Rahmen für die Darstellung unsicherer Informationen auf der Grundlage eines festgelegten Maßes zu.;-;-;-;https://link.springer.com/article/10.1007/s10700-010-9084-z 572e5dd577bf8458f4d83fcc29624be5;de;;;2.2.;;;Wechselwirkungen zwischen Levodopa und anderen Arzneimitteln: Bedeutung bei der Behandlung der Parkinson-Krankheit Levodopa (L-3,4-Dihydroxyphenylalanin), eine Aminosäure, die derzeit das nützlichste Medikament zur Behandlung der Parkinson-Krankheit ist, ist ein hervorragendes Beispiel für eine wichtige Allgemeinheit der medikamentösen Behandlung: Da die Reaktionen einzelner Patienten auf ein bestimmtes Medikament bemerkenswert vielfältig sein kann, ist eine sorgfältige Individualisierung des Gesamtmanagements der Behandlung erforderlich, um ihre therapeutische Wirkung zu maximieren. Relevante Variablen für individuelle Ansprechwirkungen umfassen den natürlichen Verlauf der behandelten Krankheit, Begleiterkrankungen, Arzneimittelwechselwirkungen, Nebenwirkungen anderer Arzneimittel, idiosynkratische Reaktionen und Ernährung.;-;-;-;https://link.springer.com/article/10.2165/00003495-197306050-00004 3adef189572ac0911114712df85b16b1;de;;;2.2.;;;Anwendung paralleler Technologien zur Modellierung von Lithosphärendynamik und Seismizität Es wird ein Problem der Modellierung einiger Prozesse in der Kruste betrachtet. Es wird eine kurze Beschreibung verschiedener Modifikationen des Kugelblockmodells der Lithosphärendynamik und Seismizität vorgestellt, wobei der Schwerpunkt auf der Einbeziehung von lithosphärischen Inhomogenitäten in das Modell liegt. Es wird ein Ansatz zur Programmrealisierung verwendet, der auf dem Einsatz paralleler Technologien basiert. Ergebnisse numerischer Experimente mit einer Annäherung an das globale System tektonischer Platten werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14403-5_36 6d2afe6f2fc3760f23d99969393314c9;de;;;2.2.;;;Analysieren von Asymmetrien Wir erweitern die Hypothese der integrierten Asymmetrie, indem wir die Beziehungen zwischen prinzipienbasierten linguistischen Modellen und entsprechenden Parsing-Modellen hinsichtlich ihrer Berücksichtigung inverser und verdeckter Asymmetrien betrachten. Wir präsentieren ein integriertes Modell von Sprachkenntnissen und Sprachgebrauch, das auf der logischen Definition von Asymmetrie beruht. Unser integriertes Modell hält die Beziehung zwischen Grammatik und Parser maximal einfach, während es die Spezifität jedes Systems konstant hält. Die Integration von asymmetriebasierten Parsern in IP-Systeme verbessert deren Leistung.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45154-4_1 8976f9eb09308b32caa6a0c43238be32;de;;;2.2.;;;Sci-Search: Akademisches Such- und Analysesystem basierend auf Schlüsselwörtern Die strukturierte Datendarstellung spart viel Zeit bei der Suche nach relevanten Informationen und bietet einen nützlichen Überblick über eine Domäne. Es ermöglicht Forschern, relevante Publikationen schneller zu finden und Einblicke in Tendenzen und Dynamiken eines bestimmten wissenschaftlichen Bereichs zu erhalten sowie neue Themen zu finden. Sortierte Listen von Suchergebnissen der gängigen Suchmaschinen sind für eine solche Aufgabe nicht geeignet. In diesem Beitrag demonstrieren wir eine Demoversion einer Suchmaschine, die mit Abstracts von wissenschaftlichen Artikeln arbeitet und dem Benutzer eine strukturierte Darstellung von Informationen bietet. Als Grundlage für die Verarbeitung von Algorithmen und die Darstellung werden Schlüsselphrasen verwendet. Einige Algorithmusdetails werden in dem Papier beschrieben. Eine Reihe von Testanfragen und deren Ergebnisse werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41360-5_24 6418c2035e89d3fa333165eac857a25f;de;;;2.2.;;;E-FCM-Algorithmen für kollaboratives Tagging-System Kollaboratives Tagging ist der Prozess des Verwaltens, Klassifizierens und Beschreibens von Tags, bei dem der Benutzer leicht ein Element beschreiben oder Informationen zu diesem abrufen kann. Mit dem Anwachsen von Informationen auf Social-Networking-Websites besteht die Möglichkeit der Zunahme von Tags, und es ist sehr schwierig, dem Benutzer Elemente vorherzusagen oder zu empfehlen. In diesem Papier behandeln wir das Problem der Sensitivität bei der Verteilung der Tag-Daten in Clustern und eine Optimierung kann erreicht werden, indem ähnliche Cluster im E-FCM- und E-GK-Algorithmus für kollaborative Tagging-Systeme zusammengeführt werden. Unsere Experimente mit jedem Filmdatensatz zeigen, dass E-FCM und E-GK mit Sensitivität genauere Ergebnisse liefern als Basis-Clustering-Ansätze in kollaborativen Tagging-Systemen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11933-5_11 d03ea9dbdb9f3710c8fceb8a16979022;de;;;2.2.;;;Eine webbasierte geografische Informationsplattform zur Unterstützung der städtischen Anpassung an den Klimawandel Die zunehmende Häufigkeit und Intensität von extremen Wetterereignissen und das zunehmende Bevölkerungswachstum in Städten machen es erforderlich, Risiken in städtischen Landschaften in Bezug auf kritische Infrastrukturen und gefährdete Bevölkerungsgruppen einfach zu bewerten. In diesem Kapitel stellen wir einen integrierten Rahmen für ein städtisches Klimaanpassungsinstrument (Urban-CAT) vor, das Städten helfen wird, mögliche Risiken für die städtische Infrastruktur und die Bevölkerung aufgrund des Klimawandels zu planen und nicht darauf zu reagieren. Der Kern des Rahmenwerks konzentriert sich auf die Reduzierung von Risiken, indem unterschiedliche, hochauflösende Daten von Risikoindikatoren zusammengeführt werden, um die Stadtlandschaft zu charakterisieren und Resilienzprofile zu entwickeln. Darüber hinaus integriert der Rahmen Klima- und Bevölkerungswachstumsdaten, um die zukünftigen Auswirkungen dieser Stressoren auf die Widerstandsfähigkeit der Städte besser zu verstehen, um effektive Anpassungsstrategien zu entwickeln, die darauf abzielen, die sozioökonomischen Kosten im Zusammenhang mit extremen Wetterereignissen zu senken. Dieses Framework erfordert die Integration der Vielzahl unterschiedlicher, hochauflösender Daten zur Analyse in eine dynamische Webumgebung. Wir befassen uns mit der Frage, wie diese Integration durch die Entwicklung einer verteilten, leistungsstarken Geoverarbeitungs-Engine erreicht werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22786-3_33 a68fd9095a580637b3856f50f8277cf8;de;;;2.2.;;;Multiversion Linear Quadtree für räumlich-zeitliche Daten Die Forschung in räumlich-zeitlichen Datenbanken hat sich hauptsächlich auf Erweiterungen von Zugriffsmethoden für den richtigen Umgang mit zeitveränderlichen räumlichen Informationen konzentriert. In diesem Beitrag stellen wir den Multiversion Linear Quadtree (MVLQ) vor, eine räumlich-zeitliche Zugriffsmethode basierend auf Multiversion B-Trees (MVBT) [;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44472-6_22 c91c297ca82e9171eca742e25b0ff32e;de;;;2.2.;;;Verwenden von Graph Embedding zur Verbesserung der Rückverfolgbarkeit von Anforderungen Information Retrieval (IR) wird häufig bei der automatischen Wiederherstellung der Rückverfolgbarkeit von Anforderungen verwendet. Entsprechende Ansätze basieren auf textueller Ähnlichkeit, dh je höher die Ähnlichkeit, desto höher die Wahrscheinlichkeit von Artefakten. Eine gemeinsame Arbeit vieler IR-basierter Techniken besteht darin, falsch positive Links in den Kandidatenlinks zu entfernen, um eine höhere Genauigkeit zu erreichen. Tatsächlich können Rückverfolgbarkeitslinks durch verschiedene Arten von Informationen wiederhergestellt werden, nicht nur durch die Textinformationen. In unserer Studie schlagen wir vor, mehr Rückverfolgbarkeitslinks wiederherzustellen, indem wir sowohl Textmerkmale als auch strukturelle Informationen untersuchen. Insbesondere verwenden wir kombinierte IR-Techniken, um die Textinformationen der Softwareartefakte zu verarbeiten und die strukturellen Informationen aus dem Quellcode zu extrahieren, um entsprechende Codebeziehungsgraphen zu erstellen. Wir integrieren diese strukturellen Informationen dann in die Rückverfolgbarkeits-Wiederherstellungsanalyse, indem wir Graphen einbetten. Die Ergebnisse zeigen, dass kombinierte IR-Techniken und die Verwendung von Grapheneinbettungstechnologie zur Verarbeitung von Strukturinformationen die Rückverfolgbarkeit der Rückgewinnung verbessern können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-32475-9_38 0078b3a105e4412f46a41a2cbfc94668;de;;;2.2.;;;Erkennen von Themen mit der Singularwertzerlegung Die Singulärwertzerlegung (SVD) wurde in der Vergangenheit als Werkzeug zum Erkennen und Verstehen von Mustern in einer Sammlung von Dokumenten untersucht. Wir zeigen, wie die von der SVD-Berechnung erzeugten Matrizen interpretiert werden können, um Muster von Zeichen zu erkennen, die auf bestimmte Themen in einem Korpus hinweisen. Als laufendes Beispiel wird eine Testsammlung verwendet, die aus zwei Tagen AP-Nachrichtenverkehr besteht.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-49654-8_7 2971843fba2d178cfe734b58dde5eb1e;de;;;2.2.;;;Leistung von Online-Indexerstellungsalgorithmen In diesem Artikel untersuchen wir die Leistung mehrerer kürzlich vorgeschlagener Online-Indexkonstruktionsalgorithmen. Diese Algorithmen ermöglichen jeweils die Erstellung eines Index, während gleichzeitig auf die entsprechenden Daten zugegriffen und diese aktualisiert werden. Wir verwenden ein detailliertes Simulationsmodell eines zentralisierten DBMS, um die Auswirkungen verschiedener Faktoren auf die Leistung zu quantifizieren, einschließlich des Umfangs der Aktualisierungsaktivität, des Ressourcenkonflikts, der Hintergrundlast und der Größe eines Datensatzes im Vergleich zur Größe eines Indexeintrags. Der Leistungsvergleich verwendet zwei neue Metriken, von denen eine eine „Verlust“-Metrik ist, die die Menge an Online-Arbeit widerspiegelt, die aufgrund von Störungen der Indexerstellungsaktivität verloren geht. In unserer Analyse stellen wir fest, dass es einen wichtigen Kompromiss zwischen der für die Erstellung des Index benötigten Zeit und dem Durchsatz gibt, der durch Aktualisierungstransaktionen während der Indexerstellungszeit erreicht wird. Eine wichtige Schlussfolgerung unserer Studie ist, dass bestimmte Online-Algorithmen in allen außer extrem ressourcengebundenen Situationen sehr gut funktionieren.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0032438 0db1cf94d76a3ecce8411882bf479617;de;;;2.2.;;;Benchmarking ganzheitlicher Ansätze für die Verarbeitung von XML-Baummuster-Abfragen In diesem Vortrag habe ich einige Entwicklungen im Bereich der Verarbeitung von XML-Baummuster-Abfragen skizziert und überblickt, insbesondere mit Fokus auf ganzheitliche Ansätze. Die Verarbeitung von XML Tree Pattern Query (TPQ) ist ein Forschungsstrom innerhalb des XML-Datenmanagements, der sich auf die effiziente TPQ-Beantwortung konzentriert. Mit der zunehmenden Popularität von XML für die Datendarstellung besteht ein großes Interesse an der Abfrageverarbeitung über Daten, die einem baumstrukturierten Datenmodell entsprechen. Abfragen von XML-Daten werden üblicherweise in Form von Baummustern (oder Zweigmustern) ausgedrückt, die eine sehr nützliche Teilmenge von XPath und XQuery darstellen. Das effiziente Auffinden aller Baummusterübereinstimmungen in einer XML-Datenbank ist ein Hauptanliegen der XML-Abfrageverarbeitung. In den letzten Jahren wurden viele Algorithmen vorgeschlagen, um solche Baummuster abzugleichen. Im Vortrag habe ich einen Überblick über den Stand der Technik in der TPQ-Verarbeitung gegeben. Dieser Überblick soll zunächst einige Hintergrundinformationen zu ganzheitlichen Ansätzen zur Verarbeitung von TPQ liefern, dann verschiedene Algorithmen vorstellen und schließlich Benchmark-Datensätze und -Experimente vorstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14589-6_18 af18386973aebb9504ff903b12e9e332;de;;;2.2.;;;Ähnlichkeitsanalyse von Videosequenzen mit einem künstlichen neuronalen Netz Der Vergleich von Videosequenzen ist ein wichtiger Vorgang in vielen Multimedia-Informationssystemen. Das Ähnlichkeitsmaß für den Vergleich basiert typischerweise auf einem gewissen Korrelationsmaß mit der wahrnehmungsbezogenen Ähnlichkeit (oder Differenz) zwischen den Videosequenzen oder auf der Ähnlichkeit (oder Differenz) in einem bestimmten Semantikmaß, das mit den Videosequenzen verbunden ist. Bei der inhaltsbasierten Ähnlichkeitsanalyse werden die Videodaten in Bezug auf verschiedene Merkmale ausgedrückt. Ein Ähnlichkeitsabgleich wird dann durchgeführt, indem die Merkmalsbeziehungen zwischen dem Zielvideo und den Abfragevideoaufnahmen entweder mit einem einzelnen Merkmal oder mit einer Merkmalskombination quantifiziert werden. In dieser Studie werden zwei Ansätze für die Ähnlichkeitsanalyse von Videoaufnahmen vorgeschlagen. Beim ersten Ansatz werden Mosaikbilder aus Videoaufnahmen erstellt, und die Ähnlichkeitsanalyse erfolgt durch Bestimmen der Ähnlichkeiten zwischen den Mosaikbildern. Beim zweiten Ansatz werden Schlüsselbilder für jede Videoaufnahme extrahiert und die Ähnlichkeit zwischen den Videoaufnahmen wird durch Vergleich der Schlüsselbilder der Videoaufnahmen bestimmt. Zu den extrahierten Merkmalen gehören Bildhistogramme, Steigungen, Kanten und Wavelets. Beim Ähnlichkeitsvergleich mit einem künstlichen neuronalen Netz werden sowohl einzelne Merkmale als auch Merkmalskombinationen verwendet. Der Ähnlichkeitsrang der Abfragevideoaufnahmen wird basierend auf den Werten der Bestimmungskoeffizienten und dem mittleren absoluten Fehler bestimmt. Die in diesem Beitrag berichtete Studie zeigt, dass von der mosaikbasierten Ähnlichkeitsanalyse ein zuverlässigeres Ergebnis erwartet werden kann, während die Keyframe-basierte Ähnlichkeitsanalyse potenziell auf ein breiteres Anwendungsspektrum angewendet werden könnte. Es wird gezeigt, dass die gewichtete nichtlineare Merkmalskombination bessere Ergebnisse liefert als ein einzelnes Merkmal für die Videoähnlichkeitsanalyse. Das Bestimmtheitsmaß erweist sich bei der Ähnlichkeitsanalyse als besseres Kriterium als der mittlere absolute Fehler.;-;-;-;https://link.springer.com/article/10.1007/s10791-005-6622-3 a117e92b820a89bb52991b1ac8f5f760;de;;;2.2.;;;Eine skalierbare segmentierte dynamische Zeitverzerrung für die Zeitreihenklassifizierung Der Dynamic Time Warping (DTW)-Algorithmus ist ein elastisches Distanzmaß, das eine gute Leistung bei sequenzbasierten Daten und insbesondere bei Zeitreihendaten gezeigt hat. Zwei Hauptnachteile von DTW sind die Möglichkeit pathologischer Krümmungspfade und der hohe Rechenaufwand. Verbesserungstechniken wie das Beschneiden unmöglicher Abbildungen oder das Verringern von Datendimensionen wurden vorgeschlagen, um diesen Problemen zu begegnen. Die bestehenden DTW-Verbesserungstechniken sind jedoch entweder in ihrer Wirkung begrenzt oder verwenden Genauigkeit als Kompromiss. In diesem Papier stellen wir segmented-DTW (segDTW) vor. Ein neuartiger und skalierbarer Ansatz, der den DTW-Algorithmus beschleunigen würde, insbesondere für längere Sequenzen. Unsere Heuristik nähert sich dem Zeitreihen-Mapping-Problem, indem sie globale Ähnlichkeit vor lokaler Ähnlichkeit identifiziert. Dieser globale zu lokale Prozess beginnt mit leicht zu identifizierenden globalen Spitzen. Basierend auf diesen Spitzen werden Zeitreihensequenzen in Untersequenzen segmentiert, und DTW wird auf eine Teile-und-Berechnungs-Weise angewendet. Dadurch erweitert sich die Berechnung natürlich auf den Parallelfall. Aufgrund der gepaarten Peaks kann unsere Methode einige pathologische Verwerfungen vermeiden und ist hoch skalierbar. Wir haben unsere Methode an einer Vielzahl von Datensätzen getestet und einen Geschwindigkeitsgradienten relativ zur Länge der Zeitreihensequenz erhalten, während eine vergleichbare Klassifikationsgenauigkeit beibehalten wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20915-5_37 35865d42692966ed186275fd6953fe0a;de;;;2.2.;;;Adaptive Expertensysteme und analoge Problemlösung Herkömmliche Expertensysteme sind in dem Sinne spröde, dass sie erhebliche menschliche Eingriffe erfordern, um selbst geringfügige Variationen in den Beschreibungen auszugleichen, und brechen leicht, wenn sie den Rand ihres Wissens erreichen. Als Antwort auf dieses Problem beschreibt dieser Beitrag einen Prototyp einer neuen Generation von Expertensystemen, einem sogenannten adaptiven Expertensystem (AES), das in der Lage ist, sein Wissen dynamisch und analog anzupassen. AES kombiniert die fokussierte Leistungsfähigkeit von Expertensystemen mit den analogen Problemlösungsfähigkeiten fallbasierter Argumentationssysteme und weist deutlich höhere IQs auf als die derzeit auf dem Markt erhältlichen Expertensysteme.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-53504-7_89 3f2d3e8e9cdb0fdf0ca8221d0f567d90;de;;;2.2.;;;Verbesserung der Präzision bei der automatischen Keyword-Extraktion mit aufmerksamkeitsstarken Strings Die Leistung automatischer Keyword-Extraktionsmethoden wird anhand von Erinnerungs- und Präzisionskriterien bewertet. Das Ergebnis der Keyword-Extraktion verbessert sich in der Regel, wenn die ausgewählten Keywords den von einer Person vorgeschlagenen näher kommen. Da sich Recall und Precision gegenseitig beeinflussen, führt eine Erhöhung der Präzision zu einer Recall-Abnahme und umgekehrt. In diesem Artikel wird eine Nachbearbeitungsphase vorgeschlagen, die auf der Verwendung aufmerksamkeitsattraktiver Zeichenfolgen basiert, die Kandidatenschlüsselwörter bewertet, die aus anderen Schlüsselwortextraktionsverfahren gewonnen wurden, um diejenigen zu finden, die der menschlichen Sicht am nächsten kommen. Mit anderen Worten, eine innovative Schlüsselwortbewertungsfunktion, die vom Gesamtwahrscheinlichkeitssatz inspiriert ist, wird verwendet, um das Präzisionskriterium in einer automatischen Farsi-Schlüsselwortextraktionsaufgabe zu verbessern. Die aufmerksamkeitserregenden Zeichenfolgen werden durch einen Reverse-Engineering-Prozess aus 800 Farsi-Schlüsselwörtern zugewiesenen Dokumenten ausgewählt. Die Ergebnisse zeigen, dass abgesehen von der Extraktionsmethode eine Verbesserung des Präzisionskriteriums unter Verwendung der vorgeschlagenen Nachbearbeitungsphase ohne merkliche Verringerung des Erinnerungskriteriums möglich ist.;-;-;-;https://link.springer.com/article/10.1007/s13369-013-0573-6 6c4c456051b20c2c5843d33a75ac8ae3;de;;;2.2.;;;Eine Studie zum Mining und zur Analyse von Trajektoriendatenbanken mit mehrdimensionalen Feature-Sets Die neuen Mittel in der Sensortechnologie, High-End-Mobilgeräte mit in GPS eingebetteter drahtloser Kommunikation, ermöglichen große Sammlungen von sich bewegenden Objekten mit geordneten Informationen, die als Bahndaten bezeichnet werden. Trajektoriendatenquellen werden derzeit in zahlreichen Anwendungsdomänen gestapelt und verwaltet. Es besteht ein Bedarf, Anstrengungen zu unternehmen, um Trajektoriendaten im großen Maßstab aus einer Vielzahl von Aspekten zu analysieren. Mit der Verfügbarkeit fortschrittlicher Kommunikationsgeräte, Anwendungen und Maschinen, die Daten erfassen, hat die Gesellschaft den elektronischen Suchprozess für ihren täglichen Bedarf übernommen. Die Daten von sich bewegenden Objekten, sich ändernden Werten, sequentiellen Ereignissen mit zugrundeliegender Trajektoriennatur können ein großes Informationspotenzial bieten, wenn sie intelligent verarbeitet werden. Die Forschung im Trajektorien-Data-Mining beschränkt sich nur auf Trajektorien-Datensätze mit raumzeitlichen Informationen. Aber heute gibt es Trajektoriendaten mit anderen Attributen wie Farbe und Typ (für Fahrzeuge), Überwachungswert und Kaufwert (für Transaktionsdaten), Blutdruckmesswert und Blutzuckermesswert (für medizinische Daten). Einige Versuche, solche Datensätze zu minen, hinken hinterher, um skalierbare und tragbare Methoden zum Analysieren und Mining von Flugbahndaten zu erhalten. Die vorliegende Studie hat versucht, bessere Mittel für die Analyse von Trajektoriendaten mit mehreren Attributen und das Mining im Hinblick auf einen geringeren Aufwand vorzuschlagen. Der vorgeschlagene Rahmen kann interessantes und nützliches Wissen liefern, das einige der Probleme des wirklichen Lebens durch Datenanalyse lösen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1420-3_109 64b9821ba661e3d63b6193592510c766;de;;;2.2.;;;Studie zur Multi-Source-Datenfusion in der Topic Discovery Dieser Review bietet eine Einführung in MSDF in der Themenfindung und diskutiert den Status Quo der Methoden und Anwendungen von MSDF. Dieser Review hat die Hauptgedanken von MSDF untersucht und vorgeschlagen, dass MSDF in die Fusion von Datentypen und die Fusion von Datenbeziehungen unterteilt werden könnte. Weiterhin könnte die Fusion von Datenbeziehungen in die Kreuzintegration von Multimode-Daten und die Matrixfusion von multirelationalen Daten unterteilt werden. In diesem Artikel wurden die Methoden und der technologische Prozess von MSDF untersucht, die auf die Informationsanalyse anwendbar sind, insbesondere im Bereich der Wettbewerbsintelligenz im wissenschaftlichen und technologischen Bereich.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-1536-6_95 fec6992144f8f1e3cd13efe3c5e564ca;de;;;2.2.;;;Erkennen von Symbolen über grafischen Dokumenten durch Sparsity im visuellen Vokabular Dieses Papier schlägt einen neuen Ansatz vor, um Symbole in grafischen Dokumenten zu lokalisieren, indem spärliche Darstellungen lokaler Deskriptoren über das Lernwörterbuch verwendet werden. Genauer gesagt wird eine Trainingsdatenbank verwendet, bei der es sich um aus Dokumenten extrahierte lokale Deskriptoren handelt, um das gelernte Wörterbuch aufzubauen. Dann werden die Kandidatenregionen in Dokumente gemäß der Ähnlichkeitseigenschaft zwischen spärlichen Darstellungen lokaler Deskriptoren definiert. Ein Vektormodell für Kandidatenbereiche und für ein Abfragesymbol wird basierend auf der Knappheit in einem visuellen Vokabular konstruiert, wobei die visuellen Wörter Spalten im gelernten Wörterbuch sind. Der Abgleichprozess wird durchgeführt, indem die Ähnlichkeit zwischen Vektormodellen verglichen wird. Die erste Auswertung der SESYD-Datenbank zeigt, dass die vorgeschlagene Methode vielversprechend ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-4859-3_6 5a3895a1b76d7f64447309cba65783f0;de;;;2.2.;;;Eine semantische Darstellung von Mikroblog-Kurztexten basierend auf einem Themenmodell Die grundlegende Herausforderung für Mikroblog-Kurztexte besteht darin, ihre Semantik darzustellen, zu berechnen und zu analysieren, da sie umgangssprachlich und auf 140 Wörter beschränkt sind. Dieser Beitrag präsentiert einen Ansatz zur semantischen Darstellung von Microblogs basierend auf einem Themenmodell. Zunächst erhalten wir den Themenvektor Mikro-Blog durch Wort-Themen Gegenseitige Verstärkung von Mikro-Blog-Texten. Zweitens nutzen wir die Vorteile der verbesserten K-Means, um Mikroblog-Themenvektoren zu clustern und eine Kategorie von Mikroblogs zu gewinnen. Drittens führen wir Experimente durch, um die oben genannten Methoden zu beweisen. Schließlich stellen wir fest, dass diese Methoden die Semantik von Mikroblog-Texten genau und effektiv berechnen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55038-6_48 6350cc3ddfbb95be2393555714023a6b;de;;;2.2.;;;Regionale Unterschiede in der Aufnahme von Bromdesoxyuridin, der Expression des Ki-67-Proteins und der Anzahl der nukleolären Organisatorregionen bei Glioblastoma multiforme Um intratumorale Unterschiede in den Indizes der Tumorzellproliferation zu untersuchen, haben wir den Bromdesoxyuridin-Markierungsindex (BrdUrd LI), die Ki-67-Proteinproliferationszellindizes (PCIs) gemessen durch den monoklonalen Antikörper MIB 1 in Mikrowellen-prozessierten Paraffinschnitten (MIB 1 PCI) und in einigen Fällen durch monoklonale Antikörper in Gefrierschnitten (Ki-67 PCI) und Zählungen von argyrophilen nukleolären Organisatorregionen (AgNORs) in 20 Glioblastomen. In den am stärksten proliferierenden Gebieten korrelierten MIB 1 und Ki-67 PCIs gut mit dem BrdUrd LI und miteinander, während AgNOR-Zählungen weniger stark mit diesen Indizes korrelierten. In weniger aktiven Arealen veränderten sich die MIB 1 PCI und BrdUrd LI gleichzeitig von einem Areal zum anderen innerhalb eines Tumors, außer in Arealen mit Pseudopalisaden mit Nekrose, in diesen Arealen nahm BrdUrd LI im Vergleich zum benachbarten Tumorgewebe signifikant ab, während die MIB 1 PCI nicht. Es gab eine sehr geringe Färbung der gemistocytischen Kerne entweder mit monoklonalen Anti-BrdUrd- oder MIB-1-Antikörpern, was das Konzept unterstützt, dass Gemistocyten hauptsächlich ruhende Zellen sind. AgNORs in allen oben genannten Bereichen variierten von Tumor zu Tumor, was darauf hindeutet, dass sie eine andere zelluläre Aktivität als die Proliferation anzeigen können. Die enge Korrelation zwischen den Protein-PCIs BrdUrd LI und Ki-67 in entsprechenden Regionen von Glioblastomen legt nahe, dass die MIB-1-Färbung von mikrowellenprozessierten Paraffinschnitten verwendet werden kann, um das Wachstumspotenzial einzelner Glioblastome und möglicherweise auch anderer Gliome zu bewerten.;-;-;-;https://link.springer.com/article/10.1007/BF00293319 00227f30e2506f5adde6953c16932e21;de;;;2.2.;;;Coverless Video-Steganographie basierend auf Inter-Frame-Kombination Bei den meisten abdeckungslosen Bildsteganographieverfahren steigt die Anzahl der Bilder exponentiell mit der Zunahme der versteckten Nachrichtenbits, was schwierig ist, einen solchen Datensatz zu erstellen. Und mehrere Bilder in semantischer Irrelevanz werden normalerweise benötigt, um weitere geheime Nachrichtenbits darzustellen, die leicht die Aufmerksamkeit des Angreifers erregen und etwas Unsicherheit bringen. Um diese beiden Probleme zu lösen, wird in diesem Manuskript ein abdeckungsloses Video-Steganographie-Verfahren vorgeschlagen, das auf einer Zwischenbildkombination basiert. Bei dem vorgeschlagenen Verfahren wird die Hash-Sequenz eines Frames durch die CNNs und den Hash-Generator erzeugt. Um mehr Informationsbits in einem Video auszublenden, wird eine spezielle Abbildungsregel vorgeschlagen. Durch diese Zuordnungsregel werden einige Schlüsselbilder in einem Video ausgewählt. In den ausgewählten Frames werden ein oder mehrere Frames verwendet, um eine Information mit gleicher Länge darzustellen. Um die entsprechenden Frames schnell zu indizieren, wird in diesem Manuskript eine dreistufige Indexstruktur vorgeschlagen. Da das vorgeschlagene abdeckungslose Videosteganographieverfahren kein Bit in das Video einbettet, kann es Steganalysealgorithmen effektiv widerstehen. Die experimentellen Ergebnisse und Analysen zeigen, dass das vorgeschlagene Verfahren eine große Kapazität, gute Robustheit und hohe Sicherheit aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72073-5_11 2fb3b33e18de7d283915ff59d86aeb5d;de;;;2.2.;;;Rechtsventrikuläre Myokardfunktion bei ARF-Patienten Es sollten die hämodynamischen Wirkungen des externen positiven endexspiratorischen Drucks (PEEP) auf die rechtsventrikuläre (RV) Funktion bei Patienten mit akutem Atemversagen (ARF) untersucht werden.;-;-;-;https://link.springer.com/article/10.1007/BF01709520 67bd05884aadfa3a228c9d02fe73c9fa;de;;;2.2.;;;Ein Ansatz zur Verarbeitung natürlicher Sprache für die Erstellung von Online-Rezensionen mit Topic Modeling Bei Künstlicher Intelligenz geht es darum, wie Computer und Menschen kommunizieren und wie wir mit Sprachabkürzungen interagieren. Der ultimative Zweck des NLP ist es, sich auf eine Weise zu verbinden, die Menschen verstehen und erwidern können. Social-Networking-Nachrichten sind zu einer wichtigen Quelle der Verbraucheraufklärung geworden. Verkäufer nutzen Online-Feedback, um zu wissen, ob ein potenzieller Käufer ein großer Teil ihres Marktes ist. Wenn solche Online-Bewertungen jedoch zu umfangreich und/oder extrem detailliert sind, profitieren sowohl Käufer als auch Verkäufer von einem Mechanismus, der ihnen schnell wichtige Erkenntnisse entzieht. In diesem Forschungspapier haben wir die Verarbeitung natürlicher Sprache verwendet, um das Feedback der Sprachverarbeitungsgemeinschaft zu bewerten. Andere Daten fließen in die Bewertung unserer Peers ein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-76776-1_6 66e8969ec5506b99bb0157b93a26228c;de;;;2.2.;;;Expertensystem zur verhaltensbasierten Malware-Erkennung – Tarantula Die Anzahl neuer Malware-Samples und deren Komplexität nimmt rapide zu, weshalb der Schutz des Systems mit signaturbasierter Erkennung immer schwieriger wird. In dieser Arbeit stellen wir ein neuartiges verhaltensbasiertes Expertensystem zur Erkennung von Malware namens Tarantula vor, das verdächtige Verhaltensregeln verwendet, um bösartige Aktivitäten auf dem System zu erkennen. Bei unseren Recherchen haben wir festgestellt, dass Malware auf kritische Systemressourcen wie Systemdateien und die Registrierung des Betriebssystems abzielt, um ausgeführt, sich selbst abzuschirmen und auf andere Hosts zu verbreiten. Wir haben die kritischen Systemressourcen wie Systemdateien und Registrierung in Microsoft Windows identifiziert und verdächtige Verhaltensregeln auf granularer Ebene entwickelt. Diese Verhaltensregeln werden mithilfe der Überwachungs- und Durchsetzungsebene durchgesetzt. Durch umfangreiche Experimente und Tests kommen wir zu dem Schluss, dass das Tool eine hohe Erkennungsrate und sehr wenig Overhead und falsch positive Ergebnisse aufweist. Die Implementierungsdetails des Prototyps (Tarantula), der für die Betriebssysteme Microsoft Windows XP und Vista entwickelt wurde, werden ebenfalls bereitgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22540-6_7 c8bfe76e8f2444df818afbe3609af96e;de;;;2.2.;;;Diskrete Quellen kosmischer Radiowellen Eines der Hauptmerkmale der Verteilung der kosmischen Hochfrequenzstrahlung über den Himmel ist das Vorhandensein lokalisierter Quellen relativ hoher Intensität, die mit dem Begriff beschrieben werden;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45932-0_5 675fb47981ae4362b8990465dc2d0b91;de;;;2.2.;;;Wavelet-basierte progressive Übertragung und Sicherheitsfilterung für die medizinische Bildverteilung Mit der rasanten Expansion von Computernetzwerken ist für die Kommunikation und Speicherung medizinischer Informationen eine neue Ära eingetreten. Teleklinische Praxis und digitale Computerspeicherung sind zwei wichtige medizinische Informationstechnologien, die dem Thema Datenkomprimierung eine entscheidende Bedeutung verliehen haben. Die effiziente Komprimierung von Daten ist der Schlüssel zur Ermöglichung der teleklinischen Praxis, da die Bandbreite der Computermedien für die riesige Menge an zu übertragenden medizinischen Daten zu begrenzt ist. Aufgrund der hohen Komprimierbarkeit der medizinischen Bilder ist trotz der Verfügbarkeit kostengünstiger Hardware für die Massenspeicherung eine Datenkomprimierung auch für die digitale Speicherung wünschenswert. Dieses Kapitel befasst sich mit der Familie der progressiven Bildkompressionsalgorithmen. Die progressive Eigenschaft wird bevorzugt, da sie es Benutzern ermöglicht, Bilder von Bildern mit niedriger zu hoher Qualität allmählich wiederherzustellen und bei jeder gewünschten Bitrate zu stoppen, einschließlich einer verlustfreien Wiederherstellung. Ein progressiver Übertragungsalgorithmus mit automatischen Sicherheitsfilterungsfunktionen für die Online-Verteilung medizinischer Bilder unter Verwendung der Wavelets von Daubechies wurde entwickelt und in diesem Kapitel diskutiert. Das System ist praktisch für reale Anwendungen und verarbeitet und codiert jedes 12-Bit-Bild der Größe 512 × 512 innerhalb von 2 Sekunden auf einem Pentium Pro. Neben seiner außergewöhnlichen Geschwindigkeit hat der Sicherheitsfilter eine bemerkenswerte Genauigkeit bei der Erkennung sensibler Textinformationen in aktuellen oder digitalisierten früheren medizinischen Bildern gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5553-7_12 a2caca293ce6f57714a10894d92381b2;de;;;2.2.;;;Automatisiertes formales Testen der C-API mit dem T2C-Framework Ein Problem der automatisierten Testentwicklung zur Überprüfung der Grundfunktionalität von Programmschnittstellen (API) wird diskutiert. Befragt werden unterschiedliche Technologien und entsprechende Tools. Und die in ISPRAS entwickelte T2C-Technologie wird vorgestellt. Die Technologie und die zugehörigen Tools erleichtern die Entwicklung von Tests mit „mittlerer Qualität“ (und „mittleren Kosten“). Ein wichtiges Merkmal der T2C-Technologie ist, dass sie erzwingt, dass jede Prüfung in einem entwickelten Test explizit mit der entsprechenden Stelle im Standard verknüpft wird. T2C-Tools bieten bequeme Mittel, um eine solche Verknüpfung herzustellen. Die Ergebnisse des Einsatzes von T2C werden beispielhaft für ein Projekt zum Testen von Schnittstellen von Linux-Systembibliotheken nach dem LSB-Standard betrachtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88479-8_5 a30a38f49b7a0943a3eab7fa116828e8;de;;;2.2.;;;Struktur, Kinematik und Dynamik stellarer Systeme Karl Schwarzschild war ein Pionier der stellaren Dynamik. Sein wichtigster Beitrag auf diesem Gebiet war zweifellos die bis heute im Wesentlichen gültige Beschreibung der Geschwindigkeitsverteilung von Sternen als Geschwindigkeitsellipsoid [4.2,3], die nach ihm als „Schwarzschild-Verteilung“ bezeichnet wurde. Er zeigte auch, wie sich die Relaxationszeit eines Sternsystems aus den gegenseitigen Gravitationsstörungen einzelner Sterne berechnen lässt [4.11]. Andere Arbeiten, die sich mit Sternsystemen beschäftigten, beschäftigten sich mit der Bestimmung der Sterndichte in unserem Milchstraßensystem [4.5, 6, 10] sowie mit bestimmten zusätzlichen Einzelfragen [4.1, 7-9]. Er schrieb auch populäre Artikel über das „System der Fixsterne“, die das Grundbild von Schwarzschild besonders deutlich machen [4.4].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-58086-4_6 79e653435526183c0664fc8be2c9b7a8;de;;;2.2.;;;Von der Zeit in den Weltraum: Schnelle Algorithmen, die kleine und schnelle Datenstrukturen liefern In vielen Fällen führt die Beziehung zwischen Codierraum und Ausführungszeit zu kombinatorischen unteren Grenzen der Rechenkomplexität von Algorithmen in den Vergleichs- oder externen Speichermodellen. Wir beschreiben einige Fälle, die diesen Zusammenhang in eine bestimmte Richtung veranschaulichen, in denen schnelle Algorithmen komprimierte Codierungen oder Datenstrukturen inspirieren. Insbesondere beschreiben wir die Beziehung zwischen der Suche in einem geordneten Array und dem Codieren von ganzen Zahlen, dem Zusammenführen von Mengen und dem Codieren einer Folge von Symbolen sowie dem Sortieren und Komprimieren von Permutationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40273-9_8 681558d12d110dffd17bffa9990a985f;de;;;2.2.;;;Strukturierung großer SETL-Programme In diesem Kapitel runden wir unsere Darstellung der Kontrollstrukturen von SETL ab, indem wir bestimmte nützliche Funktionen beschreiben, die in früheren Kapiteln nicht behandelt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-9575-1_8 dd07f09d2f021a5a5f2acbe9c2dd7795;de;;;2.2.;;;Kontaktbinärdateien vom Typ W UMa W UMa-Typ-Systeme verdunkeln Doppelsterne mit Umlaufzeiten zwischen etwa 5 und 18 Stunden und zeigen kontinuierliche Lichtschwankungen. Sie wurden in allgemeinen Übersichtsartikeln von Binnendijk (1965, 1970, 1977) und Rucinski (1985a) als Klasse definiert. Die Sterne vom Typ W UMa nehmen aus mehreren Gründen eine Sonderstellung unter den Doppelsternen ein. Wir werden diese Gründe im Folgenden aufzählen und gegebenenfalls betonen, dass einige auf falschen Vorstellungen oder alten, ungültigen Daten beruhen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-2416-4_8 aec6f193385a8d11a893ec8e245bb4d6;de;;;2.2.;;;Behandlungsplanung Die Entwicklung von Behandlungsmethoden in der Strahlentherapie basierte früher hauptsächlich auf klinischen Beobachtungen der positiven und negativen Auswirkungen von Behandlungen auf Patienten. Für die weitere Verbesserung dieser Methoden erwies es sich als wichtig, eine Korrelation zwischen diesen empirisch gesammelten Erfahrungen und detaillierten Kenntnissen über die Strahlendosis in interessierenden Organen und Geweben des Patienten herzustellen. Es ist daher natürlich, dass Strahlentherapeuten und später Physiker sich viel um die klinische Dosimetrie bemüht haben. Eine nachlassende Kraft dieser Bemühungen ist in naher Zukunft kaum zu erwarten. Durch die Verwendung von Ergebnissen wissenschaftlicher Experimente in der Strahlenbiologie als rationale Grundlage für eine erfolgreiche klinische Arbeit werden die Anforderungen an eine adäquate physikalische Beschreibung der Strahlungsabsorption eher eher zunehmen als abnehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-80605-6_12 2b3afa75557f3365bd59e42355c2163b;de;;;2.2.;;;Unterstützung der konfigurationsbasierten Featuremodellzusammensetzung Feature Models (FMs) wurden im Bereich der Software Product Lines (SPL) eingeführt, um Produktvariabilität zu modellieren und darzustellen. Sie sind zu einem De-facto-Standard geworden und basieren auf einer logischen Baumstruktur, die von textübergreifenden baumübergreifenden Einschränkungen begleitet wird. Andere Darstellungen sind: (Produkt-)Konfigurationssätze aus konkreten Softwareproduktlinien, logische Darstellungen, Constraint-Programmierung oder konzeptionelle Strukturen, die aus dem Formal Concept Analysis (FCA) Framework stammen. Die Modellierung der Variabilität durch FMs kann darin bestehen, sie aus Konfigurationssätzen zu extrahieren (nämlich FM-Synthese durchzuführen) oder sie in mehreren Schritten zu entwerfen, die möglicherweise mehrere Teams mit unterschiedlichen Anliegen einbeziehen. Die FM-Komposition ist bei dieser Entwurfsaktivität nützlich, da sie das iterative FM-Building unterstützen kann. In diesem Papier beschreiben wir einen Ansatz, der auf einem Konfigurationssatz basiert und sich auf zwei Hauptkompositionssemantiken (Vereinigung, Schnittmenge) konzentriert, um Designer bei der FM-Komposition zu unterstützen. Wir führen auch einen Näherungsschnittbegriff ein. FCA wird verwendet, um für eine Produktfamilie alle FMs darzustellen, die den gleichen Konfigurationssatz durch eine kanonische Form haben. Der Ansatz ist in der Lage, baumübergreifende Einschränkungen und FMs mit unterschiedlichen Feature-Sets und Baumstrukturen zu berücksichtigen und lässt dem Experten somit die Freiheit, eine andere ontologische Interpretation zu wählen. Wir beschreiben die Umsetzung unseres Ansatzes und stellen konkrete Beispiele vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94135-6_6 75d5ab03eb96f301aeb49364bb1e5c73;de;;;2.2.;;;Wartungs-IoT-Projekt-Framework zur Erweiterung der Effekte zum Nutzen aller Beteiligten Asset Management ist einer der wichtigen Anwendungsbereiche neuer Internet of Things (IoT)-Technologien wie Data Analytics und Künstliche Intelligenz (KI). Allerdings beschränkt sich der Anwendungsbereich von IoT in vielen Fällen nur auf einen kleinen Teil des Wartungsbetriebs, sodass für Wartungsunternehmen nur eine geringe Wartungsverbesserung erzielt wird und gleichzeitig auch für IT-Unternehmen der IoT-Umsatz gering bleibt. IoT-Wartungslösungen werden manchmal nicht in den tatsächlichen Betrieb eingeführt, obwohl der Technologietest erfolgreich abgeschlossen wurde. Um solche Situationen zu vermeiden, wurde die Customer Cocreation-Methode in Wartungs-IoT-Projekten eingeführt. Allerdings verhindern die Wissens- und Interessenslücken zwischen Instandhaltungs- und IoT-Unternehmen die Diskussion. In dieser Studie stellen wir unser Wartungsservice-Menü vor, das verschiedene Ideen für Wartungsverbesserungen enthält und Wartungsverbesserungen und IoT-Lösungssets verbindet. Außerdem führen wir eine neue Methode der Kunden-Kokreation ein, die auf dem Servicemenü basiert. Das Servicemenü und die neue Cocreation-Methode sollen eine praktische und effektive IoT-Projektorganisation für die Instandhaltung und das Cross-Selling von Lösungen ermöglichen, um sowohl die Verbesserungseffekte der Instandhaltung als auch den IoT-Umsatz zu erweitern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3118-7_18 341fccecbcf96bac6880e643267992f2;de;;;2.2.;;;Asteroid Albedos und Durchmesser Dieser Artikel diskutiert den Stand unseres Wissens über Asteroidengrößen und Albedos. Es enthält eine kurze Diskussion der Methoden zur Bestimmung von Größen und Albedos, beginnend mit Versuchen mit Filar-Mikrometern bereits 1802 und gipfelnd mit der Veröffentlichung des IRAS Minor Planet Survey 1993. Es befasst sich mit der Vollständigkeit und Zuverlässigkeit des IRAS Minor Planet Survey, fasst die statistischen Anpassungen zusammen, die an den abgeleiteten Ergebnissen vorgenommen wurden, und berücksichtigt die Auswirkungen dieser Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-1148-5_5 53abbdeefb15db24eafbb45754469700;de;;;2.2.;;;Brechungsindexsensoren basierend auf der verschmolzenen konischen Spezial-Multimode-Faser In diesem Artikel wird ein neuartiger Brechungsindex (RI)-Sensor vorgeschlagen, der auf der verschmolzenen, sich verjüngenden speziellen Multimode-Faser (SMMF) basiert. Zuerst wird ein Abschnitt von SMMF zwischen zwei Singlemode-Fasern (SMFs) gespleißt. Dann wird die SMMF durch eine Schmelzverjüngungsmaschine verarbeitet und eine verjüngte Faserstruktur wird hergestellt. Schließlich wird ein verschmolzener konischer SMMF-Sensor zur Messung des externen RI erhalten. Der RI-Erfassungsmechanismus des konischen SMMF-Sensors wird im Detail analysiert. Für verschiedene fusionierte Tapering-Längen zeigen die experimentellen Ergebnisse, dass die RI-Empfindlichkeit bis zu 444,517 81 nm/RIU im RI-Bereich von 1,334 9 – 1,347 0 betragen kann. Die RI-Empfindlichkeit wird mit zunehmender fusionierter Tapering-Länge erhöht. Darüber hinaus hat es viele Vorteile, einschließlich hoher Empfindlichkeit, kompakter Struktur, schneller Reaktion und breitem Anwendungsbereich. So kann es zur Messung der Lösungskonzentration in den Bereichen Biochemie, Gesundheitswesen und Lebensmittelverarbeitung eingesetzt werden.;-;-;-;https://link.springer.com/article/10.1007/s11801-016-5160-0 9916bac51ecadd6b044e391443281aff;de;;;2.2.;;;Ein Cache-Invalidierungsschema für kontinuierliche partielle Übereinstimmungsabfragen in mobilen Computerumgebungen Die kontinuierliche Partial-Match-Abfrage ist eine Partial-Match-Abfrage, deren Ergebnis konsistent im Speicher des Clients verbleibt. Herkömmliche Cache-Ungültigkeitsverfahren für mobile Clients basieren auf Datensatz-IDs. Da jedoch die Teilübereinstimmungsabfrage einen inhaltsbasierten Abruf verwendet, können die herkömmlichen ID-basierten Ansätze die Cache-Konsistenz mobiler Clients nicht effizient verwalten. In diesem Papier schlagen wir ein prädikatenbasiertes Cache-Invalidierungsschema für kontinuierliche partielle Übereinstimmungsabfragen in mobilen Computerumgebungen vor. Wir stellen den Cache-Status eines mobilen Clients als Prädikat dar und erstellen auch einen Cache-Invalidation-Report (CIR), den der Server mit Prädikaten an Clients zur Cache-Verwaltung sendet. Um die Informationsmenge zu reduzieren, die für das Cache-Management benötigt wird, schlagen wir eine Reihe von Methoden für die CIR-Konstruktion (im Server) und die Identifizierung ungültiger Daten (im Client) vor. Durch Experimente zeigen wir, dass der prädikatenbasierte Ansatz für das Cache-Management von mobilen Clients sehr effektiv ist.;-;-;-;https://link.springer.com/article/10.1007/s10619-008-7027-2 1a48a1bc0fec169b31ac94c675e9bd6e;de;;;2.2.;;;Ein CASE-Tool für den Entwurf geografischer Datenbanken, das Analysemuster unterstützt Dieses Papier beschreibt die Entwicklung eines Open-Source-Case-Tools, des ArgoCASEGEO, und seiner modularen Architektur. Das ArgoCASEGEO ermöglicht die geografische Datenbankmodellierung basierend auf dem UML-GeoFrame-Konzeptmodell, das speziell für Anwendungen in geografischen Informationssystemen entwickelt wurde. Das dem modellierten Schema zugeordnete Datenwörterbuch wird als XML/XMI-Dokument gespeichert, das auf seine Verwendung durch andere Software ausgerichtet ist. Das ArgoCASEGEO folgt einer Designmethodik, die auf einer wiederverwendbaren Sammlung von Analysemustern basiert. Die Sammlung von Analysemustern wird in einer Datenbank gespeichert, die einen Katalog bildet. Der Katalog ist dem ArgoCASEGEO beigefügt. Somit wird die Suche nach vorhandenen Analysemustern einfacher und effizienter.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30466-1_5 c41d7934466a9a3c4c1acc6b0cd9c341;de;;;2.2.;;;Erkennung koronaler Massenauswürfe unter Verwendung mehrerer Merkmale und Raum-Zeit-Kontinuität Koronale Massenauswürfe (CMEs) setzen enorme Energiemengen im Sonnensystem frei, die Auswirkungen auf Satelliten, Energieanlagen und die drahtlose Übertragung haben. Um ein CME in . effektiv zu erkennen;-;-;-;https://link.springer.com/article/10.1007/s11207-017-1107-2 85fa39e178d174d991dd0c926c81f260;de;;;2.2.;;;Prädikats-/Übergangsnetze Der Beitrag befasst sich mit konzeptionellen, mathematischen und praktischen Aspekten der Entwicklung eines netztheoretischen Systemmodells. Das vorgestellte Modell basiert auf gängigen Techniken zur Modellierung statischer Systeme als strukturierte Mengen von Individuen (relationale Strukturen). Diese Strukturen werden „dynamisiert“, indem einige Beziehungen zwischen Individuen durch die Prozesse des modellierten Systems verändert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-47919-2_9 7f69476542ced1104bf93908c9769ccb;de;;;2.2.;;;Automatisierte Produktion von großdimensionierten Artikeln mit komplexer geometrischer Form auf hydraulischen Pressenanlagen Analytische Beziehungen, die die Bestimmung der Wechselbeziehung zwischen der Grundeigenschaft des Materials in einem großdimensionierten Gegenstand, der in eine komplexe geometrische Form gebracht wird – Dichte, und den Produktionsparametern Verdichtungskraft und Einbettzeit während seiner Herstellung durch das mehrstufige Verdichtung, abgeleitet.;-;-;-;https://link.springer.com/article/10.1007/s10556-008-9085-8 923fb6d9554125f71dd1242e115768b8;de;;;2.2.;;;Hochempfindliche Brechungsindexsensoren auf Basis einer verschmolzenen, sich verjüngenden photonischen Kristallfaser In dieser Veröffentlichung wird ein neuartiger Flüssigkeits-Brechungsindex-(RI)-Sensor basierend auf einer fusionierten, sich verjüngenden photonischen Kristallfaser (PCF) vorgeschlagen. Es wird durch Verschmelzen und Verjüngen eines PCF-Abschnitts hergestellt, der mit zwei Singlemode-Fasern (SMFs) gespleißt wird. Durch die fusionierte bikonische Taper-Methode wird der Sensor länger und dünner, damit die Änderung des äußeren RI direktere Auswirkungen auf das interne optische Feld des PCF hat, was letztendlich die Empfindlichkeit dieses Sensors erhöht. Experimentelle Ergebnisse zeigen, dass die Transmissionsspektren des Sensors mit zunehmendem RI offensichtlich rotverschoben sind. Je länger der sich verjüngende Bereich des Sensors ist, desto höher ist die Empfindlichkeit. Dieser Sensor hat die Vorteile einfacher Struktur, einfacher Herstellung, hoher Leistung usw., so dass er potenzielle Anwendungen bei der RI-Messung hat.;-;-;-;https://link.springer.com/article/10.1007/s11801-016-5268-2 6d1145f9e66af1667ad222995127eec8;de;;;2.2.;;;Relationaler Abgleich Ein Bild kann in primitive Teile segmentiert werden, die durch Knoten eines Graphen oder einer n-ären relationalen Struktur dargestellt werden können, in der Bögen oder n-Tupel Beziehungen zwischen primitiven Teilen darstellen. Indem wir relationale Darstellungen abgleichen, anstatt einfach ganze Bilder zu korrelieren, können wir den Abgleichsprozess invariant gegenüber Änderungen von Bildattributen machen, die wir ignorieren möchten. Zum Beispiel kann der Bildabgleich bei spezifischen Verzerrungen invariant gemacht werden oder kann bei räumlichen Neuanordnungen, die die Nachbarschafts- oder Verbindungsbeziehungen zwischen primitiven Teilen bewahren, invariant gemacht werden. Bei der eigentlichen Erkennung primitiver Teile können Adjazenz- oder andere Beziehungen kontextbezogen verwendet werden zur Segmentierung vor der Erkennung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82017-5_9 a2c7aacc2ab13e62bc3219e6fcbf18f6;de;;;2.2.;;;Ein formales Modell für objektorientiertes Design und GoF-Designmuster Insbesondere bei objektorientierten Entwurfsmethoden werden Entwurfsmuster immer beliebter, um die Schlüsselaspekte häufig vorkommender Entwurfsstrukturen zu identifizieren und zu abstrahieren. Die Abstraktheit der Muster ermöglicht ihre Anwendung in vielen verschiedenen Bereichen, was sie zu einer wertvollen Grundlage für wiederverwendbares objektorientiertes Design und damit für effektivere Ergebnisse von Designern macht. In der Standardliteratur zu Mustern werden sie jedoch ausnahmslos informell beschrieben, wobei im Allgemeinen natürliche Sprache zusammen mit einer Art grafischer Notation verwendet wird, was es sehr schwierig macht, eine aussagekräftige Bestätigung dafür zu geben, dass die Muster konsistent und korrekt in einem Design verwendet wurden. In diesem Beitrag beschreiben wir ein formales Modell des objektorientierten Entwurfs und Entwurfsmuster, mit dem gezeigt werden kann, dass ein bestimmtes Design einem bestimmten Muster entspricht, und wir veranschaulichen anhand eines Beispiels, wie dies geschehen kann. Die Formalität des Modells kann auch dazu beitragen, Mehrdeutigkeiten und Unvollständigkeiten in den informellen Beschreibungen der Muster aufzulösen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45251-6_13 ad6d6e936adc48d72b2ff8af061cb1e2;de;;;2.2.;;;Eine langfristige Perspektive Die dreizehn vorangegangenen Beiträge in diesem Band wurden auf dem 17. Internationalen Tsunami-Symposium der Tsunami-Kommission der Internationalen Union für Geodäsie und Geophysik (IUGG) im Juli 1995 in Boulder, Colorado, präsentiert. Das Symposium war Teil der XXI. Generalversammlung der IUGG und wurde teilweise von der International Association of Seismology and the Physics of the Earth’s Interior (IASPEI) und teilweise von der Union gesponsert.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-8859-1_14 17555e1d6432cb4dd4ac51011950c865;de;;;2.2.;;;Genomweite Assoziationsanalysen enthüllen die genetische Grundlage der Biomasseakkumulation unter symbiotischer Stickstofffixierung in afrikanischen Sojabohnen Wir erforschten die genetische Basis von SNF-bezogenen Merkmalen durch GWAS und identifizierten 40 Kandidatengene. Diese Studie liefert grundlegende Einblicke in SNF-bezogene Merkmale und wird die Bemühungen um die SNF-Züchtung beschleunigen.;-;-;-;https://link.springer.com/article/10.1007/s00122-019-03499-7 160d3b0c90b38a7921f5085ba358e2cd;de;;;2.2.;;;Der Attentäter und seine Gefährten In Kap. 4 erzählten wir die Geschichte von Orion und seinem Tod durch die Götter. Nach Orions Tod und einem Versuch, ihn wiederzubeleben (beschrieben im nächsten Kapitel), teilten die Götter die Charaktere in zwei Gruppen und trennten sie, um weitere Gewalt zu verhindern. Orion, sein Jagdhund, der Hase, den sie jagten, und der Stier, der Orion ablenkte, damit der riesige Skorpion seine tödliche Aufgabe erfüllen konnte, wurden in einer zusammenhängenden Gruppe am Winterhimmel aufgestellt. Der Rest der Charaktere in dieser Geschichte wurde in einer zweiten zusammenhängenden Gruppe am Sommerhimmel platziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-6941-5_5 af5643fb9bf62a4d9087f7e4f6796a44;de;;;2.2.;;;Reinigung und pharmakologische Analyse des Omega-Conotoxin-GVIA-Rezeptors aus Rattenhirn Die Erregung von Neuronen ist an die Sekretion von Neurotransmittern durch eine diskrete Folge von Ereignissen gekoppelt, bei der ein elektrisches Signal in Form des sich entlang des Axons ausbreitenden Aktionspotentials in einen Anstieg des Kalziums am Nervenende umgewandelt wird (Sakmann, 1992). ). Zahlreiche ausgezeichnete Berichte befassen sich mit der Bedeutung von Calcium als intrazellulärem Botenstoff und erläutern die spezifischen Schritte bei der Freisetzung von Neurotransmittern (Augustin;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-2239-0_1 16b2e64fedeca27b6e839d0bc09451e6;de;;;2.2.;;;Wohnexpositionsfaktoren – Datenquellen und Grundsätze für ihre Verwendung Die in diesem Kapitel vorgestellten Informationen zu den Expositionsfaktoren für Wohngebäude sind nur dann von großer Bedeutung, wenn ihre Verwendung im Expositionsbewertungsverfahren nachgewiesen wird. Die in Kapitel 10 erörterten guten Expositionspraktiken und -grundsätze gelten auch für Expositionsfaktoren für Wohngebäude. Aus Sicht der Exposition des Menschen ist die besorgniserregende Umgebung der Wohnort, und die bedenklichen exponierten Rezeptoren sind Menschen, die die Wohnräume bewohnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-1279-0_11 e610ccd9e4d8e44399785b077f4eb8dc;de;;;2.2.;;;Vergleichende Analyse der Bestimmung von Disulfidbrücken mit rechnerisch-prädiktiven Methoden und einem massenspektrometrischen algorithmischen Ansatz Die Identifizierung des Disulfid-Bindungsmusters in einem Protein ist entscheidend für das Verständnis seiner Struktur und Funktion. Im Stand der Technik wurde eine große Anzahl von Computerstrategien vorgeschlagen, die das Disulfidbindungsmuster anhand von Informationen auf Sequenzebene vorhersagen. In der jüngeren Vergangenheit hat auch der Einsatz massenspektrometrischer (MS) Methoden in der Proteomik einen Aufschwung erlebt. Eine auf Massenspektrometrie basierende Analyse kann auch verwendet werden, um Disulfidbindungen zu bestimmen. Darüber hinaus können MS-Methoden im Vergleich zur Röntgenkristallographie oder NMR mit geringerer Probenreinheit arbeiten. Ohne die Hilfe von Computertechniken ist die MS-basierte Identifizierung von Disulfidbrücken jedoch zeitaufwändig und kompliziert. In diesem Beitrag präsentieren wir eine algorithmische Lösung für dieses Problem und untersuchen, wie die vorgeschlagene Methode einige der wichtigsten Herausforderungen der Massenspektrometrie erfolgreich bewältigt. Mit Daten aus der Analyse von neun eukaryotischen Glycosyltransferasen mit unterschiedlicher Anzahl von Cysteinen und Disulfidbrücken führen wir eine detaillierte vergleichende Analyse zwischen dem MS-basierten Ansatz und einer Reihe von computergestützten Vorhersagemethoden durch. Diese Experimente heben die Kompromisse zwischen diesen Klassen von Techniken hervor und liefern kritische Einblicke für weitere Fortschritte in diesem wichtigen Problembereich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-70600-7_11 0d9ef7857089e21807f60c07d5042caf;de;;;2.2.;;;Multi-Density-Clustering-Algorithmus zur Anomalieerkennung mit KDD’99-Datensatz Die Anomalieerkennung ist derzeit in vielen Bereichen ein wichtiges und aktives Forschungsproblem und in zahlreiche Anwendungen eingebunden. Die Handhabung großer Datenmengen oder des Verkehrs über das Netzwerk ist die größte Herausforderung im Bereich des Intrusion Detection Systems, um den Einbruch durch die Analyse des Netzwerkverkehrs zu identifizieren. Daher haben wir eine effiziente Technik zur Analyse der Anomalie aus dem Netzwerkverkehr benötigt, die eine gute Erkennungsrate mit weniger Fehlalarmen hat und auch zeiteffizient sein sollte. Motivation von oben, in diesem Papier präsentieren wir einen Multi-Density-Clustering-Algorithmus zur Anomalieerkennung (MCAD) über riesigem Netzwerkverkehr (Offline-Statistikverkehr). In diesem Ansatz haben wir das Birch Clustering [1] Indexproblem mit dem ADWICE (Anomaly Detection with Fast Incremental Clustering) [2] Modell mit Grid Index verbessert. Wir haben die Parametereigenschaft Intra-Cluster-Distanz verwendet, die die Cluster-Qualität in Bezug auf Ausreißer durch die durchschnittliche Intra-Cluster-Distanzreduktion verbessern kann. Bei diesem Ansatz anstelle des Schwellenwertkonzepts beim Einfügen eines Datenpunkts in den Cluster haben wir also die Cluster-Qualitätsindizes zum Einfügen eines Datenpunkts in den Cluster verwendet und überprüft, ob er optimiert wird oder nicht. Die Methode wird durch experimentelle Verifizierung des vorgeschlagenen Ansatzes am Datensatz KDD’99 [3] verifiziert, der ein Standard-Offline-Datensatz ist. Experimentelle Ergebnisse veranschaulichen eine bessere Erkennungsrate von Fehlalarmen und eine bessere Zeiteffizienz durch die Verwendung des vorgeschlagenen MCAD-Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22709-7_60 5309cf9784bdce384522aa4200b2edc2;de;;;2.2.;;;Unbeaufsichtigte Textsegmentierung mit Farb- und Wavelet-Funktionen Da die Zahl der digitalen Multimediabibliotheken schnell wächst, steigt auch die Notwendigkeit, diese Informationen effizient zu indizieren, zu durchsuchen und abzurufen. In diesem Zusammenhang stellt Text, der in Bildern erscheint, eine wichtige Einheit für Indexierungs- und Abrufzwecke dar. Häufig wird Text über einen komplexen Bildhintergrund gelegt und seine Erkennung durch eine kommerzielle optische Zeichenerkennungs-(OCR)-Engine ist schwierig. Somit besteht die Notwendigkeit für einen Textsegmentierungsprozess, einschließlich Hintergrundentfernung und Binarisierung, um eine zufriedenstellende Erkennungsrate durch OCR zu erreichen. In diesem Beitrag wird eine unüberwachte Lernmethode zur Textsegmentierung in Bildern mit komplexen Hintergründen vorgestellt. Zuerst wird die Farbe des Textes und des Hintergrunds basierend auf einem Farbquantisierer bestimmt. Dann werden die Pixelfarbe und die Standardabweichung des Wavelet-transformierten Bildes verwendet, um zwischen Text- und Nicht-Text-Pixeln zu unterscheiden. Um Pixel in Text und Hintergrund zu klassifizieren, wird ein leicht modifizierter k-Means-Algorithmus angewendet, der verwendet wird, um ein binarisiertes Textbild zu erzeugen. Das Segmentierungsergebnis wird in eine kommerzielle OCR-Software eingespeist, um die Segmentierungsqualität zu untersuchen. Die Leistungsfähigkeit unseres Ansatzes wird durch die Präsentation experimenteller Ergebnisse für eine Reihe von Videoframes demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27814-6_28 2c1d88c20532057ea13e1355608f7476;de;;;2.2.;;;H-MRST: Ein neuartiges Framework zur Unterstützung der Abfrage des Wahrscheinlichkeitsgradbereichs mithilfe von Extreme Learning Machine Die Datenklassifizierung ist eine wichtige Anwendung im Bereich der kognitiven Berechnung, die verschiedene Anwendungen hat. In diesem Papier verwenden wir Klassifizierungstechniken, um einige Schlüsselprobleme bei der Beantwortung zu lösen;-;-;-;https://link.springer.com/article/10.1007/s12559-016-9435-3 658cf794e973ef3eacd4ec1b44e67a04;de;;;2.2.;;;Ein robustes CBIR-Framework zwischen vielen visuellen Wörtern und Phrasenmodellen für bestimmte Bilddatensätze Ein Ziel des Forschungsfelds Content Based Image Retrieval ist es, neue Methoden und Werkzeuge vorzuschlagen, um die zunehmende Anzahl verfügbarer Bilder zu verwalten. Verbunden mit einem spezifischen Kontext von kleinen Expertendatensätzen ohne Vorkenntnisse, konzentriert sich unsere Forschungsarbeit auf die Verbesserung der Unterscheidungskraft der Bilddarstellung bei gleichbleibender Effizienz beim Abrufen. Basierend auf dem bekannten Bag-of-Visual-Words-Modell schlagen wir drei verschiedene Methoden vor, die von der Effektivität des visuellen Phrasenmodells und einer Kompressionstechnik inspiriert sind, die die gleiche Effektivität beim Abruf wie das BoVW-Modell gewährleistet. Unsere experimentellen Ergebnisse untersuchen die Leistung unserer Vorschläge an verschiedenen bekannten Benchmark-Datensätzen und zeigen ihre gute Leistung im Vergleich zu anderen neueren Ansätzen.;-;-;-;https://link.springer.com/article/10.1007/s11042-018-5841-8 af2c1e33ffe44a2f16517c7adeceaa7d;de;;;2.2.;;;Vom Proof-of-Concept zum verwertbaren Die Bewertung der Ausnutzbarkeit von Schwachstellen ist sowohl für Verteidiger als auch für Angreifer wichtig. Der ultimative Weg, um die Ausnutzbarkeit zu beurteilen, ist die Erstellung eines funktionierenden Exploits. Dies erfordert jedoch normalerweise enorme Stunden und einen erheblichen manuellen Aufwand. Um dieses Problem anzugehen, können automatisierte Techniken angewendet werden. Bestehende Lösungen untersuchen in der Regel eingehend die;-;-;-;https://link.springer.com/article/10.1186/s42400-019-0028-9 3ceed1ac493b3e2310f8cf5f8952e625;de;;;2.2.;;;Landschaftsvielfaltsmuster und Endemismus von Araceae in Ecuador Araceae ist eine der größten Kräuterfamilien im tropischen Amerika, aber ihre Vielfalt und ihr Endemismus sind kaum bekannt. Wir haben prädiktive Verteilungsmodellierung in GIS verwendet, um den Reichtum der Araceae im Landschaftsmaßstab in Ecuador zu untersuchen. Die Modellierung basierte auf georeferenzierten Herbariumsammlungen mit Luftfeuchtigkeit und mittlerer Jahrestemperatur als Klimavariablen. Die Variationspartitionierung mittels multipler Regression zeigte, dass Feuchtigkeit und Höhe die Hauptfaktoren bei der Erklärung der Diversitätsmuster der Araceae sind. Endemismus wurde durch die gegenwärtigen klimatischen Faktoren weniger gut erklärt. Im Gegensatz zu üblichen Diversitätsmustern von Kräutern oder Epiphyten war der Reichtum der Araceae im östlichen (Amazonas) Tieflandregenwald mit einem sekundären Zentrum an den Andenausläufern im Nordwesten Ecuadors am höchsten. Der Höhepunkt des Endemismus war an den Westhängen der Anden, entsprechend Gebieten, die stark von menschlichen Aktivitäten und Abholzung betroffen sind. Die Wälder im östlichen Tiefland (Amazonas) waren arm an endemischen Araceae.;-;-;-;https://link.springer.com/article/10.1023/B%3ABIOC.0000029332.91351.7a e77f1fa4943fd43da30c2adb2566860f;de;;;2.2.;;;Ein implizites Aufzählungsprogramm für die Null-Eins-Ganzzahl-Programmierung Dieses Papier beschreibt einige Techniken, um die Geschwindigkeit des impliziten Aufzählungsverfahrens zum Lösen von Null-Eins-Ganzzahl-Programmierungsproblemen zu verbessern. Unter diesen Techniken ist die leistungsfähigste die Verwendung eines Spaltenvektors, der als Tag für jede Ungleichung dient und anzeigt, ob die Ungleichung für die aktuelle Teillösung überprüft werden soll oder nicht. Eine neue Bedingung für die Unterstreichung einer Variablen und das Konzept der Pseudounterstreichung werden ebenfalls vorgeschlagen. Diese Techniken wurden im Computerprogramm implementiert;-;-;-;https://link.springer.com/article/10.1007/BF01108520 5f95b4c2f00ee29f1e47403126a1ac47;de;;;2.2.;;;Strukturierung von Fußballvideos basierend auf Audioklassifizierung und -segmentierung mit dem Hidden-Markov-Modell Dieses Papier präsentiert ein neuartiges Schema für die Indexierung und Segmentierung von Videos durch die Analyse der Audiospur unter Verwendung des Hidden-Markov-Modells. Diese Analyse wird dann auf die Strukturierung des Fußballvideos angewendet. Basierend auf den Attributen von Fußballvideos definieren wir drei Audioklassen in Fußballvideos, nämlich;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27814-6_15 8497d6a67d993ab5dec5c807c7a0528c;de;;;2.2.;;;Clustering mit fehlenden Werten: Keine Imputation erforderlich Clustering-Algorithmen können Gruppen in großen Datensätzen wie Sternkatalogen und hyperspektralen Bildern identifizieren. Im Allgemeinen können Clustering-Methoden keine Elemente analysieren, die fehlende Datenwerte aufweisen. Gängige Lösungen ergänzen entweder die fehlenden Werte (Imputation) oder ignorieren die fehlenden Daten (Marginalisierung). Imputierte Werte werden als genauso zuverlässig behandelt wie die beobachteten Daten, aber sie sind nur so gut wie die Annahmen, mit denen sie erstellt wurden. Im Gegensatz dazu präsentieren wir eine Methode zur Codierung von teilweise beobachteten Merkmalen als einen Satz von ergänzenden weichen Einschränkungen und führen den KSC-Algorithmus ein, der Einschränkungen in den Clustering-Prozess einbezieht. In Experimenten mit künstlichen Daten und Daten aus dem Sloan Digital Sky Survey zeigen wir, dass weiche Einschränkungen ein effektiver Weg sind, um Clustering mit fehlenden Werten zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17103-1_61 010778bb1bdaa4b1601820596ab536fe;de;;;2.2.;;;Rekonstruktion des RHESSI-Aspekts Die Raumsonde Reuven Ramaty High-Energy Solar Spectroscopic Imager RHESSI dreht sich mit etwa 15 U/min um eine Achse in der Nähe des Sonnenzentrums. Eine genaue Kenntnis der Ausrichtung und des Rollwinkels des rotierenden Raumfahrzeugs ist erforderlich, um Bilder mit einer Auflösung von 2 Bogensekunden unter Verwendung der Modulationsmuster zu rekonstruieren, die auf jedem der Detektoren hinter den rotierenden Doppelgitterkollimatoren gesehen werden. Daher besteht das Aspektsystem aus zwei Subsystemen von Sensoren, dem Solar Aspect System (SAS) und dem Roll Angle System (RAS). Die Messdaten werden an den Aspect Data Processor (ADP) gesendet, wo eine Datenkompression um den Faktor 1000 und eine Formatierung in Telemetriepakete erfolgt. Die übertragenen Daten bestehen aus „Solar Limb“-Daten vom SAS und „Sternereignis“-Daten vom RAS. Wenn man die Geometrie aller Merkmale des SAS kennt, kann die Position des Sonnenzentrums in Bezug auf ein festes Koordinatensystem eines Raumfahrzeugs rekonstruiert werden. Ebenso kann durch Anpassen der Sternereignisse und anschließendem Vergleich mit einem Sternkatalog eine Liste von Positionswinkelmarken erzeugt werden. Die Integration dieser Informationen ermöglicht die Korrektur und Interpolation der Rollwinkel mit einer Genauigkeit von < 0,4 Bogensekunden (Neigung und Gier) und < 1 Bogenminute (Rollen).;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-3452-3_4 af157d4d62dcbeace3a74d9be0e2c981;de;;;2.2.;;;Effizienter inhaltsbasierter Videoabruf für Tiervideos Forscher arbeiten seit vielen Jahren am Content Based Video Retrieval (CBVR). Aber die verfügbaren Techniken für CBVR funktionieren nicht gut für CBVR von Tiervideos. Daher haben wir in diesem Papier eine neue Technik für CBVR von Tiervideos vorgeschlagen und experimentelle Ergebnisse werden ebenfalls mit diesem Papier bereitgestellt, um dies zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18440-6_30 5dc94d9e56eb53bcb198af0147d6b5d7;de;;;2.2.;;;Zusammenhang zwischen chinesischer Sprachverständlichkeit und Sprachübertragungsindex in Räumen mit dichotischem Hören Die Sprachverständlichkeit (SI) ist ein wichtiger Index für die Gestaltung und Bewertung von Sprachräumen. Die Beziehung zwischen den chinesischen Sprachverständlichkeitswerten in Räumen und dem Sprachübertragungsindex (STI) unter diotischen Hörbedingungen wurde mit monauralen Raumimpulsantworten untersucht, die von der raumakustischen Simulationssoftware Odeon in einem früheren Artikel erhalten wurden. Die vorliegende Studie verwendet die simulierten binauralen Raumimpulsantworten und die Auralisationstechnik, um die subjektiven chinesischen Sprachverständlichkeitswerte mittels Reimtest zu erhalten. Die Beziehung zwischen chinesischen Sprachverständlichkeitswerten und STI wird in Räumen mit dichotischem (binauralem) Hören aufgebaut und validiert. Das Ergebnis zeigt, dass es eine hohe Korrelation zwischen chinesischen Sprachverständlichkeitswerten und STI mit dichotischem Hören gibt. Der Zusammenhang zwischen chinesischen Sprachverständlichkeitswerten und STI unter diotischen und dichotischen Hörbedingungen wird ebenfalls analysiert. Im Vergleich zum diotischen Hören kann das dichotische (binaurale) Hören (eine tatsächliche Hörsituation) das Signal-Rausch-Verhältnis von 2,7 dB für die Sprachverständlichkeit in Mandarin-Chinesisch verbessern. Die STI-Methode kann die Sprachverständlichkeit für Mandarin-Chinesisch in Räumen für dichotisches (binaurales) Hören vorhersagen und bewerten.;-;-;-;https://link.springer.com/article/10.1007/s11434-008-0383-5 47270aafb4df4547ba08b6f2854a12b0;de;;;2.2.;;;Ein Ton oder zwei? Objektbezogene Negativität indiziert die Echowahrnehmung Die Fähigkeit, eine einzelne Schallquelle unter gleichzeitigen Quellen und nachhallender Energie zu isolieren, ist für das Verständnis der Hörwelt erforderlich. Der Präzedenzeffekt beschreibt einen verwandten experimentellen Befund, dass Hörer bei identischen Klängen von zwei Orten mit einer kurzen einsetzenden Asynchronität (in der Größenordnung von Millisekunden) eine einzelne Quelle mit einem vom Hauptklang dominierten Ort berichten. Einzelzellaufnahmen in mehreren Tiermodellen haben gezeigt, dass es Mechanismen auf niedriger Ebene gibt, die zum Präzedenzeffekt beitragen können, aber psychophysische Studien am Menschen haben gezeigt, dass kognitive Prozesse von oben nach unten einen großen Einfluss auf die Wahrnehmung von simulierten . haben Echos. In der vorliegenden Studie weisen ereignisbezogene Potenziale, die durch Klickpaare an und um die Echoschwellen der Hörer evoziert werden, darauf hin, dass die Wahrnehmung des Lead- und Lag-Sounds als einzelne Quellen eine Negativität zwischen 100 und 250 ms hervorruft, die früher als objektbezogene Negativität (ORN ). Selbst bei physikalisch identischen Reizen ist die ORN offensichtlich, wenn Hörer berichten, eine zweite Schallquelle zu hören, im Gegensatz zu nicht zu hören. Diese Ergebnisse definieren einen neuronalen Mechanismus, der sich auf die bewusste Wahrnehmung mehrerer Hörobjekte bezieht.;-;-;-;https://link.springer.com/article/10.3758/PP.70.8.1558 d69e84bb2d3af36c9eaabf6e5a186059;de;;;2.2.;;;Heterogene personenbezogene Daten unterwegs abfragen Mobile Geräte werden zu einem zentralen Datenintegrations-Hub für persönliche Informationen. Daher ist eine aktuelle, umfassende und konsolidierte Ansicht dieser Informationen über heterogene personenbezogene Informationsräume hinweg erforderlich. Linked Data bietet verschiedene Lösungen für die Integration personenbezogener Daten, aber keine davon adressiert umfassend die spezifischen Ressourcenbeschränkungen mobiler Geräte. Um dieses Problem anzugehen, stellt dieses Papier ein einheitliches Datenintegrations-Framework für mobile Geräte mit eingeschränkten Ressourcen vor. Unser generisches, erweiterbares Framework bietet nicht nur eine einheitliche Ansicht personenbezogener Daten aus verschiedenen Datenräumen für personenbezogene Daten, sondern kann auch ohne externen Server auf dem Mobilgerät eines Benutzers ausgeführt werden. Um Verarbeitungsressourcen zu sparen, schlagen wir einen Ansatz zur Datennormalisierung vor, der ohne komplexe generische Argumentation mit ID-Konsolidierung und Mehrdeutigkeitsproblemen umgehen kann. Dieser Datenintegrationsansatz basiert auf einem Triple-Storage für Android-Geräte mit geringem Speicherbedarf. Wir evaluieren unser Framework mit einer Reihe von Experimenten auf verschiedenen Geräten und zeigen, dass es in der Lage ist, komplexe Abfragen an großen persönlichen Datensätzen von mehr als einer Million Tripel auf typischen mobilen Geräten mit sehr geringem Speicherbedarf zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11915-1_29 36c2ee7e27b40827c0fafe56b28ca787;de;;;2.2.;;;Zuordnung von Streaming-Sprachen zu Universalprozessoren durch Vektorisierung Streaming-Sprachen waren ursprünglich auf Streaming-Architekturen ausgerichtet, aber neuere Arbeiten haben gezeigt, dass das Stream-Programmiermodell nützlich ist, um Parallelität auf Allzweckprozessoren auszunutzen. Die aktuelle Forschung zum Mapping von Stream-Code auf GPPs beschäftigt sich mit dem Lastausgleich und der Generierung von Threads basierend auf Hardware-Features. Wir untersuchen die Verbesserung der Probleme im Zusammenhang mit der Lokalität von Stromdaten und der Parallelität von Stromdaten auf GPPs. Wir schlagen vor, dass die automatische Generierung von vektorisiertem Code für diese Streaming-Operationen eine mögliche Lösung ist. Wir verwenden die Brook-Stream-Sprache als unsere Syntaxbasis und erweitern sie, um vektorielle Intrinsics zu generieren, die auf die x86-Architektur abzielen. Dieser Compiler verwendet sowohl bestehende als auch neue Strategien, um High-Level-Streaming-Kernel-Code in Vektoranweisungen umzuwandeln, ohne dass zusätzliche Anmerkungen erforderlich sind. Wir vergleichen die Ergebnisse unseres Systems mit bestehenden Mapping-Strategien, die darauf abzielen, Stream-Code auf GPPs zu verwenden. Bei der Leistungsbewertung sehen wir eine breite Palette von Geschwindigkeitssteigerungen von wenigen Prozent bis über das Doppelte und diskutieren die Effektivität der Verwendung von Vektorcode gegenüber skalaren Äquivalenten in bestimmten Anwendungsdomänen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13374-9_7 45d29c87735251339bc8a40f1cf2d5ad;de;;;2.2.;;;Deep AM-FM: Toolkit für die automatische Dialogbewertung Es gibt viele Studien zu Mensch-Maschine-Dialogsystemen. Um sie genau und fair zu bewerten, greifen viele auf eine menschliche Bewertung der Systemausgaben zurück. Dies ist leider zeitaufwendig und teuer. Die Studie von AM-FM (Adequacy Metric - Fluency Metric) schlägt eine automatische Bewertungsmetrik vor, die eine gute Leistung in Bezug auf die Korrelation mit menschlichen Urteilen erzielt. Das AM-FM-Framework beabsichtigt, die Qualität der Dialoggenerierung entlang zweier Dimensionen mit Hilfe von Goldreferenzen zu messen: (1) Die semantische Nähe der generierten Antwort zu den entsprechenden Goldreferenzen, (2) Die syntaktische Qualität der Satzkonstruktion. Die ursprüngliche Formulierung sowohl der Angemessenheits- als auch der Fluency-Metriken unterliegt jedoch einigen technischen Einschränkungen. Der Ansatz der latenten semantischen Indizierung (LSI) zur AM-Modellierung ist nicht auf große Datenmengen skalierbar. Die wortwörtliche Darstellung von Sätzen erfasst die Kontextinformationen nicht. Was die FM-Modellierung betrifft, so ist die Implementierung des N-Gram-Sprachmodells nicht in der Lage, langfristige Abhängigkeiten zu erfassen. Viele Deep-Learning-Ansätze, wie das Long Short-Term Memory Network (LSTM) oder transformatorbasierte Architekturen, sind in der Lage, diese Probleme gut zu lösen, indem sie bessere kontextbezogene Satzdarstellungen als der LSI-Ansatz bereitstellen und viel weniger Verwirrung beim Benchmarking von Datensätzen erzielen im Vergleich zum N-Gram-Sprachmodell. In diesem Papier schlagen wir Deep AM-FM vor, eine DNN-basierte Implementierung des Frameworks und zeigen, dass es vielversprechende Verbesserungen sowohl bei der Pearson- als auch bei der Spearman-Korrelation in Bezug auf die menschliche Bewertung der Benchmarking-DSTC6-End-to-End-Konversationsmodellierungsaufgabe wie im Vergleich zu seiner ursprünglichen Implementierung und anderen beliebten automatischen Metriken.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8395-7_5 0b307fb4f1b05145f24ed5515937b08e;de;;;2.2.;;;Eine intelligente Anwendung für die Unterschicht des WBC Application Enabler: Design und Implementierung Dieses Papier beschreibt das Design und die Implementierung einer neuen intelligenten Anwendung, die auf der Application Enabler-Unterschicht des Knotens eines Wireless Billboard Channel Service Providers (WBC-SP) läuft. Die Anwendung wird mit drei Ebenen implementiert: einer Diensterkennungs- und Wartungsebene, die als verteiltes Client-Server-System für die Datenerfassung und -organisation fungiert, eine intelligente Anwendungsebene, die die gesamte Geschäftslogik und allgemeine Anwendungsprogrammierschnittstellen (APIs) enthält, und ein Multiagent Systems (MAS)-Ebene, die den Lebenszyklus der Advertisement-, Discovery- und Association-Agenten (ADA) aufrechterhält.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22691-5_2 2e2a005ae04ff11cd4f71201da4b852b;de;;;2.2.;;;Anorganische Verbindungen Um bestimmte anorganische Verbindungen zu finden, sollte der Themenindex verwendet werden. Die allgemeine Anordnung im Text ist: Elemente, Borhydride, Carbonyle, Phosphor-Stickstoff- und Schwefel-Stickstoff-Verbindungen, Halogenide, Cyanide, Oxide, Doppeloxide, Hydroxide, Sulfide, Borate, Carbonate, Nitrate, Phosphate, Arsenate, Sulfate, Perchlorate , Jodate, unvollständige Strukturdaten in einer Tabelle, Elektronenbeugungsuntersuchungen in der Gasphase und Verbindungen, die nur in Vorabmitteilungen beschrieben wurden, sind tabellarisch aufgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-2249-0_2 84af5f6293a816d0b92845a00af0920e;de;;;2.2.;;;Ein Kompressionsalgorithmus für EKG basierend auf der Wavelet-Transformation des ganzzahligen Lifting-Schemas Angesichts der Unzulänglichkeiten herkömmlicher ElectroCardioGram (EKG)-Kompressionsalgorithmen, wie der hohen Komplexität des Betriebs und der Verzerrung des rekonstruierten Signals, wird ein neuer EKG-Kompressions-Kodierungsalgorithmus basierend auf Set Partitioning In Hierarchical Trees (SPIHT) nach dem Studium des Integer-Lifting herausgebracht Schema Wavelet-Transformation im Detail. Der vorgeschlagene Algorithmus modifiziert die Nullbaumstruktur von SPIHT, erstellt einen eindimensionalen Wavelet-Koeffizientenbaum von EKG-Signalen und verbessert die Effizienz der SPIHT-Kodierung durch rationales Verteilen von Bits, wodurch der Nullbaumsatz verbessert und das Klassifizierungsverfahren verbessert wird. Bei diesem verbesserten Algorithmus werden Gleitkommaberechnung und -speicherung außer Betracht gelassen und er ist einfach durch Hardware und Software zu implementieren. Experimentelle Ergebnisse beweisen, dass der neue Algorithmus bewundernswerte Eigenschaften geringer Komplexität, hoher Geschwindigkeit und guter Leistung bei der Signalrekonstruktion aufweist. Ein hohes Kompressionsverhältnis wird auch mit hoher Signaltreue erreicht.;-;-;-;https://link.springer.com/article/10.1007/s11767-006-0178-2 54cc4d3ea59d6cf910cd5467f77da4cf;de;;;2.2.;;;Ein problemzentriertes kollaboratives Nachhilfesystem für lebenslanges Lernen von Lehrern: Wissensaustausch zur Lösung praktischer beruflicher Probleme Unsere Arbeiten zielen darauf ab, eine Webplattform zu entwickeln, die es Lehrern ermöglicht, Wissen und Praktiken auszutauschen und daraus für lebenslanges Lernen zu profitieren. In diesem Zusammenhang schlagen wir ein problemzentriertes Werkzeug vor, das auf der IBIS-Methode basiert, die ursprünglich zur Erfassung von Design-Grundlagen entwickelt wurde. Dieses Tool zielt darauf ab, Lehrkräften zu helfen, praktische berufliche Probleme durch eine kollaborative Co-Konstruktion von Lösungen zu lösen. Es wird ein allgemeines Modell gegeben, das unter anderem die drei Elemente der IBIS-Methode (Problem, Position/Lösung, Argument) verwendet und mehrere Lösungen für ein Problem erlaubt. Die Problembeschreibung und die Lösungskonstruktionsschritte werden erklärt und die Art und Weise, wie Lehrer aus ihrem Profil verbunden sind, wird detailliert beschrieben. Wir berücksichtigen auch ein System von Meinungen und Feedback über die Nützlichkeit einer Lösung. Ein Anwendungsfall wird angegeben, um zu veranschaulichen, wie das Modell implementiert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14292-5_43 26b5ffa8ca68a1d1a6f097f1fef7d4c6;de;;;2.2.;;;Ein attributbasierter Ansatz zur mathematischen Morphologie In diesem Beitrag etablieren wir einen attributbasierten Ansatz für Öffnungen und idempotente Ausdünnungen und stellen einen effizienten Algorithmus für deren Implementierung auf Graustufenbildern bereit. Die Verwendung von nicht zunehmenden Formattributen wird befürwortet, da sie die Verwendung von Formdeskriptoren wie Kompaktheit und Exzentrizität ermöglichen, um Graustufenbilder zu transformieren. Anschließend werden Anträge gestellt, um die vorgeschlagenen Betreiber zu veranschaulichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0469-2_6 9f09d477a8c44518c57c8da003b61ddb;de;;;2.2.;;;Leichte Agenten für E-Learning-Umgebungen Die webbasierte Bereitstellung von Bildungskursen wird immer häufiger. Es gibt viel Spielraum für leichtgewichtige KI-Methoden bei der Verbesserung der webbasierten Bildung. Wir beschreiben das Design, die Prototypenimplementierung und die Verwendung von QuizHelper, einem System einfacher Agenten, das Schülern, die an Online-Quizfragen teilnehmen, Feedback gibt. Wir besprechen AgentSquare, das Framework, das zum Erstellen von QuizHelper verwendet wird. AgentSquare unterstützt das Hinzufügen von Agenteninformationen zu Websites.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39592-8_27 37d31b85b5d023e163d43674b021c091;de;;;2.2.;;;Konsistente Schätzung gelöschter Daten in einem DPCM-basierten Codierungssystem mit mehreren Beschreibungen In diesem Artikel gehen wir das Problem der Fehlerausbreitung an, die Paketverluste in häufig verwendeten prädiktiven Codierungsumgebungen verursachen können. Unter Verwendung von Multiple Description Coding (MDC) zur Generierung redundanter Quelldaten schlagen wir einen Algorithmus zum Schätzen der verlorenen Daten in einem DPCM-codierten Stream vor. Die Neuheit unseres Algorithmus besteht darin, dass er eine Sequenzsuche verwendet, um die;-;-;-;https://link.springer.com/article/10.1023/A%3A1022809619627 ff4d22a382482c5d1e3f9168ac32c041;de;;;2.2.;;;Gerät zur Wiederherstellung der prosodischen Sprache: Wiederherstellung der Glottalerregung mit einem Ansatz mit mehreren Auflösungen Wir beschreiben ein neuartiges Gerät zur Wiederherstellung authentischer Merkmale in pathologischer Sprache, die von Personen mit Kehlkopferkrankungen geäußert wird. Das ursprüngliche Sprachsignal wird vom Gerät erfasst und analysiert und ein Sprachsignal mit verbesserten, gesunden Eigenschaften wird rekonstruiert. Eine Verkettung von zufällig ausgewählten gesunden Referenzmustern ersetzt die pathologische Erregung. Um authentische Merkmale wiederherzustellen, werden Intervalle zwischen aufeinanderfolgenden Referenzmustern durch einen Multi-Resolution-Ansatz erhalten. Die kurzfristige Tonhöhenvariabilität wird durch ein statistisches Variationsmodell reproduziert. Für die mittelfristige Tonhöhenvariabilität wird die Korrelation zwischen Tonhöhe und Signalhüllkurve auf der mittelfristigen Zeitskala ausgenutzt. Langfristige Variabilität wird durch adaptive Wavetable-Oszillatoren erreicht, ein neuartiges, zuverlässiges und recheneffizientes Verfahren zur Tonhöhenschätzung. Zwei authentische Merkmale wurden verwendet, um die Leistung zu bewerten, nämlich Atmungsaktivität und Prosodie. Vorläufige Ergebnisse zeigen, dass die Atmungsaktivität des wiederhergestellten Signals deutlich reduziert ist und die prosodiebezogenen Merkmale verbessert sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18472-7_14 32b3e26c52a382277a1ef32bab4e3801;de;;;2.2.;;;Auswirkungen einer kurzfristigen und anhaltenden aerogenen Hypoxie auf die Gamma-Glutamyl-Transpeptidase-Aktivität in Gehirn, Leber und biologischen Flüssigkeiten junger Ratten Posthypoxische Fluktuationen der Spiegel von zwei exzitatorischen Aminosäuren, Glutamat und Aspartat, können mit Veränderungen der Mechanismen zusammenhängen, die für ihre Wiederaufnahme verantwortlich sind. Da Gamma-Glutamyl-Transpeptidase (GGT) eine Rolle bei der Vermittlung der Aufnahme von Glutamat und Aspartat in verschiedene Kompartimente des Gehirns spielt, haben wir Veränderungen der Aktivität dieses Enzyms in Hauptregionen des Gehirns bei jungen und erwachsenen Ratten untersucht. Wir fanden einen posthypoxischen Anstieg der gebundenen GGT-Aktivität in einigen Hirnregionen von 18 Tage alten Tieren nach akuter Exposition, jedoch wurden nach längerer Höhenhypoxie keine Veränderungen beobachtet, mit Ausnahme einer Abnahme der kortikalen GGT-Aktivität. Im Gegensatz dazu verringerte eine akute Hypoxie die GGT-Aktivität in den kortikalen Kapillaren auf 59 %, aber eine verlängerte hypoxische Exposition war unwirksam. Allerdings war die Aktivität von löslichem GGT im Liquor beider Rattengruppen im Vergleich zu den Kontrollen mehrfach erhöht. Gleichzeitig war die gebundene GGT-Aktivität in der Leber nach akuter oder länger andauernder Höhenhypoxie erhöht. Die lösliche GGT-Aktivität im Plasma war nur nach längerer Exposition erhöht. Neunzig Tage nach längerer hypoxischer Exposition war die gebundene GGT-Aktivität in allen Hirnregionen auf etwa 60–70 % der Kontrollen (bei Frauen signifikant höher als bei Männern) als langfristige Entwicklungsfolge einer frühen postnatalen Hypoxie reduziert.;-;-;-;https://link.springer.com/article/10.1007/BF00964539 c21dc4a4772898963f62351348b660a5;de;;;2.2.;;;Stückweise polynomiale Hylleraas-Konfigurations-Wechselwirkungs-Wellenfunktionen für Helium Das in dieser Arbeit behandelte wissenschaftliche Problem besteht darin, die elektronische Struktur von Atomen und Molekülen mit ausreichender Genauigkeit zu beschreiben, um für Vorhersagen chemischer Eigenschaften nützlich zu sein. Die vorliegende Aktivität besteht darin, rechnerische Lösungen der Vielteilchen-Schrödinger-Gleichung für kleine chemische Spezies abzuleiten. Zwei konkrete Ziele bestehen darin, die Konsequenzen eines expliziten Korrelationsterms in der elektronischen Wellenfunktion zu untersuchen und die Wirksamkeit bestimmter mathematischer Formen als Erweiterungsgrundlage zu untersuchen. Das Ausmaß des Rechenproblems ist massiv und die Existenz von Supercomputern wie dem CYBER 205 hilft, diese Probleme in einen machbaren Bereich zu bringen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2503-1_18 b9cd93732f3c0c65231426362262aeaa;de;;;2.2.;;;Allgemeine modelltheoretische Semantik für die Programmierung der Hornlogik höherer Ordnung Wir führen modelltheoretische Semantik [6] für die Logikprogrammiersprache Higher-Order Horn ein. Ein Vorteil logischer Programme gegenüber herkömmlichen nicht-logischen Programmen besteht darin, dass der kleinste Fixpunkt gleich dem kleinsten Modell ist, daher mit der logischen Konsequenz verbunden ist und eine sinnvolle deklarative Interpretation hat. In der einfachen Typentheorie [9], auf der die Logikprogrammiersprache Higher-Order Horn basiert, ist die Domäne von der Interpretation abhängig [10]. T . definieren;-;-;-;https://link.springer.com/chapter/10.1007/BFb0013072 8de0a9c8f93432305765e17dee93fb29;de;;;2.2.;;;Globaler Index für Mehrkanal-Datenverbreitung in mobilen Datenbanken Die Strategie zur Datenübermittlung ist als skalierbare Methode zur Verbreitung von Informationen an mobile Benutzer bekannt. Bei einer sehr großen Anzahl von Broadcast-Elementen erhöht sich jedoch die Zugriffszeit von mobilen Clients entsprechend aufgrund der hohen Wartezeit für mobile Clients, ihre interessierenden Daten zu finden. Eine mögliche Lösung besteht darin, die Datenbankinformationen in mehrere Sendekanäle aufzuteilen. In diesem Papier stellen wir die globale Indexierungstechnik für Multi-Broadcast-Kanäle vor. Ein Simulationsmodell wird entwickelt, um die Leistungsfähigkeit der Technik herauszufinden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39737-3_27 54622a6b1d37344e95f0b96b97cc0061;de;;;2.2.;;;Blitzaktivität mit Regenfällen während der El Nino- und La Nina-Ereignisse über Indien In diesem Artikel wird die Assoziation der Blitzzahl (FC) mit dem Niederschlag anhand der Daten des satellitengestützten Lightning Imaging Sensor (LIS) zusammen mit gerasterten Niederschlagsdaten (0,5 .) bewertet;-;-;-;https://link.springer.com/article/10.1007/s00704-016-1883-x 82867b453eade6a9007a84abdd23d437;de;;;2.2.;;;Auf verstreuten konvexen Geometrien Eine konvexe Geometrie ist ein abgeschlossener Raum, der das Antiaustausch-Axiom erfüllt. Für verschiedene Arten von algebraischen konvexen Geometrien beschreiben wir, wann die Sammlung abgeschlossener Mengen ordnungsgestreut ist, im Sinne von Hindernissen für das Halbgitter kompakter Elemente. Insbesondere ein Halbgitter Ω(;-;-;-;https://link.springer.com/article/10.1007/s11083-016-9413-0 a162bfb8251bec6aecf67ed11288afd8;de;;;2.2.;;;Analyse von LED-Modulen zur lokalen Beleuchtung Es werden verschiedene Varianten von LED-Modulen zur lokalen Beleuchtung analysiert. Die Möglichkeiten zur Approximation von LED-Lichtstärkekurven und zur Berechnung dieser Kurven im TracePro-System werden berücksichtigt. Es wird ein Verfahren zur Berechnung der Beleuchtungsstärke einer 2D-Fläche über die 1D-Verteilung der Beleuchtungsstärke entlang einer Linie vorgeschlagen. Eine vergleichende Analyse der Gleichmäßigkeit der Beleuchtung und des Energieverbrauchs erfolgt bei Verwendung von LEDs mit unterschiedlichen Lichtstromkonzentrationen. Eine Möglichkeit zur Rotation von LEDs über verschiedene optische Systeme zur Streuung und Fokussierung von Lichtströmen wird in Betracht gezogen. Darüber hinaus wird die Möglichkeit einer Verbesserung der Gleichmäßigkeit der Beleuchtung durch eine Verringerung der Größe von LED-Modulen und eine Variation des Stroms von rotierten LEDs analysiert.;-;-;-;https://link.springer.com/article/10.1134/S1064226907120121 d17c88ed196ccc6d05afad82c5b8fd6a;de;;;2.2.;;;Ein Hinweis zu chaotischen Karten und Zeitreihen Eine Zeitreihe in diesem Papier kann eine zufällige Sequenz oder eine deterministische Sequenz von Iterationen einer chaotischen Karte sein. Das zufällige Verhalten solcher Zeitreihen wird in drei Typen eingeteilt: beidseitig zufällig, einseitig zufällig und pseudo-zufällig. Um die pseudozufällige Zeitreihe zu veranschaulichen, untersuchen wir eine chaotische Karte, indem wir zeigen, dass eine Zeitreihe von Iterationen einer solchen Karte pseudozufällig ist und die empirische Verteilung solcher Zeitreihen gegen die invariante Wahrscheinlichkeitsverteilung der Karte für alle Anfangswerte konvergiert . Das Ergebnis kann für die Computergenerierung von Quasi-Zufallszahlen verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-2412-9_2 7dbf9acb3f359a6d4f0b0e71ab6b21c3;de;;;2.2.;;;Gewitter: Generatoren für Spurenarten In der oberen Troposphäre kontrollieren sowohl natürliche als auch anthropogene Prozesse den Haushalt von Stickoxid (NO), einem hochreaktiven und umweltschädlichen Spurengas. Die wichtigsten lokalen NO-Quellen in der oberen Troposphäre sind Emissionen von Flugzeugen und die Produktion durch Blitze. Letztere Quelle untersuchte das DLR in den letzten 20 Jahren in luftgestützten Feldexperimenten begleitet von Modellsimulationen. Die NO-Quelle des globalen Blitzes ist deutlich größer als die von Flugzeugen (Faktor ~5, Unsicherheit ~50–100 %). Blitze in tropischen Regionen scheinen im Vergleich zu anderen Regionen weniger NO pro Blitz zu produzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30183-4_8 54976aa15371202e33858d7c94f3930e;de;;;2.2.;;;Pushing abhängiger Daten in Clients–Provider–Serversystemen In Satelliten- und drahtlosen Netzwerken und in fortgeschrittenen Verkehrsinformationssystemen, in denen die Uplink-Bandbreite sehr begrenzt ist, sendet ein Server Datendateien in einer Round-Robin-Weise. Die Dateien werden von verschiedenen Anbietern bereitgestellt und werden von vielen Kunden abgerufen. Die Anbieter sind unabhängig und daher können Dateien Informationen austauschen. Die Clients, die auf diese Dateien zugreifen, können unterschiedliche Zugriffsmuster haben. Einige Clients möchten möglicherweise in beliebiger Reihenfolge auf mehr als eine Datei gleichzeitig zugreifen, einige Clients möchten möglicherweise auf eine von mehreren Dateien zugreifen, und einige Clients möchten möglicherweise erst auf eine zweite Datei zugreifen, nachdem sie auf eine andere Datei zugegriffen haben. Das Ziel des Servers besteht darin, die Dateien so zu ordnen, dass die Zugriffszeit der Clients minimiert wird, wenn die Zugriffsmuster a priori bekannt sind. Dieses Papier stellt a;-;-;-;https://link.springer.com/article/10.1023/A%3A1024632031440 a9ed4b1cd551770a20c7f13aec01d361;de;;;2.2.;;;Kinematische und parametrische Analyse von Mechanismen Ziel der kinematischen Analyse ist es, Geschwindigkeiten und Beschleunigungen von Mechanikpunkten sowie Winkelgeschwindigkeiten und Beschleunigungen von Gliedern zu bestimmen. Außerdem werden analog zur geometrischen Analysis direkte und inverse Probleme gelöst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-46516-4_3 cbb85bf5b900184fc0445260abffdfa1;de;;;2.2.;;;Der Myokutane Lappen des erweiterten Latissimus Dorsi Der ELD-Lappen ist eine nützliche Technik für die Brustrekonstruktion bei Patientinnen, die keine guten Kandidaten für TRAM-Lappen sind. Die ELD-Klappe ist technisch einfach und dennoch in der Lage, hervorragende Ergebnisse zu erzielen. Es ist am nützlichsten für sehr adipöse Patienten und für Patienten über 65 Jahre. Es kann auch erfolgreich bei Patientinnen eingesetzt werden, die sehr kleine Brüste haben und daher nicht viel Gewebevolumen übertragen müssen. Die ELD-Technik hat den Nachteil, eine signifikante Narbe an der Entnahmestelle zu hinterlassen, aber viele Patienten empfinden dies nicht als störend und glauben, dass die Narbe an der Entnahmestelle durch die Einfachheit der Technik und die relativ kurze Rekonvaleszenz mehr als ausgeglichen wird.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-21767-3_12 9cad21e9dc46d92d212a8101d0bad415;de;;;2.2.;;;Automatische Segmentierung von Nachrichten basierend auf Video- und Audiofunktionen In dem Papier stellen wir einen Ansatz vor, der Audio- und Videofunktionen nutzt, um Nachrichten automatisch zu segmentieren. Die Integration von Audio- und visueller Analyse kann die Schwäche des Ansatzes nur unter Verwendung der Bildanalysetechniken überwinden. Es bringt unseren Ansatz mit mehr Anpassung an variable Existenzsituationen von Nachrichten. Der vorgeschlagene Ansatz identifiziert Stille-Segmente in begleitendem Audio und integriert sich in die Ergebnisse der Schusssegmentierung sowie in die Ergebnisse der Ankerschusserkennung, um Grenzen zwischen Nachrichtenelementen zu bestimmen. Experimente zeigen, dass die Integration von Audio- und Videofunktionen effektiv ist, um das Problem der automatischen Segmentierung von Nachrichten zu lösen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45453-5_64 5058f727f4bc1faaa08eb8ad1d5cfcbb;de;;;2.2.;;;Auswirkungen hoher Elektrolytkonzentrationen auf DPPC-Multilayer: eine ESR- und DSC-Untersuchung Die Auswirkungen des Salzgehalts auf die lateralen Kopfgruppenwechselwirkungen von Dipalmitoylphosphatidylcholin (DPPC)-Molekülen in vollständig hydratisierten Mehrfachschichten wurden durch Spin-Label-Elektronen-Spin-Resonanz-(ESR)-Spektroskopie und Differentialscanningkalorimetrie (DSC) untersucht.;-;-;-;https://link.springer.com/article/10.1007/BF00657783 75efa7d430d1e802e4583617350700de;de;;;2.2.;;;Inzidenzfunktionen Nachdem wir im letzten Kapitel die Stufenzahlen und die Gesamtzahl der Elemente einiger wichtiger Gitter berechnet haben, betrachten wir nun Zählfunktionen und Inversionsformeln in einem beliebigen Poset. Unsere Lernmethode wird es sein, mit dem Poset zu assoziieren;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-59101-3_5 5956f728c7da654d23b10db1a2bef664;de;;;2.2.;;;Vorteile der Immunfärbung gegenüber der DNA-Analyse mit PCR-Amplifikation zum Nachweis von p53-Anomalie in langfristig formalinfixierten Geweben von humanen kolorektalen Karzinomen Um den geeigneten Zeitraum für die Formalinfixierung zu untersuchen, um p53-Anomalien in formalinfixiertem Gewebe nachzuweisen, verwendeten wir sieben chirurgisch resezierte humane Darmkrebsproben. Die immunhistochemische Reaktivität der p53-Immunfärbung und die Amplifikation von DNA durch Polymerase-Kettenreaktion (PCR) des p53-Gens wurden nach verschiedenen Perioden einer 10%igen Formalinfixierung (1 Tag und 1, 2, 4 und 8 Wochen) verglichen. Für die vergleichende Immunfärbung verwendeten wir den monoklonalen Antikörper Ki-67 (MIB-1) und für die vergleichende Polymerase-Kettenreaktion (PCR) K-;-;-;-;https://link.springer.com/article/10.1007/s005350050153 bc561962b48329112716190677509d87;de;;;2.2.;;;Der Satz der Morsehomologie In diesem Kapitel konstruieren wir den Morse-Smale-Witten-Kettenkomplex und beweisen, dass seine Homologie mit der singulären Homologie übereinstimmt. Für eine interessante Geschichte dieses Komplexes verweisen wir den Leser auf Botts farbenfrohes Papier [26]. Die Geschichte begann mit einer Comptes Rendus Note der Französischen Akademie der Wissenschaften von René Thom im Jahr 1949 [145] und gipfelte in Wittens Arbeit 1982 [153], wo der hier beschriebene Grenzoperator explizit geschrieben wurde. Zu diesem Randoperator gelangte Witten durch supersymmetrische Mechanik. Zuvor hatte Morse und Smales Arbeit bereits die Ideen gefunden, die für einen rigorosen Wittener „Physiker“-Beweis erforderlich sind: Diese Ideen wurden in den vorangegangenen Kapiteln erläutert. Aus diesem Grund nennen wir den resultierenden Komplex den Thom-Morse-Smale-Witten-Kettenkomplex oder einfach den MorseSmale-Witten-Kettenkomplex. In der Literatur wird er manchmal als Wittener Komplex bezeichnet [26].;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-2696-6_7 cc6221dbd09ec6add386c1f43c747b3b;de;;;2.2.;;;Best Practices zur Verbesserung der Softwarereife: Eine GÉANT-Fallstudie Reifegradmodelle für Software zeigen die Schlüsselbereiche auf, die zu Qualitätsverbesserungen beitragen. Sie kombinieren in der Regel technische, organisatorische und menschliche Aspekte, die für eine effektive Softwareentwicklung relevant sind, um die Anstrengungen zu fokussieren und die Richtung für Optimierungen vorzugeben. In diesem Papier stellen wir den Prozess der Definition von Best Practices vor, die das GÉANT Software Maturity Model (GSMM) unterstützen und auf die Bedürfnisse einer verteilten, innovationsgetriebenen, paneuropäischen Organisation ausgerichtet sind. Basierend auf der Identifizierung spezifischer, für GÉANT relevanter Ziele und einer vorläufigen Reifegradbewertung haben wir einen Best Practice-Katalog erstellt, der den Softwareteams hilft, die im GSMM definierten Ziele zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-56441-4_3 9acbfb60e072e47341053f5c7f43da6d;de;;;2.2.;;;Simulation globaler Seismizität: Neue Computerexperimente mit wissenschaftlicher Visualisierungssoftware Der Artikel beschreibt kurz eine Modifikation des sphärischen Modells der Lithosphären-Seismizität unter Berücksichtigung von Zufallsfaktoren, die die Dynamik von Parametern interagierender Blockstrukturelemente beeinflussen. Wir präsentieren die Ergebnisse numerischer Experimente, die die Vorteile der Übernahme stochastischer Verfahren in das Modell bestätigen. Außerdem haben wir eine spezielle Software entwickelt, um den Prozess der Modellspannungsausbreitung im System der tektonischen Platten im Detail zu untersuchen. Diese Software ermöglicht die Visualisierung sowohl der momentanen Spannungsverteilung entlang einer Störung als auch der zeitlichen Migration von kritischen Werten. Neue Möglichkeiten werden genutzt, um unterschiedliche Zusammenhänge zwischen Modellmerkmalen zu testen und mit realen Mustern zu vergleichen. Schließlich untersuchen wir die Rolle exogener und endogener Parameter bei der Modellkalibrierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67035-5_16 72a97951445dae1b4eaba6a95253b3bc;de;;;2.2.;;;Konfigurieren und Entwerfen der Replikation in Active Directory Active Directory wird in den verschiedenen Organisationen häufig für die Authentifizierung der Windowstextregistred-Infrastruktur verwendet. Organisationen können von sehr kleinen mit nur einem Büro bis hin zu sehr großen, über die ganze Welt verteilt, mit verschiedenen Büros variieren. Domänencontroller sind das Herzstück von Active Directory und speichern seine Datenbank. Damit Active Directory ordnungsgemäß funktioniert, sollte seine Datenbank über alle Domänencontroller hinweg konsistent sein, was durch die Replikation erreicht wird. Daher ist die Replikation ein integraler Bestandteil von Active Directory. Für sehr kleine Organisationen oder Organisationen, die über Netzwerkverbindungen mit hoher Bandbreite gut verbunden sind, verursacht die Replikation keine größeren Probleme und erfolgt reibungslos ohne viel Konfigurationsaufwand. Aber für sehr große Unternehmen mit vielen kleinen Büros auf der ganzen Welt mit eingeschränkter Konnektivität ist die Konfiguration der Replikation eine sehr wichtige und schwierige Aufgabe. Wenn die Replikation in solchen Organisationen nicht richtig konfiguriert ist, kann die gesamte Bereitstellung von Active Directory fehlschlagen. Die Konfiguration der Replikation umfasst die Zuordnung des Active Directory zum physischen Netzwerk der Organisation, was durch die Konfiguration von Standorten, Subnetzen, Standortlinks und Standortlink-Bridgeheads erreicht wird. In diesem Whitepaper werden das Konzept und die Notwendigkeit der Replikation in Active Directory sowie die Konfiguration und der Entwurf seiner Replikation für große Organisationen erörtert. In diesem Whitepaper werden auch die Best Practices zum Konfigurieren der Replikation zwischen großen Organisationen erörtert und anhand einer Demonstration für eine Dummy-Organisation veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-6268-1_41 2c9581f6472bf427fe647d43b2b88e5d;de;;;2.2.;;;Blockmodell der Lithosphärendynamik: Neue Kalibriermethode und numerische Experimente Der Artikel widmet sich der letzten Modifikation des Kugelmodells zur Beschreibung von Lithosphärendynamik und Seismizität, wobei der Schwerpunkt auf verschiedenen Möglichkeiten der Berücksichtigung von Zufallsfaktoren liegt, die das Verhalten von Blockstrukturelementen beeinflussen. Die wichtigsten numerischen Verfahren werden effektiv parallelisiert. Dies bietet die Möglichkeit, reale Daten (zB Erdbebenkataloge) im Simulationsprozess zu verwenden. Das Hauptziel der vorgestellten Forschung ist es, ein praktikables Verfahren zur automatischen Abstimmung von Modellparametern zu entwickeln, um die besten Approximationsergebnisse bezüglich der globalen Seismizität zu erhalten. Ein spezielles Qualitätskriterium wird eingeführt, das auf der Minimierung der gewichteten Summe von Diskrepanzen zwischen Modelleigenschaften und realen Mustern basiert, wie die räumliche Verteilung der Epizentren der stärksten Ereignisse und das Gutenberg-Richter-Gesetz zur Frequenz-Größen-Beziehung. Um den zeitaufwendigen Prozess der reduzierten erschöpfenden Suche nach vorgegebenen Parametern zu optimieren, wird die zusätzliche Parallelisierung der Berechnungen angewendet. Die Ergebnisse einiger Reihen numerischer Experimente werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-55326-5_13 bf030fc2301a8a467f89cae2884fddf9;de;;;2.2.;;;Datenlokalitätsoptimierung für die Synthese effizienter Out-of-Core-Algorithmen Dieses Papier beschreibt einen Ansatz zur Synthese von effizientem Out-of-Core-Code für eine Klasse von unvollständig verschachtelten Schleifen, die Tensorkontraktionsberechnungen darstellen. Tensorkontraktionsausdrücke treten in vielen genauen Rechenmodellen der elektronischen Struktur auf. Der entwickelte Ansatz kombiniert Loop-Fusion mit Loop-Tiling und verwendet einen leistungsmodellgetriebenen Ansatz zum Loop-Tiling zur Generierung von Out-of-Core-Code. Es werden experimentelle Messungen bereitgestellt, die eine gute Übereinstimmung mit modellbasierten Vorhersagen zeigen und die Wirksamkeit des vorgeschlagenen Algorithmus demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24596-4_44 a834671e2528cf52c10daa11f623c40f;de;;;2.2.;;;Ein Algorithmus für die semantische Vektorisierung von Videoszenen - Anwendungen zur Wiedergewinnung und Anomalieerkennung Der Abruf von Videoszenen und die Erkennung von Anomalien sind wichtige Probleme im Bereich der Computer Vision, die ein gemeinsames Konzept der Vektorisierung der Eingabebildrahmen teilen. Wir schlagen hier einen neuen Vektorisierungsansatz und einen schnellen Objektverfolgungsalgorithmus vor. Der erste Schritt besteht darin, eines der vorhandenen Verfahren zur Erkennung von Objekten in Bildrahmen zu verwenden. Der nachfolgende Schritt ist unser wesentlicher Beitrag, Informationen in diesen Objekten zu verwenden, zu verfolgen und semantische Vektoren für eine Folge von Bildframes zu generieren. Wir stellen eine neuartige Methode der Ultra-High-Speed-Objektverfolgung vor, die ein dichtebasiertes Clustering der lokalen Vektordarstellung von Objekten über Videoframes hinweg verwendet. Die Vektorisierungsergebnisse in semantischen Merkmalen beinhalten Objekttypen, deren Bezeichner und Bewegungsinformationen. Der Algorithmus wurde auf seine Fähigkeit überprüft, Szenen mit der höchsten Ähnlichkeit über eine Teilmenge des YouTube 8M-Datensatzes von etwa 1200 Videos mit 36651 Teilszenen abzurufen. Eine Art der Validierung besteht darin, dass unter den Frames, die der Abfrageszene am nächsten waren, der Anteil von ihnen mit gemeinsamen Bildmerkmalen 90% beträgt. Die zweite Art der Validierung besteht darin, dass zwischen den aufeinanderfolgenden Frames mit einer kleinen Zeitlücke eine Ähnlichkeit von mehr als 90% wie gewünscht aufgezeichnet wird. Der Vektorisierungsalgorithmus wird auf seine Nützlichkeit für ein anderes Problemszenario der Anomalieerkennung in Videoframes getestet. Die Vektorisierung hat sich bei der qualitativen und quantitativen Bewertung von Standard- und benutzerdefinierten Anomalieerkennungsdatensätzen von Videos und Ergebnissen gut bewährt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1103-2_31 def0a42054867545b03c952adde0d11f;de;;;2.2.;;;Untere Grenzen für die hochdimensionale Suche nach dem nächsten Nachbarn und verwandte Probleme Trotz umfangreicher und kontinuierlicher Forschung haben die besten bekannten Algorithmen für verschiedene geometrische Suchprobleme (wie die Suche nach dem nächsten Nachbarn) eine Leistung, die sich in der Dimension exponentiell verschlechtert. Dieses Phänomen wird manchmal als . bezeichnet;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55566-4_11 461236f39fa3dbb82940d97e8eb653cf;de;;;2.2.;;;Shot-basierte Keyframe-Extraktion unter Verwendung des Bitwise-XOR-Dissimilarity-Ansatzes Die Keyframe-Extraktion ist eine wesentliche Aufgabe in vielen Videoanalyseanwendungen wie Videozusammenfassung, Videoklassifizierung, Videoindizierung und -abruf. In diesem Artikel wurde ein Verfahren zum Extrahieren von Keyframes aus den Aufnahmen unter Verwendung der bitweisen XOR-Unähnlichkeit vorgeschlagen. Die Aufgabe, kontinuierliches Video in Aufnahmen zu segmentieren und Schlüsselbilder aus segmentierten Aufnahmen auszuwählen, wurde angesprochen. Die obige Aufgabe wurde durch eine Merkmalsextraktionstechnik erreicht, die auf einer bitweisen XOR-Operation zwischen aufeinanderfolgenden Graustufenbildern des Videos basiert. Ein Schwellenwertmechanismus wird verwendet, um die Videos in Aufnahmen zu segmentieren. Die Unähnlichkeitsmatrix wird konstruiert, um aus jeder Aufnahme einer Videosequenz einen repräsentativen Schlüsselbild auszuwählen. Der vorgeschlagene Ansatz zur Erkennung von Schussgrenzen und zur Extraktion von Schlüsselbildern wird auf einer Teilmenge des TRECVID 2001-Datensatzes implementiert und bewertet. Der vorgeschlagene Ansatz übertrifft andere zeitgenössische Ansätze in Bezug auf Effizienz und Genauigkeit. Außerdem haben die experimentellen Ergebnisse des Datensatzes die Wirksamkeit der vorgeschlagenen Keyframe-Extraktionstechnik in Bezug auf das Genauigkeitsmaß gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-4859-3_28 0417e9c470ba8b53bcdca7ad710f4c64;de;;;2.2.;;;Kontext und Kontextverlauf speichern und verwalten Das Einbringen von Kontext in das Systemdesign hat der modernen Technologie eine neue Dimension verliehen. In service- und sozialzentrierten Systemen basiert die Personalisierung von Diensten zur Anpassung an die Präferenzen jedes Einzelnen im Wesentlichen auf Kontextinformationen. Aufgrund dieser Bedeutung wird viel Forschungsarbeit zur Strukturierung und Modellierung von Kontexten geleistet. Es wurde jedoch keine Arbeit an der Speicherung dieser Modelle unter Verwendung neuerer Datenbanktechnologien und -techniken durchgeführt. Außerdem gibt es keine veröffentlichte Arbeit, die eine Struktur für den Kontextverlauf berücksichtigt, die für die Maximierung der Zugänglichkeit und Skalierbarkeit von Kontextinformationen in dynamischen Umgebungen unerlässlich ist. Aus diesem Grund haben wir eine allgemeine Struktur zum Speichern von Kontext mit drei verschiedenen Datenbankmodellen entwickelt. Darüber hinaus haben wir die drei Modelle hinsichtlich ihrer Leistung und Modellierfähigkeit verglichen. In diesem Beitrag stellen wir die Datenmodelle für Kontext, Kontextgeschichte vor und geben eine Zusammenfassung der experimentellen Analyse, die mit ihnen durchgeführt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-05939-6_4 e09262786062a863217c69296ad10786;de;;;2.2.;;;Zeitreihendarstellung: Eine sich zufällig verändernde Perspektive Eine seit langem bestehende Herausforderung für die Zeitreihenanalyse besteht darin, Darstellungstechniken zur Dimensionsreduktion zu entwickeln und gleichzeitig ihre grundlegenden Eigenschaften zu erhalten. Als effektive Darstellungstechnik wird die Symbolic Aggregate Approximation (SAX) häufig zur Dimensionsreduktion in der Zeitreihenanalyse verwendet. SAX ordnet Zeitreihendaten jedoch immer durch definierte Breakpoints in Symbole ab. Als Ergebnis können die ähnlichen Punkte in der Nähe der Breakpoints nicht gut dargestellt werden und führen daher zu einer schlechten Tightness of Lower Bounds (TLB). Um diese entscheidende Lücke zu füllen, entwickeln wir in diesem Beitrag eine Methode zur Darstellung von Zeitreihen mit dem Namen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38562-9_4 049cd085dabf01f56c850c4c04b354fe;de;;;2.2.;;;Entdeckung neuartiger Begriffsassoziationen in einer Dokumentensammlung Wir schlagen eine Methode vor, um neuartige, dokumentspezifische Assoziationen zwischen Begriffen in einer Sammlung unstrukturierter Dokumente zu ermitteln. Wir glauben, dass Dokumente oft am besten durch die Beziehungen beschrieben werden, die sie herstellen. Dies wird auch durch die Popularität von Conceptual Maps, Mind Maps und anderen ähnlichen Methoden zum Organisieren und Zusammenfassen von Informationen belegt. Unser Ziel ist es, Begriffsbeziehungen zu entdecken, die verwendet werden können, um konzeptionelle Karten oder sogenannte BisoNets zu konstruieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31830-6_7 b4c77bd4a9493bc471a7d4ed5823b177;de;;;2.2.;;;Verarbeitung von Nachbarschaftsabfragen und Abruf von umgebenden Objekten in räumlichen Datenbanken: Anwendungen und Algorithmen Eine Nächste Nachbarschaftsabfrage (NHQ) ruft die nächste Gruppe von kollozierten Objekten aus einer räumlichen Datenbank für einen bestimmten Abfrageort ab. Auf der anderen Seite gibt eine Reverse-Nearest-Neighborhood-Abfrage (RNHQ) alle Gruppen von kollozierten Objekten zurück, die die gegebene Abfrage näher als alle anderen Konkurrenten finden. Sowohl NHQ- als auch RNHQ-Abfragen können viele praktische Anwendungen in mobilen sozialen Netzwerken, der Platzierung von Bedarfseinrichtungen und intelligenter Stadtplanung haben. In diesem Whitepaper wird auch eine weitere Abfrage vorgestellt, die als richtungsbasierte Spatial-Skyline-Abfrage (DSQ) bezeichnet wird, um umgebende Objekte aus einer räumlichen Datenbank für einen bestimmten Benutzerstandort abzurufen. Die abgerufenen Objekte werden nicht von anderen Datenobjekten in der gleichen Richtung bzgl. die Abfrage. Wie NHQ- und RNHQ-Abfragen hat auch das Abrufen von umgebenden Objekten viele Anwendungen, wie etwa das Abrufen von nahe gelegenen Point-of-Interests rund um einen Benutzer und digitales Spielen. Dieses Papier stellt die Herausforderungen, Algorithmen, Datenindizierungs- und Datenbereinigungstechniken für die Verarbeitung von NHQ-, RNHQ- und DSQ-Abfragen in räumlichen Datenbanken vor. Schließlich werden ermutigende experimentelle Ergebnisse und zukünftige Forschungsrichtungen in NHQ-, RNHQ-, DSQ-Abfragen und deren Varianten diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0479-9_1 d010a21b1dc78ef5db1ce88f1ef150d3;de;;;2.2.;;;Eigenschaften des dominanten Farbtemperatur-Deskriptors Das Konzept der Farbtemperatur leitet sich aus einer angeborenen Eigenschaft des menschlichen Sehsystems ab. Es ist als visuelles Merkmal formuliert, das sich auf eine Art Wahrnehmungsgefühl über das wahrgenommene Licht bezieht. Die Farbtemperatur hat auch eine physikalisch basierte Definition, und daher kann die Farbtemperatur von beobachteten Szenen und visuellen Objekten auf mathematische Weise als Ein-Parameter-Charakteristik des wahrgenommenen Lichts modelliert werden. In der Änderung des visuellen Teils des MPEG-7-Standards wurde der Farbtemperatur-Deskriptor zum Durchsuchen von Bildern vorgeschlagen. Um die Funktionalität der inhaltsbasierten Bildsuche nach Farbtemperatur zu erweitern, haben wir den Deskriptor Dominant Color Temperatures vorgeschlagen, der es einem Benutzer ermöglicht, eine Abfrage nach Beispiel und eine Abfrage nach Wert durchzuführen. Der Extraktionsalgorithmus wurde ursprünglich von dem der dominanten Farbe übernommen, der die Vektorquantisierung im 3D-Farbraum verwendet. Wir haben auch einen zweiten, viel schnelleren Algorithmus vorgeschlagen, der auf skalarer Quantisierung im eindimensionalen Farbtemperaturraum basiert. In diesem Beitrag stellen wir einen Vergleich der beiden Extraktionsalgorithmen vor. Wir vergleichen auch die Abfrageergebnisse des Deskriptors Dominante Farbtemperatur und zweier konzeptionell verwandter Deskriptoren: Dominante Farbe und Farbtemperatur.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75993-5_23 60a31681009f950fd7ec22688aba4bf9;de;;;2.2.;;;Effizienter textbasierter Bildabruf mithilfe von Natural Language Processing (NLP)-Techniken Das Bildabrufsystem ist ein Computersystem zum Durchsuchen, Suchen und Abrufen von Bildern aus einer großen Datenbank mit digitalen Bildern oder Text. Die meisten herkömmlichen und gebräuchlichen Verfahren zum Abrufen von Bildern verwenden ein Verfahren zum Hinzufügen von Metadaten, wie zum Beispiel Bildunterschriften, Schlüsselwörter oder Beschreibungen zu den Bildern, so dass das Abrufen über die Anmerkungswörter durchgeführt werden kann. Die manuelle Bildanmerkung ist zeitaufwändig, mühsam und teuer. Um dies anzugehen, wurde viel über die automatische Bildanmerkung geforscht. Mit der rasanten Entwicklung der Informationstechnologie übersteigt die Zahl der elektronischen Dokumente und des digitalen Inhalts in Dokumenten die Kapazität der manuellen Kontrolle und Verwaltung. Die Nutzung von Bildern wird in Echtzeit erhöht. Somit konzentriert sich das vorgeschlagene System auf das Abrufen von Bildern unter Verwendung des textbasierten Bildwiedergewinnungssystems. Textdokumente werden als Eingabe in die Vorverarbeitungsphase gegeben und Merkmale werden mit TF-IDF extrahiert. Schließlich kann das Dokument-Clustering-Verfahren verwendet werden, um die abgerufenen Dokumente automatisch in eine Liste sinnvoller Kategorien zu gruppieren. Dokumenten-Clustering gruppiert das Dokument verschiedener Domänen und latenter Dirichlet-Zuordnung (LDA). Jedes Dokument kann als eine Mischung verschiedener Themen betrachtet werden, wobei jedes Dokument als eine Reihe von Themen betrachtet wird und danach relevante Dokumente abgerufen und dann Bilder von diese relevanten Dokumente werden abgerufen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5400-1_52 c680039e1cc34849d8d3076a55368629;de;;;2.2.;;;Hierarchische S(3)-Codierung von RGB-Histogrammen In diesem Beitrag stellen wir die Darstellungstheorie der symmetrischen Gruppe S (3) als Werkzeug vor, um die Raumstruktur von RGB-Histogrammen zu untersuchen und schnelle Transformationen zu konstruieren, die für die Suche in großen Bilddatenbanken geeignet sind. Wir zeigen, dass die Theorie zeigt, dass typische Histogrammräume stark strukturiert sind. Die Algorithmen nutzen diese Struktur und konstruieren eine PCA-ähnliche Zerlegung, ohne Korrelations- oder Kovarianzmatrizen und ihre Eigenvektoren konstruieren zu müssen. Eine hierarchische Transformation wird angewendet, um die interne Struktur dieser Histogrammräume zu analysieren. Wir wenden die Algorithmen auf zwei reale Datenbanken an (eine von einem Bildanbieter und eine von einem Bildsuchmaschinenunternehmen), die über eine Million Bilder enthalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11840-1_14 ced5eb9880fb5285dc71f871eaa9f065;de;;;2.2.;;;Ein deterministischer Algorithmus zur Rekonstruktion kalligraphischer Offline-Strokes mit Prioritätsregeln In diesem Beitrag wird ein neues Schema zur Verstärkung der Skelette handgeschriebener Kursivschriften vorgeschlagen. Das Ziel dieser Studie ist es, offline kalligraphische Striche (c-Striche) aus Bildern handschriftlicher Dokumente ohne eine spezielle Stift-Pad-Hardware zu erzeugen, die für die Online-Handschriftverarbeitung erforderlich ist. Unser Algorithmus löst nicht nur das Problem der Kantenüberlappung, sondern bietet auch die Technik, um Race-Bedingungen zu verhindern, wenn mehr als eine Kante in einem lokalen Bereich als überlappt betrachtet wird, obwohl tatsächlich nur eine davon betroffen ist. Theoretisch und praktisch sind C-Striche, die aus ähnlichen kursiven Wörtern erstellt wurden, topologisch konsistent.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0833-7_33 a48a02d5120edcafb6989137d86e208d;de;;;2.2.;;;Nahezu optimale Tracking-Steuerung für zeitdiskrete Systeme mit verzögertem Eingang Dieses Papier betrachtet das nahezu optimale Tracking-Steuerungsproblem für zeitdiskrete Systeme mit verzögertem Eingang. Durch eine variable Transformation wird das System mit verzögerter Eingabe in ein unverzögertes System transformiert und der quadratische Leistungsindex der optimalen Tracking-Steuerung in ein relevantes Format transformiert. Das optimale Spurregelgesetz wird durch die Lösung einer Riccati-Matrixgleichung und einer Stein-Matrixgleichung konstruiert. Ein Beobachter reduzierter Ordnung wird konstruiert, um das physikalisch realisierbare Problem des Vorwärtskompensators zu lösen, und es wird eine nahezu optimale Spursteuerung erhalten. Simulationsergebnisse demonstrieren die Wirksamkeit des optimalen Spurführungssteuergesetzes.;-;-;-;https://link.springer.com/article/10.1007/s12555-010-0619-4 a3c219569483aa9fc42dba4a7fbfce91;de;;;2.2.;;;Ein kostenbewusster und arbeitslastbasierter Indexratgeber für spaltenförmige In-Memory-Datenbanken Optimale Indexkonfigurationen für In-Memory-Datenbanken unterscheiden sich erheblich von Konfigurationen für ihre herkömmlichen plattenbasierten Gegenstücke. Operationen wie Full-Spalten-Scans, die in plattenbasierten und zeilenorientierten Datenbanken bisher unerschwinglich teuer waren, sind jetzt mit spaltenförmigen, hauptspeicherresidenten Datenstrukturen rechentechnisch durchführbar und übertreffen in vielen Fällen sogar indexbasierte Zugriffe. Darüber hinaus sind die Indexauswahlkriterien für In-Memory-Datenbanken unterschiedlich, da die Wartungskosten häufig niedriger sind und Überlegungen zum Speicherbedarf immer wichtiger geworden sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-46254-7_23 3a0cba832cdde5815a9792f92e7d764b;de;;;2.2.;;;Die auditiven Nachwirkungen der radialen Schallquellenbewegung mit unterschiedlichen Geschwindigkeiten Die auditiven Nachwirkungen wurden nach kurzer Anpassung an die radiale Schallquellenbewegung mit unterschiedlichen Geschwindigkeiten bewertet. Annäherung und Rückzug der Schallquelle wurden durch rhythmische Geräusche (von 20 Hz bis 20 kHz) Impulsfolgen mit ansteigender oder abnehmender Amplitude simuliert. Sie wurden über zwei Lautsprecher in 1,1 und 4,5 m Entfernung vom Hörer einem reflexionsarmen Raum präsentiert. Die Anpassungsreizgeschwindigkeiten betrugen 0,68, 3,43, 6,92 und 9,97 m/s bei einer Anpassungsdauer von 5 s. Bei allen Bewegungsgeschwindigkeiten manifestierte sich die Nachwirkung in einer Divergenz psychometrischer Funktionen beim Annähern und Zurückziehen von Adaptern. Die Richtung der Funktionsverschiebungen war der der Adapterbewegung entgegengesetzt. Drei Parameter, die die Wahrnehmungsveränderung nach Bewegungsadaptation widerspiegeln, wurden bestimmt und mit Kontrolldaten verglichen: die Bewertung der stationären Testreize, die Geschwindigkeit des bewegten Testsignals am Punkt der subjektiven Gleichheit (wahrnehmungsunbeweglicher Punkt) und der Prozentsatz der Antworten nach Mittelung über alle Testsignale. Diese Parameter der auditiven Radialbewegungsnachwirkung änderten sich in ähnlicher Weise mit der Adaptergeschwindigkeit. Sie zeigten einen signifikanten Effekt bei Zeitlupe (0,68 und 3,43 m/s) und einen kleinen Effekt bei schneller Bewegung (6,92 und 9,97 m/s).;-;-;-;https://link.springer.com/article/10.1134/S0362119711010026 a8e9ad1753ade4606815e644f81e7102;de;;;2.2.;;;Modellbasierte blickpunktinvariante menschliche Aktivitätserkennung aus nicht kalibrierten monokularen Videosequenzen Es besteht ein wachsendes Interesse an Systemen zur Erkennung menschlicher Aktivitäten, motiviert durch ihre zahlreichen vielversprechenden Anwendungen in vielen Bereichen. Trotz vieler Fortschritte haben die meisten Forscher das Problem in Richtung eines festen Kamerablickwinkels eingegrenzt, da es inhärent schwierig ist, ihre Systeme über alle möglichen Blickwinkel hinweg zu trainieren. Systeme mit festem Blickwinkel sind in realen Szenarien unpraktisch. Daher versuchen wir, die Annahme eines festen Blickwinkels zu lockern und einen neuartigen und einfachen Rahmen vorzustellen, um menschliche Aktivitäten aus einer unkalibrierten monokularen Videoquelle aus jedem Blickwinkel zu erkennen und zu klassifizieren. Das vorgeschlagene Rahmenwerk umfasst zwei Phasen: 3D-Schätzung der menschlichen Haltung und Erkennung menschlicher Aktivitäten. In der Phase der Posenschätzung schätzen wir die menschliche 3D-Pose durch eine einfache such- und verfolgungsbasierte Technik. In der Aktivitätserkennungsphase verwenden wir Nearest Neighbor mit Dynamic Time Warping als Entfernungsmaß, um multivariate Zeitreihen zu klassifizieren, die aus Strömen von Posenvektoren aus mehreren Videoframes hervorgehen. Wir haben einige Experimente durchgeführt, um die Genauigkeit der beiden Stufen getrennt zu bewerten. Die ermutigenden experimentellen Ergebnisse zeigen die Wirksamkeit unseres Frameworks.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17432-2_15 9a9c5d259901e0901074fbdb03f60bec;de;;;2.2.;;;Deduktion und deduktive Datenbanken für den Umgang mit Geodaten Die Darstellung komplexer räumlicher Domänen in herkömmlichen Datenbanken leidet unter der fragmentierten Darstellung der Objektstruktur, dem Fehlen von räumlichen Beziehungen auf Instanzebene und der Erzeugung großer kombinatorischer Suchräume bei der Abfrageanalyse. Die deduktiven Fähigkeiten einer deduktiven Datenbank bieten eine gewisse Hilfestellung bei der Lösung dieser Probleme, insbesondere indem sie räumliches Denken durch ein Geographisches Informationssystem (GIS) ermöglichen. Die Deduktion in der Datenbank wird verwendet, um die natürliche Darstellung komplexer räumlicher Objektstrukturen in ein- und mehrschichtigen geografischen Datenbanken (GDB), die Inferenz von impliziten räumlichen Beziehungen und die Manipulation von räumlichen Darstellungen mit mehreren Auflösungen zu unterstützen. Darüber hinaus erweisen sich deduktive Fähigkeiten als wesentlich für die automatische Dateneingabe und -aktualisierung in einer GDB. Gepaart mit entsprechender struktureller Darstellung ist Räumliches Denken ein wichtiges Werkzeug zur Realisierung einer effektiven GDB.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-56869-7_25 9eb3c4da9539c91a16a4816cf3cfdf2f;de;;;2.2.;;;Logische Prinzipien von inhaltsadressierbaren Speichern Dieses Kapitel enthält einen Überblick über verschiedene Operationen, Algorithmen und Systemorganisationen, durch die die Adressierbarkeit von Inhalten in Speicherhardware verkörpert werden kann. Es enthält logische Beschreibungen von Suchoperationen, deren Schaltungsimplementierungen und organisatorische Lösungen für inhaltsadressierbare Speicher (CAM)-Arrays, die bei Suchoperationen verwendet werden. Es kann nützlich sein, sich daran zu erinnern, dass diese Prinzipien und Lösungen auf die Implementierung der folgenden drei Teilfunktionen abzielen: 1) Es muss ein schnelles Verfahren zum Senden eines Sucharguments an alle Speicherstellen existieren. 2) Es muss ein individueller Vergleich des Sucharguments mit jedem hinterlegten Schlüsselwort oder einer Menge von Attributen durchgeführt werden. 3) Alle übereinstimmenden Daten und andere zugehörige Informationen müssen nacheinander erfasst und ausgelesen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-96552-4_3 a17d9bf53aa4e312ad2e06591754753c;de;;;2.2.;;;Das intrathorakale Blutvolumen spiegelt den Kreislaufvolumenstatus bei kritisch kranken Patienten mit mechanischer Beatmung genau wider Die Überdruckbeatmung bei Patienten mit akutem Atemversagen (ARF) kann die Interpretation des zentralen Venendrucks (CVP) oder des pulmonalen Keildrucks (PCWP) als Indikatoren für das zirkulierende Volumen erschweren. Die Vorlastkomponente des kardialen (CI) und des Schlaganfallindex (SI) wird auch durch die erhöhten intrathorakalen Drücke der Überdruckbeatmung beeinflusst. Darüber hinaus geben CI und SI nicht ausschließlich den Volumenstatus an, sondern auch Kontraktilität und Nachlast. Wir untersuchten, ob das intrathorakale Blutvolumen (ITBV) den Blutvolumenstatus und den resultierenden Sauerstofftransport (DO;-;-;-;https://link.springer.com/article/10.1007/BF01709237 e1c38515827477f327cd7f55da547fed;de;;;2.2.;;;Extravaskuläre Lungenwasser-Blutvolumen-Verhältnisse als Maß für die Permeabilität bei Sepsis-induziertem ALI/ARDS Wir untersuchten die Beziehung und den Einfluss der Flüssigkeitsbelastung darauf zwischen dem Verhältnis von extravaskulärem Lungenwasser (EVLW) zu intrathorakalen/pulmonalen Blutvolumina (ITBV, PBV) und dem Radionuklid-Lungen-Leck-Index (PLI) zu Protein während einer Sepsis-induzierten akute Lungenverletzung/akutes Atemnotsyndrom (ALI/ARDS).;-;-;-;https://link.springer.com/article/10.1007/s00134-006-0212-8 b6c9a041fbe2977a8eb0101bdf84ab03;de;;;2.2.;;;Selektive Verfeinerung an verschachtelten tetraedrischen Netzen Wir betrachten eine Multi-Resolution-Darstellung, die auf einer Zerlegung der Felddomäne in verschachtelte Tetraederzellen basiert, die durch rekursive Tetraeder-Bisektion erzeugt werden, die wir a . nennen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-07443-5_20 e305d291e5550187feec53773d1d1a2f;de;;;2.2.;;;Aktualisieren und Abfragen von Datenbanken, die mobile Einheiten verfolgen In diesem Papier betrachten wir Datenbanken, die Informationen über sich bewegende Objekte (z. B. Fahrzeuge) darstellen, insbesondere deren Standort. Wir adressieren die Probleme der Aktualisierung und Abfrage solcher Datenbanken. Insbesondere besteht das Aktualisierungsproblem darin, zu bestimmen, wann die Position eines sich bewegenden Objekts in der Datenbank (nämlich ihre Datenbankposition) aktualisiert werden sollte. Wir beantworten diese Frage, indem wir ein Informationskostenmodell vorschlagen, das Unsicherheit, Abweichung und Kommunikation erfasst. Dann analysieren wir Koppelnavigationsrichtlinien, nämlich Richtlinien, die den Datenbankstandort aktualisieren, wenn die Entfernung zwischen dem tatsächlichen Standort und dem Datenbankstandort einen bestimmten Schwellenwert x überschreitet. Koppelnavigation ist der vorherrschende Ansatz bei militärischen Anwendungen, und unser Kostenmodell ermöglicht es uns, den Schwellenwert x zu bestimmen. Wir schlagen verschiedene Strategien zur Koppelnavigation vor und vergleichen deren Leistung durch Simulation.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008782710752 a27ab1e98bbb41387edef7c518cc74ad;de;;;2.2.;;;Fallstudien im Rückblick und sonstige Informationen Die bisherigen Informationen geben einen allgemeinen Überblick über die Situation bei der Beförderung gefährlicher Güter. Dazu gehören Methodik, statistische Daten für die probabilistische Risikobewertung und andere interessante Informationen. Bei der Risikoanalyse gab es unterschiedliche Ansätze, die von den Behörden oder Ingenieurbüros in verschiedenen Ländern verfolgt wurden. In diesem Kapitel möchten wir eine kurze Zusammenfassung ausgewählter Fallstudien und verschiedener für den Leser interessanter Informationen präsentieren, die verschiedene Aspekte der verwendeten Methoden zeigen und zeigen können, wie ein potenzieller Benutzer seine eigenen Anwendungen umsetzen könnte. Die nachfolgend vorgestellten Themen sind exemplarisch und aufgrund des begrenzten Platzes musste diese Auswahl sehr begrenzt bleiben und ist in diesem Sinne nicht exklusiv.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-2821-8_10 e321e0bfe0755ae9cfca42db89f454a8;de;;;2.2.;;;Subsequenz-Kombinatorik und Anwendungen für die Mikroarray-Produktion, DNA-Sequenzierung und Verkettungsalgorithmen Wir untersuchen kombinatorische Aufzählungsprobleme im Zusammenhang mit Teilfolgen von Zeichenfolgen, im Gegensatz zu Teilfolgen müssen Teilfolgen nicht zusammenhängend sein. Für ein endliches Alphabet Σ werden die folgenden drei Probleme gelöst.;-;-;-;https://link.springer.com/chapter/10.1007/11780441_15 23045c65737680a59e306ad11d32b2b8;de;;;2.2.;;;Sequentielle Multiple LSB-Methoden und Echtzeit-Datenverbergung: Variationen für Verschlüsselungen der visuellen Kryptographie In diesem Beitrag wird ein allgemeiner Modellansatz zum Verbergen von Echtzeitdaten und Wasserzeichen für die Bild-, Video- und Audiokommunikation vorgeschlagen. Das Ziel ist die Entwicklung von Sicherheits-Robustheitsvariationen und Datenraten-(Kapazitäts-)Erweiterungen von Steganographie-Schnellschemata für RT (Echtzeit) oder NRT (Nah-Echtzeit) Bild-, Video- und Audio-Medienkommunikation und Datenverbergung ohne signifikante Verzerrung von das Medium. Darüber hinaus enthält dieses Papier den Vorschlag spezifischer Fallmodelle wie Steganographie der Gesamtheit der visuellen Kryptographie-Schemata von Schwarz-Weiß-Bildern. Beeinflusst durch unsere Umfrage zu Spatial Domain Steganographie-Techniken wie Multiple LSB (Least Significant Bit) Algorithmus, Matrix Embedding und Parity Coding, wird eine neue potenzielle Methode vorgestellt, die ab sofort kurz SMLSB (Sequential Multiple LSB) genannt wird und die anderen entsprechenden Methoden vergleicht untersuchten Algorithmen ist SMLSB ein anderer Ansatz zum Verbergen von Echtzeit- und Nicht-Echtzeit-Daten, der einen Vorteil der Robustheit bietet, während er je nach Anforderung verschiedene Modi des Verfahrens bereitstellt. Auch kann das Verfahren für den speziellen Anlass der Steganographie von Visual Cryptography Ciphers verwendet werden.;-;-;-;https://link.springer.com/article/10.1007/s11554-016-0630-y f995f12b45d02ccf8ebcd1d20c88d806;de;;;2.2.;;;Antigorit – sein Vorkommen als Tonmineral Ein weißer Ton aus der Talkmine Jatoba, Castro, Paraná, Brasilien, wird durch chemische Analyse, Röntgen- und Elektronenbeugung sowie durch thermische Analyse als im Wesentlichen reiner Antigorit im engeren Sinne des Wortes nachgewiesen. Einkristall-Elektronenbeugungsmuster ergeben verschiedene Werte für die lange;-;-;-;https://link.springer.com/article/10.1346/CCMN.1971.0190307 9d20f7e28323fdbb599faf469194a287;de;;;2.2.;;;Vergleich von Oracle und PostgreSQL, Leistung und Optimierung Relationale Datenbanken werden immer größer und komplexer. Außerdem müssen aktuelle Datenbankverwaltungssysteme (DBMSs) effizient auf Operationen an ihren Daten reagieren. In diesem Zusammenhang ist die Datenbankoptimierung ein Prozess der Verfeinerung von Datenbanksystemen mit dem Ziel, ihren Durchsatz und ihre Leistung zu verbessern. Dieses Papier bewertet und vergleicht die Leistung von Oracle- und PostgreSQL-Datenbanksystemen mit dem TPC-H-Benchmark, wobei eine Strategie zum Hinzufügen spaltenbasierter Indizes zur Optimierung der Abfrageausführung verfolgt wird. Zehn TPC-H-Abfragen werden auf Tabellen ohne Einschränkungen, mit Primär- und Fremdschlüsseln und mit Index-Constraints durchgeführt. Die Leistung in jedem Satz von Ausführungen wird analysiert. Die Ergebnisse lassen einen positiven Einfluss bei der Verwendung von Beschränkungen mit einer signifikanten Beschleunigung sowie einem besseren Durchsatz ableiten. Oracle hat Stabilität und Robustheit für Abfragen gezeigt und die besten Ergebnisse in Szenarien mit schlechten Leistungsbedingungen erzielt. Allerdings zeigte PostgreSQL nach den vorgenommenen Optimierungen kürzere Ausführungszeiten und erwies sich als sensibler. Globale Leistungsergebnisse zeigen, dass Oracle die Leistung mit Indizes um 7 % und PostgreSQL um 91 % verbessern kann. Beim Vergleich der Ergebnisse von Oracle mit PostgreSQL, keine Indizes, ist Oracle/PostgreSQL 64 % schneller und mit Indizes ist PostgreSQL/Oracle 75 % schneller.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72651-5_46 1851e415500406ff2d01a26621967dc1;de;;;2.2.;;;Mehrdimensionales Tensorprodukt und FFT Die multidimensionale Signalverarbeitung ist ein Kind der Computerrevolution. Mehrere Anwendungsgebiete wie Wetter, Kristallographie, Sonar/Radar, medizinische Bildgebung und Seismologie erfordern mehrdimensionale Datenfelder für eine vollständige und originalgetreue Modellierung. Die Verarbeitung solcher mehrdimensionaler Daten, eine Dimension nach der anderen, führt zu einer fehleranfälligen und zeitaufwendigen Rekonstruktionsstufe. Redundanzen, die durch Zeit-Frequenz-, Zeitskalen- und Raum-Frequenz-Analyse von Sprach- und Sehdaten eingeführt werden, führen natürlich zu mehrdimensionalen Berechnungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-0205-6_2 d5cc94b3b21e52088bbb823729640a4e;de;;;2.2.;;;Pharmakokinetik und neuromuskuläre blockierende Wirkungen von Atracuriumbesylat und zwei seiner Metaboliten bei Patienten mit normaler und eingeschränkter Nierenfunktion Die Pharmakokinetik von Atracurium, Laudanosin und quartärem Alkohol wurde bei Patienten mit normaler und eingeschränkter Nierenfunktion nach intravenöser Gabe von Atracurium untersucht. Die Anästhesie bestand aus Thiopental, Fentanyl, Halothan und Lachgas in Sauerstoff. Plasma- und Urinkonzentrationen der Stammverbindung und ihrer Abbauprodukte wurden durch Hochleistungsflüssigkeitschromatographie gemessen. Nierenversagen wurde definiert als eine Kreatinin-Clearance von weniger als 5 ml/min. Es verursachte keine signifikanten Unterschiede in der Pharmakokinetik von Atracurium, führte jedoch zu einem anderen pharmakokinetischen Profil von Laudanosin mit einem 3-fachen Anstieg des Mittelwerts (± SD) terminale Halbwertszeit (176 ± 84 bzw. 516 ± 262 Minuten für Patienten mit normaler bzw. eingeschränkter Nierenfunktion). Darüber hinaus erhöhte sich die Halbwertszeit des quartären Alkohols von 27,1 ± 8,3 Minuten bei Patienten mit normaler Nierenfunktion auf 42,5 ± 8,3 Minuten bei Patienten mit eingeschränkter Nierenfunktion (Mittelwert ± Standardabweichung). Die renale Elimination von unverändertem Atracurium machte 11 % der verabreichten Dosis aus und mindestens 27 % des gesamten Abbaus von Atracurium erfolgte über Esterhydrolyse.;-;-;-;https://link.springer.com/article/10.2165/00003088-199019030-00006 0aeeb564b1c8fdd2afb581f7da890497;de;;;2.2.;;;Die Renaissance der Röntgenpulverbeugung Forscher haben die Leistungsfähigkeit von Röntgenpulverbeugungstechniken seit dem ersten Pulverexperiment im Jahr 1913 erkannt. Frühe Arbeiter nutzten die Pulverbeugung, um Phasen qualitativ zu unterscheiden und quantitativ zu analysieren;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-8339-4_32 ef79edc13e618fb4b220a444e7628d71;de;;;2.2.;;;Massiv parallele Spin-Bahn-Konfigurationswechselwirkung Eine Implementierung einer massiv parallelen Spin-Orbit-Configuration-Interaktion (PSOCI)-Methode wird beschrieben. Dies ist eine Erweiterung einer herkömmlichen CI-Methode, die explizit Ein-Elektronen-Spin-Bahn-Operatoren und bestimmte skalare relativistische Effekte einschließt, die aus relativistischen effektiven Kernpotentialen extrahiert wurden. Die Leistung des PSOCI-Codes wird auf mehreren großen Computerplattformen analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-48148-6_8 47c3d820b9d2dd08906f24e1173e10ef;de;;;2.2.;;;Wahl der Selektionsumgebung zur Verbesserung der Ernteerträge in salzhaltigen Gebieten Die räumliche Variabilität in salzbelasteten Feldern ist normalerweise sehr hoch. Daher bestehen die meisten vom Salzgehalt betroffenen Länder tatsächlich aus vielen Mikroumgebungen, die von niedrigem bis hohem Salzgehalt in demselben Feld reichen. Die Beweise für das Testen von Genotypen über ein breites Spektrum von Salzgehalten zeigen, dass die Interaktion zwischen Genotyp und Salzgehalt im Allgemeinen groß ist. Somit kann die Züchtung für Salzgebiete mit der sogenannten Züchtung zur „weiten Anpassung“ verglichen werden. Die Zielumgebungen sowohl für die Zucht auf salzhaltige Böden als auch für die breite Anpassung sind tatsächlich eine Population vieler möglicher Umgebungen, für die eine signifikante Komponente der Genotyp-zu-Umgebung (G x E)-Interaktion existiert. Somit ist es möglich, den Wert potenzieller Strategien für die Züchtung auf Salzgehaltstoleranz unter Verwendung der Werkzeuge zu untersuchen, die für die Erforschung der Züchtung für eine breite Anpassung entwickelt wurden. Die Beweise aus Selektions- und Züchtungsexperimenten für eine breite Anpassung scheinen das Testen an einer repräsentativen Untergruppe von Umgebungen zu begünstigen, einschließlich Stress- und Nicht-Stress-Standorten, aber die Auswahl dieser Standorte wird durch die mehrdimensionale Natur von G x E erschwert Bei Salzstress sind die Reaktionsfunktionen der Ernteerträge auf den Salzgehalt gut bekannt. Dieses Papier präsentiert einen Versuch, die Wahl der optimalen Umgebung(en) zu systematisieren, um unter salzhaltigen Bodenbedingungen für einen verbesserten Ertrag zu selektieren, basierend auf der dreiteiligen linearen Gleichung von Maas und Hoffman (1977) und der Theorie der direkten und indirekten Reaktionen response zur Auswahl. Es wird vorgeschlagen, dass drei Salzgehalte ausreichen sollten, um eine valide Einschätzung der Eignung einer Reihe von Selektionsstrategien zu treffen. Ein Arbeitsbeispiel mit Daten aus einer Reihe von Getreidesorghum-Inzuchtlinien, die auf zehn Salzkonzentrationen getestet wurden, zeigt, dass die gleichen Selektionsstrategien unter Verwendung der Informationen aus den zehn Salzkonzentrationen gewählt werden würden wie die, die mit den beiden Extremen und einer Zwischenstufe erhalten wurden.;-;-;-;https://link.springer.com/article/10.1007/BF00223914 244ff0fec53f790490223c97686e24f6;de;;;2.2.;;;"Ein adaptiver und effizienter unüberwachter Shot-Clustering-Algorithmus für Sportvideos Aufgrund seines enormen kommerziellen Potenzials ist Sportvideo heutzutage zu einem beliebten Forschungsthema geworden. Als Brücke zwischen Low-Level-Features und High-Level-Semantik ist das automatische Shot-Clustering ein wichtiges Thema im Bereich der Inhaltsanalyse von Sportvideos. In früheren Arbeiten erfordern viele Clustering-Ansätze einige professionelle Kenntnisse von Videos, einige experimentelle Parameter oder einige Schwellenwerte, um gute Clustering-Ergebnisse zu erzielen. In diesem Artikel stellen wir einen neuen effizienten Shot-Clustering-Algorithmus für Sportvideos vor, der generisch ist und keine Domänenvorkenntnisse erfordert. Der neuartige Algorithmus, der Valid Dimension Clustering (VDC) genannt wird, arbeitet unüberwacht. Für die hochdimensionalen Merkmalsvektoren von Videoaufnahmen wird zunächst ein neuer Ansatz zur Dimensionsreduktion vorgeschlagen, der das verfügbare Dimensionshistogramm nutzt, um ""gültige Dimensionen"" als gute Annäherung an die intrinsischen Eigenschaften von Daten zu erhalten. Dann arbeitet der Clustering-Algorithmus nacheinander an gültigen Dimensionen, um die intrinsischen Eigenschaften jeder gültigen Dimension am weitesten zu nutzen. Die Iterationen des Zusammenführens und Teilens ähnlicher Schüsse auf jeder gültigen Dimension werden wiederholt, bis das neue Stoppkriterium, das die Theorie der Fisher-Diskriminierungsanalyse erben soll, erfüllt ist. Schließlich wenden wir unseren Algorithmus in unseren umfangreichen Experimenten auf reale Videodaten an. Die Ergebnisse zeigen, dass VDC eine hervorragende Leistung aufweist und andere Clustering-Algorithmen übertrifft.";-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71703-4_13 7c1cdca203633793ec5d756f177fb34f;de;;;2.2.;;;Zuordnen von Wörtern zu Codewörtern auf PPM Wir beschreiben ein einfaches und effizientes Schema, mit dem Wörter in der PPM-Modellierung verwaltet werden können, wenn eine Textdatei in natürlicher Sprache komprimiert wird. Die Hauptidee beim Verwalten von Wörtern besteht darin, ihnen Codes zuzuweisen, um sie leichter manipulieren zu können. Um dieses Ziel zu erreichen, wird eine allgemeine Technik verwendet: eine Wörterbuchabbildung auf PPM-Modellierung. Um unsere Idee zu testen, implementieren wir drei Prototypen: Einer implementiert das grundlegende Wörterbuch-Mapping auf PPM, ein anderer implementiert das Wörterbuch-Mapping mit dem separaten Alphabets-Modell und der letzte implementiert das Wörterbuch mit dem Spaceless-Words-Modell. Diese Technik kann direkt angewendet oder mit einem Wortkompressionsmodell kombiniert werden. Die Ergebnisse für Dateien von 1 MB. und darüber sind besser als die, die der als Basis genommene Charakter PPM erreicht. Der Vergleich zwischen verschiedenen Prototypen zeigt, dass die beste Option darin besteht, ein wortbasiertes PPM in Verbindung mit dem Leerzeichenkonzept zu verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/11880561_15 168c24be066f7fc84dd0a5161beab3a8;de;;;2.2.;;;Ein raumzeitlicher Abfrageprozessor basierend auf einer vereinfachten Darstellung In räumlichen Datenbanken ist die effiziente Filterung von räumlichen Objekten unter Verwendung eines Index ein Schlüsselproblem, um die Abrufleistung zu verbessern. R*-Baum ist ein bekannter Index, der Punkte und Rechtecke verwalten kann. Im R*-Baum werden Objekte durch ihre MBRs angenähert und der Eingabebereich wird auch durch seinen MBR angenähert. Und die genaue Prüfung wird auf den Verfeinerungsschritt verschoben. Dieses Papier schlägt einen neuen Ansatz für diesen Filter vor. Der Eingabebereich sowie jedes der gespeicherten Objekte wird von einem R*-Baum verwaltet, der eine genauere Annäherung daran und somit eine effizientere Filterung ermöglicht. Dieses Design wird in unserem raumzeitlichen Datenbanksystem verwendet;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-49121-7_46 783029b0b274cf0acc3cd8afb953d54a;de;;;2.2.;;;Anleitungen zur Multi-Query-Optimierung für Sensornetzwerke Die weite Verbreitung kleiner Sensorknoten hat das Interesse an einer leistungsfähigen neuen Datenbankabstraktion für Sensornetzwerke geweckt: Clients „programmieren“ die Sensoren durch Abfragen in einer höheren deklarativen Sprache (z. B. einer Variante von SQL) und Katalogmanagement und Abfrageverarbeitungstechniken abstrahieren den Benutzer von den physischen Details der Aufgaben der Sensoren. Das resultierende System nennen wir Sensordatenmanagementsystem (SDMS). Sensornetzwerke unterliegen wichtigen Einschränkungen hinsichtlich Kommunikation, Berechnung und Stromverbrauch. Energie ist die wertvollste Ressource für unbeaufsichtigte batteriebetriebene Knoten. Da die Funkkommunikation den größten Teil der verfügbaren Knotenleistung verbraucht, ist es unser Ziel, Strategien zu identifizieren, die den Netzwerkverkehr reduzieren. Wir geben einen Überblick über drei verschiedene Ansätze zur Reduzierung der Kosten für die Verarbeitung aggregierter Abfragen in Sensornetzwerken: i) Auswahl geeigneter Routen zum Sammeln von Ergebnissen mehrerer Abfragen, ii) Datenreduktionstechniken, die Abfragekommunalitäten ausnutzen und iii) ein hybrider Pull-Push Kommunikationsparadigma für Abfrage und Ergebnisweitergabe. Wir widmen dem dritten Ansatz besondere Aufmerksamkeit und präsentieren im Detail einen Algorithmus zum Finden einer Pull-Push-Konfiguration, die den Netzwerkverkehr erwartet minimiert. Experimentelle Analysen zeigen, dass unser Algorithmus erhebliche Energieeinsparungen bietet.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-23466-7_9 a8a60564a7beb8686e2372ecb8acb057;de;;;2.2.;;;Gründe für die inkrementellen Informationen in der aktualisierten Geodatenbank Um die inkrementellen Informationen der räumlichen Datenbank schnell zu extrahieren und zu verteilen, analysiert diese Arbeit die Gründe für die inkrementellen Informationen der räumlichen Datenbank mit dem Fall des Wohnmerkmals. Zunächst wird ein neues Inkrementkonzept vorgeschlagen, das auf dem raum-zeitlichen Änderungstyp und dem Datendelta basiert. Der Änderungstyp beschreibt die Semantik von Inkrementinformationen und das Datendelta beschreibt den Inhalt von Inkrementinformationen. Basierend auf diesem Konzept werden die Arten des Wohnungswechsels und relevante Datendeltas dargestellt. Es gibt zwei Kataloge von Änderungsarten, d. h. subjektive Änderung und objektive Änderung. Die subjektive Änderung kann detailliert in 3 kleine Änderungstypen und die objektive Änderung kann detailliert in 12 kleine Änderungstypen unterteilt werden. Darüber hinaus werden die aus der Zieländerung resultierenden inkrementellen Informationen formalisiert. Basierend auf den oben formalisierten Änderungen kann die automatische Extraktion von inkrementellen Informationen zweckmäßigerweise programmiert werden. Das Klassifizierungsergebnis wurde auf das automatische Extraktionssystem für inkrementelle Informationen von 1.250.000 topografischen Datenbanken angewendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18369-0_70 c97a8686c1e99d686a2163649c4b1f57;de;;;2.2.;;;Ein skalierbarer Abfrageansatz mit mehreren Attributen für Cluster-basierte Hybrid-Overlays Die Ressourcenerkennung in verteilten Computersystemen ist ein kritischer Punkt, um verteilte Ressourcen schnell zu finden und abzurufen. Im Allgemeinen konzentrieren sich die meisten der zuvor vorgeschlagenen Strategien auf die Entwicklung von Ansätzen für die Schlüsselwortsuche unter Beibehaltung der Systemskalierbarkeit. In diesem Beitrag schlagen wir ein Cluster-basiertes Hybrid-Overlay vor, das eine effiziente Keyword-Suche mit einer hohen Abwanderungsrate unterstützt. Das clusterbasierte Hybrid-Overlay gruppiert die Knoten mit denselben Attributen, um unstrukturierte Attributgruppen zu bilden, und gruppiert dann diese Attributgruppen mit ähnlichen Attributen, um Attributcluster zu bilden. Unser vorgeschlagenes Hybrid-Overlay könnte effiziente Multi-Attribut- und Range-Query-Suchen mit Lastausgleich in großen P2P-Netzwerken ermöglichen. Experimentelle Ergebnisse zeigen, dass die vorgeschlagene Überlagerung gut funktioniert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14822-4_15 b22b9aac5410edf92af7229348496140;de;;;2.2.;;;Kontinuierliche Top-k-Verarbeitung von Informationsströmen sozialer Netzwerke: Eine Vision Angesichts der enormen Popularität sozialer Netzwerke ist das Veröffentlichen und Konsumieren von Inhalten über Informationsströme heutzutage das Herzstück des neuen Webs. Oberteil-;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-38901-1_3 0b451586ce72ef3e34d3f7ef93d6c2cc;de;;;2.2.;;;Ein syntaktischer Ansatz zur Kombination von funktionaler Notation, Lazy Evaluation und höherer Ordnung in LP-Systemen Nichtdeterminismus und teilweise instanziierte Datenstrukturen verleihen der Logikprogrammierung eine Ausdruckskraft, die über die der funktionalen Programmierung hinausgeht. Die funktionale Programmierung bietet jedoch häufig bequeme syntaktische Funktionen, z. B. ein bestimmtes implizites Ausgabeargument, das die Verschachtelung von Funktionsaufrufen ermöglicht und manchmal zu kompakteren Code führt. Funktionale Programmierung ermöglicht manchmal auch eine direktere Codierung der faulen Auswertung, da sie mit unendlichen Datenstrukturen umgehen kann. Wir präsentieren a;-;-;-;https://link.springer.com/chapter/10.1007/11737414_11 77dfe37c1cc4b9b0e80c2f1f99ae51d1;de;;;2.2.;;;Syntax und Indizes Mein Ziel in diesem Kapitel wird es sein, die verschiedenen in den Teilen I und II beschriebenen Phänomene durchzugehen und zu sehen, wie sie in den im letzten Kapitel diskutierten syntaktischen Rahmen integriert werden können. Ich sollte betonen, dass dies nicht als Beitrag zu ernsthafter Syntax gedacht ist, außer in dem Sinne, dass versucht wird, den Vorschlag zu untersuchen, dass eine propositionale Sprache eine bequemere Basis bietet als eine Sprache mit variabler Bindung. Tatsächlich ist die für die diskutierten Phänomene erforderliche Syntax recht minimal und, wie ich gedacht hätte, relativ unumstritten. Bemerkenswert ist jedoch, wie viel kontextuelle Relativität in einer so einfachen Syntax verborgen werden kann und die natürlich zu einem Hauptthema dieses Buches beiträgt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-8696-2_10 29d496344446f8f622dd08be715a30e6;de;;;2.2.;;;Ein Algorithmus zur Ausreißererkennung in unsicheren Datenströmen Die Ausreißererkennung spielt eine wichtige Rolle in der Betrugserkennung, Sensornetz, Computernetzwerkverwaltung und vielen anderen Bereichen. Jetzt werden die Flusseigenschaften und die Unsicherheit von Daten immer offensichtlicher, die Erkennung von Ausreißern in unsicheren Datenströmen ist zu einem neuen Forschungsthema geworden. Zunächst schlagen wir ein neues Ausreißerkonzept für unsichere Datenströme basierend auf möglichen Welten vor. Dann wird ein Ausreißererkennungsverfahren für unsichere Datenströme vorgeschlagen, um die Nachfrage nach begrenztem Speicher und Echtzeitverarbeitung zu erfüllen. Als nächstes wird eine dynamische Speicherstruktur für die Ausreißererkennung bei unsicheren Datenströmen über Gleitfenster entwickelt, um die Anforderungen an begrenzten Speicher und Echtzeitreaktion zu erfüllen. Darüber hinaus wird ein effizientes Bereichsabfrageverfahren basierend auf einem SM-Baum (Statistik-M-Baum) vorgeschlagen, um einige redundante Berechnungen zu reduzieren. Schließlich wird die Leistungsfähigkeit unserer Methode durch eine Vielzahl von Simulationsexperimenten verifiziert. Die experimentellen Ergebnisse zeigen, dass unsere Methode ein effektiver Weg ist, das Problem der Ausreißererkennung bei unsicheren Datenströmen zu lösen und die Ausführungszeit und den Speicherplatz erheblich reduzieren könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37401-2_45 63fe741c7e8c083fcb4c9b94e760b512;de;;;2.2.;;;Ein neuartiger funktionsgewichteter Clustering-Algorithmus basierend auf groben Sets zur Erkennung von Schussgrenzen Die Schussgrenzenerkennung als entscheidender Schritt hat in den letzten Jahren viel mehr Forschungsinteressen geweckt. Um Nachrichtenvideos in Aufnahmen zu unterteilen, wurden viele Metriken erstellt, um die Ähnlichkeit zwischen Videoframes basierend auf allen verfügbaren Videofunktionen zu messen. Zu viele Merkmale verringern jedoch die Effizienz der Schussgrenzenerkennung. Daher ist es notwendig, die Merkmalsreduktion vor der Erfassung der Schussgrenze durchzuführen. Zu diesem Zweck wird das Klassifizierungsverfahren basierend auf dem Clustering-Algorithmus von Rough-Fuzzy-Sets mit variabler Präzision und Rough-Sets mit variabler Präzision zur Merkmalsreduktion und Merkmalsgewichtung vorgeschlagen. Entsprechend der Besonderheit von Nachrichtenszenen kann der Szenenübergang in drei Typen unterteilt werden:;-;-;-;https://link.springer.com/chapter/10.1007/11881599_55 b50ad11be5f9f2599f3848db5d5271d9;de;;;2.2.;;;Spektraleigenschaften eines inhomogenen Films 1. Reflexions- und Transmissionsspektren für verschiedene Brechungsindexprofile des Films Die Reflexions- und Transmissionsspektren eines optischen Dünnfilms weisen eine Reihe von Maxima und Minima auf, und die Einhüllenden dieser Extrema werden bei der „Hüllkurvenmethode“ verwendet, um den Brechungsindex, den Extinktionskoeffizienten und die Dicke des Films zu bestimmen. Diese Methode funktioniert recht gut, solange der Film homogen ist. Bei inhomogenen Filmen ist die Bestimmung des Brechungsindexprofils, d. h. der Veränderung des Brechungsindex mit der Tiefe, aus den Transmissions-/Reflexionsspektren jedoch keine einfache Aufgabe, selbst wenn der Film schwach absorbiert. Um diese Bestimmung (die Gegenstand des folgenden Artikels ist) zu unterstützen, wurden die Trends der Reflexions-/Durchlässigkeits-Extrema-Hüllkurven mit zunehmender Wellenlänge für verschiedene Arten von Filminhomogenitäten untersucht und mit den Ergebnissen für einen homogenen Film mit a . verglichen Brechungsindex gleich dem durchschnittlichen Brechungsindex des inhomogenen Films. Die früheren Studien in dieser Richtung wurden erweitert und eine umfassendere Studie durchgeführt.;-;-;-;https://link.springer.com/article/10.1007/BF03354694 533bbd8e5938481c08c7812342ee0fcb;de;;;2.2.;;;Video als wissenschaftliches Material in der digitalen Bibliothek Video ist ein herausforderndes Material für digitale Bibliotheken, da es große Datenmengen enthält, die schnell verarbeitet werden müssen, und weil Videoprogrammierung für die algorithmische Verarbeitung nicht so bequem strukturiert ist wie Text. Da bewegte Bilder als wissenschaftliches Material in einer Reihe von Disziplinen verwendet werden, müssen digitale Bibliotheken in der Lage sein, das Katalogisieren, Durchsuchen und Navigieren durch Videosammlungen zu unterstützen. Wir haben gezeigt, dass rechnerisch handhabbare Algorithmen verwendet werden können, um einige der wichtigen Probleme in digitalen Videobibliotheken zu lösen. Obwohl noch viel Arbeit geleistet werden muss, glauben wir, dass Signal- und Bildverarbeitungsalgorithmen uns helfen werden, andere wichtige Probleme in Videobibliotheken zu lösen.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0024602 367ef072c56c78b298f38de41a377f35;de;;;2.2.;;;Eine Methode zum Abrufen von Webvideos, die eine hierarchische Struktur von Webvideogruppen verwendet In diesem Artikel schlagen wir eine Methode zum Abrufen von Webvideos vor, die eine hierarchische Struktur von Webvideogruppen verwendet. Bestehende Abrufsysteme erfordern, dass Benutzer geeignete Abfragen eingeben, die die gewünschten Inhalte identifizieren, um Web-Videos genau abzurufen, jedoch ermöglicht das vorgeschlagene Verfahren den Abruf der gewünschten Web-Videos, selbst wenn Benutzer die geeigneten Abfragen nicht eingeben können. Konkret wählen wir zunächst repräsentative Webvideos aus einem Zielvideodatensatz aus, indem wir Verknüpfungsbeziehungen zwischen Webvideos verwenden, die über Metadaten „bezogene Videos“ und heterogene Videofunktionen erhalten wurden. Darüber hinaus bauen wir unter Verwendung der repräsentativen Webvideos ein Netzwerk auf, dessen Knoten bzw. Kanten Webvideos und Links zwischen diesen Webvideos entsprechen. Dann Webvideogruppen,;-;-;-;https://link.springer.com/article/10.1007/s11042-015-2976-8 50a72a9aca08798e61ab6f578641fb0d;de;;;2.2.;;;Sichere geschichtete Datenaufzeichnung mit Programmen mit ganzzahliger Ordnung Für Datenbankanwendungen ist es wichtig, die Beendigung von Programmen an allen gültigen Eingaben zu garantieren. Die Terminierung kann in Stratified Datalog mit ganzzahliger (Gap)-Reihenfolge nicht garantiert werden, oder;-;-;-;https://link.springer.com/chapter/10.1007/3-540-60299-2_10 7563164315ef899172df0a510890a3f0;de;;;2.2.;;;Erdbebengefährdung in der Momase-Region von Papua-Neuguinea Tsunami, Feuer, Erdrutsche und durch Erschütterungen ausgelöste Verflüssigung sind die häufigsten Gefahren weltweit. Solche Gefahren führen oft zum Einsturz von gebauten Infrastrukturen wie Straßen, Brücken, Gebäuden, abgesehen davon, dass Menschenleben und Eigentum schwer verletzt werden. Die Region Momase in Papua-Neuguinea ist eine solche gefährdete Region, in der eine angemessene Planung für den Schutz von Leben und Infrastrukturen von größter Bedeutung ist. Im Rahmen der Studie wurde die Anfälligkeit für Erdbeben in der Region Momase bewertet und bewertet. Die Ausgabe kann als Werkzeug verwendet werden, um bei der Auswahl eines geeigneten Standorts zu helfen, der das Risiko von Erdbebenschäden minimiert, und um auch bei einer besseren und angemessenen zukünftigen Konstruktion oder Planung an einem Standort zu helfen. Für die vorliegende Studie werden Anwendungspotenziale von GIS und Fernerkundung genutzt, um eine mögliche Erdbebengefährdung im Untersuchungsgebiet zu bewerten und zu bewerten. Der Einfluss von Boden und Geologie als Medien, die für die Verstärkung oder Milderung von Erdbebenwellen verantwortlich sind, wird als Input hervorgehoben. Dies sind die Medien, die die Heftigkeit der Erschütterungsintensität beeinflussen, die zu den Zerstörungen während einer Erdbebenepisode führt. Daher werden die Standort-Boden-Geologie und -Geomorphologie bewertet und in die GIS-Umgebung in Verbindung mit Seismizitätsdatenschichten integriert, um Verflüssigungspotenzialzonen zu bewerten und vorzubereiten, gefolgt von einer Erdbebengefahr-Zonierung des Untersuchungsgebiets. Für diese Studie wird eine multikriterielle Bewertung mit analytischem Hierarchieprozess verwendet. Die Technologie umfasst die Vorbereitung und Bewertung mehrerer beitragender Faktoren (thematische Ebenen), denen Gewichtung und Rangfolge zugewiesen werden, und schließlich die Normalisierung der zugewiesenen Gewichtungen und Rangordnungen. In der Studie wurden hauptsächlich das räumliche Analysewerkzeug in ArcGIS 10, der Rasterrechner, die Reklassifizierungs- und Gewichtungs-Overlay-Werkzeuge verwendet. Die endgültige Ausgabe von LPZ- und Erdbebengefährdungszonen wurde in „sehr hoch“, „hoch“, „mittel“, „gering“ und „sehr gering“ umklassifiziert, um die Gefahrenstufen innerhalb einer Untersuchungsregion anzuzeigen.;-;-;-;https://link.springer.com/article/10.1007/s41324-016-0058-2 617ea2b12b715da9a5ec27618be1b4f1;de;;;2.2.;;;Konstantes Warteschlangen-Routing auf einem Mesh Paket-Routing ist ein wichtiges Problem bei der parallelen Berechnung, da ein einzelner Schritt der Kommunikation zwischen Prozessoren als eine Paket-Routing-Aufgabe betrachtet werden kann. In diesem Papier stellen wir einen optimalen Algorithmus für das Paket-Routing auf einem vernetzten Computer vor.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0020819 ac9d154e53dcab3dbb4010a09e833981;de;;;2.2.;;;Graphbasierte parallele Abfrageverarbeitungs- und Optimierungsstrategien für objektorientierte Datenbanken In der Vergangenheit wurde viel Arbeit auf dem Gebiet der parallelen Abfrageverarbeitung und Optimierung in parallelen relationalen Datenbanksystemen geleistet, jedoch wurde in parallelen objektorientierten Datenbanksystemen wenig Arbeit zum gleichen Thema geleistet. Da sich die objektorientierte Sicht auf eine Datenbank und deren Verarbeitung stark von denen eines relationalen Systems unterscheidet, kann erwartet werden, dass sich Techniken der parallelen Abfrageverarbeitung und Optimierung für letztere von ersteren unterscheiden können. In diesem Papier präsentieren wir einen allgemeinen Rahmen für parallele objektorientierte Datenbanksysteme und mehrere implementierte Abfrageverarbeitungs- und Optimierungsstrategien zusammen mit einigen Ergebnissen der Leistungsbewertung. In dieser Arbeit werden Multiwellenfrontalgorithmen in der Abfrageverarbeitung verwendet, um einen höheren Grad an Parallelität als die traditionelle baumbasierte Abfrageverarbeitung zu ermöglichen. Es werden vier Optimierungsstrategien vorgestellt, die speziell für die Multiwavefront-Algorithmen und für die Optimierung von Einzel- sowie Mehrfachanfragen entwickelt wurden. Die Algorithmen zur Abfrageverarbeitung und Optimierungsstrategien wurden auf einem Parallelcomputer, nCUBE2, implementiert und die Ergebnisse einer Leistungsbewertung werden in diesem Papier vorgestellt. Die Hauptschwerpunkte und beabsichtigten Beiträge dieses Papiers sind (1) Datenpartitionierung, Abfrageverarbeitung und Optimierungsstrategien, die für parallele OODBMSs geeignet sind, (2) die Implementierung der Multiwellenfront-Algorithmen und Optimierungsstrategien und (3) die Ergebnisse der Leistungsbewertung.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008631132311 f3c3c02535292df123537112cf1fc911;de;;;2.2.;;;Adaptive Ensemble-Klassifizierung in P2P-Netzwerken Die Klassifizierung in P2P-Netzwerken ist aufgrund der Popularität von P2P-Computerumgebungen zu einem wichtigen Forschungsproblem im Data Mining geworden. Dies ist immer noch ein offenes schwieriges Forschungsproblem aufgrund einer Vielzahl von Herausforderungen, wie z;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12026-8_5 a0e6b4f612c32181adf964fa99358cd6;de;;;2.2.;;;Ein Fuzzy-Set-Ansatz für formbasierte Bildkommentare In diesem Papier stellen wir einen Ansatz zur Formbeschriftung für die automatische Bildanmerkung vor. Ein Fuzzy-Clustering-Prozess wird auf Formen angewendet, die durch Fourier-Deskriptoren dargestellt werden, um einen Satz von Formprototypen abzuleiten. Dann werden Prototypen manuell mit Textetiketten entsprechend semantischen Kategorien annotiert. Basierend auf den beschrifteten Prototypen wird eine neue Form automatisch beschriftet, indem ein Fuzzy-Set zugeordnet wird, das allen semantischen Klassen Zugehörigkeitsgrade der Form bereitstellt. Vorläufige Ergebnisse zeigen die Eignung des vorgeschlagenen Ansatzes zur Bildannotation, indem er seine Anwendung in breiteren Anwendungskontexten fördert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23713-3_30 59e817b5583d949b634f022e2f74d9f4;de;;;2.2.;;;Video-Keyframe-Erkennung basierend auf dem SURF-Algorithmus In diesem Beitrag stellen wir eine neue Methode zur Keyframe-Erkennung vor. Unser Ansatz basiert auf einem bekannten Algorithmus: Speeded-Up Robust Features (SURF), einem entscheidenden Schritt unserer Methode. Die Frames werden von einem SURF-Matcher verglichen, der es ermöglicht, die entsprechenden Keypoints zu zählen. Die vorgeschlagene Methode liefert bessere Ergebnisse für professionelle und hochauflösende Videos. Die von uns durchgeführten Simulationen haben die Wirksamkeit unseres Ansatzes bewiesen. Der Algorithmus benötigt nur einen Eingabeparameter.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19324-3_50 8c830b16506dad1e8b828d4ced02b78b;de;;;2.2.;;;Stream-basiertes Live-Probabilistic Topic Computing und Matching Die Überwachung der öffentlichen Meinung bezieht sich auf die Echtzeiterkennung von Erstmeldungen (FSD) bei einem bestimmten Internet-Nachrichtenereignis. Es spielt eine wichtige Rolle bei der Ermittlung der Tendenz zur Nachrichtenausbreitung. Aktuelle Methoden zur Meinungsüberwachung beziehen sich auf den Textabgleich. Es weist jedoch einige Einschränkungen auf, wie beispielsweise die Entdeckung von latenten und versteckten Themen und ein falsches Relevanzranking der übereinstimmenden Ergebnisse bei umfangreichen Daten. In diesem Papier schlagen wir eine verbesserte Lösung für die Live-Überwachung der öffentlichen Meinung vor: Stream-basiertes Live-Probabilistic Topic Computing und Matching. Unsere Methode versucht, die Nachteile wie semantisches Matching und geringe Effizienz bei zeitnahen Big Data anzugehen. Themen-Echtzeit-Computing mit Stream-Processing-Paradigma und Themen-Matching mit Dokumenten- und Feld-Boosting in Abfragezeit werden vorgeschlagen, um wesentliche Verbesserungen zu erzielen. Schließlich zeigt unsere experimentelle Auswertung zum Thema Computing und Matching unter Verwendung gecrawlter historischer Netease-Nachrichtenaufzeichnungen die hohe Effektivität und Effizienz des vorgeschlagenen Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-65482-9_27 6d17b65558ef837eb42dc50ba0628c6c;de;;;2.2.;;;Eine Übersicht über Clustering-Algorithmen für Graphdaten In diesem Kapitel werden wir einen Überblick über Clustering-Algorithmen für Graphdaten geben. Wir werden die verschiedenen Kategorien von Clustering-Algorithmen und neuere Bemühungen diskutieren, Clustering-Verfahren für verschiedene Arten von grafischen Daten zu entwickeln. Clustering-Algorithmen sind typischerweise von zwei Typen. Der erste Typ besteht aus Knoten-Clustering-Algorithmen, bei denen wir versuchen, dichte Regionen des Graphen basierend auf dem Kantenverhalten zu bestimmen. Der zweite Typ besteht aus strukturellen Clustering-Algorithmen, bei denen wir versuchen, die verschiedenen Graphen basierend auf dem Gesamtstrukturverhalten zu clustern. Wir werden auch die Anwendbarkeit des Ansatzes auf andere Arten von Daten wie halbstrukturierte Daten und die Nützlichkeit von Graph-Mining-Algorithmen für solche Darstellungen diskutieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-6045-0_9 177dc70af44c2b8bace313b3905e0155;de;;;2.2.;;;Nahtlose Visualisierung von globalem Multi-Resolution-DEM basierend auf Block-DQG-Modell Eine neue Modellierungsmethode für globale Blockquadtrees basierend auf DQG (Degenerate Quadtree Grid) wird entwickelt. Ohne die Unterteilungsebene der benachbarten Knoten einzuschränken, wird die globale DQG basierend auf der Geländerauheit vereinfacht. Unter Ausnutzung der Eigenschaften der Quadtree-Struktur werden nicht nur die Risse innerhalb eines Quadtree-Blocks oder zwischen verschiedenen Quadtree-Blöcken, sondern auch die durch Vereinfachung induzierten Risse zwischen Quadtree-Block und Nicht-Quadtree-Block eliminiert. Somit sind die Rissspleißungen alle nahtlos. Als Ergebnis wird eine globale Multi-Resolution-DEM-Visualisierung basierend auf einem DQG-Dreiecksraster erreicht, was die Genauigkeit und Effizienz der Geländedarstellung gewährleistet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31006-5_7 7d817a0d8fbd02db28d67a76d4151d4d;de;;;2.2.;;;Leistungsverbesserung für ein WCDMA-Funk-über-Glasfaser-System mit digitalem Vorverzerrer In diesem Beitrag wird ein Radio Over Fiber (ROF)-System mit einem digitalen Vorverzerrer (DPD) für die WCDMA-Signalübertragung untersucht. Eine auf einer Nachschlagetabelle (LUT) basierende DPD und eine Speicherpolynom (MP) DPD werden in der ROF-Verbindung angewendet, um das Außerband-Störspektrum zu unterdrücken und die Übertragungsleistung zu verbessern. Die experimentellen Ergebnisse zeigen, dass die Außerbandemission aufgrund der Existenz der Intermodulationsverzerrung dritter Ordnung (IMD3) offensichtlich durch diese beiden DPD unterdrückt wird. Eine Verbesserung des Adjacent Channel Power Ratio (ACPR) von 8 dB wird für eine Einzelträger-WCDMA-Signalübertragung erhalten. Diese beiden DPD haben die gleiche Fähigkeit zur Linearisierung des ROF-Systems für eine WCDMA-Signalübertragung mit drei Trägern. Es gibt keine offensichtlichen Memory-Effekte im ROF-Link.;-;-;-;https://link.springer.com/article/10.1007/s11767-012-0794-y f9ef4bbead2e135c8aa0e2de71ca3fdd;de;;;2.2.;;;Verbesserte Parallelitätssteuerungstechnik mit sperrungsfreier Abfrage für mehrdimensionale Indexstrukturen Dieses Papier schlägt die verbesserte Parallelitätssteuerungstechnik mit blockierungsfreier Abfrage für mehrdimensionale Indexstrukturen vor. Bei hochgradig gleichzeitigen Arbeitslasten aufgrund häufiger Aktualisierungen zum Speichern des Standorts von sich bewegenden Objekten können die Varianten der R-Baumstruktur keine Echtzeitantwort bereitstellen. Weil die Abfrageverarbeitung häufig durch Node-Split- oder Region-Propagation blockiert wird, wenn sich die Positionen von Objekten ändern. In diesem Dokument wird die Abfrageleistung verbessert, indem die neue Versionierungstechnik verwendet wird. Es ändert die Daten nicht physisch, sondern erstellt eine neue Version, um die Unversehrtheit der Daten zu kompensieren. Der Suchvorgang kann ohne Sperren oder Latchen auf Daten zugreifen, indem er die alte Version liest. Bei der Leistungsbewertung wird nachgewiesen, dass die Suchoperation des vorgeschlagenen Baums mindestens zweimal schneller ist als eine vorherige Arbeit.;-;-;-;https://link.springer.com/chapter/10.1007/11562382_4 0e5ef2abdffa250988c6d2d2d22bd99b;de;;;2.2.;;;Schnelle Verarbeitung von Abfragen mit mehreren Feldern in Bigtable-basierten Cloud-Systemen Mit der schnellen Zunahme der Datengröße migrieren Unternehmensanwendungen ihre Backend-Datenverwaltungs- und Analysesysteme in Cloud-basierte Datenverwaltungssysteme. Bigtable gehört zu den wichtigsten Datenmodellen, die von Cloud-Speichersystemen als Speicherschicht verwendet werden. Solche Systeme bieten eine hohe Skalierbarkeit und Schemaflexibilität und unterstützen effiziente punkt- und bereichsbasierte Abfragen basierend auf Zeilenschlüsseln. Bigtable-basierte Systeme bieten jedoch aufgrund des hohen Overheads beim Aufrufen zusätzlicher Datenscans eine begrenzte Unterstützung für nicht-rowkey-basierte Abfragen und auf mehreren Feldern basierende Abfragen. In diesem Papier entwickeln wir ein System;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38562-9_15 a1a625bbb25d28f4ae18f48b104feae3;de;;;2.2.;;;Eine neuartige Bild-Auto-Annotation basierend auf Blobs-Annotation Derzeit gibt es im Internet eine riesige Menge an digitalen Medien. Beim Abrufen von Webbildern ist die Semantik eines Bildes ein großes Problem, im Allgemeinen indizieren die Suchmaschinen den Text, der dem Bild von Webseiten zugeordnet ist. Dieser Text entspricht nicht wirklich ihnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23154-4_13 0fe6a660c50da9c854e03e890e948bf7;de;;;2.2.;;;Segmentbasierter Bildabruf mit HSV-Farbraum und -Moment In diesem Artikel wurde eine Methode zum Abrufen von Farbbildern vorgeschlagen, die auf den Grundelementen des Farbraums und der Momente (HSVCSM) basiert. Der vorgeschlagene HSVCSM analysiert die visuellen Eigenschaften des HSV-Farbraums (Hue, Saturation, Value) und des menschlichen visuellen Systems. Dieses Verfahren erzeugt effektiv das Farbhistogramm für CBIR-Anwendungen. HSVCSM führte Farbmerkmale im HSV-Raum ein, um den Farbraum in 15 ungleichmäßige Bins zu quantisieren, um das Farbraummerkmal zu berechnen. Das vorgeschlagene HSVCSM unterteilt das Abfragebild in drei Segmente, in denen Farbmomente für alle Segmente wie Mittelwert, Varianz und Schiefe extrahiert und in drei Klassen für HSV-Kanäle geclustert werden. Die Leistung von HSVCSM wird auf der Grundlage von Präzision und Recall bewertet. Experimentelle Ergebnisse zeigen, dass die vorgeschlagene Methode HSVCSM zur Bildsuche präziser, übersichtlicher und trotz der Zugänglichkeit der bestehenden Abrufalgorithmen gut verständlich ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13728-5_27 aa153f1d2442a0d06ec988c7a4b3ef50;de;;;2.2.;;;Datenschutz bei durchsuchbaren verschlüsselten Daten in der Cloud Cloud Computing ist das neueste Paradigma, das verschiedene Cloud-Dienste durch Neuanordnung von Ressourcen anbietet und diese auf der Grundlage der Nachfrage des Benutzers bereitstellt. Benutzer verwenden billigere Datenspeicherung und -berechnung, die in der Cloud-Umgebung angeboten werden, und sie sehen sich auch vielen Problemen in Bezug auf Zuverlässigkeit, Datenschutz und optimierte Suche ihrer ausgelagerten Daten gegenüber. Das vorgeschlagene Schema „Privatsphäre-erhaltende Schlüsselwortsuche“ ermöglicht es Benutzern, ihre gespeicherten Daten zu verschlüsseln, während einige Suchfunktionen erhalten bleiben und auch wenig Anstrengungen unternommen werden, um die Zuverlässigkeit der in die Cloud ausgelagerten durchsuchbaren verschlüsselten Daten zu berücksichtigen. Die clientseitige Verschlüsselung und die serverseitige Suche nach verschlüsselten Daten ohne Entschlüsselung auf der Serverseite ermöglichen eine effizientere und eliminieren Datenschutzprobleme zwischen Client und Server.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5341-7_64 c3be212a9d3a6332ceef98982e61928d;de;;;2.2.;;;Antiarrhythmika II: Therapeutische Überlegungen Das klinische Management kardialer Tachyarrhythmien basiert grundsätzlich auf der genauen Bestimmung ihrer Art und des klinischen Zustands, in dem sie auftreten, zusammen mit der Kenntnis der Wirkmechanismen und Pharmakodynamik der Antiarrhythmika und dem Verständnis der damit verbundenen elektrischen Therapiemodalitäten. Das anfängliche Ziel bei der Therapie supraventrikulärer Tachyarrhythmien ist die Kontrolle der ventrikulären Frequenz und anschließend die Wiederherstellung des normalen Sinusrhythmus. Im Allgemeinen werden supraventrikuläre Erkrankungen mit Digitalis, Vagusstimulation, Chinidin, Procainamid, Propranolol und Gleichstrom-Elektroschock behandelt. Ventrikuläre Tachyarrhythmien werden mit Lignocain, Procainamid, Chinidin, Propranolol, Phenytoin (Diphenylhydantoin), Bretylium, Gleichstrom-Elektroschock und ventrikulärer Übersteuerung durch elektrische Schrittmacher behandelt.;-;-;-;https://link.springer.com/article/10.2165/00003495-197305040-00003 2801b414843befbe9b26cbb33e207a34;de;;;2.2.;;;Raumfarben-Clifford-Algebren für die invariante Bilderkennung Eines der wichtigsten und interessantesten Probleme der Informationswissenschaft ist die Klärung, wie menschliche Augen und Gehirn Objekte der realen Welt erkennen. Die Praxis zeigt, dass sie das Problem der Erkennung von Objekten an unterschiedlichen Orten, mit unterschiedlichen Ansichten und Beleuchtungen und in unterschiedlichen Unschärfereihenfolgen erfolgreich bewältigen. Aber wie macht das das Gehirn? Wie sehen wir? Wie erkennen wir ständig bewegte und sich verändernde Objekte der Umwelt?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-04621-0_7 d151f089c8aedfac07bc6296fb304e79;de;;;2.2.;;;Kosmographie mit der Hubble-Rate: Die Die Statefinder-Parameter charakterisieren modellunabhängig die Expansionsgeschichte des Universums. Die Standardmethode zu ihrer Schätzung heißt Standard-Kosmographie (SC). In diesem Beitrag zeigen wir, wie sich diese Schätzungen als stark verzerrt und die Standardabweichungen ihrer Wahrscheinlichkeitsverteilungen als sehr groß herausstellen. Das;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-57972-6_30 dfad3c57ff049b2b8ba97f57bfddc39f;de;;;2.2.;;;Auf dem Weg zu einem symbolischen Ansatz zur Klanganalyse In diesem Artikel werden wir einen neuen Ansatz für die Musikbeschreibung vorschlagen, der auf der Verbindung zwischen der symbolischen (logischen) Ebene und der Signalebene basiert. Dieser Ansatz beruht auf der Möglichkeit, Klänge in Form von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02394-1_6 d9b3193b19fb0d1760e06a070c634344;de;;;2.2.;;;Modellierung und Sensitivitätsanalyse von Navigationsparameterfehlern für luftgestütztes Radar mit synthetischer Apertur Stereo-Geolocation Bei der hochauflösenden luftgestützten SAR-Stereo-Geolokalisierungsanwendung wird die endgültige Geolokalisierungsgenauigkeit durch verschiedene Fehlerparameterquellen beeinflusst. In diesem Beitrag wurde ein luftgestütztes SAR-Stereo-Geolocation-Parameterfehlermodell vorgestellt, das die vom Navigationssystem auf der Flugplattform abgeleiteten Parameterfehler einbezieht. Darüber hinaus wird auch eine Art Near-Direct-Verfahren zur Modellierung und Sensitivitätsanalyse von Navigationsparameterfehlern angegeben. Diese Methode verwendet direkt die Bodenreferenz, um die Kovarianzmatrixbeziehung zwischen den Parameterfehlern und den eventuellen Geolokalisierungsfehlern für Bodenzielpunkte zu berechnen. Darüber hinaus wurde in diesem Papier unter Verwendung der Fehler der wahren Flugbahnparameter eine Verifizierung der Methode und eine entsprechende Sensitivitätsanalyse für das luftgestützte SAR-Stereo-Geolocation-Modell vorgenommen und ihre Effizienz bewiesen.;-;-;-;https://link.springer.com/article/10.1007/s11806-010-0347-1 74c4d2322cc651f1bc30a9802b8395fc;de;;;2.2.;;;Schätzung, Lernen und Anpassung: Systeme, die sich mit der Nutzung verbessern Die Genauigkeit der automatisierten Klassifizierung (Beschriftung) einzelner Muster, insbesondere gedruckter, handgedruckter oder handgeschriebener Zeichen, hat sich eingependelt. Weitere Genauigkeitsgewinne erfordern das Klassifizieren von Musterfolgen. Der bereits weit verbreitete linguistische Kontext beruht auf 1D-lexikalischen und syntaktischen Einschränkungen. Die stileingeschränkte Klassifikation nutzt die Formähnlichkeit von Sätzen von gleichen Quellen (isogenen) Zeichen entweder derselben oder unterschiedlicher Klassen. Zum Verständnis von Tabellen und Formularen sind 2D-Struktur- und Beziehungsbeschränkungen erforderlich. Anwendungen der Mustererkennung, die die Grenzen der menschlichen Sinne und Kognition nicht überschreiten, können von einer grünen Interaktion profitieren, bei der Bedienerkorrekturen zum Klassifizierer zurückgeführt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34166-3_1 03e6e39098a9964dca0f1535bc49b835;de;;;2.2.;;;Raum-zeitliche Histogramme Dieses Papier stellt einen Rahmen für den Aufbau und die kontinuierliche Pflege von räumlich-zeitlichen Histogrammen (kurz ST-Histogramme) vor. ST-Histogramme werden zur Selektivitätsschätzung von Abfrageoperatoren mit kontinuierlicher Pipeline verwendet. Im Gegensatz zu herkömmlichen Histogrammen, die alle eingehenden Datentupel untersuchen und/oder abtasten, werden ST-Histogramme durch Überwachung der;-;-;-;https://link.springer.com/chapter/10.1007/11535331_2 d4caf66dc788e3b25a4d98ffb5e00549;de;;;2.2.;;;Trajektorien-Matching-Algorithmus basierend auf Clustering und GPR beim Videoabruf Dieses Papier schlägt einen Ansatz für die Trajektorienanpassung beim Video-Retrieval vor. Der Algorithmus besteht aus drei Teilen. Zunächst wird eine knappe Trajektorie mit den wichtigsten zeitlichen und räumlichen Zeichen abstrahiert. Dann werden abstrahierte Trajektorien in mehrere Klassen klassifiziert, indem das reformierte k-Means-Cluster-Verfahren gemäß ihren Positions- und Beschleunigungsmerkmalen verwendet wird. Am Ende wird ein Gauß-Prozess-Regressionsmodell unter Verwendung von geclusterten Trajektorien aufgebaut und trainiert, und Trajektorienklassen, die mit den gegebenen Abrufzielen ähnlich sind, werden herausgefunden. Zu den Vorteilen dieses Algorithmus gehören die Möglichkeit des generalisierten Clusterings für ähnliche Trajektorien in unterschiedlichen Maßstäben und der partielle Trajektorienvergleich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37105-9_41 7cf7d11b967e77618cbdb8e85d7d3531;de;;;2.2.;;;Extraktion von Tabellenkalkulations-Metadaten: Ein layoutbasierter Ansatz Metadaten sind ein wesentlicher Bestandteil moderner Informationssysteme, da sie Menschen helfen, relevante Dokumente aus unterschiedlichen Repositorien zu finden. Dieses Papier schlägt eine innovative Methode zur Extraktion von Metadaten für Tabellenkalkulationen vor. Im Gegensatz zu herkömmlichen Methoden, die nur Inhaltsinformationen betreffen, berücksichtigt dieses Papier sowohl das Layout als auch den Inhalt. Die vorgeschlagene Methode extrahiert Metadaten aus den Tabellenkalkulationen, deren Metadaten unter bestimmten Bedingungen gespeichert werden. Datentypen (wie Datum, Nummer, etc.) von Metadaten werden berücksichtigt, um eine Dokumentensuche auf Basis von Metadaten verschiedener Datentypen zu realisieren. Darüber hinaus werden die extrahierten Metadaten semantisch klassifiziert und hierarchisch gruppiert, um Endbenutzern die Definition komplexer Suchanfragen und der Bedeutung von Suchbegriffen zu ermöglichen. Die Systemimplementierung des vorgeschlagenen Verfahrens wird ebenfalls diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32600-4_12 864f03042a89391f658553d1ae7b10e1;de;;;2.2.;;;Auswertung kontinuierlicher probabilistischer Abfragen über ungenaue Sensordaten Allgegenwärtige Anwendungen, wie die Überwachung natürlicher Lebensräume und standortbasierte Dienste, haben viel Forschungsinteresse geweckt. Diese Anwendungen verwenden eine große Anzahl von Sensoren (z. B. Temperatursensoren) und Ortungsgeräten (z. B. GPS), um Daten aus externen Umgebungen zu sammeln. Sehr oft haben diese Systeme eine begrenzte Netzwerkbandbreite und Batterieressourcen. Auch die Sensoren können keine genauen Werte erfassen. Die Unsicherheit dieser Daten muss daher bei der Abfrageauswertung berücksichtigt werden. Speziell,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12026-8_41 c4b1a7fc73ff0e8bede89dccb9156091;de;;;2.2.;;;Rollenabhängige Ressourcennutzungsanalyse für große HPC-Zentren Die Ressourcennutzungsanalyse von HPC-Systemen kann auf unterschiedliche Weise durchgeführt werden. Die Auswahl der Analysemethode richtet sich in erster Linie nach dem ursprünglichen Forschungsschwerpunkt. Es kann sich um eine bestimmte Anwendung und/oder eine Reihe von Anwendungslaufanalysen, eine ausgewählte Partition oder eine ganze Supercomputersystemnutzungsstudie, eine Untersuchung der Besonderheiten der Zusammenarbeit von Arbeitsgruppen usw. Je größer ein HPC-Center ist, desto vielfältiger sind die Szenarien und Benutzerrollen. In diesem Papier teilen wir die Ergebnisse unserer Forschung zu möglichen Rollen und Szenarien sowie typische Methoden der Ressourcennutzungsanalyse für jede Rolle und jedes Szenario. Die Ergebnisse dieser Forschung dienten als Grundlage für die Entwicklung entsprechender Module im Octoshell-Managementsystem, das von allen Nutzern des größten HPC-Zentrums Russlands an der Lomonosov-Universität Moskau verwendet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99673-8_4 f885c5264079e62bdad8007ba4ff3f1c;de;;;2.2.;;;Automatische extraktive Zusammenfassung mehrerer Dokumente basierend auf archetypischer Analyse Die Anwendungen der Matrixfaktorisierung sind ein wichtiges Werkzeug für die Textzusammenfassung. In den letzten Jahren haben mehrere Variationen der Methoden der nicht-negativen Matrixfaktorisierung (NMF) ihren Einsatz in der Multi-Dokument-Zusammenfassung (MDS) gefunden. Damit die Matrixfaktorisierung in MDS effizient funktioniert, ist es wichtig, die Fähigkeit zu zeigen, die typischsten Datenpunkte aus dem gegebenen Datenraum auszuwählen. In diesem Kapitel beschreiben wir zunächst die Archetypal Analysis (AA) und ihre gewichtete Version und stellen dann die AA-basierte Dokumentenzusammenfassungsmethode für die beiden bekanntesten Zusammenfassungsaufgaben, nämlich das allgemeine und das abfragefokussierte MDS, vor. Die archetypische Analyse, auch konvexe NMF genannt, selektiert im Gegensatz zu anderen NMF-Methoden eindeutige (archetypische) Sätze und führt daher zu Variabilität und inhaltlicher Vielfalt der generierten Zusammenfassungen. Wir haben Experimente mit den Daten der Document Understanding Conference durchgeführt. Experimentelle Ergebnisse belegen die Verbesserung des vorgeschlagenen Ansatzes gegenüber anderen eng verwandten Methoden, einschließlich solcher, die die NMF verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-48331-2_3 2c9238df5d34be6cd8875ffc4742d242;de;;;2.2.;;;Abfragen von graphbasierten Repositorys von Geschäftsprozessmodellen Mit der schnellen und inkrementellen Zunahme der Anzahl von Prozessmodellen, die von verschiedenen Prozessdesignern entwickelt werden, wird es für Geschäftsprozessdesigner entscheidend, das Repository nach Modellen durchsuchen zu können, die eine ähnliche Situation bewältigen könnten, bevor sie neue entwickeln. In diesem Beitrag stellen wir einen Ansatz zur Abfrage von Repositorys graphenbasierter Geschäftsprozessmodelle vor. Unser Ansatz basiert auf einer visuellen Abfragesprache für Geschäftsprozesse namens BPMN-Q. BPMN-Q wird verwendet, um Geschäftsprozessmodelle abzufragen, indem die Struktur einer Graphabfrage mit der eines Prozessmodells abgeglichen wird. Die Abfrage-Engine unseres Systems baut auf dem traditionellen RDBMS auf. Wir nutzen die robuste relationale Indexierungsinfrastruktur, um eine effiziente und skalierbare Abfrageauswertungsleistung zu erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14589-6_4 b6e62b6a96c4bb4f5c8f79d698e73fc6;de;;;2.2.;;;Eine formale Darstellung von Verträgen für Webdienste Wir definieren eine formale Vertragssprache sowie Untervertrags- und Compliance-Beziehungen. Wir extrapolieren dann Verträge aus Prozessen, die ein rekursionsfreies Fragment von;-;-;-;https://link.springer.com/chapter/10.1007/11841197_10 cb80a3b8bc4fce330c3b8952e0a396ca;de;;;2.2.;;;Auf dem Weg zu einer leistungsbasierten Zugriffskontrolle für Ressourcenserver in zukünftigen Grid-Kommunikationsumgebungen Mit den schnellen Fortschritten in der Kommunikation und Vernetzung, insbesondere in der Grid-Technik, werden immer mehr Anwendungen Computersysteme umfassen. Diese Anwendungen wiederum schaffen eine steigende Nachfrage nach effizientem Ressourcenmanagement, Richtlinien zur Anforderungsbearbeitung und Zugriffskontrolle. In diesem Papier schlagen wir einen effizienten Zugriffskontrollalgorithmus vor, um die kritischen Ressourcen des Servers zu schützen und die Leistung des zukünftigen Grid-Kommunikationscomputersystems zu verbessern. Die Stabilität der CPU-Auslastung soll den Server vor Überlastung und Unterlast schützen. Es ist dann von Vorteil, eine zufriedenstellende Antwortzeit für Anfragen, einen hohen Durchsatz und weniger potenzielle Dienstverluste aufrechtzuerhalten. Wir analysieren die Stabilität im Detail und stellen eine Methode zur Abstimmung der Regelverstärkungen vor, um die Systemstabilität zu gewährleisten. Schließlich führen wir Simulationen durch, um die Leistung des vorgeschlagenen Algorithmus zu bewerten. Simulationsergebnisse zeigen, dass der vorgeschlagene Algorithmus die CPU-Auslastung im Computersystem stabilisiert, wenn die Steuerverstärkungen auf der Grundlage der Systemstabilität geeignet gewählt werden. Es erreicht dann eine zufriedenstellende Leistung.;-;-;-;https://link.springer.com/article/10.1007/s11277-008-9601-3 f4917aa9e5a4bbde9658f14e3193b4c3;de;;;2.2.;;;Automatisierte textbasierte Analyse zur Entscheidungsfindung Wir präsentieren Ergebnisse einer Studie zur Konstruktion und Evaluierung eines Unterstützungswerkzeugs für die Extraktion von Mustern in verteilten Entscheidungsprozessen, basierend auf Designkriterien, die aus einer Studie über den Arbeitsprozess bei der Untersuchung solcher Entscheidungen abgeleitet wurden. Konkret haben wir ein Analysetool für C . entwickelt und evaluiert;-;-;-;https://link.springer.com/article/10.1007/s10111-010-0170-3 7ba192a0c48149b46e7b63db23bf7f8a;de;;;2.2.;;;Jüngste Fortschritte bei der Fingerabdruck-Verifizierung Mehr als ein Jahrhundert ist vergangen, seit Alphonse Bertillon die Idee der Körpervermessung zur Aufklärung von Verbrechen zum ersten Mal konzipierte und dann eifrig praktizierte [;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45344-X_26 50674c9fd3809226860e65180ec84d3b;de;;;2.2.;;;Neuro-Fuzzy-Ansatz zur Rekonstruktion eines 3D-Wirbelsäulenmodells mit 2D-Wirbelsäulenbildern und der menschlichen Anatomie Die vorliegende Forschungsarbeit beschäftigt sich mit dem Rekonstruktionsprozess von Brustwirbelsäulenbildern durch 2D-Brustwirbelsäulen-Röntgenbilder mit Hilfe von künstlichen neuronalen Netzen und Fuzzy-Set-Regeln. Die vorliegende Arbeit wurde in zwei Phasen durchgeführt: die;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1718-1_9 3b31c2746f431e89cb0434e6620a0cea;de;;;2.2.;;;Erkennung abrupter Szenenwechsel mithilfe der räumlich-zeitlichen Regelmäßigkeit des Videowürfels In diesem Artikel schlagen wir die Erkennungsmethode abrupter Szenenwechsel vor, die sowohl räumliche als auch raumzeitliche Frames des Videowürfels verwendet. Die meisten Verfahren verwenden entweder die Intensität oder die Bewegung von Pixeln für das Verfahren zur Erkennung von Szenenänderungen. Im Gegensatz zu den bestehenden Verfahren werden in dieser Veröffentlichung sowohl die Intensität als auch der Flussvektor von Videoframes gleichzeitig verwendet, um ein allgemeines Verfahren zur Erkennung abrupter Szenenänderungen vorzuschlagen. Für einen räumlichen Rahmen wird die Flussenergiefunktion zur Detektion verwendet. Die Flussenergiefunktion, definiert durch das raumzeitliche Regularitätsflussmodell, ist die kombinatorische Form von Intensitäts- und Flussvektoren der Frames. In den räumlich-zeitlichen Einzelbildern erscheint ein abrupter Szenenwechsel als eine vertikale Linie, die durch das Kantenerkennungsverfahren erkannt wird. Kombinierte Ergebnisse von räumlichen und räumlich-zeitlichen Frames liefern den Ort des Szenenwechsels. Das vorgeschlagene Verfahren erkennt fast alle Orte des Szenenwechsels mit vernachlässigbarer falscher Erkennung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9775-3_88 209242ba889b2437648faebf302405c4;de;;;2.2.;;;Trends in der Datenbankforschung Die Forschung in Datenbanken hat eine entscheidende Rolle bei der Entwicklung der Informationssystemtechnologie gespielt und auch die Ergebnisse dieser Forschung waren sehr erfolgreich, was ein großes Potenzial für die Industrie ergab. Die Datenbankindustrie generiert jährlich Milliarden von Dollar. Schätzungen zufolge hat die Datenbankindustrie selbst im Jahr 2000 einen Umsatz von 42 Milliarden US-Dollar erwirtschaftet, und dieser Markt wächst jährlich um 11 %. In der Softwarebranche steht es nach Betriebssystemsoftware an zweiter Stelle.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44759-8_95 56500dc7a1c013cd256c3d4247723f9e;de;;;2.2.;;;Induktive Familien Es wird eine allgemeine Formulierung induktiver und rekursiver Definitionen in der Typentheorie von Martin-Löf vorgestellt. Es erweitert Backhouses „Do-It-Yourself-Typentheorie“ um induktive Definitionen von Familien von Mengen und Definitionen von Funktionen durch Rekursion auf die Art und Weise, wie Elemente solcher Mengen erzeugt werden. Die Formulierung ist in natürlicher Deduktion und soll eine natürliche Verallgemeinerung auf die Typentheorie von Martin-Löfs Theorie der iterierten induktiven Definitionen in der Prädikatenlogik sein.;-;-;-;https://link.springer.com/article/10.1007/BF01211308 7fabc720f81d5fc684a894bbecff8fdc;de;;;2.2.;;;Eine neuartige zeitlich-räumliche Farbdeskriptordarstellung für die Videoanalyse Basierend auf Rough Sets (RS) im komprimierten Bereich wird eine neuartige zeitlich-räumliche Farbdeskriptordarstellung entwickelt. Zuerst werden DCT-Koeffizienten und DC-Koeffizienten aus Originalvideosequenzen extrahiert. Zweitens wird eine Informationssystemtabelle unter Verwendung von DC-Koeffizienten konstruiert. Drittens wird eine prägnante Informationssystemtabelle unter Verwendung der Reduktionstheorie von RS erreicht. Der Core enthält wichtige visuelle Farbinformationen und eliminiert die redundanten Videoinformationen. Gleichzeitig enthalten DC-Koeffizienten auch räumliche Informationen jedes Rahmens, so dass der Kern des Informationssystems als effektiver zeitlich-räumlicher Farbdeskriptor betrachtet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28807-4_70 c49f44a5cb41233eecd2f8e9aad81c6c;de;;;2.2.;;;Ein optimistisches E-Commerce-Protokoll für fairen Austausch mit automatisierter Streitbeilegung In diesem Papier schlagen wir ein E-Commerce-Protokoll mit den folgenden Merkmalen vor: (1) stellt einen echten fairen Austausch sicher, (2) erfordert keine manuelle Streitbeilegung im Falle von unlauterem Verhalten einer Partei, (3) erfordert keine aktive Beteiligung eines vertrauenswürdigen Dritten, (4) ermöglicht es dem Kunden zu überprüfen, ob das Produkt, das er in Kürze erhalten wird, das ist, für das er bezahlt, und (5) kann für den fairen Austausch von zwei beliebigen digitalen Artikeln verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44463-7_8 da817afb765c8fa0df39b968a95f18dc;de;;;2.2.;;;Literaturmetadaten der Traditionellen Chinesischen Medizin: Ein von der International Organization for Standardization entwickelter technischer Spezifikationsentwurf Derzeit fehlt ein internationaler Standard für Literaturmetadaten im Bereich der Traditionellen Chinesischen Medizin (TCM), was zu einem großen Hindernis für die Indexierung und den Abruf von TCM-Literatur wird. 2013 hat die International Organization for Standardization (ISO) den Entwurf der technischen Spezifikation (DTS) „Literaturmetadaten der traditionellen chinesischen Medizin“ fertiggestellt, die eine wichtige Rolle bei der Erhaltung und Nutzung von TCM-Literaturressourcen spielen wird. In diesem Papier artikulieren wir den Inhalt und die Eigenschaften dieses DTS, vergleichen es mit anderen verwandten ISO-Standards und erklären die Kreativität und Notwendigkeit dieses DTS.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_40 e172eb661b2366bcbe26002c5de734c5;de;;;2.2.;;;Herausforderungen des digitalen Notizenmachens Es gibt weltweite Bemühungen, die Technologie mit dem Bildungsbereich für bessere Lernerfolge einzusetzen. Technologie versucht, die traditionellen Lernumgebungen, Medien und Aktivitäten im digitalen Zeitalter zu ersetzen. Bei der Überführung der Notizentätigkeiten in das digitale Zeitalter wurden jedoch nur langsame Fortschritte erzielt. In dieser Studie haben wir aktuelle Notizentools untersucht, die entwickelt wurden, um die Lücke zwischen papierbasierten und technologiebasierten Notizen zu schließen. Wir haben versucht, die wichtigsten spezifischen Probleme und Herausforderungen zu identifizieren, die verhindern, dass Notizen im digitalen Zeitalter existieren. Diese Studie bietet umfassende Untersuchungen mit systematischer Analyse der Auswirkungen aktueller Notizentools auf das Erlernen von Einschränkungen und Einschränkungen typischer Notizensysteme. Leider stimmten wir mit ähnlichen früheren Studien überein, dass die derzeitigen Tools aufgrund verschiedener Probleme immer noch unzureichend und ineffizient sind, um das traditionelle Notizenmachen zu ersetzen. Wir haben festgestellt, dass die Entwicklung erfolgreicher Notizenanwendungen aufgrund von vier Hauptproblemen eine Herausforderung darstellt: Komplexität, Dilemma beim Technologielernen, Integrität und Ineffizienz. In dieser Studie werden die wichtigsten Implikationen für die Gestaltung der Zukunft digitaler Notizen diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24584-3_19 c4a0ad41d24e9948e3eb3f0a9f4b6744;de;;;2.2.;;;Mustererkennung durch ein optisches Dünnschicht-Mehrschichtmodell Dieser Beitrag beschreibt ein computergestütztes Lernmodell, das von der Technologie optischer Dünnfilm-Multilayer aus dem Bereich der Optik inspiriert ist. Da die Dicken der Dünnfilmschichten als einstellbare „Gewichte“ für die Berechnung dienen, kann das optische Dünnfilm-Multilayer-Modell (OTFM) praktisch jede Art von nichtlinearer Abbildung annähern. Dieses Papier beschreibt die Architektur des Modells und wie es als computergestütztes Lernmodell verwendet werden kann. Einige Beispiele für Simulationsrechnungen, die für konnektionistische Modelle typisch sind, einschließlich einer Mustererkennung alphabetischer Zeichen, einer Irisanlagenklassifizierung und einer Zeitreihenmodellierung eines Gasofenprozesses, werden gezeigt, um die Lernfähigkeit des Modells zu demonstrieren.;-;-;-;https://link.springer.com/article/10.1023/A%3A1018911012905 83ed097d6207eea5220b943ad1676347;de;;;2.2.;;;Laubabfall und Bodensäure während eines halben Jahrhunderts sekundärer Sukzession in einem gemäßigten Laubwald Vegetation, Laubstreufall und Boden-pH-Wert wurden in semipermanenten Parzellen in einem südschwedischen Laubwald von 1935 bis 1983 wiederholt beprobt. Der Laubstreufall wurde in einem Streuqualitätsindex zusammengefasst. Vegetationstypen wurden entlang ähnlicher Gradienten im Boden-pH-Wert und der Qualität der Laubstreu unterschieden. Die stärksten Dominanzverschiebungen zwischen den Feldschichtarten wurden in den Parzellen festgestellt, bei denen sich die Qualität der Laubstreu verbessert hatte. Auch diese Parzellen zeigten einen Stopp der allgemeinen Tendenz zu einem sinkenden pH-Wert im Oberboden.;-;-;-;https://link.springer.com/article/10.1007/BF00031849 219fba1b251721f034f0efe47389b022;de;;;2.2.;;;Cyclooxygenase-2- und Bcl-2-Expression in der Magenschleimhaut von Wistar-Ratten, die Cyclooxygenase-2 (COX-2) und Bcl-2 wurden mit Karzinomen des oberen Gastrointestinaltrakts in Verbindung gebracht, aber die zugrunde liegenden Mechanismen sind nicht bekannt. In der vorliegenden Studie untersuchten wir die Korrelation von COX-2 und Bcl-2 mit bekannter Zellkinetik in der Drüsenmagenschleimhaut von 104 Wistar-Ratten, denen Kombinationen von;-;-;-;https://link.springer.com/article/10.1007/s00428-001-0571-z 2329d50f48cbf5b2ebf6bc8dfb8bfec9;de;;;2.2.;;;Universelle Algebra in höheren Typen Wir entwickeln die elementare Theorie der universellen Algebra höherer Ordnung unter Verwendung des von Henkin eingeführten Nicht-Standard-Ansatzes der endlichen Typentheorie. Zu den grundlegenden Ergebnissen gehören: Existenzsätze für freie und anfängliche Algebren höherer Art, ein vollständiger Gleichungskalkül höherer Art und Charakterisierungstheoreme für Gleichungs- und Hornklassen höherer Art.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-54496-8_10 852597061ccce594d63038be84813d75;de;;;2.2.;;;Granulare Indizes für analytische HQL-Abfragen Datenbankmanagementsysteme verwenden zahlreiche Optimierungstechniken, um komplexe analytische Abfragen zu beschleunigen. Solche Abfragen müssen enorme Mengen an Datensätzen scannen. Die übliche Technik zur Verkürzung ihrer Laufzeit ist die Materialisierung von Teilaggregaten von Basisdaten. In früheren Arbeiten haben wir das Konzept der Metagranula vorgeschlagen, d. h. teilweise geordnete Aggregationen der Faktentabelle. Wenn eine Anfrage gestellt wird, wird die tatsächliche Aggregationsebene ermittelt und anstelle der Faktentabelle die kleinste passende Metagranule (Materialized Aggregation) verwendet. In diesem Beitrag erweitern wir diese Idee mit metagranularen Indizes, d. h. Indizes auf Metagranulaten. Angenommen, ein Benutzer gibt eine aggregierte Abfrage an eine Faktentabelle mit einem selektiven;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06932-6_4 b604a79f5a6606a51ee44e3dee24957a;de;;;2.2.;;;Abduktive Inferenz genetischer Netzwerke GenePath ist ein automatisiertes System zum Denken über genetische Netzwerke, bei dem eine Reihe von Genen verschiedene Einflüsse aufeinander und auf ein biologisches Ergebnis haben. Es handelt sich um eine Reihe von Experimenten, bei denen Gene ausgeschaltet oder überexprimiert werden und das interessierende Ergebnis bewertet wird. In Prolog implementiert, verwendet GenePath abduktive Inferenz, um Netzwerkbeschränkungen basierend auf Vorwissen und experimentellen Ergebnissen aufzuklären. Zwei Anwendungen des Systems werden demonstriert: Synthese eines konsistenten Netzwerks aus abgeleiteten Beschränkungen und ein auf qualitativer Argumentation basierender Ansatz, der einen Satz von Netzwerken erzeugt, die mit den Daten konsistent sind. In der Praxis, veranschaulicht durch ein Beispiel mit Dictyostelium-Aggregation, erzeugt eine Kombination aus Constraint-Erfüllung und qualitativer Argumentation eine kleine Menge plausibler Netzwerke.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48229-6_42 e72d375ba6e5c5195811f0d7dc6f774c;de;;;2.2.;;;Die Lektin-Bindungsstellen für Erdnuss-Agglutinin bei invasiven duktalen Karzinomen der Brust und ihre Rolle als prognostischer Faktor Die vorliegende Studie wurde entwickelt, um die Expression von Lektin-Bindungsstellen für Erdnuss-Agglutinin (PNA) in Paraffinschnitten von primären invasiven duktalen Karzinomen, die nicht anders spezifiziert sind, zu analysieren und die PNA-Lectin-Histochemie als weitere Hilfe bei der prognostischen Bewertung von Brustkrebs zu betrachten. Die Expression von Lektin-Bindungsstellen wurde unter Verwendung der Avidin-Biotin-Komplex/Immunoperoxidase-Technik untersucht und in Bezug auf die verschiedenen klinischen, pathologischen und biologischen Parameter der Primärerkrankung analysiert, d. e. das Vorhandensein oder Fehlen von Lymphknotenmetastasen, prä- oder postmenopausales Alter, Größe des Tumors, mitotischer Aktivitätsindex, morphometrischer prognostischer Index, DNA-Gehalt, S-Phasen-Fraktion und Steroidrezeptorstatus. Die Ergebnisse zeigen signifikante Unterschiede in den PNA-Bindungsmustern zwischen malignen epithelialen Brustzellen. Es gab keine Expression von PNA-Bindungsstellen in 14 von 157 Tumoren, während 64 eine überwiegend apikale (Membran-)Färbung und 124 eine nicht-apikale (Membran- und/oder zytoplasmatische) Färbung zeigten. Eine apikale Färbung wurde hauptsächlich bei Patienten ohne Lymphknotenmetastasen mit positivem Steroidrezeptorstatus und bei postmenopausalen Diagnosen beobachtet. Unsere Ergebnisse deuten darauf hin, dass in malignen Brustzellen eine Veränderung von Zelloberflächen-Glykokonjugaten vorliegt, die sich durch Heterogenität innerhalb einer histopathologisch definierten Gruppe zeigt, die mit unterschiedlichen Eigenschaften von Tumorzellen zusammenhängt. Das apikale PNA-Bindungsmuster weist auf eine bessere Differenzierung von Tumorzellen hin, während die nicht-apikale PNA-Bindung auf ein höheres metastatisches Potenzial hindeutet. Als weiterer verlässlicher prognostischer Faktor beim Mammakarzinom sollten spezifische PNA-Lectin-Bindungsmuster in Betracht gezogen werden.;-;-;-;https://link.springer.com/article/10.1007/BF01209034 90e499ae98ea0b93808762ad3f9eec00;de;;;2.2.;;;Shared Index Scans für Data Warehouses In diesem Papier schlagen wir ein neues „transcurrent Execution Model“ (TEM) für gleichzeitige Benutzerabfragen gegen Baumindizes vor. Unser Modell nutzt die Intra-Parallelität des Index-Scans und zerlegt jede Abfrage dynamisch in eine Reihe von disjunkten „Abfrage-Patches“. TEM integriert die Ideen von Prefetching und Shared Scans in einem neuen Framework, das sich für dynamische Mehrbenutzerumgebungen eignet. Es unterstützt Zeitbeschränkungen bei der Planung dieser Patches und führt das Konzept der;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44801-2_30 03916f1f79e43e3937751f5dc4e1de34;de;;;2.2.;;;Informationsfluss zwischen neuronalen Netzen mit Bayes-Schätzung Die Abschätzung der Interaktion zwischen neuronalen Netzen ist ein interessantes Thema in den Neurowissenschaften. Es wurden einige Verfahren vorgeschlagen, um die Kopplungsstärke zwischen neuronalen Netzen zu schätzen, jedoch wurden nur wenige Schätzungen der Kopplungsrichtung (Informationsfluss) zwischen neuronalen Netzen versucht. Es ist bekannt, dass der Bayessche Schätzer auf . basiert;-;-;-;https://link.springer.com/article/10.1007/s11434-007-0272-3 1b9cce705be607b8ec957e3865776151;de;;;2.2.;;;Minimieren des Suchraums für Formsuchalgorithmen Um eine zufriedenstellende Genauigkeit und Flexibilität bereitzustellen, verwenden die meisten der existierenden Formwiedergewinnungsverfahren unterschiedliche Ausrichtungen und Verschiebungen der Objekte, die viel Rechenkomplexität einbringen. Der rechenintensivste Teil dieser Algorithmen ist das Messen des Übereinstimmungsgrades (oder Nichtübereinstimmungsgrades) des Abfrageobjekts mit den in der Datenbank gespeicherten Objekten. In diesem Papier stellen wir einen Ansatz vor, um einen großen Teil dieses Suchraums (Anzahl der Objekte in der Datenbank) einzuschränken, den Suchalgorithmen berücksichtigen müssen. Diese Methode ist auch in Clustering-basierten Ansätzen anwendbar. Darüber hinaus wird durch diese Minimierung die Genauigkeit der Wiedergewinnungsalgorithmen intakt gehalten und ihre Effizienz wird bei hohen Dimensionalitäten nicht stark beeinträchtigt.;-;-;-;https://link.springer.com/chapter/10.1007/11902140_13 70e9fbf06f38d205f78eeeb6f989fc73;de;;;2.2.;;;Das Studium des durchsuchbaren Verschlüsselungsmechanismus Mit der Entwicklung der Informationstechnologie, immer mehr Dateninformationen auf den Cloud-Server hochgeladen, hat die Cloud-Computing-Verschlüsselungsspeichertechnologie für die Datensicherheit besondere Bedeutung erlangt. Dieses Papier untersucht und analysiert hauptsächlich die durchsuchbare Verschlüsselungstechnologie im Cloud Computing. Zunächst wird der Forschungsstand der in- und ausländischen Forschung analysiert. Zweitens wird die Klassifizierung der durchsuchbaren Verschlüsselungstechnologie unter verschiedenen Aspekten eingeführt und das Klassifizierungsmodell der durchsuchbaren Verschlüsselungstechnologie Eine detaillierte Ausarbeitung. Schließlich werden einige Probleme, die bei der durchsuchbaren Vertraulichkeitstechnologie auftreten, und die Aussichten dieser Technologie vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8944-2_29 2407710785604bd36dd92e1d0eaa48c8;de;;;2.2.;;;Ein Perceptron-Algorithmus zweiter Ordnung Wir stellen eine Variante des Perceptron-Algorithmus namens Perceptron-Algorithmus zweiter Ordnung vor, die bestimmte spektrale Eigenschaften der Daten ausnutzen kann. Wir analysieren den Perceptron-Algorithmus zweiter Ordnung im fehlerbehafteten Modell des Online-Lernens und beweisen Grenzen anhand der Eigenwerte der aus den Daten erzeugten Gram-Matrix. Die Leistung des Perceptron-Algorithmus zweiter Ordnung wird durch die Einstellung eines Parameters beeinflusst, der die Empfindlichkeit gegenüber der Verteilung der Eigenwerte der Gram-Matrix steuert. Da diese Informationen für Online-Algorithmen vorläufig nicht verfügbar sind, entwerfen wir auch eine verfeinerte Version des Perceptron-Algorithmus zweiter Ordnung, der den Wert dieses Parameters adaptiv festlegt. Für diesen zweiten Algorithmus sind wir in der Lage, Fehlergrenzen zu beweisen, die einer nahezu optimalen konstanten Einstellung des Parameters entsprechen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45435-7_9 a8bcf9e415fe6aef5b5f8e8a90e7578f;de;;;2.2.;;;Kombination von Abfrageübersetzung und Dokumentenübersetzung bei der sprachübergreifenden Suche Dieses Papier beschreibt einsprachige, zweisprachige und mehrsprachige Retrievalexperimente unter Verwendung der CLEF 2003-Testsammlung. Der Artikel vergleicht die auf Abfrageübersetzung basierende mehrsprachige Abfrage mit der auf Dokumentenübersetzung basierenden mehrsprachigen Abfrage, bei der die Dokumente in die Abfragesprache übersetzt werden, indem die Dokumentwörter einzeln unter Verwendung von maschinellen Übersetzungssystemen oder aus parallelen Texten abgeleiteten statistischen Übersetzungslexika übersetzt werden. Die Ergebnisse des mehrsprachigen Abrufs zeigen, dass der übersetzungsbasierte Abruf von Dokumenten etwas besser ist als der übersetzungsbasierte Abruf von Abfragen der CLEF 2003-Testsammlung. Darüber hinaus wird durch die Kombination von Abfrageübersetzung und Dokumentenübersetzung bei der mehrsprachigen Suche eine noch bessere Leistung erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30222-3_10 f8469e0efd61ea303d1a391d57852868;de;;;2.2.;;;Proliferatives Potenzial von Meningeomen durch proliferierende Zellkernantigenexpression bewertet Meningeome sind grundsätzlich gutartiger Natur. Einige Meningeome wachsen jedoch schnell oder treten sogar nach vollständiger Entfernung wieder auf. Das biologische Verhalten von Meningeomen kann aus konventionellen histopathologischen Studien oft nicht vorhergesagt werden. Ein monoklonaler Antikörper gegen proliferierendes Zellkernantigen (PCNA) wurde verwendet, um die Nützlichkeit des PCNA-Index als Parameter zur Abschätzung der proliferativen Aktivität von Meningeomen zu untersuchen. 52 Meningeome wurden untersucht. Der mittlere PCNA-Index rezidivierender Meningeome (3,37 ± 0,92 %) war signifikant höher als der der nicht rezidivierenden Meningeome (1,12 ± 0,51 %) (p < 0,005). Die PCNA-Indizes der wiederkehrenden Fälle waren alle höher als 2,0 %. Eine semilogarithmische lineare Regressionsanalyse zwischen der Tumorverdopplungszeit und dem PCNA-Index zeigte eine signifikante Korrelation (r=0,90, p <0,05). Es wurde eine inverse lineare Korrelation zwischen PCNA-Index und Rezidivintervall beobachtet (r=0,62, p <0,05). Eine gute lineare Korrelation zeigte sich auch zwischen PCNA-Index und BUdR-Markierungsindex (r = 0,88, p < 0,01). Die Ergebnisse dieser Studie legen nahe, dass der PCNA-Index ein nützlicher Parameter zur Einschätzung des biologischen Verhaltens von Meningeomen ist, sofern die Methoden der Gewebeverarbeitung, Immunfärbung und Zählung positiver Zellkerne vereinheitlicht werden.;-;-;-;https://link.springer.com/article/10.1007/BF01052837 e68d28a27550927580590449dc06aba7;de;;;2.2.;;;Ein neuer sequenzieller Mining-Ansatz für das Clustering von XML-Dokumenten* XML ist in letzter Zeit wegen seiner vielfältigen Anwendbarkeit in einer Reihe von Anwendungen sehr populär geworden, um semistrukturierte Daten darzustellen und ein Standard für den Datenaustausch über das Web zu sein. Daher bilden XML-Dokumente eine wichtige Data-Mining-Domäne. In diesem Papier schlagen wir eine neue XML-Dokument-Clustering-Technik vor, die einen sequentiellen Pattern-Mining-Algorithmus verwendet. Unser Ansatz extrahiert zunächst die repräsentativen Strukturen häufiger Muster aus schemalosen XML-Dokumenten unter Verwendung eines sequentiellen Pattern-Mining-Algorithmus. Und dann wenden wir im Gegensatz zu den meisten früheren Dokumenten-Clustering-Methoden den Clustering-Algorithmus für Transaktionsdaten ohne ein Maß der paarweisen Ähnlichkeit an, wobei ein XML-Dokument als Transaktion und die extrahierten häufigen Dokumentenstrukturen als Elemente der Transaktion berücksichtigt werden. Wir haben unseren Clustering-Algorithmus experimentiert, indem wir ihn mit den vorherigen Methoden verglichen haben. Die experimentellen Ergebnisse zeigen die Wirksamkeit der vorgeschlagenen Methode hinsichtlich der Leistung und der Erzeugung von Clustern mit höherer Clusterkohäsion.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-31849-1_27 824e15b0c0c1dfd66d0eca096cdb7b48;de;;;2.2.;;;"Ein stochastisches Zwei-Knoten-Spannungsübertragungsmodell, das das Omori-Gesetz reproduziert — Wir präsentieren eine Alternative zum Epidemic Type Aftershock Sequence (ETAS)-Modell von Ogata (1988). Das zeitkontinuierliche Zwei-Knoten-Netzwerk-Stress-Release/Transfer-Markov-Modell ist in der Lage, das (modifizierte) Omori-Gesetz für Nachbebenfrequenzen zu reproduzieren. Ein Knoten (mit A bezeichnet) wird durch externe tektonische Kräfte mit einer konstanten Rate belastet, wobei „Ereignisse“ (Hauptschocks) zufällig auftreten, wobei das Risiko durch eine Funktion des „Stressniveaus“ am Knoten gegeben ist. Jedes Ereignis ist ein zufälliger (negativer) Sprung des Stressniveaus und fügt (oder entfernt) eine zufällige Menge an Stress zum zweiten Knoten (B) hinzu, der ""Ereignisse"" auf ähnliche Weise erfährt, jedoch mit einer anderen Risikofunktion (von das Stressniveau nur an diesem Knoten). Wenn diese Risikofunktion bestimmte einfache Bedingungen erfüllt (sie kann insbesondere exponentiell sein), folgt die Häufigkeit von Sprüngen (Nachbeben) am Knoten B in Ermangelung neuer Ereignisse am Knoten A dem Gesetz von Omori";-;-;-;https://link.springer.com/article/10.1007/s00024-003-2354-8 b176e06351ef8c929e1393168ece862e;de;;;2.2.;;;Hocheffiziente Realisierung für eine flächendeckende Vereinheitlichungsgrammatik Wir geben einen detaillierten Bericht über einen Algorithmus zur effizienten taktischen Generierung aus unterspezifizierter logischer Formsemantik unter Verwendung einer breitflächigen Grammatik und eines Korpus realer Zieläußerungen. Einige frühere Behauptungen zur Diagrammrealisierung werden im Lichte einer Reihe praktischer Experimente kritisch überprüft und korrigiert. Neben einer Reihe algorithmischer Verfeinerungen präsentieren wir zwei neuartige Techniken: die Integration von subsumtionsbasierter lokaler Mehrdeutigkeitsfaktorierung und ein Verfahren zum selektiven Entpacken des Erzeugungswaldes gemäß einer Wahrscheinlichkeitsverteilung, die durch ein bedingtes, diskriminatives Modell gegeben ist.;-;-;-;https://link.springer.com/chapter/10.1007/11562214_15 6a92de0ebc5ee1f4304be472cf6bd31e;de;;;2.2.;;;Angiotensin-Converting-Enzym-Insertion/Deletion-Polymorphismus ist mit schwerer Hypoxämie bei pädiatrischen ARDS verbunden Das D-Allel des Insertions/Deletion (I/D)-Polymorphismus einer 287-bp-Sequenz im Angiotensin-Converting-Enzym (ACE)-Gen wurde mit einer erhöhten Aktivität dieses Enzyms in Verbindung gebracht. Seine Rolle bei der Anfälligkeit für das akute Atemnotsyndrom (ARDS) ist nicht genau definiert. Wir stellten die Hypothese auf, dass der ACE I/D-Genotyp in der Pädiatrie mit ARDS und Plasmaspiegeln von Angiotensin II verbunden ist.;-;-;-;https://link.springer.com/article/10.1007/s00134-011-2381-3 6804b5b3ac7dac5efbf1342fcae2f028;de;;;2.2.;;;Hochpräzise stellare Häufigkeiten der Elemente: Methoden und Anwendungen Effiziente Spektrographen an Großteleskopen haben es ermöglicht, hochauflösende Spektren von Sternen mit hohem Signal-Rausch-Verhältnis zu erhalten, und Fortschritte in der Modellatmosphärenanalyse haben es ermöglicht, aus diesen Spektren hochpräzise differentielle Häufigkeiten der Elemente, dh mit Fehlern, abzuschätzen im Bereich 0,01–0,03 dex für F-, G- und K-Sterne. Methoden zur Bestimmung solcher hochpräzisen Häufigkeiten zusammen mit präzisen Werten der effektiven Temperaturen und Oberflächengravitationen aus äquivalenten Breiten von Spektrallinien oder durch Spektralsynthesetechniken werden skizziert, und die Auswirkungen auf die Häufigkeitsbestimmung durch die Verwendung einer 3D-Nicht-LTE-Analyse anstelle einer klassischen 1D LTE-Analysen werden berücksichtigt. Die Bestimmung hochpräziser stellarer Häufigkeiten der Elemente hat zur Entdeckung unerwarteter Phänomene und Beziehungen mit wichtigen Auswirkungen auf die Astrophysik von Galaxien, Sternen und Planeten geführt, dh (i) Existenz diskreter Sternpopulationen innerhalb jeder der Hauptgalaktischen Komponenten (Scheibe, Halo und Ausbuchtung), die neue Einschränkungen für Modelle für die Bildung der Milchstraße bieten. (ii) Unterschiede in der Beziehung zwischen Häufigkeiten und elementarer Kondensationstemperatur für die Sonne und Sonnenzwillinge, die auf Staubreinigungseffekte in protoplanetaren Scheiben und/oder die Umhüllung von Planeten durch Sterne hindeuten, (iii) Unterschiede in der chemischen Zusammensetzung zwischen Doppelsternkomponenten und zwischen Mitgliedern offener oder Kugelsternhaufen, was zeigt, dass Sternen- und Haufenbildungsprozesse komplizierter sind als bisher angenommen, (iv) Enge Beziehungen zwischen einigen Häufigkeitsverhältnissen und dem Alter von sonnenähnlichen Sternen, die neue Beschränkungen für die Nukleosynthese und galaktische chemische Evolutionsmodelle wie sowie die Zusammensetzung terrestrischer Exoplaneten. Wir schließen daraus, dass viele weitere interessante zukünftige Anwendungen von großer Bedeutung für die Stern- und Galaxienentwicklung wahrscheinlich sind, wenn Sternhäufigkeiten mit Genauigkeiten von 0,01–0,03 Dex in Studien weiter entfernter Sterne und Sterne auf den Riesen- und Überriesenzweigen erreicht werden können. Daher ist es bei der Planung von Häufigkeitsmessungen wichtig, den Bedarf an großen Stichproben von Sternen sorgfältig gegen die spektrale Auflösung und das Signal-Rausch-Verhältnis abzuwägen, die erforderlich sind, um hochpräzise Häufigkeiten zu erhalten. Außerdem ist es von Vorteil, an Sternen mit ähnlichen atmosphärischen Parametern differentiell zu arbeiten, da dann eine einfache 1D-LTE-Analyse von Sternspektren ausreichen kann. Bei der Bestimmung hochpräziser absoluter Häufigkeiten oder differentieller Häufigkeiten zwischen Sternen mit stärker unterschiedlichen Parametern, z. metallarme Sterne im Vergleich zur Sonne oder Riesen zu Zwergen, dann müssen 3D-Nicht-LTE-Effekte berücksichtigt werden.;-;-;-;https://link.springer.com/article/10.1007/s00159-018-0111-3 a16030090bde1edc27409ff3769e94ed;de;;;2.2.;;;Pharmakokinetische Arzneimittelwechselwirkungen mit nichtsteroidalen Antirheumatika Nichtsteroidale Antirheumatika (NSAR) gehören zu den am häufigsten eingesetzten Medikamenten. Arzneimittelwechselwirkungen mit dieser Substanzklasse werden häufig berichtet und können pharmakokinetischer und/oder pharmakodynamischer Natur sein. Die pharmakokinetischen Wechselwirkungen können in 3 Klassen eingeteilt werden: (1) Arzneimittel, die die Pharmakokinetik eines NSAID beeinflussen, (2) ein NSAID, das die Pharmakokinetik eines anderen NSAID beeinflusst und (3) NSAIDs, die die Pharmakokinetik eines anderen Arzneimittels verändern.;-;-;-;https://link.springer.com/article/10.2165/00003088-199019010-00004 8b35fc8c94e302b28f6d082141ca78aa;de;;;2.2.;;;Erkennung und Entscheidungsfindung im Umweltwirkungsmonitoring Die meisten vorgeschlagenen Rahmen für die Überwachung von Umweltauswirkungen (EEM) vergleichen ausgewählte Indikatorvariablen, um zu beurteilen, ob signifikante Veränderungen in gestressten Ökosystemen aufgetreten sind. Die meisten sind deterministischer Natur und berücksichtigen die natürliche Variabilität und Dynamik innerhalb der verglichenen Systeme nicht angemessen. Dies legt nahe, dass die vergleichenden Verfahren statistisch fundiert sein sollten und wirft unmittelbar die Frage auf, ob die ausgewählten vergleichenden Verfahren als Entscheidungshilfen oder als schlüssige Verfahren verwendet werden sollen. Aussagekräftige Verfahren erfordern eine signifikante Evidenz, bevor die postulierte Nullhypothese zurückgewiesen wird. Die Kosten und der Zeitaufwand für die Erhebung von Umweltdaten lenken dementsprechend die Maßnahmen auf die Aufrechterhaltung eines Status-quo-Ansatzes für das Umweltmanagement. Wenn EEM jedoch als Entscheidungsverfahren behandelt wird, können Risikofunktionen, die statistische Fehler der Typen I und II berücksichtigen, entwickelt und mit Kosten kombiniert werden, um eine Strategie für den minimalen erwarteten Verlust für das Umweltmanagement auszuwählen. Es werden Beispiele für Interpretationsschwierigkeiten und Schlussfolgerungsumkehrphänomene vorgestellt, die bei der Verwendung von EEM als schlüssiges Verfahren auftreten. Darüber hinaus werden für das Umweltmanagement im Kontext von EEM geeignete Risikofunktionen aufgebaut und angewendet. Nur wenn solche Werkzeuge vollständig entwickelt und angewendet werden, kann EEM mit signifikanten Auswirkungen auf die Minimierung der Umweltzerstörung rechnen.;-;-;-;https://link.springer.com/article/10.1007/BF02471945 0dd0855d358266fb5f1ced1058f6cf7b;de;;;2.2.;;;Asymptotische Genauigkeit und Konvergenz für Punktkollokationsmethoden Hier setzen wir die asymptotische Fehleranalyse von Wendland [118] fort, wobei wir hauptsächlich die Galerkin-Methoden betrachtet haben. In den meisten Computerprogrammen wurde die Punktkollokation jedoch als eine der gewichteten Resttechniken für Randelementverfahren implementiert. Trotz der Popularität der Punktkollokation sind ihre Konvergenzeigenschaften empfindlicher als die der Galerkin-Verfahren. Hier geben wir einen Überblick über die asymptotische Konvergenz von Punktkollokations-Randelementmethoden für zwei- und dreidimensionale stationäre oder zeitharmonische Randwertprobleme, die zu stark elliptischen Randintegralgleichungen auf der Randkurve bzw. Wie in [118] gezeigt wurde, umfassen diese Gleichungen einige Standard-Gleichungstypen wie Fredholm-Integralgleichungen zweiter Art mit glatten oder schwach singulären Kernen, singuläre Integralgleichungen mit Hauptwertintegralen bzw. stark singulären Cauchy- bzw. Giraud-Mikhlin-Kernen , Fredholm-Integralgleichungen erster Art mit speziellen schwach singulären Kernen oder Integro-Differential-Operatoren auf Γ, die als „teilfinie“ Hauptwert-Integraloperatoren mit nicht integrierbaren Kernen erscheinen. Alle diese Gleichungen auf r schreiben wir kurz als;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82398-5_9 5b44f7ae19a359d3b6c29b49c14db942;de;;;2.2.;;;Zum Verhältnis der Tchebycheff-Norm und der Effizienzgrenze multikriterieller Zielsetzungen Es ist eine wohlbekannte Eigenschaft, dass die effiziente Grenze von Zielfunktionen mit mehreren Kriterien durch parametrisches Optimieren von Linearkombinationen der getrennten Ziele erzeugt werden kann, wenn der Satz von Entscheidungen konvexe Sätze im Kriteriumsraum erzeugt. Es ist auch allgemein bekannt, dass, wenn der Kriteriumsraum nicht konvex ist, wie in dem Fall, in dem die Entscheidungskriterien diskret sind, die parametrischen Linearkombinationen einige, aber nicht unbedingt alle effizienten Punkte erzeugen. Dieses Papier zeigt, dass die parametrische Optimierung einer auf die Kriterienfunktion angewendeten Tchebycheff-Norm alle effizienten Punkte erzeugt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-87563-2_5 24b6634fa1fbd429a5f8ee8f6f83ae16;de;;;2.2.;;;Aktuelle und aufkommende Technologien zur Analyse der genomweiten und Locus-spezifischen DNA-Methylierungsmuster DNA-Methylierung ist die am besten untersuchte epigenetische Modifikation, und veränderte DNA-Methylierungsmuster wurden bei Krebs und neuerdings auch bei vielen anderen komplexen Erkrankungen identifiziert. Darüber hinaus wird die DNA-Methylierung durch eine Vielzahl von Umweltfaktoren beeinflusst, und die Analyse von DNA-Methylierungsmustern könnte die Entschlüsselung früherer Expositionen ermöglichen. Obwohl eine große Anzahl von Techniken zur Untersuchung der DNA-Methylierung entweder genomweit oder an spezifischen Loci entwickelt wurde, basieren sie alle auf einer begrenzten Anzahl von Prinzipien zur Differenzierung des Methylierungszustands, nämlich methylierungsspezifischen/methylierungsabhängigen Restriktionsenzymen , Antikörper oder methylbindende Proteine, chemische Anreicherung oder Bisulfitumwandlung. Die Sequenzierung der zweiten Generation hat Microarrays als Ausleseplattform weitgehend abgelöst und wird auch für die Locus-spezifische DNA-Methylierungsanalyse immer beliebter. In diesem Kapitel werden die derzeit verwendeten Methoden für die genomweite und locusspezifische Analyse von 5-Methylcytosin und seiner oxidativen Derivate wie 5-Hydroxymethylcytosin detailliert beschrieben und die Vorteile und Grenzen jedes Ansatzes diskutiert. Darüber hinaus werden aufkommende Technologien, die eine PCR-Amplifikation vermeiden und ein direktes Auslesen der DNA-Methylierung ermöglichen, zusammen mit neuen Anwendungen, wie dem Nachweis von DNA-Methylierung in Einzelzellen oder in zirkulierender zellfreier DNA, zusammengefasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-43624-1_15 4ba254e46488202c6734cacb47e252e4;de;;;2.2.;;;„CONTOUR“-Algorithmus zum Finden und Visualisieren von flachen Abschnitten von 3D-Objekten Eines der Visualisierungsprobleme beinhaltet das Auffinden von Grenzen und Innenseiten flacher Abschnitte von analytisch spezifizierten 3D-Objekten. Dieses Problem soll gelöst werden, um die Ergebnisse zu analysieren und die Geometrievorgabe zu kontrollieren. Einerseits ist die analytische Definition von Profilen für „nicht einfache“ 3D-Objekte im Allgemeinen ein eigentlich unlösbares Problem, andererseits ist es im Bereich der numerischen Simulation notwendig, die virtuelle Konstruktion von 3D-Objekten anzuwenden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44842-X_42 dd5fe2c5e5c26a9a86284da893e80e1f;de;;;2.2.;;;Sicherheitsmechanismen in NoSQL-DBMS: Eine technische Überprüfung Das exponentielle Datenwachstum in Organisationen hat zusammen mit dem Erfolg großer Unternehmen wie Facebook, Google oder Twitter aufgrund ihrer Skalierbarkeit und Leistung zu Big . zur Migration einer großen Anzahl von Anwendungen auf die Verwendung von NoSQL-Datenbanken geführt Datenlösungen. Dieses Phänomen belegt die Notwendigkeit, diese neuen Datenbanken unter dem Gesichtspunkt der Informationssicherheit zu analysieren. Dieser Artikel präsentiert einen technischen Überblick über die Kontrollen, die implementiert werden könnten, um Sicherheitsdaten in acht der am häufigsten verwendeten NoSQL-Datenbankverwaltungssysteme namens MongoDB, Cassandra, Hbase, CouchDB, BigTable, DinamoDb, Neo4j und GraphBD zu bewahren. Die Analyse erfolgt aus Sicht der Sicherheitsmechanismen, d. h. Authentifizierung, Autorisierung und Verschlüsselung (in Transit und in Ruhe).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-46785-2_18 bc08be8259b57649afcde2c6b49c60b7;de;;;2.2.;;;Ein kollaborativer Filter-Recommender, der ein SOM-Netzwerk ausnutzt Empfehlungssysteme werden in vielen Bereichen genutzt, um Benutzern zu helfen, Waren und Dienstleistungen zu finden. Ein kollaborativer Filter-Recommender realisiert ein System zum Teilen von Wissen, um Personen mit ähnlichen Interessen zu finden. Einige kritische Probleme können jedoch zu ungenauen Vorschlägen führen. Um eine Lösung für solche Probleme bereitzustellen, stellt dieses Papier einen neuartigen SOM-basierten kollaborativen Filterempfehlungsdienst vor. Einige experimentelle Ergebnisse bestätigen die Wirksamkeit der vorgeschlagenen Lösung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-04129-2_21 d1f33fcc9c1893917dd9f0446bf685a2;de;;;2.2.;;;Ausgabesensitive Autovervollständigungssuche Wir betrachten das folgende Suchszenario mit Autovervollständigung: Stellen Sie sich vor, ein Benutzer einer Suchmaschine gibt eine Suchanfrage ein, dann zeigen Sie bei jedem Tastendruck die Vervollständigungen des letzten Suchworts an, die zu den besten Treffern führen würden, und zeigen Sie auch die besten Treffer an. Das folgende Problem steht im Mittelpunkt dieser Funktion: für eine feste Dokumentensammlung, gegeben eine Menge;-;-;-;https://link.springer.com/chapter/10.1007/11880561_13 53f83917063cd521f5af51ea51ea9cea;de;;;2.2.;;;Quick-Means: Beschleunigung der Inferenz für K-Means durch Erlernen schneller Transformationen – und der berühmte Lloyd-Algorithmus – ist mehr als die Clustering-Methode, für die er ursprünglich konzipiert wurde. Es hat sich in der Tat als entscheidend erwiesen, um die Geschwindigkeit vieler maschineller Lern- und Datenanalysetechniken wie Indexierung, Suche und Vorhersage des nächsten Nachbarn, Datenkomprimierung und neuerdings auch Inferenz mit Kernel-Maschinen zu erhöhen. Hier stellen wir eine effiziente Erweiterung von;-;-;-;https://link.springer.com/article/10.1007/s10994-021-05965-0 b4b0c2aa5c9d22ec296b0bb2bc5ca64b;de;;;2.2.;;;Genetische Konzepte in der griechischen Literatur vom 8. bis 4. Jahrhundert v. Es wird ein Überblick über die Konzepte der Genetik in epischen, historischen und dramatischen antiken griechischen Schriften aus dem 8. bis 4. Jahrhundert v. Chr. gegeben. Die abgeleiteten Daten legen nahe, dass die Entwicklung genetischer Konzepte und Ideen mit dem Lob der göttlichen oder edlen Herkunft der Helden in Homers epischen Gedichten (achtes Jahrhundert v. Chr.) begann. Es setzte sich fort in der Verfolgung der Abstammung und Wechselfälle der Familien der griechischen Götter und der gemeinsamen Abstammung der griechischen Stämme, wie in Hesiods genealogischen Gedichten (um 700 v die Bücher Herodot und Xenophon (fünftes und viertes Jahrhundert v. Chr.) und in der Sorge um die Abstammung der tragischen Figuren im griechischen Drama (fünftes Jahrhundert v. Chr.). Die genetischen Konzepte, die in diesen Schriften zum Ausdruck kommen, spiegelten höchstwahrscheinlich populäre Vorstellungen dieser Zeit wider. Sie müssen daher die Grundlage der Wahrnehmungen und Theorien über Vererbung und Zeugung gewesen sein, die von den alten Ärzten und Philosophen im fünften und vierten Jahrhundert v.;-;-;-;https://link.springer.com/article/10.1007/BF00219335 2667eed4861a8e7e205d5440dbc26638;de;;;2.2.;;;Testen von Genumlagerungen Der B- und T-Zell-Genumlagerungstest ist eines der Markenzeichen der molekularpathologischen Diagnostiklabore. In der Vergangenheit mit Southern Blot durchgeführt und heute von vielen Labors mit PCR übernommen, wird der Test als Hilfe bei der pathologischen Diagnose verwendet, um zwischen benignen lymphoproliferativen Erkrankungen, normalerweise polyklonalen, und klonal abgeleiteten Zellpopulationen zu unterscheiden, die in malignen Zellpopulationen beobachtet werden. Klon-amplifizierte Genumlagerungen können zur Diagnose und als tumorspezifische Marker zur Rezidivüberwachung verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-2170-2_17 089b4c06634e338b5a4c1d557d91eb5c;de;;;2.2.;;;Ein reibungsloser Test in Proportional-Hazard-Survival-Modellen mit lokaler Partial-Likelihood-Anpassung Proportionale Hazard-Modelle für Überlebensdaten, obwohl sie populär und numerisch praktisch sind, leiden unter der restriktiven Annahme, dass kovariate Effekte über die Überlebenszeit konstant sind. Es wurden eine Reihe von Tests vorgeschlagen, um diese Annahme zu überprüfen. Dieses Papier trägt zu diesem Bereich bei, indem lokale Schätzungen verwendet werden, die es ermöglichen, Gefahrenmodelle anzupassen, in denen Kovariateneffekte mit der Zeit glatt variieren. Als Alternative wird ein formaler Test abgeleitet, um proportionale Gefährdungen gegen glatte Gefährdungen zu prüfen. Der Test beweist Omnibus-Power, da er gegen willkürliche, aber glatte Alternativen mächtig ist. Vergleichende Simulationen und zwei Datenbeispiele begleiten die Präsentation. Es werden Erweiterungen für mehrere Kovariateneinstellungen bereitgestellt, bei denen der Schwerpunkt darauf liegt, zu entscheiden, welche der Kovariateneffekte mit der Zeit variieren.;-;-;-;https://link.springer.com/article/10.1023/B%3ALIDA.0000012423.68151.da bff36eed96c24d58acc98162e53a7a3f;de;;;2.2.;;;Grenzüberschreitende Verbreitung von Filmen und kulturelle Vielfalt in der EU Dieses Papier untersucht neue Datenquellen zum multilateralen Handel mit Filmen zwischen EU-Ländern und mit den USA im Offline-Kino und im Online-Video-on-Demand-Vertrieb. Wir beobachten Unterschiede in den Handelsmustern zwischen Ländern und Filmen und untersuchen, wie sie die kulturelle Vielfalt beeinflussen. Wir stellen fest, dass der EU-Filmmarkt stark fragmentiert ist und die grenzüberschreitende Verfügbarkeit von Filmen im Kino gering ist. Wir untersuchen verschiedene Aspekte der Kulturrabatt-Hypothese anhand eines Standard-Helpman und Krugman (Marktstruktur und Außenhandel. Steigende Renditen, unvollkommener Wettbewerb und internationale;-;-;-;https://link.springer.com/article/10.1007/s10824-018-9322-8 b7d39cae4465423f903f1e0b9a0ae5d2;de;;;2.2.;;;Bayes'sches Framework für die automatische Bildannotation mit visuellen Schlüsselwörtern In diesem Artikel schlagen wir ein auf Bayes-Wahrscheinlichkeit basierendes Framework vor, das visuelle Schlüsselwörter und bereits verfügbare Text-Schlüsselwörter verwendet, um die Bilder automatisch zu kommentieren. In Anlehnung an die Dokumentklassifikation kann ein Bild als Dokument und darin vorhandene Objekte als Worte betrachtet werden. Mit diesem Konzept können wir visuelle Schlüsselwörter erstellen, indem wir ein Bild basierend auf einer bestimmten Vorlagengröße in Kacheln aufteilen. Visuelle Schlüsselwörter sind einfache Vektorquantisierung kleiner Bildkacheln. Wir schätzen die bedingte Wahrscheinlichkeit eines Text-Keywords in Gegenwart von visuellen Keywords, beschrieben durch eine multivariate Gauß-Verteilung. Wir demonstrieren die Effektivität unseres Ansatzes, indem wir vorhergesagte Textanmerkungen mit manuellen Anmerkungen vergleichen und den Einfluss der Textanmerkungslänge auf die Leistung analysieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13467-8_14 df48255fe8749d0e6fbe02651d15f1f9;de;;;2.2.;;;Analyse von Message-Passing-Programmen mit SMT-Solvers Wir betrachten Message-Passing-Programme, bei denen Prozesse asynchron über unbegrenzte Kanäle kommunizieren. Die Erreichbarkeitsprobleme für solche Systeme sind entweder unentscheidbar oder weisen eine sehr hohe Komplexität auf. Um Effizienz zu erreichen, betrachten wir die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-02444-8_20 db0c65a708d426c24bdc4d792bfc1b42;de;;;2.2.;;;Verbessertes Ant-basiertes Clustering und Sortieren in einer Dokumentenabrufschnittstelle Sortier- und Clustermethoden, die vom Verhalten echter Ameisen inspiriert sind, gehören zu den frühesten Methoden der ameisenbasierten Metaheuristik. Wir betrachten diese Methoden im Kontext einer konkreten Anwendung und führen einige Modifikationen ein, die sowohl hinsichtlich Qualität als auch Effizienz signifikante Verbesserungen bewirken. Zunächst untersuchen wir ihre Fähigkeit, gleichzeitig eine Kombination aus Clustering und mehrdimensionaler Skalierung durchzuführen. Im Gegensatz zu den Annahmen in der früheren Literatur legen unsere Ergebnisse nahe, dass diese Algorithmen eine Skalierung nur sehr eingeschränkt durchführen. Wir zeigen, wie man dies durch einige Modifikationen des Algorithmus und eine Hybridisierung mit einer einfachen Vorverarbeitungsphase verbessern kann. Zweitens diskutieren wir, wie die Zeitkomplexität dieser Algorithmen verbessert werden kann. Die verbesserten Algorithmen werden als Kernmechanismus in einem visuellen Dokumentenabrufsystem für die Suche im World Wide Web verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45712-7_88 3baf1c657d56844898769a81161fc841;de;;;2.2.;;;Konzeptbasiertes adaptives IR-Modell mit FCA-BAM-Kombination zur Konzeptdarstellung und Codierung Das hier beschriebene Modell basiert auf der Theorie der Formalen Konzeptanalyse (FCA). Jedes Dokument wird in einem Konzeptgitter dargestellt: einer strukturierten Organisation von Konzepten gemäß einer Subsumtionsbeziehung und ist in einem bidirektionalen assoziativen Speicher (BAM) codiert: einer zweischichtigen heterogenen neuronalen Netzwerkarchitektur. Der Dokumentenabrufprozess wird als kontinuierliche Konversation zwischen Abfragen und Dokumenten betrachtet, während der Dokumente eine konsistente Reihe von wichtigen Konzepten lernen dürfen, um ihren Abruf zu erleichtern. Eine auf Relevanz-Feedback-Informationen basierende Reinforcement-Learning-Strategie macht die Ähnlichkeit relevanter Dokumente stärker und nicht relevanter Dokumente für jede Abfrage schwächer.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45886-7_11 8e61e8dfc4c3427a794baea707d712a1;de;;;2.2.;;;Referenzmodelle zur Modellierung von Qualitäten definieren: Wie Requirements Engineering-Techniken helfen können Die Akzeptanz eines Softwaresystems bei seinen Nutzern hängt entscheidend von der Fähigkeit des Systems ab, seine Qualitätsanforderungen zu erfüllen. Dabei unterscheiden sich die relevanten Qualitätsfaktoren sowie deren Bedeutung zwischen Domänen, zwischen Organisationen und sogar zwischen Entwicklungsprojekten innerhalb einer Organisation. Das UML QoS-Profil bietet einen flexiblen Rahmen für die Modellierung von Qualitätsanforderungen mit der UML. Das QoS-Profil bietet jedoch keine Richtlinien, um relevante Qualitätsfaktoren abzuleiten, die zur Modellierung von Qualitätsanforderungen mit der UML verwendet werden können. Auch wenn Referenzmodellierungstechniken (z. B. Domain Engineering) bei ausreichenden Ressourcen eine geeignete Lösung darstellen – fehlt ihnen die Skalierbarkeit, wenn dies nicht der Fall ist. In diesem Positionspapier skizzieren wir einen skalierbaren Ansatz zur Definition von QoS-Referenzmodellen, der auf etablierten Techniken des Requirements Engineering basiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73031-6_25 66d1a2fc84339f87794479888d747c35;de;;;2.2.;;;Vorausschauende Skyline-Abfragen für sich bewegende Objekte Die bestehenden Arbeiten zu Skyline-Abfragen gehen hauptsächlich von statischen Datensätzen aus. Das Abfragen von Skylines in einer Datenbank mit sich bewegenden Objekten ist jedoch genauso wichtig, wenn nicht sogar noch wichtiger. Wir schlagen ein Framework für die Verarbeitung prädiktiver Skyline-Abfragen für bewegte Objekte vor, die auch andere dynamische und statische Attribute enthalten. Wir präsentieren zwei Schemata, nämlich RBBS und TPBBS, um prädiktive Skyline-Anfragen zu beantworten. Experimentelle Ergebnisse zeigen, dass TPBBS RBBS deutlich übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00887-0_23 6ff39b173284c7bc8f036ac13176976f;de;;;2.2.;;;Zur Äquivalenz einiger Ansätze zur Berechenbarkeit auf der reellen Linie Es gab viele Vorschläge dafür, was eine berechenbare reelle Zahl oder Funktion sein sollte. Einige von ihnen wiesen pathologische Eigenschaften auf. Derzeit konzentriert sich die Forschung entweder auf eine Anwendung von Weihrauchs Effektivitätstheorie vom Typ 2 oder auf domänentheoretische Ansätze, wobei die bei Berechnungen auftretenden Teilobjekte explizit gemacht werden. Eine weitere, stärker analyseorientierte Forschungsrichtung basiert auf Grzegorczyks Arbeiten. Alle diese Ansätze haben sich als gleichwertig erwiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0654-5_5 2a73548963d1f40b6dc22a8645e1333a;de;;;2.2.;;;Untersuchung des Werts elektronischer Patientenakten aus mehreren Datensätzen In den letzten Jahrzehnten haben die meisten europäischen Länder große Anstrengungen unternommen, um elektronische Gesundheitsakten (EHR) zu sammeln und zu pflegen. Mit dem kontinuierlichen Wachstum dieser Datensätze wurde offensichtlich, dass ihre sekundäre Verwendung für die Forschung zu neuen Erkenntnissen über Krankheiten und Behandlungsergebnisse führen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29196-9_19 5233afc1574eaee31a3f163c015480cf;de;;;2.2.;;;Adaptives mehrstufiges Hashing für bewegte Objekte Obwohl mehrere ausgeklügelte Indexstrukturen für sich bewegende Objekte vorgeschlagen wurden, wurde das auf einem einfachen Raster basierende Hashing-Verfahren aufgrund seiner Einfachheit weit verbreitet verwendet. Da die Performance des Hashings maßgeblich von der Größe einer Grid-Zelle beeinflusst wird, sollte diese im Hinblick auf den Arbeitsaufwand sorgfältig entschieden werden. In vielen realen Anwendungen variiert die Arbeitsbelastung jedoch dynamisch mit der Zeit, beispielsweise der Verkehr in der Pendelzeit vs. in der Nacht. Das grundlegende Hashing kann diese dynamische Arbeitslast nicht bewältigen, da die Zellengröße während der Ausführung nicht geändert werden kann. In diesem Papier schlagen wir das adaptive Multi-Level-Hashing vor, um die dynamische Arbeitslast effizient zu unterstützen. Die vorgeschlagene Technik behält zwei Ebenen der Hashes bei, eine für sich schnell bewegende Objekte und die andere für quasi-statische Objekte. Ein sich bewegendes Objekt ändert seine Ebene adaptiv entsprechend dem Grad seiner Bewegung.;-;-;-;https://link.springer.com/chapter/10.1007/11408079_85 3bb83f3d41c1995ddfa04fb48f7f98b6;de;;;2.2.;;;Ein pfadbasiertes Beschriftungsschema für eine effiziente Strukturverbindung Der strukturelle Join ist zu einer Kernoperation in der XML-Abfrageverarbeitung geworden. Diese Arbeit untersucht, wie Pfadinformationen in XML verwendet werden können, um den strukturellen Join-Vorgang zu beschleunigen. Wir führen einen neuartigen Ansatz zum Vorfiltern von Pfadausdrücken ein und identifizieren einen minimalen Satz von Kandidatenelementen für den strukturellen Join. Die vorgeschlagene Lösung umfasst ein pfadbasiertes Knotenkennzeichnungsschema und einen Pfadverbindungsalgorithmus. Ersteres ordnet jedem Knoten in einem XML-Dokument seinen Pfadtyp zu, während letzteres die Kosten nachfolgender Elementknotenverknüpfung stark reduziert, indem Elemente mit irrelevanten Pfadtypen herausgefiltert werden. Vergleichsversuche mit dem hochmodernen holistischen Join-Algorithmus zeigen deutlich, dass der vorgeschlagene Ansatz effizient und skalierbar für Abfragen ist, die von einfachen Pfaden bis hin zu komplexen Verzweigungsabfragen reichen.;-;-;-;https://link.springer.com/chapter/10.1007/11547273_4 f62105232020c8ba26d17f0dfba51363;de;;;2.2.;;;Verwenden von Objekten In diesem Kapitel untersuchen wir Objekte und die Wiederverwendung von Code. Python ist eine objektorientierte Sprache und das Erlernen der Verwendung von Objekten kann das Programmieren unterhaltsam und produktiv machen. In diesem Kapitel untersuchen wir die objektorientierte Programmierung mithilfe des Turtle-Moduls.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-6642-9_4 1a1020941cb27e3643f4fbc8d53e4903;de;;;2.2.;;;Gurtförderer Ein Bandförderer wird verwendet, um Materialien, im Allgemeinen horizontal, von einem Ort zum anderen zu transportieren. Es besteht aus einem endlosen Band auf Umlenkrollen (Rollen). Die Tragrollen sind auf der Tragseite in einer Wanne und auf der Boden- oder Rücklaufseite flach angeordnet. Die Antriebseinheit bewegt eine oder mehrere Riemenscheiben, die wiederum den Riemen bewegen. Der gesamte Förderer wird von einer Stahlkonstruktion (selten Holz) getragen, die die Umlenkrollen und den Antrieb trägt und in einer Linie hält. Mulden- oder förderseitig befindet sich überall dort, wo es notwendig ist, Material an einer Zwischenstelle auszuschleusen (siehe Bild 2.1).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-4695-2_2 aca80532347c2f3a6c82634a4e16d640;de;;;2.2.;;;Rissfusion als Modell für repetitive Seismizität Eine Renormierungsgruppenbehandlung eines skelettartigen, hierarchischen Modells der Rissverschmelzung und -naht ergibt das experimentelle Spannungs-Zeit-Bruch-Gesetz. Wir konstruieren ein Modell, das die dazwischenliegenden Größenzustände in der Hierarchie eliminiert, aber die Zeitverzögerung beibehält, die die Zeit-bis-Bruch-Beobachtungen darstellt. Wir fügen einen Quellterm hinzu, um Mikrorisse aufzufüllen, die durch Förderung aufgrund von Fusion verloren gegangen sind. Das System erweist sich für alle Zeitverzögerungswerte als stabil, wenn die Auffüllrate konstant ist. Wenn wir die Wiederauffüllungsrate von Mikrorissen an die Rate des Auftretens der größten Risse koppeln lassen, was wir als großräumige Seismizität interpretieren, dann tritt eine Hopf-Bifurkation auf und das System kann als Grenzzyklus-Attraktor beschrieben werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-6608-8_9 be030f98344498c403909c1395156934;de;;;2.2.;;;H-MRST: Ein neuartiges Framework zur Unterstützung der Abfrage unsicherer Datenbereiche mit ELM Die probabilistische Bereichsabfrage ist ein typisches Problem im Bereich probabilistischer Datenbankverwaltungssysteme. Es gibt viele Bemühungen, eine solche Abfrage zu unterstützen. Jedoch können die Ansätze des Standes der Technik unsichere Daten nicht effizient indizieren, wenn ihre Wahrscheinlichkeitsdichtefunktion diskret ist. In diesem Papier schlagen wir einen allgemeinen Rahmen vor, um eine Zusammenfassung für unsichere Daten mit jeder Art von zu erstellen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-28373-9_7 cc32fdef418bc47784c76c0cf23aef89;de;;;2.2.;;;Forschung zum invertierten Index basierend auf Kompression und Wahrnehmung Das Abrufen von Geheimtext kann Sicherheitsanforderungen erfüllen, aber die komplexe Struktur von Index und Abruf hat eine breite Verwendung verhindert. In diesem Artikel wird unter Berücksichtigung von Sicherheit und Effizienz eine invertierte Indexstruktur auf der Grundlage von Compressed Sensing entworfen, um die Sicherheitsanforderungen und die Effizienz des Volltextabrufs zu erfüllen. Die auf Compressed Sensing basierende Indexstruktur wird in der Lage sein, statistischen Analyseangriffen, statischen Analyseangriffen und Tracking-Angriffen effektiv zu widerstehen, so dass die Indexdateien in Form von Chiffretext vorliegen, ohne Entschlüsselung für den Fallabruf. Bei Verwendung von Chunked Coding Compression und Indexing Sensing-Technologie könnte sich das Abrufsystem anpassen, um das Speicherverfahren und die Blockform der Indexstruktur anzupassen, was seine Serveranforderungen stark reduzieren und die Abrufeffizienz verbessern kann. Die invertierte Indexstruktur von Compressed Sensing, die auf Compressed Sensing basiert, wird ein Gleichgewicht sowohl in Bezug auf Sicherheit als auch auf Abrufeffizienz sicherstellen und somit die Anforderungen des Abrufs erfüllen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-43908-1_39 8ee1772138b25aa9052a6d6e879042c3;de;;;2.2.;;;Serviceorientiertes Grid-Computing für SAFORAH Das SAFORAH-Projekt (System of Agents for Forest Observation Research with Advanced Hierarchies) wurde ins Leben gerufen, um die Archivierung und den Austausch großer Geodatensätze zwischen verschiedenen Forschungsgruppen innerhalb des Canadian Forest Service, der University of Victoria und verschiedenen anderen akademischen und Partner der Regierung. Kürzlich hat sich gezeigt, dass die Verfügbarkeit von Bildverarbeitungsdiensten die Nützlichkeit des SAFORAH-Systems verbessern würde. Wir beschreiben ein Projekt zur Integration von SAFORAH mit einem Rechengitter unter Verwendung der Globus Middleware. Wir skizzieren ein modulares Design, das es uns ermöglicht, neue Komponenten zu integrieren und die langfristige Nachhaltigkeit des Projekts zu verbessern. Wir werden den Status dieses Projekts beschreiben und zeigen, wie es dem SAFORAH-Forstprojekt eine neue Fähigkeit hinzufügt, die Forschern ein leistungsstarkes Werkzeug für die Umwelt- und Forstforschung an die Hand gibt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12659-8_21 50fe9b148487f20edd637558965a40b7;de;;;2.2.;;;Print-on-Demand: Neue Modelle und Wertschöpfung Die Print-Publishing-Branche ist heute ganz anders als vor 5 Jahren oder sogar vor 1 Jahr. Die Entwicklungen in der Buchherstellungstechnologie, der Druck zur Reduzierung der Auflagen aufgrund des Wachstums von E-Books und umfassende Vertriebsmodelle haben einer neuen effizienten Buchlieferkette Platz gemacht, die den Verbrauchern mehr Inhalte als je zuvor zur Verfügung stellt und hat die Art und Weise, wie Bücher weltweit in die Hände der Leser gelangen, dramatisch rationalisiert.;-;-;-;https://link.springer.com/article/10.1007/s12109-014-9367-2 7919817af11a955f77032b4a9debcb23;de;;;2.2.;;;Erzielen Sie einen Lastausgleich mit einem dynamischen Umleitungs-CICQ-Switching-Schema Multipfadbasiertes Routing und Switching kann einen netzwerkweiten Lastausgleich erreichen und die Portkonflikte von Switching-Geräten reduzieren. Von dieser neuartigen Idee motiviert, entwickeln wir in diesem Papier durch eine umfassende Analyse der Machbarkeit der Implementierung von Multi-Next-Hops in Core-Switching-Netzwerken ein Switching-Schema namens MHRS (Multi-Next-Hop-Re-Routing-Switch) und eine Weiterleitungstabellenverwaltung HMFT (hierarchical multi-stage forwarding table) genanntes Schema, um dynamisches Multi-Next-Hop-Routing zu unterstützen. MHRS implementiert dynamisches Re-Routing in den Switches entsprechend ihrem Überlastungsstatus, um einen Lastausgleich in Echtzeit zu erreichen, während HMFT den Verkehr basierend auf ihren QoS-Anforderungen mit verschiedenen Weiterleitungspfaden bereitstellen kann. Theoretische Analysen und Simulationsergebnisse zeigen, dass Switches, die mit HMFT und MHRS ausgestattet sind, eine gute Verzögerungs- und Durchsatzleistung bieten können. Außerdem können sie Hafenkonflikte erheblich reduzieren.;-;-;-;https://link.springer.com/article/10.1007/s11432-011-4286-8 5f1e6a7367476e74413965691a6427c2;de;;;2.2.;;;Ein relationaler Ansatz für die aggregierte Suche in Graphdatenbanken In diesem Artikel untersuchen wir das Problem, Fragmente aus verschiedenen Graphen zusammenzusetzen, um eine Antwort auf eine Benutzeranfrage zu erstellen. Das Ziel besteht darin, durch Aggregation eine Antwort liefern zu können, wenn ein einzelner Graph nicht alle Abfrageeinschränkungen erfüllen kann. Wir stellen die zugrunde liegenden Basisalgorithmen und ein relationales Framework bereit, um die aggregierte Suche in Graphdatenbanken zu unterstützen. Unser Ziel ist es, einen flexiblen Rahmen für die Integration von Daten bereitzustellen, deren Struktur graphenbasiert ist (z. B. RDF). Die Idee ist, dass der Benutzer keinen Join-Vorgang zwischen Fragmenten angeben muss. Die Art und Weise, wie die Fragmente kombiniert werden können, ist ein Entdeckungsprozess und beruht auf einem bestimmten Algorithmus. Wir führten auch einige Experimente mit synthetischen Datensätzen durch, um die Wirksamkeit dieses Ansatzes zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29038-1_5 97906b87bee934365df6b1ea4c42acd6;de;;;2.2.;;;Kombination von Seminormen in adaptiven Hebeschemata und Anwendungen zur Bildanalyse und Komprimierung In diesem Artikel stellen wir einige adaptive Wavelet-Zerlegungen vor, die die Richtungsnatur von Bildern erfassen können. Unsere Methode nutzt die Eigenschaften von Seminormen, um Lifting-Strukturen zu bauen, die zwischen verschiedenen Aktualisierungsfiltern wählen können, wobei die Wahl durch die lokalen Gradienteneigenschaften der Eingabe ausgelöst wird. Um mit der Vielfalt und Fülle der Bilder umgehen zu können, muss man mehrere Kriterien verwenden können, was zu einer Mehrfachauswahl von Aktualisierungsfiltern führt. Wir stellen fest, dass die Bedingungen unter diesen Entscheidungen bei der Synthese wiederhergestellt werden können, ohne dass Overhead-Informationen übertragen werden müssen. Somit sind wir in der Lage, invertierbare und nicht-redundante Schemata zu entwerfen, die zwischen verschiedenen geometrischen Informationen unterscheiden, um Bilder für verlustfreie Kompressionsverfahren effizient darzustellen.;-;-;-;https://link.springer.com/article/10.1007/s10851-006-6711-y 2a7772d6973e1a2e2d1149b0d3a7fccd;de;;;2.2.;;;Hyperaktive graue Objekte Frühere Arbeiten der Autoren über graue Literatur haben beschrieben (1) die Notwendigkeit formaler Metadaten, um ein maschinelles Verständnis und damit skalierbare Operationen zu ermöglichen, (2) die Verbesserung von Repositorien grauer (und anderer) elektronischer Veröffentlichungen durch die Verknüpfung mit CRIS (Current Research .). Informationssysteme), (3) die Nutzung des Forschungsprozesses, um Metadaten schrittweise zu sammeln, die Schwellenbarriere für Endnutzer zu verringern und die Qualität in einer Umgebung von GRIDs zu verbessern. Dieses Papier führt die Entwicklung noch einen Schritt weiter und schlägt „intelligente“ graue Objekte vor. Die Hypothese besteht aus 2 Teilen: (1) dass die Verwendung passiver Metadatenkataloge nicht skaliert (a) in einer stark verteilten Umgebung mit Millionen von Knoten und (b) bei stark gestiegenen Mengen an F&E-Ausgabe graue Publikationen mit zugehörigen Metadaten, (2) dass ein neues Paradigma erforderlich ist, das (a) graue mit weißer Literatur und andere F&E-Ergebnisse wie Software, Daten, Produkte und Patente integriert (b) in einer selbstverwaltenden, selbstoptimierenden Weise und dass dieses Paradigma automatisch verwaltet Kuration, digitale Rechte der Provenienz, Vertrauen, Sicherheit und Privatsphäre. Was (1) bestehende Repositorien angeht, die Kataloge bereitstellen, nimmt das Sammeln immer mehr Zeit in Anspruch, um die Nicht-Währung sicherzustellen. Der Endbenutzer wendet viel manuellen Aufwand/Intelligenz auf, um die Ergebnisse zu nutzen. Die verstrichene Zeit der (1) Suche durch das Netz (2) des zentralisierten (oder zentral gesteuerten verteilten) Katalogservers, (3) Endbenutzereingriff wird inakzeptabel. Zu (2) ist den Autoren derzeit kein Paradigma bekannt, das die Anforderung erfüllt. Unser Vorschlag ist im Folgenden skizziert. Hyperaktiv kombiniert sowohl Hyperlinking- als auch aktive Eigenschaften eines (grauen) Objekts. Hyperlinking impliziert Multimediakomponenten, die zu dem Objekt verknüpft sind, und auch externe Links zu anderen Ressourcen. Der Begriff aktiv impliziert, dass Objekte nicht passiv in einem Repository liegen, um von Endbenutzern abgerufen zu werden. Sie „bekommen ein Leben“ und das Objekt bewegt sich durch das Netzwerk und weiß, wohin es geht. Ein hyperaktives graues Objekt wird von seinen (inkrementell aufgezeichneten) formalen Metadaten und einem zugehörigen (Software-)Agenten umhüllt. Es durchläuft Prozessschritte wie Erstkonzeption, Authoring, Review und Hinterlegung in einem Repository. Der Workflow basiert auf den Regeln und Informationen im Unternehmensdaten-Repository, mit dem der Agent interagiert. Sobald das Objekt hinterlegt ist, schiebt der damit verbundene Agent das Objekt aktiv an die Endbenutzer (oder Systeme) weiter, deren Metadaten Interesse oder eine Verpflichtung in einem Arbeitsablaufprozess anzeigen. Die Agenten überprüfen die Objekt- und Benutzer- (oder System-) Metadaten auf Rechte, Datenschutz, Sicherheitsparameter und auf Gebühren und stellen die Kompatibilität sicher. Alternativ kann das Objekt auch passiv von Endbenutzern oder Systemagenten gefunden werden. Das Objekt kann sich auch mit anderen Objekten assoziieren, die unter Verwendung von Metadaten oder Inhalt Beziehungen bilden. Deklarierte Beziehungen umfassen Referenzen und Zitate, Workflow-Beziehungen umfassen Versionen sowie Links zu Unternehmensinformationen und Forschungsdatensätzen und Software, inferenzierte Beziehungen sind entdeckte Beziehungen, z. B. zwischen Dokumenten verschiedener Autoren, die aus einer früheren Idee eines dritten Autors entwickelt wurden. Komponenten dieses Paradigmas wurden in gewissem Umfang implementiert. Die Herausforderung besteht darin, – unter Beachtung des zweiten Teils der Hypothese – die Integrationsarchitektur zu implementieren. Dies nutzt sicherlich die Macht des Graus.;-;-;-;https://link.springer.com/article/10.1007/s12109-007-9004-4 b8b643611cbfc5dd26384cb668f0af7e;de;;;2.2.;;;Integrierte Polytrees: Ein verallgemeinertes Modell für die Integration von räumlicher Zerlegung und Grenzdarstellung Wir präsentieren eine neue und effizientere Möglichkeit, polygonale und polyedrische Daten zu speichern. Durch Verallgemeinerung der Teilungsregel des Polybaums erhalten wir einen viel niedrigeren und stabileren Speicherbedarf, der tatsächlich für jedes gegebene Objekt eine obere Schranke hat. Durch die Verwendung von Polytrees als räumliches Verzeichnis in Kombination mit der Boundary-Repräsentation (die geometrische und topologische Daten speichert) erhalten wir eine integrierte Datenstruktur, die die Ausführung verschiedenster Algorithmen für unterschiedlichste Anwendungen in angemessener Zeit erlaubt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-61542-9_21 1706e4114d962374c3a22a8a9145f289;de;;;2.2.;;;Ein falsch negativer maximal häufiger Itemset-Mining-Algorithmus über Stream Maximal häufige Itemsets sind eine von mehreren komprimierten Darstellungen von häufigen Itemsets, die die meisten der in häufigen Itemsets enthaltenen Informationen mit weniger Platzbedarf speichern und somit besser für das Stream-Mining geeignet sind. Dieses Papier konzentriert sich auf das Mining von maximal häufigen Itemsets ungefähr über einem Stream-Landmark-Modell. Wir trennen die kontinuierlich ankommenden Transaktionen in Abschnitte und pflegen sie mit 3-Tupel-Listen, die durch einen erweiterten direkten Aktualisierungsbaum indiziert sind, daher ein effizienter Algorithmus namens;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25853-4_3 a2514ec0a94ff4a263a76d463cc551fa;de;;;2.2.;;;Zeit-Raum-Kompromisse für alle-nächstgelegenen-größeren-Nachbarn-Probleme Dieses Papier befasst sich mit zwei Versionen eines grundlegenden Problems, das als All-Nearest-Larger-Neighbors (ANLN)-Problem bezeichnet wird und wie folgt definiert ist: Gegeben ein eindimensionales Array;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40104-6_6 d124b3c905bad83652d6968c747b1641;de;;;2.2.;;;Kompressoren Dieses Buch befasst sich nicht mit der mechanischen Konstruktion von Verdichtern, sondern versucht, die Anwendungen der verschiedenen Verdichtertypen im Bereich der Industriekälte und ihr Verhalten bei Verwendung der dem Kälteanlagenbauer zur Verfügung stehenden Kältemittel zu beschreiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-11433-7_4 de880f2170b5a139bb2cf8f8e310441e;de;;;2.2.;;;Multikriterielle Optimierung im GIS: Kontinuierliche K-Nearest Neighbor Search in der mobilen Navigation Die Verallgemeinerung vorhandener räumlicher Daten für die kartografische Produktion kann als Optimierung sowohl der darzustellenden Informationsmenge als auch der Lesbarkeit/Verwendbarkeit der endgültigen Karte ausgedrückt werden, während Datengenauigkeit, geografische Merkmale und ästhetische Qualität erhalten bleiben. Als Anwendung der Informationssystemoptimierung dient ein verteiltes drahtloses Mobilfunknetz als zugrunde liegende Infrastruktur für digitale Ökosysteme. Es bietet wichtige Anwendungen für die digitalen Ökosysteme, darunter mobile Navigationen und kontinuierliche mobile Informationsdienste. Die meisten Informations- und Abfragedienste in einer mobilen Umgebung sind kontinuierliche mobile Abfrageverarbeitung oder kontinuierliche continuous;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12156-2_43 2a7aa33c918920d1e99732156ef596e6;de;;;2.2.;;;Zugriff auf Datenbanken in natürlicher Sprache mit halbautomatisch erstelltem Übersetzungswissen Bei den meisten Datenbankschnittstellen in natürlicher Sprache (NLDBI) hängt der Erwerb von Übersetzungswissen stark von den menschlichen Spezialitäten ab, wodurch die Übertragbarkeit von Domänen untergraben wird. Dieses Papier versucht, Übersetzungswissen halbautomatisch zu konstruieren, indem ein physisches Entity-Relationship-Schema eingeführt und Übersetzungswissensstrukturen vereinfacht werden. Basierend auf diesem halbautomatisch erzeugten Übersetzungswissen wird ein Nomenübersetzungsverfahren vorgeschlagen, um die Mehrdeutigkeiten der NLDBI-Übersetzung aufzulösen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30211-7_30 8ded49f689f14966e4b43902651a0aa2;de;;;2.2.;;;Straßendichteanalyse basierend auf Skelettpartitionierung zur Straßenverallgemeinerung Dieses Papier schlägt einen Algorithmus für die Straßendichteanalyse basierend auf der Skelettpartitionierung vor. Die Straßendichte liefert metrische und statistische Informationen über die Gesamtstraßenverteilung auf Makroebene. Bestehende Messungen der Straßendichte basierend auf Gittermethode, fraktaler Geometrie und Maschendichte werden überprüft und eine neue Methode zur Berechnung der Straßendichte basierend auf Skelettpartitionierung wird vorgeschlagen. Experimente veranschaulichen, dass die Straßendichte basierend auf der Skelettaufteilung die Gesamtstraßenverteilung offenbaren kann. Die vorgeschlagene Messung wird weiter mit Straßenkarten im Maßstab 1:10k und ihrer verallgemeinerten Version im Maßstab 1:50k getestet. Durch Vergleich des Löschprozentsatzes innerhalb verschiedener Dichteintervalle kann ein Straßendichteschwellenwert gefunden werden, der die Notwendigkeit weiterer Operationen während der Generalisierung anzeigt. Die vorgeschlagene Straßendichte kann verwendet werden, um die Qualität der Straßenverallgemeinerung zu untersuchen, die Variation des Straßennetzes durch zeitliche und räumliche Veränderungen zu untersuchen, und sie wird auch in der Praxis der Stadtplanung, des Verkehrs und der Siedlungsbewertung verwendet.;-;-;-;https://link.springer.com/article/10.1007/s11806-009-0012-8 129d4b34482b018906b3215cc0579109;de;;;2.2.;;;Anomalieerkennung in MODIS-Landprodukten durch Zeitreihenanalyse Da Fernerkundungsinformationsprodukte immer vielfältiger und wohl besser werden, hängen wissenschaftliche Anwendungen solcher Produkte von ihrer Qualitätsbewertung ab. In einem operativen Kontext wie der NASA (National Aeronautics and Space Administration) Informationsproduktion basierend auf dem MODIS-Instrument (Moderate Resolution Imaging Spectroradiometer) an Bord der Earth Observing System (EOS) Terra- und Aqua-Satelliten, effiziente Möglichkeiten zur Erkennung von Produktanomalien, d. zwischen Produktartefakten und realen Veränderungen in den überwachten Erdprozessen zu unterscheiden, sind äußerst wichtig, um die Benutzergemeinschaften über potenzielle Unzuverlässigkeiten der Produkte zu unterstützen und zu informieren. Es wird eine Technik zur Anomalieerkennung, bekannt als MAD (Median der absoluten Abweichung vom Median), in MODIS-Landprodukten mittels Zeitreihenanalyse beschrieben, die mit Hilfe von MAD-Statistiken der Originaldaten und deren Differenz erster Ordnung. Diese Methode hat sich als robust erwiesen und funktioniert bei wichtigen Landprodukten, einschließlich NDVI, aktivem Feuer, Schneedecke und Oberflächenreflexion, und ihre Anwendbarkeit auf multidisziplinäre Produkte wird erwartet.;-;-;-;https://link.springer.com/article/10.1007/s11806-007-0003-6 c87b5cb352d07381e905525b2f3a4dcc;de;;;2.2.;;;Nächste größere Nachbarn finden Das Entwerfen und Analysieren effizienter Algorithmen ist in der praktischen Anwendung wichtig, macht aber auch Spaß und ist oft lehrreich, selbst bei einfachen Problemen ohne unmittelbare Anwendung. In diesem in sich geschlossenen Papier versuchen wir, etwas Spaß am Algorithmusdesign und der Analyse zu vermitteln. Hoffentlich findet auch der Leser die Diskussion lehrreich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03456-5_17 748a5c0493bc213cb498cc64fe97a792;de;;;2.2.;;;Anwendung der Integration räumlicher statistischer Analysen mit GIS auf die regionale Wirtschaftsanalyse Dieses Papier fasst einige räumliche statistische Analysemethoden zur Messung von räumlicher Autokorrelation und räumlicher Assoziation zusammen und diskutiert die Kriterien für die Identifizierung räumlicher Assoziation durch die Verwendung des globalen Moran-Koeffizienten, des lokalen Moran und des lokalen Geary. Darüber hinaus wird in Arcview mit Avenue ein benutzerfreundliches Statistikmodul entwickelt, das räumliche statistische Analysemethoden mit visuellen GIS-Techniken kombiniert. Es wird auch ein Beispiel gegeben, um die Nützlichkeit dieses Moduls bei der Identifizierung und Quantifizierung der zugrunde liegenden räumlichen Assoziationsmuster zwischen Wirtschaftseinheiten zu zeigen.;-;-;-;https://link.springer.com/article/10.1007/BF02828549 0623cf1a3ec5b9a1ea056c494c6583bc;de;;;2.2.;;;Atiyah—Patodi—Indexsätze vom Typ Singer für Mannigfaltigkeiten mit Aufspaltung von $ \eta $-Invarianten Wir konstruieren selbstadjungierte Erweiterungen von Dirac-Operatoren auf Mannigfaltigkeiten mit Ecken der Kodimension 2, die die Atiyah-Patodi-Singer-Randbedingungen verallgemeinern. Die Randbedingungen beziehen sich auf geometrische Konstruktionen, die Probleme auf Mannigfaltigkeiten mit Ecken in Probleme auf Mannigfaltigkeiten mit Rand- und Keilsingularitäten umwandeln. Für den Fall, dass das Dirac-Bündel ein Superbündel ist, beweisen wir zwei allgemeine Indexsätze, die sich durch die Aufspaltungsformel für unterscheiden;-;-;-;https://link.springer.com/article/10.1007/s00039-001-8224-6 88bc7e1ee2c41e8d1d2da52e406088a8;de;;;2.2.;;;Bering-Seewolf Nach Langzeitmaterialien (1978–2012) von Grund- und pelagischen Schleppnetzen sind die Verbreitung und einige Merkmale der Biologie pelagischer Jungfische und erwachsener Individuen des Bering-Seewolfs;-;-;-;https://link.springer.com/article/10.1134/S0032945214050105 be72b0abb9419c2d88d788ba41d6dfe2;de;;;2.2.;;;Eine auf zwei Indizes basierende Darstellung für die Verarbeitung von XPath-Abfragen bei sehr großen XML-Dokumenten Obwohl die XML-Verarbeitung in den letzten Jahren intensiv untersucht wurde, bleibt der Entwurf effizienter Implementierungen zur Auswertung von XPath-Abfragen auf XML-Dokumenten eine Herausforderung, wenn XML-Dokumente sehr groß sind. In dieser Studie haben wir eine baumförmige Datenstruktur namens Partial Tree implementiert, die von sich aus für die Verarbeitung großer XML-Dokumente mit mehreren Computern geeignet ist. Unsere Implementierung verwendet zwei Indexsätze, um die Auswertung struktureller Beziehungen zwischen Knoten zu beschleunigen, wodurch sie sehr effizient für die Verarbeitung sehr großer XML-Dokumente in Bezug auf drei wichtige Klassen von XPath-Abfragen ist: Rückwärts-, reihenfolgeabhängige und prädikathaltige Abfragen. Die Versuchsergebnisse zeigen, dass unsere Implementierung sowohl in der absoluten Ladezeit als auch in der Ausführungszeit für die Zielabfragen eine moderne XML-Datenbank BaseX übertrifft. Die absolute Ausführungszeit über 358 GB XML-Daten beträgt bei Verwendung von 32 EC2-Instanzen durchschnittlich nur Sekunden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-69992-5_2 b051ce08174abbe8a19caec5fc320594;de;;;2.2.;;;Roller: ein neuartiger Ansatz zur Extraktion von Webinformationen Die Forschung zur Extraktion von Web-Informationen konzentriert sich auf das Erlernen von Regeln, um einige ausgewählte Informationen aus Web-Dokumenten zu extrahieren. Viele Vorschläge sind ad hoc und können nicht von den Fortschritten des maschinellen Lernens profitieren, außerdem werden sie wahrscheinlich mit der Weiterentwicklung des Webs verschwinden und ihre intrinsischen Annahmen werden nicht erfüllt. Einige Autoren haben sich damit beschäftigt, Webdokumente in relationale Daten umzuwandeln und dann Techniken zu verwenden, die von der induktiven Logikprogrammierung inspiriert wurden. Theoretisch sollten solche Vorschläge leichter angepasst werden können, wenn sich das Web entwickelt, da sie auf Katalogen von Funktionen aufbauen, die angepasst werden können, ohne die Vorschläge selbst zu ändern. Leider sind sie mit zunehmender Anzahl von Dokumenten oder Funktionen schwer zu skalieren. Im allgemeinen Bereich des maschinellen Lernens gibt es propositionio-relationale Vorschläge, die versuchen, mithilfe von propositionalen Techniken effektive und effiziente Mittel zum Lernen aus relationalen Daten bereitzustellen, aber sie wurden selten in Bezug auf die Extraktion von Webinformationen untersucht. In diesem Artikel stellen wir einen neuen Vorschlag namens Roller vor: Er basiert auf einem Suchverfahren, das eine dynamische Abflachungstechnik verwendet, um den Kontext der Knoten zu untersuchen, die die zu extrahierenden Informationen bereitstellen. Es ist mit einem offenen Katalog von Funktionen konfiguriert, so Damit es sich an die Entwicklung des Webs anpassen kann, erfordert es auch einen Basislerner und einen Regelbewerter, der ihm hilft, von den kontinuierlichen Fortschritten im maschinellen Lernen zu profitieren. Unsere Experimente bestätigen, dass es andere hochmoderne Vorschläge in Bezug auf Wirksamkeit übertrifft und in Bezug auf Effizienz sehr wettbewerbsfähig ist. Wir haben auch bestätigt, dass unsere Schlussfolgerungen aus statistischer Sicht solide sind.;-;-;-;https://link.springer.com/article/10.1007/s10115-016-0921-4 f9a1d75fd3f9f1b3a782edaaec1bd7c5;de;;;2.2.;;;Volumetrische weiche 3D-Geoobjekte für die dynamische Modellierung des Stadtabflusses Die Komplexität von Bachlaufstrukturen, Entwässerungssystemen, Abwasserkanälen und städtischer Landschaft erschwert den Hochwasserschutz in Städten und die Sanierungsplanung zur Verringerung der Hochwasserkatastrophe in Städten. GIS hat sich für die Untersuchung von räumlichen Mustern des städtischen Abflusses als nützlich erwiesen. Die Unfähigkeit des GIS, die Momentum- und Kontinuitätsaspekte des Überlandabflusses und des städtischen Abflussprozesses realistisch zu untersuchen, hat sich jedoch als Mängel des Systems erwiesen. Dies führt zu der Anforderung einer erweiterten Dimension, die dynamische weiche geometrische Volumina des städtischen Regenwasserabflusses darstellt. Die Einbeziehung von Volumetric Soft Geo-Objekten (VSG) bietet eine umfassende und praktische 3D-dynamische Modellierung des städtischen Abflussvolumens. Die VSG werden basierend auf Kinematic Wave Routing und der Green-Ampt-Methode zur Modellierung des offenen Kanalflusses bzw. des Überlandflussvolumens angetrieben. Beckenmodell, Teilbecken, Reichweite und Verbindungselemente werden aus dem digitalen Höhenmodell (DEM) mit einer Auflösung von 5 Metern unter Verwendung des HEC-GeoHMS-Programms und des HEC-HMS-Modells extrahiert. Die modellierten Ergebnisse des Abflussvolumens ergaben ein R;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04791-6_11 d84b387eb61cf2d538bfdcbb5b4723a1;de;;;2.2.;;;Elastisch-Kunststoff-Strukturen unter variablen Lasten bei kleinen Dehnungen und mäßigen Rotationen Das Langzeitverhalten elastisch-plastischer Strukturen unter wechselnden Belastungen wird untersucht. Insbesondere werden Shakedown-Bedingungen für schalenartige Strukturen abgeleitet, die bei kleinen Dehnungen moderate Rotationen erfahren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82838-6_25 553f20247a654829b1745838c2fd71d1;de;;;2.2.;;;Vorhersage von Luftqualitätsindizes durch neuronale Netze und Fuzzy-Inferenzsysteme – der Fall der Mikroregion Pardubice Dieses Papier präsentiert ein Design von Modellen für die Vorhersage der Luftqualität unter Verwendung neuronaler Feed-Forward-Netze von Perceptron- und Takagi-Sugeno-Fuzzy-Inferenzsystemen. Darüber hinaus werden die Sätze von Eingangsvariablen für jede Luftschadstoffvorhersage durch genetische Algorithmen optimiert. Basierend auf Daten, die von der Messstation der Stadt Pardubice in der Tschechischen Republik gemessen wurden, sollen Modelle entwickelt werden, um Luftqualitätsindizes für jeden Luftschadstoff separat vorherzusagen und folglich den gemeinsamen Luftqualitätsindex vorherzusagen. Unter Berücksichtigung des quadratischen Mittelwertfehlers zeigen die Ergebnisse, dass die Zusammensetzungen einzelner Vorhersagemodelle Einzelvorhersagen des gemeinsamen Luftqualitätsindex übertreffen. Daher können diese Modelle angewendet werden, um genauere Vorhersagen von Luftqualitätsindizes einen Tag im Voraus zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41013-0_31 a0cac5d680a446ea7dfb93809f46e3fa;de;;;2.2.;;;Sortier- und Verknüpfungsalgorithmen für Multiprozessor-Datenbankmaschinen Mehrere Multiprozessor-Datenbankmaschinen [GARDA81] [BABBE79] [DEWIT79]. wurden oder werden derzeit entwickelt. Das Hauptziel dieser Maschinen besteht darin, komplexe Anfragen an sehr große Datenbanken mit besserer Leistung als herkömmliche Datenbanksysteme zu beantworten [CHAMB81] [STONE76].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82937-6_13 f729eed0905b710885ac69219b2105bc;de;;;2.2.;;;Psychophysiologische Indexdämpfung auf Bilder Dreimal hintereinander wurde jungen Erwachsenen eine Bilderserie zu drei affektiven Themen gezeigt. Im Anschluss an die dritte Präsentation wurde ein einzelnes zusätzliches Romanbild, neutral im affektiven Inhalt, gezeigt. Vier psychophysiologische Indizes wurden überwacht: Herzfrequenzreaktion (HR), Blinkfrequenzreaktion (BR), Pupillengrößenreaktion (PR) und Hautwiderstand (SR). Die Indizes unterschieden sich signifikant von den positiven und negativen affektiven Themen im Vergleich zum neutralen affektiven Thema, und die Probanden behielten ihre Fähigkeit, zwischen Themen zu unterscheiden, während der dritten Präsentationsserie wie in der ersten Präsentationsserie bei. Die Ansprechdämpfung war nur für den SR signifikant. Die Abschwächung der Baseline war in der SR am größten, in der HR und BR intermediär und in der PR nicht vorhanden. Der neuartige Stimulus induzierte eine vollständige Indexdishabitation, eine klare Orientierungsreaktion. Es wurde der Schluss gezogen, dass psychophysiologische Indizes für eine Reihe affektiver Bildreize nicht in gleichem Maße abschwächen und dass die Abschwächung auf Gewöhnung und nicht auf Ermüdung zurückzuführen ist.;-;-;-;https://link.springer.com/article/10.3758/BF03332930 dc3a5b11e1eb22ea0d5e4c0b0308aa73;de;;;2.2.;;;Tupaias (Baumspitzmäuse) – Ein neues Tiermodell für die Gallensteinforschung Die Lipidzusammensetzung der aus der Gallenblase und der Leber von Tupaias gewonnenen Galle wurde bestimmt. Im Vergleich zur Gallenblasengalle des Menschen enthält die Gallenblasengalle von Tupaias den gleichen Prozentsatz an Phospholipiden (PL), ein Drittel des Cholesterins (CH) und 50% mehr Gesamtgallensäuren (TBA). Der lithogene Index (LI) der Galle beträgt etwa 0,2–0,3. In der Zusammensetzung der Galle wurden keine signifikanten Geschlechtsunterschiede oder Tagesschwankungen festgestellt. Die Konzentration von PL, CH und TBA ist in der Gallenblasengalle 5 bis 8 mal höher als in der Lebergalle. Das Gallensäurespektrum bei Tupaias entspricht qualitativ dem des Menschen und ist quantitativ ähnlich.;-;-;-;https://link.springer.com/article/10.1007/BF01851755 09d472b08b86a901f3968e84469c2e76;de;;;2.2.;;;Erforschung von Multithreading Fast Scheduling auf Basis des OSG Im Bereich der 3D-Geländevisualisierung wächst der Widerspruch zwischen massivem Geländedatenvolumen und der Rendering-Effizienz zunehmend, und viele Scheduling-Arithmetiken für großes Gelände wurden vorgeschlagen. In diesem Papier bauen wir das verbesserte Vier-Gabeln-Modell gemäß den Eigenschaften des großen Geländedatenvolumens auf, diskutieren den Speichermechanismus und die Indexstruktur und konstruieren dann den Multithreading-Scheduling-Mechanismus. Endlich erreichen wir das große Terrain-Rendering mit OSG.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34387-2_39 6bb87201cd31c96f5f412b30554e67a0;de;;;2.2.;;;Die K Group Nearest-Neighbor-Abfrage zu nicht indizierten RAM-residenten Daten In der Praxis treten häufig Datensätze auf, die nur einmal (oder nur wenige Male) zur Beantwortung einer einzelnen Anfrage verwendet werden, bevor sie durch neue Datensätze ersetzt werden. Die Kosten für den Aufbau von Indizes zur Beschleunigung der Abfrageverarbeitung würden sich für solche Datensätze nicht erstatten. Wir betrachten eine Erweiterung des populären (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-29589-3_5 ec090b9b334e333faba8ccc67de8711b;de;;;2.2.;;;Assoziatives Wasserzeichenschema für die Authentifizierung medizinischer Bilder Mit der weit verbreiteten und zunehmenden Nutzung des Internets und digitaler Bildformen sowie der Bequemlichkeit medizinischer Fachkräfte wird die Zukunft der Gesundheitsversorgung von der Teleradiologie und Technologien wie der Telemedizin im Allgemeinen geprägt. Neben den verschiedenen radiologischen Modalitäten, die eine Vielzahl von digitalen Krankenakten erzeugen, werden meistens Datensätze und Bilder erstellt. Diese Dateien sollten vor ungewollten Änderungen ihres Inhalts geschützt werden, zumal sie lebenswichtige medizinische Informationen enthalten. Ihr Schutz und ihre Authentifizierung scheinen daher von großer Bedeutung zu sein, und dieser Bedarf wird mit der zukünftigen Standardisierung des Datenaustauschs zwischen Krankenhäusern oder zwischen Patienten und Ärzten steigen. In diesem Papier wird ein assoziatives Wasserzeichenschema durchgeführt, um assoziative Wasserzeichenregeln für die Bilder auszuführen, was die Menge eingebetteter Daten reduziert, ein Vektorquantisierungsindexierungsschema wird verwendet, um Wasserzeichen zum Zwecke der Bildauthentifizierung einzubetten. Die Vektorquantisierungsdecodierungstechnik wird angewendet, um das mit Wasserzeichen versehene Bild aus der mit Wasserzeichen versehenen Indextabelle zu rekonstruieren. Die experimentellen Ergebnisse zeigen, dass das vorgeschlagene Schema robust ist. Die mit Wasserzeichen versehenen Bilder sind resistent gegen schwere Bildverarbeitungsangriffe wie Gaußsches Rauschen, Helligkeit, Unschärfe, Schärfen, Zuschneiden und verlustbehaftete JPEG-Komprimierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19934-9_6 9039101a1f8199823747ff8079c4005f;de;;;2.2.;;;Interplanetare Studien: Ausbreitung von Störungen zwischen Sonne und Magnetosphäre Diese Übersicht befasst sich mit der interplanetaren „Übertragungslinie“ zwischen der Sonne und der Magnetosphäre der Erde. Es beginnt mit Kommentaren zu koronalen Massenauswürfen (CMEs), die mit verschiedenen Formen von Sonnenaktivitäten in Verbindung gebracht werden. Es geht dann weiter mit einigen der aktuellen Ansichten über ihre Fortsetzung durch die Heliosphäre zur Erde und anderswo. Die Entwicklung von Energie-, Massen- und Impulsübertragung ist von größtem Interesse, da das zeitliche/räumliche/größere Verhalten des interplanetaren elektrischen Felds und des transienten dynamischen Sonnenwinddrucks für die magnetosphärische Reaktion (das Vorhandensein oder Fehlen von geomagnetischen Stürmen und Substürmen) relevant ist. auf der Erde. Energetec-Partikelflussvorhersagen werden im Zusammenhang mit der Sonnenaktivität (Flares, Prominenzeruptionen) an verschiedenen Positionen der Sonnenscheibe relativ zum Zentralmeridian der Erde diskutiert. Es werden eine Reihe mehrdimensionaler magnetohydrodynamischer (MHD) Modelle diskutiert, die auf die solaren, sonnennahen und interplanetaren Teile der „Übertragungslinie“ angewendet werden. Diese Modellsimulationen, die notwendig sind, um unser Verständnis über die phänomenologischen oder morphologischen Stadien hinaus voranzutreiben, richten sich auf täuschend einfache Fragen wie die folgenden: Können eindeutige Assoziationen zwischen bestimmten Formen der Sonnenaktivität und der Magnetosphärenreaktion hergestellt werden?;-;-;-;https://link.springer.com/article/10.1007/BF00756075 242670a2e90c82a1958ae031972e7198;de;;;2.2.;;;Berechnung von Retentionsindizes in der temperaturprogrammierten Gaschromatographie Es wird eine neue Methode zur Berechnung der Retentionsindizes unter linearer Temperaturprogrammierung mit oder ohne anfänglicher Isotherme vorgestellt. Die mit der Methode berechneten Daten stimmen gut mit den isothermen Retentionsindizes überein.;-;-;-;https://link.springer.com/article/10.1007/BF02261466 1e44e4f49af776f7dd6682d603323465;de;;;2.2.;;;Variationen der Parameter elektromagnetischer Gewittersignale auf Pfaden über Erdbebengebieten Die Besonderheiten einer Methode zur Radiosondierung der unteren Ionosphäre über Erdbebenepizentren unter Verwendung elektromagnetischer NF-Signale von Gewitterquellen (Atmosphären) wurden berücksichtigt. Die Auswirkungen von Erdbeben mit flachem Fokus mit Magnituden über 4,0 und ihren Vorläufern manifestieren sich in den Amplitudeneigenschaften der Atmosphäre. Es wurde angenommen, dass Schwankungen in den Signaleigenschaften mit Störungen in der unteren Ionosphäre zusammenhängen. Querschnittsabmessungen gestörter Bereiche entsprechen nach den Ergebnissen der azimutalen Abtastung in der Regel den Abmessungen der ersten beiden Fresnel-Zonen für Signale mit einer Frequenz von 10 kHz. Azimutales Scannen zeigte auch, dass die Positionen gestörter Regionen während und vor Erdbeben eine gewisse Dynamik aufweisen und von der Projektion auf das Erdbeben-Epizentrum abweichen können. Berücksichtigt wurde das Verhältnis der Amplituden von elektrischen und magnetischen Signalkomponenten, in deren Variationen auch seismische Effekte vor Erdbeben beobachtet werden können. Eine Analyse des Verhältnisses ermöglicht es, die Wahrscheinlichkeit der Vorhersage von Erdbeben zu erhöhen, wenn die Eigenschaften der elektromagnetischen Signale von Blitzentladungen als zusätzliche Methode zur komplexen Überwachung von Störungen in der unteren Ionosphäre durch seismische Prozesse verwendet werden.;-;-;-;https://link.springer.com/article/10.1134/S0016793211060120 a2bcf0af0bb4963a31c4fe515b76f66d;de;;;2.2.;;;Integrierte Steinschlaggefahr und Risikobewertung entlang von Autobahnen: Ein Beispiel für die Region Jiuzhaigou nach dem Erdbeben Ms 7.0 Jiuzhaigou 2017, China Diese Arbeit befasst sich mit der integrierten Bewertung der Gefahren und Risiken von Steinschlag (einschließlich Erdrutschen) für die Autobahnen S301, Z120 und Z128, die wichtige Transportkorridore zum Weltkulturerbe Jiuzhai Valley National Park in Sichuan, China, darstellen. Die Autobahnen sind nach dem Erdbeben von Frau 7.0 Jiuzhaigou im Jahr 2017 stark durch Steinschläge oder Erdrutsche bedroht. Felduntersuchung (14.-18. September 2017, 15.-20. Mai 2018 und 9.-17. September 2018), unbemannte Luftfahrzeuge (UAV) und Satellitenbilder identifizierten Hochrelief-Steinstürze und Straßenbau-Steinschläge oder Erdrutsche entlang der Autobahn . Die Steinschlaggefahr wird qualitativ anhand von Blockanzahl, Geschwindigkeit und Flughöhe durch eine 3D-Steinschlagsimulation auf lokaler und regionaler Ebene bewertet. Das Steinschlagrisiko wird quantitativ mit Steinschlagereigniswahrscheinlichkeit, Ausbreitungswahrscheinlichkeit, räumlicher Wahrscheinlichkeit und Vulnerabilität für verschiedene Blockvolumenklassen bewertet. Für Fahrzeuge entlang der Autobahnen S301, Z120 und Z128 wurde festgestellt, dass etwa 21,5%, 20,5% und 5,3% der Straßenkilometer einer inakzeptablen (UA) Risikoklasse unterliegen. Etwa 20,1 % bzw. 3,3 % der Straßenkilometer gehören zur Risikoklasse UA für Touristen entlang der Autobahnen Z120 bzw. Z128. Die Ergebnisse zeigten, dass Hochrelief-Steinschlagereignisse intensiv auf den Straßen K50 bis K55 (Guanmenzi nach Ganheba) und K70 bis K72 (Jiudaoguai bis Shangsizhai Village) entlang der Autobahn S301 und KZ18 bis KZ22 (Five Flower Lake bis Arrow Bamboo Lake) gefahren wurden , KZ30 (Schwanensee bis Urwälder) und KY10,5 Kilometer im Jiuzhai-Tal. Steinschläge an diesen Standorten wurden der Risikoklasse UA und dem mittleren bis sehr hohen Gefährdungsindex zugeordnet. Straßenbau-Steinfälle befanden sich bei K67 (Jiuzhai Paradise) und K75–K76 entlang der Autobahn S301 und KZ12 bis KZ14 (Rhino Lake bis Nuorilang Waterfall), KZ16,5 bis KZ17,5 (Golden Bell Lake), KY5 (Lower Seasonal Lake) , und KY14 (Upper Seasonal Lake) Kilometer entlang der Autobahnen Z120 und Z128 im Jiuzhai-Tal. Steinschläge in diesen Bereichen lagen innerhalb eines angemessenen praktikablen Risikos für die UA-Risikoklasse und einem sehr niedrigen bis mittleren Gefährdungsindex. Schließlich könnten Schutzmaßnahmen, einschließlich flexibler Netze, Betonwände und künstlicher Tunnel, anhand des Steinschlag-Gefahrenindex und der Risikoklasse angemessen ausgewählt werden. Diese Studie zeigte die Integration zwischen der qualitativen Bewertung der Steinschlaggefahr und der quantitativen Bewertung des Steinschlagrisikos, die für die Untersuchung der Steinschlagprävention und -minderung von entscheidender Bedeutung ist.;-;-;-;https://link.springer.com/article/10.1007/s11629-018-5355-x 8a8b2dc99474e65f367a5f5bd1ddc51a;de;;;2.2.;;;Indirekte Auswirkungen von saurem Regen durch Mineralauswaschung: Eine Bewertung der möglichen Rolle der Auswaschung aus dem Blätterdach Das Auslaugen von Kationen, insbesondere von K, Ca und Mg, spielt eine entscheidende Rolle bei den Ionenbeziehungen der Blätter. Als regelmäßiger Bestandteil des biogeochemischen Nährstoffkreislaufs muss der Fluss ausgewaschener Kationen durch eine äquivalente Aufnahme und Translokation ausgeglichen werden. Die Fähigkeit der Pflanze, einen erhöhten Fluss durch saure Ablagerungen einzustellen, bestimmt das Ausmaß und die Dauer der durch Auswaschung induzierten, veränderten Ionenbeziehungen, vor allem innerhalb des apoplastischen Raums. — Grundprinzipien und Auswirkungen der Kationenauswaschung werden vorgestellt, um diese indirekte Wirkung von saurem Regen aufzuklären.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-76473-8_9 3eea68b974a46724d1f909b1c1f77ada;de;;;2.2.;;;Reduzierte Transformationsalgorithmen Hochparallele Rechenmaschinen können sich über eine breite Palette von Designphilosophien unterscheiden, aber alle hängen von einer Form von Raum-Zeit-Parallelität für ihre potenzielle Hochgeschwindigkeits-Rechenkapazität ab. Typischerweise weisen solche Computer eine Sammlung homogener Verarbeitungselemente (Knoten) zusammen mit einem Verbindungsnetzwerk auf und können durch die folgenden Merkmale charakterisiert werden:;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-0205-6_8 f07b74ec1490f752c9f7504760883228;de;;;2.2.;;;Schnelles Zeitintervall-Mining unter Ausnutzung der Transitivität zeitlicher Beziehungen Wir stellen einen Algorithmus namens KarmaLego zur Entdeckung häufiger symbolischer zeitintervallbezogener Muster (TIRPs) vor. Die ermittelten symbolischen Zeitintervalle können Teil der Eingabe sein oder durch einen zeitlichen Abstraktionsprozess aus Rohdaten mit Zeitstempel generiert werden. Der Algorithmus umfasst eine Datenstruktur für die TIRP-Kandidatengenerierung und ein neuartiges Verfahren zur effizienten Kandidaten-TIRP-Generierung unter Ausnutzung der Transitivitätseigenschaft von Allens zeitlichen Beziehungen. Da die eindeutige Definition von TIRPs die Dauer der Zeitintervalle nicht spezifiziert, schlagen wir außerdem vor, die Zeitintervalle basierend auf ihrer Dauer zu gruppieren, um die Varianz der unterstützenden Instanzen zu verringern. Unser experimenteller Vergleich der Laufzeitleistung des KarmaLego-Algorithmus mit mehreren existierenden State-of-the-Art-Methoden für das Muster-Mining von Zeitintervallen zeigte eine signifikante Beschleunigung, insbesondere bei großen Datensätzen und geringer minimaler vertikaler Unterstützung. Darüber hinaus führte das Pre-Clustering nach Zeitintervalldauer zu einer Zunahme der Homogenität der Dauer der Zeitintervallkomponenten der unterstützenden Instanzen der entdeckten TIRPs, begleitet jedoch von einer entsprechenden Abnahme der Anzahl der entdeckten TIRPs.;-;-;-;https://link.springer.com/article/10.1007/s10115-013-0707-x b63f3ea914670f2a74feafb73d360108;de;;;2.2.;;;Ein Framework zur Visualisierung von Association Mining-Ergebnissen Association Mining ist aufgrund der interpretierbaren und umsetzbaren Ergebnisse eine der am häufigsten verwendeten Data-Mining-Techniken. In dieser Studie schlagen wir einen Rahmen vor, um die Assoziations-Mining-Ergebnisse, insbesondere häufige Itemsets und Assoziationsregeln, als Diagramme zu visualisieren. Wir demonstrieren die Anwendbarkeit und Nützlichkeit unseres Ansatzes durch eine Market Basket Analysis (MBA)-Fallstudie, in der wir die Data-Mining-Ergebnisse für einen Supermarkt-Datensatz visuell untersuchen. In dieser Fallstudie leiten wir einige interessante Erkenntnisse über die Beziehungen zwischen den Artikeln ab und schlagen vor, wie diese als Entscheidungsgrundlage im Handel verwendet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/11902140_63 8e19a7000b869a7229d62a5dbb6d62b2;de;;;2.2.;;;Optimierung der Suchergebnisse In diesem Papier stellen wir eine Technik zur Optimierung der Suchergebnisse vor, die als Reaktion auf die Anfrage eines Endbenutzers erhalten werden. Bei der enormen Datenmenge im Web ist es relativ einfach, übereinstimmende Dokumente zu finden, die die angegebenen Suchbegriffe enthalten. Der schwierige Teil besteht darin, aus den möglichen unzähligen passenden Seiten die beste auszuwählen. Darüber hinaus schneiden die meisten Websuchmaschinen bei einer einzelnen Keyword-Abfrage sehr gut ab, aber bei mehreren Begriffen nicht. In diesem Artikel schlagen wir unter Verwendung des Konzepts von Meta-Suchmaschinen einen geeigneten Algorithmus zur Verarbeitung und Optimierung von Suchanfragen vor, um das bestmögliche Ergebnis für Keywords mit mehreren Begriffen in der Rangfolge zu erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22606-9_34 cc7ccc0ed5209f50b9fedfe9b54e9853;de;;;2.2.;;;Analyse der Herz-Lungen-Funktion bei Patienten mit Speiseröhrenkrebs vor der Operation In Westeuropa macht Speiseröhrenkrebs 5 % aller gastrointestinalen Malignome aus und tritt am häufigsten bei Männern über 40 Jahren auf. In 80% der Fälle befindet sie sich im mittleren und unteren Teil der Speiseröhre. Die Überprüfung aller verfügbaren Statiken zeigten, dass bei 84000 Patienten, die sich einer interponierten Operation der Speiseröhre unterzogen, die perioperative Letalität 29% ±16% betrug.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-86432-2_56 9b21926575ff1a05b4760d2e416ae10d;de;;;2.2.;;;Das aktuelle Interesse an orthomodularen Gittern Alle veröffentlichten Arbeiten zur orthomodularen Gittertheorie sind innerhalb der letzten fünfzehn Jahre erschienen, nicht mehr als dreißig Personen haben jemals daran gearbeitet, nicht mehr als fünfzig Arbeiten, die sich explizit damit beschäftigen, sind jemals erschienen: Die orthomodulare Gittertheorie ist also eine neu entdeckte sehr kleine Ecke der Mathematik.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-1795-4_25 613a4d7380b82357e3e97bf2345e7520;de;;;2.2.;;;Transmissionselektronenmikroskopische Beobachtungen von Illit-Polytypismus Transmissionselektronenmikroskopie (TEM), einschließlich Selected Area Electron Diffraction (SAED), wurde verwendet, um Polytypen in Illit, Phengit und Muskovit aus Proben zu identifizieren, die ein breites Spektrum an Diagenese und Tieftemperaturmetamorphose repräsentieren. Zu den Proben gehören Sedimente der Golfküste, Sedimente aus der Salton Sea-Region, Kalifornien, die Martinsburg-Formation bei Lehigh Gap, Pennsylvania, die Kalkberg-Formation bei Catskill, New York, Otago Schiefer aus dem Süden Neuseelands, Pelite von der Gaspé-Halbinsel in Quebec, Kanada, Schiefer und Schiefer aus Wales, Sedimente aus dem Akkretionskomplex von Barbados und synthetischer hydrothermaler Illit.;-;-;-;https://link.springer.com/article/10.1346/CCMN.1991.0390509 169b234e3fa3e2dbe174be2973bbb961;de;;;2.2.;;;Design und Implementierung des Application Service Systems basierend auf Sensornetzwerken In diesem Beitrag werden wir uns mit dem Design und der Implementierung von Anwendungsdienstsystemen auf der Grundlage von Sensornetzen befassen. Als Komponenten des Anwendungsdienstsystems betrachten wir Middleware und ihre Anwendungsdienste. Es gibt 4 Modulkataloge, die auf der anderen Seite aus Middleware bestehen, Abfrageverarbeitungsmodul zur Bearbeitung der Anfragen vom Anwendungsdienstsystem, Steuermodul zur Steuerung und Verwaltung von Metadaten, Modul zur Verbindung mit Sensorknoten und API-Lösung zur Unterstützung solution Dienst des Benutzers. Basierend auf der implementierten Middleware wird in der höheren Systemebene ein Systemverwaltungsdienst, ein Steuerdienst und ein Abfrageverarbeitungsdienst entsprechend aufgetretenen Ereignissen sowie ein Verwaltungs- und Speicherdienst zum Erfassen von Daten implementiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22333-4_61 29a871a306962fe5dabaaeae07435f83;de;;;2.2.;;;Aufbau massiver Rechenzentren der nächsten Generation Das Design der Rechenzentrumsinfrastruktur hat in letzter Zeit sowohl von Hochschulen als auch von der Industrie ein erhebliches Forschungsinteresse gefunden, nicht zuletzt aufgrund der wachsenden Bedeutung von Rechenzentren für die Unterstützung und Aufrechterhaltung der schnell wachsenden webbasierten Anwendungen einschließlich der Suche (z. B. Google, Bing), Hosting und Verteilung von Videoinhalten (z. B. YouTube, NetFlix), soziale Netzwerke (z. B. Facebook, Twitter) und umfangreiche Berechnungen (z. B. Data Mining, Bioinformatik, Indexierung).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23948-9_2 caa7d9c99c97c1ea3c430f1d8f0d5204;de;;;2.2.;;;Mehrere stellare Systeme Mit dem Radialgeschwindigkeitsscanner CORAVEL am Observatorium der Haute-Provence wird seit 1977 eine spektroskopische Untersuchung visueller Doppelsterne mit bekannten Orbitalelementen durchgeführt (Baranne, Mayor, Poncet, 1979). Diese Untersuchung von mehr als 100 visuellen Systemen, ausgewählt aus dem Katalog von Dommanget (1967) (siehe auch eine Neuauflage 1982), war zunächst der Bestimmung von Sternmassen gewidmet. Mehrere Mehrfachsysteme wurden entdeckt und haben auch eine Untersuchung der Struktur von Tripelsystemen ermöglicht. Wir haben insbesondere eine Klasse von Tripelsystemen mit radialen Geschwindigkeitsschwankungen kleiner Amplitude entdeckt und vermessen. Unter Ausnutzung der hohen Auflösung und des hohen Signal-Rausch-Verhältnisses, die mit der Kreuzkorrelationstechnik zugänglich sind, werden solche radialen Geschwindigkeitskurven mit kleiner Amplitude manchmal nur durch die Änderung der Breite und Form der Kreuzkorrelationsfunktion abgeleitet. Erinnern wir uns daran, dass die cc-Funktion eines SB2 (oder SB3) Systems nur die gewichtete Summe der einzelnen cc-Funktionen ist (Mayor, 1985). Diese Eigenschaft der Kreuzkorrelation in Kombination mit der Linearität des Detektors ermöglicht eine sehr einfache Analyse von Blended Dips. Die volle Breite der Kreuzkorrelationsneigung in halber Tiefe beträgt etwa FWHD = 16 km/s (ohne merkliche Rotation).;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-9433-7_87 892a5538c71e8bbeedaaef530869cd21;de;;;2.2.;;;Algorithmen und Anwendungen Dieses Kapitel konzentriert sich auf die Berechnungsalgorithmen und gibt Details zur Implementierung. In Kap. In 4 haben wir diskrete Ricci-Ströme basierend auf verschiedenen Schemata diskutiert. Der Einfachheit halber geben wir hier nur den Algorithmus an, der auf dem Schema der inversen Distanzkreispackung basiert. Die Algorithmen für die diskrete Oberflächen-Ricci-Strömung basierend auf allen anderen Schemata sind sehr ähnlich. Außerdem veranschaulichen wir die Details für den euklidischen diskreten Oberflächen-Ricci-Fluss. Die Ricci-Strömungsalgorithmen für hyperbolische diskrete Oberflächen sind fast identisch, außer dass die planare euklidische Geometrie durch hyperbolische Geometrie ersetzt wird. Eine sphärische Oberflächenkartierung kann durch den euklidischen Ricci-Fluss unter Verwendung der inversen stereographischen Projektion der planaren Karte erhalten werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-8781-4_5 6ec3d13ceba53308f2c4870369588e9f;de;;;2.2.;;;Redundanzfilterung und Fusionsüberprüfung zur Erkennung von Videokopien In letzter Zeit bietet das auf Frame-Fusion basierende Videokopie-Erkennungsschema eine Möglichkeit, Kopien in einem kontinuierlichen Abfrage-Videostrom zu erkennen. Seine Rechenkomplexität ist jedoch hoch, da eine große Menge an zurückgegebenen Referenzframes von einigen Referenzclip-Rekonstruktionsverfahren gehandhabt werden muss. Außerdem verschlechtern dichte Rahmenabtaststrategien, die allgemein zur Verbesserung der Kopienlokalisierungsgenauigkeit verwendet werden, nicht nur die Recheneffizienz weiter, sondern führen aufgrund der Inhaltsredundanz zwischen den Rahmen auch zu viel mehr Fehlalarmen. Um die obigen Probleme zu mildern, wird ein neues Schema vorgeschlagen, um die Leistung der auf Frame-Fusion basierenden Videokopieerkennung sowohl hinsichtlich der Effizienz als auch der Effektivität zu verbessern. Insbesondere wird die kontinuierliche Ähnlichkeitseigenschaft zwischen benachbarten Frames gelernt, um den Entwurf eines Smart-Frame-Filterverfahrens zu leiten, um die Redundanz zwischen Frames stark zu reduzieren. Dann werden zwei effektive Pfadverifizierungsschemata untersucht, die eine Cross-Clip-Verifizierungsstrategie verwenden, um Fehlalarme zu entfernen. Die umfangreichen Experimente zeigen, dass das vorgeschlagene Schema die Erkennungsgenauigkeit des Basislinien-Rahmenfusionsschemas bemerkenswert verbessert und eine vergleichbare Lokalisierungsgenauigkeit liefert.;-;-;-;https://link.springer.com/article/10.1007/s00530-014-0398-5 22e54f5bac4ef17628826897ad93a50d;de;;;2.2.;;;Vermehrung von CR-Kernen: Unsere Ergebnisse Hadronen sind die am häufigsten vorkommenden Teilchen des CR-Flusses und es ist natürlich, mit dieser dominanten Komponente zu beginnen. In diesem Kapitel werde ich beschreiben, wie man ein CR-Ausbreitungsmodell erstellt, welche Annahmen bezüglich des Quellterms, der Gasverteilung und anderer astrophysikalischer Inputs notwendig sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29949-0_4 49ada31b8107baecabfc09299c091e6a;de;;;2.2.;;;Robuste Handschriftextraktion und Zusammenfassung von Vorlesungsvideos In der E-Learning-Forschung können Lehrende Vorlesungsvideos in E-Class aufnehmen und diese Vorlesungsvideos selbst in das E-Learning-System hochladen. Sobald Vorlesungsvideos und Handouts im traditionellen Klassenzimmer automatisch generiert werden können, kann es Schülern beim Selbstlernen und Lehrern bei der Entwicklung von Vorlesungsinhalten für E-Learning-Dienste helfen. In diesem Papier wurde ein auf Computer Vision basierendes Lehrassistenzsystem vorgeschlagen, das bei der Inhaltsentwicklung für E-Learning-Dienste helfen kann. Vorlesungsvideos werden mit zwei Kameras aufgenommen und auf beiden Seiten zusammengeführt, sodass die Studierenden einen klaren und vollständigen Lehrinhalt sehen können. Die k-means-Segmentierung wird verwendet, um die Platinenfläche zu extrahieren, und dann hilft die Technik der verbundenen Komponenten, die Platinenfläche wieder aufzufüllen, die vom Körper des Dozenten abgedeckt wird. Dann verwenden wir den adaptiven Schwellenwert, um Handschriften bei verschiedenen Lichtverhältnissen zu extrahieren, und die Zeitreihen-Entrauschungstechnik wurde entwickelt, um das Rauschen zu reduzieren. Nach extrahierten Handschriften können die Vorlesungsvideos automatisch mit hohem Semantik-Niveau strukturiert werden. Die Vorlesungsvideos werden in Videoclips segmentiert und alle Keyframes als Handouts der Lehrvideos integriert.;-;-;-;https://link.springer.com/article/10.1007/s11042-016-3353-y de7fcd5cf006c4983cbe8fc4b20b4816;de;;;2.2.;;;Präzises und effizientes Abrufen von Multimedia-Zeitreihendaten unter einheitlicher Skalierung und Time Warping In diesem digitalen Zeitalter hat sich das Interesse auf multimediale Datenmanipulationen verlagert. Dazu gehören Videos, Bilder und Audios, bei denen typische Manipulationen ziemlich viel Speicherplatz erfordern und rechenintensiv sind. Jüngste Forschungen haben die Nützlichkeit der Zeitreihendarstellung bei verschiedenen Data-Mining-Aufgaben gezeigt, was eine erhebliche Reduzierung der Zeit- und Raumkomplexität ermöglicht. Insbesondere hat sich gezeigt, dass die Dienstprogramme Uniform Scaling (US) und Dynamic Time Warping (DTW) in mehreren menschbezogenen Bereichen notwendig sind, in denen eine gleichmäßige Dehnung oder Schrumpfung sowie einige lokale Variationen typisch sind. Klassische Beispiele sind ein Abfrage-durch-Summen-System und Bewegungserfassungsdaten. Alle bisherigen Arbeiten haben jedoch die Bedeutung der Datennormalisierung vor Entfernungsberechnungen vernachlässigt und garantieren daher keine genauen Abrufe. In dieser Arbeit diskutieren wir dieses Anliegen und stellen eine Technik vor, die in den USA mit DTW genau und effizient nach normalisierten Zeitreihendaten sucht, bei denen keine falschen Entlassungen garantiert sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68125-0_11 00fa70d865da7dfd4a020a7b6c97feb6;de;;;2.2.;;;Implementieren und Optimieren einer feingranularen Sperrverwaltung für XML-Dokumentenbäume Feinkörnige Sperrprotokolle mit Sperrmodi und Sperrgranulaten, die an die verschiedenen XML-Verarbeitungsmodelle angepasst sind, ermöglichen eine hochgradig gleichzeitige Transaktionsverarbeitung auf XML-Bäumen, erfordern jedoch Sperrfunktionen, die große und tiefe Hierarchien mit unterschiedlichen Auffächerungseigenschaften effizient unterstützen. Wir diskutieren diese und weitere Anforderungen wie präfixbasierte Node-Labels und präsentieren ein Lock-Management-Design, das all diese Anforderungen erfüllt und es uns ermöglicht, die Vorteile unserer maßgeschneiderten Lock-Protokolle für XML-Bäume perfekt auszuschöpfen. Unser Design unterstützt auch den flexiblen Einsatz von Heuristiken für die dynamische Sperreneskalation, um die Workload-Anpassung zu verbessern. Benchmark-Läufe veranschaulichen überzeugend die Flexibilitäts- und Leistungsvorteile dieses Ansatzes und zeigen, dass sich eine sorgfältige Optimierung des Sperrprotokolls auszahlt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00887-0_56 5db01fed2b914f7c4ce77af32c9b454f;de;;;2.2.;;;Clustering mit interner Verbundenheit In diesem Papier untersuchen wir das Problem der Clusterbildung von Entitäten, die durch zwei Arten von Daten beschrieben werden: Attributdaten und Beziehungsdaten. Während Attributdaten die inhärenten Eigenschaften der Entitäten beschreiben, repräsentieren Beziehungsdaten Assoziationen zwischen ihnen. Attributdaten können auf den euklidischen Raum abgebildet werden, während dies für die Beziehungsdaten nicht immer möglich ist. Die Beziehungsdaten werden durch einen Graphen über den Scheitelpunkten mit Kanten beschrieben, die die Beziehung zwischen den Paaren von Elementen angeben, die sie verbinden. Wir untersuchen Clustering-Probleme im Rahmen des Modells, bei dem die Beziehungsdaten durch „interne Verbundenheit“ eingeschränkt sind, was erfordert, dass zwei beliebige Entitäten in einem Cluster durch einen internen Pfad verbunden sind, d. Wir studieren die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19094-0_17 4341c375f7c13fe7ce2f99a252839e8a;de;;;2.2.;;;Beitrag zur Untersuchung der Meeresflora und -vegetation der N-Sporaden-Inseln (Kira Panagia und Piperi), Ägäis, Griechenland Die Meeresflora und -vegetation der kleinen Wüsteninseln Kira Panagia und Piperi NNN von Alonissos, Ägäis, Griechenland wurden untersucht, um einen Meerespark zum Schutz der Mittelmeerrobbe (;-;-;-;https://link.springer.com/article/10.1007/BF02428509 82c180b3c01fc43a4397fbf0bd115811;de;;;2.2.;;;Generalisierte Kommunikation kosteneffiziente räumliche Mehrwegeverbindung: den Fluch des letzten Reduzierers überdenken Mit der enormen Zunahme der Nutzung von Smart Mobiles, Social Media und Sensoren stehen große Mengen an ortsbezogenen Daten zur Verfügung. Standortbezogene Daten enthalten wichtige Signale in Bezug auf nutzerintensive Informationen sowie Bevölkerungsmerkmale. Das wichtigste Analysewerkzeug für die standortbasierte Analyse ist die räumliche Mehrwegeverbindung. Im Gegensatz zu herkömmlichen Join-Strategien bietet der Multi-Way-Join mit Map-Reduce ein skalierbares, verteiltes Rechenparadigma und eine effiziente Implementierung durch Strategien zur Reduzierung der Kommunikationskosten. Controlled Replicate (C-Rep) ist eine nützliche Strategie, die in der Literatur verwendet wird, um die räumliche Mehrwegeverbindung effizient durchzuführen. Obwohl die C-Rep-Leistung im Vergleich zu naiven sequentiellen Verknüpfungen überlegen ist, zeigt eine sorgfältige Analyse ihrer Leistung, dass eine solche Strategie vom Fluch des letzten Reduzierers geplagt wird, bei dem die in den Datensätzen und die durch die Replikationsoperation eingeführte Schiefe verursacht einige der Reduzierstücke brauchen im Vergleich zu anderen viel länger. In dieser Arbeit entwerfen wir einen Algorithmus GEMS (;-;-;-;https://link.springer.com/article/10.1007/s10707-019-00387-6 01e70029c9b361b2a19ed79068f8e1ad;de;;;2.2.;;;Ein adaptiver Ansatz zur Darstellung von Bildinhalten und Segmentierung für die automatische Bildanmerkung Die automatische Bildannotation wurde in letzter Zeit intensiv für den inhaltsbasierten Bildabruf untersucht. In diesem Beitrag schlagen wir einen neuartigen Ansatz zur automatischen Bildannotation vor, der auf zwei Schlüsselkomponenten basiert: (a) einer adaptiven visuellen Merkmalsdarstellung von Bildinhalten basierend auf passenden Verfolgungsalgorithmen und (b) einer adaptiven Zwei-Ebenen-Segmentierungsmethode. Sie werden verwendet, um die wichtigen Fragen der Segmentierung von Bildern in sinnvolle Einheiten und der Darstellung des Inhalts jeder Einheit mit unterscheidenden visuellen Merkmalen zu behandeln. Anhand eines Satzes von etwa 800 Trainings- und Testbildern vergleichen wir diese Techniken beim Bildabruf mit anderen gängigen Segmentierungsschemata und traditionellen nicht-adaptiven Merkmalsdarstellungsmethoden. Unsere vorläufigen Ergebnisse zeigen, dass der vorgeschlagene Ansatz andere konkurrierende Systeme übertrifft, die auf dem beliebten Blobworld-Segmentierungsschema und anderen vorherrschenden Methoden zur Merkmalsdarstellung wie DCT und Wavelets basieren. Insbesondere erreicht unser System ein F1-Maß von über 50 % für die Bildannotationsaufgabe.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27814-6_64 8bda8126417969d5843d9500381440fe;de;;;2.2.;;;STRICT: Eine Plattform zum Abrufen von Bildern für Abfragen basierend auf regionalen Inhalten In diesem Beitrag wird ein CBIR-System vorgestellt, das auf einer segmentierten Darstellung von Bildinhalten basiert. Es vergleicht regionale Merkmale unter Verwendung von Fuzzy-Ähnlichkeit, die sich als psychologisch intuitiv erwiesen haben. Wir zeigen, dass sie aggregiert werden können, um vier verschiedene Arten von ursprünglichen Abfragen zu unterstützen. Das System unterstützt auch Wettbewerbsabfragen, um verschiedene visuelle Vergleichsmaße zu testen, und lässt den erfahrenen Benutzer die Parameter der beteiligten Funktionen manipulieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27814-6_56 c7d33dc558aa3f0ec9d35b080f799d07;de;;;2.2.;;;Eine Studie zur Methode des Verschlüsselungsschemas zur Unterstützung der Bereichsabfrage basierend auf der Bucket-ID-Transformation über Sensoranwendungen Verschlüsselung ist eine etablierte Technologie zum Schutz sensibler Daten. Leider verursacht die Integration bestehender Verschlüsselungstechniken mit Datenbanksystemen eine unerwünschte Leistungsverschlechterung. Wir schlagen die Bucket-ID-Transformation vor, die Bereichsabfragen unterstützt, ohne die Reihenfolge des Klartexts offenzulegen. Die Bucket-ID-Transformation wird durch Modulo-Arithmetik oder Pseudo-Zufallszahlenerzeugung durchgeführt. Dieses Verfahren ist leistungsfähiger als die vorherigen ordnungserhaltenden Verfahren und soll Daten effizienter handhaben als andere Verfahren, einschließlich des Hilfsbaums B+. Die Versuchsergebnisse zeigen, dass unser Schema andere Methoden in Bezug auf Verschlüsselung und Abfragegeschwindigkeit übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23141-4_29 bd5ec5bad7ffdb1cffbe17aa5d1162dc;de;;;2.2.;;;Probabilistic Inverse Ranking-Abfragen zu unsicheren Daten Die Abfrageverarbeitung in der unsicheren Datenbank ist aufgrund der breiten Existenz unsicherer Daten in vielen realen Anwendungen immer wichtiger geworden. Anders als bei der Verarbeitung präziser Daten muss die Verarbeitung unsicherer Abfragen die Datenunsicherheit berücksichtigen und Abfragen mit Vertrauensgarantien beantworten. In diesem Beitrag formulieren und behandeln wir eine wichtige Frage, nämlich;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00887-0_4 5ca4fd2b835ad270342b59938c1e933f;de;;;2.2.;;;VST-Floyd: Ein Trennlogik-Tool zur Überprüfung der Korrektheit von C-Programmen Die Verified Software Toolchain erstellt grundlegende maschinengeprüfte Nachweise der funktionalen Korrektheit von C-Programmen. Seine Programmlogik, Verifiable C, ist eine flach eingebettete Hoare-Trennlogik höherer Ordnung, die sich in Coq in Bezug auf die operationelle Semantik von CompCert Clight als solide erwiesen hat. In diesem Artikel wird VST-Floyd vorgestellt, ein Verifikationsassistent, der eine Reihe halbautomatischer Taktiken bietet, die Benutzern helfen, funktionale Korrektheitsbeweise für C-Programme mit Verifiable C zu erstellen.;-;-;-;https://link.springer.com/article/10.1007/s10817-018-9457-5 7d07e3416430c48e9a368dfed66597da;de;;;2.2.;;;Ein schneller und effektiver Dichotomie-basierter Hash-Algorithmus für den Bildabgleich Die Mehrfachansicht-Korrespondenz des Bildabgleichs mit breiter Basislinie ist immer noch eine Herausforderung in der Computervision. Es gibt zwei Hauptschritte beim Umgang mit Korrespondenzproblemen: Merkmalsbeschreibung und Ähnlichkeitssuche. Der wohlbekannte SIFT-Deskriptor ist ein Deskriptor nach dem Stand der Technik, der unter Transformation, großen Änderungen, Rauschen und sogar kleinen Blickpunktänderungen eine charakteristische Invariante beibehalten kann. Dieses Papier verwendet den SIFT als Merkmalsdeskriptor und schlägt einen neuen Suchalgorithmus für die Ähnlichkeitssuche vor. Die vorgeschlagene Dichotomie-basierte Hash-Methode (DBH) schneidet besser ab als der weit verbreitete BBF-Algorithmus (Best Bin First) und auch besser als LSH (Local Sensitive Hash). Der DBH-Algorithmus kann in verschiedenen Arten von Bildpaaren mit Drehung, Skalierung, Rauschen und schwachen affinen Änderungen ein viel höheres (1-Präzision)-Erinnerungsverhältnis erzielen. Experimentelle Ergebnisse zeigen, dass DBH offensichtlich die Suchgenauigkeit in kürzerer Zeit verbessern und ein besseres grobes Übereinstimmungsergebnis erzielen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89639-5_32 296087b84f0ffd0315f2b24f53a4a615;de;;;2.2.;;;Die Bedeutung der baumnahen Grammatik für die Generation Grammatikalische Formalismen können als verständnis- bzw. generierungsneutral angesehen oder auf ihre Verständlichkeits- bzw. Generierungseignung hin untersucht werden. Tree Adjoining Grammars (TAG) ist ein Formalismus, der Rekursion und Abhängigkeiten in besonderer Weise berücksichtigt, was zu einer Art Lokalität und der Möglichkeit der inkrementellen Generierung führt. Wir werden die Relevanz dieser Eigenschaften aus der Sicht der Satzbildung untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-3645-4_16 786575a1840443fa1645ae219cbeaab5;de;;;2.2.;;;Schreibsequenz nach Hetero-Puffer neu anordnen, um die Lebensdauer der SSD zu verlängern Die begrenzte Lebensdauer ist die Achillesferse von Solid State Drives (SSDs) auf Basis von NAND-Flash. NAND-Flash hat zwei Nachteile, die die Lebensdauer von SSDs beeinträchtigen. Eine davon ist das fehl am Platz befindliche Update. Eine andere ist die Einschränkung des sequentiellen Schreibens innerhalb eines Blocks. SSDs verwenden normalerweise Schreibpuffer, um ihre Lebensdauer zu verlängern. Bestehende Schreibpuffer-Schemata beachten jedoch nur den ersten Nachteil, während sie den zweiten vernachlässigen. Wir schlagen eine Hetero-Puffer-Architektur vor, die beide Aspekte gleichzeitig abdeckt. Der Heteropuffer besteht aus zwei Komponenten, einem dynamischen Speicher mit wahlfreiem Zugriff (DRAM) und dem Neuordnungsbereich. DRAM ist bestrebt, den Schreibverkehr so ​​weit wie möglich zu reduzieren, indem eine höhere Trefferquote angestrebt wird (den ersten Nachteil überwinden). Der Neuordnungsbereich konzentriert sich auf die Neuordnung der Schreibsequenz (überwindet den zweiten Nachteil). Unser Hetero-Puffer übertrifft herkömmliche Schreibpuffer aus zwei Gründen. Erstens kann der DRAM eine bestehende überlegene Cache-Ersetzungs-Politik übernehmen und erreicht somit eine höhere Trefferquote. Zweitens ordnet der Heteropuffer die Schreibsequenz neu, was von herkömmlichen Schreibpuffern nicht ausgenutzt wurde. Neben den oben genannten Optimierungen berücksichtigt unser Hetero-Puffer die Arbeitsumgebung des Schreibpuffers, die auch von herkömmlichen Schreibpuffern vernachlässigt wird. Auf diese Weise wird der Heteropuffer weiter verbessert. Die Performance wird über Trace-getriebene Simulationen bewertet. Experimentelle Ergebnisse zeigen, dass SSDs, die den Hetero-Puffer verwenden, bei den meisten Workloads eine längere Lebensdauer überleben.;-;-;-;https://link.springer.com/article/10.1007/s11390-013-1309-5 c281ebbd6fe49d1756f9082a1e138ebc;de;;;2.2.;;;Abwechselnde Feature-Spaces im Relevanz-Feedback Das Abrufen von Bildern unter Verwendung von Relevanz-Feedback kann als zweistufiger Lern- und Klassifizierungsprozess behandelt werden. Die vom Benutzer gekennzeichneten relevanten und irrelevanten Bilder werden als positive und negative Trainingsmuster betrachtet, auf deren Grundlage ein Klassifikator dynamisch trainiert wird. Dann klassifiziert der Klassifikator wiederum alle Bilder in der Datenbank. In der Praxis ist die Anzahl der Trainingsproben sehr gering, da die Benutzer oft ungeduldig sind. Andererseits sind die positiven Proben in der Regel nicht repräsentativ, da sie der Abfrage am nächsten sind und daher weniger aussagekräftig sind. Die Unzulänglichkeit von Trainingsproben sowohl in Bezug auf die Menge als auch auf die Varietäten schränkt die Generalisierungsfähigkeit des Klassifikators erheblich ein. In diesem Beitrag schlagen wir einen neuartigen Relevanz-Feedback-Ansatz vor, der darauf abzielt, repräsentativere Stichproben zu sammeln und somit die Leistung des Klassifikators zu verbessern. Bildkennzeichnung und Klassifikatortraining werden in zwei komplementären Bildmerkmalsräumen durchgeführt. Da sich die Proben in zwei Räumen unterschiedlich verteilen, können die positiven Proben in einem Merkmalsraum informativer sein als in einem anderen. Die beiden komplementären Merkmalsräume werden während des Rückkopplungsprozesses iterativ abgewechselt. Um geeignete komplementäre Merkmalsräume auszuwählen, stellen wir zwei Methoden vor, um die Komplementaritäten zwischen zwei Merkmalsräumen quantitativ zu messen. Unser experimentelles Ergebnis mit 10.000 Bildern zeigt, dass der vorgeschlagene Feedback-Ansatz die Bildabrufleistung erheblich verbessert.;-;-;-;https://link.springer.com/article/10.1023/A%3A1025030131788 9c11c4861d4ab9c0823ea6882ec6e4f8;de;;;2.2.;;;Crossover und Überlegenheit als Links-Rechts-Bewertung erklären Wir präsentieren eine allgemeine Theorie des Geltungsbereichs und der Bindung, in der sowohl Überschneidungs- als auch Überlegenheitsverletzungen durch eine wichtige Annahme ausgeschlossen werden: dass natürlichsprachliche Ausdrücke normalerweise von links nach rechts bewertet (verarbeitet) werden. Unsere Theorie ist eine Erweiterung von Shan (2002);-;-;-;https://link.springer.com/article/10.1007/s10988-005-6580-7 160114d1297a17f04cb28e0b0e0827ef;de;;;2.2.;;;Optische Fasersensoren: Optische Quellen Das umfangreiche Angebot an faseroptischen Sensoren stellt erhebliche Anforderungen an die verwendete Beleuchtung (und die zugehörigen Detektoren) und eine Vielzahl von optischen Quellen kann verwendet werden, um diese Sensorvorrichtungen mit Energie zu versorgen. Beispielsweise ist bei den einfachsten Typen optischer Sensoren, wie denen, die Blendenanordnungen verwenden [1], die Auswahl der am besten geeigneten Beleuchtungsart relativ einfach aufgrund der begrenzten Beschränkungen, die der Natur der Quelle selbst unterliegen. Im Gegensatz dazu besteht bei verteilten Lichtleitfasersensoren mit Zeitbereichsreflektometrie [2] der Bedarf an einem Lichtstrahl, der nur von hochentwickelten Kurzpuls-Hochleistungslasern verfügbar ist, und insbesondere spektroskopische Sensoren erfordern eine hohe spektrale Helligkeit, um effektiv zu sein [3 ].;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-6081-1_7 d827a30398367394372d47ec2f5a4771;de;;;2.2.;;;Geologische Kontrolle von schweren ausgedehnten Tonschäden an einer Unterteilung im Pierre Shale, Metropolitan Area Southwest Denver, Colorado Kurz nach dem Bau einer Unterteilung im südwestlichen Denver-Metropolgebiet im Jahr 1986 begann ein Teil der Unterteilung, die direkt auf steil abfallenden Schichten des Pierre-Schiefers gebaut wurde, schädliche Differenzbewegungen zu erfahren, die dazu führten, dass Hausfundamente versagten und Bürgersteige sich verzogen und rissen. Diese Formation ist ein mariner Tonschiefer der späten Kreidezeit, der überwiegend aus fluvialen Mischschicht-Illit/Smektit und Quarz besteht. Während der Ablagerung des Schiefers erzeugte periodischer und explosiver Vulkanismus dünne Bentonitschichten, die zunächst aus Vulkanasche bestanden und anschließend zu fast reinem Smektit umgewandelt wurden. Einige dieser Bentonitschichten wurden in einem Graben neben der Unterteilung und senkrecht zum Streichen der steil abfallenden Schichten freigelegt. Die dicksten Bentonitschichten korrelierten gut mit linearen Hebungsmerkmalen, dass diese Schichten in der gesamten Unterteilung parallel zum Streichen des Grundgesteins verlaufen und über stark verformte Fahrbahnen kartiert wurden. Mineralogische Daten zeigen, dass das Bentonitbett, das mit dem schlimmsten Schaden innerhalb der Unterteilung korreliert, aus etwa 62 Gew.-% Smektit mit einer Mischschicht-Illit/Smektit-Expandierbarkeit von 92 % besteht. Im Vergleich dazu hatte eine Probe des typischen schluffigen Tonsteins, bei dem es sich um fluviatiles Mischschicht-Illit/Smektit, gemischt mit detritischem Quarz aus den angrenzenden Schichten handelt, etwa 23 Gew.-% Smektit mit 70 bis 90 % Illit/Smektit-Expandierbarkeit. Geotechnische Tests zum Quellpotenzial zeigen, dass Proben von 2 Bentonitbetten 39 % bis 43 % anschwellen, verglichen mit 2 bis 8 % bei Proben des typischen schluffigen Tonsteins. Es wird vermutet, dass unterschiedliche Dünungen, die aus stratigraphisch kontrollierten Unterschieden in der Tonmineralogie und Korngröße resultieren, der primäre Faktor sind, der extreme Schäden in dieser geologischen Umgebung kontrolliert.;-;-;-;https://link.springer.com/article/10.1346/CCMN.1996.0440412 d5b852e0baf6eca36f65cca71126fee5;de;;;2.2.;;;Erneuerbare-Energien-bewusste Rechenzentren: Das Problem der Kontrolle der Anwendungs-Workload Rechenzentren sind leistungsstarke Einrichtungen, die darauf abzielen, IKT-Dienste zu hosten. Sie haben einen enormen Bedarf an Stromversorgung, zudem geht der aktuelle Trend dahin, die Nutzung erneuerbarer Energien gegenüber braunen Energien zu priorisieren. Erneuerbare Energien neigen dazu, zeitlich sehr variabel zu sein (z. B. Solarenergie), und daher versuchen Algorithmen, die auf erneuerbare Energien achten, die in den Rechenzentren laufenden Anwendungen entsprechend zu planen. Eines der Hauptprobleme besteht jedoch darin, dass meist nur sehr wenige Informationen über die in Rechenzentren laufenden Anwendungen bekannt sind. Genauer gesagt benötigen wir mehr Informationen über die aktuelle und geplante Arbeitsbelastung einer Anwendung und die Toleranz dieser Anwendung für eine Neuplanung ihrer Arbeitsbelastung. In diesem Papier werden wir zunächst das Problem des Verstehens, Aufbauens von Informationen und schließlich der Kontrolle der von Anwendungen erzeugten Last untersuchen. Zweitens werden wir Lösungsansätze für dieses Problem vorschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55149-9_2 acbb3af64eafd7e3ea19c0100dd65d71;de;;;2.2.;;;Abdeckungslose Bildsteganographie ohne Einbettung Die traditionellen Bildsteganographie-Technologien bezeichnen ein Titelbild und betten geheime Daten darin ein, um das Stego-Bild zu bilden. Die durch die Einbettung verursachten Modifikationsspuren bleiben jedoch im Titelbild zurück, was eine erfolgreiche Steganalyse ermöglicht. Um dieses Problem grundlegend anzugehen, schlägt dieser Artikel ein neuartiges Bildsteganographie-Framework vor, das als deckellose Bildsteganographie bezeichnet wird und das nicht das vorgesehene Titelbild zum Einbetten der geheimen Daten verwenden muss. In diesem Rahmen wird eine Reihe von geeigneten Originalbildern, die bereits die geheimen Daten enthalten, direkt aus einer aufgebauten Datenbank ausgewählt und diese Originalbilder können als die Stego-Bilder angesehen werden. Zuerst wird eine Anzahl von Bildern gesammelt, um die Datenbank aufzubauen, und diese Bilder werden entsprechend ihrer Hash-Sequenz indiziert, die durch einen robusten Hashing-Algorithmus erzeugt wird. Dann werden die geheimen Daten in eine Bitfolge umgewandelt und in eine Anzahl von Segmenten unterteilt. Um das Information Hiding zu implementieren, werden die Bilder, deren Hash-Sequenzen die gleichen wie die Segmente sind, aus der Datenbank als die Stego-Bilder ausgewählt. Experimentelle Ergebnisse zeigen, dass das vorgeschlagene abdeckungslose Bild-Steganographie-Framework den bestehenden Steganalyse-Tools widerstehen kann und eine wünschenswerte Robustheit gegenüber den typischen Bildangriffen wie Neuskalierung, Luminanzänderung und Rauschen aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27051-7_11 83b221d70d09a0dee0346aaab33086bb;de;;;2.2.;;;Brandwetterklimatologie in Kanada und Russland Der boreale Wald oder Taiga dominiert als Vegetationstyp in den nördlichen zirkumpolaren Ländern und bedeckt mehr als 12 Millionen Quadratkilometer, hauptsächlich in Russland und Kanada, mit geringeren Mengen in Skandinavien, China und den Vereinigten Staaten (Alaska). Die boreale Zone liegt im Allgemeinen zwischen 45 ° und 70 ° nördlicher Breite und macht etwa 25 % der Waldfläche der Welt aus Länder. Waldbrände sind die größte Störung in der borealen Zone, da sich boreale Arten über Jahrtausende an großflächige Naturbrände angepasst haben, bis zu dem Punkt, an dem Feuer im Allgemeinen für eine angemessene Artenregeneration erforderlich ist. Im Großen und Ganzen betrachtet, ist der boreale Wald ein unregelmäßiges Mosaik aus gleichaltrigen, feuerbedingten Beständen und ein klassisches Beispiel für ein feuerabhängiges Ökosystem, das in Zeiten extremen Feuerwetters die große , hochintensive, standersetzende Waldbrände, die für seine Existenz verantwortlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-8737-2_44 7ebabde5fcb44add54944e1dff87c620;de;;;2.2.;;;Funktionsauswahl für Multi-Label-Lernen mit gegenseitigen Informationen und GA Wie bei der traditionellen Single-Label-Klassifizierung spielt auch bei der Multi-Label-Klassifizierung die Merkmalsauswahl eine wichtige Rolle. Dieses Papier stellt einen Multi-Label-Feature-Selection-Algorithmus MLFS vor, der aus zwei Schritten besteht. Im ersten Schritt werden die gegenseitigen Informationen verwendet, um die lokale Merkmalsauswahl abzuschließen. Basierend auf dem Ergebnis der lokalen Auswahl wird ein GA-Algorithmus angewendet, um die globale optimale Merkmalsuntermenge auszuwählen und die Korrelationen zwischen den Labels werden berücksichtigt. Im Vergleich zu anderen Multi-Label-Merkmalsauswahlalgorithmen nutzt MLFS die Label-Korrelation, um die Leistung zu verbessern. Die Experimente an zwei Multi-Label-Datensätzen zeigen, dass sich die vorgeschlagene Methode als vielversprechende Multi-Label-Merkmalsauswahlmethode erwiesen hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11740-9_42 6da0a6e9633598651876e62903456ff9;de;;;2.2.;;;Techniken zur Beurteilung des proliferativen Potenzials von Hirntumoren Die Bewertung des proliferativen Potenzials von Hirntumoren liefert wichtige prognostische Informationen, die die standardmäßige histopathologische Einstufung ergänzen. Viele Laboratorien verlassen sich auf mitotische Zahlen, um das proliferative Potenzial von Hirntumoren zu quantifizieren, aber dieser konventionelle zelluläre proliferative Index unterliegt der Variabilität zwischen den Beobachtern und ist für niedrig- und hochgradige Tumore nicht konsistent prädiktiv. Neuere technologische Fortschritte haben es möglich gemacht, proliferative Indizes als Standardergänzung in Pathologielabors zu verwenden. Nicht-invasive Tumorgewebemessungen der Zellproliferation können durchgeführt werden unter Verwendung von – Bromdesoxyuridin-Markierungsindex (BrdU LI), Durchflusszytometrie (FCM), MIB-1-Antikörper gegen das Ki-67-Antigen (MIB-1), proliferierendem Zellkernantigen (PCNA .) ) und argyrophile nukleoläre organisierende Regionen (AgNOR). Jeder dieser Assays wurde in der Literatur im Hinblick auf seine Fähigkeit zur Vorhersage des Tumorgrades oder -ausgangs beschrieben. Gegenwärtig sind MIB-1 und AgNOR die einfachsten und zuverlässigsten dieser Techniken. Darüber hinaus versprechen Fortschritte in unserem Verständnis der genetischen Veränderungen, die mit der Proliferation verbunden sind, spezifischere Marker für das Proliferationspotential. Über das Pathologielabor hinaus wurden Röntgenuntersuchungen wie die Positronen-Emissions-Tomographie (PET), die Einzelphotonen-Emissions-Computertomographie (SPECT) und zuletzt die Magnetresonanzspektroskopie (MRS) durchgeführt;-;-;-;https://link.springer.com/article/10.1007/s11060-004-5758-0 7eacfc35c2ca6036f5788f00d00e505d;de;;;2.2.;;;Automatisierte Analyse von Testergebnissen für das Kraftwerk eines unbemannten Luftfahrzeugs Der Artikel diskutiert die Entwicklung eines Systems zur automatischen Analyse der Ergebnisse von unbemannten Flugkraftwerkstests. Es wird das Verfahren zu seiner Verwendung bei der Lösung der Probleme beim Entwerfen eines Bordsystems eines unbemannten Luftfahrzeugs beschrieben. Die Struktur seiner Software und der Schnittstelle werden gezeigt. Außerdem wird in dem Artikel die Entwicklung einer Lösung für das Problem der Visualisierung der Ergebnisse von Tests des unbemannten Fluggeräts diskutiert. Wir haben die Grundlagen für die Auswahl der Werkzeuge aufgezeigt, mit denen dieses Problem gelöst werden kann. Wir mussten uns auch weigern, den Graph Builder von MathWorks MATLAB zu verwenden, da die Ausgabe von Graphen auf dem Bildschirm beim Start der Methode zum Arbeiten mit dem Graph Builder ziemlich lange dauerte. Wie wir herausgefunden haben, ist die Langsamkeit der Datenvisualisierung auf dem Bildschirm mit dem Laden der notwendigen Bibliotheken verbunden, da nachfolgende Starts dieser Methode der Graphausgabe innerhalb von 2–10 s durchgeführt wurden, eine akzeptable Zeit. Es gab auch ein Problem mit der Benutzeranwendung, die Daten an die MathWorks MATLAB-Bibliotheken übergab, und der erforderliche Graph wurde nicht im Ausgabefenster angezeigt. Der Betriebsalgorithmus eines selbstgeschriebenen Graph-Builder-Moduls wird beschrieben. Das Ergebnis des integrierten Graph Builder-Moduls wird präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71119-1_5 c3592a44a7bd4796cac14d13495ab2a4;de;;;2.2.;;;Ein schneller Algorithmus zum Auffinden von Konzepten in Ausführungs-Traces Die Identifizierung zusammenhängender Segmente in Ausführungsspuren ist ein wichtiger Schritt bei der Konzeptlokalisierung, der wiederum für viele Aktivitäten zum Programmverständnis von größter Bedeutung ist. In diesem Papier formulieren wir die Konzeptlokalisierung als ein durch dynamische Programmierung gelöstes Spursegmentierungsproblem neu. Im Gegensatz zu Ansätzen, die auf genetischen Algorithmen basieren, kann die dynamische Programmierung selbst bei langen Spuren eine exakte Lösung mit besserer Leistung als bisherige Ansätze berechnen. Wir beschreiben die neue Problemformulierung und die algorithmischen Details unseres Ansatzes. Wir vergleichen dann die Leistungen der dynamischen Programmierung mit denen eines genetischen Algorithmus und zeigen, dass die dynamische Programmierung die Zeit, die zum Segmentieren von Spuren erforderlich ist, drastisch reduziert, ohne an Präzision und Erinnerung zu verlieren, oder sie sogar leicht zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23716-4_22 8abcf7482a7819a35f8147235630eb72;de;;;2.2.;;;Ein effektives sicherheitsbasiertes drahtloses Informationssystem basierend auf der Fusion-Hauptkomponentenanalyse In der realen Welt sind drahtlose Netzwerke für viele Menschen ein integraler Bestandteil des täglichen Lebens, wobei Unternehmen und Privatanwender sich auf Konnektivität und Kommunikation verlassen. In diesem Beitrag werden die Probleme rund um das Thema Wireless Security und die Hintergrundliteratur untersucht. Die biometrischen Systeme sind aufgrund der Empfindlichkeit gegenüber Rauschen, der Invariabilität innerhalb der Klasse, der Datenqualität und anderer Faktoren oft mit Einschränkungen konfrontiert. Die Verbesserung der Leistung einzelner Matcher in der oben genannten Situation ist möglicherweise nicht effektiv. Multibiometrische Systeme werden verwendet, um dieses Problem zu überwinden, indem mehrere Beweisstücke derselben Identität bereitgestellt werden. Dieses System stellt ein effektives Fusionsschema bereit, das von den mehreren Domänenexperten präsentierte Informationen basierend auf dem Fusionsintegrationsverfahren auf Rangebene kombiniert, wodurch die Effizienz des Systems erhöht wird, was durch das unimodale biometrische System nicht möglich ist. Das vorgeschlagene multimodale biometrische System weist eine Reihe einzigartiger Qualitäten auf, angefangen bei der Verwendung der Hauptkomponentenanalyse und der linearen Diskriminanzverfahren nach Fisher für die Authentifizierung einzelner Matcher bis hin zur Verwendung der neuartigen Methode der Rangstufenfusion, um die von verschiedenen biometrischen Matchern erhaltenen Ergebnisse zu konsolidieren. Die Ränge der einzelnen Matcher werden unter Verwendung des höchsten Rangs, der Borda-Zahl und der logistischen Regressionsmethode kombiniert. Aus den Ergebnissen kann geschlossen werden, dass die Gesamtleistung der auf drahtloser Sicherheit basierenden multibiometrischen Systeme selbst bei Vorhandensein von Datenqualität verbessert wird.;-;-;-;https://link.springer.com/article/10.1007/s11277-015-2960-7 6f82a8630dc99c93e8b3ff60c2cb3b76;de;;;2.2.;;;Vorlage für kündbare Gesichtsbiometrie mit AlexNet Zur Authentifizierung wurden biometrische Systeme mit Merkmalen wie Gestik, Stimme, Fingerabdruck, Handabdruck, handschriftliche Unterschrift, Handgeometrie, Gesicht und Iris verwendet. Aufgrund dieser Merkmale gilt das Gesichtsmerkmal als eines der stärksten und wichtigsten biometrischen Elemente. In dieser Arbeit wurde eine Präsentation eines neuen löschbaren Gesichtsbild-Algorithmus vorgeschlagen, der von AlexNet und Winner-Takes-All (WTA) Hash-Verfahren abhängig ist. AlexNet ist ein Convolutional Neural Networks (CNNs), das im Vergleich zu anderen herkömmlichen maschinellen Lernmethoden in Bezug auf die Feature-Ausführung ein State-of-the-Art-Niveau an Erkennungspräzision erreicht hat. WTA wird für Ähnlichkeitszwecke verwendet, wohingegen zufällige binäre orthogonale Matrizen angewendet werden, um die projizierten Merkmale von Vektoren zu erzeugen. Bei der Bewertung der Leistung des vorgeschlagenen Algorithmus wurden der Fundação Educacional Inaciana-Datensatz und der Georgia-Tech-Face-Datensatz verwendet. Experimentelle Ergebnisse veranschaulichen, dass der vorgeschlagene Algorithmus eine zufriedenstellende Ausführungsleistung in Bezug auf die gleiche Fehlerrate aufweist. Somit kann der vorgeschlagene Algorithmus als alternatives Verfahren bei der sicherheitsbiometrischen Implementierung verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-38752-5_27 014b358b87cdfdc07479b6e10c6341f9;de;;;2.2.;;;Clusteranalyse unter verzerrten Modellannahmen Dieses Kapitel widmet sich neuen Problemen der robusten statistischen Mustererkennung mit unklassifizierten Trainingsstichproben (robuste Clusteranalyse) unter Verzerrungen hypothetischer Datenmodelle. Wir untersuchen hier vier Arten von Verzerrungen, die in Anwendungen üblich sind: 1) kleine Stichprobeneffekte, 2) Vorhandensein von „Laufstruktur“ in den beobachteten Stichproben, 3) Markov-Abhängigkeit der Klassenindizes, 4) Vorhandensein von Ausreißern in den beobachteten Stichproben. Es werden Abschätzungen für die Robustheit traditioneller Entscheidungsregeln gefunden und neue Clusteranalyseverfahren für die angegebenen Verzerrungsarten konstruiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-8630-6_7 87ecf55c31a41138f7ef872af91788db;de;;;2.2.;;;Rotation der Erde als triaxialer starrer Körper Die Erde wird als dreiachsiger starrer Körper betrachtet, der sich frei im euklidischen Raum dreht. Die Ausgangsgleichungen sind die Eulerschen dynamischen Gleichungen mit;-;-;-;https://link.springer.com/article/10.1007/s11806-007-0020-5 f17265639bee14d21bc4f4a63a16407b;de;;;2.2.;;;Ein chinesischer Kanon in der Mathematik und seine zwei Schichten von Kommentaren: Eine Sammlung von Texten lesen, wie sie von Schauspielern geformt werden Die frühesten in chinesischer Sprache verfassten mathematischen Bücher, die durch die schriftliche Überlieferung überliefert wurden, haben eines gemeinsam: Sie alle erhielten den Status von „Kanonen“.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-3676-6_6 3071c5c681ad69b7dc4df8d2fb4331f1;de;;;2.2.;;;Computational Vision bei Yale Wir präsentieren eine kurze Einführung in die fünf Artikel, aus denen sich diese Sonderausgabe zusammensetzt: Shock Graphs and Shape Matching, The Bas-Relief Ambiguity, Incremental Focus of Attention for Robust Vision Based Tracking, Welche Aufgaben können mit einem unkalibrierten Stereo Vision System durchgeführt werden, und volumetrische Deformationsanalyse mit mechanikbasierter Datenfusion: Anwendung bei der Erholung der Herzbewegung. Tjis Einführung und begleitende Artikel bieten eine keineswegs erschöpfende, aber hoffentlich repräsentative Auswahl der Computervision an der Yale University.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008181109865 91e17cc5e22c309a99c5cd6477c290bf;de;;;2.2.;;;VIRGIL – Bereitstellung des institutionellen Zugangs zu einem Repository von Access Grid-Sitzungen Dieses Dokument beschreibt das VIRGIL-System (Virtual Meeting Archival), das entwickelt wurde, um eine einfache, praktische und benutzerfreundliche Methode zum Aufzeichnen, Indizieren und Archivieren großer verteilter Videokonferenzen, die über Access Grid-Knoten abgehalten werden, bereitzustellen. Institutionelle Bibliotheken geraten zunehmend unter Druck, die Speicherung, den Zugriff und das Abrufen solcher medienübergreifenden komplexen digitalen Objekte in ihren institutionellen Repositorien zu unterstützen. Obwohl Systeme entwickelt wurden, um Access Grid-Sitzungen aufzuzeichnen, bieten sie keine einfachen Mechanismen für die Aufnahme, Suche und den Abruf von Repositorys und erfordern die Installation und das Verständnis komplexer Access Grid-Tools, um die virtuellen Meetings aufzuzeichnen und wiederzugeben. Unser System wurde speziell entwickelt, um beides zu ermöglichen: den einfachen Aufbau und die Pflege eines Archivs von Access Grid-Sitzungen durch Manager und das einfache Suchen und Abrufen aufgezeichneter Sitzungen durch Benutzer. Dieses Papier beschreibt die zugrunde liegende Architektur, Tools und Webschnittstelle, die wir entwickelt haben, um das Aufzeichnen, Speichern, Suchen, Abrufen und Wiedergeben von kollaborativen Access Grid-Sitzungen in einem Fedora-Repository zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74851-9_15 d9e4307766b1b0a0087a4857774cd699;de;;;2.2.;;;Cyclin D1-Expression in Gliomen Die Expression von Cyclin D1 (cycD1) wurde immunhistochemisch unter Verwendung des monoklonalen Antikörpers DCS-6 und des polyklonalen Antiserums H-295 in 50 Gliombiopsien definiert. Die Anzahl positiver Kerne war bei H-295 höher als bei DCS-6, mit einem Verhältnis von 3:1. Der Markierungsindex (LI) wurde mit dem Grad der histologischen Malignität und mit Ki-67 MIB-1 LI verglichen. Der LI für cycD1 stieg mit histologischer Malignität an, parallel zum Anstieg von MIB-1-LI. Bei den meisten Tumoren wurden die maximalen LI für cycD1 und MIB-1 in den gleichen Bereichen gefunden. Das mittlere MIB-1 LI: mittleres cycD1 LI-Verhältnis variiert in den drei Graden von Astrozytose-Tumoren nicht. Allerdings war in dieser Studie die Korrelation zwischen den beiden LIs statistisch nicht signifikant. Die Färbung auf cycD1-Antigen bedeutet nicht unbedingt, dass das Gen überexprimiert ist, da auch andere molekulare Mechanismen für die Deregulierung des Zellzyklus verantwortlich sein können. In invasiven Bereichen ist der cycD1-LI häufig höher als bei soliden Tumoren, entweder weil mehr Tumorzellen positiv sind oder weil reaktive Astrozyten und aktivierte Mikroglia cycD1 exprimieren. Der relative Beitrag von neoplastischen und reaktiven Zellen muss noch definiert werden.;-;-;-;https://link.springer.com/article/10.1007/s004010050776 cbe992ab2fbc8f33c90b04f675d3fe27;de;;;2.2.;;;Optimierung von Dienstabfragen mit mehreren Zielen Bestehende Serviceoptimierungsansätze wählen in der Regel Dienste basierend auf einer vordefinierten Zielfunktion aus [59, 94]. Sie erfordern, dass Benutzer ihre Präferenz gegenüber verschiedenen (und manchmal widersprüchlichen) Qualitätsparametern als numerische Gewichte ausdrücken. Die Zielfunktion weist jedem Dienstanbieter basierend auf den Qualitätswerten und den vom Dienstnutzer angegebenen Gewichtungen einen Skalarwert zu. Der Anbieter mit dem höchsten Wert aus der Zielfunktion wird ausgewählt und an den Benutzer zurückgegeben. Die Implementierung einer solchen Optimierungsstrategie kann mehrere Herausforderungen mit sich bringen: Die Umwandlung persönlicher Präferenzen in numerische Gewichte ist für Benutzer eine ziemlich anspruchsvolle Aufgabe. Manchmal ist es sogar unmöglich, wenn die Präferenz noch vage ist, bevor dem Benutzer die tatsächlichen Diensteanbieter präsentiert werden. Benutzer können ihren gewünschten Anbieter aufgrund einer ungenauen Angabe der Gewichte vermissen, was in realen Szenarien sehr häufig vorkommt. Benutzer können die Flexibilität verlieren, ihre gewünschten Anbieter selbst auszuwählen. Zum Beispiel kann ein Dienstnutzer einen Dienstanbieter wählen, der einen guten Ruf innerhalb einer Preisspanne hat, die er tolerieren kann, obwohl der Preis für ihn ein sehr wichtiger Faktor ist. In diesem Fall ist die Beziehung zwischen Ruf und Preis subtil und die Auswahl verschiedener Benutzer kann erheblich variieren. Daher wäre es ratsam, den Benutzern die Flexibilität zu geben, ihre eigene Auswahl aus einer kleinen Gruppe von Kandidatenanbietern zu treffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-0314-3_4 49ea9e06e3f71b3ac31ce0363baa0396;de;;;2.2.;;;UML-Modell-Refactoring: eine systematische Literaturübersicht Model-driven Engineering, ein aufkommender Trend in der Softwareentwicklung, hat den Einsatz von Refactoring zu UML-Modellen ermöglicht. Zahlreiche Ansätze zur Modellrefaktorierung, Problemerkennung, Konsistenzverwaltung und Werkzeugunterstützung zur Automatisierung und Verifizierung des Refactorings werden diskutiert und über zahlreiche Forschungsliteraturen verteilt. Dieser Beitrag gibt einen systematischen Überblick über die bestehende Forschung im Bereich Modellrefactoring. Aus bekannten elektronischen Datenbanken wurden insgesamt 3.295 Artikel zum Thema UML-Modell-Refactoring extrahiert. Ein mehrstufiger Auswahlprozess wurde verwendet, um die ordnungsgemäße Einbeziehung relevanter Studien für die Überprüfung und Analyse sicherzustellen. Vierundneunzig Primärstudien wurden schließlich anhand einer Reihe verschiedener Kriterien ausgewählt und analysiert: UML-Modelle, die für das Refactoring in Betracht gezogen werden, Formalismen, die zur Unterstützung des Refactorings auf Modellebene verwendet werden, was beim Aufbau von Refactoring-Tool-Unterstützung wichtig zu berücksichtigen ist, und die Auswirkungen des Refactoring auf das Modell Qualität. Die Ergebnisse dieses Reviews zeigen, dass das Refactoring von UML-Modellen ein sehr aktives Forschungsgebiet ist. In diesem Bereich wurden eine ganze Reihe von Qualitätstechniken und -ansätzen vorgeschlagen, aber es gibt noch einige wichtige offene Fragen und Einschränkungen, die in zukünftigen Arbeiten behandelt werden müssen.;-;-;-;https://link.springer.com/article/10.1007/s10664-013-9283-7 382dcddc589137d87f5de696f5fe9414;de;;;2.2.;;;Vergleich zwischen vier Methoden zur Datenfusion von multispektralen ETM+- und Pan-Bildern Vier Datenfusionsverfahren, Hauptkomponententransformation (PCT), Brovey Transformation (BT), Glättungsfilter basierende Intensitätsmodulation (SFIM) und Farbton, Sättigung, Intensität (HSI), werden verwendet, Landsat-7 ETM + multispektraler Bands mit ETM + fusionieren panchromatische Band. Jeder von ihnen verbessert die räumliche Auflösung effektiv, sondern verzerrt die ursprünglichen spektralen Signaturen zu einem gewissen Grad. SFIM Modell kann in Bezug auf die Erhaltung der spektralen Integrität optimale Schweißdaten erzeugen. Allerdings führt es die meisten verschwommen und laut Bild, wenn die gekoppelte Ablage zwischen den multispektralen und pan Bildern nicht genau genug ist. Die spektrale Integrität für alle Methoden ist besser erhalten, wenn die ursprünglichen Multispektralbilder im Spektralbereich von ETM + pan Bild ist.;-;-;-;https://link.springer.com/article/10.1007/BF02826847 9f00106393bec621eda6b067c634bad6;de;;;2.2.;;;Einfacher Spatial Clustering Algorithmus basierend auf R-Baum In diesem Artikel stellen wir einen auf der R-Baumstruktur basierenden Algorithmus vor, um eine Clustering-Aufgabe im Spatial Data Mining zu lösen. Der Algorithmus kann nicht nur auf Punktobjekte, sondern auch auf erweiterte räumliche Objekte wie Linien und Polygone angewendet werden. Die experimentellen Ergebnisse zeigen, dass unser Algorithmus das gleiche Ergebnis wie jeder andere Algorithmus liefert und sich der Clustering-Aufgabe in einer räumlichen Datenbank anpasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35455-7_22 d5569a8c6b732fa629c9b3e6fe577aa6;de;;;2.2.;;;Integriertes Navigationssystem und Experiment eines kostengünstigen und niedriggenauen SINS/GPS Wenn SINS (Strap-Down Inertial Navigation System) mit GPS kombiniert wird, ist die Beobachtbarkeit des Kurswinkels schwach. Obwohl der Kurswinkelfehler durch die Kalman-Filterung etwas verbessert wird, nimmt der Kurswinkel immer noch einen abweichenden Trend an. Dieser Trend wird noch verstärkt, wenn kostengünstige SINS mit geringer Genauigkeit verwendet werden. Um diesen Trend einzudämmen, wird ein Verfahren vorgeschlagen, das AHRS verwendet, um SINS-Kurswinkelinformationen zu ersetzen, das auf die Hardwarekomponentencharakteristik des kostengünstigen und niedriggenauen SINS einschließlich AHRS (Attitude and Heading Reference System) und IMU ( Trägheitsmaßeinheit). Reale statische und dynamische Experimente zeigen, dass das Verfahren den abweichenden Trend des Navigationssystemwinkels effektiv eindämmen kann und die Positionierungsgenauigkeit hoch ist.;-;-;-;https://link.springer.com/article/10.1007/s11806-007-0080-6 b0dc38f1d6e8c825f88b79bada27c23d;de;;;2.2.;;;Eine Multi-Wege-Divergenz-Metrik für Vektorräume Der Großteil der Arbeit bei der Ähnlichkeitssuche konzentriert sich auf die Effizienz von Schwellenwert- und Nächster-Nachbar-Abfragen. Ähnlichkeitsverknüpfungen wurden weniger gut untersucht, obwohl effiziente Indizierungsalgorithmen gezeigt wurden. Die Mehrweg-Ähnlichkeitsverknüpfung, die die Ähnlichkeitsverknüpfung auf mehrere Räume ausdehnt, hat relativ wenig Behandlung erfahren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41062-8_17 69d51704ddb182e3a43dfc5858072e9e;de;;;2.2.;;;Merkmale der Blutsauerstofftransportfunktion bei Angina pectoris-Patienten, die eine Behandlung erhalten, die darauf abzielt, den L-Arginin-NO-Weg zu korrigieren Die Sauerstofftransportfunktion des Blutes wurde bei Patienten mit Angina pectoris untersucht, die mit Nitrosorbid behandelt wurden, um den L-Arginin-NO-Weg zu korrigieren. Eine Reihe von Parametern (der O;-;-;-;https://link.springer.com/article/10.1134/S0362119708020199 da1a6a40a858572482db91d0ba8bf91c;de;;;2.2.;;;Konventionelle Bohrlochanalyse Das Programm wurde entwickelt, um die Werte der Wassersättigung, Porosität, des Kohlenwasserstoffindex und des beweglichen Ölindex für jedes analysierte Teilintervall bereitzustellen. Darüber hinaus liefert das Programm Durchschnittswerte für Porosität, Wassersättigung (Archie-Methode, 1942) und Nettogehaltsdicke für das gesamte Intervall basierend auf vom Benutzer ausgewählten Cut-off-Parametern. Formationsfaktoren werden basierend auf dem vom Benutzer ausgewählten Lithologietyp berechnet.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-5293-5_3 acff96f9dc4ea9c5a8eeec594504730b;de;;;2.2.;;;Photosysteme I und II: Struktur, Proteine ​​und Cofaktoren In den letzten Jahren wurde immer deutlicher, dass zwischen den Akzeptor-Seitenkomponenten des Photosystems II (PS II) und denen der Reaktionszentren von Purpur-Photosynthesebakterien (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-70936-4_9 231e9f7251fae13148c6fb0f522ec7f9;de;;;2.2.;;;Gezeitengeschwindigkeiten auf dem Kontinentalschelf der Mittelatlantischen Bucht mit Hochfrequenzradar Die Oberflächenströmungsgeschwindigkeit aus Hochfrequenz-Radardaten wird verwendet, um Gezeitenströmungen in der Mittelatlantischen Bucht zu untersuchen, die durchschnittlich 32% der gesamten kinetischen Energie der Oberflächenzirkulation ausmachen. Es werden durchschnittliche jährliche und saisonale Gezeitenströmungseigenschaften und die damit verbundene Varianz der großen Halbachse berechnet. Ihnen;-;-;-;https://link.springer.com/article/10.1007/s10872-020-00545-7 52e8a745f0d5955b6b511765757ad526;de;;;2.2.;;;Isolierung und Eigenschaften der dimeren Untereinheit von Concanavalin A Concanavalin A (Con A) wurde in dimere und monomere Untereinheiten durch Inkubation bei 37ºC in Acetatpuffer von pH 3,8, enthaltend 0,5% Natriumdodecylsulfat, dissoziiert. Das Dimer wurde in reiner Form durch ein Dichtegradienten-Ultrazentrifugationsverfahren isoliert. Mehrere Eigenschaften des Dimers wurden bestimmt, darunter die Bildung eines Präzipitins mit Anti-Con A-Antikörpern, das Molekulargewicht, das Fehlen einer Bindungsstelle für Glykogen, das Fehlen der mitogenen Aktivität für Milzlymphozyten und das Fehlen der Hemmung durch α- Methyl-d-glucosid. Die letztgenannten Ergebnisse weichen von den Ergebnissen anderer Forscher ab.;-;-;-;https://link.springer.com/article/10.1023/A%3A1026431329188 43d6ff5f4d327c7ac379cb97c0e73cf7;de;;;2.2.;;;Lektine und Neoglykoproteine ​​– attraktive Moleküle zur histochemischen Untersuchung von Glykokonjugaten und zugänglichen Zuckerbindungsstellen niederer Wirbeltiere Es ist bekannt, dass die Glykosylierung von Proteinen und Lipiden ein individuelles Muster der resultierenden modifizierten Produkte in verschiedenen Zelltypen oder in verschiedenen Stadien der Zellentwicklung oder -erkrankung erzeugt. Diese chemische Vielfalt zellulärer Glykokonjugate bietet ein Potenzial für ein breites Spektrum an funktionellen Kapazitäten. Das Wissen über die biologische Bedeutung von Kohlenhydratanteilen wächst (Rademacher et al. 1988, Slifkin und Doyle 1990, Gabius und Bardosi 1991, Vierbuchen 1991, Spicer und Schulte 1992). Daher bildet ihre Identifizierung in situ ein interessantes Kapitel in der Histochemie (Kiernan 1990, Lyon 1991). Aufgrund des Vorhandenseins von Geweberezeptoren für solche Kohlenhydratsequenzen bilden sie ein Produktionsprotein-Kohlenhydrat-Erkennungssystem für Lektine (Schrevel et al. 1981, Lis und Sharon 1986, Damjanov 1987, Alroy et al. 1988, Danguy et al. 1988, Walker 1988 , Spicer und Schulte 1992) und Neoglycoproteine ​​(Stowell und Lee 1980, Schrevel et al. 1981, Kataoka und Tavassoli 1984, Monsigny et al. 1988, Danguy et al. 1991, Gabius und Bardosi 1991, Gabius und Gabius 1991) als histochemische Reagenzien haben in den letzten Jahren bei der Untersuchung beider Seiten einer solchen Interaktion immer mehr Aufmerksamkeit erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-77944-2_25 711df6d7cff1b7d27cbf18cde456770c;de;;;2.2.;;;Differentielle Zytokeratin- und Glykokonjugat-Expression durch die Oberflächen- und Kryptenepithelien der menschlichen Gaumenmandeln Menschliche Gaumenmandeln sind aufgrund ihrer Anfälligkeit für Tonsillitis und der Assoziation mit anderen lokalen und systemischen Erkrankungen von klinischer Bedeutung. Paradoxerweise fungieren die Mandeln als Antigen-Probenahmestellen des mukosalen Immunsystems, und folglich erfüllen die Tonsillenepithelien sowohl Schutz- als auch Antigen-Probenahmefunktionen. Diese Epithelien sind unterteilt in geschichtetes Plattenepithel über der Tonsillenoberfläche und Kryptenepithel, das die Tonsillenkrypten auskleidet, wobei letzteres retikuläre Bereiche umfasst, die von Lymphozyten infiltriert werden und für die Antigenprobenahme verantwortlich sind. In dieser Studie haben wir die Expression von Cytokeratin und Glykokonjugat durch gesunde Epithelien der menschlichen Gaumenmandeln charakterisiert. Wir identifizierten panepitheliale Tonsillenmarker und zeigten auch, dass die Oberflächen- und retikulären Kryptenepithelien durch die Expression mehrerer Zytokeratine differenziert werden. Letzteres Ergebnis unterstützt die Hypothese, dass diese Epithelien alternativen Differenzierungswegen unterliegen und unterschiedliche funktionelle Rollen besitzen. Darüber hinaus identifizierten wir Zellsubpopulationen in den Tonsillenepithelien, die verschiedene Zellsubtypen darstellen können, einschließlich spezialisierter Antigenprobenzellen. Diese Ergebnisse bilden eine Grundlage für zukünftige Studien zur Untersuchung histochemischer Veränderungen in Tonsillenepithelien, die mit lokalen und/oder systemischen Erkrankungen assoziiert sind oder dafür prädisponieren.;-;-;-;https://link.springer.com/article/10.1007/s004180000198 d1c8f0d3e01df0a74969f821e894434c;de;;;2.2.;;;Effiziente Abfrageverarbeitung für XML-Schlüsselwortabfragen basierend auf dem IDList-Index Die Keyword-Suche über XML-Daten hat in den letzten zehn Jahren viele Forschungsanstrengungen nach sich gezogen, wobei eines der grundlegenden Forschungsprobleme darin besteht, eine bestimmte Keyword-Abfrage effizient zu beantworten, w.r.t. eine bestimmte Abfragesemantik. Wir haben festgestellt, dass der Schlüsselfaktor für die;-;-;-;https://link.springer.com/article/10.1007/s00778-013-0313-2 01e3ff4e646e9024ae3f44a441e4106f;de;;;2.2.;;;Soft-Tagging von überlappenden Gen-Erwähnungsvarianten mit hoher Konfidenz für die artenübergreifende Volltext-Gennormalisierung Bisher konzentrierten sich Gene-Normalisierungs-(GN)-Systeme hauptsächlich auf die Begriffsklärung unter Verwendung von Kontextinformationen. Ein effektiver Gen-Erwähnungs-Tagger wird als unnötig erachtet, da die nachfolgenden Schritte falsch positive Ergebnisse herausfiltern und ein hoher Rückruf ausreichend ist. Im Gegensatz zu ähnlichen Aufgaben in den vergangenen BioCreative-Herausforderungen ist die BioCreative III GN-Aufgabe jedoch besonders anspruchsvoll, da sie nicht artenspezifisch ist. Erforderlich, um Artikel in voller Länge zu verarbeiten, kann ein ineffektiver Generwähnungs-Tagger eine große Anzahl mehrdeutiger falscher positiver Ergebnisse erzeugen, die nachfolgende Filterschritte überfordern, während dennoch viele echte positive Ergebnisse fehlen.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-12-S8-S6 dd6ba821b770f55b04ac84a9a4bd306b;de;;;2.2.;;;In den Liquor cerebrospinalis injizierte Neuraminidase beeinträchtigt den Zusammenbau der vom subkommissuralen Organ sezernierten Glykoproteine ​​und verhindert die Bildung der Reissner-Faser Neuraminidase wurde in den Liquor normaler Ratten injiziert, um den Aufbau und das Schicksal der desialylierten Reissner-Faserglykoproteine ​​zu untersuchen. Es wurde festgestellt, dass eine einzige Injektion von Neuraminidase die Sialinsäurereste der Reissner-Faserglykoproteine, die vor der Injektion zusammengesetzt waren, und der Moleküle, die über einen Zeitraum von mindestens 4 Stunden nach der Injektion freigesetzt wurden, spaltet. Diese desialylierten Glykoproteine ​​durchliefen eine abnormale Anordnung, die zur Bildung von Kugeln anstelle einer Faser führte. Die Anzahl dieser Kugeln nahm während der 4 Stunden nach der Injektion zu, was darauf hindeutet, dass die Neuraminidase die Sekretion der Reissner-Faserglykoproteine ​​in die Liquor cerebrospinalis nicht verhinderte. Die Kugeln blieben an der Oberfläche des subkommissuralen Organs haften und vermischten sich mit infiltrierenden Zellen, von denen viele immunzytochemisch als Makrophagen identifiziert wurden. Letztere enthielten immunreaktives Reissner-Fasermaterial. Es wird gefolgert, dass die desialylierten Reissner-Faserglykoproteine, die die Kugeln bilden, in situ durch Makrophagen abgebaut wurden, was dem normalen Prozess ähnelt, dem die Reissner-Faserglykoproteine ​​beim Erreichen der Massa caudalis unterliegen.;-;-;-;https://link.springer.com/article/10.1007/s004180050240 39da05ad07482d258e4abf30a44b90e2;de;;;2.2.;;;Eine Übersicht über die Anatomie des Golgi Der folgende Bericht gibt einen Überblick darüber, was die Illustrationen des vorliegenden Atlas zeigen und was nicht. Eine Reihe von Fragen, die besondere anatomische Details betreffen, werden in Bezug auf die Interpretationen und Ergebnisse anderer Studenten berücksichtigt. Es wird auf einige relevante Übersichtsartikel und Schlüsselartikel verwiesen, die Analyse konzentriert sich jedoch hauptsächlich auf Beobachtungen, die mit Golgi-Methoden an Ratte und Maus gemacht wurden. Es soll kein umfassender Überblick über alle Strukturen und Zusammenhänge des Gehirns sein, einige Strukturen werden mit gewisser Erweiterung behandelt, andere kurz betrachtet, wieder andere nur erwähnt. Am häufigsten wird auf die Arbeit von Cajal (1911) Bezug genommen, als gebührende Hommage an unseren Meister in der Erforschung des Gehirns mit der Golgi-Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-6501-0_3 989fe46d6106e34c9d1bb8fe8b063b79;de;;;2.2.;;;Auffinden anfälliger und schützender Interaktionsmuster in groß angelegten genetischen Assoziationsstudien Die Interaktionsdetektion in groß angelegten genetischen Assoziationsstudien hat ein intensives Forschungsinteresse geweckt, da viele Krankheiten komplexe Merkmale aufweisen. Es wurden verschiedene Ansätze entwickelt, um signifikante genetische Interaktionen zu finden. In diesem Artikel schlagen wir ein neues Framework SRMiner vor, um interagierende anfällige und schützende Genotypmuster zu erkennen. SRMiner kann nicht nur die wahrscheinliche Kombination von Einzelnukleotidpolymorphismen (SNPs) entdecken, die Krankheiten verursachen, sondern auch die entsprechenden SNPs, die ihre pathogenen Funktionen unterdrücken, was eine bessere Perspektive bietet, um die zugrunde liegende Relevanz zwischen genetischen Varianten und komplexen Krankheiten aufzudecken. Wir haben umfangreiche Experimente an mehreren echten Datensätzen des Wellcome Trust Case Control Consortium (WTCCC) durchgeführt. Wir verwenden die Pathway-basierten und die Protein-Protein Interaction (PPI)-Netzwerk-basierten Bewertungsmethoden, um die entdeckten Muster zu überprüfen. Die Ergebnisse zeigen, dass SRMiner erfolgreich viele krankheitsbezogene Gene identifiziert, die durch die bestehende Arbeit bestätigt wurden. Darüber hinaus kann SRMiner auch auf einige unbestätigte, aber sehr wahrscheinlich krankheitsbezogene Gene schließen.;-;-;-;https://link.springer.com/article/10.1007/s11704-016-5300-5 4e662cfcc43f4518f11532999765d285;de;;;2.2.;;;Graphalgorithmen: Parallelisierung und Skalierbarkeit Für Berechnungen auf großen Graphen greift man oft auf parallele Algorithmen zurück. Parallele Algorithmen sind jedoch schwer zu schreiben, zu debuggen und zu analysieren. Schlimmer noch, es ist schwierig, Algorithmen parallel skalierbar zu machen, so dass die Algorithmen umso schneller laufen, je mehr Maschinen verwendet werden. Tatsächlich ist noch nicht bekannt, ob;-;-;-;https://link.springer.com/article/10.1007/s11432-020-2952-7 8b3fcb5e1f4bd7fba7c23067aa0e1051;de;;;2.2.;;;Zur effizienten Lösung des View-Selection-Problems unter Bag-Semantics In diesem Beitrag untersuchen wir das Problem der Ansichtsauswahl für Workloads von konjunktiven Abfragen unter Beutelsemantik. Insbesondere ist es unser Ziel, den Suchraum von Kandidaten-Viewsets zu begrenzen. In dieser Hinsicht beginnen wir damit, die Grenze zwischen Abfrage-Workloads abzugrenzen, für die bestimmte eingeschränkte Suchräume ausreichen. Sie reichen insofern aus, als dass sie die Optimalität nicht dadurch beeinträchtigen, dass sie mindestens eine der optimalen Lösungen enthalten. Wir beginnen mit dem allgemeinen Fall, in dem wir eine enge Bedingung angeben, die Kandidatenansichten erfüllen können, und dennoch enthält der (also begrenzte) Suchraum mindestens eine optimale Lösung. Vorläufige Experimente zeigen, dass dies die Größe des Suchraums deutlich reduziert. Dann untersuchen wir Spezialfälle. Wir zeigen, dass bei Kettenabfrage-Workloads, wenn nur Kettenansichten verwendet werden, alle optimalen Lösungen verfehlt werden können, wohingegen, wenn wir die Abfragen weiter auf Pfadabfragen beschränken (d. h. Kettenabfragen über eine einzelne binäre Beziehung), Pfadansichten ausreichen. Dieses letzte Ergebnis zeigt, dass im Fall von Pfadabfragen die Verwendung von Abfrageunterausdrücken ausreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03422-0_2 bbf91a1f717953198ad34c3a72d937d4;de;;;2.2.;;;Optimale Nachlaufregelung für zeitdiskrete Systeme mit mehreren Eingangsverzögerungen bei sinusförmigen Störungen Diese Studie untersucht das Tracking-Steuerungsproblem für zeitdiskrete Systeme mit mehreren Eingangsverzögerungen, die von sinusförmigen Störungen beeinflusst werden. Diese Studie ist um den Ausdruck von Sinus- und Störungen und die verzögerungsfreie Transformation organisiert. Zunächst werden die sinusförmigen Störungen basierend auf der periodischen Charakteristik der sinusförmigen Störung als Ausgabe eines Exosystems betrachtet. Durch den Vorschlag einer diskreten Variablentransformation wird das zeitdiskrete System mit mehreren Eingangsverzögerungen und dem quadratischen Leistungsindex in äquivalente verzögerungsfreie umgewandelt. Dann wird durch Konstruieren eines erweiterten Systems, das die Zustände der Exosysteme sinusförmiger Störungen, des Referenzeingangs und der verzögerungsfreien Transformationssysteme umfasst, das ursprüngliche Tracking-Problem in das optimale Tracking-Problem für ein verzögerungsfreies System bezüglich der vereinfachte Leistungsindex. Das Gesetz der optimalen Spurführungssteuerung (OTC) wird aus den Riccati- und Stein-Gleichungen erhalten. Die Existenz und Eindeutigkeit des optimalen Regelgesetzes wird bewiesen. Ein Beobachter reduzierter Ordnung ist konstruiert, um das Problem der physikalisch realisierbaren für die Elemente des Referenzeingangs und sinusförmigen Störungen zu lösen. Abschließend werden die Machbarkeit und Wirksamkeit der vorgeschlagenen Ansätze anhand von Zahlenbeispielen validiert.;-;-;-;https://link.springer.com/article/10.1007/s12555-013-0271-x 989420ab86dc5274113a3c2b08db8992;de;;;2.2.;;;Level-Set-basierter Algorithmus für die automatische Merkmalsextraktion in 3D-Netzen: Anwendung zur Kratererkennung auf dem Mars Das Wissen um den Ursprung und die Entwicklung aller Körper im Sonnensystem beginnt mit dem Verständnis der geologischen Geschichte und Entwicklung des Universums. Der einzige Ansatz zur Datierung von Himmelskörperoberflächen besteht in der Analyse der Kratereinschlagsdichte und -größe. Um diesen Prozess zu erleichtern, wurden automatische Ansätze für die Detektion von Einschlagskratern vorgeschlagen. In diesem Artikel schlagen wir einen neuartigen Ansatz zur Erkennung von Kraterrändern vor. Die entwickelte Methode basiert auf einer Untersuchung der Geometrie des Digital Elevation Model (DEM), dargestellt als 3D-trianguliertes Netz. Wir verwenden die Krümmungsanalyse in Kombination mit einer schnellen lokalen Quantisierungsmethode, um die Kraterränder mit einem künstlichen neuronalen Netzwerk automatisch zu erkennen. Die Validierung der Methode erfolgt anhand der Barlow-Datenbank.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00692-1_10 a71371e9f6028734c9a381e13ef7b4ba;de;;;2.2.;;;Cosmic-Ray-Modulation: ein Ab-initio-Ansatz Ein besseres Verständnis der kosmischen Strahlungsmodulation in der Heliosphäre kann nur durch ein genaues Verständnis der Auswirkungen von Turbulenzen auf die Diffusion und Drift der kosmischen Strahlung gewonnen werden. Wir präsentieren ein Ab-initio-Modell für die Modulation kosmischer Strahlung, das erstmals die Ergebnisse eines Zweikomponenten-Turbulenztransportmodells einbezieht. Dieses Modell wird für Perioden minimaler Sonnenaktivität gelöst, wobei Grenzwerte verwendet werden, die so gewählt sind, dass die Modellergebnisse mit den Beobachtungen von Turbulenzmengen durch Raumsonden nicht nur in der Sonnenekliptik, sondern auch entlang der außerhalb der Ekliptik verlaufenden die Raumsonde Ulysses. Diese Ergebnisse werden als Eingaben für modellierte Slab- und 2D-Turbulenzenergiespektren verwendet. Das letztgenannte Spektrum wird aufgrund physikalischer Überlegungen gewählt, wobei ein Abfall bei den niedrigsten Wellenzahlen auf der 2D-Außenskala beginnt. Für diese Größe existieren derzeit keine Modelle oder Beobachtungen und sie ist der einzige freie Parameter in dieser Studie. Die modellierten Turbulenzspektren werden als Eingaben für parallele mittlere freie Wegausdrücke verwendet, die auf denen basieren, die aus der quasilinearen Theorie und senkrechten mittleren freien Wegen aus der erweiterten nichtlinearen Leitzentrumstheorie abgeleitet wurden. Darüber hinaus werden die Auswirkungen von Turbulenzen auf die Drift der kosmischen Strahlung in selbstkonsistenter Weise modelliert, wobei ein kürzlich entwickeltes Modell für die Drift entlang der wellenförmigen Strömung verwendet wird. Die resultierenden Diffusionskoeffizienten und Driftausdrücke werden auf die Untersuchung von galaktischen Protonen und Antiprotonen der kosmischen Strahlung unter Verwendung eines dreidimensionalen, stationären Modulationscodes der kosmischen Strahlung angewendet, und es werden Beispiellösungen vorgestellt, die mit mehreren Raumfahrzeugbeobachtungen übereinstimmen.;-;-;-;https://link.springer.com/article/10.1007/s13538-014-0241-7 d6aea0d9f531b35b29c228b4248e6291;de;;;2.2.;;;Vergleich der Leistung von Maschine und Mensch für Auskunftsanfragen von Anrufern Um zu verstehen, wie systematisch die Maschinenmodelle zur Automatisierung der Auskunft (DA) konstruiert werden können, die das Leistungsniveau menschlicher Auskunftsdienste erreichen können, haben wir im Laufe der Jahre eine Reihe von Studien durchgeführt. Dieses Papier beschreibt die Methoden, die für solche Studien verwendet werden, und die Ergebnisse von Laborexperimenten. Dazu gehören eine Reihe von Benchmark-Tests, die speziell für DA-bezogene Aufgaben konfiguriert wurden, um die Leistung modernster und kommerziell erhältlicher, auf dem Hidden-Markov-Modell (HMM) basierender automatischer Spracherkennungstechnologien (ASR) zu bewerten. Die Ergebnisse zeigen, dass das beste System eine 57,9 %ige Aufgabenerledigungsrate bei der;-;-;-;https://link.springer.com/article/10.1007/s10772-009-9020-1 37b988b09a4d8dc2fc29fe0060e6bffd;de;;;2.2.;;;Schätzung der hierarchischen Struktur einer Videosequenz mit MPEG-7-Deskriptoren und GCS Wir präsentieren einen Clustering-Ansatz für die Videozusammenfassung und das Browsing basierend auf den neuronalen Algorithmen von Growing Cell Structures (GCS) und MPEG-7-Videodeskriptoren. Jeder I-Rahmen wird als ein Merkmalsvektor von MPEG-7-Deskriptoren dargestellt. Diese Vektoren werden mithilfe von GCS geclustert, um einen oder mehrere Keyframes für jede Aufnahme auszuwählen. Die extrahierten Keyframes werden dann von TreeGCS gruppiert, um eine hierarchische Ansicht des Videos zum effizienten Durchsuchen zu bilden. Wir bewerten die Effektivität verschiedener Kombinationen von MPEG-7-Deskriptoren und vergleichen sie auch mit der Leistung von Farbhistogrammen.;-;-;-;https://link.springer.com/chapter/10.1007/11552451_2 ae89896e1546f3e6ede68c0a84e2039b;de;;;2.2.;;;Sprachbezogene Diskurse, Sprachideologien und Ethnonationalismus Dieses Kapitel verlagert den Fokus von der Präsentation der Ergebnisse und ihrem methodischen Vergleich hin zu einer kontextualisierten Interpretation der Ergebnisse, wobei ein besonderer Fokus auf den Verbindungen zwischen dem Mainstream-Diskurs in der öffentlichen Sprache, dominanten Sprachideologien und ethnischen Identitäten und Nationalismus liegt. Das Kapitel identifiziert insbesondere die wichtigsten thematischen und ideologischen Diskurse, die im Forschungskorpus nachgewiesen werden, Diskurse über Gefährdung und Anfechtung sowie wiederkehrende Topoi, um die vorherrschenden Sprachideologien zu identifizieren, zu definieren und zu erklären, insbesondere in Bezug auf ethnische Identitäten und Nationalismus auf dem heutigen West-Zentralbalkan und demonstriert damit den vorgeschlagenen dreistufigen Ansatz zur Identifizierung von Sprachideologien (thematische Diskurse > ideologische Diskurse > Sprachideologien). Es wird gezeigt, dass die identifizierte Hauptsprachenideologie mit der Sprachphilosophie von Johann Gottfried Herder sowie dem romantischen Nationalismus des 19. Jahrhunderts verbunden ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72177-0_6 0cd77cf5975800920776aeb9df0e6b88;de;;;2.2.;;;Ausgewählte Aspekte einer allgemeinen algebraischen Modellierungssprache Das Papier berührt die Rolle von Modellen in einer Politik-/Planungsumgebung und begründet die Notwendigkeit eines allgemeinen algebraischen Modellierungssystems. Ihr Hauptzweck besteht jedoch darin, eine für Mensch und Maschine verständliche Notation zu entwickeln. Die Sprache ist Teil eines allgemeinen algebraischen Modellierungssystems, das sich derzeit in der Entwicklung befindet. Eine ausführlichere Version dieser Arbeit kann bei den Autoren angefordert werden.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0006607 31b237b944e5fec5f69a5a5376bc8bf0;de;;;2.2.;;;Der relative Lyapunov-Indikator: Eine effiziente Methode zur Chaos-Erkennung Eine kürzlich eingeführte Methode zur Chaoserkennung, der relative Lyapunov-Indikator (RLI), wird bei symplektischen Abbildungen und einem kontinuierlichen Hamilton-System untersucht. Es wird gezeigt, dass das RLI ein effizientes und leicht zu berechnendes numerisches Werkzeug ist, um die wahre Natur einzelner Bahnen zu bestimmen und geordnete und regelmäßige Bereiche des Phasenraums dynamischer Systeme zu trennen. Eine Anwendung des RLI für Stabilitätsuntersuchungen einiger kürzlich entdeckter exoplanetarer Systeme wird ebenfalls vorgestellt.;-;-;-;https://link.springer.com/article/10.1007/s10569-004-8129-4 f0ca52052616a6c82362dad0dbba8bce;de;;;2.2.;;;Die Wirkung von Diepoxybutan auf die Chromosomen von Die Häufigkeit der durch DEB induzierten Aberrationen hängt von der Temperatur und Konzentration des Agens ab. Die Wirkung von DEB wird verzögert. Eine Vorbehandlung mit EDTA erhöhte die Häufigkeit von Aberrationen. Die Häufigkeit von Aberrationen war auch nach gleichzeitiger Behandlung mit DEB und Chloramphenicol oder Streptomycin erhöht. Vor- und Nachbehandlung mit Proteinsynthesehemmern hatten einen gegenteiligen Effekt, die Häufigkeit von Aberrationen war verringert.;-;-;-;https://link.springer.com/article/10.1007/BF00330908 e4376179cdb0827b3b1e07c177031c2a;de;;;2.2.;;;Zeichnungsanwendungen Von dem angehenden Ingenieur wird erwartet, dass er sich gleich zu Beginn seiner Laufbahn in kurzer Zeit erste Kenntnisse im Zeichnen und Detaillieren aneignet, bevor er die Möglichkeit hat, die im Wesentlichen wissenschaftlich fundierten Kenntnisse, die er während seiner akademischen Ausbildung erworben hat, anzuwenden. Er kann feststellen, dass er die erlernten Zeichenprinzipien, die er möglicherweise auf den Maschinenbau ausgerichtet hat, nicht strikt auf die praktischen Detailprobleme anwenden können, mit denen er in einem Tief- oder Hochbau-Zeichnungsbüro konfrontiert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-86103-3_8 29bd2a1f839186a0769d12d6353c606e;de;;;2.2.;;;Transpulmonale Thermodilution für erweiterte kardiorespiratorische Überwachung Seit der Einführung des Pulmonalarterienkatheters (PAC) in die klinische Praxis in den 1970er Jahren gilt dieses Gerät als Goldstandard für die Messung des Herzzeitvolumens und die fortschrittliche hämodynamische Überwachung. Dennoch ist das Nutzen-Risiko-Verhältnis in den letzten 10 Jahren kontrovers diskutiert worden. Eine aktuelle Metaanalyse zu den Auswirkungen des PAC bei kritisch kranken Patienten [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-49433-1_45 27564db84f06dd0aa347410d051acc77;de;;;2.2.;;;GPU-beschleunigtes paralleles Ausrichten langer Lesevorgänge mit hoher Fehlerrate unter Verwendung von Enhanced Sparse Suffix Array Das Read-Alignment (Sequenz-Alignment) ist eines der grundlegendsten und zeitaufwendigsten Probleme in der Bioinformatik. In diesem Papier wird ein paralleles CPU-GPU-Langlese-Ausrichtungsverfahren untersucht, um dieses Problem zu lösen. Eine leichtgewichtige Datenstruktur, die ein verbessertes Sparse-Suffix-Array verwendet, wird verwendet, um den Index des Referenzgenoms zu speichern, um sich an die begrenzte Speicherkapazität der GPU-Architektur anzupassen. Der zweidimensionale Suchraum zwischen Referenzgenom und langen Lesevorgängen ist in mehrere Suchunterräume unterteilt. Das massive Long-Read-Alignment wird weiter in mehrere Long-Read-Alignments mit geringerer Größe unterteilt. Ein CPU-GPU-Parallelalgorithmus, der lange Lesevorgänge mit einer hohen Fehlerrate ausrichtet, wird implementiert, indem das Seed-Auswahlschema verbessert wird. Die experimentellen Ergebnisse zeigen, dass der parallele Algorithmus das Long-Read-Alignment erheblich beschleunigen kann, während die Alignment-Genauigkeit und die Recall-Rate insgesamt erhalten bleiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2767-8_28 1282c09eda8588621efc41995d5a0c2d;de;;;2.2.;;;Die Zellgrößenverteilung und Halbgruppen linearer Operatoren In diesem Kapitel stellen wir relevante Teile der Theorie stark stetiger Halbgruppen linearer Operatoren im Kontext eines konkreten Beispiels vor: der zeitlichen Entwicklung der Größenverteilung einer proliferierenden Zellpopulation. Unser Ziel ist es, eine motivierte Einführung in die allgemeine mathematische Theorie linearer Halbgruppen zu geben und ihre Nützlichkeit für das Studium dichteunabhängiger strukturierter Populationsmodelle zu demonstrieren. Wir wollen zeigen, dass abstrakte Argumente und konkrete Berechnungen kombiniert werden können, um zu starken Schlussfolgerungen zu gelangen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-13159-6_2 dc1651bb097c88ad4093254b0fc1bed2;de;;;2.2.;;;Kleiner und großer Wortschatz Spracherkennung von MP3-Daten unter Real-Word-Bedingungen: Experimentelle Studie Dieses Papier präsentiert die Untersuchung der Spracherkennungsgenauigkeit sowohl für kleine als auch für große Vokabularaufgaben in Bezug auf verschiedene Stufen der MP3-Komprimierung verarbeiteter Daten. Die Motivation hinter der Arbeit bestand darin, die Verwendung des ASR-Systems für die automatische Offline-Transkription von Aufzeichnungen zu bewerten, die von gängigen MP3-Geräten bei unterschiedlichen Hintergrundgeräuschen und Kanalverzerrung gesammelt wurden. Obwohl MP3 kein optimaler Kompressionsalgorithmus ist, haben die durchgeführten Experimente bewiesen, dass es das Sprachsignal bei höheren Kompressionsraten nicht signifikant verzerrt. Realisierte Experimente zeigten auch, dass die Genauigkeit der Spracherkennung (sowohl kleiner als auch großer Wortschatz) für die Bitrate von 24 kbps und höher sehr langsam abnahm. Für MP3-Sprachdaten ist jedoch ein etwas anderer Aufbau der Sprachmerkmalsberechnung erforderlich, hauptsächlich PLP-Merkmale liefern im Vergleich zu MFCC deutlich bessere Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35755-8_29 e75e997c00973c85b19a270063f5dabd;de;;;2.2.;;;Effizientes Lazy Narrowing durch Bedarfsanalyse Programmiersprachen für funktionale Logik haben eine funktionale Syntax und verwenden Einengung als operative Semantik. Hier betrachten wir die effiziente Implementierung von Lazy Narrowing, einer Strategie, die die Argumente einer Funktionsanwendung nur dann auswertet, wenn deren Auswertung wirklich gefordert wird. Für eine effiziente Umsetzung von Lazy Narrowing ist es entscheidend, die Argumente so früh wie möglich zu evaluieren. Andernfalls werden die Argumente häufig neu bewertet. Eine Anforderungsanalyse wird verwendet, um zu erkennen, welche Teile der Argumente sicher vor dem Aufruf der Funktion ausgewertet werden können. Mehrere Ansätze (z. B. [HLW92, JMM92]) verwenden ebenfalls diese Idee, opfern jedoch Faulheit, um Ineffizienz zu vermeiden. Unser Ansatz ist fauler als die vorherigen Ansätze und verwendet einen mächtigeren Begriff der Nachfrage, der es ermöglicht, unendliche Nachfragemuster wie z.B. Wirbelsäule Normalform. Außerdem berücksichtigen wir im Gegensatz zu den bisherigen Ansätzen Abhängigkeiten zwischen den Argumenten einer Funktion, um die Effizienz zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-57186-8_78 2d488283f6c948e60466cafbddd76b68;de;;;2.2.;;;Ergebnisse zur Feststellung der Einzigartigkeit einer Rekonstruktion In diesem Kapitel gehen wir davon aus, dass die Zielfunktion f ein Element des endlichdimensionalen Raums Z(n) für einige bekannte n ist und dass wir unter diesen Bedingungen wissen möchten, wann f durch eine endliche Menge von Projektionen bestimmt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45507-0_6 83b634dafcc868a73f6d8d6e91e93718;de;;;2.2.;;;Bisherige Literatur und neue Erkenntnisse Find Das System der Volkswirtschaftlichen Gesamtrechnungen der Vereinten Nationen (UN SNA) sammelt Informationen zum Arbeitnehmerentgelt und liefert den unbereinigten Anteil des Arbeitseinkommens für 93 Länder mit niedrigem und mittlerem Einkommen mit einer durchschnittlichen Zeitspanne von 15,3 Jahren pro Land. Da nur etwa ein Drittel der Entwicklungsländer ein Mischeinkommen meldet, werden die einkommensbereinigten Arbeitseinkommensanteile nur für 38 Länder aus diesem Datensatz berechnet. Der bereinigte Erwerbstätigenanteil anhand der Beschäftigungsstruktur eines Landes wird auch mit den ILO-Daten der Schlüsselindikatoren des Arbeitsmarktes (KILM) berechnet, die Schätzungen für 73 Länder ergeben. Die zweite Gruppe von Datensätzen erweitert den Erfassungsbereich der Daten von UN SNA und KILM um zusätzliche nationale Datenquellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-7803-4_1 3035c9f37fba7de335ccaf279b4ae47b;de;;;2.2.;;;Kryogene Radiometer-basierte Kalibrierung der absoluten spektralen Leistungsempfindlichkeit von Ulbrichtkugel-Radiometern zur Verwendung bei Leistungsmessungen bei Glasfaserkommunikationswellenlängen Dieses Papier behandelt die absolute spektrale Leistungsempfindlichkeitskalibrierung von spektralonbeschichteten Integrating Sphere Radiometer (ISR), die mit einer InGaAs-Photodiode mit 3 mm Durchmesser ausgestattet sind, die als Übertragungsstandard bei faseroptischen Leistungsmessungen gegen Electrical Substitution Cryogenic Radiometer (ESCR) im Optics Laboratory of . verwendet werden Nationales Metrologieinstitut (TUBITAK UME) der Türkei. Die anfängliche Unsicherheit, die sich aus der Verwendung des elektrisch kalibrierten pyroelektrischen Radiometers (ECPR) als Transferstandard im radiometrischen Maßstab ergibt, beträgt 0,5% (;-;-;-;https://link.springer.com/article/10.1007/s11082-005-3955-5 585b78bbf8a34e9c99182eb9e6a7a1a3;de;;;2.2.;;;Zweidimensionaler Data-Slicing-Algorithmus, ein neuer Ansatz im Bergbau Regeln der Literatur in der Traditionellen Chinesischen Medizin Chinesische Heilkräuter, Akupunktur und Muster sind wichtige Bestandteile der Traditionellen Chinesischen Medizin. In diesem Artikel, der sich auf die Gesichtsnervenlähmung konzentriert, haben wir einen Algorithmus namens zweidimensionales Data-Slicing vorgeschlagen, um die Regeln chinesischer Heilkräuter, Akupunktur und Muster zu ermitteln. Der Abbauprozess erfolgte in zwei Dimensionen. Die eindimensionale Analyse analysiert die Häufigkeiten chinesischer Heilkräuter, Akupunkturpunkte und Muster. Die zweidimensionale Analyse analysiert die Häufigkeiten von koexistierenden Keyword-Paaren. Durch die Untersuchung der Ergebnisse dieser beiden Dimensionen wird, obwohl einige Geräusche vorhanden waren, das meiste regelmäßige Wissen über die Behandlung dieser Krankheit ausgeschöpft. Dieser Algorithmus könnte beim Mining von Regeln in der Literatur der traditionellen chinesischen Medizin nützlich sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24282-3_23 978820f887d8e9452adf9b877f0aa050;de;;;2.2.;;;Umsetzung von Maßnahmen zur Qualität von Verkehrsdiensten in Tschechien Mit der Umsetzung der ITS-Richtlinie (2010/40/EU) über die paneuropäischen Reise- und Verkehrsinformationsdienste wird die Qualität des Dienstes und der zugrunde liegenden Daten ein Thema. Es gibt verschiedene Ansätze, die Qualität von Daten und eines Dienstes zu beurteilen, jeder mit seinen besonderen Vorteilen, jedoch sind die Ansätze zusammen nicht umsetzbar und decken allein nicht alle Besonderheiten der Verkehrsinformationen ab. Der Beitrag befasst sich mit einer inkrementellen Implementierung von Maßnahmen zur Qualität von Verkehrsinformationsdiensten und konzentriert sich im ersten Schritt nur auf direkt messbare technische und redaktionelle Aspekte der Daten und einer Dienstqualität. Diese Aspekte werden am realen Beispiel gemessen und getestet und die Ergebnisse, ihre Auswirkungen auf die Qualitätsverbesserung, diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-97955-7_2 7426848d80f7a3ac3cf46246c00e0cf8;de;;;2.2.;;;Verletzung der Privatsphäre des Einzelnen durch Mining von differentiell privaten GWAS-Statistiken Die Privatsphäre des Einzelnen im genomischen Zeitalter wird zu einem wachsenden Problem, da immer mehr Individuen ihre Genome sequenzieren oder genotypisieren lassen. Eine Verletzung der genetischen Privatsphäre kann auch ohne Rohgenotypen oder Sequenzierungsdaten erfolgen. Studien haben gezeigt, dass zusammenfassende Statistiken aus Genome Wide Association Studies (GWAS) ausgenutzt werden können, um die Privatsphäre des Einzelnen zu gefährden. In dieser Studie zeigen wir, dass selbst bei unterschiedlich privaten GWAS-Statistiken immer noch ein Risiko besteht, die Privatsphäre des Einzelnen zu verlieren. Konkret haben wir durch das Mining öffentlicher GWAS-Statistiken ein Bayes-Netzwerk aufgebaut und zwei Angriffe, nämlich Trait-Inferenz-Angriff und Identitäts-Inferenz-Angriff, auf die Verletzung der Privatsphäre von GWAS-Teilnehmern, aber auch von normalen Einzelpersonen, ausgewertet. Wir haben sowohl Simulations- als auch echte humangenetische Daten aus dem 1000 Genome Project verwendet, um unsere Methoden zu evaluieren. Unsere Ergebnisse zeigten, dass unerwartete Datenschutzverletzungen auftreten können und Angreifer mithilfe dieser Algorithmen Identitätsinformationen und private Informationen ableiten können. Daher sollten mehr methodische Studien investiert werden, um die Verletzung und den Schutz der genetischen Privatsphäre zu verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-42553-5_30 dbdb965cc2c47c6c1abbd46f9f58a692;de;;;2.2.;;;Bewertung von Armutstrends in Australien In den letzten zwanzig Jahren hat die Zahl der Einkommensverteilungs- und Armutsstudien in Australien enorm zugenommen. Diese Forschung wurde ermöglicht, weil Umfragen des Australian Bureau of Statistics (ABS), insbesondere die Einkommensverteilungserhebungen und die Haushaltsausgabenerhebungen mit detaillierten Informationen über die wirtschaftlichen Verhältnisse von Haushalten und Familien, auf Tonbändern öffentlich zugänglich gemacht wurden .;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0257-8_4 e7c22940b1fd1e4f822871a47c903cca;de;;;2.2.;;;Eine lexikalische Datenbank für modernes Standardarabisch, die mit einem morphologischen Wandler endlicher Zustände interoperabel ist Aktuelle arabische Lexika, ob rechnerisch oder anderweitig, machen keinen Unterschied zwischen Einträgen aus Modern Standard Arabic (MSA) und Classical Arabic (CA) und neigen dazu, veraltete Wörter zu enthalten, die im aktuellen Sprachgebrauch nicht belegt sind. Wir gehen dieses Problem an, indem wir eine umfangreiche, korpusbasierte lexikalische Datenbank aufbauen, die für MSA repräsentativ ist. Wir verwenden ein MSA-Korpus von 1.089.111.204 Wörtern, ein Pre-Annotation-Tool, Techniken des maschinellen Lernens und wissensbasierten Template-Matching, um automatisch lexikalisches Wissen über morpho-syntaktische Attribute und Flexionsparadigmen zu erfassen und zu filtern. Unsere lexikalische Datenbank ist skalierbar, interoperabel und für den Aufbau eines morphologischen Analysators geeignet, unabhängig vom Designansatz und der verwendeten Programmiersprache. Die Datenbank ist nach dem internationalen ISO-Standard in lexikalischer Ressourcendarstellung, dem Lexical Markup Framework (LMF), formatiert. Diese lexikalische Datenbank wird bei der Entwicklung eines Open-Source-Toolkits zur morphologischen Verarbeitung mit endlichen Zuständen verwendet. Wir bauen eine Webanwendung, AraComLex (Arabic Computer Lexicon), zur Verwaltung und Pflege der lexikalischen Datenbank.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23138-4_7 c859e547ebd813f66df41b456d05467a;de;;;2.2.;;;Mechanische Transport- und Lagerausrüstung Der mechanische Transport von Nahrungsmitteln kann in Flüssigkeits- und Feststofftransport unterteilt werden. Der mechanische Transport von Luft, Gasen und Dämpfen erfolgt durch Ventilatoren, Gebläse, Kompressoren, Vakuumpumpen und Ejektoren, auf die in Anhang D (Utilities) kurz eingegangen wird. Für den Transport von Flüssigkeiten, Halbflüssigkeiten und Suspensionen werden Pumpen eingesetzt. Der Transport flüssiger Lebensmittel durch Pumpen in Prozessrohrleitungen ist eine gut entwickelte Technologie, die auf der Theorie der Strömungsmechanik basiert und in der chemischen Prozessindustrie umfassend angewendet wird (Perry und Green, 1997). Die mechanischen Transportgeräte werden oft in Kombination mit anderen Geräten zur Lebensmittelverarbeitung verwendet, wie zum Beispiel Erhitzen und Kühlen von Wasser, Luft oder Dampf sowie Fluidisierung und Transport von Partikeln ([Loncin, 1969]).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-0725-3_3 bd76d1eb8cf31b4f0f79c24be8d57bca;de;;;2.2.;;;Vergleich zweier evolutionärer Ansätze zur polygonalen Approximation digitaler Kurven In diesem Beitrag befassen wir uns mit der Approximation digitaler Kurven unter Verwendung von Geradensegmenten. Unser Ziel ist es, die Leistungsfähigkeit zweier populationsbasierter evolutionärer Algorithmen zu vergleichen: eines evolutionären Programmieransatzes und eines chromosomalen genetischen Algorithmus variabler Länge zur Lösung des polygonalen Approximationsproblems. Wir beschreiben die Hauptelemente der zu vergleichenden Methoden und zeigen die Ergebnisse der Tests, die an einem Datensatz durchgeführt werden, der Kurven umfasst, die eine Reihe von Bedingungen in Bezug auf zwei Hauptmerkmale aufweisen: Offenheit und Geradheit. Unsere Experimente zeigen, dass die auf evolutionäre Programmierung basierende Technik schneller und genauer ist als der auf genetischen Algorithmen basierende Ansatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31519-0_25 5798325dbc4dc00edffcbe7afd10c702;de;;;2.2.;;;Extraktion chemischer Stoffe mit CRF und einem Ensemble von Extraktoren Da wir in wissenschaftlichen Artikeln ein großes Interesse an der Identifizierung und Extraktion chemischer Einheiten feststellen, wurden viele Ansätze zur Lösung dieses Problems vorgeschlagen. In dieser Arbeit beschreiben wir einen probabilistischen Rahmen, der es ermöglicht, die Ausgabe mehrerer Informationsextraktionssysteme auf systematische Weise zu kombinieren. Den identifizierten Entitäten wird eine Wahrscheinlichkeitsbewertung zugewiesen, die die Konfidenz der Extraktoren widerspiegelt, ohne dass jeder einzelne Extraktor eine Wahrscheinlichkeitsbewertung generieren muss. Wir haben die Leistung mehrerer chemischer Tokenisierer quantitativ verglichen, um den Effekt der Tokenisierung auf die Extraktionsgenauigkeit zu messen. Später wird ein einzelner Conditional Random Fields (CRF)-Extraktor, der den leistungsstärksten Tokenizer verwendet, mit einer einzigartigen Sammlung von Funktionen wie Worteinbettungen und Soundex-Codes erstellt, die nach unserem besten Wissen in diesem Zusammenhang noch nicht untersucht wurden ,;-;-;-;https://link.springer.com/article/10.1186/1758-2946-7-S1-S12 061d69b9a18e43c0aaa50be529324b54;de;;;2.2.;;;Anwendung des Diversitätsindex bei der Messung der Artenvielfalt Der Diversity-Index ist ein statisches Maß für lokale Mitglieder und besteht aus verschiedenen Objekttypen. Es wird verwendet, um die lokalen Mitglieder einer Gruppe zu messen, und viele Felder können untersucht werden, um die Vielfalt jeder Population zu bewerten. Beispielsweise wird es in der Ökologie zur Messung der Biodiversität in einem Ökosystem, in der Demographie zur Messung der Bevölkerungsverteilung verschiedener demographischer Gruppen, in der Ökonomie zur Messung der Verteilung auf Wirtschaftszweige einer Region und in der Informationswissenschaft zur Beschreibung der Komplexität verwendet einer Reihe von Informationen. Es gibt viele Einkommensungleichheitsindizes wie den Gini-Index, den Theil-Index, den Hoover-Index, den Robin-Hood-Index, den Atkinson-Index, den Suits-Index und den generalisierten Entropie-Index, die mit abnehmender Vielfalt zunehmen, sodass sie zur Messung der Vielfalt verwendet werden können, wenn sie verstanden wird dass ein kleinerer Wert eine höhere Diversität darstellt. Die Werte dieser Indizes können als Mangel an Diversität (Isolation oder Segregation), Redundanz, Ungleichheit, Nicht-Zufälligkeit oder Komprimierbarkeit der Daten angesehen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-81-322-0864-8_4 7fb8344b7b7c2eadc3f5e605650972ec;de;;;2.2.;;;CoMo: ein maßstabs- und rotationsinvarianter kompakter zusammengesetzter momentbasierter Deskriptor für die Bildgewinnung Low-Level-Features spielen eine bedeutende Rolle bei der Bildwiederherstellung. Bildmomente können globale Informationen des Bildinhalts effektiv darstellen, während sie gegenüber Translation, Rotation und Skalierung invariant sind. Dieses Papier präsentiert;-;-;-;https://link.springer.com/article/10.1007/s11042-018-5854-3 b4c53fd8c03de3c6d6a7835eb173415b;de;;;2.2.;;;Mustermathematik Bei räumlich oder zeitlich zusammenhängenden Samples von Signalwerten, die „Informationen“ darstellen, benötigt man einen mathematischen Rahmen zur Beschreibung ihrer quantitativen Zusammenhänge. Dies wird oft durch den Vektorformalismus bereitgestellt. Andererseits können die Operationen in Vektorräumen bequem durch Matrixalgebra manipuliert werden. Diese Themen bilden den Hauptinhalt dieses Abschnitts.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-88163-3_2 17284798935df72497de0f27c276b9f5;de;;;2.2.;;;GDCRT: In-Memory 2D Geographical Dynamic Cascading Range Tree Mit der rasanten Zunahme von GPS-Nutzern ist die Leistungsfähigkeit von Location Based Services (LBS) nach und nach ein heißes Forschungsthema geworden. Als Kernalgorithmus von LBS wird die schnelle Verarbeitung von Abfragen mit großen Datenmengen zum Hauptproblem. Bis jetzt sind die Hauptstrukturen in diesem Bereich der R-Baum und seine Varietäten. Sie können zwar an eine Vielzahl dynamischer Datensätze angepasst werden und verarbeiten Einfügen/Löschen in;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67952-5_8 44352e6ddff0cc9d3e04f75707c40883;de;;;2.2.;;;Biologische Evolution: Osmose, Wachstum und Anpassung Das „Lange Gespräch“ umfasst drei wichtige Punkte des Lernens und der Entwicklung. Jeder Punkt neigt dazu, aufkommende Komplexität zu erzeugen, die die Implementierung zurückwerfen und von ihrem ursprünglichen Fokus ablenken und zu mehr Gruppenlernen motivieren kann. Sie sind wie folgt: Osmose, Wachstum und Anpassung (siehe Abbildung 3.1). Die Kombination dieser drei entscheidenden Punkte macht die Beherrschung der Informationstechnologie aus, die auf dem formellen und informellen Austausch von Wissen über Technologie und die betroffenen Prozesse und Strukturen beruht.;-;-;-;https://link.springer.com/chapter/10.1057/9780230337190_3 3ed88783404a88ca5ba0ecf66cdbb687;de;;;2.2.;;;Robuste optimale Kontrolle regulärer Sprachen Language Dieses Kapitel stellt einen Algorithmus zur robusten optimalen Kontrolle regulärer Sprachen unter festgelegten Unsicherheitsgrenzen für die Ereigniskosten eines Sprachmaßes vor, der kürzlich in der Literatur beschrieben wurde und in Kapitel 1 vorgestellt wird. Der Leistungsindex für die vorgeschlagene robuste optimale Politik wird erhalten durch Kombinieren des Maßes der überwachten Pflanzensprache mit Unsicherheit. Die Leistung eines Reglers wird durch das Sprachmaß der überwachten Anlage repräsentiert und über den gegebenen Bereich der Ereigniskostenunsicherheiten minimiert. Die Synthese der robusten optimalen Kontrollpolitik erfordert höchstens;-;-;-;https://link.springer.com/chapter/10.1007/0-387-23903-0_3 f7853dcb2fde7d900d5de1f77580fc66;de;;;2.2.;;;SRelation: Schneller RDF-Graph-Traversal Verknüpfte Daten im RDF-Format können als eine Reihe von miteinander verknüpften Daten im Web angezeigt werden. Besondere Aufgaben, die auf diesen Daten berechnet werden, umfassen die textbasierte Suche nach Entitäten, Beziehungen oder das Ausführen verschiedener Abfragen mit Abfragesprachen wie SPARQL. Solche miteinander verknüpften Daten können als Graph mit Kanten und Scheitelpunkten interpretiert werden. Für den aktuellen SPARQL 1.1-Standard gibt es Unterstützung für Graph-Traversal, vorgeschlagen und angekündigt von der SPARQL-Arbeitsgruppe. Hinsichtlich der Performance ist die Eigenschaftspfadaufgabe das Problem in aktuellen Lösungen. Dieses Papier beschreibt eine innovative und zeiteffiziente Methode der Graph-Traversal-Aufgabe - SRelation. Zuerst diskutieren wir aktuelle Ansätze für SPARQL 1.1 Graph Traversal. Für den Datenzugriff erwähnen wir lokale und verteilte Lösungen, disk-basierte, gemischte und Whole-in-Memory-Datenspeicheraspekte. Wir diskutieren Vor- und Nachteile verschiedener Ansätze und schlagen unsere neue Methode SRelation vor, um in das Feld des In-Memory-Konzepts zu passen. Um dies zu unterstützen, präsentieren wir unsere Experimente an ausgewählten Linked-Data-Datensätzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41360-5_6 c3f5f4c57684e379e78bb646694a3963;de;;;2.2.;;;Verarbeitung mit mehreren Auflösungen Dieses Papier betrifft ein Verfahren zum Verarbeiten großer zweidimensionaler Datenfelder. Das Mehrfachauflösungsverfahren betrachtet komprimierte Versionen des ursprünglichen Arrays, um globale Entscheidungen zu ermöglichen, die ansonsten durch die vorhandene Datenmenge behindert würden. Das Konzept ist auf Bilddatenverarbeitung und -scannen (d. h. Digitalisierung oder Erfassung durch Computer) anwendbar. Da der Prozess des Extrahierens globaler Informationen aus lokalen Informationen das Verknüpfen elementarer Dateneinheiten miteinander beinhaltet, sind die benötigten Datenstrukturen ähnlich denen, die beim Anzeigen von Bildern auf Computergrafikkonsolen verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-51590-3_5 f93cf0d5d8f7636a2e3b54c76fdcbdef;de;;;2.2.;;;Nächste Abfrage auf verteilten Binärbäumen ausgehend von einem zufälligen Knoten Dieses Papier schlägt eine neue verteilte Datenstruktur vor, die auf Binärbäumen basiert, um k-nächste Nachbarabfragen über sehr große Datenbanken zu unterstützen. Die Indexierungsstruktur ist über ein Netzwerk von „Peers“ verteilt, wobei jeder einen Teil des Baums hostet und die Kommunikation zwischen den Knoten durch Message Passing realisiert wird. Die Vorteile dieser Art von Ansatz sind hauptsächlich zwei: Es ist möglich, (i) eine größere Anzahl von Knoten und Punkten zu handhaben als eine Architektur auf Basis eines einzelnen Peers und (ii) die Berechnung mehrerer Abfragen auf effiziente Weise zu verwalten. Insbesondere schlagen wir eine neuartige Version des k-nearest-neighbor-Algorithmus vor, der die Abfrage in einem zufällig ausgewählten Peer starten kann. Vorläufige Experimente haben gezeigt, dass in etwa 65 % der Fälle eine Abfrage, die in einem zufälligen Knoten beginnt, nicht den Peer umfasst, der die Wurzel des Baums enthält.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-45880-9_20 6fa999085193dbd7ff220a83c0ef4594;de;;;2.2.;;;Vertrauenswürdige Auswahl von Cloud-Anbietern basierend auf Sicherheits- und Datenschutzanforderungen: Begründung von Vertrauensannahmen Cloud Computing ist ein neues Paradigma mit vielversprechendem Potenzial. Fragen der Sicherheit, des Datenschutzes und des Vertrauens werfen jedoch Bedenken auf und schrecken von der Einführung ab. In früheren Arbeiten haben wir einen Rahmen für die Auswahl eines geeigneten Cloud-Anbieters basierend auf Sicherheits- und Datenschutzanforderungen vorgestellt. Die Einführung der Cloud beinhaltet jedoch die Freigabe der Kontrolle über wertvolle Vermögenswerte, was das Vertrauen in den Cloud-Anbieter von größter Bedeutung darstellt. In diesem Papier erweitern wir das Framework, indem wir Vertrauens- und Kontrollkonzepte in seine Sprache integrieren und eine neue Aktivität hinzufügen, um Vertrauensannahmen bei der Auswahl des geeigneten Cloud-Anbieters richtig zu identifizieren und zu begründen. Außerdem wurde das CASE-Tool erweitert, um die neue Aktivität zu unterstützen. Eine Fallstudie wird verwendet, um die Nützlichkeit unseres Ansatzes zu veranschaulichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40343-9_16 e4c6415a8dc9ab7d74c39c4e765e7b3a;de;;;2.2.;;;Effektive Ähnlichkeitssuchmethoden für große Videodatenströme In diesem Artikel untersuchen wir die Ähnlichkeitssuchmethoden für große Videodatensätze, die aus einer Sammlung von Videoclips bestehen. Ein Videoclip, eine Sequenz von Videoframes, die ein bestimmtes Ereignis beschreiben, wird durch eine Sequenz in einem mehrdimensionalen Datenraum dargestellt. Jeder Videoclip ist unterteilt in;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44864-0_107 3f209bff75e584504dba7d2c4978d3cf;de;;;2.2.;;;Der Publikationserfolg von 102 Nationen in Scopus und die Leistung ihrer Scopus-indexierten Zeitschriften Im Laufe der Jahre hat die Zahl der in Scopus indizierten Zeitschriften zugenommen, obwohl sie zwischen den Ländern erheblich variiert. Der zunehmende Anteil internationaler Zeitschriften eines Landes bietet neue Orte für Veröffentlichungen aus diesem Land, die von anderen Forschern weltweit gesehen werden. In dieser Arbeit evaluieren wir das Verhältnis der wissenschaftlichen Leistung oder des Publikationserfolgs eines Landes zur Quantität und Qualität seiner Zeitschriften. Das spezifische Ziel der Studie besteht darin, den Zusammenhang zwischen dem Publikationserfolg des Landes und der Quantität und Qualität der in Scopus in den Jahren 2005–2014 indizierten Zeitschriften dieses Landes zu ermitteln. Untersucht wurden der Publikationserfolg von 102 einzelnen Ländern, gemessen an ihren wissenschaftlichen Produktivitäts-, Impact- und Kooperationsindikatoren, die Anzahl der Scopus-indexierten Zeitschriften des Landes im Jahr 2014 (insgesamt 22.581 Zeitschriften) sowie die Anzahl seiner Zeitschriften. Scopus-indexierte Zeitschriften stammen überwiegend aus Westeuropa (48,9%) und Nordamerika (27,7%), wobei die USA und das Vereinigte Königreich mit insgesamt 51% dominieren. Der Beitrag der Peripherieländer ist vergleichsweise gering, jedoch gibt es viele Beiträge aus den südostasiatischen Ländern. Estland ist das am schnellsten wachsende Land in Bezug auf die in Scopus indizierten Zeitschriften, gefolgt vom Iran und Malaysia. Unter den untersuchten Indizes wurde festgestellt, dass der Publikationserfolg (Gesamtpublikationen und Gesamtzitierungen) von 102 Ländern stark mit Quantität (Anzahl der indizierten Zeitschriften und Anzahl der in indexierten Zeitschriften veröffentlichten Dokumente) und Qualität (Zitate pro Aufsatz, SJR, h -index, CiteScore und SNIP) Indikatoren der Zeitschriften des Landes. Wir können daraus schließen, dass die wissenschaftliche Produktivität eines Landes entscheidend von der Anzahl der Zeitschriften abhängt, die aus diesem Land in Zitationsdatenbanken indiziert sind. Die Studie bietet einen Kontext, in dem der relative Erfolg von Publikationen bewertet werden kann, und liefert neue Erkenntnisse über die wissenschaftliche Wirkung einzelner Länder und die Leistung der von ihnen veröffentlichten Zeitschriften.;-;-;-;https://link.springer.com/article/10.1007/s12109-017-9540-5 c52a40667458b3ef51e47d67362ebc92;de;;;2.2.;;;Überwachtes Hashing zum Abrufen multimodaler biometrischer Daten Biometrische Systeme verwenden im Allgemeinen multibiometrische Ansätze, bei denen eine Person auf der Grundlage mehrerer biometrischer Merkmale verifiziert oder identifiziert wird. Allerdings erfordert das Anfordern von Systemen, die bereitgestellt werden, in der Regel eine Verifizierung oder Identifizierung durch eine große Anzahl von eingeschriebenen Kandidaten. Diese sind nur möglich, wenn es effiziente Methoden gibt, die relevante Kandidaten in einem multibiometrischen System finden. Um dieses Problem zu lösen, analysieren wir die Verwendung von Hashing-Techniken, die für den Abruf verfügbar sind. Wir empfehlen speziell basierend auf unserer Analyse die Verwendung von überwachten Hashing-Techniken über Deep-Learning-Features als eine mögliche gängige Technik, um dieses Problem zu lösen. Unsere Untersuchung umfasst einen Vergleich einiger der überwachten und unüberwachten Methoden, nämlich. Hauptkomponentenanalyse (PCA), Locality Sensitive Hashing (LSH), Locality-sensitive Binary Codes from shift-invarianten Kernels (SKLSH), Iterative Quantization: A procrustean approach to learning Binary Codes (ITQ), Binary Reconstructive Embedding (BRE) und Minimum Loss Hashing (MLH), die die vorherrschenden Klassen solcher Systeme darstellen, und wir präsentieren unsere Analyse für die folgenden biometrischen Daten: Gesicht, Iris und Fingerabdruck für eine Reihe von Standarddatensätzen. Die wichtigsten technischen Beiträge dieser Arbeit sind wie folgt: (a) Vorschlag einer siamesischen netzwerkbasierten Deep-Learning-Merkmalsextraktionsmethode Hashing, um eine kompakte Merkmalsdarstellung über verschiedene biometrische Merkmale hinweg zu erhalten. (d) Analyse der Leistung von tiefen Darstellungen gegenüber flachen Darstellungen in einem praktischen Repräsentationsrahmen mit reduzierten Merkmalen. Durch das Experimentieren mit mehreren biometrischen Merkmalen, Merkmalsdarstellungen und Hashing-Techniken können wir den Schluss ziehen, dass aktuelle Deep-Learning-Merkmale beim Abrufen mit überwachtem Hashing eine Standardpipeline für die meisten uni- und multimodalen biometrischen Identifizierungsaufgaben sein können.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1387-9_8 1cf01133f9c4db736619e4fbeed918dc;de;;;2.2.;;;Sprachunabhängige Antwortvorhersage aus dem Web Diese Arbeit stellt eine Strategie vor, die darauf abzielt, vorhergesagte Antworten aus dem Web basierend auf den Eigenwerten einer speziell entworfenen Matrix zu extrahieren und einzuordnen. Diese Matrix modelliert die Stärke der syntaktischen Beziehungen zwischen Wörtern anhand der Häufigkeit ihrer relativen Positionen in Sätzen, die aus Webschnipseln extrahiert wurden. Wir bewerten den Rang der vorhergesagten Antworten, indem wir Antwortkandidaten für drei verschiedene Arten von Fragen extrahieren. Aufgrund der geringen Abhängigkeit von einer bestimmten Sprache wenden wir unsere Strategie auch auf Fragen aus vier verschiedenen Sprachen an: Englisch, Deutsch, Spanisch und Portugiesisch.;-;-;-;https://link.springer.com/chapter/10.1007/11816508_43 6041f722bbab91ade2b1cb003148b4a4;de;;;2.2.;;;Robuste Ausrichtung von Präsentationsvideos mit Folien Viele Präsentationen, die aus Video, Audio und Dias bestehen, werden für weitere Verbreitungszwecke aufgezeichnet. Die Ausrichtung der Videofolien ist für eine effiziente Überprüfung erforderlich und hat daher viel Aufmerksamkeit auf sich gezogen. Der aufgezeichnete Videostil variiert jedoch aufgrund unterschiedlicher Aufnahmesysteme stark, und die meisten existierenden Ausrichtungsansätze befassen sich mit einem der Videostile. In diesem Papier wird ein allgemeinerer Ansatz vorgeschlagen, um die Ausrichtung auf alle wichtigen Videostile anwendbar zu machen. Wir kombinieren hauptsächlich die SIFT-Schlüsselpunkte (Scale Invariant Feature Transform) und Farbfunktionen, um zwischen Video- und elektronischen Folien für die Ausrichtung abzustimmen, und verwenden Texturfunktionen als Ergänzung. Der Ansatz verbessert die Ausrichtungsleistung und ist in der Lage, viele Arten von Videos zu handhaben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10467-1_27 a0c6e9a736f14f2800bb1ca835c8ce84;de;;;2.2.;;;Eine neue globale Ausrichtungsmethode für merkmalsbasiertes Bildmosaik In den letzten zehn Jahren hat sich die Bildmosaikierung zu einem wichtigen Werkzeug für verschiedene Bereiche wie Panoramafotografie, Kartierung, Szenenstabilisierung, Videoindexierung und Komprimierung entwickelt. Obwohl jüngste Fortschritte bei der Erkennung von Bildkorrespondenzen zu einer sehr guten Bildregistrierung geführt haben, ist immer noch eine globale Ausrichtung erforderlich, um ein global kohärentes Mosaik zu erhalten. Normalerweise erfordert die globale Ausrichtung die nichtlineare Minimierung eines Fehlerterms, der aus Bildkorrespondenzen definiert wird. In diesem Beitrag wird ein neues globales Alignment-Verfahren vorgestellt. Es funktioniert auf dem Mosaikrahmen und erfordert keine nichtlineare Optimierung. Das vorgeschlagene Verfahren wurde mit mehreren Bildsequenzen getestet und vergleichende Ergebnisse werden präsentiert, um seine Leistungsfähigkeit zu veranschaulichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89646-3_25 dec85d429a16e436c3a852d42ffaf45c;de;;;2.2.;;;Texterkennung in Diagrammbildern Herkömmliche OCR-Systeme (Optical Character Recognition) erkennen und erkennen kleine Textketten mit wenigen Zeichen nicht, insbesondere wenn eine Textzeile nicht horizontal ist. Solche Textbereiche sind typisch für Diagrammbilder. In diesem Beitrag stellen wir einen Algorithmus vor, der in der Lage ist, kleine Textbereiche unabhängig von Zeichenfolgenausrichtung und Schriftgröße oder -stil zu erkennen. Wir schlagen vor, diesen Algorithmus als Vorverarbeitungsschritt für die Texterkennung mit einer üblichen OCR-Engine zu verwenden. Nach unseren experimentellen Ergebnissen kann man eine bis zu 20-mal bessere Texterkennungsrate und eine 15-mal höhere Texterkennungspräzision erzielen, wenn der vorgeschlagene Algorithmus verwendet wird, um Textposition, -größe und -orientierung zu erkennen, bevor ein OCR-System verwendet wird. Es wurden Experimente mit einem Benchmark-Set von 1000 Diagrammbildern durchgeführt, die mit dem XML/SWF-Diagrammtool erstellt wurden und insgesamt etwa 14000 Textbereiche enthalten.;-;-;-;https://link.springer.com/article/10.1134/S1054661813010112 e42e71f658d51502a3449694b2a0670c;de;;;2.2.;;;Neuartiger Histogramm-Deskriptor für die globale Merkmalsextraktion und -beschreibung Ein neuartiger Histogramm-Deskriptor für die globale Merkmalsextraktion und -beschreibung wurde vorgestellt. Drei elementare Primitive für ein 2 × 2 Pixelraster wurden definiert. Die komplexen Primitive wurden durch Matrixtransformationen berechnet. Diese Grundelemente und die Äquivalenzklasse wurden für ein Bild verwendet, um das Merkmalsbild zu berechnen, das aus drei elementaren Grundelementen bestand. Für das transformierte Bild wurde ein Histogramm verwendet, um die Merkmale zu extrahieren und zu beschreiben. Darüber hinaus wurden Vergleiche zwischen dem neuartigen Histogramm-Deskriptor, dem Grauhistogramm und dem Kantenhistogramm hinsichtlich der Merkmalsvektordimension und der Wiedergewinnungsleistung durchgeführt. Die experimentellen Ergebnisse zeigen, dass das neuartige Histogramm nicht nur den Effekt von Rauschen und Beleuchtungsänderungen reduzieren kann, sondern auch den Merkmalsvektor der niedrigeren Dimension berechnen kann. Darüber hinaus weist das System, das das neuartige Histogramm verwendet, eine bessere Abrufleistung auf.;-;-;-;https://link.springer.com/article/10.1007/s11771-010-0526-0 85e380a1814183606a39cfd351c559ba;de;;;2.2.;;;Schätzung der Textinhaltszuverlässigkeit in Webdokumenten: Ein neuer Vorschlag Dieses Papier veranschaulicht, wie eine Kombination aus Informationsabruf, maschinellem Lernen und NLP-Korpus-Annotationstechniken auf ein Problem der Schätzung der Zuverlässigkeit von Textinhalten in Webdokumenten angewendet wurde. Unser Vorschlag zur Schätzung der Zuverlässigkeit von Textinhalten basiert auf einem Modell, bei dem die Zuverlässigkeit ein Ähnlichkeitsmaß zwischen dem Inhalt der Dokumente und einem Wissenskorpus ist. Der Vorschlag sieht eine neue Textdarstellung vor, die Folgegrafiken verwendet. Dann verwenden wir die graphbasierten Darstellungen als Trainingsinstanzen für einen maschinellen Lernalgorithmus, der es ermöglicht, ein Zuverlässigkeitsmodell zu erstellen. Experimentelle Ergebnisse veranschaulichen die Machbarkeit unseres Vorschlags durch einen Vergleich mit einer Methode nach dem Stand der Technik.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28601-8_37 8c173a72e4c6c898cd8b1a0fb4e40d16;de;;;2.2.;;;SurvSurf: Human Retrieval auf großen Überwachungsvideodaten Die Menge an Überwachungsvideos nimmt rapide zu, bei denen der Mensch im Mittelpunkt des Interesses steht. Ein schnelles Abrufen von Menschen in Überwachungsvideos ist daher wünschenswert und auf ein breites Anwendungsspektrum anwendbar. Bestehende Big-Data-Verarbeitungstools, die hauptsächlich auf Textdaten abzielen, können aufgrund von drei Hauptproblemen nicht direkt für die zeitnahe Verarbeitung großer Videodaten angewendet werden: Videos sind datenintensiver als Textdaten, visuelle Operationen haben eine höhere Rechenkomplexität als Textoperationen und traditionelle Segmentierung kann die kontinuierliche Semantik der Videodaten beschädigen. In diesem Whitepaper entwerfen wir SurvSurf, ein System zum Abrufen von Menschen für große Überwachungsvideodaten, das die Eigenschaften dieser Daten und Big-Data-Verarbeitungstools nutzt. Wir schlagen vor, in Videos enthaltene Bewegungsinformationen zur Segmentierung von Videodaten zu verwenden. Die Basisdateneinheit nach der Segmentierung heißt;-;-;-;https://link.springer.com/article/10.1007/s11042-016-3307-4 74b406f0a944e8aef9a555b31efa45f2;de;;;2.2.;;;Zusammenführen von SGML-Dokumenten und -Datenbanken Wir schlagen einen einheitlichen und flexiblen Mechanismus vor, um Referenzlinks von SGML-Dokumenten zu Datenbankobjekten zu erstellen. Neben typischen logischen Strukturen von Dokumenten wie Abschnitten und Absätzen erlaubt unser Mechanismus beliebige Zeichenketten in Dokumenten als Quelle dieser Links. Durch Verwendung dieses Mechanismus können SGML-Attribute und ihre Werte von markierten Wörtern transparent als Datenbankattribute gespeichert werden, und wir können Hyperlinks zwischen Schlüsselwörtern in Dokumenten erstellen, die Beziehungen zwischen den entsprechenden Datenbankobjekten widerspiegeln. Außerdem präsentieren wir eine Abfragesprache zum Abrufen von SGML-Dokumenten, die auf diese Weise mit Datenbanken gekoppelt sind. Die Abfragesprache geht nicht von einem bestimmten Datenbankschema aus, sondern verwendet DTD-Graphen, die Elementstrukturen von DTDs darstellen, als virtuelle Schemata.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0014157 ebdeeb892a9e70580b8e9981d787644d;de;;;2.2.;;;Algorithmisches Debugging für faule funktionale Sprachen Lazy Functional Languages ​​haben eine nicht strikte Semantik und sind rein deklarativ, d. h. sie unterstützen das Konzept der referentiellen Transparenz und sind frei von Nebenwirkungen. Herkömmliche Debugging-Techniken sind jedoch für faule funktionale Sprachen nicht geeignet, da Berechnungen im Allgemeinen nicht in der erwarteten Reihenfolge stattfinden. Seit;-;-;-;https://link.springer.com/chapter/10.1007/3-540-55844-6_149 31a62a51ab0db556c4cbc060406ca9bd;de;;;2.2.;;;Handabdruckabgleich nach Minutien und Ridge Distance Palmprint ist ein unverzichtbares Biometrie zur Personenidentifikation, insbesondere in der forensischen Sicherheit. Aufgrund des großen gültigen Bereichs des Handabdrucks ist die Handabdruckerkennung sehr zeitaufwendig. Schnelle und genaue Handabdruckerkennung ist ein dringendes Problem. Um das Abgleichen zu beschleunigen, werden einige Verfahren vorgeschlagen, die auf Klassifikation und Indexierung basieren, bei denen die Genauigkeit vernachlässigt werden kann. Der Ridge Distance wird oft als Hilfsmerkmal bei der Handabdruckerkennung verwendet. In diesem Beitrag wird ein neuartiger Minutiae-Matching-Algorithmus vorgeschlagen, der den Ridge Distance berücksichtigt. Zunächst beziehen wir den Kammabstand zu herkömmlichen Minutien ein. Dann könnte mit der Einschränkung des Kammabstands die Ausrichtung der Handflächenabdrücke stark beschleunigt werden. Experimentelle Ergebnisse zeigen, dass unsere Methode nicht nur den Zeitaufwand für das Matching reduzieren, sondern auch die Matching-Genauigkeit verbessern konnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48674-1_33 3e1069103ddfe36a19094d8ed249b735;de;;;2.2.;;;Eine automatische TV-LOGO-Erkennungsmethode Dieses Papier beschreibt eine einfache und praktische Technik zur Erkennung von Logos, die einen Sender im TV-Programm charakterisieren. Herkömmliche Erkennungsalgorithmen wie Merkmalsextraktion und Vorlagenvergleich wurden in vielen Anwendungen angewendet. Die Einschränkung dieser Methode kann jedoch das transparente Logo nicht effektiv erkennen. Ausgefeiltere lernbasierte Verfahren haben sich diesen Problemen angenommen, aber sie beinhalten typischerweise eine sehr hohe Rechenkomplexität. Wir präsentieren ein automatisches Verfahren zur Erkennung von TV-Logos, das auf der statistischen Eigenschaft von Videosequenzen basiert. Verschiedene andere Ansätze, ein Transparenzfaktor wird zunächst in diesem Papier vorgestellt. Es ist ein Symbol, das dem Grad der Transparenz und Unverzichtbarkeit des TV-Logos als Teil der Logo-Information entspricht. Kombiniert mit der statistischen Eigenschaft von Videosequenzen können die Logoinformationen eindeutig gewonnen und erkannt werden. Experimentelle Ergebnisse zeigen, dass das vorgeschlagene Verfahren nicht nur einfach ist, sondern auch gute Leistungen liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34595-1_33 2a721be707ba2b423636a0d9e94104bc;de;;;2.2.;;;Eine sehr effiziente Ordnung, die eine skalierbare verteilte Datenstruktur bewahrt SDDS (Scalable Distributed Data Structures) sind Zugriffsverfahren, die speziell entwickelt wurden, um die hohen Leistungsanforderungen einer verteilten Computerumgebung zu erfüllen, die aus einer Sammlung von Computern besteht, die über ein Hochgeschwindigkeitsnetzwerk verbunden sind. In diesem Whitepaper präsentieren und diskutieren wir die Leistung von ADST, einer neuen Ordnungserhaltung von SDDS mit konstanten Worst-Case-Kosten für exakte Suchanfragen, logarithmischen Worst-Case-Kosten für Update-Anfragen und optimalen Worst-Case-Kosten für Bereichssuchen von;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44759-8_20 ee3b3cd2bafc0557da2be8cc40b35c96;de;;;2.2.;;;Über die Formenvielfalt digitaler Bäume Wir untersuchen die gemeinsame Verteilung der Häufigkeit des Vorkommens von Mitgliedern einer Sammlung nicht überlappender Motive in digitalen Daten. Wir beschäftigen uns mit endlichen und abzählbar unendlichen Sammlungen. Für unendliche Sammlungen erfordert die Einstellung, dass wir die Spezifikation der zugrunde liegenden maßtheoretischen Formulierung sehr explizit machen. Wir zeigen, dass (bei entsprechender Normalisierung) für eine solche Sammlung jede Linearkombination der Häufigkeit des Auftretens jedes der Motive in den Daten eine limitierende Normalverteilung hat. Dies lässt sich in vielen Fällen über die Häufigkeit des Vorkommens einzelner Motive interpretieren: Sie weisen eine multivariate Normalverteilung auf. Die Beweismethoden umfassen Kombinatorik an Wörtern, Integraltransformationen und Poissonisierung.;-;-;-;https://link.springer.com/article/10.1007/s10959-016-0700-x e89e8faac7e7f0215e03876fda41451e;de;;;2.2.;;;Textsegmentierung mit Kontextüberlappung In diesem Artikel schlagen wir wünschenswerte Merkmale von linearen Textsegmentierungsalgorithmen für den Bereich Information Retrieval vor, wobei der Schwerpunkt auf der Verbesserung der Suche nach hoher Ähnlichkeit in heterogenen Texten liegt. Wir fahren fort, ein robustes rein statistisches Verfahren zu beschreiben, das auf der Ausnutzung von Kontextüberlappung basiert und diese gewünschten Eigenschaften aufweist. Experimentelle Ergebnisse werden zusammen mit einem Vergleich mit anderen bestehenden Algorithmen präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77002-2_54 6ab5cc4b15d506440e3d98ae1ddeba76;de;;;2.2.;;;Von humanoiden Cartoon-Designs lernen Das Charakterdesign ist ein Schlüsselfaktor für den Erfolg von Comics, Graphic Novels oder Animationsfilmen. Künstler verwenden in der Regel Form, Größe und Proportion als erste Designebene, um Rollen-, Körper- und Persönlichkeitsmerkmale auszudrücken. In diesem Papier schlagen wir ein Knowledge-Mining-Framework vor, das primitive Formmerkmale aus fertiger Kunst extrahiert und Modelle mit beschrifteten Metadatenattributen trainiert. Die Anwendungen liegen in der formbasierten Abfrage von Zeichendatenbanken sowie der etikettenbasierten Generierung von Grundformgerüsten, die einen fundierten Ausgangspunkt für das Skizzieren neuer Zeichen bieten. Es ebnet den Weg für eine intelligentere Formindizierung beliebiger gut strukturierter Objekte in Bildbibliotheken. Darüber hinaus bietet es Anfängern und jungen Künstlern ein hervorragendes Werkzeug, um von den Experten zu lernen. Wir beschreiben zuerst eine neuartige, auf Primitiven basierende Formsignatur zum Kommentieren von Körperteilen von Charakteren. Wir verwenden dann die Support-Vektor-Maschine, um diese Zeichen zu klassifizieren, indem wir die Formsignatur ihres Körperteils als Merkmale verwenden. Die vorgeschlagene Datentransformation ist rechentechnisch leicht und ergibt einen kompakten Speicher. Wir vergleichen die Lernleistung unserer Shape-Repräsentation mit einer Low-Level-Point-Feature-Repräsentation mit erheblicher Verbesserung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14400-4_47 78905b487f78d2406de24503c4ee5ffc;de;;;2.2.;;;Verwendung von latenter Semantik für die NE-Übersetzung Dieses Papier beschreibt einen Algorithmus, der bei der Entdeckung von Named Entity (NE)-Übersetzungspaaren aus großen Korpora hilft. Es basiert auf Latent Semantic Analysis (LSA) und Cross-Lingual Latent Semantic Indexing (CL-LSI) und ist in der Lage, automatisch neue Übersetzungspaare in einem Bootstrapping-Framework zu entdecken. Einige Experimente werden durchgeführt, um die Interaktion zwischen Korpusgröße, Merkmalen und Algorithmusparametern zu quantifizieren, um die Funktionsweise des vorgeschlagenen Ansatzes besser zu verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/11940098_48 fb88bd8a4d2e0732c3b7106254fda492;de;;;2.2.;;;XVERSA: Ein integriertes grafisches und textuelles Toolset zur Spezifikation und Analyse von ressourcengebundenen Echtzeitsystemen Wir präsentieren XVERSA, ein Set von Tools zur Spezifikation und Analyse von ressourcengebundenen Echtzeitsystemen. XVERSA erleichtert die Verwendung der Algebra of Communicating Shared Resources (ACSR), einer Echtzeit-Prozessalgebra mit expliziten Begriffen von Ressourcen und Priorität. Eine textbasierte Benutzeroberfläche unterstützt Syntaxprüfung, Analyse basierend auf Äquivalenzprüfung, Zustandsraumerkundung und algebraisches Umschreiben. Eine grafische Benutzeroberfläche ermöglicht die Beschreibung und Analyse von Systemen unter Verwendung intuitiver bildlicher Darstellungen von ACSR-Sprachelementen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-61474-5_89 71647cfb1913c0593f4eca1cdad8a427;de;;;2.2.;;;Eine Methode zum Abrufen von Blumenbildern basierend auf der ROI-Funktion Der Abruf von Blumenbildern ist ein sehr wichtiger Schritt für die computergestützte Erkennung von Pflanzenarten. In diesem Artikel schlagen wir eine effiziente Segmentierungsmethode vor, die auf Farbclustering und Domänenwissen basiert, um Blütenregionen aus Blütenbildern zu extrahieren. Für die Blumenwiederherstellung verwenden wir das Farbhistogramm einer Blumenregion, um die Farbmerkmale von Blumen zu charakterisieren, und zwei formbasierte Merkmalssätze, Centroid-Contour Distance (CCD) und Angle Code Histogram (ACH), um die Formmerkmale von a . zu charakterisieren Blumenkontur. Experimentelle Ergebnisse zeigten, dass unsere Methode zur Extraktion von Blütenregionen, die auf Farbclustering und Domänenwissen basiert, genaue Blütenregionen erzeugen kann. Die Ergebnisse der Blütensuche in einer Datenbank mit 885 Blumenbildern, die von 14 Pflanzenarten gesammelt wurden, zeigten, dass unser auf der Region of Interest (ROI) basierender Suchansatz, der sowohl Farb- als auch Formmerkmale verwendet, eine bessere Leistung erbringen kann als eine Methode, die auf dem von Swain vorgeschlagenen globalen Farbhistogramm basiert und Ballard (1991) und eine Methode basierend auf domänenwissensgesteuerter Segmentierung und Farbnamen vorgeschlagen von Das;-;-;-;https://link.springer.com/article/10.1631/jzus.2004.0764 e5daf2fd971125469b5af21fd25d5490;de;;;2.2.;;;Bengalische Ortsnamenerkennung – Vergleichende Analyse mit verschiedenen CNN-Architekturen Optische Zeichenerkennung (OCR) wurde in der Vergangenheit in verschiedenen Anwendungsbereichen wie der automatischen Transkription und Indexierung von Dokumentenbildern, Lesehilfen für Sehbehinderte, Postautomatisierung usw auf die Tatsache, dass die Zeichensegmentierung selbst eine fehleranfällige und schwierige Operation ist, die aufgrund einer fehlerhaften Segmentierung von Zeichen zu einer schlechten Leistung des Systems führt. Daher ist für viele Anwendungen (wie Dokumentenindexierung, Postautomatisierung), bei denen keine vollständige zeichenweise Transkription erforderlich ist, die Worterkennung heutzutage die bevorzugte Methode. Dieser Artikel untersucht die Erkennung bengalischer Ortsnamen als Wortbilder anhand von 5 verschiedenen traditionellen Architekturen. Es wurden Experimente mit Wortbildern (von bengalischen Ortsnamen) aus 608 Klassen durchgeführt. In allen Fällen wurden ermutigende Ergebnisse erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1092-9_29 53ce27ee39e49d7412230e4b9b2debb5;de;;;2.2.;;;Wahrscheinlichkeitsrechnung Der Skyline-Operator ist ein nützliches Werkzeug bei der Entscheidungsfindung nach mehreren Kriterien in verschiedenen Anwendungen. Unsicherheit ist in realen Anwendungen aus verschiedenen Gründen inhärent. In diesem Papier betrachten wir das Problem der effizienten Berechnung probabilistischer Skylines gegenüber den neuesten;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41154-0_33 3579580052192e4d870e3c60cd169935;de;;;2.2.;;;Flow-Shop-Planung mit einem allgemeinen Ansatz für die differenzielle Evolution Dieses Kapitel präsentiert einen allgemeinen Rahmen des Differential Evolution Algorithmus für kombinatorische Optimierungsprobleme. Wir definieren die Differenzen zwischen einem gegebenen Lösungspaar in der differentiellen Mutation als eine Menge von Elementarbewegungen im diskreten Suchraum. Auf diese Weise bleiben der Suchmechanismus und das selbstadaptive Verhalten der differentiellen Evolution erhalten und auf kombinatorische Probleme verallgemeinert. Diese Ideen werden dann auf n-Job-m-Maschinen-Flow-Shop-Scheduling angewendet, um ihre Anwendung in einem wichtigen Problem der kombinatorischen Optimierung zu veranschaulichen. Die Methode wurde auf die 120 Taillard-Instanzen des Permutationsfluss-Shop-Scheduling-Problems angewendet und mit den Ergebnissen anderer metaheuristischer Algorithmen in der Literatur verglichen. Obwohl sich dDE nur auf die differenzielle Mutation und die lokale Suche des besten Individuums verlässt, schneidet dDE ziemlich gut gegen anspruchsvollere Metaheuristiken ab. Die Ergebnisse sind vielversprechend und veranschaulichen die Anwendbarkeit des vorgeschlagenen Ansatzes für die kombinatorische Optimierung mit differentieller Evolution.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30504-7_24 07dc2771eb91c6e8a1cd24f9d931bb55;de;;;2.2.;;;Partnerschaft mit Formwechsel Die plastische Veränderung der Form und der Abmessungen eines Einkristalls wird makroskopisch als relative Verschiebung dünner Schichten gesehen, die der Verschiebung von Karten in einer Packung ähnelt. Diese Aufteilung in makroskopische Schichten erfolgt bei Zug (Abb. 1) und auch bei Druck, Biegung, Torsion und Scherung. Bei einem plastisch verformten technischen Metall, Gestein oder einem anderen polykristallinen Material tritt diese Art von Schlupf immer innerhalb der Körner auf, man sieht sie in Schliffen als charakteristische Schlieren mit vielleicht mehreren Richtungen (Abb. 2).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-1539-1_2 25a01dbead5d77462154ea3dd63d2b50;de;;;2.2.;;;Die Laufzeitstruktur des Objektbesitzes Objektorientierte Programme erfordern häufig große Heaps, um ordnungsgemäß ausgeführt zu werden oder Leistungsziele zu erreichen. Sie verwenden Sammlungen mit hohem Overhead, sperrige Datenmodelle und große Caches. Dies zu entdecken ist eine ziemliche Herausforderung. Manuelles Browsen und flache Zusammenfassungen lassen sich nicht auf komplexe Diagramme mit 20 Millionen Objekten skalieren. Der Kontext ist entscheidend, um Verantwortung und ineffiziente Objektkonnektivität zu verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/11785477_5 c5c1188eb8cc58f72aa7b46a1afe0dac;de;;;2.2.;;;Auswerten probabilistischer räumlicher Reichweiten-Abfragen mit engsten Paaren über unsichere Objekte Bei neu entstehenden Anwendungen wie Location Based Service (LBS) sind die Werte von Geodatenbankelementen naturgemäß unsicher. Dieser Artikel konzentriert sich auf das Problem, probabilistische engste Paare zwischen zwei unsicheren räumlichen Datensätzen in einem bestimmten Bereich zu finden, nämlich;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23535-1_51 43ceb0df0810511ba22b23c9471420b4;de;;;2.2.;;;Pegasus: Abbildung wissenschaftlicher Arbeitsabläufe auf das Raster In diesem Papier beschreiben wir das Pegasus-System, das komplexe Workflows auf das Grid abbilden kann. Pegasus nimmt eine abstrakte Beschreibung eines Workflows und findet die entsprechenden Daten und Grid-Ressourcen, um den Workflow auszuführen. Pegasus wird als Teil des GriPhyN Virtual Data Toolkit veröffentlicht und wurde in einer Vielzahl von Anwendungen verwendet, die von Astronomie, Biologie, Gravitationswellenwissenschaft und Hochenergiephysik reichen. Ein verzögerter Planungsmodus von Pegasus wird ebenfalls eingeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-28642-4_2 d0f2b0e8876542e8d9cb0894857e70a3;de;;;2.2.;;;Refactoring von stinkenden Tabellenkalkulationsmodellen Das Identifizieren von schlechten Designmustern in Software ist ein erfolgreicher und inspirierender Forschungstrend. Diese Muster entsprechen zwar nicht unbedingt Softwarefehlern, aber Tatsache ist, dass sie potenziell problematische Probleme aufwerfen, die oft als Code-Geruchs bezeichnet werden und beispielsweise die Wartbarkeit oder Weiterentwicklung beeinträchtigen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09156-3_39 b13e0d23909fa4def301b238dda474f1;de;;;2.2.;;;Ist psychische Erkrankung ein Risikofaktor für die Wiederaufnahme ins Krankenhaus? Menschen mit psychischen Erkrankungen (MI) erhalten eine suboptimale Versorgung für medizinische Komorbiditäten, und ihr hohes Risiko für eine Wiederaufnahme kann durch ein angemessenes Medikationsmanagement und Nachsorge behoben werden. Wir untersuchten den Zusammenhang zwischen MI, Medikationsänderungen und ambulanten Besuchen nach Entlassung mit 30-tägiger Wiederaufnahme bei 40.048 Medicare-Leistungsempfängern, die wegen akutem Myokardinfarkt, Herzinsuffizienz oder Lungenentzündung ins Krankenhaus eingeliefert wurden. Begünstigte mit MI wurden häufiger wieder aufgenommen als solche ohne MI (14 vs. 11%). Die Wahrscheinlichkeit einer Wiederaufnahme betrug 13 bzw. 12 %, wenn Medikamente abgesetzt bzw. hinzugefügt wurden, gegenüber 11 % ohne Änderung. Auch die Wahrscheinlichkeit einer Wiederaufnahme stieg bei ambulanten Besuchen.;-;-;-;https://link.springer.com/article/10.1007/s10488-018-0874-x c9e28ba1bc80bf7e0bdc4e780a0ef3c8;de;;;2.2.;;;Eine Sicherheitsmusterklassifizierung basierend auf Datenintegration Sicherheitsmuster sind Entwurfsmuster, die darauf spezialisiert sind, wiederverwendbare und allgemeine Lösungen für wiederkehrende Sicherheitsprobleme bereitzustellen. Diese Muster, die die Stärken unterschiedlicher Sicherheitsansätze erfassen, sollen das Design wartbarer und sicherer Anwendungen erleichtern. Die Pattern-Community stellt laufend neue Sicherheitspatterns zur Verfügung (derzeit sind 180 Patterns verfügbar). Für ein gegebenes Problem machen diese wachsende Mustermenge zusammen mit ihren abstrakten Darstellungen die Auswahl der Sicherheitsmuster selbst für Experten im Softwaredesign mühsam. Wir tragen zu dieser Ausgabe bei, indem wir eine Methode zur;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-93354-2_6 9ab31a4f4961be993c33bf33c7e1ab30;de;;;2.2.;;;Parallelisierung von permutierenden XML-Kompressoren Die ausführliche Natur von XML führt zu Overheads bei Speicher- und Netzwerkübertragungen, die durch die Verwendung von Parallel Computing überwunden werden können. Dieses Dokument stellt vier permutierende parallele XML-Kompressoren vor, die auf einem bestehenden XML-Kompressor namens XSAQCT basieren. Auf Multi-Core-Rechnern wurden Tests mit einer Testsuite durchgeführt, die XML-Dokumente mit verschiedenen Eigenschaften enthielt, und die Ergebnisse wurden analysiert, um die durch das Amdahl-Gesetz gegebenen Obergrenzen, die tatsächliche Geschwindigkeit und die Komprimierungsraten zu ermitteln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55224-3_31 cc5c61ad09583f024df5da277a45399d;de;;;2.2.;;;Eine Abfrage, die einen Greedy-Algorithmus zur Auswahl materialisierter Ansichten beantwortet Materialisierte Ansichten zielen darauf ab, die Antwortzeit von analytischen Abfragen zu verbessern, die an ein Data Warehouse gestellt werden. Dies bedeutet, dass sie Informationen enthalten, die Antworten auf die meisten zukünftigen Anfragen geben. Die Auswahl solcher Informationen aus dem Data Warehouse wird als Ansichtsauswahl bezeichnet. Die Ansichtsauswahl befasst sich mit der Auswahl geeigneter Sätze von Ansichten, um die Abfrageantwortzeit zu verbessern. In der Literatur gibt es mehrere Algorithmen zur Ansichtsauswahl, von denen die meisten auf Gier basieren. Der Greedy-Algorithmus HRUA, der Top-k-Ansichten aus einem mehrdimensionalen Gitter auswählt, gilt als der grundlegendste auf Greedy basierende Algorithmus. Es wählt Ansichten mit dem höchsten Nutzen, berechnet in Bezug auf die Größe, für die Materialisierung aus. Obwohl die unter Verwendung von HRUA ausgewählten Ansichten hinsichtlich der Größe vorteilhaft sind, berücksichtigen sie möglicherweise nicht eine große Anzahl zukünftiger Abfragen und können daher zu einem unnötigen Overhead werden. Dieses Problem wird durch den in diesem Papier vorgeschlagenen Query Answering Greedy Algorithm (QAGA) angegangen. QAGA verwendet sowohl die Größe der Ansicht als auch die Häufigkeit der zuvor gestellten Anfragen, die von jeder Ansicht beantwortet wurden, um die Gewinne aller Ansichten in jeder Iteration zu berechnen. Danach wählt es unter diesen die profitabelste Ansicht für die Materialisierung aus. QAGA ist in der Lage, Ansichten auszuwählen, die hinsichtlich der Größe vorteilhaft sind und eine größere Wahrscheinlichkeit haben, zukünftige Anfragen zu beantworten. Darüber hinaus zeigen experimentelle Ergebnisse, dass QAGA im Vergleich zu HRUA in der Lage ist, Ansichten auszuwählen, die eine größere Anzahl von Anfragen beantworten können. Obwohl HRUA geringere Gesamtkosten für die Auswertung aller Ansichten verursacht, hat QAGA geringere Gesamtkosten für die Beantwortung aller Anfragen, was zu einer Verbesserung der durchschnittlichen Antwortzeit für Anfragen führt. Dies wiederum erleichtert die Entscheidungsfindung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16732-4_17 0909ba5cfc8b7420b2686666313d73aa;de;;;2.2.;;;Entwurfsmuster für die modellgetriebene Entwicklung Design Patterns dokumentieren Lösungen für wiederkehrende Design- und Entwicklungsherausforderungen. UML, die De-facto-Modellierungssprache in der Softwareentwicklung, unterstützt mit ihren Collaboration-Konzepten das Definieren und Verwenden von Mustern. Wie in der Arbeit gezeigt wird, reicht die Unterstützung jedoch nicht für alle Arten von Mustern und alle sinnvollen Verwendungsmöglichkeiten von Mustern aus. In diesem Beitrag wird die Verwendung von Entwurfsmustern zu Dokumentationszwecken in der modellgetriebenen Entwicklung vorgeschlagen. Die Musterunterstützung von UML wird durch einen Ansatz ergänzt, der die Art von Musterlösungen nicht einschränkt. Der Ansatz wird toolgestützt in einer modellgetriebenen Entwicklungswerkzeugumgebung für grundlegende Steuerungs- und sicherheitsgerichtete Steuerungsanwendungen, UML AP Tool, unterstützt. Die entwickelte Werkzeugunterstützung umfasst das Instanziieren und Hervorheben von Mustern in Modellen sowie das Sammeln von Dokumentationen zur Verwendung von Mustern, was insbesondere der Entwicklung von Sicherheitssystemen zugute kommen könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25579-8_2 d7d3e578be7f019679f6a4e8dc1dd148;de;;;2.2.;;;Der Glasfaserkanal Der vielleicht wichtigste optische Kommunikationskanal ist die Glasfaser. Die Faser ist ein dünnes „Rohr“ aus Glas, durch das ein optischer Strahl gerichtet werden kann, um optische Energie von einem Punkt zum anderen zu übertragen. Die Faser ist das optische Äquivalent eines Koaxialkabels oder Wellenleiters, der üblicherweise für die Mikrowellenübertragung verwendet wird. Vor Jahrzehnten wurden Versuche, über Glasfaser über große Entfernungen zu kommunizieren, durch die starke Dämpfung dieses Kanals behindert. In den frühen 1970er Jahren zeigte jedoch die Demonstration einer Faser mit 20 dB/km Verlust das Potenzial dieser Verbindung, die die hohen Datenraten der optischen Träger mit der geringen Raumbelegung der Faser koppelte. Die Faserverluste wurden nun auf etwa 0,1 dB/km reduziert und die technologische Entwicklung von Festkörperquellen und -detektoren hat den Faserkommunikationskanal weiter vorangetrieben. In diesem Kapitel versuchen wir, die grundlegenden Kommunikationsmerkmale dieses Kanaltyps zu skizzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-0806-3_4 81d3b55998333d75edba5f05226d1e27;de;;;2.2.;;;Monte-Carlo-Baumsuche und Computer Go Die Schwierigkeit bei der Positionsbewertung und der große Verzweigungsfaktor haben Go zum anspruchsvollsten Brettspiel für die KI-Forschung gemacht. Das klassische Vollbrett-Spielbaum-Suchparadigma war auf Go machtlos, obwohl dieses klassische Paradigma in vielen anderen Spielen Programme mit Expertenniveau hervorgebracht hat. Drei Jahrzehnte Forschung über Wissen und Suche haben Computer Go nicht über das mittlere Amateurniveau hinaus getrieben. Das aufkommende Monte-Carlo Tree Search (MCTS)-Paradigma bringt einen aufregenden Durchbruch im Computer-Go für anspruchsvolle menschliche Experten, insbesondere auf kleineren Go-Boards. Dieses Kapitel gibt einen Überblick über klassische und MCTS-Ansätze für Computer-Go.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04141-9_10 f60f1a7e8509c8174acc48d7bf6b7e17;de;;;2.2.;;;Optimaler Replikatauswahlalgorithmus im Datenraster Die Datenreplikationstechnik im Grid reduziert die Zugriffslatenz und den Bandbreitenverbrauch. Wenn verschiedene Sites Replikate derselben Daten enthalten, ist die Auswahl des besten Replikats ein wesentlicher Vorteil. In dieser Untersuchung wird die Topologie des Virtual Token Ring (VTR) und des VTR-basierten Datennetzes vorgestellt. Dann werden ein Nachbildungspreismodell und eine Nachbildungsauswahlstrategie vorgeschlagen. Als optimales Datenreplikat wird das Replikat mit den geringsten Übertragungskosten definiert. Der Käufer- und Verkäuferalgorithmus basierend auf dem VTR-Netzwerk und dem Auktionsprotokoll werden ebenfalls ausführlich beschrieben. Die Leistungsanalyse zeigt, dass der vorgeschlagene Replikatauswahlalgorithmus eine erhebliche Leistungsverbesserung gegenüber dem herkömmlichen Replikatkatalog und dem auf Ringversuchen basierenden Algorithmus zeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24999-0_42 5f37054e9097cf3fdab331ed48722cf3;de;;;2.2.;;;System und Umfang Die Brüssel-I-Neufassung und die Rom-I-Verordnung weisen gewisse systematische Gemeinsamkeiten auf, wie etwa die Idee der Nähe zum Streitfall oder des Rechtsverhältnisses oder dass sie eine Regel-Ausnahme-Beziehung zwischen allgemeinen und besonderen Regeln aufstellen. Abgesehen davon gibt es viele Unterschiede in der Infrastruktur. Die Neufassung der Brüssel-I-Verordnung verfolgt das Ziel, den Zugang zu den Gerichten des EU-Mitgliedstaats zu ermöglichen, in dem der Beklagte seinen Wohnsitz hat. Diese Gerichtsstandspräferenz wird durch besondere Gerichtsstandsgründe kompensiert, die sich auf den Streitgegenstand konzentrieren. Die Rom-I-Verordnung kann sich dagegen nicht mit solchen Zuständigkeitsgedanken befassen. Seine allgemeinen Regeln schützen im Allgemeinen nicht eine Vertragspartei, und seine Formulierung räumt der Parteiautonomie einen hohen Stellenwert ein. Es gibt daher keine Parallele zur „allgemeinen Zuständigkeit“ im Kollisionsrecht, da eine Standardregel deren Begriff der Qualifikation durchkreuzen würde. Im Gegenzug die;-;-;-;https://link.springer.com/chapter/10.1007/978-94-6265-367-2_3 dbcfcefce7a86012b24f7391d743a751;de;;;2.2.;;;Flexibilitätsüberlegungen für das Design von kryogenen Transferleitungen Bei herkömmlichen Rohrleitungssystemen ist eine ausreichende gleichmäßige thermische Abkühlflexibilität durch die Verwendung von Dehnungsschleifen erreichbar. Eine gleichmäßige thermische Abkühlung erfolgt, wenn das Rohr mit Flüssigkeit gefüllt ist und die gesamte Rohrleitung auf Flüssigkeitstemperatur abgekühlt ist. Im Fall von Flugkörpersystemen, die kryogene Transferleitungen verwenden, können Platz- und Abkühlgewichtsbeschränkungen die Verwendung von Expansionsschleifen zum Erreichen von Flexibilität ausschließen. Außerdem unterliegt diese nicht isolierte dünnwandige Transferleitung Temperaturgradienten einer Größenordnung, die normalerweise in Prozessrohrleitungssystemen nicht anzutreffen ist, und als Folge dieser Temperaturgradienten tritt das Phänomen der Rohrkrümmung auf. Krümmung ist die Tendenz der Mittellinie des Rohres, sich zu einem Bogen zu verformen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-0537-9_13 56f1eb4ac95d732721980547ede5c757;de;;;2.2.;;;Eine optimierte Pipeline zur Ermöglichung der semantischen Erkundung einer Buchhandlung Die Suche in einer Bibliothek oder einem Buchkatalog ist für Forscher und normale Benutzer gleichermaßen eine wiederkehrende Aufgabe. Dank semantischer Anreicherungstechniken wie der Erkennung und Verlinkung benannter Entitäten können Texte automatisch Entitäten in einigen Referenzwissensgraphen zugeordnet werden. Die Verknüpfung eines Textkorpus mit einem Wissensgraphen eröffnet den Weg zum Suchen/Erkunden mit neuartigen Paradigmen. Wir präsentieren eine Pipeline, die semantische Anreicherung und Techniken zur Visualisierung von Wissensgraphen verwendet, um die semantische Exploration eines bestehenden Textkorpus zu ermöglichen. Die Pipeline soll einsatzbereit sein und besteht aus vorhandenen kostenlosen Softwaretools und von uns beigesteuertem kostenlosem Softwarecode. Wir entwickeln und testen die Pipeline auf dem Feld, indem wir damit auf den Katalog einer auf die Geschichte des antiken Roms spezialisierten Buchhandlung zugreifen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-39905-4_8 6cf24dd862f264fc5fbd9cd427dc0778;de;;;2.2.;;;"Fortschritt in Metall — Hydrid-Technologie In den 70er und 80er Jahren wurde das öffentliche Interesse an den Möglichkeiten der Diversifizierung der Energieressourcen geweckt, getrieben durch die befürchtete Verknappung der Erdölvorräte und den stetigen Anstieg des Weltenergiebedarfs. Das gegenwärtige Jahrzehnt lenkt die Aufmerksamkeit auf das ernste Problem der Luftverschmutzung: der ""Treibhauseffekt"", der mit der starken Zunahme der Produktion von Fluorchlorkohlenwasserstoff (FCKW)-Molekülen korreliert ist, die sehr stabil und aktiver sind als Kohlendioxid bei der Zerstörung der Ozonschicht.";-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-0295-7_6 6cd9cc408a605ff899f1fb494819e925;de;;;2.2.;;;Ungleichung (Messung) Die Ungleichheitsmessung befasst sich hauptsächlich mit dem quantitativen Vergleich der persönlichen Einkommensverteilung. In seiner modernen Form ist es ein Zweig der Wohlfahrtsökonomie, obwohl es einen Teil seines intellektuellen Erbes eindeutig aus der Statistik bezieht. Es unterscheidet sich von der Messung von Armut und relativer Deprivation, obwohl es enge analytische Verbindungen zu diesen Themen gibt. Die Motivation, das Thema Ungleichheit ernst zu nehmen, ist sowohl analytisch als auch praktisch: Die in diesem Artikel behandelten Hauptkonzepte sind für theoretische Ökonomen von Belang und werden auch von der Politik verwendet. Das Thema berührt Fragen von Philosophen und Sozialwissenschaftlern.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-1-349-58802-2_787 6c05573bbec7ea1df182ab6ef299dbd8;de;;;2.2.;;;Mikro-Ähnlichkeitsabfragen in der Zeitreihendatenbank Derzeit ist kein Modell verfügbar, das die Suche nach ähnlichen Zeitreihen auf der Grundlage von Teilinformationen erleichtern würde, die die Benutzer interessieren. Wir haben eine neuartige Abfrageproblemklasse untersucht, die wir in diesem Artikel als Mikroähnlichkeitsabfragen (MSQ) bezeichnet haben. Wir präsentieren die formale Definition von MSQ. Es wird ein Verfahren zur effizienten Verarbeitung von MSQ untersucht. Wir haben das Verhalten des MSQ-Problems und unseres Abfragealgorithmus sowohl mit synthetischen Daten als auch mit realen Daten bewertet. Die Ergebnisse zeigen, dass das von MSQ offenbarte Wissen mit dem subjektiven Ähnlichkeitsempfinden aufgrund von singulärem Interesse korrespondiert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45357-1_38 eca4fc9a45a5bd2eb044c3c85fba6d79;de;;;2.2.;;;Informatik und berufliche Verantwortung Viele Probleme in der Softwareentwicklung sind auf ein enges Verständnis von beruflicher Verantwortung zurückzuführen. Der Autor untersucht, wie Softwareentwickler versucht haben, die Verantwortung für ihre Arbeit zu vermeiden. Nach der Katalogisierung verschiedener Arten der Verantwortungsvermeidung führt der Autor ein erweitertes Konzept der positiven Verantwortung ein. Es wird argumentiert, dass die Übernahme dieses positiven Verantwortungsbewusstseins viele Probleme in der Softwareentwicklung reduzieren wird.;-;-;-;https://link.springer.com/article/10.1007/s11948-001-0043-5 736e20ba6d2f53e37e63ed701d4dc87b;de;;;2.2.;;;Erdrutsche und synoptische Wettertrends in den europäischen Alpen Erdrutsche stellen in Alpenregionen eine erhebliche geomorphologische Gefahr dar und es wird erwartet, dass der Klimawandel ihre Häufigkeit und ihr Ausmaß in Zukunft ändern wird. Daher ist es notwendig, die räumliche Verteilung und den zeitlichen Ablauf von Erdrutschen im Kontext vergangener Veränderungen zu verstehen, um ihr zukünftiges Verhalten beurteilen zu können. Anhand eines regionalen Hangrutschinventars für die europäischen Alpen analysieren wir den Einfluss von Wettertypen, insbesondere der Datenbank COST733, auf Rutschungen. Monte-Carlo-Permutationstests werden verwendet, um zu beurteilen, welche Wettertypen am wahrscheinlichsten mit Erdrutschen verbunden sind. Wettertypen mit hohem Niederschlag gehen mit mehr Erdrutschen einher, obwohl es auch saisonale Unterschiede gibt. Während der Laufzeit des COST733-Katalogs ist die Anzahl der Tage mit Wettertypen, die mit einer geringen Häufigkeit von Erdrutschen verbunden sind, deutlich zurückgegangen. Während der Frühlings- und Herbstmonate stimmen der Trend der beobachteten Erdrutschhäufigkeit und der Wettertypen gut überein. Obwohl die Wettertypisierung als Proxy für die zukünftige Häufigkeit von Erdrutschen verwendet werden kann, müssen jedoch andere externe Faktoren sorgfältig berücksichtigt werden.;-;-;-;https://link.springer.com/article/10.1007/s10584-016-1623-3 d7dbce5511ce7eb2607785db8d58f24c;de;;;2.2.;;;Die immunhistochemische Expression von Caspase-3 ist ein Marker für Apoptose, erhöhten Grad und frühes Wiederauftreten bei intrakraniellen Meningeomen Caspase-3 ist die ultimative Henker-Caspase, die für die mit der Apoptose verbundenen Kernveränderungen unerlässlich ist. Wir untersuchten die immunhistochemische Expression von Caspase-3 in 58 primären intrakraniellen Meningeomen, wobei ein monoklonaler Antikörper sowohl die Vorläufer- als auch die gespaltene Caspase-3 (CPP32) detektiert und ein zweiter nur die gespaltene aktivierte Form (ASP175) erkennt. Die Caspase-3-Expression wurde in Bezug auf die Grundlinien-Apoptose analysiert – wie durch die Expression von anti-einzelsträngiger DNA (ss-DNA), dem antiapoptotischen Protein bcl-2, Proliferationsindizes (Ki-67, PCNA, Topoisomerase IIa, ), Hormonstatus (Östrogen, Progesteron, Androgenrezeptoren), klinisch-pathologische Standardparameter und krankheitsfreies Überleben der Patienten. Caspase-3-Immunfärbung wurde in 62 % der Fälle für CPP32 und in 24 % für ASP175 beobachtet. In beiden Fällen korrelierte der Markierungsindex (LI) signifikant mit dem ss-DNA-LI (;-;-;-;https://link.springer.com/article/10.1007/s10495-006-0001-4 142097e06db211f95c89150047f5b62c;de;;;2.2.;;;Computational Intelligence-basiertes sicheres Drei-Parteien-CBIR-Schema für medizinische Daten für Cloud-unterstützte Gesundheitsanwendungen Medizinische Bilder mit verschiedenen Modalitäten sind zu einem integralen Bestandteil der Diagnose und Behandlung verschiedener Krankheiten geworden. Die Ärzte verwenden oft frühere Fallstudien, um den aktuellen medizinischen Zustand eines bestimmten Patienten zu behandeln. Unter solchen Umständen müssen sie sicher auf medizinische Bilder verschiedener Fälle zugreifen, die im Allgemeinen in einem Netzwerk gespeichert und anfällig für böswillige Angriffe sind. Um diese sensiblen Unzulänglichkeiten zu beheben, haben wir ein auf Computerintelligenz basierendes, sicheres inhaltsbasiertes Image Retrieval (CBIR) für das medizinische Bildabrufschema vorgeschlagen, durch das jeder Arzt das Bild in einer verschlüsselten Domäne in einer Cloud-Umgebung abrufen kann. In dieser Hinsicht ist der Hamming-Distanz-basierte Ähnlichkeitsvergleich die einzige verfügbare Technik, die den Vergleich zwischen verschlüsselten Merkmalen effektiv handhabt. Diese Technik erfordert binäre Merkmale, um einen Ähnlichkeitsvergleich durchzuführen, und die Leistung solcher Merkmale bei der Bildwiederherstellung ist schlecht. In diesem Zusammenhang haben wir einen auf herausragenden Komponenten basierenden Ansatz zur Extraktion binärer Merkmale vorgeschlagen, um die Genauigkeit des Abrufens zu verbessern. Anfänglich haben wir das Eingabebild unter Verwendung der Salienzkarte, der Haupttexturrichtung und der Entropie neu angeordnet, um die hervorstechenden Komponenten an den Startblöcken zu platzieren. Anschließend haben wir ein Mehrheitswahlschema auf Blockebene an den hervorstechenden Blöcken des Bildes verwendet, um lokale binäre Merkmale zu erhalten. Als Ergebnis trägt der endgültige Merkmalsvektor mehr Merkmale aus dem hervorstechenden Teil des Bildes, was die Wiedergewinnungsgenauigkeit günstig verbessert. Später haben wir den binären Merkmalsvektor verschlüsselt und einen Bildabruf in einer Cloud-Umgebung durchgeführt, an der Dateneigentümer, Datenbankdienstanbieter und Client über eine verschlüsselte Domäne beteiligt sind, um den Sicherheitsaspekt vollständig zu erfüllen. Schließlich haben wir sowohl medizinische als auch Corel-Bilddatensätze verwendet, um die Genauigkeit der Abrufleistung des vorgeschlagenen Schemas zu validieren. Die experimentellen Ergebnisse aus realen Datensätzen zeigen, dass die vorgeschlagene Methode sicher ist und eine vergleichbare Suchgenauigkeit in Bezug auf andere verwandte Schemata in der Domäne bietet.;-;-;-;https://link.springer.com/article/10.1007/s11042-020-10483-7 07c41db95ac2f35190390485a086ebee;de;;;2.2.;;;Exeter beim CLEF 2002: Experimente zum Abruf sprachübergreifender Dokumente Cross-Language Spoken Document Retrieval (CLSDR) kombiniert den Bedarf an Sprachübersetzung und den Abruf gesprochener Dokumente. Die CLSDR-Baseline-Abrufleistung wird für die TREC-8-SDR-Aufgabe unter Verwendung von zwei maschinellen Übersetzungstools ermittelt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45237-9_40 b417127ef288b40d840993afa49dec25;de;;;2.2.;;;Suche nach optischen Gegenstücken von LIGO/Virgo Events im O2 Run Das Problem der Suche nach optischen Gegenstücken von Gravitationswellen-LIGO/Virgo-Ereignissen wird diskutiert. Multi-Messenger-Astronomie fördert die Nutzung einer riesigen Menge astronomischer Daten, die von praktisch allen Observatorien auf der ganzen Welt gewonnen werden. Wir diskutieren verschiedene Beobachtungstaktiken, das Problem der Suche nach Transienten in der extrem großen Lokalisierungsfehlerbox von LIGO/Virgo-Ereignissen und die Erkenntnisse aus dem zweiten Beobachtungslauf von LIGO/Virgo im Jahr 2017. Insbesondere präsentieren wir unsere Erfahrungen und Ergebnisse von Folgebeobachtungen von LIGO/Virgo-Optik-Pendants durch das Weltraumforschungsinstitut (IKI) Gamma-Ray Bursts Follow-up Network (IKI-GRB-FuN).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-51913-1_9 2faf7596ddf624f3f482d3a03f3a613d;de;;;2.2.;;;Elektrische Netzwerksynthese: Ein Überblick über aktuelle Arbeiten Das Gebiet der elektrischen Netzwerksynthese hat eine Reihe von seit langem offenen Fragen. Am verwirrendsten ist die Minimalität im Zusammenhang mit der Netzwerksynthese aus Widerstand, Induktivität und Kondensator (RLC). Insbesondere die berühmten Bott-Duffin-Netzwerke erscheinen aus systemtheoretischer Sicht höchst nicht-minimal. Wir stellen einige aktuelle Entwicklungen zu diesem Thema vor. Dazu gehören Ergebnisse zur Feststellung der Minimalität der Bott-Duffin-Netzwerke und deren Vereinfachungen zur Realisierung bestimmter Impedanzen, enumerative Ansätze zur Analyse von RLC-Netzwerken innerhalb vorgegebener Klassen eingeschränkter Komplexität sowie neue notwendige und hinreichende Bedingungen für ein (nicht unbedingt kontrollierbares) passiv sein. Abschließend werden noch einige offene Fragen diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67068-3_21 616e6c8f9545171af590b58d1257d68a;de;;;2.2.;;;Eine effiziente semantikbasierte Organisations- und Ähnlichkeitssuchmethode für Internet-Datenressourcen Mit der Entwicklung der Informationstechnologie taucht eine große Anzahl von Datenressourcen unterschiedlicher Art im Internet auf, und einige negative haben unserer Gesellschaft und unseren Bürgern geschadet. Um die Harmonie der Gesellschaft zu gewährleisten, ist es wichtig, die schlechten Ressourcen aus den heterogenen massiven Datenressourcen im Cyberspace zu entdecken. In diesem Beitrag stellen wir die iHash-Methode vor, eine semantikbasierte Organisations- und Ähnlichkeitssuchmethode für Internet-Datenressourcen. Erstens normalisiert der iHash die Internet-Datenobjekte in einen hochdimensionalen Merkmalsraum, wodurch das Problem der Merkmalsexplosion gelöst wird, zweitens partitionieren wir die hochdimensionalen Daten im Merkmalsraum nach der Clustering-Methode, transformieren die Daten Cluster in regelmäßige Formen und verwenden die Pyramiden-ähnliche Methode, um die hochdimensionalen Daten zu organisieren, schließlich realisieren wir die Reichweiten- und kNN-Abfragen basierend auf unserer Methode. Schließlich diskutieren wir die Leistungsbewertung der iHash-Methode und stellen fest, dass sie für die Ähnlichkeitssuche effizient ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55032-4_68 e3b4a538496571721a0745ecb8e37cb1;de;;;2.2.;;;DCAD: ein dualer Clustering-Algorithmus für verteilte räumliche Datenbanken Räumliche Objekte haben zwei Arten von Attributen: geometrische Attribute und nicht-geometrische Attribute, die zu zwei verschiedenen Attributbereichen gehören (geometrische und nicht-geometrische Bereiche). Obwohl in einem geometrischen Bereich geometrisch gestreut, können räumliche Objekte in einem nicht-geometrischen Bereich einander ähnlich sein. Die meisten existierenden Clustering-Algorithmen gruppieren räumliche Datensätze in verschiedene kompakte Regionen in einer geometrischen Domäne, ohne den Aspekt einer nicht-geometrischen Domäne zu berücksichtigen. Viele Anwendungsszenarien erfordern jedoch Clustering-Ergebnisse, bei denen ein Cluster nicht nur eine hohe Nähe in einer geometrischen Domäne, sondern auch eine hohe Ähnlichkeit in einer nicht-geometrischen Domäne aufweist. Dies bedeutet, dass dem Clustering-Ziel aus geometrischen und nicht-geometrischen Bereichen gleichzeitig Beschränkungen auferlegt werden. Ein solches Clustering-Problem wird als duales Clustering bezeichnet. Da verteilte Clustering-Anwendungen immer beliebter werden, ist es notwendig, das duale Clustering-Problem in verteilten Datenbanken anzugehen. Zur Lösung dieses Problems wird der DCAD-Algorithmus vorgeschlagen. DCAD besteht aus zwei Clustering-Ebenen: lokales Clustering und globales Clustering. Zunächst wird das Clustering an jedem lokalen Standort mit einem lokalen Clustering-Algorithmus durchgeführt, und die Merkmale lokaler Cluster werden extrahiert. Zweitens werden lokale Features von jedem Standort an einen zentralen Standort gesendet, an dem ein globales Clustering basierend auf diesen Features erhalten wird. Experimente mit künstlichen und realen räumlichen Datensätzen zeigen, dass DCAD effektiv und effizient ist.;-;-;-;https://link.springer.com/article/10.1007/s11806-007-0039-7 5f2d85f87cbc815d67ccd1fbd6a303c1;de;;;2.2.;;;Die psychometrische Studie zur Risikowahrnehmung In Industriegesellschaften stellt sich die Frage „Wie sicher ist sicher genug?“ hat sich in den 1980er Jahren zu einem wichtigen politischen Thema entwickelt. Die häufige Entdeckung neuer Gefahren und die weit verbreitete Öffentlichkeit führen dazu, dass sich immer mehr Menschen als Opfer und nicht als Nutznießer der Technologie sehen. Diese Befürchtungen und der Widerstand gegen die von ihnen produzierte Technologie haben Industrielle und Regulierungsbehörden verwirrt und viele Beobachter zu der Behauptung veranlasst, dass das offensichtliche Streben der Öffentlichkeit nach einer „Null-Risiko-Gesellschaft“ die politische und wirtschaftliche Stabilität der Nation bedroht (Harris, 1980, Wildavsky, 1979). .;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2103-3_1 ea2ff8fbfa164481282ef18725214669;de;;;2.2.;;;Aufgeregte Staaten Wenn angeregte Zustände betrachtet und Anregungsenergien berechnet werden, wird eine quantitative Behandlung von Elektronenkorrelationen unerlässlich. Der Punkt ist, dass der Beitrag der Korrelationsenergie zur Grundzustandsenergie klein sein kann im Vergleich zu den dominierenden Beiträgen des selbstkonsistenten Felds, wenn jedoch Energie;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-97477-9_6 674f84831682e2b1ea833eba7afc459e;de;;;2.2.;;;Bosonisierung als Hubbard-Stratonovich-Transformation Das Problem stark korrelierter Elektronen in einer Dimension erregte seit Anfang der 50er Jahre die Aufmerksamkeit der Physiker der kondensierten Materie. Nach dem wegweisenden Papier von Tomonaga [;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0530-2_4 3b0b0a6e5fb74ec81cf42b272dc9bdcb;de;;;2.2.;;;Datenspeichermethode für den schnellen Abruf im IoT Heutzutage leidet die Datenabfrage im Internet der Dinge (IoT) unter einer hohen Latenz, da täglich steigende Datenmengen von Geräten gesammelt werden. In diesem Papier konzentrieren wir uns auf den Datenabruf und präsentieren eine neuartige Speichermethode für den schnellen Abruf durch separate Verwaltung von Hot Data. Experimentelle Ergebnisse zeigen, dass unsere Speichermethode die Abfragelatenz im Vergleich zur bestehenden typischen Methode um mindestens eine Größenordnung reduziert hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9409-6_158 8321b218c8def0e08b523d83eb8187d8;de;;;2.2.;;;Abstrakte Interpretation Der Zweck dieses Kapitels ist es, einige der wesentlichen Ideen der abstrakten Interpretation zu vermitteln. Wir werden dies hauptsächlich auf programmiersprachenunabhängige Weise tun und uns daher auf das Design der Eigenschaftsräume, der Funktionen und Berechnungen auf ihnen und der Beziehungen zwischen ihnen konzentrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-03811-6_4 b136d372a4d908112e80e5037f1f29ae;de;;;2.2.;;;Modulation galaktischer Protonen in der Heliosphäre während des ungewöhnlichen Sonnenminimums von 2006 bis 2009 Die letzte Periode der minimalen Sonnenaktivität und die daraus resultierenden minimalen Modulationsbedingungen für die kosmische Strahlung waren ungewöhnlich. Die höchsten Mengen an galaktischen Protonen wurden entgegen den Erwartungen Ende 2009 auf der Erde registriert. Protonenspektren, beobachtet von 2006 bis 2009 vom kosmischen Strahlendetektor PAMELA an Bord der;-;-;-;https://link.springer.com/article/10.1007/s11207-013-0324-6 f746c835947f1133cc3a6a47da86eefc;de;;;2.2.;;;Effizienter Algorithmus zum Auffinden des aggregierten nächsten Ortes zwischen zwei Benutzern Die Stichwortsuche über eine große Datenmenge ist ein wichtiger Vorgang in einer Vielzahl von Domänen. Die räumliche Stichwortsuche in räumlichen Datenbanken wird aufgrund ihrer Bedeutung für kommerzielle Suchmaschinen seit Jahren gut untersucht. Insbesondere nimmt eine räumliche Schlüsselwortabfrage einen Benutzerstandort und vom Benutzer bereitgestellte Schlüsselwörter als Argumente und gibt ein Objekt zurück, das k Objekte vom aktuellen Standort des Benutzers am nächsten ist und für das vom Benutzer erforderliche Schlüsselwort textlich relevant ist. Die geotextuelle Indexstruktur spielt eine wichtige Rolle bei der räumlichen Keyword-Abfrage. Dieses Papier schlägt die geotextuelle Indexstruktur vor, die unnötige Kosten bei der Verarbeitung von räumlichen Schlüsselwortabfragen und der Suchzeit nach erforderlichen Ergebnissen reduzieren soll. Der vorgeschlagene Index wird verwendet, um die meisten Relevanzergebnisse zwischen zwei Benutzern zu suchen, der auf der größten räumlichen und textuellen Relevanz für den Abfragepunkt und dem erforderlichen Schlüsselwort innerhalb eines bestimmten Bereichs basiert. Es kann den gewünschten Ergebnispunkt mit minimalen IO-Kosten und CPU-Kosten suchen. In diesem System diskutieren wir auch, wie Inkonsistenzen und Fehler in den eingegebenen Abfragen des Benutzers zu beantworten sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48490-7_26 912ab245afc39f80a76135f7f8fc3e5e;de;;;2.2.;;;Grundlegende physikalische Prozesse in Solarzellenmaterialien Die grundlegenden physikalischen Prozesse, die dem Betrieb einer Solarzelle zugrunde liegen, bestehen aus verschiedenen optischen Wechselwirkungen und der Erzeugung/Rekombination und dem Transport von Ladungsträgern in verschiedenen Teilen der Zelle. In diesem Kapitel präsentieren wir eine kurze theoretische Beschreibung dieser Prozesse in Halbleiter-, Isolator- und Metallfilmen, die in erster Linie als Referenz dienen soll. Für detailliertere Analysen wird der Leser auf Standardlehrbücher verwiesen;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-0418-8_2 1cfc6c2bc02b7cabdd60c94c175b8e05;de;;;2.2.;;;vBPMN: Event-Aware Workflow-Varianten durch Weaving BPMN2 und Business Rules Bei der Modellierung von Arbeitsabläufen für die praktische Anwendung müssen häufig Arbeitsablaufvarianten berücksichtigt werden, um sich dynamisch ändernden Kontextfaktoren anzupassen. Wenn ein umfangreicher Workflow-Kontext mit einem großen Wertraum vorhanden ist, fehlt modernen BPM-Lösungen die Unterstützung für spontan generierte Varianten, sodass stattdessen eine explizite Einzelmodellierung erforderlich ist. Forscher haben den Wert von Geschäftsregeln für die Unterstützung von Varianten und Anpassungen erkannt. Es besteht jedoch weiterhin Bedarf an dedizierten, auf Standards basierenden Konstrukten zur kontextabhängigen Ereignis- und Ausnahmebehandlung. Motiviert durch ein realistisches Beispiel fördern wir daher ein Framework für die kombinierte Nutzung von Geschäftsregeln mit einem BPMN-Anpassungsmusterkatalog. Als Kernbeitrag dieser Arbeit untermauern wir unser Framework mit einem Metamodell namens vBPMN, das aus BPMN2 und der R2ML-Regelsprache gewoben ist und die komfortable Definition von Variantenmodellen ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21759-3_24 0bc44494cb90f40628c60a5f2dd1a6f4;de;;;2.2.;;;Darstellung zeitlicher Informationen Die Verwendung des Zeitlogik-Formalismus zur Darstellung von Informationen wird überprüft. Es werden zwei Sprachen eingeführt, die zwei unterschiedlichen Sichtweisen von Informationen entsprechen: als Aussage über Eigenschaften von Objekten (syntaktische Sicht) oder als Menge von Objekten (semantische Sicht). Wir definieren die Semantik der Sprachen anhand eines Modells, das das Konzept des Informationssystems von Pawlak verallgemeinert.;-;-;-;https://link.springer.com/article/10.1007/BF00996817 f99096ad35cff53683e1520758861715;de;;;2.2.;;;Empfehlung des Workflows der vietnamesischen Gebärdensprachübersetzung durch einen Vergleich mehrerer Klassifikationsalgorithmen Die vietnamesische Gehörlosengemeinschaft kommuniziert über eine spezielle Sprache namens Vietnamese Sign Language (VSL). Dreidimensionaler Raum und Handgesten werden hauptsächlich verwendet, um Bedeutungen zu vermitteln, die es Gehörlosen ermöglichen, untereinander und mit Nichttauben in ihrer Umgebung zu kommunizieren. Es behält Syntax, Grammatik und Vokabular bei, die sich völlig von normalem gesprochenem und/oder geschriebenem Vietnamesisch unterscheiden. Das normale Verfahren der Umwandlung von gesprochener und/oder geschriebener Sprache (SWL) in VSL besteht aus aufeinanderfolgenden Schritten: (i) vietnamesische Wort-Tokenisierung, (ii) maschinelle Übersetzung in geschriebene Gebärdensprachesätze und (iii) Umwandlung dieser geschriebenen Gebärdensprache Sätze in visuelle Zeichengeste. Bei diesem Verfahren erhält der zweite Schritt aufgrund der Vervollständigung der übermittelten Botschaft die meiste Aufmerksamkeit. Die grundlegende Herausforderung besteht darin, dass die Gebärdensprache im Allgemeinen einen begrenzten Wortschatz im Vergleich zur gesprochenen/geschriebenen Sprache hat. Wenn die maschinelle Übersetzung schlecht durchgeführt wird, kann die vollständige Nachricht möglicherweise nicht erfolgreich übermittelt werden oder in einigen Fällen hat die übermittelte Nachricht eine andere Bedeutung als das Original. Folglich sollte die Übersetzung mit hoher Genauigkeit unter allen Umständen aufrechterhalten werden. Diese Forschung ist der Versuch, einen effektiven Klassifikationsalgorithmus zu evaluieren, den die Autoren empfehlen, in den Workflow der VSL-Übersetzung integriert zu werden. Wir glauben, dass dies der erste ist, der einen quantitativen Vergleich mehrerer im Workflow verwendeter Klassifikationsalgorithmen zeigt. Die experimentellen Ergebnisse zeigen, dass die Übersetzungsgenauigkeitsrate 96,7% beträgt, was unsere Empfehlung stark unterstützt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6168-9_12 12037dae881d7bd32e154d630ea4d12b;de;;;2.2.;;;Anpassung an die Corioliskraft-Störung der Bewegungsbahn Personen, die in einem großen, vollständig geschlossenen Raum, der sich dreht, einer Rotation mit konstanter Geschwindigkeit ausgesetzt sind, machen anfangs große Reichweitenfehler beim Zeigen auf Ziele. Die Pfade und Endpunkte ihrer Reichweiten werden in Richtung der vorübergehenden seitlichen Corioliskräfte, die durch die Vorwärtsgeschwindigkeit ihrer Reichweiten erzeugt werden, abweichen. Mit zusätzlichen Reichweiten erreichen die Versuchspersonen bald auf geraderen Wegen und landen genauer auf dem Ziel, selbst wenn kein visuelles Feedback zu ihren Bewegungen vorhanden ist. Zwei Faktoren tragen zu dieser Anpassung bei: Erstens geben die in Bezug auf efferente Befehle interpretierten Rückmeldungen der Muskelspindel und der Golgi-Sehnenorgane Aufschluss über den Bewegungsverlauf, und zweitens liefert die somatosensorische Stimulation der Fingerkuppe nach Abschluss eines Griffs Informationen über die Position der Fingerkuppe relativ zum Rumpf.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-0713-0_9 6b3572ceabb9d1c1e348da410970b045;de;;;2.2.;;;Auswertung für die Konfiguration von zwei Bloom-Filtern Bloom-Filter sind in verteilten Systemen weit verbreitet. Es gibt zwei typische Arten von Bloom-Filter-Konstruktionsverfahren. Frühere Arbeiten gehen davon aus, dass diese beiden Ansätze eine ähnliche Falsch-Positiv-Rate aufweisen. In diesem Papier zeigt unsere Arbeit, dass es innerhalb der Konfiguration von Bloom Filter signifikante Unterschiede in der Falsch-Positiv-Rate gibt. Darüber hinaus deutet unser Experiment darauf hin, dass die Einstellung der Parameter einen Einfluss auf das Verhalten von Bloom Filter zeigt. Den Ergebnissen zufolge ist es wichtig, die Bloom-Filterparameter anzupassen, während der Indexraum begrenzt ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-5907-1_6 de81d05f34826ecbc6ee2b683978a54b;de;;;2.2.;;;Beobachterbasierte optimale Ausgangsverfolgung für zeitdiskrete Systeme mit mehreren Zustands- und Eingangsverzögerungen Das Problem der optimalen Ausgangsverfolgungssteuerung (OOTC) für eine Klasse von zeitdiskreten Systemen mit Zustands- und Eingangsverzögerungen wird angesprochen. Ein erweitertes System wird so konstruiert, dass das OOTC-Problem in ein Zwei-Punkt-Randwert-(TPBV)-Problem mit sowohl Vorlauf- als auch Verzögerungstermen aus den notwendigen Optimalitätsbedingungen transformiert werden kann. Das kürzlich entwickelte sukzessive Näherungsverfahren wird erweitert, um eine Näherungslösung des TPBV-Problems zu erhalten, die dann verwendet wird, um einen Vorwärts- und Rückkopplungs-Tracking-Controller zu erhalten. Ein Beobachter ist für die unsichere Referenzeingabe ausgelegt, so dass der Feedforward-Regler physikalisch realisierbar ist. Simulationen zeigen, dass die Ergebnisse auch bei langen Zeitverzögerungen wirksam sind.;-;-;-;https://link.springer.com/article/10.1007/s12555-009-0108-9 57922a4744530a88f222fab7faddcc71;de;;;2.2.;;;Moderne astronomische Durchmusterungen zur Parametrisierung von Sternen und interstellaren Medien Die Entwicklung von Methoden zur Analyse und Gewinnung von Informationen aus modernen Himmelsdurchmusterungen ist eine anspruchsvolle Aufgabe in astrophysikalischen Studien und ist für viele Untersuchungen galaktischer und extragalaktischer Objekte wichtig. Wir haben eine Methode zur Bestimmung stellarer Parameter und interstellarer Extinktionen aus der Mehrfarbenphotometrie entwickelt. Diese Methode wurde auf Objekte angewendet, die aus modernen großen photometrischen Vermessungen stammen. In dieser Arbeit geben wir einen Überblick über die Umfragen und diskutieren Probleme der Cross-Identifikation, wobei wir den in den Umfragen enthaltenen Informationsflags besondere Aufmerksamkeit schenken. Außerdem haben wir neue statistische Beziehungen bestimmt, um die stellaren atmosphärischen Parameter unter Verwendung der MK-Spektralklassifizierung abzuschätzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-51913-1_8 1f7ce8aa75b1934a7ffc1af51903464d;de;;;2.2.;;;Auf dem Weg zu einem Sekundärstandard für Hard Real-Time Ada: The Real-Time Rapporteur Group (ISO/JTC1/SC22/WG9/RRG) JTC 1.22.35 Dieses Papier stellt die Arbeit der Realtime-Berichterstattergruppe vor. Es konzentriert sich auf seine Ziele, auf den Ansatz zur Erstellung des Standards, auf den Inhalt des Standards und auf die Beziehung zu anderen neuen Standards, insbesondere Ada9X, POSIX und APEX. Außerdem werden einige Implementierungsprobleme und die RRG-Integration mit bestehenden Tools erörtert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-56802-6_25 5eddb521bf893c829153a997a3a056c9;de;;;2.2.;;;Personalisiertes Video für das Content Delivery Network Durch die Einführung des Contents Delivery Network ist ein personalisierteres Programm erforderlich, um die Anforderungen verschiedener Benutzer zu erfüllen. Um die Vielfalt der Programme zu erreichen, haben wir eine neue Architektur für die Bereitstellung von Inhalten vorgeschlagen. Durch diese Architektur wird der in der Datenbank gespeicherte Teil des Videos basierend auf dem Profil der Metadaten und einem Betrachter auf seiner Seite ausgewählt und bearbeitet. Wir verbinden nicht nur den Abschnitt des lediglich ausgewählten Videos, sondern schlagen die Methode vor, ein Szenario zu geben, und die Methode zur Einführung der Filmgrammatik zum Bearbeiten der Videoabschnitte.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36184-7_3 28a4ded2890b9ee660f79eb1fb520585;de;;;2.2.;;;CAP-orientiertes Design für Cloud-native Anwendungen Brewers Vermutung und die daraus resultierende Formalisierung als CAP-Theorem schränken die Konsistenz, Verfügbarkeit und die Toleranzeigenschaften der Netzwerkpartitionierung von verteilten Systemen stark ein. Trotz seiner Bedeutung berücksichtigen jedoch nur wenige Arbeiten explizit die Implikationen des CAP-Theorems beim Design von Anwendungen, insbesondere für Anwendungen, die nativ für die Cloud entwickelt wurden. Um diesem Bedarf gerecht zu werden, schlagen wir in dieser Arbeit eine CAP-orientierte Designmethodik für Cloud-native Anwendungen vor. Zu diesem Zweck bauen und erweitern wir unsere bisherigen Arbeiten zu Cloud-Architekturmustern. Schließlich zeigen wir, wie die Methodik in der Praxis eingesetzt werden kann, um eine Anwendungslösung mit gewünschten CAP-Eigenschaften zu entwerfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-04519-1_14 2af4610917129df9e0067e1ccbaa6ef7;de;;;2.2.;;;Das Gmelin Informationssystem die Verbindung zwischen Handbuch und Datenbank Das Gmelin Informationssystem besteht aus dem Gmelin Handbuch der Anorganischen Chemie und der Gmelin Datenbank. Derzeit wird das Gmelin-Handbuch eigentlich ohne EDV erstellt, die Dateneingabe in die Datenbank begann Anfang 1989. Beide Komponenten werden in das Gmelin-Informationssystem integriert. Daher werden die Primärinformationen für die Handbucherstellung (Informationen über Verbindungen, Fakten und bibliografische Daten) aus der Gmelin-Datenbank geliefert. Diese Informationen und das sorgfältige Studium der Originalliteratur bilden die Grundlage des Handbuchs. Die Besonderheit des Handbuchs ist die Auswertung von veröffentlichten Daten zu einem speziellen Wirkstoff aus der Sicht eines Wissenschaftlers. Dabei werden teilweise die Daten aus der Gmelin-Datenbank aufbereitet und nach Abschluss eines Handbuchprojektes aus der Handbuchabteilung hochgeladen. Aus dieser Sicht ist die Verbindung zwischen Handbuch und Datenbank ein Prozess, bei dem Informationen von einer Komponente des Gmelin-Informationssystems in die andere geändert werden. Die oben beschriebenen Hauptqualitäten sowohl des Handbuchs als auch der Datenbank (Verfügbarkeit von Online-Sachinformationen) sollten beibehalten werden können. Als Schnittstelle zwischen Handbuch und Datenbank haben wir die elektronische Karteikarte Gmelin entwickelt. Sie ist die Kartei für die Handbucherstellung und verwendet Methoden der elektronischen Datenverarbeitung. Die Entwicklung basierte auf dem Hypertext-Softwareprodukt CAMS4. Dieses System ist ein Mittel, um Informationen aller Art als eine Abfolge von Seiten darzustellen. Seiten werden in einer logischen Struktur organisiert, die als Wissensdatenbank mit dem Programm bezeichnet wird. Die Seiten sind in Form einer Baumstruktur verbunden. Das System bietet eine Reihe von Funktionen, um auf eine dBase III Plus-kompatible Datendatei zuzugreifen. Zu den Weiterentwicklungen des Hypertextsystems CAMS4 für die elektronische Kartei von Gmelin gehört ein flexibler Vorlagen- und Funktionsgenerator für den direkten Zugriff auf eine ADABAS-Datenbank unter VAX/VMS. Der flexible Vorlagengenerator ist notwendig, um die Inhalte der Gmelin-Datenbank (815 Felder) in individueller Form für spezielle Handbuchprojekte darzustellen. Diese Vorlage dient als Filter für die Datenbank zum Herunterladen, Arbeiten und Hochladen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-75430-2_6 b496dc55df8bde2f75c0caa5b413d810;de;;;2.2.;;;Fallbasierte Intentionsauswahl für autonome Agenten, die in strukturierten synthetischen Welten agieren Dieses Papier präsentiert einen neuen Ansatz namens Stepwise Case Based Reasoning (SCBR) für die Absichtsauswahl. In dieser Arbeit wird ein Agent, der seine Absichten mit Hilfe dieses Ansatzes autonom wählt, als An . bezeichnet;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84628-663-6_31 408fe896c882ff267749e7f874265122;de;;;2.2.;;;Extraabdominaler Desmoid, der einen bösartigen männlichen Brusttumor nachahmt Ein seltener Fall eines extraabdominalen Desmoidtumors wird berichtet. Bei einem 47-jährigen Mann wurde eine tastbare Masse in der rechten Brust festgestellt. Die Mammographie zeigte eine sternförmige Raumforderung ohne Verkalkung und die Ultraschalluntersuchung der Brust zeigte eine solide, inhomogene, nicht verkalkte Läsion. Das Ergebnis der zytologischen Untersuchung der Feinnadelaspirationsbiopsie war nicht eindeutig. Die Histologie des chirurgischen Präparats zeigte einen extraabdominalen Desmoidtumor. Die extraabdominale Präsentation dieses semimalignen Tumors ist selten und kann einen malignen Brusttumor vortäuschen. Die Differenzialdiagnose ist schwierig und basiert meist auf dem Ergebnis der histologischen Untersuchung.;-;-;-;https://link.springer.com/article/10.1007/s003300050803 31b6edc0fdc9be66fed6c06408561152;de;;;2.2.;;;Optimierung des antithetischen Gibbs-Samplers für Gaußsche Markov-Zufallsfelder Die Effizienz der Markov-Ketten-Monte-Carlo-Schätzung leidet unter der Autokorrelation aufeinanderfolgender Iterationen, die für dieses Abtastverfahren typisch ist. Um die Effizienz zu verbessern, versuchen antithetische Verfahren, diese Autokorrelation zu reduzieren oder sogar eine negative Autokorrelation einzuführen. In dieser Arbeit wird die antithetische Methode auf das Gibbs-Sampling der räumlichen Korrelationsstruktur von Gauß-Markov-Zufallsfeldern angewendet und eine Regel für die optimale Wahl des antithetischen Parameters entwickelt. Der antithetische Gibbs-Sampler erweist sich als viel besser als der klassische Gibbs-Sampler und könnte mit i.i.d. Probenahme, die in der Tat für diese Art von Anwendung in der Regel widerspenstig ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-57678-2_35 844afc9b1cee267f22cb4a23da9a2b1e;de;;;2.2.;;;GML-Datenmanagement: Framework und Prototyp Die Geography Markup Language (GML) mit der Eigenschaft der XML-Kodierung und der vollständigen Spezifikation wird in verschiedenen Anwendungssystemen als interne Darstellung von Geodaten aufgrund ihrer effizienten Interoperabilität in heterogenen Systemen häufig verwendet. Daraus ergibt sich das Problem, wie man GML-Daten, die sich von reinen XML-Daten unterscheiden, sowohl mit nicht-räumlichen Informationen als Eigenschaften von geografischen Merkmalen als auch mit räumlichen Informationen als Geometrie effektiv manipuliert. Die GML-Forschungen konzentrieren sich auf separate Verarbeitungstechnologien, die keinen vollständigen Geodatenverwaltungsdienst für Benutzer oder Entwickler bereitstellen können. In diesem Papier schlagen wir ein GML-Datenmanagement-Framework vor und analysieren, wie die zugehörige Technologie zusammenarbeitet, um den Bedarf an Ausdruck, Verarbeitung und Austausch von Geodaten zu erfüllen. Auf Basis der GML/XML-Technologie werden Speicher-, Abfrage-, Index- und Benutzeroberflächenmodule des Frameworks präsentiert. Diese Module wurden im Prototyp des GML Data Management Systems (GDMS) implementiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20244-5_10 b0bf1a06c128698a265fa9be3b3cf58e;de;;;2.2.;;;Kontinuierliche Gegenstromextraktion von Hemicellulose aus vorbehandelten Holzresten Eine zweistufige Vorbehandlung mit verdünnter Säure gefolgt von einer enzymatischen Cellulosehydrolyse ist eine effektive Methode, um hohe Zuckerausbeuten aus Holzresten wie Nadelholzdurchforstungen zu erzielen. Im Hydrolyseschritt der ersten Stufe wird der größte Teil der Hemicellulose unter relativ milden Bedingungen solubilisiert. Die löslichen Hemizellulosezucker werden aus der Hydrolysataufschlämmung durch Waschen mit Wasser gewonnen. Die gewaschenen Feststoffe werden dann strengeren Hydrolysebedingungen ausgesetzt, um etwa 50% der Cellulose zu Glucose zu hydrolysieren. Die verbleibende Cellulose kann mit Cellulase-Enzym weiter hydrolysiert werden. Unsere Prozesssimulation zeigt, dass die Wassermenge, die in der Hemicellulose-Rückgewinnungsstufe verwendet wird, einen signifikanten Einfluss auf die Kosten der Ethanolproduktion hat. Es ist wichtig, den Wasserverbrauch so gering wie möglich zu halten und gleichzeitig eine relativ hohe Rückgewinnung von löslichen Zuckern aufrechtzuerhalten. Um dieses Ziel zu erreichen, wurde ein Prototyp eines kontinuierlichen Gegenstrom-Schneckenextraktors im Pilotmaßstab für die Gewinnung von Hemicellulose aus vorbehandeltem Durchforstungsholz evaluiert. Mit dem 274 cm (9 Fuß) langen Extraktor, Rückgewinnung von löslichen Stoffen von 98, 91 und;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-0217-2_22 1dc40e079a22922841ca0ffe86722951;de;;;2.2.;;;Re-Analyse der koronalen Emission von RS-CVn-Typ-Binärdateien Die koronale Emission von neunzehn hellen doppellinigen eklipsierenden RS-CVn-Systemen mit zuverlässigen absoluten Elementen wurde erneut untersucht mit dem Ziel, die Aktivitätsparameter in diesen Systemen zu erforschen. Es ist allgemein bekannt, dass die Röntgenleuchtkraft L;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-3065-0_10 2822feec7b9bb40d5f7fbd9e6662955f;de;;;2.2.;;;Mehr über räumliche Vorhersage Dieses Kapitel beginnt mit linearen Erweiterungen von Kriging, die eine höhere Flexibilität bieten und eine Lockerung der zugrunde liegenden Annahmen über die Methode ermöglichen. Solche Verallgemeinerungen umfassen die Anwendung von gewöhnlichem Kriging auf;-;-;-;https://link.springer.com/chapter/10.1007/978-94-024-1918-4_11 e341329e9bd7836204c0c40981e437b5;de;;;2.2.;;;Rendezvous-Tunnel für anonymes Publishing: Clean Slate und Tor-basierte Designs Based Anonyme Kommunikation und insbesondere anonyme Peer-to-Peer (P2P) Filesharing-Systeme haben in den letzten Jahren große Aufmerksamkeit erfahren. In einem P2P-Dateifreigabesystem gibt es drei Arten von Teilnehmern: Herausgeber, die Inhalte in das System einfügen, Server, die Inhalte speichern, und Leser, die Inhalte von den Servern abrufen. Bestehende anonyme P2P-Filesharing-Systeme verleihen teilweise Anonymität. Sie gewähren Teilnehmerpaaren wie Servern und Lesern oder Herausgebern und Lesern Anonymität, berücksichtigen jedoch nicht die Anonymität aller drei Arten von Teilnehmern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24550-3_18 c4928b18d930e420b39e977efed3e63f;de;;;2.2.;;;M-N Hashing: Suchzeitoptimierung mit Kollisionsauflösung mit Balanced Tree Im Bereich der Vernetzung sind das Speichern und schnelle Nachschlagen der großen Datenmengen zwei wichtige Maßnahmen. Hashing ist eine der bekannten Techniken zum effizienten Indizieren und Abrufen von Daten aus der Datenbank. Es wird hauptsächlich für schnelles Suchen in den Feldern verwendet, die schnelle Ergebnisse aus der Datenbank erfordern. Mit zunehmender Größe der Datenbank nimmt auch die Anzahl der Kollisionen in der Hash-Tabelle zu, die durch Kollisionsauflösungstechniken behandelt werden. Herkömmliche Algorithmen wie Separate Chaining, Linear Probing und Quadratic Probing benötigen eine lineare Suchzeit. Die enorme Zunahme an Daten in den letzten Jahren erfordert eine tiefgreifendere Implementierung von Hash-Tabellen. In diesem Artikel haben wir einen neuen und innovativen Weg zur Implementierung von Hash-Tabellen vorgeschlagen, um Kollisionen in logarithmischer Zeit effizienter zu behandeln, d. Um die Kollisionen mit einer Hash-Tabelle mit skalierbarer Größe zu behandeln, verwendete der vorgeschlagene Algorithmus das Konzept des AVL-Baums. Die Leistung des vorgeschlagenen Algorithmus wird unter Verwendung eines kontinuierlichen ganzzahligen Datensatzes analysiert, der von 0 bis 100000 variiert. Durch Experimente wird gezeigt, dass MN-Hashing die Suchzeit um bis zu 99,97% in Bezug auf moderne Algorithmen verbessert, dh separate Verkettung, lineare Sondierung und quadratische Sondierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4451-4_16 1a92875ea9ff0e7c60a2cc50e4f3c97c;de;;;2.2.;;;Programmierübungen Wir empfehlen Ihnen dringend, diese Übungen zu bearbeiten, insbesondere wenn Sie mit ACL2 nicht vertraut sind oder mit rekursiven Definitionen nicht ganz vertraut sind. Lösungen finden Sie auf der Homepage von ACL2, folgen Sie einfach dem Link zu diesem Buch.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4449-4_4 f3147b5e43b5fe7589cf850b005cc415;de;;;2.2.;;;β-Zell-Defizit der Pankreasinseln und Glukoseintoleranz bei Ratten mit Uninephrektomie Diese Studie wurde durchgeführt, um die Wirkung einer chronischen Nierenfunktionsstörung und einer Aktivierung des Renin-Angiotensin-Systems (RAS), die durch eine einseitige Nephrektomie (UNX) induziert wird, auf die Entwicklung eines β-Zell-Defizits der Pankreasinseln und einer Glukoseintoleranz zu untersuchen. Sprague-Dawley-Ratten wurden in drei Gruppen randomisiert: unbehandelte UNX (;-;-;-;https://link.springer.com/article/10.1007/s00018-007-7395-1 6e99d623a8dd9b1653e8dedbb0aeaa31;de;;;2.2.;;;Bewegungsschätzung für die Objektanalyse und -erkennung in Videos Die Methoden zur Bewegungsschätzung werden zur Modellierung verschiedener physikalischer Prozesse, des Verhaltens von Objekten und zur Vorhersage von Ereignissen verwendet. In diesem Kapitel werden allgemein die bewegten Objekte in Videos betrachtet. Solche Bewegungsschätzverfahren werden als Vergleichsverfahren und Gradientenverfahren klassifiziert. Die vergleichenden Bewegungsschätzungsverfahren werden normalerweise in Echtzeitanwendungen verwendet. Viele Aspekte von Block-Matching-Modifikationen werden diskutiert, einschließlich Gauß-Mischungsmodell, Lie-Operatoren, bilineare Deformationen, mehrstufiges Bewegungsmodell usw. Die Verfahren zur Gradientenbewegungsschätzung helfen, die Bewegungssegmentierung in komplexen dynamischen Szenen zu realisieren, da nur sie die erforderliche Genauigkeit bieten . Die Anwendung der 2D-Tensoren (im räumlichen Bereich) oder der 3D-Tensoren (im räumlich-zeitlichen Bereich) hängt vom gelösten Problem ab. Für die intelligente Erkennung von Objekten und Ereignissen in komplexen Szenen und die Videoindizierung in Multimediadatenbanken ist die Entwicklung von Verfahren zur Gradientenbewegungsschätzung erforderlich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24693-7_8 b210606dd878b9e6d230152a282d1918;de;;;2.2.;;;Menschliches immunbasiertes Modell zur Erkennung von Eindringlingen in mobilen Ad-hoc-Netzwerken Mobile Ad-hoc-Netzwerk (MANET) ist eine Sammlung mobiler, dezentraler und selbstorganisierender Knoten, die in speziellen Fällen wie medizinischen und militärischen Zwecken eingesetzt werden. Die Absicherung des mobilen Ad-hoc-Netzes MANET ist ein zentrales Forschungsthema. Die Eigenschaften von MANET erschweren den Schutz der Netzwerkumgebung vor Angriffen. MANET als offener Bereich drahtloser mobiler Knoten ermöglicht es externen Angreifern, leicht in das Netzwerk einzusteigen und legitime Knoten zu maskieren. Daher ist es das Ziel dieses Papiers, ein verteiltes, selbstorganisierendes und hybrides intelligentes Modell, genannt dendritischer Zell-Fuzzy-Algorithmus (DCFA), für das Sicherheits-Routing in MANET zu entwickeln. Das DCFA-Modell inspiriert die Erkennungsfunktion von dendritischen Zellen (DCs) im menschlichen Immunsystem (HIS) und die genaue Entscheidungsfunktionalität der Fuzzy-Logik-Theorie, um Netzwerkangriffe in MANET zu erkennen. Das DCFA-Modell wird entwickelt und validiert, indem ein überflutungsbasierter Angriff, nämlich ein Ressourcenverbrauchsangriff (RCA), erkannt wird. QualNet v5.0.2 wird als Simulationsumgebung verwendet, um die Fähigkeit von DCFA bei der Erkennung von RCA über MANET zu testen. Die Ergebnisse zeigen die Fähigkeit von DCFA, den Nachweisvorgang mit hoher Effizienz und Effektivität durchzuführen.;-;-;-;https://link.springer.com/article/10.1007/s12083-019-00862-9 429a3250c01c835ad83b7bc8c5334c9e;de;;;2.2.;;;Räumlich-zeitliche Analyse meteorologischer Katastrophen, die Reis betreffen, unter Verwendung von Multi-Indizes, in der Provinz Jiangsu, Südostchina Angesichts des zunehmenden Risikos, dass Menschen und Volkswirtschaften meteorologischen Katastrophen ausgesetzt sind, ist es von großer Bedeutung, die räumlich-zeitliche Variation dieser Katastrophen zu analysieren. In dieser Arbeit wurden die möglichen Auswirkungen meteorologischer Katastrophen auf die Reiserträge in der Provinz Jiangsu im Südosten Chinas untersucht. In den Jahren 1961–2012 wurden insgesamt 17 meteorologische Katastrophenindizes (RMDI) für Reis berechnet und analysiert. Die räumliche Verteilung von RMDI deutete darauf hin, dass Süd-Jiangsu als Zone hoher Intensität für Hitzestress eingestuft werden sollte, während Nord-Jiangsu als Zone hoher Intensität für Niederschlagsextreme und Kälteschäden eingestuft werden sollte. Sich ändernde Trends von RMDI wurden durch den Mann-Kendall-Test festgestellt. Niederschlagsextreme und Hitzestress-Indizes zeigten steigende Tendenzen, während die Kälteschäden-Indizes rückläufige Trends zeigten. Die Korrelationsanalyse zwischen Reisertrag und RMDI mit der ersten Differenzmethode und der klimainduzierten Ertragsmethode zeigte, dass Niederschlagsextreme dramatischere negative Auswirkungen hatten als die anderen beiden Arten von meteorologischen Katastrophen. Die Hauptkomponentenanalyse lieferte zusätzliche Informationen über die regionalen Unterschiede der Veränderungen bei meteorologischen Katastrophen. Jiangsu kann in drei Regionen (Süd, Mitte und Norden) mit unterschiedlichen und wechselnden Mustern für RMDI unterteilt werden. Auch der Western Pacific Subtropical High Intensity Index und die Pacific Decadal Oscillation hatten einen wesentlichen Einfluss auf diese Veränderungen. Diese Erkenntnisse könnten eine wissenschaftliche Grundlage für die Prävention oder Reduzierung von meteorologischen Reiskatastrophen in der Provinz Jiangsu bilden.;-;-;-;https://link.springer.com/article/10.1007/s12571-017-0689-8 3d8032dc5026c2fa5a320bf048f0fcea;de;;;2.2.;;;Wenn Granulate in einer Theorie der Granularitäten nicht ausreichen Es wurden mehrere Ansätze vorgeschlagen, um raumzeitliche Phänomene bei mehreren LoDs zu modellieren, insbesondere im Forschungsbereich Granular Computing, wo ein auf Granularitäten basierendes Modell vorgeschlagen wurde. Ein solches Modell hebt sich von der einschlägigen Literatur ab, weist jedoch zwei wesentliche Einschränkungen auf. Einerseits hat es Schwierigkeiten, Regionen, Zeitintervalle und andere komplexe Beschreibungen zu beschreiben, und andererseits ist der Generalisierungsprozess der gleiche, ob er räumliche, zeitliche oder andere Merkmale eines Phänomens verallgemeinert. Diese Probleme reduzieren seine Anwendbarkeit. Um solche Einschränkungen zu überwinden, erweitert dieses Papier das granularitätsbasierte Modell durch die Einführung des granularen Begriffskonzepts. Wir wenden dieses Konzept an, um Zeitpunkte und Intervalle sowie Zellen und Rasterregionen darzustellen. Für jeden granularen Term werden Generalisierungsregeln definiert, damit ein Phänomen automatisch von einer LoD zu einer gröberen ausgedrückt werden kann. Das Ändern der LoD eines Phänomens kann granulare Begriffe vereinfachen, indem beispielsweise ein Zeitintervall in einen Zeitpunkt oder ein Rasterbereich in eine Zelle umgewandelt wird. Unsere Beiträge werden anhand eines realen Datensatzes zu Tornados in den USA dargestellt. Die erhaltenen Ergebnisse zeigen eine Verbesserung der Anwendungsszenarien des erweiterten granularitätsbasierten Modells zu seiner Fähigkeit, unterschiedliche Phänomendarstellungen in jedem LoD bereitzustellen, während seine ursprünglichen Stärken beibehalten werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-56759-4_16 57b04fb5d4ae1452ce13b564e6f59f54;de;;;2.2.;;;Angriffsinterferenz: Ein Weg zur Verteidigung von Sicherheitsprotokollen Traditionell basiert die Analyse von Sicherheitsprotokollen auf einem einzelnen Dolev-Yao-Angreifer. Diese Art von Angreifer ist so mächtig, dass sich die Gesamtangriffskraft nicht ändert, wenn weitere Angreifer kooperieren. In diesem Papier verfolgen wir einen grundlegend anderen Ansatz und untersuchen den Fall mehrerer nicht kollaborierender Angreifer. Wir zeigen, wie die Nicht-Kooperation zwischen Angreifern zu Interferenzen zwischen laufenden Angriffen führt und dass es möglich ist, Angriffsinterferenzen aktiv auszunutzen, um Sicherheitsverletzungen zu mindern und schwache Protokolle teilweise zu schützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35755-8_21 0a8b3fae97d2900e532eb1b2f8cf9ee8;de;;;1.1.;;;Ein verbesserter AdaBoost-Algorithmus basierend auf adaptiver Gewichtsanpassung Der Basisklassifizierer, der durch den AdaBoost-Ensemble-Lernalgorithmus trainiert wird, hat ein konstantes Gewicht für alle Testinstanzen. Aus der Sicht des iterativen Prozesses von AdaBoost hat jeder Basisklassifikator eine gute Klassifikationsleistung in einem bestimmten kleinen Bereich des Eingaberaums, so dass die konstante Gewichtung für verschiedene Testproben unangemessen ist. Ein verbesserter AdaBoost-Algorithmus basierend auf adaptiver Gewichtsanpassung wird vorgestellt. Die Auswahl der Klassifikatoren und ihre Gewichtung werden durch die vollständige Informationsverhaltenskorrelation bestimmt, die die Korrelation zwischen Teststichprobe und Basisklassifikator beschreibt. Die Methode nutzt alle Skalare des vollständigen Informationsverhaltens des Basisklassifizierers und überwindet das Problem des Informationsverlusts. Die Ergebnisse simulierter Experimente zeigen, dass die Gesamtklassifizierungsleistung stark verbessert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73871-8_60 59c1d6a859cab5bb9b9907be143d6746;de;;;1.1.;;;Informationsverarbeitung bei Zwangsstörungen Eine modifizierte Stroop-Aufgabe mit semantischer Manipulation wurde verwendet, um die Verarbeitung von angstbezogenen Informationen bei Patienten mit diagnostizierter Zwangsstörung (OCD) zu untersuchen. Dreiundzwanzig OCs mit Waschritualen (Wäschern), 10 OCs ohne Waschrituale (Nichtwäscher) und 14 Normalen wurde eine modifizierte Stroop-Aufgabe verabreicht, in der sie gebeten wurden, Kontaminationswörter, allgemeine Bedrohungswörter, neutrale Wörter und Nichtwörter farblich zu benennen . Jedem Wort ging einer von vier Priming-Stimuli in randomisierter Reihenfolge voraus, XXXXX, Gefahr, Störung, Frucht. OC-Washer zeigten längere Reaktionslatenzen auf Kontaminationswörter als auf neutrale Wörter. Außerdem waren ihre Latenzen bis zu Kontaminationswörtern länger als die Latenzen von OC-Nonwashern und von Normals, aber nur der letztere Unterschied erreichte eine Signifikanz. OC-Nonwasher zeigten längere Latenzen bei allgemeinen Bedrohungswörtern als bei Nichtwörtern und Normale waren bei der Farbbenennung neutraler Wörter langsamer als entweder Kontaminations- oder allgemeine Bedrohungswörter. Die Hypothese, dass alle Probanden einen Priming-Effekt für die Fruchtwörter zeigen würden, wurde durch die Daten gestützt, längere Latenzen bei der Farbbenennung wurden für Fruchtwörter gefunden, wenn die Prime-Frucht vorangestellt wurde. Die Hypothese, dass Washer längere Latenzen für Kontaminationswörter zeigen würden, wenn sie durch Gefahr geprimt wurden, als wenn sie durch das Nicht-Wort XXXXX geprimt wurden, wurde nicht bestätigt. Die theoretischen Implikationen der Ergebnisse zur Priming-Manipulation, die Spezifität der modifizierten Stroop-Effekte und ihre klinische Relevanz werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF01172964 a21d6160f0357237c248142f754dbf86;de;;;1.1.;;;Informationsverarbeitung und mentale Modelle: Weltbilder Um 10:35 Uhr morgens werden zwei Krankenwagen zum Unfallort eines Zwei-Auto-Verkehrsunfalls auf dem Land geschickt. Die erste Einheit, die am Tatort eintrifft, bestätigt, dass zwei Autos beteiligt sind und drei Personen verletzt wurden. Augenzeugen zufolge verlor der Fahrer eines der Autos die Kontrolle über sein Fahrzeug, die beiden Autos kollidierten frontal. Die beiden Insassen des zweiten Fahrzeugs sind nur leicht verletzt, der Unfallverursacher liegt im Koma. Nach Begutachtung und Triage konzentriert sich das zweite Rettungsteam auf die beiden leicht verletzten Insassen, von denen einer über Parästhesien klagt, wahrscheinlich als Folge eines Schleudertraumas. Das bewusstlose Opfer wird aus seinem Fahrzeug gerettet und vom ersten Team in den Rettungswagen überführt. Er erhält Sauerstoff über eine Gesichtsmaske und es werden zwei großkalibrige intravenöse Leitungen gelegt. Ein normaler Blutzucker-Fingerstich schließt eine Hypoglykämie als Ursache für die Bewusstlosigkeit aus. Die Volumenreanimation wird gestartet und der Patient wird intubiert. Da das Opfer keine äußeren Verletzungen aufweist, umfasst die Arbeitsdiagnose an dieser Stelle eine Verzögerungsverletzung mit schweren inneren Blutungen, Verletzungen wichtiger intraabdominaler Organe und schwere Kopfverletzungen. Nachdem 2.000 ml kristalloider Lösung ohne Auswirkung auf den arteriellen Blutdruck infundiert wurden, wird eine Adrenalin-Tropfinfusion eingeleitet. Die Jugularvenen sind deutlich aufgebläht, was auf einen Pneumothorax schließen lässt. Die Auskultation des Brustkorbs zeigt jedoch bilaterale Atemgeräusche und die Palpation des Brustkorbs zeigt keine Rippenfrakturen oder ein subkutanes Emphysem. Somit ist die Diagnose Pneumothorax ausgeschlossen. Bei Ankunft in der Notaufnahme ist der Patient weiterhin hämodynamisch instabil. Eine Ultraschalluntersuchung zeigt keine intraabdominalen Organverletzungen oder freie intraperitoneale Flüssigkeit. Das Röntgenthorax zeigt eine ausreichend belüftete Lunge, eine ausgeprägte perihiläre Stauung, einen normalen Aortenbogen und eine deutlich vergrößerte Herzsilhouette. Bis zu diesem Zeitpunkt wurden 3.500 ml kristalloide Lösung infundiert und die Rate des Adrenalin-Tropfens hat 5 mg pro Stunde erreicht. Eine transösophageale Echokardiographie wird durchgeführt, die einen erweiterten linken Ventrikel mit schwerer inferiorer und apikaler Akinesie zeigt. Der Patient stirbt kurz nach Aufnahme auf die Intensivstation an den Folgen eines schweren kardiogenen Schocks.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-41427-0_6 c58cf17fbdf51608782ade059f5fcd05;de;;;1.1.;;;Der Mensch im Mittelpunkt des Informationsmanagements Die meisten Kapitel in diesem Buch behandeln Kolonien sozialer Insekten als Überbauten, deren Innenleben von selbstorganisierenden Prozessen bestimmt wird. Es ist auch in der abiotischen Welt, dass viele Muster, wie vom Wind verwehter Sand, die Form von Flüssigkeiten in Bewegung, Spiralen, Flecken und Streifen durch Selbstorganisation durch einfache, lokale Wechselwirkungen zwischen ihren Bestandteilen gewoben werden. In all diesen Fällen werden dem System globale Eigenschaften nicht durch übergreifende Blaupausen, Schablonen oder andere Anweisungen von außen auferlegt, sondern ergeben sich allein aus zahlreichen Interaktionen auf unterer Ebene. Wenn wir jedoch von physikalischen zu biologischen Systemen übergehen, kommt eine zusätzliche Dimension hinzu. Jetzt werden die Aufbauten „adaptiv“, die Einzelteile und die Regeln ihres Zusammenspiels werden durch natürliche Selektion fein abgestimmt. Während die Muster, die beispielsweise von Bénard-Konvektionszellen gebildet werden, lediglich als zufällige Nebenprodukte der Interaktionen ihrer elementaren Untereinheiten angesehen werden können [1], sind biologische Überstrukturen das Produkt von Anpassungen auf Gruppenebene [2, 3]. Die natürliche Selektion ist der Motor der Interaktionen zwischen den Untereinheiten eines biologischen Systems. In evolutionärer Hinsicht kann eine funktionelle Einheit höherer Ordnung als ein Vehikel angesehen werden, das von den replizierenden Genen gebaut wird, um ihr Überleben und ihre Reproduktion zu verbessern [4].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-8739-7_15 bf76ab196a13ebae94db7488d26c512d;de;;;1.1.;;;GPS-Systemanwendung im Ackerland-Informationsmanagement Feldinformationsbeschaffung, Informationsverarbeitung, Managemententscheidung, intelligente Steuerung und andere Fragen wurden zum Fokus von Forschungsinstituten im In- und Ausland, jedoch liegt die Forschung des Ackerlandinformationsmanagementsystems im gesamten System weit hinter der Entwicklung anderer unterstützender Daher konzentriert sich dieser Artikel auf die Anwendung des GPS im Ackerland-Informationsmanagement. Dieser Artikel stellt das Prinzip der GPS-Positionierung und Techniken der Positionsdatenerfassung vor. Gefolgt von einer Diskussion über die Anwendung der GPS-Technologie bei der Erfassung von Ackerlandinformationen, schließlich haben Sie einen Präzisionstest zur GPS-Positionierung in Ackerland, Testergebnisse zeigen, dass das GPS System effektiv auf das Informationsmanagement von landwirtschaftlichen Flächen angewendet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29455-6_43 126915f14b6c158a90b0f769a7e3bac6;de;;;1.1.;;;Verwendung einer modifizierten Stroop-Aufgabe zur Untersuchung der Erscheinungsbild-schematischen Informationsverarbeitung bei College-Frauen Eine computerisierte Stroop-Farbbenennungsaufgabe wurde verwendet, um die Informationsverarbeitung von 55 Frauen mit Aussehen und ohne Aussehen zu vergleichen, basierend auf ihren Ergebnissen im Aussehen Schemas Inventar (ASI). Die Teilnehmer benannten Erscheinungswörter (z. B. ÜBERGEWICHT, LIPPENSTIFT) und Nicht-Auftrittswörter (z. B. ABNOXIOUS, BRIDEGROOM), nachdem sie entweder einer neutralen Bedingung oder einer Grundierungsbedingung ausgesetzt waren, die ihre Körpergröße/Aussehen betonte. Geprimte schematische Personen zeigten eine größere Stroop-Interferenz bei der Farbbenennung des Aussehens im Vergleich zu Nicht-Erscheinungswörtern im Vergleich zu nicht-gestrichenen Schemata und sowohl gestrichenen als auch nicht-gestrichenen Aschematiken. Bei einer zufälligen Erinnerungsaufgabe wurde eine bescheidene, aber signifikant positive Korrelation zwischen den ASI-Werten und dem Prozentsatz der vorkommenden Wörter unter den später erinnerten Wörtern beobachtet. Diese und andere Ergebnisse belegen die Konstruktvalidität der ASI in einer nichtklinischen Population und bieten eine Grundlage, auf der das Studium kognitiver Modelle des Körperbildes und klinischer Körperbildstörungen vorangetrieben werden kann.;-;-;-;https://link.springer.com/article/10.1023/A%3A1018732423464 26720a3d12cf5c417d8b102023bfbf8f;de;;;1.1.;;;Neue Anwendungen von ESR/EPR: Quantum Computing/Quantum Information Processing Ein Qubit (Quantenbit) ist ein quantenmechanisches Zweizustandssystem. Das Qubit kann es sich leisten, eine beliebige Überlagerung von Quantenzuständen zu erzeugen, und es hat eine wesentlich höhere Kompliziertheit als ein klassisches Bit. Ein kanonisches Beispiel für das Qubit ist der Materiespin mit Spin-1/2. So wurden natürlich Elektronen mit der Spinquantenzahl 1/2 als physikalische Qubits für die Implementierung von Quantencomputing und Informationsverarbeitung (QC/QIP) erwartet. In jüngster Zeit haben sich Elektronen-Spin-Qubit-Systeme in organischen molekularen Gerüsten wie extrem stabilen Radikalen als hybride Spin-Qubit-Systeme zusammen mit einem Kernspin-1/2-Qubit herausgebildet, die als molekulare Elektronenbus-Qubits bezeichnet werden. Tatsächlich sind molekulare Elektronenspins die neueste Entwicklung als Qubits. Unter vielversprechenden Kandidaten für QC/QIP aus materialwissenschaftlicher Sicht werden in diesem Kapitel kurz die Gründe beschrieben, warum Elektronenspin-Qubits wie synthetische Elektronenspinsysteme, dh ungepaarte Elektronenspins in molekularen Systemen, Potenziale für QC/QIP haben . Fragen, die für synthetische Mehrelektronen-Qubit-Systeme relevant sind, sind für die Implementierung der Qubit-Skalierbarkeit wichtig, aber nicht enthalten. Im Vergleich zur NMR-basierten QC/QIP ist die Puls-ESR-basierte QC/QIP völlig unausgereift, einfach wegen der intrinsischen technischen Beschränkungen und der Dekohärenz, die den Elektronenspins in physikalischen Ensemble-Systemen innewohnt. In Bezug auf die Verbindung zwischen QC/QIP und gepulster Elektronenmagnetresonanz als Ermöglichung der Ensemble-Spin-Manipulationstechnologie gibt es viele wichtige und aufkommende Probleme. Wichtig ist auch die Verbindung zwischen QC/QIP und Chemie oder Materialwissenschaft, die Einblicke in die Suche nach praktisch skalierbaren Spin-Qubits bietet. In diesem Kapitel betonen wir nur, dass es uns ermöglicht, einen Elektronenspin und Kernspin-Qubits auf äquivalente Weise zu manipulieren. Super Dense Coding (SDC) Experimente unter Verwendung von Puls-ENDOR werden eingeführt, um QC ENDOR zu verstehen und wie es sich von QC NMR auf der Grundlage moderner Kernspintechnologie unterscheidet. Die direkte Beobachtung des einem Elektronenspin inhärenten Spinors, der erstmals nachgewiesen wurde, wird im Zusammenhang mit der Verschränkung eines Elektron-Kern-Hybridsystems (einfachstes Elektron-Bus-System) gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-4887-3_4 e0f1e12f7df78b1f61baf6f3009b0a27;de;;;1.1.;;;Anwendung eines Entscheidungsmanagement- und Informationsmanagementsystems basierend auf Big Data Big Data ist ein weiterer wichtiger technologischer Wandel nach dem Aufkommen des Internets der Dinge und des Cloud Computing, der sich auf Wissenschaftler, Unternehmen oder Regierungen auswirkt. Basierend auf der Einführung des Konzepts und der Konnotation von Big Data diskutierte dieses Papier die Anwendung von Entscheidungsmanagementsystemen und Informationsmanagementsystemen auf die Entscheidungsfindung in Unternehmen, die Regierungsführung und die Katastrophenfrühwarnung, um eine theoretische Anleitung für die praktische Arbeit zu geben .;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1468-5_27 0c0a2916fae15220f42f273b7d60a1a1;de;;;1.1.;;;Der Compleat Time Experiencer In einem bekannten Artikel über Bewusstsein stellte Thomas Nagel (1974) die faszinierende Frage, wie es wäre, eine Fledermaus zu sein. Eine ähnliche Frage kann in Bezug auf das menschliche Zeitbewusstsein gestellt werden. Wenn sich unsere Zeiterfahrung als etwas konzeptionell einheitliches herausstellen sollte, in dem Sinne, dass es durch eine bestimmte Menge zusammenhängender Ereignisse, Attribute oder Prozesse definiert werden kann, dann muss es etwas, auch wenn es wenig ist, bedeuten, eine Zeit zu sein Erfahrener.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-70491-8_2 64889acaa77de2dc3b013d86017efffe;de;;;1.1.;;;Die stochastischen Eigenschaften der grundlegenden Neuronenpopulationen als Informationsverarbeitungssystem Dieser Artikel befasst sich mit den stochastischen Eigenschaften der einfachsten Neuronenpopulation, die aus zwei Neuronen besteht. Zwei Modi der neuronalen Kopplung werden diskutiert. Einer ist der Vorwärtshemmungsmodus [FI] und der andere ist der Rückwärtshemmungsmodus [BI]. Im Vorwärtsinhibitionsmodus wird angenommen, dass die beiden Neuronen unabhängig voneinander sind. Im Rückwärtshemmungsmodus interagieren die beiden Neuronen, es wird jedoch angenommen, dass die Eingaben in die Neuronen unabhängig voneinander sind. Bei der Analyse erhalten wir zunächst die Wahrscheinlichkeitsdichtefunktion [p.d.f.] der Interspike-Intervalle der Ausgangsimpulszüge in FI und BI. Dann definieren wir die Übertragungsfunktion der mittleren Rate aus der mittleren Rate dieser p.d.f.'s. Schließlich wird durch den Vergleich unserer analytischen Ergebnisse mit den physiologischen experimentellen Daten klar, dass der Unterschied in den stochastischen Eigenschaften durch den Unterschied im Kopplungsmodus (d. h. FI oder BI) erklärt werden kann.;-;-;-;https://link.springer.com/article/10.1007/BF00337353 fbc2d5f18496fca15856cc76396f04a1;de;;;1.1.;;;Forschung zur RFID-Anwendung im PLM-Informationsmanagement von Haushaltsgeräten Unterschiedliche Teilnehmer hatten unterschiedliche Informationsanforderungen an PLM für Haushaltsgeräte. Endbenutzer verwenden häufig produktbezogene Informationen, wie z. B. Wartungsdienste. In vielen Fällen ist es jedoch schwierig, auf vollständige relevante Informationen zuzugreifen. Diese Situation war auf die Trennung von Daten und Produkten zurückzuführen oder die auf dem Typenschild aufgezeichneten Informationen waren zu wenig. In diesem Papier wurden die Informationsanforderungen der Teilnehmer für die PLM-Stufen von der Produktionsherstellung über die Lagerhaltung, den Verkauf und die Wartung bis hin zum Recycling analysiert. RFID-Tag wird verwendet, um Produktdaten zu sammeln und zu speichern. Die zugehörigen Produktinformationen werden im Herstellungs- und Wartungsprozess in das RFID-Tag geschrieben. Die Informationen können im Verteilzentrum, Händler, Servicezentrum und der Recyclingstation über das RFID-System gelesen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28658-2_23 ce20123ba7d436f2f52d0900ee459c2c;de;;;1.1.;;;Über ein Informationsverarbeitungsmodell für optische Täuschungen und Computersimulationen simulation Ein früher vorgeschlagenes Modell zur Bildverarbeitung wird diskutiert und auf einige optische Täuschungen angewendet. Eine Simulation auf einem Computer wird bereitgestellt, um ein quantitatives Verständnis bei der Untersuchung visueller Phänomene zu erreichen.;-;-;-;https://link.springer.com/article/10.1007/BF00976641 3340827ed58e67896ea61febd814446a;de;;;1.1.;;;Alle optische Spin-basierte Quanteninformationsverarbeitung Wir schlagen eine spinbasierte ultraschnelle lasergetriebene Implementierung der Quanteninformationsverarbeitung basierend auf dem Pauli-Blockierungseffekt in Halbleitern vor, der als spinabhängiger Schaltmechanismus für Hilfsexzitonenzustände fungiert.;-;-;-;https://link.springer.com/article/10.1023/A%3A1023646326888 8639d966cfd0a4123c9fcbbb25783e05;de;;;1.1.;;;Psychometrische und informationsverarbeitende Eigenschaften ausgewählter Reaktionszeitmodelle In diesem Artikel wird die Kompatibilität einiger Reaktionszeitmodelle (RT) mit psychometrischen und informationsverarbeitenden Ansätzen für Reaktionszeiten diskutiert. Zunächst werden drei psychometrisch wünschenswerte Eigenschaften probabilistischer Modelle für binäre Daten, bezogen auf das Prinzip der spezifischen Objektivität, an den Bereich der RT-Modelle angepasst. Eine davon ist die Trennbarkeit von Item- und Subjektparametern, eine andere ist die doppelte Monotonie. Als nächstes wird die Kompatibilität dieser psychometrischen Eigenschaften mit einem sehr populären Informationsverarbeitungsansatz, dem seriell-additiven Modell, diskutiert. Schließlich werden fünf RT-Modelle hinsichtlich ihrer Kompatibilität mit den psychometrischen Eigenschaften, mit seriell-additiver Verarbeitung und mit einigen alternativen Verarbeitungsarten analysiert. Daraus wird geschlossen, dass (a) aktuelle psychometrische Modelle jeweils eine oder mehrere der psychometrischen Eigenschaften erfüllen, aber nicht (einfach) mit der seriell-additiven Verarbeitung kompatibel sind, (b) mindestens ein seriell-additives Verarbeitungsmodell die Trennbarkeit von Item und Subjekt erfüllt und (c) RT-Modelle erfüllen leichter die doppelte Monotonie als die anderen beiden psychometrischen Eigenschaften.;-;-;-;https://link.springer.com/article/10.1007/BF02294431 49c82b51d6c9fdb852dac81afc65ad4f;de;;;1.1.;;;Selektive Informationsverarbeitung und schematische Inhalte zum Essverhalten Eine Adaption der Stroop-Farbbenennungsaufgabe wurde verwendet, um die selektive Informationsverarbeitung im Zusammenhang mit dem Essverhalten bei 90 Studentinnen zu untersuchen. Diese Studie unterschied sich von früheren Studien dadurch, dass sie (a) das Essverhalten als kontinuierliche Variable behandelte und (b) fünf verschiedene Kategorien von Wörtern betrachtete, darunter Farbe, Neutral, Essen, Körperform und andere emotional auffallende Wörter. Wir fanden kein starkes Beziehungsmuster zwischen der Stroop-Aufgabe und den Ess- und Körperbildmessungen. Die Ergebnisse deuten darauf hin, dass in einer nichtklinischen Population direkte Methoden des Zugangs zu Kognitionen im Zusammenhang mit dem Essen fruchtbarer sein können als indirekte Maßnahmen.;-;-;-;https://link.springer.com/article/10.1007/BF02229200 af2f37bf580b115992278bdcad295b1b;de;;;1.1.;;;Nanoelektromechanische Systeme und Quanteninformationsverarbeitung Die Anwendung nanoelektromechanischer Systeme (NEMSs) als eine der strukturellen Komponenten von Quantencomputern setzt ein hohes Maß an kohärenter Kontrolle ihres Zustands voraus. In diesem Fall könnten solche Objekte bestimmte Funktionen bei der Kodierung, Speicherung und dem Transport von Quanteninformationen erfüllen und als Hilfselemente für die Verarbeitung solcher Informationen dienen. Dieser Artikel enthält einen Überblick über grundlegende theoretische und experimentelle Ergebnisse, die die Möglichkeit kohärenter Manipulationen mit Phononenzuständen von NEMS, ihrer Abkühlung auf den Grundschwingungszustand und der Organisation einer kontrollierbaren Wechselwirkung zwischen ihnen und anderen Quanteninformationsträgern beweisen.;-;-;-;https://link.springer.com/article/10.1134/S1063739711040093 0978141e7f723f4047520c9214e98035;de;;;1.1.;;;Natürliche Sprache und biologische Informationsverarbeitung Unsere Fähigkeit, natürliche Sprache zu verwenden, um mit anderen zu kommunizieren und zu kooperieren, ist eines der bestimmenden Merkmale der menschlichen Intelligenz. Es wurde viel Arbeit in die Entwicklung von Theorien gesteckt, die die Struktur der Sprache erklären und wie sie sich auf die Informationsverarbeitungsfähigkeiten des menschlichen Geistes bezieht. In diesem Kapitel diskutieren wir philosophisch die Fähigkeit zur natürlichen Sprache als einen Mechanismus, der verkörperte Informationen und natürliche Sprache als solche Informationen vermittelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19621-8_10 9286edde5eab72e6580dddf6f69187f7;de;;;1.1.;;;Produktmodellierung: Ein Ansatz für die integrierte Informationsverarbeitung Integrierte Informationsmodelle bilden die Grundlage für die Produktmodellierung. Das Papier beschreibt einen allgemeinen Rahmen integrierter Modelle mit besonderem Fokus auf Produktmodelle. Anschließend werden verschiedene Ansätze zur Produktmodellierung diskutiert. Außerdem werden zwei Beispiele für Produktmodellierungstools vorgestellt. Ein Feature-Modellierer unterstützt formorientierte Manipulationen am Produkt, ein Produktstruktur-Editor ermöglicht dem Konstrukteur den Umgang mit Strukturinformationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-77811-7_13 de981602613a803091cae8c1bc633113;de;;;1.1.;;;Propriozeptive Informationsverarbeitung in der Schwerelosigkeit Das Experiment „Illusionen“, das an fünf Astronauten während der letzten beiden französisch-russischen Flüge (Antarès 1992 und Altaı˙˙r 1993) und in der russischen Post-Antarès-Mission (1993) durchgeführt wurde, sollte die adaptiven Veränderungen des Menschen propriozeptive Funktionen, die in der Schwerelosigkeit sowohl auf sensomotorischer als auch auf kognitiver Ebene auftreten und sich auf zwei Arten von Reaktionen konzentrieren: (1) Ganzkörper-Haltungsreflexe und (2) Ganzkörper-Bewegungswahrnehmung. Diese kinästhetischen und motorischen Reaktionen wurden mit der Sehnenvibrationsmethode induziert, die dafür bekannt ist, selektiv den propriozeptiven muskulären Sinneskanal zu aktivieren und entweder motorische Reaktionen oder illusorische Bewegungsempfindungen hervorzurufen. Daher wurde eine Vibration (70 Hz) auf die Knöchel- (soleus oder tibialis) und die Nackenmuskulatur (splenii) angewendet. Die motorischen Reaktionen des gesamten Körpers wurden anhand von EMG- und goniometrischen Aufzeichnungen analysiert. Die wahrgenommenen vibrationsinduzierten kinästhetischen Empfindungen wurden von den Probanden mit einem Joystick nachgeahmt. Die wichtigsten Ergebnisse zeigen, dass eine parallele Abschwächung der vibrationsinduzierten Haltungsreaktionen und kinästhetischen Illusionen während des Fluges auftrat, was darauf hindeutet, dass sich das propriozeptive System an den Kontext der Mikrogravitation anpasst, in dem die stehende Haltung und die bewusste Kodierung von anteroposterioren Körperbewegungen nicht mehr möglich sind relevant. Dieselben sensorischen Botschaften werden gleichzeitig in verschiedenen sensorisch-motorischen Schleifen und bei der Kodierung neu entwickelter Verhaltensbewegungen unter Mikrogravitation verwendet. Diese Ergebnisse legen nahe, dass das menschliche propriozeptive System ein hohes Maß an adaptiver funktioneller Plastizität aufweist, zumindest was die wahrnehmungs- und motorischen Aspekte betrifft.;-;-;-;https://link.springer.com/article/10.1007/s002210050527 40e3ead14c50da8f34a1cdb7e9633d49;de;;;1.1.;;;Anwendung der Komplexitätstheorie auf ein Informationsverarbeitungsmodell im naturwissenschaftlichen Unterricht Die aktuelle Arbeit untersucht die Rolle der Arbeitsgedächtniskapazität bei der Problemlösung im naturwissenschaftlichen Unterricht. Es behandelt ein Informationsverarbeitungsmodell mit Werkzeugen der Komplexitätstheorie. Nichtlineare Methoden werden verwendet, um die Leistungswerte der Probanden mit der Arbeitsgedächtniskapazität zu korrelieren. Die Daten wurden den Leistungswerten bei einfachen chemischen Problemen der organischen Synthese entnommen. Die Fächer (;-;-;-;https://link.springer.com/article/10.1023/A%3A1009514607622 e5c5c56364fbec15237c7c089c0fe4bc;de;;;1.1.;;;Lineare versus nichtlineare Informationsverarbeitung: Ein Blick auf neuronale Netze Wir vergleichen die Informationsverarbeitungsfähigkeiten verschiedener Architekturen neuronaler Netze mit denen von linearen Standardtechniken. Konkret wird die Wertentwicklung anhand der Zinsserien der italienischen Schatzwechsel-Auktion getestet. Der Auktionszinssatz wird von wirtschaftlichen, politischen und technischen Faktoren beeinflusst, die sich in den vergangenen Reihen nicht widerspiegeln. Wir schätzen rein autoregressive und erweiterte Modelle auf den Auktionen zwischen März 1989 und Dezember 1993, wobei wir uns sowohl auf die Restdiagnostik als auch auf die Prognoseleistung der verschiedenen Modelle konzentrieren. Um den Zusammenbruch des Europäischen Währungssystems und die damit verbundenen Turbulenzen entweder dem Schätzzeitraum oder dem Prognosezeitraum zuzuordnen, werden zwei Prognosehorizonte gewählt. Es werden sowohl statische als auch dynamische neuronale Netze experimentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-8743-3_8 ac2030db101ef4bf32fe964804e30d9e;de;;;1.1.;;;Ein informationsverarbeitender Ansatz für eine Unterrichtstheorie Dieses Papier ist eine Version des sechsten ECTJ/ERIC-IR Young Scholar Paper, einer jährlichen Auszeichnung, die junge Fachleute im Bereich der Unterrichtstechnologie zum Schreiben anregen soll. Die Erstellung des Papiers wurde vom ERIC Clearinghouse on Information Resources in Syracuse, NY 13210, unterstützt.;-;-;-;https://link.springer.com/article/10.1007/BF02766725 6f772682248d58da50ef0e9cf6d663ea;de;;;1.1.;;;J. M. Keynes‘ „Theory of Evidial Weight“: Ihre Beziehung zur Informationsverarbeitungstheorie und -anwendung in The General Theory Die Schlussfolgerungen, die Keynes in seinem Treatise on Probability (1921) über Induktion, analoges Denken, Erwartungsbildung und Entscheidungsfindung herleitet, spiegeln die wichtigsten Schlussfolgerungen der Kognitionswissenschaft und Psychologie wider und lassen sie erahnen.;-;-;-;https://link.springer.com/article/10.1007/BF00486435 a9ce58ba80efe4bb0447f467a3c560dd;de;;;1.1.;;;Spinbasierte Quanteninformationsverarbeitung in magnetischen Quantenpunkten Wir definieren das Qubit als ein Paar von Singulett- und Triplett-Zuständen von zwei Elektronen in einem He-Typ-Quantenpunkt (QD), der in einem verdünnten magnetischen Halbleitermedium (DMS) platziert ist. Das molekulare Feld ist hier wesentlich, da es die Entartung des Triplettzustands beseitigt und die Zeeman-Aufspaltung stark verstärkt. Es werden Methoden der Qubit-Rotation sowie Zwei-Qubit-Operationen vorgeschlagen. Das System einer QD in einem DMS wird so beschrieben, dass eine Analyse der Dekohärenz durch Spinwellen im DMS-Subsystem möglich ist.;-;-;-;https://link.springer.com/article/10.1007/s11080-005-5724-0 4a0543f21d57fe3d682871370f2830e1;de;;;1.1.;;;Hin zu einer harmonischen Verschmelzung deterministischer und stochastischer Frameworks in der Informationsverarbeitung Dieses Papier präsentiert einige vorläufige Bemühungen in Richtung einer neuen Methodik, die deterministische und stochastische Frameworks in der Informationsverarbeitung, einschließlich Identifikation, Signalverarbeitung, Kommunikation, Systemdesign usw. harmonisch miteinander verbindet Gründe und Motive für die Einführung eines solchen kombinierten Rahmens. Am Beispiel der persistenten Identifikation demonstrieren wir die Anwendung und den Nutzen der Methodik. Untere und obere Schranken für Identifikationsfehler werden für Systeme erhalten, die sowohl einer deterministischen unmodellierten Dynamik als auch zufälligen externen Störungen unterliegen.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0109863 7210d2492c7a9e41409886a423fa693b;de;;;1.1.;;;Ein informationsverarbeitendes Modell der BOLD-Antwort bei Symbolmanipulationsaufgaben Zwei bildgebende Experimente wurden durchgeführt – eines umfasste eine algebraische Transformationsaufgabe, die von Anderson, Reder und Lebiere (1996) untersucht wurde, und das andere beinhaltete eine Abstraktionssymbol-Manipulationsaufgabe, die von Blessing und Anderson (1996) untersucht wurde. Es gibt ACT-R-Modelle, die die Latenzmuster bei diesen Aufgaben vorhersagen. Diese Modelle erfordern Aktivität in einem imaginalen Puffer, um Änderungen an der Problemdarstellung darzustellen, in einem Abrufpuffer, um Informationen aus dem deklarativen Gedächtnis zu speichern, und in einem manuellen Puffer, um Informationen über das motorische Verhalten zu speichern. Es wird eine allgemeine Theorie beschrieben, wie die Aktivität in diesen Puffern auf die fMRI-Blutsauerstoffspiegel-abhängige (BOLD) Reaktion abgebildet werden kann. Diese Theorie behauptet, dass die BOLD-Reaktion über die Dauer integriert wird, während der ein Puffer aktiv ist, und verwendet werden kann, um die beobachtete BOLD-Funktion vorherzusagen. Es wird gezeigt, dass Aktivität im imaginalen Puffer die BOLD-Reaktion in einer links-posterioren Parietalregion vorhersagt, Aktivität im Retrieval-Puffer wird gezeigt, um die BOLD-Reaktion in einer linken präfrontalen Region vorherzusagen, und Aktivität im manuellen Puffer wird gezeigt, um Aktivität in a . vorherzusagen motorischen Bereich. Allgemeiner ausgedrückt zeigt dieser Artikel, wie eine große Klasse von Theorien zur Informationsverarbeitung (nicht nur ACT-R) auf die BOLD-Antwort abgebildet wird und bietet eine präzise Interpretation der kognitiven Bedeutung der BOLD-Antwort.;-;-;-;https://link.springer.com/article/10.3758/BF03196490 879ec303578fa2481561d5bbd0e1a9f3;de;;;1.1.;;;Die Rolle der kognitiven Veränderung in der Psychotherapie Es ist eine große Herausforderung, die Rolle zu identifizieren, die kognitiver Wandel in modernen Psychotherapien spielen soll. Diese Aufgabe setzt voraus, dass man die Gemeinsamkeiten zwischen Ansätzen, die sich als Unterschiede ausgeben, und den Unterschieden, die sich als Ähnlichkeiten ausgeben, erkennen kann. Das Herausziehen von bedeutsamen Ähnlichkeiten und Unterschieden konfrontiert uns mit der heiklen und vielschichtigen Frage der Zuordnung kausaler Zusammenhänge zwischen Kognitionen, emotionalen Belastungen und Verhaltensweisen, sowohl aus der Sicht verschiedener Theorien als auch aus der empirischen Literatur.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-9779-4_7 593baf86d32b59e8b84244e0a88ce4fb;de;;;1.1.;;;Der Einsatz von Feedback in der optischen Informationsverarbeitung Die Verwendung von Rückkopplungstechniken in optischen Informationsverarbeitungssystemen nimmt schnell zu. Dieser Review beschreibt Methoden, mit denen Feedback erzeugt wurde, und diskutiert ihre Anwendung auf Verarbeitungsprobleme. Die Methoden werden nach der Kohärenzlänge der verwendeten Lichtquellen klassifiziert und reichen von lang (Single-Axial-Mode-Laser) über mittel (Multimode-Laser) bis hin zu kurz (inkohärente Lichtquellen). Besonderes Augenmerk wird auf ihr Potenzial für komplexes Feedback und für nichtlineare und raumvariante Verarbeitung gelegt. Die zeitlichen Eigenschaften der Systeme und die Mittel, mit denen Verstärkung in die Rückkopplungsschleife eingeführt werden kann, werden berücksichtigt. Ein aktuelles Literaturverzeichnis wird angegeben.;-;-;-;https://link.springer.com/article/10.1007/BF00899683 5ae32058c461953ee793740d28a66025;de;;;1.1.;;;Modelle der räumlichen Informationsverarbeitung in Biosonarsystemen und vorgeschlagene Methoden zu deren Validierung Ziel dieses Symposiums ist es, die Bemühungen und Ergebnisse in der Forschung zu Verhalten, Neurophysiologie, Ökologie, Signalverarbeitung und Elektronik in Bezug auf die Echoortung seit der NATO-Konferenz „Animal Sonar Systems — Biology and Bionics“ 1966 in Frascati zu überprüfen Ich denke, das Organisationskomitee hat mit der Wahl des Jahres 1979 für dieses Symposium eine sehr gute Entscheidung getroffen. Wir können nun des 250. Jahrestages des Mannes gedenken, der als erster ein Tiersonarsystem, das einer Fledermaus, beschrieben hat, des italienischen Abtes Lazzaro Spalanzani, der am 12. Juli 1729 in Scandiano in der Provinz Modena geboren wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-7254-7_32 9b9cbf5999ba93f185fd367e1a393655;de;;;1.1.;;;Verschränkungstausch für Cluster-Klassenzustände und seine Anwendungen in der Quanteninformationsverarbeitung Verschränkungstausch für Zustände der Clusterklasse mit vier Qubits wird untersucht. Es wird gezeigt, dass ein vier-Qubit-Cluster-Zustand (maximal verschränkt) mit einer gewissen Wahrscheinlichkeit aus zwei vier-Qubit-Cluster-Klassen-Zuständen durch Verschränkungstausch erhalten werden kann. Die Wahrscheinlichkeit bezieht sich auf den kleinsten Überlagerungskoeffizienten der Clusterklassenzustände (wenn alle Amplitudenmoduli äquivalent sind, sind es die üblichen Clusterzustände und die Wahrscheinlichkeit trifft auf eins). Zwei Beispiele für die Anwendungen des Verschränkungstauschs werden ebenfalls vorgestellt. Die eine ist die Quantenteleportation eines beliebigen Zwei-Qubit-Zustands über einen Quantenrepeater, bei der die Erfolgswahrscheinlichkeit durch den Verschränkungstausch bei;-;-;-;https://link.springer.com/article/10.1007/s10773-012-1076-z 4e59cd802cb63c0ace60286d53428f0b;de;;;1.1.;;;Test von Informationsverarbeitungsmodellen im Kreditkartenangebotskontext Die normative ökonomische Perspektive (oder genauer das Invarianzprinzip) legt nahe, dass Verbraucher bei identischen wirtschaftlichen Werten zweier Angebote unabhängig von ihrem Präsentationsformat zwischen den Angeboten gleichgültig sein sollten. Die Forschungsliteratur zeigt jedoch, dass Verbraucher im realen Leben häufig gegen solche Vorhersagen verstoßen und von der Art und Weise der Angebotspräsentation beeinflusst werden. Entscheidungen, die normativ äquivalent sind, werden oft als unterschiedlich angesehen, wenn sie anders formuliert werden (Tversky und Kahneman, 1981).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-18687-0_15 31927d47f3183473a0d27cd317fefd44;de;;;1.1.;;;Ein informationsverarbeitender Ansatz zur Item-Äquivalenz In der kognitiven Komponentenforschung (Pellegrino und Glaser, 1979, R.J. Sternberg, 1981) werden Eignungstestaufgaben als informationsverarbeitende Aufgaben untersucht. Ein wesentliches Ziel dieser kognitiven Prozessforschung der Eignung ist die Interpretation individueller Unterschiede in den Testergebnissen in Bezug auf leistungssteigernde oder -verzögernde Komponentenprozesse. Die vorherrschenden Untersuchungsmethoden in dieser Forschungsrichtung sind Reaktionszeitzerlegungsmethoden, d. h. Techniken, die es ermöglichen, Variationen der Reaktionszeit mit mentalen Operationen in Verbindung zu bringen, die während der Verarbeitung stattfinden sollen. In diese Gruppe eingeschlossen sind (1969) die additive Faktormethode und (1977) die Komponentenanalysemethode.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-3322-7_16 f851500e7973d99cb30ada83dc5465f4;de;;;1.1.;;;Die kombinierten Auswirkungen der selbstbezogenen Informationsverarbeitung und der Wiederkäuerreaktionen auf die Depression bei Jugendlichen Jugendliche, die eine Depression entwickeln, haben schlechtere zwischenmenschliche und affektive Erfahrungen und entwickeln eher Substanzprobleme und/oder Suizidgedanken als Jugendliche, die keine Depression entwickeln. Diese Studie untersuchte die kombinierten Auswirkungen von negativer selbstreferentieller Informationsverarbeitung und Grübeln (d. h. Grübeln und Nachdenken) auf depressive Symptome bei Jugendlichen. Es wurde die Hypothese aufgestellt, dass die Interaktion von negativer selbstreferenter Informationsverarbeitung und Grübeln depressive Symptome signifikant vorhersagen würde, während die Interaktion von negativer selbstreferenter Informationsverarbeitung und Reflexion keine depressiven Symptome vorhersagen würde. Jugendliche (;-;-;-;https://link.springer.com/article/10.1007/s10964-012-9827-y edd25cf0829c598da3e54ccc44a459ba;de;;;1.1.;;;Ein informationsverarbeitendes Modell zum Verstehen von Sprache Die Simultaninterpretation bietet eine ideale Situation für eine logische Analyse eines informationsverarbeitenden Modells. Für den externen Beobachter hört der Dolmetscher eine Rede in einer Sprache, während er gleichzeitig (oder zumindest innerhalb weniger Sekunden) dieselbe Botschaft in einer zweiten Sprache artikuliert. Im Sinne einer informationsverarbeitenden Beschreibung muss der Simultandolmetscher die Oberflächenstruktur der ursprünglichen Nachricht entschlüsseln, in eine abstrakte Darstellung abbilden, diese abstrakte Darstellung in eine neue Oberflächenstruktur aufnehmen und schließlich die übersetzte Nachricht artikulieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-9077-4_26 a3da84cd76a8d69bd1469156f18b2fcf;de;;;1.1.;;;Tendenzen der Informationsverarbeitung in jüngsten Experimenten zum kognitiven Lernen – Theoretische Implikationen Professor Frijda soll (von Gascon, 1969) in einer unveröffentlichten Konferenz gesagt haben, dass „Piagets Theorie einfacher zu programmieren ist als jede andere existierende Intelligenztheorie“. Mein Eindruck ist jedoch, dass die zentralen Konzepte von Piaget in ihrer jetzigen Form nicht ausreichend spezifiziert sind, um programmierbar zu sein. Seine Experimente sind programmierbar, aber ihre Simulation sollte nur als Mittel betrachtet werden, um die Natur dieser konstruktiven Prozesse aufzuklären. Das möchte ich hier zur Diskussion stellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-46323-5_4 311b1ee971300c83060342e4e0979278;de;;;1.1.;;;Neuronale und gliale Morphologie in olfaktorischen Systemen: Bedeutung für die Informationsverarbeitung und zugrunde liegende Entwicklungsmechanismen Die Formen von Neuronen und Gliazellen bestimmen viele wichtige Aspekte ihrer Funktionen. In olfaktorischen Systemen sind bestimmte architektonische Merkmale charakteristisch für diese beiden Zelltypen bei einer Vielzahl von Arten. Die gesammelten Beweise deuten darauf hin, dass diese gemeinsamen Merkmale eine grundlegende Rolle bei der olfaktorischen Informationsverarbeitung spielen können. Zum Beispiel ist das primäre olfaktorische Neuropil in den meisten olfaktorischen Systemen von Wirbeltieren und Wirbellosen in diskrete Module organisiert, die Glomeruli genannt werden. In jedem Glomerulus verzweigen sich sensorische Axone und ZNS-Neuronen und bilden Synapsen in Mustern, die sich bei allen Arten wiederholen. Bei vielen Arten sind die Glomeruli zudem von einer dünnen und geordneten Schicht von Gliafortsätzen umgeben. Die glomeruläre Anordnung spiegelt die Verarbeitung von Geruchsinformationen in Modulen wider, die die diskreten molekularen Attribute der verarbeiteten Geruchsreize kodieren. Neuere Studien zu den Mechanismen, die die Entwicklung von Riechneuronen und Gliazellen steuern, haben komplexe wechselseitige Interaktionen zwischen diesen beiden Zelltypen gezeigt, die für die Etablierung modularer Kompartimente erforderlich sein können. Zusammenfassend legen die hier untersuchten Ergebnisse nahe, dass eine spezialisierte zelluläre Architektur eine wichtige funktionelle Rolle bei der Erkennung, Analyse und Unterscheidung von Gerüchen in frühen Schritten der Geruchsverarbeitung spielt.;-;-;-;https://link.springer.com/article/10.1023/A%3A1024108115059 200806cd9e87a9943f5968db4a4927cb;de;;;1.1.;;;Auf dem Weg zu einer informationsverarbeitenden Analyse von Depressionen Dieses Papier präsentiert eine Analyse der Depression, die auf mehreren Standardkonzepten der Informationsverarbeitung basiert. Nach dieser Analyse kann die anfängliche Depressionserfahrung als Ergebnis der Aktivierung einer affektiven Struktur, die als Depressions-Emotionsknoten bezeichnet wird, konzeptualisiert werden. Sobald diese Einheit aktiviert ist, werden depressive Kognitionen vorgeschlagen, um durch die kognitiven Netzwerke des Individuums zu recyceln, um den depressiven Affekt zu erhalten. Es wird vermutet, dass dieser depressive Recyclingprozess mehrere kognitive und verhaltensbezogene Auswirkungen auf das depressive Individuum hat. Potentielle vermittelnde und verschlimmernde Faktoren für diesen Prozess werden diskutiert und die Beziehung der vorliegenden Analyse zur aktuellen Theorie und Forschung zur Depression wird erörtert.;-;-;-;https://link.springer.com/article/10.1007/BF01173284 2097cfbacd0e9a3df4bf35213b7d3257;de;;;1.1.;;;Evolution der Struktur und Informationsverarbeitung im Nervensystem: Teil IV einer allgemeinen Theorie Ausgehend von grundlegenden Prinzipien wird die Evolution des Nervensystems als Random-Walk-Prozess in einem mehrdimensionalen Repräsentationsraum (der;-;-;-;https://link.springer.com/article/10.1007/BF00383788 b8ba3061de0a1c3becc3cf9d10affef7;de;;;1.1.;;;Bruchtransformationen in der optischen Informationsverarbeitung Wir überprüfen die Fortschritte, die in der optischen Informationsverarbeitung während des letzten Jahrzehnts erzielt wurden, indem wir fraktionierte lineare Integraltransformationen anwenden. Die fraktionierte Fourier-Transformation und ihre Anwendungen für Phasenwiedergewinnung, Strahlcharakterisierung, raumvariante Mustererkennung, adaptives Filterdesign, Verschlüsselung, Wasserzeichen und so weiter werden im Detail diskutiert. Ein allgemeiner Algorithmus zur Fraktionierung von linearen zyklischen Integraltransformationen wird vorgestellt und gezeigt, dass sie auf unendlich viele Arten fraktioniert werden können. Grundlegende Eigenschaften von fraktionalen zyklischen Transformationen werden berücksichtigt. Die Implementierung einiger fraktionaler Transformationen in der Optik, wie z. B. fraktionale Hankel-, Sinus-, Kosinus-, Hartley- und Hilbert-Transformationen, wird diskutiert. Neue Horizonte der Anwendung fraktionierter Transformationen für die optische Informationsverarbeitung werden unterstrichen.;-;-;-;https://link.springer.com/article/10.1155/ASP.2005.1498 58cee2e23e0353472da4be39ad22a9d2;de;;;1.1.;;;Ein kohärentes optisches Feedback-System zur optischen Informationsverarbeitung Ein einzigartiges optisches Rückkopplungssystem für die kohärente optische Datenverarbeitung wird beschrieben. Mit der Einführung des Feedbacks wird die bekannte Übertragungsfunktion für Feedbacksysteme in zwei Dimensionen erreicht. Betriebsdetails des optischen Rückkopplungssystems werden angegeben. Experimentelle Ergebnisse von Systemanwendungen in der Bildwiederherstellung, Kontrastkontrolle und Analogberechnung werden vorgestellt.;-;-;-;https://link.springer.com/article/10.1007/BF00883670 1067127450a388e263b04d890c55df81;de;;;1.1.;;;Affektive Informationsverarbeitung und Angsteinschätzung Eine Konzeptualisierung von Angst als drei lose gekoppelte Reaktionssysteme von offenem Verhalten, verbalen Berichten und physiologischer Aktivierung hat sich in klinischen und theoretischen Arbeiten als nützlich erwiesen. Mit diesem Rahmen als Ausgangspunkt wird ein informationsverarbeitender Ansatz zur Erforschung von Emotionen beschrieben. Emotionen werden als affektive Programme im Gehirn konzipiert, wobei Informationen als Aussagen kodiert sind, die in assoziativen Netzwerken organisiert sind. Ein affektiver Ausdruck entsteht, wenn auf ein solches Netzwerk zugegriffen und es verarbeitet wird, was auftreten kann, wenn eine ausreichende Anzahl von Propositionen durch Umweltreize und/oder interne Assoziationen aktiviert werden. Es wird die Hypothese aufgestellt, dass Informationen über die Ausdrucksphysiologie ein integraler Bestandteil der assoziativen Struktur sind und dass die Verarbeitung des Netzwerks dementsprechend zu einer messbaren psychophysiologischen Reaktion führt. Daten aus Studien zu emotionalen Bildern sowie aus anderen Forschungsbereichen werden zur Unterstützung dieser Theorien überprüft. Die Nützlichkeit dieses Ansatzes für die Beurteilung von Angststörungen wird diskutiert und Ergebnisse klinischer Studien werden vorgestellt, die darauf hindeuten, dass individuelle Unterschiede beim Zugang und der Verarbeitung emotionaler Informationen signifikante Auswirkungen auf die Prognose und Behandlungsauswahl haben können. Es wird spekuliert, dass Unterschiede zwischen den Angststörungen im Hinblick auf den Grad der kognitiven Organisation des Netzwerks interpretiert werden könnten, was zu einer möglichen Verfeinerung aktueller diagnostischer Kategorien führt. Abschließend werden kognitionspsychologische Paradigmen hinsichtlich ihrer Anwendung auf die Beurteilung und Behandlung von Angststörungen diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF01321326 2701c0409d3707a075beb05f8f1a649c;de;;;1.1.;;;Eine Informationsverarbeitungstheorie der menschlichen Entscheidungsfindung unter Unsicherheit und Risiko Computerbasierte Experimente wurden durchgeführt, um das verbale Verhalten von Probanden zu beobachten und aufzuzeichnen, die Entscheidungen in quantitativen Aufgabenumgebungen unter Unsicherheit und Risiko treffen. Die Probanden zeigten unterschiedliche Kategorien der mentalen Repräsentation der Aufgabenumgebung. Diese Darstellungen bilden die Grundlage ihrer Such- und Optimierungstechniken.;-;-;-;https://link.springer.com/article/10.1007/BF00299900 e3a57b3e985b7cea5d258ed8f8e66bfc;de;;;1.1.;;;Informationsverarbeitung und intuitive Entscheidungsfindung auf dem Feuerplatz: zum Modell der Expertenintuition Neben anderen kognitiven Aufgaben, die es zu erledigen gilt, stehen erfahrene Feuerplatzkommandanten auch vor der entscheidenden Aufgabe, verschiedene Umwelt- und Informationshinweise zu identifizieren, die ihre Leistung auf dem Feuerplatz beeinflussen könnten. Obwohl diese Cues eine entscheidende Rolle bei der Aktivierung der Mustererkennung oder des intuitiven Entscheidungsprozesses spielen, bleibt die große Herausforderung, dass sie in der Regel aus mehreren Quellen stammen und dadurch die kognitive Belastung des Arbeitsgedächtnisses erhöhen. Frühere Studien haben gezeigt, dass die Beachtung mehrerer Informationsquellen schwerwiegende Auswirkungen auf die intuitive Entscheidungsfindung hat, da es dann schwieriger wird, die relevantesten Hinweise unter den sich schnell entwickelnden Bedingungen auszuwählen. Um herauszufinden, wie Feuerwehrleute mit dieser schwierigen Aufgabe der Verarbeitung von Informationen aus mehreren Quellen umgehen, wurden 16 erfahrene Feuerwehrkommandanten mit einem halbstrukturierten Protokoll für kritische Entscheidungen befragt. In Anlehnung an die Erkenntnisse aus dem Prozess der Wissenserhebung präsentiert und beschreibt dieses Papier ein Experten-Intuitionsmodell, das wir als Informationsfilterungs- und intuitives Entscheidungsfindungsmodell bezeichnet haben. Das Modell versucht zu konzeptualisieren, wie erfahrene Feuerwehrleute mehrere Informationsquellen durchsuchen, aus denen sie dann die relevantesten Hinweise auswählen können, die schließlich die Entwicklung praktikabler Aktionspläne unterstützen.;-;-;-;https://link.springer.com/article/10.1007/s10111-015-0348-9 8a0e5cf831d57b2d9d15d9682d062cee;de;;;1.1.;;;Ein Modell für mentale Arbeitsbelastung bei Aufgaben, die eine kontinuierliche Informationsverarbeitung erfordern Das Ziel dieses Papiers ist es, ein Modell für die mentale Arbeitsbelastung zu definieren und zu begründen, das für Aufgaben geeignet ist, bei denen ein menschlicher Bediener sensorische Informationen kontinuierlich verarbeiten muss. Die primäre Anwendung dieses Modells war auf kontinuierliche manuelle Verfolgungsaufgaben, obwohl auch bestimmte nicht verfolgende Aufgaben Kandidaten für eine Anwendung sind. Das Modell scheint am nützlichsten als Entwurfs- und Bewertungswerkzeug zur Vorhersage der Beziehung zwischen Leistung und Arbeitsbelastung zu sein, Messungen der Arbeitsbelastung mit den vom Modell vorgeschlagenen Konzepten können nur unter stark eingeschränkten Situationen erhalten werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-0884-4_11 10dd6575f8524e71405db16896f402a5;de;;;1.1.;;;Gibt es Raum für „Entwicklung“ in Entwicklungsmodellen von Informationsverarbeitungsverzerrungen gegenüber Bedrohungen bei Kindern und Jugendlichen? Klinische und experimentelle Theorien gehen davon aus, dass Verarbeitungsfehler bei Aufmerksamkeit und Interpretation ein kausaler Mechanismus sind, durch den sich Angst entwickelt. Trotz zunehmender Beweise dafür, dass diese Verarbeitungsfehler bei Kindern vorhanden sind und sich daher lange vor dem Erwachsenenalter entwickeln, ignorieren diese Theorien die potenzielle Rolle der kindlichen Entwicklung. Diese Übersicht versucht, Verzerrungen der Informationsverarbeitung in einen theoretischen Entwicklungsrahmen zu stellen. Wir prüfen, ob die kindliche Entwicklung keinen Einfluss auf Informationsverarbeitungs-Bias gegenüber Bedrohung hat (Integral-Bias-Modell) oder ob die kindliche Entwicklung die Informationsverarbeitungs-Bias beeinflusst und wenn ja, ob dies durch die Moderation des Ausdrucks eines bestehenden Bias (Moderationsmodell) oder durch Beeinflussung erfolgt den Erwerb eines Bias (Erwerbsmodell). Wir untersuchen, inwieweit diese Modelle mit bestehenden Theorien und Forschungsergebnissen übereinstimmen und skizzieren einige methodische Aspekte, die bei der Schlussfolgerung über die potenzielle Rolle der kindlichen Entwicklung bei der Informationsverarbeitung von Bedrohungsreizen berücksichtigt werden müssen. Schließlich spekulieren wir über die Entwicklungsprozesse, die in der zukünftigen Forschung wichtig sein könnten.;-;-;-;https://link.springer.com/article/10.1007/s10567-010-0078-8 78543346b9bcc9ae6c959357d4c74939;de;;;1.1.;;;Bayessche Statistik und effiziente Informationsverarbeitung eingeschränkt durch Wahrscheinlichkeitsmodelle Wer sich mit der Literatur auskennt, weiß, dass der Dschungel statistischer Theorie und Praxis reich an Flora und Fauna ist. Infolgedessen birgt jeder summarische Versuch, Merkmale, die als besonders interessant oder wichtig gelten, zu isolieren, die Gefahr, dass einige der exotischeren Blüten übersehen werden oder dass es im Gras eine größere Vielfalt an Schlangen gibt, als man sie hatte bisher vermutet.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-1276-8_32 fd96a79f0cc85dace9261fbac952f2d1;de;;;1.1.;;;Quanteninformationsverarbeitung in einem dekohärenzfreien Unterraum für die Basierend auf einem hohlraumunterstützten Single-Photon-Input-Output-Prozess bauen wir zunächst das hybride Controlled-Phase-Flip-Gate zwischen Photon und Single-Logic-Qubit in dekohärenzfreien Unterräumen. Und wir erreichen auch die universellen Single-Qubit-Logikoperationen. Wir realisieren die verteilte Quanteninformationsverarbeitung mit den hybriden Controlled-Phase-Flip-Gate- und Single-Qubit-Logikoperationen. Schließlich diskutieren wir die experimentelle Machbarkeit unseres Schemas, das mit der derzeit verfügbaren Technologie zufrieden ist.;-;-;-;https://link.springer.com/article/10.1007/s11128-018-1999-2 d1eddf88088b90a9842c7647deebc35d;de;;;1.1.;;;Der Lebenszyklus des Unternehmensinformationsmanagements Unternehmen generieren Daten aus Geschäftsprozessen und Aufgaben. Die aus der Analyse der Effektivität von Geschäftsprozessen generierten Informationen sind der Schlüssel zum Management von Informationen in einem Unternehmen. Die generierten Informationen haben einen eigenen Lebenszyklus. In diesem Kapitel untersuche ich den Informationslebenszyklus im Detail – den Informationslebenszyklus und die geschäftliche Wertschöpfungskette von Informationen. Gegeben ist ein Branchenbeispiel, das die Wertschöpfungskette von Informationen im Unternehmen demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-1218-9_2 37e6b89b85ea1edd09c9dae1b0316fab;de;;;1.1.;;;Ein dynamisches Gedächtnismodell für die Erforschung der menschlichen Informationsverarbeitung Dieser Artikel skizziert einen breiten theoretischen Rahmen für das Verständnis des menschlichen Informationsverarbeitungssystems als Ganzes. Es stellt einen Versuch dar, die relativ statischen Modelle von Gedächtnisstrukturen in die dynamischeren Konzepte zu integrieren, die der Forschung zu Kontroll- und Verarbeitungsmechanismen zugrunde liegen. Das Framework verkörpert die Synthese einer Reihe von konzeptionellen Orientierungen, einschließlich zeitgenössischer Schwerpunkte auf Arbeitsgedächtnis, artikelspezifischen und relationalen Informationen, Metakognition und Schemaabstraktion. Diese Synthese beruht auf der Grundannahme, dass die Natur der Wissensstrukturen im menschlichen Langzeitgedächtnis von der Art der Informationsverarbeitung abhängt, durch die diese kognitiven Strukturen erzeugt wurden.;-;-;-;https://link.springer.com/article/10.1007/BF00154127 d1b21e8a4e46897a58e47574112dd24d;de;;;1.1.;;;Gefühllose-gefühllose Eigenschaften und soziale Informationsverarbeitung: Mehrere Risikofaktormodelle zum Verständnis des aggressiven Verhaltens bei antisozialen Jugendlichen Diese Studie untersuchte mehrere Risikofaktormodelle von Verbindungen zwischen gefühllos-gefühllosen Merkmalen, Aggressionsüberzeugungen, sozialer Informationsverarbeitung, Impulsivität und aggressivem Verhalten in einer Stichprobe von 150 antisozialen Jugendlichen. In Übereinstimmung mit früheren Forschungen zeigten die Ergebnisse, dass Überzeugungen, die Aggression legitimieren, Verzerrungen der sozialen Informationsverarbeitung vorhersagen und dass Verzerrungen der sozialen Informationsverarbeitung die Wirkung von Überzeugungen auf aggressives Verhalten vermitteln. Schwielige-gefühlslose Merkmale machten für die einzigartige Varianz der Aggression verantwortlich, die über die Auswirkungen etablierterer Risikofaktoren des frühen Auftretens von antisozialem Verhalten, sozialer Informationsverarbeitung und Impulsivität hinausging. Diese Ergebnisse ergänzen neuere Forschungen, die zeigen, dass gefühllose-gefühlslose Merkmale ein einzigartiger Risikofaktor im Zusammenhang mit Aggression und kriminellen Straftaten sind, und legen nahe, dass die Bekämpfung sowohl affektiver als auch kognitiver Schwachstellen die klinische Intervention bei antisozialen Jugendlichen verbessern kann.;-;-;-;https://link.springer.com/article/10.1007/s10979-008-9171-7 007d79028f365928018f8c9195706bed;de;;;1.1.;;;Kollektivität in informationsverarbeitenden Systemen Bei der Beschreibung von Systemen, die Informationen speichern und verarbeiten, sind viele Ansätze möglich, die sich in der relativen Betonung der üblicherweise verwendeten Konzepte unterscheiden. Kollektivität kann als zentraler Begriff zur Beschreibung bestimmter Eigenschaften von Systemen dienen, die für das kollektive Verhalten von Systemen charakteristisch sind. Neben einer Beschreibung des allgemeinen Rahmens, in dem Kollektivität eine Rolle spielt, mit Illustrationen an einer Reihe von Beispielen, werden einige im Zusammenhang mit Kollektivität relevante Konzepte diskutiert: Nutzen, Kosten und Zuverlässigkeit. Ein Abschnitt ist den Anwendungsmöglichkeiten auf neuronale Netze gewidmet, ein anderer den Problemen der Morphogenese.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-4243-4_2 28ef90fe29e4dee0403db46d325c52e0;de;;;1.1.;;;Prinzipien der Informationsverarbeitung und des natürlichen Lernens in biologischen Systemen Die zentrale Annahme der evolutionären Epistemologie ist, dass Tiere aktive Lernende oder „Wissende“ sind. In der vorliegenden Studie habe ich das von Henry Plotkin und John Odling-Smee entwickelte Konzept des natürlichen Lernens aktualisiert, indem ich es vom reinen Tiergebiet auf das gesamte Gebiet der Biosphäre ausgeweitet habe. In der Neuinterpretation des natürlichen Lernens wird das Konzept der biologischen Information, geleitet von Peter Cornings Konzept der „Kontrollinformation“, zum „Klebstoff“, der die Interaktionen zwischen Organismus und Umwelt zusammenhält. Die Kontrollinformationen leiten biologische Systeme, von Bakterien bis zu Ökosystemen, im Prozess des natürlichen Lernens, das durch den universellen Algorithmus ausgeführt wird. Dieser Algorithmus, der unter dem Akronym IGPT (Information-Gain-Process-Translate) zusammengefasst wird, beinhaltet natürliche kognitive Methoden wie Wahrnehmung/Wahrnehmung, Gedächtnis, Kommunikation und Entscheidungsfindung. Schließlich wird die Biosphäre zu dem verteilten Netzwerk kommunikativer Interaktionen zwischen biologischen Systemen, das als Interaktom bezeichnet wird. Das Konzept des Interaktoms basiert auf Gregory Batesons natürlicher Erkenntnistheorie, die als „Ökologie des Geistes“ bekannt ist. In Anlehnung an Batesons Ansatz kann das Interaktom auch als „Physiologie des Geistes“ bezeichnet werden – das Prinzip hinter der Regulierung der Biosphärenhomöostase.;-;-;-;https://link.springer.com/article/10.1007/s10838-019-09471-9 16e993c67f509b180f21a3f67ef77203;de;;;1.1.;;;Erwartung, Informationsverarbeitung und subjektive Dauer In der psychologischen Zeitforschung ist es wichtig, die subjektive Dauer ganzer Reizsequenzen, wie sie beispielsweise durch Musik erzeugt werden (Teki,;-;-;-;https://link.springer.com/article/10.3758/s13414-017-1432-4 1ee718aa6d01e7c23ca933663d292f2c;de;;;1.1.;;;Zeitliche Struktur der kortikalen Informationsverarbeitung: Kortikale Architektur, Oszillationen und Nichttrennbarkeit der räumlich-zeitlichen rezeptiven Feldorganisation Seit der Arbeit von Hartline im Jahr 1938 ist das Konzept der rezeptiven Felder (RFs) als eines der Grundelemente der Informationsverarbeitung das Leitprinzip bei der Untersuchung sensorischer Systeme. Obwohl wir die visuelle Welt als einheitliches Ganzes wahrnehmen, besteht die neuronale Maschinerie aus Elementen, die nur kleine Teile des Gesichtsfeldes analysieren können. Die Kenntnis von Struktur, Organisation und Eigenschaften von HFs ist unabdingbar, um ihren Beitrag zur Signalverarbeitung und allgemeiner zur Gehirnfunktion zu verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-84301-3_5 278ac03d3ee41dea855f9c1780487d42;de;;;1.1.;;;Auditive und visuelle Zeitsensibilität: Hinweise auf eine hierarchische Struktur modalitätsspezifischer und modalitätsunabhängiger Ebenen der zeitlichen Informationsverarbeitung In der vorliegenden Studie wurden modalitätsspezifische Unterschiede in der Verarbeitung zeitlicher Informationen im Subsekundenbereich untersucht. Zu diesem Zweck führten die Teilnehmer auditive und visuelle Versionen einer Rhythmuswahrnehmung und drei verschiedene Dauerdiskriminierungsaufgaben durch, um einen direkten, systematischen Vergleich zwischen beiden Sinnesmodalitäten zu ermöglichen. Unsere Ergebnisse zeigen deutlich eine höhere zeitliche Sensitivität im auditiven als im visuellen Bereich, unabhängig von der Art der Timing-Aufgabe. Um weiter zu bewerten, ob es Hinweise auf einen gemeinsamen modalitätsunabhängigen Timing-Mechanismus oder auf mehrere modalitätsspezifische Mechanismen gibt, haben wir die Strukturgleichungsmodellierung verwendet, um drei verschiedene theoretische Modelle zu testen. Weder ein einzelner modalitätsunabhängiger Timingmechanismus noch zwei unabhängige modalitätsspezifische Timingmechanismen passten zu den empirischen Daten. Vielmehr werden die Daten durch ein hierarchisches Modell mit modalitätsspezifischer visueller und auditiver zeitlicher Verarbeitung auf einer ersten Ebene und einem modalitätsunabhängigen Verarbeitungssystem auf einer zweiten Ebene der Hierarchie gut beschrieben.;-;-;-;https://link.springer.com/article/10.1007/s00426-011-0333-8 55da7835fab9e3a6b39615855834af26;de;;;1.1.;;;EMDR und das adaptive Informationsverarbeitungsmodell: Integrative Behandlung und Fallkonzeptionierung EMDR ist ein umfassender psychotherapeutischer Ansatz, der mit allen zeitgenössischen theoretischen Orientierungen kompatibel ist. Es ist international als Traumabehandlung an vorderster Front anerkannt und kann auch auf ein breites Spektrum klinischer Probleme angewendet werden. Als eigenständige Form der Psychotherapie liegt der Behandlungsschwerpunkt auf der direkten Verarbeitung der neurophysiologisch gespeicherten Erinnerungen an Ereignisse, die die Grundlage für Pathologie und Gesundheit bilden. Das adaptive Informationsverarbeitungsmodell, das die EMDR-Praxis regelt, lädt den Therapeuten ein, sich mit dem gesamten klinischen Bild zu befassen, das die vergangenen Erfahrungen umfasst, die zu den aktuellen Schwierigkeiten eines Klienten beitragen, die gegenwärtigen Ereignisse, die maladaptive Reaktionen auslösen, und adaptivere neuronale Gedächtnisnetzwerke in der richtigen Reihenfolge zu entwickeln positive Reaktionen in Zukunft zu verstärken. Die klinische Anwendung von EMDR wird durch eine Beschreibung der acht Behandlungsphasen anhand eines Fallbeispiels erläutert, das die Konvergenzen mit psychodynamischer, kognitiv-verhaltensbezogener und systemischer Praxis veranschaulicht.;-;-;-;https://link.springer.com/article/10.1007/s10615-010-0300-7 eead4b548e7052b601ccc4773b3621c2;de;;;1.1.;;;Allais für die Armen: Beziehungen zu Fähigkeiten, Informationsverarbeitung und Risikoeinstellungen Dieses Papier ergänzt die Beweise zum Allais-Paradoxon aus fortgeschrittenen Ländern und gebildeten Menschen durch eine neuartige Untersuchung in einem armen ländlichen Gebiet. Der Anteil des Verhaltens vom Allais-Typ ist in der Tat hoch und hängt mit Indikatoren für „mangelnde Fähigkeiten“ wie schlechte Bildung, Arbeitslosigkeit und geringe finanzielle Kompetenz zusammen. Basierend auf der prospektiven Referenztheorie erweitern wir diese Eigenschaften durch eine verzerrte Verarbeitung probabilistischer Informationen. Schließlich zeigen wir, dass das Verhalten vom Allais-Typ mit risikobezogenen Merkmalen wie Risikotoleranz und Optimismus verbunden ist. Dies weist auf ein potenzielles Problem hin, da gerade die dynamischeren unter den Armen dazu neigen, unter Unsicherheit inkonsistente Entscheidungen zu treffen.;-;-;-;https://link.springer.com/article/10.1007/s11166-017-9258-y 535aabf410c94c214c3939af7fd0ed58;de;;;1.1.;;;Rauchen und menschliche Informationsverarbeitung Es gibt viele Hinweise darauf, dass Rauchen verschiedene Aspekte der menschlichen Informationsverarbeitung verbessert (Wesnes 1987). Das Ziel der vorliegenden Studie war es, die Stufen der menschlichen Informationsverarbeitung aufzuklären, die nach dem Zigarettenrauchen verbessert werden. Zwölf regelmäßige Raucher wurden auf drei kognitive Aufgaben unter Verwendung eines Messwiederholungsdesigns getestet. Verwendete Aufgaben waren: schnelle visuelle Informationsverarbeitung (RVIP), Ziffernsymbol-Ersetzung (DSST) und Inspektionszeit (IT). Daraus abgeleitete Leistungsparameter sollten verschiedene Stufen der Informationsverarbeitungssequenz indizieren. Nach dem Rauchen wurden nur die Maßnahmen verbessert, die eine motorische Komponente betrafen: Reaktionszeit auf die RVIP-Aufgabe;-;-;-;https://link.springer.com/article/10.1007/BF00445565 7f5c908d5fe4aba2f1c9164e964fa7c7;de;;;1.1.;;;Zeitliche Informationsverarbeitung und geistige Fähigkeiten: Eine neue Perspektive Nach der Temporal Resolution Power (TRP)-Hypothese können individuelle Unterschiede in der geistigen Leistungsfähigkeit (MA) durch Unterschiede in den neuronalen Schwingungen des Zentralnervensystems erklärt werden, die sich in der Schärfe der zeitlichen Informationsverarbeitung ausdrücken: führen zu einer besseren zeitlichen Informationsverarbeitung, aber auch zu einer schnelleren Informationsverarbeitung und zu besser koordinierten mentalen Operationen, die wiederum zu einem höheren MA führen. Empirische Belege für diese Hypothese werden in diesem Kapitel überprüft. Außerdem werden kritische Erkenntnisse zusammengestellt, die die TRP-Hypothese in Frage stellen. So ist beispielsweise noch nicht klar, ob die Beziehungen von MA zur zeitlichen und nicht-zeitlichen Diskriminierungsfähigkeit voneinander getrennt werden können. Darüber hinaus muss die Rolle der Aufmerksamkeit als möglicher zugrunde liegender Mechanismus der Beziehung zwischen TRP und MA weiter untersucht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21478-3_15 3b710b6b54764869d74a66f934d7bbc8;de;;;1.1.;;;Mathematische Modelle der Experteninformationsverarbeitung zur Evaluation von Projekten Der Beitrag stellt mathematische Modelle der multikriteriellen Bewertung von Projekten durch Expertenmethoden vor. Betrachtet wird die traditionelle additive Methode, die bei der Beurteilung der Attraktivität von Projekten weit verbreitet ist. Angesichts der Vor- und Nachteile der additiven Methode werden zwei alternative Methoden zur Bewertung von Projekten vorgeschlagen. Eine davon basiert auf der Theorie der latenten Variablen, die andere auf der Theorie der Fuzzy-Sets. Es wird die Technik der Verarbeitung der Ergebnisse der Bewertung von Projekten vorgestellt, die mit verschiedenen Methoden erzielt wurden, und ihre Eigenschaften werden analysiert. Es wird gezeigt, dass die auf der Theorie der latenten Variablen basierende Methode gegenüber der additiven Methode mehrere Vorteile hat: Die Linearität der erhaltenen Schätzungen, ihre Unabhängigkeit von vielen Projekten und ein Kriterienset. Es wurden Computerexperimente durchgeführt, die zeigten, dass die auf der Theorie der latenten Variablen basierende Methode adäquate, lineare und unabhängige Schätzungen der Attraktivität von Projekten liefert. Die auf der Theorie der Fuzzy-Sets basierende Methode zur Bewertung der Attraktivität von Projekten wird angewendet, wenn es nicht möglich ist, Projekte nach Kriterien mit natürlichen Maßstäben zu bewerten. Im vorgeschlagenen Ansatz werden Projekte nach Kriterien bewertet, die auf einigen Parametern basieren, die die Projekte hinsichtlich ihrer Attraktivität charakterisieren. Jedes Projekt wird für jedes Kriterium als Fuzzy-Set mit einer gegebenen Zugehörigkeitsfunktion betrachtet. Das Papier stellt verschiedene Typen von Mitgliedschaftsfunktionen vor, die die Kriterien verschiedener Typen erfüllen. Die Bedingungen für die Anwendung von Zugehörigkeitsfunktionen für verschiedene Kriterien werden beschrieben. Die vorgeschlagenen Methoden werden eine objektivere Bewertung und Auswahl von Projekten auf der Grundlage von Bewertungen nach mehreren Kriterien ermöglichen, sodass sie effektiv umgesetzt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0953-4_72 0c4a956e66fa127e7327bbc0f5d14607;de;;;1.1.;;;Universelle Informationsverarbeitungssysteme, generalisierte Bildungsprinzipien und generalisierte kognitive Prozesse Betrachtet man die Prinzipien der CLT (Cognitive Load Theory) innerhalb des universellen Informationsverarbeitungssystems (UIPS) kann argumentiert werden, dass ein gewisses Potenzial für die wissenschaftliche Integration dieser Prinzipien durch ihre Neuinterpretation innerhalb dieses Rahmens besteht. Diese Neuinterpretation ist vor allem deshalb möglich, weil, obwohl die Prinzipien aus Analogien und Vergleichen in Bezug auf die Verarbeitung in der menschlichen Evolution und Kognition abgeleitet wurden, diese Prinzipien in Bezug auf Materie- und Energiepfade innerhalb des wissenschaftlich fundierten UIPS-Rahmens in einem sehr weiten Sinne neu interpretiert werden können (wie auch die Prozesse, auf denen sie basieren).;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7051-3_9 149113a49db118cb4a7abc190b8774fe;de;;;1.1.;;;Zeitliche Struktur neuronaler Aktivität und Modellierung der Informationsverarbeitung im Gehirn Der Beitrag betrachtet Computermodelle von räumlich-zeitlichen Mustern neuronaler Aktivität, um Hypothesen über die Rolle von Synchronisation, Zeit- und Phasenbeziehungen bei der Informationsverarbeitung zu überprüfen. Drei Abschnitte der Arbeit sind der neuronalen Kodierung, der Untersuchung der Phasenbeziehungen der oszillatorischen Aktivität in neuronalen Anordnungen und synchronisationsbasierten Aufmerksamkeitsmodellen gewidmet.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44597-8_18 55355335d16b6845ec5ff83b0fcd046c;de;;;1.1.;;;Elektrische Steuerung molekularer Dipole: Ein Paradigma für die Informationsverarbeitung Die biologischen Paradigmen der kognitiven und neurobiologischen Wissenschaften und die physikalischen Grenzen der Integration elektronischer Schaltungen und der Informationsverarbeitung definieren einen allgemeinen Rahmen für jeden technischen Versuch, die intelligente Leistung des menschlichen Gehirns zu emulieren. Das sich abzeichnende Bild legt nahe, dass die intelligente Informationsverarbeitung auf molekularer Ebene erfolgen und als einzelne elementare Prozessoren Moleküle verwenden sollte, die durch Wechselwirkungen auf kurze Distanz zwischen nahe benachbarten molekularen Prozessoren gekennzeichnet sind. Als intrinsischer Charakter ist ein molekulares Array die physikalische Realisierung eines zellulären Automaten und bietet die Möglichkeit, Informationen auf atomarer Integrationsebene parallel zu verarbeiten, über die erwarteten physikalischen Grenzen der Schaltungsintegration und der Berechnung hinaus. Als plausible künstliche Paradigmen werden amphiphile Filme gewählt, die in einem Langmuir-Blodgett-Trog gewonnen und auf ein festes hydrophobes Substrat übertragen werden (siehe Abb.1). Es wird gezeigt, dass eine periodische 2-D-Anordnung von molekularen Dipolen, die durch geeignete Elektroden kontaktiert werden, zwei überragende Eigenschaften bietet, die für die intelligente Verarbeitung von Informationen notwendig sind, d. h. Nichtlinearität und Gedächtnis. Ein Modell der dipolaren Kopfwechselwirkungen auf der Filmebene wird formuliert und untersucht. Der Orientierungswinkel jeder Dipolkomponente tangential zur Filmoberfläche ist die physikalische Zustandsvariable, die die Informationen parallel trägt – verarbeitet von der molekularen Anordnung. Bei Vorhandensein eines exogenen Feldes zeigt das Dipolgitter ein nichtlineares Verhalten basierend auf Hysteresephänomenen. Eingangs-, Ausgangs- und Steuerelektroden werden eingeführt, um die Möglichkeit zu untersuchen, das 2-D-Dipol-Array in einen elementaren molekularen Prozessor umzuwandeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4867-6_20 19aa7b53ef2e38c3d1d8a0f32affcb35;de;;;1.1.;;;Das universelle Informationsverarbeitungssystem und Bildungstheorien und -praktiken Im Allgemeinen können pädagogische Theorien und Konzepte als auf Beschreibungen einer oder mehrerer Komponenten basierend betrachtet werden, die entweder einzeln oder zusammen als emergente Systeme betrachtet werden können, wobei die Summe der Elemente dieses Systems eine ganze Einheit mit ihren eigenen Besonderheiten bildet Qualitäten. Betrachten Sie zum Beispiel die modernen Lern- oder Bildungstheorien, die auf großen, manchmal theoretischen und manchmal messbaren Komponenten wie Gemeinschaften, zugrunde liegenden psychologischen Dynamiken und Verhaltensbeziehungen aufgebaut sind (Kop und Hill in Int Rev Res Open Distance Learn 9:1-13,;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7051-3_8 540d60c5d16c9ded586b9e8e231cb693;de;;;1.1.;;;Heuristisch-systematische Informationsverarbeitung und Risikobeurteilung Das heuristisch-systematische Informationsverarbeitungsmodell (HSM) besagt, dass Individuen einen oder beide dieser Informationsverarbeitungsmodi verwenden, wenn sie versuchen, Informationen auszuwerten, um zu einem Urteil zu gelangen. Systematische Verarbeitung wird durch aufwendige Prüfung und Vergleich von Informationen definiert, während heuristische Verarbeitung durch die Verwendung von Hinweisen definiert wird, um leichter zu einem Urteil zu gelangen. Vorläufer der beiden Verarbeitungsmodi sind Informationssuffizienz, Motivation und Selbstwirksamkeit. Die Modellierung von Strukturgleichungen wird verwendet, um konkurrierende Konfigurationen dieses Modells zu untersuchen und das Modell als geeignet für die Vorhersage der Risikobeurteilung zu bewerten. Das Modell wird auch in drei Gruppen bewertet, die sich in Bezug auf ihre Besorgnis unterscheiden. Diese Analysen werden im Rahmen einer Fallstudie durchgeführt, bei der es um eine epidemiologische Untersuchung eines vermuteten Krebsclusters geht. Die Analyse bestätigt die theoretisch vorgeschlagene Struktur des HSM und zeigt, dass es ein nützliches Vehikel für die Bewertung der Risikobeurteilung ist. In der Gesamtanalyse funktionieren antezedente Variablen im Allgemeinen wie von der Theorie vorgegeben. Systematische Verarbeitung wird durch höhere Motivation vorhergesagt. Die heuristische Verarbeitung wird durch Informationszulänglichkeit vorhergesagt. Die Selbstwirksamkeit ist ein signifikanter Prädiktor für beide Verarbeitungsmodi. Und es zeigt sich, dass die heuristische Verarbeitung mit der Beurteilung eines geringeren Risikos verbunden ist. Vergleicht man die Analyse jedoch über drei Gruppen (diejenigen, die über Krebs besorgt sind, nicht besorgt und unsicher), zeigt sich, dass das Modell für die unsichere Gruppe deutlich robuster ist. Dieses Ergebnis kann Auswirkungen auf den Einsatz des HSM in der Risikoforschung im Besonderen und in der Feldforschung im Allgemeinen haben.;-;-;-;https://link.springer.com/article/10.1023/A%3A1007092410720 169718f01bd855fa8de0d9cd892dff99;de;;;1.1.;;;Studie zu einem Informationsverarbeitungsmodell mit psychologischem Gedächtnis für einen Kansei-Roboter In diesem Papier schlagen wir ein Informationsverarbeitungsmodell für einen Kansei-Roboter vor. Dieses Modell behandelt das Gedächtnis basierend auf der menschlichen Psychologie. Wir erwarten, dass ein Roboter bei der Integration des Modells menschliche Eigenschaften aufweisen kann, da er das psychologische Gedächtnis verwendet. Um das Modell zu verifizieren, führen wir zunächst einen Vergleich zwischen den Ergebnissen des mit diesem Modell durchgeführten Experiments und denen eines tatsächlichen psychologischen Experiments durch. Die Ergebnisse des Vergleichs legen nahe, dass die Gedächtnisfunktionen des Modells den menschlichen Gedächtnisfunktionen ähnlich sind. Zweitens führen wir den Prozess des Erlernens von Bewegungsaktionen durch, um zu überprüfen, ob der Roboter, auf dem das Modell implementiert wurde, Bewegungen gelernt hat, um sich an viele Orte zu bewegen und seine Neugier zu verringern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15399-0_69 70d32c7c97699e0c8d208ef459d0475a;de;;;1.1.;;;Beeinflusst Servant Leadership die emotionale Arbeit der Mitarbeiter? Eine Perspektive der sozialen Informationsverarbeitung Emotionsmanagement am Arbeitsplatz lenkt zunehmend die Aufmerksamkeit der Forscher auf sich. Sie wissen jedoch noch wenig darüber, wie sich positive Führung auf die emotionale Arbeit der Mitarbeiter auswirkt. Aufbauend auf der Theorie der sozialen Informationsverarbeitung untersuchen wir, ob und wie ein dienender Führungsstil die emotionale Arbeit der Mitarbeiter beeinflusst. Anhand einer Stichprobe von 305 Mitarbeitern in 81 Arbeitseinheiten von 25 Tochtergesellschaften eines Lebensmittelunternehmens in China stellen wir fest, dass sich dienende Führung negativ auf oberflächliches Handeln (dh die Regulierung des Gesichtsausdrucks) bezieht, aber positiv auf das tiefgreifende Handeln (dh die Regulierung der inneren Gefühle). auf Arbeit. Wir stellen auch fest, dass der indirekte Effekt von Servant Leadership auf oberflächliches/tiefes Handeln über affektives Vertrauen stärker ist als der indirekte Effekt über kognitives Vertrauen. Unsere Forschung zeigt, dass Servant Leadership die emotionale Arbeit der Mitarbeiter mehr durch affektives Vertrauen als durch kognitives Vertrauen beeinflusst. Wir diskutieren die theoretischen und praktischen Implikationen unserer Ergebnisse.;-;-;-;https://link.springer.com/article/10.1007/s10551-018-3816-3 8e72e2ace404599412b46bf0f946e969;de;;;1.1.;;;Ausgleich von Geschlechtsunterschieden bei der Informationsverarbeitung und den Karriereergebnissen Die Theorie der Informationsverarbeitung hat das Potenzial, ein neues Verständnis des Karriereentwicklungsprozesses zu ermöglichen. Theoretiker und Forscher müssen sich jedoch der vielen Möglichkeiten bewusst sein, in denen aktuelle Ansätze in ihrer Fähigkeit, Prozesserklärungen mit Karriereergebnissen in Verbindung zu bringen, die für Frauen und Männer unterschiedlich sind, begrenzt sind. Diese Ansätze könnten für weibliche/männliche Unterschiede sensibilisiert werden, indem: (a) die Natur der;-;-;-;https://link.springer.com/article/10.1007/BF01353003 4a2b40c417907d428b1555a78e4e2b72;de;;;1.1.;;;Prinzipien und Demonstrationen der Quanteninformationsverarbeitung durch NMR-Spektroskopie Dieser Artikel gibt einen Überblick über unsere jüngsten Forschungen zur Quanteninformationsverarbeitung durch Kernspinresonanz (NMR)-Spektroskopie. Wir beginnen mit einer geometrischen Einführung in die NMR eines Ensembles nicht unterscheidbarer Spins und zeigen dann, wie diese geometrische Interpretation in einer Algebra von Multispin-Produktoperatoren enthalten ist. Diese Algebra wird im Rest des Artikels verwendet, um zu zeigen, dass sie einen einfachen Rahmen bietet, innerhalb dessen die Quanteninformationsverarbeitung allgemeiner untersucht werden kann. Die Implementierung von Quantenalgorithmen durch NMR hängt von der Verfügbarkeit spezieller Arten gemischter Zustände ab, die als pseudoreine Zustände bezeichnet werden, und wir betrachten eine Reihe verschiedener Methoden zur Herstellung dieser Zustände sowie Analysen ihrer Skalierung mit der Anzahl der Spins. Die quantenmechanische Natur von Prozessen, an denen solche makroskopischen pseudo-reinen Zustände beteiligt sind, ist ebenfalls umstritten, und um diese Frage konkret zu diskutieren, präsentieren wir die Ergebnisse von NMR-Experimenten, die ein makroskopisches Analogon des Hardy-Paradoxons darstellen. Schließlich wird eine detaillierte Produktoperatorbeschreibung von neueren NMR-Experimenten gegeben, die einen Drei-Bit-Quantenfehlerkorrekturcode demonstrieren, der Feldgradienten verwendet, um ein genau bekanntes Dekohärenzmodell zu implementieren.;-;-;-;https://link.springer.com/article/10.1007/s002000050135 42d05a7616592675fba947f09433eb53;de;;;1.1.;;;Theoretische Aspekte der zellulären Entscheidungsfindung und Informationsverarbeitung Mikroskopische biologische Prozesse haben eine außerordentliche Komplexität und Vielfalt auf subzellulärer, intrazellulärer und multizellulärer Ebene. Im Umgang mit solch komplexen Phänomenen sind konzeptionelle und theoretische Rahmenbedingungen entscheidend, die es uns ermöglichen, scheinbar unterschiedliche intra- und interzelluläre Phänomene unter einheitlichen Gesichtspunkten zu verstehen. Entscheidungsfindung ist ein solches Konzept, das in letzter Zeit viel Aufmerksamkeit auf sich gezogen hat. Da eine Reihe von zellulärem Verhalten als Prozesse angesehen werden kann, um spezifische Aktionen als Reaktion auf äußere Reize auszuführen, kann die Entscheidungsfindung ein breites Spektrum verschiedener zellulärer Phänomene abdecken und wurde zur Erklärung verwendet [Balázsi et al. (Cell 144(6):910, 2011), Zeng et al. (Zelle 141(4):682, 2010)]. Die Entscheidungsfindung ist auch eng mit der zellulären Informationsverarbeitung verbunden, da angemessene Entscheidungen nicht getroffen werden können, ohne die Informationen zu nutzen, die die externen Reize enthalten. Die Effizienz der Informationsübertragung und -verarbeitung durch intrazellulare Netzwerke bestimmt die Menge der erhaltenen Informationen, was wiederum die Effizienz der nachfolgenden Entscheidungsfindung begrenzt. Darüber hinaus kann die Informationsverarbeitung selbst als ein weiteres Konzept dienen, das für das Verständnis anderer biologischer Prozesse als der Entscheidungsfindung entscheidend ist. In dieser Arbeit überprüfen wir die jüngsten theoretischen Entwicklungen zur zellulären Entscheidungsfindung und Informationsverarbeitung, indem wir uns auf die Beziehung zwischen diesen beiden Konzepten konzentrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-7210-1_16 333b5c9e085fa09cbf49a044a53cf10c;de;;;1.1.;;;Informationsverarbeitung und innovative Wahl In diesem Beitrag untersuchen wir, wie sich die Informationsverarbeitung von Probanden, die eine innovative Entscheidung treffen („Innovatoren“), von der von Probanden unterscheidet, die eine nicht innovative Entscheidung treffen („Noninnovators“). Die Aufgabe beinhaltet die Auswahl einer Alternative innerhalb einer Reihe von vorbewerteten Produktkategorien-Innovativität. Wir schlagen vor, dass Probanden, die 1) unpersönliche/unkontrollierbare Quellen, 2) höhere Informationsniveaus, 3) detailliertere (im Vergleich zu zusammenfassenden) Daten und 4) nicht vergleichende (im Vergleich zu vergleichenden) Daten suchen, eher innovative Entscheidungen treffen. Die Forschungsmethode ist ein computergestütztes Prozessverfolgungsexperiment unter Verwendung von Search Monitor (Brucks 1988).;-;-;-;https://link.springer.com/article/10.1007/BF00436030 05084d05b8d81e939c64e9d5aeba2493;de;;;1.1.;;;Ein Überblick über die computergestützte Suchinformationsverarbeitung Dieses Dokument bietet einen Überblick über die Informationsverarbeitung der computergestützten Suche (CAS). Ziel ist es, dem Leser eine Vorstellung davon zu geben, wie Computer in der Echtzeit-Suchplanung eingesetzt werden können, um subjektive Annahmen mit Suchergebnissen zu kombinieren, um die Frage „Wo ist das Ziel?“ besser zu beantworten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-9188-7_3 eb12addeb33ea95b064f5f86ae432d7d;de;;;1.1.;;;Sekundäre Informationsverarbeitung in Winkelmesssystemen auf Basis von Invarianten Auf der Grundlage eines vollständigen Satzes unabhängiger Invarianten werden Probleme der Peilwinkelübereinstimmung und der Identifizierung von Zielbewegungsmodellen gelöst, die auf ein Mehrpositions-Winkelmesssystem angewendet werden. Es wird gezeigt, dass die Anwendung von Invarianten der passiven Ortung eine maximal mögliche Dezentralisierung der Messverarbeitung bietet.;-;-;-;https://link.springer.com/article/10.3103/S073527271309001X bcf055f0c4e359f7223c18248f31cc22;de;;;1.1.;;;Geometrische Algebra in der Quanteninformationsverarbeitung durch magnetische Kernresonanz Die Relevanz informationstheoretischer Konzepte für die Quantenmechanik ist offensichtlich, seit erkannt wurde, dass das Einstein-Podolsky-Rosen-Paradoxon die spezielle Relativitätstheorie nicht verletzt, weil es nicht zur Übertragung verwendet werden kann;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-0159-5_14 8da0bccd58eaa6c82a09944666e4bdea;de;;;1.1.;;;Emotionsregulation und aggressives Verhalten bei Vorschulkindern: Die vermittelnde Rolle der sozialen Informationsverarbeitung Diese Studie untersuchte, ob der Zusammenhang zwischen maladaptiver Emotionsregulation und Aggression durch abweichende soziale Informationsverarbeitung (SIP) vermittelt wurde. Teilnehmer waren 193 Kinder im Vorschulalter. Emotionsregulation und Aggression wurden von den Lehrern bewertet. Abweichendes SIP (d. h. Attribution von feindseliger Absicht, aggressiver Reaktionsgenerierung, aggressiver Reaktionsbewertung und -entscheidung) wurde anhand der Reaktionen der Kinder auf hypothetische soziale Konflikte gemessen. Die Ergebnisse zeigten, dass die Beziehung zwischen maladaptiver Emotionsregulation und Aggression direkt war und nicht durch SIP-Bias (d. Die Ergebnisse werden aus theoretischer und methodischer Perspektive diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s10578-011-0252-3 faf607916a89ddc49d3cc197f782aaf8;de;;;1.1.;;;Auswirkungen von Zeit- und Ereignisunsicherheit auf die sequentielle Informationsverarbeitung Zwei Experimente wurden durchgeführt, um die psychologische Refraktärzeit (PRP) zu untersuchen, eine Verzögerung, die in die zweite von zwei Reaktionszeiten (RT) induziert wird, wenn das Interstimulusintervall (ISI) kurz ist. Im Experiment;-;-;-;https://link.springer.com/article/10.3758/BF03212725 4fc2a5a30b2f03b4307fab584fb9e9c6;de;;;1.1.;;;Pro-forma-Gewinnoffenlegung: die Auswirkungen von Non-GAAP-Gewinn und Gewinn-before auf die Informationsverarbeitung der Anleger Forschungen zur Offenlegung von Pro-Forma-Einkünften unterscheiden normalerweise nicht zwischen verschiedenen Arten von Pro-Forma-Einkünften. Nicht-GAAP-Ergebnisse und Ergebnis-before-Kennzahlen (EB) wie das EBIT entsprechen jedoch der herkömmlichen Wahrnehmung von Pro-Forma-Gewinn, bieten dem Management jedoch unterschiedliche Flexibilität bei der Verfolgung strategischer Berichtsmotive. Diese Studie präsentiert die Ergebnisse eines Experiments, das auf dem von Maines und McDaniel aufbaut (Account Rev 75(2):179–207,;-;-;-;https://link.springer.com/article/10.1007/s11573-013-0688-y 6ec9152e70c0e5c5c585cbd64a808d43;de;;;1.1.;;;Soziale Informationsverarbeitung als Vermittler zwischen kognitiven Schemata und aggressivem Verhalten bei Jugendlichen Diese Längsschnittuntersuchung untersuchte, ob kognitive Schemata zur Rechtfertigung von Gewalt, Misstrauen und Narzissmus die soziale Informationsverarbeitung (SIP) vorhersagten und SIP wiederum aggressives Verhalten bei Jugendlichen vorhersagte. Insgesamt 650 Jugendliche führten Messungen der kognitiven Schemata zum Zeitpunkt 1 durch, SIP in mehrdeutigen sozialen Szenarien zum Zeitpunkt 1 und 2 und reaktive Aggressionen zum Zeitpunkt 1, Zeitpunkt 2 und 3, um festzustellen, ob das zum Zeitpunkt 2 gemessene SIP zwischen kognitive Schemata zum Zeitpunkt 1 und das aggressive Verhalten zum Zeitpunkt 3 gemessen. Die Ergebnisse zeigten, dass jedes Schema unterschiedliche SIP-Komponenten vorhersagte: Die Rechtfertigung von Gewalt prognostizierte aggressiven Reaktionszugang, Narzissmus prognostizierte Wut und aggressiven Reaktionszugang und Misstrauen prognostizierte feindselige Zuschreibungen und weniger der Zorn. Nur die SIP-Komponente des aggressiven Reaktionszugangs war direkt mit reaktiver Aggression verbunden. Das Mediationsmodell war für Jungen und Mädchen ziemlich ähnlich, obwohl einige Pfade, wie der Zusammenhang zwischen aggressivem Reaktionszugang und reaktiver Aggression, für Jungen höher waren.;-;-;-;https://link.springer.com/article/10.1007/s10802-011-9546-y f13f57e76df9376f209d03c26693c406;de;;;1.1.;;;Informationsverarbeitung durch intellektuell begabte Schüler zur Lösung mathematischer Probleme Welche Unterschiede gibt es in der Art und Weise, wie begabte Schüler im Vergleich zu durchschnittlichen Schülern der zweiten Sekundarstufe I Informationen verarbeiten, während sie mathematische Probleme lösen? Hochbegabte Schüler lösten die Probleme offenbar besser, schneller und benötigten weniger Hilfe als durchschnittliche Schüler. Eine globale Unterscheidung der Teilprozesse Orientierung, Durchführung und Auswertung lässt zudem den Schluss zu, dass die Hochbegabten Informationen in den meisten Fällen unterschiedlich verarbeitet haben.;-;-;-;https://link.springer.com/article/10.1007/BF00305074 98b5eda503fad5a3e24f9c0c6adaf785;de;;;1.1.;;;Ein auf theoretischer Informationsverarbeitung basierender Ansatz zur Funktion der Basalganglien In diesem Kapitel wird ein Informationsverarbeitungsansatz für die Basalganglienfunktion vorgestellt. Konzepte, die das Verständnis der Informationsverarbeitung aufbauen, verwenden veröffentlichte experimentelle Arbeiten, die zeigen, wie Informationen innerhalb eines Netzwerks sogar bis hinunter zum Ionenfluss dargestellt werden können. Der Ionenfluss, der in und aus Aktionspotentialen resultiert, ist ein Träger des Informationsflusses innerhalb eines neuronalen Netzwerks. Dieser Fluss kann sich während des Verhaltens organisieren und Verhaltensänderungen darstellen, die innerhalb eines striatalen Netzwerks während der Übernahme einer Lernaufgabe auftreten. Das vorliegende Kapitel entwickelt die Idee dieser Anpassung an das abrupte Verhaltenslernen, das in striatalen Neuronen beobachtet wird, weiter. Es wird eine Hypothese aufgestellt, die dann versucht, diese Ideen zu einem systembezogenen Verständnis der Basalganglienfunktion und -dysfunktion bei der Parkinson-Krankheit zu synthetisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-0340-2_17 9499c26d4c572f98af57064ebaf67848;de;;;1.1.;;;Informationsverarbeitung in der Calcium-Signaltransduktion Die Calcium-Signalisierung verwendet oft Calcium-Oszillationen. Es ist mittlerweile allgemein bekannt, dass Informationen, z.B. über die Menge des Reizes, der eine Kalziumreaktion hervorrief, ist in den Schwingungen kodiert. In Frequenz, Amplitude und Form der Schwingungen können Informationen gespeichert werden. Wie diese Informationen von den vielen durch Calcium regulierten Enzymen entschlüsselt werden, ist nicht vollständig verstanden und bisher wurden nur wenige Experimente und theoretische Studien durchgeführt, um die dafür verantwortlichen Mechanismen aufzuklären. Wir präsentieren sowohl experimentelle als auch theoretische Studien zur Kodierung und Dekodierung von Kalziumsignalen in nicht erregbaren Zellen und versuchen, die Mechanismen aufzuklären, durch die eine effektive und vielseitige Informationsverarbeitung ermöglicht wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-44878-5_9 cf7ca9e79b7c6ba621a897853f54f3cc;de;;;1.1.;;;Modellierung der Informationsverarbeitung „Präaufmerksamkeit“ und „Aufmerksamkeit“ durch Synchronisation neuronaler Aktivität Oszillatorische neuronale Netzpräattentions- und Aufmerksamkeitsmodelle werden untersucht. Ein zweischichtiges Netzwerk von Wilson-Cowan-Oszillatoren wird verwendet, um zu zeigen, dass Zweifrequenzoszillationen als Reaktion auf einen zusammengesetzten Reiz auftreten können. Es wird gezeigt, dass diese Schwingungen bei der niedrigen Frequenz synchronisiert werden können, was als Merkmalsbindung interpretiert werden kann. Die Teilsynchronisation wird in einem Modell eines Netzwerks von phasengesteuerten Oszillatoren mit einem zentralen Element untersucht. Für kleine und große Netze werden Formeln zur Approximation der mittleren Frequenz des Zentraloszillators angegeben. Die Ergebnisse beschreiben die Wirkung eines ablenkenden Reizes auf den Aufmerksamkeitsfokus.;-;-;-;https://link.springer.com/article/10.1007/BF01038264 c513d88daea3411f28133e21cb4b8623;de;;;1.1.;;;Entwicklungsverhaltensgenetische Forschung zur Informationsverarbeitung bei Säuglingen: Erkennung von Kontinuität und Veränderung Die ersten Intelligenztests von Säuglingen gingen davon aus, dass die kognitive Entwicklung ein kontinuierlicher Prozess vom Säuglingsalter bis zum Erwachsenenalter ist. Da jedoch die Versuche, einen prädiktiven Säuglingstest zu erstellen, immer wieder scheiterten, wurde eine Diskontinuitätstheorie die bevorzugte Perspektive. Neuere Erkenntnisse deuten darauf hin, dass die Kontinuitätstheorie möglicherweise nicht ausreichend getestet wurde und dass die kognitive Entwicklung aus einer ausgewogeneren Perspektive betrachtet werden sollte, die sowohl aus Wandel als auch aus Kontinuität besteht. In diesem Kapitel werde ich das Problem der Kontinuitäten und Diskontinuitäten in der geistigen Entwicklung vom Säuglingsalter bis zum Erwachsenenalter mit einem entwicklungsverhaltensgenetischen Ansatz ansprechen. Daten aus dem Colorado Adoption Project und aus dem Colorado Infant Twin Project werden verwendet, um die folgenden Hypothesen zu unterstützen: (1) Messungen der visuellen Informationsverarbeitung von Säuglingen, die während des ersten Lebensjahres durchgeführt wurden, beziehen sich auf den späteren IQ, (2) diese Messungen im Säuglingsalter genetisch beeinflusst und (3) die Kontinuität individueller Intelligenzunterschiede vom Säuglingsalter bis zum Erwachsenenalter ist zumindest teilweise genetisch bedingt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-5634-9_7 48c3c9bda528f8c21087705ebdfccc88;de;;;1.1.;;;Die Verwendung assoziativer Informationsverarbeitung zum Konstruieren von Algorithmen zum Lösen von Systemen boolescher Gleichungen Es werden Möglichkeiten des Einsatzes von dedizierten Prozessoren basierend auf der Verwendung von assoziativem Speicher zum Lösen von Systemen boolescher Gleichungen betrachtet. Es wird ein Algorithmus zum Lösen von Systemen boolescher Gleichungen unter Verwendung von assoziativen dedizierten Prozessoren vorgeschlagen. Es werden Klassen von Systemen boolescher Gleichungen gefunden, die durch diesen Algorithmus effizient gelöst werden können. Es werden subexponentielle Schätzungen der Erwartung der Rechenkomplexität des vorgeschlagenen Algorithmus zum Lösen von Gleichungssystemen dieser Klassen erhalten.;-;-;-;https://link.springer.com/article/10.1134/S0965542510110151 9c93f590dcc9214fd9e597ead75bad00;de;;;1.1.;;;Informationsverarbeitung in Echo State Networks am Rande des Chaos Wir untersuchen die Informationsverarbeitung in zufällig verbundenen rekurrenten neuronalen Netzen. Es wurde bereits gezeigt, dass die Rechenfähigkeiten dieser Netzwerke maximiert werden, wenn sich die rekurrente Schicht nahe der Grenze zwischen einem stabilen und einem instabilen Dynamikregime befindet, dem sogenannten;-;-;-;https://link.springer.com/article/10.1007/s12064-011-0146-8 510d3b722a6fbd2047811e8210ce0497;de;;;1.1.;;;Hemmende Kontrolle und Informationsverarbeitung bei ADHS: Vergleich der Hypothesen zur Doppelaufgabe und zur Leistungsanpassung Die Hemmung ist eine wichtige neurokognitive Domäne bei ADHS, die üblicherweise mit der Stopp-Signal-Aufgabe bewertet wird. Das Stoppsignal umfasst sowohl „Go“- als auch „Stop“-Versuche. Frühere Untersuchungen haben gezeigt, dass die Reaktionszeiten bei Aufgaben mit intermittierenden „Stop“-Versuchen zuverlässig langsamer sind als bei „Go“-Versuchen. Es ist jedoch unklar, ob dieses Muster eine bewusste Verlangsamung widerspiegelt, um den Hemmerfolg zu maximieren (;-;-;-;https://link.springer.com/article/10.1007/s10802-018-0504-9 da585c0a88717cb4afc25bbd356770ad;de;;;1.1.;;;Informationsverarbeitungsmodell der Finanzkommunikation Finanzkommunikation bezieht sich hier auf jede Art von Kommunikation, die Botschaften zu Finanzgeschäften und -themen vermittelt. Beispielsweise geben Finanzvermarkter wie Banken, Versicherungsunternehmen, Kreditkartenaussteller und Wertpapierfirmen enorme Summen aus, um Finanzkommunikation in Form von Werbung und Nachrichten für Verbraucher zu erstellen und bereitzustellen. Eine Finanzkommunikation kann auch ein spezifischer Anlageprospekt, eine finanzielle Offenlegung in einer Finanzanzeige oder ein Finanzbegriff in einer Direktwerbung sein. Kreditkartenanfragen und Hypothekendarlehensdokumente enthalten beispielsweise alle Nachrichten, die den Verbrauchern über verschiedene Formen der Finanzkommunikation übermittelt werden müssen.;-;-;-;https://link.springer.com/chapter/10.1057/9781137351876_1 70cbff4f9fb7e47d7a4834fa3fc5565a;de;;;1.1.;;;Informationsverarbeitung und Angstsensitivität: Kognitive Anfälligkeit für Panik, die sich in Interpretations- und Gedächtnisverzerrungen widerspiegelt Der Zusammenhang zwischen Panik und Angstempfindlichkeit (AS) ist gut belegt. Darüber hinaus wurden kognitive Paniktheorien durch Demonstrationen kognitiver Voreingenommenheit gegenüber bedrohlichen Informationen erheblich unterstützt. Die bisherige Forschung hat jedoch gemischte Erkenntnisse darüber erbracht, ob AS selbst mit einer verzerrten Informationsverarbeitung in Verbindung steht. Um dieser Frage nachzugehen, untersuchte die aktuelle Studie Evidenz für und Zusammenhänge zwischen Aufmerksamkeit (bei einem modifizierten Stroop), Interpretation (mit dem Brief Body Sensations Interpretation Questionnaire) und schematischen/Gedächtnisverzerrungen (bei impliziten Assoziationstests) bei Personen mit hohem (;-;-;-;https://link.springer.com/article/10.1007/s10608-005-0627-5 8ede6c8b503a655edfcbab148c177de4;de;;;1.1.;;;Genetische Kovarianz zwischen den Maßen für Informationsverarbeitungsgeschwindigkeit, Arbeitsgedächtnis und IQ In einem klassischen Zwillingsdesign mit 166 eineiigen und 190 zweieiigen Zwillingspaaren wurde die genetische Beziehung zwischen niedriger (Informationsverarbeitungsgeschwindigkeit), Zwischenstufe (Arbeitsgedächtnis) und höheren (komplexen kognitiven Prozessen nach IQ) der geistigen Fähigkeiten untersucht. Die Verarbeitungsgeschwindigkeit wurde durch eine Wahlreaktionszeit (RT)-Aufgabe (2-, 4- und 8-Auswahl), das Arbeitsgedächtnis durch eine visuell-räumliche verzögerte Antwortaufgabe und den IQ durch die Multidimensional Aptitude Battery gemessen. Die multivariate Analyse, adjustiert für die Test-Retest-Reliabilität, zeigte das Vorhandensein eines genetischen Faktors, der alle Variablen beeinflusst, und eines genetischen Faktors, der 4- und 8-Wahl-RTs, Arbeitsgedächtnis und IQ beeinflusst. Es gab auch genetische Faktoren, die spezifisch für 8-Wahl-RT, Arbeitsgedächtnis und IQ waren. Die Ergebnisse bestätigten einen starken Zusammenhang zwischen Wahl-RT und IQ (phänotypische Korrelationen: −0,31 bis −0,53 bei Frauen, −0,32 bis −0,56 bei Männern, genotypische Korrelationen: −0,45 bis −0,70) und einen schwächeren, aber signifikanten Zusammenhang zwischen Arbeitsgedächtnis und IQ (Phänotyp: 0,26 bei Frauen, 0,13 bei Männern, Genotyp: 0,34). Ein signifikanter Teil der genetischen Varianz (43 %) des IQ stand weder mit der Wahl-RT noch mit der verzögerten Ansprechleistung in Zusammenhang und kann kognitive Prozesse höherer Ordnung darstellen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1013397428612 6b261d11a2b8eae07b449031baf33ddc;de;;;1.1.;;;Informationsverarbeitung und Beurteilungsgenauigkeit durch Lehrer: Auswirkungen von Informationskonsistenz und Rechenschaftspflicht Die Forschung hat gezeigt, dass Lehrer ihre Verarbeitungsstrategie von Schülerinformationen an situative Anforderungen anpassen können, indem sie entweder eine automatische und kategoriebasierte Strategie oder eine kontrollierte und informationsintegrierende Strategie flexibel anwenden. Die Auswirkungen der Verantwortlichkeit der Lehrkräfte für die Aufgaben und die Konsistenz der Schülerinformationen auf die Strategienutzung sind jedoch weniger klar. In zwei experimentellen Studien wurden den Lehrkräften konsistente und inkonsistente Schülerprofile vorgelegt, wobei die Verantwortlichkeitsebenen systematisch variiert wurden. In der ersten Studie wurden die Aufmerksamkeit und das Gedächtnis von Informationen als Indikatoren für Veränderungen in der Informationsverarbeitungsstrategie untersucht. In der zweiten Studie wurden die resultierenden Veränderungen der Beurteilungsgenauigkeit untersucht. Die Ergebnisse von Studie 1 unterstützten die theoretische Annahme, dass Menschen die kategoriebasierte Strategie anwenden, wenn sie mit konsistenten Informationen unter Bedingungen geringer Rechenschaftspflicht konfrontiert werden, während inkonsistente Informationen und Bedingungen mit hoher Rechenschaftspflicht zur Verwendung einer Informationsintegrationsstrategie führten. Die Ergebnisse von Studie 2 zeigten, dass die Beurteilungsgenauigkeit der Lehrkräfte im Allgemeinen in Bezug auf Bedingungen mit hoher Rechenschaftspflicht und in geringerem Maße Profilkonsistenz zunahm, wobei die Ungenauigkeit sowohl eine Unter- als auch eine Überschätzung der Fähigkeiten der Schüler widerspiegelte. Die kombinierten Ergebnisse legen nahe, dass der Einsatz unterschiedlicher Informationsverarbeitungsstrategien nicht nur zu Unterschieden in der Aufmerksamkeit und Verarbeitung von Informationen führt, sondern auch zu Unterschieden in der Qualität von Urteilen und Entscheidungsfindungen, insbesondere unter Bedingungen mit hoher Rechenschaftspflicht.;-;-;-;https://link.springer.com/article/10.1007/s10212-019-00436-6 40667375a813d2a204d891d4cb266a64;de;;;1.1.;;;Informationsverarbeitung bei chronischer Schmerzstörung: Eine vorläufige Analyse Forscher haben abwechselnd vorgeschlagen, selektive Aufmerksamkeit, beeinträchtigte Reizfilterung und affektive Sprachmangelmodelle als Erklärung für multiple somatische Beschwerden bei Personen mit chronischen Schmerzstörungen zu verwenden. Das Ziel der vorliegenden Studie war es, die vergleichende Nützlichkeit dieser drei Modelle zur Erklärung des somatischen Fokus in einer Population mit chronischen Schmerzen zu ermitteln. Neun chronische Schmerzpatienten mit hohem somatischem Fokus (somatisierende chronische Schmerzpatienten), 10 chronischen Schmerzpatienten mit niedrigem somatischen Fokus (nicht somatisierende chronische Schmerzpatienten) und 10 gesunden Kontrollpersonen erhielten als Test eine computerisierte Version des emotionalen Stroop-Tests Modelle. Als Stroop-Teststimuli wurden insgesamt 105 schmerz-, depressiv- und neutral-inhaltliche Wörter verwendet. Die Reaktionslatenzen der Stroop-Test-Farbbenennung wurden einer Zwei-Wege-Gruppe × Worttyp-ANOVA mit gemischtem Modell unterzogen, wobei Worttyp die wiederholte Messung war. Die Ergebnisse zeigen, dass weder das selektive Aufmerksamkeitsmodell noch das affektive Sprachdefizienzmodell die Leistung des Stroop-Tests bei somatisierenden chronischen Schmerzpatienten angemessen erklären. Die Ergebnisse bieten vorläufige Unterstützung für das Modell der beeinträchtigten Reizfilterung, wobei somatisierende Patienten mit chronischen Schmerzen ähnliche Reaktionsverzögerungen beim Stroop-Test bei allen Wörtern nachweisen. Diese Ergebnisse legen nahe, dass chronische Schmerzpatienten Körperempfindungen falsch interpretieren. Die Ergebnisse werden in Bezug auf einen zweistufigen Ansatz zur Behandlung von somatisierenden chronischen Schmerzpatienten diskutiert, der die Unterstützung des Patienten bei der genauen Beurteilung und Interpretation der körperlichen Symptome einschließt.;-;-;-;https://link.springer.com/article/10.1007/BF02229181 6707401bf847aecc1a244a9332d430db;de;;;1.1.;;;Relative Refraktärität in der visuellen Informationsverarbeitung Pulsintervallverteilungen werden für ein Zählsystem erhalten, bei dem die Erregbarkeit nach der Registrierung eines Pulses (relative Refraktärität) eher allmählich als abrupt zunimmt. Die Ergebnisse sind auf Systeme anwendbar, in denen Poisson-Zählen ohne solche Effekte beobachtet würde und in denen der Speicher höchstens einen Impuls zurückreicht. Durch die Wahl einer bestimmten Funktionsform für die Erholungsfunktion passt die Theorie die experimentell gemessene Verteilung für die aufrechterhaltene Entladung in der retinalen Ganglienzelle der Katze an. Es stimmt auch mit der Vorstellung überein, dass das Webersche Gesetz aus der Refraktärität des visuellen Systems hervorgeht, wie es zuerst von van der Velden vorgeschlagen wurde.;-;-;-;https://link.springer.com/article/10.1007/BF00337011 75f92d1ba7c6d84db0813920075889e4;de;;;1.1.;;;Informationsverarbeitung im Kontext genetischer Risiken: Implikationen für die Kommunikation genetischer Risiken Die Weitergabe von Informationen über genetische Risiken ist mit Schwierigkeiten verbunden, und es gibt keine allgemein anerkannten Leitlinien für die klinische Praxis. In diesem Beitrag schlagen wir vor, dass Informationsverarbeitungsmodelle eine Orientierungshilfe für die Kommunikation genetischer Risiken bieten können. Der Artikel gibt einen Überblick über ausgewählte Literatur aus der Gesundheits- und Sozialpsychologie, darunter Abwehrreaktionen auf bedrohliche Gesundheitsinformationen, das Extended Parallel Process Model (EPPM) und die Self Affirmation Theory. Letztendlich präsentiert es das heuristisch-systematische Modell (HSM) der Informationsverarbeitung als eine nützliche Perspektive, aus der die genetische Risikokommunikation betrachtet werden kann. Durch unsere Durchsicht dieser Literatur identifizieren wir einige der Variablen, die die systematische oder heuristische Verarbeitung von Risikoinformationen beeinflussen, und weisen auf ihre Relevanz für genetische Beratungskontexte hin. Wir schlagen vor, dass eine systematische Informationsverarbeitung einer informierten Entscheidungsfindung sowie einem besseren Verständnis von Risikoinformationen förderlich ist. Auswirkungen auf die klinische Praxis, die sich aus unserer Überprüfung dieser Literatur ergeben, werden angemerkt.;-;-;-;https://link.springer.com/article/10.1007/s10897-006-9082-z 124a6a62173ae7366763e52b8131593d;de;;;1.1.;;;Netzwerkstärke in Servicemitarbeiterteams: Implikationen für Informationsverarbeitung und Kundenorientierung Ausgehend von der vorliegenden Literatur zu sozialen Netzwerken und organisationalem Lernen sowie aus den vorliegenden Arbeiten zu sozialen Netzwerken im Marketing schlagen wir ein Modell vertikaler und horizontaler Netzwerkbeziehungen zwischen grenzübergreifenden Servicemitarbeitern, Klima der Kommunikationsoffenheit, Informationsverarbeitung, Kundenorientierung und die Kundenorientierung von Einzelhandelsgeschäften. Das Modell wird anhand einer Stichprobe von 413 Servicemitarbeitern innerhalb einer nationalen Einzelhandelsorganisation mit 112 Filialen getestet. Das Modell wird weitgehend durch die Daten gestützt. Implikationen für das Management und die weitere Forschung werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-18687-0_123 ccf92e90addeefa146b8421c44db19da;de;;;1.1.;;;Koevolution von Informationsverarbeitung und Topologie in hierarchischen adaptiven zufälligen Booleschen Netzwerken Random Boolean Networks (RBNs) werden häufig zur Modellierung komplexer Systeme verwendet, die von der Informationsverarbeitung angetrieben werden, z.B. für Genregulationsnetzwerke (GRNs). Hier schlagen wir ein hierarchisches adaptives zufälliges Boolesches Netzwerk (HARBN) als ein System vor, das aus verschiedenen adaptiven RBNs (ARBNs) – Subnetzen – besteht, die durch eine Reihe von permanenten Verbindungen verbunden sind. Wir untersuchen mittlere Knoteninformationen, mittlere Kanteninformationen sowie den mittleren Knotengrad. Informationsmaße und interne Teilnetzwerktopologie von HARBN koevolvieren und erreichen stationäre Zustände, die spezifisch für eine gegebene Netzwerkstruktur sind. Das natürliche Hauptmerkmal von ARBNs, d. h. ihre Anpassungsfähigkeit, wird in HARBNs bewahrt und sie entwickeln sich zu kritischen Konfigurationen, was durch Potenzgesetzverteilungen der Netzattraktorlängen dokumentiert wird. Die durchschnittliche Information, die von einem einzelnen Knoten oder einem einzelnen Link verarbeitet wird, steigt mit der Anzahl der dem System hinzugefügten Interlinks. Die mittlere Länge von Netzwerkattraktoren und die mittlere stationäre Konnektivität besitzen Minima für bestimmte spezifische Werte des Quotienten zwischen der Dichte der Verbindungen und der Dichte aller Verbindungen in Netzwerken. Das bedeutet, dass das modulare Netzwerk Extremalwerte seiner Observablen anzeigt, wenn Subnetzwerke mit einer Dichte verbunden sind, die einige Male niedriger ist als die mittlere Dichte aller Verbindungen.;-;-;-;https://link.springer.com/article/10.1140/epjb/e2015-60530-6 0e1434bbd98a30f87dd8ed7ecf3f72d7;de;;;1.1.;;;Automatische Erkennung negierter Befunde in radiologischen Befunden für die spanische Sprache: Methodik basierend auf lexikon-grammatischer Informationsverarbeitung Wir präsentieren eine Methodik zur automatischen Erkennung negierter Befunde in radiologischen Befunden unter Berücksichtigung morphologischer, syntaktischer und semantischer Informationen. Um dieses Ziel zu erreichen, wurde eine Reihe von Regeln zur Verarbeitung lexikalischer und syntaktischer Informationen ausgearbeitet. Dies erforderte die Entwicklung eines elektronischen Wörterbuchs für medizinische Terminologie und Informatikgrammatiken. Für die Zusammenstellung des Fachwörterbuchs wurden relevante Informationen aus der Ontologie SNOMED CT und einem medizinischen Wörterbuch (RANM, 2012) extrahiert. Ebenso wurde ein allgemeinsprachliches Wörterbuch aufgenommen. Lexikon-Grammatik (LG), vorgeschlagen von Gross (;-;-;-;https://link.springer.com/article/10.1007/s10278-018-0113-8 c696bbd7c00d7a5c092228cfefefe64a;de;;;1.1.;;;Aufmerksamkeitsallokationsprozesse bei depressiven Personen Kognitive Depressionsmodelle betonen typischerweise kognitive Schemata als wichtige Variablen im Depressionsprozess. Bis heute ist der Nachweis dieser Schemata bei remittierten depressiven Personen schwierig zu entdecken, es sei denn, sie wurden durch Faktoren wie negative Stimmungen gezielt aktiviert. Die vorliegende Studie testete einen Aspekt der Schemaaktivierung, die Aufmerksamkeitsallokation, bei Personen, die zuvor eine schwere depressive Episode erlebt hatten. Unter Verwendung einer dichotischen Höraufgabe, um die Aufmerksamkeit auf negative und positive Reize zu beurteilen, zeigten die Ergebnisse keine Unterschiede bei nicht stimmungsgeprägten Probanden. Bei Probanden, die durch eine negative Stimmungsinduktion geprimt worden waren, zeigten früher depressive Personen höhere Fehlerraten sowohl für negative als auch positive Stimuli, während nie depressive Personen geringere Fehlerraten für negative und positive Stimuli aufwiesen. Diese Ergebnisse scheinen auf einen emotional diffus verlaufenden Schemaaktivierungsprozess hinzuweisen, der jedoch nur für Personen mit Depressionsrisiko einzigartig ist.;-;-;-;https://link.springer.com/article/10.1007/BF02357508 5379e882e3a96ee7cfc0977f203231d2;de;;;1.1.;;;Politische Informationsverarbeitung: Fragestellung und Kontexteffekte Daten aus zwei unabhängigen Feldexperimenten deuten darauf hin, dass Änderungen in der Reihenfolge der Fragen und im Kontext möglicherweise für einen scheinbar steilen Rückgang des Interesses an der Politik zum Zeitpunkt der CPS 1978 American National Election Study verantwortlich sind. Beweise aus einem Fragereihenfolgeexperiment mit den SRC/CPS-„Gefühlsthermometern“ deuten auch darauf hin, dass solche kontextbezogenen Artefakte möglicherweise nicht untypisch sind. Tatsächlich stellen aufgrund der vielen Veränderungen in Inhalt und Organisation der Wahlstudien im Laufe der Jahre Kontexteffekte plausible konkurrierende Hypothesen für eine Reihe unerklärlicher Verschiebungen und Trends in der Zeitreihe dar. Beim Testen dieser Hypothesen leiten und validieren die Autoren ein informationsverarbeitendes Modell, wie die Befragten aus Beobachtungen ihres eigenen Frage-Antwort-Verhaltens im Befragungsinterview auf ihre politischen „Geisteszustände“ schließen. Darüber hinaus veranschaulichen die Autoren die breite Anwendbarkeit des Modells auf;-;-;-;https://link.springer.com/article/10.1007/BF00987188 00638f09477936a9e77c1aec7498055d;de;;;1.1.;;;Organisation des Cochlea-Nukleus für die Informationsverarbeitung Die Darstellung komplexer Reize wurde auf der Ebene des Hörnervs eingehend untersucht. Obwohl viele Aspekte der Reizcodierung im Hörnerv noch ausgearbeitet werden müssen, scheinen die allgemeinen Umrisse klar zu sein (siehe Sachs, 1984 für eine Übersicht). Es ist allgemein anerkannt, dass das grundlegende Organisationsprinzip des Hörsystems die Tonotopie ist (Imig et al., 1982, Merzenich et al., 1982), so dass die Darstellung eines komplexen Reizes als Profil der neuronalen Aktivität gegen eine Tonotopie betrachtet werden kann Achse. Die tonotopische Achse entsteht durch die Frequenzanalyse der Basilarmembran und wird neuronal durch die Abstimmung neuronaler Elemente repräsentiert. Die periphere tonotopische Achse wird im Zentralnervensystem dadurch erhalten, dass jeder zentrale Hörkern eine geordnete tonotopische Anordnung enthält, in der die besten Frequenzen der Zellen monoton angeordnet sind (Merzenich et al., 1982).;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-3629-4_28 a51083a27023f5789eac542e7b6e6440;de;;;1.1.;;;Erstvalidierung eines wissensbasierten Maßes der sozialen Informationsverarbeitung und des Wutmanagements In den letzten fünfzehn Jahren haben viele Schulen Programme zur Aggressionsprävention eingesetzt. Trotz dieser offensichtlichen Fortschritte werden viele Programme nicht systematisch untersucht, um festzustellen, in welchen Bereichen sie am wirksamsten sind. Ein Grund dafür ist, dass viele Programme, insbesondere in städtischen Gebieten mit unzureichenden Ressourcen, keine Ergebnismessungen verwenden, die auf die Bedürfnisse von Schülern aus ethnischen Minderheiten eingehen. Die aktuelle Studie zeigt, wie durch einen partnerschaftlichen Prozess ein neues wissensbasiertes Maß der sozialen Informationsverarbeitung und Wutmanagementtechniken entwickelt wurde, um sicherzustellen, dass es auf die Bedürfnisse urbaner, überwiegend afroamerikanischer Jugendlicher eingeht und gleichzeitig ein breites Potenzial hat Anwendbarkeit zur Verwendung als Ergebnisbewertungsinstrument für Aggressionspräventionsprogramme, die sich auf die Verarbeitung sozialer Informationen konzentrieren. Es wurde festgestellt, dass das neue Maß starke psychometrische Eigenschaften in einer Stichprobe städtischer, überwiegend afroamerikanischer Jugendlicher aufweist, da Itemanalysen nahelegen, dass fast alle Items gut zwischen mehr und weniger sachkundigen Personen unterscheiden, dass die Test-Retest-Reliabilität des Maßes stark ist und dass die Maßnahme im Laufe der Zeit empfindlich gegenüber Behandlungsänderungen zu sein scheint. Darüber hinaus ist die Gesamtpunktzahl dieses neuen Maßes moderat mit Zuschreibungen von Feindseligkeit bei zwei Maßen verbunden (negative Korrelationen) und zeigt eine geringe bis moderate negative Assoziation mit den von Gleichaltrigen und Lehrern berichteten Maßen offener und relationaler Aggression. Es bedarf weiterer Forschung, um den Nutzen der Maßnahme außerhalb des städtischen Schulkontextes zu bestimmen.;-;-;-;https://link.springer.com/article/10.1007/s10802-010-9419-9 9ab2141f74f07fabc3bceecdad9cc4f1;de;;;1.1.;;;Soziale Informationsverarbeitung bei Kindern im Vorschulalter, bei denen eine Autismus-Spektrum-Störung diagnostiziert wurde Die sozialen kognitiven Defizite von Kindern, bei denen Autismus-Spektrum-Störungen (ASS) diagnostiziert wurden, sind gut dokumentiert. Die Mechanismen, die diesen Mängeln zugrunde liegen, sind jedoch unklar. Daher untersuchten wir die Muster der sozialen Informationsverarbeitung (SIP) und das soziale Verhalten von 25 Vorschulkindern mit ASS im Vergleich zu einer passenden Gruppe von 25 Kindern mit typischer Entwicklung. Wir fanden heraus, dass Kinder mit ASS weniger wahrscheinlich als normal entwickelnde Kinder soziale Informationen effizient verschlüsseln, kompetente Antworten positiv konstruieren und bewerten und prosoziales Verhalten zeigen. Sie waren auch häufiger als sich normal entwickelnde Kinder dazu, anderen in gutartigen sozialen Situationen feindselige Absichten zuzuschreiben, positive aggressivere Reaktionen zu konstruieren und zu bewerten, eher vermeidende Reaktionen zu konstruieren und mehr externalisierende Verhaltensweisen zu zeigen. Interessanterweise wurden in der ASD-Gruppe kontraintuitive Beziehungsmuster mit kompetenteren SIP- und Theory of Mind (ToM)-Mustern in Bezug auf weniger kompetentes soziales Verhalten gefunden. Schließlich wurde innerhalb der ASD-Gruppe festgestellt, dass kompetentere SIP-Muster in signifikantem Zusammenhang mit höheren ToM-Kapazitäten stehen.;-;-;-;https://link.springer.com/article/10.1007/s10803-013-1935-3 d767772794ce858f3be9f9acb01f4ae0;de;;;1.1.;;;Nicht-klassische Korrelationen in der Informationsverarbeitung Rein funktional ausgedrückt wandelt eine Berechnung eine von Menschen lesbare Bitfolge, die als Eingabe oder Frage bezeichnet wird, in eine andere von Menschen lesbare Bitfolge, die als Ausgabe oder Antwort bezeichnet wird, um. Wir gehen hier davon aus, dass Informationen unabhängig von der Art der Eingabe oder Ausgabe immer in der einfachsten Sprache mit nur zwei Elementen im Alphabet, nämlich binär, ausgedrückt werden können. Beim Übergang vom Eingang zum Ausgang würde die Abfolge der Schritte – der Algorithmus – zusätzliche Ressourcen wie Rechenraum (Speicher) Rechenzeit usw. erfordern. Die Quanteninformationsverarbeitung bringt neue Ressourcen in die Mischung, wobei Verschränkung und Quantenkohärenz die der prominenteste unter ihnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-53412-1_13 b3e1507576bae54d3a470436abc31d96;de;;;1.1.;;;"Cyber-Physische Prinzipien der Informationsverarbeitung in Ultrabreitbandsystemen Betrachtet wird die Informationsverarbeitung in Ultrabreitbandsystemen basierend auf den cyber-physikalischen Prinzipien eines Neurons, in dessen verteilter Struktur sich Impulse ausbreiten. Die Verarbeitung von informationstragenden Ultrabreitbandpulsen erfolgt an verteilten Strukturen unregelmäßiger Linien, bei denen sich die Wellenparameter ändern. Eine solche Verarbeitung kann sowohl auf dem ""Pass"" als auch auf der ""Reflexion"" durchgeführt werden, und es ist möglich, dass Filter parallel geschaltet werden, die mit verschiedenen Ultrabreitbandsignalen abgeglichen werden.";-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-32648-7_1 40b180d9cad4a0ae44665ade71f6b065;de;;;1.1.;;;Remote Investigative Actions als Evidenzinformationsmanagementsystem Der dringende Charakter der Forschung ist mit der Notwendigkeit verbunden, eine systemische Nichteinhaltung des Niveaus der Integration aktueller Informations- und Kommunikationstechnologien mit den Erfordernissen der kriminalpolizeilichen Tätigkeit zu beseitigen. Dieses qualitative Merkmal verringert die Effizienz der Strafverfolgung. Die weitere Missachtung des immer größer werdenden Innovationsmangels kann zu irreversiblen negativen Folgen führen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-01358-5_9 91a4022f2e9a6169875bde3bf0ce224a;de;;;1.1.;;;Informationsverarbeitung im Schlaf basierend auf ereignisbezogenen Aktivitäten des Gehirns Die Studie untersucht Vorgänge der Informationsverarbeitung im REM-Schlaf (Rapid Eye Movement) und in Stadien des Nicht-REM-Schlafs. In der Studie wurde ein eklektischer Ansatz verwendet, bei dem die Wirkung externer akustischer Stimuli sowohl auf die Peaks in der ereignisbezogenen Potential (ERP)-Wellenform als auch auf die oszillatorischen Reaktionen untersucht wurde, die zur Morphologie dieser Wellenform beitragen. Daten zum Nachtschlaf wurden von 12 gesunden, jungen erwachsenen, freiwilligen Männern erhoben, diejenigen im Wachstadium wurden von 21 passenden Männern erhalten. Die Gehirnaktivität wurde als Reaktion auf auditive Reize (2000 Hz abweichende und 1000 Hz Standardstimuli: 65 dB, 10 ms HF-Zeit, 50 ms Dauer) unter dem passiven Oddball-Paradigma im Schlaf und dem aktiven und passiven Oddball-Paradigma im Wachzustand erhalten. Die Wirkung der experimentellen Variablen (Stimulustyp, Schlafstadium) auf die ERP-Spitzenamplituden wurde durch Varianzanalyse für wiederholte Messungen untersucht. Der Beitrag der oszillatorischen Reaktionen zu den ERP-Peaks wurde unter Verwendung einer schrittweisen multiplen Regression untersucht. Wie durch die Amplitude der ERP-Peaks und die oszillatorischen Reaktionen dargestellt, variierte die auditive Informationsverarbeitung selektiv in verschiedenen Schlafstadien. Die Verarbeitung dauerte im Schlaf länger: Vergleichbare Peaks wurden bei längeren Latenzen erhalten und später traten Komponenten auf, die im Wachzustand nicht existierten. Mit einer lang anhaltenden Theta-Aktivität und einer stärkeren Differenzierung zwischen den abweichenden und standardmäßigen Reizen schien Stufe 2 eine anstrengende kognitive Verarbeitung darzustellen. Wie nur durch die früheren Peaks und die unbedeutende Delta-Aktivität dargestellt, repräsentierte REM eine weniger erweiterte kognitive Verarbeitung.;-;-;-;https://link.springer.com/article/10.1111/j.1479-8425.2006.00254.x aea94e2d4e7be931031058ed79dd2450;de;;;1.1.;;;Spezifität von Informationsverarbeitungsstilen für depressive Symptome bei stationären jugendlichen psychiatrischen Patienten Obwohl die Informationsverarbeitung bei depressiven Erwachsenen umfassend untersucht wurde, wurde der Spezifität der resultierenden Befunde bei Depressionen im Gegensatz zu anderen psychischen Störungen wenig Bedeutung beigemessen. Analog dazu wurden noch weniger Anstrengungen unternommen, um die Informationsverarbeitungsstile depressiver Kinder und Jugendlicher zu untersuchen. Die vorliegende Studie untersuchte die Spezifität von Informationsverarbeitungsstilen bei Depressionen und Angstzuständen bei 58 stationären jugendlichen psychiatrischen Patienten. Um die Informationsverarbeitung zu beurteilen, verwendeten wir eine selbstreferentielle Kodierungsaufgabe, bei der den Teilnehmern positive und negative Adjektive präsentiert wurden, die Teilnehmer wurden gefragt, ob diese Adjektive sie beschreiben oder nicht, und dann auf die Erinnerung an die Adjektive getestet. Nach Kontrolle von Alter und Geschlecht wurden niedrigere Raten positiver Adjektivbefürwortung und niedrigere Raten positiver Adjektiverinnerung mit Depression, aber nicht mit Angst in Verbindung gebracht. Darüber hinaus war eine negative Adjektiv-Befürwortung mit Angstsymptomen verbunden. Diese Ergebnisse deuten auf spezifische kognitive Merkmale depressiver Symptome hin.;-;-;-;https://link.springer.com/article/10.1023/A%3A1010385832566 3b93d3644b454f7bc5afaafab3f158be;de;;;1.1.;;;Informationsverarbeitung der Fahrer, Entscheidungsfindung und die Rolle von Emotionen: Vorhersagen des Risikomonitormodells Der vorliegende Beitrag diskutiert Fragen der Wahrnehmung, Ablenkung, unbewusster und bewusster Wege der Informationsverarbeitung und Entscheidungsfindung. Drei große Themen werden angesprochen: Relative Risiken, Risikoüberwachung und Intelligente Transportsysteme (ITS). Die Betrachtung relativer Risiken wird als fruchtbarer Ansatzpunkt für die Erstellung von Problemaussagen zur Unfallursache vorgeschlagen, da relative Risiken es ermöglichen, Risikoniveaus unterschiedlicher Straßenbedingungen, Verkehrsteilnehmeraktivitäten und Fahrerzustände zu vergleichen. Es wird eine Liste von 21 relativen Risiken bereitgestellt und für jedes von ihnen wird angegeben, ob es einen ITS gibt, der das Problem mindern könnte. Es wird auf die Relevanz neuer Paradigmen durch Evolution und Neurowissenschaften hingewiesen. Ein Modell des Fahrerverhaltens, das Risk Monitor Model (RMM), wird ausgearbeitet und beschrieben. Schließlich werden die Vorhersagen des RMM über das Ergebnis von ITS als sieben spezifische Hypothesen formuliert.;-;-;-;https://link.springer.com/chapter/10.1007/978-88-470-1821-1_4 6667c27d7e2f017ffe633b457177866a;de;;;1.1.;;;Soziale Informationsverarbeitung, Emotionen und Aggression: Konzeptionelle und methodische Beiträge der Sonderteilartikel Diese Diskussion fasst einige der wichtigsten konzeptionellen und methodischen Beiträge der vier Artikel in diesem speziellen Abschnitt zu Social Information Processing (SIP) und Aggression zusammen. Ein wichtiger Beitrag sind die neuen methodischen Werkzeuge, die diese Studien zukünftigen Forschern zur Verfügung stellen. Eye-Tracking- und Stimmungsinduktionstechniken werden es SIP-Forschern ermöglichen, aufmerksamkeits- und emotionsbezogene Prozesse über die sechs SIP-Schritte hinweg zu untersuchen. Darüber hinaus wird das STEP-P-Instrument das Studium emotional aufgeladener Aspekte des frühen SIP von Vorschulkindern eröffnen. Ein zweiter Beitrag ist, wie diese Artikel das dynamische Zusammenspiel emotionaler und kognitiver Prozesse bei der Entstehung aggressiver Tendenzen von Kindern und Jugendlichen betonen. Schließlich werden in mehreren dieser Studien implizite Entwicklungsthemen angesprochen. Die Diskussion schließt mit Vorschlägen für zukünftige Forschungen, einschließlich eines Fokus auf die positive (d.;-;-;-;https://link.springer.com/article/10.1007/s10802-010-9408-z 4e3c7e2df2ee188a77f2285836fca77e;de;;;1.1.;;;Soziale Informationsverarbeitung bei Aggression zwischen Kindern und Eltern: Bidirektionale Assoziationen in einer einjährigen prospektiven Studie Child-to-Eltern-Aggression (CPA) ist eine Form des aggressiven Verhaltens, die im Fokus zunehmender Aufmerksamkeit steht. Aggressionsmodelle der sozialen Informationsverarbeitung (SIP) betonen die Rolle der kognitiven und emotionalen Prozesse, die auftreten, wenn Kinder sich während der Entwicklung aggressiven Verhaltens mit mehrdeutigen sozialen Szenarien auseinandersetzen. Die vorliegende Studie entwickelt einen Fragebogen zur Erfassung von SIP bei der Bewältigung von Konflikten mit Eltern und untersucht die bidirektionalen Beziehungen zwischen mehreren SIP-Komponenten und CPA in einer einjährigen Längsschnittstudie. Eine Stichprobe von 1.272 Jugendlichen im Alter zwischen 13 und 17 Jahren absolvierte Messungen von SIP und CPA in zwei Wellen im Abstand von 1 Jahr. Konfirmatorische Faktorenanalysen unterstützten ein Modell mit fünf korrelierten Faktoren für den SIP-Fragebogen, wie folgt: feindselige Zuschreibung, Wut, aggressiver Antwortzugang, Antizipation positiver Konsequenzen für sich selbst und Empathie. Längsschnittanalysen zeigten, dass eine feindselige Zuschreibung bei männlichen Jugendlichen und Wut bei weiblichen Jugendlichen einen Anstieg des CPA im Laufe der Zeit vorhersagten. Darüber hinaus sagten die anfänglichen CPA-Werte eine Verschlechterung mehrerer SIP-Komponenten bei der Nachuntersuchung voraus. Die Ergebnisse waren für psychologische und physische CPA sehr ähnlich. Bidirektionale Beziehungen zwischen CPA und SIP werden aus der Perspektive des sozialkognitiven Aggressionsmodells diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s10826-014-0023-4 18da4b180acd8136a029c6fd3c2b8b50;de;;;1.1.;;;Krümmungsmaße in der visuellen Informationsverarbeitung Das geometrische Konzept der Krümmung kann helfen, einige wichtige Aspekte der Informationsverarbeitung in natürlichen und künstlichen Sehsystemen zu behandeln. Der Artikel gibt einen kurzen Überblick über frühere Ergebnisse bezüglich der Beziehung zwischen den Begriffen der Krümmung, der Informationsverarbeitung und der Modellierung von endgestoppten Neuronen im visuellen Kortex. Es konzentriert sich dann auf den Unterschied zwischen der Gaußschen Krümmung und dem Riemann-Tensor und zeigt die entsprechenden logischen Strukturen auf. Weiterhin wird gezeigt, wie mehrdimensionale Abweichungen von der Ebenheit durch zweidimensionale Krümmungsoperatoren gemessen werden können. Im Rahmen der Bildsequenzanalyse wird ein neuer Zusammenhang zwischen den Riemann-Tensorkomponenten und der Berechnung des optischen Flusses gefunden.;-;-;-;https://link.springer.com/article/10.1023/A%3A1009675801435 a45adbdab72f301dc77ea41853ad177b;de;;;1.1.;;;Fähigkeiten zur Verarbeitung sozialer Informationen bei Kindern mit Geschichten von starker pränataler Alkoholexposition Laut Berichten von Betreuern haben Kinder mit pränataler Alkoholexposition Schwierigkeiten mit dem sozialen Funktionieren, aber über ihre soziale Kognition ist wenig bekannt. Die aktuelle Studie bewertete die sozialen Informationsverarbeitungsmuster von Kindern im Schulalter mit starker vorgeburtlicher Alkoholexposition anhand eines Paradigmas, das auf dem neu formulierten sechsstufigen Modell von Crick und Dodge basiert. 52 Kinder (im Alter von 7 bis 11 Jahren) mit und ohne starke pränatale Alkoholexposition wurden mit Hilfe eines strukturierten Interviews zur sozialen Informationsverarbeitung mit 18 Video-Vignetten von Kindern in Gruppeneintritts- und Provokationssituationen getestet. Alkoholexponierte Kinder zeigten maladaptive Verarbeitungsmuster bei den Schritten des Ziels, der Reaktionsgenerierung und der Reaktionsbewertung in Gruppeneintrittssituationen sowie bei den Schritten der Kodierung, Attribution, Reaktionsbewertung und Umsetzung in Provokationssituationen. Kinder mit starker pränataler Alkoholexposition hatten auch Schwierigkeiten beim Problemlösungstest, und die Leistung korrelierte mit sozialen Informationsverarbeitungsmaßen. Solche Schwierigkeiten können zu Problemen im sozialen Funktionieren führen und eine frühzeitige Intervention rechtfertigen.;-;-;-;https://link.springer.com/article/10.1007/s10802-009-9313-5 ae340ba8464754f5d2c8a3c78442551e;de;;;1.1.;;;Die Rolle der Verschränkung bei der Quantenmessung und Informationsverarbeitung Die Bedeutung des Quantenmerkmals der Verschränkung zwischen physikalischen Systemen wird im Rahmen von Quantenmessungen untersucht. Es wird gezeigt, dass, obwohl es Messkopplungen gibt, die das Objekt- und Sondensystem nicht verschränken, keine Informationsübertragung von Objekt zu Sonde stattfinden kann, es sei denn, es gibt zumindest eine intermittierende Periode, in der die beiden Systeme verschränkt sind.;-;-;-;https://link.springer.com/article/10.1023/A%3A1025462220957 634e0c3d56444326d72cfadab12d6637;de;;;1.1.;;;Informationsverarbeitung durch parafoveale Zellen im Primatenkern des Sehtrakts Wir haben von einzelnen Einheiten im prätektalen Kern des Tractus opticus (NICHT) des nichtmenschlichen Primaten aufgenommen. Konkret haben wir Einheiten untersucht, die beim sanften Nachführen eines kleinen Laserspots vor einem dunklen Hintergrund moduliert werden. Wir haben ein nichtlineares Optimierungsverfahren verwendet, um zu bestimmen, ob die Einheitsantworten dieser parafovealen Zellen besser durch ein Modell beschrieben werden können, das Bewegungsparameter des Netzhautfehlers enthält, oder durch ein Modell, das Augenbewegungsparameter enthält. Unser wichtigstes Ergebnis war, dass alle Zellen in unserer Stichprobengruppe besser zu einem Dreikomponentenmodell passen, das Bewegungsparameter des Netzhautfehlers von Position, Geschwindigkeit und Beschleunigung (durchschnittlicher Bestimmtheitskoeffizient = 0,84) enthält, als ein Modell, das Position, Geschwindigkeit und verwendet Beschleunigungskomponenten der Augenbewegung (mittleres Bestimmtheitsmaß = 0,68). Andere Analysen beinhalteten den Vergleich der Anpassungsgüte zwischen dem Dreikomponenten-Netzhautfehlermodell und Zweikomponenten-Netzhautfehlermodellen, die positions- oder beschleunigungsbezogene Terme ausschlossen. Wir fanden heraus, dass es eine statistisch signifikante Verschlechterung der Anpassung gab, wenn positions- und beschleunigungsbezogene Terme aus dem auf Netzhautfehlern basierenden Modell entfernt wurden (;-;-;-;https://link.springer.com/article/10.1007/s002210100816 9df14548336596b105b06a56ccaa928c;de;;;1.1.;;;Wirkung von Emotionen in der Informationsverarbeitung für die Entscheidungsfindung Die Entscheidungsfindung ist ein Auswahlprozess unter anderen Optionen und eine Problemlösungsaktivität. Dies ist ein kognitiver Prozess, der von kognitiven Fähigkeiten, der psychologischen Ausstattung des Entscheidungsträgers und der Situation selbst beeinflusst wird. Die Beratung und Auswahl der endgültigen Entscheidung durchlaufen eine bestimmte Informationsverarbeitung. In diesem Kapitel wird die Wirkung von Emotionen bei der Informationsverarbeitung für die Entscheidungsfindung diskutiert. Der Einfluss von Emotionen wurde als Motivationsprozess und Inputinformation bei der Entscheidungsfindung erkannt. Die Emotions- und Einflussarten, das kategoriale Dimensionsmodell der Emotion und die duale Verarbeitung im emotionalen Zustand werden ausführlich mit dem Verständnis einer vorteilhaften oder nachteiligen Rolle von Emotionen bei der Entscheidungsfindung diskutiert. Der Einfluss des emotionalen Zustands auf die Risikowahrnehmung und -beurteilung sowie die Möglichkeit von Geschlechtsunterschieden bei der Informationsverarbeitung sind in verschiedene Abschnitte integriert. Dieses Kapitel versucht auch, relevante neurowissenschaftliche Forschungsergebnisse in Bezug auf die Informationsverarbeitung bei der Entscheidungsfindung zu behandeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-48849-9_1 a79c50e272d66b71d46e286f51ba83c9;de;;;1.1.;;;Messen dichotische Listening-Verfahren die Lateralisierung der Informationsverarbeitung oder die Retrieval-Strategie? Die Daten aus zwei dichotischen Studien, die beide spontan generierte Reaktionsstrategien unter freiem Rückruf evaluierten und von denen eine auch manipulierte Abrufstrategien durch Instruktionen manipulierte, unterstützten eine Vorstellung, dass das, was dichotische Verfahren hauptsächlich messen, Reaktionsstrategien sind – mobil und ohne Verlust der Gedächtnisstütze Fähigkeit. Folglich erscheinen wettbewerbsorientierte Methoden, die stark von Outputfaktoren beeinflusst werden, als unzuverlässiges Mittel zur Bewertung der Dominanz der Inputverarbeitung.;-;-;-;https://link.springer.com/article/10.3758/BF03214237 ef42d30553977ae5f890bef0c30668a2;de;;;1.1.;;;Auslöschung konditionierter elektrodermaler Veränderungen und menschlicher Informationsverarbeitung Ein hemmender Effekt der Informationsbelastung auf die Extinktion von GSR beim Menschen wurde zuverlässig nachgewiesen. Ein vorausgegangenes Versagen bei der Konzeptidentifikationsaufgabe reduzierte die Extinktionsrate von GSR, ebenso wie die Komplexität eines begleitenden Problems in Form von Bits von irrelevanter Information. Theoretische Formulierungen zur Interaktion von autonomen und kognitiven Funktionen beim Menschen im Hinblick auf Spences inhibitorisches Set und kybernetische Aspekte des Gehirns wurden postuliert.;-;-;-;https://link.springer.com/article/10.3758/BF03336632 801f11aae029b85eca5dcac159bcbb95;de;;;1.1.;;;Die Wirkung von motivationaler Erregung auf die Informationsverarbeitung bei der konvergenten Wortidentifikationsaufgabe Motivationale Erregung führte zu einer verbesserten Leistung bei einfachen Problemen, ohne die Leistung bei komplexen Problemen zu beeinträchtigen. Es führte auch zu einer erhöhten Verwendung von Hinweisen. Seine Auswirkungen scheinen spezifischer zu sein als die eines hohen Inputs und können mit der Erregungstheorie erklärt werden.;-;-;-;https://link.springer.com/article/10.3758/BF03330844 f042dae965ba47b42d2e70f9b437033c;de;;;1.1.;;;Neuromuskuläre Schaltkreise in der affektgeladenen Informationsverarbeitung Es gibt umfangreiche Beweise für die Beteiligung neuromuskulärer Schaltkreise an der verdeckten Informationsverarbeitung. Die physiologischen Systeme vermitteln;-;-;-;https://link.springer.com/article/10.1007/BF03001979 e666de2f79fbb9ab647ff1958f278e19;de;;;1.1.;;;Visuelle Informationsverarbeitung numerischer Eingaben Der vorliegende Beitrag erweitert die aktuelle Mustererkennungsforschung um die Untersuchung der Verarbeitung numerischer Eingaben. Die Ergebnisse zeigen große Unterschiede in der Erkennbarkeit der verschiedenen Zahlen. Die für jede Nummer entwickelten Erkennungskurven zeigen stark unterschiedliche Erkennungsraten bei steigender Pünktlichkeit. Eine Analyse der Konfusionsmatrix zeigt eine ausgeprägte Asymmetrie vieler Reiz-Antwort-Paare. Die Schwierigkeit der Zahlen blieb von S bis S sehr konstant, was darauf hindeutet, dass verschiedene Ss ähnliche Subroutinen mit unterschiedlichen Verarbeitungsgeschwindigkeiten verwenden können.;-;-;-;https://link.springer.com/article/10.3758/BF03334385 cb8b4e78899f7005413a896cd2b3a57a;de;;;1.1.;;;Auswirkungen von Informationen und Informationsverarbeitung durch die Empfängerin in Vorbereitung auf die Geburt Bisher wurde wenig beachtet, wie Informationen effizienter gestaltet und Bewältigungsstrategien auf Probleme in anderen Bereichen verallgemeinert werden können, um so die psychohygienische Komponente von Vorbereitungskursen zu stärken. Um dies zu erreichen, müssen wir bedenken, dass mehr nur als die oben genannten Zielinhalte eines Vorbereitungsprogramms relevant sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-81876-9_149 42b98d33713701b72c69b7472afdf1d5;de;;;1.1.;;;Altersbedingter Wandel in der visuellen Informationsverarbeitung: Auf dem Weg zu einer einheitlichen Theorie des Alterns und des visuellen Gedächtnisses Das Gedächtnis für semantische Informationen bleibt während des normalen Alterungsprozesses relativ erhalten. Das visuell-räumliche Gedächtnis bleibt weniger intakt. Im vorliegenden Artikel wird eine Theorie vorgeschlagen, die diesen Verarbeitungsunterschied mit einer normalen altersbedingten generalisierten kognitiven Verlangsamung und dem Auftreten spezifischer altersbedingter Unterschiede in der Gedächtnisleistung in Verbindung bringt. Belege für diese Vorschläge werden aus der Arbeit in vier Bereichen vorgelegt: mentale Rotation, räumliches Gedächtnis, gepaartes Lernen und freier Abruf. Die kognitive Leistung bei jungen und älteren Befragten variiert nachweislich vorhersehbar mit systematischer Variation von visuell-räumlichen und semantischen Reizfaktoren, die mit diesen Hypothesen übereinstimmen. Ein weiterer Test dieser Ideen ergibt sich aus der Entwicklung eines klinisch nützlichen Gedächtnissystems für ältere Erwachsene, das auf diesen Prinzipien basiert. Zusammenfassend deutet diese Forschung darauf hin, dass ein Großteil des beobachteten Defizits in der Gedächtnisleistung älterer Erwachsener möglicherweise nicht auf Gedächtnisprobleme an sich zurückzuführen ist, sondern eher auf die Wirkung einer generalisierten kognitiven Verlangsamung, die zu verminderten Fähigkeiten zur Darstellung und Verarbeitung visueller Bilder beiträgt. Diese Reihe von Ergebnissen kann einen Rahmen für das Verständnis einer Vielzahl von Prozessen des Alterns und des visuellen Gedächtnisses sowie für die Entwicklung von Anwendungen zur Unterstützung des Gedächtnisses älterer Erwachsener bieten.;-;-;-;https://link.springer.com/article/10.1007/s12144-997-1003-2 14b04163154304175207b2a7df87dd5d;de;;;1.1.;;;Ein auf der Informationsverarbeitung basierendes Modell des Verhaltens vor der Evakuierung für die agentenbasierte Egress-Simulation Während einer Feuerevakuierung beginnen die Evakuierten nicht sofort mit der Evakuierung, wenn sie einen Feueralarm hören. Diese Reaktionsverzögerung ist oft die Ursache für unnötige Todesfälle. In Egress-Rechenmodellen wird sie jedoch kaum berücksichtigt. In diesem Beitrag wird ein agentenbasiertes Rechenmodell für das Verhalten vor der Evakuierung vorgeschlagen und durch die Modellierung der Cue-Wahrnehmung und -Kommunikation implementiert. Durch Experimente wird auch gezeigt, welche signifikanten Auswirkungen die Modellierung des Verhaltens vor der Evakuierung haben kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-02447-9_8 48a442a57467276922835f7e90cccfc9;de;;;1.1.;;;Der Nutzen eines Informationsverarbeitungsansatzes für die Verhaltenspreisforschung price In ihrem Artikel bieten Cheng und Monroe eine historische Perspektive auf die Verhaltensforschung in der Preisbildung. Ihre Konsolidierung von Erkenntnissen aus vier Jahrzehnten Preisforschung zeugt von dem Reichtum, der sich aus der Konvergenz verschiedener Perspektiven und Felder auf ein gemeinsames Phänomen ergeben kann. Obwohl der Artikel im Sinne von Konzepten formuliert ist, die aus inhaltlichen Bedenken hervorgegangen sind, kann es nützlich sein, über die Probleme der Verhaltenspreisforschung im Rahmen eines Informationsverarbeitungsmodells nachzudenken. Ein solches Modell ermöglicht es, verschiedene Effekte in verschiedenen Verarbeitungsstadien zu lokalisieren und hilft, zusätzliche zu untersuchende Fragen aufzuwerfen.;-;-;-;https://link.springer.com/article/10.1007/s13162-013-0045-x 3a78bc82ba8d4315ac9f61e4312e139f;de;;;1.1.;;;Optimaler Algorithmus zur Signalerkennung im Gravitationswellenexperiment mit komplexem Informationsverarbeitungssystem Wir betrachten ein Verfahren zur Verarbeitung des Ausgangssignals eines Raumtemperatur-Gravitationsstabdetektors im Langzeiteinsatz in einem komplexen informationsverarbeitenden System.;-;-;-;https://link.springer.com/article/10.1007/BF02504119 83d44703f2bf6b639f1ff9dd419c7e1f;de;;;1.1.;;;Der genetische Zusammenhang zwischen Intelligenz und Geschwindigkeit der Informationsverarbeitung Diese Studie untersuchte die Beiträge genetischer und umweltbedingter Faktoren zur beobachteten Korrelation zwischen Intelligenztestergebnissen und Geschwindigkeit der Informationsverarbeitung, basierend auf Daten für gleichgeschlechtliche erwachsene Zwillingspaare (Alter 15–57). Für 50 eineiige und 32 zweieiige Zwillingspaare lagen verbale und leistungsbezogene IQ-Werte aus der Multidimensional Abilities Battery sowie 11 Reaktionszeitmessungen aus einer Reihe von Informationsverarbeitungsaufgaben vor. Multivariate biometrische Analysen wurden verwendet, um genetische und Umweltparameter zu schätzen, die beobachteten Varianzen und Kovarianzen zwischen Intelligenztestergebnissen und einem allgemeinen Geschwindigkeitsfaktor der Informationsverarbeitung (basierend auf einer linearen Zusammensetzung der 11 Reaktionszeitwerte) zugrunde liegen. Ein Common-Factor-Modell mit Belastungen für die allgemeine Verarbeitungsgeschwindigkeit, den verbalen IQ und den Leistungs-IQ passt gut zu den Daten. Der gemeinsame Faktor wurde vor allem durch additive genetische Effekte beeinflusst, so dass die beobachteten Zusammenhänge zwischen den Geschwindigkeits- und IQ-Maßnahmen ausschließlich durch erbliche Faktoren vermittelt werden. Es gab eine zusätzliche spezifische genetische Varianz für den verbalen IQ und eine spezifische geteilte Zwillingsumgebungsvarianz für den Leistungs-IQ. Die Zwillingsähnlichkeit für die allgemeine Verarbeitungsgeschwindigkeit wurde jedoch ausschließlich durch genetische Faktoren im Zusammenhang mit der Intelligenz erklärt. Die Ergebnisse unterstreichen die Bedeutung gemeinsamer, erblicher, biologischer Mechanismen, die der Speed-IQ-Assoziation zugrunde liegen.;-;-;-;https://link.springer.com/article/10.1007/BF01065972 521e84c712309e155d98c6208c13fde0;de;;;1.1.;;;Gruppenkovarianz und optimale Informationsverarbeitung Bei der Quanteninformationsverarbeitung müssen wir die Fehlerquote so weit wie möglich verringern. Um diese Anforderung zu erfüllen, formulieren wir den Fehler mathematisch als Funktion und suchen die Informationsverarbeitung, um ihn zu minimieren (optimieren). Dieses Kapitel gibt ein optimales Schema einschließlich einer optimalen Messung unter mehreren Einstellungen mit der Gruppenkovarianz. Dieser Ansatz kann auf so viele Themen der Quanteninformation angewendet werden, die Schätzung des Quantenzustands, die Schätzung der unbekannten Einheitswirkung und das ungefähre Klonen von Quantenzuständen. Das Problem, das Schätzverfahren zu optimieren, kann mit der endlichen Ressourceneinstellung nicht exakt gelöst werden, im Allgemeinen jedoch nur dann, wenn das Problem gruppensymmetrische Eigenschaften hat. Daher können wir sagen, dass die gruppensymmetrische Eigenschaft für die Zustandsschätzung wesentlich ist. Diese Idee kann auf die Schätzung einer unbekannten einheitlichen Aktion angewendet werden. Dieses Problem hängt viel tiefer mit der Gruppendarstellung zusammen, da dieses Problem mit Hilfe der Fourier-Transformation im Sinne der Gruppendarstellungstheorie untersucht werden kann. Außerdem behandeln wir das angenäherte Klonen des Quantenzustands in ähnlicher Weise, da wir dasselbe für das angenäherte Klonen des Quantenzustands sagen können. Das heißt, alle gelösten Beispiele für das ungefähre Klonen von Quantenzuständen basieren auf der Gruppensymmetrie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-45241-8_4 07aad2438451ec81f6a134d9e36436e9;de;;;1.1.;;;"Optische Grundlagen der digitalen Kommunikation und Informationsverarbeitung Moderne Kommunikation erfordert die Übertragung, Speicherung und Darstellung von Informationen in bildlicher Form, sowohl für Daten (Dokumente) als auch für Informationen in tatsächlicher „Bild“-Form. Digitale Implementierungen sind in allgemeinen Fällen wahrscheinlich am praktischsten, wenn bestimmte gegenwärtige Beschränkungen überwunden werden. Sowohl die Übertragung als auch die Verarbeitung der Informationen stellen derzeit digitale Umsetzungen optischer Grundprinzipien dar. Daher erfordert die Lösung der digitalen Kommunikations- und Verarbeitungsprobleme die Betrachtung und Anwendung von Lösungen, die bei den optischen Implementierungen ein sehr fortgeschrittenes Stadium erreicht haben, allgemein bekannt als ""kohärente optische Verarbeitung"", ""Holographie"" und ""optisches Rechnen"".";-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-7542-9_15 cc62bfc1171f928aa07e238b024d2bb8;de;;;1.1.;;;Die Architektur der menschlichen Informationsverarbeitung: Empirische Beweise Dieser Artikel skizziert eine pfadanalytische Interpretation von gesammelten Daten im Licht einer theoretischen Formulierung eines dynamischen Gedächtnismodells, das eine Perspektive auf das menschliche Informationsverarbeitungssystem als Ganzes bietet. Das Gedächtnismodell stellt einen Versuch dar, die relativ statischen Modelle der Gedächtnisstrukturen mit den dynamischeren Konzepten zu integrieren, die der Forschung zu Kontroll- und Verarbeitungsmechanismen zugrunde liegen. Die Ergebnisse der Studie betonen die Rolle von relationalem Wissen (taxotomische Fachstrukturen), strategischem Wissen (prozedurale Algorithmen) und empirischem Wissen (basierend auf Erfahrungen aus erster Hand) bei der Leistungsfähigkeit kognitiver Fähigkeiten.;-;-;-;https://link.springer.com/article/10.1007/BF00117576 0d93458fafb0a24ccd29e8eda2ae2ca0;de;;;1.1.;;;Satzkongruente Priming-Stimuli normalisieren die Informationsverarbeitung psychopathischer Täter Offen Psychopathische Personen zeigen charakteristische Defizite bei der Verarbeitung von Emotionssignalen, der abstrakten Bedeutung von Wörtern und peripheren Hemmsignalen, die mit Defiziten in der Selbstregulation und antisozialem Verhalten in Verbindung gebracht wurden. Eine durch neuere Forschungen unterstützte Ansicht ist, dass psychopathische Personen Schwierigkeiten haben, mengeninkongruente Informationen zu verarbeiten, und dass ihre Schwierigkeiten durch Aufgabenmanipulationen, die einen mengenrelevanten Aufmerksamkeitsfokus schaffen, verbessert werden können. Wir evaluierten diese Charakterisierung des psychopathischen Defizits mithilfe einer lexikalischen Entscheidungsaufgabe (d. h. Worterkennung) und einer Priming-Manipulation, die dazu führte, dass die Zielreize mengenkongruent oder mengeninkongruent waren. Wie vorhergesagt, zeigten ängstliche (d. h. primäre) psychopathische Teilnehmer einen signifikant größeren Priming-Effekt als nicht-psychopathische Teilnehmer mit geringer Angst. Die Ergebnisse verdeutlichen den potentiellen Wert des Priming relevanter kognitiver Sets, um die kostspieligen Informationsverarbeitungsdefizite im Zusammenhang mit Psychopathie zu überwinden. Behandlungsbemühungen, die ein Gleichgewicht der Aufmerksamkeit zwischen primären und peripheren Informationen betonen, können sich als besonders wirksam erweisen, um maladaptives Verhalten bei psychopathischen Personen zu reduzieren.;-;-;-;https://link.springer.com/article/10.1007/s10862-017-9587-9 61155c44e09f260f4e11e9e777806ad2;de;;;1.1.;;;Molekulare Magnete für die Quanteninformationsverarbeitung In diesem Kapitel werden wir die Möglichkeit untersuchen, molekulare Magnete für Zwecke der Quanteninformationsverarbeitung einzusetzen. Wir beginnen mit einer kurzen Einführung in das Quantencomputing und beleuchten die grundlegenden Unterschiede zwischen klassischem und Quantencomputing. Wir werden die fünf DiVincenzo-Kriterien für eine erfolgreiche physikalische Implementierung eines Quantencomputers vorstellen und diese Kriterien für den Rest des Kapitels als Richtlinie verwenden. Wir werden diskutieren, wie man die Spin-Freiheitsgrade in molekularen Magneten für Quantenberechnungen nutzen kann, und die damit verbundenen Möglichkeiten zur Kontrolle des Zustands des Qubits vorstellen. In diesem Teil konzentrieren wir uns hauptsächlich auf den spinelektrischen Effekt, der es ermöglicht, die Quantenzustände des Spins in molekularen Magneten auf elektrischem Wege zu kontrollieren. Wir werden Möglichkeiten diskutieren, den Quantenzustand zweier molekularer Magnete zu koppeln. Als nächstes werden wir die verschiedenen Dekohärenzmechanismen identifizieren und diskutieren, die bei molekularen Magneten eine Rolle spielen. Wir werden zeigen, dass einer der Vorteile der Verwendung von molekularen Magneten als Qubits darin besteht, dass Freiheitsgrade verwendet werden können, die robuster gegen Dekohärenz sind als in traditionelleren Qubits. Wir diskutieren kurz die Vorbereitung und das Auslesen von Qubit-Zuständen. Schließlich diskutieren wir einen Vorschlag, den Grover-Algorithmus mit molekularen Magneten zu implementieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40609-6_11 3326b053cc073517396434acf11b90f2;de;;;1.1.;;;Einige Stufen der Informationsverarbeitung in einer Auswahlreaktionszeitaufgabe Der Zweck des vorliegenden Experiments bestand darin, den seriellen Charakter der Informationsverarbeitung zu demonstrieren, indem Phasen aufgedeckt wurden, die zwischen einem Reiz und einer Wahlreaktion eingreifen. Drei Variablen wurden in einer Auswahl-Reaktionszeit-Aufgabe mit 12 weiblichen Ss manipuliert: Stimulusqualität, Art der Übereinstimmung zwischen Testreiz und Alternativen und Anzahl der alternativen Stimuli. Alle drei Variablen hatten signifikante Auswirkungen auf die mittlere Reaktionszeit. Die einzige signifikante Wechselwirkung bestand zwischen der Art der Übereinstimmung und der Anzahl der Alternativen, und diese war von geringer Größenordnung. Die Ergebnisse deuteten auf die Existenz von mindestens zwei additiven Verarbeitungsstufen hin, von denen eine von der Stimulusqualität und eine sowohl von der Art der Übereinstimmung als auch von der Anzahl der Alternativen beeinflusst wird.;-;-;-;https://link.springer.com/article/10.3758/BF03207232 385d2828199344c0409ea7805dacc8db;de;;;1.1.;;;Cholinerge Modulation der Geschwindigkeit der frühen Informationsverarbeitung: die Wirkung von Donepezil auf die Inspektionszeit Es wurde gezeigt, dass selektive cholinerge Rezeptoragonisten und -antagonisten die Inspektionszeit modulieren, ein Maß für die Geschwindigkeit der frühen Informationsverarbeitung.;-;-;-;https://link.springer.com/article/10.1007/s002130100753 6a984b901c8920a7a9633f7b5de795fb;de;;;1.1.;;;Der Informationskreislauf und biologisches Informationsmanagement Die selbstreferenzielle Bewertung von Informationen charakterisiert Zellen aller Art, seien es prokaryontische Bakterien oder einzelne eukaryontische Zellen (Shapiro 2011, Trewavas und Baluška 2011, Miller 2013). Die Art und Weise, wie zelluläre Organismen Informationen abrufen, bewerten und einsetzen, um die Homöostase aufrechtzuerhalten oder mit anderen Organismen zu kommunizieren, vereint also eindeutig die Organisationsstruktur aller lebenden Organismen (Trewavas und Baluška 2011, Gamow 1955). Daraus folgt, dass es sich um verbundene und komplexe Handlungen handelt, die einer systematischen Ordnung bedürfen. Es ist also klar, dass jede solche Ordnungsfunktion unter der Kontrolle einer Form systematischen Informationsmanagements stehen muss. Jeder Aspekt des zellularen Lebens ist auf Informationsbewertung und Zell-Zell-Kommunikation ausgerichtet, um das homöostatische Gleichgewicht zu unterstützen. Es kann behauptet werden, dass die hervorragende Koordination, die Zellen bei diesen Aufgaben aufweisen, das Vorhandensein eines Informationsmanagementapparats erfordert (Miller 2017, Miller et al. 2019).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-38133-2_7 ed91e2ae460b831e33cb4dcf6e6dabd5;de;;;1.1.;;;Autoritarismus und Informationsverarbeitung Vorhergesagte Zusammenhänge zwischen Medienpräferenz und Autoritarismus wurden aus theoretischen und experimentellen Studien abgeleitet. Es wurde die Hypothese aufgestellt, dass Autoritäre ihren bevorzugten Medienquellen eher Glauben schenken als Nichtautoritäre, und dass die Position der Autoritären zu politischen Themen näher an der Position positiv bewerteter Medien, aber weiter entfernt von der Position negativ bewerteter Medien wäre. Ergebnisse aus Mail-Fragebögen von 445 Erwachsenen aus Detroit unterstützten die Hypothesen. Zwangsgewalt war auch stark mit Autoritarismus verbunden, wenn die Medien als nicht mit den Ansichten wichtiger politischer Führer übereinstimmend beschrieben wurden.;-;-;-;https://link.springer.com/article/10.3758/BF03335070 7b5bcf4532b012a4aa626c4f814cfd81;de;;;1.1.;;;Über Beziehungen zwischen wahrnehmungsbezogenen und kognitiven Maßen der Informationsverarbeitung Tests der visuellen Informationsverarbeitung und der verbalen Informationsverarbeitung wurden an 178 Ss durchgeführt. Interkorrelationen zeigten geringe positive Beziehungen zwischen zwei Sätzen von jeweils zwei kognitiven Maßen, dem Sentence Completion Test (Schroder, Driver & Streufert, 1967) und dem Interpersonal Topical Inventory (Tuckman, 1965) und dem Interpersonal Topical Inventory und der Polarity Scale (1965 ) und eine hohe negative Korrelation zwischen der Präferenz für hochkomplexe und für mittelkomplexe visuelle Reize. Die Faktorenanalyse zeigte drei zuverlässige Hauptfaktoren. Es gab kaum Hinweise auf einen Zusammenhang zwischen Wahrnehmungs- und kognitiven Verarbeitungsmerkmalen, was auf eine gewisse Gefahr für allgemeine Theoretiker hindeutet.;-;-;-;https://link.springer.com/article/10.3758/BF03210674 2b3059ad1f8f7cbb06ce9896fee35d45;de;;;1.1.;;;Kurzbericht: Gemeinsame Aufmerksamkeit und Informationsverarbeitung bei Kindern mit höher funktionierenden Autismus-Spektrum-Störungen Die Theorie legt nahe, dass die Informationsverarbeitung während der gemeinsamen Aufmerksamkeit bei Kindern mit Autismus-Spektrum-Störung (ASS) atypisch sein kann. Diese Hypothese wurde in einer Studie mit Kindern im Schulalter mit höher funktionierender ASS und Gruppen von Kindern mit Symptomen von ADHS oder typischer Entwicklung getestet. Die Ergebnisse zeigten, dass die Kontrollgruppen ein signifikant besseres Erkennungsgedächtnis für Bilder zeigten, die in einer initiierenden gemeinsamen Aufmerksamkeit (IJA) untersucht wurden, anstatt auf eine gemeinsame Aufmerksamkeit (RJA) zu reagieren. Dieser Effekt war in der ASD-Gruppe nicht offensichtlich. Die ASD-Gruppe erkannte auch weniger Bilder vom IJA-Zustand als die Kontrollen, nicht aber den RJA-Zustand. Eine atypische Informationsverarbeitung kann ein Hinweis auf die anhaltenden Auswirkungen einer gemeinsamen Aufmerksamkeitsstörung bei Kindern im Schulalter mit ASS sein.;-;-;-;https://link.springer.com/article/10.1007/s10803-016-2785-6 cae8c5ba962a6457219f47e5cceefffa;de;;;1.1.;;;Informationsverarbeitung in Bilingualen: Einige ausgewählte Themen Fragen einiger Wahrnehmungs-, Aufmerksamkeits- und Gedächtnisprozesse bei Bilingualen werden überprüft und im Hinblick auf die Sprachdominanz und die Interaktion zwischen den Sprachsystemen der Bilingualen diskutiert. Der erste Teil des Papiers konzentriert sich auf die Geschwindigkeit grundlegender Decodierungs- und Codierungsvorgänge: Die Geschwindigkeit („Automatizität“) der Verarbeitung wird als ein wesentlicher Faktor für die Sprachdominanz angesehen. Es zeigt sich, dass die Wahrnehmungs- und Probengeschwindigkeit durch die verdeckte Aussprechbarkeit von Wörtern beeinflusst wird, die für die schwächere Sprache des Zweisprachigen typischerweise schlechter ist. Faktoren, die kurzfristige Veränderungen in der Beziehung zwischen den Sprachen der unausgeglichenen Zweisprachigkeit verursachen, werden dann berücksichtigt: hohe Informationslast, Rauschen, schnelles Umschalten und „Sprachset“. Es wird angenommen, dass Lärm die Sprachdominanz durch zwei Mechanismen verstärkt: die Maskierung der inneren Sprache und erhöhte Erregung. Der zweite Teil der Arbeit konzentriert sich hauptsächlich auf die Interaktion zwischen den Sprachsystemen der Zweisprachigkeit. Die Frage der Sprachunabhängigkeit/Interdependenz wird durch eine Aufgabe mit paralleler Kodierung und Dekodierung veranschaulicht, es wird gezeigt, dass der als automatisch geltende „Eingabeschalter“ Informationen nach Sprache auswählen kann. Experimente zum Gedächtnis werden unter Bezugnahme auf die beiden Hauptmodelle zweisprachiger Speichersysteme kommentiert: die Common-Store-Hypothese und die Separate-Stores-Hypothese. Während die meisten experimentellen Daten die erstere eindeutig unterstützen, wird argumentiert, dass je nach Aufgabenanforderung sowohl eine sprachspezifische als auch eine sprachfreie Speicherung stattfindet. Anschließend wird die Problematik des Behaltens von Sprachinformationen zusammen mit Item-Informationen bei verbalen Lernaufgaben diskutiert: Neben den spezifischen Aufgabenanforderungen (z. B. Aussagekraft) scheint hier die Aufbewahrungszeit ein entscheidender Faktor zu sein. Es wird ein Modell der zweisprachigen Gedächtnisspeicherung vorgeschlagen, das die beiden Extremmodelle (d. h. das „gemeinsame“ und das „getrennte“) kombiniert. Das Modell geht davon aus, dass das Arbeitsgedächtnis in Bezug auf den sprachfreien und den sprachspezifischen Speicher eine unterschiedliche Rolle spielt. Schließlich wird auf einige Probleme beim Gebrauch von mehr als einer Sprache im Prozess des verbalen Lernens hingewiesen.;-;-;-;https://link.springer.com/article/10.1007/BF00309415 d88c52089801810fe489acf9f45fe162;de;;;1.1.;;;Informationsverarbeitungsdefizite und Stickstoffmonoxid-Signalgebung im Phencyclidin-Modell der Schizophrenie Schizophrenie-ähnliche kognitive Defizite, die durch Phencyclidin (PCP), ein Medikament, das häufig zur Modellierung von Schizophrenie bei Versuchstieren verwendet wird, induziert werden, werden durch Stickstoffmonoxid (NO)-Synthase-Hemmer abgeschwächt. Darüber hinaus erhöht PCP die NO-Spiegel und die sGC/cGMP-Signalgebung im präfrontalen Kortex bei Nagetieren. Daher könnte ein kortikaler NO/sGC/cGMP-Signalweg ein Ziel für neue pharmakologische Therapien bei Schizophrenie darstellen.;-;-;-;https://link.springer.com/article/10.1007/s00213-010-1992-7 c4fd06e210d02c71b3d732a6bedddabd;de;;;1.1.;;;Ein unscharfes Informationsverarbeitungssystem für seismische Daten Wir haben ein arbeitsplatzgestütztes Informationsverarbeitungssystem entwickelt. Das System hat drei Hauptfunktionen: Informationsbeschaffung aus seismischen Daten, Erkennung von Erdbebenvorläufern und grafische Darstellung relevanter Ergebnisse. Unscharfe ist unweigerlich an diesen Funktionen beteiligt, deren adäquate Behandlung von entscheidender Bedeutung ist. Das System akzeptiert Anweisungen, die durch eine sukzessive Wortwahl in hierarchischer Struktur gegeben werden, gefolgt von einer Abstimmung der entsprechenden Zugehörigkeitsfunktion. Die Unschärfegrade in den Ausgängen werden visuell, beispielsweise durch Einfärbung, erkannt. Diese Einrichtung zusammen mit dem dynamischen Datenaustausch zwischen den obigen Funktionen erleichtert den Betrieb des Systems.;-;-;-;https://link.springer.com/article/10.1007/BF02651817 1d1870e1a5a70f54552eb0a719c9b3c6;de;;;1.1.;;;Informationsverarbeitung – warum und wie? Der erste Eintrag oben impliziert, dass der Zweck eines Computers darin besteht, Operationen auszuführen, mit einem starken Hinweis darauf, dass diese Operationen wahrscheinlich mathematischer Natur sind. In der Tat,;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-08039-7_1 e86e25c83b87b8279af1be3f39715342;de;;;1.1.;;;Informationsverarbeitung durch Systeme mit chemischer Kommunikation Das Ziel dieser Arbeit ist zu zeigen, dass große Populationen von biologischen Zellen oder Makroorganismen, die nur chemisch kommunizieren, in der Lage sind, die grundlegenden Funktionen der analogen Informationsverarbeitung zu erfüllen. Konkret konstruiere ich zwei hypothetische Modelle von Systemen mit chemischer Kommunikation, die die Eigenschaft des assoziativen Gedächtnisses besitzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-76877-4_23 6fb4259cfd7b32df5e29b712e7bb8eca;de;;;1.1.;;;Passive polarimetrische Informationsverarbeitung zur Zielklassifizierung Polarimetrische Sensorik ist ein Bereich aktiver Forschung in einer Vielzahl von Anwendungen. Insbesondere hat sich gezeigt, dass die Verwendung von Polarisationsdiversität die Leistung bei der automatischen Zielerfassung und -erkennung verbessert. Innerhalb der vielfältigen Bereiche der polarimetrischen Sensorik ist das Gebiet der passiven polarimetrischen Sensorik von besonderem Interesse. In diesem Kapitel werden mehrere neue Methoden zum Sammeln von Informationen mit solchen passiven Techniken vorgestellt. Eine Methode extrahiert dreidimensionale (3D) Informationen und Oberflächeneigenschaften unter Verwendung eines oder mehrerer Sensoren. Ein anderes Verfahren extrahiert szenenspezifische algebraische Ausdrücke, die bei Polarisationstransformationen (wie beispielsweise entlang des Übertragungsweges zum Sensor) unverändert bleiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84800-277-7_2 8d06fa383b42b3e5b09d278980621ce7;de;;;1.1.;;;Verlagerung der Aufmerksamkeit von der internen auf die externe Informationsverarbeitung: Eine Überprüfung der Literatur und empirische Unterstützung des Ressourcenteilungskontos Trotz ihrer Allgegenwart ist derzeit noch nicht viel über kognitive Prozesse bekannt, die an flexiblen Aufmerksamkeitsverschiebungen zwischen externen und internen Informationen beteiligt sind. Ein wichtiges Modell in der Literatur zum Aufgabenwechsel, das als Blaupause für Aufmerksamkeitsflexibilität dienen kann, besagt, dass Wechselkosten der Zeit entsprechen, die ein serieller Kontrollmechanismus benötigt, um eine begrenzte Ressource aus dem vorherigen Aufgabenkontext in den aktuellen umzuschichten. Um Vorhersagen aus diesem Modell zu formulieren, wenn es auf einen Wechsel zwischen wahrnehmungsbezogener Aufmerksamkeit (externe Komponente) und Arbeitsgedächtnis (WM, interne Komponente) angewendet wird, müssen wir zunächst feststellen, ob ein einzelner, serieller Kontrollmechanismus vorhanden ist und anschließend, ob eine begrenzte Ressource wird zwischen ihnen geteilt. Nach einer Durchsicht der Literatur sagten wir voraus, dass die Kosten für den Wechsel zwischen den Domänen zu beachten sind und seine Größe im Vergleich zu den standardmäßigen Wechselkosten innerhalb der Domäne entweder ähnlich oder reduziert sein sollte. Diese beiden letztgenannten Vorhersagen leiten sich aus einem gemeinsamen Ressourcenkonto zwischen externer und interner Aufmerksamkeit bzw. teilweiser Unabhängigkeit zwischen ihnen ab. In einer zweiten Phase stellen wir diese gegensätzlichen Vorhersagen in vier aufeinanderfolgenden Verhaltensexperimenten mit Hilfe eines neuen Paradigmas auf die Probe, das geeignet ist, direkt zwischen- (intern nach extern) und innerhalb- (extern nach extern) Domänenwechselkosten zu vergleichen. Über sie hinweg haben wir die Existenz zuverlässiger Switching-Kosten zwischen Domänen nachgewiesen, deren Größenordnung denen innerhalb der Domäne ähnlich war, und unterstützten damit das Ressourcenteilungskonto.;-;-;-;https://link.springer.com/article/10.3758/s13423-019-01568-y eacaba30ecff7525ab93003b8ef56841;de;;;1.1.;;;Ein Informationsverarbeitungsmodell für die Intervention Veränderung ist Ausdruck von Kontrast, eine konzeptionelle Figur, die aus dem Boden ihres unveränderlichen Gegenstücks herausgearbeitet wurde (Mahoney, 1987). Jede Theorie des menschlichen Wandels muss sich daher mit der komplexen Dynamik von Wandel und Stabilisierung auseinandersetzen, wobei die aktive Rolle des Menschen bei der Gestaltung seines Lebens durch Experimente berücksichtigt werden muss, aber auch die individuelle Struktur der Person berücksichtigt werden muss, die einen großen Einfluss auf die menschliche Fähigkeit oder Bedürfnis nach Veränderung. Dieses Paradigma des Wandels erscheint umso relevanter für behinderte Menschen, die in ihrem Umgang mit der Umwelt oft als passiv charakterisiert wurden und deren Veränderungsfähigkeit eine Funktion der Grenzen ihrer Behinderung zu sein scheint.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-9006-0_1 9ba3dc18eae8eea4afe0ff4c68d9a7a7;de;;;1.1.;;;Nützlichkeit von Multiqubit-W-Typ-Zuständen in der Quanteninformationsverarbeitung Wir analysieren die Effizienz von Multiqubit-W-Typ-Zuständen als Ressourcen für Quanteninformationen. Dazu identifizieren und verallgemeinern wir Vier-Qubit-W-Typ-Zustände. Unsere Ergebnisse zeigen, dass diese Zustände als Ressourcen für die deterministische Quanteninformationsverarbeitung genutzt werden können. Der Nutzen der Ergebnisse wird jedoch durch die Verfügbarkeit experimenteller Aufbauten zur Durchführung und Unterscheidung von Multiqubit-Messungen begrenzt. Wir betonen daher Protokolle, bei denen zwei Benutzer eine optimale bipartite Verschränkung unter Verwendung der teilweise verschränkten W-Typ-Zustände herstellen möchten. Wir finden, dass für solche praktischen Zwecke Vier-Qubit-W-Typ-Zustände im Vergleich zu Drei-Qubit-W-Typ-Zuständen eine bessere Ressource sein können. Für ein dichtes Codierungsprotokoll können unsere Zustände deterministisch verwendet werden, um zwei Bits einer klassischen Nachricht zu senden, indem ein einzelnes Qubit lokal manipuliert wird. Darüber hinaus schlagen wir auch eine realistische experimentelle Methode vor, um die Vier-Qubit-W-Typ-Zustände mit standardisierten unitären Operationen und schwachen Messungen vorzubereiten.;-;-;-;https://link.springer.com/article/10.1134/S1063776116110200 d79ad3333e6e956adfce1e8e506882cf;de;;;1.1.;;;Neue Entwicklungen in der Entwicklungsforschung zu sozialer Informationsverarbeitung und antisozialem Verhalten Hier wird der Sonderteil zur Entwicklungsforschung zur sozialen Informationsverarbeitung (SIP) und zu antisozialem Verhalten eingeführt. Nach einer kurzen Geschichte der SIP-Theorie werden Kommentare zu verschiedenen Themen – Messung und Bewertung, Attributions- und Interpretationsstil, Reaktionsbewertung und -entscheidung sowie die Beziehung zwischen Emotion und SIP – gegeben, die vier neue empirische Untersuchungen miteinander verbinden. Bemerkenswerte Beiträge dieser Studien werden hervorgehoben.;-;-;-;https://link.springer.com/article/10.1007/s10802-010-9400-7 48a11f88235aa66a11c32a5256283990;de;;;1.1.;;;Informationsverarbeitung in gedächtnisgesteuerten Sakkaden mit langer Verzögerung: weitere Erkenntnisse aus TMS Die Leistung von gedächtnisgesteuerten Sakkaden mit zwei unterschiedlichen Verzögerungen (3 s und 30 s Gedächtnis) wurde bei acht Probanden untersucht. Transkranielle Magnetstimulation (TMS) mit Einzelpuls wurde gleichzeitig über den linken und rechten dorsolateralen präfrontalen Kortex (DLPFC) 1 s nach Zielpräsentation angewendet. Bei beiden Verzögerungen erhöhte die Stimulation den Prozentsatz des Fehlers in der Amplitude der gedächtnisgesteuerten Sakkaden signifikant. Darüber hinaus war die störende Wirkung von TMS bei der kurzen Verzögerung signifikant höher als bei der langen Verzögerung. Die Ergebnisse werden im Kontext eines gemischten Modells der räumlichen Arbeitsgedächtnissteuerung diskutiert, das zwei Komponenten umfasst: Erstens eine serielle Informationsverarbeitung mit einer vorherrschenden Rolle des DLPFC in der frühen Gedächtnisphase und zweitens eine parallele Informationsverarbeitung, die unabhängig von die DLPFC, die während längerer Verzögerungen arbeitet.;-;-;-;https://link.springer.com/article/10.1007/s00221-003-1663-6 29629c02bfa9c53def7fb5c23909b18f;de;;;1.1.;;;Konkurrenz zwischen Feed-Forward und lateraler Informationsverarbeitung in geschichteten neuronalen Netzen Wir verwenden die Replikationstheorie, um geschichtete Netzwerke von binären Neuronen zu analysieren, mit lateralen Hebbian-Typ-Synapsen innerhalb einzelner Schichten, in Kombination mit strikt vorwärtsgekoppelten Hebbian-Typ-Synapsen zwischen aufeinanderfolgenden Schichten. Die Konkurrenz zwischen zwei qualitativ unterschiedlichen Betriebsmodi, Feed-Forward versus Lateral, führt zu interessanten Übergängen und ermöglicht die Identifizierung eines optimalen Wertes für das Gleichgewicht zwischen den beiden Synapsentypen.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0032483 ecfe61fe2ee4872f4cbc248484bab5f6;de;;;1.1.;;;Quanteninformationsverarbeitung durch NMR Kernspinresonanz (NMR) ist eine praktische Testumgebung zum Studium der Grundlagen der Quanteninformation. Hier geben wir einen kurzen Überblick über die Konzepte und Methoden der NMR-Quanteninformationsverarbeitung.;-;-;-;https://link.springer.com/article/10.1007/s12045-015-0273-5 4cfb38dcf7927545c0f6094cd30c0307;de;;;1.1.;;;Ionenfallen für die Quanteninformationsverarbeitung In diesem Artikel haben wir die jüngsten Fortschritte beim Ionenfallen für die Quanteninformationsverarbeitung und Quantenberechnung besprochen. Wir haben zuerst das Grundprinzip der Quanteninformationstheorie diskutiert und uns dann auf das Ionenfallen für die Quanteninformationsverarbeitung konzentriert. Viele Variationen, insbesondere die Techniken von Ionenchips, wurden untersucht, seit das ursprüngliche Ionenfallen-Quantenberechnungsschema vorgeschlagen wurde. Die vollständige zweidimensionale Kontrolle mehrerer Ionen auf einem Ionenchip ist vielversprechend für die Realisierung skalierbarer Ionenfallen-Quantenberechnungen und die Implementierung von Quantennetzwerken.;-;-;-;https://link.springer.com/article/10.1007/s11467-007-0059-7 0898bd3ba08c6deb48c41f8361dc4e5b;de;;;1.1.;;;Rektale Tonus- und Gehirninformationsverarbeitung beim Reizdarmsyndrom Wir untersuchten Unterschiede im rektalen Tonus zwischen gesunden Kontrollpersonen, nicht-psychiatrischen Patienten mit Reizdarmsyndrom (RDS) und RDS-Patienten mit komorbiden phobischen Angststörungen, um den Einfluss psychiatrischer Komorbidität auf den rektalen Tonus zu beurteilen. Die Gruppen wurden zusätzlich hinsichtlich der Gehirninformationsverarbeitung alltäglicher Wörter mit emotionalem Inhalt verglichen, um zu sehen, ob wir einen Zusammenhang zwischen der Wahrnehmung von emotionalem Material im Gehirn und dem rektalen Tonus identifizieren konnten. Wir fanden heraus, dass sowohl nicht-psychiatrische RDS-Patienten als auch RDS-Patienten mit phobischer Angststörung im Vergleich zu gesunden Kontrollen einen erhöhten Rektaltonus hatten;-;-;-;https://link.springer.com/article/10.1023/A%3A1005550002622 ab04a29990018b7e8794c78bd1616e45;de;;;1.1.;;;Automatische emotionale Informationsverarbeitung und die Cortisol-Reaktion auf akuten psychosozialen Stress Aufmerksamkeitsverschiebung kann ein Mittel zur Regulierung der Stressreaktion darstellen. Zuvor war die automatische Verarbeitung emotionaler Informationen eine Vorhersage für nachfolgende Cortisolspiegel während eines wiederholten Verluststressors (Ellenbogen, Schwartzman, Stewart & Walker, 2006). Die Stressinduktion führte jedoch nicht zu einem substantiellen Cortisolanstieg. Daher versuchten wir, dieses Ergebnis mit dem Trier Social Stress Test (TSST), einer validierten psychosozialen Stressinduktion, zu replizieren. Neunundsiebzig Studenten führten während des TSST (;-;-;-;https://link.springer.com/article/10.3758/CABN.10.1.71 37af1bf920b8f5c0a59341a201b0bbcc;de;;;1.1.;;;Auf dem Weg zu einer Theorie der Informationsverarbeitung im auditiven Kortex Das primäre Ziel der Hörwissenschaft ist es, einen vollständigen Überblick darüber zu geben, wie Menschen und Tiere Geräusche aller Art hören: Geräusche des täglichen Lebens, Umgebungsgeräusche, Sprache und Musik. Es braucht eine umfassende, neural fundierte Hörtheorie, die genau erklärt, wie wir hören, was wir hören. Dieses Kapitel diskutiert die kortikale Funktion im Kontext einer solchen Theorie. Die erste Hälfte des Kapitels (Abschnitte 13.2 und 13.3) skizziert die Grundstruktur des Hörens (was erklärt werden soll) und die verschiedenen Aspekte der neuronalen Informationsverarbeitung, die für eine adäquate Erklärung der Hörfunktion benötigt werden (die Begriffe der Erklärungen). Die zweite Hälfte (Abschnitt 13.4) listet einige der grundlegenden noch offenen experimentellen und theoretischen Probleme auf, die gelöst werden müssen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-2314-0_13 a914c43304f2200dbf2014ff741c341c;de;;;1.1.;;;Verarbeitung von Host-Cue-Informationen durch Nahrungssuche nach Juwelenwespen: Response-Bias-Tracking der erwarteten Host-Begegnungsraten, nicht modifizierte Rentabilität Dreihundertvierzig weibliche Juwelenwespen wurden als Larven auf Schmeißfliegenpuppen aufgezogen und dann separat als Erwachsene einer unterschiedlichen Anzahl und Kombination von zuvor parasitierten und nicht parasitierten Stubenfliegenpuppen ausgesetzt. Jeder Erwachsene wurde mit 6 frischen Stubenfliegenpuppen getestet. Nur die Erfahrung bei der Nahrungssuche an nicht parasitierten Stubenfliegenpuppen erhöhte die Wirtsakzeptanz für nachfolgende Stubenfliegenpuppen und erzeugte krummlinige und konvexe Wirtsakzeptanzfunktionen. Die Akzeptanzschwellen für labile Wirte werden daher durch die Erfahrung bei der Nahrungssuche angepasst, um die lokale Häufigkeit von nicht parasitierten Wirten für verschiedene Arten zu verfolgen, indem die Wirtsarten-Signalreaktionsfehler moduliert werden. Es wurde festgestellt, dass diese vermutlich kairomonalen Reaktionsverzerrungen empfindlich auf psychophysische „subjektive Wahrscheinlichkeiten der Reizpräsentation“ reagieren, die erwartete Begegnungsraten von nicht parasitierten Wirtsarten darstellen, nicht veränderte „Auszahlungsmatrizen“ von „Beobachterentscheidungsergebnissen“, die modifizierte Wirtsarten darstellen. Rentabilität der Arten.;-;-;-;https://link.springer.com/article/10.3758/BF03337805 47b831003816989eb8b96792c24544b1;de;;;1.1.;;;Verwendung von Angstappellen in Warnhinweisen, um verantwortungsbewusstes Spielen bei VLT-Spielern zu fördern: Die Schlüsselrolle der Tiefe der Informationsverarbeitung Video-Lotterie-Terminals (VLT) sind ein sehr lukratives Glücksspielformat, aber gleichzeitig gehören sie zu den gefährlichsten. Frühere Forschungen haben gezeigt, dass drohende Warnungen ein geeigneter Ansatz sein können, um Schutzverhalten zu fördern. Die vorliegende Studie untersucht die potenziellen Vorteile von drohenden Warnungen im Kampf gegen Spielsucht. Ein 4 × 2-faktorielles Designexperiment wurde verwendet, um unser Modell basierend auf beiden zu testen;-;-;-;https://link.springer.com/article/10.1007/s10899-010-9182-4 18ed90ddada33d3881d5127a32e69d94;de;;;1.1.;;;Informationsverarbeitungsverhalten von feldabhängigen/feldunabhängigen Lernenden in einer impliziten Lernaufgabe: Nachweise von iranischen EFL-Lernenden Die vorliegende Forschung zielte darauf ab, zu untersuchen, wie feldabhängige und feldunabhängige Lernende Informationen wahrnahmen und verarbeiteten, wenn sie mit einer impliziten Fremdsprachenlernaufgabe beschäftigt waren, und Unterschiede zwischen ihnen in dieser Hinsicht zu untersuchen. Die Mehrzahl der Studien in der einschlägigen Literatur hat bisher quantitative Methoden verwendet. In der vorliegenden Studie wurden jedoch drei qualitative Datenerhebungstechniken verwendet, nämlich retrospektive Think-Aloud-Methode, Tests des episodischen Gedächtnisses und Interviews, um ein besseres Verständnis der Strategien und Leistungen feldabhängiger und feldunabhängiger Lernender in verschiedenen Informationsstadien zu erlangen wird bearbeitet. An dieser Studie nahmen zwölf iranische fachunabhängige und fachabhängige Sprachlerner der Mittelstufe teil. Die Ergebnisse zeigten, dass die feldunabhängigen Lernenden ihre Aufmerksamkeitsressourcen effizienter auf das sensorische Gedächtnis lenken und neue Informationen in ihrem Arbeitsgedächtnis kodieren und speichern. Daher können sie die Informationen aus ihrem Kurz- und Langzeitgedächtnis effizienter abrufen und abrufen. Einige pädagogische Implikationen werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s10936-020-09712-9 cd9b29c3640b465ac062b2d17fae3e33;de;;;1.1.;;;Marker von ereignisbezogenen potentiellen Subkomponenten und Reaktionszeit für Informationsverarbeitungsstörungen bei Schizophrenie Ereignisbezogene Potenziale (ERPs) können als Marker für kognitive Verarbeitungsstufen dienen. Die Identifizierung dieser bei Schizophrenie veränderten ERPs bietet Informationen über kognitive Dysfunktion. Bei 35 schizophrenen Patienten wurden akustisch evozierte Potentiale (AEPs) in einem seltsamen Paradigma ermittelt und mit 35 gesunden Kontrollpersonen verglichen. N100 und P200 sowie N200, frontale P300 und parietale P300 Unterkomponenten wurden mittels Dipolquellenanalyse getrennt. Die bei Schizophrenen gemessenen Amplituden des N100 und des parietalen P300 waren vermindert. Die inputbezogenen Verarbeitungsstufen (N100 und P200) wurden nicht verändert, wohingegen später die abweichenden und aufgabenbezogenen Prozesse (N200, frontal P300, parietal P300 und Reaktionszeit) bei Schizophrenie signifikant verlängert wurden.;-;-;-;https://link.springer.com/article/10.1007/s004060050055 64806ac0bd7c54c0dd62414fdb734bf5;de;;;1.1.;;;Informationsverarbeitung unter hoher und geringer Ablenkung durch Eyetracking Die bisherigen Studien fanden heraus, dass die Unterschiede der Augenbewegungen zwischen systematischer und heuristischer Verarbeitung inkonsistent waren. Um diese Lücke zu schließen, manipulierten wir sowohl systematische als auch heuristische Verarbeitungen (mit hohen vs. geringen Ablenkungen) und die Argumentationsqualität (mit starken vs. schwachen) und maßen sowohl die Augenbewegungen als auch die selbstberichtete Einstellung. Die Ergebnisse legten nahe, dass eine geringe Ablenkung eine größere Differenzierung der Einstellung nach der Nachricht zwischen starken und schwachen Argumenten bewirkte als eine starke Ablenkung, was auf den erfolgreichen Betrieb beider Verarbeitungen hinweist. Noch wichtiger ist, dass eine geringe Ablenkung unabhängig von der Argumentationsqualität mehr Fixationen und kürzere Sakkadenlängen ermöglichte. Es wurden jedoch keine Differenzierungen bezüglich Fixationsdauer, Regressionen und Lesegeschwindigkeit gefunden. Darüber hinaus beeinflusste die Argumentationsqualität die Augenbewegungen, d. h. bei starken Argumenten wurden weniger Fixierung und schnellere Lesegeschwindigkeit festgestellt. Unsere Ergebnisse erklären, warum Ablenkungen die Effizienz der Informationsverarbeitung aus Sicht des Eye-Trackings reduzieren und warum die Ergebnisse der Fixierungsdauer in den vorherigen Studien inkonsistent waren.;-;-;-;https://link.springer.com/article/10.1007/s10339-018-0876-3 2f528154012b0295093dd4f2ff340781;de;;;1.1.;;;Erleichterung der lokalen Informationsverarbeitung im Aufmerksamkeitsblinzeln, indiziert durch die Schusslinienillusion Die Wahrnehmung des zweiten von zwei schnell aufeinanderfolgenden Zielen wird beeinträchtigt, wenn die zeitliche Verzögerung zwischen ihnen relativ kurz ist. Man sagt, dass dieses Aufmerksamkeitsblinzeln (AB) auftritt, weil das erste Ziel Aufmerksamkeitsressourcen beansprucht, was zu einem Mangel an Aufmerksamkeit für das zweite Ziel und anschließendem Versagen bei der Beurteilung des zweiten Ziels führt. In der vorliegenden Studie haben wir untersucht, ob die Aufmerksamkeit, die durch das erste Ziel beschäftigt wird, das gemeinsame Merkmal der räumlichen Aufmerksamkeit trägt, nämlich die lokale Erleichterung der Informationsverarbeitung. Um die Erleichterung zu indizieren, präsentierten wir eine aufmerksamkeitsempfindliche Sonde, die als Schusslinien-Illusion bekannt ist, bei der Beobachter eine progressiv gezogene Linie vom überwachten Ende zum anderen sehen. Wir fanden heraus, dass illusorische Bewegung von dem Ende ausgeht, an dem das erste Ziel präsentiert wurde. Dieses Ergebnis zeigt die inhärent räumliche Natur der Aufmerksamkeit, auch wenn sie durch zeitliche und symbolische Variablen definiert wird.;-;-;-;https://link.springer.com/article/10.1007/s00426-001-0084-z e8fc1b29f06f63c7cae9cac1505b1719;de;;;1.1.;;;Biologische Informationsverarbeitung mit dem Konzept interpenetrierender Domänen Bei jeder sinnvollen Diskussion über die Informationsverarbeitung im Nervensystem wird es unweigerlich Aspekte der Theorie, der experimentellen Daten oder des Experiments und der letztendlichen Anwendung geben. Fast ausnahmslos werden wir jedoch ohne bewussten Plan das Informationssystem, in dem wir das Problem diskutieren, so einstellen, dass es in allen Aspekten außer dem, was wir in unserer Diskussion ausüben, stationär ist. Wir können zum Beispiel eine bestimmte Reihe experimenteller Fakten nehmen und versuchen, sie in einen bestehenden theoretischen Rahmen einzufügen, oder wir können eine neue Reihe von Experimenten planen, um eine etablierte oder neu formulierte theoretische Idee zu testen. Alternativ können wir experimentelles Wissen verwenden, das in Form verfügbarer theoretischer Formulierungen formuliert ist, um eine neue Labortechnik zu entwickeln oder einen „nützlichen“ sozialen oder wirtschaftlichen Zweck zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-87086-6_18 7873d6ddfbe2f0823c65c31c2a3414d4;de;;;1.1.;;;Langsame Informationsverarbeitung und Einsatz kompensatorischer Strategien Schwere traumatische Kopfverletzungen führen zu verschiedenen Defiziten, die sich nicht vollständig auflösen. Eines dieser allgegenwärtigen kognitiven Defizite ist die langsame Informationsverarbeitung [1,2]. Für den Kopfverletzten bedeutet dies, dass viele Aktivitäten des täglichen Lebens mit dem Gefühl ausgeführt werden, nicht genügend Zeit zum Denken und Handeln zu haben. Als Folge klagen Patienten mit traumatischen Hirnläsionen häufig darüber, dass diese Aktivitäten unangenehm und anstrengend werden [3]. Objektiver betrachtet betrifft die langsame Informationsverarbeitung nach Schädel-Hirn-Trauma alle Stufen der Informationsverarbeitungskette, so dass in den meisten Fällen von einer „allgemeinen mentalen Langsamkeit“ gesprochen werden kann [2,4].;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-2871-9_11 04d2404f205f7e186672e51a8c15e7d3;de;;;1.1.;;;Quanteninformationsverarbeitung in selbstorganisierten Kristallen kalter polarer Moleküle Wir diskutieren die Implementierung von Quantengatter-Operationen in einem selbstorganisierten dipolaren Kristall polarer Moleküle. Hier werden Qubits in langlebige Spinzustände des molekularen Grundzustands kodiert und durch abstoßende Dipol-Dipol-Wechselwirkungen gegen Stöße stabilisiert. Um das Problem der Single-Site-Adressierbarkeit in dieser hochdichten kristallinen Phase zu überwinden, beschreiben wir einen neuen Ansatz zur Implementierung kontrollierter Ein- und Zwei-Qubit-Operationen basierend auf resonant verstärkten Spin-Spin-Wechselwirkungen, die durch einen lokalisierten Phononenmodus vermittelt werden. Dieser lokale Modus wird mit Hilfe eines zusätzlichen Markermoleküls an einer bestimmten Gitterposition erzeugt, so dass einzelne Qubits nur mit sonst globalen statischen und Mikrowellenfeldern manipuliert werden können. Wir präsentieren eine allgemeine Strategie zur Generierung zustands- und zeitabhängiger Dipolmomente, um einen universellen Satz von Gate-Operationen für molekulare Qubits zu implementieren und analysieren die resultierenden Gate-Genauigkeiten unter realistischen Bedingungen. Unsere Analyse zeigt die experimentelle Machbarkeit dieses Ansatzes für skalierbare Quantencomputer oder digitale Quantensimulationsschemata mit polaren Molekülen.;-;-;-;https://link.springer.com/article/10.1007/s11128-011-0301-7 9f31cd704b366bce6480c9e4a0574b00;de;;;1.1.;;;Besonderheiten der Informationsverarbeitung im Gehirn bei Personen mit verschiedenen Serotonin-Transporter-Genvarianten Die Assoziation von Gehirnprozessen, die vermutlich der Aggression zugrunde liegen, mit dem Serotonintransporter-Gen-Polymorphismus bei Männern wurde untersucht. Träger einer aktiveren Genvariante sind durch einen höheren Aggressionsindex, eine erhöhte Komponente der Negativität der potentiellen Fehlpaarung des Gehirns, die für die automatische Differenzerkennung verantwortlich ist, und eine verringerte P300-Komponente gekennzeichnet, die unfreiwillige Aufmerksamkeit und kognitive Kontrolle kennzeichnet.;-;-;-;https://link.springer.com/article/10.1007/s10517-010-0803-9 71f11c51c91008bb230ee9b92ffddccf;de;;;1.1.;;;Eine Aufschlüsselung in der simultanen Informationsverarbeitung Die Fähigkeit, nützliche Informationen aus zwei überlagerten visuellen Informationsquellen gleichzeitig genau zu erfassen, zu erkennen und zu extrahieren, ist sowohl von theoretischem als auch praktischem Interesse. Die wissenschaftliche Literatur in Bereichen wie der Psychologie von Aufmerksamkeitsprozessen, kognitiver Verarbeitung, sensorischer Kanalkapazität und anderen Bereichen enthält zahlreiche solcher Studien. Zu ihnen zählen die frühe Hörwahrnehmungsforschung von Broadbent (1952, 1958), in der er eine Einkanalfiltertheorie der Informationsverarbeitung vorschlug, Treismans (1960) modifiziertes sequentielles Verarbeitungsmodell mit einem zweistufigen Filter und Deutsch und ) präattentatives Parallelverarbeitungsmodell. Die meisten früheren visuellen Forschungen verwendeten einfache Stimuli (punktförmige Lichtquellen, einfache geometrische Formen usw.). Nichtsdestotrotz erforderte die Wirksamkeit der Informationsübertragung unter Verwendung komplexerer, realer Stimulusfelder weitere Untersuchungen unter dem Gesichtspunkt, die moderne Instrumentierung für den Flug kommerzieller Turbojet-Flugzeuge zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-2131-7_17 39e870f947eaff2040a13f47862faa83;de;;;1.1.;;;Auswirkungen von organisatorischem Lern- und Informationsverarbeitungsverhalten auf den Erfolg neuer Produkte Individuelle Lernkonstrukte wurden in einem organisationalen Lernkontext formuliert und empirisch auf Zusammenhänge mit dem Erfolg neuer Produkte getestet. Es wurde festgestellt, dass zwei Konstrukte, das Aufzeichnen von Informationen und das Abrufen von Informationen, einen positiven Bezug zum Erfolg neuer Produkte haben. Die Relevanz dieser Konstrukte für die organisationale Lerntheorie wird diskutiert, zusammen mit der Implikation, dass Manager vergangene Informationen sorgfältig aufzeichnen und überprüfen sollten, um zukünftige Erfolgsraten neuer Produkte zu verbessern.;-;-;-;https://link.springer.com/article/10.1023/A%3A1007981109972 bbef1d87868e68f2e72ea335ac1d9389;de;;;1.1.;;;Wie depressive Symptome die positive Informationsverarbeitung behindern: Eine experimentelle Studie zum Zusammenspiel von kognitiver Immunisierung und negativer Stimmung im Kontext der Erwartungsanpassung Menschen mit Depression behalten negative Erwartungen bei, obwohl sie positive Erfahrungen widerlegen, indem sie neue positive Informationen neu bewerten oder verwerfen, die als „kognitive Immunisierung“ bezeichnet werden. Eine zweite Literaturstelle legt nahe, dass eine negative Stimmung die Informationsverarbeitung negativ beeinflussen kann. Als Brücke zwischen diesen beiden Forschungsrichtungen untersuchte die vorliegende Studie das Zusammenspiel von kognitiver Immunisierung und negativer Stimmung im Kontext der Erwartungsmodifikation.;-;-;-;https://link.springer.com/article/10.1007/s10608-020-10191-4 98600d418a4ca1b153a161fd84a86a9e;de;;;1.1.;;;Emotionale Empathie im Zusammenhang mit Mimikry-Reaktionen auf verschiedenen Ebenen der Informationsverarbeitung Die Hypothesen dieser Untersuchung basierten auf der Vorstellung von Gesichtsmimikry-Reaktionen in Face-to-Face-Interaktionen als eine frühe automatische Komponente im Prozess der emotionalen Empathie. Unterschiede zwischen Personen mit hoher und niedriger emotionaler Empathie wurden untersucht. Die verglichenen Parameter waren Mimikry-Reaktionen im Gesicht, dargestellt durch elektromyographische (EMG)-Aktivität, wenn Personen Bildern von wütenden oder glücklichen Gesichtern ausgesetzt waren. Die vorliegende Studie unterscheidet zwischen spontanen Mimikreaktionen und Mimik, die mit stärker kontrollierten oder modulierten Emotionen verbunden sind, auf verschiedenen Informationsverarbeitungsebenen, zuerst auf einer präaufmerksamen Ebene und dann konsekutiv auf einer bewusster kontrollierten Ebene: 61 Teilnehmer wurden Bildern zu drei verschiedenen Belichtungszeiten ausgesetzt ( 17, 56 und 2350 ms). Bei kurzen Expositionszeiten (56 ms) zeigte sich ein signifikanter Unterschied in den Gesichtsmimikry-Reaktionen zwischen Teilnehmern mit hoher und niedriger Empathie, die automatische, spontane Reaktionen darstellen, wobei Teilnehmer mit hoher Empathie eine signifikante Nachahmungsreaktion zeigten. Die Teilnehmer mit geringer Empathie zeigten zu keiner Expositionszeit Nachahmung. Im Gegenteil, die wenig empathischen Teilnehmer zeigten als Reaktion auf wütende Gesichter eine Tendenz zu einer erhöhten Aktivierung im Wangenbereich, die oft mit einem Lächeln verbunden ist.;-;-;-;https://link.springer.com/article/10.1023/A%3A1023608506243 62ba99b0e15b67652c8afb08f5559474;de;;;1.1.;;;Alkohol und Secobarbital: Auswirkungen auf die Informationsverarbeitung Die meisten veröffentlichten Berichte über die Auswirkungen von Drogen auf die menschliche Leistungsfähigkeit waren eher empirisch und aufgabenspezifisch als theoretisch konzipiert. Alkohol und Secobarbital verursachen beispielsweise Beeinträchtigungen bei Aufgaben wie der Zeitschätzung (Rutschman & Rubenstein, 1966), der Reaktionszeit (Moskowitz & Roth, 1971, Blum, Stern & Davis, 1969). Alkohol und Barbiturate sind jedoch pharmakologisch nicht identisch, und es ist wichtig herauszufinden, ob ihre ähnlichen Wirkungen auf Laboraufgaben aus einer Beeinträchtigung unterschiedlicher oder derselben kognitiven Prozesse resultieren. Eine Möglichkeit, diese Frage zu beantworten, besteht darin, Arzneimittelwirkungen aus der Perspektive eines Informationsverarbeitungsmodells zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-0632-1_38 11738b68a2fb6d0273160386a932478b;de;;;1.1.;;;Optische Informationsverarbeitung durch den Fabry-Perot-Resonator Eigenschaften des Fabry-Perot-Resonators als Teil eines optischen Abbildungssystems werden aus Sicht der optischen Informationstheorie diskutiert. Die Informationskapazität des Systems wird abgeleitet und als Anzahl der Freiheitsgrade des optischen Wellenfeldes am Ausgang ausgedrückt. Es wird darauf hingewiesen, dass sich der Fabry-Perot-Resonator gut zur Verarbeitung von Bildsignalen mit periodischer Struktur eignet.;-;-;-;https://link.springer.com/article/10.1007/BF00620205 bedd712b35b6bf1a6f3ac88241d53282;de;;;1.1.;;;Individuelle Unterschiede in der Informationsverarbeitung beim Konzeptlernen Es wurden Informationsverarbeitungsstrategien von Ss mit unterschiedlicher Intelligenz evaluiert. Es wurde festgestellt, dass SS mit der niedrigsten Intelligenz beim Erlernen von vermittelten und nicht vermittelten Konzepten dieselben Prozesse verwenden, während SS mit hoher Intelligenz beim Lernen von vermittelten Konzepten symbolische Prozesse verwendet, die sie beim Lernen nicht vermittelter Konzepte nicht anwenden. Diese Ergebnisse legen nahe, dass Mediationseffekte möglicherweise nicht über alle Ss hinweg wirken, wie oft angenommen wird.;-;-;-;https://link.springer.com/article/10.3758/BF03329127 9b287de1c15c13b1f88edb76061b3579;de;;;1.1.;;;Die informationsverarbeitenden Organismen Trotz der enormen Fortschritte der Biowissenschaften in den letzten Jahrzehnten bleiben viele Aspekte des Verhaltens von Organismen im Allgemeinen und des Menschen im Besonderen noch etwas im Dunkeln. Einen neuen Ansatz zur Erforschung des Verhaltens des Menschen präsentierte Heisenberg, als er betonte, dass eine kartesische Betrachtung der Natur als Objekt „da draußen“ insofern eine Illusion sei, als „der Beobachter immer Teil der Formel, der Mensch“ sei das Betrachten der Natur muss mitgestaltet werden, der Experimentator in sein Experiment und der Künstler in die Szene, die er malt.“ (Heisenberg, 1969).;-;-;-;https://link.springer.com/article/10.1007/BF00048420 7c40f2954f5af1ac30115a3e2cefdd9c;de;;;1.1.;;;Die Funktion der Informationsverarbeitung in der Natur Die Informationsverarbeitung, die ich besprechen möchte, betrifft nur einen Teil der allgemeinen Informationsverarbeitung, die im Organismus stattfindet. Es bezieht sich auf die Informationsverarbeitung, an der psychologische Funktionen wie Wahrnehmung, Lernen, Denken, Gedächtnis, Abruf und Handeln beteiligt sind. Diese Funktionen bestimmen Verhaltensbeziehungen des Organismus zu seiner Umwelt. Nach Piaget (1976) wird Verhalten als alle Handlungen definiert, die von Organismen auf die äußere Umwelt gerichtet sind, um darin Bedingungen zu ändern oder die eigene Situation in Bezug auf die Umwelt zu ändern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-70877-0_21 873d1a8660dc54b16e2520800a6bc394;de;;;1.1.;;;Normal erscheinende Permeabilität der weißen Substanz: ein Marker für Entzündungen und ein Defizit der Informationsverarbeitungsgeschwindigkeit bei Patienten mit schubförmig remittierender Multipler Sklerose Ein Zusammenbruch der Blut-Hirn-Schranke (BBBB) tritt bei schubförmig remittierender Multipler Sklerose (RRMS) auf. Relative Rezirkulation (rR), ein BBBB-Surrogat, kann eine durch Gadolinium nicht nachweisbare Entzündung zeigen. Wir verglichen die rR normal erscheinender weißer Substanz (NAWM) bei Patienten mit und ohne Behinderung, gemessen mit dem Symbol Digit Modalities Test und der Expanded Disability Status Scale (EDSS).;-;-;-;https://link.springer.com/article/10.1007/s00234-017-1862-7 91f516251797dade689f783e875f0b60;de;;;1.1.;;;Auswirkungen von Abstinenz und Rauchen auf die Informationsverarbeitung bei jugendlichen Rauchern Obwohl jugendliche Raucher einige der charakteristischen Merkmale der Abhängigkeit aufweisen, sind die biologischen und verhaltensbezogenen Auswirkungen des Rauchens in dieser Bevölkerungsgruppe kaum bekannt.;-;-;-;https://link.springer.com/article/10.1007/s002130000552 240a4de0b3d0f322bffa50506cf9e364;de;;;1.1.;;;Präattentive Wahrnehmung? Kanalsystem mit begrenzter Kapazität? Was ist bei der schizophrenen Informationsverarbeitung anders? Aufmerksamkeitsdefizite gelten seit langem als zentral für die kognitive Funktion von schizophrenen Patienten. Kraepelin betrachtete bereits ein Aufmerksamkeitsdefizit als häufigen Befund bei schizophrenen Patienten (Kraepelin 1919). Dies ist natürlich nicht verwunderlich, denn Aufmerksamkeit ist eine zentrale Funktion jeder kognitiven Operation, sei es die Wahrnehmung, das Abrufen von Informationen oder die Planung motorischer Handlungen. Auch Theorien der schizophrenen Kognition, die scheinbar nichts mit Aufmerksamkeit zu tun haben, wie Bleulers Formulierung des „loss of asociative threads“ oder Shakovs „Loss of major set“, um nur zwei zu nennen, lassen Aufmerksamkeitsdefizit.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-9329-0_18 0928b3cd2060695f506a4931fe460641;de;;;1.1.;;;Die Wirkung von Methylphenidat auf die auditive Informationsverarbeitung bei gesunden Probanden: eine kombinierte EEG/MEG-Studie Das psychomotorische Stimulans Methylphenidat (MPH) verbessert nachweislich Aufmerksamkeitsprozesse, was sich in Verhaltensmaßstäben wie Wachsamkeit, Reaktionszeit und visuellen Aufmerksamkeitsaufgaben widerspiegelt. Die neuronalen Mechanismen der MPH-Wirkung auf die sensorische Informationsverarbeitung sind jedoch noch wenig verstanden. Nach Kenntnis der Autoren ist diese Studie die erste, die untersucht, ob eine einzelne MPH-Dosis neuronale Substrate der passiven Aufmerksamkeit bei gesunden Erwachsenen beeinflusst, die mit gleichzeitiger Ganzkopf-Magnetenzephalographie (MEG) und Elektroenzephalographie (EEG) untersucht wurden.;-;-;-;https://link.springer.com/article/10.1007/s00213-007-1065-8 86922da9c840699ec795b740d1aad2f1;de;;;1.1.;;;Der Beweis für die neuronale Informationsverarbeitung mit präzisen Spitzenzeiten: Eine Umfrage Dieser Artikel gibt einen Überblick über die neuesten Erkenntnisse der Neurowissenschaften bezüglich der Verhaltensrelevanz des genauen Timings, mit dem echte Spiking-Neuronen Spikes aussenden. Die Literatur legt nahe, dass in fast jedem System, bei dem die Verarbeitungsgeschwindigkeit eines neuronalen (Sub)-Systems hoch sein muss, die Zeitsteuerung einzelner Spitzen sehr präzise und zuverlässig sein kann. Darüber hinaus finden neue, verfeinerte Methoden präzise zeitgesteuerte Spitzen, wo zuvor keine gefunden wurden. Diese Beweislinie liefert somit eine zusätzliche Motivation, die rechnerischen Eigenschaften von Netzwerken künstlicher Spiking-Neuronen zu erforschen, die mit genauer zeitgesteuerten Spikes rechnen.;-;-;-;https://link.springer.com/article/10.1023/B%3ANACO.0000027755.02868.60 8fb441d768b5198520ba2ed3e1c4a83a;de;;;1.1.;;;Informationsverarbeitung der kompakten polarimetrischen SAR-Interferometrie Die kompakte polarimetrische SAR kann die meisten Informationen der vollständigen polarimetrischen SAR speichern. Die Erforschung der Informationsverarbeitung der polarimetrischen SAR-Interferometrie ist der Brennpunkt der letzten Jahre. In diesem Kapitel werden die Baumhöhenermittlung und die Geländeklassifizierungsanwendung des kompakten PolInSAR eingehender erörtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8897-6_16 63f8b452f24fa12fee97f6a810962ec7;de;;;1.1.;;;Ganzheitlichkeit und Informationsverarbeitung in biologischen Netzwerken: Eine algebraische Studie zu Netzwerkmotiven In dieser Arbeit beschäftigen wir uns mit Netzwerkmotiven, die in informationsverarbeitenden biologischen Netzwerken vorkommen. Netzwerkmotive sind einerseits lokale Strukturen in einem ganzen Netzwerk, andererseits Materialisationen einer Art Ganzheit mit biologischen Funktionen. Wir formalisieren die Ganzheit durch den Begriff der Garbe. Wir formalisieren auch ein Merkmal der Informationsverarbeitung, indem wir eine interne Struktur von Knoten im Hinblick auf ihre Fähigkeit zur Informationsverarbeitung betrachten. Wir zeigen, dass durch rein algebraische Betrachtungen zwei Netzwerkmotive namens Bi-Fan (BF) und Feed-Forward-Loop (FFL) erhalten werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-88981-6_6 9b04a8033134ea115e1d7e78fcce126e;de;;;1.1.;;;Hämoglobin A1c und 10-Jahres-Informationsverarbeitungsgeschwindigkeit bei japanischen Gemeindebewohnern Es wird angenommen, dass Hyperglykämie ein Risikofaktor für den kognitiven Verfall ist, aber die Längsbeziehung zwischen Hyperglykämie und kognitivem Verfall in der japanischen Bevölkerung ist unklar. Ziel der vorliegenden Studie war es, den Zusammenhang zwischen dem Blutzuckerspiegel und der Informationsverarbeitungsfähigkeit bei Erwachsenen mittleren und höheren Alters aufzuklären.;-;-;-;https://link.springer.com/article/10.1186/s12199-019-0778-8 bf79aeda31c9ee16a627e162e943861b;de;;;1.1.;;;Verwendung des Rückwärtsmaskierungstests zur Untersuchung der visuellen Informationsverarbeitung bei gesunden Probanden und schizophrenen Patienten Die Studie an 14 gesunden Probanden und 15 schizophrenen Patienten wurde unter Bedingungen der visuellen Rückwärtsmaskierung durchgeführt. Sinnesschwellen wurden mit der Methode der konstanten Reize identifiziert. Eine spezielle Modifikation der Rückwärtsmaskierungstechnik mit lateralisierter Darstellung von Test- und Maskierungsreizen wurde verwendet, um die lateralen Eigenschaften der visuellen Aufmerksamkeit zu untersuchen. Es zeigte sich, dass die Schwellenwerte für die Identifizierung von Buchstabenreizen bei Patienten mit Schizophrenie signifikant höher waren als bei gesunden Probanden. Lediglich bei Patienten zeigte sich die Asymmetrie der visuellen Wahrnehmung mit den höheren Erkennungsschwellen im linken visuellen Hemifeld. Die Gesamtdatenanalyse legt einen Zusammenhang zwischen erhöhten Erkennungsschwellen bei schizophrenen Patienten und Veränderungen des Unterbrechungsmechanismus auf Neokortexebene nahe.;-;-;-;https://link.springer.com/article/10.1134/S036211971605011X 0aed4f816cc6c1ce07428c5fe835a93c;de;;;1.1.;;;EEG-Mikrozustände bei leichter Gedächtnisstörung und Alzheimer-Krankheit: möglicher Zusammenhang mit gestörter Informationsverarbeitung Die einzigen verfügbaren funktionellen Neuroimaging-Methoden, die die zeitliche Auflösung der menschlichen Informationsverarbeitung erreichen, sind EEG und MEG. Da die Spektralanalyse die Analyse längerer Zeitepochen impliziert, geht die hohe zeitliche Auflösung des EEG teilweise verloren. Durch die Aufteilung des EEG im Zeitbereich in Segmente ähnlicher räumlicher Verteilung auf der Kopfhaut (Mikrozustände) war es möglich, Muster neuronaler Aktivität zu beurteilen, die den aktuell vom Gehirn durchgeführten Informationsprozess repräsentieren. In der vorliegenden Studie wurden Veränderungen der EEG-Mikrozustände bei subjektiver (n=31) und objektiver (n=38) Gedächtnisstörung sowie bei wahrscheinlicher Alzheimer-Krankheit (DAT: n=64) im Vergleich zu gesunden Kontrollpersonen (n=21) untersucht. Die Hauptbefunde waren verkürzte Segmentdauern und ein weiter anteriorer Schwerpunkt der Mikrozustands-Topographie in der DAT. Bei stärker ausgeprägter kognitiver Dysfunktion wurden größere Fenstergrößen gefunden. Kürzere Mikrozustände und größere Fenster spiegeln sich schneller ändernde räumliche Aktivierungsmuster wider und werden als beeinträchtigte Fähigkeit interpretiert, stabile Gehirnzustände herzustellen, die für eine normale Gehirnfunktion notwendig sind. Die Anteriorisierung der Mikrozustände stimmt mit Ergebnissen im Frequenzbereich überein und kann neuropathologische Veränderungen der DAT widerspiegeln.;-;-;-;https://link.springer.com/article/10.1007/BF01277666 4816c32618435e2eeb3199835fc10a5b;de;;;1.1.;;;Soziale Informationsverarbeitung bei Kindern im Grundschulalter mit ADHS: Medikationseffekte und Vergleiche mit typischen Kindern Untersuchte soziale Informationsverarbeitung (SIP) bei medikamentösen und nicht medikamentösen Kindern mit ADHS und bei Kontrollen. Die Teilnehmer waren 75 Kinder (56 Jungen, 19 Mädchen) im Alter von 6–12 Jahren, darunter 41 Kinder mit ADHS und 34 Kontrollpersonen. Die Kinder wurden in Medikationsbedingungen randomisiert, sodass 20 Kinder mit ADHS nach der Einnahme von Placebo und 21 nach der Einnahme von Methylphenidat (MPH) teilnahmen. Den Kindern wurden Szenarien gezeigt, die Interaktionen mit Gleichaltrigen darstellen, und sie wurden gebeten, jedes Szenario zu interpretieren und mögliche Reaktionen auf das Szenario zu generieren. Die Ergebnisse zeigten, dass Kinder mit ADHS, die MPH erhielten, feindlichere Reaktionen auf Provokationen erzeugten als Kontrollen, Kinder mit ADHS unter Placebo jedoch nicht. Die Ergebnisse zeigten auch, dass Kinder mit ADHS unabhängig von der Medikation feindselige Reaktionen auf die Provokation als auf den Eintritt durch Gleichaltrige erzeugten, während dies bei den Kontrollen nicht der Fall war. Die Ergebnisse deuten darauf hin, dass Kinder mit ADHS aggressivere Reaktionen auf Provokationen erzeugen als Kontrollpersonen, und dass dies durch die Verabreichung von MPH verschlimmert werden kann. Einschränkungen und zukünftige Richtungen werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s10802-008-9294-9 2cb57abab3a68a7e404f38e27a8d015f;de;;;1.1.;;;Informationsverarbeitung im LGN: ein Vergleich von neuronalen Codes und Zelltypen Um zu verstehen, wie Anatomie und Physiologie es einem Organismus ermöglichen, seine Funktion auszuführen, ist es wichtig zu wissen, wie Informationen, die durch Spitzen im Gehirn übertragen werden, empfangen und codiert werden. Eine natürliche Frage ist, ob die Spike-Rate allein die Information über einen Stimulus (;-;-;-;https://link.springer.com/article/10.1007/s00422-019-00801-0 79a65a7a017990c6f8d15f0a8f2e0d15;de;;;1.1.;;;Verarbeitung von visuellen und nicht-visuellen Bewegungsinformationen während des Verfolgungs-Eyetrackings bei Schizophrenie und bipolarer Störung Trotz vieler Berichte über Defizite der visuellen Verarbeitung bei psychotischen Störungen sind Studien zur Integration visueller und nicht-visueller Komponenten der Augenbewegungskontrolle erforderlich, um das Verständnis der sensomotorischen Informationsverarbeitung bei diesen Störungen zu verbessern. Nicht-visuelle Eingaben in die Augenbewegungssteuerung umfassen die Vorhersage der zukünftigen Zielgeschwindigkeit aus der Extrapolation der vergangenen visuellen Zielbewegung und die Vorwegnahme zukünftiger Zielbewegungen. Es ist unklar, ob der nicht-visuelle Input bei Patienten mit Schizophrenie beeinträchtigt ist. Wir haben bei 21 Patienten mit Schizophrenie-Spektrum-Störung, 22 Patienten mit bipolarer Störung und 24 Kontrollen glatte Augenbewegungen aufgezeichnet. Bei einer foveo-fugalen Rampenaufgabe war das Ziel entweder ständig sichtbar oder wurde während der Bewegung ausgeblendet. Wir haben die Spitzenverstärkung (Messung der Gesamtleistung), die anfängliche Augenbeschleunigung (Messung der visuell getriebenen Verfolgung), die Verlangsamung nach Zielauslöschung (Messungsvorhersage), die Augengeschwindigkeitsdrift vor dem Einsetzen der Zielsichtbarkeit (Messung der Antizipation) und die Restverstärkung während der Austastintervalle (Messung) bestimmt Antizipation und Vorhersage). In beiden Patientengruppen war die anfängliche Augenbeschleunigung verringert und die Fähigkeit, die Augenbeschleunigung an eine zunehmende Zielbeschleunigung anzupassen, war beeinträchtigt. Im Gegensatz dazu waren bei den Patienten weder die Verzögerung noch die Augendriftgeschwindigkeit reduziert, was auf einen nicht beeinträchtigten nicht-visuellen Beitrag zum Verfolgungstrieb hindeutet. Störungen der Augenbewegungskontrolle bei psychotischen Störungen scheinen eher eine Folge von Defiziten in der sensomotorischen Transformation zu sein als ein reines Versagen, kognitive Beiträge zum Verfolgungstrieb in kortikalen Schaltkreisen höherer Ordnung hinzuzufügen. Allgemeiner ausgedrückt könnte dieses Defizit ein grundlegendes Ungleichgewicht zwischen der Verarbeitung externer Inputs und dem Handeln nach internen Präferenzen widerspiegeln.;-;-;-;https://link.springer.com/article/10.1007/s00406-016-0671-z 1740fcf62ea47979ace17fdc1411902e;de;;;1.1.;;;Beeinträchtigte frühe Informationsverarbeitung bei ADHS bei Erwachsenen: eine ERP-Studie mit hoher Dichte Kinder mit Aufmerksamkeitsdefizit-/Hyperaktivitätsstörung (ADHS) zeigen häufig sensorische Verarbeitungsschwierigkeiten in Form einer veränderten sensorischen Modulation, die zu ihrer Symptomatik beitragen können. Unser Ziel war es, die neurophysiologischen Korrelate sensorischer Verarbeitungsdefizite und die elektrophysiologischen Eigenschaften der frühen Informationsverarbeitung bei ADHS im Erwachsenenalter, gemessen am ereignisbezogenen P1-Potential (ERP), zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s12888-020-02706-w b28e896f43cb22136e1720e767a2b399;de;;;1.1.;;;Die Thrombozyten-MAO-Aktivität und der 5-HTT-Gen-Promotor-Polymorphismus sind mit Impulsivität und kognitivem Stil bei der visuellen Informationsverarbeitung verbunden Eine geringe Kapazität des zentralen serotonergen Systems wurde mit impulsivem Verhalten in Verbindung gebracht. Sowohl die niedrige Thrombozyten-Monoaminoxidase (MAO)-Aktivität als auch das kurze (S) Allel des Serotonintransportergen-Promotorregion-Polymorphismus (5-HTTLPR) werden als Marker für eine weniger effiziente serotonerge Funktion vorgeschlagen.;-;-;-;https://link.springer.com/article/10.1007/s00213-007-0867-z 8e93d0718e12b745025a6de8180fdae9;de;;;1.1.;;;Mikrowellenphotonik auf einem Chip: Supraleitende Schaltkreise als künstliche Atome für die Quanteninformationsverarbeitung Supraleitende Schaltkreise mit Josephson-Übergängen, die sich wie nichtlineare Induktivitäten verhalten, können als künstliche Atome fungieren, die makroskopische Quantenkohärenz aufweisen. Daher können mit diesen künstlichen Atomen Atomphysik- und Quantenoptik-Experimente auf einem Chip durchgeführt werden. Dieses Kapitel gibt einen kurzen Überblick über dieses spannende und schnell wachsende Feld. Wir diskutieren die in natürlichen Atomen vorkommenden Analogien zur Atomphysik und Quantenoptik und beschreiben auch die Unterschiede zu natürlichen Atomen. Außerdem fassen wir einige aktuelle Trends in diesem interdisziplinären Gebiet der Mikrowellenphotonik zusammen. Diese Schaltkreise bieten ein beispielloses Maß an Kontrolle über Quantenzustände, und dies kann für zukünftige Quanteninformationsprozessoren nützlich sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-55756-2_21 ce1027168e34f655063558e630c44e9f;de;;;1.1.;;;Ein Schema zur Reduzierung der Dekohärenz durch Wellenleiter in der Quanteninformationsverarbeitung Basierend auf den Ergebnissen der Resonator-Quantenelektrodynamik schlagen wir eine Methode vor, bei der die Fabry-Perot-Kavität oder die konfokale Kavität durch einen Wellenleiter mit einer der Wellenlänge des Photons vergleichbaren Größe ersetzt wird, um die durch spontane Emission in Quanten verursachte Dekohärenz zu reduzieren Informationsverarbeitung, insbesondere bei der Realisierung von Quantencomputern. Da ein Wellenleiter eine niedrigste Grenzfrequenz hat, während eine Fabry-Perot-Kavität oder eine konfokale Kavität keine hat, wird die spontane Emission angeregter Atome in einem idealen Wellenleiter mit geeigneter Größe verboten. Um den Einfluss der nicht idealen leitenden Wände auf das Atom in einem realistischen Wellenleiter zu vermeiden, der zu Dekohärenz führt, schlagen wir vor, den Wellenleiter mit einem dünnen Film aus transparentem Isoliermedium zu überziehen. In unserer Methode wird die Quanteninformation durch ein mehrstufiges Atom oder Molekül repräsentiert, zwei seiner Ebenen können im Prinzip verwendet werden, um ein Qubit darzustellen. Unsere Methode erweitert die Materialauswahl bei der Realisierung von Quantenberechnungen erheblich und kann in den meisten Schemata verwendet werden, um die durch spontane Emission verursachte Dekohärenz zu reduzieren.;-;-;-;https://link.springer.com/article/10.1007/s10773-008-9850-7 b5a642d843a8ad10c405477f9c902f5a;de;;;1.1.;;;Alkohol und Informationsverarbeitung Es wird über drei Experimente berichtet, die die Auswirkungen einer akuten Alkoholintoxikation (durchschnittliche Blutalkoholkonzentration 100 mg-%) auf einige Aspekte der menschlichen Informationsverarbeitung untersuchen. Die Ergebnisse werden im Rahmen eines allgemeinen Informationsverarbeitungsmodells (Smith, 1968) mit der additiven Analysemethode Sternberg (1969b) interpretiert. Alkohol beeinträchtigte durchweg die Informationsausgabeoperationen (d. h. die Reaktionsauswahl-Organisation) eher als die Informationseingabeoperationen (d. h. die Reizvorverarbeitung und -codierung).;-;-;-;https://link.springer.com/article/10.1007/BF00429446 0744af0eb5f52ec5141fad1cacbdfa6f;de;;;1.1.;;;Inhalt und Art der Informationsverarbeitung bei Major Depression Obwohl einige Forschungen sowohl den Inhalt als auch die Art der Informationsverarbeitung bei subklinischen depressiven Zuständen untersucht haben, müssen sich Studien bei der klinischen Depression noch mit diesen Problemen befassen. Insbesondere hat die Forschung nicht untersucht, ob es Hinweise auf Inhaltsspezifität bei der Verarbeitung von depressiven Informationen zu Zuständen und Merkmalen gibt und ob diese Informationen unterschiedlich in automatischen und aufwändigen Verarbeitungsmodi verarbeitet werden. In dieser Studie wurden depressive stationäre Patienten mit normalen Kontrollpersonen bei einer Verarbeitungsaufgabe verglichen, die die Beurteilung sowohl der Zustands- als auch der Merkmalsinformationsverarbeitung in automatischen oder aufwändigen Modi ermöglicht. Die Ergebnisse zeigten insgesamt eine bessere Erinnerung für die Kontrollpersonen, aber wenn die Erinnerung innerhalb der Bedingungen der Versuchspersonen berücksichtigt wurde, zeigten depressive Patienten eine diffuse Erinnerung sowohl über den Zustand als auch die depressiven Merkmale. Die bei klinischen Depressionen auftretenden Schemata scheinen daher nicht spezifisch für depressive Informationen zu sein und können dazu dienen, den Erwerb von Depressionsrelevanten Informationen zu erleichtern.;-;-;-;https://link.springer.com/article/10.1007/BF02230401 06c763beb1b53dbef26b8a6d871ae5f0;de;;;1.1.;;;Klassische Konditionierung und Informationsverarbeitung: Unterschiedliche Mechanismen für vorbereitete und unvorbereitete Reize? Obwohl Lernen ohne Bewusstheit im Widerspruch zu neueren Theorien der klassischen menschlichen Pawlowschen Konditionierung steht, gibt es mindestens eine Art von Konditionierung, bei der CS-US-Kontingenz ohne Bewusstsein verarbeitet wird – die sogenannte vorbereitete Konditionierung. Daher sollte die Präsentation einer sekundären Reaktionszeitsonde zur Messung der erforderlichen Informationsverarbeitungskapazität eine Störung der sekundären Aufgabe bei unvorbereiteter, aber nicht bei vorbereiteter Konditionierung hervorrufen, da bei letzterer Information parallel verarbeitet werden sollte. In einer früheren Studie konnten die Autoren weder in der Reaktionszeit noch in den elektrodermalen Indikatoren der Informationsverarbeitung Unterschiede zwischen beiden Konditionierungsarten feststellen. Die vorliegende Studie wurde durchgeführt, um diese Ergebnisse zu replizieren und zu erweitern, unter Verwendung eines differentiellen autonomen Konditionierungsparadigmas. Eine Hälfte von 42 Probanden erhielt Spinnen- und Schlangenpräparate als vorbereitete Stimuli, während die andere Hälfte Blumen-Slides als unpräparierte Stimuli erhielt. Beide Arten von Stimuli wurden als CS+ und als CS- verwendet. Als unbedingter Reiz diente ein Elektroschock. Während 24 Akquisitions- und 24 Extinktionsversuchen wurden elektrodermale und Herzfrequenzreaktionen sowie Reaktionszeiten auf einen Sondenstimulus aufgezeichnet.;-;-;-;https://link.springer.com/article/10.1007/BF02688622 6f2fb70f8c5368a8b0230e3670f7eeab;de;;;1.1.;;;Die Nikotinmodulation der Informationsverarbeitung ist nicht auf den Input (Aufmerksamkeit) beschränkt, sondern erstreckt sich auf den Output (Intention) Nikotin beeinflusst viele kognitive Prozesse, insbesondere solche, die eine hohe Aufmerksamkeitsbelastung erfordern, jedoch ist der Einfluss von Nikotin auf alle Aspekte der Informationsverarbeitung nicht gut beschrieben.;-;-;-;https://link.springer.com/article/10.1007/s00213-010-1788-9 71d9a18a660145b53a066504f36b69c7;de;;;1.1.;;;Wert der NMR-Relaxationsparameter diamagnetischer Moleküle für die Quanteninformationsverarbeitung: Optimierung der kohärenten Phase Quantencomputing ist die Wissenschaft, die die Anwendungen der Quantenmechanik in der Informatik untersucht. Somit ist ein Quantencomputer eine Einheit, die Quanteninformationen speichern kann, was wiederum ein innovatives Verfahren ist, das Bedingungen schafft, um die Implementierung von Quantenalgorithmen und Simulationen zu ermöglichen, wobei die Dekohärenz ein Schlüsselproblem ist. In Anbetracht der einzigartigen Qubits kann die Zeit der Kohärenzphase gut durch die Zeit der transversalen Relaxation gemessen werden (;-;-;-;https://link.springer.com/article/10.1007/s00214-020-02706-9 cb1b961ccf5e2106847e00a9829d727b;de;;;1.1.;;;Informationsverarbeitung in neuronalen Netzen durch kontrollierte dynamische Regime Dieser Beitrag befasst sich mit der Modellierung neuronaler Systeme, die als informationsverarbeitende Einheiten betrachtet werden. Ich untersuche die verschiedenen dynamischen Regime, die in neuronalen Netzen zugänglich sind, die als nichtlineare adaptive dynamische Systeme betrachtet werden. Die Möglichkeiten, stationäre, oszillierende oder chaotische Regime zu erhalten, werden mit verschiedenen neuronalen Netzmodellen veranschaulicht. Einige Aspekte der Abhängigkeit der dynamischen Regime von den synaptischen Kopplungen werden untersucht. Ich betone die Rolle, die die verschiedenen Regime spielen können, um die Fähigkeiten zur Informationsverarbeitung zu unterstützen. Ich präsentiere ein Beispiel, bei dem kontrollierte transiente Entwicklungen in einem neuronalen Netzwerk verwendet werden, um die Regulation motorischer Aktivitäten durch die Kleinhirnrinde zu modellieren.;-;-;-;https://link.springer.com/article/10.1007/BF00709440 eafba16715cba451041a9e81e38a54eb;de;;;1.1.;;;Vier Parameter der Informationsverarbeitung in der Cochlea Es wurden sterben mikrophonische Potentiale und Summierungspotentiale der Ohrschnecke mit elementar-akustischen Signalen (Wellenpaketen) untersucht. Offenbar WIRd zu Einem Gesamtbild der Ohrschneckenpotentiale Eine Vier-Parameter-Analyse der akustischen Signale benötigt.;-;-;-;https://link.springer.com/article/10.1007/BF01945190 905ea7aaec664d960044692334b4ff66;de;;;1.1.;;;Zusammenhang zwischen Weisheit, wahrgenommener Kontrolle innerer Zustände, wahrgenommenem Stress, sozialer Intelligenz, Informationsverarbeitungsstilen und Lebenszufriedenheit bei College-Studenten Diese Studie zielte darauf ab, den Zusammenhang zwischen Weisheit, sozialer Intelligenz, wahrgenommener Kontrolle innerer Zustände, wahrgenommenem Stress, Informationsverarbeitungsstilen und Lebenszufriedenheit bei College-Studenten zu untersuchen. Dreihundertneun Studierende (270 weibliche und 39 männliche Studierende mit einem Durchschnittsalter von 27 Jahren) wurden mittels Zufalls-Cluster-Stichprobenverfahren ausgewählt. Zur Datenerhebung wurden die Self-Assessed Wisdom Scale, Perceived Control of Internal States Scale, Perceived Stress Scale, Tromso Social Intelligence Scale, Rational-Experiential Inventory und Satisfaction with Life Scale verwendet. Die Ergebnisse zeigten, dass es eine signifikante Korrelation zwischen Emotionsregulation, Humor (Subskalen der Weisheit), sozialem Bewusstsein, sozialen Fähigkeiten (Subskalen der sozialen Intelligenz), wahrgenommener Kontrolle innerer Zustände, wahrgenommenem Stress und Lebenszufriedenheit gab. Die Informationsverarbeitungsstile hatten keinen statistisch signifikanten Zusammenhang mit der Lebenszufriedenheit. Darüber hinaus zeigte die multiple Regressionsanalyse, dass wahrgenommener Stress, Humor und soziale Fähigkeiten die stärksten Prädiktoren für die Lebenszufriedenheit von College-Studenten waren. Die Rolle dieser Variablen für die Lebenszufriedenheit wurde diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s12144-018-9804-z 451a1a53dda8cae9a6978489d4d9f731;de;;;1.1.;;;Rauchen oder nicht rauchen: Die Rolle der schematischen Informationsverarbeitung Diese Studie untersuchte die Rolle der schematischen Verarbeitung positiver und negativer Informationen über das Rauchen bei Rauchern (18), Ex-Rauchern (18), Langzeit-Ex-Rauchern (18) und Nie-Rauchern (18) bei verschiedenen kognitiven Aufgaben. In einer Schemareaktionszeit-Aufgabe zeigten Raucher eine leichte Verarbeitung von Informationen, die positiv auf das Rauchen bezogen waren, während Nie-Raucher und beide Ex-Raucher-Gruppen effizienter auf Informationen reagierten, die das Rauchen negativ beeinflussten. Alle Gruppen erinnerten sich übrigens an mehr negative als positive Raucherattribute und mehr negative als positive Raucherideeneinheiten aus einem Text. Nur Raucher erinnerten sich 1 Woche später an ihre Leistung bei einer Aufgabe, bei der die Atemkapazität genau gemessen wurde. Die Ergebnisse stützen die Hypothese, dass sich Raucher in ihrer schematischen Verarbeitung von Informationen über das Rauchen von Ex- und Nie-Rauchern unterscheiden, gemischt. Implikationen für die Aufrechterhaltung der Raucherabstinenz werden diskutiert.;-;-;-;https://link.springer.com/article/10.1023/A%3A1018729817529 02c316550ce4574e050691ec935c1060;de;;;1.1.;;;Geschlechtsbezogene Variabilität in der Informationsverarbeitung von Offenlegungsdokumenten Die Offenlegung wird weltweit als Instrument eingesetzt, um die Transparenz zu erhöhen und Anlegern bei der Entscheidungsfindung zu helfen, wodurch asymmetrische Informationen an den Finanzmärkten teilweise überwunden werden. Ziel dieser Studie ist es, die geschlechtsspezifische Variabilität bei der Zuweisung der visuellen Aufmerksamkeit für die wesentlichen Anlegerinformationen und bei der Bewertung der finanziellen Attraktivität des Produkts zu untersuchen. Die Studie nutzt die Eye-Tracking-Methodik, um neuronale Daten zu sammeln, und reagiert damit auf den Ruf, neue Datenquellen in Betracht zu ziehen. Die Analyse zeigt, dass Männer den Abschnitten tendenziell mehr Aufmerksamkeit widmen;-;-;-;https://link.springer.com/article/10.1007/s10603-021-09479-z 6e7030638a1487f25aed48428389a5cd;de;;;1.1.;;;Was ist die optimale Anzahl von Antwortalternativen für Bewertungsskalen? Aus der Perspektive der Informationsverarbeitung Ratingskalen sind Messinstrumente, die in der sozialwissenschaftlichen Forschung weit verbreitet sind. In der Literatur werden jedoch viele verschiedene Ratingskalenformate verwendet, die sich insbesondere in der Anzahl der angebotenen Antwortalternativen unterscheiden. Bisherige Studien zur optimalen Anzahl von Antwortalternativen konzentrierten sich ausschließlich auf die endgültigen Antwortergebnisse der Teilnehmer und nicht auf die Informationsverarbeitung der Teilnehmer. Wir haben eine Eye-Tracking-Studie verwendet, um dieses Problem aus der Perspektive der Informationsverarbeitung zu untersuchen. Wir haben die Informationsverarbeitung in sechs Skalen mit unterschiedlichen Antwortalternativen analysiert. Wir verglichen die Reaktionszeiten, Netto-Antwortstile, extreme Reaktionsstile und proportionale Veränderungen der Antwortalternativen der sechs Skalen. Unsere Ergebnisse legen nahe, dass die optimale Anzahl von Antwortalternativen fünf beträgt.;-;-;-;https://link.springer.com/article/10.1057/jma.2015.4 13a0b58b3a7ba4537355e3c529377c24;de;;;1.1.;;;Konstruktion von Vier-Photonen-Zuständen für Quantenkommunikation und Informationsverarbeitung Wir bieten eine Methode zum Konstruieren eines Satzes von Vier-Photonen-Zuständen, die für Quantenkommunikationsanwendungen geeignet sind. Unter diesen Zuständen befindet sich ein Satz verketteter Quantencodezustände, die einen dekohärenzfreien Unterraum überspannen, der robust gegenüber kollektiv-lokalem sowie globalem Dephasierungsrauschen ist. Dieses Verfahren erfordert nur die Verwendung von spontaner parametrischer Abwärtskonvertierung, Quantenzustandsnachauswahl und linearer Optik. Insbesondere zeigen wir, wie mit dieser Methode alle sechzehn Elemente des Glockengems zweiter Ordnung hergestellt werden könnenorder;-;-;-;https://link.springer.com/article/10.1007/s10773-007-9569-x 97f2ef0ba25b3fab4c359e4c53c679ae;de;;;1.1.;;;Methode der Informationsverarbeitung in der zerstörungsfreien Hochratenprüfung Eine neue Methode der Informationsverarbeitung bei der zerstörungsfreien Prüfung von Produkten wird entwickelt. Das Verfahren ermöglicht es, das Verhältnis von Informationssignal und Rauschen um mehr als das 12-fache zu erhöhen. Es wird eine Variante der Vorrichtung zur Realisierung des entwickelten Verfahrens vorgeschlagen. Die Verwendung des Verfahrens ermöglicht es, die Qualität der nachfolgenden digitalen Verarbeitung der Informationen zu verbessern, die Ausrüstung des Fehlerdetektors zu vereinfachen und seine Kosten zu reduzieren.;-;-;-;https://link.springer.com/article/10.1023/A%3A1014215001572 da018e8d029c4b89cad70d2f2d3e49be;de;;;1.1.;;;Die zeitliche Struktur der Informationsverarbeitung bei Patienten nach diffusen Kopfverletzungen: Elektrophysiologische Studien Nach einem Hirntrauma leiden Patienten oft unter grundlegenden Störungen der selektiven Aufmerksamkeit. Folglich können auch andere kognitive Prozesse wie Gedächtnis, Sprache, Lernen usw. beeinträchtigt werden. Welche grundlegenden physiologischen Funktionsstörungen sind für diese Störungen verantwortlich? Vieles deutet darauf hin, dass die Desorganisation des zeitlichen Verlaufs der physiologischen Verarbeitung eine wichtige Rolle spielt. Folgende Störungen bei Patienten mit Kopfverletzungen stützen diese Theorie: gestörte Zeiteinschätzung, Verlangsamung der Flicker-Fusionsschwelle, verminderte Leistung im Tapping-Test, gestörte Ordnungsschwelle und verlangsamte Reaktionszeiten [3]. Ein zerebraler rhythmischer Timer scheint gestört zu sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-76182-9_39 ad9c46e729eec72d3f09c1a96e98b292;de;;;1.1.;;;Integration der sozialen Informationsverarbeitung und der Bindungsstilforschung mit der kognitiven Verhaltenstherapie für Paare Die Mehrzahl der empirisch validierten Interventionen für Beziehungsstress konzentriert sich in erster Linie auf die Verbesserung der Verhaltensfunktionen, insbesondere der Kommunikationsmuster von Paaren in Konfliktsituationen. Obwohl Kommunikation in hohem Maße Beziehungskrisen und spätere Scheidungen vorhersagt, hat die Forschung zur Wirksamkeit von vorehelichen und ehelichen Interventionen auf der Grundlage von Kommunikationstraining begrenzte Ergebnisse gezeigt. Obwohl kompetenzbasierte Ansätze bei der Behandlung von Beziehungskonflikten und Instabilität wirksam sein können, vernachlässigen sie daher oft auch einen anderen potenziell mächtigen Mechanismus bei der Entwicklung von Beziehungsstress: die sozialen Kognitionen und/oder Schemata in Bezug auf Beziehungen, die Einzelpersonen in ihre Ehen tragen aus negativen Bindungserfahrungen. Daher beschreibt dieser Artikel, wie die Verschmelzung von Informationen, die aus der Bindungsstilforschung gewonnen wurden, mit der Literatur zur sozialen Informationsverarbeitung aktuelle Methoden zur Behandlung von Beziehungskonflikten verbessern kann. Die bestehende Forschung zu romantischen Bindungsstilen bei Erwachsenen wird in einen sozial-kognitiven Informationsverarbeitungsrahmen eingeordnet und eine Fallstudie beschrieben, die den Nutzen dieses Ansatzes bei schwierigen Paaren zeigt.;-;-;-;https://link.springer.com/article/10.1007/s10879-008-9084-2 dd21b5b4546695d04cdc93917e72c576;de;;;1.1.;;;Computerunterstützung für verteilte Informationsmanagementaufgaben (CUVIMA) Dieser Artikel gibt einen Überblick über die Forschungsergebnisse des Projekts CUVIMA. Dieses interdisziplinäre Projekt vereinte Aspekte der Forschungsbereiche „Informationsmanagement“, „Computer Aided Team“, „Gesprächsstrukturierung“ und „Objektorientierung“. Als Vertreter hochinteressanter, recht komplexer und außergewöhnlicher Aufgaben des verteilten Informationsmanagements identifizierte CUVIMA „Informationssystem-Planung“ und „Geschäftsprozessplanung“. Diese Aufgaben eignen sich nicht nur zur Implementierung von Computerunterstützung in einer computergestützten Teamumgebung, sondern ermöglichen auch den Einsatz computergestützter Gesprächsstrukturierung für einen effizienteren Problemlösungsprozess innerhalb von Gruppen. Die Objektorientierung wurde für die Analysephase und als Implementierungsmethode verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-80216-4_11 03515bdf3ce0a0db303cf2254bd50390;de;;;1.1.;;;Fortschritte im Verständnis der binauralen Informationsverarbeitung: Berücksichtigung des verarbeiteten Stimulus Die in den letzten 20 Jahren im weiten Feld der binauralen Informationsverarbeitung erzielten Fortschritte sind in vielerlei Hinsicht auf ein differenzierteres Verständnis von verarbeiteten Reizen zurückzuführen, im Gegensatz zur Berücksichtigung externer, physischer Reize. Die gewonnenen Erkenntnisse haben wichtige Fortschritte im Verständnis spezifischer, peripherer und/oder zentraler Mechanismen ermöglicht, die binauralen Fähigkeiten zugrunde liegen und diese einschränken. Viele der Fortschritte stammen aus kopfhörerbasierten Studien zur binauralen Erkennung, Diskriminierung und Lateralisation. Zusammen mit den Fortschritten in anderen Bereichen der Hörforschung hat das Unternehmen die Entwicklung umfassenderer und genauerer quantitativer Modelle der binauralen Leistung des Menschen ermöglicht. An dieser Stelle scheint es, dass der Fortschritt in der Zukunft durch einen integrativeren Ansatz gefördert würde, bei dem gemeinsame Sätze von parametrisch konstruierten Stimuli, die sich theoretisch als diagnostisch erwiesen haben, in „parallelen“ verhaltens- und neurophysiologischen Untersuchungen verwendet würden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-9102-6_31 913385804a20ea8d51aa824fd159c3aa;de;;;1.1.;;;Attributionen als Entscheidungen: Ein zweistufiges Informationsverarbeitungsmodell Die Attributionstheorie ist die wichtigste Entwicklung in der Sozialpsychologie. Dieses Publikum braucht kaum zu überzeugen, für Skeptiker genügt es, auf die Dominanz von Zuschreibungsartikeln in den Zeitschriften, Kapiteln in Sammelbänden und Originalbüchern hinzuweisen. Die Attributionstheorie hat zu unserem Verständnis traditioneller sozialpsychologischer Probleme wie Einstellungsänderung und Widerstand gegen Veränderungen beigetragen (z und Altruismus (zB Bradand & Lerner, 1975, Meyer & Mulherin, 1980), Konformität (zB Ross, Bierbrauer & Hoffman, 1976), Aggression (zB Dyck & Rule, 1978, Zillman, 1978) und Stereotypisierung ( zB Hamilton, 1981). Auch weniger rein soziale Bereiche wurden von Attributionsarbeit beeinflusst. Zum Beispiel Literatur über Urteilsvermögen und Entscheidungsfindung (z. B. Nisbett & Ross, 1980), klinische Probleme (z. B. Anderson & Arnoult, 1985a, Arkin & Baumgardner, 1985) und das Gedächtnis für Merkmale und Verhaltensweisen (z , & Weber, 1983) haben alle von der Attributionstheorie profitiert. Natürlich hat auch die Attributionstheorie durch eine großzügige Übernahme von Ideen aus einer Vielzahl von Bereichen an Raffinesse und Genauigkeit gewonnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-3126-4_4 e338ade0767de313d91e430bc9d9c6ca;de;;;1.1.;;;Eine Struktur für die assoziative Informationsverarbeitung Das beschriebene Modell erklärt, wie Assoziationen komplexer Informationen mit Geschwindigkeiten erreicht werden können, die bisher nur für das jumanische Zentralnervensystem bekannt waren. Die explizite Nutzung der Verbindung Information-Zeit-Information ermöglicht eine assoziative Verknüpfung von Informationen. Die Zeit fungiert als Bindeglied zwischen Informationen zum gleichen Zeitpunkt in den einzelnen Speichereinheiten. Außerdem können mit seiner Hilfe ganze Ereignisketten gleichzeitig kombiniert werden. Voraussetzung für die praktische Anwendung dieses Zusammenhangs ist ein Speicher- und Suchalgorithmus, den ich als hololistisch bezeichnet habe. Das hololistische Prinzip basiert auf der assoziativen Koordination von Informationen nach einem Trial-and-Error-Verfahren. Die Simulation verschiedener Gedächtnisleistungen wie Erinnern, Vergessen und Mehrfachassoziationen kann mit Hilfe des „Fünf-Teile-Systems“ erfolgen. Mit dieser Struktur lassen sich sogenannte intelligente Systeme synthetisch herstellen (z. B. Sprachübersetzer, Schachspieler etc.).;-;-;-;https://link.springer.com/article/10.1007/BF00337275 d846b14661eb47d115e3499ec7466347;de;;;1.1.;;;Quanteninformationsverarbeitung und zusammengesetzte Quantenfelder Auf dem Gebiet der Quanteninformationsverarbeitung wurden einige schöne Identitäten mit Hook-Inhalten von Young-Diagrammen gefunden, zusammen mit einem kombinatorischen Beweis. Wir geben hier einen darstellungstheoretischen Beweis dieser Identitäten und eine Reihe von Verallgemeinerungen. Unser Beweis basiert auf Spurenidentitäten für Elemente, die zu einer Klasse von Permutations-Zentralisiereralgebren gehören. Es wurde festgestellt, dass diese Algebren der Kombinatorik von zusammengesetzten eichinvarianten Operatoren in der Quantenfeldtheorie mit Anwendungen in der AdS/CFT-Korrespondenz zugrunde liegen. Basierend auf diesen Algebren diskutieren wir einige Analogien zwischen Aufgaben der Quanteninformationsverarbeitung und der Kombinatorik zusammengesetzter Quantenfelder und argumentieren, dass dies eine fruchtbare Schnittstelle zwischen Quanteninformation und Quantenfeldtheorie mit Auswirkungen auf AdS/CFT sein kann.;-;-;-;https://link.springer.com/article/10.1007/JHEP01%282019%29170 c13bd10a0751c8c84779c26c8d336323;de;;;1.1.;;;Familienunterstützendes Vorgesetztenverhalten und Arbeitsengagement: Eine Perspektive der sozialen Informationsverarbeitung Basierend auf der Theorie der sozialen Informationsverarbeitung und der Attributionstheorie untersuchte die vorliegende Studie den Zusammenhang zwischen familienunterstützendem Vorgesetztenverhalten (FSSB) und Mitarbeiterengagement sowie die vermittelnde Rolle der Loyalität zum Vorgesetzten und die moderierende Rolle der Zuschreibung von Absichten für FSSB. Wir haben zwei Datenwellen mit einer Verzögerung von 6 Monaten von 310 chinesischen Mitarbeitern (Alter 20–56,;-;-;-;https://link.springer.com/article/10.1007/s12144-019-00574-6 9cd1726dd967537c1939ab63dada92ff;de;;;1.1.;;;Informationsverarbeitung und thermodynamische Eigenschaften von Mikrotubuli Die Shannon-Entropieabhängigkeit von der Temperatur, dem Dipolmoment und den thermodynamischen Eigenschaften von Mikrotubuli (MTs) wurde mit der Landau-Ginzburg-Phänomenologischen Theorie durch die Kontinuums-Boltzmann-Verteilungsfunktion untersucht. Durch die Minimierung des Energieverlusts haben wir festgestellt, dass die Möglichkeit besteht, dass aus den Heterodimeren gebildete MTs Informationen über einen langen Zeitraum bei höheren Temperaturen verarbeiten können. Wir fanden auch heraus, dass multiple Heterodimere unter dem Einfluss des Dipolmoments die Tendenz haben, Informationen zu verarbeiten, wenn die Menge der gespeicherten oder übertragenen Informationen mit zunehmender Elektronegativität des Systems abnimmt. Wir analysieren das Phänomen der dynamischen Instabilität, das bei Polymerisations- und Depolymerisationsprozessen in MTs unendlich auftritt. Unter physiologischen Bedingungen wurde auch die Temperaturabhängigkeit thermodynamischer Eigenschaften untersucht und unsere Ergebnisse zeigten ein kritisches Verhalten der Wärmekapazität und des chemischen Potenzials, das Raum für Phasenübergänge um 302 K lässt.;-;-;-;https://link.springer.com/article/10.1007/s12043-020-02044-2 ffe1456ead986082ab0c815c29069244;de;;;1.1.;;;Prospektive und retrospektive Dauerbeurteilung: Die Rolle von Informationsverarbeitung und Gedächtnis Die Forschung, die prospektive und retrospektive Dauerbeurteilungsparadigmen vergleicht, hat verschiedene Ergebnisse und Schlussfolgerungen hervorgebracht. Zwei hier berichtete Experimente zeigen, dass Informationsverarbeitungsaufgaben die Dauerbeurteilung in den beiden Paradigmen unterschiedlich beeinflussen. Experiment 1 zeigt, dass das Ausführen einer schwierigeren Aufgabe prospektive Urteile verkürzt, aber retrospektive Urteile nicht beeinflusst. Experiment 2 zeigt, dass die Durchführung verschiedener Verarbeitungsarten und nicht nur einer einzigen Verarbeitungsart während einer Dauer retrospektive Urteile verlängert, aber prospektive Urteile nicht beeinflusst. Das Gedächtnis für nicht-zeitliche (Stimulus-)Informationen, die während eines Zeitraums verarbeitet wurden, kann weder eine prospektive noch eine retrospektive Dauerbeurteilung erklären, da das Muster der Effekte und Interaktionen unterschiedlich ist. Dieses Ergebnis weist Gedächtnis-Speichermodelle der Dauerbeurteilung zurück. Interaktionen von Aufgabe und Paradigma unterstützen ein Kontextänderungsmodell, das besagt, dass verschiedene Arten von Kontextinformationen prospektiven und retrospektiven Dauerbeurteilungen unterliegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-3536-0_16 6c9ff43bae63da3558bbe2dbb5e4807d;de;;;1.1.;;;Tendenzen der Informationsverarbeitung in jüngsten Experimenten zum kognitiven Lernen – empirische Studien Piagets Theorie betrifft die kognitive Entwicklung und die entwicklungsbezogene Epistemologie. Es ist daher nicht verwunderlich, dass sich eine solche Theorie selbst ständig weiterentwickelt. Neue Probleme werden aufgeworfen, neue Methoden zur Bewältigung dieser Probleme angewendet, Erklärungsmodelle verfeinert und an neue Erkenntnisse angepasst. Piaget zeigte, dass die kognitive Entwicklung eine Richtung hat und zu einer immer besseren Anpassung des wissenden Subjekts an die Realität, die Gegenstand seines Wissens ist, fortschreitet. Durch intensives und detailliertes Studium des Erwerbs verschiedener Konzepte (Zahl, Gewicht, Volumen, Raum, Zeit, Kausalität, Wahrscheinlichkeit und andere) war es möglich, die zugrunde liegenden Denkstrukturen zu bestimmen, die die Erreichung dieser Konzepte ermöglichen. In der Folge war es möglich, innerhalb dieser Strukturen eine Hierarchie zu etablieren und ihre mögliche Abstammung zu vermuten. Diese Strukturen wurden in algebraischer Form formalisiert, als gruppenartige Strukturen und Halbgitter für die präformalen Denkstufen und als Gitter und Gruppen für die formale Stufe. Die Strukturen sind zeitlos und spiegeln die Möglichkeiten eines Gesamtsystems wider, aber um die formativen Mechanismen zu lokalisieren, die den Übergang von einer Stufe zur anderen erklären können, müssen wir über solche Strukturmodelle hinausgehen. Piaget und seine Mitarbeiter interessieren sich zunehmend für dynamische Modelle, insbesondere für Selbstregulierungsmechanismen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-46323-5_10 9e9c67c9af9f024d2d90f984f8479715;de;;;1.1.;;;Benzodiazepin-Rezeptorliganden, Gedächtnis und Informationsverarbeitung: Probleme, Kommentare und Aussichten Ein Verständnis des Gedächtnisses oder gar des Vergessens ist wichtig, um sowohl normale als auch pathologische kognitive Funktionen zu erklären, zumal die Fähigkeit zu neuem Lernen und die Geschwindigkeit des Abrufens sehr empfindlich auf viele Faktoren reagieren, die die Gesamtfunktion des ZNS beeinträchtigen. Krankheiten, Traumata, Alterung, psychiatrische Störungen und die Verabreichung von Psychopharmaka können die Integrität und Kapazität der Informationsverarbeitungsfähigkeiten beeinträchtigen, was zu einer Beeinträchtigung des Gedächtnisses führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-73288-1_20 60bd3735cbda52b3ebaed8f2957d04d2;de;;;1.1.;;;Tendenzen bei der Informationsverarbeitung in jüngsten Experimenten zum kognitiven Lernen Piagets Theorie betrifft die kognitive Entwicklung und die entwicklungsbezogene Epistemologie. Es ist daher nicht verwunderlich, dass sich eine solche Theorie selbst ständig weiterentwickelt. Neue Probleme werden aufgeworfen, neue Methoden zur Bewältigung dieser Probleme angewendet, Erklärungsmodelle verfeinert und an neue Erkenntnisse angepasst. Piaget hat gezeigt, dass die kognitive Entwicklung eine Richtung hat und zu einer immer besseren Anpassung des wissenden Subjekts an die Realität, die Gegenstand seines Wissens ist, fortschreitet. Durch intensives und detailliertes Studium des Erwerbs verschiedener Konzepte (Zahl, Gewicht, Volumen, Raum, Zeit, Kausalität, Wahrscheinlichkeit ua) war es möglich, die zugrunde liegenden Denkstrukturen zu bestimmen, die die Erreichung dieser Konzepte ermöglichen. Anschließend war es möglich, innerhalb dieser Strukturen eine Hierarchie zu etablieren und eine mögliche Ableitung zu vermuten. Diese Strukturen wurden in algebraischer Form als gruppenartige Strukturen und Halbgitter für die präformalen Denkstufen und als Gitter und Gruppen für die formale Stufe formalisiert. Die Strukturen sind zeitlos und spiegeln die Möglichkeiten eines Gesamtsystems wider, aber um die Bildungsmechanismen zu verstehen, die den Übergang von einer Stufe zur anderen erklären können, müssen wir über solche Strukturmodelle hinausgehen. Piaget und seine Mitarbeiter interessieren sich zunehmend für dynamische Modelle, insbesondere für Selbstregulierungsmechanismen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-4175-8_5 69102adf9a0d2654104fc1339159a4a1;de;;;1.1.;;;Die Tölzer Temporale Topographiestudie: Kartierung des Gesichtsfeldes über die Lebensspanne. Teil I: Die Topographie der Lichtdetektion und Zeitinformationsverarbeitung Zeitliche Leistungsparameter variieren über das Gesichtsfeld. Ihre topographischen Verteilungen zueinander und relativ zu grundlegenden Sehleistungsmaßen und ihre relative Veränderung über die Lebensspanne sind unbekannt. Unser Ziel war es, die Topographie und die altersbedingte Veränderung der zeitlichen Leistung zu charakterisieren. Bei 95 gesunden Probanden (Alter: 10–90 Jahre) wurden Gesichtsfeldkarten erhoben: perimetrische Schwellenwerte, Doppelpulsauflösung (DPR), Reaktionszeiten (RTs) und Buchstabenkontrastschwellen. DPR und perimetrische Schwellenwerte stiegen mit Exzentrizität und Alter an, die Peripherie zeigte einen stärkeren altersbedingten Anstieg als das Zentrum. RT nahm mit der Exzentrizität nur geringfügig und gleichmäßig zu. Sie blieb bis zum 60. Lebensjahr nahezu konstant, eine deutliche Veränderung trat erst ab 80 auf. Insgesamt war das Alter ein schlechter Prädiktor für die Funktionalität. Der Leistungsabfall konnte nur teilweise durch die Alterung der Netzhaut und der Sehmedien erklärt werden. In Teil II untersuchen wir daher höhere visuelle und kognitive Funktionen.;-;-;-;https://link.springer.com/article/10.3758/s13414-012-0278-z 9f27a5412baab9dc35e7e906703d1373;de;;;1.1.;;;Wirksamkeit kognitiver Prozesse bei jungen Menschen mit hochfunktionaler Autismus-Spektrum-Störung mit einer neuartigen visuellen Informationsverarbeitungsaufgabe Autismus-Spektrum-Störungen (ASS) zeichnen sich durch ein einzigartiges Muster von erhaltenen Fähigkeiten und Defiziten innerhalb und zwischen kognitiven Domänen aus. Die Complex Information Processing Theory schlägt vor, dass dieses Muster eine veränderte Fähigkeit widerspiegelt, auf kognitive Anforderungen zu reagieren. Diese Studie verglich, wie die durch Zeitbeschränkungen bei der Verarbeitung induzierte Komplexität die kognitive Funktion bei Personen mit ASS und bei Personen mit typischer Entwicklung beeinflusst. Bei einer visuellen Informationsverarbeitungsaufgabe ist der;-;-;-;https://link.springer.com/article/10.1007/s10803-014-2140-8 5dc73f256c99612d1c9e91c085c3cf00;de;;;1.1.;;;Wahl der Informationsverarbeitungsstrategien des Verbrauchers bei Dispositionsentscheidungen Informationsverarbeitungsstrategien wurden in einem Produktdispositionskontext untersucht. Einhundert Probanden nahmen an einem Experiment teil, das darauf abzielte, den Einfluss des vorentscheidungserprobten Risikos und des Funktionszustands des Produkts auf die gewählte Verarbeitungsstrategie zu testen. Es wurde kein signifikanter Effekt der beiden unabhängigen Variablen berichtet, jedoch wählte eine signifikante Anzahl von Probanden eine lexikografische Strategie. Die Ergebnisse legen nahe, dass Verbraucher, die langlebige Güter entsorgen, sich eher auf die finanziellen Vorteile oder Kosten konzentrieren, die mit verschiedenen Entsorgungsalternativen einhergehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16946-0_30 9f7560ffba6087c77a897e48aa8369a2;de;;;1.1.;;;Verkäuferstereotypen, Verbraucheremotionen und ihr Einfluss auf die Informationsverarbeitung Diese Studie untersucht Verkäuferstereotypen und deren Auswirkungen auf das Verkaufsumfeld. Nach Durchsicht der einschlägigen Literatur entwickeln die Autoren eine hierarchische Struktur von Verkäuferstereotypkategorien. Experimentelle Ergebnisse deuten darauf hin, dass Stereotype die Emotionen der Verbraucher beeinflussen, und diese Emotionen vermitteln dann die Beziehung zwischen der Stereotypaktivierung und nachfolgenden Verbraucherkognitionen.;-;-;-;https://link.springer.com/article/10.1177/0092070395232002 510cbbd91866cfb30b408cb1f5c4dbaa;de;;;1.1.;;;Der Reiz in der Informationsverarbeitung Es wird argumentiert, dass die Art des Stimulus verstanden werden muss, bevor wir sinnvolle Fragen zur menschlichen Informationsverarbeitung stellen können, da der Stimulus die Art der zu verarbeitenden Informationen bestimmt. Als ein Beispiel wird gezeigt, dass redundante Stimulusdimensionen nur dann eine Verbesserung der Informationsverarbeitung bewirken, wenn die Dimensionen kombiniert werden, um effektiv eine neue Dimension zu erzeugen, und solche Dimensionen werden als integral bezeichnet. Und als zweites Beispiel kann eine unzureichende Leistung auftreten, weil Reize prozessbegrenzt sind, indem eine unzureichende Differenzierung von Reizen stattfindet, oder sie können zustandsbeschränkt sein, weil für den im Organismus darzustellenden Reiz nicht genügend Energie zur Verfügung steht.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-2245-3_7 ab069af3f04972a429023590e3f845a0;de;;;1.1.;;;Forschung und Design der Architektur eines On-Orbit-Fernerkundungs-Informationsverarbeitungssystems In diesem Artikel haben wir ein System zur Verarbeitung von Fernerkundungsinformationen im Orbit entwickelt, das auf einem parallelen Multiprozessor basiert und den Anforderungen einer schnellen Verarbeitung von Fernerkundungsinformationen und einer schnellen Zielüberwachung entspricht. Dieses System ist erweiterbar und flexibel rekonstruierbar und kann in der Lage sein, die Verarbeitung von Fernerkundungsinformationen im Orbit zu vervollständigen und verschiedene Geheimdienstdaten an verschiedene Kampfeinheiten bereitzustellen. Dieses Papier stellt die Hardware-Architektur der Fernerkundungs-Informationsverarbeitung im Orbit und die Architektur der Software-Plattform sowie die Verarbeitungsmethoden der Informationsverarbeitung und die Anwendungsstrategie vor. Dieses Papier liefert uns ein standardisiertes, modulares und erweiterbares Systemdesign. Das System unterstützt verschiedene Arten von Nutzlasten, einschließlich CCD-Kamera, CMOS-Plane-Array-Kamera, Radar mit synthetischer Apertur für die Eingabe von Fernerkundungsinformationen und unterstützt zwei Arten von Verarbeitungsabläufen: Parallelverarbeitung und Fließbandverarbeitung. Dieses System ist in der Lage, die Verarbeitung von Fernerkundungsinformationen im Orbit in Echtzeit für verschiedene Satelliten zu unterstützen und alle Arten von Anforderungen von Zielüberwachungsanwendungen zu erfüllen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49184-4_34 79ba9bdeefc62f77d4ef2141f752e9b8;de;;;1.1.;;;Subroutinen und visuelle Linieninformationsverarbeitung Ein Experiment wurde entworfen, um die Existenz von Unterroutinen zur Verarbeitung von Liniengröße und Linienorientierung zu detektieren. Die Ergebnisse legen nahe, dass das visuelle System zwei unterschiedliche zeilenverarbeitende Unterprogramme verwendet: ein horizontales Unterprogramm und ein vertikales Unterprogramm. Die Größen wurden jedoch von einem einzelnen Unterprogramm behandelt, das wiederholt ausgeführt wurde. Es wurde auch festgestellt, dass jedes Inkrement von 3 ms die Zeilenerkennungsleistung signifikant erhöht.;-;-;-;https://link.springer.com/article/10.3758/BF03329224 9d9126cf8bef533095de156b92b87bef;de;;;1.1.;;;Vereinfachte Dendriten – Soma – Axon-Informationsverarbeitung In diesem Kapitel wird das Ball-Stick-Modell der Dendriten-Soma-Axon-Informationsverarbeitung vorgestellt. Die besonderen Randbedingungen, die aufgrund der Kabelendkappe mit einer Leitfähigkeit und der Soma-Membran eine andere erforderlich sind, werden sorgfältig diskutiert. Die Lösung wird durch die Trennung von Variablen und Ableitungen einer Familie von Trennungskonstanten erhalten, die nur mit Hilfe von Wurzelfindungscodes in MatLab erhalten werden können. Solche Codes und ihre theoretischen Grundlagen werden ebenfalls diskutiert. Der MatLab-Ballstick-Modellcode wird dann so entwickelt, dass typische Ballstick-Beispielprobleme näherungsweise gelöst werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-287-880-9_11 ac87c7717815f0eeca5fbafe38ce45bf;de;;;1.1.;;;Informationsverarbeitung im gustatorischen System Gustation ist eine sensorische Modalität, die überlebenswichtig ist. Informationen des Geschmackssystems ermöglichen die Identifizierung und Abwehr von Giften und fördern die Aufnahme nahrhafter Lebensmittel. Darüber hinaus ist eine feine Geschmacksunterscheidung, die durch postingestionales Feedback geleitet wird, entscheidend für die Aufrechterhaltung der Energiehomöostase. Die Untersuchung der Verarbeitung von Geschmacksinformationen sowohl durch das periphere als auch durch das zentrale Nervensystem war ein aktives und fruchtbares Forschungsgebiet und hat in den letzten Jahren zu einigen dramatischen Ergebnissen geführt. In diesem Kapitel werden wir zunächst das allgemeine Konzept der neuronalen Kodierung sensorischer Informationen diskutieren, um einen Hintergrund für die Diskussion insbesondere der gustatorischen neuronalen Kodierung zu bieten. Als nächstes werden die Anatomie und Organisation jeder Ebene des Geschmackssystems von der Zunge bis zum Kortex im Kontext verschiedener Theorien der sensorischen Kodierung dargestellt, wie sie auf den Geschmackssinn angewendet wurden. Schließlich werden wir die vereinheitlichenden Ideen überprüfen, die die Informationsverarbeitung im Geschmackssystem charakterisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30574-0_45 425f76471c3d0497c84067cd9e7d556d;de;;;1.1.;;;Funktionelle Aspekte der Informationsverarbeitung im menschlichen Gedächtnis Diese Studie wurde entwickelt, um die Annahme von Zweispeichertheorien des menschlichen Gedächtnisses zu untersuchen, dass Informationen, nachdem sie in einem sensorischen Register vorverarbeitet wurden, direkt in ein Kurzzeitspeichersystem übertragen werden. Um diese Annahme zu testen, wurde eine Reaktionszeitaufgabe verwendet. Ss musste den Inhalt ihres kurzfristigen Lagers scannen. Einige der Elemente von Kurzzeitgedächtniszielsätzen wurden mit Teststimuli durch Lernversuche vor der Gedächtnissuche in Verbindung gebracht.;-;-;-;https://link.springer.com/article/10.1007/BF00308937 c52c596f911a4b86bf5fada3f3a89d0f;de;;;1.1.;;;Elektrophysiologische Korrelate der Informationsverarbeitung bei Brustkrebspatientinnen, die mit adjuvanter Chemotherapie behandelt wurden Kognitive Defizite werden bei einer Reihe von Brustkrebspatientinnen gefunden, die sich einer adjuvanten Chemotherapie (Cyclophosphamid, Methotrexat und 5-Fluorouracil (CMF)) unterzogen haben, aber die zugrunde liegenden Mechanismen sind noch unklar. Das Ziel dieser Studie ist es, die Informationsverarbeitung bei diesen Patienten mit gleichzeitiger Registrierung der Gehirnaktivität zu untersuchen.;-;-;-;https://link.springer.com/article/10.1007/s10549-005-7093-3 2281794b11a46f26d6d42db0686e35da;de;;;1.1.;;;Zusammenhänge zwischen sozialer Informationsverarbeitung und Aggression bei heranwachsenden Mädchen mit und ohne ADHS Diese Studie untersuchte den Zusammenhang zwischen sozialer Informationsverarbeitung (SIP) und sowohl relationaler als auch offener, physischer Aggression in einer longitudinal verfolgten Stichprobe von 228 heranwachsenden Mädchen (11–18 Jahre, 140 mit ADHS und 88 Vergleichsmädchen). Während ihrer Kindheit nahmen Mädchen an naturalistischen Sommercamps teil, in denen die Ablehnung von Gleichaltrigen, offene körperliche Aggression und relationale Aggression mit mehreren Informanten und Methoden bewertet wurden. Ungefähr 4,5 Jahre später nahmen diese Mädchen an Nachuntersuchungen teil, bei denen sie ein häufig verwendetes Vignettenverfahren zur Beurteilung von SIP abschlossen, offene und relationale Aggression wurden erneut durch mehrere Informanten beurteilt. Korrelationen zwischen (a) offener und relationaler Aggression und (b) maladaptivem SIP waren in dieser weiblichen jugendlichen Stichprobe gering. Allerdings war der Zusammenhang zwischen Aggression und SIP bei den Vergleichsmädchen stärker als bei den Mädchen mit ADHS. Die Relevanz von SIP-Modellen für heranwachsende Mädchen und klinische Implikationen der Ergebnisse werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s10964-007-9237-8 e5772b245ceb442d54880175f509f873;de;;;1.1.;;;Motivation und Informationsverarbeitung in Lernexperimenten Zunächst skizzieren wir das mangelnde Forschungsinteresse an motivationalen intervenierenden Variablen innerhalb der Informationsverarbeitungstradition. Anschließend wird eine Versuchsreihe im Rahmen eines groß angelegten Forschungsprojekts (in Zusammenarbeit mit E. De Corte) kurz beschrieben, um die Wirkung von Motivationsprozessen in einfachen Lernexperimenten aufzuzeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-4406-0_72 44bd81cb854c6c3d59d2ebc4f8443065;de;;;1.1.;;;Gestalt- und merkmalsintensive Verarbeitung: Auf dem Weg zu einem einheitlichen Modell der menschlichen Informationsverarbeitung Die kürzlich in der Alterungs- und Gedächtnisforschung entwickelte „kognitive Asynchronie-Theorie“ impliziert eine funktionale Unterscheidung zwischen der Verarbeitung von „merkmalsintensiven“ Elementen mit zahlreichen identifizierbaren Merkmalen und der Verarbeitung von Bildern, die relativ spärlich in solchen Merkmalen sind und ganzheitlicher, „gestalterischer“ Umgang. Die vorliegenden Experimente beschäftigten sich mit der Frage, ob eine solche Unterscheidung außerhalb der bisher behandelten Bereiche des Gedächtnisses existiert. Die vorliegende Arbeit verwendet die mentale Rotation als Modellsystem. In Übereinstimmung mit den Vorhersagen dieses Modells zeigte Experiment 1, dass merkmalsintensive Figuren deutlich mehr Zeit zum Drehen benötigen als Gestaltfiguren, obwohl die Drehwinkel gleich waren. Experiment 2 zeigte, dass die merkmalsintensive Verarbeitung in stärkerem Maße verbal zugängliche semantische Systeme einbeziehen kann als dies bei „Gestalt“-Items der Fall ist. Experiment 3 identifizierte signifikante Praxiseffekte von merkmalsintensiven Reizen auf die Verarbeitung von Gestaltreizen, aber nicht umgekehrt. Die Ergebnisse dieser Experimente weisen darauf hin, dass sich die Unterscheidung „gestalt-/merkmalsintensive“ Verarbeitung sowohl auf die mentale Rotation als auch auf das Gedächtnis erstreckt. Implikationen für die Art der mentalen Repräsentation von verbalen und visuellen Materialien werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF02903160 62a661d63643986113df34ebe0d4fa8a;de;;;1.1.;;;PEET: ein Matlab-Tool zum Schätzen von physikalischen Gatterfehlern in Quanteninformationsverarbeitungssystemen In Matlab wird ein Physical Error Estimation Tool (PEET) zur Vorhersage von physikalischen Gatterfehlern von Operationen der Quanteninformationsverarbeitung (QIP) eingeführt, indem Gattersequenzen für eine Vielzahl von benutzerdefinierten, Hamilton-basierten physikalischen Systemen konstruiert und anschließend simuliert werden. PEET wurde entwickelt, um den interdisziplinären Anforderungen des Quantencomputerdesigns gerecht zu werden, indem die Gate-Leistung für Benutzer bewertet wird, die mit der zugrunde liegenden Physik von QIP vertraut sind, sowie für diejenigen, die sich für Rechenoperationen auf höherer Ebene interessieren. Die Struktur von PEET unterteilt den Großteil der physikalischen Details eines Systems in;-;-;-;https://link.springer.com/article/10.1007/s11128-016-1337-5 63f03ec98fa106aa9aa39d7b3c9e9421;de;;;1.1.;;;Studien zum Modell von Manfred Eigen zur Selbstorganisation der Informationsverarbeitung 1971 erweiterte Manfred Eigen die Prinzipien der Darwinschen Evolution auf chemische Prozesse, von katalytischen Netzwerken bis zur Entstehung von Informationsverarbeitung auf molekularer Ebene, die zur Entstehung von Leben führte. In diesem Beitrag untersuchen wir einige sehr allgemeine Merkmale dieses Szenarios, wie den Bewertungsprozess phänotypischer Merkmale in einer hochdimensionalen Fitnesslandschaft, den Einfluss der räumlichen Kompartimentierung auf die Bewertung und den selbstorganisierten Übergang von der strukturellen zur symbolischen Genetik Informationen über replizierende Kettenmoleküle. Im ersten Teil führen wir eine Analyse typischer dynamischer Eigenschaften kontinuierlicher dynamischer Modelle evolutionärer Prozesse durch. Insbesondere untersuchen wir die Kartierung des Genotyps auf kontinuierliche Phänotypräume nach den Ideen von Wright und Conrad. Wir untersuchen typische Merkmale einer Schrödinger-ähnlichen Dynamik, die Folgen der hohen Dimensionalität, die führende Rolle von Sattelpunkten und Conrads extradimensionalen Bypass. Im letzten Teil diskutieren wir kurz die Bewertung von Kompartimentmodellen und die selbstorganisierte Entstehung molekularer Symbole zu Beginn des Lebens.;-;-;-;https://link.springer.com/article/10.1007/s00249-018-1287-1 f7169b30dc2acd7a94c75a28dc7e7a3e;de;;;1.1.;;;Stochastische Informationsverarbeitung in biologischen Systemen II — Statistik, Dynamik und Phasenübergänge Wir diskutieren die Verwendung probabilistischer Automaten und Netzwerke probabilistischer Automaten als Rahmen für die Modellierung der biologischen Informationsverarbeitung und untersuchen verschiedene Konsequenzen. Insbesondere verwenden wir das Ising-Modell und die Rekursion in der Brownschen Bewegung, um zu argumentieren, dass das Gehirn seine zweidimensionale Oberfläche für den primären Datenzugriff verwendet, und betrachten biologische Angriffe auf Polynomialzeit- und nichtdeterministische Polynomialzeit-Probleme, Mein Vortrag und dieses Papier bilden eine Fortsetzung der gemeinsamen Arbeit mit Richard Pekelney (Hastings und Pekelney, 1982).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2515-4_6 ea574e3e777f3c6d6d65cbd790875fc5;de;;;1.1.;;;Experimentelle Umsetzung der Quanteninformationsverarbeitung durch Zeeman-gestörte Kernquadrupolresonanz Kernspinresonanz (NMR) ist im Kontext der Quanteninformationsverarbeitung (QIP) weit verbreitet. Trotz der großen Ähnlichkeiten zwischen NMR und Kernquadrupolresonanz (NQR) wurde jedoch keine experimentelle Implementierung für QIP unter Verwendung von NQR berichtet. Wir beschreiben die Implementierung grundlegender Quantengatter und deren Anwendungen zur Erzeugung und Manipulation von pseudoreinen Zuständen mit linear polarisierten Hochfrequenzpulsen unter statischer Magnetfeldstörung. Die NQR-Quantenoperationen wurden mit einer Einkristallprobe von;-;-;-;https://link.springer.com/article/10.1007/s11128-015-0967-3 f463e85cbc5b38107840906a56e8038f;de;;;1.1.;;;Das Substrat für die biologische Informationsverarbeitung Ein Großteil der Forschung zur Informationsverarbeitung in biologischen Systemen und allgemeiner im lebenden Zustand hat sich auf Computer- und mathematische Modelle konzentriert. Andere Forschungen haben sich mit der Biophysik und Biochemie der Gentranskription, der Strukturbildung und der allgemeinen molekularen Mustererkennung befasst. Conrad und Kampfners;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-1890-0_7 612112e93e15bf4de696b9b62aa0d926;de;;;1.1.;;;Verständnis des AIDS-Risikoverhaltens sexuell aktiver urbaner Jugendlicher: Ein empirischer Test des Informations-Motivations-Verhaltenskompetenz-Modells Die aktuelle Forschung wandte das Information-Motivation-Behavioral Skills (IMB)-Modell an, um die psychologischen Determinanten des AIDS-Risikoverhaltens in einer Stichprobe sexuell aktiver, hauptsächlich aus Minderheiten stammender urbaner Jugendlicher (;-;-;-;https://link.springer.com/article/10.1023/A%3A1025411317851 dbf4ad8e9247261402a57ce54dd6cf21;de;;;1.1.;;;Irrelevantes Verhalten, Informationsverarbeitung und Erregungshomöostase Dieses Papier erweitert eine neue Hypothese über die kausalen Mechanismen, die irrelevantem Verhalten zugrunde liegen. Es beginnt mit einer kritischen Zusammenfassung früherer Theorien, die versuchten, Vertreibungsaktivitäten zu erklären, aber nicht vorhersagen konnten, mit welcher Konsistenz bestimmte Verhaltensweisen in Stresssituationen von verschiedenen Arten gezeigt werden. Verhaltens- und physiologische Studien legen nahe, dass diese Verhaltensmuster eng mit der beginnenden Schlafaktivierung verbunden sind. Die funktionelle Bedeutung dieses Zusammenhangs und einige der dafür verantwortlichen kausalen Prozesse werden diskutiert. Paradoxerweise treten Verdrängungsaktivitäten jedoch auf, wenn sich Tiere in einem Zustand hoher Erregung befinden. Das Konzept der Erregung wird im Lichte der Informationstheorie überdacht und in engem Zusammenhang mit der Informationsverarbeitungsrate im Nervensystem angenommen. Dabei werden die Zusammenhänge zwischen neuronaler und autonomer Erregung betrachtet. Es wird argumentiert, dass Übererregung auftreten kann, wenn die Informationsverarbeitung die begrenzte Kanalkapazität des Systems überschreitet, mit einem daraus folgenden Effizienzverlust. Es wird darauf hingewiesen, dass es Mechanismen gibt, die in der Lage sind, den Informationsfluss in das Gehirn zu kontrollieren, und es wird vermutet, dass sie in einen Rückkopplungsmechanismus eingebunden sind, der die Erregung reguliert und die Aktivierung eines De-Erregungssystems beinhaltet, das dem neurologischen Schlafmechanismus. Als Folge dieser regulatorischen Aktivierung des Schlafsystems werden Verdrängungsaktivitäten angesehen. Diese Hypothese wird dann mit bestehenden Verdrängungstheorien verglichen und ihr Zusammenhang mit ihnen diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF00424983 cf4d6fe1513a8c476507d013e5158f3a;de;;;1.1.;;;Neuronale Modellierung: Neuronale Informationsverarbeitung und ausgewählte Anwendungen Der Hauptzweck der neuronalen Modellierung besteht darin, mit Theorien und Prinzipien der Ingenieurwissenschaften und der Informatik mentale Prozesse zu beschreiben, durch die lebende Organismen wahrnehmen, handeln, lernen und sich erinnern, damit die Funktionsweise des Nervensystems besser verstanden werden kann. Diese Modelle dienen als Plattformen zur Simulation von Gehirnaktivitäten und führen nicht nur zu tieferen Einblicken in die Funktionsweise des menschlichen Gehirns, sondern auch darüber, warum es versagt. Die Modelle können dann verwendet werden, um die Entwicklung von Lösungen und Geräten zur Linderung von Gehirnerkrankungen und zur Wiederherstellung verlorener Körperfunktionen zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-5227-0_7 594f60f9edd7a5314f2fe198ba915047;de;;;1.1.;;;Unterscheidung der Dimensionen Valenz und Glaubenskonsistenz in der depressiven und nichtdepressiven Informationsverarbeitung Die Verzerrungseffekte von Valenzkongruenz und Glaubenskongruenz wurden bei depressiven und nicht depressiven Probanden untersucht. Wir stellten die Hypothese auf, dass die Kongruenz zwischen der Wertigkeit des Materials und dem psychologischen Status der Probanden, wenn sie von der Kongruenz mit den Überzeugungen der Probanden getrennt wird, die Erinnerung und das Wiedererkennen von Selbstbeschreibungen verbessern und zu einer stärkeren Bestätigung des Feedbacks führen würde. Depressive und nicht depressive Frauen bewerteten die Selbstbeschreibung der persönlichen Adjektive. Zwei Wochen später erhielten sie auf der Grundlage ihrer vorherigen Selbstbeschreibungen falsches Feedback zu Persönlichkeitstests. Jeder Proband erhielt alle vier Kombinationen von zwei gekreuzten Dimensionen: Informationen stimmten entweder überein oder widersprachen den zuvor festgelegten Überzeugungen über das Selbst und waren entweder schmeichelhaft oder nicht schmeichelhaft. Während der zweiten Sitzung erinnerten sich die Probanden eher an schmeichelhafte Selbstbeschreibungen und erkannten sie als wenig schmeichelhafte Selbstbeschreibungen, nachdem sie statistisch auf Übereinstimmung mit früheren Überzeugungen überprüft hatten. Diese Unterschiede waren bei nicht depressiven Personen signifikant stärker ausgeprägt als bei depressiven Personen. Die Probanden bewerteten schmeichelhaftes Feedback als genauer als wenig schmeichelhaftes Feedback, lieferten mehr bestätigende Beweise, um es zu überprüfen, und wiesen der Gewinnung zusätzlicher verwandter Informationen eine geringere Priorität zu. Der gleiche Effekt wurde für glaubenskongruentes im Vergleich zu inkongruentem Feedback beobachtet. Depressive und nicht depressive Probanden unterschieden sich in Reaktion auf Feedback nicht signifikant. Obwohl die Feedbackvalenz die Reaktion auf Feedback beeinflusste, war der Effekt bei depressiven und nicht depressiven Probanden nicht unterschiedlich.;-;-;-;https://link.springer.com/article/10.1007/BF01173306 1009560a0d747585486e59ab0432b8e6;de;;;1.1.;;;Zusammenhang zwischen subjektiver Selbsteinschätzung kognitiver Dysfunktion und objektiver Informationsverarbeitungsleistung in einer Gruppe von hospitalisierten schizophrenen Patienten Diese Studie untersucht die Zusammenhänge zwischen subjektiver Selbsteinschätzung kognitiver Schwierigkeiten im Zusammenhang mit Schizophrenie und Leistungsparametern einer objektiven Entscheidungsreaktionszeitaufgabe. Die prognostizierten Zusammenhänge traten nicht auf und die Ergebnisse werden im Hinblick auf die methodischen Schwierigkeiten der Selbstauskunftsmessung und die Merkmale der verwendeten CRT-Aufgabe diskutiert. Ein positiver Befund war der signifikante Zusammenhang zwischen der Chronizität der Erkrankung und den CRT-Messungen.;-;-;-;https://link.springer.com/article/10.1007/BF00432883 cf6960a37a140e77f597aa1f32d0f9f5;de;;;1.1.;;;Aspekte der zeitlichen Informationsverarbeitung: Eine dimensionale Analyse Eine große Kontroverse auf dem Gebiet der prospektiven zeitlichen Informationsverarbeitung bezieht sich auf die Frage, ob die Leistung in verschiedenen zeitlichen Aufgaben durch die allgemeine Annahme einer internen Uhr und nicht durch unterschiedliche, aufgabenspezifische Timing-Mechanismen erklärt werden kann. Daher wurde die vorliegende Studie entworfen, um Dimensionen der zeitlichen Informationsverarbeitung zu identifizieren. Zu diesem Zweck führten 120 Probanden acht psychophysische zeitliche Aufgaben durch. Korrelations- und Hauptfaktoranalysen legten einen gemeinsamen Schrittmacher-basierten Intervall-Timing-Mechanismus nahe, der an der Dauerunterscheidung, der zeitlichen Generalisierung und der Beurteilung der zeitlichen Reihenfolge beteiligt ist. Andererseits scheinen Rhythmuswahrnehmung und wahrgenommene Gleichzeitigkeit/Sukzessivität durch aufgabenspezifische Prozesse gesteuert zu werden, die nichts mit intervallbasiertem Timing zu tun haben.;-;-;-;https://link.springer.com/article/10.1007/s00426-003-0164-3 4ce3780dd964ec2da6e457fd83b9bc19;de;;;1.1.;;;Zusammenfassung: With Joyful Flow – Der duale Informationsverarbeitungseffekt von pragmatischer und hedonischer Benutzererfahrung auf die Markenbindung Ein modernes Management von User Experience im aktuellen digitalen Zeitalter erfordert ein profundes Wissen über seine wesentlichen Elemente und Konsequenzen. In Bezug auf die Messung der User Experience berufen sich Wissenschaft und Praxis häufig auf konventionelle, explizite Maßnahmen wie Selbstauskünfte. Die Sozialpsychologie und die Neuroökonomie argumentieren jedoch, dass die meisten mentalen Prozesse sogenannter impliziter Natur sind und im Unbewussten verborgen stattfinden. Vor diesem Hintergrund konzentriert sich die aktuelle Forschung auf den expliziten und impliziten Einfluss der User Experience auf das markenbezogene Verhalten. Aus diesem Grund wird ein konzeptionelles Modell abgeleitet, das explizite und implizite Informationsprozesse hedonischer und pragmatischer User Experience integriert. Darüber hinaus wird ein neues Messinstrument entwickelt, das explizite und implizite Messungen der User Experience beinhaltet. Die empirischen Ergebnisse der durchgeführten Online-Studie belegen eine zufriedenstellende Performance des vorgestellten konzeptionellen Modells und der damit verbundenen User-Experience-Maßnahmen. Im Detail zeigen die Ergebnisse signifikante Effekte der User Experience auf die Markenbindung sowohl auf expliziter als auch auf impliziter Informationsverarbeitungsebene.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-45596-9_270 e493910f87dce58590b4b91996cedad8;de;;;1.1.;;;Von der mathematischen Untersuchung der visuellen Informationsverarbeitung im Gehirn zur Bildverarbeitung In dieser Übersichtsarbeit werden wir uns mit Anwendungen unserer Untersuchung mathematischer Modelle der visuellen Informationsverarbeitung im Gehirn befassen. Insbesondere werden wir einige unserer Ergebnisse zur Schärfung, Kantenverbesserung und Extraktion von Konturen von Objekten in einem Bild zeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-55483-7_9 e65281238bc0781fb4d316f50eeb2e9d;de;;;1.1.;;;Nichtlineare Dynamik und Informationsverarbeitung in Schrittmacherneuronen Die Arbeit behandelt einige nichtlineare dynamische Phänomene bei der oszillatorischen Aktivität einer einzelnen Nervenzelle. Basierend auf Experimenten mit im ZNS platzenden Schrittmacherneuronen von;-;-;-;https://link.springer.com/article/10.1007/BF02462850 e8d8205b777f72af167129a99b3c24ac;de;;;1.1.;;;Analogischer Unterricht innerhalb des Informationsverarbeitungsparadigmas: wirksame Mittel, um das Lernen zu erleichtern Forschungen zur Struktur des Gedächtnisses haben gezeigt, dass die Verknüpfung von unbekanntem mit Bekanntem den Erwerb und das Behalten des neuen Materials erleichtert und diese Assoziationen durch Analogien effizient hergestellt werden können. Der vorliegende Beitrag diskutiert die aktuelle Konzeptualisierung der Informationsverarbeitung des Gedächtnisses, die analogen Lernprozesse und die insgesamt erwünschten Ergebnisse ihrer Verwendung, um neue Informationen zu erlangen und zu behalten. Darüber hinaus werden unterrichtliche Implikationen diskutiert, wie, wann und warum Analogien verwendet werden sollten.;-;-;-;https://link.springer.com/article/10.1007/BF00052699 d8e3576a6d5c338f0e6954cfaa961408;de;;;1.1.;;;Visuelle Informationsverarbeitung und zerebrale Aktivierung bei legasthenen Jungen: Quantitative EEG-Analyse bei diskriminierenden Leseaufgaben Getestet wird die Hypothese, dass bei Entwicklungsdyslexie die Integration visuell präsentierter Informationen und Sprachverarbeitung dysfunktional ist. Es werden Ergebnisse der Verarbeitung visuell präsentierter Buchstabenketten während der EEG-Aufzeichnungen präsentiert. Die Aufgabenschwierigkeit der Buchstabenketten wurde individuell und automatisch durch ein Computerprogramm standardisiert. Das EEG wurde unter Ruhebedingungen und unterschiedlichen Leseleistungen aufgezeichnet. 30 entwicklungsdyslexische Jungen, die die Denckla-Kriterien „Legasthenie pur“ erfüllten, und 28 passende Kontrollpersonen wurden untersucht. Die wichtigsten replizierten Ergebnisse waren: (1) Es gab eine Verzögerung bei der Verarbeitung von visuell präsentierten Briefinformationen bei legasthenen Kindern, (2) es gab kein Defizit an anhaltender Aufmerksamkeit bei Entwicklungs-Legasthenikern, (3) eine zunehmende kognitive Aktivierung und Leseleistung führte zu einer schnelleren Abschwächung der relativen Alpha-Power bei Legasthenikern im Vergleich zur Kontrollgruppe und (4) die Legasthenikergruppe zeigte keine charakteristischen fokalen EEG-Merkmale, wenn die Aufgabenschwierigkeit individuell standardisiert wurde.;-;-;-;https://link.springer.com/article/10.1007/BF02084433 b02b30d7d5f9e348ae5c648ba893c875;de;;;1.1.;;;Testen der kausalen Mediationskomponente von Dodges Social Information Processing Model of Social Competence and Depression In Dodges Modell der „sozialen Informationsverarbeitung“ ist Depression das Ergebnis einer linearen Abfolge von fünf Stufen der Informationsverarbeitung (Annu Rev Psychol 44: 559–584, 1993). Diese Stadien folgen der Reaktion einer Person auf situative Reize, so dass jede Phase der Informationsverarbeitung die Beziehung zwischen früheren und späteren Stadien vermittelt. Da das soziale Informationsverarbeitungsmodell der Depression hauptsächlich durch retrospektive Literaturrecherchen gestützt wurde (Annu Rev Psychol 44: 559–584, 1993), führten wir eine prospektive Dreiwellenstudie mit 92 Jugendlichen ohne lebenslange oder aktuelle Depression durch. Die depressiven Symptome und die Informationsverarbeitung wurden unter Verwendung bewährter Maßnahmen aus früheren Studien bewertet. Das Modell der sozialen Informationsverarbeitung wurde durch Querschnittsergebnisse unserer Studie unterstützt. Basierend auf prospektiven Daten konnten wir die Mediationshypothesen des Modells nur teilweise unterstützen. Wir diskutieren unsere unerwarteten Ergebnisse im Lichte der Einschränkungen, einschließlich angewandter Maßnahmen und Probeneigenschaften.;-;-;-;https://link.springer.com/article/10.1007/s10964-006-9089-7 923bf6f1291b6e7383d09e1620be0fb0;de;;;1.1.;;;Zeitkurse in der visuellen Informationsverarbeitung: Einige theoretische Überlegungen In der Literatur werden zwei unterschiedliche Ansichten bezüglich des zeitlichen Verlaufs der Aktivierung von „Erkennungseinheiten“ – hypothetischen Entitäten, die Identitätsinformationen repräsentieren – vorgeschlagen. Beide Ansichten leiten sich aus einer begrenzten Menge von Phänomenen der visuellen Wahrnehmung ab. Die erste Ansicht bezieht ihre Intuitionen aus Phänomenen, wie sie im Bloch-Gesetz zusammengefasst sind, diese Phänomene zeigen eine Integration oder Summation der Aktivierung im Laufe der Zeit. Diese „Grow-and-Grow“-Ansicht geht davon aus, dass Erkennungseinheiten im Laufe der Zeit allmählich Aktivierung akkumulieren. Die zweite Ansicht findet ihre Inspiration in Phänomenen wie Mach-Bands und Simultankontrast, diese Phänomene zeigen eine Hemmung oder stationäre Unterdrückung im Laufe der Zeit. Diese „Grow-and-Shrink“-Ansicht geht davon aus, dass die Aktivierungsniveaus anfangs schnell ansteigen und dann abzunehmen beginnen.;-;-;-;https://link.springer.com/article/10.1007/BF00867205 e4d2925b92f12b1ecc13964fbd3c0328;de;;;1.1.;;;Organisationsgedächtnis für Wissens- und Informationsmanagement in der Definitions-, Analyse- und Entwurfsphase von Tiefbauprojekten mit einem XML-Modell Eine Ontologie von Bauingenieurleistungen entsteht durch die Kombination von Kenntnissen über die Phasen des Lebenszyklus eines Konstruktionsprodukts, die Schritte in den Phasen einer Ingenieurleistung und die damit verbundenen technischen, technologischen, wissenschaftlichen, sozialen, wirtschaftlichen, organisatorischen und rechtlichen Aspekte mit Ingenieurdienstleistung. Die Dokumente, die Informationen und Wissen zu Projekten enthalten, sind mit ontologischen Konzepten gekennzeichnet. Die annotierten Dokumente werden in einer XML-Datenbank gespeichert und bilden ein organisatorisches Gedächtnis, das den Zugriff auf und die Wiederverwendung von Informationen und Wissen ermöglicht. Anhand einer Fallstudie eines Ingenieurdienstes wird der vorgeschlagene Ansatz zur Konstruktion des Organisationsgedächtnisses veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84628-976-7_57 4ab2b2f4dba11ef9448eebec193c3800;de;;;1.1.;;;Einige Auswirkungen des wahrgenommenen Risikos auf die Verarbeitung von Verbraucherinformationen Dieses Experiment untersuchte im Kontext einer Informationsverarbeitungstheorie des Verbraucherverhaltens die Auswirkungen des wahrgenommenen Risikos auf die Menge der erfassten Informationen und die Gesamtzeit, die für die Verarbeitung dieser Informationen benötigt wurde, bevor eine Markenwahl getroffen wurde, sowie die Auswahl von Marken durch well made -bekannter Hersteller als Risikominderungsstrategie. Ein einzigartiger Aspekt des Experiments war die Behandlung des wahrgenommenen Risikos als Stimulusvariable und nicht wie üblich als Organismusvariable.;-;-;-;https://link.springer.com/article/10.1007/BF02721888 c4a13ef62666465e22f92f76f89f22ea;de;;;1.1.;;;Eine Untersuchung der Teaminformationsverarbeitung in Serviceteams: Untersuchung der Verbindung zwischen Teams und Kunden Um die Bedürfnisse immer sachkundiger und anspruchsvoller werdender Kunden zu befriedigen, implementieren viele Unternehmen Teams in Kundenkontaktpositionen. Leider behindern oft erstickte Informationsflüsse und schlechte Kommunikation ihre Wirksamkeit. Um Manager beim Aufbau effektiverer Teams zu unterstützen, entwickeln und testen die Autoren ein Modell der Team-Informationsverarbeitung, das sowohl Vorläufer (Informationsbeschaffung, Teamnormen, Teamgröße und Teamlebensdauer) als auch Ergebnisse (Kundenzufriedenheit mit dem Service) umfasst. Daten, die von 61 Gesundheitsteams sowie von 1.598 von diesen Teams betreuten Patienten gesammelt wurden, werden verwendet, um die hypothetischen Beziehungen zwischen den Variablen zu untersuchen. Das Modell wird teilweise unterstützt. Basierend auf diesen Erkenntnissen werden Implikationen für Forscher und Praktiker angeboten.;-;-;-;https://link.springer.com/article/10.1177/0092070303255382 cf95e572c7936d7109513b71c7e1216d;de;;;1.1.;;;Dynamisches Modell der Informationsverarbeitung und/oder Selbsterregung in thalamokortikalen neuronenähnlichen Modellen Ein Funktionsmodell der Signaltransformation in neuronalen Netzen ähnlicher miteinander verbundener aktiver Elemente wird entwickelt. Das Modell beschreibt die Dynamik der Verarbeitung sensorischer Signale in thalamokortikalen neuronalen Netzen. Unter Verwendung des Modells werden normale Modi der Signalverarbeitung erhalten (am Beispiel von Bildern). Darüber hinaus reproduzierten wir Ausbreitungsregime von Gebieten mit erhöhter Impulsaktivität (analog der Epilepsie). Die Steuerung eines Kopplungskoeffizienten zwischen den Modulen des Modells reproduziert ein intermittierendes Phänomen in thalamokortikalen oszillatorischen EEG-Mustern.;-;-;-;https://link.springer.com/article/10.3103/S1060992X16040093 4eddce67727dbfc43535681f3f6a8422;de;;;1.1.;;;Stressereignisse und Informationsverarbeitungsdispositionen moderieren die Beziehung zwischen positivem und negativem Affekt: Auswirkungen auf Schmerzpatienten Beziehungen zwischen positivem Affekt, negativem Affekt und Schmerz wurden als prospektive Funktion von Stressereignissen bei einer Stichprobe von Patienten mit rheumatoider Arthritis und als Querschnittsfunktion einer informationsverarbeitenden Disposition bei Personen mit Fibromyalgie analysiert. Positiver Affekt und negativer Affekt waren in beiden Stichproben insgesamt statistisch getrennte Faktoren. Darüber hinaus standen negativer Affekt und Schmerz über alle Bedingungen hinweg in Beziehung. Positiver Affekt und negativer Affekt korrelierten jedoch in Stressphasen stärker negativ und bei Patienten, die Informationen einfacher verarbeiteten, stärker negativ. Außerdem sagte der positive Affekt Schmerzen in stressigen Zeiten voraus und tat dies auch für Patienten, die Informationen einfacher verarbeiteten. Diese Daten legen nahe, dass positiver Affekt und negativer Affekt einzigartige Faktoren sind, deren Wechselbeziehungen und externe Korrelate nicht statisch sind.;-;-;-;https://link.springer.com/article/10.1007/BF02895113 0c364076f71aa4a564595a32f81b82f7;de;;;1.1.;;;Eine diskrete Emotion mit diskreten Auswirkungen: Auswirkungen von Wut auf die Tiefe der Informationsverarbeitung Es gibt einen relativen Mangel an umfassenden Studien über Wut und Informationsverarbeitung. Emotionen können die Tiefe der Informationsverarbeitung beeinflussen und Wut ist eine starke Emotion mit hoher Gewissheit. Das Ausmaß der Auswirkungen von Wut auf die Tiefe der Informationsverarbeitung wurde jedoch nicht zusammengefasst. Dieses Stipendium führt eine metaanalytische Synthese durch, um die Auswirkungen von Ärger auf die Tiefe der Informationsverarbeitung im Vergleich zu einer der vier Kontrastgruppen zu berichten: neutrale Kontrolle, Traurigkeit, Glück und Angst. Eine systematische Suche identifizierte 26 Artikel mit insgesamt 39 einzigartigen Studien und 113 Effektstärken. Die Auswertung ergab, dass Ärger bei keiner der emotionalen Vergleichsgruppen einen signifikanten Einfluss auf die Tiefe der Informationsverarbeitung hatte. Darüber hinaus wurde das Vorliegen eines Publikationsbias nur bei einer Analyse festgestellt. Diese komplexen Ergebnisse zeigen, dass Wut eine überaus nuancierte Emotion ist. Die Implikationen des Studiums und des zukünftigen Stipendiums werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s10339-020-00982-8 c602a72136e17d97aedffe311993fb88;de;;;1.1.;;;Risikoinformationsmanagement komplexer Waffensystementwicklung basierend auf interpretativer Strukturmodellierung Das Risikoinformationsmanagement für das komplizierte Waffensystem ist schwierig und wichtig. Es muss die Computermodellierung oder Simulationstechnologie zum Umgang eingeführt werden. Die Bedeutung und die Forschungslage des Risikoinformationsmanagements werden kurz zusammengefasst und das Risiko dieses Bereichs mit der Methode des Interpretative Structure Modeling analysiert. Nach dieser Modellierungsmethode werden das Hierarchiestrukturmodell und das Interpretative Strukturmodell für das Risikomanagement komplexer Waffensystementwicklungen aufgebaut, mit denen die inhärenten Zusammenhänge hinter den komplizierten Risikoelementen gefunden werden können. Und durch diese beiden Modelle wurden die Risikomanagement-Hinweise für die Waffensystementwicklung erhalten. Die Ergebnisse beweisen, dass diese Ratschläge gut mit den Realitäten übereinstimmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34041-3_91 a6348865898776844c69aa9d03f5ba2a;de;;;1.1.;;;Qualitative Informationsverarbeitung in dreigliedrigen Synapsen: Ein hypothetisches Modell Ein neues Modell der synaptischen Informationsverarbeitung wird vorgeschlagen. Es konzentriert sich auf dreigliedrige Synapsen und das gliale Netzwerk, genannt Syncytium. Eine dreigliedrige Synapse besteht nicht nur aus der Präsynapse und der Postsynapse als neuronalen Komponenten, sondern auch aus den glialen Komponenten, dem Astrozyten und seinem Synzytium. Es wird die Hypothese aufgestellt, dass im astrozytären Syncytium absichtliche Programme erzeugt werden können, die die Expression von astrozytären Rezeptoren bestimmen. Absichtliche Programmierung wird als sogenannte negative Sprache formalisiert, die in eine als astrozytäre Rezeptoren integrierte Ortsstruktur umgewandelt werden kann. Basierend auf dem Formalismus der Tritogrammatik verkörpern astrozytäre Rezeptoren Orte gleicher oder unterschiedlicher Qualität für die Belegung mit verwandten Neurotransmittern. Abhängig vom Muster der astrozytären Rezeptoren können Astrozyten in der Lage sein, die synaptische Informationsverarbeitung qualitativ zu modifizieren. Obwohl das vorgestellte Modell experimentell abgesichert ist, sind der experimentellen biologischen Hirnforschung methodische Grenzen gesetzt. Daher kann die technische Umsetzung eine echte und vielversprechende Alternative darstellen.;-;-;-;https://link.springer.com/article/10.1007/s12559-011-9115-2 0609b41a754fc06acf93016f11b99c2e;de;;;1.1.;;;Kognition jenseits des klassischen Informationsverarbeitungsmodells: Kognitive Interaktivität und das systemische Denkmodell (SysTM) In diesem Kapitel schlagen wir ein systemisches Denkmodell (SysTM) vor, um höhere kognitive Operationen zu berücksichtigen, beispielsweise wie ein Agent Schlussfolgerungen zieht, Probleme löst und Entscheidungen trifft. Das SysTM-Modell begreift das Denken als einen kognitiven Prozess, der sich in Zeit und Raum entwickelt und zu einem neuen kognitiven Ereignis (d. Dies setzt voraus, dass solche kognitiven Ereignisse aus;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49115-8_7 c450560a1987c432e90114da04ea1932;de;;;1.1.;;;Muster von Schreibfehlern im Rahmen eines informationsverarbeitenden Schreibmodells In diesem Beitrag werden zwei verschiedene psychologische Traditionen zusammengeführt, um das Schreiben und die Rechtschreibung von Kindern zu verstehen. Die erste Tradition ist die Informationsverarbeitung: Das Kind wird als modulares System konzipiert, durch das Informationen fließen, und eine theoretische Menagerie aus Kurzzeitspeichern, Artikulationsschleifen, Logogenen, visuellen Analysatoren usw. gibt Auskunft über die Produktion und Wahrnehmung schriftliches Material. Morton (1981) und Baddeley und Hitch (1974) veranschaulichen diesen Ansatz. Die zweite Tradition ist die Strukturanalyse: Aus den Fehlermustern in der Ausgabe des Kindes wird abgeleitet, auf welche Codierungsarten und sprachlichen Wissensstände Kinder bei der Erstellung von schriftlichem Material zugreifen können. Cromer (1980), Nelson (1980) und Sterling (im Druck) stehen für diesen Ansatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-3724-9_19 418663f9f99bf8f84751200192bf3919;de;;;1.1.;;;Analogien zwischen Physik und Informationsverarbeitung Die Ähnlichkeiten empirischer Abhängigkeiten in einer Sprache und theoretische physikalische Gesetze werden berücksichtigt. Die Frage der Verwendung quantenmechanischer Modelle zur Beschreibung der semantischen Komponente von Textdokumenten wird analysiert. Mögliche Analogien zwischen sprachlichen und physischen Objekten werden vorgeschlagen.;-;-;-;https://link.springer.com/article/10.3103/S0005105520050076 d864ae400ae4e8a8a7716b17ebd966d4;de;;;1.1.;;;Rubriken zur Bewertung von kritischem Denken und Informationsverarbeitung in MINT-Studiengängen Prozessfähigkeiten wie kritisches Denken und Informationsverarbeitung werden häufig als Ergebnisse für MINT-Studiengänge angegeben, aber Lehrende bewerten diese Fähigkeiten in ihren Kursen oft nicht explizit. Es ist wahrscheinlicher, dass Schüler diese entscheidenden Fähigkeiten entwickeln, wenn eine konstruktive Abstimmung zwischen den beabsichtigten Lernergebnissen eines Lehrers, den Aufgaben, die der Lehrer und die Schüler durchführen, und den Bewertungsinstrumenten, die der Lehrer verwendet, besteht. Rubriken für jede Prozessfertigkeit können diese Ausrichtung verbessern, indem sie ein gemeinsames Verständnis der Prozessfertigkeiten zwischen Lehrenden und Schülern schaffen. Rubriken können es den Lehrenden auch ermöglichen, ihre Lehrpraktiken im Hinblick auf die Entwicklung der Prozessfähigkeiten ihrer Schüler zu reflektieren und den Schülern Feedback zu ermöglichen, um Bereiche mit Verbesserungspotenzial zu identifizieren.;-;-;-;https://link.springer.com/article/10.1186/s40594-020-00208-5 65634ee39c003aee02d428e9d7e99228;de;;;1.1.;;;Sind verbal-narrative Modelle als Informationsverarbeitungsgeräte für einige verhaltensbezogene (biosemiotische) Probleme besser geeignet als mathematische Modelle? Dieser Artikel argumentiert, dass viele, wenn nicht die meisten Verhaltensbeschreibungen und Sequenzierungen im Wesentlichen eine Interpretation von Zeichen sind und von Forschern als Zeichenfolgen bewertet werden. Daher scheint die narrative Analyse, wie sie von Barthes und anderen entwickelt wurde, am besten für den Einsatz in Verhaltens-/Biosemiotikstudien anstelle der mathematischen Modellierung geeignet und ähnelt einigen klassischen ethologischen Methoden sehr. Da unser Gehirn Verhaltensweisen als Zeichen interpretiert und ihnen Bedeutung zuschreibt, scheint die narrative Analyse geeigneter als mathematische Modellierung, um Verhalten zu beschreiben und zu untersuchen. Mathematische Modelle sind in vielen Fällen extrem reduktionistisch und vereinfachend aufgrund von Beschränkungen der rechnerischen und/oder numerischen Darstellung, die zu Fehlern und Zwangsinterpretationen der Realität führen. Da tatsächliche Tiere (und unsere Analyse ihres Verhaltens) im wirklichen Leben nicht so optimal sind wie unsere mathematischen Modelle, wird hier vorgeschlagen, logische/verbale Modelle und semantische Interpretationen als gleich oder sogar besser für die Verhaltensanalyse geeignet zu betrachten und davon Abstand zu nehmen von der Durchsetzung der mathematischen Modellierung als einzigem (richtigen) Weg zum Studium und zum Verständnis biologischer Probleme, insbesondere solcher verhaltensbezogener und biosemiotischer Natur, abzusehen.;-;-;-;https://link.springer.com/article/10.1007/s13752-019-00323-9 56ca74df4a44d88c2c8cc7d52e5d4328;de;;;1.1.;;;Mathematische Modelle der visuellen Informationsverarbeitung im menschlichen Gehirn und Anwendungen auf visuelle Illusionen und Bildverarbeitung Dieses Kapitel ist ein Überblick über eine Reihe gemeinsamer Arbeiten von Shinobu Arai und mir. Der Hauptzweck unserer Studie besteht darin, mathematische Modelle der visuellen Informationsverarbeitung im Gehirn zu konstruieren und Anwendungen für das Studium visueller Täuschungen und Bildverarbeitung zu geben. In diesem Kapitel beschreibe ich einen Teil unserer Simulationen einiger visueller Illusionen, Kreationen der sogenannten „Fuyuu-Illusionen“ und eine Anwendung zur Bildverarbeitung.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-55007-5_2 77fbf5baaa24645edb090d498393552d;de;;;1.1.;;;Korrekte Erweiterung einiger instabiler Probleme der statistischen Informationsverarbeitung Ein Schema der Kompaktifizierung eines Lösungsraums in einer Klasse von endlich additiven Wahrscheinlichkeiten wird konstruiert. Darauf aufbauend wird ein verallgemeinertes Problem der Erreichbarkeit im mittleren Äquivalent zu verschiedenen asymptotischen Versionen von Vorhersagedomänen unter Störbedingungen vorgeschlagen. Dieses verallgemeinerte Problem verwendet eine Lösung des entspannten inversen Problems der Wahrscheinlichkeitsbestimmung.;-;-;-;https://link.springer.com/article/10.1023/A%3A1016751120054 e8680263997aa3fd98ec764bbdfb24f9;de;;;1.1.;;;Hohlraum-Quantennetzwerke für die Quanteninformationsverarbeitung im dekohärenzfreien Unterraum Wir geben einen kurzen Überblick über die Quanteninformationsverarbeitung im dekohärenzfreien Unterraum (DFS). Wir zeigen, wie man die Initialisierung der verschränkten Quantenzustände, den Informationstransfer und die Teleportation von Quantenzuständen, die Zwei-Qubit-Grover-Suche und den Aufbau des Quantennetzwerks in DFS innerhalb des Resonator-QED-Regimes basierend auf einer hohlraumunterstützten Wechselwirkung durch einzelne -Photonenimpulse.;-;-;-;https://link.springer.com/article/10.1007/s11467-009-0010-1 8c0eae07bc3da12afda841e33532f392;de;;;1.1.;;;Gedächtnismodelle: Informationsverarbeitung Ein vollständiges Verständnis des menschlichen Gedächtnisses erfordert notwendigerweise die Berücksichtigung der aktiven Prozesse zum Zeitpunkt des Lernens sowie der Organisation und Art der Darstellung von Informationen im Langzeitgedächtnis. Neben Prozess und Struktur ist es für die Theorie wichtig aufzuzeigen, wie reizgetriebene und konzeptionell getriebene Prozesse in der Lernsituation miteinander interagieren. Es überrascht nicht, dass keine existierende Theorie eine detaillierte Spezifikation all dieser Faktoren bietet. Es gibt jedoch eine Reihe spezifischerer Theorien, die erfolgreich einige der Komponentenstrukturen und -prozesse beleuchten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-73288-1_1 e029ef349a0ada93c63a6b8a2477b679;de;;;1.1.;;;Die Rolle der Theory of Mind bei der sozialen Informationsverarbeitung bei Kindern mit Autismus-Spektrum-Störungen: Eine Mediationsanalyse Personen mit Autismus-Spektrum-Störungen (ASS) zeigen signifikante Beeinträchtigungen in sozialen Fähigkeiten und Theory of Mind (ToM). Das Ziel dieser Studie war es, die Fähigkeiten zur Verarbeitung von ToM und sozialen Informationen bei 52 Kindern mit ASS im Vergleich zu 55 Kindern mit typischer Entwicklung (TD) zu bewerten. In einer Mediationsanalyse wurde untersucht, ob Fähigkeiten zur sozialen Informationsverarbeitung durch ToM-Kompetenzen vermittelt werden können. In unseren Ergebnissen zeigten Kinder mit Autismus ein Defizit an sozialen Fähigkeiten und ToM-Komponenten. Die innovativen Ergebnisse unserer Studie zur Mediationsanalyse zeigen, dass ToM eine Schlüsselrolle bei der Entwicklung sozialer Fähigkeiten spielt und fehlende ToM-Kompetenzen bei Kindern mit Autismus deren kompetentes Sozialverhalten beeinträchtigen.;-;-;-;https://link.springer.com/article/10.1007/s10803-017-3069-5 949b9abf97cabce120e0102a79f84bf4;de;;;1.1.;;;Eine Informationsverarbeitungsperspektive zu Divergenz und Konvergenz beim kollaborativen Lernen Dieser Beitrag stellt ein Modell des kollaborativen Lernens vor, das eine informationsverarbeitende Perspektive des Lernens durch soziale Interaktion einnimmt. Das kollaborative Informationsverarbeitungsmodell bietet eine theoretische Grundlage für das Verständnis von Lernprinzipien im Zusammenhang mit sozialer Interaktion und erklärt, warum Peer-to-Peer-Diskussionen potenziell effektiver sind als Lehrer-Schüler-Diskussionen. Das Modell erklärt Informationsdivergenz als Schlüsselprozess für kollaboratives Lernen und Informationskonvergenz als Schlüsselgruppenprozess für die Adressierung spezifischer Lernergebnisse.;-;-;-;https://link.springer.com/article/10.1007/s11412-010-9104-6 33ce505b7fd3a774a4558bbbd2fa6fcf;de;;;1.1.;;;Patienten- und krankenhausbezogene Determinanten zur subjektiven Beurteilung des medizinischen Behandlungsergebnisses von Schwerverletzten Die Bedeutung der subjektiven Bewertung der medizinischen Behandlung wurde bisher vernachlässigt. Ziel dieser Studie ist es daher, Determinanten der subjektiven Bewertung des medizinischen Behandlungsergebnisses bei schwerverletzten Patienten zu identifizieren.;-;-;-;https://link.springer.com/article/10.1007/s10389-007-0119-z 99bbcbdc128120f6760c239b08b12cc8;de;;;1.1.;;;Mehrstufiges Informationsverarbeitungsverhalten: Eine experimentelle Untersuchung Dieses Papier präsentiert eine Operationalisierung des Srinivasan-Modells zur Untersuchung des mehrstufigen Informationsverarbeitungsverhaltens. Basierend auf theoretischen Überlegungen werden konkrete Hypothesen zum mehrstufigen Informationsverarbeitungsverhalten aufgestellt. Eine experimentelle Untersuchung, die unternommen wurde, um diese Hypothesen zu testen, wird beschrieben.;-;-;-;https://link.springer.com/article/10.1007/BF02721899 473edd32935cc0eb5ac2092652d35998;de;;;1.1.;;;Eine weitere Untersuchung der Kommunikationsauffassung und Informationsverarbeitung Eine Untersuchung der Zusammenhänge zwischen Kommunikationsauffassung und Informationsverarbeitung zeigte, dass Personen mit hoher Angst nicht nur mehr negative Gedanken in Erwartung einer Rede einstudieren, sondern auch mehr sprachrelevante Gedanken und weniger neutrale, funktionale Gedanken erleben als mäßige oder geringe Angst. Die Ergebnisse werden im Hinblick auf problemfokussierte vs. emotionsfokussierte Informationsverarbeitung und ihre Beziehung zur Kommunikationsauffassung diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF01205175 181e377acf4a621835a00bc88c2f1d7b;de;;;1.1.;;;Computational Thinking Prozesse und ihre Kongruenz mit Problemlösung und Informationsverarbeitung Computational Thinking entwickelt sich als Schlüsselkompetenz des 21. Jahrhunderts, insbesondere für die Studierenden von heute als neue Generation digitaler Lernender. Der Erwerb dieser Kompetenz erfordert vertiefte Kenntnisse in Lern- und rechnerischen Denkprozessen (Labusch & Eickelmann,;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6528-7_5 df70ce47de79da1fa13f6bc3b76ee513;de;;;1.1.;;;Einige Ideen zur Informationsverarbeitung im Kleinhirn Andere auf dieser Konferenz präsentierte Beiträge beschäftigen sich entweder mit extrem formalisierten Modellen neuronaler Netze oder mit peripherer Verarbeitung. Daher mag es eine nützliche Erinnerung daran sein, wie weit solche Studien noch gehen müssen, wenn wir hier einige Ideen zur Informationsverarbeitung im Kleinhirn präsentieren, um zu betonen, wie kompliziert echte neuronale Interaktionen sein können, und um zu betonen, wie unwissend wir über „die Sprache der Neuronen“, wenn wir uns von der Peripherie entfernen. Hier versuchen wir eher, Fragen zu formulieren als Antworten zu geben – unsere Hoffnung ist, dass wir den Theoretiker an eine breite Palette anspruchsvoller Probleme erinnern und den Biologen dazu anregen können, neue Arten experimenteller Fragen zu lernen. Unsere Modelle sind noch nicht in prädiktiver Form, nicht zuletzt, weil viele entscheidende experimentelle Daten fehlen – wir hoffen, dass Experimentatoren, die zwischen den Zeilen lesen, dazu aufgefordert werden, neue Experimente durchzuführen und die Theoretiker dann vor die Aufgabe stellen, unsere Ansatz. Wir haben offensichtlich noch einen langen Weg vor uns, bis wir uns mit Modellen komplexer neuronaler Strukturen zufrieden geben können, die nicht im Mainstream der Ein- und Ausgabesysteme angesiedelt sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-87596-0_5 1ed7cfef0a6058ee12f0fb483d910a11;de;;;1.1.;;;Bioinspirierte Informationsverarbeitung für technische Systeme Im Laufe von Milliarden von Jahren hat die Natur unter dem Druck der Evolution Lösungen für verschiedene Probleme entwickelt. Da sich unsere Fähigkeit, die diesen Lösungen innewohnenden biologischen Mechanismen zu verstehen, ständig verbessert, haben wir die Möglichkeit, dieses Wissen bei der Lösung unserer herausfordernden Probleme in Bereichen wie Medizin und Umwelt anzuwenden. Dieser Beitrag diskutiert einen Ansatz, bei dem biologische Systeme als informationsverarbeitende Systeme untersucht werden, und das Verständnis, wie diese Systeme Informationen verarbeiten, wird dann auf technische Systeme übertragen. Zwei Beispiele werden vorgestellt. Der erste diskutiert, wie die fehlertolerante Informationsverarbeitung des Herzens in einem elektronischen System implementiert werden kann. Das zweite Beispiel diskutiert ein zelluläres biochemisches Reaktionsnetzwerk und wie seine Robustheitseigenschaft in einem chemischen System implementiert werden kann. Abschließend werden drei unterschiedliche Anwendungen kurz vorgestellt, in denen dieser Ansatz bereits mit vielversprechenden Ergebnissen angewendet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28792-3_24 6176c6e6b99f9be59ec6fdf613fdb61d;de;;;1.1.;;;Eine einheitliche epistemologische Theorie der Informationsverarbeitung Was bedeutet es für einen Agenten, der unter Unsicherheit eine Wahl hat, etwas zu „wissen“? Während eine Vielzahl mathematischer Methoden zur Verfügung steht, um formale Modelle zur Beantwortung dieser Frage zu konstruieren, kann die Kombination verschiedener Ansätze zu beunruhigenden Paradoxien führen. Ich schlage eine vereinheitlichte Theorie vor, die solche Inkonsistenzen beseitigt, indem sie sich auf eine scharfe konzeptionelle Unterscheidung zwischen Informationen, die die Entscheidungsträgerin beobachtet, und der Menge dieser Informationen, die sie kognitiv verarbeiten kann, verlässt. Das resultierende Modell ermöglicht natürliche entscheidungstheoretische Charakterisierungen des Vergleichs verschiedener Informationsmengen.;-;-;-;https://link.springer.com/article/10.1007/s11238-020-09769-x 7e7a1a34481892aeeebf17a2a58d28d4;de;;;1.1.;;;Informationsmanagementsystem für das Gesundheitswesen in der häuslichen Umgebung Das verteilte Objektgruppen-Framework (DOGF) ermöglicht eine einfachere Integration von verteilten Objekten in Heimanwendungen des Gesundheitswesens. Dieses Papier beschreibt ein Gesundheitsinformationsmanagementsystem zur Unterstützung von häuslichen Gesundheitsdiensten basierend auf DOGF. Die Systemarchitektur besteht aus einem Datenbankverwaltungstool für das Gesundheitswesen, einem Framework, einem Sensormanager und physischen Elementen wie Sensoren, Geräten und Geräten. Der Fokus dieser Arbeit liegt auf dem Design und Aufbau eines Datenbanksystems in einem Rahmen zur Unterstützung von häuslichen Gesundheitsdiensten. Gesundheitsinformationen werden mithilfe von Datenbankschemata organisiert, die auf den spezifischen Arten von Daten basieren, die von verschiedenen typisierten Sensoren gesammelt wurden. Die aus diesen Informationen zum Zweck der häuslichen Gesundheitspflege aufgebaute Datenbank ist in die Basisinformationen, die die realen Schemata verwenden, und die kontextbasierten Informationen, die die Ansichtsschemata verwenden, unterteilt. Um den praktischen Nutzen des in diesem Papier vorgeschlagenen Informationsmanagementsystems im Gesundheitswesen zu verifizieren, haben wir einen Prototyp eines Überwachungsdienstes für das Gesundheitswesen entwickelt, der Informationen, Notrufe und die Steuerung von Haushaltsgeräten verwendet. Das Ergebnis der experimentellen Auswertung zeigt den Vergleich der Ausführungszeit der Basisinformationen und der kontextbasierten Informationen in unserem simulierten Szenario einer häuslichen Gesundheitsanwendung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75664-4_22 f7481cc008186ae5da1e37f7eb3934b0;de;;;1.1.;;;Molekulare Informationsverarbeitung im Zentralnervensystem Informationsverarbeitungssysteme sind Systeme, die Energie auf bestimmte interessante (oder hochselektive) Weisen verbrauchen. Bei biologischen Systemen werden die jeweiligen Dissipationswege letztlich durch einzelne molekulare Katalysatoren bestimmt, die bestimmte Prozesse beschleunigen und andere nicht. Tatsächlich gibt es immer mehr Beweise dafür, dass solche molekularen Katalysatoren eine entscheidende Rolle im Gehirn spielen, dem System, das zweifellos der biologische Informationsprozessor schlechthin ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-80885-2_4 dc881ed00853bc3c0f2d07c54280eeb4;de;;;1.1.;;;Verknüpfung von Verkaufsposition, Informationsverarbeitung und individueller ethischer Perspektive: Eine empirische Untersuchung von Vertriebspraktikern Manager und Forscher erhalten Einblick in einige der Variablen, die dem ethischen Konflikt von Vertriebsmitarbeitern zugrunde liegen. Diese explorative Studie verknüpft Verkaufsrollen empirisch mit den individuellen moralischen Perspektiven von Vertriebspraktikern durch die Anwendung einer aktuellen Taxonomie von Vertriebspositionen und eines ethischen Perspektivenfragebogens. Informationslast und Komplexität der Informationsverarbeitung sind wichtige Verkaufsdimensionen, die mit der moralischen Perspektive verbunden sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11885-7_92 cf259ee625c691067baabda8c827d4fb;de;;;1.1.;;;Elektronenspins in Quantenpunkten als Qubits für die Quanteninformationsverarbeitung Kohärente Manipulation, Filterung und Messung des Elektronenspins in Quantenpunkten und anderen Nanostrukturen sind neue Technologien mit vielversprechenden Anwendungen sowohl in der konventionellen als auch in der Quanteninformationsverarbeitung und -übertragung. Wir überprüfen den Spintronik-Vorschlag für das Quantencomputing, bei dem Elektronenspins in quantenbegrenzten Strukturen die Rolle der Quantenbits (Qubits) spielen, und diskutieren die wesentlichen Voraussetzungen für eine solche Implementierung. Wir beschreiben verschiedene Realisierungen von Ein- und Zwei-Qubit-Quantengattern sowie von Zustandsvorbereitung und -messung, basierend auf einem vollelektrischen Schema zur Steuerung der Spindynamik. Wir diskutieren kürzlich vorgeschlagene Schemata zur Verwendung eines einzelnen Quantenpunkts als Spinfilter und Spin-Auslesegerät und zeigen, wie die Dekohärenzzeit in einem Transportaufbau gemessen werden kann. Wir adressieren das Problem der Spindekohärenz aufgrund ungleichmäßiger Hyperfeinwechselwirkungen mit Kernen und zeigen, dass für Elektronen, die auf Punkte beschränkt sind, der Spinzerfall nicht exponentiell ist. Schließlich diskutieren wir Methoden zur Erzeugung und Detektion der Spinverschränkung elektronischer EPR-Paare, die eine wichtige Ressource für die Quantenkommunikation darstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-05003-3_8 9bfe91040cc55ad1b6ff9e5660e70189;de;;;1.1.;;;Grundlagen der Quanteninformationsverarbeitung Die digitale Informationsverarbeitung ist in den letzten Jahrzehnten in den Mittelpunkt unserer Wirtschaft und Kultur gerückt. Infolgedessen stoßen neue Entwicklungen auf diesem Gebiet auf zunehmendes Interesse. Eine wichtige Neuentwicklung, die zwischen 1982 und 1994 initiiert wurde, ist die Möglichkeit, Systeme zur Speicherung und Verarbeitung von Informationen zu nutzen, die explizit den Gesetzen der Quantenmechanik gehorchen. Diese Systeme können qualitativ leistungsfähiger sein als klassische Systeme und können Rechenprobleme lösen, für die in klassischen Systemen keine effizienten Algorithmen bekannt sind. Spins in Festkörpern stellen eine der besten Möglichkeiten zur Realisierung dieses Potenzials dar. Dieses Kapitel gibt einen kurzen Überblick über die Voraussetzungen, die dafür zu erfüllen sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35807-4_8 2b00650ad6511128d01967e4c4bea4f6;de;;;1.1.;;;Reaktionssynchronisation: Neuer Fortschritt in der Gehirn-visuellen Informationsverarbeitung Studien zum Sehvermögen des Gehirns sind in ein neues Stadium eingetreten, nachdem die reizinduzierte γ-synchronisierte Oszillation von Neuronengruppenaktivitäten im primären visuellen Kortex von Katzen entdeckt wurde. Natürlich wurde das Verständnis des visuellen Systems zu einem sehr wichtigen methodischen Problem. Aus Aspekten wie Informationsverarbeitung, nichtlinearer Dynamik und neuronalem Netzwerk wurden einige primäre Probleme in Sehstudien eingehend diskutiert, die mit der Reaktionssynchronisation von Neuronengruppen auf externe Objekte zusammenhängen. Die Nervenrepräsentation (NR) ist ein besonderes Merkmal des visuellen Systems, das als intelligentes Informationsverarbeitungssystem fungiert. NR ist auch das Kernkonzept der Computertheorie des Sehens, und die Wavelet-Transformation ist die Grundlage der Multiskalendarstellung. Einige wichtige Probleme sollten beim Studium der neuronalen räumlich-zeitlichen Kodierung und der gehirn-visuellen Informationsverarbeitung beachtet werden. Die Antwortsynchronisation könnte ein wichtiger Ansatz für die Integration der gehirn-visuellen Informationsverarbeitung sein.;-;-;-;https://link.springer.com/article/10.1007/BF03183560 449b44907662d09a832d0ad927499364;de;;;1.1.;;;Design Information Management für Produktklangqualität: Anforderungsdefinition In einem aktuellen Designinformationsmanagement von Konsumgütern ist es schwierig, die sensorischen Präferenzen der Nutzer in der Anforderungsdefinitionsphase zu berücksichtigen. Insbesondere die sensorische Präferenz für den Klang von Produkten kann individuell unterschiedlich sein und hängt von der Umgebung ab, in der die Produkte verwendet werden. Die technischen Metriken sind notwendig, um mit den sensorischen Präferenzen der Benutzer verbunden zu werden, um die richtigen Produkte gemäß den Benutzerpräferenzen zu entwickeln. In diesem Papier schlagen wir einen Prozess vor, um Designinformationen unter Berücksichtigung der Produktklangqualität zu verwalten und untersuchen eine konsistente Beschreibungsmethode mit SysML (Systems Modeling Language) von der Anforderungsdefinition bis zur Einstellung von technischen Metriken. Am Beispiel einer Kamera für Konsumgüter extrahieren wir die Kundenanforderungen mit der Bewertungsrastermethode entsprechend den Fällen, in denen die Kamera verwendet wird. Durch die Anwendung der DSM-Clusteranalyse (Design Structure Matrix) auf die Ergebnisse des Interviews bündeln wir die grundlegenden Anforderungen an Funktions- und Leistungsanforderungen, einschließlich der Klangqualität. Auch eine schrittweise Verfeinerung von der Anforderungsdefinition bis zum Architekturentwurf wird anhand von SysML-Diagrammen durchgeführt und die entsprechenden Engineering-Metriken abgeleitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45937-9_23 477c65f9e80a590609f319cd9782f1d1;de;;;1.1.;;;Informationen zum Klimawandel, Wahrnehmung von Gesundheitsrisiken und Umweltbeschwerdeverhalten der Anwohner: eine empirische Studie in China Die Motivation der Anwohner, Umweltbeschwerden einzureichen, ist für die Umweltbehörden von Vorteil, um ihnen bei der Bewältigung von Umweltproblemen und der Linderung der durch den Klimawandel verursachten negativen Auswirkungen zu helfen. Das Hauptziel der vorliegenden Studie ist es zu verstehen, wie sich Informationen über den Klimawandel und die Wahrnehmung von Gesundheitsrisiken der Bewohner (sowohl in physischer als auch in psychischer Hinsicht) auf das Umweltbeschwerdenverhalten der Bewohner auswirken. Der Forschungsrahmen wurde nach Planverhaltenstheorie, Risikowahrnehmungsverhalten und Informationsverhaltensmodellen entwickelt. Dieser Rahmen wurde empirisch bewertet, indem Fragebogenerhebungsdaten verwendet wurden, die von 1273 Befragten in China gesammelt wurden. Die Ergebnisse deuten darauf hin, dass Informationen zum Klimawandel und die Wahrnehmung von Gesundheitsrisiken der Anwohner alle signifikant positive Auswirkungen auf die Einstellung der Anwohner zu Umweltbeschwerden und ihre Absicht haben, Umweltbeschwerden einzureichen. Gleichzeitig wird die Wahrnehmung von Gesundheitsrisiken der Anwohner durch Informationen zum Klimawandel positiv beeinflusst. Die Wahrnehmung von psychischen Gesundheitsrisiken spielt eine viel stärkere Rolle bei der Bestimmung der Einstellung und Absicht der Bewohner, eine Umweltbeschwerde einzureichen, als die Wahrnehmung von körperlichen Gesundheitsrisiken. Darüber hinaus haben die Einstellung zur Umweltbeschwerde, die wahrgenommene Verhaltenskontrolle und die subjektive Norm alle signifikant positive Auswirkungen auf die Absicht der Bewohner, eine Umweltbeschwerde einzureichen. Darüber hinaus befasst sich diese Studie auch mit der Absichts-Verhaltens-Lücke und weist auf eine positive Beziehung zwischen Absicht und Verhalten hin. Die vorliegende Studie kann einige praktische Implikationen liefern, um Anwohner zu motivieren, Umweltbeschwerden einzureichen.;-;-;-;https://link.springer.com/article/10.1007/s10653-018-0235-4 8b1bc384d8309fadd3c8f5d81178a899;de;;;1.1.;;;Interkulturelle Motivationen für den Informationsaustausch im Incident Management bei Großveranstaltungen Der Zweck dieses Papiers besteht darin, zu untersuchen, wie die Beweggründe für den Austausch von Informationen, die Aspekte interkultureller Unterschiede aufweisen, und wie Entscheidungen verschiedener Organisationen, die am Vorfallmanagement bei Großveranstaltungen beteiligt sind, interagieren. Dieser Kontext ist natürlich und herausfordernd und umfasst routinemäßige und unvorhergesehene Vorfälle, an denen verschiedene und verbundene Organisationen beteiligt sind, die als Reaktion auf Vorfälle fungieren. Hier wurde ein qualitatives und interpretatives Paradigma verwendet, um ein klares Bild des Kontextes zu erhalten. Die Aktivitätstheorie diente als konzeptionelles und analytisches Werkzeug, das die Grundlage für die Entdeckung der genannten Elemente bildete. Es wurden verschiedene Themen erkannt, die diejenigen zeigen, die von den Einsatzkräften aufgedeckt wurden. Durch die Maßnahmen zum Informationsaustausch wurden unterschiedliche Motivationen aufgedeckt. Diese zeigten in ähnlicher Weise die interkulturellen Unterschiede und Entscheidungen zwischen Organisationen, die den Informationsaustausch in einem Kontext nutzen, der die Leistung der Einsatzkräfte beeinflussen könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20145-6_65 e85495e57ad697d9939ef644df434b69;de;;;1.1.;;;Wie lernen Gymnasiasten am liebsten? Die Lernpräferenz einer Gruppe von Gymnasiasten wurde untersucht, um zu ermitteln, wie die Schüler über die Möglichkeiten des Lernens in den durch integrierte Kommunikationstechnologien vermittelten Räumen unserer Zeit denken. Die Lernpräferenz wird als von den Schülern gewähltes Lernen und eine Möglichkeit dargestellt, die Einstellungen der Schüler innerhalb der affektiven und kognitiven Domänen der Lernergebnisse zu untersuchen. Lernpräferenzen, insbesondere Einstellungen und Gefühle der Schüler, werden vernachlässigt, sind jedoch ein wichtiger Aspekt des Lernens. Eine spezifische Lernpräferenz der Schüler, die in dieser Studie untersucht wurde, war die Wahl des Lernmodus nach dem Grad der angewandten Technologie, die vom Lernen in Interneträumen über Online-Interaktionen bis zum Lernen im traditionelleren Klassenzimmer reichte. Das Informationsverhalten der Schüler wurde auch in Bezug auf die Informationssuchtheorie untersucht, um Erkenntnisse darüber zu gewinnen, wie Schüler ihre Aktivitäten in virtuellen Lernräumen im Internet fokussieren. Die Studie Information Communications Technology Learning (ICTL) wurde verwendet, um Unterschiede im Informationsverhalten von Gymnasiasten beim Suchen und Teilen von Informationen zu untersuchen. An der Studie nahmen insgesamt 88 Schüler einer überwiegend afroamerikanischen High School im Süden der USA teil. Die wichtigsten Fragen waren: Können wir Trends bei der von den Schülern gewählten Lernpräferenz für das Lernen mit Technologie nach Geschlecht erkennen und gibt es einen Zusammenhang zwischen dem Informationsverhalten und der Wahl des MINT-Studiengangs durch die Schüler? Die Ergebnisse zeigten, dass Gymnasiasten und Schüler mit Interesse an Naturwissenschaften, Technologie, Ingenieurwissenschaften und Mathematik (MINT) das Lernen in einem traditionellen Klassenzimmer bevorzugten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-73417-0_6 56799ee487df05f78310c76a3e04d35b;de;;;2.1.;;;Entscheidungshilfe für das Fernmanagement chronischer Patienten Chronische Erkrankungen können aufgrund von akuten oder Verschlechterungsereignissen, die mehr oder weniger häufig auftreten und oft nicht vollständig gelindert werden können, zu erheblichen Einschränkungen des täglichen Lebens der Patienten führen, was zu einer Verschlechterung des Zustands der Patienten führt. In den letzten Jahren wird intensiv an der Entwicklung intelligenter IKT-Anwendungen für das Telemonitoring von Patienten gearbeitet, die darauf abzielen, die Lebensqualität chronischer Patienten durch eine regelmäßige Erfassung von Status- und Handlungsinformationen langfristig Einstellung bleiben. In diesem Beitrag wird ein wissensbasiertes Entscheidungsunterstützungssystem vorgestellt, das darauf abzielt, klinisches Fachpersonal bei der täglichen Behandlung chronischer Patienten zu unterstützen, indem es ihren aktuellen Status bewertet, ihnen hilft, ihre Verschlechterung zu bewältigen und ihre Exazerbationsereignisse zu verhindern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29734-2_6 18058179e304ae28dcbdd39b6c65889b;de;;;2.1.;;;Kombination von deklarativem und prozeduralem Wissen zur Automatisierung und Darstellung von Ontologie-Mapping Ontologien im Semantic Web sind von Natur aus dezentralisiert. Aus der Gesamtheit der Ontologie-Mapping-Ansätze können wir die Schlussfolgerung ziehen, dass ein effektiver Ansatz zur Automatisierung des Ontologie-Mappings sowohl Daten als auch Metadaten in Anwendungsdomänen erfordert. Die meisten existierenden Ansätze repräsentieren Daten und Metadaten normalerweise durch Ad-hoc-Datenstrukturen, denen Formalismen fehlen, um die zugrunde liegende Semantik zu erfassen. Um sich der semantischen Interoperabilität zu nähern, besteht außerdem die Notwendigkeit, Abbildungen zwischen Ontologien mit einer wohldefinierten Semantik darzustellen, die einen genauen Informationsaustausch garantiert. Um diese Probleme anzugehen, schlagen wir vor, dass mit Extraktionsverfahren verbundene Domänenontologien in der Lage sind, Wissen darzustellen, das erforderlich ist, um direkte und indirekte Übereinstimmungen zwischen Ontologien zu finden. Und mit Abfrageprozeduren verknüpfte Mapping-Ontologien unterstützen nicht nur äquivalente Schlussfolgerungen und Berechnungen zu äquivalenten Konzepten und Beziehungen, sondern verbessern auch die Abfrageleistung, indem Abfrageprozeduren angewendet werden, um zielspezifische Ansichten abzuleiten. Wir kommen zu dem Schluss, dass eine Kombination aus deklarativer und prozeduraler Repräsentation basierend auf Ontologien die Analyse und Implementierung für Ontologie-Mapping begünstigt, die eine genaue und effiziente semantische Interoperabilität verspricht.;-;-;-;https://link.springer.com/chapter/10.1007/11908883_47 2df6d2ed5f1c8e9306106f6d4dab5b5b;de;;;2.1.;;;SerVCS: Serialisierungsunabhängige Ontologieentwicklung in verteilten Einstellungen Die Entwicklung domänenspezifischer Ontologien erfordert gemeinsame Anstrengungen verschiedener Gruppen von Akteuren, wie Wissensingenieuren und Domänenexperten. Während des Entwicklungsprozesses müssen Ontologieänderungen verfolgt und an alle Entwickler weitergegeben werden. Versionskontrollsysteme (VCSs) sammeln Metadaten, die Änderungen beschreiben, und ermöglichen die Synchronisierung verschiedener Versionen derselben Ontologie. Üblicherweise folgen VCSs;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99701-8_10 efb49d1579aa06616d3e3bdd6522e444;de;;;2.1.;;;Fallstricke in vernetzten und versionierten Ontologien Die Auflistung und automatische Erkennung von Ontologie-Stolpersteinen sind im Ontologie-Engineering von entscheidender Bedeutung. Bestehende Arbeiten konzentrierten sich hauptsächlich auf die Erkennung von Fallstricken in eigenständigen Ontologien. Hier führen wir eine neue Kategorisierung von ontologischen Fallstricken ein: Stand-alone-Ontologie-Fallstricke, Fallstricke in versionierten Ontologien und Fallstricke in Ontologienetzwerken. Wir untersuchen Fallstricke in einer Situation der Koevolution der Ontologie und bieten eine systematische Kategorisierung der verschiedenen Fälle, die während des Koevolutionsprozesses auftreten können, über zwei Ontologieportale: das Linked Open Vocabular und das BioPortal. Wir identifizieren auch 9 mögliche Fallstricke, die versionierte Ontologien oder Ontologienetzwerke betreffen können. Anhand einer von uns in der Semantic-Web-Community durchgeführten webbasierten Umfrage evaluieren wir die Bedeutung und die möglichen Auswirkungen der Kandidaten-Falls. Die Teilnehmer waren sich einig, dass die Auflistung und Untersuchung von ontologischen Fallstricken die Qualität von Ontologien effektiv verbessern und die Verwendung von Ontologien positiv beeinflussen kann. Darüber hinaus stimmten die Teilnehmer der von uns vorgeschlagenen neuen Kategorisierung weitgehend zu. Wir schließen mit einer Reihe von Empfehlungen ab, um die verschiedenen von uns identifizierten Fallstricke zu vermeiden oder zu lösen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-66196-0_9 31f5085baa08cdb046bb916f8cd3eea2;de;;;2.1.;;;Koordinatenabstieg basierende Ontologie-sparse-Vektor-Computing-Strategie und ihre Anwendungen In den letzten Jahren wurde die Ontologie als semantisches Analyse- und Berechnungswerkzeug in vielen technischen Anwendungen weit verbreitet. Viele Fälle deuten darauf hin, dass man mit den komplexen Datenstrukturen mit unzähligen Big Data-Quellen konfrontiert ist. Um das Dilemma zu entschärfen, werden die Sparse-Learning-Algorithmen in die Ontologie-Ähnlichkeitsmessung und Ontologie-Abbildung eingeführt. In dieser Einstellung sollte es ein hochdimensionaler Ausdruck jedes Ontologie-Scheitelpunkts sein, und der Ontologie-Algorithmus sollte Schlüsselkomponenteninformationen effektiv extrahieren. Vor diesem Hintergrund betrachten wir den Ontologie-Sparse-Vektor-Lernalgorithmus und seine Anwendung in verschiedenen technischen Anwendungen. In diesem Artikel stellen wir mithilfe von Tricks zur Minimierung des Koordinatenabstiegs die Strategie der Ontologie-sparse-Vektoroptimierung vor und diskutieren die verschiedenen Transformationen in verschiedenen Einstellungen. Schließlich wird das neue Ontologie-Sparse-Vektor-Lernverfahren auf jeweils vier technische Anwendungen angewendet, um seine Effizienz zu überprüfen.;-;-;-;https://link.springer.com/article/10.1007/s10586-017-1283-8 e53eecbe63e3bc219566290a7a9bbfcb;de;;;2.1.;;;Jenseits von Neusprech: drei Argumente für die Persistenz des Informellen bei der Erstellung und Nutzung von Computerontologien Die Erstellung und Nutzung computergestützter Ontologien, die eine Vielzahl von Informationsquellen repräsentieren, ist eine angenommene Notwendigkeit für die Kommunikation im Semantic Web. Eingebettet in diese Notwendigkeit kommt die Herausforderung von;-;-;-;https://link.springer.com/article/10.1057/kmrp.2009.16 d317ff128bc3be12a9435d38f43dd175;de;;;2.1.;;;Ontologie-Ausrichtung mit mehreren Ansichtspunkten basierend auf Beschreibungslogiken Heutzutage ist die Nützlichkeit des Multi-Viewpoint-Ansatzes in vielen Bereichen, wie zum Beispiel im Ontologiebereich, weithin anerkannt. Die beiden Konzepte Ontologie und Sichtweise sind komplementär, tatsächlich repräsentiert die Ontologie das Wissen, das von mehreren Benutzern geteilt wird, und die Sichtweise repräsentiert das Domänenwissen, das an einem gegebenen Standpunkt relevant ist. Mit der Kopplung dieser beiden Begriffe sprechen wir von einer Multi-Viewpoint-Ontologie. Die Multi-Viewpoint-Ontologie gibt dem gleichen Diskursuniversum mehrere partielle Beschreibungen, so dass sich jede auf einem bestimmten Standpunkt befindet. Aufgrund der dezentralen Natur des Webs existieren immer mehrere Multi-Viewpoint-Ontologien für überlappende Domänen und sogar für dieselbe Domäne. Daher ist die Ausrichtung der Ontologie mit mehreren Ansichten erforderlich, um eine Zusammenarbeit zwischen Webanwendungen unter Verwendung verschiedener Ontologien mit mehreren Ansichten herzustellen. In diesem Beitrag nähern wir uns dem Problem der Ausrichtung von Multi-Viewpoints-Ontologien. Wir konzentrieren uns zunächst auf die Definition von Multi-Viewpoints-Ontologien in Beschreibungslogiken, die durch einen Stempelmechanismus erweitert werden. Dann führen wir den Begriff der Multi-Viewpoints in den Ausrichtungsprozess ein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30567-2_10 45980ace46064e9a441e481b5171a5cf;de;;;2.1.;;;Verwenden von Ontologiedatenbanken für skalierbare Abfrageantworten, Inkonsistenzerkennung und Datenintegration Eine Ontologiedatenbank ist ein grundlegendes relationales Datenbankverwaltungssystem, das eine Ontologie plus ihre Instanzen modelliert. Um beispielsweise über die transitive Schließung von Instanzen in der Subsumtionshierarchie nachzudenken, kann eine Ontologiedatenbank entweder Ansichten zur Abfragezeit entfalten oder Assertionen mithilfe von Triggern zur Ladezeit verbreiten. In diesem Papier verwenden wir vorhandene Benchmarks, um unsere Methode zu bewerten – unter Verwendung von Triggern – und wir zeigen, dass wir durch Forward-Computing-Inferenzen nicht nur die Abfragezeit verbessern, sondern dass die Verbesserung auch nur mehr Platz (nicht Zeit) zu kosten scheint. Wir zeigen jedoch weiterhin, dass die wahren Strafen für den Benchmark einfach undurchsichtig waren, d. h. der Benchmark erfasst die Ladezeitkosten nur unzureichend. Wir haben unsere Methoden auf zwei Fallstudien in der Biomedizin angewendet, wobei wir Ontologien und Daten aus der Genetik und Neurowissenschaften verwenden, um zwei wichtige Anwendungen zu veranschaulichen: Erstens beantworten Ontologiedatenbanken ontologiebasierte Anfragen effektiv, zweitens erkennen Ontologiedatenbanken mithilfe von Triggern instanzbasierte Inkonsistenzen. etwas, das mit Ansichten nicht möglich ist. Schließlich zeigen wir, wie wir unsere Methoden erweitern können, um die Datenintegration über mehrere verteilte Ontologiedatenbanken hinweg durchzuführen.;-;-;-;https://link.springer.com/article/10.1007/s10844-010-0133-4 e267d7019fa7c0de1f5676d28b5f03f6;de;;;2.1.;;;Quantifizierung von Geländeprozessen Die Quantifizierung von Terrainprozessen erfordert ein Objektgeländesegmentierungs-Framework, das die Unterteilung der Landschaft entweder in ein kontinuierliches Framework (Aspektregionen) oder ein diskontinuierliches Framework (Landformen) ermöglicht. Jedes Objekt wird auf der Grundlage seiner räumlichen 3-dimensionalen Anordnung parametrisch dargestellt und gemäß einem Geländeklassifizierungsschema kartiert, um Regionen zu identifizieren, die Objekte mit unterschiedlicher parametrischer Darstellung umfassen. Es werden Fallstudien vorgestellt, die tektonische, fluviale und äolische Prozesse sowie die Quantifizierung von Gravitations- (Erdrutschen) Prozessen auf der Erde und auf dem Mars umfassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77800-4_2 8458aedb176763e64100799d9c45a4cc;de;;;2.1.;;;Das „Weltbild“ der Geographie: Die ontologischen Fragen der Geographie Die zeitgenössische Wissenschaftsphilosophie legt nahe, dass die Diskussion ontologischer Probleme innerhalb bestimmter spezifischer Disziplinen von grundlegender Bedeutung ist. Natur- und sozialwissenschaftliche Forschung sind untrennbar mit philosophischer Führung verbunden, so ist die Philosophie der Geographie die ideologische Grundlage der Geographie. Die traditionelle Philosophie der Geographie ist methodisch orientiert, die in erster Linie die „logische Struktur geographischer Erklärungen“ betont und die Diskussion ihrer Ontologie ignoriert. Diese Studie untersucht im wissenschaftstheoretischen Kontext die Beziehungen zwischen Methodik, Ontologie und Philosophie der Geographie, definiert die Konnotationen der geographischen Ontologie, analysiert die Verbindungen und Unterschiede zwischen philosophischer Ontologie und wissenschaftlicher Ontologie der Geographie, klärt das Wesen der geographischen Ontologie und fasst ihre theoretischen Werte zusammen. Die Ontologie der Geographie beinhaltet die philosophisch-ontologischen Überzeugungen von Geographen und geographischen Schulen und das ontologische Engagement der Geographietheorie. Da verschiedene Geographen unterschiedliche philosophische Standpunkte vertreten, ihre ontologischen Überzeugungen unterschiedlich sind, behauptet eine geographische Theorie eine ontologische Verpflichtung von „was da ist“, die die Art und die Arten der Ziele bestimmt, auf die sich die Theorie bezieht. Die ontologischen Überzeugungen der Geographen bestimmen ihre Erkenntnistheorie, Methodik und Axiologie, und die ontologische Verpflichtung einer geographischen Theorie ist die Voraussetzung und Grundlage dieser Theorie.;-;-;-;https://link.springer.com/article/10.1007/s11442-017-1451-z c29457edd833d55310b45d1051c94640;de;;;2.1.;;;Ontologiebasierte semantische Interoperation in der Kriegsführungssimulation Die Interoperation in der Kriegsführungssimulation repräsentiert eigentlich die zwischen dem militärischen Feld und dem Simulationsfeld. Das Kernproblem bei der Kriegsführungssimulation besteht darin, wie militärische Nutzer „natürlich“ mit Simulationssystemen interagieren können, nämlich wie die semantische Interoperation realisiert wird. Eine Ontologie ist eine formale, explizite Spezifikation einer gemeinsamen Konzeptualisierung, mit der heterogene Probleme in Informationssystemen gelöst werden können. Zunächst wurden drei ontologiebasierte Interoperationsansätze evaluiert und verglichen. Dann wurde ein neuer Ansatz - Ontologie-basierte Online Semantic Interoperation - vorgeschlagen. Zuletzt wurde ein Beispiel gegeben, um den Ansatz zu veranschaulichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-2666-9_40 e4fe8b21931aa639160beacd5d0f4a9c;de;;;2.1.;;;Ontologie-Zusammenführung im Kontext eines Semantic-Web-Expertensystems Der Zweck dieses Dokuments besteht darin, den Prozess der Zusammenführung der OWL-Ontologie und der Zuweisung von Memberfunktionen für Ontologieelemente zu beschreiben. Das Zusammenführen von Ontologien und die Zuweisung von Memberfunktionen sind für den Aufbau einer Wissensdatenbank für ein Semantic Web Expert System (SWES) erforderlich. Mit der Abkürzung SWES bezeichnen wir Expertensysteme, die in der Lage sind, OWL-Ontologien aus dem Web zu verarbeiten, um ihre Wissensbasis zu ergänzen oder sogar weiterzuentwickeln. Unseres Wissens wurden die Aufgaben der Ontologie-Zusammenführung und der Member-Funktionszuweisung für SWES noch nicht untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41360-5_15 475c80cbeda9cf10d2eba8d294abc066;de;;;2.1.;;;Messung des psychologischen Einflusses auf das Design und die Entwicklung von Gruppenontologien: Ein empirischer Ansatz Dieser Beitrag beschreibt die interdisziplinären Probleme des Gruppenontologie-Designs. Es unterstreicht die Bedeutung der Untersuchung individueller Merkmale des kognitiven Stils und ihres Einflusses auf die Besonderheiten des Designs und der Entwicklung kollaborativer Gruppenontologien. Der Beitrag beschreibt die vorläufigen Ergebnisse des Forschungsprojekts, das sich auf die Erarbeitung eines neuen Paradigmas für die Strukturierung von Daten und Wissen in Bezug auf individuelle kognitive Stile konzentrierte, unter Verwendung der jüngsten Fortschritte im Knowledge Engineering und der konzeptionellen Strukturierung mit dem Ziel, neue konsistente und strukturell ganzheitliche Wissensgrundlagen für verschiedene Domänen. Die Ergebnisse dieser Forschungsarbeit können auf die Organisation des Gruppenontologiedesigns (insbesondere für Lernzwecke), die Datenstrukturierung und andere kollaborative analytische Arbeiten angewendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41360-5_3 5123a0a043685444eda9b0804c23c0fd;de;;;2.1.;;;Auf dem Weg zur Messung der Domänenontologie-Interoperabilität Ontologien sind zuverlässige Komponenten zur Unterstützung der Interoperabilität zwischen Informationssystemen. Die Notwendigkeit, Ontologien selbst bis zu einem messbaren Grad interoperabel zu machen, bleibt jedoch aufgrund des semantischen Heteroginitätsproblems eine Herausforderung. Dieses Papier befasst sich speziell mit Domänenontologien und wie der Interoperabilitätsgrad zwischen ihnen gemessen werden kann, um festzustellen, inwieweit sie sich gegenseitig ersetzen können. Unterschiedliche Interoperabilitätsoperationen, semantische Distanzmaße und lexikalische Ähnlichkeit zwischen Ontologien werden diskutiert. Es wird eine Methode vorgeschlagen, die auf der Modellmanagementtheorie mit algebraischen Operationen wie Match auf den Ontologiemodellen basiert, um lexikalische und strukturelle Dimensionen von Domänenontologien zu messen und einen Wert für ihren Interoperabilitätsgrad zu geben. Ein Beispiel für die Berechnung des Grades der Interoperabilität zwischen zwei Domänenontologien unter Verwendung des vorgeschlagenen Ansatzes wird mit einer Erläuterung gegeben, wie die identifizierten Lücken behoben werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-17530-0_20 b607e751afda5711f2aed50317a741ae;de;;;2.1.;;;Mehrschichtige ontologiebasierte Informationsfusion für das Situationsbewusstsein Aus dem militärischen Bereich stammend, wird Situation Awareness (SAW) mit dem Ziel vorgeschlagen, durch Informationsfusion Informationsüberlegenheit und damit Entscheidungsüberlegenheit zu erlangen. Es erfordert nicht nur die Wahrnehmung der Umgebung, sondern auch die Begründung der impliziten oder impliziten Bedeutung des expliziten Phänomens. Das Hauptziel dieses Papiers ist es, die Semantic Web-Technologien zu nutzen, um das Situationsbewusstsein durch autonome Informationsfusion und Inferenz zu verbessern. In letzter Zeit hat die Ontologie eine bedeutende Rolle bei der Darstellung und Integration von Domänenwissen für übergeordnete Argumente gespielt. Für die konzeptionelle Modellierung und Wissensrepräsentation wird in dieser Arbeit dem Multi-Level-Ontology Merging Paradigma gefolgt. Als Domänenontologie werden zum einen Military Scenario Ontology (MSO) und Battle Management Ontology (BMO) nach entsprechenden seriösen Standards definiert. Wir schlagen die Situation Awareness Ontology (SAO) als Kernontologie vor, um MSO, BMO und sogar andere öffentlich definierte Ontologien für die Informationsfusion auf höherer Ebene zu integrieren. Die SAO besteht aus Objektdarstellungen, Beziehungen und Ereignissen, die notwendig sind, um die Informationen für die weitere Wahrnehmung, Argumentation und Entscheidungsfindung über die sich im Laufe der Zeit entwickelnde Situation zu erfassen. Militärdoktrinen und Domänenwissen werden als Regeln vom Typ Hornklausel für Argumentation und Schlussfolgerung ausgedrückt. Somit kann eine mehrschichtige semantische Informationsfusion durchgeführt werden, die Ontologien, semantische Webtechnologien und regelbasiertes Denken integriert. Ein experimentelles Szenario wird vorgestellt, um die Machbarkeit dieser Architektur zu demonstrieren.;-;-;-;https://link.springer.com/article/10.1007/s10489-016-0834-7 b80834310b3d65c94c1ead8317da33c7;de;;;2.1.;;;Wissensdatenbank-Framework für Crowdsourcing-Innovationsvermittler: Ein Vorschlag Ein Crowdsourcing-Innovationsvermittler führt Vermittlungsaktivitäten zwischen Unternehmen durch, die ein Problem zu lösen haben oder eine Geschäftsmöglichkeit suchen, und einer Gruppe von Menschen, die motiviert sind, Ideen basierend auf ihrem Wissen, ihrer Erfahrung und ihrem Wissen zu präsentieren, und nutzt dabei den Technologieaustausch und die Zusammenarbeit, die aus dem Web2 hervorgehen .0. Soweit uns bekannt ist, haben die meisten gegenwärtigen Vermittler noch keine integrierte Vision, die Wertschöpfung durch Community-Entwicklung, Vermittlung und Technologietransfer verbindet. In diesem Beitrag präsentieren wir einen Vorschlag für ein Wissensrepository-Framework für Crowdsourcing-Innovation, das eine effektive Unterstützung und Integration der im Wertschöpfungsprozess entwickelten Aktivitäten (Community Building, Brokering und Technologietransfer) ermöglicht, modelliert mit Methoden des Ontology Engineering.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24358-5_37 5b402abf346054f84f46db5034e58d28;de;;;2.1.;;;Crowells Darstellung von Husserls und Heideggers abweichenden Interpretationen des transzendentalen Charakters der Phänomenologie Ph Wenden wir uns nun der letzten Variation des Trends zu, der eine Annäherung zwischen den Phänomenologien von Husserl und Heidegger anstrebt, wird Steven Crowells sorgfältige Diskussion ihrer Beziehung im Rahmen der vorliegenden Studie betrachtet. Laut Crowell ist die Frage, die Husserl und Heidegger trennt,;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-8145-5_15 a0021f7fc699a04f91669b6ffec902d6;de;;;2.1.;;;Ein soziales Netzwerk zum Teilen von Lernsegmenten und Kompositionen Die Entwicklung von Lerninhalten mit Hilfe von Informationstechnologien ist ein teurer, zeitaufwändiger und komplexer Prozess. Daher ist es wichtig, die Wiederverwendung bereits entwickelter Unterrichtsartefakte in Betracht zu ziehen. Dieser Wiederverwendungsansatz ist besonders interessant, da beobachtet wird, dass sowohl Lehrende als auch Lernende nach ihren Bedürfnissen und Interessen nach Lerninhalten suchen, um Einheiten – oder Kompositionen – von Lehrinhalten zu erstellen, die auf ein bestimmtes Lernziel abzielen. In früheren Arbeiten wurde diskutiert, wie die Lernenden durch das Teilen von Unterrichtssegmenten lernen können, aber die Zusammensetzung dieser Segmente ist auch im Lernprozess wichtig. Daher werden in diesem Beitrag verschiedene Strategien zur Zusammenstellung von Lernabschnitten diskutiert und ein an Unterrichtsabschnitten orientiertes soziales Bildungsnetzwerk vorgestellt. Ein Prototyp wurde entwickelt und eine Fallstudie durchgeführt, um die vorgeschlagene Strategie zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35879-1_26 fef99b09989a9a744dde7c6712bb22b9;de;;;2.1.;;;Ontologieentwicklung durch Concept Map und Textanalyse: Der Fall der Automotive Safety Ontology Die Entwicklung von Ontologien ist ein teurer und zeitaufwändiger Prozess. Die Entwicklung praxistauglicher, auf der Ontologie basierender Wissensmanagementsysteme steht noch am Anfang. Einige vorhandene Ontologien mit einfachen Tupeln und Eigenschaften sind nicht für domänenspezifische Anforderungen ausgelegt oder verwenden nicht vorhandenes Wissen aus Unternehmensdatenbanken oder Dokumenten. Hier schlagen wir unseren Concept-Map-Ansatz vor, um zunächst halbautomatisch eine detaillierte Ebene von Entitäten/Konzepten als Schlüsselwortliste zu erstellen, indem natürliche Sprachverarbeitung angewendet wird, einschließlich Wortabhängigkeit und POS-Tagging. Dann kann diese Liste verwendet werden, um Entitäten/Konzepte für dieselbe Domäne zu extrahieren. Dieser Ansatz wird auf den Bereich der Automobilsicherheit angewendet. Die Ergebnisse werden weiter auf bestehende Ontologien abgebildet und zu einer Concept Map aggregiert. Wir implementieren unseren Ansatz in KNIME mit dem Stanford NLP-Parser und generieren eine Concept Map aus einem Datensatz zur Beanstandung der Automobilsicherheit. Die Endergebnisse erweitern die bestehende Ontologie und schließen auch die Lücke zwischen Ontologie und realen organisations-ontologiebasierten Wissensmanagementsystemen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-91947-8_16 ef55ec078d45e642dad4f614f91fd5b6;de;;;2.1.;;;Vorwort zur ONISW 2007 Das Aufkommen des World Wide Web hat riesige Datenmengen zur Verfügung gestellt. Daten existieren in vielen verstreuten elektronischen Datenquellen (E-Quellen) über das Web. Auch wenn sich einige der Daten in gut organisierten Datenquellen befinden, sind für ihre vollständige Nutzung Interoperabilität und Integration mit Daten aus anderen Quellen, semantische Koordination und Konfliktlösung erforderlich. Semantic Web-fähige Anwendungen können potenziell bessere Ergebnisse für die semantische Integration, Interoperabilität und Suche liefern. Insbesondere Ontologien gelten weithin als die beste Lösung für die globale Informationsintegration und semantische Interoperabilität.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76292-8_17 2f850bc1bec08206ceb4752e0ad61e0c;de;;;2.1.;;;Übersetzerwissen aufdecken: Statistische Methoden beim Aufbau praktischer Übersetzungslexika für die Sprach- und Sprachverarbeitung Parallele Korpora kodieren äußerst wertvolles linguistisches Wissen über gepaarte Sprachen, sowohl in Bezug auf Wortschatz als auch Syntax. Eine professionelle Übersetzung eines Textes stellt eine Reihe von sprachlichen Entscheidungen des Übersetzers dar, um die Bedeutung des Originaltextes möglichst getreu wiederzugeben und einen „natürlichen“ Text aus der Sicht eines Muttersprachlers der Zielsprache zu produzieren. Die „Natürlichkeit“ einer Übersetzung impliziert nicht nur die Grammatikalität des übersetzten Textes, sondern auch Stil und kulturelle oder soziale Besonderheiten.;-;-;-;https://link.springer.com/article/10.1023/A%3A1020284521742 e2bb471e11aea04eb46323099037bf95;de;;;2.1.;;;DWT-Texturmerkmalsbasierte Klassifikation von Osteoarthritis anhand von Knieröntgenbildern Heutzutage leiden nicht nur ältere Menschen, sondern auch jüngere (im Alter zwischen 30 und 45) auch an Kniearthrose (OA). Die Diagnose und richtige Behandlung von OA kann den Beginn einer schweren Behinderung verzögern. Die primären pathologischen Merkmale (z. B. Verringerung des Gelenkspalts und der Synovialhöhle, Entzündung und Veränderung der Knochenmorphologie) zur Vorhersage des Schweregrads der Kniegelenksarthrose sind in Röntgenbildern deutlich sichtbar. Allerdings sind die Röntgenbildbefunde bei dieser Krankheit oft nicht produktiv und können durch das Vorhandensein von Bildrauschen irreführend sein und die Analyse und Klassifizierung erschweren. Um die oben genannten Probleme zu überwinden, wird ein effektives OA-Klassifizierungssystem vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0493-5_5 e3b8c530142250d4e7f35ef55ea0ed6b;de;;;2.1.;;;Eine Fuzzy-attributorientierte Induktionsmethode zur Wissensentdeckung in relationalen Datenbanken In diesem Beitrag schlagen wir eine fuzzy-attributorientierte Induktionsmethode zur Wissensentdeckung in relationalen Datenbanken vor. Diese Methode wird vom DBLearn-System übernommen, indem Hintergrundwissen mit Fuzzy-Thesauri und Fuzzy-Labels dargestellt wird. Diese Modelle ermöglichen es, inhärente Ungenauigkeiten und Unsicherheiten der Domänendarstellung zu berücksichtigen. Wir zeigen auch die Macht von Fuzzy-Thesauri und linguistischen Variablen, um Abstufungen im Generalisierungsprozess zu beschreiben und Ausnahmen zu behandeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-49121-7_1 5e200cb886a16d4e7896625d21fc78a5;de;;;2.1.;;;Unsicherheitsgenerierung in unsicheren Fuzzy-Logic-Systemen In diesem Kapitel stellen wir vor dem Hintergrund bestehender Methoden verschiedene Methoden vor, um Mitgliedschaftsunsicherheit zu erzeugen. Insbesondere präsentieren wir einen Ansatz zur Entscheidungsfindung mit mehreren Personen, der dreieckige sekundäre Mitgliedschaften generiert. Dann verwenden wir die nichtlineare Anpassung, um Intervall- (sowie dreieckige) sekundäre Zugehörigkeitsfunktionen über Daten zu erweitern, die durch den Fuzzy-C-Means-Algorithmus partitioniert sind. Wir führen auch ein unvollständiges und diskretes Schema zum Schließen von Informationen ein, das auf groben Fuzzy-Sets basiert. Schließlich wenden wir eine generalisierte Fuzzifizierung an, die entweder über Möglichkeits- und Notwendigkeitsmaße oder durch Fuzzy-Rough-Mengen durchgeführt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29520-1_5 fdc6821cf5c532996b17a1415e249a69;de;;;2.1.;;;Forschung zur Bildmerkmalsverarbeitung basierend auf FPGA In Bezug auf die gegenwärtigen Probleme der geringen Recheneffizienz der existierenden großformatigen Bildinhalts-Wiedergewinnungsschemata entwirft und implementiert dieser Artikel ein Deep-Learning-Bildklassifizierungssystem basierend auf FPGA. Nutzung der Eigenschaften der programmierbaren Hardware von FPGA zur Integration von SATA-Datenkommunikation und CNN-Algorithmus in einem FPGA-Chip Gleichzeitig wird das Vektorvergleichsverfahren verwendet, um beim Lesen von Daten eine Merkmalsabfrage und -sortierung von Bildern durchzuführen, wodurch leistungsstarke integrierte Bildklassifizierungs- und -abruffunktionen erzielt werden. Die experimentellen Ergebnisse zeigen, dass bei einer Hauptfrequenz des FPGA von 200 MHz die charakteristische Verarbeitungskapazität 85 Bilder/Sekunde beträgt, die Leistungsaufnahme des Algorithmus 24 W beträgt, die Speichergröße nicht weniger als 1 TB beträgt und die SATA-Lesefunktion Geschwindigkeit beträgt 482 MB/s und die Schreibgeschwindigkeit beträgt 273 MB/s.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-51556-0_66 e63080bc048c8426abe49c34b6c7cf12;de;;;2.1.;;;Frequenzgangverfahren zur Geländeklassifizierung in autonomen Bodenfahrzeugen Viele Missionen mit autonomen Bodenfahrzeugen (AGV) erfordern, dass das Fahrzeug in schwierigem Gelände im Freien wie Sand, Schlamm oder Schnee eingesetzt wird, z. B. im Zusammenhang mit landwirtschaftlichen Anwendungen, Such- und Rettungseinsätzen oder Aufklärung und Überwachung. Um die Sicherheit und Leistungsfähigkeit von AGVs auf diesen Terrains zu gewährleisten, kann ein geländeabhängiges Fahr- und Steuerungssystem implementiert werden. Ein wichtiger erster Schritt bei der Implementierung dieses Systems ist die autonome Geländeklassifizierung. Kürzlich wurde gezeigt, dass die Größe der Ortsfrequenzantwort des Geländes eine effektive Geländesignatur ist. Da darüber hinaus der räumliche Frequenzgang durch die Schwingungsübertragungsfunktion eines AGV auf den Frequenzgang der Schwingungsmessungen abgebildet wird, dient die Größe der letzteren Frequenzgänge auch als Geländesignatur. Daher konzentriert sich dieser Beitrag auf die Geländeklassifizierung mittels Schwingungsmessungen. Die Klassifizierung erfolgt unter Verwendung eines probabilistischen neuronalen Netzes, das online mit relativ hohen Rechengeschwindigkeiten implementiert werden kann. Der Algorithmus wird experimentell sowohl auf ein ATRV-Jr als auch auf ein eXperimental Unmanned Vehicle (XUV) bei mehreren Geschwindigkeiten angewendet. Die experimentellen Ergebnisse zeigen die Wirksamkeit des vorgeschlagenen Ansatzes.;-;-;-;https://link.springer.com/article/10.1007/s10514-007-9077-0 454181588baec75532dfeab805c0db62;de;;;2.1.;;;Funktion phenolischer Substanzen im Abbausystem von Indol-3-Essigsäure in Erdbeeren Das Homogenat verschiedener Erdbeerorgane hemmt den Abbau von IAA in Gegenwart von Meerrettichperoxidase, während intaktes Erdbeergewebe IAA abbauen kann. Die chemische Natur von Peroxidase-Inhibitoren, die in Erdbeergewebe vorhanden sind, wurde untersucht. Mittels Papierchromatographie wurden folgende polyphenolische Substanzen identifiziert, die die Peroxidaseaktivität hemmen: Chlorogen-, Kaffee-, Ellag-, Gentis-, Gallus- und Vanillinsäure, Quercetin und Pelarginidin. Monophenolische Verbindungen, die auch in Erdbeeren vorkommen, wie p-Hydroxyphenylessigsäure und p-Hydroxybenzoesäure, sind starke Stimulatoren der IAA-Oxidase. Abscisinsäure in sehr hoher Konzentration (1×10;-;-;-;https://link.springer.com/article/10.1007/BF02920904 306fee13bf5c5062cf825e26828abbba;de;;;2.1.;;;Kreuzbarkeitsbeziehungen Der Begriff Hybridisierung wird verwendet, um ein breites Spektrum von Prozessen zu beschreiben, die eine gegenseitige Befruchtung beinhalten. Bei weiten Kreuzungen bezieht es sich normalerweise auf Ereignisse, die zu einem Genfluss zwischen Populationen führen können, die in unterschiedlichem Ausmaß reproduktiv voneinander isoliert sind. Eine erfolgreiche Hybridisierung hängt ab von: (1) dem Kreuzungspotential oder der Kreuzbarkeit der beteiligten Parteien, dies bezieht sich auf alle Ereignisse, die ab dem Zeitpunkt der Keimung der Pollenkörner auf der fremden Narbe bis zur Bildung der Zygote auftreten, und (2 ) die Entwicklung der Hybridembryonen und der F;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-84306-8_2 1db4034e3fe10790a66bfec7cc53aa10;de;;;2.1.;;;Ein neuartiges Erkennungssystem für die menschliche Netzhaut basierend auf einem neuronalen Fuzzification-Netzwerk Automatisierte Verfahren basieren auf der Humanbiometrie, um die Identität einer Person anhand der physiologischen oder verhaltensbezogenen Merkmale des Menschen zu überprüfen. Zu den biometrischen Merkmalen gehören Gesicht, Iris, Netzhaut, Fingerabdruck und Zunge. Die Erhaltung biometrischer Daten ist sehr wichtig, da sie eines der Mittel ist, um die Informationen anderer zu bewahren. Eine der wichtigsten biometrischen, genauesten und leistungsfähigsten Methoden zur Identitätsüberprüfung ist die menschliche Netzhaut. Die einzigartigen Netzhautmerkmale pro Person können als kompakte Binärform angezeigt werden. Um die Identität einer Person zu bestätigen, können die einzigartigen Netzhautmerkmale der Person leicht mit der Referenzvorlage verglichen werden. In diesem Artikel wird ein neuartiges Erkennungssystem für Netzhautbilder vorgeschlagen, das das Fuzzifizierungsmodell verwendet, das in neuronale Deep-Learning-Netzwerke integriert ist. Darüber hinaus gilt das Identifizierungssystem auf der Grundlage der menschlichen Netzhaut als das am besten geschützte Schema moderner Anwendungen. Die Neuheit in diesem Papier ist zwischen Fuzzy Set und Deep Learning neuronalen Netzen integriert. Praktisch ist dies das erste Mal, dass das Fuzzifizierungsmodell und das künstliche neuronale Netz integriert werden. Die erhaltenen experimentellen Ergebnisse des vorgeschlagenen Identifikationssystems zeigen, dass der vorgeschlagene Ansatz eine hervorragende Erkennungsrate mit sinkender Fehlerrate sowie eine Verringerung der Anzahl von Fehlalarmen besitzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-38752-5_13 393e4da5016496d57a504d49cefdef7e;de;;;2.1.;;;Kategorieerweiterung durch Clustering in der Webseitenklassifizierung Die automatische Klassifizierung von Webseiten ist ein wirksames Mittel, um das Abrufen von Informationen aus dem Internet zu erleichtern. Aber die meisten veröffentlichten Algorithmen ignorieren den Konflikt zwischen der festen Anzahl von Kategorien und der wachsenden Anzahl von Dokumenten, die dem System hinzugefügt werden. Um dieses Problem anzugehen, wird ein kategoriebasiertes Clustering-Verfahren entwickelt, das auch die Kategorieinformationen berücksichtigt, um automatisch eine neue Kategorie aus einer aufzuteilenden Kategorie zu extrahieren. Basierend auf dem bestehenden sinnbasierten Klassifikationssystem unserer früher veröffentlichten Arbeit wird die vorgeschlagene Clustering-Methode bei der Generierung von Kategorien getestet. Experimentelle Ergebnisse zeigen, dass der kategoriebasierte Clustering-Algorithmus eine höhere Clusterqualität erreicht als andere existierende Verfahren, die keine Kategorieinformationen verwenden. Durch die Kombination der automatischen Klassifizierung basierend auf Wortbedeutungen und dem dynamischen Hinzufügen neuer Kategorien basierend auf Clustering verfeinern wir das Klassifizierungssystem, um den aktuellen und zukünftigen Anforderungen eines wachsenden Internets gerecht zu werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74282-1_17 39adf4482cf69951877f4350b79ab3d8;de;;;2.1.;;;Fuzzy Wenn-Dann-Regel-Klassifizierer für Ensemble-Daten Dieses Papier stellt ein neuartiges Framework vor, das Fuzzy-IF-THEN-Regeln in einem Ensemblesystem verwendet. Unser Modell behebt mehrere Nachteile. Erstens haben Ansätze mit WENN-DANN-Regeln Probleme mit hochdimensionalen Daten, da der Rechenaufwand exponentiell ist. In unserem Rahmen werden Regeln auf Ausgaben von Basisklassifikatoren operiert, die häufig eine geringere Dimensionalität als die Originaldaten haben. Darüber hinaus werden die Ausgaben von Basisklassifizierern innerhalb des Bereichs [0, 1] skaliert, so dass es bequem ist, Fuzzy-Regeln direkt anzuwenden, anstatt eine Datentransformation und -normierung zu erfordern, bevor Fuzzy-Regeln erzeugt werden. Die Leistung dieses Modells wurde durch Experimente mit 6 häufig verwendeten Datensätzen aus dem UCI Machine Learning Repository bewertet und mit mehreren hochmodernen kombinierten Klassifikatoralgorithmen und Fuzzy-IF-THEN-Regelansätzen verglichen. Die Ergebnisse zeigen, dass unser Framework die Klassifizierungsgenauigkeit verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45652-1_36 13c099b1b437e57657842e5d90d9b5aa;de;;;2.1.;;;Verschiedene Vorschläge zur Verbesserung der Genauigkeit der Fuzzy-Linguistischen Modellierung Die linguistische Modellierung gilt heute neben der Fuzzy-Steuerung als eine der wichtigsten Anwendungen der Fuzzy-Set-Theorie. Linguistische Modelle haben den Vorteil, dass sie eine menschenlesbare Beschreibung des modellierten Systems in Form eines Satzes linguistischer Regeln liefern. In diesem Beitrag werden wir verschiedene Ansätze analysieren, um die Genauigkeit linguistischer Modelle zu verbessern und gleichzeitig ihre Beschreibungskraft zu erhalten. All diese Ansätze teilen die gemeinsame Idee, die Art und Weise zu verbessern, in der das regelbasierte Fuzzy-System interpolatives Denken durchführt, indem die Zusammenarbeit zwischen den Regeln in der Wissensdatenbank des linguistischen Modells verbessert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4513-2_9 09f8fac68a3985f78c54132979947f58;de;;;2.1.;;;Über die Synchronisierung in einer mobilen Umgebung In einer verteilten Umgebung verschränken sich statisches und mobiles Verhalten sowohl auf logischer als auch auf physischer Ebene. In diesem Papier identifizieren wir nicht nur die Elemente, die mobiles Verhalten aufweisen können, sondern auch Arten von solchem ​​Verhalten auf jeder der beiden Ebenen. Wir glauben, dass die Synchronisation zwischen der Mobilität auf der logischen Ebene und der auf der physischen Ebene eine wesentliche Anforderung an eine mobile Umgebung ist. Dieses Papier diskutiert die Sicht der Autoren zur Synchronisation – passives und reaktives Verhalten. Eine mathematische Beschreibung eines reaktiven Verhaltens wird ebenfalls präsentiert. Abschließend wird ein Überblick über bestehende mobile Systeme aus Sicht der Synchronisation gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45391-1_13 6a2de243e4200a6455645dcc3032dccb;de;;;2.1.;;;Zur Integration einer Vielzahl von Life-Science-Webdatenbanken Die Integration von Life-Science-Webdatenbanken ist ein wichtiges Forschungsthema, das sich auf die Geschwindigkeit neuer biologischer Entdeckungen auswirkt. Die Interoperabilität von Life-Science-Datenbanken anzugehen stellt jedoch ernsthafte Herausforderungen dar, insbesondere wenn auf die Datenbanken über ihre Webschnittstellen zugegriffen wird. Zu diesen Herausforderungen gehört die Tatsache, dass es zahlreiche Life-Science-Datenbanken gibt und sich ihre Zugriffsschnittstelle häufig ändern kann. Dieses Papier schlägt Techniken vor, die diese Herausforderungen berücksichtigen, und zeigt, wie diese Techniken im Kontext von BACIIS, einem Zusammenschluss von Life Science-Webdatenbanken, implementiert wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24745-6_12 cbd15096860bab037ecd6e4b7692b333;de;;;2.1.;;;Fundierte Semantik für hybride Regeln Das Problem der Integration von Regeln und Ontologien wird in einem allgemeinen Rahmen behandelt, der auf der fundierten Semantik normaler Logikprogramme basiert und von den Ideen des Constraint Logic Programming (CLP) inspiriert ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72982-2_1 614ea1ed8d299b21743d7dc0aedbf328;de;;;2.1.;;;Organisationswissen: Ethik und die Bedeutung von Vertrauen Das Ziel dieses Beitrags ist es, die ethischen Dilemmata, die sich aus dem organisatorischen Wissen ergeben, und die Bedeutung von Vertrauen für die Verringerung dieser Dilemmata zu erfassen. Daher konzentriert es sich auf drei Schlüsselthemen: Wissensmanagement (Konzept und Denkschulen), Wissensflussmodelle versus Ethik (mentale Modelle, das Sozialisations-, Externalisierungs-, Kombinations-, Internalisierungsmodell (SECI) und das Beziehungsmodell von Fiske) und schließlich die Bedeutung von Vertrauen als mögliche Antwort. Außerdem legt dieses Papier nahe, dass die bisherigen Modelle Wissen nur als Kontinuumsprozess fokussieren und das Ergebnis dieses Prozesses ethische und moralische Dilemmata auslässt (Pflicht zum Teilen, persönliches Eigentum, persönlicher Wert, Autonomie, Würde, Privatsphäre usw.). Diese ethischen Dilemmata schwächen eindeutig ein Wissensmanagementprojekt und wie Vertrauen eine zuverlässige Antwort ist. Das Fehlen empirischer Arbeiten sollte als Einschränkung dieser Arbeit angesehen werden, schmälert jedoch nicht die Bedeutung dieser Debatte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16419-4_30 2543a619df0a049bcf50e9b520037e41;de;;;2.1.;;;Auf dem Weg zu einem kontextbewussten, zufälligen Empfehlungssystem Die Entwicklung von Empfehlungssystemen war in den letzten zwei Jahrzehnten eine wichtige Domäne im industriellen und akademischen Bereich. In letzter Zeit hat sich die Bedeutung der Entwicklung eines kontextbewussten zufälligen Empfehlungssystems herausgestellt. Als solche untersuchen wir die latenten Merkmale von Elementen, die von den Benutzern eines solchen Systems erkannt werden können. Wir gehen davon aus, dass Benutzer von einem Element zum anderen über die latenten Merkmale wechseln, die sich in der Reihenfolge der Elemente widerspiegeln. Unsere Arbeit konzentriert sich insbesondere auf den Prozess der Vorhersage des sequentiellen und sich ändernden Geschmacks von Benutzern. Wir zeigen die Existenz latenter Merkmale durch die Präsentation einer Topic Map und schlagen ein kontextbewusstes zufälliges Empfehlungssystem vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-04726-9_16 a8b1b749ec5c5fcde2f8be4eb002bc13;de;;;2.1.;;;Forschung zur Konstruktion und automatischen Erweiterung einer lexikalisch-semantischen Wissensdatenbank mit mehreren Quellen Mit der Entwicklung der Forschung zur Verbesserung der Leistung von Deep-Learning-Modellen in Kombination mit den reichhaltigen Wissensressourcen in traditionellen Wissensbasen ist die Forschung zum Aufbau von Wissensbasen immer mehr zu einem heißen Thema geworden. Wie man die reichhaltigen semantischen Informationen bestehender Wissensdatenbanken wie HowNet und Tongyici-Cilin nutzen kann, um einen umfassenderen und hochwertigeren Wissensgraphen zu erstellen, ist zum Schwerpunkt der Forschung von Wissenschaftlern geworden. In dieser Arbeit schlagen wir eine Möglichkeit vor, eine Vielzahl von Wissensbasisinformationen zu integrieren, um eine neue Wissensbasis aufzubauen, kombiniert mit Deep-Learning-Techniken, um die Wissensbasis zu erweitern. Aufbau einer lexikalisch-semantischen Wissensdatenbank mit mehreren Quellen durch die Schritte der neuen Ontologiekonstruktion, Datenbereinigung und -fusion und Erweiterung des neuen Wissens. Basierend auf dem Aufbau der Wissensbasis verwenden wir die Graphdatenbank und das JavaScript-Skript, um die Daten getrennt zu speichern und zu visualisieren. Durch Experimente erhielten wir eine lexikalische semantische Wissensdatenbank mit 153754 Knoten, 1598356 Tripeln und 137 Beziehungen. Es kann genaue und bequeme Wissensdienste bereitstellen und eine große Anzahl semantischer Wissensressourcen nutzen, um die Forschung zu semantischem Abruf, intelligentem Frageantwortsystem, Extraktion semantischer Beziehungen, semantischer Relevanzberechnung und automatischer Ontologiekonstruktion zu unterstützen;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1956-7_7 d509b18a2c66eba0aa35e893ac93beb0;de;;;2.1.;;;Analyse von Umweltgeräuschen als indexikalische Zeichen im Film In diesem Beitrag untersuchen wir das Problem der Klassifizierung einer Teilmenge von Umgebungsgeräuschen in Filmtonspuren, die auf eine spezifische indexikalische semiotische Verwendung hinweisen. Diese Umgebungsgeräusche werden verwendet, um Ereignisse in Filmszenen zu kennzeichnen und zu verstärken. Wir schlagen ein Klassifizierungssystem vor, um das Vorhandensein von Gewalt- und Verfolgungsjagden in Filmen zu erkennen, indem wir zehn verschiedene Umgebungsgeräusche klassifizieren, die die konstituierenden Audioereignisse dieser Szenen unter Verwendung einer Reihe alter und neuer Audiofunktionen bilden. Experimente mit unserem Klassifikationssystem an reinen Testgeräuschen ergaben eine korrekte Ereignisklassifizierungsrate von 88,9 %. Wir präsentieren die Ergebnisse des Klassifikators auch auf den gemischten Audiospuren mehrerer Szenen aus;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45453-5_69 01cdc9e1c9a1ee5147a9bee9326e2919;de;;;2.1.;;;Sequentielles überwachtes Lernen für die Hypernym-Erkennung von Wikipedia Die Hypernym-Erkennung ist eine wesentliche Aufgabe für den automatischen Aufbau und die Erweiterung von Ontologien. Im Vergleich zum gesamten Web als Quelle für die Informationsgewinnung bieten Online-Enzyklopädien weitaus mehr Struktur und Zuverlässigkeit. In diesem Beitrag schlagen wir einen neuartigen Ansatz vor, der syntaktische und lexikalisch-semantische Informationen kombiniert, um hypernyme Beziehungen zu identifizieren. Wir haben halbautomatisch und manuell erstellte Trainingsdaten und einen Goldstandard zur Auswertung mit den ersten Sätzen aus der deutschen Wikipedia zusammengestellt. Wir trainierten einen sequentiell überwachten Lernenden mit einem semantisch erweiterten Tagset. Die Experimente zeigten, dass die Sauberkeit der Daten weitaus wichtiger ist als die Menge derselben. Darüber hinaus wurde gezeigt, dass Bootstrapping ein praktikabler Ansatz ist, um die Ergebnisse zu verbessern. Unser Ansatz übertraf die konkurrierenden lexiko-syntaktischen Muster um 7 %, was zu einem;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19032-2_5 0d6fa2faf2c5d06c60836a6755ba66f0;de;;;2.1.;;;Zusammenhänge zwischen Zwei Gramineae-Arten, Hafer und Mais, werden mit Weizen und Gerste verglichen, um zu sehen, ob sie Lektine enthalten, die strukturell und funktionell den Hordeae-Lektinen ähnlich sind. Es wurden vier verschiedene Kriterien untersucht: Lokalisierung der Lektinaktivität im Samen, Fähigkeit, einen definierten Erythrozytentyp in einer Reaktion zu agglutinieren, die durch Monomere oder Oligomere von;-;-;-;https://link.springer.com/article/10.1007/BF00393647 e426113e89129e414efd8c6652f58d8a;de;;;2.1.;;;Aktuelles Einstellungs-Vorhersagemodell basierend auf der Spieltheorie Soziale Interaktionen in Online-Communities beinhalten sowohl positive als auch negative Beziehungen: Menschen geben Feedback, um Freundschaft, Unterstützung oder Zustimmung zu signalisieren, aber sie drücken auch Ablehnung oder Misstrauen gegenüber den Meinungen anderer aus. Die aktuelle Einstellung zum anderen Nutzer in Online-Communitys wird von vielen Faktoren beeinflusst, wie zum Beispiel den bereits bestehenden Ansichten zu bestimmten Themen, seinen jüngsten Interaktionen mit anderen und seiner/ihrer Grundstimmung. In diesem Beitrag entwickeln wir eine spieltheoriebasierte Methode zur Analyse der interaktiven Muster in Online-Communitys, die die erste ihrer Art ist. Die Leistung dieses Vorhersagemodells wurde anhand eines realen, groß angelegten Kommentardatensatzes bewertet, und die Genauigkeit erreicht 82%.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41154-0_35 aa4edd50d7e880e1ed298d3f569ca48e;de;;;2.1.;;;Ein Vergleich von vier globalen Landbedeckungskarten im Provinzmaßstab basierend auf Chinas 30 m GlobeLand30 Um das gesamte Erdsystem zu überwachen, wurden mehrere globale Landbedeckungskartierungsprodukte basierend auf verschiedenen Fernerkundungsbildern (z. B. AVHRR, MODIS, SPOT, HJ-1) erstellt, darunter UMD Land Cover, Global Land Cover 2000, GlobCover 2009 und GlobeLand30 . Das Anwendungspotenzial dieser Produkte wurde jedoch auf Provinzebene noch nicht vollständig erforscht. Das Hauptziel dieser Studie ist es, das Potenzial dieser Produkte in der Provinz Anhui, China, zu vergleichen und zu untersuchen. Die Fläche und die räumliche Konsistenz wurden verwendet, um die vier Datensätze basierend auf Chinas GlobeLand 30 aufgrund einer räumlichen Auflösung von 30 m und einer Gesamtgenauigkeit von 83,51 % zu bewerten. Der Korrelationskoeffizient nach Pearson (;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-3966-9_51 d77ecc8a445c676d6adc377cc81f9721;de;;;2.1.;;;Wissensmodell der Notfallentscheidung basierend auf Wissensangebot und -nachfrage Im Prozess der schnellen Reaktion auf Notfälle ist die Bereitstellung des notwendigen Wissens für Entscheidungsträger der Schlüssel zur Verbesserung der Effizienz der Entscheidungsfindung. Ausgehend vom Notfallentscheidungsprozess schlägt dieses Papier ein Notfallentscheidungsmodell basierend auf Wissensangebot und -nachfrage vor. Modellierung im Wissensmanagement ist sehr notwendig, um den Zweck des Schöpfers klar ausdrücken zu können. Dieses Modell soll eine Notfallentscheidung durch effektives Wissensmanagement treffen, das Notfallmanagement in allen Arten von Ressourcen vollständig nutzen und die Ressourcenallokation optimieren. Und durch das Taifun-Beispiel wird die Anwendung des Modells veranschaulicht. Abschließend werden weitere Forschungsrichtungen vermerkt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16397-5_28 be65d29dc8c3bf70b56eae52b48431ba;de;;;2.1.;;;Morphologie von Erwachsenen Die klassische Abhandlung von Snodgrass (1935) „Principles of Insect Morphology“ gilt immer noch als grundlegender allgemeiner Text. Die Morphologie adulter Hymenoptera wurde kürzlich von Richards (1956) und Riek (1970) ausführlich diskutiert, und Eady (1968) hat die Terminologie der Mikroskulptur bei Hymenoptera geklärt. Zur Morphologie der Aphelinidae siehe auch De Santis (1948) und Nikol’skaya und Yasnosh (1966). Imms (1916) behandelte die innere Anatomie von;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-9603-8_14 4401a91f493f23a01dc89ffd4d234202;de;;;2.1.;;;Ausbeutung von wilden Verwandten der Speiseleguminosen Für Ackerbohnen, Linsen, Erbsen und Kichererbsen wurden nun die Grenzen des primären, sekundären und teilweise tertiären Genpools ermittelt und in jedem Genpool nützliche Merkmale gefunden. Wilde Verwandte im primären und sekundären Genpool können mit der jeweiligen Kulturpflanze gekreuzt werden, ihre Hybriden können jedoch teilweise steril sein und aufgrund der Heterozygotie für chromosomale Strukturänderungen eine begrenzte genetische Rekombination zeigen. Die Hybridisierung mit Arten im tertiären Genpool wird normalerweise durch Barrieren nach der Befruchtung blockiert. Besseres Verständnis der Anforderungen für;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-2764-3_76 c791b977ec6bef3c49cd42a2f54add60;de;;;2.1.;;;Die Unbestimmtheit des Farbsehens Ein kritischer Überblick über die neuere Arbeit zum ontologischen Status von Farben unterstützt die Schlussfolgerung, dass, obwohl einige Darstellungen von Farbe plausibel zurückgewiesen werden können, noch keine einzelne Darstellung bestätigt werden kann. Zu den verbleibenden Optionen gehören bestimmte Formen von;-;-;-;https://link.springer.com/article/10.1007/BF00413699 0ae0f08061d4eb5eaa36922e846f707d;de;;;2.1.;;;Ein serviceorientierter Ansatz mit neuronalen Netzen und Wissensontologien für die Robotersteuerung Forscher haben Roboter gebaut, die in der Lage sind, mit Menschen zu Hause zu interagieren und zu arbeiten. Um Robotercode zwischen verschiedenen Entwicklern zu teilen und wiederzuverwenden, präsentieren wir einen servicebasierten Ansatz, der die Standard-Webschnittstelle nutzt, um wiederverwendbare Roboterdienste zu erstellen. Unser Ansatz umfasst die Planung von Wissensontologie und Lernstrategien neuronaler Netze für die Robotersteuerung. Außerdem wurden mehrere Dienstfunktionen, einschließlich Dienstentdeckung, Auswahl, Zusammensetzung und Neukonfiguration, zum Betreiben der Dienste entwickelt. Der vorgeschlagene Ansatz wurde umgesetzt und evaluiert. Die Ergebnisse zeigen, dass unser Ansatz erfolgreich genutzt werden kann, um Robotik-Services aufzubauen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-42042-9_59 9e7212841f40eb918d5fae213a8713c9;de;;;2.1.;;;Eine natürliche Sprachschnittstelle zu ontologiebasierten Wissensdatenbanken Das Ziel des Semantic Web ist es, den Zugriff, die Verwaltung und das Abrufen von Informationen im Web zu verbessern. Ontologien werden in diesem Verständnis als eine Technologie betrachtet, die alle oben genannten Aufgaben unterstützt. Aktuelle Ansätze zum Information Retrieval auf ontologiebasierten Wissensbasen sind jedoch für erfahrene Anwender gedacht. Um diese Lücke zu schließen, gilt Natural Language Processing (NLP) aus der Sicht eines unerfahrenen Benutzers als sehr intuitiver Ansatz, da die Formalität einer Wissensdatenbank ebenso wie die ausführbare Abfragesprache verborgen ist. In dieser Arbeit stellen wir ONLI vor, eine natürliche Sprachschnittstelle für DBpedia, ein Gemeinschaftsprojekt zur Strukturierung des Wikipedia-Inhalts basierend auf einem ontologischen Ansatz. ONLI kombiniert NLP-Techniken, um die Frage des Benutzers zu analysieren und ein ontologisches Modell zu erstellen, das für die Beschreibung des Kontexts der Frage verantwortlich ist. Von diesem Modell fordert ONLI die Antwort über einen Satz heuristischer SPARQL-basierter Abfragemuster an. Schließlich beschreiben wir die aktuelle Version des ONLI-Systems sowie eine Bewertung, um seine Wirksamkeit bei der Suche nach der richtigen Antwort zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19638-1_1 b7e2903839a060c53b1fe11fc6079cfd;de;;;2.1.;;;Ein ontologischer und agentenorientierter Modellierungsansatz zur Spezifikation intelligenter Ambient Assisted Living Systems für Parkinson-Patienten Ziel dieser Arbeit ist es, eine Anforderungsanalyse für Ambient Assisted Living (AAL)-Anwendungen für Patienten mit Parkinson-Krankheit (PD) einzuführen. Die Arbeit ist Teil des SociAAL-Projekts, das darauf abzielt, die Kosten bei der Entwicklung von AAL-Anwendungen für PD-Patienten zu senken. Ein erster Schritt ist das Verständnis der Bedürfnisse des PD-Patienten und der Unterschiede zu anderen möglichen AAL-Anwendern. Dieses Papier verwendet einen hybriden Ansatz, bei dem eine Ontologie und agentenorientierte Modelle verwendet werden, um anfängliche Anwendungsanforderungen zu formalisieren. Dieser hybride Ansatz wird mit Transkriptionen von Interviews im Rahmen des SociAAL-Projekts untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40846-5_2 65143a83c73497e46d17f81f6b7d7dc2;de;;;2.1.;;;Ontologische und epistemologische Grundlagen der Fuzzy-Theorie Eine ontologische und epistemologische Grundlage der Fuzzy-Mengen- und Logiktheorie wird im Vergleich zur klassischen Mengen- und Logiktheorie überprüft. Es wird gezeigt, dass grundlegende Äquivalenzen der klassischen Theorie zusammenbrechen, aber als schwache Äquivalenzen als Containment-Relation in der Fuzzy-Theorie wiederhergestellt werden. Es wird auch betont, dass das Gesetz der Erhaltung von Informationen in der Fuzzy-Theorie immer noch aufrechterhalten wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72434-6_12 007690972df6b54fb2daa9022e179360;de;;;2.1.;;;Ein Intrusion Detection-System mit mehreren Agenten, das Ontologie- und Clustering-Techniken verwendet Heutzutage hat der technologische Fortschritt ausgefeiltere Einbrüche mit sich gebracht. Folglich werden Intrusion Detection Systems (IDS) schnell zu einer beliebten Anforderung beim Aufbau einer Netzwerksicherheitsinfrastruktur. Die meisten bestehenden IDS sind im Allgemeinen zentralisiert und weisen eine Reihe von Nachteilen auf,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19578-0_31 69e71102aca01878c3b254e78c7dd46f;de;;;2.1.;;;Ein Modell mit mehreren Attributen und mehreren Werten für die Fuzzy-Ontologie-Integration auf Instanzebene Fuzzy-Ontologien sind in der Wissensmodellierung aufgrund der Möglichkeit zur Darstellung der Unvollständigkeit und Unsicherheit oft nützlicher als Non-Fuzzy-Ontologien. In diesem Beitrag präsentieren wir einen Ansatz zur Fuzzifizierung auf der Instanzebene der Ontologie unter Verwendung von Mehrwert- und Multiattributstruktur. Es wird eine konsensbasierte Methode zur Fuzzy-Ontologie-Integration vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28487-8_19 2326093b4f045b9e76115654db37d05b;de;;;2.1.;;;Zur Verwaltung der Verständlichkeit qualitätsbezogener Informationen in Softwareentwicklungsprozessen Das Herstellen eines gemeinsamen Verständnisses zwischen den Parteien im Softwareprozess ist wichtig für den Umgang mit der Qualität der zukünftigen Software. Dieser Prozess ist schwer zu organisieren, da die Parteien (insbesondere Entwickler und Geschäftsakteure) Qualität aufgrund unterschiedlicher Weltanschauungen wahrnehmen. Um dieses Problem anzugehen, streben wir eine Lösung für das Management der Verständlichkeit qualitätsrelevanter Informationen im Softwareprozess an. Diese Lösung bietet eine Reihe von Aktivitäten zur Bewertung der Verständlichkeit (zur Diagnose von Problemen mit kommunizierten Begriffen, die nicht zur Sicht der Zielpartei gehören) und Aktivitäten zur Verbesserung der Verständlichkeit (zur Lösung dieser Probleme durch Übersetzung problematischer Begriffe zwischen Weltanschauungen und Bereitstellung notwendiger Erklärungen). Diese Aktivitäten werden durch eine modulare Ontologie unterstützt, die vorhandenes qualitätsbezogenes Wissen einbezieht, die jeweilige Konfiguration der Ontologie-Module beschreibt die Qualitätssicht der Beteiligten. Der Lösungsvorschlag soll den Aufwand für die Etablierung einer Kommunikationsbasis bei der Diskussion über die Softwarequalität reduzieren, Kosten senken und das gegenseitige Vertrauen der Parteien stärken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09156-3_40 4ad82b1e99a420fc473b131c3991008f;de;;;2.1.;;;Automatische Steuerung einfacher Sprache in Webseiten Die Verwendung einer einfachen und leicht verständlichen Sprache ist eine wesentliche Voraussetzung dafür, dass Webdokumente für Menschen mit kognitiven oder Lesebehinderungen zugänglich sind. Wir präsentieren eine Architektur, die die Lesbarkeit von Textinhalten automatisch bewertet und auch Hinweise auf mögliche Lesbarkeitshindernisse im gegebenen Text gibt. Unser Ansatz basiert auf einem natürlichen Sprachverarbeitungs-Framework, das alle Ebenen der linguistischen Analyse unterstützt, von der morphologischen Analyse von Wörtern bis hin zur semantischen Analyse von Sätzen und Texten.;-;-;-;https://link.springer.com/chapter/10.1007/11788713_31 e17492210cdd7334799312efc888f200;de;;;2.1.;;;Eine Ontologie zur Produktionssteuerung von Halbleiterherstellungsprozessen In diesem Beitrag beschreiben wir eine Ontologie für ein hierarchisch organisiertes Produktionssteuerungssystem in der Halbleiterfertigung. Die Domäne der Halbleiterfertigung ist gekennzeichnet durch reentinierende Produktflüsse, sequenzabhängige Rüstzeiten, vorgegebene Fälligkeitstermine, einen vielfältigen Produktmix, einen Mix aus unterschiedlichen Prozesstypen einschließlich Batch-Prozessen und präventive Wartungsprobleme aufgrund komplexer technologischer Prozesse. Ausgehend von einer hierarchischen Zerlegung des Fertigungssystems verwenden wir eine agentenbasierte Architektur zur Implementierung des resultierenden Produktionssteuerungssystems. Um die autonomen Einheiten der Hierarchie zu koordinieren, schlagen wir eine Ontologie vor, die dem hierarchischen Kontrollansatz angemessen ist. Wir veranschaulichen die Verwendung der vorgeschlagenen Ontologie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39869-1_14 5cc8b8175e97bfca919fd69bef17013e;de;;;2.1.;;;Graphbasierter Ansatz für die domänenübergreifende Textverknüpfung Die umfassende Analyse von Multi-Domain-Texten hat einen wichtigen Einfluss auf das Text Mining. Obwohl die von diesen Multi-Domain-Texten beschriebenen Objekte zu verschiedenen Feldern gehören, überlappen sie sich manchmal teilweise, und das Verknüpfen dieser Textfragmente, die sich überlappen oder ergänzen, ist ein notwendiger Schritt für viele Aufgaben, wie Entitätsauflösung, Informationsabruf und Textclustering. Bisherige Arbeiten zur Berechnung von Textähnlichkeiten konzentrieren sich hauptsächlich auf string-basierte, korpusbasierte und wissensbasierte Ansätze. Allerdings weisen domänenübergreifende Texte im Vergleich zu Texten derselben Domäne ganz besondere Merkmale auf: (1) Entitätsmehrdeutigkeit, Texte aus unterschiedlichen Domänen können verschiedene Bezüge auf dieselbe Entität enthalten, (2) inhaltliche Schiefe, domänenübergreifende Texte überlappen sich teilweise. In diesem Beitrag schlagen wir einen neuartigen feingranularen Ansatz vor, der auf Textgraphen basiert, um die semantische Ähnlichkeit von domänenübergreifenden Texten zu bewerten, um die ähnlichen Teile zu verknüpfen. Die Experimentergebnisse zeigen, dass unser Ansatz eine effektive Lösung bietet, um die semantische Beziehung zwischen domänenübergreifenden Textfragmenten zu entdecken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-28121-6_14 5d64784e263c2b8af0f227ddb46a022d;de;;;2.1.;;;Domänenexpertenzentrierte Ontologie-Wiederverwendung für konzeptionelle Modelle Die Generierung eines projektspezifischen Domänenmodells für die Datenbank eines Informationssystems ist eine kritische Aufgabe. Die Begriffe und die Struktur müssen gut gewählt werden, da die Anwendung darauf beruht. Beim Semantic Web existieren bereits viele Vorstellungen und Strukturen bestimmter Domänen als gemeinsames Wissen. Daher scheint es, dass der Designer eines Informationssystems nur eine Ontologie nehmen und sie für das Informationssystem wiederverwenden muss. Diese Strategie muss jedoch sorgfältig angewendet werden, da eine Ontologie einen anderen Fokus und Zweck in Bezug auf das beabsichtigte konzeptionelle Datenbankmodell haben kann. Dennoch lohnt es sich, eine Ontologie auf Elemente zu untersuchen, die wiederverwendet werden können. Zu dieser Frage gibt es bereits Forschungsergebnisse, aber diese Forschungsansätze konzentrieren sich auf Ontologieingenieure oder konzeptionelle Modellierer, die die Ontologie analysieren können. Diese Personen sind zwar notwendig, aber nicht die einzigen, die in der Regel in einen solchen Prozess eingebunden werden müssen! Was ist mit den Domänenexperten, die nicht die Fähigkeiten haben, eine Ontologie zu lesen und zu verstehen? Sie müssen auch an einem guten Prozess beteiligt sein. Der hier vorgestellte Ansatz konzentriert sich auf die Domänenexperten. Es wird beschrieben, wie Domänenexperten unterstützt und in den Prozess eingebunden werden können. In Bezug auf die Ontologiesprache konzentriert sich dieser Ansatz auf OWL.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25106-1_24 1538a4a2dd1b920c63c9b27397e57bbb;de;;;2.1.;;;Datenintegrations- und Workflow-Lösungen für die Ökologie Das Science Environment for Ecological Knowledge (SEEK) wurde entwickelt, um Ökologen bei der Bewältigung von Herausforderungen bei der Datenintegration und -synthese zu unterstützen. Die SEEK-Umgebung ermöglicht Ökologen die effiziente Erfassung, Organisation und Suche nach Daten und Analyseprozessen. Wir beschreiben SEEK und diskutieren, wie es ökologischen Nischenmodellen zugute kommen kann, bei denen Biodiversitätswissenschaftler Zugang und Integration regionaler und globaler Daten sowie bedeutender analytischer Ressourcen benötigen.;-;-;-;https://link.springer.com/chapter/10.1007/11530084_32 576a2f01cc27954e0650f7795476ffb2;de;;;2.1.;;;Visualisierung multivariater hierarchischer Daten mithilfe des verbesserten radialen raumfüllenden Layouts Gegenwärtig führen Visualisierungswerkzeuge für große Ontologien (z. B. Pathway- und Gen-Ontologien) zu einem sehr flachen breiten Baum, der schwer auf eine einzelne Anzeige zu passen ist. Dieses Papier entwickelt das Konzept der Verwendung eines verbesserten radialen Raumfüllungs-(ERSF)-Layouts, um biologische Ontologien effizient darzustellen. Die ERSF-Technik stellt Ontologiebegriffe als kreisförmige Regionen in 3D dar. Orbitale Verbindungen in einer dritten Dimension entsprechen Nichtbaumkanten in der Ontologie, die existieren, wenn ein Ontologiebegriff zu mehreren Kategorien gehört. Biologen können das ERSF-Layout verwenden, um hochaktivierte Pfad- oder Genontologiekategorien zu identifizieren, indem sie experimentelle Statistiken wie Variationskoeffizienten und Überrepräsentationswerte auf die Visualisierung abbilden. Dieses Papier veranschaulicht die Verwendung des ERSF-Layouts zur Untersuchung von Signalwegen und Genontologien unter Verwendung eines Genexpressionsdatensatzes;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17289-2_34 438a2d7382b87683cebbb64c547596e9;de;;;2.1.;;;Anwendung von Nachrichtenfunktionen in Methoden zur Nachrichtenempfehlung: Eine Umfrage In den letzten Jahren haben viele traditionelle Nachrichten-Websites entsprechende Empfehlungssysteme entwickelt, um den Interessen der Leser gerecht zu werden, und Nachrichtenempfehlungssysteme werden häufig in traditionellen PCs und mobilen Geräten eingesetzt. Das Nachrichten-Empfehlungssystem hat sich zu einem kritischen Forschungs-Hotspot im Bereich des Empfehlungssystems entwickelt. Da Nachrichten mehr Textinformationen enthalten, ist es hilfreicher, den Empfehlungseffekt zu verbessern, um die Inhalte zu Nachrichtenfunktionen (Ort, Zeit, Ereignisse) aus den Nachrichten zu beziehen. Diese Umfrage fasst auf Nachrichten basierende Empfehlungsmethoden zusammen, einschließlich standortbasierte Nachrichtenempfehlungsmethoden, zeitbasierte Nachrichtenempfehlungsmethoden und ereignisbasierte Nachrichtenempfehlungsmethoden. Es hilft Forschern, die Anwendung von Nachrichtenfunktionen in Methoden zur Nachrichtenempfehlung zu kennen. Außerdem fasst diese Umfrage die Herausforderungen zusammen, mit denen das Nachrichtenempfehlungssystem und die zukünftige Forschungsrichtung konfrontiert sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7984-4_9 e4a0b5c31cf81a9f9cf5d9410db7be35;de;;;2.1.;;;Verständnis von Unwettersystemen mit Doppler- und Polarisationsradar Mit zunehmender Bevölkerung nehmen die Auswirkungen von Unwettern auf die sozioökonomischen Systeme weltweit zu. Dies wird durch spektakuläre Ereignisse von Sturzfluten, Hurrikanen und Hagelereignissen mit ihren Auswirkungen auf luft- und bodengestützte Transportsysteme oder Großereignisse wie die Olympischen Spiele unterstrichen (Parker, 2000, Pielke und Pielke, 1999). Auch die Wechselwirkung mit dem globalen Klimasystem mit vertikalem Spurengasaustausch durch tiefe Konvektionssysteme auf der einen Seite und der erhöhten Variabilität von Unwettern infolge der globalen Erwärmung auf der anderen Seite wird immer stärker Schwerpunkt der Forschung. All diese Themen erfordern ein besseres Verständnis von Unwettersystemen mit dem Ziel, die Vorhersagen zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-05202-0_6 57d93a2fc6ad8956d34274cf29d8b9b5;de;;;2.1.;;;Kontrolle der Vorhersagegenauigkeit durch Anpassen der Abstraktionsstufen Die Vorhersagegenauigkeit von Klassifikatoren wird unter anderem durch die Qualität der Daten bestimmt. Diese wichtige Eigenschaft von Daten wird stark von Faktoren wie der Anzahl der fehlerhaften oder fehlenden Attribute im Datensatz beeinflusst. In diesem Beitrag zeigen wir, wie mit diesen Faktoren umgegangen werden kann, indem die Abstraktionsebenen in die Datendefinition eingeführt werden. Unser Ansatz ist besonders in Fällen wertvoll, in denen die genaue Angabe des Wertes eines Attributs aus einer Reihe von Gründen wie beispielsweise Zeitmangel oder Wissen nicht möglich ist. Darüber hinaus zeigen wir, dass eine Erhöhung der Genauigkeit für ein Attribut die Vorhersagegenauigkeit signifikant erhöht, insbesondere wenn dies für das Attribut mit hohem Informationsgewinn erfolgt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21219-2_37 81abf8d403b04cd12bd1e2d1bd175c9e;de;;;2.1.;;;Informationslogistik im Engineering Change Management: Integration von Nachfragemustern und Empfehlungssystemen In den letzten zehn Jahren erlebte die Fertigungsindustrie einen Wandel hin zu vernetzten Organisationsstrukturen. In solchen Organisationen ist das Engineering Change Management ein komplexer Prozess mit dem Ziel, erforderliche Änderungen am Produkt zeitnah, vollständig und unter Einbeziehung aller betroffenen und beteiligten Partner umzusetzen. Informationsbedarfsmuster wurden vorgeschlagen, um organisatorisches Wissen über den Informationsfluss für solche Änderungsmanagementprozesse zu erfassen. Ziel dieses Beitrags ist es, diese Arbeit durch die Untersuchung von Ansätzen aus Gruppenempfehlungssystemen zur Umsetzung der IT-Unterstützung der Musterverwendung zu erweitern. Das Papier präsentiert einen Ansatz zur Integration von Informationsnachfragemustern und Empfehlungssystemen, eine Architektur für Empfehlungssysteme und einen Clustering-Ansatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29231-6_2 96be8cc9439de6ba74baac4522570758;de;;;2.1.;;;Regionale Auswirkungen des Klimawandels und des erhöhten Kohlendioxids auf die Waldproduktivität Die Nettoprimärproduktion (NPP) ist definiert als die Rate, mit der Kohlenstoff (C) von Autotrophen akkumuliert wird, und wird als Differenz zwischen der Bruttophotosynthese und der autotrophen Atmung ausgedrückt. NPP ist die Ressource, die für das Wachstum und die Reproduktion aller Heterotrophen auf der Erde sorgt und somit die Tragfähigkeit des Planeten bestimmt (;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-1256-0_11 6f5e908c80f33303245bcf774d1fe900;de;;;2.1.;;;Annotation Scheme and Specification for Named Entities and Relations on Chinese Medical Knowledge Graph Der medizinische Wissensgraph beschreibt medizinische Entitäten und Beziehungen in strukturierter Form, was eine der wichtigsten Darstellungen für die Integration massiver medizinischer Ressourcen ist. Es wird häufig bei der intelligenten Beantwortung von Fragen, der klinischen Entscheidungsunterstützung und anderen medizinischen Diensten verwendet. Der Schlüssel zum Aufbau eines hochwertigen medizinischen Wissensgraphen ist die Standardisierung benannter Entitäten und Beziehungen. Allerdings ist die Forschung zur Annotation und Spezifikation von benannten Entitäten und Beziehungen begrenzt. Basierend auf der aktuellen Forschung zum medizinisch annotierten Korpus erstellt dieser Beitrag unter ärztlicher Anleitung ein Annotationsschema und eine Spezifikation für benannte Entitäten und krankheitszentrierte Beziehungen. Die Spezifikation enthält 11 medizinische Konzepte und 12 medizinische Beziehungen. Medizinische Konzepte umfassen die Diagnose, Behandlung und Prognose von Krankheiten. Medical Relations konzentrieren sich auf Beziehungstypen zwischen Krankheiten und medizinischen Konzepten. In Übereinstimmung mit der Spezifikation wird ein neuer chinesischer medizinischer kommentierter Korpus mit hoher Konsistenz erstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-38189-9_58 58d64ecd6817be3b0204b2006c4382ea;de;;;2.1.;;;Ontologische persönliche Gesundheitsversorgung nach medizinischen Standards Laut The Center for Managing Chronic Diseases [1] sind jedes Jahr 7 von 10 Todesfällen bei Amerikanern auf chronische Krankheiten zurückzuführen. Chronische Krankheiten sind im Allgemeinen nicht heilbar, was eine langfristige Überwachung, Überwachung und verschiedene Behandlungen erfordert, die eine Koordination zwischen den medizinischen Fachkräften erfordern. Informations- und Kommunikationstechnologie (IKT) kann dazu beitragen, diesen Prozess zu verbessern und verschiedene klinische Entscheidungsprozesse zu erleichtern. Um eine verbesserte und evidenzbasierte Versorgung zu erreichen, schlagen wir vor, die Verbindung zwischen Patienten und Klinikern anhand relevanter Standards herzustellen. Bei diesem Ansatz sammeln Patienten regelmäßig relevante medizinische Daten mithilfe eines personalisierten mobilen Gesundheitssystems (PMHS) und teilen die Daten mit klinischen Einrichtungen, um die sinnvolle Verwendung von Krankenakten zu gewährleisten. Die gesammelten medizinischen Daten und Messergebnisse werden analysiert und das Analyseergebnis kann verwendet werden, um personalisierte Empfehlungen zu geben, um zu verhindern, dass gesunde Menschen Patienten mit chronischen Krankheiten werden. Die Ontologie konzentriert sich auf die semantische Organisation von Messergebnissen. Für die semantische Verwendung der gesammelten Krankenakten haben wir Protégé-OWL zum Aufbau der Ontologie und die SPARQL-Abfrage verwendet, um aussagekräftige Informationen aus den vom Patienten bereitgestellten medizinischen Daten abzurufen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16480-9_50 764e04d84fdef59bb415f80060e06d69;de;;;2.1.;;;HyperCuP – Hypercubes, Ontologien und effiziente Suche in Peer-to-Peer-Netzwerken Peer-to-Peer-Netzwerke sollen für eine Vielzahl von Anwendungen eingesetzt werden. P2P-Netzwerke, die sich unorganisiert entwickeln, leiden jedoch unter ernsthaften Skalierbarkeitsproblemen, die die Anzahl der Knoten im Netzwerk begrenzen, eine Netzwerküberlastung erzeugen und die Suchzeiten an inakzeptable Grenzen bringen. Wir gehen diese Probleme an, indem wir P2P-Netzwerken eine deterministische Form auferlegen: Wir schlagen eine Graphtopologie vor, die sehr effizientes Senden und Suchen ermöglicht, und wir beschreiben einen Broadcast-Algorithmus, der die Topologie nutzt, um alle Knoten im Netzwerk mit der minimalen Anzahl von Nachrichten zu erreichen möglich. Wir bieten einen effizienten Topologieaufbau- und Wartungsalgorithmus, der, entscheidend für symmetrische Peer-to-Peer-Netzwerke, weder einen zentralen Server noch Superknoten im Netzwerk benötigt. Knoten können dem selbstorganisierenden Netzwerk jederzeit beitreten und es verlassen, und das Netzwerk ist ausfallsicher. Darüber hinaus zeigen wir, wie unser Schema noch effizienter gemacht werden kann, indem eine globale Ontologie verwendet wird, um die Organisation von Peers in der Graphtopologie zu bestimmen, was eine effiziente konzeptbasierte Suche ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45074-2_11 fae2fca99df3c267bc72c8ed1d649dda;de;;;2.1.;;;Entwicklung von Prozessmodellierungstools zur Erleichterung der semantischen Standardisierung: Erhöhung der Innovationsgeschwindigkeit in einer digitalen Welt Business Process Management (BPM)-Projekte werden immer umfangreicher und komplexer. Angesichts eines zunehmenden Wettbewerbsdrucks und eines dynamischeren Marktumfelds ist es entscheidend, organisatorische Veränderungen schnell umzusetzen, um innovativ und wettbewerbsfähig zu bleiben. BPM-Projekte sind hierfür ein wichtiges Instrument, werden aber oft verzögert oder scheitern ganz. Sie leiden häufig unter einer hohen Heterogenität, die durch riesige Projektteams entsteht, die Hunderte von Prozessen modellieren. Modellierungskonventionen können zur Harmonisierung von Prozessmodellen beitragen, sind jedoch in großen Teams schwer zu entwickeln und durchzusetzen. Das Erstellen von Modellierungswerkzeugen, bei denen Modellierer Konventionen einhalten müssen, kann diese Probleme lindern. In diesem Kapitel stelle ich fünf Designprinzipien für solche Tools und eine prototypische Implementierung vor, die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-14430-6_12 a5f278553b33306dfbd81a4fe47fef5d;de;;;2.1.;;;Untersuchung von Pattern Mining zur Lösung des Ontology Matching Problems Dieses Papier befasst sich mit dem Ontologie-Matching-Problem und schlägt einen Pattern-Mining-Ansatz vor, der die unterschiedlichen Korrelationen und Abhängigkeiten zwischen den verschiedenen Eigenschaften nutzt, um die am besten geeigneten Features für den Matching-Prozess auszuwählen. Das vorgeschlagene Verfahren entdeckt zuerst die häufigen Muster aus der Ontologiedatenbank und ermittelt dann die relevantesten Merkmale unter Verwendung der abgeleiteten Muster. Um die Nützlichkeit der vorgeschlagenen Methode zu demonstrieren, wurden mehrere Experimente mit den DBpedia-Ontologiedatenbanken durchgeführt. Die Ergebnisse zeigen, dass unser Vorschlag die modernen Ontologie-Matching-Ansätze sowohl in Bezug auf die Ausführungszeit als auch die Qualität des Matching-Prozesses übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30278-8_11 b404063cde3425f6cdb5b782bee5bcfb;de;;;2.1.;;;Benutzerfreundliche semantische Annotation in der Geschäftsprozessmodellierung Aktuelle Probleme im Business Process Management bestehen aus Terminologie-Mismatches und unstrukturierter und isolierter Wissensrepräsentation in Prozessmodellen. Das semantische Geschäftsprozessmanagement zielt darauf ab, viele dieser Schwächen des Geschäftsprozessmanagements durch die Verwendung expliziter semantischer Beschreibungen von Prozessartefakten zu überwinden. Diese Vision hat jedoch eine Voraussetzung: Den Prozessmodellen müssen semantische Annotationen hinzugefügt werden. In diesem Beitrag stellen wir einen Ansatz vor, der es ermöglicht, Semantik flexibel und benutzerfreundlich zu annotieren, indem ontologisches Wissen dem Fachanwender in geeigneter Form zugänglich gemacht wird und durch Matchmaking und Filtertechniken nur Optionen mit hoher Relevanz angezeigt werden. Durch das Hinzufügen semantischer Informationen wird die Präzision von Prozessmodellen erhöht, was letztendlich die Erkennung und Zusammensetzung von Webdiensten unterstützt. Als Proof-of-Concept wurde die Arbeit prototypisch in einem Prozessmodellierungstool umgesetzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77010-7_25 961489c1f38569bff1f9cf65bea6bbf4;de;;;2.1.;;;Ein automatisierter Ansatz für die Vermittlung von Semantic Web Services Semantic Web Services (SWS) zielen auf die automatisierte Erkennung, Auswahl und Orchestrierung von Web Services auf Basis umfassender, maschinell interpretierbarer semantischer Beschreibungen. Heterogenitäten zwischen verschiedenen SWS-Darstellungen stellen jedoch starke Einschränkungen bzgl. Interoperabilität und Wiederverwendbarkeit. Daher ist die Vermittlung auf semantischer Ebene, d. h. die Vermittlung zwischen gleichzeitigen semantischen Darstellungen von Diensten, eine Schlüsselanforderung, damit SWS-Matchmaking-Algorithmen die Fähigkeiten verschiedener SWS vergleichen können. Die Vermittlung auf semantischer Ebene erfordert die Identifizierung von Ähnlichkeiten zwischen verschiedenen SWS-Repräsentationen. Da aktuelle Ansätze entweder auf manuellen Eins-zu-Eins-Mappings oder auf halbautomatischen Mappings basierend auf der Ausnutzung sprachlicher oder struktureller Ähnlichkeiten beruhen, werden diese als kostspielig und fehleranfällig wahrgenommen. Wir schlagen einen Vermittlungsansatz vor, der die implizite Darstellung von Ähnlichkeiten über verschiedene SWS hinweg ermöglicht, indem diese in sogenannten Mediation Spaces (MS) geerdet werden. Bei einem gegebenen Satz von SWS und ihrer jeweiligen MS-Erdung berechnet ein Allzweck-Mediator automatisch Ähnlichkeiten, um die am besten geeignete SWS für eine gegebene Anfrage zu identifizieren. Eine prototypische Anwendung veranschaulicht unseren Ansatz.;-;-;-;https://link.springer.com/article/10.1007/s11761-010-0070-7 81439031844dac7a8e15306b25bc621e;de;;;2.1.;;;Perspektiven: Eine Analyse mehrerer Standpunkte in agentenbasierten Systemen Wir diskutieren die Rolle der Perspektive bei Entscheidungskonflikten, die in einer Gemeinschaft von Agenten auftreten können. Unsere Perspektivenanalyse basiert auf einem einfachen, aber allgemeinen Beobachtungsmodell und liefert praktische Kriterien, um zu bestimmen, ob dem Konflikt ein Ontologie-Mismatch zugrunde liegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24612-1_26 4e32ae90f7319e7c266cabb5b50b4c14;de;;;2.1.;;;Forschung zu regelbasierten Argumentationsmethoden, die sich an der Information Resource Ontology orientieren Dieser Artikel untersucht semantische Retrieval-Methoden, die auf regelbasiertem Denken unter Unterstützung der Ontologie basieren. Zur Unterstützung der Ontologie-Wissensbasis steht dieses System ontologiestrukturbasierten Metadaten gemäß verwandten Konzepten und Argumentationsregeln gegenüber, sucht nach Implikationsbeziehungen und gräbt implizite Informationen aus. Wir extrahieren Argumentationsregeln aus der semantischen Beziehung von Auditinformationen und präsentieren den Smallest Connected Subgraph Generation Algorithm, Connected Componets Generation Algorithm und Connected Componets Matching Rules Algorithm. Durch Fallanalysen überprüfen wir die Anwendungswahrscheinlichkeit dieser Algorithmen beim Abruf von Audit-Informationsressourcen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25664-6_13 887fd6310795211a68f14ea403e14d25;de;;;2.1.;;;Ontologie-basierte medizinische Datenintegration für regionale Gesundheitsanwendungen Der regionale Informationsaustausch bietet die Möglichkeit, aktuelle Gesundheitsinformationen von Patienten schnell und einfach zwischen Krankenhäusern und Instituten zu übertragen. Die Tatsache, dass die meisten Systeme proprietär entwickelt wurden, behindert jedoch die Datenintegration. Die meisten Entwickler lösen dieses Problem, indem sie spezifische Datenmodellstandards verwenden, was zu Systeminflexibilität und -erweiterbarkeit führt. In diesem Beitrag stellen wir eine ontologiebasierte Integrationsmethode vor, um mit Datenheterogenität im regionalen Gesundheitsinformationsnetz umzugehen. Um Interoperabilität zur Laufzeit und auf nicht-intrusive Weise zu realisieren, entwerfen wir eine dreischichtige Systemarchitektur. Die semantische Schicht wird verwendet, um die Koordination zwischen heterogenen Systemen durchzuführen, die sich nahtlos verbinden können, ohne die ursprüngliche Datenstruktur zu ändern. Wir verwenden den hybriden Ontologie-Ansatz, der Informationen aus heterogenen Datenbanken extrahiert, um lokale Ontologien zu erstellen, und verwendet eine Ontologie der höheren Ebene, um diese Ontologien kompatibel zu machen. Dieses Papier zeigt eine Möglichkeit für den Zugriff auf heterogene Datenbanken für einen besseren regionalen Informationsaustausch.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_191 a94ce115558893c52ec7e38f5205728f;de;;;2.1.;;;Die Rolle der IKT im Wissensmanagement (WM) für die organisatorische Effektivität Wissensmanagement (KM) ist zum Schlüsselfaktor für den Erfolg aller Organisationen geworden. IKT sind Technologien, die dem Management den Austausch von Wissen und Informationen erleichtern. Daher spielen IKT eine herausragende Rolle bei Initiativen zum Wissensmanagement. Im aktuellen Geschäftsumfeld ist die Umsetzung von Wissensmanagement-Projekten mit Hilfe von technologischen Werkzeugen einfacher geworden. Der Wert von Wissensmanagement ist höher, wenn es den richtigen Personen zur richtigen Zeit zur Verfügung gestellt wird. Somit wird der Wissensaustausch durch Informations- und Kommunikationstechnologien wie Computer, Telefon, E-Mail, Datenbanken, Data-Mining-Systeme, Suchmaschinen, Videokonferenzausrüstung und vieles mehr erleichtert. Der Zweck dieser Studie besteht darin, die bedeutende Rolle von Informations- und Kommunikationstechnologien (IKT) in Initiativen des Wissensmanagements (WM) zu identifizieren, die zu organisatorischer Effektivität führen. Dieses Papier bewegt sich in Richtung eines Verständnisses der allgemeinen Bedeutung von IKT für das Wissensmanagement, das den Weg ebnet, um organisatorische Effektivität zu erreichen. Schließlich wird ein integriertes Modell zur Verknüpfung von IKT, Wissensmanagementprozessen und organisatorischer Effektivität erstellt und damit die Beziehung zwischen IKT und KM-Prozessen konzeptualisiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29216-3_59 66ffd0598dd203c98111253c26936c04;de;;;2.1.;;;Ein Ansatz zur Entdeckung mit miAamics und jABC Wir präsentieren einen hybriden Ansatz zur Service-Erkennung, der miAamics, eine regelbasierte Auswahl-Engine, als Matchmaker innerhalb des jABC verwendet, einem Framework für serviceorientierte Prozessmodellierung, -ausführung und -entwicklung. Dieser Ansatz zielt darauf ab, den Service-Discovery-Prozess so zuzuschneiden, dass verschiedene Benutzer mit unterschiedlichen technischen und Domänenkompetenzen effizient auf ihrem Fachwissen teilnehmen können. Die Zusammenarbeit zwischen Fachexperten und IT-Team gestalten wir nach dem bekannten 80/20-Prinzip: Mehr als 80 % des Discovery Managements, der Steuerung und der Nutzung sollten keine speziellen IT-Kenntnisse erfordern. Insbesondere die Spezifikation des gewichteten Regelwerks, mit der miAamics die aspektorientierte Relevanz von Daten/Produkten/Angeboten beschreibt, kann unserer Erfahrung nach von Business-Experten ohne IT-Kenntnisse nach einer kurzen Einarbeitung bearbeitet werden. Die Eingabe der Prädikate, die die individuellen Präferenzen eines Nutzers für einen bestimmten Auswahlprozess beschreiben, kann ganz einfach durch Anklicken bestimmter Präferenzkriterien erfolgen: Dies ist so intuitiv, dass es nicht einmal einer Erklärung bedarf.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-72496-6_13 47866a6e14e58e9651615cb8852bc939;de;;;2.1.;;;Übernahme von Begriffshierarchien von Adjektiven aus Corpora Wir beschreiben eine Methode zur automatischen Erfassung einer Verteilung der Konzepte von Adjektiven unter Verwendung einer selbstorganisierenden Karte und eines gerichteten Ähnlichkeitsmaßes. Ein Mittel zur Bewertung von Begriffshierarchien von automatisch aus Korpora extrahierten Adjektiven wird erläutert. Wir verwendeten Scheffes Methode des paarweisen Vergleichs, um experimentell die Gültigkeit der so erhaltenen Hierarchien mit menschlicher Intuition zu testen und fanden heraus, dass unsere Methode bei 43% der betrachteten Hierarchien wirksam war.;-;-;-;https://link.springer.com/chapter/10.1007/11940098_45 12aa875587b7dc365b53907315cbedae;de;;;2.1.;;;SD-Core: Generische semantische Middleware-Komponenten für das Semantic Web Dieses Whitepaper beschreibt eine Middleware zum Erstellen von Semantic Web-Anwendungen. Die Hauptidee hinter diesem Vorschlag besteht darin, Entwicklern beim Erstellen von Semantic-Web-Anwendungen zu helfen, indem ihnen die Hauptkomponenten für diese Aufgabe bereitgestellt werden. Dieser Satz von Komponenten wurde implementiert und über ein Webtool (http://khaos.uma.es/SD-Core) und als installierbares Tool für einen Tomcat-Webserver bereitgestellt. Darüber hinaus wurde es angewendet, um ein semantisches Integrationssystem für biologische Datenquellen zu entwickeln (http://asp.uma.es/WebMediator).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85565-1_76 42a4df65b6ca0ac9ccdf498f523851cc;de;;;2.1.;;;Magenkrebs im Frühstadium Das Ziel dieser Arbeit ist es, die Pathologie des bestimmten Stadiums des Magenkarzinoms, das als Frühkarzinom bekannt ist, zu beschreiben. Grundlage für die Erhebung ist die einschlägige Literatur. Da Magenfrühkrebs sehr häufig ist und in Japan ausführlich untersucht wurde, werden relativ viele japanische Werke erwähnt, die auf Englisch verfügbar sind. Die Erfahrungen des Autors aus 56 persönlich gesammelten und untersuchten Fällen in den letzten 10 Jahren werden berücksichtigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-66481-6_1 d3eceb21599db8b9bdef3708a4e5aecc;de;;;2.1.;;;Ein kontextueller Kompositionsalgorithmus basierend auf Ontologie-Semantik Da die Informationsnachfrage der Benutzer im personalisierten Informationsdienst von Kontextfaktoren beeinflusst wird und sich der Benutzerkontext kontinuierlich ansammelt und sich mit der Zeit ändert, betrachtet dieser Beitrag einen kontextuellen Kompositionsalgorithmus basierend auf der Ontologie-Semantik, der die Idee des allmählichen Vergessens in die Berechnung einbringt des Benutzerkontexts auf der Grundlage des Ausdrucks des Ontologiekontexts, berücksichtigt die Auswirkungen des Zeitpunkts des Surfens der Benutzer vollständig, konstruiert eine nicht-lineare graduelle Vergessensfunktion, um die umfassenden Kontextinformationen der Benutzer zusammenzustellen, und bietet damit Benutzern der Informationsbedarf passt zu den aktuellen Kontextinformationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54924-3_111 bc55af195e10d3b1d6cba99c9e6983e7;de;;;2.1.;;;Ein prismatisches kognitives Layout zur Anpassung von Ontologien Wir schlagen einen neuartigen Ansatz für persönliche Ontologien vor, der auf dem Konzept des Affordance und der ontologischen Theorie von Von Uexküll basiert, bei dem jedes Konzept je nach Subjektivität des Benutzers aus unterschiedlichen Perspektiven betrachtet werden kann und somit maßgeschneiderte semantische Beziehungen oder Eigenschaften ergeben kann . Wir schlagen eine kognitive Middle-Layer-Schnittstelle zwischen dem Benutzer und der Ontologie vor, die in der Lage ist, die Ontologie im Laufen zu modifizieren und an die Benutzerbedürfnisse anzupassen. Ziel ist es, eine angepasste Version der Ontologie zu erhalten, die sowohl auf den Kontext als auch auf die Anwenderperspektive und Expertise zugeschnitten ist, ohne dass explizit eine hohe Anzahl von Ontologien gepflegt werden muss.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38844-6_39 41a7433b1534b3acd3ad711ce7771168;de;;;2.1.;;;Eine Ontologie-basierte Softwareentwicklungsumgebung mit verbesserten Funktionalitäten von Clojure Die Entwicklung eines Systems, das ein Multiprogramming-Paradigma unterstützt, ist heutzutage sehr anspruchsvoll. Die aktuellen Programmiersprachen bieten nur ein einziges Programmierparadigma, aufgrund dessen Softwareprogrammierer verschiedene Programmiersprachen für die Modellierung eines Geschäftsprozesses mischen und anpassen müssen. Clojure ist eine Programmiersprache, die über mehrere Programmiertechniken verfügt, z. B. funktional, objektorientiert und gleichzeitig. In dem vorgeschlagenen System wird Clojure mit Hilfe der Metaprogrammierung auch das Ontologie-Paradigma hinzugefügt. Damit ist Clojure zu einer effizienten Software-Entwicklungsumgebung mit zusätzlichen Funktionen der Ontologie geworden, mit der man die Semantik komplexer Geschäftsprozesse abbilden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-81-322-1665-0_61 5b9ffb48227398d7e6d7d903127183dd;de;;;2.1.;;;Kartierung und Überwachung von Bodenfeuchtigkeit, Evapotranspiration und landwirtschaftlicher Dürre Bodenfeuchtigkeit, Evapotranspiration und landwirtschaftliche Dürre sind so eng miteinander verbundene Phänomene, dass ein Mangel an Bodenfeuchtigkeit zu einer Verringerung der ET führt, was schließlich zu vegetativem Stress und landwirtschaftlicher Dürre führt. Die Überwachung von Bodenfeuchtigkeit, ET und Vegetationszustand ist unerlässlich, um terrestrische Dürrebedingungen zu identifizieren, um proaktive Maßnahmen zu ergreifen und deren negative Folgen zu mildern. Obwohl konventionelle Methoden wie die punktbasierte Messung von Bodenfeuchtigkeit, Evapotranspiration, Niederschlag und Temperaturaufzeichnungen, die an den Bodenstationen (z um die Bedingungen an Orten zwischen den Bodenstationen genau zu erfassen. Daher sind die auf Fernerkundungseingaben basierenden Techniken wichtig, um die räumlich kontinuierlichen Schätzungen von Bodenfeuchtigkeit, ET und Vegetationszustand von der regionalen bis zur globalen Skala zu verfolgen, während die punktbasierten Schätzungen von Bodenfeuchtigkeit, ET, Niederschlag und Temperatur verwendet werden, um bei der Validierung satellitengestützter Schätzungen von Bodenfeuchtigkeit, ET und landwirtschaftlicher Dürre zu helfen. In diesem Kapitel werden drei verschiedene bewährte Methoden zur Abschätzung von Bodenfeuchte, ET und landwirtschaftlicher Dürre anhand von Satelliten- und Zusatzdaten vorgestellt und anschließend einige Beispielkarten und deren Validierungsergebnisse anhand der Ground Truth vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-66387-2_15 fbdd8ee22b10a3a4cf11fca19fba2862;de;;;2.1.;;;Isozymvariation in einigen Maisrassen aus Argentinien Einundvierzig Populationen von sechzehn argentinischen Maisrassen wurden mit elektrophoretischen Techniken untersucht. Sieben Isozymsysteme, die von fünfzehn Genorten kodiert wurden, wurden verwendet, um die genetische Variabilität innerhalb und zwischen Rassen und Populationen zu untersuchen. In der gesamten Stichprobe wurde festgestellt, dass die Variation innerhalb der Populationen 78% der isozymen Variabilität ausmachte, die Variation zwischen den Rassen betrug 14%, während die Variation zwischen den Populationen innerhalb der Rassen nur 8% betrug. Die Clusteranalyse und die Hauptkomponentenanalyse zeigten, dass die meisten Rassen eng miteinander verwandt waren. „Cateto Amarillo“, „Cravo“ und „Perla Mediano“ waren die markantesten der argentinischen Rassen.;-;-;-;https://link.springer.com/article/10.1007/BF00132956 ec51515cc09c4b4d5fafdfc5685cd713;de;;;2.1.;;;Charakterisierung von Geschäftsregeln für praktische Informationssysteme Die Anerkennung von Geschäftsregeln als wichtiges Element moderner Informationssysteme hat zu verschiedenen Vorschlägen für die Kategorisierung von Geschäftsregeln geführt. Insbesondere ein neuer Vorschlag für Geschäftsregelstandards, der OMG-Standard für die Semantik von Geschäftsvokabularen und Geschäftsregeln (SBVR), unterscheidet zwischen Hauptkategorien von Regeln unter Verwendung eines Schemas, das aus der Modallogik abgeleitet ist und auf alethischen und deontischen Modalitäten basiert. Dieser Beitrag untersucht einige der für dieses Kategorisierungsschema aufgestellten Ansprüche im Hinblick auf die Beziehung zu allgemein anerkannten logischen Systemen und identifiziert eine Reihe von Problembereichen. Außerdem wird der Wert dieses modallogischen Klassifikationsschemas für die Entwicklung und Wartung von Informationssystemen bewertet. Geplante zukünftige Arbeiten werden sich mit einem alternativen Schema zur praktischen Kategorisierung von Geschäftsregeln befassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21759-3_32 17ac7f9f01e6c88f167e1f991554c82b;de;;;2.1.;;;Saisonale Variation der Phytoplanktonzusammensetzung und physikalisch-chemischer Eigenschaften des flachen Doïrani-Sees, Mazedonien, Griechenland Die Zusammensetzung der Phytoplanktonarten, die jahreszeitliche Dynamik und die räumliche Verteilung im flachen Doïrani-See wurden während der Wachstumssaison 1996 zusammen mit wichtigen physikalischen und chemischen Variablen des Wassers untersucht. Während der warmen Periode von 1996 entwickelte sich im See eine schwache thermische Schichtung. Das niedrige N:P-Verhältnis deutet darauf hin, dass Stickstoff der potenziell limitierende Nährstoff des Phytoplanktons im See war. Im Phytoplankton des Sees waren Chlorophyceen die artenreichste Gruppe, gefolgt von Cyanophyceen. Die monatlichen Schwankungen der gesamten Phytoplanktonbiomasse zeigten hohe Mengen an Sommeralgenbiomasse, die denen anderer eutropher Seen ähnelten. Dinophyceae waren die am stärksten vertretene Gruppe im Phytoplankton, gefolgt von Cyanophyceae. Diatomophyceae dominierten im Frühjahr und Herbst. Nanoplankton machte im zeitigen Frühjahr rund 90 % der Gesamtbiomasse aus und im Sommer weniger als 10 %. Die jahreszeitliche Dynamik von Phytoplankton folgte im Allgemeinen dem typischen Muster, das für andere eutrophe Seen skizziert wurde. Die in der frühen Sukzession dominierenden R-Arten (kleine Diatomeen) wurden durch S-Arten ersetzt (;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-3488-2_10 74ba4d626b6b8647ad90f1f027fa973c;de;;;2.1.;;;Rechnen mit Wörtern mit Fuzzy-Logik: Anwendungsmöglichkeiten in der automatischen Textzusammenfassung Die Theorie des „Computing with Words“ bietet mathematische Werkzeuge, um perzeptive Informationen formal darzustellen und zu argumentieren, die in natürlichsprachlichen Texten durch ungenau definierte Begriffe, Begriffsklassen und Denk- und Argumentationsketten geliefert werden. Es stellt damit relevante Methoden für verständnisbasierte Textzusammenfassungssysteme bereit. In diesem Beitrag schlagen wir einen Rahmen für die Textzusammenfassung vor und untersuchen die Möglichkeiten sowie Herausforderungen bei der Verwendung der Konzepte und Methoden von CW in der Textzusammenfassung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72434-6_16 3a9df3c89ad0dc4d68568f2629c22030;de;;;2.1.;;;Ein molekularer Ansatz zur Identifizierung meiofaunaler Turbellarien (Platyhelminthes, Turbellaria) In Ermangelung zuverlässiger morphologischer Merkmale oder in Verbindung mit morphologiebasierten Identifizierungen können meiofaunale Turbellarien auch anhand der Nukleotidsequenz eines Teils der großen Untereinheit der ribosomalen RNA (26/28S rRNA) identifiziert werden. Eine 284 Basenpaare lange Region der 26/28S rRNA wurde durch Isolierung genomischer DNA aus zehn Arten von Turbellarien identifiziert, die zu vier Ordnungen gehören, nämlich der Proseriata, Macrostomida, Prolecithophora und Acoela. Die Proseriaten wurden an Orten in Europa und Israel gesammelt und in Ethanol konserviert. Die verbleibenden Turbellarien wurden aus intertidalen Sedimentproben isoliert, die 1992 an zwei Standorten an der Küste von Maine und New Hampshire, USA, gesammelt wurden rDNA-Gen des terrestrischen Nematoden,;-;-;-;https://link.springer.com/article/10.1007/BF00680218 49e8196870f98180ccc48ddc2dbb956f;de;;;2.1.;;;E-Mail semantisch für die automatisierte Ontologie-Erstellung darstellen Das Semantic Web stellt enorme im World Wide Web verfügbare Daten in einem maschinenlesbaren Format zur effektiven Extraktion von Ontologien dar, die eine effektive und relevante Informationsextraktion ermöglichen. Untersuchungen zeigen, dass für die Kommunikation und den Informationsaustausch enorm viel Zeit mit E-Mails verbracht wird. Die Erweiterung der bestehenden E-Mail-Systeme um Semantik könnte nicht nur für eine effiziente Nutzung von Zeit und Ressourcen sorgen, sondern auch die Bedeutung der E-Mail-Kommunikation auffrischen. Dieses Papier zeigt ein zukünftiges Szenario bei der Anwendung von Semantic Web für E-Mail-Anwendungen, indem ein neues Framework vorgeschlagen wird, das dem Mailserver eine semantische Webschicht hinzufügen soll, um den Prozess der Verknüpfung, Integration und Suche von E-Mails zu verbessern. Außerdem wird eine neue Methode zur Repräsentation semantischer E-Mails vorgeschlagen, die den Prozess der Ontologie-Extraktion aus semantischer E-Mail verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32826-8_40 ff50e880912c2cc7e2b8e7ecedb0d4b3;de;;;2.1.;;;Räumliche und zeitliche Variation der Vegetation und ihrer Produktion, Barrow, Alaska Dieses Kapitel untersucht die Faktoren, die die Verteilung von Vegetation, Wuchsformen, Arten, breiten Produktivitätsmaßen, saisonalen Mustern und Pflanzenfolge der Tundra Biome Site des International Biological Program (IBP) in Barrow, Alaska, steuern. Es bietet einen Rahmen, vor dem die detaillierten physiologischen und modellierenden Experimente anderer Produktionsstudien in diesem Band betrachtet werden können. Die pragmatischen Entscheidungen des Programms konzentrierten die Experimente auf eine begrenzte Anzahl von Pflanzengemeinschaften, Wuchsformen und Arten. Da nicht die gesamte Vegetation und alle Arten in der gewünschten Tiefe modelliert oder untersucht werden konnten, wurde das Projekt so konzipiert, dass eine räumliche Verallgemeinerung möglich ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-6307-4_3 39e2dd37c8b19689b0be8f245fdb9435;de;;;2.1.;;;Identifizieren der gemeinsamen Elemente einer kommerziellen Website durch semantische Ontologie Das Hauptziel dieser Forschung war es, die Struktur und den Inhalt einer kommerziellen Website zu untersuchen sowie die gemeinsamen Elemente zwischen diesen Websites mithilfe des Ontologiekonzepts zu identifizieren. Es wurde ein semantischer Ansatz verwendet, um die Struktur einer kommerziellen Website zu beschreiben und den Inhalt zu klassifizieren. Die Ziele jeder Website wurden von Fachleuten von Werbeagenturen untersucht, die über mehr als ein Jahrzehnt Erfahrung im Aufbau einer kommerziellen Website verfügen. Die Ontologie jeder Website wurde basierend auf den Zielen der Website entwickelt. In den Ergebnissen des Experiments wurden gemeinsame Elemente gefunden. Es gab jedoch eine breite Palette von Eigenschaften in einem Element desselben Typs.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22309-9_22 ba55ed176b920c378b5a67f67ce2f4bd;de;;;2.1.;;;Inhaltsbasierter Bildabruf mithilfe eines schnellen SVM-binären Entscheidungsbaums – QSVMBDT Es wird ein inhaltsbasiertes Image-Retrieval-Framework (CBIR) vorgeschlagen, das einen schnellen Abruf unter Verwendung des SVM-Binary Decision Tree mit Vorfilterung ermöglicht, das als Quick SVM-BDT bezeichnet wird. Die Support Vector Machine-Pair Wise Coupling (SVM-PWC) und Fuzzy C-Mean (FCM) Clustering sind die überwachten bzw. unüberwachten Lerntechniken, die für die Mehrklassenklassifizierung von Bildern verwendet werden. In diesem System wird der auf SVM basierende binäre Entscheidungsbaum (SVM-BDT) zum semantischen Lernen konstruiert und findet die semantische Kategorie des Abfragebilds. Ein Ähnlichkeitsabgleich erfolgt zwischen dem Abfragebild und nur dem Satz von Bildern, die zur semantischen Kategorie des Abfragebilds gehören. Dadurch wird der Suchraum reduziert. Der Suchraum wird immer noch durch Vorfiltern der Bilder dieser bestimmten Kategorie reduziert, was ein sehr schnelles Wiederauffinden ermöglicht. Die Experimente wurden mit dem COREL-Datensatz durchgeführt, der aus 1000 Bildern von 10 verschiedenen semantischen Kategorien bestand. Die erhaltenen Ergebnisse belegen die Wirksamkeit des vorgeschlagenen Rahmens.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24055-3_2 660ae37d52aee3bf8e9f933a9d95661c;de;;;2.1.;;;Geringe und wenig genutzte Hülsenfrüchte Die Leguminosen sind nach den Compositae und Orchidaceae mit 650 Gattungen und 18000 Arten die drittgrößte Blütenpflanzengruppe. In Europa kommen insgesamt 72 Gattungen vor (Tutin;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-9823-1_12 8fce19f8f3923435e1cb420cd19ae70d;de;;;2.1.;;;Evaluierung der virtuellen i-Scan Chromoendoskopie und der traditionellen Chromoendoskopie für die automatisierte Diagnose von Dickdarmpolypen Bildverbesserungstechnologien wie Chromoendoskopie und digitale Chromoendoskopie sollen die Erkennung und Diagnose von Dickdarmpolypen während endoskopischer Sitzungen erleichtern. Hier untersuchen wir den Einfluss verbesserter Bildgebungstechnologien auf die Klassifikationsgenauigkeit computergestützter Diagnosesysteme. Insbesondere stellen wir fest, ob sich Bilddarstellungen, die von verschiedenen Bildgebungsmodalitäten erhalten wurden, signifikant unterscheiden, und es werden Experimente durchgeführt, um die Auswirkungen der Verwendung unterschiedlicher Bildgebungsmodalitäten in den Trainings- und Validierungssätzen herauszufinden. Schließlich untersuchen wir, ob das Zusammenführen der Bilder ähnlicher Bildgebungsmodalitäten zum Trainieren des Klassifizierungsmodells effektiv angewendet werden kann, um die Genauigkeit zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-54057-3_6 36a302a65d7f909dac38bdf349acf9a8;de;;;2.1.;;;Verbesserung des Engineering-Prozesses in heterogenen multidisziplinären Umgebungen mit Fehlerursachenanalyse Multidisziplinäre Engineering-Umgebungen, z. B. in der Automatisierungstechnik, umfassen typischerweise verschiedene Interessengruppen und Engineering-Disziplinen, die eine Vielzahl spezifischer Werkzeuge und Datenmodelle verwenden. Fehler in einzelnen Disziplinen können die Produkt- und Prozessqualität durch zusätzlichen Aufwand für die Fehlerbeseitigung stark beeinträchtigen und zu Projektverzögerungen führen. Fehlerfrüherkennung und -vermeidung in zukünftigen Projekten sind zentrale Herausforderungen für Projekt- und Qualitätsmanager, um die Produkt- und Prozessqualität zu verbessern. In diesem Beitrag stellen wir eine Adaption des Ansatzes der Fehlerursachenanalyse (DCA) vor, der sich als effektiv und effizient erwiesen hat, um die Produktqualität im Kontext der Softwareentwicklung zu verbessern. Die Anwendung von DCA in multidisziplinären Engineering-Umgebungen ermöglicht eine systematische Analyse von Fehlern und möglichen Ursachen und kann dazu beitragen, Gegenmaßnahmen für die Produkt- und Prozessqualität bereitzustellen. Die Machbarkeitsstudie des angepassten DCA hat gezeigt, dass die Anpassung nützlich ist und eine Verbesserung der Fehlererkennung und -vermeidung in multidisziplinären Engineering-Projekten ermöglicht und die Verbesserung des Engineering-Prozesses fördert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-43896-1_7 5cdb0b1636b5737e193a6b46a3809bb5;de;;;2.1.;;;Ein Bottom-Up-Algorithmus zur Lösung von Problemen bei der Beantwortung von Abfragen Bedeutungserhaltende Skolemisierung ist für die Entwicklung einer korrekten und effizienten Methode zur Lösung von Frage-Antwort-Problemen unerlässlich. Es erfordert globale existenzielle Quantifizierungen von Funktionsvariablen, die wiederum eine Erweiterung des Raumes von Formeln erster Ordnung erfordern. Dieses Papier schlägt einen Bottom-up-Algorithmus zur Berechnung einer Menge von Modellen vor, der die Menge aller Modelle einer gegebenen Klauselmenge im erweiterten Formelraum ausreichend repräsentiert. Dieser Algorithmus stellt eine korrekte Methode zur Lösung von Abfrage-Antwort-Problemen bereit, die die uneingeschränkte Verwendung universeller und existentieller Quantifizierungen in der Problemdarstellung beinhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25453-6_27 ff0a05fff2901ded1aefda79681858a0;de;;;2.1.;;;Ein Überblick über bestehende Bewertungsrahmen für Dienstidentifizierungsmethoden: Auf dem Weg zu einem umfassenden Bewertungsrahmen Die Dienstidentifikation ist eine der Hauptherausforderungen bei der Entwicklung von Diensten für die serviceorientierte Architektur (SOA). Es wurde eine große Anzahl von Dienstidentifizierungsverfahren (SIMs) vorgeschlagen, um die Dienstidentifizierung zu vereinfachen. Daher gibt es in der Literatur viele Bewertungsrahmen, um die bestehenden SIMs zu vergleichen. Dieses Papier zielt darauf ab, die bestehenden Bewertungsrahmen für SIMs zu identifizieren und zu analysieren. Darüber hinaus sollen umfassende Bewertungskriterien vorgeschlagen werden, die die meisten Aspekte der bestehenden SIMs berücksichtigen. Eine Überprüfung von 23 Bewertungsrahmen für SIMs bildete die Grundlage für die Ableitung eines umfassenden Satzes von 16 Kriterien, nämlich SOA-Lebenszyklus-Abdeckung, Ansatz, Eingabeartefakt, Technik, Servicetypen, Servicebeschreibung, Servicequalitätsattribute, Servicegranularität, umfassend, Verfügbarkeit, Tool-Support, Übernahme bestehender Verfahren, Validierung, Konfigurierbarkeit und Domäne. Der vorgeschlagene Kriteriensatz kann als erster Schritt zu einem umfassenden Bewertungsrahmen für SIMs verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-95204-8_17 c450c3abb61afd73491739b68c52a964;de;;;2.1.;;;Landumwandlungsbewertung unter Verwendung der Integration von Fernerkundungs- und GIS-Techniken: eine Fallstudie der Provinz Al-Anbar, Irak Menschliche Aktivitäten und Klimaänderungen wirken sich erheblich auf unsere Umwelt aus und verändern die Wasserkreisläufe. Mehrere ökologische, soziale, politische und wirtschaftliche Faktoren tragen zur Landtransformation sowie zu Umweltveränderungen bei. Diese Studie identifizierte zunächst die kritischsten Faktoren, die sich auf die Umwelt in der Stadt Al-Anbar auswirken, einschließlich Bevölkerungswachstum, Urbanisierungsexpansion, Expansion des bloßen Landes und Verringerung der Vegetationsdecke. Die Kombination von Fernerkundungsdaten und Fuzzy-Analytic-Hierarch-Verfahren (Fuzzy AHP) ermöglichte die Erkundung von Landtransformationen und Umweltveränderungen im Untersuchungsgebiet in den Jahren 2001 bis 2013 im Hinblick auf lang- und kurzfristige Veränderungen. Die Ergebnisse der Landtransformation zeigten, dass die großen Veränderungen der Wasserkörper von der langfristigen Veränderung 2001 bis 2013 aufgrund der Wasserpolitik radikal (94 %) zugenommen haben. Darüber hinaus hat sich die Stadtklasse in zwei kurzfristigen Zeiträumen (2001–2007 und 2007–2013) erweitert, was Nettoveränderungen von 46 bzw. 60 % entspricht. Schließlich zeigte das unfruchtbare Land in der ersten Periode aufgrund der enormen Ausdehnung des Wassers im See eine Verringerung von 25 %, in der zweiten Periode wurde ein kleiner Prozentsatz des Wachstums beobachtet. Basierend auf den Ergebnissen der Landumwandlung zeigte die Umweltzerstörungsbewertung, dass das Untersuchungsgebiet im Allgemeinen ein hohes Maß an Umweltzerstörung aufwies. Die Degradation fand hauptsächlich in der Mitte und im nördlichen Teil des Untersuchungsgebietes statt. Diese Studie schlug für weitere Studien vor, andere Faktoren einzubeziehen, die auch für die Umweltzerstörung verantwortlich sind, wie die Wasserqualität und die Bedrohung durch Wüstenbildung.;-;-;-;https://link.springer.com/article/10.1007/s12517-016-2697-y 99f227b2b45279f58f879b08d79460a6;de;;;2.1.;;;Bildrauschunterdrückung mit fraktaler hierarchischer Klassifikation Dieses Papier schlägt eine effiziente und dennoch einfache fraktale Bildrauschunterdrückungstechnik vor. Die Rauschunterdrückung wird während des fraktalen Codierungsprozesses durchgeführt. Die hierarchische Klassifizierung wird verwendet, um die Codierungsgeschwindigkeit zu erhöhen und viele sinnlose Berechnungen des mittleren quadratischen Fehlers (MSE) zu vermeiden. Quadtree-basierte Bildpartitionierung unter Verwendung von Dynamikbereich und Domänengrößen wird verwendet, um den Grad der Rauschentfernung zu erhöhen. Eine weitere Rauschunterdrückung wird durch pyramidale Dekodierung, unter Verwendung eines nicht-beliebigen Seed-Image und zusätzlicher Nachbearbeitung erreicht. Ergebnisse aus Experimenten zeigen, dass unser vorgeschlagenes Schema den strukturellen Ähnlichkeitsindex (SSIM) des Lenna-Bildes von 44% auf 78% für Fälle mit geringem Rauschen und von 9% auf 35% für Fälle mit hohem Rauschen verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1343-1_52 af882f31e31f44f1e5336b9d7ee7a2f4;de;;;2.1.;;;Hörgerätetechnologie In den letzten 15 Jahren haben sich Hörgeräte durch den Einsatz moderner Technologien stark verbessert. Dieses Kapitel gibt einen Überblick über die Möglichkeiten und Einschränkungen der verwendeten Technologien und die heute verfügbaren Signalverarbeitungsalgorithmen für die fortschrittlichsten kommerziellen Hörsysteme. Aufgrund der Weiterentwicklung im Halbleiterbereich wird in naher Zukunft mit der Anwendung noch komplexerer Algorithmen gerechnet. Der erste Teil dieses Kapitels konzentriert sich auf die verschiedenen Designs und Chiptechnologien, die bei heutigen Hörsystemen zu finden sind. Daher werden Signalverarbeitungsalgorithmen überprüft, die in digitalen Hörgeräten Anwendung finden. Schließlich beschäftigen wir uns mit den Komponenten von Hörgeräten und mit Methoden zur Anpassung der Geräte an die individuelle Hörbehinderung.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-27437-5_10 90f273031eada72011e7956b26e3aaaf;de;;;2.1.;;;Aufbau eines virtuellen privaten Supercomputers mit Virtualisierungs- und Cloud-Technologien Eine effiziente Möglichkeit, Experimente auf HPC-Plattformen durchzuführen, besteht darin, benutzerdefinierte virtuelle Computerumgebungen zu erstellen, die auf die Anforderungen der Benutzer und ihrer Anwendungen zugeschnitten sind. In diesem Papier untersuchen wir Virtual Private Supercomputer, einen Ansatz, der auf Virtualisierung, Datenkonsolidierung und Cloud-Technologien basiert. Virtualisierung wird verwendet, um Anwendungen von der zugrunde liegenden Hardware und dem Betriebssystem zu abstrahieren, während die Datenkonsolidierung angewendet wird, um Daten in einem verteilten Speichersystem zu speichern. Sowohl Virtualisierungs- als auch Datenkonsolidierungsschichten bieten APIs für verteilte Berechnungen und Datenverarbeitung. Zusammengenommen verlagern diese APIs den Fokus von Supercomputing-Technologien auf zu lösende Probleme. Basierend auf diesen Konzepten schlagen wir einen Ansatz zum Aufbau virtueller Cluster mit Hilfe von Cloud-Computing-Technologien vor, die als private On-Demand-Supercomputer verwendet werden können, und bewerten die Leistung dieser Lösung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09153-2_26 1bd4a1b1d51609f630e03ef870249b69;de;;;2.1.;;;Neue Namen in Neue nomenklatorische Kombinationen werden vorgeschlagen, die meistens durch die Übernahme eines engeren Konzepts der generischen Klassifikationseinheit oder in einigen Fällen durch notwendige Änderungen des taxonomischen Rangs in mehreren Taxa erforderlich sind. Erläuternde Kommentare zu den taxonomischen und nomenklatorischen Problemen finden sich in den folgenden Gattungen:;-;-;-;https://link.springer.com/article/10.1007/BF02854562 d69f0b7289f9288c0914c0a00899686f;de;;;2.1.;;;Datenabgleich – eine Glaubenssache Heutzutage wird ein geografisches Gebiet oft von mehreren unabhängigen geografischen Datenbanken beschrieben. Benutzer müssen jedoch verschiedene Informationen aus diesen Datenbanken zusammenführen. Um Datenbanken zu integrieren, sollten Redundanz und Inkonsistenz zwischen den Daten identifiziert werden. Viele Schritte sind erforderlich, um die Datenbankintegration abzuschließen, insbesondere der automatische Datenabgleich. In diesem Beitrag wird ein Ansatz zum Abgleichen geographischer Daten mit Bezug zur Glaubenstheorie vorgestellt. Dieser Ansatz besteht darin, Kriterien aus dem Wissen wie Geometrie, Orientierung, Straßenbeschaffenheit, Namen und Topologie zu kombinieren. Dann wird es auf einem heterogenen Netzwerk getestet, das Straßen darstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68566-1_29 9df4a06f632f0a20f1931a7a6c53c79c;de;;;2.1.;;;Ontologiebasiertes intelligentes Überwachungs- und Kontrollsystem In letzter Zeit sind die Interessen und Studien in allgegenwärtigen Umgebungen wie Heimnetzwerken und intelligentem Bauen stark gestiegen und aktiv. Auch Studien zur Entwicklung intelligenter Systeme haben Aufmerksamkeit erregt. Ontologie, die eine freie Wissensrepräsentation und -erweiterung durch Argumentation bieten kann, benötigt einen geeigneten Ontologie-Modellentwurf entsprechend dem Anwendungszweck. In diesem Papier haben wir das Modell unter Verwendung der Ontologie für das Monitoring-Control-System erstellt und den Prozess einer geeigneten Überwachung und Steuerung durch Kontextbewusstsein gezeigt. Daher haben wir ein auf Ontologie basierendes intelligentes Überwachungs- und Kontrollsystem vorgeschlagen, das die Wissenserweiterung und die Zustandsänderung bereitstellen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13346-6_18 6420bfff39e67d496381b028ce220282;de;;;2.1.;;;Lernattributrelation in der attributbasierten Zero-Shot-Klassifizierung In letzter Zeit hat Zero-Shot-Learning in der Computer-Vision-Community zunehmende Aufmerksamkeit auf sich gezogen. Eine Möglichkeit, Zero-Shot-Learning zu realisieren, besteht darin, auf Wissen über Attribute und Objektkategorien zurückzugreifen. Die meisten existierenden attributzentrierten Ansätze konzentrieren sich auf eine Attribut-Klassen-Beziehung, die künstlich durch eine linguistische Wissensbasis oder gegenseitige Information abgeleitet wird. In diesem Papier wollen wir die Attribut-Attribut-Beziehung automatisch und explizit lernen. Insbesondere schlagen wir vor, das Lernen von Attributbeziehungen in das Design von Attributklassifizierern in einem einheitlichen Rahmen zu integrieren. Darüber hinaus entwickeln wir ein neues Schema zur attributbasierten Zero-Shot-Objektklassifizierung, sodass die gelernte Attributbeziehung wiederverwendet werden kann, um die traditionellen Attributklassifizierer zu verstärken. Umfangreiche experimentelle Ergebnisse zeigen, dass unsere vorgeschlagene Methode die Leistung der Attributvorhersage und des Zero-Shot-Lernens verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36669-7_63 9286069346f01c1bdcd3d2019666e6ba;de;;;2.1.;;;Wissensdarstellung für Fuzzy-Systeme basierend auf linguistischer Variablenontologie und RDF Das Semantic Web entwickelt sich zu einem Web der neuen Generation, in dem Ontologie als Standard für die Wissensrepräsentation übernommen wird und Resource Description Framework (RDF) verwendet wird, um Webanwendungen Struktur und Bedeutung zu verleihen. Um Fuzzy-Systeme in das Semantic Web zu integrieren, verwendet dieser Artikel Fuzzy-Ontologie, um die Fuzzy-Sprachvariablen unter Berücksichtigung der semantischen Beziehungen zwischen Fuzzy-Konzepten formal darzustellen. Dann wird die Fuzzy-Regel als eine RDF-Ressource mit den Eigenschaften IF und THEN beschrieben, und der Vorläufer und die Folge der Regel werden in der RDF-Anweisung dargestellt. Am Beispiel des Fuzzy-Steuerungssystems einer industriellen Waschmaschine wird das Fuzzy-System mit Ontologie und RDF gebaut, was zeigt, dass diese Forschung verteilte Fuzzy-Anwendungen im Semantic Web ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22691-5_69 f8dd5528d807b60d681245b347c6281a;de;;;2.1.;;;Erratum: Kriterienbasierter ungefährer Abgleich großskaliger Ontologien In unserem kürzlich erschienenen Artikel „Criteria-Based Approximate Matching of Large-Scale Ontologies (Liang et al., 2011)“ hatten wir die folgenden Korrekturen. Wir haben einen Teil des Artikels angepasst, ohne den grundlegenden Inhalt des Papiers zu ändern. Wir haben die falsch zitierten Formeln in Abschnitt 3 gestrichen und in Abschnitt 4 erklärenden Text hinzugefügt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25661-5_87 5524d0afc72e0d3595e367a138c3d28c;de;;;2.1.;;;Abduktive Wissensdatenbank-Updates für kontextuelles Denken In diesem Beitrag zeigen wir, wie Verfahren zur Aktualisierung von Wissensdatenbanken auf natürliche Weise an eine Reihe von Problemen im Zusammenhang mit kontextuellem Denken angepasst werden können. Die Tatsache, dass die Aktualisierungsverfahren abduktiver Natur sind, wird günstig genutzt, um Probleme im Zusammenhang mit Mensch-Computer-Dialogsystemen anzugehen. Als Beispiele betrachten wir Aspekte von;-;-;-;https://link.springer.com/article/10.1023/A%3A1008678826820 3fd3d9baebda32365c76cbdbe0245e5b;de;;;2.1.;;;Baumbasierte, verteilte Datenklassifizierungsstrategie mit lokal linearer Einbettung in ein drahtloses Sensornetzwerk Mit den jüngsten Fortschritten in der drahtlosen Kommunikation und den geringen Kosten ermöglichen energiesparende Sensoren den Einsatz eines großen und kollaborativen drahtlosen Sensornetzwerks (WSN), das verschiedene Aufgaben unter Verwendung der Teilmengenbildung von Sensoren bei spezifischen Anforderungen der Ereignisüberwachung ausführt. Um die differenzierte Überwachungsaufgabe des heterogenen Sensornetzwerks in derselben geografischen Region zu implementieren, wird die effiziente Klassifizierung der verschiedenen erfassten Daten aufgrund der strengen Beschränkung der Netzwerkressourcen, häufigen Verbindungen und unbestimmten Variationen der Sensormesswerte eine kritische Aufgabe. In diesem Papier stellen wir eine auf einem virtuellen Clusterbaum basierende verteilte Datenklassifizierungsstrategie vor, die lokal lineare Einbettung (LLE) verwendet. Die Strategie kann die Strukturdarstellung der ursprünglich erfassten Daten durch LLE realisieren, um die Klassifizierung zum Bilden des virtuellen Clusterbaums der verschiedenen Überwachungsaufgaben zu erfüllen. Die theoretische Analyse und die experimentellen Ergebnisse zeigen, dass die vorgeschlagene Strategie den Energieverbrauch mit LLE-basierten Klassifikatoren effektiv reduzieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31588-6_71 cdeccaed9d03e89f813ba1140a8d3962;de;;;2.1.;;;Datenintegration von Legacy-ERP-Systemen basierend auf Ontologie-Lernen aus SQL-Skripten Um das Problem der wenig effizienten Integration heterogener Daten aus verschiedenen ERP-Legacy-Systemen anzugehen, wird ein Datenintegrationsansatz basierend auf Ontologie-Lernen vorgestellt. Angesichts der Nichtverfügbarkeit von Datenbankschnittstellen und der Vielfalt von DBMS und Namenskonventionen von Legacy-Informationssystemen wird ein Datenintegrationsframework für Legacy-ERP-Systeme vorgeschlagen, das auf Ontologie-Lernen aus strukturierten Abfragesprachen (SQL)-Skripten (RDB) basiert. Die wichtigsten Schritte und die Technik des vorgeschlagenen Frameworks und der Prozess der ontologiebasierten semantischen Integration werden dargestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30278-8_52 d4d766a096b801f985145323253fb72a;de;;;2.1.;;;Agentenmodell von Hierarchieprozessen in der Ontologie mit aktiver Semantik Dieser Artikel beschreibt die Entwicklung und Erforschung der Hierarchieprozessmodellierung in der Ontologie mit aktiver Semantik. Es basiert auf der Verwendung der Multi-Agent-Technologie und der Multithread-Programmierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13671-4_10 8c7f349a2be083c902a7b7c3a2c4b4e9;de;;;2.1.;;;Das Studium des Wissensmodells basierend auf der Ereignisontologie für das Vorkommen von Paddy Stem Borer (Scirpophaga incertulas) Das Vorkommen eines Reisstängelbohrers ist ein sehr komplexes Naturphänomen. Das Vorkommen des Reisstängelbohrers wird anschaulich, vollständig und systematisch mit digitalen Mitteln beschrieben, was eine Grundlage ist, um das Vorkommen des Reisstammbohrers mit modernen Techniken zu studieren. Basierend auf der Forschung zu konventionellen Methoden der Wissensrepräsentation stellt dieser Beitrag zunächst eine neue Methode der Wissensrepräsentation des Auftretens von Reisbohrern durch Ereignisontologie vor. Zweitens wird das neue Wissensmodell des Vorkommens von Reisbohrern mit der Methode der Wissensrepräsentation konstruiert. Im Vergleich zur herkömmlichen Methode stellt die Ereignisontologie Wissen mit einer höheren Granularität dar, wobei es genauer und realitätskonformer, besser erweiterbar und stark verschmelzend ist. Dieses Papier bietet eine neue Methodik und Theorie für die Wissensrepräsentation von Schädlingskatastrophen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22691-5_65 7a0c9bdb32ec9c3603f218a8e943566b;de;;;2.1.;;;DAML+OIL: Eine vernünftige Web-Ontologie-Sprache Ontologien werden eine Schlüsselrolle im „Semantic Web“ spielen, indem sie die syntaktische Interoperabilität auf die semantische Interoperabilität ausdehnen, indem sie eine Quelle gemeinsamer und genau definierter Begriffe bereitstellen. DAML+OIL ist eine Ontologiesprache, die speziell für die Verwendung im Web entwickelt wurde. Sie nutzt vorhandene Webstandards (XML und RDF) und fügt die bekannten ontologischen Grundelemente objektorientierter und rahmenbasierter Systeme und die formale Strenge von Beschreibungslogiken (DLs) hinzu. Die logische Basis der Sprache bedeutet, dass Argumentationsdienste bereitgestellt werden können, um sowohl das Ontologie-Design zu unterstützen als auch um DAML+OIL-beschriebene Webressourcen für automatisierte Prozesse zugänglicher zu machen [;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36189-8_13 9cdf4e1d01e8807ad63f3028d1c273f6;de;;;2.1.;;;Generierung von User Interest Ontology mit ID3-Algorithmus im Social Web Es ist möglich, individuelle Benutzerinteressen von sozialen Netzwerkdiensten zu sammeln. Allerdings gibt es nur wenige Studien über die Interessen von Domain-Nutzern. In diesem Papier schlagen wir einen Ansatz für die Ontologie vor, der die Interessen von SNS-Domain-Benutzern durch den Einsatz von Semantic Web-Technologie und ID3-Algorithmus generiert. In unserem Ansatz wird die Domain-Ontologie durch einen Entscheidungsbaum generiert, der die Domänen-Webseiten und die Domänenbenutzer klassifiziert. Experimenteller Test zeigt Ontologie der Interessen von Domain-Nutzern bezüglich US-Präsidentschaftskandidaten. Wir erwarten, dass unsere Ergebnisse im Bereich der Informatik, wie Empfehlungen, sowie in anderen Bereichen wie Bildung, Politik und Wirtschaft von Nutzen sein werden. Der vorgeschlagene Ansatz überwindet das Problem der Domänenbenutzerklassifizierung und des Fehlens von Semantik, indem er einen Entscheidungsbaum und eine semantische Webtechnologie zusammenstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-5860-5_128 8c6667dd54515112f66ee2056908af1a;de;;;2.1.;;;Skalierbare Visualisierung der DBpedia-Ontologie mit Hadoop Bestehende Visualisierungsmethoden für große Ontologiedaten haben viele Probleme. Um die Probleme zu lösen und große Ontologiedaten effizient zu visualisieren, haben wir das Hadoop-Framework verwendet, das für die verteilte Verarbeitung über Cluster hinweg zum Umgang mit großen Datensätzen dient. Das von uns entwickelte System besteht aus drei Teilen – einem Datenserver, einem Visualisierungsserver und Benutzergeräten. Zunächst verarbeitet der Datenserver Big Data vor, und der Visualisierungsserver verarbeitet die Ausgaben zur Visualisierung und transformiert die Ausgaben in den Webstandard. Der Datenserver und der Visualisierungsserver verwenden das Hadoop-Framework. Benutzergeräte verfügen über Webbrowser. Über Webbrowser können den Benutzern die Visualisierungsergebnisse vom Visualisierungsserver bereitgestellt werden. Wir haben DBpedia ontology verarbeitet und die Daten visualisiert. In diesem Beitrag stellen wir eine Methode zur Verarbeitung und Visualisierung der DBPedia-Ontologie vor. Und wir zeigen die Leistungsfähigkeit der Methode, indem wir die Ausführungszeit und die experimentellen Ergebnisse des Visualisierungsprozesses messen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-02750-0_32 b07f353ed952f6243f0197298c99b460;de;;;2.1.;;;Hardwareimplementierung der faltungsbasierten neuronalen Netzwerk-basierten Fernerkundungsbildklassifizierungsmethode Die Convolutional Neural Networks haben sehr gute Ergebnisse auf dem Gebiet der Fernerkundungsbildklassifizierung und -erkennung erzielt. Die Kosten der enormen Rechenkomplexität mit der erheblichen Verbesserung der Genauigkeit von CNNs stellen jedoch eine große Herausforderung für die Hardwareimplementierung dar. Eine vielversprechende Lösung ist FPGA, da es paralleles Rechnen mit geringem Stromverbrauch unterstützt. In diesem Beitrag wird das LeNet-5-basierte Fernerkundungsbildklassifizierungsverfahren auf FPGA implementiert. Die Testbilder mit einer Größe von 126 × 126 werden vom PC über die serielle Schnittstelle auf das System übertragen. Die Klassifizierungsgenauigkeit beträgt 98,18 %, die auf dem entworfenen System getestet wurde, was derjenigen auf dem PC entspricht. Hinsichtlich der Effizienz läuft das entworfene System 2,29 ms pro Bild, was die Echtzeitanforderungen erfüllt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6504-1_19 d0d5c39385230e820fa15fc203062615;de;;;2.1.;;;Extraktion und Klassifikation von Emotionen für die Wirtschaftsforschung Die kommerzielle Erforschung von Emotionen hat Internet / Social Mining noch nicht erfasst, obwohl sie wichtige Anwendungen im Management hat. Dies ist überraschend, da der emotionale Inhalt frei gestaltet, weit verbreitet ist, Gefühle besser anzeigen kann (zB bei Tabuthemen) und im Vergleich zu anderen Methoden der Wirtschaftsforschung kostengünstig ist. Ein kurzer Rahmen für die Anwendung von Text Mining auf diesen neuen Forschungsbereich wird gezeigt und Klassifizierungsprobleme werden diskutiert, um Geschäftsleute und Forscher schnell dazu zu bringen, die Mining-Methode anzuwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00405-6_9 64178634e306706403e525c456adb14f;de;;;2.1.;;;Ein dynamisches Flussmodell für Studien zur biologischen Abbaubarkeit Das Ziel dieser Veröffentlichung ist es, ein neues dynamisches aerobes Testverfahren für den biologischen Abbau vorzustellen, das einen Fluss simuliert. Für biologische Abbaustudien mit den nichtflüchtigen und nicht sorbierenden Modellverbindungen 2,4-Dinitrophenol, Naphthalin-1-sulfonsäure und Sulfanilsäure wurden ein Laborkaskadentestsystem und standardisierte Batch-Schüttelkolbentests verwendet. Um den oft sehr niedrigen Stoffkonzentrationen in der Umwelt näher zu kommen, wurden die Konzentrationen der verwendeten Verbindungen Standardtestkonzentrationen und niedriger.;-;-;-;https://link.springer.com/article/10.1007/BF00114623 e8f846b9698c8a0322cd9ef1df5369b4;de;;;2.1.;;;Effizientes Finden von Beziehungen zwischen Individuen in einer Massenontologiedatenbank Da in letzter Zeit Ontologie im Semantic Web verwendet wird, nimmt die Anzahl der Ontologie-Instanzen explosionsartig zu. Die heutige Welt ist komplex, ebenso wie die Beziehungen innerhalb der meisten Wissensdomänen. Gerade ein sehr kompliziertes Verhältnis ist nicht leicht zu übersehen. Experten, die eine Entscheidungsfindung und Informationsanalyse benötigen, wenden daher in vielen Situationen viel Zeit und Mühe auf, um die Beziehungen zwischen Einzelpersonen zu finden. Um Beziehungen zwischen interessierenden Personen mit Hilfe einer Maschine zu erkennen und zu extrahieren, wird das Beziehungsfindersystem, nämlich RelFinder, vorgeschlagen. RelFinder kann jedoch aufgrund seiner Einschränkungen für die Systemantwortzeit nicht alle Beziehungen finden. Daher schlagen wir das neuartige Beziehungsfindungssystem namens OntoRelFinder vor. OntoRelFinder verwendet Schemapfade und SPARQL-Endpunkte, um die Beziehung zwischen Ontologie-Individuen zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27210-3_37 1fa82aff7aa5c847559226fffa9f4a81;de;;;2.1.;;;Ontologie-basiertes interaktives Post-Mining interessanter Co-Location-Muster Räumliche Co-Location-Muster stellen die Teilmengen von räumlichen Features dar, deren Instanzen sich häufig gemeinsam im geografischen Raum befinden. Gemeinsame Frameworks für das Mining von Co-Location-Mustern erzeugen zahlreiche redundante Co-Location-Muster. Daher wurden mehrere Verfahren vorgeschlagen, um diesen Nachteil zu überwinden. Die meisten dieser Verfahren garantieren jedoch nicht, dass die extrahierten Co-Location-Muster für den Benutzer interessant sind, da sie in der Regel auf statistischen Informationen basieren. Daher ist es entscheidend, dem Entscheidungsträger mit einem effizienten interaktiven Verfahren bei der Auswahl interessanter Co-Location-Muster zu helfen. Dieses Papier schlug einen interaktiven Ansatz vor, um entdeckte Co-Location-Muster zu beschneiden und zu filtern. Zunächst wurden Ontologien verwendet, um die Integration von Benutzerwissen zu verbessern. Zweitens wurde ein interaktiver Prozess entwickelt, um mit dem Benutzer zusammenzuarbeiten, um die interessanten Co-Location-Muster effizient zu finden. Die experimentellen Ergebnisse an einem realen Datensatz zeigten die Wirksamkeit unseres Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-45817-5_35 c4b3ff00e1c1b445235971c9677552bf;de;;;2.1.;;;Vorhersage subzellulärer Lokalisationen von Membranproteinen in Eukaryoten mit gewichteten Gen-Ontologie-Scores Die Kenntnis der subzellulären Positionen von Proteinen ist ein wichtiger Schritt zum Verständnis der Proteinfunktionen. Die experimentellen Methoden zur Bestimmung der subzellulären Proteinlokalisation sind in der Regel kostspielig und zeitaufwendig. So wurden im letzten Jahrzehnt viele Computermethoden eingeführt, um die subzelluläre Position des Proteins zu bestimmen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25658-5_22 f7798894260aa06273b31bc328f67135;de;;;2.1.;;;Themenfindung mit häufigem Subgraph-Mining-Ansatz Die Themenmodellierung wird seit langem verwendet, um den Inhalt eines Dokuments im Datensatz basierend auf der Suche nach versteckten Themen innerhalb des Dokuments zu überprüfen und zu erkunden. Im Laufe der Jahre haben sich viele Algorithmen basierend auf diesem Modell entwickelt, mit wichtigen Ansätzen wie „Wörterbeutel“ und Vektorräumen. Diese Ansätze erfüllen hauptsächlich die Suche, Statistiken die Häufigkeit des Vorkommens von Wörtern, die sich auf das Thema des Dokuments beziehen, wodurch das Themenmodell extrahiert wird. Bei diesen Ansätzen wird jedoch die Struktur des Satzes, nämlich die Reihenfolge der Wörter, die die Bedeutung des Dokuments beeinflusst, oft ignoriert. In diesem Papier schlagen wir einen neuen Ansatz vor, um das versteckte Thema des Dokuments in einem Datensatz mithilfe eines Kookkurrenzgraphen zu untersuchen. Danach wird der häufige Subgraph-Mining-Algorithmus angewendet, um das Thema zu modellieren. Unser Ziel ist es, das Problem der Wortreihenfolge zu überwinden, das sich auf die Bedeutung und das Thema des Dokuments auswirkt. Darüber hinaus haben wir dieses Modell auch auf einem großen verteilten Datenverarbeitungssystem implementiert, um die Verarbeitung komplexer mathematischer Probleme in Graphen zu beschleunigen, deren Ausführung viele Male erforderlich war.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8276-4_41 2a54347742df33d0c63084890acab8bb;de;;;2.1.;;;Formalisierung von Anforderungsspezifikationen für die Problemlösung in einem Forschungsbereich Der Beitrag stellt die Erforschung einer Methodik der konzeptionellen Schemaentwicklung zur Lösung von Problemen in Fachgebieten vor. Ein semantischer Ansatz für die Erstellung von Domänenmodellspezifikationen ist dabei grundlegend. Der Entwicklungsprozess umfasst die Formulierung eines Anforderungsmodells an die Domäne aus verbalen Spezifikationen der Domänenanforderungen, die Entwicklung einer Domänenontologie, deren Umwandlung in ein konzeptionelles Schema und die Wiederverwendung von Domänenwissensspezifikationen in der Domäne. Relevante Datenquellen werden konzeptionellen Schemata von Domänen in Dateninfrastrukturen zugeordnet. Anforderungsspezifikationen werden über konzeptionelle Schemata zur Entitätsauflösung und Problemlösung in Domänen unter Verwendung zugänglicher Datenquellen implementiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30278-8_29 a531e6d26368d7031a75d9098e597d1a;de;;;2.1.;;;Expertenbewertung von Synonymzeilen in RuWordNet Dieser Artikel untersucht die Prinzipien von Synsets im RuWordNet-Thesaurus und Synonymen in den klassischen Wörterbüchern für russische Synonyme (N = 10), um Diskrepanzen zu erkennen und die Prinzipien der Organisation von Synsets in RuWordNet zu verbessern. Die Relevanz der Studie wird durch den Bedarf an WordNet-Ressourcen für die Verarbeitung natürlicher Sprache bestimmt. Die Autoren wählten 102 RuWordNet-Thesaurus-Synsets aus, darunter Substantive (N = 34), Adjektive (N = 34) und Verben (N = 34). Die Bedeutungen der Lexeme wurden entsprechend den Angaben in russischen Thesauri (N = 2) korreliert. Die vergleichende Methode und eine unabhängige Expertenbewertung von RuWordNet ergaben eine Reihe von Diskrepanzen und Ungenauigkeiten in der Darstellung von Synsets bezüglich Polysemie, hypohyperonymen Beziehungen, lexikalischen Bedeutungen von Wörtern und Wortartensynonymie. Auf der Grundlage dieser Studie empfehlen die Autoren die Beseitigung einzelner Mängel beim Aufbau der RuWord-Net-Synsets, insbesondere der Polysemie und der Wortartsynonymie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-39575-9_18 c64cc395c377a8a6e285ed8b191c0749;de;;;2.1.;;;Potluck: Semi-Ontologie-Ausrichtung für Gelegenheitsnutzer Potluck ist eine Web-Benutzeroberfläche (Abbildung 1), mit der Gelegenheitsbenutzer – diejenigen ohne Programmierkenntnisse und Datenmodellierungskenntnisse – heterogene Semantic Web-Daten wiederverwenden können. Benutzer können Daten gleichzeitig durch direkte visuelle Manipulation zusammenführen, navigieren, visualisieren und bereinigen. Dieser iterative Prozess der Integration der Daten bei gleichzeitiger Erstellung nützlicher Visualisierungen ist wünschenswert, wenn der Benutzer mit den Daten zu Beginn nicht vertraut ist – ein häufiger Fall – und sofort einen Wert aus den Daten ziehen möchte, ohne den Aufwand für eine vollständige und perfekte Integration aufwenden zu müssen zuerst die Daten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76298-0_67 8e4b499667348b50239a9f6e47a7f2fa;de;;;2.1.;;;Diebstahl virtueller Gegenstände in Online-Multiplayer-Computerspielen: eine ontologische und moralische Analyse Im Jahr 2009 verurteilten niederländische Richter mehrere Minderjährige wegen Diebstahls virtueller Gegenstände in den virtuellen Welten von Online-Multiplayer-Computerspielen. Aus juristischer Sicht ergab sich aus diesen Verurteilungen die Frage, ob virtuelle Gegenstände strafrechtlich als „Gegenstände“ gelten sollen, die „gestohlen“ werden können. Diese Rechtsfrage hat sowohl eine ontologische als auch eine moralische Komponente. Die Frage, ob virtuelle Gegenstände als „Gegenstände“ gelten, die „gestohlen“ werden können, ist eine ontologische Frage. Die Frage, ob sie strafrechtlich als solche gelten sollen oder nicht, ist moralischer Natur. Der Zweck dieser Arbeit besteht darin, sowohl die ontologische Frage als auch die moralische Frage zu beantworten, die der Rechtsfrage zugrunde liegt.;-;-;-;https://link.springer.com/article/10.1007/s10676-011-9285-3 ac462f7dfff027330173ca49dac2074b;de;;;2.1.;;;Wissens-Engineering-Experimentierungsmanagementsystem für die Zusammenarbeit Dieses Papier stellt eine Methodik und ein System zur Analyse komplexer Experimente vor, die derzeit vom Verteidigungsministerium verwendet werden. Bewertet werden Effektivität und Effizienz von Systeminteraktionen sowie betroffene intra- und interorganisationale Prozesse. Die Methodik leitet sich von einem Analyse- und Managementsystem für operative Experimente ab, das entwickelt wurde, um militärische E-Dienste und Infrastrukturen der nächsten Generation zu bewerten. Ein Schwerpunkt ist die Erweiterung der Systemmethodik über den traditionellen transaktionsorientierten Austausch hinaus auf Managementschichten für komplexe interorganisationale Prozesse und Mechanismen zur Anpassung an sensible Unternehmensabläufe.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-3658-2_100 842ddbe7429c5332b84990a50d63f479;de;;;2.1.;;;Situationsbewusstsein Kognitiver Agent für die Fahrzeugortung in Tunneln Die Integration von Geolokalisierung, Big Data und kognitiven Agenten hat sich zu einem der stärksten Geschäftstools des digitalen Zeitalters entwickelt. Geolokalisierung steht per Definition für den Einsatz verschiedener Technologien in einer Vielzahl von Anwendungen, um Menschen und Objekte zu lokalisieren. Um wirklich Smart Services zu erreichen, benötigen Unternehmen auch den Zugriff auf riesige Mengen an verwandten Informationen, um aussagekräftige Schlussfolgerungen zu ziehen. Mit Big Data ist es möglich, Verknüpfungen zwischen unterschiedlichsten zusammengehörigen Informationen herzustellen und damit verfügbare Dienste zu verbessern oder neue zu schaffen. Heute beeinflusst der Einfluss von Geolocation, Cloud Data Science und beteiligten kognitiven Agenten viele Anwendungsfelder, darunter: Sicherheit und Schutz, Marketing, Beacon-Technologie, Geofencing, standortbezogene Dienste, Transport und Logistik, Gesundheitswesen, Stadtverwaltung, intelligente Gebäude Smart Cities, intelligente Verkehrssysteme, fortschrittliche Fahrerassistenzsysteme sowie autonome und teilautonome Fahrzeuge. Um diesen Herausforderungen zu begegnen, präsentiert dieses Papier einen allgemeinen assoziativ-kognitiven Architekturrahmen zur Entwicklung zielorientierter hybrider Mensch-Maschine-Situationserfassungssysteme, die auf die Wahrnehmung und das Verständnis der Elemente einer Umgebung und die Einschätzung ihres zukünftigen Zustands für Aktivitäten machen. Das vorgestellte Architektur-Framework betont die Rolle der assoziierten Realität als neuartiger kognitiver Agent und die beteiligten semantischen Strukturen, um die Fähigkeiten der entsprechenden Systeme, Prozesse und Dienste zu verbessern. Als Proof of Concept wird ein spezieller Situationsbewusstseinsagent für die Geolokalisierung von Fahrzeugen in Tunneln gezeigt, der Cloud-Datenassoziation, visuelle Erkennung von Verkehrszeichen und Landmarken sowie semantische Straßenkarten verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94779-2_35 0814fd9ede4580d02902bd604f43ad00;de;;;2.1.;;;Abschätzung der Belastung am Arbeitsplatz anhand physiologischer Indizes in der realen Situation Wir haben eine neue Methode entwickelt, um nicht nur das Auftreten von Stress, sondern auch verschiedene Stressarten am Arbeitsplatz abzuschätzen. Das Verfahren beruht auf einer adaptiven Auswahl physiologischer Indizes, die in einen intelligenten mehrstufigen Diskriminierungsprozess integriert sind. Vorläufige Ergebnisse zeigten, dass die Methode vielversprechend ist, um die Schätzungsgenauigkeit von Stresstypen am Arbeitsplatz zu verbessern. Die hier berichtete Studie hat zwei Ziele: zu untersuchen, ob es effektiv möglich ist, den Stresstyp unabhängig von individuellen Unterschieden zu schätzen, und die Leistung der vorgeschlagenen Methode in der realen Situation zu validieren. Vier Probanden, die nicht Teil der Vorstudie waren, wurden als Realsituationsaufgaben entweder eine Tonbanddiktieraufgabe oder eine Präsentationsaufgabe zugewiesen. Das Auftreten verschiedener Arten von schädlichem Stress konnte korrekt unterschieden werden, was die vorgeschlagene Methode als effektive Lösung zur Schätzung der Stressart unabhängig von individuellen Unterschieden bestätigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11564-1_2 e4035748d3f9132db2e842573455a206;de;;;2.1.;;;Mereotopologische Verbindung Der Beitrag skizziert einen modelltheoretischen Rahmen für die Untersuchung und den Vergleich einer Vielzahl mereotopologischer Theorien. Im ersten Teil betrachten wir verschiedene Arten der Charakterisierung einer Mereotopologie in Bezug auf (i) die beabsichtigte Interpretation des Verbindungsprimitiven und (ii) die Zusammensetzung der zulässigen Quantifizierungsbereiche (z. B. ob sie Randelemente enthalten oder nicht). Der zweite Teil erweitert diese Studie um zwei weitere Dimensionen, entlang derer verschiedene Muster topologischer Verbindungen klassifiziert werden können – die Stärke der Verbindung und ihre Vielfalt.;-;-;-;https://link.springer.com/article/10.1023/A%3A1024895012224 ae940196e653ea68211de7fd64ad4211;de;;;2.1.;;;Skalierbare Bereinigung von Informationsextraktionsdaten mithilfe von Ontologien Der Ansatz, Ontologie-Argumentation zu verwenden, um die Ausgabe von Informationsextraktionswerkzeugen zu bereinigen, wurde erstmals in SemantiClean artikuliert. Ein limitierender Faktor bei der Anwendung dieses Ansatzes war, dass die ontologische Argumentation zum Auffinden von Inkonsistenzen nicht auf die Größe der von Informationsextraktionswerkzeugen erzeugten Daten skaliert. In diesem Papier beschreiben wir Techniken zur Skalierung der Inkonsistenzerkennung und veranschaulichen die Verwendung unserer Techniken, um eine konsistente Teilmenge einer Wissensdatenbank mit mehreren tausend Inkonsistenzen zu erstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76298-0_8 b9848993c113d54fb7d0226c4b357a4f;de;;;2.1.;;;Wie Service Choreography Statistics das Ontologie-Mapping-Problem reduzieren In offenen und verteilten Umgebungen bietet das Ontologie-Mapping Interoperabilität zwischen interagierenden Akteuren. Herkömmliche Abbildungssysteme konzentrieren sich jedoch auf die Erfassung statischer Informationen und auf die Abbildung ganzer Ontologien, was in offenen Systemen nicht möglich ist. Dieses Papier zeigt, dass die Interaktionen selbst zwischen den Akteuren verwendet werden können, um Mappings vorherzusagen, was das dynamische Ontologie-Mapping vereinfacht. Die intuitive Idee ist, dass ähnliche Interaktionen ähnlichen Konventionen und Mustern folgen, die analysiert werden können. Das berechnete Modell kann verwendet werden, um die möglichen Abbildungen für die ausgetauschten Nachrichten in neuen Interaktionen vorzuschlagen. Die Vorschläge können von jedem Standard-Ontologie-Matcher bewertet werden: Wenn sie korrekt sind, vermeiden die Matcher die Bewertung von Zuordnungen, die nicht mit der Interaktion in Zusammenhang stehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76298-0_4 308c59396da9a21e8d61c7266897bba1;de;;;2.1.;;;Klassifikation der Proteinfunktionen basierend auf der Genontologie Die meisten Proteine ​​interagieren mit anderen Proteinen, Zellen, Geweben oder Krankheiten. Sie haben biologische Funktionen und können nach ihren Funktionen klassifiziert werden. Mit den Funktionen und den funktionellen Zusammenhängen von Proteinen können wir viele biologische Phänomene erklären und Antworten zur Lösung biologischer Probleme erhalten. Daher ist es wichtig, die Funktionen von Proteinen zu bestimmen. In diesem Beitrag stellen wir eine Methode zur Klassifizierung von Proteinfunktionen zur Funktionsvorhersage von Proteinen vor. Bei humanen Proteinen, die molekularen Funktionsbegriffen GO zugeordnet sind, messen wir die Ähnlichkeit von Proteinen zu Funktionsklassen anhand der Funktionsverteilung.;-;-;-;https://link.springer.com/chapter/10.1007/11562382_69 3f6f1cf63911b687d30fcb5fa7d740ec;de;;;2.1.;;;Empfehlungssystem für IPTV-TV-Programme mit Ontologie und K-Means-Clustering In diesem Beitrag stellen wir ein Empfehlungssystem zur Empfehlung bevorzugter TV-Genres für jeden Zuschauer vor, das Ontologietechnik und K-Means-Clustering-Algorithmus verwendet. Der Algorithmus wird basierend auf dem persönlichen VOD-Anzeigeverlauf entwickelt. Erstens wird der Betrachtungsverlauf in eine Ontologie eingebaut, die in der Lage ist, einen Rückschlussprozess durch eine Abfrage zu erreichen. In der Benutzerliste erhält jedes Element und jede Klasse die Wahrscheinlichkeit der Bevorzugung von VODs und dann werden die Informationen zum Aufbau der Ontologie verwendet. Aus der Ontologie wählen wir die bevorzugten VODs jedes Benutzers mithilfe des K-Means-Algorithmus aus. Im experimentellen Teil zeigen wir die Machbarkeit unseres Algorithmus anhand von realen Fernsehdaten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20998-7_16 4f2c11b3f48a753a39f5110239d8e235;de;;;2.1.;;;Eine Tag-Empfehlungsmethode für OpenStreetMap basierend auf FP-Wachstum und verbessertem Markov-Prozess Freiwillige geografische Informationen (VGI) als neue geografische Informationsquelle sind nach und nach zu einer wichtigen Ergänzung für maßgebliche Datenquellen geworden. Aufgrund der Unprofessionalität und Spontaneität der meisten Freiwilligen und des Fehlens effektiver Beitragseinschränkungen haben jedoch die Probleme der Attributqualität von OpenStreetMap-(OSM)-Objekten, wie semantische Inkonsistenz und Unvollständigkeit, viel Aufmerksamkeit erhalten. Es gibt jedoch nur wenige Methoden, um die semantische Qualität von OSM effektiv zu verbessern. In diesem Artikel haben wir eine Tag-Empfehlungsmethode vorgeschlagen, die auf der Kombination von FP-Growth und dem Markov-Prozess basiert. Das Ziel unseres Algorithmus ist es, die Qualität von OSM-Objekten zu verbessern, indem einige Tags empfohlen werden, wenn Freiwillige zur Plattform beitragen. Die Ergebnisse zeigen, dass die auf FP-Wachstum und verbessertem Markov-Prozess basierende Methode Tag-Schlüssel für verschiedene Feature-Classes effektiv empfehlen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-78618-2_33 8878f81f6ad3ed046818a9e28ce67c26;de;;;2.1.;;;Bergbau-Diagnosetaxonomie mit intervallbasierter Ähnlichkeit aus klinischen Datenbanken Die Argumentation der Experten, die aus vielen Kandidaten die endgültige Diagnose auswählt, besteht in der hierarchischen Differenzialdiagnose. Mit anderen Worten, Kandidaten geben eine ausgeklügelte hierarchische Taxonomie an, die normalerweise als Baum beschrieben wird. In diesem Beitrag werden die Eigenschaften von Expertenregeln unter dem Gesichtspunkt hierarchischer Entscheidungsschritte näher untersucht und ein neuer Ansatz zum Rule Mining mit Extraktion diagnostischer Taxonomien aus medizinischen Datensätzen vorgestellt. Die Schlüsselelemente dieses Ansatzes sind die Berechnung des Charakterisierungssatzes jedes Entscheidungsattributs (einer gegebenen Klasse) und die Ähnlichkeiten zwischen den Charakterisierungssätzen. Aus den Ähnlichkeitsbeziehungen wird eine baumbasierte Taxonomie gewonnen, die genügend Informationen für Diagnoseregeln enthält.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27774-3_12 0409191fd6d64ae62ce72b3d460c3f36;de;;;2.1.;;;Algorithmus zur Interpretation mehrwertiger taxonomischer Attribute in ähnlichkeitsbasierten Fuzzy-Datenbanken Database In dieser Arbeit analysieren wir unsere Fähigkeit, Wissen aus mehrwertigen Attributen (oft in der Literatur über Fuzzy-Datenbanken als Sammlungen bezeichnet [1-3]) zu entdecken, die in relationalen Fuzzy-Datenbankmodellen [4-7] als praktisches Hilfsmittel verwendet wurden Möglichkeit, Unsicherheit über die in den Datentabellen aufgezeichneten Daten darzustellen. Wir präsentieren hier Implementierungsdetails und erweiterte Tests eines heuristischen Algorithmus, den wir in der Vergangenheit [8-11] verwendet haben, um nichtatomare Werte zu interpretieren, die in unscharfen relationalen Datenbanken gespeichert sind. In unserer Auswertung berücksichtigen wir unterschiedliche Datenungenauigkeiten sowie diverse Formen von Fuzzy-Ähnlichkeitshierarchien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72434-6_3 9e4e1193748fc1119b92c337c7a19822;de;;;2.1.;;;Sag mir warum: Computergestützte Erklärung konzeptioneller Ähnlichkeitsurteile In diesem Beitrag stellen wir ein System zur Berechnung von Erklärungen vor, die Scores in der konzeptuellen Ähnlichkeitsaufgabe begleiten. In dieser Situation besteht das Problem darin, bei einem gegebenen Konzeptpaar eine Punktzahl bereitzustellen, die ausdrückt, inwieweit die beiden Konzepte ähnlich sind. Um zu erklären, wie Erklärungen automatisch erstellt werden, veranschaulichen wir einige grundlegende Funktionen von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-91473-2_7 044ea7f6c609978a91cce8db4242362e;de;;;2.1.;;;Verwendung kognitiver Archetypen und konzeptioneller Graphen zur Modellierung dynamischer Phänomene in räumlichen Umgebungen In diesem Beitrag schlagen wir ein qualitatives Modell vor, um dynamische Phänomene in einem geografischen Raum darzustellen und zu argumentieren. Unser Modell basiert auf linguistischen kognitiven Archetypen, ontologischen Definitionen des geografischen Raums und Conceptual Graphs (CGs). In einem ersten Teil stellen wir die Hauptkonzepte des Modells vor und wie wir sie mithilfe von CGs definieren. In einem zweiten Teil präsentieren wir einen Überblick über die Anwendung dieses Modells auf die Multiagenten-Geosimulationsdomäne im Rahmen des MAGS-COA-Projekts. Unser Modell ist aus zwei Hauptgründen originell. Zunächst verwenden wir einen linguistischen Ansatz, um dynamische Situationen in einer geografischen Umgebung qualitativ zu modellieren. Zweitens verwenden wir CGs, um das mit solchen Situationen verbundene Wissen darzustellen. Die Verwendung von CGs macht unser Modell rechnerisch durchführbar und nutzbar, um räumliches qualitatives Denken durchzuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73681-3_6 45dc82ce4490c3f88d87bc4c3d7ba5c2;de;;;2.1.;;;Formalisierung und Argumentation mit P3P-Richtlinien unter Verwendung einer Semantic Web Ontology Datenschutz ist zu einem entscheidenden Thema im Bereich der Online-Dienste geworden. Die P3P-Richtlinie, bei der es sich um eine Datenschutzrichtlinie handelt, ermöglicht es Websites, ihre Datenschutzpraktiken zum Ausdruck zu bringen, damit Benutzer über die Datenerfassung und deren Verwendung gut informiert sind. Außerdem kann diese Datenschutzrichtlinie mit den Datenschutzeinstellungen der Benutzer verglichen werden, um zu entscheiden, ob der Dienst verwendet werden soll oder nicht. Die Interpretation einer P3P-Policy ist jedoch aufgrund des Fehlens einer präzisen Semantik ihrer Beschreibungen und Einschränkungen unhandlich. Zum Beispiel ist es zulässig, Zweck- und Empfängerwerte zu haben, die inkonsistente Bedeutung haben. Es besteht ein Bedarf an einer expliziten formalen Semantik für die P3P-Politik, um dieses Problem zu mildern. In diesem Papier schlagen wir vor, eine OWL-Ontologie zu verwenden, um die Strukturen und Einschränkungen, die der P3P-Spezifikation innewohnen, systematisch und präzise zu beschreiben. Darüber hinaus werden zusätzliche Einschränkungen definiert und in die Ontologie integriert, sodass die P3P-Policy-Verifizierung mit Hilfe eines OWL-Reasoners automatisiert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25725-4_8 e91ae2e634cca474034d81cdd37fe168;de;;;2.1.;;;Adaptive Learning-Diagnosemechanismen für E-Learning Im Klassenunterricht mit vielen Schülern fehlt den Lehrkräften ausreichend Zeit, um die individuelle Lernsituation der Schüler zu verstehen. Der Rahmen der Lernaktivität in dieser Studie basiert auf dem Learning Diagnosis Diagram. Vor der Durchführung von Lernaktivitäten müssen Lehrkräfte Lerndiagnosediagramme erstellen. Diese Arbeit schlägt ein adaptives Lerndiagnosediagramm vor, um Unterschiede zwischen Schülern zu berücksichtigen. Das vorgeschlagene System bietet ein personalisiertes Lerndiagnosediagramm für einzelne Schüler und passt die Lernphasen automatisch an die Leistung der Schüler an. Die Lernevaluation zeigt die Wirksamkeit der vorgeschlagenen Methode. Die Auswertung zeigt, dass das Learning Diagnosis Diagram eine adaptive Lernumgebung für Studierende bieten kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28487-8_10 1a38270f9041065795b906eb50082506;de;;;2.1.;;;Interpretierbarkeitsprobleme in evolutionären Fuzzy-Wissensdatenbanksystemen mit mehreren Zielen Interpretierbarkeit und Genauigkeit sind zwei widersprüchliche Merkmale eines jeden wissensbasierten Fuzzy-Systems während seines Designs und seiner Implementierung. Diese widersprüchliche Natur führt zu einem Kompromiss zwischen Interpretierbarkeit und Genauigkeit. Zweitens ist die Beurteilung der Interpretierbarkeit ein weiteres wichtiges Problem für Forscher. Zur Beurteilung der Interpretierbarkeit wurden mehrere Indizes und Methoden vorgeschlagen, aber dieses Thema bleibt aufgrund seiner subjektiven Natur ein offenes Problem. In diesem Artikel werden zwei Forschungsthemen diskutiert, die Interpretierbarkeitsbewertung und der Interpretierbarkeits-Genauigkeits-Trade-off beim Design von Fuzzy-Wissensdatenbanksystemen mit evolutionärer Mehrzieloptimierung, indem eine Taxonomie zum Studium und zur Bewertung der Interpretierbarkeit vorgeschlagen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-81-322-1038-2_40 d869f995fa54131af46ba3854b2ec7ef;de;;;2.1.;;;Paläopalynologie Als Palynomorphe werden alle Arten von Mikrofossilien bezeichnet, die mit palynologischen Methoden (Mazeration in Säuren und Laugen, Trennung durch schwere Flüssigkeiten) aus Sedimenten gewonnen werden. Gemeint sind Sporen und Pollen, Akritarchen, Dinoflagellaten, winzige Fruchtkörper von Pilzen usw. Die Disziplin, die sich mit Palynomorphen befasst, heißt Paläopalynologie oder nur Palynologie. Einige Palynomorphe wurden in anderen Kapiteln betrachtet. In diesem Kapitel werden diejenigen Bereiche der Palynologie behandelt, die am engsten mit Untersuchungen zur Morphologie, Systematik und Evolution höherer Pflanzen verbunden sind. Weitere Informationen zur Palynologie können den Literaturübersichten entnommen werden (Chaloner, 1968b, Chaloner und Muir, 1968, Faegri und Iversen, 1975, Kremp, 1965, Paleopalinologia, 1966, R. Potonié, 1956–1970, 1973, R. Potonié and Kremp, 1970, Shaw, 1970, Taylor, 1981).;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-3151-0_4 facf4d14b5998804da8de195d39ca716;de;;;2.1.;;;Ein ontologiebasierter Prozesseditor zum Generieren von Modellzuordnungen in der Werkzeugintegration Die Werkzeugintegration ist ein wichtiges Thema im kollaborativen Prozess, um die Interoperabilität zwischen verschiedenen Werkzeugen zu ermöglichen, die während der Entwicklung verwendet werden. Model Driven Development verwendet Transformationstechniken, um den Datenaustausch zwischen Werkzeugen zu realisieren. Im Allgemeinen werden solche Transformationen manuell und separat mit dem Entwicklungsprozess definiert. Somit sind sie selten wiederverwendbar und hinsichtlich der Prozessschritte nicht gut integriert. Dieses Papier präsentiert eine Lösung zum Identifizieren von werkzeuginkompatiblen Punkten in einem Prozess und zum Generieren der Abbildungen zwischen Artefakten, die von zwei verschiedenen Werkzeugen erzeugt wurden. Zu diesem Zweck schlugen wir vor, eine Prozessontologie mit einem Prozesseditor zu integrieren, um Überlegungen zur Semantik von Prozessmodellen zu ermöglichen. Die Idee besteht darin, mithilfe der Ontologie Prozessassets aus verschiedenen Quellen zu speichern, damit die Beziehungen zwischen ähnlichen Elementen in verschiedenen technischen Räumen automatisch hergestellt werden können. Der Prozesseditor bereichert die Ontologie um Prozesselemente, die aus Modellierungsaktivitäten erfasst wurden. Dann hilft die integrierte Ontologie dem Editor, Werkzeugintegrationspunkte zu erkennen und die Zuordnungen zwischen den betroffenen Prozesselementen zu generieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27869-8_15 235e9f4c8bb81f68c889e5c2a27b2990;de;;;2.1.;;;Effektivität der Videoontologie beim Query-by-Example-Ansatz In diesem Whitepaper entwickeln wir eine Video-Retrieval-Methode basierend auf dem Query-by-Example (QBE)-Ansatz, bei der eine Abfrage durch die Bereitstellung von Beispielaufnahmen dargestellt wird. Relevante Aufnahmen für die Abfrage werden dann abgerufen, indem ein Abrufmodell aus Beispielaufnahmen erstellt wird. Ein Nachteil von QBE besteht jedoch darin, dass ein Benutzer nur eine kleine Anzahl von Beispielaufnahmen bereitstellen kann, während jede Aufnahme im Allgemeinen durch ein hochdimensionales Merkmal dargestellt wird. In einem solchen Fall neigt ein Wiederauffindungsmodell dazu, an Merkmalsdimensionen, die für Beispielaufnahmen spezifisch sind, aber für das Wiederauffinden relevanter Aufnahmen ineffektiv sind, überanpassung zu sein. Als Ergebnis werden viele eindeutig irrelevante Aufnahmen abgerufen. Um dies zu überwinden, konstruieren wir a;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23620-4_9 522955ae3cf278a1dd7737f0244f0658;de;;;2.1.;;;Kollaboratives Verständnis verteilter Ontologien in einem Multiagenten-Framework: Experimente zu Betriebsproblemen Dieses Kapitel beschreibt eine Reihe von Experimenten, die ein Multiagenten-Framework für das kollaborative Verständnis von verteilten Ontologien (CUDO) verwenden. Unser derzeitiger Fokus liegt auf den operativen Fragen einer solchen Zusammenarbeit zwischen den Agenten, wobei jeder Agent eine Informationsdatenbank in einer verteilten Information Retrieval-Simulation verwaltet. Um das kollaborative Verständnis zu erleichtern, unterhält jeder Agent eine Ontologie und eine Übersetzungstabelle mit anderen benachbarten Agenten, um zwischen den eigenen Konzepten und denen der Nachbarn abzubilden. Basierend auf einem Infrastruktur-Prototyp haben sich unsere Experimente darauf konzentriert, wie sich Nachbarschaftsprofil, die Übersetzungstabellen und die Abfrageerfahrung auf die kollaborativen Aktivitäten zwischen den Agenten auswirken. Die spezifischen Ziele unserer Analysen bestehen darin, (a) die Erkennung nützlicher Nachbarn für die gemeinsame Nutzung von Abfragen zu untersuchen, (b) die Effizienz der Abfragebehandlung in verschiedenen Echtzeitszenarien und mit unterschiedlichen Ressourcenbeschränkungen (z ) und (c) die Auswirkungen unterschiedlicher Konzepte und Abfrageanforderungen auf das kollaborative Verständnis. Unsere Ergebnisse zeigen, dass die unterschiedlichen Ressourcenbeschränkungen die kollaborativen Aktivitäten maßgeblich beeinflussen und somit auch beeinflussen, wie die Agenten voneinander Ontologien lernen.;-;-;-;https://link.springer.com/chapter/10.1007/3-7643-7361-X_5 177efde44a93d610e90d9fb08596657e;de;;;2.1.;;;Bedeutung Computing-basiertes SWoT Ontology Summarization System Design Es ist abzusehen, dass der Umfang der Ontologie im Semantic Web of Things (SWoT) immer zu groß ist, um von Maschinen und Benutzern Ontologie zu verstehen oder zu begründen. Um dieses Problem zu lösen, wird ein auf Bedeutungsberechnungen basierendes SWoT-Ontologie-Zusammenfassungssystem (ICSOSS) vorgeschlagen und dessen Rahmen entworfen. Dieses System verwendete ein effizientes kombiniertes Verfahren aus pragmatischer Bedeutung und struktureller Bedeutung, um die Bedeutung von RDF-Sätzen zu berechnen, und Zusammenfassungen werden durch Extrahieren der Bedeutung von RDF-Sätzen in der Ontologie unter einer Neuordnungsstrategie erzeugt. Einige experimentelle Ergebnisanalysen zeigen, dass dieses System Benutzern die besten Ontologiezusammenfassungen bieten kann, um ihre Präferenzen zu erfüllen. Daher kann es für ontologiebezogene Operationen im Prozess der semantischen SWoT-Zusammenarbeit bequemer sein und benutzerzentrierte personalisierte Ontologiezusammenfassungen erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-49370-0_66 91102c473ba44e73cadc1fb4d24bb916;de;;;2.1.;;;Ein ETL-Prozess für OLAP mit RDF/OWL-Ontologien In diesem Whitepaper stellen wir eine fortschrittliche Methode zur On-Demand-Konstruktion von OLAP-Cubes für ROLAP-Systeme vor. Die Methode enthält die Schritte vom Cube-Entwurf bis zu ETL, konzentriert sich jedoch auf ETL. Die eigentliche Datenanalyse kann dann mit den Werkzeugen und Methoden der vorliegenden OLAP-Software erfolgen. Die Methode basiert auf RDF/OWL-Ontologien und Designtools. Die Ontologie dient als Grundlage für den Entwurf und die Erstellung des OLAP-Schemas, seiner entsprechenden Datenbanktabellen und schließlich zum Befüllen der Datenbank.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03098-7_4 61a5ebcc3bda6bfa3b4df0b1cd873525;de;;;2.1.;;;Definition einer Kernontologie für Medizinprodukte in Deutschland zur Sicherstellung der semantischen Interoperabilität Um die Daten von Medizinprodukten zu verwalten, müssen Systeme hohe Anforderungen erfüllen. Diese hohen Anforderungen sind auf die gesetzlichen Anforderungen an Medizinprodukte und auf die spezifischen Bedürfnisse der Nutzer dieser Informationen zurückzuführen. Darüber hinaus verhindert die fehlende semantische Interoperabilität eine zentrale Bereitstellung qualitativ hochwertiger Datensätze. Ziel unseres Projektes war es, eine Ontologie für Medizinprodukte zu entwickeln und aus unserer Ontologie ein UML-Datenmodell abzuleiten. Dazu wurde der Ansatz „Ontology Development 101“ verwendet. Auf Basis des deutschen Medizinproduktegesetzes und Experteninterviews konnten wir relevante Domänenthemen und Begriffe identifizieren. Anschließend haben wir die Sprache OWL verwendet, um Klassen, Eigenschaften und Einschränkungen für die Ontologie zu definieren. Anschließend wurde die Ontologie anhand eines bereits definierten Regelwerks in ein UML-Datenmodell übersetzt. Dies führte zu der abschließenden Hypothese, dass mit der Ontologie eine semantische Interoperabilität zwischen Krankenhausinformationssystemen erreicht werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-68527-0_25 2abee69a059c18925a86a34e42c9f6f2;de;;;2.1.;;;Ein Vorschlag einer Event-Ontologie für Urban Crowd Profiling Die Definitionen von „Event“ und „Crowd“ stehen immer noch für kontroverse Themen, die von verschiedenen Disziplinen wie Soziologie, Philosophie und Informatik angegangen werden. Die vorgeschlagene Ontologie von Ereignissen nutzt Ergebnisse und Perspektiven, die bereits in der Literatur und in verfügbaren Ressourcen wie DBpedia vorhanden sind. Veranstaltungen wie Feiern, Konzerte, Sportspiele usw. werden in dieser Arbeit als räumlich und zeitlich begrenzte strukturierte Einheiten definiert, die durch ein bestimmtes Skript kodifiziert und von urbanen Menschenmassen teilgenommen werden. Die Integration einer Ontologie des „Ereignisses“ mit einer Ontologie der „Menge“ macht die Originalität dieser Arbeit aus. Ein konzeptioneller Rahmen wurde definiert und dann in Protègè implementiert, um ein vielseitiges Instrument zur Profilierung von Massen zu schaffen. In der Arbeit werden die Annahmen vorgestellt, die die Entwicklung der Ontologie unterstreichen, dann wird ihre Implementierung in Protègè und ihre Anwendung auf eine Fallstudie vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31069-0_8 1a3bd160816d22b371f7b217d008131f;de;;;2.1.;;;Ontologie-Wiederverwendung als Mittel zum schnellen Prototyping neuer Konzepte In dem Artikel diskutieren wir die Idee der Wiederverwendung von Ontologien als eine Möglichkeit zur schnellen Prototypenerstellung neuer Konzepte. Insbesondere schlagen wir vor, dass anstelle einer vollständigen Ontologie, die bestimmte Konzepte von Anfang an beschreibt, es möglich und ratsam ist, vorhandene Ressourcen wiederzuverwenden. Wir behaupten, dass die verfügbaren Online-Ressourcen wie Wikidata oder Wordnets verwendet werden können, um einige Hinweise oder sogar komplette Teile von Ontologien bereitzustellen, die zur Definition neuer Konzepte beitragen. Als Proof of Concept präsentieren wir die Implementierung einer Erweiterung des Ontolis-Ontologie-Editors. Mit dieser Erweiterung sind wir in der Lage, die von Wikidata bereitgestellten Ontologien wiederzuverwenden, um die zuvor nicht definierten Konzepte zu definieren. Als vorläufige Bewertung der Erweiterung vergleichen wir den Arbeitsaufwand, der erforderlich ist, um ausgewählte Konzepte mit und ohne die vorgeschlagene Ontologie-Wiederverwendungsmethode zu definieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-58274-0_23 537148bdc67a9ab9aeb39aace7260f44;de;;;2.1.;;;Klassifizierung von Filmgenres mithilfe von SVM mit Audio- und Videofunktionen In diesem Artikel schlagen wir ein Filmgenre-Klassifizierungssystem vor, das einen metaheuristischen Optimierungsalgorithmus namens Self-Adaptive Harmony Search (d. h. SAHS) verwendet, um lokale Merkmale für entsprechende Filmgenres auszuwählen. Dann wird jedem Eins-gegen-Eins-Support Vector Machine (d. h. SVM)-Klassifizierer der entsprechende lokale Merkmalssatz zugeführt, und das Mehrheitswahlverfahren wird verwendet, um die Vorhersage jedes Films zu bestimmen. Insgesamt extrahieren wir 277 Funktionen aus jedem Filmtrailer, einschließlich visueller und Audiofunktionen. Es werden jedoch nicht mehr als 25 Merkmale verwendet, um jedes Paar von Filmgenres zu unterscheiden. Die experimentellen Ergebnisse zeigen, dass die Gesamtgenauigkeit 91,9% erreicht, und dies zeigt, dass für jedes Genrepaar genauere Merkmale ausgewählt werden können, um bessere Klassifizierungsergebnisse zu erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35236-2_1 f8226fd1e0f9cf8d4c61136bcf86ffd8;de;;;2.1.;;;SLA-Ontologie-basierte Elastizität im Cloud-Computing Service Level Agreements (SLA) sind das wichtigste Kontrollmittel, das die Quality of Service (QoS)-Anforderungen im Cloud Computing definiert. Diese Anforderungen müssen gewährleistet sein, um kostspielige SLA-Verletzungen zu vermeiden. Elastizitätsstrategien, die in SLA-Dokumenten noch nicht eingehend berücksichtigt wurden, können jedoch die QoS erheblich verbessern. Daher ist es unser Ziel in diesem Papier, die QoS zu garantieren, indem wir die semantische Bedeutung der Elastizitätsstrategien in SLA einführen. In dieser Hinsicht schlagen wir einen ontologiebasierten Elastizitätsansatz vor, der es ermöglicht, einen elastischen Cloud-Service durch dynamisches Anwenden von Korrekturmaßnahmen zu erhalten. Diese Korrekturmaßnahmen stellen die Elastizitätsstrategien dar, die nach einer Verletzung oder bei der Vorhersage einer Verletzung angewendet werden. Unser vorgeschlagener Ansatz ermöglicht es, ein interaktives und flexibles SLA-Dokument zu erhalten, um eine zuverlässige QoS aufrechtzuerhalten und die SLA-Parameter zu respektieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23201-0_17 0b5e2aa8d48078ffc16e925db2fad841;de;;;2.1.;;;Ontologiebasierte Design-Wissensdarstellung für komplexe Produkte Um das Konstruktionswissen komplexer Produkte abzubilden, werden logische Beschreibungen unterschiedlichen Wissens durch Charakteranalyse für das generalisierte Konstruktionswissen durchgeführt. Dann wird in diesem Kapitel ein Wissensrepräsentationssystem vorgeschlagen, das die dreischichtige Struktur „Design Object Ontology – Design Process Ontology – Data Resource“ (OPR) verwendet. Und der semantische Beschreibungsrahmen wird basierend auf der vorgeschlagenen oberen zusammengeführten Ontologie (SUMO) definiert, um die kollaborative Konstruktion der Ontologie unter Verwendung der Ontologie-Websprache (OWL) zu implementieren. Basierend auf der konstruierten Ontologie wird die Speicherstruktur für generalisiertes Wissen bestimmt, um die verallgemeinerte Wissensrepräsentation zu aktualisieren. Schließlich wird die Durchführbarkeit und Wirksamkeit der in diesem Kapitel vorgeschlagenen Technik durch die Darstellung des Konstruktionswissens für die selbstfahrende Waffe demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54930-4_28 7ef36deecb42c3c286f0ccc2d959703e;de;;;2.1.;;;Integrieren komplexer mathematischer Beziehungen in web-portable Domain-Ontologien Der zunehmende Einsatz von Agentensystemen und die weite Verbreitung des Internets haben neue Wege für die wissenschaftliche Zusammenarbeit eröffnet. Wir haben die Möglichkeit untersucht, dass Agentensysteme die Zusammenarbeit zwischen Physikern der experimentellen Hochenergiephysik (EHEP) unterstützen. Eine offensichtlich notwendige Komponente ist eine vereinbarte wissenschaftliche Domänenontologie, die Konzepte beinhalten muss, die sich auf mathematische Formeln stützen, die andere Domänenkonzepte wie Energie und Impuls für ihre Bedeutung beinhalten. Wir behaupten, dass die aktuellen Spezifikationssprachen für Webontologien nicht ausreichend ausgestattet sind, um für die explizite Darstellung mathematischer Ausdrücke nützlich zu sein. Wir passen einige frühere Arbeiten zur Darstellung mathematischer Ausdrücke an, um eine Reihe von darstellenden Primitiven und unterstützenden Definitionen zu erstellen, um komplexe mathematische Beziehungen zwischen bestehenden Domänenkonzepten in Web-Ontologien zu integrieren, illustriert mit Beispielen aus unseren Interaktionen mit den EHEP-Physikern.;-;-;-;https://link.springer.com/chapter/10.1007/3-7643-7361-X_9 6d973d25c3488752b496fcd09cfd9971;de;;;2.1.;;;Logik höherer Ordnung Was heute der zentrale Teil jeder Einführung in die Logik ist, und in manchen sogar die logische Theorie schlechthin, war früher ein bescheidenes Fragment der ehrgeizigeren Sprache, die im logistischen Programm von Frege und Russell verwendet wurde. „Elementare“ oder „erste Ordnung“ bzw. Reichere Theorien höherer Ordnung und Typologien traten so weit in den Hintergrund, dass die (Wieder-)Entdeckung nützlicher und interessanter Erweiterungen und Variationen der Logik erster Ordnung in den sechziger Jahren viele Logiker überraschte.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-9833-0_3 1e094c127db32b717f8ef695539026ef;de;;;2.1.;;;Evaluierung von Technologien zur Abbildungsdarstellung in Ontologien Ontologie-Mapping wird benötigt, um die Beziehungen zwischen mehreren Ontologien explizit darzustellen, was eine wesentliche Aufgabe für Anwendungen wie semantische Integration und Datentransformation ist. Derzeit gibt es keinen Standard für die Darstellung von Mappings. Stattdessen gibt es eine Reihe von Technologien, die die Darstellung von Mappings zwischen den Ontologien unterstützen. In diesem Papier stellen wir eine Reihe von Mapping-Kategorien vor, die basierend auf den Anforderungen für die Datenintegrationsprojekte eines Industriepartners identifiziert wurden. Es wurde eine Bewertung der verfügbaren Technologien zur Kartierungsdarstellung hinsichtlich der Unterstützung eingeführter Kartierungskategorien durchgeführt. Die Ergebnisse der Evaluation zeigen, dass die SPARQL Inference Notation am besten in das beschriebene Anwendungsszenario passen würde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41030-7_41 89c83e9268e50dd9fcf5f094ee9cdbcf;de;;;2.1.;;;Ein Ontologie-Kristallisationsansatz zum Entwerfen eines leistungsbasierten Testszenarios Das Design von Performance-Based Testing ist ein interessantes und wichtiges Thema für die Einschätzung der Problemlösungs- oder Frageprozessfähigkeiten der Studierenden. In diesem Whitepaper möchten wir eine Wiki-ähnliche Autorenumgebung basierend auf der Performance Assessment Ontology entwerfen, um das kollaborative Design zu unterstützen. Die Inkonsistenz- und Unvollständigkeitsprobleme der Ontologie werden jedoch ernster, wenn die Ontologie kollaborativ konstruiert wird. Daher wird das Ontology Crystallization-Schema vorgeschlagen, um das Szenariodesign durch kollaboratives Brainstorming und die Bewertung sozialer Vereinbarungen zu unterstützen. Es gibt drei Phasen, die Konzeptgrenzenerweiterungsphase, Ontologieintegrationsphase und Konfliktlösungsphase. Das kollaborative Brainstorming basiert auf dem Teilen von entworfener Ontologie und die Konfliktlösung basiert auf der modifizierten Delphi-Methode mit fragebogenbasierter Abstimmung. Um unser Schema zu demonstrieren, wird es auf die Gestaltung des Bewertungsszenarios „Bananenfarm“ angewendet. Schließlich zeigt das Experiment und die Auswertung die Wirksamkeit des entworfenen Ergebnisses.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87783-7_69 04eefea04eb32fe463468b7b3fbf93bf;de;;;2.1.;;;WSDL RDF Mapping: Entwicklung von Ontologien aus standardisierten XML-Sprachen Das W3C arbeitet an einer Empfehlung für die Web Services Description Language, basierend auf XML. Die Arbeitsgruppe hat den Auftrag, eine normative Abbildung von WSDL in RDF zu erstellen, praktisch eine WSDL-Ontologie. Während diese Arbeit noch andauert, schlagen wir in diesem Papier Richtlinien für die Erstellung solcher Ontologien vor, die aus XML-Standards stammen.;-;-;-;https://link.springer.com/chapter/10.1007/11908883_37 c263c3ed40c56d2c203bdcb6eba3cf09;de;;;2.1.;;;Benutzerorientierte halbautomatische Methode zur Konstruktion von Domänenontologie Basierend auf der Analyse der bestehenden Hauptontologiekonstruktionsmethoden und -werkzeuge haben wir eine benutzerorientierte Methode zur halbautomatischen Domänenontologiekonstruktion vorgeschlagen. Die Methode muss einen Deskriptorsatz gemäß den Anforderungen des Benutzers erstellen und eine darauf basierende Hierarchiestruktur erstellen. Benutzer können Ontologien erstellen, indem sie diese Methode im Fall ohne Beteiligung von Experten verwenden. Und die Methode hat immer noch Vorteile für die Erweiterung, kollaborative Entwicklung von Ontologien.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0356-1_58 f7a18f6184fa4a57a9286627fdf60b2c;de;;;2.1.;;;Ontologiegesteuerte Anwendungen für die psychische Gesundheitsversorgung: Eine Fallstudie zur kognitiven Rehabilitation mit Serious Games Das Aufkommen von Semantic Web bot die Möglichkeit, neue Ansätze für die Integration, den Einsatz und den Betrieb von Gesundheitsanwendungen zu entwickeln. Durch die Kombination von Netzwerkkonnektivität, zeitgemäßen Softwarearchitekturstilen und semantikbasierten Technologien ist eine effiziente Darstellung und Kommunikation von Daten und Wissen zwischen verschiedenen Systemkomponenten möglich. In diesem Zusammenhang untermauern Standards wie das Resource Description Framework (RDF) und die Web Ontology Language (OWL) die Definition von Ontologien im Gesundheitswesen. Das Ziel dieser Arbeit ist es, Einblicke in das Design und die Implementierung von ontologiebasierten Gesundheitsanwendungen zu geben. Der Fokus liegt auf dem Bereich der Psychiatrie und insbesondere die Entwicklung einer Spielplattform zur Rehabilitation leichter kognitiver Beeinträchtigungen wird als Fallstudie näher untersucht. Die positiven Auswirkungen der Synergie zwischen Gesundheitsanwendungen und Ontologien werden diskutiert und einige der wichtigsten Herausforderungen und Hindernisse in diesem Bereich werden identifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-70807-8_7 f84814c0c6052935cb178115cd31723e;de;;;2.1.;;;Ein hybrider Zentralkraft-Optimierungsalgorithmus zur Optimierung der Ontologie-Ausrichtung Ontologie gilt als effektive Lösung für die Datenheterogenität im Semantic Web. Jedoch können verschiedene Ontologieingenieure unterschiedliche Wege verwenden, um das Konzept zu definieren, was das Problem der Ontologie-Heterogenität verursacht und das heterogene Problem auf eine höhere Ebene hebt. Die Ontologie-Matching-Technologie, die in der Lage ist, die gleichen Konzepte in zwei heterogenen Ontologien zu identifizieren, wird als Grundlösung zur Bewältigung des Ontologie-Heterogenitätsproblems angesehen. Da verschiedene Ontologie-Matcher nicht notwendigerweise die gleichen korrekten Entsprechungen finden, werden normalerweise mehrere konkurrierende Matcher auf dasselbe Paar von Entitäten angewendet, um die Evidenz für eine potenzielle Übereinstimmung oder Fehlübereinstimmung zu erhöhen. Die Auswahl, Kombination und Abstimmung verschiedener Ontologie-Matcher, um ein qualitativ hochwertiges Ontologie-Alignment zu erhalten, wird zu einer entscheidenden Herausforderung im Bereich des Ontologie-Matchings. In letzter Zeit erscheinen schwarmintelligente Algorithmen als geeignete Methodik, um dieser Herausforderung zu begegnen, aber die langsame Konvergenz und die vorzeitige Konvergenz sind zwei Hauptnachteile, die es ihnen unmöglich machen, effektiv die optimale Lösung für große und komplexe Ontologie-Matching-Probleme zu suchen. Um die Qualität des Ontologie-Alignments zu verbessern, untersuchen unsere Arbeiten eine neue aufstrebende Klasse von intelligenten Schwarmalgorithmen, den sogenannten Central Force Optimization (CFO)-Algorithmus. Um die Exploration und Nutzung des CFO auszugleichen, schlagen wir einen Hybrid CFO (HCFO) vor, indem wir die lokale Suchstrategie in den sich entwickelnden Prozess des CFO einführen und HCFO verwenden, um verschiedene Ontologie-Matcher automatisch auszuwählen, zu kombinieren und abzustimmen, um die Ontologie-Ausrichtung zu optimieren. Die experimentellen Ergebnisse zeigen, dass unser Ansatz die Qualität des Ontologie-Alignments bestehender intelligenter Schwarmalgorithmen basierend auf Ontologie-Matching-Technologien signifikant verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-68527-4_36 d20896cf925012905a02289467ee3b94;de;;;2.1.;;;Konzeptualisierung von Methoden und Experimenten in datenintensiven Forschungsdomänen Heutzutage erfordert Forschung unterschiedlichen Umfangs, insbesondere in den Naturwissenschaften, die Manipulation großer Datenmengen, die durch Beobachtung, Experimente und Modellierung generiert werden. Die Organisation datenintensiver Forschung setzt die Definition von Domänenspezifikationen einschließlich Konzepten (spezifiziert durch Ontologien) und formale Darstellung von Daten voraus, die Domänenobjekte und ihr Verhalten beschreiben (unter Verwendung konzeptioneller Schemata), die von Gemeinschaften, die in den jeweiligen Domänen arbeiten, geteilt und gepflegt werden. Forschungsinfrastrukturen basieren auf Domänenspezifikationen und stellen Methoden bereit, die auf solche Spezifikationen angewendet, von Forschungsgemeinschaften gesammelt und entwickelt werden. Werkzeuge zur Organisation von Experimenten in Forschungsinfrastrukturen werden auch durch konzeptionelle Vorgaben zur Messung und Untersuchung von Objekteigenschaften, Anwendung der Forschungsmethoden, Beschreibung und Überprüfung der Hypothesen unterstützt. Astronomie als datenintensiver Bereich wurde ausgewählt, um die Erstellung konzeptioneller Spezifikationen und deren Verwendung für die Datenanalyse zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-57135-5_1 d1aa33602c0697be9bb25a70979583ea;de;;;2.1.;;;Kontextmodell basierend auf Ontologie im Mobile Cloud Computing Mobile Cloud Computing ist aufgrund des Wachstums mobiler Geräte wie Smartphones und des Aufkommens der Cloud Computing-Umgebung zu einem neuen IT-Paradigma geworden. Diese mobile Cloud-Umgebung stellt je nach Anforderung der Benutzer verschiedene Dienste und IT-Ressourcen bereit, sodass ein effektives Management von Service- und IT-Ressourcen erforderlich ist. Daher entwirft dieses Papier ein Kontextmodell, das auf der Ontologie im mobilen Cloud-Computing basiert, um Benutzern verteilte IT-Ressourcen und -Dienste auf der Grundlage von Kontextbewusstseinsinformationen bereitzustellen. Da das in diesem Dokument vorgeschlagene Kontextmodell kontextbezogene Informationen verwendet, ermöglicht es genauere personalisierte Dienste bereitzustellen und verteilte IT-Ressourcen zu verwalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23312-8_18 0cef1d14cb85a7c32446bfc8259634ce;de;;;2.1.;;;Verkehrsgefahrenontologie für das Bürgersicherheits-Websystem In diesem Beitrag wird ein neuartiger Ansatz zur Entwicklung eines webbasierten Bedrohungsinformationssystems für Bürger vorgestellt. Die Methode übernimmt eine bedeutende Rolle einer Domänenontologie und der Argumentation der Beschreibungslogik (DL). Um diesen Ansatz zu testen, wurde eine prototypische ontologiegesteuerte Anwendung entwickelt. Das Hauptziel der Anwendung ist die Bereitstellung von Echtzeitinformationen für Benutzer über Bedrohungen, die mit dem 2D-GIS-System dargestellt werden. Das System integriert eine Datenbank und eine Ontologie zum Speichern und Ableiten gewünschter Informationen. Während die Zusammenfassung der Verkehrsgefahrendomäne durch die Ontologie beschrieben wird, werden die Ortsdetails der Verkehrsbedingungen in der Datenbank gespeichert. Während der Laufzeit wird die Ontologie mit Instanzen gefüllt, die in einer Datenbank gespeichert sind und von einem DL-Begründer verwendet werden, um erforderliche Fakten abzuleiten. Der Beitrag gibt einen Überblick über das Systemdesign und die Implementierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21512-4_20 32023252ec8c3511689e8eb20caff5f0;de;;;2.1.;;;Intelligentes Design der Radialluft von Wälzlagern basierend auf Ontologie Angesichts der Unsicherheit der Auslegungsparameter der Radialluft von Wälzlagern führt dieser Beitrag die Ontologietheorie in die Auslegung der Radialluft ein, die eine praktikable Methode für die Parameterauslegung der Radialluft von Wälzlagern bietet. Analysieren Sie erstens die Einflussfaktoren der Radialluft und konstruieren Sie ein mathematisches Modell der Radialluft von Wälzlagern. Zweitens konstruieren Sie ein Ontologie-Darstellungsmodell der Radialluft des Wälzlagers und drücken Sie es in der Sprache OWL2 DL aus Kenntnis der Wälzlager-Präzisionskonstruktion werden die semantischen Regeln der Wälzlager-Radialluftkonstruktion unter Verwendung der Semantic Web Rule Language (SWRL) konstruiert. Dann werden unter Bezugnahme auf die konstruierten semantischen Regeln die vernünftigsten Konstruktionsparameter der Radialluft erhalten, indem Jess-Inferenz-Engine. Nehmen wir zum Schluss das Getriebe-Eingangswellenlager als Beispiel, die Machbarkeit der Konstruktionsmethode wird überprüft.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9441-7_72 9de05b47ffb48c891606e10c1ae8e307;de;;;2.1.;;;Zeitliche Anreicherung und Abfrage von Ontologie-konformen Daten Wir betrachten das Problem der Beantwortung von temporalen Abfragen in RDF-Speichern in Gegenwart von zeitunabhängigen RDFS-Domänen-Ontologien, von relationalen Datenquellen, die zeitliche Informationen enthalten, und von Regeln, die die Domäneninformationen in der Quelle in die Zielontologie abbilden. Unsere vorgeschlagene Lösung besteht aus zwei regelbasierten domänenunabhängigen Algorithmen. Der erste Algorithmus materialisiert Ziel-RDF-Daten über eine Version des Datenaustauschs, die die Daten und die Ontologie mit zeitlichen Informationen aus den Quellen anreichert. Der zweite Algorithmus akzeptiert als Eingaben zeitliche Abfragen, die in Begriffen der Domänenontologie ausgedrückt sind, unter Verwendung von SPARQL, ergänzt durch Zeitanmerkungen. Der Algorithmus übersetzt die Abfragen in die Standard-SPARQL-Form, die die Struktur der zeitlichen RDF-Informationen respektiert, während die Fragesemantik erhalten bleibt. Wir stellen die Algorithmen vor, berichten über ihre Implementierung und experimentelle Ergebnisse für zwei Anwendungsdomänen und diskutieren die Zukunft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-54623-6_12 7d4977d0dfaccb2c08cac86c6de6e785;de;;;2.1.;;;Verwenden von Ontologien zur Analyse der Compliance-Anforderungen von Cloud-basierten Prozessen In den letzten Jahren hat das Konzept des Cloud Computing stark zugenommen. Das Spektrum der verfügbaren Dienste deckt die meisten, wenn nicht alle Aspekte ab, die in bestehenden Geschäftsprozessen benötigt werden, sodass Unternehmen große Teile ihrer IT-Infrastruktur an Cloud-Dienstleister auslagern können. Diese Aussicht kann zwar erhebliche wirtschaftliche Vorteile bieten, wird jedoch durch Bedenken hinsichtlich der Informationssicherheit sowie Compliance-Fragen behindert. Relevante Vorschriften werden aus verschiedenen Quellen, wie gesetzlichen Regelungen oder Standards zur Informationssicherheit, in einem Umfang auferlegt, der es schwierig macht, die für ein Unternehmen relevanten Aspekte zu identifizieren. Um die Identifizierung relevanter Vorschriften zu unterstützen, haben wir einen Ansatz entwickelt, um Vorschriften in Form von Ontologien abzubilden, mit denen dann ein gegebenes System auf Compliance-Anforderungen untersucht werden kann. Zusätzliche Toolunterstützung wird angeboten, um Systemmodelle auf bestimmte als relevant befundene Eigenschaften zu überprüfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11561-0_3 e059d2022711ddf76e7eeba58343cbe2;de;;;2.1.;;;Ontologie zur Leistungskontrolle in serviceorientierten Systemen mit Composite Services Die Bereitstellung hoher Leistung für große Systeme auf der Grundlage einer serviceorientierten Architektur ist ein schwieriges Thema. Solche Systeme setzen sich aus einer Vielzahl interagierender Verbunddienste zusammen, die jeweils aus einer oder mehreren Anwendungen bestehen. Um Aufträge zu verarbeiten, die für ein solches System eine Zusammenarbeit zwischen mehreren Anwendungen erforderlich sind, wird die Verarbeitungszeit durch die Auswahl einer Reihe von Anwendungen, die Ressourcen, die sie haben, und die Zeit, die für den Datenaustausch zwischen ihnen verbraucht wird, beeinflusst. Für eine effektive Nutzung der Hardware-Ressourcen werden Virtualisierungstechnologien verwendet. Anwendungen, die Dienstfunktionen implementieren, werden in virtuellen Maschinen platziert, die auf mehreren physischen Servern bereitgestellt werden. Einer der Hauptvorteile einer serviceorientierten Architektur ist die Skalierbarkeit, die zu häufigen Änderungen des Anwendungssets, ihrer Platzierung in virtuellen Maschinen und der ihnen zur Verfügung stehenden Ressourcen führt. Um Hochleistungsjobs bereitzustellen, ist eine Warteschlangenbildung erforderlich, um den optimalen Satz und die optimale Reihenfolge der Anwendungen für die Verarbeitung auszuwählen. Die Effizienz der Algorithmen für die Jobwarteschlange hängt in hohem Maße von aktuellen Informationen über jedes Objekt in einem System ab: Anwendungen, virtuelle Maschinen, physische Server und Telekommunikation. Dies kann aufgrund von Inkonsistenzen in der Konfiguration schwierig werden. Eine der bewährten Methoden zur Auswahl einer Reihe von interagierenden Diensten zur Verarbeitung eines komplexen Auftrags ist die Verwendung von Ontologien. In dieser Arbeit wird eine Erweiterung dieser Methode vorgeschlagen, um die Leistung eines Systems zu erhöhen. Es wird eine Ontologie beschrieben, die nicht nur funktionale Fähigkeiten von Diensten beschreibt, sondern auch Informationen über deren aktuelle Leistung und kommunikative Fähigkeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-45880-9_4 b729f66f547a472a4fd306bb09a5b752;de;;;2.1.;;;Forschung zur Semantic Web Service Composition basierend auf Ontology Reasoning and Matching Semantic Web Service ermöglicht es Web Service zu einer Einheit zu werden, die der Computer verstehen kann und die automatische Erkennung, Ausführung und Zusammenstellung von Diensten unterstützt. Damit ist es nach und nach in den Fokus der serviceorientierten Computerforschung gerückt. OWL-S, eine W3C-Empfehlung, fehlt eine klare Beschreibung nicht-funktionaler Eigenschaften, effektiver Service-Matching-Algorithmen und dynamischer Anpassung des Service, und es wird nur auf eine Weise ohne viel Flexibilität in der praktischen Anwendung ausgeführt, was zu der Einschränkung führt seiner weiten Verbreitung. In diesem Artikel wird OWL-S effektiv um eine vorgeschlagene Methode erweitert, die auf Ontologie-Semantik-Argumentation und -Abgleich basiert, die die automatisierte Erkennung, Abgleichung und Zusammensetzung von Webdiensten unterstützen soll, implementiert durch Hinzufügen wesentlicher Ontologieinformationen zur Erweiterung der Webdienst-Ontologie. Darüber hinaus wurde seine Wirksamkeit durch eine Fallstudie des tierärztlichen Reservierungsdienstes bestätigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27503-6_62 121b3cae92f928b4a8c2aea83847dc14;de;;;2.1.;;;Ein kontextontologischer Ansatz und ein Ansatz für unsicheres Denken basierend auf dem Sicherheitsfaktor für kontextbezogenes Computing Kontextbewusstes Computing ist ein aufkommendes intelligentes Computing-Modell. Die Kernidee besteht darin, dass Computergeräte die reale Welt verstehen und automatisch geeignete Dienste bereitstellen, ohne dass sich die Benutzer große Sorgen machen. Die Forschung zu Kontextmodellierungs- und Argumentationsansätzen ist der wichtige Inhalt der Realisierung von Context-Aware Computing. In diesem Beitrag wird ein auf dem Gewissheitsfaktor basierender Ontologie-Modellierungsansatz vorgeschlagen, um nicht nur Kontextinformationen zu teilen und strukturell darzustellen, sondern auch um das unsichere Denken durch die Unsicherheitsdarstellung für das Domänenwissen zu unterstützen. Dann wird ein auf Gewichtungen basierender Ansatz zur Argumentation mit Gewissheitsfaktoren vorgestellt, um mit dem unsicheren Kontext umzugehen, und schließlich geben wir einen Fall zur Anwendung des Telemonitorings der häuslichen Gesundheit, um die Durchführbarkeit und Gültigkeit des vorgeschlagenen Ansatzes zu zeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37832-4_6 a087794a13e8063506d367b157d28251;de;;;2.1.;;;Der auf PLIB-Ontologie und XML basierende Wissensaustausch für den kollaborativen Produkthandel Collaborative Product Commerce (CPC) hat sich zu einem brandneuen Handelsmodus für die Fertigung entwickelt. Um die Informationskommunikation untereinander in CPC effizienter zu fördern, wurde ein auf PLIB (ISO 13584) Ontologie und XML basierendes Framework für den Wissensaustausch vorgestellt und dessen Implementierungsmethode untersucht. Zunächst wurde gemäß der Methodik von PLIB (ISO 13584) eine gemeinsame Ontologie – PLIB-Ontologie – vorgeschlagen, die eine kohärente konzeptionelle Bedeutung im Kontext der CPC-Domäne bietet. In der Zwischenzeit wurde aus Gründen der Wissensinterkommunikation über das Internet die PLIB-Ontologie-Formalisierungsbeschreibung durch den EXPRESS-Modus in ein XML-Schema umgewandelt und zwei Mapping-Methoden vorgestellt: der direkte Mapping-Ansatz und der Meta-Levels-Mapping-Ansatz, während letzterer übernommen wurde. Basierend auf den obigen Arbeiten wurde ein Framework für den Wissensaustausch über Teileressourcen (CPC-KSF) vorgestellt und realisiert, das im Prozess des kollaborativen Produkthandels bei der Herstellung von Automobilkomponenten angewendet wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05250-7_54 5d397e69f110bac0fc73272328157622;de;;;2.1.;;;Ein neuartiges Klassifizierungsmodell für Webseiten basierend auf integrierter Ontologie Das Hauptproblem bei den traditionellen Textklassifizierungsmethoden besteht darin, dass die reichhaltigen semantischen Informationen im Trainingsdatensatz nicht verwendet werden können. In diesem Artikel wurde ein neues Textklassifikationsmodell vorgeschlagen, das auf der Integration von SUMO (The Suggested Upper Merged Ontology) und WordNet Ontologie basiert. Dieses Modell verwendet die Abbildungsbeziehungen zwischen WordNet-Synsets und SUMO-Ontologiekonzepten, um Begriffe im Dokument-Wort-Vektorraum in die entsprechenden Konzepte in der Ontologie abzubilden, wodurch ein Dokument-Konzept-Vektorraum gebildet wird. Auf dieser Grundlage führen wir ein Textklassifikationsexperiment durch. Die Versuchsergebnisse zeigen, dass das vorgeschlagene Verfahren die Dimensionalität des Vektorraums stark verringern und die Textklassifizierungsleistung verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27207-3_1 d13a95acf39acc2f494be54457d3fb92;de;;;2.1.;;;Überarbeitete Softwaretesttechniken für OWL-Ontologien Ontologien sind ein wesentlicher Bestandteil semantischer Wissensbasen und Anwendungen und werden heute in einer Vielzahl von Domänen eingesetzt. Trotz der Reife von Ontologiesprachen, Support-Tools und Engineering-Techniken ist das Testen und Validieren von Ontologien ein Gebiet, dem noch konsolidierte Ansätze und Tools fehlen. Dieses Papier versucht, diese Lücke teilweise zu überbrücken, indem es einen ersten Schritt in Richtung der Erweiterung einiger traditioneller Softwaretesttechniken auf Ontologien macht, die in einem weit verbreiteten Format ausgedrückt werden. Mutationstests und Coverage-Tests, die im Lichte der besonderen Merkmale der Ontologiesprache und -struktur überarbeitet werden, können dabei helfen, bessere Testsuiten zu entwickeln, um sie zu validieren, und können insgesamt bei der Entwicklung und Verfeinerung von Ontologien und darauf basierender Software helfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-66302-9_7 f5716eaa46eebd5bfa944fe9cf56a5dd;de;;;2.1.;;;Eine neue Ontologie-Meta-Matching-Technik mit einem hybriden semantischen Ähnlichkeitsmaß Ontologie ist die Kernel-Technik des Semantic Web, die verwendet werden kann, um die Konzepte und ihre Beziehungen in einer bestimmten Domäne zu beschreiben. Allerdings würden verschiedene Domänenexperten die Ontologien nach unterschiedlichen Anforderungen konstruieren, und es besteht ein Heterogenitätsproblem zwischen den Ontologien, das die Interaktion zwischen ontologiebasierten intelligenten Systemen behindert. Ontologie-Matching-Technik kann die Verbindungen zwischen heterogenen Konzepten bestimmen, was eine effektive Methode zur Lösung dieses Problems ist. Das semantische Ähnlichkeitsmaß ist eine Funktion zur Berechnung, inwieweit zwei Konzepte einander ähnlich sind, was die Schlüsselkomponente der Ontologie-Matching-Technik ist. Im Allgemeinen werden mehrere semantische Ähnlichkeitsmaße zusammen verwendet, um die Genauigkeit der Konzepterkennung zu verbessern. Die Kombination dieser semantischen Ähnlichkeitsmaße, d. h. des Ontologie-Meta-Matching-Problems, ist eine Herausforderung im Bereich des Ontologie-Matchings. Um dieser Herausforderung zu begegnen, schlägt dieses Papier eine neue Ontologie-Meta-Matching-Technik vor, die einen neuartigen Kombinationsrahmen anwendet, um zwei große Kategorien von Ähnlichkeitsmaßen zu aggregieren. Das Experiment verwendet den berühmten Benchmark der Ontology Alignment Evaluation Initiative (OAEI). Der Vergleich der Ergebnisse mit den Teilnehmern des OAEI zeigt die Wirksamkeit des Vorschlags.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9710-3_4 d400edf25ac6f0ddb91372267573b112;de;;;2.1.;;;Auswirkungen der Ontologie auf Datenbanken Es gibt einen Boom an Forschungsarbeiten im Bereich der Entwicklung neuer Methoden für die Indexierung und den Zugriff auf in Datenbanken verfügbare versteckte Webdaten. Um diese versteckten Webdaten auszunutzen, müssen Benutzer verschiedene im World Wide Web verfügbare Suchformulare mit entsprechenden Werten ausfüllen. Für einen normalen Benutzer mit nicht technischem Hintergrund ist es ziemlich schwierig, geeignete Werte zu finden. Die Ontologie bietet eine Möglichkeit, diese Werte zu finden. Ontologie ist beim Konstruieren einer semantischen Datenbank nützlich, die Werte für verschiedene Felder von Suchformularschnittstellen bereitstellt. Ontologie-basierte Datenextraktion ist beim Umgang mit großen Informationsmengen im World Wide Web effizient. Diese Informationen können in verschiedenen Formaten wie Hypertext Markup Language, HTML, Web Ontology Language, OWL, Recognition Form Designer, RDF und Extensible Markup Language, XML-Dateien vorliegen. Dieses Papier erstellt eine Ontologie-Datenbank, die uns relevante Informationen über die Buchdomäne liefert. Es präsentiert dem Benutzer relevante Daten, anstatt vage und irrelevante Ergebnisse zu liefern, wie dies bei herkömmlichen Datenbanken der Fall ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8527-7_5 9bc16dc0765c010524b824dafa76e551;de;;;2.1.;;;Ontologie-basierter personalisierter Service Discovery-Algorithmus Um die Engpässe des aktuellen Webservice-Erkennungsalgorithmus zu beheben, wie z. Basierend auf der OWL-S Semantic Web Service Theory, dem Aufbau einer personalisierten Domain-Ontologie und entsprechend seinen Eigenschaften, um den semantischen Faktor schrittweise zu erhöhen, wurden drei semantische Distanzberechnungsmethoden erstellt. Auf dieser Grundlage haben wir drei personalisierte Algorithmen zur Erkennung von semantischen Webservices entwickelt und das Online Shopping Mall-System angewendet. Experimentelle Ergebnisse zeigen, dass der Algorithmus 3 bessere Diensteerkennungseffekte erzielen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34595-1_59 3a63b95f77c7b16a08e0c7868f5119dd;de;;;2.1.;;;Domänenontologie zur Darstellung des Wissens über Varianten thermisch modifizierter Holzprodukte Der Hersteller von thermisch modifiziertem Holz Thermory AS stellt ca. 400 verschiedene Produkte her, die in einer Vielzahl von Varianten bestellt werden, was den Ausdruck des Produktvariantenwissens und dessen Validierung sehr wichtig macht. In diesem Papier drücken wir das Wissen über Produktvarianten als Domänenontologie aus, um das Produktwissen auf eine Weise zu erfassen, die zwischen Mensch und Maschine konsistent und teilbar ist. Die Verwendung von Ontology Web Language (OWL) als Description Logics (DL)-basierter Ontologie-Repräsentationssprache ermöglicht es, Inkonsistenzen in den Produktkenntnissen und Kundenauftragsanforderungen zu erkennen. Einschränkungen für gültige Produktvarianten werden als OWL-Klassenausdrücke und als Regeln in der Semantic Web Rule Language (SWRL) ausgedrückt. Die bereitgestellte Methode der Wissensrepräsentation ermöglicht es, die kombinatorische Komplexität der Beschreibung von Produktvarianten zu reduzieren und die richtigen Fertigungsaufträge zu platzieren, was dem Unternehmen Zeit und Geld spart.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-97571-9_14 b4d5408daa289df73b7b17aac3779889;de;;;2.1.;;;Tensorbasierte Darstellung und Begründung von Horn- In letzter Zeit wurden häufig Tenöre verwendet, um Tripel in einem RDF-Graphen, der manchmal als Wissensgraph bezeichnet wird, zum Zweck der Wissensvervollständigung und Einbettung zu kodieren. Eine interessante Frage ist, können wir Tensoren verwenden, um OWL-Ontologien darzustellen und logisches Denken mit Ontologien durch Tensoroperationen handhaben. In diesem Beitrag unternehmen wir den ersten Versuch, theoretisch die Verbindung zwischen tensorbasierter Darstellung und einem Horn-Fragment von OWL herzustellen, Horn-;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7359-5_4 876c3b82f9b2fddd15ce002001e6b288;de;;;2.1.;;;Die Emotions-Ontologie: Ermöglichung interdisziplinärer Forschung in den Affektiven Wissenschaften Affective Science betreibt interdisziplinäre Forschung zu Emotionen und anderen affektiven Phänomenen. Derzeit wird diese Forschung durch das Fehlen allgemeiner Definitionen von Begriffen behindert, die verwendet werden, um sowohl individuelle emotionale Erfahrungen als auch die Ergebnisse wissenschaftlicher Untersuchungen solcher Erfahrungen zu beschreiben, zu kategorisieren und zu berichten. Qualitativ hochwertige Ontologien bieten formale Definitionen für Entitätstypen in der Realität und für die Beziehungen zwischen solchen Entitäten, Definitionen, die verwendet werden können, um Daten über verschiedene Disziplinen hinweg zu disambiguieren und zu vereinheitlichen. Bisher gab es wenig Bemühungen um eine solche formale Darstellung affektiver Phänomene, zum Teil aufgrund weit verbreiteter Debatten innerhalb der affektiven Wissenschaftsgemeinschaft über Fragen der Definition und Kategorisierung. Um dieser Anforderung gerecht zu werden, entwickeln wir eine Emotions-Ontologie (EMO). Die vollständige Ontologie und die generierte OWLDoc-Dokumentation stehen unter https://emotion-ontology.googlecode.com/svn/trunk/ unter der Lizenz Creative Commons – Attribution (CC BY 3.0) zum Download bereit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24279-3_14 e0e4daecd21bbab6ddbbde1f30d445b0;de;;;2.1.;;;Verwendung von Ontology Engineering-Methoden zur Organisation der Informationsinteraktion zwischen relationalen Datenbanken Der Artikel beschreibt ein Beispiel für die Datenkonsolidierung zwischen zwei relationalen Datenbanken (RDB). Der vorgeschlagene Ansatz beinhaltet die Verwendung von ontologischen Engineering-Methoden zum Extrahieren von Ontologien aus RDB-Datenmodellen. Die Zusammenführung der resultierenden Ontologien wird verwendet, um die Informationsinteraktion zwischen der RDB zu organisieren. Der Unterschied zwischen den traditionellen und den vorgeschlagenen Datenkonsolidierungsalgorithmen wird aufgezeigt, ihre Vor- und Nachteile werden berücksichtigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30763-9_24 00ababa0bff91be93607166336aae0ec;de;;;2.1.;;;Bedeutendes auf Bildungsinhalten basierendes Lernmodell mit öffentlichen Ontologien und Multiagentensystemen Das Semantic Web bietet eine Struktur zur Unterstützung der Generierung signifikanter Lerninhalte für webbasierte intelligente Lernumgebungen durch die Verwendung öffentlicher Wissensbasen, bekannt als öffentliche Ontologien, die im Web verfügbar sind. Es wurden daher frühere Untersuchungen durchgeführt, um Agentengesellschaften zu ermöglichen, durch diese Wissensdatenbanken zu navigieren, um Antworten auf Fragen zu finden. Darüber hinaus entwickelt sich die Forschung, um dieses Wissen zu nutzen, um einen Beitrag im Bildungsbereich im Sinne der Schaffung virtueller Lernumgebungen zu leisten. Diese Arbeit schlägt ein Modell für Agenten vor, das den Zugriff auf Ontologien ermöglicht, die sich auf eine bestimmte Wissensdomäne im Web beziehen, und es diesen Agenten ermöglicht, dieses Wissen bei der Konstruktion und Formulierung von Fragen zur Erstellung relevanter und aktualisierter Inhalte für den Studenten zu verwenden. Es wurden mehrere Anstrengungen unternommen, um Agenten mit Ontologien zu integrieren, die ein größeres Wissen für den Agenten basierend auf einer lokalen Ontologie ermöglichen. Allerdings hat noch kein Vorschlag die Möglichkeit kombiniert, die im Web verfügbaren semantischen Daten in Verbindung mit einem konsolidierten BDI-Agenten-Framework zur Produktion aussagekräftiger Inhalte für virtuelle Lernumgebungen zu verwenden. Daher schlägt diese Arbeit ein Modell für eine virtuelle Lernumgebung vor, die Agenten verwendet, die mit dem Jason-Interpreter entwickelt wurden, mit ihrer Fähigkeit, auf Ontologien zuzugreifen, die im Web verfügbar sind, um ihre Glaubensbasis zu aktualisieren und signifikante Inhalte für den Schüler zu generieren. Um diesen Ansatz zu validieren, wird eine Fallstudie eines Bildungsquiz präsentiert, die diese Informationen verwendet, um Fragen zu identifizieren und die erhaltenen Antworten zu überprüfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94779-2_30 8025edff94f83c9c55aaab69585f8a26;de;;;2.1.;;;Ähnlichkeitsmessung von Genen unter Verwendung der Arc-Tan-Funktion in der Gen-Ontologie Die Gene Ontology (GO) ist eine Technik, die aus zweiter Hand die semantische Beziehung von Genen unter Verwendung einer exponentiellen und arctanbasierten Technik misst. Die vorgeschlagene Arbeit entwickelt ein verbessertes, auf dem kürzesten Pfad basierendes Maß unter Verwendung der semantischen GO-Beziehung. Die vorhandene Arbeit stellte einen nicht abweichenden Korridor dar, der auf einer Amalgam-Bewertung der ontologischen Übereinstimmung basiert. Unter Verwendung von GO-Graph und in der Folge erfreut sind Faktoren, die die Wirksamkeit der Übertragungsfunktionen der semantischen Verknüpfung der Genontologie verbessern. Die semantische Technik bewertet gewichtete Pfade für das GO-Ähnlichkeitsmaß. Andere Ähnlichkeitsmaße verwenden den kürzesten Weg in ihrer Berechnung, erfordern jedoch die Spezifität eines Konzepts in der Hybridmaßleistung korrelierter Gene.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-4765-7_83 202cbc085f1e8b2562e4daf277a9cbae;de;;;2.1.;;;Eine ontologiebasierte domänenspezifische Composable-Modellierungsmethode für komplexe Simulationssysteme Die Simulationsmodellierung für komplexe Systeme sollte sowohl domänenspezifisch sein, um Domäneneigenschaften verschiedener Subsysteme widerzuspiegeln, als auch zusammensetzbar sein, um verschiedene Domänenmodelle zu integrieren. Die aktuelle Forschung bietet kein einheitliches Verfahren, um die beiden Anforderungen gleichzeitig zu erfüllen. In dieser Arbeit wird ein ontologiebasiertes domänenspezifisches zusammensetzbares Modellierungsverfahren vorgeschlagen, um dieses Problem zu lösen. Dieses Verfahren verwendet geschichtete Ontologien, einschließlich einer oberen Ontologie und einer Reihe von Unterdomänenontologien, um das Wissen des komplexen Simulationssystems formal darzustellen, und verwendet das Ontologiewissen, um DSMLs für jede Unterdomäne zu entwerfen. Die Fallstudie zur Effektivitätssimulation von Kampfsystemen zeigt, dass mit unterschiedlichen DSMLs entworfene Domänenmodelle technisch und semantisch komponiert werden können, da sie ein explizites Interaktions-Framework und eine gemeinsame semantische Grundlage haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-2663-8_34 2959d9149accb1c9f871c877c2bb9bf4;de;;;2.1.;;;Webseiten-Ranking mit Domain-Ontologie Mit dem Wachstum des Internets wird der Ranking-Algorithmus von Webseiten für Suchmaschinen immer wichtiger. Der traditionelle Algorithmus zum Ranking von Webseiten basiert auf Hyperlinks, ohne die semantischen Informationen der Webseiten zu berücksichtigen, was zu ungenauen Suchergebnissen führt. In den letzten Jahren haben Forscher verschiedene Methoden ausprobiert, um den Inhalt von Webseiten zu verstehen, und viele Algorithmen zum Sortieren von Webseiten vorgeschlagen, die auf semantischem Verständnis basieren. In diesem Artikel wird ein Webseiten-Ranking-Algorithmus namens DOPR vorgeschlagen, der auf der Domainontologie basiert. Die Ergebnisse zeigen, dass DOPR eine höhere Genauigkeit und Durchführbarkeit aufweist als andere Ranking-Algorithmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7605-3_85 303ed544fb6d4784c2dd6187387804bb;de;;;2.1.;;;Neuronale und statistische Methoden zur adaptiven Farbsegmentierung – ein Vergleich Lange Zeit waren pixelbasierte Segmentierungsverfahren aufgrund des enormen Rechenaufwands im Umgang mit Farbe auf Graustufenbilder beschränkt. Mit der Verfügbarkeit leistungsfähigerer Computer ist es heutzutage möglich, pixelbasierte Operationen an realen Kamerabildern sogar im vollen Farbraum durchzuführen. Neue adaptive Klassifikationswerkzeuge wie neuronale Netze ermöglichen es, spezielle Objektdetektoren zu entwickeln, die beliebige Objekte in realen Bildern mit komplexer Verteilung im Merkmalsraum nach Training mit einem oder mehreren zuvor markierten Bildern segmentieren können. Das vorgeschlagene adaptive Segmentierungsverfahren verwendet lokale Farbinformationen, um die Zugehörigkeitswahrscheinlichkeit im Objekt bzw. im Objekt abzuschätzen. Hintergrundklasse. Die Methode wird zur Erkennung und Lokalisierung von menschlichen Händen in Farbkamerabildern komplexer Laborszenen angewendet. Der Beitrag konzentriert sich auf den Einfluss der gewählten Farbdarstellung und einen detaillierten Vergleich des neuronalen Ansatzes mit statistischen Standardmethoden, einem Schwellenwertfilter und einem Klassifikator basierend auf Normalverteilungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-79980-8_10 a3a297ac68775a0078f03d82946d7308;de;;;2.1.;;;Mining-Diagnoseregeln mit Taxonomie aus medizinischen Datenbanken Die Argumentation der Experten, die aus vielen Kandidaten die endgültige Diagnose auswählt, besteht in der hierarchischen Differenzialdiagnose. Mit anderen Worten, Kandidaten geben eine ausgeklügelte hierarchische Taxonomie an, die normalerweise als Baum beschrieben wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39592-8_7 f3a10e38eff3d8eea4f0ecc793383b0a;de;;;2.1.;;;Nutzung von Polaritätsschaltern und Domänenontologien für die Stimmungsanalyse in Text Dieses Papier schlägt einen Ansatz für die Stimmungsanalyse bei Online-Textüberprüfungen vor, der Polaritätswechsel und Domänenontologien nutzt, um zunächst eine aspektbasierte Stimmungsanalyse durchzuführen und diese dann zur Verfeinerung der allgemeinen Stimmungsbewertungen zu verwenden. Es trennt den Rezensionstext in verschiedene Fragmente unter Verwendung von Informationen zum Umschalten der Stimmungspolarität. Dann ordnet es jedes dieser Fragmente der Domänenontologie zu, um den Aspekt zu bestimmen, auf den sich jedes Fragment bezieht, und führt eine entsprechende aspektbasierte Sentimentanalyse durch. Schließlich werden die Meinungen aus allen Aspekten unter Berücksichtigung der hierarchischen Ebene der Aspekte in der Domänenontologie zusammengefasst, um die Polarität der Gesamtbewertung zu verfeinern. Hontology wurde verwendet, um die Textfragmente verschiedenen Aspekten im Hotelbereich wie Service, Zimmer usw. zuzuordnen. Experimente im Hotelbereich mit 800 Hotelbewertungen aus Tripadvisor, Yelp, Expedia, Orbitz, Hotels.com und Priceline zeigen dies Aspektbasierte SA und Domänenontologien zusammen können tatsächlich verwendet werden, um SA zu verfeinern. Der F1-Wert auf Makroebene für den vorgeschlagenen Ansatz liegt 3,96% über dem des Basisansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-6427-2_7 fbf9984770a2ecf8eea51ddf23c924ab;de;;;2.1.;;;Eine Ontologie zur Unterstützung der TMMi-basierten Testprozessbewertung TMMi stellt als Prozessreferenzmodell eine Sammlung von Best Practices vor, die Unternehmen bei der Verbesserung ihrer Testprozesse unterstützen. Die Entwicklung einer Ontologie eines beliebigen Prozessreferenzmodells trägt dazu bei, die Struktur des Wissens zu klären, den Wissensaustausch zu ermöglichen und die Interoperabilität zu ermöglichen. Diese Studie stellt eine ontologiebasierte Testprozessbewertungsinfrastruktur vor, um die Konformität mit TMMi als Prozessreferenzmodell zu verfolgen. In dieser Studie werden das TMMi-Modell, die SCAMPI-A-Methode und die Organisationen durch die TMMi Assessment Ontology spezifiziert, die in einer formalen Sprache kodiert ist und der Antrag der Ontologie auf Assessment wird beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00623-5_25 dbad18dd1dec44e220c3e84b8e5c3802;de;;;2.1.;;;OntoFast: Konstruieren Sie Ontologie schnell Der Aufbau von Ontologien ist eine zeitaufwendige und arbeitsintensive Aufgabe. Es kann viele Monate dauern, eine Ontologie zu erstellen, da gemäß Standardpraktiken jedes Konzept Synonyme, domänenspezifische Definitionen, eindeutige Kennungen und Referenzen haben muss. Gegenwärtige Praktiken der Ontologiekonstruktion erfordern eine manuelle Dateneingabe, um diese Daten über Programme wie Protégé usw. einzuspeisen. Wir haben eine kleine Anwendung entworfen, die die Entwicklung neuer Ontologien beschleunigt. Es bietet eine einfach zu bedienende und komfortable Schnittstelle, die es ermöglicht, innerhalb weniger Tage theoretisch eine Ontologie zu erstellen. Die Ausgabe unseres Programms kann einfach geöffnet und dann in einem Standard-Ontologie-Editor wie Protégé verwendet werden. Verfügbarkeit: Die Software ist unter diesem Link frei verfügbar: http://www. francescopappalardo.net/ontofast.zip.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11716-4_21 4a3e92a5d975c53b42daa506d582b7c3;de;;;2.1.;;;Von der Ontologie zu NL: Erstellung mehrsprachiger nutzerorientierter Umweltberichte Die Natural Language Generation (NLG) aus Wissensdatenbanken (KBs) ist immer wieder Gegenstand der Forschung. Den meisten Vorschlägen ist jedoch gemeinsam, dass sie von KBs begrenzter Größe ausgehen, die entweder bereits sprachlich orientierte Wissensstrukturen enthalten oder deren Strukturen explizit unterschiedliche Realisierungsweisen zugeordnet sind. Um diese Einschränkungen zu vermeiden, schlagen wir ein dreischichtiges OWL-basiertes Ontologie-Framework vor, in dem Domänen-, Domänenkommunikations- und linguistische Wissensstrukturen klar getrennt sind und zeigen, wie eine groß angelegte Instanziierung dieses Frameworks im Umweltbereich mehrsprachigem NLG dient.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31178-9_24 beb9b257000a1c903bf8031cc9139e06;de;;;2.1.;;;Formalisierung grafischer Modularisierungsansätze für Ontologien und den Wissensverlust Dieses Papier formalisiert das Durchqueren der grafischen Modularisierungstechnik für eine Ontologiekomponente eines Domäneninformationssystems (DIS). Unsere Arbeit ist motiviert durch die Entwicklung der Fähigkeit, ein Modul (ein sogenanntes View-Traversal-Modul) basierend auf einem anfänglichen Satz von Konzepten dynamisch zu extrahieren. Wir zeigen, wie wichtig die Fähigkeit, das in einem View-Traversal-Modul erhaltene (oder verlorene) Wissen zu quantifizieren, für eine Multi-Agenten-Umgebung von Bedeutung ist, die eine nachweisbare Privatsphäre erfordert. Um einen teilweisen Wissenserhalt zu gewährleisten, erweitern wir das View-Traversal-Modul zu einem prinzipiellen idealen Subalgebra-Modul. Der Preis dieser Erweiterung besteht darin, dass das gewonnene Wissen gröber ist, da die Atome des zugehörigen Gitters zusammengesetzt sind, aber als atomar betrachtet werden. Die vorgestellte Arbeit stellt einen grundlegenden Schritt in Richtung Theorien dar, die sich auf das Schließen von Teildomänenwissen beziehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-66196-0_18 6db2b3c70aed38110cd988e9cf4c09b9;de;;;2.1.;;;Eine Methode zur Berechnung der Ähnlichkeit von Webseiten basierend auf der Finanzontologie Die Suchergebnisse des traditionellen Ähnlichkeitsalgorithmus in der Suchmaschine sind nicht genau und können keine Suchergebnisabfrage für Suchergebnisse unterstützen. Zur Lösung des obigen Problems wird ein Verfahren zum Berechnen der Ähnlichkeit von Webseiten basierend auf einer Finanzontologie vorgeschlagen. Zunächst wird das Konzept der auf WordNet basierenden Finanzontologie erstellt und die entsprechenden Konzepte gewonnen unterschiedliche Gewichte für verschiedene Teile der Webseiten), die auf dem traditionellen TF*IDF-Algorithmus basiert, und diese Strategie kann das Thema einer Webseite besser darstellen. Berechnen Sie dann die semantische Distanz zwischen den Schlüsselwörtern, die Tiefe der Ebenen und die Grad der semantischen Überlappung. Schließlich wird die optimale Berechnung der Ähnlichkeit durch die umfassende gewichtete Verarbeitung multipler Ähnlichkeiten realisiert. Experimentelle Ergebnisse zeigten, dass sich die Methode im Vergleich zu SSRM in Recall-Ratio und Precision Ratio stark verbessert hat. Gleichzeitig verbesserte das Verfahren die Algorithmusleistung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0356-1_47 5456a178eecde942be59bba8119df1b6;de;;;2.1.;;;Automatische semantische Bildannotation basierend auf der ontologischen Wissensdatenbank der Tourismusdomäne In diesem Beitrag haben wir eine Methode zur automatischen semantischen Annotation von Bildern vorgeschlagen, die auf der ontologischen Wissensbasis der Tourismusdomäne basiert. Wir müssen andere Dinge tun, die auf der traditionellen semantischen Annotationsmethode basieren. Zunächst müssen wir die Namen der malerischen Orte durch eine gründliche Bildklassifizierung erfassen. Dann müssen wir eine ontologische Wissensbasis im Tourismusbereich aufbauen und die Anmerkungswörter und die Namen der landschaftlich reizvollen Orte als Argumentationsbedingungen betrachten. Schließlich können wir die ontologische Wissensbasis zum Rationieren verwenden, um die Genauigkeit der Bildanmerkung zu verbessern, und darüber hinaus Anmerkungswörter mit dem Namen des landschaftlichen Ortes zu verknüpfen, um Anmerkungswörter spezifischer zu machen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-48570-5_7 0eeda28d75eb172521504f3bc533075e;de;;;2.1.;;;Passende biomedizinische Ontologien durch kompakten evolutionären Simulated Annealing Algorithm Um das heterogene Problem der biomedizinischen Ontologie zu überwinden, werden biomedizinische Ontologie-Matcher entwickelt, um nach Wissensbrücken (oder Alignment) zwischen heterogenen biomedizinischen Ontologien zu suchen. Da es sich um ein komplexes Problem handelt, kann der Evolutionäre Algorithmus (EA) eine gute Methodik zum Abgleich biomedizinischer Ontologien darstellen. Um die Effizienz zu verbessern, wird in diesem Papier ein Compact Evolutionary Simulated Annealing Algorithmus (CESA) vorgeschlagen, der den biomedizinischen Ontologien entspricht. Insbesondere verwendet CESA einen Wahrscheinlichkeitsvektor (PV), um das Verhalten von populationsbasierten EA zu simulieren, und führt den Simulated Annealing Algorithmus (SA) als lokale Suche in jeder Generation ein. Das Experiment wird auf dem Large Biomed Track durchgeführt, der von der Ontology Alignment Evaluation Initiative (OAEI) bereitgestellt wird, und die experimentellen Ergebnisse zeigen die Wirksamkeit unseres Vorschlags.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-5841-8_69 2d1bb643cafc1c6069a395421b2c307c;de;;;2.1.;;;Unsichere Ontologie-bewusste Einbettungen von Wissensgraphen In letzter Zeit wurde der Einbettung von Wissensgraphen große Aufmerksamkeit geschenkt, indem latente und semantische Beziehungen zwischen Entitäten ausgenutzt und das darin enthaltene strukturierte Wissen in maschinelles Lernen integriert wird. Die meisten der vorhandenen Modelle zur Einbettung von Graphen können nur ein einfaches Modell der Daten codieren, während nur wenige Modelle für Ontologie-reiche Wissensgraphen ausgelegt sind. Darüber hinaus erzeugen viele automatisierte Wissenskonstruktionswerkzeuge moderne Wissensgraphen mit reichhaltiger Semantik und Unsicherheit. Es gibt jedoch kein Grapheneinbettungsmodell, das unsichere ontologische Informationen in Grapheneinbettungsmodelle einschließt. In diesem Beitrag schlagen wir ein neuartiges Einbettungsmodell UOKGE (Uncertain Ontology-aware Knowledge Graph Embeddings) vor, das Einbettungen von Entitäten, Klassen und Eigenschaften in unsichere ontologiebewusste Wissensgraphen anhand von Konfidenzwerten lernt. Das vorgeschlagene Verfahren bewahrt sowohl Strukturen als auch Wissensunsicherheit im Einbettungsraum. Insbesondere codiert UOKGE jede Entität in einem Wissensgraphen als Punkt eines n-dimensionalen Vektors, jede Klasse als eine n-Sphäre und jede Eigenschaft als 2n-Sphäre im gleichen semantischen Raum. Diese Darstellung ermöglicht den natürlichen Ausdruck unsicherer ontologischer Tripel. Die vorläufigen experimentellen Ergebnisse zeigen, dass UOKGE Repräsentationen von unsicheren ontologiebewussten Wissensgraphen robust lernen kann, wenn sie anhand eines Benchmark-Datensatzes ausgewertet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3412-6_13 cbe5a689ec795b12287a68089e68bc83;de;;;2.1.;;;Ontologie für die nahtlose Integration landwirtschaftlicher Daten und Modelle Dieses Papier stellt eine Reihe von Ontologien vor, die entwickelt wurden, um die Integration einer Vielzahl von kombinatorischen, Simulations- und Optimierungsmodellen im Zusammenhang mit der Landwirtschaft zu erleichtern. Die entwickelten Ontologien wurden im Softwarelebenszyklus genutzt, indem sie verwendet wurden, um die Datenkommunikation zwischen den Modellen und mit einer relationalen Datenbank zu spezifizieren. Die Seamless-Ontologien enthalten Definitionen für Nutzpflanzen und Pflanzenprodukte, landwirtschaftliche Machbarkeitsfilter, Agrarmanagement und ökonomische Bewertung von Pflanzenprodukten sowie Agrar- und Umweltpolitik, die im Prinzip die wichtigsten Datentypen sind, die von den Modellen ausgetauscht werden. Probleme im Zusammenhang mit der Übersetzung von Datenstrukturen zwischen Modellprogrammiersprachen wurden erfolgreich durch den Einsatz von Annotationen in der Ontologie angegangen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04590-5_27 f7efcc65b219eb30a754dcae5257df66;de;;;2.1.;;;Eine formale Methode zur Erkennung semantischer Konflikte in Protokollen zwischen Diensten mit unterschiedlichen Ontologien Das Protokoll zwischen einem Webservice und seinem Client kann zu semantisch inkonsistenten Ergebnissen führen, wenn die von Server und Client verwendeten Ontologien unterschiedlich sind. Da das Web meist unkoordiniert wächst, ist es unrealistisch zu erwarten, dass Webservices in naher Zukunft standardisierten Ontologien folgen. In diesem Beitrag zeigen wir, dass, wenn der Client seine Ontologie veröffentlicht und das von ihm beabsichtigte Protokoll mit einem Webservice präsentiert, der Webserver einen semantischen Überprüfungsschritt durchführen kann, um formal zu bestimmen, ob eine der möglichen Ausführungen des Protokolls zu ein semantischer Konflikt, der sich aus den Unterschieden in ihren Ontologien ergibt. Wir glauben, dass dies ein Ansatz ist, der es einem Webserver ermöglicht, die semantische Kompatibilität eines Clients mit dem von ihm angebotenen Dienst automatisch zu überprüfen, bevor er dem Client tatsächlich die Ausführung des Protokolls ermöglicht. Wir modellieren die Ontologien als Graphen und präsentieren einen graphbasierten Suchalgorithmus, um festzustellen, ob das Protokoll möglicherweise einen Konfliktzustand erreichen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14493-6_57 15bfaeed964a2de81923535f3d17a52b;de;;;2.1.;;;Ontologieabgleich mit Wissensregeln Ontologie-Matching ist der Prozess der automatischen Bestimmung der semantischen Äquivalenzen zwischen den Konzepten zweier Ontologien. Die meisten Ontologie-Matching-Algorithmen basieren auf zwei Arten von Strategien: terminologiebasierte Strategien, die Konzepte anhand ihrer Namen oder Beschreibungen ausrichten, und strukturbasierte Strategien, die Konzepthierarchien nutzen, um die Ausrichtung zu finden. In vielen Domänen gibt es zusätzliche Informationen über die Beziehungen von Konzepten, die auf verschiedene Weise dargestellt werden, wie Bayes-Netzwerke, Entscheidungsbäume und Assoziationsregeln. Wir schlagen vor, die Ähnlichkeiten zwischen diesen Beziehungen zu verwenden, um genauere Ausrichtungen zu finden. Wir erreichen dies, indem wir weiche Beschränkungen definieren, die Ausrichtungen bevorzugen, bei denen entsprechende Konzepte die gleichen lokalen Beziehungen codiert haben;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-53455-7_4 95c570f036964be8faadebde11af1ca6;de;;;2.1.;;;Ein Management der Ressourcenontologie für Cloud Computing Cloud Computing ist ein neuer Trend bei webbasierten Diensten. Es könnte in servicebasierten Anwendungen wie Infrastructure as a Service (IaaS) oder Service as a Service (SaaS) verwendet werden. Cloud Computing hat jedoch eine breitere Bedeutung als Dienst oder Anwendung. In einer Cloud-Computing-Umgebung müssen wir keine Plattform haben, um Computing-Ressourcen zu nutzen. Alle Computerquellen und Ressourcen befinden sich im Web und können für den Benutzer verwaltet werden. Daher ist die effiziente Methode zur Kontrolle und Verwaltung der Ressourcen im Web erforderlich. In diesem Papier haben wir eine Managementmethode zur Steuerung und Anbindung von Cloud-Computing-Ressourcen vorgeschlagen. Zu diesem Zweck haben wir eine Ontologie für Cloud-Computing-Ressourcen und ein Agentenmodell erstellt, um eine Schnittstelle zwischen den Ressourcen durch die Ontologie zu bilden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27201-1_8 19266eabd068f70da6fbb1c54f2119fe;de;;;2.1.;;;Vergleich von Argumentations-Frameworks für das Matching zusammengesetzter Ontologien Die Lösung des Problems der semantischen Heterogenität ist entscheidend, um die Interoperabilität zwischen ontologiebasierten Systemen zu ermöglichen. Ontologie-Matching basierend auf Argumentation ist ein innovatives Forschungsgebiet, das darauf abzielt, dieses Problem zu lösen, wobei Agenten verschiedene Matching-Techniken einkapseln und die unterschiedlichen Ergebnisse geteilt, verglichen, ausgewählt und vereinbart werden. In diesem Papier vergleichen wir drei Argumentationsrahmen, die unterschiedliche Annahmen berücksichtigen: basierend auf Werten und Präferenzen zwischen Publikum, die diese Werte fördern, basierend auf dem Vertrauensniveau der Argumente und basierend auf der Abstimmung über die Argumente. Wir evaluieren diese Frameworks mit realistischen Ontologien aus einem etablierten Evaluationstestfall. Der beste Matcher variiert in Abhängigkeit von den spezifischen Eigenschaften jedes Sets, während bei der Abstimmung über Argumente die Ergebnisse in allen Fällen denen der besten Matcher ähnlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12805-9_18 db21436f6bfef13ef1f78fc7105e5a64;de;;;2.1.;;;Verteilung und Ökologie von Rädertierchengemeinschaften in hochalpinen Lagen – ein multivariater Ansatz 1 Die Verbreitung und Ökologie benthischer, periphytischer und planktonischer Rädertierchen wurde in einer Vielzahl alpiner Gewässer in Österreich untersucht. Insgesamt 162 substratklassifizierte Proben wurden an 60 Probenahmestellen zwischen 1824 m und 2753 m ü. in den Zentralalpen (vorwiegend Gneis) und zwischen 1290 m und 1643 m ü. in den nordöstlichen Kalkalpen. Die multivariate Analyse ermöglichte die Erkennung unterschiedlicher Probenahmestellengruppen. Verschiedene Gruppen von Taxa wurden auf der Grundlage ihrer Gesamtvorkommenshäufigkeit und Häufigkeit des gemeinsamen Vorkommens identifiziert. Bei mehreren Arten wurde eine auf bestimmte Habitatgruppen beschränkte Verbreitung nachgewiesen. Die Habitatkomplexität, wie sie durch die Taxondiversität und Dichte der Unterwasservegetation, pH, Leitfähigkeit und Temperatur angezeigt wird, scheinen die Hauptkomponenten zu sein, die die Zusammensetzung der Gemeinschaft und die Verteilung einzelner Arten in alpinen Gewässern beeinflussen. Die höchsten Diversitäten wurden in Kalksteinlösungsseen und sauren Moorteichen auf primärem Grundgestein gemessen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-1583-1_10 ff29138eb0686c49f0210020868ab704;de;;;2.1.;;;Ontologie-Extraktion und -Integration aus halbstrukturierten Daten Domänenontologien werden normalerweise von Domänenexperten manuell erstellt. Sie sind aus der Sicht von domänenabhängigen Konzepten, Instanzen und Beziehungen zwischen ihnen genau und professionell, jedoch erfordert die Pflege und Erstellung neuer Ontologien zu viel manuelle Arbeit, insbesondere wenn die Ontologie einen großen Umfang hat. Semistrukturierte Daten enthalten normalerweise einige semantische Beziehungen für Konzepte und Instanzen, und in diesen Arten von Datenquellen sind viele Domänenontologien implizit vorhanden. In diesem Artikel untersuchen wir die automatische Generierung hierarchischer Domänenontologien aus semistrukturierten Daten, genauer gesagt aus HTML- und XML-Dokumenten. Der Hauptprozess unserer Arbeit umfasst die Extraktion von Domänenbegriffen, das Beschneiden, die Vereinigung und die Darstellung hierarchischer Strukturen. Wir illustrieren unsere Studie anhand von Konferenzdaten im Zusammenhang mit künstlicher Intelligenz, die in HTML- und XML-Dokumenten dargestellt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23620-4_8 b47e2bf17160291610b7c1ad9db7fcef;de;;;2.1.;;;Ein ontologiebasiertes System zur Speicherung der Forschungsergebnisse der medizinischen Diagnostik In diesem Beitrag wird ein ontologiebasiertes System zum Speichern von Informationen zur medizinischen Diagnostik vorgeschlagen. Das vorgeschlagene System konzentriert sich auf eine bestimmte Art der Speicherung medizinischer Inhalte – es ermöglicht dem Benutzer nicht nur, Standardinformationen in einem medizinischen Bereich zu speichern, sondern bietet auch die Möglichkeit, die laufende Forschung zu speichern. Der Hauptbeitrag dieses Systems ist seine Erweiterbarkeit auf alle Arten von medizinischen Informationen und seine Fähigkeit, das benötigte Forschungsmaterial zur Verfügung zu stellen, einschließlich der schnellen Möglichkeit, die umstrittenen aktuellen Ergebnisse zu finden und zu bewerten. Dies ermöglicht es Forschern, im Team und aus der Ferne zusammenzuarbeiten. Das System wurde an realen experimentellen Daten getestet, die wir bei der Diagnose von Lungenkrebs auf der Grundlage der Genexpression erhalten haben. Die Experimente haben gezeigt, dass das vorgeschlagene System tendenziell die Bedürfnisse der Benutzer abdeckt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-69784-0_31 79f528c05bacc7e22a062ee448449be9;de;;;2.1.;;;Die Anwendung von dynamischem Management basierend auf ontologiebasierter Simulation, fallbasierter Beschreibung und Argumentation Um die Anforderung des dynamischen Managements der Simulationsressourcenbeschreibung durch die Technologie des dynamischen Aufbauens einer Simulationssystemumgebung in der Cloud Simulation Platform (CSP) zu erfüllen, wurde die Anwendung des dynamischen Managements basierend auf einer ontologiebasierten Simulationsfall-basierten Beschreibung und Argumentation vorgestellt. Diese Methode könnte eine intelligente Beschreibung generieren, wenn Simulationsbenutzer die genaue Beschreibung nicht geben können, um die Grundlage für das dynamische Bauen in CSP zu schaffen. Mit dem CBR diskutierte das Papier hauptsächlich den ontologiebasierten Ausdruck und die Argumentation. Schließlich sind die Beschreibung des Simulationsfalls und die ontologiebasierte Argumentationsregel vorhanden, um die Durchführbarkeit und Wirksamkeit zu zeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34390-2_44 07054f5753fb3f1e309e0b2502fc170e;de;;;2.1.;;;Auf dem Weg zu einer perdurantistischen Vertragsontologie Verträge sind von grundlegender Bedeutung für die Charakterisierung des Wesens einer Firma (oder eines Unternehmens). Das Unternehmen wird von einigen ökonomischen Theorien als Bündel von Verträgen betrachtet und Verträge wiederum werden auch als Bündel von Rechten und Pflichten (Verpflichtungen) betrachtet. Als solche kann argumentiert werden, dass die ontologischen Beziehungen zwischen dem Unternehmen und seinen Verträgen durch eine Reihe mereologischer (oder Ganzteil-)Beziehungen erklärt werden können. Insbesondere die Beziehungen zwischen einem Vertrag und seinen Parteien sowie zwischen den Parteien und ihren Rechten/Verpflichtungen sind alle mereologisch. Diese Auffassung davon, was Verträge sind, mag zunächst überraschend erscheinen, aber eine perdurantistische Interpretation von Verträgen führt zu einer solchen Ontologie. Der Hauptbeitrag dieser Arbeit ist eine perdurantistische Ontologie von Verträgen, die folgende Unterscheidungsmerkmale einführt: (1) eine Unterscheidung zwischen Vertragsspezifikation und Vertragsausführung, (2) Vertragsausführungen als Objekte, deren raum-zeitliche Ausdehnung die ihrer Parteien überschneidet und ( 3) ein generisches Modell von vertraglichen Verpflichtungen und Erfüllungsereignissen, die sich auf die Wirtschaftlichkeit des Unternehmens auswirken. Die in diesem Papier vorgeschlagene Ontologie wird auf ein Beispielszenario angewendet, um ihre Vorteile bei der Unternehmensmodellierung zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31069-0_7 bb96a47f21c551ec1ce82914fa3f7136;de;;;2.1.;;;Verfeinern semantischer Abbildungen von relationalen Tabellen zu Ontologien Um das Semantic Web zu unterstützen, müssen Mappings zwischen Legacy-Datenbankschemata und Ontologien erstellt werden. Wir haben ein Prototyp-Tool entwickelt, das von einem einfachen Satz von Korrespondenzen von Tabellenspalten bis zu Ontologiekomponenten ausgeht und dann hilft, algorithmisch logische Kandidatenzuordnungen zwischen vollständigen Tabellen und der Ontologie abzuleiten. Wir berichten hier über einige Verfeinerungen dieses Algorithmus, inspiriert von einer Analyse der Art und Weise, wie relationale Schemata standardmäßig aus Extended-Entity-Relationship-Diagrammen abgeleitet werden, und beziehen dies auf die Hauptheuristik des Clio-Systems [6], die zwischen relationalen Datenbankschemas abbildet .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-31839-2_7 51f29e585b7afa2cdf3ba598e164e026;de;;;2.1.;;;Ontologie-Evolution für experimentelle Daten in Lebensmitteln Während ihres gesamten Lebenszyklus kann sich eine Ontologie ändern, um Domänenänderungen oder neue Verwendungen widerzuspiegeln. Dieses Papier stellt eine Ontologie-Evolutionsaktivität vor, die auf eine Ontologie angewendet wird, die der Annotation experimenteller Daten in Lebensmitteln gewidmet ist, und ein Plug-In, DynarOnto, das Ontologie-Ingenieure bei der Durchführung von Ontologieänderungen unterstützt. Unsere Evolutionsmethode ist eine;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24129-6_34 44539b556846d48a9f571d7edfdbe20c;de;;;2.1.;;;Ontologie-basierter Ansatz zur Planung von Jobs, die von Anwendungen verarbeitet werden, die in virtuellen Umgebungen ausgeführt werden Dieses Papier präsentiert einen ontologiebasierten Ansatz für das Problem der Jobplanung für den Fall, dass Jobs von Anwendungen verarbeitet werden, die in virtuellen Umgebungen ausgeführt werden und die Anzahl der Anwendungen und deren Leistung im Laufe der Zeit variieren. Die Verwendung eines ontologiebasierten Frameworks bringt Vorteile, wenn das System eine unterschiedliche Anzahl von Komponenten hat und deren Leistungseigenschaften ebenfalls nicht konstant sind. Die Arbeit konzentriert sich auf das Ontologiemodell, das benötigt wird, um den Informationsaustausch für in virtuelle Maschinen eingebettete intelligente Agenten zu organisieren und Informationen über die Anwendungsleistung zu sammeln. In Fällen, in denen Jobs eines Typs von mehreren Anwendungen mit unterschiedlicher Leistung verarbeitet werden können, wurde die Existenz einer optimalen Schwellenwertwarteschlangenrichtlinie bereits früher nachgewiesen. Es kann die durchschnittliche Auftragsbearbeitungszeit verkürzen. Um Schwellenwerte zu berechnen, benötigen wir relevante Informationen über aktive Anwendungen und deren aktuelle Leistung, die Rate des Jobstroms, die Anzahl der Jobs in den Warteschlangen usw. Der vorgestellte Ansatz löst das Problem der effektiven Sammlung relevanter Informationen über den Systemzustand basierend zur Interaktion intelligenter Agenten, bei der jeder intelligente Agent Ontologie verwendet, um nur Informationen zu Änderungen zu veröffentlichen, die für die Entscheidungsfindung relevant sind. Dies reduziert den Systemaufwand für die Überwachung laufender Parameter.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24543-0_21 064d3853435b27a178f5894cc39463ad;de;;;2.1.;;;Strommarkt-Ontologie zur Unterstützung der Simulationen von MASCEM Energiesysteme weltweit sind komplexe und herausfordernde Umgebungen. Die zunehmende Notwendigkeit einer adäquaten Integration erneuerbarer Energiequellen führt zu einer steigenden Komplexität im Netzbetrieb. Multiagentenbasierte Simulationsplattformen haben sich als gute Option erwiesen, um die verschiedenen Probleme im Zusammenhang mit diesen Systemen zu untersuchen, einschließlich der beteiligten Akteure, die in diesem Bereich tätig sind. Um diese Systeme besser nutzen zu können, ist ihre Integration zwingend erforderlich. Der Hauptbeitrag dieser Arbeit ist die Entwicklung der;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-39387-2_33 7c0ea760bc8da535db4d8a27f2c3467f;de;;;2.1.;;;Eine Methode zum automatischen Generieren von Schemadiagrammen für OWL-Ontologien Das Interesse an Semantic Web-Technologien, einschließlich Wissensgraphen und Ontologien, nimmt in Industrie und Wissenschaft rapide zu. Um Ontologieingenieure und Domänenexperten zu unterstützen, ist es notwendig, ihnen robuste Werkzeuge zur Verfügung zu stellen, die den Ontologieentwicklungsprozess erleichtern. Das Schemadiagramm einer Ontologie ist oft das wichtigste Werkzeug, um den Gesamtzweck einer Ontologie schnell zu vermitteln. In diesem Papier stellen wir eine Methode zum programmgesteuerten Generieren eines Schemadiagramms aus einer OWL-Datei vor. Wir bewerten seine Fähigkeit, Schemadiagramme ähnlich wie manuell gezeichnete Schemadiagramme zu generieren, und zeigen, dass es VOWL und OWLGrEd übertrifft. Darüber hinaus stellen wir eine prototypische Implementierung dieses Tools zur Verfügung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-21395-4_11 a661c8755466b0b783991446612a311c;de;;;2.1.;;;Effizientes Mining von Co-Location-Regeln für Intervalldaten Räumliche Co-Location-Regeln stellen Teilmengen von räumlichen Features dar, deren Instanzen häufig zusammen lokalisiert sind. Dieses Papier untersucht das Co-Location Rule Mining auf Intervalldaten und erreicht die folgenden Ziele: 1) Definieren der semantischen Nähe zwischen Instanzen, Erhalten von Fuzzy-Äquivalentklassen von Instanzen und Gruppieren von Instanzen in einer Fuzzy-Äquivalentklasse in eine semantische Nachbarschaft, Nachbarschaft auf Intervalldaten können schnell berechnet und angepasst werden, 2) Definieren neuer verwandter Konzepte mit Co-Location-Regeln basierend auf der semantischen Nachbarschafts-Nachbarschaft, 3) Entwerfen eines Algorithmus zum effizienten Minen der obigen Co-Location-Regeln, 4) Verifizieren der Effizienz von die Methode durch Experimente mit synthetischen Datensätzen und dem Pflanzendatensatz von „Three Parallel Rivers of Yunnan Protected Areas“.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17316-5_45 77cee8ebd22b826dd8ae9ecb54c4d8b0;de;;;2.1.;;;Domänenspezifische Ontologien aus dem Web lernen Dieses Papier schlägt einen Ansatz vor, um domänenspezifische Ontologien aus dem Web zu lernen. Zuerst wird eine Webseite in Textblöcke segmentiert, indem die visuellen Merkmale und DOM-Strukturen analysiert werden. Zweitens werden Textblöcke nach dem Conditional Random Fields (CRFs)-Modell beschriftet. Drittens wird eine lokale Ontologie der Webseite basierend auf einem Vision Tree und beschrifteten Textblöcken konstruiert. Schließlich wird die Ontologie für eine Website durch Zusammenführen der lokalen Ontologien generiert. Unsere experimentellen Ergebnisse an realen Datensätzen zeigen, dass die vorgeschlagene Methode für das domänenspezifische Ontologie-Lernen effektiv und effizient ist, und die Ergebnisse haben ein durchschnittliches F-Maß von 0,91 für Konzepte, Instanzen und;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54025-7_12 0968a28194121c0d2ff4a84c549cc82b;de;;;2.1.;;;Automatisches arabisches Ontologie-Konstruktions-Framework: Eine Tier-Fallstudie eines Insektenfressers Arabisch ist die Amtssprache von Millionen von Menschen im Nahen Osten und in den nordafrikanischen Ländern. Die arabische Ontologie ist die Grundlage für die Formulierung des Arabic Semantic Web. Überraschenderweise hat sich auf dem Gebiet der computergestützten Sprache und der lexikalischen Ressourcen wenig getan. Dieses Papier stellt ein Framework vor, das eine arabische Ontologie aus halbstrukturierten Daten (XML-Dokumente, die mit einem Graphenschema verknüpft sind) generiert, in dem ein XML-Schema erstellt und in der Graphschemaentwicklung (XSG) verwendet wird. Schließlich bietet das Papier eine Fallstudie, den Fall von Insektenfressern, bei der die entwickelte arabische Ontologie angewendet wird. Die Ergebnisse bestehen aus 143 Wörtern, 10 Konzepten, 10 Elementen und 20 Relationen. Die erstellte Ontologie wird mittels datengetriebener Auswertungsverfahren und Tree Based Mining ausgewertet. 65 % der XML-Quelldokumente wurden in die Fallstudie des Insektenfressers aufgenommen. Dieses Ergebnis kann weiter verfeinert werden, um zufriedenstellende Ergebnisse zu erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-64861-3_43 c13fdc7a8e6bb103b1f7eb186800f9da;de;;;2.1.;;;Mix’n’Match: Ein alternativer Ansatz zur Kombination von Ontologie-Matchern Die Existenz eines standardisierten Ontologie-Alignment-Formats, das von der Ontology Alignment Evaluation Initiative (OAEI) gefördert wird, ermöglicht potenziell die Kombination und Verwendung verschiedener Ontologie-Matcher. In diesem Sinne präsentieren wir eine neuartige Architektur zum Kombinieren von Ontologie-Matchern basierend auf iterativen Aufrufen von Standard-Matchern, die Informationen in Form von Referenzzuordnungen in diesem Standard-Alignment-Format austauschen. Wir argumentieren jedoch, dass nur wenige der Matcher, die in den OAEI-Kampagnen der letzten Jahre antraten, tatsächlich die Bereitstellung von Referenzabgleichen zur Unterstützung des Matching-Prozesses zulassen. Wir umgehen diese fehlende Funktionalität, indem wir einen alternativen Ansatz zum Abgleichen von Ergebnissen verschiedener Ontologie-Matcher mit einfacher URI-Ersetzung in den ausgerichteten Ontologien einführen. Wir beweisen experimentell, dass unser iterativer Ansatz von dieser Emulation von Referenzausrichtungen profitiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41030-7_40 df9a5c712d755199d12f6e5f38f2708e;de;;;2.1.;;;Eine Art von Sicherheitsanforderungen Beschreibung Methode der eingebetteten Software basierend auf Ontologie Mit der Popularisierung der Anwendung des eingebetteten Systems wurde die eingebettete Software schnell entwickelt und wird dann zu einer neuen wachsenden Macht. Daher wird die Erforschung der Sicherheitsanforderungen der eingebetteten Software immer wichtiger. Für die Analyse von Sicherheitsanforderungen ist jedoch die Beschreibung der Sicherheitsanforderungen ein sehr wichtiger Schritt. In diesem Beitrag wird eine auf Ontologie basierende Beschreibungsmethode der eingebetteten Software vorgeschlagen. Und Ontologie eignet sich gut zum Teilen und Wiederverwenden von Wissen sowie zum automatischen Schließen. Für die eingebettete Software verwenden wir die Ontologie, um die Konzepte und ihre Beziehungen zu definieren, und erstellen dann ein Modell, um die gemeinsamen Konzepte zu beschreiben. Schließlich geben wir ein Beispiel, um unser Modell als nützlich zu beweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-48634-4_9 55ecdaa39d05f740d918ab0e29fb05a2;de;;;2.1.;;;Anwendung von Ontologien und Agententechnologien zur Generierung von Ambient Intelligence-Anwendungen Application Die Spezifikation von Agentensystemen umfasst verschiedene Dimensionen, die normalerweise durch unterschiedliche Formalismen definiert werden. Da dieses Fehlen einer einheitlichen Darstellung es schwieriger macht, auszudrücken, wie sich jede Ebene auf die anderen auswirkt, schlagen wir eine Ontologie vor, um die Formalismen zu integrieren, die ursprünglich eine einzelne Multiagentensystemdimension abdecken. Dabei richten wir semantische Technologien und Wissensrepräsentation für Agenten, Umgebungen und Organisationen aus und bieten agentenorientierten Designern einen einheitlichen Ansatz für die Entwicklung komplexer Systeme. In unserem Ansatz stellen wir die für jede Multi-Agenten-Systemdimension typischen Abstraktionen als Ontologien dar und veranschaulichen sowohl die Verwendung solcher Ontologien zur Modellierung einer Eldercare-Anwendung im Kontext von Ambient Intelligence und Smart Cities, als auch wie die Ontologie Konzepte unterstützen die Codierung in Agentenplattformen. Wir diskutieren die Implikationen einer solchen integrierten Ansicht für das Entwerfen von Agenten und heben ihre Vorteile für die agentenbasierte Softwareentwicklung hervor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46241-6_3 b70faa3042351582711f60d0918c0f67;de;;;2.1.;;;Auf dem Weg zur selbsterklärenden Ontologie-Visualisierung mit kontextueller Verbalisierung Ontologien sind eine der Kerngrundlagen des Semantic Web. Um an Semantic Web-Projekten teilnehmen zu können, müssen Domänenexperten in der Lage sein, die beteiligten Ontologien zu verstehen. Visuelle Notationen können einen Überblick über die Ontologie bieten und Benutzern helfen, die Verbindungen zwischen Entitäten zu verstehen. Die Benutzer müssen jedoch zuerst die visuelle Notation lernen, bevor sie sie richtig interpretieren können. Die kontrollierte Darstellung in natürlicher Sprache wäre sofort lesbar und könnte bei komplexen Axiomen bevorzugt werden, jedoch würde die Struktur der Ontologie weniger offensichtlich bleiben. Wir schlagen vor, Ontologie-Visualisierungen mit kontextuellen Ontologie-Verbalisierungen ausgewählter Ontologie-(Diagramm-)Elemente zu kombinieren und Erklärungen in kontrollierter natürlicher Sprache (CNL) von OWL-Axiomen entsprechend den ausgewählten visuellen Notationselementen anzuzeigen. Somit profitieren die Domänenexperten sowohl von der allgemeinen Übersicht durch die grafische Notation als auch von den detaillierten textlichen Erläuterungen einzelner Elemente im Diagramm.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-40180-5_1 c2b5dbdc7eca520620a87813b8a437a2;de;;;2.1.;;;Entwicklung eines Empfehlungssystems für Gymnasiasten basierend auf Ontologie Das Nutzermodell ist eine der entscheidenden Komponenten des Wissensmanagementsystems im Allgemeinen und des Empfehlungssystems in einem Fachgebiet. Normalerweise wird das Benutzermodell aus einfachen Profilinformationen wie vollständiger Name, Geburtsdatum, Geschlecht usw. erstellt. Die aus diesen Informationen extrahierten Daten sind begrenzt, leicht zu duplizieren und enthalten keine vektorbezogenen Daten, daher ist es schwierig, genaue Angaben zu machen Empfehlungen. Die Entscheidung für eine Universität und ein Studienfach ist sehr wichtig, aber die Schülerinnen und Schüler an der High School sind sich nicht sicher, wie sie ihre Interessen, ihre Stärken mit ihrer beruflichen Zukunft oder ihren Studienrichtungen in Einklang bringen sollen. Daher brauchen die Gymnasiasten Anleitung und Unterstützung. Darüber hinaus müssen die Schüler geeignete Informationen aus dem Web filtern, priorisieren und effizient abrufen, um das Problem der Informationsüberflutung zu lösen. Dieses Papier schlägt einen ontologiebasierten Ansatz vor, um Informationen über Hobbys, Fingerabdrücke, Freundeskreise, soziale Beziehungen und Bewertungen von Eltern, Freunden und Lehrern im Empfehlungssystem für Gymnasiasten zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4370-2_34 04bdc146b74975a75a0644af6d77eb3a;de;;;2.1.;;;Unsicherheit beim Ontologie-Matching: Ein entscheidungsregelbasierter Ansatz Angesichts der hohen Heterogenität der im Web veröffentlichten Ontologien ist das Ontology Matching ein entscheidendes Thema, dessen Ziel es ist, Verbindungen zwischen einer Entität einer Quellontologie und einer oder mehreren Entitäten einer Zielontologie herzustellen. Perfektionierbare Ähnlichkeitsmaße, die als Informationsquellen gelten, werden kombiniert, um diese Verbindungen herzustellen. Die Theorie der Glaubensfunktionen ist ein mächtiges mathematisches Werkzeug, um solche unsicheren Informationen zu kombinieren. In diesem Papier stellen wir einen Entscheidungsprozess vor, der auf einem Distanzmaß basiert, um die bestmöglichen übereinstimmenden Entitäten für eine gegebene Quellentität zu identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08795-5_6 3dcaac6f29e8a77b10586ff5cfd34af3;de;;;2.1.;;;PowerOnt: Ein ontologiebasierter Ansatz zur Schätzung des Stromverbrauchs in Smart Homes Der Einfluss des Stromverbrauchs in Gebäuden auf den Gesamtenergiehaushalt europäischer und nordamerikanischer Staaten nimmt stetig zu und erfordert Lösungen für eine nachhaltigere Entwicklung. Smart Metering und Energiemanagementsysteme können sich Wohnhäuser aufgrund ihrer Kosten und der erforderlichen Granularität kaum leisten. Die Befähigung von Smart Homes mit geeigneten Stromverbrauchsmodellen ermöglicht es, den aktuellen Eigenverbrauch auf Basis aktuell aktiver Geräte in Echtzeit zu schätzen. In diesem Beitrag stellen wir ein ontologiebasiertes Stromverbrauchsmodell (PowerOnt) für Smart Homes vor und diskutieren einige Anwendungsfälle, in denen der vorgeschlagene Ansatz erfolgreich genutzt werden kann. Die Ergebnisse zeigen, dass der Modellierungsansatz das Potenzial hat, Energieeffizienzmaßnahmen in Wohnhäusern mit wenigen oder keinen Messgeräten zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19656-5_1 32753391f08648b3fac3d78030ca27ef;de;;;2.1.;;;Ontologie-Abfrageunterstützung im semantischen Annotationsprozess In diesem Beitrag stellen wir einen Ansatz zur Ontologie-Abfrage vor, um den semantischen Annotationsprozess zu unterstützen. Wir präsentieren und evaluieren zwei Algorithmen, (i) einen Basisalgorithmus und (ii) einen graphbasierten Algorithmus, der auf der Textrepräsentation und dem PageRank basiert. Wir evaluieren die beiden Ansätze an einer Reihe von semantisch annotierten Geodatendiensten. Wir zeigen, dass der graphenbasierte Algorithmus den Basisalgorithmus deutlich übertrifft. Die entwickelte Lösung ist in Visual OntoBridge implementiert, einem Tool, das eine Schnittstelle und Funktionalität zur Unterstützung des Benutzers bei der semantischen Annotationsaufgabe bereitstellt. Die Verbesserung gegenüber dem Ausgangswert spiegelt sich auch in der Praxis wider.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32695-0_9 c8ec23d546df4a7d1072d4403f82cbfd;de;;;2.1.;;;Eine semantische Explorationsmethode basierend auf einer Ontologie von 17 Dieser Artikel schlägt eine Methode vor, um eine Sammlung von Texten mit einer Ontologie zu untersuchen, die von einem bestimmten Standpunkt abhängt. Im ersten Teil weist die Arbeit auf die Eigenschaften des Korpus hin, bestehend aus 17;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23201-0_47 6b76ba527639b03131b82387689640bf;de;;;2.1.;;;Erkennung von Ontologieänderungen mithilfe eines Versionsprotokolls In diesem Artikel schlagen wir einen neuen Ontologie-Evolutionsansatz vor, der einen Top-Down- und einen Bottom-Up-Ansatz kombiniert. Das bedeutet, dass die manuelle Änderungsanforderung (top-down) durch den Ontologieingenieur durch eine automatische Änderungserkennung (bottom-up) ergänzt wird. Der Ansatz basiert darauf, die verschiedenen Versionen von Ontologiekonzepten während ihrer gesamten Lebensdauer (sogenannte virtuelle Versionen) zu verfolgen. Auf diese Weise können Änderungen in Bezug auf diese virtuellen Versionen definiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/11574620_42 e2c6cc70bbcaf86f08b8b6c000815e6e;de;;;2.1.;;;Leichte ontologiegesteuerte Darstellungen im Pervasive Computing Um in Pervasive Computing-Anwendungen darauf zu verweisen, ist eine klar spezifizierte Darstellung verschiedener Entitäten erforderlich. Beispiele solcher Entitäten umfassen physische Objekte, Operationen, Sensor- und Aktorressourcen oder logische Orte. Wir schlagen einen neuartigen Weg vor, um systematisch Repräsentationen von Entitäten für programmierbare Pervasive Computing-Plattformen zu generieren, die aus winzigen eingebetteten Knoten bestehen. Unsere ursprüngliche Idee ist es, aus einer möglicherweise komplexen ontologischen Spezifikation eine sehr leichte, aber semantisch reichhaltige Darstellung zu generieren. In der Plattformentwicklungsphase wird eine Domänenontologie verwendet, um die Zielumgebung zu beschreiben. Ein Vorverarbeitungswerkzeug erzeugt die ontologiegesteuerte, leichtgewichtige Darstellung, die in zwei Varianten erhältlich ist: eine für Menschen lesbare für die Programmierung und eine binäre für die Laufzeit. Unser Ansatz ermöglicht es, alle Vorteile der ontologiebasierten Modellierung zu nutzen und gleichzeitig eine Darstellung zu erhalten, die so leicht ist, dass sie selbst in kleinste Knoten eingebettet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/11596042_67 f956cbc0cfd254a44a4a1b244abd273e;de;;;2.1.;;;Machbarkeitsstudie: Regelgenerierung für ontologiebasierte Entscheidungssysteme Ontologiebasierte Systeme können verlockende Vorteile für autonome Fahrzeuganwendungen bieten. Ein solches System ist ein ontologiebasiertes Entscheidungsfindungssystem. Dieses System nutzt hoch abstrahiertes semantisches Wissen, das den Zustand des Fahrzeugs sowie den Zustand seiner Umgebung beschreibt. Das Wissen über den Szenariozustand kombiniert mit einem Satz logischer Regeln wird dann verwendet, um die richtigen Aktionen für das Fahrzeug zu bestimmen. Die Erstellung eines Regelwerks für diese sicherheitskritische Anwendung ist jedoch eine anspruchsvolle Aufgabe, die gelöst werden muss, um den Einsatz des Entscheidungssystems in der Praxis zu ermöglichen. Diese Arbeit untersucht die Möglichkeit, Regeln für das Argumentationssystem durch maschinelles Lernen zu generieren. Wir schlagen einen Prozess zur Regelgenerierung vor und erstellen ein Regelwerk, das das Fahrzeugverhalten in einer unkontrollierten Viererkreuzung beschreibt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3412-6_9 b579f8fa92adabf14cb37571e127dcab;de;;;2.1.;;;ONTIDS: Ein hochflexibles kontextsensitives und ontologiebasiertes Alert Correlation Framework Bisher wurden mehrere Ansätze zur Alarmkorrelation vorgeschlagen, um die Anzahl nicht relevanter Alarme und falsch positiver Ergebnisse zu reduzieren, die typischerweise von Intrusion Detection Systemen (IDS) erzeugt werden. Inspiriert durch den mentalen Prozess der Kontextualisierung, der von Sicherheitsanalysten verwendet wird, um weniger relevante Warnungen auszusortieren, haben einige dieser Ansätze versucht, kontextbezogene Informationen wie z. Diese Ansätze sind jedoch nicht flexibel, da sie nur eine Korrelation basierend auf den eng definierten Kontexten durchführen. Informationsressourcen, die den Sicherheitsanalysten zur Verfügung stehen, während die maximale Flexibilität und Abstraktionskraft sowohl bei der Definition als auch bei der Verwendung solcher Konzepte bewahrt wird, schlagen wir ONTIDS vor, ein kontextbewusstes und ontologiebasiertes Alert-Korrelations-Framework, das Ontologien zur Darstellung und Speicherung verwendet die Warnungsinformationen, den Warnungskontext, die Schwachstelleninformationen und die Angriffsszenarien. ONTIDS verwendet einfache ontologische Logikregeln, die in Semantic Query-enhance Web Rule Language (SQWRL) geschrieben sind, um nicht relevante Warnungen zu korrelieren und herauszufiltern. Wir veranschaulichen den potentiellen Nutzen und die Flexibilität von ONTIDS, indem wir seine Referenzimplementierung auf zwei separate Fallstudien anwenden, die von den DARPA 2000- und UNB ISCX IDS-Evaluierungsdatensätzen inspiriert wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-05302-8_10 2fa6d46f65db790cd4b38e6d75c9c17d;de;;;2.1.;;;Eine ontologiebasierte Service-Matching-Strategie in Grid-Umgebungen In diesem Beitrag wird ein effizientes ontologiebasiertes Service-Scarching-Schema vorgestellt, indem semantische Informationen in Grid-Systeme eingeführt werden. Die Ideen der Ontologie und OWL (Web Ontology Language) werden angewendet, um ein einheitliches abstraktes Konzeptmodell und eine Standardisierung für Grid Services zu etablieren. Wir schlagen einen allgemeinen Rahmen eines ontologiebasierten Diensterkennungs-Subsystems vor, der ein Ontologiespeichermodul, ein kontextbasiertes Domänenauswahlmodul und ein spezifisches Dienstabgleichmodul umfasst. In diesem Papier werden auch Umsetzungsrichtlinien vorgestellt.;-;-;-;https://link.springer.com/article/10.1007/BF02831681 544f6fa23f9e6b7c97c024dee6898a95;de;;;2.1.;;;Eine verbesserte Speicher- und Inferenzmethode für Ontologie-basiertes Fernerkundungssystem Mit der unglaublich wachsenden Menge an Fernerkundungsarchiven und der zunehmenden Anzahl von Objekten, die in Fernerkundungsbildern zu identifizieren sind, wird der konventionelle Prozess der Fernerkundungsinterpretation immer ineffizienter und es scheint unmöglich, alle Interpretationsaufgaben rechtzeitig abzuschließen. Dieses Papier wendet ontologische Techniken auf diesen Prozess an. Es verwendet Ontologie, um das Domänenwissen zu beschreiben, und bringt ein neues hybrides Ontologie-Mapping-Modell und eine effektive Inferenzmethode ohne die Verwendung einer Ontologie-Inferenz-Engine hervor. Schließlich baut es ein Interpretationssystem auf, mit dem die Arbeitseffizienz stark verbessert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05250-7_16 80188be627db3ee1ec30904a13a360f3;de;;;2.1.;;;Kontextuelles Pattern-Clustering für die ontologiebasierte Aktivitätserkennung im Smart Home Ambient Assisted Living (AAL), das in einem Smart Home aktiviert ist, erfordert das Design eines Aktivitätserkennungssystems. Im Allgemeinen werden überwachte maschinelle Lernstrategien oder Knowledge-Engineering-Strategien im Prozess der Aktivitätsmodellierung eingesetzt. Ansätze des überwachten maschinellen Lernens verursachen Overhead beim Kommentieren des Datensatzes, während die Ansätze der Wissensmodellierung Overhead verursachen, da sie von dem Domänenexperten für insassenspezifisches Wissen abhängig sind. Der vorgeschlagene Ansatz verwendet andererseits eine unüberwachte maschinelle Lernstrategie, um leicht Wissen aus nicht gekennzeichneten Daten zu extrahieren und es anschließend als Ontologie-Aktivitätsmodell darzustellen. Die Neuheit des vorgeschlagenen Designs liegt in der Verwendung von Contextual Pattern Clustering (CPC) für die Aktivitätsmodellierung. Die Kompetenz des in CPC eingeführten gewichteten Jaro-Winkler-Ähnlichkeitsmaßes liegt in der Nutzung kontextueller Attribute zur Zusammensetzung unterschiedlicher Ereignismuster einer Aktivität. Die in CPC verwendete hierarchische Strategie bietet strukturiertes Wissen über Aktivitäten und Unteraktivitäten an einem bestimmten Standort. Darüber hinaus leitet das im vorgeschlagenen Rahmen eingeführte Subsystem des Ereignisorganisators und des Generators für gewöhnliche Ereignisse Wissen in Bezug auf die Ereignisreihenfolge und die kontextbezogene Beschreibung einer Aktivität ab. Das erlangte Wissen wird später als probabilistisches Ontologie-Aktivitätsmodell dargestellt, um probabilistisches Denken über Domänenwissen zu ermöglichen. Eine experimentelle Analyse mit einem Smart-Home-Datensatz zeigt die Leistungsfähigkeit des vorgeschlagenen unüberwachten Ansatzes in der Aktivitätsmodellierung und -erkennung im Vergleich zu den bestehenden Modellierungsstrategien.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7635-0_16 079436356a4cd8b8eab5ac77e7f1dbb0;de;;;2.1.;;;Eine Ontologie für den Bereich Materialdesign Im Bereich Materialdesign werden viele Daten aus Materialberechnungen in verschiedenen heterogenen Datenbanken gespeichert. Materialdatenbanken haben in der Regel unterschiedliche Datenmodelle. Daher müssen sich die Benutzer der Herausforderung stellen, die Daten aus geeigneten Quellen zu finden und Daten aus mehreren Quellen zu integrieren. Ontologien und ontologiebasierte Techniken können solche Probleme angehen, da die formale Darstellung von Domänenwissen Daten verfügbarer und interoperabler zwischen verschiedenen Systemen machen kann. In diesem Beitrag stellen wir die Materials Design Ontology (MDO) vor, die Konzepte und Beziehungen definiert, um Wissen im Bereich Materialdesign abzudecken. MDO wurde unter Verwendung von Domänenwissen in den Materialwissenschaften (insbesondere in der Festkörperphysik) entwickelt und orientiert sich an den Daten mehrerer Datenbanken im Bereich Materialdesign. Wir zeigen die Anwendung des MDO auf Materialdaten aus bekannten Materialdatenbanken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-62466-8_14 1f8af3210507b45ed72f22ff9603405e;de;;;2.1.;;;Intrusion Detection-System mit mehreren Agenten, das Ontology für Manets verwendet In letzter Zeit hat das mobile Ad-hoc-Netzwerk ihre Existenz immer weiter erhöht und wird daher in mehreren Bereichen zu einem unverzichtbaren Bestandteil. Diese Netzwerke arbeiten jedoch ohne dedizierte Infrastruktur und sind daher zahlreichen Bedrohungen ausgesetzt. Die herkömmlichen Methoden zur Sicherung von Netzwerken sind nicht ausreichend und erfordern derzeit die Kopplung einer reaktiven Sicherheitslösung, wie beispielsweise eines Intrusion Detection System (IDS). Die meisten existierenden IDS weisen jedoch eine Reihe von Nachteilen auf, z. B. hohe Raten von falsch positiven Ergebnissen, geringe Effizienz usw. Die Verwendung einer semantischen Ressource wie der Ontologie könnte ein effektiver Weg sein, um die Daten über Eindringlinge anzureichern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-53187-4_21 d5222b3a5157c073a18ec21b2dc93086;de;;;2.1.;;;Datenbank-zu-Ontologie-Zuordnungsmuster in RDB2OWL Lite Wir beschreiben die RDB2OWL Lite-Sprache für die Mapping-Spezifikation von relationalen Datenbanken zu RDF/OWL und diskutieren die Architektur- und Inhaltsspezifikationsmuster, die bei der Mapping-Definition entstehen. RDB2OWL Lite ist eine Vereinfachung des ursprünglichen RDB2OWL mit Aggregationsmöglichkeiten und entfernten reihenfolgebasierten Filtern und bietet gleichzeitig Möglichkeiten zur Definition von SQL-Ansichten im Mapping. Die Mapping-Konstrukte und ihre Nutzungsmuster werden an Mapping-Beispielen aus dem medizinischen Bereich illustriert: Arzneimittelregister und Krankenhausinformationssystem. Die Mapping-Implementierung von RDB2OWL Lite wird sowohl über die Übersetzung in D2RQ als auch in Standard-R2RML-Mapping-Notationen angeboten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-40180-5_3 e873caef20137203e40a8aaea19630ef;de;;;2.1.;;;Ontologie-Zusammenführung als soziale Wahl Das Problem der Zusammenführung mehrerer Ontologien hat wichtige Anwendungen im Semantic Web, in der medizinischen Ontologietechnik und in anderen Bereichen, in denen Informationen aus mehreren unterschiedlichen Quellen auf kohärente Weise integriert werden müssen. Wir schlagen vor, die Ontologie-Verschmelzung als ein Problem der sozialen Wahl zu behandeln, d. Wir tun dies für den Fall von Ontologien, die mit Beschreibungslogiken modelliert werden. Konkret formulieren wir eine Reihe wünschenswerter Eigenschaften für Ontologie-Zusammenführungsverfahren, identifizieren die Inkompatibilität einiger dieser Eigenschaften und definieren und analysieren mehrere konkrete Verfahren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22359-4_12 397cdde785176ab49347491dbcf01f03;de;;;2.1.;;;Ein ontologiegestützter Ansatz zur Modellierung von Geschäftsprozessen Farbige Petrinetze (CPNs) haben eine formale Semantik und können jede Art von Workflow-System beschreiben, verhaltens- und syntaktisch gleichzeitig. Sie werden umfassend untersucht und erfolgreich bei der Modellierung von Arbeitsabläufen und Arbeitsablaufsystemen angewendet. Es gibt ein inhärentes Problem in Bezug auf Geschäftsprozesse, die mit der gemeinsamen Nutzung von CPNs modelliert werden, und deren Wiederverwendung muss in Betracht gezogen werden. Die Semantic-Web-Technologien wie Ontologien zeigen mit ihren Eigenschaften, dass sie in diesem Szenario eine wichtige Rolle spielen können. In diesem Beitrag schlagen wir einen ontologischen Ansatz zur Darstellung von Geschäftsmodellen in einer Meta-Wissensbasis vor. Zunächst wird die CPN-Ontologie so definiert, dass sie CPNs mit OWL DL darstellt. Zweitens stellen wir vier grundlegende Arten von Manipulationsoperationen an Prozessmodellen vor, die verwendet werden, um Geschäftsworkflowmuster zu entwickeln und zu ändern. Nach unserem besten Wissen ist die Darstellung von Geschäftsprozessdefinitionen und Geschäftsablaufmustern als Wissen basierend auf Ontologien ein neuartiger Ansatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06932-6_14 75f12de524642e681b5f887ff9f96514;de;;;2.1.;;;Entwicklung von SBVR-Vokabularen und Geschäftsregeln aus OWL2-Ontologien Semantics of Business Vocabulary and Business Rules (SBVR) ist ein von der OMG übernommenes Metamodell, das es ermöglicht, Substantivkonzepte, Verbkonzepte und Geschäftsregeln einer Problemdomäne in strukturierter natürlicher Sprache basierend auf formaler Logik zu definieren. SBVR-Geschäftsvokabular und Geschäftsregeln sind in der Lage, Ontologien darzustellen. Es gibt einige Forschungsarbeiten, die sich der Transformation von SBVR in die Web Ontology Language OWL2 widmen. Der umgekehrte Weg zur Darstellung von Ontologiekonzepten mit strukturierter SBVR-Sprache wurde nicht untersucht, obwohl es viel mehr Ontologien als SBVR-Vokabulare gibt. Unsere Forschung konzentriert sich auf die Methodik zur Erstellung von SBVR-Vokabularen und -Regeln aus OWL2-Ontologien ohne Verlust der für Ontologien charakteristischen Ausdruckskraft, da einige ontologiespezifische Konzepte keine direkte Darstellung in SBVR haben. Besondere Aufmerksamkeit wird der Anwendung des SBVR-Vokabulars bei der semantischen Suche gewidmet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41947-8_13 65bce9682dd2fc152abd33e800f5879f;de;;;2.1.;;;Ein Expertensystem zur Diagnose und Behandlung von Bluthochdruck basierend auf Ontologie Die Ontologietheorie wird in verschiedenen Bereichen, einschließlich der medizinischen Forschung, häufig verwendet. Darüber hinaus nimmt die Zahl der Patienten mit Bluthochdruck in China derzeit zu, und Bluthochdruck ist der Hauptrisikofaktor für das Auftreten und sogar den Tod von Herz-Kreislauf- und zerebrovaskulären Erkrankungen. Diese Arbeit entwirft und implementiert ein Expertensystem zur Diagnose und Behandlung von Bluthochdruck basierend auf der Ontologietheorie. Das System baut zunächst eine diagnostische Wissensdatenbank auf, die sich auf maßgebliche Literatur bezieht, erstellt eine Hypertonie-Ontologie von Protégé, verwendet die SWRL-Semantic-Web-Regelsprache, um die Inferenzregeln zu bearbeiten, und begründet dann die Hypertonieniveaus und die Medikamentenrisikohierarchie des Patienten und die entsprechende Medikamentenanwendungsstrategie durch mit Jess Argumentationsmaschine. Das Expertensystem für die Diagnose und Behandlung von Bluthochdruck kann Fälle sammeln und sie in einer Wissensbibliothek speichern, um die Wiederverwendung von Wissen zu realisieren und die diagnostische Effizienz zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2829-9_24 10d7167d77131ba62ddf1cd0cd14d33a;de;;;2.1.;;;Effiziente Projektion von Ontologien In kollaborativen und interoperablen Informationssystemen ist es häufig erforderlich, eine Teilmenge einer Ontologie zu exportieren, insbesondere alle Instanzen und Axiome, die von einer Shared Domain Ontologie subsumiert werden, zu exportieren. Technisch kann dies realisiert werden, indem die Abox-Axiome der privaten Instanzen mit einem Reasoner auf das Vokabular der gemeinsam genutzten Ontologie projiziert werden. Wir zeigen, dass die direkte Anwendung dieser Methode zu einem sehr redundanten Export führt. Daher schlagen wir Methoden vor, um auf effiziente Weise einen viel kleineren äquivalenten Export zu generieren. Diese Methoden basieren auf einer eingehenden Analyse der Eigenschaften von Axiomensätzen, die verwendet werden können, um Redundanzen während des Exportprozesses effizient zu filtern und Methoden bereitzustellen, um Redundanzen im Ergebnis weiter zu minimieren. Wir bewerten die Leistung und den Grad an Minimalität, die mit unserem Ansatz mit Standard-Benchmarking-Ontologien mit großen Aboxen und einem Anwendungsfall aus dem biomedizinischen Bereich erreicht werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41030-7_48 693e5b1498be9aeb2817fee51c5187ff;de;;;2.1.;;;Eine praktische Untersuchung der Ontologie-Interoperabilität ISO Common Logic (CL, ISO/IEC 24707:2007) bietet dem Semantic Web (SW) eine neue und leistungsstarke Dimension bei der effektiven Erkennung, Automatisierung, Integration und Wiederverwendung über Anwendungen, Daten und Wissen hinweg. Der Beitrag zeigt, wie es möglich ist, eine solche Interoperabilität anhand von Beispielprojekten im kleinen Maßstab zu untersuchen. Da Conceptual Graphs (CG) eine Schlüsseltechnologie in CL ist, haben wir uns auf die Amine CG-Software und für die SW auf die Protégé OWL-Software konzentriert, um die möglichen Zuordnungen zwischen Ontologien, die in OWL und in Amin erfasst werden, zu untersuchen. Durch diese praktische Übung konnten die Dimensionen und das Ausmaß der gewünschten Interoperabilität demonstriert werden. Dieses kleine, aber bedeutende Experiment lieferte einen praktischen Einblick, wie CG Tools tatsächlich zusammenarbeiten können, um das übergeordnete Ziel der Ontologie-Interoperabilität zwischen CL und der SW zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03079-6_19 5011f267d57c4d539d719b97082d6a3d;de;;;2.1.;;;Strategien Vorhersage und Kombination von Multi-Strategy Ontology Mapping Die meisten aktuellen Ontologie-Mapping-Verfahren können unterschiedliche Mapping-Aufgaben nicht auf unterschiedliche Weise in Bezug auf die Merkmale der Eingabe-Ontologie behandeln. Und sie kombinieren verschiedene Mapping-Strategien, ohne die Einflüsse von Mapping-Strategien auf die Mapping-Ergebnisse vollständig zu berücksichtigen. Angesichts der obigen Fragen schlägt dieses Papier ein Verfahren zur Auswahl einer dynamischen Abbildungspolitik vor, das eine Abbildungsstrategie vorauswählen und eine Entropieentscheidungsmethode verwenden kann, um das kombinierte Gewicht der ausgewählten Strategie zu bestimmen. Experimente zeigen, dass diese Methode die Stabilität und die Gemeinsamkeit aufrechterhalten und gleichzeitig die Recall-Ratio und die Precision Ratio verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16339-5_29 3ccb75f6e14b41dde51203af36cdc2dd;de;;;2.1.;;;Ontologiebasierte Abfrageerweiterung auf drei Ebenen für die Suche In diesem Papier schlagen wir das Schema der 3-Schicht-Domain-Ontologie vor. Die Entity-Relation, das Entity-Attribut-Paar und die textuelle Beschreibung sind jeweils in Schichten verteilt. Basierend auf der 3-Schicht-Ontologie haben wir 4 Methoden zur Erweiterung von Abfragen vorgeschlagen: Top-Down-Erweiterung, Synonym-Erweiterung, Bottom-Up-Erweiterung und Backtracking-Erweiterung. Eine Reihe von Experimenten wird durchgeführt, um die Expansionsmethoden zu beweisen. Unterschiedliche Ergebnisse zeigen, dass die Expansionsmethoden insgesamt effektiv sind, und wir analysieren die Knappheit unserer Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21111-9_70 3d1b7b63dbe7789eb4bb474bbd041119;de;;;2.1.;;;Verbesserung der Qualität der Filmempfehlung durch kontextbezogenes ontologisches Nutzerprofil Heutzutage haben das Internet und die Cloud-Computing-Technologien es ermöglicht, Filme jederzeit und überall in einer größeren Vielfalt und Auswahl zu genießen. Als Ergebnis wird man überfordert sein und dazu neigen, schlechte Entscheidungen zu treffen. Die zunehmenden On-Demand-Filmdienste motivieren zu mehr Auswahl der angebotenen Programme und die Benutzer benötigen ein Empfehlungssystem, um ihnen kontextbezogene und personalisierte Vorschläge zu liefern. Dieses Papier schlägt vor, kontextbezogenes ontologisches Benutzerprofil für Filmempfehlungen zu verwenden, das die Personalisierung bei der Verbesserung der Wirksamkeit der Empfehlungen berücksichtigt. Wir haben die Leistung unserer vorgeschlagenen Lösung mit wenigen Szenarien bewertet, die Probleme darstellen, die sich aus traditionellen kollaborativen und inhaltsbasierten Empfehlungen ergeben. Diese Probleme sind Kaltstart, Datenknappheit, Überspezialisierung, graue Schafe und Ineffizienz. Evaluierungsergebnisse und Analysen zeigen, dass die vorgeschlagene Arbeit nicht nur diese Probleme lösen kann, sondern auch kompetent ist, das Problem der Skalierbarkeit und Ineffizienz zu mildern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9563-6_32 e1aadd9bcd7cd5d8524bf34663fb4598;de;;;2.1.;;;Effiziente Modulextraktion für große Ontologien Die Modularität von Ontologien hat aufgrund ihrer Anwendung in der Ontologie-Betrachtung, Ontologie-Wiederverwendung und anderen Bereichen des Ontologie-Engineerings an Bedeutung gewonnen. Eine Technik zum Extrahieren von Modulen ist die Verwendung von Atomic Decomposition (AD). Dieses Papier verwendet MGS-Labels (Minimal Globalizing Signatures), um den State-of-the-Art-Ansatz zu verbessern, der MSS-Labels (Minimal Seed Signatures) in Bezug auf Vorverarbeitungszeit und Speicherbedarf verwendet. Es verbessert auch die Extraktionszeit des Moduls, indem es im schlimmsten Fall die Anzahl der Containment-Prüfungen reduziert. Wir verbessern den Algorithmus weiter, indem wir den Begriff des MGS-Raums einführen. Wir schlagen Eindeutigkeitseigenschaften über MGS-Space vor, die uns helfen, Indizes zu erstellen und Module mit einfachen Operationen auf Ganzzahlen zu extrahieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41360-5_13 ab86dcec41158839c4f2fcac6328449c;de;;;2.1.;;;- Eine Prozess- und Beobachtungs-Ontologie in der Lebensmittelwissenschaft. Anwendung auf Milchgele Dieser Beitrag konzentriert sich auf die Wissensrepräsentationsaufgabe für ein interdisziplinäres Projekt namens Delicious zu Produktions- und Transformationsprozessen in der Lebensmittelwissenschaft. Die Originalität dieses Projekts besteht darin, Daten aus verschiedenen Disziplinen wie Nahrungszusammensetzung, Nahrungsstruktur, Sinneswahrnehmung und Ernährung zu kombinieren. Verfügbare Datensätze werden mit unterschiedlichen Vokabulare beschrieben und in unterschiedlichen Formaten gespeichert. Daher ist es notwendig, eine Ontologie zu definieren, genannt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49157-8_13 7b8600d296de2512b868a09e37111936;de;;;2.1.;;;Ontologiegesteuerter Einkaufswagen und seine vergleichende Analyse Design Patterns sind formale Lösungen für häufig auftretende Designprobleme in der Softwareentwicklung. Compound Patterns sind eine Verschmelzung von zwei oder mehr individuellen Design Patterns. Trotz ihrer Vorteile haben sie gewisse Einschränkungen in Form von Kopplung, erhöhter Abhängigkeit zwischen Klassenhierarchien und einigen anderen. In diesem Beitrag präsentieren wir eine vergleichende Analyse zwischen dem ontologiegetriebenen Compound Pattern und ihrer klassischen GOF (Gang of Four) Version. Wir haben eine Warenkorb-Anwendung implementiert, die auf einem zusammengesetzten Muster aus Besucher-, Beobachter- und Strategiemustern basiert. Wir haben dann dieselbe Anwendung basierend auf einer ontologiegesteuerten Version des zusammengesetzten Musters implementiert und dann die beiden Designs verglichen. Wir haben festgestellt, dass der ontologische Ansatz in Bezug auf Modifizierbarkeit und Wartbarkeit gewisse Vorteile gegenüber dem ersteren hat. Die auf einem ontologiegesteuerten Entwurfsmuster basierende Anwendung passt sich sogar an einige Änderungen an, die während der Laufzeit vorgenommen werden. Die Endbenutzer können Änderungen an der ontologiegesteuerten Anwendung vornehmen und somit ihr Verhalten während der Laufzeit insgesamt ändern. In beiden Anwendungen haben wir einige Modifikationen während der Nicht-Laufzeit bedingt durchgeführt und konnten überzeugende Ergebnisse erzielen. Wir haben festgestellt, dass der Zeit- und Arbeitsaufwand für die Erweiterung der Anwendung in der Ontologie-Version viel geringer ist als in der GOF-Version.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-6544-6_16 8f77a603392c1e9d5738f871f952b2ca;de;;;2.1.;;;Gamification kollaborativer Lernszenarien: Strukturieren von Überzeugungsstrategien mit Spielelementen und Ontologien Diese Arbeit präsentiert ein ontologisches Modell zur formalen Systematisierung und Repräsentation von Wissen, das Konzepte aus der Gamification und deren Einsatz als Persuasive Technology (PT) in Collaborative Learning (CL) Szenarien beschreibt. Dieses Modell ermöglicht die Schaffung intelligenter Systeme, die die Gamifizierungstechniken in Gruppenlernkontexten personalisieren und anwenden können, in denen die skriptgesteuerte Zusammenarbeit die Motivation und das Engagement der Schüler verringert. Unser Ansatz schlägt daher vor, die Verbindung von Konzepten aus Theorien und Modellen zum Design von PT zu formalisieren, um gamifizierte CSCL-Skripte zu spezifizieren, die Schüler dazu bewegen, einem beabsichtigten Lernverhalten bereitwillig zu folgen. Um die Anwendbarkeit unseres Ansatzes zu demonstrieren, präsentieren wir auch eine Fallstudie, die zeigt, wie unser ontologisches Modell in einem intelligenten theoriebewussten System verwendet werden könnte, um besser personalisierte gamifizierte CL-Szenarien zu erstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-39672-9_2 f28b7d4a5aa543263163ea4a4ad73ad8;de;;;2.1.;;;Die Ontologie der Hafengeschichte Dieser Beitrag stellt eine Referenzontologie namens PHO (Port History Ontology) als Ergebnis eines multidisziplinären Forschungsprojekts im Bereich Digital Humanities (History of Science and Technology oder HST) und Knowledge Engineering vor. Die PHO-Ontologie basiert hauptsächlich auf dem HST-PORT-Modell, das die räumlich-zeitliche Entwicklung von Ports (aus den digitalen Geisteswissenschaften) und die Spezialisierung der CIDOC-CRM-Ontologie darstellt. Um Generizität und Wiederverwendbarkeit zu gewährleisten, stützt sich unsere Ontologie auf Fallstudien zur vergleichenden Geschichte der Häfen von Brest (Frankreich), Mar del Plata und Rosario (Argentinien).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67162-8_36 910abc7ce9b56d32b29f108ec0a4446f;de;;;2.1.;;;Automatische Generierung von Human Resources Ontology aus den Daten einer E-Recruitment-Plattform In den letzten zehn Jahren wurden mehrere E-Recruiting-Plattformen entwickelt, die es den Nutzern ermöglichen, ihre beruflichen Informationen (Ausbildung, beruflicher Werdegang, Karrierezusammenfassung usw.) zu veröffentlichen. Allerdings ist die Darstellung dieser riesigen Menge an Wissen noch begrenzt. In dieser Arbeit stellen wir eine Methode vor, die auf Techniken der Community-Erkennung und der Verarbeitung natürlicher Sprache basiert, um eine Humanressourcen-„HR“-Ontologie zu generieren. Die im Generierungsprozess verwendeten Daten sind Benutzerprofile, die von der algerischen E-Recruiting-Plattform abgerufen wurden;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71903-6_10 f938b66dd388891bc4659a6b951d3fae;de;;;2.1.;;;Zur ontologischen Darstellung und Begründung von Nachrichten Die meisten Forschungsarbeiten zum Thema News Mining umfassen heutzutage Phrasen- und Themenebene. Einige auf logischer Ebene durchgeführte Arbeiten konzentrieren sich hauptsächlich auf personalisierte Nachrichtendienste, und es werden keine besonderen Anstrengungen auf die Anwendung von Ontologietechniken beim Deep News Mining unternommen. In diesem Papier demonstrieren wir eine ganze Strategie für ein tiefes Verständnis ereignisorientierter Nachrichten unter Nutzung der Ontologie-Repräsentation und Ontologie-Argumentation. Wir schlagen ein ontologieangereichertes Nachrichten-Deep-Verständnis-Framework ONDU vor, das die folgenden Probleme anspricht: (1) wie man geparste Nachrichteninhalte in logische Tripel überführt, indem man Domänenontologie verwendet. (2) Die Anwendung von ONDU basierend auf den Argumentationsergebnissen des Ontologie-Begründers TrOWL über die RDF-Daten, die die Nachrichten ausdrücken. Durch diese gesamte Strategie können wir die Inkonsistenz zwischen mehreren Nachrichtenartikeln erkennen und die verschiedenen Informationen vergleichen, die in verschiedenen Nachrichten enthalten sind. Wir können sogar eine Reihe von Nachrichteninhalten integrieren, indem wir die RDF-Daten zusammenführen. Das empirische Experiment mit Nachrichten aus mehreren Portalen zeigt die Wirksamkeit und Nützlichkeit unserer Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54025-7_16 f1e4360044eebd515ce447b79bb8a566;de;;;2.1.;;;Grafische Schnittstelle für Ontologie-Mapping mit Anwendung zur Zugangskontrolle Die Verbreitung intelligenter, vernetzter Geräte stellt neue Herausforderungen an den Datenzugriff und die Datenschutzkontrolle. Feinkörnige Zugriffskontrollrichtlinien sind in der Regel komplex, schwer zu warten und eng an die interne Struktur der verarbeiteten Informationen gebunden. Wir diskutieren daher, wie semantische Inferenz zusammen mit einem intuitiven Ontologie-Management-Tool verwendet werden kann, um die Verwaltung von Richtlinien für die attributbasierte Zugriffssteuerung zu vereinfachen, selbst für Benutzer, die mit semantischen Technologien nicht vertraut sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-54472-4_5 0c21b3253a869700bb1c2519bd549e48;de;;;2.1.;;;Bereitstellung einer Grundlage für Benutzerfeedbackkonzepte durch Erweiterung einer Kommunikationsontologie Der Begriff Benutzerfeedback wird in der Requirements Engineering (RE)-Forschung immer häufiger verwendet, um sich auf die Kommentare und Bewertungen zu beziehen, die Benutzer äußern, wenn sie die Nutzung einer Softwareanwendung oder eines Dienstes erlebt haben. Dieses explizite Feedback findet in virtuellen Räumen (z. B. Issue-Tracking-Systemen, App-Stores) statt, um beispielsweise entdeckte Fehler zu melden oder neue Funktionen anzufordern. Das Begründen des Konzepts des expliziten Benutzerfeedbacks mit der Verwendung einer Ontologie kann ein tiefes Verständnis des Feedbackcharakters unterstützen und zur Entwicklung von Werkzeugkomponenten für deren Analyse beim Einsatz von Anforderungsanalysten beitragen. In diesem Beitrag stellen wir eine User-Feedback-Ontologie als Erweiterung einer bestehenden Kommunikationsontologie vor. Wir beschreiben, wie wir es erstellt haben, zusammen mit einer Reihe von Kompetenzfragen und veranschaulichen seine Anwendbarkeit an einem Beispiel aus einer kollaborativen Kommunikation im Zusammenhang mit RE für die Softwareentwicklung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12206-9_25 c1171b7898c88053f8392779da21f8a4;de;;;2.1.;;;Das Framework zur Schätzung des Wissenszuwachses für die Integration der Beziehungen von Ontologieinstanzen Die Forschungen der Vorautoren haben gezeigt, dass es nicht nur möglich, sondern auch gewinnbringend ist, ein potenzielles Wachstum eines Wissensstandes abzuschätzen, der bei einer Integration von Ontologien auftritt. Eine solche Schätzung kann vor der eventuellen Integrationsprozedur (oder zumindest während einer solchen) durchgeführt werden, was sie noch wertvoller macht, da sie die Entscheidung ermöglicht, ob eine bestimmte Integration überhaupt durchgeführt werden sollte. Bisher haben die Autoren dieser Arbeit einen formalen Rahmen erstellt, mit dem der Wissenszuwachs auf der Ebene von Konzepten, Instanzen und Beziehungen zwischen Konzepten abgeschätzt werden kann. Dieser Beitrag widmet sich der Ebene der Beziehungen zwischen Instanzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-97571-9_15 8d44fa64df5662b0205c866b188e5050;de;;;2.1.;;;Intelligente Entscheidungsunterstützung im Management von Großsystemen durch fallbasiertes, regelbasiertes und qualitatives Denken über Ontologien Der aktuelle Trend in der intelligenten Entscheidungsunterstützung ist eine Integration verschiedener Wissensrepräsentationsmodelle und Argumentationsmechanismen, die eine Verbesserung der Qualität und Effizienz der erhaltenen Entscheidungen ermöglicht. In diesem Beitrag präsentieren wir einen ontologiebasierten Ansatz zur intelligenten Unterstützung der Entscheidungsfindung beim Management großer Systeme mit fallbasierter, regelbasierter und qualitativer Argumentation. Ein Konzept der Integration von Argumentationsmechanismen impliziert, dass fallbasiertes Denken (CBR) die Rolle des führenden Argumentationsmechanismus übernimmt, während regelbasiertes (RBR) und qualitatives Denken (QR) die verschiedenen Phasen des CBR-Zyklus – Anpassung und Revision Phasen bzw. Das Papier beschreibt einen modifizierten CBR-Zyklus und ein ontologisches Wissensrepräsentationsmodell, das das vorgeschlagene Konzept der Argumentationsintegration unterstützt. Zur Überarbeitung der Falllösung wurde ein formales qualitatives Entscheidungsmodell entwickelt, das die folgenden Komponenten umfasst: Systemzustandsmodell, Aktionsmodell und Bewertungsmodell. Eine ontologische Darstellung des qualitativen Modells wurde zur Integration mit dem strukturellen Fallmodell in einer ontologischen Wissensbasis vorgeschlagen. Die Umsetzung des vorgeschlagenen Ansatzes wird durch eine Reihe von Beispielen zur Entscheidungsunterstützung in verschiedenen Themenbereichen veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-65551-2_24 291734a59165e2e98fca89ae86af0841;de;;;2.1.;;;Zellulolytische thermophile Pilze Die enzymatische Ausrüstung von Pilzen zum Abbau von Cellulose ist sehr variabel, von einfachen Systemen, die im Wesentlichen aus Cellulasen bestehen, die nur amorphe Cellulose hydrolysieren können, bis hin zu komplexeren Mehrkomponentensystemen, deren Elemente synergistisch auf native kristalline Cellulose wirken, um ihre vollständige Solubilisierung zu bewirken. Folglich können Pilze, die mit solch komplexen Systemen ausgestattet sind, auf reiner Cellulose als Kohlenstoffquelle wachsen und werden daher als wirklich cellulolytisch angesehen (125). Von den thermophilen Pilzen hat sich gezeigt, dass einige auf reiner kristalliner Cellulose gedeihen und eine Reihe von Enzymen absondern, die ebenfalls aktiv sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-9206-2_6 7c92167061c5cb362998b49f437dde2a;de;;;2.1.;;;QoS-PN-Ontologiemodell für die Dienstauswahl Um das bestehende QoS-Modell (Quality of Service) zu beheben, wird der Mangel an Beschreibungen zur dynamischen Änderung von Attributen sowie zur Benutzerpersonalisierung QoS-PN, ein neues Ontologiemodell für QoS, vorgestellt, um Benutzern eine gemeinsam nutzbare und einheitliche Servicequalität zu bieten Beschreibungsrahmen. Durch die Einführung der Benutzerpersonalisierungsklasse und der Statusklasse. Das QoS-PN-Modell kann die personalisierten Anforderungen des Benutzers und dynamische Änderungen von Attributen rational beschreiben, die das Problem der Dienstzuverlässigkeit und Dienstpersonalisierungsanforderung lösen. QoS-PN wird als Ontologiemodell mit drei Schichten beschrieben: QoS-Konfigurationsschicht, QoS-Attributschicht und QoS-Metrikschicht. QoS-PN kann detaillierte Informationen in Bezug auf QoS-Attribute, Metrikmethoden, QoS-Attributwerte und Einheiten für die QoS beschreiben, was die Genauigkeit der Dienstübereinstimmung verbessert. Ein Beispiel für eine Reiseroutenabfrage wird vorgestellt, um die Durchführbarkeit des QoS-PN-Modells zu zeigen. Empirische Ergebnisse zeigen, dass dieses Modell eine reichhaltige semantische Beschreibung unterstützt und stark erweiterbar ist. Die Stabilität und Genauigkeit des ausgewählten Dienstes werden effektiv verbessert, wenn das QoS-PN-Modell zum Beschreiben von QoS-Informationen verwendet wird. Das QoS-PN verbessert die Beschreibungsfähigkeit für QoS-Informationen und die Beschreibung dynamischer Attribute und Personalisierung wurde erweitert. Das Problem der QoS-Stabilität und der Benutzerpersonalisierung bei der Dienstauswahl ist gelöst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-14680-1_57 7e1087b49b03097d3e5f8950aaa05ca5;de;;;2.1.;;;Ontologieorientierte Speicherung, Abruf und Interpretation für ein dynamisches Kartensystem In diesem Beitrag wird das Dynamic Map-System vorgestellt, eines der Schlüsselprodukte des INSIGMA-Projekts. Das Hauptaugenmerk liegt auf dem Karten- und dynamischen Datenspeicher-Subsystem, das eine räumliche Datenbank nutzt und auf Ontologien basiert. Zunächst werden die verwendeten Datenmodelle beschrieben, einschließlich der OpenStreetMap-basierten Struktur für die statische Karte und der ontologiegetriebenen Struktur für dynamische Parameter und Ereignisse. Der Ansatz zur Generierung von Datenbankstrukturen aus OWL wird ausführlich beschrieben, gefolgt von Beschreibungen des OSM-Importprozesses, des GPS-Tracker-Moduls, des Sensor-State-Analyzers und des Event-Interpreters. Abschließend werden die geplanten zukünftigen Erweiterungen skizziert und diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30721-8_37 53d43cd7edd25ba572f176a90f505cad;de;;;2.1.;;;Petri-Net-Darstellung von Ontologien für Indoor Location Based Services Dieses Papier präsentiert eine Petrinetz-Darstellung einer Ontologie für standortbasierte Dienste in Innenräumen. Die Ontologie wird im Resource Description Framework (RDF) beschrieben. Daher schlägt dieses Papier eine Methode zur Transformation des RDF-Modells in ein CPN (farbiges Petrinetz) vor. Das vorgeschlagene Verfahren stellt die Semantik des RDF-Modells im CPN dar, indem es die Klassen und Eigenschaften des RDF-Modells auf CPN-Orte abbildet und die Beziehungen zwischen diesen Klassen und Eigenschaften als Token-Übergänge im CPN darstellt. Um eine RDF-Anweisung im CPN darzustellen, führt das Verfahren einen Übergang ein, der ein (komplexes) Token erzeugt, das aus zwei geordneten (einfachen) Token besteht: eines entspricht dem Subjekt und das andere entspricht dem Objekt der Anweisung. Unter Anwendung der vorgeschlagenen Methode erstellen wir ein Beispiel-CPN für ein RDF-Modell und führen Simulationen mit dem Modell durch, um RDF-Anfragen zu beantworten. Dieses Dokument stellt auch eine einfache Ontologie für einen standortbasierten Dienst in Innenräumen vor. Mit der vorgeschlagenen Transformationsmethode transformieren wir die Ontologie in ein CPN. Schließlich stellen wir unseren Inferenzalgorithmus für das CPN und ein prototypisches Datenbanksystem vor, um die Praktikabilität unserer Methode zu demonstrieren. Die Ergebnisse zeigen, dass das vorgeschlagene Datenbanksystem die semantischen Mehrdeutigkeiten in der Abfrage unter Verwendung der Ontologie auflösen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27180-9_52 4e3b3f1d1ecc82ce8eaea486b94ed346;de;;;2.1.;;;Object-UOBM: Ein ontologischer Benchmark für objektorientierten Zugriff Obwohl viele Anwendungen, die auf marktreifen Ontologiespeichern aufbauen, generisch sind und nicht von der jeweiligen Anwendungsdomäne abhängig sind, bevorzugen die meisten Benutzer Anwendungen, die auf ihre spezielle Aufgabe zugeschnitten sind. Solche Anwendungen werden typischerweise unter Verwendung eines objektorientierten Paradigmas erstellt, das anders auf Daten zugreift als generische Anwendungen. In diesem Papier definieren wir einen Benchmark bestehend aus einer Ontologie und ontologischen Abfragen, die darauf zugeschnitten sind, die Eignung von ontologischen Speichern für den objektorientierten Zugriff zu testen. Wir präsentieren Ergebnisse von Experimenten an mehreren modernen ontologischen Speichern und diskutieren deren Eignung für den objektorientierten Anwendungszugriff.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24543-0_10 b52c74baafeb728b66a4ab7271ecd508;de;;;2.1.;;;Repräsentations- und Argumentationsmethode für Toleranzinformationen basierend auf Ontologie Um das Spezifikationsdesign der Toleranz zu erreichen, wurden die Informationen der Montagetoleranz ausgedrückt und auf der Grundlage der Ontologietheorie begründet. Das Ausdrucksmodell der Toleranzontologie wurde konstruiert und die Konstruktionsregeln der Toleranzspezifikation in SWRL ausgedrückt, das Algorithmusflussdiagramm der automatischen Toleranzverarbeitung von wurde angegeben, schließlich wurde das Verfahren am Beispiel eines zweistufigen Stirnrad-Stirnradretarders verifiziert .;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3648-5_227 39c7d7e14c1b2dfca08f53ab4df286a1;de;;;2.1.;;;Halbautomatischer Aufbau von Luftverschmutzungsdomänen-Ontologie Die Luftverschmutzung ist in China zu einem erheblichen Umweltproblem geworden, das die menschliche Gesundheit ernsthaft beeinträchtigt. Um den Zusammenhang zwischen Luftschadstoffen, Schadstoffquellen, Einflussfaktoren, Bewertungsindikatoren und Schäden zu klären, ist der Aufbau einer Domänenontologie für Luftverschmutzung unerlässlich. Domänenontologien wurden nach und nach als Methode akzeptiert, um die Beziehung zwischen Begriffen anzuzeigen. Es gibt jedoch keine vollständige Ontologie im Bereich der Luftverschmutzung, und die manuelle Erstellung von Domänenontologien ist zeitaufwändig und unbequem. In diesem Beitrag wird ein halbautomatischer Ansatz vorgestellt, um eine Ontologie im Bereich der Luftverschmutzung aufzubauen. Dieses Papier schlägt eine Methode der gemeinsamen Extraktion von Entitätsbeziehungen vor, die auf einem Aufmerksamkeitsmechanismus basiert, die mit der Methode des Core Concept Mining kombiniert wird, um Wissen zu extrahieren, und dann werden Konzepte, Beziehungen und relevante Instanzen in Hierarchie organisiert. Schließlich wird das Ontologiemodell halbautomatisch aufgebaut und auch semantische Inferenz durchgeführt. Die Forschung zeigt, dass diese Methode der Wissensextraktion die Fehlerakkumulation durch Entitätserkennung und Beziehungsextraktion vermeiden und die innere Verbindung zwischen ihnen vertiefen kann und eine große Menge an effektivem Wissen im Bereich der Luftverschmutzung extrahiert werden kann. Darüber hinaus kann die nach dieser Methode erstellte Ontologie auch den Zusammenhang zwischen verschiedenen Klassen und Konzepten im Bereich der Luftverschmutzung visuell analysieren, den Schadstoffausbreitungspfad ableiten und praktische Erfahrungen für die halbautomatische Ontologiekonstruktion in anderen Bereichen und Daten liefern Unterstützung für weitere Forschungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3250-4_10 de28105e706f0329bd4e198c7b12f6ee;de;;;2.1.;;;Verarbeitung von Zeitplänen mit verteilten Ontologien im Semantic Web Das Semantic Web verwendet formale verteilte Ontologien, um Beziehungen zwischen Konzepten in der realen Welt darzustellen. Ein strukturiertes Framework wie dieses ermöglicht es Agenten, veröffentlichtes Wissen zu lesen und zu argumentieren, ohne dass Scraper, Informationsagenten und zentralisierte Ontologien erforderlich sind. Um jedoch Informationen verarbeiten zu können, muss ein Agent mit der zugrunde liegenden Ontologie vertraut sein, die zum Markieren dieser Informationen verwendet wird. Es kann jedoch nicht erwartet werden, dass ein einzelner Agent mit allen möglichen Ontologien vertraut ist, die im Semantic Web verfügbar sein können. Daher ermöglichen Übersetzungsdienste, die in zuvor unbekannten Ontologien definierte Konzepte in bekannte Konzepte umwandeln, Agenten, die verfügbaren Informationen zu verstehen und somit ihr Ziel zu erreichen. Diese Transformation kann durch Aufrufen spezifischer Markup-Übersetzungsdienste oder durch logisches Denken durch andere gemeinsam genutzte Ontologien erreicht werden. Der RETSINA Calendar Agent (RCal) ist ein Distributed Meeting Scheduling Agent, der im Semantic Web markierte Zeitpläne verarbeitet und in den Personal Information Manager des Benutzers importiert. Übersetzungsdienste, die verwendet werden, um unbekannte Konzepte in bekannte Konzepte zu übersetzen, die unter Verwendung eines DAML-S-basierten Diensterkennungsmechanismus lokalisiert werden. In diesem Papier stellen wir RCal vor und zeigen, wie es sinnvolles Wissen aus dem semantischen Markup extrahiert und nutzt. Darüber hinaus beschreiben wir, wie Web-Service-Discovery-Mechanismen verwendet werden, wenn auf neue Konzepte gestoßen wird.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36189-8_16 22546dfad82342684c746383cebb605a;de;;;2.1.;;;Ein graphenbasierter Ansatz zur inkrementellen Klassifikation in der OWL 2 QL-Ontologie In diesem Papier schlagen wir einen inkrementellen Argumentationsansatz für OWL 2 QL-Ontologien vor, indem wir eine Ontologie auf einen aktualisierbaren Digraphen abbilden, wobei dynamische transitive Schließung beibehalten wird, um eine inkrementelle Klassifizierung zu erhalten. Zuerst wandeln wir eine Ontologie in einen aktualisierbaren Digraphen um und schlagen dann ein Verfahren zum Aktualisieren des Ontologie-Digraphen für die spätere inkrementelle Klassifizierung vor. Zweitens entwickeln wir einen Algorithmus, um betroffene Pfade für eine inkrementelle Klassifizierung zu identifizieren. Schließlich implementieren wir unseren vorgeschlagenen Ansatz in einem Prototyp incR und evaluieren ihn dann auf weit verbreiteten Ontologien. Die Experimente zeigen, dass unser Ansatz zu einer Leistungssteigerung führt und die Techniken der modulbasierten inkrementellen Klassifizierung in OWL 2 QL-Ontologien übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7359-5_3 48566aa2957dc31d537f5e6c4e0bf324;de;;;2.1.;;;Ontologie-erweiterte komponentenbasierte Workflows: Ein Framework zur Konstruktion komplexer Workflows aus semantisch heterogenen Softwarekomponenten Nahezu alle Bereiche menschlichen Handelns beinhalten Workflows – also die koordinierte Ausführung mehrerer Aufgaben. In der Praxis erfordert dies den Zusammenbau komplexer Workflows aus semantisch heterogenen Komponenten. In diesem Beitrag entwickeln wir ontologieerweiterte Workflow-Komponenten und semantisch konsistente Methoden zum Zusammenbau solcher Komponenten zu komplexen ontologieerweiterten komponentenbasierten Workflows. Das Ergebnis ist ein fundierter theoretischer Rahmen für die Zusammenstellung semantisch wohlgeformter Workflows aus semantisch heterogenen Komponenten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-31839-2_4 93a0b5b380bc91fc61da147f34964f28;de;;;2.1.;;;Ontologie-basierter Stücklistenmodellierungsansatz für Simulationsmodelle Es ist eine effiziente Methode zur Entwicklung von Modellen durch die Zusammensetzung wiederverwendbarer Komponenten. Erfolgreiche Zusammenstellung von Modellen bedeutet sowohl auf syntaktischer als auch auf semantischer Ebene korrekt. Das Basisobjektmodell (BOM) erleichtert und verbessert die semantischen Informationen des Simulationsmodells, und sein Zweck besteht darin, die Wiederverwendbarkeit und Zusammensetzung zu verbessern. Es gibt jedoch keine ausreichenden Informationen für den Stücklistenabgleich auf semantischer Ebene, da diese Stückliste keine umfassenden und klaren semantischen Informationen enthält. In diesem Artikel wird die Stücklisten-Ontologie erstellt, um die semantischen Informationen der Stückliste zu verbessern, wobei die Stückliste durch die Verwendung der Ontologie unverändert bleibt, und es wird ein iterativer Ansatz vorgeschlagen, um die Komplexität der Komposition zu reduzieren. Der Ansatz besteht im Wesentlichen aus drei Phasen: Transformation vom konzeptionellen Modell zum Ereignisklassifizierungsmodell, Modellsuche, Modellvergleich und Komposition. Schließlich demonstrieren wir dies durch ein einfaches Simulationssystem. Das Ergebnis zeigt, dass dieser Ansatz effektiv ist und die Zusammenstellung von Ontologien vereinfachen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34384-1_6 7f0823572ed68de46144007a2056a659;de;;;2.1.;;;Optimierung der Ontologie-Ausrichtungen durch evolutionären Algorithmus mit adaptiver Auswahlstrategie Aufgrund der Subjektivität verschiedener Ontologieingenieure kann ein Konzept auf unterschiedliche Weise ausgedrückt werden, was zum sogenannten Ontologie-Heterogenitätsproblem führt. Das Ontologie-Matching verwendet die Ähnlichkeitsmaße, um die Korrespondenz zwischen Entitäten in zwei Ontologien zu unterscheiden, was als eine praktikable Methode zur Lösung dieses Problems angesehen wird. Um eine genauere und vollständigere Ausrichtung zu erhalten, müssen verschiedene Arten von Ähnlichkeitsmaßen angemessen kombiniert werden, und wie die optimalen Aggregationsgewichte bestimmt werden, ist das sogenannte Ontologie-Meta-Matching-Problem. Der evolutionäre Algorithmus (EA) kann eine effektive Methode zur Lösung dieses Problems darstellen, aber aufgrund des Rückgangs der Populationsdiversität während des Entwicklungsprozesses leidet der konventionelle EA unter der vorzeitigen Konvergenz. Um diesen Nachteil zu überwinden, führen wir eine adaptive Selektionsstrategie ein. Durch die Überwachung der Variation der individuellen Fitness in der Population kann der Selektionsdruck dynamisch angepasst werden, um die Diversität der Population zu erhalten und so eine vorzeitige Konvergenz der Population zu vermeiden. Im Experiment vergleichen wir unseren Ansatz mit der ursprünglichen EA-basierten Ontologie-Matching-Technik und die experimentellen Ergebnisse zeigen die Wirksamkeit unseres Vorschlags.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-69717-4_88 7a1d0cd5b965678398b764fdd87d8efc;de;;;2.1.;;;Ontologie-Evolutionserkennung: Methode und Ergebnisse Die verteilten und dynamischen Eigenschaften des semantischen Webs führen dazu, dass sich Ontologien ständig ändern, was zu einer Evolution der Ontologie und zu verschiedenen Versionen von Ontologien führt. In der Ontologie-Evolution würden Änderungen an der Domäne, dem gemeinsamen konzeptionellen Modell und der Ontologie-Repräsentation auftreten, und dann würden sich diese Änderungen ausbreiten und die Semantik anderer Elemente beeinflussen. Dieser Artikel konzentriert sich auf die Erkennung der Ontologieentwicklung, die die Grundlage des Problems der Ontologieentwicklung darstellt. Zunächst wird ein auf Ähnlichkeit basierendes Evolutionsdetektionsverfahren vorgeschlagen. Dann wird auch die Strategie der minimalen Kosten der Evolution vorgeschlagen, um den angemessenen Evolutionsprozess wiederherzustellen. Experimentelle Ergebnisse zeigen, dass diese Methode bei OAEI-Benchmark-Datensätzen gut funktioniert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45495-4_12 0d03d3d585d6f1b4a289246c151983a9;de;;;2.1.;;;Ontologie spärlicher Vektorlernalgorithmus Ontologie als effizientes semantisches Modell wird in verschiedenen Bereichen der Ingenieurwissenschaften und der semantischen Ähnlichkeit weit verbreitet verwendet. Die Berechnung ist der Kern des Ontologiealgorithmus. Ontologie-Ähnlichkeitsberechnung über Sparse-Vektor, die für hochdimensionale Daten und Big-Data-Verarbeitung verwendet werden kann. In diesem Papier zeigten zwei Experimentergebnisse einen Algorithmus unter Verwendung der quadrierten Verlustfunktion, um den Fehlerterm auszudrücken. Schließlich zeigten zwei Experimentergebnisse die Effektivität unseres Ontologie-Sparse-Vektor-Lernalgorithmus für die Ontologie-Ähnlichkeitsberechnung in bestimmten technischen Anwendungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1648-7_3 24a4ea774b72d7a22f6bf32fab9a424e;de;;;2.1.;;;Ontologiebasierte Darstellung von Lernerprofilen für barrierefreie OpenCourseWare-Systeme Die Entwicklung barrierefreier Webanwendungen hat in den letzten Jahren aufgrund der weit verbreiteten Nutzung des Internets und der von Regierungen durchgesetzten Gleichstellungsgesetze erhebliche Aufmerksamkeit erlangt. Insbesondere in E-Learning-Kontexten spielt die Barrierefreiheit im Internet eine wichtige Rolle, da E-Learning oft inklusiv sein muss und alle Arten von Lernenden anspricht, auch solche mit Behinderungen. Es gibt jedoch immer noch keine umfassende formale Darstellung von Lernenden mit Behinderungen und ihren besonderen Anforderungen an die Barrierefreiheit in E-Learning-Kontexten. Wir schlagen die Verwendung von Ontologien vor, um Barrierefreiheitsbedürfnisse und -präferenzen von Lernenden darzustellen, um das Wissen zu strukturieren und auf die Informationen für Empfehlungen und Anpassungen in E-Learning-Kontexten zuzugreifen. Insbesondere haben wir die Konzepte der ACCESSIBLE-Ontologie wiederverwendet und um Konzepte des IMS Global Learning Consortiums erweitert. Wir zeigen, wie OpenCourseWare-Systeme basierend auf dieser Ontologie angepasst werden können, um die Barrierefreiheit zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-69548-8_19 67cbef8d880c579db56ec334c0c81001;de;;;2.1.;;;Integrieren von Update-Semantik in geografische Ontologien In diesem Beitrag wird eine systematische Technik beschrieben, mit der geographische Ontologien, Beschreibungen von Konzepten und Beziehungen, die für geographische Bereiche von Interesse existieren, enthalten können;-;-;-;https://link.springer.com/chapter/10.1007/11586180_15 773e25257d3436ca84a503acfb087498;de;;;2.1.;;;Ein ganzheitlicher Ansatz zur Duplikats- und Plagiatserkennung mit probabilistischen Ontologien Doppelte Veröffentlichungen und Plagiate sind zwei große Probleme in der wissenschaftlichen Welt und sogar sie werden als Krebs der Wissenschaft bezeichnet. Plagiatserkennungssysteme versuchen, ähnliche Veröffentlichungen eines bestimmten Artikels zu finden, doch bei ganzheitlichen Plagiatserkennungssystemen gibt es einen kleinen Fortschritt. Textähnlichkeitsdienste ohne eine manuelle Bestätigung durch den Menschen sind nicht in der Lage, Duplikate zu bestätigen, dennoch ist es möglich, ein System zu entwickeln, das die Wahrscheinlichkeit einer Verletzung bestimmt. In diesem Artikel stellen wir eine Technik vor, um solche Systeme unter Verwendung probabilistischer Ontologien und Schlussfolgerungen zu entwickeln. Die Ergebnisse dieses Systems können für statistische Erhebungen über die Prävalenz von Plagiaten verwendet werden. Außerdem kann es die wahrscheinlichsten Fälle von Plagiaten zur weiteren Untersuchung durch den Menschen treffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35326-0_56 70f0cb61d0330fb576d980d7ac1d120a;de;;;2.1.;;;Anforderungen für Ontologie-basiertes Design-Projektbewertung Ontologien sind formale Wissensrepräsentationen. Ein genauerer Blick auf Ontologien kann verborgene Details über die Ontologie oder den konzeptualisierten Bereich bieten. Dies erfordert Technologien zur Ontologieanalyse. Durch die Analyse des Anwendungsfalls des F&E-Managements identifiziert dieses Papier typische Metriken zu Ontologien und bewertet Metrik-Berechnungsmechanismen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88479-8_49 86f6068f7633ab961804e08504b90f48;de;;;2.1.;;;Association Rule Mining mit Kontextontologien: Eine Anwendung zur mobilen Erfassung der Wasserqualität Internet-of-Things (IoT)-Anwendungen mittels drahtloser Sensornetzwerke (WSN) produzieren große Mengen an Rohdaten. Diese Daten können formal definiert werden, indem einem semantischen IoT-Modell gefolgt werden, das Daten, Metadaten sowie deren Beziehungen umfasst, oder einfach ohne formale Spezifikation in einer Datenbank gespeichert werden. In beiden Fällen kann die Verwendung von Assoziationsregeln als Data-Mining-Technik dazu führen, dass interessante Beziehungen zwischen Daten und/oder Metadaten abgeleitet werden. In diesem Papier argumentieren wir, dass der Kontext nicht umfassend für den Mehrwert des Bergbauprozesses genutzt wurde. Daher schlagen wir einen anderen Ansatz für das Mining von Assoziationsregeln vor, indem wir ihn mit einer kontextsensitiven Ontologie anreichern. Der Ansatz wird anhand eines Antrags an WSNs zur Überwachung der Wasserqualität demonstriert. Zunächst werden eine neue Ontologie, ihre Konzepte und Beziehungen eingeführt, um die Überwachung der Wasserqualität durch mobile Sensoren zu modellieren. Folglich wird die Ontologie mit von Sensoren generierten Qualitätsdaten gefüllt und anschließend mit Kontext angereichert. Schließlich sind die Evaluationsergebnisse unseres Ansatzes, Kontext-Ontologie in den Mining-Prozess einzubeziehen, vielversprechend: Es wurden neue Assoziationsregeln abgeleitet, die somit neues Wissen liefern, das bei der Anwendung von Assoziationsregel-Mining einfach über Rohdaten nicht abgeleitet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49157-8_6 0b0fe7e9745b9198c7047894b26ab85b;de;;;2.1.;;;Ein POV-basiertes Nutzermodell: Von Lernpräferenzen zum Erlernen persönlicher Ontologien Als sehr effektiv haben sich in den letzten Jahren verschiedene ontologiebasierte Empfehlungssysteme erwiesen, die sich einer Domänenontologie zur Charakterisierung des Benutzermodells bedienen. Bei diesem Ansatz gibt es jedoch einige offene Fragen, wie zum Beispiel: 1) die Erstellung einer Ontologie ist ein teurer Prozess, 2) die Ontologie berücksichtigt selten die Perspektiven der Zielbenutzergemeinschaften, 3) verschiedene Benutzergruppen können unterschiedliche Domänen haben Konzeptualisierungen, 4) die Ontologie ist normalerweise statisch und nicht in der Lage, automatisch neue semantische Beziehungen oder Eigenschaften zu lernen. Um diese Punkte anzugehen, schlage ich einen Ansatz vor, um automatisch mehrere persönliche Ontologie-Ansichten (POVs) aus Benutzer-Feedbacks zu erstellen, die auf bestimmte Benutzergruppen zugeschnitten sind und durch Verbreitung von Aktivierungstechniken für Empfehlungszwecke genutzt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38844-6_43 bf2df65db9a934432fd5d21e7d4e112c;de;;;2.1.;;;Erweiterung und Ausdruck von OWL-Modellierungsprimitiven basierend auf der räumlich-zeitlichen Ontologie des Ozeanströmungsfeldes Für das Problem, dass es schwierig war, die dynamischen, mehrdimensionalen und zeitveränderlichen Eigenschaften des Ozeanströmungsfeldes durch die bestehende Ontologiesprache zu beschreiben und auszudrücken, konstruierte der Artikel durch die Einführung einer raum-zeitlichen Ontologie eine dreistufige Architektur, die aus Ozean-Strömungsfeld-Konzeptontologie, raum-zeitliche Objektontologie und raum-zeitliche Prozessontologie. Auf dieser Grundlage schlug das Papier ein raum-zeitliches Ontologiemodell für die dynamischen Variabilitätsmerkmale des Ozeanströmungsfeldes vor und realisierte den semantischen Ausdruck des Wissens über den Ozeanströmungsbereich. Basierend auf der semantischen Analyse von räumlichen Primitiven und zeitlichen Primitiven von Ozeanströmungsfeldern wurden die Kriterien für die Bestimmung der topologischen Beziehung, der sequentiellen Beziehung, der Distanzbeziehung und der zeitlichen Beziehung zwischen Ozeanströmungsfeldobjekten festgelegt. Um den formalen Ausdruck der räumlich-zeitlichen Ontologie für das Ozeanströmungsfeld zu geben, basierend auf den syntaktischen Regeln der Web Ontology Language (OWL), konstruierte der Artikel raum-zeitliche Prädikate und Terme, erweiterte OWL-Schlüsselknoten für die räumlich-zeitliche Modellierung und bildete Ocean Current Spatial-temporal Web Ontology Language (OST OWL). Und am Beispiel des kalten Wirbels hat sich der raum-zeitliche Prozess modelliert. Es zeigte sich, dass OST OWL das Strömungsfeld des Ozeans effektiver ausdrücken kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6106-1_24 ae9439169375632192c5370594b2840c;de;;;2.1.;;;Ein ontologiebasierter Ressourcenauswahldienst in der Science Cloud Cloud Computing erfordert eine skalierbare und kooperative gemeinsame Nutzung der Ressourcen in verschiedenen Organisationen durch die dynamische Konfiguration einer virtuellen Organisation gemäß den Anforderungen des Benutzers. Eine ontologiebasierte Darstellung der Cloud-Computing-Umgebung wäre in der Lage, gemeinsame Attribute zwischen Cloud-Ressourcen zu konzeptualisieren und Beziehungen zwischen ihnen semantisch zu beschreiben. Die gegenseitige Kompatibilität zwischen Organisationen ist jedoch eingeschränkt, da noch keine Methode zur Anwendung der Ontologie auf die Cloud etabliert ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10549-4_26 bab85bb772e90ee7855b08d5a8bc89fe;de;;;2.1.;;;DAML+OIL: Eine vernünftige Web-Ontologie-Sprache Ontologien werden eine Schlüsselrolle im „Semantic Web“ spielen, indem sie die syntaktische Interoperabilität auf die semantische Interoperabilität erweitern, indem sie eine Quelle gemeinsamer und genau definierter Begriffe bereitstellen. DAML+OIL ist eine Ontologiesprache, die speziell für den Einsatz im Web entwickelt wurde. Sie nutzt vorhandene Webstandards (XML und RDF) und fügt die bekannten ontologischen Grundelemente objektorientierter und rahmenbasierter Systeme hinzu und die formale Strenge einer sehr ausdrucksstarken Beschreibungslogik. Die logische Basis der Sprache bedeutet, dass Argumentationsdienste bereitgestellt werden können, um sowohl das Ontologiedesign zu unterstützen als auch um DAML+OIL-beschriebene Webressourcen für automatisierte Prozesse zugänglicher zu machen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45876-X_2 321eee86d21be81b61022ac89e0888c7;de;;;2.1.;;;OSDBQ: Ontologie-unterstützte RDBMS-Abfragen Datenhandhabung und -abruf haben eine wesentliche Bedeutung, wenn die Datengröße eine bestimmte Menge überschreitet. Das Speichern von Transaktionsdaten in relationaler Form und das Abfragen mit Structured Query Language (SQL) ist aufgrund seiner tabellarischen Struktur sehr vorzuziehen. Daten können auch in ontologischer Form gespeichert werden, wenn sie zahlreiche semantische Beziehungen enthalten. Diese Methode ist besser geeignet, um Informationen aus Relationen abzuleiten. Wenn Transaktionsdaten viele semantische Beziehungen enthalten, wie in unserem Problem, ist es nicht einfach, die Methode zum Speichern und Abfragen zu bestimmen. Wir führen einen neuen Abfragemechanismus „Ontology Supported RDBMS Querying (OSDBQ)“ ein, der die positiven Seiten der beiden Speicher- und Abfragemethoden abdeckt. Dieses Papier beschreibt OSDBQ und präsentiert einen Vergleich zwischen drei Abfragemethoden. Die Ergebnisse zeigen, dass OSDBQ die meiste Zeit ziemlich bessere Ergebnisse liefert als die anderen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24731-6_5 dd75d3d856fc59966d15da63b9b239ca;de;;;2.1.;;;Die textuelle Form des Wissens: Okkulte Verschiedenheiten in alten und mittelalterlichen chinesischen Manuskripten, 4. Jahrhundert v. bis 10. Jahrhundert n. Chr. Im Jahr 1900 öffnete ein reisender daoistischer heiliger Mann, Wang Yuanlu 王圓祿, den Eingang zu einer Höhle in den buddhistischen Höhlen (Mogaoku 莫 高窟) in der Nähe von Dunhuang 敦煌, Gansu, und enthüllte einen Schatz mittelalterlicher Papiermanuskripte (Schriftrollen und Broschüren), die noch nicht da waren gesehen, seit die Höhle im frühen elften Jahrhundert versiegelt wurde. Die Höhle, die in modernen Dunhuang-Studien als Höhle 17 bezeichnet wird, scheint ein Manuskript-Depot gewesen zu sein, das vom örtlichen buddhistischen Establishment verwendet wurde, bevor sie versiegelt wurde, als die Bevölkerung von Dunhuang einen Angriff islamischer Karakhanid-Kräfte befürchtete, die 1006 Khotan (westlich von Dunhuang an der südlicher Rand der Taklamakan-Wüste).;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-3676-6_2 bace9bfc4270f45e15456957eea4c0ea;de;;;2.1.;;;Abbildung einer OLAP-Ontologie des Ressourcenbeschreibungs-Frameworks auf das semantische Business-Intelligence-Modell In unserer vorherigen Arbeit haben wir eine Ontologie erstellt, um sowohl die Struktur als auch den Inhalt von mehrdimensionalen Cubes für die Online-Analyse (OLAP) unter Verwendung der XML-Untersprache des Resource Description Framework (RDF) zu beschreiben. In diesem Beitrag beschreiben wir, wie wir unsere Ontologie auf ein multidimensionales Datenbankschema abgebildet haben, das effektiv verwendet werden kann, um die Datenzugriffsschicht für Microsofts semantisches Business Intelligence-Modell (BISM) zu definieren. Dieses Mapping erleichtert die sogenannte Self-Service-Business-Intelligence, indem es dem Endbenutzer den sofortigen Zugriff auf die mehrdimensionalen Daten aus Desktop-Anwendungen wie Pivot-Tabellen für Tabellen ermöglicht, ohne dass spezielles technisches Know-how zur Führung des Transformationsprozesses erforderlich ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25658-5_51 c6ca44403fac1b701ca44854d9eacd86;de;;;2.1.;;;AxiomVis: Ein Axiom-orientiertes Ontologie-Visualisierungstool Mit dem kontinuierlichen Wachstum der Ontologien nimmt die Anzahl der Ontologie-Axiome stetig zu. Um Benutzern zu helfen, Ontologien mit einer großen Anzahl von Axiomen zu verstehen, entwickeln wir ein neuartiges Ontologie-Visualisierungstool namens;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45495-4_14 7a50441cdb197e996595c1836cbe1e15;de;;;2.1.;;;Wofür sind Ontologien der Informationssicherheit nützlich? Das Engineering von Ontologien im Bereich der Informationssicherheit hat in den letzten Jahren eine gewisse Aufmerksamkeit erhalten. Konkret wurde die Verwendung von Ontologien als Lösung für eine Vielzahl von Aufgaben in diesem Bereich vorgeschlagen, von der Modellierung von Cyberangriffen bis hin zur Erleichterung der Arbeit von Prüfern oder Analysten. Dies hat zu ontologischen Artefakten, Repräsentationsgraden und ontologischen Verpflichtungen unterschiedlicher Art geführt. In diesem Beitrag wird eine Auswahl neuerer Forschungen auf diesem Gebiet nach ihrem Zweck oder ihrer Anwendung kategorisiert und ihre wichtigsten Gemeinsamkeiten hervorgehoben. Anschließend wird eine Bewertung des aktuellen Entwicklungsstands in dem Gebiet vorgenommen, um einen zukünftigen Fahrplan für die weitere Forschung zu skizzieren. Die untersuchte Literatur weist unterschiedliche Analyseebenen auf, von eher konzeptuellen bis hin zu eher untergeordneten, protokollorientierten und auch unterschiedlichen Ebenen der Praxisbereitschaft. Darüber hinaus verwenden mehrere der gefundenen Arbeiten vorhandene standardisierte, von der Community kuratierte Datenbanken als Quellen für die Ontologie-Population, was auf die Notwendigkeit hinweist, diese als Grundlage für zukünftige Forschungen zu verwenden und ontologiebasierte Funktionalitäten für diejenigen Fähigkeiten hinzuzufügen, die von ihnen nicht direkt unterstützt werden .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24129-6_5 55d8c1b407a3df151634817140214e8c;de;;;2.1.;;;Automatisches Angeben der parallelen Zusammensetzung von Matchern im Ontologie-Matching-Prozess Bei der Integration heterogener Datenquellen spielt das Ontologie-Matching eine wichtige Rolle. Um semantische Korrespondenzen zwischen Entitäten unterschiedlicher Ontologien zu finden, können verschiedene Matcher verwendet werden. Wenn mehrere Matcher in ein Matching-System integriert werden, stellt sich die Frage, diese Matcher miteinander zu kombinieren und die Bedeutung jedes Basis-Matchers zu bestimmen. Bei einer parallelen Zusammenstellung von Basis-Matchern werden mehrere Matcher unabhängig voneinander verwendet und dann deren Ergebnisse aggregiert. In diesem Artikel schlagen wir eine Methode vor, um automatisch Gewichte von Basis-Matchern in ihrer parallelen Zusammensetzung zu bestimmen. Anhand von Fallbeispielen zum Matching von drei Ontologiepaaren wird die Methode evaluiert und mit anderen Aggregationsmethoden verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24731-6_3 b0a22cec91bd94a960d1f69e236e66e3;de;;;2.1.;;;Ein Ontologie-Engineering-Ansatz zur Gamify kollaborativen Lernszenarien Die Gestaltung von Szenarien des kollaborativen Lernens (CL), die sowohl das Lernen als auch die Motivation der Schüler steigern, ist eine Herausforderung, der sich die CSCL-Community in den letzten Jahren gestellt hat. Einerseits hat sich das CSCL-Design (d. h. Skripte) als effektiv erwiesen, um sinnvolle Interaktionen und besseres Lernen zu unterstützen. Andererseits motiviert die skriptgesteuerte Zusammenarbeit die Schüler oft nicht zur Teilnahme am CL-Prozess, was die Nutzung von Gruppenaktivitäten im Laufe der Zeit erschwert. Um das Motivationsproblem zu lösen, suchen Forscher und Pädagogen jetzt nach Gamification-Techniken, um Schüler zu motivieren. Gamification ist ein interessantes Konzept, das sich mit der Einführung und Nutzung von Game-Design-Elementen in geeigneter Weise beschäftigt, um individuelle Motivationsbedürfnisse zu befriedigen. Der Einsatz von Gamification im Bildungsbereich ist eine komplexe Aufgabe, die von Instruktionsdesignern Kenntnisse über Spielelemente (wie Bestenlisten und Punktesysteme), Spieldesign (z. B. wie man Spielelemente kombiniert) und deren Einfluss auf Motivation und Lernen erfordert. Ansätze zur formalen Systematisierung des didaktischen Gestaltungswissens zu Gamification und deren Anwendung in CL-Szenarien gibt es heute unseres Wissens nach nicht. Um dieses Problem anzugehen, haben wir ontologische Engineering-Techniken angewendet, um eine Ontologie namens OntoGaCLeS zu entwickeln. In diesem Papier stellen wir die wichtigsten Konzepte und die ontologische Struktur vor, die verwendet werden, um gamifizierte CL-Szenarien darzustellen. In dieser Ontologie formalisieren wir die Darstellung von Gamification-Konzepten und erklären, wie sie die Motivation im Kontext des kollaborativen Lernens beeinflussen. Insbesondere werden wir uns auf die Definition von Spielerrollen und Spielstrategien konzentrieren. Um die Nützlichkeit unseres Ansatzes zu zeigen, veranschaulichen wir außerdem, wie unsere Ontologie verwendet wird, um ein personalisiertes Gamifizierungsmodell zu definieren, das verwendet wird, um ein CL-Szenario basierend auf Motivationsbedürfnissen und individuellen Merkmalen von Lernenden in einer Gruppe zu gamifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10166-8_17 59e4df35b84e4373b4ad4367094fe4c0;de;;;2.1.;;;Rückruf von Urteilen des Obersten Gerichtshofs unter Verwendung der Ontologie des thailändischen Rechts Dieses Papier präsentiert eine Verbesserung unseres Ansatzes namens SCRO_II-Algorithmus. Der SCRO_I-Algorithmus wurde ursprünglich entwickelt, um eine Reihe von Urteilen des Obersten Gerichtshofs abzurufen. Das Ziel von SCRO_I ist es, verschiedene Rechtsfragen unter diesen abgerufenen Dokumenten bereitzustellen. Wir erstellen eine neue Ontologie unter Verwendung verschiedener Semantiken, um ihre Leistungen basierend auf Diversity-Messung zu untersuchen. Der Beitrag dieser neuen Ontologie wird mit dem traditionellen verglichen. Ein neues Verfahren ist in den SCRO_II-Algorithmus eingebettet, um einen Satz von Synonymen und Beziehungen zu identifizieren. Die Experimente wurden zum thailändischen Erbrecht und zum Wechselrecht durchgeführt. Die experimentellen Ergebnisse zeigen, dass SCRO_II den SCRO_I-Algorithmus in beiden Datensätzen übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-0286-8_15 af310bcf46cebab18b5873a12132f6a3;de;;;2.1.;;;Ontologiebasiertes Denken für die kollektive Intelligenz von Multi-Agenten-Systemen Multi-Agents System (MAS) und Ontologie sind zwei Technologien, die in der Lage sind, intelligente Argumente zu erstellen und neues Wissen abzuleiten, das für die Entscheidungsfindung nützlich ist. In diesem Papier schlagen wir ein Plattformmodell namens Agent-SSSN vor, dessen Agenten als menschlicher Akteur argumentieren und mit ihnen zusammenarbeiten, um eine von Collective Intelligence in Economic Intelligence (EI) koordinierte Netzwerküberwachung zu schaffen. Um das Wissen in Agent-SSSN zu organisieren und die Argumentationsfähigkeit des Agenten zu erleichtern, wird in diesem Papier ein ontologiebasierter Ansatz namens Onto-Agent-SSSN vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-53187-4_41 40e561cd539606dff082a1c71d105765;de;;;2.1.;;;Evaluierung eingebetteter Vektoren für Lexeme und Synsets zur Erweiterung des japanischen WordNet In diesem Papier diskutieren wir die Möglichkeit, das japanische WordNet mit AutoExtend zu erweitern, das eingebettete Vektoren basierend auf der Wörterbuchstruktur erzeugen kann. Kürzlich haben verschiedene Arten von NLP-Aufgaben gezeigt, dass die verteilten Darstellungen für Wörter effektiv sind, jedoch würden die auf der Grundlage von Kontexten umgebener Wörter konstruierten worteingebetteten Vektoren schwierig sein, die Bedeutungen eines Wortes zu unterscheiden, da jeder Vektor für ein Wort erzeugt wird. Auf der anderen Seite wurde AutoExtend vorgeschlagen und im englischen WordNet angewendet, das eingebettete Vektoren für Bedeutungen und Konzepte sowie Wörter unter Berücksichtigung der Thesaurusstruktur des Wörterbuchs erzeugen kann. Daher wenden wir in diesem Papier AutoExtend in einem japanischen Wörterbuch, d. Die experimentellen Ergebnisse zeigen, dass von AutoExtend konstruierte eingebettete Vektoren hilfreich sein können, um entsprechende Bedeutungen für nicht registrierte Wörter im Wörterbuch zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6168-9_7 53d1638c4678eadc74550aee4836e122;de;;;2.1.;;;Klassifizierung von Anforderungsänderungsanforderungen: Ein ontologiebasierter Ansatz Anforderungen an Softwaresystemprojekte sind zunehmend einer Vielzahl von Änderungswünschen ausgesetzt. In natürlicher Sprache erfasste Änderungsanforderungen sind schwer zu analysieren und auszuwerten. Dies kann zu großen Problemen führen, wie z. B. Anforderungskriechen und Mehrdeutigkeit. Um ein angemessenes Verständnis einer Änderungsanforderung auf systematische Weise zu vermitteln, zielt dieses Papier darauf ab, eine Ontologie zur Klassifizierung von Änderungsanforderungen als entweder funktionale Änderungen (FC) oder technische Änderungen (TC) zu entwickeln. Technische Änderungen werden weiter in neun Kategorien eingeteilt, darunter die Qualitätsmerkmale nach ISO 25010 und die Projektanforderungen und -beschränkungen. Um eine umfassende Darstellung von Änderungswünschen zu erstellen, haben wir Benutzerbewertungen aus dem PROMISE-Repository gesammelt und mit dem Schützling-Editor klassifiziert. Die Machbarkeit des vorgeschlagenen Ansatzes wird durch Beispiele aus dem PROMISE-Repository veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-49342-4_47 f9e0f1f4562b20b3a61c72d7271b36f2;de;;;2.1.;;;Ontologiebasiertes kontextbezogenes Management für drahtlose Sensornetzwerke Drahtlose Sensornetzwerke (WSN) können die beliebten militärischen und zivilen Anwendungen wie Überwachung, Überwachung, Notfallwiederherstellung, Heimautomatisierung und viele andere bereitstellen. Alle diese WSN-Anwendungen erfordern eine Form von selbstverwaltendem und autonomem Rechnen ohne menschliche Eingriffe. In letzter Zeit hat sich die Ontologie zu einer vielversprechenden Technologie für intelligentes kontextbezogenes Netzwerkmanagement entwickelt. Es kann mit verschiedenen Bedingungen von WSNs zurechtkommen. Dieses Dokument beschreibt ein ontologiebasiertes Verwaltungsmodell für die kontextbezogene Verwaltung von WSNs. Es bietet eine autonome Selbstverwaltung von WSNs unter Verwendung einer ontologiebasierten Kontextdarstellung sowie Argumentationsmechanismen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23321-0_55 a8139d1ff9d66b853cfc8a4cd6b7448c;de;;;2.1.;;;Design einer biochemischen verfahrensorientierten Ontologie Ontologien müssen die Entitäten, Konzepte und Beziehungen bereitstellen, die für die dargestellte Domäne erforderlich sind. Die Domäne von Interesse in dieser Arbeit ist das experimentelle Verfahren der Biochemie. Diese Prozeduren setzen sich aus Prozedurschritten zusammen, die als Sequenzen dargestellt werden können. Sequenzen bestehen aus vollständig geordneten, teilweise geordneten und alternativen Teilsequenzen. Die verwendete Ontologiesprache ist OWL-DL. OWL-DL wurde aufgrund seiner ausgewogenen Flexibilität zwischen Aussagekraft (z. B. Klassenbeschreibung, Kardinalitätseinschränkung usw.), Vollständigkeit und Entscheidbarkeit übernommen. In der hier vorgestellten biochemischen verfahrensorientierten Ontologie werden Teilsequenzen mit zwei Relationen dargestellt,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-66196-0_17 199437d09f99a636095285c57ee00a00;de;;;2.1.;;;Erwerb von Faktenwissen durch ontologische Instanziierung Wir schlagen eine Methode zum Erwerb von Faktenwissen unter Verwendung der Knowledge Base Acquisition Environment (KBAE) des CRL (Computing Research Laboratory) vor. Wir haben beobachtet, dass eine Faktendatenbank, die durch Instanziieren ontologischer Konzepte generiert wird, die volle Ausdruckskraft ontologischer Strukturen zur Verwendung in NLP-Systemen nutzt, einschließlich maschineller Übersetzung, Informationsabruf und Frage-Antwort-Systemen. Wir argumentieren, dass sowohl der Aufbau der Faktendatenbank als auch die Qualität der Anwendungen, die sie verwenden, durch ontologische Schlussfolgerungen, die aus den verbundenen Ressourcen verfügbar sind, verbessert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44533-1_117 3fc9fc15663cd62d591c6f4f2269867b;de;;;2.1.;;;Symbolische lineare Regression mit Taxonomien Diese Arbeit beschäftigt sich mit der Erweiterung der klassischen linearen Regression auf symbolische Daten und stellt eine Fortsetzung früherer Arbeiten von Billard und Diday zur linearen Regression mit intervall- und histogrammbewerteten Daten dar. In diesem Beitrag stellen wir eine Methode zur Regression mit taxonomischen Variablen vor. Taxonomische Variablen sind in einem Baum organisierte Variablen mit mehreren Allgemeinheitsstufen. Beispielsweise werden die Städte nach ihren Regionen aggregiert, die Regionen werden nach ihrem Land aggregiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17103-1_40 81f81af13ed5b795cbff8dcec77534cc;de;;;2.1.;;;Infrastrukturtaxonomie, Eigenschaften und Verwaltungsdienste von Clouds Die Verlagerung der aktuellen Cloud-Infrastruktur auf eine vertrauenswürdige kritische Infrastruktur im Internet-Maßstab erfordert die Unterstützung der Infrastruktur mit automatisierten Verwaltungsdiensten. Dabei bietet die Infrastruktur, wie von NIST beschrieben, „minimalen Verwaltungsaufwand oder Service-Provider-Interaktion“ [11]. Der erste Schritt in diese Richtung erfordert das Verständnis, wie Experten der Domäne die Infrastruktur von Clouds verwalten und wie die Infrastrukturkomponenten miteinander verknüpft sind. Dies sind die Hauptbeiträge in diesem Papier, d. h. schlägt eine Cloud-Taxonomie vor, die sich auf die Interaktion und Verwaltung von Infrastrukturkomponenten konzentriert, stellt ein reales Szenario einer kritischen Anwendungsarchitektur unter Verwendung der vorgeschlagenen Taxonomie bereit und leitet dann die Verwaltungsdienste unter Verwendung des bereitgestellten Szenarios ab. Das Public Cloud-Modell unterstützt im Vergleich zu anderen Modellen sehr eingeschränkte Funktionen, z. Community-Cloud. In diesem Papier analysieren wir die Managementdienste in der Community Cloud, um diejenigen zu identifizieren, die eine Automatisierung für die öffentliche Cloud erfordern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22726-4_43 0fa4999bd0d33c1261ccb15ce08e036f;de;;;2.1.;;;Evolutionäre Extreme Learning Machine Weighted Fuzzy-Rough Nearest-Neighbour-Klassifizierung Aufgrund des Mechanismus der instanzbasierten Klassifizierung spielt die Merkmalssignifikanz bei den Nearest-Neighbour-Klassifizierungsaufgaben eine wichtige Rolle. Die Existenz der irrelevanten Merkmale würde die Leistung dieser Algorithmen verschlechtern, indem die nächsten Nachbarn verwechselt werden. Diese irrelevanten Merkmale sind jedoch in den realen Anwendungen normalerweise unvermeidlich. In diesem Artikel wird der Algorithmus der Evolutionary Extreme Learning Machine (E-ELM) verwendet, um die Merkmalssignifikanz für die Fuzzy-Rough-Nearest-Neighbour-(FRNN)-Methode zu unterscheiden. Dieser hybride Lernansatz mit dem Titel Evolutionary Extreme Learning Machine Weighted Fuzzy-Rough-Nearest-Neighbour-Algorithmus extrahiert die Merkmalssignifikanz durch Integrieren der Parameter vom parallelen Eingangsknoten zum Ausgangsknoten in E-ELM. Eine solche Merkmalssignifikanz wird transformiert, um ein gewichtetes FRNN-Verfahren zu implementieren, um die Klassifizierungsaufgaben durchzuführen. Systematische experimentelle Ergebnisse sowohl für Dimensionsreduktions- als auch für Klassifikationsprobleme zeigen, dass der vorgeschlagene Ansatz im Allgemeinen viele moderne maschinelle Lernverfahren übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58989-9_1 0fadf46d7000c4869ea710b29230b718;de;;;2.1.;;;Ein anforderungsbewusster Ansatz für die Erstellung von Webservices Webdienste übernehmen Aufgaben zur Erkennung, Auswahl und Zusammenstellung von Webdiensten, waren jedoch immer auf Geschäftsfunktionen ausgerichtet. Daher wird in dieser Dissertation ein neuer anforderungsbewusster Ansatz für die Zusammenstellung von Webdiensten in Bezug auf Änderungen der Benutzeranforderungen vorgeschlagen, der Ähnlichkeiten von Dienstanforderungen aufbaut, um eine dynamische Umstrukturierung der Dienstzusammensetzung zu erfüllen, und Zugehörigkeitsfunktion und Semantik verwendet, um Ähnlichkeitsgrad zuzuweisen zwischen Service-Anforderungen und Web-Services, um durch semantische Beziehung zwischen semantischen Anforderungen und semantischen Web-Services abgebildet werden zu können. Wir testen die Leistungsfähigkeit des Gesamtansatzes mit einer Reihe von Simulationsexperimenten und zeigen die Wirksamkeit unseres Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34041-3_12 07682110532281e530f989781d625437;de;;;2.1.;;;Wissen in Robotersystemen mit KnowLang darstellen Intelligente Robotersysteme zu bauen ist spannend und extrem herausfordernd zugleich. Forscher haben erkannt, dass Roboterintelligenz mit einem logischen Ansatz erreicht werden kann, aber die KI hat immer noch Schwierigkeiten, diese abstrakte Logik mit der Bedeutung der realen Welt zu verbinden. Dieser Beitrag stellt KnowLang vor, eine neue formale Sprache zur Wissensrepräsentation in einer speziellen Klasse intelligenter Robotersysteme namens ASCENS. Autonomic Service-Component Ensembles (ASCENS) sind Multi-Agenten-Systeme, die als mobile, intelligente und offene Schwärme spezieller autonomer Servicekomponenten gebildet werden, die zu lokalem und verteiltem Denken fähig sind. Solche Komponenten kapseln Regeln, Einschränkungen und Mechanismen zur Selbstanpassung und erwerben und verarbeiten Wissen über sich selbst, andere Servicekomponenten und ihre Umgebung. In diesem Beitrag wird eine kurze KnowLang-Fallstudie zur Wissensrepräsentation für ein Robotersystem vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34781-8_7 04d01bc3d5bbbc4aeb035acec1e09b56;de;;;2.1.;;;Entscheidungsbaum-Lerner in Gegenwart von Domänenwissen Im Zeitalter von Semantic Web und Big Data ist der Bedarf an maschinellen Lernalgorithmen, die Domänenontologien ausnutzen können, unbestreitbar. In der Vergangenheit wurden zwei unterschiedliche Forschungslinien verfolgt, aber mit Hintergrundwissen, das durch Domänenontologien repräsentiert wird, ist es nun möglich, neue ontologiegetriebene Lernalgorithmen zu entwickeln. In diesem Papier schlagen wir eine Methode vor, die einem rein statistischen Entscheidungsbaumlerner Domänenwissen, repräsentiert in OWL 2, hinzufügt. Der neue Algorithmus versucht, die besten zu testenden Attribute im Entscheidungsbaum zu finden, wobei sowohl vorhandene als auch neue, die aus der Ontologie abgeleitet werden können, berücksichtigt werden. Durch Untersuchen der Menge von Axiomen in der Ontologie ist der Algorithmus dann in der Lage, in Laufzeit die beste Abstraktionsebene für jedes Attribut zu bestimmen, neue Attribute abzuleiten und die im Baum zu verwendenden zu entscheiden. Unsere experimentellen Ergebnisse zeigen, dass unsere Methode auch bei Datensätzen, bei denen alle Merkmale konkret sind, kleinere und genauere Bäume erzeugt, insbesondere jedoch bei solchen, bei denen einige Merkmale nur auf höheren Abstraktionsebenen spezifiziert sind. Wir zeigen auch, dass unsere Methode in Fällen, in denen nur eine kleine Anzahl markierter Instanzen verfügbar ist, wesentlich besser abschneidet als herkömmliche Entscheidungsbaum-Klassifikatoren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45495-4_4 3ff94195cc2fe25c4a06c18e306f8e57;de;;;2.1.;;;A 2012 Workshop: Vaccine and Drug Ontology in the Study of Mechanismus and Effect (VDOSME 2012) Impfstoffe und Medikamente haben weltweit zu dramatischen Verbesserungen der öffentlichen Gesundheit beigetragen. In den letzten zehn Jahren gab es Bemühungen zur Entwicklung biomedizinischer Ontologien, die verschiedene Bereiche im Zusammenhang mit Impfstoffen und Arzneimitteln repräsentieren. Diese Ontologien kombiniert mit bestehenden Gesundheits- und klinischen Terminologiesystemen (;-;-;-;https://link.springer.com/article/10.1186/2041-1480-3-12 5d8c6f22457029432766fd97efb9869f;de;;;2.1.;;;Oyster – Teilen und Wiederverwenden von Ontologien in einer Peer-to-Peer-Community In diesem Beitrag wird Oyster vorgestellt, ein Peer-to-Peer-System zum Austausch von Ontologie-Metadaten zwischen Communities im Semantic Web. Wir beschreiben, wie Oyster Forscher bei der Wiederverwendung vorhandener Ontologien unterstützt und wie Oyster semantische Webtechniken bei der Datendarstellung, Abfrageformulierung und Abfrageergebnispräsentation nutzt, um eine Online-Lösung für die gemeinsame Nutzung von Ontologien bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/11574620_77 acdd6b3497ae106b996e2a7ff0896017;de;;;2.1.;;;Verwendung von Ontologien in der Entwicklung von Informationssystemen Ontologien werden zu einem wesentlichen Bestandteil vieler Anwendungen der Informationstechnologie (IT), und die Systementwicklung ist ein wichtiger und notwendiger Schritt bei der Anwendung der IT, die zunehmend das Web einbezieht. Dieser Artikel gibt einen Überblick über die Literatur über die Nützlichkeit von Ontologien in der Systementwicklung mit dem Ziel, die Diskussion unter Forschern und Praktikern von Informationssystemen (IS) über die potenzielle Rolle von Ontologien anzuregen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-45408-5_22 efe8c553fe085267f869c81e0f6c6113;de;;;2.1.;;;Automatisches Zusammenstellen von Datenworkflows mit relationalen Beschreibungen und Shim-Diensten Viele wissenschaftliche Probleme können als computergestützte Arbeitsabläufe von Operationen dargestellt werden, die auf entfernte Daten zugreifen, heterogene Daten integrieren und neue Daten analysieren und ableiten. Auch wenn die Datenzugriffs- und Verarbeitungsvorgänge als Web- oder Grid-Services implementiert sind, werden oft Workflows aufgebaut;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76298-0_2 30817d7873f75ae30d537caa37dec7a6;de;;;2.1.;;;Intra-jährliche Variabilität der von Satelliten beobachteten Oberflächenalbedo im Zusammenhang mit typischen Landbedeckungstypen in China Die Oberflächenalbedo ist eine primäre ursächliche Variable, die mit dem Prozess des Oberflächenenergieaustauschs verbunden ist. Zahlreiche Studien haben die tageszeitliche Variation der Oberflächenalbedo auf regionaler Ebene untersucht, jedoch haben nur wenige Studien die zwischenjährlichen Variationen der Oberflächenalbedo in Übereinstimmung mit verschiedenen Landbedeckungstypen analysiert. In dieser Studie haben wir Oberflächenalbedo-Produktdaten (MCD43) von 2001 bis 2008, Landnutzungsdaten (in den Jahren 2000 und 2008) und Landbedeckungsdaten (in 2000), quantitative Analysen der Oberflächenalbedo-Variation in Bezug auf verschiedene Landbedeckungstypen und die Auswirkungen des Vorhandenseins/Fehlens von Bodenschnee wurden untersucht. Die Ergebnisse zeigen, dass die intra-annual Oberflächenalbedo-Werte je nach Landbedeckungstyp flache Gauß- oder Dreiecksverteilungen aufweisen. Während schneefreier Perioden war die von Satelliten beobachtete Oberflächenalbedo im Zusammenhang mit der Nicht-Wachstumssaison niedriger als die mit der Vegetationsperiode. Die von Satelliten beobachtete Oberflächenalbedo während der Präsenz von Bodenschnee war 2–4 mal höher als die während schneefreier Zeiten beobachtete. Es wurden Oberflächenalbedo-Referenzwerte für typische Landbedeckungstypen berechnet, insbesondere wurden Grünland, Ackerland und bebautes Land mit höheren Oberflächenalbedo-Referenzwerten in Verbindung gebracht als karge Flächen, während Bodenschnee vorhanden war. Unabhängig von der Art der Landbedeckung wurden die niedrigsten Referenzwerte der Oberflächenalbedo mit bewaldeten Gebieten in Verbindung gebracht. Vorgeschlagene Referenzwerte können sich in verschiedenen Forschungsbereichen als äußerst nützlich erweisen, einschließlich ökologischer Modellierung, Modellierung von Landoberflächenprozessen und Anwendungen der Strahlungsenergiebilanz.;-;-;-;https://link.springer.com/article/10.1007/s11442-015-1151-5 5cc7dcae4466acf3d1c48a9c88b9193b;de;;;2.1.;;;Schritte zu C+C: Eine Sprache für Interaktionen In diesem Beitrag stellen wir unsere Überlegungen zu den Anforderungen neuer Architekturen und Sprachen für das Web vor, die mit denen von qualifizierten Wissenschaftlern wie Mc Carthy [;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45331-8_4 2cc873389a4542219d4cdef29d5f9bfc;de;;;2.1.;;;Argumentation mit Multi-Version-Ontologien: Ein zeitlicher logischer Ansatz In diesem Beitrag schlagen wir einen Rahmen für die Argumentation mit Multi-Version-Ontologie vor, in dem eine temporale Logik als semantische Grundlage entwickelt wird. Wir zeigen, dass der temporale Logik-Ansatz eine solide semantische Grundlage bieten kann, die verschiedene Anforderungen an die Argumentation der Ontologie mit mehreren Versionen unterstützen kann. Wir haben den Prototyp von MORE (Multi-Version Ontology REasoner) implementiert, der auf dem vorgeschlagenen Framework basiert. Wir haben MEHR mit mehreren realistischen Ontologien getestet. In diesem Papier diskutieren wir auch die Implementierungsprobleme und berichten über die Experimente mit MORE.;-;-;-;https://link.springer.com/chapter/10.1007/11574620_30 5dc6b81db679c3e264a96957189bd96c;de;;;2.1.;;;Eine Studie zur atomaren Zerlegung von Ontologien Die atomare Zerlegung einer Ontologie ist eine prägnante Darstellung der logikbasierten Module in dieser Ontologie. Letztlich zeigt es den modularen Aufbau der Ontologie. Atomare Zerlegungen scheinen sowohl für benutzerorientierte als auch für nicht benutzerorientierte Dienste nützlich zu sein. Sie können zum Beispiel zum Ontologie-Verständnis und zur Vereinfachung der Reasoner-Optimierung verwendet werden. In diesem Artikel untersuchen wir Behauptungen über die Praktikabilität der Berechnung atomarer Zerlegungen für natürlich vorkommende Ontologien. Dazu führen wir eine Replikationsstudie mit einer handelsüblichen Atomic Decomposition Algorithmus-Implementierung an drei großen Testkorpora von OWL-Ontologien durch. Unsere Ergebnisse deuten darauf hin, dass (a) zuvor veröffentlichte empirische Studien in diesem Bereich wiederholbar und verifizierbar sind, (b) die Berechnung atomarer Zerlegungen in den allermeisten Fällen praktisch ist, da sie in 90% der Fälle in weniger als 30 Sekunden durchgeführt werden kann, selbst bei Ontologien, die Hunderttausende von Axiomen enthalten, (c) treten extrem große Ontologien (< 1% in unseren Testkorpora) auf, bei denen das polynomiale Laufzeitverhalten des Atomic Decomposition-Algorithmus zu beißen beginnt und Berechnungen nicht innerhalb von 12- Stunden CPU-Zeit, (d) die Verteilung der Anzahl der Atome in der atomaren Zerlegung für eine Ontologie scheint für verschiedene Korpora ähnlich zu sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11915-1_5 bf9c4a692082eac1aa4fc1987c3a29c3;de;;;2.1.;;;Ein Rahmen für den Umgang mit Inkonsistenz in sich ändernden Ontologien Eines der Hauptprobleme groß angelegter, verteilter und sich entwickelnder Ontologien ist die potenzielle Einführung von Inkonsistenzen. In diesem Artikel untersuchen wir vier verschiedene Ansätze zum Umgang mit Inkonsistenz in DL-basierten Ontologien: konsistente Ontologie-Evolution, Reparatur von Inkonsistenzen, Argumentation bei Vorhandensein von Inkonsistenzen und Argumentation in mehreren Versionen. Wir stellen für alle eine gemeinsame formale Basis vor und vergleichen diese Ansätze auf dieser gemeinsamen Basis. Wir diskutieren die unterschiedlichen Anforderungen für jede dieser Methoden, die Bedingungen, unter denen jede von ihnen anwendbar ist, die Wissensanforderungen der verschiedenen Methoden und die verschiedenen Anwendungsszenarien, für die sie gelten würden.;-;-;-;https://link.springer.com/chapter/10.1007/11574620_27 77c59ab9ee9917a0d8d51a06805baca4;de;;;2.1.;;;Auf dem Weg zur Bildgebung groß angelegter Ontologien für ein schnelles Verständnis und eine schnelle Analyse In vielen praktischen Anwendungen neigen Ontologien dazu, sehr groß und kompliziert zu sein. Damit Benutzer groß angelegte Ontologien schnell verstehen und analysieren können, schlagen wir in diesem Beitrag einen neuartigen Ontologie-Visualisierungsansatz vor, der bestehende Ansätze wie den Hierarchiegraph ergänzen soll. Konkret erzeugt unser Ansatz ein ganzheitliches „Imaging“ der Ontologie, das ein semantisches Layout der Ontologieklassen enthält. Außerdem werden im „imaging“ auch die Verteilungen der Ontologieinstanzen und Instanzrelationen abgebildet. Wir stellen ausführlich die Schlüsseltechniken und Algorithmen vor, die in unserem Ansatz verwendet werden. Dann untersuchen wir die resultierende Benutzeroberfläche und stellen fest, dass sie Aufgaben wie Ontologie-Navigation, Ontologie-Retrieval und Ontologie-Instanzanalyse erleichtert.;-;-;-;https://link.springer.com/chapter/10.1007/11574620_50 704cb1155bc48a7b14dfe7f765005e35;de;;;2.1.;;;Aufbau einer Outranking-Relation basierend auf semantischen Kriterien mit ELECTRE-III ELECTRE-III ist eine bekannte multikriterielle Entscheidungsanalysemethode, die eine Reihe von Alternativen in Bezug auf eine Reihe von heterogenen Bewertungskriterien einordnet. Es basiert auf der Konstruktion und Nutzung einer paarweisen Überrangbeziehung zwischen Alternativen, die mit numerischen und ordinalen Werten definiert werden. Heutzutage ist es jedoch sehr üblich, beschreibende linguistische Tags zu verwenden, bei denen es sich um Informationen handelt, die eher einer qualitativen als einer numerischen Behandlung bedürfen. In diesem Beitrag schlagen wir vor, die Benutzerpräferenzen über eine Menge von Tags in einer ontologischen Struktur zu speichern und dieses Wissen zu verwenden, um die Rangordnungsbeziehung mittels einer semantischen Analyse der den Alternativen zugeordneten Tags zu konstruieren. Unsicherheit wird mit Hilfe von Fuzzy-Konkordanz- und Diskordanzfunktionen behandelt. Die Methode wird anhand einer Fallstudie zur Empfehlung von touristischen Aktivitäten veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-40581-0_20 f7b6db9c1e1946897ee8c3a4d9382bf8;de;;;2.1.;;;Ein halboffener Kodierungsmodus-Auswahlalgorithmus basierend auf EFM und ausgewählten AMR-WB+-Funktionen Um die Probleme des AMR-WB+ (Extended Adaptive Multi-Rate-WideBand) Semi-Open-Loop Coding Mode Selection Algorithmus zu lösen, werden Funktionen für die ACELP (Algebraic Code Excited Linear Prediction) und TCX (Transform Coded eXcitation) Klassifikation untersucht. 11 Klassifizierungsfunktionen im AMR-WB+-Codec werden ausgewählt und 2 neue Klassifizierungsfunktionen,;-;-;-;https://link.springer.com/article/10.1007/s11767-008-0094-8 6d41c7fe787f9814cd4260daf787771c;de;;;2.1.;;;Algorithmen für parakonsistentes Denken mit OWL In einer offenen, sich ständig verändernden und kollaborativen Umgebung wie dem bevorstehenden Semantic Web ist zu erwarten, dass Wissensquellen Rauschen und Ungenauigkeiten enthalten. Praktische Argumentationstechniken für Ontologien müssen daher tolerant gegenüber dieser Art von Daten sein, einschließlich der Fähigkeit, Inkonsistenzen auf sinnvolle Weise zu behandeln. Dazu verwenden wir parakonsistentes Denken auf Basis der Vier-Werte-Logik, eine klassische Methode zum Umgang mit Inkonsistenzen in Wissensbasen. Die Übertragung auf OWL DL erfordert jedoch grundlegende Designentscheidungen im Umgang mit Klasseninklusion, was in der Literatur zu unterschiedlichen Vorschlägen für parakonsistente Beschreibungslogiken geführt hat. In diesem Papier bauen wir auf einem der allgemeineren Ansätze auf, der aufgrund seiner Flexibilität für weitere Untersuchungen am vielversprechendsten erscheint. Wir stellen zwei für die Implementierung geeignete Algorithmen vor, einer basierend auf einer Vorverarbeitung vor dem Aufrufen eines klassischen OWL-Reasoners, der andere basierend auf einer Modifikation der KAON2-Transformationsalgorithmen. Wir berichten auch über unsere Umsetzung, genannt ParOWL.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72667-8_29 fdd3c3d2734ff8e47a17cc9cd949e773;de;;;2.1.;;;Eine teleologische Perspektive zur Definition und Messung von geistigem Kapital Das mitarbeiterzentrierte Denken trägt die Handschrift einer Ära nach der Industrialisierung, die in dem Versuch gipfelt, immaterielle Vermögenswerte zu verwalten und zu messen. Dennoch erzeugt die Unsichtbarkeit des IC-Konstrukts per se ontologisch und methodisch unüberwindbare Spaltungen. Wir nehmen eine teleologische Perspektive ein, um vorhandene IC-Metriken zu klassifizieren und zu vereinfachen, um die grundlegenden Fragen ihrer Messung herauszufiltern. Moralische Erwägungen werden betont, um die treue Verbindung zwischen dem menschlichen Fokus und dem Fokus auf Effizienz der Geschäftstätigkeit im Zusammenhang mit der IC-Berichterstattung zu verwirklichen. Abschließend formulieren wir theoretische und praktische Möglichkeiten, die sich aus der teleologischen Perspektive ergeben, die sowohl utilitaristische als auch moralische Überlegungen umfasst, um die Operationalisierung und Messung von IC zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87783-7_61 001f8e910511e0bc7b2eebd6f270190a;de;;;2.1.;;;Ein neuartiger Segmentierungsalgorithmus für weiße Blutkörperchen basierend auf dem adaptiven neutrosophischen Ähnlichkeitsscore Weiße Blutkörperchen (WBCs) spielen aufgrund ihrer Anzahl oder Morphologie eine entscheidende Rolle bei der Diagnose vieler Krankheiten. Die neuesten digitalen Pathologiegeräte untersuchen und analysieren die Blutausstrichbilder automatisch. Die vorherigen automatisierten Segmentierungsalgorithmen arbeiteten getrennt an gesunden und nicht gesunden WBCs. Außerdem hatten solche Algorithmen bestimmte Farbkomponenten verwendet, die bei verschiedenen Datensätzen adaptiv lecken.;-;-;-;https://link.springer.com/article/10.1007/s13755-017-0038-5 917e84d2660f92e8d31a3604f3aae3c6;de;;;2.1.;;;Das Konzept des Ununterscheidbarkeitsgrades des Grobsatzes zur Reduzierung der Dendrogramm-Instabilität Das Hauptkonzept der Grobmengentheorie besteht darin, Ähnlichkeiten von Objekten zu gruppieren, die auf den Begriffen der Ununterscheidbarkeitsbeziehung basieren. In diesem Beitrag entwickeln wir das Konzept des Ununterscheidbarkeitsgrades der Grobmengentheorie als zusätzliches Maß für hierarchisches Clustering. Die Kombination zwischen Ununterscheidbarkeit (quantitative Ununterscheidbarkeitsrelation) und Ununterscheidbarkeitsniveau wird als neue Methode zur hierarchischen Clusterbildung verwendet. Die Ununterscheidbarkeitsstufe quantifiziert die Ununterscheidbarkeit von Objektpaaren unter anderen Objekten im Informationssystem. Zum Vergleich wurden die folgenden vier Clustering-Methoden ausgewählt und anhand eines Simulationsdatensatzes bewertet: Average-, Complete- und Single-Linkage agglomeratives hierarchical clustering und Ward-Methode. Die Simulation zeigt, dass die hierarchische Clusterbildung zu einer Dendrogramm-Instabilität führt, die unter Permutationen der Eingabereihenfolge von Datenobjekten unterschiedliche Lösungen liefert. Das Ergebnis dieses Papiers zeigt, dass die neue Methode eine wichtige Rolle bei der Clusterbildung von Informationssystemen spielt und im Vergleich zu anderen Methoden die Clusterbildung basierend auf der Ununterscheidbarkeit und ihrem Ununterscheidbarkeitsgrad die Dendrogramminstabilität reduziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17622-7_21 a1393ab7490567b0bd891352f99dc7db;de;;;2.1.;;;Einführung in stilistische Modelle und Anwendungen Da sich dieses Buch auf die stilometrische Textklassifikation bezieht, bietet dieses erste Kapitel eine allgemeine Einführung in die grundlegenden Probleme und Fragen in diesem Bereich. Nachdem die Vielfalt der stilometrischen Probleme aufgezeigt wurde, definiert dieses Kapitel den Umfang und die Grenzen der verschiedenen stilometrischen Anwendungen. Da der Schreibstil das Hauptziel ist, wird eine Liste der zugrunde liegenden Faktoren bereitgestellt und kommentiert, die die stilistische Variabilität zwischen Autoren oder Kategorien aufklären. Anschließend werden mehrere mögliche Anwendungen beschrieben und diskutiert, beginnend mit dem Problem der Autorenschaftszuordnung. Diese Frage kann drei verschiedene Kontexte abdecken, nämlich die geschlossene Menge (alle möglichen Autoren sind bekannt), die offene Menge (nur eine Teilmenge aller möglichen Autoren wird angegeben) oder das Verifikationsproblem (nur ein einzelner Autor wird angegeben). . Als zweite Hauptanwendung besteht das Ziel darin, einige demografische Merkmale des Autors zu ermitteln (z. B. Ist dieser Text von einer Frau geschrieben? Welche Altersgruppe? Und was sind die wichtigsten psychologischen Merkmale des Autors?). Auch andere Anwendungsmöglichkeiten werden diskutiert, wie zum Beispiel forensische Fragestellungen, Autorenclustering, kollaborative Autorenschaft etc.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-53360-1_1 7af873c5aa027ec8e10a9d5f6ca3dc1e;de;;;2.1.;;;Verwendung nichtlinearer Antworten mehrerer taxonomischer Gruppen, um Kriterien festzulegen, die auf den biologischen Zustand von Feuchtgebieten hinweisen Die Festlegung von Kriterien zum Schutz oder zur Verbesserung des Zustands von Feuchtgebieten hat sich oft auf physikalische und chemische Faktoren konzentriert, die ein unvollständiges Bild der Qualität von Feuchtgebieten zeichnen können. Um die biologische Integrität von Gewässern zu schützen, ist die Ermittlung von Kriterien auf der Grundlage biologischer Reaktionen auf Verschmutzung unerlässlich. Wir gehen davon aus, dass die Bewertung mehrerer taxonomischer Gruppen und Ansprechschwellen statistisch vertretbare wirkungsbasierte Methoden zur Definition von Referenzbedingungen und zur Festlegung biologischer Kriterien liefern wird. Wir verwendeten Regressionsbaumanalysen, um nichtlineare biologische Reaktionen von drei taxonomischen Gruppen (Makrophyten, epiphytische Kieselalgen und pflanzenassoziiertes Zooplankton) zu identifizieren, die aus 36 Depressions-Feuchtgebieten im Einzugsgebiet des Muskegon River (Michigan, USA) gesammelt wurden. Für alle drei taxonomischen Gruppen wurden multimetrische biotische Indizes entwickelt und diese Indizes kombiniert, um biologisch relevante Schwellenwerte entlang eines Gradienten menschlicher Störungen aufzuzeigen. Wir stellten fest, dass diese drei taxonomischen Gruppen mit ähnlicher Beeinträchtigung reagierten und verwendet werden konnten, um Feuchtgebiete in drei Gruppen einzuteilen: Referenzstandorte, die die hochwertigsten Feuchtgebiete in der Landschaft darstellen, leicht veränderte Standorte, an denen die empfindlichsten Organismen reagierten (empfindliche Pflanzen, Kieselalgen), und degradierte Standorte, an denen umfangreiche Veränderungen in der Gemeindestruktur aufgetreten sind, die eine Verschiebung in einen anderen Zustand widerspiegeln können. Insbesondere für das Einzugsgebiet des Muskegon-Flusses ermöglichte uns diese Analyse, restaurierungsbedürftige Gebiete zu identifizieren, darunter etwa ein Drittel der Feuchtgebiete im Einzugsgebiet. Diese Studie skizziert eine Methode zur Identifizierung von Kriterien, die für regulatorische Zwecke verwendet werden könnten. Insbesondere empfehlen wir die Verwendung von Metriken auf Gemeindeebene, um breit angelegte Veränderungen in der Gemeindezusammensetzung zu identifizieren, die Verschiebungen in andere Staaten darstellen können, sowie die Verwendung sensibler Indikatoren, wie zum Beispiel das Vorkommen sensibler Pflanzen- und Diatomeentaxa.;-;-;-;https://link.springer.com/article/10.1672/0277-5212%282007%2927%5B96%3AUNROMT%5D2.0.CO%3B2 b23c6e22528eacb1d3b0df28ac69b0d4;de;;;2.1.;;;Verbesserung der Klassifikationsgenauigkeit mithilfe von Genontologie-Informationen Klassifikationsprobleme, z. B. das Vorhersageproblem der Genfunktion, sind in der Bioinformatik sehr wichtig. Bisherige Arbeiten konzentrieren sich hauptsächlich auf die Verbesserung der verwendeten Klassifikationstechniken. Mit dem Aufkommen der Gene Ontology (GO) kann zusätzliches Wissen über die Genprodukte aus GO extrahiert werden. Ein solches Wissen zeigt die Verwandtschaft der Genprodukte auf und ist hilfreich bei der Lösung der Klassifikationsprobleme. In diesem Beitrag schlagen wir eine neue Methode vor, um das Wissen aus GO in Klassifikatoren zu integrieren. Die Ergebnisse aus den Experimenten belegen die Wirksamkeit unserer neuen Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39678-6_29 3cfea36d1c3f22c3f07b60e4447906c1;de;;;2.1.;;;Eine Ontologie des Wandels normativer Systeme aus Agentensicht Anfechtbare deontische Logik hat sich als ausdrucksstark genug erwiesen, um ein normatives System darzustellen, und daher kann die Einhaltung eines solchen Systems mit Hilfe klassischer Modellprüftechniken logischer Systeme automatisch überprüft werden. Normative Systeme sind jedoch nicht statisch, da sie vom Gesetzgeber im Laufe der Zeit direkt durch Änderung einer Norm aktiv verändert werden können. Darüber hinaus können sich Normen passiv ändern, entweder durch die Änderung eines anderen Teils des normativen Systems oder durch die Änderung der Bedeutung, die die in der Norm verwendeten Begriffe betrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-51999-5_11 54b8f2848f8376122a896dbcefbbd43d;de;;;2.1.;;;Benutzerabfragebasierte automatische Textzusammenfassung von Webdokumenten mit Ontologie Die Zusammenfassung von Webdokumenten ist eine sehr wichtige Funktion für das Wissensmanagement, wenn Dokumente sehr groß und dynamisch sind. Dies hilft den Dokumentenlesern, leicht zu lesen und zu verstehen. Im Allgemeinen erfolgt die Zusammenfassung auf der Grundlage der Extraktion von Sätzen aus den abgerufenen Dokumenten und zusammengestellt mit dem erforderlichen Vorschlag. Textinhalte spielen im Web eine große Rolle, und die Extraktion von Textinhalten ist eine anspruchsvolle Aufgabe. In letzter Zeit ist eines der Probleme, die mit dem schnellen Wachstum des Webs und der allgemeinen Informationsverfügbarkeit (manchmal als Informationsüberladung bezeichnet) auftreten, der erhöhte Bedarf an einer effektiven und leistungsfähigen Textzusammenfassung. In diesem Papier wird ein System zur automatischen Textzusammenfassung aus den Quelldokumenten aufgebaut, die aus dem Web abgerufen werden. Das vorgeschlagene Verfahren berücksichtigt den Ontologie-Ansatz, um die Textzusammenfassung nach Abfragebegriffen zu extrahieren, die aufgrund ihrer Tiefe im Ontologie-Graphen vorhanden sind. Außerdem werden Attribute verwendet, um die semantische Darstellung der Informationen eines Satzes aus Inhalten zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4909-4_45 8d2e3ae1746b4ab1093b3c855b604e00;de;;;2.1.;;;Domänenspezifische Metadaten als Schlüssel zum Erstellen semantisch reichhaltiger Schemamodelle Die Bereitstellung eines integrierten Zugriffs auf Daten von vielen unterschiedlichen und heterogenen Informationsservern (IS) erfordert tiefes Wissen, nicht nur über die Struktur der auf jedem Server repräsentierten Daten, sondern auch über die häufig auftretenden Unterschiede in der beabsichtigten Semantik dieser Daten. Leider fehlt es sehr oft an solchem ​​Wissen und die lokalen Schemata, die aufgrund der begrenzten Aussagekraft traditioneller Datenmodelle semantisch schwach sind, helfen nicht beim Erwerb dieses Wissens. In diesem Papier schlagen wir domänenspezifische Metadaten als Schlüssel zum Upgrade der semantischen Ebene der lokalen ISs vor, auf die ein Integrationssystem Zugriff benötigt, und zum Aufbau semantisch reichhaltiger Schemamodelle. Wir bieten einen Rahmen, um die einzelnen IS-Schemata mit semantischem Domänenwissen anzureichern, um die Annahmen explizit zu machen, die von ihren Designern gemacht wurden, für den Integrator (Interpreter oder Benutzer) von Interesse sind und die möglicherweise nicht mit der DDL-Sprache erfasst werden ihrer Host-Server. Das angereicherte schemasemantische Wissen ist nach Ebenen der schematischen Granularität organisiert: Datenbank-, Schema-, Attribut- und Instanzebenen, die zu semantisch reichen Schemamodellen führen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45581-7_18 60a55471c3a5f9870c787448830d607b;de;;;2.1.;;;Ein Websystem zur dynamischen Darstellung von Sonderfunktionen in einem mathematischen Softwarepaket Ein mathematisches Softwarepaket NUMPAC enthält viele Routinen zur Berechnung spezieller Funktionen von Einzel- oder Doppelvariablen. Um jede spezielle Funktion in 2D- oder 3D-Grafik anzeigen zu können, haben wir ein System im Web aufgebaut. Dieses System ermöglicht es Anwendern, spezielle Funktionen in 3D-Grafiken sowohl dynamisch als auch interaktiv darzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-49022-7_48 fcd35267da7974595210fc200709b022;de;;;2.1.;;;Ein Modell für Fähigkeiten und Kompetenzen und seine Anwendung in der Landwirtschaft Die sich wandelnden Bedürfnisse innerhalb der europäischen Lern- und Beschäftigungslandschaft stellen klare und ausgereifte Anforderungen an die Kombination und Integration europäischer Politiken und Metadatenstandards hin zu einem europäischen Kompetenzmodell, das technologiegestütztes Lernen, Ausbildung und Beschäftigung unterstützen und so die Mobilität erhöhen kann, und Beschäftigungsmöglichkeiten für europäische Bürger. Ausgehend von der generischen Domänenmodellierung bietet das eCOTOOL-Projekt eine formale Struktur zur Darstellung von Fähigkeiten und Kompetenzen, die zwischen zwei wichtigen Benutzergruppen unterscheidet und auf die Bedürfnisse reagiert: diejenigen, deren Arbeit sich auf die berufliche Bildung (VET) oder Beschäftigung bezieht, und diejenigen, die Werkzeuge. Dieses Papier präsentiert und erklärt das High-Level-Kompetenzmodell“, das auf Papier für allgemeine Fachleute funktioniert, das technische Kompetenzmodell, das die ontologische Grundlage für den effektiven interoperablen Werkzeugbau bildet, zusammen mit der verfolgten Methodik und Begründung. Darüber hinaus werden die Nutzung und Nutzung des Modells in Instrumenten wie dem Europass Certificate Supplement (ECS), einem europäischen Papierformat zur Präsentation der in der Berufsbildung erworbenen Fähigkeiten und Kompetenzen, anhand konkreter Beispiele für den Bereich Landwirtschaft diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24731-6_51 2b4f6db062df7afa7dc682ce0d438251;de;;;2.1.;;;Die vergleichende Analyse zum Informationsbedarf der Nutzer in medizinischen Online-Plattformen Dieses Papier konzentrierte sich auf die Erforschung der Konsultation der Benutzer in medizinischen Online-Plattformen. Die Fragen der Patienten zu Bluthochdruck in drei verschiedenen am häufigsten genutzten chinesischen Medizinplattformen wurden gecrawlt und vergleichend analysiert. Das von Jsoup geschriebene Web-Spider-Programm wurde zum Crawlen von Daten von 39.net verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-02116-0_51 b4b31a63ee910be05895b5879edb703d;de;;;2.1.;;;Ein adaptiver wissensbasierter Ansatz zur Betrugserkennung in verschiedenen E-Government-Domänen Betrugserkennungs- und -präventionssysteme basieren auf verschiedenen technologischen Paradigmen, aber das vorherrschende ist regelbasiertes Denken. Die meisten der bestehenden regelbasierten Betrugsaufdeckungssysteme bestehen jedoch aus festen und unflexiblen Entscheidungsfindungsregeln, die die Wirksamkeit solcher Systeme erheblich einschränken. In diesem Beitrag stellen wir einen Betrugserkennungsansatz vor, der die Technologien wissensbasierter Systeme und adaptiver Systeme kombiniert, um die Grenzen des traditionellen regelbasierten Denkens zu überwinden. Unser Ansatz wird durch eine integrierte generische Methodik zur Bekämpfung von Betrug in verschiedenen E-Government-Domänen und -Organisationen durch eine Reihe klar definierter Schritte unterstützt, die eine effiziente Anwendung des Ansatzes gewährleisten. Es wird auch durch ein generisches ontologisches Framework unterstützt, auf dessen Grundlage verschiedene domänenspezifische Betrugswissensmodelle aufgebaut werden können und durch das der generische Charakter und die Anpassungsfähigkeit unseres Ansatzes sichergestellt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88653-2_8 89ddef4f63e7d43605ea5ca75e749c31;de;;;2.1.;;;Bakterielle Vaginose Bakterielle Vaginose („unspezifische Vaginitis“) ist eine Krankheit, die durch einen übelriechenden Scheidenausfluss und eine Überwucherung der normalen Bakterienflora der Vagina mit verschiedenen anaeroben Bakterienarten gekennzeichnet ist,;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-3898-0_9 811e5941f849712a32af75b336f800a4;de;;;2.1.;;;Palynomorphe und organisches Material aus den Raibler Schichten einer Oberostalpinen Schuppe der Iberger Klippen (Kanton Schwyz, Schweiz) An Proben der obertriasischen Raibl-Schichten aus einer oberösterreichisch-alpinen Überschiebungsplatte, die im Bereich der Iberg Klippen (Laucherenstöckli) erhalten wurden, wurde eine Palynologie- und organische Substanzstudie durchgeführt. Die palynologischen Assemblagen weisen auf ein frühes karnisches (julianisches) Zeitalter hin. Der Vergleich mit gut kalibrierten Abfolgen aus den Südalpen legt eine Korrelation mit der spätjulianischen Ammonoidzone nahe;-;-;-;https://link.springer.com/article/10.1007/s00015-006-1181-1 3fd7afd96fea66f85bd4ef240299dc36;de;;;2.1.;;;Vorhersage der Gratbildung beim Planfräsen mit einem hybriden GMDH-Netzwerkmodell mit optimierten Schnittbedingungen In diesem Beitrag wird eine kombinierte Hybridgruppenmethode zur Datenhandhabung und Optimierung vorgestellt, um beim Planfräsen gebildete Grattypen vorherzusagen. Die Hybridgruppenmethode zur Datenhandhabung (Hybrid GMDH) wurde konstruiert, um Vorhersagemodelle für die Bearbeitung von Aluminiumlegierungen zu realisieren, und die differentielle Evolution wurde für die Optimierung des Gratbildungsproblems ausgewählt, um optimale Parameter zur Minimierung der Gratbildung zu finden. Der Grattyp wurde als Parameter aufgenommen, was zu einem Klassifizierungsschema führte, bei dem der Grattyp zum Gruppenlabel wird und es daher möglich ist, einen Bearbeitungsprozess in Zukunft in jeden dieser Grattypen einzuordnen. Die resultierende Hybrid-GMDH-Ausgabe stimmte mit experimentellen Ergebnissen überein, wodurch das vorgeschlagene Schema zur Modellierung und Vorhersage der Gratbildung bei Fräsoperationen validiert wurde.;-;-;-;https://link.springer.com/article/10.1007/s00170-008-1909-3 67083d5a63558f2b78eca550c997b0bb;de;;;2.1.;;;Abrufen von Wissen im Bereich E-Government: Die Perspektiven der Ontologie für Systeme zur Aufzeichnung von Dokumenten im Regulierungsbereich Wenn E-Government-Systeme die erwarteten Ziele der Speicherung, Manipulation, Verbreitung und Bewahrung von Wissen erreichen sollen, müssen diese Systeme Mechanismen für domänenspezifische Informationen beinhalten. Ein oft übersehener Vorteil für diese Aktivität ist das Wissen, das in und zwischen Aufzeichnungen und älteren Aufzeichnungssystemen eingebettet ist. Da jedoch regierungsweite Dokumentationsmanagementsysteme und fachspezifische Ressourcenbeschreibungen fehlen, ist ein rechtzeitiger Abruf relevanter Aufzeichnungen unmöglich. In diesem Artikel wird der Nutzen von Ontologien für einen verbesserten Abruf von Fachdomänenwissen untersucht. Zu diesem Zweck wurden historische Aufzeichnungen und Aufzeichnungssysteme überprüft. Es wurden strukturelle und semantische Informationen abgeleitet, aus denen Anforderungen an eine Ontologie im Themenbereich Exportkontrollregulierung abgeleitet wurden. Klasse, Unterklasse, Instanz und Beziehungen wurden über ein Entity-Relationship-Diagramm identifiziert und modelliert. Durch diese Übung wird deutlich, dass E-Government-Systeme ein großes Potenzial zur Umgehung früherer Informationsmanagement-Mängel haben und Ontologien eine Rolle beim Übergang von Informationssystemen zu Wissenssystemen spielen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24683-1_12 8504670a1593419fe42b1fb6ab36d6a2;de;;;2.1.;;;Ein Ansatz der Taxonomie mehrdimensionaler Würfel, die visuell multivariable Daten darstellen In der Datenvisualisierung ermöglichen Grafiken, die multivariable Daten auf multidimensionalen, koordinatenförmigen Würfeln darstellen, dem Menschen ein besseres Verständnis der Bedeutung von Daten. Es gibt verschiedene Arten von Cubes zur Darstellung verschiedener Datasets. Das Papier zielt darauf ab, Arten von Würfeln zu klassifizieren, um es dem Menschen zu ermöglichen, Würfel zu entwerfen, die multivariable Datensätze darstellen. Mathematisch führen die funktionalen Beziehungen zwischen fünf Gruppen von Variablen zur Strukturierung von Würfeln. Das Papier klassifiziert Würfel nach den Eigenschaften von Datensätzen in drei Arten, einschließlich mehrdimensionaler Würfel im Nicht-Raum, im 2D-Raum und im 3D-Raum. Die nicht-raumbezogenen multidimensionalen Würfel werden für nicht-raumbezogene multivariable Datasets mit Variablen von Objekten, Attributen und Zeiten angewendet. Die multidimensionalen Würfel im 2D-Raum werden für die Datensätze von Movern oder Objekten verwendet, die sich in Zeiteinheiten auf dem Boden befinden. Die multidimensionalen Würfel im 3D-Raum werden für die Datensätze von Flyern oder Objekten verwendet, die in Zeiteinheiten im erhöhten Raum positioniert sind. Die auf den Würfeln dargestellte räumliche und/oder zeitliche Korrelation ermöglicht es dem Menschen, neue wertvolle Informationen zu entdecken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-34365-1_8 3166005f10c68e2fd59f32e20cb35c03;de;;;2.1.;;;Bedeutung der Ontologie für die Verbesserung von Vorschlägen in einem Nachrichtenempfehlungssystem für einen Finanzinvestor Im Hinblick auf die aktuelle Informationsgesellschaft, in der Nachrichten und Informationen im Allgemeinen mit einer bemerkenswerten Geschwindigkeit ablaufen, ist es zwingend erforderlich, dass Ereignisse von kapitaler Bedeutung für die Weltwirtschaft (und andere Bereiche) in Echtzeit verfügbar sind und verbreitet werden. Daher beziehen wir uns auf Nachrichten, die die Aktienkurse, Devisen, Ölkurse usw. stark beeinflussen können. Angesichts der Tatsache, dass das Internet reich an Nachrichten ist, versuchen wir in unserer laufenden Forschung (im Rahmen der Förderung TE 316 „Intelligente Methoden zur Entscheidungsfindung bei Börsentransaktionen, basierend auf öffentlichen Informationen“) eine Lösung vorzuschlagen, um wichtige Nachrichten zu extrahieren Informationen, deren Interpretation in Echtzeit, gefolgt von Vorschlägen für mögliche Entscheidungsalternativen an die am Börsenmarkt beteiligten Vertreter. In der vorliegenden Arbeit stellen wir unsere Ausgangsideen für ein konzeptionelles Modell für eine semantische Web-Nachrichtensuche dar, die Multi-Agent-Technologien, semantisches Web, Textsuche und Mining sowie RSS-Newsfeeds umfasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24731-6_18 0b4b5a4c57ce4222dbb6a5ae6b51f7d5;de;;;2.1.;;;Nahrungsnetze: Vom Lindeman-Paradigma zu einer taxonomischen allgemeinen Ökologietheorie Die Nahrungsnetzforschung nimmt einen besonderen Platz innerhalb der Disziplin der Ökologie ein. Fretwell (1987) hat dies durch den rhetorischen Titel seines Aufsatzes „Food Chain Dynamics: The Central Theory of Ecology?“ deutlich gemacht. Eine zentrale oder allgemeine Theorie der Ökologie würde erfordern, dass die Schlüsselkomponenten der Wissenschaft allein aus dem Studium von Nahrungsketten oder Nahrungsnetzen abgeleitet werden könnten. Der Begriff des Ökosystems ist von besonderer Bedeutung für eine allgemeine Ökologietheorie und es wird gezeigt, wie das Ökosystem aus dem Nahrungsnetz heraus definiert werden kann. Die Aussage (McNaughton et al., 1989), dass „Ökosysteme strukturell als Nahrungsnetze organisiert sind“ identifiziert den hier verfolgten Ansatz, der sich deutlich vom Tansley-Lindeman-Konzept unterscheidet, dass Ökosysteme physikalisch-chemisch-biologische Systeme sind. Eine allgemeine Ökologietheorie sollte auch einen klaren Bezug zur Evolutionstheorie und zu den Domänen anderer Wissenschaften aufweisen. Die räumliche Skala, die von Nahrungsquellen innerhalb eines Nahrungsnetzes abgeleitet wird, wird verwendet, um die intrinsische räumliche Skala in der Ökologie zu definieren und daraus den Bereich der Ökologie im Unterschied zu anderen Wissenschaften zu definieren. Die Forderung, dass jede allgemeine Ökologietheorie mit der Evolutionstheorie vereinbar sein sollte, wird sowohl durch die Definition des Ökosystems als reproduktive Abstammungslinie (Hull, 1974) als auch durch die Ablehnung von Kategorien auf trophischer Ebene zugunsten taxonomischer Kategorien erfüllt, von denen aus man leiten die Eigenschaften von Nahrungsnetzen ab (Cousins, 1985, 1988).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-7007-3_24 0fbeb00c2e45616e1f33e39ab86307a7;de;;;2.1.;;;Verbesserung von Folksonomien durch formales Wissen: Eine Fallstudie zur Suche on Die Suche in Folksonomien wird durch das Fehlen von maschinenverständlichen Beschreibungen für die Bedeutung von Tags und deren Beziehungen erschwert. Ein Ansatz zur Lösung dieses Problems ist die Verwendung formaler Wissensressourcen (KS), um den Tags eine Bedeutung zuzuweisen, insbesondere WordNet und (Online-)Ontologien. Es gibt jedoch keine Erkenntnisse darüber, wie die unterschiedlichen Eigenschaften solcher KS dazu beitragen können, die Suche in Folksonomien zu verbessern. In dieser Arbeit vergleichen wir die beiden KS im Kontext der Folksonomy-Suche, indem wir zunächst die angereicherten Strukturen evaluieren und dann eine Benutzerstudie zum Durchsuchen des Folksonomy-Inhalts durch diese Strukturen durchführen. Wir vergleichen sie auch mit der clusterbasierten Folksonomie-Suche. Wir zeigen, dass die Vielfalt der Ontologien im Vergleich zu WordNet zu zufriedenstellenderen Ergebnissen führt, obwohl letzteres reichhaltigere Strukturen bietet. Wir schließen auch, dass die Eigenheiten von Folksonomien nicht nur mit formalen KS angesprochen werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10871-6_19 99e93b1164b168bf61bfb8fbbddf3ac4;de;;;2.1.;;;PSL: Eine semantische Domäne für Strömungsmodelle Flussmodelle liegen gängigen Programmiersprachen und vielen grafischen Tools zur Verhaltensspezifikation zugrunde. Ihre Semantik ist jedoch typischerweise mehrdeutig, was zu Missverständnissen zwischen Modellierern und unerwarteten Implementierungsergebnissen führt. In diesem Artikel wird eine Möglichkeit vorgestellt, gängige Flussmodellierungskonstrukte eindeutig zu machen, indem ihre Semantik als Einschränkungen für Laufzeitsequenzen der Verhaltensausführung ausgedrückt wird. Es zeigt auch, dass eine reduzierte Mehrdeutigkeit leistungsfähigere Modellierungsabstraktionen ermöglicht, wie z. B. partielle Verhaltensspezifikationen. Die in diesem Papier betrachtete Laufzeitdarstellung verwendet die Process Specification Language (PSL), die in der Logik erster Ordnung definiert ist, wodurch sie für automatisiertes Denken zugänglich ist. Die Aktivitätsdiagramme der Unified Modeling Language werden beispielsweise für Flussmodelle verwendet.;-;-;-;https://link.springer.com/article/10.1007/s10270-004-0066-x 3782feae13f1f5db423a8b1b79e9ba6d;de;;;2.1.;;;Die Reifung eines Flagellums/Basalkörpers erfordert mehr als einen Zellzyklus bei Algengeißeln: Studien zu Die meisten Algengeißeln tragen zwei Geißeln pro Zelle, die sich in Größe, Struktur und Funktion voneinander unterscheiden (Übersicht: Moestrup 1982). Bei den Grünalgen (Chlorophyta) tragen jedoch die meisten begeißelten Taxa strukturell identische Geißeln (2,4 oder selten 8 pro Zelle). Aber auch in dieser Algengruppe deuten neuere Erkenntnisse darauf hin, dass mindestens zwei Flagellen einer Zelle funktionell unterschiedlich sind, eine Voraussetzung für wesentliche Verhaltensreaktionen wie Phototaxis (Kamiya et al. 1984, Übersicht: Melkonian et al. 1984).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-72604-0_13 03c90695010d83cf7f7a0964982d4eb4;de;;;2.1.;;;Stoffwechsel von Kohlenhydraten Glykoproteine ​​sind nach gängigen Definitionen Makromoleküle aus Polypeptiden, an die eine oder mehrere Zuckereinheiten kovalent gebunden sind. Es überrascht nicht, dass auch in Pflanzen Glykoproteine ​​vorkommen, von denen seit vielen Jahren im Tierreich lebenswichtige Funktionen bekannt sind (GOTTSCHALK, 1972, SPIRO, 1973). Einige der für tierische Glykoproteine ​​festgestellten Merkmale scheinen mit derselben Klasse von Makromolekülen in Pflanzengeweben vergleichbar zu sein, jedoch mit einigen wesentlichen Unterschieden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-67873-8_4 a2e0405803fc4bd17ed22e89bed27a9c;de;;;2.1.;;;Ein quadratischer Programmieransatz mit mehreren Kriterien zur Erkennung von Netzwerkangriffen Die frühzeitige und zuverlässige Erkennung und Abschreckung von böswilligen Angriffen, sowohl von externen als auch von internen Quellen, ist ein entscheidendes Thema für das heutige E-Business. Heutzutage stehen verschiedene Methoden zur Intrusion Detection zur Verfügung, jedoch hat jede Methode ihre Grenzen und neue Ansätze sollten noch erforscht werden. Die Ziele dieser Studie sind zweierlei: Eines besteht darin, die Formulierung des Ansatzes der quadratischen Programmierung mit mehreren Kriterien (MCQP) zu diskutieren und die Anwendbarkeit der quadratischen Klassifikationsmethode auf das Problem der Intrusion Detection zu untersuchen. Die Demonstration einer erfolgreichen Anwendung der quadratischen Programmierung mit mehreren Kriterien bei der Intrusion Detection kann eine weitere Option zur Toolbox der Netzwerksicherheit hinzufügen. Die Klassifikationsergebnisse werden durch Kreuzvalidierung überprüft und durch eine Ensemble-Methode verbessert. Die Ergebnisse zeigten, dass MCQP ausgezeichnet und stabil ist. Darüber hinaus kann das Ergebnis von MCQP durch die Ensemble-Methode verbessert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30537-8_16 46dfc5e04feab6d0f395b40cf21d7ffe;de;;;2.1.;;;Zur Lösbarkeit des Geist-Körper-Problems Das Leib-Seele-Problem wird aus physikalistischer Perspektive analysiert. Durch die Kombination der Konzepte der Emergenz und der algorithmischen Informationstheorie in einem Gedankenexperiment mit einem grundlegenden nichtlinearen Prozess wird gezeigt, dass sich epistemologisch emergente Eigenschaften in einem physikalischen System entwickeln können. In Bezug auf das wesentlich komplexere neuronale Netzwerk des Gehirns wird anschließend argumentiert, dass Bewusstsein erkenntnistheoretisch emergent ist. Somit scheint ein reduktionistisches Verständnis des Bewusstseins nicht möglich zu sein, das Geist-Körper-Problem hat keine reduktionistische Lösung. Der ontologisch emergente Charakter des Bewusstseins wird dann aus einer kombinatorischen Analyse in Bezug auf universelle Grenzen identifiziert, die von der Quantenmechanik gesetzt werden, was impliziert, dass Bewusstsein grundsätzlich nicht auf Phänomene niedriger Ebene reduzierbar ist.;-;-;-;https://link.springer.com/article/10.1007/s10516-019-09454-x 94c1bbfd66cf31d346d3ec25ec0a81cb;de;;;2.1.;;;Bewertung der Qualität von Suchprozessmodellen Suchprozesse sind hochindividuelle Geschäftsprozesse, die das Suchverhalten von Benutzern in Suchsystemen widerspiegeln. Die Analyse von Suchprozessen ist ein vielversprechendes Instrument, um Customer Journeys und Experience zu verbessern. Die Qualität der Analyseergebnisse hängt von den zugrunde liegenden Daten ab, d. h. von Protokollen und den Suchprozessmodellen. Es ist jedoch unklar, was Qualität in Bezug auf Suchprozessprotokolle und -modelle bedeutet. Dieses Dokument definiert Suchprozessmodelle und überprüft bestehende Prozessmodell- und Protokollqualitätsmetriken. Es wird eine Metrik für Suchprozessmodelle vorgeschlagen, die deren Komplexität und den Grad des gemeinsamen Verhaltens bewertet. Um Metriken für Suchprozessmodelle zu vergleichen, werden verschiedene Logs und Suchprozesse generiert, indem Ontologien zur Benutzerführung während der Suchprozessausführung und zur Nachbearbeitung der Logs verwendet werden. Basierend auf einem Experiment mit Benutzern im Tourismusumfeld werden verschiedene Protokolle und Modelle erstellt und verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98648-7_26 8231a4bb811949696aecec1f353cd282;de;;;2.1.;;;Verwenden von OWL 2 DL zum Ausdrücken von ACL-Inhalt und -Semantik Das Design und die Implementierung offener Interaktionssysteme wird allgemein als ein entscheidendes Thema bei der Entwicklung innovativer Anwendungen im Internet angesehen. In diesem Beitrag verfolgen wir das Ziel, die Interoperabilität und Offenheit in offenen Interaktionssystemen durch den systematischen Einsatz von Webstandards zu verbessern. Wir schlagen einen Weg vor, die semantische Websprache OWL 2 DL zu verwenden, um sowohl den Inhalt einer ACL-Nachricht, deren Struktur mit FIPA-ACL kompatibel ist, als auch die Bedeutung der gesamten Nachricht unter Verwendung einer Commitment-basierten Semantik darzustellen, in z Weise, dass OWL-Schlussfolgern über die Nachrichtenbedeutung ermöglicht wird. Zu diesem Zweck spezifizieren wir eine Reihe von ACL-Konventionen bezüglich der domänenunabhängigen Komponenten der Inhaltssprache und der Semantik von Nachrichten, beschreiben eine Reihe unterstützender OWL-Ontologien und veranschaulichen unseren Vorschlag mit der Analyse einer kommissiven Nachricht: ein Leistungsversprechen eine bestimmte Aktion innerhalb einer bestimmten Frist, wenn bestimmte Bedingungen erfüllt sind. Anschließend beschreiben wir einen demonstrativen Prototyp eines Systems, in dem diese Konventionen konkret umgesetzt werden und das auf Web-Service-Technologien (WSDL, SOAP und HTTP für den Nachrichtentransport) basiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34799-3_7 5d571aa8724bf90b2bdf8cf7941b4f1c;de;;;2.1.;;;Topic Maps Matching-Berechnung basierend auf zusammengesetzten Matchern In diesem Beitrag schlagen wir einen multistrategischen Matching-Ansatz vor, um Übereinstimmungen zwischen Ontologien basierend auf den syntaktischen oder semantischen Merkmalen und Beschränkungen der Topic Maps zu finden. Unser multistrategischer Matching-Ansatz besteht aus einem linguistischen Modul und einem auf Einschränkungen basierenden Topic Map-Modul. Ein linguistisches Modul berechnet Ähnlichkeiten zwischen Konzepten unter Verwendung morphologischer Analyse und sprachabhängiger Heuristiken. Ein Modul für Topic Map-Einschränkungen nutzt verschiedene von Topic Maps abhängige Techniken, wie z. Es ist nicht erforderlich, ein Kreuzpaar aller Themen aus den Ontologien zu generieren, da nicht übereinstimmende Themenpaare durch Eigenschaften und Einschränkungen der Topic Maps entfernt werden können. Unsere Experimente zeigen, dass die automatisch generierten Matching-Ergebnisse den manuell von Domänenexperten generierten Outputs entsprechen, was für die weitere Arbeit sehr vielversprechend ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72586-2_100 4da9558c1c8c882a409755ba7396e957;de;;;2.1.;;;SWS für die Warnung vor finanzieller Überziehung In diesem Whitepaper stellen wir einen Notification Agent vor, der mit Semantic Web Services entworfen und implementiert wurde. Der Notification Agent verwaltet Warnungen, wenn kritische finanzielle Situationen auftreten, indem er Benachrichtigungsdienste erkennt und auswählt. Dieser Agent wendet offene Forschungsergebnisse zu Semantic Web Services-Technologien an, einschließlich der On-the-Fly-Komposition basierend auf einer endlichen Zustandsmaschine und der automatischen Erkennung semantischer Dienste. Ontologien der Finanzdomäne, basierend auf dem Finanzstandard IFX, wurden konstruiert und erweitert, um Agentensysteme zu erstellen, die den OWL- und OWL-S-Standard (sowie andere Ansätze wie DL oder f-Logic) verwenden. Dieser Agent wird über integrierte Online-Aggregationssysteme in kommerziellen Finanzorganisationen angeboten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30475-3_54 33cac209ee6a52f206d9fbaecac36ee3;de;;;2.1.;;;Veröffentlichung von semantischen Webservices und OCT-basierte Erkennung in einem strukturierten P2P-Netzwerk Die Semantic Web Services (SWS)-Technologie wurde entwickelt, um die Unzulänglichkeiten traditioneller Standards wie WSDL und UDDI zu überwinden und maximale Automatisierung in allen Aspekten von Webservices zu ermöglichen. Aber eine große Verbesserung der Fähigkeiten bei der SWS-basierten Diensterkennung ist immer noch erwünscht. Um dieses Problem anzugehen, präsentieren wir einen verteilten und auf Semantik-Matching basierenden Ansatz für die SWS-Veröffentlichung und -Erkennung durch den Einsatz strukturierter P2P-Technologie. In diesem Papier stellen wir zunächst unsere Service-Matching-Regel vor, die sich auf die Inputs und Outputs von SWS konzentriert. Um diese Regel in einer offenen verteilten Umgebung zu realisieren und die optimale Übereinstimmung zwischen einer Abfrage und ihren qualifizierten Diensten zu erreichen, schlagen wir nicht nur ein Konzept des Ordered-Concept-Tree (OCT) vor, um die relevanten Konzepte für den Dienstvergleich semantisch zu sortieren, eine Methode zur Veröffentlichung von Ontologien in einem strukturierten P2P-Netzwerk, um die Konzepte, die in verschiedenen Ontologien für den ÜLG-Bau definiert sind, frei zu teilen und vollständig zu nutzen. Schließlich präsentieren wir eine Methode für die SWS-Publikation im P2P-Netzwerk und einen Algorithmus zur Diensterkennung. Wir führen auch Experimente durch, um unseren Ansatz zu bewerten, und die experimentellen Ergebnisse zeigen seine Skalierbarkeit, Effektivität und Rückruffähigkeit, um semantische Webdienste zu entdecken.;-;-;-;https://link.springer.com/article/10.1007/s11761-011-0097-4 f259ca458122da5aeb62627139531396;de;;;2.1.;;;Ein Kundenbenachrichtigungs-Agent für finanzielle Überziehungen mit Semantic Web Services In diesem Whitepaper stellen wir einen Notification Agent vor, der mit Semantic Web Services entworfen und implementiert wurde. Der Notification Agent verwaltet Warnungen, wenn kritische finanzielle Situationen auftreten, indem er Multichannel-Benachrichtigungsdienste erkennt und auswählt. Dieser Agent wendet offene Forschungsergebnisse zu Semantic Web Services-Technologien an, einschließlich der On-the-Fly-Komposition basierend auf einer endlichen Zustandsmaschine und der automatischen Erkennung semantischer Dienste. Ontologien der Finanzdomäne, basierend auf dem Finanzstandard IFX, wurden konstruiert und erweitert, um Agentensysteme zu erstellen, die den OWL- und OWL-S-Standard (sowie andere Ansätze wie DL oder f-Logic) verwenden. Dieser Agent wird über integrierte Online-Aggregationssysteme in kommerziellen Finanzorganisationen angeboten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30202-5_25 c87c776b614a903c652544d2a545c815;de;;;2.1.;;;PSC-Net: Lernteil räumliche Kookkurrenz zur Erkennung verdeckter Fußgänger Die Erkennung von Fußgängern, insbesondere unter starker Okklusion, ist bei zahlreichen realen Anwendungen ein anspruchsvolles Computervisionsproblem. In diesem Beitrag wird ein neuartiger Ansatz, der als PSC-Net bezeichnet wird, zur Erkennung verdeckter Fußgänger vorgestellt. Das vorgeschlagene PSC-Net enthält ein dediziertes Modul, das entworfen ist, um sowohl inter- als auch intrapart-Co-Auftrittsinformationen verschiedener Fußgängerkörperteile durch ein Graph Convolutional Network (GCN) explizit zu erfassen. Sowohl Inter- als auch Intra-Part-Co-Auftrittsinformationen tragen zur Verbesserung der Merkmalsdarstellung für die Handhabung unterschiedlicher Okklusionsgrade bei, die von partiellen bis hin zu schweren Okklusionen reichen. Unser PSC-Net nutzt die topologische Struktur von Fußgängern und erfordert keine teilebasierten Annotationen oder zusätzlichen sichtbaren Bounding-Box-(VBB)-Informationen, um die räumliche Kookkurrenz von Teilen zu lernen. Umfassende Experimente werden mit drei anspruchsvollen Datensätzen durchgeführt: CityPersons-, Caltech- und CrowdHuman-Datensätzen. Insbesondere in Bezug auf die log-durchschnittlichen Fehltrefferraten und mit dem gleichen Backbone und Input-Skala wie denen des hochmodernen MGAN erzielt das vorgeschlagene PSC-Net absolute Gewinne von 4,0 % bzw Okklusions-Untergruppen von CityPersons- bzw. Caltech-Testsätzen.;-;-;-;https://link.springer.com/article/10.1007/s11432-020-2969-8 6ea502f5eb1fcfb0e0305f0a90557697;de;;;2.1.;;;Rolle klinischer Attribute bei der automatischen Klassifizierung von Mammogrammen Es wurde festgestellt, dass die Mammographie eine wichtige Rolle bei der Früherkennung von Brusterkrankungen spielt. Wir wissen auch, dass die computergestützte Ermächtigung der Mammographie relevante und wichtige Informationen ermöglicht. Mehrere Forschungsgruppen untersuchen verschiedene Aspekte von Mammogrammen im Hinblick auf die Merkmalsauswahl, um ein effektives automatisches Klassifizierungssystem zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13728-5_32 2744e81d71e0388e1668daf1d6e24c0a;de;;;2.1.;;;Unterstützung für die Aktualisierung von wissensbasierten Engineering-Vorlageninstanzen Dieses Dokument stellt einen Ansatz zur Unterstützung der Aktualisierung von Vorlageninstanzen für wissensbasiertes Engineering vor. Als Ergebnis dieses Ansatzes erhalten Ingenieure eine Reihe von Dokumenten, die die Reihenfolge angeben, in der sie aktualisiert werden müssen. Die Generierung der Sequenz basiert auf den Abhängigkeiten. Um eine Sequenz berechnen zu können, werden Informationen über Templates, Computer-Aided-Design-Modelle und deren Beziehungen benötigt. Daher wurde eine Ontologie entworfen, um eine umfassende Wissensrepräsentation über Templates und Assemblies bereitzustellen und Rückschlüsse auf dieses Wissen zu ermöglichen. Dieses Wissen nutzt dann ein Ranking-Algorithmus, der aus modifizierten Templates die Sequenz generiert, ohne dass eine manuelle Analyse der Modelle und ihrer Abhängigkeiten erforderlich ist. Dadurch werden Fehler vermieden und Zeit gespart, da die Analysen und Auswahlmöglichkeiten automatisch berechnet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19802-1_11 ec1ca095a8994fd0b58f332fe99e3b27;de;;;2.1.;;;Räumliche Visualisierung konzeptioneller Daten Zahlreiche Data-Mining-Methoden wurden entwickelt, um relevante und signifikante Informationen aus großen Datensätzen zu extrahieren. Die Berechnung von Konzeptgittern ermöglicht das Clustern von Daten gemäß ihren gemeinsamen Merkmalen und die explizite Darstellung aller Beziehungen zwischen ihnen. Die Größe solcher Gitter nimmt jedoch exponentiell mit dem Datenvolumen und der Anzahl der Dimensionen zu. Dieser Beitrag schlägt vor, räumliche (pixelorientierte) und baumbasierte Visualisierungen dieser konzeptionellen Strukturen zu verwenden, um deren Expressivität optimal auszuschöpfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13312-1_40 626d8142d1d3193f696649e05148784e;de;;;2.1.;;;Online-Argumentation für semantische Fehlererkennung in Text Die Identifizierung falscher Inhalte (d. h. semantischer Fehler) in Texten ist aufgrund der Mehrdeutigkeit der geschriebenen natürlichen Sprache und der vielen Faktoren, die eine Aussage semantisch falsch machen können, eine schwierige Aufgabe. Aktuelle Verfahren identifizieren semantische Fehler in einem Satz, indem sie bestimmen, ob er der Domäne widerspricht, zu der der Satz gehört. Da diese Methoden jedoch auf erwarteten logischen Widersprüchen aufgebaut sind, können sie neue oder unerwartete semantische Fehler nicht verarbeiten. In diesem Beitrag schlagen wir eine neue Methode zur Erkennung semantischer Fehler vor, die auf logischem Denken basiert. Unsere vorgeschlagene Methode wandelt Text in logische Klauseln um, die später von einem automatischen Reasoner gegen eine Domänenontologie analysiert werden, um ihre Konsistenz zu bestimmen. Dieser Ansatz kann eine vollständige Analyse des Textes liefern, da er einen einzelnen Satz oder Sätze von mehreren Sätzen analysieren kann. Wenn mehrere Sätze zu analysieren sind, schlagen wir Regeln vor, die den Satz der zu analysierenden Sätze basierend auf den logischen Beziehungen zwischen den Sätzen reduzieren, um die hohe Komplexität der Argumentation über eine große Menge logischer Klauseln zu vermeiden. Bei unserer Bewertung haben wir festgestellt, dass unsere vorgeschlagene Methode einen signifikanten Prozentsatz an semantischen Fehlern identifizieren kann und dies im Fall von mehreren Sätzen ohne erheblichen Rechenaufwand tut. Wir haben auch festgestellt, dass sowohl die Qualität der Informationsextraktionsausgabe als auch die Modellierungselemente der Ontologie (d. h. Eigenschaftsbereich und -bereich) die Fähigkeit zum Erkennen von Fehlern beeinflussen.;-;-;-;https://link.springer.com/article/10.1007/s13740-017-0079-6 13bbbbd5d6858666caab65f9ae671846;de;;;2.1.;;;Eine Geometrie für Orte: Erweiterung und erweiterte Objekte darstellen Der Artikel stellt einen qualitativen regionenbasierten Ansatz zur Darstellung von Ausdehnung vor. Zur Charakterisierung des auf der Kongruenz bestimmter Gebiete (genannt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39923-0_15 c3c967bdc278eb778bd2404908442523;de;;;2.1.;;;Umschreiben von Abfragen für die Zugriffskontrolle im Semantic Web Neben der Beschreibung der Webressourcen mit ontologiebasierten Metadaten, um sie maschinenverständlich zu machen, müssen Semantic Web-Daten sorgfältig vor unbefugtem Zugriff geschützt werden. Dieses Papier stellt einen Mechanismus zum Umschreiben von Abfragen für die Zugriffskontrolle vor, um den Verlust sensibler Ressourcen im Semantic Web zu vermeiden. Wir schlagen vor, die Sicherheitsrichtlinien für Zugriffsbeschränkungen auf Ressourcen als auf Ontologien basierende Ansichten anzugeben. Im Beitrag werden illustrierte Beispiele zur Erläuterung der zugrunde liegenden Konzepte vorgestellt. Darüber hinaus werden Bucket-basierte Algorithmen vorgeschlagen, um das Umschreiben von Abfragen zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85259-9_10 d14e0bba7751803f9b163755ca02a4b1;de;;;2.1.;;;Auflösung von Modifikator-Kopf-Beziehungslücken mit automatisch extrahierten metonymischen Ausdrücken Dieses Papier schlägt eine Methode zum Extrahieren von metonymischen Ausdrücken und ihren interpretativen Ausdrücken aus Korpora und ihre Anwendung für die auf vollständigem Parsing basierende Matching-Methode eines QS-Systems vor. Eine Auswertung zeigte, dass 79% der extrahierten Interpretationen korrekt waren, und ein Experiment mit Testsätzen zeigte, dass die Einführung der metonymischen Ausdrücke die Leistung signifikant verbesserte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30211-7_39 8041a2e9542e0fffab9ea792e1d0def1;de;;;2.1.;;;Daten- und konzeptionelle Modellsynchronisation in datenintensiven Domänen: Der Fall des menschlichen Genoms Mit der zunehmenden Menge und Vielseitigkeit von Daten in datenintensiven Bereichen wird die Gestaltung von Informationssystemen zur effektiven Verarbeitung der relevanten Informationen immer anspruchsvoller. Die konzeptionelle Modellierung könnte solche Herausforderungen auf vielfältige Weise als Vorstufe im Softwareentwicklungsprozess angehen. In Bereichen, in denen Daten heterogen sind, eine unterschiedliche Provenienz aufweisen und einem kontinuierlichen Wandel unterliegen, wird die Bewertung von Daten und die Modellsynchronisation jedoch zum Thema.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-75018-3_48 b4e2aa78b3b8657f3be12b0f08d953d2;de;;;2.1.;;;Kostengünstige Bestimmung von Biomasse aus Luftbildern Dieses Papier beschreibt ein laufendes gemeinsames Forschungsprogramm zwischen den Fakultäten für Informatik und Forstwirtschaft und Wildtiermanagement der University of Massachusetts, um kostengünstige Methoden zur Überwachung von Biomasse und anderen Umweltparametern über große Gebiete zu entwickeln. Das Datenerfassungssystem besteht aus einem Differential-GPS-System, einem 3-Achsen-Festkörper-Trägheitsreferenzsystem, einer kleinformatigen (70 mm) Luftbildkamera, zwei Videokameras, einem Laserprofilhöhenmesser und einem PC-basierten Datenaufzeichnungssystem. Zwei Luftbildvermessungstechniken zur Bestimmung von Biomasse werden diskutiert. Das eine basiert hauptsächlich auf Video und das andere stützt sich zusätzlich auf die aus den Luftbildern generierten 3D-Geländemodelle. Bei der ersten Technik werden Transekte in einer Höhe von 300 Metern mit Doppelkamera-Weitwinkel- und Zoom-Video und einem Profilierungslaser mit 238 Hz geflogen. Die Videoabdeckung dient der Identifizierung einzelner Baumarten und der Laserprofiler wird verwendet, um die Baumhöhen abzuschätzen. Das zweite Verfahren baut auf diesem Ansatz auf, indem Sequenzen von 70-mm-Fotografien mit einer Überlappung von 80 % entlang einer zweiten Fluglinie in größerer Höhe auf 4.000 Fuß aufgenommen werden. Aus aufeinanderfolgenden Bildpaaren werden dann detaillierte 3D-Geländemodelle erzeugt. Es werden mehrere aktuelle Computer-Vision-Algorithmen diskutiert, darunter das ITL-System, ein interaktives System zur Klassifizierung der Bodenbedeckung, das es einem Bediener ermöglicht, die großen Gebiete schnell in Echtzeit zu klassifizieren, und Terrest, ein robustes 3D-Geländemodellierungssystem. Die in diesem Papier beschriebene Arbeit befindet sich in einer vorbereitenden Phase und alle Komponenten wurden noch nicht vollständig integriert, dennoch haben wir den Wert und die Durchführbarkeit von Computer-Vision-Techniken zur Lösung von Umweltüberwachungsproblemen in großem Maßstab demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-46621-5_5 a1575fe57d9e3eeb3aae6f5cff58ab41;de;;;2.1.;;;Ein linguistischer Modellierungsansatz zur Charakterisierung von Items in computergestützten adaptiven Tests für intelligente Tutorensysteme basierend auf Kompetenz Comp Ein Intelligent Tutor System based on Competency Education (ITS-C) zielt darauf ab, Lehrprozesse gemäß dem Kompetenzprofil und den Lernaktivitäten der Schüler mit Hilfe von Techniken der künstlichen Intelligenz (KI) zu personalisieren. Einer der anspruchsvollsten Prozesse in ITS-C ist der Diagnoseprozess, der bisher durch computergestützte adaptive Tests (CAT) basierend auf der Item-Response-Theorie (IRT) durchgeführt wurde, trotz der guten Leistung erfordert seine Konstruktion eine harte statistische Kalibrierung einer riesigen Sammlung von Artikeln. Solche Prozesse sind in kleinen Institutionen meist hartnäckig. Um frühere Schwierigkeiten zu überwinden, die Genauigkeit der Diagnose zu erhöhen und die Anpassung an das Kompetenzniveau der Schüler zu verbessern, schlägt dieser Beitrag vor, das Wissen von Lehrern zu verwenden, um die statistische Kalibrierung zu ersetzen, indem dieses Expertenwissen linguistisch mit dem Fuzzy-Sprachansatz modelliert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54924-3_80 9c8541c93820e175f3e761f1ee855121;de;;;2.1.;;;Verwendung von Äquivalenzklassen und Faktorensätzen bei der Analyse botanischer Daten Das aus der Mengenlehre bekannte Konzept der Äquivalenzklassen und Faktormengen wird auf die Theorie und Praxis der Botanik angewandt. Die Eigenschaften von taxonomischen, typologischen und Gradientenfaktorensätzen und deren Verbindung mit einer vergleichenden floristischen und phytoindikativen Analyse werden berücksichtigt. Die erweiterten Gruppen von Regimen werden für zehn ökologische Faktoren der Phytoindikationsskalen von Tsyganov vorgeschlagen. Es wird ein integriertes botanisches Informationssystem (IBIS) beschrieben, das eine computergestützte Verarbeitung botanischer Daten unter Verwendung von Faktorsätzen ermöglicht.;-;-;-;https://link.springer.com/article/10.1134/S1995425512020163 6f0ee55a749325eb5c5e4b57ba11d1c7;de;;;2.1.;;;Ein Referenzsystem für topologische Beziehungen zwischen zusammengesetzten räumlichen Objekten Ein aktueller Trend in der Entwicklung von Raumbeziehungs-Ontologien besteht darin, immer mehr Details über die Geometrien der räumlichen Objekte zu erfassen, die in Beziehung stehen, hauptsächlich durch topologische Beziehungen. Um eine Brücke zwischen oft unterschiedlichen Ansätzen zu schlagen, wird ein Referenzsystem für topologische Beziehungen zwischen zusammengesetzten räumlichen Objekten eingeführt. Sein Framework umfasst die konzeptionellen Nachbarschaftsgraphen der Basisbeziehungen, die, wenn sie verschachtelt sind, ein Mittel zur visuellen Analyse der Vollständigkeit und Konsistenz der Menge der abgeleiteten Beziehungen bieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04947-7_37 3ca34c54409c0cdb26f860be10d99af4;de;;;2.1.;;;Automatische geografische Anreicherung durch multimodale Fahrraderkennung Dieser Artikel konzentriert sich auf die automatische Geo-Annotation von Straßen-/Geländetypen durch kollaborative Fahrraderkennung. Das vorgeschlagene Geländeklassifizierungssystem basiert hauptsächlich auf der Analyse von freiwilligen geografischen Informationen, die von Radfahrern gesammelt wurden. Durch die Verwendung partizipativer Beschleunigungsmesser- und GPS-Sensordaten, die von den Smartphones der Radfahrer gesammelt und mit Bilddaten von geografischen Webdiensten oder der Smartphone-Kamera angereichert werden, kann das vorgeschlagene System zwischen 6 verschiedenen Geländetypen unterscheiden. Für die Klassifizierung der multimodalen Fahrraddaten verwendet das System einen Random Decision Forest (RDF), der für die Geo-Annotationsaufgabe günstig gegen verschiedene Klassifizierungsalgorithmen vergleicht. Das System klassifiziert die Merkmale jeder Straßeninstanz (über ein 5-Sekunden-Intervall) und ordnet die Ergebnisse den entsprechenden GPS-Koordinaten zu. Schließlich können wir basierend auf allen gesammelten Instanzen geografische Karten mit den Geländetypen annotieren, erweiterte Routenstatistiken erstellen und geobasierte Empfehlungssysteme ermöglichen. Die Genauigkeit des Fahrradsensorsystems beträgt 92 % für die 6-Klassen-Geländeklassifizierung. Für die 2-Klassen Onroad/Offroad-Klassifizierung wird eine Genauigkeit von 97 % erreicht, knapp sechs Prozent über dem Stand der Technik in diesem Bereich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44788-8_22 3981606defd8b6be402ec632243776c2;de;;;2.1.;;;Analyse des Strukturwandels von Ackerlandschaftssystemen in China: Ein methodischer Ansatz und seine Anwendung Veränderungen in den Landschaftsstrukturen (LSs) von Farmlands (FLs) sind intuitive räumliche Darstellungen von Zunahmen oder Abnahmen von FL-Größe und -Qualität. LSFLs können den Gesundheitszustand von FLs durch Veränderungen verschiedener Eigenschaften anzeigen, einschließlich räumlicher Form, Struktur und funktionaler Transformation von Systemen. Durch das Verständnis der Eigenschaften, des Evolutionsprozesses und der Gesetze der funktionalen Transformation von LSFLs können Referenzinformationen und eine Grundlage für ein umfassendes Monitoring von FL-Ressourcen geschaffen werden. Die bestehenden Indexmodelle können jedoch weder die Positionen der Landschaftsmuster aufklären noch die Veränderungen der Landschaftsmuster charakterisieren oder Veränderungen der LSFL-Eigenschaften genau widerspiegeln. In dieser Studie wurden räumliche Attribute wie Lage und Nachbarschaft verwendet, um das geografische Gesetz der Dämpfung über die Entfernung, die ökologische Theorie der Randeffekte und das Patch-Korridor-Matrix-Modell umfassend zu definieren. Diese führten zur Definition eines Systems von LSFL-Typen auf Landes-, Provinz- und Stadtebene. Auf der Grundlage dieses Systems und unter Verwendung von Bildverarbeitung unter Verwendung mathematischer Morphologie und Geoanalyse wurde ein mehrskaliges LSFL-Klassifikationssystem konstruiert, gefolgt von einem pixelskaligen LSFL-Klassifikationsmodell. Als nächstes wurden die Zonengesetze für die LSFL-Entwicklung in China aus der Perspektive dynamischer LS-Änderungen analysiert. Die LSFLs zeigten einen allgemeinen Fragmentierungstrend. Die Trennlinie durch den Maßstab der LS-Hauptkomponenten war 105 °E, wobei die Längsabweichungen nach Osten zunahmen, aber nach Westen abnahmen. Die Trennlinie für Breitenunterschiede war 28 ° N, mit Zunahmen nach Norden, aber Abnahmen nach Süden. Auf vertikaler Zonenebene zeigten die Hauptkomponenten der LS einen deutlichen wellenförmigen Trend. Die dynamischen Mechanismen dieses Wandels lassen sich in Form von Urbanisierungsprozessen im Zeitverlauf und einem räumlichen Stadterweiterungsmodell zusammenfassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-67448-9_11 b61c33783ea131b67fb8c0c1ad1e318a;de;;;2.1.;;;Datenschutzerhaltende Klassifizierung basierend auf Störungen für den Netzwerkverkehr Die Klassifizierung des Netzwerkverkehrs ist für viele Netzwerkanwendungen wichtig. Maschinelles Lernen gilt als eine der effektivsten Techniken zur Klassifizierung von Netzwerkverkehr. In diesem Papier verwenden wir den schnellen korrelationsbasierten Filteralgorithmus, um redundante Attribute zu filtern, die im Netzwerkverkehr enthalten sind. Die von diesem Algorithmus ausgewählten Attribute helfen, die Klassifikationskomplexität zu reduzieren und eine hohe Klassifikationsgenauigkeit zu erreichen. Da die Verkehrsattribute eine große Menge an Verhaltensinformationen der Benutzer enthalten, kann die Privatsphäre der Benutzer offengelegt und von böswilligen Benutzern illegal verwendet werden. Daher ist es anspruchsvoll, den Datenverkehr mit einem bestimmten Segment von Frames zu klassifizieren, das datenschutzbezogene Informationen enthält, die geschützt werden. Nach der Klassifizierung geben die Ergebnisse keine Datenschutzinformationen preis, können jedoch weiterhin für die Datenanalyse verwendet werden. Daher schlagen wir einen zufälligen Störungsalgorithmus vor, der auf der Beziehung zwischen den Reihenfolgen verschiedener Datenattribute basiert, der ihre Privatsphäre schützt und somit die Datensicherheit während der Klassifizierung gewährleistet. Die Versuchsergebnisse zeigen, dass durch unseren Algorithmus gestörte Daten mit hoher Genauigkeitsrate und Datennutzen klassifiziert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-5907-1_13 9812368d547b384948cf1022d1f8e771;de;;;2.1.;;;Lernen, die Textkomplexität für die italienische Sprache mit Hilfe von Support Vector Machines zu klassifizieren Die Verarbeitung natürlicher Sprache ist zweifellos eines der aktivsten Forschungsgebiete in der Machine-Learning-Community. In dieser Arbeit schlagen wir ein überwachtes Klassifikationssystem vor, das bei Eingabe eines in italienischer Sprache verfassten Textes seine sprachliche Komplexität in Bezug auf ein Niveau des Gemeinsamen Europäischen Referenzrahmens für Sprachen (besser bekannt als GER) vorhersagt. Das System wurde unter Berücksichtigung von: (i) einem Datensatz von Texten, die von Sprachexperten gekennzeichnet wurden, gesammelt, (ii) einigen Vektorisierungsverfahren, die jeden Text in eine numerische Darstellung umwandeln, und (iii) dem Training des Modells einer Support-Vektor-Maschine. Die Experimente wurden nach einem statistisch fundierten Design durchgeführt und die experimentellen Ergebnisse zeigen, dass das System in der Lage ist, eine gute Vorhersagegenauigkeit zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58802-1_27 a098af2a2952f69d6cffee4cfa873f70;de;;;2.1.;;;Lernsysteme mit FUZZY Fuzzy-Techniken haben sich als wirksam gegen die Probleme der Unsicherheit in Beziehungen zwischen Variablen in Systemen erwiesen, die lernen, sich an eine sich ändernde Umgebung anzupassen. Dieses Papier skizziert unsere Herausforderungen der letzten 25 Jahre, Lernsysteme mit Fuzzy-Techniken und deren Anwendungen auf viele Probleme der realen Welt zu entwerfen. Anschließend konzentrieren wir uns auf die Entwicklung von Human-in-the-Loop-Systemen wie einem Smart Home oder einer assistiven Roboterumgebung, die verschiedene Arten von Lernstrategien beinhalten. Dies rechtfertigt eine vollständige Berücksichtigung der Lernmechanismen beim Menschen, die die Handlungsselektion vermitteln. Wir gehen davon aus, dass die Prinzipien der Fuzzy-Theorie in Kombination mit dem, was wir über computergestützte Lernmechanismen im menschlichen Gehirn wissen, eine praktische Anleitung bieten, wie wir Lernsysteme entwickeln, um die Benutzererfahrung in realen Szenarien zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19683-1_3 270027be7d83b55a581cda8d15447d0e;de;;;2.1.;;;Auswirkungen von Baumkulturen auf Landbedeckungsübergänge in einer Mosaiklandschaft in der östlichen Region Ghanas Baumkulturen wie Kakao und Ölpalme sind wichtig für den Lebensunterhalt von Kleinbauern und die Volkswirtschaften tropischer Erzeugerländer. Die Regierungen versuchen, die Anbauflächen für Baumkulturen zu erweitern und die Erträge zu verbessern. Die vorhandene Literatur hat die sozioökonomischen und ökologischen Auswirkungen der Baumbestandsexpansion analysiert, aber ihre räumlichen Auswirkungen auf die Landschaft müssen noch erforscht werden. Diese Studie zielt darauf ab, die Auswirkungen von Baumkulturen auf die Zusammensetzung und das Ausmaß von Landbedeckungsübergängen in einer gemischten Kakao-/Ölpalmenlandschaft in Ghana zu bewerten. Mit ISODATA erstellte Landbedeckungskarten von 1986 und 2015 und die Maximum-Likelihood-Klassifizierung wurden mit Feldreferenzen, Google Earth-Daten und Interviews mit wichtigen Befragten validiert. Es wurde eine Änderungserkennung nach der Klassifikation durchgeführt und die Übergangsmatrix unter Verwendung einer Intensitätsanalyse analysiert. Kakao- und Ölpalmenflächen haben um 8,9 % bzw. 11,2 % zugenommen, hauptsächlich auf Kosten von Anbauflächen und Wäldern. Die Intensität des Waldverlusts durch beide Baumkulturen ist geringer als der Verlust von Nahrungskulturland. Es gab Übergänge zwischen Kakao und Ölpalme, aber die Gewinne bei Ölpalmen überwiegen die von Kakao. Kakao und Ölpalme haben an Fläche und Dominanz zugenommen. Die Hauptbedeckungsarten, die in Baumkulturflächen umgewandelt wurden, sind Nahrungskulturland und Wald außerhalb des Reservats. Dies hat allmählich ernsthafte Auswirkungen auf die Ernährungssicherheit und die Lebensgrundlagen, die von den Ökosystemleistungen der Mosaiklandschaft abhängen. Die Baumkulturpolitik sollte die geografische Verteilung der Baumwarenproduktion auf Landschaftsebene und ihre Auswirkungen auf die Nahrungsmittelproduktion und die Ökosystemdienstleistungen berücksichtigen.;-;-;-;https://link.springer.com/article/10.1007/s00267-018-1060-3 e7eacb835a65b413a318c6bfe28ec277;de;;;2.1.;;;Eine skalierbare Malware-Klassifizierung basierend auf integrierten statischen und dynamischen Funktionen In diesem Dokument wird ein Ansatz zur Klassifizierung von Malware vorgestellt, der darauf abzielt, die Präzision zu verbessern und die Skalierbarkeit zu unterstützen. Zu diesem Zweck wird ein hybrider Ansatz gewählt, der sowohl statische als auch dynamische Merkmale kombiniert. Der hybride Ansatz hat den Vorteil, dass er eine vollständige und robuste Lösung für Umgehungstechniken ist, die von Malware-Autoren verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-51064-4_10 9506f72ab67702e7785d62f8d50601e1;de;;;2.1.;;;Tropische und subtropische Torfe: Ein Überblick Torf und Moore werden weltweit als landwirtschaftliche Ressource, Energiequelle, Wasserregulierungsfunktion, Biodiversitätsspeicher, Kohlenstoffspeicher und als Anbieter anderer Umweltdienstleistungen zunehmend beachtet. Das Wissen über tropische Torfe, insbesondere tropische Hochland- und Bergtorfe, hinkt jedoch im Vergleich zur Entwicklung von Torf- und Moorstudien in gemäßigten und borealen Gebieten noch hinterher, obwohl erhebliche Fortschritte bei der Kartierung tropischer Torfe und der Identifizierung ihrer spezifischen Merkmale erzielt wurden. ihre Nutzungspotenziale einschätzen und auf ihre Verwundbarkeit aufmerksam machen. Dieses Kapitel gibt einen Überblick über den aktuellen Wissensstand zu tropischen und subtropischen Torfen. Nach der Beschreibung der weltweiten Torfausdehnung und -verteilung werden die Faktoren, die die Torfbildung und -entwicklung steuern, die Torfeigenschaften und -eigenschaften sowie die Torfklassifizierung analysiert. Das Kapitel befasst sich auch mit Fragen im Zusammenhang mit Torf und Mooren als Ressourcen. Nur 0,36 Mio. km;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20138-7_2 5619fccb1f887605331deab9fbf77a30;de;;;2.1.;;;Von der Klassifikation zur kognitiven Kategorisierung: das Beispiel des Straßenlexikons Innerhalb eines neuen Paradigmas der Kategorisierung, das derzeit in der Kognitionsforschung entwickelt wird, ist eines der wichtigsten Phänomene,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-51175-2_2 0697c5e19e704110dff22a26f1cb44b1;de;;;2.1.;;;EKG-Morphologien von Ischämie, Verletzung und Nekrose [1–6] Die koronare Herzkrankheit führt zu einer mangelhaften Myokardspülung, indem sie eine Verringerung des koronaren Blutflusses erzeugt. Es kann akut sein, wobei der dramatischste Ausdruck ein Myokardinfarkt ist, oder chronisch, wobei in diesem Fall Angina-Schmerzen mit oder ohne vorherigen Myokardinfarkt bestehen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-4299-8_8 2350580b46c9434eb1560910ded2ead0;de;;;2.1.;;;Methodische Argumente für wissenschaftlichen Realismus Der wissenschaftliche Realismus kann auch durch indirektere, aber gleichzeitig etwas spezifischere und detailliertere Argumente gestützt werden als die im vorherigen Kapitel diskutierten. Daher können und werden wir im Folgenden mehrere methodische (und „induktive“) Gründe für die Notwendigkeit und Nützlichkeit theoretischer Konzepte präsentieren. Insgesamt geben sie gute Gründe, das sogenannte Theoretikerdilemma zu widerlegen, ein Dilemma, das z.B. Cornman (1975) hat wiederholt den Instrumentalismus verteidigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-5446-5_5 49a0991cb654888c21aba3b1f6a76683;de;;;2.1.;;;Die räumliche lokale Genauigkeit von Landbedeckungsdatensätzen über dem Qiangtang-Plateau, Hochasien Wir analysierten die räumliche lokale Genauigkeit von Landbedeckungs-(LC)-Datensätzen für das Qiangtang-Plateau, Hochasien, unter Einbeziehung von 923 Feldprobennahmepunkten und sieben LC-Zusammenstellungen, einschließlich des International Geosphere Biosphere Program Data and Information System (IGBPDIS), Global Land Cover Mapping at 30 m-Auflösung (GlobeLand30), MODIS Land Cover Type Produkt (MCD12Q1), Climate Change Initiative Land Cover (CCI-LC), Global Land Cover 2000 (GLC2000), University of Maryland (UMD) und GlobCover 2009 (Glob-Cover). Wir verglichen zunächst die resultierenden Ähnlichkeiten und Unterschiede sowohl in Flächen- als auch in räumlichen Mustern und analysierten inhärente Beziehungen zu Datenquellen. Anschließend wendeten wir einen geografisch gewichteten Regressionsansatz (GWR) an, um lokale Genauigkeitsschwankungen vorherzusagen. Die Ergebnisse dieser Studie zeigen, dass zwischen 2001 und 2015 deutliche Unterschiede, sogar inverse Zeitreihentrends, in den LC-Daten zwischen CCI-LC und MCD12Q1 vorhanden waren, mit Ausnahme der kategoriebezogenen Diskordanz zwischen den sieben Datensätzen. Wir zeigen auch eine Reihe offensichtlicher Diskrepanzen zwischen den hier untersuchten LC-Datensätzen in Bezug auf die räumlichen Muster, d. h., eine hohe räumliche Kongruenz wird hauptsächlich im homogenen südöstlichen Bereich des Untersuchungsgebiets beobachtet, während ein geringer Grad an räumlicher Kongruenz weit über heterogene verteilt ist nordwestliche und nordöstliche Regionen. Die kombinierte räumliche Gesamtgenauigkeit der sieben hier betrachteten LC-Datensätze beträgt weniger als 70 %, und die GlobeLand30- und CCI-LC-Datensätze weisen eine höhere lokale Genauigkeit auf als ihre Gegenstücke, was eine maximale Gesamtgenauigkeit (OA) von 77,39 % bzw. 61,43 % ergibt . Schließlich sind 5,63% dieses Gebiets sowohl durch hohe Bewertungs- als auch Genauigkeitswerte (HH) gekennzeichnet, die sich hauptsächlich in zentralen und östlichen Regionen des Qiangtang-Plateaus befinden, während die meisten Regionen mit geringer Genauigkeit in nördlichen, nordöstlichen und westlichen Regionen zu finden sind.;-;-;-;https://link.springer.com/article/10.1007/s11442-019-1992-0 82d53ddec8acaeb09c05ded56328b300;de;;;2.1.;;;Computer und die drei Welten Diskussionen über die Errungenschaften und Grenzen der verschiedenen Ansätze zur Entwicklung intelligenter Systeme können einen wesentlichen Einfluss auf die empirisch fundierte Forschung und damit auch auf die zukünftige Entwicklung von Computertechnologien haben. Allerdings basieren solche Diskussionen oft auf vagen Konzepten und Annahmen. In diesem Zusammenhang behaupten wir, dass die vorgeschlagene „Drei-Welten-Ontologie“ den am besten geeigneten konzeptionellen Rahmen bietet, in dem die grundlegenden Probleme der Kognition und des Rechnens angemessen ausgedrückt und diskutiert werden können, obwohl die Lösungen einiger dieser Probleme scheinbar darüber hinaus liegen der Horizont unseres heutigen Verständnisses. Wir betonen die Notwendigkeit, zwischen authentischen und funktionalen kognitiven Fähigkeiten zu unterscheiden, obwohl Computing kein plausibler Weg zu authentischer Intelligenz ist, behaupten wir, dass Computersysteme praktisch unbegrenzte Möglichkeiten bieten, menschliche kognitive Fähigkeiten auf funktionaler Ebene zu replizieren und zu übertreffen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008385309438 cf38074205bcaa51781ad47c2126effd;de;;;2.1.;;;Lockerung der Einschränkungen für GeoPQL-Operatoren, um die Beantwortung von Anfragen zu verbessern In diesem Beitrag wird das Problem des Abgleichs einer Abfrage mit ungenauen oder fehlenden Daten für Geoinformationssysteme analysiert und ein Ansatz für die Lockerung der Abfragebeschränkungen vorgeschlagen. Dieser Ansatz schlägt ähnlich wie bei der in [1] [2] [3] vorgestellten 9-Schnittpunktmatrix zwischen zwei Punktmengen die Darstellung zweier symbolischer grafischer Objekte (SGO) in Form von Innen-, Grenz- und Außenpunkten vor zu jeder der Konfigurationen zwischen zwei Objekten. Das Papier unterscheidet die verschiedenen Konfigurationen unter Berücksichtigung der Ergebnisse aus den 9 Schnittpunkten, nicht nur danach, ob die Ergebnisse null oder nicht null sind. Dieser Ansatz ermöglicht die Definition eines detaillierteren Ähnlichkeitsgraphen. Ziel der vorgeschlagenen Methodik ist die Lockerung geografischer Abfragebeschränkungen, um aussagekräftige Antworten auf ungenaue oder fehlende Daten zu erhalten. In diesem Papier wird der Polylinien-Polygon-Fall im Detail diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/11827405_71 d473b854f9ce4524aa39e282e32a5a12;de;;;2.1.;;;Neuroendokrine Tumoren der Bauchspeicheldrüse und des Gastrointestinaltrakts und Karzinoiderkrankungen Die neuroendokrinen oder Inselzell- und Karzinoidtumoren der Bauchspeicheldrüse und des Magen-Darm-Trakts sind eine Gruppe ähnlicher Neoplasmen, die trotz verschiedener Unterschiede im klinischen und biochemischen Verhalten viele gemeinsame Merkmale aufweisen. Obwohl ursprünglich angenommen, dass sie aus der Neuralleiste stammen, werden diese Zellen heute als aus embryonalem Endoderm stammend betrachtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-68113-9_59 7fbf60a4cb3b2b2d0a3cde2a6997d31d;de;;;2.1.;;;Adaptive drahtlose Netzwerke als Beispiel für deklarative fraktionierte Systeme Adaptive drahtlose Netzwerke können ihre Topologie verändern und Aktivitäten zur Informationssammlung und -bereitstellung unterstützen, um übergeordnete Ziele zu verfolgen, die Benutzerinteressen erfassen. Anhand einer Fallstudie eines adaptiven Netzwerks bestehend aus Smartphones, Robotern und UAVs erweitert dieser Beitrag einen deklarativen Ansatz zu vernetzten cyber-physischen Systemen um quantitative Aspekte. Dies geschieht durch die Unterscheidung von zwei Kontrollebenen. Die zeitliche Entwicklung des makroskopischen Systemzustands wird unter Verwendung eines in früheren Arbeiten entwickelten logischen Rahmens gesteuert, während der mikroskopische Zustand durch einen Optimierungsalgorithmus oder eine Heuristik gesteuert wird. Dieser zweistufige deklarative Ansatz baut auf einem teilgeordneten Wissensaustauschmodell für lose gekoppeltes verteiltes Rechnen auf und ist ein Beispiel für ein sogenanntes fraktioniertes System, das mit einer beliebigen Anzahl von drahtlosen Knoten arbeiten und sich schnell an Änderungen anpassen kann. Die Machbarkeit des Ansatzes wird in Simulation und in einem hybriden cyber-physischen Testbed, bestehend aus Robotern, Quadcoptern und Android-Geräten, demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11569-6_43 8f2eb4e2268d0b2cf28544fe2e107bc6;de;;;2.1.;;;Kostenplanungstheorien und -techniken Es gibt keine universelle Methode der Kostenplanung, die ohne weiteres auf jedes Bauvorhaben angewendet werden kann. Gebäude haben sehr unterschiedliche Eigenschaften, erfüllen eine Vielzahl von Funktionen, dienen den Bedürfnissen unterschiedlicher Bauherren und ihre Errichtung unterliegt einer Reihe unterschiedlicher behördlicher und vertraglicher Vereinbarungen. Daher ist es nicht überraschend, dass eine breite Palette von Kostenplanungstechniken entwickelt wurde, um die Bedürfnisse einer Vielzahl von Situationen zu erfüllen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-13757-2_7 00022ee33967739e7e00ca064005fdec;de;;;2.1.;;;Die Vegetation des Bundesstaates Falcón, Venezuela Es wird eine halbdetaillierte Studie in erster Näherung der Vegetation eines heterogenen Gebiets in der Karibik vorgestellt. Feldinformationen zu Vegetationsstruktur und -funktion, Flora und Umweltfaktoren wurden systematisch gesammelt, um subjektive Entscheidungen so weit wie möglich zu reduzieren. Durch die Analyse von Felddaten wurden unabhängige physiognomische und floristische Klassifikationen entwickelt. Die physiognomische Klassifikation ist künstlich und für eine Vielzahl von Benutzern leicht verständlich. Es erleichtert die Identifizierung und Beschreibung von Landeinheiten sowie die Überwachung von Vegetationsveränderungen. Die floristische Klassifikation nach Dominanztypen wurde aus einem tabellarischen Vergleich gewonnen. Die Beziehung zwischen beiden Klassifikationen wird analysiert. Um die zeitlichen und räumlichen Beziehungen zwischen Vegetationseinheiten aufzudecken und überregionale Vergleiche zu ermöglichen, wurden die Ergebnisse in Beards Entstehungsreihen übersetzt. Die Beziehungen zwischen den Physiognomie- und Dominanztypen und den Formationen werden analysiert. Die Vegetation wird in Form von Beard-Formationen beschrieben. Die Beziehungen zwischen Vegetationsmuster und Umwelt werden diskutiert. Die Ergebnisse werden mit denen früherer Studien verglichen.;-;-;-;https://link.springer.com/article/10.1007/BF00041474 9e01e040d35e6ac1aa54df550e35e668;de;;;2.1.;;;Pharmakologische Therapie von Arrhythmien Herzrhythmusstörungen sind oft schwächend, rezidivierend und nicht selten lebensbedrohlich. Die Bedeutung einer genauen Diagnose von Arrhythmien und ein Verständnis der zellulären Mechanismen der Arrhythmogenese sind entscheidend für eine erfolgreiche Behandlung. Die Fehldiagnose von Tachyarrhythmien kann tödlich sein. In den letzten zwei Jahrzehnten haben wir unser Verständnis der Mechanismen, die Herzrhythmusstörungen zugrunde liegen, verfeinert. Es reicht nicht mehr aus, sich Depolarisation und Repolarisation von Herzzellen als einfache Änderung des Membranwiderstandes vorzustellen. Das kardiale Aktionspotential wird nun als Strukturproteine ​​verstanden, die Ionenkanäle bilden, die wiederum den Ionenfluss durch die Plasmamembran steuern. Im Idealfall würde ein solch ausgeklügeltes Verständnis der Arrhythmogenese zu einer effektiveren Therapie führen. Leider basiert unser derzeitiges Wissen über Ionenflüsse, die für das kardiale Aktionspotential verantwortlich sind, auf normalen Gewebeuntersuchungen hauptsächlich in Tiermodellen. Die Korrelation dieser Ergebnisse mit abnormalem Gewebe kann nicht nur eine einfache Extrapolation sein. Gewebeanomalien sind wesentlich für die Initiierung und Ausbreitung verschiedener Tachyarrhythmien. Auch Störungen der Gewebestruktur, z.B. nach einem Infarkt die Eigenschaften der Ionenkanäle verändern.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5007-5_34 3f4e3f72962c65b8cbbf3811a9015de5;de;;;2.1.;;;Tropische Wirbelstürme im Landesinneren und das Konzept des „Brown Ocean“ In mehreren Regionen der Welt ist bekannt, dass tropische Wirbelstürme ihre Stärke nach dem Landen beibehalten oder erhöhen, ohne in außertropische Systeme überzugehen. Es wird vermutet, dass diese Gebiete im Landesinneren dazu beitragen, tropische Wirbelstürme aufrechtzuerhalten, wenn es reichlich Regen gegeben hat, was zu ungewöhnlich nassem Boden und starker latenter Wärmefreisetzung führt. Angesichts der symmetrischen Struktur von Zyklonen mit warmem Kern sollte die Atmosphäre außerdem zu barotropen Bedingungen neigen, die eine Ozeanumgebung nachahmen. Beobachtungs- und Modellstudien unterstützen dieses Konzept des „braunen Ozeans“, indem sie eine globale Klimatologie tropischer Wirbelstürme im Landesinneren liefern, Regionen identifizieren, die für eine erneute Intensivierung günstiger sind, und einzelne Wirbelstürme analysieren, um die damit verbundenen Rückkopplungen von Land und Atmosphäre besser zu verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-47594-3_5 edce274014f08118e485cad427c90e57;de;;;2.1.;;;Eine kontrastive Bewertung der funktionalen Vereinheitlichungsgrammatik für die Oberflächensprachengenerierung: Eine Fallstudie zur Wahl der Konnektive Sprachgenerierungssysteme haben eine Vielzahl von grammatikalischen Formalismen verwendet, um syntaktische Strukturen zu erzeugen, und dennoch gab es wenig Forschung, die die Formalismen für die Besonderheiten der Generierungsaufgabe bewertet. In unserer Arbeit bei Columbia haben wir in erster Linie einen auf Vereinheitlichung basierenden Formalismus, eine funktionale Vereinheitlichungsgrammatik (FUG), verwendet und fanden sie für viele der von uns angesprochenen Generierungsaufgaben gut geeignet. FUG erwies sich als besser geeignet für die Generierung als verschiedene Standardparsingformalismen (einschließlich eines Augmented Transition Network, eines Bottom-Up Chart Parsers und einer deklarativen Klauselgrammatik), die wir auch in den letzten 5 Jahren verwendet haben. In diesem Papier identifizieren wir die Eigenschaften von FUG, die wir für die Generierung als nützlich erachten und auf die wir uns konzentrieren;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-5945-7_14 6ea42823ca6c3e794b343b19d4054802;de;;;2.1.;;;Cloud-Designs und Bereitstellungsmodelle: eine systematische Mapping-Studie Cloud Computing ist ein einzigartiges Paradigma, das Ressourcen aggregiert, die von Cloud-Dienstanbietern zur Nutzung durch Kunden nach Bedarf und auf Pay-per-Use-Basis verfügbar sind. Es gibt einen Cloud-Verbund, der die vier primären Cloud-Modelle integriert, und den Cloud-Aggregator, der mehrere Computing-Dienste integriert. Eine systematische Kartierungsstudie bietet einen Überblick über die Arbeit in einem bestimmten Interessensgebiet und identifiziert Lücken für weitere Forschungen.;-;-;-;https://link.springer.com/article/10.1186/s13104-019-4474-y 5c545041587b3036e40653e848c215d6;de;;;2.1.;;;Inkrementelle Stufen eines semantischen Frameworks zur Automatisierung der Änderungen an langfristig zusammengestellten Services Unternehmen verbessern ihr Geschäft im Web mit Hilfe von Webservices. Diese Verbesserung wird erreicht, indem die bereits vorhandenen Dienste so zusammengestellt werden, dass sie Lösungen für die Probleme im Web anbieten können. Aufgrund der rasanten technologischen Entwicklung wird die Notwendigkeit, die zusammengestellten Dienste durch die jeweiligen Analysten zu ändern, zu einer wesentlichen Aufgabe. Somit wird der Änderungsmanagementprozess zu einem anspruchsvollen Bereich im Webservice. Obwohl die bestehenden Lösungen Ontologie für das Änderungsmanagement verwenden, wurden sie hauptsächlich für IT-Entwickler und nicht für Analysten entwickelt. Daher konzentrieren wir uns auf die Bereitstellung eines Change-Management-Frameworks, das ein angereichertes Ontologie-Set und einen semantischen Reasoner nutzt, um die Änderungen durch den Analysten selbst zu implementieren. Die semantische Reasoner-Komponente analysiert die Änderungsanforderung der Analysten und bestimmt die Möglichkeit, die Änderung vorzunehmen. Das Framework stellt die implementierten Änderungen in Form einer S-BPEL-Notation (Semantic BPEL) dar, die dann von einem BPEL-Konstruktor in ihre entsprechenden BPEL-Notationen umgewandelt wird, damit sie in der Laufzeitumgebung zum Zusammensetzen der Dienste bereitgestellt werden können.;-;-;-;https://link.springer.com/article/10.1186/s13673-016-0067-0 0fd6952ae365827ce42d87f3fb11c49d;de;;;2.1.;;;Klassifikation borealer Moore in Finnland und Skandinavien: Ein Rückblick Moore wurden in Nordeuropa auf zwei Ebenen klassifiziert: (1) Moorkomplexe werden als große Landschaftseinheiten mit gemeinsamen Merkmalen in Hydrologie, Torfstratigraphie und allgemeiner Anordnung von Oberflächenmustern und von minerogenen vs werden als Einheiten der Vegetationsforschung betrachtet und in Erhebungen für Forstwirtschaft und Naturschutz verwendet. Dieser Artikel gibt einen Überblick über die Entwicklung von Standorttypklassifikationen in Fennoscandia (Finnland, Schweden, Norwegen) mit einer Diskussion über die zirkumboreale Klassifikation und die entsprechenden Moorvegetationstypen in Kanada. Der Beobachtungsmaßstab beeinflusst die Klassifikationen: kleine Parzellengröße (0,25–1 m;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-0427-2_4 6769e714a701c43a16956779197872dd;de;;;2.1.;;;Argumentation zu räumlichen Beziehungen zwischen Entitätsklassen Die Förderung der Interoperabilität erfordert eine klare Unterscheidung, ob sich eine Relation auf Personenklassen oder auf bestimmte Instanzen bezieht, insbesondere was die logischen Eigenschaften der beteiligten Relationen angeht. Klassenbeziehungen werden immer dann definiert, wenn die Semantik ganzer Klassen unabhängig von Einzelinstanzen beschrieben wird. Typische Beispiele sind räumliche semantische Integritätsbeschränkungen oder Ontologien von Entitätsklassen. Der Artikel setzt die Forschung zu räumlichen Klassenbeziehungen fort, indem er die Analyse der Argumentationseigenschaften von Klassenbeziehungen vertieft. Die Arbeit basiert auf einem Satz von 17 abstrakten Klassenbeziehungen, die in [11] definiert sind. Der Beitrag liefert eine vollständige Kompositionstabelle für die 17 abstrakten Klassenbeziehungen und definiert das Konzept der konzeptionellen Nachbarschaft für Klassenbeziehungen neu. Dieser Ansatz kann verwendet werden, um Konflikte und Redundanzen in Sätzen von semantischen Integritätsbedingungen oder anderen Anwendungen von räumlichen Klassenbeziehungen zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87473-7_15 74e33c2d8cb12d5a26eb4c9a2d4517ce;de;;;2.1.;;;Eine agentenvermittelte kollaborative Verhandlung im E-Commerce: Eine Fallstudie in der Reisebranche Dieses Papier untersucht ein agentenvermitteltes kollaboratives Verhandlungs-Framework für den E-Commerce. Dieses Papier konzentriert sich speziell auf die Reisebranche. Sowohl Privatkunden als auch Reisebüros können von der Nutzung des Systems profitieren, da die Verhandlungsstrategien nicht nur vom Preis, sondern von mehreren Attributen wie der Anzahl der Zimmer, der erforderlichen Ausstattung usw. abhängen. Die Schlüsselthemen bei der Automatisierung von Verhandlungen sind das Verhandlungsprotokoll, das Verhandlungsobjekt und die Verhandlungsstrategie. Unser Papier befasst sich mit diesen Fragen, indem es die Entwicklung eines agentenvermittelten E-Commerce-Systems unter Verwendung des FIPA-kompatiblen Agentenentwicklungs-Frameworks, der JADE-Plattform, diskutiert. Abschließend stellen wir unsere Schlussfolgerungen vor und diskutieren mögliche zukünftige Arbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04592-9_13 adfb190e1ecc3ddd2a8884960298f7d0;de;;;2.1.;;;Clustering in hochdimensionalen Datenräumen Mit hochdimensional meinen wir eine Dimensionalität in derselben Größenordnung wie die Anzahl der zu bündelnden Objekte oder Beobachtungen, und letztere im Bereich von Tausenden aufwärts. Bellmans „Fluch der Dimensionalität“ gilt für viele weit verbreitete Datenanalysemethoden in hochdimensionalen Räumen. Eine Möglichkeit, dieses Problem anzugehen, sind Array-Permutierungsmethoden, die eine Neuordnung von Zeilen/Spalten beinhalten. Solche Verfahren sind eng mit Dimensionsreduktionsverfahren wie der Hauptkomponentenanalyse verwandt. Eine einem Array auferlegte Ordnung ist nicht nur für die Visualisierung von Vorteil, sondern auch für die Verwendung einer Vielzahl von Bildverarbeitungsverfahren. Zum Beispiel wird Clustering in diesem Zusammenhang zur Bildmerkmalserkennung.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-21529-8_19 ff51cde26843dcc4c94f541b581ed0ba;de;;;2.1.;;;Auf dem Weg zu einer interdisziplinären Lerngemeinschaft von PBL-Betreuern und Studierenden Dieser Kommentar befasst sich mit den Bedürfnissen von Studierenden und Mitarbeitern, die die Herausforderungen des interdisziplinären problembasierten Lernens bewältigen möchten, z Kontext. Die Anwendung von Basiswissen über Lernprozesse auf diese kognitiven und kontextuellen Herausforderungen könnte interdisziplinäres Lernen und Zusammenarbeit erleichtern. Da disziplinäre Denkweisen Interdisziplinarität sowohl behindern als auch erleichtern können, argumentiere ich, dass PBL-Mitarbeiter das Wissen und die Überzeugungen, die Schüler in PBL-Programme mitbringen, gezielt einsetzen sollten, um den Schülern zu helfen, zu erkennen, wie ihre Annahmen und Argumente das interdisziplinäre Denken und die Zusammenarbeit beeinflussen. Darüber hinaus würden die Studierenden zu Beginn ihrer PBL-Erfahrung von einer inhaltlichen Orientierung an verschiedenen Untersuchungsansätzen profitieren. Der Aufbau der Kapazitäten des Personals, um diese Lernerfahrungen zu ermöglichen, erfordert die Möglichkeit für Supervisoren, mit und von ihren Kollegen über die Disziplinen des anderen zu lernen und Strategien für die Interaktion mit Schülern auszutauschen, deren vielfältige Lebens- und Schulerfahrungen ihre Erwartungen an Kurse, Lehrer und Lernen prägen. Die Studierenden profitieren vom intellektuellen Engagement mit PBL-Supervisoren, die interdisziplinäres Denken und Zusammenarbeit modellieren, die auf die Annahmen (disziplinarische und andere) achten, die ihre pädagogischen Interaktionen prägen, und die die interdisziplinäre Lernerfahrung effektiv gestalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-18842-9_7 b0002184580b349ca0639ccb4bbf6062;de;;;2.1.;;;Autorenprofilierung und Plagiaterkennung In diesem Papier stellen wir die Themen vor, die wir im RuSSIR 2014-Kurs über Autorenprofilierung und Plagiaterkennung (APPD) behandeln werden. Das Autorenprofiling unterscheidet zwischen Autorenklassen, die untersuchen, wie Sprache von Personengruppen geteilt wird. Diese Aufgabe hilft bei der Identifizierung von Profilierungsaspekten wie Geschlecht, Alter, Muttersprache oder sogar Persönlichkeitstyp. Im Fall der Plagiatserkennungsaufgabe sind wir nicht daran interessiert, zu untersuchen, wie Sprache geteilt wird. Im Gegenteil, bei einem Dokument sind wir daran interessiert, zu untersuchen, ob sich der Schreibstil ändert, um Textinkonsistenzen aufzudecken, d. Wenn es nicht möglich ist, das/die Quelldokument(e), aus denen ein Plagiat begangen wurde, abzurufen, ist die intrinsische Analyse des verdächtigen Dokuments die einzige Möglichkeit, Plagiate zu finden. Die Schwierigkeit beim Auffinden der Plagiatsquelle könnte darin liegen, dass die Dokumente nicht im Internet verfügbar sind oder die plagiierten Textfragmente durch Paraphrasierung oder Übersetzung verschleiert wurden (falls das Quelldokument in einer anderen Sprache war). In dieser Übersicht diskutieren wir auch die Ergebnisse der gemeinsamen Aufgaben zum Autorenprofiling (Geschlechts- und Altersidentifikation) und Plagiaterkennung, die wir im PAN Lab on Uncovering Plagiarism, Authorship and Social Software Misuse (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25485-2_6 6f58810f59e15a7851642d641eafb9cb;de;;;2.1.;;;Eine topologische Beschreibungssprache für Agentennetzwerke Existierenden Multiagentensystemen fehlt eine umfassende Methodik für Agenten, um die Strukturen eines Netzwerks, in dem sie sich befinden, wahrzunehmen. Dieses Problem behindert eine effiziente Agentenkommunikation und -übertragung innerhalb eines Multiagentensystems. Die Nachfrage nach einem effizienten Mechanismus, der es einem Agenten ermöglicht, die Standorte anderer Agenten zu erkennen, ist erheblich gestiegen, da Agenten mobile und kooperative Einheiten sind. In diesem Papier schlagen wir eine neue topologische Beschreibungssprache für Agentennetzwerke, nämlich TDLA, vor, um Agenten die Fähigkeit zu geben, ihre Umgebung zu verstehen. TDLA hilft einem Agenten, die Netzwerkstruktur, in der er sich befindet, wahrzunehmen. Es verwendet traditionelle topologische Analysemethoden für lokale Netzwerke und ist weiter auf Agentennetzwerke zugeschnitten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29253-8_74 7525ee586da8701fb5d4ba171761bf5d;de;;;2.1.;;;„Wir müssen über die In diesem Beitrag schlagen wir eine neuartige ontologische Analyse von Beziehungen und Beziehungen vor, die auf einer erneuten Betrachtung eines klassischen Problems in der Praxis der konzeptionellen Modellierung basiert, nämlich;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19069-3_18 3d848fc150eb66264ef1bc2e989d321c;de;;;2.1.;;;Verwenden von Korpusstatistiken für die Wortsinn-Begriffsklärung auf Assamesisch Die Klassifizierung oder Kategorisierung eines Wortes anhand seiner Bedeutung in Bezug auf einen Kontext ist eines der Hauptprobleme bei der Verarbeitung natürlicher Sprache (NLP). Ein solches Problem wird als Word Sense Disambiguation (WSD) bezeichnet, und das erwähnte Problem wird in allen Sprachen auf der ganzen Welt als vorherrschend angesehen. In indischen Sprachen stellt WSD jedoch aufgrund der begrenzten digitalen Ressourcen und des Fehlens von UNICODE größere Herausforderungen. In diesem Artikel haben wir versucht, die Bemühungen von Forschern zur Überwindung von WSD hervorzuheben. Es ist auch zu erwähnen, dass zu diesem Zweck zwei WSD-Algorithmen für die assamesische Sprache WSD gegenübergestellt werden, während die Korpusstatistik in dem Ansatz geltend gemacht wird. Von den beiden oben genannten WSD-Algorithmen wird der erste unter Verwendung des einfacheren Lesk-Algorithmus angewendet, während der zweite verwendet wird, um die Wahrscheinlichkeit von Wörtern und Phrasen aufgrund einer Bedingung zu bestimmen, die mit jeder Bedeutung eines mehrdeutigen Wortes in der Begriffsklärung zusammen auftreten. Beide Algorithmen lieferten positive Ergebnisse für einen trainierten Korpussatz. Im Vergleich zum zweiten lieferte der Lesk-Algorithmus jedoch bessere Ergebnisse in Bezug auf die Gesamteffizienz des entwickelten Systems im Vergleich zum gemeinsamen Auftreten von Wörtern und Phrasen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6987-0_23 6e9dc22515418898ab53c49abab38528;de;;;2.1.;;;Vergleich: Discovery auf WSMOLX und miAamics/jABC In diesem Kapitel werden die Lösungen der SWS-Challenge-Entdeckungsprobleme von DERI Galway und die gemeinsame Lösung der Technischen Universität Dortmund und der Universität Potsdam verglichen. Die beiden Ansätze werden in den Kapiteln 10 und 13 ausführlich beschrieben. Das Ermittlungsszenario wirft Probleme auf, die damit verbunden sind, die Dienstermittlung zu einem automatisierten Prozess zu machen. Es erfordert feinkörnige Spezifikationen von Suchanfragen und Servicefunktionen, einschließlich der Unterstützung beim Abrufen dynamischer Informationen während des Ermittlungsprozesses (z. B. Versandpreis). Beide Teams verwenden Semantik zur Beschreibung von Diensten, Dienstanfragen und Datenmodellen, um eine Suche mit dem erforderlichen feinkörnigen Detaillierungsgrad zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-72496-6_15 6dbfe6a020fc5f47cd7313b5fcaf5f8c;de;;;2.1.;;;Anwendung von einfachen und logarithmischen Poisson-Ausführungszeitmodellen in der Software-Zuverlässigkeitsmessung Es werden zwei Software-Zuverlässigkeitsmodelle vorgestellt, die die vorteilhafte Eigenschaft teilen, auf der Ausführungszeit zu basieren. Sie werden mit einer Reihe anderer veröffentlichter Modelle verglichen. Die prädiktive Validität wird unter Verwendung von Fehlerdatensätzen aus einer unterschiedlichen Gruppe von Softwareprojekten und zwei verschiedenen Parameterschätzungsmethoden hergestellt. Die Eigenschaften und Vor- und Nachteile der beiden in Bezug aufeinander werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82846-1_9 71556b9877ea7540d477e69da7c8365f;de;;;2.1.;;;Modellierung des atmosphärischen Verhaltens: Ein Teilmodell der Dynamik von Pestiziden Dieses Papier ist eine Übersicht über Standardmethoden zur Abschätzung der Diffusion von Stoffen in der Atmosphäre. Solche Schätzungen können verwendet werden, um einen Teil der Dynamik von Pestiziden in der Umwelt zu analysieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-2862-9_6 571a308fba2e6a07fdd43fb154f48d49;de;;;2.1.;;;Datenanalyse, Modellierung und Wissensentdeckung in der Bioinformatik Die Bioinformatik vereint mehrere Disziplinen – Molekularbiologie, Genetik, Mikrobiologie, Mathematik, Chemie und Biochemie, Physik und natürlich Informatik. Viele Prozesse in der Biologie, wie in Kapitel 1 diskutiert, entwickeln sich dynamisch, und ihre Modellierung erfordert sich entwickelnde Methoden und Systeme. In der Bioinformatik werden neue Daten mit einer enormen Geschwindigkeit zur Verfügung gestellt, die eine kontinuierliche Anpassung der Modelle erfordern würde. Eine wissensbasierte Modellierung, die Regel- und Wissensermittlung umfasst, ist eine entscheidende Voraussetzung. All diese Probleme machen die sich entwickelnden konnektionistischen Methoden und Systeme erforderlich, um Probleme in allen Bereichen der Bioinformatik zu lösen, von der DNA-Sequenzanalyse über die Analyse von Genexpressionsdaten bis hin zur Proteinanalyse und schließlich zur Modellierung genetischer Netzwerke und ganzer Zellen. Dies wird dazu beitragen, genetische Profile zu entdecken und Krankheiten, für die es noch keine Heilung gibt, besser zu verstehen und besser zu verstehen, woraus der menschliche Körper besteht und wie er in seiner Komplexität auf seinen verschiedenen Organisationsebenen funktioniert (siehe Abb. 1.1). .;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-3740-5_8 dff63adc1564f8e091fc13b379f80a87;de;;;2.1.;;;Von der Bank zum Krankenbett: Die Rolle des Semantic Web und der translationalen Medizin für die Ermöglichung des Gesundheitsunternehmens der nächsten Generation Der Erfolg neuer Innovationen und Technologien ist sehr oft disruptiver Natur. Gleichzeitig ermöglichen sie neuartige Infrastrukturen und Lösungen der nächsten Generation. Diese Lösungen bringen hohe Effizienz in Form von effizienten Prozessen und der Fähigkeit, Wissen effektiv zu erstellen, zu organisieren, zu teilen und zu verwalten, und bieten gleichzeitig entscheidende Voraussetzungen für den Vorschlag und die Verwirklichung neuer Visionen. In diesem Beitrag schlagen wir eine neue Vision der;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-92219-3_3 d6416d74c0d1b578c0f3f4ef4cbdfc2f;de;;;2.1.;;;Die Primärstruktur von Glucanohydrolasen, die mit der Pflanzenpathogenese in Verbindung stehen, und ihre Gene Die Endo-Typ-Glucanohydrolasen ß-1,3-Glucanase (EC 3.2.1.39) und Chitinase (EC 3.2.1.14) sind reichlich vorhandene Proteine, die in Samenpflanzenarten weit verbreitet sind (Clarke und Stone, 1962, Ballance and Manners, 1978, Powning und Irzykiewicz , 1965). Die physiologischen Funktionen von ß-1,3- Glucanase und Chitinase sind nicht bekannt. Basierend auf der Verteilung des Enzyms und seiner mutmaßlichen Substrate wie Callose wurde vorgeschlagen, dass ß-1,3-Glucanasen eine Rolle bei der Fruchtreifung (Hinton und Pressey, 1980), dem Pollenschlauchwachstum (Roggen und Stanley, 1969, Ori et al., 1990), Koleoptilenwachstum (Masuda und Wada, 1967), Regulierung des Transports durch Gefäßgewebe (Clarke und Stone, 1962), Zellulosebiosynthese (Meier et al., 1981) und Zellteilung (Waterkeyn, 1967, Fulcher et al., 1976). Obwohl die Existenz anderer Substrate nicht ausgeschlossen ist, wird Chitin, das bekannte Substrat der Chitinase, in höheren Pflanzen nicht gefunden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-6684-0_10 0f0c8c592662efcc8e1d90b572ac057f;de;;;2.1.;;;Wer braucht Partikel? Eine Herausforderung für die Klassifizierung von Partikeln als Wortart im Russischen 1985 argumentierte Zwicky, dass „Teilchen“ ein prätheoretischer Begriff ist, der aus der linguistischen Analyse eliminiert werden sollte. Wir schlagen eine Neuklassifizierung russischer Partikel vor, die die Richtlinie von Zwicky umsetzt. Russischen Partikeln fehlt eine kohärente konzeptionelle Basis als Kategorie, und viele sind in Bezug auf die Wortart mehrdeutig. Unsere Korpusanalyse russischer Partikel befasst sich mit theoretischen Fragen zum kognitiven Status von Wortarten und praktischen Bedenken, wie Partikel in Computermodellen dargestellt werden sollten. Wir konzentrieren uns auf neun hochfrequente Wörter, die üblicherweise als Partikel klassifiziert werden:;-;-;-;https://link.springer.com/article/10.1007/s11185-016-9160-2 1502fe2d58e4ea9413acff40fe364033;de;;;2.1.;;;Ein künstlicher Immunklassifizierer mit Pseudo-Ellipsoid-Regeln Wir schlagen in diesem Artikel einen Fuzzy-Regel-basierten Klassifikationsalgorithmus vor, der auf einem künstlichen Immunnetzwerk basiert. Das Netzwerk entwickelt eine dynamisch bestimmte Anzahl von Pseudo-Ellipsoid-Regeln, um die Muster des Problems abzudecken, wobei sowohl die Qualität als auch die Vielfalt der entwickelten Regeln im Mittelpunkt stehen. Der vorgeschlagene Klassifikator wird bei einer Reihe von Benchmark-Problemen aus dem UCI-Repository mit C4.5 und GEP verglichen, was zufriedenstellende Ergebnisse liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-2155-8_50 d1c83669b6d16557569a1a528674c8a5;de;;;2.1.;;;Mining interessanter Muster in mehreren Datenquellen Da Daten in den meisten Organisationen selten speziell zum Zweck des Mining-Wissens in einer Datenbank gesammelt/gespeichert werden, enthält eine Datenbank immer viele Daten, die redundant und für das Mining interessanter Muster nicht erforderlich sind, und einige interessante Muster können sich in mehreren verstecken Datenquellen statt einer einzelnen Datenbank. Daher ist ein eigenschaftsorientiertes Multi-Database-Mining erforderlich. In der Zeitung,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36519-8_5 8a71029e81393649e66e90e6388ba25d;de;;;2.1.;;;Das nichtrelativistische Quarkmodell Das Klassifikationsschema und die Zerfallseigenschaften von Hadronenzuständen werden im Rahmen des nicht relativistischen Quarkmodells untersucht. Die Haupterfolge und die ungelösten Schwierigkeiten des Modells werden vorgestellt, was die zukünftigen Arbeiten zum Verständnis und zur Nutzung der nicht-relativistischen Quark-Ideen aufzeigt.;-;-;-;https://link.springer.com/article/10.1007/BF03159467 753054759546b1b995845172c8b52fe1;de;;;2.1.;;;Jacobi und die analytischen Ursprünge der Lügentheorie Lie begann 1870 in Paris eifrig die allgemeine Theorie der partiellen Differentialgleichungen erster Ordnung zu studieren. Seine Hauptquelle war ein gut geschriebener monographischer Aufsatz zu diesem Thema von V. G. Imschenetsky [1869]. Imschenet-skys Aufsatz, der fast zweihundert Seiten umfasste, war symptomatisch für das Interesse an der Theorie der Gleichungen erster Ordnung, das durch die Beiträge von Jacobi geweckt worden war. Obwohl Jacobi seine Ideen in den 1830er Jahren entwickelt hatte (er starb 1851) und in den frühen 1840er Jahren Vorträge über ihre Beziehung zu dynamischen Systemen hielt, wurde der größte Teil dieser Arbeit erst in den 1860er Jahren von Clebsch veröffentlicht [Jacobi 1862, 1866]. Das Erscheinen dieser Arbeiten weckte vor allem in Frankreich und Deutschland großes Interesse an der Theorie der partiellen Differentialgleichungen erster Ordnung. Zu der Zeit, als er in Paris war, interessierte sich Lie bereits für die Anwendung von Gruppen auf Differentialgleichungen, denn Kleins Beobachtungen (in Abschnitt 1.3 diskutiert) einer Analogie zwischen einigen seiner Arbeiten über Tetraederkomplexe und der Galois-Theorie wurden in Berlin gemacht 1869.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-1202-7_2 b351b3c69de3f7cebda2f226ec76b1a5;de;;;2.1.;;;Verwendung von Input-Output zur Prognose des Güterverkehrsbedarfs Es wird eine Methodik zur Prognose der Güterverkehrsnachfrage auf der Grundlage von Input-Output-Modellen vorgestellt. Die Methodik wurde im Rahmen einer in Italien durchgeführten Studie zur Bewertung alternativer Verkehrspolitiken entwickelt. Nach einer kurzen Diskussion des Themas Güterverkehr in Italien werden in diesem Beitrag die grundlegenden Hypothesen der Studie, die verwendeten Modelle, die Simulationsverfahren und einige der bereits erzielten vorläufigen Ergebnisse besprochen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-02551-2_3 b22cd80493bfe7388024506d27e57380;de;;;2.1.;;;Ein Agent für Bildanmerkungen Die Leistung des Abrufens eines Bildes in Bezug auf Textanfragen hängt stark von der Qualität der annotierten beschreibenden Metadaten ab, die den Inhalt der Bilder beschreiben. Die effektive Kommentierung eines Bildes kann jedoch oft eine mühsame Aufgabe sein, die konsistente Domänenkenntnisse erfordert. Annotatoren können Merkmale in den Bildern mit Anmerkungen versehen, die nicht viel zum Abrufen der Bilder beitragen können. Für eine effektive Annotation wird ein Annotation Guide Agent (AGA) vorgeschlagen, um Annotatoren zu unterstützen. Grundsätzlich überwacht AGA das Verhalten des Annotators und schlägt basierend auf dem gesunden Menschenverstand, der von früheren Annotationsinstanzen sowie der Domänenontologie induziert wurde, kritische Eigenschaften vor, die die wertvollsten Informationen für den Bildabruf liefern. Wir haben durch Experimente gezeigt, dass die Heuristiken der kritischen Eigenschaft und des gesunden Menschenverstands, die von AGA verwendet werden, um die Annotation von Bildern zu unterstützen, signifikant zu einer Verbesserung der Erinnerung und der Präzision beim Abrufen von Bildern führen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-32128-6_12 86f945ed17ad2d1e3de1fcd5b99a34d1;de;;;2.1.;;;Spinale Instabilität bei Metastasen Neoplastische Erkrankungen stellen eine einzigartige Herausforderung bei der Bestimmung der relativen Stabilität der menschlichen Wirbelsäule dar. Dieses Kapitel beginnt mit der Hervorhebung der anatomischen Stabilisatoren der Wirbelsäule und untersucht die Rolle der Bildgebung bei der Bestimmung der Kompetenz und der Kompromittierung dieser Strukturen. Schließlich wird ein Überblick über Klassifikationssysteme für spinale Instabilität gegeben und mit dem validierten Spinal Instability Neplastic Score (SINS) abgeschlossen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-76252-4_5 e5694c7a7434979358c29839867157a3;de;;;2.1.;;;Die menschliche Entwicklung ist mit mehreren Beeinträchtigungen der Gewässer entlang der kalifornischen Küste verbunden Um die Zusammenhänge zwischen Landbedeckung und Wasserqualität entlang der zentralkalifornischen Küste aufzuklären, haben wir monatlich Proben von 14 Küstenwasserstraßen entnommen, die verschiedene Grade der menschlichen Entwicklung repräsentieren. Die Standorte wurden auf drei Salzgehaltskategorien verteilt, Süßwasser, Ästuar und Meer, um die Beziehungen zwischen Landbedeckung und Wasserqualität in einer Reihe von aquatischen Küstenökosystemen besser zu verstehen. Die Proben wurden auf fäkale Indikatorbakterien (FIB), gelöste Nährstoffe, stabile Stickstoffisotope in partikulärem organischem Material und Chlorophyll analysiert;-;-;-;https://link.springer.com/article/10.1007/BF02786537 7c9016528e35c0d4f4adf11fc6f57074;de;;;2.1.;;;Ressourcenmodellierung: Probleme im Stand der Technik Energieressourcen liefern kritische Rohstoffe für Energiesysteme. Daher nimmt die Modellierung von Energieressourcen eine zentrale Stellung ein, wenn es darum geht, die Systemwissenschaften zum Nutzen der energiepolitischen Planung anzuwenden. Die Problematik der Darstellung von Energieressourcen in politischen Planungsmodellen steht im Mittelpunkt dieser Präsentation.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-1080-8_10 4029f381a6adcc64f083e63130e1d116;de;;;2.1.;;;Raum-Zeit-Overhead-Analyse und Experimente mit Techniken zur Fehlertoleranz Dieses Papier präsentiert die Ergebnisse praktischer Experimente, die auf einer Multiprozessorplattform mit verschiedenen Techniken zur Fehlertoleranz implementiert wurden. Wir analysieren und kontrastieren den Zeit- und Raumaufwand, der durch jede Technik entsteht. In den Experimenten wurden drei iterative Algorithmen verwendet: Lösung von Laplace-Gleichungen, Berechnung der invarianten Verteilung von Markov-Ketten und Lösung linearer Gleichungssysteme. Fehlertolerante Versionen dieser Algorithmen wurden mit zwei allgemeinen Techniken zur Fehlertoleranz (Triplikation mit Voting und Checkpointing und Rollback) und drei anwendungsspezifischen Techniken zur Fehlertoleranz (Selbststabilisierung, algorithmenbasierte Fehlertoleranz und natürliche Redundanz) implementiert. Die experimentellen Ergebnisse zeigen, dass der auf natürlicher Redundanz basierende Ansatz für Anwendungen mit dieser Eigenschaft das attraktivste Kosten-Nutzen-Verhältnis bietet, wenn nur einzelne Fehler wahrscheinlich auftreten. Die Ausführung der drei mit dieser Technik implementierten Algorithmen erforderte weniger als 15 % Zeitredundanz für signifikant große Probleme in fehlerfreien Situationen, nur eine zusätzliche Iteration zur Wiederherstellung nach einem Fehler und keine zusätzlichen Prozessoren. Diese Funktionen sind ideal für kritische Anwendungen, die einen zuverlässigen und pünktlichen Service bieten müssen. Überraschenderweise war der Zeitaufwand für einige andere Methoden viel höher als erwartet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-4009-3_13 e3122889541c75a713e10c66b365323a;de;;;2.1.;;;Automatische Bildanmerkung für den semantischen Bildabruf Dieser Artikel befasst sich mit der Herausforderung der automatischen Annotation von Bildern für die semantische Bildsuche. In dieser Forschung wollen wir visuelle Merkmale identifizieren, die für semantische Annotationsaufgaben geeignet sind. Wir schlagen ein Bildklassifizierungssystem vor, das visuelle MPEG-7-Deskriptoren und Support-Vektor-Maschinen kombiniert. Das System wird angewendet, um Stadt- und Landschaftsbilder mit Anmerkungen zu versehen. Für diese Aufgabe zeigt unsere Analyse, dass die Farbstruktur- und Kantenhistogramm-Deskriptoren im Vergleich zu einer Vielzahl visueller MPEG-7-Deskriptoren am besten abschneiden. Bei einem Datensatz von 7.200 Landschafts- und Stadtbildern, die unterschiedliche Qualität und Auflösung im realen Leben darstellen, erreichen der MPEG-7-Farbstrukturdeskriptor und der Kantenhistogrammdeskriptor eine Klassifizierungsrate von 82,8 % bzw. 84,6%. Durch die Kombination dieser beiden Merkmale erreichen wir eine Klassifizierungsquote von 89,7%. Unsere Ergebnisse zeigen, dass die Kombination von hervorstechenden Merkmalen die Klassifizierung von Bildern signifikant verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76414-4_36 8dbe509a9996978a733db0b1f3634bba;de;;;2.1.;;;Polysemie in Malayalam-Verben mithilfe von Kontextähnlichkeit auflösen Im Allgemeinen sind Verben in jeder Sprache polysem, da ihre Anzahl geringer ist als in anderen Kategorien, einschließlich Substantiven. Meistens wird die Bedeutung eines Verbs durch die Wörter bestimmt, mit denen es zusammenfällt. Die Kontextabhängigkeit der Verben reduziert die Anzahl der Verben in den meisten Sprachen oder allen Sprachen. Daher werden Verben standardmäßig hoch polysem. Im textlichen oder gesprochenen Kontext wird die Polysemie keine Probleme bereiten, da man die korrekte Bedeutung eines Verbs aus dem Kontext seines Auftretens ableiten kann. Aber im rechnerischen Kontext wird Polysemie ein Problem sein. Da die Maschine nicht über das Wissen verfügt, das das menschliche Gehirn hat, muss ihr Wissen auf irgendeine Weise vermittelt werden, um die Bedeutung eines Verbs richtig zu interpretieren. Polysemie ist auch ein Problem bei der Interpretation von Malayalam-Verben. Die Auflösung der Polysemie im Malayalam-Verb ist für jede NLP-Aktivität in Malayalam einschließlich der maschinellen Übersetzung erforderlich. Bei der maschinellen Übersetzung ist Mehrdeutigkeit aufgrund von Polysemie ein entscheidendes Problem. In diesem Kapitel werden alle Arten von Mehrdeutigkeiten untersucht, wobei der Schwerpunkt hauptsächlich auf der Mehrdeutigkeit aufgrund von Polysemie in Verben liegt. Es wird auch die Auflösung von Polysemie in Malayalam-Verben unter Verwendung von Kontextähnlichkeit untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-35280-6_7 d5206595564c83ba87134fa422c0fd54;de;;;2.1.;;;Die Wirkung von Warnungen auf falsche Erinnerungen bei jungen und älteren Erwachsenen In den vorliegenden Experimenten untersuchten wir Altersunterschiede bei Erwachsenen in der Fähigkeit, falsche Erinnerungen zu unterdrücken, unter Verwendung des Deese-Roediger-McDermott (DRM)-Paradigmas (Deese, 1959, Roediger & McDermott, 1995). Die Teilnehmer studierten Wortlisten (z. B.;-;-;-;https://link.springer.com/article/10.3758/BF03194324 f04b12ce3db77089e06575d126e8e5f4;de;;;2.1.;;;Entdeckung von Definitionsmustern durch Komprimieren von Wörterbuchsätzen Sen Dieses Papier schlägt eine automatische Methode vor, um Definitionsmuster aus einem gewöhnlichen Wörterbuch zu entdecken. Es gibt häufige Muster, um Wörter und Konzepte in einem gewöhnlichen Wörterbuch zu beschreiben. Jedes Definitionsmuster enthält eine Reihe ähnlicher Wörter und kann als Vorlage verwendet werden, um die Unterschiede zwischen ihnen zu verdeutlichen. Um diese Definitionsmuster zu entdecken, wandeln wir Definitionssätze in Baumstrukturen um und komprimieren sie nach dem MDL-Prinzip. Es wird über das Experiment mit einem japanischen Kinderwörterbuch berichtet, das die Wirksamkeit unserer Methode zeigt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45884-0_19 d1899011d7605293ede6f692620a8be1;de;;;2.1.;;;Bestimmung der Emotion von Nachrichtenartikeln Autoren von Nachrichtengeschichten verleihen ihren Geschichten durch ihre Wortwahl und ihre Formulierung eine unterschwellige Emotion. Eine Geschichte über dasselbe Ereignis oder dieselbe Person kann je nach Autor, Zeitung und Nationalität radikal unterschiedliche Emotionen haben. In diesem Beitrag schlagen wir ein System vor, um die Emotion eines Nachrichtenartikels basierend auf Emotionswörterbüchern, Redewendungen und Modifikatoren zu beurteilen. Diese Art von System ermöglicht es einem, die Weltmeinung zu unterschiedlichen Themen zu beurteilen, indem man sich die Emotionen ansieht, die in Nachrichtenartikeln zu diesem Thema verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-37275-2_115 76cd5deb7cce50f603f28ae97f97e29d;de;;;2.1.;;;Objektbasierte Klassifizierung von IKONOS-Daten für die Vegetationskartierung in Zentraljapan Die Vegetationskartierung mit IKONOS-Daten wurde in einem Landschaftsstudiengebiet in Zentraljapan durchgeführt, wo kleine Flecken verschiedener Pflanzengemeinschaften in einem komplizierten Mosaikmuster miteinander vermischt sind. Pixelbasierte und objektbasierte Klassifikationen, die nur spektrale Merkmale verwenden, wurden implementiert und ihre Genauigkeiten wurden verglichen. Darüber hinaus wurde die objektbasierte Klassifikation auch an einer Kombination von Spektral- und Texturmerkmalen durchgeführt, wobei ein schrittweises Regressionsmodell in der Diskriminationsanalyse verwendet wurde, um die relevantesten Merkmale auszuwählen. Klassifikationen wurden auf vier Ebenen durchgeführt, von denen die höchste sieben Vegetationskategorien verwendet. Die objektbasierte Klassifizierung erwies sich als genauer als die pixelbasierte Klassifizierung. Darüber hinaus führte das Hinzufügen von Texturmerkmalen zu erheblichen Verbesserungen der Genauigkeit. Die Gesamtklassifizierungsgenauigkeit und die Kappa-Koeffizienten auf der höchsten Stufe betrugen 52,8% und 0,373 für die pixelbasierte Klassifizierung, 58,9% und 0,458 für die objektbasierte Klassifizierung mit nur spektralen Merkmalen und 65,0% und 0,542 für die objektbasierte Klassifizierung mit zusätzlichen Merkmalen . Einige Probleme mit der Fehlklassifizierung blieben bestehen, aber die Gesamtergebnisse zeigen, dass die objektbasierte Klassifizierung von Satellitenbildern mit sehr hoher Auflösung unter Verwendung zusätzlicher Funktionen ein praktisches Werkzeug für die Vegetationskartierung in Japan ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77058-9_25 bc4443f999874469ea23eef93bb53dc1;de;;;2.1.;;;Wahrmacher, Wahrsager und die Objektivität der Wahrheit Ziel dieses Beitrags ist es zu zeigen, dass die von den Logikern spätestens seit der Veröffentlichung von Tarskis The Concept of Truth in Formalized Languages ​​1933 als selbstverständlich betrachtete objektive Wahrheit aus einer von Bozen und Brentano initiierten Tradition philosophischen Denkens hervorgegangen ist. Der Beitrag zeigt insbesondere, dass bestimmte Untersuchungen von Sachlagen und anderen objektiven Korrelaten von Urteilsakten, Untersuchungen österreichischer und polnischer Philosophen um die Jahrhundertwende, zum Hintergrund der Ansichten gehörten, die zu den üblichen aktuellen Darstellungen der Objektivität der Wahrheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-0249-2_16 46549216a101745a114bdc8ccd242cd1;de;;;2.1.;;;Ein Wissens-Skill-Kompetenzen e-Learning-Modell in Mathematik Dieses Papier befasst sich mit der Modellierung von Kompetenz in Mathematik in einer E-Learning-Umgebung. Kompetenz ist etwas Komplexes, das über die kognitive Ebene hinausgeht und metakognitive und nichtkognitive Faktoren umfasst. Es erfordert, dass die Schüler Kenntnisse und Fähigkeiten und zumindest einige messbare Fähigkeiten beherrschen, die Niss „Kompetenzen“ nennt. Wir präsentieren ein Modell, das die innovativen technologischen Merkmale der IWT-Plattform nutzt, um eine personalisierte Lernerfahrung zu definieren, die es den Schülern ermöglicht, ihre Kompetenzen in Mathematik zu verbessern. Es basiert auf Wissens- und Fähigkeitsrepräsentationen mittels einer Graphenmetapher und auf einem theoretischen Rahmen für die Modellierung von Kompetenz.;-;-;-;https://link.springer.com/article/10.7238/rusc.v9i1.1284 274e7d506c1d85e1b79afd16ba88c737;de;;;2.1.;;;Segmentierung durch maximale prädiktive Partitionierung gemäß Zusammensetzungsverzerrungen Wir präsentieren eine Methode zur Segmentierung qualitativer Sequenzen nach einer Art von Zusammensetzungskriterien, deren Definition und Bewertung auf dem Konzept der Prädiktoren und der additiven Prädiktion basiert. Mit einer Menge von Prädiktoren kann eine Partition einer Sequenz präzise ausgewertet werden. Wir präsentieren eine Sprache für die Deklaration von Prädiktoren. Eines der Probleme besteht darin, die Aufteilung einer Sequenz in eine gegebene Anzahl von Segmenten zu optimieren. Das andere Problem besteht darin, eine geeignete Anzahl von Segmenten für die Aufteilung der Sequenz zu erhalten. Wir stellen einen Algorithmus vor, der bei einer gegebenen Sequenz und einem Satz von Prädiktoren nacheinander die optimalen Partitionen der Sequenz für eine wachsende Anzahl von Segmenten berechnen kann. Die Zeit- und Raumkomplexität des Algorithmus ist linear für die Länge der Sequenz und die Anzahl der Prädiktoren. Experimentell sind die berechneten Partitionen in Bezug auf die Anzahl der Segmente sehr stabil, und wir präsentieren eine Anwendung dieses Ansatzes zur Bestimmung der Replikationsursprünge von Bakterienchromosomen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45727-5_4 183f48fb2f8449cbdc97e0d964adcffd;de;;;2.1.;;;Ein neuer Ansatz zur Bewertung der Positionsgenauigkeit von Karten, die durch GIS-Overlay-Operationen generiert wurden Dieses Papier schlägt einen neuen Ansatz vor, um die Positionsgenauigkeit von Karten zu bewerten, die durch Überlagern von mehrskaligen Geodatenschichten mit unterschiedlichen Positionsgenauigkeiten erzeugt werden. Zunächst werden die bestehenden Techniken zur Bewertung der Positionsgenauigkeit von Punkt-, Linien- und Polygonmerkmalen untersucht. Anschließend wird eine Taxonomie der grafischen Merkmale auf den abgeleiteten Karten entwickelt, indem die spezifischen Prozesse der Überlagerungsoperationen analysiert werden. Abschließend wird der neue Ansatz detailliert beschrieben und die Umsetzung dieser neuen Methode in praktische Anwendungen beschrieben.;-;-;-;https://link.springer.com/article/10.1007/BF02833885 2dee66262bc9d1ae1eda5b9f5a8432c3;de;;;2.1.;;;Auf dem Weg zu einer Ontologie für Agentenmobilität Die Vorteile der Agentenmobilität wurden für eine Vielzahl von Anwendungen wie drahtlose Ad-hoc-Umgebungen und Netzwerkmanagement erkannt. Als Reaktion darauf wurden Toolkits für mobile Agenten entwickelt, die jedoch nicht den Bedarf an konzeptionellen Modellierungstechniken adressieren, die für die Analyse- und Entwurfsphasen von mobilen Agentenanwendungen erforderlich sind. Andererseits adressieren Modellierungstechniken auf konzeptioneller Ebene, die als Teil der Methoden des agentenorientierten Software-Engineerings entwickelt wurden, nicht speziell die Anforderungen an die Modellierung von Mobilität. Dieses Papier stellt einen ersten Schritt zur Entwicklung einer Unterstützung für die konzeptionelle Modellierung mobiler Agenten dar, im Sinne einer Ontologie, die die abstrakten Konzepte und Zusammenhänge beschreibt, die zur Modellierung der Agentenmobilität erforderlich sind. Das spezifische Ziel dieses Beitrags ist es, eine Ontologie zu präsentieren, die weithin anwendbar ist, nicht durch die Besonderheiten eines einzelnen Toolkits oder einer Anwendung für mobile Agenten eingeschränkt ist und mit einem leicht verständlichen informellen Vokabular spezifiziert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30466-1_44 ac38b77d70c44c85045372fc8176b352;de;;;2.1.;;;Auf Virtueller Experte für Wissensmanagement und Extenik-orientierte Ontologie Basierend auf einer intensiven Untersuchung chinesischer Klassiker präsentiert der Artikel einen neuartigen ontologischen Rahmen für das Management von scheinbar inkompatiblem Wissen, um der Weisheitsinfrastruktur zu dienen. Mit dem Einheits-Widerspruchs-Modell stellt die Arbeit fest, dass die Existenz von Wissen durch die Identitätseigenschaft im Widerspruch definiert wird, seine Erweiterbarkeit liegt in der Gleichgewichtseigenschaft des Identitätsaspekts. Durch Ändern des Gleichgewichtsmusters kann man die Inkompatibilität oder Inkonsistenz auflösen. Das Papier weist darauf hin, dass der KM-Experte auf eine grundsätzlich stillschweigende Kognitions- und Kommunikationsweise angewiesen ist, wobei die Erweiterbarkeit die primäre Rolle spielt. Es schlägt auch einen orientalischen Ansatz oberhalb der Logikschicht vor, um Wissensverhalten zu kodifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21783-8_30 2fec0551d366809c0eb26f87efee2a4b;de;;;2.1.;;;P2P-Abfragen-Routing mit verteiltem Wissen Das wachsende Interesse an Peer-to-Peer-Systemen (wie Gnutella) hat zahlreiche Forschungsaktivitäten inspiriert. Das Problem in einem schemabasierten Peer-to-Peer (P2P)-System besteht darin, für eine bestimmte Abfrage relevante Peers zu finden. Verschiedene Methoden schlugen Routing-Strategien von Anfragen vor, die das vorliegende P2P-Netzwerk berücksichtigen. In diesem Papier schlagen wir eine Architektur vor, die auf (Super-) Peers basiert, und konzentrieren uns auf das Abfrage-Routing. Unser Ansatz berücksichtigt, dass (Super-) Peers mit ähnlichen Interessen für ein effizientes Abfrage-Routing-Verfahren zusammengefasst werden. In solchen Gruppen, die als Super-Super-Peers (SSP) bezeichnet werden, senden Super-Peers Anfragen, die häufig von Mitgliedern dieser Gruppe bearbeitet werden. Ein SSP ist ein spezifischer Super-Peer, der Wissen enthält über: 1. seine Super-Peers und 2. den anderen SSP. Wissen wird unter Verwendung von Data-Mining-Techniken (z. B. Entscheidungsbaumalgorithmen) extrahiert, ausgehend von Anfragen von Peers, die das Netzwerk durchlaufen. Der Vorteil dieses verteilten Wissens besteht darin, dass semantische Zuordnungen zwischen heterogenen Datenquellen im Besitz von (Super-)Peers vermieden werden, jedes Mal, wenn das System entscheidet, Anfragen an andere (Super-)Peers weiterzuleiten. Der Satz von SSP verbessert die Robustheit des Abfrage-Routing-Mechanismus und die Skalierbarkeit im P2P-Netzwerk. Im Vergleich zu einem Baseline-Ansatz zeigt unsere vorgeschlagene Architektur, dass die Data-Mining-Technik die Leistung in Bezug auf Reaktionszeit und Präzision erhöht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22603-8_14 8e226b0cde26802f2a332af43374ea2e;de;;;2.1.;;;Rollengesteuerte, kontextbasierte Entscheidungsunterstützung: Ansatz, Implementierung und gewonnene Erkenntnisse Unternehmen müssen heute sowohl ihre Produktentwicklungsstruktur als auch die Struktur ihrer Geschäftsprozesse grundlegend verändern. Die kontextbasierte Entscheidungsunterstützung hat in diesem Bereich ihre effiziente Anwendbarkeit bewiesen. Die Umsetzung solch komplexer Veränderungen in großen Unternehmen stößt jedoch auf viele Schwierigkeiten. Der Beitrag beschreibt die Methodik der kontextbasierten Entscheidungsunterstützung. Der Kontext spezifiziert Domänenwissen, das die zu lösende Aufgabe und ihre Situation beschreibt. Es wird basierend auf dem Wissen erstellt, das aus einer gemeinsamen Ontologie extrahiert wurde. Die Kontextnutzung wird durch rollenbasiertes Wissensmanagement erleichtert. Die wesentlichen Schritte der Umsetzung des Ansatzes in Zusammenarbeit mit einem Industriepartner werden beschrieben. Die während der Umsetzung des Ansatzes gemachten Beobachtungen zur Behandlung von Problemen im Zusammenhang mit der Umsetzung selbst und allgemeine Prinzipien, die zur Überwindung der Probleme beigetragen haben, werden erörtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25840-9_32 8255330b81d39a69d2ebb4ce2ab823e1;de;;;2.1.;;;Eine Taxonomie der heuristischen Problemlösung In diesem Artikel werden Problemlösungen und ihre algorithmischen Eigenschaften diskutiert. In der Systemliteratur wird Problemlösung oft in Bezug auf ihr methodisches Umfeld diskutiert – zum Beispiel kann SSM berechtigterweise als Problemlösungsschema angesehen werden. Es ist eine Behauptung dieses Papiers, dass fünf kognitive elementare Strategien bei der generalisierten Problemlösung involviert sein können.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-0265-8_76 cdd956b96b9254cdc7b48932d70bb24c;de;;;2.1.;;;Auf dem Weg zur automatisierten Taxonomie-Generierung zur Gruppierung von App-Bewertungen: Eine vorläufige empirische Studie App-Reviews spiegeln häufig Anfragen, Probleme oder Vorschläge von Endbenutzern zur Unterstützung der App-Wartung und -Entwicklung wider. Daher haben Forscher mehrere Klassifizierungsansätze zur Identifizierung und Klassifizierung solcher App-Bewertungen evaluiert. Diese Klassifikationsansätze werden jedoch durch manuell abgeleitete Taxonomien angetrieben. Dies ist eine Einschränkung angesichts der Belastung durch menschliches Engagement, zahlreicher App-Überprüfungen und der Abhängigkeit von der Verfügbarkeit von Domänenwissen zur Durchführung der Klassifizierung. In dieser Pilotstudie entwickeln und evaluieren wir einen neuartigen Ansatz zur automatischen Generierung einer dynamischen Taxonomie, die verwandte App-Bewertungen gruppiert. Unser Ansatz verwendet natürliche Sprachverarbeitung, Feature-Engineering und Wortsinn-Begriffsklärung, um die Taxonomie automatisch zu generieren. Wir validierten den vorgeschlagenen Ansatz mit App-Reviews, die aus der beliebten My Tracks-App extrahiert wurden, wobei die Ergebnisse eine 72-prozentige Übereinstimmung mit einer manuellen Taxonomie ergaben, die aus von Menschen bereitgestelltem Domänenwissen generiert wurde. Unser Ansatz ist vielversprechend, um Softwarewartung und -entwicklung schnell zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58793-2_10 2f70d597eb99a86982aa4e391a234011;de;;;2.1.;;;Die AHES-Taxonomie: Adaptive Hypermedia auf Softwarekomponenten erweitern Hypermedia hat sich zu XML-basierten Spezifikationen und Java/Flash-Softwarekomponenten entwickelt. In diesem Beitrag erweitern wir bekannte Adaptionsmethoden und Techniken auf Softwareprogramme und klassifizieren diese nach Komponententyp. Wir berücksichtigen die Anpassung von internen Multimediastrukturen, Grafikelementen, Interaktionen und enthaltenen Algorithmen. Methoden werden mit einem Prototypsystem veranschaulicht, das passende, komponentenbasierte Anpassungstechniken implementiert. Es ist kostenlos erhältlich und enthält ein XML-Authoring-Schema, eine Anpassungsschicht für Java-Applets von Drittanbietern und eine serverseitige Anpassungs-Engine.;-;-;-;https://link.springer.com/chapter/10.1007/11768012_46 3049c4e3a10e30fadb52306f7fd6e8b6;de;;;2.1.;;;Ein ontologiegesteuerter Ansatz für das Design elektronischer Dokumentenstrukturen Im Laufe der Geschichte hat die Menschheit Dokumente als eine der Möglichkeiten zur Organisation der Daten verwendet. In den letzten Jahrzehnten hat sich die elektronische Dokumentation zunehmend verbreitet. Um den elektronischen Dokumentenaustausch zu ermöglichen, sind Standards für Übertragungsprotokolle, Darstellungsformate und Regeln für die Dokumentenerstellung notwendig. Für einige Protokolle (HTTP, SOAP etc.) und Formate (EDI, XML, JSON etc.) stehen relativ feste und allgemein anerkannte Standards zur Verfügung. Was das elektronische Dokumentendesign angeht, gibt es eine Fülle von Ansätzen, bei denen sich kaum ein Leader etablieren könnte, alle haben ihre Vor- und Nachteile. Diese Studie untersucht einige dieser Ansätze (UN/CEFACT CCTS, WCO DM, ISO 20022 und NIEM). Diese Ansätze haben unterschiedliche Merkmale, aber aus der konzeptionellen Perspektive sollen sie Detailmengen einiger realer Objekte beschreiben. Der Beitrag schlägt vor, solche Objekte mit einer Ontologie zu beschreiben und dann basierend auf dieser Ontologie konzeptionelle Strukturen elektronischer Dokumente aufzubauen, die gemäß einem der Standards in plattformunabhängige Strukturen elektronischer Dokumente umgewandelt werden können. Der eingeführte Ansatz ermöglicht eine Harmonisierung der betrachteten Standards.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-52920-2_1 e07b93f20b4f1a3841f7929214df1186;de;;;2.1.;;;Experimente zur Erweiterung einer lexikalischen Ontologie Dieses Papier stellt zwei einfache Experimente vor, die durchgeführt wurden, um die Abdeckung von PULO, einer lexikalischen Ontologie, die auf dem Princeton WordNet basiert und darauf ausgerichtet ist, zu erweitern. Das erste Experiment untersucht die Triangulation der galizischen, katalanischen und kastilischen Wortnetze mit Übersetzungswörterbüchern aus dem Apertium-Projekt. Die zweite untersucht Dicionário-Aberto-Einträge, um Synsets aus ihren Definitionen zu extrahieren. Obwohl ähnliche Ansätze bereits für verschiedene Sprachen angewendet wurden, zielt dieses Dokument darauf ab, ihre Ergebnisse für den Fall PULO zu dokumentieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27653-3_5 b7690dfe3c391cfb6d71f2b8f3253341;de;;;2.1.;;;Ein axiombasiertes Metamodell für die Formalisierung von Softwareprozessen: Ein ontologischer Ansatz Die Softwareentwicklung folgt in der Regel bekannten Vorgehensmodellen und Standards für Entwicklungsprozesse. Diese sind jedoch in der Regel vielfältig und in natürlicher Sprache beschrieben, was ihre Automatisierung, Anpassungsfähigkeit und Verifikation erschwert. Die Notwendigkeit einer Prozessformalisierung wird seit langem hervorgehoben, und wir haben in früheren Arbeiten einen entsprechenden Formalisierungs- und Übersetzungsalgorithmus bereitgestellt. Um jedoch heterogene Prozesse aus unterschiedlichen Standards und Vorgehensmodellen systematisch und originalgetreu zu formalisieren, bedarf es einheitlicher Konzepte zur Untermauerung des Formalisierungsprozesses. Metamodelle und Ontologien wurden in letzter Zeit erforscht, um eine Grundlage für die Strukturierung und den Ausdruck zusätzlicher Strenge bei der Prozessformalisierung zu legen. In dieser Studie entwickeln wir ein axiombasiertes Metamodell, das Powertype-Muster als konzeptionellen Rahmen verwendet, um eine homogene Prozessformalisierung zu unterstützen. Der Vorteil eines axiomatischen und Powertype-basierten Metamodellansatzes liegt in seinem Potenzial, die Grundbestandteile und den Formalismus des Metamodells zu bestimmen, sowie in seiner Erweiterbarkeit und Anpassungsfähigkeit. Wir formalisieren das Metamodell mithilfe von Ontologien, während wir Anwendungsfälle aus den Standards ISO/IEC 29110 und ISO/IEC 24744 für die Darstellung von Metamodellen übernehmen. Ontologiebasierte Prozessbeschreibungen ermöglichen eine automatisierte Prozessverifizierung und Adaptivitätsfähigkeit durch den Einsatz von Ontologie-Argumentation-Support-Engines.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67383-7_17 55e7c9f2a59e48bfe9e6c42cbaed5da8;de;;;2.1.;;;FunSet: eine Open-Source-Software und ein Webserver zur Durchführung und Anzeige von Gen-Ontologie-Anreicherungsanalysen Die Gen-Ontologie-Anreicherungsanalyse bietet eine effektive Möglichkeit, aussagekräftige Informationen aus komplexen biologischen Datensätzen zu gewinnen. Durch die Identifizierung von Begriffen, die in einem Genset deutlich überrepräsentiert sind, können Forscher biologische Merkmale aufdecken, die von Genen gemeinsam sind. Neben der Extraktion angereicherter Terme ist es auch wichtig, die Ergebnisse biologisch interpretierbar zu visualisieren.;-;-;-;https://link.springer.com/article/10.1186/s12859-019-2960-9 45374a69f955072e96227b0ec9f9369e;de;;;2.1.;;;Parallelisierung der konjunktiven Abfragebeantwortung über Ontologien Die effiziente Beantwortung von Abfragen über Description Logic (DL)-Ontologien mit sehr großen Datensätzen wird immer wichtiger. In den letzten Jahren wurden verschiedene Ansätze zur ABox-Partitionierung entwickelt, um eine parallele Verarbeitung zu ermöglichen. Ein besonders vielversprechender Ansatz ist die Instanzprüfung mit der Methode des Enhanced Most Specific Concept (MSC). Die Anwendbarkeit dieser verteilten Argumentationsmethoden auf typische Ontologien wurde hauptsächlich durch anekdotische Beobachtungen gezeigt. In diesem Artikel stellen wir eine parallelisierbare, erweiterte MSC-Methode für die Beantwortung konjunktiver ABox-Abfragen vor, die eine Reihe von syntaktischen Bedingungen verwendet, die das Abfragen großer praktischer Ontologien in angemessener Zeit ermöglichen, und sie mit Mustervergleich kombiniert, um Abfragen über Rollenzusicherungen zu beantworten. Wir präsentieren auch die Ausführungszeit und Effizienz einer Implementierung, die über Computing-Cluster unterschiedlicher Größe bereitgestellt wird, und zeigen die Fähigkeit der Methode, die Instanzprüfung für große Datensätze zu verarbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-90596-9_1 e8b3c26d12d477e24d4969c170101233;de;;;2.1.;;;Tensor-basierte Ontologie-Datenverarbeitung für semantisches Service-Matchmaking In diesem Artikel stellen wir eine neue Anwendung der multilinearen Datenverarbeitung für das Matchmaking von Semantic Web Service vor, die auf dem Covariance-Matrix-based Filtering (CMF)-Algorithmus und der ontologischen Datendarstellung basiert. Wir zeigen die Zweckmäßigkeit der integrierten algebraischen Modellierung von lexikalischen Daten, die aus Webservice-Beschreibungen und den entsprechenden ontologiebasierten semantischen Daten abgeleitet werden. Die experimentellen Bewertungsergebnisse zeigen die Überlegenheit des kovarianzbasierten Tensorfilterungsverfahrens gegenüber anderen modernen Tensorverarbeitungsverfahren sowie die Vorteile der Verwendung der vorgeschlagenen Ontologiedatendarstellung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99987-6_20 99d2b99d7e686c6b8c9d50af36a01e6c;de;;;2.1.;;;Ontologiebasierte Darstellung und Visualisierung von Abhängigkeiten Die Anforderungsinterdependenz wird intensiv untersucht, mit wachsendem Interesse in der Software-Engineering-Forschung. Bestehende Werkzeuge und Techniken haben jedoch die Abhängigkeitsbeziehungen zwischen Anforderungen zwischen Anforderungen nicht richtig charakterisiert und visualisiert. Diese Forschung führt eine ontologiebasierte Darstellung von Anforderungsinterdependenzen zwischen Anforderungen und eine formale grafische Notation für die richtige Visualisierung von Anforderungsinterdependenzen ein. Es gibt Hinweise darauf, dass der Ontologie-basierte Ansatz die bessere Technik zum Management der Anforderungsinterdependenz ist, d. h. eine schematische Darstellung der Anforderungsinterdependenz verbessert die Qualität der Software und reduziert die Fehlerraten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10987-9_24 6429ed038bfeebde6d9f45e61e992967;de;;;2.1.;;;Eine Methode zur Neugestaltung des Gesundheitswesens mit Enterprise Ontology und Lean Die weltweiten Gesundheitsausgaben sind in den letzten Jahrzehnten gestiegen, und es gibt Daten, die eine Ineffizienz beim Ressourcenverbrauch zeigen, die sich nicht in einer Verbesserung der Gesundheitsversorgung widerspiegelt. Um diese Probleme zu überwinden, schlägt dieses Papier eine auf Enterprise Ontology und Lean basierende Methode vor, um nicht wertschöpfende Transaktionen zu finden und sie zur Verbesserung der Gesundheitsversorgung neu zu gestalten. Demonstrationen der Methode wurden durch Feldstudien im nationalen Gesundheitssystem durchgeführt, die es ermöglichten, Transaktionen zu finden, die verfeinert oder verbessert werden können. Ergebnisse und Auswertungen belegen, dass die vorgeschlagene Methode eine adäquate und klare Prozesssicht liefert und zuverlässig ist, wenn es um die Neugestaltung des Gesundheitswesens geht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54105-6_16 79a50c877ef4e768fc27d7b2f1b9ccca;de;;;2.1.;;;Ontologisches und qualitatives räumliches Denken kombinieren: Anwendung auf die Interpretation von Stadtbildern In diesem Beitrag entwickeln wir ein qualitatives räumliches Denken (QSR), das auf die Interpretation von urbanen Satellitenbildern angewendet wird. Diese Argumentation ist in eine Ontologie städtischer Objekte integriert, die in Zusammenarbeit mit erfahrenen Geographen umgesetzt wurde. Die räumlichen Konzepte umfassen hauptsächlich den Satz topologischer Relationen der Region Connection Calculus-Theorie (RCC8) und den Satz von Computational Primitives (CM8), die für die Berechnung der RCC8-Relationen auf Rasterbildern definiert wurden. Unser Ansatz beruht auf einer verdinglichten Darstellung der RCC8-Beziehung und der CM8-Primitive innerhalb eines Konzeptgitters, implementiert in OWL (Ontology Web Language). Es bietet eine einfache Darstellung von Konzepten, die Konjunktionen oder Disjunktionen räumlicher Beziehungen entsprechen, und bietet somit den Vorteil, einige Nachteile der bestehenden Ansätze in OWL zu überwinden, bei denen räumliche Beziehungen als Rollen dargestellt werden. Tatsächlich erlaubt die OWL-Sprache nicht den Ausdruck der Rollentrennung. Wir können dann eine Argumentation für die RCC8-Beziehung implementieren, die insbesondere die Berechnung der Kompositionstabelle und ihrer transitiven Schließung ermöglicht. Da die Verdinglichung von Rollen die Verwendung von Rolleneigenschaften wie Symmetrie und Transitivität ausschließt, schlagen wir vor, RCC8-Inferenzen durch SWRL-Regeln (Semantic Web Rule Language) zu implementieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46549-3_12 68746dc2861b45b5b3adad6963c907e0;de;;;2.1.;;;Ontologiebasiertes integriertes Monitoring von Hadoop-Clustern in industriellen Umgebungen mit OPC UA und RESTful Web Services Moderne Industrie- und Produktionssysteme produzieren riesige Datenmengen in verschiedenen Modellen, die für die Prozessüberwachung, vorausschauende Wartung der Maschinen, historische Analysen und Statistiken und mehr verwendet werden. Apache Hadoop bietet eine kostengünstige Möglichkeit für Big Data-Analysen, einschließlich der in verschiedenen Branchen generierten Daten. Die Integration von Hadoop in industrielle Umgebungen schafft neue Möglichkeiten, aber auch viele Herausforderungen. Die Autoren dieses Artikels sind an kommerziellen und wissenschaftlichen Projekten beteiligt, die Hadoop für die Industrie als Predictive Analytics-Plattform nutzen. Bei solchen Initiativen ist die fehlende Standardisierung der Überwachung des industriellen Prozesses in Bezug auf die Hadoop-Cluster-Nutzung besonders verwirrend. In diesem Papier schlagen die Autoren die Methodik zur Überwachung von Hadoop in industriellen Umgebungen vor, die auf einer dedizierten Ontologie und weit verbreiteten Standards basiert: OPC Unified Architecture und RESTful Web Services.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19419-6_15 848ab8d6fd85e91c2e665fd9f50a00e0;de;;;2.1.;;;Zur Formalisierung von ontologischen Beschreibungen von Dienstschnittstellen in Dienstsystemen unter Verwendung von CL Mit dem Aufkommen semantischer Technologien bewegt sich das Internet vom Web 2.0 zum Web 3.0. Soziale Netzwerke, Semantic Web, Blogs usw. sind alle Komponenten von Web 3.0. In diesem Papier beabsichtigen wir, die Beschreibung der vorgeschlagenen Dienstsysteme formal darzustellen, indem wir die Einschränkungen und Fähigkeiten des Systems in der standardbasierten Sprache Common Logic ausdrücken. Wir übersetzen und repräsentieren die WSML-Ontologie, Web-Services, Relationen, Axiome und andere Entitätsmetadatenbeschreibungen des Systems in ISO Common Logic. Auch die zeitlichen Beschränkungen des diskutierten Systems werden unter Verwendung von Dienstrichtlinien dargestellt. Die erweiterten Dienstrichtlinien (WS-Policy Language) werden diskutiert, um die zeitlichen Beschränkungen des Systems darzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22555-0_17 723868b46db29cb3d80810dcc26a0672;de;;;2.1.;;;„Nicht verstanden“ verstehen: Hin zu einer Ontologie von Fehlerbedingungen für die Agentenkommunikation Dieses Papier stellt das Konzept eines Agenteninteraktionsmodells vor, aus dem Fehlerbedingungen für die Agentenkommunikation definiert werden können – Fälle, in denen ein Agent ein;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44886-1_29 f0d9d5a5938787a7c4d2b96702975666;de;;;2.1.;;;Zufällige Störungen von Term-gewichteten Gen-Ontologie-Annotationen zur Entdeckung unbekannter Gen-Funktionalitäten Computergestützte Analysen zur biomedizinischen Wissensentdeckung profitieren stark von der Verfügbarkeit der Beschreibung von Gen- und Proteinfunktionsmerkmalen, die durch kontrollierte Terminologien und Ontologien ausgedrückt werden, d. h. ihre kontrollierten Annotationen. In den letzten Jahren sind mehrere Datenbanken mit solchen Annotationen verfügbar geworden, doch diese Annotationen sind unvollständig und nur einige von ihnen stellen hochzuverlässige, von Menschen kuratierte Informationen dar. Um unbekannte oder fehlende Annotationen vorherzusagen und zu entdecken, verwenden bestehende Ansätze unüberwachte Lernalgorithmen. Wir schlagen eine neue Lernmethode vor, die es ermöglicht, überwachte Algorithmen auf unüberwachte Probleme anzuwenden und so viel bessere Annotationsvorhersagen zu erzielen. Diese Methode, die wir auch aus unserer vorangegangenen Arbeit mit Datengewichtungstechniken erweitern, basiert auf der Erzeugung von künstlich gekennzeichneten Trainingssätzen durch zufällige Störungen von Originaldaten. Wir haben es an neun Gene Ontology-Annotationsdatensätzen getestet. Die erhaltenen Ergebnisse zeigen, dass unser Ansatz eine gute Wirksamkeit bei der neuartigen Annotationsvorhersage erzielt und die neuesten unbeaufsichtigten Methoden übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25840-9_12 cd9be27e81fdb117c0f4a789d53f7acc;de;;;2.1.;;;Onto-SPELTRA: Ein auf Ontologien und agglomerativem Clustering basierender Roboterassistent zur Unterstützung der Sprachtherapie für Kinder mit Behinderungen Laut dem Internationalen Kinderhilfswerk der Vereinten Nationen (UNICEF) fehlen heute in mehreren Entwicklungsländern grundlegende Dienste für Kinder mit Behinderungen in wichtigen Bereichen wie Logopädie, Physiotherapie und Gebärdensprachunterricht. Ebenso weist UNICEF darauf hin, dass in Ländern mit niedrigem Einkommen nur zwischen 5 und 15 % der Kinder und Erwachsenen, die assistierende Technologien benötigen, Zugang zu diesen haben. In diesem Sinne stellen wir in diesem Beitrag ein System vor, das Sprachtherapeuten drei Hauptfunktionalitäten bietet: ein Entscheidungsunterstützungssystem zur Planung von Therapiesitzungen (Ontologien), einen Roboterassistenten, um Kinder mit Behinderungen zu motivieren, in therapeutischen Aktivitäten zu arbeiten, und a Modul zur automatischen Bildung von Patientengruppen mit ähnlichen Profilen und Bedürfnissen (agglomeratives Clustering). Um unseren Vorschlag zu validieren, haben wir mit zwei Gruppen zusammengearbeitet: einer ersten, bestehend aus 111 Jugendlichen, um das Aussehen und den Funktionen des Roboters zu überprüfen, und einer zweiten Gruppe von 70 Kindern mit Kommunikationsstörungen und Behinderungen, um ihre Reaktion auf Therapien durch Roboter zu bestimmen. Auf die gleiche Weise haben wir die Profile der Kinder verwendet, um die Ontologie zu füllen und das Entscheidungsunterstützungsmodul basierend auf Clustering zu füttern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-66562-7_25 325f8728f9ca14e781451d76e43e54a7;de;;;2.1.;;;Verwenden eines Reputations-Frameworks zur Identifizierung von Community-Leadern im Ontologie-Engineering Ontologie-Engineering-Methoden schreiben oft Rollen und Verantwortlichkeiten vor. Ein Problem besteht darin, herauszufinden, wer welche Rolle in einem Ontologie-Engineering-Projekt spielen wird. Wir präsentieren einen generischen Reputationsrahmen zur Identifizierung von Führungskräften in einer Gemeinschaft von Stakeholdern. Reputationsbewertungen basieren auf der Analyse der Interaktionen der Benutzer untereinander und einer kollaborativen Ontologie-Engineering-Plattform. Das Framework wurde in einem Experiment mit 36 ​​Benutzern angewendet, das 8 Wochen dauerte. Wir haben die Ergebnisse mit den von den Teilnehmern über eine Umfrage identifizierten Führungskräften verglichen und eine wichtige Überschneidung festgestellt. Unsere Ergebnisse zeigen somit, dass es möglich ist, Führungskräfte in einem Ontologie-Engineering-Projekt basierend auf Reputation zu identifizieren, denen dann zusätzliche Verantwortlichkeiten zugewiesen werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41030-7_49 d30fc9e52b0ac126d60409e7186505ac;de;;;2.1.;;;Ontologische Darstellung von Netzwerken für IDS in Cyber-Physical Systems Cyber-Physical System (CPSs) kombinieren Informations- und Kommunikationstechnologien und bedeutet die Kontrolle von physischen Objekten. Moderne Infrastrukturobjekte wie Stromnetze, Smart Cities usw. stellen komplexe CPS dar, die aus mehreren miteinander verbundenen Software- und Hardwarekomplexen bestehen. Die darin enthaltene Software erfordert Entwicklung, Support und kann im Falle von Updates das Ziel böswilliger Angriffe sein. Um das Eindringen von Cyber-Physical-Objekten in Netzwerke zu verhindern, kann ein Intrusion-Detection-System (IDS) verwendet werden, das in bestehenden nicht-cyber-physischen Netzwerken weit verbreitet ist. CPSs zeichnen sich durch Formalisierung und Determiniertheit aus und ermöglichen die Anwendung eines spezifikationsbasierten Ansatzes für die IDS-Entwicklung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-26123-2_40 90ffd76d9c4722f8233f5f90ebf67d68;de;;;2.1.;;;Ontologie in der holonischen kooperativen Fertigung: Eine Lösung zum Teilen und Austauschen von Wissen Kooperative Fertigung ist ein neuer Trend in der Industrie, der auf die Existenz eines kollaborativen Roboters angewiesen ist. Ein kollaborativer Roboter ist normalerweise ein leichter Roboter, der in der Lage ist, sicher mit einem menschlichen Kollegen in einer gemeinsamen Arbeitsumgebung zu arbeiten. Während dieser Kooperation werden zwischen dem kollaborierenden Roboter und dem Werker zahlreiche Informationen ausgetauscht. Diese Informationen bilden das kooperative Fertigungswissen, das die Produktionskomponenten und die Umgebung beschreibt. In dieser Forschung schlagen wir eine holonische Kontrolllösung vor, die das Ontologiekonzept verwendet, um das kooperative Fertigungswissen darzustellen. Die holonische Steuerungslösung ist als autonomes Multi-Agenten-System implementiert, das das Fertigungswissen basierend auf einem Ontologiemodell austauscht. Letztendlich veranschaulicht und implementiert die Forschung die vorgeschlagene Lösung in einem kooperativen Montageszenario, bei dem zwei Arbeiter und ein kollaborativer Roboter zusammenarbeiten, um ein kundenspezifisches Produkt zu montieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-15640-4_11 2262877d5338df6a9fa45f9b203b1fe6;de;;;2.1.;;;Ein ontologiebasierter Ansatz für Statistiken zu Benutzerpräferenzen Die rasante Entwicklung des Internet-Finanzwesens ist wohl einer der bedeutendsten Durchbrüche im Finanzbereich. Automatisierte Finanzstatistiken haben nach und nach die traditionellen manuellen statistischen Methoden abgelöst und bieten eine zuverlässige Datengrundlage für die Wirtschaftsplanung. Daher hängt die Qualität einer Geschäftsaktivität stark von der Genauigkeit der Analyse der Benutzerpräferenzen ab und empfiehlt den Benutzern bewertete Produkte. Herkömmliche artikelbasierte kollaborative Filterverfahren spielen eine dominierende Rolle bei der Analyse der Benutzerpräferenzen und der Empfehlung der Artikel für Benutzer. Diese Methode verwendet hauptsächlich die vollständigen Bewertungsdaten, um vorherzusagen, ob der Benutzer das Zielelement mag. In vielen Fällen sind die verfügbaren Benutzerbewertungsdaten jedoch spärlich, was die traditionelle artikelbasierte kollaborative Filtermethode ineffizient und unanwendbar macht. Um dieses Problem anzugehen, schlägt dieses Papier ein ontologiebasiertes statistisches Modell der Benutzerpräferenz (ontologiebasiertes UPS) vor, bei dem die Konzept- und Attributmerkmale aus der Finanzontologie für semantische Ähnlichkeitsberechnungen extrahiert werden Verbessern Sie die Genauigkeit des ähnlichen Elementsatzes für das Zielelement. Die Forschungsergebnisse zeigen, dass unser Ansatz die traditionelle kollaborative Filtermethode übertraf.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3250-4_42 fa0610b8e4bb8fec8c3f939f408e40b9;de;;;2.1.;;;Ontologiegesteuerte Informationsextraktion aus Tabellen mit Konnektivitätsanalyse Tabelle ist einer der am häufigsten verwendeten Mechanismen zur Darstellung strukturierter Informationen im Web. Eine Tabelle enthält Informationen zu einer Reihe verwandter Konzepte in einer Domäne. Eine Spalte stellt normalerweise ein Konzept oder ein Attribut eines Konzepts dar, das die Spaltenüberschrift identifiziert. Eine Zeile enthält entsprechende Instanzen und Attributwerte. Spaltenüberschriften sind jedoch normalerweise ziemlich verrauscht und manchmal fehlen sie sogar. Während ein menschlicher Leser die erforderlichen Domänenzuordnungen relativ einfach mithilfe von Domänenwissen und dem umgebenden Kontext herausfinden kann, stellt ihre algorithmische Entdeckung eine Herausforderung dar. In diesem Beitrag stellen wir einen Algorithmus vor, der die Idee nutzt, dass eine Tabelle nur Informationen über verbundene Entitäten einer Domänenontologie darstellt. Der Algorithmus arbeitet in zwei Phasen. In der ersten Phase werden lokale Optimierungskriterien wie lexikalischer Abgleich, Instanzabgleich usw. verwendet, um einen anfänglichen Satz von Zuordnungen zu finden. In der zweiten Phase nimmt es diese Abbildungen und konstruiert alle möglichen zusammenhängenden Teilgraphen der Ontologie, die aus diesen Abbildungen gebildet werden können. Der größte dieser Teilgraphen mit dem höchsten lokalen Mapping-Score wird dann als die zugrunde liegende Domänenzuordnung der Tabelle ausgewählt. Wir präsentieren experimentelle Ergebnisse, die die Effektivität des Algorithmus demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41030-7_47 514ed560da174ec3a086587b1de1a7fa;de;;;2.1.;;;Beweis für die Existenz von Universalien – und die Ontologie von Roman Ingarden Der Aufsatz endet mit einem Argument, das sagt: Wenn es endlich räumlich ausgedehnte Einzelheiten gibt, dann gibt es monadische Universalien. Um die Unterscheidung zwischen Partikularien und Universalien zu charakterisieren, werden zuvor Roman Ingardens Begriffe von „existentiellen Momenten“ und „Modi (Wegen) des Seins“ vorgestellt und ein neues Paar solcher existenziellen Momente eingeführt: Multiplizität – Monadizität. Es wird auch argumentiert, dass es nicht nur reale Universalien gibt, sondern auch Fälle von Universalien (Tropen) und fiktive Universalien.;-;-;-;https://link.springer.com/article/10.1007/s12133-008-0040-0 28b8f85f4df7e903731377d1ff0216f3;de;;;2.1.;;;Eine ontologische Analyse einer vorgeschlagenen Theorie für die Softwareentwicklung In der Software-Engineering-Gemeinschaft wächst die Erkenntnis, dass eine Theorie der Softwareentwicklung erforderlich ist, um die unzähligen derzeit populären Methoden zu integrieren, von denen einige auf gegensätzlichen Perspektiven basieren. Wir entwickeln eine solche Theorie seit einigen Jahren. In diesem Beitrag geben wir einen Überblick über unsere Theorie und berichten über eine aktuelle ontologische Analyse der Theoriekonstrukte. Wir schlagen vor, dass diese Theorie oder eine ihr ähnliche Theorie, sobald sie vollständig entwickelt ist, zur Unterstützung der situierten Softwareentwicklung angewendet werden kann, indem ein übergreifendes Modell bereitgestellt wird, innerhalb dessen Softwareinitiativen kategorisiert und verstanden werden können. Ein solches Verständnis würde unweigerlich zu einer größeren Vorhersehbarkeit der Ergebnisse führen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30142-6_9 5b6d8b6c16b9471431076138150b16d3;de;;;2.1.;;;Präferenzbasierte Abfragebeantwortung in probabilistischen Datalog+/- Ontologien Die Integration von Präferenzen in Informationssysteme wie Datenbanken hat in letzter Zeit ein starkes Interesse erfahren, das hauptsächlich durch die Revolution bei der Verfügbarkeit von Web-Daten angeheizt wurde. Auch die Modellierung der Präferenzen eines Nutzers im Web ist seit der Popularität von Social Media für viele Unternehmen immer attraktiver geworden. Ein weiterer Anstieg des Interesses ist die Modellierung von Unsicherheit in diesen Bereichen, da Unsicherheit aufgrund vieler unkontrollierbarer Faktoren entstehen kann. In diesem Beitrag schlagen wir eine Erweiterung der Datalog+/- Familie von Ontologiesprachen mit zwei Modellen vor: eines repräsentiert Benutzerpräferenzen und eines repräsentiert die (probabilistische) Unsicherheit, mit der Schlussfolgerungen gezogen werden. Unter der Annahme, dass wahrscheinlichere Antworten im Allgemeinen vorzuziehen sind, wirft dies die Frage auf, wie Antworten auf die Fragen eines Benutzers einzuordnen sind, da das Präferenzmodell in Konflikt mit den durch das probabilistische Modell induzierten Präferenzen stehen kann – es ergibt sich daher die Notwendigkeit für Präferenzkombinationsoperatoren. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Wir schlagen zwei spezifische Operatoren vor und untersuchen ihre Eigenschaften in Bezug auf Verhalten und Laufzeit. Schließlich stellen wir einen Algorithmus zum Ranking von Antworten basierend auf der Iteration der bekannten Skyline-Antworten auf eine Abfrage bereit und zeigen, dass er unter bestimmten Bedingungen in der Datenkomplexität in polynomieller Zeit abläuft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41030-7_36 25674a156c77ca3f6906747bc4462f08;de;;;2.1.;;;SE-DiagEnf: Ein ontologiebasiertes Expertensystem zur Diagnose von Rinderkrankheiten Die Viehzucht ist in vielen Ländern der Welt ein wichtiger Entwicklungssektor. Eines der Hauptprobleme in diesem Sektor betrifft Rinderkrankheiten, die zu geringer Produktivität führen. Eine schnelle Diagnose der Krankheit ist besonders wichtig für ihre Vorbeugung, Kontrolle und Behandlung. Die Hauptakteure der Rinderzuchtindustrie sind jedoch in hohem Maße von Tierärzten abhängig, um dieses Problem zu bewältigen. Leider ist die Zahl der Tierärzte in einigen Städten sehr begrenzt oder sie wohnen weit weg vom Hof. In diesem Sinne ist es notwendig, den Landwirten Werkzeuge zur Verfügung zu stellen, die ihnen helfen, die Rinderkrankheiten richtig zu diagnostizieren. Heutzutage gibt es Technologien, die helfen können, dieses Problem zu lösen. Einerseits sind Expertensysteme ein aktives Forschungsgebiet zur medizinischen Diagnose und Therapieempfehlung. Andererseits können Ontologien verwendet werden, um den Bereich der Diagnose von Rinderkrankheiten zu modellieren und die Wissensbasis zu generieren, die das Expertensystem benötigt, um seine entsprechenden Aufgaben zu erfüllen. In dieser Arbeit stellen wir SE-DiagEnf vor, ein ontologiebasiertes Expertensystem, das Rinderkrankheiten anhand einer Reihe von Symptomen diagnostiziert und Empfehlungen zur Bekämpfung der diagnostizierten Krankheit gibt. Das Hauptziel dieses Systems besteht darin, die Abhängigkeit der Landwirte von Tierärzten zu verringern, um die Diagnose und Behandlung von Rinderkrankheiten zu bewältigen. SE-DiagEnf wurde von Landwirten aus Ecuador evaluiert. Bei dieser Auswertung mussten die Landwirte eine Reihe von Symptomen angeben, damit das System die Rinderkrankheit diagnostizieren kann. Die Auswertungsergebnisse erscheinen auf Basis der F-Maß-Metrik vielversprechend.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00940-3_6 35cd333bad21bf22efe341389c4f1253;de;;;2.1.;;;Ontologischer Rahmen für die Approximation Wir diskutieren einen ontologischen Rahmen für die Approximation, d. h. für die Approximation von Konzepten und vagen Abhängigkeiten, die in einer gegebenen Ontologie spezifiziert sind. Der vorgestellte Ansatz basiert auf unterschiedlichen Informationsgranula-Kalkülen. Wir skizzieren den grob-unscharfen Ansatz zur Annäherung von Konzepten und vagen Abhängigkeiten.;-;-;-;https://link.springer.com/chapter/10.1007/11548669_74 ba6df8976fbd6235f73a1e62aa7d87c2;de;;;2.1.;;;Topologische Struktur für die Gebäudeontologie von Energieinformationsmethoden-Schaltungen Die Methode zur Konstruktion des Wissensraums wird betrachtet. Dies ermöglichte eine Strukturierung von Daten und Wissen über die Gegenstände des Designs. Es ist notwendig, für alle Analoga nicht nur ähnliche, sondern eine einheitliche Beschreibung zu haben, die gleichermaßen das Wesen der verschiedenen Prozesse widerspiegelt, um die verschiedenen physikalischen Prozesse zu analysieren. Erhaltene physikalische und technische Effekte der Ontologie, die es ermöglichen, das Problem der Synthese technischer Systeme mit Hilfe von Energie-Informations-Methodenschaltungen zu lösen. Es wurde vorgeschlagen, in dieser Arbeit die Vorrichtung der Allgemeinen Topologie zur Strukturierung der Ontologie von Energieinformationsverfahrensschaltungen zu verwenden. Dieser Ansatz ermöglicht es, die Existenz einer formalisierten Lösung des Problems der Synthese von Energieinformationsverfahrensschaltungen zu beweisen. Die informelle Darstellung des topologischen Raums als Pseudozellkomplex ermöglicht es uns, physikalische Unterschiede innerhalb und zwischen den Ketten als unbedeutend zu betrachten und die Klasse der Probleme zu unterscheiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11854-3_17 fb90b4213afd5fddd7168567ecf6e2d0;de;;;2.1.;;;Personalisierte Navigation im offenen Informationsraum, repräsentiert durch Ontology In diesem Beitrag beschäftigen wir uns mit der personalisierten Navigation in einem offenen Informationsraum, um eine effektive Orientierung bei der zunehmenden Informationsmenge zu unterstützen, die über das Web zugänglich ist. Wir präsentieren eine Methode zur personalisierten Navigation basierend auf der sozialen Navigation, bei der der Informationsraum durch eine Ontologie repräsentiert wird. Wir diskutieren mögliche Beiträge der Ontologie-Repräsentation für die Navigation in offenen Informationsräumen und für die navigatorische Fähigkeit, mit häufigen Änderungen der Informationsinhalte umzugehen.;-;-;-;https://link.springer.com/chapter/10.1007/11768012_37 1235357af45d8c18b2e197b1f1645a9a;de;;;2.1.;;;Ein Expertensystem zur Überwachung der Wasserqualität basierend auf Ontologie Als geeignete Grundlage für die Integration von Big-Data-Anwendungen haben sich semantische Technologien erwiesen. Drahtlose Sensornetzwerke (WSNs) stellen eine gemeinsame Domäne dar, deren Wissensbasen natürlich durch Ontologien modelliert werden. In unseren früheren Arbeiten haben wir eine Domänenontologie von WSN für die Überwachung der Wasserqualität erstellt. Die SSN-Ontologie wurde erweitert, um die Anforderungen für die Einstufung von Wasserkörpern in entsprechende Status auf Grundlage verschiedener Regulierungsbehörden zu erfüllen. In diesem Beitrag erweitern wir diese Ontologie um ein Modul zur Identifizierung möglicher Verschmutzungsquellen. Um aus den Wissensbasen neues implizites Wissen abzuleiten, wurden verschiedene Regelsysteme von modernen WSN-Systemen über Ontologien gelegt. Ein Produktionsregelsystem wurde entwickelt, um zu demonstrieren, wie unsere Ontologie verwendet werden kann, um eine Überwachung der Wasserqualität zu ermöglichen. Das Papier präsentiert ein Beispiel für die Systemvalidierung mit simulierten Daten, wurde jedoch für den Einsatz im InWaterSense-Projekt mit realen Daten entwickelt. Es zeigt, wie Beobachtungen des biochemischen Sauerstoffbedarfs basierend auf dem Regulierungsstandard der Wasserrahmenrichtlinie klassifiziert werden und ihre möglichen Verschmutzungsquellen angeben. Die Systemmerkmale und Herausforderungen werden diskutiert, indem auch mögliche Richtungen der Entwicklung von Semantic Web-Regelschichten für die Argumentation mit Stromdaten vorgeschlagen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24129-6_8 8a90fa248d6c33f3d31c0709899042b0;de;;;2.1.;;;Ein ontologiebasiertes System zur Erstellung mathematischer Testarbeiten Die automatische Testpapiererstellung ist beim Lehren und Lernen sehr hilfreich. Um eine Testarbeit zu erstellen, die möglichst viele Wissenspunkte abdeckt, ist es erforderlich, Wissenspunkte aus Prüfungsfragen zu entdecken. Das Problem des automatischen Auffindens von Wissenspunkten wird jedoch in bestehenden Arbeiten selten untersucht. Um diese Lücke zu schließen, schlägt dieser Beitrag eine ontologiebasierte Methode vor, um Wissenspunkte aus mathematischen Prüfungsfragen zu entdecken. Dementsprechend wird auch ein System zum automatischen Erstellen von mathematischen Testarbeiten vorgeschlagen. Es erstellt ein Testpapier, indem es ein pseudo-boolesches Optimierungsproblem löst. Seine Praktikabilität wird durch die Aufgabe demonstriert, mathematische Testarbeiten aus Hunderten von Postgraduierten-Aufnahmeprüfungsfragen zu erstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45495-4_21 22b3d660b040b2bf3a1319a81130ccfd;de;;;2.1.;;;Ein ontologiebasiertes Erdbebenempfehlungssystem Geografischen Statistiken zufolge sind 54 % des Landes in Indien erdbebengefährdet, und mehrere bevölkerungsreiche Regionen fallen in Bezug auf die Seismizität in die Zonen 4 oder 5. Es wird davon ausgegangen, dass ein umfassendes Erdbeben-Empfehlungssystem die Zahl der Rettungsdienste, die im Katastrophenfall eingesetzt werden, deutlich reduzieren und auch die Zahl der Opfer effektiv minimieren wird. Es sind verschiedene Techniken verwendet worden, um nacheinander ein solches Empfehlungssystem zu schaffen, das eine Effizienz bei der Verwaltung der Bereitstellung von Notdiensten bietet. Das Papier konzentriert sich auf die Bestimmung der unmittelbaren Vorgehensweise, die in Notfällen wie Erdbeben ergriffen werden sollte, um die Schäden an Leben und Eigentum unter Verwendung von Ontologie-unterstütztem regelbasiertem und fallbasiertem Denken zu mindern, dh die Maßnahmen werden anhand ähnlicher Fälle aus der Vergangenheit bestimmt , falls vorhanden, und durch bestehende Regeln und Erfahrungen validiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3140-4_30 73c7f280c6c08345c8298ff106880916;de;;;2.1.;;;Interaktives Entdecken interessanter Co-Location-Muster mit Ontologien Das Co-Location-Pattern-Mining, das Feature-Typen entdeckt, die häufig in einer nahegelegenen geografischen Region vorkommen, spielt eine wichtige Rolle beim Spatial Data Mining. Gemeinsame Frameworks für Mining-Co-Location-Muster erzeugen zahlreiche redundante Muster. Daher wurden mehrere Verfahren vorgeschlagen, um diesen Nachteil zu überwinden. Die meisten dieser Methoden garantierten jedoch nicht, dass die extrahierten Co-Location-Muster interessant waren, um allgemein auf statistischen Informationen zu basieren. Daher ist es entscheidend, dem Entscheidungsträger mit einem effizienten interaktiven Verfahren bei der Auswahl interessanter Co-Location-Muster zu helfen. Dieses Papier schlug einen interaktiven Ansatz vor, um interessante Co-Location-Muster zu entdecken. Zunächst wurden Ontologien verwendet, um die Integration von Benutzerwissen zu verbessern. Zweitens wurde ein interaktiver Prozess entwickelt, um mit dem Benutzer zusammenzuarbeiten, um effizient interessante Co-Location-Muster zu finden. Schließlich wurde ein Filter entwickelt, um die Anzahl der entdeckten Co-Location-Muster im Resultset weiter zu reduzieren. Die experimentellen Ergebnisse sowohl an synthetischen als auch an realen Datensätzen zeigten die Wirksamkeit unseres Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-55705-2_6 ce069930469bc86c5aeafdb9fc1def3f;de;;;2.1.;;;Formalisierung von Prozessbewertung und Fähigkeitsbestimmung: Ein ontologischer Ansatz Die Bestimmung, inwieweit ein Softwareentwicklungsprozess seinen Zweck erfüllt, ist ein wichtiges Anliegen im Software-Engineering. Während der Softwareprozess die Maßnahmen vorschreibt, sollten sich Softwareentwickler verpflichten, qualitativ hochwertige Softwareprodukte innerhalb des Budgets und des Zeitrahmens zu produzieren, andererseits dient die Prozessbewertung dazu, die Leistung und Fähigkeit des durchgeführten Softwareprozesses zu bewerten, um die Geschäftsziele zu erreichen. Prozessbewertungsmodelle wie ISO/IEC 15504-5 stützen sich auf konventionelle Methoden der Beweiserhebung, um Prozessattribute zu bewerten und das Fähigkeitsniveau des bewerteten Prozesses zu bestimmen. Herkömmliche Verfahren sind jedoch subjektiv, zeitaufwendig und fehleranfällig. In früheren Arbeiten haben wir einen Formalisierungsansatz für die Prozessdimension des Prozessbewertungsmodells (PAM) entwickelt. Im aktuellen Paper erweitern wir unseren Formalisierungsansatz auf die Prozessfähigkeitsdimension von PAM unter Verwendung eines semantisch berechenbaren Formalismus, um eine automatisierte Prozessattributbewertung und Fähigkeitsbestimmung zu ermöglichen. Wir demonstrieren und bewerten die Funktionalität unseres Ansatzes mit dem Fähigkeitslevel 2 für den Software Requirements Analysis (SRA) Prozess.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-28005-5_46 e0bb4744fa0e894c1c8cedcf09194a1f;de;;;2.1.;;;Eine Softwareanwendung mit Ontologie-basierter Argumentation für die Agroforstwirtschaft Agroforstwirtschaft besteht darin, Bäume mit der Landwirtschaft zu verbinden, sowohl auf Bauernhöfen als auch in der Agrarlandschaft. Im Rahmen einer nachhaltigen Entwicklung kann die Agroforstwirtschaft den Bodenschutz verbessern und den Einsatz giftiger Chemikalien bei Pflanzen reduzieren sowie die Biodiversität verbessern. Von Natur aus interdisziplinär mobilisiert der Bereich Agroforst mit systemischen Ansätzen ein großes Wissen aus den Umwelt- und Lebenswissenschaften. In diesem Rahmen werden Feldbeobachtungsdaten in Zusammenarbeit mit mehreren Kategorien von Interessengruppen wie Wissenschaftlern, Förstern, Landwirten, Züchtern, Politikern und Landbewirtschaftern erhoben. Für die Effizienz des Datenmanagements schlagen wir die Softwareanwendung AOBRA (eine Softwareanwendung mit Ontologie-basiertem Denken für die Agroforstwirtschaft) vor. Der Kern von AOBRA ist eine Domänenontologie namens „Agroforestry“, die als Grundlage für die Kapitalisierung und den Austausch von Wissen in der Agroforstwirtschaft dient. Durch die Nutzung der Möglichkeiten der Inferenz und der Verknüpfungen mit anderen Fachgebieten im Web, die durch die Verwendung eines Ontologiemodells geboten werden, soll ein breiter Überblick über die Gestaltung der Agroforstwirtschaft geboten und der Vergleich zwischen verschiedenen räumlichen Anordnungen von Bäumen und Nutzpflanzen ermöglicht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71903-6_27 80ee3aac3af8879bf446a0caaecd21e4;de;;;2.1.;;;Modifizierte Wissensinferenzmethode basierend auf Fuzzy-Ontologie und Fallbasis Der Artikel präsentiert ein formales ontologisches Modell des Regelsatzes und des Inferenzalgorithmus basierend auf der Analyse des Zustands eines komplexen technischen Systems (Local Area Network). Außerdem präsentiert dieser Beitrag die Ergebnisse der Integration von Regeln mit Fuzzy-Ontologie zur Bewertung des Zustands eines lokalen Computernetzwerks im Prozess der künstlichen Zunahme des Datenverkehrs. Darüber hinaus wird die Möglichkeit einer Modifikation dieses Algorithmus durch einen parallelen Start des Mechanismus zur Fallanalyse im Prozess der Wissensinferenz erwogen. Abschließend werden Experimente mit dem Fuzzy OWL-Prototyp der angewandten Ontologie und der Pellet-Inferenz-Engine vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29750-3_8 368f6893bb127192a6c6484be97d0ecc;de;;;2.1.;;;Eine Domänenontologie für Aufgabenanweisungen Wissensgraphen und Ontologien repräsentieren Informationen in einer Vielzahl unterschiedlicher Anwendungen. Ein Anwendungsfall, Intelligence, Surveillance, & Reconnaissance: Multi-Attribute Task Battery (ISR-MATB), stammt aus der Kognitionswissenschaft, wo Forscher interdisziplinäre Methoden anwenden, um den Geist und die Kognition zu verstehen. Die ISR-MATB ist eine Reihe von Aufgaben, die ein kognitiver oder menschlicher Agent ausführt und die visuelle, auditive und Gedächtnisfähigkeiten testen. Eine Ontologie kann das Hintergrundwissen eines kognitiven Agenten über die Aufgabe darstellen, die ihm zugewiesen wurde, und als Austauschformat zwischen verschiedenen Aufgaben des kognitiven Agenten ähnlich wie ISR-MATB fungieren. Wir präsentieren mehrere modulare Muster zur Darstellung von ISR-MATB-Aufgabenanweisungen sowie ein einheitliches Diagramm, das sie miteinander verbindet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-65384-2_1 4eef6026ab315c95d62478f5da2c861e;de;;;2.1.;;;Integritätsbeschränkungsvalidierung in Mit der rasanten Entwicklung der Informationstechnologie weisen semantische Webdaten Merkmale von Massivität und Komplexität auf. Als datenzentrierte Wissenschaft hat Social Computing großen Einfluss auf das Sammeln und Analysieren semantischer Daten. In unserem Beitrag schlagen wir eine Integritätsbeschränkungsvalidierung vor für;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-2098-8_18 55fc306ce0e4285c9d58cadad8fea4ba;de;;;2.1.;;;Entity Linking als Populationsmechanismus für Skill-Ontologien: Evaluierung der Nutzung von ESCO und Wikidata Ontologien oder Datenbanken, die Berufe in Bezug auf Kompetenzen oder Fähigkeiten beschreiben, sind eine wichtige Ressource für eine Reihe von Anwendungen. Die Nutzung großer Wissensgraphen wird daher zu einer vielversprechenden Richtung, um diese Ontologien mit Entitäten der letzteren zu aktualisieren, die schneller aktualisiert werden können, insbesondere im Fall von Crowdsourcing-Ressourcen. Hier berichten wir über eine erste Einschätzung des Potenzials dieser Strategie zum Abgleich von Wissenselementen in ESCO mit Wikidata unter Verwendung von NER- und Dokumentähnlichkeitsmodellen, die in den Spacy NLP-Bibliotheken verfügbar sind. Die Ergebnisse zeigen, dass der Ansatz effektiv sein kann, aber die Verwendung von vortrainierten Sprachmodellen und den Kurztexten, die Entitäten (Bezeichnungen und Beschreibungen) beigefügt sind, führt nicht zu einer ausreichenden Qualität für einen vollständig automatisierten Prozess.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71903-6_12 47069ecb7e1325c95318cabeea063cd5;de;;;2.1.;;;Komplexität konservativer Erweiterungen und Untrennbarkeit in der Beschreibungslogik Die Notationen der konservativen Erweiterungen und der Untrennbarkeit werden als effektives Werkzeug zum Vergleichen, Zusammenführen und Modularisieren von Beschreibungslogikontologien vorgeschlagen. Es hat sich gezeigt, dass die Komplexität konservativer Erweiterungen für ausdrucksstarke Beschreibungslogiken wie;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45495-4_7 422f73dd9d33eed37d488164587473a6;de;;;2.1.;;;Semantische Anreicherung von OLAP-Cubes: Mehrdimensionale Ontologien und deren Darstellung in SQL und OWL Eine mehrdimensionale Ontologie (MDO) reichert einen OLAP-Cube mit Konzepten an, die Geschäftsbegriffe im Kontext der Datenanalyse darstellen. Die formale Darstellung der Bedeutung von Geschäftsbegriffen erleichtert die eindeutige Interpretation von Abfrageergebnissen sowie den Wissensaustausch zwischen Business-Analysten. Im Gegensatz zu traditionellen Ontologien erfasst ein MDO das mehrdimensionale, hierarchische Weltbild von Business-Analysten. In diesem Papier führen wir eine Übersetzung von MDO-Konzepten in SQL ein, um die Abfrage eines geschlossenen OLAP-Würfels zu ermöglichen. Wir führen eine Darstellung in OWL ein, um Subsumtionshierarchien von MDO-Konzepten mit handelsüblichen Reasonern zu bestimmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41030-7_46 574d18ce31fbebf78a6a5ba720685d70;de;;;2.1.;;;Datenschutz in sozialen Online-Netzwerken: Ein ontologisches Modell für die Selbstdarstellung Online Social Networks (OSNs) sind für mehr als eine halbe Milliarde Nutzer weltweit zu einem wichtigen Bestandteil der täglichen digitalen Interaktionen geworden. Unbeschränkt durch physische Räume bieten die OSNs Web-Benutzern neue interessante Möglichkeiten zur Kommunikation, Interaktion und Geselligkeit. Die OSNs weisen viele der Merkmale menschlicher Gesellschaften in Bezug auf die Bildung von Beziehungen auf und wie diese Beziehungen für die Offenlegung persönlicher Informationen verwendet werden. Den aktuellen OSNs fehlt jedoch ein wirksamer Mechanismus, um die sozialen Beziehungen der Benutzer darzustellen, was zu unerwünschten Folgen der Weitergabe personenbezogener Daten der Benutzer an unbeabsichtigte Zielgruppen führt. Wir schlagen ein ontologisches Modell vor, um verschiedene soziale Beziehungen darzustellen und die Selbstdarstellung von Social Web-Benutzern zu verwalten. Dieses Modell ist inspiriert von den einflussreichsten Gesellschaftstheorien über Selbstdarstellung und Bindungsstärke. Dieses Modell regelt die Offenlegung personenbezogener Daten auf der Grundlage der sozialen Rolle und der Beziehungsqualität zwischen den Benutzern. Wir präsentieren auch Ergebnisse unserer Benutzerstudie, die zeigen, dass die Beziehungsqualität eine wichtige Rolle bei der Kontrolle der Offenlegung personenbezogener Daten im sozialen Web spielt, und die Qualität der Beziehung zwischen Benutzern kann leicht aus den Interaktionsmustern der Benutzer in sozialen Online-Netzwerken abgeleitet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-45880-9_5 dc1b9bd944b3ea3da37651bf38a1b092;de;;;2.1.;;;Web-Kontextanalyse basierend auf generischer Ontologie Nun berücksichtigt das populäre Suchmaschinensystem die Kontextinformationen des Suchworts nicht, so dass die zurückgegebene Liste von Webseiten eine große Anzahl irrelevanter Webseiten enthält. Ein Wort kann seine wahre Semantik nur im Kontext widerspiegeln. In diesem Beitrag wurden erstmals die Konzepte „kontextuelles Wort“, „Webseiten-Parsing mit Kontextinformationen“ und „Kontextdarstellung“ vorgeschlagen. Basierend auf der allgemeinen Ontologie verwenden wir die Techniken der Wortsinn-Disambiguierung, um den Kontext des Wortes zu bestimmen, um das Webseiten-Parsing auf der Ebene der Wortsinn- und Satzsemantik entsprechend dem Hintergrund des Wortes in der Webseite zu realisieren. Zuerst transformieren wir die Webseite in einen DOM-Baum, führen das Web-Parsing in der traditionellen Methode durch, um das Rauschen in der Webseite zu entfernen, extrahieren den Hauptteil der Webseite und verwenden dann die Echtzeit-Suchtechnologie, um die zuletzt geänderte Datei zu erhalten -Zeit der Webseite. Zweitens führen wir die lexikalische Analyse des Hauptteils der Webseite durch. Basierend auf allgemeiner Ontologie und Techniken der Verarbeitung natürlicher Sprache markieren wir das Wort oder die Begriffe und erhalten die dem Kontext entsprechende Interpretation. Drittens verwenden wir die Named Entity Recognition Technology, um die Zeit- und Standortinformationen auf den Webseiten zu erhalten, dann organisieren wir die Informationen, die wir erhalten haben, in einer von uns vorgeschlagenen Struktur namens Web-Kontextdarstellung. Basierend auf der obigen theoretischen Grundlage implementiert der Autor einen vollständigen Satz kontextbezogener Analysetools für Webseiten – JLUCAS. Nach einer Vielzahl von Analysen von Vergleichsversuchen erzielt JLUCAS in jeder Hinsicht hervorragende Ergebnisse. Dies zeigt vollständig, dass die in diesem Papier vorgeschlagene Theorie und der Algorithmus das Problem des automatischen kontextbezogenen Parsings von Webseiten lösen können und eine gute Grundlage für die letztendliche Realisierung der kontextbezogenen Websuchmaschine bilden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-53932-9_4 ecc48270088a0209b4375fc13b1d0b41;de;;;2.1.;;;Ontologie-Lernen aus Interpretationen in leichtgewichtigen Beschreibungslogiken Die datengesteuerte Erhebung von Ontologien aus strukturierten Daten ist ein bekannter Engpass beim Wissenserwerb. Die Entwicklung effizienter Techniken zur (Halb-)Automatisierung dieser Aufgabe ist daher praktisch unerlässlich – allerdings behindert durch das Fehlen robuster theoretischer Grundlagen. In diesem Artikel untersuchen wir das Problem des Lernens von Description Logic TBoxes aus Interpretationen, was sich natürlich in die Aufgabe des Ontologielernens aus Daten übersetzt. Im vorgestellten Rahmen wird dem Lernenden eine Reihe positiver Interpretationen (d. h. logische Modelle) der vom Lehrer angenommenen TBox zur Verfügung gestellt. Das Ziel besteht darin, die TBox anhand dieser Eingabe korrekt zu identifizieren. Wir charakterisieren die wichtigsten Einschränkungen der Modelle, die eine endliche Erlernbarkeit von TBoxen garantieren, die in ausgewählten Fragmenten der Beschreibungslogik ausgedrückt werden;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-40566-7_6 7920a12c4e6db7307023d2bbb28c79d5;de;;;2.1.;;;Gene Ontology-basierte Funktionsvorhersage langer nicht-kodierender RNAs mittels Bi-Random-Walk Mit der Entwicklung der Sequenzierungstechnologie wurden immer mehr lange nicht-kodierende RNAs (lncRNAs) identifiziert. Für einige lncRNAs wurde bestätigt, dass sie durch den Dosiskompensationseffekt, epigenetische Regulation, Zelldifferenzierungsregulation und andere Aspekte eine wichtige Rolle im Entwicklungsprozess spielen. Die Mehrzahl der lncRNAs wurde jedoch nicht funktionell charakterisiert. Erforschen Sie die Funktion von lncRNAs und das regulatorische Netzwerk ist derzeit ein heißes Forschungsthema.;-;-;-;https://link.springer.com/article/10.1186/s12920-018-0414-2 77e39693af984a9a08a5b32c2da0681f;de;;;2.1.;;;Ontologie-Entwurfsmuster für die Metamodellierung In den letzten Jahrzehnten hat das Problem der Metamodellierung in den konzeptionellen Modellierungs- und Semantic-Web-Communities zunehmende Aufmerksamkeit erhalten. Wir haben eine Lösung für dieses Problem im Kontext der ontologischen Modellierung vorgeschlagen, die darin besteht, ein Fragment der Web Ontology Language OWL um einen Metamodellierungskonstruktor zu erweitern, um Instanzen mit Klassen gleichzusetzen. Obwohl es Methoden und Muster gibt, die dem Ontologieingenieur helfen, eine Domäne mithilfe von Ontologien zu konzipieren, fehlen solche Leitfäden für die Metamodellierungsansätze, die OWL erweitern. In dieser Arbeit stellen wir ein Entwurfsmuster vor, das bei der Konzeptualisierung von Domänen anleitet, für die Anforderungen auf unterschiedlichen Wissensniveaus, insbesondere für unterschiedliche Benutzerperspektiven, bestehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-21395-4_8 006fbd435c6669e04039d57f88bca5b2;de;;;2.1.;;;Analyse von Twitter-Daten von pflegenden Angehörigen von Alzheimer-Patienten basierend auf der Depressions-Ontologie In diesem Beitrag präsentieren wir einen ontologiebasierten Ansatz zur Analyse von Depressionen von pflegenden Angehörigen von Alzheimer-Patienten. Zuerst haben wir eine Depressions-Ontologie namens OntoDepression entwickelt, die die in sozialen Medien geschriebene Sprache berücksichtigt. Vier Hauptklassen und spezialisierte Unterklassen werden basierend auf dailyStrength definiert, einer bekannten Social-Media-Site, die sich auf das Gesundheitswesen konzentriert. Um die psychische Gesundheit von pflegenden Angehörigen von Alzheimer-Patienten zu ermitteln, werden deren Twitter-Daten basierend auf OntoDepression analysiert. Unsere experimentellen Ergebnisse zeigen, dass negative Gefühle von pflegenden Angehörigen nicht klar offenbart werden, während der medizinische Zustand des Depressionssymptoms hoch bewertet wird. Außerdem erwähnen ihre Tweets viel über menschliche Beziehungen, Arbeit und Aktivitäten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9341-9_6 b62c8358452547300fd4e28ef29cc6e2;de;;;2.1.;;;Lebensmittelempfehlung mit Ontologie und Heuristik Empfehlungssysteme werden benötigt, um Lebensmittel von Interesse zu finden. In diesem Artikel werden Empfehlungssysteme und Empfehlungsmethoden überprüft, dann ein Lebensmittelpersonalisierungs-Framework basierend auf adaptiven Hypermedien vorgeschlagen und das Hermes-Framework um Lebensmittelempfehlungsfunktionen erweitert. Darüber hinaus kombiniert es die TF-IDF-Termextraktionsmethode mit dem Kosinusähnlichkeitsmaß. Gesunde Heuristiken und eine Standard-Lebensmitteldatenbank sind in die Wissensdatenbank integriert. Basierend auf der durchgeführten Evaluierung kommen wir zu dem Schluss, dass semantische Empfehlungssysteme im Allgemeinen herkömmliche Empfehlungssysteme in Bezug auf Genauigkeit, Präzision und Wiedererkennungswert übertreffen und dass der vorgeschlagene Empfehlungsgeber ein besseres F-Maß hat als bestehende semantische Empfehlungssysteme.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35326-0_42 05ca78946a314ee0014bf53a13a62354;de;;;2.1.;;;Ontologie-basierter Ansatz und Implementierung des ADAS-Systems für die Nutzung mobiler Geräte während der Fahrt Viele Menschen fahren müde oder schläfrig und laut Experten erkennen viele Autofahrer nicht, dass sie sich in einem erschöpften Zustand befinden. Das Papier beschreibt einen ontologiebasierten Ansatz und einen Echtzeit-Prototyp eines Computer-Vision-Systems zur Überwachung gefährlicher Verhaltensmuster des Fahrers wie Ablenkung, Schläfrigkeit und verminderte Wachsamkeit. Unser Ansatz konzentriert sich auf weit verbreitete mobile Geräte wie Smartphones oder Tablets, die aus unserem täglichen Leben nicht mehr wegzudenken sind. Die Hauptkomponenten des Systems bestehen aus einer nach vorne gerichteten Kamera, einem auf dem Smartphone installierten Gyroskopsensor und verschiedenen Computer-Vision-Algorithmen zur gleichzeitigen, Echtzeit- und nicht-intrusiven Überwachung verschiedener visueller Bio-Verhalten, die typischerweise die Wachsamkeit eines Fahrers charakterisieren . Zu den visuellen Verhaltensweisen gehören Augenlidbewegungen (PERCLOS-Prozentsatz des Augenschlusses, Augenzwinkern), Gesichtsausrichtung (Gesichtshaltung) und Blickbewegung (Pupillenbewegung). Die beiden in der Arbeit vorgestellten ontologischen Modelle sind ein Fahrermodell und ein Fahrzeugmodell. Basierend auf diesen Modellen und den von Kameras und Sensoren verfügbaren Informationen wird der Kontext geschaffen, der es dem System ermöglicht, gefährliche Situationen mit dem an der Windschutzscheibe des Fahrzeugs angebrachten mobilen Gerät des Fahrers zu erkennen. Das System wurde in einer simulierten Umgebung mit Probanden unterschiedlichen ethnischen Hintergrunds, Geschlechts, Alters, mit/ohne Brille und unter verschiedenen Beleuchtungsbedingungen getestet und erwies sich als sehr robust, zuverlässig und genau.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24543-0_9 962b4e6e61681a66c15c68cdc8aaf485;de;;;2.1.;;;Multi-Viewpoint-Ontologien zur Entscheidungsunterstützung Beim Aufbau von Ontologien für Entscheidungsunterstützungssysteme ist häufig die Berücksichtigung mehrerer Standpunkte erforderlich. Der Begriff des subjektiven Kontexts ist für die Gestaltung solcher Systeme nützlich. Wir überprüfen die Entwicklung der Subjektivitätsdarstellung im Knowledge Engineering und wählen dann eine geeignete Kontextdefinition für unsere Anwendung. Dies ermöglicht es, die funktionalen Anforderungen an ein Multi-Viewpoint-Entscheidungsunterstützungssystem zu formulieren und die technische Art der Kontextdarstellung zu wählen. Als Antwort auf diese Anforderungen schlagen wir eine Methode der ontologischen Darstellung mehrerer Standpunkte unter Verwendung benannter Graphen vor. Entscheidungsunterstützung im sozioökonomischen Bereich ist eine besonders wertvolle Anwendung für Multi-Viewpoint-Ontologien. Wir betrachten einen Demonstrationsanwendungsfall, einschließlich der Softwareimplementierung. Die Inferenzregeln können in solchen Anwendungen verwendet werden, um Schlussfolgerungen innerhalb jedes bestimmten Kontexts zu ziehen oder Wissen zwischen ihnen zu übertragen. Wir präsentieren ein Set von Beispielregeln für unseren Demonstrations-Use-Case und diskutieren die erzielten Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-45880-9_1 a5a24c35e1048904f00b84593ef1bf07;de;;;2.1.;;;Extraktion der persönlichen Ontologie unter Berücksichtigung der Inhaltskonkordanz von Tagging auf Webseiten in ähnlichen SBM-Benutzern Um Websuchmaschinen zu realisieren, die die Bedeutung von Abfragephrasen für jeden Benutzer berücksichtigen, haben wir eine Methode untersucht, um hierarchische und synonyme Beziehungen zwischen markierten Phrasen in einem sozialen Lesezeichen (SBM) für einen einzelnen SBM-Benutzer zu extrahieren. Es erkennt die Beziehungen von Webseiten-Clustern mit denselben markierten Phrasen, die von den Lesezeichen abgeleitet werden, die im Ziel und seinen ähnlichen SBM-Benutzern verwendet werden. Verrauschtes Tagging, das die Bedeutung persönlicher Phrasen verletzt, verschlechtert jedoch die Erkennungsgenauigkeit. Dieses Kapitel schlägt eine Methode vor, um diesen Nachteil zu beheben. Das vorgeschlagene Verfahren klassifiziert Webseiten basierend auf ihrer Inhaltskonkordanz, solange sie auf der Gleichheit der markierten Phrasen basieren. Durch die Analyse der Zugehörigkeit von Webseiten zu inhaltsbasierten und tagbasierten Clustern werden die Beziehungen genauer erkannt. Das experimentelle Ergebnis zeigt die Wirksamkeit des vorgeschlagenen Verfahrens.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-05717-0_10 ad2d217d8674f5df8245eac035bd7ea3;de;;;2.1.;;;Agenten in einer multikulturellen Welt: Auf dem Weg zur ontologischen Versöhnung Um effektiv zu funktionieren, müssen Agenten, ob Mensch oder Software, in der Lage sein, durch gemeinsames Verständnis und kompatible Konzeptualisierungen zu kommunizieren und zu interagieren. In einer multikulturellen Welt sind ontologische Unterschiede ein grundlegendes Hindernis, das überwunden werden muss, bevor interkulturelle Kommunikation stattfinden kann. Der Zweck dieses Papiers ist es, die Probleme von Agenten zu diskutieren, die in großen multikulturellen Umgebungen operieren, und für Systeme zu plädieren, die gegenüber Heterogenität tolerant sind Szenario, das für viele aktuelle Wissensmanagementaufgaben repräsentativ ist, die von der Unterstützung durch Agenten profitieren würden. Anschließend diskutieren wir die Bemühungen des Intelligent Agent Laboratory, solche toleranten Systeme zu entwerfen, und geben eine detaillierte Präsentation der Ergebnisse mehrerer Implementierungen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45656-2_28 f403dbd4ebb69d5d4c672f2913752037;de;;;2.1.;;;Ontologischer Ansatz zur Integration von Big Data: Probleme und Perspektiven Sematic Web ist eine erweiterte Form des aktuellen Webs, die eine einfachere Möglichkeit bietet, Informationen zu suchen, wiederzuverwenden, zu kombinieren und zu teilen. Daher wird es nachfolgend als Kombinator quer über verschiedene Dinge, Datenanwendungen und Frameworks gesehen. Es wird vom World Wide Web Consortium (W3C) und dem internationalen Standardisierungsgremium des Webs bereitgestellt. Heutige Big Data werden häufig als aus 3 V bestehend gekennzeichnet: Volumen, Geschwindigkeit und Vielfalt. Vielfalt von Daten diskutiert, um mit verschiedenen Formaten von Daten umzugehen, die aus verschiedenen Datenquellen generiert werden. Daher sind die Probleme der Big-Data-Vielfalt wichtig, um viele Schwierigkeiten der realen Welt zu lösen. Semantic Web wird als Integrator verwendet, um Daten aus verschiedenen Quellen wie Webservices, relationalen Datenbanken und Tabellenkalkulationen usw. und in verschiedenen Formaten einzubinden. Aufgrund der vorhandenen Datenheterogenität weist diese Arbeit verschiedene Schwierigkeiten auf, die mit dem bestehenden System möglicherweise nicht vollständig gelöst werden können. Dieses Papier ist ein Versuch, sich auf die verschiedenen Probleme zu konzentrieren, die mit der Integration von Daten verbunden sind, und überprüft die diesbezüglichen Arbeiten, die in der vorherigen Arbeit durchgeführt wurden, und schlägt schließlich das Modell für die Integration von Daten aus verschiedenen Quellen vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1420-3_38 d450e548613acf5d656f365a00db5fa4;de;;;2.1.;;;Vorhersage essentieller Gene durch Mining-Gen-Ontologie-Semantik Essentielle Gene sind für das Leben eines Organismus unverzichtbar. Diese Gene werden breit diskutiert und viele Forscher haben Vorhersagemethoden vorgeschlagen, die nicht nur essentielle Gene finden, sondern auch die Entdeckung von Krankheitserregern und die Entwicklung von Medikamenten unterstützen. Allerdings nutzten nur wenige Studien die Beziehung zwischen Genfunktionen und essentiellen Genen für die Vorhersage von essentiellen Genen. In diesem Artikel untersuchen wir das Thema der Vorhersage von essentiellen Genen, indem wir die Assoziationsregel-Mining-Technik mit der semantischen Analyse der Gene Ontology anwenden. Zuerst haben wir zwei Funktionen namens GOARC (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21260-4_9 f1a27469ceac0aef6be672952b8d94a8;de;;;2.1.;;;Ein Ontologiemodell für die Kommunikation mit einer autonomen mobilen Plattform Dieses Dokument stellt eine ontologiebasierte Kommunikationsschnittstelle für eine autonome mobile Plattform (AMP) vor. Alle Daten zwischen der Plattform und anderen Controllern wie PCs oder AMPs werden über standardisierte Dienste ausgetauscht. Diese Lösung ermöglicht nicht nur den Empfang der erforderlichen Messinformationen und deren Zustände von einem AMP, sondern auch die Steuerung der Plattform. Der erste Vorteil besteht darin, dass alle Informationen über eine XML-Datei verfügbar sind. Der zweite Vorteil ist die bessere Möglichkeit, den AMP mit externen Maschinen zu steuern, die die Route des AMP überwachen können. Beim Umfahren von Hindernissen kann eine externe Maschine mit den vorhandenen Sensoren und Diensten dem AMP helfen, auf dem richtigen Weg zurückzukommen. Die Struktur der Daten für die Plattform wird als Reihe von standardisierten Diensten wie Informationen über die vorhandene Konfiguration und den Status eventuell installierter Sensoren beschrieben. Das XML-Format hilft, Informationen durch das Hinzufügen von Metadaten zu strukturieren. Um ein voll funktionsfähiges System zu erstellen, ist es notwendig, ein semantisches Modell (Beziehungen zwischen den Elementen und Diensten) der AMP-Dienste hinzuzufügen. Dieses Papier beschreibt eine mögliche Lösung zum Erstellen eines Ontologiemodells unter Verwendung der aktuellen Konfiguration, Dienste für den Monitor und Dienste zur Steuerung des AMP.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-58274-0_38 bcaccc4772b291bc36cf369376b76fa6;de;;;2.1.;;;Gewebespezifische Funktionen basierend auf dem Informationsgehalt der Genontologie mittels Cap-Analyse Genexpression Genexpressionen unterscheiden sich je nach Gewebetyp und Entwicklungsstadien. Daher ist es wichtig zu analysieren, wie jedes Gen exprimiert wird. Eine Möglichkeit zur Analyse von Genexpressionsmustern besteht darin, gewebespezifische Funktionen zu identifizieren. Dies ist nützlich, um zu verstehen, wie wichtige Aktivitäten ausgeführt werden. DNA-Mikroarrays werden häufig verwendet, um Genexpressionen erschöpfend zu beobachten. Es ist jedoch unmöglich, den Expressionswert eines Gens mit dem anderer Gene zu vergleichen, da der Genexpressionswert eines Zustands als ein Anteil des gleichen Gens unter einer Kontrollbedingung gemessen wird. Wir konnten daher nicht feststellen, ob ein Gen stärker exprimiert wird als andere Gene. Die Cap-Analyse-Genexpression (CAGE) ermöglicht eine Hochdurchsatzanalyse von Genexpressionen durch Zählen der Anzahl der cDNAs der exprimierten Gene. CAGE ermöglicht den Vergleich des Expressionswerts des Gens mit dem anderer Gene im gleichen Gewebe. In dieser Studie schlagen wir eine Methode zur Untersuchung gewebespezifischer Funktionen mit Daten aus CAGE vor. Um Gewebespezifität zu identifizieren, besteht eine der einfachsten Möglichkeiten darin, anzunehmen, dass die Funktion des am meisten exprimierten Gens als das gewebespezifischste angesehen wird. Das am stärksten exprimierte Gen in einem Gewebe kann jedoch in allen Geweben stark exprimiert werden, wie man es bei Housekeeping-Genen sieht. Funktionen solcher Gene können nicht gewebespezifisch sein. Um diese nicht in Betracht zu ziehen, schlagen wir vor, die Gewebespezifität von Funktionen basierend auf dem Informationsgehalt von Genontologiebegriffen zu messen. Wir haben unsere Methode auf Daten von 16 menschlichen Geweben und 22 Mausgeweben angewendet. Die Ergebnisse von Leber und Prostata zeigten, dass wohlbekannte Funktionen dieser Gewebe, wie Funktionen im Zusammenhang mit Signalübertragung und Muskelfunktion in der Prostata und Immunfunktionen in der Leber, einen hohen Rang einnehmen.;-;-;-;https://link.springer.com/article/10.1007/s11517-007-0274-y 0672129758d369f5f89a3a698fdc5f80;de;;;2.1.;;;Ontologiebasierter Ansatz zur Organisation der Unterstützung der Argumentationsanalyse im populärwissenschaftlichen Diskurs Der Beitrag präsentiert einen Ansatz zur Modellierung und Analyse der Argumentation in der populärwissenschaftlichen Literatur. Die Argumentation wird mit einer Argumentationsontologie basierend auf der AIF-Basisontologie modelliert, die um die Mittel zur Modellierung der Zielgruppe erweitert wird und eine genauere Beschreibung des Inhalts der Argumente ermöglicht. Im Sinne dieser Ontologie beschreiben die Autoren Argumentationsschemata, Argumentationsstruktur und -elemente sowie das Netzwerk der Argumente und ihrer Bestandteile, die aus den untersuchten Texten extrahiert wurden. Zur Analyse der Argumentation wird ein Softwaresystem entwickelt. Es bietet Werkzeuge zur Modellierung und Identifizierung der Argumentationsstruktur eines Korpus populärwissenschaftlicher Texte. Darüber hinaus kann das System die extrahierte Argumentation mit dem Ziel untersuchen, argumentative Strategien und rhetorische Methoden, die in wissenschaftlichen und populärwissenschaftlichen Texten verwendet werden, aufzudecken und zu analysieren. Der Beitrag beschreibt die spezifischen Merkmale der vorgeschlagenen Argumentationsontologie und stellt die Architektur und Funktionalität des für die Argumentationsanalyse konzipierten Softwaresystems vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30763-9_29 6be03d45ebffbff3c5242b0e88c35beb;de;;;2.1.;;;Verifizieren von OWL- und ORL-Ontologien in PVS Die Vision des Semantic Web wird verwirklicht, um das volle Potenzial des Webs auszuschöpfen. Die semantische Datenmodellierung ist die Grundlage des Semantic Web. Die Web Ontology Language (OWL) und die OWL Rules Language (ORL) bieten eine grundlegende Maschinerie für das semantische Markup für Daten. Es gibt jedoch eine eingeschränkte Tool-Unterstützung für OWL und derzeit keine Tool-Unterstützung für ORL. In diesem Papier schlagen wir vor, die OWL- und ORL-Sprachsemantik in der PVS-Spezifikationssprache zu modellieren, damit OWL- und ORL-Ontologien im Prototype Verification System (PVS) transformiert und verifiziert werden können. Darüber hinaus werden benutzerdefinierte PVS-Proof-Strategien entwickelt, um den Proof-Prozess zu automatisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-31862-0_20 2812812cd2c9dabcb8f60992fc054691;de;;;2.1.;;;Funktionale Ontologie für intelligente Instrumente Als allgemeine und anspruchsvolle Aufgabe des Entscheidungsprozesses in verteilten Umgebungen müssen die einzelnen Knoten des Netzwerks spezifisches Wissen austauschen, um ihr Ziel zu erreichen. Dies ist bei verteilter Instrumentierung der Fall, bei der ein Netzwerk intelligenter Komponenten miteinander interagieren, um eine Aufgabe zu erfüllen. Es wird eine Konzeptualisierung von funktionalem Wissen vorgeschlagen und wir argumentieren, dass diese Konzeptualisierung durch Ontologien repräsentiert wird, die auf Mereologie und Topologie basieren. Eine Synthese vieler Arbeiten im Bereich Knowledge Engineering führt uns dazu, eine Wissensrepräsentation mit einer doppelten Zielsetzung vorzuschlagen. Erstens bietet es Instrumentendesignern einen strukturellen und logischen Rahmen, der eine einfache Wiederverwendung ermöglicht, und zweitens ermöglicht es ein verteiltes Verhalten basierend auf kausaler Darstellung und auf Abhängigkeiten zwischen Funktions- und Verhaltenswissen an jedem Knoten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39592-8_13 cb64b1bfcc3ea447f7a0e284bd68d71f;de;;;2.1.;;;Aufbau gültiger Karriere-Ontologien mit B-CPNs Vom einfachen Wissensmanagement bis hin zu ausgeklügelten KI-Modellen haben Ontologien ein großes Potenzial bei der Erfassung von Know-how bewiesen und sind gleichzeitig besonders geeignet für die heutige Datenfülle und die digitale Transformation. KI und Daten verändern eine Vielzahl von Sektoren, insbesondere das Personalmanagement und die Talententwicklung, die tendenziell mit mehr Automatisierung und wachsenden Datenmengen einhergehen. Da sie Auswirkungen auf die Personal- und Karriereplanung, die Transparenz der Arbeitsplätze und die Chancengleichheit haben und überwachen, was KI und Analysemodelle antreibt, werden ihre Qualitätsstandards, Integrität und Korrektheit für Personalabteilungen, die solche Systeme anstreben, zu einem Muss. Basierend auf der Kombination formaler Methoden, nämlich der B-Methode und CPNs, präsentieren wir in diesem Papier einen vorläufigen Ansatz zur Konstruktion und Validierung von Karriereontologiegraphen mit dem, was wir als B-CPNs definieren werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-45183-7_3 7f5bd06f78cf290dcada80c4d342634b;de;;;2.1.;;;Datenintegration durch Das Ziel der Datenintegration besteht darin, einen einheitlichen Zugriff auf eine Menge heterogener Datenquellen zu ermöglichen und den Benutzer von dem Wissen zu befreien, wo sich die Daten befinden, wie sie gespeichert werden und wie auf sie zugegriffen werden kann. Ein Ergebnis der in den letzten Jahren durchgeführten Forschungsarbeiten zur Datenintegration ist eine klare konzeptionelle Architektur, bestehend aus einem globalen Schema, dem Quellschema und der Abbildung zwischen Quell- und Globalschema. In diesem Beitrag stellen wir einen umfassenden Ansatz und ein komplettes System für die ontologiebasierte Datenintegration vor. In diesem System wird das globale Schema in Form einer TBox der lenkbaren Beschreibungslogiken ausgedrückt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88594-8_2 2f0966b5a56c275e665e77c9ed8b1e07;de;;;2.1.;;;Eine Methodik zur Generierung von fortgeschrittenen Fahrerassistenz-Testfällen basierend auf Ontologien der Straßenverkehrssituationsbeschreibung Autonome Autos verlassen sich hauptsächlich auf einen intelligenten Systempiloten, um den Zweck des autonomen Fahrens zu erreichen. Sie kombinieren verschiedene Sensoren, um ihre Umgebung wahrzunehmen, wie Kameras, Radare und Lidare. Die Wahrnehmungsalgorithmen der Advanced Driver-Assistance Systems (ADAS) liefern auf Basis der von den Sensoren gelieferten Daten Beobachtungen der Umgebungselemente, während Entscheidungsalgorithmen die von diesen Fahrzeugen auszuführenden Aktionen generieren. Um die Sicherheit des autonomen Fahrzeugs zu gewährleisten, ist es erforderlich, die Zuverlässigkeit der Architektur und der Verhaltenslogik von ADAS, die auf dem Fahrzeug ausgeführt werden, für alle Situationen, die das Fahrzeug erfüllen wird, zu spezifizieren, zu validieren und sicherzustellen. Diese Situationen werden als unterschiedliche Testfälle beschrieben und generiert. In dieser Arbeit schlagen wir eine Methodik vor, um automatisch Testfälle von autonomen Fahrzeugen für die Autobahn zu generieren. Diese Methodik basiert auf einer dreischichtigen Hierarchie. Die erste Schicht nutzt statische und mobile Konzepte, die wir im Kontext von drei Ontologien definiert haben: Autobahn, Wetter und Fahrzeug. Die zweite Schicht nutzt die Beziehungen zwischen diesen Konzepten, während die dritte die Methode der Testfallgenerierung basierend auf den ersten beiden Schichten nutzt. Schließlich verwenden wir den Performance Evaluation Process Algebra (PEPA) zur Modellierung der Übergänge zwischen den Fahrszenen. Um unsere Methodik anzuwenden, betrachten wir ein laufendes Beispiel über ein fahrendes Fahrzeug auf der linken Seite des autonomen Fahrzeugs, um eine rechte Ausfahrtsspur einer Autobahn zu nehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-49559-6_5 b281273ee7f3dee7628e6ef4b5a6f8c9;de;;;2.1.;;;Kann eine Ontologie der Quantenfeldtheorie helfen, das Problem des Bewusstseins zu lösen? Das schwierige Problem des Bewusstseins tritt in den meisten Inkarnationen des heutigen Physikalismus auf. Warum sollten bestimmte physikalische Prozesse unbedingt mit Erfahrung einhergehen? Wir gehen von der Annahme aus, dass Erfahrung nicht existieren kann, ohne von einem Subjekt der Erfahrung (SoE) begleitet zu werden. Strawson hat den Begriff eines dünnen Subjekts ausführlich verteidigt – ein SoE, das eine phänomenale Einheit mit verschiedenen Arten von Inhalten (Empfindungen, Gedanken usw.) aufweist, die während seiner zeitlichen Existenz auftreten. Als nächstes führen wir im Anschluss an Stoljar unsere Unkenntnis des wahren Physischen als Grund für die Erklärungslücke zwischen heutigen physikalischen Prozessen (Ereignissen, Eigenschaften) und Erfahrung an. Daher ist es uns erlaubt, dünne Subjekte in Bezug auf das Physische über eine neue, noch auszuarbeitende Beziehung zu denken. Während dies bei den meisten Varianten der klassischen Physik schwer vorstellbar ist, argumentieren wir, dass dies bei bestimmten Ontologien der Quantenfeldtheorie möglicherweise nicht der Fall ist. Wir schlagen vor, dass die Beziehung, die ein SoE mit dem Physikalischen verbindet, der Beziehung zwischen einem Teilchen und einem (Quanten-)Feld ähnlich ist. In der Quantenfeldtheorie wird ein Teilchen als kohärente Anregung eines Feldes verstanden. Unter den richtigen Umständen koalesziert ein Partikel aus einem Feld und zerstreut sich. Wir schlagen vor, dass ein SoE als einem Teilchen ähnlich betrachtet werden kann, das aus physikalischen Feldern zusammenwächst, für eine kurze Zeit besteht und sich dann auf ähnliche Weise wie die Phänomenologie eines dünnen Subjekts auflöst. Während es auf den ersten Blick seltsam ist, sich Erfahrungssubjekte als Teilchen ähnlich vorzustellen, ebnen die räumliche und zeitliche Einheit, die das Teilchen im Gegensatz zu Feldern aufweist, und die Erwartung, dass Selfons neue Arten von Teilchen sind, den Weg für die Zementierung dieser Vorstellung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1957-0_2 42d96bf56d9f48f96d24b889130eae98;de;;;2.1.;;;Ontologien für die Datenwissenschaft: Über ihre Anwendung auf Datenpipelines Ontologien werden normalerweise verwendet, um intelligente Anwendungen zu steuern und auch als Ressource zum Integrieren oder Extrahieren von Informationen, wie im Fall von Natural Language Processing (NLP)-Aufgaben. Darüber hinaus werden Ontologien wie die Gene Ontology (GO) als Artefakt für ganz spezifische Forschungsziele verwendet. Der Wert von Ontologien für Datenanalyseaufgaben kann jedoch auch über diese Verwendungen hinausgehen und die Wiederverwendung und Zusammenstellung von Datenerfassungs-, Integrations- und Fusionscode umfassen. Dies erfordert, dass sowohl Daten- als auch Codeartefakte Metabeschreibungen unter Verwendung gemeinsamer Konzeptualisierungen unterstützen. In diesem Papier diskutieren wir die verschiedenen Anliegen bei der semantischen Beschreibung;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-14401-2_16 4534de896dc467fd64ddff6fd3a959a0;de;;;2.1.;;;Einige Erfahrungen mit der Verwendung von Ontologien in deliberativen Agenten Wir präsentieren unsere erste Antwort auf das OAS ‘03 Challenge Problem. Das Herausforderungsproblem schlägt ein durch Agenten unterstütztes Reiseszenario vor und fragt nach der Rolle von Ontologien, um die Aktivität des Agenten zu unterstützen. Wir diskutieren einen Glaubens-Wunsch-Intention-Ansatz (BDI) für das Problem unter Verwendung unserer Nuin-Agentenplattform und veranschaulichen verschiedene Möglichkeiten, wie Ontologie-Argumentation BDI-orientierte Problemlösung und Kommunikation durch die Agenten im System unterstützt.;-;-;-;https://link.springer.com/chapter/10.1007/3-7643-7361-X_12 5568804bc039c9e43b984fa085e2a6ba;de;;;2.1.;;;Zur Verwendung semantischer Entscheidungstabellen für die Organisation der Datensemantik Im ITEA2 Do-It-Yourself Smart Experiences-Projekt (DIY-SE) sind wir gefordert, eine ontologiebasierte Umgebung für das Ambient Computing zu entwerfen, die Benutzer beim Selbermachen ihrer personalisierten Lösungen unterstützt. In diesem Papier veranschaulichen wir, wie man Datensemantik mit der Semantic Decision Table (SDT) verwaltet. Wir verwenden eine einfache Regelschreibsprache namens Decision Commitment Language (DECOL), um die SDT-Verpflichtungen zu speichern. Semantic Decision Rule Language (SDRule-L), eine Erweiterung des Object Role Modeling (ORM), wird verwendet, um DECOL grafisch darzustellen. In diesem Papier werden wir demonstrieren, wie SDT zusammen mit SDRule-L und DECOL sowohl von technischen als auch von nicht-technischen Endbenutzern verwendet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16961-8_71 2db222748ad88a7dbf6a67d59479b03c;de;;;2.1.;;;Knowledge Life Cycle Management als Schlüsselaspekt der Digitalisierung Die digitale Transformation von Organisationen wurde weltweit zu einer bedeutenden Herausforderung in Forschung und Entwicklung. Die Umsetzung einer solchen Transformation erfordert nicht nur eine Änderung der technischen Ausstattung des Unternehmens, sondern auch die Entwicklung neuer Methoden des Wissenslebenszyklus-Managements, die die Extraktion von individuellem, zwischenmenschlichem oder organisatorischem Wissen in explizit maschinenlesbare Formen und deren bewusste Anwendung beim Enterprise Reengineering umfassen . Die erfolgreiche Bewältigung dieser Aufgaben hängt entscheidend von einer rigorosen wissenschaftlichen Theorie und formalen Methoden ab. Diese Arbeit stellt einen neuen Ansatz für das Wissenslebenszyklusmanagement verschiedener Wissensformen vor, der auf der Kombination von Ontologie-Engineering und entwicklungsfähigen domänenspezifischen Sprachen basiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-66196-0_20 023bd57c2f46212cd726493e92ae0f55;de;;;2.1.;;;Die MU-Theorie: Modelle und Modellierung verstehen Die MU-Theorie oder EE-Modelltheorie ist eine Theorie der Modelle und der Modellierung im Allgemeinen und der konzeptionellen Modellierung im Besonderen. Der Grundlagenteil beginnt mit dieser Modelldefinition: Jedes Subjekt, das ein System A verwendet, um Wissen über ein System B zu erlangen, verwendet A als ein Modell von B. Es vermittelt anschaulich das grundlegende Verständnis des Modellbegriffs als Rollenbegriff. Als nächstes wird das Modelldreieck eingeführt, das auf dem semiotischen Dreieck aus der FI-Theorie basiert. Es verdeutlicht, wie Komplexe (Systeme und Aggregate) von drei Hauptarten (konkret, konzeptionell und symbolisch) als Modelle füreinander verwendet werden können. Durch das Hinzufügen von zwei Abstraktionsebenen (nämlich der Schemaebene und der Metaebene) entsteht das General Conceptual Modeling Framework. Es klärt die Begriffe konzeptueller Komplex, konzeptionelles Schema und Metaschema für jedes Diskursuniversum oder die Welt eines Systems. Es wird auch klargestellt, dass diese Begriffe logische Konstrukte sind und dass folglich jeder Ausdruck von ihnen (in einer geeigneten Sprache) direkt in die Logik erster Ordnung umgewandelt werden kann. Der Ausarbeitungsteil umfasst die Präsentation und Diskussion der General Ontology Specification Language (GOSL). GOSL ist eine universelle Sprache zum Spezifizieren von Konzeptkomplexen, Konzeptschemata und Metaschemata. Die Syntax der Sprache besteht sowohl aus grafischen als auch aus textuellen Symbolen und Konstrukten. Letztere stellen eine englischähnliche Formsprache dar. Die Spaltung zwischen den beiden ist pragmatisch. Im Vergleich zu üblichen grafischen Sprachen für die konzeptionelle Modellierung könnte GOSL als minimal bezeichnet werden: Es deckt nur die grundlegenden Konzepte und Konstrukte ab. Kompliziertere logische Formeln lassen sich oft besser in Textkonstrukten ausdrücken. Der Diskussionsteil beginnt mit einem Vergleich des GCMF mit zwei anderen Frameworks. Als nächstes wird der Einfluss des O-O-Denkens auf die konzeptionelle Modellierung diskutiert. Es scheint, dass das O-O-Denken zwei entscheidende Dinge bei der konzeptionellen Modellierung verwischt: die Typ-Instanz-Beziehung und die Subtyp-Supertyp-Beziehung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-38854-6_6 13476588d9cdbd873f821530d6b49b7c;de;;;2.1.;;;Erweiterter TA-Algorithmus zur Anpassung einer Situations-Ontologie In dieser Arbeit stellen wir eine verbesserte Version eines Lernalgorithmus zur automatischen Anpassung einer Situations-Ontologie (TAA) [1] vor, die das Grundprinzip des Lernalgorithmus erweitert. Der Ansatz basiert auf der Annahme unsicherer Daten und beinhaltet Elemente aus dem Bereich Bayesian Networks und Machine Learning. Es ist eingebettet in das Exzellenzcluster Nexus der Universität Stuttgart, das sich zum Ziel gesetzt hat, ein verteiltes kontextbewusstes System zum Austausch von Kontextdaten aufzubauen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03986-7_42 ba928a306f3e4a11a1eb74c92d2f05a8;de;;;2.1.;;;Ontologiebasierter Abruf medizinischer Bilder mit Low-Level-Feature-Extraktion Dieses Papier stellt ein System vor, das implementiert ist, um die Abrufeffizienz von Bildern zu bewerten, wenn sie semantisch indiziert werden, indem eine Kombination aus einer Webontologiesprache und den Low-Level-Features des Bildes verwendet wird. Bilder, die an verschiedene Entitäten angehängt sind, wie zum Beispiel ein medizinischer Online-Bericht eines Patienten, sind im Internet reichlich vorhanden, aber es ist schwierig, allein von diesen Entitäten genaue Informationen abzurufen, da die Verwendung von Entitätsnamen in der Suchmaschine insbesondere bei Bildern ungenaue Ergebnisse liefert. Um die Anzahl der Ergebnisse für medizinische Bilder zu verbessern, haben wir die Ontologie-basierte Bildsuche eingeführt, eine kontextbasierte Bildsuche. Zusammen mit den Ontologien haben wir die Verwendung einer Low-Level-Feature-Extraktion vorgeschlagen, um ein bestimmtes Bild zu identifizieren und es gemäß den Anforderungen des Benutzers abzurufen. Die Text- und Bildinformationen werden zunächst segregiert und relevante Daten werden mit Hilfe einer semantischen Filterung basierend auf der kontextuellen Exploration (CE) berücksichtigt, die Merkmalsextraktion wird dann auf das Bild angewendet und die Ontologien werden instanziiert, um ein relevanteres Ergebnis zu erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32112-2_48 9431bb7e382758fd938fd29518466962;de;;;2.1.;;;Darstellung von Softwareprozessen in Beschreibungslogiken: Ein ontologischer Ansatz für Softwareprozessanalyse und -verifikation Der Softwareprozess ist entscheidend für die Herstellung hochwertiger Software. Allerdings werden Softwareprozesse meist in natürlicher Sprache beschrieben, was es schwierig macht zu überprüfen, ob sie in komplexen Softwareprojekten vollständig bzw. gut umgesetzt wurden. Auch für Praktiker ist es schwer, Prozesse aus unterschiedlichen Standards umzusetzen und sicherzustellen, dass sie harmonisch, konsistent und vollständig funktionieren. Composition Tree (CT) Notation, ein Behavior Engineering-Ansatz, wurde in früheren Arbeiten erfolgreich verwendet, um Softwareprozesse zu formalisieren. Es gibt jedoch keine Argumentationswerkzeuge für CT, um die modellierten Softwareprozesse automatisch zu überprüfen und zu verifizieren. In dieser Studie untersuchen wir die Synergie von Softwareprozessmodellierung und Beschreibungslogiken (DLs). Angesichts der großen Aussagekraft von DLs und ihrer effizienten und automatisierten Argumentationsunterstützung können DLs verwendet werden, um Softwareprozesse effektiver zu argumentieren und zu überprüfen. Wir schlagen einen Algorithmus vor, um ein CT-Softwareprozessmodell in ein DL umzuwandeln, sodass DL-Argumentationsmaschinen verwendet werden können, um eine automatisierte Softwareprozessanalyse durchzuführen. Fallstudien und einfache Beispiele werden ebenfalls gegeben, um die Durchführbarkeit dieses vorgeschlagenen Ansatzes zu rechtfertigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-38980-6_26 60d676bb4dadd54ee7f567e21e13c92d;de;;;2.1.;;;Graphbasiertes klinisches Entscheidungsunterstützungssystem mit ontologischem Framework Der Ärztemangel in ländlichen Gebieten von Entwicklungsländern ist ein großes Problem und hat schwerwiegende Auswirkungen auf den Gesundheitssektor der Dörfer. Gesundheitskioske, die von den Gesundheitsassistenten an verschiedenen abgelegenen Orten betrieben werden, sind das Rückgrat der ländlichen Gesundheitsdienste. Aufgrund der begrenzten Kenntnisse und Erfahrungen der Gesundheitsassistenten ist die Diagnose jedoch oft mehrdeutig. Daher besteht ein zunehmender Bedarf, ein wissensbasiertes Entscheidungsfindungssystem zu entwickeln, um ländliche Patienten im Primarbereich zu behandeln. In diesem Beitrag wurde ein graphenbasiertes klinisches Entscheidungsunterstützungssystem (CDSS) vorgeschlagen, um den Gesundheitsassistenten die vorläufige Krankheitsdiagnose der Patienten zu erleichtern. Die graphenbasierte Wissensbasis wird entwickelt, indem das medizinische Wissen verschiedener Ontologien integriert wird. Wir wenden den modifizierten Tiefensuchalgorithmus und den topologischen Sortieralgorithmus an, um minimale Kosten bei der Graphendurchquerung für die Differentialdiagnose der Krankheiten zu erzielen. Die Diagnose kann in zwei Modi durchgeführt werden – online und offline, in Anwesenheit des Patienten bzw. anhand von Patientenakten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-6430-2_12 cf96d01ab4272f4c512f89a621b5116c;de;;;2.1.;;;Ist Zeit eine Echtzeit? Ein Überblick über die Zeitontologie in der Informatik Ziel dieser Arbeit ist es, verschiedene Aspekte der Zeit in der heterogenen Welt der Informatik vorzustellen und Ontologien für die Zeit in verschiedenen Domänen von Computern und ihren Anwendungen zu definieren. Es werden einige philosophische und physikalische Hintergründe gegeben, um zu zeigen, wie aus dem Reichtum der oft gegensätzlichen Ideen, die im Rahmen dieser Disziplinen entwickelt wurden, viele nützliche Konzepte auch für die Informatik abgeleitet wurden. Architekturaspekte von Computersystemen, Informationssystemanwendungen und Echtzeitsystemen werden als zeitlich problematische Domänen betrachtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-88049-0_14 cf261db202c614023e4292d6caa30cec;de;;;2.1.;;;Eine Studie über ein automatisiertes kontextsensitives Zugriffskontrollmodell mit Ontologie Anwendungen in einer kontextsensitiven Computerumgebung werden mit einem drahtlosen Netzwerk und verschiedenen Geräten verbunden. Demnach kann der rücksichtslose Zugriff auf die Informationsquelle die Probleme des Systems verursachen. Daher ist die Verwaltung von Zugriffsberechtigungen sehr wichtig, um sowohl die Informationsressourcen als auch die Anpassung an das System durch die Gründung der Sicherheitsrichtlinie des erforderlichen Systems zu gewährleisten. Das vorhandene Sicherheitsmodell ist jedoch einfach durch einfache Benutzer-ID und Kennwort zugänglich. Dieses Modell weist ein Problem auf, das sich nicht auf die Umgebungsinformationen des Benutzers bezieht. Schlagen Sie in diesem Papier ein Modell der automatisierten kontextsensitiven Zugriffskontrolle unter Verwendung von Ontologie vor, das Ressourcen durch Inferenz und Beurteilung von Kontextinformationen, die Benutzerinformationen und Kontextinformationen der Benutzerumgebung sammeln, effizienter steuern kann, um die Ontologiemodellierung zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13346-6_17 9b8752d472b412e236b8035a0456fcca;de;;;2.1.;;;Auf dem Weg zu einer umfassenden Drogenontologie: Extraktion von Drogen-Indikations-Beziehungen aus verschiedenen Informationsquellen Arzneimittelontologien könnten Pharmaforschern helfen, die Informationsflut zu überwinden und das Tempo der Arzneimittelforschung zu beschleunigen, was der Industrie und den Patienten gleichermaßen zugute kommt. Drogen-Krankheit-Beziehungen, insbesondere Drogen-Indikations-Beziehungen, sind ein Hauptkandidat für die Darstellung in Ontologien. Es gibt eine Fülle verfügbarer Informationen zu Arzneimittelindikationen, aber ihre Strukturierung und Integration ist eine Herausforderung.;-;-;-;https://link.springer.com/article/10.1186/s13326-016-0110-0 8287c22d8b3a52f4f6032f04822423ef;de;;;2.1.;;;Die Mereologien der oberen Ontologien Die Mereologie, die formale Theorie der Teile und des Ganzen, hat innerhalb der angewandten Ontologie eine herausragende Rolle gespielt. Als grundlegender Satz von Konzepten für das vernünftige Denken erscheint es auch in einer Reihe von Ontologien der oberen Ebene. Darüber hinaus bieten solche Ontologien der höheren Ebene einen Überblick über die grundlegendsten, domänenunabhängigen, existierenden Entitäten wie Zeit, Raum, Objekte und Prozesse. In diesem Beitrag verifizieren wir die Kerncharakterisierung von Mereologien der Suggested Upper Merged Ontology (SUMO) und der Mereology der Descriptive Ontology for Linguistic and Cognitive Engineering (DOLCE), während wir ihre Axiomatisierungen über Ontology Mapping in Beziehung setzen. Wir zeigen, dass die bestehende Axiomatisierung von SUMO einige der beabsichtigten Modelle der klassischen Mereologie auslässt, und schlagen die Korrektur und Ergänzung von Axiomen vor, um dieses Problem anzugehen. Darüber hinaus zeigen wir die formale Beziehung zwischen der Axiomatisierung der Mereologie in beiden Ontologien der oberen Ebene.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99701-8_9 5dadf7a2d8d60fb5d3dde17dee76b3c3;de;;;2.1.;;;Ein verknüpftes Datenmodell für Datenbereiche Mit dem Aufkommen datengetriebener Methoden in den Geisteswissenschaften wird es notwendig, wiederverwendbare und konsistente methodische Muster für den Umgang mit den verschiedenen Datenmanipulationsschritten zu entwickeln. Dies erhöht die Transparenz und Reproduzierbarkeit der Forschung. Datenbereiche bieten einen qualitativen Rahmen für solche methodischen Schritte. In dieser Arbeit stellen wir ein Linked Data-Modell vor, um Datenbereiche darzustellen und zu teilen. Das Modell besteht aus einem zentralen Datenbereichselement mit verknüpften Elementen zur Datenauswahl, Verknüpfung, Modellierung, Normalisierung und Klassifizierung. Wir validieren das Modell, indem wir den Datenumfang für 24 Artikel aus zwei Bereichen darstellen: Geistes- und Sozialwissenschaften.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71903-6_32 91419b74e2d6fb8c64f73a86832198f6;de;;;2.1.;;;Visualisieren von Testaktivitäten zur Unterstützung der kontinuierlichen Integration: Eine multiple Fallstudie Während effiziente Testarrangements der Schlüssel für Softwareunternehmen sind, die eine kontinuierliche Integration anstreben, haben die meisten Unternehmen Schwierigkeiten, diese hochkomplexen und miteinander verbundenen Testaktivitäten zu organisieren. Oft fehlt ein angemessener Überblick über die End-to-End-Testaktivitäten von Unternehmen, was zu Problemen wie Doppelarbeit, langsamen Feedbackschleifen, zu vielen Problemen während der Nachentwicklung, unverbundenen Organisationen und unvorhersehbaren Releases führt Zeitpläne. Wir berichten von einer multiplen Fallstudie, in der wir aktuelle Testarrangements an fünf verschiedenen Softwareentwicklungsstandorten untersuchen. Das Ergebnis der Studie ist eine Visualisierungstechnik der Testaktivitäten von Einheiten- und Komponentenebene bis hin zu Produkt- und Release-Ebene, die die Identifizierung von Verbesserungsbereichen unterstützt. Dieses Modell zur Visualisierung der End-to-End-Testaktivitäten für ein System wurde zur Visualisierung dieser fünf Fälle verwendet und empirisch validiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06862-6_12 325579b10252a4d408576a2fdb6f3238;de;;;2.1.;;;Mehr über das biologische Gedächtnis Offensichtlich wurden die Gedächtnisfunktionen biologischer Organismen in den neuronalen Bereich implementiert, aber trotz umfangreicher experimenteller Forschungen zum biologischen Gedächtnis scheinen viele zentrale Fragen zu seinen Funktions- und Organisationsprinzipien unbeantwortet geblieben zu sein. Angesichts der in letzter Zeit gewonnenen theoretischen Erkenntnisse über die Informationsverarbeitungsprinzipien adaptiver Netze scheint es, dass die experimentellen Ergebnisse einer neuen Theorie bedürfen, auf die sie bezogen werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-88163-3_8 e8ed0cf82bebd48d8b5a0c8a5a59f523;de;;;2.1.;;;Objektraumpartitionierung in einem DL-ähnlichen Datenbank- und Wissensdatenbank-Verwaltungssystem Das p-Typ-Datenmodell wurde zuerst entwickelt, um Datenbankanforderungen zu erfüllen. Einige seiner Funktionen waren und sind für ein DBMS ziemlich ungewöhnlich und machen es in mancher Hinsicht näher an Description Logic (DL) Systemen als klassisches DBMS. Ansichten spielen im Modell eine zentrale Rolle. Sie sind hierarchisch definiert, mit Einschränkungen für Rollen-(Attribut-)Typen wie in DLs, und Instanzklassifizierung (Ansichtserkennung) ist ein grundlegender Mechanismus bei der p-Typ-Implementierung durch das Osiris-System.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44759-8_31 03d7a580df9c4d94898eae524a212e55;de;;;2.1.;;;Grundlagen für die Anwendung eines Gaußschen Plume-Modells Der Zweck dieses Dokuments ist es, Informationen über die Fähigkeiten, Anwendbarkeit und Grenzen eines speziellen deterministischen Modells zur Berechnung von Luftverschmutzungskonzentrationen, dem Gaußschen Plume-Modell, zu geben. Dieses Modell verwendet ein Emissionsinventar, meteorologische Parameter und Gleichungen, die den physikalischen Prozess des turbulenten Transports von Luftschadstoffen in der unteren Atmosphäre mathematisch beschreiben, um Konzentrationen zu berechnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-9131-0_4 e5484c011b9bc1ee92715a7eeb034430;de;;;2.1.;;;Wasserhaushalt für Deponien Ein wichtiger Schritt bei der Planung einer Abfallentsorgungsanlage ist die Durchführung einer „Wasserbilanz“- oder „Wasserhaushaltsanalyse“. Eine Wasserbilanz ist eine Bilanzierung der endgültigen Disposition des Niederschlags, der auf einen Standort fällt. Die Wasserhaushaltsanalyse kann verwendet werden, um die potenzielle Sickerwasserproduktion und die Leistung des Liner/Drain-Systems abzuschätzen und die relative Wirksamkeit alternativer Abdeckungs- und Liner/Drain-Designs zu vergleichen. Die Kenntnis des möglichen Bereichs der Sickerwasserproduktion ist wichtig für die Dimensionierung des Sickerwassersammelsystems (z. B. Rohre) und für Entscheidungen über die Behandlung des Sickerwassers. In ähnlicher Weise ist die Vorhersage der Linerleckage und der Tiefe der Sickerwasseransammlung in einer Drainageschicht wichtig bei der Auswahl von Liner- und Drainagematerialien und bei der Auslegung von Sammelrohrabständen und Linerneigung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-3070-1_10 7f705fb72d057ab0baa65b1f0b16081a;de;;;2.1.;;;Ein Rahmen für den zeitlichen Ontologie-basierten Datenzugriff: Ein Vorschlag Die prädiktive Analyse gewinnt in der Industrie nach und nach an Bedeutung. So enthüllen Servicetechniker in Siemens-Diagnosezentren beispielsweise verborgenes Wissen in riesigen Mengen historischer Sensordaten und nutzen dieses Wissen, um die Vorhersagesysteme zur Analyse von Live-Daten zu verbessern. Derzeit erfolgt die Analyse in der Regel nach datenabhängigen Regeln, die spezifisch für einzelne Sensoren und Geräte sind. Diese Abhängigkeit stellt erhebliche Herausforderungen bei der Regelerstellung, Wiederverwendung und Wartung durch Ingenieure. Eine Lösung für dieses Problem besteht darin, ontologiebasierten Datenzugriff (OBDA) zu verwenden, der eine konzeptionelle Ansicht von Daten über eine Ontologie bereitstellt. Klassische OBDA-Systeme unterstützen jedoch keinen Zugriff auf zeitliche Daten und deren Argumentation. Um dieses Problem anzugehen, schlagen wir einen Rahmen der zeitlichen OBDA vor. In diesem Rahmen verwenden wir erweiterte Mapping-Sprachen, um Informationen über zeitliche Ereignisse im RDF-Format zu extrahieren, klassische Ontologie und Regelsprachen, um statische Informationen wiederzugeben, sowie eine temporale Regelsprache zur Beschreibung von Ereignissen. Wir schlagen auch eine SPARQL-basierte Abfragesprache zum Abrufen von Zeitinformationen und schließlich eine Architektur der Systemimplementierung vor, die die hochmoderne OBDA-Plattform Ontop erweitert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67162-8_17 d4233c098c39465a8f59f0f3f4dc561c;de;;;2.1.;;;"Landvegetation Die Region Kakadu gilt als eines der waldreichsten Gebiete des Monsun-Nordaustraliens. Es gibt 1847 Gefäßarten aus über 500 Gattungen und 180 Familien aus der Region. Gattungen mit pantropischem Ursprung sind ein wichtiger Bestandteil aller Pflanzengesellschaften. Die ausgedehnten lateritischen Penelains unterstützen offene Eukalyptuswälder, Wälder und offene Wälder mit hohen, hauptsächlich andropogonoiden, grasdominierten Unterständen, die oft als ""Savanne"" -Vegetation bezeichnet werden. Auch geschlossene Monsunregenwälder, Heiden und offene Wälder mit spärlichen Andropogonoid-Eragrostoid-Grasunterständen sind weit verbreitet. Sie kommen auf einer Vielzahl von Landformen vor, darunter Küstendünen, Entwässerungslinien, Flussdeiche, felsige Hügel unterschiedlicher Geologie sowie Sandsteinsteilhänge und Hochebenen.";-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-0133-9_4 3778a61f6c5c7b3d8f8693a1f0cd4b50;de;;;2.1.;;;Automatische Vorhersage der Polarität chinesischer Adjektive: Nicht, ein bisschen und eine Suchmaschine Die von [1] vorgeschlagene SO-PMI-IR-Methode ist eine einfache und effektive Methode zur Vorhersage der Polarität von Wörtern, leidet jedoch unter drei Einschränkungen: 1) Polarparadigmenwörter werden durch Intuition ausgewählt, 2) wenige Suchmaschinen unterstützen heutzutage offiziell der NEAR-Operator, 3) der NEAR-Operator berücksichtigt das gemeinsame Auftreten innerhalb von 10 Wörtern, was einige Geräusche verursacht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45185-0_48 df8895614de32b4b0c3a951421467d68;de;;;2.1.;;;Regularisierung für die unbeaufsichtigte Klassifizierung von Taxonomien Wir untersuchen die unbeaufsichtigte Klassifikation von Textdokumenten in eine Taxonomie von Konzepten, die mit nur wenigen Schlüsselwörtern annotiert sind. Unsere zentrale Behauptung ist, dass die Struktur der Taxonomie Hintergrundwissen beinhaltet, das genutzt werden kann, um die Klassifikationsgenauigkeit zu verbessern. Unter unserer;-;-;-;https://link.springer.com/chapter/10.1007/11875604_76 38700f774b9cb7cac54322cf63ab350b;de;;;2.1.;;;Ein integriertes raum-zeitliches GIS-Toolkit zur Untersuchung von haushaltsinternen Interaktionen Dieser Beitrag berichtet über die Entwicklung eines integrierten räumlich-zeitlichen GIS-Toolkits, das die Untersuchung von haushaltsinternen Interaktionen erleichtert. Das Toolkit umfasst zwei Tools. Das erste Werkzeug,;-;-;-;https://link.springer.com/article/10.1007/s11116-007-9146-4 08479ef37daeb17c893fb7c4bf35deaf;de;;;2.1.;;;Vereinheitlichen der Darstellung von Rastermetadaten durch Ontologien Grid-Umgebungen bieten nun eine Vielzahl von Middleware-Lösungen, die helfen sollen, die in der Grid-Umgebung verfügbaren Ressourcen zu verwalten. In diesem Papier wird die Notwendigkeit einer einheitlicheren Methode zur Definition von Metadaten im Grid dargestellt. Es wird ein Vorschlag zur Verwendung von Ontologien als Formalismus zur einheitlichen Darstellung verschiedener Arten von Metadaten im Grid gegeben. Außerdem werden grundlegende Anforderungen beschrieben, die jeder Grid-Metadaten-Ansatz erfüllen sollte und wie diese Anforderungen mit Ontologien erfüllt werden können. Schließlich wird eine kurze Beschreibung eines Beispiels eines solchen Ansatzes im EU-K-Wf-Grid-Projekt beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/11752578_82 3cd90eec1e8895dd64765c2833ccc764;de;;;2.1.;;;Scaffold Hunter: ein umfassendes visuelles Analyse-Framework für die Wirkstoffforschung Das Zeitalter von Big Data beeinflusst die Art und Weise, wie rationale Wirkstoffforschung und die Entwicklung bioaktiver Moleküle durchgeführt werden, und vielseitige Werkzeuge werden benötigt, um die Arbeitsabläufe beim molekularen Design zu unterstützen. Scaffold Hunter ist ein flexibles visuelles Analyse-Framework für die Analyse von Daten chemischer Verbindungen und kombiniert Techniken aus mehreren Bereichen wie Data Mining und Informationsvisualisierung. Das Framework ermöglicht die interaktive Analyse hochdimensionaler chemischer Verbindungsdaten und kombiniert intuitive Visualisierungen mit automatisierten Analysemethoden, einschließlich vielseitiger Clustering-Methoden. Ursprünglich zur Analyse des Gerüstbaums entwickelt, wird Scaffold Hunter ständig überarbeitet und erweitert. Wir beschreiben aktuelle Erweiterungen, die die Anwendbarkeit für eine Vielzahl von Aufgaben deutlich erhöhen.;-;-;-;https://link.springer.com/article/10.1186/s13321-017-0213-3 0a9fe9dfd4cd449692a813d9719aa544;de;;;2.1.;;;Schnelle Modularisierung und atomare Zerlegung von Ontologien mit Axiom-Abhängigkeits-Hypergraphen In diesem Papier definieren wir den Begriff eines Axiom-Abhängigkeits-Hypergraphen, der explizit darstellt, wie Axiome durch den Algorithmus zum Berechnen lokalitätsbasierter Module in ein Modul aufgenommen werden. Ein lokalitätsbasiertes Modul einer Ontologie entspricht einer Menge verbundener Knoten im Hypergraphen und Atome einer Ontologie stark verbundenen Komponenten. Das Zusammenfassen der stark zusammenhängenden Komponenten in einzelne Knoten ergibt einen kondensierten Hypergraphen, der eine Darstellung der atomaren Zerlegung der Ontologie umfasst. Um die Kondensation des Hypergraphen zu beschleunigen, reduzieren wir zunächst seine Größe, indem wir die stark zusammenhängenden Komponenten seines Graphenfragments mit einem linearen Zeitgraphalgorithmus kollabieren. Dieser Ansatz hilft, die Zeit, die zum Berechnen der atomaren Zerlegung einer Ontologie benötigt wird, erheblich zu reduzieren. Wir bieten eine experimentelle Auswertung zur Berechnung der atomaren Zerlegung großer biomedizinischer Ontologien. Wir demonstrieren auch eine signifikante Verbesserung der Zeit, die benötigt wird, um lokalitätsbasierte Module aus einem Axiom-Abhängigkeitshypergraphen und seiner komprimierten Version zu extrahieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11915-1_4 eca335d7d4e024d5eef2d9184b685b26;de;;;2.1.;;;Eine neue Taxonomie der automatischen Einbruchsreaktion und ihre Anwendung Die Reaktionstaxonomie ist ein Schlüssel zur Realisierung eines automatischen Einbruchsreaktionssystems, da sie den theoretischen Rahmen für eine kohärente Reaktion auf Angriffe bietet. Dieses Papier präsentiert eine neue Taxonomie namens 5W2H auf der Grundlage der Analyse der Taxonomien und der Anwendungsprototyp, der über IBM Aglet läuft, wird vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/11610496_139 621218148ad440c689f97b50867a52a7;de;;;2.1.;;;Aminozucker – Pflanzen und Pilze Obwohl das Vorkommen von Acetylglucosamin im Chitin von Pilzen im Jahr 1895 festgestellt wurde, war die Forschung zum Verständnis des Aminozuckerstoffwechsels in diesen Organismen nicht umfassend, bis der Nachweis von Aminozuckernukleotiden in Hefe durch;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-68275-9_3 f34dfb5b1abddea568a900ea6e902f11;de;;;2.1.;;;3D vs. 4D Ontologien in der Unternehmensmodellierung Dieses Papier präsentiert einen Vergleich zwischen einer 3D- und einer 4D-Ontologie, um Modellierungsvariationen zu identifizieren, die sich aus der Verwendung dieser unterschiedlichen Ontologien ergeben. Die Modellierungsvarianten werden anhand von zwei Unternehmensmodellierungsrätseln veranschaulicht, auf die beide Ontologien angewendet werden. Das Ziel unseres Vergleichs ist es zu zeigen, dass die Wahl einer Ontologie Auswirkungen auf die Darstellung von Phänomenen der realen Welt hat und schließlich zu unterschiedlichen Unternehmensmodellen führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12256-4_2 05566cb9be0bb91f2f5ea41c6cf50fe1;de;;;2.1.;;;Abbildung der Web-Ontologie-Sprache auf die OpenAPI-Spezifikation Viele Organisationen unterhalten Wissensgraphen, die nach Ontologien organisiert sind. Diese Ontologien sind jedoch in Sprachen (z. B. OWL) implementiert, die von Benutzern, die mit Techniken der Wissensrepräsentation nicht vertraut sind, schwer zu verstehen sind. Dies betrifft insbesondere Webentwickler, die ontologiebasierte Anwendungen entwickeln möchten, aber möglicherweise Schwierigkeiten beim Zugriff auf ontologiebasierte Daten in Wissensgraphen über SPARQL-Abfragen haben. Um dieses Problem anzugehen, schlagen wir eine zugängliche Schicht für ontologiebasierte Wissensgraphen über REST-APIs vor. Wir definieren eine Mapping-Spezifikation zwischen der Web Ontology Language (OWL) und der OpenAPI Specification (OAS), um ontologiebasierte API-Definitionen in einer den Webentwicklern wohlbekannten Sprache bereitzustellen. Unsere Mapping-Spezifikation identifiziert wichtige Gemeinsamkeiten zwischen OWL und OAS und bietet Implementierungsrichtlinien und Beispiele. Wir haben auch eine Referenz-Mapping-Implementierung entwickelt, die OWL-Ontologien in Sekundenschnelle automatisch in OpenAPI-Spezifikationen umwandelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-65847-2_11 a98889172a106ed8db97fa7ce494ff02;de;;;2.1.;;;Abstraktionsverfeinerung für die ontologische Materialisierung Wir präsentieren ein neues Verfahren zur Ontologie-Materialisierung (das alle involvierten Instanzen jedes atomaren Konzepts berechnet), bei dem das Schlussfolgern über eine große ABox auf das Schlussfolgern über eine kleinere „abstrakte“ ABox reduziert wird. Die abstrakte ABox wird als Ergebnis einer Festkommaberechnung mit zwei Stufen erhalten: 1) Abstraktion: Aufteilung der Individuen in Äquivalenzklassen basierend auf den erzählten Informationen und Verwendung einer repräsentativen Person pro Äquivalenzklasse und 2) Verfeinerung: iterativ aufgeteilt (refine ) die Äquivalenzklassen, wenn neue Aussagen abgeleitet werden, die Individuen innerhalb derselben Klasse unterscheiden. Wir beweisen, dass die Methode vollständig ist für Horn;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11915-1_12 f123c884572f0759add31a82bcc72a68;de;;;2.1.;;;Semantische Präzision und Recall zur Bewertung inkohärenter Ontologie-Mappings Eine wichtige Rolle spielt das Ontologie-Mapping im Semantic Web, das Korrespondenzen zwischen verschiedenen Ontologien erzeugt. In der Regel werden Präzision und Rückruf verwendet, um die Leistung einer Kartierungsmethode zu bewerten. Sie berücksichtigen jedoch nicht die Semantik des Mappings. Daher werden semantische Präzision und Erinnerung vorgeschlagen, um die eingeschränkte mengentheoretische Grundlage von Präzision und Erinnerung aufzulösen. Aber die semantischen Maße berücksichtigen nicht die Inkohärenz in einer Abbildung, die einige Trivialisierungsprobleme verursacht. In diesem Beitrag schlagen wir semantische Maßnahmen zur Bewertung vor;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35236-2_34 b7b2e206cd4612d628e91774888afd7c;de;;;2.1.;;;Debuggen von OWL-DL-Ontologien: Ein heuristischer Ansatz Nachdem OWL zu einer W3C-Empfehlung geworden ist, wird sie zunehmend akzeptiert und verwendet. Die meisten Leute finden es jedoch immer noch schwierig, OWL-Ontologien zu erstellen und zu verwenden. Die größte Schwierigkeit besteht darin, die Ontologien zu „debuggen“ – herauszufinden, warum ein Denker gefolgert hat, dass eine Klasse „unerfüllbar“ (inkonsistent) ist. Selbst für Leute, die OWL und die logische Bedeutung der unterstreichenden Beschreibungslogik verstehen, kann es schwierig sein, herauszufinden, warum Konzepte unerfüllbar sind. Die meisten modernen Tableaux-Begründer liefern keine Erklärung dafür, warum die Klassen nicht erfüllbar sind. Dieses Papier stellt einen heuristischen Ansatz mit „Black Box“ vor, der auf der Identifizierung häufiger Fehler und Schlussfolgerungen basiert.;-;-;-;https://link.springer.com/chapter/10.1007/11574620_53 b39f6d7dc8ddf72bfcf0e1dd67ede3db;de;;;2.1.;;;Die Grenzen des praktikablen ontologischen Denkens verschieben Wir identifizieren eine Klasse von Horn-Ontologien, für die Standard-Argumentationsaufgaben wie Instanzprüfung und Klassifizierung handhabbar sind. Die Klasse ist allgemein genug, um die Profile OWL 2 EL, QL und RL einzuschließen. Die Überprüfung, ob eine Horn-Ontologie zu der Klasse gehört, kann in polynomieller Zeit erfolgen. Wir zeigen empirisch, dass die Klasse viele reale Ontologien enthält, die in keinem OWL 2-Profil enthalten sind, und dass daher für diese Ontologien polynomial time Reasoning möglich ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11915-1_10 91722d948439b13b8a93a485ea48f0c7;de;;;2.1.;;;Konstruieren komplexer semantischer Zuordnungen zwischen XML-Daten und Ontologien Viele Daten werden im Web im XML-Format veröffentlicht, das Schemata erfüllt, und um das Semantic Web Wirklichkeit werden zu lassen, müssen diese Daten in Bezug auf Ontologien interpretiert werden. Die Interpretation erfolgt durch a;-;-;-;https://link.springer.com/chapter/10.1007/11574620_4 bfa53c8fbf30b11935f7fd38236e704c;de;;;2.1.;;;Frage beantworten auf Spanisch Dieses Papier beschreibt die Architektur, den Betrieb und die Ergebnisse, die mit dem Question Answering-Prototyp für Spanisch erzielt wurden, der in der Abteilung für Sprachverarbeitung und Informationssysteme der Universität Alicante für die einsprachige QA-Bewertungsaufgabe des CLEF 2003 für Spanisch entwickelt wurde. Unser System wurde von Grund auf neu entwickelt und kombiniert flache Verarbeitungswerkzeuge für natürliche Sprache mit statistischen Datenredundanztechniken. Das System ist in der Lage, QS-Aufgaben unabhängig von statischen Korpora oder von Web-Dokumenten durchzuführen. Darüber hinaus kann das World Wide Web als externe Ressource verwendet werden, um Beweise zur Unterstützung und Ergänzung der spanischen CLEF-Korpora zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30222-3_52 5692f0ab3dd1715b5ca15f0e258bf776;de;;;2.1.;;;Stabile Modelltheorie für erweiterte RDF-Ontologien Ontologien und automatisiertes Denken sind die Bausteine ​​der Semantic Web Initiative. Ableitungsregeln können in eine Ontologie aufgenommen werden, um abgeleitete Konzepte basierend auf Basiskonzepten zu definieren. Regeln ermöglichen es beispielsweise, die Erweiterung einer Klasse oder Eigenschaft basierend auf einer komplexen Beziehung zwischen den Erweiterungen derselben oder anderer Klassen und Eigenschaften zu definieren. Andererseits ist auch die Aufnahme negativer Informationen sowohl in Form von Verneinung als Versagen als auch explizit negativer Informationen erforderlich, um verschiedene Formen der Argumentation zu ermöglichen. In diesem Papier erweitern wir RDF-Graphen mit schwacher und starker Negation sowie Ableitungsregeln. Das;-;-;-;https://link.springer.com/chapter/10.1007/11574620_5 a7c23e856cd3743d225484e7da4bf95e;de;;;2.1.;;;Ontologie-Matching-Methode für eine effiziente Metadatenintegration Wir beschreiben eine Ontologie-Matching-Methode zur effizienten Metadatenintegration in ein digitales Content-Management-System. Dieser Ansatz verwendet semantische Integrationsmethoden auf Schemaebene, konvertiert jedoch Daten aus mehreren Datenquellen in ein einziges abfragbares Format auf Datenebene. Jedes Datenschema wird durch eine Ontologie dargestellt, und dann generiert der Benutzer Zuordnungsregeln zwischen Metadaten mithilfe des Ontologie-Zuordnungsbrowsers. Schließlich werden alle Daten in ein einziges Datenformat konvertiert, und architektonisch bietet dies einen eng gekoppelten Ansatz, da sich die Daten zusammen in einem einzigen Repository befinden. In diesen Prozessen stellt unsere Studie benutzerfreundliche und effiziente Methoden zur Verfügung, um Beziehungen zwischen Metadaten durch semantische Webtechnologien herzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15470-6_12 7d5ad9374e96f04f7f781ab4b3f879b6;de;;;2.1.;;;Eine konnektionistische Darstellung der ontologischen Grenzverschiebung Bo Frühere Forschungen zur Kategorisierung von Kindern haben vorgeschlagen, dass Kinder Wahrnehmungs- und Konzeptwissen verwenden, um Objektnamen zu verallgemeinern. Insbesondere die Beziehung zwischen ontologischen Kategorien und linguistischen Kategorien scheint ein kritischer Hinweis auf Lernobjektkategorien zu sein. Der diesem Zusammenhang zugrunde liegende Mechanismus bleibt jedoch unklar. Hier schlagen wir ein konnektionistisches Modell für den Erwerb ontologischen Wissens durch das Erlernen linguistischer Kategorien von Entitäten vor. Die Ergebnisse legen nahe, dass sprachliche Hinweise Kindern helfen, sich auf bestimmte Wahrnehmungseigenschaften zu konzentrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30499-9_42 8276228c1ec5bc0a9509cc6c6e0dc55a;de;;;2.1.;;;Studentenprofil in einer E-Learning-Umgebung basierend auf zweidimensionalen Ontologien In Ontologien als sich entwickelnde Technologie innerhalb des E-Learning wird eine große Relevanz beobachtet. Seine Grundlagen ebneten den Weg für die Verbesserung von Ontologien und Systemen, die Ontologien in verschiedenen Bereichen verwenden. E-Learning ist eines dieser Systeme. In diesem Artikel wird ein Empfehlungsdatenmodell vorgeschlagen, das die Aktivitäten und das Verhalten der Schüler in den sozialen Netzwerken berücksichtigt, um ihr Konto zu verbessern. Das vorgeschlagene Modell identifiziert sowohl die Aktivitäten als auch das Verhalten der Schüler basierend auf der Entwicklung zweidimensionaler Ontologien. Die erste Dimension sind die sozialen Netzwerke und die zweite das Studierendenportal, kurz Learning Management System (LMS). Das vorgeschlagene Modell verwendet Daten aus dem Engagement der Schüler mit dem E-Learning-Managementsystem (Build-Aktivitäten) und dem sozialen Netzwerk (Build-Verhalten), Facebook. Das Modell hilft den Schülern, das Profil der Schüler zu identifizieren, verbessert den Lernfortschritt und verbessert die Lernqualität. Das Modell liefert auch wichtige Informationen für Pädagogen und ermöglicht ihnen ein besseres Verständnis der Persönlichkeit jedes einzelnen Schülers. Eine neue Technik zur Verbesserung des Benutzerprofils basierend auf dem Verhalten der Schüler in sozialen Medien und der Aktivierung der Schüler in LMS.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-74690-6_30 dd54d57ed557d935fd230e59594fab50;de;;;2.1.;;;GFSOM: Genetische Merkmalsauswahl für Ontologie-Matching Dieses Papier untersucht das Ontologie-Matching-Problem und schlägt einen genetischen Merkmalsauswahlansatz für den Ontologie-Matching (GFSOM) vor, der die Merkmalsauswahl unter Verwendung des genetischen Ansatzes nutzt, um die am besten geeigneten Eigenschaften für den Matching-Prozess auszuwählen. Weiterhin werden drei Strategien vorgeschlagen, um die Leistung des entworfenen Ansatzes zu verbessern. Der genetische Algorithmus wird zuerst ausgeführt, um die relevantesten Eigenschaften auszuwählen, und der Abgleichprozess wird dann auf die ausgewählten Eigenschaften angewendet, anstatt alle Eigenschaften der gegebenen Ontologie zu untersuchen. Um die Nützlichkeit und Genauigkeit des GFSOM-Frameworks zu demonstrieren, werden mehrere Experimente mit der DBpedia-Ontologiedatenbank durchgeführt. Die Ergebnisse zeigen, dass der Ontologie-Matching-Prozess von der Merkmalsauswahl und dem genetischen Algorithmus profitiert, wobei GFSOM die modernen Ontologie-Matching-Ansätze sowohl hinsichtlich der Ausführungszeit als auch der Qualität des Matching-Prozesses übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-5841-8_68 c8177871685ea9e430f521ab99358288;de;;;2.1.;;;Ein ontologiebasierter Ansatz zum Parsen türkischer Sätze Das Hauptproblem bei der Analyse natürlicher Sprache ist die Mehrdeutigkeit, die auf verschiedenen Ebenen linguistischer Informationen gefunden wird. Eine syntaktische Analyse mit Wortsinnen reicht häufig nicht aus, um alle in einem Satz gefundenen Mehrdeutigkeiten aufzulösen. Obwohl natürliche Sprachen stark mit dem Wissen der realen Welt verbunden sind, nutzen die meisten Parsing-Architekturen es nicht effektiv. In diesem Beitrag wird eine neue Methodik zur Analyse türkischer Sätze vorgeschlagen, die stark auf den Einschränkungen in der Ontologie basiert. Die Methodik verwendet auch morphologische Merkmale des Türkischen, die im Allgemeinen semantische Eigenschaften bezeichnen. Die Analyse zielt darauf ab, die propositionale Struktur der Eingabeäußerung zu finden, ohne einen tiefen syntaktischen Baum zu konstruieren, sondern nutzt stattdessen eine schwache Interaktion zwischen Syntax und Semantik. Die Architektur konstruiert eine spezifische Bedeutungsrepräsentation auf der analysierten propositionalen Struktur.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-49478-2_12 4b53cc07bfd7ad633344d2541e2f3695;de;;;2.1.;;;Ontologie-Lernbasiertes fokussiertes Crawling für die Ermittlung und Klassifizierung von Online-Service-Werbeinformationen Online-Werbung wird bei KMU in der Dienstleistungsbranche immer beliebter, und täglich werden Tausende von Dienstleistungsanzeigen im Internet veröffentlicht. Es besteht jedoch eine enorme Barriere zwischen der dienstanbieterorientierten Veröffentlichung von Dienstinformationen und der dienstkundenorientierten Ermittlung von Dienstinformationen, die dazu führt, dass Dienstverbraucher die veröffentlichten Dienstwerbeinformationen kaum aus dem Internet abrufen. Dieses Problem ist teilweise auf die allgegenwärtigen, heterogenen und mehrdeutigen Service-Werbeinformationen und die offene und uferlose Web-Umgebung zurückzuführen. Die vorliegende Forschung konzentriert sich jedoch selten auf dieses Forschungsproblem. In diesem Papier schlagen wir einen auf Ontologie-Lernen basierenden fokussierten Crawling-Ansatz vor, der die Erkennung und Klassifizierung von Online-Service-Werbeinformationen auf Web-Crawler-Basis in der Web-Umgebung unter Berücksichtigung der Eigenschaften von Service-Werbeinformationen ermöglicht. Dieser Ansatz integriert ein ontologiebasiertes fokussiertes Crawling-Framework, ein vokabularbasiertes Ontologie-Lernframework und ein hybrides mathematisches Modell für die Ähnlichkeitsberechnung von Service-Werbeinformationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34321-6_44 91176c8ee208f208d0b7f84705450b46;de;;;2.1.;;;Lokalisierung des EHCPRs-Systems im mehrsprachigen Bereich: eine Implementierung Die durch das Internet ausgelöste Zunahme der interkulturellen Kommunikation und die vielfältige Sprachverteilung der Internetnutzer verschärft die Notwendigkeit der Globalisierung des intelligenten Onlinesystems Kontextsensitivität in seiner Argumentation. Es werden Anstrengungen unternommen, um das EHCPR-System online zu stellen, das gemäß den Anforderungen eines bestimmten mehrsprachigen Benutzerbereichs lokalisiert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19403-0_61 1a8ff64cc63114cf93d386b1bf1ce3e8;de;;;2.1.;;;Systematischer Aufbau des hierarchischen Klassifikators in der SVM-basierten Textkategorisierung Bei einer Textkategorisierungsaufgabe zeigt die Klassifizierung nach einer Klassenhierarchie bessere Ergebnisse als der Fall ohne die Hierarchie. In aktuellen Umgebungen, in denen eine große Menge von Dokumenten in mehrere Untergruppen mit einer Hierarchie dazwischen unterteilt ist, ist es natürlicher und angemessener, ein hierarchisches Klassifizierungsverfahren zu verwenden. Wir führen ein neues internes Knotenbewertungsschema ein, das für den Entwicklungsprozess eines hierarchischen Klassifikators sehr hilfreich ist. Wir zeigen auch, dass die hierarchische Klassifikatorkonstruktionsmethode, die dieses Maß verwendet, einen Klassifikator mit einer besseren Klassifikationsleistung liefert, insbesondere wenn sie auf die Klassifikationsaufgabe mit großer Hierarchietiefe angewendet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30211-7_65 44cd4da72fe8fcc633f49d73948606eb;de;;;2.1.;;;Gartenpfadfehler in der diagnostischen Argumentation Eine effiziente Strategie zur Fehlerdiagnose beruht auf spezifischen Symptomen, um nur einen kleinen Teil des verfügbaren Diagnosewissens zu aktivieren. Expertensysteme und Menschen, die diese Strategie anwenden, begehen jedoch häufig charakteristische Fehler. Diese Fehler treten auf, weil deutlich unterschiedliche Fehler ähnliche Symptome zeigen können. Wenn diese Symptome verwechselt werden, kann die falsche Portion diagnostischen Wissens aktiviert werden. Dieses Papier diskutiert solche Fehler und beschreibt eine Strategie zur Reduzierung ihres Auftretens basierend auf einer Untersuchung der Expertise im Galen-Expertensystem.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83314-4_7 dfa35014bd2f6dedd30550912b243034;de;;;2.1.;;;Ökologische Aspekte der Methanoxidation, eine Schlüsseldeterminante der globalen Methandynamik Die Methanoxidation wurde zum Gegenstand wissenschaftlicher Untersuchungen, als Alessandro Volta 1776 beobachtete, dass aus einem Teich gesammelte Gasblasen brennbar waren. Methan wurde anschließend als Wärme- und Lichtquelle genutzt. Trotz ihrer kommerziellen Bedeutung wurden die biologischen und ökologischen Aspekte der Methanoxidation jedoch bis zu den Pionierarbeiten von Söhngen (1906), der erstmals methanoxidierende Bakterien (MOB) isolierte, weitgehend ignoriert. [Quayle (1987) stellt fest, dass Lowe wahrscheinlich 1892 die ersten MOB isolierte, ohne ihre Fähigkeit zu erkennen, Methan zu oxidieren.] Bis in die 1960er Jahre wurden kaum weitere Fortschritte erzielt, als die systematischen Bemühungen mehrerer Gruppen methodische Werkzeuge und Details zur Taxonomie lieferten , Physiologie und Biochemie von C;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-7609-5_9 b4a4d0cd980117f3d66d0244be28ac6b;de;;;2.1.;;;Hauptargumente gegen Nichtexistente Theorien von nichtexistenten (d. h. wesenlosen) Objekten und insbesondere Theorien von unmöglichen Objekten sind heftig kritisiert worden. In diesem Kapitel möchte ich einige der wichtigsten Argumente oder Einwände, die gegen diese Theorien vorgebracht wurden, darlegen und bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-8214-8_5 c543bf31acd5abcdebefb3e44df8da48;de;;;2.1.;;;Fragen der Mehrsprachigkeit bei der automatischen Generierung von Verwaltungslehrtexten In diesem Beitrag beschäftigen wir uns mit der Entwicklung eines Systems zur mehrsprachigen automatischen Generierung von Anweisungen im administrativen Bereich. Als Zielsprachen wurden Englisch, Italienisch und Deutsch und als Zieldomäne Rentenformulare gewählt. Wir beschreiben die zur Erstellung kohärenter und zusammenhängender Lehrtexte erforderlichen Wissensressourcen unter Berücksichtigung der Unterscheidung zwischen Wissen über die Kommunikation in einem bestimmten Bereich und allgemeinem Kommunikationswissen. Um domänenabhängiges Kommunikationswissen darzustellen, führen wir den Begriff der Kommunikationsschemata als eine Variante von Schemata ein, die die zentrale Rolle von Intentionen in der menschlichen Kommunikation berücksichtigt. Wir veranschaulichen einige Arten von sprachabhängigen Variationen, mit denen ein mehrsprachiges Erzeugungssystem in der Lage sein sollte.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-60437-5_2 15f6f39b57aa54aeae4cd3f74d9d737f;de;;;2.1.;;;Bayessche Aggregation versus Mehrheitsentscheidung bei der Charakterisierung von unspezifischen Armschmerzen basierend auf quantitativer Nadel-Elektromyographie Methoden zur Berechnung und Anwendung quantitativer elektromyographischer (EMG) Statistiken zur Charakterisierung von EMG-Daten, die von Unterarmmuskeln von Personen mit und ohne Schmerzen im Zusammenhang mit Verletzungen durch wiederholte Belastung erfasst wurden, werden vorgestellt.;-;-;-;https://link.springer.com/article/10.1186/1743-0003-7-8 6d11c7f64d05cb630f3b3781b6f96363;de;;;2.1.;;;Bevorzugte Aktionssemantik Das Nachdenken über Handeln und Wandel ist seit langem von besonderem Interesse für KI und Fragen der Wissensrepräsentation (vgl. [Sandewall und Shoham, 19941). Insbesondere die Frage, handlungsbedingte Veränderungen effizient und wirtschaftlich abzubilden, ohne explizit angeben zu müssen, was;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1741-0_16 d0c830bc037dcd81d4c7af818bc93d0c;de;;;2.1.;;;Patentanalyse und Klassifizierungsvorhersage der Biomedizinindustrie: SOM-KPCA-SVM-Modell In diesem Papier wurde die Anwendung eines kombinatorischen Modells des maschinellen Lernens auf die Klassifizierung und Prognose von Patentqualität in der biomedizinischen Industrie vorgeschlagen. Das Modell besteht aus drei Methoden: Self-Organizing Map (SOM), Kernel Principal Component Analysis (KPCA) und Support Vector Machine (SVM) und nennt es SOM-KPCA-SVM-Modell. Das in dieser Arbeit vorgeschlagene Modell wird in zwei Schritten implementiert. Zunächst gruppiert das SOM die Patentdaten und definiert die Patentebene. Zweitens werden die Patentdaten von KPCA reduziert, um das Rauschen zu verringern, und SVM wird auf die Patentdaten von KPCA angewendet, um die Klassifizierungsergebnisse abzuleiten. Die Studie sammelte 11.251 biopharmazeutische Patentdaten aus den Patenttransaktionsnachrichten. Nach dem Training des Patentqualitätsmodells wurden 2196 historische Patente verwendet, um die Leistung des Trainingsmodells zu überprüfen. Die Genauigkeit der Übereinstimmung zwischen experimentellen Ergebnissen und dem tatsächlichen Transaktionsstatus erreichte 84,13 %. Daher bewertet die vorgeschlagene Patentqualitätsmethode als vorläufige Screening-Lösung automatisch und effektiv die Qualität von Patenten. Diese Methode spart wertvolle Zeit für die Begutachtung von Experten, erleichtert die schnelle Identifizierung hochwertiger Patente und kann für die Entwicklung der Kommerzialisierung und Massenanpassung von Produkten verwendet werden.;-;-;-;https://link.springer.com/article/10.1007/s11042-019-7422-x a27e74a0d1cc6582e3fe8fd0da19f6f2;de;;;2.1.;;;Zygotische Embryogenese Zygote, die erste Zelle der sporophytischen Generation, ist ein Produkt der Befruchtung, der Verschmelzung einer weiblichen (Eizelle) und männlichen (Sperma) Gameten. Nach der Befruchtung beginnt die Zygote ihre charakteristische Art der Entwicklung (Embryogenese), die, ungestört durch äußere und innere Faktoren, eine normale Keimung und Nachkeimentwicklung sicherstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1203-3_9 a6f59f47b1a9d0cbd3af8127c3ccd2ff;de;;;2.1.;;;Ein XML-Ansatz zum semantischen Extrahieren von Daten aus HTML-Tabellen Datenintensive Informationen werden im Internet häufig im Format von HTML-Tabellen veröffentlicht. Das Extrahieren einiger der Informationen, die für die Benutzer von Interesse sind, aus dem Internet, insbesondere wenn eine große Anzahl von Webseiten aufgerufen werden muss, ist zeitaufwendig. Um die Prozesse der Informationsextraktion zu automatisieren, schlägt dieses Papier eine XML-Methode vor, um HTML-Tabellen semantisch auf die interessierenden Daten zu analysieren. Zunächst wird eine Minisprache in XML-Syntax eingeführt, um Ontologien zu spezifizieren, die die interessierenden Daten darstellen. Dann definiert es Algorithmen, die HTML-Tabellen in einen speziell definierten Typ von XML-Bäumen parsen. Die XML-Bäume werden dann mit den Ontologien verglichen, um den Teil der Tabelle oder verschachtelten Tabellen mit den interessanten Daten semantisch zu analysieren und zu lokalisieren. Schließlich werden interessante Daten, einmal identifiziert, als XML-Dokumente ausgegeben.;-;-;-;https://link.springer.com/chapter/10.1007/11546924_68 235d20ad63ed386aab028671f835cf5b;de;;;2.1.;;;Generieren optimaler Fuzzy-Wenn-Dann-Regeln unter Verwendung der Partition des Fuzzy-Eingaberaums Dieses Papier schlägt ein erweitertes Fuzzy-Entropie-basiertes Verfahren zum Auswählen einer optimalen Anzahl von Fuzzy-Regeln vor, um ein kompaktes Fuzzy-Klassifizierungssystem mit hoher Klassifikationsleistung zu konstruieren. Eine optimale Anzahl von Regeln wird durch die optimale Aufteilung des Eingaberaums über die erweiterte Fuzzy-Entropie erzeugt, um einen Index der Merkmalsbewertung bei Mustererkennungsproblemen zu definieren, wenn die Zuverlässigkeit eines Merkmals bei der Charakterisierung und Unterscheidung verschiedener Klassen zunimmt. Ein Satz unscharfer Wenn-Dann-Regeln wird in einen String codiert und in genetischen Algorithmen als Individuum behandelt. Die Fitness jedes Einzelnen wird durch die beiden Ziele spezifiziert. Die Leistungsfähigkeit der vorgeschlagenen Methode für Trainingsdaten und Testdaten wird durch Computersimulationen auf der chaotischen Zeitreihenvorhersage von Mackey-Glass untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27186-1_6 d9ef9721f31d921211cdb6ab3aa09314;de;;;2.1.;;;Wissen, Wissenssicherheit und Meta-Wissen Eine der sehr wichtigen Aktivitäten in einem Informationssicherheitskurs ist die Fallanalyse von Informationssicherheitsverletzungen. Dieses Papier befasst sich mit mehreren Aspekten von Wissenssicherheitsverletzungen. Die Fallstudie beschreibt die Art des gestohlenen Wissens und den Prozess von Verletzungen der Wissenssicherheit. Das Meta-Wissen über die Verletzung der Wissenssicherheit wird ebenfalls identifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87783-7_31 939228401ca98caa8326a979f9d7ef7c;de;;;2.1.;;;Ein allgemeines Fuzzy-Parsing-Schema für die Spracherkennung In diesem Beitrag wird eine Spracherkennungsmethodik vorgeschlagen, die auf der allgemeinen Annahme der „Unschärfe“ sowohl von Sprachdaten als auch von Wissensquellen basiert. Neben diesem allgemeinen Prinzip gibt es weitere Grundannahmen, die auch der vorgeschlagenen Methodik zugrunde liegen: 'Modularität' in der Wissensorganisation, 'Homogenität' in der Repräsentation von Daten und Wissen, 'Passivität' des 'Verstehensflusses' (kein Backtraking oder Feedback) und 'Parallelismus' bei der Erkennungsaktivität.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82447-0_17 afc5ce21b0181b4b4b04dba0a044f7a8;de;;;2.1.;;;GA-PPI-Net: Ein genetischer Algorithmus für die Community-Detektion in Protein-Protein-Interaktionsnetzwerken Community Detection ist zu einer wichtigen Forschungsrichtung für das Data Mining in komplexen Netzwerken geworden. Es zielt darauf ab, topologische Strukturen zu identifizieren und Muster in komplexen Netzwerken zu entdecken, was ein wichtiges Problem von großer Bedeutung darstellt. In dieser Arbeit interessieren wir uns für den Nachweis von Gemeinschaften in Protein-Protein- oder Gen-Gen-Interaktions-(PPI)-Netzwerken. Diese Netzwerke stellen eine Reihe von Proteinen oder Genen dar, die bei derselben zellulären Funktion zusammenarbeiten. Ziel ist es, solche semantischen und topologischen Gemeinschaften aus Gen-Annotationsquellen wie Gene Ontology zu identifizieren. Wir schlagen einen auf einem genetischen Algorithmus (GA) basierenden Ansatz vor, um Gemeinschaften unterschiedlicher Größe aus PPI-Netzwerken zu erkennen. Dazu führen wir drei spezifische Komponenten in die GA ein: eine Fitnessfunktion basierend auf einem Ähnlichkeitsmaß und dem Interaktionswert zwischen Proteinen oder Genen, eine Lösung zur Darstellung einer Gemeinschaft mit dynamischer Größe und einen spezifischen Mutationsoperator. In den in dieser Arbeit durchgeführten rechnerischen Tests erzielte der vorgestellte Algorithmus hervorragende Ergebnisse, um bestehende oder sogar neue Gemeinschaften aus PPI-Netzwerken zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-52991-8_7 da199b005e180abcb171bf05fdcc9835;de;;;2.1.;;;Interorganisationale Kontrollen als Wertobjekte in Netzwerkorganisationen Organisationsübergreifende Kontrollen sind Maßnahmen, um sicherzustellen und zu überwachen, dass vernetzte Unternehmen keinen Betrug begehen und sich wie vereinbart verhalten. Viele dieser Kontrollen haben neben ihrem Kontrollzweck eine inhärente;-;-;-;https://link.springer.com/chapter/10.1007/11767138_23 47fb70315b480eb69e8771c7e81150b0;de;;;2.1.;;;Intelligente optimale Steuerung in Aluminiumelektrolyt Intelligente Steuerung wird bei Aluminiumelektrolyseprozessen immer wichtiger. Dieses Papier untersucht den Betrieb bestehender Aluminiumelektrolytsteuersysteme und erläutert die Probleme, denen sich die Aluminiumelektrolysesteuerung gegenübersieht. Es wendet dann die Ontologie-Theorie an, um die Datenanalyse und Modellierung der intelligenten Steuerung von Aluminiumelektrolyten im gesamten Prozess zu leiten. Durch die Anwendung datengetriebener und semi-überwachter Methoden zur Analyse von Aluminiumelektrolyseprozessen wurde ein Expertenwissen zur intelligenten Aluminiumelektrolysesteuerung gewonnen. Auf Basis der Kombination aus Expertensystem, neuronalem Netz und intelligentem Zeitreihendatenvorhersagealgorithmus gelingt dieser Expertenwissensbasis die adaptive Steuerung von Aluminiumelektrolyseprozessen in Echtzeit. Es bewirkt, dass sich die Konzentration des Aluminiumoxids in Übereinstimmung mit den aktuellen Zellen- und Arbeitsbedingungen ändert, wodurch ermöglicht wird, dass die Bedingungen ein geeignetes Niveau beibehalten oder sich zumindest in diese Richtung entwickeln. Abschließend wurde die Machbarkeit und Wirksamkeit des intelligenten Steuerungssystems im langjährigen Praxisbetrieb überprüft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27948-5_36 62261fbbc91a683d2a289dfce4b1e449;de;;;2.1.;;;Intelligente Steuerung und Überwachung basierend auf Fuzzy-Petri-Netzen Der Bereich der Künstlichen Intelligenz (KI) verkörpert mittlerweile ein breites Spektrum an Werkzeugen und Techniken, die die Darstellung und Manipulation von Wissen ermöglichen. Mit der Weiterentwicklung sowohl der Computerhardware als auch der Software wird KI auch weiterhin tiefgreifende Auswirkungen auf Bereiche wie die Prozesssteuerung haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-5498-7_8 a1998f2d816eceb8b0156d768f16fb73;de;;;2.1.;;;Besiedelungs- und Verfallsprozesse in römischen Mörsern durch Cyanobakterien, Algen und Flechten Die Mörtel, die einige Mauern der römischen Stadt Baelo Claudia (Cadiz, Spanien) bedecken, unterstützen eine reichliche Besiedlung von Cyanobakterien, Algen und Flechten. Die Verbreitung dieser Organismen hängt eng mit mikroklimatischen Parametern zusammen. Darüber hinaus hängen die Entwicklung, spezifische Zusammensetzung und Biomasse von kryptoendolithischen Algengemeinschaften mit der Wandorientierung zusammen. Die Auswirkung dieser Gemeinschaften auf die Mörtelzerstörung wird diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF02248118 5145f36965ed52c57936c910d688ba5b;de;;;2.1.;;;Semantische Trajektorien: Ein Überblick von der Modellierung bis zur Anwendung Die Analyse von Trajektoriendaten ist in letzter Zeit zu einem aktiven Forschungsgebiet geworden. Dies liegt an der großen Verfügbarkeit von mobilen Tracking-Sensoren, wie beispielsweise GPS-fähigen Smartphones. Diese GPS-Tracker liefern jedoch nur rohe Trajektorien (x, y, t) und ignorieren Informationen über die Aktivität, den Transportmodus usw. Diese Informationen können dazu beitragen, signifikantes Wissen über Bewegungen zu erzeugen, das rohe Trajektorien in semantische Trajektorien umwandelt. Daher hat sich die Forschung in letzter Zeit auf semantische Trajektorien, ihre Darstellung, Konstruktion und Anwendungen konzentriert. Dieser Beitrag untersucht die bisherigen Studien zu semantischen Trajektorien. Wir schlagen ein neues Klassifikationsschema für die Forschungsbemühungen zur Konstruktion und Anwendung semantischer Trajektorien vor. Das vorgeschlagene Klassifikationsschema umfasst drei Hauptklassen: semantische Trajektorienmodellierung, Berechnung und Anwendungen. Außerdem diskutieren wir die aktuellen Forschungslücken in diesem Forschungsbereich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16667-4_4 336266371f6ea9ae8cf236620a241bc7;de;;;2.1.;;;Semantische Inferenz unter Verwendung von Chemogenomics-Daten für die Wirkstoffforschung Die Semantic Web Technology (SWT) ermöglicht die Integration und Suche der großen Menge an Life-Science-Datensätzen im öffentlichen Bereich, wie bekannte Linked-Data-Projekte wie LODD, Bio2RDF und Chem2Bio2RDF zeigen. Die Integration dieser Sets schafft große Informationsnetzwerke. Wir haben zuvor ein Tool namens WENDI beschrieben, um Informationen über neue chemische Verbindungen zu aggregieren und effektiv Beweiswege zu schaffen, die die Verbindungen mit Genen, Krankheiten usw. in Verbindung bringen. In diesem Papier untersuchen wir den Nutzen der automatischen Ableitung neuer Assoziationen von zusammengesetzten Krankheiten (und damit neuer Verbindungen im Netzwerk) basierend auf semantisch markierten Versionen dieser Evidenzpfade, Regelsätze und Inferenzmaschinen.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-12-256 5db00640d5e6e156e045c26b1cee7558;de;;;2.1.;;;Metonymie in der modernen figurativen Theorie Im vorigen Kapitel haben wir gesehen, dass die Mehrzahl der Metonymiestudien in der klassischen Rhetorik die Trope als einen Prozess der Substitution behandelten, der hauptsächlich Wörter umfasst, und somit die Macht der Trope auf sprachliche Substitution reduziert. Darüber hinaus wurde Metonymie nur auf lexikalischer Ebene als Substitutionsprozess behandelt. Ich habe gezeigt, dass dies in beiderlei Hinsicht eine enge Sichtweise ist: Wie im Laufe dieses Buches gezeigt wird, ist Metonymie nicht nur ein Prozess der Wortsubstitution oder ein Prozess, der nur auf die lexikalische Ebene beschränkt ist. Dieses Kapitel untersucht das Wesen und die Funktion der Metonymie in der modernen figurativen Theorie. Es soll untersucht werden, ob und inwieweit moderne Konten diese beiden wichtigen Aspekte der Metonymie erfassen konnten. Das Wort „modern“ im Titel dieses Kapitels bezieht sich insbesondere auf die Arbeiten im Bereich der Metonymie von den frühen 1950er Jahren bis heute. In den frühen 1950er Jahren begannen Versuche, strukturelle Techniken auf das Studium der Literatur und der figurativen Sprache anzuwenden. Es ist allgemein anerkannt, dass die Strukturanalyse der figurativen Sprache dem Feld der Figuration in Bezug auf die Systematisierung zugute gekommen ist und den Weg für die Schaffung einer modernen Rhetorik geebnet hat. Dies soll keineswegs die Werke von I.A. Richards (1936) und K. Burke (1945), die das Studium der Rhetorik gewissermaßen revolutionierten und ihr neue Einsichten gaben.;-;-;-;https://link.springer.com/chapter/10.1057/9781403938909_3 db7519b31661d441ccfaf4dca11028ec;de;;;2.1.;;;Überarbeiten des Vokabulars von Geschäftsprozesselement-Labels Es wurden verschiedene Methoden zur Verhaltensanalyse von Geschäftsprozessmodellen vorgeschlagen, die die Aufgabe der Überprüfung der Korrektheit des Modells durch den Prozessmodellierer verringern. Obwohl ein korrektes Verhalten attestiert wurde, kann das Prozessmodell dennoch nicht umsetzbar sein, weil der Modellierer oder der beabsichtigte Benutzer in seinem Verständnis behindert ist (und daher z. B. zögert, das Prozessmodell wiederzuverwenden). Dieses Papier befasst sich mit der Verbesserung des Verständnisses von Prozesselement-Labels durch Überarbeitung ihres Vokabulars. Prozesselementbezeichnungen sind entscheidend für eine angemessene Zuordnung zwischen der Symbolinstanz und der realen Welt. Wenn Benutzer die Bezeichnungen der Prozesselemente nicht (vollständig) verstehen, kann eine falsche Vorstellung vom tatsächlichen Prozess entstehen. Um das Verständnis von Elementlabels zu verbessern, werden Algorithmen vorgestellt, die auf gemeinsamen Hinweisen basieren, wie geschriebene Wörter effektiv erkannt werden können. Ergebnisse einer empirischen Studie weisen auf eine Bevorzugung solcher überarbeiteten Prozesselementbezeichnungen hin.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19069-3_5 75cf8cc011331cbada5db9426b972a1a;de;;;2.1.;;;Biomarker für Brustkrebs: Auf dem Weg zu klinisch relevanten Instrumenten Die Heterogenität von Brustkrebs stellt eine große Hürde dar, um das Überleben der Patientinnen zu verbessern. Ungeachtet seiner potentiellen Heilbarkeit aufgrund der Verfügbarkeit von Behandlungsmodalitäten, die bei Vorliegen günstiger klinischer oder pathobiologischer Merkmale wirksam sind, gibt es immer noch viele Kontroversen in seiner klinischen Behandlung. In den letzten Jahrzehnten wurden Tumorbiomarker, die auf bösartige Zellmerkmale hinweisen oder mit diesen verwandt sind, wie Selbstversorgung mit proliferativen Wachstumssignalen, Unempfindlichkeit gegenüber wachstumshemmenden Signalen, Vermeidung von Apoptose, grenzenloses Replikationspotenzial, Aktivierung von Signalwegen, die zu Neo- Angiogenese, Invasion und Metastasierung haben Informationen geliefert, die nachweislich mit dem Fortschreiten der Krankheit in Zusammenhang stehen. Bei Einzelanalyse war ihre prognostische Relevanz jedoch bescheiden, und die einzigen verbliebenen klinisch nützlichen Biomarker sind die Zellproliferation und die Plasminogenaktivierungsfaktoren für die Prognose, Steroidhormonrezeptoren und HER2/neu zur Vorhersage des Ansprechens auf hormonelle oder neue zielgerichtete Anti- HER2/neu-Therapie bzw. Es bleibt daher notwendig, die intrinsische Komplexität von Brustkrebs zu reduzieren, um das klinische Ergebnis zu verbessern. Ein Weg, dieses Ziel zu erreichen, ergibt sich direkt aus dem Konzept, dass Krebs eine genetische Krankheit auf somatischer Ebene ist, und aus der jüngsten Verfügbarkeit postgenomischer Hochdurchsatz-Analysewerkzeuge wie Gen- und Proteinexpressionstechniken für die globale Genexpressionsanalyse. Das aus Genexpressions-Profiling-Studien gewonnene Wissen ist beeindruckend und stellt die derzeit verwendete Brustkrebsklassifikation und bestehende Theorien über die Metastasierung und die Brustkrebsbiologie in Frage. Mehrere Studien, die diese Technologie verwenden, haben konsistent eine molekulare Klassifikation für Brustkrebs reproduziert, in der: (1) Östrogenrezeptorstatus und Tumorgrad die wichtigsten Unterscheidungsmerkmale der Untergruppen der Genexpression sind, (2) Tumore in mindestens vier Untergruppen eingeteilt werden können je nach Steroidrezeptor- und HER2/neu-Status (3) hat jede Untergruppe von Tumoren ein unterschiedliches klinisches Ergebnis und kann daher unterschiedlich auf verschiedene Behandlungen ansprechen. Darüber hinaus wurden prognostische Genexpressionssignaturen vorgeschlagen, die herkömmliche klinische Risikoklassifizierungssysteme übertreffen, was auf die Möglichkeit hindeutet, die Überbehandlung bei Brustkrebs im Frühstadium zu reduzieren, obwohl die Identifizierung von Hochrisikopatientinnen noch verbessert werden muss. Eine Reihe neuerer Studien wurde darauf ausgerichtet, verschiedene klinische und biologische Fragen zu beantworten. Trotz anfänglicher Begeisterung wurden jedoch in letzter Zeit Zweifel an der Zuverlässigkeit von Genexpressionsprofilen für klinische Anwendungen geäußert, und die Ergebnisse dieser neuartigen Studien müssen noch durch die Zusammenarbeit verschiedener Spezialisten und die Integration all der verschiedenen Fähigkeiten, die an translationalen Verfahren beteiligt sind, bestätigt werden Forschung in der Onkologie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36781-9_3 bd69a5851f3f274a5ad3b10e1fdf5f67;de;;;2.1.;;;Rein synthetische und domänenunabhängige Populationen mit garantierter Konsistenz in Die Ausarbeitung künstlicher Wissensbasen kann eine clevere Lösung darstellen, um neue semantikbasierte Infrastrukturen vor deren Einsatz zu testen, und eine wertvolle Unterstützung beim Design einiger Prototypen. Eine große Herausforderung bei solchen synthetischen Datengenerierungen besteht darin, den Erwerb fundierter Wissensgrundlagen zu gewährleisten, die einem Turing-Test gleichwertig sind. Aus diesem Grund müssen Populationen eingeschränkt werden, um die Konsistenz bis zu einem bestimmten Fragment der Expressivität zu gewährleisten. In einer früheren Arbeit haben wir eine erste Version eines Populators veröffentlicht, der die Konsistenz garantiert und die darauf basierenden Wissensdatenbanken befüllt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-90596-9_6 723be1700f714484ec36807d41952686;de;;;2.1.;;;Regelauswahl für die kollaborative Entwicklung von allgegenwärtigen Smart Devices: Grober satzbasierter Ansatz Im Vergleich zu allgemeinen Mobilgeräten zeichnet sich Ubiquitous Smart Device (USD) durch seine Fähigkeit aus, Kontextdaten für autonome Dienste zu generieren oder zu verwenden, und bietet Benutzern personalisierte und situationsbezogene Schnittstellen. Während die USD-Entwicklung eine wissensintensivere und kollaborativere Umgebung erfordert, werden die Erfassung, der Abruf, die Zugänglichkeit und die Wiederverwendbarkeit dieses Designwissens immer wichtiger. In der Designkollaboration werden die kumulativen, evolutionären Designinformationen und Designregeln hinter dem USD-Design selten erfasst und aufgrund seiner Komplexität oft schwer zu überwinden. Die grobe Mengenlehre synthetisiert die Annäherung von Konzepten, analysiert Daten durch das Entdecken von Mustern und klassifiziert in bestimmte Entscheidungsklassen. Solche Muster können mit Hilfe von Methoden, die auf Boolescher Argumentation und Erkennbarkeit basieren, aus Daten extrahiert werden. In diesem Papier generiert eine grobe Mengentheorie geforderte Regeln und wählt die geeigneten minimalen Regeln aus den geforderten Regeln, die mit dem Design physischer USD-Komponenten verbunden sind. Die vorgestellte Methode zeigt die Machbarkeit einer groben Regelauswahl unter Berücksichtigung komplexer Designdatenobjekte physischer USD-Komponenten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69293-5_31 6d37db32efd48a0412281be23e816ff7;de;;;2.1.;;;Zusammenstellung und Vereinfachung von zeitlichen Integritätsbedingungen Der Artikel präsentiert ein neuartiges Kompilierungsschema für zeitliche Integritätsbedingungen und deduktive Regeln, die in einer intervallbasierten temporalen Logik erster Ordnung ausgedrückt werden. Die Kompilierung erstellt einen Abhängigkeitsgraphen mit vereinfachten Formen der Einschränkungen und Regeln. Dies ermöglicht die Vereinfachung der Kompilierungszeit der Formeln, die zur Laufzeit verifiziert werden müssen, sowie die Vorberechnung möglicher impliziter Aktualisierungen. Wir zeigen, wie vereinfachte Formen in Bezug auf Transaktionen erhalten werden können, die aus willkürlichen Sequenzen grundlegender Aktualisierungen bestehen. Zusätzliche Optimierungsschritte nutzen die Organisation vereinfachter Formen in Abhängigkeitsgraphen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-60365-4_132 65b3328cee77796928a8d4c89a89541d;de;;;2.1.;;;Eine Neuklassifizierung von WC- und „O VI“-Zentralsternen planetarischer Nebel und Vergleich mit Population I WC-Sternen Wir haben eine Untersuchung von WC-Zentralsternen planetarischer Nebel begonnen, einschließlich „0 VI“-Objekten, die WC-Eigenschaften aufweisen. Einer unserer Zwecke war es, entlang der gesamten WC-Spektralsequenz zu überprüfen, ob die Emissionslinien von Planetenkernen schmaler sind als für Objekte der Population I, wie dies im Fall des WC9-Zentralsterns BD+30°3639 (Smith und Aller) der Fall ist 1971).;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-7910-9_60 bc64d99ceba8ff933059b2efbbc4118f;de;;;2.1.;;;InterPro Proteinklassifizierung Verbesserungen in der Nukleotidsequenzierungstechnologie haben dazu geführt, dass immer mehr Nukleotid- und Proteinsequenzen in Datenbanken hinterlegt werden. Leider kann die Möglichkeit, diese Sequenzen manuell zu klassifizieren und mit Anmerkungen zu versehen, nicht mit ihrer schnellen Generierung Schritt halten, was zu einer verstärkten Tendenz zu nicht kommentierten Sequenzen führt. Automatische Anmerkungswerkzeuge können helfen, das Gleichgewicht wiederherzustellen. Es gibt eine Reihe verschiedener Gruppen, die daran arbeiten, Proteinsignaturen zu erstellen, die Proteinfamilien, funktionelle Domänen oder konservierte Stellen innerhalb verwandter Proteingruppen beschreiben. Proteinsignaturdatenbanken umfassen CATH-Gene3D, HAMAP, PANTHER, Pfam, PIRSF, PRINTS, ProDom, PROSITE, SMART, SUPERFAMILY und TIGRFAMs. Ihre Ansätze reichen von der Charakterisierung kleiner konservierter Motive, die Mitglieder einer Familie oder Unterfamilie identifizieren können, bis hin zur Verwendung von Hidden-Markov-Modellen, die die Konservierung von Resten über ganze Domänen oder ganze Proteine ​​hinweg beschreiben. Um ihren Wert als Proteinklassifizierungstools zu steigern, wurden Proteinsignaturen aus diesen 11 Datenbanken in einem leistungsstarken Annotationstool kombiniert: der InterPro-Datenbank (;-;-;-;https://link.springer.com/protocol/10.1007/978-1-60761-977-2_3 eb31b1caf75b6f86ec2218c34e838360;de;;;2.1.;;;Concept Maps: Integration von Wissen und Informationsvisualisierung Informationsvisualisierung ist seit vielen Jahren ein Forschungsthema und hat zu einem ausgereiften Feld geführt, in dem Richtlinien und Praktiken gut etabliert sind. Im Gegensatz dazu ist die Wissensvisualisierung ein relativ neues Forschungsgebiet, das aufgrund des Interesses der Wirtschaft am Wissensmanagement in letzter Zeit mehr Aufmerksamkeit erhalten hat. In diesem Beitrag stellen wir die CmapTools-Software als Beispiel dafür vor, wie Concept Maps, ein Tool zur Wissensvisualisierung, mit moderner Technologie kombiniert werden kann, um eine Integration zwischen Wissens- und Informationsvisualisierungen zu ermöglichen. Wir zeigen, wie mit Concept Map-basierten Wissensmodellen Informationsrepositorien so organisiert werden können, dass sie leicht durchsucht werden können, und wie Concept Maps Suchalgorithmen für das Web verbessern können. Wir berichten auch darüber, wie Informationen zur Ergänzung von Wissensmodellen genutzt werden können und basierend auf den Suchalgorithmen den Prozess der Erstellung von Concept Maps verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/11510154_11 7600fdd7413bd7da519b3354c64bffc2;de;;;2.1.;;;Auf dem Weg zu nutzerzentrierten E-Learning-Systemen Die Technologien für den Fernunterricht expandieren mit enormer Geschwindigkeit. Zu oft sind Lehrplaner und Lehrplanentwickler von den neuesten Technologien gefesselt, ohne sich mit den zugrunde liegenden Problemen der Merkmale und Bedürfnisse der Lernenden auseinanderzusetzen. Durch den Einsatz von Techniken zur Verbesserung der Personalisierung können Designer die Effizienz von E-Learning-Systemen noch stärker steigern als durch den Einsatz neuer experimenteller Lehrmethoden und gleichzeitig die Bereitstellungskosten niedrig halten. Eine der Methoden besteht darin, Benutzern ein vollständig personalisiertes System bereitzustellen. Das in diesem Papier beschriebene DisCo-Projekt versucht, neue Personalisierungsfunktionen zu implementieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36189-8_9 6f1cdec3bbcceeb02ee9208fe5eb369d;de;;;2.1.;;;Computational Trust and Reputation Management Computational Trust and Reputation Management hat mittlerweile eine 20-jährige Tradition. Da diese Dienste eng an E-Umgebungen gekoppelt sind, fiel ihr Bedarf mit der Verbreitung des E-Business-Paradigmas ab den 1990er Jahren zusammen. Je größer die Verbreitung von E-Umgebungen ist, desto größer ist folglich der Bedarf an solchen Diensten. Wenn Vertrauen und Reputation in verschiedenen Bereichen unseres Lebens eine so wichtige Rolle spielen, können E-Umgebungen keine Ausnahme sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-62374-0_3 85ac7d94198602c97d9f6bb11b05c028;de;;;2.1.;;;Die wirbellosen Gemeinschaften Im gesamten Gebiet des Stechlinersees, insbesondere aber in Bezug auf den Stechlinersee, wurden teilweise Untersuchungen zu Wirbellosengemeinschaften durchgeführt. Das Kapitel fasst wichtige Ergebnisse detaillierter Untersuchungen über einen langen Zeitraum zusammen, die von mehreren Forschern in den Zeiträumen vor und nach der Inbetriebnahme des Kernkraftwerks durchgeführt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-5506-6_7 cdd56e17d02c14174659419054a6c280;de;;;2.1.;;;Die Evolution der Nodulation In diesem Review werden wir zunächst die verschiedenen Schritte beschreiben, die zur Knöllchenbildung führen, und diese mit Prozessen der nicht-symbiotischen Pflanzenentwicklung und des Wachstums verglichen. Im Allgemeinen werden Aspekte sowohl der aktinorhizialen als auch der rhizobialen Symbiose beschrieben, aber in einigen Fällen wird der Schwerpunkt auf der;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4221-2_9 e2d16cce0ec944f9eef019dcbb2b78ca;de;;;2.1.;;;Algorithmusforschung von Netzwerkkursdesign basierend auf persönlichem Lernen Der Aufbau der Netzwerkkurse auf der Grundlage des personalisierten Lernens ist ein wichtiger Weg, um den individuellen Anforderungen der Lernenden gerecht zu werden und die Qualität des Netzwerkunterrichts zu verbessern. Am Beispiel der Applied Technology of Single Chip Processor analysiert dieser Beitrag die gegenwärtigen Probleme von Netzwerkkursen, beschreibt die Besonderheiten von Netzwerkkursen auf der Grundlage des personalisierten Lernens und diskutiert die Grundgerüste von Netzwerkkursen, die gezielt persönliches Lernen realisieren. Darüber hinaus bietet es verwandte Algorithmen zur Gestaltung von Netzwerkkursen auf der Grundlage des personalisierten Lernens, wobei die Web-Mine-Technologie und die Ontologie-Technologie die entscheidenden sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31656-2_123 85dfc48d47c0f9757f0e9f8e78fcf4b3;de;;;2.1.;;;Geologische Datenerweiterung für Metrotunnel-BIM-Modell mit dem Linked-Data-Ansatz Viele frühere Untersuchungen haben gezeigt, dass unter den üblichen Erweiterungsmechanismen zur Erweiterung geologischer Daten in U-Bahn-Tunnel die Linked Data als der am besten geeignete Ansatz bewertet wird. In diesem Beitrag wird insbesondere der technische Entwicklungsprozess für die Building Information Modeling (BIM) Modellerweiterung mit Linked Data hervorgehoben. Der vorgeschlagene Prozess wurde auch anhand einer funktionalen Fallstudie demonstriert und verifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-0011-0_10 1bb8b19a1614fcda6f323511edb9bc49;de;;;2.1.;;;Beschreiben und Organisieren von Semantic Web Services Die semantische Organisation und Beschreibung von Webservices ist eine wichtige Voraussetzung, um die automatische Zusammenstellung von Webservices zu ermöglichen. Die Zahl der im Web verfügbaren Webdienste ist groß und ändert sich ständig. Darüber hinaus können sich Dienstanbieter an verschiedenen Orten auf der Welt befinden. Schließlich können der große Umfang, die Dynamik und die Heterogenität von Webdiensten jeden Versuch, ihre Semantik zu „verstehen“ und sie daher auszulagern, behindern. Dies erfordert Techniken, um Webdienste so zu organisieren, dass sie effizient „verstanden“ und ausgelagert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-8465-4_3 a9e5437b75d1b50fa32a3c35aa805154;de;;;2.1.;;;Interaktive Kodierung von Antworten auf offene Fragen auf Russisch Wir schlagen eine interaktive Technik vor, um die Antworten auf offene Fragen zu kategorisieren. Die offene Frage erfordert eine Antwort in natürlicher Sprache. Eine typische Analyse der Phrasen beginnt mit ihrer „Codierung“, d. h. der Identifizierung der Themen der Antworten und der Kennzeichnung der Antworten mit den Themen, die sie repräsentieren. Die vorgeschlagene Codierungstechnik basiert auf interaktiver Clusteranalyse. Wir untersuchen theoretisch und empirisch die hierarchischen (agglomerativen, divisiven) und partitionierten Clustering-Algorithmen, um den besten für kurze russische Antworten auszuwählen. Wir adressieren das Problem der kurzen Phrasenspärlichkeit mit Thesaurus-Glättung. Wir führen einen iterativen Prozess ein, bei dem Benutzer Feedback zu einem Clustering-Ergebnis geben können. Für das Feedback der Nutzer wird ein domänenorientiertes Aussagesystem entwickelt. Das System ist nachweislich in der Lage, beliebige Cluster bereitzustellen, die der Benutzer wünscht. Die Technik ist als Webservice für Antworten in russischer Sprache implementiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24543-0_15 9b427c2ec5ccca74d67635eb489db3ab;de;;;2.1.;;;Postkartesische Entwicklungen des Weges der Ideen Eine monistische Lösung der kartesischen Probleme wird in Descartes’ eigenen Schriften vorgeschlagen. Hinsichtlich der Wechselwirkung zwischen den Stoffen sind sie für Descartes den von Gott geschaffenen Stoffen gleich. Und obwohl er diesen Geist betont;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-2962-9_7 d1322d436accec45466e74629c695708;de;;;2.1.;;;Leistungssteigerndes hybrides künstliches neuronales Netzwerk für die Klassifikation abnormaler Netzhautbilder Künstliche Neuronale Netze (KNN) gewinnen im medizinischen Bereich für diagnostische Anwendungen immer mehr an Bedeutung. Die Popularität von KNN ist hauptsächlich auf die hohe Genauigkeit und die nominale Konvergenzrate zurückzuführen. Der größte Nachteil besteht jedoch darin, dass diese charakteristischen Merkmale nicht gleichzeitig im selben Netzwerk verfügbar sind. Während überwachte neuronale Netze sehr genau sind, ist der Bedarf an Konvergenzzeit hoch. Andererseits sind unüberwachte neuronale Netze ausreichend schneller, aber weniger genau. Dieses Problem wird in dieser Arbeit angegangen, indem ein modifiziertes neuronales Netz (MNN) vorgeschlagen wird, das die Merkmale sowohl des überwachten neuronalen Netzes als auch des unüberwachten neuronalen Netzes besitzt. Die Anwendbarkeit dieses Netzwerks wird im Zusammenhang mit der Klassifikation abnormaler Netzhautbilder untersucht. In dieser Arbeit werden Bilder aus vier abnormalen Kategorien wie nicht-proliferative diabetische Retinopathie (NPDR), choroidale Neovaskularisationsmembran (CNVM), zentrale seröse Retinopathie (CSR) und zentrale retinale Venenverschluss (CRVO) verwendet. Aus diesen Bildern werden geeignete Merkmale extrahiert und für den Trainings- und Testprozess des vorgeschlagenen KNN weiter verwendet. Experimentelle Ergebnisse werden hinsichtlich der Klassifikationsgenauigkeit und Konvergenzrate analysiert. Die experimentellen Ergebnisse werden auch mit Ergebnissen konventioneller Netze wie dem Back Propagation Network (BPN) und dem Kohonen Network (KN) verglichen. Die Ergebnisse des vorgeschlagenen modifizierten KNN sind hinsichtlich der Leistungskennzahlen vielversprechend.;-;-;-;https://link.springer.com/chapter/10.1007/978-81-322-1038-2_31 ad20f410fd02f015fbdb4b0442254e6e;de;;;2.1.;;;Datenschutzprobleme bei Geospatial Visual Analytics Visuelle und interaktive Techniken können die Privatsphäre vor besondere Herausforderungen stellen, indem sie es einem menschlichen Analytiker ermöglichen, Daten mit Kontext, bereits vorhandenem Wissen und zusätzlichen Informationen aus verschiedenen Quellen zu verknüpfen. Anders als bei der Computeranalyse müssen relevante Kenntnisse und Informationen nicht in strukturierter Form dargestellt werden, um von einem Menschen effektiv genutzt werden zu können. Darüber hinaus können Menschen solche Muster und Beziehungen feststellen, die mit Computertechniken schwer zu formalisieren und zu erkennen sind. Die Datenschutzfragen insbesondere im Zusammenhang mit dem Einsatz visueller und interaktiver Methoden werden derzeit weder in den Bereichen Visualisierung und Visual Analytics noch im Bereich Data Mining und Computational Analysis untersucht. Diese Lücke muss geschlossen werden, was konzertierte interdisziplinäre Anstrengungen erfordert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24198-7_16 db757020dcda1e871578acfa671490d7;de;;;2.1.;;;Erkennung lateinischer medizinischer Terminologie in kroatischen Texten Unabhängig von der Hauptsprache von Texten im medizinischen Bereich gibt es immer Hinweise auf die Verwendung von lateinischen Wörtern und prägenden Elementen in der Terminologieentwicklung. Im Allgemeinen bietet diese Verwendung sprachspezifische morphosemantische Verhaltensweisen bei der Bildung sowohl technisch-wissenschaftlicher als auch allgemein verwendeter Wörter. Dennoch scheint diese Verwendung des Lateinischen in kroatischen medizinischen Texten nicht konsistent zu sein, da auf denselben Begriff unterschiedliche Mechanismen der Wortbildung angewendet werden können. In unserem Bestreben, alle verschiedenen Vorkommen desselben Konzepts auf nur ein Konzept abzubilden, schlagen wir ein Modell vor, das in NooJ entwickelt wurde und auf Wörterbüchern und morphologischen Grammatiken basiert. Ausgehend von der manuellen Erkennung von Substantiven und deren Variationen erkennen wir einige Wortbildungsmechanismen und entwickeln geeignete Grammatiken, um Latinismen und kroatinisierte lateinische medizinische Terminologie zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-10868-7_4 f098b361d2a41310b999534b54fedd2e;de;;;2.1.;;;Semantic Markup für Semantic Web Tools: Eine DAML-S-Beschreibung eines RDF-Stores Die einfache Integration vorhandener Tools wird ein wesentlicher Erfolgsfaktor für die Zukunft des Semantic Web sein. Wir gehen davon aus, dass semantische Beschreibungen der Werkzeuge selbst eine wichtige Rolle bei der Lösung dieses Problems spielen werden. Motiviert durch diese Vision verwendeten wir DAML-S (eine Schlüsselinitiative zur Unterstützung der automatisierten Verwaltung von Webdiensten), um Sesame (eine RDF(S)-Speicher- und Abfrage-Engine) zu beschreiben. In diesem Papier werden die wichtigsten Probleme, auf die wir gestoßen sind, sowie Lösungsvorschläge erörtert. Diese Arbeit ist für andere Semantic Web-Forschungsgruppen relevant, die ihre Werkzeuge annotieren oder annotierte Werkzeuge verwenden möchten. Außerdem hoffen wir, der DAML-S-Koalition bei der Weiterentwicklung ihres Standards hilfreiche Impulse zu geben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39718-2_18 848fc3b964518f9c665306d50711c708;de;;;2.1.;;;Auswirkungen der Urbanisierung auf Struktur und Funktion des Flusssystems Urbanisierung kann den physikalischen Prozess des Flusswachstums beeinflussen, die Flussstruktur verändern und die Funktionen des Flusssystems weiter beeinflussen. Shanghai ist eine der größten Städte der Welt und liegt im Changjiang (Yangtze) River Delta in China. Seit den 1970er Jahren wird das gesamte Flusssystem in Shanghai von der Shanghai Water Authority geplant und verwaltet. Die primären Managementziele der letzten 30 Jahre waren die Verbesserung der Bewässerung und des Hochwasserschutzes. Unter Verwendung der Horton-Strahler-Klassifikation und der Horton-Gesetze als Referenz wurde eine neuartige Methode der Bachklassifikation in Verbindung mit den traditionellen und speziell entwickelten Indikatoren zum Verständnis der Struktur und Funktionen des Flusssystems in Shanghai angewendet. Die Korrelationsanalyse wurde verwendet, um die Wechselbeziehungen zwischen den Indikatoren zu identifizieren. Es wurde festgestellt, dass die Auswirkungen der Urbanisierung auf das Flusssystem erheblich waren, obwohl Naturgesetze und physikalische Eigenschaften ein hochentwickeltes Flusssystem kennzeichneten. Es gab einen offensichtlichen Zusammenhang zwischen dem Verstädterungsgrad und den abnormalen Werten einiger Indikatoren. Die Auswirkungen der Urbanisierung auf das Flusssystem, wie z. B. das Ausarbeiten von Zweigen, das Betonieren von Flussufern und die geringe Vielfalt der Flussstile, wurden weithin beobachtet. Jeder Indikator hatte eine unterschiedliche Sensibilität für die Urbanisierung, sodass sie verwendet werden konnten, um unterschiedliche Merkmale des städtischen Flusssystems zu beschreiben. Die Funktionsindikatoren hatten einen signifikanten Bezug zu den Strukturindikatoren. Die Flussstruktur, beschrieben durch die fraktale Dimension und die Komplexität des Flusssystems, war für die Aufrechterhaltung der Multifunktion des Flusses ebenso wichtig wie das Wasserflächenverhältnis.;-;-;-;https://link.springer.com/article/10.1007/s11769-006-0002-9 b4d7c4318a6c04e3ddcd907a43187cd2;de;;;2.1.;;;Der IPUMS-Ansatz zur Harmonisierung der Daten der Weltbevölkerungszählung IPUMS integriert Zensus-Mikrodaten aus der ganzen Welt in eine konsistente Datenbank und harmonisiert variable Codes über einen Zeitraum von 60 Jahren länderübergreifend. Die Variablen in den von den nationalen statistischen Ämtern bereitgestellten Dateien verwenden eine Vielzahl von Klassifikationsschemata. Um vergleichende Forschung zu ermöglichen, muss man mit dieser empirischen Realität vorklassifizierter Mikrodaten umgehen. Ziel ist es, Ordnung zu schaffen und den Detailverlust zu minimieren. Dieses Papier beschreibt die allgemeinen Prinzipien, denen IPUMS im Harmonisierungsprozess folgt. Er erörtert die Herausforderung, internationale Standards auf demografische Daten anzuwenden, die über einen langen Zeitraum von Dutzenden statistischer Ämter erstellt wurden. Die bevorzugte Strategie beinhaltet die Verwendung zusammengesetzter Codes, bei denen führende Ziffern für eine Variable im Allgemeinen länderübergreifend gelten und nachfolgende Ziffern Details enthalten, die nicht allgemein verfügbar sind. Dieser Ansatz ist jedoch nicht immer praktikabel, und das Papier beschreibt eine Reihe anderer Strategien, um die vielfältigen Herausforderungen zu bewältigen, die sich aus der internationalen Harmonisierung von Bevölkerungsdaten ergeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3311-2_39 ccb11746bdfce831c23c1f57d712acde;de;;;2.1.;;;Eine Klassifikation interaktiver Muster zwischen zugrunde liegenden Programmen und Aspekten Aspektorientierte Programmierung trennt bereichsübergreifende Anliegen von Kerngeschäftsanliegen. Um diese beiden Kategorien zu integrieren, wird Aspekten, die bereichsübergreifende Anliegen umfassen, eine gewisse Fähigkeit gegeben, die zugrunde liegenden Programme zu beeinflussen, die Kerngeschäftsanliegen umfassen. In diesem Papier schlagen wir eine Klassifizierung der interaktiven Muster zwischen zugrunde liegenden Programmen und Aspekten vor und decken den Einfluss auf die zugrunde liegenden Programme auf, den Aspekte in diesen interaktiven Mustern ausüben. Gemäß dieser Klassifikation untersuchen wir die interaktiven Muster, die von Ad-hoc-AOP-Sprachen oder -Frameworks unterstützt werden, und die interaktiven Muster, die in AOP-Lösungen für einige typische Querschnittsthemen verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-2386-6_21 3f7a231c0ae6d37866929c0e28a4a46d;de;;;2.1.;;;MiSCi: Autonomic Reflective Middleware für Smart Cities Die Kontextanalyse in intelligenten Umgebungen ermöglicht es, die Dienste und Informationen ubiquitär zur Verfügung zu stellen, um die Aktivitäten von Einzelpersonen zu unterstützen. Unter dieser Prämisse definieren wir Smart Cities, also intelligente Großumgebungen mit großen Datenmengen, die dazu dienen, die Lebensqualität ihrer Bürger zu verbessern. Die Smart Cities unterstützen unter anderem Aktivitäten zur Verbesserung von Verkehr, Gesundheit, Regierung und Geselligkeit. Dieser Vorschlag zielt darauf ab, aus der Vision intelligenter Umgebungen, die als intelligente Agenten modelliert werden, eine Middleware für Smart Cities zu schaffen, die an die vorhandene Dynamik in einer Stadt angepasst werden kann, unter Verwendung neuer Ontologien, die sich nicht nur an den aktuellen Kontext und in Echtzeit aber auf unvorhergesehene Situationen (emerging) reagieren. Ebenso sollte die Middleware eine Skalierbarkeit der Umgebung ermöglichen, um die Leistung sowohl in kleinen Großstädten aufrechtzuerhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48024-4_19 e681d26728a954accaad8e10d53dec90;de;;;2.1.;;;Soft-Set-Ansatz für das Mining mit maximalen Assoziationsregeln In diesem Beitrag wird ein alternativer Ansatz für das Mining von maximalen Assoziationsregeln aus einer transaktionalen Datenbank unter Verwendung der Soft-Set-Theorie vorgeschlagen. Der erste Schritt des vorgeschlagenen Ansatzes basiert auf der Darstellung einer Transaktionsdatenbank als Soft-Set. Basierend auf der weichen Menge kann der Begriff des gleichzeitigen Auftretens von Elementen in einer Transaktion definiert werden. Die Definitionen von weichen maximalen Assoziationsregeln, maximaler Unterstützung und maximaler Konfidenz werden unter Verwendung des Konzepts des gleichzeitigen Auftretens von Items präsentiert. Es wird gezeigt, dass durch die Verwendung der Soft-Set-Theorie die entdeckten maximalen Regeln identisch und schneller im Vergleich zu traditionellen Ansätzen mit maximalen und groben maximalen Assoziationsregeln sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10583-8_19 39293e7a0c70a395c023689682fcd52d;de;;;2.1.;;;Verwenden von Farbkomponentenüberlagerungen für die Ergebnisvisualisierung in einer Klassifikation nach Skizzensystem Geographische Informationssysteme (GIS) sind für fachfremde Benutzer bekanntermaßen schwierig, sowohl bei der Formulierung von Abfragen als auch bei der Interpretation von Anzeige und Ergebnissen. Gaia ist ein grafisches Klassifizierungssystem, das diese Schwierigkeit reduziert, indem es eine skizzenartige Eingabeschnittstelle für die Klassifizierung nach Beispiel, einen Fuzzy-Match der Klassifizierung mit der GIS-Datenbank und die Verwendung von Farbton- und Sättigungsüberlagerungen zur Darstellung der Ergebnisse verwendet. Diese Arbeit stellt die Schnittstelle und den Mechanismus der Ergebnisvisualisierung von Gaia vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-25931-2_51 440d606a8ef1ecc80e4e16449ad58852;de;;;2.1.;;;Hierarchische Klassifizierung von Dokumenten mit Fehlerkontrolle Klassifizierung ist eine Funktion, die ein neues Objekt mit einer der vordefinierten Klassen abgleicht. Die Dokumentenklassifizierung zeichnet sich durch die Vielzahl von Attributen aus, die an den Objekten (Dokumenten) beteiligt sind. Die traditionelle Methode, einen einzelnen Klassifikator zu erstellen, um die gesamte Klassifikationsarbeit zu erledigen, würde einen hohen Overhead verursachen. Die hierarchische Klassifizierung ist eine effizientere Methode – anstelle eines einzelnen Klassifikators verwenden wir einen Satz von Klassifikatoren, die über a . verteilt sind;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45357-1_46 5e5acf6acca2a5f71369a9cfb0540e12;de;;;2.1.;;;Kontextgetriebene und serviceorientierte semantische Mediation in der DaaS-Komposition In diesem Beitrag präsentieren wir einen kontextgesteuerten Ansatz zum automatischen Einfügen geeigneter Vermittlungsdienste in Data-as-a-Service (DaaS)-Kompositionen, um eine Datenkonvertierung zwischen verbundenen Diensten durchzuführen. Wir schlagen ein Kontextmodell vor, das über Conflicting Aspect Ontology ausgedrückt wird, um die Semantik von DaaSs genauer zu beschreiben. Basierend auf dem Kontextmodell spezifizieren wir die Vermittlungsdienste, die die Transformation von DaaS-Parameterwerten zwischen Kontexten durchführen. Anschließend entwickeln wir einen effizienten Algorithmus, um semantische Konflikte zwischen Diensten in der DaaS-Komposition zu erkennen und zu lösen. Eine Implementierung demonstriert die Anwendbarkeit unseres Vorschlags.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30567-2_8 1d567cdc343e6c907d3370b822085116;de;;;2.1.;;;Ein heuristisches Modell zur Behandlung von vagen Zeitbeschreibungen In diesem Beitrag stellen wir ein heuristisches Modell vor, das in der Lage ist, mit vagen Zeitreferenzen und Modifikatoren umzugehen. Grundsätzlich tritt Unbestimmtheit auf zwei verschiedene Arten auf: Eine Referenz kann unvollständig sein oder der Grad der Konkretheit kann gering sein. Um diesen Informationsmangel zu überwinden, schlagen wir die Anwendung von Ausfällen und Wahrscheinlichkeitsverteilungen zur Berechnung von Möglichkeitsschätzungen über die zeitliche Konstellation von Ereignissen vor. Es wird davon ausgegangen, dass konzeptionelle Beschreibungen von Zeitreferenzen aus natürlichsprachlichen Ausdrücken ableitbar sind. Sie werden auf eine geeignete numerische Form abgebildet, die die Vereinheitlichung von Beschreibungen mit verschiedenen Arten von Einheiten und Konkretheit ermöglicht. Einige Operationen sind so definiert, dass sie Argumentationsprozesse realisieren, um angemessene Erwartungen an Ereignisse zu bestimmen, die durch mehrere zeitliche Beschreibungen gekennzeichnet sind. Wie wir zeigen werden, bietet diese Methode eine Grundlage für die Behandlung von Fragen zu möglichen Ereignissen, die nicht mit einem Wahr/Falsch-Mechanismus beantwortet werden können. Abschließend werden einige Ideen zur Verbalisierung der numerischen Darstellung diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-46552-9_7 c3aeb87af21f1a1eb0bc57cebe801783;de;;;2.1.;;;Community-basiertes emotionales Verhalten unter Verwendung der Emotionalen Skala von Ekman In der heutigen Zeit gehört die Analyse von Social-Network-Daten zu den herausfordernden Aufgaben. Soziale Netzwerke werden als grafische Struktur dargestellt, wobei die Benutzer als Knoten behandelt werden und die Kanten die soziale Bindung zwischen den Benutzern darstellen. In der Analyse sozialer Netzwerke werden Forschungen wie Community-Identifikation, Erkennung von Zentralität, Erkennung von Betrug, Vorhersage von Links und viele andere soziale Probleme durchgeführt. Die Community spielt jedoch eine wichtige Rolle bei der Lösung wichtiger Probleme in einem realen Szenario. In einer Community-Struktur sind Knoten innerhalb einer Community dicht verbunden, während Knoten zwischen den Communitys spärlich verbunden sind. Die Bestimmung des emotionalen Verhaltens von Communities ist das Hauptanliegen, da uns das emotionale Verhalten der Community hilft, Probleme wie die Erreichbarkeit der Marke zu lösen, die Zielgruppe zu finden, die Markenbekanntheit aufzubauen und vieles mehr. Die emotionale Skala von Ekman ist ein beliebtes kategoriales Modell, das davon ausgeht, dass es eine endliche Anzahl von grundlegenden und diskreten Emotionen gibt, und wird verwendet, um die Emotionen zu klassifizieren. In diesem Beitrag wird eine neuartige Methode vorgeschlagen, um das gemeinschaftsspezifische emotionale Verhalten der Nutzer zu einem bestimmten Thema zu bestimmen. Gemeinschaften werden auf der Grundlage der Netzwerktopologie und nicht auf der Grundlage von Emotionen gebildet. Der Girvan Newman-Algorithmus wird verwendet, um die Gemeinschaften verschiedener Benutzer zu erstellen, die ihre Ansichten auf Twitter-Medienplattformen zu einem Thema teilen. Dann wird die emotionale Skala von Ekman verwendet, um die Emotionen der Benutzer jeder Community zu kategorisieren. Dies identifiziert, wie die Menschen verschiedener Gemeinschaften auf einen Vorfall reagieren. Der Vorfall kann als NEWS/Trend-Threads auf Twitter/Facebook-Shares behandelt werden. Die emotionale Analyse erfolgt gemeinschaftsspezifisch, sodass die Verhaltensanalyse eines Vorfalls speziell für diese Gemeinschaft durchgeführt wird. Darüber hinaus zeigt die umfassende experimentelle Analyse, dass die vorgeschlagene Methodik einflussreiche Gemeinschaften konstruiert und emotionale Analysen effizient durchführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37484-6_4 00d2209b6359a4b2186a1a1518d9649f;de;;;2.1.;;;Synchronisierte Lieferung und Wiedergabe von verteilten gespeicherten Multimedia-Streams Multimedia-Streams wie Audio und Video unterliegen engen zeitlichen Beschränkungen für ihre Darstellung. Häufig müssen verwandte Multimedia-Streams wie Audio und Video synchronisiert dargestellt werden. Wir führen ein neuartiges Schema ein, um die kontinuierliche und synchrone Bereitstellung von;-;-;-;https://link.springer.com/article/10.1007/s005300050112 8d1d8bba061d80dc7f1a57090bd56286;de;;;2.1.;;;Parameterauswahl für Support Vector Machine basierend auf Partikelschwarmoptimierung In diesem Beitrag wird ein SVM-Klassifizierungssystem basierend auf Partikelschwarmoptimierung (PSO) vorgeschlagen, um die Generalisierungsleistung des SVM-Klassifikators zu verbessern. Die Autoren haben das Design des SVM-Klassifikators optimiert, indem sie nach dem besten Wert der Parameter gesucht haben, die seine Diskriminanzfunktion abstimmen. Die Experimente werden auf Basis von Benchmark-Datensätzen durchgeführt. 14 erhaltene Ergebnisse bestätigen eindeutig die Überlegenheit des PSO-SVM-Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09333-8_5 c0991bae291662c762e88cfaee87c5f5;de;;;2.1.;;;Regionen und ihre typischen Paradigmen für den Boden- und Wasserschutz in China China erlebt Konflikte zwischen seiner großen Bevölkerung und knappem Ackerland sowie zwischen der Forderung nach hoher Produktivität und der starken Bodenerosion von Ackerland. Seit 1949 hat sich China dem Boden- und Wasserschutz (SWC) verpflichtet, für den acht Regionen und 41 Subregionen entwickelt wurden, um die Umwelt zu verbessern und die Landproduktivität zu steigern. Informationen aus der Regionalplanung und den Strategien für SWC zu erhalten und zu untersuchen, ob SWC-Praktiken gleichzeitig zum Bodenschutz, zur Ökosystemfunktion und zur Lebensgrundlage der lokalen Landwirte beitragen und die erfolgreichen Erfahrungen verschiedener SWC-Paradigmen mit unterschiedlichen Eigenschaften und Mechanismen des Bodens zusammenfassen Erosion stellt dieses Papier systematisch sieben SWC-Regionen (ohne die tibetische Hochebene) und 14 typische SWC-Paradigmen vor und konzentriert sich dabei auf Erosionsmechanismen und die wichtigsten Herausforderungen oder Themen in den sieben Regionen sowie auf die Kernprobleme, Hauptziele, Schlüsseltechnologien, und die Leistung der 14 typischen Paradigmen. Zusammenfassend lässt sich sagen, dass die 14 typischen SWC-Paradigmen die lokale Bodenerosion erfolgreich verhindern und kontrollieren und die Lebensgrundlagen der lokalen Bauern weitgehend verbessert oder zumindest nicht beeinträchtigt haben. In den sieben SWC-Regionen müssen jedoch noch viele Herausforderungen und Probleme in Bezug auf SWC und sozioökonomische Entwicklung angegangen werden. China hat daher noch einen langen Weg vor sich, um das Win-Win-Ziel der SWC und die menschlichen Aspekte der Entwicklung erfolgreich zu erreichen.;-;-;-;https://link.springer.com/article/10.1007/s11769-020-1139-7 f0e77b1e28b3a45de2f635c52e5c25c0;de;;;2.1.;;;Kombinieren von Transformation und Klassifikation zum Erkennen von Textfolgen In diesem Beitrag wird ein Ansatz vorgestellt, der Transformations- und Klassifikationsmethoden zur Erkennung von textuellem Entstehen kombiniert. Im Transformationsmodell werden gerichtete und ungerichtete Inferenzbeziehungen erkannt, und Textfragmente mit solchen Beziehungen im Text werden durch die Gegenstücke in der Hypothese ersetzt. Im Klassifikationsmodell wird ein hybrider Kernel-basierter Ansatz eingeführt, und drei Arten von Merkmalen werden zur Klassifikation von Folgerungen verwendet. Experimentelle Ergebnisse zeigen, dass der Kombinationsansatz im Vergleich zum Einzelklassifikationssystem eine bessere Leistung erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6473-0_22 7f9eef51f98ec1d3389392f580b6afff;de;;;2.1.;;;Eine hierarchische selbstorganisierte Klassifikation „multinationaler“ Unternehmen Die Einteilung von Entitäten, beispielsweise in Nationalstaaten, in soziale Gruppen, in Wirtschaftsunternehmen und in wissenschaftliche Taxa, ist ein dauerhaftes Problem im neuronalen Computing. In diesem Papier betrachten wir die Probleme, mit denen Forscher bei der Entwicklung einer Taxonomie der „Multinationalität“ konfrontiert sind, und untersuchen die Verwendung hierarchischer SOMs bei der „Entdeckung“ einer Taxonomie multinationaler Unternehmen (MNCs).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88906-9_59 cf3400ddcafd34a824942fba3bf5206a;de;;;2.1.;;;Überprüfen Sie die Auswahl basierend auf der Inhaltsqualität Von Verbrauchern generierte Bewertungen werden in Entscheidungsprozessen für Kunden immer wichtiger. In der Zwischenzeit macht es die überwältigende Menge an Bewertungsdaten extrem schwierig, nützliche Informationen daraus zu finden. Eine beträchtliche Anzahl von Studien hat versucht, dieses Problem anzugehen, indem Rezensionen ausgewählt wurden, die für Benutzer hilfreich und von ihnen bevorzugt werden könnten. Die Leistung bestehender Methoden ist jedoch alles andere als ideal. Ein Grund dafür ist das Fehlen wirksamer Kriterien zur Beurteilung der Qualität von Bewertungen. In diesem Beitrag schlagen wir zwei neuartige Messgrößen vor, nämlich Merkmalsrelevanz und Merkmalsumfang, um die Qualität von Rezensionen in Bezug auf den Rezensionsinhalt zu beurteilen. Es wird ein Bewertungsauswahlansatz vorgestellt, um basierend auf den beiden Maßnahmen eine Reihe von Bewertungen mit hoher Qualität auszuwählen. Experimente mit realen Review-Datensätzen zeigen, dass unsere vorgeschlagene Methode die Review-Qualität effektiv bewerten kann, um die Leistung der Review-Auswahl zu verbessern.;-;-;-;https://link.springer.com/article/10.1007/s10115-020-01474-z 3c3f84cee210449e004515755b53fc95;de;;;2.1.;;;Kategorisierung von Bangla Medical Textdokumenten basierend auf hybriden internen Merkmalen Dieses Papier zielt darauf ab, ein automatisches Textkategorisierungssystem zu entwickeln, das medizinische und nicht-medizinische Textdokumente aus Bangla auf der Grundlage von zwei Hauptmerkmalen klassifiziert, nämlich der Wortlänge und dem Vorhandensein englisch-äquivalenter Wörter in den Textdokumenten. Zunächst hat sich gezeigt, dass medizinische Textdokumente aus Bangla anhand der Wortlänge und der Anzahl der in einem bestimmten Text vorhandenen englischen äquivalenten Wörter unter anderen Textdokumenten jeder Domäne identifiziert werden können. Der Klassifikationsalgorithmus SGD (Stochastic Gradient Descent) wird verwendet und eine Genauigkeit von 97,75 % wurde erreicht. Es wurden auch Vergleiche mit anderen häufig verwendeten Klassifikatoren durchgeführt, um das System zu testen, bei dem beobachtet wurde, dass SGD besser abschneidet als diese Klassifikatoren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-8581-0_15 ac90215cf261735f2850cc58ef03a356;de;;;2.1.;;;Intelligenter und kollaborativer Q&A-Mechanismus basierend auf Lerngemeinschaften Q&A ist ein sehr wichtiger Schritt in einem Lernprozess. Dieses Papier analysiert einige Probleme bei Fragen und Antworten, mit denen sowohl Lehrende als auch Lernende beim E-Learning konfrontiert sind, und schlägt einen neuartigen Frage-und-Antwort-Mechanismus vor, der automatische Fragen und Antworten mit kollaborativen Frage-und-Antwort-Technologien kombiniert. Im Detail schlägt dieses Papier eine intelligente Antwortmaschine vor, die semantische Wörter, Schlüsselwörter und deren jeweilige Gewichtung verwendet, um das Merkmal einer Frage zu beschreiben, eine Richtlinie zur umgekehrten Abstraktion von Schlüsselwörtern und einen Algorithmus zum Abgleichen von Fragen Lernende mit ausreichend hoher Anmeldehäufigkeit, niedrigem Fragenaufkommen und in derselben Lerngemeinschaft, in der alle Lernenden ähnliche Interessen haben, und ein Fördermechanismus für kollaborative Fragen und Antworten. Durch diesen neuartigen Q&A-Mechanismus hofft dieses Papier, eine zeitnahe Antwort auf die Frage eines Lernenden zu geben und die Belastung der Lehrkräfte zu verringern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22418-8_51 cc374ba817e019b634eace2315bf5ad9;de;;;2.1.;;;Eine Methode zur Bewertung der Folgen des Versagens von Bauteilen in Offshore-Plattformstrukturen vom Typ Mantel Die Bestimmung der Bedeutung eines Bauteils für ein Tragwerk ist ein notwendiger Teil eines zuverlässigen Entwurfs. Die Bedeutung eines Elements kann durch Berechnen der Verhaltensänderung des Tragwerks bei Ausfall des Elements bestimmt werden. Sobald die Bedeutung des Stabes bekannt ist, sollte der Stab auf rationale Weise kategorisiert werden, damit ähnliche Stäbe mit dem gleichen Systemkonsequenzfaktor entworfen werden können. Um die Bedeutung eines Bauteils für ein Tragwerk zu bestimmen, ist ein rechentechnisch effizienter Algorithmus zur Neuanalyse der Tragstruktur erforderlich, damit die Konstruktionskosten nicht zu hoch werden. In diesem Beitrag werden ein Reanalysealgorithmus und ein vorgeschlagenes Klassifizierungssystem für die Mitglieder in Offshore-Plattformen vom Manteltyp vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0008922 866be691819a591ed34b9fc98bc0af22;de;;;2.1.;;;Ein Ansatz zur Sicherung und Validierung von Geschäftsprozessen basierend auf definierten Enterprise Security Ontology-Kriterien Die Kriterien der Sicherheitsontologie sind de-facto ein wesentlicher Bestandteil der Service Oriented Architecture (SOA), die eine sichere Orchestrierung der organisatorischen Dienste unter Berücksichtigung der neuen Sicherheitsaspekte garantiert. Quality of Service (QoS) ist eine Reihe von Standards und Algorithmen, die verwendet werden, um die Leistung eines Dienstes durch Überwachung von qualitätsbeeinflussenden Faktoren zu messen. In diesem Papier sichern und validieren wir die Geschäftsprozesse durch die Einführung eines Frameworks und eines Sicherheits-Tags. Das Sicherheits-Tag wird verwendet, um bestimmte Dienstgütekriterien der Infrastruktur innerhalb der Geschäftsprozesse eines Unternehmens darzustellen. Dies wird erreicht, indem die Leistung der Infrastruktursicherheitskomponenten und der Geschäftsprozess durch ein auf Unternehmensinfrastruktur basierendes Sicherheitstoken korreliert werden, das in der BPEL-Datei in neu eingeführten Attributen dargestellt wird. Das Framework wendet dann seinen entwickelten Algorithmus an, um die Kriterien der Unternehmenssicherheits-Ontologie zu validieren, indem es die bereitgestellte Unternehmens-WSS-Sicherheit und die berechneten Intervalle für die (QoS)-Durchsatzkoeffizienten der Sicherheitskomponenten der Unternehmensinfrastruktur verwendet, und gibt Konsistenzwertindikatoren sowohl für den WSS als auch für den Token aus Wert im BPEL angegeben. Wir haben die Framework-Funktionalität anhand einer echten Fallstudie einer reichhaltigen und sicheren Bankenumgebung getestet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22410-2_5 acbb39769dbeabbc0987fbd8aed6a746;de;;;2.1.;;;Anwenden von Semantic Capability Matching in Verzeichnisdienststrukturen von Multi-Agent-Systemen In diesem Papier stellen wir ein semantisch angereichertes Capability-Matching-Modell für Agentendienste vor. Unsere Vision ist es, sowohl Agenten- als auch Semantic-Web-Services zu integrieren und die Interoperabilität von Agenten unter der Semantic-Web-Erweiterung bereitzustellen. In Systemarchitekturen mit mehreren Agenten gibt es einen speziellen Agenten oder Dienst, der als Verzeichnisvermittler bezeichnet wird und dafür verantwortlich ist, das Wissen über die von den Agenten bereitgestellten Dienste innerhalb des Systems zu halten. Andere Agenten fragen im Directory Facilitator nach Agenten, die die erforderlichen Dienste bereitstellen. Daher ist die automatisierte Diensterkennung in Multi-Agent-Systemen ein kritischer Punkt. Hier schlagen wir eine passende Engine-Architektur vor, in der die Fähigkeiten von Agent-Services semantisch behandelt werden und Agent-Service-Anfragen mit . beantwortet werden;-;-;-;https://link.springer.com/chapter/10.1007/11569596_48 c325d773d3482bbfbf7852888781fd91;de;;;2.1.;;;Kognitive Schemata Dieser Teil befasst sich mit methodischen und philosophischen Fragen der Kulturanthropologie unter Nutzung der jüngsten Entwicklungen in den kognitiven Studien. Der Kognitivismus, als allgemeiner Ansatz der Kulturanthropologie konzipiert, zielt darauf ab, Verhalten durch Prozesse kognitiver Systeme zu erklären. Es lassen sich zwei Erklärungsstrategien unterscheiden: die intentionale Verhaltenserklärung und die strukturelle Erklärung mittels kognitiver Schemata. Von diesen beiden Strategien ist die strukturelle Erklärung von vitalem Interesse in der Kulturanthropologie und wird dementsprechend hier ausführlicher behandelt. Der Begriff der Rationalität wird in beiden Erklärungsstrategien eine zentrale Rolle spielen. Die absichtliche Erklärung geht davon aus, dass die Dynamik des Systems rechtmäßig und verständlich ist, die strukturelle Erklärung geht davon aus, dass die Schemata zur Steuerung der Dynamik auf einigen einfachen Regeln aufgebaut sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1141-8_3 72385797de86268243111cb3bcdff378;de;;;2.1.;;;Automatische Bewertungstechnik für bestimmte Arten offener Fragen in semantischen Lernsystemen In diesem Papier schlagen wir eine Methodik vor, um die Evaluationswerkzeuge in semantischen Lernsystemen zu verbessern. Ziel unseres Vorschlags ist es, zwei Arten von offenen Fragen in Hybridprüfungen zu bewerten. Die vorgeschlagene Technik im ersten Typ MOQ (Multi Operations Question) verwendet das Matrixkonzept für den Fuzzy-Score. POQ (Proof Open Question) ist jedoch komplizierter, daher verwenden wir eine direkte Verbindung zu Lernobjekten, die ontologiebasiert gespeichert wurden. Berücksichtigen Sie auch die Abhängigkeit zwischen Lernobjekten, damit wir die universelle Ontologie mit der Gewichtsmatrix verschmelzen.;-;-;-;https://link.springer.com/article/10.1186/2192-1962-3-19 584bcacf447d80e6cf08b9ee4bea6b1d;de;;;2.1.;;;Ein formaler Rahmen zur Modellierung von kontextsensitivem Verhalten in Ubiquitous Computing Ein formaler Rahmen zur Kontextualisierung von Ontologien, der in [3] vorgeschlagen wurde, bietet mehrere Möglichkeiten, Ontologien, Kontexte oder beides zusammenzustellen. Die vorgeschlagene Algebra kann verwendet werden, um Anwendungen zu modellieren, bei denen die Bedeutung einer Entität von Umgebungsbedingungen abhängt oder bei denen dynamische Veränderungen in der Umgebung berücksichtigt werden müssen. In diesem Artikel verwenden wir diese Algebra, um das Problem der Interpretation von Kontextinformationen in ubiquitären Systemen anhand eines konkreten Szenarios zu formalisieren. Das Hauptziel besteht darin, einerseits zu überprüfen, wie der formale Ansatz zu einem besseren Verständnis der grundlegenden Konzepte des Ubiquitous Computing beitragen kann, und andererseits, ob dieser formale Rahmen flexibel und reichhaltig genug ist, um spezifische Eigenschaften von die konkrete Anwendungsdomäne und das Szenario.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88479-8_37 b057399c56c3ecaeffc9482e5982158a;de;;;2.1.;;;Menschliche und maschinelle Urteile für die russische semantische Verwandtschaft Die semantische Verwandtschaft von Begriffen repräsentiert die Ähnlichkeit der Bedeutung durch eine numerische Bewertung. Einerseits fällen Menschen leicht Urteile über die semantische Verwandtschaft. Andererseits ist diese Art von Information in Sprachverarbeitungssystemen nützlich. Während für das Englische die semantische Verwandtschaft mit zahlreichen Sprachressourcen, wie z. Unser Beitrag adressiert dieses Problem. Wir präsentieren fünf Sprachressourcen unterschiedlichen Umfangs und Zwecks für die semantische Verwandtschaft des Russischen, wobei jede eine Liste von Tripeln ist;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-52920-2_21 18ce08e67ee0f874714d7869db8552b4;de;;;2.1.;;;Kriminalitätsstatistiken erkunden Ziel dieses Kapitels ist es, die raumzeitlichen Kriminalitätsmuster in der Metropolregion Dhaka (DMA) zu analysieren. Kriminalitätsdaten für den Zeitraum August 2011 bis Juli 2012 wurden von der Dhaka Metropolitan Police (DMP) erhoben. Neben deskriptiven Statistiken wurde eine räumliche Musteranalyse durch lokale Indikatoren der räumlichen Autokorrelation (LISA) durchgeführt. Es wurde eine lineare Regression unter Verwendung der Kriminalitätsrate als abhängige Variable und zehn soziodemografischen Faktoren als potenzielle erklärende Variablen durchgeführt. Die deskriptive Analyse zeigte deutliche zeitliche Schwankungen, wobei die Vormonsunzeit die höchsten Kriminalitätsvorkommen aufwies. Darüber hinaus gibt es drei zentrale Kriminalitäts-Hotspots der Kriminalität. Die multivariate Regressionsanalyse zeigte, dass die Größe der männlichen Bevölkerung und die Armutsrate die besten Prädiktoren für die Kriminalitätsrate in DMA waren, jedoch legte die einfache Regression nahe, dass die Gesamtbevölkerung, die Anzahl der Männer und die Größe der Arbeitslosigkeit in den Polizeibezirken ebenfalls geeignete Prädiktoren sind. Unseres Wissens ist dies die erste Studie, die räumliche Techniken zur Analyse der Kriminalität in DMA einsetzt, und die Ergebnisse dieser Arbeit sollten für die informierte Entscheidungsfindung der Strafverfolgungsbehörden sowie der zuständigen Behörden, deren Aufgabe es ist, zunehmende kriminelle Aktivitäten zu verhindern, wertvoll sein. in Dhaka.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-6735-5_14 76fd51f16d95df5fd057e397afcadec8;de;;;2.1.;;;Entropie, Information, Leben Es ist alltäglich geworden, organisches Leben als „antientropisch“ zu bezeichnen. Was diejenigen, die diesen Ausdruck verwenden, im Sinn haben, ist das beobachtete Ordnungswachstum sowohl im Verlauf der individuellen als auch der gesamten evolutionären Entwicklung. In dieser Hinsicht ist ein lebender Organismus ganz anders als ein System, das nach dem zweiten Hauptsatz der Thermodynamik zu einem Zustand maximaler Entropie, maximaler Unordnung neigt. Dieser auffallende Unterschied diente als Inspiration für eine Reihe von Veröffentlichungen, die die Anwendbarkeit des zweiten Hauptsatzes auf lebende Systeme ablehnten. Solche Veröffentlichungen sind jedoch unwissenschaftlich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0346-0078-1_8 ade170e2918c4bc8cbbc70fee5c97df4;de;;;2.1.;;;Neuronale Substrate der visuellen Bewegungswahrnehmung Der Zweck dieser Arbeit besteht darin, eine kurze Zusammenfassung neuerer Ideen und Daten zu den neuronalen Substraten der Bewegungswahrnehmung zu geben. Diese Zusammenfassung ist weder umfassend noch enthält sie die umfangreiche einschlägige Literatur zur menschlichen Psychophysik. Es gibt mehrere aktuelle detaillierte und herausragende Übersichtsartikel, die auch die Bewegungswahrnehmung behandeln, insbesondere die Übersichtsartikel von Grüsser und Grüsser-Cornellis (1975) sowie von Sekuler, Pantle und Levinson (1978). Diese Übersichtsarbeiten versuchen, die vielen physiologischen Befunde zu berücksichtigen, die für die Bewegungswahrnehmung relevant sein können. Mehrere frühere, weniger physiologische Übersichten sind auch in grundlegenden Referenztexten und Handbüchern verfügbar, z. B. Walls (1942), Johansson (1970), Graham (1963) usw., auf die der Leser als allgemeiner Hintergrund verwiesen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-3569-6_7 df89b88bfab86d93552054217b800ca4;de;;;2.1.;;;Die grundlegende WSML-Sprache Die Web Service Modeling Language WSML [68] ist eine konkrete formale Sprache basierend auf dem konzeptionellen Modell von WSMO [57], das wir im vorherigen Kapitel beschrieben haben. Als solches bietet es eine Sprache zur Beschreibung von Ontologien, Zielen, Webdiensten, Mediatoren und deren Wechselbeziehungen in der von WSMO vorgesehenen Weise. Neben der Bereitstellung einer Ontologiesprache zur Verwendung mit der Webservice-Beschreibung ermöglicht WSML auch die Verwendung der Semantic-Web-Ontologiesprachen RDF-Schema [28] und OWL (DL) [46] (siehe auch Abschnitt 2.2) zur Beschreibung der in Ziel- und Webservice verwendeten Terminologien Beschreibungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68172-4_4 306ea36de08900dc5b0f9e45516955bc;de;;;2.1.;;;Die Wirkung von Regelbewertungsmetriken als Konfliktlösungsstrategie Es ist entscheidend, dass jede durch einen maschinellen Lernalgorithmus induzierte Regel mit einem oder mehreren numerischen Werten verknüpft ist, die ihre Eigenschaften wie Genauigkeit, Abdeckung und Wahrscheinlichkeit widerspiegeln können. Die Anhäufung dieser Eigenschaften sind die sogenannten Bewertungsmetriken. Diese Metriken sind sowohl für Regelinduktionssysteme (zum Stoppen der Regelerzeugung) als auch für Regelklassifizierungssysteme (zum Lösen von Regelkonflikten) wichtig. In diesem Artikel werden die wichtigsten statistischen und empirischen Regelbewertungsmetriken beschrieben. Danach präsentiert das Papier einen Ansatz, der die Auswirkungen dieser Metriken als Regelkonfliktlösungsstrategie während Klassifikationsaufgaben nutzt und zeigt, wenn zwei heterogene Klassifikatoren kombiniert werden (Naive Bayes (im Folgenden, NB) und Entscheidungsbaum J48). Um dieses Ziel zu erreichen, haben die Autoren den Regelsatz aus J48 extrahiert und eine neue Methode zur Regelkonstruktion aus NB vorgestellt. Es wurden Experimente mit (WBC, Vote und Diabetes) Datensätzen durchgeführt. Die experimentellen Ergebnisse zeigen, dass unterschiedliche Bewertungsmetriken einen unterschiedlichen Einfluss auf die Klassifizierungsgenauigkeit haben, wenn sie als Konfliktlösungsstrategie verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-55340-1_8 b0b5ff9a59471347db46501dee0960d5;de;;;2.1.;;;Fortschritte bei der Mikrowellen-Fernerkundung von Landoberflächenparametern Hochgenaue Beobachtungen in verschiedenen Maßstäben auf der Landoberfläche werden dringend für die Untersuchung vieler Bereiche wie Hydrologie, Meteorologie und Landwirtschaft benötigt. Mit der rasanten Entwicklung von Fernerkundungstechniken hat die Fernerkundung die Fähigkeit gehabt, viele Faktoren der Landoberfläche der Erde zu überwachen. Insbesondere die weltraumgestützten Mikrowellen-Fernerkundungssysteme werden mit ihren Allwetter- und Allzeitbeobachtungsfähigkeiten und ihrer Empfindlichkeit gegenüber den Eigenschaften von Landoberflächenfaktoren weit verbreitet bei der quantitativen Überwachung globaler Schnee-, Bodenfeuchtigkeits- und Vegetationsparameter eingesetzt. Basierend auf den elektromagnetischen Theorien und Mikrowellen-Strahlungsübertragungsgleichungen haben Forscher in den letzten Jahren große Erfolge bei den Mikrowellen-Fernerkundungsstudien für verschiedene Sensoren erzielt. Dieser Artikel hat die Fortschritte in fünf Forschungsbereichen systematisch überprüft, darunter theoretische Mikrowellenmodellierung, Mikrowelleninversion bei Bodenfeuchtigkeit, Schnee, Vegetation und Landoberflächentemperaturen. Durch die weitere Anreicherung von Fernerkundungsdatensätzen und die Entwicklung von Fernerkundungstheorien und Inversionstechniken wird die Fernerkundung einschließlich der Mikrowellenfernerkundung eine wichtigere Rolle in den Studien und Anwendungen der Erdsysteme spielen.;-;-;-;https://link.springer.com/article/10.1007/s11430-012-4444-x a6f9572b12ebe6a6fdd8633b5bb894a7;de;;;2.1.;;;Konzept der Struktur- und Zielanalyse und Synthese von Organisations- und Ingenieursystemen Ein Konzept der Struktur- und Zielanalyse und Synthese von organisations- und ingenieurtechnischen Industriesystemen wird definiert. Der logische Aspekt des Systemparadigmas und Prinzipien der Struktur- und Zielanalyse werden diskutiert. Es ermöglicht uns, das Problem der Nichtübereinstimmung der Ergebnisse der Systemanalyse zu lösen.;-;-;-;https://link.springer.com/article/10.1007/s10559-006-0129-9 3bf84639b5cf939d455c36d3cd86906e;de;;;2.1.;;;Differenzierung ökologischer Artengruppen nach ihrer Reaktion auf Feuchtigkeit bei der Differenzierung von Steppen der westsibirischen Tiefebene und des Südurals In einer Untersuchung der geobotanischen Bedeutung von xerischen Wiesen und Steppen des Südurals werden ökologische Pflanzengruppen anhand ihrer Reaktion auf den Feuchtigkeitsfaktor differenziert. Eine Analyse des Artenaktivitätsindex entlang des Feuchtigkeitsgradienten ermöglicht es uns, Pflanzenarten zu identifizieren, die für zonale Steppentypen diagnostisch sind: Wiesensteppen (Ordnung Festucetalia valesiacae) und typische Grassteppe (Ordnung Helictotricho-Stipetalia). Die meisten Pflanzen haben ähnliche Aktivitätsindizes sowohl in der westsibirischen Ebene als auch im südlichen Ural. Die regionalen Unterschiede wurden durch geographische Besonderheiten der Lebensräume verursacht, nämlich sind petrophytische Arten in den Gebirgslandschaften des Südurals und Halophyten- und Sandarten in der westsibirischen Ebene verbreitet.;-;-;-;https://link.springer.com/article/10.1134/S1995425515020080 717c2aba4203b78f7511ab9b741199ce;de;;;2.1.;;;Eine Überprüfung der Informationsinhaltsmetrik auf semantische Ähnlichkeit Information Content (IC) des Konzepts ist seit jeher ein heißes Thema. Sie ist eine wichtige Dimension für den Zugang zur semantischen Ähnlichkeit zwischen zwei Konzepten oder Wortbedeutungen. Es wurde viel gearbeitet. Dieses Papier veranschaulichte die Verwendung von IC im semantischen Ähnlichkeitsrechnen und konzentriert sich dann auf die IC-Metrik. Es überprüft und analysiert Corpora-abhängige und Corpora-unabhängige IC-Ansätze. Hyponym-basierte, Leaves-basierte und beziehungsbasierte IC-Metriken werden jeweils vorgestellt. Die wichtigen verwandten Themen werden hervorgehoben. Schließlich werden weitere Forschungen zur Verbesserung der IC skizziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34595-1_42 d7e88013e3d6e9e4b25e6c4c0a34281f;de;;;2.1.;;;Eine vergleichende Studie von In den letzten Jahren wurde allgemein anerkannt, dass formale semantische Frameworks die Fähigkeit zur Darstellung kognitiver Prozesse verbessern. In dieser Linie wurden Prozessalgebren als formale Rahmenbedingungen zur Darstellung dieser Art von Prozessen eingeführt. In diesem Beitrag vergleichen wir zwei Prozessalgebren, die sich an der Spezifikation kognitiver Prozesse orientieren:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87563-5_13 f76173ab5a84fc0446b79ac1acd2b768;de;;;2.1.;;;Patch-basierte Sparse Dictionary-Darstellung für die Gesichtserkennung mit einer einzigen Stichprobe pro Person In diesem Beitrag lösen wir das Problem der robusten Gesichtserkennung (FR) mit einer Einzelstichprobe pro Person (SSPP). FR mit SSPP ist eine sehr anspruchsvolle Aufgabe, da in einem solchen Szenario Informationen fehlen, um die Variationen der Abfragestichprobe vorherzusagen. Wir schlagen eine neue Methode der Patch-basierten Sparse Dictionary Representation (PSDR) vor, um das Problem verschiedener Variationen zu lösen, z.B. Ausdrücke, Illuminationen, Korruption, Okklusion und Verkleidungen in FR mit SSPP. Die Schlüsselidee unseres Schemas besteht darin, eine lokale spärliche Darstellung und ein auf Patches basierendes generisches Variationswörterbuch zu kombinieren, um die möglichen Gesichtsvariationen des Abfragebildes und der Klassifizierung vorherzusagen. Um mehr Feature-Informationen bei der Klassifizierung zu extrahieren, verwenden wir eine Patch-basierte Methode. Unsere Experimente mit Extended Yale B- und AR-Datenbanken zeigen, dass unsere Methode den aktuellen Ansätzen überlegen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25417-3_15 8ed0682668c2152f2846ecead839a5ef;de;;;2.1.;;;Vorhersage der Brunnenzone des Grundwasserflusses in der Provinz An-Najif, Zentralirak unter Verwendung des Modells der beweiskräftigen Glaubensfunktionen und GIS Das Ziel dieser Studie ist es, das Potenzial von Grundwasser-Strömungsbrunnenzonen in der Provinz An-Najif im Irak in einem datengesteuerten Evidence-Belief-Funktionsmodell abzugrenzen, das in einer geografischen Informationssystemumgebung (GIS) entwickelt wurde. Durch Felduntersuchungen wurde eine Bestandskarte von 68 Grundwasser-Fließbrunnen erstellt. Siebzig Prozent bzw. 43 Wells wurden zum Trainieren des Modells mit den beweiskräftigen Glaubensfunktionen verwendet und die zurückgesetzten 30 % oder 19 Wells wurden zur Validierung des Modells verwendet. Sieben Grundwasserkonditionierungsfaktoren, die hauptsächlich von RS abgeleitet wurden, wurden in dieser Studie verwendet, nämlich Höhe, Neigungswinkel, Krümmung, topografischer Feuchtigkeitsindex, Stromstärkeindex, lithologische Einheiten und Entfernung zum Euphrat. Die Beziehung zwischen den Standorten von Trainings-Flussbrunnen und den Konditionierungsfaktoren wurde unter Verwendung der Evidenzial-Belief-Function-Technik in einer GIS-Umgebung untersucht. Die integrierten Glaubenswerte wurden unter Verwendung des Klassifikationsschemas für natürliche Brüche in fünf Kategorien eingeteilt, um die räumliche Zonierung von Grundwasserströmen vorherzusagen, nämlich sehr niedrig (0,17–0,34), niedrig (0,34–0,46), mäßig (0,46–0,58), hoch (0,58– 0,80) und sehr hoch (0,80–0,99). Die Ergebnisse zeigen, dass sehr niedrige und niedrige Zonen 72 % (19.282 km;-;-;-;https://link.springer.com/article/10.1007/s10661-016-5564-0 06d4451aec399dc52fe57fc29ae99510;de;;;2.1.;;;Missense-Mutationen, die zu Typ-1-Lissenzephalie führen Die richtige Bildung des menschlichen Gehirns hängt von der integrierten Aktivität mehrerer Gene ab. Fehlfunktionen von Schlüsselproteinen führen zu Anomalien der Gehirnentwicklung. Mutation(en) im;-;-;-;https://link.springer.com/article/10.1007/s00018-004-4344-0 a8e114fd3b6a7015b9dc4c7410dc6b54;de;;;2.1.;;;Zhi# – OWL Aware Compilation Die Nützlichkeit der Web Ontology Language zur Beschreibung von Diskursbereichen und zur Erleichterung automatischer Argumentationsdienste ist weithin anerkannt. Die Programmierbarkeit ontologischer Wissensbasen wird jedoch durch die unterschiedlichen konzeptionellen Grundlagen von statisch typisierten objektorientierten Programmiersprachen wie Java und C# und Ontologiesprachen wie der Web Ontology Language (OWL) stark beeinträchtigt. In dieser Arbeit wird eine neuartige Programmiersprache vorgestellt, die OWL- und XSD-Datentypen mit C# integriert. Die Programmiersprache Zhi# ist die erste Lösung ihrer Art, um XSD-Datentypen und OWL-Klassenbeschreibungen zu erstklassigen Bürgern einer weit verbreiteten Programmiersprache zu machen. Die Programmiersprache Zhi# erleichtert die Entwicklung von Semantic Web-Anwendungen und erleichtert die Nutzung und Wiederverwendung von Wissen in Form von Ontologien. Der vorgestellte Ansatz wurde erfolgreich validiert, um die Anzahl möglicher Laufzeitfehler im Vergleich zur Verwendung von XML- und OWL-APIs zu reduzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21064-8_22 609516e18cecef4d5b80d9161570127b;de;;;2.1.;;;Forschung zur Landnutzungsänderung der Stadt Wuhan basierend auf Fernerkundung und GIS Seit den 1990er Jahren hat sich die Erforschung des Landnutzungs-Bedeckungswandels (LUCC) zu einem wichtigen Feld des globalen Umweltwandels entwickelt. Dieses Problem wird in China wegen seiner riesigen Bevölkerung und relativ kleinen Fläche besonders wichtig. Während des Urbanisierungsprozesses änderte sich die Landnutzung in den Vororten großer Städte in Zentralchina wie Wuhan dramatisch. Mit der Klassifizierungsinterpretation der TM/ETM-Fernerkundungsbilder der Stadt Wuhan in den Jahren 2000 und 2007 analysiert dieses Papier umfassend die dynamischen Eigenschaften der Landnutzung der Stadt Wuhan während der 8 Jahre unter Verwendung von GIS-Technologie. Diese Studie zeigt, dass in den 8 Jahren die Ackerfläche schnell zurückgegangen ist und der Konflikt zwischen den Menschen und den Bodenressourcen gravierender wird, da die ständige Ausdehnung des städtischen Baulandes, ein Teil des lokalen Teils, nicht hoch entwickelt ist und auch eine Auswirkungen auf die ökologische Umwelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-49155-3_85 6b940d0b4eadf75669785bf9bc9268cd;de;;;2.1.;;;Ein MKL-MKB-Bildklassifizierungsalgorithmus basierend auf der Multi-Kernel-Boosting-Methode Mit dem Ziel der geringen Genauigkeit und schlechten Anwendbarkeit traditioneller SVM-Klassifikatoren schlägt dieser Artikel ein Bildklassifizierungssystem basierend auf MKL-MKB (Multi Kernel Learning-Multi Kernel Boosting) vor. Dieser Ansatz integriert zunächst vorhandene Methoden zur Merkmalsextraktion, um Merkmale wie Wavelet, Gabor, GLCM usw. zu extrahieren. Ein schwacher Klassifikator wird konstruiert, indem ein synthetischer Kernel im Kernel-Raum verwendet wird. Wir verwenden den Nystrom-Approximationsalgorithmus, um die Gewichte der Kernelmatrizen des Multikernelmodells zu berechnen. Dann machen wir eine Fusion von schwachen Klassifikatoren auf Entscheidungsebene unter dem Adaboost-Framework, um die Gewichte schwacher Kernel zu beeinträchtigen. Schließlich werden Experimente durchgeführt, um die Gültigkeit und Anwendbarkeit des vorgeschlagenen Algorithmus zu überprüfen, indem er an Terrain-Fernerkundungsbildern und mehreren UCI-Datensätzen getestet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-2663-8_17 bc8640cdf430b566fb1d4bc6f27101b3;de;;;2.1.;;;Klassifizierung ereignisbezogener Potentiale fehlerbezogener Beobachtungen mit Hilfe von Support Vector Machines Das Ziel dieser Arbeit ist es, eine Klassifikationsmethode vorzustellen, die in der Lage ist, zwischen Ereignisbezogenen Potenzialen (ERPs) zu unterscheiden, die das Ergebnis der Beobachtung von richtigen und falschen Handlungen sind. ERP-Daten von 47 Elektroden wurden von acht Freiwilligen (Beobachtern) erfasst, die korrekte oder falsche Reaktionen von Probanden (Schauspielern) beobachteten, die eine speziell entwickelte Aufgabe ausführten. Aus jeder ERP-Aufzeichnung wurde eine Reihe von histogrammbezogenen Merkmalen berechnet und die signifikantesten wurden anhand eines statistischen Ranking-Kriteriums ausgewählt. Für die Klassifikationsaufgabe wurde der Support Vector Machines-Algorithmus kombiniert mit der Leave-One-Out-Technik verwendet. Der vorgeschlagene Ansatz diskriminierte die beiden Klassen (Beobachtung von richtigen und falschen Handlungen) mit einer Genauigkeit von 100 %. Die vorgeschlagene Methode zur Klassifikation von ERP-Signalen bietet ein vielversprechendes Werkzeug zur Untersuchung von Beobachtungslernmechanismen in der gemeinsamen Aktionsforschung und kann die zukünftige Entwicklung von Systemen fördern, die in der Lage sind, fehlerhafte Aktionen in Mensch-Mensch- und Mensch-Künstler-Interaktionen automatisch zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41016-1_5 28da466230d1e1884cbbc7faaecf29b0;de;;;2.1.;;;Nachbarschaftsinteraktion bei urbanen Landnutzungsänderungen mit zellularer Automaten-basierter Geosimulation Städte können als komplexe Systeme mit intrinsischen Eigenschaften von Emergenz, Selbstorganisation, Selbstähnlichkeit und nichtlinearem Verhalten der Landnutzungsdynamik verstanden werden (Barredo et al. 2003, Batty 2005). Städte durchlaufen unablässig einen dynamischen und komplexen Prozess städtischer Landnutzungsänderungen. Dieser komplexe Prozess hat direkte Auswirkungen auf die städtische Umwelt (Jusuf et al. 2007, Pauleit et al. 2005) und kann sogar die Struktur und Funktion von Ökosystemen auf globaler Ebene tiefgreifend stören (Lambin et al. 2001, Turner et al. 1990). Daher müssen die komplexen räumlichen Prozesse urbaner Landnutzungsänderungen gründlich verstanden werden, um Kommunal- und Stadtplanern eine Grundlage für die Bewertung der ökologischen Auswirkungen städtischer Landnutzungsänderungen zu liefern und räumliche Entscheidungen zu unterstützen. Zu diesem Zweck wurden verschiedene räumlich-dynamische Modelle urbaner Landnutzungsänderungen, insbesondere zellulare Automaten (CA), Multi-Agentensysteme (MAS) und geografische Informationssysteme (GIS) basierende städtische Geosimulationsmodelle konstruiert und erfolgreich in vielen Städten angewendet (Barredo und Demicheli 2003, Batty et al. 1999, Torrens 2006, White und Engelen 2000, Yeh und Li 2002). In solchen Geosimulationsmodellen ist die Nachbarschaftsinteraktion eine wichtige Komponente (Batty 1991, Wu 1998, Zhao und Murayama 2007). Nachbarschaftsinteraktion bedeutet lokale räumliche Interaktionen zwischen Flächennutzungskategorien der Nachbarschaft wie Einrichtungen, Wohngebieten und Industrien in städtischen Gebieten. Hier bedeutet „Nachbarschaft“ „nahe“, d. h. Nachbarschafts-Landnutzungsparzellen können zusammenhängend (sich berührend) sein oder nicht. Solche Interaktionen haben einen großen Einfluss auf die räumlichen Prozesse urbaner Landnutzungsänderungen (Batty 2005, Couclelis 1989). Diese Art von Faktor wird als Nachbarschaftseffekt städtischer Landnutzungsänderungen bezeichnet. Der Nachbarschaftseffekt plus exogene Faktoren (wie räumliche Interaktionen zwischen Städten) und endogene Faktoren (wie Verkehrsnetze in städtischen Gebieten) bestimmen den räumlichen Prozess der urbanen Landnutzungsänderung (White und Engelen 2000). Darüber hinaus wird er oft als Hauptfaktor genannt, der die Muster der Landnutzungsänderung in Städten bestimmt, da andere Faktoren im räumlichen Prozess der Landnutzungsänderung während einer bestimmten Zeit vergleichsweise stabil sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-54000-7_15 8f6fdb62b87901f6e360fb4b5f5b6393;de;;;2.1.;;;Von Magnonen zu Solitonen: Spindynamik Zwischen den Elementarerregungen eines Ferromagneten und denen eines elastischen Festkörpers bestehen auffallende Ähnlichkeiten. Im letzteren Fall wissen wir, dass ein aus der Gleichgewichtslage verschobenes Atom mit der Bewegung und den Frequenzen der schwingt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83238-3_5 562ae4a176573326df716734d400477d;de;;;2.1.;;;Hydrodynamik dielektrischer Flüssigkeitsfilme Wir stellen ein allgemeines hydrodynamisches Modell vor, um die Stabilität von Lipidfilmen gegenüber thermischen Schwankungen zu untersuchen. Als ein neuer Aspekt berücksichtigt das Modell vor allem eine vollständige intrinsische Oberflächenrheologie der Filmgrenzflächen. Somit wird das rheologische Verhalten der oberflächenadsorbierten Lipide modelliert, die das Innere des hydrophoben Films gegen das wässrige Äußere abschirmen. Für farbige Filme zeigen wir zunächst den Einfluss elektrischer Kräfte auf die Dynamik und Filmstabilität. Dazu führen wir eine lineare Stabilitätsanalyse an einem vereinfachten mechanisch symmetrischen Film mit i) symmetrischer Oberflächenladungsverteilung und ii) linearem Spannungsabfall über den Film durch. Basierend auf dem vollständigen Filmmodell kategorisieren wir dann den vollständigen Lösungssatz der linearisierten Bewegungsgleichungen und untersuchen die Wachstumsraten instabiler Filmmoden. Schließlich diskutieren wir die Stabilitätseigenschaften eines schwarzen Films nach Einführung eines Abstoßungsmechanismus aufgrund der sterischen Hinderung der Grenzflächenlipide.;-;-;-;https://link.springer.com/article/10.1007/BF01448148 42c40cb93b8a9d9db4f1e8f45ff0138d;de;;;2.1.;;;Eine wettbewerbsfähige dreistufige Beschneidungstechnik für die Informationssicherheit Die Reduzierung der Größe von Ensemble-Klassifikatoren ist für verschiedene Sicherheitsanwendungen wichtig. Die meisten bekannten Beschneidungsalgorithmen gehören zu den folgenden drei Kategorien: Ranking-basierte, Clustering-basierte und optimierungsbasierte Verfahren. Der vorliegende Beitrag stellt eine neue Beschneidungstechnik vor und untersucht diese. Es wird als Drei-Ebenen-Beschneidungstechnik, TLPT, bezeichnet, weil es gleichzeitig alle drei Ansätze in drei Ebenen des Prozesses kombiniert. In diesem Beitrag wird die TLPT-Methode untersucht, die das State-of-the-Art-Ranking des Ensemble Pruning via Individual Contribution ordering, EPIC, das Clustering des K-Means Pruning, KMP, und das Optimierungsverfahren des Directed Hill Climbing Ensemble Pruning, DHCEP . kombiniert , für ein Phishing-Dataset. Unsere in diesem Artikel vorgestellten neuen Experimente zeigen, dass TLPT im Vergleich zu EPIC, KMP und DHCEP wettbewerbsfähig ist und bessere Ergebnisse erzielen kann. Diese experimentellen Ergebnisse demonstrieren die Wirksamkeit der TLPT-Technik in diesem Beispiel einer Informationssicherheitsanwendung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45670-5_3 a5669aea11f484d0b6a6e96534d3741c;de;;;2.1.;;;Klassifizierung von Gemäldegenres basierend auf der Merkmalsauswahl In dieser Arbeit wird ein Klassifizierungssystem für Malereigenres vorgeschlagen. Aus Datensätzen werden vier Merkmalsdeskriptoren zu Farbe und Textur extrahiert, die in der MPEG-7-Spezifikation definiert sind und die eher gegen Maleigenschaften gerichtet sind. Dann verwenden wir einen selbstadaptiven Harmoniesuchalgorithmus, um relevante Merkmale (oder einen lokalen Merkmalssatz) auszuwählen, um jeden Eins-gegen-Eins-SVM-Klassifikator zu trainieren. Schließlich würde eine Mehrheitsentscheidungsstrategie für N(N-1)/2 Vorhersageergebnisse ihre jeweiligen Genres von Gemälden bestimmen. Die experimentellen Ergebnisse zeigen, dass die Gesamtgenauigkeit 69,8 % erreicht, und dies zeigt, dass für jedes Genrepaar genauere Merkmale ausgewählt werden können, um bessere Klassifizierungsergebnisse zu erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54900-7_23 7122f05904bd4ccde830cccb5aa4278b;de;;;2.1.;;;Die neurophysiologischen Korrelate von Farb- und Helligkeitskontrast in lateralen Kniegelenksneuronen Die Farbe eines Objekts wird durch Umgebungsfarben verändert, so dass die wahrgenommene Farbe in eine zur Umgebungsfarbe komplementäre Richtung verschoben wird. Um den physiologischen Mechanismus zu untersuchen, der diesem Phänomen zugrunde liegt, haben wir von 260 Neuronen im parvozellulären Nucleus geniculatum laterale (P-LGN) von narkotisierten Affen (Macaca fascicularis) aufgezeichnet und ihre Reaktionen auf Flecken von 1,0–2,0° Durchmesser äquiluminantem Licht von . gemessen verschiedene spektrale Zusammensetzung, zentriert über ihrem rezeptiven Feld (spektrale Antwortfunktion, SRF). Fünf Klassen von farbgegnerischen Neuronen und zwei Gruppen von lichtinhibierten Zellen wurden gemäß der von Creutzfeldt et al. vorgeschlagenen Klassifikation unterschieden. (1979). In jeder Zelle wiederholten wir die SRF-Messung, während eine äußere Umgebung (Innendurchmesser 5°, Außendurchmesser 20°) kontinuierlich mit blauem (452 ​​nm) oder rotem (664 nm) Licht derselben Leuchtdichte wie die mittleren Spots beleuchtet wurde. Der 1,0–1,5°-Spalt zwischen der Mitte und dem Surround wurde mit einem schwachen weißen Hintergrundlicht (0,5–1cd/m²) ausgeleuchtet;-;-;-;https://link.springer.com/article/10.1007/BF00228503 c6521330992cbe7c64eba483dd2b5f83;de;;;2.1.;;;Vorhersage der Abschlusszeit von Schülern mit einem zweistufigen Klassifikationsalgorithmus In den letzten Jahrzehnten ist es den Hochschulen gelungen, eine große Menge an Daten über die Eigenschaften und Leistungen ihrer Studierenden zu sammeln. Techniken des maschinellen Lernens bieten einen ersten Schritt und helfen dabei, nützliche Informationen aus diesen Daten zu extrahieren und Einblicke in die Vorhersage des Fortschritts und der Leistung der Schüler zu gewinnen. In dieser Arbeit stellen wir einen zweistufigen Klassifikationsalgorithmus zur Vorhersage der Abschlusszeit von Studierenden vor. Der vorgeschlagene Algorithmus hat zwei Hauptmerkmale. Zum einen identifiziert es mit hoher Genauigkeit die Studierenden, bei denen das Risiko eines Studienabbruchs besteht, zum anderen klassifiziert es die Studierenden nach ihrer voraussichtlichen Abschlusszeit. Unsere vorläufigen numerischen Experimente zeigen, dass der vorgeschlagene Algorithmus zuverlässige Vorhersagen auf der Grundlage der Leistungen der Studierenden in ihren Lehrveranstaltungen während der ersten beiden Studienjahre liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20954-4_42 ae9484adf3aa403861ed26c6f09531b8;de;;;2.1.;;;Taxonomische Auflösung und Quantifizierung von Süsswasser-Makroinvertebratenproben aus einem australischen Trockenlandfluss: Nutzen und Kosten der Verwendung von Daten zum Artenreichtum In Studien, die Makroinvertebraten als Indikatoren für die Überwachung von Flüssen und Bächen verwenden, können Identifizierungen auf Artenebene im Vergleich zu Identifizierungen mit geringerer Auflösung einen größeren Informationsgehalt haben und zu zuverlässigeren Standortklassifizierungen und einer besseren Fähigkeit zur Unterscheidung zwischen Standorten führen, dennoch identifizieren viele solcher Programme Exemplare mit der Auflösung der Familie statt der Art. Dies liegt oft daran, dass es billiger ist, Daten auf Familienebene zu erhalten als Daten auf Artenebene. Die Wahl der geeigneten taxonomischen Auflösung ist ein Kompromiss zwischen den Kosten der Datenbeschaffung bei hohen taxonomischen Auflösungen und dem Informationsverlust bei niedrigeren Auflösungen. Die optimale taxonomische Auflösung sollte durch die Informationen bestimmt werden, die zur Erreichung der Programmziele erforderlich sind. Kosteneinsparungen bei der Identifizierung von Makroinvertebraten auf Familienebene sind möglicherweise nicht gerechtfertigt, wenn die Daten auf Familienebene nicht die erforderlichen Antworten liefern können, und die Aufwendung zusätzlicher Kosten für den Erhalt von Daten auf Artenebene ist möglicherweise nicht gerechtfertigt, wenn billigere Daten auf Familienebene ausreichende Informationen zur Erreichung der Ziele enthalten. Wir untersuchten den Einfluss der taxonomischen Auflösung und Probenquantifizierung (Abundanz vs. Anwesenheit/Abwesenheit) auf die Darstellung von Zusammensetzungsmustern von aquatischen Makroinvertebraten und Schätzungen des Artenreichtums. Die Studie wurde in einem physikalisch rauen Trockenland-Flusssystem (Condamine-Balonne-Flusssystem im Südwesten von Queensland, Australien) durchgeführt, das sich durch eine geringe Makroinvertebratenvielfalt auszeichnet. Unsere 29 Studienstandorte deckten ein breites geografisches Spektrum und eine Vielfalt von Lotikbedingungen ab, was sich in den Unterschieden zwischen den Standorten in der Zusammensetzung und dem Reichtum der Makroinvertebraten-Assemblage widerspiegelte. Die Nützlichkeit der Aufwendung der zusätzlichen Kosten, die für die Identifizierung von Makroinvertebraten für Arten erforderlich sind, wurde anhand des Nutzens quantifiziert, den diese höher aufgelösten Daten in ihrer Fähigkeit boten, zwischen Standorten zu unterscheiden und genaue Schätzungen des Artenreichtums an Standorten zu liefern. Wir fanden heraus, dass nur sehr wenige Informationen (<6%) verloren gingen, indem Taxa als Familie (oder Gattung) identifiziert wurden, im Gegensatz zu Arten, und dass die Quantifizierung der Häufigkeit von Taxa eine bessere Auflösung für die Musterinterpretation lieferte als die bloße Feststellung ihrer Anwesenheit/Abwesenheit. Der Artenreichtum war sehr gut durch Gattungs-, Familien- und Ordnungsreichtum repräsentiert, so dass jeder von diesen als Surrogate des Artenreichtums verwendet werden konnte, wenn beispielsweise Vermessungen zur Identifizierung von Diversitäts-Hotspots durchgeführt wurden. Es wird vermutet, dass die Verteilung gemeinsamer ökologischer Reaktionen zwischen Arten innerhalb höherer taxonomischer Einheiten der plausibelste Mechanismus für die Ergebnisse ist. Basierend auf einer Kosten-Nutzen-Analyse werden Abundanzdaten auf Familienebene als beste Auflösung für die Auflösung von Mustern in Makroinvertebraten-Anordnungen in diesem System empfohlen. Die Relevanz dieser Ergebnisse wird im Kontext anderer, rauer, trockener Flusssysteme mit geringer Diversität diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s10750-005-9007-0 5f227d0881346e6c6d156ab5eb93df94;de;;;2.1.;;;Diskriminanzanalyse mit Textdaten Im Bereich der Textanalyse wurde ein breites Spektrum statistischer Verfahren entwickelt, um Probleme wie Autorenzuordnung, Zeitbestimmung, Information Retrieval, Bearbeitung von Antworten auf offene Fragen in Umfragen zu lösen. Bei solchen Analysen müssen die angewandten statistischen Methoden Diskriminierungsmodelle liefern. Die Textdatenentitäten können nach Formmerkmalen oder nach Inhaltsmerkmalen ausgewählt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-51175-2_68 8518421b2bca3200d2b11f2c5561d0b5;de;;;2.1.;;;Coslets: Ein neuartiger Ansatz zur Untersuchung der Objekttaxonomie im komprimierten DCT-Bereich für große Bilddatensätze Die Hauptidee dieses Papiers besteht darin, unsere frühere Arbeit zur Bildsegmentierung [11] zu nutzen und eine neuartige Transformationstechnik namens Coslets vorzuschlagen, die durch Anwendung von 1D-Wavelets in der DCT-Domäne abgeleitet wird, um Objekte in großen Mehrklassen-Bilddatensätzen zu kategorisieren. Zunächst wird k-Means-Clustering auf ein Bild in einem komplexen Hybridfarbraum angewendet und mehrere disjunkte Bereiche basierend auf der Farbhomogenität der Pixel erhalten. Später bringt DCT Niederfrequenzkomponenten hervor, die die visuellen Merkmale des Bildes ausdrücken, und weitere Wavelets zerlegen diese Koeffizienten in Unterbänder mit mehreren Auflösungen, was einen Vorteil der Spektralanalyse bietet, um robuste und geometrisch unveränderliche strukturelle visuelle Merkmale von Objekten zu entwickeln. Ein Satz beobachteter Daten (d. h. transformierte Koeffizienten) wird mit einer Transformationsmatrix unter Verwendung von PCA auf einen niedrigerdimensionalen Merkmalsraum abgebildet. Schließlich werden verschiedene Entfernungsmesstechniken zur Klassifizierung verwendet, um eine durchschnittliche Korrektheitsrate für die Objektkategorisierung zu erhalten. Wir demonstrierten unsere Methodik der vorgeschlagenen Arbeit an zwei sehr anspruchsvollen Datensätzen und erzielten führende Klassifikationsraten im Vergleich mit mehreren in der Literatur erforschten Benchmarking-Techniken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11218-3_5 8d0a46b7a9cf6023ab98f4a3d56fb521;de;;;2.1.;;;Beziehungen zwischen Geomorphologie und Pedologie: Kurzer Rückblick Die Beziehungen zwischen Geomorphologie und Bodenkunde, einschließlich der konzeptionellen Aspekte, die diesen Beziehungen zugrunde liegen, und ihrer praktischen Umsetzung in Studium und Forschung wurden unter verschiedenen Bezeichnungen bezeichnet, wobei der gebräuchlichste Ausdruck ist:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19159-1_3 b033f0987c16310fb0c3d5afcb11e8df;de;;;2.1.;;;Numerische Taxonomie und das Prinzip der maximalen Entropie Das Standardverfahren zur numerischen Klassifizierung und Identifizierung von Mikroorganismen anhand binärer Merkmale wird mit dem Prinzip der maximalen Entropie begründet. Dieses Prinzip unterstützt auch nachdrücklich die Annahme, dass alle Merkmale, auf denen die Klassifikation basiert, gleich wichtig sind und die Verwendung polythetischer Taxa. Die Relevanz des Prinzips der maximalen Entropie im Zusammenhang mit taxonomischen Strukturen basierend auf Clustering und maximaler Prädiktivität wird diskutiert. Ein Ergebnis der asymptotischen Getrenntheit der maximalen Entropieverteilungen hat Auswirkungen auf die Minimierung von Identifikationsfehlern.;-;-;-;https://link.springer.com/article/10.1007/BF01246099 d5422b50caf5b70184df712108d1da1f;de;;;2.1.;;;Integrieren von Semantik in ein intelligentes Kleidungssuchsystem mit Ontologie Die Forschung zielt darauf ab, eine neuartige ontologische Struktur zur Integration von Semantik in ein intelligentes Kleidungssuchsystem zu entwickeln. Es hilft den Benutzern, die passende Kleidung zu wählen, die dem gewünschten Eindruck für die Teilnahme an einem bestimmten Anlass entspricht, indem sie alles, was sie bereits in ihrem Kleiderschrank haben, verwenden. Die in der Arbeit vorgeschlagene Ontologiestruktur nimmt ein einzelnes Kleidungsstück als das spezifischste Beispiel. Daher werden zunächst Bilder von Kleidungsstücken des Benutzers zugeführt. Ein internes Bildverarbeitungsmodul wird dann aufgerufen, um Attribute von jedem Kleidungsstück durch eine Reihe von Bildverarbeitungstechniken zu extrahieren, wie beispielsweise die Farbverteilung. Schließlich werden die abgeleiteten Informationen an die Ontologie angehängt. Zur Laufzeit folgt das System den Anforderungen wie Stimmungsschlüsselwort, Anlasstyp und Wetterstatus, um mit Hilfe der semantischen Suche der Ontologie nach passenden Outfits zu suchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14292-5_47 b32fb26ce00eaa131b90e66d34fa9f8d;de;;;2.1.;;;Auf häufigen Variablensätzen basierendes Clustering für die Partikelklassifizierung in künstlichen neuronalen Netzen Die Partikelklassifizierung ist eine der wichtigsten Analysen in Experimenten der Hochenergie-Teilchenphysik. Wir entwerfen ein Klassifizierungs-Framework, das Klassifizierung und Clustering für Daten aus Experimenten der Teilchenphysik kombiniert. Das System beinhaltet die Klassifizierung durch einen Satz künstlicher neuronaler Netze (KNN), die jeweils unterschiedliche Teilmengen von Stichproben verwenden, die aus dem allgemeinen Satz ausgewählt werden. Wir verwenden Clustering auf Basis von häufigen Variablensätzen, um die Zugproben in mehrere natürliche Teilmengen zu unterteilen, und dann werden Standard-Backpropagation-ANNs darauf trainiert. Die endgültige Entscheidung für jeden Testfall ist ein zweistufiger Prozess. Zuerst wird der nächstgelegene Cluster für den Fall gefunden, und dann basiert die Entscheidung auf dem ANN-Klassifikator, der auf den spezifischen Cluster trainiert wurde. Vergleiche mit anderen Klassifikations- und Clustering-Methoden zeigen, dass unsere Methode vielversprechend ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72524-4_88 262b023b1253d562ddf9f529c3713e92;de;;;2.1.;;;Fotoökometrie für die Überwachung natürlicher Ressourcen Dieses Kapitel stellt einige Ergebnisse vor, die aus neuen Anwendungen der digitalen Photogrammetrie für Waldwachstum und topographische Veränderungen gewonnen wurden. Sie sind Nebenprodukte unserer Bemühungen um die Entwicklung des Gebiets der;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0303-2_3 a7ddce23dd6ce693701dbef6580298f0;de;;;2.1.;;;Eine Taxonomie evolutionär inspirierter Lösungen für das Energiemanagement im Green Computing: Probleme und Lösungsmethoden In den letzten Jahren haben sich Ingenieure, Forscher und Anbieter zusammengetan, um die intelligenten Modelle und Algorithmen zu entwerfen und zu entwickeln, die den Einsatz von elektrischer Energie in Computergeräten in heterogenen Großsystemen einschränken. Dieses Kapitel erkennt die Notwendigkeit an, der wissenschaftlichen Gemeinschaft einen aktuellen Stand der Forschung, aktuelle Trends und zukünftige Arbeiten an evolutionär inspirierten Lösungen für grünes Computing zu präsentieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30154-4_10 3bda443a29aefc5dbb53ae9b346d509e;de;;;2.1.;;;Charakterisierung der menschlichen Prägung von Landschaften für die ökologische Bewertung Menschliche Aktivitäten haben natürliche Landschaftsmuster und Ökosystemfunktionen im Laufe der aufgezeichneten Geschichte in unterschiedlichem Maße verändert (Turner, 1990). Auch der Akt des „Erhaltens“ einer Wildnislandschaft resultiert aus einer gesellschaftlichen Entscheidung, die auf der Wertschätzung dieser Landschaft basiert. Solche Handlungen geschehen, wie bei vielen Ökosystemnutzungen, selten zufällig. Um die Funktion und Integrität von Ökosystemen zu bewerten, ist daher ein gewisses Verständnis der menschlichen Dimension erforderlich. Es ist nützlich, zwei kritische Aspekte der menschlichen Dimension zu identifizieren: Faktoren, die menschliche Aktivitäten antreiben und vorhersagen können, und Faktoren, die die Auswirkungen dieser Aktivitäten auf Ökosysteme charakterisieren. Die Triebkräfte menschlichen Handelns sind im Großen und Ganzen nicht greifbar (z. B. Gewinnstreben oder Sorge um Schönheit) und die Auswirkungen resultieren aus greifbaren Strukturen oder Aktivitäten auf die Landschaft. Gleichzeitig ist es wichtig, menschliche Aktivitäten als kritische Komponente und nicht getrennt von Ökosystemfunktionen zu betrachten. Struktur und Funktion von Ökosystemen können die Bewertung von Ressourcen durch die Gesellschaft beeinflussen und menschliche Aktivitäten antreiben. Beispielsweise kann das Vorhandensein einer unberührten oder hochwertigen Landschaft die Entwicklung in der Nähe vorantreiben und die Qualität dieser Landschaft beeinträchtigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-8620-7_28 e27fff04fe3cebedad39e995ef5e5ae0;de;;;2.1.;;;Objektbasierte Bildanalyse zur Kartierung geomorpher Zonen von Korallenriffen auf den Xisha-Inseln, China Die Kartierung regionaler räumlicher Muster der Geomorphologie von Korallenriffen liefert die wichtigsten Informationen zum Verständnis der konstruktiven Prozesse im Riffökosystem. Diese Arbeit wird jedoch durch das pixelbasierte Bildklassifizierungsverfahren wegen seiner vergleichsweise geringen Genauigkeit herausgefordert. In diesem Beitrag wurde eine Methode der objektbasierten Bildanalyse (OBIA) vorgestellt, um die Geomorphologie von Korallenriffen auf den Xisha-Inseln in China mithilfe von Landsat-8-Satellitenbildern zu kartieren. Im Anschluss an die Arbeit des Millennium Coral Reef Mapping Project wurde zunächst eine regionale Riffklassenhierarchie mit zehn geomorphologischen Klassen definiert. Dann wurde von OBIA unter Einbeziehung des hierarchischen Konzepts und der Integration der spektralen und zusätzlichen räumlichen Informationen wie Kontext, Form und Kontextbeziehungen eine großmaßstäbliche geomorphologische Karte mit Genauigkeiten von im Allgemeinen mehr als 80% erstellt. Obwohl die Robustheit von OBIA bei den Anwendungen der Korallenriffkartierung von einzelnen Riffen auf Riffsysteme in diesem Papier validiert wurde, sind noch weitere Arbeiten erforderlich, um die Übertragbarkeit zu verbessern.;-;-;-;https://link.springer.com/article/10.1007/s13131-016-0921-y ba19869741e970ab795154fdf54c764d;de;;;2.1.;;;Eine Erkundung einer diversifizierten Welt von Nationalparksystemen: Chinas Perspektiven im globalen Kontext Aus einer einzigen Nomenklatur für die Nationalparkterminologie hat sich ein riesiges globales Datennetzwerk aus Informationen entwickelt, die in den letzten 140 Jahren zusammengetragen wurden. Dies wurde unter Verwendung der neuesten UNEP-WDPA-Daten und ihrer 98483 nationalen Ausweisungsdatensätze aus 192 Ländern, zwei weiteren angepassten Datenbanken mit 2638 Datensätzen offiziell ausgewiesener Nationalparks aus 184 Gerichtsbarkeiten weltweit und 2064 Datensätzen von erweiterten chinesischen Nationalparks erstellt . Die zunehmenden Bezeichnungen und wachsenden Datenbanken stellen jedoch erhebliche Herausforderungen dar, obwohl IUCN und UNEP beide Anstrengungen unternommen haben, um eine gemeinsame Sprache namens „System of Management Categories for Protected Areas“ aufzubauen und zu fördern. Umgekehrt könnten also das bestmögliche Ergebnis und die schlimmste Verwirrung aus demselben Ziel entstanden sein, das unter dem einfachen Spitznamen Nationalpark bekannt ist. Aus diesem Grund muss noch viel mehr getan werden, um die Kommunikation zwischen den verschiedenen Interessengruppen aus der ganzen Welt zu verbessern. In diesem Papier wollen die Autoren zeigen, dass Chinas Regierungsbehörden den Dialog mit dem UNEP-WDPA-Betriebspersonal intensivieren sollten, damit die aktuellen innovativen Nationalparkprogramme von der Weltgemeinschaft anerkannt werden. In der Zwischenzeit empfehlen die Autoren auch, dass die IUCN das derzeitige Klassifizierungssystem für Schutzgebiete überarbeiten und aktualisieren muss, um den unterschiedlichen Interessengruppen in einer so diversifizierten Welt von Nationalparksystemen auf der ganzen Welt effektiv zu helfen.;-;-;-;https://link.springer.com/article/10.1007/s11442-011-0887-9 f8f5931c493b25905c806a02ca5a88a4;de;;;2.1.;;;Die Analyse natürlicher Sprache in der psychologischen Behandlung Seit einigen Jahren führen wir Forschungen durch, die darauf abzielen, ein besseres Verständnis der psychologischen Behandlung durch eine Analyse der Sprache derjenigen zu fördern, die an einer solchen Behandlung teilnehmen. Obwohl unsere Annahmen, konzeptionelle Arbeit und Methode von Arbeiten in mehreren Bereichen wie Linguistik, Psychologie und Soziologie geprägt sind, ist die Forschung selbst eine direkte Entwicklung aus Theorien und früheren empirischen Untersuchungen von Pepinsky und seinen Kollegen (vgl. Pepinsky, 1970, Pepinsky & Karst, 1964, Pepinsky & Patton, 1971). Diese frühe Arbeit entwickelte eine interaktive Definition der psychologischen Behandlung (Pepinsky & Patton, 1971), die später die Grundlage für ein sich noch entwickelndes Modell der Berater-Klienten-Interaktion und des Wandels wurde (Patton, Fuhriman & Bieber, 1977, Pepinsky, 1974, 1984, Pepinsky & DeStefano, 1983, Rush, Pepinsky, Landry, Meara, Strong, Valley & Young, 1974).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-0496-6_8 4fd1fb3ec4292db4159227463728824d;de;;;2.1.;;;Erfüllbarkeit und Argumentationsmechanismus von Terminologiekreisen in der Beschreibungslogik In diesem Beitrag werden die aktuellen Forschungsarbeiten und die bestehenden Probleme terminologischer Kreisläufe in Beschreibungslogiken analysiert. In Anlehnung an die Arbeiten von Baader F und Nebel B streben wir eine neue Richtung an. Erstens Beschreibungslogik;-;-;-;https://link.springer.com/article/10.1007/s11432-008-0101-6 71c6e3fda72b629afffd10942df3f882;de;;;2.1.;;;Sentic Medoids: Affektives Common Sense-Wissen in einem multidimensionalen Vektorraum organisieren Organ Bestehende Ansätze des Opinion Mining und der Sentiment-Analyse stützen sich hauptsächlich auf Textteile, in denen Meinungen und Gefühle explizit ausgedrückt werden, wie beispielsweise Polaritätsbegriffe und Affektwörter. Meinungen und Gefühle werden jedoch oft implizit durch kontext- und domänenabhängige Konzepte vermittelt, die rein syntaktische Ansätze wirkungslos machen. Um dieses Problem zu lösen, haben wir kürzlich Sentic Computing vorgeschlagen, einen multidisziplinären Ansatz für Meinungsforschung und Stimmungsanalyse, der Computer- und Sozialwissenschaften nutzt, um Meinungen und Stimmungen über das Web besser zu erkennen und zu verarbeiten. Sentic Computing umfasst unter anderem AffectiveSpace, ein Sprachvisualisierungssystem, das natürliche Sprache von einer linguistischen Form in einen mehrdimensionalen Raum verwandelt. In dieser Arbeit stellen wir eine neue Technik vor, um diesen Vektorraum besser zu clustern und damit das darin enthaltene affektive, gesunde Menschenverstandswissen besser zu organisieren und zu argumentieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21111-9_68 58168675f7dd81ded44bd0abddacb0da;de;;;2.1.;;;Eine Diagnosefunktion arithmetischer Wortaufgaben zum Lernen durch Problemstellung Problem In diesem Papier beschreiben wir eine Problemdiagnosefunktion für eine ILE (Intelligent Learning Environment), die lösungsbasiertes Problemposing unterstützt. Bei der lösungsbasierten Problemstellung müssen die Lernenden ein Problem stellen, das durch die zuvor festgelegte Lösungsmethode gelöst werden kann. Diese Problemstellung ist effektiv, um die Anwendung des Lösungsverfahrens zu beherrschen. Durch gezielte Lösungsmethoden von arithmetischen Wortproblemen entwickeln wir eine Problemdiagnosefunktion und eine ILE zur lösungsbasierten Problemstellung. Die Diagnosefunktion prüft zunächst, ob das Problem durch die Ziellösungsmethode gelöst werden kann oder nicht. Wenn es gelöst werden kann, ist das Problem ausreichend. Dann wird der Schwierigkeitsgrad des Problems bewertet, um den Fortschritt des Lernenden einzuschätzen. Wenn das Problem durch die Lösungsmethode nicht gelöst werden kann, untersucht die Diagnosefunktion, welche Informationen fehlen oder falsch sind. Ein Prototyp des ILE mit Diagnosefunktion ist bereits implementiert. Die Schnittstelle des ILE wird von Java implementiert und die Diagnosefunktion wird von Prolog implementiert. Daher kann die ILE mit einem Webbrowser verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44533-1_74 01572bac20604a2b9057a83662b0d3a2;de;;;2.1.;;;Überblick über die Fotokommentar-Aufgabe in ImageCLEF@ICPR Die Photo Annotation Task stellt die Herausforderung für die automatisierte Annotation von 53 visuellen Konzepten in Flickr-Fotos dar und wurde im Rahmen des ImageCLEF@ICPR-Wettbewerbs organisiert. Insgesamt nahmen 12 Forschungsteams an der Multilabel-Klassifikations-Challenge teil, während zunächst 17 Forschungsgruppen interessiert waren und Zugang zu den Daten erhielten. Den Teilnehmern wurde ein Trainingsset von 5.000 Flickr-Bildern mit Anmerkungen, ein Validierungsset von 3.000 Flickr-Bildern mit Anmerkungen zur Verfügung gestellt und der Test wurde an 10.000 Flickr-Bildern durchgeführt. Die Bewertung erfolgte zweifach: Zum einen erfolgte die Bewertung pro Konzept unter Verwendung der Equal Error Rate (EER) und der Area Under Curve (AUC) und zum anderen erfolgte die Bewertung pro Beispiel mit dem Ontology Score (OS). Zusammenfassend konnte eine durchschnittliche AUC von 86,5% erreicht werden, inklusive Konzepte mit einer AUC von 96%. Die Klassifizierungsleistung für jedes Bild lag zwischen 59 % und 100 % mit einer durchschnittlichen Punktzahl von 85 %. Im Vergleich zu den in ImageCLEF 2009 erzielten Ergebnissen stieg die Detektionsleistung bei der konzeptbasierten Auswertung um 2,2 % EER und 2,5 % AUC und zeigte einen leichten Rückgang bei der beispielbasierten Auswertung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17711-8_15 20bc4818df4a13a756ce8d4b7e663081;de;;;2.1.;;;Systemweite Unterstützung für Sicherheit in Pervasive Spaces Dieses Papier befasst sich mit Fragen der Sicherheit in Pervasive Spaces. Wir zeigen, wie sich durchdringende Systeme von herkömmlichen Computersystemen unterscheiden und wie ihre cyber-physische Natur eng mit den Benutzern verbunden ist. Fehler und Konflikte in solchen Räumen können nachteilige, gefährliche oder unerwünschte Auswirkungen auf den Benutzer, den Raum oder die Geräte haben. Es gibt keine sicherheitsbewussten Unterstützungssysteme oder Programmiermodelle. Hemmungsloses Programmieren ist das Modell de Jour, das nicht ausreicht. Wir brauchen ein Programmiermodell, das verschiedene Rollen, die an der Entwicklung von Pervasive Spaces beteiligt sind, fördert und verpflichtet, um zur Erhöhung der Sicherheit beizutragen. Wir schlagen ein Modell vor, das rollenspezifisches Sicherheitswissen nutzt und die reichhaltigen Erfassungs- und Betätigungsfähigkeiten von Pervasive Systems nutzt, um „widersprüchliche Kontexte“ zu erkennen und zu handhaben und „unzulässige Kontexte“ zu verhindern oder zu erkennen/abzuwenden. Wir präsentieren unser Modell und diskutieren, wie es die allgemeinen Sicherheitsrisiken bei Unsicherheit aufgrund mehrerer unabhängiger Rollen mindert.;-;-;-;https://link.springer.com/article/10.1007/s12652-011-0078-7 db6044ca2b6328e269c698a805b46036;de;;;2.1.;;;Einsatz von Elektrophorese und Immunelektrophorese in taxonomischen und Umweltverschmutzungsstudien Es wurden Studien zur Elektrophorese von Blutserum und Augenlinsenproteinen von 5 Fischen und Immunelektrophorese der löslichen Linsenproteine ​​von 10 Fischen durchgeführt. Die Auswirkungen eines giftigen Schadstoffs (Quecksilber) auf die elektrophoretischen Muster der Serum-, Hämoglobin- und Augenlinsenproteine ​​eines euryhalinen Fisches;-;-;-;https://link.springer.com/article/10.1007/BF03186279 995f644bbe8faa803e1db0f44d71cf2c;de;;;2.1.;;;Automatische Identifizierung von Schmetterlingsarten basierend auf den Merkmalen der Graustufen-Ko-Auftrittsmatrix des Bildblocks In den letzten Jahren erregt die automatische Identifizierung von Schmetterlingsarten in verschiedenen Bereichen immer mehr Aufmerksamkeit. Da die meisten ihrer Larven Schädlinge sind, ist diese Forschung nicht nur für die Popularisierung der Wissenschaft von Bedeutung, sondern auch für die landwirtschaftliche Produktion und die Umwelt wichtig. Textur als bemerkenswertes Merkmal wird in der digitalen Bilderkennungstechnologie weit verbreitet verwendet, um die Textur zu beschreiben, wurde ein äußerst effektives Verfahren, die Graustufen-Ko-Auftrittsmatrix (GLCM), vorgeschlagen und in automatischen Identifikationssystemen verwendet. Nach den meisten bestehenden Arbeiten wird GLCM jedoch aus dem gesamten Bild berechnet, dem wahrscheinlich einige wichtige Merkmale in lokalen Bereichen fehlen. Um dieses Problem zu lösen, stellt dieser Artikel eine neue Methode vor, die auf den aus drei Bildblöcken extrudierten GLCM-Features und einem gewichtsbasierten;-;-;-;https://link.springer.com/article/10.1007/s12204-018-2013-y 23e3f9185cce295b5a9867f42af71b5d;de;;;2.1.;;;Mining Allgemeine Fuzzy-Sequenzen basierend auf Fuzzy-Ontologie Sequence Mining, ein Zweig des Data Mining, ist neuerdings ein wichtiges Forschungsgebiet, das Teilsequenzen, die sich in einer temporalen Datenbank wiederholen, erkennt. Fuzzy Sequence Mining kann das Problem als Qualitätsform ausdrücken, die zu wünschenswerteren Ergebnissen führt. Sequence Mining-Algorithmen konzentrieren sich auf die Elemente, deren Unterstützung höher als ein bestimmter Schwellenwert ist. Die Berücksichtigung von Items mit ähnlichen mentalen Konzepten führt zu allgemeinen und kompakteren Sequenzen in der Datenbank, die in Situationen, in denen die Unterstützung einzelner Items unter dem Schwellenwert liegt, möglicherweise nicht unterscheidbar sind. Dieses Papier schlägt einen Algorithmus vor, um Sequenzen mit allgemeineren Konzepten zu finden, indem die mentale Ähnlichkeit zwischen Elementen unter Verwendung der Fuzzy-Ontologie berücksichtigt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-1695-1_20 e9c34549b1be414bf2aa7b4f3fd31095;de;;;2.1.;;;OIL-Ontologien für kollaborative Aufgabenerfüllung in Koalitionen eigennütziger Akteure Präsentiert werden das Aufgabenmodell und die Ontologien zur Gestaltung kooperativer Arbeit in einer offenen Organisation intelligenter Agenten-Führungskräfte. Diese Agenten bilden dynamisch die Koalitionen für die gemeinsame Aufgabenerfüllung. Die Koalitionsbildung wird durch Vertragsverhandlungen im Rahmen der Arrangement-Phase geleitet. Die Aufgabe der Aufgaben- und Verhandlungs-Ontologien besteht darin, eine gemeinsame Konzeptualisierung der Begriffe, der Strukturen und der Verfahren bereitzustellen, die von Agenten in den Prozessen der Aktivitätsanalyse, Dekomposition, Leistung und Delegation verwendet werden. Die Ontologien sind in OIL formalisiert und werden in DAML (RDF), RDFS, SHIQ Notationen übersetzt, wodurch die Konzepte in Form von neuen Service Markup Standards bereitgestellt werden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-46140-X_30 e8bf64670ac72f0bd3cb91279086bb5c;de;;;2.1.;;;Auf dem Weg zu affektiv-psychophysiologischen Grundlagen der Musikproduktion Dieser Beitrag beschreibt affektive und psychophysiologische Grundlagen, die dazu dienen, affektive Inhalte in der Musikproduktion zu kontrollieren. Unsere Arbeit beinhaltet die Bereitstellung einer Wissensbasis, die auf dem neuesten Stand der Technik in den Bereichen der Musikpsychologie basiert. Diese Wissensbasis hat Beziehungen zwischen affektiven Zuständen (Glück, Traurigkeit usw.) und hochrangigen Musikmerkmalen (Rhythmus, Melodie usw.), um die Produktion affektiver Musik zu unterstützen. Ein Computersystem verwendet diese Wissensbasis, um Musikstücke auszuwählen und zu transformieren. Die diesem System zugrunde liegende Methodik basiert im Wesentlichen auf Themen des Affective Computing. Psychophysiologische Maßnahmen werden verwendet, um den affektiven Zustand des Zuhörers zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74889-2_45 695ca088b68d5970c5760444c3095f4d;de;;;2.1.;;;Entwicklung einer ontologiebasierten Lösung zur Energieeinsparung durch ein Smart Home in der Stadt Adrar in Algerien Die Nutzung elektrischer Geräte und das Aufkommen neuer Informations- und Kommunikationstechnologien (NICT), die zu einem deutlichen Anstieg des Stromverbrauchs führten. Dieser Artikel stellt eine Entscheidungshilfe für die Wahl des Energieverbrauchs vor, die eine bessere Energieeffizienz ermöglicht. Es untersucht, wie der Semantic-Web-Ansatz verwendet werden kann, um Informationen über einen Bewohner, Energie, Verhalten und Aktivitäten von Bewohnern darzustellen. Die Ontologie ist das Hauptelement dieser Arbeit, da sie Informationen über Konzepte, Eigenschaften und Beziehungen zwischen Konzepten darstellt. Dieser Ansatz bietet mehrere Vorteile, wie z. B. die gemeinsame Nutzung und Wiederverwendung von Wissen für eine gute Entscheidungsfindung. Wir wählten OWL (Ontology Web Language) für die formale Darstellung von Wissen, SWRL-Regeln (Semantic Web Rules) für die intelligente Argumentation der Lösung, schließlich kommt die Software Protégé2000 für die Edition von Wissen zum Einsatz. Wir haben unsere Lösung auf eine Residenz in der Stadt Adrar in Algerien angewendet. Diese Stadt zeichnet sich durch ein regionalspezifisches Klima und menschliche Aktivitäten aus, diese beiden Eigenschaften haben einen großen Einfluss auf den Energieverbrauch.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-74690-6_52 071d8fb2babb0d3a098b1baff42eb8ee;de;;;2.1.;;;Ein ontologiebasiertes Datenschutzmodell für Drittanbieterplattformen Eine Handelsplattform von Drittanbietern ist ein webbasiertes System, das Dienstleistungen für Verkäufer und Käufer bereitstellt. Auf einer solchen Plattform müssen Benutzer personenbezogene Daten angeben, um die Authentizität und Unbestreitbarkeit einer Transaktion sicherzustellen. In diesem Papier schlagen wir ein ontologiebasiertes Datenschutzmodell für Drittanbieterplattformen vor, das es Käufern und Verkäufern ermöglicht, Datenschutzrichtlinien gemäß ihren Präferenzen zu definieren und Richtlinien in ontologiebasierte Formulare umzuwandeln. Wir stellen die Eigenschaft von . vor;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35236-2_37 9596ad8a0e703b8331b2377d152010bf;de;;;2.1.;;;Erweiterung der REA-Ontologie zur Evaluation von Process Warehousing-Ansätzen Ein zur Analyse von Geschäftsprozessen entwickeltes Data Warehouse wird Process Warehouse (PW) genannt. Die Gestaltung von Prozesslagern wird selten evaluiert, da ein generisches PW-Modell fehlt, das als Maßstab für die Bewertung dienen kann. Daher erweitern wir in diesem Papier die REA-Ontologie und verwenden sie zur Entwicklung eines generischen PW-Modells, das weiter als Kriterien für die Bewertung des PW-Designs verwendet werden kann. Darüber hinaus wird das generische PW-Modell verwendet, um verschiedene Ansätze der Prozesslagerung zu evaluieren, die in einer umfassenden Umfrage gesammelt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04754-1_21 840dbc0681659a7fd914c80636e33df6;de;;;2.1.;;;Funktionales Verständnis basierend auf einer Ontologie funktionaler Konzepte Dieser Artikel diskutiert die automatische Identifizierung von Funktionsstrukturen von Artefakten aus gegebenen Verhaltensmodellen von Komponenten und deren Verbindungsinformationen (sogenanntes funktionales Verständnis). Wir schlagen eine Ontologie funktionaler Konzepte vor, die ein reiches Vokabular für Funktionen zusammen mit klaren, auf Verhalten basierenden Definitionen bietet. Die Ontologie ermöglicht es dem verstehenden System, den Suchraum auf funktionaler Ebene einzuschränken und sinnlose Interpretationen auszublenden. Darüber hinaus enthält die Ontologie eine neue Kategorie funktionaler Konzepte namens Meta-Funktion, die konzeptionelle Kategorien der Beziehung zwischen Funktionen darstellt. Bei der Konsolidierung von Funktionen spielt es eine entscheidende Rolle, Kriterien für die Gruppierung von Funktionen anzugeben, dh die Identität konsolidierter Funktionen. Es ermöglicht dem verstehenden System, solche Funktionshierarchien zu generieren, die nicht der physischen Struktur entsprechen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44533-1_72 6d1948186983ea01593e5f552535cfc7;de;;;2.1.;;;UDL-Ontologie Eine Ausbildung, die die Fähigkeiten und Stärken jedes einzelnen Schülers schätzt und fördert, bringt wichtige Vorteile für Lernende und Lehrende mit sich. Der Lehrer ist jedoch nicht immer bereit, Bildungsressourcen zu erstellen, die eine solche Vielfalt von Fähigkeiten berücksichtigen, insbesondere wenn behinderte Lernende einbezogen werden. In diesem Zusammenhang stellt dieser Beitrag UDLOntology vor, eine Ontologie im Bildungsbereich, die auf den Prinzipien des Universal Design for Learning basiert. Ihr Ziel ist es, Empfehlungen für Bildungsmaterialien abzuleiten, die das Lernen der Schüler entsprechend ihren individuellen Lernfähigkeiten und -stärken am besten erleichtern und anregen. UDLOntology wird zusammen mit der Kursautorenplattform SELI (Smart Ecosystem for Learning and Inclusion) Lehrer und Pädagogen beim Aufbau didaktischer Ressourcen anleiten und unterstützen, um Menschen mit Behinderungen zu unterstützen und zu stärken. Um die Angemessenheit der noch in Entwicklung befindlichen Ontologie bei der Schlussfolgerung von spezifischen Lehrmaterialien für jede Fähigkeit zu überprüfen, wurden einige Eigenschaften angegeben, die für die Teilnahme an Schülern mit Down-Syndrom erforderlich sind. Das Hauptziel von UDLOntology besteht darin, die Lernfähigkeiten und -stärken und nicht die Behinderungen hervorzuheben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72660-7_24 c431541b1de2acbd66aa2fe4f6418443;de;;;2.1.;;;Ontologischer Ansatz zur Generierung personalisierter Benutzeroberflächen für Webdienste Webdienste können Endbenutzern über Benutzerschnittstellen (UIs) präsentiert werden, die den Aufruf dieser Dienste erleichtern. Standardisierte, interoperable Mechanismen zur Beschreibung von Web-Service-Schnittstellen ermöglichen die Generierung von UIs automatisch und dynamisch, zumindest prinzipiell die Entstehung von;-;-;-;https://link.springer.com/chapter/10.1007/11574620_65 e8375a8ff07b9265ae6c859520907716;de;;;2.1.;;;Erkennung, Simulation und Eliminierung semantischer Antimuster in ontologiegesteuerten Konzeptmodellen Die Konstruktion großmaßstäblicher konzeptioneller Referenzmodelle ist eine komplexe Ingenieurtätigkeit. Um qualitativ hochwertige Modelle zu entwickeln, muss ein Modellierer auf ausdrucksstarke Engineering-Werkzeuge wie theoretisch fundierte Modellierungssprachen und -methodiken, Patterns und Anti-Patterns sowie automatisierte Supportumgebungen zurückgreifen. Dieses Papier schlägt semantische Anti-Patterns für die ontologiegetriebene konzeptionelle Modellierung vor. Diese Anti-Muster erfassen fehleranfällige Modellierungsentscheidungen, die zur Erstellung von Modellen führen können, die unbeabsichtigte Modellinstanzen zulassen (die einen unerwünschten Zustand darstellen). Die hier vorgestellten Antimuster wurden empirisch durch einen Ansatz zur Validierung konzeptioneller Modelle mittels visueller Simulation ermittelt. Das Papier stellt auch ein Werkzeug vor, das in der Lage ist: diese Anti-Muster in Benutzermodellen automatisch zu identifizieren, ihre Konsequenzen zu visualisieren und Korrekturen an diesen Modellen durch die automatische Einbeziehung von OCL-Beschränkungen zu generieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12206-9_30 4667138a868f68770a946e27f45c6187;de;;;2.1.;;;Die generative Kraft der arabischen Morphologie und Implikationen: Ein Fall für die Musterorientierung in der arabischen Korpusannotation und eine vorgeschlagene Musterontologie Die meisten aktuellen arabischen morphologischen Analysatoren verwenden komplexe Regeln, um die Eigenheiten bestimmter arabischer Wortklassen und Sonderfälle zu behandeln. Es stellt sich die Frage: Ist es möglich, einen musterorientierten morphologischen Analysator zu entwickeln, der den Prozess rationalisiert und die Verwendung komplexer Regeln vermeidet? Um diese Frage zu beantworten, wurde eine detaillierte Studie mit einem kleinen repräsentativen arabischen Korpus durchgeführt. Die Studie ergab, dass die meisten Wörter in der Sprache mit einer begrenzten Anzahl von Mustern, Morphemen und Partikeln generiert werden können. Gebeugte und abgeleitete Wörter können durch Kombinationen von Wurzeln und Mustern erzeugt werden. Die Gesamtzahl der Wurzeln beträgt etwa 10.000, während die Gesamtzahl der morphologischen Muster unter 1000 liegt. Die Gesamtzahl der Partikel beträgt etwa 325. Etwa 70% der Wörter im experimentellen Korpus sind templatartig (basierend auf morphologischen Mustern). Obwohl die Zahl der identifizierten Muster 943 erreichte, ist nur eine kleine Teilmenge davon aktiv. Zum Beispiel machten die Top 12 Muster in der identifizierten Liste mehr als 50 % der generierten Template-Wörter aus. Obwohl die Gesamtzahl der Wurzeln etwa 10.000 beträgt, beträgt die Anzahl der aktiven Wurzeln 3.461. Partikel und ähnliche Morpheme machen etwa 30 % des Textes im experimentellen Korpus aus. Diese Funktionen vereinfachen die Entwicklung von NLP-Anwendungen wie Rechtschreibkorrekturen, Normalisierern, Lemmatisierungen und Anwendungen auf höherer Ebene erheblich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-78753-4_4 76632021f6d249375ef2b3bd7a3d426b;de;;;2.1.;;;Entitätsverknüpfung mit mehreren Wissensdatenbanken: Ein Ontologie-Modularisierungsansatz Die Erkennung von Entitäten im Text ist die Grundlage für eine Reihe von Anwendungen. Synonymie und Mehrdeutigkeit gehören zu den größten Herausforderungen bei der Identifizierung solcher Entitäten. Beide Herausforderungen werden durch Entity Linking angegangen, die Aufgabe, Erwähnungen von Entitäten in Textdokumenten mit Einträgen in der Wissensdatenbank zu verknüpfen. Entity Linking basiert auf der Verwendung einzelner domänenübergreifender Wissensdatenbanken als Quelle für Entitäten. Diese Doktorarbeit schlägt die Verwendung mehrerer Wissensdatenbanken für die Entitätsverknüpfung vor, um die Anzahl der im Text erkannten Entitäten zu erhöhen. Das Problem der Entitätsverknüpfung mit mehreren Wissensdatenbanken wird durch die Verwendung von Text- und Wissensdatenbankfunktionen als Kontexte für die Entitätsverknüpfung, der Ontologie-Modularisierung zur Auswahl der relevantesten Teilmenge von Entitätseinträgen und der kollektiven Inferenz zur Entscheidung des am besten geeigneten Entitätseintrags zum Verknüpfen mit jedem angegangen erwähnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11915-1_33 ef509aa788bfcb6aaf4ad2776f421624;de;;;2.1.;;;Ein ontologischer Rahmen für dynamische Koordination Koordination ist der Prozess des Managements der möglichen Interaktionen zwischen Aktivitäten und Prozessen, ein Mechanismus zum Umgang mit solchen Interaktionen wird als Koordinationsregime bezeichnet. Ein erfolgreiches Koordinationsregime verhindert das Auftreten negativer Interaktionen (z. B. indem verhindert wird, dass zwei Prozesse gleichzeitig auf eine nicht gemeinsam nutzbare Ressource zugreifen) und, wo immer möglich, positive Interaktionen (z. B. indem sichergestellt wird, dass Aktivitäten nicht unnötig dupliziert werden). Wir gehen von der Prämisse aus, dass effektive Koordinationsmechanismen den Austausch von Wissen über Aktivitäten, Ressourcen und deren Eigenschaften erfordern und dass daher in einer heterogenen Umgebung ein ontologischer Ansatz für die Koordination angemessen ist. Nach einem Überblick über aktuelle Arbeiten zur dynamischen Koordination beschreiben wir eine Ontologie für die Koordination, die wir mit dem Ziel entwickelt haben, semantische Webprozesse zu koordinieren. Anschließend präsentieren wir eine Umsetzung unserer Ideen, die als Proof of Concept dafür dient, wie diese Ontologie für die dynamische Koordination genutzt werden kann. Wir schließen mit einer Zusammenfassung der vorgestellten Arbeit, veranschaulichen ihren Bezug zum Semantic Web und geben Einblicke in zukünftige Erweiterungen.;-;-;-;https://link.springer.com/chapter/10.1007/11574620_46 6633be72732575262ab4f4908dfbcc19;de;;;2.1.;;;Zur Domänenkonzeption Die wachsende Rolle von Modellen über den gesamten Lebenszyklus von Unternehmen hinweg und ihrer Informations- und Softwaresysteme macht eine grundlegendere Reflexion über die Grundlagen der Modellierung erforderlich. Zwei der Kerntheorien der Disziplin Enterprise Engineering (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-74196-9_4 66848089c7d93bfc18955f0adaca7d6d;de;;;2.1.;;;Die Lebensräume britischer Ephemeropteren In Großbritannien kommen 47 Arten von Ephemeroptera vor. Das sind viel weniger als in Europa insgesamt. Während synoptischer Studien von Süßwasser-Ökosystemen in Großbritannien wurden über 1000 verschiedene Gewässer untersucht. An allen Standorten wurden Sammlungen von Zoobenthos gemacht, darunter auch Ephemeropteren. Eine Auswahl der Daten wurde analysiert, um die Lebensräume britischer Ephemeroptera und die Natur der Gemeinschaften und Ökosysteme, in denen sie vorkommen und nicht vorkommen, quantitativ zu beschreiben. Einige wenige Arten sind so selten, dass ihre Lebensräume nicht beschrieben werden können. Von den häufigeren Arten kommen einige in verschiedenen Gewässern vor, andere in einer bestimmten Art. Die bestimmenden Faktoren scheinen mit dem Wasserfluss, dem Temperaturregime, der Chemie, der Exposition und anderen komplexen Variablen, von denen einige biotisch sind, zusammenzuhängen. Assoziations- und andere multiple Analysen zeigen, dass, obwohl es Übergänge gibt, bestimmte Gemeinschaften von Ephemeroptera definiert werden können. Der Wert der Studie sowohl im angewandten als auch im theoretischen Bereich wird diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-3066-0_10 9326c05bad0c4dee9e7224d4a2ad5741;de;;;2.1.;;;Eine Ontologie zur Erkennung von generalisierten Krankheitsinzidenzen auf Twitter In diesem Artikel stellen wir eine Ontologie krankheitsbezogener Konzepte vor, die für die Erkennung von Krankheitsfällen in Tweets bestimmt ist. Im Gegensatz zu früheren schlüsselwortbasierten Systemen und Themenmodellierungsansätzen ermöglicht unser ontologischer Ansatz es uns, strengere Kriterien zur Bestimmung der relevanten Nachrichten anzuwenden, wie z lexikalisch abweichend sein. Dies erreichen wir, indem wir beaufsichtigte Lernende an Konzepten und nicht an einzelnen Wörtern schulen. Effektiv bilden wir jedes mögliche Wort auf ein Lexikon fester Länge ab, wodurch eine lexikalische Divergenz zwischen Trainingsdaten und neuen Daten eliminiert wird. Für das Training verwenden wir einen Datensatz mit Erwähnungen von Influenza, Erkältung und Listerien und verwenden die erlernten Modelle, um Datensätze zu klassifizieren, die Erwähnungen einer beliebigen Auswahl anderer Krankheiten enthalten. Wir zeigen, dass unser ontologischer Ansatz zu Modellen führt, deren Leistung bei lexikalisch divergenten Daten nicht nur gut, sondern auch stabil ist, im Vergleich zu einem Unigram-, Bag-of-Word-Baseline-Ansatz auf Wortebene. Wir zeigen auch, dass Wortvektoren direkt aus unseren Konzepten gelernt werden können, um noch bessere Ergebnisse zu erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-59650-1_4 ead5c1a91a6ec774708421df7d1b8a2b;de;;;2.1.;;;Samenübertragene Pilze Die meisten durch Samen übertragenen Krankheitserreger sind Pilze. Einige Klassen oder Gattungen kommen häufig in Samen vor, andere kommen nur gelegentlich oder gar nicht vor. Einige sind leicht zu erkennen, andere treten auf, können aber durch herkömmliche Testverfahren nicht aufgedeckt werden. Das Ausmaß, in dem Pilze in Samen vorkommen, hängt von ihrer Fähigkeit ab, unter den extrem trockenen Bedingungen von Samen als Träger zu überleben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-02842-9_5 3fd9e4fab7b0cf030e2789304aa3f21a;de;;;2.1.;;;Fuzzy-Partitionen optimieren oder Fuzzy-Regeln Gewichte zuweisen: Was ist besser? Die Genauigkeit linguistischer Klassifikatoren kann mit mehreren Techniken verbessert werden, aber alle beeinträchtigen die Interpretierbarkeit der Regelbasis bis zu einem gewissen Grad. Das Zuweisen von Gewichten zu Fuzzy-Regeln und das Abstimmen der Mitgliedschaften, die linguistischen Variablen zugeordnet sind, sind zwei der gebräuchlichsten Methoden. In dieser Arbeit untersuchen wir, ob die Abstimmung der Zugehörigkeitsfunktionen in einem linguistischen Klassifikator im Hinblick auf die Interpretierbarkeit der Regelbasis und die Komplexität der Ausgabe besser ist als die Anpassung von Regelgewichtungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-37058-1_15 fc7c6f0118618ba5eb5535b58b536c0b;de;;;2.1.;;;Eine kritische Überprüfung der Konzepte und Methoden der klassischen Genomanalyse Es wird ein kurzer Überblick über die Entwicklung der klassischen Genomanalyse, der Analyse des Chromosomenverhaltens in der Metaphase I der Meiose, vor allem in interspezifischen Hybriden gegeben. Die Anwendung des Konzepts der Homologie zur Beschreibung der Chromosomenpaarung zwischen den jeweiligen Chromosomen eines Paares während der Meiose wird verfolgt, und die Beziehung zwischen dieser Verwendung von Homologie und dem Konzept der Homologie als gemeinsame Abstammung wird ausführlich diskutiert. Die Gleichsetzung der beiden Konzepte hat zu der irrigen Annahme geführt, dass das Niveau der Chromosomenpaarung ein Hinweis auf eine phylogenetische Verwandtschaft ist.;-;-;-;https://link.springer.com/article/10.1007/BF02857624 cf1a2848d5da5d857c7a292495611a9f;de;;;2.1.;;;Aktueller taxonomischer Status von Fadenbakterien in Belebtschlammanlagen Um einige der Probleme zu verstehen, die mit der Identifizierung der filamentösen Bakterien in Belebtschlamm verbunden sind, müssen zunächst die Prinzipien der Taxonomie diskutiert werden. Diese Diskussion wird kurz sein und der Leser wird auf die allgemeinen Einführungsbücher von Austin und Priest (1994) und Logan (1994) für weitere Informationen verwiesen. Die für alle biologischen Wissenschaften grundlegende Wissenschaft der Taxonomie besteht aus drei getrennten Unterdisziplinen, die manchmal als Trinität der Taxonomie bezeichnet werden und alle miteinander verbunden sind (Goodfellow und O’Donnell, 1993b, 1994, Schleifer und Ludwig, 1994).;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-3951-9_5 d31f42f5d4b7fabc8c8d26a5821ddf35;de;;;2.1.;;;Taxonomische Untersuchung einiger Stygobiont-Oligochaeten aus dem Osten Frankreichs, einschließlich Beschreibung einer neuen Art Untersucht wurden aquatische Oligochaeten aus verschiedenen Lebensräumen unterirdischer Gewässer im Raum Lyon. Diese vorläufige taxonomische Übersicht berücksichtigt die Familien Tubificidae und Lumbriculidae. Eine neue Art von Tubificidae (Unterfamilie Phallodrilinae),;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0597-5_3 070ca15be0f51a3bdbabc37e1465f0ee;de;;;2.1.;;;Verwendung der Automatentheorie zur Charakterisierung der Semantik terminologischer Zyklen In den meisten implementierten terminologischen Wissensrepräsentationssystemen ist es nicht möglich, rekursive Begriffsdefinitionen, sogenannte Terminologiezyklen, anzugeben. Ein Grund dafür ist, dass nicht klar ist, welche Semantik für solche Zyklen verwendet werden soll. Außerdem können die in solchen Systemen verwendeten Inferenzalgorithmen bei Vorhandensein von Terminologiezyklen in die Irre gehen. In diesem Beitrag betrachten wir Terminologiezyklen in einer sehr kleinen terminologischen Repräsentationssprache. Für diese Sprache kann die Wirkung der drei von B. Nebel eingeführten Semantiktypen vollständig mit Hilfe endlicher Automaten beschrieben werden. Diese Beschreibungen ermöglichen ein eher intuitives Verständnis von Terminologien mit rekursiven Definitionen und geben einen Einblick in die wesentlichen Merkmale der jeweiligen Semantik. Außerdem erhält man Algorithmen und Komplexitätsergebnisse für das Subsumtionsproblem und für verwandte Inferenzaufgaben. Die Ergebnisse dieser Arbeit können bei der Entscheidung helfen, welche Semantik je nach Darstellungsaufgabe für zyklische Definitionen am besten geeignet ist.;-;-;-;https://link.springer.com/article/10.1007/BF02127747 681a644973614ba411379507709b1657;de;;;2.1.;;;Methoden zur Diagnostik und Differenzierung des Pestinfektionserregers: Intraspezifische Differenzierung von Probleme und Aspekte der intraspezifischen Differenzierung des Pestinfektionserregers werden diskutiert. Besonderes Augenmerk wird auf die Notwendigkeit einer genaueren Bestimmung der taxonomischen Lokalisation der Pesterreger im Hinblick auf ihre genotypischen Eigenschaften, selektive Virulenz und die evolutionäre Abstammung der Gattung gelegt;-;-;-;https://link.springer.com/article/10.3103/S0891416807010016 1a945ae980e7cade435311d124d00fc5;de;;;2.1.;;;Ein generischer Mengentheorie-basierter Pattern-Matching-Ansatz zur Analyse konzeptueller Modelle Model Das Erkennen von Mustern in konzeptionellen Modellen ist für eine Reihe von Zwecken nützlich, z. In diesem Beitrag stellen wir einen Ansatz zur Spezifikation und zum Matching von Strukturmustern in konzeptionellen Modellen vor. Im Gegensatz zu bestehenden Ansätzen konzentrieren wir uns nicht auf ein bestimmtes Anwendungsproblem oder eine bestimmte Modellierungssprache. Stattdessen ist unser Ansatz generisch, wodurch er für jeden Mustervergleichszweck und jede konzeptionelle Modellierungssprache anwendbar ist. Um Mengen zu bilden, die strukturelle Modellmuster repräsentieren, definieren wir mengentheoretische Operationen, die auf beliebige Mengen von Modellelementen und Beziehungen angewendet werden können. Neben einer konzeptionellen Spezifikation unseres Ansatzes präsentieren wir ein prototypisches Modellierungswerkzeug, das seine Anwendbarkeit zeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04840-1_6 fef70a3e7d5b3558de78b835527f939a;de;;;2.1.;;;Taxonomische Struktur: Artenvielfalt Terrestrische Ökologen haben vor langer Zeit den Reichtum der Flora und Fauna tropischer Umgebungen im Vergleich zu kälteren Klimazonen bemerkt. Die Diversifikation innerhalb vieler spezifischer taxonomischer Gruppen ist in den Tropen sowohl in terrestrischen als auch in marinen Umgebungen deutlich größer als in gemäßigten Breiten (Abb. 12–1). Niedrige Artenzahlen sind auch typisch für schwere und gestörte Lebensräume. Solche Beobachtungen haben eine reichhaltige und umstrittene Sammlung von Veröffentlichungen hervorgebracht, die sich mit drei Hauptproblemen befasst haben: erstens, wie die klar beobachtbaren Unterschiede in der Vielfalt quantifiziert werden können, zweitens, wie werden solche Unterschiede im taxonomischen Reichtum von Gemeinschaften erzeugt und gepflegt und drittens, was? bedeuten solche Unterschiede ökologisch.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-1833-1_12 0bf9a9630cf3a13db6c309025140ed9c;de;;;2.1.;;;Perspektiven der Prozessmodellierung – ein historischer Überblick Die Prozessmodellierung wird aus einer Reihe von Gründen in Bezug auf die Unternehmensmodellierung, die Geschäftsprozessmodellierung und die Informationssystementwicklung im Allgemeinen durchgeführt, und dieses Dokument gibt einen Überblick über die wichtigsten Ansätze für verschiedene Arten der Prozessmodellierung. Modellierungsansätze sind nach der verwendeten Hauptmodellierungsperspektive strukturiert. In der konzeptionellen Modellierung im Allgemeinen kann man 8 Modellierungsperspektiven identifizieren, verhaltensbezogene, funktionale, strukturelle, zielorientierte, objektorientierte, sprachliche, organisatorische und topologische. In dem Beitrag werden sowohl historische als auch aktuelle Beispiele der Prozessmodellierung gemäß diesen unterschiedlichen Perspektiven vorgestellt und diskutiert, welche Perspektiven am besten geeignet sind, um die verschiedenen Ziele der Modellierung zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31072-0_22 ca0a8b57678571fdf75d45fb2947f419;de;;;2.1.;;;Ein grober Rahmen für das Lernen in einem gerichteten azyklischen Graphen Die Vorhersage der Genfunktion aus Expressionsprofilen führt zu einem neuen Lernproblem, bei dem die mit den Objekten (d. h. Gene) assoziierten Entscheidungsklassen in einem gerichteten azyklischen Graphen (DAG) organisiert sind. Standardlernmethoden wie Rough Sets gehen davon aus, dass diese Klassen keinen Bezug haben und dieses Problem nicht richtig behandeln können. Zu diesem Zweck führen wir ein erweitertes Grobset-Framework mit mehreren neuen Operatoren ein. Wir zeigen, wie diese Operatoren in einem neuen Lernalgorithmus verwendet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45813-1_18 82e30a2982a6bf81cbdb1998eb71861e;de;;;2.1.;;;Strategische Ausrichtung mit INSTAL . modellieren Strategisches Alignment hat sich in den letzten Jahrzehnten als üblicher Begriff herausgebildet und ist heute weit verbreitet. Die verfügbaren Definitionen sind jedoch oft vage und es fehlt an Formalismus, um eine systematische Argumentation zu unterstützen. Eine Schwierigkeit besteht darin, mit übergeordneten Organisationszielen umzugehen, die von Natur aus komplex, eher informell und bereichsübergreifend sind. Dieser Artikel stellt Teile einer Informationssystem-(IS)-Engineering-Methode namens INSTAL vor, die den Prozess der Ermittlung von IS-Evolutionsanforderungen durch die Analyse strategischer Ausrichtungsmodelle leitet. Dieses Papier konzentriert sich auf den oberen Teil dieses Prozesses, der darin besteht, diese Modelle zu konstruieren. Der INSTAL-Ansatz ist originell, da er auf einem Metamodell beruht, das die Ausrichtung formal definiert und die Konstruktion strategischer Ausrichtungsmodelle mit komplementären Techniken leitet. Der Beitrag stellt diese Merkmale und ihre Anwendung auf einen realen Fall eines französischen Bankunternehmens vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87991-6_32 1c91ca9ea4e9e19485ab1b992230671a;de;;;2.1.;;;Knowledge Fusion: Eine neue Methode zur gemeinsamen Nutzung und Integration verteilter Wissensquellen Source Dieses Papier stellt eine neue Methode zur Integration und gemeinsamen Nutzung verteilter Wissensobjekte unter Verwendung von Fusionsprozessen vor. Wissensobjekte werden auf eine Ontologiebasis abgebildet und in einen Meta-Wissenssatz transformiert. Ein detaillierter Wissensfusionsalgorithmus basierend auf GA und semantischen Regeln wird vorgeschlagen. Es wird auch ein Feedback-Mechanismus diskutiert, um sowohl den Fusionsprozess als auch den Wissensraum zu optimieren. Experimentelle Ergebnisse einer Fallstudie zeigen die Machbarkeit von Design-Grundsätzen in einer wissensbasierten Serviceumgebung.;-;-;-;https://link.springer.com/chapter/10.1007/11876663_61 993143ed7e812ce329e3c8734362492d;de;;;2.1.;;;Neuere neuronale VLSI-Netze in Japan In diesem Artikel werden aktuelle Forschungsaktivitäten zur Entwicklung elektronischer neuronaler Netze in Japan zusammengefasst. Die meisten der größten japanischen Elektronikunternehmen haben neuronale VLSI-Chips mit analogen, digitalen oder optoelektronischen Schaltungen entwickelt. Auf ihnen laufen verschiedene neuronale Netze. Vor kurzem wird in Japan der digitale Ansatz aktiv. Mehrere volldigitale VLSI-Chips für das On-Chip-BP-Lernen wurden entwickelt, und die Lerngeschwindigkeit von 2,3 GCUPS (Giga Connection Updates per Second) wurde bereits erreicht. Obwohl die Anzahl der Neuronen und Synapsen, die in einzelnen digitalen Chips enthalten sind, gering ist, kann ein großes neuronales Netzwerk durch Kaskadierung der Chips entwickelt werden. Durch Kaskadieren von 72 Chips wurde ein vollständig miteinander verbundenes digitales neuronales Netzwerksystem PDM (Pulse Density Modulating) entwickelt. Das Systemverhalten folgt simultanen nichtlinearen Differentialgleichungen und die Verarbeitungsgeschwindigkeit beträgt 12 GCPS (Giga Connections per Second).;-;-;-;https://link.springer.com/article/10.1007/BF01581955 cac1b0cbcfeb3c165404112ae734fd2b;de;;;2.1.;;;Eine gewichtete Kombinationsmethode zur Identifizierung der Zielidentität Die Beweistheorie wird häufig bei der Identifizierung der Zielidentität verwendet. Das Ergebnis der Dempster-Shafer-Theorie (DST) ist unzuverlässig, wenn der Konflikt hoch wird, und die Dezert-Smarandanche-Theorie (DSmT) reduziert die grundlegende Glaubenszuweisung in der Bedingung mit geringem Konflikt und DSmT, um ihre Schwächen zu überwinden. Das Verfahren berechnet die Ähnlichkeit als einen gewichteten Faktor zum adaptiven Kombinationsbeweis. Die Beispiele werden getestet und die Wirksamkeit und Anwendbarkeit der Methode verifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18129-0_5 2a0b4f1a683ed325f35c55d7168ace6d;de;;;2.1.;;;Verwendung künstlicher neuronaler Netze bei der Vorhersage von Nierentransplantationsergebnissen Traditionell haben Forscher statistische Methoden verwendet, um medizinische Ergebnisse vorherzusagen. Statistische Techniken liefern jedoch keine ausreichenden Informationen, um Probleme hoher Komplexität zu lösen. In letzter Zeit hat sich eine Vielzahl von Modellierungstechniken für künstliche Intelligenz wie künstliche neuronale Netze (ANNs), Case Based Reasoning (CBR) und Rule Induction (RI) mehr Aufmerksamkeit gewidmet. In dieser Studie versuchten wir, ANN zu verwenden, um die Ergebnisse von Nierentransplantationen vorherzusagen. Unsere Ergebnisse zeigten, dass dies zwar möglich war, die positive Vorhersagekraft des trainierten KNN jedoch gering war, was auf Verbesserungsbedarf hindeutet, wenn dieser Ansatz klinisch nützlich sein soll. Wir weisen auch auf potenzielle Probleme hin, die bei der Verwendung unvollständiger klinischer Datensätze für das KNN-Training auftreten können, einschließlich der Gefahr, dass Daten so vorverarbeitet werden, dass ein irreführender hoher Vorhersagewert erzielt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30134-9_76 bf8c95f4ce023b28061aba809a884123;de;;;2.1.;;;Neuronale Erkennung menschlicher Zeigegesten in realen Bildern Wir präsentieren ein auf einem neuronalen Netzwerk basierendes System zur visuellen Erkennung menschlicher Handzeiggesten aus Stereopaaren von Videokamerabildern. Die Genauigkeit des aktuellen Systems ermöglicht es, das Zeigeziel auf eine Genauigkeit von 2 cm in einem Arbeitsbereich von 50 × 50 cm abzuschätzen. Das System besteht aus mehreren neuronalen Netzen, die die Aufgaben der Bildsegmentierung, der Schätzung der Handposition, der Schätzung der 3D-Zeigerichtung und der notwendigen Koordinatentransformationen übernehmen. Die Funktionen aller Netzwerkmodule wurden stark unter Einsatz von Lernalgorithmen nur aus Datenbeispielen erstellt.;-;-;-;https://link.springer.com/article/10.1007/BF00571679 607f3c9da28c2a6d4b4d4a0d6839daec;de;;;2.1.;;;Visuelle und motorische mentale Bilder nach Hirnschäden Dieses Kapitel präsentiert Beweise von hirngeschädigten Patienten, die für die Debatte über die neuronalen Grundlagen visueller und motorischer mentaler Bildfähigkeiten relevant sind. Für visuelle mentale Bilder werden die Bereiche Objektform und -farbe, orthographisches Material und räumliche Bilder (imaginale Vernachlässigung) untersucht. In Bezug auf motorische Bilder werden die Beweise von Patienten mit Locked-in-Syndrom und vegetativem Zustand, Parkinson, vaskulären Schlaganfällen und Amputationen von Gliedmaßen überprüft. Obwohl postuliert wurde, dass sowohl visuelle mentale Bilder als auch motorische Bilder auf ähnliche neuronale Ressourcen zurückgreifen wie die entsprechenden „tatsächlichen“ Fähigkeiten (bzw für motorische Bilder. Visuelle mentale Bilder hingegen scheinen sich auf die Aktivität der visuellen Verarbeitung auf hohem Niveau zu stützen. Diese Möglichkeit scheint mit dem vorgeschlagenen „aktiven“ Charakter der bildlichen Fähigkeiten im Einklang zu stehen, der nicht unbedingt das Funktionieren von sensorischen Kortexen erfordern würde, die der Verarbeitung externer Reize dienen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-5879-1_13 b2b6656e0cef2afa29639ea3b1d8c412;de;;;2.1.;;;Charakterisierung der Sprachproduktionsdynamik von Social-Media-Nutzern In diesem Papier schlagen wir eine Charakterisierung von Social-Media-Nutzern basierend auf dem Sprachgebrauch im Laufe der Zeit vor, um die Begriffe organisches und anorganisches Online-Verhalten strenger zu gestalten. Diese Charakterisierung beschreibt das Ausmaß, in dem die Wortverwendung eines Benutzers innerhalb eines bestimmten Zeitraums die Erwartungen auf der Grundlage früherer Zeiträume untergräbt. Dazu passen wir die Verwendung eines informationstheoretischen Maßes der kognitiven Überraschung an und wenden es auf eine Reihe von verhaltensmäßig unterschiedlichen Twitter-Nutzern an. Anschließend vergleichen wir die Dynamik der Sprachproduktion zwischen den Benutzern basierend auf der Häufigkeit von Begriffen auf mehreren Granularitätsebenen. Anschließend veranschaulichen wir die Intuition hinter dieser Charakterisierung durch Fallstudien von herausragenden Benutzern, die mit dieser Methode identifiziert wurden. Anhand dieser Fallstudien stellen wir fest, dass diese Charakterisierung mit dem Grad verknüpft werden kann, in dem der Wortgebrauch eines Benutzers organisch, anorganisch oder eine Mischung aus beidem ist.;-;-;-;https://link.springer.com/article/10.1007/s13278-019-0605-7 96bb12504bc75af3c13594a90d39ead0;de;;;2.1.;;;Ein quantitatives Beschreibungsmodell für Richtungsbeziehungen basierend auf Richtungsgruppen Die Beschreibungsmodelle für räumliche Beziehungen, insbesondere solche für Richtungsbeziehungen, haben in den letzten Jahrzehnten in der GIS- und Kartographie-Community zunehmende Aufmerksamkeit erlangt. In diesem Beitrag wird ein solches quantitatives Modell für räumliche Richtungsbeziehungen diskutiert. Es wurde vorgeschlagen, dass Menschen oft Richtungen zwischen zwei Objekten unter Verwendung mehrerer Richtungen beschreiben, aber nicht einer einzigen, daher sollte ein Beschreibungsmodell für Richtungsbeziehungen mehrere Richtungen verwenden, d. h. eine Richtungsgruppe. Eine Richtungsgruppe besteht aus zwei Komponenten: den Azimuten der Richtungsnormalen der Voronoi-Kanten zwischen zwei Objekten und den entsprechenden Gewichten der Azimute. Ersteres kann mittels Delaunay-Triangulation der Scheitelpunkte und Schnittpunkte der beiden Objekte berechnet werden, letzteres lässt sich über die gemeinsamen Flächen der beiden Objekte oder die Längen ihrer Richtungskanten des Voronoi-Diagramms (DVD) berechnen Vorteile dieses Modells bestehen in vier Aspekten: (1) Richtungsberechnungen werden in ein 1-dimensionales Raumproblem umgewandelt und verwenden Linien (DVDs), um es zu lösen, daher wird der Richtungsberechnungsprozess vereinfacht, (2) einmal Dir(A,B) , die Richtungen von A nach B, erhält man Dir(B,A) ohne aufwendige Berechnungen, (3) Eine quantitative Richtungsgruppe lässt sich leicht in eine qualitative umwandeln, (4) quantitative Richtungsbeziehungen zwischen Objekten können in 2-dimensionalen Tabellen aufgezeichnet, was beim räumlichen Denken sehr nützlich ist.;-;-;-;https://link.springer.com/article/10.1007/s10707-006-7578-1 d8a1a4db39847a9caa7d5814f8a8f928;de;;;2.1.;;;Klassenweises Clustering zur Klassifizierung von unausgeglichenen Textdaten In diesem Beitrag wird das Problem der Klassifizierung von unausgeglichenen Textdaten behandelt. Anfänglich wird ein über die Klassen hinweg vorhandenes Ungleichgewicht reduziert, indem jede Klasse in mehrere kleinere Unterklassen umgewandelt wird. Ferner wird jedes Dokument in einem niedrigerdimensionalen Raum mit einer Größe gleich der Anzahl von Unterklassen unter Verwendung einer maßbasierten Transformationstechnik der Begriffsklassenrelevanz (TCR) dargestellt. Dann wird jede Unterklasse in Form eines intervallbewerteten Merkmalsvektors dargestellt, um die Kompaktheit zu erreichen, und in einer Wissensdatenbank gespeichert. Ein symbolischer Klassifikator wurde effektiv für die Klassifizierung von nicht gekennzeichneten Textdokumenten verwendet. Experimente werden an Reuters-21578- und TDT2-Textdatensätzen durchgeführt. Die Ergebnisse zeigen, dass die Leistung der vorgeschlagenen Methode besser ist als die anderer existierender Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-5802-9_8 b6180e7a2a56877f143a253596a6870b;de;;;2.1.;;;Vererbung und Synchronisation in gleichzeitiger OOP Dieses Papier diskutiert Mechanismen zur Wissensteilung (Vererbung) für die objektorientierte Programmierung (OOP) im Kontext nebenläufiger (verteilter) Sprachen. Wir überprüfen drei verschiedene Schemata:;-;-;-;https://link.springer.com/chapter/10.1007/3-540-47891-4_4 bec6e02a1320d378aae8930e423d276f;de;;;2.1.;;;Differentielle Gehirnaktivität beim Lesen von Hangul und Hanja in koreanischer Sprache Obwohl die koreanischen Wörter (Hangul) wie andere alphabetische Sprachen als Phoneme bezeichnet werden, ähnelt ihre Form viel mehr Morphemen wie chinesischen Schriftzeichen (Hanja). Die Verwendung der funktionellen Magnetresonanztomographie ermöglicht die Erfassung von Gehirnaktivierungsmustern, wenn koreanische Muttersprachler (12 Personen als Probanden) Hangul und Hanja lesen. Die koreanische Sprache verwendet in ihrem Schriftsystem sowohl das alphabetische Hangul als auch das logografische Hanja. Unsere experimentellen Ergebnisse zeigen, dass die beim Lesen von Hanja durch koreanische Muttersprachler erhaltenen Aktivierungsmuster neuronale Mechanismen beinhalten, die denen chinesischer Muttersprachler ähneln, d. h. eine starke linkslateralisierte Aktivierung des mittleren frontalen Kortex. Beim Lesen von koreanischen Wörtern wurde das Aktivierungsmuster im bilateralen Gyrus fusiformis, dem linken mittleren Frontalgyrus, dem linken oberen Temporalgyrus, dem rechten mittleren Temporalgyrus, dem präzentralen Gyrus und der Insula beobachtet;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20998-7_7 071ed51e719c6de1ef1043f618fe5af8;de;;;2.1.;;;Mining multidimensionaler Daten mit Visualisierungstechniken Dieses Papier beschreibt eine Methode zum Generieren von Klassifizierungsregeln unter Verwendung eines interaktiven multidimensionalen Datenvisualisierungs- und Klassifizierungstools namens PolyCluster. PolyCluster ist ein System, das modernste Algorithmen zur Datenvisualisierung verwendet und menschliches Domänenwissen in den Konstruktionsprozess von Klassifikationsregeln integriert. Darüber hinaus schlägt PolyCluster zwei neuartige und robuste Messungen vor, die als durchschnittlicher externer Verbindungsabstand und durchschnittlicher interner Verbindungsabstand bezeichnet werden, um die Qualität der induzierten Cluster zu bewerten. Die experimentelle Auswertung zeigt, dass PolyCluster ein visuell-basierter Ansatz ist, der zahlreiche Verbesserungen gegenüber früheren visuell-basierten Techniken bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-28633-2_101 05f6fbb54b14c7eff76e2dbff476d069;de;;;2.1.;;;Kontinuierliche Spracherkennung und syntaktische Verarbeitung in iranischer Farsi-Sprache In diesem Papier wird die Architektur des ersten kontinuierlichen iranischen Farsi-Spracherkenners und syntaktischen Prozessors vorgestellt. In diesem System werden geeignete Merkmale des Sprachsignals (Cepstral, Delta-Ceptral, Energie und Nulldurchgangsrate) extrahiert und eine Hydrid-Architektur neuronaler Netze verwendet (eine Self-Organizing Feature Map, SOFM, in der ersten Stufe und -Schicht Perceptron, MLP, in der zweiten Stufe) werden die iranischen Farsi-Phoneme erkannt. Dann wird die Phonemkette korrigiert, segmentiert und mit einem nicht-stochastischen Verfahren in formalen Text umgewandelt. Für die syntaktische Verarbeitung werden der symbolische (durch den Einsatz von Techniken der künstlichen Intelligenz) und der konnektionistische (durch den Einsatz künstlicher neuronaler Netze) Ansätze verwendet, um auch die Korrektheit, Position und Art von syntaktischen Fehlern in iranischen Farsi-Sätzen zu bestimmen.;-;-;-;https://link.springer.com/article/10.1007/BF02277194 042e86b1a795b6206b99fe144d355b5b;de;;;2.1.;;;Die genetische Kontrolle der Samenproteinproduktion in Hülsenfrüchten Die Daten, die unter dieser allgemeinen Überschrift diskutiert werden könnten, sind zahlreich und vielfältig. Dazu gehören die Ermittlung der genetischen Vielfalt in der Zusammensetzung des Hülsenfruchtsamens und die vielfältigen Versuche, die biochemischen Grundlagen der verschiedenen Inhaltsstoffe zu beleuchten, die Versuche, mutierte Gene als experimentelle Werkzeuge zur Analyse der Vererbung bestimmter biochemischer Merkmale zu nutzen, und die Züchtungsversuche zur Aufklärung der Regulation von Genaktivitäten, die von divergenten externen Faktoren beeinflusst werden. Die Vielfalt der Fakten erfordert jedoch eine Auswahl und betont Forschungsfelder, in denen in den letzten Jahren erhebliche Fortschritte erzielt wurden und die einer Weiterentwicklung bedürfen. Nicht zu vergessen sind die mit den besonderen Interessen des Autors verbundenen Bereiche, die vielleicht als grundlegender und vorausgesetzter Auswahlfaktor dienen können. Im Lichte dieser vielseitigen Präsentation verweise ich auch auf einige der in diesem Buch verfügbaren Artikel.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-6801-1_10 6c55fcb8a062dad6418ede37261cf5c4;de;;;2.1.;;;ebIOP: Eine ebXML-konforme B2B-Interoperabilitätsplattform Interoperabilität ist seit seiner Geburt zu einem der großen Probleme des E-Commerce geworden. Eine Reihe von B2B-Standards wie ebXML, UDDI, RosettaNet, xCBL usw. sind kürzlich erschienen, um das Interoperabilitätsproblem zu lösen. UDDI und ebXML sind die führenden Standards im Bereich E-Commerce, die unterschiedliche Lösungen für die Interoperabilität bieten. Der UDDI-Standard bietet eine servicebasierte Lösung, die Unternehmen einen Registrierungsstandard vorschlägt, um ihre Dienste im Internet zu veröffentlichen. Andererseits bietet ebXML eine prozessbasierte Lösung. Es schlägt mehrere Standardspezifikationen vor, wie die ebXML Messaging Service Specification (ebMSS), um die Messaging-Interoperabilität zu erreichen, ebXML Business Process Specification (ebBPSS) und ebXML Collaboration Protocol Profile/Aggreement (ebCPP/A), um die Interoperabilität von Geschäftsprozessen und Partnerprofilen bereitzustellen, ebXML Registry Service Specification (ebRSS) und ebXML Registry Information Model (ebRIM), um eine Registry/ein Repository zu beschreiben, das einen Klassifizierungsmechanismus für die Partnererkennung bereitstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45229-4_16 28578f90e25f991f4a0e23cd43ca0dea;de;;;2.1.;;;Fuzzy konzeptionelle Datenanalyse angewendet auf das Wissensmanagement Die konzeptionelle Datenanalyse wurde umfassend genutzt, um das Ontologie-Lernen, den Informationsabruf usw. zu unterstützen. Diese Arbeit betont die relevante Rolle der Unsicherheit in der konzeptionellen Datenanalyse. Insbesondere wurde die Fuzzy Conceptual Data Analysis genutzt, um zwei Enterprise Knowledge Management-Methoden zu adressieren: Domänenontologielernen und Ontologiezusammenführung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35641-4_19 f884e5bfb95cf78ecd9b9e4b1c0c1418;de;;;2.1.;;;Themenkartenaustausch ohne gemeinsame Vokabeln Topic Maps sind der internationale Industriestandard für die semantische Informationsintegration. Geeignete Mittel zum Austausch von Topic Maps sind entscheidend für den Erfolg als Integrationstechnologie. Der Topic Map-Austausch basiert auf dem maßgebenden Entscheidungsansatz für die Gleichstellung von Fächern, der Entscheidung, ob zwei Fach-Proxys identische Fächer anzeigen. In diesem Papier wird das „Fehlen von gemeinsamem Vokabular“ im Kontext dieser Entscheidungen diskutiert. Dabei wird eine Unterscheidung zwischen referentiellen und strukturalistischen Entscheidungsansätzen zur Subjektgleichheit eingeführt. Alle bestehenden Ansätze zum Topic Map-Austausch basieren auf dem TMDM. Dies impliziert einen Entscheidungsansatz zur referenziellen Subjektgleichheit und ist an eine konkrete Subject Map Disclosure (SMD) Ontologie und Subject Map (SM) Vokabular gebunden. In diesem Beitrag wird ein strukturalistischer Entscheidungsansatz zur Gleichstellung von Fächern vorgestellt, der als SIM bezeichnet wird. Es ermöglicht den Austausch von Topic Maps ohne gemeinsame SM-Ontologie und SM-Vokabular.;-;-;-;https://link.springer.com/chapter/10.1007/11676904_7 b74ec390698f20189ac0aa4f0b1f2ec7;de;;;2.1.;;;Praktische Erfahrung im Aufbau eines Agentensystems zur semantikbasierten Bereitstellung und Auswahl von Grid Services Wir präsentieren unsere praktischen Erfahrungen bei der Implementierung eines agentenbasierten Systems zur Bereitstellung und Auswahl von Grid-Diensten. Die Agenten bilden einen Marktplatz, auf dem Dienste angeboten und gesucht werden. Agenten kommunizieren semantische Informationen über Dienste mithilfe von OWL-S. Wir beschreiben unsere Implementierung, die auf Globus Toolkit 3, dem JADE-Agenten-Framework und einem OWL-S-Toolkit basiert. Diese Kombination von Technologien kann für anspruchsvollere agentenbasierte Dienste verwendet werden, wie beispielsweise die automatische Zusammensetzung von Diensten. Wir veranschaulichen und bewerten unser Framework an einem einfachen Beispiel, ohne jedoch an Allgemeingültigkeit zu verlieren. Unsere vorläufige Bewertung erfasst die relativen Kosten der verschiedenen Phasen der Leistungserbringung und -auswahl und erkennt potenzielle Engpässe.;-;-;-;https://link.springer.com/chapter/10.1007/11752578_34 c3a0288073317eeba0f4fcf1164657c0;de;;;2.1.;;;Eine Übersicht über Software-Wasserzeichenmark Software ist im Internetzeitalter eine der Kernkomponenten für den Betrieb von Netzwerken und durchdringt nahezu alle Bereiche der Industrie, des Handels und des täglichen Lebens. Da digitale Dokumente und Objekte einfach und kostengünstig vervielfältigt und verbreitet werden können und auch Software eine Art digitaler Objekte ist, wird Softwaresicherheit und -piraterie immer wichtiger. Um Software vor Piraterie und unbefugter Modifikation zu schützen, wurden verschiedene Techniken entwickelt. Darunter ist das Software-Wasserzeichen, das Software schützt, indem einige geheime Informationen in die Software eingebettet werden, um das Urheberrecht an dieser Software zu erkennen. Dieses Dokument gibt einen kurzen Überblick über die Software-Wasserzeichen. Es beschreibt die Taxonomie, Angriffsmodelle und Algorithmen des Software-Wasserzeichens.;-;-;-;https://link.springer.com/chapter/10.1007/11427995_42 f49e7075a5d0a8e28e82bc6e7efd1bb6;de;;;2.1.;;;Wissens-Aktionsstrukturen Structure Es kann argumentiert werden, dass die gesamte moderne Informatik, einschließlich der Informationssysteme, von der Entdeckung abhängt, dass Wissen wie in der angewandten Logik eine Maschinenform annehmen kann, die das Handeln der Maschine steuert (siehe Hodges in Alan Turing: the enigma Pinguin Random House, London,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-06234-7_1 d62ed3e71d909a07a4f50f9ce78eeea5;de;;;2.1.;;;Eine molekulare Beschreibung der Elektronenpaaranregung in Atomen Es wurde seit einiger Zeit angenommen, dass die in Abb. 1 dargestellte Form des Zweizentren-Coulomb-Potentials in Zwei-Elektronen-Atomen einen Großteil der inneren Bewegungen des Atoms charakterisiert, insbesondere für Doppel- oder „Paar“-Anregungen außerhalb eines Ionenkerns. Die Idee wurzelt im bekannten Wannier-Modell von;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-5544-1_16 41db382c9ee372be131b0163533261c2;de;;;2.1.;;;Eine Umfrage zum teilweisen Abrufen von 3D-Formen Inhaltsbasierte Formabruftechniken können die Wiederverwendung von 3D-Modellressourcen, die 3D-Modellmodellierung, die Objekterkennung und die 3D-Inhaltsklassifizierung erleichtern. In letzter Zeit haben immer mehr Forscher versucht, die Probleme des partiellen Wiederauffindens im Bereich der Computergrafik, Vision, CAD und Multimedia zu lösen. Leider gibt es in der Literatur wenig umfassende Diskussion über die Methoden des Standes der Technik der partiellen Formwiederherstellung. In diesem Artikel konzentrieren wir uns auf die Überprüfung der Methoden zur partiellen Formwiederherstellung im letzten Jahrzehnt und helfen Neulingen, die neuesten Entwicklungen auf diesem Gebiet zu verstehen. Wir geben zunächst die Definition des partiellen Abrufs und diskutieren seine wünschenswerten Fähigkeiten. Zweitens klassifizieren wir die bestehenden Methoden zur Partial Shape Retrieval nach mehreren Kriterien in drei Klassen, beschreiben die wichtigsten Ideen und Techniken für jede Klasse und vergleichen detailliert ihre Vorteile und Grenzen. Außerdem stellen wir mehrere relevante 3D-Datensätze und entsprechende Bewertungsmetriken vor, die für die Bewertung der partiellen Abrufleistung erforderlich sind. Schließlich diskutieren wir mögliche Forschungsrichtungen, um die partielle Formwiederherstellung anzugehen.;-;-;-;https://link.springer.com/article/10.1007/s11390-013-1382-9 64c4533d1a971432c8ef3456a2d04470;de;;;2.1.;;;Community-weite Evaluierung der rechnerischen Funktionsvorhersage Ein biologisches Experiment ist der zuverlässigste Weg, einem Protein eine Funktion zuzuweisen. Im Zeitalter der Hochdurchsatz-Sequenzierung sind Wissenschaftler jedoch nicht in der Lage, Experimente durchzuführen, um die Funktion jedes einzelnen Genprodukts zu bestimmen. Um Einblicke in die Aktivität dieser Moleküle zu gewinnen und Experimente zu leiten, müssen wir uns daher auf computergestützte Mittel verlassen, um die meisten Sequenzdaten funktionell annotieren zu können. Um zu verstehen, wie gut diese Algorithmen funktionieren, haben wir eine Herausforderung etabliert, an der eine breite wissenschaftliche Gemeinschaft beteiligt ist, in der wir verschiedene Annotationsmethoden nach ihrer Fähigkeit bewerten, die Assoziationen zwischen zuvor nicht annotierten Proteinsequenzen und genontologischen Begriffen vorherzusagen. Hier diskutieren wir die Gründe, Vorteile und Probleme im Zusammenhang mit der Bewertung von Rechenmethoden in einer laufenden gemeinschaftsweiten Herausforderung.;-;-;-;https://link.springer.com/protocol/10.1007/978-1-4939-3743-1_10 df5b9b3ec381cd2173451359b1baded9;de;;;2.1.;;;Fuzzy Markup Language für Malware-Verhaltensanalyse In den letzten Jahren waren Anti-Malware-Anwendungen eines der wichtigsten Forschungsthemen im Bereich der Bedrohung der Netzwerksicherheit. Darüber hinaus ist Malware für Regierungen und kommerzielle Organisationen zu einem immer wichtiger werdenden Problem geworden. Der Kernpunkt der Forschung zur Netzwerksicherheit besteht darin, die Ähnlichkeitsmetriken zwischen der Schadsoftware zu beurteilen und zu validieren. Tatsächlich werden die meisten Computernetzwerkprobleme auch durch Malware verursacht. Folglich ist ein verbessertes System zur Analyse des Verhaltens von Malware erforderlich, um zu versuchen, die schädlichen Aktionen vorherzusagen und die durch die Malware verursachten Computerschäden zu minimieren. Den herkömmlichen Datenanalysetools fehlt jedoch die Fähigkeit, mit der Computersicherheit umzugehen, da die Umgebungen, in denen Malware betrieben wird, ein hohes Maß an Ungenauigkeit und Unschärfe aufweisen. Aus diesem Grund haben wir das Taiwan Malware Analysis Net (TWMAN) entwickelt, um die Genauigkeit der Verhaltensanalyse von Malware zu verbessern. Dieses Kapitel versucht, diese Computersicherheits- und Sicherheitsprobleme zu erforschen und zu behandeln, indem semantische Technologien und Methoden der Computerintelligenz wie die Fuzzy-Ontologien und die Fuzzy-Markup-Sprache (FML) integriert werden. Mit dem vorgeschlagenen Ansatz hat die Malware-Identifikation den experimentellen Ergebnissen zufolge eine gute Performance erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35488-5_7 eda077285d6f0a567a66b0cd603fa079;de;;;2.1.;;;Die Interdependenz von Struktur, Objekten und Abhängigkeit Nach dem „Ontic Structural Realism“ (OSR) sollten physische Objekte – als metaphysische Entitäten – neu konzipiert oder stärker zugunsten der entsprechenden Strukturen eliminiert werden. In diesem Aufsatz werde ich versuchen, die Beziehung zwischen diesen mutmaßlichen Objekten und Strukturen anhand bestimmter derzeit verfügbarer Darstellungen metaphysischer Abhängigkeit zu artikulieren. Dies wird es mir ermöglichen, die Unterschiede zwischen den verschiedenen Formen von OSR zu artikulieren und für die „eliminativistische“ Version zu argumentieren. Einen nützlichen Kontext bietet Floridis Darstellung der Beziehung zwischen „ontischen“ und „epistemischen“ Strukturrealismen, und ich schließe mit einigen kurzen Bemerkungen zu möglichen Ausweitungen von OSR auf andere wissenschaftliche Bereiche.;-;-;-;https://link.springer.com/article/10.1007/s11229-010-9734-2 1ba84b3b5a4038d600d78e0514dfa285;de;;;2.1.;;;Ein nutzerorientiertes Sonderthemengenerierungssystem für digitale Zeitungen Mit dem Aufkommen der digitalen Zeitung wird die nutzerorientierte Sonderthemengenerierung extrem dringend, um die Bedürfnisse der Nutzer sowohl funktional als auch emotional zu befriedigen. Wir schlagen ein anwendbares automatisches Sonderthemengenerierungssystem für digitale Zeitungen basierend auf den Interessen der Benutzer vor. Extrahieren Sie zunächst den Schlagwortvektor des interessierenden Themas, indem Sie Funktionswörter herausfiltern, die Latent Dirichlet Allocation (LDA) lokalisieren und das LDA-Modell trainieren. Zweitens, entfernen Sie semantisch sich wiederholende Vektorkomponenten, indem Sie eine Synonymiewortabbildung konstruieren. Schließlich organisieren und verfeinern Sie das Spezialthema nach der Ähnlichkeit zwischen den Kandidatennachrichten und dem Thema und der Dichte der themenbezogenen Begriffe. Die experimentellen Ergebnisse zeigen, dass das System sowohl eine einfache Bedienung als auch eine hohe Genauigkeit aufweist und stabil genug ist, um für die anwenderorientierte Themengenerierung in der Praxis eingesetzt zu werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25207-0_45 0b7d087909b277a457e574bc090a9a9c;de;;;2.1.;;;Kontrollstrategien im Bild- und Sprachverstehen Nach einer Darstellung eines allgemeinen Rahmens für das Bild- und Sprachverstehen wird der Begriff „Kontrolle“ geklärt und einige allgemeine Probleme bei der Steuerung einer Bild- oder Sprachverstehensaufgabe aufgezeigt. Im Allgemeinen erfordert die Kontrolle eine Suche oder Auswahl unter mehreren verfügbaren Alternativen von Verarbeitungsschritten. Um eine blinde Suche zu vermeiden, die bei jedem praxisrelevanten Problem nicht durchführbar ist, müssen den Alternativen eine Punktzahl, Kosten oder ein gewisses Maß an Priorität zugewiesen werden. Es werden allgemeine optimale und heuristische Kontrollstrategien diskutiert sowie spezielle Strategien für das Sprach- und Bildverständnis entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-69391-5_4 ccf314613056e3fa19ac70151ed9a099;de;;;2.1.;;;Ein serviceorientierter Modellierungsansatz für das verteilte Management von multidisziplinärem Designwissen im Semantic Grid Dieses Papier beschreibt einen vorläufigen Versuch, das Semantic-Grid-Paradigma, insbesondere den serviceorientierten Modellierungsansatz, für das verteilte Management von multidisziplinärem Designwissen zu verwenden, wodurch Grid-Services Semantik hinzugefügt werden können, um sie mit Fähigkeiten auszustatten, die für ihre erfolgreiche Bereitstellung und Wiederverwendung in multidisziplinärem kollaborativem Design erforderlich sind . Die Ontologie der Domänenressourcen wird als Schlüsselfaktor für eine sinnvolle Agentenkommunikation für die Zusammenarbeit zwischen multidisziplinären Organisationen identifiziert. Eine semantikgesteuerte Workflow-Darstellung, die in das vorgeschlagene serviceorientierte Modellierungs-Framework übernommen wird, kann den Designprozess eines komplexen Engineering-Systems beschleunigen, indem der Prozess mit vorhandenen multidisziplinären Designressourcen intelligent zusammengesetzt wird. Der vorgeschlagene Ansatz wurde anhand eines multidisziplinären kollaborativen Konstruktionsbeispiels eines Folgeverbundwerkzeugs zum Stanzen von Metall evaluiert.;-;-;-;https://link.springer.com/chapter/10.1007/11881599_75 a96ffa0bd2dee80bcaf77949f57b6615;de;;;2.1.;;;Interpretieren von Strichzeichnungsbildern: Eine Perspektive auf dem Wissensstand Bildverstehenssysteme stützen sich stark auf a-priori-Wissen ihres Anwendungsbereichs und nutzen oft Techniken, die im weiteren Bereich der wissensbasierten Systeme (KBS) entwickelt wurden. Trotz der Versuche, die durch die KADS/CommonKADS-Projekte typisch sind, strukturierte Wissens-Engineering-Ansätze für die KBS-Entwicklung zu entwickeln, verwenden diejenigen, die im Bildverständnis arbeiten, weiterhin unstrukturierte;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45868-9_21 e6c058a19ffd10557021a68ef8274f38;de;;;2.1.;;;Profile von Doktoranden im Bereich Informatik und ihre Verbindung zu UM-Forschungsprojekten Die Teilnahme von Studenten an Forschungsprojekten ermöglicht es, ihre Berufungen zu erkennen, damit sie ihre Karriere als Forscher im akademischen Bereich entwickeln und/oder die Bedeutung der Forschung im industriellen Kontext erkennen können. Das Ziel dieser Studie ist es, die Beziehung zwischen den Eigenschaften von Bachelor-Thesenstudenten und ihrer Verbindung zu Forschungsprojekten zu finden, die an der Universität Morón (UM) durchgeführt werden, sowie die Doktoranden zu identifizieren, die Erfahrung in anderen forschungsbezogenen Aktivitäten haben. Um dieses Ziel zu erreichen, wurde eine Reihe von Experimenten mit den Algorithmen Kmeans, Expectation Maximization, J4.8, Naive Bayes und BayesNet zusammen mit WEKA- und Elvira-Umgebungen durchgeführt. Die Ergebnisse der Experimente zeigten, dass der Grund für die Wahl des Themas der Dissertation das Attribut einer höheren Inzidenz bei der Teilnahme an Forschungsprojekten sowie an anderen im Thesis Seminar vorgeschlagenen Forschungsaktivitäten ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-48325-8_7 be8f2b876b8ef62f29deac84f3bf21c3;de;;;2.1.;;;Eine zweiphasige Methode zur Anpassung der Benutzeroberfläche für Menschen mit besonderen Bedürfnissen Der Beitrag widmet sich dem Problem der zunehmenden Zugänglichkeit mobiler Anwendungen für Menschen mit Behinderungen, das die Schaffung spezialisierter adaptiver Benutzerschnittstellen erfordert. Ein wissensintensiver Ansatz zur Gestaltung adaptiver Benutzerschnittstellen wurde auf der Grundlage der Integration von ontologischer Benutzermodellierung und Entwurfsmusteransatz vorgeschlagen. Ein ontologisches Modell der adaptiven Benutzerschnittstelle und ein Schnittstellenmustermodell wurden ebenso entwickelt wie eine ontologische Wissensbasis und Musterdatenbank. Es wurde eine zweiphasige Methode der Benutzerschnittstellenanpassung für Menschen mit besonderen Bedürfnissen basierend auf dem ontologischen Benutzermodell, regelbasiertem Denken über Ontologie und Schnittstellendesignmustern entwickelt. Die Methode wurde in einem Softwaretool für User Interface Entwickler implementiert. Die Anwendung des vorgeschlagenen Ansatzes wird durch eine Reihe von Beispielen für die Gestaltung und Anpassung von Benutzeroberflächen für Menschen mit besonderen Bedürfnissen veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-65551-2_58 7b0cbc9fe9f79ab7c441ef44dfe56053;de;;;2.1.;;;Parameterkompensation des rotierenden akustischen Reflektors für die Nah-Außen-Audioereigniserkennung Gegenwärtige visuelle Überwachungssysteme haben Einschränkungen, wie z. B. schlechte Daten bei schlechten oder fehlenden Lichtverhältnissen, keine Sichtlinie, große Datenspeicherung. Ein Audioüberwachungssystem wäre besser geeignet, diese Einschränkungen zu überwinden und die visuelle Überwachung zu ergänzen, insbesondere bei großen Flächen und im Freien. In diesem Artikel haben wir die Entwicklung und Verwendung eines rotierenden Parabolreflektormikrofons für Audioaufnahmen in der Nähe von Außenaufnahmen untersucht. Der kostengünstige rotierende Reflektor bietet einen interessanten Kompromiss zwischen seiner Größe und seiner Rotationsgeschwindigkeit sowohl für die Empfindlichkeit als auch für die Direktionalität. Eine gezielte Verbesserung der Reflektorform und des Mikrofontyps zusammen mit einer geeigneten Rotationsgeschwindigkeit hat sich als vielversprechend für eine wirtschaftliche Aufzeichnung von Audiosignalen erwiesen. Es hat auch das Problem der Dauer von Audioereignissen und ihres spektralen Inhalts für eine effektive Erkennung angesprochen. Wir demonstrieren die Nützlichkeit eines solchen Audiosensorsystems für eine kleine Audioereignisklassifizierungsaufgabe unter Verwendung eines hierarchischen Klassifizierungsschemas.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0749-3_44 45d047fc163eebb9ccaa80a1309c65e0;de;;;2.1.;;;Datenschutzerhaltende naive Bayes-Klassifizierung mit vertrauenswürdiger Drittanbieter-Berechnung über vertikal partitionierten, verteilten progressiven sequentiellen Datenströmen Die Wahrung der Privatsphäre in verteilten progressiven Datenströmen ist derzeit ein aktives Forschungsgebiet. In einem typischen Szenario möchten möglicherweise mehrere Parteien zusammenarbeiten, um interessante globale Informationen wie Klassenbezeichnungen zu extrahieren, ohne die Privatsphäre zu verletzen. Dies kann insbesondere in Anwendungen wie Kundenbindung, medizinische Forschung etc. nützlich sein. In der vorliegenden Arbeit wollen wir ein globales Klassifikationsmodell basierend auf dem Naive Bayes Klassifikationsschema entwickeln. Die Naive Bayes-Klassifikation wurde wegen ihrer Anwendbarkeit im Fall von Kundenbindungsanwendungen, wie z. B. Fahrzeugbewertungsdatensätzen, verwendet. Zur Wahrung der Privatsphäre der Daten wurde das Konzept des vertrauenswürdigen Dritten verwendet. Wir haben Algorithmen vorgeschlagen und einen Datensatz zur Fahrzeugbewertung für vertikal partitionierte progressive sequentielle Datenströme getestet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17878-8_45 48ff2447f51f358848f2075d71ef27d3;de;;;2.1.;;;Leibniz, Kant und die Die Konzepte von Raum und Zeit, sowohl in Bezug auf den Newtonschen Raum + Zeit (nicht-relativistische Theorie) als auch auf Minkowskis Raumzeit (relativistische Quantenfeldtheorie), blieben während der Entwicklung der Quantentheorie im Wesentlichen unverändert. Es gibt jedoch mehrere Aspekte, die auf ihren vorläufigen Status hinweisen. Ich lasse die Versuche, eine Quantentheorie der Gravitation zu konstruieren, beiseite, da sie für das Problem, das ich hier diskutieren möchte, in Anbetracht ihrer fehlenden Relevanz, soweit sie heute bestehen, bestehen. Einige Merkmale der sogenannten sekundären oder kovarianten Theorien, wie z;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-9391-5_20 8b5f95b0743b1fa4a27d57c55dbc7ecc;de;;;2.1.;;;Ansätze zur Bewertung der Parkinson-Sprache mit künstlichen Modellen Unsere vorläufigen Daten und Experimente zeigen das Potenzial der Techniken der künstlichen Intelligenz, die Parkinson-Krankheit zu identifizieren und ihr Ausmaß anhand der aus der Sprache extrahierten Informationen zu beurteilen. Unsere Schlussfolgerungen basieren auf mehreren prospektiven Studien mit unterschiedlichen Korpora von Parkinson- und Kontrollpersonen, die nach unterschiedlichen Ansätzen modelliert wurden, hauptsächlich auf artikulatorischen Aspekten der Sprache und auf der Verwendung probabilistischer generativer Modelle, die von denen im Bereich der Sprechererkennung inspiriert wurden. Die erhaltenen Ergebnisse sind zwischen den verschiedenen Ansätzen und Korpora konsistent und bieten eine Erkennungsgenauigkeit von über 85%. In diesem Kapitel werden die von uns verfolgten Ansätze und Ergebnisse der letzten Jahre zusammengestellt und verglichen und einige Schlüsselaspekte für die zukünftige Forschung auf diesem Gebiet diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-65654-6_5 0695b1c30c9a3588fbd41ba4f30945a4;de;;;2.1.;;;Ein sicherheitskritischer Bewertungsprozess Der Einsatz softwarehaltiger Systeme nimmt im sicherheitskritischen Bereich rasant zu. Es erzeugt den Druck, strengere Methoden zur Prozessbewertung zur Bewertung von Systemen und Softwareentwicklung zu entwickeln. Der Bewertungsprozess soll die Glaubwürdigkeit und Wiederholbarkeit der Bewertungsergebnisse sicherstellen. Die Nuclear SPICE-Methode besteht aus einem Prozessbewertungsmodell und einem dokumentierten Bewertungsprozess für den sicherheitskritischen Bereich. Die Nuclear SPICE-Methode wendet ein Klassifizierungsschema für die Bewertungsart an, das eine Kombination aus Bewertungsklasse und Strenge in der Sicherheit ist. Dieses Papier stellt den Bewertungsprozess von Nuclear SPICE vor, analysiert seine Stärke bei der Abdeckung regulatorischer Anforderungen und schlägt neue Linien für seine Entwicklung vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13036-1_14 26e69a4ea3e222ce6180c0cad3956f08;de;;;2.1.;;;Klassifikation der reinen Verhaltensstörung von gesunden Kontrollpersonen basierend auf Indizes von Gehirnnetzwerken während des Ruhezustands Verhaltensstörung (CD) ist ein wichtiges psychisches Gesundheitsproblem im Kindes- und Jugendalter. Es gibt derzeit einen Trend, neuronale Mechanismen durch Messungen von Gehirnnetzwerken aufzudecken. Diese Studie geht weiter, indem sie ein Klassifikationsschema präsentiert, um Personen mit CD von typisch sich entwickelnden gesunden Personen basierend auf Messungen von Small-World-Netzwerken zu unterscheiden. In dieser Studie wurden Small-World-Netzwerke konstruiert und Merkmalsdaten sowohl für die CD- als auch für die gesunde Kontrollgruppe (HC) generiert. Zwei Methoden der Merkmalsauswahl, einschließlich der;-;-;-;https://link.springer.com/article/10.1007/s11517-020-02215-8 30e8eb039a2b62f22a3c4da88397031b;de;;;2.1.;;;Chinesische Komma-Begriffsklärung bei K-besten Parse-Bäumen Die chinesische Komma-Begriffsklärung spielt eine Schlüsselrolle bei vielen Aufgaben der natürlichen Sprachverarbeitung (NLP). Dieses Papier schlägt einen gemeinsamen Ansatz vor, der K-Best-Parse-Bäume mit chinesischer Komma-Begriffsklärung kombiniert, um die Abhängigkeit vom syntaktischen Parsing zu reduzieren. Experimentelle Ergebnisse an einem chinesischen Komma-Korpus zeigen, dass der vorgeschlagene Ansatz das Basissystem deutlich übertrifft. Nach unserem besten Wissen ist dies die erste Arbeit, die die Leistung der chinesischen Komma-Begriffsklärung bei K-Best-Parse-Bäumen verbessert. Darüber hinaus veröffentlichen wir ein chinesisches Kommakorpus, das den manuell geparsten Sätzen im CTB (Chinese Treebank) 6.0-Korpus eine Anmerkungsebene hinzufügt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45924-9_2 b45b1a47ea5e2f574daac682c7b4fd20;de;;;2.1.;;;Gott ohne Sein und Denken ohne Denker Wir haben bereits gesagt, dass die Geschichte der Philosophie für die „späte Philosophie“ keine bloße Illustration ist, eine Art komplementäre Ergänzung zur Diskursentwicklung: eine Methode der Bereicherung und Spezifizierung eines ansonsten vollständig in sich ausgedrückten Sinns. Geschichte ist die diachrone Dimension des philosophischen Prozesses, ein wesentlicher Aspekt bei der Positionierung neuer Bedeutungen. „Die Geschichte der Philosophie“, schrieb G. Deleuze in seiner Dissertation, „muss unserer Meinung nach in vielerlei Hinsicht eine ähnliche Rolle spielen wie die der Collage in der Malerei.“;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-3407-3_6 b196d851b5a5b20792a15d32cd23de64;de;;;2.1.;;;Fuzzy-Logic-Interferenz zur Charakterisierung der Trinkbarkeit von Oberflächenwasser in der ländlichen Gemeinde Ikare, Nigeria Die Verfügbarkeit von trinkbarem Oberflächenwasser in Nigeria, einem typischen Entwicklungsland, ist gering, und diese Informationen stehen den Anwohnern des Landes nicht ohne weiteres zur Verfügung. Daher führten wir eine kostengünstige Fuzzy-Logic-Inferenz-Charakterisierung zur Qualität des Oberflächenwassers in einer ländlichen Gemeinde (mit 12 Einzugsgebieten) von Ikare im Bundesstaat Ondo in Nigeria durch. Aus den zahlreichen Wasserproben des Flusses, der durch die Einzugsgebiete fließt, wurden zwanzig (20) repräsentative Wasserproben ausgewählt und physikalischen (Temperatur, pH), chemischen (wie TDS, DO, BSB, Metallionenkonzentrationen), und biologische (fäkale und total coliforme) Charakterisierungen. Außerdem wurden fünf Fuzzy-Sets und die Fuzzy-Inferenzsystemmethode von Mamdani verwendet, um die Parameter für die Analyse der Verschmutzungsempfindlichkeit zu normalisieren. Wir haben die GIS-Umgebung verwendet, um eine synoptische und zeitlich hochstehende Information über die Verteilung der Oberflächenwasserqualität bereitzustellen, die die für Verschmutzung anfälligen Gebiete anzeigt. Im Vergleich mit den Industriestandards der Weltgesundheitsorganisation (WHO) und Nigeria stellten wir fest, dass das Wasser im Allgemeinen zum Trinken ungeeignet war. Lediglich 8,3% der untersuchten Wasserproben waren trinkmittelmäßig, während sprachlich 16,7%, 50% bzw. 25% in die Kategorien hoch, sehr hoch und extrem hoch fielen. Durch statistische Korrelation (;-;-;-;https://link.springer.com/article/10.1007/s41651-019-0044-z e89cd8329e01b301be78d404d4544d73;de;;;2.1.;;;Semantische Aggregation und Zoomen von Benutzersichtpunkten in Social Media-Inhalten Social Web bietet reichhaltige Inhalte, um ein Verständnis über die Benutzer zu gewinnen, die die Anpassung ermöglichen können. Es gibt einen aktuellen Trend, Benutzerprofile aus Social-Media-Inhalten durch semantische Augmentation und Verknüpfung mit Domain-Ontologien zu extrahieren. Das Papier zeigt einen weiteren Schritt in diesem Forschungsstrang, der Semantik nutzt, um ein tieferes Verständnis über die Benutzer zu erhalten, indem die Domänenregionen extrahiert werden, auf die sich die Benutzer konzentrieren, die als Standpunkte definiert sind. Das Papier skizziert einen formalen Rahmen zum Extrahieren von Standpunkten aus semantischen Tags, die mit Benutzerkommentaren verknüpft sind. Dies ermöglicht das Zoomen in die Ansichten auf verschiedenen Aggregationsebenen sowie den Vergleich von Benutzern anhand der Bereiche, auf die sie sich konzentrieren. Das Framework wird auf YouTube-Inhalte angewendet und veranschaulicht einen Einblick in die Emotionen, auf die sich Nutzer in ihren Kommentaren zu Bewerbungsvideos beziehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38844-6_5 05bee807c71f4e14a885126733eb51ab;de;;;2.1.;;;Lernen von Wörterbüchern mit niedrigem Rang und geringer Dichte Das Erlernen eines informativen Wörterbuchs ist eine kritische Herausforderung bei der spärlichen Darstellung und der Modellierung mit niedrigem Rang. Die Qualität des Wörterbuchs beeinflusst in der Regel die Leistung von Lernmodellen erheblich. In diesem Kapitel schlagen wir eine neuartige Methode zum Lernen von Wörterbüchern mit niedrigem Rang vor, die ein diskriminatives Wörterbuch mit Einschränkungen mit niedrigem Rang lernt. Wir lernen für jede Klasse separat ein Unterwörterbuch, und die Gesamtdarstellungsfähigkeit des Wörterbuchs wird ebenfalls berücksichtigt. Insbesondere wird das Fisher-Kriterium in unser Modell aufgenommen, um die Unterscheidbarkeit des Wörterbuchs zu verbessern, wodurch das Verhältnis der Streuung zwischen den Klassen zu der Streuung innerhalb der Klasse maximiert wird. In der Praxis können Trainingsmuster verrauschte Informationen enthalten, die die Qualität des Wörterbuchs untergraben würden. Inspiriert von den jüngsten Fortschritten bei der Wiederherstellung von niederrangigen Matrixen, erzwingen wir eine niederrangige Einschränkung für das Unterwörterbuch für jede Klasse, um dieses Problem zu lösen. Unser Modell ist formuliert als ein;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12000-3_4 e9d9499a1db84e7a858cb15d1f097d1e;de;;;2.1.;;;Standardinterpretation und darüber hinaus Wie jede andere physikalische Theorie hat die Quantenmechanik zwei verschiedene, aber miteinander verbundene Komponenten: einen mathematischen Formalismus und eine physikalische Interpretation. Von;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-9808-1_1 b9eb6a2be56e8e10bfe4f0041ce95bfa;de;;;2.1.;;;Servicequalität und Datensicherheit in Kommunikationsnetzen basierend auf Verkehrsklassifizierung In diesem Papier stellen wir einen neuen Ansatz zur Zugangskontrolle neuer Flüsse in Kommunikationsnetzen vor. Zunächst führen wir ein Traffic-Klassifizierungsverfahren ein, das auf einem neuen Konstruktionsansatz konservativer multiplikativer Kaskaden basiert, um die Informationssicherheit zu gewährleisten, indem böswillige Versuche blockiert und Prioritäten gegenüber gut gemeintem Traffic geschaffen werden. Der Zulassungssteuerungsprozess akzeptiert oder lehnt dann die Anforderung eines neuen Anrufs ab, indem er die verfügbare Bandbreite innerhalb eines bestimmten Übertragungsintervalls für verschiedene vorklassifizierte Verkehrstypen auswertet. Die experimentelle Untersuchung durch Simulation zeigte, dass das vorgeschlagene Verfahren in der Lage ist, eine effiziente Nutzung der verfügbaren Netzwerkressourcen zu gewährleisten und gleichzeitig eine konsistente QoS-Bereitstellung und Datensicherheit für die Netzwerkverkehrsflüsse bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-287-990-5_22 b8d2c457cae5ec02e59ca19f05ad2dab;de;;;2.1.;;;GOT: Generalization over Taxonomies, ein Software-Toolkit für die Inhaltsanalyse mit Taxonomien GOT ist ein Python3-Software-Toolkit für die taxonomische Inhaltsanalyse von Textsammlungen. Die Struktur des Toolkits folgt einer internen Methodik zur Verarbeitung einer Textsammlung unter Verwendung einer Domänentaxonomie. Das Verfahren umfasst die folgenden Schritte: (1) Berechnen einer Relevanzmatrix zwischen Texten und Taxonomie-Blattthemen unter Verwendung eines rein strukturellen String-to-Text-Relevanzmaßes basierend auf Suffixbäumen, die die Texte repräsentieren und durch Teilstringfrequenzen annotiert sind, (2) Erhalten von Fuzzy-Clustern von Taxonomie-Blattthemen unter Verwendung einer Methode, die sowohl additive als auch spektrale Eigenschaften beinhaltet, und (3) Finden der spezifischsten Verallgemeinerungen der Fuzzy-Cluster in einem verwurzelten Baum der Taxonomie. Eine solche Verallgemeinerung hebt einen Cluster sparsam zu seinem „Hauptthema“ in den höheren Rängen der Taxonomie, um den Cluster durch Minimierung der Anzahl von Fehlern, „Lücken“ und „Ablegern“ eng abzudecken. Die Effizienz dieser Methodik zeigte sich in der Analyse von Forschungstendenzen im Bereich Data Science: Unsere Erkenntnisse führten zu Erkenntnissen über die Forschungstendenzen, die mit konventionelleren Techniken nicht abgeleitet werden konnten. Das Toolkit kann entweder als Ganzes oder mit seinen einzelnen Modulen inklusive eines Visualisierungsmoduls verwendet werden. Das GOT-Toolkit bietet zwei Nutzungsszenarien: (a) Konsolenmodus für die Verwendung über die Befehlszeile und (b) Importmodus für die Verwendung in Python3-Quellcodes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72651-5_49 860415eaeb7d00426387e760f749be98;de;;;2.1.;;;Kontextuelle Kohonen-SOM mit orthogonalem Gewichtsschätzerprinzip In diesem Beitrag stellen wir die Einbettung des Othogonal Weight Estimator (OWE)-Prinzips in Kohonen Self-Organizing Maps (SOM) vor. Die resultierende Architektur ist ein kontextunabhängiges Klassifizierungssystem. Die Modifikation der SOM-Architektur besteht darin, dass die Gewichte des SOM von einem MLP-Feeds durch den Kontext des präsentierten Musters berechnet werden. Wir zeigen die Ergebnisse zu einem nicht trivialen Problem, die die Fähigkeiten dieser neuen Architektur unterstreichen.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0020231 a7ddf0be5bdb2f98e838990691965df1;de;;;2.1.;;;Erkennung von Proteinflecken durch Symmetriederivate von Gaussianen Die zweidimensionale Gelelektrophorese ist das bevorzugte Verfahren zum gleichzeitigen Trennen und Visualisieren von Tausenden von Proteinen. Ein wichtiger Bestandteil der computergestützten Analyse des Proteoms ist die Möglichkeit, die Proteine ​​mittels automatischer Bildverarbeitung automatisch zu erkennen, zu identifizieren und zu quantifizieren. Wir präsentieren eine schnelle und empfindliche Methode zur Erkennung von Proteinflecken mit dem Circular Symmetry Tensor. Es basiert auf der Arbeit von Bigun über Symmetrie-Ableitungen von Gaussianern.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45103-X_69 8221c9cce3082a1c898f811e3be3f982;de;;;2.1.;;;Dienstprogramm zur Fuzzy-Mengentheorie für Datenbank- und Informationssysteme Informationssysteme werden oft als umfassende Datenbanksysteme sowie Information-Retrieval-Systeme angesehen [4]. Die Fuzzy-Set-Theorie hat in all diesen Systemen einen signifikanten Einfluss gehabt. Für beide Bereiche wurden verschiedene Fuzzy-Set-Darstellungen für ungenaue Daten verwendet. Darüber hinaus wurden Fuzzy-Matching-Ansätze bei der Datenbankabfrage und beim Informationsabruf angewendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35644-5_17 a38690c6443d9906b52faacc4641acef;de;;;2.1.;;;Fortschritt bei der Erkennung von Schlüsselkonzepten als Expertenmodell: Verwendung des Student Mental Model Analyzer für Forschung und Lehre (SMART) Während Schlüsselkonzepte, die in die textliche Erklärung eines Experten eingebettet sind, als ein Aspekt des Expertenmodells angesehen wurden, macht die Komplexität der Textdaten die Bestimmung von Schlüsselkonzepten anspruchsvoll und zeitaufwändig. Um dieses Problem anzugehen, haben wir die SMART-Technologie (Student Mental Model Analyzer for Teaching and Learning) entwickelt, die die textliche Erklärung eines Experten analysieren kann, um eine Expertenkonzeptlandkarte zu erstellen, aus der Schlüsselkonzepte automatisch abgeleitet werden. SMART nutzt vier grafikbasierte Metriken (d. h. Clustering-Koeffizient, Betweenness, PageRank und Closeness), um automatisch Schlüsselkonzepte aus den Concept Maps von Experten zu filtern. In dieser Studie wurde untersucht, welche Filtermethode Schlüsselkonzepte am genauesten extrahiert. Unter Verwendung von 18 Textdaten von Experten verglichen wir die Genauigkeitsniveaus dieser vier konkurrierenden Filtermethoden, indem wir auf vier Genauigkeitsmaße (d. Die Ergebnisse zeigten, dass die PageRank-Filtermethode die anderen Methoden in allen Genauigkeitsmessungen übertraf. Im Durchschnitt leitete PageRank beispielsweise 79% der Schlüsselkonzepte genauso genau ab wie menschliche Experten. Die automatischen Filtermethoden von SMART können menschlichen Experten helfen, beim Erstellen eines Expertenmodells Zeit zu sparen, und sie können ihre Entscheidungsfindung anhand einer Liste von Schlüsselkonzepten validieren.;-;-;-;https://link.springer.com/article/10.1007/s10758-019-09418-5 b80dd0717fcf9e251c1ebcdec1f3378a;de;;;2.1.;;;Big Data im humanitären Lieferkettenmanagement: ein Rückblick und weitere Forschungsrichtungen Humanitäre Organisationen arbeiten eifrig daran, Leben zu retten, indem sie knappe Ressourcen einsetzen, um Spendengelder konkurrieren und in komplexen Umgebungen tätig sind. Es überrascht nicht, dass sie Informationen benötigen, um ihre Aufgabe effektiv auszuführen. Da es enorme Entwicklungen in der Datenanalyse gegeben hat, ist es unerlässlich, dass der Bereich des humanitären Lieferkettenmanagements die Vorteile der Weiterentwicklung von Big Data nutzt. In dieser Studie haben wir eine systematische Literaturrecherche im Bereich Big Data und humanitäre Lieferkette durchgeführt. Die Daten wurden mit Scopus erhoben, der größten digitalen Datenbank. Nach sorgfältigem Screening wurden nur 28 Zeitschriftenartikel für die Literaturrecherche ausgewählt. Diese Papiere wurden klassifiziert und in verschiedene Kategorisierungen gruppiert. Zukünftige Forschungsrichtungen auf diesem Gebiet wurden vorgeschlagen, die auf verschiedenen Organisationstheorien basieren.;-;-;-;https://link.springer.com/article/10.1007/s10479-017-2671-4 9d6a249f3c40fc1703d1ed5ea07e74ef;de;;;2.1.;;;Eine Wissensnavigationsmethode für den Bereich der Kundendienste von Mobilfunkunternehmen in China Die schnell steigende Zahl von Mobiltelefonnutzern und Arten von Diensten führt zu einer großen Anhäufung von beschwerenden Informationen. Wie diese Informationen genutzt werden können, um die Qualität der Dienstleistungen der Kunden zu verbessern, ist derzeit ein großes Thema. Um diese Art von Problem zu lösen, präsentiert der Artikel einen Ansatz zur Erstellung einer Domänen-Wissenslandkarte zum Navigieren im expliziten und impliziten Wissen auf zwei Arten: Aufbau des Topic Map-basierten expliziten Wissensnavigationsmodells, das die Domänen-TM-Konstruktion umfasst, eine semantische Themenerweiterung Algorithmus und VSM-basierte Ähnlichkeitsberechnung, Aufbau eines auf Social Network Analysis basierenden impliziten Wissensnavigationsmodells, das einen multirelationalen Expertennavigationsalgorithmus und die Kriterien zur Bewertung der Leistung von Expertennetzwerken umfasst. Dabei finden sowohl die Kundenbetreuer als auch die Operatoren in Call Centern schnell und punktgenau das passende Wissen und die Experten. Die experimentellen Ergebnisse zeigen, dass die obige Methode für die Wissensnavigation sehr leistungsfähig ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74205-0_38 a94a357b1566f4289098b5627b8f6f19;de;;;2.1.;;;Automatische Generierung des SWS-Challenge Mediators mit jABC/ABC Wir zeigen, wie man eine Tableau-basierte Software-Kompositionstechnik zur automatischen Generierung der Dienstlogik des Mediators als deklarative Alternative zur Mediatorlösung aus Kap. 5. Hier verwenden wir einen LTL-Planungs- (oder Konfigurations-)Algorithmus, der ursprünglich in die ABC- und ETI-Plattformen eingebettet war. Der Algorithmus arbeitet auf Basis der bereits in Kap. 5, und es verwendet eine erweiterte Beschreibung ihrer Semantik, die in Form einer taxonomischen Klassifikation ihres Verhaltens (Module) und abstrakter Schnittstellen/Nachrichten (Typen) gegeben wird. Der resultierende Ansatz ist ein Vorwärtssynthesealgorithmus, den Benutzer konfigurieren können, um den Satz kürzester oder zyklusfreier oder aller Orchestrierungen bereitzustellen, die die gegebene LTL-Spezifikation erfüllen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-72496-6_7 a90cb1f0e3456ed5c1cf3aaabfdd6542;de;;;2.1.;;;Vorgeschriebenes Feuer in industriellen Kiefernplantagen Industrielle Plantagen nicht einheimischer Baumarten (Exoten) können als gleichaltrige Bestände definiert werden, die außerhalb ihres natürlichen Lebensraums errichtet wurden. Diese Plantagen spielen in den Entwicklungsländern der Tropen und Subtropen eine wichtige wirtschaftliche Rolle. Die ökologischen Vorteile der Aufforstung gehen jedoch weit über lokale und regionale Überlegungen hinaus: der Anstieg des atmosphärischen CO;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-75395-4_12 badfb8c2851c21985c2c940f208bf32c;de;;;2.1.;;;Topologiebasierte Ähnlichkeiten in räumlichen Systemen Dieses Papier stellt mehrere topologiebasierte Maße vor, die Nähebeziehungen zwischen Regionen in einem räumlichen System charakterisieren. Diese Maße werden von einem relativen Adjazenzoperator abgeleitet, der aus dem dualen Graphen eines räumlichen Systems berechnet wird. Der Betreiber ist flexibel, da die jeweilige Bedeutung von Nachbar- und Randgebieten parametrierbar ist. Bei einer gegebenen Referenzregion in einem räumlichen System zeigen wir auch, wie die relative Nachbarschaft die Analyse der relativen Verteilung anderer Regionen unterstützt und wie diese Regionen in Bezug auf diese Referenzregion gruppiert werden. Erweiterungen der relativen Nachbarschaft integrieren zusätzliche räumliche und thematische Kriterien. Anhand von Referenzbeispielen und einer Fallstudie werden die Eigenschaften der relativen Nachbarschaft veranschaulicht.;-;-;-;https://link.springer.com/article/10.1007/s10109-003-0115-y 0f76995db548d3b349e65eff20c90fab;de;;;2.1.;;;Kombination von Monitoring- und Datenschutzperspektiven in einem semantischen Modell für IP-Verkehrsmessungen Mehrere Forschungsanstrengungen haben sich auf das Thema vereinheitlichte Datenmodelle für IP-Verkehrsmessungen konzentriert. Diese Domäne ist jedoch so reich an Semantik und beinhaltet so viele Herausforderungen, dass es schwierig ist, einen Konsens über einen Standard für die gemeinsame Nutzung und den Umgang mit Datensätzen zu erzielen. Diese Arbeit stützt sich auf das Know-how aus zwei Projekten, die sich mit dem einheitlichen, datenschutzbewussten Zugang zu Netzwerkdaten beschäftigen, und zielt auf ein integriertes Modell ab, das die verschiedenen beteiligten Konzepte kombiniert.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-9794-1_37 60ae1e645794f9ae40b30de357d78e8d;de;;;2.1.;;;Einführung in Semantic Web Ontology Languagesology Das Ziel dieses Kapitels ist es, eine allgemeine Einführung in einige der Ontologiesprachen zu geben, die eine herausragende Rolle im Semantic Web spielen, und die formalen Grundlagen dieser Sprachen zu diskutieren. Webontologiesprachen werden die Hauptträger der Informationen sein, die wir teilen und integrieren wollen.;-;-;-;https://link.springer.com/chapter/10.1007/11526988_1 7e040d93501f61157cebceda00f68655;de;;;2.1.;;;Tarskische Wahrheit als Korrespondenz – Antworten auf einige Einwände In diesem Beitrag plädiere ich für die These, dass Alfred Tarskis ursprüngliche Wahrheitsdefinition zusammen mit ihrer späteren modelltheoretischen Ausarbeitung ein Explikat der klassischen Korrespondenztheorie der Wahrheit ist. Indem ich Tarski gegen einige seiner Kritiker verteidigte (siehe auch Niiniluoto, 1994), möchte ich zeigen, wie diese Darstellung der Wahrheit auf philosophisch befriedigende Weise formuliert, verstanden und weiterentwickelt werden kann. Mein übergeordnetes Ziel ist es, die nicht-epistemische Korrespondenzrechnung der Wahrheit als Grundlage des Konzepts der Wahrheitsähnlichkeit (Verisimilitude) zu verwenden, die wiederum ein unverzichtbarer Bestandteil des philosophischen Programms des kritischen wissenschaftlichen Realismus ist (vgl ).;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-9233-8_7 32fcaf9ad58f6f26eda4b872f74aa409;de;;;2.1.;;;Ein neuer Rahmen für die Begriffsklärung von Personennamen In diesem Beitrag untersuchen wir das Problem der Personennamensdisambiguierung (NED). Wir entwickeln einen Rahmen, um die drei Herausforderungen bei der Begriffsklärung von Personennamen anzugehen: (1) Identifizierung von referentiellen Mehrdeutigkeiten, (2) Identifizierung lexikalischer Mehrdeutigkeit und (3) Vorhersage des NIL-Werts, d zu einer Wissensdatenbank. Unser Framework umfasst Extractor, Searcher und Disambiguator. Experimentelle Ergebnisse, die an realen Datensätzen ausgewertet wurden, zeigen, dass unser Framework und Algorithmus eine Genauigkeit von bis zu 92 % bei der Personennamenverknüpfung bieten, was höher ist als die Genauigkeit zuvor entwickelter Algorithmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-01174-1_76 51219ef1b71cd772ea69806fe2e8fef1;de;;;2.1.;;;Extraktion und Analyse des Gully-Kopfes des Löss-Plateaus in China basierend auf einem digitalen Höhenmodell Im chinesischen Löss-Plateau-Gebiet ist der Gully Head die aktivste Zone eines Entwässerungssystems in Gully-Gebieten. Die Differenzierung der Lössrinnenmündung folgt räumlichen Mustern und spiegelt in gewissem Maße den Prozess der Lösslandschaftsentwicklung und der Entwicklung ihres Entwässerungssystems wider. In dieser Studie wurden die geomorphologische Bedeutung, Grundmerkmale, morphologische Struktur und die Grundtypen von Lössrinnenköpfen systematisch analysiert. Anschließend wurde das konzeptionelle Modell des Lössrinnenkopfes erstellt und eine Extraktionsmethode basierend auf dem Digital Elevation Model (DEM) für Merkmale und Elemente des Lössrinnenkopfes vorgeschlagen. Durch die Analyse der erhaltenen Statistik der Lössrinnenkopfmerkmale weisen Lössrinnenköpfe anscheinend ähnliche und unterschiedliche Eigenschaften auf, abhängig von den verschiedenen Lösslandschaftsformen, in denen sie vorkommen. Die Lösskopfmerkmale spiegeln bis zu einem gewissen Grad ihre Wachstumsperiode und Evolutionstendenz wider und repräsentieren indirekt evolutionäre Mechanismen. Darüber hinaus lassen sich die Entwicklungsstadien der Lössrinne und die evolutionären Prozesse anhand der Lössrinnekopfmerkmale ableiten. Diese Studie ist von großer Bedeutung für die Entwicklung und Verbesserung des theoretischen Systems zur Beschreibung von Lössrinnenlandschaften.;-;-;-;https://link.springer.com/article/10.1007/s11769-014-0663-8 cd56b2fb95ac5ee0d0757e6db64aa1cd;de;;;2.1.;;;Fehlertolerantes und robustes Protokoll zum gegenseitigen Ausschluss für synchrone verteilte Systeme Es wird ein neues symmetrisches, vollständig verteiltes, robustes und fehlertolerantes Protokoll zum gegenseitigen Ausschluss bei geringem Nachrichtenverkehr vorgeschlagen. Das Protokoll basiert auf zuverlässiger Multicast-Kommunikation in einem Netzwerk von Prozessen. Es wird eine kurze Beschreibung des Protokolls gegeben. Es werden Richtlinien für die Wahl von Timeouts und Verzögerungen vorgestellt, und Komplexitätsprobleme des Protokolls werden zusammen mit einer Sensitivitätsanalyse für Robustheit skizziert. Das Protokoll wurde als detailliertes Simulationsmodell im Sinne einer Klasse der erweiterten Petrinetze implementiert. Die Ergebnisse der Simulationsstudie eines verteilten Systems mit dem vorgeschlagenen Protokoll des gegenseitigen Ausschlusses für unterschiedliche Anzahl von Prozessen in der Gruppe und unterschiedliche Lasten werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/11569596_19 37d2b2558410477367ad2a1a91f06832;de;;;2.1.;;;Zur Beratungskomplexität eindimensionaler Online Bin Packing In diesem Papier untersuchen wir das Problem der Online-Mülleimerverpackung mit Ratschlägen. Angenommen, es gibt ein Orakel mit unendlicher Rechenleistung, das zu jedem eingehenden Artikel des Online-Bin-Packing-Problems spezifische Informationen liefern kann. Mit diesen Informationen wollen wir die Liste packen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08016-1_29 b9d370842ede1467083476f1323d8ce3;de;;;2.1.;;;Modellierung der Lerntechnologie-Interaktion mit SOPHIE: Hauptzuordnungen und beispielhafte Anwendungsszenarien Lerntechnologien unterliegen heutzutage intensiven Standardisierungsbemühungen, die zu unterschiedlichen Spezifikationen geführt haben, die die Funktionen und Informationsformate der verschiedenen Komponenten definieren. Es bestehen jedoch weiterhin Unterschiede, und in einigen Fällen führt die Verbreitung vorgeschlagener Standards und Protokolle zu einer erhöhten Heterogenität. Darüber hinaus sind die zur Beschreibung von Ressourcen und Aktivitäten verwendeten Terminologien unterschiedlich, was zu semantischen Interoperabilitätsproblemen und Konversationen zwischen Elementen führt, die noch nicht angesprochen wurden. Das SOPHIE-Modell zur semantischen Beschreibung von Choreografien hat das Potenzial, zwischen diesen heterogenen Verhaltensweisen und Repräsentationen zu vermitteln. Dieser Beitrag skizziert die Hauptelemente eines Mappings von servicebasierten Lerntechnologiekomponenten basierend auf OKI OSIDs und liefert einige Beispiele für Mediation basierend auf SOPHIE.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04754-1_14 d4a7c628cabe5831f12448faba4dc3c9;de;;;2.1.;;;Thematische Fuzzy-Cluster mit einem additiven spektralen Ansatz Dieser Beitrag stellt ein additives Fuzzy-Clustering-Modell für Ähnlichkeitsdaten vor, das auf die Darstellung und Visualisierung von Aktivitäten von Forschungsorganisationen in einer hierarchischen Taxonomie des Fachgebiets ausgerichtet ist. Wir schlagen eine Eins-zu-Eins-Cluster-Extraktionsstrategie vor, die zu einer Version des spektralen Clustering-Ansatzes für Ähnlichkeitsdaten führt. Das abgeleitete Fuzzy-Clustering-Verfahren, FADDIS, wird experimentell sowohl an den Forschungsaktivitätsdaten als auch im Vergleich mit zwei modernen Fuzzy-Clustering-Verfahren verifiziert. Zwei entwickelte simulierte Datengeneratoren, Affinitätsdaten von Gaußschen Clustern und echte additive Ähnlichkeitsdaten, werden beschrieben und der Vergleich der Ergebnisse mit diesen Daten wird berichtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24769-9_33 928e9b883fe275ea356543a4c8cc9cf1;de;;;2.1.;;;Flechten und Flechtenpilze 1993–1994 In den letzten 2 Jahren, wie 1991–92 (Progress in Botany 55, S. 288), hat das taxonomische Wissen über lichenisierte Pilze stark zugenommen. Mindestens 25 neue Gattungen wurden vorgeschlagen, mehrere mit einer neuen Umschreibung wieder eingeführt und über 370 neue Arten beschrieben. Auch hier wurden die neuen Arten überwiegend im bekanntesten Gebiet der Welt mit der höchsten Arbeiterdichte entdeckt. Mehr als ein Drittel wurde in den gemäßigten und kühlen Gebieten der nördlichen Hemisphäre entdeckt. Etwas geringere Zahlen stammen aus den Tropen und der südlichen gemäßigten bis kalten Zone. Darüber hinaus wurden über 50 neue Arten von Flechtenpilzen beschrieben, die hauptsächlich aus der gemäßigten nördlichen Hemisphäre stammen. Diese Zahlen veranschaulichen, dass die taxonomische Erforschung dieser Gruppe in vollem Gange ist und legen nahe, dass wahrscheinlich noch viele weitere Arten entdeckt werden müssen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-79844-3_17 56271e5da89d77acf9295bacd28eb90f;de;;;2.1.;;;Lernen, semantische Verwandtschaft mit Wissen aus Wikipedia zu berechnen In letzter Zeit ist Wikipedia zu einer sehr wichtigen Ressource für die Berechnung der semantischen Verwandtschaft (SR) zwischen Entitäten geworden. Es wurden bereits mehrere Ansätze vorgeschlagen, um SR basierend auf Wikipedia zu berechnen. Die meisten der existierenden Ansätze verwenden bestimmte Arten von Informationen in Wikipedia (z. B. Links, Kategorien und Texte) und berechnen die SR durch empirisch entworfene Maßnahmen. Wir haben beobachtet, dass diese Ansätze in einigen Fällen zu sehr unterschiedlichen Ergebnissen für dasselbe Entitätspaar führen. Daher wird die Auswahl geeigneter Merkmale und Maßnahmen zur bestmöglichen Annäherung an das menschliche Urteil über SR zu einem herausfordernden Problem. In diesem Papier schlagen wir einen überwachten Lernansatz zur Berechnung von SR zwischen Entitäten basierend auf Wikipedia vor. Bei zwei Entitäten ordnet unser Ansatz zuerst Entitäten Artikeln in Wikipedia zu, dann werden verschiedene Arten von Merkmalen der zugeordneten Artikel aus Wikipedia extrahiert, die dann mit verschiedenen Bezugsmaßen kombiniert werden, um neun SR-Rohwerte des Entitätspaars zu erzeugen. Ein überwachter Lernalgorithmus wird vorgeschlagen, um die optimalen Gewichte verschiedener SR-Rohwerte zu lernen. Der endgültige SR wird als gewichteter Durchschnitt der Roh-SRs berechnet. Experimente mit Benchmark-Datensätzen zeigen, dass unser Ansatz die Basismethoden übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11116-2_21 51842ecf08a0701f8a9d70d4dfe8c1e9;de;;;2.1.;;;Die prognostische Bedeutung der Lymphknotengröße bei Patienten mit Plattenepithelkarzinom der Speiseröhre Die Prognose von Patienten mit Speiseröhrenkrebs bleibt düster, und ihre Versorgung stellt eine große Herausforderung dar, therapeutische Strategien für den einzelnen Patienten anzupassen. Das Staging von Lymphknoten ist bei Patienten mit Speiseröhrenkrebs immer noch nicht ideal. Daher haben wir einen neuen Ansatz zur Lymphknotenanalyse untersucht.;-;-;-;https://link.springer.com/article/10.1007/BF02574521 0e9c0ab8d481509b08449e6ffc57f680;de;;;2.1.;;;Kontextualisieren einer Wissensdatenbank durch Annäherung – eine Fallstudie Modulare Wissensdatenbanken geben ihren Benutzern die Möglichkeit, Wissen auf verschiedenen Allgemeinheitsebenen zu speichern und darauf zuzugreifen. In diesem Papier stellen wir vor, wie man modulare Wissensbasen organisiert, die in Kontexte organisiert sind, in denen ein Benutzer sein Wissen auf viel vereinfachte Weise ausdrücken kann, ohne jedoch seine Genauigkeit zu verlieren. Im Mittelpunkt der Arbeit steht der Begriff der Approximation, d. h. die Reduzierung der Arität der verwendeten Prädikate. Die Präsentation basiert auf einer Fallstudie, die mit dem CongloS-System im Rahmen eines nationalen Großprojekts durchgeführt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06932-6_12 b5b2a414224e05a88cb9db0ea5fa130e;de;;;2.1.;;;Mehrsprachige Datenerfassung zu Protestveranstaltungen mit GATE Datenbanken zu Protestveranstaltungen sind wichtige Quellen, die Soziologen benötigen, um die Dynamik und Eigenschaften kollektiver Aktionen zu untersuchen. Dieses Papier beschreibt einen endlichen Ansatz zur Sammlung von Protestveranstaltungsmerkmalen aus kurzen Texten (Nachrichtenleitsätzen) in mehreren europäischen Sprachen (Bulgarisch, Französisch, Polnisch, Russisch, Spanisch, Schwedisch) unter Verwendung der General Architecture for Text Engineering (GATE). Die Ergebnisse der Leistungsbewertung der Annotation werden präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-41754-7_10 ba511dcacac3c8bb1e324fb425de2fcd;de;;;2.1.;;;Medizinische Nomenklatur und gemeinsame Konventionen für Traumaregister Es wurde ein Traumaregister erstellt, das Lexika mit Begriffen enthält, die die Annahme einer standardisierten und erweiterbaren Terminologie für die Art und Weise der Verletzung fördern. Die Identifizierung von Attributsätzen für die Art der Verletzung (Körperregion: Detailteil: Art der Verletzung) und für die Art der Verletzung (Mechanismus: Agent: Aktivität: Intention: Setting) ermöglicht die Zusammenstellung leicht verwendbares und erweiterbares Format zur Darstellung des entsprechenden Detaillierungsgrades für die Nomenklatur oder Klassifizierung Diese Fähigkeit ermöglicht die Verwendung einer gemeinsamen Liste von Begriffen, die für Fallakten, die in der Patientenversorgung verwendet werden, sowie in der Statistik des Traumaregisters angepasst werden kann. Es werden mehrere Beispiele für Berichte angezeigt, die diese Attribute verwenden.;-;-;-;https://link.springer.com/article/10.1007/BF00992353 c9b8a7e52ce1dd34d2107b5424d75290;de;;;2.1.;;;Molekulares Profiling eines 6-Hydroxydopamin-Modells der Parkinson-Krankheit Die durch Konvektion verstärkte Abgabe von 6-Hydroxydopamin (6-OHDA) an das Striatum der Ratte führt zu einem Modell der Parkinson-Krankheit. Ein wichtiges Merkmal dieses unilateralen Modells ist der fortschreitende Verlust von dopaminergen (DA) Neuronen über mehrere Wochen. Um das Verständnis dieses Modells zu verbessern, wurden Veränderungen der Genexpression in der Substantia nigra, die die Zellkörper des DA-Neurons enthält, und im Striatum, das die synaptischen Terminals des DA-Neurons enthält, mit DNA-Mikroarrays untersucht. 3 Tage, 1 Woche, 2 Wochen und 4 Wochen nach der 6-OHDA-Behandlung wurden Proben entnommen und das Verhalten von mit Vehikel und Toxin behandelten Tieren analysiert. Der DA-Gehalt des Gewebes wurde bestimmt und Proben von Tieren, die eine erhebliche Depletion von striatalem DA aufwiesen, wurden in die anschließende Genexpressionsanalyse eingeschlossen. Die Ergebnisse der Genexpressionsanalyse zeigten, dass 6-OHDA zum frühesten getesteten Zeitpunkt im Striatum eine heftige Entzündungsreaktion hervorruft, die aus mehreren unterschiedlichen Signalwegen besteht. Im Gegensatz dazu wurden zum 3-Tage-Zeitpunkt relativ wenige Genexpressionsänderungen im SN beobachtet. In beiden untersuchten Geweben gab es Hinweise auf eine heftige Entzündungsreaktion zu den Zeitpunkten von 1 und 2 Wochen, die zum Zeitpunkt von 4 Wochen wesentlich verringert wurden. Im 6-OHDA-Modell der Parkinson-Krankheit spielt die Entzündung eine herausragende Rolle.;-;-;-;https://link.springer.com/article/10.1007/s11064-010-0133-3 acbea6217be4cd65df5a9ac654d09d01;de;;;2.1.;;;Eine vergleichende Untersuchung der Verbesserungen Filtermethoden ermöglichen die Merkmalsauswahl mithilfe von Microarray-Daten Merkmalsselektionstechniken sind mit der Entwicklung von Mikroarrays zu einem offensichtlichen Bedarf bei der Entdeckung von Biomarkern geworden. Die hochdimensionale Natur der durch Mikroarrays gemachten Merkmalsauswahl wird jedoch zeitaufwendig. Um solche Schwierigkeiten zu überwinden, ist das Filtern von Daten gemäß dem Hintergrundwissen vor der Anwendung von Merkmalsauswahltechniken zu einem heißen Thema in der Mikroarray-Analyse geworden. Verschiedene Methoden können das Endergebnis stark beeinflussen, daher ist es wichtig, diese Filtermethoden systemisch zu bewerten. In diesem Artikel vergleichen wir die Leistung statistisch-basierter, biologisch-basierter Filtermethoden und deren Kombination auf microRNA-mRNA-Parallelexpressionsprofilen unter Verwendung der logistischen L1-Regression als Merkmalsauswahltechniken. Vier Datentypen wurden sowohl für microRNA- als auch für mRNA-Expressionsprofile erstellt. Die Ergebnisse zeigten, dass bei ähnlicher oder besserer AUC, Präzision und weniger Merkmalen eine filterbasierte Merkmalsauswahl in Betracht gezogen werden sollte, wenn Forscher bei komplexen Rechenproblemen in der Bioinformatik schnelle Ergebnisse benötigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06269-3_7 e40475a045f572b108d396e3848d9c02;de;;;2.1.;;;Inseln und Abfragebeantwortung für Alchi-Ontologien Die Vision des Semantic Web förderte das Interesse am Denken über immer größere Sätze von Aussagesätzen in Ontologien. Heutzutage passen reale Ontologien nicht mehr in den Hauptspeicher und daher können Tableaux-basierte Argumentationssysteme diese großen Ontologien nicht mehr verarbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19032-2_17 46d480615ed9ab6780bd0679f94614ec;de;;;2.1.;;;Ein Typ-2-FML-basiertes Unterstützungssystem für die Besprechungsplanung Die Planung von Besprechungen in Organisationen beinhaltet viele Überlegungen wie die Planung von Konflikten und sogar persönliche Vorlieben. Der Gastgeber eines Organisationsmeetings verbringt normalerweise viel Zeit damit, sich mit potenziellen Teilnehmern zu beraten, um den optimalen Zeitschlitz zu bestimmen. Um den Zeit- und Arbeitsaufwand für diesen Planungsprozess zu minimieren, stellt dieses Kapitel eine neuartige FML-basierte Personalontologie vom Typ 2, eine Ontologie für die Terminplanung vom Typ 2 und ein entscheidungsunterstütztes System vor. Die Fuzzy-Auszeichnungssprache (FML) wird auch verwendet, um die Wissensbasis und Regelbasis des vorgeschlagenen Besprechungsplanungssystems zu beschreiben, und dann wird ein Fuzzy-Schlußfolgerungsmechanismus verwendet, um die Wahrscheinlichkeit der Teilnahme für jeden potentiellen Teilnehmer abzuleiten. Schließlich generiert das System eine semantische Beschreibung, die die geschätzte Teilnahmewahrscheinlichkeit für jeden potenziellen Teilnehmer angibt. Die experimentellen Ergebnisse zeigen, dass der vorgeschlagene Ansatz für die Terminplanung geeignet ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35488-5_10 aa927303d95fd99ce663e0532915c5e6;de;;;2.1.;;;Ein föderierter Ansatz für das digitale Identitätsmanagement für Geschäftsprozesse Geschäftsprozesse haben aufgrund der dringenden Notwendigkeit, vorhandene Ressourcen und Dienstleistungen zu integrieren, um die Kundenbedürfnisse besser erfüllen zu können, viel Aufmerksamkeit erlangt. Ein wesentliches Merkmal von Geschäftsprozessen besteht darin, dass sie aus zusammensetzbaren Diensten aufgebaut sind, die als;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03354-4_15 2ea192665656996c0d9fd37db0d81e21;de;;;2.1.;;;Ökologische Bedeutung der Coaggregation zwischen oralen Bakterien Das menschliche orale Ökosystem ist ein Paradies für Ökologen. Es ist für den Untersucher leicht zugänglich und enthält mehr als 325 Bakterienarten. Innerhalb weniger Stunden, nachdem ein Zahn professionell gereinigt wurde, besiedeln eine Reihe von Bakteriengattungen die Zahnoberfläche wieder. Diese primären Kolonisatoren sind auch an der Abfolge von Gattungen beteiligt, die die fortschreitenden Veränderungen an einer Zahnstelle begleiten, wenn sich der klinische Zustand von gesund über Gingivitis bis hin zu fortschreitenden Stadien der Parodontitis ändert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-7609-5_4 bff8c8c547ddaaeb7861c55403feb6df;de;;;2.1.;;;Informationsanreicherung mit dem Semantic Framework von TaToo Das Internet wächst unkoordiniert, in dem verschiedene Gruppen kontinuierlich Informationen veröffentlichen und aktualisieren, indem sie eine Vielzahl von Standards entsprechend dem spezifischen Interessenbereich übernehmen: von der Landwirtschaft bis zur Ökologie, vom Grundwasser bis zum Klimawandel. Dieses uneingeschränkte und unregulierte Wachstum hat sich als sehr erfolgreich erwiesen, da in einem positiven Kreislauf der Informationsanhäufung mehr Informationen verfügbar gemacht werden, noch mehr hinzugefügt werden. Gleichzeitig machen moderne Suchmaschinen die Suche nach Informationen ziemlich einfach, da ihre Gesamtleistung für die meisten Benutzer mehr als zufriedenstellend ist. Das Suchen und Auffinden von Informationen erfordert jedoch viel Fachwissen und bereits vorhandenes Wissen. Dies ist möglicherweise kein Problem, wenn ein Benutzer mit einer Suchmaschine für allgemeine Zwecke nach gemeinsamen Assets sucht. Aber was passiert, wenn der Benutzer versucht, wissenschaftliche Informationen über Grenzen hinweg zu sammeln (z. B. über verschiedene Disziplinen, über Umweltdomänen hinweg usw.)? Dies erfordert neue Ansätze, Methoden und Werkzeuge, um die Entdeckungslücke von Informationsressourcen zu schließen, die Ihre spezifische Anfrage erfüllen. Genau dieser Herausforderung stellt sich das TaToo-Projekt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16552-8_15 650ec1c34f1cc27c0ffb6b1f509ad8fa;de;;;2.1.;;;Funktionsidentifikation und -auswahl Als erster Ansatz wird davon ausgegangen, dass durch die Betrachtung von Wörtern, genauer gesagt der häufigsten, stilistische Marker erkannt werden können. Dieses Kapitel untersucht verschiedene andere Möglichkeiten, nützliche stilistische Spuren zu definieren, die der Autor erlaubt. Anstatt nur isolierte Wörter zu betrachten, kann man die Nützlichkeit kurzer Wortfolgen (sogenannte Wort-N-Gramme) untersuchen. Nach dem Anwenden eines Part-of-Speech (POS)-Taggers könnten die resultierenden Tags oder Sequenzen davon relevant sein, um zwischen verschiedenen Stilen zu unterscheiden. Andererseits könnten die Buchstaben und N-Gramme von ihnen auch die Unterscheidung zwischen den Autoren widerspiegeln. Darüber hinaus wurden verschiedene Funktionen zur Merkmalsauswahl vorgeschlagen, um die beste Untermenge stilistischer Marker auszuwählen, um einen gegebenen Autor oder eine bestimmte Kategorie (z. B. Männer vs. Frauen) zu beschreiben. Alle diese Lösungen weisen Vor- und Nachteile auf, die in diesem Kapitel aufgezeigt und veranschaulicht werden. Schließlich werden zwei Verfahren zum Extrahieren der überstrapazierten Begriffe und Ausdrücke, die einem gegebenen Autor oder einer bestimmten Kategorie entsprechen, diskutiert und Beispiele werden vorgestellt, um die erforderliche Berechnung zu veranschaulichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-53360-1_5 83e27f77dc9f49403a56773b85c1169d;de;;;2.1.;;;So reduzieren Sie die Dimension und verbessern die Leistung Dieses Dokument befasst sich mit der Auswahl von Funktionsuntergruppen für ein automatisches Erkennungssystem für arabische Sprecher. Ein effektiver Algorithmus basierend auf einem genetischen Algorithmus wird vorgeschlagen, um die besten Merkmalskombinationen unter Verwendung einer Merkmalsreduktion und einer Erkennungsfehlerrate als Leistungsmaß zu entdecken. Das Experimentieren wird mit QSDAS-Korpora durchgeführt. Die Ergebnisse von Experimenten zeigen, dass mit der optimierten Merkmalsuntermenge die Leistung des Systems verbessert wird. Darüber hinaus wird die Erkennungsgeschwindigkeit erheblich erhöht, die Anzahl der Funktionen wird um über 60% reduziert, wodurch die Komplexität unseres ASR-Systems verringert wird;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28942-2_45 c75bcaa4719018e7572f6b1391ffa3ab;de;;;2.1.;;;Pitiriasis versicolor por In einer zufällig gesammelten Serie von 175 Pityriasis versicolor-Fällen bei Einwohnern des zentral-nördlichen Teils Venezuelas waren 13% der Patienten mit eiförmigen einzelligen Einheiten des verursachenden Pilzes (;-;-;-;https://link.springer.com/article/10.1007/BF00447023 28f899aa452b1b6876b2a20c51094946;de;;;2.1.;;;Eigenschaften von Flechtenlektinen und ihre Rolle in der Symbiose Lektine sind Proteine ​​oder Glykoproteine ​​nichtimmunen Ursprungs, die reversibel an Kohlehydrate binden, die auf Zelloberflächen exponiert sind und zelluläre Erkennungsprozesse in einer Vielzahl biologischer Interaktionen vermitteln. Obwohl sie ursprünglich in Pflanzen entdeckt wurden, wurden Lektine aus verschiedenen Quellen, einschließlich Flechten, von Forschern auf der ganzen Welt umfassend untersucht. Die symbiotische Interaktion zwischen einem Pilz (Mycobiont) und seinem Photosynthesepartner (Photobiont), normalerweise einer Alge, bildet eine Flechte. Einige Flechtenlektine zeigen Aktivität gegenüber menschlichen oder tierischen Erythrozyten. Obwohl bisher nur wenige Flechtenlektine untersucht wurden, legen ihre Eigenschaften nahe, dass sie eine wichtige Rolle in den symbiotischen Interaktionen dieser Assoziation spielen. Die Lektinbindung und die damit verbundene enzymatische Aktivität in Bezug auf die Erkennung von Algenzellen veranschaulicht ein fein abgestimmtes mechanistisches System, das an der Flechtensymbiose beteiligt ist. Diese Übersicht bietet einen Überblick über die Eigenschaften von Flechtenlektinen und einen Einblick in die Lektin-vermittelten symbiotischen Interaktionen und die Galectin-kodierenden Gene. Auch Zukunftsperspektiven für die Flechtenlektinforschung in verschiedenen Bereichen werden aufgezeigt.;-;-;-;https://link.springer.com/article/10.1007/s13199-014-0278-y f81b51b7b4c7cdfe9e58add5a95f7d3d;de;;;2.1.;;;Service-Extraktion aus Betreiberverfahren in der Prozessindustrie Verfahren sind in Prozessindustrien wie Raffinerien eine gängige Wissensform. Eine typische Raffinerie erfasst Hunderte von Verfahren, die die Maßnahmen dokumentieren, die von den Betreibern befolgt werden müssen. Es ist wichtig, das in diesen Verfahren enthaltene Handlungswissen zu erhalten, da es ein wichtiges organisatorisches Gut darstellt, das zur Minimierung der Unfallgefahr genutzt werden kann. Wir entwickeln einen Ansatz, der Dienste aus diesen Betreiberverfahren extrahiert. Der Beitrag beschreibt die diesem Ansatz zugrunde liegenden Heuristiken, veranschaulicht seine Anwendung und diskutiert Implikationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20633-7_24 55b293586b85774150e26e7f8f7c8aea;de;;;2.1.;;;Ein NC-Algorithmus zum Erkennen von an Bäume angrenzenden Sprachen Es wird ein paralleler Algorithmus zum Erkennen der Klasse von Sprachen präsentiert, die durch baumbenachbarte Grammatiken erzeugt werden, ein Baumumschreibsystem, das Anwendungen in der Verarbeitung natürlicher Sprache hat. Diese Klasse von Sprachen ist dafür bekannt, alle kontextfreien Sprachen richtig einzuschließen, zum Beispiel die nicht kontextfreien Mengen {;-;-;-;https://link.springer.com/article/10.1007/BF01408291 faa54f4b8b4aeacdf5c8918fdda8d542;de;;;2.1.;;;Ein paralleles System zur Klassifikation von Kolongewebe mit Hilfe eines genetischen Algorithmus Die Gewebeanalyse ist für die Behandlung einer Reihe von Problemen in der Krebsforschung unerlässlich. Diese Forschung versucht, das Problem der Identifizierung normaler, dysplastischer und kanzeröser Dickdarmschleimhaut mit Hilfe von Texturanalysetechniken anzugehen. Ein genetischer Algorithmus wird verwendet, um die Ergebnisse dieser Operationen zu interpretieren. Bildverarbeitungsoperationen und genetische Algorithmen sind beides Aufgaben, die eine enorme Rechenleistung erfordern. Für die Implementierung eines parallelen Klassifikationssystems wurde PVM (Parallel Virtual Machine), eine Message-Passing-Bibliothek für verteilte Programmierung, ausgewählt. Um die PVM-Funktionalität weiter zu verbessern, wurde ein C++-objektorientierter „PVM-Wrapper“ konstruiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39924-7_75 74d91da744074ca4a61a693a49cc16cb;de;;;2.1.;;;Thermophiles Phycocyanin Die zentralen Fragen zum Verständnis des adaptiven Mechanismus thermophiler Organismen können am besten durch die Auswahl eines Modells beantwortet werden, dessen Eigenschaften wahrscheinlich eine besonders empfindliche Funktion der Temperatur sind. Enzyme sind für diese Art von Analyse nützlich, da sie wie andere Proteine ​​eine Vielzahl von Konformationen sowie Primär-, Sekundär-, Tertiär- und Quartärstrukturen aufweisen und ihre Temperaturanpassung sich in subtilen Änderungen der enzymatischen Eigenschaften widerspiegeln könnte, die konformationsabhängig sind . Enzyme sind jedoch im Allgemeinen in sehr geringen Konzentrationen in Organismen vorhanden und ihre Funktionen sind schwer zu bestimmen, da in-vivo-Bedingungen (wie Proteinkonzentration, pH und Ionenstärke) nicht ohne weiteres mit in-vitro-Bedingungen gleichgesetzt werden können. Wir haben uns entschieden, die Eigenschaften eines Proteinsystems zu charakterisieren, die als Modellsystem vielversprechender erscheinen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-7675-9_24 fab67aefbfdf652d7ec8b6aecd5ff546;de;;;2.1.;;;Zum KBCS-Ansatz in Bildverarbeitung, Mustererkennung und Computer Vision Der Beitrag stellt kurz die Höhepunkte der am NCKBCST am ISI in Kalkutta durchgeführten Projekte zur Anwendung wissensbasierter Ansätze bei einigen Bildverarbeitungs-, Mustererkennungs- und Computervisionsproblemen in Bezug auf einige reale Anwendungen vor. Anwendungsbereiche sind die Entwicklung von KBCS zur strukturellen und lithologischen Unterscheidung und eine Hilfe bei der Minerallokalisierung in Zusammenarbeit mit GSI, ein Experten-CAD-System für die industrielle Inspektion und Verifizierung und der KBCS-Ansatz zur Kohlenwasserstoffexploration. Einige der Teilprobleme, zu denen Ergebnisse oder Teilergebnisse angezeigt werden, sind 3D-Formanalyse, Erkennung und Positionierung von teilweise verdeckten 3D-Objekten, KI-Technik mit Fuzzy-Auswertungsverfahren zur Merkmalsteilmengenauswahl bei der automatischen Mustererkennung, fraktalbasierte Kriterien zur Bewertung der Leistung digitaler Bildvergrößerungstechniken, binäre Konturcodierung mit Bezier-Approximation, heuristisches Verfahren zur Vorbereitung geologischer Klassifikation aus Satelliten-MSS-Daten, optimale Schwellenwerte für eine Klasse von Lernalgorithmen und ein assoziatives Netzwerk für die Darstellung und Erkennung einzelner Objekte.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0018407 2dcca23ace38bb6e98426e1f7c351dc3;de;;;2.1.;;;Welches ist das höchste Gebäude in Europa? Wissen repräsentieren und argumentieren Die Notwendigkeit, Wissen zu repräsentieren, ist in Anwendungen allgegenwärtig, zum Beispiel muss Google Wissen über den Standort und die Höhe von Gebäuden darstellen, um Fragen wie „Welches ist das höchste Gebäude in Europa“ zu beantworten? Google verwendet einen Graphen, um solches Wissen darzustellen, und sogenannte Wissensgraphen werden als Formalismus zur Wissensdarstellung immer beliebter. Das Hinzufügen irgendeiner Form von Regeln erhöht die Leistungsfähigkeit und den Nutzen von Wissensgraphen erheblich, kann aber auch zu theoretischen und/oder praktischen Problemen bei der Nachvollziehbarkeit führen. In diesem Beitrag werden wir die relevanten Probleme und mögliche Lösungen kurz überblicken und zeigen, dass regelverstärkte Wissensgraphen äußerst leistungsfähig sind, eine formale Logik-basierte Semantik erhalten können und in der Praxis hoch skalierbar sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-11680-4_2 a4feaf23d1525b604576855fc382e5fd;de;;;2.1.;;;Dokumentähnlichkeit für arabische und sprachenübergreifende Webinhalte Dokumentähnlichkeit ist grundlegend für den Informationsabruf. Cross Lingual (CL)-Ähnlichkeit ist für viele Datenverarbeitungsaufgaben wichtig, wie z. Wir untersuchen die CL-Ähnlichkeit basierend auf der Explicit Semantic Association (ESA), die an eine sprachenübergreifende Umgebung mit Fokus auf Arabisch angepasst ist. Wir vergleichen den Grad, in dem der CL-Ähnlichkeitstest funktioniert, wenn eine der Sprachen Arabisch ist, mit seinem einsprachigen Gegenstück für verschiedene Textblockgrößen. Wir beschreiben die genutzte Infrastruktur und berichten über einige Testergebnisse, untersuchen die möglichen Quellen der aufgetretenen Schwachstellen und weisen auf mögliche Verbesserungsrichtungen hin.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-73500-9_10 34d7a6a9014f8d261672cb9166dcec9a;de;;;2.1.;;;Thermische räumlich-zeitliche Daten zur Stresserkennung Stress ist ein ernstes Problem unserer heutigen Welt und motiviert zur Entwicklung eines besseren objektiven Verständnisses durch den Einsatz nicht-intrusiver Mittel zur Stresserkennung, indem Einschränkungen des natürlichen menschlichen Verhaltens reduziert werden. Als ersten Schritt bei der computergestützten Stresserkennung schlägt dieses Papier eine Videodatenbank des zeitlichen thermischen Spektrums (TS) und des sichtbaren Spektrums (VS) vor;-;-;-;https://link.springer.com/article/10.1186/1687-5281-2014-28 19c742befbff482751602a8f6e2709d2;de;;;2.1.;;;Ein hybrider Ansatz mit Fuzzy Cognitive Map/Support Vector Machine für die EEG-basierte Emotionsklassifikation mit Compressed Sensing Aufgrund der hochdimensionalen, instationären und nichtlinearen Eigenschaften des Elektroenzephalogramms (EEG) bleibt ein erheblicher Teil der Forschung zur EEG-Analyse unbekannt. In diesem Beitrag wird ein neuartiger Ansatz zur EEG-basierten Studie menschlicher Emotionen vorgestellt, der Big-Data-Methoden mit einem Hybrid-Klassifikator verwendet. Ein EEG-Datensatz wird zunächst mit Compressed Sensing komprimiert, dann werden Wavelet-Transformationsmerkmale extrahiert und eine hybride Support Vector Machine (SVM) und ein Fuzzy Cognitive Map-Klassifikator entwickelt. Die komprimierten Daten haben nur ein Viertel der Originalgröße und der Hybridklassifikator hat eine durchschnittliche Genauigkeit von 73,32 %. Im Vergleich zu einem einzelnen SVM-Klassifikator wird die durchschnittliche Genauigkeit um 3,23% verbessert. Diese Ergebnisse zeigen, dass psychologische Signale ohne die Sparsity-Identität komprimiert werden können. Das stabile und hochpräzise Klassifizierungssystem zeigt, dass das EEG-Signal menschliche Emotionen erkennen kann, und die Ergebnisse belegen weiter die Existenz der Wechselbeziehung zwischen verschiedenen Regionen des Gehirns.;-;-;-;https://link.springer.com/article/10.1007/s40815-018-0567-3 1aa8bbaab57401d3e2c606a7d25e2c1c;de;;;2.1.;;;Kritische Untersuchung von DDoS-Angriffen auf Anwendungsschicht: Taxonomie und Parametereffizienz Distributed Denial of Service (DDoS)-Angriffe auf Anwendungsebene haben Vorteile durch die zunehmende Komplexität und Vielfalt von Netzwerkprotokollen und -diensten. Diese Art von Angriffen sind heutzutage eher als DDoS-Angriffe beliebt. AL-DDoS-Angriffe sind kritische Bedrohungen für Internet- und Business-Webserver. In den letzten Jahren wurde ein bedeutender Forschungsbeitrag der Entwicklung einer neuen Technik in AL-DDoS gewidmet. In dieser Arbeit hatten wir 13 Primärstudien aus einer großen Menge von Daten aus den verschiedenen elektronischen Datenbanken ausgewählt. Wir formulieren die Vor- und Nachteile der verschiedenen Primärstudien, den Beitrag der Länder, identifizieren die Parameter und deren Auswirkungen, Angriffsstrategie des Angreifers und deren Auswirkungen. Das Ziel dieser Umfrage ist es, weitere zukünftige Forschungen zu Attributen von AL-DDoS-Angriffen zu identifizieren. Wir diskutieren auch Attribute, die vom Forscher leicht verwendet werden. Diese Umfrage identifiziert, dass Forscher welche Strategie häufiger verwendet haben, und in Zukunft können Bekannte mit diesen Strategien und Attributen arbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30577-2_82 98bfb79e8cc589ea7b9dad1761220ccc;de;;;2.1.;;;Die Anwendung von PAPNET in der diagnostischen Zytologie Die diagnostische Zytologie ist ein Zweig der Pathologie, der versucht, menschliche Krankheiten, hauptsächlich Krebs oder präkanzeröse Zustände verschiedener Organe, durch mikroskopische Untersuchung von Zellproben anstelle von Gewebebiopsien zu diagnostizieren [1], [2]. Es gibt mehrere Methoden, um Zellproben zu erhalten. Die Zellen können durch Abkratzen oder Bürsten der Oberfläche der Zielorgane (wie des Gebärmutterhalses, der Speiseröhre oder des Bronchus, um nur einige zu nennen) gesichert werden. Zellen können auch mittels eines Nadel-Spritzen-Systems gewonnen werden, das zum Absaugen von Flüssigkeiten verwendet werden kann, die sich in einer Körperhöhle oder tief sitzenden Läsionen angesammelt haben. Diagnostisch wertvolle Zellen können auch im Harnsediment oder Sputum enthalten sein. Unabhängig von Herkunft und Art des Verfahrens wird die Probe in der Regel in Form von Abstrichen oder gleichwertigen Präparaten untersucht, die gefärbt werden müssen, um die diagnostischen Eigenschaften der Zellen zu verbessern. Es ist hier nicht der Ort, die diagnostisch bedeutsamen mikroskopischen Merkmale im Detail zu beschreiben, und der interessierte Leser sei auf andere Quellen verwiesen [1],[2]. Es genügt zu sagen, dass sich die Unterschiede zwischen gutartigen und bösartigen Zellen hauptsächlich in der Konfiguration und den Färbungseigenschaften des Zellkerns widerspiegeln, einer kleinen Struktur mit einem Durchmesser von 7 bis 12 Mikrometern.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0487-2_5 e589efedd365d07f072869e99187cf3a;de;;;2.1.;;;Bildklassifizierung basierend auf diskriminierendem Wörterbuchpaarlernen Das Erlernen von Wörterbüchern spielt in den letzten Jahren eine immer wichtigere Rolle bei der Bildklassifikation. Die meisten existierenden Wörterbuchlernmethoden zielen darauf ab, die Unterscheidung der gelernten Wörterbücher zu verbessern. In letzter Zeit zeigt das Erlernen eines Wörterbuchpaars die Effektivität und Effizienz bei der Bildklassifizierung. Ein solches Paar besteht aus einem Synthesewörterbuch und einem projektiven Analysewörterbuch. Anders als bei der traditionellen spärlichen Darstellung erzwingt ein solches Modell eine Gruppensparsität basierend auf einer strukturierten Darstellung des Wörterbuchpaares, die mit dem Ziel der Klassifikation besteht. In dieser Arbeit schlagen wir vor, die Unterscheidung von Codierkoeffizienten zu verbessern, um die Struktur des Wörterbuchpaares weiter zu verbessern. Genauer gesagt wird ein Regularisierungsterm für die Codierungskoeffizienten eingeführt, um Musterdarstellungen derselben Klasse näher und diejenigen unterschiedlicher Klassen weiter weg zu schieben. In der Klassifizierungsphase verwenden wir die gelernten Wörterbücher, um die Bildklassifizierung zu verbessern. Die experimentellen Ergebnisse mehrerer repräsentativer Benchmark-Bilddatenbanken belegen die Wirksamkeit der vorgeschlagenen Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25417-3_22 641304801bfdd145fbffabec85140efb;de;;;2.1.;;;Zusammensetzung von Webdiensten mithilfe von Dienstzuordnungen Die Detaillierung einer Servicestruktur kann dabei helfen, den Umfang einer Servicesuche sowie der Zusammensetzung zu erweitern. Zu diesem Zweck schlagen wir Service Map (SMap) vor, um einen Service zu spezifizieren. Haben auch einen Prozess zur Verarbeitung einer Abfrage im SMap-Repository definiert und gezeigt, dass der Prozess auch einen qualitativ zusammengesetzten Dienst zurückgeben kann, um Abfrageanforderungen zu erfüllen. Für die Implementierung des SMap-Registers sowie die Bearbeitung von Anfragen an das Register wird ein Framework als Erweiterung des juddi-Registers vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13365-2_18 367769274ccff1893894a07b7d4e9e92;de;;;2.1.;;;Verwendung semantischer Informationen für die Koreferenzauflösung mit neuronalen Netzen auf Russisch Dieser Artikel beschreibt ein Experiment, das darauf abzielt, die Qualität der Koreferenzauflösung für Russisch zu verbessern, indem eine der neuesten Entwicklungen auf diesem Gebiet, der Einsatz neuronaler Netze, mit den Vorteilen der Verwendung semantischer Informationen kombiniert wird. Die Aufgabe der Koreferenzauflösung war das Ziel intensiver Forschung und das Interesse an der Verwendung neuronaler Netze, die in anderen Aufgaben der natürlichen Sprachverarbeitung erfolgreich getestet wurden, ist allmählich gewachsen. Die Rolle, die semantische Informationen für die Aufgabe der Koreferenzauflösung spielen, wurde von Forschern erkannt, aber der Einfluss semantischer Merkmale auf die Leistung neuronaler Netze wurde noch nicht im Detail beschrieben. Hier beschreiben wir den Prozess der Integration von Features, die aus semantischen Open-Source-Informationen abgeleitet wurden, in das Koreferenzauflösungsmodell basierend auf einem neuronalen Netzwerk und bewerten seine Leistung im Vergleich zum Basismodell. Die erhaltenen Ergebnisse belegen eine Qualität auf dem Niveau moderner Systeme, was dazu dient, die Bedeutung semantischer Merkmale in der Koreferenzauflösung sowie die Anwendbarkeit neuronaler Netze für die Aufgabe wieder herzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-39575-9_9 1c5aa752c794e7782206fb71c34e1123;de;;;2.1.;;;Verwenden des Ansatzes der multiplen Diskriminanzanalyse für die lineare Textsegmentierung Die Forschung zur linearen Textsegmentierung war im letzten Jahrzehnt ein ständiger Schwerpunkt im NLP und hat ein großes Potenzial für eine Vielzahl von Anwendungen wie Dokumentenzusammenfassung, Informationsabruf und Textverständnis. Bei der linearen Textsegmentierung gibt es jedoch zwei kritische Probleme, die eine automatische Grenzerkennung und eine automatische Bestimmung der Anzahl von Segmenten in einem Dokument beinhalten. In diesem Beitrag schlagen wir ein neues domänenunabhängiges statistisches Modell für die lineare Textsegmentierung vor. In unserem Modell wird die Kriteriumsfunktion Multiple Discriminant Analysis (MDA) verwendet, um eine globale Optimierung beim Finden der besten Segmentierung mittels der größten Wortähnlichkeit innerhalb eines Segments und der kleinsten Wortähnlichkeit zwischen Segmenten zu erreichen. Um das durch das Modell eingeführte Problem der hohen Rechenkomplexität zu mildern, werden genetische Algorithmen (GAs) verwendet. Vergleichende experimentelle Ergebnisse zeigen, dass unsere auf MDA-Kriteriumsfunktionen basierende Methode einen höheren P erreicht hat;-;-;-;https://link.springer.com/chapter/10.1007/11562214_26 e91d6bffd0115505038aee853692db78;de;;;2.1.;;;Erhöhte Robustheit bei der Kontexterkennung und Argumentation mit Unsicherheitsmaßen: Konzept und Anwendung Dieser Artikel berichtet über ein neuartiges wiederkehrendes Fuzzy-Klassifizierungsverfahren zur robusten Erkennung von Kontextaktivitäten in einer Umgebung unter Verwendung von entweder einzelnen oder verteilten Sensoren. Es führt auch eine Klassifizierung von Systemarchitekturen für die Unsicherheitsberechnung im Allgemeinen ein. Unsere vorgeschlagene neue Methode verwendet Unsicherheitsmaße zur Verbesserung der Erkennung, Fusion und Aggregation von Kontextwissen. Die Berechnungen der Unsicherheitsmessung basieren auf unserem neuartigen rekurrenten Fuzzy-System. Wir haben die Methode in einer realen Anwendung angewendet, um verschiedene Situationen mit Applaus (und Nicht-Applaus) zu erkennen, z.B. während einer Konferenz. Gemessen wurden Handysensoren (Mikrofon, Beschleunigung falls vorhanden) und Beschleunigungssensoren, die an einem Boardmarker befestigt waren. Wir zeigen, dass wir die Robustheit der Detektion mit unserem neuartigen rekurrenten Fuzzy-Klassifikator in Kombination mit Unsicherheitsmaßen um durchschnittlich ~30% verbessern können. Wir zeigen auch, dass die Verwendung mehrerer Telefone und verteilter Erkennung in den meisten Fällen eine Erkennungsrate zwischen 90% und 100% ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05408-2_30 15f8f3eb7196acb923b6e385a27c580c;de;;;2.1.;;;Digitale Methoden: Fünf Herausforderungen Während der Einsatz von Computern für die geistes- und sozialwissenschaftliche Forschung eine lange Geschichte hat1, hat der immense Erfolg des vernetzten Personal Computing sowohl physische Maschinen als auch Software für Wissenschaftler zugänglicher gemacht. Aber noch wichtiger ist, dass digitale Artefakte mittlerweile jeden Winkel der postindustriellen Gesellschaften bevölkern. Dies bedeutet, dass neben der Untersuchung nicht-digitaler Objekte und Phänomene mit Hilfe von Computern heute ein sich ständig erweiternder, von maschineller Vermittlung durchdrungener Raum der kulturellen Produktion und sozialen Interaktion existiert, der von Anfang an an digitale Schemata und Formate. Ein offensichtlicher Effekt dieser Expansion war die Explosion des in digitaler Form verfügbaren Materials. „Traditionelle“ kulturelle Artefakte wie Bücher oder Filme, „native“ digitale Formen wie Softwareprogramme, Online-Publikationen oder Computerspiele und eine Flut von „Informationen“ aller Art – protokollierte Spuren von Nutzungspraktiken, Online-Interaktionen usw. – tragen zu einem wachsenden Berg von;-;-;-;https://link.springer.com/chapter/10.1057/9780230371934_4 07451bbfebacd73ecd9dd3efc3a67bdf;de;;;2.1.;;;Erkennung und Extraktion lateinischer Pflanzennamen für die Übereinstimmung mit gemeinsamen Pflanzennamensentitäten Das Ziel dieser Arbeit ist es, die lateinischen Pflanzennamen zu verwenden, um die Paarung von französisch-arabischen Pflanzen gebräuchlichen Namen zu machen. Der wissenschaftliche Name einer Pflanze ist ein gemeinsamer Nenner zwischen den gebräuchlichen Namen, da der wissenschaftliche Name in Latein ist und von anderen Sprachen unabhängig ist. Um die Paarung durchzuführen, identifizieren und extrahieren wir zuerst die lateinischen Namen der Pflanzen mithilfe der NooJ-Plattform, dann aus den Mengen: allgemeine Pflanzennamen des französischen Korpus (S1), die lateinischen Namen des französischen Korpus (S2), gebräuchliche Pflanzennamen des arabischen Korpus (S3) und lateinische Namen des arabischen Korpus (S4) modellieren, implementieren und testen wir einen passenden Ansatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-55002-2_12 49e871c5c41469f1196bd0cb96f7e054;de;;;2.1.;;;Intelligentes System zur Unterstützung von Rechtsentscheidungen zur Klassifizierung falscher Informationen in sozialen Medien In der Studie wurde ein Entscheidungsunterstützungssystem für Governance im Rechtsbereich entwickelt und das bestehende Entscheidungsfindungsmodell zur Durchführung sprachlicher Gutachten zu ungenauen öffentlichen Informationen in Online-Medien und sozialen Netzwerken unter Berücksichtigung des Faktors Mensch verbessert. Die Ergebnisse des vorgeschlagenen Systems werden in einer Reihe von gebildeten Empfehlungen präsentiert, auf deren Grundlage der Benutzer eine Entscheidung trifft. Die Besonderheit des Decision Support Systems (DSS) besteht darin, dass es gemäß der in der Studie angesprochenen russischen Gesetzgebung gegen „Fake News“ mit mehreren Arten von Falschinformationen arbeitet. Die angepassten Algorithmen der Bayes-Klassifikation wurden für die effektive Arbeit des Entscheidungs- und Klassifizierungsmoduls von falschen Informationen untersucht und gebaut. Diese Algorithmen wurden in das System implementiert und ein Computerexperiment zur Textklassifizierung durchgeführt. Die Studie untersuchte die Merkmale der russischen Gesetzgebung zur Verbreitung falscher Informationen und beschrieb die Komponenten und Funktionen des vorgeschlagenen intelligenten juristischen DSS sowie seine Effizienz. Diese Lösung impliziert einen breiten Einsatz von Systemen, Anwendungspaketen, Spezialsoftware und rechtliche Unterstützung für analytische Arbeiten, um Prognosen und Schlussfolgerungen zu den untersuchten Prozessen auf der Grundlage von Datenbanken und Expertenurteilen zu erhalten, unter Berücksichtigung des menschlichen Faktors und des aktiven Einflusses des geregelten Systems auf die Governance-Prozess.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-67238-6_19 316d8859bf703d19129e14c35b5cb958;de;;;2.1.;;;Aktives Lernen zur Objektklassifizierung: von der Erkundung bis zur Ausbeutung Die Klassifizierung großer Datensätze ohne a-priori-Informationen stellt bei zahlreichen Aufgaben ein Problem dar. Gerade im industriellen Umfeld begegnen wir oft diversen Messgeräten und Sensoren, die riesige Datenmengen produzieren, dennoch verlassen wir uns auf einen menschlichen Experten, um die Daten sinnvoll zu interpretieren. Da die Menge der manuell zu klassifizierenden Daten eine entscheidende Rolle spielt, müssen wir die Anzahl der Lernepisoden mit menschlichen Interaktionen so weit wie möglich reduzieren. Darüber hinaus ist es für reale Anwendungen von grundlegender Bedeutung, auf stabile Weise zu einer Lösung zu konvergieren, die der optimalen Lösung nahe kommt. Wir präsentieren eine neue selbstkontrollierte Explorations-/Ausbeutungsstrategie zur Auswahl von Datenpunkten, die von einem Domänenexperten gekennzeichnet werden sollen, wobei das Potenzial jedes Datenpunkts basierend auf einer Kombination seiner Repräsentativität und der Unsicherheit des Klassifikators berechnet wird. Ein neuer Prototyp-basierter Active-Learning-Algorithmus (PBAC) zur Klassifizierung wird eingeführt. Wir vergleichen die Ergebnisse mit anderen aktiven Lernansätzen auf mehreren Benchmark-Datensätzen.;-;-;-;https://link.springer.com/article/10.1007/s10618-008-0115-0 a947657773cbfdf0f1b61ef6efebaf5a;de;;;2.1.;;;Binnensalzseen: Eine Einführung Die Tagungsbände fachwissenschaftlicher Symposien sind selten umfassend. Ihr übliches Ziel ist es, einem breiteren Publikum zugängliche Aufzeichnungen der Vorträge von Teilnehmern bereitzustellen, die hauptsächlich zum Meinungsaustausch, zur Berichterstattung über ihre eigene Arbeit und zum Kennenlernen der Arbeit anderer zusammengekommen sind. Inwieweit die präsentierten Arbeiten das Feld abdecken, wird durch die Breite des Feldes, die Teilnehmerzahl und natürlich den Inhalt der Arbeiten bestimmt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-8665-7_1 8a3a4423e96c2cf6fe6e9c5f2b0f14d2;de;;;2.1.;;;Wissenssignaturen für die Informationsintegration Informationsanalyse, wissenschaftliche Entdeckung, Webnavigation und viele andere informationsbezogene Aktivitäten beruhen auf der Sammlung, Analyse und Integration unstrukturierter, unterschiedlicher Daten. Trotz erheblicher Forschungsanstrengungen sind automatische Methoden zur Informationsintegration den menschlichen Fähigkeiten immer noch weit unterlegen. Für den Menschen einfache Aufgaben, wie das Erkennen der zugrundeliegenden Ähnlichkeiten zwischen oberflächlich unterschiedlichen Objekten oder das Aussortieren der Semantik mehrdeutiger Aussagen, stellen automatisierte Prozesse weiterhin vor große technische Herausforderungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30470-8_12 aeb4f28d885fd361033ac4237106bcf4;de;;;2.1.;;;Evolutionäre Berechnung für den optimalen Ensemble-Klassifikator bei der Klassifikation von Lymphom-Krebs Dank der Entwicklung von DNA-Mikroarray-Technologien ist es möglich, Tausende von Expressionsniveaus von Genen auf einmal zu erhalten. Wenn wir mit solchen erfassten Daten ein effektives Klassifizierungssystem erstellen, können wir die Klasse der neuen Probe vorhersagen, egal ob sie normal oder geduldig ist. Für das Klassifikationssystem können wir viele Merkmalsauswahlmethoden und Klassifikatoren verwenden, aber eine Methode kann den anderen bei der Merkmalsauswahl oder -klassifizierung nicht unbedingt überlegen sein. Der Ensemble-Klassifizierer wurde verwendet, um in dieser Situation eine verbesserte Leistung zu erzielen, aber es ist fast unmöglich, alle Ensemble-Ergebnisse zu erhalten, wenn viele Merkmalsauswahlmethoden und Klassifizierer für das Ensemble verwendet werden müssen. In diesem Artikel schlagen wir eine GA-basierte Methode vor, um ein optimales Ensemble von Merkmalsklassifikatorpaaren in Lymphomkrebs-Datensätzen zu suchen. Wir haben zwei Ensemble-Methoden verwendet, und GA findet das optimale Ensemble sehr effizient.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39592-8_74 79715a040a2fb337fea1d246c2168b4b;de;;;2.1.;;;Geschlechterklassifizierung anhand des Profils Die Geschlechterklassifizierung hat im Bereich Computer Vision und Mustererkennung viel Aufmerksamkeit auf sich gezogen. In diesem Beitrag schlagen wir eine Methode der Geschlechterklassifizierung vor. Erstens präsentieren wir einen robusten Profilextraktionsalgorithmus. Zweitens implementieren wir die Hauptkomponentenanalyse (PCA) und die unabhängige Komponentenanalyse (ICA), um diskriminierende Merkmale aus dem Profil zu extrahieren, um das Gesichtsgeschlecht über SVM zu schätzen. Unsere experimentellen Ergebnisse der Bosporus-3D-Gesichtsdatenbank zeigen, dass unsere vorgeschlagene Methode gut funktioniert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21090-7_34 75caa41031938719d6dc624017c92283;de;;;2.1.;;;Proteinzentrierte Datenintegration für die funktionelle Analyse von vergleichenden Proteomikdaten Hochdurchsatz-Proteomik-, Mikroarray-, Proteininteraktions- und andere experimentelle Methoden erzeugen alle lange Listen von Proteinen und/oder Genen, die unter den untersuchten experimentellen Bedingungen identifiziert wurden oder in ihrer Akkumulation variierten. Diese Listen können für Biologen schwer zu durchschauen sein. Hier beschreiben wir einen nächsten Schritt in der Datenanalyse – einen Bottom-up-Ansatz bei der Datenintegration – beginnend mit der Identifizierung von Proteinsequenzen, deren Zuordnung zu einer gemeinsamen Repräsentation des Proteins und dann die Einbeziehung einer Vielzahl von strukturellen, funktionellen, genetischen und Krankheitsbildern Informationen zu Proteinen, die aus annotierten Wissensdatenbanken abgeleitet wurden, und anschließende Verwendung dieser Informationen zur Kategorisierung der Listen unter Verwendung von Gene Ontology (GO)-Begriffen und Zuordnungen zu Datenbanken für biologische Stoffwechselwege. Wir veranschaulichen anhand von Beispielen, wie dies helfen kann, wichtige Prozesse aus großen komplexen Listen zu identifizieren.;-;-;-;https://link.springer.com/protocol/10.1007/978-1-60761-977-2_20 602e08c26c9a474b3096e8c500d3cf09;de;;;2.1.;;;Auf Social Engineering basierendes Modell zur Ermittlung von Sicherheitsanforderungen für Advanced Persistent Threats APT-Angriffe nehmen jedes Jahr zu, und diese APT-Angriffe beginnen mit Social-Engineering-Angriffen. Um APT-Angriffe effektiv zu blockieren, ermöglicht das Blockieren von Social-Engineering-Angriffen, APT-Angriffe im Vorfeld zu verhindern. In dieser Studie definieren wir menschliche Faktoren, die Social-Engineering-Angriffe stark beeinflussen, und ermöglichen durch die Modellierung der Zusammenhänge zwischen menschlicher Verwundbarkeit, Social-Engineering-Angriffen und Sicherheitsanforderungen entsprechende Sicherheitsanforderungen zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7796-8_3 35144e476a611721b099bc565a913b19;de;;;2.1.;;;Texterweiterungstechniken für die Generierung von Dokumentvektoren aus russischen Nachrichtenartikeln In diesem Beitrag wird ein Dokumentenklassifizierungssystem durch die Konstruktion einer Texterweiterungstechnik verbessert, indem verschiedene Wortartenfilter und Wortvektorgewichtungsverfahren mit neun verschiedenen Modellen für die Dokumentendarstellung getestet werden. Das Thema/Objekt-Tagging wird als eine neue Form der Texterweiterung eingeführt, zusammen mit einem neuartigen Klassifikationssystem, das auf einem Wortgewichtungsverfahren basiert, das auf der Verteilung von Wörtern auf Dokumentklassen basiert. Bei Anwendung einer Augmentation mit Betreff/Objekt-Tagging, einem Nomen+Adjektiv-Filter und einer Wortgewichtung mit inverser Dokumenthäufigkeit wurde eine durchschnittliche Steigerung der Klassifikationsgenauigkeit von 4,1% beobachtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99972-2_47 e5ea942c023a93f0027fc8d16cfabaec;de;;;2.1.;;;Karst Rocky Desertification Dynamische Überwachungsanalyse basierend auf Fernerkundung für ein typisches Berggebiet im Südosten der Provinz Yunnannan Auswahl eines typischen felsigen Karstgebirges als Studienfall im Südosten der Provinz Yunnan, Erfassen digitaler Landsat5 TM -Bilder von zwei verschiedenen Zeitpunkten im Jahr 1990 und 2007, der Zustand der felsigen Verwüstung des Karsts wird überwacht und die Änderungsanalyse wird mit der Fernbedienung abgeschlossen Erfassungsprozess und GIS-Raumanalysetechnik integrierte Landnutzungsdiagnosen. Die Ergebnisse zeigen, dass: die dynamischen Veränderungen des Ausmaßes der felsigen Karstverwüstung von 1990 bis 2007 nicht ausgeprägt waren, aber die Menge der verschiedenen Arten der felsigen Karstverwüstung ändert sich relativ offensichtlich. Die Studie zeigt auch, dass die integrierte Technikanwendung durch Fernerkundung, GIS und Landnutzungsdiagnosen die Vergangenheitsdaten und Landschaftsmuster mit Standort und Menge zurückgewinnen kann. Dies ist hilfreich, um die charakteristischen Entwicklungsmerkmale der Veränderung der karstgesteinigen Wüstenbildung zu verstehen und von Nutzen zu sein, um Entscheidungshilfen für die Nutzung und Bewirtschaftung von karstgesteiniger Wüstenbildung zu bieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-3966-9_53 286c56c91263fbbb85000f2c892663c1;de;;;2.1.;;;Integrierter Ansatz zur Erkennung unauffälliger Inhalte Dieses Papier beschreibt einen integrierten Ansatz zur Erkennung unauffälliger Inhalte in Texten. Unauffällige Inhalte können eine Meinung oder ein Ziel sein, das in irgendeiner Weise getarnt sein kann, um automatisierte Verfahren in die Irre zu führen, aber eine klare Botschaft für den Menschen enthält (z. B. terroristische Websites). Unsere Methodik geht davon aus, dass Muster, die unauffällige Inhalte vermitteln, in unbekanntem Text extrahiert, dargestellt, verallgemeinert und abgeglichen werden können. Der vorgeschlagene Ansatz soll datenintensive Methoden (z. B. Clustering) ergänzen. Datenintensive Methoden sind schnell, aber anfällig für Frequenzschwankungen, erkennen keine Bedeutung und erfordern einen großen Trainingskorpus. Unser Ansatz basiert auf manuellem Engineering für die natürliche Sprachinterpretation und Musterextraktion anhand von nicht mehr als zehn Beispielen, ist jedoch ausreichend schnell, um eine Echtzeitanwendung zu ergänzen.;-;-;-;https://link.springer.com/chapter/10.1007/11590019_35 72c63025cf47e87bd69a0064172e3353;de;;;2.1.;;;Ein Ansatz zur Klassifikation von Hautläsionen mit einem flachen neuronalen Faltungsnetzwerk Die Haut ist das größte und am schnellsten wachsende Organ des menschlichen Körpers, das den Körper vor den Einflüssen der äußeren Umgebung schützt. Die Haut ist häufig der äußeren Umgebung ausgesetzt, so dass die Wahrscheinlichkeit einer Hautläsion hoch ist. In den letzten Jahren nimmt die Häufigkeit von Hautkrankheiten rapide zu. Einige Hautläsionen entwickeln sich zu bösartigen Tumoren, die wir manchmal sehen oder fühlen, andere jedoch nur durch bildgebende Diagnostik erkennen. Die medizinische Untersuchung von Hautläsionen ist keine einfache Aufgabe, da zwischen Läsionen und ärztlicher Erfahrung Ähnlichkeiten bestehen, die zu ungenauen Diagnosen führen können. Viele Krebsfälle werden als eine andere Krankheit mit schädlichen Folgen fehldiagnostiziert. In diesem Artikel schlagen wir eine Methode zur Klassifizierung von Hautläsionen unter Verwendung eines flachen neuronalen Faltungsnetzes (CNN) vor. Wir führen die Vorhersageaufgaben an einem öffentlichen Datensatz der International Skin Imaging Collaboration (ISIC) 2019 durch und erreichen einen ROC-AUC von 0,782 für eine Achtklassenklassifizierung von acht verschiedenen Hauttypen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4370-2_19 89ef5a28d45ca55d6b9d47ae59a39e65;de;;;2.1.;;;Mechanismen der Granulombildung Die Bildung charakteristischer Gewebsmassen, sogenannter Granulome, ist ein zentraler Aspekt einer Vielzahl von Erkrankungen, die sowohl bei Tieren als auch beim Menschen auftreten. Viele dieser Erkrankungen haben eine kutane Beteiligung oder kutane Manifestationen und sind für den Dermatologen von klinischem Interesse. Diese Erkrankungen sind in Standardlehrbüchern der Dermatologie sehr detailliert dargestellt und ihre unterschiedlichen Histologien wurden in histopathologischen Texten beschrieben. In diesem Kapitel wird versucht, grundlegende zelluläre und molekulare Prozesse zu analysieren, die der Granulombildung zugrunde liegen. Es wird nicht versucht, die klinischen und pathologischen Merkmale einzelner Krankheitszustände zu überprüfen. Da die an der Granulombildung beteiligten Prozesse sowohl kutan als auch viszeral häufig vorkommen, wird die Diskussion nicht auf Dermatopathien beschränkt. Der Leser wird auf ergänzende Kapitel in diesem Text verwiesen, die sich mit spezifischen Aspekten von Granulomen in Bezug auf verschiedene Krankheitszustände befassen, wie Kapitel 13 und 19 (granulomatöse und allergische Vaskulitis), 22 (rheumatoide Knötchen), 29 (chronische Granulomatose), 33 (Sarkoidose) und 34–37 (infektiöse Granulome). Während in diesem Kapitel die Diskussion bösartiger Läsionen mit Granulomen vermieden wird (z. B. Morbus Hodgkin, Mycosis fungoides, Wegener und eosinophiles Granulom, Kapitel 42), ist es wichtig anzumerken, dass die molekularen Aspekte der Granulombildung, die in diesem Kapitel entwickelt werden, zu diesen lymphoproliferativen Erkrankungen. Man muss nur erkennen, dass, wenn verschiedene sekretorische Lymphoidpopulationen einer malignen klonalen Expansion unterzogen werden, sie im Allgemeinen weiterhin jene Produkte sezernieren, die sie charakterisieren (z. B. Immunglobuline oder Lymphokine), die andere Zellpopulationen veranlassen können, an einer scheinbar chronischen Entzündungsreaktion teilzunehmen. Der Schwerpunkt dieses Kapitels liegt daher auf den grundlegenden zellulären und molekularen Ereignissen, die der Bildung von Granulomen zugrunde liegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-7228-2_31 15bbaeff4211fb3ffefd35eb8e90128b;de;;;2.1.;;;Verbesserung der Taxonomie von Fehlern in Chat-orientierten Dialogsystemen In früheren Studien wurden Top-Down- und Bottom-Up-Ansätze zur Erstellung von Taxonomien von Fehlern in chatorientierten Dialogsystemen vorgeschlagen. Allerdings ist die gemeldete;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9443-0_29 f049a38e10095092bd92f7c5b5d9d442;de;;;2.1.;;;Taxonomische Analyse mobiler Anwendungen für Regierungsdienste in Städten aus Argentinien Eine Taxonomie zur Klassifizierung von mobilen Anwendungen für Regierungsdienste in Städten aus Argentinien wird vorgestellt. Eine solche Taxonomie hat eine Reihe von Kategorien und Unterkategorien, die mobile Anwendungen nach der Interaktion zwischen Bürgern und Anwendungen klassifizieren. Für die Entwicklung einer solchen Taxonomie wurden 53 Städte aus Argentinien ausgewählt und 89 mobile Anwendungen (von solchen Städten angeboten und entwickelt) analysiert. Schließlich wurden alle mobilen Anwendungen nach der definierten Taxonomie klassifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-48325-8_27 3750e952fcad043798ac2fa239da0c22;de;;;2.1.;;;: Ein Visualisierungstool zum Vergleich biologischer Taxonomien Wir adressieren das Problem der Visualisierung von Unterschieden zwischen zwei Versionen einer biologischen Taxonomie. Angesichts der Dynamik der taxonomischen Arbeit sind Taxonomen oft mit alternativen Versionen einer Taxonomie konfrontiert, die in Einklang gebracht werden müssen. Dennoch ist der visuelle Vergleich von Hierarchien ein offenes Problem, das mehrere schwierige Herausforderungen in Visual Analytics mit sich bringt. Erstens, wie man nicht eine, sondern zwei möglicherweise große Taxonomien auf einem Bildschirm mit fester Größe anzeigt. Zweitens, wie man alle Unterschiede zwischen den beiden Taxonomien hervorhebt. Wir präsentieren;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-41005-6_29 c051645ec4b07c71a59729eaa30008ff;de;;;2.1.;;;Merkmalsauswahl in Taxonomien mit Anwendungen für die Paläontologie Taxonomien für eine Reihe von Merkmalen treten in vielen realen Domänen auf. Ein Beispiel liefert die Paläontologie, deren Aufgabe es ist, das Alter einer fossilen Fundstelle anhand der darin gefundenen Taxa zu bestimmen. Da der Fossilienbestand sehr verrauscht ist und viele Lücken enthält, besteht die Herausforderung darin, Taxa auf einer geeigneten Aggregationsebene zu betrachten: Art, Gattung, Familie usw. Einige Arten können zum Beispiel sehr gut als Merkmale für die Altersvorhersageaufgabe, während es für andere Teile der Taxonomie besser wäre, die Gattungsebene oder sogar höhere Hierarchieebenen zu verwenden. Eine Standardauswahl ist die Auswahl eines festen Niveaus (normalerweise Art oder Gattung). Dadurch wird der potenzielle Gewinn verfehlt, das richtige Niveau für Artengruppen separat auszuwählen. Motiviert durch diese Anwendung untersuchen wir das Problem der Auswahl einer Antikette aus einer Taxonomie, die alle Blätter umfasst und hilft, eine bestimmte Zielvariable besser vorherzusagen. Unsere Experimente mit paläontologischen Daten zeigen, dass die Auswahl von Antiketten zu besseren Vorhersagen führt, als die vorherige Festlegung bestimmter Stufen der Taxonomie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88411-8_13 4bb2eaa723c2cbb4af80869863178b60;de;;;2.1.;;;Bioinformatische Ansätze zur Erforschung der mikrobiellen Diversität Das richtige Verständnis molekularer Sequenzen, die Identifizierung und Phylogenetik von Mikroorganismen sind in vielen Bereichen der Biologie von großer Bedeutung. Die Generierung genomischer DNA-Sequenzdaten von verschiedenen Organismen, einschließlich Mikroben, erfordert die Anwendung bioinformatischer Werkzeuge für deren Analyse. Bioinformatik-Tools einschließlich BLAST, multiple Sequenz-Alignment-Tools usw. werden verwendet, um Nukleinsäure- und Aminosäuresequenzen auf phylogenetische Zugehörigkeit zu analysieren. Die aufstrebenden Gebiete der vergleichenden Genomik und Phylogenomik erfordern ein umfassendes Wissen und Verständnis von Computermethoden, um die großen Datenmengen verarbeiten zu können. Die Einführung der vergleichenden rRNA-Sequenzanalyse ist ein wichtiger Meilenstein in der Geschichte der Mikrobiologie. Auch auf einzelnen Genen basierende phylogenetische Inferenz und alternative globale Marker wie Elongations- und Initiationsfaktoren, RNA-Polymerase-Untereinheiten, DNA-Gyrasen, Hitzeschock und RecA-Proteine ​​sind von immenser Bedeutung. Die Analyse der Sequenzdaten umfasst vier allgemeine Schritte, einschließlich: (i) Auswahl eines geeigneten Moleküls oder geeigneter Moleküle, (ii) Akquisition molekularer Sequenzen, (iii) multiples Sequenz-Alignment und (iv) phylogenetische Bewertung. In diesem Kapitel wird ausführlich erläutert, wie Rohdaten molekularer Sequenzen von beliebigen Mikroben zum Nachweis und zur Identifizierung von Mikroorganismen mit computergestützten Bioinformatikwerkzeugen verwendet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-5931-2_6 8f88846ba39c79717b65833eae13c604;de;;;2.1.;;;Landbedeckung, Landnutzung und Vegetationsverteilung Vegetation bezieht sich auf die Pflanzen und Bäume, die in einer bestimmten Region vorkommen. Die geografische Lage und die klimatischen Bedingungen Libyens beeinflussen den Vegetationszustand stark. Die Vielfalt der natürlichen Vegetation in Libyen variiert je nach Klimazone und Bodenart. In Anbetracht der Tatsache, dass der größte Teil des Landes aus trockenen Wüstengebieten besteht, sind die fruchtbaren Regionen hauptsächlich in der Küstenzone (einschließlich Ebenen und Berge) und vereinzelten Depressionen und Wadis in der Wüste vorhanden. Im Jahr 2009 veröffentlichte die Ernährungs- und Landwirtschaftsorganisation (FAO) (LIB/00/004 „Mapping of Natural Resources for Agriculture Use and Planning in Libya Project“) die erste Landbedeckungskarte des Landes unter Verwendung von Fernerkundung (RS), Geographic Information System (GIS) Techniken, GeoVIS Software und Land Cover Classification System (LCCS), das von der FAO genehmigt wurde. Diese Karte zeigt die Hauptkategorien der Landbedeckungstypen nach Lage, Quantität und Qualität der natürlichen Vegetationsdecke. Diese Karte sowie die dazugehörigen Statistiken gelten als eine der zuverlässigsten Quellen der Landbedeckung in Libyen. Die landwirtschaftliche Fläche wird auf etwa 8,73 % der Gesamtfläche des Landes geschätzt, mit einer Ackerfläche von etwa 1 %. Die Pflanzenproduktion hängt im Wesentlichen vom privaten Sektor ab, wo die meisten Betriebe relativ kleine Flächen mit Getreide und einigen Gemüse-, Obst- und Futterpflanzen sind. In diesem Kapitel fassen wir die vorhandenen Informationen über Landbedeckung, Landnutzung und Vegetationsverteilung in Libyen zusammen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-66368-1_6 5386386f5da72cd6ece74dfe597eb59c;de;;;2.1.;;;Zeitbereichsfunktionen für die EEG-Signalklassifizierung von motorischen Bildern mit vier Klassen unter Verwendung eines künstlichen neuronalen Netzwerks Brain-Computer Interface (BCI) ist ein System, das die Aktivität des menschlichen Gehirns misst und verarbeitet, um die Funktion des menschlichen Körpers zu verbessern oder zu ersetzen. Zukünftig kann dieses System eine Lösung für Menschen mit Behinderungen sein, insbesondere in Bewegungsorganen wie Händen und Füßen. Der Zweck dieser Forschung ist es, vier Klassen von Elektroenzephalogramm (EEG)-Signalen zu klassifizieren, die vier menschliche motorische Bilder repräsentieren. Die vier motorischen Bilder sind linke Hand, rechte Hand, linker Fuß und rechter Fuß, die aus dem Datensatz der motorischen Bilder stammen. Die vorgeschlagene Methode in dieser Forschung besteht aus Filterung, Merkmalsextraktion und Klassifikation. Das vorgeschlagene Verfahren verwendet die Finite Impulse Response (FIR) im Filterprozess, um die erforderlichen EEG-Signale wie Delta-, Theta-, Alpha-, Beta- und Gammakanäle durchzulassen. Die Merkmale sind die Root Mean Square (RMS)-Werte aus dem im Zeitbereich gefilterten Signal. Unser Systemdesign verwendete diese Funktionen als Eingangsklassifizierungsmethode, die das künstliche neuronale Netz (ANN) verwendet. Bei der Trennung von Trainings- und Testdaten wurde eine 10-fache Kreuzvalidierung verwendet. Zur Analyse der Testleistung wurde eine Konfusionsmatrix verwendet. Basierend auf den Ergebnissen bringt die vorgeschlagene Methode die höchste Systemgenauigkeit von 61,2 % auf dem Beta-Kanal.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6926-9_53 e6c4e7934b5c18bf237ac5808326a535;de;;;2.1.;;;CG-Darstellungen von nicht-literalen Ausdrücken Kommunikation in natürlicher Sprache hängt weitgehend von anderen Mitteln als wörtlichen Ausdrücken ab. Dieses Thema geht weit über die Ästhetik hinaus und berührt das Herz der natürlichen Sprache. In den letzten Jahrzehnten hat die Forschung auf diesen Gebieten viel zu unserem Verständnis von Bedenken beigetragen, die Forscher seit Aristoteles verwirrt haben, aber diese Erkenntnisse spiegeln sich selten in der Literatur zur Wissensrepräsentation wider. In diesem Beitrag wird diskutiert, wie nicht-literale Ausdrücke in Conceptual Graphs (CG) so dargestellt werden können, dass hochkomplexe Phänomene natürlicher Sprache wie Metaphern für Rechenzwecke klar wiedergegeben werden. Aspekte des Sprachverständnisses aus der Metapherntheorie und der Übersetzungstheorie werden genutzt, um eine Grundlage für solche CG-Repräsentationen zu schaffen. In Prolog+CG werden eine Reihe von Beispielen analysiert und präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45483-7_13 0ec15c6b577a06b14eb75c563848c025;de;;;2.1.;;;Eigenschaften des Diskontinuitätsabstands von Yeongdeok-Granit Diskontinuitäten sind wichtige geologische Merkmale in der Gesteinsmasse. Sie können gleichmäßig, zufällig, geclustert oder in Kombinationen aus all diesen verteilt sein. Der Diskontinuitätsabstand ist einer der wichtigen Parameter zur Beschreibung der Qualität eines vollständigen Gebirges. Diskontinuitätsuntersuchungen werden im Feld durchgeführt, indem geborgene Bohrkerne untersucht werden, um mögliche Verteilungen für Diskontinuitätsgeometrieparameter von Gesteinsmassen abzuschätzen. Daten zu Diskontinuitätsabständen und Häufigkeit, die an einem Feldstandort in Ostkorea erhalten wurden, wurden durch Auftragen von Histogrammen für die beiden Parameter untersucht. Die Untersuchung zeigte deutlich, dass der Diskontinuitätsabstand einer negativen Exponentialverteilung folgt. Es wurde eine Beziehung zwischen der mittleren Diskontinuitätsfrequenz und der Rock Quality Designation (RQD) als RQDt = 100e100 hergestellt;-;-;-;https://link.springer.com/article/10.1007/s12303-009-0015-3 df0b30ef6a8658059519229061a4181c;de;;;2.1.;;;Ein neues Fuzzy-Network-Data-Envelopment-Analysemodell zur Messung der Leistung von Agilität in Lieferketten Die Data Envelopment Analysis (DEA) ist eine lineare Programmiermethode zur Bewertung der Effizienz und Produktivität von Organisationseinheiten, den sogenannten Decision Making Units (DMUs). Wir schlagen ein neues Netzwerk-DEA (NDEA)-Modell vor, um die Leistung der Agilität in Lieferketten zu messen. Die Unsicherheit der Eingabe- und Ausgabedaten wird mit linguistischen Begriffen modelliert, die mit Fuzzy-Sets parametrisiert sind. Das vorgeschlagene Fuzzy-NDEA-Modell ist linear und unabhängig von den α-Schnittvariablen. Das lineare Merkmal ermöglicht eine schnelle Identifizierung der globalen optimalen Lösung und das Merkmal der α-Schnitt-Unabhängigkeit ermöglicht eine signifikante Reduzierung des Rechenaufwands. Wir zeigen, dass unser Modell immer Lösungen innerhalb eines begrenzten zulässigen Bereichs generiert. Unser Modell eliminiert auch das Konfliktpotenzial, indem es für jede DMU eindeutige Intervalleffizienzwerte erzeugt. Das vorgeschlagene Modell wird verwendet, um die Leistung von Agilität in einer realen Fallstudie in der Milchindustrie zu messen.;-;-;-;https://link.springer.com/article/10.1007/s00170-013-5021-y e678a749bb2806a9503a241f03a5efae;de;;;2.1.;;;Das Vehikel: Der pharmazeutische Träger dermatologischer Wirkstoffe Die topische Behandlung der Haut ist so alt wie die Evolution des Menschen. Instinktiv versuchen wir, eine Hautverletzung oder Reizung mit kühlenden oder beruhigenden Substanzen zu behandeln. Auch Tiere lecken ihre Wunden und vertrauen instinktiv auf die heilende Kraft des Speichels. Wann hat dieses archaische Behandlungsschema den gigantischen Sprung von der Volksmedizin zur modernen Arzneimitteltherapie vollzogen? Diese Frage ist schwer zu beantworten. In der klassischen europäischen Medizintradition (die sich grob vom antiken Griechenland bis zur Frührenaissance erstreckt) machte eine lokale Behandlung der Haut mit Medikamenten unter der vorherrschenden Theorie der humoralen Pathologie keinen Sinn. Alle Hauterkrankungen wurden als sekundäre Symptome von allenfalls umstandsrelevanter Bedeutung für die Diagnose innerer Störungen angesehen. Ärzte überließen die Behandlung erkrankter oder geschädigter Haut den Barbierchirurgen (die Innere Medizin war die Domäne des wahren Arztes oder;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-57145-9_2 aded61683c63d04c8f08bcd51348e6f3;de;;;2.1.;;;Eine Untersuchung zur Wirksamkeit der computergestützten Simulation bei der Unterstützung des Lernens von Studenten in der Fertigungstechnik Der Einsatz der computergestützten Simulation für ingenieurwissenschaftliche Studiengänge nimmt an den meisten Universitäten rasant zu. Die Auswirkungen der computergestützten Simulation auf die Leistung und Motivation der Schüler sind jedoch noch nicht vollständig bekannt. Wir haben die Auswirkungen der computergestützten Simulation mit College-Studenten von akademischen und berufsbildenden Gymnasien verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35879-1_71 f69993cefd6ab5d2fa043764fffd2be8;de;;;2.1.;;;Ein konzeptioneller Qualitätsrahmen für freiwillige geografische Informationen Die Bewertung der Qualität freiwillig bereitgestellter geografischer Informationen (VGI) ist ein Eckpfeiler, um die Eignung von Datensätzen in vielen Anwendungsbereichen zu verstehen. Während sich die meisten Analysen auf geometrische und positionsbezogene Qualitäten konzentrieren, wurde der Interpretation der Daten, d. h. dem Kommunikationsprozess, durch den Verbraucher versuchen, die von ihren Produzenten beabsichtigte Bedeutung von Informationen zu rekonstruieren, nur vereinzelt Aufmerksamkeit gewidmet. Interpretierbarkeit ist eine notorisch kurzlebige, kulturell verwurzelte und kontextabhängige Eigenschaft der Daten, die die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23374-1_5 d02457b92eddca58938ead33b223b1da;de;;;2.1.;;;FR–KDE: Eine hybride, regelbasierte Fuzzy-Informationsfusionsmethode mit ihrer Anwendung in der biomedizinischen Klassifikation Granular Computing (GrC) ist ein wesentliches Werkzeug zur Lösung menschlicher realer Probleme, da die Informationsgranula den menschlichen Wahrnehmungsschemata nahe kommen. Bei GrC spielen sowohl die Klassifikationsgenauigkeit als auch die Interpretierbarkeit eine bedeutende Rolle. Auf Fuzzy-Regeln (FR) basierende Klassifikationssysteme sind wirksame Verfahren, die dieses Problem lösen. Die Genauigkeit von FR kann jedoch verringert werden, wenn einige komplexe Anwendungen gelöst werden. In diesem Beitrag wird ein neuartiges Modell namens FR-KDE vorgeschlagen, das die FR- und Kernel-Density-Schätzung (KDE) im Rahmen der Dempster-Shafer-Evidenztheorie integriert, um das Klassifikationsproblem zu lösen. Durch die Verschmelzung des Ergebnisses von FR und KDE über die Dempster-Kombinationsregel kann die Unsicherheit von FR reduziert und eine bessere Genauigkeit erzielt werden. Um die Wirkung des FR-KDE-Ansatzes zu veranschaulichen, wird er auf das Klassifikationsproblem medizinischer Daten angewendet. Experimentell zeigen die Ergebnisse, dass die FR-KDE-Methode bei der Handhabung biomedizinischer Datenklassifikationsprobleme effektiv ist.;-;-;-;https://link.springer.com/article/10.1007/s40815-020-00957-z bfd1bda8fe66169a23080f6bfa9561e9;de;;;2.1.;;;Auswirkungen von UV-B auf das Leben von Wasserpflanzen Über beide Pole hinweg wurde ein drastischer Ozonabbau in der Stratosphäre sowie ein signifikanter Rückgang des Gesamtozons in hohen und mittleren Breiten berichtet. Die daraus resultierende Zunahme der solaren UV-B-Strahlung (280–315 nm, Definition der Commission Internationale de l’Eclairage [CIE]) hat nachweislich Auswirkungen auf die Biota und verursacht beim Menschen eine erhöhte Inzidenz von Hautkrebs und anderen Erkrankungen. Es wurde festgestellt, dass diese kurzwellige Strahlung terrestrische und aquatische Ökosysteme beeinträchtigt. Es beeinflusst auch die Chemie der Troposphäre (z. B. photochemische Smogbildung) und beeinflusst biogeochemische Kreisläufe (;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-0221-0_7 7aa6d44ad1d4fb6dcf409a84de593d9d;de;;;2.1.;;;Anbieterempfehlung in heterogenen Transportflotten Heutzutage ist der Transport ein kritischer Sektor unseres Lebens, nicht nur für den Personenverkehr, sondern auch für den weltweiten Transport von Gütern. Obwohl die Bereitstellung solcher Dienste in unserer Gesellschaft als sehr kleines Problem angesehen werden kann, verbirgt sich dahinter ein komplexer Sektor, der ausgeklügelte Modelle und spezifische Software erfordert, um eine große Menge an Informationen aus verschiedenen Quellen zu analysieren, um eine nachhaltige und effiziente Service. In einem so komplexen Feld sind verschiedene Themen wie die Suche nach optimierten Routen, effiziente Zuweisung von Fahrzeugen, Reduzierung von Gasemissionen, Kostenoptimierungsprobleme usw mit identischen Funktionen. In dieser Arbeit stellen wir HVSRec vor, ein heterogenes semantisches Empfehlungssystem für Flotten, das Mechanismen integriert, um Fahrzeuge unterschiedlicher Art und Eigenschaften effizient zu verwalten. Die Plattform soll Kunden, die einen Transport eines bestimmten Gutes wünschen, mit Fahrern verbinden, die Transportdienstleistungen mit ihrem eigenen Fahrzeug anbieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94779-2_36 0821968c309e066dc984ac70273eec88;de;;;2.1.;;;Automatisches Annotieren und Abrufen von medizinischen 3D-Modellen mit LDA basierend auf semantischen Merkmalen Medizinisches 3D-Modell wird in vielen Bereichen wie der Chirurgie und dem Aufbau medizinischer Szenen häufig verwendet. Das Auffinden des Zielmodells in einer Vielzahl von 3D-Modellen ist ein wichtiges Forschungsthema im Bereich der 3D-Modellsuche. Aufgrund der Existenz von semantischen Lücken ist die semantikbasierte Methode der aktuelle Forschungsschwerpunkt der 3D-Modellsuche. In diesem Artikel haben wir eine semantikbasierte LDA für die automatische Annotation und Abrufmethode medizinischer 3D-Modelle vorgeschlagen. Zunächst konstruieren wir semantische Merkmale des medizinischen 3D-Modells anhand von Relevanz-Feedback und einer kleinen Menge künstlicher Annotation. Dann verwenden wir die LDA-Methode basierend auf semantischen Merkmalen, um eine latente Themenverteilung des medizinischen 3D-Modells zu erhalten. Schließlich werden die Ergebnisse der Themenverteilung auf die automatische Annotation des 3D-Modells angewendet. Experimentelle Ergebnisse zeigen, dass das Verfahren im Vergleich mit der herkömmlichen Methode des inhaltsbasierten 3D-Modellabrufs die Genauigkeit der automatischen Kommentierung und Abfrage von medizinischen 3D-Modellen verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48335-1_10 db08ea67e6f30b3ac2dbcfa95163f54d;de;;;2.1.;;;Zusammenhang zwischen Geomorphologie und Kontamination mit verwitterten Kohlenwasserstoffen in einem alten Flussdeich/Sumpfverband Eine Standortbewertung wurde für ein durch historische Praktiken kontaminiertes, niedrig gelegenes Grundstück in einem alten Flussdeich/Sumpfverband, das marginal für die Viehzucht genutzt wird, durchgeführt. Die Kontamination war geomorphologisch bedingt: Die untersten Bereiche enthielten 79 % der kontaminierten Proben. Andere kontaminierte Proben waren alle hinteren Zufahrtsstraßen (wahrscheinlich absichtliche Deponierung). In den höher gelegenen, straßenfernen Deichbereichen mit Kohlenwasserstoffkonzentrationen über 3.000 mg/kg wurden keine Proben gefunden. In 28 % bzw. 27 % der Grundstücksfläche wurden mittlere und hohe Belastungen, entsprechend durchschnittlichen Kohlenwasserstoffkonzentrationen von 13.400 mg/kg bzw. 109.700 mg/kg, festgestellt. Für die mittlere Belastungsstufe wurde ein reduziertes Weideproduktionspotenzial von ∼ 50 % vorhergesagt, während bei der hohen Belastungsstufe praktisch keine Weideproduktion vorhergesagt wurde. Ein toxikologisches Risiko für Rinder besteht nur an 12 % der Probenahmestellen, obwohl diese fast alle in sehr sumpfigen Gebieten liegen, die nicht für die Rinderhaltung geeignet sind. Da die Kohlenwasserstoffe an diesem tropischen Standort stark verwittert sind, stand die akute Toxizität nicht in Zusammenhang mit der Kohlenwasserstoffkonzentration. Obwohl etwas mehr als die Hälfte des Grundstücks Kohlenwasserstoffkonzentrationen über dem zulässigen Grenzwert aufweist, ist nur etwa ein Drittel der kontaminierten Fläche für die Viehzucht geeignet. Diese Studie, basierend auf der Kohlenwasserstoffverteilung in Bezug auf die Standortgeomorphologie, Bodentoxizitäts-Bioassays, Risikobewertung für Rinder und die Bewertung der Weideproduktion, ermöglichte eine genauere Bewertung und Definition der zukünftigen Nutzung des Standorts. Diese Kriterien könnten für diagnostische Studien an Standorten mit ähnlichen tropischen Bedingungen verwendet werden.;-;-;-;https://link.springer.com/article/10.1007/BF03326092 9506cc74f9bb956034efc56e2e661e9a;de;;;2.1.;;;Nebenwirkungen von Allgemeinanästhetika Arzneimittel, die zur Einleitung, Aufrechterhaltung und Aufhebung einer Anästhesie verwendet werden, bergen das Risiko von Nebenwirkungen. Unerwünschte Arzneimittelwirkungen (UAW) umfassen Überdosierung, Nebenwirkungen und Nebenwirkungen, idiosynkratische Reaktionen, Arzneimittelintoleranz und allergische Reaktionen. Berichte über schwere UAW in der Anästhesie scheinen zuzunehmen. Dies wurde auf die Verwendung einer größeren Anzahl von Arzneimitteln während der perioperativen Phase sowie auf Kreuzreaktionen zwischen Arzneimitteln zurückgeführt. UAW treten in der Regel während der Narkoseeinleitung auf, können aber jederzeit in der perioperativen Phase auftreten. In 60 bis 80 % der Fälle ist die beobachtete Manifestation von UAW während der Vollnarkose ein kardiovaskulärer Kollaps. In einem Bericht wurde festgestellt, dass eine Überdosierung bei 43 von 161 Patienten zur Anästhesiemortalität beiträgt.;-;-;-;https://link.springer.com/article/10.2165/00023210-199810020-00004 5079d5613c8f220d587a92111436673e;de;;;2.1.;;;Lymphome des Magen-Darm-Trakts Eine lymphomatöse Beteiligung des Gastrointestinaltrakts tritt häufiger auf, als allgemein angenommen wird, nachweisbar bei 30–50% der Patienten mit Non-Hodgkin-Lymphom bei der Obduktion [1–4]. Obwohl eine primäre gastrointestinale Beteiligung weniger verbreitet ist (3–11% Gesamthäufigkeit), ist der Magen-Darm-Trakt die häufigste primäre Lokalisation extranodaler Lymphome [1–3, 5–10]. Das Non-Hodgkin-Lymphom macht weniger als 20 % der primären Darmmalignome [2] und weniger als 5 % der Neoplasien des Magens und Dickdarms aus [11-15]. Jedes Jahr werden in den Vereinigten Staaten etwa 1.300 neue Fälle von primären gastrointestinalen Lymphomen beobachtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2031-9_13 10db0f0a5a0c38954226327205523243;de;;;2.1.;;;Sprungbrett zur Durchführung eines Fraktur- und Luxationsregisters im Krankenhaus nach der AO/OTA-Klassifikation: Compliance, Vollständigkeit und Commitment Muskel-Skelett-Traumata stellen eine erhebliche globale Gesundheitsbelastung dar, jedoch sind verlässliche bevölkerungsbezogene Inzidenzdaten rar. Ein Fraktur- und Luxationsregister wurde innerhalb einer genau definierten Population erstellt. Es erfolgt eine Prüfung des Gründungsprozesses, der Durchführbarkeit der Registerarbeit und ein Bericht über die erhobenen Daten.;-;-;-;https://link.springer.com/article/10.1186/1757-7241-18-54 27469ab3e7d8a9f55e6310bf1d0c95ec;de;;;2.1.;;;Agentenbasierte Aufgabenzerlegungstechnik für die Zusammensetzung von Webdiensten Integriert in Ontologie und Agententechnologie wird in diesem Beitrag eine neue Prozessmodellierungsmethode und Beschreibungssprache für die Webservice-Komposition vorgestellt. Die Recherche erfolgt auf Basis unserer bisherigen Arbeiten, einschließlich erweiterter Semantik auf Basis von OWL-S und BDI-Agent. Mit der Aufgabenlösungstheorie und dem Aufgabenzerlegungsprozess können komplizierte Aufgaben Schritt für Schritt automatisch in einfachere Unteraufgaben zerlegt werden. Dann wird eine agentenbasierte hierarchische Aufgabenmodellierungssprache vorgeschlagen. Zuletzt wird ein touristischer Fall für unsere Methode analysiert und verifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31576-3_78 8e40ddf865fb97ebe8d66352918aae46;de;;;2.1.;;;Bestimmung der Anzahl aktiver Zentren in Ziegler-Natta-Polymerisationen von Olefinen Die entwickelten Methoden zur Bestimmung der Anzahl aktiver Zentren werden in drei Hauptkategorien eingeteilt, basierend auf: (i) Markierung der Makromoleküle, (ii) Verbrauchsdaten eines wirksamen Katalysatorgiftes und (iii) anderen Prinzipien. Die Methoden werden charakterisiert und deren Vorteile, Mängel und Fallstricke aufgezeigt. Es werden Beispiele für Verfahren vorgestellt, die verwendet werden, um die Anzahl der aktiven Zentren mit verschiedenen Methoden zu erhalten. Die Bedeutung der erhaltenen Daten für das Verständnis von Ziegler-Natta-Polymerisationen von Olefinen wird skizziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-15187-7_2 b2cad2cd3de227fbd3f42b4038242774;de;;;2.1.;;;Clustering von Zebrafisch-Genen basierend auf Frequent-Itemsets und Häufigkeitsstufen In diesem Beitrag wird eine neue Clustering-Technik vorgestellt, die aus der Clustering-Technik auf der Grundlage von Frequent-Itemsets weiterentwickelt wurde. Clustering basierend auf häufigen Itemsets wurde nur im Bereich von Textdokumenten verwendet und berücksichtigt keine Häufigkeitsstufen, die die verschiedenen Häufigkeitsstufen von Items in einem Datensatz sind. Unser Ansatz betrachtet Häufigkeitsstufen zusammen mit Frequent-Itemsets. Diese neue Technik wurde im Bereich der Bioinformatik angewendet, insbesondere um Gencluster von Zebrafischen (Danio rerio) basierend auf Expressed Sequence Tags (EST) zu erhalten, aus denen die Gene bestehen. Da ein bestimmtes EST typischerweise nur mit einem Gen assoziiert ist, wurden ESTs zunächst basierend auf ihren Merkmalen in eine Reihe von Klassen eingeteilt. Dann wurden diese EST-Klassen beim Clustering von Genen verwendet. Weiterhin wurde versucht, die Qualität der Cluster anhand von Genontologiedaten zu überprüfen. Dieses Papier präsentiert die Ergebnisse dieser Anwendung des Clusterings basierend auf Frequent-Itemsets und Häufigkeitsniveaus und diskutiert andere Bereiche, in denen es potenzielle Verwendungen hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71701-0_102 07d989b46d33fd66f275ef1d2fd90725;de;;;2.1.;;;Link- und Knotenvorhersage in metabolischen Netzwerken mit probabilistischer Logik Informationen zu Stoffwechselvorgängen für Hunderte von Organismen sind in öffentlichen Datenbanken verfügbar. Diese Informationen sind jedoch oft unvollständig oder von Unsicherheit geprägt. Daher werden Systeme benötigt, die in der Lage sind, diese Datenbanken automatisch zu kuratieren und die Füllungen von Pfadlöchern vorschlagen können. Zu diesem Zweck sollten solche Systeme Daten von verwandten Organismen nutzen und heterogene Informationsquellen (z. B. phylogenetische Beziehungen) bewältigen. Hier beginnen wir, zwei grundlegende Probleme der automatischen Kuration metabolischer Netzwerke zu untersuchen, nämlich;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31830-6_29 bcfebf573700727435ee8db059ff09a6;de;;;2.1.;;;Stochastische Effekte in physikalischen Systemen Die Untersuchung der Auswirkungen von Rauschen und Fluktuationen ist ein etabliertes Fach in verschiedenen Disziplinen, von der reinen Mathematik (stochastische Prozesse) über die Physik (Fluktuationen) bis hin zur Elektrotechnik (Rauschen und Radiophysik). In der traditionellen statistischen Physik sind Schwankungen thermischen Ursprungs und führen zu kleinen Abweichungen von einem Mittelwert. Sie tendieren gegen Null, wenn man sich der thermodynamischen Grenze nähert, bei der verschiedene statistische Beschreibungen (unterschiedliche Ensembles) äquivalent werden. Ebenso werden Fluktuationen oder Rauschen in Anwendungskontexten normalerweise als kleine Korrekturen eines deterministischen (rauschfreien) Verhaltens angesehen, das ein Signal-Rausch-Verhältnis verschlechtert oder Übertragungsfehler verursachen kann. In solchen Rahmenbedingungen sind Fluktuationen eine Korrektur, die normalerweise durch eine Art Linearisierung der Dynamik um einen Mittelwert oder eine rauschfreie Dynamik behandelt werden kann. Eine andere Sichtweise auf Fluktuationen ergibt sich beispielsweise bei der Untersuchung kritischer Phänomene in den 1970er Jahren. Die statistische physikalische Beschreibung dieser Phänomene erfordert eine Formulierung, die für ein von Fluktuationen und nichtlinearen Eigenschaften dominiertes System geeignet ist. Eine lineare Theorie identifiziert die Existenz eines kritischen Punktes nur durch eine Divergenz von Fluktuationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4247-2_2 c978be0c4078a285549a73dd9aad5a9d;de;;;2.1.;;;Automatische Genreerkennung und adaptive Textzusammenfassung Dieser Artikel beschreibt eine experimentelle Methode zur automatischen Textgenreerkennung basierend auf 45 statistischen, lexikalischen, syntaktischen, positionellen und diskursiven Parametern. Die vorgeschlagene Methode umfasst: (1) die Entwicklung einer Software, die es ermöglicht, heterogene Parameter mit dem k-Means-Algorithmus zu normalisieren und zu gruppieren, (2) die Überprüfung von Parametern, (3) die Auswahl der Parameter, die für die wissenschaftliche , Zeitungs- und künstlerische Texte unter Verwendung von Zwei-Faktor-Analysealgorithmen. Basierend auf diesen Parametern wurden adaptive Zusammenfassungsalgorithmen entwickelt.;-;-;-;https://link.springer.com/article/10.3103/S0005105510030027 b940a623b48db84214c312d1d1a33aa3;de;;;2.1.;;;Bewertung des Potenzials für Grundwasserverunreinigungen mit der DRASTIC/EGIS-Technik, Gebiet Cheongju, Südkorea Die Grundwasserverschmutzung wird in Südkorea mit der deutlichen Ausweitung der Industriebasis und dem explosionsartigen Bevölkerungswachstum zu einem großen Umweltproblem. Auch in ländlichen Gebieten tragen der verstärkte Einsatz von Düngemitteln und Pestiziden, das Vorhandensein von sauren Minenabflüssen und die Zunahme der Menge an häuslichem Abwasser zur Verschmutzung des Grundwassers bei. Das DRASTIC/EGIS-Modell wurde verwendet, um das Potenzial einer Grundwasserverschmutzung im Stadtgebiet von Cheongju zu bewerten, die erste von mehreren Pilotstudien. Das Modell ermöglicht die Ausweisung hydrogeologischer Einstellungen innerhalb des Untersuchungsgebiets, basierend auf einer zusammengesetzten Beschreibung aller wichtigen geologischen und hydrogeologischen Faktoren für jede Umgebung. Anschließend wird ein Schema zur relativen Rangordnung der hydrogeologischen Faktoren angewendet, um die relative Anfälligkeit jeder hydrogeologischen Umgebung für die Grundwasserkontamination zu bewerten. DRASTIC/EGIS kann als Instrument zur Bewertung des Verschmutzungspotenzials dienen und so Programme zum Schutz der Grundwasserressourcen erleichtern.;-;-;-;https://link.springer.com/article/10.1007/s100400050195 e32de7e80d1442d68e1a6cf3adddaaae;de;;;2.1.;;;Eine empfohlene Methode für Hotspots-Wissen basierend auf Big Data aus dem sich entwickelnden Netzwerk Aufgrund des rasanten Wachstums aller Arten von professionellem Wissen im Internet. Big Data im Internet hat drei Merkmale: Die Informationsmenge ist riesig, die Art der Informationen ändert sich schnell, die Anforderungen der Menschen sind vielfältig. Wie Benutzern dabei geholfen werden kann, Hotspot-Wissen zu entdecken, um ihre persönlichen Bedürfnisse zu erfüllen, wird zu einem herausfordernden und heissen Thema. Daher schlagen wir in diesem Papier die sich entwickelnde Netzwerkkombination mit word2vec vor. Um dieses Problem anzugehen. Erstens konstruieren wir das sich entwickelnde Netzwerk und analysieren die Datenbeziehungen basierend auf dem Wikipedia-Wissensbaum und der Software-Engineering-Open-Source-Community (z. B. Stack Overflow) in Echtzeit. Schließlich können wir das Gewicht jedes Hotspots berechnen, die Knoten mit dem größten Gewicht in jeder Domäne sind empfohlenes Wissen. Wir haben Stabilität, Erinnerungsrate, Präzisionsrate und F-Messung durch ein Experiment untersucht und die Ergebnisse zeigten, dass unsere Methode genauer ist als bestehende Ansätze.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1648-7_40 115f73c632465783797635ffc9a5e697;de;;;2.1.;;;Bewertung der Neuheit von Forschungsartikeln mit Fuzzy Cognitive Maps In dieser Arbeit vergleichen und analysieren wir die Neuheit einer wissenschaftlichen Arbeit (Textdokument) einer bestimmten Domäne. Unsere Experimente verwenden den standardmäßigen Latent Dirichlet Allocation (LDA) Topic Modeling Algorithmus, um die redundanten Dokumente und die Ontologie einer bestimmten Domäne zu filtern, die als Wissensbasis für diese Domäne dient, um kognitive Karten für die Dokumente zu generieren. Wir berichten über Ergebnisse basierend auf dem Distanzmaß wie dem Euklidischen Distanzmaß, das die Divergenz der Konzepte zwischen den Dokumenten analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32063-7_9 1d0024e73a3ee2ce51b8c46ad844733b;de;;;2.1.;;;Ein OWL-basierter Ansatz für RBAC mit negativer Autorisierung Die Zugriffskontrolle ist ein wichtiges Thema im Zusammenhang mit der Sicherheit im Semantic Web. Role-Based Access Control (RBAC) wird in der Praxis allgemein als flexibles und effizientes Modell angesehen. In diesem Papier stellen wir einen OWL-basierten Ansatz für RBAC im Kontext des Semantic Web vor. Zunächst stellen wir ein erweitertes Modell von RBAC mit negativer Zulassung vor, das eine detaillierte Konfliktanalyse bietet. Dann verwenden wir OWL, um das erweiterte Modell zu formalisieren. Darüber hinaus zeigen wir, wie man einen OWL-DL-Reasoner verwendet, um potenzielle Konflikte im erweiterten Modell zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/11811220_15 7725cd133716b65d912966ac567aa7b1;de;;;2.1.;;;Räumliches Denken über grobe Sets Grobe Mengenfolgerungen können auf dem Begriff eines Teils in einem Maße basieren, wie es in der groben Mereologie vorgeschlagen wird. Mereologische Theorien bilden auch eine Grundlage für räumliches Denken. Hier zeigen wir, wie man räumliches Denken auf grobe Vorstellungen stützen kann.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45554-X_59 4475db17bb789945efc4b67166426221;de;;;2.1.;;;Umgang mit Fuzzy-Informationen in einer objektorientierten Umgebung Die meisten Datenbankmodelle werden zu Fuzzy-Datenbankmodellen erweitert, um unvollständige Informationen zu verwalten und abzurufen. Während in den letzten Jahren dem relationalen Datenmodell große Aufmerksamkeit geschenkt wurde, wird in letzter Zeit verstärkt auf die Untersuchung objektorientierter Datenmodelle geachtet. Die Einbindung dieser Forschungsergebnisse in kommerzielle relationale Datenbankmanagementsysteme (RDBMS) ist noch nicht Realität. Der Hauptgrund dafür hat mit der Starrheit/Inflexibilität des tatsächlichen RDBMS zu tun. Objektorientierte Datenbankverwaltungssysteme (OODBMS) der neuen Generation bieten dank der Wiederverwendbarkeits- und Erweiterbarkeitseigenschaften von OODBMS größere Möglichkeiten zur Einbindung unvollständiger Informationen. Strategische Informationssysteme der 1990er Jahre sollten in der Lage sein, mit nuancierten Informationen, d. h. Ungenauigkeit, Unsicherheit, subjektiven Merkmalen wirtschaftlicher und soziologischer Daten, umzugehen. In diesem Papier schlagen wir eine Lösung für die Darstellung von Fuzzy-Informationen in einer objektorientierten Umgebung vor. Die Lösung bietet Möglichkeiten zum Definieren von Mitgliedschaftsfunktionen, die zum Verwalten von Fuzzy-Informationen und zum Abrufen von Objekten nahe einem etablierten Profil in einer komplexen Objektbasis erforderlich sind. Als Testfeld für diese Konzepte dienen die Wirtschaftswissenschaften.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-1897-0_7 7d9403deaa13d114f6f72cfd3a2a38f2;de;;;2.1.;;;TECNOLOGIA DA LINGUAGEM PARA O PORTUGUÊS Eine linguagem-technologia und usada für desenvolver-sistemasde-soware, die mit einer linguagemhumana, einem häufig frequentierten pelo und einem designadaptor der linguagem-technologia humana arbeitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29593-5_4 0f83161ecdc7130450bd12110d2f11ac;de;;;2.1.;;;Semantic Frame-based Natural Language Understanding für einen intelligenten Topic Detection Agent Das Erkennen des Themas von Dokumenten kann den Lesern helfen, den Hintergrund des Themas zu konstruieren und das Verständnis von Dokumenten zu erleichtern. In diesem Beitrag haben wir eine semantische Frame-basierte Methode zur Themenerkennung vorgeschlagen, die einen solchen Prozess in der menschlichen Wahrnehmung simuliert. Wir nutzten mehrere Wissensquellen und identifizierten diskriminierende Muster aus Dokumenten durch Frame-Generierung und Matching-Mechanismen. Die Ergebnisse zeigten, dass unser neuartiger Ansatz das Thema eines Dokuments effektiv erkennen kann, indem er die syntaktischen Strukturen, die semantische Assoziation und den Kontext innerhalb des Textes ausnutzt. Darüber hinaus übertrifft es auch bekannte Themenerkennungsmethoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07455-9_36 ee5b1f8742fc803e86dca20b50b65958;de;;;2.1.;;;Eine Netzwerkansicht von Geschäftssystemen In diesem Beitrag stellen wir einen neuartigen Ansatz zum Aufbau von Geschäftsnetzwerken vor, bei dem die Knoten des Netzwerks den Namen der Unternehmen in einem bestimmten Börsenindex entsprechen und seine Links das gemeinsame Auftreten von zwei Unternehmensnamen in täglichen Nachrichten zeigen. Unser Ansatz besteht aus zwei Phasen, in denen die Suche nach den Firmennamen in den Nachrichtenartikeln bzw. der Netzwerkaufbau durchgeführt wird. Um die Ergebnisqualität zu erhöhen, wird jeder Artikel vor diesen Operationen als Wirtschaftsnachricht oder nicht als Wirtschaftsnachricht klassifiziert und nur die Artikel, die als Wirtschaftsnachrichten klassifiziert sind, werden für den Netzwerkaufbau berücksichtigt. Das resultierende Netzwerk präsentiert eine Visualisierung der Geschäftsereignisse und Unternehmensbeziehungen im entsprechenden Zeitraum. Wir untersuchen sowohl das gemeinsame Vorkommen als auch das einzelne Vorkommen von Firmennamen in den in unserer Analyse gescannten Artikeln.;-;-;-;https://link.springer.com/article/10.1007/s10796-012-9354-0 d255845ef7974e872ee159dbad5eeca9;de;;;2.1.;;;Zweckbewusstes Denken über die Interoperabilität heterogener Trainingssysteme Wir beschreiben einen neuartigen Ansatz, mit dem Software die Fähigkeit einer Konföderation heterogener Systeme zur Interoperabilität bewerten kann, um einen bestimmten Zweck zu erreichen. Der Ansatz verwendet Ontologien und Wissensbasen (KBs), um einerseits die herausragenden Eigenschaften von Systemen und andererseits von Aufgaben, für die diese Systeme eingesetzt werden sollen, zu erfassen. Regeln werden verwendet, um die Bedingungen darzustellen, unter denen die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76298-0_54 c289b6e598f0a7ddc896ee0040e52409;de;;;2.1.;;;Passende Webdienste basierend auf semantischer Ähnlichkeit Das klassische Matching auf Webservices bietet nur grobe Granularitätsverfahren, die das Matching in mehrere Stufen einteilen. Solche ebenenbeschränkten Verfahren verbieten die Bewertung der Übereinstimmung innerhalb derselben Ebene, die für moderne Webservice-Kompositionen erforderlich ist. Dieses Papier bietet eine feinkörnige Matching-Methode, die auf der semantischen Ähnlichkeit der Dienste basiert. Durch die semantischen Distanzen und die Tiefe der Konzepte der Ontologie wird ein neuartiges präzises Matching-Verfahren vorgeschlagen, um die Webdienste zwischen Ebenen und innerhalb derselben Ebene abzugleichen. Experimente zeigen, dass der Ansatz zu einer besseren Präzision und Erinnerung führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23324-1_96 6f3e170046de368b31bfaf769bf3be7a;de;;;2.1.;;;Erlernen von Parse-freien ereignisbasierten Funktionen für die Erkennung von Textinhalten Wir schlagen neue parsefreie ereignisbasierte Funktionen vor, die in Verbindung mit lexikalischen, syntaktischen und semantischen Funktionen von Texten und Hypothesen für maschinelles Lernen-basiertes Erkennen von Textual Entailment verwendet werden. Unsere neuen Ähnlichkeitsmerkmale werden ohne Verwendung flacher semantischer Parser extrahiert, aber dennoch werden lexikalische und kompositorische Semantik nicht ausgelassen. Unsere experimentellen Ergebnisse zeigen, dass diese Merkmale die Effektivität der Identifizierung von Bindungs- und Nichtbindungsbeziehungen verbessern können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17432-2_19 6cde0413519ce3308a18372ff2acb4e4;de;;;2.1.;;;Methodische Inzidenz der Realitätsbereiche: Vorhersage und Komplexität Die verschiedenen Spielarten des methodologischen Universalismus weisen wichtige Einschränkungen auf. Diese Einschränkungen werden besonders deutlich, wenn dieses Problem aus der Ontologie der Wissenschaft als Stütze sowohl für die Erkenntnistheorie als auch für die Methodik der Wissenschaft gesehen wird. Daher konzentriert sich die Analyse in diesem Beitrag auf die Probleme, die der methodologische Universalismus an die wissenschaftliche Vorhersage stellt, wobei der Komplexitätsperspektive eine Schlüsselrolle zukommt. Dazu werden zwei Hauptschritte befolgt. Erstens werden die Grenzen des methodologischen Universalismus in Übereinstimmung mit den Realitätsbereichen gesehen. Dabei wird auf die Besonderheiten der natürlichen, sozialen und künstlichen Phänomene geachtet. Zweitens wird die Forschung aus der Perspektive der Komplexität (strukturell und dynamisch) entwickelt und die methodische Relevanz der Komplexitätsmodi (vor allem erkenntnistheoretisch und ontologisch) und die Perspektive der Geschichtlichkeit analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-52500-2_5 fa93c635a9337612ab5ab74eb7530a65;de;;;2.1.;;;Anaerobe Bakterien Anaerobier sind Bakterien, die nur in einer Umgebung mit relativem Sauerstoffmangel wachsen und verstoffwechseln. Genauer gesagt wachsen Anaerobier nicht auf der Oberfläche von Agarplatten in Raumluft oder in Raumluft, die mit bis zu 10 % C0 . angereichert wurde;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-5070-8_5 d8f6d5b382913bf6911dcf6242886cff;de;;;2.1.;;;Ein Fuzzy-Kontrast-Modell zur Messung der semantischen Ähnlichkeit zwischen OWL DL-Konzepten Auf der Grundlage psychologischer Ähnlichkeitsstudien schlagen wir ein Modell vor, das als Fuzzy-Kontrast-Modell bezeichnet wird, um die semantische Ähnlichkeit zwischen durch OWL DL ausgedrückten Konzepten zu messen. Durch die Transformation eines OWL DL-Konzepts in eine Menge von Axiomen in der Beschreibungslogik;-;-;-;https://link.springer.com/chapter/10.1007/11881599_119 606977a6e2853fdeab11e6b841b37aaf;de;;;2.1.;;;Herausforderungen bei der Implementierung und praktischen Anwendung von Software für das Wissensmanagement im Bereich Flugsicherheit Dieses Papier stellt praktische Fragen der Implementierung und Bereitstellung von Sicherheitswissensmanagement-Software für die Flugsicherheit vor. Die domänenspezifische immaterielle Natur der betreffenden Themen wird beschrieben und alle Faktoren, die eine erfolgreiche Anwendung eines Wissensmanagementsystems verhindern, werden dokumentiert. Luftfahrtorganisationen haben Mühe, eine wirksame Lösung zu finden, die einerseits eine zeitnahe Verfolgung des dynamischen Wissens ermöglicht und andererseits Reporter oder Ermittler im Prozess der Wissenssammlung nicht einschränkt oder voreinnimmt. Der Artikel befasst sich hauptsächlich mit praktischen Fragen im Zusammenhang mit dem Einsatz von Berichtssoftware, die die Schnittstelle zwischen Mensch und Ontologiemodell hinter der Software darstellt und in der Lage ist, Kompromisse zwischen verschiedenen widersprüchlichen Designkriterien sowie vielen Luftfahrtorganisationstypen wie der Luftfahrtsicherheit zu adressieren In Zusammenarbeit mit der Industrie soll Wissen gesammelt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-45880-9_24 541b6503d3dc6fcf908d2f35941ade94;de;;;2.1.;;;Erfassung der räumlichen Differenzierung der Siedlungsänderungsraten während der rapiden Urbanisierung in der Metropolregion Nanjing, China Die Urbanisierung führte weltweit zu bedeutenden Landschaftsveränderungen. China hat in den letzten Jahrzehnten eine beschleunigte Urbanisierung erlebt. In der Urbanisierung kam es landesweit zu einer schnellen Landnutzung/Landübernutzung, die bemerkenswerte Merkmale der Landschaftsdynamik manifestiert. In dieser Studie haben wir die räumliche Differenzierung der Siedlungsänderungsraten zwischen 1 km² untersucht;-;-;-;https://link.springer.com/article/10.1007/s10661-009-1291-0 c668595c45283f9a08e820ede8b60e5e;de;;;2.1.;;;Ein Programmierstil für die Graphgrammatik zur Erkennung von Musiknotationen Graphgrammatiken sind ein vielversprechendes Werkzeug zur Lösung von Bildverarbeitungsproblemen. Die Anwendung von Graphgrammatiken auf die Diagrammerkennung war jedoch auf eine ziemlich einfache Analyse lokaler Symbolkonfigurationen beschränkt. Dieses Papier stellt den Build-Weed-Incorporate-Programmierstil für Graphgrammatiken vor und zeigt seine Anwendung bei der Bestimmung der Bedeutung komplexer Diagramme, bei denen die Interaktion zwischen physikalisch entfernten Symbolen semantisch wichtig ist. Die Diagrammerkennung kann in zwei Stufen unterteilt werden: Symbolerkennung und High-Level-Erkennung. Die Symbolerkennung wurde in der Literatur ausführlich untersucht. In dieser Arbeit gehen wir von der Existenz eines Symbolerkenners aus und verwenden eine Graphengrammatik, um den Informationsgehalt des Diagramms aus den Symbolen und ihren räumlichen Beziehungen zusammenzusetzen. Der Build-Weed-Incorporate-Ansatz wird durch eine detaillierte Diskussion einer Graphengrammatik für die High-Level-Erkennung von Musiknotation demonstriert.;-;-;-;https://link.springer.com/article/10.1007/BF01211933 8859f66f799bcb28033add8a2d019280;de;;;2.1.;;;Automatische Zusammenfassung mehrerer Dokumente basierend auf neuen Satzähnlichkeitsmaßen Der Erwerb von Satzähnlichkeit ist zu einem entscheidenden Schritt in graphenbasierten Multi-Dokument-Zusammenfassungsalgorithmen geworden, die in den letzten zehn Jahren intensiv untersucht wurden. Frühere Algorithmen betrachteten im Allgemeinen Strukturinformationen auf Satzebene und semantische Ähnlichkeit getrennt, die folglich keinen Zugriff hatten, um Ähnlichkeitsinformationen umfassend zu erfassen. In diesem Beitrag präsentieren wir einen allgemeinen Rahmen, um zu veranschaulichen, wie die beiden oben genannten Faktoren miteinander kombiniert werden können, um eine korpusorientierte und diskriminierende Satzähnlichkeit abzuleiten. Experimentelle Ergebnisse des DUC2004-Datensatzes zeigen, dass unsere Ansätze die Leistung der Zusammenfassung mehrerer Dokumente erheblich verbessern können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32695-0_81 f6f7012707e113da9c6ec59436c03d2b;de;;;2.1.;;;Transdisziplinarität in der Grundwasserbewirtschaftung – Auf dem Weg zum gegenseitigen Lernen von Wissenschaft und Gesellschaft Transdisziplinarität ist definiert als eine spezifische Art der Wissensproduktion, die von Interdisziplinarität zu unterscheiden ist. Transdisziplinarität befasst sich mit relevanten, komplexen gesellschaftlichen Problemen und organisiert Prozesse des gegenseitigen Lernens zwischen Akteuren aus der wissenschaftlichen und der nichtwissenschaftlichen Welt. Wir stellen Prinzipien der Transdisziplinarität vor, wenn wir Projekte zum Grundwasser- und Bodenmanagement im Klettgauer Trog, einem Einzugsgebiet von 156 km;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4369-1_37 f391278b78884e1602f079201f2b9a28;de;;;2.1.;;;Der Einsatz integrierter und intelligenter Teststrategien bei der Vorhersage von toxischen Gefahren und bei der Risikobewertung Es besteht zunehmend die Besorgnis, dass unüberwindbare Unterschiede zwischen Menschen und Versuchstieren die Relevanz und Zuverlässigkeit von Tierdaten, die durch herkömmliche Toxizitätstestverfahren gewonnen wurden, für die Gefahrenidentifizierung und Risikobewertung einschränken. Einen Weg nach vorne bieten die aufkommenden neuen Technologien, die direkt auf menschliches Material oder sogar auf den Menschen selbst angewendet werden können. Dies verspricht, die Bewertung der Sicherheit von Chemikalien und chemischen Produkten unterschiedlichster Art und insbesondere von Arzneimitteln zu revolutionieren. Die verfügbaren und sich entwickelnden Technologien werden zusammengefasst und es wird betont, dass sie gezielt in integrierten und intelligenten Teststrategien eingesetzt werden müssen, die neben ihrer wissenschaftlichen Fundierung auch handhabbar und bezahlbar sein müssen. Es werden Beispiele vorgeschlagener Teststrategien für allgemeine Chemikalien, kosmetische Inhaltsstoffe, Arzneimittelkandidaten, inhalierte Substanzen, Nanopartikel und Neurotoxizität gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-3055-1_13 b6ab06769e723eefc1250ecac543a2ff;de;;;2.1.;;;Composite-Fixation für juxtaartikuläre Frakturen Die Composite-Fixation hat sich als wichtige Modalität bei der Primärbehandlung bestimmter juxtaartikulärer Frakturen, insbesondere der Tibia, herausgestellt. Die Composite- (oder Hybrid-)Fixation bezieht sich auf die Verwendung einer internen Fixation, die im Allgemeinen aus kanülierten Schrauben besteht, die auf die Metaphyse und die Gelenkfläche beschränkt sind, wobei ein externer Fixateur als Neutralisationsvorrichtung angewendet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-2326-9_14 0b787f1dc776697fbe373eb2d205b0b0;de;;;2.1.;;;Eigenlösung eines BTA Tieflochbohrschachtsystems Um die Eigenlösung eines Tieflochbohrschachtsystems zu erhalten, wird eine numerische Untersuchung durchgeführt. Die rotierende Bohrwelle wird als Rayleigh-Balken modelliert, der Schneidflüssigkeit transportiert und Drehmomenten, axialen Druckkräften und Auflagerbeschränkungen ausgesetzt ist. Die maßgebende Gleichung des Bohrwellensystems für seitliche Schwingungen wird unter Berücksichtigung der Fluid-Struktur-Interaktion, der Rotationsträgheit, des Kreiseleffekts, der Wirkung von Bewegungsbeschränkungen und der durch das umgebende Fluid erzeugten Reibungsdämpfung erhalten. Der Einfluss von Schneidflüssigkeitsströmungsgeschwindigkeit, Drehwinkelgeschwindigkeit, Drehmoment, axialer Druckkraft und Auflagerbeschränkungen auf die Eigenfrequenz und Stabilität des Bohrwellensystems wird untersucht. Die Fließgeschwindigkeit der Schneidflüssigkeit, die axiale Druckkraft und das Drehmoment verringern die Eigenfrequenz des Systems, während die Drehwinkelgeschwindigkeit und die Auflagerbeschränkungen die Systemstabilität verbessern.;-;-;-;https://link.springer.com/article/10.1007/s12206-018-0303-9 54d880d854e1b6e28dfff6440aac03b2;de;;;2.1.;;;Fehleranalyse in Mensch-Maschine-Systemen Die zu berichtende Studie hatte zum Ziel, die Zuverlässigkeit von MMS in einem automatisierten Prozessleitsystem zu bewerten. Die Methodik basierte auf einer Fehleranalyse und berücksichtigte: a) der aufgetretene Fehler, b) die Fehlererkennungen und c) die Wiedergutmachung bei Fehlern. Es wurde angenommen, um sowohl einen Prototyp als auch die Implementierung des MMS zu evaluieren. Die beiden Evaluationen verfolgten unterschiedliche Ziele. Die erste, die sich auf die Phase „Design“ bezieht, zielte darauf ab, festzustellen, ob die entworfenen Aufgaben mit den kognitiven Fähigkeiten und Kompetenzen der Bediener kompatibel sind. Das Ziel der zweiten Evaluierung im Zusammenhang mit der „Re-Design“-Phase bestand darin, herauszufinden, wo und wie das MMS verbessert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83721-0_1 c5b23e67aeee79083d518f7161ab9183;de;;;2.1.;;;Automatische Genre-Klassifizierung von Videos In den letzten Jahrzehnten ist die Menge an Multimediainhalten, die in vernetzten Repositories gespeichert sind, enorm gewachsen. Im heutigen Szenario gibt es viele Video-Hosting-Websites wie YouTube, Metacafe und Google Video usw., auf denen Leute ihre Videos hochladen und herunterladen. Derzeit ist die Indexierung und Kategorisierung dieser Videos eine mühsame Arbeit. Entweder fordert das System den Benutzer auf, Tags für die von ihm hochgeladenen Videos vorzuschlagen, oder es werden Personen beauftragt, das Video manuell zu taggen. Das manuelle Tagging wurde basierend auf den Ansichten der Benutzer, Suchbegriffe usw. durchgeführt. Um dieses Problem zu beseitigen, schlägt dieser Artikel ein Modell vor, das die Videos automatisch nach ihren Genres kategorisiert. Das Hauptziel dieser Arbeit war es, die Videos anhand von Zeit-, Textur-, Bewegungs- und Farbmerkmalen grob in wichtige Bereiche wie Sport, Musik und Nachrichten zu kategorisieren. Im Sport wurden die Videos weiter in Cricket und Fußball eingeteilt. Die hierarchische SVM wurde für das automatische Training und die Auswahl des Genres des Videos verwendet. Für die Schulung des Klassifikationssystems wurden insgesamt 350 Videos von verschiedenen Websites verwendet. Dieses System erreicht eine durchschnittliche Gesamterkennungsrate von bis zu 98 % bei einer sehr niedrigen Fehlerkennungsrate von 2 %.;-;-;-;https://link.springer.com/chapter/10.1007/978-81-322-2135-7_42 f7db1bd96f8863f9f562cae528c605b0;de;;;2.1.;;;Andere Überlegungen Bei der Programmierung ist mehr zu beachten als die Lösung von Benutzerproblemen. Ob Design, Code-Konstruktion oder Wartung, der Programmierer sollte die Natur und die Arbeitsgewohnheiten des Betreuers berücksichtigen. Da die Kosten für die Computerverarbeitung ständig sinken und die Kosten für die Programmierung steigen, können die größten Einsparungen erzielt werden, wenn der Betreuer effizient ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-1500-4_12 d2256f289faa5c74ee1ecec3dc627f84;de;;;2.1.;;;Kartierungstyp-2-Änderung in der Fuzzy-Landbedeckung Die Diskussion der der Fuzzy-Änderungsmatrix zugrunde liegenden Logik wird in diesem Kapitel um eine Betrachtung von Typ-2-Fuzzy-Mengen erweitert. Sets vom Typ 2 werden aus den Unterschieden in der Fuzzy-Set-Zugehörigkeit parametrisiert, die durch mehrere Werte des Fuzzy- oder Überlappungsparameters des wohlbekannten Fuzzyuzz;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-6438-8_10 af9d61c438b15730426bbf894f41c284;de;;;2.1.;;;Vorhersagbarkeit der Fortbewegung: Auswirkungen auf die Aktualisierung räumlicher Situationsmodelle beim narrativen Verstehen Wir untersuchten, wie die Aktualisierung räumlicher Situationsmodelle beim narrativen Verstehen vom Zusammenspiel kognitiver Fähigkeiten und Texteigenschaften abhängt. Teilnehmer mit geringen verbalen und visuell-räumlichen Fähigkeiten und Teilnehmer mit hohen Fähigkeiten lesen Erzählungen, in denen die Bewegungen des Protagonisten in einem fiktiven Gebäude entweder sehr vorhersehbar oder sehr schwer vorhersehbar waren. In Experiment 1 aktualisierten leistungsstarke Leser räumliche Situationsmodelle nur dann, wenn die Bewegungen des Protagonisten schwer vorhersehbar waren, während Leser mit geringer Fähigkeit dies nur taten, wenn die Bewegungen sehr vorhersehbar waren. In Experiment 2 kompensierte eine erleichterte integrative räumliche Verarbeitung die Ressourcenbeschränkungen der Teilnehmer mit geringen Fähigkeiten. Als Ergebnis aktualisierten beide Fähigkeitsgruppen räumliche Situationsmodelle mit schwer vorhersehbaren Bewegungen der Protagonisten. Diese Ergebnisse verdeutlichen die Interaktionen von kognitiven Fähigkeiten und Textmerkmalen bei der Aktualisierung des räumlichen Situationsmodells.;-;-;-;https://link.springer.com/article/10.3758/BF03193265 03e3330cc5f74eed2c349738c236c21c;de;;;2.1.;;;Die Entwicklung der elterlichen Fürsorge bei Süßwasseregeln Die lebensgeschichtlichen Strategien einer Auswahl der häufigsten europäischen Süßwasseregel (Euhirudinea) werden beschrieben. Auf Basis dieser Informationen und Ergebnisse aus der Literatur wird die wahrscheinliche phylogenetische Entwicklung der elterlichen Fürsorge in der Euhirudinea rekonstruiert. Die kieferlosen Wurmegel (Erpobdellidae) scheiden einen schützenden Kokon aus, zementieren ihn auf dem Substrat und lüften ihn manchmal, bevor sie die Eikapseln verlassen. Dieses Verhalten repräsentiert den ältesten Zustand in der Evolution der Blutegel. Mitglieder der Kieferhirudinidae legen austrocknungsresistente Kokons an Land ab. Alle bekannten Glossiphoniidae (Egel mit Rüssel) haben die Gewohnheit entwickelt, Eier und Junge zu brüten. Diese einzigartigen elterlichen Fürsorgemuster innerhalb einer Familie von noch vorhandenen Süßwasseregeln können schematisch in einer Reihe von zunehmender Komplexität angeordnet werden, die die Entwicklung des Brutverhaltens widerspiegeln kann. Glossiphoniide Blutegel der Gattung;-;-;-;https://link.springer.com/article/10.1007/s12064-001-0012-1 cc8c0dc6ebf254a707a7f3460dc88639;de;;;2.1.;;;Entwicklung eines CAD-Systems für 3D-Brustultraschallbilder Wir haben ein CAD-System für Massen auf 3D-Brust-Ultraschallbildern entwickelt und die vorläufige Leistung mit ca. 200 Fällen abgeschätzt. Die Erkennungs- und Klassifizierungsmethoden basierten auf Kantenerkennung und aktiven Ballonmodellen, um die Massenregionen zu segmentieren. Außerdem wurde eine Volumenrendering-Technik angewendet, um die 3D-Bilder für die Leser vorzubereiten. Es zeigte als erstes Ergebnis eine gute Klassifikationsleistung. Insbesondere die Klassifikationsleistung zeigte eine gute Quote, da die im Klassifikationsschema verwendeten Fälle nach ärztlicher Meinung durch die Ultraschallbilder schwer zu unterscheiden waren, die Fallzahl jedoch zu diesem Zeitpunkt nicht so groß war, Stichworte: Masse, Klassifizierung, CAD;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-59327-7_86 5ab9a5e0325e09c96940d45d4dcede09;de;;;2.1.;;;Einbeziehung der lexikalischen semantischen Ähnlichkeit in die Baumkern-basierte chinesische Relationsextraktion Lexikalische semantische Informationen spielen eine wichtige Rolle bei der Extraktion semantischer Beziehungen zwischen benannten Entitäten. Dieses Papier integriert zwei Arten von lexikalischen semantischen Ähnlichkeitsmaßen, Thesaurus-basiert und Korpus-basiert, in Faltungsbaumkerne und untersucht systematisch ihre Auswirkungen auf die chinesische Relationsextraktion. Die Experimente am chinesischen Korpus ACE2005 zeigen, dass die Einbeziehung der lexikalischen semantischen Ähnlichkeit in die baumkernbasierte chinesische Relationsextraktion die Extraktionsleistung bei unbekannten Entitätstypen signifikant verbessern kann, während im Fall bekannter Entitätstypen diese lexikalischen Ähnlichkeitsmaße ebenfalls verbessern die Extraktionsleistung für einige personenbezogene Beziehungen. Dies zeigt die Nützlichkeit der lexikalischen semantischen Ähnlichkeit bei der Extraktion von chinesischen Beziehungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36337-5_2 0b3b59170611660d563929d6f8228a65;de;;;2.1.;;;Kombination von Fuzzy Logic und Semantic Web, um Situationsbewusstsein bei der Serviceempfehlung zu ermöglichen Das mobile Internet wächst rasant und es stehen derzeit enorme Ressourcen zur Verfügung. Daher scheinen die bisher üblichen Mechanismen zum Auffinden von Ressourcen wie Browsing und Suchen nicht mehr effektiv zu sein, um Benutzern bei der Mobilität zu helfen. Tatsächlich kann der persönliche Informationsraum des Benutzers im Hinblick auf die begrenzten Interaktionsmöglichkeiten mobiler Geräte sehr groß sein. Dieses Papier schlägt einen situationsbezogenen Rahmen für die proaktive Bereitstellung personalisierter Ressourcen vor. Aktuelle Situationen des Benutzers werden durch Ausnutzen von Domänenwissen abgeleitet, das in Form von Ontologien und semantischen Regeln ausgedrückt wird, die in der wohlbekannten Web Ontology Language (OWL) bzw. Semantic Web Rule Language (SWRL) dargestellt werden. Unsicherheit bei einigen kontextabhängigen Regelbedingungen wird durch die Definition geeigneter linguistischer Variablen durch die Fuzzy Control Language (FCL), eine Standarddarstellung von Fuzzy-Systemen für den Datenaustausch zwischen verschiedenen Implementierungen, und durch die Übernahme einer absichtlich angepassten Kodierung von Ontologien und Regeln behandelt. Unsichere Bedingungen lassen auf mehr als eine Situation mit unterschiedlichen Sicherheitsgraden schließen: Diese Grade werden verwendet, um gleichzeitigen Situationen einen Rang zuzuweisen. Schließlich werden Situationen mit einer Reihe von verwandten Ressourcen verbunden, die dem Benutzer empfohlen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15364-8_3 505672269187a7ad13a5158806a4331c;de;;;2.1.;;;Das Puzzle des totalen Wohlbefindens mit einem Multi-Agenten-System vervollständigen Unser Forschungsschwerpunkt ist die Implementierung von agentenbasierten Systemen im Gesundheitsbereich, genauer gesagt in der Erforschung des Gesamtwohlbefindens. Wir verwenden ein evidenzbasiertes ontologisches Modell des totalen Wohlbefindens, bei dem das totale Wohlbefinden als Funktion von körperlicher Gesundheit, psychischer Gesundheit, Emotionen, Beziehungen, finanzieller Situation und Spiritualität betrachtet wird. Wir verwenden die TICSA-Methodik, um ein Multi-Agenten-System zu entwerfen. Dieses Multi-Agenten-System basiert auf der Total Wellbeing Ontology und hilft beim intelligenten Abrufen, Verwalten und Analysieren von Informationen bezüglich des gesamten Wohlbefindens. Wir hoffen, dass dieses System Beweise liefert, die die breite Öffentlichkeit dabei unterstützen, ihr persönliches Wohlbefinden besser zu verwalten, und das Gesundheitspersonal dabei unterstützt, ihre Dienste systematischer und effektiver an die Bedürfnisse der Patienten anzupassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02193-0_12 e984b2e69694e1c66afecf5935ccbc9e;de;;;2.1.;;;Vergleich verschiedener Methoden der Fernerkundung zur Klassifikation der Landnutzung im Seengebiet des Yunnan-Plateaus Die Klassifizierung von Fernerkundungsbildern ist eine wichtige Technologie, um Informationen zu erhalten. Gegenwärtig werden verschiedene Methoden zur Fernerkundung bei der Landbedeckung der Region eingesetzt. Die Verbesserung der Klassifizierungsgenauigkeit ist der Schlüssel zur Verarbeitung und Anwendung von Fernerkundungsdaten. Diese Arbeit wählt den Xingyun-See, das typische Plateau-Seegebiet der Provinz Yunnan und die umliegende Seeuferzone, als Forschungsgebiet aus. Basierend auf dem 30-TM-Landsat-Fernerkundungsbild des Forschungsgebiets unter Verwendung von überwachter Klassifizierung, neuronalem BP-Netz und objektorientierter Klassifizierung, um die Genauigkeit von drei Arten von Klassifizierungsmethoden zu vergleichen. Es wurde festgestellt, dass die Entwicklung von neuronalen BP-Netzen und objektorientiertem Klassifikationstraining genauere Ergebnisse liefert als überwachtes Training. Die objektorientierte Klassifikation erzeugte auch eine genauere Klassifikation als die Klassifikation des neuronalen BP-Netzes, verbesserte jedoch die Genauigkeit nicht signifikant. Die Ergebnisse werden dazu beitragen, Informationen über die Oberflächenabdeckung der Fernerkundung und die dynamische Überwachung im Yunnan-Plateau-See zu fördern, außerdem haben sie eine wichtige wissenschaftliche Bedeutung für den Schutz und die Formulierung von Rationalisierungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-3969-0_5 be94b4546d6001a9dfe952f9cca583c8;de;;;2.1.;;;Erkennung und Korrektur fehlender RDF-Triples in Knowledge Graphs in Knowledge Graphs (KGs) sind zu einem mächtigen Asset in der Informationswissenschaft und -technologie geworden. Um die Verbesserung der Suche, des Informationsabrufs und der Frage-Antwort-Domains zu fördern, bieten KGs effektive strukturierte Informationen. KGs repräsentieren reale Entitäten und ihre Beziehungen im Resource Description Framework (RDF) Triples-Format. Trotz der großen Menge an Wissen gibt es in den KGs noch fehlendes und falsches Wissen. Wir untersuchen die Diagrammmuster von miteinander verbundenen Entitäten, um fehlende und falsche RDF-Tripel in zwei KGs zu entdecken – DBpedia und YAGO. Wir wenden einen graphenbasierten Ansatz an, um ähnliche Objekteigenschaften abzubilden, und wenden einen ähnlichkeitsbasierten Ansatz an, um ähnliche Datentypeigenschaften abzubilden. Unsere vorgeschlagenen Methoden können diese ähnlichen Ontologieeigenschaften nutzen und fehlende und falsche RDF-Tripel in DBpedia und YAGO effizient entdecken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-70682-5_11 4b0688c8849133b219bc1badcbc5dd02;de;;;2.1.;;;Risk Engineering und Blockchain: Risiken antizipieren und mindern Komplexe Systeme erfordern einen integrierten Risikoansatz. In diesem Papier beschreiben wir Risk Engineering, eine Methodik zur Berücksichtigung von Risiken in der Planungs- und Entwurfsphase komplexer Systeme, und stellen einige ihrer Komponenten vor. Wir untersuchen auf hoher Ebene, wie Risk Engineering dazu beitragen kann, das Risikobild für Blockchain-Technologien und deren Anwendungen zu verbessern, und skizzieren Herausforderungen und Vorteile dieses Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-04849-5_34 febb4c11a0bbc0cbe04b026c68ceb106;de;;;2.1.;;;Cellulite: Eine evidenzbasierte Überprüfung Cellulite ist eine multifaktorielle Erkrankung, die bei 80–90 % der postpubertären Frauen auftritt. Trotz seiner hohen Prävalenz bleibt es ein großes kosmetisches Problem für Frauen. Es steht eine breite Palette von Produkten und Behandlungen zur Reduzierung von Cellulite zur Verfügung, jedoch wurde bisher keine systematische Überprüfung durchgeführt, um die Wirksamkeit der verfügbaren Behandlungsmöglichkeiten für Cellulite zu bewerten.;-;-;-;https://link.springer.com/article/10.1007/s40257-015-0129-5 382a4fa28cc434ab5a118a8cd6b115e3;de;;;2.1.;;;Auswirkungen des positiven endexspiratorischen Drucks auf den intrakraniellen Druck und den zerebralen Perfusionsdruck Die Wirkung des positiven endexspiratorischen Drucks (PEEP) auf den intrakraniellen Druck (ICP) und den zerebralen Perfusionsdruck (CPP) wurde von mehreren Forschern beschrieben, ohne dass ein Konsens erzielt wurde. Akute neurologische und neurochirurgische Patienten leiden an intrakranieller Hypertonie und akuter Lungenschädigung mit Hypoxämie. Da PEEP die Hypoxämie verbessern, den ICP jedoch erhöhen und den CPP senken kann, ist es wichtig, den Einfluss unterschiedlicher PEEP-Werte auf ICP und CPP zu bestimmen. Ziel der Studie war es, die Veränderungen von ICP und CPP im Zusammenhang mit unterschiedlichen PEEP-Werten zu untersuchen. Zwanzig Patienten, die eine ICP-Überwachung und mechanische Beatmung benötigten, wurden eingeschlossen. Die Patienten hatten schwere Kopfverletzungen (n = 10), spontane intrazerebrale Blutungen (n = 5) und Subarachnoidalblutungen (n = 5). PEEP wurde von 5 (basal) auf 15 cm H . angehoben;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-6738-0_25 3b63f4f4f252a12796c4285d79d355b1;de;;;2.1.;;;Energieverbrauch und Effizienzprobleme im Überwachungssystem für menschliche Aktivitäten Da sich die Menschen für Gesundheitsfragen interessieren, entstehen heutzutage verschiedene Arten von menschlichen Aktivitätstrackern oder Überwachungssystemen. Daher waren viele Forscher an diesem Thema interessiert und haben verschiedene Überwachungssysteme basierend auf Beschleunigungssensoren vorgeschlagen. Allerdings konzentrieren sich nur wenige Systeme auf den Energieverbrauch von Sensorgeräten. In diesem Artikel konzentrieren wir uns auf eine Lösung auf Anwendungsebene zur Einsparung des Energieverbrauchs eines Überwachungssystems für die tägliche Aktivität eines Menschen unter Verwendung eines drahtlosen tragbaren Sensors. Wir schlagen einen integrierten Datenverarbeitungsmechanismus zur Überwachung der täglichen Aktivitäten des Menschen vor. Diese Technik konzentriert sich darauf, die Größe der verarbeiteten Daten und die Übertragungsrate zu reduzieren, um die Energie der Sensoren zu sparen. Darüber hinaus entwickeln wir einen Aktivitätsklassifizierungsalgorithmus, der sowohl auf einem Neigungswinkel als auch auf einem Standardabweichungswert basiert. Das vorgeschlagene System ist in der Lage, die meisten täglichen Aktivitäten des menschlichen Körpers zu überwachen: Stehen, Sitzen, Gehen, Liegen, Laufen usw. Darüber hinaus ist einer unserer wichtigsten Beiträge, dass alle Funktionalitäten einschließlich Datenverarbeitung, Aktivitätsklassifizierung, drahtlose Kommunikation und Speicherung klassifizierter Aktivitäten in einem einzigen Sensorknoten erreicht wurden, ohne die Genauigkeit der Aktivitätsklassifizierung zu beeinträchtigen. Unsere experimentellen Ergebnisse zeigen, dass die Genauigkeit unseres Klassifikationssystems über 95 % liegt.;-;-;-;https://link.springer.com/article/10.1007/s11277-016-3321-x ddce28d16442603111e7e281f84364f6;de;;;2.1.;;;Neue Alternativen zur Chemotherapie bei fortgeschrittener Erkrankung: Gentransfer Bauchspeicheldrüsenkrebs bleibt eine der am schwierigsten wirksam zu behandelnden Krebsarten. Es ist einer der größten Krebskiller mit allgemein schlechten Überlebensraten. Es fordert über 6.500 Menschenleben pro Jahr in Großbritannien,;-;-;-;https://link.springer.com/chapter/10.1007/978-1-85233-904-3_9 abc624f69b9ab22e1d9bed0cd6554a1b;de;;;2.1.;;;Immunhistochemischer Nachweis von phosphorylierten JAK-2- und STAT-5-Proteinen und Korrelation mit dem Expressionsstatus des Erythropoietin-Rezeptors (EpoR) in menschlichen Hirntumoren Phosphorylierte (aktivierte) Formen der Janus-Kinase 2 (pJAK-2) und des STAT-5-Transkriptionsfaktors (pSTAT-5), die bevorzugt nach der Bindung von Erythropoietin (Epo) an seinen Rezeptor EpoR exprimiert werden, sind bekanntermaßen an der molekularen Mechanismen, die die Gehirnentwicklung steuern. Der Zweck dieser Studie war es, die Expression dieser Proteine ​​(pJAK-2, pSTAT-5 und EpoR) in menschlichen Hirntumoren im Vergleich zu normalen Gehirnen zu untersuchen. Mittels spezifischer Antikörper und Immunhistochemie an formalinfixierten, paraffineingebetteten semiseriellen Gewebeschnitten wurden insgesamt 87 humane Hirntumore und Proben aus normalem Hirngewebe untersucht. Eine nukleäre Koexpression von pJAK-2/pSTAT-5 wurde in 39 % der Astrozytome, 43 % der Oligodendrogliome, 50 % der Ependymome und bei allen (100 %) der untersuchten Medulloblastome nachgewiesen. Im Gegensatz dazu zeigten die meisten Meningeome eine schwache oder keine Immunreaktivität für pJAK-2/pSTAT-5-Proteine. Ein signifikanter Prozentsatz von Tumoren zeigte pSTAT-5-Immunreaktivität, da er pJAK-2 immunnegativ war. Die Koexpression von EpoR/pJAK-2/pSTAT-5 wurde in einem kleinen Prozentsatz von Astrozytomen (18 %) und Ependymomen (33 %) nachgewiesen. Oligodendrogliome und Medulloblastome waren EpoR-immunnegativ. Tumorgefäße zeigten EpoR-, pJAK-2- und pSTAT-5-Immunreaktivität. In normalem Hirngewebe wurde die EpoR-Immunreaktivität in Neuronen und Gefäßen nachgewiesen, während die Immunreaktivität von pSTAT-5 und pJAK-2 auf einige Neuronen bzw. einige Gliazellen beschränkt war. Diese Ergebnisse weisen auf die Existenz einer Liganden (anders als Epo)-abhängigen oder unabhängigen JAK-2-Aktivierung hin, die in den meisten menschlichen Hirntumoren zu einer konstitutiven Aktivierung von STAT-5 führt. Angesichts des onkogenen Potenzials des JAK/STAT-Signalwegs kann der Nachweis unterschiedlicher pJAK-2- und pSTAT-5-Expressionsprofile zwischen Tumorgruppen Unterschiede im biologischen Verhalten der verschiedenen menschlichen Hirntumoren widerspiegeln.;-;-;-;https://link.springer.com/article/10.1007/s11060-010-0156-2 e9c5661393ebe87213e4790a4289edf5;de;;;2.1.;;;Qualitätssicherung heterogener Anwendungen: Der SODALITE-Ansatz Ein Schwerpunkt des SODALITE-Projekts liegt darin, die Qualität und Leistung der Bereitstellung von Anwendungen in heterogenen Cloud- und HPC-Umgebungen sicherzustellen. Es bietet eine Reihe von Tools zum Erkennen und Korrigieren von Fehlern, Gerüchen und Fehlern in den Bereitstellungsmodellen und ihren Bereitstellungsworkflows sowie ein Framework zum Überwachen und Refaktorieren von Bereitstellungsmodellinstanzen zur Laufzeit. In diesem Papier werden Ziele, Designs, frühe Ergebnisse des Qualitätssicherungsrahmens und des Refactoring-Rahmens vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71906-7_16 44809a0ed0679d4f41d3cba5d3b3fc9a;de;;;2.1.;;;Erkennung von Störungen der Netzqualität basierend auf S-Transformation und probabilistischem neuronalem Netzwerk Die Erkennung von Power Quality (PQ)-Ereignissen ist der wichtigste Forschungsbereich der Power Quality Control. In diesem Beitrag wird ein neuartiges Hochleistungsklassifikationssystem basierend auf S-Transformation und probabilistischen neuronalen Netzen vorgeschlagen. Zunächst verarbeitet S-Transform die ursprünglichen PQ-Signale in eine komplexe Matrix namens S-Matrix. Die Zeit- und Frequenzmerkmale des Störsignals werden aus der S-Matrix extrahiert. Dann wird die ausgewählte Teilmenge von Merkmalen als Eingabevektor des Klassifikators verwendet. Schließlich wird der probabilistische neuronale Netzklassifizierer durch die simulierten Simples trainiert und getestet. Die Simulationsergebnisse zeigen die Wirksamkeit des neuen Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15853-7_26 012065aadc8f39560b435a0d633c2bb2;de;;;2.1.;;;Klassifizierung von missbräuchlichen Kommentaren in sozialen Medien mithilfe neuronaler Netze Soziale Medien sind zunehmend schädlichen Verhaltensweisen ausgesetzt, beispielsweise privaten Übergriffen und Cybermobbing. Daher würde die Automatisierung des Prozesses zur Identifizierung der missbräuchlichen Kommentare und deren Blockierung nicht nur Zeit sparen, sondern auch den Benutzern Sicherheit bieten. Unser Projekt konzentriert sich darauf, dieses Problem durch den Einsatz von Deep-Learning-Techniken zu lösen. Der Twitter-Datensatz wird verwendet, um das Modell zu trainieren. Die Kommentare werden unter Verwendung des Convolutional Neural Network (CNN)-Modells als missbräuchlich und nicht missbräuchlich klassifiziert. Dieses Projekt ist somit in der Lage, missbräuchliche Inhalte in sozialen Medien automatisch zu erkennen und zu moderieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5113-0_33 40c585696b64eec7cb88151c328a3325;de;;;2.1.;;;Eine auf Graphtransformationen basierende Semantik für die Tiefenmetamodellierung Metamodellierung ist eine der Säulen des Model-Driven Engineering, die für Language Engineering und Domänenmodellierung verwendet wird. Obwohl die Metamodellierung traditionell auf einem zweistufigen Ansatz basiert, haben mehrere Forscher auf die Grenzen dieser Lösung hingewiesen und eine Alternative vorgeschlagen an;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34176-2_4 54483f8a32fd27133a9f7fb553d3a27e;de;;;2.1.;;;Sekundäre Mykosen in der Chirurgie: Behandlung mit Fluconazol Zusammen mit der Schwere der Grunderkrankung gewinnen mykotische Infektionen bei chirurgischen Intensivpatienten zunehmend an Bedeutung. 26 Patienten mit schweren inneren mykotischen Infektionen wurden in einer offenen klinischen Studie mit Fluconazol behandelt. Die isolierten Erreger waren;-;-;-;https://link.springer.com/article/10.1007/BF01646895 9258dda14e9258d23b3654d14291ed64;de;;;2.1.;;;Auswirkungen der Prägung auf die frühe Entwicklung von Mausembryonen In den letzten zehn Jahren hat sich aus Studien über das Schicksal parthenogenetischer (oder gynogenetischer) Embryonen und ihrer androgenetischen Gegenstücke ein großer Fortschritt im Verständnis der Entwicklung embryonaler und extraembryonaler Abstammungslinien von Säugetieren ergeben. Diploide Parthenogenoten, die durch experimentelle Aktivierung von Maus-Oozyten produziert werden, entwickeln sich bis zur Mitte der Schwangerschaft, dann sterben sie mit einem charakteristischen Phänotyp: Die am weitesten fortgeschrittenen Embryonen haben eine umfangreiche Entwicklung der axialen embryonalen Strukturen (Gehirn und Neuralrohr, Somiten) und anderer embryonaler Organe, aber nur rudimentäre Entwicklung der Trophoblastenlinie (1).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-9317-7_16 f64390407587443da11cdee387d79e30;de;;;2.1.;;;Tiefer in das Samenproteom eintauchen: Vorfraktionierung von Gesamtproteinen Samen sind aus vielen Gründen ein übliches experimentelles System. Unter diesen: (i) nehmen sie eine wichtige Nische in der Landwirtschaft und der menschlichen Ernährung ein, (ii) sind eine reiche Quelle kritischer genetischer Informationen und (iii) sie sind ein nahezu ideales System für das Studium der Phytohormonwirkung oder des Übergangs von Ruhe oder Ruhe bis hin zu aktivem Wachstum und Entwicklung. Ein wichtiger Bestandteil all dieser Überlegungen ist das Vorkommen der sehr häufig vorkommenden Samenspeicherproteine ​​(SSP). Einerseits macht der hohe Proteingehalt der Samen sie zu attraktiven Untersuchungsobjekten, doch die SSP selbst sind für Proteomics-Analysen ein Gräuel. Ohne irgendeine Art der Entfernung von SSP vor der Behandlung werden sie praktisch die einzigen Proteine ​​sein, die in Schrotflinten-Proteomikanalysen identifiziert wurden. Hier beschreiben und vergleichen wir verschiedene Methoden, die häufig verwendet werden, um SSP-Proben zu dezimieren, präsentieren die relativ neue Anwendung von kombinatorischen Liganden-Zufalls-Peptid-Bibliotheken auf Saat-Proteomikstudien und spekulieren kurz über die kurzfristige Zukunft.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-4749-4_14 a293f2d114f5a7d4575e9e4c7107d8b2;de;;;2.1.;;;Mechanik und Rheologie von Holz Elastizität bedeutet, dass Verformungen, die durch geringe Spannungen in einem Festkörper erzeugt werden, nach der Entlastung vollständig wiederhergestellt werden. Die elastischen Eigenschaften sind charakteristisch für Festkörper unterhalb einer bestimmten Spannungsgrenze, oberhalb dieser Grenze treten plastische Verformungen oder Versagen auf. Offenbar ist die Elastizitätsgrenze eine ziemlich willkürliche Vorstellung. Bei Holz ist auch der Einfluss hygroskopischer Feuchtigkeit wichtig. Kleine elastische Verformungen, die über einen bestimmten Zeitraum auferlegt werden, können zu plastischen Verformungen werden. Wenn die Verformungen zunehmen, können Holzbauteile schnell versagen, da keine Spannungen wie bei Stahl nachgeben. Die Beziehungen zwischen elastischen Verformungen bzw. Dehnungen und Spannungen innerhalb bestimmter Spannungsgrenzen sind daher von großer Bedeutung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-87928-9_7 8c0ab63212b243380c9161541fc38500;de;;;2.1.;;;Ein Überblick über die formale Semantik Mein Ziel in diesem Aufsatz ist es, einen Überblick über einige der wichtigsten Ergebnisse zu geben, die auf dem Gebiet der formalen Semantik erzielt wurden. Diese Ergebnisse werden aus Sicht des Logikers informell formuliert, d. h. bei deren Angabe wird kaum oder gar keine präzise formalisierte Sprache verwendet (wobei wir natürlich über solche Sprachen sprechen werden). Diese Ergebnisse werden jedoch so genau wie möglich in einer nicht formalisierten Sprache angegeben. Zusammenfassend werden meine Aussagen zu diesen Ergebnissen meiner Meinung nach einen repräsentativen Überblick über das Erreichte auf dem Gebiet der formalen Semantik darstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-3603-0_10 00797b855fb1eff465177f3c183c5ac7;de;;;2.1.;;;Ermöglichen der Zusammenarbeit von IoT-Geräten, um älteren Menschen in ihrem täglichen Leben zu helfen Ältere Menschen haben das Klischee, technologiefeindlich zu sein, aber sie gehören zu den Gruppen, die am meisten von den jüngsten technologischen Fortschritten profitieren können. Das Internet der Dinge (IoT) ist eine der neuen Technologien, die das Leben der Menschen erleichtern, Aufgaben automatisieren oder leichter ausführen wollen. Intelligente IoT-Geräte bieten älteren Menschen immer mehr Möglichkeiten, aktiv, unabhängig und sicher zu bleiben. Darüber hinaus erhöht die Zusammenarbeit zwischen intelligenten Geräten die Möglichkeiten, die das IoT bietet, sodass es besser genutzt werden kann. Leider ist diese Zusammenarbeit angesichts der unterschiedlichen Gerätetypen auf dem Markt und des Fehlens von Kommunikationsstandards nicht einfach. Um dieses Problem zu mildern, haben sich auf dem Semantic Web basierende Lösungen als vielversprechend erwiesen, die die Interoperabilität zwischen verschiedenen Geräten durch die Darstellung und die Beziehung ihrer Informationen erleichtern. In diesem Beitrag schlagen wir ein System vor, das die Interoperabilität zwischen Smart Devices in den Anwendungsdomänen Gesundheitswesen und Smarthome durch den Einsatz von Semantic Web und Ontologien verbessert. Diese Lösung ermöglicht eine proaktive Zusammenarbeit zwischen intelligenten Geräten, die ältere Menschen unabhängig von der verwendeten Technologie um sich herum haben, um ihre Lebensqualität durch eine effektivere und effizientere Überwachung zu erhöhen und Maßnahmen zu fördern, die ihren Bedürfnissen entsprechen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-41494-8_11 81b8c49ee16d2841973a317d23ba0a53;de;;;2.1.;;;Prävalenz von Anämie bei Erwachsenen im Capital Governorate in Kuwait Anämie, definiert durch einen niedrigen Hämoglobinspiegel, gilt als ein großes Problem der öffentlichen Gesundheit, das erhebliche Auswirkungen auf die lebenslange Gesundheit hat. Im Jahr 2014 gab das Kuwait Nutrition Surveillance System an, dass die Prävalenz der Anämie bei erwachsenen Männern 9,7 % und bei erwachsenen Frauen 32,7 % betrug. Diese Studie zielte darauf ab, die Prävalenz und Klassifikation von Anämie bei erwachsenen Patienten zu ermitteln, die das Capital Governorate Hospital in Kuwait aufsuchen. Es handelt sich um eine retrospektive datensatzbasierte Studie. An der Studie nahmen Patienten (im Alter von 18 bis 60 Jahren) teil, die von Januar 2014 bis Dezember 2018 an OPD des Amiri Hospital und an angeschlossenen Primärversorgungszentren teilnahmen zur WHO-Klassifikation. Diese Studie zeigte, dass Anämie bei der kuwaitischen Bevölkerung häufiger vorkommt als bei Nicht-Kuwaitis. Der maximale Anteil der anämischen Personen gehörte zum mittleren und leichten Bereich der Anämie, ein sehr geringer Anteil wurde im schweren Bereich gefunden. Die Inzidenz von Anämie war bei Frauen signifikant höher als bei Männern (16–17% der Frauen und 4–5% der Männer im mittleren Bereich, 16–18% der Frauen und 10–11% der Männer im leichten Bereich, 2 .). –3,3 % der Frauen und 0,8–1,1 % der Männer im schweren Bereich). Ein altersbezogener Vergleich der Daten zeigte, dass Anämie bei den älteren Altersgruppen häufiger auftrat. Die Prävalenz von Anämie ist in Kuwait recht hoch, daher sind weitere Studien und Interventionen für bestimmte gefährdete Gruppen – insbesondere für Frauen und Menschen aus höheren Altersgruppen – erforderlich, um das Anämierisiko zu verringern.;-;-;-;https://link.springer.com/article/10.1007/s42399-019-00205-y 19bf504e559bf12c638235d716304dca;de;;;2.1.;;;Organisation des hypothalamischen Bereichs des Zwischenhirns bei den Stören Die Zytoarchitektonik des hypothalamischen Bereichs des Zwischenhirns der Störe wurde in Reihenschnitten mit Techniken der Nissl-Färbung und Bielschowski-Imprägnierung in Viktorovs Modifikation untersucht. Es wurde gezeigt, dass der Hypothalamus der am weitesten ausgedehnte Bereich des Zwischenhirns ist und den am weitesten ventralen Teil bildet. Das hypothalamische Areal von vier untersuchten Stören, dem hausen,;-;-;-;https://link.springer.com/article/10.1134/S0022093006030148 d86979f901b257696354f58095e40efa;de;;;2.1.;;;Multi-Experten-Systeme In diesem Beitrag wird ein Multi-Experten-Klassifikationssystem (MECS) vorgeschlagen, das aus zwei Hauptteilen besteht, die die sogenannte mehrstufige Klassifizierung (MSC) und die Multi-Experten-Klassifikation (MEC) durchführen. Ersteres (MSC) liefert entweder richtige Entscheidungen oder die Antworten „Ich weiß nicht“ (IDNK), sodass es keine Fehlklassifizierungen gibt. Letzteres (MEC) ist ein paralleles System, das verschiedene Klassifikatoren für die vom MSC-System nicht klassifizierten Objekte enthält (was zu den IDNK-Antworten führt). Ein medizinisches Diagnosebeispiel veranschaulicht den wahrnehmungsbasierten Ansatz, der im MSC-System verwendet wird, und die Notwendigkeit der Anwendung des MEC-Systems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24669-5_85 5e549954502c93876d1bf0d10ee67eb8;de;;;2.1.;;;Semantische Glaubensfusion Die Vorteile von Semantic-Web-Technologien für die Wissensmodellierung und Argumentation sind gut bekannt. Es gibt jedoch noch einige gravierende Mängel, um mit der Unsicherheit umzugehen, die für viele Anwendungen heutzutage eine wesentliche Voraussetzung ist. Dieser Artikel stellt einen Rahmen für die Fusion semantischer Überzeugungen vor. Es bietet Mittel zur Darstellung unsicherer ontologischer Instanzen und bietet eine Möglichkeit, dieses Wissen zu folgern. Unsichere Instanzen können sowohl unsichere Klassen als auch Eigenschaften haben. Verschiedene Quellen bevölkern dieselbe Ontologie, je nach ihrem eigenen Glaubensstand. Je mehr Berichte über dasselbe unsichere Phänomen wir sammeln, desto wahrscheinlicher wird eine genaue und genaue Beschreibung dieses Phänomens erhalten. Die Beweistheorie wird verwendet, um diese unsicheren semantischen Informationen zu verschmelzen. Dazu werden Begriffe von semantischer Inklusion und Disjunktheit zwischen ontologischen Instanzen eingeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31709-5_50 b1251de291dcf21190530017b3b92434;de;;;2.1.;;;Design eines semantischen Dienstes für das Management von Multi-Domain-Health-Alarmen Das Alarmmanagement ist eine wesentliche Fähigkeit von Gesundheitsinformationssystemen, aber eine ineffiziente Verbreitung von Alarmen führt zu Unwissenheit und Ermüdung des Gesundheitspersonals. Die meisten Initiativen in diesem Bereich konzentrieren sich auf bestimmte Szenarien oder Systeme, die das gesamte Gesundheitsumfeld außer Acht lassen, und es sind ausgefeiltere Alarmsysteme erforderlich, um die Komplexität dieses Bereichs zu bewältigen. Die Einführung von Personalisierungs- und Kontextbewusstseinskonzepten in diesem Bereich kann die Verbreitung von Alarmbenachrichtigungen an die richtigen Benutzer auf die am besten geeignete Weise erleichtern. In dieser Arbeit wird ein Dienst zur Benachrichtigung von Gesundheitsalarmen entwickelt, der Profile von medizinischem Fachpersonal, Alarmmerkmale und Kontextbedingungen verwalten und kombinieren kann. Es basiert auf semantischen Technologien, um die Interoperabilität von Systemen zu fördern und ein Multi-Domain-Framework zu etablieren. Insbesondere werden Merkmale professioneller Benutzer, Alarme und Kontext in einer OWL-Ontologie abgedeckt, und die Benutzerpräferenzen und -profile werden durch SWRL-Regeln kodifiziert. Wenn ein Ereignis eintritt, begründet der Dienst die Benutzerprofile und Kontextbedingungen, um die Benachrichtigung an die Benutzer (sofern vorhanden) zu verteilen, die bereit sind, sie zu erhalten, indem der jeweils am besten geeignete Kanal ausgewählt und die Benachrichtigung an die Empfangsgerät/en jeweils. Das angegangene Design ist unabhängig von der zugrunde liegenden Technologie und kann auf verschiedene Technologien übertragen werden, die im Mittelpunkt der zukünftigen Arbeit stehen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-00846-2_319 0fb9e525503d32172596fb1c6f248c43;de;;;2.1.;;;DHSR: Ein neuartiger Ansatz zur semantischen Retrieval für ubiquitäre Multimedia Semantische Funktionen sind kritische Intelligenzinformationen für mobiles, allgegenwärtiges Multimedia. Wie die semantischen Informationen verwaltet und abgerufen werden, war ein wichtiges Thema. In diesem Beitrag wird ein neuartiger semantischer Retrieval-Ansatz namens Data Hiding based Semantic Retrieval (DHSR) für ubiquitäre Multimedia vorgeschlagen. Dieser Ansatz besteht aus den folgenden Merkmalen: (1) Jedes Multimediadokument muss von mehreren Benutzern semantisch kommentiert werden, bevor es in einer Multimediadatenbank gespeichert wird. (2) Durch die Objektontologie beschriebene semantische Informationen werden in den Multimediadokumentdaten verborgen. (3) Semantische Informationen gehen auch dann nicht verloren, wenn das Multimediadokument kopiert, ausgeschnitten oder aus der Datenbank entfernt wird. Unsere Arbeit bietet eine Suchmaschine mit komfortablen Benutzeroberflächen. Die experimentellen Ergebnisse zeigen, dass DHSR im Vergleich zu einigen herkömmlichen Ansätzen die Multimediadokumente, die die Abfrageabsicht der Benutzer widerspiegeln, effektiver durchsuchen kann.;-;-;-;https://link.springer.com/article/10.1007/s11277-013-1327-1 1e59c62387cd775bf623aaf33a5d6820;de;;;2.1.;;;Struktur, Aufbau und Funktion von Ribosomen Das „zentrale Dogma“ der Molekularbiologie wurde vor etwa 25 Jahren formuliert: „DNA macht RNA, RNA macht Protein“ (Crick 1958). Wenn wir einige Erweiterungen dazu einbauen, wie die reverse Transkription (reverse Transkriptase transkribiert auf der RNA vorhandene Informationen in DNA, für einen Überblick siehe Gilboa et al. 1979) und die Replikation einiger RNA-Phagen oder Viren durch RNA-abhängige RNA-Polymerase, ist Dogma entwickelt sich zu dem in Abb. 1 gezeigten Schema.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-68318-3_3 4cec559ff90175c5874da6c698ba94ca;de;;;2.1.;;;Albisch-paläozäne Flora des Nordpazifiks: Systematischer Aufbau, Paläofloristik und Phytostratigraphie Das Hauptaugenmerk liegt auf der Phytostratigraphie und der vergleichenden Paläofloristik der Subregionen Anadyr-Koryak (AKSR) und Nordalaska (NASR) im Nordpazifik. Die hochauflösenden phytostratigraphischen Schemata dieser Subregionen aus dem Oberalbisch-Paläozän basieren auf wahrgenommenen Stadien ihrer Blütenentwicklung. In der AKSR umfasst das Schema sieben Unterteilungen von subregionaler Ausdehnung: der Frühe Ginter (Oberalbisch), Grebenka (Oberalbisch-Cenomanisch-Unterturonisch), Penzhina (Oberturonisch), Kaivayam (Coniacian), Barykov (Santonian-Unter- bis Kampanische), Gornorechenium (?oberes Kampanisch-unteres Maastrichtium) und Koryak (unteres bis oberes Maastricht-?Dänisches) phytostratigraphischer Horizont. Das phytostratigraphische Schema der NASR umfasst drei subregionale phytostratigraphische Horizonte und fünf pflanzentragende Beete. Dies sind die Horizonte Kukpowruk (?unteres bis mittleres?oberes Albium), Niakogon (oberes Albian-Cenoman), Kaolak (Turonium) und Schichten mit den Tuluvak (Coniacium), Early Kogosukruk (oberes Santoni-Kampanien), Late Kogosukruk (Campanian -Maastrichtian), Early Sagwon (Danian-Selandian) und Late Sagwon (Selandian-Thanetic) Floren. Die vergleichende Analyse von gleichaltrigen (oder gleichaltrigen) Floren, die in der AKSR und NASR unterschieden wurden, zeigt, dass sie entweder einander ähnlich sind (Floren Early Ginter und Kukpowruk, Grebenka und Niakogon, Penzhina und Kaolak, Koryak und Early Sagwon) oder unterschiedliche in systematische Komposition (Floras Kaivayam und Tuluvak, Gornorechenian und Kogosukruk). Ähnlichkeiten zwischen den Floren deuten darauf hin, dass sich Pflanzenverbände zweier Subregionen unter vergleichbaren klimatischen Bedingungen entwickelten und während des Albian-Turoniums und des Maastrichtian-Paläozäns frei über die Bering-Landbrücke miteinander kommunizierten. Flora der AKSR und NASR, die unterschiedlich zusammengesetzt sind, gab es in bestimmten geologischen Zeitabschnitten, als transberingische Pflanzenwanderungen aufgrund paläoklimatischer Unterschiede zwischen den Subregionen eingeschränkt oder sogar eingestellt wurden. Floras der AKSR und NASR überlebten die Krise an der Kreide-Paläogen-Grenze ohne wesentliche evolutionäre Konsequenzen, was die Hypothese einer globalen ökologischen Krise an dieser Grenze nicht unterstützt. Aus der Analyse der arktischen Endkreideflora und des Paläoklimas schließen wir, dass die großen nordalaskischen Dinosaurier aus Mangel an Ressourcen (Nahrung und Unterkunft) dazu getrieben wurden, 1200–1300 Kilometer nach Süden zu wandern, um Futter, wärmere Temperaturen und bessere Lichtverhältnisse zu finden bevor der Winter einsetzt. Es wird ein Szenario der albisch-späten Kreide-Florogenese in der Nordpazifik-Region vorgeschlagen. Ein Hauptgrund für die Florogenese der Albian-Spätkreide war die allmähliche Invasion neuer angiospermenreicher Pflanzengemeinschaften in das asiatische Kontinentalinnere und ein Ersatz der bereits bestehenden Vegetation, die von alten Farnen und Gymnospermen dominiert wurde. Pflanzenfossilien, die mesophytische und kenophytische Gemeinschaften repräsentieren, vermischen sich normalerweise nicht in den einzelnen Assemblagen.;-;-;-;https://link.springer.com/article/10.1134/S0869593813070034 72bada35e406b44a0bd4bd148cea3d16;de;;;2.1.;;;Kontext und Granularität Granularität ist einer der Kernaspekte des Kontexts. Dieses Kapitel gibt einen Überblick über drei Perspektiven der Granularität – größenbasierte Granularität, partitionsbasierte Granularität, Granularität beim kontextuellen Denken – und diskutiert ihre Wechselbeziehung. Der Autor identifiziert drei Arten von Granularität: Wahrnehmungsgranularität bezieht sich auf die Tatsache, dass jedes Wahrnehmungssystem eine bestimmte begrenzte Auflösung hat, konzeptionelle Granularität zeigt an, dass die Kategorien, in denen wir denken, an Granularitätsebenen gebunden sind, physikalische Granularität schließlich bezieht sich auf die Strukturen , Größen und Dichten, die in der physischen Welt existieren. In diesem Kapitel wird das Wechselspiel zwischen den drei Arten von Granularität diskutiert und wie die Wahrnehmungsgranularität für die Evolution der Kognition von grundlegender Bedeutung gewesen sein könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4939-1887-4_28 35fbbb5016aa19e8e29bac187e49e600;de;;;2.1.;;;Auflösung von lexikalischen Mehrdeutigkeiten für Türkisch in Modellen der maschinellen Übersetzung mit Direktübertragung In diesem Beitrag wird eine Methode zur Auflösung statistischer lexikalischer Mehrdeutigkeiten in Modellen der maschinellen Übersetzung mit Direktübertragung vorgestellt, bei denen die Zielsprache Türkisch ist. Da MT-Modelle mit direkter Übertragung keine vollständigen syntaktischen Informationen haben, sind die meisten lexikalischen Mehrdeutigkeitsverfahren nicht sehr hilfreich. Unser Begriffsklärungsmodell basiert auf statistischen Sprachmodellen. Wir haben die Leistung einiger statistischer Sprachmodelltypen und Parameter bei der lexikalischen Mehrdeutigkeitsauflösung für unser Direktübertragungs-MT-System untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/11902140_26 a7318246ff9be29a93b258b60931598b;de;;;2.1.;;;Beitrag zur Revision einiger spätkallovischer Serpuliden (Annelida, Polychaeta) Zentralrusslands: Teil 1 Vertreter der Familien Serpulidae und Sabellidae aus dem Oberkallovium der Lokalität Peski (Region Moskau) werden nach dem aktuellen Stand der überspezifischen Systematik beschrieben. Arten der Gattungen;-;-;-;https://link.springer.com/article/10.1134/S0031030107030057 250a5832a19f72959a02c917ea36a6fc;de;;;2.1.;;;Desmids aus der Auvergne (Frankreich) Das derzeitige Vorkommen und die Verbreitung von Desmiden in der französischen Auvergne wurde untersucht. 27 Proben aus verschiedenen Habitaten ergaben das Vorkommen von 280 Taxa, die zu 251 Arten gehören, von denen 120 noch nicht aus dieser Region erfasst wurden.;-;-;-;https://link.springer.com/article/10.1007/BF00016347 3ad0a301ae71000f4b1e5e8d132983a8;de;;;2.1.;;;Strukturierte Fälle, Bäume und effizientes Retrieval Es wird ein Satz effizienter Algorithmen zum Wiederauffinden von Fällen aus einer Fallbasis von Bäumen vorgeschlagen, die sowohl auf Knoten als auch auf Kanten beschriftet sind. Sie erweitern den bekanntesten Algorithmus zur Lösung des Teilbaum-Isomorphismus-Problems. Eine Branch-and-Bound-Technik und eine allgemeine Definition der Ähnlichkeit zwischen Bäumen werden berücksichtigt. Sowohl die Fallstruktur, also die Graphenstruktur, als auch sein semantischer Teil, die Labels, werden bei der Ähnlichkeitsbewertung berücksichtigt. Der Vergleich mit einem herkömmlichen Zustandsraum-Suchalgorithmus auf zufällig generierten Fallbasen zeigt, dass eine signifikante Beschleunigung erzielt werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0056324 e08b09cf47abb8207a8e025ae8e2f40f;de;;;2.1.;;;Angemessenheit von Bodeninformationen aus geopedologischer prädiktiver Bodenkartierung zur Beurteilung der Landdegradation: Fallstudien in Thailand Der Boden ist ein natürlicher Körper, der nicht nur ein Medium für das Pflanzenwachstum ist, sondern auch wichtige Ökosystemleistungen erbringt. Die Bodenkartierung kann zeitaufwändig und teuer sein. In den 1960er und 1970er Jahren trug die Einführung der Luftfotointerpretation in der Bodenvermessung durch Elementanalyse, physiognomische und physiographische Analyse dazu bei, die Kartierungseffizienz zu steigern. In den späten 1980er Jahren verstärkte der geopädologische Ansatz zur Bodenkartierung die Rolle der Geomorphologie. Es hilft, Bodenvariationen in der Landschaft zu verstehen, was die Kartierungseffizienz erhöht. In der vorliegenden Studie wird die Angemessenheit von Bodendaten, die sich aus geopedologiebasierter prädiktiver Bodenkartierung ergeben, zur Beurteilung der Landdegradation an drei Standorten in Thailand bewertet. Das Ergebnis zeigt, dass der geopedologische Ansatz hilft, den Boden in unzugänglichen Berggebieten zu kartieren. Für die Anwendung in Bodendegradationsstudien sind jedoch möglicherweise nicht alle erforderlichen Bodeneigenschaften in einer Bodenkarte verfügbar. Die Auswirkungen von Landbedeckungs- und Landnutzungsmanagementpraktiken auf die Bodeneigenschaften, wie z. B. Porosität und Verdichtung mit Auswirkungen auf die hydraulische Leitfähigkeit, ein Parameter, der bei der Modellierung von Niederschlag-Abfluss-Bodenerosion verwendet wird, wird in der Bodenuntersuchung normalerweise nicht berichtet. Diese Daten müssen gesondert erhoben werden. Bei der Kartierung von Gebieten, die für häufiges Hochwasser anfällig sind, helfen das geomorphologische Verständnis des Flusstals und die Bodencharakterisierung (Fluventic und Aquic) bei der Identifizierung anfälliger Gebiete. In ähnlicher Weise zeigt die Studie, wie der geopädologische Ansatz in Kombination mit digitaler Bildverarbeitung bei der Kartierung der Bodensalzgefahr hilft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19159-1_28 09c0a2e08abf1e8a55ca5000c9c141de;de;;;2.1.;;;Bild-Spam-Klassifizierung mit neuronalen Netzen Spam, eine unerwünschte oder unerwünschte E-Mail, war und ist traditionell eines der schwierigsten Probleme für die Cybersicherheit. Bildbasierter Spam oder Bilder-Spam ist ein neuer Trick der Spammer, der bösartige Bilder in die Textnachricht in einem Binärformat einbettet. Spammer verwenden bildbasiertes Spamming mit der Absicht, die textbasierten Spamfilter zu umgehen. Auf dem Weg zur Erkennung von Bild-Spam wurden mehrere Techniken entwickelt. Diese Techniken sind jedoch anfällig für die neuesten Bilder-Spams und weisen einen Mangel an Kompetenz auf. Um die Einschränkungen der bestehenden Lösungen zu verringern, schlägt dieses Papier einen robusten und effizienten Ansatz für die Bild-Spam-Erkennung unter Verwendung eines maschinellen Lernalgorithmus vor. Unser vorgeschlagenes System analysiert die Dateimerkmale zusammen mit den visuellen Merkmalen des eingebetteten Bildes. Diese Funktionen werden verwendet, um einen Klassifikator basierend auf neuronalen Backpropagation-Netzen zu trainieren, um die E-Mail als Spam oder legitime E-Mail zu erkennen. Die experimentelle Auswertung zeigt die Wirksamkeit des vorgeschlagenen Systems vergleichbar mit den bestehenden Modellen zur Klassifizierung von Bild-Spam.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-28865-9_41 3a6c7662c1076976e29b056c959ae89c;de;;;2.1.;;;Qualitative Modellierung und Analyse des Tierverhaltens Der Beitrag stellt das LABAQM-System vor, das für die Analyse des Verhaltens von Versuchstieren entwickelt wurde. Es basiert auf der qualitativen Modellierung von Tierbewegungen. Wir beschäftigen uns mit der kognitiven Phase der Versuchstierverhaltensanalyse im Rahmen der pharmakologischen Experimente. Das System basiert auf den quantitativen Daten der Tracking-Anwendung und unvollständigem Domänenhintergrundwissen. Das LABAQM-System arbeitet in zwei Hauptphasen: Verhaltenslernen und Verhaltensanalyse. Die Phase des Verhaltenslernens und der Verhaltensanalyse basieren auf Symbolfolgen, die durch die Transformation der quantitativen Daten gewonnen werden. Die Verhaltenslernphase umfasst überwachte Lernverfahren, unüberwachte Lernverfahren und deren Kombination. Wir haben gezeigt, dass das qualitative Verhaltensmodell durch Hidden-Markov-Modelle modelliert werden kann. Die Fusion von überwachten und unüberwachten Lernverfahren führt zu robusteren Modellen charakteristischer Verhaltensweisen, die in der Verhaltensanalysephase verwendet werden.;-;-;-;https://link.springer.com/article/10.1023/B%3AAPIN.0000027765.12621.6f 4b0bd32fd368e86cac7ca28baee8d13f;de;;;2.1.;;;Ähnlichkeitsmessung für heterogene Daten: ein geordneter, wahrscheinlichkeitsbasierter Ansatz In diesem Beitrag schlagen wir eine Lösung für die Ähnlichkeitsmessung für heterogene Daten vor. Die Schlüsselidee besteht darin, die Ähnlichkeit eines gegebenen Attribut-Wert-Paares als die Wahrscheinlichkeit zu betrachten, zufällig ein Wertepaar zu wählen, das weniger ähnlich oder gleich ähnlich in Bezug auf die für Datentypen geeigneten Ordnungsbeziehungen ist. Ähnlichkeiten von Attribut-Werte-Paaren werden dann mit einem statistischen Verfahren in Ähnlichkeiten zwischen Datenobjekten integriert. Die Anwendung unserer Methode in Kombination mit entfernungsbasiertem Clustering auf reale Daten zeigt die Vorzüge unserer vorgeschlagenen Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30214-8_10 9a4f9d6b57580b3d8045f2d627ae1d1f;de;;;2.1.;;;Endemische Evolution von Veröffentlichte Daten zur Schneckenentwicklung im Steinheimer Becken werden aus neodarwinistischer Sicht neu analysiert. Daten aus der Populationsgenetik rezenter Lungentiere werden verwendet, um die komplexe Beziehung von Ökophänotypie, Genetik, Polymorphismus und Artbildung im Steinheimer See zu interpretieren.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0009846 ab286481aa42aaa839851f2a882dada5;de;;;2.1.;;;Kollaborative Zielklassifizierung für die Bilderkennung in drahtlosen Sensornetzwerken Die Zielklassifizierung, insbesondere die visuelle Zielklassifizierung, ist in komplexen Situationen eine Herausforderung für die Bilderkennung in drahtlosen Sensornetzwerken (WSNs). Das verteilte und Online-Lernen für die Zielklassifizierung ist für stark eingeschränkte WSNs von Bedeutung. Dieses Papier stellt einen kollaborativen Zielklassifizierungsalgorithmus für die Bilderkennung in WSNs vor, der die Vorteile der Zusammenarbeit für das Data Mining zwischen Multisensorknoten nutzt. Der vorgeschlagene Algorithmus besteht aus drei Schritten, Zielerkennung und Merkmalsextraktion basieren auf der Einzelsensorknotenverarbeitung, während die Zielklassifizierung durch die Zusammenarbeit zwischen Multisensorknoten unter Verwendung von kollaborativen Support-Vektor-Maschinen (SVMs) implementiert wird. Um die Nachteile der unvermeidlichen fehlenden Rate und falschen Rate bei der Zielerkennung zu überwinden, verwendet die vorgeschlagene kollaborative SVM einen robusten Mechanismus zur adaptiven Stichprobenauswahl, der das inkrementelle Lernen von SVM verbessert, indem nur die Informationen von einem ausgewählten Satz von drahtlosen Sensorknoten zusammengeführt werden. Darüber hinaus wird auch ein progressives verteiltes Framework für kollaboratives SVM eingeführt, um die Zusammenarbeit zwischen Multisensor-Knoten zu verbessern. Experimentelle Ergebnisse zeigen, dass der vorgeschlagene kollaborative Zielklassifizierungsalgorithmus für die Bilderkennung eine Zielklassifizierung schnell und genau mit geringer Überlastung, Energieverbrauch und Ausführungszeit erreichen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73871-8_19 6d175785818a792f1c10993f48f51e1d;de;;;2.1.;;;Eine modellbasierte Slicing-Technik für das Process Mining von Gesundheitsinformationen Process Mining ist eine leistungsstarke Technik, die Ereignisdaten einer Organisation verwendet, um Prozessflussinformationen zu extrahieren und zu analysieren und nützliche Prozessmodelle zu entwickeln. Es ist jedoch schwierig, Process-Mining-Techniken auf Gesundheitsinformationen aufgrund von Faktoren anzuwenden, die sich auf die Komplexität beziehen, die dem Gesundheitsbereich und den zugehörigen Informationssystemen inhärent ist. Zudem bestehen Herausforderungen darin, Ergebnisse von Process Mining und technisch bedingte Probleme bei den Anwendern zu verstehen und sinnvoll darzustellen. Wir schlagen einen modellbasierten Slicing-Ansatz vor, der auf dimensionaler Modellierung und ontologischen Hierarchien basiert, der verwendet werden kann, um den Abstraktionsgrad beim Process Mining zu erhöhen und dadurch die Komplexität und andere Probleme effektiver zu bewältigen. Wir präsentieren auch eine strukturelle Eigenschaft der vorgeschlagenen Slicing-Technik für den Process Mining.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58167-1_6 e971867ad8c013ae31b06466dc19b822;de;;;2.1.;;;Evidenzbasierte klinische Leitlinien in SemanticCT Evidenzbasierte klinische Leitlinien sind Dokumente oder Empfehlungen, die einem strengen Entwicklungsprozess folgen und auf wissenschaftlichen Erkenntnissen höchster Qualität basieren. Evidenzbasierte klinische Leitlinien sind wichtige Wissensressourcen, die in vielen medizinischen Entscheidungsunterstützungssystemen und medizinischen Anwendungen verwendet wurden. In diesem Beitrag stellen wir einen semantischen Ansatz evidenzbasierter klinischer Leitlinien vor. Diese einfache Formalisierung klinischer Leitlinien wurde in SemanticCT integriert, ein semantisch unterstütztes System für klinische Studien. Wir haben mehrere Tools entwickelt, um semantische Daten aus textuellen Richtlinien zu generieren. Wir zeigen, wie sie in SemanticCT für die Anwendungen der Semantic Web-Technologie in medizinischen Bereichen nützlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45495-4_18 be7392688f614aa27e06a4036d6b61c1;de;;;2.1.;;;Konzepte für die reale Modellierung Einfache, intuitive und dennoch leistungsstarke Sprachen werden benötigt, um die reale Welt in der Problemanalysephase der Informationssystementwicklung zu modellieren. Moderne Modellierungssprachen für die reale Welt sind jedoch entweder schwach im Ausdruck oder mit rigorosen Details überladen. Im ersten Fall werden Modelle zu vage, um aussagekräftig zu sein, während im zweiten Fall die Modellierung selbst relativ einfacher dynamischer Systeme zu einer komplexen Aufgabe wird und die Kommunikation mit Endbenutzern kaum erleichtert wird.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-56777-1_17 b4632ddf3d16f5086bb1c48cd1cd38d0;de;;;2.1.;;;Semantikbasierte Prozessanalyse Die weit verbreitete Akzeptanz von Informationstechnologiesystemen und ihre Fähigkeit, Daten über Prozessausführungen zu verfolgen, hat Informationstechnologiedaten für die Analyse von Prozessausführungen verfügbar gemacht. Auf Geschäftsebene ist inzwischen häufig statisches und prozedurales Wissen verfügbar, das zur Analyse und Begründung von Daten genutzt werden kann. In diesem Beitrag möchten wir einen Ansatz bereitstellen, der es Geschäftsanalysten ermöglicht, durch die Kombination von statischen und prozeduralen Aspekten, Geschäfts- und Datenebenen und die Nutzung semantikbasierter Techniken Wissen abzuleiten und es zur Analyse von Systemausführungen zu verwenden. Die vorgeschlagene Lösung wurde unter Verwendung aktueller skalierbarer Semantic-Web-Technologien implementiert, die die Möglichkeit bieten, die Vorteile des semantisch-basierten Denkens mit nicht-trivialen Datenmengen beizubehalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11915-1_15 fc33cbd9fe4a611defc49c1345b4d8d3;de;;;2.1.;;;Ein neuer Ansatz zur Verbesserung der dokumentübergreifenden Wissenssuche mit Wikipedia In diesem Beitrag stellen wir ein neues Modell vor, das das umfangreiche Wissen aus Wikipedia für die dokumentübergreifende Wissenssuche einbezieht. Das hier vorgeschlagene Modell basiert auf unseren zuvor eingeführten Concept Chain Queries (CCQ), einem Spezialfall des Text Mining, der sich auf die Erkennung semantischer Beziehungen zwischen zwei Konzepten über mehrere Dokumente hinweg konzentriert. Wir versuchen, die Einschränkungen von CCQ zu überwinden, indem wir einen semantischen Kernel für Concept Closeness Computing aufbauen, um vorhandenes Wissen im Textkorpus zu ergänzen. Die experimentelle Auswertung zeigt, dass der Kernel-basierte Ansatz beim Ranking wichtiger Ketten, die in den Suchergebnissen gefunden werden, besser abschneidet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38824-8_27 a32c5130b012cb94109e3038dc31ddee;de;;;2.1.;;;Verarbeitung von Social-Media-Daten für das Krisenmanagement in Athena Während einer Krise greifen die Bürger zu ihren Smartphones. Sie berichten, was sie sehen, kommentieren die Meldungen anderer, bieten ihre Hilfe, Unterstützung und Anteilnahme an und erzeugen dabei riesige Datenmengen. Unterdessen versuchen Strafverfolgungsbehörden (LEAs) und Ersthelfer, einschließlich humanitärer Hilfsorganisationen, verzweifelt, ihr eigenes Lagebewusstsein zu verbessern, können dies jedoch schwer tun, insbesondere an Orten, die nicht leicht, schnell oder sicher zu erreichen sind. Da diese nutzergenerierten Inhalte häufig in sozialen Medien veröffentlicht werden, können LEAs diese Ressourcen durch die Analyse dieser Daten erschließen. Es ist jedoch nicht einfach, diese Daten zu verstehen. In diesem Beitrag stellen wir ein System vor, das in der Lage ist, diese Daten durch Kategorisierung und Krisentaxonomien, Klassifikationstechniken und Sentimentanalysen zu verarbeiten und zu analysieren. Diese verarbeiteten Daten können dann den LEAs auf informative Weise präsentiert werden, um ihnen zu ermöglichen, ihr Situationsbewusstsein für die aktuelle Krise zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23276-8_1 a7385d28cbda404c7c672347b3564e14;de;;;2.1.;;;Eine potenzielle Funktion für die Proteinfaltung Eines der schwierigsten Probleme in der Computerchemie ist die Vorhersage der dreidimensionalen Struktur eines Proteinmoleküls allein aufgrund seiner Aminosäuresequenz. Obwohl es mehrere Programme zur Berechnung der empirischen oder quantenmechanischen Energien gibt und es mehr Programme gibt, um entweder die Energie als Funktion der Konformation zu minimieren oder die Dynamik eines Molekülsystems zu simulieren, gelingt es diesen Ansätzen im Allgemeinen nicht, die bekannten nativen Konformation kleiner Proteine ​​und/oder zeigen, dass die native Struktur gegenüber alternativen Konformationen bevorzugt wird. In diesem Artikel präsentieren wir die neueste Erweiterung unserer laufenden Bemühungen, eine empirische Potenzialfunktion zu entwickeln, die korrekt zwischen der nativen und im Wesentlichen allen anderen Konformationen für mehr als ein Protein unterscheidet. Darüber hinaus beinhaltet das Potenzial eine so vereinfachte Beschreibung der Polypeptidkette, dass es Hoffnung gibt, fast das globale Minimum zu lokalisieren, um die globuläre Proteinkonformation vorherzusagen. Die aktuelle potentielle Funktion wurde parametrisiert, um mit den Kristallstrukturen von Crambin und Vogelpankreas-Polypeptid übereinzustimmen, und die so abgeleiteten Parameter sind in der Lage, die nativen Konformationen von Apamin und Mellitin korrekt vorherzusagen. Der Schlüssel zu dieser Errungenschaft ist ein neuartiger nicht differenzierbarer Optimierungsansatz zum Lösen des nichtlinearen Programms zur Bestimmung der Parameter.;-;-;-;https://link.springer.com/article/10.1007/BF01192576 e4e8a942c080f89151582e91e88433c3;de;;;2.1.;;;Automatische Erkennung der Dokumentstruktur von PDF-Dateien Webbasierte Technologie verbreitet und speichert zahlreiche Informationen elektronisch. Heutzutage ist es für Menschen bequemer, Dokumente im Portable Document Format (PDF) zu verwenden, da sie vom Betriebssystem unabhängig sind. Informationen zu PDF-Dokumenten, die im schreibgeschützten Modus sind, gelten jedoch nur für den menschlichen Leser. Darüber hinaus besteht PDF aus einer internen Struktur ohne Tags, die die Extraktionsaufgabe erschwert. Die automatische Detailanalyse und Erkennung von PDF-Dokumentstrukturen, insbesondere von Absätzen und Tabellenbereichen, ist unerlässlich, um relevante Informationen präzise für die Verwendung in anderen Domänenanwendungen zu extrahieren. Eine Kombination aus heuristischem und regelbasiertem Ansatz wird vorgeschlagen, um die Struktur von PDF-Dokumenten automatisch zu erkennen und zu erkennen. Eine experimentelle Studie wurde unter Verwendung einer Sammlung von Bauausschreibungsdokumenten im PDF-Format durchgeführt, um die Leistung des vorgeschlagenen Ansatzes zu testen. Die Genauigkeiten von Präzision, Recall und f-Maßnahmen haben signifikante Ergebnisse bei der Erkennung von Tabellen- und Absatzstrukturen gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22203-0_24 229128dc3a56419e18ad91808a3b5d1e;de;;;2.1.;;;Eine zuverlässige Methode zur Darmkrebsvorhersage basierend auf Merkmalsauswahl und Support Vector Machine Darmkrebs (CRC) ist eine häufige Krebserkrankung, die weltweit für etwa 600.000 Todesfälle pro Jahr verantwortlich ist. Daher ist es sehr wichtig, die entsprechenden Faktoren zu finden und den Krebs genau zu erkennen. Eine rechtzeitige und genaue Vorhersage der Krankheit ist jedoch eine Herausforderung. In dieser Studie bauen wir ein integriertes Modell basierend auf logistischer Regression (LR) und Support Vector Machine (SVM) auf, um das CRC in Krebs- und normale Proben zu klassifizieren. Aus verschiedenen Faktoren, Standort des Menschen, Alter, Geschlecht, BMI und Krebstumortyp, Tumorgrad und DNA des Krebses, wählen wir die wichtigsten Faktoren aus (;-;-;-;https://link.springer.com/article/10.1007/s11517-018-1930-0 18096a9e1b439dfe59999e57cd0ae077;de;;;2.1.;;;Ein C-LSTM mit Aufmerksamkeitsmechanismus zur Kategorisierung von Fragen Die Textkategorisierung spielt eine wichtige Rolle in Text-Mining-Anwendungen wie Kundenservice, Business Intelligence und Datensatzverwaltung. Insbesondere ordnet die Textkategorisierung Inhalte einem Satz vordefinierter Aspekte oder Kategorien zu. In diesem Beitrag schlagen wir ein konvolutionelles Langzeit-Kurzzeitgedächtnis (C-LSTM) mit einem Aufmerksamkeitsmechanismus zur Fragekategorisierung vor. Die CNN-Schicht (Convolutional Neural Network) extrahiert eine Merkmalsrepräsentation auf höherer Ebene aus Eingabedaten. Diese Merkmale werden in ein LSTM-Netzwerk eingespeist, um sequentiell eine Dokument- oder Satzkontextdarstellung zu erstellen. Aufmerksamkeitsmechanismus, der verwendet wird, um dem Output von C-LSTM selektive Aufmerksamkeit zu schenken. Außerdem wurden eine vollständig verbundene Ebene und eine Ausgabeebene oben auf der Aufmerksamkeitsebene hinzugefügt. Wir evaluieren das vorgeschlagene Modell auf dem Frageklassifikationsdatensatz. Die Ergebnisse zeigen, dass das vorgeschlagene C-LSTM mit Aufmerksamkeitsmechanismus übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4301-2_21 a93b0f2e183a6606503f1830698104ce;de;;;2.1.;;;Emotionsklassifizierung basierend auf Gehirnwellen: eine Umfrage Die Gehirnwellen-Emotionsanalyse ist derzeit die innovativste Methode der Emotionsanalyse. Mit dem Fortschritt der Hirnforschung hat sich herausgestellt, dass menschliche Emotionen vom Gehirn produziert werden. Als Ergebnis erscheinen viele Anwendungen, die mit Emotionen in Zusammenhang stehen. Die Analyse von Gehirnwellen-Emotionen verbessert jedoch die Schwierigkeit der Analyse aufgrund der Komplexität menschlicher Emotionen. Viele Forscher verwendeten verschiedene Klassifizierungsmethoden und schlugen Methoden zur Klassifizierung von Gehirnwellen-Emotionen vor. In dieser Arbeit untersuchen wir die bestehenden Methoden der Emotionsklassifikation der Gehirnwellen und beschreiben verschiedene Klassifikationsmethoden.;-;-;-;https://link.springer.com/article/10.1186/s13673-019-0201-x 04dd81d1ac6003179b298f28467d623e;de;;;2.1.;;;Quantitative feinkörnige menschliche Bewertung maschineller Übersetzungssysteme: eine Fallstudie zum Englischen ins Kroatische Dieses Papier präsentiert einen quantitativen, feingranularen manuellen Bewertungsansatz zum Vergleich der Leistung verschiedener maschineller Übersetzungssysteme (MT). Wir bauen auf der etablierten Fehlertaxonomie der multidimensionalen Qualitätsmetriken (MQM) auf und implementieren eine neuartige Methode, die bewertet, ob die Leistungsunterschiede für MQM-Fehlertypen zwischen verschiedenen MT-Systemen statistisch signifikant sind. Wir führen eine Fallstudie für Englisch-Kroatisch durch, eine Sprachrichtung, die die Übersetzung in eine morphologisch reiche Sprache beinhaltet, für die wir drei MT-Systeme vergleichen, die verschiedenen Paradigmen angehören: rein Phrasen-basiert, faktorisiert Phrasen-basiert und neuronal. Zunächst entwerfen wir eine MQM-konforme Fehlertaxonomie, die auf die relevanten linguistischen Phänomene slawischer Sprachen zugeschnitten ist, die den Annotationsprozess machbar und genau macht. Fehler in MT-Ausgaben wurden dann von zwei Annotatoren nach dieser Taxonomie kommentiert. Anschließend führten wir eine statistische Analyse durch, die zeigte, dass das leistungsstärkste System (neural) die Fehler des schlechtesten Systems (rein Phrasen-basiert) um mehr als die Hälfte (54 %) reduziert. Darüber hinaus führten wir eine zusätzliche Analyse von Übereinstimmungsfehlern durch, bei der wir zwischen Kurz- (Phrasenebene) und Langstreckenfehlern (Satzebene) unterschieden. Wir entdeckten, dass Phrasen-basierte MT-Ansätze für Fernübereinstimmungsphänomene von begrenztem Nutzen sind, für die sich neuronale MT als besonders effektiv herausstellte.;-;-;-;https://link.springer.com/article/10.1007/s10590-018-9214-x b02a80845c3d3cc7b898f5e06e1d732d;de;;;2.1.;;;Hierarchische kompositorische Darstellungen der Objektstruktur Visuelle Kategorisierung ist seit mehreren Jahrzehnten ein Bereich intensiver Forschung in der Vision Community. Letztlich geht es darum, immer mehr Objektklassen effizient zu erkennen und zu erkennen. Das Problem umfasst drei stark miteinander verbundene Themen: die interne Objektdarstellung, die die visuelle Variabilität von Objekten kompakt erfassen und über jede Klasse gut verallgemeinern sollte, ein Mittel zum Erlernen der Darstellung aus einer Menge von Eingabebildern mit möglichst wenig Überwachung effektiver Inferenzalgorithmus, der die Objektdarstellung robust mit dem Bild abgleicht und günstig mit der Anzahl der Objekte skaliert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34166-3_3 7056c1dc2038fb01a6f659440178e8c8;de;;;2.1.;;;Erste Schritte zur Entwicklung einer formalen Methode zur Bewertung der Komplexität von Concept Maps aus systemischer Sicht Ein Vorteil intelligenter Tutoring-Systeme (ITS) ist ihre Fähigkeit, sich an den aktuellen Wissensstand jedes Lernenden anzupassen, indem sie ihm/ihr in der aktuellen Lernphase am besten geeignete Aufgaben anbieten. Das Hauptproblem ist die Einschätzung des Schwierigkeitsgrades der Aufgabe, was in der Regel subjektiv erfolgt. Der Beitrag stellt erste Ergebnisse der laufenden Forschung vor, deren Endziel es ist, die formale Methode zur Bewertung des Grades der konzeptkartenbasierten Aufgabenschwierigkeit zu entwickeln. Die Grundidee besteht darin, die vier Aspekte, die zur Schätzung der Systemkomplexität verwendet werden, zu interpretieren und zur Bewertung der Komplexität der Concept Map (CM) zu verwenden – die Anzahl der Systemelemente und Beziehungen zwischen ihnen, Attribute von Systemen, ihre Elemente und Beziehungen sowie die organisatorischen Grad der Systeme. Der vorgeschlagene Ansatz wird am Beispiel relativ einfacher hierarchischer CMs beschrieben, deren Komplexität als Systeme geschätzt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-40180-5_25 758a0c938f015f576f977e2c417a478d;de;;;2.1.;;;Semantische Verifizierung von Websysteminhalten In diesem Papier stellen wir eine regelbasierte Spezifikationssprache vor, um semantische sowie syntaktische Einschränkungen über den informativen Inhalt eines Websystems zu definieren und automatisch zu überprüfen. Die Sprache ist von der GVERDI-Sprache inspiriert und erweitert diese erheblich, indem sie Ontologie-Begründung in die Spezifikationsregeln integriert und neue syntaktische Konstrukte hinzufügt. Die resultierende Sprache erhöht die Ausdruckskraft der Originalsprache und ermöglicht eine differenziertere Behandlung der semantischen Informationen in Bezug auf die Inhalte des Websystems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87991-6_51 a634ac7bc110181c4919768f560f3a62;de;;;2.1.;;;Erhalt der Verständlichkeit digitaler Objekte Wir leben in einer digitalen Welt. Jeder arbeitet und kommuniziert heutzutage mit Computern. Wir kommunizieren digital über E-Mails und Sprachplattformen, sehen uns Fotos in digitaler Form an, nutzen Computer für komplexe Berechnungen und Experimente. Außerdem werden Informationen, die bisher in analoger Form (also in Papierform) vorlagen, digitalisiert. Die Menge an digitalen Objekten, die Bibliotheken und Archive pflegen, nimmt ständig zu. Daher muss dringend sichergestellt werden, dass diese digitalen Objekte auch in Zukunft funktionsfähig, benutzbar und verständlich bleiben. Aber was sollen wir bewahren und wie? Um diese Frage zu beantworten, fassen wir zunächst die Diskussion in den vorherigen Kapiteln darüber zusammen, was ein digitales Objekt ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16809-3_8 dffd836cae44aecfc4b344b4e6390c29;de;;;2.1.;;;Web Service Discovery: Ein serviceorientierter Peer-to-Peer-Ansatz mit Kategorisierung In diesem Artikel werden automatisierte Methoden zur Erzielung von Webservice-Werbung und -Erkennung diskutiert und effiziente Such- und Matching-Techniken basierend auf OWL-S vorgestellt. Die Diensterkennung und das Matchmaking werden über ein zentralisiertes Peer-to-Peer-Webdienst-Repository durchgeführt. Das Repository kann in einer Software-Cloud ausgeführt werden, was die Verfügbarkeit und Skalierbarkeit der Diensterkennung verbessert. Eine auf OWL-S basierende einheitliche Ontologie – Suggested Upper Merged Ontology – wird in der Webdienst-Annotation verwendet. Benutzeragenten generieren eine Abfragespezifikation unter Verwendung der Systemontologie, um eine semantische Vereinheitlichung zwischen dem Client und dem System während der Diensterkennung bereitzustellen. Der Abfrageabgleich erfolgt über komplexe Hilbert-Räume, die aus konzeptionellen Ebenen und kategorialen Ähnlichkeiten für jeden Webdienst bestehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-2155-8_3 472511efab0d6f7167e29c503fb293db;de;;;2.1.;;;Die Raumökonomie: Eine ganzheitliche Perspektive Dieser Beitrag bietet eine prägnante ganzheitlich-historische Perspektive auf die Regionalwissenschaft. Es ordnet die Regionalwissenschaft zwischen verschiedenen verwandten disziplinären Ansätzen und präsentiert ein umfassendes Bild ihrer facettenreichen Architektur.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07305-7_2 917081615a556293b8af07b47b94124d;de;;;2.1.;;;Vorhersage der Biodiversität – Regression des Flechtenartenreichtums auf Fernerkundungsdaten Ziel der vorliegenden Studie war die Entwicklung eines Modells zur Vorhersage des Flechtenartenreichtums für sechs Testgebiete in den Schweizer Voralpen nach einem Gradienten der Landnutzungsintensität, das luftgestützte Fernerkundungsdaten und Regressionsmodelle kombiniert. Diese Studie knüpft an das Projekt der Europäischen Union an;-;-;-;https://link.springer.com/article/10.1556/ComEc.5.2004.1.12 1ca60360aad7839a99e9885fdc2e28f1;de;;;2.1.;;;Hybride QoS-fähige Kompositionsstrategien für semantische Webdienste Ein hybrides QoS-Modell, das aus bestimmten und unsicheren Ausdrücken besteht, hat eine starke semantische QoS-Beschreibung. Zur Lösung des hybriden QoS-fähigen semantischen Web-Service-Kompositionsproblems stellt dieses Papier einen Uncertain Multi-Attribute Decision Making Based Composition Algorithm (UMC) vor. Die UMC umfasst zwei Teile. Erstens kann UMC-Core verwendet werden, um die Hybriddienstqualitätsinformationen synthetisch auszuwerten. Zweitens zielt UMC-DH (Distributed and Heuristic Framework for UMC) darauf ab, die Laufzeitleistung von UMC zu verbessern, wenn der Problemraum zunimmt. Die Simulationsergebnisse zeigen, dass die UMC niedrigere Ausführungskosten, eine höhere Approximationsquote und eine höhere Erfolgsquote aufweist als andere ähnliche Ansätze.;-;-;-;https://link.springer.com/article/10.1007/s11432-008-0159-1 d3b7e0392dae0825e926f8d60ff42616;de;;;2.1.;;;Auftreten von Warzen bei Bambusarten Warzen wurden bei mehreren Bambusarten beobachtet, sie kommen nicht nur in Gefäßgliedern und Fasern vor, sondern auch in den stark verholzten Parenchymzellen, insbesondere in solchen vom länglichen Typ. Von den 34 untersuchten Arten besitzen nur wenige Warzen in allen drei Zelltypen. Die Größe der Warzen liegt innerhalb des für Dikotyledonen und Gymnospermen beobachteten Bereichs. Es ist kein Zusammenhang zwischen dem Vorkommen von Warzen und der taxonomischen Gruppierung der Bambusse erkennbar. Es wurde vermutet, dass die Entwicklung von Warzen mit der Verholzung der Zellwand verbunden ist.;-;-;-;https://link.springer.com/article/10.1007/BF00356929 796aedef9f8bc6fa618219f0b39d4f94;de;;;2.1.;;;Zur Realisierung des erkennungsbasierten Entscheidungsmodells für künstliche Agenten Diese Arbeit schlägt eine Methodik vor, um einen künstlichen Agenten zu programmieren, der Entscheidungen auf der Grundlage eines naturalistischen Entscheidungsansatzes treffen kann, der als Recognition-Primed Decision Model (RPDM) bezeichnet wird. Die vorgeschlagene Methodik repräsentiert die Hauptkonstrukte von RPDM in der Sprache der Belief-Desire-Intention-Logik. RPDM betrachtet Entscheidungsfindung als Synthese von drei phänomenalen Fähigkeiten des menschlichen Geistes. Die erste ist die Nutzung von Erfahrung, um eine Situation zu erkennen und geeignete Reaktionen vorzuschlagen. Das Hauptaugenmerk liegt hier auf dem Situationsbewusstsein, da der Entscheidungsträger feststellen muss, dass eine aktuelle Situation gleich oder ähnlich einer zuvor erlebten ist, und die gleiche Lösung wird wahrscheinlich auch diesmal funktionieren. Zu diesem Zweck verwendet der vorgeschlagene Modellierungsansatz ein Markov-Logiknetzwerk, um ein Modul für Erfahrungslernen und Entscheidungsunterstützung zu entwickeln. Die zweite Komponente von RPDM befasst sich mit den Fällen, in denen die Erfahrung eines Entscheidungsträgers zweitrangig wird, weil die Situation nicht als typisch erkannt wurde. In diesem Fall schlägt RPDM einen Diagnosemechanismus vor, der eine Merkmalsübereinstimmung beinhaltet, und daher wird hier ein auf der Ontologie (des interessierenden Bereichs) basierender Denkansatz vorgeschlagen, um all diese Fälle zu behandeln. Die dritte Komponente von RPDM ist der Vorschlag, dass Menschen Intuition und Vorstellungskraft (mentale Stimulation) nutzen, um sicherzustellen, dass eine Vorgehensweise in einer bestimmten Situation funktioniert oder nicht. Die mentale Simulation wird hier als Bayes'sches Netzwerk modelliert, das die Eintrittswahrscheinlichkeit eines berechnet;-;-;-;https://link.springer.com/article/10.1186/s13673-019-0197-2 83d873902bc2f4b0d6954cbae64b0b3e;de;;;2.1.;;;Teil und Ergänzung: Grundbegriffe der räumlichen Beziehungen Die räumliche Welt besteht aus Regionen und Beziehungen zwischen Regionen. Beispiele für solche Beziehungen sind, dass zwei Regionen unzusammenhängend sind oder dass einer ein richtiger Teil des anderen ist. Die formale Spezifikation räumlicher Beziehungen ist ein wichtiger Bestandteil jeder formalen Ontologie, die in qualitativen räumlichen Überlegungen oder geografischen Informationssystemen verwendet wird. Es wurden verschiedene Beziehungsschemata vorgeschlagen und grundlegende Schemata erweitert, um vage Regionen, grobe Regionen, im Zeitverlauf variierende Regionen usw. zu behandeln. Das Hauptziel dieses Papiers besteht nicht darin, weitere Schemata vorzuschlagen, sondern einen einheitlichen Rahmen zu schaffen, innerhalb dessen mehrere bestehende Schemata verstanden werden und auf dem weitere Schemata prinzipiell aufgebaut werden können. Dieser Rahmen basiert auf den grundlegenden Konzepten des Teils und des Komplements. Indem wir diese Konzepte variieren, zum Beispiel indem wir einer Teilrelation erlauben, Werte in einem Gitter von Wahrheitswerten jenseits des zweiwertigen Booleschen Falls anzunehmen, erhalten wir eine Familie von Schemata von räumlichen Beziehungen. Die Tragfähigkeit dieses Ansatzes für räumliche Beziehungen, wie er durch die Konzepte von Teil und Komplement parametrisiert wird, wird gezeigt, indem gezeigt wird, wie er die Schemata RCC5 und RCC8 sowie den Fall der „Ei-Dotter-Regionen“ umfasst.;-;-;-;https://link.springer.com/article/10.1023/B%3AAMAI.0000018575.09226.ff 6846f77226699193a78fc5f00ca5a5fb;de;;;2.1.;;;Große Webkorpora für indische Sprachen Eine entscheidende Ressource für die Entwicklung der Sprachtechnologie ist ein Korpus. Es sollte möglichst groß und vielfältig sein: Andernfalls kann es auch einfach nicht alle Kernphänomene der Sprache abdecken, sodass darauf basierende Tools manchmal versagen, weil sie auf etwas stoßen, das im Entwicklungskorpus nicht vorgekommen ist. Sie sind für die Entwicklung morphologischer Analysatoren von entscheidender Bedeutung, da sie eine gute Stichprobe aller Wörter in all ihren Formen zeigen, die der Analysator möglicherweise verarbeiten kann. Seit dem Aufkommen des Webs ist die Entwicklung von Korpora viel einfacher geworden: Für viele Sprachen und viele Textarten stehen jetzt riesige Textmengen per Mausklick zur Verfügung (Kilgarriff und Grefenstette 2003).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19403-0_60 0563c45aae9a3003cd0384580949e94e;de;;;2.1.;;;Recherche des Datenbank-Volltextabrufs basierend auf der Erkennung verwandter Wörter Mit der Popularität von Anwendungssystemen gibt es eine wachsende Nachfrage nach Datenbank-Volltext-Retrieval-Anwendungen. Die Benutzer hoffen, dass sie die gewünschten Informationen leicht finden können. Dies führt zu einer strengeren Einschränkung der chinesischen Synonymerkennung. Derzeit hat die Studie zur chinesischen Synonymerkennung im Inland gerade erst begonnen und die Anwendung der chinesischen Synonymerkennung in diesem Bereich ist auch nicht nur ein Wunsch. In diesem Artikel bauen wir ein Datenbank-Volltext-Retrieval-System auf, das die Erkennung verwandter Wörter in Kombination mit Lucene unterstützt. Die Erkennung verwandter Wörter wird auf das Volltext-Retrieval-System angewendet. Die Daten der verwandten Wörter wurden aus Fach- und Leistungsinformationen extrahiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_238 4bf573361b07ed1af3e2a7c2d28a4eb9;de;;;2.1.;;;Smart Agriculture: IoD-basierte Krankheitsdiagnose mit WPCA und ANN Mit der technologischen Verbesserung wurde die intelligente Entwicklung mit vielen Sensoren für verschiedene intelligente Anwendungen weit verbreitet. Die Sensordaten wurden für die verschiedenen sensorbasierten IoT-Entwicklungen gesammelt und verarbeitet. Die meisten Sensoren müssen im Echtzeitbereich Entscheidungsunterstützung leisten. Der Landwirtschaftsfeldmonitor durch die Drohnenkamera und verbunden mit dem IoT-Framework wird als Internet of Drone (IoD) bezeichnet Lerntechniken, auch Analyse der Bewässerungsparameter für den Landwirtschaftsmonitor, um den Wasserverbrauch des landwirtschaftlichen Feldes zu steuern. Diese vorgeschlagene Forschung wendete Wavelet-basierte statistische Funktionen an, um die Genauigkeit von Krankheiten und Heilmitteln für die Klassifizierung zu erhöhen. Die Wavelet-Zerlegung mit PCA (WPCA) wurde verwendet, um die extrahierten geometrischen Merkmale zu extrahieren, was zu einem Satz von 11 Merkmalen führte. Alle diese Merkmale wurden als Input für die Verbesserung des künstlichen neuronalen Netzes bei der Klassifizierung von Krankheiten verwendet, die in Pflanzenteilen vorkommen, und schlagen die Heilmittel für endgültig klassifizierte Krankheiten vor. Das kombinierte Ergebnis der WPCA-basierten statistischen Merkmale zeigt eine Genauigkeit von 97,460, daher stellt sich die vorgeschlagene Arbeit als bessere Methode heraus, um die pathologischen Probleme für Kulturen mit verschiedenen Pflanzen zu diagnostizieren und auch effektiv mit Bewässerungsparametern umzugehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63339-4_9 fe62c120dde3b3cc1dfe548fb958c1ac;de;;;2.1.;;;Aufbau einer nicht-monotonen Default-Theorie in der GCFL-Graph-Version von RDF Das Ziel beschreibt die Idee der graphenbasierten Darstellung von Klauseln. Dieser Ansatz folgt der Richards-Idee der graphenbasierten Klauselform-Wissensdarstellung. Darüber hinaus ermöglichte es den Aufbau des graphenbasierten formalen Systems GCFL (Graph-based Clausal Form Logic), das nicht nur Wissensbasen grafisch veranschaulichen kann, sondern auch auf spezielle graphenbasierte Konsequenzen aus einer Wissensbasis gewinnen lässt. Der Artikel setzt die Idee fort, indem er ein graphenbasiertes formales System zur Generierung revidierbarer Theorien erstellt, das dem bekannten Reiterschen Standardprinzip des Aufbaus nicht-monotoner Theorien folgt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06740-7_38 c05429986be4144e48e54ed4b70a3241;de;;;2.1.;;;US-Statistik über Exporte und Importe Die Sammlung und Berichterstattung von US-Import- und Exportdaten wurden kontinuierlich verbessert, um der Verlagsbranche besser zu dienen und mit den Bemühungen anderer Nationen kompatibel zu sein. Trotz dieser Bemühungen bleiben die Möglichkeiten der Verwendung internationaler Statistiken begrenzt. Diese Einschränkungen ergeben sich aus Problemen bei der Kategorisierung, der Befreiung von Sendungen mit geringem Wert von der Meldepflicht, den Schwierigkeiten bei der Abwicklung von Umladungen und der unzureichenden Meldung von Übersetzungen und dem Verkauf ausländischer Rechte. *** DIREKTER SUPPORT *** A05BB007 00002;-;-;-;https://link.springer.com/article/10.1007/BF02678613 33497d59b3e883b191884040f23bbd07;de;;;2.1.;;;Regressionsclustering mit neu absteigenden M-Schätzern Wir verwenden die lokalen Maxima eines redeszendenden M-Schätzers, um Cluster zu identifizieren, eine Methode, die bereits von Morgenthaler (1990) zum Auffinden von Regressionsclustern vorgeschlagen wurde. Wir erarbeiten die Methode nicht nur für die klassische Regression, sondern auch für die orthogonale Regression und multivariate Orte und liefern Konsistenzergebnisse für alle drei Fälle. Der Ansatz der orthogonalen Regression wird auf die Identifizierung von Kanten in verrauschten Bildern angewendet.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-26981-9_5 d52f358f504d0116880d9c60831fd30e;de;;;2.1.;;;Prozessmodellierung, Webservices und Geoverarbeitung Die Prozessmodellierung war schon immer ein wichtiger Bestandteil der Generalisierungsforschung. Während dies in der Anfangszeit eine statische Abfolge von Generalisierungsaktionen war, liegt der Fokus derzeit auf der Modellierung viel komplexerer Prozesse, die in der Lage sind, geografische Daten gemäß den spezifischen Benutzeranforderungen in verschiedene Karten zu generalisieren. Um die wachsende Komplexität der erforderlichen Prozesse zu kanalisieren, mussten bessere Prozessmodelle entwickelt werden. In diesem Kapitel werden verschiedene Aspekte des Problems des Aufbaus solcher Systeme erörtert. Je komplexer das System wird, desto wichtiger wird es, bereits vorhandene Komponenten wiederverwenden zu können. Webdienste wurden verwendet, um Generalisierungsprozesse so zu kapseln, dass ihre Interoperabilität und damit Wiederverwendbarkeit maximiert wird. Damit ein System einen solchen Dienst jedoch entdecken und auslösen kann, muss es formalisiert und maschinenverständlich beschrieben werden, und das System muss wissen, wo und wann solche Tools eingesetzt werden. In diesem Kapitel werden daher die Anforderungen und möglichen Ansätze für das Design und den Bau solcher Systeme untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-00203-3_7 e0fe61487f5c1e54315e8e4b7542fb68;de;;;2.1.;;;Ein verbesserter Klassifizierungsalgorithmus für Ausgrabungsausrüstungen basierend auf der dynamischen Funktion des akustischen Spektrums Das Überwachungssystem für unterirdische Pipeline-Netzwerke zieht in letzter Zeit aufgrund schwerer Brüche, die durch externe Aushubgeräte auf dem chinesischen Festland verursacht werden, zunehmend Aufmerksamkeit auf sich. In diesem Artikel untersuchen wir den Klassifizierungsalgorithmus für Ausgrabungsausrüstungen, der auf akustischer Signalverarbeitung und maschinellen Lernalgorithmen basiert. Ein Cross-Layer-Mikrofonarray mit vier Elementen soll die akustische Datenbank repräsentativer Grabungsgeräte auf realen Baustellen sammeln. Der verallgemeinerte Nebenkeulen-Unterdrückungsalgorithmus wird zur Reduzierung des Hintergrundrauschens verwendet. Der verbesserte Algorithmus zur Extraktion spektraler dynamischer Merkmale wird dann für die Benchmark-Datenbankkonstruktion für akustische Merkmale von Ausgrabungsausrüstungen implementiert. Um eine Klassifikation und eine Erkennung von Hintergrundrauschen durchzuführen, wird das neuronale Netz mit einer einzigen versteckten Schicht mit Vorwärtskopplung als Klassifikator verwendet. Für das Klassifikatorlernen wird ein verbesserter Algorithmus vorgeschlagen, der auf der beliebten Extreme Learning Machine (ELM) basiert. Für die Regularisierungsparameteroptimierung in ELM wird die Leave-one-out-Kreuzvalidierungsstrategie verwendet. Umfangreiche Experimente werden durchgeführt, um die Wirksamkeit des vorgeschlagenen Algorithmus zu testen. Vergleiche mit modernen Klassifikatoren und den akustischen Merkmalen der Mel-Frequenz-Cepstrual-Koeffizienten werden ebenfalls bereitgestellt, um die Überlegenheit unseres Ansatzes zu demonstrieren.;-;-;-;https://link.springer.com/article/10.1007/s11045-015-0374-z 4860ba231616a1cbc7d6f28b6655b6bd;de;;;2.1.;;;Generierung von SNOMED CT-Untergruppen aus klinischen Glossaren: Eine Untersuchung anhand klinischer Richtlinien Die große SNOMED CT (SCT) Terminologie hat sich in den letzten Jahren durchgesetzt. Ihre praktische Anwendung zur Kodierung klinischer Informationen wird jedoch durch ihre Komplexität und Größe behindert. Der Mechanismus der Teilmengen ermöglicht die Bildung von Clustern von SNOMED CT-Begriffen, die eine bestimmte Anwendung oder klinische Domäne abdecken. Diese Teilmengen werden normalerweise nach einem einvernehmlichen, von Experten getriebenen Prozess definiert, der arbeitsintensiv ist. Die automatisierte Generierung von Teilmengen aus klinischen Dokumentenkorpora wurde an anderer Stelle vorgeschlagen, sie erfordert jedoch immer noch eine Sammlung von Dokumenten, die für die Zieldomäne repräsentativ ist. Dieses Papier beschreibt ein Experiment zur Verwendung der Glossare klinischer Leitlinien als Startterminologie für die automatische Generierung von Teilmengen durch Durchlaufen von SNOMED-Beziehungen. Die quantitative Analyse zeigt, dass das Durchqueren von Mustern begrenzt werden muss, und Expertenbewertungen weisen darauf hin, dass der Ansatz zumindest für das Bootstrapping des Prozesses der Ausarbeitung der Teilmengen praktikabel sein kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24352-3_13 25febd074dceac9cadf6729da158929f;de;;;2.1.;;;Argumentation mit WSML In diesem Kapitel werden wir uns hauptsächlich auf bestimmte Komponenten im konzeptionellen Modell von WSML konzentrieren, nämlich Ontologien. Wir diskutieren Ontologie-Argumentation und unsere Basistechnologien im Detail. Das Ontologie-Argumentieren ist wegen seiner grundlegenden Rolle in der WSML-Architektur besonders interessant: Jedes andere konzeptionelle Element verwendet Ontologien, um relevantes (statisches) Hintergrundwissen zu erfassen. Das Argumentieren mit den jeweiligen Beschreibungen erfordert daher immer die Unterstützung des ontologischen Denkens. Argumentation mit formaler Beschreibung der anderen konzeptionellen Elemente (z. B. funktionale Beschreibung von Webservices) kann manchmal sogar vollständig auf ontologisches Denken reduziert werden (siehe Kapitel 6 und [82, 83, 12]).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68172-4_8 dd76e010f193d79ffaf32b7857fcfa9a;de;;;2.1.;;;Ein Rahmen, der den Einfluss von . abdeckt In diesem Artikel befassen wir uns mit Fragen der Abdeckung und Vollständigkeit, die durch die Integration einer großen Klasse psychologischer Phänomene in rationale dialogische Agenten aufgeworfen werden. Diese beiden Fragen werden durch die Definition eines generischen Frameworks auf der Grundlage des Konzepts der Persönlichkeitsmaschine behandelt, das es ermöglicht, einerseits die anwendungsabhängigen Teile und andererseits die Ressourcen, die an der Repräsentation der psychologische Phänomene. Wir führen eine bereicherte Taxonomie von Persönlichkeitsmerkmalen ein, die auf den bewährten;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44440-5_4 23f79215c62225998fb6f6537f7a68d9;de;;;2.1.;;;Assoziative Darstellung und Verarbeitung von Datenbanken mit DASNG und AVB+trees für einen effizienten Datenzugriff Heute müssen wir mit einer großen Datenmenge umgehen – BIG-Data-Problemen. Die Hauptthemen bei BIG Data sind die sparsame Darstellung, die Zeiteffizienz des Datenzugriffs und der Datenverarbeitung sowie Data Mining und Knowledge Discovery. Beim Umgang mit der großen Datenmenge ist Zeit entscheidend. Die meiste Zeit für die Datenverarbeitung in der modernen Informatik geht für verschiedene Suchvorgänge verloren, um auf geeignete Daten zuzugreifen. In diesem Beitrag wird dargestellt, wie in relationalen Datenbanken gesammelte Daten in assoziative neuronale Graphen umgewandelt werden können und wie Suchvorgänge durch Aggregation und Assoziation der gespeicherten Daten beschleunigt werden können. Um eine außergewöhnliche Effizienz beim Datenzugriff zu erreichen, stellt dieser Artikel neue AVB+Bäume vor, die zusammen mit tiefen assoziativen semantischen neuronalen Graphen typischerweise einen konstanten Zeitzugriff auf die gespeicherten Daten ermöglichen. Die vorgestellte Lösung ermöglicht es, horizontale und vertikale Beziehungen zwischen Daten und gespeicherten Objekten darzustellen, die Möglichkeiten relationaler Datenbanken zu erweitern und verschiedene Suchoperationen durch die spezifische Graphenstruktur zu ersetzen. Ein weiterer Beitrag ist die Erweiterung der Aggregation der Duplikate auf alle Datentabellen, die die gleichen Attribute enthalten. Auf diese Weise vereinfachen und beschleunigen die vorgestellten assoziativen Strukturen alle Suchoperationen im Vergleich zu den klassischen Lösungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-15640-4_13 e3df08528a32a850dfa75d233b3d6b32;de;;;2.1.;;;Fallstudien — Analysen Die Fallbeispiele wurden in Kapitel 4 ausführlich vorgestellt. Dort wurden die Lebensräume beschrieben und über die angewandten Feldmethoden und die gewonnenen vorläufigen Ergebnisse berichtet. In diesem Kapitel werden wir einige der in den Kapiteln 6–8 beschriebenen Methoden der Vegetations- und Umweltanalyse anwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-9737-3_9 e9971855cd4d4c3e93b0e8d1649b550c;de;;;2.1.;;;Automatische Komposition und Vermittlung bei mehrsprachigen semantischen Webdiensten Webdienste haben aufgrund ihres Potenzials, automatisch basierend auf Benutzeranfragen aufgerufen zu werden, sowohl in der Forschung als auch in der Industrie viel Aufmerksamkeit auf sich gezogen. Um dieses Potenzial praktikabel zu machen, müssen zwei Aufgaben erfüllt werden, einschließlich (i) automatisches Auffinden und Zusammenstellen geeigneter Dienste und (ii) automatischer Aufruf sequenzieller Dienste, um das gewünschte Ziel zu erreichen. Das Fehlen eines Mechanismus zur semantischen Repräsentation in typischen Dienstbeschreibungen hat diese Vision jedoch erheblich behindert. Die kürzlich eingeführten Semantic Web Services versprechen, dieses Hindernis zu überwinden, indem Ontologien zur Beschreibung der Serviceoperationen verwendet werden, sodass die Semantik der bereitgestellten Services von Computerprogrammen automatisch verstanden und begründet werden kann. Da jedoch der Standard für die ontologische Wissensrepräsentation über die Semantic Web Services noch nicht vollständig etabliert ist, wurden viele Beschreibungssprachen eingeführt. Die automatische Zusammenstellung und Vermittlung von mehrsprachigen Semantic-Web-Diensten wird somit zu einem anspruchsvollen Thema.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25725-4_5 df18e0c2918931ccd82022a1086dbef0;de;;;2.1.;;;Halbautomatisches Mapping strukturierter Quellen in das Semantic Web Verknüpfte Daten wachsen weiterhin schnell, aber eine Einschränkung vieler veröffentlichter Daten ist das Fehlen einer semantischen Beschreibung. Es gibt Tools wie D2R, mit denen ein Benutzer schnell eine Datenbank in RDF konvertieren kann, aber diese Tools bieten keine Möglichkeit, die Daten einfach in eine vorhandene Ontologie abzubilden. In diesem Beitrag wird ein halbautomatischer Ansatz vorgestellt, um strukturierte Quellen Ontologien zuzuordnen, um semantische Beschreibungen (Quellenmodelle) zu erstellen. Da die genaue Zuordnung manchmal mehrdeutig ist, bieten wir auch eine grafische Benutzeroberfläche, die es einem Benutzer ermöglicht, die Modelle interaktiv zu verfeinern. Die resultierenden Quellmodelle können dann verwendet werden, um Daten in Bezug auf eine gegebene Ontologie in RDF zu konvertieren oder um einen SPARQL-Endpunkt zu definieren, der in Bezug auf eine Ontologie abgefragt werden kann. Wir haben den Gesamtansatz an einer Vielzahl von Quellen evaluiert und zeigen, dass er verwendet werden kann, um Quellmodelle mit minimaler Benutzerinteraktion schnell zu erstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30284-8_32 6a41f5ed2115198ec299a5c786a21f1e;de;;;2.1.;;;Klassengröße der unteren Division an US-amerikanischen postsekundären Institutionen Der National Survey of Postsekundärfakultät (NSOPF) von 1992-93 bietet eine einzigartige Gelegenheit, die Klassengröße und die institutionellen und akademischen Faktoren zu untersuchen, die mit Klassengrößenunterschieden verbunden sind. Die in diesem Papier untersuchten institutionellen Merkmale umfassen öffentliche oder private Kontrolle, Carnegie-Klassifizierung und institutionelle Größe. Zu den berücksichtigten akademischen Merkmalen des Kurses gehören die akademische Disziplin, wie sie von Biglan (1973a) beschrieben wurde, das Studentenniveau und die hauptsächliche Unterrichtsmethode. Die Ergebnisse unterstützen die Bildung von Vergleichsverteilungen für den Klassengrößenvergleich und ein besseres Verständnis der institutionellen und Kursmerkmale im Zusammenhang mit Klassengrößenunterschieden.;-;-;-;https://link.springer.com/article/10.1023/A%3A1024900714326 b05a45d5cd8cbe2d730d4ec5afaa3a74;de;;;2.1.;;;Methodik zur semantischen Darstellung von Produktdaten in XML Theoretisch basierend auf sehr allgemeinen ontologischen Konzepten aus der analytischen Philosophie wird die Modellierbarkeit für EXPRESS und XML evaluiert und die Grenzen aktueller Produktdatenmodellierungsansätze aufgezeigt. Es wird eine ontologiebasierte Methode zur Darstellung von Produktdaten durch XML vorgeschlagen. Im Vergleich zu diesen bestehenden Lösungen nutzt dieser Ansatz nicht nur die Popularität und Flexibilität von XML und die Kompatibilität mit der strengen Produktbeschreibung von STEP, sondern zielt auch auf eine konsistente semantische Interoperation ab. Die vorgeschlagene Methode hat zwei Ebenen: Die erste ist der Aufbau der Ontologieebene durch Extrahieren von semantischem Wissen aus dem EXPRESS-Schema, auf der zweiten wird das XML-Schema aus der Ontologie abgeleitet, um auf XML-Dokumente zuzugreifen. Und in diesem Papier wird ein formaler semantischer Ausdrucksmechanismus in Beschreibungslogiken eingeführt, um die Semantik des EXPRESS-Schemas zu erfassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30483-8_46 69450e71e9e7a6f4c5a105096da1dbbc;de;;;2.1.;;;Ein neues domänenunabhängiges Schlüsselphrasen-Extraktionssystem In diesem Beitrag stellen wir ein Schlüsselphrasen-Extraktionssystem vor, das potenzielle Phrasen aus einem einzelnen Dokument unüberwacht und domänenunabhängig extrahieren kann. Wir extrahieren Wort-N-Gramme aus dem Eingabedokument. Wir beziehen linguistisches Wissen (d. h. Wortart-Tags) und statistische Informationen (d. h. Häufigkeit, Position, Lebensdauer) jedes N-Gramms ein, um Kandidatenphrasen und ihre jeweiligen Merkmalssätze zu definieren. Der vorgeschlagene Ansatz kann auf jedes Dokument angewendet werden. Um jedoch die Wirksamkeit des Systems für digitale Bibliotheken zu kennen, haben wir die Bewertung einer Reihe wissenschaftlicher Dokumente durchgeführt und unsere Ergebnisse mit aktuellen Schlüsselwortextraktionssystemen verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15850-6_8 686ed5ede30ac83e7ca187ca8a86c1ce;de;;;2.1.;;;Außerirdische Arten in der Flora des Naturreservatsfonds des Flachlandteils der Ukraine Die aktuelle Studie präsentiert eine vergleichende Analyse der nicht-einheimischen Flora von 23 besonders geschützten Naturgebieten, darunter 2 Biosphärenreservate, 5 Naturschutzgebiete mit 9 Departements und 12 Nationalparks in vier Naturzonen des Flachlands der Ukraine. Die taxonomische Vielfalt der untersuchten Floren umfasst 484 Arten aus 278 Gattungen und 72 Familien (ca. 60% der im Land erfassten). Die Studie zeigt eine erhebliche Variation der taxonomischen und typologischen Struktur der Anthropophyten von der einheimischen Flora. Die räumliche Verteilung der gebietsfremden Pflanzenarten entspricht dem allgemeinen biologischen Muster: Es gibt eine beträchtliche Anzahl seltener Arten, weniger Arten haben eine durchschnittliche Beständigkeit und kosmopolitische Arten kommen selten vor. Dieses Muster bestimmt folglich eine geringe Ähnlichkeit zwischen den untersuchten nicht-einheimischen Floren. Die Clusteranalyse zeigt jedoch eine fast vollständige Zonendifferenzierung der untersuchten Floren. Ausnahmen bilden die Floren einiger Naturschutzgebiete mit einer spezifischen funktional-territorialen Struktur. Der Referenzwert der Floren des ukrainischen Naturreservatsfonds wird in Frage gestellt.;-;-;-;https://link.springer.com/article/10.1134/S2075111715010038 1cc92a285235624c4edf60882e2b7c5f;de;;;2.1.;;;Technologie zur Bildung personalisierter präventiver Empfehlungen basierend auf der Risikobewertung Das Papier beschreibt die Technologie zur Erstellung einer Liste personalisierter Präventionsempfehlungen. Die Technologie besteht aus den folgenden Hauptkomponenten: Gesundheitszustand des Menschen, Datenerfassungsmodul, Datenbank, Wissensdatenbank und Solver mit Ausgabeerklärung. In der vorgestellten Version ermöglicht diese Technologie die Risikobewertung von Schlaganfall, Herzinfarkt und Depression, enthält mehr als zweihundert Risikofaktoren für diese Erkrankungen und mehr als zwanzig präventive Empfehlungen. Das Training für diese Version basierte auf der automatisierten Analyse einer Vielzahl von Publikationen und Expertenwissen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30763-9_25 ac9b808035b7b0e89815595656380066;de;;;2.1.;;;Konnektivitätsindikatoren für städtische wissenschaftliche Gemeinschaften in russischen Städten In diesem Papier untersuchen wir formale Indikatoren der Konnektivität für eine städtische Gemeinschaft von Forschern in Informatik und Kybernetik. Die Analyse basiert auf Daten, die im Portal der Scientific Electronic Library verfügbar sind;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12580-0_11 29ad99c43a0e7ab1c4facc55d0aa10e5;de;;;2.1.;;;Vergleich, Klassifizierung und Erhebung der aspektbasierten Stimmungsanalyse Die Stimmungsanalyse ist die Untersuchung von Gefühlen, die von Menschen ausgedrückt werden. Aspektbasierte Sentimentanalyse ist die Untersuchung von Gefühlen, die von Menschen in Bezug auf den Aspekt einer Entität geäußert werden. Die aspektbasierte Sentimentanalyse wird zu einer wichtigen Aufgabe, um die feineren Gefühle von Objekten zu erkennen, wie sie von Menschen in ihren Meinungen beschrieben werden. In der vorliegenden Arbeit beschreiben wir verschiedene Techniken, die in den letzten Jahren aufgekommen sind, die eine Aspektterm-Extraktion und/oder eine Aspektstimmungsvorhersage beinhalten. Die vorliegende Arbeit beschreibt die Taxonomie der aspektbasierten Stimmungsanalyse mit einer detaillierten Erläuterung der verwendeten neueren Methoden. In diesem Papier werden auch die Vor- und Nachteile der diskutierten Forschungsarbeiten erläutert. In der vorliegenden Arbeit haben wir alle Arbeiten mit Tabelleneinträgen verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3140-4_55 fade67a4985247bc255ecb473e70ef9b;de;;;2.1.;;;Schwellenwertmessungen von Elektronen- und Photonenkollisionen mit Atomen und kleinen Molekülen Etwas Interessantes passiert normalerweise, wenn Sie einen Kollisionsprozess nahe seiner Schwelle anregen. Die Energie des einfallenden Teilchens (im vorliegenden Fall ein Elektron oder ein Photon) ist relativ klein, dh knapp größer als die Schwellenenergie der Reaktion. Außerdem können ein oder mehrere Elektronen mit sehr kleiner Energie (≤ 0,01 eV) erzeugt werden. Diese Bedingungen können einen starken Einfluss auf die Kollision haben. Beispielsweise kann ein Elektronenaustausch stattfinden und Elektron-Elektron-Korrelationseffekte eine dominante Rolle spielen. Schwellenanregungen führen oft zu neuen und unerwarteten Ergebnissen. Der vorliegende Aufsatz befasst sich mit einigen Charakteristika der Schwellenanregung durch Elektronen und Photonen sowie mit einigen Aspekten der beteiligten experimentellen Techniken. Wie man sieht, gibt es Ähnlichkeiten zwischen der Anregung durch Elektronen und Photonen. Zum Beispiel haben die bei der Elektronenatomstreuung beobachteten Resonanzen einige Ähnlichkeiten mit den durch Photonenanregung induzierten doppelt angeregten Zuständen, da beide Atomsysteme aus zwei Elektronen bestehen, die an einem positiv geladenen Kern haften.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-1049-5_7 52bf6bb83f124ad8cfd02144bf73c443;de;;;2.1.;;;Morphembasierte Erkennung und Übersetzung medizinischer Fachbegriffe In diesem Beitrag verwenden wir Nooj, um eine Erkennungs- und Übersetzungsaufgabe zu medizinischen Begriffen mit einem morphosemantischen Ansatz zu lösen. Der medizinische Bereich zeichnet sich durch eine Vielzahl unterschiedlicher Begriffe aus, die in Korpora mit sehr niedrigen Frequenzen vorkommen. Aus diesem Grund erzielen maschinelles Lernen oder statistische Ansätze in diesem Bereich keine guten Ergebnisse. In unserer Arbeit wenden wir einen morphosemantischen Ansatz an, der sich eine Reihe von italienischen und englischen Wortbildungsstrategien zur automatischen Analyse italienischer Wörter und zur Generierung von italienisch/englischen bilingualen Lexika im medizinischen Subcode zu Nutze macht. Mit Nooj haben wir eine Reihe italienischer und zweisprachiger Wörterbücher für Morpheme erstellt, eine Reihe von morphologischen Grammatiken, die angeben, wie Morpheme miteinander kombiniert werden, eine syntaktische Grammatik zur Erkennung zusammengesetzter Begriffe und einen Finite State Transducer (FST) für die Übersetzung medizinischer Begriffe, die auf Morphemen basieren. Dieser Ansatz erzeugt als Ausgabe: ein kategorisiertes italienisches elektronisches Wörterbuch mit einfachen medizinischen Wörtern, das mit Etiketten versehen ist, die die Bedeutung jedes Begriffs angeben, einen Thesaurus mit einfachen und zusammengesetzten medizinischen Begriffen, der in 22 medizinische Unterkategorien geordnet ist, A eine italienisch/englische Übersetzung medizinischer Begriffe .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-42471-2_15 ec865bba7cbb3526bbbe0886cc500e6f;de;;;2.1.;;;Tiefsee-Benthische Foraminiferen aus dem Paläozän und Eozän der Nordpazifik-Region: Paläontologie, Biostratigraphie und paläozeanologische Rekonstruktionen Basierend auf der stratigraphischen Verteilung benthischer Foraminiferen in den unteren bathyal-abyssischen Schichten, die in Bohrlöchern im Nord- und Südpazifik untersucht wurden, wird ein Zonenschema für das untere Paläogen des nördlichen Pazifiks vorgeschlagen. Dieses Schema umfasst acht Unterteilungen (sechs Zonen und zwei Unterzonen). Die Grenzen der benthischen Zonenunterteilungen werden durch Bioereignisse (Auftauchen oder Verschwinden stratigraphisch wichtiger Taxa) definiert und sind mit den Zonenskalen auf der Grundlage planktonischer Foraminiferen und kalkhaltigem Nannoplankton verknüpft. Es ist erwiesen, dass die meisten dieser Bioereignisse subglobal erkannt werden. Abgesehen von den evolutionären Ereignissen wurden Veränderungen in den benthischen Foraminiferen-Assemblies in der Tiefsee durch Veränderungen in der paläoozeanologischen Umgebung verursacht. Dies ermöglichte eine detaillierte Charakterisierung eines globalen Massensterbens von Ansammlungen benthischer Tiefseeforaminiferen in der untersuchten Region. Es wurde auch festgestellt, dass Veränderungen in den Ansammlungen benthischer Tiefseeforaminiferen, die entweder in ihrer taxonomischen Zusammensetzung oder in der Abundanz und Diversität beobachtet wurden, auf das Vorkommen verschiedener Tiefseemassen in der Region zurückzuführen sind.;-;-;-;https://link.springer.com/article/10.1134/S0869593815070023 4e3ae1aaa3871ef1780a56c77a474793;de;;;2.1.;;;Leichte semantische Service-Annotationen durch Tagging Das Auffinden und Zusammenstellen von Diensten ist eine Kernfunktionalität eines serviceorientierten Softwaresystems. Semantische Webservices versprechen, diese Aufgaben zu unterstützen und (teilweise) zu automatisieren. Die Erstellung semantischer Servicespezifikationen ist jedoch eine schwierige, zeitaufwendige und fehleranfällige Aufgabe, die typischerweise von Servicetechnikern durchgeführt wird. In diesem Beitrag stellen wir einen Community-basierten Ansatz zur Erstellung semantischer Leistungsspezifikationen vor. Inspiriert von Konzepten aus emergenter Semantik und Folksonomie führen wir semantische Leistungsbeschreibungen mit eingeschränkter Aussagekraft ein. Anstatt die Servicefunktionalität durch Vorbedingungen und Effekte zu erfassen, werden Services mit Kategorien versehen. Ein Beispiel verdeutlicht den pragmatischen Charakter unseres Ansatzes im Vergleich zu bestehenden Ansätzen.;-;-;-;https://link.springer.com/chapter/10.1007/11948148_41 2a0f4743f0eb65b2bc27a072a35abcd5;de;;;2.1.;;;Aggression als Diskurs Reden bedeutet gleichzeitig, sich an der Weltkonstruktion zu beteiligen. Dies ist in zweierlei Hinsicht so, im ersten implizit und im zweiten pragmatisch. Im erstgenannten Sinne hängt die Weltkonstruktion davon ab, dass Sprache nicht als Klanganordnung, sondern als Symbolsystem dient. Um sich als Symbole zu qualifizieren, müssen sprachliche Entitäten einen Bereich von Referenten implizieren, sonst würde die Identität als Sprache verloren gehen. Sich an der Produktion von Sprache zu beteiligen, bedeutet daher typischerweise, eine implizite Verpflichtung zu einem Bereich von Referenten zu schmieden, der nicht in der Sprache selbst enthalten ist. Tatsächlich lädt der Akt des Sprechens den Hörer ein, ein unabhängiges ontologisches System zu akzeptieren. Gleichzeitig hat Sprache aber auch einen pragmatischen, oder von Austin (1962 a) performativen Aspekt. Das heißt, es ist ähnlich wie beim Schach einen Turm zu bewegen, jemanden in einer Umarmung zu halten oder desinteressiert zu wirken, während man angegriffen wird. Es ist selbst eine Form des sozialen Verkehrs. Und als Leistung hat es häufig soziale Auswirkungen. Abhängig von der Sprache, die der eine verwendet, kann sich ein anderer geschlagen geben, tiefe Liebe bekennen oder sogar töten. Die eigenen Worte sind somit aktive Bestandteile in einer Welt des fortwährenden sozialen Austauschs (Searle, 1970).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-48919-8_5 3ad97494634382afcfcf2274a783b84b;de;;;2.1.;;;Geraniaceae Kräuter, manchmal Sträucher oder Sträucher, gelegentlich mit saftigen Stängeln, manchmal geophytisch. Blätter wechselständig oder gegenständig, meist handförmig oder gefiedert gelappt oder zusammengesetzt, Lappen tief gesägt oder gelappt, Nebenblätter vorhanden oder (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-32219-1_19 9c2b82cf01a2377d887f3bcb89b5acf8;de;;;2.1.;;;FCBIR: Eine Fuzzy-Matching-Technik für den inhaltsbasierten Bildabruf Die semantische Bildwiederherstellung kann grundsätzlich als Mustererkennungsproblem angesehen werden. Für den Menschen ist die Mustererkennung durch die Inferenzregeln durch eine langjährige Erfahrung in sich selbst inhärent. Für Computer ist jedoch einerseits die simulierte menschliche Identifizierung von Objekten beeindruckend in ihrer Erfahrung (Training), wie ein Baby lernt, Objekte zu identifizieren, andererseits ist die genaue Identifizierung unzumutbar, da die ähnlichen Merkmale normalerweise von verschiedene Objekte, zB „ein weißes Tier wie Katze und Hund“, „ein bauliches Transportmittel wie Pkw und Lkw“. In traditionellen Ansätzen passt die Disambiguierung der Bilder durch Eliminieren irrelevanter Semantik nicht zum menschlichen Verhalten. Dementsprechend sind die mehrdeutigen Konzepte jedes Bildes, das während der Zusammenarbeit von Ähnlichkeitsfunktion und Zugehörigkeitsfunktion geschätzt wird, sinnvoll. Zu diesem Zweck schlagen wir in diesem Beitrag eine neuartige Fuzzy-Matching-Technik mit dem Namen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72434-6_15 aeef92bf298546b9ef2b6ae402876634;de;;;2.1.;;;Unbeaufsichtigtes Lernen des chinesischen Gefühlslexikons aus massiven Microblog-Daten Die Analyse der Gefühle und Emotionen von Menschen in sozialen Medien ist sowohl für akademische Forscher als auch für kommerzielle Unternehmen zu einem wichtigen Anliegen geworden. Das Sentiment-Lexikon spielt in den meisten Sentiment-Analyseanwendungen eine entscheidende Rolle. Bestehende thesaurusbasierte Lexikon-Erstellungsmethoden leiden jedoch unter den Abdeckungsproblemen, wenn sie mit den neuen Wörtern und neuen Bedeutungen in den sozialen Medien konfrontiert werden. Heutzutage teilen Millionen von Nutzern täglich in Microblogs ihre Meinungen zu verschiedenen Aspekten des Lebens. In diesem Beitrag wird eine neuartige Methode vorgestellt, die auf der Auftrittswahrscheinlichkeit mit Emoticons basiert, um die Kandidaten-Sentiment-Wörter aus den massiven Mikroblog-Daten zu lernen, und die Genauigkeit des gelernten Lexikons wird weiter verbessert, indem der gesamte Mikroblog-Raum als Korpus verwendet wird. Umfangreiche Experimente wurden an realen Datensätzen mit unterschiedlichen Themen durchgeführt. Die Ergebnisse zeigen, dass die vorgeschlagene Methode in der Lage ist, die entstehenden Wörter zu extrahieren, und das gelernte Lexikon übertrifft zwei bekannte chinesische Lexika bei der Klassifizierung der Gefühle in Mikroblogs.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35527-1_3 78b810dbfaa8d4ad3fa9482ecaa0a732;de;;;2.1.;;;Erklärung in Expertensystemen der zweiten Generation Was braucht es für eine gute Erklärung? Dieses Papier beginnt mit der Betrachtung einiger Desiderate für die Erklärung von Expertensystemen. Diese Desiderate betreffen nicht nur Form und Inhalt der Erklärungen, sondern auch die Auswirkungen der Erklärungsgenerierung auf das Expertensystem selbst – wie es aufgebaut ist und wie es funktioniert. In dieser Arbeit verwenden wir diese Desiderate als Maßstab für die Messung des Fortschritts auf diesem Gebiet. Der Artikel beschreibt zwei wichtige Entwicklungen, die die Erklärung in Systemen der zweiten Generation von der Erklärung in Systemen der ersten Generation unterschieden haben: 1) Es wurden neue Architekturen entwickelt, die mehr von dem für die Erklärung benötigten Wissen erfassen, und 2) wurden leistungsfähigere Erklärungsgeneratoren entwickelt in der Erklärungsgenerierung als eigenständige Problemlösungsaktivität betrachtet wird. Diese Entwicklungen haben zu deutlichen Verbesserungen bei den Erklärungsmöglichkeiten geführt: Die angebotenen Erklärungen sind reichhaltiger und zusammenhängender, sie sind besser auf die Bedürfnisse und Kenntnisse der Benutzer abgestimmt und die Erklärungsmöglichkeiten können klärende Erklärungen bieten, um Missverständnisse zu korrigieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-77927-5_24 1f160ff3c1090ab937775cfb8afb47fa;de;;;2.1.;;;Nationale Kartierung von Landformelementen zur Unterstützung von S-Map, einer neuseeländischen Bodendatenbank Dieses Papier beschreibt eine Anwendung der Geländeanalyse, bei der ein nationaler Datensatz von Landformelementen, der aus einem nationalen digitalen Geländemodell mit 25 m Auflösung abgeleitet wurde, verwendet wurde, um die Boden-Landschafts-Modellierung im komplexen steilen Gelände Neuseelands zu unterstützen. Diese Forschung unterstützt S-map, eine neue Initiative zur Verbesserung der Bodendatenbanken Neuseelands. Landschaftsformelemente werden aus einer Fuzzy-Klassifizierung basierend auf lokaler Geometrie (Krümmung und Neigung) und Landschaftskontext abgeleitet und bilden eine primäre Grundlage für die Kartierung der Bodenverteilung in Steillandsystemen, was die Kenntnis der Bodenverteilung an Hängen in komplexen Landschaften und darüber hinaus erheblich verbessert eine Vielzahl von Landsystemen. Bisher wurden Landelemente und Boden-Landschaftsmodelle verwendet, um die Bodenverteilung in mehr als 10 verschiedenen Landsystemen (die über 10 % der gesamten neuseeländischen Steillandfläche abdecken) zu modellieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77800-4_24 eb265db50667bb2dd2654af1bf8c60b4;de;;;2.1.;;;Die zentralasiatische Kulturpflanzenregion Die Zentralasiatische Region ist allgemein als eines der Hauptherkunftszentren für Kulturpflanzen bekannt, insbesondere für Aprikosen, Kirschen, Äpfel, Birnen, Pistazien, Mandeln, Walnüsse und einige Gemüsesorten. Es fehlen jedoch genaue Daten und Informationen über Kulturpflanzen in dieser Region. Eine umfassende Einführung und Analyse hilft den Menschen, den Status zu verstehen. Die Methoden der Literaturstudie wurden verwendet, um Daten aus bestehenden Referenzen zu sammeln. Ziel dieser Studie war es, Details zu Kulturpflanzen in der Zentralasiatischen Region für die Erhaltung und nachhaltige Nutzung pflanzengenetischer Ressourcen zu liefern. Als Ergebnis wurden 802 Kulturpflanzenarten aus 107 Familien und 388 Gattungen nach Mansfelds Definition präsentiert. Darüber hinaus wurden in der zentralasiatischen Region 304 wilde Verwandte von Kulturpflanzen und mehrere Landrassen nachgewiesen. Bemerkenswerterweise hatte die Region wichtige Gemüse-, Obst- und Nüssearten in andere Teile der Welt exportiert. Die Seidenstraße führte durch den zentralasiatischen Raum und hatte den Austausch von Kulturpflanzen zwischen Ost und West stark gefördert. Das Hotel liegt in der Schlüsselzone der;-;-;-;https://link.springer.com/article/10.1007/s10722-020-01053-9 7de8f1c7f6bdb87b8067e8645a8b1398;de;;;2.1.;;;Menschliche Gangerkennung mit lokalisierten Grassmann-Mittelwertrepräsentanten mit partieller Regression der kleinsten Quadrate Die Gangerkennung ist aufgrund der steigenden Nachfrage nach nicht-intrusiver Biometrie populär geworden. In der Anfangsphase der Entwicklung steht die Gangerkennung vor einer Reihe von Herausforderungen. Die Leistung eines Gangerkennungssystems ist empfindlich gegenüber Faktoren wie Blickwinkel, Kleidung, Schuhtyp, Lastaufnahme und Geschwindigkeitsänderungen. In diesem Beitrag werden die Gangprobleme anhand der Grassmannschen Mannigfaltigkeit formuliert. Mit der breiten Verfügbarkeit von Kameranetzwerken ist es nicht schwierig, mehrere Schnappschüsse eines sich bewegenden Motivs zu erstellen. Diese Bildmengen lassen sich als niedrigdimensionale Unterräume modellieren, die natürlich als Punkte auf der Grassmann-Mannigfaltigkeit realisiert werden können. Die Modellierung von Bildmengen als niedrigdimensionale Unterräume liefert nicht nur mögliche Hinweise auf den eigenen Gang, sondern auch auf die üblichen Variationsmuster in der Menge. Wir präsentieren eine Methode namens Localized Grassmann Mean Representatives with Partial Least Squares Regression (LoGPLS), um eine niedrigdimensionale euklidische Approximation der Mannigfaltigkeit abzuleiten. Der Begriff der lokalen Mittelwertrepräsentanten wird eingeführt, um mehrere Tangentialräume zu konstruieren, um die topologische Struktur der Mannigfaltigkeit besser anzunähern. Da die Eigenschaften der Tangentialräume eine Auswertung der Grassmann-Punkte im Vektorraum erlauben, werden partielle kleinste Quadrate angewendet, um eine genauere Klassifizierung der Punkte in einem reduzierten Raum zu ermöglichen. Es wurden Experimente mit vier verschiedenen öffentlich zugänglichen Gangdatenbanken durchgeführt. Empirische Beweise belegen die Wirksamkeit des vorgeschlagenen Ansatzes bei der Lösung der verschiedenen Kovariaten bei der Gangerkennung.;-;-;-;https://link.springer.com/article/10.1007/s11042-018-6045-y 5515d5fd005940e0d220177402372b44;de;;;2.1.;;;Experimentelle und theoretische Bewertung von Typisierungsmethoden basierend auf der zufälligen Amplifikation genomischer Restriktionsfragmente (AFLP) für die bakterielle Populationsgenetik Die Zuverlässigkeit und das Niveau der taxonomischen Auflösung der Methode des amplifizierten Fragmentlängenpolymorphismus (AFLP) wurden mit Arten von pathogenen Bakterien bewertet, die an Krankheiten von Mensch, Tier und Pflanze beteiligt sind. Die Methode erwies sich als sehr vielseitig, da sie an die individuellen Genombeschränkungen aller getesteten Arten angepasst werden kann. Die Berechnung einer genetischen Distanz;-;-;-;https://link.springer.com/article/10.1186/BF03500887 fad8d5a104d4ba8c9b3efd4b0a5a8611;de;;;2.1.;;;: Ein Werkzeug zur Relationsextraktion aus Text in Ontology Extension Domänenontologien modellieren Verben sehr selten als Beziehungen zwischen Konzepten. Die Rolle des Verbs als zentrales Verbindungselement zwischen Konzepten ist jedoch unbestreitbar. Verben spezifizieren die Interaktion zwischen den Teilnehmern einer Handlung oder eines Ereignisses, indem sie Beziehungen zwischen ihnen ausdrücken. Parallel dazu kann aus der Sicht des Ontologie-Engineerings argumentiert werden, dass Verben eine Beziehung zwischen zwei Klassen ausdrücken, die Domäne und Bereich angeben. Die hier beschriebene Arbeit beschäftigt sich mit der Extraktion von Relationen zur Ontologieerweiterung in diesem Sinne. Wir beschreiben ein System (RelExt), das in der Lage ist, automatisch hochrelevante Tripel (Paare von Konzepten, die durch eine Relation verbunden sind) über Konzepten aus einer bestehenden Ontologie zu identifizieren. RelExt funktioniert, indem es relevante Verben und ihre grammatikalischen Argumente (d. h. Begriffe) aus einer domänenspezifischen Textsammlung extrahiert und entsprechende Beziehungen durch eine Kombination aus linguistischer und statistischer Verarbeitung berechnet. Das Papier enthält eine detaillierte Beschreibung der Systemarchitektur und Bewertungsergebnisse an einem konstruierten Benchmark. RelExt wurde im Rahmen des SmartWeb-Projekts entwickelt, das auf die Bereitstellung intelligenter Informationsdienste über mobile Breitbandgeräte zur FIFA Fussball-Weltmeisterschaft 2006 in Deutschland abzielt. Dazu gehören standortbasierte Navigationsinformationen sowie die Beantwortung von Fragen in die Fußballdomäne.;-;-;-;https://link.springer.com/chapter/10.1007/11574620_43 9c30106f33ee5c6c30bf69be5b7179dc;de;;;2.1.;;;Ein Ansatz zur automatischen Konstruktion von expressiven Ontologien aus natürlicher Sprache In diesem Beitrag präsentieren wir einen Ansatz basierend auf Ontology Learning und Natural Language Processing zur automatischen Konstruktion ausdrucksstarker Ontologien, insbesondere in OWL DL mit ALC Expressivity, aus einem natürlichsprachlichen Text. Die Tragfähigkeit unseres Ansatzes wird durch die Generierung von Beschreibungen komplexer Axiome aus Konzepten demonstriert, die von Benutzern und Glossaren auf Wikipedia definiert wurden. Wir haben unseren Ansatz in einem Experiment mit Eintragssätzen evaluiert, die mit Hierarchie-Axiomen, Disjunktion, Konjunktion, Negation sowie existentieller und universeller Quantifizierung angereichert sind, um eine Einschränkung von Eigenschaften zu bewirken. Die erhaltenen Ergebnisse belegen, dass unser Modell eine effektive Lösung zur Wissensrepräsentation und automatischen Konstruktion ausdrucksstarker Ontologien ist. Dabei unterstützt es Fachleute, die an Prozessen zur Gewinnung, Konstruktion und Modellierung von Wissensdomänen beteiligt sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09153-2_55 0d663cc88b10fcc95ca858f093bc5b68;de;;;2.1.;;;Gruppenbildungsalgorithmen in kollaborativen Lernkontexten: Eine systematische Abbildung der Literatur Die Gruppenbildung ist ein komplexer und wichtiger Schritt zur Gestaltung effektiver kollaborativer Lernaktivitäten. Durch die adäquate Auswahl von Individuen zu einer Gruppe ist es möglich, Umgebungen zu schaffen, die das Auftreten sinnvoller Interaktionen fördern und dadurch robustes Lernen und intellektuelles Wachstum steigern. Viele Forscher weisen darauf hin, dass eine unzureichende Gruppenbildung die Schüler demotivieren und den Lernprozess behindern kann. So gibt es im Bereich des computergestützten kollaborativen Lernens (CSCL) mehrere Studien, die sich auf die Entwicklung und Erprobung von Gruppenbildung in kollaborativen Lernkontexten unter Verwendung von Best Practices und anderen pädagogischen Ansätzen konzentrieren. Dennoch fehlt der CSCL-Gemeinschaft ein umfassendes Verständnis dafür, welche Rechentechniken (d. h. Algorithmen) die Gruppenbildung unterstützt haben. Nach unserem Kenntnisstand gibt es keine Studie, die darauf abzielt, die Forschungsergebnisse zu diesem Thema systematisch zu erfassen und zu analysieren. Um diese Lücke zu schließen, führte diese Forschung ein systematisches Mapping mit dem Ziel durch, die Studien zu Algorithmen zur Gruppenbildung in CSCL-Kontexten zusammenzufassen. Zunächst haben wir durch die Suche in sechs digitalen Bibliotheken 256 Studien gesammelt. Dann, nach einer sorgfältigen Analyse jeder Studie, stellten wir fest, dass nur 48 mit der Gruppenbildung in Zusammenhang standen, die auf kollaborative Lernkontexte angewendet wurde. Schließlich haben wir die Beiträge dieser Studien kategorisiert, um einen Überblick über die Ergebnisse der Community zu geben. Diese Übersicht zeigt, dass: (i) die zu diesem Thema veröffentlichte Forschung allmählich zunimmt, (ii) 41% der Algorithmen für den Gruppenbildungsbereich basierend auf probabilistischen Modellen, (iii) die meisten Studien die Bewertung von Werkzeugen präsentierten, die diese implementieren Algorithmen, aber (iv) nur 2 % der Studien liefern ihren Quellcode, und schließlich (v) gibt es kein Werkzeug oder eine Richtlinie, um die Vorteile, Unterschiede und Besonderheiten von Gruppenbildungsalgorithmen zu vergleichen, die bisher verfügbar sind. Als Ergebnis dieser Arbeit ist auch eine Infografik verfügbar unter:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10166-8_18 39a03be9986dd2b9f0fd9c9b8f68d1ff;de;;;2.1.;;;Diskriminatives Wörterbuchlernen mit lokalen Einschränkungen für die Gesichtserkennung mit Okklusion Gesichtsverdeckungen wie Sonnenbrillen, Masken usw. sind ein wichtiger Faktor, der die Genauigkeit der Gesichtserkennung beeinflusst. Leider sind Gesichter mit Okklusion in der realen Welt ziemlich häufig. In den letzten Jahren wurde die spärliche Codierung zu einem Brennpunkt beim Umgang mit Gesichtserkennungsproblemen unter verschiedenen Beleuchtungen. Die Grundidee der sparse-repräsentationsbasierten Klassifikation ist ein allgemeines Klassifikationsschema, bei dem die Trainingsproben aller Klassen als Wörterbuch zur Darstellung des Abfragegesichtsbildes genommen und es klassifiziert wurden, indem bewertet wird, welche Klasse zu dem minimalen Rekonstruktionsfehler davon führt. Es ist jedoch keine triviale Aufgabe, den gemeinsamen Teil und den klassenspezifischen Teil im gelernten Wörterbuch auszugleichen. In diesem Beitrag leisten wir zwei Beiträge: (i) wir stellen eine neue Methode zur Erkennung von Okklusionen vor, indem wir ein sparse-repräsentationsbasiertes Klassifikationsmodell einführen, (ii) wir schlagen ein neues sparse-Modell vor, das den darstellungsbeschränkten Term und den Koeffizienten-Inkohärenzterm beinhaltet. Experimente an Benchmark-Gesichtsdatenbanken belegen die Effektivität und Robustheit unserer Methode, die modernste Methoden übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00021-9_65 f46002adbcc81e8ba178f3b51e6e2377;de;;;2.1.;;;Ein statistischer Ansatz für die Beantwortung von offenen Domänenfragen In diesem Kapitel wird ein statistischer Ansatz zur Beantwortung von offenen Fragen untersucht. Obwohl sich die in diesem Kapitel vorgestellten Arbeiten auf Modelle maximaler Entropie konzentrieren, können die erforderlichen Modelle mit jedem Ansatz des maschinellen Lernens modelliert werden. Um die Beantwortung von Fragen durchzuführen, werden, wie in den vorherigen Kapiteln erörtert, zunächst Fragen analysiert und eine Vorhersage getroffen, welche Art von Antwort der Benutzer erwartet. Zum anderen wird eine schnelle Suche in der Textdatenbank durchgeführt und die für die Abfrage relevanten Top-Dokumente abgerufen. Diese Dokumente wurden automatisch mit einem benannten Entity-Tagger versehen. Schließlich werden die Antwort-Tag-Vorhersage und die kommentierten Dokumente in die Antwortauswahlstufe eingegeben. Ergebnisse, die von einem trainierbaren Antwortauswahlalgorithmus erhalten wurden, werden berichtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-4746-6_2 89d29416a0c07d2471efd217e12195cc;de;;;2.1.;;;Allgemeiner Abschnitt In den folgenden Kapiteln werden die allgemeine Morphologie von Oxytrichiden Hypotrichen und spezifische Begriffe dieser Gruppe beschrieben und erklärt. Zur Erläuterung anderer Begriffe siehe C;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4637-1_1 cb681f88a91589796d23ca370a5b26c5;de;;;2.1.;;;Wissensbasierte Modelldarstellung und Optimierung von Mikrogeräten Die Feature-Modellierungstechnologie macht das Design von Mikrogeräten intuitiver und effizienter. Um die merkmalsbasierte Informationsorganisation und das regelbasierte Merkmalsabbildungsverfahren zu unterstützen, werden ein Entwurfsrahmen und Schlüsseltechniken vorgestellt. Zunächst wird auf Basis einer hierarchischen Merkmalsstruktur die Architektur für die Modellerstellung und -optimierung konstruiert. Zweitens ist gemäß der ontologischen Repräsentation das Wissen über verschiedene Merkmale hierarchisch organisiert. Dann wird die Feature-Mapping-Beziehung mit dem regelbasierten Argumentationsprozess aufgebaut. Durch ontologiebasierte Merkmale, die Rahmen und Argumentationsverfahren darstellen, werden die Beschränkungsmerkmale und assoziierten Regeln mit anderen Merkmalen verbunden. Schließlich werden das Konstruktionsmodell und das Fertigungsmodell gleichzeitig optimiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25661-5_40 9c067b0c2183e5d53619d0ec31a7cf1f;de;;;2.1.;;;Erweitertes Ontologiemodell und Ontologieprüfung basierend auf Beschreibungslogiken Das formale Ontologiemodell und die Ontologieprüfung werden in letzter Zeit immer noch heiß diskutiert. In diesem Beitrag wird ein erweitertes Ontologiemodell unter Verwendung von Beschreibungslogiken konstruiert. Basierend auf dem erweiterten Modell wird die Frage der Ontologieprüfung untersucht mit dem Ergebnis, dass die vier Arten der Termprüfung, einschließlich Termerfüllbarkeitsprüfung, Termsubsumtionsprüfung, Termäquivalenzprüfung und Termdisjunktheitsprüfung, auf die Erfüllbarkeitsprüfung reduziert werden können Die Erfüllbarkeitsprüfung kann in eine Instanziierungskonsistenzprüfung umgewandelt werden.;-;-;-;https://link.springer.com/chapter/10.1007/11881599_72 57a965521e24d0d30d851afff1b97468;de;;;2.1.;;;Ein Registrierungssystem auf einer Intensivstation Es wird ein einfaches Registrierungssystem vorgestellt, das Auskunft über das Langzeit- und Kurzzeitergebnis einer Intensivtherapie, über das Aktivitätsniveau oder die Lebensqualität nach Entlassung und eine Bewertung der Funktion verschiedener Organsysteme gibt. Das System ermöglicht Vergleiche von Therapieergebnissen in verschiedenen Einheiten. Das System kann in einer kontinuierlichen „Produktions“-Kontrolle eingesetzt werden und kann bei der Festlegung von Kriterien für die Auswahl von Patientenkategorien für die Behandlung auf der Intensivstation hilfreich sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-93201-4_79 82070fb64d7551c1cb821a30895162b7;de;;;2.1.;;;Eine FML-basierte Fuzzy-Ontologie vom Typ 2 für die Ernährungsbeurteilung Diabetes und Herz-Kreislauf-Erkrankungen haben sich in den letzten Jahren sukzessive zu den zehn häufigsten Todesursachen weltweit entwickelt. Was die Ernährung betrifft, so lässt sich im Internet leicht nachlesen, wie man sich gesund ernährt und welche Lebensmittel gut für die Menschen sind. Das Ernährungsverhalten ist stark personalisiert und auch mit der Kultur und Religion verbunden. In diesem Kapitel wird die Typ-2-FML-basierte Fuzzy-Ontologie vorgestellt. Darüber hinaus werden die Lebensmittelontologie und die Typ-2-Fuzzy-Diät-Ontologie weiter zur Ernährungsbewertung angewendet. Darüber hinaus wird mit den Technologien der Fuzzy-Sets vom Typ 2 und des Fuzzy-Inferenz-Ansatzes basierend auf FML das gesunde Niveau der Ernährung ermittelt, um den Benutzern eine Referenz für ihre Ernährung zu geben. Experimentelle Ergebnisse zeigen, dass der vorgeschlagene Ansatz machbar ist, um das gesunde Niveau der Ernährung für die gesammelten Mahlzeitenaufzeichnungen zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35488-5_9 53f6f07822e6c5b690c4e3b571407b0f;de;;;2.1.;;;Mobile Anfragebearbeitung – Taxonomie, Probleme und Herausforderungen Mit Fortschritten in drahtlosen Technologien wie der Entwicklung des drahtlosen Anwendungsprotokolls und mobiler Systeme der dritten Generation, die viele leistungsstarke Funktionen wie die Speicherung kleiner Datenbanken aufweisen, ist die Abfrageverarbeitung in einer mobilen Umgebung zu einem heißesten Forschungsthema geworden. Es wird viel Forschungsarbeit geleistet, um eine effiziente Abfrageverarbeitung in einer mobilen Umgebung unter Berücksichtigung der asymmetrischen Merkmale der mobilen Umgebung wie niedrige Batterieleistung, reduzierte Kommunikationsbandbreite und häufige Netzwerktrennung durchzuführen. Die Abfrageverarbeitung in einer mobilen Umgebung beinhaltet eine Join-Verarbeitung zwischen verschiedenen Sites, die Server und mobile Computer umfassen. Aufgrund des Vorhandenseins asymmetrischer Merkmale in einer mobilen Computerumgebung und auch des Bedarfs an Energieeinsparung kann die herkömmliche verteilte Abfrageverarbeitung nicht direkt auf ein mobiles Computersystem angewendet werden. Mit dem Aufkommen von standortbasierten Diensten und GPS-fähigen mobilen Geräten haben sich nun verschiedene Arten von Abfragen zum Erhalten von standortbasierten Informationen in der mobilen Umgebung entwickelt, wie z. Dieser Beitrag befasst sich mit der mobilen Anfrageverarbeitung mit besonderem Fokus auf die Klassifizierung von mobilen Anfragen und Fragestellungen in der mobilen Anfrageverarbeitung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22709-7_7 933fe71c052719ea0d5b19f4e426affc;de;;;2.1.;;;Umfassende genomweite Identifizierung von stromaufwärts gelegenen ORFs von Angiospermen mit Peptidsequenzen, die in verschiedenen taxonomischen Bereichen konserviert sind, unter Verwendung einer neuartigen Pipeline, ESUCA Upstream offene Leseraster (uORFs) in den 5′-untranslatierten Regionen (5′-UTRs) bestimmter eukaryotischer mRNAs kodieren evolutionär konservierte funktionelle Peptide, wie cis-wirkende regulatorische Peptide, die die Translation von Downstream-Main-ORFs (mORFs) kontrollieren. Für die genomweite Suche nach uORFs mit konservierten Peptidsequenzen (CPuORFs) wurden vergleichende genomische Studien durchgeführt, in denen uORF-Sequenzen zwischen ausgewählten Spezies verglichen wurden. Um die Chancen zur Identifizierung von CPuORFs zu erhöhen, haben wir zuvor einen Ansatz entwickelt, bei dem uORF-Sequenzen mit BLAST zwischen;-;-;-;https://link.springer.com/article/10.1186/s12864-020-6662-5 5fd09502275e5a32efa7d2ae0f6db961;de;;;2.1.;;;Eine Taxonomie von Methoden zum Umgang mit Datenströmen angesichts von Konzeptdriften Konzeptdrift ist das Szenario beim Online-Lernen, bei dem sich der Wert der Zielvariablen im Laufe der Zeit ändert. Die Lernalgorithmen sollten von Natur aus adaptiv sein, um die aufgrund der Konzeptänderung auferlegten Änderungen zu berücksichtigen. In diesem Artikel werden die adaptiven Algorithmen erörtert, die beim Lernen aus den sich entwickelnden Daten mit verschiedenen sich ändernden Mustern verwendet werden. Die verschiedenen Anwendungen aufgrund von Konzeptabweichungen, die Hauptquellen für digitale Datenströme sind, und andere reale Probleme, die Konzeptabweichungen angehen, werden in diesem Papier ebenfalls erörtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4451-4_41 8e7d93366bdd96d51a7511d1497f4f30;de;;;2.1.;;;Auswahl kollaborativer Lerntechniken mit Blooms Taxonomie Diese Arbeit präsentiert ein Modell für die Auswahl von Techniken des kollaborativen Lernens (CL) unter Berücksichtigung spezifischer Merkmale und Bedürfnisse der Aktivität, die Lehrer in ihrer pädagogischen Praxis durchführen möchten. Dieses Modell berücksichtigt die Repräsentation der Aktivität im Hinblick auf die erforderlichen Kompetenzen, die aus der Bloom-Taxonomie definiert sind. Dann wird unter Verwendung der von Experten durchgeführten Charakterisierung einer Reihe von Techniken ein Algorithmus verwendet, um ein Affinitätsmaß bereitzustellen, der eine Empfehlung der zu verwendenden Technik ausführt. Außerdem wird eine Validierung des Modells aus drei Fallstudien beschrieben, die durch den Vergleich von Versuchs- und Kontrollgruppen durchgeführt wird. Die Ergebnisse zeigen, dass CL eine bessere akademische Leistung ermöglicht, aber auch, dass die vom Empfehlungsmodell vorgeschlagenen Techniken eine höhere Leistung aufweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-39672-9_1 dafce3a84cdb29db7e122647ffa613b0;de;;;2.1.;;;Aktionsforschung für medizinische Lehrkräfte: Die Anwendung von Blooms Taxonomie in formativen Bewertungen basierend auf Regenklassenzimmer - In der medizinischen Ausbildung werden sowohl summative als auch formative Assessments eingesetzt. Summative Assessment (SA) bewertet den Lernfortschritt eines Schülers und liefert konkrete Noten oder Entscheidungen zum Bestehen/Nichtbestehen. Formative Assessment (FA) geben das Feedback und verbessern das Lernverhalten der Schüler. Über die Auswirkungen von FA auf die Anerkennungskonstruktion der Studierenden ist jedoch weniger bekannt. Diese Studie soll die Auswirkungen und die Korrelation der FA-Implementierung auf die kognitive Leistungsfähigkeit von Schülern in der abschließenden SA an der Jinan University School of Medicine zeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4594-2_10 b5be15f8928fda1dd33ca23b6dc52915;de;;;2.1.;;;Taxonomie des Angriffs auf C-Überlauf-Schwachstellen Seit den frühen 70er Jahren wurden verschiedene Klassifikationen von Software-Schwachstellen erstellt, um ein korrektes Verständnis von Schwachstellen zu ermöglichen, und dient somit als starke Grundlage zum Schutz und zur Verhinderung von Ausnutzung von Software. Trotz aller Forschungsbemühungen gibt es jedoch immer noch ausnutzbare Sicherheitslücken in den meisten wichtigen Softwareprodukten, wobei die häufigsten C-Overflow-Sicherheitslücken immer noch sind. C-Overflow-Schwachstellen sind die häufigsten Schwachstellen, die in verschiedenen Warnhinweisen mit hoher Auswirkung oder kritischem Schweregrad auftauchen. Dies ist teilweise, aber erheblich, auf das Fehlen einer Taxonomie aus der Quellcode-Perspektive zurückzuführen, um alle Arten von C-Überlauf-Schwachstellen zu beheben. Daher schlagen wir diese Taxonomie vor, die auch die neuesten C-Überlauf-Schwachstellen in vier neue Kategorien einteilt. Wir beschreiben auch Möglichkeiten, diese Schwachstellen zu erkennen und zu überwinden, und dienen daher Entwicklern und Sicherheitsanalysten als wertvolle Referenz, um potenzielle Sicherheitslücken zu identifizieren, um Ausnutzungen insgesamt zu reduzieren oder zu verhindern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22191-0_33 8d5728cb199600556101efe6ac1acfe3;de;;;2.1.;;;Eine praktische Taxonomie des Wissens Wissen hat nicht die in den letzten drei Jahrzehnten versprochenen Effizienzgewinne und Wettbewerbsvorteile gebracht. Ein Grund liegt in den bestehenden Taxonomien, die sowohl abstrakt als auch schwer anzuwenden sind. Diese Forschung untersucht Wissen aus der Perspektive der Ökonomie. Es diskutiert stillschweigendes und explizites Wissen in Bezug auf Komplemente, Substitute und normale oder minderwertige Güter und betrachtet ihre Nachfrage- und Angebotselastizität.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-81635-3_2 ba34533d030f374621fef79a0029eb05;de;;;2.1.;;;Eine Roadmap für den Vergleich von Identity-Management-Lösungen auf Basis modernster IdM-Taxonomien In den letzten Tagen muss die digitale Identität im Unternehmensumfeld mit hoher Priorität behandelt werden. Unabhängig von verschiedenen Anwendungen, die wir in der Organisation verwenden, müssen Ressourcen verwaltet und der entsprechenden Identität/dem entsprechenden Benutzer (z. B. Provisioning Management) mit den richtigen Zugriffsrechten (Access Management) zugewiesen werden. Identitätsmanagement oder IdM bezieht sich darauf, wie Menschen in Computernetzwerken identifiziert, autorisiert und verwaltet werden. Es befasst sich mit Themen wie dem Erstellen von Identitäten für die Benutzer, verschiedenen Möglichkeiten zum Schutz dieser Identitäten und zugehörigen Informationen sowie der Technologien, die diesen Schutz unterstützen. In diesem Papier werden die neuesten IdM-Produktanbieter auf dem heutigen Markt analysiert. Dieses Papier zielt auch darauf ab, eine Übersicht/Roadmap bereitzustellen, um die Identitätsmanagementlösungen basierend auf verschiedenen wichtigen Identitätsfaktoren zu vergleichen. In diesem Whitepaper analysieren wir verschiedene IdM-Systeme basierend auf zwei State-of-the-Art Identity Management Taxonomien, wie Features & Fähigkeiten und Strategie & Vision.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14478-3_36 56e82c205be62dda1d8d79e99834cbb3;de;;;2.1.;;;Eine Taxonomie schmutziger zeitorientierter Daten Datenqualität ist ein wichtiges Thema für Business Analytics, um in vielen datenintensiven Branchen genaue Einblicke zu gewinnen und richtige Entscheidungen zu treffen. Obwohl systematische Ansätze zur Kategorisierung, Erkennung und Vermeidung von Datenqualitätsproblemen existieren, werden die Besonderheiten zeitorientierter Daten kaum berücksichtigt. Zeit ist jedoch eine wichtige Datendimension mit ausgeprägten Eigenschaften, die im Kontext von Dirty Data besondere Berücksichtigung bietet. Aufbauend auf bestehenden Taxonomien allgemeiner Datenqualitätsprobleme adressieren wir „schmutzige“ zeitorientierte Daten, d. Insbesondere haben wir empirisch abgeleitete Probleme untersucht, die bei verschiedenen Arten von zeitorientierten Daten (z. Durch die Bereitstellung kategorisierter Informationen zu bestehenden Taxonomien schaffen wir eine Grundlage für die weitere Forschung im Bereich schmutziger zeitorientierter Daten und für die Formulierung wesentlicher Qualitätsprüfungen bei der Vorverarbeitung zeitorientierter Daten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32498-7_5 afa531fe834c935ce5c7b84844efa218;de;;;2.1.;;;Revyu.com: Eine Überprüfungs- und Bewertungsseite für das Datennetz Revyu.com ist eine öffentlich zugängliche Live-Überprüfungs- und Bewertungswebsite, die so konzipiert ist, dass sie von Menschen genutzt werden kann und gleichzeitig auf der Grundlage ihrer Eingaben transparent maschinenlesbare RDF-Metadaten für das Semantic Web generiert. Die Site verwendet Semantic Web-Spezifikationen wie RDF und SPARQL sowie die neuesten Best Practices für Linked Data, um einen wichtigen Knoten in einem potenziell webweiten Ökosystem von Bewertungen und verwandten Daten zu schaffen. Während der gesamten Implementierung von Revyu wurden Designentscheidungen getroffen, die darauf abzielen, die Belastung der Benutzer zu minimieren, indem die Wiederverwendung externer Datenquellen maximiert und weniger strukturierte menschliche Eingaben (in Form von Tagging im Web2.0-Stil) ermöglicht werden, wodurch eine stärkere Semantik ermöglicht wird kann später abgeleitet werden. Links zu externen Quellen wie DBpedia werden genutzt, um menschenorientierte Mashups auf HTML-Ebene zu erstellen, während Links auch in RDF erstellt werden, um sicherzustellen, dass Revyu eine erstklassige Rolle im blühenden Web of Data spielt. Die Site ist unter verfügbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76298-0_66 7725030f4b3f146103da5f215bc5d17b;de;;;2.1.;;;Eine Taxonomie von Workflow-Planungsalgorithmen Ein Workflow ist eine Reihe von Schritten oder Aufgaben, die die Ausführung eines Prozesses modellieren, z. B. Proteinannotation, Rechnungserstellung und Komposition astronomischer Bilder. Workflow-Anwendungen erfordern in der Regel große Rechenressourcen. Daher bieten sich verteilte Computing-Ansätze (wie Grid- und Cloud-Computing) als praktikable Lösung zu ihrer Ausführung an. Zwei wichtige Faktoren zum Ausführen von Arbeitsabläufen in verteilten Computerplattformen sind (1) Arbeitsablaufplanung und (2) Ressourcenzuweisung. Infolgedessen gibt es eine Vielzahl von Workflow-Planungsalgorithmen, die Workflow-Aufgaben verteilten Ressourcen abhängig von Aufgabenabhängigkeiten, Zeit- und Budgetbeschränkungen zuordnen. In diesem Papier präsentieren wir eine Taxonomie von Workflow-Scheduling-Algorithmen, die die Algorithmen in (1) Best-Effort-Algorithmen (einschließlich Heuristiken, Metaheuristiken und Approximationsalgorithmen) und (2) Dienstqualitätsalgorithmen (einschließlich budgetbeschränkter , termingebunden und Algorithmen gleichzeitig durch Termin und Budget beschränkt). Darüber hinaus wurde ein Workflow-Engine-Simulator entwickelt, um die Leistung von Scheduling-Algorithmen quantitativ zu vergleichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-57972-6_8 e43dadbf34fd5684f5956bf0185a0ff4;de;;;2.1.;;;Skalierbares Gruppenschlüsselmanagement für sicheres Multicast: Eine Taxonomie und neue Wege Viele Multicast-basierte Anwendungen (z. B. Pay-per-View, Online-Auktion und Telekonferenz) erfordern ein sicheres Kommunikationsmodell, um die Offenlegung verteilter Daten an nicht autorisierte Benutzer zu verhindern. Eine Lösung, um dieses Ziel zu erreichen, besteht darin, dass alle Mitglieder einer Gruppe einen Schlüssel teilen, der zum Verschlüsseln von Daten verwendet wird. Um Rückwärts- und Vorwärtsvertraulichkeit zu gewährleisten [23] (dh ein neues Mitglied sollte die frühere Kommunikation nicht entschlüsseln dürfen und ein widerrufener Benutzer sollte die zukünftige Kommunikation nicht entschlüsseln können), sollte dieser gemeinsame Gruppenschlüssel aktualisiert und an alle verteilt werden autorisierten Mitgliedern auf sichere, zuverlässige und rechtzeitige Weise bei einem Mitgliedschaftswechsel. Dieser Vorgang wird als bezeichnet;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-73821-5_3 67c13562f65e14ce1b62eff898c8e48e;de;;;2.1.;;;EEG-basierter Arbeitsbelastungsindex als taxonomisches Instrument zur Bewertung der Ähnlichkeit verschiedener robotergestützter Chirurgiesysteme Im Einsatzbereich werden Simulatoren aufgrund ihrer Vielseitigkeit, der Möglichkeit der Kostenbegrenzung und der Effizienzsteigerung zunehmend bei Trainingsprotokollen eingesetzt. Diese Arbeit zielte darauf ab, eine EEG-basierte Neurometrie der mentalen Arbeitsbelastung vorzuschlagen, die zuvor in anderen Kontexten validiert wurde, als taxonomisches Instrument, um die Ähnlichkeit in Bezug auf kognitive Anforderungen zweier verschiedener Systeme zu bewerten: das chirurgische System da Vinci, führend auf diesem Gebiet der Roboterchirurgie und die Actaeon-Konsole von BBZ, im Grunde ein billigerer Simulator, der darauf abzielt, Studenten in der Verwendung des da Vinci-Systems zu schulen. Eine solche neurophysiologische Bewertung des Arbeitsbelastungsbedarfs wurde auch durch Informationen aus der Aufgabenerfüllung und Selbstberichten integriert. Die Ergebnisse validierten den vorgeschlagenen EEG-basierten Arbeitsbelastungsindex und zeigten den potenziell fruchtbaren Einsatz von Simulatoren aufgrund ihrer hohen Ähnlichkeit in Bezug auf die kognitiven Anforderungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-32423-0_7 5f7a67b3cb65134a61fe308b2bd766ea;de;;;2.1.;;;Automatische Fischtaxonomie mit evolutionskonstruierten Funktionen zur Entfernung invasiver Arten Die Bewertung der Taxonomie von Fischen ist wichtig, um Fischpopulationen zu verwalten, die Fischerei zu regulieren und die exotischen invasiven Arten zu entfernen. Die Automatisierung dieses Prozesses spart wertvolle Ressourcen an Zeit, Geld und Manpower. Aktuelle Verfahren zur automatischen Fischüberwachung verlassen sich darauf, dass ein menschlicher Experte die für die Klassifizierung von Fischen in einer Taxonomie notwendigen Merkmale entwickelt. Dieses Papier beschreibt eine Methode, die evolutionskonstruierte (ECO) Merkmale verwendet, um automatisch Merkmale zu finden, die zur Klassifizierung von Fischarten verwendet werden können. Anstatt sich auf menschliche Experten zu verlassen, um Feature-Sets zu erstellen, um ihre Parameter abzustimmen, verwendet unsere Methode simulierte Evolution, um eine Reihe von Transformationen zu erstellen, die das Eingangssignal von Rohpixeln von Fischbildern in hochwertige Merkmale oder Merkmale umwandeln, die von Menschen oft übersehen werden. Die Wirksamkeit der ECO-Merkmale wird an einem Datensatz von vier Fischarten gezeigt, bei dem durch fünffache Kreuzvalidierung eine durchschnittliche Klassifizierungsrate von 99,4 % erreicht wird. Obwohl wir vier Fischarten verwenden, um die Machbarkeit zu beweisen, kann diese Methode leicht an neue Fauna und Umstände angepasst werden.;-;-;-;https://link.springer.com/article/10.1007/s10044-014-0426-2 167758119eeb6c4e443ef25cfa25ab44;de;;;2.1.;;;Eine Taxonomie auf Flow-Ebene und die Prävalenz von Brute-Force-Angriffen Brute-Force- und Wörterbuchangriffe im Internet gegen Netzwerkdienste und Webanwendungen sind allgegenwärtig. Wir präsentieren ihre Taxonomie aus der Perspektive von Netzwerkflüssen. Dies trägt zu einer klaren Bewertung von Detektionsmethoden bei und ermöglicht ein besseres Verständnis der Brute-Force-Angriffe innerhalb der Forschungsgemeinschaft. Als nächstes nutzen wir die formalen Definitionen von Angriffen in einer Langzeitanalyse des SSH-Verkehrs aus dem 10-Gigabit-Hochschulnetz. Die Ergebnisse zeigen, dass flussbasierte Intrusion Detection von der Verkehrsüberwachung des gesamten Netzwerks profitieren kann, insbesondere kann sie eine genauere Erkennung der meisten Brute-Force-Angriffe in Hochgeschwindigkeitsnetzwerken ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22714-1_69 61bfd0eec15b182c7a0fee2088adcec5;de;;;2.1.;;;Der partiell robuste M-Ansatz Der PLS-Ansatz ist eine weit verbreitete Technik, um Pfadmodelle zu schätzen, die sich auf verschiedene Blöcke von Variablen beziehen, die aus derselben Population gemessen wurden. Es wird häufig in den Sozialwissenschaften und in den Wirtschaftswissenschaften angewendet. Bei dieser Art von Anwendungen können Abweichungen von der Normalität und Ausreißer auftreten, die zu einem Effizienzverlust oder sogar verzerrten Ergebnissen führen. In der aktuellen Arbeit wird eine robuste Methode zur Schätzung von Pfadmodellen vorgeschlagen, der partielle robuste M (PRM)-Ansatz. An einem Beispiel werden seine Vorteile veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-31314-1_27 e22327af338a97036c2b8cf9b50da133;de;;;2.1.;;;Dynamische Evolution von Rollentaxonomien durch multidimensionales Clustering in Multiagenten-Organisationen Dieses Papier befasst sich mit dem Problem der Untersuchung, wie sich Organisationsstrukturen im Laufe der Zeit unter Verwendung der Informationen aus den Vertrauensmodellen der Agenten entwickeln können. Wir präsentieren einen Mechanismus, der auf Clustering-Techniken basiert und in der Lage ist, Verhaltensmuster in organisatorischen Multi-Agenten-Systemen zu erkennen und dadurch neue Rollen zu identifizieren, die die Rollentaxonomie dynamisch erweitern. Wir präsentieren experimentelle Ergebnisse, die zeigen, dass diese Erweiterung zu einer Verbesserung der Entscheidungsprozesse der Agenten im Vergleich zu statischen Organisationsstrukturen führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11161-7_45 4e9b6a6897645c756359b2b0def3cd69;de;;;2.1.;;;Taxonomie der Blockchain-Plattform Jetzt entwickelt sich die Blockchain-Technologie weiter – viele neue Projekte und Plattformen entstehen. Einige dieser technologischen Lösungen basieren auf bewährten Plattformen, andere Entwickler verwenden jedoch eigene neue Modelltypen. Die Statistik zeigt, dass die Blockchain-Technologie zu den zukunftssicheren Technologien wie Künstliche Intelligenz, Internet der Dinge und Nanotechnologie gehört. Die fehlende Standardisierung im Bereich der modernen Technologien kann jedoch negative Folgen für Entwickler und Finanzinstitute haben. Ziel dieser Studie ist es, eine gemeinsame offene Klassifizierung bestehender Blockchain-Plattformen zu erstellen. Die Klassifizierung ist eine hierarchische Struktur, die aus sechs Schlüsselmerkmalen besteht: Token, Transaktion, Block, Framework, Netzwerk und Kommunikation. Jedes Merkmal besteht aus Gruppen (qualitativen Merkmalen), einschließlich Mengen. Solche Ansätze ermöglichen es, den Prozess der Bildung der Blockchain-Plattformarchitektur zu standardisieren. Darüber hinaus ist es möglich, verschiedene Szenarien der Netzwerkänderungen zu erstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63119-2_32 b689f239312b27ba15e12025ebf2a1e4;de;;;2.1.;;;Vergleichende Studie zur Erkennung handschriftlicher Marathi-Zeichen basierend auf KNN- und SVM-Klassifikator Eine robuste handschriftliche Marathi-Zeichenerkennung ist für die ordnungsgemäße Funktion im Bereich der Dokumentenanalyse unerlässlich. Viele Forschungen im Bereich OCR haben sich mit den komplexen Herausforderungen der hohen Variation von Zeichenform, Struktur und Dokumentenrauschen beschäftigt. Bei dem vorgeschlagenen System wird das Rauschen unter Verwendung einer morphologischen und einer Schwellenwertoperation entfernt. Schiefe gescannte Seiten und segmentierte Zeichen werden mit der Hough-Transformation korrigiert. Die Zeichen werden aus gescannten Seiten unter Verwendung von Bounding-Box-Techniken segmentiert. Die Größenvariation jedes handgeschriebenen Marathi-Zeichens wird in 40 . normalisiert;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-4859-3_9 19e83bfb8d07a2f4a45409fe12741f02;de;;;2.1.;;;Twitter-basierte Klassifikation für persönliche und nicht-personenbezogene Angaben zu Herzerkrankungen Die Popularität von Twitter hat eine massive soziale Interaktion zwischen Benutzern geschaffen, die eine große Menge an Daten generiert, die ihre Meinungen und Gefühle zu verschiedenen Themen, einschließlich ihres Gesundheitszustands, enthalten. Diese Daten enthalten wichtige Informationen, die bei der Überwachung und Erkennung von Krankheiten verwendet werden können, daher Twitter therefore hat die Aufmerksamkeit vieler Forscher auf sich gezogen, da es sich als wichtige Quelle für Gesundheitsinformationen im Internet erwiesen hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-59506-7_21 401f2cbe37e96f61b4bbecc85c0675a5;de;;;2.1.;;;Hybride Ansätze zur Mustererkennung Ein allgemeiner Gesichtspunkt der Mustererkennung wird eingeführt. Zwei Hauptansätze zur Mustererkennung, nämlich entscheidungstheoretisch (oder statistisch) und syntaktisch (oder strukturell), werden dann im allgemeinen Rahmen diskutiert. Der Ansatz des Template-Matching kann als Spezialfall der beiden Hauptansätze interpretiert werden. Es werden verschiedene Möglichkeiten der Mischung der Ansätze diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-7772-3_11 70e736ec71c8d7fbdcea3273c744ee65;de;;;2.1.;;;Nasheed-Song-Klassifizierung nach Fuzzy-Soft-Set-Ansatz Die Klassifizierung von Genres gehört zu den wichtigen Aufgaben der musikalischen Erkenntnisgewinnung. Dies kann die Genauigkeit des Findens von Ergebnissen beeinträchtigen oder die Bearbeitungszeit bei der Suche nach einem bestimmten Musikgenre im Internetkontext verkürzen. Während das Genre-Klassifizierungsschema für westliche Genres sehr vielversprechend aussieht, hat das Genre des nicht-westlichen Genres immer noch keinen Platz in Genre-Retrievals, insbesondere bei der Identifizierung von Nasheed-Songs. Daher wurde eine Untersuchung durchgeführt, um die besten Merkmale zur Beschreibung des Nasheed-Genres auszuwählen und einen Klassifikator unter Verwendung der ausgewählten Merkmale zum Klassifizieren von Nasheed zu erstellen. Die Merkmalsauswahltechnik und der Klassifikator wurden basierend auf der Theorie des Fuzzy-Soft-Sets aufgebaut, die genügend Parameter haben, um Unsicherheiten in den Daten zu handhaben. Das Ergebnis zeigt, dass der erstellte Klassifikator, der die ausgewählten Funktionen verwendet, das Nasheed-Genre bis zu 90% genau identifizieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4069-5_18 90d7dfa0668eada279429d52e4cba62b;de;;;2.1.;;;Biomedizinische stimmbasierte Identifizierung von Parkinson-Störungen für Homosapiens Eine langfristige neurodegenerative genetische und sporadisch bedingte Parkinson-Störung betrifft das zentrale Nervensystem von Homosapiens. Die meisten der bestehenden Ansätze haben die Parkinson-Störung unter Verwendung einer größeren Anzahl von Sprachfunktionen wie MDVP:Fo(Hz), Jitter, Schimmer usw. erkannt, was aufgrund der Einbeziehung nicht erforderlicher zusätzlicher Funktionen in das Feld zu Komplexität O(mxn) führt n. Um die Verarbeitungszeit zu reduzieren, wird die Merkmalsuntermenge unter Verwendung von korrelationsbasiertem Merkmalsselektor, Hauptkomponentenanalyse und genetischem Algorithmus identifiziert. In diesem Artikel wird ein überwachter Ansatz namens Neural Network Based Genetic Algorithm verwendet, um das Wahrscheinlichkeitsmodell für vorhandene Datensätze zu erstellen. Dieses Modell wird mit bestehenden Ansätzen verglichen. Das Experiment erreichte eine Leistungssteigerung von 95,38 %.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-71767-8_56 42abdcf7774c6bda4c979fcf4adec509;de;;;2.1.;;;Eigenschaften und Klassifizierung von Erdrutschdämmen im Zusammenhang mit dem Erdbeben von Wenchuan 2008 Starke Erdbeben gehören zu den wichtigsten Auslösern von Erdrutschen, die Flüsse blockieren und Erdrutschdämme bilden können. Einige dieser Dämme können aufgrund von Überschwemmungen flussaufwärts und flussabwärts liegenden Dammbruchüberflutungen ernsthafte Bedrohungen für Menschen und Eigentum darstellen. Die Bewertung der Stabilität und des Gefahrenpotenzials von Erdrutschdämmen ist für die Minderungsmaßnahmen von Bedeutung, bleibt jedoch eine Herausforderung. Das Erdbeben von Wenchuan 2008 (;-;-;-;https://link.springer.com/article/10.1186/s40677-017-0079-8 d2a239af322d8e08afe3e81206ebf200;de;;;2.1.;;;Taxonomievorschlag für Affen-Adenoviren der Alten Welt: Charakterisierung mehrerer nicht-menschlicher, nicht-Affen-Adenovirus-Linien Es wird eine Artenklassifikation in Bezug auf Affen-Adenoviren der Alten Welt vorgeschlagen. Wir bestimmten die Nukleotidsequenzen von PCR-amplifizierten Fragmenten aus den Genen der IVa2-, DNA-abhängigen DNA-Polymerase-, Penton-Base- und Hexon-Proteine ​​von jedem Simian-Adenovirus (SAdV)-Serotyp, der von Altweltaffen stammte, für die die vollständige Genomsequenz hatte noch nicht veröffentlicht. Wir haben bestätigt, dass die Mehrheit der SAdVs der Altwort-Affen zu zwei zuvor etablierten Arten gehört. Interessanterweise handelt es sich dabei um die jüngst etablierte humane AdV-Spezies,;-;-;-;https://link.springer.com/article/10.1007/s00705-015-2575-z e679a10b32a0e00386962f9f5c092b9a;de;;;2.1.;;;Eine Taxonomie von Parallelitätsfehlern in ereignisgesteuerten Programmen Parallelitätsfehler sind ein gut dokumentiertes Thema in Programmen mit gemeinsam genutztem Speicher, einschließlich ereignisgesteuerter Programme, die asynchrone Ereignisse verarbeiten. Asynchrone Ereignisse führen in ereignisgesteuerte Programme eine fein abgestufte Parallelität ein, wodurch es schwierig wird, sie gründlich zu testen und zu debuggen. Leider sind frühere Taxonomien zu Parallelitätsfehlern nicht auf das Debugging von ereignisgesteuerten Programmen anwendbar oder bieten nicht genügend Wissen über ereignisgesteuerte Parallelitätsfehler. Dieses Papier klassifiziert die ereignisgesteuerten Programmmodelle basierend auf den Ereignistypen in eine niedrige und eine hohe Ebene und untersucht und kategorisiert sorgfältig die Parallelitätsfehlermuster in solchen Programmen. Darüber hinaus untersuchen wir bestehende Techniken zur Erkennung von Parallelitätsfehlern in ereignisgesteuerten Programmen. Nach unserem besten Wissen liefert diese Studie die erste detaillierte Taxonomie zu Parallelitätsfehlern in ereignisgesteuerten Programmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27207-3_48 869240d20b3c6db87308eea3ec80364b;de;;;2.1.;;;Kategorischer Rahmen für komplexe Organisationsnetzwerke: Verständnis der Auswirkungen von Typen, Größe, Schichten, Dynamik und Dimensionen Die Modellierung von Organisationsnetzwerken kann Komplexität in vielen Formen aufweisen, um die Realität der Prozesse und Fähigkeiten einer Organisation zu berücksichtigen. Netzwerke ermöglichen es Modellierern, viele strukturelle und Attributionselemente von Organisationen auf eine Weise zu berücksichtigen, die leistungsfähiger sein kann als statistische Data-Mining-Methoden oder stochastische Modelle. Der Preis für diese erhöhte Modellierungsstärke kann jedoch in Form einer erhöhten Komplexität, Sensibilität und Fragilität liegen. Herkömmliche Netzwerkmethoden und -messungen können empfindlich auf sich ändernde, unbekannte oder ungenaue Topologien reagieren, fragil gegenüber dynamischer und algorithmischer Verarbeitung sein und bei der Einbindung hochdimensionaler Daten rechnerisch beansprucht werden. Empfindlichkeit und Fragilität von Netzwerkmodellen können durch das Setzen von Grenzen um Netzwerkzustände gesteuert werden, innerhalb derer spezifische Geometrien und Topologien robust gemessen werden können. Wir schlagen einen kategorialen Rahmen vor, der solche Grenzen identifiziert und geeignete Modellierungsmethodiken und Messinstrumente für verschiedene Kategorien von Organisationsnetzwerken entwickelt. Die Kategorisierung von Netzwerken entlang wichtiger Dimensionen wie Typ, Größe, Schichten, Dynamik und Dimensionen grenzen Paradigmenwechsel (aus sozialwissenschaftlicher Sicht) oder Phasenübergänge (aus der Physik) ab – Punkte, an denen sich die grundlegenden Eigenschaften oder Dynamiken der Netzwerke ändern . Wenn diese kategorischen Probleme nicht berücksichtigt werden, kann dies zu einer schlechten Methodik, fehlerhaften Analysen und mangelhaften Ergebnissen führen. Der Zweck unserer Arbeit besteht darin: 1) einen Rahmen zu entwickeln, der den Aufbau einer Theorie der Modellierung von Netzwerken ermöglicht, und 2) Maßnahmen, Methoden und Werkzeuge zu identifizieren, die für bestimmte Kategorien (und für andere) in diesem Studienbereich geeignet sind . Wir glauben, dass ein solcher Rahmen helfen kann, die zugrunde liegende Theorie zu lenken und als Grundlage für die weitere Formalisierung von Netzwerkstudien zu dienen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16112-9_19 2179ec3b9af0b9560314102c94ba80ab;de;;;2.1.;;;Vergleich von Näherungsmaßen: ein topologischer Ansatz In vielen Anwendungsdomänen beeinflusst die Wahl eines Näherungsmaßes direkt das Ergebnis der Klassifizierung, des Vergleichs oder der Strukturierung einer Menge von Objekten. Für jedes gegebene Problem ist der Benutzer verpflichtet, ein Näherungsmaß aus vielen vorhandenen auszuwählen. Diese Wahl hängt jedoch von vielen Merkmalen ab. Tatsächlich sind nach dem Begriff der Äquivalenz, wie dem auf der Vorbestellung basierenden, einige der Näherungsmaße mehr oder weniger gleichwertig. In diesem Papier schlagen wir einen neuen Ansatz vor, um die Näherungsmaße zu vergleichen. Dieser Ansatz basiert auf der topologischen Äquivalenz, die das Konzept der lokalen Nachbarn ausnutzt und eine Äquivalenz zwischen zwei Näherungsmaßen durch die gleiche Nachbarschaftsstruktur auf den Objekten definiert. Wir vergleichen die beiden Ansätze, die Vorordnung und unseren Ansatz, mit 35 Näherungsmaße unter Verwendung der kontinuierlichen und binären Attribute empirischer Datensätze.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35855-5_3 c5cdf9cdfcb213b19da8c1592de969f0;de;;;2.1.;;;Leistungsanalyse des Naive Bayes Computing Algorithm für das Klassifizierungsproblem von Blutspendern Der Begriff wie intelligente Systeme, wissensbasierte Systeme, Expertensysteme usw. soll die Botschaft ausdrücken, dass es möglich ist, Maschinen zu konstruieren, die Intelligenz zeigen können, genau wie Menschen, die ein wenig einfache Aufgaben erledigen. Bei diesen Aufgaben suchen wir das Endergebnis der Leistung der Maschine zur Bewertung mit der Gesamtleistung eines Menschen. Wir charakterisieren Intelligenz für die Maschine, wenn die Gesamtleistung von Maschine und Mensch identisch ist. In den jüngsten Trends werden Soft-Computing-Algorithmen mit Data-Mining-Techniken in den verschiedenen Anwendungsdomänen für die Vorhersage, Wissensextraktion und Leistungsbewertungsaufgaben angewendet. Das Gesundheitswesen ist eine davon. In diesem Artikel wird ein Soft-Computing-Algorithmus von Naive-Bayes mit der Data-Mining-Technik verwendet, um die Leistung der Blutbank und der Blutspender in einer bestimmten Stadt auf der Grundlage realer Datensätze zu untersuchen. Der Rechenalgorithmus von Naive-Bayes hat die Fähigkeit des überwachten Lernens zusätzlich zum statistischen Lernen. Die Leistungen des Naive-Bayes-Algorithmus bezüglich der Idee unterschiedlicher Parameter werden bewertet und die Ergebnisse werden gesammelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2372-0_43 ede51bd81711abd92650d09ecc278344;de;;;2.1.;;;Adaptive 3D-Formkontextdarstellung für die Bewegungsbahnklassifizierung Die Messung der Ähnlichkeit zwischen zwei Bewegungstrajektorien ist eine der grundlegenden Aufgaben der Bewegungsanalyse, -wahrnehmung und -erkennung. Frühere Forschungen konzentrieren sich auf die 2D-Trajektorien-Ähnlichkeitsmessung. Mit dem Aufkommen von 3D-Sensoren ist es möglich, große Mengen an 3D-Trajektoriendaten für eine präzisere Bewegungsdarstellung zu sammeln. Da Trajektorien im 3D-Raum oft ein ähnliches Bewegungsmuster aufweisen, sich jedoch in Lage, Ausrichtung, Maßstab und Erscheinungsvariationen unterscheiden können, muss der Trajektoriendeskriptor für diese Freiheitsgrade invariant sein. Der Formkontext ist einer der reichhaltigen lokalen Formdeskriptoren, die verwendet werden können, um die Trajektorie im 2D-Raum darzustellen, wird jedoch selten im Bereich der 3D-Bewegungstrajektorienerkennung angewendet. Um mit 3D-Daten umzugehen, erweitern wir in diesem Papier zunächst den Formkontext auf natürliche Weise in die raumzeitliche Domäne, indem wir eine sphärische Nachbarschaft übernehmen und sie 3D Shape Context(3DSC) nennen. Um eine bessere globale Invariante der Trajektorienklassifizierung zu erreichen, wird der adaptive Außenradius von 3DSC zum Extrahieren von 3D-Formkontextmerkmalen vorgeschlagen. Die Vorteile unseres vorgeschlagenen 3D-Formkontexts sind: (1) Es ist invariant gegenüber der Translation und Skalierung von Bewegungstrajektorien im raumzeitlichen Bereich, (2) Es enthält die gesamten Bewegungspunkte im 3DSC-Kugelvolumen, kann somit eine globale Informationsdarstellung erreichen und ist gut zum Lösen von Sub-Trajektorien-Problemen, (3) Es ist unempfindlich gegenüber den Erscheinungsvariationen in den identischen Bedeutungs-Trajektorien, kann jedoch die unterschiedlichen Bedeutungs-Trajektorien stark unterscheiden. In der Trajektorienerkennungsphase betrachten wir eine Merkmal-zu-Merkmal-Ausrichtung zwischen Bewegungstrajektorien basierend auf dynamischer Zeitverzerrung und verwenden dann den einen nächsten Nachbarn (1NN) Klassifikator für die endgültige Genauigkeitsbewertung. Wir testen die Leistung des vorgeschlagenen 3D-SC-DTW auf einem großen UCI ASL-Datensatz, einem digitalen Handdatensatz und die experimentellen Ergebnisse zeigen die Wirksamkeit unserer Methode.;-;-;-;https://link.springer.com/article/10.1007/s11042-016-3841-0 d965ced0ef816aa8fbd190aab19a5f47;de;;;2.1.;;;Fahrzeugdiskriminierung mithilfe einer Kombination mehrerer Merkmale basierend auf der Fahrzeugfront In diesem Beitrag wird ein neues Verfahren zur Fahrzeugunterscheidung und -erkennung auf der Grundlage der Kombination mehrerer Merkmale basierend auf dem Fahrzeuggesicht vorgeschlagen. Der Farbunterschied, der Unterschied im Fahrzeuggesichtsmuster und der Logo-Übereinstimmungsgrad kommen zusammen, um die Leistung der Fahrzeugunterscheidung zu verbessern. Diese Methode wird anhand einer Reihe von 200 Bildern bewertet, die fünf verschiedenen Fahrzeugherstellern gehören. Eine Reihe von Experimenten wird durchgeführt, wobei die 300 Bildpaare in einen Trainingssatz bzw. einen Testsatz aufgeteilt werden. Es wird gezeigt, dass der in diesem Beitrag vorgeschlagene Enhanced Feature Combination Approach (CMN) die Erkennungsgenauigkeit im Vergleich zum CM- und CN-Verfahren erhöht. Die berichteten Ergebnisse weisen auf eine hohe Klassifizierungsrate in ähnlichen oder unterschiedlichen Fahrzeugen und eine schnelle Verarbeitungszeit hin, wodurch es für Echtzeitanwendungen geeignet ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38466-0_56 597168e645115d59920f40ee002a5f92;de;;;2.1.;;;Random Forests und Evidial-Glauben-Funktion-basierte Erdrutsch-Anfälligkeitsbewertung in der westlichen Provinz Mazandaran, Iran In vielen Teilen der Welt ist die Anfälligkeit für Erdrutsche aufgrund fehlender Daten und geeigneter Methoden für eine flächendeckende Umsetzung noch unzureichend kartiert. Der Iran ist eines der Länder mit umfangreichen Erdrutschproblemen, wobei zwischen 1993 und 2007 fast 4900 große Erdrutsche aufgetreten sind. Gleichzeitig wurde die Anfälligkeit für Erdrutsche für das Land nicht bewertet. Random Forest (RF) hat sich kürzlich als geeignetes Werkzeug für eine solche Kartierung erwiesen. In dieser Studie haben wir die RF-Methode weiter mit einem Evidial-Belief-Function-(EBF)-Ansatz gekoppelt und die Eignung für Erdrutschanfälligkeitskartierungen für variable Gelände- und Datenbedingungen im Westen der Provinz Mazandaran im Norden des Iran getestet. Orte früherer Erdrutsche wurden durch die Interpretation von Luftbildern und durch umfangreiche Felduntersuchungen identifiziert. Im RF-Modell wurden elf Konditionierungsfaktoren verwendet. Die räumliche Beziehung zwischen dem Auftreten von Erdrutschen und den Konditionierungsfaktoren wurde dann mit dem datengesteuerten EBF-Modell bewertet und die EBF-Werte mit jeder Karte gepaart. Schließlich wurden die EBF-Karten zum Ausführen des RF-Modells verwendet. Schließlich wurde die Effizienz des RF-EBF-Modells getestet, indem die Fläche unter der Kurve verwendet wurde, um den Erfolg und die Vorhersageraten der einbezogenen Daten zu messen. Daraus ergab sich eine Erfolgsrate von 85,2 % und eine Vorhersagerate von 81,8 %. Die wichtigsten identifizierten Konditionierungsfaktoren waren Lithologie, Höhe, Entfernung von Straßen bzw. Landnutzung. Basierend auf der Gesamtbewertung erwies sich der kombinierte RF- und EBF-Ansatz als objektiv und ein anwendbarer Schätzer, der die Vorhersagegenauigkeit und die Kontrolle der Überanpassung verbessert und somit nützlich für die Erdrutschanfälligkeitskartierung auf regionaler Ebene ist.;-;-;-;https://link.springer.com/article/10.1007/s12665-015-4950-1 5f05c8b393f3887153ed279805a647fa;de;;;2.1.;;;Filtern von Lernobjekt-Repositories durch eine didaktische Suchmaschine Heutzutage steigt dank des Internets die Nachfrage nach Fernunterricht. Private Unternehmen und öffentliche Einrichtungen reagieren sehr sensibel auf Kosteneinsparungen, die eine solche Ausbildung mit sich bringen könnte, d. h. zeitlich und örtlich unbegrenzt. Außerdem sind die Ergebnisse dieser Art des Lernens mit denen des klassischen Präsenzunterrichts vergleichbar. Folglich benötigen Lehrdesigner didaktische Instrumente, um Kurse schnell zu erstellen, insbesondere wenn sie ihre Kurse ausgehend von Lernobjekten erstellen würden, die bereits von anderen Kollegen in Lernobjekt-Repositorys veröffentlicht wurden. Unsere Arbeit schlägt ein System in einem sehr frühen Entwicklungsstadium vor, das Lehrplanern helfen soll, für ihre Kurse geeignete Lernobjekte zu finden und wiederzufinden, ausgehend von der klassischen konzeptionellen Landkarte des zu erstellenden Kurses. Das System enthält ein OLAP-Modul, mit dem Lehrkräfte auch Konzepte aufschlüsseln können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35879-1_17 8ddd1df3d987c2c01d83eeb97993ed0f;de;;;2.1.;;;KNApSAcK: Eine umfassende Datenbank zu Arten-Metaboliten-Beziehungen Wir haben eine Datenbank, KNApSAcK, für die Akkumulation und Suche von Metabolit-Spezies-Beziehungen erstellt. Die in der vorliegenden Studie beobachtete Power-Law-Verteilung ist wahrscheinlich mit Forschungsaktivitäten zum Auffinden neuer Metaboliten aus der Natur verbunden. Darüber hinaus scheint es von der Suche nach seltenen Metaboliten der Organismen abgeleitet zu sein, die ursprünglich ein Potenzgesetz in der Gradverteilung ihrer metabolischen Netzwerke aufweisen. Dies legt nahe, dass die Datenbank die chemische Vielfalt von Metaboliten enthält, die durch die Evolution der Arten entstanden sind. Es hat sich gezeigt, dass Graph-Clustering nützlich ist, um taxonomische Beziehungen auf der Grundlage von gemeinsamen Metaboliten zu extrahieren. Da wir kontinuierlich Metabolit-Art-Paare in der Datenbank ansammeln, verbessern wir unser Verständnis der Arten-Metaboliten-Beziehungen in der taxonomischen Hierarchie. Darüber hinaus planen wir, eine Option zur Suche nach Metabolitenstrukturen durch Eingabe von Teilstrukturen hinzuzufügen, die für die Metabolitenforschung hilfreich sein wird.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-29782-0_13 92cd158a4cb614d2d557305585dd0faf;de;;;2.1.;;;Trocken-/Nassklimazonierung und Abgrenzung von Trockengebieten im Nordwesten Chinas basierend auf einer datengesteuerten Mode Die Aufteilung arider Gebiete ist wichtig für die Bewirtschaftung der Wasser- und Landressourcen, die Planung und für eine langfristige landwirtschaftliche, wirtschaftliche und soziale Planung. Nordwestchina (NW) dominiert die wichtigsten Trockengebiete in China. Daher besteht die Notwendigkeit, angemessene Konzepte in Bezug auf den Umfang der ariden Gebiete im Nordwesten Chinas zu verabschieden und deren Klimatypen und -eigenschaften zu identifizieren. In dieser Studie analysierten wir Klimadaten der letzten 30 Jahre (1981–2010) von 191 Stationen in drei Provinzen und drei autonomen Regionen im Nordwesten Chinas. Die Faktor-Cluster-Analysetechnik (FC), eine objektive und automatisierte Methode, wurde zur Klassifizierung der trockenen/feuchten Klimazonen eingesetzt. Für den Vergleich mit der FC wurden die traditionellen Methoden mit vordefinierten Schwellenwerten übernommen. Die Ergebnisse zeigten, dass die nass/trockenen Klimazonen der FZ hauptsächlich entlang von Bergen, Flüssen und Wüstengrenzen verteilt waren. Die Grenzen der Klimadivision waren stark von den wichtigsten Geländemerkmalen rund um die gruppierten Stationen abhängig. Es zeigte sich auch, dass das Klima in den flachen Sandgebieten trocken, in den Hochgebirgsgebieten jedoch relativ feucht war. Die FC-Methode kann die Klimaeigenschaften in NW-China mit unterschiedlicher und komplizierter Topographie vollständiger widerspiegeln und die traditionellen Klimaklassifikationen übertreffen. Trockene Gebiete im Nordwesten Chinas wurden als vier Klimatypen definiert, darunter fünf resultierende Klassen in FC-Klassifikationen. Die Qinling- und Da Hinggan-Berge waren neben den Hauptverwaltungsgrenzen zwei wichtige Grenzen. Die Ergebnisse zeigten auch, dass es einige Unterschiede zwischen zwei traditionellen Klassifikationen gibt. Die Niederschläge bewegten und schwankten in einem Ausmaß, das bestätigte, dass der Klimawandel eine wichtige Rolle bei der Trocken-/Nass-Klimazoneneinteilung spielte und sich die Grenzen von Trocken-/Nassklimazonen mit der Zeit ändern und wandern könnten. Von diesem Papier wird erwartet, dass es ein tieferes Verständnis der Klimaeigenschaften in ariden Gebieten von NW-China liefert und dann dazu beiträgt, eine vernünftige Wasser- und Landbewirtschaftungsplanung und landwirtschaftliche Produktionsprogramme zu formulieren.;-;-;-;https://link.springer.com/article/10.1007/s40333-013-0206-7 b4fcc286fdf83add373d2e3a4caed2f1;de;;;2.1.;;;Eine vergleichende Untersuchung verschiedener Abstände zur Ähnlichkeitsschätzung Die Distanzmetrik wird häufig bei der Ähnlichkeitsschätzung verwendet. Je kleiner der Abstand ist, desto größer ist die Ähnlichkeit. Als Ähnlichkeitsmaß bei den herkömmlichen Ähnlichkeitsmetriken wird üblicherweise die Minkowski-Distanzmetrik gewählt. In diesem Artikel werden die beliebteste euklidische und Manhattan-Distanz und die von uns vorgeschlagene morphologische Ähnlichkeitsdistanz als Ähnlichkeitsschätzungsmaß-Distanz verglichen. Wir clustern dreißig zufällige Datensätze mit dem Fuzzy-C-Mean-Algorithmus, erkennen die Iris-Daten aus dem UCI-Repository, und die Experimentergebnisse werden verglichen und analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18129-0_75 1c29f021dc114cced1fdeb6e8eaab4ef;de;;;2.1.;;;Automatische Kartierung von Mondlandformen unter Verwendung von DEM-abgeleiteten geomorphometrischen Parametern Die Entwicklung von Ansätzen zur Automatisierung der Analyse der riesigen Datenmengen, die vom Mond zurückgesendet werden, wird der Mondgeomorphologie erhebliche Vorteile bringen. In diesem Beitrag skizzieren wir eine automatisierte Methode zur Kartierung von Mondlandformen, die auf digitaler Geländeanalyse basiert. Eine iterative selbstorganisierende (ISO) Cluster-unüberwachte Klassifizierung ermöglicht die automatische Kartierung von Landformen über eine Reihe von Eingabe-Rasterbändern, die sechs geomorphometrische Parameter verwenden. Diese Parameter unterteilen Landformen in eine Reihe räumlich ausgedehnter, topographisch homogener Segmente, die ähnliche Geländeeigenschaften und Nachbarschaftseigenschaften aufweisen. Um die Anwendbarkeit unseres Ansatzes zu veranschaulichen, wenden wir ihn auf drei repräsentative Teststandorte auf dem Mond an und präsentieren unsere Ergebnisse automatisch als thematische Landformkarte. Wir haben diesen Ansatz auch quantitativ unter Verwendung einer Reihe von Konfusionsmatrizen bewertet und erreichten Gesamtgenauigkeiten von 83,34 % und Kappa-Koeffizienten (K) von bis zu 0,77. Eine sofortige Version unseres Algorithmus kann auch für die automatische Kartierung großräumiger Mondlandformen und für den quantitativen Vergleich von Mondoberflächenmorphologien verwendet werden.;-;-;-;https://link.springer.com/article/10.1007/s11442-017-1443-z b1957672d31382e101d342214cdd8f7c;de;;;2.1.;;;Quantifizierung der treibenden Kräfte des Wandels urbaner Feuchtgebiete in der Stadt Peking Der Entscheidungsbaum und die Schwellenwertmethoden wurden übernommen, um Grenzen und Merkmale von Wasserkörpern aus LANDSAT-Bildern abzugrenzen. Nach einer räumlichen Überlagerungsanalyse und unter Verwendung einer Fernerkundungstechnik und der Feuchtgebietsinventardaten in Peking wurden die Gewässer visuell in verschiedene Arten von städtischen Feuchtgebieten und Daten zu den städtischen Feuchtgebieten von Peking 1986, 1991, 1996, 2000, 2002 klassifiziert , 2004 und 2007 erhalten. Dreizehn treibende Faktoren, die die Veränderung von Feuchtgebieten beeinflussen, wurden ausgewählt, und eine Graukorrelationsanalyse wurde verwendet, um die Korrelation zwischen jedem treibenden Faktor und der Gesamtfläche der städtischen Feuchtgebiete zu berechnen. Anschließend wurden sechs treibende Hauptfaktoren basierend auf dem Korrelationskoeffizienten ausgewählt und die Beitragssätze dieser sechs treibenden Faktoren zur Flächenveränderung verschiedener städtischer Feuchtgebiete basierend auf einer kanonischen Korrelationsanalyse berechnet. Danach analysierte diese Forschung die Beziehung und den Mechanismus zwischen den wichtigsten treibenden Faktoren und verschiedenen Arten von Feuchtgebieten. Fünf Schlussfolgerungen lassen sich ziehen. (1) Die Gesamtfläche der Oberflächengewässer in Peking nahm von 1986 bis 1996 zu und nahm von 1996 bis 2007 allmählich ab. (2) Die Gebiete der Flussfeuchtgebiete, Wasserspeichergebiete sowie Pool- und Kulturgebiete nahmen allmählich ab, und ihre Variationen Tendenz stimmt mit der der Gesamtfläche der Feuchtgebiete überein. Die Fläche der Bergbauwasserflächen und Kläranlagen hat sich leicht erhöht. (3) Die sechs treibenden Faktoren sind der Jahresniederschlag, die Verdunstung, die Zuflusswassermenge, die verfügbare Grundwassermenge, die Verstädterungsrate und der durchschnittliche Tagesabwasserabfluss sind die wichtigsten Einflussfaktoren auf Veränderungen in den Feuchtgebieten, und sie korrelieren gut mit der Gesamtfläche der Feuchtgebiete. (4) Die hydrologischen Indikatoren der Wasserressourcen wie die Zuflusswassermenge und die Grundwassermenge sind die wichtigsten und unmittelbarsten Triebkräfte, die die Veränderung der Feuchtgebietsfläche beeinflussen. Diese Faktoren haben einen kombinierten Beitragssatz von 43,94 %. (5) Klimafaktoren wie Niederschlag und Verdunstung sind externe Faktoren, die die Veränderungen der Feuchtgebietsfläche beeinflussen, und ihr Beitragssatz beträgt 36,54 %. (6) Menschliche Aktivitäten wie die Urbanisierungsrate und die durchschnittliche tägliche Abwassermenge sind wesentliche künstliche Antriebsfaktoren. Sie haben eine Einflussrate von 19,52 %.;-;-;-;https://link.springer.com/article/10.1007/s11442-012-0928-z ef4127da056b8257ecf86f8a72a23b9f;de;;;2.1.;;;Genaue Klassifizierung von COVID-19 basierend auf unvollständigen heterogenen Daten mit a Es werden jetzt große Anstrengungen unternommen, um die Krankheit Coronavirus 2019 (COVID-19) einzudämmen. Millionen von Menschen werden medizinisch untersucht, und ihre Daten stapeln sich immer wieder auf eine Klassifizierung. Die Daten sind typischerweise sowohl unvollständig als auch heterogen, was klassische Klassifikationsalgorithmen behindert. Einige Forscher haben kürzlich die beliebte;-;-;-;https://link.springer.com/article/10.1007/s13369-020-05212-z 24c8a4b50abfb296f8219bbe3c9e1c2c;de;;;2.1.;;;Semantik im Bereich eGovernment Semantik wird zu einem Werkzeug von größter Bedeutung, um die Interoperabilität und Zugänglichkeit von Informationen in vielen Bereichen der eTechnologien zu verbessern. E-Government ist bei diesem unaufhaltsamen Trend keine Ausnahme.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24960-0_6 fe60e1e770e92b9be5d76f8db9ee952e;de;;;2.1.;;;Eine axiomatische Datenbanktheorie Eine deduktive Datenbanktheorie wird in der Prädikatenlogik erster Ordnung mit Identität entwickelt. Diese Entwicklung folgt der üblichen Methode, eine deduktive Theorie aufzustellen. Axiome und Definitionen werden niedergeschrieben und Theoreme abgeleitet. Einige dieser Theoreme können als Computerprogramme verstanden werden. Eine Datenbank ist ein Modell der Theorie. Ein Modell, das eine Welt charakterisieren soll, kann durch Fragen abgefragt werden, die Theoreme der Theorie sind. Ein Hauptergebnis der Arbeit ist die Formalisierung guter Programmiermethoden, damit Ableitungen als effiziente Berechnungen bei der Beantwortung von Anfragen verwendet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-3384-5_10 66bf30af6fa423fe824b8b07dd10de86;de;;;2.1.;;;Analyse von Bildsequenzen für das unbemannte Fluggerät Das Thema Konstruktion und Steuerung eines autonomen unbemannten Luftfahrzeugs (UAV) ist vielschichtig. Die Idee, ein solches Fahrzeug (Helikopter) zur Verkehrssteuerung zu konstruieren, treibt das Projekt WITAS (Wallenberg Labor for Research on Information Technology and Autonomous Systems) an (siehe [4], [14]). Abgesehen von Schwierigkeiten beim Bau geeigneter Hardware ist das Problem der Software-Erstellung eine Herausforderung. Das UAV soll anhand von Sensormesswerten die darunter liegende Straßensituation erkennen und Entscheidungen über durchzuführende Handlungen treffen. Die Frage der Konstruktion adaptiver, intelligenter und vielseitiger Systeme zur Situationserkennung wurde in [10] behandelt. In der Arbeit konzentrieren wir uns auf eine der Teilaufgaben, die für das Funktionieren des gesamten Systems erforderlich sind. Wir bewältigen die Probleme im Zusammenhang mit der Unterscheidung zwischen Objekten, die für das UAV sichtbar sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36473-3_28 6a9049aa6729c436d9d951a87357b41a;de;;;2.1.;;;Untersuchung der Gesundheit von Feuchtgebieten mit mehreren Ökosystemleistungen als Ziele in Chinas Küstenregionen Küstenzonen sind wichtige Interkonnektoren von terrestrischen und marinen Ökosystemen. Aufgrund der Degradierung und Fragmentierung von Küstenfeuchtgebieten ist es dringend erforderlich, eine Bewertungsmethodik zu entwickeln, um den Zustand von Feuchtgebietsökosystemen auf verschiedenen räumlichen Skalen zu vergleichen. Dies wird dazu beitragen, Schutzmaßnahmen mithilfe von leicht zugänglichen Ökosystem-Gesundheitsdaten effizient zu entwickeln und zu implementieren. Diese Studie zielt darauf ab, die räumliche Verteilung der Gesundheit von Küsten- und Binnen-Feuchtgebieten für Chinas Küstenregionen zu verstehen. Ein Feuchtgebiets-Gesundheitsindex (WHI) wurde entwickelt, um eine Grundlage für die Politik- und Entscheidungsfindung zu bieten. Vier Nutzungsmodelle – Long Term Model, Open Model, Nature Reserve Model und Protected and Economic Model – wurden im Kontext der chinesischen Küstenregionen definiert, um die Gesundheit von Feuchtgebieten gezielt zu untersuchen. Die Ergebnisse zeigen, dass der durchschnittliche WHI-Wert für 35 National Nature Reserves (NNRs) 63,6 mit einer Spanne von 44,8–84,3 betrug und die südlichen NNRs im Allgemeinen besser abgeschnitten haben als die nördlichen NNRs. Die Feuchtgebiete in den südlichen Provinzen/Gemeinden sind relativ gesünder als ihre nördlichen Gegenstücke. Die zuständige Behörde hat einen geringen Einfluss auf die WHI-Werte, aber die Dauer der Erhaltungseinrichtung zeigt keinen eindeutigen Zusammenhang. Mit zunehmender Wirtschaftstätigkeit nehmen auch die Unterschiede im Gesundheitszustand (WHI-Werte) der Küstenregionen Chinas zu. Bruttoinlandsprodukt (BIP) oder wirtschaftliche Intensivierung beziehen sich nicht auf WHI-Werte. Angemessene Kompromisse zwischen Feuchtgebietsmanagement und wirtschaftlicher Entwicklung könnten dazu beitragen, den Gesundheitszustand, den Erhalt und die Nutzung von Küsten- und Binnenfeuchtgebieten zu verbessern.;-;-;-;https://link.springer.com/article/10.1007/s11769-020-1137-9 44b2aa306d4ef58fccf64caeb37c249b;de;;;2.1.;;;Bewertung der Landnutzung/Landbedeckung mit raumbezogenen Techniken in einer semiariden Region von Madhya Pradesh, Indien Die Eigenschaften der Landbedeckung der Erde und ihre Nutzung sind Schlüsselvariablen des globalen Wandels. Die Gesellschaft befindet sich heute bereits im Mainstream einer anderen Revolution – der Informationsrevolution. Dies bringt enorme Veränderungen für das Leben und Leben mit sich und bietet neue Ansätze: wie die Grenzen früherer Revolutionen, insbesondere der Kartierung und Überwachung der Erdressourcen, erweitert werden können. In den letzten Jahrzehnten hat sich die Landnutzung und Landbedeckung (LULC) aufgrund der klimatischen Veränderungen und der Übernachfrage der wachsenden Bevölkerung weltweit stark verändert. Semiaride Regionen sind aufgrund der kombinierten Auswirkungen von Bevölkerungswachstum und Klimawandel starken Belastungen ausgesetzt (Mukherjee et al., 2009). In den letzten drei Jahrzehnten haben sich die Technologien und Methoden der Fernerkundung erheblich weiterentwickelt. Heutzutage lassen Fernerkundungsdaten zusammen mit der höheren Auflösung von Satellitenplattformen diese Technologie als geeignet erscheinen, einen besseren Einfluss auf Initiativen zum Landressourcenmanagement zu haben, die bei der Überwachung der LULC-Kartierung und der Erkennung von Veränderungen in unterschiedlichen räumlichen Entfernungen beteiligt sind (Singh et al., 2010, Thakur , 2010). Fernerkundungstechnologie bietet die Sammlung und Analyse von Daten von bodengestützten, Weltraum- und erdumlaufenden Plattformen mit Verbindungen zu Global Positioning System (GPS) und Geoinformationssystem (GIS) Daten mit vielversprechenden Modellierungsfunktionen (Franklin 2001, Thakur et al ., 2010). Dies hat die Fernerkundung wertvoll für Informationen über Landbedeckung und Landnutzung gemacht.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-1858-6_10 88e8066d10140353c000c4e14361b98c;de;;;2.1.;;;Morphometrie Bathymetrische Karten sind die Quelle der meisten morphometrischen Daten, die in limnologischen, hydrologischen und sedimentologischen Kontexten verwendet werden. Die Zuverlässigkeit der morphometrischen Daten hängt von der Genauigkeit der bathymetrischen Karte ab, die wiederum von der Intensität und Genauigkeit der hydrographischen Vermessung abhängt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-81563-8_4 d9af2c2928c5023904366820bb89d1ed;de;;;2.1.;;;Entwurf effektiver Automatenreduktionsalgorithmen für einige Äquivalenzrelationen Der Entwurf von schnellen Minimierungsalgorithmen endlicher Automaten wird für zwei Äquivalenzrelationen betrachtet. Die Gestaltung erfolgt formal unter Ausnutzung der Eigenschaften der zur Minimierung verwendeten Funktionen.;-;-;-;https://link.springer.com/article/10.1007/BF01069778 daa8a27f4c5cb483cae4147364331242;de;;;2.1.;;;Eine Schätzung des Grundeisvolumens in Permafrostschichten im nordöstlichen Qinghai-Tibet-Plateau, China Der Grundeisgehalt im Permafrost dient als eine der dominierenden Eigenschaften des Permafrosts für die Erforschung des globalen Klimawandels, der Ökologie, der Hydrologie und des Ingenieurbaus in kalten Regionen. In dieser Arbeit wird zunächst versucht, das Grundeisvolumen in Permafrostschichten auf dem Qinghai-Tibet-Plateau unter Berücksichtigung der Landformtypen, der entsprechenden lithologischen Zusammensetzung und des gemessenen Wassergehalts in verschiedenen Regionen zu bewerten. Während der Berechnungen wurde eine Annäherung erstellt, die die Existenz vieler Ähnlichkeiten in der lithologischen Zusammensetzung und im Wassergehalt innerhalb einer einheitlichen Landschaftsform zeigt. In den letzten 40 Jahren wurde ein beträchtliches Wissen über das Fallstudiengebiet, hier Source Area of ​​the Yellow (Huanghe) River (SAYR) im nordöstlichen Qinghai-Tibet-Plateau genannt, in Bezug auf Permafrost- und Süßwasserressourcen gesammelt. Unter Berücksichtigung der Permafrostverteilung, Ausdehnung und räumlichen Verteilung der Landformtypen wurde das Grundeisvolumen in Tiefen von 3,0–10,0 m unter der Bodenoberfläche auf der Grundlage der Daten von 101 Bohrlöchern aus Feldbeobachtungen und geologischen Untersuchungen in verschiedenen Landschaftsformen in die Permafrostregion des SAYR. Das gesamte Grundeisvolumen in Permafrostschichten in Tiefen von 3,0–10,0 m betrug ungefähr (51,68 ± 18,81) km;-;-;-;https://link.springer.com/article/10.1007/s11769-018-0932-z ba7e836986f185b16250f63886e8b153;de;;;2.1.;;;Eine Anwendung der Baumartenklassifizierung mit hochauflösenden Fernerkundungsbildern basierend auf der Grobmengentheorie Die Merkmalsextraktion ist eine wesentliche Aufgabe bei der Klassifizierung von hochauflösenden Fernerkundungsbildern, wobei die primäre Technik die objektorientierte Klassifizierungsmethode ist. Die aktuelle Forschung beschreibt objektorientierte Klassifikationsverfahren unter Verwendung von Fernerkundungsdaten, wobei die Reduzierung der redundanten Merkmalsinformationen das größte Problem darstellt, um gute Klassifikationsergebnisse zu erzielen. Das hochauflösende Fernerkundungsbild ist charakteristisch für eine große Datenmenge und hohe Merkmalsdimensionen, die insbesondere auch in der forstlichen Fernerkundung vorhanden sind. Die Redundanz von Merkmalsinformationen kann die Extraktionsgenauigkeit verringern und die Klassifizierungsergebnisse verschlechtern. Um dieses Problem anzugehen, schlagen wir in diesem Papier einen Rahmen vor, der die Grobmengentheorie und die Zugehörigkeitsfunktion verwendet, um den Klassifikationsregelsatz zu erstellen. In unserem Ansatz wählen wir zunächst einen optimalen Segmentierungsmaßstab aus, um das Fernerkundungsbild mit mehreren Maßstäben zu segmentieren und wenden die Grobmengentheorie an, um die Merkmalsdimensionen von Objekten zu reduzieren. Anschließend verwenden wir die ausgewählten Merkmale, um einen Klassifizierungsregelsatz zu erstellen und Bildobjekte zu klassifizieren. Dieses Papier präsentiert auch eine detaillierte Studie des vorgeschlagenen Rahmens für die Artenklassifizierung mit ALOS-Bildern, wobei die 13 effektivsten Merkmalsparameter aus 34 Merkmalsparametern von Objekten ausgewählt werden, wie z. Unsere experimentellen Ergebnisse zeigen, dass der vorgeschlagene Rahmen, der zur Klassifizierung von Baumarten angewendet wird, eine Klassifizierungsgenauigkeit von 80,4509% erreicht, was eine Verbesserung sowohl gegenüber der Klassifizierungsgenauigkeit von 77,2408% ist, die mit der traditionellen überwachten Klassifizierung erreicht wurde, als auch der von 75,5068%, die mit der nächsten Nachbarklassifizierung. Die Forschung beweist, dass der vorgeschlagene Rahmen Baumarteninformationen in Fernerkundungsbildern effektiv nutzen kann und ein Hilfsmittel für die Untersuchung und Überwachung von Waldressourcen bietet.;-;-;-;https://link.springer.com/article/10.1007/s11042-016-4210-8 330a7ccd5d2aa7a7a9ae9f280c140286;de;;;2.1.;;;Evolution der Farmlandfunktion in der Huang-Huai-Hai-Ebene: Prozesse, Muster und Mechanismen Ausgehend von Landkreisen als grundlegender Analyseeinheit wurde in dieser Studie ein Bewertungsindexsystem für die Farmland Function (FF) aus ökonomischer, sozialer und ökologischer Perspektive erstellt. Zur Bestimmung der Gewichte wurde die Methode der Kombination von Entropiegewichtung und multipler Korrelationskoeffizientengewichtung verwendet und die FF-Indizes für jeden Landkreis berechnet. Anschließend wurden die räumlich-zeitlichen Merkmale der Farmland Function Evolution (FFE) analysiert und die gekoppelten Beziehungen zwischen den Teilfunktionen anhand eines Kopplungskoordinationsmodells untersucht. Gleichzeitig wurde der dynamische Mechanismus der FFE quantitativ unter Verwendung einer räumlichen ökonometrischen Regressionsanalysemethode analysiert. Die folgenden wichtigen Schlussfolgerungen wurden gezogen: (1) Die wirtschaftliche Funktion des Ackerlandes wies im Zeitraum 1990–2010 im Allgemeinen einen rückläufigen Trend auf, und es ist wichtig darauf hinzuweisen, dass sie in unterentwickelten und von der Landwirtschaft dominierten Landkreisen stärker war, während sie in entwickelten Gebieten kontinuierlich abgeschwächt wurde . Die soziale Funktion von Ackerland nahm in 60,29 % der Landkreise ab, während einige Landkreise, die hauptsächlich im Norden von Zhengzhou und westlich von Dezhou und Cangzhou, Yantai und Weihai lagen, deutlich zunahmen. In der Umgebung von Peking, Tianjin und Jinan kam es zu einem dramatischen Rückgang der ökologischen Funktion von Ackerland. Gebiete im nördlichen Teil der Provinz Henan und im zentralen Teil der Provinz Shandong verzeichneten eine Zunahme der ökologischen Funktion. (2) Es gab einen signifikanten räumlichen Unterschied im Kopplungsgrad und Koordinationsgrad der Teilfunktionen, und das Entkopplungsphänomen machte dies deutlich. Die Veränderungen der sozialen und ökologischen Funktion blieben in den entwickelten Gebieten hinter der wirtschaftlichen zurück, waren jedoch in einigen unterentwickelten Gebieten stark gekoppelt. (3) FFE in der Huang-Huai-Hai-Ebene (HHHP) ergibt sich aus der umfassenden Wirkung regionaler Rahmenbedingungen und externer treibender Faktoren. Darüber hinaus spielten die Übergänge von Bevölkerung und Industrie im Zuge der Urbanisierung und Industrialisierung eine entscheidende Rolle für die Evolutionsintensität und -richtung von Agrarland-Subsystemen, einschließlich Wirtschaft, Gesellschaft und Ökologie. Die Förderung der Transformation von der traditionellen Landwirtschaft zur modernen Landwirtschaft ist nach den oben genannten Ergebnissen als wichtiger Motor für eine nachhaltige Entwicklung im HHHP zu sehen. Unter Berücksichtigung unterschiedlicher regionaler Merkmale der FFE sollten differenzierte und diversifizierte landwirtschaftliche Nutzungs- und Bewirtschaftungspläne von stärker entwickelten städtischen Gebieten zu unterentwickelten traditionellen landwirtschaftlichen Gebieten umgesetzt werden.;-;-;-;https://link.springer.com/article/10.1007/s11442-018-1503-z a0f23c97540694ad169ee160f9701352;de;;;2.1.;;;Der Einfluss der Skalierung bei der LULC-Modellierung. Ein Vergleich zwischen zwei verschiedenen LULC-Karten (SIOSE und CORINE) Der Maßstab ist eines der interessantesten Themen in der Landveränderungswissenschaft. Obwohl zu diesem Thema viel geforscht wurde, ist unser Verständnis seiner Auswirkungen auf Daten und Modelle noch lückenhaft. Wir entschieden uns daher zu untersuchen, wie sich der kartographische Maßstab und die Minimum Mapping Unit (MMU) auf die Modellierungsergebnisse auswirken, und wählten dazu ein heterogenes, dynamisches Untersuchungsgebiet in Zentralasturien (Spanien). Im Gegensatz zu der meisten Literatur zu diesem Thema, die sich auf die Kornkomponente des Maßstabs konzentriert und dieselbe Karte mit unterschiedlichen räumlichen Auflösungen vergleicht, haben wir zwei verschiedene Landnutzungs- und Landbedeckungskarten (LULC) (SIOSE und CORINE) mit unterschiedlichen Auflösungen verwendet (12,5 und 50 m) und mit minimalen Kartierungseinheiten von 0,5–2 bzw. 25 ha. Wir haben die eingegebenen und simulierten Karten unter Verwendung räumlicher Metriken und der von Pontius und Millones vorgeschlagenen Matrix verglichen, um die Unstimmigkeiten in Menge und Zuordnung herauszufinden. Die Ergebnisse können ein besseres Verständnis der Auswirkungen der Wahl von Eingabezuordnungen bei der LULC-Modellierung ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-60801-3_10 5caef61a3c5d17fdc09ac77e184ea891;de;;;2.1.;;;Zersiedelung: Eine Fallstudie für das Projekt Gigalopolis mit dem SLEUTH-Modell Ein kurzer Ansatz durch ein CA-basiertes Modell ist perfekt für die Modellierung verschiedener urbaner Phänomene auf verschiedenen Beobachtungsskalen. Das SLEUTH-Modell, das sich im Projekt Gigalopolis befindet, ist ein leistungsfähiges Werkzeug zur Beschreibung urbaner Agglomeration und räumlicher Dynamik. In diesem Beitrag ermöglichen uns neue Anwendungen dieses Modells, andere methodische Analysen und Sensitivitätsstudien, unser Verständnis von Modellparametern zu verbessern, indem wir diese Art der synthetischen Beschreibung der Realität nutzen. Durch den Vergleich unserer Studien mit anderen bereits existierenden wertvollen Datenbanken über Ergebnisse dieses Modells sind viele Rückschlüsse möglich.;-;-;-;https://link.springer.com/chapter/10.1007/11861201_51 91cdae1b9102ceb7388ff89228005c0a;de;;;2.1.;;;Die Behandlung von charakteristischen und narzisstischen Persönlichkeitsstörungen Die Behandlung von Narzissmus und narzisstischen Persönlichkeitsstörungen (NPD) ist für Kliniker aufgrund ihrer Komplexität und der begrenzten empirischen Evidenz als Leitfaden für die Behandlung eine Herausforderung. Dieses Kapitel gibt einen Überblick über den Stand der Psychotherapie bei NPD. Das Interesse an der Behandlung der NPD wurde durch Heinz Kohut geweckt, der eine Theorie der Selbstpsychologie und Methoden zur Behandlung von sogenannten Selbststörungen entwickelte. Kohut formulierte keinen spezifischen Ansatz zur Behandlung von NPD, sondern formulierte Prinzipien, wie eine therapeutische Beziehung aufgebaut werden kann, indem Empathie und Spiegelung eingesetzt werden, um strukturelle Defizite im Selbstsystem zu beheben. Während der Nachweis der Wirksamkeit von Psychotherapie im Allgemeinen erheblich unterstützt wird und die empirische Evidenz für die Behandlung von Persönlichkeitsstörungen wächst, gibt es nur begrenzte Evidenz für NPD. Eine Literaturübersicht zeigt über 30 randomisiert kontrollierte Behandlungsstudien, in denen die Wirksamkeit der Behandlung von Persönlichkeitsstörungen bewertet wurde, die sich jedoch am meisten auf die Borderline-Persönlichkeitsstörung und keine speziell auf NPD konzentrierten. Es gibt eine Reihe von Studien, die NPD in ihre Stichprobe aufnehmen, aber die Stichprobengrößen sind so klein, dass spezifische Implikationen für NPD nicht verallgemeinert werden können. Während es an empirischen Belegen für die Wirksamkeit jedes einzelnen Ansatzes für NPD mangelt, gibt es eine Reihe von Behandlungsansätzen, die für Narzissmus und NPD vorgeschlagen wurden. Derzeit gibt es nur einen Ansatz speziell für NPD, aber kein einziger Ansatz hat in randomisiert kontrollierten Behandlungsstudien Wirksamkeit gezeigt. Es gibt jedoch umfangreiches klinisches Fallmaterial und anekdotische Evidenz, die darauf hindeuten, dass integrative und einheitliche Ansätze für narzisstische Merkmals- und Persönlichkeitsstörungen am besten geeignet sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-92171-6_51 91b0e887bfced0ee922b5c5451b95004;de;;;2.1.;;;Geschlechterklassifizierung mit statistischen 3D-Modellen In diesem Papier wird eine effektive Geschlechtsklassifikation basierend auf einem 3D-Gesichtsmodell basierend auf der 3D-Hauptkomponentenanalyse (3D-Eigenmodelle) und der 3D-unabhängigen Komponentenanalyse (3D-IC-Modelle) vorgeschlagen. In unserer Arbeit wird das 3D-Gesichtsmodell durch 3D-Landmarks repräsentiert. Die vorgeschlagene Methode zur Gender-Klassifizierung besteht aus drei Schritten: 1) Ausrichten der 3D-Modelle, um 3D-ausgerichtete Formen zu erhalten, 2) Durchführen einer 3D-PCA/ICA-Transformation an den ausgerichteten 3D-Formen, 3) Führen Sie eine Geschlechtsklassifizierung der 3D-Eigenmodels/ICmodels-Features mit SVM . durch . Die experimentellen Ergebnisse der BU_3DFE-Datenbank zeigen, dass die vorgeschlagene Methode eine gute Leistung erzielen kann.;-;-;-;https://link.springer.com/article/10.1007/s11042-016-3446-7 34571f1fefd9a500418ce08ecaf75f59;de;;;2.1.;;;Landform-Klassifizierung für Gemeindestandorte: Eine Fallstudie im Kreis Quxian, China Diese Studie soll eine geeignete Methode zur Klassifikation von Landschaftsformen erforschen, um die Entscheidungsfindung für Gemeindestandorte in Berggebieten zu unterstützen. Zunächst wird die Methode der Landformklassifizierung für die Standortbestimmung (LCCS) vorgeschlagen, mit ausführlichen Diskussionen zu ihrer Rationalität und den gewählten Parametern. Diese Methode wird dann im Kreis Quxian getestet und verifiziert. Die LCCS-Methode umfasst zwei Gradationsparameter, die als ersten Gradationsparameter das relative Relief und als zweiten die Neigung verwenden, gefolgt von einem Syntheseprozess, um ein geeignetes Landformklassifikationssystem zu bilden. Durch die Anwendung der LCCS-Methode im Landkreis Quxian zeigt das Ergebnis, dass die Verwendung von Wasserscheiden zur Identifizierung geomorphometrischer Einheiten und die Verwendung des Höhendatumskonzepts die Landform gemäß den lokalen kulturellen Traditionen und den wirtschaftlichen und ökologischen Bedingungen effektiv klassifizieren können. Das Verifikationsergebnis zeigt, dass die LCCS-Methode im Vergleich zu den herkömmlichen Methoden aufgrund ihres Bottom-up-Ansatzes der täglichen Erfahrung der Menschen Rechnung trägt. Es trägt nicht nur dazu bei, die Störung der Natur bei der Auswahl von Standorten für die Gemeindeentwicklung zu minimieren, sondern hilft auch bei der Ausarbeitung präziserer Landmanagementstrategien, die die landwirtschaftliche Produktion maximieren und die Geländeveränderung minimieren.;-;-;-;https://link.springer.com/article/10.1007/s11629-014-3069-2 678f2f1d80c7b599279222864699b0b2;de;;;2.1.;;;Soft-Computing-Ansätze zum Problem der Klassifikation von Säuglingsschreien mit diagnostischen Zwecken Obwohl das wissenschaftliche Gebiet, das als Säuglingsschreianalyse bekannt ist, kurz vor seinem 50. Jubiläum steht, wurde, ausgehend von den skandinavischen Erfahrungen, bis heute keine zuverlässige, auf Schrei basierende klinische Routine für die Diagnose erfolgreich entwickelt. Um dieses Ziel zu unterstützen, tauchen jedoch einige Erwartungen auf, wenn neue automatische Ansätze zur Klassifizierung von Säuglingsschreien, die Möglichkeiten für Diagnosezwecke aufzeigen, zu dem traditionellen perzeptiven Ansatz und der direkten Spektrogramm-Beobachtungspraxis hinzugefügt werden. In diesem Beitrag stellen wir einige dieser Klassifikationsansätze vor und analysieren ihr Potenzial für die Diagnose von Neugeborenenpathologien. Hier beschreiben wir einige Klassifikatoren, die auf Soft-Computing-Methoden basieren, darunter einer nach dem genetisch-neuronalen Ansatz, ein experimenteller Aufsatz mit einem hybriden Klassifikator, der den traditionellen Ansatz auf der Grundlage der Schwellenwertklassifikation und den Klassifikationsansatz mit KNN kombiniert, ein weiterer verwendet Typ-2 Fuzzy-Sets für den Mustervergleich und eines, das Fuzzy-Relationsprodukte verwendet, um die Schreimuster vor der Klassifizierung zu komprimieren. Experimente und einige Ergebnisse werden ebenfalls vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15111-8_1 7cf7c87bd125f0967277fbb5a4232b22;de;;;2.1.;;;Instanzbasierte Service Discovery mit WSMO/WSML und WSMX In diesem Kapitel stellen wir die auf WSMO[6], WSML[8]) und WSMX[3] basierende Lösung zur Lösung von SWS-Challenge-Discovery-Aufgaben vor. Web Service Modeling Ontology (WSMO) bietet ein Modell für Semantic Web Services, die zum Definieren von;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-72496-6_10 07ce2d6e967e6ab484cea308a787c661;de;;;2.1.;;;Ein neues hybrides semantisches Ähnlichkeitsmaß basierend auf WordNet Die semantische Ähnlichkeit zwischen Wörtern ist ein allgemeines Problem in vielen Anwendungen, wie z. Eine genaue Messung der semantischen Ähnlichkeit zwischen Wörtern ist von entscheidender Bedeutung. Es ist notwendig, genaue Methoden zu entwickeln, um die Leistung der meisten Anwendungen, die darauf angewiesen sind, zu verbessern. Der Beitrag präsentiert eine neue Hybridmethode basierend auf WordNet zur Messung der Wortsinnähnlichkeit. Im Gegensatz zu verwandten Werken wurden sowohl Informationsgehalt als auch Weg berücksichtigt. Wir evaluieren das neue Maß auf dem Datensatz von Rubenstein und Goodenough. Experimente zeigen, dass der Koeffizient unserer vorgeschlagenen Messung mit menschlichem Urteilsvermögen 0,8817 beträgt, was zeigt, dass die neue Messung deutlich besser abschneidet als verwandte Arbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35211-9_93 57e1eec933ece8415d70e737636aaa5f;de;;;2.1.;;;Ausgewählte Methoden des Knowledge Engineering in der Systemdiagnose Bei der Fehlerdiagnose technischer Systeme verwendet der Mensch verschiedene Methoden der Wissensrepräsentation und Inferenzparadigmen. Das häufigste Szenario eines solchen Prozesses besteht darin, fehlerhaftes Verhalten des Systems zu erkennen, dieses Verhalten zu klassifizieren, die Ursachen des beobachteten Fehlverhaltens zu suchen und zu ermitteln, d der richtigen und schließlich die Reparaturphase. Es gibt eine Reihe von Ansätzen und Diagnoseverfahren, die ihren Ursprung in ganz unterschiedlichen Wissenschaftszweigen haben, wie zum Beispiel dem Maschinenbau, der Elektrotechnik, der Elektronik, der Automatik oder der Informatik. Bei der Diagnose komplexer dynamischer Systeme spielen Ansätze aus der Automatik (Kościelny, 2001) und der Informatik (Frank und Köppen-Seliger, 1995, Hamscher;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18615-8_16 0cdbbdc6526200f898ff4058376492db;de;;;2.1.;;;Eine Methode zur effizienten Erkennung von Schadcode basierend auf konzeptioneller Ähnlichkeit Heutzutage werden viele Techniken zur Erkennung von bösartigem Verhalten angewendet. Die derzeit in die Praxis umgesetzten Techniken stehen jedoch vor der Herausforderung vieler Variationen des ursprünglichen bösartigen Verhaltens, und es ist unmöglich, angemessen und rechtzeitig auf die neuen Verhaltensformen zu reagieren. Mit den obigen Fragen schlagen wir hier eine neue Methode vor, um die aktuelle Situation zu verbessern. Grundsätzlich verwenden wir einen konzeptionellen Graphen, um bösartiges Verhalten zu definieren, und können dann die Ähnlichkeitsbeziehungen des bösartigen Verhaltens vergleichen, indem wir die formalisierten Werte testen, die von den vordefinierten Graphen im Code generiert werden. In diesem Beitrag zeigen wir, wie man ein konzeptionelles Diagramm erstellt und eine effiziente Methode zur Ähnlichkeitsmessung vorschlägt, um das bösartige Verhalten zu erkennen. Als Ergebnis unseres Experiments können wir eine effizientere Erkennungsrate erzielen. Es kann verwendet werden, um bösartigen Code in der skriptbasierten Programmierumgebung vieler Arten von eingebetteten Systemen oder Telematiksystemen zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/11751632_62 97c4cdc76ed09b08c6d74249d767c4b1;de;;;2.1.;;;Erstellen kleiner Modelle von Datenbanken mit mehreren Entitäten durch Clustering Es wird ein Framework vorgeschlagen, um Modelle in kleinem Maßstab von sehr großen Datenbanken zu erstellen, die mehrere Entitäten und ihre Beziehungen beschreiben. Im ersten Teil wird gezeigt, dass der Einsatz von Sampling keine gute Lösung ist, wenn mehrere Entitäten in einer Datenbank gespeichert sind. Im zweiten Teil wird ein Modell vorgeschlagen, das auf dem Clustern aller Entitäten der Datenbank und dem Speichern von Aggregaten auf den Clustern und den Beziehungen zwischen den Clustern basiert. Im letzten Teil des Beitrags werden die verschiedenen Probleme diskutiert, die sich aus diesem Ansatz ergeben. Einige Lösungsansätze werden vorgeschlagen: insbesondere wird die Verbindung zur symbolischen Datenanalyse hergestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17103-1_37 3dbc809dcb3dd7678123f5c5c91326e8;de;;;2.1.;;;Entwicklung und Anwendung eines Vorhersagemodells der Zusammensetzung von Süßwasserfischen zur Bewertung der Flussgesundheit in Ostaustralien Multivariate Vorhersagemodelle sind weit verbreitete Werkzeuge zur Bewertung der Gesundheit aquatischer Ökosysteme, und es wurden erfolgreich Modelle zur Vorhersage und Bewertung von aquatischen Makroinvertebraten, Kieselalgen, lokalen Gewässerlebensräumen und Fischen entwickelt. Wir bewerteten die Fähigkeit einer Modellierungsmethode, die auf dem River InVertebrate Prediction and Classification System (RIVPACS) basiert, um die Zusammensetzung von Süßwasserfischen genau vorherzusagen und die Gesundheit von aquatischen Ökosystemen in Flüssen und Bächen im Südosten von Queensland, Australien, zu bewerten. Das Vorhersagemodell wurde in einer Region mit vergleichsweise hoher Umweltvariabilität aufgrund der Unvorhersehbarkeit von Niederschlag und Flussabfluss entwickelt, validiert und getestet. Es wurde festgestellt, dass das Modell ausreichend genaue und präzise Vorhersagen der Artenzusammensetzung liefert und empfindlich genug ist, um Testgebiete zu unterscheiden, die von mehreren häufigen Arten menschlicher Störungen betroffen sind (insbesondere Auswirkungen im Zusammenhang mit der Landnutzung im Einzugsgebiet und den damit verbundenen lokalen Ufer-, Binnenlebensräumen und der Wasserqualität Degradierung). Die Gesamtzahl der für die Vorhersage verfügbaren Fischarten war im Vergleich zu ähnlichen Anwendungen multivariater Vorhersagemodelle basierend auf anderen Indikatorgruppen gering, jedoch war die Genauigkeit und Präzision unseres Modells mit den Ergebnissen solcher Studien vergleichbar. Darüber hinaus war unser Modell, das für Standorte entwickelt wurde, die nur einmal und nur in einer Saison (Winter) beprobt wurden, in der Lage, die Zusammensetzung der Fischbestände an Standorten, die während anderer Jahreszeiten und Jahre beprobt wurden, genau vorherzusagen, vorausgesetzt, sie waren keinen ungewöhnlich extremen Umweltbedingungen ausgesetzt ( z. B. längere Niedrigwasserperioden, die die Fischbewegung einschränkten oder zur Austrocknung des Lebensraums und zum lokalen Aussterben von Fischen führten).;-;-;-;https://link.springer.com/article/10.1007/s10750-005-0993-8 9e6290bb934fb75d59088eb44b13ae61;de;;;2.1.;;;Multimodale Sentimentanalyse von Social-Media-Daten: Ein Rückblick Mit der Erforschung des Internets bieten Social-Media-Plattformen Benutzern die Möglichkeit, ihre Ansichten zu verschiedenen Produkten, Personen und Themen zu teilen. Heutzutage beschränken Social-Media-Plattformen ihre Nutzer nicht nur darauf, nur Text zu posten oder zu teilen, sondern auch Bilder und Videos, um ihre Meinung oder andere Social-Media-Aktivitäten auszudrücken. Die multimodale Sentiment-Analyse ist eine Erweiterung der Sentiment-Analyse, die verwendet wird, um den heterogenen Typ unstrukturierter Daten zusammen zu analysieren. Dieser Beitrag gibt einen Überblick über die Sentimentanalyse und verschiedene Studien, die im Bereich der multimodalen Sentimentanalyse beigetragen haben, und diskutiert auch einige wichtige Forschungsherausforderungen bei der Sentimentanalyse der Social-Media-Daten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8297-4_44 079032dd8a347fd5707e23046a189ded;de;;;2.1.;;;Erkennung und Klassifizierung von Menschen mit passivem Vorwärtsstreuradarsystem an verschiedenen Orten In Militär- und Sicherheitsanwendungen wird die Fähigkeit, Menschen zu erkennen und ihre Bewegungen zu identifizieren, immer wichtiger. Im Allgemeinen handelt es sich bei den meisten Radarsystemen um aktive Systeme, die vom Feind leicht entdeckt werden können. Dementsprechend soll das Passivradar eine Alternative zum herkömmlichen Aktivradar werden, die einen entscheidenden betrieblichen Vorteil bietet, da das Passivradar nicht geortet werden konnte. Passives Radar sendet keine eigenen Signale aus und konnte daher nicht blockiert werden. Folglich verwendet passives Radar viele verschiedene Sendequellen, die von verschiedenen Orten ausgesandt werden, um sich am Boden bewegende Ziele, insbesondere Menschen, zu erkennen. Das Ziel dieses Papiers ist es, die Machbarkeit des Vorwärtsstreuungskonfigurationsmodus unter Verwendung des Long-Term Evolution (LTE)-Signals in einem passiven Radarsystem zur Erkennung und Klassifizierung von Menschen zu untersuchen. Diese Forschung nutzte die LTE-Frequenz als Sender, die eine kommerzielle Telekommunikationsantenne war. Ein experimenteller LTE-basierter passiver Vorwärtsstreuradarsystemempfänger wurde über den Bereich der bistatischen Kante nahe 180° entwickelt. Die Dateninformationen der Doppler-Signatur von Menschen wurden an den Stränden von Morib, Dungun und Port Dickson aufgenommen. Alle drei Orte hatten ein starkes LTE-Signal mit 1,8 GHz und eine ähnliche Umgebung wie an den Landesgrenzen. Die menschliche Doppler-Signatur wurde mit der Technik der Hauptkomponentenanalyse analysiert, erkannt und klassifiziert. Die Ergebnisse haben gezeigt, dass Menschen unterschiedlicher Größe erkannt und anhand der Körpergröße klassifiziert werden können, sogar an verschiedenen Orten. Dies ist der sich entwickelnde Forschungsbereich, der ein nützlicheres Ergebnis bei der Verbesserung des Grenzschutzes und der Sicherheitsüberwachung liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0058-9_10 0be7f91527a9e139a16196d20437ef5c;de;;;2.1.;;;Ausreißerbasierte Ansätze zur Erkennung von intrinsischen und externen Plagiaten Die Plagiatserkennung, eines der Hauptprobleme, mit denen sich Bildungseinrichtungen seit der Vermassung des Internets auseinandersetzen, kann als Klassifikationsproblem betrachtet werden, das sowohl selbstbasierte Informations- als auch Textverarbeitungsalgorithmen verwendet, deren Rechenkomplexität ohne den Einsatz von Space-Search-Reduction-Algorithmen unlösbar ist. Erstens behandeln selbstbasierte Informationsalgorithmen die Plagiaterkennung als ein Problem bei der Erkennung von Ausreißern, für das der Klassifikator Plagiate nur anhand des Textes in einem bestimmten Dokument entscheiden muss. Dann verwendet die externe Plagiatserkennung Textübereinstimmungsalgorithmen, bei denen es von grundlegender Bedeutung ist, den Übereinstimmungsraum mit Techniken zur Reduzierung des Textsuchraums zu reduzieren, was als ein weiteres Problem bei der Erkennung von Ausreißern dargestellt werden kann. Der Hauptbeitrag dieser Arbeit ist die Einbeziehung von Methoden zur Erkennung von Textausreißern, um die Erkennung von intrinsischen und externen Plagiaten zu verbessern. Die Ergebnisse zeigen, dass unser Ansatz in Bezug auf die führenden Forschungsteams in der Plagiatserkennung sehr wettbewerbsfähig ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23863-5_2 775e7e4e2ca02af45096e884255256d1;de;;;2.1.;;;Methodik in der klinischen Schlafforschung Dieser Review präsentiert traditionelle und hochmoderne Interventionen in der Schlafforschung, einschließlich Beschreibungen der Beziehung von schneller Augenbewegung, nicht schneller Augenbewegungsschlaf mit dem autonomen Nervensystem, und Traumforschungsmethoden. Obwohl Schlaf und Träumen sich überschneidende und nicht trennbare Phänomene sind, werden sie in der wissenschaftlichen Literatur zur Schlafforschung typischerweise nicht gleichzeitig behandelt. Daher wurde ein umfangreicherer Überblick über die Traumforschung mit einem Schwerpunkt auf objektiver Trauminhaltsanalyse und der Theorie der neurokognitiven Analyse aufgenommen. Es wird eine Brücke zwischen der Trauminhaltsanalyse und aktuellen Methoden der Schlafforschung geschlagen.;-;-;-;https://link.springer.com/article/10.1007/s00018-007-6535-y 88279214e650a70a67a8d1009174c243;de;;;2.1.;;;Metaphern der Internationalen Politischen Ökonomie An der Schnittstelle von Ökonomie und Politikwissenschaft liegt das Feld der politischen Ökonomie, das sowohl disziplinäre Perspektiven als auch konzeptionelle Metaphern aus beiden akademischen Traditionen verbindet. Das Narrativ der Internationalen Politischen Ökonomie (IPE) ist insbesondere die Geschichte, wie die Politik der internationalen Ökonomie in eine umfassendere Beschäftigung mit der Natur der weltpolitischen Angelegenheiten passt. Als „niedrige“ Politik betrachtet, wird IPE in eine untergeordnete Rolle gedrängt, bietet aber gleichzeitig eine breite Palette von oft ungenauen und mehrdeutigen Denkweisen über Handel, Handel und internationale Währungs- und Finanzfragen. In diesem Kapitel wird diskutiert, wie Metaphern bestimmen, was in dieser Erzählung wichtig, aber auch kompliziert und problematisch ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-71201-7_2 340e9ec230f8e0b34780f6291c88c385;de;;;2.1.;;;Generierung von Tag-basierten Benutzerprofilen zum Clustern von Benutzern in einer Social Music Site Kollaboratives Tagging wird immer beliebter als ein leistungsstarkes Werkzeug für einen Benutzer, um seine Meinung zu Webressourcen zu präsentieren. In diesem Papier schlagen wir eine Methode vor, um tagbasierte Profile zum Clustern von Benutzern auf einer Social-Music-Site zu generieren. Um unseren Ansatz zu evaluieren, wurde von last.fm ein Datensatz von 1000 Nutzern erhoben und unser Ansatz mit herkömmlichen trackbasierten Profilen verglichen. Der K-Means-Clustering-Algorithmus wird auf beiden Benutzerprofilen ausgeführt, um Benutzer mit ähnlichem Musikgeschmack zu gruppieren. Der Test statistischer Hypothesen von Inter-Cluster-Abständen wird verwendet, um die Cluster-Gültigkeit zu überprüfen. Unser Experiment zeigt deutlich, dass Tag-basierte Profile effizienter sind als Track-basierte Profile, wenn es darum geht, Nutzer mit ähnlichem Musikgeschmack zu gruppieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28490-8_6 c6fe183cd1b4f2cb368729cae7868c05;de;;;2.1.;;;Ein Tableau-basierter Schlussfolgerungsalgorithmus für verteilte dynamische Beschreibungslogiken Als Familie dynamischer Beschreibungslogiken wird DDL(X) konstruiert, indem Aktionen in die Beschreibungslogik X aufgenommen werden, wobei X gut untersuchte Beschreibungslogiken darstellt, die von ALC bis SHOIQ reichen. Die Verwendung verteilter Berechnungstechniken bei der Argumentation ist eine wichtige Voraussetzung für die Einführung dynamischer Beschreibungslogiken in einer realen Umgebung. Die praktische Skalierbarkeit der DDL(X)-Argumentation inspirierte kürzlich einen Vorschlag des Distributed Dynamic Description Logics (D3L)-Frameworks. D3L ist eine natürliche Verallgemeinerung des DDL(X)-Frameworks, das darauf ausgelegt ist, verteilte, sich dynamisch ändernde Wissensrepositorien, die durch semantische Abbildungen verbunden sind, zu modellieren und in verteilten, heterogenen Umgebungen Argumentation zu ermöglichen. In diesem Artikel untersuchen wir die Argumentationsmechanismen in D3L und schlagen einen Tableau-basierten Argumentationsalgorithmus für D3L vor, der als Zusammensetzung der hochmodernen Tableaux-Begründer für DDL(X) erstellt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34038-3_27 526f7f7b1bf6a584059ba59d121e382d;de;;;2.1.;;;Design eines intelligenten und adaptiven Mapping-Mechanismus für Multiagenten-Schnittstellen Das Hauptziel dieser Arbeit ist es, eine intelligente Schnittstelle vorzuschlagen, die die Interaktion von Agenten in homogenen sowie heterogenen Ontologien erleichtert. Eine Literaturübersicht zeigt, dass es für homogene Domänen gute Kartierungsmechanismen gibt, aber nur sehr wenige Forscher haben versucht, eine Kartierungsschnittstelle für heterogene Domänen vorzuschlagen, die über Lernfähigkeiten verfügt und daher von Natur aus adaptiv ist. Diese Arbeit trägt auf einzigartige Weise zur Zukunftsvision eines intelligenten und adaptiven Mapping-Mechanismus bei, der nicht nur den Fluch bereits bestehender Mapping-Mechanismen überwindet, sondern auch zeiteffizient ist. Die Leistung der vorgeschlagenen Strategie wurde bewertet und mit den bestehenden Strategien in den verwandten Bereichen verglichen und die Ergebnisse als wettbewerbsfähig befunden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22577-2_51 a5c77003e36f2e25cf3fc8789508a513;de;;;2.1.;;;Fuzzy-Set-Theorie und Anwendungen in der Psychologie Während Psychologen seit einiger Zeit wissen, dass Menschen Kategorien mit unscharfen Rändern und Abstufungen der Zugehörigkeit verwenden, hat das Feld nur langsam Ideen aus der Fuzzy-Set-Theorie und der Fuzzy-Logik aufgenommen. Trotz Kritik und Kontroversen erlangten Fuzzy-Sets in den späten 80er Jahren ein gewisses Maß an Legitimität in der Psychologie. Dieses Kapitel gibt einen Überblick über die jüngsten Entwicklungen und den aktuellen Stand der Fuzzy-Set-Theorie und ihrer Anwendungen in der Psychologie. Ausgehend von der Gradiententhese untersucht sie die Verwendung von Fuzzy-Sets bei der Operationalisierung und Messung psychologischer Konzepte. Der Fokus verlagert sich dann auf Modellierungs- und Datenanalysetechniken und endet mit einem Überblick über psychologische Theorien und Frameworks, die Fuzzy Sets verwenden. Aus Platzgründen mussten viele Themen und wichtige Werke kürzer behandelt werden, als wir es uns gewünscht hätten, aber wir haben uns um eine ausgewogene Darstellung dieser vielfältigen und immer noch schnell wachsenden Literatur bemüht.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4601-6_17 767fb2e6f033f35301aed302e58e2279;de;;;2.1.;;;Relative Bedeutung von Klimafaktoren und menschlichen Aktivitäten bei der Beeinflussung der Vegetationsdynamik im Zeitraum 2000–2015 im Otindag Sandy Land, Nordchina In den letzten Jahren hat das Forschungsinteresse an der Differenzierung der relativen Bedeutung von Klimafaktoren und menschlichen Aktivitäten bei der Beeinflussung der Vegetationsdynamik zugenommen. In dieser Studie, basierend auf der Residualtrend-Methode, haben wir MOD13A3 (MODIS-Vegetationsindexprodukt), MCD12Q1 (MODIS-Landbedeckungsprodukt) und meteorologische Datensätze verwendet, um die relative Bedeutung von Klimafaktoren und menschlichen Aktivitäten bei der Beeinflussung der Vegetationsdynamik im Zeitraum 2000–2015 zu differenzieren das Otindag Sandy Land, Nordchina. Die Ergebnisse zeigen, dass sich während des Untersuchungszeitraums (2000–2015) der allgemeine Vegetationszustand im Otindag Sandy Land verbessert hat. Die Triebkräfte der Vegetationsdynamik unterschieden sich im gesamten Untersuchungsgebiet räumlich über den Untersuchungszeitraum. Das Gebiet mit Vegetationsdegradation, das ausschließlich auf menschliche Aktivitäten zurückzuführen ist, machte 8,23 % des Untersuchungsgebiets aus, während das Gebiet mit Vegetationsdegradation aufgrund anderer (einschließlich Klimafaktoren und Kombination von Klimafaktoren und menschlichen Aktivitäten) 1,53% einnahm. Das Gebiet mit Vegetationserholung, das von menschlichen Aktivitäten profitierte, machte 26,02 % des Untersuchungsgebiets aus, das Gebiet, das von Klimafaktoren profitierte, machte 23,69% aus und das Gebiet profitierte sowohl von Klimafaktoren als auch von menschlichen Aktivitäten nahm 37,74 % ein. Insgesamt sollten die Auswirkungen von Klimafaktoren und menschlichen Aktivitäten auf die Vegetationsdynamik auf der Ebene der Landkreise/Stadt/Banner unterschiedlich sein und standortspezifische Maßnahmen zum Schutz der Umwelt ergriffen werden.;-;-;-;https://link.springer.com/article/10.1007/s40333-017-0062-y 47610294fb38634243f5a74b98ffe17c;de;;;2.1.;;;Verwenden des Negentropie-Inkrements zur Bestimmung der Anzahl der Cluster Wir führen einen neuen Validitätsindex für scharfes Clustering ein, der auf der durchschnittlichen Normalität der Cluster basiert. Ein normaler Cluster ist im Sinne maximaler Unsicherheit oder minimaler Struktur optimal, und daher werden weitere Partitionen darauf keine zusätzlichen Unterstrukturen aufdecken. Um die Normalität eines Clusters zu charakterisieren, verwenden wir die Negentropie, ein Standardmaß für den Abstand zur Normalität, das die Differenz zwischen der Entropie des Clusters und der Entropie einer Normalverteilung mit derselben Kovarianzmatrix bewertet. Obwohl die Definition der Negentropie die differentielle Entropie beinhaltet, zeigen wir, dass es möglich ist, ihre explizite Berechnung zu vermeiden, indem nur Negentropieinkremente in Bezug auf die anfängliche Datenverteilung berücksichtigt werden. Das resultierende;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02478-8_56 d0ed756fba11e7e507a8c4f3a03486f4;de;;;2.1.;;;Die Auswirkung regionaler Variation und Auflösung auf geosoziale thematische Signaturen für Points of Interest Computerbasierte Ortsmodelle sind ein wichtiger Bestandteil der räumlichen Informationstheorie und spielen eine zunehmende Rolle in der Forschung, die von der räumlichen Suche bis zur Verkehrsforschung reicht. Eine Methode, um zu solchen Modellen zu gelangen, besteht darin, Wissen aus benutzergenerierten Inhalten zu extrahieren, z. In den letzten Jahren wurden Themenmodellierungstechniken wie die latente Dirichlet-Allokation (LDA) untersucht, um sprachliche Muster aufzudecken, die Orte und ihre Typen charakterisieren. Intuitiv beschreiben Menschen Orte wie den Yosemite-Nationalpark eher in Bezug auf;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-56759-4_14 b8ff1d6ee7827f73d2aa7a8d7ba0d479;de;;;2.1.;;;Auf dem Weg zu einem semantisch angereicherten Computational Intelligence (SECI) Framework für Smart Farming Dieses Papier befürwortet den Einsatz von Semantical Enriched Computational Intelligence (SECI) für das Management der komplexen Aufgaben des Smart Farming. Insbesondere schlägt es ontologiebasierte Fuzzy-Logik vor, um mit inhärenten Ungenauigkeiten und Unklarheiten im Bereich Smart Farming umzugehen. Das Papier hebt verschiedene Eigenschaften von SECI hervor, die es zu einer geeigneten Rechentechnik für Smart Farming machen. Außerdem werden einige Aspekte aus der Vielzahl möglicher Anwendungen im Smart Farming diskutiert, die wir mit Hilfe von SECI umsetzen wollen. Darüber hinaus werden die Umsetzung und einige vorläufige Ergebnisse, die durch die Anwendung von SECI auf einen bestimmten Aspekt der intelligenten Landwirtschaft erzielt wurden, ausführlich beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94180-6_24 508f6b11e623520d558a58ce9cf3d750;de;;;2.1.;;;Komplexwertbasierter Ansatz zur mehrdimensionalen Bewertung von Landschaften Die vielfältigen Bedeutungen, die Landschaft in allen wissenschaftlichen Studien und im allgemeinen Sprachgebrauch einnimmt, unterstreichen die Komplexität eines Konzepts, das im Reichtum seiner Dimensionen den Verständnisschlüssel und die Interpretationsmatrix für Maßnahmen zur lokalen nachhaltigen Entwicklung findet. Ein neuer Landschaftsbegriff identifiziert die Beziehungen zwischen den verschiedenen Blickwinkeln und unterschiedlichen Deutungsansätzen und überwindet die Betrachtung des Territoriums als physikalisch-geometrische Realität im Dienste wirtschaftlicher Aspekte. Ausgehend von der Entwicklung des Landschaftskonzepts konzentriert sich der Beitrag auf das Management seiner Komplexität in den Transformationsprozessen im dynamischen Kontext der kulturellen Werte der Landschaft und in Entwicklungsstrategien zur Unterstützung und Stärkung dieser Werte. Es wurde ein mehrdimensionaler methodischer Rahmen aufgebaut, der auf die Bewertung landschaftskultureller Werte ausgerichtet ist und im Nationalpark Cilento, Vallo di Diano und Alburni (Italien) getestet wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09150-1_28 3fdc3c678f6af1bf866cee64def65e9e;de;;;2.1.;;;Kontext-bewusstes intelligentes, zuverlässiges Servicemodell für intelligentes Transportsystem basierend auf Ontologie IoT-basierte Transportsysteme werden immer intelligenter, um dem Benutzer schnelle, sichere und zuverlässige Dienste bereitzustellen. Dieses intelligentere Transportsystem wird Intelligent Transportation System (ITS) genannt. ITS umfasst drahtgebundene und drahtlose Kommunikation, elektronische Technologien, Rechentechnologien, Cloud-Plattformen, GPS und Sensoren, um den Benutzern zu helfen, über die Verkehrssicherheit informiert zu werden und die Transportmittel sicherer, koordinierter, komfortabler und „intelligenter“ zu nutzen. ITS ist eine fortschrittliche IOT-Anwendung, die eine große Anzahl von Objekten verbindet, um miteinander zu kommunizieren. Da die Zahl der mit ITS-Anwendungen verbundenen Objekte zunimmt, stehen wir vor der Herausforderung, den Rohdaten der Sensoren einen Mehrwert zu verleihen. Der Fokus dieses Papiers liegt darauf, dieser Herausforderung mit einem kontextbewussten Modell zu begegnen. Außerdem wird die Effektivität von Kontextbewusstsein in ITS durch die Diskussion verschiedener Echtzeitszenarien veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29407-6_3 688830d429e3ca300e787f34b35a71ad;de;;;2.1.;;;Von Features über Frames zu Spaces: Modellierung wissenschaftlicher Konzeptänderungen ohne Inkommensurabilität oder Apriorität Das (dynamische) Rahmenmodell, das seinen Ursprung in der künstlichen Intelligenz und der kognitiven Psychologie hat, wurde in jüngster Zeit auf Veränderungsphänomene angewendet, die traditionell in der Geschichte und Philosophie der Wissenschaften untersucht werden. Sein Anwendungszweck besteht darin, Episoden konzeptueller Dynamiken in den empirischen Wissenschaften zu berücksichtigen, die (angeblich) auf Inkommensurabilität hinweisen, wie sie durch „Brüche“ in den symbolischen Formen historisch aufeinander folgender empirischer Theorien mit ähnlichen Anwendungsklassen belegt werden. In diesem Artikel wird das Frame-Modell überprüft und seine Entwicklung anhand des Feature-List-Modells verfolgt. Anhand der vorhandenen Literatur werden Beispiele für rahmenrekonstruierte taxonomische Veränderungen vorgestellt. Dies geschieht zu Vergleichszwecken mit einem alternativen Werkzeug, konzeptionellen Räumen. Die Hauptbehauptung ist, dass konzeptionelle Räume die Vorzüge des Rahmenmodells bewahren und ein leistungsstarkes Modell für den konzeptionellen Wandel wissenschaftlicher Erkenntnisse darstellen, da die in der Messtheorie auftretenden Unterscheidungen dem Modell eigen sind. Es wird vorgeschlagen, wie Inkommensurabilität als Invergleichbarkeit theoretischer Rahmen vermieden werden könnte (also;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-01541-5_3 0ea45346c42e39df3910e8fa776ddc9d;de;;;2.1.;;;Analyse der Veröffentlichungen zu ontologiebasierten Smart-Grid-Anwendungen: Aus der Vogelperspektive Die Smart-Grid-Ontologie ist ein Forschungsgebiet, das neuerdings sowohl aus dem Bereich der Smart-Grid-Forschung als auch aus dem Bereich der Ontologieforschung betrachtet wird. Die Integration zwischen Smart Grid und Ontologie soll die gemeinsame Nutzung der Ontologie zwischen Anwendungen und Interessengruppen ermöglichen. Durch die Verwendung derselben Sprache werden die üblichen Probleme, die bei der Interoperabilität von Anwendungen auftreten, verhindert und gelöst. Dieses kurze Papier soll Forschern helfen, sich einen Überblick über die aktuelle Smart-Grid-Ontologieforschung in der Welt zu verschaffen und auch den Zusammenhang zwischen den Veröffentlichungen von Smart-Grid-Ontologie-Papieren und der Forschungsaufmerksamkeit zu erkennen, die zur Smart-Grid-Ontologie führt. Dazu führen wir eine umfassende Umfrage zu den drei Datenbanken IEEE Xplore, Springer und Elsevier ScienceDirect durch. Aus der Umfrage haben wir die Anzahl der Forschungsstudien zur Smart-Grid-Ontologie, deren Zitate und das Land erhalten. Aus der Anzahl der Veröffentlichungen und deren Zitationen lässt sich erkennen, welches Land ein Interesse an der Smart Grid-Ontologieforschung hat. Aus den Ergebnissen dieser Überprüfung wurde festgestellt, dass Länder in Kontinentaleuropa die am häufigsten veröffentlichte Veröffentlichung zur Smart-Grid-Ontologie sind. Ähnlich werden die Papiere, die zitieren, weitgehend von Ländern in Kontinentaleuropa dominiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-38752-5_38 05eb912116bb190e391b5d75500c9912;de;;;2.1.;;;Analyse von räumlich-zeitlichen Veränderungen der Landbedeckung für die hydrologische Folgenabschätzung im Nyando-Flussbecken in Kenia Die räumlich-zeitlichen Veränderungen der Landbedeckungszustände des Nyando-Beckens wurden für eine ergänzende hydrologische Folgenabschätzung untersucht. Es wurden die vorherrschenden Landbedeckungstypen ausgewählt, deren Umwandlungen die hydrologische Reaktion der Region beeinflussen könnten. Sechs Landsat-Bilder für 1973, 1986 und 2000 wurden verarbeitet, um die Veränderungen basierend auf einer Methodik zu erkennen, die eine Mischung aus überwachten und unüberwachten Klassifikationsschemata verwendet. Die Genauigkeit der Klassifikationen wurde anhand von Referenzdatensätzen bewertet, die in einem GIS mit Hilfe von bodenbezogenen Informationen, die durch partizipative Kartierungstechniken gewonnen wurden, verarbeitet wurden. Um die möglichen hydrologischen Auswirkungen der festgestellten Veränderungen bei Sturmereignissen zu bewerten, wurde ein physikalisch basierter Ansatz zur Schätzung von Infiltrationsverlusten in fünf ausgewählten Teileinzugsgebieten verwendet. Die erhaltenen Ergebnisse zeigten, dass die Wälder im Becken während des gesamten Untersuchungszeitraums um 20 % zurückgingen, während sich die landwirtschaftlichen Felder um 16 % ausdehnten. Aus den Landbedeckungsumwandlungsmatrizen ging hervor, dass der Großteil des Waldrückgangs eine Folge der landwirtschaftlichen Expansion war. Die Modellergebnisse zeigten verringerte Infiltrationsmengen zwischen 6 % und 15 %. Es wurde festgestellt, dass die Quellgebiete mit der enormen Entwaldung anfälliger für die Auswirkungen der Landbedeckungsänderung sind. Trotz der willkürlichen Landnutzungsmuster und der Unsicherheiten im Zusammenhang mit der schlechten Datenqualität für die Umweltüberwachung und -bewertung zeigte die Studie die enorme Degradation und damit die Notwendigkeit einer nachhaltigen Landnutzungsplanung für ein verbessertes Einzugsgebietsmanagement auf.;-;-;-;https://link.springer.com/article/10.1007/s10661-010-1743-6 d622f9f9378f73473ba159207834a810;de;;;2.1.;;;Projizierte Landnutzungsänderungen in den gemeinsamen sozioökonomischen Pfaden: Einblicke und Implikationen Die Konzeptualisierung des Rahmens für gemeinsame sozioökonomische Pfade (SSPs) stellte einen großen Sprung in der Szenarioentwicklung im Kontext globaler Umweltveränderungen und Nachhaltigkeit dar und lieferte erhebliche Fortschritte gegenüber den vorherigen Szenariorahmen – insbesondere dem Sonderbericht des Weltklimarates (IPCC) über Emissionsszenarien. Es ist sehr wahrscheinlich, dass das SSP-Konzept zusammen mit seinen Szenario-Erzählungen und den entsprechenden Ergebnissen, einschließlich Landnutzungsänderungsprojektionen, eine wesentliche Rolle im bevorstehenden Sechsten Sachstandsbericht des IPCC spielen wird. Hier bieten wir einige Erkenntnisse, die die prognostizierten zukünftigen Veränderungen der globalen Landnutzung der SSPs umfassender machen und auch dazu beitragen könnten, die Interpretierbarkeit solcher Projektionen zu verbessern. Anstatt sich beispielsweise auf die Menge jeder Landnutzungsklasse zu verschiedenen Zeitpunkten zu konzentrieren, was nur zu einer Nettoveränderung führt, wenn eine Änderung zwischen den Zeitpunkten festgestellt wird, empfehlen wir, die projizierten Bruttogewinne und Bruttoverluste in jeder Landnutzungsklasse über alle Szenarien hinweg sollte ebenfalls berücksichtigt werden. Insgesamt könnten die vorgestellten Erkenntnisse auch dazu beitragen, den Weg für eine stärkere Zusammenarbeit zwischen der SSP-Klimawissenschaftsgemeinschaft und der Landsystemwissenschaftsgemeinschaft zu ebnen. Eine solche Zusammenarbeit ist dringend erforderlich, um die Herausforderungen des globalen Umweltwandels in Richtung eines klimaresistenten nachhaltigen Entwicklungspfads anzugehen.;-;-;-;https://link.springer.com/article/10.1007/s13280-020-01338-4 3cdf6e5cda32d4e066392bcec745d612;de;;;2.1.;;;Über eine Patentanalysemethode zur Identifizierung von Kerntechnologien Diese Studie schlägt einen neuen Ansatz zur Identifizierung von Kerntechnologien aus der Perspektive des gemeinsamen Auftretens, der Verwandtschaft und der gegenseitigen Auswirkungen auf der Grundlage von Informationen zur gemeinsamen Patentklassifizierung unter Berücksichtigung der gesamten Wechselbeziehungen zwischen den Technologien vor. Zuerst wird Assoziationsregel-Mining verwendet, um die Indizes für gemeinsames Auftreten, Verwandtschaft und Kreuzwirkung abzuleiten, und drei technologische Matrizen werden konstruiert. Zweitens wird der analytische Netzwerkprozess durchgeführt, um Bedeutungswerte von Technologien für drei Perspektiven unter Berücksichtigung ihrer direkten und indirekten Auswirkungen zu ermitteln. Schließlich wird die Datenumhüllungsanalyse angewendet, um Prioritäten von Technologien zu identifizieren. Der vorgeschlagene Ansatz kann für das Technologiemonitoring sowohl für die Technologieplanung von Unternehmen als auch für die Gestaltung der Innovationspolitik von Regierungen verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29920-9_45 ac0bca1a3b62d82fd5ef5209b37a0244;de;;;2.1.;;;Clustering und Änderungserkennung in mehreren Streaming-Zeitreihen In den letzten Jahren hat Data Stream Mining (DSM) aufgrund der zunehmenden Anzahl von Anwendungskontexten, die zeitlich geordnete, sich schnell ändernde und potenziell unendliche Daten generieren, viel Aufmerksamkeit erhalten. Um mit solchen Daten umzugehen, müssen Lerntechniken mehrere Rechen- und Speicherbeschränkungen erfüllen, so dass neue und spezifische Verfahren entwickelt werden müssen. In diesem Papier stellen wir eine neue Strategie zum Umgang mit dem Problem des Clusterings von Streaming-Zeitreihen vor. Das Verfahren ermöglicht es, eine Aufteilung der Ströme über einen vom Benutzer gewählten Zeitraum zu erkennen und Entwicklungen in den Nachbarschaftsbeziehungen zu entdecken. Wir zeigen, dass es möglich ist, diese Ziele zu erreichen, indem wir das Clustering von zeitlich nicht überlappenden Datenstapeln durchführen, die online ankommen, und dann einen geeigneten Clustering-Algorithmus auf einer Unähnlichkeitsmatrix ausführen, die unter Verwendung der Ausgaben des lokalen Clustering aktualisiert wird. Anhand einer Anwendung auf reale und simulierte Daten werden wir zeigen, dass diese Methode vergleichbare Ergebnisse liefert wie Algorithmen für gespeicherte Daten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03859-9_1 7800239986144ddc8bb124c42f46f2da;de;;;2.1.;;;Maximierung des Schülererfolgs durch automatisches formatives Feedback für Lehrer und Schüler In diesem Papier werden die Ergebnisse aus dem Aufbau und der empirischen Untersuchung von zwei automatischen Feedbacksystemen, nämlich OpenMentor und OpenEssayist, diskutiert, die das Lernen der Schüler unterstützen können. Die Ergebnisse aus der Nutzung von OpenMentor und OpenEssayist legen nahe, dass schnelles gezieltes Feedback für zeitarme Schüler den Lernerfolg maximieren kann. Beide Systeme ermöglichen es den Benutzern, Eigenverantwortung zu übernehmen und ihre eigene Arbeit zu reflektieren, indem sie Feedback geben, an dem sie in nachfolgenden Aufgaben darauf aufbauen können. Dies sollte den größten Einfluss auf das Verständnis der Benutzer für die Anforderungen des wissenschaftlichen Schreibens und das Verständnis der Tutoren für das Feedback zum wissenschaftlichen Schreiben haben. Die Systeme werden auch zunehmend als Forschungsinstrumente eingesetzt, die es ermöglichen, pädagogische Strategien zu testen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27704-2_14 24ee6d247bcb4cc3a0d89744c1448f86;de;;;2.1.;;;Einbeziehung der HowNet-basierten semantischen Verwandtschaft in die chinesische Wortsinn-Begriffsklärung In diesem Artikel wird eine semi-überwachte Lernmethode vorgestellt, die Sinneswissen in ein chinesisches Modell zur Begriffsklärung (WSD) einbezieht. Diese Forschung nutzt auch die HowNet-basierte semantische Verwandtschaft effektiv aus, um die Systemleistung zu nutzen. Das vorgeschlagene Verfahren umfasst eine Sense-Kolonie-Aufgabe zum Verbessern der Kontexterweiterung und eine semantische Beziehungsberechnung für die Sense-Merkmalsdarstellung. Um Sinneswissen in WSD zu integrieren, verwendet dieses Papier die semantische Verwandtschaft in einem semi-überwachten Label-Propagation-Klassifikator. Diese Forschung demonstriert die neuesten Ergebnisse zu Aufgaben zur Begriffsklärung des Wortsinns.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-38189-9_38 241a3c9c42474ba5fd9cfd3c0ded91fc;de;;;2.1.;;;Erkennung von Mandarin-Fragensätzen: Eine Vorstudie Das Erkennen von Mandarin-Fragesätzen ist sowohl interessant als auch schwierig. Um dieses neue Thema anzugehen, versuchen wir zuerst, die Erinnerung und dann die Präzision zu erhöhen. Um einen höheren Wiedererkennungswert zu erreichen, überprüfen wir nicht nur relevante linguistische Literatur, sondern untersuchen auch relevante Themen aus einer neuen statistischen und Korpussicht und entdecken umfassendere und präzisere fragenbezogene Wörter als zuvor. Als nächstes stellen wir unsere statistischen Ansätze und Verfahren vor und diskutieren unsere Ergebnisse. Wir erreichen eine gute Erinnerung und eine bescheidene Präzision in der Vorstudie und sind Pionier bei der computergestützten Untersuchung von Indefinitiven.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24580-3_55 71cf0131502affb2c67cb0818e62e92a;de;;;2.1.;;;Zur Extraktion konzeptioneller Strukturen aus elektronischen Patientenakten Dieses Papier stellt den allgemeinen Rahmen und die aktuellen Ergebnisse eines Projekts vor, das darauf abzielt, ein System zur Entdeckung und Extraktion von Wissen aus den Texten der elektronischen Gesundheitsakte in bulgarischer Sprache zu entwickeln. Der vorgeschlagene hybride Ansatz integriert Sprachtechnologien und konzeptionelle Verarbeitung. Das System generiert konzeptionelle Grafiken, die die Krankengeschichte des Patienten kodieren, die Vorlagen für die Krankheiten, Symptome und Behandlungen des Patienten enthält. Wir beschreiben einfache Inferenz in der Ressourcenbank der generierten Graphen. Einige Experimente und deren Auswertung werden im Artikel vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03079-6_8 66ddbaeb7b9a1e41fdc7e601f146a626;de;;;2.1.;;;Wortextraktion basierend auf semantischen Einschränkungen in der chinesischen Wortbildung Dieser Beitrag stellt einen neuartigen Ansatz zur Extraktion chinesischer Wörter vor, der auf semantischen Informationen von Zeichen basiert. Es wird ein Thesaurus chinesischer Schriftzeichen geführt. Ein chinesisches Lexikon mit 63.738 zweistelligen Wörtern wird zusammen mit dem Zeichenthesaurus erforscht, um semantische Beschränkungen zwischen Zeichen in der chinesischen Wortbildung zu lernen und ein semantisches Tag-basiertes HMM zu bilden. Das Baum-Welch-Neuschätzungsschema wird dann gewählt, um Parameter des HMM im Sinne eines unbeaufsichtigten Lernens zu trainieren. Verschiedene statistische Maße zum Schätzen der Wahrscheinlichkeit, dass eine Zeichenkette ein Wort ist, werden weiter getestet. Großexperimentelle Versuche zeigen, dass die Ergebnisse vielversprechend sind: Der F-Score dieser Wortextraktionsmethode kann 68,5% erreichen, während ihr Gegenstück, die zeichenbasierte Methode der gegenseitigen Information, nur 47,5% erreichen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30586-6_20 b4a6b61aefdedaf683d1b23189577f69;de;;;2.1.;;;Verbesserung eines auf Assoziationsregeln basierenden Klassifikators Bestehende Klassifizierungsalgorithmen im maschinellen Lernen verwenden hauptsächlich die heuristische Suche, um eine Teilmenge von Regelmäßigkeiten in Daten für die Klassifizierung zu finden. In den letzten Jahren wurden in der Datenbank-Community umfangreiche Recherchen zu Lernregeln durchgeführt, die eine erschöpfende Suche unter dem Namen Association Rule Mining verwenden. Obwohl nicht der gesamte Regelsatz direkt für eine genaue Klassifizierung verwendet werden kann, wurden effektive Klassifikatoren unter Verwendung der Regeln erstellt. Dieses Papier zielt darauf ab, ein solches erschöpfendes suchbasiertes Klassifikationssystem CBA (Classification Based on Associations) zu verbessern. Die Hauptstärke dieses Systems besteht darin, dass es die genauesten Regeln für die Klassifizierung verwenden kann. Allerdings hat es auch Schwächen. Dieses Papier schlägt zwei neue Techniken vor, um mit diesen Schwächen umzugehen. Dies führt zu bemerkenswert genauen Klassifikatoren. Experimente mit einem Satz von 34 Benchmark-Datensätzen zeigen, dass die neuen Techniken den Fehler von CBA im Durchschnitt um 17% reduzieren und CBA bei 26 der 34 Datensätze überlegen sind. Sie reduzieren den Fehler von C4.5 um 19% und verbessern die Leistung bei 29 Datensätzen. Ähnlich gute Ergebnisse werden auch gegen RIPPER, LB und einen Naïve-Bayes-Klassifikator erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45372-5_58 4d30f622ae84d4cdaf53f0be503e8e19;de;;;2.1.;;;QoM: Qualitative und quantitative Schema-Match-Messung Die Integration mehrerer heterogener Datenquellen ist nach wie vor ein kritisches Problem für viele Anwendungsdomänen und eine Herausforderung für Forscher weltweit. Schema-Matching, ein grundlegender Aspekt der Integration, ist ein gut untersuchtes Problem. Die Forscher haben sich jedoch größtenteils auf die Entwicklung verschiedener Schemavergleichsalgorithmen und deren Leistung in Bezug auf die Anzahl der erzeugten Übereinstimmungen konzentriert. Nach unserem besten Wissen befasst sich die aktuelle Forschung zum Schema-Matching nicht mit der Frage der;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39648-2_6 dcd9141718cf6e5a6a04dafcee0c3a6e;de;;;2.1.;;;Computergestützte Integration domänenspezifischer Modellierungssprachen mittels Textanalysetechniken Dem Prinzip der Trennung von Belangen folgend, hat der Bereich Model-driven Engineering domänenspezifische Modellierungssprachen (DSML) entwickelt, um der zunehmenden Komplexität des Systemdesigns gerecht zu werden. In diesem Kontext heterogener Modellierungssprachen stehen Ingenieure und Sprachdesigner vor dem kritischen Problem der Sprachintegration. Um dieses Problem anzugehen, schlagen wir vor, anstelle einer syntaktischen Analyse basierend auf Domänenmodellen oder Metamodellen, wie es heute üblich ist, Techniken der natürlichen Sprachverarbeitung anzuwenden, um eine semantische Analyse der Sprachspezifikationen durchzuführen. Wir evaluieren unseren Ansatz empirisch an sieben realen Testfällen und vergleichen unsere Ergebnisse mit fünf State-of-the-Art-Tools. Die Ergebnisse zeigen, dass die semantische Analyse von Textbeschreibungen, die DSMLs begleiten, Ingenieure effizient dabei unterstützen kann, fundierte Integrationsentscheidungen zu treffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41533-3_31 649b8df42c685833fc2fb57d01619e78;de;;;2.1.;;;Konvergenz der Inflationsratendynamik innerhalb des Euro In diesem Papier verwenden wir die Wavelet-Analyse, um das Problem der Konvergenz der Inflationsdynamik im Euroraum anzugehen. Die Studie wird für die 11 Länder durchgeführt, die erstmals dem Euro beigetreten sind. Wir verwenden ein im Zeit-Frequenz-Raum abgeleitetes Unähnlichkeitsmaß, um den Grad der Inflationssynchronisation zwischen diesen Ländern zu schätzen. Mit diesem Maß füllen wir eine Unähnlichkeitsmatrix, die dann mit mehrdimensionaler Skalierung verwendet wird, um die verschiedenen Länder in einer Ebene darzustellen. Unsere Ergebnisse zeigen, dass der Grad der Synchronisation der Inflationszyklen vor dem Euro viel stärker ist als nach dem Euro. Während beispielsweise die portugiesische Inflation vor dem Euro mit der Inflation in sechs anderen Ländern synchronisiert ist, verschwinden nach der Einführung des Euro alle statistischen Beweise für eine Synchronisation.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09144-0_10 8c7fce889628be755ad96a08de05582b;de;;;2.1.;;;Klassifikation der Geruchsannehmlichkeit aus elektroenzephalographischen Signalen und emotionalen Zuständen Die Geruchsidentifikation bezieht sich auf die Fähigkeit des Geruchssinns, Gerüche wahrzunehmen. Das Interesse in diesem Sinne ist über mehrere Bereiche und Anwendungen wie Multimedia, Virtual Reality, Marketing ua gewachsen. Daher ist die objektive Identifizierung von angenehmen und unangenehmen Gerüchen ein offenes Forschungsfeld. Einige Studien wurden basierend auf elektroenzephalographischen Signalen (EEG) durchgeführt. Diese können jedoch aufgrund der bisher erreichten Genauigkeit als unzureichend angesehen werden. Das Hauptziel dieser Studie war es, die Fähigkeit der Klassifikatorsysteme zu untersuchen, angenehme und unangenehme Gerüche aus EEG-Signalen zu identifizieren. Die angewandte Methodik wurde in drei Stufen durchgeführt. Zunächst wurde eine Geruchsdatenbank unter Verwendung der mit einem Emotiv Epoc+ mit 14 Kanälen der Elektroenzephalographie (EEG) aufgezeichneten Signale und einer Umfrage zur Ermittlung der Emotionsniveaus basierend auf Valenz und Erregung unter Berücksichtigung der Tatsache, dass der Geruch Emotionen induziert, erstellt. Die Register wurden von drei Probanden erworben, die jeweils zweimal 10 verschiedenen Geruchsreizen ausgesetzt wurden. Die zweite Stufe war die Merkmalsextraktion, die auf 5 Subbändern durchgeführt wurde;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98998-3_10 b125a091810d335699a694c241813c4d;de;;;2.1.;;;Eine Studie zum Einfluss der Dimensionsreduktion auf die Klassifikationsgenauigkeit myoelektrischer Kontrollsysteme Die Verwendung myoelektrischer Systeme für muskelgesteuerte Mensch-Maschine-Schnittstellen hat in letzter Zeit aufgrund der leichten Verfügbarkeit von Elektromyographie-Aufzeichnungsinstrumenten, die nicht invasiv und kostengünstig sind, an Popularität gewonnen. Ein Feature-Set mit vielen Features muss keinen positiven Einfluss auf die Genauigkeit haben. Dies kann die Genauigkeit verringern und auch zu einer Überanpassung von Klassifikatormodellen führen. Bei einer festen Anzahl von Trainingsdatenpunkten nimmt mit zunehmender Dimensionalität die Vorhersagegenauigkeit einer Klassifizierung oder eines Regressionsalgorithmus mit der Dimensionalität zu, bis ein Spitzenwert erreicht wird, nach dem die Genauigkeit zu sinken beginnt. Dimensionsreduktionstechniken können verwendet werden, um dieses Spitzenphänomen zu überwinden. Der Schwerpunkt dieser Studie lag darin, die Auswirkungen auf die Genauigkeit der Einwirkungsklassifikation zu untersuchen, wenn Dimensionsreduktionstechniken auf die für diese Studie betrachteten Zeitbereichsmerkmale angewendet werden. Die auf die Merkmale angewendeten Dimensionsreduktionstechniken waren die Hauptkomponentenanalyse, die lineare Diskriminanzanalyse und die quadratische Diskriminanzanalyse. Die Studie zeigte, dass es keine signifikante Abnahme der Genauigkeit bei einer Verringerung der Dimensionalität gab. Mit künstlichen neuronalen Netzen als Klassifikator wurde bei der Mehrheit der Benutzer mit Hauptkomponentenanalyse, linearer Diskriminanzanalyse und quadratischer Diskriminanzanalyse zur Dimensionsreduktion eine konsistente Leistung von 80% oder mehr beobachtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0443-0_3 2e200db742040b6eb723b94e8069e4f6;de;;;2.1.;;;Identifizierung industrieller Milchsäurebakterienstämme durch Methoden der molekulargenetischen Typisierung Es werden verschiedene Methoden diskutiert, die derzeit in der Mikrobiologie zur Bestimmung des taxonomischen Zustands von Bakterien verwendet werden. Das Hauptaugenmerk liegt auf der Identifizierung und Gentypisierung von Milchsäurebakterien, die als Starterkulturen für die industrielle Produktion von Sauermilchprodukten, Fleischprodukten und Probiotika verwendet werden.;-;-;-;https://link.springer.com/article/10.1134/S1022795406120039 fe2d45ebb2b623e96e40ff70bfac77b0;de;;;2.1.;;;Zur Bedeutung von Genitalmerkmalen in der supraspezifischen Systematik der Elateriden-Unterfamilie agrypninae (Coleoptera, Elateridae) Die Geschlechtsmerkmale einiger Klickkäfer der Stämme Agrypnini und Conoderini der Unterfamilie Agrypninae werden überprüft. Die strukturellen Merkmale von männlichem Sternit IX, Aedeagus und Bursa copulatrix haben einen großen diagnostischen Wert für supraspezifische Taxa. Basierend auf diesen Charakteren ist die Unterscheidbarkeit der Gattung;-;-;-;https://link.springer.com/article/10.1134/S0013873811060091 5920a34a216613614255e87689382315;de;;;2.1.;;;LiCoRMS – Auf dem Weg zu einem Ressourcenmanagementsystem basierend auf Lebenszyklus- und Inhaltsinformationen Wissensintensives Arbeiten zeichnet sich durch den Umgang mit immer mehr Ressourcen wie Dokumenten oder E-Mails aus. Um die Effizienz zu steigern, verwenden Benutzer häufig vorhandene Ressourcen wieder, z. B. erstellen neue Dokumente, indem sie vorhandene als Vorlage verwenden. Dieses Papier stellt vor;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24279-3_30 36ae991b4dd05f02b05ce8f6611d7ca1;de;;;2.1.;;;Paläogene Biostratigraphie der nordkaspischen Region basierend auf Dinozysten und Nannofossilien aus dem Bohrloch Novouzensk. Artikel 2: Biotische Ereignisse und paläoökologische Einstellungen Die relativ vollständige späte Danian-initiale Lutetian Abfolge biotischer Ereignisse, die geeignet sind, als biostratigraphische Referenzniveaus für interregionale Korrelationen zu dienen, werden im Abschnitt der Referenzbohrung Novouzensk basierend auf Dinozysten- und Nannoplankton-Assemblies definiert. Die Analyse palynologischer und nannofossiler Ansammlungen ermöglicht die Verfolgung der Dynamik der Beckenentwicklung und der Meeresspiegelschwankungen. Im Bohrlochabschnitt werden drei Hauptstadien festgestellt, die unterschiedliche Sedimentationsregime widerspiegeln: (1) Danian mit terrigenen Karbonat-Sedimentationsregimen, die den Algai- und Tsyganovka-Formationen entsprechen, (2) Selandisch-Thanetien (einschliesslich des anfänglichen Eozäns), das hauptsächlich durch kieselsäurehaltige Sedimente gekennzeichnet ist der Syzran-, Novouzensk- und teilweise Bostandyk-Formationen, (3) Ypresian-Lutetian mit dem karbonat-terrigenen Sedimentationsregime, das dem oberen Teil der Ypresian Bostandyk- und Lutetian Kopterek-Formationen entspricht. Die Zusammensetzung von Dinoflagellaten- und Nannoplankton-Ansammlungen charakterisiert das Nordkaspische Becken als ein weitgehend flaches Binnenmeer mit einem wechselhaften Temperaturregime. Die paläoökologische Analyse von Phytozönosen ermöglichte es, Beckenfluktuationen vergleichbar mit Rhythmen dritter Ordnung zu definieren. Vier in den Formationen Algai und Tsyganovka definierbare Danian-Rhythmen weisen auf die Bedingungen eines offenen Warmwasserbeckens hin. Die Dynamik des schrittweisen Auftauchens des Beckens war charakteristisch für das selandisch-frühthanetische Zeitalter mit anschließender Wiederherstellung des Meeresregimes im späten Thanetium. Die Syzran-Formation entspricht zwei selandischen Rhythmen, die in flacheren Einstellungen des eingeschränkten Meeresbeckens gebildet wurden. Vier Thanetian-Rhythmen sind in der Novouzensk-Formation etabliert. Das frühe Thanetian-Becken war durch die flachsten gestörten Meeresbedingungen gekennzeichnet, denen im späten Thanetian das wiederhergestellte normale Meeresregime folgte. Sechs ypresische Rhythmen entsprechen der Bostandyk-Formation (Yp-0, Yp-1, Yp-5-Yp-8) und reflektieren den Übergang von der anfänglichen Ypresischen Küste (Yp-0, Yp-1) zu normalen Meeresbedingungen während des Yp-5-Rhythmus . Das frühe (Yp-2-Yp-4) und späte (Yp-9-Yp-10) Ypresium entsprach dem Sedimentationsbruch. Die am häufigsten vorkommenden und vielfältigsten mikrobiotischen Assemblagen, die für den Yp-7-Rhythmus charakteristisch sind, korrelieren mit dem EECO-Ereignis. Die dem frühen Lutetian-Rhythmus (Lu-1) entsprechende meerartige Kopterek-Formation zeichnet sich durch vielfältige thermophile Biota aus.;-;-;-;https://link.springer.com/article/10.1134/S0869593810020061 a6b5795bbd86846fe73e173b98e6ec79;de;;;2.1.;;;Ein hybrides NSGA-II für die passende biomedizinische Ontologie In den letzten Jahren werden Ontologien im biomedizinischen Bereich weit verbreitet. Heterogenitätsprobleme in der biomedizinischen Ontologie behindern jedoch die Zusammenarbeit zwischen intelligenten Anwendungen, die auf biomedizinischen Ontologien basieren. Es ist entscheidend, Übereinstimmungen zwischen den heterogenen biomedizinischen Konzepten in verschiedenen Ontologien herzustellen, das sogenannte biomedizinische Ontologie-Matching. Ansätze, die auf dem Multi-Objective Evolutionary Algorithm (MOEA) basieren, wie NSGA-II, werden als neue Methodik zur Lösung des Ontologie-Matching-Problems entwickelt. Um die Qualität biomedizinischer Ontologie-Alignments weiter zu verbessern, wird in diesem Beitrag ein hybrider NSGA-II vorgeschlagen, der die Knielösungen in der Pareto-Front unter Verwendung einer lokalen Suchmethode modifiziert. Experiment verwendet zwei biomedizinische Ontologie-Matching-Tracks, die von der Ontology Alignment Evaluation Initiative (OAEI 2017) bereitgestellt werden. Die experimentellen Ergebnisse zeigen, dass unser Ansatz die Teilnehmer von OAEI 2017 und NSGA-II-basierter Ontologie-Matching-Technik übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-03745-1_1 dfd3234cfbcc0f7004ec95911f20a618;de;;;2.1.;;;Eine FIPA-ACL-Ontologie zur Verbesserung der Interoperabilität Multi-Agent-Kommunikation Die Natur des Computerparadigmas hat sich aufgrund des Aufkommens und der Popularität des Internets von zentralisiert, statisch und geschlossen zu verteilt, dynamisch und offen gewandelt. Das Multi-Agenten-System (MAS) gewann als charakteristische Übereinstimmung mit diesem Paradigmenwechsel an Popularität. Damit MAS effizient interagieren und sinnvoll kommunizieren kann, spielt die Agent Communication Language (ACL) eine wichtige Rolle. FIPA-ACL ist eine von FIPA entwickelte ACL, die zum De-facto-Standard der ACL-Implementierung in MAS geworden ist. Ein weiterer aufkommender Trend durch das Internet ist das Semantic Web (SW). Semantic Web ist eine Erweiterung des aktuellen World Wide Web, die den Inhalt des Webs mit einer genau definierten Bedeutung verschlüsselt, damit er von Maschinen wie Computern (Agenten) verarbeitet werden kann. Daher kann die Kombination der bestehenden FIPA-ACL mit Semantic Web ACLs auf eine andere Ebene bringen, um die Interoperabilität in MAS zu verbessern. In diesem Papier wird eine FIPA-ACL-Ontologie in OWL vorgeschlagen, um die Kommunikation zwischen Agenten in MAS zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8276-4_15 f4bd718f8dcad7198b44f22e863f1617;de;;;2.1.;;;Semantische Ähnlichkeit bei der Generalisierung von Geodaten Das Papier präsentiert einen Ansatz zur Überprüfung der Konsistenz generalisierter Geodaten auf konzeptioneller Ebene. Die Hauptphasen der vorgeschlagenen Methodik sind Analyse, Synthese und Verifizierung. Die Analyse konzentriert sich darauf, die Besonderheiten räumlicher Beziehungen durch quantitative Maßnahmen zu extrahieren. Synthese wird verwendet, um eine konzeptionelle Darstellung (Ontologie) zu erzeugen, die die Beziehungen zwischen Geoobjekten explizit und qualitativ darstellt, was zu Tupeln führt, die hier als semantische Beschreibungen bezeichnet werden. Die Verifizierung besteht aus einem Vergleich zwischen zwei semantischen Beschreibungen (Beschreibung der Quelle und verallgemeinerten Daten): Wir messen die semantische Distanz (Verwirrung) zwischen lokalen Konzepten der Ontologie und erzeugen drei globale Konzepte Gleich, Ungleich und Äquivalent. Sie messen die (Un-)Konsistenz generalisierter Daten: Equal and Equivalent – ​​ihre Konsistenz, während Unequal – eine Inkonsistenz. Das Verfahren ist unabhängig von Koordinaten, Maßstäben, Maßeinheiten, kartographischer Projektion, Darstellungsformat, geometrischen Primitiven usw. Der Ansatz wird auf die Verallgemeinerung von zwei topografischen Schichten angewendet und getestet: Flüsse und Höhenlinien (Studienfall).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76876-0_16 7c78bcbc804ee91de4d22e7e770e5d87;de;;;2.1.;;;Pathogene Synergie: Mischinfektionen in der Mundhöhle Bei fast allen Infektionen in der Mundhöhle sind gemischte Bakterienpopulationen vorhanden. Neuere Erkenntnisse deuten jedoch auf eine gewisse Spezifität bei diesen Infektionen hin:;-;-;-;https://link.springer.com/article/10.1007/BF02386241 dd13e1eb3b8658e61c317e7c10f68bcb;de;;;2.1.;;;Integration von Business Domain Ontologien mit der frühen Anforderungsmodellierung Das Requirements Engineering ist eine wichtige und komplexe Phase der Systementwicklung, da es die Beschreibung der Systemdomäne mit der Erhebung, Spezifikation und Validierung anwendungsspezifischer Anforderungen verbindet. In diesem Beitrag schlagen wir einen ontologiebasierten Requirements-Engineering-Ansatz vor, der die Verwendung von Domänenontologien zur Erfassung von Domänenwissen in frühe Anforderungsmodellierungstechniken integriert, die hauptsächlich darauf abzielen, den organisatorischen und beabsichtigten Kontext des Systems zu ermitteln und darzustellen. Der vorgeschlagene Ansatz kann mit verschiedenen Arten von Domänenontologien und verschiedenen Techniken des Requirements Engineering verwendet werden. Der Ansatz wird anhand der REA Enterprise Ontology, der E;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87991-6_34 f41e774cd784cb8186f1a0e71340251c;de;;;2.1.;;;Flavonoide auf infraspezifischen Ebenen In diesem Kapitel diskutieren wir Muster des Flavonoidvorkommens auf subspezifischer und sortenreiner Ebene. Es gibt keine allgemeine Übereinstimmung darüber, wie diese beiden Ränge verwendet werden sollten (z. B. Hamilton und Reichard, 1992), und wir werden diesen Aspekt der infraspezifischen Taxonomie nicht kommentieren. Für eine ausführliche Diskussion siehe Stuessy (1990). Unser einziges Interesse besteht hier darin, die Verwendung von Flavonoiden auf diesen Ebenen zu dokumentieren. Wir fügen auch einige Beispiele für Unterschiede hinzu, die zwischen Sorten gemeldet wurden. Diese werden am Ende dieses Kapitels zusammen behandelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-6181-4_23 26566c15cc1d85b05f9c0dc40ccf609b;de;;;2.1.;;;Neutrale Schnittstelle für den montage- und fertigungsbezogenen Wissensaustausch in heterogenen Konstruktionsumgebungen Ziel dieser Forschung ist es, einen Überblick über die jüngsten Aktivitäten im Bereich der Gestaltung von Fertigungs- und Montageprozessen aus Sicht des Wissensaustauschs zu geben und eine Lösung vorzuschlagen, wie Produkte an die Fertigungs- oder Montageprozesse und geeignete Systeme angeschlossen werden können. Die hier durchgeführte Forschung beginnt mit der Annahme der Konnektivität von drei Designdomänen: Produkt-, Prozess- und Systemdesigndomänen. Die Eigenschaften des Produkts beschreiben die zur Herstellung und/oder Montage des Produkts erforderlichen Prozesse im Voraus. Die Produktbeschreibung definiert Randbedingungen für die geeigneten Prozesse. Die Prozesse definieren die Systemanforderungen im Voraus und schränken den Satz von Systemen ein, die die erforderlichen Prozesse ausführen können. Aus technischer Sicht besteht das Ziel auch darin, eine Informationsarchitektur bereitzustellen, in der die Beziehungen zwischen diesen drei Domänen bestehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11598-1_3 d199c1e489fdeea706cd0cd7c454ece4;de;;;2.1.;;;Die Theorie des Wissensquadrats und der Informationsstruktur: Die Eintritts- und Austrittspunkte In einer Reihe meiner Schriften über Wissenschaftstheorie, Erkenntnistheorie und Grundlagen von Fuzzy-Denkgesetzen betrachte ich sie aus dem Blickwinkel der Theorien des ökonomischen Verhaltens, der Komplexität sozialer Dynamiken, selbstkorrigierender Systeme, der Entscheidungswahl Systeme und synergetisches Verhalten von Systemen eher als Philosoph oder Mathematiker. Von diesem Standpunkt aus führte ich ein analytisches Konzept der;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31119-2_1 9a5e308b1e75b6f802ad58397be649d7;de;;;2.1.;;;Semantische Darstellung von CAD-Modellen basierend auf dem IGES-Standard Der Designprozess eines Produkts ist aufgrund einer Reihe von Änderungen, die von Kundenspezifikationen bis hin zu Qualitätsmängeln reichen, iterativ. Aus jeder dieser Änderungen resultieren für Designer eine beträchtliche Menge an Designdateien, und wenn Dateien mit anderen Partnern ausgetauscht werden müssen, müssen sie auf die verfügbaren neutralen Dateiformate übersetzt werden. Um bestimmte Elemente zu identifizieren, die in den resultierenden übersetzten Dateien gespeichert sind, muss der Designer ein CAD-System verwenden. Wenn die Menge der abzufragenden Dateien erheblich ist, wird die Aufgabe übermäßig zeitaufwendig. Der hier vorgestellte Ansatz konzentriert sich auf die Erstellung semantischer Modelle, die dem Benutzer Abfragemöglichkeiten über eine Sammlung von CAD-Modellen bieten, um ein bestimmtes Design basierend auf bestimmten Bedingungen zu identifizieren, zusammen mit Explorationsfunktionen, um Schlüsselelemente aus jeder IGES-CAD-Datei zu erkennen. Beide Möglichkeiten sind ohne den Einsatz eines CAD-Systems möglich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45114-0_13 d6144923a707847d34581b19b782974d;de;;;2.1.;;;Eine qualitative Formalisierung gebauter Umgebungen In diesem Beitrag argumentiere ich, dass eine qualitative Formalisierung gebauter Umgebungen Folgendes berücksichtigen muss: (1) die ontologische Unterscheidung zwischen bonafide und fiat-Grenzen und Objekten, (2) den unterschiedlichen Charakter von Beschränkungen für Beziehungen, die diese verschiedenen Arten von Grenzen und Objekten betreffen , (3) die Unterscheidung zwischen partitionsbildenden und nicht-partitionsbildenden Objekten und (4) die grundlegende Organisationsstruktur regionaler Partitionen. Ich diskutiere den Begriff der grenzsensitiven Groblage und zeige, dass eine auf diesem Begriff basierende Formalisierung all diese Punkte berücksichtigt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44469-6_90 582e3dba01dc4e64d4b333cb4a7f758e;de;;;2.1.;;;Erleichterung der Definition n-arer Beziehungen zur Unterstützung von räumlich-zeitlichen Modellen in OWL Bei der Integration verschiedener Datenquellen sind aufgrund der Vielzahl von Variablen, die an der Integrationsphase beteiligt sind, viele Probleme zu lösen. Aufgrund der Natur moderner Informationssysteme sind wir jedoch an der Integration von zeitlichen und räumlichen Informationen interessiert. Wir haben zuvor ein Modell namens STOWL entwickelt, das eine räumlich-zeitliche Erweiterung von OWL ist. Wir verwenden dieses Modell als gemeinsames Modell zur Definition der Schemata der Datenquellen, um deren Integration zu erleichtern. Dieser Beitrag stellt den Teil von STOWL vor, der mit der Definition von n-ären Relationen zu tun hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04772-5_36 4b6c4d5a30b4f4cf46ac672b7059984b;de;;;2.1.;;;Taxonomie der funktionellen Bewertung in Bezug auf Beeinträchtigungen des unteren Rückens Eine Taxonomie funktioneller Bewertungskonstrukte wurde entwickelt, um der Sozialversicherungsverwaltung zu helfen, die Messung der Arbeitsunfähigkeit zu verfeinern. Dieser Bericht befasst sich mit der inhaltlichen Validität der neuen Taxonomie, indem er die Relevanz ihrer Konstrukte für eine bestimmte Behinderung und die Beziehung zwischen diesen Konstrukten und Konstrukten in anderen Taxonomien untersucht. Sieben Experten haben die neue Taxonomie mit den Folgen von Beeinträchtigungen des unteren Rückens in Verbindung gebracht. Die ausgewählten Konstrukte wurden mit denen verglichen, die unabhängig von Patienten berichtet wurden (Harper AC, Harper DA, Lambert L, Andrews HB, Lo SK, Ross FM, Straker LM.;-;-;-;https://link.springer.com/article/10.1023/A%3A1013026611675 8ec79fa456929d8f7cccdefe6bd85488;de;;;2.1.;;;Patentklassifizierung auf Untergruppenebene mit Balanced Winnow In den letzten zehn Jahren hat sich die Forschung zur automatisierten Patentklassifikation hauptsächlich auf die höheren Ebenen der Hierarchie der Internationalen Patentklassifikation (IPC) konzentriert. Die Patentgemeinschaft hat den Bedarf an einer genaueren Klassifizierung geäußert, um die aktuellen Bemühungen zur Vorklassifizierung und zum Abruf besser zu unterstützen (Benzineb und Guyot, Current Challenges in Patent Information Retrieval. Springer, New York, S. 239–261, 2011). In diesem Kapitel untersuchen wir die drei Hauptschwierigkeiten im Zusammenhang mit der automatisierten Klassifikation auf der untersten Ebene der IPC, d. Um die Klassifikationsgenauigkeit auf dieser Ebene zu verbessern, vergleichen wir (1) die flache Klassifikation mit einem zweistufigen hierarchischen System, das die IPC-Hierarchie modelliert, und (2) untersuchen die Auswirkungen der Kombination von Unigrammen mit PoS-gefilterten Skipgrammen auf die Unterklasse und Untergruppenebenen. Wir präsentieren Experimente zu englischen Patentabstracts aus dem bekannten WIPO-alpha-Benchmark-Datensatz sowie aus dem realistischeren CLEF-IP 2010-Datensatz. Wir stellen fest, dass die flachen und hierarchischen Klassifikationsansätze bei einem kleinen Datensatz eine ähnliche Leistung erzielen, dass letztere jedoch unter realen Bedingungen viel praktikabler ist. Darüber hinaus stellen wir fest, dass die Kombination von Unigramm- und Skipgram-Funktionen zu ähnlichen und hochsignifikanten Verbesserungen der Klassifikationsleistung (im Vergleich zu reinen Unigramm-Funktionen) sowohl auf Unterklassen- als auch auf Untergruppenebene führt, jedoch nur, wenn ausreichende Trainingsdaten verfügbar sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-53817-3_11 683d686800411faa45b1486ea6422d48;de;;;2.1.;;;Lexikalische Auswahl für sprachübergreifende Anwendungen: Kombination von LCS mit WordNet Dieser Artikel beschreibt Experimente zum Testen der Leistungsfähigkeit umfangreicher Ressourcen für die lexikalische Auswahl bei der maschinellen Übersetzung (MT) und beim sprachübergreifenden Informationsabruf (CLIR). Wir vertreten die Ansicht, dass Verben mit ähnlicher Argumentstruktur bestimmte Bedeutungskomponenten teilen, dass diese Bedeutungskomponenten jedoch für die Argumentrealisierung relevanter sind als für die idiosynkratische Verbbedeutung. Wir überprüfen dies, indem wir zeigen, dass Verben mit ähnlicher Argumentstruktur wie in Lexical Conceptual Structure (LCS) kodiert, in WordNet selten synonym sind. Anschließend verwenden wir die Ergebnisse dieser Arbeit, um unsere Implementierung eines Algorithmus zur sprachübergreifenden Auswahl lexikalischer Elemente zu leiten, wobei wir die Stärken jeder Ressource nutzen: LCS für die semantische Struktur und WordNet für semantischen Inhalt. Wir verwenden das Parka Knowledge-Based System, um LCS-Repräsentationen und WordNet-Synonymsätze zu kodieren und wir implementieren unseren lexikalischen Auswahlalgorithmus als Parka-basierte Abfragen in eine Wissensdatenbank, die beide Informationstypen enthält.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-49478-2_39 99f5a79b667bdde9927bd185618a48e8;de;;;2.1.;;;Strukturgesteuerte regelbasierte Annotation von Proteinfunktionsstellen in der UniProt-Wissensdatenbank Das schnelle Wachstum von Proteinsequenzdatenbanken hat die Entwicklung von Methoden zur rechnerischen Ableitung von Annotationen für uncharakterisierte Einträge erforderlich gemacht. Die meisten dieser Methoden konzentrieren sich auf „globale“ Annotationen, wie etwa molekulare Funktionen oder biologische Prozesse. Methoden zur Bereitstellung einer hochgenauen „lokalen“ Annotation an funktionellen Stellen basierend auf Strukturinformationen auf der Ebene einzelner Aminosäuren sind relativ selten. In diesem Kapitel beschreiben wir eine von uns entwickelte Methode zur Annotation funktioneller Reste in experimentell nicht charakterisierten Proteinen, die auf positionsspezifischen Ortsannotationsregeln (PIR Site Rules) beruht, die aus strukturellen und experimentellen Informationen abgeleitet werden. Diese PIR-Site-Regeln werden manuell definiert, um eine bedingte Weitergabe von Anmerkungen zu ermöglichen. Jede Regel legt einen dreiteiligen Satz von Bedingungen fest, nach denen Kandidaten für eine Annotation einen Gesamtprotein-Klassifizierungstest bestehen müssen (d. h. eine End-to-End-Übereinstimmung mit einem HMM auf Gesamtproteinbasis aufweisen), einem standortspezifischen Profil-HMM entsprechen und schließlich funktionell und strukturell charakterisierte Reste eines Templats zuordnen. Positive Übereinstimmungen lösen die entsprechende Annotation für Reste des aktiven Zentrums, Reste der Bindungsstelle, modifizierte Reste oder andere funktionell wichtige Aminosäuren aus. Die strengen Kriterien, die in diesem Prozess verwendet werden, haben die Annotation mit hoher Zuverlässigkeit für UniProtKB/Swiss-Prot-Funktionen geeignet gemacht.;-;-;-;https://link.springer.com/protocol/10.1007/978-1-60761-977-2_7 e0f91b871ed4c68de567ab11e402ec7c;de;;;2.1.;;;Unsicherheitsmodellierungs-Framework für die Constraint-basierte Elementar-Szenario-Erkennung in Vision-Systemen Die Ereigniserkennung hat sich in den letzten Jahrzehnten erheblich weiterentwickelt und stützte sich auf die Darstellung von Videoclips auf Pixel- und Funktionsebene. Obwohl diese Darstellungen effektiv sind, haben sie Schwierigkeiten, Szenensemantik zu integrieren. Ontologie- und beschreibungsbasierte Ansätze können Szenensemantik explizit einbetten, aber ihre deterministische Natur ist anfällig für Rauschen von zugrunde liegenden Komponenten von Bildverarbeitungssystemen. Wir schlagen ein probabilistisches Framework vor, um Unsicherheit auf einem Constraint-basierten Ontologie-Framework für die Ereigniserkennung zu behandeln. Diese Arbeit konzentriert sich auf elementare Ereignis(szenario)-Unsicherheit und schlägt probabilistische Beschränkungen vor, um die räumliche Beziehung zwischen Person und kontextuellen Objekten zu quantifizieren. Der Unsicherheitsmodellierungsrahmen wird anhand der Erkennung von Aktivitäten des täglichen Lebens von Teilnehmern einer Alzheimer-Studie demonstriert, die von einem Visionssystem mit einem RGB-D-Sensor (Kinect, Microsoft) als Eingabe überwacht werden. Es wurden zwei Evaluationen durchgeführt: die erste, eine 3-fache Kreuzvalidierung mit Fokus auf elementare Szenarioerkennung (n:10 Teilnehmer) und die zweite, die der komplexen Szenarioerkennung gewidmet war (semi-probabilistischer Ansatz, n:45). Die Ergebnisse zeigten, dass die Unsicherheitsmodellierung die Erkennung elementarer Szenarien im Rückruf verbessert (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16181-5_19 91f46215e9a8e0faf02c5178d65cca77;de;;;2.1.;;;Untersuchung des Zusammenspiels zwischen domänenunabhängigen und domänenspezifischen Konzepten in der computergestützten Zusammenarbeit Communities of Practice benötigen die geeigneten Mittel zur Zusammenarbeit, um Entscheidungen unter Nutzung aller möglichen Wissensressourcen zu treffen. Um dieses Problem anzugehen, haben wir eine webbasierte Plattform entwickelt, die es Mitgliedern solcher Gemeinschaften ermöglicht, durch gut strukturierte argumentative Diskurse zusammenzuarbeiten. Unser Ansatz umfasst eine Vielzahl von Konzepten, Methoden, Modellen und Techniken, die unter anderem aus den Bereichen Entscheidungsfindung, Wissensmanagement und Argumentation stammen, und verwebt diese mit Hilfe eines Ontologiemodells sachgerecht. Dieses Papier untersucht das Zusammenspiel der domänenunabhängigen und domänenspezifischen Konzepte aus den oben genannten Bereichen und kommentiert ihre Verkörperung in der oben genannten Plattform. Unser multidisziplinärer Ansatz bietet die Grundlage für die Entwicklung einer Plattform für das Brainstorming und die Erfassung des Organisationswissens, um die Teamarbeit in Bezug auf Wissenserhebung, -austausch und -konstruktion zu verbessern und so die Entscheidungsqualität zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/11552413_134 61e39ded1863768cf76904c2adb85464;de;;;2.1.;;;Relationale Datenbanken als semantische Web-Endpunkte Dieser Vorschlag untersucht die Förderung bestehender relationaler Datenbanken zu Semantic Web Endpoints. Es präsentiert die Vorteile des ontologiebasierten Lese- und Schreibzugriffs auf vorhandene relationale Daten sowie die Notwendigkeit einer spezialisierten, skalierbaren Argumentation für diese Daten. Wir stellen unseren Ansatz für die Übersetzung von SPARQL/Update-Operationen in SQL vor, beschreiben, wie skalierbares Denken mit der Leistungsfähigkeit des Datenbanksystems realisiert werden kann, und skizzieren zwei Fallstudien zur Evaluierung unseres Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02121-3_84 88add21f75edfa9be0b154d137c6a65b;de;;;2.1.;;;Wissen und Schlussfolgerungen Ontology Based Radio (OBR) verwendet Ontologien, um sein Wissen über sich selbst und die Kommunikationsumgebung darzustellen. Dieses Wissen wird durch generische Komponenten namens . manipuliert;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-0968-7_7 d7fe2013467c97ed1bbfc9edd67b8e3d;de;;;2.1.;;;Beschreibung eines neuen Feature-Meta-Modells Gegenwärtig wurden mehrere Feature-Meta-Modelle entwickelt. Sie können jedoch die Anforderungen einer dynamischen Internetumgebung oder der Wiederverwendung von Software nicht erfüllen. Dieser Beitrag schlägt ein auf Ontologie basierendes Feature-Metamodell sowie dessen formale Beschreibung vor. In der Zwischenzeit wird der FTM-Mechanismus (Flexible Transaction Model) in Betracht gezogen. Insbesondere ist es an die Veränderungen in der dynamischen Umgebung anpassbar und kann die Anforderung der Wiederverwendung von Software erfüllen. Abschließend wird ein Beispiel gegeben, um dieses Modell zu verifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77090-9_30 18e050eccb162591812727dd9d3adbfd;de;;;2.1.;;;Auf dem Weg zu kognitiven Pipelines medizinischer Assistenzalgorithmen Assistenzalgorithmen für medizinische Aufgaben haben großes Potenzial, Ärzte bei ihrer täglichen Arbeit zu unterstützen. Die Medizin ist aber auch eine der anspruchsvollsten Domänen für computerbasierte Unterstützungssysteme, da medizinische Assistenzaufgaben komplex sind und die praktische Erfahrung des Arztes entscheidend ist. Die jüngsten Entwicklungen im Bereich Cognitive Computing scheinen gut geeignet zu sein, um die Medizin als Anwendungsdomäne anzugehen.;-;-;-;https://link.springer.com/article/10.1007/s11548-015-1322-y e9a9ad3087daeffeb5d36846cfdd9af9;de;;;2.1.;;;Signifikante Satzextraktion durch euklidische Distanz basierend auf Singulärwertzerlegung Dieses Papier beschreibt einen automatischen Zusammenfassungsansatz, der eine Zusammenfassung erstellt, indem die signifikanten Sätze extrahiert werden. Der Ansatz nutzt die Koauftretensbeziehungen zwischen Begriffen nur im Dokument. Die verwendeten Techniken sind die Hauptkomponentenanalyse (PCA), um die signifikanten Terme zu extrahieren, und die Singulärwertzerlegung (SVD), um die signifikanten Sätze herauszufinden. Die PCA kann sowohl die Termhäufigkeit als auch die Term-Term-Beziehung im Dokument durch die Eigenwert-Eigenvektor-Paare quantifizieren. Und die Satz-Term-Matrix kann in die richtigen dimensionalen satz- und begriffskonzentrierten Marices zerlegt werden, die für die euklidischen Distanzen zwischen den Satz- und Term-Vektoren verwendet werden und auch das Rauschen der Variabilität in der Begriffsverwendung durch die SVD entfernt. Experimentelle Ergebnisse zu koreanischen Zeitungsartikeln zeigen, dass die vorgeschlagene Methode der zufälligen Auswahl von Sätzen oder nur PCA vorzuziehen ist, wenn Zusammenfassung das Ziel ist.;-;-;-;https://link.springer.com/chapter/10.1007/11562214_56 29c7da1760faa631fbc24612b7727be0;de;;;2.1.;;;Eidetik, Existenz und Erfahrung Dieses Kapitel soll den Übergang von einem Schwerpunkt zu einem anderen etwas anderen ermöglichen. Bisher haben wir nach dem ersten Kapitel, das lediglich die grundlegende Untersuchungsebene und die in dieser Arbeit angestrebten Probleme angibt, versucht, größtenteils bei den verschiedenen Modi der reinen Reflexion zu verweilen, die Ricœur in den ersten Ebenen seiner Philosophie verwendet des Willens. Dieses Kapitel wird diese Ebene abschließen und versuchen, die Grundlage für die verschiedenen Probleme zu legen und den Übergang zu schaffen, mit denen er sich an einer anderen Front auseinandersetzen muss, um seine Hermeneutik der Symbole durchzuarbeiten. Wir werden versuchen, seine unterschiedlichen Behandlungsmethoden so zu behandeln, wie er sie konfrontierte, und die verschiedenen Umwege, die ihn von der Vollendung des ursprünglichen Projekts ablenkten. Dies ist jedoch kein Versuch, eine strenge Entwicklungsgeschichte seines Denkens zu erstellen, da dies uns nicht erlauben würde, uns auf unser Projekt zu konzentrieren, seine Entwicklungen und Erweiterungen zu explizieren und dann zum ursprünglichen Projekt zurückzukehren.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-1661-2_4 89ea58b5b63029d322d1e6e3d3d03178;de;;;2.1.;;;Zeitliches Denken mit nicht-konvexen Intervallen Die Zeitdimension ist für Semantic Web-Anwendungen von grundlegender Bedeutung, um kommerzielle Transaktionen zu unterstützen oder den Abruf von Ressourcen zeitlich kontextualisiert zu ermöglichen. In dieser Arbeit schlagen wir eine Ontologie vor, die eine Erweiterung der OWL-Zeit-Ontologie ist, die nichtkonvexe Intervalle definiert. Wir präsentieren auch temporale Operatoren für nicht-konvexe Intervalle und wie man mit ihnen in unserem Ansatz argumentiert. Wir präsentieren einen temporalen Reasoner, der sowohl mit temporalen Entitäten kodiert mit OWL-Time-Ontologie als auch mit nicht-konvexen temporalen Entitäten argumentieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-69548-8_10 896142b6662aa39803f559ce0cda4544;de;;;2.1.;;;Antworten an meine Kollegen Reihe von Aufsätzen. Sie sind akut, durchdringend und herausfordernd, und in einigen Fällen nehmen sie das Thema weit über den Punkt hinaus, an dem ich es verlassen habe. Ich bin sowohl geschmeichelt als auch erfreut, dass meine Arbeit Gegenstand einer so eindringlichen und gründlichen Prüfung ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-5223-2_11 11d9c707e5a62c471656244d3ac051bb;de;;;2.1.;;;Mobile Agenten für die Zusammensetzung von Webdiensten Webservices sollen als Softwarekomponenten für eine vernetzte Geschäftswelt konzipiert sein. Auf diese Weise werden sie veröffentlicht, um von anderen Softwareprozessen oder Personen verwendet zu werden, die sie benötigen. Das Format der Austauschinformationen ist ebenfalls definiert. Darüber hinaus ist eine der Mehrwertfunktionen die Möglichkeit der Webservice-Integration, -Federation oder -Komposition. Die Idee der Dienstzusammensetzung ist nicht neu, da sie in der Telekommunikationswelt untersucht wurde. In diesem Bereich müssen Technologien möglichst unabhängig sein. Mobile Agenten, wie in diesem Papier vorgeschlagen, können eine dieser Technologien sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45229-4_14 82230f1b6fd805637c815987b3c500cd;de;;;2.1.;;;Konzeptioneller Rahmen zum Verständnis von Sicherheitsanforderungen: Eine Vorstudie zu Stuxnet Bei der Analyse der neusten auftretenden Advanced Persistent Threats (APT) wissen wir, dass Angreifer dazu neigen, ihre Methoden auf verschiedene Weise und auf verschiedene Weise auszuführen und nicht auf ein einziges Muster beschränkt sind. Obwohl Bedrohungen durch die Verwendung einer Vielzahl von Modellierungstechniken dargestellt werden, wurden nur sehr wenige Untersuchungen durchgeführt, um die erforderlichen Sicherheitsanforderungen aus dem Verständnis der häufig verwurzelten Ursachen dieser Bedrohungen zu ermitteln. Wir schlagen einen mehrschichtigen konzeptionellen Rahmen vor, um das Problem von spezifischen Instanzen bis hin zu verallgemeinerten Abstraktionen besser zu verstehen, damit es schließlich eine gute Reihe von Sicherheitsanforderungen bereitstellen kann. In diesem Rahmen schlagen wir vor, die Ontologie basierend auf dem zielbasierten Modell und dem Aktivitätsdiagramm aufzubauen und zu zeigen, wie der Kontext der Problemdomäne mit erweiterten Beziehungen zwischen Konzepten zu verstehen ist. Wir erwarten, dass unsere Arbeit eine Grundlage für einen guten Einblick in die Problemdomäne der Sicherheitsanforderungen liefern kann und dass wir durch diese Arbeit Sicherheitsanforderungen anhand einer vorläufigen Fallstudie zu Stuxnet eruieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-48634-4_10 9f45d98f9075bff81ddb2e1a3753ba11;de;;;2.1.;;;Stratifizierte grobe Sets und Vagheit Die Beziehung zwischen weniger detaillierten und detaillierteren Versionen von Daten ist eines der Hauptprobleme bei der Verarbeitung geografischer Informationen. Grundlegend für viele Arbeiten in der modellorientierten Generalisierung, auch semantische Generalisierung genannt, ist die Vorstellung einer Äquivalenzrelation. Bei einer gegebenen Äquivalenzrelation auf einer Menge können die Techniken der Grobmengentheorie angewendet werden, um verallgemeinerte Beschreibungen von Teilmengen der ursprünglichen Menge zu geben. Der Begriff der Äquivalenzrelation oder Partition wurde kürzlich durch die Einführung des Begriffs einer granularen Partition erheblich erweitert. Eine granulare Partition stellt eine hierarchische Familie von partiellen Äquivalenzbeziehungen bereit. In diesem Beitrag zeigen wir, wie die Mechanismen zur groben Beschreibung bezüglich einer Äquivalenzrelation erweitert werden können, um grobe Beschreibungen bezüglich einer granularen Partition zu geben. Dazu zeigen wir auch, wie ein Teil der Theorie der granularen Partitionen umformuliert werden kann, dies verdeutlicht die Zusammenhänge zwischen Äquivalenzrelationen und granularen Partitionen. Mit Hilfe dieser Korrespondenz können wir dann zeigen, wie sich der Begriff hierarchischer Systeme partieller Äquivalenzklassen auf Partitionen von partiellen Mengen bezieht, d. h. Partitionen von Mengen, in denen nicht alle Mitglieder bekannt sind. Dies gibt uns neue Einblicke in die Zusammenhänge zwischen Rauheit und Unschärfe.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39923-0_18 0012bd1ebb88f2a86a03d7017534e10d;de;;;2.1.;;;Eine probabilistische Vektordarstellung und ein neuronales Netz zur Textklassifikation Die Zunahme der Textdatenbanken und ihre Darstellung in großen Räumen verhindert die Automatisierung der Behandlung dieser großen Massen und die Extraktion von Wissen. Um den Herausforderungen der hohen Dimensionalität zu begegnen, die mit den Methoden und Techniken des Text Mining. Wobei der Begriff Frequency-Inverse Document Frequency (TF-IDF), Gewichtungsmethode, der am meisten benötigte Ansatz zur Darstellung des Dokuments ist. Leider erzeugt TF-IDF große Deskriptoren (im Allgemeinen größer als 1000), was Modelle mit großer Komplexität erfordert. Die auf diesen Modellen basierenden Textklassifikationssysteme leiden jedoch unter dem Phänomen der Überanpassung und sind sehr langsam. Um diese Probleme zu überwinden, verwenden wir daher die Select-Attribute-Methoden, da wir durch den deterministischen Aspekt dieser letzteren riskieren, große Informationen zu verlieren. Um sich von diesem Verlust zu erholen, schlagen wir daher eine probabilistische Vektordarstellung jedes Dokuments basierend auf den zuvor ausgewählten relevanten Begriffen vor. Dann ordnen wir jedem Dokument einen Satz von Merkmalen zu, der aus lokalen und globalen Wahrscheinlichkeitskoeffizienten basierend auf den ausgewählten Begriffen besteht. Genauer und genauer werden die Komponentenformeln aus der Häufigkeit jedes Deskriptors, der Länge jedes Dokuments und der Größe des Korpus zusammengesetzt. Um die Leistungsfähigkeit dieser Behandlung zu zeigen, schlagen wir vergleichende Studien zwischen der TF-IDF-Darstellung und der neuen probabilistischen Darstellung vor, um das BBCSPORT-Korpus zu klassifizieren. Darüber hinaus verwenden wir in der Klassifizierungsphase mehrere Versionen von Bayesian Network und Multilayer Perceptron. Die erhaltenen Ergebnisse sind erfüllt, wobei der Klassifikator des neuronalen Netzes, Multilayer Perceptron, 100 % als Erkennungsrate unter Verwendung der neuen Darstellung und 94,69 % unter Verwendung der einfachen TF-IDF-Gewichtung angibt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-96292-4_27 a98274f0d612da4ef2e46d52f062e3ec;de;;;2.1.;;;Verbesserte Klassifizierung und Rahmenassoziation von Sicherheitslücken, Bedrohungen und Angriffen in drahtlosen Sensornetzwerken Die Sicherheit drahtloser Sensornetzwerke (WSN) blieb während des laufenden Jahrzehnts ein offenes Forschungsgebiet. Neue Forschungen und Entwicklungen scheinen Sensornetzwerke vor verschiedenen Sicherheitsbedrohungen zu schützen, werfen aber gleichzeitig viele Fragen, Verwirrungen und Konflikte hinsichtlich ihrer eigenen Lebensfähigkeit auf. Solche Durchführbarkeitsprobleme werden zu Haupthindernissen bei der Sicherheitsbewertung von WSNs gegenüber gestellten Sicherheitsbedrohungen. Dies führt zu weniger zuverlässigen Sensornetzwerken und Anwendungen. Unserer festen Meinung nach gibt es zwei Hauptursachen für dieses Problem: 1) eine umfassende Liste von Sicherheitsbedrohungen wird übersehen, da die Arbeit der Forscher bei der Klassifizierung von Sicherheitsbedrohungen begrenzt erscheint und 2) Sicherheitsbedrohungen nicht mit Sicherheitsrahmenwerken verbunden sind. In diesem Papier führen wir eine umfassende Klassifizierung von Sicherheitsbedrohungen durch, wobei wir diese Bedrohungen einem Sicherheitsrahmen zuordnen, wobei wir in diese Richtung gehen. Wir finden das speziell, um die Auswirkungen dieser Bedrohungen zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11284-3_27 3fab1b263ead3ab4344e3a3a673d12ce;de;;;2.1.;;;Simultane & topologisch sichere Linienvereinfachung für eine maßstabsvariable ebene Trennwand Wir verwenden einen Batch-Generalisierungsprozess, um eine planare Partition mit variablem Maßstab zu erhalten. Wir beschreiben einen Algorithmus, um die Grenzlinien zu vereinfachen, nachdem eine Kartengeneralisierungsoperation (entweder eine Zusammenführungs- oder eine Teilungsoperation) auf ein polygonales Gebiet und seine Nachbarn angewendet wurde. Die Vereinfachung wird gleichzeitig an den resultierenden Grenzen der neuen polygonalen Bereiche durchgeführt, die die bearbeiteten Bereiche ersetzen. Da die Vereinfachungsstrategie darauf achten muss, dass die planare Partition gültig bleibt, definieren wir eine unserer Meinung nach gültige planare Partition (unter anderem keine Nullflächen und keine unerwünschten Schnittpunkte in den Grenzpolylinien). Darüber hinaus analysieren wir die Auswirkungen der Zeilenvereinfachung auf den Inhalt der Datenstrukturen, in denen die planare Partition gespeichert ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19789-5_17 02750f15b189d7119fb63d37b86cad28;de;;;2.1.;;;Überblick über die Methoden zur Extraktion von Entitätsbeziehungen Die Informationsextraktion kann als die Aufgabe definiert werden, Informationen zu bestimmten Ereignissen oder Fakten zu extrahieren und dann in einer Datenbank zur Abfrage durch die Benutzer zu speichern. Nur mit der richtigen Beziehung zwischen den verschiedenen Entitäten kann die Datenbank korrekt gespeichert werden. Die Extraktion von Entitätenbeziehungen wird zu einer Schlüsseltechnologie des Informationsextraktionssystems. In diesem Papier analysieren wir den Status der Entity-Relation-Extraktionsmethode und schlagen mehrere Probleme für dieses Gebiet vor, die gelöst werden sollen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18129-0_113 5b9d8a4386476ed14504258394057d67;de;;;2.1.;;;Einsparungen und andere Vorteile durch die Verwendung eines computergestützten Dokumentationssystems am Krankenbett Wirtschaftliche Zwänge und der Pflegemangel zwingen die Pflegedienste dazu, viele aktuelle Praktiken neu zu bewerten. Eine solche Praxis, die Pflegedokumentation, erfordert täglich viel Pflegezeit und ist nicht die Lieblingsaufgabe von Pflegekräften. Dieses Papier beschreibt die Einsparungen und anderen Vorteile, die die Abteilung für Pflegedienste des Universitätsklinikums und der Universitätskliniken (UHC) nach der Installation und Implementierung eines computergestützten Dokumentationssystems am Krankenbett in allen Abteilungen der allgemeinen Pflege erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-2182-1_48 714e11e8ed46e5b9bc4e14bb8f937419;de;;;2.1.;;;SMARViz: Visualisierung von Soft-Maximal-Assoziationsregeln Die maximale Assoziationsregel ist eine der beliebtesten Data-Mining-Techniken. Es gibt jedoch keine aktuelle Forschung, die eine Visualisierung der erfassten maximalen Regeln ermöglicht. In diesem Papier,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05036-7_63 807196599fe67bca072063f16ac514de;de;;;2.1.;;;System zum automatischen Ableiten eines genetischen Netzwerks aus Expressionsprofilen Ein System wird konstruiert, um automatisch ein genetisches Netzwerk durch Anwendung einer grafischen Gaußschen Modellierung auf die Expressionsprofildaten abzuleiten. Unser System besteht aus zwei Teilen: Ein Teil ist die automatische Bestimmung der Clustergrenzen von Profilen beim Hierarchischen Calclustering, und ein anderer Teil ist die Inferenz eines genetischen Netzwerks durch Anwendung der grafischen Gaußschen Modellierung auf die Clusterprofile unter nur hundert Bedingungen gemessen werden, zeigen die Profile naturgemäß ähnliche Muster. Daher ist eine Vorverarbeitung zum systematischen Clustern der Profile Voraussetzung, um auf die Verwandtschaft zwischen den Genen schließen zu können. Dazu wird ein Verfahren zur automatischen Bestimmung von Clustergrenzen ohne biologische Kenntnisse und zusätzliche Analysen neu entwickelt. Dann werden die Profile für jeden Cluster durch eine grafische Gaußsche Modellierung analysiert, um die Beziehung zwischen den Clustern abzuleiten. Somit stellt unser System automatisch nur durch Eingabe der Profildaten einen Graphen zwischen den Clustern bereit. Die Leistung des vorliegenden Systems wird durch 2467 Profile von Hefegenen validiert. Die von unserem System erhaltenen Cluster und das genetische Netzwerk werden im Hinblick auf die Genfunktion und die bekannte regulatorische Beziehung zwischen den Genen diskutiert.;-;-;-;https://link.springer.com/article/10.1023/A%3A1020337311471 c744d16c6a562bbf6ad13c54b6b25123;de;;;2.1.;;;Einlochregionen: ihre Beziehungen und Schlussfolgerungen Die Diskontinuitäten in Grenzen und Äußerlichkeiten, die Regionen mit Löchern freilegen, bieten Möglichkeiten für Schlussfolgerungen, die für Regionen ohne Löcher unmöglich sind. Eine systematische Untersuchung der binären Beziehungen zwischen Regionen mit einem einzigen Loch zeigt nicht nur eine Zunahme der Anzahl möglicher Beziehungen (von acht zwischen zwei Regionen ohne Löcher auf 152 für zwei Regionen mit einem einzigen Loch), sondern identifiziert auch die erhöhte Argumentationskraft, die durch die Löcher. Eine Reihe von quantitativen Maßen wird eingeführt, um verschiedene Zusammensetzungstabellen über Regionen mit und ohne Löcher zu vergleichen. Diese Messungen zeigen, dass Schlussfolgerungen über Beziehungen für Regionen mit Löchern insgesamt klarer sind und eindeutigere Ergebnisse liefern als Beziehungen über Regionen ohne Löcher. Ebenso liefern Kompositionen, die mehr gelochte Bereiche als Bereiche ohne Löcher beinhalten, klarere Schlussfolgerungen, was die Notwendigkeit von Beziehungsmodellen unterstützt, die Löcher explizit erfassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87473-7_22 44825f475bf844a92452f4d8182a1e75;de;;;2.1.;;;Nutzung von Kontextinformationen aus Ereignisprotokollen für personalisierte Empfehlungen Heutzutage werden Empfehlungssysteme in verschiedenen Bereichen häufig verwendet, um Kunden den Zugang zu zufriedenstellenderen Produkten oder Dienstleistungen zu erleichtern. Es wird erwartet, dass die Nutzung kontextbezogener Informationen der Kunden die Qualität der Empfehlungsergebnisse verbessern kann. Die meisten früheren Forscher gehen davon aus, dass sie bereits explizite Bewertungen von Kunden zu Artikeln haben und jede Bewertung den abstrahierten Kontext des Kunden hat (z. In praktischen Anwendungen ist es jedoch nicht einfach, explizite Bewertungen der Kunden und deren abstrakte Kontexte zu erhalten. Unser Ziel ist es, Kundenpräferenzen und ihren Kontext zu erfassen, indem wir die Informationen aus den vorherigen Ereignisprotokollen der Kunden nutzen und sie in eine bekannte Empfehlungstechnik, Collaborative Filtering (CF), übernehmen. In diesem Papier zeigen wir, wie man implizite Präferenzen von Kunden aus Ereignisprotokollen erhält und stellen eine Strategie vor, um Kontextinformationen aus Ereignisprotokollen unter Berücksichtigung von Unschärfe im Kontext zu abstrahieren. Darüber hinaus stellen wir verschiedene Methoden vor, um gewonnene Kontextinformationen und Präferenzen in CF zu kooperieren. Um unsere Methoden zu evaluieren und zu vergleichen, haben wir mehrere empirische Experimente mit einer Reihe von Musikhörprotokollen von last.fm durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15405-8_11 a76a1be4f6919c6e68208fd7a4020400;de;;;2.1.;;;Analyse des sozialen Einflusses und der Einflussnahme: Eine visuelle Perspektive Die Identifizierung von Influencern ist ein wichtiger Schritt, um zu verstehen, wie sich Informationen in einem Netzwerk verbreiten. Soziale Netzwerke folgen einer Potenzgesetz-Gradverteilung von Knoten mit wenigen Hub-Knoten und einem langen Schwanz von peripheren Knoten. Während es konsolidierte Ansätze zur Identifizierung und Charakterisierung von Hub-Knoten gibt, ist die Forschung zur Analyse der vielschichtigen Verteilung peripherer Knoten begrenzt. In sozialen Medien repräsentieren Hub-Knoten soziale Influencer. Die Literatur belegt jedoch die vielschichtige Struktur von Einflussnetzwerken und betont die Unterscheidung zwischen Influencer und Influencer. Informationen scheinen sich über Multi-Hop-Pfade über Knoten in peripheren Netzwerkschichten zu verbreiten. Dieses Papier schlägt einen visuellen Ansatz zur grafischen Darstellung und Erforschung peripherer Schichten und Cluster vor, indem die Theorie der K-Schalen-Zerlegungsanalyse genutzt wird. Das Kernkonzept des vorgeschlagenen Ansatzes besteht darin, den Knotensatz eines Graphen in vordefinierte Hub- und Peripherieknoten zu unterteilen. Dann wird eine auf Potenzgesetzen basierende modifizierte kraftgerichtete Methode angewendet, um lokale mehrschichtige Nachbarschaftscluster um Hub-Knoten basierend auf einer Charakterisierung des Nachrichteninhalts, die wir als;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25936-9_6 eac865d33169e53fb65d3f6cf8966e65;de;;;2.1.;;;Erforschung der Textkategorisierung basierend auf SVM Mit dem schnellen Wachstum von Online-Informationen hat sich die Textkategorisierung zu einer der Schlüsseltechniken für den Umgang und die Organisation von Textdaten entwickelt. Support Vector Machine ist eine vielversprechende Klassifizierungsmethode, die auf dem Prinzip der strukturellen Risikominimierung und der Kernelfunktionsmethode basiert und nachweislich eine gute Generalisierungsleistung bei einer Vielzahl von Klassifizierungsproblemen liefert. Dieses Papier versucht, SVM zu übernehmen, um ein Textkategorisierungssystem zu etablieren. Das experimentelle Ergebnis zeigt, dass SVM bei Textkategorisierungsaufgaben durchweg eine gute Leistung erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25188-7_9 9c472fe248de5763c4085a619c6ec896;de;;;2.1.;;;Diskriminierung von Musikinstrumenten mit Wavelet-basierter Quellentrennung In diesem Beitrag präsentieren und evaluieren wir eine neue innovative Methode zur quantitativen Schätzung der Musikinstrumentenkategorien, aus denen ein Musikstück besteht. Das Verfahren verwendet einen Wavelet-basierten Trennungsalgorithmus für Musikquellen (d. h. Musikinstrumente) und besteht aus zwei Schritten. Im ersten Schritt wird eine auf Wavelet-Paketen basierende Quellentrennungstechnik angewendet, um die Musikinstrumente zu trennen, aus denen ein Musikstück besteht. Im zweiten Schritt wird ein Klassifikationsalgorithmus basierend auf Support-Vektor-Maschinen angewendet, um die Musikkategorie jedes der im ersten Schritt identifizierten Musikinstrumente zu schätzen. Die Methode wird in der öffentlich zugänglichen Iowa-Datenbank für Musikinstrumente bewertet und für recht erfolgreich befunden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68127-4_13 6201c18d5b8f4668a538e508cb809569;de;;;2.1.;;;RR — Ein intelligenter ressourcengebundener Denker Die meisten von KI-Forschern entwickelten Programme leiden unter zwei Problemen: (1) Sie berücksichtigen nicht die Tatsache, dass die Ressourcen begrenzt sind, (2) und sie schweigen (es wird keine Antwort produziert), wenn eine definitive Antwort nicht möglich ist produziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-1852-7_4 f3ca85159b743481d84540d1d326ac2f;de;;;2.1.;;;Die Modellierung und Simulation eines invertierten Pendelsteuerungssystems erster Ordnung In dieser Arbeit wird das Kontrollproblem des Gleichgewichts des invertierten Pendels erster Ordnung untersucht. Und dieses Papier präsentiert zwei Methoden des invertierten Pendels erster Ordnung unter Verwendung von PID, Fuzzy-Regler und konstruiert das mathematische Modell des Pendels. Die zufriedenen Ergebnisse werden mit zwei Schemata erreicht. Die Simulationsergebnisse zeigen, dass die beiden Schemata zufriedenstellend sind. Und die beiden Schemata haben ihre eigenen Eigenschaften.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28658-2_34 db8bc668051b419acb0f0364f864ce31;de;;;2.1.;;;Wirbelsäulenmetastasen bei älteren Menschen Knochenmetastasen sind ein häufiges Problem bei älteren Krebspatienten, bei denen mit Knochenmetastasen die Wirbelsäule in ca. 50%. Die häufigsten Wirbelsäulenmetastasen (60%) stammen von Brust-, Lungen- oder Prostatakrebs. Die Wahrscheinlichkeit, dass ein älterer Patient (60–79 Jahre) von Knochenmetastasen betroffen ist, ist bei Männern viermal höher und bei Frauen dreimal höher als bei einem Patienten mittleren Alters (40–59 Jahre). Da die medikamentöse Behandlung mit allen adjuvanten Therapieoptionen das Überleben dieser speziellen Patientengruppe verlängert, können die Wirbelsäulenmetastasen zu einem mechanischen Problem werden und erfordern eine chirurgische Behandlung. Um chirurgische Indikationen zu rationalisieren, wurden verschiedene Klassifikationssysteme vorgeschlagen, von denen sich einige ausschließlich auf die lokale Beteiligung des spinalen Tumors konzentrieren und andere die gesamte klinische Situation berücksichtigen. Da die meisten chirurgischen Optionen palliativen Charakter haben, ist es wichtiger, die Entscheidung auf einer klinischen Gesamtklassifikation einschließlich der verschiedenen Behandlungsmodalitäten – Bestrahlung, Chemotherapie, Steroide, Bisphosphonate und Operation – zu stützen, um eine gemeinsame Entscheidung zu treffen. Falls eine Operation indiziert ist – neurale Kompression, pathologische Fraktur, Instabilität und fortschreitende Deformität aus pflegerischen Gründen – sollten die einfachsten Verfahren gewählt werden, die möglicherweise keinen Aufenthalt auf der Intensivstation erfordern. An der thorakolumbalen Wirbelsäule hat sich eine posteriore Dekompression und posterolaterale Wirbelkörperresektion nur über einen posterioren Zugang bei gleichzeitiger Rekonstruktion und Stabilisierung bewährt. In der mittleren und unteren Halswirbelsäule ist der anteriore Zugang mit anteriorer Dekompression und vorderer Säulenrekonstruktion am effektivsten und hat eine geringe Morbidität, während der okzipitozervikale Übergang im Allgemeinen durch posteriore Resektion und Stabilisierung behandelt werden kann. Das Ergebnis sollte durch die Überlebenszeit in einem ambulanten, unabhängigen Zustand bestimmt werden, in dem die Schmerzen unter Kontrolle sind und der Patient nicht ins Krankenhaus eingeliefert wird. Die chirurgische Behandlung zeigt die größte Verbesserung in der Schmerzreduktion, aber auch in anderen Bereichen der Lebensqualität. Da prospektive randomisierte Studien zum Vergleich verschiedener Behandlungsmodalitäten für Wirbelsäulenmetastasen einschließlich der Operation nicht verfügbar und ethisch schwer zu erreichen sind, bleibt jeder Fall ein interdisziplinärer, gemeinsamer Entscheidungsprozess, was für einen Patienten oder älteren Patienten als am besten angesehen wird. Wann immer eine Operation in Frage kommt, sollte sie jedoch vor der Bestrahlung geplant werden, da eine Operation nach der Bestrahlung eine deutlich höhere Komplikationsrate hat.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-27376-X_18 d4080368b10801b3fa6ac29c434977d4;de;;;2.1.;;;Neue Radiolarien aus dem Devon des südlichen Urals: 2. Mittel- und Spätdevon Mittel- bis spätdevonische Radiolarien wurden zum ersten Mal im südlichen Ural in Baschkortostan, in einem Abschnitt des Kariukmas-Gebirges (Obereifel) und am Südhang des Argagan-Gebirges (Mittelfrasnium) aufgezeichnet. Die neue späteifelische Ansammlung besteht aus 17 Arten von 11 Gattungen, und Mittelfrasnian-Radiolarien umfassen 13 Arten von 7 Gattungen von kugelförmigen, scheibenförmigen, pylomaten und stacheligen Radiolarien. Eine neue Art,;-;-;-;https://link.springer.com/article/10.1134/S0031030109010043 aeedec70e482899c7d5b29057c2c6f72;de;;;2.1.;;;Skoliose bei Erwachsenen Die Skoliose bei Erwachsenen stellt eine komplexe dreidimensionale Deformität dar, die die Wirbelsäule in der koronalen, sagittalen und axialen Ebene betreffen kann. Anders als bei der jugendlichen idiopathischen Skoliose präsentieren sich erwachsene Patienten typischerweise mit Wirbelsäulendeformitäten, Stenosen, neurogenen Symptomen und signifikanten medizinischen Begleiterkrankungen. Herkömmliche chirurgische Ansätze für den erwachsenen Patienten mit Wirbelsäulendeformität umfassten eine offene nur posterior und eine offene anterior/posteriore chirurgische Korrektur. Diese Techniken haben zuverlässige Ergebnisse geliefert, jedoch bergen die traditionellen offenen Verfahren ein sehr signifikantes perioperatives Risikoprofil. Die minimal-invasive Chirurgie bei der Behandlung der Erwachsenenskoliose wurde eingeführt, um die postoperative Morbidität zu minimieren und eine frühere Genesung bei dieser Gruppe medizinisch komplizierter Patienten zu erleichtern. Die aktuellen Erfahrungen mit minimal-invasiven Techniken der Erwachsenenskoliose haben sich seit ihrer Einführung schnell weiterentwickelt und die vorläufigen Ergebnisdaten sind vielversprechend.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-5674-2_29 0efc621c47b81b17b6afcc5288b1a4e5;de;;;2.1.;;;Verringerung der Verschlechterung der Stimmungsanalyse für Textsammlungen, die über einen Zeitraum verteilt sind Dieses Papier stellt Ansätze zur Verbesserung der Sentimentklassifizierung in dynamisch aktualisierten Textsammlungen in natürlicher Sprache vor. Da soziale Netzwerke von den Benutzern ständig aktualisiert werden, ist es wichtig, neue Jargons und wichtige diskutierte Themen bei der Lösung der Klassifizierungsaufgabe zu berücksichtigen. Daher werden zwei grundsätzlich unterschiedliche Methoden zur Lösung dieses Problems vorgeschlagen. Für die Sentimentanalyse werden überwachte maschinelle Lernmethoden und unüberwachte maschinelle Lernmethoden verwendet. Die Methoden werden verglichen und gezeigt, welche Methode in bestimmten Fällen am besten geeignet ist. Es werden Experimente zum Vergleich der Methoden an ausreichend repräsentativen Textsammlungen beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-69548-8_1 0d4eaf34a51b81c5e03001ca2022724b;de;;;2.1.;;;GroupMe! - Wo Semantic Web auf Web 2.0 trifft Gruppieren ist eine attraktive Interaktionsmetapher für Benutzer, um Referenzsammlungen von Webressourcen zu erstellen, an denen sie interessiert sind. Jede Gruppierungsaktivität hat eine bestimmte Semantik: Dinge, die zuvor nicht miteinander verbunden waren, werden jetzt über die Gruppe mit anderen verbunden. Wir präsentieren das GroupMe! Anwendung, mit der Benutzer Multimedia-Webressourcen, die sie interessieren, gruppieren und anordnen können. verfügt über eine benutzerfreundliche Oberfläche zum Sammeln und Gruppieren von Ressourcen und ermöglicht es Benutzern, alles zu markieren, was sie möchten. Die Semantik jeder Benutzerinteraktion wird erfasst, transformiert und als angemessene RDF-Beschreibungen gespeichert. Als Beispielanwendung dieses automatisch abgeleiteten RDF-Inhalts zeigen wir die Verbesserung der Suche nach markierten Webressourcen, die die Gruppierungsinformationen auswertet, um zusätzliche Kontextinformationen über die Ressourcen abzuleiten. GroupMe! ist erhältlich über;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76298-0_63 02d50f5d7c3ea7bfc8a0006f80b31ce5;de;;;2.1.;;;Wirkung von Stimmungsstabilisatoren auf die Genexpression in lymphoblastoiden Zellen Lithium und Valproat werden häufig als wirksame Stimmungsstabilisatoren zur Behandlung von bipolaren Störungen eingesetzt. Um die gemeinsame molekulare Wirkung dieser Medikamente auf nicht-neuronale Zellen aufzuklären, untersuchten wir die durch diese Medikamente induzierten Veränderungen der Genexpression. Lymphoblastoide Zellkulturen aus Lymphozyten von drei gesunden Probanden wurden in Medium inkubiert, das therapeutische Konzentrationen von Lithium (0,75 mM) oder Valproat (100 µg ml .) enthielt;-;-;-;https://link.springer.com/article/10.1007/s00702-009-0340-8 6912c378924b93ac1a7b17bb983643ac;de;;;2.1.;;;Ein modifizierter Ansatz für heiße Themen, die auf Micro-Blog gefunden wurden Aufgrund der Einfachheit, Unmittelbarkeit und Bequemlichkeit gewinnt Micro-Blog immer mehr Aufmerksamkeit bei allen Arten von Menschen, insbesondere bei den Forschern. In letzter Zeit hat die Themenerkennung in Mikroblogs mehr Interesse geweckt, hauptsächlich aufgrund der schnellen Entwicklung von Mikroblogs. Das Abrufen von Informationen aus Mikroblogs ist jedoch eine Herausforderung, da die Texte des Mikroblogs kurz, ungrammatisch und unstrukturiert sind und voller Rauschen sind. Daher war die herkömmliche Methode zur Erkennung heißer Themen weniger leistungsfähig. Um dieses Problem zu lösen, schlug dieses Papier eine Methode für heiße Themen vor, die auf dem Geschwindigkeitswachstum basiert. Bei dieser Methode wurden die vorbehandelten Mikroblogs in verschiedene Fenster unterteilt, und die Zeitinformationen wurden in jedem Fenster extrahiert, dann für jedes Wort als Merkmalstrajektorie einer binären Gruppensequenz ausgedrückt und dann die Wachstumsgeschwindigkeit der . berechnet Wort und die für das Wort relevanten Benutzer in jeweils zwei benachbarten Fenstern die Wörter, deren Wachstumsgeschwindigkeit größer als ein bestimmter Schwellenwert ist, als heiße Schlüsselwörter ausgewählt haben, dann wurden heiße Themen durch das Clustern von heißen Schlüsselwörtern gefunden. Das Experiment wurde auf der Grundlage des SINA-Mikroblog-Datensatzes durchgeführt, die Fehltrefferrate und die Fehlerkennungsrate wurden durchgeführt, um die Durchführbarkeit des Algorithmus zu beweisen. Die Ergebnisse zeigten, dass die Methode die Effizienz der Erkennung bis zu einem gewissen Grad verbesserte.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_58 484216d3e4a5dc6aecb9a1036cd25698;de;;;2.1.;;;Aufbau von semantischen Webdiensten basierend auf einer modellgetriebenen Web-Engineering-Methode Der erste Schritt zur Verwirklichung der Vision des Semantic Web besteht darin, Webinhalte (Daten und Funktionalität) in einem von Softwareagenten verarbeitbaren Format bereitzustellen. Diese Änderung wird jedoch erst erreicht, wenn die Benutzer auf Methoden und Techniken zählen, die ihnen bei der Entwicklung helfen. Aus diesem Grund stellen wir in diesem Beitrag eine methodische Lösung auf Basis der Disziplin Web Engineering vor. Wir schlagen vor, eine Web-Engineering-Methode um ein Ontologie-Modell zu erweitern, um auf Modellierungsebene die Systemdaten und Funktionalitäten zu spezifizieren, die für die Verwendung externer Anwendungen verfügbar gemacht werden. Darüber hinaus erstellen wir durch die Anwendung eines Satzes von Transformationsregeln (1) einen Entwurf dieses Ontologiemodells aus den im OOWS-Ansatz definierten Struktur- und Verhaltensmodellen und (2) generieren die äquivalente Darstellung des Ontologiemodells in einem bestimmten semantischen Netz Sprache.;-;-;-;https://link.springer.com/chapter/10.1007/11908883_21 b5b28cd8763a731c12e7826d3a122c49;de;;;2.1.;;;Übertragbare Kompetenzrahmen für die Automobilindustrie Nie zuvor in der Geschichte menschlichen Handelns gab es einen so rasanten Wissenszuwachs und den damit verbundenen Wissenswandel wie bei unseren modernen Informationstechnologien. Die europäische Automobilindustrie schafft 12,6 Millionen (direkte und indirekte) Arbeitsplätze in der EU mit einer Gesamthandelsbilanz von 96,1 Milliarden € [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-28005-5_12 5d75cc695d4cd623c770a8886a5988ee;de;;;2.1.;;;Ein effizienter Webseiten-Klassifikationsalgorithmus basierend auf LSH Mit dem explosionsartigen Wachstum von Internet-Informationen wird es immer wichtiger, Echtzeit- und zugehörige Informationen abzurufen. Und es stellt höhere Anforderungen an die Geschwindigkeit der Klassifizierung von Webseiten, die eine der gängigen Methoden zum Abrufen und Verwalten von Informationen ist. Um einen effizienteren Klassifikator zu erhalten, schlägt dieses Papier eine Klassifizierungsmethode für Webseiten vor, die auf einer ortsabhängigen Hash-Funktion basiert. Darin sind drei innovative Module enthalten, darunter das Erstellen eines Feature-Wörterbuchs, das Mapping von Feature-Vektoren auf Fingerabdrücke mit ortsabhängigem Hashing und das Erweitern von Webseiten-Features. Die Vergleichsergebnisse zeigen, dass der vorgeschlagene Algorithmus in kürzerer Zeit eine bessere Leistung aufweist als der naive Bayes-Algorithmus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46248-5_31 f6b24fb65d0d6d3f676ea5699ecd0e2b;de;;;2.1.;;;Intelligente Multikriterien-DSSS Die Diskussion der grundlegenden MCDA-Konzepte und -Ansätze in Kapitel 2 hat gezeigt, dass der Entscheidungsträger und seine/ihre Präferenzen im Mittelpunkt des Interesses innerhalb des methodischen Rahmens von MCDA stehen. Diese besondere Eigenschaft von MCDA entspricht dem Entscheidungsprozess in komplexen und schlecht strukturierten Problembereichen. Da es in solchen Fällen keinen offensichtlich einfachen algorithmischen Lösungsprozess gibt, hängt die Art und Weise, wie das Problem angegangen wird, von der Wahrnehmung und Politik der Entscheidungsträger ab. Folglich kann kein umfassendes Modell entwickelt werden, das die Realität beschreibt. Stattdessen ist es möglich, ein Modell zu entwickeln, das der Problemwahrnehmung des Entscheiders, seinen Anforderungen, Vorlieben und seiner Einschätzung entspricht.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4663-4_5 b8dded11e1791ee38d23f3ddddfbd88c;de;;;2.1.;;;Anwenden eines Fuzzy-Entscheidungsbaum-Ansatzes auf die Bodenklassifizierung Als einer der wichtigsten Einflussfaktoren auf das Leben der Menschen zeichnet sich der Boden durch quantitative und qualitative Merkmale aus, die nicht nur den Boden selbst, sondern auch die Umwelt, das Wetter und die umgebende Vegetation beschreiben. Anhand dieser Merkmale können verschiedene Bodenarten identifiziert werden. Eine gute Bodenklassifizierung ist sehr wichtig, um den Boden besser nutzen zu können. Die Bodenklassifizierung ist, wenn sie von Experten manuell durchgeführt wird, keine einfache Aufgabe, solange die Meinungen der Experten stark voneinander abweichen können. Außerdem können verschiedene Bodenarten nicht deterministisch definiert werden. Mit dem Ziel, einen alternativen Ansatz zur Lösung dieses Problems zu erforschen, untersuchten wir in diesem Artikel die Anwendung eines automatischen Verfahrens zur Generierung eines Bodenklassifikators aus Daten unter Verwendung eines Fuzzy-Entscheidungsbaum-Induktionsalgorithmus. Um die mit dem Fuzzy-Entscheidungsbaum-Klassifikator erhaltenen Ergebnisse zu vergleichen, haben wir zwei bekannte Verfahren zur Klassifikatorgenerierung verwendet: den klassischen Entscheidungsbaum-Induktionsalgorithmus C4.5 und den Fuzzy-Regel-Induktionsalgorithmus namens FURIA.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08795-5_10 19980b0f729d57ac36a5350893dd8002;de;;;2.1.;;;Halbautomatisches semantisches Videoanmerkungstool Videoverwaltungssysteme erfordern eine semantische Annotation des Videos für Indizierungs- und Abrufaufgaben. Derzeit ist es nicht möglich, alle wichtigen semantischen Informationen automatisch zu extrahieren. Außerdem verwenden automatische inhaltsbasierte Abrufsysteme hochrangige semantische Annotationen als Ground-Truth-Daten. Wir präsentieren ein halbautomatisches semantisches Video-Annotations-Tool, das dem Benutzer hilft, Anmerkungen zu generieren, um das Video detailliert zu beschreiben. Der Annotationsprozess ist teilweise automatisiert, um die Annotationszeit zu verkürzen. Generierte Anmerkungen sind im MPEG-7-Metadatenformat für Interoperabilität.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-4594-3_31 b1ab5ccbf11b8f2f0698e8dc7f2ccf79;de;;;2.1.;;;Evolution, Ökologie und Naturschutz von Seegras: Eine genetische Perspektive Die Untersuchung und Charakterisierung natürlicher Systeme beinhaltet die Bewertung ihrer Vielfalt und die Identifizierung und Definition von Prozessen und Flüssen, die auf unterschiedlichen zeitlichen und räumlichen Skalen operieren. Ökologische Studien sind im Allgemeinen durch ihre Fähigkeit, auf diese unterschiedlichen Prozessskalen zu schließen, begrenzt. Die Verwendung genetischer Analysen zur Gewinnung von Einblicken in die Prozessskalen in der Ökologie hat zugenommen, da die grundlegenden Werkzeuge für die Durchführung solcher Studien verbessert wurden und breiter verfügbar wurden. Heutzutage steht eine große Anzahl genetisch basierter Ansätze zur Verfügung, aber am häufigsten werden DNA-Marker verwendet, um die Beziehungen zwischen Individuen auf hierarchischen Ebenen zu bewerten, die von Populationsprozessen im kleinen Maßstab bis zu den phylogenetischen Beziehungen von Arten, Gattungen und höheren Taxa reichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-2983-7_2 7b7a48dea2794dd91ee1f81d51b1c01d;de;;;2.1.;;;Effiziente Merkmalsauswahl basierend auf modifizierter Kuckuckssuche Optimierungsproblem zur Klassifizierung von Web-Textdokumenten Die stetige Zunahme von Informationen im Web mit unterschiedlichen Dimensionen wird für Benutzer immer schwieriger, diese effizient zu filtern und zu analysieren, da sie redundante und irrelevante Begriffe enthalten. Das Verwalten, Filtern und Organisieren solch riesiger Datensätze erfordert die Klassifizierung von Textdokumenten. Textklassifizierung ist der Vorgang, die Textdokumente anhand des Inhalts ihren vordefinierten Textkategorien zuzuordnen. Das Ziel dieses Papiers ist es, das Kuckuckssuchoptimierungsproblem (CSO) zu untersuchen, das aus dem Verhalten von Kuckucksvögeln für die Auswahl relevanter Merkmale durch Modifizieren des Algorithmus erstellt wurde. Der überarbeitete Algorithmus wird als Modified Cuckoo Search (MCS)-Optimierungsalgorithmus bezeichnet, der sich als nützlich für die Entwicklung eines effizienten Textklassifikationssystems erwiesen hat. Das vorgeschlagene Verfahren wird erzeugt durch Kombinieren der Fähigkeit von MCS mit der Schärfe des Naive Bayes Multinomial (NBM)-Algorithmus zur Erzeugung geeigneter Merkmale, die die Erfolgsrate erhöhen. Der hier gewählte Ansatz wird an 9000 Textdokumenten getestet, die acht verschiedene Domänen abdecken, die aus mehreren Webquellen abgerufen wurden, und erzielt ermutigende Ergebnisse. Die Ergebnisse im Vergleich mit den Ergebnissen anderer bekannter Ansätze für Textklassifikationsaufgaben zeigen die Wirksamkeit des vorgeschlagenen Ansatzes als automatisches Bangla-Textklassifikationssystem.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9187-3_57 80da0c253e36a2ff5582128719033598;de;;;2.1.;;;Maschinelle Übersetzungen höflich machen: Die problematischen Sprechakte In dieser Arbeit wird eine Studie der Höflichkeit in einem übersetzten Parallelkorpus von Hindi und Englisch durchgeführt. Es zeigt, wie Höflichkeit in einem Hindi-Text ins Englische übersetzt wird. Ein theoretisches Modell (bestehend aus verschiedenen Situationen, die bei der Übersetzung von Höflichkeit von einer Sprache in eine andere auftreten können, und verschiedenen Konsequenzen dieser Situationen) wurde entwickelt, um den Höflichkeitswert in der Quelle und im übersetzten Text zu vergleichen. Es werden die höflichen Sprechakte des Hindi beschrieben, die am ehesten falsch ins Englische übersetzt werden. Basierend auf dieser Beschreibung werden solche Regeln entwickelt, die in die MT-Systeme eingespeist werden können, damit die problematischen höflichen Sprechakte beim Übersetzen von der Maschine effektiv und effizient verarbeitet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19403-0_29 7985405fde3c733590a139fe69a0e409;de;;;2.1.;;;Umgang mit „außergewöhnlichen“ Patienten in META-GLARE Viele verschiedene computergestützte Verwaltungssysteme für computerinterpretierbare Richtlinien (CIGs) wurden entwickelt. Während CIGs evidenzbasierte Behandlungen von „typischen“ Patienten vorschlagen, können Ausnahmen auftreten, ebenso wie die Notwendigkeit, mit Komorbiditäten umzugehen. Obwohl die Behandlung beider Phänomene eine Abweichung von der „Standard“-Ausführung von CIGs beinhaltet, wurden sie bisher als unterschiedliche Probleme behandelt und es wurde kein homogener Ansatz entwickelt, um beide zu bewältigen. In diesem Beitrag stellen wir die Erweiterungen von META-GLARE vor, um eine solche Einschränkung zu überwinden. Um ein solches Ziel zu erreichen, schlagen wir eine modulare Architektur vor, die die gleichzeitige Ausführung mehrerer Richtlinien unterstützt, integriert mit einer ontologischen Wissensbasis und mit mehreren Argumentationsmechanismen, einschließlich zeitlicher Argumentation und zielbasierter Planung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29196-9_16 e4fdfbcdb27444c3c7b42a5ce9e5b6a6;de;;;2.1.;;;Zusammensetzung von Cloud-Diensten durch semantisch beschriebene Muster: Eine Fallstudie Mit der Verbreitung von Cloud-Diensten und der großen Anzahl von Cloud-Angeboten, die derzeit auf dem IT-Markt verfügbar sind, kann es für Kunden schwierig sein, zu verstehen, welches ihren Anforderungen entspricht. Muster können, wenn sie richtig auf das Design und die Entwicklung von Cloud-Anwendungen angewendet werden, Programmierer entlasten und Fehler und Bugs bei der Anwendungsimplementierung reduzieren. In diesem Papier verwenden wir eine Methodik, die auf der semantischen Darstellung von Cloud-Mustern, Cloud-Diensten und -Anwendungen basiert, um Benutzer bei der Entwicklung Cloud-orientierter Software zu unterstützen, die ihren expliziten Anforderungen entspricht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-33313-7_31 f874895cb646fbe059869effa17a3414;de;;;2.1.;;;Erstellen von Anmerkungen für die aus relationalen Datenbanken generierte Web-Ontologie-Sprachontologie Viele vorgeschlagene Ansätze, die es Benutzern ermöglichen, eine Ontologie der Web Ontology Language (OWL) aus einer relationalen Datenbank zu erstellen, enthalten keine Metadaten, die den Datenbanktabellen inhärent sind. Ohne Metadaten fehlen der resultierenden Ontologie Annotationseigenschaften. Diese Eigenschaften sind bei der Ontologie-Ausrichtung von entscheidender Bedeutung. Dieses Papier schlägt eine Methode vor, um relevante Metadaten durch Annotationseigenschaften in OWL-Ontologien einzubeziehen, was die Fähigkeit fördert, Daten aus mehreren einzigartigen Ontologien zu integrieren und zu verwenden. Die beschriebene Methode wird auf Geodaten angewendet, die von The National Map gesammelt wurden, einer Datenquelle des U. S. Geological Survey. Nach dieser Methode wurde manuell eine Ontologie erstellt, die die Metadaten von The National Map verwendete. Da ein manueller Ansatz anfällig für menschliche Fehler ist, wird ein automatisierter Ansatz zum Speichern und Konvertieren von Metadaten in Anmerkungseigenschaften diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-65384-2_4 c2691398db260a0632ab73df7e5f8e98;de;;;2.1.;;;Vorläufige Basis für einen ontologiebasierten methodischen Ansatz für Multiagentensysteme Der Einfluss von Ontologien in Methoden der Wissensbasierten Systeme (KBS) geht weit über die anfängliche Analysephase hinaus und führte in den 1990er Jahren zu domänenunabhängigen KBS-Methoden. In diesem Papier reflektieren wir diese Erkenntnisse und die Rolle von Ontologien in der KBS-Entwicklung. Wir analysieren und identifizieren, welche dieser Rollen auf eine ontologiebasierte MAS-Entwicklungsmethodik übertragen werden können. Wir identifizieren ontologiebezogene Abhängigkeiten zwischen Analyse- und Designphase. Wir erstellen eine Reihe von sechs Empfehlungen zur Schaffung einer domänenunabhängigen MAS-Methodik, die Ontologien über die anfängliche Analysephase hinaus einbezieht. Wir identifizieren seine wesentlichen Merkmale und skizzieren die charakteristischen Aufgaben sowohl in der Analyse- als auch in der Designphase.;-;-;-;https://link.springer.com/chapter/10.1007/11568346_15 db7d1c1681f2199c9574c726c78b9e32;de;;;2.1.;;;Optimierungstechniken in der Bildanalyse Lokale parallele Prozesse sind eine sehr effiziente Möglichkeit, Kontextinformationen in einer sehr großen Klasse von Problemen zu verwenden, die häufig in der Computer Vision auftreten. Es wird ein Überblick über die aktuellen Ansätze zur Gestaltung und Analyse solcher Prozesse gegeben. Anwendungen für das Sehen auf niedriger Ebene und die symbolische Übereinstimmung werden ebenfalls in Betracht gezogen.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0004079 d836965a8b05af95e9e50f2a08bce391;de;;;2.1.;;;Integration von Ontologie-Lernen und R zur effizienten Bereitstellung von Diensten in Städten Mit dem Fortschritt in der künstlichen Intelligenz werden intelligente Systeme implementiert, die in der Lage sind, kognitive Funktionen wie Menschen auszuführen, aber aufgrund der Komplexität in diesem Bereich und des Mangels an Semantik im Programm ist es schwierig zu analysieren, wie diese Funktionen ausgeführt werden , welche Funktionen in welchem ​​Umfang zu berücksichtigen sind. Da sich die Ontologie als hervorragendes Mittel zur Bereitstellung von Semantik erwiesen hat, werden durch die Ontologie maschinenverständliche Definitionen geschaffen. Der Zweck der Erstellung von Wissensrepräsentationen durch Ontologie, die die Daten zu städtischen Dienstleistungen analysiert. Auf diese Weise werden intelligente Systeme die durch die Ontologie erstellten Definitionen für die Analyse verwenden. Dies soll getan werden, um Dienstleistungen in Städten besser bereitzustellen. Dieser Artikel befasst sich mit dem Erlernen der Basisontologie in einer bestimmten Domäne aus einer relationalen Datenbank unter Verwendung eines in Protégé verfügbaren Plug-ins. Durch das Auffüllen der Ontologie durch Lernen werden in R verfügbare Funktionen verwendet, um die redundanten/implizierten ontologischen Terme zu entfernen. Dadurch wird die Ontologie bewertet/kuratiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3140-4_1 8b345b165e473a8df1752de420a0ed3a;de;;;2.1.;;;Räumlich-zeitliche Verteilung und Transformation von Ackerland in geomorphologischen Regionen Chinas in den Jahren 1990–2015 Landschaftsformen sind ein wichtiger Faktor, der das räumliche Muster von Ackerland durch die Zuweisung von Oberflächenwasser und Wärme bestimmt. Daher ist es von großer Bedeutung, die Veränderung der Ackerlandverteilung aus der Perspektive geomorphologischer Einteilungen zu untersuchen. Basierend auf Chinas mehrjährigen Landbedeckungsdaten (1990, 1995, 2000, 2005, 2010 und 2015) und geomorphologischen Regionalisierungsdaten analysierten wir die Veränderung der Ackerfläche und ihr Verteilungsmuster in sechs geomorphologischen Regionen Chinas im Zeitraum von 1990 bis 2015 mit Hilfe von GIS-Techniken. Unsere Ergebnisse zeigten, dass die gesamte Ackerfläche von 177,1 auf 178,5 Millionen ha mit einer durchschnittlichen Steigerungsrate von 0,03 % gestiegen ist. Die Anbaufläche nahm in Südchina ab und in Nordchina zu. Region I (östliches Hügelland) wies die höchste Ackerlandzunahmerate auf, während der dynamische Ackerlanddynamikgrad der Region IV (nordwestliches Mittel- und Hochgebirge, Becken und Hochebenen) deutlich höher war als der anderer Regionen. Der Schwerpunkt von Chinas Ackerland hat sich im Laufe der 25 Jahre von Nordchina nach Nordwesten verschoben. Die Regionen IV und I waren die beiden Regionen mit der größten Zunahme der Ackerfläche. Region II (südöstliche Mittel- und Mittelgebirge) und Region V (südwestliche Mittel- und Mittelgebirge, Hochebenen und Becken) waren die am meisten abnehmenden Ackerlandregionen. Die Anbauflächen blieben in Region III (Nordchina und Innere Mongolei östlich-zentrale Berge und Hochebenen) und Region VI (Tibetische Hochebene) nahezu unverändert. Der Verlust von Ackerland erfolgte hauptsächlich in den Regionen I und II als Folge der zunehmenden Industrialisierung und Urbanisierung, während die Zunahme der Ackerfläche hauptsächlich in der Region IV durch die Rekultivierung von Grünland und anderen Brachflächen erfolgte. Diese Analyseergebnisse würden grundlegende Informationen für weitere Studien zur Stadtplanung, zum Ökosystemmanagement und zur Erhaltung der natürlichen Ressourcen in China liefern.;-;-;-;https://link.springer.com/article/10.1007/s11442-019-1591-4 fefa4ccbb35c1d2d8372ac1e166b93b6;de;;;2.1.;;;Eignung von Weinbergen in Ostkalifornien Eine Analyse der physikalischen Eigenschaften einer etablierten Weinregion in Ostkalifornien, USA, wurde durchgeführt, um festzustellen, ob eine einzigartige Kombination von Umweltparametern in Zinfandel-Weinbergen quantitativ identifiziert werden kann. Im Vordergrund steht die Entwicklung eines Geoinformationssystems (GIS) zur Beurteilung der Bodeneignung für aktuelle und potenzielle Weinbaugebiete in einem mediterranen Klima. Die Bewertung basiert auf räumlichen Häufigkeitsverteilungen messbarer Umweltkriterien, die aus Merkmalen bestehender Weinberge abgeleitet werden. Tatsächlich wurden statistisch signifikante Unterschiede im 95 %-Konfidenzintervall für 6 Variablen und im 85 %-Konfidenzintervall für weitere 3 Variablen gefunden. Somit wurden 9 der 15 analysierten Variablen (53%) statistisch zwischen Weinbergs- und Nicht-Weinbergsflächen diskriminiert. Die Ergebnisse dieser Studie veranschaulichen das Potenzial von GIS-Techniken für die Eignungsanalyse von Weinbauflächen und unterstützen die Literatur zur Bedeutung von Boden- und Topographiemerkmalen im Weinbau und tragen zu dieser bei.;-;-;-;https://link.springer.com/article/10.1023/A%3A1006879927146 58e555e88be15974c2ad34df0601d7a5;de;;;2.1.;;;Der guineo-kongolische Übergang zum südlichen Afrika Die Floren der Regionen Guineo-Congolian und Sambesian* schließen sich, abgesehen von einigen Kosmopoliten, pluriregional verbindenden Arten und chorologischen und ökologischen Übertretern, im größten Teil ihrer Gebiete fast aus. Es gibt jedoch eine Übergangszone zwischen ihnen (White 1976a, im Druck, A) von bis zu 500 km Breite, wo eine verarmte guineo-kongolische Flora und eine noch verarmtere zambezianische Flora ineinandergreifen oder in Mosaik vorkommen und sich lokal vermischen . Die genaue Verteilung der Vegetation, die von diesen Floren dominiert wird, wird durch lokale edaphische und klimatische Faktoren bestimmt. Der größte Teil des Zaire-Teils dieser Übergangszone von Kongo-Sambezia wird von Duvigneaud (1952) in die Guineo-Kongolian-Region aufgenommen, der jedoch seinen Übergangscharakter zugibt. Bestimmte Autoren, z.B. Devred (1957) und Liben (1958) versuchen, eine genaue Grenze zwischen den Regionen Guineo-Kongolian und Sambesian zu definieren. Den allgemeinen Bedürfnissen der Biogeographie wird aber ebenso gut gedient, wenn Übergangszonen klar als solche erkannt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-9951-0_14 ef123d4807add78cee06f721404d6f65;de;;;2.1.;;;Finden aller Begründungen von OWL DL-Entailments Das Auffinden der Rechtfertigungen einer Folgerung (d. h. aller minimalen Menge von Axiomen, die ausreicht, um eine Folgerung zu erzeugen) hat sich zu einem wichtigen Inferenzdienst für die Web Ontology Language (OWL) entwickelt. Begründungen sind unerlässlich, um unerfüllbare Klassen und Widersprüche zu debuggen. Die Verfügbarkeit von Begründungen als Erklärungen von Folgerungen verbessert die Verständlichkeit großer und komplexer Ontologien. In diesem Beitrag stellen wir mehrere Algorithmen zur Berechnung aller Begründungen eines Entschlusses in einer OWL-DL-Ontologie vor und zeigen durch eine empirische Bewertung, dass selbst ein von einem Reasoner unabhängiges Vorgehen bei echten Ontologien gut funktioniert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76298-0_20 faf1145460d6639cddcc1618e23f4e57;de;;;2.1.;;;Maschinengestütztes Design von Geschäftsprozessmodellen mittels Deskriptorraumanalyse In den letzten Jahren hat sich das Interesse der Forscher verstärkt an der Entwicklung von Methoden und Werkzeugen zur Automatisierung des Entwurfs von Geschäftsprozessmodellen entwickelt. Diese Arbeit schlägt eine Methode zum maschinengestützten Entwurf neuer Prozessmodelle vor, die auf Geschäftslogik basiert, die aus realen Prozess-Repositories unter Verwendung einer linguistischen Analyse der Beziehungen zwischen Konstrukten von Prozessdeskriptoren extrahiert wird. Die Analyse ermöglicht die Konstruktion eines Deskriptorraums, in dem es möglich ist, neue Prozessabläufe zu definieren. Die vorgeschlagene Methode kann Prozessanalysten bei der Gestaltung neuer Geschäftsprozesse unterstützen und dabei das Wissen nutzen, das im Entwurf bestehender Prozess-Repositorys enthalten ist. Zur Demonstration der Methode haben wir ein Softwaretool („New Process Design Assistant“ - NPDA) entwickelt, das die vorgeschlagene Designmethode automatisiert. Wir haben unser Tool im ERP-Prozess-Repository von Oracle Applications getestet und gezeigt, dass unser Ansatz bei der Gestaltung neuer Aktivitäten innerhalb neuer Geschäftsprozessmodelle effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15618-2_11 d7e357e13e24cfeb0385f830c847d084;de;;;2.1.;;;Verbesserte Support Vector Machine für die Landnutzungsklassifizierung Es ist sehr wichtig, den aktuellen Zustand des Landes zu verfolgen. Viele Anwendungen wie Geologie und Ökologie basieren auf dem Sammeln von Informationen von Sensoren über Landoberflächen. Diese Sensoren befinden sich entweder in der Luft oder auf Satelliten. Daher kommt der Bildverarbeitung eine herausragende Bedeutung für die Landklassifizierung und -analyse zu. Das Nutzen von Vorteilen aus Merkmalsextraktionsverfahren und Klassifikationsalgorithmen kann die Ergebnisse und die verbleite Analyse verbessern. In dieser Arbeit haben wir Merkmalsextraktionsmethoden im Zusammenhang mit der Farb- und Mehrfachauflösungstransformation durchgeführt. Danach schlagen wir ein verbessertes Support Vector Machine (SVM)-Modell vor, das auf einem modifizierten Kernel basiert. Das neue Modell führt Gewichtungen für Merkmale ein, die aus den Trainingsdaten bestimmt werden. Das neue Modell wird mit dem üblichen SVM-Modell verglichen. Die Klassifikationsergebnisse zeigen, dass die erreichte Genauigkeit mit dem erweiterten SVM-Klassifikator besser ist als mit dem Basis-SVM. Die Zahl der falsch-negativen wird deutlich reduziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36365-9_20 e5b1a5f68c3a30edca5d0140b559d741;de;;;2.1.;;;Paläogene Ereignisse in Zentral-Eurasien: ihre Rolle in der Flora und Vegetation deckt Evolution, Migration von Phytochorgrenzen und Klimaänderungen ab Die Flora und Vegetation Zentraleurasiens hat sich im Paläogen in erheblichem Maße nach dem Szenario entwickelt, das der späten Kreide ähnelt. Die Position der hochrangigen Phytochore wurde durch die globale klimatische Zonalität bestimmt, während die Entwicklungsstadien der Flora von der Interaktion zwischen den arktischen und tethyischen Wassermassen und der Richtung der atmosphärischen Strömungen abhingen und durch die wichtigsten geologischen und paläogeographischen Ereignisse in der paläogenen Geschichte bestimmt wurden Zentrale Eurasien. In der Entwicklung der paläogenen Flora lassen sich fünf Hauptstadien definieren: (1) Früh-mittleres Danium mit der weiten Verbreitung gemäßigt-thermophiler Flora in den mittleren und hohen Breiten und ihrer Ausdehnung nach Westen und Süden aus den pazifischen und arktischen Regionen des borealen Reiches , (2) Spätes Paläozän-frühes Eozän mit dem maximalen Vorrücken der tethyischen Flora in die hohen Breiten und der Nordwanderung der Phytochorgrenzen als Reaktion auf den intensiven Wasseraustausch zwischen den Tethys und dem Atlantik mit seinen Handelsströmungen und der atmosphärischen Wärmeübertragung direkt von den from tropische Zone in Abwesenheit des alpin-himalaiischen Orogens, (3) Lutetium mit Entwicklung subtropischer monsunartiger Floren unter Einfluss des Wassermassenaustausches zwischen dem Arktischen Becken und Peritethys mit den monsuninduzierten Strömungen und atmosphärischer Wärmeübertragung von der Peritethys unter Bedingungen der eingeschränkten Verbindung zwischen den zentralasiatischen Becken und Tethys, (4) (?) spätlutetisch-priabonisch die Klimainversion aufgrund der Isolierung des Westsibirischen Meeres vom Arktischen Becken vor dem Hintergrund seiner anhaltenden Verbindung mit dem Peritethys widerspiegelt, wurde die Bildung des halbgeschlossenen Westsibirischen Meeres zu dieser Zeit von der Entwicklung eines Klimas mit feuchten Wintern, heißen trockene Sommer und Mangel an durchschnittlichen Jahresniederschlägen in den mittleren Breiten Zentraleurasiens, wo üppige subtropische;-;-;-;https://link.springer.com/article/10.1134/S0869593814030022 43fe733f0f23af6dd5e043fb81de8b29;de;;;2.1.;;;Ein grob-neuronales Berechnungsmodell basierend auf grober Mereologie In diesem Kapitel schlagen wir einen kurzen Überblick über die grobe Mereologie vor, d. h. die Näherungsrechnung von Teilen, einen Ansatz zum Argumentieren unter Unsicherheit, der auf dem Begriff eines Näherungsteils (teilweise) basiert. Grobe Mereologie wird in Kapiteln von Gomoliñska, Pal, Peters et al., Skowron und Stepaniuk, Skowron und Swinarski, Peters, Ra-manna et al. erwähnt oder angewendet, und in einigen Kapiteln dieses Buches werden Ideen von Approximationen durch Teile vorgestellt implizit im dort gewählten formalen Apparat. Daher erscheint es wünschenswert, über diesen Ansatz Rechenschaft abzulegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18859-6_4 de0f54ec8c4cb44ecb2c00ef1493ea81;de;;;2.1.;;;Embryologie der Turbellaria und ihre phylogenetische Bedeutung Entwicklungsmerkmale – einschließlich Eizellen- und Dotterzellstruktur, Spaltungsmuster und Gastrulationsarten – werden vorgestellt und in Bezug auf die Phylogenie der Turbellaria untersucht. Eierschalengranulate, von denen gezeigt wurde, dass sie in den Oozyten von Entolecithal-Eiern und den Dotterzellen von Ektolecithal-Eiern vorkommen, werden zwischen den Arten verglichen und ihr potenzieller Wert als taxonomischer Charakter wird diskutiert. Die Quartett-4d-Spiralspaltung des Entolecithal-Eies von Polyclads wird als Reminiszenz an das primitive Muster der frühen Entwicklung der Turbellaria beschrieben. Dies wird mit der Duett-Spiralspaltung von Acoels verglichen, und mögliche phylogenetische Schemata, die die beiden Arten der Spiralspaltung beinhalten, werden überprüft. Die Verbindung zwischen der präzisen Spiralspaltung, die die Entwicklung der meisten Archoophorane charakterisiert, und der Blastomerentrennung (;-;-;-;https://link.springer.com/article/10.1007/BF00046236 5c38ae5df5c81b94c485b8401cf711e2;de;;;2.1.;;;Konjunktive Abfragebeantwortung in endlichwertigen Fuzzy-Beschreibungslogiken Fuzzy Description Logics (DLs) verallgemeinern klare, indem sie Semantik für Mitgliedschaftsgrade für Konzepte und Rollen bereitstellen. Eine gängige Technik für die Argumentation in Fuzzy-DL-Ontologien besteht darin, eine Reduktion auf knackige DLs bereitzustellen und dann die Schlussfolgerung in der knackigen DL zu verwenden. In diesem Papier verwenden wir diesen Ansatz, um konjunktive Abfrage (CQ)-Antwortprobleme für Fuzzy-DLs zu lösen. Wir geben Ermäßigungen für Gödel- und Łukasiewicz-Varianten von Fuzzy;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11113-1_9 e7ae0d6142292b81dded99b30358b305;de;;;2.1.;;;Beckenfrakturen Beckentraumata bei Kindern können zu einer Vielzahl unterschiedlicher Frakturen und Weichteilverletzungen führen, diese reichen von isolierten, relativ gutartigen Abrissverletzungen bis hin zu sehr komplexen multiplen Beckenfrakturen und Gelenkdissoziationen. Die Art der Verletzung hängt vom ursächlichen Mechanismus sowie vom Alter und der Entwicklung des Kindes ab. Im Vergleich zu Erwachsenen sind Beckenfrakturen bei Kindern relativ selten (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68261-5_12 23f6cdd8aeb31a1f0920f947f12e19b2;de;;;2.1.;;;Die Verwendung löslich machender Hilfsstoffe und Ansätze zur Erzeugung von toxikologischen Vehikeln für moderne Arzneimittelpipelines Dieses Kapitel verfolgt einen doppelten Zweck und umfasst Ansätze zur Identifizierung potenziell problematischer Wirkstoffkandidaten im Hinblick auf die Formulierung im Allgemeinen und für die Herstellung von toxikologischen Vehikeln im Besonderen. Darüber hinaus wird versucht, Erkenntnisse darüber zu gewinnen, welche oralen und parenteralen Hilfsstoffe für frühe Tests am Menschen geeignet sind und welche dieser Materialien sinnvollerweise in der GLP-Toxikologiebewertung verwendet werden können, die diese Phase-I-Bewertungen am Menschen unterstützen soll. Diese Überlegungen werden im Bereich der Arzneimittelentwicklung immer sichtbarer, wie eine Reihe kürzlich durchgeführter Symposien und Kongresse zeigt (Liu 2005, Van Gelder, 2006).;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-69154-1_8 81f6e88f54cf1558ef9eaea5fa0a680f;de;;;2.1.;;;Auffinden von Korrelationen zwischen Protein-Protein-Interaktionsmodulen mithilfe von Semantic-Web-Techniken Viele komplexe Netzwerke wie soziale Netzwerke und Computer weisen modulare Strukturen auf, bei denen Kanten zwischen Knoten innerhalb von Modulen viel dichter sind als zwischen Modulen. Es wird stark angenommen, dass zellulare Netzwerke auch modular sind, was die relative Unabhängigkeit und Kohärenz verschiedener Funktionseinheiten in einer Zelle widerspiegelt. In diesem Artikel haben wir einen von Menschen kuratierten Datensatz verwendet. In diesem Papier betrachten wir jedes Modul im PPI-Netzwerk als Ontologie. Mit Techniken des Ontologie-Alignments vergleichen wir jedes Modulpaar im Netzwerk. Wir wollen sehen, ob es eine Korrelation zwischen der Struktur der einzelnen Module gibt oder sie völlig unterschiedliche Strukturen haben. Unsere Ergebnisse zeigen, dass es keine Korrelation zwischen Proteinen in einem Protein-Protein-Interaktionsnetzwerk gibt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89985-3_154 3db03b96537f2381f34b205a9b4404f4;de;;;2.1.;;;Zweifel an der OBJEKT-Welt Objektorientierte Ansätze (OO) können innerhalb des Funktionalismus platziert werden. Es wird argumentiert, dass wir OO nicht zur Analyse menschlicher Welten verwenden sollten. OBJEKTE sind weder Darstellungen von Menschen noch Menschen gleichgestellt, wie die Literatur oft suggeriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35509-2_16 3a557774a6566af1295068eedbdd2dae;de;;;2.1.;;;Optimierung von Fuzzy-Inferenzsystem-Feldklassifikatoren mit genetischen Algorithmen und simuliertem Annealing Ein Klassifizierungssystem, das Unternehmen bei der Auswahl von Anrufen zur Analyse unterstützen würde, würde den Auswahlprozess für die Anrufaufzeichnung verbessern. Dies würde bei der Entwicklung guter automatisierter Self-Service-Anwendungen helfen. In diesem Papier wird ein solches Klassifizierungssystem für einen Antrag auf Gehaltsempfänger detailliert beschrieben. Fuzzy Inference System (FIS)-Klassifikatoren wurden erstellt. Diese Klassifikatoren wurden mit Genetic Algorithm (GA) und Simulated Annealing (SA) optimiert. GA- und SA-Leistung bei der FIS-Klassifikatoroptimierung wurden verglichen. Es wurden gute Ergebnisse erzielt. In Bezug auf die Recheneffizienz übertraf SA GA. Bei der Optimierung der FIS-Klassifikatoren „Sag-Konto“ und „Sag-Bestätigung“ ist GA die bevorzugte Technik. In ähnlicher Weise ist SA die bevorzugte Methode bei der FIS-Klassifikator-Optimierung 'Betrag sagen' und 'Begünstigten auswählen'. GA- und SA-optimierte FIS-Feldklassifikatoren übertrafen zuvor entwickelte FIS-Feldklassifikatoren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32909-8_3 b45feb4edd75f0972a3bb5eb1c53ffa3;de;;;2.1.;;;Das Relativitätsprinzip Zu Beginn des 17. Jahrhunderts herrschten in Europa noch die philosophischen und kosmologischen Ansichten von Aristoteles und Ptolemäus und wurden sogar in das offizielle Dogma der höchsten Autorität, der katholischen Kirche, aufgenommen. Galileo stellte diese traditionellen Vorschriften in vielerlei Hinsicht in Frage. Er bestand darauf, dass der Mensch auf seiner Erde nicht als einzigartiger Mittelpunkt des Universums oder sogar des Sonnensystems angesehen werden könne, dass die Erde nur einer der Planeten sei, die die Sonne umkreisen, wie von Kopernikus vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-5440-3_3 3790033b8749fffb7eb9972301920ce8;de;;;2.1.;;;Fuzzy-Klassifizierung für die Analyse von Genexpressionsdaten Microarray-Expressionsstudien messen durch einen Hybridisierungsprozess die Menge an Genen, die in biologischen Proben exprimiert werden. Die Erkenntnisse aus diesen Studien werden aufgrund ihres Potenzials, zum Verständnis grundlegender Fragen der Biologie und der klinischen Medizin beizutragen, immer wichtiger. Ein wichtiger Aspekt der Microarray-Expressionsanalyse ist die Klassifizierung der aufgezeichneten Proben, die aufgrund der großen Anzahl aufgezeichneter Expressionsniveaus im Vergleich zu den relativ kleinen Zahlen analysierter Proben viele Herausforderungen mit sich bringt. In diesem Kapitel zeigen wir, wie die regelbasierte Fuzzy-Klassifikation erfolgreich zur Analyse von Genexpressionsdaten angewendet werden kann. Der generierte Klassifikator besteht aus einem Ensemble von Fuzzy-Wenn-Dann-Regeln, die zusammen eine zuverlässige und genaue Klassifizierung der zugrunde liegenden Daten liefern. Experimentelle Ergebnisse an mehreren Standard-Microarray-Datensätzen bestätigen die Wirksamkeit des Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76803-6_8 3ab10e13a3850bbdbb885928ae3b5838;de;;;2.1.;;;Semantisch unterstützte Entdeckung und Integration von Umweltdaten: Demonstration am Anwendungsfall des isländischen Vulkans Wir präsentieren ein Framework für die semantisch unterstützte Datenentdeckung und -integration über mehrere erdwissenschaftliche Disziplinen hinweg. Wir nutzen bekannte Vokabulare und Ontologien, um semantische Modelle für Metadaten und Datenharmonisierung zu erstellen. Unser Metadatenmodell basiert auf Standardrichtlinien und erweitert diese um eine umfassendere Semantik. Um Daten zu harmonisieren, implementieren wir ein beobachtungszentriertes Datenmodell basierend auf dem RDF Data Cube Vokabular. Frühere Arbeiten definieren die Data Cube-Erweiterungen, die für bestimmte erdwissenschaftliche Disziplinen relevant sind. Um eine generische und domänenunabhängige Lösung bereitzustellen, schlagen wir ein Vokabular der oberen Ebene vor, das es uns ermöglicht, domänenspezifische Informationen auf einer höheren Abstraktionsebene auszudrücken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41360-5_25 4548d168de854cfec655d8a3eb876146;de;;;2.1.;;;Paläozän-Untereozän paläontologische Aufzeichnungen des Gesichtsbezirks Uljanowsk-Syzran, Wolga-Peri-Kaspische Region Die stratigraphischen Unterteilungen des Paläogens, die in das aktualisierte regionale stratigraphische Schema des Gesichtsbezirks Uljanowsk-Syzran mit einer breiten Entwicklung von Biosilikatablagerungen aufgenommen wurden, werden beschrieben und paläontologisch charakterisiert. Die biostratigraphische Unterteilung der Referenzschnitte anhand von Diatomeen und Dinozysten wird diskutiert. Die kürzlich erkannten stratigraphischen Einheiten Smyshlyaevka und Karanino innerhalb der regionalen Stufen Kamyshin (Oberpaläozän) und Proleyka (Untereozän) werden beschrieben.;-;-;-;https://link.springer.com/article/10.1134/S0869593817030066 ae3b1b13ec8d6d8bb7c5f557d501a7a8;de;;;2.1.;;;Umfrage zur Datenanalyse sozialer Netzwerke Soziale Netzwerke sind die erfolgreichsten Web 2.0-Anwendungen, in denen Benutzer täglich über 2,5 Trillionen Bytes an Daten teilen und erstellen. Diese Daten können genutzt werden, um viele Arten von Informationen abzurufen, die in verschiedenen Anwendungen verwendet werden. Tatsächlich haben soziale Netzwerke erhebliche Aufmerksamkeit von Forschern in verschiedenen Bereichen auf sich gezogen. Dieses Papier dient als Einführung in die Datenanalyse sozialer Netzwerke. In dieser Arbeit stellen wir auf analytische Weise aktuelle und repräsentative Arbeiten zur Datenanalyse sozialer Netzwerke vor. Außerdem beleuchten wir die wichtigsten Anwendungen und verwendeten Methoden im Rahmen der Strukturdatenanalyse. Dann listen wir die wichtigsten Aufgaben und Ansätze auf, die vorgeschlagen werden, um hinzugefügte Inhalte in sozialen Medien zu analysieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37484-6_6 d55c677aebe5bb49ea70da1d6fb17a9f;de;;;2.1.;;;Ein wissensbasiertes Simulationskernelsystem für den Entwurf von Umweltmodellierungswerkzeugen Die Modellierung von Umweltsystemen erfordert leistungsstarke Softwaretools, die die heterogenen Umweltdomänen berücksichtigen, ein breites Spektrum an Modellierungsmethoden einbeziehen, und die nicht-technischen Benutzergruppen mit nur begrenztem Hintergrund in Modellierung und Computer. Für die angewandte Informatik ist es eine Herausforderung, flexible Softwaretools für den Aufbau und die Nutzung heterogener Umweltmodelle [16] wie zB Straßenverkehrs-Emissionsmodelle zu entwickeln. Durch den Einsatz eines objektorientierten, wissensbasierten Simulationssystems kann die Entwicklung neuer Simulationsmethoden zB für Straßenverkehrs-Emissionsmodelle in hohem Maße erleichtert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1443-3_9 38d3ad1d041c80c73a0da579c1e02570;de;;;2.1.;;;Paläozoische Bryozoen der Mongolei Stratigraphische Ansammlungen, die für das Ordovizium, Silur, Devon, Karbon und Perm charakteristisch sind, werden basierend auf der Analyse neu verfeinerter und ergänzter Daten zur Zusammensetzung und Verbreitung paläozoischer Bryozoen in der Mongolei präsentiert. Vierunddreißig biostratigraphische Hilfseinheiten, die als Schichten mit Bryozoen eingestuft werden, werden eingerichtet, um die paläozoischen Schichten der Mongolei zu unterteilen.;-;-;-;https://link.springer.com/article/10.1134/S0031030116120030 b08f3bc98a2278b0896ca3ec91b7540b;de;;;2.1.;;;Bewertung der Frost-Tau-Erosion in Tibet anhand des Wolkenmodells Frost-Tau-Erosion kann zu einem beschleunigten Bodenverlust führen, was ein wichtiger Faktor im Zusammenhang mit der Bodenerosion in kalten Regionen ist. Tibet ist eine typische Region, die stark von Frost-Tau-Erosion betroffen ist. Traditionell wird die Methode des analytischen Hierarchieprozesses (AHP) verwendet, um das Gewicht der Faktoren bei der Bewertung der Frost-Tau-Erosion zu berechnen, aber diese Methode kann die Unschärfe und Zufälligkeit des Problems nicht genau abbilden. Um diesen Nachteil zu überwinden, wurde in dieser Studie eine verbesserte AHP-Methode basierend auf dem Wolkenmodell zur Bewertung der Einflussfaktoren auf die Frost-Tau-Erosion vorgeschlagen. Um eine verbesserte Bewertungsmethode für die Frost-Tau-Erosion in Tibet zu etablieren, wurden die folgenden sechs Faktoren ausgewählt: mittlere jährliche Lufttemperatur, mittlere jährliche Bodenoberflächentemperatur, mittlerer Jahresniederschlag, Aussehen, Vegetationsbedeckung und topographisches Relief. Das traditionelle AHP und das Cloud-Modell wurden kombiniert, um die Gewichte der Einflussfaktoren zuzuweisen, und es wurde eine Konsistenzprüfung durchgeführt. Das umfassende Bewertungsindexmodell wurde verwendet, um die Intensität der Frost-Tau-Erosion in Tibet zu bewerten. Die Ergebnisse zeigen, dass die Frost-Tau-Erosion ausgedehnt ist und sich über ungefähr 66,1% Tibets erstreckt. Darüber hinaus sind leichte Erosion und mäßige Erosion die am weitesten verbreiteten Erosionsintensitätsniveaus, die 36,4% bzw. Die Intensität der Frost-Tau-Erosion nahm allmählich von einer leichten Erosion im Nordwesten zu einer starken Erosion im Südosten der Untersuchungsregion zu. Die Auswertungsergebnisse zur Intensität und Verteilung der Frost-Tau-Erosion in Tibet wurden als mit der tatsächlichen Situation übereinstimmend bestätigt. Kurz gesagt liefert diese Studie einen neuen Ansatz zur quantitativen Bewertung der Intensität der Frost-Tau-Erosion in Tibet.;-;-;-;https://link.springer.com/article/10.1007/s11707-021-0873-1 ffb052048258937d280cbd0dde8fdd45;de;;;2.1.;;;Ein graphenbasierter Ansatz zum Erlernen semantischer Beschreibungen von Datenquellen Semantische Modelle von Datenquellen und Diensten unterstützen die Automatisierung vieler Aufgaben wie Quellenermittlung, Datenintegration und Dienstzusammenstellung, aber das manuelle Schreiben dieser semantischen Beschreibungen ist eine mühsame und zeitaufwändige Aufgabe. Die meisten verwandten Arbeiten konzentrieren sich auf die automatische Annotation mit Klassen oder Eigenschaften von Quellattributen oder Eingabe- und Ausgabeparametern. Die Konstruktion eines Quellmodells, das neben ihren semantischen Typen auch die Beziehungen zwischen den Attributen enthält, bleibt jedoch ein weitgehend ungelöstes Problem. In diesem Artikel stellen wir einen graphenbasierten Ansatz vor, um eine umfassende semantische Beschreibung einer neuen Zielquelle aus einer Reihe bekannter Quellen, die über dieselbe Domänenontologie modelliert wurden, zu hypothetisieren. Wir nutzen die Domänenontologie und die bekannten Quellmodelle, um einen Graphen zu erstellen, der den Raum plausibler Quellbeschreibungen darstellt. Dann berechnen wir den top;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41335-3_38 bddbc26e7116bef7d2b19ee48ac65cf5;de;;;2.1.;;;Paketbasierte Beschreibungslogiken – Vorläufige Ergebnisse Viele repräsentative Anwendungen im semantischen Web, einschließlich kollaborativer Ontologie-Erstellung, partieller Ontologie-Wiederverwendung, selektives Verbergen von Wissen und verteiltes Datenmanagement, erfordern modulare Ontologien. Obwohl OWL die Verwendung von owl:imports zum Verbinden mehrerer Ontologien ermöglicht, erfordert seine aktuelle Semantik jedoch, dass alle beteiligten Ontologien eine einzige globale Semantik haben, wodurch nur eine syntaktische Lösung für Modularität bereitgestellt wird. Infolgedessen besteht ein wachsendes Interesse an modularen Ontologiesprachen wie Distributed Description Logics (DDL) [7] und;-;-;-;https://link.springer.com/chapter/10.1007/11926078_72 3d0484c035c9724f199ff6d444b4e752;de;;;2.1.;;;Globale terrestrische Ökosystembeobachtungen: Warum, wo, was und wie? In diesem Kapitel werden die Fragen der Ökosystemdefinition und der Organisation eines Monitoringsystems behandelt. Es behandelt, wo und wie Ökosysteme gemessen werden sollten und die Integration zwischen In-situ- und RS-Beobachtungen. Ökosysteme zeichnen sich durch Zusammensetzung, Funktion und Struktur aus. Die Ökosystemebene ist ein wesentliches Bindeglied in der Biodiversitätsüberwachung und -überwachung zwischen Arten und Populationen einerseits und Landnutzung und Landschaften andererseits. Die Überwachung von Ökosystemen erfordert ein klares konzeptionelles Modell, das Schlüsselfaktoren, die die Ökosystemdynamik beeinflussen, einbezieht, um die zu überwachenden Variablen sowie Datenerfassungsmethoden und Statistiken zu stützen. Es müssen Entscheidungen hinsichtlich des Umfangs getroffen werden, in dem das Monitoring durchgeführt werden soll, und Ökoregionalisierung oder ökologische Schichtung sind Ansätze zur Identifizierung der zu beprobenden Einheiten. Dies kann nach Expertenmeinung erfolgen, aber heutzutage auch über Schichtungen, die aus multivariaten statistischen Clustern abgeleitet werden. Auch Daten von einzelnen Forschungsstandorten auf der ganzen Welt und aus organisch gewachsenen Netzwerken, die viele Länder umfassen, sollten einbezogen werden. Ein wichtiger Mehrwert bei den verfügbaren Monitoring-Technologien ist die Integration von In-situ- und RS-Beobachtungen, da verschiedene RS-Technologien in den Bereich der Ökosystemforschung gelangen. Für globale Anwendungen ist diese Entwicklung unabdingbar. Wir können eine Reihe von Instrumenten zur Überwachung von Ökosystemeigenschaften einsetzen, von festen Sensoren und In-situ-Messungen bis hin zu Drohnen, Flugzeugen und Satellitensensoren. Sie ermöglichen die Messung biogeochemischer Komponenten, die einen Großteil der Chemie der Umwelt und der geochemischen Regulierung von Ökosystemen bestimmen. Wichtige globale Datenbanken zu Sensordaten werden entwickelt und häufige hochauflösende RS-Szenen werden verfügbar. RS-Beobachtungen können Feldbeobachtungen ergänzen, da sie eine synoptische Ansicht und die Möglichkeit bieten, insbesondere für weit verbreitete Lebensräume konsistente Informationen in Zeit und Raum bereitzustellen. RS hat ein hohes Potenzial für die Entwicklung von Verbreitungskarten, die Erkennung von Veränderungen und die Veränderung der Habitatqualität und -zusammensetzung in verschiedenen Maßstäben. Hyperspektrale Sensoren haben die Möglichkeiten zur Unterscheidung verwandter Lebensraumtypen auf sehr feinem Maßstab erheblich verbessert. Die Endnutzer können solche Karten verwenden, um die Reichweite und Fläche von Habitaten abzuschätzen, sie könnten aber auch dazu dienen, den Stichprobenrahmen (die statistische „Population“) von Habitaten, für die Feldstichprobenerhebungen durchgeführt werden, zu definieren und zu aktualisieren. Gegenwärtige Technologien und Datenverfügbarkeit ermöglichen es uns, die Fragmentierung anhand mehrerer Metriken zu messen, die aus RS-Daten berechnet werden können. In-situ-Daten wurden in mehreren Ländern über einen längeren Zeitraum gesammelt und eignen sich für statistische Analysen, die Statistiken über Veränderungen der Artenzusammensetzung, Habitatreichtum und Habitatstruktur liefern. Es ist nun möglich, Protokolle für RS- und In-situ-Beobachtungen basierend auf Pflanzenlebensformen zu verknüpfen, zu übersetzen und direkte Verbindungen zwischen In-situ- und RS-Daten bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27288-7_2 d8e92b729ba71886619e43b75d99aa24;de;;;2.1.;;;Nordamerikanische Halophyten: Potenzielle Verwendung in der Tierhaltung Nordamerika ist reich an Halophytenpflanzen mit über 200 verschiedenen Arten, die in Küsten- und Binnenregionen vorkommen. Sie sind keine einzelne taxonomische Gruppe, sondern repräsentieren viele verschiedene Taxa und Wachstumsformen. Der Schwerpunkt hat sich vom Studium der Ökologie und Physiologie der Halophyten zu einem ernsthaften Versuch verlagert, sie in landwirtschaftlichen Systemen zu nutzen. Aus Voruntersuchungen zum Futterwert für Wiederkäuer und Geflügel liegen vielversprechende Ergebnisse vor. Zufriedenstellende Gewichtszunahmen können erzielt werden, wenn Halophyten in Mischrationen als Ersatz für konventionelleres Futter an Vieh verfüttert werden. Dieses Papier gibt einen Überblick über den aktuellen Stand der Halophyten in Nordamerika und fasst die Ergebnisse der Forschung zu Tierfütterungsversuchen zusammen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-0818-8_12 ca8e48ef6587bb1774f1f0d5ea734f5f;de;;;2.1.;;;Entwicklung automatisierter Erkennungs- und Klassifizierungsmethoden von Massen auf 3D-Brustultraschallbildern Wir haben ein CAD-System für Massen auf 3D-Brust-Ultraschallbildern entwickelt und die vorläufige Leistung mit ca. 200 Fällen abgeschätzt. Die Erkennungs- und Klassifizierungsmethoden basierten auf Kantenerkennung und aktiven Ballonmodellen, um die Massenregionen zu segmentieren. Außerdem wurde eine Volumenrendering-Technik angewendet, um die 3D-Bilder für die Leser vorzubereiten. Es zeigte als erstes Ergebnis eine gute Klassifikationsleistung. Insbesondere die Klassifikationsleistung zeigte eine gute Rate, da die im Klassifikationsschema verwendeten Fälle nach ärztlicher Meinung durch die Ultraschallbilder schwer zu unterscheiden waren, die Fallzahl jedoch zu diesem Zeitpunkt nicht so groß war.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-56168-9_133 0a433438e7afdecf72b11eefd314328f;de;;;2.1.;;;Pfeilwürmer (Chaetognatha) aus den arktischen Meeren Russlands: Fünf neue Arten der Familie Sagittidae aus der Laptewsee Sagittidae-Arten aus den arktischen Meeren Russlands und angrenzenden Gewässern sind aufgeführt. Es werden Diagnosen für die Unterklasse Sagittiones Kassatkina 2011, Ordnung Aphragmophora Tokioka 1965 und Familie Sagittidae Claus et Groben 1905 gegeben. Fünf neue Arten werden detailliert mit Differentialdiagnosen und Identifizierungsschlüsseln für die Gattungen beschrieben;-;-;-;https://link.springer.com/article/10.1134/S1062359016110078 bf5bb0eb1fdeadad4c7828249d6e2c30;de;;;2.1.;;;Die Analyse und Optimierung der Raum-Zeit-Effizienz des KNN-Algorithmus für die Kategorisierung chinesischer Texte Die Leistung jedes Algorithmus zur Textklassifizierung spiegelt sich in den Ergebnissen der Zuverlässigkeitsklassifizierung wider und der Klassifizierungsalgorithmus ist hocheffizient. Wir analysieren die Raum-Zeit-Effizienz verschiedener Stufen basierend auf dem traditionellen KNN-Algorithmusverfahren zur chinesischen Textklassifikation und stellen die Zuverlässigkeit der Klassifikation sicher. Und wir optimieren die Effizienz des Algorithmus und die Umsetzbarkeit in der praktischen Anwendung unter diesen Aspekten wie Merkmalsextraktion, Merkmalgewichtung, Ähnlichkeitsberechnung etc.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23321-0_85 96109031b8cb18cb5b97cced776fe6ab;de;;;2.1.;;;Ein neuartiges verbessertes System basierend auf CVSS CVSS ist einer der repräsentativsten quantitativen Bewertungsalgorithmen für Sicherheitslücken. Die berechneten Werte des Vulnerabilitätsschadens gemäß dem angegebenen Index und der angegebenen Formel. Die Objektivität von CVSS ist jedoch noch nicht ausreichend. Das Expertensystem ist eine Art Expertensystem für Schwachstellen, deren Schweregrad von Experten anhand des Expertensystems beurteilt werden kann. Die Objektivität von Expertensystem und CVSS wird analysiert und CVSS wird basierend auf dem Expertensystem überarbeitet. Dabei wird die Beziehung zwischen den oben genannten Systemen und dem CWE bzw. zwischen den oben genannten Systemen und dem Produkt analysiert. Basierend auf CWE wird eine neue Art der Verwendung des Expertensystems vorgeschlagen, nämlich der CWE Cycle Sorting Algorithm, um den durchschnittlichen Schweregrad der Schwachstelle zu sortieren. In der Zwischenzeit wird der CWE-Sortierfaktor basierend auf dem CWE-Zyklussortierungsalgorithmus vorgeschlagen, um CVSS zu modifizieren. Das Ergebnis ist in Bezug auf die Objektivität näher am Expertensystem.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6508-9_123 6f9c7400487c7da64e1eaf9a098e1386;de;;;2.1.;;;Probabilistische Sets in der Klassifikation und Mustererkennung Die Ergebnisse verschiedener Fuzzy-Clustering-Algorithmen werden kollektiv in einem formalen Rahmen der probabilistischen Mengenlehre behandelt, um die Struktur von Daten zu interpretieren. Besondere Aufmerksamkeit wird der Berechnung der Entropie der Fuzzy-Cluster gewidmet, die durch verschiedene Gruppierungsverfahren erfasst werden. Experimentelle Ergebnisse verschiedener Fuzzy-Clustering-Algorithmen, die auf Bilddaten angewendet werden, werden gezeigt, um die Anwendbarkeit der vorgeschlagenen Methode der Clusterbewertung zu veranschaulichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-46644-1_24 bed2cb930780f9c7aeb5bd780e395c4d;de;;;2.1.;;;Forschung zum Wissenstransfermanagement der Wissensallianz Die Wissensallianz ist für Unternehmen der neuen Ära notwendig, und der Wissenstransfer hat die Entscheidungsfindung und das Verhalten der Allianz weitgehend beeinflusst. Basierend auf der Allianzform der beiden Unternehmen führt das Papier die Spielanalyse des Wissenstransfers durch und zeigt dann durch die Analyse, wie die Wissensallianzen den Wissenstransfer managen und Managemententscheidungen treffen. In diesem Beitrag wird untersucht, wie man Wissensallianzen gut managen kann. Forschungsergebnisse, um Unternehmen durch die effektive Nutzung des externen Wissens von Unternehmensallianzen zur Verbesserung der Wettbewerbsfähigkeit zu führen, um die Allianz bei der effektiven Verwaltung des Wissenstransfers zur Förderung der Unternehmensentwicklung anzuleiten, haben einen wichtigen Anwendungswert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23321-0_22 2d95531543920bf17f1d91cd3294bb03;de;;;2.1.;;;Die Populationsbiologie von Grasendophyten Die Populationsbiologie von Gras-Endophyten unterscheidet sich aufgrund ihres Status (in erster Linie) als mutualistische Symbionten, ihrer Auswirkungen auf Organismen, die mit Wirten interagieren, und ihrer variablen horizontalen und/oder vertikalen Übertragungswege eindeutig von der anderer Pilzgruppen. Da Gras-Endophyten biotroph sind und mit ihren Wirten mehrjährige Assoziationen eingehen, ist die Populationsbiologie der Pilze eng mit der des Wirts verbunden. Während der Befall von Gräsern durch endophytische Pilze schon länger bekannt ist, wurde ihre ökologische Rolle in frühen Untersuchungen selten berücksichtigt. Die erste Studie, die explizit die Populationsbiologie von Endophyten untersuchte, war die von Bradshaw (1959) an Agrostis, die mit Epichloë typhina (Pers.) Tul infiziert war. Die meisten Forschungen wurden jedoch in den letzten 10 Jahren durchgeführt, erst nachdem die ökologischen Folgen einer Endophyteninfektion allgemein anerkannt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-60647-2_12 b24c2b77680c71a3a8ff81f1de011131;de;;;2.1.;;;Ein Fuzzy-Modell für skalierbares Vertrauen im E-Commerce Mit der rasanten Entwicklung des E-Commerce und der Ausweitung der E-Commerce-Systemskala wird skalierbares Vertrauen in den E-Commerce entscheidend. Dieser Artikel untersucht das skalierbare Vertrauen von Multiagenten-E-Commerce-Systemen (MECS) und schlägt ein Fuzzy-Modell für skalierbares Vertrauen im E-Commerce vor. Außerdem wird die Realisierung von skalierbarem Vertrauen aus ingenieurwissenschaftlicher Sicht diskutiert. Der vorgeschlagene Ansatz wird die Erforschung und Entwicklung von Vertrauen, Multiagentensystemen, E-Commerce und E-Diensten erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-85691-9_8 0d416940b7617db3eadc1917caec47a3;de;;;2.1.;;;Ein adjektivbasiertes verkörpertes Wissensnetz Als Erkenntnisse über die Verkörperung des Sprachverstehens und einige Schwierigkeiten in den bestehenden Modellen der Metaphernverarbeitung präsentiert dieser Beitrag ein adjektivbasiertes verkörpertes kognitives Netz, das das Verstehen von Wissen in einer neuartigen Sichtweise konstruiert. Anders als die traditionelle Methode, die Konzepte als Kern des Wissensverständnisses betrachtet, betrachtet dieser Beitrag die Emotionen als den Kern und die Triebkraft der Menschen, die die Welt kennen. Es wird behauptet, dass das Adjektiv in dieser Arbeit der Träger der Emotion ist, eher der Begriff. Von Natur aus kommen dem Menschen beim Erhalten einer neuen Sache zuerst die ursprünglichen Beschreibungen (normalerweise Adjektive) und dann die Konzepte in den Sinn. Somit konstruiert dieser Beitrag ein Netz basierend auf Adjektiven von konkret bis abstrakt gemäß der Ausführungsform. In diesem Wissensnetz sind Substantive als Anhang enthalten, um eine Zuordnung zwischen Adjektiven und Konzepten zu konstruieren. Speziell gibt dieser Artikel dem Adjektiv die verkörperte Emotion, um in der zukünftigen Arbeit die Emotionsinferenz und Metapher-Emotionsanalyse zu behandeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45924-9_5 63d9c56fda484fcc7774288a0a38a8bd;de;;;2.1.;;;Ein hybrider Fuzzy-GJR-GARCH-Modellierungsansatz für die Prognose der Aktienmarktvolatilität Die genaue Messung und Prognose der Aktienmarktvolatilität spielt eine entscheidende Rolle für die Preisgestaltung von Vermögenswerten und Derivaten, Hedge-Strategien, Portfolio-Allokation und Risikomanagement. Seit dem Börsencrash 1987 haben Wissenschaftler, Praktiker und Aufsichtsbehörden die Entwicklung von Finanzzeitreihenmodellen mit sich ändernder Varianz im Laufe der Zeit untersucht, um riesige Anlageverluste aufgrund ihrer Exposition gegenüber unerwarteten Marktbewegungen zu vermeiden (Allen und Morzuch, 2006, Carvalho et al., 2005, Lin et al., 2012). Tatsächlich ist die Volatilität als Maß für die Schwankung der Preise von Finanztiteln um ihren erwarteten Wert einer der wichtigsten Faktoren bei Entscheidungsprozessen unter Unsicherheit, was ihr wachsendes Interesse an der Finanz- und Wirtschaftsliteratur rechtfertigt (Kapetanios et al., 2006, Lux and Kaizoji, 2007).;-;-;-;https://link.springer.com/chapter/10.1057/9781137025098_11 f3d6bf2f887eea53e2eaeba9376b369b;de;;;2.1.;;;Eine partielle Taxonomie von Urteilsaggregationsregeln und ihren Eigenschaften Die Literatur zur Urteilsaggregation bewegt sich von der Untersuchung von Unmöglichkeitsergebnissen in Bezug auf Aggregationsregeln hin zur Untersuchung spezifischer Urteilsaggregationsregeln. Hier geben wir eine strukturierte Liste der meisten Regeln, die kürzlich in der Literatur vorgeschlagen und untersucht wurden, zusammen mit verschiedenen Eigenschaften solcher Regeln. Wir konzentrieren uns zunächst auf die Mehrheitserhaltungseigenschaft, die die Condorcet-Konsistenz verallgemeinert, und identifizieren, welche der Regeln sie erfüllen. Wir untersuchen die Inklusionsbeziehungen, die zwischen den Regeln bestehen. Schließlich betrachten wir zwei Formen der Einstimmigkeit, Monotonie, Homogenität und Verstärkung, und identifizieren, welche der Regeln diese Eigenschaften erfüllen.;-;-;-;https://link.springer.com/article/10.1007/s00355-016-1006-8 44eaa9413a7d80d0dd5261f25bcf557d;de;;;2.1.;;;Ein musterbasierter Darstellungsansatz für Online-Diskurse Die Online-Navigation ist eine der häufigsten täglichen Erfahrungen in den Forschungsgemeinschaften. Obwohl Forscher immer mehr von der Entwicklung von Web-Technologien profitieren könnten, sind die meisten Online-Diskurse heute noch elektronische Faksimiles traditioneller linear strukturierter Artikel. In diesem Beitrag schlagen wir einen musterbasierten Darstellungsansatz vor, um dem Leser eine weitere effiziente Möglichkeit zu bieten, direkt in wünschenswerte Wissenseinheiten zu gelangen, ohne von zusätzlichen Detailinformationen überwältigt zu werden. Unser oberstes Ziel ist es, ein neues Format des Lesens und der Online-Suche für wissenschaftliche Diskurse zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13577-4_33 c2f5f1a685a1e8b880df42d2f9483f91;de;;;2.1.;;;Genfunktionsvorhersage und funktionelles Netzwerk: Die Rolle der Genontologie Fast jeder zelluläre Prozess erfordert die Interaktion von Paaren oder größeren Proteinkomplexen. Die Organisation von Genen in Netzwerken hat eine wichtige Rolle bei der Charakterisierung der Funktionen einzelner Gene und des Zusammenspiels verschiedener zellulärer Prozesse gespielt. Das Projekt Gene Ontology (GO) hat Informationen aus mehreren Datenquellen integriert, um Gene zu bestimmten biologischen Prozessen zu kommentieren. Vor kurzem wurde die semantische Ähnlichkeit (SS) zwischen GO-Begriffen untersucht und verwendet, um eine semantische Ähnlichkeit zwischen Genen abzuleiten. Diese semantische Ähnlichkeit bietet uns eine neue Perspektive, Proteinfunktionen vorherzusagen und funktionelle Gennetzwerke zu generieren. In diesem Kapitel konzentrieren wir uns auf die Untersuchung der semantischen Ähnlichkeit zwischen Genen und ihren Anwendungen. Wir haben eine neue Methode vorgeschlagen, um die Unterstützung von PPI-Daten basierend auf genontologischen Informationen zu bewerten. Wenn die semantische Ähnlichkeit zwischen Genen unter Verwendung von Genontologieinformationen und der Resniks-Formel berechnet wird, zeigen unsere Ergebnisse, dass wir die PPI-Daten als Mischungsmodell modellieren können, das auf der Annahme basiert, dass echte Protein-Protein-Interaktionen eine höhere Unterstützung haben als die falsch positiven Ergebnisse in den Daten. Somit dient die semantische Ähnlichkeit zwischen den Genen als Maß für die Unterstützung von PPI-Daten. Um einen Schritt weiter zu gehen, werden auch neue Ansätze zur Funktionsvorhersage mit Hilfe der vorgeschlagenen Metrik der Unterstützung der PPI-Daten vorgeschlagen. Diese neuen Ansätze zur Funktionsvorhersage übertreffen ihre herkömmlichen Gegenstücke. Außerdem werden neue Bewertungsmethoden vorgeschlagen. In einer anderen Anwendung präsentieren wir einen neuen Ansatz zur automatischen Generierung eines funktionellen Netzwerks von Hefegenen unter Verwendung von Gene Ontology (GO)-Annotationen. Zwischen Genpaaren wird eine semantische Ähnlichkeit (SS) berechnet. Dieser SS-Score wird dann verwendet, um Verknüpfungen zwischen Genen vorherzusagen, um ein funktionelles Netzwerk zu erzeugen. Funktionelle Netzwerke, die durch SS und andere Verfahren vorhergesagt werden, werden verglichen. Das durch SS-Scores vorhergesagte Netzwerk übertrifft diejenigen, die durch andere Methoden generiert wurden, in den folgenden Aspekten: automatische Entfernung eines funktionalen Bias in Netzwerk-Trainingsreferenzsätzen, verbesserte Präzision und Erinnerung im Netzwerk und höhere Korrelation zwischen der Letalität und Zentralität eines Gens im Netzwerk. Wir veranschaulichen, dass das resultierende Netzwerk verwendet werden kann, um kohärente Funktionsbausteine ​​und deren Assoziationen zu generieren. Wir schließen daraus, dass die Bestimmung der semantischen Ähnlichkeit zwischen Genen auf der Grundlage von GO-Informationen verwendet werden kann, um ein funktionelles Netzwerk von Hefegenen zu generieren, das vergleichbar oder verbessert in Bezug auf diejenigen ist, die direkt auf integrierten heterogenen genomischen und proteomischen Daten basieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23151-3_7 7f1e1e57f113df4090ed0b440914f136;de;;;2.1.;;;Die plätschernde Dynamik werthaltiger Nachrichten im naturalistischen Jugendchat Auch wenn menschliches Verhalten weitgehend durch Echtzeit-Feedback von anderen bestimmt wird, ist diese soziale Komplexität in der psychologischen Theorie unterrepräsentiert, vor allem weil sie so schwer zu isolieren ist. In dieser Arbeit haben wir eine quasi-experimentelle Analyse von Hunderten Millionen von Chatroom-Nachrichten zwischen jungen Menschen durchgeführt. Dadurch konnten wir rekonstruieren, wie – und auf welcher Zeitachse – die Wertigkeit einer Nachricht die Wertigkeit der nachfolgenden Nachrichten anderer beeinflusst. Bei den Chatnachrichten mit hoher emotionaler Wertigkeit, auf die wir uns konzentrierten, stellten wir fest, dass diese Nachrichten eine allgemeine Zunahme von 0,1 bis 0,4 Nachrichten pro Minute hervorriefen. Dieser Einfluss begann 2 s nach der ursprünglichen Nachricht und dauerte 60 s. Wir erweiterten unseren Fokus auf Feedbackschleifen – die Art und Weise, wie der Chat eines Sprechers zurückkehrt, um ihn oder sie zu beeinflussen – und stellten fest, dass die stimulierenden Effekte derselben Chat-Ereignisse 8 s nach der ursprünglichen Nachricht von anderen zurückfielen, um eine Zunahme der Sprecher-Chat, der bis zu 8 Minuten andauerte. Dieses Feedback machte mindestens 1% des Großteils des Chats aus. Darüber hinaus beeinflusst die Wertigkeit einer Nachricht ihre Dynamik, wobei negative Ereignisse langsamer zurückfließen und den Sprecher länger beeinflussen. Indem wir die sekundenschnelle Dynamik vieler psychosozialer Prozesse insgesamt rekonstruierten, erfassten wir die Zeitskalen, in denen sie kollektiv durch ein soziales System fließen, um Ergebnisse auf Systemebene zu erzielen.;-;-;-;https://link.springer.com/article/10.3758/s13428-018-1140-6 08ee87d6dc8413885ca0c10afcd2cac4;de;;;2.1.;;;Ein Merkmalsauswahlverfahren unter Verwendung eines Fuzzy-Maß für gegenseitige Information Der Versuch, einen Klassifikator oder ein Modell aus Datensätzen zu erhalten, kann eine mühsame Aufgabe sein, insbesondere bei Datensätzen mit hochdimensionalen Datensätzen. Je größer die Menge an Merkmalen ist, desto komplexer ist das Problem und desto länger dauert die Generierung des Ergebnisses – des Klassifikators oder des Modells –. Die Merkmalsauswahl hat sich als eine gute Technik zum Eliminieren von Merkmalen erwiesen, die keine Informationen des Systems hinzufügen. Es gibt verschiedene Ansätze zur Merkmalsauswahl, aber bis zu unserem Wissen gibt es nicht viele verschiedene Ansätze, wenn Merkmalsauswahl mit ungenauen Daten und genetischen Fuzzy-Systemen involviert ist. In diesem Beitrag wird ein Merkmalsauswahlverfahren basierend auf den Fuzzy-Mutual-Informationen vorgeschlagen. Die skizzierte Methode ist sowohl für die Klassifikation von Problemen bei gegebener Expertise-Partitionierung gültig, als auch die Grundlage für zukünftige Arbeiten einschließlich der Verwendung der bei ungenauen Daten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74972-1_9 f830dab94bfc8d28fcdb1292dc93adbe;de;;;2.1.;;;Semantische Integration zur Identifizierung überlappender Funktionsmodule in Proteininteraktionsnetzwerken Die systematische Analyse von Protein-Protein-Wechselwirkungen kann ein besseres Verständnis der zellulären Organisation, Prozesse und Funktionen ermöglichen. Funktionelle Module können aus den Proteininteraktionsnetzwerken identifiziert werden, die aus experimentellen Datensätzen abgeleitet wurden. Diese Analysen sind jedoch aufgrund des Vorhandenseins unzuverlässiger Interaktionen und der komplexen Konnektivität des Netzwerks eine Herausforderung. Die Integration von Protein-Protein-Interaktionen mit den Daten aus anderen Quellen kann zur Verbesserung der Effektivität von Erkennungsalgorithmen funktioneller Module genutzt werden.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-8-265 cc03e1b84f02e6aee3dbc12a515c8376;de;;;2.1.;;;Vergleich der Ähnlichkeit von Konzepten, die durch zeitliche Muster von Begriffen in biomedizinischen Forschungsdokumenten identifiziert wurden In diesem Beitrag präsentieren wir eine Analyse einer Beziehung zwischen zeitlichen Trends automatisch extrahierter Begriffe in medizinischen Forschungsdokumenten und ihren Ähnlichkeiten in einem strukturierten Vokabular. Um die zeitlichen Trends zu erhalten, haben wir unsere Methode zur Extraktion von zeitlichen Mustern verwendet, die eine automatische Termextraktion, einen Wichtigkeitsindex der Terme und Clustering für die Werte in jeder Periode kombiniert. Durch die Verwendung einer Reihe von medizinischen Forschungsdokumenten, die jedes Jahr veröffentlicht wurden, extrahierten wir zeitliche Muster der automatisch extrahierten Begriffe. Dann haben wir ihre Ähnlichkeiten in der medizinischen Taxonomie berechnet, indem wir einen Abstand in der Baumstruktur definiert haben. Um die Beziehung zwischen den in den Mustern enthaltenen Begriffen und der Ähnlichkeit der Begriffe in der Taxonomie zu analysieren, werden die Unterschiede der gemittelten Ähnlichkeiten der Begriffe in jedem Muster zwischen den beiden Trends der zeitlichen Muster verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31900-6_30 82afbe4aeb1d9d3ab34f172d5dcdf78a;de;;;2.1.;;;Anreicherung von Wissensfragmenten mithilfe der Domänen-Wissensdatenbank Die Anreicherung von Wissensfragmenten zielt darauf ab, Benutzereingabekonzeptfragmente zu vervollständigen, indem jedes Konzept mit umfangreichen Domäneninformationen erweitert wird. Dies ist ein in der Kognitionswissenschaft umfassend untersuchtes Problem, wurde jedoch in der Informatik nicht intensiv untersucht. In diesem Papier definieren wir das Problem der Anreicherung von Wissensfragmenten in der Domänenwissensbasis formal und entwickeln ein probabilistisches grafisches Modell, um das Problem anzugehen. Das vorgeschlagene Modell ist in der Lage, die Abhängigkeiten zwischen Konzepten im Eingabe-Wissensfragment zu modellieren und auch die probabilistische Beziehung zwischen Konzepten und Domänenentitäten zu erfassen. Wir evaluieren das vorgeschlagene Modell empirisch anhand von zwei verschiedenen Arten von Datensätzen: PubMed und NSFC. Bei beiden Datensätzen verbessert das vorgeschlagene Modell die Genauigkeit der Markierungsvorhersageaufgabe um bis zu 3–9 % (in Bezug auf MAP) im Vergleich zu mehreren alternativen Anreicherungsmethoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-2993-6_24 a4cf4e3c9ba08ecfb400b3f9afc55ac2;de;;;2.1.;;;Eine dynamische Zeitstempel-Diskrepanz gegen Replay-Angriffe in MANET Mobile Ad-hoc-Netzwerke (MANETs) sind wie herkömmliche Netzwerke anfällig für eine Vielzahl von Denial-of-Service-Angriffen (DoS). Ein Replay-Angriff ist einer davon, der die MANET-Leistung stark beeinträchtigt. Ein Replay-Angreifer führt diesen Angriff durch Abfangen und erneute Übertragung der gültigen signierten Nachrichten durch. Die Validierung von signierten Nachrichten wird durch eine Zeitstempel-Diskrepanz verifiziert, die von Sender- und Empfängerknoten festgelegt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25483-3_40 2ff8da54c46c6def4dd8663b1b387708;de;;;2.1.;;;Die Preisbildung riskanter Wertpapiere in einem Fuzzy-Least-Square-Regressionsmodell Ziel dieser Arbeit ist es, den Zusammenhang zwischen der erwarteten Rendite einer Geldanlage und ihrem Risiko mittels einer Fuzzy-Version des Capital Asset Pricing Model (CAPM) abzuschätzen. Die erwartete Rendite wird normalerweise als Funktion sowohl des Zinssatzes eines risikofreien Wertpapiers, der den Zeitwert des Geldes darstellt, als auch einer Prämie berechnet, die Anleger für die Übernahme eines zusätzlichen Marktrisikos entschädigt. Tatsächlich schätzen wir die Parameter eines einfachen Regressionsmodells, bei dem die abhängige Variable aus der prozentualen Preisänderung einer untersuchten (stabilen oder volatilen) Aktie besteht und die unabhängige Variable aus der prozentualen Änderung der Marktindizes besteht. Da beide Schlusskursänderungen die tatsächliche Renditeentwicklung nur teilweise widerspiegeln, verwenden wir für jeden Preis eine Spanne von beobachteten Werten, die es uns ermöglicht, die Risikosensitivität der Aktie mittels der sogenannten Fuzzy Least Square Regression abzuschätzen. Die entsprechenden Schätzungen werden mit denen der Ordinary Least Square Regression verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10745-0_70 dbd68c23635cd9709204a7fe13d7c23f;de;;;2.1.;;;Datenzugriff in heterogenen Datenquellen mithilfe einer objektrelationalen Datenbank Die Datenbeschaffung oder -integration ist im aktuellen Geschäftsszenario unvermeidlich. Hauptprobleme bei der Datenbeschaffung aus heterogenen Datenquellen sind mangelnde semantische Reichhaltigkeit und eingeschränkte Abfragen. Um diese Probleme zu überwinden, wurde eine ontologiebasierte Datenföderation unter Verwendung einer objektrelationalen Datenbankarchitektur (OBDF-ORDB) vorgeschlagen und implementiert. Diese OBDF-ORDB-Architektur besteht aus einer semantischen Schicht und einer Transformations- und Abfrageschicht. In der semantischen Schicht die Ontologie, die verwendet wird, um ein lokales und globales Schema zu erstellen, um die Semantik zu bereichern. In der Transformations- und Abfrageschicht wird die Object Relational Database (ORDB) zum Speichern der lokalen Ontologie und der globalen Ontologie verwendet, um die Speicherung, Wartung und den Abruf zu verbessern. Die für die Architektur vorgeschlagene Transformationsregel-Engine konvertiert und speichert die lokale Ontologie und die globale Ontologie aus einer flachen OWL-Datei in ORDB. Die Benutzeranfragen werden zur Ergebnisextraktion an ORDB übergeben. Um die Leistung der OBDF-ORDB-Architektur zu analysieren, wird die E-Shopping-Anwendung ausgewählt. Experimentelle Ergebnisse zeigen, dass die vorgeschlagene OBDF-ORDB-Architektur in Bezug auf Rückruf- und Antwortzeit relativ besser ist als der traditionelle Datenzugriff und der ontologiebasierte Datenzugriff. Es wurde beobachtet, dass der Rückrufmechanismus in der OBDF-ORDB-Architektur im Vergleich zur herkömmlichen Datenföderation um 25 % verbessert wurde und die Reaktionszeit im Vergleich zur ontologiebasierten Datenföderation um 15 % reduziert wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7635-0_3 12f1945e004c9626dad284f3b26153b0;de;;;2.1.;;;Verwendung des Granulationskonzepts von Zadeh: Granulare Logiken und ihre Anwendung auf die Sensordatenanalyse Die Hauptkomponenten von Zadehs wissenschaftlichem Beitrag werden gezeigt. Insbesondere seine Theorie der Informationsgranulation wird im Kontext des Sensor Data Mining betrachtet. Das Konzept der Granula und granulare Strukturen werden vorgestellt, ein mereologischer Ansatz zur Generierung von Granula wird entwickelt, einige Möglichkeiten zur Konstruktion und Verwendung von Granula in mehrwertigen Logiken werden gezeigt. Grundideen des Granular Computing werden diskutiert. Hier wird die Problematik des Sensor Data Mining aus der Sicht des Granular Computing betrachtet. Der Begriff der logischen Pragmatik wird geklärt. Die Untersuchung mathematischer Strukturen für die datenpragmatische Analyse ist verbunden mit der Interpretation mehrwertiger Logiken und Doppelgitter als Techniken der formalen Pragmatik. Das Konzept des Belnap-Sensors wird vorgeschlagen, die Kombinationen der Belnap-Sensoren werden diskutiert. Logisch-algebraische Modelle der Kommunikation zwischen zwei Sensoren werden auf Basis von Doppelgittern konstruiert. Als Ergebnis wird die Karte zum Umgang mit unterschiedlichen Sensordateninkonsistenzen vorgestellt und ein Algorithmus zur Fehlerbeseitigung in Sensornetzwerken vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06323-2_29 81f6549173c01c313003c9f2e6128b45;de;;;2.1.;;;In Abwesenheit des Gesichts Das Hauptanliegen des letzten Kapitels war es, die substanziellen Beweise für die Umwandlung des Körpers in eine stellvertretende Repräsentation des territorialen Gemeinwesens zu markieren, das er zu vertreten gezwungen ist. Ich habe auf dieser erzwungenen Mutation von bestanden;-;-;-;https://link.springer.com/chapter/10.1057/9781137264138_3 3e602e6c572c83321dd2be281ba5082d;de;;;2.1.;;;Funktionstest, Strukturtest und Codelesen: Welche Fehlerarten erkennen sie jeweils? Ausgangspunkt der hier beschriebenen Studie ist das von Basili und Selby durchgeführte Experiment, das von Kamsties und Lott weiter repliziert wurde und noch einmal von Wood et al. Diese Experimente untersuchten die Effektivität und Effizienz verschiedener Code-Evaluierungstechniken (funktionales und strukturelles Testen und Code-Lesen). Die Arbeitshypothesen sind in allen drei Experimenten gleich, obwohl einige experimentelle Bedingungen geändert wurden. Die hier beschriebenen Experimente verwenden das von Kamsties und Lott ausgearbeitete Experimentierpaket und untersuchen einige der Fragen, die sich aus diesen Experimenten ergeben. Holzet al. schlossen in ihrer Replikation der ursprünglichen Studie, dass die relative Wirksamkeit der Techniken vom Programm und der Fehlerart abhängt. Tatsächlich schlagen sie vor, eine Fehlertaxonomie basierend auf der Sensitivität der Technik zu formulieren. Unsere Studie beabsichtigt, die relative Wirksamkeit der Testverfahren zu vergleichen und die Testverfahren auf Fehlerarten zu beziehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45143-3_12 49d31b61386aa4c9f4ac7bd9b8f43a42;de;;;2.1.;;;Eine Übersicht über den Lastausgleich im Grid-Computing Obwohl im Bereich des Lastausgleichs intensive Arbeit geleistet wurde, unterscheidet sich die Grid-Computing-Umgebung von den traditionellen parallelen Systemen, was verhindert, dass bestehende Lastausgleichsschemata großen parallelen Anwendungen zugute kommen. Dieses Whitepaper bietet einen Überblick über die bestehenden Lösungen und neuen Bemühungen im Load-Balancing, um die neuen Herausforderungen im Grid-Computing anzugehen. Wir klassifizieren die untersuchten Ansätze in drei Kategorien: ressourcenbewusste Aufteilung, teilbare Lasttheorie und prognosebasierte Schemata.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30497-5_44 449fbcda71b60b3822d659f262291488;de;;;2.1.;;;Les Eriocaulaceae et leurs Habitate dans les Savanes africaines Die Eriocaulaceae besiedeln den sumpfigen Lebensraum in niedrigen Kräutersavannen auf Sand, Laterit, Steinplatten und Felsvorsprüngen sowie in Flussbetten. Obwohl die Eriocaulaceae im Allgemeinen von der atlantischen Savanne bis zu den östlichen Hügeln vorkommen, hängt die spezifische Vielfalt der Eriocaulaceae vom Substrat und der Höhenlage ab. Das eingeschränkte Gebiet der Eriocaulaceae-Taxa kann sie als Indikatoren für phytosoziologische Studien in diesen Lebensräumen geeignet machen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-0285-5_27 c4a50bf6b912c2a4f750c6502abcd3ec;de;;;2.1.;;;Geführte semantische Annotation von Comic-Panels mit Sewelis UTILIS (Updating Through Interaction in Logical Information Systems), das in einer Forschungsarbeit bei EKAW’12 vorgestellt wurde, ist ein interaktiver Prozess, der Benutzern hilft, neue Objekte in einem RDF-Graphen zu erstellen. Beim Erstellen eines neuen Objekts werden Relaxationsregeln auf seine aktuelle Beschreibung angewendet, um ähnliche Objekte zu finden, deren Eigenschaften als Vorschläge zur Erweiterung der Beschreibung dienen. UTILIS ist in Sewelis implementiert, einem System, das die Aussagekraft von Abfragesprachen (z. B. SPARQL) mit den Vorteilen der explorativen Suche bei der Facettensuche in Einklang bringt. Dieselben Interaktionsprinzipien werden sowohl für die Exploration als auch für die Erstellung semantischer Daten verwendet. Wir veranschaulichen den UTILIS-Ansatz, indem wir Sewelis auf die semantische Annotation von Comic-Panels anwenden und den Datensatz wiederverwenden, der für eine Benutzerbewertung verwendet wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33876-2_40 8186cea9ab2bebeef2ecf2241628a318;de;;;2.1.;;;Stärkung neuronaler Netze in realen Anwendungen: Eine empirische Studie Boosting-Techniken ermöglichen die Kombination einer Sammlung von sequentiell trainierten neuronalen Netzen zu einem Ensemble, dessen Klassifikationsleistung jedem der einzelnen neuronalen Netze überlegen ist. Empirische Studien zur Leistung der Verstärkung neuronaler Netze bei der optischen Zeichenerkennung haben signifikante Verbesserungen bei der Klassifikation gezeigt. In diesem Beitrag berichten wir über eine empirische Studie zur Stärkung neuronaler Netze zur Klassifizierung von Geschäftsdaten aus realen Datenbanken. Diese Daten enthalten oft Rauschen und subjektive oder sogar widersprüchliche Klassifizierungen. Daher ist die Klassifizierung solcher Geschäftsdaten in praktischen Anwendungen ein schwieriges Problem. In dieser empirischen Studie wurden zwei Boosting-Algorithmen getestet. Die experimentellen Ergebnisse haben gezeigt, dass die Verstärkung neuronaler Netze tatsächlich die Klassifikationsleistung verbessert. Mit einem Datensatz haben wir das bisher beste Klassifikationsergebnis erzielt, das mit neuronalen Netzen aus einzelnen und Komitees noch nie erreicht wurde.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-63797-4_85 809733d0adab42a556d4b7edf6acf7e3;de;;;2.1.;;;Eine adaptive standortübergreifende Nutzermodellierungsplattform für Websites zum Kulturerbe In diesem Artikel wird eine adaptive standortübergreifende Benutzermodellierungsplattform für Websites zum Kulturerbe erörtert. Ziel ist es, das Gesamtdesign dieser Plattform vorzustellen, das Techniken zum Informationsaustausch ermöglicht, die anschließend von Websites verwendet werden können, um Benutzern, die dies wünschen, maßgeschneiderte Personalisierung bereitzustellen. Der Informationsaustausch wird durch die Implementierung eines Drittanbieter-Benutzermodellanbieters erreicht, der durch die Verwendung einer API eine Schnittstelle zu kundenspezifischen Modulerweiterungen von Websites basierend auf dem webbasierten Content Management System (WCMS) Drupal bietet. Der Ansatz ist nicht aufdringlich, behindert das Surferlebnis des Benutzers nicht und hat nur begrenzte Auswirkungen auf die Kernaspekte der Websites, die ihn integrieren. Das Design der API gewährleistet die Privatsphäre des Benutzers, indem persönliche Browserinformationen nicht an nicht authentifizierte Benutzer weitergegeben werden. Der Nutzer kann den standortübergreifenden Dienst jederzeit aktivieren/deaktivieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-68130-6_11 841e388050d72715eb650b7861d447c0;de;;;2.1.;;;Molekulare Marker in der Reissystematik und der Bewertung genetischer Ressourcen Kultivierte Reissorten sind das Ergebnis mehrerer Jahrtausende menschlicher Selektion aus der verfügbaren genetischen Vielfalt, in verschiedenen natürlichen Umgebungen und menschlichen Kulturen. Der Prozess des Sammelns von Sorten unterschiedlicher geographischer Herkunft, deren Anpflanzung auf demselben Feld und die Auswahl bestimmter Genotypen unter den Nachkommen der natürlichen Hybridisierung kann noch in traditionellen Gesellschaften beobachtet werden und dauert zweifellos seit frühester Zeit an. Die moderne Züchtung im letzten Jahrhundert hat kaum mehr getan, als den Prozess der Hybridisierung und Selektion effizienter zu kontrollieren, und das Ergebnis war, Sorten an besser kontrollierte und gedüngte Umgebungen anzupassen. Der grundlegende Ansatz besteht darin, Eltern mit komplementären Charakteren auszuwählen, um sie zu kombinieren. Dabei werden auch unerwartete (transgressive) Zeichen erhalten. Die Beurteilung des Keimplasmas ist im Allgemeinen eine Frage des Screenings auf nützliche Merkmale, obwohl das Verständnis der genetischen Struktur genetischer Ressourcen einen Hinweis geben kann, um transgressive Merkmale zu erhalten (Second und Charrier 1989).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83986-3_31 0866d5572d02e125dc0c580361728066;de;;;2.1.;;;Ein Ambient-Agent-Modell, das Workflow-basiertes Denken nutzt, um den Aufgabenfortschritt zu erkennen Damit ein umgebungsintelligenter Agent einen Menschen bei anspruchsvollen Aufgaben unterstützen kann, ist es wichtig, sich der Fortschritte in einem bestimmten Workflow bewusst zu sein. Es wäre möglich, diesbezüglich mit dem Menschen zu interagieren, aber dies kann die Aufgabenausführung stören. In diesem Beitrag wird ein Umgebungsagentenmodell vorgestellt, das in der Lage ist, ein solches Bewusstsein für den Fortschritt des Menschen in einem Arbeitsablauf zu erhalten, indem eine modellbasierte Analyse unter Verwendung verfügbarer Arbeitsablaufmodelle und verfügbarer Beobachtungsinformationen durchgeführt wird. Simulationsexperimente für das vorgestellte Ambient-Agent-Modell für eine Fallstudie werden diskutiert und durch automatisierte formale Verifikation ausgewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89617-3_15 45241913bdcaeddbd825fff8e8321e20;de;;;2.1.;;;Entwicklung von Software-Produktlinien basierend auf Wiederverwendbarkeit auf Subdomain-Ebene Wiederverwendbarkeit ist heute ein hochgeschätztes Attribut im Bereich Software Engineering. Insbesondere die Entwicklung von Software-Produktlinien (SPL) konzentriert sich auf die Identifizierung von Ähnlichkeiten und Variabilitäten innerhalb bestimmter Domänen, um sie bei der Entwicklung neuer Produkte wiederzuverwenden. Auch eine Wiederverwendung außerhalb einer Domain ist möglich, insbesondere wenn die Domains miteinander verwandt sind. Diese Tatsache ermöglicht es uns, SPLs zu entwickeln, indem wir Assets wiederverwenden, die hierarchisch als Domain-/Subdomain-Taxonomien strukturiert sind. In diesem Papier beschreiben wir den Prozess zur Entwicklung neuer SPLs durch die Wiederverwendung der am besten geeigneten Vermögenswerte. Wir veranschaulichen den Prozess für einen Fall und zeigen Ähnlichkeitsberechnungen, die eine systematische Wiederverwendung erleichtern könnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-48325-8_12 e6d2d104efeedc80437e0d8f7c56156d;de;;;2.1.;;;Flora und Bodenvegetation an den Tiefen des Mittelmeers Für zehn Tiefseeufer im Mittelmeer (Ägäis, Tunesische Meerenge und Malteserstraße) wurden 177 Algenarten und 1 Seegras identifiziert, wobei Rotalgen mehr als die Hälfte davon ausmachen. Die Bodenvegetation umfasst keine Arten von Gemeinschaften, die Tiefen von 20 bis 115 m einnehmen und eine polydominante, mosaikartige, mehrschichtige Struktur aufweisen. Die Algenflora der Ufer ist gemäßigt bis warm, während die Hälfte der Arten sowohl im Mittelmeer als auch im Schwarzen Meer verbreitet ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4796-5_28 d4e09c032cd33251e6367992f45eddcb;de;;;2.1.;;;Kartierung von Netzwerken und Bäumen mit multidimensionaler Skalierung von Proximitäten Die Netzwerkmethodik hat typischerweise zwei separate Phasen: (1) Erstellen eines Graphen aus relationalen Daten und (2) Zeichnen des Graphen auf einer Karte, um seine Struktur zu verstehen. Multidimensional Scaling (MDS) wird als entfernungsgesteuertes Verfahren zum Zeichnen von Graphen diskutiert. Es wird gezeigt, dass gängige Zeichenmethoden in der Informatik, die die potentielle Energie von a;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2700-5_24 e51ff9734192cbc58cfe96c29ae603d6;de;;;2.1.;;;Zwei neue Graphkernel und Anwendungen für die Chemoinformatik Die Chemoinformatik ist ein etabliertes Forschungsgebiet, das sich mit der Entdeckung der Eigenschaften von Molekülen durch Informationstechniken beschäftigt. Die Forschungsfelder der Informatik, die hauptsächlich von der Chemoinformatik betroffen sind, sind das maschinelle Lernen und die Graphentheorie. Aus dieser Sicht bieten Graphkernel ein schönes Framework, das Techniken des maschinellen Lernens mit der Graphentheorie kombiniert. Solche Kerne beweisen ihre Leistungsfähigkeit bei mehreren chemoinformatischen Problemen. In diesem Artikel werden zwei neue Graphkernel vorgestellt, die auf Regressions- und Klassifikationsprobleme im Bereich der Chemoinformatik angewendet werden. Der erste Kernel basiert auf dem Konzept der Edit-Distanz, während der zweite auf der Aufzählung von Unterbäumen basiert. Mehrere Experimente zeigen die Komplementarität beider Ansätze.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20844-7_12 32f1b22093de7c44d3983948fb85dbbe;de;;;2.1.;;;Eine neue Anwendung von Multiwavelets: Unterscheidung von taxonomischen Gruppen von Meeresalgen mit Emissions-Anregungs-Matrix-Fluoreszenz Die 3D-Fluoreszenzunterscheidung von Phytoplanktonklassen wurde durch SA4-Multiwavelet-, GHM-Multiwavelet- und Coifman-2(coif2)-Wavelet-Analyse untersucht. Zu 35 Gattungen von 7 großen Phytoplankton-Divisionen im Küstenbereich des Chinesischen Meeres gehörend, wurden Einzelartenkulturen von 51 Phytoplanktonarten verwendet. Der zweite Skalenvektor (Ca2) von SA4, Ca2 von GHM und der dritte Skalenvektor (Ca3) von coif2 wurden als Merkmalsspektren durch Bayessche Diskriminationsanalyse (BDA) ausgewählt. Die Referenzspektren wurden über hierarchische Clusteranalyse (HCA) erhalten. Mit durchschnittlich hohen korrekten Diskriminierungsverhältnissen (CDRs) waren die Referenzspektren repräsentativ für Phytoplanktonarten. Bei Einzelalgenproben betrugen die durchschnittlichen CDRs 95,6 % auf Gattungsebene und 86,7 % auf Abteilungsebene. Für die gemischten Laborproben betrugen die durchschnittlichen CDRs (eine Abteilung machte 25 %, 75 % oder 100 % der Gesamtbiomasse aus) 86,6 %, 91,4 % und 100 % auf Abteilungsebene. Darüber hinaus betrugen die durchschnittlichen CDRs der dominanten Arten (die 75% ausmachten) auf Gattungsebene 79,8%. Die Ergebnisse der In-situ-Proben stimmten mit den mikroskopischen auf Abteilungsebene überein, mit relativen Gehalten von 54,3%–96,5%. Die fluorometrische Unterscheidungstechnik wurde kürzlich während der Kreuzfahrt im Bohai-Meer weiter getestet.;-;-;-;https://link.springer.com/article/10.1007/s11426-012-4754-z 1ec56b914a1a6b4d81da638411271593;de;;;2.1.;;;Teilüberwachte Klassifizierung mit baumbasierten selbstorganisierenden Karten Dieses Papier stellt einen Klassifikator vor, der ein baumbasiertes neuronales Netzwerk (NN) verwendet und sowohl unbeschriftete als auch beschriftete Instanzen verwendet. Zunächst lernen wir unüberwacht die Struktur der Datenverteilung. Nach der Konvergenz und sobald gekennzeichnete Daten verfügbar sind, markiert unsere Strategie jeden der Cluster entsprechend den von den Instanzen bereitgestellten Beweisen. Im Gegensatz zu anderen nachbarschaftsbasierten Schemata verwendet unser Klassifikator nur eine kleine Menge von Repräsentanten, deren Kardinalität viel kleiner sein kann als die der Eingabemenge. Unsere Experimente zeigen, dass die Genauigkeit eines solchen Klassifikators im Durchschnitt einigermaßen mit denen vergleichbar ist, die von einigen der hochmodernen Klassifikationsschemata erhalten werden, die nur gekennzeichnete Instanzen während der Trainingsphase verwenden. Die Experimente zeigen auch, dass durch das Auferlegen von Bäumen mit einer größeren Anzahl von Knoten eine verbesserte Genauigkeit erreicht werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25832-9_3 8981a68f24ef73c046ed1f79ae45ee06;de;;;2.1.;;;Biotische Homogenisierung und Differenzierung von Bodenlebensgemeinschaften in der Produktionswaldlandschaft: taxonomische und funktionale Perspektiven Biotische Homogenisierung wurde weltweit berichtet. Obwohl die Vereinfachung von Gemeinschaften im Weltraum oft in größeren Maßstäben von Bedeutung ist, könnte sie auch auf lokaler Ebene durch veränderte biotische Interaktionen erfolgen. Diese Studie zielte darauf ab, lokale Gemeinschaftsprozesse aufzuklären, die die biotische Homogenisierung von Bodenlebensgemeinschaften und die Möglichkeit einer biotischen Redifferenzierung vorantreiben. Wir haben Arten von Hornmilben in Streu- und Bodenschichten entlang eines Gradienten der Waldumwandlung von Monokultur-Lärchenplantagen zu Primärwäldern in Zentraljapan erfasst. Wir sammelten Daten für funktionelle Merkmale der erfassten Arten, um die funktionelle Diversität zu quantifizieren. Dann haben wir ihren taxonomischen/funktionalen Umsatz quantifiziert. In den lärchendominierten Beständen wurde die Streuvielfalt reduziert, was zu einer Habitathomogenisierung führte. Folglich wurden Streugemeinschaften in den Plantagen bzw. im Naturwald biologisch homogenisiert und differenziert. Der Umsatz an funktionellen Merkmalen für die Streugemeinschaften war in den Plantagen bzw. im Naturbestand geringer bzw. höher als zufällig erwartet. Dieses Ergebnis legt nahe, dass sich der dominante Montageprozess von der einschränkenden Ähnlichkeit hin zur Habitatfilterung entlang des Waldwiederherstellungsgradienten verschiebt. Für Gemeinschaften in der Bodenschicht wurde jedoch keine Unterstützung für solche nischenbasierten Erklärungen beobachtet. In den Monokulturen nahm die von einem gegebenen regionalen Artenpool erwartete funktionelle Vielfalt für die Streugemeinschaften, nicht aber für die in der Bodenschicht signifikant ab. Diese Diskrepanz zwischen Gemeinschaften in verschiedenen Schichten deutet darauf hin, dass Gemeinschaften, die stärker anthropogenen Belastungen ausgesetzt sind, anfälliger für den Verlust ihrer funktionalen Rolle sind. Unsere Studie erklärt mögliche Gemeinschaftsprozesse hinter den beobachteten Mustern der biologischen Organisation, die potenziell nützlich sein können, um Ansätze zur Wiederherstellung der Biodiversität zu lenken.;-;-;-;https://link.springer.com/article/10.1007/s00442-014-3111-7 9286220f235ab7941f452d8304087b3d;de;;;2.1.;;;Besseres Primer-Design für Metagenomik-Anwendungen durch Erhöhung der taxonomischen Unterscheidbarkeit Aktuelle Methoden zum Verständnis der Zusammensetzung und Struktur des Mikrobioms beruhen auf der genauen Schätzung der Anzahl verschiedener Arten und ihrer relativen Häufigkeit. Die meisten dieser Verfahren erfordern eine effiziente PCR, deren Vorwärts- und Rückwärtsprimer gut an dieselbe große Anzahl identifizierbarer Spezies binden und einzigartige Amplikons produzieren. Es ist daher nicht überraschend, dass derzeit verwendete universelle Primer, die vor vielen Jahren entwickelt wurden, nicht so effizient sind und nicht an kürzlich katalogisierte Arten binden. Wir schlagen eine automatisierte allgemeine Methode zum Entwerfen von PCR-Primerpaaren vor, die sich an die Primer-Designregeln hält und die aktuelle Sequenzdatenbank als Eingabe verwendet. Da das Verfahren automatisiert ist, können Primer für gezielte mikrobielle Spezies entworfen oder aktualisiert werden, wenn Spezies hinzugefügt oder aus der Datenbank entfernt werden.;-;-;-;https://link.springer.com/article/10.1186/1753-6561-7-S7-S4 aa9712774f0652ea97017cdcda3fecc2;de;;;2.1.;;;Eine Taxonomie von 3D-Erkennungstechniken für verdeckte Objekte Die Gesamtleistung von Objekterkennungstechniken unter verschiedenen Bedingungen (z. B. Okklusion, Blickwinkel und Beleuchtung) wurde in den letzten Jahren erheblich verbessert. Neue Anwendungen und Hardware werden in Richtung digitaler Fotografie und digitaler Medien verlagert. Dies steht einer Zunahme der Internetnutzung gegenüber, die eine Objekterkennung für bestimmte Anwendungen erfordert, insbesondere für verdeckte Objekte. Okklusion ist jedoch immer noch ein unbehandeltes Problem, da die Beziehungen zwischen extrahierten Merkmalspunkten durch das Bild verschränkt werden. Das Ziel dieser Forschung ist es, Algorithmen zur Erkennung verdeckter Objekte zu überprüfen und ihre Vor- und Nachteile herauszufinden, um die Merkmale des Okklusionsproblems zu lösen, die aus verdeckten Objekten extrahiert werden, um Objekte von anderen koexistierenden Objekten zu unterscheiden, indem die neuen Techniken bestimmt werden, die sich unterscheiden könnten das verdeckte Fragment und Abschnitte innerhalb eines Bildes.;-;-;-;https://link.springer.com/article/10.1007/s13319-016-0080-0 f3ae1d7d1bc8baa026d5f636c35a734c;de;;;2.1.;;;Convolutional Neural Networks für die taxonomische Klassifizierung biologischer Sequenzen: Eine vergleichende Studie Die biologische Sequenzklassifikation ist eine Schlüsselaufgabe der Bioinformatik. Für Forschungslabore ist heute die Klassifizierung unbekannter biologischer Sequenzen von wesentlicher Bedeutung, um die Identifizierung, Gruppierung und Untersuchung von Organismen und ihrer Evolution zu erleichtern. In diesem Artikel werden drei der neuesten Deep-Learning-Arbeiten zum 16S-rRNA-Barcode-Datensatz für die taxonomische Klassifizierung verglichen. Drei verschiedene CNN-Architekturen werden zusammen mit drei verschiedenen Merkmalsdarstellungen verglichen, nämlich:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-31129-2_48 893c5e8db58f1ced1541f57c44de729e;de;;;2.1.;;;Zur Identifikation von Zielen in Stakeholder-Dialogen Widersprüchliche Anforderungen sind in frühen Projektphasen vorprogrammiert. Um diese Widersprüche aufzulösen, ist es notwendig, die Begründung (Ziele) zu kennen, die zu den jeweiligen Anforderungen führen. In frühen Projektphasen kennt ein Stakeholder selten die Ziele der anderen. Manchmal können die Stakeholder nicht einmal ihre eigenen Ziele explizit angeben. Daher müssen die Ziele im Prozess der Anforderungserhebung und -verhandlung herausgearbeitet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89778-1_13 9a488a6b6bc6053a859bc91579b8982b;de;;;2.1.;;;Eine erweiterte Taxonomie-Methode basierend auf normalen T-sphärischen Fuzzy-Zahlen für die Entscheidungsfindung mit mehreren Attributen T-sphärisches Fuzzy-Set (T-SFS) eignet sich für Situationen, in denen menschliche Meinungen nicht auf Ja oder Nein beschränkt sind, sondern Abstinenz und Verweigerung beinhalten, und kann als Verallgemeinerung von Fuzzy-Set (FS), intuitionistischem FS und Bild angesehen werden FS. Die normale Fuzzy-Zahl (NFN) ist ein nützliches Werkzeug für Charakterphänomene mit Normalverteilung. Basierend auf den Vorteilen von T-SFS und NFN schlagen wir zunächst die normalen T-sphärischen Fuzzy-Zahlen (NT-SFNs) vor, die sowohl das Normalverteilungsphänomen als auch neutrale Informationen mit einer beträchtlich großen Expressionsdomäne darstellen können. Dann definieren wir die Betriebsgesetze, die Score-Funktion, die Genauigkeitsfunktion, den Erwartungswert sowie das Distanzmaß von NT-SFNs. Um Probleme der Entscheidungsfindung mit mehreren Attributen (MADM) mit NT-SFNs und unbekannten Gewichten von Attributen zu behandeln, verwenden wir die beste schlechteste Methode (BWM), um die subjektiven Gewichte zu erhalten, die Methode der Kriterien Bedeutung durch interkriterielle Korrelation (CRITIC) die objektiven Gewichte und die Methode der minimalen Gesamtabweichung, um die Kombinationsgewichte von Attributen zu berechnen. Dann wird die Taxonomie-Methode verwendet, um die Alternativen einzustufen, und die normale T-sphärische Fuzzy-Taxonomie-(NTSF-Taxonomie)-Methode wird vorgeschlagen. Schließlich werden zwei numerische Beispiele und eine vergleichende Analyse durchgeführt, um die Gültigkeit der NTSF-Taxonomie-Methode zu überprüfen.;-;-;-;https://link.springer.com/article/10.1007/s40815-021-01109-7 e9ed11ae6dcfa9eab97c73291434bf7b;de;;;2.1.;;;Neuronale Netzansätze für Wahrnehmung und Aktion Wir argumentieren, dass die Ausstattung von Maschinen mit Wahrnehmung und Aktion viele Probleme aufwirft, für die aus Grundprinzipien abgeleitete Lösungen nicht durchführbar oder zu teuer sind, und dass künstliche neuronale Netze einen lohnenden und natürlichen Lösungsansatz bieten. Dadurch ersetzen lernende Verfahren zum Erstellen von Mappings oder dynamischen Systemen, die eine gewünschte Funktionalität implementieren, die Implementierung von Algorithmen durch Programmierung. Wir diskutieren zwei neuronale Netzansätze, die Local Linear Maps (LLMs) und die Parametrized Self-Organizing Maps (PSOMs), die sich gut für den schnellen Aufbau von Mapping-Modulen eignen, und veranschaulichen einige ihrer Möglichkeiten mit Beispielen aus der Robotik- und Manipulatorsteuerung . Wir adressieren auch einige allgemeinere Themen, wie die Notwendigkeit von Mechanismen der Aufmerksamkeitssteuerung und der flexiblen Zuordnung kontinuierlicher Freiheitsgrade zusammen mit der Fähigkeit, mit unterschiedlichen Einschränkungen bei der Auswahl von Aktionen umzugehen.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0017878 b0f172498ac4e50378080aefa2c90e61;de;;;2.1.;;;MRECN: Mixed Representation Enhanced (De)Compositional Network zur Generierung von Bildunterschriften aus visuellen Merkmalen, Modellierung als Pseudotensorproduktdarstellung Die semantische Merkmalskomposition aus Bildmerkmalen hat einen Nachteil, da sie den Inhalt der Untertitel nicht erfassen kann und sich nicht zu längeren und aussagekräftigen Untertiteln entwickelt. In diesem Papier haben wir Verbesserungen an semantischen Funktionen vorgeschlagen, die Untertitel durch den neuen Ansatz namens gemischte Fusion von Darstellungen und Dekomposition generieren und entwickeln können. Semantic arbeitet nach dem Prinzip der Verwendung von CNN-Visualfunktionen, um eine Kontext-Wort-Verteilung zu generieren und diese zum Generieren von Untertiteln mit einem Sprachdecoder zu verwenden. Generierte Semantik wird für Untertitel verwendet, hat jedoch Einschränkungen. Wir haben einen weitaus besseren und neueren Ansatz mit einem verbesserten darstellungsbasierten Netzwerk eingeführt, das als Mixed Representation Enhanced (De)Compositional Network (MRECN) bekannt ist und dazu beitragen kann, bessere und andere Inhalte für Untertitel zu produzieren. Wie aus den Ergebnissen (0,351 BLUE_4) hervorgeht, hat es den meisten Stand der Technik übertroffen. Wir haben ein besseres Feature-Decodierungsschema unter Verwendung gelernter Netzwerke definiert, das eine Inkohärenz von verwandten Wörtern in Untertiteln feststellt. Aus unserer Forschung sind wir zu einigen wichtigen Schlussfolgerungen in Bezug auf gemischte Repräsentationsstrategien gekommen, da sie sich als die praktikabelste und vielversprechendste Art herausstellen, die Beziehungen der anspruchsvollen Funktionen für die Entscheidungsfindung und komplexe Anwendungen wie das Bild zu natürlichen Sprachen darzustellen.;-;-;-;https://link.springer.com/article/10.1007/s13735-020-00198-8 6ea39b46b44ad992889e19bd51803e49;de;;;2.1.;;;Hierarchische Multilabel-Proteinfunktionsvorhersage unter Verwendung lokaler neuronaler Netze Vorhersagen von Proteinfunktionen werden normalerweise als Klassifikationsprobleme behandelt, bei denen jede Funktion als Klassenlabel betrachtet wird. Im Gegensatz zu herkömmlichen Klassifikationsproblemen weisen sie jedoch einige Besonderheiten auf, die die Klassifikationsaufgabe komplexer machen. Erstens sind die Problemklassen (Proteinfunktionen) meist hierarchisch strukturiert, mit Oberklassen und Unterklassen. Zweitens können Proteine ​​auf jeder hierarchischen Ebene gleichzeitig mehr als einer Klasse zugeordnet werden, d. h. ein Protein kann in zwei oder mehr Pfade der hierarchischen Struktur klassifiziert werden. Diese Klassifikationsaufgabe wird als hierarchische Multilabel-Klassifikation bezeichnet, und es wurden mehrere Verfahren vorgeschlagen, um damit umzugehen. Diese Methoden verwandeln jedoch entweder das ursprüngliche Problem in eine Reihe einfacherer Probleme, verlieren dabei wichtige Informationen oder verwenden komplexe interne Mechanismen. Darüber hinaus haben aktuelle Methoden Probleme mit einer hohen Anzahl von Klassen und auch bei der Vorhersage von Klassen, die sich in den tieferen hierarchischen Ebenen befinden, da die Datensätze sehr spärlich werden, wenn ihre Hierarchien zu den Blättern hin durchlaufen werden. Dieser Artikel untersucht die Verwendung lokaler künstlicher neuronaler Netze für die hierarchische Multilabel-Klassifizierung, insbesondere die Vorhersage der Proteinfunktion. Die vorgeschlagene Methode wurde mit modernsten Methoden unter Verwendung mehrerer Proteinfunktionsvorhersagedatensätze verglichen. Die experimentellen Ergebnisse legen nahe, dass künstliche neuronale Netze eine vielversprechende Alternative darstellen, um mit hierarchischen Multilabel-Klassifikationsproblemen umzugehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22825-4_2 5eba0b4fd3399c41a9208d3aa46a4f57;de;;;2.1.;;;Modellierung und Kartierung der klimatischen Klassifikation Pakistans unter Verwendung des Remote Sensing Climate Compound Index (2000 bis 2018) Die ganze Welt steht kollektiv vor dem Problem des Klimawandels. Die Verschlechterung des Klimawandels der Erde wird am deutlichsten in Südostasien und vor allem in Pakistan wahrgenommen und spürbar. Pakistan ist ein Opfer des Klimawandels, wodurch Pakistan mit mehreren geografischen, politischen, wirtschaftlichen und sogar sozialen Problemen konfrontiert ist. Die schädlichen Auswirkungen des Klimawandels in Form von Smog und abnormen Hitzewellen haben viele Pakistaner das Leben gekostet. Der Klimawandel hat katastrophale Auswirkungen auf die Agrarwirtschaft Pakistans gehabt, die das Land in eine schreckliche Notlage gestürzt haben. Der Klimawandel ist ein langsamer und kontinuierlicher Prozess. Es ist erforderlich, dass Klimaänderungen in einem Gebiet rechtzeitig verfolgt werden, um den bevorstehenden klimatischen Herausforderungen zu begegnen. Aktuelle Forschungsarbeiten haben solche Veränderungen aufgespürt und ein neues klimatisches Klassifikationsschema für das Klima Pakistans eingeführt, indem Fernerkundung (RS) verwendet wird und ein neuer klimatischer Verbundindex, der RSCCI ist, einen berechneten Wert liefert, der verwendet wird, um den Zustand die Veränderungen im Klimasystem eines Gebietes. RSCCI ist die Kombination verschiedener Indizes. Auf der Grundlage von RSCCI, einem Klimaindex, werden raumzeitliche Untersuchungen durchgeführt, um in ganz Pakistan Trockenheit, Feuchtigkeit und Halbtrockenheit zu messen. Um das Ausmaß dieser klimatischen Bedingungen herauszufinden, wurden drei MODIS-Datensatzbilder mit 250 m Auflösung aufgenommen. RS-Anwendungen werden effektiv eingesetzt, um die sich ändernden Klimatrends für den Zeitraum von 18 Jahren in Pakistan von 2000 bis 2018 zu bewerten. Auf der Grundlage der oben genannten Ergebnisse wurde eine neue Klimaklassifikation mit fünf Hauptklassen eingeführt, nämlich Trockenheit, Feuchtigkeit, Feuchtgebiete und kalte Trockenheit. Die Fläche der fünf Klassen wurde mit Hilfe von RS-Tools und RSCCI für die Jahre 2000 und 2018 berechnet. Eine neue klimatische Klassifikation Pakistans teilt Pakistan in fünf Regionen auf, die auf RSCCI basiert. In Pakistan ist von RSCCI 2000 auf RCSSI 2018 eine Zunahme der Trockengebiete um 1,84% zu verzeichnen. In ähnlicher Weise gibt es auch eine Zunahme von Feuchtgebieten und feuchten Regionen in Pakistan, dh 1,9 % bzw. 9,72 % von RSCCI 2000 auf RCSSI 2018. Auf der anderen Seite gibt es von RSCCI 2000 bis RCSSI 2018 eine 0,78 %ige Verringerung der Fläche der kalten Dürreregion, eine 8,49 %ige Verringerung der gemäßigten Dürre und eine 4,19 %ige Verringerung in einer Zone intensiver Dürreklassen von RSCCI 2000 bis RCSSI 2018, was eine positive Veränderung ist. Die Ergebnisse zeigen dramatische Veränderungen, die die Notwendigkeit einer neuen Klimaklassifikation für Pakistan befürworten. Diese neue Klimaklassifikation Pakistans basiert nur auf Daten von 18 Jahren. In Pakistan sind dramatische Klimaveränderungen innerhalb der nächsten 30 Jahre absehbar und vorhersehbar.;-;-;-;https://link.springer.com/article/10.1007/s13201-019-1028-3 c96565a8d68b6ab1a687ff876fd51424;de;;;2.1.;;;Integration phänotypischer Merkmale und gewebespezifischer Informationen zur Priorisierung von Krankheitsgenen Die Priorisierung potenzieller Krankheitsgene ist entscheidend für die Verbesserung der medizinischen Versorgung und eine der grundlegenden Herausforderungen in der postgenomischen Ära. In den letzten Jahren wurden verschiedene netzwerkbasierte Methoden zur Genpriorisierung vorgeschlagen. Frühere Studien zur Genpriorisierung zeigen, dass gewebespezifische Protein-Protein-Interaktions-(PPI)-Netzwerke, die durch die Integration von PPIs mit gewebespezifischen Genexpressionsprofilen aufgebaut werden, eine bessere Leistung erbringen können als gewebenaive globale PPI-Netzwerke. Basierend auf den Beobachtungen, dass Krankheiten mit ähnlichen Phänotypen wahrscheinlich gemeinsame verwandte Gene haben und Gene, die mit demselben Phänotyp assoziiert sind, dazu neigen, miteinander zu interagieren, schlagen wir eine Methode zur Priorisierung von Krankheitsgenen vor, die auf einem heterogenen Netzwerk basiert, das durch die Integration phänotypischer Merkmale aufgebaut wird und gewebespezifische Informationen. In diesem heterogenen Netzwerk wird das PPI-Netzwerk aufgebaut, indem phänotypische Merkmale mit einem gewebespezifischen PPI-Netzwerk integriert werden, und das Krankheitsnetzwerk besteht aus den Krankheiten, die mit demselben Phänotyp und Gewebe wie die gesuchte Krankheit assoziiert sind. Um die Auswirkungen dieser beiden Faktoren auf die Genpriorisierung zu bestimmen, testen wir drei typische netzwerkbasierte Priorisierungsmethoden an heterogenen Netzwerken, die aus Kombinationen verschiedener PPIs und Krankheitsnetzwerke mit oder ohne phänotypische Merkmale und gewebespezifische Informationen bestehen. Wir vergleichen die vorgeschlagene Methode auch mit anderen gewebespezifischen Netzwerken. Die Ergebnisse von Fallstudien zeigen, dass die Integration phänotypischer Merkmale mit einem gewebespezifischen PPI-Netzwerk die Priorisierungsergebnisse verbessert. Darüber hinaus zeigen die mit unserer Methode generierten Krankheitsnetzwerke nicht nur eine vergleichbare Leistung mit dem weit verbreiteten Krankheitsähnlichkeitsdatensatz von 5080 menschlichen Krankheiten, sondern sind auch bei Krankheiten wirksam, die nicht im Datensatz enthalten sind.;-;-;-;https://link.springer.com/article/10.1007/s11432-016-5584-y 175580ec49b9c96ab35138332fb7866d;de;;;2.1.;;;Scaffold Hunter: Erleichterung der Wirkstoffentdeckung durch visuelle Analyse des chemischen Raums Die Suche nach einem neuen Medikament zur Heilung einer bestimmten Krankheit beinhaltet das Auffinden einer chemischen Verbindung, die einen entsprechenden biologischen Prozess beeinflusst, z. B. durch Hemmung oder Aktivierung eines beteiligten biologischen Zielmoleküls. Ein potenzieller Wirkstoffkandidat muss jedoch nicht nur eine ausreichende biologische Aktivität aufweisen, sondern muss auch zusätzliche Regeln einhalten, die die grundlegenden Grenzen der Wirkstoffähnlichkeit definieren, einschließlich beispielsweise Beschränkungen hinsichtlich Löslichkeit und Molekulargewicht. Die schiere Größe des Suchraums, dh des chemischen Raums, der die verfügbaren Verbindungen enthält, die große Anzahl potenziell relevanter Datenannotationen pro Verbindung, das unvollständige Wissen über diese Eigenschaften und die komplexe Beziehung zwischen den molekularen Eigenschaften und den tatsächlichen Effekten in einen lebenden Organismus, erschweren die Suche und können den Entdeckungsprozess zu einer langwierigen Herausforderung machen. Wir beschreiben Scaffold Hunter, ein interaktives Softwaretool zur Erkundung und Analyse von Datenbanken chemischer Verbindungen. Scaffold Hunter ermöglicht die Erforschung des chemischen Raums einer Substanzdatenbank, fördert das intuitive Erkennen komplexer Struktur- und Bioaktivitätsbeziehungen und hilft bei der Identifizierung interessanter Substanzklassen mit einer gewünschten Bioaktivität. Somit unterstützt das Tool Chemiker während des komplexen und zeitaufwändigen Wirkstoffforschungsprozesses, zusätzliches Wissen zu gewinnen und sich auf interessante Regionen zu konzentrieren, was die Suche nach vielversprechenden Wirkstoffkandidaten erleichtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38241-3_12 2b51a19ea0cc2b6734c2a984c3a77cae;de;;;2.1.;;;COVID-19-Klassifizierung basierend auf einem neuronalen Deep Convolution-Netzwerk über ein drahtloses Netzwerk Die Corona-Virus-Krankheit 19 (COVID-19) breitete sich seit Dezember 2019 erstmals in China aus. Dann breitete sie sich mit hoher Geschwindigkeit weltweit aus. Daher ist die schnelle Diagnose von COVID-19 zu einem sehr heißen Forschungsthema geworden. Eines der möglichen Diagnosewerkzeuge ist die Verwendung eines neuronalen Netzes mit tiefer Faltung (DCNN) zur Klassifizierung von Patientenbildern. Das Röntgen des Brustkorbs ist eines der am häufigsten verwendeten bildgebenden Verfahren zur Klassifizierung von COVID-19-Fällen. Dieses Papier stellt ein vorgeschlagenes drahtloses Kommunikations- und Klassifizierungssystem für Röntgenbilder vor, um COVID-19-Fälle zu erkennen. Verschiedene Modulationstechniken werden verglichen, um die zuverlässigste mit weniger erforderlicher Bandbreite auszuwählen. Die vorgeschlagene DCNN-Architektur besteht aus Tiefenmerkmalsextraktions- und Klassifikationsschichten. Zunächst werden die vorgeschlagenen DCNN-Hyperparameter in der Trainingsphase angepasst. Dann werden die abgestimmten Hyperparameter in der Testphase verwendet. Diese Hyperparameter sind der Optimierungsalgorithmus, die Lernrate, die Mini-Batch-Größe und die Anzahl der Epochen. Aus den Simulationsergebnissen geht hervor, dass das vorgeschlagene Schema andere verwandte vortrainierte Netzwerke übertrifft. Die Leistungskennzahlen sind Genauigkeit, Verlust, Verwirrungsmatrix, Sensitivität, Präzision,;-;-;-;https://link.springer.com/article/10.1007/s11277-021-08523-y 5ef34b378777c832ad462f6c708eaa9f;de;;;2.1.;;;Konkordanz und Diskordanz zwischen taxonomischer und funktionaler Homogenisierung: Reaktionen von Bodenmilbenvereinigungen auf Waldumwandlung Die Zusammensetzungseigenschaften ökologischer Assemblagen werden oft vereinfacht, dieser Prozess wird als „biotische Homogenisierung“ bezeichnet. Dieser Prozess der biologischen Reorganisation erfolgt nicht nur taxonomisch, sondern auch funktionell. Das Testen beider Aspekte der Homogenisierung ist unerlässlich, wenn es um Ökosystemfunktionen geht, die durch ein vielfältiges Mosaik funktionaler Merkmale in der Landschaft unterstützt werden. Hier zielten wir darauf ab, die zugrunde liegenden Prozesse der taxonomischen/funktionalen Homogenisierung auf der für diese Forschungsfrage bedeutsamen lokalen Skala abzuleiten. Wir haben Arten von streulebenden Hornmilben entlang eines Gradienten der Waldumwandlung von einem natürlichen Wald zu einer monokulturellen Lärchenplantage in Japan (insgesamt 11 Bestände) erfasst und Daten zu den funktionellen Merkmalen der erfassten Arten gesammelt, um die funktionelle Vielfalt zu quantifizieren. Wir haben taxonomisch und funktional berechnet;-;-;-;https://link.springer.com/article/10.1007/s00442-015-3342-2 2aa3f01dd027e0cfd09b87ca6dc9d0d3;de;;;2.1.;;;Kernelmethoden zum Mining von Instanzdaten in Ontologien Die Menge der im Web verfügbaren Ontologien und Metadaten wächst ständig. Die erfolgreiche Anwendung maschineller Lerntechniken zum Lernen von Ontologien aus Textdaten, d.h. Mining;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76298-0_5 2c0e5232486b9cff7c60c431dc21216e;de;;;2.1.;;;Funktionelle und taxonomische Perspektiven zum Verständnis der zugrunde liegenden Mechanismen der Verbreitung einheimischer und fremder Pflanzen Landnutzungsänderungen erleichtern oft die Invasion gebietsfremder Arten und wirken sich auf die Biodiversität und Ökosystemprozesse auf regionaler Ebene aus. Die Verkehrsinfrastruktur ist ein potenzieller Korridor für eine biologische Invasion, aber die Prozesse, die der Invasion gebietsfremder Arten aus menschlichen Siedlungen entlang der Verkehrsnetze zugrunde liegen, sind ungewiss. Wir untersuchten gebietsfremde und einheimische Pflanzenarten und ihre funktionellen Merkmale in der Straßenrandvegetation im Shiretoko-Nationalpark, Japan. Der Ort ist einzigartig, da es eine einzige Invasionsquelle (d. h. eine Stadt) gibt. Vegetations-, Umwelt- und Raumfaktoren wurden in 362 Quadraten auf zwei entlang von Straßen angelegten Transekten gemessen. Der mittlere Artenreichtum innerhalb jedes Quadrats (taxonomische α-Diversität) war für gebietsfremde Gesellschaften höher, während der mittlere funktionelle Reichtum (funktionelle α-Diversität) für einheimische Gesellschaften höher war. Außerirdische Arten teilten ähnliche Merkmale wie Generalisten, die eine geringere funktionelle Vielfalt aufweisen als Spezialisten. Die funktionelle α-Diversität von Alien-Assemblies nahm mit zunehmender Entfernung von der Quellstadt ab, und die sich aus der Verschachtelung ergebende Komponente der funktionalen β-Diversität von Alien-Assemblagen machte einen relativ hohen Anteil ihrer gesamten funktionellen β-Diversität aus. Fremde Arten mit hoher Verbreitungsfähigkeit waren weit verbreitet, während andere gebietsfremde Arten noch auf Gebiete in der Nähe der menschlichen Siedlung beschränkt waren. Fremde Arten zeigten eine größere Wahrscheinlichkeit, Samenseide zu haben, einen geringeren Prozentsatz mehrjähriger Arten und eine geringere Samentrockenmasse als einheimische Arten. Daher zeigten gebietsfremde Arten im Vergleich zu einheimischen Arten überlegene Verbreitungs- und Konkurrenzfähigkeiten, und der Ausschluss aller gebietsfremden Arten ist wahrscheinlich nicht praktikabel. Die Berücksichtigung funktioneller Merkmale kann bei der Auswahl gebietsfremder Arten von besonderer Bedeutung für die Durchführung von Kontroll- und Vernichtungsmaßnahmen sein.;-;-;-;https://link.springer.com/article/10.1007/s10531-018-1503-4 798215b6b0eb33d27b1f4c0849b31a2d;de;;;2.1.;;;Kategoriale Semantik In „Tonk, Plonk and Plink“ verteidigte Belnap [1962] die Behauptung, dass natürliche Deduktionsregeln die Bedeutung eines Konnektors definieren, zumindest sofern diese Regeln eine konservative Erweiterung der strukturellen Deduktionsregeln darstellen. In diesem Beitrag werden wir ein stärkeres Erfolgskriterium untersuchen, um die Bedeutung eines Konnektors zu definieren. Jedes Konnektor enthält eine beabsichtigte Interpretation (z. B. wird die beabsichtigte Interpretation von & in der Wahrheitstabelle für & aufgezeichnet). Damit ein Regelwerk die Bedeutung eines Konnektors definiert, würden wir erwarten, dass es kategorisch ist, d. Anders ausgedrückt: Regeln definieren ein Bindeglied, wenn sie stark genug sind, um alle nicht standardmäßigen Interpretationen zu eliminieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-0681-5_11 5a4c8530a714da5052af7f7b1e56a36a;de;;;2.1.;;;Logische Probleme der Systemanalyse von Organisations- und Ingenieursystemen und Hauptwege zu ihrer Lösung Es werden logische Probleme der Systemanalyse von Organisations- und Ingenieursystemen in der modernen Industrie diskutiert. Die logischen Grundlagen der Systemanalyse werden analysiert. Es wird eine methodische Funktion von Zielstrukturen in einer Systemanalyse organisationstechnischer Systeme gefunden und eine Beziehung dieser Strukturen als Ergebnis der Analyse und Zielsynthese hergestellt. Die Hauptwege zur Lösung logischer Probleme für die Systemanalyse von Organisations- und Ingenieursystemen, die die Lösung logischer Probleme ermöglichen, werden identifiziert.;-;-;-;https://link.springer.com/article/10.1007/s10559-006-0080-9 aeb1d53746d49c4f5ac212b890edd3e1;de;;;2.1.;;;Intervall-Set-Clustering von Web-Benutzern mit Rough Die Datensammlung und -analyse im Web-Mining steht vor besonderen Herausforderungen. Aufgrund einer Vielzahl von Gründen, die dem Webbrowsing und der Webprotokollierung innewohnen, ist die Wahrscheinlichkeit fehlerhafter oder unvollständiger Daten höher als bei herkömmlichen Anwendungen. Die Analysetechniken im Web-Mining müssen solche Daten berücksichtigen. Fuzzy- und Rough-Sets bieten die Möglichkeit, mit unvollständigen und ungefähren Informationen umzugehen. Die Fuzzy-Set-Theorie hat sich in drei wichtigen Aspekten des Web- und Data Mining als nützlich erwiesen, nämlich Clustering, Assoziation und sequenzielle Analyse. Das Interesse an Clustering-Forschung auf der Grundlage der Grobmengentheorie wächst. Clustering ist ein wichtiger Teil des Web-Mining, bei dem es darum geht, natürliche Gruppierungen von Webressourcen oder Webbenutzern zu finden. Forscher haben auf einige wichtige Unterschiede zwischen Clustering in herkömmlichen Anwendungen und Clustering beim Web-Mining hingewiesen. Zum Beispiel haben die Cluster und Assoziationen im Web-Mining nicht unbedingt scharfe Grenzen. Als Ergebnis haben Forscher die Möglichkeit untersucht, Fuzzy-Sets in Web-Mining-Clustering-Anwendungen zu verwenden. Jüngste Versuche haben genetische Algorithmen verwendet, die auf der Grobmengentheorie zum Clustern basieren. Das auf genetischen Algorithmen basierende Clustering ist jedoch möglicherweise nicht in der Lage, die große Datenmenge zu verarbeiten, die für eine Web-Mining-Anwendung typisch ist. Dieses Papier schlägt eine Variation der;-;-;-;https://link.springer.com/article/10.1023/B%3AJIIS.0000029668.88665.1a 9c66ad7b7d9e98372d4c6a115f494590;de;;;2.1.;;;Wiederherstellen von Geschäftsregeln aus Legacy-Quellcode für die Systemmodernisierung Durch die Verwendung mehrerer Reverse Engineering-Tools und -Techniken ist es möglich, Geschäftsregeln aus dem Legacy-Quellcode zu extrahieren, die für Nicht-IT-Experten leicht verständlich sind. Diese Geschäftsregeln können in verschiedenen Phasen der Systemmodernisierung verwendet werden. Systembetreuer können die Regeln verwenden, um die von einer Regeländerung betroffenen Codeteile zu lokalisieren. Geschäftsanalysten können diese Regeln verwenden, um das Systemverständnis auf Geschäftsebene zu unterstützen. Die extrahierten Regeln können als Dokumentationsquelle und mögliche Eingabe für die Konfiguration eines neuen Systems dienen. Dieses Papier stellt einen neuartigen Ansatz zur Extraktion von Geschäftsregeln aus Legacy-Quellcode und Anwendung der Ergebnisse in verschiedenen Phasen der Systemmodernisierung vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75975-1_9 8ec343d90c123f90161c6b70c7b13f4a;de;;;2.1.;;;Das Web, Ähnlichkeit und Unschärfe Das Internet wird als Quelle vielfältiger Informationen, als großes Einkaufszentrum, soziales Forum und Unterhaltungszentrum wahrgenommen. Die Benutzer durchsuchen und durchsuchen ständig das Internet, um interessante Dinge zu finden. Die stichwortbasierte Suche wird bei verfeinerten Suchen, bei denen Details zu Artikeln wichtig werden, immer weniger effizient. Die Einführung von Resource Description Framework (RDF) als beziehungsbasiertes Format für die Datendarstellung ermöglicht es uns, eine andere Art der Durchführung einer relevanzbasierten Suche vorzuschlagen. Der vorgeschlagene Ansatz basiert auf der Darstellung von Elementen als Mengen von Merkmalen. Dies bedeutet, dass die Bewertung der Relevanz von Artikeln auf einem merkmalsbasierten Vergleich basiert. Eine realistischere Relevanzbestimmung kann durch Kategorisierung und Rangfolge von Merkmalen erreicht werden. Die berechneten Relevanzmaße für einzelne Merkmalskategorien werden mit einem Fuzzy-basierten Ansatz aggregiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19683-1_26 e073fa4c4b011355fffcc76ee0b0326e;de;;;2.1.;;;Konstruieren von Search as a Service hin zu einer nicht-deterministischen und nicht validierten Ressourcenumgebung mit einer Positiv-Negative-Strategie Internetressourcen sind nicht deterministisch, nicht garantiert und extrem komplex. Wir bieten einen progressiven Suchansatz für Probleme mit positiven und negativen Tendenzen mit dem Ziel, die Glaubwürdigkeit von Ressourcen durch mehrfach progressive Suche zu verbessern. Inzwischen führen wir Knowledge Graph als Ressourcenprozessarchitektur ein, um Ressourcen im Netzwerk zu organisieren und die Tendenz von Suchenden zum Abrufen von Informationen durch semantische Analyse zu analysieren. Wir berechnen die Entropie von Ressourcen anhand der Suchzeiten und der Anzahl der Elemente jeder Suche, um die Zuverlässigkeit von Ressourcen mit positiven und negativen Tendenzen darzustellen. Ressourcen mit mehrdeutiger Tendenz und falschen Informationen werden während des fortschreitenden Suchprozesses eliminiert und die Qualität der Suchergebnisse wird verbessert, während tote Schleifen der Suche zu unendlichen und komplexen Problemen vermieden werden. Wir wenden die Suchstrategie auf ein Verarbeitungssystem für medizinische Ressourcen an, das medizinischem Personal einen hochpräzisen Abrufservice für medizinische Ressourcen bietet, um die Machbarkeit unseres Ansatzes zu überprüfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00916-8_34 0b68b64abf8ed61f00895daf4264c7a0;de;;;2.1.;;;Eine Methode zur Aktualisierung geografischer Datenbanken mithilfe von Kartenversionen Dieses Papier befasst sich mit Fragen des Austauschs und der Integration von geografischen Daten zwischen Herstellern und Nutzern. Nachdem ein Hersteller einem Benutzer eine geografische Datenbank geliefert hat, die dieser dann als Referenz für bestimmte Anwendungen verwendet, kann die Datenbank auf beiden Seiten aktualisiert werden. Folglich ist die Integration zukünftiger Updates – die vom Hersteller geliefert werden – in die geografische Datenbank des Benutzers aufgrund möglicher Konflikte zwischen Updates, die von beiden Parteien durchgeführt werden, ein komplexer Vorgang. Die resultierende Datenbank kann inkonsistent werden und die hinzugefügten Informationen des Benutzers können verloren gehen. Benutzer benötigen daher Mechanismen, die ihnen bei der Update-Integration helfen. Dieses Papier bietet einen methodischen Rahmen für die Aktualisierung geografischer Datenbanken. Es basiert auf einem GIS mit mehreren Versionen, das eine automatische Erkennung von widersprüchlichen Updates zwischen zwei Kartenversionen ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-56094-1_27 bd2380b0c2e001e70b8c19f0d98cb4b6;de;;;2.1.;;;Zur Qualität verschiedener Annotationsquellen für die Genexpressionsanalyse Das Mining biomedizinischer Daten beruht zunehmend auf der Nützlichkeit von Wissensspeichern. In der Genexpressionsanalyse werden diese häufig zur Genmarkierung verwendet, unter der Annahme, dass ähnlich annotierte Gene ähnliche Expressionsprofile aufweisen. In der Arbeit verwenden wir diese Annahme, um eine Methode zu entwickeln, mit der wir sechs verschiedene Annotationsquellen (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02976-9_60 f3aae99813cd5770a02fc73a959de0b5;de;;;2.1.;;;: Ein ATP-Metasystem basierend auf der Axiom-Relevanz-Ordnung Dieser Artikel beschreibt zwei syntaktische Relevanzordnungen der Axiome, die zum Beweis einer gegebenen Vermutung verfügbar sind, und ein ATP-Metasystem, das die Ordnungen verwendet, um Axiome auszuwählen, die in Beweisversuchen verwendet werden sollen. Das System wurde evaluiert und die Ergebnisse zeigen, dass es effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02959-2_13 118a7ac83f390e9514ec7a44c6ba45df;de;;;2.1.;;;Katastrophengeometrie in der Physik: Eine Perspektive Die gegenseitige Durchdringung von mathematischem, physikalischem und philosophischem Denken war in der Vergangenheit von entscheidender Bedeutung für die Entwicklung der exakten Wissenschaften. Es genügt, sich an die Newtonsche Mechanik und die Differentialrechnung, die Relativitätstheorie und die Riemannsche Geometrie oder die Quantenmechanik und den Hilbertraum zu erinnern. In den letzten Jahrzehnten hat sich die Kluft zwischen Mathematik und Physik jedoch immer weiter vergrößert und die von der Physik ausgehenden Impulse haben die Mathematik nicht daran gehindert, immer abstrakter zu werden: Die zunehmende Verfeinerung und Präzisierung mathematischer Begriffe und Methoden führt zwangsläufig zu einem Verlust Intuition und in einer abnehmenden Fähigkeit, empirische Sachverhalte qualitativ zu erfassen. Dies geschah auch mit der Topologie, die, nachdem Poincaré sie gegen Ende des 19. Jahrhunderts konzipiert hatte, sich bald von ihren intuitiven geometrischen Wurzeln abwendete und schnell ziemlich verworrene algebraische Pfade beschritt. Allerdings bietet die differenzielle Topologie derzeit eine seltene Gelegenheit, Physik und Mathematik wieder zu vereinen, da sie eine neue und geeignetere Sprache bestimmt, um den qualitativen mathematischen Inhalt jeder physikalischen Theorie auszudrücken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-67363-4_4 b832f9c638beccedb5c10df35ff0c8ca;de;;;2.1.;;;Tableaux mit Global Caching zur Überprüfung der Erfüllbarkeit einer Wissensdatenbank in der Beschreibungslogik Beschreibungslogiken (DLs) sind eine Familie von Wissensrepräsentationssprachen, mit denen das terminologische Wissen einer Anwendungsdomäne strukturiert und formal gut verständlich dargestellt werden kann. DLs können beispielsweise zur konzeptionellen Modellierung oder als Ontologiesprachen verwendet werden. Tatsächlich basiert die vom W3C empfohlene OWL (Web Ontology Language) auf Beschreibungslogiken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15034-0_2 74b0102bf9a11ca14ed4047d4aa75e60;de;;;2.1.;;;Transparenz und Dokumentation in Simulationen von Ausbrüchen von Infektionskrankheiten: Hin zu evidenzbasierten Entscheidungen und Kommunikationen im Bereich der öffentlichen Gesundheit Computersimulationen haben sich als wichtige Werkzeuge bei der Vorbereitung auf den Ausbruch von Infektionskrankheiten herausgestellt. Um die kollaborative Planung und Reaktion auf die Ausbrüche zu unterstützen, müssen Berichte aus Simulationen hinsichtlich der zugrunde liegenden parametrischen Einstellungen transparent (zugänglich) sein. Dieses Papier stellt ein Design zur Generierung von Simulationsberichten vor, bei dem die in den Simulationsmodellen verwendeten Hintergrundeinstellungen automatisch visualisiert werden. Wir haben das Ontologie-Management-System Protégé erweitert, um verschiedene Einstellungen in Kategorien einzuordnen, und diese parallel zu den Simulationsergebnissen in die Berichterstellung einbezogen. Der Reportgenerator nutzt eine XSLT-Spezifikation und fasst die Dokumentation der jeweiligen Simulationseinstellungen in gekürzten XMLs inklusive zusammengefasster Ergebnisse zusammen. Wir kommen zu dem Schluss, dass die Einbeziehung kritischer Hintergrundeinstellungen in Berichte die Genauigkeit von Simulationen von Infektionskrankheiten zwar nicht erhöht, aber Missverständnisse und nicht optimale Entscheidungen im Bereich der öffentlichen Gesundheit verhindern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11745-9_6 33ab82c8187042367a25d190f00d695d;de;;;2.1.;;;Ein intelligenter Ansatz zum Abgleichen, Lernen und Abfragen von Informationen aus dem Personalbereich Wir stellen uns dem komplexen Problem der zeitnahen, treffsicheren und für beide Seiten zufriedenstellenden Vermittlung zwischen Stellenangeboten und passenden Bewerberprofilen mittels semantischer Verarbeitungstechniken. Tatsächlich ist dieses Problem zu einer großen Herausforderung für alle öffentlichen und privaten Personalvermittlungsagenturen weltweit sowie für Arbeitgeber und Arbeitssuchende geworden. Es besteht weitgehend Einigkeit darüber, dass intelligente Algorithmen zum automatischen Abgleichen, Lernen und Abfragen von Stellenangeboten und Kandidatenprofilen eine Schlüsseltechnologie von hoher Bedeutung und Wirkung darstellen und dazu beitragen, dem Mangel an Fachkräften und/oder geeigneten Stellen für Arbeitslose zu begegnen. Darüber hinaus kann ein solches Rahmenwerk ein globales Matching unterstützen, das darauf abzielt, eine optimale Zuordnung von Arbeitssuchenden zu verfügbaren Stellen zu finden, was für unabhängige Arbeitsvermittlungen relevant ist, z. um die Arbeitslosigkeit zu reduzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-44066-8_17 c0651f7f716865165244e3c6ad3b1d70;de;;;2.1.;;;Spezifizierung und Durchsetzung von Normen in künstlichen Institutionen: Ein Rückblick In diesem kurzen Beitrag erläutern wir, wie sich unsere Forschung seit der Veröffentlichung des folgenden Artikels [2] hinsichtlich ihrer relevanten Aspekte entwickelt hat. Dieses Papier schlägt ein Modell von Normen vor, deren Inhalt sich auf die Zeit bezieht, die zur Entwurfszeit spezifiziert und daher in Form von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29113-5_12 f970b655651b663ac46db7d3f3033411;de;;;2.1.;;;Synthese-Denkprozesse im Design In diesem Beitrag diskutieren wir, welche Eigenschaften der Syntheseprozess als Denkprozess haben sollte und zeigen eine vorläufige Synthesetheorie. Statt Universalität und Minimalität für Wissen für die Analyse braucht es Wissen für die Synthese im Design in;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1901-8_22 b042d946a79402aa7b6850a6072eacfc;de;;;2.1.;;;Round-Trip-Engineering zur Pflege von konzeptuell-relationalen Mappings Konzeptionell-relationale Abbildungen zwischen konzeptionellen Modellen und relationalen Schemata werden zunehmend verwendet, um Interoperabilität zu erreichen oder Impedanzfehlanpassungen in modernen datenzentrierten Anwendungen zu überwinden. Sowohl Schemata als auch konzeptionelle Modelle entwickeln sich jedoch im Laufe der Zeit, um neuen Informationsbedürfnissen gerecht zu werden. Wenn das konzeptionelle Modell (CM) oder das mit einem Mapping verbundene Schema weiterentwickelt wurde, muss das Mapping aktualisiert werden, um die neue Semantik im CM/Schema widerzuspiegeln. In diesem Papier schlagen wir eine Round-Trip-Engineering-Lösung vor, die im Wesentlichen Modelle synchronisiert, indem sie für die Aufrechterhaltung konzeptioneller relationaler Abbildungen konsistent gehalten werden. Zunächst definieren wir die Konsistenz einer konzeptionell-relationalen Abbildung durch „semantisch kompatible“ Instanzen. Als nächstes analysieren wir sorgfältig das im Standard-Datenbankdesignprozess kodierte Wissen und entwickeln Round-Trip-Algorithmen, um die Konsistenz konzeptionell-relationaler Abbildungen während der Evolution aufrechtzuerhalten. Schließlich führen wir eine Reihe umfassender Experimente durch. Die Ergebnisse zeigen, dass unsere Lösung effizient ist und im Vergleich zum Mapping-Rekonstruktionsansatz erhebliche Vorteile bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69534-9_24 bc376d73c77a35e36ea7b7cbb552a8af;de;;;2.1.;;;Ein kontextsensitiver, iterativer Ansatz zur diagnostischen Problemlösung In Bereichen, in denen das Wissen nicht durch starke Theorien repräsentiert wird oder die Probleme mit unvollständigen Informationen gelöst werden sollen, muss die Problemlösung ein kontextsensitiver Prozess sein. Dieses Papier stellt eine aufgabenzentrierte Methodik vor, die wir bei der Modellierung des Kontexts in einem diagnostischen Prozess verwendet haben. Wir identifizieren zwei Aspekte des Kontextbegriffs als wichtig: seine Rolle und seine Elemente. Wir argumentieren, dass eine systematische Untersuchung des Kontextbegriffs entlang dieser beiden Aspekte organisiert werden muss. Hinsichtlich der Rolle, die der Kontext spielt, unterscheiden wir zwischen zwei grundlegenden Fragen. Diese beziehen sich auf seine Rolle bei der Verschiebung des Aufmerksamkeitsfokus und beim Einfangen des Aufmerksamkeitsfokus. Wir diskutieren ein diagnostisches Problemlösungsmodell, das als kontextsensitiver iterativer Diagnose (ConSID)-Ansatz bezeichnet wird und sich besonders für offene und schwache Domänen eignet. Wir präsentierten eine Implementierung dieses Ansatzes als hybrides fallbasiertes und erklärungsbasiertes Argumentationssystem.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-64582-9_786 f928a5d3f02ab8b06e01c1a6098d2bfe;de;;;2.1.;;;Lernen Sie Reversi mit parallelen genetischen Algorithmen Dieser Beitrag stellt vor, wie parallele genetische Algorithmen verwendet werden können, um das Spiel Reversi zu erlernen. Parallel Genetic Algorithm kann eine verteilte Umgebung erstellen, in der Instanzen von genetischen Algorithmen parallel ausgeführt werden. Die Geschichte der Chromosomen wird in einer Ontologie unter Verwendung der OWL-Sprache gespeichert. Ein Computerspieler trifft eine Entscheidung unter Verwendung des Analytic Hierarchy Process (AHP)-Verfahrens der Multiple Criteria Decision Analysis (MCDA) und unter Verwendung des Spielentscheidungsbaums. Das Spiel zu lernen bedeutet, die optimalen Gewichte und Regeln zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74930-1_33 84dc710f74ce78db283e23ba938a407e;de;;;2.1.;;;Ausnutzen und Wiederverwenden von kollaborativen Spuren, um den Erfahrungsaustausch in Gruppen zu erleichtern Im Kontext einer webbasierten kollaborativen Arbeitsumgebung erzeugt jede interaktive Aktivität eine Reihe von Collaborative Traces (CT). Solche Spuren spiegeln die Arbeitserfahrung der Gruppe aus vergangenen Aktionen wider und können zur Kapitalisierung von Wissen verwendet werden. Dieses Papier schlägt eine Methode und grundlegende Prinzipien vor, um die Nutzung kollaborativer Spuren zu verbessern. Basierend auf unseren früheren Arbeiten, die einen kollaborativen Trace definiert und ein entsprechendes Modell vorgeschlagen haben, definieren wir ein Modell eines komplexen Filters und diskutieren seine möglichen Funktionalitäten. Wir zeigen, wie das Modell in der kollaborativen Plattform E-MEMORAe2.0 verwendet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54105-6_21 b8c2e55d03d9961fc150cb29cbc8d15f;de;;;2.1.;;;Cladocera als Indikatoren für den trophischen Zustand in irischen Seen Wir untersuchten den Einfluss des trophischen Zustands des Sees auf die taxonomische und funktionelle Struktur von Cladoceren-Gemeinschaften und die Rolle der Nährstoffbelastung bei der Strukturierung von Cladoceren- und Diatomeengemeinschaften. Oberflächensediment-Ansammlungen von 33 irischen Seen wurden entlang eines Gradienten der Gesamtphosphorkonzentration (TP, 4,0–142,3 μg l;-;-;-;https://link.springer.com/article/10.1007/s10933-010-9428-2 4bcc455ffef31f9996b8e1917d73e70c;de;;;2.1.;;;Label-Propagation für Fragenklassifizierung in CQA Fragen in der Community Question Answering (CQA), die aus einigen gekennzeichneten Fragen und zahlreichen nicht gekennzeichneten Fragen bestehen, sind so komplex und unregelmäßig. Daher hat sich die Frageklassifikation in CQA in den letzten Jahren zum Forschungs-Hotspot entwickelt. In diesem Papier schlagen wir vor, die Fragen in CQA durch den Label-Propagation-Algorithmus (LPA) basierend auf dem Konzept des Graphen zu klassifizieren, wobei Knoten die markierten und nicht gekennzeichneten Beispielfragen darstellen und Kanten den Abstand zwischen den Beispielfragen darstellen, durch das Knotenlabel Propagation, um eine Frageklassifikation zu realisieren. Experimente an Korpussen von „Baidu Knows“, die Genauigkeit der fraglichen Klassifizierung durch die LPA ist nicht nur höher als die durch den KNN-Algorithmus und den SVM-Algorithmus, die die markierten Proben angewendet haben, sondern auch höher als die durch den SVM-basierten Bootstrapping-Algorithmus, der hat die markierten und unmarkierten Proben verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-20472-7_36 dcb7d86a5ffa7eb3d4a75045e2410114;de;;;2.1.;;;Semantische Verknüpfung biologischer Datenbanken zur Wissensentdeckung Viele wichtige biowissenschaftliche Fragestellungen zielen darauf ab, die Beziehungen und Wechselwirkungen zwischen biologischen Funktionen/Prozessen und biologischen Einheiten wie Genen zu untersuchen. Die Antworten können durch die Untersuchung verschiedener Arten von biologischen/genomischen Datenbanken gefunden werden. Um diese Antworten zu finden, müssen Sie jedoch auf Daten aus verschiedenen biologischen Datenquellen zugreifen und diese abrufen. Noch wichtiger ist, dass anspruchsvolle Prozesse zur Wissensermittlung das Durchlaufen einer großen Anzahl von inhärenten Verknüpfungen zwischen verschiedenen Datenquellen beinhalten. Derzeit werden die Links zwischen den Daten entweder als Hyperlinks implementiert, ohne ihre Bedeutungen und Labels explizit anzugeben, oder in einem scheinbar einfachen Textformat versteckt. Folglich verbringen Biologen viele Stunden damit, potenziell nützliche Links zu identifizieren und jedem Hinweis manuell zu folgen, was zeitaufwändig und fehleranfällig ist. Unsere Forschung zielt darauf ab, semantische Beziehungen zwischen allen biologischen Einheiten zu konstruieren. Wir haben ein semantisches Modell entworfen, um die Links zu kategorisieren und formal zu definieren. Durch die Einbindung von Ontologien wie Gene- oder Sequence-Ontologie schlagen wir Techniken vor, um die in und zwischen Datensätzen eingebetteten Links zu analysieren, ihre Semantik explizit zu kennzeichnen und die Link-Traversierung, Abfrage und Datenfreigabe zu erleichtern. Benutzer können dann komplizierte und spontane Fragen stellen und sogar ihren eigenen Workflow entwerfen, um ihre Prozesse zur Wissensermittlung zu unterstützen. Darüber hinaus haben wir eine empirische Analyse durchgeführt, um zu zeigen, dass unsere Methode nicht nur die Effizienz der Abfrage mehrerer Datenbanken verbessern kann, sondern auch nützlichere Informationen liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87991-6_4 2d761c28b095340dca93e03fcf4c785d;de;;;2.1.;;;Einsatz semantischer Technologien für einen intelligenten medizinischen Trainer Die Diagnose ist die Grundlage der Medizin. Medizinische Fakultäten müssen die Kompetenzen ihrer Studierenden im Clinical Reasoning bewerten, um zu beurteilen, wie medizinisches Wissen von den Studierenden angewendet wird. Es ist auch notwendig, dass dieses Wissen verfügbar ist und von Angehörigen der Gesundheitsberufe geteilt wird. Zum Teilen und Repräsentieren des Wissens existieren semantische Technologien als Terminologien und Ontologien. Basierend auf einem Inferenzsystem extrahierten wir aus einer medizinischen Wissensdatenbank eine Liste von Krankheits-Ontologien und deren zugehörigen Anzeichen/Symptomen und diagnostischen Tests. Wir haben die Cosinus-Ähnlichkeitsmetrik verwendet, um die Nähe zwischen Krankheiten zu finden. Es wurde ein Diagnose-Trainingsmodul entwickelt, in dem dem Medizinstudenten eine Krankheit und ihre Befunde aufgezeigt werden. Anschließend muss der Student die entsprechende Krankheit aus einer Liste von vier möglichen ähnlichen Krankheiten auswählen. Ontologien funktionieren hervorragend bei der Darstellung von medizinischem Wissen und seinen Anwendungen, jedoch gibt es kaum Hinweise auf ihre Verwendung in der Ausbildung von Medizinstudenten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30447-2_6 7f8dfb9058997f2f2d1c926ffddd7d3b;de;;;2.1.;;;Muster der Pflanzenvielfalt im Aljibe-Gebirge (Südspanien): eine umfassende Darstellung Das Aljibe-Gebirge liegt an der Südspitze der Iberischen Halbinsel und hat ein bemerkenswertes biogeografisches Interesse. Die vollständige Pflanzenartenliste (Bäume, Kletterpflanzen, Sträucher, mehrjährige und einjährige Kräuter, Farne, Flechten, Moose und makroskopische Algen) wurde auf vier 0,1 ha großen Parzellen von jedem der repräsentativsten Gemeinschaftstypen (;-;-;-;https://link.springer.com/article/10.1023/A%3A1008923213321 48b91482241426b25ad71c8eb44b293e;de;;;2.1.;;;Prüfung der europäischen Bachtypologie der Wasserrahmenrichtlinie für Makroinvertebraten In der EU-Wasserrahmenrichtlinie (WRRL) wird ein typologischer Rahmen für die zukünftige Bewertung der ökologischen Qualität von Gewässern definiert. Die Bedingungen der Richtlinie erfordern eine starke Nachfrage nach „neuen“ Bewertungssystemen. Während des AQEM-Projekts wurde ein Bewertungssystem für europäische Bäche mit Makroinvertebraten entwickelt. Ziel dieser Studie war es, zu testen, ob die in der WRRL vorgeschlagene Typologie für die Entwicklung eines Bewertungssystems für Makroinvertebraten in Bächen nützlich ist. Insgesamt wurden 889 Flüsse von 29 Bachtypen in acht Ländern entlang der großen geografischen Gradienten in Europa beprobt. Diese Bachtypen entsprechen den typologischen Anforderungen der WRRL und passen zu den wichtigsten europäischen geografischen Regionen (Ökoregionen). Die Standorte umfassten Gradienten von Referenzbedingungen (Definition siehe Nijboer et al., 2004) zu Standorten mit schlechter ökologischer Qualität. Trotz Standardisierung gab es große Unterschiede zwischen den teilnehmenden Ländern hinsichtlich der Anzahl der Taxa, der Anzahl der Exemplare und der taxonomischen Auflösung. Die Daten, einschließlich Makroinvertebraten und Umweltvariablen, wurden mithilfe der Canonical Correspondence Analysis (CCA) analysiert. Die beobachtete Verteilung von Makroinvertebraten unterstützte weitgehend die typologischen Kriterien der WRRL. Dies bedeutet, dass die wichtigsten Verteilungsmuster von Makroinvertebraten in europäischen Fließgewässern klimatologischen und geomorphologischen Bedingungen folgen und hinsichtlich der Fließgewässertypen gut unterschieden werden. Darüber hinaus konnte gezeigt werden, dass große Skalenfaktoren die Verteilung der Makroinvertebraten selbst auf sehr feinem Maßstab beeinflussten. Die meisten erklärenden Variablen schienen skalenunabhängig zu sein. Auch im feinen Maßstab kamen wichtige Faktoren der Geologie, Geomorphologie und Hydrologie zu den Artenvorkommen hinzu. Innerhalb der Flusstypen erklärte die Morphologie zusammen mit der Physikochemie am besten die Verteilung der Makroinvertebraten. Zusammenfassend lässt sich sagen, dass die Typologie der WRRL für ein Bewertungssystem für Bäche mit Makroinvertebraten nützlich ist. Die großskaligen Faktoren waren in der Tat die Variablen, die die meisten Variationen in der Artenzusammensetzung erklärten. Da diese Faktoren jedoch sogar stark auf der Ebene der Fließgewässertypen wirken, ist höchstwahrscheinlich eine weitere Verfeinerung erforderlich, um typologische Akteure von denen der Wasserqualität zu trennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-0993-5_3 0cde46bcd679e8259e6eb4e478c9a8e8;de;;;2.1.;;;Ähnlichkeitsmessung im Kontext Der Kontext spielt eine entscheidende Rolle bei der Messung der Ähnlichkeit zweier Konzepte. Nichtsdestotrotz wurde die Modellierung des Kontexts in bestehenden Theorien zur Ähnlichkeitsmessung meist vernachlässigt. In diesem Papier untersuchen wir den Einfluss des Kontexts auf bestehende Ansätze zur Ähnlichkeitsmessung für den Geobereich und konzentrieren uns darauf, ob und wie diese Ansätze dies berücksichtigen. Basierend auf diesen Beobachtungen wird die Kontextverarbeitung bei der Ähnlichkeitsmessung analysiert und allgemeine Implementierungsprobleme, insbesondere die Integration in bestehende Argumentationssysteme und die Berechenbarkeit, diskutiert. Die Ergebnisse der verschiedenen Analysen werden dann zu einem generischen Satz von Kontextmerkmalen für die Ähnlichkeitsmessung in Bezug auf den Geobereich zusammengefasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74255-5_21 ef4696dfa9e92e9df1c4b960313d8a3b;de;;;2.1.;;;CCAIIA: Clustering kategorialer Attribute zu interessanten Assoziationsregeln Wir untersuchen das Problem des Mining interessanter Assoziationsregeln über ein Paar kategorialer Attribute auf jeder Datengranularität. Wir tun dies, indem wir den Regelerkennungsprozess in eine Form des Clusterings integrieren. Dadurch können Assoziationen zwischen Gruppen von Gegenständen gebildet werden, wobei das Ertasten von Gegenständen darauf basiert, das „Interesse“ der entdeckten Assoziationen zu maximieren. Frühere Arbeiten zum Mining generalisierter Assoziationen gehen entweder von einer Distanzmetrik für die Attributwerte oder einer Taxonomie über die abgebauten Elemente aus. Diese Methoden verwenden die Metrik/Taxonomie, um den Raum möglicher Assoziationen einzuschränken, die gefunden werden können. Wir entwickeln ein Maß für die Interessantheit von Assoziationsregeln basierend auf der Unterstützung und der Abhängigkeit zwischen den Itemsets und verwenden dieses Maß, um die Suche zu leiten. Wir wenden die Methode auf einen Datensatz an und beobachten die Extraktion „interessanter“ Assoziationen. Diese Methode könnte es ermöglichen, interessante und unerwartete Assoziationen zu entdecken, da der Suchraum nicht durch benutzerdefinierte Hierarchien eingeschränkt wird.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-64383-4_12 d6f09ae633aed2314ba1f0d848ff5295;de;;;2.1.;;;Die residente orale Mikroflora Die residente orale Mikroflora ist vielfältig und besteht aus einer Vielzahl von Arten von Viren, Bakterien, Hefen und gelegentlich sogar Protozoen. Diese Vielfalt ist darauf zurückzuführen, dass die Mündung aus einer Reihe von unterschiedlichen Lebensräumen besteht, die mit einer Vielzahl von Nährstoffen versorgt werden. Darüber hinaus entwickeln sich in Zahnplaque Gradienten bei Parametern von ökologischer Bedeutung, wie Sauerstoffspannung und pH-Wert, die geeignete Bedingungen für das Wachstum und das Überleben von Mikroorganismen mit einem breiten Anforderungsspektrum bieten. Unter solchen Bedingungen hat keine Bakterienpopulation einen besonderen Vorteil und zahlreiche Arten können nebeneinander existieren. Diese Situation in der Mündung kann mit Ökosystemen verglichen werden, in denen die Intensität eines oder mehrerer Parameter sich dem Extrem nähert. Die mikrobielle Lebensgemeinschaft aus solchen Habitaten ist zwangsläufig durch eine geringe Artenvielfalt gekennzeichnet.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-7556-6_3 0a7a577ca07c4a67ca2818170aefe3d8;de;;;2.1.;;;Konzeptionelle Graphen aus der Sicht von Wissenssystemen Die Literatur zur Künstlichen Intelligenz (KI) enthält eine Vielzahl von Vorschlägen zur Erfassung semantischer Konzepte. Einer, der durch zwei internationale Konferenzen große Aufmerksamkeit erregt hat, sind Sowas konzeptionelle Graphen. Es wird behauptet, dass diese konzeptionellen Graphen eine gute Wissensrepräsentationssprache sind, die als Zwischenstufe zu einem relationalen Datenbankschema verwendet werden könnte. Es ist diese letztere Behauptung, die wir untersuchen werden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-52062-7_84 27491681a7753d2e7b18efd8c974f373;de;;;2.1.;;;"Aktive Speicherchips: Eine kurze Übersicht und Fallstudie Herkömmliche Speicher mit wahlfreiem Zugriff sind nur in der Lage, Daten in den einer gegebenen Adresse entsprechenden Speicherplatz zu schreiben und Daten daraus zu lesen. Die Verfügbarkeit von VLSI-Schaltungen mit Hunderttausenden von Schaltvorrichtungen hat jedoch in letzter Zeit die Implementierung von ""aktiven"" Speicherchips praktisch gemacht, die in der Lage sind, eine Reihe komplexer Operationen an ihren gespeicherten Daten durchzuführen. Solche Designs zeichnen sich durch die weitgehende Vermischung von Verarbeitungs- und Speicherressourcen innerhalb eines einzigen Chips aus, um eine schnelle und kostengünstige parallele Ausführung von Operationen zu erreichen, die für Aufgaben wie Bildverarbeitung, Computergrafik, künstliche Intelligenz und Datenbankverwaltung relevant sind.";-;-;-;https://link.springer.com/article/10.1007/BF01598961 ffac578f6924aee729852825e0c580cb;de;;;2.1.;;;Ein Vergleich der Service-Replikationsschemata von MANETs: Interesse versus Topologievorhersage Mobile Ad-hoc-Netze (MANETs) zeichnen sich insbesondere hinsichtlich der Bildung von Netzpartitionen durch eine hohe Dynamik aus. Das Vorhandensein nicht verbundener Partitionen macht die bereitgestellten Dienste für einige Netzwerkteilnehmer unzugänglich. Die Dienstreplikation wird als Ansatz verwendet, um dieses Problem zu überwinden und eine höhere Dienstverfügbarkeit sicherzustellen. Es wurden mehrere Protokolle und Algorithmen für die Dienstreplikation in MANETs vorgeschlagen. Die meisten dieser Ansätze wenden topologische Analyseschemata (wie Partitionierungsvorhersage) an, um die erforderlichen Replikationsentscheidungen zu treffen. Ein Ansatz, SDP, das Service Distribution Protocol, basiert seine Entscheidungen auf der Analyse des Interesses an dem Dienst, einem Konzept der Anwendungsschicht. In diesem Papier vergleichen wir die Leistung von Ansätzen, die auf diesen beiden Kriterien basieren. Zunächst analysieren wir Protokolle basierend auf der Topologievorhersage und wählen zwei typische Vertreter dieser Kategorie aus, nämlich PSRP und SSRP. Anschließend vergleichen wir SDP als einziger Kandidat, der das Serviceinteresse nutzt, mit diesen beiden Ansätzen. Dieser Vergleich basiert auf einer umfangreichen Reihe von Simulationsläufen, die in der Arbeit ausführlich diskutiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14171-3_17 2f8fc64407ab3d2c9200ce7cf7d954f4;de;;;2.1.;;;Vorhersage der Proteinfunktion durch abwärts gerichtete Random Walks auf einer Genontologie Hochdurchsatz-Biotechniken sammeln immer mehr genomische und proteomische Daten. Diese Daten sind trotz der Fortschritte bei den funktionellen Annotationen von Genen (oder Genproduktproteinen) weit davon entfernt, funktionell charakterisiert zu werden. Aufgrund experimenteller Techniken und des Forschungsbias in der Biologie sind die regelmäßig aktualisierten funktionalen Annotationsdatenbanken, d. h. die Gene Ontology (GO), noch lange nicht vollständig. Angesichts der Bedeutung von Proteinfunktionen für biologische Studien und das Wirkstoffdesign sollten Proteine ​​umfassender und genauer annotiert werden.;-;-;-;https://link.springer.com/article/10.1186/s12859-015-0713-y 1fe0c2149fa216c7ec288b201a9454aa;de;;;2.1.;;;Das Vorkommen von Grünland-Singvögeln auf verbleibenden Prärieflächen wird in erster Linie von Landschaftsmerkmalen bestimmt Die Populationen der nordamerikanischen Grasland-Singvögel sind aufgrund von Lebensraumverlust und Fragmentierung deutlich zurückgegangen. Das Verständnis des Einflusses der umgebenden Landschaft auf die Belegung von Präriefragmenten ist entscheidend für die Vorhersage des Schicksals von Graslandvögeln in diesen stark veränderten Landschaften.;-;-;-;https://link.springer.com/article/10.1007/s10980-017-0500-4 a3f120e2a0e84e496ab629f2936625d9;de;;;2.1.;;;Datenschutzerhaltende naive Bayes-Klassifizierung mit vertrauenswürdiger Drittanbieter-Berechnung über verteilte progressive Datenbanken Die Wahrung der Privatsphäre in verteilten progressiven Datenbanken ist in den letzten Jahren ein aktives Forschungsgebiet. In einem typischen Szenario möchten mehrere Parteien möglicherweise zusammenarbeiten, um interessante globale Informationen wie Klassenbezeichnungen zu extrahieren, ohne ihre jeweiligen Daten einander mitzuteilen. Dies kann insbesondere in Anwendungen wie Kundenbindung, medizinische Forschung usw. nützlich sein. In der vorgeschlagenen Arbeit wollen wir ein globales Klassifikationsmodell basierend auf dem Naive Bayes-Klassifikationsschema entwickeln. Die Naive Bayes-Klassifikation wurde wegen ihrer Einfachheit und hohen Effizienz verwendet. Zur Wahrung der Privatsphäre der Daten wurde das Konzept des vertrauenswürdigen Dritten mit zwei Offsets verwendet. Die Daten werden zuerst auf lokaler Seite anonymisiert und dann erfolgt die Aggregation und globale Klassifizierung bei der vertrauenswürdigen dritten Partei. Die vorgeschlagenen Algorithmen adressieren verschiedene Arten von Fragmentierungsschemata, wie zum Beispiel das horizontale, vertikale und beliebige Verteilungsformat. Der Datensatz zur Fahrzeugbewertung wird verwendet, um die Wirksamkeit der vorgeschlagenen Algorithmen zu testen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17857-3_3 70eeba1a8dab4f1203fd03f2203862bb;de;;;2.1.;;;Multi-Classifier-Schema mit Low-Level-Visual-Feature für die Bildklassifizierung von Erwachsenen Da die Nutzung und der Zugriff von Kindern auf die Webressourcen mit Pornobildern zunimmt, ist die Notwendigkeit von Methoden mit hoher Genauigkeit zum Erkennen und Blockieren von Erwachsenenbildern eine Notwendigkeit. In diesem Artikel wird ein neuartiges Multi-Klassifikator-Schema vorgeschlagen, das auf Low-Level-Features basiert, um die Vorteile des Klassifikator-Ensembles auszunutzen, um eine bessere Genauigkeit im Vergleich zu einem einzelnen Klassifikator zu erreichen, der auf die Erkennung von Erwachsenenbildern angewendet wird. Low-Level-Merkmale sind drei verschiedene MPEG-7-Deskriptoren, einschließlich Color Layout Descriptor (CLD), Scalable Color Descriptor (SCD) und Edge Histogram Descriptor (EHD). Im Klassifikationsteil werden Support Vector Machine (SVM) und AdaBoost angewendet und kombiniert. Experimentelle Ergebnisse zeigen, dass das vorgeschlagene Schema besser funktioniert als jeder einzelne Klassifikator, der in den Experimenten verwendet wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22203-0_66 8944933b8aec260fd97c23db3652e87a;de;;;2.1.;;;Ein neuronales Framework zur Modellierung von Benutzerpräferenzen für Empfehlungen basierend auf Knowledge Graph Um die Datenknappheit und Kaltstartprobleme in den traditionellen Empfehlungssystemen anzugehen, zielen viele Forscher darauf ab, Wissensgraphen (KG) in Empfehlungssysteme zu integrieren, um die Empfehlungsleistung zu verbessern. Bestehende Bemühungen stützen sich jedoch hauptsächlich auf handentwickelte Funktionen von KG (z. B. Metapfade), die Domänenkenntnisse erfordern. Da Relationen zudem in der Regel von Metapfaden ausgeschlossen sind, spezifizieren sie kaum die ganzheitliche Semantik von Pfaden. Um die Grenzen bestehender Methoden zu adressieren, schlagen wir ein end-to-end neuronales User Preference Modeling Framework (UPM) vor, um Merkmale der Entität und Beziehung von KG in die Darstellungen von Benutzern und Elementen zu integrieren, um so die latenten Interessen der Benutzer genau zu lernen. Insbesondere propagiert UPM zunächst die Benutzerinteressen entlang von Verbindungen zwischen Entitäten in KG iterativ, um die potenziellen Präferenzen des Benutzers für den Artikel zu erfahren. Darüber hinaus werden diese Präferenzmerkmale dynamisch während des Präferenzausbreitungsprozesses verwendet. Das heißt, die Bedeutung dieser Präferenzmerkmale zur Charakterisierung des Benutzers ist unterschiedlich. Daher wird in UPM ein Aufmerksamkeitsnetzwerk verwendet, um den Einfluss von Präferenzmerkmalen in verschiedenen Ausbreitungsstadien zu berechnen, dann wird der endgültige Präferenzvektor des Benutzers aus den Präferenzmerkmalen und den entsprechenden Gewichtungen berechnet. Schließlich wird die endgültige Vorhersagewahrscheinlichkeit der Benutzer-Artikel-Interaktion durch die innere Produktoperation zwischen der Einbettung von Artikel und Benutzer erhalten. Um unser Framework zu evaluieren, zeigen umfangreiche Experimente an zwei realen Datensätzen signifikante Leistungsverbesserungen gegenüber modernsten Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29908-8_14 a2327e4676e05974327b00886305b459;de;;;2.1.;;;Entropiebasierte Ranking-Methode für Knoten in gewichteten und gerichteten Netzwerken Zahlreiche Forschungsarbeiten wurden durchgeführt, um geeignete Modelle zur Messung von Knotenzentralitäten zu finden, um die wichtigsten und einflussreichsten Knoten in einem komplexen Netzwerk zu bestimmen. Von den zahlreichen existierenden Zentralitätsmetriken befassen sich nur wenige mit Zentralität auf Subgraph-Ebene. Wir haben das Subgraph-Zentralitätsmodell basierend auf der Entropiezentralität modifiziert, indem wir Gewichte auf gerichteten Netzwerken berücksichtigt haben. Das modifizierte Subgraph-Zentralitätsmodell erfasst nun die Intensität der Interaktionen zwischen einem Pivotknoten und den direkten Einfluss, den er auf seine Nachbarn ausübt, sowie seinen indirekten Einfluss auf seine 2-Hop-Nachbarn. Eine Leistungsbewertung wurde an gewichteten und gerichteten realen Netzwerkdatensätzen durchgeführt. Wir haben die modifizierte Subgraph-Zentralität gleichermaßen mit Out-Degree Centrality, Betweeness Centrality, Out-Closeness Centrality, Eigenvector Centrality und Pagerank Centrality verglichen. Die Ergebnisse zeigen, dass die modifizierte Subgraph-Zentralität Knoten in gerichteten und gewichteten Netzwerken eindeutig einordnen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4929-2_17 77f53bd44c1306ba615f2e9cc7480488;de;;;2.1.;;;Flexible Methode zur Distanzmessung zwischen den gespeicherten Wahrnehmungen kommunikativer Agenten In diesem Beitrag wird eine flexible Methode zur Distanzmessung zwischen gespeicherten Wahrnehmungen kommunikativer Agenten vorgeschlagen. Es wird davon ausgegangen, dass jeder Agent die Zustände externer Objekte beobachtet, die in Form von Basisprofilen in einer privaten temporalen Datenbank gespeichert werden. Das Distanzmaß wird vom Agenten im Algorithmus zur Nachrichtengenerierung oder bei der Integration der während Kommunikationsaktivitäten gesammelten Meinungen anderer Agenten angewendet, um ein objektives Bild des aktuellen Zustands von Objekten zu erstellen. Das vorgeschlagene Abstandsmaß zwischen Basisprofilen basiert auf einer Berechnung der Kosten der Transformation eines Basisprofils in ein anderes. Die Bewegungshierarchie der Objekte wird eingeführt und anhand von Erwartungswert und Zufallsvariable mathematisch erklärt.;-;-;-;https://link.springer.com/chapter/10.1007/11893004_29 88a3ed8ec23e5f12c8c6a4211bab70b1;de;;;2.1.;;;Inkonsistenzüberwachung in einer großen wissenschaftlichen Wissensdatenbank Große wissenschaftliche Wissensdatenbanken (KBs) enthalten zwangsläufig Inkonsistenzen und unzureichend spezifiziertes Wissen. Inkonsistenzen sind inhärent, da sich der Ansatz zur Modellierung bestimmter Phänomene im Laufe der Zeit weiterentwickelt und zu jedem Zeitpunkt widersprüchliche Ansätze zur Modellierung eines Teils des Domänenwissens gleichzeitig in der KB existieren können. Eine Unterspezifikation ist inhärent, da eine große, komplexe KB selten vollständig spezifiziert ist, insbesondere wenn sie von Domänenexperten verfasst wurde, die nicht formal in der Wissensrepräsentation geschult sind. Wir beschreiben unseren Ansatz zum Inkonsistenzmonitoring in einer großen Biologie-KB. Wir verwenden eine Kombination von Antimustern, die auf eine schlechte Modellierung und Inkonsistenzen aufgrund einer Unterspezifikation hinweisen. Aus dieser Erfahrung ziehen wir die folgenden Lehren: (1) Wissenserstellung muss einen Zwischenschritt zwischen Erstellung und Laufzeitinferenz beinhalten, um Fehler und Inkonsistenzen zu erkennen, (2) Unterspezifikation kann die Wissenskodierung erleichtern, erfordert jedoch eine angemessene Benutzerkontrolle und (3) da;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13704-9_6 7b5b67ba0a6e4cc7f0c48cc63b162c04;de;;;2.1.;;;Grober Power-Set-Baum zur Merkmalsauswahl und -klassifizierung: Fallstudie zu MRT-Hirntumor Dieser Artikel präsentiert ein Merkmalsauswahl- und Klassifikationssystem für 2D-Hirntumore aus Magnetresonanztomographie (MRT)-Bildern. Der vorgeschlagene Ansatz zur Merkmalsauswahl und -klassifizierung besteht aus vier Hauptphasen. Erstens, Clustering-Phase, die den K-Means-Clustering-Algorithmus auf 2D-Hirntumorschnitte anwendet. Zweitens, Merkmalsextraktionsphase, die die optimale Merkmalsteilmenge unter Verwendung des Helligkeits- und Zirkularitätsverhältnisses extrahiert. Drittens, Reduktionserzeugungsphase, die einen Grobsatz basierend auf einem Leistungssatzbaumalgorithmus verwendet, um die Reduktion auszuwählen. Schließlich die Klassifizierungsphase, die den Algorithmus des Multilayer Perceptron Neural Network auf das Reduct anwendet. Experimentelle Ergebnisse zeigten, dass der vorgeschlagene Klassifikationsansatz im Vergleich zu anderen Klassifikatoren wie Naive Bayes, AD-Tree und BF-Tree eine hohe Erkennungsrate erreichte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-01781-5_24 8b5b30a6e33e72a27aafa47febd04ee1;de;;;2.1.;;;Visuelle Sentiment-Themenmodell-basierte Mikroblog-Bild-Sentimentanalyse Da eine wachsende Zahl von Bildern verwendet wird, um Meinungen in Microblogs auszudrücken, reicht die textbasierte Stimmungsanalyse nicht aus, um die Stimmungen der Benutzer zu verstehen. Um die in Microblog-Bildern implizierten Sentiments zu erhalten, schlagen wir ein Visual Sentiment Topic Model (VSTM) vor, das Bilder im selben Microblog-Thema sammelt, um die Ergebnisse der visuellen Sentimentanalyse zu verbessern. Zuerst erhalten wir die visuellen Sentiment-Features mithilfe von Visual Sentiment Ontology (VSO), dann erstellen wir ein Visual Sentiment Topic Model, indem wir alle Bilder im selben Thema verwenden, und schließlich wählen wir bessere visuelle Sentiment-Features entsprechend der Verteilung der visuellen Sentiment-Features aus in einem Thema. Der beste Vorteil unseres Ansatzes besteht darin, dass die Merkmale der diskriminativen visuellen Sentiment-Ontologie gemäß dem Sentiment-Themenmodell ausgewählt werden. Die Versuchsergebnisse zeigen, dass die Leistung unseres Ansatzes besser ist als die des VSO-basierten Modells.;-;-;-;https://link.springer.com/article/10.1007/s11042-014-2337-z 99665f8ac6c700ad8b9f5a3b8146a46b;de;;;2.1.;;;Wissenschaft, Vorwissenschaft und Pseudowissenschaft Wir haben in diesem Buch immer wieder zwei zentrale philosophische Themen hervorgehoben. Die erste davon ist, dass philosophisches, wissenschaftliches und alltägliches Denken frei von unveränderlichen transzendentalen Prinzipien a priori sein muss. Im philosophischen Kontext bedeutet dies – oder zumindest vereinbar – eine anthropologische Sichtweise des Menschen als Teil von Natur und Gesellschaft (siehe Kapitel 1). Wir haben dies teilweise mit der Verleugnung des Mythos des Gegebenen in Kapitel 3 und mit der Annahme eines internen oder „sichtpunktabhängigen“ wissenschaftlichen Realismus in Kapitel 6 erklärt. Dementsprechend kann allgemein behauptet werden, dass es solche Dinge nicht gibt als Welt, Wahrheit, Wert, Mensch, Vernunft, Gott usw., wobei hier Großbuchstaben verwendet werden, um auf eine a priori privilegierte Sichtweise bezüglich der genannten Sache zu verweisen. Aber erinnere dich daran, dass die Kehrseite der Medaille der Ablehnung des Mythos des Gegebenen darin besteht, dass es ohne Vorwissen, ohne Voraussetzungen kein Wissen geben kann. Dementsprechend bedarf es auch einer Art transzendentaler Erkenntnis, nämlich der Erkenntnis von Gegenständen oder „Metawissen“, wenn auch nicht im Kantischen Sinne.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-5446-5_10 24fb065f632a2359b7600572f660f5d2;de;;;2.1.;;;Eine Plattformidentifizierungsmethode für das Design von Servicefamilien unter Verwendung eines Prozessmodells und einer Clustering-Methode Das Ziel dieser Forschung ist es, eine Methode zur Identifizierung einer Serviceplattform zusammen mit Varianten und einzigartigen Modulen vorzustellen, um eine Servicefamilie durch Integration objektorientierter Konzepte, Ontologien und Data-Mining-Techniken zu erstellen. Ein Dienstprozessmodell wird eingeführt, um einen Dienst basierend auf einer Sequenz unter Verwendung eines Graphenmodells und objektorientierter Konzepte zu beschreiben. Fuzzy-Clustering wird verwendet, um Serviceprozesse in Teilmengen zu unterteilen, um gemeinsame Module – die Plattform – und spezifische Module für die jeweilige Servicefamilie zu identifizieren. Um die vorgeschlagene Methode zu demonstrieren, wenden wir sie an, um eine Plattform für eine Familie von Bankdienstleistungen auszuwählen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84996-489-0_8 182b3a776c4edbd62a1d1d94077ef56f;de;;;2.1.;;;Vergleichende Analyse von Gabor und diskriminierenden Merkmalsextraktionstechniken zur Skriptidentifikation Ein beachtlicher Erfolg wurde bei der Entwicklung einsprachiger OCR-Systeme für indische Schriften erzielt. Aber in einem Land wie Indien, wo viele Sprachen und Schriften existieren, ist es üblicher, dass ein einzelnes Dokument Wörter aus mehr als einer Schrift enthält. Daher ist ein Skript-Identifikationssystem erforderlich, um die geeignete OCR auszuwählen. Dieses Papier präsentiert eine vergleichende Analyse von zwei verschiedenen Merkmalsextraktionstechniken zur Skriptidentifikation jedes Wortes. In dieser Arbeit werden für die Schriftidentifikation diskriminierende und Gabor-Filter-basierte Merkmale aus Punjabi-Wörtern und englischen Ziffern berechnet. Extrahierte Merkmale werden mit Knn- und SVM-Klassifikatoren simuliert, um das Skript zu identifizieren, und dann werden die Erkennungsraten verglichen. Es wurde beobachtet, dass durch die Auswahl des geeigneten Wertes von k und der geeigneten Kernelfunktion mit einer geeigneten Kombination von Merkmalsextraktion und Klassifikationsschema ein signifikanter Abfall der Fehlerrate auftritt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19403-0_27 488486cfb5976d259e9a9baa233fbe24;de;;;2.1.;;;Untersuchung der räumlich-zeitlichen Verteilung optischer Aerosoleigenschaften über zwei ozeanische Regionen rund um den indischen Subkontinent während der Sommermonsunzeit An Bord des Oceanographic Research Vessels (ORV) von Sagar Kanya (SK) wurden vom 7. bis 21. Juni 2014 (SK-313) und vom 31. Juli bis 14. Juli säulenförmige spektrale optische Aerosoltiefen (AODs) und Gesamtschwebstaubkonzentrationen (TSPM) erfasst August 2015 (SK-323) über dem Arabischen Meer (AS) bzw. dem Golf von Bengalen (BoB) für die beiden aufeinander folgenden Jahre während der Sommermonsunzeit. AOD gemessen bei 500 nm (AOD;-;-;-;https://link.springer.com/article/10.1007/s11356-018-2682-y 8ef637454a2528f7ae9e75e702fa6d3a;de;;;2.1.;;;MLICC: Eine Multi-Label- und inkrementelle Schwerpunkt-basierte Klassifikation von Webseiten nach Genre Dieses Papier schlägt einen verbesserten zentroidbasierten Ansatz vor, um Webseiten nach Genre zu klassifizieren, indem Zeichen-N-Gramme verwendet werden, die aus URL, Titel, Überschriften und Ankern extrahiert werden. Um der Komplexität von Webseiten und der schnellen Entwicklung von Web-Genres gerecht zu werden, implementiert unser Ansatz ein Multilabel- und inkrementelles Schema, bei dem Webseiten einzeln klassifiziert werden und in mehr als ein Genre eingeteilt werden können. Entsprechend der Ähnlichkeit zwischen der neuen Seite und jedem Genreschwerpunkt passt unser Ansatz entweder den Genreschwerpunkt an oder betrachtet die neue Seite als Rauschseite und verwirft sie. Durchgeführte Experimente zeigen, dass unser Ansatz sehr schnell ist und überlegene Ergebnisse gegenüber bestehenden Multi-Label-Klassifikatoren erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31178-9_19 f3b2eed748dbc07b893928bf79cae130;de;;;2.1.;;;QoS-Untersuchung für Stromnetzwerke mit verteilten Steuerungsdiensten In diesem Papier wird ein verteiltes Steuerungsschema von Schlüsseltechnologien entworfen, das hauptsächlich das QoS-Identifikationsmodul (Quality of Service) und das QoS-Routing-Optimierungsmodul umfasst. Gleichzeitig wurde eine neue Routing-Methode entwickelt, um Routing-Tabellen zu transformieren und das QoS-Multicast-Routing mithilfe des evolutionären Quantenalgorithmus zu optimieren. Dieses Papier realisiert die traditionelle zentralisierte Steuerung des Stromnetzes, die umfassende Transformation des Dienstes und des QoS-Trennungsmodus und realisiert den verteilten QoS-Steuerungsmodus entsprechend dem Stromdienst. Die experimentellen Ergebnisse zeigen, dass das neu entworfene Schema unterschiedliche QoS-Garantien gemäß unterschiedlichen Anforderungen des Dienstes bereitstellen und die QoS-Leistung des Stromnetzes effektiv verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-62223-7_19 709635faec7bd41377306ad7ce87874b;de;;;2.1.;;;Erkennung menschlicher Aktivitäten mit lokalem Bewegungshistogramm Die Erkennung menschlicher Aktivitäten ist ein wichtiges Problem in der Computer Vision mit mehreren Herausforderungen. In diesem Artikel haben wir eine Methode zur Erkennung menschlicher Aktivitäten vorgeschlagen, die auf lokaler Bewegungsschätzung in RGB-Videos basiert. Das Hintergrundsubtraktionsverfahren wird bei einem Paar aufeinanderfolgender Frames verwendet, um die lokale Bewegung zu bestimmen, und für ein kleines Bündel von Frames wird die maximale Bewegungsgröße an einem Pixel verwendet, um eine projizierte Bewegungsmatrix zu erzeugen. Die Matrix wird in horizontale und vertikale Streifen segmentiert und binnte Histogramme jedes Streifens dienen als Merkmalsdeskriptoren. Wir haben diese Deskriptoren in einem auf Zufallsstrukturen basierenden Klassifizierungsschema verwendet und die Leistung von JHMDB, einem öffentlich verfügbaren RGB-Datensatz für menschliches Handeln, bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8660-1_69 92963e2732cfc3dd4a8d10e288dc8992;de;;;2.1.;;;Verbesserung der Lernfähigkeit von Klassifikatorsystemen durch Faltungs-Autoencoder zur Klassifizierung von Unterwasserbildern Die Klassifizierung von Unterwasserbildern ist aufgrund der schwierigen Unterwasserumgebung und der Lichtverhältnisse eine anspruchsvolle Aufgabe. Wir schlagen ein neuartiges lernendes Klassifikatorsystem (LCS) vor, das großformatige Unterwasserbilder mit vielversprechender Genauigkeit klassifizieren und Wissen in interpretierbarem Format gewinnen kann, indem es einen neuartigen Klassifikationsfaltungs-Autoencoder (CCAE) verwendet. Im vorgeschlagenen System ist CCAE als hybrides Netzwerk ausgelegt, das die Vorteile von Klassifizierung und Autoencoder kombiniert, um komprimierte nicht-triviale Merkmale zu extrahieren. Es wird auch verwendet, um von LCS generierte Regeln in den ursprünglichen Eingabebereich zu dekomprimieren. Um die Wirksamkeit der vorgeschlagenen Lösung zu bewerten, werden Experimente an ausgewählten Unterwasser-Synsets des Benchmark-ImageNet-Datensatzes durchgeführt. Die Ergebnisse werden mit bekannten CNN-Methoden basierend auf Parametern wie Genauigkeit, Präzision, Recall und F-Maß verglichen. Experimente zeigen, dass das vorgeschlagene System großformatige Unterwasserbilder mit vielversprechender Genauigkeit genau klassifizieren kann und bekannte tiefe CNN-Methoden übertrifft. Es wurde auch beobachtet, dass LCS-generierte Regeln gut verallgemeinert, genau und interpretierbar sind.;-;-;-;https://link.springer.com/article/10.1007/s00500-021-05738-w 04aa21e08b2cc9180628ed6047222f43;de;;;2.1.;;;Die Wissenschaft der Mustererkennung. Erfolge und Perspektiven Die automatische Mustererkennung wird in der Regel als ein Ingenieursgebiet betrachtet, das sich auf die Entwicklung und Bewertung von Systemen konzentriert, die den Menschen imitieren oder in seiner Fähigkeit zur Mustererkennung unterstützen. Es kann jedoch auch als eine Wissenschaft angesehen werden, die die Fähigkeit des Menschen (und möglicherweise anderer biologischer Systeme) untersucht, Muster in seiner Umwelt zu entdecken, zu unterscheiden, zu charakterisieren und dementsprechend neue Beobachtungen zu identifizieren. Der technische Ansatz zur Mustererkennung ist aus dieser Sicht ein Versuch, Systeme zu bauen, die dieses Phänomen simulieren. Auf diese Weise wird ein wissenschaftliches Verständnis dafür gewonnen, was allgemein notwendig ist, um Muster zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71984-7_10 58b075a2d943f50be2a287005dd72f40;de;;;2.1.;;;Stratigraphie und Fazies des Mittelpaläozoikums von Teilen des südlichen Tien-Shan in Tadschikistan und Usbekistan Erstmals werden detaillierte Beschreibungen wichtiger Abschnitte verschiedener mittelpaläozoischer Gesichtstypen aus den Zeravshan-Hisar- und Turkestan-Zeravshan-Struktur-Fazies-Zonen des südlichen Tien-Shan in Tadschikistan und Usbekistan gegeben. Aus der Zeravshan-Hissar-Zone werden Sequenzen von Khauzieram (Khauzieram, Pani), Turkparida (Darikhurdak, Darikalon 1-2) und Serima (Nofin, Serima) Gesichtstypen beschrieben. Innerhalb der Zone Turkestan-Zeravshan wird der Abschnitt Urmitan beschrieben, der sich auf die gleichen Sequenztypen bezieht. Dabei werden die physikalisch-geographischen Bedingungen der Sedimentation der verschiedenen Schichten berücksichtigt. Faunenlisten, insbesondere für Conodonten, sind enthalten.;-;-;-;https://link.springer.com/article/10.1007/BF03043614 d6cf0a724c6b7332be45437ec89d1243;de;;;2.1.;;;Verbesserung der Kommunikation durch 3D-Animation Dieses Papier präsentiert eine übergeordnete Ansicht eines Projekts, das darauf abzielt, die Kommunikation zwischen Menschen zu verbessern, die nicht dieselbe Sprache sprechen, indem eine obere Ebene der 3D-Animation verwendet wird, um die inhärenten Einschränkungen von geschriebenem Text aufzuheben. Wir produzieren Animationen im Collada-Dateiformat, einem auf dem XML-Format basierenden Standard. Dieses Projekt (GITAN ) hat im Januar 2010 begonnen und wir erwarten die ersten Ergebnisse bis Ende 2010. Eine begrenzte Anzahl von Sätzen wird den globalen Prozess validieren und uns helfen, die in der Pipeline entwickelten Tools zu verfeinern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15384-6_44 b67f5bcc5f47176653a55f2dfc13884d;de;;;2.1.;;;Hybrides Multi-Agenten-System für Wissensmanagement in verteilten Steuerungssystemen DCS (Distributed Control System) Softwaresysteme sind eine der typischen Anwendungen in der Industrie zum Überwachen, Messen und Regeln. Der Beitrag befasst sich mit Wissensmanagement basierend auf einer Hybrid Multi-Agent System Umgebung und die vorgestellten Lösungen sollen eine plattformunabhängige duale Abstraktion von DCS sowohl für Ontologie als auch für das Design von Steuerungssystemen ermöglichen. Hybride Multi-Agent-basierte Softwaresysteme verbinden erfolgreich sowohl Zuverlässigkeit als auch Effizienz in Wissensmanagementprozessen, was ein Schlüsselaspekt eines robusten Automatisierungssoftwaresystems ist. Das vorgeschlagene Hybridsteuerungssystem ist für die Stimulierung des Pilotprozesses der Abwasserbehandlung ausgelegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21219-2_17 21191bfcce94693f97dfe596365612d1;de;;;2.1.;;;Forschungsparadigma und -methodik In diesem Kapitel wird die ausgewählte Forschungsmethodik für das im Buch vorgestellte Forschungsprojekt vorgestellt. Die Auswahl der Forschungsmethodik wurde vom Hauptziel dieses Projekts geleitet, das darin besteht, KS-Barrieren zwischen TCM- und WM-Gesundheitsfachkräften in ihrer patientenzentrierten Zusammenarbeit zu identifizieren. Darüber hinaus wurde die Auswahl der Forschungsmethodik nach der Literaturrecherche und auf der Grundlage der Implikationen der Literaturrecherche entschieden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45162-5_4 4747c5ada287a2724ae70b504e724ded;de;;;2.1.;;;Grid-Workflow-Modellierung für Remote Sensing Retrieval Service mit enger Kopplung Grid-Computing-Technologie ist ein neuer Weg für die Datenverarbeitung aus der Ferne. Tight-Coupling-Fernerkundungsalgorithmen können nicht direkt von der Netzplattform geplant werden. Daher benötigen wir ein interaktives grafisches Werkzeug, um die Ausführungsbeziehungen von Algorithmen darzustellen und automatisch die entsprechenden eingereichten Beschreibungsdateien für die Grid-Plattform zu generieren. In diesem Artikel diskutieren wir hauptsächlich einige Anwendungsfälle basierend auf Grid Computing für Geowissenschaften und die Anwendungsgrenzen von Grid in der Fernerkundung und geben die Methode der Grid Workflow Modellierung für die Fernerkundung an. Ausgehend von der Modellierung entwerfen wir dann ein konkretes Beispiel.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01973-9_39 9357df3ce989b66570f504b83827f1eb;de;;;2.1.;;;Erkundung der Interface-Theorie der Wahrnehmung: Antworten auf Kommentare Wir schlagen vor, dass die Selektion nichtveridische Wahrnehmungen begünstigt, die auf Fitness abgestimmt sind. Aktuelle Lehrbücher behaupten im Gegenteil, die Wahrnehmung sei nützlich, weil sie im Normalfall wahrheitsgetreu sei. Intuition, sowohl für Laien als auch für Experten, steht eindeutig auf der Seite der Lehrbücher. Wir erwarteten daher, dass einige Kommentatoren unseren Vorschlag ablehnen und Gegenargumente vorbringen, die eine produktive Debatte anregen könnten. Wir freuen uns, dass sich tatsächlich mehrere Kommentatoren dieser Gelegenheit gestellt und gegen unseren Vorschlag argumentiert haben. Wir freuen uns auch, dass mehrere andere unseren Vorschlag für eine Erforschung wert gefunden haben und Möglichkeiten angeboten haben, ihn zu testen, weiterzuentwickeln und ihn tiefer mit der Ideengeschichte der Wissenschaft und Philosophie der Wahrnehmung zu verknüpfen. An beide Kommentatorengruppen: Danke. Punkt und Kontrapunkt, gestützt auf Daten und Theorie, sind das Wesen der Wissenschaft. Wir hoffen, dass der hier aufgezeichnete Austausch das wissenschaftliche Verständnis der Wahrnehmung und ihrer Evolution voranbringt. Im Folgenden beantworten wir die Kommentare in alphabetischer Reihenfolge.;-;-;-;https://link.springer.com/article/10.3758/s13423-015-0931-3 0c38afdffca78c52314aed8e1d943cb8;de;;;2.1.;;;Ein muster- und regelbasierter Ansatz zur Wiederverwendung der Modelle von Adaptive Hypermedia Creator Das Design von Adaptive Hypermedia ist eine schwierige Aufgabe, die erleichtert werden kann, wenn generische Systeme und Modelle von AH-Erstellern wiederverwendet werden. Wir adressieren dieses Designproblem im Rahmen der GLAM-Plattform, die nur aus generischen Komponenten besteht. In diesem Papier gehen wir davon aus, dass die GLAM-Plattform verwendet wird, um ein spezifisches adaptives Hypermedia zu erstellen. Wir präsentieren einen muster- und regelbasierten Ansatz, der einem AH-Ersteller dabei hilft, seine Benutzer- und Domänenmodelle und Instanzen wiederzuverwenden, um sie zu berücksichtigen. Dieser halbautomatische Ansatz verwendet die Modelle des Erstellers als Spezialisierungen der generischen GLAM-Modelle und erfordert, dass der Ersteller ein Minimum an Zuordnungen zwischen seinen Modellen und den generischen Modellen ausdrückt. Der Prozess führt zu einem zusammengeführten Modell, bestehend aus dem generischen und dem entsprechenden spezifischen Modell, das vollständig mit dem GLAM-Anpassungsmodell kompatibel ist. Ein Plug-in und Experimente im Bereich E-Learning wurden teilweise entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87696-0_5 2c994e91e601e8c8eeaa10ae89d5c52f;de;;;2.1.;;;Eine erste Untersuchung zu semantikbasierten Modellen von Sprache ist im Grunde das System, das der Mensch zur Kommunikation verwendet und deckt ein breites Spektrum seiner Aktivitäten ab. Es ist ein soziales Phänomen, das zu einem sich entwickelnden System von großer Komplexität führt. Sprache ist untrennbar mit Wissenskommunikation und -repräsentation verbunden und wird hier als komplexe Realität betrachtet, die schrittweise und inkrementell mathematisch dargestellt werden soll.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-18606-1_32 54e60051fade9500b1c7be679e24763b;de;;;2.1.;;;Terminologische und Assertionsabfragen in der KQL-Wissenszugriffssprache Eine der Entwicklungsrichtungen von Informationssystemen in den letzten Jahren ist die Entwicklung von datenbasierten Systemen zu wissensbasierten Systemen. Als Teil dieses Prozesses wird laufend an einer ganzen Reihe von Sprachen für den Zugang zu Wissensdatenbanken gearbeitet. Sie können in einer Vielzahl von Anwendungen verwendet werden, ihr größter Nachteil ist jedoch das Fehlen einer klar definierten Algebra, die eine theoretische Grundlage für sie darstellt. Eine solche Basis ist beispielsweise die relationale Algebra für SQL. Der Beitrag stellt eine neue Sprache für den Zugang zu Wissensbasen vor, die auf einem soliden, theoretischen Fundament aufbaut – die Algebra ontologischer Module.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16696-9_12 aa89e75c79f12730eb1cce3554ff5616;de;;;2.1.;;;Radiolarium-basiertes Zonenschema der Kreide (Albisch-Santonain) der Tethy-Regionen Eurasiens Ein Schema der radiolarischen Zonenunterteilung wird für das obere Albian-Santonian der Tethyan-Regionen Eurasiens vorgeschlagen. Der obere Albian enthält eine Zone: Crolanium triangulare, der Cenoman enthält drei Zonen: Patellula spica (unterer Cenoman), Pseudoaulophacus lenticulatus (mittlerer Cenoman) und Triactoma parva (oberer Cenoman), der Turon enthält vier Zonen: Acanthocircus tympanum (unterer Turonian) ohne Oberteil)), Patellula selbukhraensis (oberer Teil des unteren Turoniums), Phaseliforma turovi (mittleres Turonium (ohne Oberteil)) und Actinomma (?) Das Coniacium enthält zwei Zonen: Alievium praegallowayi (unterer Teil des Coniaciums) und Cyprodictyomitra longa (oberer Teil des Coniaciums), das Santonium enthält drei Zonen: Theocampe urna (unteres Santonium), Crucella robusta (mittleres Santonium – unterer Teil des oberen ( ?) Santonium) und Afens perapediensis (oberer Teil des oberen Santoniums). Die biostratigraphischen Unterteilungen sind mit Biostrata in den zuvor für Tethys und Pacific vorgeschlagenen Schemata korreliert. Eine neue Spezies;-;-;-;https://link.springer.com/article/10.1134/S0869593816020015 4b0871914ad347ee8308402715b4192c;de;;;2.1.;;;Bildungspraktiken in Computational Thinking: Assessment, pädagogische Aspekte, Grenzen und Möglichkeiten: Eine systematische Mapping-Studie Das Konzept des Computational Thinking (CT) ist immer noch unklar, obwohl es in mehreren Studien und Bildungspraktiken im Bildungskontext der K-12 verwendet wird. Viele pädagogische Aspekte im Zusammenhang mit dem CT-Unterricht erfordern das Verständnis von Lernansätzen. Mit dem Ziel, das CT-Verständnis zu verbessern, führten wir eine zweite systematische Mapping-Studie durch, in der neue Daten zu unserer vorherigen Studie aggregiert wurden [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58459-7_21 e202efe29fbef632a93b8517e1610b94;de;;;2.1.;;;Dialektik in der Realität Dieses Kapitel stellt unsere Vorstellung von der Welt vor, in der die logische und dialektische Entwicklung von Prozessen, Veränderungen, stattfindet. Dialektik erschien als ein Diskurs zwischen zwei oder mehr Menschen, die unterschiedliche Standpunkte zu einem Thema vertreten, aber die Wahrheit durch begründete Argumente feststellen wollten. Sie bezieht sich auf die Welt, die aus mehreren agierenden ontologischen Einheiten besteht, die als Beobachter fungieren, während sich die formale Logik auf eine einheitliche Teilmenge der Gesetze bezieht, die allen Beobachtern gemeinsam sind. Unser methodischer Ansatz ist selbst eine dialektische Anwendung unserer Logik in der Realität auf das Verständnis des ontologischen Grundes der Existenz, soweit uns eine philosophische Analyse reichen kann. Es wird in seiner Position ähnlich sein, wenn auch natürlich nicht im Detail der Kosmologie, die man in den chinesischen Klassikern findet. Diese Analyse wird in Kap.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-62757-7_5 ba1cc4cd7fc7bd3d4adad32e60650ac5;de;;;2.1.;;;Ein semantischer Scoring-Ansatz für Serviceangebote Die Automatisierung der Serviceauswahl mit semantischen Ansätzen wurde in den letzten Jahren intensiv untersucht. Angesichts der großen Anzahl von Anbieterangeboten ist die Beschaffung der relevantesten Dienstleistungen für die Kundenintentionen eine komplexe Aufgabe, insbesondere wenn Anbieter und Kunden nicht den gleichen Wissensstand teilen. Insbesondere die Unterscheidung zwischen sehr ähnlichen Angeboten, die dieselbe Anzahl von Kundenbeschränkungen erfüllen, ist immer noch eine anspruchsvolle Aufgabe. In diesem Beitrag stellen wir einen neuartigen semantischen Scoring-Ansatz vor, der Kunden dabei unterstützt, das am besten geeignete Serviceangebot gemäß ihren Absichten auszuwählen. Unser Ansatz erkennt direkte und indirekte semantische Übereinstimmungen zwischen diesen Absichten und den verfügbaren Angeboten anhand von ontologischen Modellen. Es bewertet diese Angebote fair und ordnet sie nach ihrer semantischen Nähe zu den Client-Intentionen unter Berücksichtigung sowohl funktionaler als auch QoS-Eigenschaften. Unser Ranking basiert auf einer eingehenden Prüfung der Anbieterangebote und kann zwischen Dienstleistungen unterscheiden, die für nicht erfahrene Kunden gleich aussehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31753-8_24 69ec924c908f62da1bfc35d108a8d792;de;;;2.1.;;;Informationen sind intrinsisch semantisch, aber ethisch neutral In diesem Aufsatz argumentiere ich, dass nach einer bestimmten physikalistischen Auffassung von Information Information sowohl alethisch neutral als auch nicht-alethisch und intrinsisch semantisch ist. Das Konzept der präsentierten Information ist physikalistisch und reduktionistisch und steht im Gegensatz zu den meisten aktuellen pluralistischen und nicht-reduktionistischen philosophischen Meinungen über die Natur von Information. Die für diese Informationskonzeption angenommene Ontologie basiert auf dem physikalistischen nicht-eliminativen ontischen Strukturrealismus. Das Argument von primärem Interesse ist jedoch, dass so konstruierte Informationen auf reduktionistischer und nicht-alethischer Basis intrinsisch semantisch sind, wenn semantischer Inhalt durch Hinweise entlang kausaler Pfade gebildet wird. Ähnliche Argumente wurden von Philosophen in Bezug auf die Repräsentation vorgebracht. Ich schlage vor, dass die Vorstellung von Information, die ich präsentiere, im Lichte der besten angewandten mathematischen und wissenschaftlichen Informationstheorien korrekt ist. In diesem Fall ist keine separate Theorie der semantischen Information erforderlich. Daher präsentiere ich eine Theorie von;-;-;-;https://link.springer.com/article/10.1007/s11229-014-0457-7 a60c95686127570d93a685dcb83d7aa0;de;;;2.1.;;;Semantic-Web-Techniken zur Personalisierung von eGovernment-Diensten In diesem Papier präsentieren wir die Ergebnisse einer laufenden Forschung, die sich mit dem Design und der Implementierung von Systemen befasst, die den personalisierten Zugriff auf Ressourcen mit mehreren Versionen in einem eGovernment-Szenario unterstützen. Die Personalisierung wird durch Semantic-Web-Techniken unterstützt und basiert auf einem ontologiebasierten Profiling von Nutzern (Citizens). Als Ressourcen betrachten wir Sammlungen von Normdokumenten im XML-Format, können aber auch generische Webseiten und Portale oder eGovernment-Dienste sein. Wir stellen eine Referenzinfrastruktur vor, beschreiben die Organisation und stellen Leistungszahlen eines von uns entwickelten Prototypsystems vor.;-;-;-;https://link.springer.com/chapter/10.1007/11908883_51 389d98bf2b09971db2418e21bc56990d;de;;;2.1.;;;Paradoxon der Quantenmessung Der Begriff Messung bedeutet im Allgemeinen eine Möglichkeit, den Wert einer bestimmten Eigenschaft, die mit einem einzelnen System verbunden ist, zu bestimmen oder abzulesen. In der klassischen Physik kann die durch die Wechselwirkung zwischen einem Messsystem und einer Messapparatur induzierte Störung beliebig klein gemacht werden. Mit anderen Worten, die Prinzipien der klassischen Physik ermöglichen es uns, den aktuellen Zustand eines Systems mit einer beliebig kleinen Störung zu kennen, dies kann in der klassischen Physik als nicht-invasive Messungen bezeichnet werden. Dies gilt jedoch in der Quantenphysik nicht, im Wesentlichen aufgrund der folgenden generischen Eigenschaft: Wenn zwei Systeme vorübergehend wechselwirken, auch nachdem die Wechselwirkung beendet ist, bleibt das quantenmechanisch beschriebene zusammengesetzte System unweigerlich in einem;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-9808-1_2 0ce02dda92a64bfb878755334a90aa43;de;;;2.1.;;;Datenschutzbewertung von Datenflussdiagrammen für ein fortschrittliches Empfehlungssystem im Smart Grid Das Smart Grid ebnet den Weg zu einer Reihe neuartiger Anwendungen, von denen eine Vielzahl von Interessengruppen wie Netzbetreiber, Versorgungsunternehmen und Kunden sowie Drittentwickler wie Hersteller von Elektrofahrzeugen profitieren. Um ein integriertes und vernetztes Netz aufzubauen, das Energie- und Informationsflüsse kombiniert und die bidirektionale Kommunikation fördert, müssen Daten und Informationen ausgetauscht und aggregiert werden. Das Sammeln, Übertragen und Kombinieren von Informationen aus verschiedenen Quellen hat jedoch schwerwiegende Auswirkungen auf die Privatsphäre der Kunden. Darüber hinaus ist die Kundenakzeptanz und -beteiligung der Schlüssel für viele Smart-Grid-Anwendungen wie Demand Response. In diesem Beitrag stellen wir (i) einen Ansatz für die modellbasierte Bewertung des Datenschutzes im Smart Grid vor, der auf einer formalen Anwendungsfallbeschreibung (Datenflussdiagramme) beruht und es ermöglicht, die Auswirkungen solcher Anwendungsfälle auf den Datenschutz zu einem frühen Zeitpunkt des Entwurfs zu bewerten und (ii) auf der Grundlage dieser Bewertung führen wir ein Empfehlungssystem für Smart-Grid-Anwendungen ein, das es Benutzern und Anbietern ermöglicht, fundierte Entscheidungen über die Bereitstellung, Nutzung und aktive Teilnahme an Smart-Grid-Anwendungsfällen im Hinblick auf ihre individuelle Privatsphäre zu treffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27668-7_6 16621cd63f27062c57300638db508e6e;de;;;2.1.;;;Auf dem Weg zum Entwurf eines auf Knowledge Graphen basierenden Frameworks zur Untersuchung und Prävention von Kriminalität in sozialen Online-Netzwerken Online Social Networks (OSNs) haben die Arena der digitalen und klassischen Kriminalität grundlegend und nachhaltig verändert. In letzter Zeit verwenden Strafverfolgungsbehörden (LEAs) OSNs als Datenquelle, um Open Source Intelligence zur Bekämpfung und Verhütung von Kriminalität zu sammeln. Die meisten bestehenden technologischen Entwicklungen für LEAs zur Bekämpfung und Verhütung von Kriminalität beruhen jedoch auf konventioneller Datenbanktechnologie, was Probleme aufwirft. Da die Nutzung sozialer Netzwerke schnell zunimmt, ist das Speichern und Abfragen von Daten zum Abrufen von Informationen aufgrund der Eigenschaften sozialer Netzwerke, wie z. B. unstrukturierte Natur, hohe Volumina, Geschwindigkeit und Datenkonnektivität, von entscheidender Bedeutung. Dieses Papier präsentiert einen auf Wissensgraphen basierenden Rahmen, einen Entwurf eines Rahmens, der Kriminalbeamten bei der Aufklärung und Prävention von Straftaten unterstützen soll, von der Datensammlung bis hin zur Ableitung digitaler Beweise, die vor Gericht zulässig sind. Die Hauptkomponente des vorgeschlagenen Frameworks ist eine hybride Ontologie, die mit einer Graphdatenbank verknüpft ist, die LEAs die Möglichkeit bietet, unstrukturierte Daten zu verarbeiten und versteckte Muster und Beziehungen in den miteinander verbundenen Daten von OSNs zu identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37545-4_12 db1851e744ac3ed996d7ae9afb8c7d69;de;;;2.1.;;;Einführung: Grundlegende Unsicherheit und plausible Argumentation Unsicherheit und Rationalität sind eng miteinander verbundene Merkmale der menschlichen Entscheidungsfindung. Viele praktische Entscheidungen werden traditionell als Versuche rekonstruiert, unsichere Ergebnisse innerhalb des Bereichs des regelgebundenen Denkens zu formulieren Nützlichkeit). Dieses Gesamtbild ändert sich jedoch aufgrund neuerer Arbeiten in einer Vielzahl verwandter Disziplinen rapide. Forschungen in Kognitionswissenschaft, Künstlicher Intelligenz, Philosophie und Ökonomie haben auf die offene Struktur der Rationalität aufmerksam gemacht. Diese Sichtweise betont die;-;-;-;https://link.springer.com/chapter/10.1057/9780230305687_1 12f40946c01f51485e37cfe1dbe37de2;de;;;2.1.;;;Flachs-Transformation durch Floral-Dipping Pflanzentransformation ist ein Prozess, bei dem eine fremde DNA (genannt Transgen) in das Genom einer Pflanze eingefügt wird. Die resultierende Pflanze wird als transgene Pflanze bezeichnet. Die Transformation von Flachs ist mit Techniken wie biolistischen Partikeln, Ultraschallbeschallung oder;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-23964-0_12 7f6dab54b3df0e295c320ffa73b22dda;de;;;2.1.;;;Die objektive Auffassung von Kontext und ihre Logik Log In diesem Beitrag wird eine „objektive“ Konzeption von Kontexten entwickelt und formalisiert, die lose auf der Situationstheorie basiert. Im Gegensatz zu „subjektiven“ Konzepten, die Kontexte als Glaubenssätze ansehen, werden Kontexte der objektiven Konzeption als komplexe, strukturierte Teile der Welt angesehen, die (im Allgemeinen) Individuen, andere Kontexte und Aussagen über sie enthalten. Eine erweiterte Sprache erster Ordnung für dieses Konto wird entwickelt. Die Sprache enthält komplexe Begriffe für Aussagen und das Standardprädikat „ist“, das die Beziehung ausdrückt, die zwischen einem Kontext und einer Aussage besteht, nur für den Fall, dass letztere im ersteren zutrifft. Die Logik der objektiven Konzeption umfasst ein „globales“ klassisches Prädikatenkalkül, eine „lokale“ Logik für das Denken in Kontexten und Axiome für Aussagen. Das Gespenst des Paradoxons wird aus der Logik verbannt, indem ‚ist‘ in problematischen Fällen nicht bivalent sein darf: Dies ist im Allgemeinen und in keinem Kontext der Fall;-;-;-;https://link.springer.com/article/10.1023/A%3A1008390129138 225b1ed157c8df1522d1fa4ba1468455;de;;;2.1.;;;Ein Data Warehouse-Ansatz zur semantischen Integration von Pseudomonas-Daten Biologische Forschung und Entwicklung produzieren routinemäßig Terabyte an Daten, die organisiert, abgefragt und auf nützliche wissenschaftliche Erkenntnisse reduziert werden müssen. Auch wenn Datenintegration solche biologischen Probleme lösen kann, ist sie aufgrund der Heterogenität der Quellen und ihrer semantischen und strukturellen Vielfalt oft problematisch. Darüber hinaus stellen notwendige Aktualisierungen sowohl der Struktur als auch des Inhalts von Datenbanken weitere Herausforderungen für einen Integrationsprozess dar. Wir präsentieren ein neues biologisches Data Warehouse für Pseudomonas-Arten“;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15120-0_8 b9d1339eaff4d9e171fc06f9d45c0cf6;de;;;2.1.;;;Semantische Quellen des Rechtsbegriffs Der Rechtsbegriff hat den Philosophen trotz seiner langen Vorfahren erhebliche Schwierigkeiten bereitet. Ein Zeichen der Anspannung war, dass sie nicht selten zu einer Vielzahl metaphysischer Positionen geführt hat. Ich denke, dass diese Schwierigkeiten zum Teil darauf zurückzuführen sind, dass die Komplexität der Hintergründe, vor denen der Rechtsgedanke entstanden ist, nicht ausreichend verstanden wurde, dass es ein sehr verworrenes Netz von sehr unterschiedlichen Ansätzen gibt, die zu ganz unterschiedlichen Rechtsgebieten gehören Beschäftigung des Menschen mit der Natur, oft kreuz und quer und sogar kollidierend. Wie in einem solchen Fall zu erwarten ist, stimmen die resultierenden Definitionen und Begriffe nicht unbedingt überein, es kann sogar ein positiver Konflikt zwischen ihnen bestehen. Philosophen als Metaphysiker versuchen, den Konflikt zu mildern, erreichen dies jedoch oft nur um den Preis, dass ihre Lösungen paradox erscheinen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-3508-8_15 20ef7058a6d98c8a7d6645b042f43886;de;;;2.1.;;;Einführung und Forschungsmotivation Strategietools werden häufig in organisatorischen Strategieaktivitäten verwendet. Tools wie das Growth-Share-Modell der Boston Consulting Group, das Strategic Gameboard von McKinsey, die Five Forces von Michael Porter oder die SWOT-Analyse wurden im Laufe der Jahre prominent eingesetzt, um Manager bei der strategischen Entscheidungsfindung zu unterstützen. Tatsächlich nutzen Top-Führungskräfte, wie die internationale Strategieberatung Bain & Co. berichtet, seither verschiedenste Management-Instrumente zur Bewältigung ihrer täglichen Arbeit. Ihre Relevanz für die Führungspraxis ist unbestritten. Teilweise von Praktikern und teilweise von Akademikern (manchmal in Zusammenarbeit) entwickelt, sind Strategieinstrumente durch Wirtschaftsmedien, Management-Gurus, Forschungsartikel, Berater oder Lehrpläne von Wirtschaftshochschulen in die Praxis gelangt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-09665-6_1 831f3d112e2ae9aae5755fc5d8ad150f;de;;;2.1.;;;Allgemeine Anordnung von Regimen für räumliche lokale Ströme Unterschiedliche lokale Merkmale an der Oberfläche eines Körpers sind Brüche oder starke Änderungen der Randbedingungen, Trennung oder Zusammenführung einer Strömung, Unregelmäßigkeiten usw. und können einen starken Einfluss auf lokale und globale Eigenschaften der Strömung darüber haben [1]. Diese Situation stimuliert ein anhaltendes Interesse an der Strömung in lokalen Regionen, die neben erheblicher praktischer Bedeutung oft auch erhebliche theoretische Neuerungen aufweisen (siehe z. B. [2–6], wo eine systematische Untersuchung von planaren lokalen Strömungsregionen durchgeführt wurde). Die Mehrzahl der lokalen Regionen ist jedoch räumlich, und während bei der Untersuchung flacher Regionen beachtliche Erfolge erzielt wurden, wurden für räumliche Regionen nur individuelle Lösungen gefunden, die oft mit erheblichen Vereinfachungen verbunden sind [7–19]. Darüber hinaus ist es mangels systematischer Untersuchungen schwierig, die Grenzen für die Existenz unterschiedlicher Abflussregime in lokalen räumlichen Regionen und begrenzende Übergänge zu bestimmen, die einen Wechsel von einem Abflussregime zu einem anderen ermöglichen. In dieser Arbeit werden für jedes der formulierten Randprobleme systematische Untersuchungen zu Strömungsregimen in lokalen Raumgebieten durchgeführt, die Haupteigenschaften ihrer Lösung untersucht und eine allgemeine Klassifikation für die Anordnung von Strömungsregimen erstellt.;-;-;-;https://link.springer.com/article/10.1007/BF00918829 78ac8f6d2d1ebd0b16e89000b45ffb3b;de;;;2.1.;;;Generieren von Datenkonvertern zum Erstellen von Services in Bioinformatik-Workflows Heterogenität von Daten und Datenformaten in der Bioinformatik führt oft zu einem Missverhältnis zwischen Inputs und Outputs verschiedener Dienste, was es schwierig macht, sie zu Workflows zusammenzusetzen. Um diese Diskrepanzen zu reduzieren, bieten Bioinformatik-Plattformen von Hand geschriebene Ad-hoc-Konverter. In diesem Artikel wird vorgeschlagen, die Konvertibilität von Ausgabetypen in Eingabetypen systematisch zu erkennen. Die Konvertibilitätserkennung basiert auf abstrakten Typen, die dem XML-Schema nahekommen und es ermöglichen, Daten zu abstrahieren und gleichzeitig ihre zusammengesetzte Struktur genau zu berücksichtigen. Die Erkennung wird von einer automatischen Generierung von Konvertern zwischen Eingabe- und Ausgabe-XML-Daten begleitet. Unser Experiment zu bioinformatischen Diensten und Datentypen, das mit einer Implementierung unseres Ansatzes durchgeführt wurde, zeigt, dass die nachgewiesenen Konvertibilitäten und produzierten Konverter aus biologischer Sicht relevant sind. Darüber hinaus erstellen sie automatisch einen Graphen potenziell kompatibler Dienste mit einer höheren Konnektivität als bei den Ad-hoc-Ansätzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10073-9_23 8633573b95985ea6b172d6e67186e998;de;;;2.1.;;;Andere temporäre Wasserlebensräume Der Zweck dieses Kapitels ist es, kurz jene temporären aquatischen Lebensräume zu betrachten, die von Forschern etwas vernachlässigt wurden, obwohl sie alltäglich sind. Einige wenige, wie Baumlochhabitate und die Kammern von insektenfressenden Kannenpflanzen, haben in letzter Zeit mehr Aufmerksamkeit bekommen und werden daher genauer behandelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-6084-1_7 177d39415f3f652e85e26f7fbe5d7e6c;de;;;2.1.;;;Wahrscheinlichkeitsklassifikation erster Ordnung Wir diskutieren das Problem der Klassifikation unter Verwendung der Hypothesen erster Ordnung. Dieses Papier schlägt eine Erweiterung der Klassifikation vor, die auf dem naiven Bayes-Schema basiert, das die Annahme der bedingten Unabhängigkeit überwinden kann. Es wurden mehrere Experimente durchgeführt, die einige künstliche und reale, sowohl propositionale als auch relationale Domänen einbeziehen. Die Ergebnisse zeigen, dass die Klassifikationsleistung propositionaler Lernender erreicht wird, wenn die reichhaltigere Wissensrepräsentation erster Ordnung nicht zwingend erforderlich ist. Dies gilt auch in den Bereichen, in denen eine solche Darstellung bequemer ist. Unser Framework kann auch von der Verwendung der Hypothesen profitieren, die negative Informationen beschreiben. In einem solchen Fall wird die Klassifizierung geräuschresistenter.;-;-;-;https://link.springer.com/chapter/10.1007/3540635149_52 8a2a1cc13d6116f99c8616615abb4ed2;de;;;2.1.;;;Verbesserung der Sicherheit von Diensten durch Zertifikatsprofile Cloud- und Webservice-Technologien bieten einen leistungsstarken, kostengünstigen und schnell wachsenden Ansatz für die Bereitstellung von Infrastruktur, Plattform und Software als Services. Diese Technologien werfen jedoch immer noch erhebliche Bedenken hinsichtlich der Gewährleistung der Sicherheit und der Compliance der angebotenen Daten- und Softwaredienste auf. Ein neuer Trend einer Dienstsicherheitszertifizierung wurde kürzlich vorgeschlagen, um die Beschränkungen bestehender Sicherheitszertifikate zu überwinden, indem die Sicherheitszertifizierung auf eine strukturierte, maschinenverarbeitbare Weise dargestellt wird, die eine automatisierte Begründung für zertifizierte Sicherheitsmerkmale in sicherheitskritischen Domänen ermöglicht. Die Vielfalt und Flexibilität der zugrunde liegenden Zertifikatsmodelle und Sprachen ist jedoch mit einem erhöhten Preis verbunden;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45364-9_24 ad3974c0d7941f2e20ff4458f33901eb;de;;;2.1.;;;Semanticook: Eine Webanwendung zur Ernährungsberatung für Diabetiker In diesem Beitrag wird eine Webanwendung vorgestellt, deren Zweck es ist, Beratung zur Ernährung von Diabetikern bereitzustellen. Das System hat zwei Hauptmodule, das Kohlenhydratzählmodul und das Rezeptmodul. Ziel ist es, mit Hilfe des Kohlenhydratzählens die Diabetikerdiät flexibler zu gestalten und den Patienten auch beim Zubereiten von Mahlzeiten mit den ihnen zur Verfügung stehenden Materialien zu helfen, was als umgekehrtes Rezept bezeichnet werden kann und sie auch über die Kohlenhydratmengen ihrer Mahlzeit informiert und validiert die Eignung dieser Mahlzeiten mit ihrer Ernährung. Die Module werden mit JSP in der Präsentationsschicht, Java Servlet-Technologie im Controller-Mechanismus implementiert und die Daten werden in MySQL-Datenbank und OWL-Ontologie gespeichert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24731-6_23 c7048c0b06e9461ccbc74e64ed8e87fa;de;;;2.1.;;;Ein genetischer Algorithmus für Merkmalsselektion und Granularitätslernen in Fuzzy-Regelbasierten Klassifikationssystemen für stark unausgeglichene Datensätze Dieser Beitrag schlägt einen genetischen Algorithmus zur gemeinsamen Durchführung einer Merkmalsauswahl und eines Granularitätslernens für Fuzzy-Regelbasierte Klassifikationssysteme im Szenario von Datensätzen mit hohem Ungleichgewichtsgrad vor. Wir sprechen von unausgeglichenen Datensätzen, wenn die Klassenverteilung nicht einheitlich ist, eine Situation, die in vielen realen Anwendungsbereichen vorhanden ist. Ziel dieser Arbeit ist es, kompaktere und genauere Modelle zu erhalten, indem die geeigneten Variablen ausgewählt und die Anzahl der Fuzzy-Labels für jedes Problem angepasst werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14055-6_78 568692f7c9974a598a61bfdba94e7b63;de;;;2.1.;;;Nachvollziehbares Denken in Beschreibungslogiken mit Funktionseinschränkungen Das Beantworten einer ontologischen Abfrage läuft auf das Zurückgeben der Antworten auf eine Abfrage hinaus, die logisch durch die Vereinigung einer Menge von Zugehörigkeitszusicherungen und einer Ontologie verbunden sind, wobei letztere eine Menge logischer Zusicherungen ist. Anwendung findet die ontologische Anfragebeantwortung beispielsweise im Semantic Web und in der semantischen Datenintegration. Als Ontologiesprache schlagen wir eine neue Beschreibungslogik namens DLR . vor;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41660-6_8 e9535c9d5b03334dd05b80d126265f1e;de;;;2.1.;;;Zur Verwendung der Beschreibungslogik für die semantische Interoperabilität von Unternehmenssystemen Mit den wachsenden Fortschritten in der Computer- und Kommunikationstechnologie wird das Konzept des System-of-Systems (SoS) weithin anerkannt, da es potenzielle Vorteile und neue Herausforderungen bietet. Relevante Perspektiven im Zusammenhang mit SoS sind heutzutage ein aktiver Forschungsbereich, darunter die Fragen der Notwendigkeit einer vollständigen Interoperation. Wenn es sich auf Unternehmensinformationssysteme bezieht, kann das SoS-Paradigma dann zu einer Form von System-of-Information Systems (SoIS) abgeleitet werden. Dieses Papier gibt einen Überblick über die Merkmale der Interoperation in SoIS und schlägt Richtlinien zu deren Bewertung und Formalisierung vor, um semantische Lücken zwischen Informationssystemkonzepten und -modellen zu identifizieren. Es bietet anhand eines Beispiels einen Ansatz zur Verwendung der Beschreibungslogik zum Bewerten semantischer Interoperabilitätsbelange.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05290-3_31 bafd53039487ccbdb9031620c0424db9;de;;;2.1.;;;Psychologische Grundlagen der Konzeptmodellierung Eine grundlegende Forschungstätigkeit auf dem Gebiet der Wirtschaftsinformatik umfasst die sachgerechte Gestaltung datenbasierter Systeme. Ein wichtiger Bauschritt besteht darin, die relevanten, aussagekräftigen Informationsstrukturen in einer Domäne zu ermitteln und diese genau und eindeutig zu dokumentieren. Diagrammatische Modellierungsnotationen haben sich als Werkzeuge entwickelt, um diesen Prozess zu erleichtern. Eine geeignete formale Semantik zur Klärung der Interpretation dieser Notationen ist jedoch schwer zu definieren. Dies kann zu Modellen führen, die subjektiv und für externe Parteien schwer zu interpretieren sind. Kürzlich wurden philosophische Ontologien vorgeschlagen, die eine Taxonomie von Elementen in der Welt bereitstellen, um die Symbole in Diagrammen zu begründen. Wir argumentieren, dass Modelle eher die psychologische Wahrnehmung der Welt durch einen Designer darstellen als eine abstrakte Beschreibung dieser Welt. Eine Ontologie dieser Wahrnehmungen ist daher relevanter für den Entwurf von Diagrammnotationen, die zur Dokumentation und eindeutigen Kommunikation der Analyse einer Domäne verwendet werden. Wir präsentieren eine Ontologie mentaler Konzepte aus der Kognitionswissenschaft und finden Unterstützung für eine Vorhersage bezüglich ternärer Beziehungen. Wichtig ist, dass eine einflussreiche These, die auf einer Philosophie der Ontologie der „realen Welt“ basiert, die gegenteilige Vorhersage macht. Wir zeigen, dass eher die Eigenschaften des Geistes als die der Welt die Diagrammkonvention leiten sollten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-25931-2_5 fe1f7ea9fd1e16aa7274eaf0e097f965;de;;;2.1.;;;Bifurkationsanalysen und Hardware-Experimente für Burst-Dynamik in nicht-autonomer memristiver FitzHugh-Nagumo-Schaltung In diesem Beitrag wird eine nicht-autonome memristive FitzHugh-Nagumo (FHN)-Schaltung unter Verwendung einer memristiven Diodenbrücke zweiter Ordnung mit LC-Netzwerk aufgebaut. Zur Vereinfachung der Schaltungsimplementierung wird eine Wechselspannungsquelle verwendet, um den ursprünglichen Wechselstromstimulus zu ersetzen. Angeregt durch die sich langsam ändernde Wechselspannungsquelle entwickeln sich Anzahl, Lage und Stabilität der Gleichgewichtspunkte langsam mit der Zeit, die daher als Wechselspannungsgleichgewichtspunkte bezeichnet werden. In einer ganzen Periode von Zeitreihenentwicklungen werden verschiedene Sequenzen von Falten- und/oder Hopf-Bifurkationen angetroffen, was zu verschiedenen Arten von chaotischen oder periodischen Aufplatzungsaktivitäten führt. Um die zugehörigen Bifurkationsmechanismen herauszufinden, werden die fold- und Hopf-Bifurkationssätze mathematisch formuliert, um die kritischen Bifurkationspunkte zu lokalisieren. Auf dieser Basis werden die Übergänge zwischen Ruhe- und repetitivem Spiking-Zustand durch die Zeitreihen der AC-Gleichgewichtspunkte und Zustandsvariablen anschaulich dargestellt, aus denen Hopf/subHopf-, Hopf/Hopf- und Hopf/fold-Burstschwingungen in den angegebenen Parameterregionen. Abschließend werden auf Basis einer gefertigten Hardwareschaltung die experimentellen Messungen durchgeführt. Die Ergebnisse bestätigen, dass die vorgestellte memristive FHN-Schaltung tatsächlich komplexe Burst-Aktivitäten aufweist, was die Familie der Memristor-basierten FHN-Schaltungen um Burst-Dynamik bereichert.;-;-;-;https://link.springer.com/article/10.1007/s11431-019-1458-5 4dd7cf3c0c5100a3039e5f3a430fa935;de;;;2.1.;;;Qualitätsbewusstes, schichtübergreifendes Scheduling für robustes Videostreaming über drahtlose Kanäle Beim Videostreaming über drahtlose Kanäle können Burst-Fehler zu einer ernsthaften Verschlechterung der Videoqualität führen. Durch die gemeinsame Nutzung des Scheduling-Mechanismus auf verschiedenen Kommunikationsschichten schlägt dieses Papier ein qualitätsbewusstes schichtübergreifendes Scheduling-Schema vor, um eine ungleiche Fehlerkontrolle für jeden Latency-Constraint Frame Set (LFS) eines Videostreams zu erreichen. Nachdem ein Agent der Vermittlungsschicht an der Basisstation zuerst die Paketplanung der Vermittlungsschicht verwendet, um eine Klassifizierung der Wichtigkeit der Paketgranularität für das aktuelle LFS bereitzustellen, verwendet ein Verbindungsschichtagent an der Basisstation weiter die Planung der Radio-Link-Unit (RLU), eine feinere selektive Neuübertragung des aktuellen LFS implementieren. Unter Scheduling-Verzögerungs- und Bandbreitenbeschränkungen kann sich das vorgeschlagene Schema der Anwendungsschichtqualität und zeitveränderlichen Kanalbedingungen bewusst sein, und daher können Burstfehler einfach auf Übertragungseinheiten mit niedrigerer Priorität im aktuellen LFS verschoben werden. Simulationsergebnisse zeigen, dass das vorgeschlagene Schema eine starke Robustheit gegenüber Burst-Fehlern aufweist und somit die insgesamt empfangene Qualität des Videostroms über drahtlose Kanäle verbessert.;-;-;-;https://link.springer.com/article/10.1007/s11767-011-0610-0 a82e2aede189b2da48432eedf844ce7c;de;;;2.1.;;;Binärbaum-Klassifizierer basierend auf dem Kolmogorov-Smirnov-Test Die Klassifizierung großer dimensionaler Datensätze, die sich aus der Zusammenführung von Fernerkundungsdaten mit traditionelleren Formen von Zusatzdaten ergibt, verursacht ein erhebliches Rechenproblem. Entscheidungsbaumklassifizierung ist ein beliebter Ansatz für das Problem und eine effiziente Form zur Darstellung eines Entscheidungsprozesses in hierarchischen Mustererkennungssystemen. Sie zeichnen sich durch die Eigenschaft aus, dass Samples einer Folge von Entscheidungsregeln unterworfen werden, bevor sie einer eindeutigen Klasse zugeordnet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14616-9_55 f3d388879cc7b7ff85aedbaae4dd845d;de;;;2.1.;;;Eine Schemasprache für MPEG-7 MPEG-7 bietet eine Reihe von Werkzeugen zur Definition einer Standardbeschreibung für Multimediainformationen. Es verwendet XML-Schema als seine eigene Beschreibungsdefinitionssprache (DDL), um die Möglichkeit zu bieten, die Standardbeschreibung auf Benutzeranwendungsdomänen auszudehnen. Aufgrund seiner fehlenden Ausdruckskraft kann XML Schema jedoch die impliziten Informationen von Multimediainhalten nicht darstellen und kann daher keine abgeleiteten Beschreibungen liefern. Um die Ausdruckskraft von Multimedia-Annotationen – beschrieben in Form eines XML-Dokuments – zu verbessern und die Vorteile von XML-Schema zu erhalten, scheint ein Bedarf an einer neuen Schemasprache zu bestehen, die diese Fähigkeiten handhaben kann. XML Declarative Description (XDD) ist ein Repräsentations-Framework, das beliebige XML-Dokumente und -Anwendungen codieren kann (z. B. XML-Schema, RDF, RDF-Schema und DAML+OIL). Es verbessert die XML-Ausdruckskraft durch den Einsatz der Theorie der deklarativen Beschreibung (DD) und bietet auch einen Mechanismus zum Nachdenken über neue Informationen aus vorhandenen Daten. Darüber hinaus kann es Einschränkungen sowie ontologische Axiome spezifizieren. Somit wird es verwendet, um eine Schemasprache für MPEG-7 zu konstruieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36227-4_15 980be2581f59695cd43d431b50226f9a;de;;;2.1.;;;Abbau und Modifikation von Nukleinsäuren In fast allen biologischen Systemen wurden Enzyme gefunden, die den Abbau von Nukleinsäuren durch Hydrolyse von Phosphodiesterbindungen katalysieren [1, 2]. Einige, die;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-2290-0_4 850993dda0c1b4f5e97ae38083d54ad9;de;;;2.1.;;;Eine AIS-basierte E-Mail-Klassifizierungsmethode Dieser Beitrag schlägt eine neue E-Mail-Klassifikationsmethode vor, die auf dem künstlichen Immunsystem (AIS) basiert, das durch die Verwendung des Immunlernens, des Immungedächtnisses und der Immunerkennung mit guter Vielfalt und Selbstanpassungsfähigkeit ausgestattet ist. Bei unserer Methode werden die aus den Trainingssätzen extrahierten Merkmale von Spam und Nicht-Spam miteinander kombiniert und die Anzahl der False Positives (Nicht-Spam-Nachrichten, die fälschlicherweise als Spam klassifiziert werden) reduziert. Die experimentellen Ergebnisse zeigen, dass dieses Verfahren bei der Verringerung der Falschrate wirksam ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04020-7_52 d69f2df3b767968bd1876111726ff087;de;;;2.1.;;;Ein breit abdeckendes System zur Analyse natürlicher Sprache Ein Ziel mit breiter Abdeckung erfordert eine robuste und flexible Basis für die Verarbeitung natürlicher Sprache, die sich an linguistische Bedürfnisse und auch an die Erfordernisse der Berechnung anpassen lässt. Die Programmiersprache für die Verarbeitung natürlicher Sprache (PLNLP: Heidorn, 1972) ist für diese Aufgabe gut geeignet. PLNLP bietet eine allgemeine Programmierfähigkeit, einschließlich eines Regelschreibformalismus und Algorithmen sowohl für das Parsen („Decodieren“) als auch für die Generierung („Encodieren“). Obwohl linguistische Gelehrsamkeit und linguistische Intuitionen unser System stark motivieren, haben wir uns entschieden, unseren Computerformalismus keiner der herrschenden linguistischen Theorien zu unterwerfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-3986-5_17 564449bcde2dfce14b6ec773640e1aaf;de;;;2.1.;;;Toolbox für nichtlineare Phasen-Raum-Steuerung: Die Magnetschwebebahn-Erfahrung Wir beschreiben die Phase-Space Nonlinear Control Toolbox, eine Suite von Rechenwerkzeugen zum Synthetisieren und Bewerten von Regelgesetzen für eine breite Klasse nichtlinearer dynamischer Systeme. Die Toolbox umfasst Rechenalgorithmen zur Identifizierung optimaler Regelreferenztrajektorien im Phasenraum dynamischer Systeme und experimentelle Methoden zur Bewertung der Leistungsfähigkeit der Regelgesetze. Diese Algorithmen kombinieren Kenntnisse der geometrischen Theorie moderner nichtlinearer dynamischer Systeme mit effizienten Berechnungsmethoden für geometrisches Denken und Graphensuche, sie definieren die Eigenschaften der Steuerbarkeit und Robustheit in Bezug auf geometrische Phasenraumstrukturen und nutzen die Nachbarschaftsadjazenzen im Phasenraum, um rechnerische Effizienz. Im Vergleich zu den traditionellen analytischen Entwurfsverfahren für Steuerungen beruhen die phasenraumbasierte Steuerungssynthese und -bewertung auf Hochleistungsrechentechniken und sind auf physikalische Systeme anwendbar, die in großen nichtlinearen Bereichen arbeiten. Mit einem physikalischen Machbarkeitsexperiment zur Stabilisierung eines nichtlinearen Magnetschwebesystems haben wir die Machbarkeit der Phasenraumregelungstechnologie erfolgreich demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-49163-5_23 9d3bb1edac7c17445cedc7a1e25fd702;de;;;2.1.;;;Ein neuartiges hybrides Klassifikations-Framework mit SVM und differentieller Evolution Die Einstellung der Kernelparameter für SVM in einem Trainingsprozess wirkt sich auf die Klassifizierungsgenauigkeit aus. Das Hybrid-Framework basierend auf SVM und Ensemble-Differential-Evolution wird vorgeschlagen, um die Klassifikationsgenauigkeit zu verbessern. Die differenzielle Evolution des Ensembles wird verwendet, um die Kernelparameter zu optimieren. Der Algorithmus zur differenziellen Evolution des Ensembles verwendet zwei Versuchsvektor-Erzeugungsstrategien und zwei Steuerparametereinstellungen. Zehn reale Datensätze, die das vorgeschlagene Hybrid-Framework verwenden, werden getestet. Im Vergleich zu den SVM-Varianten verbessert das vorgeschlagene Hybridmodell die Klassifizierungsgenauigkeit von SVM.;-;-;-;https://link.springer.com/article/10.1007/s00500-016-2054-9 da6e2b2cdc791212e89a02df95f58004;de;;;2.1.;;;Kontextuelles Denken in Agentensystemen Dieses Papier argumentiert für die Bedeutung einer formalen Theorie des Kontexts und des kontextuellen Denkens in Agentensystemen und schlägt eine kanaltheoretische Erklärung für die Modellierung der Feinheiten des Agentendenkens im Kontext vor. Anhand eines Beispiels für das Argumentieren über Perspektiven haben wir gezeigt, dass dieses Modell die formalen Anforderungen an eine Kontexttheorie erfüllt und eine schöne Erklärung für das kontextuelle Denken in Bezug auf den Informationsfluss bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69619-3_10 1e8ebc7aa4ce5f3b46d41e1273ed65d6;de;;;2.1.;;;Zweisprachiges maschinelles Übersetzungssystem zwischen Hindi und Sanskritrit Maschinelle Übersetzung (MT) wird heute immer beliebter, da sie bei der Übersetzung von einer Sprache in eine andere einen großen Aufwand reduziert. Das ist nicht nur zeitsparend, sondern auch langfristig sicher und kostengünstig. Im Bereich der MT wurde in letzter Zeit viel Arbeit geleistet. Für zahlreiche Sprachen wurden verschiedene maschinelle Übersetzungssysteme (MTS) entwickelt. Sanskrit ist eine der ältesten Sprachen der Welt und existiert noch immer. Es gibt viele literarische, wissenschaftliche und mathematische Werke, die in der Antike in Sanskrit verfasst wurden. Trotz seiner wichtigen Rolle in der indischen Kultur und Geschichte wurde nicht viel Arbeit für die Übersetzung in die oder aus der Sanskrit-Sprache geleistet. Diese vorgeschlagene Arbeit ist ein Versuch, die Sprachkluft zwischen Sanskrit und Hindi, einer der am weitesten verbreiteten Sprachen der Welt, zu überbrücken. Die Idee ist, ein MTS zu entwickeln, das als Werkzeug für die wechselseitige Übersetzung zwischen Hindi und Sanskrit dient. Das einmal entwickelte System kann zum Erlernen und Verstehen der Grammatik und Struktur der beiden beteiligten Sprachen verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0108-1_29 2ed1df6c5fc62e72ed1a0ff4a9bc8325;de;;;2.1.;;;Die Klassifizierung des Geländes durch einen Hexapod-Roboter Dieses Papier präsentiert einen neuen Ansatz zur Geländeklassifizierung durch einen Hexapod-Roboter unter Verwendung der taktilen Informationen. Die Daten wurden unter Verwendung des am Fuß des Laufroboters montierten Kraft-/Drehmomentsensors erfasst. Zwei Arten von Klassifikatoren wurden verwendet und verglichen: der Normal Bayes Classifier (NBC) und der Classification And Regression Tree (CART). Der Artikel umfasst die Beschreibung des experimentellen Aufbaus, gefolgt von der Vorstellung des Merkmalsauswahlprozesses und dem Vergleich der Genauigkeit der beiden Klassifikatoren. Das im Artikel vorgestellte Klassifizierungssystem ermöglicht es dem Laufroboter, die Art des Geländes, auf dem er sich gerade bewegt, mit einer Genauigkeit von über 90% zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-00969-8_81 640928f2d71100cc1fbc9e4b60a26ed2;de;;;2.1.;;;Mammogramm-Problemlösungsansatz: Erstellung eines CBR-Klassifikators zur Klassifizierung von Massen in Mammogramm Brustkrebs ist weltweit nach wie vor ein bedeutendes Problem der öffentlichen Gesundheit. Die Früherkennung ist der Schlüssel zur Verbesserung der Prognose von Brustkrebs. Das Ziel der hier vorgestellten Forschung ist zweierlei. Die erste Phase der Forschung umfasst Techniken des maschinellen Lernens, die Merkmale aus der Masse digitaler Mammogramme segmentieren und extrahieren. Die zweite Ebene ist ein Problemlösungsansatz, der die Klassifikation der Masse durch den leistungsbasierten Fallbasisklassifikator umfasst. Wir untersuchen die Anwendung dieser Algorithmen als Klassifikationssystem, um gutartige von bösartigen Raumforderungen zu unterscheiden, die aus der MIAS-Datenbank stammen, und vergleichen den Klassifikator mit anderen Klassifikationstechniken, um die Genauigkeit zu testen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19542-6_49 469b87011274d557b70cee4b4efe2615;de;;;2.1.;;;Lesen lernen: Ein Experiment in der Textanalyse Es war schon lange ein Traum, Computersysteme zu bauen, die durch das Lesen von Text automatisch lernen. Dieser Traum wird im Allgemeinen als undurchführbar angesehen, aber einige überraschende Entwicklungen in den USA in den letzten drei Jahren haben zur Finanzierung mehrerer kurzfristiger Untersuchungen geführt, ob und inwieweit die besten aktuellen Praktiken in der Verarbeitung natürlicher Sprache und in der Wissensrepräsentation und -schlussfolgerung gegeben sind kombiniert, diesen Traum tatsächlich ermöglichen. Dieses Papier beschreibt sehr kurz eine dieser Bemühungen, das Learning by Reading-Projekt am ISI, das ein Chemielehrbuch für die Oberstufe in eine sehr flache logische Form umgewandelt hat und untersucht, welche semantischen Merkmale plausibel hinzugefügt werden können, um die Arten von Schlussfolgerungen zu unterstützen, die für Beantworten von Standard-Textfragen der High School.;-;-;-;https://link.springer.com/chapter/10.1007/11846406_1 3ad8296fca5134150c42f4ef3cdac4f8;de;;;2.1.;;;Faktoren, die die Saisonalität und Verbreitung von Cyanobakterien und Chlorophyten beeinflussen: eine Fallstudie aus den großen Seen südlich der Alpen, unter besonderer Berücksichtigung des Gardasees Chlorophyten und Cyanobakterien gehören zu den typischsten Algengruppen und tragen zum ästhetischen Erscheinungsbild und zur Qualität der epilimnetischen Gewässer der tiefen (251–410 m) und großen (6,5–49×10 .) bei;-;-;-;https://link.springer.com/article/10.1023/A%3A1004157828049 ef0a48a0a1c68af63dd45026e0fade44;de;;;2.1.;;;Eine erste Inhaltsstoffanalyse von Medikamenten, die von der China Food and Drug Administration genehmigt wurden Medikamente sind ein wichtiger Bestandteil der Medizin. Wissensdatenbanken zu Arzneimitteln, die Arzneimittel organisieren und verwalten, haben beträchtliche Aufmerksamkeit auf sich gezogen und sind in vielen Ländern und Regionen in der Gesundheitsversorgung von Menschen weit verbreitet. Es gibt auch eine große Anzahl öffentlich zugänglicher elektronischer Wissensdatenbanken zu Arzneimitteln. In China gibt es jedoch kaum eine öffentlich zugängliche, gut strukturierte Arzneimittel-Wissensdatenbank, möglicherweise aufgrund zweier verschiedener Medizinarten: Traditionelle Chinesische Medizin (CTM) und Moderne Medizin (ME). Um eine elektronische Wissensdatenbank über von der China Food and Drug Administration (CFDA) zugelassene Arzneimittel aufzubauen, haben wir ein vorläufiges Wirkstoffanalysesystem entwickelt. Dieses System sammelt alle Medikamentennamen von der Website der CFDA, bezieht ihre Handbücher von drei medizinischen Websites, extrahiert die Inhaltsstoffe von Medikamenten und analysiert die Verteilung der extrahierten Inhaltsstoffe. Insgesamt wurden 12.918 von 19.490 Arzneimittelhandbüchern gesammelt. Die Auswertung von 50 zufällig ausgewählten Arzneimittelhandbüchern zeigt, dass das System bei der Extraktion der Inhaltsstoffe einen F-Score von 95,46 % erreicht. Entsprechend der Verteilung der Extraktionsinhaltsstoffe stellen wir fest, dass das Multiplexing von Inhaltsstoffen in der Medizin sehr verbreitet ist, insbesondere in der Kräutermedizin, was einen Hinweis auf die Arzneimittelsicherheit geben kann, da die Einnahme von mehr als einer Art von Arzneimitteln, die teilweise die gleichen Inhaltsstoffe enthalten, zu Überholvorgängen führen kann die gleichen Zutaten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-3168-7_10 42cab4c738422e2e2724205de2409d95;de;;;2.1.;;;Phylogenie von Aristolochiaceae basierend auf Sparsamkeit, Wahrscheinlichkeit und Bayes'schen Analysen von Aristolochiaceae, eine weltweit verbreitete Familie mit etwa 500 Arten, gehört zu Piperales. Obwohl Piperales eindeutig monophyletisch ist, ist die genaue Beziehung innerhalb der Ordnung aufgrund der inkonsistenten Platzierung von nicht eindeutig;-;-;-;https://link.springer.com/article/10.1007/s00606-004-0217-0 a56ac8169936cbe4f87ef16021983091;de;;;2.1.;;;Methoden und Anwendungen zur Bewertung der ökologischen Vulnerabilität in einer hyperariden Oase: eine Fallstudie der Turpan-Oase, China Die Turpan-Oase ist eine typische fragile Umgebung, die in einer trockenen Region im Osten von Xinjiang liegt und von natürlichen Bedingungen und menschlichen Aktivitäten beeinflusst wird. Die Schwere der Bodendegradation und Wüstenbildung in diesem Gebiet nimmt zu, daher sind Bewertungen der ökologischen Vulnerabilität für das Umweltmanagement der Region wichtig. In dieser Studie wurden Theorien und Methoden zur Bewertung ökologischer Vulnerabilität und die typischen Merkmale ökologischer Vulnerabilität zusammengefasst. Durch die Kombination der Umwelteigenschaften des Forschungsgebiets und der treibenden Faktoren der ökologischen Vulnerabilität wurde ein mehrschichtiges Vulnerabilitätsbewertungsindexsystem aufgebaut und ein Druck-Zustands-Reaktions-Modell zur Bewertung der ökologischen Vulnerabilität etabliert. GIS- und Fernerkundungstechnologien wurden angewendet, um jeden Index zu extrahieren und eine räumliche Verteilungskarte der Anfälligkeit zu erstellen. Die Ergebnisse zeigten, dass die Vulnerabilitätsindexwerte zwischen 3,08 und 6,59 lagen, mit einem Durchschnittswert von 5,19. Auf Regionen mit mittlerer Vulnerabilität entfielen 81,85 % der Gesamtfläche, während Regionen mit leichter und schwerer Vulnerabilität 4,19 bzw. 13,95 % der Gesamtfläche ausmachten. Somit wiesen mehr als 80 % des Gebiets eine mäßige und fast 14 % des Gebiets eine ernsthafte Gefährdung auf. Der Grad der Vulnerabilität nahm von Ost nach West zu und die ökologische Vulnerabilität in der inneren Oase war deutlich geringer als in der äußeren Oase. Die Schlüsselfaktoren für die ökologische Renaturierung und den Wiederaufbau sind die Bekämpfung der Wüstenbildung und die größtmögliche Sicherstellung einer ökologischen Wassernutzung.;-;-;-;https://link.springer.com/article/10.1007/s12665-015-4134-z 321d9ce7a74b14090c5ff5687bfeba03;de;;;2.1.;;;Geschlechterklassifizierung über Global-Local Features Fusion Computer Vision basierte Geschlechterklassifizierung ist ein interessantes und herausforderndes Forschungsthema in den Bereichen visuelle Überwachung und Mensch-Computer-Interaktionssysteme. In diesem Beitrag, basierend auf den Ergebnissen psychophysikalischer und neurophysiologischer Studien, dass sowohl lokale als auch globale Informationen entscheidend für die Bildwahrnehmung sind, präsentieren wir eine effektive Methode der Global-Local-Features-Fusion (GLFF) zur Geschlechtsklassifikation. Zuerst werden die globalen Merkmale basierend auf aktiven Erscheinungsmodellen (AAM) extrahiert und die lokalen Merkmale werden durch den LBP-Operator extrahiert. Zweitens werden die globalen Merkmale und die lokalen Merkmale durch eine sequentielle Auswahl für die Geschlechterklassifizierung verschmolzen. Drittens wird das Geschlecht basierend auf den ausgewählten Merkmalen über Support Vector Machines (SVM) vorhergesagt. Die experimentellen Ergebnisse zeigen, dass das vorgeschlagene lokal-globale Informationskombinationsschema die Genauigkeit der Geschlechtsklassifikation, die entweder durch lokale oder globale Merkmale erzielt wird, erheblich verbessern könnte, was zu vielversprechenden Ergebnissen führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25449-9_27 1c56e561364d42b6797e17cde10328a4;de;;;2.1.;;;System zur Bestätigung der Position des Endotrachealtubus mit neuronalen Netzen Die endotracheale Intubation ist ein komplexes medizinisches Verfahren, bei dem ein Beatmungstubus in die menschliche Luftröhre eingeführt wird. Eine falsche Positionierung hat potenziell fatale Folgen und daher ist eine Bestätigung der korrekten Positionierung obligatorisch. In diesem Papier berichten wir über die Ergebnisse der Verwendung eines neuronalen Netzwerk-basierten Bildklassifizierungssystems zur Bestätigung der Position des Endotrachealtubus. Das vorgeschlagene System umfasst einen komplementären Miniatur-Metalloxid-Silizium-Sensor (CMOS), der an der Spitze eines halbstarren Stiletts befestigt und mit einem digitalen Signalprozessor (DSP) mit einer integrierten Videoerfassungskomponente verbunden ist. Videosignale werden von einem im Prozessor implementierten Bestätigungsalgorithmus erfasst und verarbeitet. Die Leistung des vorgeschlagenen Algorithmus wurde anhand von zwei Datensätzen bewertet: einem Datensatz mit 250 Bildern der oberen Atemwege. Die Ergebnisse, die mit einer Leave-One-Case-Out-Methode erhalten wurden, zeigen, dass das System 240 von 250 (96,0 %) richtig klassifiziert hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23983-5_8 19025217fb9b4c527a2c7c5dc560b9a4;de;;;2.1.;;;Pflanzenklassifizierung mit neuronal verschobenen Legendre-Fourier-Momenten Pflanzen sind die wichtigste Nahrungsquelle des Menschen. Sie sind der Rohstoff der meisten Medikamente. Daher war es notwendig, mithilfe künstlicher Intelligenz Pflanzeninteressierten zu helfen, verschiedene Pflanzenarten schnell und genau zu klassifizieren und zu identifizieren. In diesem Artikel stellen wir neuronale verschobene Legendre-Fourier-Momente vor. Wir haben verschobene Legendre-Fourier-Momente verwendet, um Merkmale aus Blattbildern zu extrahieren und Deskriptorvektoren zu erstellen. Diese Vektoren sind die Eingaben des künstlichen neuronalen Netzes. Wir haben dieses Modell am Datensatz MalayaKew (MK) Leaf getestet und wichtige Ergebnisse erhalten. Die Gültigkeit dieser vorgeschlagenen Methode wurde unter verschiedenen Transformationen bereitgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-53187-4_18 c3166c4534e34e8167ad72f67646da21;de;;;2.1.;;;Stochastische Analyse von ANN-Statistikmerkmalen für die CT-Bildklassifizierung des Gehirns der hinteren Schädelgrube Die automatisierte Klassifizierung der hinteren Schädelgrube (PF) in Bildsequenzen der Computertomographie (CT) ist wichtig für die Diagnose einer ischämischen Erkrankung. Die Identifizierung von PF bleibt aufgrund seiner unterschiedlichen Strukturen und Regionen mehrdeutig. In diesem Beitrag wird eine stochastische Analyse des Klassifikationssystems vorgestellt, um PF-Schichten in CT-Bildsequenzen zu klassifizieren. Dieses System kann die spezifizierten Schichten mit Glaubwürdigkeit hervorheben, was für den Radiologen ein guter visueller Begleiter sein kann, um die Region mit minimaler Verarbeitungszeit genau zu identifizieren. Die Auswahl von elf statistischen Merkmalen basiert auf der;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5281-6_58 8e874c7bbef5b9b20b00efed4dcb552e;de;;;2.1.;;;Osteoarthritis-Erkennung und -Klassifizierung aus Knie-Röntgenbildern basierend auf einem künstlichen neuronalen Netzwerk Arthrose ist eine chronische und degenerative Erkrankung multifaktorieller Ätiologie. Knie-, Hüft- und Wirbelsäulengelenke sind von der Arthrose aufgrund von Gelenkknorpelverlust, Knochenumbau (z. B. durch Unfälle) und starker Gelenkbelastung stark betroffen. In der Orthopädie ist sie heute eine der am häufigsten vorkommenden Erkrankungen. Daher ist ein effektives computergestütztes Diagnosesystem (CAD) erforderlich, um die Osteoarthritis zu diagnostizieren. Dieser Artikel stellt ein einfaches Klassifikationssystem auf Basis eines künstlichen neuronalen Netzes (KNN) vor, um zwischen gesunden und betroffenen Röntgenbildern des Knies zu unterscheiden. In dem vorgeschlagenen System werden geführte Filter- und adaptive Histogramm-Entzerrungstechniken jeweils zur Rauschentfernung und Bildverbesserung verwendet. Globale, auf Schwellenwerten basierende Segmentierungstechnik ist angepasst, um Synovialhöhlenregionen aus einem Bild zu extrahieren, und Krümmungswerte (wie Mittelwert, Standardabweichung, Bereich und Schiefe) werden berechnet. Um eine faire Schlussfolgerung zu ziehen, werden die Experimente an echten patientenspezifischen Bildern durchgeführt, die von lokalen Krankenhäusern in Indien gesammelt wurden. Durch Bestätigen der Ergebnisse klassifiziert das vorgeschlagene Verfahren das eingegebene Bild genau in ihre jeweiligen Klassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9184-2_8 b907d15e3c1d9b8bedef1f57f827e70f;de;;;2.1.;;;Klassifikation des Gesichtshauttyps basierend auf mikroskopischen Bildern mit Convolutional Neural Network (CNN) Die Haut ist ein Teil des menschlichen Körpers, der als Barriere gegenüber der äußeren Umgebung fungiert und einem Individuum ein physisches Aussehen verleiht. Im Allgemeinen werden menschliche Hauttypen in normale, trockene, fettige und Mischhaut eingeteilt. Diese Hauttypen werden durch die Menge und Veränderung der Gesichtstalgsekretion und der Hydratationsfähigkeit beeinflusst. Die Bestimmung des Gesichtshauttyps ist erforderlich, um Hautpflegeprodukte und Kosmetika entsprechend ihrem Gesichtshauttyp zu bestimmen. In dieser Forschung wurde ein Systemdesign für digitalbasierte Gesichtshauttypen unter Verwendung der Convolutional Neural Network (CNN)-Methode entwickelt, die Vorteile hat, um Merkmale und Eigenschaften aus dem mikroskopischen Bilddatensatz zu erzeugen. Die Primärdatensätze wurden direkt mit mikroskopischen Kameras aufgenommen und von einem Dermatologen validiert. Das von CNN in dieser Studie vorgeschlagene Modell besteht aus 3 versteckten Schichten, die Filter der Größe 3 × 3 mit Ausgangskanälen 8, 16 bzw. 32, vollständig verbundener Schicht und Softmax-Aktivierung verwenden. Das vorgeschlagene Modell konnte die Hauttypen in normale, trockene, fettige Hautzustände und die Kombination mit der besten Genauigkeit von 99,5 % aus 1200 Trainingsbildern und 400 verwendeten Testbildern klassifizieren, wobei die Parameter Recall Precision und f-1-Score ergeben Werte nahe 1, was bedeutet, dass es fast perfekt ist oder man sagen kann, dass der Fehler klein ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6926-9_7 e76c85cb8945d861b2cab13275a25ce3;de;;;2.1.;;;Identifizierung von formbasierten Biomarkern für die Diagnose der Parkinson-Krankheit aus Ioflupan ( Die Parkinson-Krankheit ist eine fortschreitende, unheilbare neurodegenerative Erkrankung, die die Bewegung beeinträchtigt und mit einer schlechten Lebensqualität und erheblichen sozioökonomischen Belastungen in Verbindung gebracht wird. Bisher kann eine Behandlung den Abbauprozess bestenfalls verlangsamen. Ein erfolgreiches Krankheitsmanagement hängt jedoch von der Früherkennung der Krankheit ab, die wiederum vom diagnostischen Prozess abhängt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-95921-4_11 1943e718fc880292426d5e5c0543cbaf;de;;;2.1.;;;Vollständigkeits-Wissensdarstellung in Fuzzy-Beschreibungslogiken Semantic Web wird zunehmend zur besten Erweiterung des World Wide Web, die es Maschinen ermöglicht, besser interpretierbar zu sein und Informationen in weniger mehrdeutigen Prozessen darzustellen. Web Ontology Language (OWL) basiert auf allen Wissensrepräsentationsformalismen von Description Logics (DLs), die dem W3C-Standard entsprechen. DLs sind die Familien von formalen Wissensrepräsentationssprachen, die eine hohe Ausdruckskraft in Schlussfolgerungskonzepten haben. DLs sind jedoch nicht in der Lage, eine Reihe von vagen oder ungenauen Kenntnissen auszudrücken und können daher nicht mit mehr Unsicherheiten umgehen. Um dieses Problem zu reduzieren, konzentriert sich dieser Artikel auf die Argumentationsverfahren mit Wissensbasisdarstellung in Fuzzy-Beschreibungslogiken. Wir betrachten die Gödel-Methode bei der Lösung der Vollständigkeit unseres deduktiven Systems. Wir diskutieren auch die wünschenswerten Konzepte, die auf der Fuzzy-DL-Erfüllbarkeit der Wissensbasis basieren. Tatsächlich ist die Fuzzy-Beschreibungslogik der geeignete Formalismus, um diese Wissenskategorie darzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32826-8_17 2939722370dde8fb3f382a87040f9f8f;de;;;2.1.;;;Arten der Laryngomalazie bei Kindern: Zusammenhang zwischen klinischem Verlauf und Begleiterkrankungen Das Ziel dieser Studie war: (1) herauszufinden, ob Laryngomalazie (LM)-Typen mit dem klinischen Verlauf zusammenhängen, (2) welche Patienten mit LM ein höheres Risiko für andere Atemwegsmalazien [Tracheomalazie (TM) und/oder Bronchomalazie ( BM)] und (3) bewerten die Prävalenz von LM in unserer Region. Patienten mit etablierter LM-Diagnose und vollständigen klinischen und endoskopischen Aufzeichnungen wurden eingeschlossen. Sie wurden in verschiedene LM-Typen nach der Klassifikation basierend auf der Seite der supraglottischen Obstruktion eingeteilt. Einhundertzehn Kinder wurden eingeschlossen. Die häufigste LM-Erscheinung war Typ I – 58 Kinder, gefolgt von Kombinationstypen (I + II und I + III) – 38. Die anderen Malazien der Atemwege wurden bei 47 Patienten gefunden: TM bei 31, BM bei 10 und TM mit BM bei 6. Andere Komorbiditäten (kardiale, neurologische und genetische Störungen) wurden bei 30 Kindern identifiziert. Patienten mit kombinierten LM-Typen unterscheiden sich von Patienten mit einem einzelnen LM-Typ in Bezug auf die Frühgeburtlichkeit (13 vs. 31 %,;-;-;-;https://link.springer.com/article/10.1007/s00405-016-4334-5 a04767010aaa2e02b02055cc28db6c12;de;;;2.1.;;;Wasserfall-Verkehrserkennung: Optimierung von Klassifikationskaskaden Das Internet transportiert Daten, die von Programmen erzeugt werden, die verschiedene Phänomene in IP-Flüssen verursachen. Mittels maschineller Lerntechniken können wir automatisch zwischen Strömen unterscheiden, die von verschiedenen Verkehrsquellen erzeugt werden, und einen fundierteren Blick auf das Internet gewinnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19419-6_1 e2cfce995fd9f160f31c588388895eb8;de;;;2.1.;;;Wasserstandsklassifizierung für Hochwasserüberwachungssystem mit Convolutional Neural Network Dieses Projekt zielt darauf ab, ein neues Wasserstandsklassifizierungsmodell in das Hochwasserüberwachungssystem vorzuschlagen, indem es mit der künstlichen Intelligenztechnologie Convolutional Neural Network integriert wird. Um den Datensatz von einem Bild auf 300 Bilder zu vergrößern, die in der Lage sind, die von einer Kamera aufgenommenen realen Bilder zu imitieren, wurden verschiedene Bildvorverarbeitungs- und Datenerweiterungstechniken angewendet. Die Bilder wurden einem Transfer-Learning zur Gewichtsinitialisierung mit Feinabstimmung und Training von Grund auf unterzogen, um ihre Ergebnisse zu vergleichen und den am besten geeigneten Optimierer, die anfängliche Lernrate und die am besten geeignete Batchgröße für diese Anwendung festzulegen. Das Ergebnis hat gezeigt, dass durch die Verwendung von vortrainiertem AlexNet mit Adam Optimizer, einer anfänglichen Lernrate von 0,0001 und einer Batchgröße von 16 die Validierungsgenauigkeit in der neunten Epoche 100 % erreichen kann und eine hohe Stabilität und Konsistenz sowohl bei der Trainings- als auch bei der Validierungsgenauigkeit zeigt. Wenn das Modell mit 15 neuen Bildern getestet wird, kann es außerdem die volle Punktzahl für 14 Bilder erreichen und die durchschnittliche Testgenauigkeit beträgt 99,72 %. Das Modell hat die bisherige Arbeit anderer Forscher übertroffen. Zusammenfassend lässt sich sagen, dass dieses Projekt zur Verbesserung der Sicherheit der Gemeinde beigetragen hat, indem es erfolgreich ein vertrauenswürdiges und robustes Wasserstandsklassifizierungsmodell erstellt hat, das in der Lage ist, den Wasserstand zu erkennen, sein Risiko zu analysieren und die Informationen mithilfe einer sichereren und langlebigeren Kamera anzuzeigen und geeignet für die Aufstellung in hochwassergefährdeten Gebieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5281-6_21 2068af47a0de8a31a48e59f2df20b40d;de;;;2.1.;;;SVM-basierte Klangklassifizierung basierend auf MPEG-7-Audio-LLDs und verwandten erweiterten Funktionen In diesem Artikel stellen wir einen auf Support Vector Machine (SVM) basierenden Soundklassifikator vor, der MPEG-7-Audio-Low-Level-Deskriptoren und verwandte erweiterte Funktionen verwendet. Das SVM wird verwendet, um einen Umgebungsgeräuschklassifikator zu konstruieren. Was die Audiofunktionen betrifft, so ist ein Funktionssatz, der MPEG-7-Audio-Low-Level-Deskriptoren, Spektrumschwerpunkt, Spektrumspreizung und Spektrumflachheit sowie zwei erweiterte Funktionen, RSS- und Legendre-basierte Trendkoeffizienten (LBTCs) der Spektrumsleistung umfasst zur Klangklassifizierung übernommen. Experimente zeigen, dass das vorgeschlagene System eine Klassifizierungsrate von 81,25% erreichen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32692-9_67 ad05be015cd08527a7ff20bc2bfa32e8;de;;;2.1.;;;Die Anwendungs- und Vorhersagemodelle basieren auf dem Bayes-Klassifikator in der elektronischen Informationsindustrie Dieser Artikel analysiert den 120-monatigen Stand der Entwicklungsdaten der elektronischen Informationsindustrie von 35 Indikatoren in 30 Provinzen aus der ZhongHong-Datenbank. Ein Bayes-Klassifikator-Prognosemodell wird erstellt, um das Entwicklungsniveau des Index der elektronischen Informationsindustrie α zu messen, wobei vier zentrale Modellierungseigenschaften berücksichtigt werden, die Glätte, Zufälligkeit, Trends und Normalität sind. Dieses Modell wird für Simulationen und Vorhersagen der tatsächlichen Anwendung der elektronischen Informationsindustrie verwendet. Insbesondere wird gemäß der Variation des Index α in jeder Region zu unterschiedlichen Zeiten ein Zeitreihen-Prognosemodell für die Prognosen des Index α in jeder Region im Jahr 2014 erstellt der Index α in jeder Region. Der Bayessche Klassifikator kann verschiedene α in Jahr einteilen, so dass er einen Entwicklungstrend der Elektronikindustrie in jeder Provinz erzeugen kann. Die Ergebnisse zeigen, dass der Entwicklungsstand der Elektronikindustrie in Shanghai und Peking höher ist als in anderen Provinzen. Die Unterschiede zwischen den Niveaus in den beiden fortgeschrittenen Städten und Zhejiang, Tianjin, Jiangsu, Fujian und Guangdong nehmen jedoch von 2013 bis 2014 ab. Darüber hinaus zeigen die Ergebnisse auch, dass es keine Aufzeichnungen in der Bewertung der „leicht fortgeschrittenen“ Region gibt . Die Elektronikindustrie in Shandong, Hubei, Liaoning, Ningxia und Hainan wird jedoch 2014 gute Aussichten haben und das Gebiet der „leicht fortgeschrittenen“ Region füllen. Dieses Modell erfordert nicht viele Daten, die leicht übertragen werden können. Das Modell eignet sich für die Erforschung und Analyse von Makromechanismen ohne viele Daten und ist auch eine Referenz für Regierungsbehörden und verwandte Unternehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30874-6_17 e5fc5f7e9b9ac1728ed1a9f1faa380a6;de;;;2.1.;;;Eine Strategie zur Reduzierung von Merkmalen für die Analyse voluminöser biomedizinischer Muster Die Analyse voluminöser Muster ist oft problematisch aufgrund der verwirrenden Wirkung von Merkmalen, die für das vorliegende Problem nicht relevant sind. Zum Beispiel wird die Klassifizierung biomedizinischer Spektren oft am besten durch die Identifizierung einer Teilmenge von stark diskriminierenden Merkmalen erreicht, während die nicht relevanten Merkmale ignoriert werden. In Bezug auf die Musterklassifizierung präsentieren wir eine Merkmalsreduktionsstrategie, die mit der Instanziierung vieler Klassifizierer beginnt, die auf verschiedenen Teilmengen von Merkmalen arbeiten, wobei ein Merkmalsstichprobenverfahren verwendet wird, um diskriminierende Merkmalsteilmengen zu identifizieren. Diese Teilmengen werden weiter aggregiert, um die Gesamtleistung der zugrunde liegenden Klassifikatoren zu verbessern. Wir zeigen empirisch anhand eines umfangreichen biomedizinischen Datensatzes, dass diese Strategie im Vergleich zu einer Reihe von Benchmarks überlegene Klassifikationsgenauigkeiten liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31718-7_14 d812c789e9ec144f98351b36aad353a4;de;;;2.1.;;;Personalisierte semantische Peer-Selektion in Peer-to-Peer-Netzwerken In diesem Poster wird ein personalisierter Ansatz für die semantische Peer-Selektion in Peer-to-Peer-Systemen vorgeschlagen. Um eine personalisierte semantische Peer-Auswahl zu erreichen, wird eine Hilfsontologie, die Named User Ontology, zum Speichern von Konzepten eingeführt, die für den Benutzer von großem Interesse sind. Diese Ontologie wird dann zusammen mit der Benutzeranfrage verwendet, um die vielversprechendsten Peers über das Netzwerk auszuwählen, um Benutzeranfragen an sie weiterzuleiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00405-6_39 75ce64fc6c60129540cdf698fd814db9;de;;;2.1.;;;Automatische Klassifizierung von diagnosebezogenen Gruppen mit ANN- und XGBoost-Modellen Die Optimierung des Ressourceneinsatzes in Krankenhäusern ist ein zentrales Problem im Krankenhausmanagement. In diesem Sinne ist die Entwicklung von Instrumenten, die Gesundheitsdienstleistern dabei helfen können, stationäre Patienten entsprechend ihrem pathologischen Zustand zu den nach internationalen Standards angegebenen Zeiten zu entlassen, von großem Interesse für die Ressourcenoptimierung, insbesondere in Entwicklungsländern. Es gibt verschiedene Standards für die Gruppierung von Patienten nach ihren Diagnosen und Verfahrensinformationen, diese Arbeit konzentriert sich auf das Patientenklassifikationssystem Diagnosis-Related Groups (DRG). Typischerweise werden DRG nach der Entlassung aus dem Krankenhaus nur zu Abrechnungs- und Zahlungszwecken eingeholt, wodurch die Fähigkeit der Gesundheitsdienstleister eingeschränkt wird, Korrekturmaßnahmen zu ergreifen, wenn die Aufmerksamkeit der Gesundheitsversorgung von der Standardbehandlung bestimmter Patientenzustände abweicht. Diese Arbeit konzentriert sich auf den Einsatz von ML-Techniken als Alternative zu regulären Klassifikationsmethoden der DRG. Das Hauptziel besteht darin, anhand der bei der Krankenhausentlassung vorliegenden Informationen zu evaluieren, ob ML-Methoden Patienten nach dem DRG-Standard einordnen können. Dieses Ergebnis wäre die Grundlage für weitere Analysen, die sich auf die Vorhersage von DRG in frühen Stadien der stationären Behandlung konzentrieren. Die Ergebnisse zeigten, dass die DRG-Klassifizierung mit ANN- und Ensemble-Methoden in einer realen Datenbank mit mehr als 57.032 Gesundheitsakten eine Genauigkeit von bis zu 96 % erreichen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-69774-7_7 65e1563c36683c562c20eae265d696ca;de;;;2.1.;;;Ein Ansatz zur Automatisierung der Benutzerprofilanalyse Informationen aus den Profilen der Nutzer in sozialen Netzwerken sind eine wichtige Datenquelle für die Analyse der psychologischen Eigenschaften der Nutzer. Texte, Video- und Audiodateien, Bilder, öffentliche Seiten können leicht zugänglich und analysiert werden. Wir betrachten die Möglichkeiten, die psychologischen Eigenschaften der Benutzer anhand ihres Profils im sozialen Netzwerk VKontakte einzuschätzen. Wir vergleichen verschiedene Machine-Learning-Modelle zur Analyse von Benutzertexten, wie z. B. lineare Regression, Entscheidungsbäume, Random Forest, Support Vector Machine mit linearen, radialen und sigmoidalen Kerneln. Außerdem diskutierten wir mögliche weitere Forschungsschritte, darunter die Sentimentanalyse für eine bessere Textbeschreibung, die Analyse des Profilfotos und schließlich Möglichkeiten, alle Schritte zur Einschätzung psychologischer Eigenschaften von Nutzern sozialer Netzwerke zu kombinieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37858-5_39 4ba65e026fb71d94f57117f5350bb31f;de;;;2.1.;;;Ein neuer Algorithmus zur Online-Feldfunktionsauswahl basierend auf Streaming-Daten Die rasante Entwicklung der Internet-Technologie führte zu einem massiven Netzwerk von Textdaten. Daher hat die effiziente Klassifizierung der massiven Textdaten eine wichtige theoretische Bedeutung und einen hohen Anwendungswert. Um genaue Klassifizierungsergebnisse zu erhalten, wurde der Prozess in zwei Teile unterteilt. In Bezug auf die Textdarstellung schlägt dieses Papier einen Online-Feldmerkmalsauswahlalgorithmus (OFFS-Algorithmus) basierend auf Streaming-Daten vor, der die Probleme der geringen Effizienz und des Speicherverbrauchs herkömmlicher Merkmalsauswahlalgorithmen löst. Mit Verbesserungen im Vektorraummodell kann der neue Algorithmus das Echtzeitmerkmal der Daten auswählen und schnell Textvektoren generieren. Unter dem Aspekt des Klassifikatordesigns wird ein OFFS-BP-Neuralnetzwerk-Textklassifikator basierend auf einem BP-neutralen Netzwerk und einem OFFS-Algorithmus entworfen. Es passt sich an das verteilte parallele Rechnen an, reduziert die Trainingszeit und balanciert die Berechnungseffizienz und die Klassifizierungsgenauigkeit. Basierend auf der Spark-Plattform wird schließlich der Klassifikator des neuronalen Netzes OFFS-BP implementiert. Die experimentellen Ergebnisse zeigen, dass der Klassifikator des neuronalen Netzes OFFS-BP besser für Big-Data-Umgebungen mit weniger Rechenzeit und höherer Klassifikationseffizienz geeignet ist.;-;-;-;https://link.springer.com/article/10.1007/s12652-018-0959-0 f3a91f00626258d5f3995bcc093f1579;de;;;2.1.;;;Verteilte Klassifizierung für unausgewogene Big Data in verteilten Umgebungen Mit der Entwicklung der Technologie ist es in letzter Zeit sehr wichtig, skalierbare Berechnungsmethoden für den Umgang mit großen Daten in Big-Data-Anwendungen zu untersuchen. Cloud-/Edge-Computing sind leistungsstarke Tools zur Lösung von Big-Data-Problemen und bieten flexible Berechnungen und enorme Speicherkapazitäten. Darüber hinaus werden die Daten in Big-Data-Anwendungen in der realen Welt normalerweise in dezentralen Rechenressourcen gespeichert, was sich auf das Design von Algorithmen für künstliche Intelligenz auswirkt. Daher konzentrieren wir uns in dieser Arbeit auf das maschinelle Lernen der Verteilung und schlagen einen neuartigen verteilten Klassifizierungsalgorithmus vor, um mit unausgeglichenen Daten umzugehen. Insbesondere untersuchen wir die Methode der verteilten Wechselrichtungsmethode von Multiplikatoren (ADMM) und teilen das verteilte Klassifizierungsproblem in einige kleine Probleme auf, die durch die dezentralen Ressourcen parallel gelöst werden können. Darüber hinaus verwenden wir basierend auf dem verteilten Framework eine Beschleunigungsstrategie, um die Zeiteffizienz zu verbessern, indem wir ein geeigneteres Modell für die unausgewogene Datenklassifizierung entwerfen. Die Ergebnisse der theoretischen Analyse und der Experimente zeigen, dass unsere vorgeschlagene Methode schneller konvergiert als andere verteilte ADMM-Methoden und Trainingszeit spart, was die Skalierbarkeit der verteilten Klassifizierung bei unausgeglichenen Daten verbessern kann.;-;-;-;https://link.springer.com/article/10.1007/s11276-021-02552-y 7b902b3ac6629d6f4cc4998457611552;de;;;2.1.;;;Konstruktion des Semantic Framework Dictionary of Contemporary Chinese Common Verbs Semantisches Lexikon und semantisches Framework sind die primäre Unterstützung von Aufgaben der Verarbeitung natürlicher Sprache wie Informationsextraktion, Stimmungsanalyse und maschinelle Übersetzung. Daher ist es wichtig, das semantische Framework-Wörterbuch der zeitgenössischen chinesischen gebräuchlichen Verben zu konstruieren, das reiches semantisches Wissen abdeckt. Basierend auf einer Analyse aktueller Forschungsergebnisse definiert dieser Beitrag den lexikalischen Rahmen gängiger chinesischer Verben. Entsprechend den thematischen Rollen des Prädikats wird der semantische Rahmen in den grundlegenden semantischen Rahmen und den erweiterten semantischen Rahmen unterteilt. Frameworks, die automatisch extrahiert werden, wobei Semantik als Verarbeitungseinheit verwendet und basierend auf einem umfangreichen lexikalischen und thematischen Rollenkennzeichnungskorpus zusammengefasst werden Die vollständigen und vereinfachten Versionen des Verbgerüsts werden mit Hilfe des manuellen Korrekturlesens erstellt. Das endgültige Verbgerüst enthält eine ausführliche Beschreibung und entsprechende Beispielsätze von 2.782 gebräuchlichen Verben mit 4.516 Bedeutungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-38189-9_56 faeee1c13f5109e8c56b78483584f85a;de;;;2.1.;;;Zweistufiges Klassifikationslernen für die akustische Szenenklassifizierung im offenen Set Der Großteil der Forschung zur akustischen Szenenklassifizierung (ASC) konzentriert sich auf das Klassifizierungsproblem mit nur bekannten Szenenklassen. In der Praxis basiert das zu lösende Szenenklassifizierungsproblem im Allgemeinen auf einer offenen Menge, die unbekannte Szenen enthält. Dieses Papier schlägt eine zweistufige Methode vor, die das Open-Set-Problem auf ASC löst. Das vorgeschlagene System zerlegt das ASC-Problem mit offener Menge in zwei Stufen. Um den Einfluss unbekannter Szenen auf den nachfolgenden Erkennungsprozess bekannter Szenen abzuschwächen, besteht der erste Schritt darin, unbekannte Szenen zu identifizieren. Die zweite Stufe klassifiziert definierte akustische Szenen. In diesem Fall sortiert die von uns vorgeschlagene Schwellenwertauswahlstrategie weiterhin unbekannte Szenen aus, die in der vorherigen Stufe nicht identifiziert wurden. Experimente zeigen, dass das in diesem Papier vorgeschlagene Verfahren effektiv unbekannte Szenen identifizieren und bekannte Szenen klassifizieren kann, indem die Aufgabe zur Klassifizierung der akustischen Szene mit offenem Satz segmentiert und eine geeignete Beurteilungsschwelle ausgewählt wird. Auf dem von DCASE Challenge 2019 Task 1C veröffentlichten Entwicklungsdatensatz übertrifft das vorgeschlagene Modell den ersten Platz.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1649-5_11 449c5a5c5f3a9edfd9737929e2e36c7f;de;;;2.1.;;;Auf einem memetischen Algorithmus basierende Funktionsauswahl für die handschriftliche Erkennung von Städtenamen Die Merkmalsauswahl spielt eine Schlüsselrolle, um die Hochdimensionalität des Merkmalsraums in Anwendungen des maschinellen Lernens zu reduzieren, indem irrelevante und redundante Merkmale verworfen werden, mit dem Ziel, eine Teilmenge von Merkmalen zu erhalten, die ein gegebenes Problem mit minimaler oder keiner Leistungseinbuße genau beschreiben. In diesem Artikel wird ein auf einem Memetic Algorithm (MA) basierender Wrapper-Filter-Feature-Selection-Framework für die Erkennung handgeschriebener Bangla-Städtenamen vorgeschlagen. Zur Bewertung des MA-Frameworks, einer kürzlich veröffentlichten Technik zur Merkmalsextraktion, die in [;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-6430-2_47 655dbea797120577c66c0ea4b97f2c0b;de;;;2.1.;;;Unbeaufsichtigtes Überwachungssystem für die vorausschauende Wartung von Hochspannungsgeräten Die Online-Überwachung eines Hochspannungsgeräts ist ein entscheidender Aspekt für ein vorausschauendes Wartungsprogramm. Das Isolationssystem einer elektrischen Maschine wird durch Teilentladungen (TEs) beeinflusst, die langfristig zum Durchschlag führen können. Dies kann wiederum einen erheblichen wirtschaftlichen Schaden mit sich bringen, Windturbinen sind ein hervorragendes Beispiel dafür. Daher ist es notwendig, eingebettete Lösungen zur Überwachung des Isolationszustands zu verwenden. Dieses Whitepaper stellt ein Online-System vor, das vollständig unbeaufsichtigte Methoden nutzt, um den Zustand der überwachten Maschine in Echtzeit zu bewerten. Dementsprechend verlässt sich der Überwachungsprozess nicht auf irgendwelche Vorkenntnisse über die Vorrichtung. Dennoch kann das vorgeschlagene System die relevanten Drifts im Maschinenzustand erkennen. Insbesondere ist das System für den Betrieb auf kostengünstigen Embedded-Geräten ausgelegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37277-4_35 665fd858a6e3cdb0f4da00a86121e27a;de;;;2.1.;;;Optimierung der Zustandsklassifikation des Innenumfangs der Röhre durch Verwendung von künstlichen neuronalen Netzen, Random Forest und Support Vector Machines Algorithmen In diesem Beitrag wird die Verwendung von künstlichen neuronalen Netzen, Random Forest und Support Vector Machines-Algorithmen zur Optimierung der Zustandsklassifizierung des Innenumfangs von Rohren und zur Durchführung des Prozesses der eingehenden Qualitätskontrolle (IQC) vorgeschlagen. Das traditionelle Klassifizierungssystem wird jedoch in der Regel in der Frühphase vom Entwickler als Schwellenwert festgelegt. Die Methode ist zeitaufwendig und mühsam, das Modul zu entwickeln. In der modernen Technologie kann maschinelles Lernen die Mängel des traditionellen Klassifizierungssystems überwinden. Beim maschinellen Lernen gibt es jedoch viele Algorithmen, wie beispielsweise Artificial Neural Network (ANN), Random Forest (RF), Support Vector Machine (SVM) und so weiter. Und die verschiedenen Algorithmen können unterschiedliche Eigenschaften und Effizienzen verursachen, daher ist es notwendig, die verschiedenen Algorithmen bei der Anwendung zu vergleichen. In diesem Papier wird eine Methode namens Gittersuche verwendet, um den besten Parameter zu finden und diese Algorithmen zu vergleichen, die die beste Eigenschaft, Effizienz und den besten Parameter aufweisen. Schließlich wird aus den experimentellen Ergebnissen herausgefunden, dass die Methode dieses Papiers für den tatsächlichen Datensatz praktikabel ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9190-3_59 b46876503e57592cb72d54c1c74d64f3;de;;;2.1.;;;Klassifizierung von Anomalien der weißen Blutkörperchen zur Früherkennung des myeloproliferativen Neoplasmensyndroms mittels Backpropagation Eine der Erkrankungen der weißen Blutkörperchen ist das myeloproliferative Neoplasmensyndrom, bei dem es sich bei dieser Erkrankung um eine Anomalie im Knochenmark mit übermäßiger Blutzellzahl handelt. Das Full Blood Count (FBC) ist eine Art von Untersuchung, die den Gesundheitszustand des Patienten, Anomalien der Blutzellen und das Vorhandensein einer Infektion im Körper des Patienten zeigt. Die Bestimmung von Zellanomalien erfolgt jedoch immer noch manuell basierend auf dem Wissen und der Erfahrung der klinischen Pathologie, sodass die Bestimmung dieser Anomalien subjektiv ist. Deshalb brauchen wir ein System, das Anomalien der weißen Blutkörperchen automatisch, objektiv und genau klassifizieren kann. Diese Studie verwendet digitale Bildverarbeitung von Bildern des peripheren Blutausstrichs, dann wird eine Merkmalsextraktion erhalten, die die Eingabe des Klassifikationssystems ist. Die verwendeten Merkmale sind Fläche, Umfang, Metrik und Kompaktheit, während die verwendete Klassifikationsmethode die Backpropagation-Methode ist. Die beste verwendete Backpropagation-Netzwerkarchitektur ist 4, 6, 8, 5, 2 mit einer Variation der Lernraten von 0,05 und 0,3, was die beste Genauigkeitsrate von 91,82 % bei einer Trainingsdatenmenge von 516 und Testdaten von 159 ergibt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6926-9_43 a461fd82eff3fa1adcd9952b0b87a94f;de;;;2.1.;;;Automatische Melanomdiagnose und Klassifikation auf dermatoskopischen Bildern Die automatische Erkennung von Hautkarzinomen ist von Bedeutung. Die gefährlichen Krebsarten, die beim Menschen vorkommen, sind Hautkrebs. Das Melanom ist die tödlichere Art von Hautkrebs. Heilung kann bei der Früherkennung von Melanomen von Vorteil sein. Ziel dieser Arbeit ist es, einen Algorithmus zur Hautkrebsdiagnose vorzuschlagen, der Läsionen automatisch als bösartig oder gutartig klassifizieren kann. Die Segmentierung erfolgt in der Anfangsphase nach der Auswahl der besten Bildentwicklungsmethoden, die durch Anwenden und Vergleichen verschiedener Rauschunterdrückungsfilter auf Bildern erreicht werden. Eine perfekt optimierte Segmentierungsmethodik beruht auf Schwellenwerten, Wasserscheidenalgorithmen werden auf Dermatoskopiebilder implementiert und das differenzierte Objekt wird für GLCM-Attribute und qualitative Techniken abgeleitet. Um bösartige oder gutartige Proben zu identifizieren, werden die Attribute daher als Quelle in die Support-Vektor-Maschine eingespeist. Nach experimentellen Erkenntnissen hat das SVM-Klassifizierungssystem mit Watershed-Segmentierung das Potenzial, benigne und maligne Melanome mit einer höheren Gesamtkategorisierungseffizienz zu unterscheiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-68723-6_14 306547f2baac75d454eefdfceffa3c5d;de;;;2.1.;;;Nutzung von Wikipedia zur Bewertung semantischer Verwandtschaftsmechanismen Die semantische Verwandtschaft zwischen zwei Konzepten ist ein Maß, das quantifiziert, inwieweit zwei Konzepte semantisch verwandt sind. Im Bereich der digitalen Bibliotheken wurden mehrere Mechanismen vorgeschlagen, die auf Methoden der semantischen Verwandtschaft basieren. Visualisierungsschnittstellen, Informationsextraktionsmechanismen und Klassifikationsansätze sind nur einige Beispiele für Mechanismen, bei denen Methoden der semantischen Verwandtschaft eine bedeutende Rolle spielen können und erfolgreich integriert wurden. Aufgrund des wachsenden Interesses von Forschern an Bereichen wie Digitalen Bibliotheken, Semantic Web, Information Retrieval und NLP wurden verschiedene Ansätze zur automatischen Berechnung der semantischen Verwandtschaft vorgeschlagen. Trotz der wachsenden Zahl vorgeschlagener Ansätze gibt es jedoch immer noch erhebliche Kritikalitäten bei der Bewertung der Ergebnisse, die von verschiedenen Methoden geliefert werden. Die begrenzten Bewertungsmechanismen verhindern eine effektive Bewertung und mehrere Arbeiten in der Literatur betonen, dass die verwendeten Ansätze ziemlich inkonsistent sind. Um diese Einschränkung zu überwinden, schlagen wir eine neue Bewertungsmethodik vor, bei der Menschen Feedback über die semantische Verwandtschaft zwischen explizit in digitalen Enzyklopädien definierten Konzepten geben. In diesem Papier nutzen wir Wikipedia speziell zur Generierung eines zuverlässigen Datensatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54347-0_12 7d5c1a24333afd04b469a12ed5b09f11;de;;;2.1.;;;Ökologische Landzonierung mit integrierten geopädologischen und Vegetationsinformationen: Fallstudie zum Naturpark Cabo de Gata-Níjar, Almería, Spanien Das Ziel der vorliegenden Studie ist die Bestimmung von Zonierungseinheiten, die auf ein ausgewogenes Verhältnis von Schutz und Entwicklung im Naturpark Cabo de Gata-Níjar, einer trockenen Umgebung im Südosten Spaniens, ausgerichtet sind. Ökosysteme wurden identifiziert, indem die Attribute ausgewählt wurden, die auf drei verschiedenen räumlichen Skalen den stärksten Einfluss auf die Ökosystemdynamik ausüben. Als Grundlage für die Definition der Ökosystemhierarchie wurde ein multikategoriales Geoform-Boden-Klassifikationssystem verwendet, das Ökosektionen (1:100.000), Ökoserie (1:50.000) und Ökotope (1:25.000) umfasst. Vegetation wurde zur Identifizierung von Ökosystemen auf Ökotopebene verwendet. Die hierarchische Struktur der Geoform-Boden-Datenbank ermöglichte die Aufrechterhaltung der thematischen und räumlichen Kohärenz, in der niedrigere Hierarchieebenen die Attribute höherer Ebenen erben. Geoform-Boden- und Vegetationsattribute lieferten die erforderlichen Daten, um den Schutzwert und die Anfälligkeit der Ökosysteme für die Landnutzung zu bewerten, was für die Definition von Zoneneinteilungen entscheidend ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19159-1_29 29980534c5671436e61e089fd5888e70;de;;;2.1.;;;Klassifizierung von Hirntumor-MRTs mit einer Kernel Support Vector Machine Die Verwendung medizinischer Bilder nimmt ständig zu, was die manuelle Untersuchung jedes Bildes zu einer schwierigen Aufgabe macht. Diese Studie konzentriert sich auf die Klassifizierung von Magnetresonanzbildern (MRT) des Gehirns als normal, wenn kein Hirntumor vorhanden ist, oder als abnormal, wenn ein Hirntumor vorliegt. Es wird ein hybrides intelligentes System zur automatischen Erkennung von Hirntumoren und zur MRT-Klassifizierung vorgeschlagen. Dieses System unterstützt Radiologen bei der Interpretation der MRTs, verbessert die Genauigkeit der Hirntumordiagnose und lenkt den Fokus nur auf die abnormalen Bilder. Das vorgeschlagene computergestützte Diagnosesystem (CAD) besteht aus fünf Schritten: MRT-Vorverarbeitung zur Entfernung des Hintergrundrauschens, Bildsegmentierung durch Kombination von Otsu-Binarisierung und K-Means-Clustering, Merkmalsextraktion mit dem Ansatz der diskreten Wavelet-Transformation (DWT) und Dimensionsreduktion der Merkmale durch Anwendung der Methode der Hauptkomponentenanalyse (PCA). Die wichtigsten Funktionen wurden einer Kernel Support Vector Machine (KSVM) zur Durchführung der MRT-Klassifizierung vorgelegt. Die Leistungsbewertung des vorgeschlagenen Systems ergab eine maximale Klassifikationsgenauigkeit von 100 % unter Verwendung einer verfügbaren MRT-Datenbank. Die Bearbeitungszeit für alle Prozesse wurde mit 1,23 Sekunden aufgezeichnet. Die erhaltenen Ergebnisse haben die Überlegenheit des vorgeschlagenen Systems gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-44672-1_13 70c3084215a9ffcfa24644f026e12b3f;de;;;2.1.;;;Simulation landwirtschaftlicher Landnutzungsänderungen in Uganda mit einem agentenbasierten Modell Agentenbasierte Modellierung, ein prozessbasierter Ansatz, ist bei der Simulation der Interaktion zwischen menschlichen Entscheidungsprozessen und Umweltsystemen von Vorteil. In dieser Studie wenden wir ein agentenbasiertes Modell an, um potenzielle Szenarien für landwirtschaftliche Landnutzungsänderungen in Uganda zu simulieren. Das Simulationsmodell bezieht Entscheidungsprozesse auf der Ebene von Kleinbauern und gewerblichen Landwirten auf Basis biophysikalischer und sozioökonomischer Faktoren ein und analysiert auf dieser Grundlage, wie sich Entscheidungen der Landwirte auf landwirtschaftliche Landnutzungsänderungen auswirken können. Geografische Informationssystem (GIS)-Werkzeuge werden verwendet, um räumliche Beziehungen zwischen Landwirten und Landbedeckungssystemen aufzubauen. Satellitenbilder werden verwendet, um den anfänglichen Zustand der Landbedeckung darzustellen und dienen als Datensatz der beobachteten Landbedeckung, um die simulierten Ergebnisse zu kalibrieren. Die Ergebnisse des Simulationsmodells sind vielversprechend und das Modell war erfolgreich bei der Darstellung historischer und zukünftiger Szenarien landwirtschaftlicher Landnutzungsmuster auf nationaler Ebene.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45737-5_46 974c8843bd0ddec968f7348fe570177b;de;;;2.1.;;;Eine Pilotstudie, die die Durchführbarkeit der Überwachung der Hauttemperatur zur Reduzierung von wiederkehrenden Fußgeschwüren bei Patienten mit Diabetes testet – eine randomisierte kontrollierte Studie Obwohl die Überwachung der Fußhauttemperaturen mit dem Wiederauftreten von diabetischen Fußgeschwüren in Verbindung gebracht wurde, wurden keine Studien durchgeführt, um die Durchführbarkeit bei europäischen Kaukasiern zu testen. Zudem fehlen in diesen Studien die pädagogischen und/oder motivationalen Modelle, die kognitive oder psychosoziale Prozesse fördern. Daher haben wir eine randomisierte kontrollierte Pilotstudie durchgeführt, um die Durchführbarkeit der Überwachung der Fußhauttemperatur in Kombination mit einer theoriebasierten Beratung zur Standardfußpflege zu testen, um das Wiederauftreten von diabetischen Fußgeschwüren zu reduzieren.;-;-;-;https://link.springer.com/article/10.1186/s12902-015-0054-x 5cdf69e623b23e906769286f96cff2dd;de;;;2.1.;;;Bewertung der Baumwolllängengleichmäßigkeit durch umfassende Längenattribute, die durch Dual-Bart-Fibrographie gemessen werden Die Qualität von Baumwollgarnen, wie Gleichmäßigkeit und Festigkeit, hängt nicht nur von der Gesamtlänge der gesponnenen Fasern, sondern auch von der Gleichmäßigkeit der Faserlänge ab. Im aktuellen Baumwollklassifizierungssystem (Cotton Incorporated in Classification of upland cotton, 2018, USDA in The Classification of Cotton, Agricultural Marketing Service, Washington, DC, 1995) wird die Längengleichmäßigkeit durch einen einzigen Faktor gemessen – den Uniformity Index (UI). die den Kurzfasergehalt (SFC) nicht explizit einschließt und die interaktiven Effekte zwischen den Längenattributen vernachlässigt. Das Ziel dieser Studie war die Suche nach Schlüssellängenattributen und neuen Klassifikationsmethoden für eine umfassendere Bewertung der Baumwolllängengleichmäßigkeit. Wir untersuchten zunächst die Assoziationen von Längenattributen, die durch die Doppelbart-Fibrographie (DBF) messbar sind (Zhou et al. in Text Res J 90(1):37–48, 2020), um eine Reihe von Schlüsselmerkmalen auszuwählen, um die Dimensionalität für konsekutive statistische Analyse. Dieses Set enthält ein Gesamtlängenattribut (obere halbe mittlere Länge – UHML), SFC und UI, die realistischere Informationen über die Baumwollqualität darstellen. Wir haben dann die;-;-;-;https://link.springer.com/article/10.1007/s10570-020-03326-z 2ceeea049c4426788bebac1d48b05526;de;;;2.1.;;;Ontologische Antimuster in Flugsicherheitsereignismodellen In den letzten Jahren ist das Interesse an der Entwicklung hochwertiger Modelle gewachsen, um die Interoperabilität von Anwendungen sowie das richtige Verständnis innerhalb einer Gemeinschaft sicherzustellen. Um die Produktivität von Modelldesignern sowie die Qualität der resultierenden Modelle zu verbessern, sind angemessene theoretische Grundlagen und Werkzeugunterstützung erforderlich. In diesem Artikel werden einige Arten von konzeptionellen Modellierungs-Antimustern diskutiert, die zu fehleranfälligen Modellierungsentscheidungen führen, und eine reproduzierbare Lösung für ein allgemeines Anti-Mustererkennungsproblem während des konzeptionellen Designs beschrieben. Ein neuer Beitrag dieses Papiers ist die Definition neuer ontologischer Antimuster, die wir während unserer Arbeit an Design- und Modellontologien im Bereich der Flugsicherheit beobachtet haben. Der Ansatz wird anhand von Modellen illustriert, die mit OntoUML entworfen wurden, einem ontologiebasierten UML-Profil auf Basis der Unified Foundational Ontology (UFO).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-45880-9_2 132473adedc8127dab5b9e22d43d8b94;de;;;2.1.;;;Was kann man sonst noch aus Ontologien extrahieren? Einflussregeln Es wird eine Methode zum Extrahieren von neuem implizitem Wissen aus Ontologien unter Verwendung eines induktiv/deduktiven Ansatzes vorgestellt. Das neue extrahierte Wissen nimmt die Form von Wenn-Dann-Regeln an, die mit einem Gewicht annotiert sind. Solche Regeln, die als Einflussregeln bezeichnet werden, spezifizieren, wie die Werte der Eigenschaften, die an eine Sammlung von Konzepten gebunden sind, die Werte der Eigenschaften eines anderen Konzepts beeinflussen können. Die Technik, die Data Mining und Linkanalyse kombiniert, ist völlig allgemein und auf jede Domäne anwendbar . Der Beitrag berichtet über die Methoden und Algorithmen, die den Prozess des Mining der Regeln aus der Ontologie unterstützen, und diskutiert ihre Anwendung auf reale Daten aus dem Wirtschaftsbereich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36177-7_17 62808b08ab9e702c0e3c37e0e879e9f0;de;;;2.1.;;;Erweiterte CBR-Elemente Dieses Kapitel beginnt mit einem allgemeinen Überblick über die fortgeschrittenen Konzepte als Vorbereitung auf eine eingehendere Diskussion der in Teil II erläuterten Elemente. Es beginnt mit der Erörterung des fortgeschrittenen Aspekts der Beziehungen zwischen Containern. Die hier vorgestellten neuen Konzepte sind jedoch heterogen, um einige noch nicht vorgestellte Aspekte abzudecken. Wir präsentieren auch eine tiefere Diskussion über Kontexte, CBR-Systeme, ihre Eigenschaften, ihre Bedingungen usw. und Ontologien. Dieses Kapitel enthält auch eine verfeinerte Sicht auf Eigenschaften von Fällen sowie von Fallbasen, Provenienz und verteilten Fallbasen. Als nächstes wird der Zusammenhang zwischen Ähnlichkeit und Nützlichkeit informell aus Sicht praktischer Anwendungen diskutiert. Dann wird das Kontextkonzept präzisiert. Die Kontexttypen wurden von sehr allgemeinen Kontexten auf der obersten Ebene bis hin zu spezifischeren Kontexten auf den unteren Ebenen strukturiert. Die Beziehungen zu Kontexten wurden in einen Bezug zu den Wissenscontainern gebracht, dies wird später bei der Entwicklung von Systemen eine große Rolle spielen. Die Überlegungen im generalisierten Ansatz wurden vertieft und aus Sicht des E-Commerce untersucht, wobei die Lücke zwischen Funktionalitäten und Produkten betrachtet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40167-1_12 a35918a2197cbc0ab275150f667fa90f;de;;;2.1.;;;Webservice-basierter Ansatz für die gemeinsame Nutzung und Diagnose von Ontologien bei viraler Hepatitis Leberviren sind die gefährlichste Ursache für Leberprobleme, da sie lange anhalten und zu schwerwiegenden Komplikationen wie Leberentzündungen führen. In unserer vorherigen Forschung wurde eine Virus-Hepatitis-Ontologie mit dem Ontology of Biomedical Reality-Framework für die A-, B-, C- und D-Viren entwickelt, die bei Männern und Frauen am weitesten verbreitet sind. Diese Ontologie wird in der Web Ontology Language (OWL) repräsentiert, die in letzter Zeit zur Standardsprache für das Semantic Web geworden ist. Die Ontologie der Virushepatitis ist in ihrem aktuellen Format nur für Informatiker zugänglich. In diesem Artikel stellen wir einen Webservice-basierten Ansatz vor, um die Ontologie der Virushepatitis unter Ärzten, Medizinstudenten und intelligenten Systemen zu teilen. Darüber hinaus ermöglicht der vorgeschlagene Ansatz Ärzten und Medizinstudenten eine Differenzialdiagnose der Virushepatitis-Erkrankungen. Um zu zeigen, wie sehr der Ansatz für Mediziner und Medizinstudenten von großem Nutzen ist, haben wir einen Systemprototyp entwickelt, um verschiedene Anwendungsfälle zu präsentieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35326-0_26 3112d7c66ec698bf7ac3b55a05bf3f28;de;;;2.1.;;;Eine Familie kurzer Retroposons (Squam1) von Squamate-Reptilien (Reptilia: Squamata): Struktur, Evolution und Korrelation mit der Phylogenie Sequenzen der SINE-Familie, die für Squamate-Reptilien spezifisch sind, wurden aus den Genomen von Lacertiden-Eidechsen isoliert und sequenziert. Diese Retroposons, die wir Squam1 nannten, sind 360–390 bp lang und enthalten am 5’-Ende eine der tRNA-Gensequenz ähnliche Region. Diese Familie wurde auch bei Vertretern anderer Reptilienfamilien (Varaniden, Leguanen (;-;-;-;https://link.springer.com/article/10.1134/S002689330806006X 4369f171f2f8842eaeb87e878e84a09a;de;;;2.1.;;;Entwicklung eines individualisierten Überlebensvorhersagemodells für Rektumkarzinom Diese Arbeit präsentiert ein Modell zur Vorhersage der Überlebensfähigkeit von Patienten mit Rektumkarzinom, das durch maschinelle Lerntechniken entwickelt wurde. Das Modell basierte auf dem vollständigsten weltweit bekannten Krebsdatensatz, dem SEER-Datensatz. Nach der Vorverarbeitung bestanden die Trainingsdaten aus 12.818 Datensätzen von Patienten mit Rektumkarzinom. Sechs Merkmale wurden aus einem Merkmalsauswahlprozess extrahiert, um die relevantesten Merkmale zu finden, die die Überlebensfähigkeit von Rektumkarzinom beeinflussen. Das mit sechs Merkmalen konstruierte Modell wurde mit einem anderen mit 18 von einem Arzt angegebenen Merkmalen verglichen. Die Ergebnisse zeigen, dass die Leistung des Modells mit sechs Funktionen der des Modells mit 18 Funktionen nahe kommt, was darauf hindeutet, dass das erste ein guter Kompromiss zwischen Benutzerfreundlichkeit und Leistung sein kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-60285-1_27 a02e8bdf95fed9ab646b383284400265;de;;;2.1.;;;Mäßig haloalkaliphile aerobe Methylobakterien Aerobe Methylobakterien, die oxidierte und substituierte Methanderivate als Kohlenstoff- und Energiequellen nutzen, sind in der Natur weit verbreitet und am globalen Kohlenstoffkreislauf beteiligt, da sie ein einzigartiger Biofilter auf dem Weg dieser C;-;-;-;https://link.springer.com/article/10.1134/S0026261707030010 e8e5de923ae18f619bb41cd35a018c4e;de;;;2.1.;;;Strukturanalyse von N-Glykanen aus allergenen Gräsern, Ambrosia und Baumpollen: Core α1,3-gebundene Fucose und Xylose in allen untersuchten Pollen vorhanden Die N-Glykane aus löslichen Extrakten von zehn Pollen wurden untersucht. Die von diesen Quellen abgeleiteten pyridylaminierten Oligosaccharide wurden einer Gelfiltration und Umkehrphasen-HPLC in Verbindung mit Exoglykosidase-Verdaus und in einigen Fällen einer matrixunterstützten Laser-Desoprofessionellen-Artikel-Ionisations-Massenspektrometrie unterzogen. Im Vergleich zu bekannten Strukturen konnten die Hauptstrukturen der N-Glykane aus Kentucky-Blaugras (Poa pratensis), Roggen (Secale cerale), Weidelgras (Lolium perenne), Kurz-Ambrosia (Ambrosia elatior), Riesen-Ambrosia bestimmt werden (Ambrosia trifida), Birke (Betula alba), Hainbuche (Caprofessional-articleinus betulus), Rosskastanie (Aesculus hippocastanum), Olive (Olea europaea) und Schlangenkiefer (Pinus leucodermis) Pollenextrakte. Für Gräserpollen waren die wichtigsten nachgewiesenen Glykane in ihren Eigenschaften identisch mit:;-;-;-;https://link.springer.com/article/10.1023/A%3A1006960401562 603a1a9a83fb706fb1b9968ac7ec51db;de;;;2.1.;;;Regeln der Bergbauvereinigung in Folksonomies Social Bookmark-Tools tauchen im Web schnell auf. In solchen Systemen richten Benutzer leichtgewichtige konzeptionelle Strukturen ein, die Folksonomien genannt werden. Diese Systeme bieten derzeit relativ wenig Struktur. In diesem Beitrag diskutieren wir, wie das Mining von Assoziationsregeln zur Analyse und Strukturierung von Folksonomien verwendet werden kann und wie die Ergebnisse für das Ontologie-Lernen und die Unterstützung von emergenter Semantik verwendet werden können. Wir demonstrieren unseren Ansatz an einem großen Datensatz, der aus einem Online-System stammt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-34416-0_28 beed085e3eda09cf485fd470d187c0aa;de;;;2.1.;;;Automatisches Metadaten-Konvertierungssystem mit Ontology Einige Informationsanbieter oder Informationszirkulationszentren sammeln verschiedene Metadaten, um Benutzern zu dienen. Die gesammelten Informationen haben verschiedene Strukturen und Ausdruckstypen von Inhalten sowie Dateitypen. Für den Informationsdienst sollten diese verschiedenen Arten von Metadaten verarbeitet und in eine einheitliche Form umgewandelt werden. Das Konvertieren von Metadaten ist mit vielen Schwierigkeiten verbunden und die Zuordnung zwischen Elementen des Metadatenschemas ist am wichtigsten und schwierigsten. Wir erstellen ein automatisches Metadaten-Konvertierungssystem mit Ontologie. Dieses Papier beschreibt die Konvertierungsmethode mit Ontologie- und Schema-Mapping-Tool im System.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22309-9_49 fbb59eaba65794de6b8299e5a264e89e;de;;;2.1.;;;Koordination von Aktionen in einem autonomen Robotersystem Roboter sind autonome Agenten, deren Aktionen während eines bestimmten Zeitraums in der realen Welt ausgeführt werden. Es gibt eine Reihe von allgemeinen Einschränkungen für solche Aktionen, zum Beispiel, dass dieselbe Aktion während überlappender Zeitintervalle nicht zwei separate Instanzen haben kann, oder Einschränkungen, aufgrund derer Zustandsvariablen die Aktion beeinflussen oder von ihr beeinflusst werden. Jeder Prozess im kognitiven System des Roboters, der die Initiierung einer Aktion anfordern soll, muss diese Einschränkungen respektieren. In diesem Artikel beschreiben wir das Design und die formale Charakterisierung eines separaten Prozesses, genannt Aktionskoordinator, der diese Einschränkungen verwaltet.;-;-;-;https://link.springer.com/chapter/10.1007/11829263_10 a96ac1d6733eb9d2bb58fb0e4fb0a779;de;;;2.1.;;;Ergebnismessungen bei der Vorhersage von Berufsunfähigkeit Chronische Schmerzen sind eine kostspielige und schwächende Erkrankung. In den Vereinigten Staaten stehen etwa 80 % der Arztbesuche im Zusammenhang mit Schmerzen (1). Mehr als 50 Millionen Amerikaner sind von Schmerzen betroffen und verursachen Gesundheitskosten und Produktivitätsverluste in Höhe von mehr als 70 Milliarden US-Dollar (2). Die Komplexität des Schmerzes erfordert die Beurteilung und Behandlung sowohl der biologischen als auch der psychosozialen Faktoren, die seine Symptome und Dysfunktionen verschlimmern und aufrechterhalten.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-28919-4_7 60b230eda986da9ba0cd2e0207abd81b;de;;;2.1.;;;Snap-Drift selbstorganisierende Karte Ein neuartiger selbstorganisierender Kartenalgorithmus (SOM) basierend auf dem Snap-Drift Neural Network (SDSOM) wird vorgeschlagen. Der modale Lernalgorithmus verwendet eine Kombination aus den Snap-Drift-Modi, Fuzzy AND (oder Min)-Lernen (Snap) und Lernvektorquantisierung (Drift). Die Leistung des Algorithmus wird an mehreren bekannten Datensätzen getestet und mit dem traditionellen Kohonen-SOM-Algorithmus verglichen. Es zeigt sich, dass der Snap-Modus das Lernen in SDSOM schneller macht als das Kohonen-SOM, und dass er zur Bildung kompakterer Karten führt. Wenn die Karten zur Klassifizierung verwendet werden, bietet SDSOM basierend auf gekennzeichneten Gewinnerknoten eine bessere Leistung als Kohonen SOM bei einer Vielzahl von Datensätzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15822-3_48 5aa8db6747c1cd5c64014e8bca353410;de;;;2.1.;;;Zur Subtypisierung von baumstrukturierten Daten: Ein polynomialer Ansatz In diesem Artikel wird die Subtypisierung von baumstrukturierten Daten diskutiert, die im Web angetroffen werden, z. XML- und HTML-Daten. Unser langfristiges Ziel ist es, ein Typsystem für Web- und/oder Semantic-Web-Abfragesprachen zu definieren, das einer statischen Typprüfung zugänglich ist. Wir schlagen einen Typformalismus vor, der durch XML-Schema motiviert ist und zwei Konzepte der Subtypisierung berücksichtigt: Inclusion Subtyping (entsprechend dem XML-Schema-Konzept der Typbeschränkung) und Extension Subtyping (motiviert durch die Typerweiterung von XML Schema). Wir stellen Algorithmen zur Überprüfung beider Arten der Subtypisierung vor. Die Algorithmen sind polynomiell, wenn an die Typdefinitionen bestimmte Bedingungen gestellt werden, die Bedingungen erscheinen natürlich und nicht zu restriktiv.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30122-6_1 a3dcd2b36080659ab440d37d590aa57d;de;;;2.1.;;;Verbindungsarten In den letzten Jahren haben sich Theorien zur qualitativen Darstellung von Raum und Zeit auf der Grundlage eines primitiven Begriffs der topologischen Verbindung verbreitet. In früheren Arbeiten [;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48384-5_20 f84e24e5dc27cf146a2fa6da61e257b2;de;;;2.1.;;;Phänotypische Variabilität in verschiedenen Stämmen von Pseudomonas syringae subsp. Savastanoi isoliert von verschiedenen Wirten Einhundertsechzig Stämme von Pseudomonas syringae subsp. savastanoi von Olea europaea, Olea europaea var. sylvestris, Nerium oleander, Fraxinus angustifolia und Retama sphaerocarpa sowie vier Typenstämme anderer Pathovare wurden untersucht, wobei 102 phänotypische Merkmale untersucht wurden, darunter biochemische Eigenschaften, Assimilation verschiedener Kohlenstoffquellen, Empfindlichkeit oder Resistenz gegenüber Antibiotika und Indolessigsäure (IAA) Produktion. Die Ergebnisse wurden mit einem Affinitätsdendrogramm über den Jaccard-Koeffizienten analysiert. Sie weisen auf einen Einfluss von Umweltfaktoren auf die Bildung der 15 erhaltenen Phenone hin, da isolierte (Knoten-)Stämme derselben Art, aber unterschiedlicher geografischer Gebiete segregiert werden. Segregation, die auch in Stämmen von verschiedenen Wirten innerhalb desselben Gebiets nachgewiesen wird, und die dem Pathogenitätstest hinzugefügt werden, hilft, diese Stämme als unterschiedliche Pathovare zu charakterisieren.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008604011154 d6a4b8bc1d53e6c6425a33bf9c7bf54e;de;;;2.1.;;;Chromosomen-C-Bandenmuster bei spanischen Acridoidea Die Karyotypen von 47 spanischen Akridold-Heuschrecken wurden mittels C-Banding in mitotischen und meiotischen Zellen analysiert. Der häufigste Ort von C-Heterochromatin tritt in zentromeren und telomeren Regionen auf, während interstitielle C-Banden sehr selten sind. Es wurde keine klare Beziehung zwischen Ähnlichkeiten in C-Banding-Mustern und taxonomischer Nähe gefunden. Es werden negativ heteropyknotische Regionen beschrieben, deren einheitliche Lage und Verteilung darauf hindeuten, dass sie als nukleoläre Organisatoren eine funktionelle Chromosomenstruktur darstellen könnten.;-;-;-;https://link.springer.com/article/10.1007/BF00563233 cc89cb5bddc26a2abd5d079065e23cc3;de;;;2.1.;;;Darstellung und Argumentation von XML mit Ontologien Als relevante Standardisierung für die Darstellung und den Austausch von Daten im Web hat sich die eXtensible Markup Language (XML) durchgesetzt. Leider deckt XML die syntaktische Ebene ab, aber es fehlt an Semantik und kann daher nicht direkt für das Semantic Web verwendet werden. Derzeit ist die Suche nach einem Weg zur Nutzung von XML-Daten für das Semantic Web eine Herausforderung. Wie wir wissen, kann die Ontologie ein gemeinsames Domänenwissen formal darstellen und eine semantische Interoperabilität ermöglichen. Deswegen,;-;-;-;https://link.springer.com/article/10.1007/s10489-013-0446-4 dfebe6f30880ca077a4b70f456f488c5;de;;;2.1.;;;Einige Komplexitätsergebnisse für Fuzzy-Beschreibungslogiken Wir präsentieren und diskutieren einige neuartige und etwas überraschende Komplexitätsergebnisse für eine grundlegende, aber signifikante Fuzzy-Beschreibungslogik (DL), die die klassische;-;-;-;https://link.springer.com/chapter/10.1007/10983652_3 6696af8c6a957c22fd1e618f72efc7fd;de;;;2.1.;;;Auswahl von Pulsar-Kandidaten mithilfe von Ensemble-Netzwerken für die FAST-Drift-Scan-Untersuchung Die Commensal Radio Astronomy Five-100-Meter Aperture Spherical Radio Telescope (FAST) Survey (CRAFTS) nutzt den neuartigen kommensalen Drift-Scan-Modus von FAST und kann Milliarden von Pulsar-Kandidatensignalen erzeugen. Die menschlichen Experten werden diese Signale wahrscheinlich nicht gründlich untersuchen, und verschiedene maschinelle Sortierverfahren werden verwendet, um die Klassifizierung der FAST-Kandidaten zu unterstützen. In dieser Studie schlagen wir ein neues Ensembleklassifikationssystem für Pulsarkandidaten vor. Dieses System bezeichnet die Weiterentwicklung des bildbasierten Klassifikationssystems (PICS) des Pulsars, das in der Pulsar-Vermessung des Arecibo-Teleskops verwendet und für die FAST-Drift-Scan-Vermessung umgeschult und angepasst wurde. In dieser Studie haben wir ein Residualnetzwerkmodell mit 15 Schichten entworfen, um die Convolutional Neural Networks (CNNs) in PICS zu ersetzen. Die Ergebnisse dieser Studie zeigen, dass das neue Modell mit einem Dual-GPU- und 24-Kern-Computer >96 % der echten Pulsare in die Top 1 % aller Kandidaten einsortieren und >1,6 Millionen Kandidaten pro Tag klassifizieren kann. Diese erhöhte Geschwindigkeit und Effizienz kann dazu beitragen, die Echtzeit- oder Quasi-Echtzeit-Verarbeitung des von CRAFTS erhaltenen Pulsar-Suchdatenstroms zu erleichtern. Darüber hinaus haben wir die in dieser Studie verwendeten gekennzeichneten FAST-Daten online veröffentlicht, die bei der Entwicklung neuer Deep-Learning-Techniken für die Durchführung von Pulsarsuchen helfen können.;-;-;-;https://link.springer.com/article/10.1007/s11433-018-9388-3 a73532a382222804b06a70eec04e3e00;de;;;2.1.;;;Eine integrierte Methode zur Identifizierung von subjektiven Sätzen in Mikroblogs basierend auf Drei-Wege-Entscheidungen und naiven Bayes Die subjektive Satzerkennung von Microblog ist die Grundlage für die weitere Forschung der öffentlichen Meinungsanalyse. Daher ist seine Erkennungsgenauigkeit für zukünftige Forschungsarbeiten entscheidend. Aufgrund der Ungenauigkeit oder Unvollständigkeit der Informationen ist die Präzision traditioneller SVM-, NB- und anderer maschineller Lernalgorithmen für die subjektive Satzerkennung von Microblogs nicht ideal. Präsentiert eine Methode, die auf der integrierten Drei-Wege-Entscheidung und Bayes'schen Algorithmen basiert, um den subjektiven Satz von Microblogs zu unterscheiden. Im Vergleich zu traditionellen Bayesschen Algorithmen zeigen experimentelle Ergebnisse, dass der vorgeschlagene integrierte Ansatz die Genauigkeit der subjektiven Satzerkennung erheblich verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11740-9_77 b64fb6e10cda43debcae0e33524d071e;de;;;2.1.;;;"Künstliches Böses und die Grundlage der Computerethik Moralisches Denken unterscheidet traditionell zwei Arten des Bösen: das moralische (ME) und das natürliche (NE). Die Standardansicht ist, dass ME das Produkt menschlicher Handlungsfähigkeit ist und somit Phänomene wie Krieg, Folter und psychologische Grausamkeit einschließt, dass NE das Produkt nichtmenschlicher Handlungsfähigkeit ist und somit Naturkatastrophen wie Erdbeben, Überschwemmungen, Krankheiten und Hungersnot einschließt, und schließlich das komplexere Fälle werden geeigneterweise als Kombination von ME und NE analysiert. Als Ergebnis der Entwicklungen bei autonomen Agenten im Cyberspace ist in letzter Zeit eine neue Klasse interessanter und wichtiger Beispiele für das hybride Böse ans Licht gekommen. In diesem Papier wird es als künstliches Böses (AE) bezeichnet und es wird argumentiert, dass es in Erwägung gezogen wird, ME und NE zu ergänzen, um eine angemessenere Taxonomie zu erstellen. Durch die Isolierung der Merkmale, die zum Erscheinen von AE geführt haben, wird der Cyberspace als eine in sich geschlossene Umgebung charakterisiert, die die wesentliche Komponente in jeder Grundlage des aufstrebenden Gebiets der Computerethik (CE) bildet. Es wird argumentiert, dass dies in gewisser Weise zu einer methodologischen Erklärung führt, warum der Cyberspace für so viele Anliegen von CE von zentraler Bedeutung ist, und es wird gezeigt, wie Vorstellungen von Gut und Böse im Cyberspace formuliert werden können. Von erheblichem Interesse ist, wie die Neigung eines Agenten, moralisch gut oder böse zu sein, auch in Abwesenheit von biologisch empfindungsfähigen Teilnehmern bestimmt werden kann und es somit künstlichen Agenten ermöglicht, nicht nur Böses (und übrigens Gutes) zu begehen, sondern umgekehrt zu ""empfangen"" oder zu ""leiden"". davon. Die verteidigte These lautet, dass der Begriff der Entropiestruktur, der das menschliche Werturteil über den Cyberspace in eine formale mathematische Definition fasst, ausreicht, um diesen Zweck zu erreichen, und dass darüber hinaus der Begriff der AE formal mit mathematischen Methoden bestimmt werden kann. Eine Konsequenz dieses Ansatzes ist, dass die Debatte darüber, ob CE als einzigartig betrachtet und daher als Makroethik entwickelt werden sollte, konstruktiv auf alternative Weise betrachtet werden kann. Es wird argumentiert, dass CE-Themen zwar nicht unumstritten einzigartig sind, aber ausreichend neu sind, um den Ansatz der Standard-Makroethik wie Utilitarismus und Deontologie nicht zu erreichen und daher die Suche nach einer robusten ethischen Theorie anzuregen, die erfolgreich mit ihnen umgehen kann. Der Name Informationsethik (IE ) wird für diese Theorie vorgeschlagen. Es wird argumentiert, dass die Einzigartigkeit von IE dadurch gerechtfertigt ist, dass es nicht biologisch voreingenommen und patientenorientiert ist: IE ist eine Umweltmakroethik, die auf dem Konzept der Datenentität statt des Lebens basiert. Daraus folgt, dass die Neuheit von CE-Themen wie AE richtig eingeschätzt werden kann, da IE eine neue Perspektive bietet (wenn auch nicht umgekehrt). Im Lichte der Diskussion in diesem Beitrag wird geschlussfolgert, dass die Computerethik einer unabhängigen Studie würdig ist, da sie ein eigenes anwendungsspezifisches Wissen erfordert und in der Lage ist, eine methodische Grundlage, die Informationsethik, zu unterstützen.";-;-;-;https://link.springer.com/article/10.1023/A%3A1011440125207 35529044f8ccb8c632c4583a55a351af;de;;;2.1.;;;Klassifikation unter Verwendung von Netzen normalisierter radialer Basisfunktionen Normalisierte Radial Basis Function Networks (NRBF) wurden 1989 gleichzeitig mit Standard-RBF-Netzen erfunden, blieben aber bis vor kurzem unbemerkt, als sich herausstellte, dass sie ein sehr interessantes Werkzeug, insbesondere für die Musterklassifikation, darstellen. NRBF-Klassifikatoren verhalten sich wie Nearest Neighbor-Klassifikatoren und haben eine ähnliche Funktionalität wie Fuzzy-Inferenzsysteme, jedoch ohne das Problem des Fluch der Dimensionalität. NRBF-Netze sind einfach zu verwenden, mit Leistungen weitgehend unempfindlich gegenüber Modellparametern und mit einem sehr schnellen Training. In diesem Beitrag wird die Funktionalität von NRBF-Netzen mit denen von Standard-RBF-Netzen verglichen. Die Klassifikationsanwendungen werden anhand von Benchmark-Problemen illustriert. Für das IRIS-Klassifizierungsproblem entspricht NRBF den Leistungen der besten veröffentlichten Techniken.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0833-7_44 2dffba8c6a849884749652045e177e2c;de;;;2.1.;;;Erstellen von zusammengesetzten Dokumenten und deren Beschreibungen Wir präsentieren eine Methode zur Beschreibung zusammengesetzter Dokumente basierend auf den Beschreibungen ihrer Komponenten. Unser Hauptziel ist es, Autoren von zusammengesetzten Dokumenten bei der Auswahl von Dokumenten und deren Beschreibungen während des Erstellungsprozesses zu unterstützen. Wir gehen davon aus, dass eine Dokumentbeschreibung ein Satz von Begriffen aus einer gegebenen Taxonomie ist, sodass keine zwei Begriffe im Satz vergleichbar sind. Wir nennen eine solche Beschreibung „reduzierte Beschreibung“ und zeigen, dass die Menge aller reduzierten Beschreibungen bei entsprechender Ordnung ein vollständiges Gitter bildet. Basierend auf diesem Gitter führen wir das Konzept der „zulässigen Beschreibung“ ein und argumentieren, dass zulässige Beschreibungen die einzigen sind, die zusammengesetzte Dokumente auf nützliche und sinnvolle Weise beschreiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08732-0_2 c2547184b163e0afda73c6015ee47f9c;de;;;2.1.;;;Aufbau der Domänenontologie des E-Business basierend auf Fuzzy-Rough-Konzeptgittern Das Ziel der Ontologie ist es, das Wissen eines verwandten Bereichs zu erlangen, zu beschreiben und auszudrücken. Das auf FRFCA basierende Verfahren der konzeptionellen Ähnlichkeit im elektronischen Handel wird durch Einführung einer trapezförmigen Fuzzy-Zahl vorgeschlagen, um die Fuzzy-Ähnlichkeit darzustellen. Das Papier bietet eine Methodik zum Aufbau von Ontologien für den Wissensaustausch und die Wiederverwendung auf der Grundlage der Fuzzy-Grobkonzept-Gittervereinigung. Ein Konzept-Ähnlichkeits-Messverfahren basierend auf einem Fuzzy-Grobkonzept-Gitter wird vorgeschlagen, um die Qualität der Empfehlung zu verbessern, wenn die Art von Benutzerinteressen fehlt. Die experimentellen Ergebnisse zeigen, dass diese Methode sehr vielversprechend ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23345-6_89 51eda4cae8b9bbb54e9a26c534b9c13c;de;;;2.1.;;;Ein Datenbankdesign und -implementierung für wissenschaftliche Daten zum MIPAS-Ballon-Spektrometer Die Atmosphärenchemie ist eine wichtige Forschungsaufgabe, stimuliert durch das „Ozonloch“ und die „Treibhauseffekte“. Um die Konzentrationen der beteiligten stratosphärischen Spurengase zu beobachten, wurde eine Familie hochauflösender Fourier-Transformations-Spektrometer (Fischer 1993) entwickelt und am Institut für Meteorologie und Klimaforschung eingesetzt. Für 1999 ist auch der Start eines satellitengestützten plattformbasierten Instruments geplant (Endemann et al. 1993). Für das ballongetragene Spektrometer (Oelhaf et al. 1995) wurde ein relationales Datenbanksystem verwendet, um eine effiziente Speicherung und Verwaltung zeitreihenorientierter Daten sowie der nachfolgend erzeugten Datenprodukte und der zugehörigen Verarbeitungsparameter zu ermöglichen. Daher wurde ein Datenbankmodell erarbeitet, das es ermöglicht, alle wissenschaftlichen Daten hinsichtlich ihrer Verarbeitung und physikalischen Eigenschaften abzurufen. Darüber hinaus kann der Datenbankzugriff durch einen Datenbrowser erfolgen, der versucht, die Lücke zwischen Konzept- und Implementierungsmodell zu schließen. Semantische Beziehungen zwischen den Daten wurden explizit gemacht, um das Wissen über die zugrunde liegenden Daten zu erhöhen. Eine automatische Generierung von SQL-Abfrageanweisungen verbirgt das (relationale) Implementierungsmodell vor dem Endbenutzer. Um eine effiziente und konsistente Datenverarbeitung zu ermöglichen, wurde auch eine grafische Benutzeroberfläche basierend auf dem Verarbeitungsmodell in Anlehnung an das relationale Datenbanksystem entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4094-6_6 57c32c679e0fa41e032bec104b1875c1;de;;;2.1.;;;Charakterisierung der chemischen Struktur mit relativer Dichte von drei verschiedenen Kohleklassen aus Indien Eine vergleichende Untersuchung von Kohlen unterschiedlichen Ranges mit unterschiedlicher chemischer Struktur und Petrographie wäre wünschenswert, um vertiefte Kenntnisse über indische Kohlen zu erlangen. Hier berichten wir über strukturelle und petrographische Analysen von drei verschiedenen Kohlen: Kohle A (Kokskohle), Kohle B (Halbkokskohle) und Kohle C (Nichtkokskohle) indischen Ursprungs. Die Vitrinitreflexionen der drei Kohlen wurden mit 1,26, 1,38 und 0,46 für Kohle A, Kohle B bzw. Kohle C gemessen. Größenfraktionierung (− 3.0 + 1.0 mm, − 1.0 + 0.5 mm und − 0.5 mm) gefolgt von Dichtegradiententrennung (1.2, 1.3, 1.4, 1.6, 1.8 g/cm .);-;-;-;https://link.springer.com/article/10.1007/s11053-020-09629-z 5ae0ae6efbb2998e31cedef9ce100dd7;de;;;2.1.;;;Belastungsharninkontinenz als Folge eines intrinsischen Sphinkterusmangels Die chirurgische Behandlung der Stressharninkontinenz (SUI) hat sich in den letzten 20 Jahren weiterentwickelt. In der Literatur wurden zahlreiche Verfahren eingeführt und Modifikationen etablierter Verfahren beschrieben. Auch unser Verständnis des weiblichen Kontinenzmechanismus hat sich weiterentwickelt. Derzeit wird die weibliche SUI auf eine urethrale Hypermobilität, einen intrinsischen Sphinktermangel (ISD) oder eine Kombination aus beiden Erkrankungen zurückgeführt. Dieses Kapitel konzentriert sich auf die chirurgische Behandlung von SUI aufgrund von ISD.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84628-346-8_9 29c680aca1b1c6cd7f96640e5bb12da1;de;;;2.1.;;;Effiziente astronomische Datenklassifizierung auf großräumigen verteilten Systemen Die Klassifizierung verschiedener Arten von Weltraumobjekten spielt in vielen Bereichen der Astronomie eine wichtige Rolle. Heutzutage kann der Klassifizierungsprozess möglicherweise eine riesige Menge an Daten beinhalten. Die Verarbeitung kann lange dauern und viele Ressourcen für die Berechnung und Speicherung erfordern. Darüber hinaus kann es auch viel Aufwand erfordern, einen qualifizierten Experten auszubilden, der sowohl über Kenntnisse im Bereich der Astronomie als auch über die Fähigkeit zur Manipulation der Daten verfügen muss. Diese Forschung soll ein effizientes, skalierbares Klassifikationssystem für die Astronomieforschung bereitstellen. Wir implementieren ein dynamisches Klassifizierungs-Framework und -System mit Hilfe von Support-Vektor-Maschinen (SVMs). Das vorgeschlagene System basiert auf einer groß angelegten, verteilten Speicherumgebung, auf der Wissenschaftler ihre Analyseprozesse abstrakter gestalten können, anstelle eines umständlichen und zeitaufwändigen Ansatzes, bei dem aus den riesigen Datenmengen zusammenhängende Teilmengen von Daten gesucht und gesammelt werden einstellen. Die experimentellen Ergebnisse bestätigen, dass unser System skalierbar und effizient ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13067-0_45 39916500cf39876bdcfb1da2fc89ddce;de;;;2.1.;;;Vermittlung mit WSMO, WSML und WSMX Dieses Kapitel stellt die DERI-Lösung zur Lösung des SWS Challenge-Mediationsszenarios vor. Wir demonstrieren unseren Ansatz, der auf einem etablierten Semantic Web Service Framework aufbaut, um die Interoperabilität bei der Ausführung heterogener Dienste zu erleichtern, die sowohl den RosettaNet-Standard als auch proprietäre Informationsmodelle unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-72496-6_3 639ee4bccca3c644c42c03b103676b2d;de;;;2.1.;;;Wie man grundlegende städtische Muster in geografischen Informationssystemen beschreibt Räumliche Muster spielen eine wichtige Rolle bei der räumlichen Datenanalyse, die von Geographischen Informationssystemen durchgeführt wird. Dieser Beitrag präsentiert die Analyse der urbanen Musterbeschreibung in Form von UML-Klassendiagrammen, die die Aspekte der Hierarchie und Generalisierung von Mustern und Metamustern abdeckt. Darüber hinaus wird das Datenmodell zur Aufbewahrung der geometrischen und topografischen 3D-Daten des Stadtmusters überprüft. Anschließend präsentiert der Artikel einen Überblick über die Methoden und Lösungen der Raumanalyse, wobei der Schwerpunkt auf den auf der Raumsyntax basierenden Methoden liegt, die in der weiteren Erforschung und Computerisierung der Methodik von Stadtmustern für Geographische Informationssysteme verwendet werden könnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99972-2_12 bb5b7aad9466b83167069622123cc787;de;;;2.1.;;;Rekonstruktion der Bauchwand Narbenhernien nach Bauchoperationen sind eine häufige Komplikation mit multifaktorieller Ätiologie und wurden definiert als „jede Bauchwandlücke mit oder ohne Vorwölbung im Bereich einer postoperativen Narbe, die durch klinische Untersuchung oder Bildgebung wahrnehmbar oder tastbar ist“. Diese breite Definition umfasst eine Reihe von Herniendefektgrößen, Patienten und klinischen Situationen. Folglich ist die Unterscheidung zwischen Narbenhernienreparatur und Bauchdeckenrekonstruktion vage. Dieses Kapitel behandelt das perioperative Management von Patienten mit Narbenhernien, operative Strategien zur Hernienreparatur und die Wahl des Netzes. Auch Hilfsmittel für die Gewebeexpansion und das Management von überschüssigem Fettgewebe in den komplexesten Fällen werden besprochen. Keine einzige Hernien-Reparaturtechnik ist für alle Patienten geeignet, und es werden maßgeschneiderte Ansätze befürwortet. Die präoperative Patientenoptimierung in Bezug auf Diabeteskontrolle, Raucherentwöhnung und Adipositas-Management sind mit signifikanten Verbesserungen der Rezidiv- und Komplikationsraten verbunden und sollten als wichtigste Determinanten für ein gutes Ergebnis angesehen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-53210-2_38 720592615035a6c47a96825c2ce6bc0e;de;;;2.1.;;;Funktionsauswahl für Blooms Fragenklassifikation in thailändischer Sprache Blooms kognitive Domäne der Taxonomie ist eine Liste von Wörtern mit Wissen und der Entwicklung intellektueller Fähigkeiten. Es wird häufig in einer Bewertung verwendet. Derzeit identifiziert der Lehrer in thailändischer Sprache Blooms kognitives Niveau der Taxonomie manuell, was eine mühsame und zeitaufwändige Aufgabe ist. Diese Studie präsentiert die automatische Klassifikation von Fragen in natürlicher Sprache in Thai, wobei die Merkmalsauswahl im Mittelpunkt steht. Mehrere frühere Arbeiten wurden untersucht, um Blooms kognitive Domäne der Taxonomie zu erfüllen, diese Arbeiten können jedoch aufgrund der Sprachcharakteristik nicht auf die thailändische Sprache angewendet werden. Diese Studie zeigt, dass Verb, Adverb, Adjektiv, Konjunktion und Fragezeichen als Merkmale in der thailändischen Prüfungsklassifikation ausgewählt werden sollten. Der Datensatz wurde von einer Reihe von Websites zu Blooms kognitiver Domänenliteratur gesammelt. Jede Frage wird durch Bereinigung von Daten, Wortsegmentierung, Wortart-Tagging und Merkmalsauswahl verarbeitet. Nach dieser ausgewählten Funktion werden 70 % des Datensatzes für das Einlernen in ein Modell verwendet. Vier verschiedene Klassifikatormodelle, nämlich Naive Bayes, Decision Tree, Multilayer Perceptron und Support Vector Machine, werden verwendet, um die Auswirkungen der vorgeschlagenen Merkmalsauswahltechnik zu zeigen. Die Ergebnisse der Testdaten (30% des Datensatzes) zeigen, dass die vorgeschlagene Technik mit Support-Vektor-Maschine den guten Wert von Genauigkeit, Präzision und Wiedererkennungswert von 71,2%, 72,2% bzw. 71,2% liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-01174-1_12 8ab0e46d0f33c31eeef10fea6b9e89ef;de;;;2.1.;;;Korpusannotation zum Abbau biomedizinischer Ereignisse aus der Literatur Advanced Text Mining (TM) wie die semantische Anreicherung von Papieren, Ereignis- oder Beziehungsextraktion und intelligente Fragenbeantwortung haben im biomedizinischen Bereich zunehmend Aufmerksamkeit erregt. Für das Gelingen solcher Versuche ist eine Textannotation aus biologischer Sicht unabdingbar. Aufgrund der Komplexität der Aufgabe wurde die semantische Annotation jedoch, abgesehen von der relativ einfachen Termannotation, nie in großem Umfang ausprobiert.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-9-10 53b470fec556ee76243703697e931a95;de;;;2.1.;;;Acinar-Inselzell-Interaktionen: Diabetes mellitus bei chronischer Pankreatitis Die Marseille-Rom-Klassifikation von 1988 definiert chronische Pankreatitis als „eine anhaltende entzündliche Erkrankung der Bauchspeicheldrüse, die durch die irreversible Zerstörung des exokrinen Parenchyms und der Fibrose und zumindest in späteren Stadien der Zerstörung des endokrinen Parenchyms gekennzeichnet ist“.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-85233-904-3_20 3556578646465a88d19e8498fb5be167;de;;;2.1.;;;Ohrabdrücke bei forensischen Untersuchungen Dieser Artikel gibt einen Überblick über die theoretischen und praktischen Fragen rund um die Verwendung von Ohrabdrücken in der forensischen Forschung. Im ersten Abschnitt geben wir einen begrenzten Überblick über die Geschichte von Ohrabdrücken bei forensischen Untersuchungen und ihrer Verwendung als Beweismittel vor Gericht. Kritik am Einsatz von Ohrabdrücken zur Individualisierung wird aufgegriffen und grundlegende Fragen, die Aufmerksamkeit erfordern, zusammengefasst. Im zweiten Abschnitt fassen wir die Ergebnisse verschiedener Studien zusammen, die wir zur Ohrabdruckvariation durchgeführt haben. Mögliche Ursachen für intraindividuelle Variationen im Erscheinungsbild des Ohrabdrucks sind beispielsweise Variationen in der Art und Weise, wie die Abdrücke angehoben werden, Variationen in der Zeit, die der Spender mit dem Hören verbringt, und Variationen in der Kraft, die während des Hörens aufgebracht wird. In Bezug auf letzteres haben wir verschiedene Faktoren untersucht, die die aufgebrachte Kraft beeinflussen könnten. Wir haben auch Veränderungen in der Morphologie lebender Ohren im Erwachsenenalter untersucht.;-;-;-;https://link.springer.com/article/10.1385/FSMP%3A1%3A4%3A247 c56e54b0116eb8f090b99a398fa2e9f8;de;;;2.1.;;;Schädel, Gehirn und zugehörige Strukturen: Teil II Der Patient mit Kopfschmerzen Kopfschmerzen werden als Symptom von Schmerzen im gesamten Kopf- oder Nackenbereich definiert. Wie Schwindel gehören sie zu den häufigsten neurologischen Problemen, die bei Hausärzten und Neurologen auftreten. Sie können auch die Notaufnahme aufsuchen. Für viele Patienten können Kopfschmerzen schmerzhaft und schwächend sein und sind eine wichtige Ursache für Abwesenheiten von der Arbeit oder der Schule. Es ist wichtig zu wissen, dass Kopfschmerzen nur ein Symptom und daher keine Diagnose sind. Schmerzen können durch eine Vielzahl unterschiedlicher Erkrankungen entstehen, die Kopf, Hals, Augen, Gesicht und darüber hinaus betreffen. Eine unbehandelte hypertensive Krise, eine systemische Erkrankung, kann zu starken Schmerzen führen. Das Gehirn selbst ist nicht schmerzempfindlich, da ihm Schmerzrezeptoren fehlen. Das Schmerzempfinden wird stattdessen durch die schmerzempfindlichen Strukturen um das Gehirn herum verursacht. Dazu gehören das Periost des Schädels, die Hirnhäute, Muskeln, Nerven, Arterien und Venen, Unterhautgewebe, Augen, Ohren, Nebenhöhlen und Schleimhäute. Jede dieser Strukturen kann durch eine Vielzahl von Pathologien gereizt, erkrankt oder deformiert werden, was zu einer Vielzahl von Symptomen und zugrunde liegenden Diagnosen führt. Schmerzen können nicht nur als Folge einer lokalen Pathologie entstehen, sondern auch überwiesen werden. Dies kann die Diagnose von Kopfschmerzen erschweren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-53099-0_7 984399f819b41c494b34b8e85b5acd5d;de;;;2.1.;;;Integration des musterbasierten Debugging-Ansatzes in RaDON RaDON ist ein repräsentatives System zum Debuggen und Reparieren sowohl einzelner Ontologien als auch Ontologie-Mappings. Die Effizienz seiner Debugging-Algorithmen ist jedoch immer noch ein Problem. In diesem Papier implementieren wir einen effizienten Debugging-Algorithmus basierend auf Mustern in RaDON. Als Ergebnis konnte RaDON diese minimalen Unerfüllbarkeitserhaltenden Teilmengen (MUPS) mit den von den Benutzern festgelegten Mustern effizient entdecken. Außerdem könnte RaDON alle MUPS entdecken, indem die zuvor gefundenen MUPS wiederverwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54025-7_23 92f0b716e9180f2ae7bbc78a4702f12f;de;;;2.1.;;;Mausmodellierung der klassischen Lissenzephalie Die klassische Lissenzephalie ist eine schwere neuronale Migrationsstörung des Menschen, die durch eine glatte Gehirnoberfläche und einen Mangel an Gyri gekennzeichnet ist. Die isolierte Lissenzephalie-Sequenz (ILS, OMIM 601545) und das Miller-Dieker-Syndrom (MDS, OMIM 247200) sind menschliche Fehlbildungssyndrome, die durch eine klassische Lissenzephalie gekennzeichnet sind. MDS und einige Fälle von ILS werden durch Haploinsuffizienz auf Chromosom 17p13.3 verursacht. Jüngste Beweise deuten darauf hin, dass Mutationen oder Deletionen des;-;-;-;https://link.springer.com/article/10.1007/s100480050056 0678310589b815a1c77a6f03108b606d;de;;;2.1.;;;Genselektion bei Klassifikationsproblemen durch Projektionen auf einen latenten Raum Die Analyse von Genexpressionsdaten beinhaltet die Beobachtung einer sehr großen Anzahl von Variablen (Genen) auf wenigen Einheiten (Geweben). In einem solchen Kontext kann der Rückgriff auf konventionelle Klassifikationsmethoden sowohl aus analytischen als auch aus interpretativen Gründen schwierig sein. In dieser Arbeit wird ein Genselektionsverfahren für Klassifikationsprobleme behandelt. Die Dimensionsreduktion basiert auf den Projektionen von Genen entlang geeigneter Richtungen, die durch unabhängige Faktorenanalyse (IFA) erhalten wurden. Die Leistungsfähigkeit des vorgeschlagenen Verfahrens wird im Zusammenhang mit überwachten und unüberwachten Klassifikationsproblemen für verschiedene reale Datensätze bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-31314-1_21 7d81c4be63897b418bf97d3342e306c2;de;;;2.1.;;;Empfehlungen für die spirituelle Betreuung von Krebspatienten: ein Leitfaden für die klinische Praxis für Onkologie-Krankenschwestern im Iran Trotz der Notwendigkeit, spirituelle Betreuungspraktiken für Krebspatienten umzusetzen, gibt es diesbezüglich keinen klaren Prozess in Palliativversorgungsprogrammen des Gesundheitssystems der Länder. Die vorliegende Studie wurde mit dem Ziel konzipiert, eine klinische Praxisleitlinie zur spirituellen Betreuung von Krebspatienten für onkologische Pflegekräfte im aktuellen Kontext zu entwickeln.;-;-;-;https://link.springer.com/article/10.1007/s00520-020-05390-4 3ff133b1f1f20a103c6dd606b7545007;de;;;2.1.;;;Mehrdimensionale versus eindimensionale Modelle für Fähigkeitstests In den letzten Jahren ist der Bedarf an einer objektiven Methode zur Bewertung der Schülerleistungen aufgrund der zunehmenden Forderung nach Bewertung von Tests, die am Ende eines Lehrprozesses und während der Beratungsphasen durchgeführt werden, rapide gestiegen. Die Leistungsbewertung kann durch den Ansatz der Item-Response-Theorie (IRT) erreicht werden. In dieser Arbeit vergleichen wir die Leistung eines IRT-Modells, das zuerst auf einem mehrdimensionalen Fähigkeitsraum und dann auf einem eindimensionalen definiert wurde. Ziel des Vergleichs ist es, die in beiden Situationen durch eine Simulationsstudie erzielten Ergebnisse hinsichtlich der Schülerklassifizierung anhand von Leistungsschätzungen zu bewerten. Der Vergleich erfolgt unter Verwendung des Zwei-Parameter-Modells, das im allgemeineren Rahmen der Generalized Linear Latent Variable Models (GLLVM) definiert ist, da es die Einbeziehung von mehr als einer Fähigkeit (latenten Variablen) ermöglicht. Die Simulation zeigt, dass die Bedeutung der Dimensionalität des Fähigkeitsfeldes zunimmt, wenn die Anzahl der Gegenstände, die sich auf mehr als eine Fähigkeit beziehen, zunimmt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-35978-8_38 e50ca23b6824f7664f729238246aaac1;de;;;2.1.;;;Bayessche neuronale Netze mit variabler Architektur: Modellauswahl basierend auf EMC Diese Arbeit befasst sich mit dem Problem der Auswahl geeigneter Architekturen für Bayesian Neural Networks (BNN). Insbesondere schlägt es ein variables Architekturmodell vor, bei dem die Anzahl der versteckten Einheiten unter Verwendung einer Variante des von Liang und Wong (2001) entwickelten realcodierten Evolutionary Monte Carlo-Algorithmus für die Inferenz und Vorhersage in Bayesian Neural Networks mit fester Architektur ausgewählt wird.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-35978-8_9 a98f918b6f4fe2b412b0690a898e86bb;de;;;2.1.;;;Klassifizieren von Cinnamomums mit groben Setklassifizierern basierend auf Intervall-Diskretisierung Die Klassifizierung, also die Zuordnung von Objekten zu einer von mehreren vordefinierten Kategorien, ist ein weit verbreitetes Problem, das viele verschiedene Anwendungen umfasst. Der Entscheidungsbaum-Klassifizierer, eine einfache, aber weit verbreitete Klassifikationstechnik, verwendet Trainingsdaten, um Entscheidungsregeln zu liefern, außerdem kann er Schwellenwerte erstellen und dann die Liste kontinuierlicher Attribute in diskrete Intervalle aufteilen, um kontinuierliche Attribute zu behandeln (Quinlan in Journal of Artificial Intelligence Forschung 4:77–90, 1996). Grobe Mengenlehre (Pawlak in International Journal of Computer and Information Sciences 11:341–356, 1982, International Journal of Man-Machine Studies 20:469–483, 1984, Grobe Mengen: theoretische Aspekte der Argumentation über Daten. 1991) wurde auf eine Vielzahl von Entscheidungsanalyseproblemen zur Extraktion von Regeln aus Datenbanken angewendet. Dieses Papier schlägt einen hybriden Ansatz vor, der die Kombination von Entscheidungsbaum und Grobsatzklassifikator nutzt und auf die Pflanzenklassifizierung anwendet. Der vorgestellte Ansatz beginnt mit dem Entscheidungsbaum-Klassifikator (C4.5) als Vorverarbeitungstechnik, um anschließend eine Intervalldiskretisierung durchzuführen, und verwendet die Grobsatzmethode zum Extrahieren von Regeln. Der vorgeschlagene Ansatz zielt darauf ab, Klassifikationsregeln durch die Analyse von Lamellenattributen (Blattstiel, Blattbreite, Blattlänge, Verhältnis Länge/Breite) von;-;-;-;https://link.springer.com/article/10.1007/s00606-009-0161-0 33f22bdf1f504055c862211442e11c50;de;;;2.1.;;;Semantische Beschreibung und Erkennung für Travel Web Services Die Erkennung von semantischen Webdiensten zielt darauf ab, dem Dienstanforderer die am besten passenden beworbenen Dienste zurückzugeben. Ontology Web Language for Service (OWL-S) und Domänenontologie werden beide verwendet, um die Semantik von Webservices zu beschreiben. Die Details der semantischen Beschreibung von Webservices werden vorgestellt und der darauf basierende Matchalgorithmus analysiert. Fallstudien und Anwendungen in der Reise-Community zeigen die Wirksamkeit unseres Algorithmus bei der Ermittlung von Dienstleistungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34240-0_41 5c69c9baad3980ddbbc4108cf0f30386;de;;;2.1.;;;Prozedurale Wissensextraktion in MEDLINE-Abstracts Text Mining ist eine beliebte Methode zum Aufbau von Technology Intelligence, die Unternehmen oder Organisationen hilft, bessere Entscheidungen zu treffen, indem sie Wissen über die neuesten Technologien aus dem Internet oder innerhalb von Unternehmen bereitstellt. Tatsächlich sind die Objekte oder Ereignisse (sog. deklaratives Wissen) das Zielwissen, das Textminer im Allgemeinen erfassen wollen. Wir schlagen jedoch vor, wie man prozedurales Wissen anstelle von deklarativem Wissen mithilfe von maschinellen Lernmethoden mit tiefen Sprachverarbeitungsfunktionen extrahiert und modelliert. Wir zeigen die Darstellung von prozeduralem Wissen in MEDLINE-Abstracts und bieten Experimente, die recht vielversprechend sind, da sie 82 % bzw. 63 % der Leistung von Zweck/Lösungen (zwei Komponenten des prozeduralen Wissensmodells) Extraktion und Einheitsprozess (Grundeinheit von Zweck/Lösungen) zeigen ) identifiziert, obwohl wir bei der Bewertung der Leistung strenge Richtlinien angewendet haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23620-4_36 14591d6840c6cb11aa9447fef1f99f69;de;;;2.1.;;;Subraumdimensionsauswahl und gemittelte Lernsubraummethode in handschriftlicher Ziffernklassifikation Wir präsentieren jüngste Verbesserungen bei der Verwendung von Unterraum-Klassifikatoren zur Erkennung handgeschriebener Ziffern. Sowohl nicht-trainierbare CLAFIC- als auch trainierbare ALSM-Methoden werden mit vier Modellen für die anfängliche Auswahl von Unterraumdimensionen und deren weitere fehlergetriebene Verfeinerung verwendet. Die Ergebnisse zeigen, dass diese Ergänzungen des Unterraumklassifikationsschemas den Klassifikationsfehler merklich reduzieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-61510-5_41 e20f10288bac77616892fd3817983c64;de;;;2.1.;;;Detektion zeitlicher Veränderungen der räumlichen Verteilung von Krebsraten mittels lokaler Moran’s In diesem Beitrag wird die erste Anwendung räumlich korrelierter neutraler Modelle zur Erkennung von Veränderungen der Sterblichkeitsraten über Raum und Zeit unter Verwendung der lokalen Moran-Werte vorgestellt;-;-;-;https://link.springer.com/article/10.1007/s10109-005-0154-7 e08283c730f081d572653bf261481a1e;de;;;2.1.;;;Entwicklung von Ontologien wissenschaftlicher Fachgebiete unter Verwendung von Ontologie-Entwurfsmustern Da die Entwicklung von Ontologien von Fachgebieten ein ziemlich komplexer und zeitaufwändiger Prozess ist, wurden verschiedene Methoden und Ansätze vorgeschlagen, um dies zu vereinfachen und zu erleichtern. In den letzten Jahren hat sich der auf der Verwendung von Ontologie-Entwurfsmustern basierende Ansatz intensiv weiterentwickelt. Der Beitrag diskutiert die Anwendung von Ontologie-Designmustern bei der Entwicklung von Ontologien wissenschaftlicher Fachgebiete. Solche Muster sollen die Lösungen typischer Probleme beschreiben, die bei der Ontologieentwicklung auftreten. Sie werden erstellt, um den Prozess der Erstellung von Ontologien zu erleichtern und den Entwicklern zu helfen, einige sich häufig wiederholende Fehler bei der Ontologie-Modellierung zu vermeiden. Der Beitrag stellt die Ontologie-Entwurfsmuster vor, die sich aus der Lösung der Probleme ergeben, die den Autoren bei der Entwicklung von Ontologien für wissenschaftliche Fachgebiete wie Archäologie, Computerlinguistik, Systemstudien in der Energietechnik, aktive Seismologie usw.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-96553-6_11 404bd8ede21fd22c48e4d63c2b3bb9f1;de;;;2.1.;;;Ein Modell für Ripple-Effekte der Ontologie-Evolution basierend auf Behauptungen und Ontologie-Reverse Engineering Die Ontologie durchläuft im Kontext des Engineerings sukzessive Evolutionsphasen. Die Berücksichtigung sukzessiver Änderungswirkungen ist von besonderer Bedeutung, denn die geringste Änderung, die ein Ungleichgewicht der schlecht berücksichtigten Ontologie verursacht, kann eine Dysfunktion der gesamten davon abhängigen Artefakte beinhalten. In diesem Artikel konzentrieren wir uns auf einen Ansatz, der es ermöglicht, Ontologien, Modifikationsauswirkungen und Änderungskontrollen durch die Erkennung von Auswirkungsausbreitungspfaden basierend auf einer Reihe von Behauptungen und Reverse Engineering gemäß einem lexikalischen Ontologiemodell zur Kontrolle von Ripple-Effekten zu entdecken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24731-6_15 b12339ca26b7f9c546bff7431379a065;de;;;2.1.;;;Farbbildsegmentierung von Fischen mit komplexem Hintergrund im Wasser Die Farbbildsegmentierung von Fischen mit komplexem Hintergrund im Wasser gilt als große Herausforderung. In diesem Artikel werden fünf Segmentierungsmethoden für Fische diskutiert, nämlich der Grabcut-Algorithmus, die Otsu-Schwellenwertmethode, die Kantenerkennungstechnik, die Mean-Shift-Methode und der Region-Growing-Algorithmus. Die meisten sind jedoch manuelle Segmentierungsmethoden oder erfordern einen weißen oder einheitlichen Hintergrund. Um die Segmentierungsmethoden zu evaluieren, wurden sie mit einem neuen Datensatz getestet, der etwa 270 Fischarten aus natürlichen Szenen enthält. Die Ergebnisse zeigten, dass der Grabcut-Algorithmus im Vergleich zu anderen Methoden sehr gute Ergebnisse erzielt hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-74690-6_62 161352bb136c7a6325ffe8a88e46131e;de;;;2.1.;;;Analyse von Brust-Thermogrammen basierend auf statistischen Bildmerkmalen und hybrider Fuzzy-Klassifizierung Brustkrebs ist mit etwa 30 % aller Fälle die am häufigsten diagnostizierte Krebsart bei Frauen. Für die Erkennung von Brustkrebs hat sich die medizinische Thermographie als gut geeignet erwiesen, insbesondere wenn sich der Tumor im Frühstadium oder in dichtem Gewebe befindet. In dieser Arbeit führen wir Brustkrebsanalysen basierend auf Thermografie durch. Wir verwenden eine Reihe statistischer Merkmale, die aus den Thermogrammen extrahiert wurden und die bilaterale Unterschiede zwischen linken und rechten Brustbereichen beschreiben. Diese Merkmale bilden dann die Grundlage eines hybriden, auf Fuzzy-Regeln basierenden Klassifizierungssystems zur Diagnose. Die Regelbasis des Klassifikators wird durch die Anwendung eines genetischen Algorithmus optimiert, der einen kleinen Regelsatz bei hoher Klassifikationsleistung sicherstellt. Experimentelle Ergebnisse an einem großen Datensatz von fast 150 Fällen bestätigen die Wirksamkeit unseres Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89639-5_72 1cfe621496e19b8548dbf1d928d86b88;de;;;2.1.;;;Der kombinierte Einsatz von Web Ontology Language (OWL) und Abstract State Machines (ASM) zur Definition einer Spezifikationssprache für Geschäftsprozesse Die Domäne des fachorientierten Geschäftsprozessmanagements (S-BPM) ist aufgrund ihrer fachorientierten Ausrichtung etwas herausragend. Gleichzeitig ist es aber auch eine klassische BPM-Domäne, die sich mit typischen Aspekten wie der Erstellung und dem Austausch von schematischen Prozessmodellen, der Erhebung von Domänenwissen und der Implementierung von Prozessen (Modellen) in Organisationen und IT-Systeme beschäftigt. Dennoch war und ist das Konzept der Abstract State Machine (ASM), ein formales und abstraktes Spezifikationsmittel für Algorithmen, fundamental und ein wichtiger Eckpfeiler für die S-BPM-Community. Die ersten formalen Spezifikationen für S-BPM wurden von Egon Börger mit ASM-Mitteln entwickelt – nämlich eine Spezifikation für eine Interpreter-Engine für die subjektorientierte Modellierungssprache PASS, das Parallel Activity Specification Schema. Für eine intuitive und umfassende Nutzung kann ASM jedoch um die Definition der passiven Aspekte von PASS, nämlich der (Daten-)Struktur von Prozessmodellen und in den Prozessen auftretenden Datenobjekten, angereichert werden. Hier ist es sinnvoll, ASM-Beschreibungsmittel durch Konzepte zu ergänzen, die für diese Aufgaben besser geeignet sind. Diese Arbeit analysiert, wie die S-BPM-Forschungsgemeinschaft ASM mit der Web Ontology Language (OWL) kombiniert hat, um eine präzise und gleichzeitig verständliche Systemspezifikation zur Ausführung formaler, subjektorientierter Prozessmodelle zu generieren. Darüber hinaus wird argumentiert, warum sich diese Kombination lohnt, um die Schwächen sowohl generischer als auch technologieunabhängiger Spezifikationsansätze zu überwinden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-76020-5_16 f50c1de314a47aafa35db0692fe9b7c5;de;;;2.1.;;;Ontologiemodellbasierte statische Analyse von Sicherheitslücken Statische Analysetechnologien und -tools sind bei der Erkennung von Softwarefehlern und -schwachstellen weit verbreitet. Herkömmliche Ansätze haben jedoch aufgrund ihrer Methodik ihre Grenzen hinsichtlich Erweiterbarkeit und Wiederverwendbarkeit und sind ungeeignet, um subtile Schwachstellen in komplexen und nicht nachvollziehbaren Kontexten zu beschreiben. Dieses Papier schlägt einen Ansatz der statischen Analyse vor, der auf einem Ontologiemodell basiert, das durch die Program-Slicing-Technologie zum Erkennen von Software-Schwachstellen erweitert wird. Wir verwenden Ontology Web Language (OWL), um den Quellcode zu modellieren, und Semantic Web Rule Language (SWRL), um die Fehler- und Schwachstellenmuster zu beschreiben. Programm-Slicing-Kriterien können automatisch aus den SWRL-Regeln extrahiert und zum Slicen des Quellcodes übernommen werden. Ein Prototyp eines Tools zur Erkennung von Sicherheitslücken (SVD) wird entwickelt, um die Gültigkeit des vorgeschlagenen Ansatzes zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25243-3_27 ba7dc9508b7b3a8ac65c807d5489e97c;de;;;2.1.;;;SNAPVis und SPANBis: Ontologien zur Erkennung variabler Vista Spatial Environments Dieses Papier gibt die SNAP- und SPAN-Ontologien in Bezug auf das Erkennen von räumlichen Umgebungen mit variabler Aussicht, nämlich SNAPVis und SPANVis. Es schlägt vor, dass das Erkennen räumlicher Umgebungen ein Beurteilungsprozess ist, ob die wahrgenommene Umgebung mit der erinnerten kompatibel ist. Ihre Kompatibilität basiert sowohl auf ihren räumlichen Veränderungen als auch auf dem gesunden Menschenverstand über die Stabilität von Objekten. Das Erkennungsergebnis wird dadurch bestimmt, ob solche Änderungen auf mögliche Bewegungen verwandter Objekte zurückzuführen sind oder nicht. Dieses Papier stellt sechs SNAPVis-Ontologien vor: Fiat-Grenze, Nahbereich, Fiat-Teile (die drei sind Fiat-Regionen), klassische topologische Beziehungen, qualitative Orientierungen und qualitative Distanzen (die drei sind räumliche Beziehungen) und eine SPANVis-Ontologie: das Commonsense-Wissen der Stabilität von räumlichen Objekten. Der Beitrag stellt kurz eine kognitive Landkarte der räumlichen Umgebungen und des Erkennungsprozesses vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-32255-9_20 7f676c51a7b4b9f62e150bf37724c1a4;de;;;2.1.;;;BAN oder nicht BAN: Bayessche Aufmerksamkeitsnetzwerke für eine zuverlässige Erkennung von Hassrede Hate Speech ist ein wichtiges Problem bei der Verwaltung von nutzergenerierten Inhalten. Um anstößige Inhalte zu entfernen oder sich schlecht benehmende Nutzer zu verbieten, benötigen Content-Moderatoren zuverlässige Hassreden-Detektoren. In letzter Zeit haben tiefe neuronale Netze, die auf der Transformatorarchitektur basieren, wie das (mehrsprachige) BERT-Modell, bei vielen Klassifikationsaufgaben natürlicher Sprache, einschließlich der Erkennung von Hassrede, eine überlegene Leistung erzielt. Bisher konnten diese Methoden ihren Output in Bezug auf die Zuverlässigkeit nicht quantifizieren. Wir schlagen eine Bayessche Methode vor, die Monte-Carlo-Dropout innerhalb der Aufmerksamkeitsschichten der Transformatormodelle verwendet, um gut kalibrierte Zuverlässigkeitsschätzungen bereitzustellen. Wir bewerten und visualisieren die Ergebnisse des vorgeschlagenen Ansatzes zu Problemen bei der Erkennung von Hassrede in mehreren Sprachen. Darüber hinaus testen wir, ob affektive Dimensionen die vom BERT-Modell extrahierten Informationen bei der Klassifikation von Hassrede verbessern können. Unsere Experimente zeigen, dass der Monte-Carlo-Ausfall einen praktikablen Mechanismus für die Zuverlässigkeitsschätzung in Transformatorennetzen darstellt. Wird innerhalb des BERT-Modells verwendet, bietet es eine Klassifizierungsleistung nach dem neuesten Stand der Technik und kann weniger vertrauenswürdige Vorhersagen erkennen.;-;-;-;https://link.springer.com/article/10.1007/s12559-021-09826-9 61e000121b6e382eba4c932502c12388;de;;;2.1.;;;Ein Programmiermodell für das Semantic Web In diesem Jahr feiert das Konzept des „Semantic Web“ sein zehnjähriges Bestehen, da es von den prominenten Forschern Tim Berners-Lee, James Hendler und Ora Lassila geprägt wurde. Bis heute gibt es viele Technologien zu beschreiben, in a;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34010-9_20 e386d0fc60a6252add1ccce21b288b3e;de;;;2.1.;;;Messung der nicht-biologischen Vielfalt anhand häufig verwendeter Metriken: Stärken, Schwächen und Vorbehalte für ihre Anwendung im Strandabfallmanagement Aufgrund des weltweit zunehmenden anthropogenen Drucks und zur Förderung angemessener Umweltschutzstrategien wird die Quantifizierung der nichtbiologischen Vielfalt, beispielsweise durch die Berücksichtigung von Meeres- und Strandmüll, immer sinnvoller. Informationen über Strandmüll in Bezug auf Reichtum und Vielfalt können einen konsistenten Einfluss auf die Bewertung seines Drucks und seiner Auswirkungen auf Küstenökosysteme haben. Hervorgehoben werden Stärken, Schwächen und Vorbehalte in Bezug auf die Verwendung von uni- und bivariaten Diversitätsmetriken, die auf eine Klasse von künstlichen nichtbiologischen Objekten angewendet werden, die sich regelmäßig an den Stränden ansammeln. Zwei Fallstudien zeigen, dass die Anwendung von Diversitätsmetriken auf nichtbiologische Objekte unterschiedliche Auswirkungen haben kann. In Ermangelung einer universellen und standardisierten nicht-biologischen Taxonomie ist es wichtig, beim Vergleich von Werten aus nicht lebenden Populationen vorsichtig zu sein, insbesondere wenn verschiedene Standorte, Zeiten oder Betreiber berücksichtigt werden. Darüber hinaus liefern unterschiedliche Indizes unterschiedliche Informationen. Daher sollten Nutzer der Anwendung von Diversity-Metriken besondere Aufmerksamkeit schenken, spezifische Forschungsfragen behandeln und die automatische Berechnung redundanter und „magischer“ Indizes vermeiden.;-;-;-;https://link.springer.com/article/10.1007/s11852-017-0505-9 18ba4e75d6013359320e0844899c710c;de;;;2.1.;;;Zur Entwicklung der Informationstechnologie zur Überwachung der Luftverschmutzung durch Straßen- und Wassertransport in großen Hafenstädten (St. Petersburg, Wladiwostok und Sewastopol) Der Beitrag stellt eine Informationstechnologie vor, die auf dem modifizierten Multi-Domain-Infokommunikationsmodell basiert, das es erlaubt, die Interaktion zwischen den Objekten der physischen, informationellen (kybernetischen) und kognitiven Ebene im Bereich der Umweltüberwachung und Vorhersage der Auswirkungen des Straßen- und Wasserverkehrs zu beschreiben die Menge der einheitlichen Begriffe. Die Wirksamkeit des vorgeschlagenen Ansatzes wird durch die Entwicklung eines Berechnungsmodells für die Luftreinhaltung und -vorhersage im Bereich der gleichzeitigen Auswirkungen von Motor- und Wassertransport in großen Hafenstädten wie St. Petersburg, Wladiwostok und Sewastopol veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-46895-8_30 cf71091a7469fe360f9ce67f6c2ada2d;de;;;2.1.;;;Ein personalisiertes und kollaboratives Empfehlungsszenario für eLearning-Materialien mit ontologiebasierten Datenabgleichsstrategien Wir schlagen einen virtuellen Lehrer für die Bewertung der Kompetenzen der Schüler vor. Es zielt darauf ab, das Lernen durch personalisierte Vorschläge zu den Lernmaterialien zu verbessern. Es basiert auf drei Hauptkomponenten: 1) einem semantisch angereicherten Content Management System (CMS), das die Rolle einer Wissensdatenbank spielt, 2) einem 3D-Anatomie-Browser und 3) einer ontologiebasierten Matching-Strategie namens Controlled Fully Automated Ontology Based Matching Strategy (C-FOAM) und stellt die Bewertungsmethodik bereit. Zusammen mit der kollaborativen Wissensdatenbank, die es ermöglicht, Wissen in natürlicher Sprache darzustellen und weiterzuverwenden, wird die Bewertungsmethodik zum Hauptbeitrag der Arbeit. Der Ansatz wird anhand eines Lernszenarios anhand anatomischer 3D-Strukturen demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16961-8_81 cee53169e910e70805e82051f5e53272;de;;;2.1.;;;Erkennung täglicher menschlicher Aktivitäten mit neuronalen Netzen und ontologiebasierter Aktivitätsdarstellung Im realen Leben leben Menschen zusammen am selben Ort, erkennen ihre Aktivitäten ist eine Herausforderung als die Aktivitäten eines einzelnen Bewohners, aber wichtig, um Informationen über reale Aktivitäten zu Hause zu sammeln und dann das betreute Leben in der realen Umgebung zu erleichtern. Dieses Papier stellt ein mehrschichtiges Perzeptronmodell und eine überwachte Lerntechnik namens Backpropagation vor, um ein neuronales Netzwerk zu trainieren, um Multi-User-Aktivitäten im Smart Home zu erkennen und nützliche Funktionen nach minimaler Redundanz und maximaler Relevanz auszuwählen. Die Ergebnisse zeigen, dass verschiedene Merkmalsdatensätze und eine unterschiedliche Anzahl von Neuronen der verborgenen Schicht des neuronalen Netzwerks unterschiedliche Genauigkeit der Aktivitätserkennung ergeben. Die Auswahl geeigneter Merkmalsdatensätze erhöht die Genauigkeit der Aktivitätserkennung und verkürzt die Ausführungszeit. Unsere experimentellen Ergebnisse zeigen, dass wir mit der Winner-Methode eine Genauigkeit von 99 % bzw.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-74500-8_57 7b65cd17b0feab5663e9bf0820493a75;de;;;2.1.;;;Semantikbasierter Bildabruf mit Balanced Clustering Tree In diesem Artikel schlagen wir ein Modell für das semantikbasierte Bildabruf (SBIR) auf dem Clustering Balanced Tree, C-Tree, und Ontologie vor, um die Semantik eines Bildes zu analysieren und einen ähnlichen Satz von Bildern zu extrahieren, in dem die Eingabe a Bild abfragen. Diese Struktur basiert darauf, die Knoten vom Blattknoten zu trennen und in Richtung der Wurzel zu wachsen, um einen ausgewogenen Baum zu erzeugen. Ein Satz ähnlicher Bilder wird auf dem C-Baum durchsucht, um das Abfragebild basierend auf dem k-NN (k-Nearest Neighbor)-Algorithmus zu klassifizieren. Dann wird die SPARQL-Abfrage generiert, um die Semantik des Bildes auf Ontologie abzufragen. Wir experimentierten mit Bilddatensätzen wie COREL (1000 Bilder), Wang (10.800 Bilder), ImageCLEF (20.000 Bilder). Die Ergebnisse werden mit den entsprechenden kürzlich veröffentlichten Projekten auf denselben Datensätzen verglichen und bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72651-5_40 f03161402368222010e245f667291651;de;;;2.1.;;;Wenden Sie die Fuzzy-Markup-Sprache auf die Wissensdarstellung für Game of Computer Go an Um die Entwicklung und Forschung im Bereich Computer Go anzuregen, wurden von 2008 bis 2011 mehrere taiwanesische Go-Spieler eingeladen, gegen einige berühmte Computer-Go-Programme zu spielen. Diese Wettbewerbe zeigten, dass das Ontologiemodell für das Go-Spiel die in den Wettbewerben aufgetretenen Probleme lösen könnte. Daher präsentiert dieses Kapitel ein Modell der Wissensrepräsentation einschließlich des Spiels von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35488-5_6 76ebabe197b1b518266aef9a91b57b54;de;;;2.1.;;;Verzerrungen der Verbraucherelastizitäten basierend auf Mikro- und aggregierten Daten: ein integrierter Rahmen und empirische Bewertung Politikanalysen erfordern häufig Schätzungen der aggregierten (oder durchschnittlichen) Verbraucherelastizitäten. Allerdings werden Schätzungen aufgrund von Elastizitätsberechnungen beim Durchschnittseinkommen häufig falsch vorgenommen. Wir bieten in diesem Papier einen umfassenden integrierten analytischen Rahmen, der diese und andere Verzerrungen umfasst. Anschließend verwenden wir empirisch abgeleitete Parameterschätzungen, um die gesamte Bandbreite der Verzerrungen zu simulieren und zu quantifizieren. Wir tun dies für alternative Einkommensverteilungen und vier verschiedene Nachfragemodelle. Die Verzerrungen können ziemlich groß sein, sie nehmen im Allgemeinen zu, wenn der Grad der Einkommensungleichheit steigt, die zugrunde liegende Ausgabenelastizität von eins abweicht und der Rang des Modells steigt.;-;-;-;https://link.springer.com/article/10.1007/s00181-015-0939-6 bdafa9c1f3a5ef55788369048d499915;de;;;2.1.;;;Argumentationsgestützte Informationsverteilung in einem Multiagentensystem für Wissensmanagement Die Verbreitung von Wissen unter den Mitgliedern großer Organisationen ist ein bekanntes Problem im Wissensmanagement, das mehrere Entscheidungsprozesse umfasst. Das Multiagent-Framework von JITIK wurde erfolgreich für die Just-in-Time-Zustellung hochgradig angepasster Benachrichtigungen an die entsprechenden Benutzer in großen verteilten Organisationen verwendet. Sowohl bei JITIK als auch bei anderen ähnlichen Ansätzen ist es jedoch üblich, mit unvollständigen Informationen und widersprüchlichen Richtlinien umzugehen, was es schwierig macht, Entscheidungen darüber zu treffen, ob eine bestimmte Information oder ein bestimmtes Wissen auf der Grundlage eines rational begründeten Verfahrens geliefert wird oder nicht. Dieser Beitrag stellt einen Ansatz vor, um dieses Problem durch die Integration von JITIK mit einem anfechtbaren Argumentationsformalismus zu bewältigen. Konflikte zwischen Richtlinien werden auf der Grundlage einer dialektischen Analyse gelöst, deren Ergebnis bestimmt, ob eine bestimmte Information an einen bestimmten Benutzer geliefert werden soll.;-;-;-;https://link.springer.com/chapter/10.1007/11794578_18 95e85bedc0958a50eefa0cace1ae08f3;de;;;2.1.;;;Zur Composability von Semantic Web Services In diesem Kapitel schlagen wir ein mehrstufiges Zusammensetzbarkeitsmodell vor, um die Zusammensetzbarkeit semantischer Webdienste automatisch zu überprüfen. Das Modell wird durch eine Reihe von Regeln definiert, die als Zusammensetzbarkeitsregeln bezeichnet werden. Jede Regel spezifiziert die Randbedingungen und Anforderungen für die Überprüfung der horizontalen und vertikalen Zusammensetzbarkeit. Das Modell unterstützt die partielle und vollständige Zusammensetzbarkeit durch die Begriffe Zusammensetzbarkeitsgrad und;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-7518-7_6 bd16844ecd8e30bc978b83fe78a35893;de;;;2.1.;;;Interaktives Pansharpening und aktive Klassifikation in der Fernerkundung In diesem Kapitel werden zwei multimodale Prototypen für die Klassifikation von Fernerkundungsbildern vorgestellt, bei denen die Benutzerinteraktion ein wichtiger Bestandteil des Systems ist. Die erste wendet Pansharpening-Techniken an, um ein panchromatisches Bild und ein multispektrales Bild derselben Szene zu verschmelzen, um ein multispektrales Bild mit hoher Auflösung (HR) zu erhalten. Sobald das HR-Bild klassifiziert wurde, kann der Benutzer mit dem System interagieren, um eine interessierende Klasse auszuwählen. Die Pansharpening-Parameter werden dann modifiziert, um die Systemgenauigkeit für die ausgewählte Klasse zu erhöhen, ohne die Leistung des Klassifizierers bei den anderen Klassen zu verschlechtern. Der zweite Prototyp verwendet Bayes'sche Modellierung und Inferenz, um aktives Lernen und Parameterschätzung in einem binären Kernel-basierten multispektralen Klassifikationsschema zu implementieren. Im Prototyp haben wir drei verschiedene Strategien entwickelt, um das informativere Pixel auszuwählen, das in das Trainingsset aufgenommen werden soll. Im experimentellen Teil werden die Prototypen beschrieben und auf zwei reale multispektrale Bildklassifikationsprobleme angewendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35932-3_5 f7ac57b0f5654c9cac612af8ad1a7343;de;;;2.1.;;;Eine erweiterte Evaluierung von Methoden zur Vorhersage der Proteinfunktion zeigt eine Verbesserung der Genauigkeit Ein großer Engpass in unserem Verständnis der molekularen Grundlagen des Lebens ist die Funktionszuweisung an Proteine. Während molekulare Experimente die zuverlässigste Annotation von Proteinen liefern, haben ihr relativ geringer Durchsatz und ihr eingeschränkter Anwendungsbereich zu einer zunehmenden Bedeutung der computergestützten Funktionsvorhersage geführt. Die Bewertung von Methoden zur Vorhersage der Proteinfunktion und die Verfolgung von Fortschritten auf diesem Gebiet bleiben jedoch eine Herausforderung.;-;-;-;https://link.springer.com/article/10.1186/s13059-016-1037-6 fc40272bfcdd79357682caf94a70114c;de;;;2.1.;;;Aufkommende selbstorganisierende Karten für die Textcluster-Visualisierung durch Einbeziehung von ontologiebasierten Deskriptoren Trotz verschiedener Vorteile des traditionellen Merkmalsvektormodells für die Dokumentdarstellung ist der bekannte inhärente Mangel dieses Modells die „Souveränitätsannahme“. Dieser Mangel macht es unmöglich, syntaktisch unterschiedliche, aber semantisch verwandte Begriffe zu identifizieren. In diesem Papier demonstrieren wir die Verwendung von semantischen Ähnlichkeitsmaßen zur Quantifizierung der Beziehung zwischen verwandten Begriffen. Das Identifizieren solcher Beziehungen hilft dabei, den Unterschied zwischen verwandten Dokumenten zu verringern. In dieser Arbeit verwenden wir nur Nomenbegriffe zur Anreicherung des Repräsentationsmodells. Die natürliche Visualisierung von Clustern wird in dieser Studie mittels Emergent Self Organizing Map (ESOM) untersucht. Experimentelle Ergebnisse zeigen, dass die Einbeziehung der semantischen Beziehung die Genauigkeit der Clustering-Ergebnisse verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34859-4_30 45a33c5ce26ed59524517f7c27806d94;de;;;2.1.;;;Hinderniserkennung und Geländeklassifizierung für die autonome Offroad-Navigation Die autonome Navigation in geländegängigen Umgebungen stellt viele neue Herausforderungen in Bezug auf traditionellere, städtische Umgebungen. Das Fehlen stark strukturierter Komponenten in der Szene erschwert die Gestaltung selbst grundlegender Funktionalitäten wie der Hinderniserkennung. Neben der geometrischen Beschreibung der Szene ist auch die Geländetypisierung ein wichtiger Bestandteil des Wahrnehmungssystems. Das Erkennen der unterschiedlichen Geländeklassen und Hindernisse ermöglicht es dem Wegeplaner, die effizienteste Route zum gewünschten Ziel zu wählen.;-;-;-;https://link.springer.com/article/10.1023/B%3AAURO.0000047286.62481.1d 2528f983c318995793eec1d6de268ef5;de;;;2.1.;;;Semantische Interpretation von UN/EDIFACT-Nachrichten zur Bewertung interorganisationaler Beziehungen Der elektronische Informationsaustausch zwischen Geschäftspartnern auf Grundlage von UN/EDIFACT-Nachrichten spiegelt direkt die organisationsübergreifende Geschäftsleistung wider, die typischerweise von Führungskräften bewertet wird. Das Abfragen solcher Nachrichten stellt jedoch aufgrund der komplexen Struktur der EDIFACT-Formate eine mehrdeutige Aufgabe für Führungskräfte dar. Aus diesem Grund stellen wir ein ontologiebasiertes Extraktionsframework für EDIFACT-Nachrichten bereit. Das Framework bietet (i) Geschäftsinformationskonzepte, die die Geschäftsleistung widerspiegeln, und ermöglicht (ii) die automatisierte Extraktion von Geschäftsdaten aus EDIFACT-Nachrichten durch Anwendung von Argumentationstechniken. Das vorliegende Framework ermöglicht die Abfrage von Geschäftsinformationen aus EDIFACT-Nachrichten basierend auf Geschäftsinformationskonzepten, was zu drei klaren Vorteilen führt: (i) die Reduzierung der Komplexität von Abfrageaufgaben und die Zugänglichkeit von Geschäftsinformationen, (ii) die Abfrage von Super- Unterkonzepte und (iii) die Reduzierung des Suchumfangs.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35076-4_8 4e0bf5c151132c7b800db0d106248d5e;de;;;2.1.;;;Bayesian Network Based Bugfix Effort Prediction Model Die Entwicklung und Verwendung von Vorhersagemodellen (Process Performance Models, PPM) sind die primären Anforderungen an hochreife Praktiken. PPMs sind nützliche Werkzeuge für das Projektmanagement und das Prozessmanagement. Sie helfen Projektmanagern, die Prozessleistung mit einem bekannten Vertrauensniveau vorherzusagen, wodurch sie das Risiko identifizieren und Maßnahmen ergreifen können. In den letzten Jahren haben Bayesian Belief Networks (BBN) als Vorhersagemodelle viel Aufmerksamkeit erhalten, da sie im Vergleich zu herkömmlichen statistischen Modellen einige der Probleme des Software Engineering besser lösen. In diesem Whitepaper stellen wir unsere Erfahrungen mit der Verwendung von BBN für die Vorhersage des Fehlerbehebungsaufwands vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30439-2_21 ca17049dfb2755f13d65a29703bd96fe;de;;;2.1.;;;Knowledge-Engineering-Tools für die Argumentation mit wissenschaftlichen Beobachtungen und Interpretationen: ein Anwendungsfall für neuronale Konnektivität Wir verfolgen das Ziel, Beobachtungen aus veröffentlichten Experimenten in einer verallgemeinerbaren Form zu kuratieren, über diese Beobachtungen nachzudenken, um Interpretationen zu generieren und dann dieses interpretierte Wissen abzufragen, um die unterstützenden Beweise zu liefern. Im Rahmen des 'BioScholar'-Projekts (R01-GM083871) präsentieren wir eine Webanwendungssoftware, die diesen Prozess für eine genau definierte Domäne vollständig instanziiert: die Verwendung von Tract-Tracing-Experimenten zur Untersuchung der neuronalen Konnektivität des Rattengehirns.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-12-351 3fde38308f902f7f466cf260c1de519c;de;;;2.1.;;;Geometrie-Wissensdatenbank Lernen aus Theorembeweisen Geometriesatzbeweise wie Sätze in Euklids Geometrieelementen enthalten fruchtbares Geometriewissen, und die Aussagen von Geometriebeweisen sind fast strukturmathematische Sprache. Daher ist es möglich, den Computer die Beweise des Geometriesatzes verstehen zu lassen. Basierend auf der Prozessontologie wird in diesem Beitrag eine neuartige Geometrie-Wissensbasis (GKB) aufgebaut, indem der Computer aus Theorembeweisen lernen kann. Die resultierende Prozessontologie wird automatisch konstruiert, indem abstrakte und Instanzmodelle (IMS) aus Beweisen extrahiert werden. Das abstrakte Modell stellt die kausalen Beziehungen von Bedingungen mit Schlussfolgerungen dar, und das Instanzmodell (IM) hält die formale Beziehung des abstrakten Modells, so dass die Deduktion wiederverwendet werden kann. Somit beschreiben zwei Arten von Modellen den Beweisprozess des Geometriesatzes vollständig. Darüber hinaus kann die auf der Prozessontologie basierende GKB durch das Lernen aus immer mehr Beweisen sukzessive erweitert werden. Schließlich wird das GKB-Lernen aus etwa 200 Beispielen implementiert und eine Anwendung beim automatisierten Theorembeweisen gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54930-4_3 2f2db1a963bdb6cabf49cc7e39ec3200;de;;;2.1.;;;Förderung der integrierten sozialen und medizinischen Versorgung durch semantische Integration und Kontextvisualisierung Bei vielen unterschiedlichen Informationssystemen, die auf soziale und medizinische Versorgungseinrichtungen verteilt sind, ist es eine große Herausforderung, eine integrierte soziale und medizinische Sicht auf die Menschen zu erreichen. Wir schlagen ein System vor, das auf semantischer Integration basiert und diese Herausforderung angeht. Es erreicht eine leichtgewichtige Datenintegration und -navigation über eine dreischichtige Architektur: eine virtuelle RDF-Ansichtsschicht, eine verteilte Abfrageverarbeitungsschicht und eine einheitliche Kontextansichtsschicht. Dies integriert Informationen aus unterschiedlichen Systemen, ohne Daten zu klonen, und unterstützt auch die Datenexploration durch eine neuartige Visualisierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54025-7_8 1f0450c3a1cc5f8fc1eb11629952e93e;de;;;2.1.;;;Ein einheitlicher Rahmen für den Entscheidungsprozess bei Social Media Analytics Datenanalysen aus sozialen Medien stoßen bei Forschern und Praktikern auf großes Interesse. Um die im Zusammenhang mit Social Media Analytics verwendeten Begriffe und Methoden besser zu verstehen und zu verdeutlichen, ist ein Rahmen mit klaren Klassifizierungsschemata und -verfahren erforderlich. Das Ziel dieses Papiers ist es, einen einheitlichen Rahmen zu entwickeln, der die möglichen Kategorien von Daten und deren Wechselwirkungen gruppiert. Darüber hinaus gibt der vorgeschlagene Rahmen die Verfahren an, die befolgt werden müssen, um die bestmögliche Wahl der Social Media Analytics (SMA)-Methodik zu erreichen und das 4P-Verfahren einzuleiten (Person, Zweck, Plattform und Prozess). Als nächstes werden die bei SMA verwendeten Methoden, insbesondere die strukturelle und inhaltsbasierte Analyse, sowie deren Untermethoden (Community- und Influencer-Erkennung, NLP, Text-, Sentiment- und Geoanalyse) angegeben. Der vorgeschlagene Rahmen wird Forschern und Vermarktern den Entscheidungsprozess erleichtern, indem er jeden Schritt in Bezug auf die Ziele, die beteiligten Parteien, die Social-Media-Plattform und den wählbaren Analyseprozess klarstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-95666-4_10 bf8671148e097dd068e5ceed9f66863b;de;;;2.1.;;;Eine Protokollontologie für die interorganisationale Workflow-Koordination Da die Koordination ein zentrales Thema im Inter-Organizational Workflow (IOW) ist, liegt es nahe, ihn als spezifische Einheit zu modellieren. Darüber hinaus ist die Struktur der verschiedenen IOW-Koordinationsprobleme für Protokolle zugänglich. Daher zeigt dieses Papier, wie diese Protokolle modelliert und den an einem IOW beteiligten Partnern zugänglich gemacht werden könnten. Genauer gesagt schlägt das Papier eine Koordinationsprotokollontologie für IOW vor und erklärt, wie Workflow-Partner diese dynamisch auswählen können. Diese Lösung erleichtert das Design und die Entwicklung von IOW-Systemen, indem sie autonome, wiederverwendbare und erweiterbare Koordinationskomponenten bereitstellt. Diese Lösung unterstützt auch die semantische Koordination durch die Verwendung der Protokollontologie und macht gemeinsam genutzte Protokollressourcen sowohl in Entwurfs- als auch Ausführungsschritten nutzbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75185-4_4 b517d9648122ddc7f142829083e61685;de;;;2.1.;;;Von XML zu Semantic Web Das gegenwärtige Web existiert in den HTML- und XML-Formaten, damit Personen durchsuchen können. In letzter Zeit gibt es einen Trend zum Semantic Web, wo die Informationen von Agenten verarbeitet und verstanden werden können. Die meisten der vorliegenden Forschungsarbeiten konzentrieren sich auf die Übersetzung von HTML ins Semantic Web, selten jedoch auf XML. In diesem Papier entwerfen wir eine Methode zur Übersetzung von XML in das Semantic Web. Es ist bekannt, dass Ontologien eine wichtige Rolle im Semantic Web spielen, daher schlagen wir zunächst ein genetisches Modell vor, um Ontologien zu organisieren, und basierend auf diesem Modell verwenden wir drei Schritte, nämlich semantische Übersetzung, strukturelle Übersetzung und schematische Übersetzung, um XML in das semantische Web zu übersetzen. Das Ziel des Papiers ist es, die breite Nutzung des Semantic Web zu erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/11408079_53 1f074bdf91f6442e1cf275684972f21f;de;;;2.1.;;;Ein Metamodellierungs- und Transformationsansatz zur Wissensextraktion Zu den Zielen des Wissensmanagements (KM) zählen die Identifikation und Kapitalisierung des Know-hows von Unternehmen, um es zu organisieren und zu verbreiten. KM wird als nicht-triviale Aufgabe anerkannt. Im Kontext erweiterter Unternehmen ist es noch schwieriger, weil sie geografisch verteilt sind und heterogene Informationssysteme verwenden. Tatsächlich werden Informationen, aus denen Wissen abgeleitet wird, in verschiedenen Datenbanken gespeichert, die an verschiedenen Standorten über das gesamte Netzwerk des erweiterten Unternehmens verteilt sind. Dieses Papier schlägt einen halbautomatischen Ansatz zur Wissensextraktion aus mehreren Datenbanken vor. Dieses Wissen wird in einem Organisationsgedächtnis (OM) gespeichert. Der Ansatz basiert auf der Definition von Ontologien für den Wissensaustausch und Model Driven Engineering Konzepten wie Meta-Modellen und Transformation zu Prozessanfragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30567-2_6 e90aa737fe62f745ce1d205efdebcdf1;de;;;2.1.;;;Tonhöhen-Bruttofehlerkompensation bei kontinuierlicher Sprache Bei der Sprachsignalverarbeitung ist es sehr wichtig, die Tonhöhenperiode der Stimme zu finden. Der Grund dafür ist, dass es an variablen Orten eingesetzt wird, wie z. B. Sprachverbesserungssystem, Spracherkennungssystem, Sprecherklassifizierungssystem und Behindertenassistenzsystem. Es ist jedoch schwierig, die genaue Tonhöhe im Abschnitt mit niedrigem SNR zu erfassen, die durch den Sprachübergang oder das durch Rauschen verfälschte Signal verursacht wird. In diesem Artikel schlagen wir die Methode vor, die in der Lage ist, die genauere Tonhöhe basierend auf der Kompensation des Signal-Rausch-Verhältnisses (SNR) für kontinuierliche Sprachsignale zu erkennen. Wir zeigen die verbesserte Leistung der vorgeschlagenen Tonhöhenerkennung durch die implementierten Ergebnisse für die Tonhöhenkontur variabler SNR-Signale.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35251-5_56 a01475dbfeb5f639bef485c581a993b6;de;;;2.1.;;;Nutzung von Cloud Computing im Kompetenzmanagement: Ein Fall aus der Apotheke Kompetenzen als Abstraktionen des menschlichen Verhaltens bei der Arbeit haben sich als nützliches Konzept erwiesen, um menschliche Fähigkeiten, Kenntnisse und Fähigkeiten beherrschbar zu machen. Leider sind Kompetenzmanagementsysteme für die meisten kleinen Organisationen zu komplex und schwierig zu warten, da sie nicht über genügend IKT-Ressourcen verfügen. Cloud Computing ist eine interessante Wahl für das Kompetenzmanagement, da es Organisationen ermöglicht, Anwendungen ohne eigene ICT-Ressourcen zu nutzen: Jeder mit einer geeigneten Internetverbindung und einem Standardbrowser kann auf eine Anwendung in einer Cloud zugreifen. Wir haben die Eignung von Cloud-basiertem Kompetenzmanagement für Apotheken analysiert. Es zeigte sich, dass Cloud Computing in Apotheken nicht nur die Kosten senkt, sondern auch neue Wege für den Austausch und die Nutzung kompetenzorientierter Informationen zwischen relevanten Parteien wie Apothekenpersonal, Bildungseinrichtungen und medizinischen Behörden eröffnet. Aus technologischer Sicht verwendet unser entworfener Cloud-basierter Competence Server OWL und RDF bei der Verwaltung der HR- (Human Resource) Ontologie. Wir präsentieren auch, wie OWL-Ontologien in relationale Modelle umgewandelt und in relationalen Datenbanksystemen gespeichert werden können. Darüber hinaus analysieren wir die Eignung verschiedener Cloud-Bereitstellungs- und Servicemodelle für das Kompetenzmanagement.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35076-4_14 99e26c7eb4729c516280ee73ae6bffb1;de;;;2.1.;;;Biometrische akustische Ohrerkennung Dieses Kapitel beschäftigt sich mit der ganzheitlichen Entwicklung eines biometrischen Systems auf Basis der akustischen Ohrerkennung. Sein Hauptzweck besteht darin, die vielen Aspekte der akustischen Ohrerkennung abzubilden und zu untersuchen und basierend auf den einflussreichsten, Versuche zu unternehmen, leistungsfähige Erkennungssysteme abzuleiten. Fünfzig Probanden haben an Experimenten teilgenommen, bei denen biometrische Proben gesammelt wurden. Das Messgerät besteht aus einem Kopfhörer mit integriertem Mikrofon als Sensor. Zur Merkmalsextraktion wurden mehrere Verfahren verwendet, einschließlich der Hauptkomponentenanalyse, und es wurden verschiedene Arten von Distanzmetriken und Klassifikatoren verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-47301-7_4 833377d5d9abbc1e8336465771fa2b01;de;;;2.1.;;;Anwendung der Fuzzy-Clustering-Analyse bei der Klassifizierung von Böden in Qinghai und Heilongjiang in China of Bodenklassifikationssysteme gliedern die Bodenvariabilität in sinnvolle Gruppierungen, die durch Felduntersuchungen identifiziert und in Bodenuntersuchungen dokumentiert werden können und bilden die Grundlage für den Austausch und die Erweiterung der bodenkundlichen Forschung und des Bodenressourcenmanagements. Die Fuzzy-Clustering-Analyse kann immer dann verwendet werden, wenn eine zusammengesetzte Bodenklassifikation mehrere Parameter enthält. In dieser Arbeit wurden 77 Oberbodenproben aus Qinghai und Heilongjiang in China gesammelt und der Elementgehalt des Oberbodens durch wellenlängendispersive Röntgenfluoreszenzspektroskopie nachgewiesen. Bei der Fuzzy-Clustering-Analyse wurden alle Daten standardisiert und anschließend eine Fuzzy-Ähnlichkeitsmatrix erstellt und die Fuzzy-Beziehung stabilisiert. Die Ergebnisse zeigten, dass die Oberbodenproben von Qinghai und Heilongjiang nach ihren Bezirken vollständig in zwei Cluster gruppiert wurden, wenn ein geeigneter Schwellenwert gegeben wurde;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18333-1_33 34a53e3755ff5ae3147536020dd48bc3;de;;;2.1.;;;OntoLingAnnots Ontologien: Ermöglichung interoperabler linguistischer Annotationen (bis zur pragmatischen Ebene) Dieser Beitrag stellt das OntoLingAnnot-Annotations-Framework vor, das bereits für die Annotation von morphologischen, syntaktischen, semantischen und Diskursphänomenen entwickelt wurde, und seine Erweiterung auf die Annotation pragmatischer Phänomene. Diese Erweiterung galt als ideales Testfeld für die Interoperabilität der mittels der Plattform durchgeführten sprachlichen Annotationen, da (i) die Pragmatik selbst einen echten Mix unterschiedlicher sprachlicher Themen wie Sprechakte, pragmatische Kohärenzbeziehungen, Deixis, Präsuppositionen und Implikaturen, und (ii) es interagiert eindeutig mit den übrigen Ebenen, da (potenziell) jede sprachliche Einheit auf jeder Ebene eine pragmatische Projektion haben kann. Insbesondere werden die verschiedenen pragmatischen Einheiten vorgestellt, mit denen Texte und Dialoge mit dem Framework kommentiert werden können. Diese pragmatischen Einheiten sind in den Ontologien enthalten, die OntoLingAnnot zugeordnet sind und deren Designanforderungen und Entwicklungsprozess hier ebenfalls beschrieben werden. Außerdem zeigt dieses Papier auch die wichtigsten Prinzipien und Eigenschaften des OntoLingAnnot-Annotations-Frameworks, die die Zusammenarbeit der verschiedenen Annotationen unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28249-2_12 109fdf01a8ebc44ce8f0684e231071d6;de;;;2.1.;;;Ein taxonomiebasierter Ansatz zur Konstruktion semantikbasierter Super-Peer-Netzwerke Das Clustern eines Peer-to-Peer (P2P)-Netzwerks in verschiedene semantische Cluster kann die Sucheffizienz effizient verbessern und die Skalierbarkeit des Netzwerks verbessern. Dieses Papier betrachtet P2P-Systeme, in denen Peers eine Taxonomie-Hierarchie verwenden, um den Inhalt ihrer Objekte zu beschreiben, und präsentiert einen taxonomiebasierten Ansatz zum Aufbau semantikbasierter Super-Peer-Netzwerke. Durch dynamisches Clustern von Peers in einem taxonomiebasierten semantischen Raum basierend auf der Semantik ihrer Daten und Organisieren der Cluster in semantische Routing-Overlays kann ein effizienter Abfrage-Routing-Algorithmus zwischen diesen Clustern verwendet werden. Eine vorläufige Bewertung zeigt, dass unser Ansatz einen wettbewerbsfähigen Kompromiss zwischen Suchlatenzen und Overhead erreicht und der Lastenausgleich zwischen Super-Peers gut aufrechterhalten wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72909-9_11 5252cd2084c8634d7ee217d68f6db849;de;;;2.1.;;;Aggregierte statistische Daten: Modelle zu ihrer Darstellung Der Beitrag gibt einen Überblick über eine Reihe von Datenmodellen für aggregierte statistische Daten, die in der Informatikliteratur der letzten zehn Jahre erschienen sind.;-;-;-;https://link.springer.com/article/10.1007/BF00140663 a6e769437f8a74a662ab70acd95b89b4;de;;;2.1.;;;Anwendung der FML-basierten Fuzzy-Ontologie auf die Hochschulbewertung Das Ziel der Hochschulbewertung und -akkreditierung besteht darin, sicherzustellen, dass die von den Hochschulen angebotene Ausbildung ein akzeptables Qualitätsniveau aufweist. Im Jahr 2011 begann der Hochschulbewertungs- und -akkreditierungsrat von Taiwan (HEEACT) mit der Bewertung der Hochschuleinrichtungen anhand von fünf vordefinierten Punkten, darunter (1) Hochschulziel, (2) Hochschulleitung und -management, (3) Lehr- und Lernressourcen, (4) Leistung und gesellschaftliche Verantwortung und (5) Verbesserungs- und Qualitätssicherungsmechanismus. In diesem Kapitel stellen wir eine neuartige Fuzzy Markup Language (FML)-basierte Fuzzy-Ontologie und ihre Anwendung auf die Hochschulbewertung für die National University of Tainan (NUTN), Taiwan, vor. Das vorgeschlagene Fuzzy-Ontologie-Modell wird verwendet, um das von Domänenexperten vordefinierte Wissen im Bereich der Hochschulbewertung und Akkreditierung darzustellen. Die FML wird angenommen, um die Wissensbasis und die Regelbasis der Hochschulbewertung zu beschreiben. Simulationsergebnisse zeigen, dass der vorgeschlagene Ansatz effektiv auf das Bestehen der Hochschulbewertung schließen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35488-5_8 16b4b963ba2b2e4654dc8f58ce46ebf8;de;;;2.1.;;;Kontextuelle Begriffsklärung Das Auflösen von Mehrdeutigkeiten ist ein notwendiger Schritt für eine maschinelle Übersetzung mit dem Ziel einer hohen Qualität. In Verbmobil mit seinen spezifischen Bedingungen der Sprache-zu-Sprache-Übersetzung muss kontextuelles Denken zum Zweck der Begriffsklärung die besonderen Bedingungen der Situierung in einem Echtzeitsystem respektieren und muss Fehler in der Spracherkennungsphase berücksichtigen. In diesem Kapitel wird das Kontextbewertungsmodul des Übersetzungspfads „Deep Processing“ von Verbmobil beschrieben. Wir charakterisieren die linguistischen Phänomene, die kontextuelles Denken erfordern, beschreiben die Form unserer Kontextrepräsentation und erklären, wie diese Repräsentation während der Äußerungsinterpretation konstruiert wird, was die Durchführung der erforderlichen Begriffsklärungen beinhaltet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-04230-4_34 24caf45d079f711b83b1385695e470a8;de;;;2.1.;;;Entwicklung der einheitlichen technologischen Plattform zum Aufbau der Domänenwissensdatenbank durch die Kontextanalyse Der Artikel betrachtet die Architektur der technologischen Plattform, die für den Aufbau der Wissensbasis (KB) bestimmt ist, indem ein Satz logischer Regeln mit Fuzzy-Ontologien integriert wird. Die Entwicklung von Integrationsmethoden für einen Satz logischer Regeln und Fuzzy-Ontologien sind für den Entscheidungsunterstützungsprozess notwendig. Die KB steht für die Speicherung von Wissen und Zusammenhängen verschiedener Problemfelder (PrA). Der PrA-Ontologiekontext ist ein spezifischer Zustand des KB-Inhalts, der aus einem Satz von Ontologiezuständen ausgewählt werden kann. Der Status wurde entweder als Ergebnis der Versionierung oder der Erstellung des KB-Inhalts aus verschiedenen Blickwinkeln erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-65551-2_5 11b474e41940ab3709181fdeca6f1e9c;de;;;2.1.;;;Routing für störungstolerante Netzwerke: Taxonomie und Design Von Kommunikationsnetzwerken, ob drahtgebunden oder drahtlos, wurde traditionell angenommen, dass sie zumindest die meiste Zeit miteinander verbunden sind. Neue Anwendungen wie Notfallmaßnahmen, Spezialoperationen, intelligente Umgebungen, VANETs usw. in Verbindung mit Knotenheterogenität und flüchtigen Verbindungen (z. Tatsächlich können Netzwerke in solchen Szenarien größtenteils getrennt sein, d. h. die meiste Zeit existieren keine Ende-zu-Ende-Pfade, die jedes Knotenpaar verbinden. Um mit häufigen, langlebigen Verbindungsabbrüchen fertig zu werden,;-;-;-;https://link.springer.com/article/10.1007/s11276-010-0276-9 fb1180e67300c6add1dc9a7295bdd907;de;;;2.1.;;;Ein neuartiger Ansatz zur Aktivitätserkennung basierend auf Mobiltelefonen In diesem Beitrag wird eine neuartige Methode zur hochpräzisen Erkennung menschlicher Aktivitäten vorgestellt, die auf Beschleunigungssensoren von Mobiltelefonen basiert. Unser Ansatz umfasst zwei Phasen: die Merkmalsextraktionsphase und die Klassifizierungsphase. In der Merkmalsextraktionsphase verarbeiten wir triaxiale Beschleunigungssensordaten, indem wir die Independent Components Analysis (ICA) mit dem Wavelet-Transformationsalgorithmus kombinieren, um die Merkmale zu erhalten. In der Klassifizierungsphase wenden wir den Algorithmus der Support Vector Machine (SVM) an, um vier Arten von Aktivitäten (Sitzen, Stehen, Gehen und Laufen) zu unterscheiden. Experimentelle Ergebnisse zeigen, dass der Ansatz eine durchschnittliche Genauigkeit von 98,78 % über vier Arten von Aktivitäten erreicht, was die traditionelle Methode übertrifft. Die hohe Genauigkeit weist darauf hin, dass dieser Ansatz die auf Mobiltelefonen basierende Anwendung zur Erkennung menschlicher Aktivitäten erleichtern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54900-7_9 c04a5b244de9e70e4d2a3b71431b2d87;de;;;2.1.;;;Facettiertes Surfen in sozialen Medien Die Popularität von Social Media als Medium zum Austausch von Informationen hat das Extrahieren von Informationen von Interesse zu einer Herausforderung gemacht. In dieser Arbeit stellen wir ein System zur Verfügung, das in sozialen Medien veröffentlichte Beiträge zurückgeben kann, die verschiedene Aspekte eines gesuchten Konzepts abdecken. Wir präsentieren ein facettenreiches Modell für die Navigation in sozialen Medien, das eine konsistente, verwendbare und domänenunabhängige Methode zum Extrahieren von Informationen aus sozialen Medien bietet. Wir präsentieren eine Reihe von domänenunabhängigen Facetten und beweisen empirisch die Machbarkeit der Zuordnung von Social Media-Inhalten zu den von uns ausgewählten Facetten. Als Nächstes zeigen wir, wie wir diese Facetten auf Social-Media-Sites abbilden können, lebende Dokumente, die sich regelmäßig zu Themen ändern, die die in ihnen ausgedrückte Semantik erfassen. Diese Abbildung wird als Graph verwendet, um die verschiedenen für uns interessanten Facetten zu berechnen. Wir lernen ein Profil des Inhaltserstellers kennen, ermöglichen die Zuordnung von Inhalten zu semantischen Konzepten für eine einfache Navigation und erkennen Ähnlichkeiten zwischen Websites, um entweder ähnliche Seiten vorzuschlagen oder Seiten zu ermitteln, die unterschiedliche Ansichten zum Ausdruck bringen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35542-4_8 7a54af3425514e2d44324d24b2e51aa6;de;;;2.1.;;;Ein datenschutzbewusstes semantisches Modell für das Provenienzmanagement Die Historie von Daten hat fast in jeder wissenschaftlichen Anwendung eine entscheidende Bedeutung. Um der Richtigkeit von Daten zu vertrauen, wird die Möglichkeit, die Herkunft von Daten zu bestimmen, zu einem wichtigen Thema. Provenienzinformationen fassen die Herkunft von Gegenständen, die Geschichte des Besitzes von Gegenständen und die an ihnen durchgeführten Aktionen zusammen. Der Schutz von Daten vor Korruption oder illegalem Zugriff und das Aufdecken von Datenschutzverletzungen bei Daten sollte durch die Integration von Provenienzkonzepten mit Sicherheitskonzepten erreicht werden. Informationen wie die Anamnese einer Infektionskrankheit einer Person sind hochsensibel und sollten nicht an unbefugte Benutzer weitergegeben werden. Diese historischen Daten benötigen Privatsphäre. Wir schlagen ein datenschutzbewusstes Provenance-Management-Modell vor, indem wir Richtlinien erstellen und Provenienzdaten abfragen, um Richtlinienverstöße zu erkennen. Wir veranschaulichen unser vorgeschlagenes Modell, indem wir es mit Infektionskrankheiten und Impfdomänen integrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13674-5_16 0687c09583e1297b88a9158a05d7e53a;de;;;2.1.;;;Ein neues Metadatenmodell für den einheitlichen Umgang mit heterogenen Data Lake-Quellen Metadaten haben schon immer eine Schlüsselrolle gespielt, um die Zusammenarbeit heterogener Datenquellen zu begünstigen. Diese Rolle hat mit dem Aufkommen von Data Lakes an Bedeutung gewonnen, wobei Metadaten die einzige Möglichkeit darstellen, ein effektives und effizientes Management der Interoperabilität von Datenquellen zu gewährleisten. Aus diesem Grund erscheint die Notwendigkeit, neue Modelle und Paradigmen für die Metadatenrepräsentation und -verwaltung zu definieren, im Data Lake-Szenario entscheidend. In diesem Papier wollen wir dieses Problem lösen, indem wir ein neues Metadatenmodell vorschlagen, das sich gut für Data Lakes eignet. Um eine Vorstellung von seinen Fähigkeiten zu vermitteln, präsentieren wir außerdem einen Ansatz, der ihn nutzt, um unstrukturierte Quellen zu „strukturieren“ und thematische Ansichten aus heterogenen Data Lake-Quellen zu extrahieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00063-9_17 ac3eaf515daa69a6de8f034352cb4c07;de;;;2.1.;;;Wiederverwendung von Webinformationen zum Aufbau von flexiblem Domänenwissen Der Aufbau einer Wissensdatenbank für eine bestimmte Domäne umfasst normalerweise einen Fachexperten (Tutor) und einen Wissensingenieur. Unser Ansatz besteht darin, Mechanismen und Werkzeuge zu entwickeln, die es den Lernenden ermöglichen, Wissensdatenbanken durch eine Online-Lernsitzung aufzubauen. Das Dominant Meaning Classification System (DMCS) wurde entwickelt, um automatisch Informationssegmente (Chunks) zu extrahieren und zu klassifizieren. Diese Brocken könnten den Wissensaufbau automatisieren, anstatt von der Analyse der Tutoren abhängig zu sein. Wir verwenden eine dominante Bedeutungsraummethode, um extrahierte Chunks zu klassifizieren. Unser Experiment zeigt, dass dies das Domänenwissen erheblich verbessert;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44886-1_51 daa4b904d51df8898c823a0d2284575c;de;;;2.1.;;;Stufenabhängige Fuzzy-bewertete Verlustfunktion im zweistufigen binären Klassifikator In diesem Beitrag wird ein Modell zum Umgang mit zweistufigen Bayes-Klassifikatoren unter der Annahme vollständiger probabilistischer Informationen vorgestellt. Die Verlustfunktion in unserem Problem ist stufenabhängig unscharf bewertet. Diese Fuzzy-Verlustfunktion bedeutet, dass der Verlust von der Stufe abhängt, in der eine Fehlklassifizierung vorgenommen wird. Das Modell basiert erstens auf dem Konzept der Fuzzy-Zufallsvariablen und zweitens auf der subjektiven Rangfolge der Fuzzy-Zahl, die von Campos und González definiert wurde. Der Vergleich mit knackiger stufenabhängiger Verlustfunktion ist gegeben. Schließlich wird ein Beispiel betrachtet, das diesen Fall der Bayesschen Analyse veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74972-1_8 a632c3e0cc359c3e08c1c5057bb0d9fe;de;;;2.1.;;;Wissen im Semantic Web finden und einordnen Swoogle hilft Software-Agenten und Wissensingenieuren, Semantic-Web-Wissen zu finden, das in RDF- und OWL-Dokumenten im Web kodiert ist. Das Navigieren in einem solchen semantischen Web im Web ist aufgrund des Mangels an expliziten;-;-;-;https://link.springer.com/chapter/10.1007/11574620_14 2b576565310279cc502152d9c83c560a;de;;;2.1.;;;Fehlercharakterisierung basierend auf LSTM-Netzwerken für Bluegene/L-Systemprotokolle Mit zunehmender Größe von Clustersystemen werden Ausfälle zur Normalität und machen die Zuverlässigkeit zu einem wichtigen Thema. Systemprotokolle enthalten umfangreiche semantische Informationen aller Komponenten und werden immer verwendet, um abnormales Verhalten und Fehler durch Mining-Methoden zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1160-5_11 ce29a047846e1efd9772162c853cfd30;de;;;2.1.;;;Herstellung von hochmolekularer DNA aus hermatypischen Korallen und ihre Verwendung für DNA-Hybridisierung und Klonierung Frühere Versuche, hochmolekulare DNA aus hermatypischen Korallen zu extrahieren, sind gescheitert, weil das Ausgangsmaterial reifes Gewebe war. Die folgende Arbeit beschreibt die Isolierung von DNA aus Korallensperma, die ein hohes Molekulargewicht aufweist und sich für die DNA-Hybridisierung, den Verdau mit Restriktionsendonukleasen und die Klonierung eignet. Die grobe DNA-Hybridisierung und Hybridisierung mit klonierter repetitiver DNA wurde verwendet, um die Verwandtschaft zwischen Mitgliedern der skleraktinischen Korallenfamilie Acroporidae zu untersuchen.;-;-;-;https://link.springer.com/article/10.1007/BF00391205 27f43badf10ef4813f49cca2a2ce06fb;de;;;2.1.;;;Molekulare Systematik der Primaten Eine große Menge vergleichender makromolekularer Daten zur Primatensystematik ist jetzt verfügbar. Es besteht jedoch kein Konsens darüber, was dieses Lager ist oder wie es sein sollte. Wir hoffen, dass dieses Kapitel zu einem solchen Konsens beitragen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-8783-5_8 aa64e5c36418437f02f1e17f5212ec28;de;;;2.1.;;;Schlüssel zur Identifizierung moderner und pleistozäner Arvicolines (Arvicolinae, Rodentia) aus dem Ural und Westsibirien anhand odontologischer Merkmale Die taxonomische Identifizierung von Arvicolinen (Arvicolinae, Rodentia) anhand von dentalen Merkmalen ohne Berücksichtigung kranialer, externer oder anderer nicht-dentaler Merkmale ist eine wichtige Aufgabe in der Neontologie bei der Untersuchung der Ernährung fleischfressender Säugetiere und Greifvögel sowie in der Quartärpaläontologie, Biostratigraphie und Paläoökologie. Die morphologischen Kriterien für die taxonomische Identifizierung von Arvicolin-Molaren werden in dieser Arbeit formalisiert. Es werden dichotome Schlüssel zur Identifizierung moderner und pleistozäner Arvicolin-Taxa des Urals und Westsibiriens basierend auf den strukturellen und histologischen Merkmalen und der okklusalen Konfiguration des ersten unteren Molaren vorgeschlagen.;-;-;-;https://link.springer.com/article/10.1134/S1062359015070031 a9c3200590f088bdef27baeb4bdbac2f;de;;;2.1.;;;Auf dem Weg zu einer technologisch, organisatorisch und soziotechnisch ausgewogenen KM-Initiative-Strategie: ein pragmatischer Ansatz für das Wissensmanagement In diesem Artikel verfolgen wir einen pragmatischen Ansatz des Wissensmanagements (KM), der tief in unserer Erfahrung in einem großen Industrieunternehmen verwurzelt ist. Außerdem argumentieren wir mit Bezug auf das Konzept der „Angemessenheit der Interpretationsrahmen von Individuen“, dass Wissen nicht so handhabbar ist, als ob es Daten oder Informationen wären. Dies veranlasst uns, die hierarchische Sicht von „Daten, Informationen und Wissen“ zu überprüfen und ein Modell (DITEK) vorzuschlagen, das versucht, den Transformationsprozess von Daten zu Informationen und von Informationen zu implizitem und explizitem Wissen zu beschreiben. Darüber hinaus stellen wir drei Postulate auf, die den technologischen Ansatz von WM verändern, und schlagen eine pragmatische Definition von WM vor. Diese pragmatische Vision wird durch unser im Artikel beschriebenes Modell für allgemeines Wissensmanagement im Unternehmen unterstützt. Es hilft bei der Konzeption einer technologisch, organisatorisch und soziotechnisch ausgewogenen Strategie für KM-Initiativen.;-;-;-;https://link.springer.com/article/10.1057/kmrp.2012.43 c08c63d79ea2dff021bbf13122adf5d9;de;;;2.1.;;;Die pedologische Landschaft: Organisation des Bodenmaterials Das Bodenmaterial ist nach strukturellen, geografischen und genetischen Gesichtspunkten organisiert. Strukturell ist das Bodenmaterial multiskalar mit Merkmalen und Eigenschaften, die für jede Maßstabsebene spezifisch sind. Die aufeinanderfolgenden Strukturebenen sind in ein hierarchisches System verschachtelter Bodeneinheiten oder Holons eingebettet, das als Holarchie des Bodensystems bekannt ist. Auf jeder hierarchischen Ebene der Wahrnehmung und Analyse des Bodenmaterials werden unterschiedliche Merkmale beobachtet, die für die betrachtete Ebene spezifisch sind. Die Gesamtheit der Merkmale beschreibt den Bodenkörper in seiner Gesamtheit. Jede Ebene ist gekennzeichnet durch ein Element der Bodenholarchie, eine Einheit (oder einen Bereich von Einheiten), die das auf dieser Ebene wahrgenommene Bodenelement misst, und ein Beobachtungs- oder Messmittel zur Identifizierung der auf der betreffenden Ebene diagnostischen Merkmale. Die Ebenen werden basierend auf einer Konnotation mit der richtigen Dimension des Bodenelements beschriftet, die auf jeder Ebene berücksichtigt wird: Nano, Mikro, Meso, Makro und Mega. Die Holarchie des Bodensystems ermöglicht es, relevante Beziehungen zwischen Bodeneigenschaften und geomorphem Verhalten auf verschiedenen hierarchischen Ebenen hervorzuheben. Diese Beziehungen bilden die konzeptionelle Essenz der Geopedologie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19159-1_5 9f9bf29b542f0d313e38362d9abc3dec;de;;;2.1.;;;Ein Rahmen für die kollaborative Wissensgenerierung Dieser Artikel beschreibt ein Framework für das Management des Lebenszyklus von Wissen in Organisationen und wie dieses Framework verwendet werden kann, um die kollaborative Wissenserstellung zu unterstützen. Der Rahmen entstand aus jahrelanger Arbeit mit den Labors und Einrichtungen, die unter der Leitung des US-Energieministeriums stehen. Der Artikel beginnt mit der Beschreibung des Hintergrunds der Arbeit, aus der das Framework hervorgegangen ist, gefolgt von der Beschreibung des Problems, das „richtige“ Wissen für die „richtigen“ Personen zum „richtigen“ Zeitpunkt zu identifizieren und wie die Verwendung von Leistungszielen adressiert dieses Problem. Als nächstes werden der Lebenszyklus von Wissen in Organisationen, die theoretische Grundlage des Frameworks und die Details der Implementierung des Frameworks beschrieben. Schließlich fasst ein Diskussionsabschnitt das Framework zusammen und erörtert zukünftige Richtungen zur Verbesserung und Erweiterung des Frameworks zur Unterstützung der kollaborativen Wissensgenerierung in Organisationen.;-;-;-;https://link.springer.com/article/10.1057/kmrp.2008.10 40be99c2c600ca85b37409b488ef9203;de;;;2.1.;;;Verwendung von semantisch annotierten Modellen zur Unterstützung von Geschäftsprozess-Benchmarking In diesem Papier beschreiben wir einen Ansatz zur Verwendung semantischer Annotationen von Prozessmodellen, um das Benchmarking von Geschäftsprozessen zu unterstützen. Wir zeigen, wie semantische Annotationen die Aufbereitung von Prozess-Benchmarking-Daten unterstützen können, indem sie bestehenden Prozessmodellen maschinenverarbeitbare semantische Informationen hinzufügen, ohne die ursprüngliche Modellierungssprache zu verändern, semantische Analysen zum Zwecke der Leistungsmessung durchführen und die in den Modellen enthaltenen Informationen für zugesicherte Vertraulichkeit. Der Ansatz wurde auf der ADOxx-Plattform implementiert und für eine erste Evaluation auf zwei Use Cases angewendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24511-4_3 a4fdd576ba1c864040bb9a870bc282a3;de;;;2.1.;;;Identifizierung relevanter Hashtags für geplante Events mit Learning to Rank Jeden Tag finden viele geplante Veranstaltungen (z. B. Konzerte, Sportspiele, Festivals usw.) auf der ganzen Welt statt. In verschiedenen Anwendungen wie Ereignisempfehlungen, Ereignisberichten usw. kann es nützlich sein, Benutzerdiskussionen zu solchen Ereignissen in sozialen Medien zu finden. Zu diesem Zweck kann die Identifizierung von ereignisbezogenen Hashtags hilfreich sein. In diesem Whitepaper konzentrieren wir uns auf die Identifizierung der Top-Hashtags, die sich auf ein bestimmtes Ereignis beziehen. Wir definieren eine Reihe von Features für (Ereignis-, Hashtag-)Paare und diskutieren Möglichkeiten, diese Feature-Scores zu erhalten. Eine lineare Aggregation dieser Bewertungen wird verwendet, um schließlich eine Rangliste der Top-Hashtags für das Ereignis auszugeben. Die Aggregationsgewichte der Merkmale werden unter Verwendung eines Lern-Rang-Algorithmus erhalten. Wir stellen die Überlegenheit unserer Methode fest, indem wir detaillierte Experimente an einem großen Datensatz durchführen, der mehrere Kategorien von Ereignissen und zugehörigen Tweets enthält.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-15640-4_5 12e1fabc3ce6a955b634ed5a31b56a99;de;;;2.1.;;;Chromosomale Evolution bei Nagetieren Die Ordnung Rodentia, die sich aus 1687 rezenten Arten zusammensetzt, die 43 Familien und 354 Gattungen angehören, besetzt eine Vielzahl von Lebensräumen auf der ganzen Welt (Anderson und Jones, 1967). Nagetiere wurden in drei Unterordnungen eingeteilt: Sciuromorpha, Myomorpha und Hys-tricomorpha, obwohl die Gültigkeit von Unterordnungen in Frage gestellt wurde (Wood, 1958). Die verschiedenen groben morphologischen Merkmale, die diese Gruppen charakterisieren, sowie die Familien und Gattungen von Nagetieren werden in mehreren neueren Veröffentlichungen vorgestellt (Walker, 1964, Anderson und Jones, 1967). Eine wertvolle taxonomische Referenz, die Arten und Unterarten nordamerikanischer Nagetiere beschrieb, ist die Veröffentlichung von Hall und Kelson (1959).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-85943-4_18 f8dac47c5d9d39c6f29346c363b2da10;de;;;2.1.;;;Automatische Merkmalsextraktion für Sentimentanalyseaufgaben Der folgende Artikel schlägt den Einsatz von Open Information Extraction Methods (OIE), insbesondere ClausIE, vor, um automatisch Merkmale aus Filmkritiken zu erhalten. In Rahmen der automatischen Zusammenfassungsgenerierung und der Sentimentanalyse wird dieser Ansatz mit anderen beiden verglichen, bei denen manuelle Schritte verwendet werden, um die Eigenschaften einer Dienstleistung oder eines Produkts zu erhalten. Das erhaltene Ergebnis zeigt, dass ClausIE für die halbautomatische Extraktion von Merkmalen verwendet werden kann. Es erfordert einen minimalen manuellen Eingriff, der im Ergebnisabschnitt erläutert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-75214-3_18 0eeb5853982a3f70615da40919f9617e;de;;;2.1.;;;Forschung zur Extraktion chinesischer Tierwörter auf der Grundlage des Kinderliteraturkorpus Kategorisierte und benotete Vokabulare sind ein wichtiger Aspekt des benoteten Lesens von Kindern. Unter Verwendung von Tierwörtern aus dem Thesaurus des modernen Chinesisch als Ausgangswörter untersucht dieser Artikel eine Methode zum Extrahieren von Tierwörtern aus dem Kinderliteraturkorpus und versucht, ein Wortfolgemodell zu konstruieren. Das verwendete Verfahren besteht darin, die Ergebnisse der automatischen Wortsegmentierung mit den Startwörtern abzugleichen. Es gibt 786 Tiernomen, die aus dem Korpus extrahiert wurden, mit einer Steigerungsrate von 39,36 % im Vergleich zu den 564 Samenwörtern, und es gibt 780 abgeleitete Tierwörter. Das Tierwortsequenzierungsmodell basiert auf der Wortarbeit-Popularität und der Wortschreiber-Popularität, die das Problem einer unausgewogenen Anzahl von Zeichen und Autorenwerken löst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-38189-9_63 10cba546203cb209b80231a3f3d74b7e;de;;;2.1.;;;Probleme der Regelinduktion aus Frühgeburtsdaten Diese Studie beschäftigt sich mit dem Design und der Analyse digitaler Systeme mit Fuzzy-Neurocomputing. Einige grundlegende Definitionen von Fuzzy-Logik-Neuronen, grundlegende neuronale Architekturen, Lernstrategien und die Interpretation ihrer Ergebnisse werden vorgestellt. Wir fördern ein Konzept des Einbettungsprinzips: Ein ursprüngliches boolesches Problem wird in der Sprache von Fuzzy-Sets dargestellt, anschließend durch Lernen gelöst und schließlich das Ergebnis des Lernens im Sinne einer zweiwertigen Logik neu interpretiert. Wir zeigen die Verwendung von Fuzzy-Neuronen in einem Standarddesign von kombinatorischen Systemen, einschließlich einer Minimierung unvollständig spezifizierter Boolescher Funktionen (dh solcher mit Nicht-Beachten-Bedingungen) und Booleschen Funktionen mit vielen Ausgaben. Es wird auch behauptet, dass dieser Ansatz Reverse Engineering in dem Sinne unterstützt, dass man, sobald die Architektur der Booleschen Schaltung erlernt ist, das Fuzzy-Logik-Netzwerk interpretieren kann, um einen Einblick in die Natur der Regeln zu gewinnen, die die Daten regeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-1803-1_13 d5df09c97fdda115443cf4286d31c193;de;;;2.1.;;;Die Zukunft der Textbedeutung in der Computerlinguistik Verfasser- und leserbasierte Sichtweisen auf Textbedeutungen spiegeln sich in den jeweiligen Fragen „Was will mir der Autor sagen?“ wider. und „Was bedeutet dieser Text für mich persönlich?“ Die zeitgenössische Computerlinguistik vertritt jedoch im Allgemeinen keine der beiden Ansichten. Dies ist jedoch nicht ausreichend für die Entwicklung anspruchsvoller Anwendungen wie das Sammeln von Informationen und die Beantwortung von Fragen. Ich diskutiere verschiedene Sichtweisen von Textbedeutungen aus der Perspektive der Bedürfnisse der computergestützten Textanalyse und der kollaborativen Reparatur von Missverständnissen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87391-4_1 997df7adcc8bdbfc60b31967501a4224;de;;;2.1.;;;Einführung in die Social Network Analysis (SNA) als Untersuchungsinstrument Soziales Verhalten wird hauptsächlich durch soziale Bindungen und Verbindungen hervorgerufen. Unsere Kontakte zu anderen Menschen prägen unser Weltbild, stärken unsere Identität und die Interaktionen bieten uns alle möglichen Möglichkeiten und Ressourcen, um Dinge zu erledigen. Das mit Netzwerken verbundene Sozialkapital ist auch einer der wichtigsten Wege, um Kriminalität zu erleichtern. Daher gilt die systematische Analyse krimineller Netzwerke als praktikables Mittel, um ein tieferes Verständnis des kriminellen Verhaltens zu erlangen. Dieses Papier ist eine allgemeine Einführung in die Analyse sozialer Netzwerke (SNA) als Analysewerkzeug für die Untersuchung von gegnerischen Netzwerken. Das Papier gibt einen Überblick über einige theoretische und Schlüsselkonzepte, beleuchtet funktionale Anwendungen und präsentiert ein vorläufiges Protokoll für die Datenverarbeitung und -codierung. Die Diskussion beschäftigt sich mit einigen methodischen Fragen, Herausforderungen und zukünftigen Entwicklungen auf diesem Gebiet.;-;-;-;https://link.springer.com/article/10.1007/s12117-008-9057-6 ef785091a667d5d86a17f33620c42a0d;de;;;2.1.;;;"Pilze mit Sporangien: Eumycota-Unterteilungen Mastigomycotina und Zygomycotina Zu den Mitgliedern dieser Unterteilungen, die früher zusammen als ""Phycomycetes"" bekannt waren, gehören die normalerweise als die primitivsten Arten von Eumycota angesehen, obwohl die einfachsten eine große Vielfalt in Form und Komplexität des Lebenszyklus aufweisen.";-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-15432-6_9 14f259443f8c5b989e6024b320307c92;de;;;2.1.;;;Fruchtbarkeit von Reisböden im tropischen Asien Mehr als neunzig Prozent der weltweiten Reisflächen liegen im Monsun-Asien, von denen fast zwei Drittel im tropischen Monsun-Asien verteilt sind, das sich östlich des Indus und südlich der chinesischen Grenze einschließlich des insularen Südostasiens erstreckt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-68141-7_8 789935738a5f03fb42cd0c6259fd999e;de;;;2.1.;;;Hin zu k-anonymen nicht-numerischen Daten durch semantisches Resampling Der Datenschutz sollte bei der Veröffentlichung von Daten (z. B. Datenbankeinträgen), die von Einzelpersonen gesammelt werden, sorgfältig berücksichtigt werden, um die Offenlegung von Identitäten oder die Offenlegung vertraulicher Informationen zu vermeiden. Anonymisierungsmethoden zielen darauf ab, ein gewisses Maß an Privatsphäre zu erreichen, indem Transformationen über nicht anonyme Daten durchgeführt werden, während die aus diesen Transformationen resultierende Verzerrung (d. h. Informationsverlust) so weit wie möglich minimiert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31724-8_54 49d817549dbcdf37a5c6f9a500c666bc;de;;;2.1.;;;Theorie der asynchronen Introspektion: Die Grundlagen des phänomenalen Bewusstseins in der zeitlichen Illusion Eine neue Theorie der neuropsychologischen Grundlagen des phänomenalen Bewusstseins, die „Theorie der asynchronen Introspektion“, wird vorgeschlagen, die die Asynchronität zwischen verschiedenen neurokognitiven Prozessen betont. Wir geben eine detaillierte Erklärung, wie ein Geist zu einer kognitiven Struktur gelangen könnte, die isomorph zu der kognitiven Struktur ist, die aus Erfahrungsqualia hervorgehen würde. Die Theorie legt nahe, dass eine zeitliche Illusion aufgrund der Diskrepanz zwischen der realen physischen Zeitleiste und der neural konstruierten Zeitleiste im Gehirn einer Person entsteht. Diese zeitliche Illusion führt zur Entstehung eines Gedankens (einer Überzeugung oder Beziehungswissen zweiter Ordnung), dass man eine bestimmte Erfahrung gemacht hat (ein direktes Gefühl „erster Ordnung“), wobei der Gedanke und das Gefühl synchron zu Person (Subjekt), sind es aber nicht. Dies führt zu dem Gedanken: „Ich hatte ein Gefühl“. Die Theorie wird über ein metaphorisches „Roboter-Supervisor-Modell“ ausgearbeitet und wird gezeigt, um viele aktuelle Probleme des phänomenalen Bewusstseins zu erklären.;-;-;-;https://link.springer.com/article/10.1007/s11023-016-9409-y fc73fd3be56a13eacd9c027c4d87b46d;de;;;2.1.;;;Auf dem Weg zu einer restriktiven Wahrheits- und Bedeutungstheorie (RCT) Was ist Wahrheit? Die Frage lässt keine einfache, präzise Antwort zu. Eine Definition im Wörterbuchstil ist: Der Wahrheitswert einer Aussage, p, ist der Grad, in dem die Bedeutung von p mit der Tatsacheninformation F übereinstimmt. Eine genaue Definition von Wahrheit wird an späterer Stelle in diesem Aufsatz formuliert. Die im Folgenden skizzierte Theorie, kurz RCT genannt, ist eine Abkehr von traditionellen Wahrheits- und Bedeutungstheorien. In RCT dürfen Wahrheitswerte in natürlicher Sprache beschrieben werden. Beispiele. Ziemlich wahr, mehr oder weniger wahr, fast wahr, weitgehend wahr, möglicherweise wahr, wahrscheinlich wahr, normalerweise wahr usw. Solche Wahrheitswerte werden als linguistische Wahrheitswerte bezeichnet. Sprachliche Wahrheitswerte sind in traditionellen logischen Systemen nicht erlaubt, werden aber routinemäßig von Menschen im alltäglichen Denken und im alltäglichen Diskurs verwendet. Das Herzstück von RCT ist ein täuschend einfaches Konzept – das Konzept einer Einschränkung. Informell ist eine Einschränkung R(X) auf eine Variable X eine Antwort auf eine Frage der Form: Was ist der Wert von X? Mögliche Antworten: X = 10, X ist zwischen 3 und 20, X ist viel größer als 2, X ist groß, wahrscheinlich X ist groß, normalerweise ist X groß usw. Einschränkungen werden in RCT überwiegend in natürlicher Sprache beschrieben. Ein Beispiel für eine recht komplexe Beschreibung ist: Es ist sehr unwahrscheinlich, dass es in naher Zukunft zu einem signifikanten Anstieg des Ölpreises kommt. Die kanonische Form einer Einschränkung, R(X), ist X isr R, wobei X die eingeschränkte Variable ist, R die einschränkende Relation und r eine Indexvariable ist, die definiert, wie R X einschränkt n-äre Variable und R kann eine n-äre Beziehung sein. Die kanonische Form kann als verallgemeinerte Zuweisungsanweisung interpretiert werden, in der das, was X zugewiesen wird, kein Wert von X ist, sondern eine Einschränkung der Werte, die X annehmen kann. Eine Einschränkung, R(X), ist ein Träger von Informationen über X. Eine Einschränkung wird präzisiert, wenn X, R und r mathematisch wohldefiniert sind. Eine Schlüsselidee, die der RCT zugrunde liegt, wird als Bedeutungspostulat, MP, bezeichnet. MP postuliert, dass die Bedeutung eines Satzes aus einer natürlichen Sprache, p – oder einfach p – als Einschränkung dargestellt werden kann,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19683-1_1 4acebd4316827e959809b20d80fc5315;de;;;2.1.;;;Eigenschaften und Klassifizierung der Tepui-Torfe Im Hochland von Guayana haben sich Torfe entlang eines Höhengefälles von etwa 600 m bis 2.800 m über dem Meeresspiegel gebildet. Sie wurden früher im östlichen Hochland aus paläogeographischer Sicht durch Radiokarbon-Datierung und Pollenanalyse untersucht, aber über ihre morphologischen, physikalischen und chemischen Eigenschaften und ihre taxonomische Einordnung ist wenig bekannt. Diese Studie berichtet über die Eigenschaften von Torfböden, die sich auf Sandstein-Quarzit-Meseten (Tepuis) ​​und auf magmatisch-metamorphen Massiven im westlichen Guayana-Hochland entwickelt haben. Kapitel 6 beschreibt und diskutiert die morphologischen, physikalischen und chemischen Eigenschaften der Torfböden sowie deren räumliche Variationen. Die taxonomische Klassifikation der Böden wird vorgestellt und Fragen im Zusammenhang mit der Klassifikation diskutiert. Die meisten physikalischen und chemischen Eigenschaften weisen eine mäßige bis hohe räumliche Variabilität auf, die durch die Lage in der Landschaft, die Entwässerungsbedingungen, die Beschaffenheit und Tiefe des Grundgesteins und Altersunterschiede der Torfmaterialien bestimmt wird. Die durchschnittliche Dicke der Bodenprofile über dem lithischen Substrat, einschließlich organischer und mineralischer Materialien, variiert zwischen 40 und 150 cm. Torfböden bestehen üblicherweise aus einer Oo-Oi-Oe-Schichtenfolge. Der Wurzelgehalt nimmt mit der Bodentiefe ab. Hellere Farben in den Oi-Schichten weisen auf einen geringeren Zersetzungsgrad und einen höheren Fasergehalt hin als in tieferen Schichten. Die Trockenmasse nimmt mit der Bodentiefe zu. Ungeriebene und geriebene Fasern nehmen mit der Tiefe meist ab, außer in mineralstoffreichen organischen Böden. Der Mineralgehalt steigt mit der Bodentiefe und reicht von null bis über 70 %. Die Nassrohdichtewerte variieren von 0,54 bis 0,78 Mg m;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20138-7_6 2f500d8d4d8a1f357012d3b22518dca8;de;;;2.1.;;;DISTIL: Eine entwurfsunterstützende Umgebung für die konzeptionelle Modellierung von räumlich-zeitlichen Anforderungen Wir beschreiben DISTIL (DIstributed design of SpaTIo-temporal data), ein webbasiertes konzeptionelles Modellierungsprototypsystem, das helfen kann, die Semantik raumzeitlicher Daten zu erfassen. Über DISTIL beschreiben wir einen annotationsbasierten Ansatz, der die räumlich-zeitliche konzeptionelle Gestaltung in zwei Schritte aufteilt:;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45581-7_8 8ffe4c35cff0f8337e27de7d6570ce8b;de;;;2.1.;;;Bildgebung und Strukturmerkmalszerlegung eines komplexen Ziels durch polarimetrische Streuung mit mehreren Aspekten Basierend auf der parametrischen Huynen-Zerlegung der Zielstreumatrix werden die polarimetrischen Ellipsenparameter transformiert und auf die Zerlegung von Streumechanismen eines komplexen Ziels in VHR POL-SAR-Bildern (sehr hochauflösendes polarimetrisches Radar mit synthetischer Apertur) angewendet. Unter Verwendung von Multi-Aspect- (oder Circle-Aspect)- und Breitband-VHR-POL-SAR-Bildern werden Streumechanismen eines volumetrischen Ziels und seiner strukturellen Komponenten über Bildpixel erkannt. Unter Verwendung der Überlagerungsmerkmale wird das Zielhöhenprofil auch aus einem zweidimensionalen Bild geschätzt. Als Beispiel werden polarimetrische Streuungsdaten einiger Fahrzeuge am Boden, einschließlich simulierter Mehraspekt-Daten und experimenteller Messungen, auf Validierungen von Streuungsmechanismuszerlegungen und Zielstrukturmerkmalserkennung angewendet.;-;-;-;https://link.springer.com/article/10.1007/s11432-015-5491-7 fc003f230539bcb06b104442ab85cb1f;de;;;2.1.;;;Top-K-Generierung von vermittelten Schemas über mehrere Datenquellen Die Schemaintegration ist in vielen Datenbankanwendungen wie Data Warehousing, Life Science und Ontology Merging weit verbreitet. Obwohl die Schemaintegration in den letzten Jahren intensiv untersucht wurde, ist sie immer noch eine Herausforderung, da es fast unmöglich ist, das perfekte Zielschema zu finden. In diesem Beitrag wird eine automatische Methode zur Schemaintegration vorgeschlagen, die mehrere mögliche integrierte Schemata über einen Satz von Quellschemata aus derselben Domäne untersucht. Zunächst wird der Konzeptgraph eingeführt, um die Quellschemata auf einer höheren Abstraktionsebene darzustellen. Zweitens teilen wir die Ähnlichkeit zwischen Konzepten in Intervalle auf, um drei Verschmelzungsstrategien für Schemata zu generieren. Schließlich entwerfen wir ein neuartiges Top-;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14589-6_15 f0605087a8458d540ff347b4953f7f19;de;;;2.1.;;;Unterstützung der Wiederverwendung von Global Unique Identifiers für Einzelpersonen in OWL/RDF-Wissensdatenbanken Im aktuellen Stand der Wissensrepräsentation im Semantic Web ist es ziemlich üblich, dass Individuen in Ontologien unterschiedliche Bezeichner haben, selbst wenn sie dasselbe Objekt in der realen Welt bezeichnen sollen. Dies macht die Datenintegration auf der Ebene von Einzelpersonen ziemlich schwierig. In dieser Demonstration zeigen wir zwei Plug-Ins namens Okkam4N und Okkam4P, die für das NeOn Toolkit bzw. Die Kernidee ist, dass Benutzern die Möglichkeit gegeben wird, im öffentlich zugänglichen Entity Name System für die entsprechende Person in den lokalen OWL/RDF-Wissensdatenbanken nach einer vorhandenen URI zu suchen. Sie sind verfügbar und getestet für die neuesten offiziellen Release-Versionen, das NeOn Toolkit 1.2 und Protégé 3.4.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02121-3_72 34b46a3e8690a02d3b46864fad36dd0e;de;;;2.1.;;;Integration von Aspekten in Designprozesse In diesem Papier diskutieren wir die dynamische Integration mehrerer Aspekte, d. h. die Integration, die gemäß dem Fortschritt des Entwurfs durchgeführt wird. Es wird nicht im Voraus vorbereitet, sondern in Designprozessen erstellt. Zunächst stellen wir unser Modell von Designprozessen vor, das auf einem logischen Framework basiert. Zweitens definieren wir Aspekte im logischen Rahmen. Ein Aspekt wird als Tupel aus Theorie und Vokabular im logischen Rahmen dargestellt. Insbesondere Kenntnisse in analytischen Aspekten werden als virtuelle logische Theorie dargestellt. Drittens schlagen wir die Integration von Aspekten durch Entführung vor, die ein anderer Ansatz ist als die Integration von Modellen. Mit mehreren Aspekten definierte Abduktion integriert Aspekte durch Überlagerung von Hypothesen, die die Identifizierung von instanziierten Entitäten in der Hypothese ist. Es untersucht auch die Konnektivität von Hypothesen durch erklärende Kohärenz. Da die Überlagerung von Hypothesen und Theorien, die bei der Entführung verwendet werden, uns sagt, wie Aspekte in das Design integriert werden, können sie dazu beitragen, Aspektwissensbasen neu zu organisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-0928-4_18 4a9dbba5586f75ed814878656ec52bd0;de;;;2.1.;;;Verwenden von domänenspezifischem Wissen für die automatisierte Modellierung In diesem Beitrag präsentieren wir einen wissensbasierten Ansatz zur automatisierten Modellierung dynamischer Systeme basierend auf Gleichungsfindung. Der Ansatz ermöglicht die Integration von domänenspezifischem Modellierungswissen in den Modellierungsprozess. Es wird ein Formalismus zur Kodierung von Wissen vorgeschlagen, der mathematischen Modellierern aus dem Anwendungsbereich zugänglich ist. Bei einer gegebenen Spezifikation eines beobachteten Systems kann das codierte Wissen leicht in eine operative Form der Grammatik umgewandelt werden, die den Raum von Kandidatenmodellen des beobachteten Systems spezifiziert. Dann, Gleichungserkennungsmethode;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45231-7_5 7697a9ef3570b057592a4fae19665577;de;;;2.1.;;;Die Rolle der Unternehmensmodellierung in virtuellen Unternehmen Die Partner eines virtuellen Unternehmens werden danach ausgewählt, wie gut sie die Qualifikationsanforderungen erfüllen, um eine bestimmte Rolle zu besetzen. Enterprise Modeling ist ein geeignetes Mittel, dies zu unterstützen, indem erstens das Virtuelle Unternehmen und die Qualifikationsanforderungen der Partner definiert werden und zweitens die Informationen im Modell zur Steuerung des Partnerauswahlprozesses verwendet werden. Das Unternehmensmodell stellt Informationen über die Anforderungen der Partner als Eingabe für jedes System bereit, das die Auswahl von Partnern unterstützt. Sobald die Partner ausgewählt sind, kann das System Informationen über diese Partner an das Unternehmensmodell zurückgeben. Dies wird anhand einer Fallstudie und der Erstellung eines Unternehmensmodells mit einer handelsüblichen Modellierungsumgebung veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-29360-4_11 21687c6cfc582905239fecec39a6fa9b;de;;;2.1.;;;Modellierung von Referenzschemata In der natürlichen Sprache bezeichnet man Gegenstände meist mit Eigennamen oder eindeutigen Beschreibungen. Sprachen für die Datenmodellierung und/oder Ontologiemodellierung unterscheiden sich erheblich in ihrer Unterstützung für solche natürlichen Referenzschemata. Das Verständnis dieser Unterschiede ist sowohl für die Modellierung von Referenzschemata innerhalb solcher Sprachen als auch für die Transformation von Modellen von einer Sprache in eine andere wichtig. Dieses Papier bietet einen kritischen und vergleichenden Überblick über die Modellierung von Referenzschemata in der Unified Modeling Language (Version 2.5), dem Barker-Dialekt der Entity-Relationship-Modellierung, der Objektrollenmodellierung (Version 2), der relationalen Datenbankmodellierung und der Web Ontology Language (Version 2.0). Wir identifizieren, welche Arten von Referenzschemata in bestimmten Sprachen erfasst werden können und welche Referenzschemata nicht erfasst werden können. Unsere Analyse umfasst einfache Referenzschemata, zusammengesetzte Referenzschemata, disjunktive Referenzschemata und kontextabhängige Referenzschemata.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38484-4_22 e8e66067b25fdffcd00c44f357dfb52c;de;;;2.1.;;;Zielidentifikation mit harmonischer Wavelet-basierter ISAR-Bildgebung Es wurde ein neuer Ansatz vorgeschlagen, um die bei der ISAR-Bildgebung anfallenden Berechnungen zu reduzieren, die eine harmonische Wavelet-(HW)-basierte Zeit-Frequenz-Darstellung (TFR) verwendet. Da der HW-basierte TFR in eine Kategorie von nichtparametrischen Zeit-Frequenz-(TF)-Analysetools fällt, ist er rechnerisch effizient im Vergleich zu parametrischen TF-Analysetools wie der adaptiven gemeinsamen Zeit-Frequenz-Transformation (AJTFT), der adaptiven Wavelet-Transformation (AWT), und evolutionäre AWT (EAWT). Darüber hinaus wird die Leistung des vorgeschlagenen Verfahrens der ISAR-Bildgebung mit der ISAR-Bildgebung durch andere nichtparametrische T-F-Analysetools wie Kurzzeit-Fourier-Transformation (STFT) und Choi-Williams-Verteilung (CWD) verglichen. Bei der ISAR-Bildgebung liefert die Verwendung von HW-basierter TFR ähnliche/bessere Ergebnisse mit signifikanten (92%) Rechenvorteilen im Vergleich zu denen von CWD. Die so erhaltenen ISAR-Bilder werden unter Verwendung eines Klassifikationsschemas auf Basis eines neuronalen Netzwerks identifiziert, wobei der Merkmalssatz invariant gegenüber Translation, Rotation und Skalierung ist.;-;-;-;https://link.springer.com/article/10.1155/ASP/2006/86053 1152d70c262bfa36704faa3178e9172f;de;;;2.1.;;;Kombination mehrerer Klassifikatoren unter Verwendung der Hybrid-Vote-Technik mit Blattaderwinkel, CNN- und Gabor-Funktionen zur Pflanzenerkennung Moderne Pflanzenidentifikationssysteme hängen stark von robusten Merkmalen und Klassifikationsalgorithmen ab, möglicherweise der Kombination mehrerer Modalitäten. In diesem Artikel haben wir tiefe CNN-Merkmale verwendet und die zwischen zwei Adern vorhandenen Adernwinkel als Merkmale zur Klassifizierung von Pflanzen eingeführt. Wir haben 5 Arten von Klassifikatoren zur Klassifizierung verwendet und die Ergebnisse wurden mit dem Bewertungsmaß Mean Reciprocal Rank (MRR) und dem F-Maß verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0493-5_28 47bb3a6a98861913939c49ac35e38723;de;;;2.1.;;;Neurophysiologische merkmalsbasierte Erkennung von mentaler Arbeitsbelastung durch Ensemble Support Vector Machines Die Bewertung der mentalen Arbeitsbelastung (MWL) des menschlichen Bedieners ist entscheidend, um potenzielle Unfälle in kollaborativen Mensch-Maschine-Systemen zu vermeiden. Eine kontinuierliche und objektive Bewertung des MWL kann durch die Überwachung neurophysiologischer Signale erreicht werden. Die konventionellen Studien zu diesem neuroergonomischen Thema betrachteten normalerweise die meisten der drei MWL-Ebenen aufgrund des Fehlens der richtigen Klassenmarkierungstechnik und der geringen Verallgemeinerungsfähigkeit von einfach strukturierten Klassifikatoren. In der vorliegenden Studie werden fünf Zielniveaus der MWL mit Hilfe der Laplace-Eigenmap-basierten Elektroenzephalogramm-(EEG)-Merkmalsreduktionstechnik und einem Klassifikator-Ensemble mit mehreren Support-Vektor-Maschinen vorhergesagt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0207-6_64 7615e11c0cfea4a076d34f478eab7ed3;de;;;2.1.;;;Kohärenz in modular aufgebauten adaptiven Lerndokumenten In diesem Beitrag schlagen wir den Multibook-Ansatz vor, wie die Kluft zwischen Adaptivität und Lesbarkeit verringert werden kann. Wir zeigen, wie eine Wissensbasis durch Metadaten (LOM), rhetorisch-didaktische Beziehungen und eine zugrundeliegende Ontologie beschrieben werden muss, damit die Lernenden Kohärenz aus dem modular aufgebauten Dokument aufbauen können.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44595-1_50 79b0de8b3a62337be79abd01ad1b8bd5;de;;;2.1.;;;Mit Glue die Discovery-Szenarien der SWS-Challenge lösen In diesem Kapitel stellen wir SWE-ET vor, die Lösung, die wir für die SWS-Challenge vorgeschlagen haben. SWE-ET ist eine Verbindung von zwei Komponenten: Eine ist das WebRatio-Framework, das hauptsächlich zur Lösung der Mediation-Szenarien verwendet wird, und die andere Glue, die zur Lösung der Discovery-Szenarien verwendet wird. Dieses Kapitel konzentriert sich auf die Discovery-Szenarien, daher beschreiben wir alle Funktionen von Glue im Detail, während wir WebRatio teilweise beschreiben, indem wir nur die Funktionen diskutieren, die zur Lösung der Discovery-Szenarien der Challenge genutzt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-72496-6_11 8e55e7172d2056da55394ca34de02ebb;de;;;2.1.;;;Aktivieren der datenschutzwahrenden semantischen Präsenz in Instant Messaging-Systemen In allgegenwärtigen Umgebungen ist die präsenzbasierte Anwendungsentwicklung über Presence Management Systems (PMS) ein Schlüsselfaktor, um das Management von Kommunikationskanälen zu optimieren und die Produktivität zu steigern. Lösungen für das Präsenzmanagement sollten die Interoperabilitätsanforderungen erfüllen und ihrerseits eine kontextzentrierte Präsenzanalyse und ein Datenschutzmanagement ermöglichen. Um PMSs in Richtung flexibles, offenes und kontextbewusstes Präsenzmanagement voranzutreiben, schlagen wir eine Anpassung von zwei Erweiterungen an Standard-XMPP auf XML-Basis für den Nachrichtenaustausch in Online-Kommunikationssystemen vor. Der Beitrag ermöglicht eine komplexere Spezifikation und Verwaltung von verschachtelten Gruppen- und Datenschutzlisten, wobei semantische Technologien verwendet werden, um alle Nachrichten in RDF-Vokabulare abzubilden und den Weg für eine breitere semantische Integration heterogener und verteilter Präsenzinformationsquellen in das Standard-PMS-Framework zu ebnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24279-3_9 f60c98f106272ffd36f2824e63729caf;de;;;2.1.;;;NoGOA: Vorhersage von verrauschten GO-Annotationen anhand von Beweisen und spärlicher Darstellung Gene Ontology (GO) ist ein Gemeinschaftsprojekt, um funktionelle Merkmale von Genprodukten darzustellen. GO-Annotationen (GOA) stellen funktionelle Assoziationen zwischen GO-Begriffen und Genprodukten bereit. Aus Ressourcengründen wird nur ein kleiner Teil der Annotationen manuell von Kuratoren geprüft, der Rest elektronisch abgeleitet. Obwohl Qualitätskontrolltechniken angewendet wurden, um die Qualität der Anmerkungen sicherzustellen, berichtet die Community immer wieder, dass es immer noch beträchtliche verrauschte (oder falsche) Anmerkungen gibt. Angesichts der breiten Anwendung von Anmerkungen ist die Identifizierung von verrauschten Anmerkungen jedoch ein wichtiges, aber noch selten untersuchtes offenes Problem.;-;-;-;https://link.springer.com/article/10.1186/s12859-017-1764-z 6c066877b7654058dc0620102f6adba7;de;;;2.1.;;;Eine Anwendung von OWA-Operatoren auf die Aggregation mehrerer Klassifizierungsentscheidungen Das Papier betrachtet ein Klassifikationsschema, das aus der Zusammenlegung mehrerer Klassifikatoren und der Aggregation ihrer Entscheidungen besteht. Die einzelnen Entscheidungen werden als Zugehörigkeitsgrade behandelt, die der Klassifizierer dem zu klassifizierenden Objekt zuweist. Uns interessiert, wie die OWA-Operatoren im Vergleich zu einfachen Voting-, linearen und logarithmischen Techniken abschneiden. Im Allgemeinen scheinen alle Aggregationsschemata von gleicher Qualität zu sein, den einzelnen Klassifikatoren überlegen. Es zeigte sich, dass OWA-Operatoren tendenziell besser generalisieren als ihre Konkurrenten, wenn die einzelnen Klassifikatoren übertrainiert sind. Die Idee wird an einem realen und an einem künstlichen Datensatz illustriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-6123-1_25 7b09865aad8f7ad18639e207c96316b9;de;;;2.1.;;;Integriertes Modell der Support Vector Machine basierend auf der Optimierung des künstlichen Fischalgorithmus Ensemble Learning ist in letzter Zeit zu einem heißen Thema im maschinellen Lernen geworden. Die Generalisierungsleistung von Ensemble-Klassifizierungssystemen wurde durch das Training und die Kombination einiger genauer und vielfältiger Klassifikatoren dramatisch verbessert als GASEN und CLU_ENN. Der AFSA wird verwendet, um die Ensemblegewichte von Basis-SVMs für SVM-Ensembles zu optimieren, nachdem einzelne SVMs des Ensembles trainiert wurden. Jene SVMs mit Gewichtungen, die größer als ein gegebener Schwellenwert sind, werden zusammengefasst. Das Verfahren des selektiven Ensembles wird erreicht, um eine bessere Leistung als herkömmliche Verfahren zu erzielen, die alle Basis-SVMs zusammenfassen. Die simulierten Experimentergebnisse zu UCI und StatLog zeigen, dass die vorgeschlagene Methode eine bessere Leistung aufweist und die AFSA ihre Überlegenheit bei der Optimierung der Gewichte von SVM-Ensembles und auch bei der Betriebseffizienz hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34041-3_55 935163b997e466f4e1f037d0cd7480c0;de;;;2.1.;;;Anatomische Variabilität Alle anatomischen Holzatlanten zeigen deutlich genetische Unterschiede zwischen Taxa, aber auch der Grad der Variabilität innerhalb der Familien ist sehr unterschiedlich. Einige Familien sind sehr heterogen (8.1-8.4), andere sind homogen (8.8-8.10). Hier zeigen wir diese Tatsache anhand einfacher holzanatomischer Merkmale von krautigen Pflanzentrieben der Ranunculaceae, Baumstämmen der Oleaceae und Strauchstämmen der Labiatae.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-32525-5_9 d328067a6efc30fff2b114d3ac671b4b;de;;;2.1.;;;Strukturierte Ereignisauflösung in humanitären Bereichen In Bereichen wie Humanitäre Hilfe und Katastrophenhilfe (HADR) stehen eher Ereignisse als benannte Entitäten im Fokus von Analysten und Hilfsbeamten. Ein wichtiges Problem, das gelöst werden muss, um Hilfsanbietern ein Situationsbewusstsein zu bieten, ist die automatische Clusterung von Unterereignissen, die sich auf dasselbe zugrunde liegende Ereignis beziehen. Eine effektive Lösung des Problems erfordert den umsichtigen Einsatz sowohl domänenspezifischer als auch semantischer Informationen sowie statistischer Methoden wie tiefe neuronale Einbettungen. In diesem Papier stellen wir einen Ansatz vor, AugSEER (Augmented Feature Sets for Structured Event Entity Resolution), der Fortschritte bei der tiefen neuronalen Einbettung sowohl in Text- als auch in Graphdaten mit minimal überwachten Eingaben von Domänenexperten kombiniert. AugSEER kann sowohl in Online- als auch in Batch-Szenarien betrieben werden. Bei fünf realen HADR-Datensätzen übertrifft AugSEER im Durchschnitt das nächstbeste Basisergebnis um fast 15 % bei der Clusterreinheitsmetrik und um 3 % bei der F1-Measure-Metrik. Im Gegensatz dazu erwiesen sich textbasierte Ansätze als schlecht, was die Bedeutung semantischer Informationen bei der Entwicklung einer guten Lösung demonstriert. Wir verwenden auch Sub-Event-Clustering-Visualisierungen, um das qualitative Potenzial von AugSEER zu veranschaulichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00671-6_14 6102c9a78f6b4a42f6831fa18d5be66a;de;;;2.1.;;;Ansatz zur Vorhersage der Situationsentwicklung basierend auf Ereigniserkennung in heterogenen Datenströmen Der Artikel beschäftigt sich mit der Problematik der automatisierten Prognose der Situationsentwicklung auf Basis der Analyse heterogener Datenströme. Bestehende Lösungsansätze für dieses Problem werden analysiert und deren Vor- und Nachteile ermittelt. Die Autoren schlagen einen neuartigen Ansatz zur Vorhersage der Situationsentwicklung basierend auf der Ereigniserkennung in Datenströmen vor. Der Artikel analysiert verschiedene Modelle von Ereignissen und Situationen sowie Ereigniserkennungsmethoden, die bei der Verarbeitung heterogener Daten verwendet werden. Ein Verfahren zur Generierung möglicher Szenarien der Situationsentwicklung wird beschrieben. Die Methode generiert Szenarien nach dem Prinzip der historischen Analogie unter Berücksichtigung der Dynamik der aktuellen Situationsentwicklung. Die Wahrscheinlichkeit der Umsetzung der generierten Szenarien wird über die logistische Regression geschätzt. Der generierte Satz von Szenarien wird unter Verwendung des analytischen Hierarchieprozesses analysiert, um das optimistische und das pessimistische Szenario zu identifizieren. Die Autoren beschreiben eine Möglichkeit, Szenarien mit Empfehlungen für Entscheidungsträger zu ergänzen. Die Ergebnisse der experimentellen Bewertung der Qualität des vorgeschlagenen Ansatzes werden vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-96553-6_16 8852f723764be738472da225b1f8ecb2;de;;;2.1.;;;Eine auf einem genetischen Algorithmus basierende Methode des Frühwarn-Rule-Mining zur Vorhersage der Schülerleistung Die Vorhersage des Versagens von Schülern beim Lernen von Kursen ist aufgrund der Vielzahl von Faktoren, die die geringe Leistung der Schüler beeinflussen können, zu einem sehr schwierigen Thema geworden, und es ist schwierig, klassische statistische Methoden zu verwenden, da die Ergebnisse für den Endbenutzer normalerweise sehr schwer zu verstehen sind . In dieser Studie wird ein genetischer Algorithmusansatz vorgeschlagen, um diese Probleme unter Verwendung eines Datensatzes von 576 Kurslerninformationen von Hochschulstudenten zu lösen. Erstens ist ein Mechanismus der Chromosomencodierung entworfen, um ein assoziiertes Individuum, nämlich die Klassifikationsregel, darzustellen. Zweitens wird eine flexible Fitnessfunktion vorgeschlagen, um die Qualität jedes Einzelnen zu bewerten, die einen Kompromiss zwischen Sensitivität und Spezifität eingehen kann. Drittens wird eine Reihe von genetischen Operatoren einschließlich Selektion, Crossover und Mutation konstruiert, um Nachkommen aus den fittesten Individuen zu erzeugen, um die beste Lösung für unser Problem auszuwählen, die leicht als Frühwarnregel verwendet werden kann, um das Versagen der Schüler im Kurs vorherzusagen Lernen. Schließlich wurde durch das Testen des Modells eine Konsistenz zwischen den vorhergesagten Ergebnissen und den beobachteten Daten nachgewiesen, was darauf hindeutet, dass die verwendete Methode vielversprechend ist, um gefährdete Schüler zu identifizieren. Das interpretierbare Ergebnis ist ein erheblicher Vorteil gegenüber anderen klassischen Methoden, da es einen sowohl genauen als auch verständlichen Klassifikator für die Vorhersage der Schülerleistung erhalten kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00006-6_7 30588e03e7236397b43da598ea411b48;de;;;2.1.;;;Buchrechte machen, richtig Im Jahr 2017 veröffentlichte die Book Industry Study Group (BISG), ein US-amerikanischer Handelsverband, der sich der Verbesserung der Effizienz und Effektivität der Lieferkette der Buchindustrie widmet, Publishing Rights: An Untapped Opportunity. Das Whitepaper skizzierte sechs Ergebnisse einer Branchenumfrage. Seitdem hat der Rechteausschuss des BISG diese anfängliche Forschung erweitert, indem er einen Entwurf einer Taxonomie für Rechtetransaktionen aktualisiert hat. Die neue Taxonomie definiert Rechtedaten, Transaktionsanfragen, Transaktionslizenzen und Lizenzgebühren. Die Taxonomie wird derzeit in einer Reihe von Pilotvereinbarungen zwischen Handelspartnern getestet. Zu den Vorteilen der vorgeschlagenen Taxonomie werden voraussichtlich niedrigere Transaktionskosten, weniger Fehler bei der Nachverfolgung und dem Verkauf von Rechten und verbesserte Bearbeitungszeiten für Rechteanfragen gehören. Informationen zur Arbeit erhalten Sie schriftlich an info@bisg.org.;-;-;-;https://link.springer.com/article/10.1007/s12109-020-09758-6 b3b2d5e835c69e9d35fde07b8f70a5b9;de;;;2.1.;;;Entwicklung eines semantischen und syntaktischen Modells natürlicher Sprache mittels nicht-negativer Matrix und Tensorfaktorisierung Es wird ein Verfahren zur Entwicklung eines Strukturmodells der Syntax und Semantik natürlicher Sprache vorgeschlagen. Syntaktische und semantische Beziehungen zwischen Satzteilen werden in Form einer rekursiven Struktur dargestellt, die als Kontrollraum bezeichnet wird. Numerische Eigenschaften dieser Daten werden in mehrdimensionalen Arrays gespeichert. Nach der Faktorisierung dienen die Arrays als Grundlage für die Entwicklung von Verfahren zur Analyse der Semantik und Syntax natürlicher Sprache.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10816-2_40 4606f6c81aec17c0f07d2b15ac1384b5;de;;;2.1.;;;Personalisierte Werbung mit Unterstützung von Agenten Dieser Beitrag berichtet über die Entwicklung einer B2B-Plattform zur Personalisierung der während der Programmpausen übermittelten Werbung. Die gesamte Plattform muss sicherstellen, dass die Intervalle mit Anzeigen gefüllt werden, die dem Profil, dem Kontext und den geäußerten Interessen der Zuschauer entsprechen. Die Plattform fungiert als elektronischer Marktplatz für Werbeagenturen (Content Producer Companies) und Multimedia Content Provider (Content Distribution Companies). Die auf der Plattform registrierten Unternehmen werden durch Agenten vertreten, die den Preis der Intervall-Zeitfenster automatisch entsprechend der vorgegebenen Preisspanne und des Anpassungsverhaltens aushandeln. Die Kandidatenanzeigen für ein gegebenes Zuschauerintervall werden durch einen Abgleichmechanismus zwischen Anzeigen-, Zuschauer- und dem aktuellen Kontext-Profil (das angeschaute Programm) ausgewählt. Die Gesamtarchitektur der Plattform besteht aus einem Multiagentensystem, das in drei Schichten organisiert ist, bestehend aus: (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-00551-5_57 864dc65d118a2748021472cf5c441990;de;;;2.1.;;;Mikromorphologie, Anatomie und Myxokarpie von Nüssen von Selected Lamiaceae ist eine große Familie mit 220 Gattungen und fast 4.000 Arten, die weit verbreitet sind. Einer der Bereiche mit der größten morphologischen Vielfalt dieser Familie ist der Mittelmeerraum. Eine Reihe von Arten wird als Balkan-Endemie anerkannt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-5274-7_19 f2368705f91d0dbbd57f342510707b57;de;;;2.1.;;;Turings Cyberworld In einem langen E-Mail-Gespräch im Jahr 1999 unternahmen Rafael Capurro und ich die Themaeutik eines hermeneutischen Zugangs zu einem digitalen Phänomen, das wir Digitalontologie nannten. Der vorliegende Beitrag verwendet diese Ontologie, um die Diskussion über die Idee der Universal Turing Machine zu vertiefen, die als ontologische Blaupause für die Grundeinheit der heutigen künstlichen Cyberwelt dient. Ihre Arbeitsweise dient daher auch als Leitfaden für die Untersuchung der Räumlichkeit und Zeitlichkeit dieser künstlichen Dimension, der die Menschheit heute mehr als willig ausgesetzt ist. Insbesondere eine Untersuchung der linearen, logisch kausalen „Zeitlichkeit“ der Turingmaschine zeigt einen Kontrast zur dreidimensionalen, „ekstatischen“ Zeitlichkeit der von Menschen geteilten Welt. Eigentlich ist eine Turing-Maschine ein Apparat, um Bit-Strings zeitlos zu kopulieren, also ein digitaler „Kopulator“. Nur dadurch, dass sie in die existenzielle Welt des Menschen eingebettet ist, ist die Cyberwelt in der Zeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-14681-8_4 082e1167ee5b448c927fcc4f1bb6c355;de;;;2.1.;;;Typisierte lineare kettenbedingte Zufallsfelder und ihre Anwendung auf die Einbruchserkennung Intrusion Detection in Computernetzwerken steht vor dem Problem einer Vielzahl von Fehlalarmen und unerkannten Angriffen. Um die Erkennungsgenauigkeit zu verbessern, wurden verschiedene Techniken des maschinellen Lernens vorgeschlagen. Ein kritischer Punkt ist jedoch, dass die Menge an Referenzdaten, die schwerwiegende Angriffe enthalten, sehr gering ist. In diesem Papier stellen wir einen Inferenzprozess mit linearen kettenbedingten Zufallsfeldern vor, der darauf abzielt, dieses Problem zu lösen, indem Domänenwissen über die Warnungen verschiedener Intrusionssensoren verwendet wird, die in einer Ontologie dargestellt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15381-5_2 5ccf2685ceae2ac7a3272753150998b6;de;;;2.1.;;;Strukturanalyse von Anweisungsäußerungen Um ein System zu entwerfen, das verschiedene Werke interaktiv und visuell lehrt, schlägt dieser Beitrag eine Methode zur Analyse von Instruktionsäußerungen vor. Eines der größten Probleme im Umgang mit gesprochener Sprache ist die Ellipsen-/Anapher-Auflösung. Wir lösen es mit einem domänenspezifischen Fallrahmenwörterbuch, das automatisch aus einer großen Menge von Texten erstellt wird. Dann hängen wir den Äußerungstyp an, um Aktionen von Notizen, Tipps usw. zu unterscheiden. Basierend auf dem angehängten Typ analysieren wir die Diskursstruktur von Äußerungen und erkennen eine Einheit von Aktionen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45226-3_144 6d0feeb8da292d99cf4fbb79a52f8c43;de;;;2.1.;;;Behandlung von Quantoren in der Chinesisch-Japanischen maschinellen Übersetzung Quantifizierer und Zahlen verursachen oft Fehler bei der maschinellen Übersetzung Chinesisch-Japanisch. In diesem Beitrag wird ein Ansatz vorgeschlagen, der auf den syntaktischen Merkmalen nach der Klassifikation basiert. Unter Verwendung des Unterschieds in Art und Position von Quantoren zwischen Chinesisch und Japanisch wurden Quantorenübersetzungsregeln erfasst. Die Auswertung erfolgte unter Verwendung der erworbenen Übersetzungsregeln. Schließlich wurde die Anpassungsfähigkeit der experimentellen Daten überprüft und die Methoden erreichten eine Genauigkeit von 90,75 %, was zeigte, dass sie bei der Verarbeitung von Quantoren und Zahlen effektiv waren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-37275-2_117 7376a77c4d074ce5484f2fa1866be7e4;de;;;2.1.;;;Tags4Tags: Verwenden von Tagging zur Konsolidierung von Tags Tagging wird in verschiedenen sozialen Netzwerken und Anwendungen immer beliebter und nützlicher. Es ermöglicht Benutzern, Ressourcen zu klassifizieren und zu organisieren, um die Abrufleistung gegenüber diesen gekennzeichneten Ressourcen zu verbessern. Innerhalb sozialer Netzwerke können Tags auch die Interaktion zwischen Mitgliedern der Community erleichtern,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03573-9_52 0ce26bbf3edf45c4b9016a8ffcf7bfd3;de;;;2.1.;;;Eine neue Testgenerationsmethodik zur Verifizierung von Produktionsprozessen auf Systemebene Die stetig wachsende Komplexität von Produktionsprozessen wird vor allem durch die Integration intelligenter und kostengünstiger Geräte wie Sensoren und kundenspezifische Hard- oder Softwarekomponenten getrieben. Dies führt natürlich zu einer höheren Komplexität bei der Fehlererkennung und -verwaltung und damit zu einem höheren Bedarf an ausgereiften Qualitätskontrollwerkzeugen. Ein Produktionsprozess wird üblicherweise vor seiner physischen Konstruktion modelliert, um frühzeitige Tests zu ermöglichen. Viele Simulationsplattformen wurden entwickelt, um die sehr unterschiedlichen Aspekte des Produktionsprozesses zu bewerten, einschließlich des physikalischen Verhaltens, der Hardware-Software-Funktionalität und der Leistung. Die Wirksamkeit der Simulation zur Verifikation modellierter Prozesse wird jedoch durch manuelle Bedienung und Beobachtung noch weitgehend eingeschränkt. Wir schlagen eine massiv zufällige, ontologiebasierte Testgenerierungsmethodik für die Verifikation von Produktionsprozessen auf Systemebene vor. Die Methodik wurde erfolgreich für die simulationsbasierte Verifikation von Prozessorhardware angewendet und hat sich als kostengünstige Lösung erwiesen. Wir zeigen, dass es bei der Überprüfung von Produktionsprozessen und der Kontrolle ähnlich vorteilhaft sein kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39611-3_19 d4f07e951a4243e8efcdcc70f0973d7b;de;;;2.1.;;;Überprüfung aus der Perspektive des Designprozesses In diesem Abschnitt werden die Ergebnisse von IMPROVE aus anwendungsorientierter Sicht kurz zusammengefasst und bewertet. Das Anwendungsdomänenmodell, seine Verwendung zur Verbesserung von Designprozessen und seine Implikationen für die Entwicklung von Designunterstützungswerkzeugen bilden den Schwerpunkt. Wir kommen zu dem Schluss, dass der Modellrahmen einen hohen Standard erreicht hat und eine gute Basis für weitere Verfeinerungen und Erweiterungen darstellt. Das Modell benötigt jedoch noch mehr Validierung in industriellen Fallstudien. Die Diskussion dieses Abschnitts erfolgt aus wissenschaftlicher Sicht. Die industrielle Relevanz von Designprozessergebnissen wird in Abschn. 8.3.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-70552-9_36 8da8ad33555754f64a6522e2329df12d;de;;;2.1.;;;XML-SIM-CHANGE: Struktur- und Inhaltssemantische Ähnlichkeitserkennung zwischen XML-Dokumentversionen XML-Dokumente aus unterschiedlichen Quellen können hinsichtlich Inhalt und Struktur gleiche oder ähnliche Informationen darstellen. Für Abfragesysteme und Suchmaschinen ist es wichtig, ähnliche XML-Dokumente integrieren zu können. Da sich Informationen jedoch regelmäßig ändern, ist es wichtig, die Änderungen zwischen verschiedenen Versionen eines XML-Dokuments zu erkennen und die geänderten Informationen zu verwenden, um semantische Ähnlichkeiten zwischen XML-Dokumenten zu erkennen. In diesem Whitepaper stellen wir einen solchen Ansatz vor, um XML-Ähnlichkeiten zu erkennen, indem wir den Änderungserkennungsmechanismus verwenden, um XML-Dokumentversionen zu verbinden. Bei unserem Ansatz spielen Schlüssel in Teilbäumen eine wichtige Rolle, um unnötige Vergleiche von Teilbäumen innerhalb verschiedener XML-Versionen desselben Dokuments zu vermeiden. Wir verwenden eine relationale Datenbank zum Speichern von XML-Versionen und wenden SQL an, um Ähnlichkeiten zu erkennen. Wir zeigen, dass unser Ansatz hoch skalierbar ist und eine bessere Effizienz in Bezug auf die Ausführungszeit und eine vergleichbare Ergebnisqualität bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16949-6_29 c79485f58eb5ad073d6ad87722f098b9;de;;;2.1.;;;Erforschung der automatisierten Bewertung subjektiver Tests basierend auf Domänenontologie Automatisierte Scoring-Technologie zielt darauf ab, den Arbeitsaufwand bei Hausaufgaben oder Prüfungen zu reduzieren und die Fairness zu gewährleisten. Daher hat das Studium der automatisierten Scoring-Technologie und ihres Implementierungsprozesses große praktische Bedeutung. Ein Verfahren zur automatisierten Bewertung von subjektiven Tests basierend auf Domänenontologie und Korpus wird vorgeschlagen, um die Existenzprobleme von automatisierten Bewertungssystemen zu lösen. Die Konzeption der Domänenontologie wird eingeführt und eine Software-Engineering-Domäne aufgebaut. Einige Schlüsseltechnologien umfassen die chinesische Wortsegmentierung, den TF-IDF-Algorithmus, der verwendet wird, um die Bedeutung jedes Schlüsselworts in Texten zu berechnen, und die Berechnung der Textähnlichkeit werden detailliert beschrieben. Die im Beitrag erwähnte Methode wurde bei der automatisierten Bewertung von Kurzantwortfragen des Software-Engineerings angewendet. Der Vergleich zwischen den Ergebnissen des automatischen Bewertungssystems und den Lehrern beweist die Angemessenheit des Modells.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45071-0_37 78ffa7d4653df5f33a70bcb0f31e1afb;de;;;2.1.;;;Wissenszentriertes Management von Geschäftsregeln in einer Apotheke Eine Geschäftsregel definiert oder schränkt einen Aspekt des Geschäfts ein. Im Gesundheitswesen werden viele Geschäftsregeln durch Gesetze oder medizinische Vorschriften vorgegeben, die sich ständig ändern. Dies ist eine Herausforderung für die Gesundheitsorganisationen. Obwohl es mehrere kommerzielle Business Rule Management Systeme gibt, besteht das Problem aus Apothekensicht darin, dass diese Systeme zu sehr auf die Automatisierung und Manipulation von Geschäftsregeln ausgerichtet sind, während der Hauptbedarf in Apotheken im einfachen Abrufen von Geschäftsregeln im Alltag liegt. Ein weiteres Problem besteht darin, dass Business Rule Management Systeme isoliert sind, da sie über eigene Datenspeicher verfügen, auf die andere in Apotheken verwendete Informationssysteme nicht zugreifen können. Als Ergebnis wird ein Apotheker durch den Zugriff auf viele Systeme innerhalb einer Benutzeraufgabe belastet. Um dieses Problem zu vermeiden, haben wir Geschäftsregeln sowie deren Beziehungen zu anderen relevanten Informationen durch OWL (Web Ontology Language) so modelliert, dass die Ontologie zwischen den Anwendungen der Apotheke geteilt wird. Auf diese Weise können wir die Probleme von Insellösungen und replizierten Daten vermeiden. Die Ontologie fördert auch die Agilität des Apothekengeschäfts, d. h. die Fähigkeit, schneller auf die Änderungen zu reagieren, die durch die neuen Geschäftsregeln erforderlich sind. Die Bereitstellung der Ontologie erfordert, dass gespeicherte Geschäftsregeln mit entsprechenden Metadatenbeschreibungen versehen sind, die im RDF/XML-Serialisierungsformat dargestellt werden. Weder der Designer noch der Apotheker werden jedoch durch das RDF/XML-Format belastet, da ausgefeilte grafische Editoren verwendet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16699-0_13 8f50d0cee1c5138d5ff91877dfee0629;de;;;2.1.;;;Heideggers Philosophie der Mathematik als Vorbild für eine Philosophie der Künatlichen Intelligenz Es gibt weder ein Buch noch einen Abschnitt in einem Buch von Heidegger und auch keinen Aufsatz von ihm mit dem Titel „Philosophie der Mathematik“. Im Zusammenhang mit seiner Kant-Interpretation und hier insbesondere bei der Hinführung zur „Kritik der reinen Vernunft“ hat sich Heidegger jedoch recht ausführlich über Grundlagen und Wesen der Mathematik geäufiert. Die Beschäftigung mit Mathematik ist für Heidegger nicht Selbstzweck, sondern Mittel zum Zweck: durch einen Blick auf Mathematik Boden das Verständnis für die „Kritik der reinen Vernunft“ gefördert werden. Deshalb arbeitet er sterben Ausführungen über Mathematik je nach Bedarf und auch recht unsystematisch in seiner streng gegliederten Untersuchung ein. Im ersten Teil meines Vortrags möchte ich eine systematische Präsentation dieser Heideggerschen Philosophie der Mathematik geben. Im zweiten Teil werde ich dann eine Philosophie der Künstlichen Intelligenz skizzieren, sterben Sich sowohl methodisch als auch inhaltlich an der zuvor geschilderten Philosophie der Mathematik als Vorbild orientiert. Das führt — wie ich zeigen werde — zu einer Bereicherung der gegenwärtigen philosophischen Diskussion um die Künstliche Intelligenz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-74688-8_40 3c61584493165eefc41064e207d25557;de;;;2.1.;;;Materialismus Wir haben gesehen, dass der dialektische Materialismus das Grundproblem der Philosophie mehrdeutig formuliert: Dieses Problem kann entweder erkenntnistheoretisch oder ontologisch interpretiert werden. Auch wenn er in diesem letzteren Sinne interpretiert wird, ist der „Materialismus“ in der kommunistischen Philosophie alles andere als eine homogene Lehre: Er besteht aus einem Komplex von Aussagen, von denen einige nur teilweise voneinander abhängig sind, während andere nicht nur voneinander unabhängig sind gehören aber zu ganz anderen Untersuchungsgebieten. Diese Aussagen können in drei Hauptgruppen eingeteilt werden: metaphysisch, ontologisch und psychologisch.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-3629-0_10 4347ede923f401830420589d36765d9b;de;;;2.1.;;;Die Diversity-Rank-Score-Funktion zur Kombination menschlicher visueller Wahrnehmungssysteme Es gibt viele Situationen, in denen eine gemeinsame Entscheidung auf der Grundlage der Beobachtungen oder Entscheidungen mehrerer Personen erwünscht ist. Die Herausforderung besteht darin, zu bestimmen, wann eine kombinierte Entscheidung besser ist als jedes der einzelnen Systeme, zusammen mit der Wahl des besten Wegs zur Durchführung der Kombination. Es hat sich gezeigt, dass die Diversität zwischen den Systemen eine Rolle bei der Leistung ihrer Fusion spielt. An dieser Studie nahmen mehrere Personenpaare teil, die jeweils ein Ereignis sahen und eine Beobachtung zusammen mit ihrem Vertrauensniveau berichteten. Jeder Beobachter wird als visuelles Wahrnehmungssystem behandelt, und daher wird ein zugehöriges Bewertungssystem basierend auf dem Vertrauen des Beobachters erstellt. Eine Diversity-Rang-Score-Funktion für einen Satz von Beobachtungspaaren wird unter Verwendung des Begriffs der kognitiven Diversität zwischen zwei Bewertungssystemen im Rahmen der kombinatorischen Fusionsanalyse berechnet. Der resultierende Diversity-Rang-Score-Funktionsgraph stellt ein leistungsstarkes Visualisierungswerkzeug für die Diversity-Variation zwischen einem Satz von Systempaaren bereit und hilft dabei zu identifizieren, welche Systempaare am wahrscheinlichsten eine verbesserte Leistung bei Kombination zeigen.;-;-;-;https://link.springer.com/article/10.1007/s40708-016-0037-3 e39fbb0955227daf8acb992576d61874;de;;;2.1.;;;Phänomenalismus und die kausale Wahrnehmungstheorie: Eine kombinierte Theorie Wir haben gesehen, dass weder die klassische Kausaltheorie der Wahrnehmung noch der ontologische Phänomenalismus eine adäquate Erkenntnistheorie der Wahrnehmung bieten. Die klassische Kausaltheorie impliziert eine Kausalanalyse des Wahrnehmens und eine realistische Metaphysik, die nicht geleugnet werden kann, ohne sowohl dem Konzept des Wahrnehmens als auch dem gesunden Menschenverstand Gewalt anzutun, aber erkenntnistheoretisch scheitert. Der ontologische Phänomenalismus ist aus rein erkenntnistheoretischer Sicht sehr attraktiv, scheitert aber daran, dass er mit einer Kausalanalyse des Wahrnehmens unvereinbar ist und auch andere metaphysische Absurditäten impliziert. Der analytische Phänomenalismus ist ein Versuch, die erkenntnistheoretischen Vorteile des ontologischen Phänomenalismus zu sichern, ohne sich dessen metaphysischen Paradoxien zuzuziehen. Ob es dem analytischen Phänomenalismus gelingt, eine adäquate Erkenntnistheorie der Wahrnehmung zu liefern, hängt also (wie ich im vorigen Kapitel sagte) von zwei Fragen ab. Erstens ist der analytische Phänomenalismus mit der Kausalanalyse des Wahrnehmens und der realistischen Metaphysik der Kausaltheorie vereinbar, d. e. kann man durchweg sowohl ein phänomenaler als auch ein (kausaler) Realist sein? Zweitens, liefert der analytische Phänomenalismus eine angemessene Erklärung für die Rechtfertigung von Wahrnehmungsglauben über physische Dinge? In diesem Kapitel werde ich argumentieren, dass beide Fragen bejahend beantwortet werden können. Die Abschnitte 1–3 befassen sich hauptsächlich mit der ersten Frage und die Abschnitte 4–6 hauptsächlich mit der zweiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-9048-7_8 c64f04ec7fa540693449b11e1fd051e9;de;;;2.1.;;;Wissens- und Entscheidungsunterstützung für das Gefahrenbewusstsein In Bezug auf Gefahren, die entweder durch natürliche Ursachen oder durch menschliche Aktivitäten entstehen, ist heute Bewusstsein ein wichtiges Thema, das nicht nur für die schnelle Reaktion von Einsatzkräften, sondern auch für die um die Risiken besorgten Personen unerlässlich ist. Der in diesem Kapitel beschriebene Ansatz basiert darauf, das Fachwissen von Spezialisten einer breiten Öffentlichkeit zugänglich zu machen. Dies wurde zunächst durch eine Auswahl grundlegender Konzepte über radiologische und nukleare Schwachstellen und deren Organisation in einer Ontologie realisiert, die zur Definition einer Website verwendet wird. Zweitens wurden die Regeln für die Entscheidungsfindung bei Gefahrenereignissen aus den öffentlichen Berichten der Atomenergiebehörden extrahiert, formalisiert und in einen Softwaresimulator implementiert. Drittens wurden die Prozesse für verschiedene Risikoarten grafisch dargestellt, um ein Bewusstsein für die zu ergreifenden Maßnahmen, die in jeder Situation empfohlenen Maßnahmen und deren Zeitpunkt zu schaffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-66196-0_16 7b9214d9bba47f2897f68fbbe7585962;de;;;2.1.;;;Fazit – Maritain und einige zeitgenössische Ansichten Jede Bestimmung der Ontologie eines Werkes hängt natürlich davon ab, was mit „Werk“ bezeichnet wird. Maritain hat darauf hingewiesen, dass, obwohl keine genaue Abgrenzung möglich ist, „Kunstwerke“ auf menschliche Artefakte angewendet werden, die mehr Erfolg haben, ein Gut an sich zu sein. Bei ihrer Herstellung ist nicht eine werkextrinsische Rücksicht, ein Bedürfnis, bedient zu werden, die primäre Regel, keine schöpferische Idee eines Handwerkers, die im Sinne des Nutzens formuliert ist, wird als „geistiger Keim“ des Werkes fungieren. Stattdessen wird das Werk eine eigenständige Welt sein, und sein Keimprinzip wird die poetische Intuition sein,;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-2484-6_5 119fe7f023983f031fb74a60e7205438;de;;;2.1.;;;Auf dem Weg zur semantischen Anreicherung bestehender Online-3D-Gebäudegeometrie zur Veröffentlichung verknüpfter Gebäudedaten Derzeit haben bestehende Online-3D-Datenbanken jeweils eine eigene Struktur nach ihren eigenen Bedürfnissen. Darüber hinaus hat die Mehrheit der Online-Inhalte nur eine begrenzte Semantik. Mit dem Aufkommen von Semantic-Web-Technologien ergibt sich die Möglichkeit, die Informationen in diesen Datenbanken semantisch anzureichern und allgemein zugänglich und abfragbar zu machen. Ziel ist es zu untersuchen, ob Online-3D-Inhalte aus verschiedenen Repositorien von einem einzigen Algorithmus verarbeitet werden können, um die gewünschte Semantik zu erzeugen. Der Schwerpunkt dieser Arbeit liegt auf der Extraktion von Bauteilen aus der generischen 3D-Gebäudegeometrie und deren Veröffentlichung als Linked Building Data.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-21395-4_10 4c688df7b232efc08b469a7172e54bb8;de;;;2.1.;;;Lösen von Datenkonflikten in Bioinformatik-Workflows durch Generieren von Datenkonvertern Heterogenität von Daten und Datenformaten in der Bioinformatik führt zu Unstimmigkeiten zwischen Inputs und Outputs verschiedener Dienste, was es schwierig macht, sie zu Workflows zusammenzusetzen. Um diese Diskrepanzen zu reduzieren, bieten Bioinformatik-Plattformen Ad-hoc-Konverter, sogenannte Shims, an. Wenn Shims von Hand geschrieben werden, ist ihre Entwicklung zeitaufwändig und kann nicht alle Bedürfnisse vorhersehen. Bei der automatischen Generierung von Shims fehlen ihnen Transformationen, beispielsweise die Datenzusammenstellung aus mehreren Teilen oder die parallele Konvertierung von Listenelementen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-49214-7_3 9db94a344b4bb3556554a51148c0f3eb;de;;;2.1.;;;Ein Fuzzy-Chancen- und Bedrohungsaggregationsansatz in der multikriteriellen Entscheidungsanalyse Die Wirtschaftsexpansion in den Industrieländern in Verbindung mit dramatisch wachsenden Volkswirtschaften in Ländern wie China und Indien hat zu einem stetigen Anstieg der Nachfrage nach Öl und Erdgas geführt. Die Region des Kaspischen Meeres enthält große Mengen an Öl und Erdgas. Da das Kaspische Meer ein Binnenland ist und die Länder der Region von den größten Energiemärkten weit entfernt sind, muss der Transport zumindest über eine Pipeline beginnen. Obwohl derzeit einige Leitungen existieren, müssen Pipelines gebaut werden, die größere Mengen an Energieressourcen transportieren können, um den weltweiten Bedarf zu decken. Diese Studie wurde für einen multinationalen Öl- und Erdgasproduzenten durchgeführt, um einen Multicriteria Decision Analysis (MCDA)-Rahmen zur Bewertung von fünf möglichen Pipelinerouten in der Region des Kaspischen Meeres zu entwickeln. Das vorgeschlagene MCDA-Modell berücksichtigt eine Vielzahl von widersprüchlichen Kriterien im Bewertungsprozess und erfasst die Überzeugungen der Entscheidungsträger (DMs) durch eine Reihe intuitiver und analytischer Methoden wie den analytischen Netzwerkprozess und das Fuzzy-Scoring. Ein Defuzzifizierungsverfahren wird verwendet, um klare Werte aus den subjektiven Beurteilungen und Schätzungen zu erhalten, die von mehreren DMs bereitgestellt werden. Diese knackigen Werte werden mit dem Konzept der Entropie und der Theorie des verschobenen Ideals aggregiert und synthetisiert. Die alternativen Routen werden in einem Diagramm in einem Polarkoordinatensystem aufgetragen und ein Klassifizierungsschema wird zusammen mit der euklidischen Distanz verwendet, um zu messen, welche Alternative der idealen Route näher ist.;-;-;-;https://link.springer.com/article/10.1007/s10700-010-9087-9 5e7a6931dfae2e0a00b2515982a4117d;de;;;2.1.;;;Psychische Aktivität und das Gehirn Nachdem wir uns mit dem Psychischen in seiner Beziehung zur äußeren materiellen Welt beschäftigt haben, bleibt nur noch die zweite Frage, die am Ende des vierten Kapitels gestellt wird, kurz zu diskutieren: die der Beziehung des Psychischen zum Gehirn. Den zweiten Aspekt der Beziehung des Psychischen zur materiellen Welt, d. h. zur inneren Materie des Gehirns, nennt Rubinštejn den „ontologischen“ oder „naturwissenschaftlichen“ Aspekt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-3456-2_7 1e05069661edb2cfcb1b38037adbb3ec;de;;;2.1.;;;Was auch immer den innersten Kern der Welt zusammenhält Entwurf einer allgemeinen Theorie der ontischen Prädikation Verknüpfungen wie die Veranschaulichung sind die grundlegenden Verbindungen, die die Realität als Ganzes strukturieren. Sie sind „formal“ in dem Sinne, dass sie die Form konstituieren, nicht die Materie der Wirklichkeit, und sie sind „transzendental“ insofern, als sie die kategorialen Unterscheidungen zwischen den Bewohnern der Realität transzendieren, einschließlich der zwischen Existierenden und Nicht-Existenten. Ich vertrete eine moderat partikularistische Sicht auf (externe) Zusammenhänge und argumentiere, dass sie nicht nur die beste Lösung für Bradleys Regress bietet, sondern auch eine elegante Darstellung symmetrischer Beziehungen (sowohl formaler als auch materieller) sowie zeitlicher und modaler Veränderungen. Diese Vorteile werden durch die Rekonstruktion einer aristotelischen Ontologie der Exemplifikation unter Einbeziehung von Substanzen, Arten und Materialattributen veranschaulicht.;-;-;-;https://link.springer.com/article/10.1007/s10516-012-9194-z d6709898c1d8eeecf25d69183b3a4a26;de;;;2.1.;;;Echtzeitsteuerung von Großanlagen In dieser Notiz wird eine kurze Beschreibung der Ursprünge des EEC-Echtzeitsteuerungsprojekts und dieses Workshops gegeben. Außerdem wird eine Zusammenfassung von zwei Berichten zum Stand der Technik gegeben, d. h. der über hierarchische Optimierung und Steuerung und der über die dezentrale Steuerung. Der Abschlussbericht zu Zuverlässigkeit und Fehlererkennung wird von Professor Tzafestas auf dem Workshop gehalten, während die hierarchische und dezentrale Steuerung von Professor Schmidt bzw. Professor Titli behandelt wird.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0008282 124c0ae044e49622f2477caaf716efa0;de;;;2.1.;;;Räumliches Denken und Planen im zeichenbasierten Weltmodell Der Beitrag diskutiert die Interaktion zwischen Methoden der Argumentation und Verhaltensplanung in einem zeichenbasierten Weltmodell für die Aufgabe, einen hierarchischen Verlagerungsplan zu synthetisieren. Eine solche Interaktion wird durch den Formalismus intelligenter regelbasierter dynamischer Systeme in Form der abwechselnden Verwendung von Übergangsfunktionen (Planung) und Abschlussfunktionen (Reasoning) repräsentiert. Besonderes Augenmerk wird auf die Möglichkeiten der Informationsdarstellung der räumlichen Beziehungen des Objekts auf der lokalen Karte und die Methoden der Organisation von pseudophysikalischem Denken in einem zeichenbasierten Weltmodell gelegt. Der Beitrag stellt eine Reihe von Modellexperimenten zur Verlagerung eines kognitiven Agenten in verschiedene Umgebungen und zur Ergänzung der Zustandsbeschreibung mittels der Varianten der logischen Inferenz vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00617-4_1 ee7b9d25c5c4c4f901d6bd80be7a9062;de;;;2.1.;;;Eine Studie zum Prozessmodell der Rechenähnlichkeit zwischen Produktfunktionen und Online-Rezensionen Bewertungsähnlichkeitsberechnungen werden verwendet, um zu beurteilen, ob der Inhalt von Online-Bewertungen mit den Produkten in Zusammenhang steht. Sie ist eine wichtige Voraussetzung, um den Nutzen von Bewertungen zu beurteilen, und sie ist auch eine wichtige Grundlage für die Klassifizierung und Sortierung von Produktbewertungen. Dieses Papier kombiniert den VSM-, den TF-IDF-Algorithmus und den Kosinus-Ähnlichkeitsalgorithmus, um das Modell der Ähnlichkeitsberechnung zwischen den Produkt-Online-Bewertungen und den Produktmerkmalen zu erstellen und den Prozessrahmen für die Bewertungsähnlichkeitsberechnung für Unternehmen aufzubauen. Darüber hinaus überprüft dieses Papier auch die Wirksamkeit und Korrektheit des Modells anhand von echten Online-Review-Daten des E-Business. Die Versuchsergebnisse zeigen, dass mit dem Prozessmodell die Ähnlichkeit zwischen Bewertungen und Produktmerkmalen quantifiziert werden kann und sich die Ähnlichkeitsergebnisse auch gut auf die Anwendung der Bewertungssortierung auswirken.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0457-5_27 696e030b1ee3bd69bd333991777e2142;de;;;2.1.;;;Konzept-Zeitstempelung auf Blockchain und Dezentralisierung von Patenten Wir beschreiben ein System zur Registrierung neuer Erfindungen und Designs basierend auf konzeptionellen Graphen und der Blockchain. Anstatt die Innovation in Texten wie in Patentansprüchen zu beschreiben, werden die Ansprüche mithilfe von Konzeptgraphen als strukturierte grafische Methode zur Erfassung von Konzepten und ihrer Beziehung dokumentiert. Konzeptgraphen als strukturierte grafische Methode ermöglichen einfachere automatische semantische Vergleiche. Es vermeidet die Notwendigkeit, semantische Konzepte aus Text unter Verwendung natürlicher Sprachverarbeitungstechniken zu extrahieren. Die Diagramme können dann gehasht und zur Zeitstempelung an die Blockchain gesendet werden, um die Innovation zu beanspruchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1301-5_50 d7b0d12ffd7a649fe58a94a836275387;de;;;2.1.;;;Eine unbeaufsichtigte Methode zur Kurztext-Sentimentanalyse basierend auf der Analyse massiver Daten Gängige Formen von Kurztexten sind Microblogs, Twitter-Posts, kurze Produktrezensionen, kurze Filmrezensionen und Instant Messages. Die Stimmungsanalyse von ihnen ist ein heißes Thema. In diesem Beitrag wird ein hochgenaues Modell für die Kurztext-Sentimentanalyse vorgeschlagen. Die Forschungen zielen auf Mikroblogs, Produktrezensionen und Filmrezensionen ab. Wörter, Symbole oder Sätze mit emotionalen Tendenzen erweisen sich als wichtige Indikatoren in der Kurztext-Sentiment-Analyse basierend auf massiven Nutzerdaten. Es ist eine effektive Methode, um emotionale Tendenzen von kurzen Texten mit diesen Funktionen vorherzusagen. Das Modell hat das Phänomen der Polysemie in einstelligen emotionalen Wörtern im Chinesischen bemerkt und diskutiert ein- und mehrzeichenige emotionale Wörter getrennt. Die Idee des Modells kann verwendet werden, um mit verschiedenen Arten von Kurztextdaten umzugehen. Experimente zeigen, dass dieses Modell in den meisten Fällen gut funktioniert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46248-5_21 6bb3d2974f1c17af34827110e1ed91b0;de;;;2.1.;;;Liebe als konkreter Kern des Seins Der erste Teil dieser Studie distanzierte Sympathie und Liebe von allen empirisch-psychologischen Phänomenen, in denen eine radikale Loslösung vom „Anderen“ bzw. Bei Phänomenen wie der ansteckenden Nachahmung, der Reproduktion der eigenen Erfahrung und der Projektion dieser Erfahrung auf einen anderen, den vielfältigen Formen der Selbsttäuschung, fehlt es grundsätzlich an der einen, die andere genau als andere zu erkennen. Das gleiche Versäumnis, den anderen als zu erkennen;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-2796-0_4 ece104364cc235bf7cb7cb80ddd22d29;de;;;2.1.;;;Permische Abschnitte der südlichen Primorje: Ein Zusammenhang in der Korrelation der Stufeneinheiten in den Standard- und allgemeinen stratigraphischen Skalen Auf der Grundlage teilweise veröffentlichter Originaldaten zur Korrelation von Permschnitten werden die Stufengrenzen der stratigraphischen Standardskalen (SSS) und allgemeinen (GSS) in verschiedenen paläogeographischen Regionen und Klimagürteln mit zuverlässig belegten Korrelationsniveaus verfolgt. Die Analyse der gemischten west- und ostborealen Kungur-frühen Ufim- und Mittelperm-Boreal-Peri-Gondwanan-Tethyan-Brachiopoden-Ansammlungen aus der südlichen Primorje mit unterschiedlichen stratigraphischen Methoden (Biostratigraphie, Magnetostratigraphie, Ereignisstratigraphie) und Kohlenstoffisotopendaten ermöglicht erstmals fünf Ereigniskorrelationsebenen zu definieren, die in abgelegenen paläogeographischen Regionen nachvollziehbar sind. Vermutliche Analoga der Sheshma-Lagerstätten der GSS-Ufimian-Stufe mit der kasanischen Biota, die in Primorje etabliert und durch das boreale Reich verfolgt wurde, werden der mittleren (biarmischen) Reihe des Perm-Systems zugeschrieben. Die magnetostratigraphische Methode in Kombination mit strenger biostratigraphischer Kontrolle ermöglicht die Korrelation der Roadian-, Capitan-, Wuchiapigi- und Changhsin-Stadien und ihrer Grenzen in der stratigraphischen Standardskala mit den Kasan-, Severodvin- und Vyatk-Stadien (und Grenzen) in der allgemeinen stratigraphischen Skala und mit ähnlichen Einheiten in der Tethyan-Skala anzugeben.;-;-;-;https://link.springer.com/article/10.1134/S1819714015040041 113f2b2b955374efacb1e3623fc71f6e;de;;;2.1.;;;Big-Data-Herausforderungen aus einer integrativen Exposom-/Expotype-Perspektive Die meisten Krankheiten resultieren aus dem komplexen Zusammenspiel von genetischen und umweltbedingten Faktoren. Das Exposom ist ein neues Konzept, das darauf abzielt, biotechnische Ansätze zu definieren, um eine große Teilmenge der Umweltbelastungen eines Individuums von der Empfängnis bis zum Lebensende systematisch zu messen und sie mit dem Gesundheits- und Krankheitszustand in Verbindung zu bringen. Biomedizinische Informatiker haben der Entwicklung von Methoden zur Verarbeitung und Integration von Daten über den Beitrag von Umweltfaktoren zur individuellen Gesundheit bisher nur begrenzte Aufmerksamkeit geschenkt. Es besteht ein Bedarf an neuen digitalen Methoden und Ressourcen, die zuverlässige und aktualisierte Informationen über Umweltfaktoren, die unsere Gesundheit sowohl auf Bevölkerungsebene als auch auf individueller/Patientenebene beeinflussen, sammeln, speichern, kommentieren, analysieren und präsentieren. Zum Beispiel könnte die Definition des Konzepts des Expotyps, analog zu Genotyp und Phänotyp, eine Gelegenheit darstellen, Fortschritte bei der Charakterisierung von menschlichen individuellen Exposomendaten zu erzielen. Dieses Kapitel stellt acht Herausforderungen im Zusammenhang mit der Verarbeitung von Big Data einzelner Exposomen (Expotypen) und ihrer Integration mit genomischen und klinischen Daten für die biomedizinische Forschung und klinische Praxis vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-06109-8_11 2eff20ff1022f77e127bfd55435bd4fe;de;;;2.1.;;;Oberflächenglykoproteine ​​in Copepoden: potenzielle Signale für die Partnererkennung Der Mechanismus, den männliche Copepoden verwenden, um Partner zu erkennen, ist nicht gut verstanden. Es wurden sowohl chemische als auch mechanische Hinweise impliziert, deren relative Bedeutung jedoch nicht bekannt ist. Dieser Mangel an Wissen ist trotz der Überzeugung, dass die Partnererkennung eine entscheidende Rolle bei der Aufrechterhaltung der reproduktiven Isolation vieler Arten spielt und die Richtung der Evolution beeinflusst. Glykoproteine ​​werden von einer Reihe von Wasserorganismen, einschließlich Rädertierchen, Ciliaten und Algen, als Paarungssignale verwendet. Wir haben Techniken zur selektiven Sondierung von Oberflächenglykoproteinen in Zooplankton mit fluoreszenzmarkierten Lektinen entwickelt. Wir untersuchten Oberflächenglykoproteine ​​auf den Urosomen mehrerer Arten von Meer- und Süßwasser-Copepoden, um Einblicke in ihre Rolle bei der Partnererkennung zu gewinnen. Kalanoiden;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1347-4_34 c172d776691d5abeddd735dc923a6a56;de;;;2.1.;;;Eine Middleware für umfassendes Situationsbewusstsein Situationsbewusstsein ist die Fähigkeit von Anwendungen, sich an die aktuelle Situation ihrer Benutzer anzupassen. Damit Situationsbewusstsein wirklich allgegenwärtig ist, sollte es die individuellen Bedürfnisse jedes Benutzers überall unterstützen. Wir präsentieren eine Middleware für durchdringendes Situationsbewusstsein, die auf der Idee basiert, die Merkmale einer Situation von der Spezifikation, wie sie erkannt werden soll, zu trennen. Die Merkmale einer Situation können als Schnittstelle angesehen werden, die leicht an individuelle Benutzerbedürfnisse angepasst werden kann, während alternative Spezifikationen verwendet werden können, um eine Situation in verschiedenen Umgebungen zu erkennen. Die Middleware betrachtet Situationen als Sammlungen von Rollen, die Einzelpersonen und Geräte spielen. Seine Implementierung folgt einer agentenbasierten Architektur, bei der zusammenarbeitende Agenten Kontextdaten erfassen und über diese nachdenken. Wir zeigen auch, dass die Middleware mit alternativen Spezifikationen eine Vielzahl von stark angepassten Situationen erkennen kann, deren Leistung für interaktive situationsbezogene Anwendungen in realistischen Bereitstellungsgrößen akzeptabel ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30823-9_13 f674def2ca80ed7f2c4394330d6185fa;de;;;2.1.;;;Konsistente strukturelle Aktualisierungen für das Design von Objektdatenbanken Dieses Papier konzentriert sich auf konsistente strukturelle Aktualisierungen für den Entwurf von Objektdatenbanken und ist in einen formalen Ansatz für erweiterte Datenbankmodellierung und -entwurf eingebunden. Dieser Ansatz basiert auf dem IFO;-;-;-;https://link.springer.com/chapter/10.1007/3-540-56777-1_1 84a35d444b41d35a0625a9fb8bc540bf;de;;;2.1.;;;Mikrobiologie von DFD-Rind DFD-Fleisch zeichnet sich durch einen hohen pH-Wert (6,0) aus, enthält aber auch wenig oder keine Glukose. In normalem Fleisch wird Glucose bevorzugt von Fleischbakterien verwertet. Der aerobe Verderb wird verzögert, bis die Glukose erschöpft ist und die Aminosäuren angegriffen werden. Ohne Glukose werden Aminosäuren ohne Verzögerung angegriffen und Verderbsgerüche können bei noch geringer Bakteriendichte erkannt werden. Ein frühes aerobes Verderben von DFD-Fleisch kann durch Zugabe geringer Mengen Glukose verhindert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-8322-9_16 91ec6dea5cde52bfcdafe2bb13c7da26;de;;;2.1.;;;Neotropischer Hülsenfruchtbaum Mart. ist ein tropischer Hülsenfruchtbaum, der als Schattenspender in Kaffee- und Kakaoplantagen und als Hecke beim Anbau von Alleen verwendet wird. Über N . sind nur wenige Informationen zu finden;-;-;-;https://link.springer.com/article/10.1007/s11104-005-0808-8 671c77c63366fef7a52d30212dd4f1ed;de;;;2.1.;;;Vergleichende Copepodidenentwicklung bei Tisbidimorpha sensu Lang, 1948 (Copepoda, Harpacticoida) und ihre Bedeutung für phylogenetische Überlegungen Die postembryonale Entwicklung von fünf Vertretern von Tisbidimorpha Lang, 1948 wird im Lichte der phylogenetischen Verwandtschaft der Taxa beschrieben und diskutiert. Die Copepodiden von;-;-;-;https://link.springer.com/article/10.1007/BF00007493 700602897541776ccf13a5bcb13272ce;de;;;2.1.;;;Automatische Webservice-Erkennung in Öl und Gas Semantisch beschriebene Webservices werden vorgeschlagen, um die automatische Webservice-Erkennung zu nutzen. Der vorgeschlagene Rahmen wird für die Verwendung im Öl- und Gasbereich vorgeschlagen, um den Datenfluss zwischen zusammenarbeitenden Partnern zu vereinfachen, könnte jedoch leicht auf andere ähnliche Geschäftsbereiche angepasst werden. Anstelle einer direkten, fest codierten Zuordnung zwischen jedem einzelnen System wird empfohlen, Informationen über Webdienste bereitzustellen, mit denen sich Partner leicht verbinden können. Die Webservices werden semantisch mit der Unified Oil and Gas Ontology beschrieben, die auf ISO 15926 basiert. Smart Agents argumentieren mit Webservicebeschreibungen und finden Webservices basierend auf den Prozessen, die die Webservices anbieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10844-0_25 828760477651b23bcd7356ce672d9d10;de;;;2.1.;;;Max-Margin-basierter Bayes-Klassifikator Es gibt einen Kompromiss zwischen der Generalisierungsfähigkeit und dem Rechenaufwand beim Mehrklassenlernen. Wir schlagen einen generativen probabilistischen Multi-Class-Klassifikator vor, der sowohl die Generalisierungsfähigkeit als auch die Lern-/Vorhersagerate berücksichtigt. Wir zeigen, dass der Klassifikator eine max-margin-Eigenschaft besitzt. Somit kann die Vorhersage zukünftiger unsichtbarer Daten nahezu die gleiche Leistung wie in der Trainingsphase erreichen. Außerdem werden lokale Variablen eliminiert, was das Optimierungsproblem stark vereinfacht. Durch konvexe und probabilistische Analyse wird ein effizienter Online-Lernalgorithmus entwickelt. Der Algorithmus aggregiert Dualitäten, anstatt sie zu mitteln, was sich von den klassischen Situationen unterscheidet. Empirische Ergebnisse zeigen, dass unsere Methode eine gute Generalisierungsfähigkeit und Abdeckungsrate aufweist.;-;-;-;https://link.springer.com/article/10.1631/FITEE.1601078 5d09c8269a08c4029b942a24a9194099;de;;;2.1.;;;Reproduzierbare Cluster aus der Microarray-Forschung: Wohin? Bei der Clusteranalyse stellt die Validität bestimmter Lösungen, Algorithmen und Verfahren große Herausforderungen dar, da es keine zu testende Nullhypothese und keine „richtige Antwort“ gibt. Es wurde angemerkt, dass eine replizierbare Klassifikation nicht unbedingt eine nützliche ist, aber eine nützliche Klassifikation, die einen bestimmten Aspekt der Population charakterisiert, muss replizierbar sein. Mit reproduzierbar meinen wir reproduzierbar über mehrere Stichproben aus derselben Population. Methodiker haben vorgeschlagen, dass die Validität von Clustering-Methoden auf Klassifikationen basieren sollte, die reproduzierbare Ergebnisse jenseits des Zufallsniveaus liefern. Wir haben diesen Ansatz verwendet, um die Leistung häufig verwendeter Clustering-Algorithmen und den Grad der Replizierbarkeit zu bestimmen, der mit mehreren Microarray-Datensätzen erreicht wird.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-6-S2-S10 9127386b3988388aa64e89f6d5690f12;de;;;2.1.;;;Objektnormalisierung als Beitrag zum Bereich der formalen Methoden des objektorientierten Datenbankentwurfs Einen Überblick über den aktuellen Stand im Bereich der formalen Technik des Objektdatenbankdesigns gibt der Artikel. Hier wird diskutiert, warum die relationale Normalisierung in Objektdatenbanken nicht einfach anwendbar ist. Der Artikel stellt verschiedene Vorschläge von Objektnormalformen vor und bringt eigene Autorenbewertungen in diesem Bereich ein.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-8741-7_55 51e555d7687c8c7ea778ce3fd1147350;de;;;2.1.;;;Domänenformalisierung für metaphorisches Denken Es ist alltäglich, dass kulturelles Erbe immer unter Bezugnahme auf Redewendungen diskutiert und analysiert wird. Insbesondere in antiken und historischen Dokumenten, Gemälden und Skulpturen sind Metaphern und Allegorien sehr häufig. Häufig werden auch Hinweise auf die Assets und ihre Autoren gegeben, indem deren Inhalt mit Elementen aus dem Bereich der Redewendungen verglichen wird, auf die sich die Assets beziehen. Um das Argumentieren durch Redewendungen zu ermöglichen, schlagen wir hier eine Methodik vor, die in der Lage ist, Konzepte im Bereich der Kulturgüter mit Konzepten im Bereich der Redewendung zu verknüpfen. Wir zeigen hier, wie Argumentation in all diesen Bereichen dabei hilft, einige Elemente des kulturellen Erbes zu entdecken, die der Mensch auf den ersten Blick möglicherweise vernachlässigt. Unser Ansatz kann in einer Vielzahl von Anwendungen im Zusammenhang mit dem Kulturerbe nützlich sein, wie z. B. semantische Annotationen, verknüpfte Daten, Crowd-Sensing usw.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-12839-5_15 d440ea8316f7ec5f3a7dffa17779e212;de;;;2.1.;;;Ein dynamischer Verarbeitungsalgorithmus für variable Daten in der Intranet-Sicherheitsüberwachung Heutzutage stützt sich das unternehmensinterne Intranet-Security-Monitoring im Allgemeinen auf SIEM-Produkte oder SOC-Plattformen. Die Daten stammen aus einer großen Anzahl von Systemprotokollen, Anwendungslaufprotokollen und Geschäftsdaten, die von Netzwerkgeräten, Sicherheitsschutzgeräten und Anwendungssystemen usw. generiert werden, werden schließlich nach Wortsegmentierung, Feldanalyse und Datentyp als normalisierte Daten gespeichert Kartierung. Die Intranet-Sicherheitsüberwachung ist aufgrund der Effizienz- und Genauigkeitsanforderungen äußerst sensibel in Bezug auf die Datenqualität, aber die ständigen geschäftlichen Änderungen und Systemaktualisierungen in der Intranet-Umgebung machen sowohl die Datenstruktur als auch den Inhalt variabel. Die bestehenden automatisierten Log-Parsing-Algorithmen zielen hauptsächlich auf System-Logs mit einer festen Struktur ab, können keine variablen Daten mit mehreren Typen und Strukturen verarbeiten, außerdem schließt die Parsing-Arbeit nur die Wortsegmentierung und die Feldanalyse ab. Was die Identifizierung und Zuordnung von Datentypen angeht, sollten mehrere Sicherheitsexperten warten, um statische Vorlagen zu schreiben, falls die Daten geändert werden. Als Antwort auf die obigen Probleme wird ein Ontologiemodell des Datenwissens für das Intranet Security Monitoring konstruiert und unter Nutzung der Rechenleistung des Cloud Computing ein dynamischer Verarbeitungsalgorithmus für variable Daten (DPAVD) basierend auf struktureller Informationsentropie vorgeschlagen, in dem die Die Korrelation zwischen Datenfeldern wird als Kernfaktor verwendet, kann die durch den unterschiedlichen Zeichenausdruck verursachten Störungen reduzieren und den Anforderungen an qualitativ hochwertige Daten für das Intranet-Sicherheitsmonitoring gerecht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-78612-0_12 07b444a679093d7e37a94c62d4cb2e68;de;;;2.1.;;;Die formalen Definitionen von Semantic Web Services und Reasoning Beschreibungslogik wird als formale theoretische Grundlage von Semantic Web Services verwendet, der in der Arbeit analysierten Beschreibungssprache von Semantic Web Services OWL-S, WSDL-S, WSML und SWSL. Geben Sie eine formale Definition der Beschreibung über semantische Webdienste, weitere Webdienste werden mit der Semantik der Beschreibungslogik interpretiert. Die Erfüllbarkeit und Subsumtion in der Beschreibungslogik kann auf die Ableitung von semantischen Webdiensten angewendet werden. Für die weitere Erforschung der semantischen Annotation von Webservices, der Beziehung zwischen Webservices und Services, Argumentationsproblemen für semantische Webservices war unsere Arbeit wichtig und grundlegend.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24273-1_42 6b1149ca36409bc926dd7a575d67df1c;de;;;2.1.;;;Ein semantisches und sprachbasiertes Modell von Landschaftsszenen Die Modellierung der Landschaftsumgebung ist eine kognitive Aktivität, die immer noch neuartige räumliche Darstellungen erfordert. In diesem Beitrag wird eine strukturelle Kategorisierung einer Landschaftsansicht anhand von Panoramaaufnahmen vorgestellt, die als Ersatz für eine gegebene natürliche Umgebung fungieren. Verbale Beschreibungen einer Landschaftsszene bilden den Modellierungsinput unseres Ansatzes. Die strukturbasierte Repräsentation identifiziert die räumlichen, relationalen und semantischen Konstrukte, die sich aus diesen Beschreibungen ergeben. Eine Landschaftsansicht wird entsprechend der Struktur ihrer Sprachbeschreibung modelliert. Umweltbegriffe werden nach einer ontologischen Klassifikation, ihrer Nähe zum Beobachter und den sie qualifizierenden Beziehungen qualifiziert. Das resultierende Modell wird durch eine musikpartiturbasierte Darstellung schematisiert, die eine Modellierungsunterstützung für das Studium von Umweltbeschreibungen darstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87991-6_40 aba85ee633cf34a1be817d32a208fe14;de;;;2.1.;;;Eine neuartige auf der Einbettung von Wissensgraphen basierende API-Empfehlungsmethode für die Mashup-Entwicklung Web-API ist eine effiziente und kostengünstige Methode für die serviceorientierte Softwareentwicklung, und Mashup ist eine beliebte Technologie, die mehrere Dienste kombiniert, um leistungsfähigere Dienste zu erstellen, um die zunehmende Komplexität der Geschäftsanforderungen zu erfüllen und den Softwareentwicklungsprozess zu beschleunigen. Hier ist eine genaue und effiziente API-Empfehlung entscheidend für eine erfolgreiche Mashup-Entwicklung. Derzeit kombinieren viele existierende Verfahren verschiedene Technologien und verwenden verschiedene Funktionen, was zu komplexen Modellen auf Kosten eines höheren Rechenaufwands führt, jedoch mit einer sehr begrenzten Verbesserung der Empfehlungsgenauigkeit. Um ein solches Problem anzugehen, schlagen wir in diesem Artikel eine nicht überwachte API-Empfehlungsmethode vor, die auf tiefen Random Walks im Wissensgraphen basiert. Konkret konstruieren wir zunächst einen verfeinerten Wissensgraphen unter Verwendung von Mashup-API-Koinvokationsmustern und Dienstkategorieattributen und lernen dann implizite niederdimensionale eingebettete Darstellungen von Entitäten aus abgeschnittenen Random Walks, indem wir Walks als Äquivalent von Sätzen behandeln. Um die Empfehlungsgenauigkeit zu verbessern, entwerfen wir in der Zwischenzeit ein Entity-Bias-Verfahren, das unterschiedliche Entitätenpräferenzen widerspiegelt (nämlich API-basierte Nachbarschaft oder Mashup-basierte Nachbarschaft). Abschließend schätzen wir die Relevanz zwischen den Mashup-Anforderungen und den bestehenden Services (Mashups und APIs) ab, um die API-Empfehlungsliste zu erhalten. Da die API-Empfehlungsergebnisse durch unüberwachtes Feature-Learning erhalten werden können, können Mashup-Entwicklern in Echtzeit automatische API-Empfehlungen bereitgestellt werden. Umfassende experimentelle Ergebnisse eines realen Datensatzes zeigen, dass unsere vorgeschlagene Methode mehrere hochmoderne Methoden sowohl in Bezug auf die Genauigkeit als auch auf die Effizienz der Empfehlungen übertreffen kann.;-;-;-;https://link.springer.com/article/10.1007/s11280-021-00894-3 8e5a2a9273833a976ff5dc36c6e45841;de;;;2.1.;;;Verbindung von juristischen Personen über Open Information Extraction Konzepte und Beziehungen innerhalb bestehender Ontologien repräsentieren in der Regel begrenzte subjektive und anwendungsorientierte Ansichten einer interessierenden Domäne. Die Wiederverwendung von Ressourcen und feinkörnigen Konzeptualisierungen ist jedoch oft eine Herausforderung und erfordert einen erheblichen manuellen Anpassungsaufwand, um sie an beispiellose Verwendungen anzupassen. In diesem Beitrag stellen wir ein System vor, das aktuelle Open Information Extraction-Technologien nutzt, um korpuszentrierte unbekannte Beziehungen im Rechtsbereich aufzudecken und zu erforschen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-14401-2_17 e91ec0ba2ff2600ac3f15d7009cb9b40;de;;;2.1.;;;Metadatenmodelle für gemeinschaftsorientierte Metadatenschemata Metadaten sind in vielerlei Hinsicht als wichtiges Thema in digitalen Bibliotheken anerkannt. Dieser Bericht beschreibt kurz Modelle und Frameworks von Metadatenschemata, die durch metadatenzentrierte Forschungsprojekte an der University of Tsukuba entwickelt wurden, bei denen es sich um einige Fachportale und einige Metadatenschemaprojekte handelt, die hauptsächlich auf Dublin Core- und Webtechnologien basieren.;-;-;-;https://link.springer.com/chapter/10.1007/11599517_75 56889e535539e6443bdf65f659c02d16;de;;;2.1.;;;Kollektives Wissen von autonomen Individuen verarbeiten: Eine Literaturübersicht Kollektive Intelligenz ist in den letzten Jahren eines der großen Forschungsthemen der Informatik. Die Ermittlung des Wissens eines Kollektivs ist eines der wichtigsten Themen und wurde als Teilgebiet der kollektiven Intelligenz betrachtet. In diesem Beitrag präsentieren wir einen Literaturüberblick über den Forschungsfortschritt im Zusammenhang mit der Ermittlung von kollektivem Wissen von autonomen Individuen. Zu diesem Zweck werden wir einige verwandte Arbeiten zur Bestimmung der Repräsentation von Kollektiv-, Team- oder Gruppenwissen und kollektiver Intelligenz analysieren. Abschließend werden einige Schlussfolgerungen und zukünftige Richtungen vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06569-4_14 85fd3fa4537b2dd768294d04a08b4da2;de;;;2.1.;;;Eine strahlende Zukunft Die digitale Pathologie ist eine Idee, deren Zeit gekommen ist. Die Hardware wird Jahr für Jahr besser, und genügend Unternehmen haben jetzt in dieses neue Feld investiert, um die kritische Masse zu erreichen, die erforderlich ist, um die digitale Pathologie zu einer Mainstream-Technik zu machen. Aber das ist nicht genug. Was bleibt, ist, dass die digitale Pathologie die Art und Weise, wie medizinische Diagnosen gestellt und Patienten in großem Umfang behandelt werden, erheblich beeinflusst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08780-1_6 c026677300c21d7279415612441c90fb;de;;;2.1.;;;Die Elektrophysiologie von 5-HT Eine Reihe von 5-HT-Aktionen, bei denen der Mechanismus ein Öffnen eines Ionenkanals ist, was zu einer schnellen Depolarisation, einer langsamen Depolarisation oder einer Hyperpolarisation führt, werden mit Aktionen verglichen, bei denen der Mechanismus ein Schließen von Ionenkanälen ist, was zu einer langsamen Depolarisation führt veränderte Transmitterfreisetzung oder veränderte Membranakkommodation. Die Beziehung dieser Mechanismen zu einem bestimmten Rezeptor-Subtyp und zu einem bestimmten Second-Messenger-System wird sich wahrscheinlich in naher Zukunft zeigen. Derzeit ist unklar, inwieweit die Differenzierung einer elektrophysiologischen Wirkung von 5-HT hinsichtlich des Mechanismus die Beteiligung eines bestimmten 5-HT-Rezeptors vorhersagt. Hinweise aus dem Nervensystem legen nahe, dass ein bestimmter Mechanismus normalerweise mit einem bestimmten Subtyp des 5-HT-Rezeptors verbunden ist, und daher bietet die Klassifizierung nach Funktion einen nützlichen anfänglichen Rahmen, sofern sie nicht zu einem Dogma wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-7259-1_19 568c7a9bfbe5afbb50f080af86db5d0b;de;;;2.1.;;;Demenz und Verhaltensstörungen Die Existenz einer alkoholbedingten Demenz wird durch die verschiedenen Syndrome erschwert, die bei Personen beschrieben werden, die Alkohol missbrauchen, sowie durch andere mögliche Komorbiditäten, die bei diesen Personen zu kognitiven Funktionsstörungen;-;-;-;https://link.springer.com/chapter/10.1007/978-1-59745-078-2_3 9b41d76cca9b0b4a3eb4198bdd7f97bd;de;;;2.1.;;;Unterstützung von Vektormaschinen und flexiblen Diskriminierungen In diesem Kapitel beschreiben wir Verallgemeinerungen von linearen Entscheidungsgrenzen für die Klassifikation. Optimal trennende Hyperebenen werden in Kapitel 4 für den Fall eingeführt, dass zwei Klassen linear trennbar sind. Hier behandeln wir Erweiterungen des nicht separablen Falls, bei dem sich die Klassen überschneiden. Diese Techniken werden dann zu dem verallgemeinert, was als bekannt ist;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-21606-5_12 c83f76a2f1311120663c193e04128b9e;de;;;2.1.;;;Konzeptuelles Modell der Rekrutierung von Atemmuskeln und Zwerchfellermüdung Im Zwerchfell sind wie bei anderen Atemmuskeln motorische Einheiten (ein Motoneuron und die von ihm innervierten Muskelfasern, Abb. 1) der letzte Effektorweg, über den das zentrale Nervensystem die Ventilation steuert. Die vom Zwerchfell erzeugten Kräfte werden durch Änderung der Anzahl der aktivierten motorischen Einheiten (Rekrutierungscodierung) und/oder durch Änderung der Abgabefrequenz der rekrutierten Einheiten (Frequenzcodierung) gesteuert. Wie bei anderen 113-1-Skelettmuskeln unterscheiden sich die motorischen Einheiten, aus denen das Zwerchfell besteht, in ihren Kontraktions- und Ermüdungseigenschaften erheblich;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0621-4_12 80190ed7568f7c29ec6f684cc3b7744d;de;;;2.1.;;;Theorie des Kristallwachstums Kristallwachstumsprozesse werden durch Massen- und Wärmeübertragung (durch Diffusion und Konvektion) und durch die intrinsischen kinetischen Prozesse bestimmt, die mit der Bindung von Atomen oder Molekülen an den Kristall verbunden sind. Diese Prozesse bestimmen nicht nur die Wachstumsrate und Morphologie des Kristallwachstumsprozesses, sondern auch die Zusammensetzung, Homogenität und Perfektion der erzeugten Kristalle.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-1120-2_5 21bc9502aa36918191f46c7cd06a4311;de;;;2.1.;;;Verankerung implementieren In einem früheren Artikel haben wir Anchoring vorgestellt, einen neuen Ansatz zum Umgang mit unbestimmten Orten in einem räumlichen Informationssystem. Hier entwickeln wir es weiter und zeigen, wie Anchoring in realen Systemen funktioniert. Insbesondere spezifizieren wir eine neue Art von Standortkomponente für ein Geodatenmodell. Anschließend zeigen wir, wie diese Komponente in eine objektrelationale Datenbank mit Erweiterungen gemäß dem Simple Feature Model des OpenGIS Consortium implementiert werden kann. Wir argumentieren, dass Anchoring im Gegensatz zu anderen Formalismen für den Umgang mit unbestimmten Standorten besser für die Bedürfnisse eines Geodatenanbieters geeignet ist, der bei der Bereitstellung von Daten an verschiedene Organisationen autoritativ sein muss und daher die Datenqualität nicht durch Darstellung unbestimmter Daten mit ungerechtfertigter Genauigkeit. Die Verankerung ermöglicht es uns, nur das zu sagen, was wir sicher wissen, indem wir neue Wege zur Beschreibung von Räumlichkeit bieten.;-;-;-;https://link.springer.com/chapter/10.1007/11863939_12 bcb810ca2a11784fb28172ec85234a45;de;;;2.1.;;;RRLs — Werkzeuge für Astronomen Radiorekombinationslinien erwiesen sich als ein mächtiges Werkzeug für die astrophysikalische Forschung. Sie sind sowohl in der Anzahl der nachweisbaren Übergänge als auch im Wellenlängenbereich, über den sie beobachtet werden, einzigartig. Sie nehmen etwa 5 Größenordnungen der Wellenlängenskala elektromagnetischer Wellen ein;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0261-5_3 a81ef7da0c3514e8da85ee027e13f37c;de;;;2.1.;;;Lebertumoren im Kindesalter Primäre bösartige Tumoren der Leber machen etwa 1% aller Krebserkrankungen im Kindesalter aus. Der häufigste Typ ist das Hepatoblastom mit einer jährlichen Inzidenz von 0,9 pro Million Kinder. Sie sind nicht nur selten, sondern ihre Vielfalt schränkt die Erfahrung eines jeden Zentrums und Pathologen erheblich ein. Im relativ großen Texas Children’s Hospital (425 Betten, 11.000 chirurgische Präparate jährlich) wurden in den letzten 30 Monaten nur 13 Patienten mit Primärtumoren mit fünf verschiedenen Neoplasien behandelt. Im gleichen Zeitraum traten neun sekundäre Neoplasien oder eine Beteiligung der Leber durch eine systemische proliferative Erkrankung auf. Die Möglichkeit, genügend Beispiele zu studieren, um eine vertrauensvolle Beratung zu gewährleisten, hing daher weitgehend von Überweisungszentren wie dem Armed Forces Institute of Pathology (AFIP) ab, wo Ishak und seine Schützlinge Dehner, Stocker und Goodman viele ausgezeichnete Beschreibungen und Bewertungen. Für klinische Korrelationen, prognostische Beurteilungen und therapeutische Fortschritte wurden große kooperative Gruppen wie die Children's Cancer Study Group (CCG) und die Pediatric Oncology Group (POG), die kürzlich in der Children's Oncology Group (COG) in den USA zusammengeschlossen sind, der Deutschen Genossenschaft Die pädiatrische Lebertumorstudie und die Société Internationale D'Oncologie Pediatrique Liver Tumor Study Group (SIOPEL) waren von wesentlicher Bedeutung. Als Pathologe des USCCG von 1973 bis 1984 untersuchte Haas 168 Hepatoblastome (HB) und 28 Hepatokarzinome (HCC) und konnte wichtige klinisch-pathologische Beobachtungen machen. Seit 1986 hat dieser Autor 375 Lebertumore untersucht, die nach POG- oder COG-Protokollen registriert wurden, oder 25 pro Jahr. Im gleichen Zeitraum wurden in Absprache 187 weitere Lebertumoren im Kindesalter untersucht. Diese Erfahrung bildet die Grundlage für dieses Kapitel.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-9066-2_13 76b22d89e3afe2495a2d28d31952d115;de;;;2.1.;;;Eine Datenbank für Linguisten: Intelligente Abfrage und Datenvermehrung Was bedeuten Datenbankabfragen (DB) und Information Retrieval für die Linguistik? Was sind Daten für den Linguisten? Wie kann man sich einen effizienten Zugriff auf Daten vorstellen? Ich schlage vor, DB-Abfragen in den Sprachwissenschaften linguistisch zu gestalten und direkt durch linguistische Daten zu bestimmen. Linguisten mit unterschiedlichem Hintergrund könnten dann ein konsensuales Abfragetool verwenden. Ein implementiertes datengesteuertes DB-Abfragesystem, das für die Erforschung französischer Abfragestrukturen entwickelt wurde, wird im Detail vorgestellt.;-;-;-;https://link.springer.com/article/10.1007/BF01830686 955cfe3f13389ff2b8163c3c40b94862;de;;;2.1.;;;Gewichtung von Entscheidungskostenmerkmalen und ihre Anwendung bei der Einbruchserkennung Dieses Whitepaper stellt die kostensensible Feature-Gewichtungsstrategie und ihre Anwendung bei der Intrusion Detection vor. Kostenfaktoren und Kostenmatrix werden vorgeschlagen, um die Fehlklassifizierungskosten für IDS aufzuzeigen. Wie man das ganze minimale Risiko bekommt, wird hauptsächlich in diesem Papier ausführlich besprochen. Aus Experimenten geht hervor, dass, obwohl entscheidungskostenbasiertes Gewichtungslernen eine gewisse Fehlklassifizierung angreift, es relativ niedrige Fehlklassifizierungskosten auf der Grundlage einer relativ hohen Erkennungsgenauigkeit erzielen kann.;-;-;-;https://link.springer.com/article/10.1007/BF02831678 a581b56d49409de2ea89de879908206e;de;;;2.1.;;;Eine empirische Bewertung und Einblicke in zwei multikriterielle ganzzahlige Programmieralgorithmen Ein praktischer interaktiver Lösungsansatz für multikriterielle ganzzahlige Programmierprobleme wird entwickelt. Das Problem wird durch eine Branch-and-Bound-Methode gelöst, die das Zionts- und Wallenius-Verfahren [26] verwendet, um das multikriterielle lineare Programmierproblem zu lösen. Zwei Branch-and-Bound-Algorithmen, die unterschiedliche Suchstrategien verfolgen, um die Anzahl der Fragen sowie die Lösungszeit gleichzeitig zu minimieren, werden diskutiert. Eine numerische Illustration von Algorithmen wird vorgestellt. Spezifische Berechnungsergebnisse werden diskutiert. Diese Lösungsstrategien bieten praktikable Ansätze zur Lösung des Multikriteriumsproblems unter einer Vielzahl von Entscheidungsfindungsstilen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-46607-6_20 62c13349ee8143d6e84404b465cb40aa;de;;;2.1.;;;ca. 1830–1914: Organische Chemie – Aufwärts aus dem Schlamm Chemiker waren schon immer fasziniert von Materialien aus lebenden Systemen – dem Stoff des Lebens. Es sei daran erinnert, dass Fourcroy im 18. Jahrhundert darin eine großartige Gelegenheit sah, verrottendes Material von Exhumierungen untersuchen zu können – eine Aufgabe, die von denen, die sich mit olfaktorischen Delikatessen beschäftigt haben, nicht übernommen werden sollte. Tatsächlich begann das Gebiet der organischen Chemie mit dem Studium der Suppe aus lose verbundenen Materialien, die aus Tieren und Pflanzen gewonnen wurden, aber im 19. Jahrhundert boten organische Chemiker eine Reihe von Theorien an, um ihre Wissenschaft zu erklären und zu systematisieren – und das war ein wertvolles System. Ihre Erkenntnisse förderten nicht nur das Verständnis der organischen Chemie, sondern dienten als Grundlage für ein neues Verständnis der Chemie als Ganzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-2770-5_12 21ac7243d2fc366158ea043a695feb07;de;;;2.1.;;;Ein Verfahren zum Vergleich mehrerer Sequenzen Dieser Artikel stellt eine neue Methode zum Vergleich mehrerer makromolekularer Sequenzen vor. Es basiert auf einem hierarchischen Sequenzsyntheseverfahren, das keine;-;-;-;https://link.springer.com/article/10.1007/BF02460892 f0ddd895dd5f8fe23dea18f9129dd592;de;;;2.1.;;;Messung der Auswirkungen des Strukturwandels auf Gruppen auf dem australischen Arbeitsmarkt Dies ist der fünfte einer Reihe von Artikeln über die Auswirkungen des Strukturwandels auf verschiedene Gruppen in der australischen Gemeinschaft, die von Mitgliedern des IMPACT-Projekts der La Trobe University verfasst wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-86478-0_20 a9dd5132f81d4d096eba07ad54bfdfa5;de;;;2.1.;;;Die aquatische Umwelt Der Pflanzenwissenschaftler, der die verschiedenen Umweltfaktoren, die das Pflanzenleben in aquatischen Lebensräumen beeinflussen, quantitativ bewerten will, steht vor einer gewaltigen Aufgabe. Für diejenigen, die an einer ausführlicheren Diskussion interessiert sind, wird die marine aquatische Umwelt vorgestellt in;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-68090-8_9 7fd666bef617ba5f4281e79cac424422;de;;;2.1.;;;RRLs: Werkzeuge für Astronomen Dieses Kapitel beschreibt, was Astronomen aus Beobachtungen von Radiorekombinationslinien seit ihrer Entdeckung gelernt haben. Es diskutiert die Eigenschaften von Gasnebeln, den Zustand von ionisiertem Wasserstoff und Helium in diesen Nebeln, die Eigenschaften von ionisiertem Kohlenstoff in dem vergleichsweise kühlen interstellaren Gas, planetarische Nebel, die Sonne, einen ungewöhnlichen frühen Stern (MWC 349A), der zeitvariierend emittiert Maseringlinien und nahe Galaxien, in denen Radiorekombinationslinien entdeckt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09691-9_3 4e9c111e2ef9722156b55bbfc67cbaf7;de;;;2.1.;;;Möglichkeiten und Grenzen von Expertensystemen in der Medizin Es wird oft betont, dass Medizin nicht nur eine Wissenschaft, sondern auch eine Kunst ist. Technisch lässt sich diese Aussage wie folgt umformulieren: Der bereits explizit formulierte Teil des medizinischen Wissens bildet die Medizin, der nur implizit verfügbare Teil die Medizin. Tatsächlich ist in der Medizin, insbesondere im Bereich der psychischen Erkrankungen, der größte Teil des Wissens noch nicht explizit formuliert, und das Problem der Wissensformalisierung ist daher ein zentrales Thema.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-81938-4_41 c28df9e1bc855404357f38fd463d3b1b;de;;;2.1.;;;Wasser in stöchiometrischen Hydraten Dieses Kapitel befasst sich mit Informationen, die aus kristallographischen und spektroskopischen Untersuchungen des Wassermoleküls in stöchiometrischen Hydraten gewonnen werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-6958-6_2 b2f6c0c41b263e2c770339570f99bdad;de;;;2.1.;;;Das äquivalente Bindungsorbitalmodell und die Interpretation von PE-Spektren Der niederenergetische Teil des He(Iα)- oder He(IIα)-PE-Spektrums eines hypothetischen Moleküls M (dargestellt in Abb. 1) besteht aus vier Bändern, bis ④, die – der Einfachheit halber – nicht überlappen. Die Bänder und zeigen eine aufgelöste Schwingungsfeinstruktur, wohingegen die Feinstruktur von ③ und wegen Linienverbreiterung, zufälligem Rauschen und/oder der Auflösung der Aufzeichnung nicht aufgelöst werden kann, wobei letztere typischerweise in der Größenordnung von 20 meV liegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-58179-3_4 4dad41c7a3c2286ccf1810d1839cc0f6;de;;;2.1.;;;Eine neue Methode für die Anregungen des eindimensionalen Hubbard-Modells Wir präsentieren eine neue Methode zur Lösung der verschachtelten Bethe-Ansatz-Gleichungen für das eindimensionale Hubbard-Modell. Zunächst wird das „Spinproblem“ vollständig gelöst, indem Inversions-/Funktionsbeziehungen und eine Äquivalenz zum Acht-Eck-Modell verwendet werden. Zweitens lösen wir das „elektronische Problem“, d.h. wir bestimmen den Grundzustand des halbgefüllten Bandes und aller endlichen Energieanregungen relativ zu diesem Fall. Neben der Berechnung der Energiebänder leiten wir auch Grundgleichungen für die charakteristischen Parameter ab, die die angeregten Zustände bestimmen.;-;-;-;https://link.springer.com/article/10.1007/BF01317362 8e9a9d11045dd6b13e2bab498c562d11;de;;;2.1.;;;Mining Order-erhaltende Submatrizen basierend auf häufigem Sequential Pattern Mining Ordnungserhaltende Submatrizen (OPSMs) wurden weithin als musterbasiertes Biclustering akzeptiert und in der Analyse von Genexpressionsdaten verwendet. Das OPSM-Problem zielt darauf ab, die Gruppen von Genen zu finden, die unter bestimmten Bedingungen ähnliche Anstiege und Abnahmen aufweisen. Die meisten Methoden sind jedoch heuristische Algorithmen, die PSOMs nicht vollständig aufdecken können. In diesem Papier haben wir eine genaue Methode vorgeschlagen, um alle OPSMs basierend auf häufigem sequentiellem Muster-Mining zu entdecken. Zunächst wird ein Algorithmus angepasst, um alle gemeinsamen Teilsequenzen (ACS) zwischen jeweils zwei Sequenzen offenzulegen. Dann wurde eine verbesserte Datenstruktur für den Präfixbaum verwendet, um alle gängigen Untersequenzen zu speichern und zu durchlaufen, und das Apriori-Prinzip wurde verwendet, um das häufige sequentielle Muster effizient zu ermitteln. Schließlich wurden die Experimente an einem realen Datensatz durchgeführt und eine GO-Analyse durchgeführt, um festzustellen, ob die entdeckten Muster biologisch signifikant waren. Die Ergebnisse belegen die Effektivität und Effizienz dieser Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06269-3_20 af994c9f9c8c9b6e17bc2b7bd8ae2d8b;de;;;2.1.;;;Empfehlung eines Dokuments basierend auf den Interessen von Co-Autoren für die Neurowissenschaften Die personalisierte Wissensempfehlung ist eine wirksame Maßnahme zur Bereitstellung individueller Informationsdienste im Bereich der Hirnforschung. Um dieses Ziel zu erreichen, ist es unerlässlich, dass ein vollständiges Verständnis der Interessen der Autoren und eine genaue Empfehlung durchgeführt wird. In diesem Papier wird vorgeschlagen, eine kollaborative Empfehlungsmethode basierend auf Co-Autorenschaft zu erstellen. In unserem Ansatz werden die Analyse der Interessen der Mitarbeiter und die Berechnung des kollaborativen Wertes für Empfehlungen verwendet. Schließlich werden die Experimente mit realen Dokumenten im Zusammenhang mit der Hirnforschung vorgestellt und unterstützen die gemeinsame Empfehlung von Dokumenten im Bereich der Hirnforschung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-32962-4_11 7649ae10f1f12e651391890ffe1ee2f2;de;;;2.1.;;;Struktur und Regulation der NADPH-Oxidase phagozytischer Leukozyten Wenn phagozytäre Zellen des Immunsystems (Neutrophile, Monozyten, Makrophagen und Eosinophile) mit opsonisierten Mikroorganismen oder einer Vielzahl löslicher Reize in Kontakt kommen, steigt ihr Sauerstoffverbrauch dramatisch an (Übersicht in Lit.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-59259-253-1_8 e815c63d96a49946f3986b013031ed5c;de;;;2.1.;;;Stand der Technik und zukünftige Aspekte der Modellierung und Simulation in Physiologie und Biomedizintechnik In den letzten 20 Jahren wurden ausgeklügelte Modelle für eine Vielzahl physiologischer Systeme entwickelt. Modellbildung und Simulation physiologischer Systeme sind inzwischen von biomedizinischen Wissenschaftlern als interdisziplinäre Methode anerkannt, die eine direkte Zusammenarbeit zwischen Ingenieuren, Informatikern, angewandten Mathematikern, Physiologen und Medizinern erfordert. Daher mathematische, biochemische oder physikalische Modelle physiologischer Systeme, z.B. das Kreislaufsystem, das Nierensystem, das Atmungssystem, das endokrine System und das thermoregulatorische System wurden abgeleitet und ihr dynamisches Verhalten wurde durch Simulation untersucht. Darüber hinaus wurden diese Modelle auch erfolgreich auf Parameterschätzungstechniken angewendet, um entweder das Modellverhalten durch Optimierung der verwendeten Parametersätze zu optimieren oder auch nicht direkt messbare Parameter zu schätzen, die für Closed-Loop-Monitoring-Konzepte in Gesundheitseinrichtungen wichtig sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-9163-0_1 6d0165c6bd98364581490d8355689dbf;de;;;2.1.;;;Die Anwendung neuronaler Netze auf die Zustandsüberwachung von nichtlinearen Strukturen Neuronale Netze stellen einen leistungsstarken Satz von Werkzeugen zur Mustererkennung und Musterklassifizierung dar. Sie können die gemeinsamen Merkmale in einer Reihe von Beispielen eines Signals identifizieren und dann das zukünftige Auftreten der Merkmale erkennen, wenn neue Signale erfasst werden. Ein Merkmal könnte das Vorhandensein von nichtlinearem Verhalten in einer strukturellen Reaktion sein, wie in den Studien von Professor Tomlinson beschrieben (siehe Kapitel ...) oder es könnte ein bestimmtes Spannungsmuster sein. Neuronale Netze werden in vielen Bereichen zur Signalverarbeitung eingesetzt, von der Erkennung von Druckänderungsmustern im menschlichen Körper bis hin zu geophysikalischen Messungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-89467-0_18 15524ef3f68a27b7144cad1fde1974c8;de;;;2.1.;;;Cluster-Kopfschmerz imitiert In diesem Artikel werden Cluster-Kopfschmerz und eine Vielzahl von Cluster-Mimetika diskutiert, um den Praktiker bei der Unterscheidung zwischen primärem Cluster-Kopfschmerz und sekundären Formen von Cluster zu unterstützen. Sekundäre Ursachen für Cluster-Kopfschmerz sind Infektionen, Tumore, Gefäßanomalien und Kopftraumata. Darüber hinaus können andere autonome Trigeminus-Kephalgien gelegentlich schwer vom primären Cluster-Kopfschmerz zu unterscheiden sein.;-;-;-;https://link.springer.com/article/10.1007/s11916-004-0027-7 65fe968841637a65f4db0447cb6a1947;de;;;1.3.;;;Tutorial 1: eduWeaver – Das Tool zur Modellierung von Kursmaterialien Technologie hat die Art und Weise, wie wir leben, denken und arbeiten, verändert. Die Technologie hat die Wirtschaft revolutioniert und muss nun das Lehren und Lernen revolutionieren. Live-Classroom-basierte Schulungen werden zu kostspielig und umständlich. 80 % der Lehrer und Schüler nutzen bereits Computer. E-Learning kann daher als Mittel zur Unterstützung des lebenslangen Lernens mit vielen Vorteilen angesehen werden. Das World Wide Web, leistungsstarke Netzwerke und Highspeed-Computer ermöglichen den Menschen rund um die Uhr das Lernen im Büro, zu Hause oder auch im Hotelzimmer während einer Geschäftsreise rund um den Globus. E-Learning ermöglicht den Zugang zum Lernen, wenn es bequem ist.;-;-;-;https://link.springer.com/chapter/10.1007/11568346_48 a7812bd84d179cc6798ef813828cd6f2;de;;;1.3.;;;Ein Tutorial zur Bildanalyse Daten entstehen in Form von Bildern in vielen unterschiedlichen Bereichen und mit vielen unterschiedlichen Technologien. In der medizinischen Diagnostik sind Röntgenstrahlen die wohl bekannteste Form der direkten Bildgebung, die durch Aufzeichnung der Transmission von Röntgenstrahlen strukturelle Informationen über den Körper sammeln. Neuere Fortschritte waren die verschiedenen emissionsbasierten Technologien PET und SPECT, die darauf abzielen, die Stoffwechselaktivität im Körper abzubilden, und MRT (Abbildung 3.1c), die wiederum strukturelle Informationen liefert. Auf zwei ganz unterschiedlichen Skalen überwachen und zeichnen Satelliten (Abbildung 3.1a und b) und Mikroskope (Abbildung 3.1d) nützliche wissenschaftliche Informationen auf Subventionsbetrug, während einige Arten der Mikroskopie verwendet werden können, um zeitliche Sequenzen von dreidimensionalen Bildern zu erzeugen, was zu einem besseren Verständnis biologischer Prozesse führt. Es besteht die Erwartung, dass technologische Fortschritte bald Lösungen für Probleme wie automatische Gesichts- oder Handerkennung oder unbeaufsichtigtes Robotersehen bieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-21811-3_3 bea44e9de8944f89fbc3d11dc72a3a6f;de;;;1.3.;;;Intelligente Tutorial-Planung basierend auf erweitertem Wissensstrukturdiagramm Intelligente Tutorienplanung (ITP) ist ein wichtiger Bestandteil des intelligenten Tutoriums (ITS). Modelle des Domänenwissens, Modelle von Lernmethoden und Modelle des Lernenden sind drei Schlüsselelemente von ITS. In diesem Beitrag wird das Konzept des erweiterten Wissensstrukturgraphen (EKSG) vorgestellt. Ein EKSG integriert auf organische Weise Modelle von Domänenwissen, Modelle von Tutorien und Modelle von Lernenden. Basierend auf dem EKSG werden die Algorithmen JUDGE und TPLAN zur Lösung von ITP-Problemen vorgeschlagen. Der Algorithmus JUDGE berechnet den optimalen Lösungsgraphen, wenn es eine Lösung gibt, und der Algorithmus TPLAN berechnet den optimalen Lernprogrammplan basierend auf dem Lösungsgraphen. Beide Algorithmen haben sich als richtig erwiesen, ihre Effizienz wird ebenfalls diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/11736639_5 1b346ad1ce4454037cbffa90737861be;de;;;1.3.;;;Ein Tutorial-Beispiel für den semantischen Ansatz für grundlegenden beweistragenden Code Proof-Carrying Code stellt einen Mechanismus bereit, um sicherzustellen, dass ein Host oder Codekonsument Code sicher ausführen kann, der von einem Codeproduzenten bereitgestellt wird. Der Host spezifiziert eine Sicherheitsrichtlinie als einen Satz von Axiomen und Inferenzregeln. Neben einem kompilierten Programm liefert der Code-Produzent einen formalen Sicherheitsnachweis, der in leicht überprüfbaren Regeln ausgedrückt wird. Foundational Proof-Carrying Code (FPCC) bietet erhöhte Sicherheit und größere Flexibilität bei der Erstellung von Sicherheitsnachweisen. Sicherheitsbeweise werden aus dem kleinstmöglichen Satz von Axiomen und Inferenzregeln konstruiert. Tippregeln sind beispielsweise nicht enthalten. In unserem semantischen Ansatz zu FPCC kodieren wir eine Semantik von Typen aus ersten Prinzipien und die Typisierungsregeln werden als Lemmata bewiesen. Darüber hinaus gehen wir von einer semantischen Definition von Maschinenanweisungen aus und die Sicherheit wird direkt aus dieser Semantik definiert. Da FPCC von grundlegenden Axiomen und Low-Level-Definitionen ausgeht, ist es notwendig, eine Bibliothek von Lemmata und Definitionen aufzubauen, damit die Argumentation über bestimmte Programme auf höherer Ebene durchgeführt und idealerweise auch automatisiert werden kann. Wir beschreiben eine hochrangige Organisation, die im Hoare-Stil über Maschinencode-Programme nachdenkt. Diese Organisation wird anhand eines ausführlichen Beispiels vorgestellt. Das Beispiel soll nicht nur den oben erwähnten Ansatz zur Organisation von Beweisen illustrieren, sondern auch eine Einführung in verschiedene Facetten unseres FPCC-Ansatzes bieten. Es veranschaulicht beispielsweise, wie die Sicherheit von Programmen nachgewiesen werden kann, die Eingabedatenstrukturen durchlaufen und neue zuordnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-32033-3_29 d33124ffbc7aa4a329db8a163998e520;de;;;1.3.;;;Quantenberechnung: ein Tutorial Dieses Tutorial ist der erste Teil einer Reihe von zwei Artikeln über Quantencomputer. In diesem ersten Beitrag stellen wir das Gebiet der Quantenberechnung aus einer breiten Perspektive vor. Wir überprüfen den mathematischen Hintergrund und diskutieren informell physikalische Implementierungen von Quantencomputern. Schließlich präsentieren wir die wichtigsten Primitive, die in Quantenalgorithmen verwendet werden.;-;-;-;https://link.springer.com/article/10.1007/s00354-012-0401-7 48af99636901c2d10fb0b615ffa265bd;de;;;1.3.;;;Biomedizinische Technik Merkmale der Ausbildung Modell der Ausbildung und Ausbildung Reform- und Praxisprogramm Die Analyse der biomedizinischen Ingenieurausbildung im Ausland auf der Grundlage von Merkmalen, mit der inländischen Entwicklung des Bereichs der biomedizinischen Technik, zeigt auf, wie medizinische Fakultäten unter den Schulvorteilen, biomedizinische Technik in der Reform der beruflichen Bildung und Praxis.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79039-6_161 70a8e6c7f819d1e0b946d6187acd82a6;de;;;1.3.;;;Tutorial zum Umschreiben von Begriffen Das Umschreiben von Termen ist ein wichtiges Rechenmodell mit Anwendungen in Algebra, Softwaretechnik, deklarativer Programmierung und Theorembeweis. Beim Neuschreiben von Begriffen wird die Berechnung durch gerichtete Gleichungen und Mustervergleich erreicht. In diesem Tutorial geben wir eine Einführung in das Umschreiben von Begriffen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48168-0_40 b641d572dea47713aaad89097ed29a43;de;;;1.3.;;;Studie zur Ausbildung von Postgraduierten mit den Schwerpunkten Management Science and Engineering Der Umfang der postgradualen Ausbildung in China hat in den letzten Jahren rasant zugenommen, was die Herausforderung mit sich bringt, eine Verringerung der Ausbildungsqualität zu vermeiden. Aktuelle Forschungen zu Problemen der postgradualen Bildung werden untersucht und die Ergebnisse werden in zwei Typen eingeteilt. Die Prinzipien zur wissenschaftlichen Definition des postgradualen Bildungsziels in Management Science and Engineering (MSE) werden vorgestellt und die Prozesse zur Formulierung eines angemessenen Ausbildungsprogramms vorgeschlagen. Auch die Mängel des traditionellen Tutorsystems werden analysiert und mehrere verbesserte Multi-Tutoren-Systeme werden vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-4856-2_24 cb3e235aad01505b50be0b675eb37fdd;de;;;1.3.;;;Quaternionen und Bewegungsinterpolation: Ein Tutorial Dieses Dokument bietet ein Tutorial für die geradlinige Interpolation von Festkörperbewegungen, wie z. B. die Translation und Rotation von Roboterendeffektoren. Eine reibungslose Änderung der Ausrichtung wird durch Quaternionen erreicht – eine Möglichkeit, jede Ausrichtung als vier Zahlen (einen Winkel und eine Rotationsachse) darzustellen. Der erste Teil des Papiers klärt Quaternionen, um ein intuitives Verständnis ihrer Rolle bei der Rotation zu ermöglichen. Anschließend wird die Interpolation diskutiert, wobei einige Probleme geschlossen werden, die während der Realmanipulatorimplementierung auftreten. Die Interpolationsmethode wurde an einem Excalibur-Roboter getestet.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-68093-2_14 ad5353340c122b5a0b76a94d50d6303b;de;;;1.3.;;;Einführendes Tutorial zu Grundlagen und Anwendungen der Graphtransformation Dieses Tutorial ist als allgemeine Einführung in die Graphtransformation für Wissenschaftler gedacht, die mit diesem Gebiet nicht vertraut sind. Das Tutorial beginnt mit einer informellen Einführung in die grundlegenden Konzepte wie Graph, Regel, Transformation usw., wobei semantische Entscheidungen erörtert werden, z beim Umschreiben usw. und Erwähnen verschiedener Möglichkeiten zur Formalisierung der Grundkonzepte.;-;-;-;https://link.springer.com/chapter/10.1007/11841883_32 64b432905a96cf3ef73a6e4b0b55b705;de;;;1.3.;;;Ein Tutorial zu adaptivem MCMC Wir überprüfen adaptive Markov-Chain-Monte-Carlo-Algorithmen (MCMC), um ihre Leistung zu optimieren. Anhand einfacher Spielzeugbeispiele überprüfen wir ihre theoretischen Grundlagen und zeigen insbesondere, warum adaptive MCMC-Algorithmen versagen können, wenn einige grundlegende Eigenschaften nicht erfüllt sind. Dies führt zu Richtlinien für den Entwurf korrekter Algorithmen. Anschließend überprüfen wir Kriterien und den nützlichen Rahmen der stochastischen Approximation, der es ermöglicht, allgemein verwendete Kriterien systematisch zu optimieren, aber auch die Eigenschaften adaptiver MCMC-Algorithmen zu analysieren. Anschließend schlagen wir eine Reihe neuartiger adaptiver Algorithmen vor, die sich in der Praxis als robust und zuverlässig erweisen. Diese Algorithmen werden auf künstliche und hochdimensionale Szenarien angewendet, aber auch auf das klassische Inferenzproblem von Minenkatastrophendatensätzen.;-;-;-;https://link.springer.com/article/10.1007/s11222-008-9110-y 5ca683a9c762b413f57a7bc4da104475;de;;;1.3.;;;Von Pflanzengenetik inspirierte evolutionäre Optimierung: Ein anschauliches Tutorial Dieses Kapitel veranschaulicht die Merkmale der pflanzengenetisch inspirierten evolutionären Optimierung (PGEO). Die Berechnungsstrategie von PGEO ist von der Theorie der Mendelschen Evolution inspiriert. Der vorgestellte PGEO-Optimierer ist ein binär codierter Algorithmus, der hauptsächlich auf drei Konzepten aus der Pflanzengenetik basiert: (i) die „Denaturierung“ der DNA zweier verschiedener Arten, um die hybride „Nachkommen-DNA“ zu erzeugen, (ii) die Mendelsche Evolutionstheorie der genetischen Vererbung , die erklärt, wie die dominanten und rezessiven Merkmale in zwei aufeinanderfolgenden Generationen erscheinen, (iii) die Epimutation, durch die der Organismus einer natürlichen Mutation widersteht. Die obigen Konzepte werden neu konfiguriert, um die binäre metaheuristische evolutionäre Trainingstechnik zu entwerfen. Basierend auf diesem Rahmen werden vier evolutionäre Operatoren – (1) Flipper, (2) Bestäubung, (3) Züchtung und (4) Epimutation – in der binären Domäne erstellt. Das Kapitel enthält Eigenschaften und eine detaillierte Einführung in die PGEO-Theorie.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2133-1_3 092ef6645e49bfb6ba29526f8d7a9108;de;;;1.3.;;;Potenzielle Bereiche der Zukunftsforschung In diesem Kapitel werden mehrere potenzielle Forschungsbereiche zu den Treibern des Arbeitseinkommensanteils (LIS) beleuchtet. Dazu gehören (1) persönliche Einkommensungleichheit, (2) Abwanderung qualifizierter Fachkräfte, (3) Überweisungen und Brain Gain, (4) Überweisungen und negatives Arbeitskräfteangebot, (5) vorzeitige Deindustrialisierung, (6) Unternehmensumstrukturierung und (7) Globalisierung global auf sektoraler Ebene.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6860-2_8 bcac84ce8720bfed3d2ebbf969429c2e;de;;;1.3.;;;Tutorials bei MODELS 2007 Die Konferenz MODELS 2007 bot vier hochwertige Tutorials von führenden Experten im Bereich Model Driven Engineering. Jedes Tutorial wurde als halbtägige Veranstaltung präsentiert, die während der ersten beiden Konferenztage organisiert wurde. Diese kurze Übersicht bietet eine Einführung in das Tutorial-Programm und eine Zusammenfassung der einzelnen Tutorials, wie sie von den Referenten eingereicht wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75209-7_47 df1379b99173b449ba2e2bf8bca423aa;de;;;1.3.;;;Adaptives Tutoring in einem intelligenten Conversational Agent System Dieser Artikel beschreibt ein adaptives Online-Konversations-intelligentes-Tutoring-System (CITS) namens Oscar, das ein personalisiertes Tutorial in natürlicher Sprache bietet. Während des Tutoring-Gesprächs sagt Oscar CITS dynamisch den Lernstil eines Schülers voraus und passt sich an ihn an. Oscar CITS zielt darauf ab, einen menschlichen Tutor nachzuahmen, indem er Wissen über Lernstile nutzt, um seinen Tutorstil anzupassen und die Effektivität der Lernerfahrung zu verbessern. Die Lernenden können Themen intuitiv in natürlicher Sprache erkunden und diskutieren, wodurch ein tieferes Verständnis des Themas entsteht und das Selbstvertrauen gestärkt wird. Es wird über eine erste Studie zur Anpassung an Lernstile berichtet, die ermutigende Ergebnisse und positive Verbesserungen der Testergebnisse lieferte. Die Ergebnisse zeigen, dass Schüler, die ein an ihren Lernstil angepasstes Tutorium erlebten, signifikant bessere Leistungen erbrachten als diejenigen, die ein ungeeignetes Tutorium erlebten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34645-3_7 1820c58beed1f45e756e602e3ed3feac;de;;;1.3.;;;Einsatz von Bildungstechnologien zur Anpassung an die Eigenschaften von Schülern in der beruflichen und beruflichen Bildung (VET) Praktische Übungen in den Werkstätten und Arbeitsplätzen der beruflichen Aus- und Weiterbildung sind die wichtigsten Lern- und Lehraktivitäten. Interessanterweise haben Studien ergeben, dass die Studierenden der Berufsbildung Online-Lernen und E-Ressourcen bevorzugen, um ihr Studium zu ergänzen und zu ergänzen. Die Studierenden der Berufsbildung fanden auch, dass technologieunterstütztes Lernen (TEL) das Lernen motiviert und jederzeit und überall einen zeitnahen Überblick geben kann. In diesem Papier werden die TEL-Strategien und Best Practices einer der größten Berufsbildungseinrichtungen Hongkongs vorgestellt. Die Ergebnisse zeigten die Möglichkeit und den Bedarf der Nutzung von TEL, um die Eigenschaften von Berufsschülern zu berücksichtigen. Die Antworten aus der Umfrage zeigten, dass VAR am besten zu psychomotorisch orientierten Schülern passte, während es auch kognitiv orientierten Schülern half, analytische Fähigkeiten zu entwickeln. Das qualitative Feedback zeigte außerdem, dass die VAR-gestützten Kurse angemessen und effektiv waren, um die Studierenden zu motivieren, ihr Wissen zu erweitern, Problemlösungs- und praktische Fähigkeiten in ihrem eigenen Lerntempo zu fördern. Am wichtigsten ist, dass diese Studie die Eigenschaften, Lernstile und Präferenzen von Studierenden in der Berufsbildung als herausragende Punkte für zukünftige Studien hervorhebt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4594-2_29 794b12bec6e470b786abb60e5ee2661b;de;;;1.3.;;;Ein kurzes Tutorial zum Extrahieren von Informationen aus nutzergenerierten Inhalten (UGC) In diesem kurzen Tutorial geben wir einen Überblick über die Untersuchung von textbasierten nutzergenerierten Inhalten auf Informationen, die im Unternehmenskontext relevant sind. Wir strukturieren den Gesamtprozess in drei Phasen: Erfassung, Analyse und Visualisierung. Entsprechend den Phasen skizzieren wir Herausforderungen und grundlegende Techniken, um Informationen unterschiedlicher Granularität zu extrahieren.;-;-;-;https://link.springer.com/article/10.1007/s13218-012-0224-1 667a1fd3049d50397d4b3f55020ca970;de;;;1.3.;;;Forschungsethikausbildung in den MINT-Disziplinen: Die Versprechen und Herausforderungen eines Gaming-Ansatzes Während die Ausbildung in Ethik und verantwortungsbewusster Forschung (RCR) weithin als wesentlicher Bestandteil der Graduiertenausbildung anerkannt ist, insbesondere in den MINT-Disziplinen (Naturwissenschaften, Technologie, Ingenieurwesen und Mathematik), besteht wenig Konsens darüber, wie dieses Ziel am besten erreicht werden kann . In den letzten Jahren hat sich in diesem Zusammenhang eine Hinwendung zum Einsatz von Spielen vollzogen. Ausgehend von zwei NSF-finanzierten Zuschüssen (eine abgeschlossene und eine laufende) wirft dieses Papier einen kritischen Blick auf den Einsatz von Spielen in der Ethik- und RCR-Ausbildung. Dies geschieht, indem: (a) die Entwicklung von forschungs- und ingenieursethischen Spielen in einen breiteren historischen und theoretischen Kontext gestellt wird, was ihr Versprechen zur Lösung wichtiger pädagogischer Probleme unterstreicht, (b) über einige erste Ergebnisse unserer eigenen Bemühungen zur Entwicklung eines Spiels berichtet und (c) Nachdenken über die Herausforderungen, die sich bei der Verwendung von Spielen für den Ethikunterricht ergeben. In unserer Diskussion der Herausforderungen ziehen wir Lehren, um diesen aufkommenden Ansatz der Ethikausbildung in den MINT-Fächern zu verbessern.;-;-;-;https://link.springer.com/article/10.1007/s11948-015-9624-6 a4fd8ef64dd38c888ef958b088bb1264;de;;;1.3.;;;Intelligente virtuelle Agenten für Bildung und Ausbildung: Chancen und Herausforderungen Interaktive virtuelle Welten bieten ein leistungsstarkes Medium für erlebnisorientiertes Lernen. Intelligente virtuelle Agenten können virtuelle Welten mit Menschen zusammenleben und das Lernen als Guides, Mentoren und Teamkollegen erleichtern. Dieses Papier gibt einen Überblick über die wichtigsten pädagogischen Vorteile von animierten Agenten in virtuellen Welten, diskutiert zwei zentrale Forschungsherausforderungen und skizziert ein ehrgeiziges neues Projekt, das diese Herausforderungen angeht.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44812-8_2 c4d2d660345012d4d40c7101ab470251;de;;;1.3.;;;Die Erforschung des meteorologischen Fernunterrichts auf Basis mobiler Bildung Mit der ständigen Entwicklung der meteorologischen Technologie hat China einige neue Anforderungen an den Trainingsmodus für meteorologisches Personal. Derzeit leitet das meteorologische Büro meteorologische Fernausbildungen und hat einige Fortschritte gemacht. Es gibt jedoch noch einige Probleme. Dieses Papier versucht, die 3G-Mobiltechnologie im meteorologischen Ferntraining anzuwenden, und wirft ein neues Modell zur Lösung der Probleme auf. Das Ergebnis dieser Forschung zeigt die Implementierung der meteorologischen mobilen Bildungsdienste basierend auf dem mobilen Modus und deren Leistungsanalyse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23998-4_29 96efc51a031de3bec4573202f8fcdeca;de;;;1.3.;;;Stärkung der Zusammenarbeit mit IT-Unternehmen, Förderung der praktischen Vermittlung von Informationsspezialitäten In diesem Beitrag wurde das Hauptproblem der Ausbildung der gegenwärtig angewandten praktischen Talente in der Informationsspezialität eingehend analysiert und diskutiert, dass eine Stärkung der Zusammenarbeit mit IT-Unternehmen die praktische Lehrreform der Informationsspezialität fördern kann. Die Zusammenarbeit mit IT-Unternehmen kann auch die Effektivität des praktischen Unterrichts und die professionellen Standards der College-Studenten verbessern. Es untersuchte einen neuen Weg, um die Innovationsfähigkeit und die allgemeine berufliche Qualität der Studenten der Fachhochschulen zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24772-9_80 207dc55a909dc581e7330bb1f64024e1;de;;;1.3.;;;Ein Projekt zur Veränderung der Denkweise: Vorbereitung von Lehrkräften in der beruflichen und beruflichen Aus- und Weiterbildung mit technologiegestütztem Lernen (TEL) und E-Pädagogik Die Berufs- und Berufsbildung (VET) legt den Schwerpunkt auf praktische Übungen im Unterricht und die theoretische Vermittlung von Angesicht zu Angesicht, E-Learning und E-Pädagogik sind weniger verbreitet. Der Widerstand erwächst normalerweise aus der Argumentation der Berufsbildung, die auf berufsspezifische Hands-on-Fähigkeiten an authentischen Arbeitsplätzen und dem Motto „Übung macht den Meister“ konzentriert. Angesichts der sich ändernden Lernpräferenzen und -verhaltensweisen der Schüler und der hohen Zugänglichkeit von Online- und Web-basierten Informationen sehen sich Lehrkräfte in der Berufsbildung jedoch jetzt mit der Herausforderung konfrontiert, dass berufsspezifisches Wissen und die Demonstration von Fähigkeiten im Internet weit verbreitet sind und nicht nur von Lehrkräften weitergegeben werden. Darüber hinaus sind die Motivation und das Engagement der Schüler bei Lernaufgaben ebenfalls Themen, die angegangen werden müssen. Als Reaktion darauf wurde ein Projekt zur Veränderung der Denkweise von Lehrkräften eingeführt, und dieses Papier teilt die empirischen Erfahrungen mit der Förderung der technologiegestützten Lernfähigkeit (TEL) und der E-Pädagogik-Kompetenz von Berufsbildungslehrern, um sie darauf vorzubereiten, mit den Lernpräferenzen und -verhalten der Schüler fertig zu werden für die Unterrichtseffektivität. Diese Reihe von Schulungs- und Engagementaktivitäten wurden in vier Phasen durchgeführt: (1) Konzeptualisierung, (2) Einarbeitung, (3) Akzeptanz und (4) Aktion. Diese Schulungen und Aktivitäten ermöglichen es Lehrern, TEL und E-Pädagogik in ihren täglichen Unterricht zu integrieren. Die Ergebnisse des Projekts zeigten, dass ein gut geplantes Programm, das auf die Strategie der Institution abgestimmt war, mit einer schrittweisen Steigerung der Intensität von E-Elementen, die in verschiedene Schulungsveranstaltungen eingebracht wurden, eine einfache Akzeptanz und Verhaltensänderungen ermöglichte. Darüber hinaus sind Synergien der Geschäftsleitung, parallele Programme, Projekte und Auszeichnungen zur Förderung und Ermutigung von Lehrern zur Einführung von TEL- und E-Pädagogik für innovatives Lernen und Lehren ebenfalls ein entscheidender Faktor im Lehrerausbildungsprogramm.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-0008-0_17 8bb551a49a29b1628356a16dd06811d8;de;;;1.3.;;;Studium der Integration der Ausbildung von Medizinphysikern mit der von Radiologietechnologen In Japan gibt es 23 Universitäten, die eine Ausbildung zum Bachelor, MSc und/oder PhD für Radiologietechnologen anbieten. 18 dieser Universitäten verfügen über einen vom japanischen Board for Medical Physicist Qualification akkreditierten Studiengang Medizinphysik. Wir müssen sicherstellen, dass wir Kandidaten in beiden Berufen ein akkreditiertes Umfeld bieten können, um mit begrenzten Ressourcen und Zeit eine Zertifizierung zu erlangen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29305-4_437 16c6b7f3326f85bea25f0154d6027266;de;;;1.3.;;;Tutorial 7: Unternehmensanwendungen modellieren Unternehmensanwendungen sind groß und komplex. Daher ist die Anforderungserhebung und Systemanalyse für den Erfolg von Enterprise Application Development-Projekten besonders wichtig. Unabhängig von der Projektorganisation, dh dem verwendeten Software-Vorgehensmodell, sind klar definierte und leicht verständliche Dokumente und Arbeitsergebnisse ein Grundpfeiler einer erfolgreichen Kommunikation der Systemdokumentation in jedem Projektteam, sowohl für die Kommunikation zwischen Systemanalytiker und dem Entwickler und der Kommunikation zwischen Systemanalytiker und Domänenexperte.;-;-;-;https://link.springer.com/chapter/10.1007/11568346_54 e27f67c35deb8de6a004281e8315ec7b;de;;;1.3.;;;Tutorial 2: FOOM – Funktionale und objektorientierte Methodik: Ein integrierter Ansatz Das Tutorial gibt einen Überblick über die FOOM-Methodik, die den funktionalen und objektorientierten Ansatz integriert. Es beginnt mit einer Begründung und Notwendigkeit des integrierten Ansatzes im Lichte der traditionellen Methoden einerseits und der objektorientierten und UML-basierten Methoden andererseits. Der Hauptteil des Tutorials wird einer Beschreibung der Analyse- und Designphasen und Unterphasen von FOOM und ihren Produkten gewidmet sein. Die Beschreibung wird von einem laufenden Beispiel begleitet.;-;-;-;https://link.springer.com/chapter/10.1007/11568346_49 1a13e571ab132e64135b590292999e5f;de;;;1.3.;;;Tutorial 6: Modellierung und Simulation dynamischer Konstruktionsprozesse Design – eine Signatur menschlicher Intelligenz – war schon immer eine große Herausforderung für die Forschung verschiedener Disziplinen. Beobachtungen darüber, wie Menschen im Design agieren, haben beispielsweise mehrere grundlegende Ideen in KI und DAI hervorgebracht – automatisierte Problemlösung und Argumentation [3]. Im Gegenzug griffen die Forscher als breite Gemeinschaft die Probleme der Designdomäne an, indem sie versuchten, Systeme und Infrastrukturen zu entwickeln, die Menschen bei der Erfüllung von Aufgaben unterstützen, die Intelligenz erfordern. Ein ganz großer Teil dieses Anteils ist natürlich die Herausforderung, die Konzepte und Modelle für verschiedene Aspekte des Designs zu entwerfen. Darüber hinaus sind die Probleme der konzeptionellen Modellierung aus der Perspektive des Data and Knowledge Engineering Designprobleme per se: das Problem des Designs intelligenter Artefakte [3] oder die Erforschung des Designraums der Intelligenz [1][4].;-;-;-;https://link.springer.com/chapter/10.1007/11568346_53 dbe7d47af7a3f7ae30dd4e12982f5880;de;;;1.3.;;;Eine Zusammenfassung der Tutorials auf der ICTAC 2004 ICTAC 2004 bot sechs Tutorials zu fortgeschrittenen Themen rund um das Thema ICTAC, die von anerkannten Experten aus aller Welt gehalten wurden. Hier fügen wir eine kurze Zusammenfassung jedes Tutorials bei.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-31862-0_39 c143843cf053c15a10b53a54a9878f9f;de;;;1.3.;;;Tutorial 5: Schema- und Datenübersetzung Viele Anwendungseinstellungen erfordern den Austausch von Informationen zwischen heterogenen Frameworks. In der Datenbankwelt verwenden wir oft unterschiedliche Systeme, um Daten nach unterschiedlichen Modellen zu handhaben, und müssen daher Daten und deren Beschreibung ineinander übersetzen. Das Problem wird in unserem Bereich seit Jahrzehnten betrachtet, aber definitive Lösungen gibt es noch nicht. Das Problem ist auf Schemaebene relevant (zum Beispiel arbeitet jeder Designer mit einem konzeptionellen Modell wie ER oder UML und übersetzt dann das konzeptionelle Schema in ein logisches Modell, normalerweise relational) und auf Datenebene, wenn wir Datenbanken, und wir möchten sie in ein anderes System übersetzen, das ähnlich sein kann (zB mit einer etwas anderen Version des relationalen Modells) oder völlig anders (zB XML-Dokumente).;-;-;-;https://link.springer.com/chapter/10.1007/11568346_52 f75fa09392b90987148d72a6b09587bb;de;;;1.3.;;;Veränderungen im polnischen System der Lehrerbildung seit 1972 Ausgehend vom „Gesetz über die Rechte und Pflichten der Lehrer“ vom 27. April 1972, ein Meilenstein in der dreißigjährigen Geschichte der Lehrerbildung in der Volksrepublik Polen, skizziert das Papier die Unterschiede und Probleme, die sich aus dem Zweiten Weltkrieg und den folgenden rasch steigender Bedarf an Lehrkräften. Ergänzt wird diese Darstellung durch eine Tabelle mit den Schüler- und Studentenzahlen je Schul- und Hochschultyp in den Zeiträumen 1950-51 und 1973-74 sowie der Zahl der Lehrkräfte je Schul- und Hochschultyp in den gleichen Zeiträumen. Um die schwierige Situation in der Lehrerbildung zu überwinden, wurden seit 1967 insbesondere durch den „Ausschuss für Erziehungs- und Psychologiewissenschaften“ Anstrengungen unternommen, ein einheitliches akademisches Bildungssystem für Lehrerinnen und Lehrer aller Schularten zu konzipieren und umzusetzen. Die diesbezüglichen Empfehlungen wurden vom Sejm (dem polnischen Parlament) in die „Charta der Rechte und Pflichten der Lehrer“ übernommen. Gleichzeitig wurden höhere Gehaltssätze für alle Lehrerkategorien eingeführt. Seit dem Studienjahr 1973/74 gelten die neuen Curricula für die einheitlichen vierjährigen Studiengänge zum Master. Die Anteile und Inhalte der einzelnen Studienbereiche sind aufgeführt.;-;-;-;https://link.springer.com/article/10.1007/BF00635786 c794f7baf48391e8d3219e27ab04d41a;de;;;1.3.;;;Gehirn-Computer-Schnittstelle: Eine Kommunikationshilfe? Ein Brain-Computer-Interface (BCI) ist ein System, das die Kommunikation zwischen dem Gehirn und der äußeren Umgebung ermöglicht. Es ist unabhängig von jeglicher peripheren neuronalen oder muskulären Aktivität und wandelt die Gehirnaktivität direkt in einen computerisierten Befehl um. In diesem Kapitel stellen wir die jüngsten Fortschritte bei der Entwicklung von BCIs vor. Darüber hinaus diskutieren wir klinische Anwendungen bei LIS-Patienten und Studien an Patienten, die sich vom Koma erholen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-2440-5_7 3462deb754c8cd79cedb92a329618790;de;;;1.3.;;;Selbstwirksamkeit und Wissenschaftsangst bei Grundschullehrern im Vorschulalter: Ursprünge und Heilmittel Die Vorschulung von Grundschullehrern ist eine Gelegenheit, positive Erfahrungen zu vermitteln, die die Angst der Schüler vor dem naturwissenschaftlichen und naturwissenschaftlichen Unterricht lindern und ihre Überzeugung stärken können, dass sie effektive Lehrer für naturwissenschaftliche Fächer werden können. Die früheren und aktuellen wissenschaftsbezogenen Erfahrungen und Überzeugungen von Grundschullehrern, die an einem einführenden naturwissenschaftlichen Fach teilnahmen, wurden untersucht. Materie- und Energiekonzepte waren wesentliche inhaltliche Bestandteile des Faches. Es wurden Daten von psychometrischen Tests vor und nach dem Test gesammelt, die entwickelt wurden, um die Selbstwirksamkeit des naturwissenschaftlichen Unterrichts, die naturwissenschaftlichen Einstellungen, das Interesse am naturwissenschaftlichen Unterricht und die bevorzugte Lernumgebung zu messen. Zu Beginn und Ende des Faches wurde eine zufällig ausgewählte Stichprobe von Studierenden befragt. Ein Drittel der Stichprobe wurde einer Studiengruppe zugeordnet, in der ein konstruktivistischer Ansatz für Laborsitzungen gewählt wurde. Der Rest der Probe erfuhr in Laborsitzungen ein traditionelleres transmissives Format. Die Analyse der quantitativen Daten ergab keine Gruppenunterschiede in der Selbstwirksamkeit. Interessante Kontraste zwischen den Schülern, die in den Daten aus den Interviews deutlich wurden, erleichterten die Formulierung vorläufiger Behauptungen über die ursächlichen Faktoren, die die Entwicklung des Selbstwirksamkeitsgefühls der Schüler und möglicher naturwissenschaftlicher Ängste beeinflussen können.;-;-;-;https://link.springer.com/article/10.1007/BF02356362 c110c77a7dac424b90dd11a3a49441e9;de;;;1.3.;;;Automatisierte Generierung von Beispielen für ein Tutorial in fallbasierter Argumentation Beispiele in unserem Bereich sind Argumentationsprobleme mit kleinen Mengen von Rechtsfällen, die auf interessante Weise miteinander verbunden sind. Wir nennen diese Sammlungen von Fällen;-;-;-;https://link.springer.com/chapter/10.1007/3-540-55606-0_67 85a771827cf087cb13c4ccc44a2f59ea;de;;;1.3.;;;Ein Tutorial zu dynamischen und differentiellen Spielen Es wird eine allgemeine Formulierung dynamischer und differentieller Spiele gegeben, die sowohl diskrete und kontinuierliche Zeitprobleme als auch deterministische und stochastische Spiele umfasst. Lösungskonzepte werden in zwei Kategorien vorgestellt, je nachdem ob das dynamische Spiel in normaler oder extensiver Form definiert ist. Für erstere präsentieren wir die Gleichgewichte der Nash-, Stackelberg- und Consistent Conjectural Variations (CCV) mit einer ausführlichen Diskussion über die CCV-Lösung, einschließlich Vergleichen mit anderen spezifischeren Definitionen in der Literatur. Für Spiele in ausführlicher Form diskutieren wir die Feedback-Lösungskonzepte und gehen auf das Thema Zeitkonsistenz ein, das derzeit in der wirtschaftswissenschaftlichen Literatur von großem Interesse ist. Das Kapitel schließt mit einer Diskussion, die die Themen und Beiträge der folgenden zehn Aufsätze und ihre Beziehungen zueinander in die richtige Perspektive rückt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-61636-5_1 fc9428b6ffe009c2823205987a14b5e5;de;;;1.3.;;;Ein Tutorial zur Hankel-Norm-Approximation Eine in sich geschlossene Herleitung der Charakterisierung aller optimalen Hankel-Norm-Approximationen an eine gegebene matrixwertige Übertragungsfunktion wird vorgestellt. Der Ansatz beinhaltet eine Zustandsraumcharakterisierung von Allpasssystemen wie in der vorherigen Arbeit des Autors, wurde jedoch stark vereinfacht. Ein Abschnitt mit vorläufigen Ergebnissen enthält allgemeine Ergebnisse zu linearen Bruchtransformationen, Hankel-Operatoren und Allpasssystemen. Diese Ergebnisse können dann verwendet werden, um die Charakterisierung aller optimalen Hankel-Norm-Approximationen einer gegebenen stabilen Übertragungsfunktion zu geben. Die Grenzen des Frequenzgangs für diese Näherungen werden dann aus den Störungsergebnissen mit endlichem Rang abgeleitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-75007-6_2 5157c83b9e5dbbe8a0a246aaa5eec0a0;de;;;1.3.;;;Beispiel 2: Lufttriangulation Wenn LISA FOTO noch läuft, gehen Sie zu Datei > Projekt auswählen und wählen Sie das Projekt TUTOR_2.PRJ oder, wenn Sie LISA FOTO neu starten müssen, wählen Sie dieses Projekt aus. Gehen Sie ggf. zu Datei > Projekt bearbeiten und ändern Sie den Pfad Ihres Arbeitsverzeichnisses (siehe Kapitel 4.1).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-06725-3_5 9255c6dfc8d38297f53dc0f26062d956;de;;;1.3.;;;Eine Tutorial-Übersicht zu Themen in drahtlosen Netzwerken: Teil II Dies ist der zweite Teil der Umfrage zu aktuellen und aufkommenden Themen in der drahtlosen Vernetzung. Wir geben einen Überblick über den Bereich der drahtlosen Vernetzung als den Umgang mit Problemen der Ressourcenzuweisung, damit die verschiedenen Verbindungen, die das Netzwerk nutzen, ihre gewünschten Leistungsziele erreichen.;-;-;-;https://link.springer.com/article/10.1007/s12046-007-0047-1 481db8fa1618082d30bf1fdcfd0e2d7b;de;;;1.3.;;;Notwendigkeit und Machbarkeit eines Pflegetrainingsassistenten-Roboters (CaTARo) als Schulterkomplexgelenk mit Multi-DOF in der Altenpflegeausbildung Da die geriatrische Bevölkerung wächst, benötigen Pflegekräfte eine genauere Ausbildung für den Umgang und die Pflege älterer Menschen. Den Studierenden fehlen jedoch Methoden, um die notwendigen Fähigkeiten und Erfahrungen zu erwerben, sowie ausreichende Möglichkeiten, an echten Menschen zu üben. Um die Notwendigkeit und Machbarkeit von Assistenzrobotern für die Pflegeausbildung in der Pflegeausbildung zu untersuchen, haben wir einen simulierten Roboter als Schultergelenk mit Multi-DOF entwickelt. In dieser Studie nahmen fünf Experten mit langjähriger Erfahrung in der Altenpflege an der Datenerhebung teil, um Informationen zu Aspekten wie dem Glenohumeralwinkel sowie dem Sternoklavikulargelenk und dessen Drehmoment zu gewinnen. Die Experten führten drei Arten von Bewegungsübungen durch: (i) Elevation-Depression des Sterno-Clavicular-Gelenks, (ii) Extension und Flexion des Glenohumeralgelenks, (iii) Lateral- und Media-Rotation des Glenohumeralgelenks. Die experimentellen Ergebnisse zeigten, dass die quantitativen Ergebnisse für alle Übungen zwischen den Experten signifikant unterschiedlich waren. Darüber hinaus haben wir beobachtet, dass selbst erfahrene Fachkräfte eine konsequente Pflegeausbildung auf der Grundlage quantitativer Daten und Feedback benötigen. Damit bestätigten wir die Notwendigkeit und Machbarkeit des Pflegetrainings-Assistenzroboters zur Verbesserung der Fähigkeiten, die für die Altenpflege erforderlich sind.;-;-;-;https://link.springer.com/article/10.1186/s40648-020-00160-7 93827271f032f9420dc6f11edf0cdc39;de;;;1.3.;;;Eine globale Perspektive auf die Herausforderungen und Chancen beim Erlernen von rheumatischen und muskuloskelettalen Erkrankungen im Medizinstudium Rheumatische und muskuloskelettale Erkrankungen (RMDs) umfassen ein Spektrum degenerativer, entzündlicher Erkrankungen, die überwiegend die Gelenke betreffen. Sie sind weltweit eine der Hauptursachen für Behinderungen und eine enorme sozioökonomische Belastung. Es bestehen jedoch weltweite Defizite in Bezug auf das RMD-Wissen bei Erwachsenen und Kindern bei Absolventen von medizinischen Fakultäten und Hausärzten (PCPs). Im Oktober 2017 traf sich das World Forum on Rheumatic and Musculoskeletal Diseases (WFRMD), ein internationaler Think Tank von RMD und verwandten Experten, um die wichtigsten Herausforderungen und Chancen der RMD-Ausbildung zu diskutieren. Themen waren unter anderem Bedarfsanalyse, Curriculumsinhalte, interprofessionelle Bildung, Lehr- und Lernmethoden, Durchführung, Evaluation und Lehrveranstaltungsevaluation sowie berufliche Bildung/Karriereentwicklung, die den Rahmen für dieses Whitepaper bildeten. Wir weisen darauf hin, dass alle Medizinabsolventen ein grundlegendes Niveau an RMD-Kenntnissen und -Kompetenzen erwerben müssen, damit sie Patienten sicher diagnostizieren, behandeln / verwalten oder überweisen können. Die Bedeutung, mehr Medizinstudenten für eine Karriere in der Rheumatologie zu gewinnen, und der unbestreitbare Wert einer integrierten, multidisziplinären und multiprofessionellen Versorgung werden ebenfalls diskutiert. Wir kommen zu dem Schluss, dass die RMD-Lehre für die Zukunft ansprechen muss, was gelehrt wird, aber auch wo, warum und für wen, um sicherzustellen, dass Gesundheitsdienstleister die bestmögliche Patientenversorgung in ihrem lokalen Umfeld bieten.;-;-;-;https://link.springer.com/article/10.1007/s10067-019-04544-y 7443bfc39e25b455b23a4083f14eac1f;de;;;1.3.;;;Erfahrungen mit Informatik im medizinischen Curriculum Die aktuellen Erfahrungen mit einem neuen medizinischen Curriculum an der Universität Leiden werden beschrieben. Die wichtige Rolle, die die medizinische Entscheidungsfindung in der neuen Ausbildung spielen wird, hat unter anderem zur Einführung einer Reihe von Informatikkursen geführt. Die Wertschätzung und das Engagement der Schüler werden gemeldet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-93264-9_80 f7f170c8faa6c6b74b523bb6629abab7;de;;;1.3.;;;Die Erforschung exzellenter Ausbildungsmodellreformen und Praxisinnovationen mit dem Ziel der Computerspezialität In Kombination mit dem „Ausbildungs- und Ausbildungsprojekt für ausgezeichnete Ingenieure“ der Anweisungen und allgemeinen Anforderungen des Bildungsministeriums analysiert das Papier das Problem des bestehenden Ausbildungsprojekts für Computerspezialisten gemäß den relevanten Anforderungen und Umsetzungsproblemen von „Der ausgezeichnete Ingenieur“. Programm, kombiniert mit der laufenden Situation unserer Schule, erforschte die Methoden der Informatikimplementierung und spezifische Maßnahmen des Ausbildungsprojekts „Der ausgezeichnete Ingenieur“ und analysierte die Qualität der Talentausbildung und die Servicefähigkeit. Die Praxis zeigt, dass die Ausbildung „Exzellente Ingenieurausbildung“ an unserer Schule eine gute Wirkung erzielt hat, für Exzellenzingenieure der Ingenieurpraxis hat die Qualitätsverbesserung eine gewisse Referenzbedeutung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-2098-8_12 c7a370e88695b001ca9e6c66f4e1a26f;de;;;1.3.;;;Auf der Suche nach intrinsischen Qualitätsmetriken von Lernobjekten Die Bewertung der Qualität von Lernressourcen ist eine schwierige und komplexe Aufgabe, die sich oft um mehrere und unterschiedliche Aspekte dreht, die beachtet werden müssen. Um die Qualität zu bewerten, ist es notwendig, das jeweilige Spektrum der Nutzer und die besonderen Kriterien, die diese Nutzer zur Bewertung der Ressourcen verwenden, zu berücksichtigen. Bestehende Ansätze zur Bewertung der Qualität von LO basieren normalerweise auf breit ausgelegten Dimensionen, die von verschiedenen Evaluatoren abweichen können. Die vorliegende Arbeit identifiziert untergeordnete und leicht quantifizierbare Maße von Lernobjekten, die mit Qualität assoziiert sind, mit dem Ziel, eine gemeinsame und von Mehrdeutigkeiten freie Grundlage für die LO-Qualitätsbewertung bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35233-1_5 d8a974c8f78bfa9aa42297f93167b4de;de;;;1.3.;;;Massenspektrometrie im klinischen Labor: Anwendungen in der therapeutischen Arzneimittelüberwachung und Toxikologie Die Massenspektrometrie (MS) wird seit Jahrzehnten in der Forschung und in spezialisierten klinischen Labors als sehr leistungsfähige Technologie zur Identifizierung und Quantifizierung von Verbindungen eingesetzt. In den letzten Jahren hat die Anwendung von MS in klinischen Routinelabors deutlich zugenommen. Dies ist hauptsächlich auf die Fähigkeit der MS zurückzuführen, eine sehr spezifische Identifizierung, hohe Sensitivität und gleichzeitige Analyse mehrerer Analyten (>100) bereitzustellen. Die Kopplung von Tandem-Massenspektrometrie mit Gaschromatographie (GC) oder Flüssigkeitschromatographie (LC) hat die schnelle Expansion dieser Technologie ermöglicht. Während Anwendungen von MS in vielen klinischen Bereichen eingesetzt werden, sind das therapeutische Arzneimittelmonitoring, Drogenmissbrauch und die klinische Toxikologie immer noch die Hauptschwerpunkte des Gebiets. Es ist nicht ungewöhnlich, dass Massenspektrometrie in der klinischen Routinepraxis für diese Anwendungen verwendet wird.;-;-;-;https://link.springer.com/protocol/10.1007/978-1-4939-3252-8_1 0d3d115c7c5051e0b4ec3c426dceba95;de;;;1.3.;;;Linear zeitvariable Kanalschätzung und Trainingsleistungszuweisung für OFDM/MIMO-Systeme mit überlagertem Training Wir adressieren das Problem des Schätzens des linear zeitvariierenden (LTV) Kanals von orthogonalen Frequenzmultiplex-(OFDM)/Multiple-Input-Multiple-Output(MIMO)-Systemen unter Verwendung von überlagertem Training (ST). Der LTV-Kanal wird durch abgeschnittene diskrete Fourier-Basen modelliert. Basierend auf diesem Modell wird ein zweistufiger Ansatz verwendet, um den LTV-Kanal über mehrere OFDM-Symbole zu schätzen. Wir präsentieren auch eine Leistungsanalyse der Kanalschätzung und leiten einen geschlossenen Ausdruck für die Kanalschätzungsvarianzen ab. Es wird gezeigt, dass sich die Schätzungsvarianzen im Gegensatz zu den herkömmlichen ST-basierten Schemata mit zunehmender Trainingslänge einer festen unteren Grenze nähern, die direkt proportional zu den Informations-Pilot-Leistungsverhältnissen ist. Für drahtlose Kommunikationssysteme mit begrenzter Sendeleistung optimieren wir die ST-Leistungszuweisung, indem wir die untere Grenze der durchschnittlichen Kanalkapazität maximieren. Simulationsergebnisse zeigen, dass der vorgeschlagene Ansatz die frequenzgemultiplexten Trainingsschemata übertrifft.;-;-;-;https://link.springer.com/article/10.1007/s11432-011-4241-8 c44fb73b5c4fa852b56b81f819f59741;de;;;1.3.;;;Nichtlineare Inversion der Bildgebung des spezifischen elektrischen Widerstands unter Verwendung von Pruning Bayes'scher neuronaler Netze Herkömmliche künstliche neuronale Netze, die verwendet werden, um das Inversionsproblem der elektrischen Widerstandsbildgebung (ERI) zu lösen, leiden unter Überanpassung und lokalen Minima. Um diese Probleme zu lösen, schlagen wir vor, eine nichtlineare Inversionsmethode des Pruning Bayesian Neural Network (PBNN) und ein Musterdesignverfahren basierend auf dem K-Medoids-Clustering-Algorithmus zu verwenden. Bei dem Musterentwurfsverfahren werden die Trainingsmuster des neuronalen Netzes gemäß den Vorinformationen entworfen, die von den K-Medioiden-Clusterergebnissen bereitgestellt werden, so dass der Trainingsprozess des neuronalen Netzes gut geführt wird. Das vorgeschlagene PBNN, basierend auf Bayes'scher Regularisierung, wird verwendet, um die versteckte Schichtstruktur auszuwählen, indem die Wirkung jedes versteckten Neurons auf die Inversionsergebnisse bewertet wird. Dann ist der Hyperparameter;-;-;-;https://link.springer.com/article/10.1007/s11770-016-0561-1 9627865fb216c8a56bfa867f599f19fc;de;;;1.3.;;;Die Lösungen der mobilen Technologie für die Grundschule Es ist sehr wichtig, den Inhalt der mobilen Technologie zu verstehen, um die Technologieausrüstung der Studenten des neuen Jahrhunderts zu präsentieren, da sie der Grundstein der Technologieentwicklung ist. Die mobile Technologie umfasst mobile Geräte, digitale Übertragungsmodi, mobile Informationssoftware und so weiter. Die mobile Technologie realisierte den ständigen Kontakt, die Netzwerkwerkzeuge des sozialen Umgangs von Teenagern. Im naturwissenschaftlich-technischen Curriculum mussten die Studierenden Fragen beantworten wie: Was ist mobile Technologie? Wie werden diese Dinge ausgeführt? Welche Arten von Wert- und Glaubenseffekten haben die mobile Technologie beeinflusst? Welche Ideen haben die mobile Technologie gefördert? Wie haben wir diese Ideen in die Tat umgesetzt? Wie ist die Wechselwirkung zwischen mobiler Technologie und Sozialität? Ganz wichtig ist, die Anpassung der Schüler an die neue Umgebung durch den Technikunterricht zu fördern. Die in den Unterricht integrierten mobilen Technologieinhalte könnten auf Unterrichtsstrategien der Verbreitung, Förderung, Zusammenarbeit innerhalb und außerhalb, Ausbildung, generative Entwicklung usw. angewendet werden. Daher können in diesem Kapitel Verwirrungen und Gegenmaßnahmen aufgezeigt werden, die sich aus der Theorieforschung und der Unterrichtserfahrung ergeben haben. Das Ergebnis wird eine Ressource für Verwaltung und Lehre sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-84814-3_43 6b7d587265f9fedb2db16efec30ea79a;de;;;1.3.;;;Tutorial zur probabilistischen Themenmodellierung: Additive Regularisierung für die stochastische Matrixfaktorisierung Die probabilistische Themenmodellierung von Textsammlungen ist ein mächtiges Werkzeug für die statistische Textanalyse. In diesem Tutorial stellen wir einen neuartigen nicht-bayesianischen Ansatz vor, genannt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12580-0_3 31d8e1b789d7071cbc98800a432cae7f;de;;;1.3.;;;Ein Tutorial zu den Implementierungen von linearen Bildfiltern in CPU und GPU Dieser Artikel gibt einen Überblick über die Implementierung von linearen Bildfiltern in CPU und GPU. Das Hauptziel besteht darin, eine eigenständige Diskussion verschiedener Implementierungen und deren Hintergrund mit Werkzeugen aus der digitalen Signalverarbeitung zu präsentieren. Zunächst diskutieren wir mithilfe von Signalverarbeitungswerkzeugen verschiedene Algorithmen und schätzen ihren Rechenaufwand. Anschließend besprechen wir die Implementierung dieser Filter in CPU und GPU. In der Literatur findet man sehr häufig, dass GPUs die Rechenzeiten in vielen Algorithmen leicht reduzieren können (einfache Implementierungen). In dieser Arbeit zeigen wir, dass GPU-Implementierungen nicht immer die Rechenzeit reduzieren, aber auch nicht alle Algorithmen für GPUs geeignet sind. Wir glauben, dass dies eine Überprüfung ist, die Forschern und Studenten, die in diesem Bereich arbeiten, helfen kann. Obwohl die experimentellen Ergebnisse nicht zeigen sollen, welche Implementierung (in Bezug auf die Laufzeit) die beste ist, können die wichtigsten Ergebnisse auf CPUs und GPUs mit unterschiedlichen Fähigkeiten hochgerechnet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-75214-3_11 665d94239536ea99915e05b348214d6c;de;;;1.3.;;;Plugins für globale Pfadplaner in ROS schreiben: Ein Tutorial In diesem Tutorial-Kapitel zeigen wir, wie Sie einen neuen Planer in ROS integrieren und dessen Vorteile vorstellen. Umfangreiche Experimente werden durchgeführt, um die Effektivität der neu integrierten Planer im Vergleich zu den Standardplanern des Roboterbetriebssystems (ROS) zu zeigen. Der Navigationsstack der Open-Source-Middleware ROS enthält sowohl globale als auch lokale Pfadplaner, um die ROS-fähige Roboternavigation zu unterstützen. Für den globalen Pfadplaner, einschließlich Dijkstra-, A*- und Karottenplaner, sind nur grundlegende Algorithmen definiert. In der Literatur wurden jedoch intelligentere globale Planer definiert, die jedoch nicht in ROS-Verteilungen integriert wurden. Dieses Tutorial wurde unter Ubuntu 12.4 und für die ROS Hydro-Version entwickelt. Es wird jedoch erwartet, dass es auch mit Groovy funktioniert (nicht getestet). Ein Repository des neuen Trassenplaners ist verfügbar unter;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-26054-9_4 7bccff974ab5181692ea5e8149626f2f;de;;;1.3.;;;Von RoboLab zu Aibo: Eine verhaltensbasierte Schnittstelle für die pädagogische Robotik Dieses Papier beschreibt einen Rahmen, der entwickelt wurde, um das Einstiegsniveau für den Einsatz von hochentwickelten Robotern als Bildungsplattformen zu erweitern. Ziel ist es, eine Programmierumgebung mit niedrigem Einstieg und hoher Decke zu schaffen, die es unerfahrenen Benutzern über eine grafische, verhaltensbasierte Benutzeroberfläche ermöglicht, Steuerprogramme für den vierbeinigen Roboter von Sony Aibo zu erstellen. Zu diesem Zweck haben wir das beliebte;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74024-7_11 378decee51fe887168612ca54e9412c4;de;;;1.3.;;;Ein Tutorial zur ereignisbasierten Optimierung – ein neues Optimierungsframework In vielen praktischen Systemen wird die Steuerung oder Entscheidungsfindung durch bestimmte Ereignisse ausgelöst. Die Leistungsoptimierung solcher Systeme unterscheidet sich im Allgemeinen von herkömmlichen Optimierungsansätzen, wie beispielsweise Markov-Entscheidungsprozessen oder dynamischer Programmierung. Das Ziel dieses Tutorials ist es, auf intuitive Weise ein neues Optimierungsframework namens ereignisbasierte Optimierung einzuführen. Dieses Framework hat eine breite Anwendbarkeit auf die oben genannten Systeme. Mit Leistungspotenzial als Bausteine ​​entwickeln wir zwei intuitive Optimierungsalgorithmen zur Lösung des ereignisbasierten Optimierungsproblems. Die Optimierungsalgorithmen werden basierend auf einem intuitiven Prinzip vorgeschlagen und theoretische Begründungen werden mit einem leistungssensitivitätsbasierten Ansatz gegeben. Abschließend stellen wir einige praktische Beispiele vor, um die Wirksamkeit des ereignisbasierten Optimierungsframeworks zu demonstrieren. Wir hoffen, dass dieser Rahmen eine neue Perspektive für die Optimierung der Leistung von ereignisgesteuerten dynamischen Systemen bietet.;-;-;-;https://link.springer.com/article/10.1007/s10626-013-0170-6 2897b24fc520ea6a8347abce1f99793b;de;;;1.3.;;;Synthese von Zeolithen unter Verwendung von Flugasche und deren Anwendung zur Entfernung von Schwermetallen aus Wässern Drei Zeolith-Typen (NaP1-Zeolith, Analcim und Chabazit) wurden hydrothermal synthetisiert, indem Flugasche mit NaOH-Lösung umgesetzt wurde. Die maximale Umwandlungsrate von Flugasche zu Einzelzeolith beträgt etwa 40–75 % und die Gesamtumwandlungsrate 60–80 %. Die experimentellen Ergebnisse der Synthese zeigen, dass Faktoren wie Wirbel, Viskosität, Temperatur, Reaktionszeit und NaOH-Konzentration im Reaktionssystem stark den Typ und die Umwandlungsrate von Zeolithen beeinflussen. Die Batch-Experimente zur Entfernung von Cu;-;-;-;https://link.springer.com/article/10.1360/02yd0487 24a8aa0a066706daa465d9e420d62eed;de;;;1.3.;;;Logikprogramme mit polymorphen Typen: Eine Bedingung für die statische Typprüfung Dieses Papier beschreibt ein polymorphes Typensystem für Logikprogramme. Wohltypizität wird auf sogenannten Ausführungsmodulen des Programms definiert, was in vielen Fällen zu besseren Ergebnissen führt als [7]. Das System ist teilweise implementiert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-56393-8_35 7a588453280baf6f3422b0090525d3f6;de;;;1.3.;;;"On-the-Job-Training von neuen Mitarbeitern Eine wachsende Zahl von Kommentatoren weist auf die arbeitgeberfinanzierte Ausbildung als entscheidenden Bestandteil der Wettbewerbsfähigkeit eines Landes hin. Amerikanische Arbeitgeber scheinen weniger Zeit und Ressourcen in die Ausbildung von Arbeitern, Angestellten und Dienstleistungsbeschäftigten zu investieren als Arbeitgeber in Genua und Japan (Limprecht und Hayes 1982, Mincer und Higuchi 1988, Koike 1984, Noll et al. 1984, Wiedemold-Fritz 1985). In der aktuellen Bevölkerungserhebung von 1983 gaben nur 33 Prozent der Arbeitnehmer mit einer Betriebszugehörigkeit von 1 bis 5 Jahren an, von ihrem derzeitigen Arbeitgeber eine Schulung zur Qualifizierung erhalten zu haben (Hollenbeck und Wilkie 1985). Parsons (1984) analysiert die Daten der NLS-Jugend von 1982 und berichtet, dass nur 34 bis 40 Prozent der jungen Arbeiter in Büro-, Betriebs-, Dienstleistungs- und Arbeiterberufen antworteten, dass es ""sehr wahr"" sei, dass ""die Fähigkeiten, die ich lerne, sein würden"". wertvoll, um einen besseren Job zu bekommen.“ Die Auszahlungen für einen Ausbildungsplatz scheinen jedoch sehr hoch zu sein. In Parsons Studie stieg der Lohnsatz eines männlichen Jugendlichen im Jahr 1982 um 13,7 Prozent, wenn er 1979 einen hochqualifizierten Job anstelle eines nicht lernfähigen Jobs hatte. Während der Job von 1980 keinen solchen Effekt hatte, erhöhte der Job von 1981 die Löhne um 7,2 Prozent, als es sich um einen Job mit hohem Bildungsniveau und nicht um einen Job ohne Lernen handelte.";-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-76986-3_4 c8b862587c025784fabd0c1dada6e143;de;;;1.3.;;;Die Verwendung von Streaming-Multimedia in der mikroelektronischen Ausbildung An der Massey University haben wir Tools entwickelt und genutzt, die es Lehrern ermöglichen, Multimedia in ihrem Unterricht zu erstellen und zu verwenden. In einer früheren Konferenz zur Mikroelektronik-Bildung wurde behauptet, dass Multimedia sehr teuer in der Herstellung sei und vielleicht Millionen von Dollar kosten würde[1]. In diesem Beitrag werden wir zeigen, dass dies nicht der Fall sein muss. Wir beschreiben einen 20-stündigen Multimediakurs in Advanced Computer Architecture, der vom Autor in weniger als 200 Stunden Vorbereitungszeit (eigentlich weniger als 10.000 US-Dollar) entwickelt wurde. Siehe (http://www-ist.massey.ac.nz/.crjessho/comp_arch). Dieser Kurs (und der Kostenvoranschlag) basierten darauf, mit einer Reihe von PowerPoint-Präsentationen zu beginnen, wie sie in Vorlesungen verwendet wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-9506-3_10 1c514ea7d6d3fc78497dd1dbd04c3c9b;de;;;1.3.;;;Anpassung eines pädagogischen Exergames an mobile Plattformen: ein Entwicklungsprozess Diese Arbeit präsentiert eine Adaption eines pädagogischen Exergames zur kognitiven Stimulation auf mobile Plattformen, insbesondere Tablets. Das pädagogische Exergame „The Incredible Adventures of Apollo and Rosetta in the Space (As Incríveis Aventuras de Apollo e Rosetta no Espaço)“ wurde entwickelt und in einer Intervention mit Kindern im Alter von 6 bis 10 Jahren im schulischen Kontext vorgestellt bei früheren Arbeiten. Dieses Papier schlägt eine Kombination von endbenutzerzentrierten Techniken vor, um ein Exergame, das auf die Stimulation von Executive Functions ausgerichtet ist, in mobile Plattformen anzupassen. Die Methodik verwendet drei unterschiedliche Techniken im Prozess der Spielanpassung: (1) evolutionäres Modell der Softwareentwicklung für Spiele, (2) nicht teilnehmende Beobachtung von Spielanwendungen mit freiwilligen Probanden und (3) halbstrukturiertes Interview mit dem Fächer. Diese Methodik ermöglicht es dem Entwicklungsteam des Projekts, das Spiel durch Prototypen und Benutzertests mit freiwilligen Probanden ständig zu evaluieren, was einen kontinuierlichen Prozess der Verbesserung und Verfeinerung des Spiels garantiert. Wie die Ergebnisse zeigen, ermöglicht diese endbenutzerzentrierte Entwicklung einen effektiven Portabilitätsprozess des Spiels zwischen verschiedenen Plattformen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-95522-3_24 e4f27c378412b177a5a3c9014d6f8bfe;de;;;1.3.;;;Analyse von drei Echo-Trainings eines Regensturms in der südchinesischen Warmregion Mit dem ARW-WRF-Modell wurde ein Regensturm simuliert, der zwischen dem 22. und 23. Mai 2014 in der Provinz Guangdong in der südchinesischen Warmregion auftrat. Drei „Echo-Trainings“ über dem Gewitterzentrum wurden analysiert und die Ergebnisse sowohl der Simulation als auch der Beobachtungsanalyse zeigten, dass dieser Gewitterprozess aus drei Phasen bestand. In der ersten Stufe lösten Schwerewellen die gleichzeitige, aber relativ unabhängige Bildung von linearen Konvektions- und Konvektionszellen aus, die sich durch das Regenzentrum nach Nordosten bewegten und so das Echotraining erzeugten. In der zweiten Stufe wurden mit der Bildung des kalten Abflusses kontinuierlich neue Konvektionszellen im Südwesten und Nordwesten des Regengebiets gebildet und dann nach und nach in das nordöstliche Regengebiet übergegangen, wodurch ein neues Echotraining gebildet wurde. In der dritten Stufe bewegten sich mehrere Regenbänder über dem Regengebiet nach Südosten und passierten das stärkste Niederschlagszentrum, wodurch das dritte Echo-Training entstand. Die Modellsimulation zeigte, dass bei 900 hPa vor der konvektiven Initiierung eine erhebliche Erwärmung auftrat, die zur Bildung einer stabilen Schicht unter 900 hPa führte, die die Hauptursache für die Schwerewellen war, die die multiplen Konvektionszellen auslösten. Die multiplen Konvektionszellen bildeten die Konvektionslinie, nach der sich aus dem kalten Abfluss in seiner südwestlichen und nordwestlichen Richtung neue Konvektion bildete. Die neue Konvektion im Südwesten hielt das Regenband aufrecht, jedoch bildete die neue Konvektion im Nordwesten zusammen mit dem Regenband des Nordens einen großen Radarreflexionsbereich und folglich ein größeres MCS.;-;-;-;https://link.springer.com/article/10.1007/s11707-017-0651-2 bee7bf6530b0f6d7f50ea601068fec16;de;;;1.3.;;;Qualität der Aus- und Weiterbildungsprogramme im Projektmanagement Das Papier verweist auf die Faktoren, die die Qualität der Aus- und Weiterbildung zum Projektmanagement beeinflussen. Es wurde eine Umfrage durchgeführt und die wichtigsten Ergebnisse präsentiert. 81 % der Antworten kamen aus China. Der Rest waren Fachleute verschiedener EU-Nationalitäten. Der Anteil der Projektmanager, die die Fragen beantwortet haben, ist eher gering – 8 %. In der Kategorie „Sonstiges“ haben wir Softwareentwickler, Finanzmanager und Professoren, die sowohl in die Ausbildung zum Projektmanagement, als auch als Teammitglieder oder Teamleiter in Projekten eingebunden sind und so einen ausgewogenen Überblick in Theorie und Praxis gewährleisten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13166-0_46 5c19659f9ba609015034c6e0bb0b515d;de;;;1.3.;;;Die Auswirkungen von Hörer- und Sprechertraining auf entstehende Beziehungen bei Kindern mit Autismus In der aktuellen Studie wurde der Einsatz von Standardtraining zur bedingten Diskriminierung (d. h. Hörer) und Text-/Takttraining (d. h. Sprecher) bei der Einrichtung von Äquivalenzklassen bewertet, die diktierte Namen, Takte/Textantworten, Bilder und gedruckte Wörter enthalten. Vier mit Autismus diagnostizierte Kinder (im Alter von 5 bis 7 Jahren) wurden gelehrt, Bilder und gedruckte Wörter in Gegenwart ihres diktierten Namens auszuwählen und den Takt oder die Textantwort auszusenden, die einem präsentierten Bild oder gedruckten Wort entspricht. Sowohl das Sprecher- als auch das Hörertraining führten zur Bildung von Stimulusklassen für 3 von 4 Teilnehmern.;-;-;-;https://link.springer.com/article/10.1007/BF03393111 737dc9cae8b69155ac7874c2f9dceaec;de;;;1.3.;;;Berufsbildung an australischen Schulen Während berufsbildende Fächer seit jeher Bestandteil des schulischen Lehrplans waren, war die formale Berufsbildung (VET) in den letzten beiden Jahren der Sekundarschulbildung im letzten Jahrzehnt ein politischer Schwerpunkt. Im australischen Kontext;-;-;-;https://link.springer.com/article/10.1007/BF03216868 25d405279d250e5cd0142318e08da5a2;de;;;1.3.;;;Ballett-Pose-Erkennung: Ein Vektor-Maschinenmodell für die Tanztrainingsumgebung mit einer Fülle von Wörtern Ernsthafte Tanzschüler suchen immer nach Wegen, wie sie ihre Technik verbessern können, indem sie alleine zu Hause oder im Studio üben, indem sie einen Spiegel als Feedback verwenden. Das Problem dieser Schüler ist, dass es bei vielen Balletthaltungen schwierig ist, die eigenen Fehler zu analysieren. Da Tänzer keine Anleitung bezüglich der richtigen Positionsausrichtung haben, riskieren sie, Verletzungen und schlechte Gewohnheiten zu entwickeln. Die vorgeschlagene Lösung ist ein System, das die Ballettposition erkennt, die von einem Tänzer ausgeführt wird. Nach der Anerkennung zielt diese Forschung darauf hin, die notwendige Korrektur als Feedback bereitzustellen. Die Ergebnisse für die Erkennung im System unter Verwendung eines Bag-of-Words-Ansatzes für einen Support Vector Machine-Klassifikator zeigten eine Genauigkeit von 59,6 %. In diesem Papier werden mehrere Implementierungen erstellt und bewertet. Es wurde eindeutig festgestellt, dass der Ansatz machbar ist, jedoch sind Arbeiten zur Verbesserung der Genauigkeit erforderlich. Daher werden Empfehlungen zur Verbesserung der effektiven Posenerkennung für zukünftige Arbeiten diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1056-0_33 6ffab19f46a710bbfec344a798c29b9f;de;;;1.3.;;;Kostengünstiges Massiv-MIMO: Pilotlänge und ADC-Auflösung Bei der Entwicklung eines energieeffizienten MIMO-Systems (Massive Multiple Input Multiple Output), bei dem jede Empfängerantenne mit einem Analog-Digital-Wandler (ADC) mit niedriger Auflösung ausgestattet ist, beträgt die Anzahl der Basisstationsantennen (BS) und Quantisierungsbits im Allgemeinen zwei sich gegenseitig widersprechende Systemparameter. In diesem Artikel untersuchen wir die gemeinsame Optimierung der Anzahl von BS-Antennen und der ADC-Auflösung in quantisierten massiven MIMO-Systemen unter der Annahme von unvollkommenen Kanalzustandsinformationen (CSI). Ein handhabbarer Näherungsausdruck für die Uplink-Summenspektraleffizienz (SE) unter Verwendung von Maximum Ratio Combining (MRC)-Empfängern wird abgeleitet, auf deren Grundlage die Pilotlänge, die die Summe SE maximiert, vorgelegt wird. Unter Berücksichtigung der Wirkung von ADCs wird anschließend ein realistisches Modell des Gesamtstromverbrauchs gegeben. Darauf aufbauend formulieren wir das Optimierungsproblem der Auswahl der Anzahl von BS-Antennen und der ADC-Auflösung, um die Summe SE unter einer Beschränkung des Gesamtleistungsverbrauchs zu maximieren. Unsere Ergebnisse zeigen, dass für massive MIMO-Systeme mit ADCs mit niedriger Auflösung, insbesondere für die Empfänger mit Ein-Bit-Quantisierern, mehr Pilotsymbole zugewiesen werden sollten. Darüber hinaus zeigen die Ergebnisse den Kompromiss zwischen der Anzahl von BS-Antennen und Quantisierungsbits. Numerische Ergebnisse legen nahe, dass es in massiven MIMO-Systemen eine optimale ADC-Auflösung gibt, während niedrigere Quantisierungsbits eine erhebliche Verschlechterung der SE-Leistung verursachen können und höhere Quantisierungsbits mehr Energie verbrauchen.;-;-;-;https://link.springer.com/article/10.1007/s41650-018-0020-7 61b43fb9c60d114b44c2da2040737549;de;;;1.3.;;;Training von Hidden-Markov-Modellen mit bevölkerungsbasierter Metaheuristik In diesem Kapitel betrachten wir das Thema Hidden-Markov-Modell (HMM)-Training. Zuerst werden HMMs eingeführt und dann konzentrieren wir uns auf das spezielle HMM-Trainingsproblem. Wir betonen die Schwierigkeit dieses Problems und stellen verschiedene Kriterien vor, die berücksichtigt werden können. Es wurden viele verschiedene Anpassungen von Metaheuristiken verwendet, aber bisher wurden nur wenige ausführliche Vergleiche für dieses Problem durchgeführt. Wir schlagen vor, drei populationsbasierte Metaheuristiken (genetischer Algorithmus, Ameisenalgorithmus und Partikelschwarmoptimierung) mit und ohne Hilfe eines lokalen Optimierers zu vergleichen. Diese Algorithmen verwenden Lösungen, die in drei verschiedenen Arten von Suchräumen untersucht werden können (einem eingeschränkten Raum, einem diskreten Raum und einem Vektorraum). Wir untersuchen diese Algorithmen sowohl aus einer theoretischen als auch aus einer experimentellen Perspektive: Parametereinstellungen werden an einem reduzierten Datensatz vollständig untersucht und die Leistung der Algorithmen wird an verschiedenen realen Datensätzen verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72960-0_20 2d5bcbdc0fbece7540f0065d6c0f2b19;de;;;1.3.;;;Computergestützte Bildung: Was steckt hinter dem attraktiven Vorhang? Ziel dieser Studie ist es, die interne Struktur und Wirksamkeit der computergestützten (webgestützten On-Campus- und Online-) Bildung zu analysieren, die derzeit weltweit verbreitet ist und scheinbar irreversibel ist. Die meisten Veröffentlichungen, die sich mit computergestützter Bildung befassen, konzentrieren sich auf ihre Vorteile, und nur wenige enthalten eine vorsichtige und begründete Skepsis, da die Nutzung der computergestützten Technologie (und das Internet als Bereitstellungssystem) keinen besseren Bildungsprozess garantiert. Im Gegensatz zu einem traditionellen Stil, der auf der Kommunikation zwischen Lehrer und Schüler basiert, umfasst der computergestützte Ansatz mindestens eine weitere Partei, den technischen Support, der entweder in einer Intranet- oder Internetumgebung tätig ist. Diese Komponente könnte entweder nacheinander oder parallel in den Bildungsprozess einbezogen werden, um entgegengesetzte Ergebnisse zur pädagogischen Wirksamkeit zu erzielen. Der formale Algorithmus, der den computerisierten Bildungsprozess beschreibt, wird auf der Grundlage einer Kombination der logischen UND- und ODER-Operatoren entwickelt, die auf den Satz von Kommunikationstopologien angewendet werden. Dieser Algorithmus ermöglicht es, qualitativ und quantitativ verschiedene Lernszenarien zu vergleichen und den relativen Beitrag jeder lokalen Komponente zum gesamten Prozess abzuschätzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-8739-4_22 c34354806a2bce34828a3a2a882069f5;de;;;1.3.;;;Technologietransferstellen als Anbieter von naturwissenschaftlich-technologischen Entrepreneurship-Ausbildung Universitäten zeigen ein zunehmendes Engagement, wissenschafts- und technologiebasiertes Unternehmertum zu fördern, um zur gesellschaftlichen und wirtschaftlichen Entwicklung beizutragen. Die Bereitstellung einer wissenschaftlichen und technologischen Ausbildung zum Unternehmertum (STEE) und der Betrieb von Technologietransferbüros (TTOs) verfolgen das Ziel, die universitären Fähigkeiten und Leistungen im Bereich des wissenschaftsbasierten Unternehmertums zu verbessern. In der Literatur wurden STEE-Initiativen und TTOs getrennt behandelt. Dieses Papier berichtet über die erste umfassende Studie über die Beteiligung von TTO an STEE. Aus einer Stichprobe von 176 Universitäts-TTOs in 28 europäischen Ländern fanden wir, dass 71 Prozent der TTOs an der Bereitstellung von STEE beteiligt waren. Die umfassende Beteiligung an STEE zeigt, dass TTOs eine aktive Rolle bei der Förderung der unternehmerischen Fähigkeiten von Universitäten über spezifische Lizenz- und Spin-off-Fälle hinaus spielen. Wir analysieren, wie die Eigenschaften von TTOs und Universitäten den Umfang des STEE-Engagements in Bezug auf Inhalt, Zielgruppe und Dauer potenziell beeinflussen. Wir stellen fest, dass in STEE insbesondere ältere, strategisch autonome TTOs aktiv sind, die an Universitäten angesiedelt sind, die eine starke Relevanz für Technologietransferaktivitäten aufweisen. Die aktive Rolle der TTOs in STEE hat Auswirkungen auf das Verständnis des Ökosystems der Entrepreneurship Education an Universitäten und bietet interessante Möglichkeiten für weitere Forschungen.;-;-;-;https://link.springer.com/article/10.1007/s10961-020-09788-4 c513d51127461738ccb1e7ca38ab3db3;de;;;1.3.;;;ROS-Webdienste: Ein Tutorial Dieses Tutorial zeigt, wie das Paradigma der serviceorientierten Architektur (SOA) in das Roboterbetriebssystem (ROS) integriert wird. Das Hauptziel besteht darin, das ROS-Ökosystem als einen Dienst bereitzustellen, der von Web Services (WS)-Clients aufgerufen werden kann. Diese Integration ermöglicht es Endbenutzern und Clientanwendungen, über gemeinsame WS-Schnittstellen nahtlos mit dem ROS-Ökosystem zu interagieren, während alle Implementierungsdetails der in der ROS-Middleware bereitgestellten Anwendungen ausgeblendet werden. Am Ende dieses Tutorials ist der Leser in der Lage, Webdienste zu entwickeln, die ROS-Themen und -Dienste für Endbenutzer und Clientanwendungen verfügbar machen. Dieses Tutorial wurde unter Ubuntu 12.4 und für die ROS Hydro-Version entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-26054-9_18 1c68831d4078e0ae479a42434112c4b7;de;;;1.3.;;;Schülerstimmen: Perspektiven der Verhaltensaufklärung Die Annapolis-Konferenz über die Aus- und Weiterbildung von Beschäftigten im Bereich der Verhaltensgesundheit wurde im September 2001 einberufen, um die Relevanz und Qualität der Bemühungen um die Ausbildung von Personen, die psychische Gesundheit und Suchtdienste anbieten, zu untersuchen. Es war wichtig, dass die Studierenden als Konsumenten von Bildungsangeboten im Dialog vertreten sind. Vier Studenten und ein neuer Absolvent schlossen sich einer vielfältigen Gruppe in Annapolis an, zu der Fachleute, Verwaltungspersonal, Pädagogen, Verbraucher von verhaltensbezogenen Gesundheitsdiensten und Familienmitglieder gehörten. Die Studierenden kamen aus den Berufen Psychiatrie, Psychologie, Sozialarbeit und Pflege. In einer Reihe persönlicher Erzählungen präsentieren diese Personen ihre Ansichten zur Konferenz, zu Bildung und Ausbildung und zum Bereich der Verhaltensgesundheit im Allgemeinen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1019609308264 f899dbbf0b60fc58be33629cbb90eefe;de;;;1.3.;;;Mensch-System-Interaktion für Teamtraining in virtuellen Umgebungen Virtuelle Umgebungen werden zunehmend verwendet, um kollaborative Aktivitäten und Fernunterricht zu unterstützen. Nur wenige sind jedoch darauf ausgelegt, Studenten, Dozenten und Simulationen im Teamtraining mit mehreren Teilnehmern zu unterstützen. Dieses Dokument beschreibt das Training Studio, ein System zum Erstellen, Bereitstellen und Auswerten von Teamtrainings mit mehreren Teilnehmern in einer immersiven virtuellen Umgebung. Das Trainingsstudio konzentriert sich auf die Interaktion zwischen Mensch und System, sodass mehrere Schüler lernen und Teamaufgaben ausführen können. Das Training Studio unterstützt kollaboratives Lernen für Aktivitäten mit einem oder mehreren Teilnehmern. Dies wird durch den Einsatz von Agenten erreicht, die den Schülern als persönliche Mentoren oder fehlende Teammitglieder zugewiesen werden. Die Durchführung von Teamtrainings in einer virtuellen Umgebung führt zu Komplexitäten und Problemen, die für Teamtrainings und virtuelle Umgebungen mit mehreren Teilnehmern einzigartig sind. Dieses Whitepaper beschreibt unseren Ansatz für das Teamtraining in virtuellen Umgebungen, diskutiert die aufgetretenen Probleme und die resultierenden Designüberlegungen und Implementierungen.;-;-;-;https://link.springer.com/article/10.1007/BF01434993 aafe55c5acc79c312bda4f6733d2cf6f;de;;;1.3.;;;Kombinatorische Optimierung mit mehreren Zielen – Ein Tutorial In diesem Beitrag nehmen wir den Leser mit auf eine sehr kurze Führung durch die multiobjektive kombinatorische Optimierung (MOCO). Wir weisen auf die zunehmende Bedeutung der Berücksichtigung mehrerer Zielsetzungen in realen Anwendungen der kombinatorischen Optimierung hin, untersuchen den Problemkontext und die Hauptmerkmale von (MOCO)-Problemen. Unsere Hauptstopps auf der Tour sind Übersichten über genaue und heuristische Lösungsmethoden für MOCO. Wir schließen die Präsentation mit einem Ausblick auf vielversprechende Ziele für zukünftige Expeditionen in das Feld ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36510-5_1 b239dc1d1fc00dcfaf2f683696464c05;de;;;1.3.;;;Auf dem Weg zur Professionalität der Marketingausbildung in der Wirtschaft: Bedürfnisse und Segmente von Immobilienfachleuten Immobilienfachleute mit Sitz in den Vereinigten Staaten machen einen bedeutenden Teil der Geschäftsbevölkerung des Landes aus. Das Thema Weiterbildungsangebote kommt bei zahlreichen Treffen von Immobilienvermarktungs- und Managementgruppen auf. Dieses Papier fasst eine Untersuchung zusammen, um die Bedürfnisse und Präferenzen von Immobilienfachleuten im Bundesstaat Arkansas zu ermitteln. Solche Informationen sollten es Sponsoren von Bildungsprogrammen ermöglichen, Präsentationen anzubieten, die für den Beruf attraktiv sind und sich als erfolgreich erweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16973-6_45 d0a1829e18593729ab737585620a53a4;de;;;1.3.;;;Berufliche Entwicklung von Fremdsprachenlehrern im Informationszeitalter Die Kultivierung der Lernautonomie der Schüler hat neue Herausforderungen für die berufliche Entwicklung von Lehrern, eine dynamische, kontinuierliche, lebenslange, umfassende Entwicklung mit Schwerpunkt auf der Kreativität und Beständigkeit der Qualitätsentwicklung der Lehrer gestellt. Die berufliche Weiterbildung der Lehrkräfte kann folgende Ansätze verfolgen: Theorien des Fremdsprachenunterrichts mit Hilfe moderner Informationstechnologie studieren, informationstechnologisch unterstützte Online-Lehrforschungsaktivitäten organisieren und Peer-Beobachtung und Dialog führen – Reflexion im Internet-Umfeld lehren und wissenschaftliche Lehrkräfte fördern .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18134-4_37 54aafc59d5b2150544e0872246fce1ef;de;;;1.3.;;;Innovative Praktiken des IC-Designs und Anwendungskurse Das Bachelor-Programm für IC-Design und -Anwendung ist ein interdisziplinäres aufstrebendes Programm mit High-Tech-Integration. Dieses Papier präsentiert innovative Praktiken des IC-Design- und -Anwendungsgrundstudiums an der Ningbo University, um die starke Nachfrage nach Designern von ASIC-Chips und Elektronikingenieuren von Heimelektronikprodukten zu befriedigen. Das Kurssystem, die Lehrinhalte, die Lehrmethoden und die praktischen Lehrmethoden werden für das Bachelor-Spezialgebiet untersucht, die unter Bezugnahme auf die Entwicklungserfahrungen von IC-Postgraduiertenstudenten an der Ningbo University und fortgeschrittene Lehrerfahrungen in Mikroelektronik entwickelt werden. Die Studienergebnisse haben einen gewissen Wert für das IC-Design und die Anwendung des Bachelor-Professional-Baus anderer ähnlicher Universitäten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24772-9_2 a750a8fe191e1e7ef51874d8fd8fa2c4;de;;;1.3.;;;Der Pathophysiologie-Tutor: Ein erster Schritt zum smarten Tutor Der Pathophysiology Tutor (PPT) soll den Studierenden dabei helfen, ihr Wissen über die kardiovaskuläre Physiologie zu integrieren und es zu lernen, pathophysiologische Probleme mit einem hypothetisch-deduktiven Denkprozess zu lösen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-51142-3_74 e4a85b98e368738fb4f9ef135424fa00;de;;;1.3.;;;Der Einfluss von Aus- und Weiterbildung auf die psychische Arbeitsbelastung in der medizinischen Ausbildung Psychische Arbeitsbelastung wird heute als bedeutender Faktor für die Leistung von Personen akzeptiert, die komplexe Aufgaben in Hochrisikoumgebungen wie dem Gesundheitswesen ausführen. Um den Effekt des Trainings auf die mentale Arbeitsbelastung zu ermitteln, wurde eine systematische Recherche in Studien zum Effekt von Bildung und/oder Training unter Verwendung von Standardforschungsdatenbanken durchgeführt. Es wurden nur 6 Studien identifiziert und diese zeigten entweder eine begrenzte oder keine Verbesserung nach dem Training/der Ausbildung, was darauf hindeutet, dass pädagogische Interventionen einen begrenzten Nutzen bei der Reduzierung der mentalen Arbeitsbelastung haben. Das offensichtliche Versagen der Bildung könnte darauf hindeuten, dass die gegenwärtige, digitale Sicht auf Kognition nicht angemessen ist und ein alternatives Konzept der analogen Kognition als mögliche Erklärung vorgeschlagen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-14273-5_15 95b0780689a84c4da7a38268771835cc;de;;;1.3.;;;Aliskiren reduziert die Gefäßpathologie bei diabetischer Retinopathie und sauerstoffinduzierter Retinopathie bei transgenen Wir untersuchten, ob der Renin-Inhibitor Aliskiren einen ähnlichen oder größeren Schutz als die ACE-Hemmung vor nicht-proliferativer diabetischer Retinopathie und vor der proliferativen Neoangiogenese der Sauerstoff-induzierten Retinopathie bietet.;-;-;-;https://link.springer.com/article/10.1007/s00125-011-2239-9 62eeafd80208d48604cbef507281226c;de;;;1.3.;;;Ein Überblick über Faktoren, die den Erfolg der Membranproteinkristallisation mit Bicellen beeinflussen Es wurden mehrere Berichte veröffentlicht, die verschiedene Plattformen zur Gewinnung von Kristallen von Membranproteinen zur Bestimmung ihrer Struktur detailliert beschreiben, einschließlich solcher, die scheibenförmige Doppelschichten, sogenannte Bicellen, verwenden. Obwohl diese Kristalle leicht gezüchtet und für die Röntgenbeugung verwendet wurden, bleibt das allgemeine Verständnis, warum Bizellen für ein solches Verfahren geeignet sind oder wie man Bedingungen rational wählt, unbekannt. Dieser Aufsatz beabsichtigt, Fragen der Proteinstabilisierung und -fällung in Gegenwart von Lipiden zu diskutieren, die die Kristallbildung beeinflussen können.;-;-;-;https://link.springer.com/article/10.1007/s11515-012-1208-0 793b18b26df8899d7ff35d9f2ea494b9;de;;;1.3.;;;Blindentzerrung eines nichtlinearen Satellitensystems mit MCMC-Simulationsmethoden Dieses Papier schlägt die Verwendung von Markov Chain Monte-Carlo (MCMC)-Simulationsverfahren zum Entzerren eines Satellitenkommunikationssystems vor. Die Hauptschwierigkeiten sind die nichtlinearen Verzerrungen, die durch die Verstärkerstufe im Satelliten verursacht werden. Mehrere Verarbeitungsverfahren schaffen es, die Nichtlinearität des Systems zu berücksichtigen, erfordern jedoch die Kenntnis einer Trainings-/Lerneingabesequenz zum Aktualisieren der Parameter des Entzerrers. Es gibt auch blinde Entzerrungsverfahren, die jedoch eine Volterra-Modellierung des Systems erfordern. Ziel des Papiers ist es auch, die emittierte Botschaft blind wiederherzustellen. Um das Ziel zu erreichen, nehmen wir eine Bayessche Sichtweise ein. Wir nutzen gemeinsam das Vorwissen zu den ausgesendeten Symbolen und die verfügbaren Informationen aus dem empfangenen Signal. Dies geschieht unter Berücksichtigung der Posterior-Verteilung der Eingabesequenz und der Parameter des Modells. Eine solche Verteilung ist sehr schwer zu studieren und motiviert daher die Implementierung von MCMC-Methoden. Die Darstellung der Methode gliedert sich in zwei Teile. Der erste Teil löst das Problem für ein vereinfachtes Modell, der zweite Teil befasst sich mit dem vollständigen Modell und ein Teil der Lösung verwendet den für das vereinfachte Modell entwickelten Algorithmus. Die Algorithmen werden veranschaulicht und ihre Leistung wird unter Verwendung von Kurven der Bitfehlerrate gegenüber dem Signal-Rausch-Verhältnis bewertet.;-;-;-;https://link.springer.com/article/10.1155/S1110865702000367 f6f5ab6a05dc4a4424dfbea0df198e61;de;;;1.3.;;;Redundante Eingabe garantiert kostenneutrale Tracking-Steuerung für omnidirektionale rehabilitative Trainingsgeher In dieser Studie wird das Problem der garantierten kostenunabhängigen Verfolgungskontrolle auf dem omnidirektionalen rehabilitativen Trainingsgeher untersucht. Das nichtlineare redundante Eingabeverfahren wird vorgeschlagen, wenn ein Radaktuatorfehler auftritt. Ziel der Studie ist es, einen asymptotisch stabilen Controller zu konzipieren, der die Sicherheit des Benutzers garantieren und das Tracking auf einem von einem Physiotherapeuten geplanten Trainingspfad gewährleisten kann. Die garantierte Kostenkontrolle und das asymptotisch detektierbare Nullzustandskonzept des Walkers werden vorgestellt und das Modell des Redundanzgrads wird konstruiert. Der Kosten-Leistungs-Index ist definiert, um anfängliche übergroße Eingangskräfte zu beschränken. Auf der Grundlage von LMI wird ein Regler mit Verstärkungsvariationen erhalten, die asymptotische Stabilität erfüllen können, indem eine gemeinsame Lyapunov-Funktion für zulässige Unsicherheiten aufgrund eines Aktorfehlers verwendet wird. Simulationsergebnisse bestätigen die Wirksamkeit des vorgeschlagenen Verfahrens und verifizieren, dass der Gehwagen eine sichere sequentielle Bewegung ausführen kann, wenn ein Radaktuator fehlerhaft ist.;-;-;-;https://link.springer.com/article/10.1007/s12555-013-0445-6 18a65866f30463282a6c8c096bfd6687;de;;;1.3.;;;Einstellungen von Bildungsleitern und Forschungsdirektoren zum Bedarf an Social Robotics Education an Universitäten Wir untersuchten die Haltung der Bildungsleiter und der Forschungsdirektoren zum Bedarf an Kursen für soziale Robotik in Finnland. Die Methoden bestanden aus einer Querschnittserhebung (n = 21) und die Daten wurden mit deskriptiven Methoden und Pearson-Korrelationstests analysiert. Die Ergebnisse zeigten, dass die Einstellung der Befragten zu sozialen Robotern positiv war und dass Robotik-Kurse für Universitäten unerlässlich seien. Die Befragten berichteten, dass der Sozialdienst und das Gesundheitswesen in naher Zukunft soziale Roboter einsetzen werden, es jedoch noch mehr Schulungen erforderlich sind. Bisher haben Universitäten nur wenige Studiengänge in angewandter Robotik für Studierende im Gesundheitswesen angeboten. Auch in dieser Studie wurde festgestellt, dass die befragten Hochschulen die Entwicklung der Service- und Sozialrobotik im Gesundheitswesen noch nicht berücksichtigt haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-05204-1_46 8156898cbb0b4ed24ab37dd3c67b31b6;de;;;1.3.;;;Umfassende Sammlung zeitaufwändiger Probleme für ein intensives Training im Hochleistungsrechnen Die Ausbildung von Fachkräften, die Modelle, Methoden, Technologien und Werkzeuge des Parallel Computing zur Lösung von Problemen anwenden können, ist für den weiteren Fortschritt in vielen Bereichen der modernen Wissenschaft und Technik von großer Bedeutung. Die qualitative Ausbildung solcher Ingenieure erfordert die Entwicklung eines geeigneten Curriculums, das weitgehend auf die Praxis ausgerichtet ist. In diesem Beitrag stellen wir ein neues Handbuch zu Problemen des Parallel Computing vor. Das Buch enthält methodische Materialien, Probleme und Beispiele zu deren Lösung. Der letzte Abschnitt beschreibt die automatische Lösungsüberprüfungssoftware. Das Problemhandbuch wird zur Ausbildung von Studenten der Lobatschewski-Universität Nischni Nowgorod eingesetzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-05807-4_44 b0a205dbd5b202e1b274c900cc827ee2;de;;;1.3.;;;Aufbau virtueller Menschen mit Hintergrundgeschichten: Training zwischenmenschlicher Kommunikationsfähigkeiten bei Medizinstudenten Wir haben eine Studie durchgeführt, in der untersucht wurde, ob wir die Herausforderungen im Zusammenhang mit dem Training zwischenmenschlicher Kommunikationsfähigkeiten durch den Aufbau eines virtuellen Menschen mit Hintergrundgeschichte überwinden können. Achtzehn Studenten interagierten mit einem virtuellen Menschen, der die Hintergrundgeschichte lieferte, und siebzehn Studenten interagierten mit demselben virtuellen Menschen, der keine Hintergrundgeschichte lieferte. Die Hintergrundgeschichte wurde durch die Verwendung von Zwischensequenzen erreicht, die während der gesamten virtuellen menschlichen Interaktion abgespielt wurden. Zwischensequenzen wurden mit Die Sims 3 erstellt und zeigten kurze Momente aus dem Leben des virtuellen Menschen. Wir fanden heraus, dass Medizinstudenten, die mit einem virtuellen Menschen mit Hintergrundgeschichte interagierten, bei der Interaktion mit einem standardisierten Patienten von dem standardisierten Patienten als einfühlsamer wahrgenommen wurden als die Studenten, die mit dem virtuellen Menschen ohne Hintergrundgeschichte interagierten. Die Ergebnisse haben praktische Auswirkungen auf den Aufbau virtueller menschlicher Erfahrungen, um zwischenmenschliche Fähigkeiten zu trainieren. Die Bereitstellung von Hintergrundgeschichten scheint eine effektive Methode zu sein, um Herausforderungen zu überwinden, die mit dem Training zwischenmenschlicher Fähigkeiten mit virtuellen Menschen verbunden sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09767-1_17 34f2eb0482f88241689a6ab0fd65dd90;de;;;1.3.;;;Nutzerzentriertes IKT-Design für die Arbeitsmedizin: Eine Fallbeschreibung In der betrieblichen Gesundheitsförderung besteht ein kontinuierlicher Bedarf an adaptiven Strategien, Instrumenten, Methoden und Wellnessprogrammen. Ebenso werden Fähigkeiten benötigt, um verschiedene Ansätze im Training zu mischen. Es wurde eine Anwendung entwickelt, um Nacken- und Schulterbeschwerden vorzubeugen und das allgemeine Wohlbefinden am Arbeitsplatz zu steigern. Ziel war es, insbesondere Blended-Health-Programme zu unterstützen. Heutzutage gibt es viele Anwendungen, die auf den Einsatz im Selbsttempo ausgerichtet sind, um auch diese Art von Symptomen zu behandeln. Da aber auch in diesem Bereich eine tutorgestützte Beratungsausbildung ihren Platz hat, sind auch innovative IKT-Anwendungen zur Unterstützung von Blended-Programmen oder einer tutorengestützten Arbeitsmedizin-Unterweisung erforderlich. Solche Anwendungen werden in solchen Subspezialitäten und Fokusumgebungen benötigt, in denen ein Bedarf an benutzerzentrierten und maßgeschneiderten Gesundheitsprogrammen offensichtlich ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37899-7_26 8f7bd74d52c5338f8c2339c2599aaf50;de;;;1.3.;;;Blitzschutzmaßnahmen und -bewusstsein in Bangladesch Blitze sind eine der am weitesten verbreiteten und tödlichsten Gefahren in Bangladesch. Bangladesch hat eine der höchsten Sterberaten aller Länder. Das Hauptziel dieser Studie ist es, die Wahrnehmung der Menschen zu analysieren, um mögliche Missverständnisse und Mythen über Blitze zu untersuchen. Dieses Papier befasst sich mit dem gegenwärtigen Sicherheitswissen und dem Bewusstsein der Bevölkerung, der räumlichen Variation von Blitzeinschlägen von 1998 bis 2013 und der räumlichen Variation von Blitztoten von 2011 bis 2015 in Bangladesch. Die Wahrnehmung von Blitzen durch die Menschen wurde mithilfe von Feldstudien analysiert, und die räumliche Variation von Blitzeinschlägen und Todesfällen wurde mithilfe eines geografischen Informationssystems analysiert. Die Ergebnisse dieses Papiers haben gezeigt, dass es unter den verschiedenen demografischen Gruppen in Bangladesch einige Missverständnisse, Mythen und Missverständnisse gibt. Die Analyse der jährlichen räumlichen Variation der Blitzdichte weist darauf hin, dass die nördlichen und nordöstlichen Teile von Bangladesch die höchste Blitzdichte aufweisen. Die Vormonsunzeit weist die höchste Blitzdichte aller Jahreszeiten auf. Eine Analyse der räumlichen Variation von Blitztoten legt nahe, dass der Bezirk Chapai Nawabganj in Bangladesch in den Jahren 2011–2015 an der Spitze der Blitztodesraten pro Million Einwohner pro Distrikt liegt. Es wurde festgestellt, dass die Hauptgründe für diese große Zahl von Todesfällen mangelndes Wissen und Bewusstsein für Blitzsicherheit, fehlende Schutzräume und fehlende Schulungen zur Blitzsicherheit sind. Um diese Situation zu verbessern und den Verlust von Menschenleben und Eigentum zu minimieren, sollten ein umfassender Plan und eine Richtlinie entwickelt werden.;-;-;-;https://link.springer.com/article/10.1007/s11069-020-03864-6 0301dedf678165ff7188b59c15b45280;de;;;1.3.;;;Zur Durchführung von datenabhängigem überlagertem Training ohne Cyclic Prefix für SISO/MIMO-Systeme Verglichen mit Kanalschätzungsverfahren basierend auf expliziten Trainingssequenzen wird Bandbreite für diese Verfahren gespart, die überlagerte Trainingssequenzen verwenden, während sie verschwendet wird, wenn Cyclic Prefix (CP) hinzugefügt wird. In früheren Arbeiten von McLernon wurde die Leistung des Mean Square Error (MSE) von Data-Dependent Superimposed Training (DDST) ohne CP für Single-Input Single-Output (SISO)-System unter der Annahme analysiert, dass die datenabhängige Sequenzmatrix a zirkulierende Matrix und nicht durch andere gestört. Tatsächlich ist für das System ohne CP die datenabhängige Sequenzmatrix nicht mehr im Umlauf und wird gestört. Dieses Papier leitet den genauen Ausdruck von MSE für das System ohne CP ab und gibt auch seine Erweiterung zum Multiple-Input Multiple-Output (MIMO) System ohne CP.;-;-;-;https://link.springer.com/article/10.1007/s11767-008-0125-5 43a1b47bde00b1f4ee31822f606079df;de;;;1.3.;;;Multiuser Network Administration Training in LiNeS: Verbindungsfunktion zwischen virtuellen Netzwerken Die Förderung von Netzwerkadministratoren für Netzwerke einschließlich Linux-Servern ist unerlässlich. Wir haben ein System entwickelt, um eine Schulungsumgebung für die Linux-Netzwerkverwaltung bereitzustellen, indem wir die Software für virtuelle Linux-Maschinen im Benutzermodus ausnutzen, und nannten es den Linux Network Simulator (LiNeS). LiNeS funktioniert auf einem Linux-PC und stellt virtuelle Netzwerke bereit, die aus virtuellen Linux-Servern, Routern, Switching-Hubs und Clients bestehen. LiNeS wurde entwickelt, um Schulungsumgebungen bereitzustellen, in denen die Schüler virtuelle Netzwerke allein verwalten. Die virtuellen Netzwerke in den PCs der einzelnen Schüler sind jedoch isoliert, das heißt, sie können nicht miteinander kommunizieren. In dieser Studie wurde eine Funktion entwickelt, die die Studenten üben, indem sie Linux-Netzwerkverwaltungsaufgaben ausführen, indem sie Netzwerke berücksichtigen, die von anderen Studenten verwaltet werden. In diesem Papier beschreiben wir, wie jedes isolierte Netzwerk miteinander verbunden werden kann, und diskutieren die Leistung anhand vorläufiger Evaluierungserfahrungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02937-0_49 0bc47fe11473a7c2dbcd08df79b4640c;de;;;1.3.;;;Fuzzy-Modellierung der Bewertung des Einsatzes eines pädagogischen Publikums zur Verbesserung der Ausbildungsqualität des Bildungsprozesses Dieses Papier betont die Bedeutung der Bildung für eine Person in einer entwickelten Gesellschaft. Um die Qualität der Ausbildung zu verbessern, muss die Wirksamkeit des Einsatzes von Klassenzimmern, Labors und Software im Bildungsprozess von Hochschulen bewertet werden. Hervorgehoben wird die Bedeutung intelligenter Technologien als Instrument zur Beurteilung der Qualität des Bildungsprozesses, deren Einsatz die Qualität der Ausbildung verbessert. Es wird eine kurze Beschreibung der wichtigsten Bestimmungen der Theorie der Fuzzy-Mengen gegeben. Es werden die Merkmale eines Bildungs- und Laborfonds einer Hochschule (Fläche, Anzahl der Arbeitsplätze, verfügbare Software) aufgeführt, die im Bildungsprozess zu berücksichtigen sind. Es wird gezeigt, dass alle Merkmale unterschiedlicher Natur sind, was zur Notwendigkeit führte, den Apparat von Fuzzy-Sets zu verwenden. Es wird ein Beispiel für die Beschreibung der linguistischen Eingabevariablen mit dem ursprünglichen Basissatz und den Ausdruckssätzen gegeben. Diese Arbeit erlaubt es uns, den Anwendungsbereich der Apparatur von Fuzzy-Sets zu erweitern. Die Verbesserung der Informations- und Kommunikationstechnologien (Schaffung lokaler und globaler Netzwerke, Datenbanken und Wissen sowie Expertensysteme) bildet einen spezifischen Bildungsinformationscomputerbereich einer Hochschule, der traditionelle Bildungsformen bereichert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-39225-3_99 53d15d618e68b4c2242a2c3a61869a27;de;;;1.3.;;;Ein Tutorial zur parallelen und gleichzeitigen Programmierung in Haskell Dieses praktische Tutorial stellt die in Haskell verfügbaren Funktionen zum Schreiben paralleler und gleichzeitiger Programme vor. Wir beschreiben zunächst, wie semi-explizite parallele Programme geschrieben werden, indem Annotationen verwendet werden, um Möglichkeiten der Parallelität auszudrücken und die Granularität der Parallelität für eine effektive Ausführung auf modernen Betriebssystemen und Prozessoren zu kontrollieren. Anschließend beschreiben wir die von Haskell bereitgestellten Mechanismen zum Schreiben von explizit parallelen Programmen mit einem Schwerpunkt auf der Verwendung von Software-Transaktionsspeicher, um den Informationsaustausch zwischen Threads zu unterstützen. Schließlich zeigen wir, wie verschachtelte Datenparallelität verwendet werden kann, um deterministisch parallele Programme zu schreiben, die es Programmierern ermöglichen, reichhaltige Datentypen in datenparallelen Programmen zu verwenden, die automatisch in parallele Flat-Data-Versionen für eine effiziente Ausführung auf Mehrkernprozessoren umgewandelt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04652-0_6 75f2a8c5ca68fff9d4b033f734863644;de;;;1.3.;;;Gestaltung von Lehrmethoden für Informatikkurse In diesem Kapitel werden verschiedene Wege für die Gestaltung eines Lehrgangs Methods of Teaching Computer Science (MTCS) im Rahmen eines akademischen Informatiklehrer-Vorbereitungsprogramms vorgeschlagen und sechs Perspektiven auf die Lehrveranstaltungsorganisation vorgeschlagen. Es wird jedoch betont, dass bei der Gestaltung des MTCS-Kurses unterschiedliche Ansätze und Rahmenbedingungen angewendet werden können. Der erste von uns vorgestellte Organisationsansatz drückt eine innovative Organisationsmethodik für den MTCS-Kurs aus, indem er ein zentrales und umfassendes Konzept verwendet. Wir illustrieren diese Methodik durch das Konzept der Rekursion, eines der zentralen Konzepte der Informatik, und zeigen auf, wie jedes der in diesem Leitfaden behandelten Themen im MTCS-Kurs durch die Linse der Rekursion behandelt werden kann. Als nächstes schlagen wir fünf zusätzliche mögliche Perspektiven auf den MTCS-Kurs vor, die das Kursdesign leiten können: NCATE-Standards, Verschmelzung von Informatik mit Pädagogik, Shulmans Modell des Lehrerwissens, Forschungsergebnisse und die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-39360-1_15 9b9c9f67ffa6092f6f5d8367f0021cd9;de;;;1.3.;;;Ein Tutorial über Numerische Methoden zur Zustands- und Parameterschätzung in nichtlinearen dynamischen Systemen In diesem Kapitel bieten wir ein Tutorial zu modernen numerischen Methoden zur Zustands- und Parameterschätzung in nichtlinearen dynamischen Systemen. Hier konzentrieren wir uns auf den Fall, dass die zugrunde liegenden Modelle auf First-Principles basieren, wodurch Systeme gewöhnlicher Differentialgleichungen (ODEs) entstehen. Als allgemeine Einführung werden die verschiedenen dynamischen Modelltypen, der generische Modellierungszyklus und einige Ansätze zur dynamischen Optimierung, d. Dann wird das Schätzproblem als dynamisches Optimierungsproblem mit maximaler Wahrscheinlichkeit gestellt. Anschließend besprechen wir Multiple Shooting-Techniken und verallgemeinerte Gauß-Newton-Methoden für allgemeine Kleinste-Quadrate- und L1-Norm-Optimierungsprobleme und diskutieren die Vorteile der kürzlich entwickelten Lifted Newton-Methode im Kontext der Zustands- und Parameterschätzung. Schließlich präsentieren wir ein anschauliches Beispiel zur Schätzung der Zustände und Parameter eines Pendels mit der frei verfügbaren Softwareumgebung ACADO Toolkit, in der viele der diskutierten Algorithmen implementiert sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-2221-0_5 1f31d7f34527a5b0e45ae632a740ca9b;de;;;1.3.;;;Anpassung im Kontext erklärender Visualisierung Die erklärende Visualisierung ist ein vielversprechender Ansatz, der in vielen Tutorensystemen verwendet wird. In diesem Beitrag wird versucht, den Wert der Anpassung im Kontext erklärender Visualisierung zu bewerten. Es zeigt, dass ein System, das ein Benutzermodell verwendet und den Fortschritt der Benutzer verfolgt, den Schülern die Möglichkeit gibt, mit einer größeren Menge an Material in derselben Zeit zu interagieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87605-2_28 0182553cefc404dd2f944762262c7b61;de;;;1.3.;;;Verteilte Optimierung und Spiele: Eine Tutorial-Übersicht Dieses Kapitel bietet einen Tutorial-Überblick über verteilte Optimierung und Spieltheorie für die Entscheidungsfindung in vernetzten Systemen. Wir diskutieren Eigenschaften von Methoden erster Ordnung zur glatten und nicht glatten konvexen Optimierung und besprechen mathematische Zerlegungstechniken. Ein Modell der vernetzten Entscheidungsfindung wird eingeführt, bei dem eine Kommunikationsstruktur durchgesetzt wird, die bestimmt, welche Knoten miteinander koordinieren dürfen, und es werden mehrere neuere Techniken zum Lösen solcher Probleme überprüft. Anschließend untersuchen wir weiterhin die Auswirkungen nichtkooperativer Spiele, bei denen keine Kommunikation und Koordination erzwungen wird. Besondere Aufmerksamkeit wird der Existenz und Eindeutigkeit von Nash-Gleichgewichten sowie dem Effizienzverlust bei nicht koordinierenden Knoten gewidmet. Schließlich diskutieren wir Methoden zum Studium der Dynamik von verteilten Optimierungsalgorithmen in kontinuierlicher Zeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-85729-033-5_4 b61d962bb3a39a1c96c0143057777765;de;;;1.3.;;;Synchronisierte Steuerung mechanischer Systeme: Ein Tutorial Mechanische Systeme mit Synchronisationsfunktionalität werden für viele komplexe Produktionsaufgaben verwendet, die nicht von einer einzelnen Maschine und/oder einzelnen Mechanik ausgeführt werden können. Der Ansatz der synchronisierten Steuerung ist eines der Schlüsselthemen, um die synchronisierte Bewegung mechanischer Systeme zu erreichen, die von der akademischen Forschung bis hin zu Anwendungen immer mehr Aufmerksamkeit auf sich zieht. Es gibt viele Arten von mechanischen Systemen, die eine synchronisierte Steuerung erfordern, die eine unterschiedliche Kinematik und Dynamik aufweisen. Es ist keine leichte Aufgabe, einen einheitlichen synchronisierten Regelalgorithmus für alle mechanischen Systeme zu verwenden. Dieses Kapitel fasst die Arbeiten zur synchronisierten Steuerung zusammen, die hauptsächlich von den Autoren und ihren Kollegen entwickelt wurden. In der Präsentation wird versucht, anhand mehrerer klassischer mechanischer Systeme die Designphilosophie der synchronisierten Steuerungen aufzuzeigen und schafft so einen leser- und anwenderfreundlichen Rahmen mit Tutorial, Übersicht, Anwendungen und potenzieller Forschungserweiterung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36385-6_1 8ec60ba1e55770fd813e31ccb9f83421;de;;;1.3.;;;Bewertung der Sprachsynthese In diesem Kapitel wird die Bewertung der Sprachsynthese diskutiert. Es versucht nicht, einen Überblick über alle möglichen Techniken zu geben oder die gesamte Historie früherer Bewertungen abzudecken, sondern hebt stattdessen einige der Schwächen früherer Versuche hervor und weist auf Bereiche hin, in denen zukünftige Entwicklungen erforderlich sein könnten. Sie vertritt die Auffassung, dass Sprachsynthese nicht als Technologie, sondern als Performance zu werten ist, da der eigentliche Hörer vermutlich weniger Interesse an den Leistungen der Entwickler hat als an der Wirkung der Sprache, ihrer Angenehmheit und ihrer Eignung für die verschiedenen Hörkontexte.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-5817-2_2 8a0715d25ff544995f4c3033cb135c62;de;;;1.3.;;;Aufzeigen der zukünftigen Arbeitsmarktperspektiven von Berufsgruppen und Bildungsformen in den Niederlanden Im Mittelpunkt der Aktivitäten des Forschungszentrums Bildung und Arbeitsmarkt (ROA) steht die Erhöhung der Transparenz der Übereinstimmung von Bildung und Arbeitsmarkt. Ein besonderes Augenmerk wird auf die Gewinnung von Informationen über die Arbeitsmarktperspektiven von Berufsgruppen und Absolventen verschiedener Ausbildungsformen gelegt. Diese Informationen sollen in erster Linie jungen Menschen bei der Berufs- oder Ausbildungswahl helfen. Die Informationen können auch eine Rolle bei der Beantwortung politischer Fragen im Hinblick auf die Anpassung der Ausbildungseinrichtungen an die Bedürfnisse des Arbeitsmarktes und die bestmögliche Nutzung des Qualifikationspotenzials der Bevölkerung für wirtschaftliches Wachstum spielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-1362-5_4 605da3b6b6fcae8fd0f9fdeef311fffc;de;;;1.3.;;;Öffentliche Investitionen in Landwirtschaft und Wachstum: Eine Analyse der Beziehungen im indischen Kontext In diesem Kapitel wird der Zusammenhang zwischen öffentlichen Investitionen in die Landwirtschaft und Bewässerung und landwirtschaftlichem Wachstum im indischen Kontext analysiert. Wir erstellen eine Zeitreihe der Einnahmen und Investitionen in Landwirtschaft und Bewässerung für siebzehn große Staaten, die den Zeitraum 1981–81 bis 2013–14 abdecken, um deren Auswirkungen auf das landwirtschaftliche Wachstum zu bestimmen. Die Analyse zeigt, dass die geringe und unzureichende öffentliche Kapitalbildung in den neunziger Jahren die Investitionen der Landwirte beeinträchtigt und den technologischen Wandel und das landwirtschaftliche Wachstum gefährdet hat. Ein großer Schub bei der Ressourcenzuweisung für Landwirtschaft und Bewässerung ab Anfang der 2000er Jahre ist eine wichtige politische Initiative. Ein erheblicher Anstieg der Ausgaben für Bewässerungssysteme in weniger entwickelten Staaten hat dazu beigetragen, die Verlangsamung des Produktivitätswachstums zu stoppen und private Investitionen anzukurbeln. Allerdings hat sich die Kapitalintensität in der Landwirtschaft nicht wesentlich erhöht, was das langsame Wachstum in vielen Staaten teilweise erklären könnte. Die Daten legen nahe, dass es große Unterschiede bei den öffentlichen Ausgaben zwischen den einzelnen Bundesstaaten gibt, was bedeutet, dass die entwickelten Staaten tendenziell mehr für die Landwirtschaft ausgeben als die weniger entwickelten landwirtschaftlich abhängigen Staaten, mit Ausnahme von Himachal Pradesh und Jammu & Kashmir. Ungeachtet dieser zwischenstaatlichen Disparitäten zeigt die empirische Analyse ihre signifikanten Auswirkungen auf das landwirtschaftliche Einkommen. Die Ergebnisse belegen die dringende Notwendigkeit, dem Agrarsektor in der Finanzpolitik den gebührenden Stellenwert einzuräumen. Er empfiehlt den ärmeren Staaten erhöhte Haushaltsausgaben und eine Kapitalvertiefung für höhere landwirtschaftliche Produktivität und Einkommen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-6014-4_2 293a6dc3f329695788d8d8fe656f46ab;de;;;1.3.;;;Studie zum Aufbau eines dreidimensionalen Bildungs- und Ausbildungssystems für Unternehmen in der Provinz Henan Durch die Anwendung der Fragebogenmethode und der vergleichenden Analyse haben wir zwei Arten von Fragebögen an die Unternehmergruppe und die College-Studenten ausgegeben und gültige Fragebögen 228 bzw. 210 gesammelt. Nach der statistischen Analyse aller Fragebögen finden wir einige bestehende Probleme im Umfeld der betrieblichen Aus- und Weiterbildung in der Provinz Henan. Aufgrund der erfolgreichen Erfahrungen und Erkenntnisse aus dem In- und Ausland enthält dieses Papier einige Vorschläge zur Optimierung der betrieblichen Bildungs- und Ausbildungsumgebung in der Provinz Henan, um das unternehmerische Umfeld von Henan zu optimieren. Die Schlussfolgerung und Innovation dieses Papiers besteht darin, dass es die Idee des Aufbaus eines dreidimensionalen Bildungs- und Ausbildungssystems für Unternehmen in der Provinz Henan vorstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23065-3_19 c38502f8c78f9944aefb8f02864693c0;de;;;1.3.;;;Eine Analyse der Ausbildung innovativer Talente in der künstlerischen Bildung unter der Entwicklung der Kreativwirtschaft in der Provinz Guangxixi Die künstlerische Bildung in Guangxi und die Förderung innovativer Talente liegen weit hinter der Geschwindigkeit des chinesischen Wirtschaftswachstums zurück. Daher ist es noch ein langer Weg, um die künstlerische Ausbildung in Guangxi und die schnelle Entwicklung innovativer Talente zu beschleunigen. Dieser Artikel zielt darauf ab, Gegenmaßnahmen zur Kultivierung künstlerisch-kreativer Talente zu treffen, um den wirtschaftlichen Wandel in Guangxi zu fördern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3648-5_171 e87cbd96abde260536537ac0cedd4df1;de;;;1.3.;;;Erratum: Der Einsatz von Serious Games und Simulationen in der Gesundheitserziehung: Sensibilisierung für Depressionen bei Studenten im College-Alter Die folgende Referenz wurde nicht in den Referenzteil des Papiers ab Seite 8 von Bd. 351 der Reihe Communications in Computer and Information Science:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35600-1_50 09960b2a6d7a748c23caaaca97019e74;de;;;1.3.;;;Auf dem Weg zu einer Strategie zur Prozessverbesserung Aus- und Weiterbildung Beim Workshop Software Process Education, Training and Professionalism 2015 lag der Fokus auf der Zusammenstellung eines Manifests mit Werten und Prinzipien. Ohne eine Strategie, die von einer gemeinsam geteilten Vision angetrieben wird, kann es jedoch schwierig sein, greifbarere Ergebnisse zu erzielen. Dieses Papier entwirft eine vorgeschlagene Strategie, die uns helfen könnte, voranzukommen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67383-7_38 a79908683c0569fa047b5a873f2c6b57;de;;;1.3.;;;Empirische Studie zum Einsatz von Bildungstechnologien in der Ausbildung nach dem KOLB-Modell Der Artikel nutzt die Theorie des Erfahrungslernens, um die Gestaltung und Umsetzung des Lehrplans für Bildungstechnologie basierend auf dem Kolb-Erfahrungslernmodell zu verbessern Verwenden der Statistiksoftware SPSS16.0, um experimentelle Ergebnisse zu analysieren. Nach der Ausbildung zum erlebnispädagogischen Lernen hat sich die Einstellung dieser Lehrenden (insbesondere der Studierenden) gegenüber der pädagogischen Technologie deutlich gewendet, was beweist, dass erlebnispädagogisches Lernen günstige Auswirkungen auf das Erreichen des Einstellungsziels hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23345-6_40 1970b5fec20c9838aba81b7e626659a9;de;;;1.3.;;;Situationsanalyse und Gegenmaßnahmenstudie zur ländlichen Berufsbildung für eine moderne, informationstechnologische Bäuerliche Bewirtschaftung Der Landwirt ist ein wesentlicher Bestandteil der modernen Landwirtschaftsentwicklung und des neuen Landschaftsbaus. Die ländliche Berufsbildung spielt eine wichtige Rolle, um die Fähigkeiten der Landwirte wie „Wissen, Technik und Managementfähigkeiten“ zu fördern. Ausgehend von der Untersuchung der landwirtschaftlich produzierenden Bauern in Ningbo wird in diesem Beitrag eine Situationsanalyse zur ländlichen Berufsbildung für moderne Bauern gemacht und schließlich werden relative Gegenmaßnahmen zur Weiterentwicklung der ländlichen Berufsbildung vorgeschlagen, d.h , sollte die Berufsbildung im ländlichen Raum so ausgerichtet werden, dass sie den realen Anforderungen moderner Landwirte gerecht wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23357-9_15 3f59b659a40fae5706883a78bd3df555;de;;;1.3.;;;Beamforming zur Hyperthermiebehandlung durch Training eines gewichteten Netzwerks eines Ultraschallarrays Wir schlagen einen Beamforming-Algorithmus basierend auf Wellenformdiversität für die Hyperthermiebehandlung von Brustkrebs unter Verwendung eines Ultraschallarrays vor. Das eingeführte Array hat eine Struktur mit einem Netzwerk, das die speisenden Knoten und die Array-Elemente verbindet, und das Ziel des Algorithmus besteht darin, die Gewichtsmatrix des Netzwerks zu trainieren, um die Differenz zwischen dem erzeugten Strahlmuster und dem idealen zu minimieren. Das von der Idee des maschinellen Lernens inspirierte Trainingsverfahren des Algorithmus besteht aus drei Teilen: Vorwärtsberechnung, Vergleich und Rückwärtsberechnung. Die Vorwärtsberechnung bildet die Gewichtungsmatrix auf das Strahlmuster ab, und im Vergleichsschritt wird das erzeugte Strahlmuster basierend auf dem Fehler modifiziert, und schließlich bildet die Rückwärtsberechnung das modifizierte Strahlmuster auf eine verfeinerte Gewichtungsmatrix ab, die besser funktioniert als Original. Eine optimale Gewichtsmatrix wird durch iteratives Training erhalten. Die Wirksamkeit des Algorithmus wird durch numerische Simulationen demonstriert.;-;-;-;https://link.springer.com/article/10.1007/s13755-017-0037-6 8473ed1ebf92c066f5c78b1b4fba9cb2;de;;;1.3.;;;Untersuchung von geschlechtsspezifischen Voreingenommenheiten mit virtuellen Patienten für ein anspruchsvolles Training der zwischenmenschlichen Fähigkeiten Die Verwendung von virtuellen Charakteren in einer Vielzahl von Forschungsbereichen ist weit verbreitet. Ein solcher Bereich ist das Gesundheitswesen. Die in diesem Artikel vorgestellte Studie nutzte virtuelle Patienten, um zu untersuchen, ob virtuelle Patienten aufgrund ihres Geschlechts und Hauttons eher richtig diagnostiziert werden. Medizinstudenten des University of Florida College of Medicine interagierten in zwei Sitzungen mit sechs virtuellen Patienten. Die sechs virtuellen Patienten umfassten verschiedene Kombinationen von Geschlecht und Hautton. Jeder virtuelle Patient stellte sich mit einer anderen Hirnnervenverletzung vor. Die Ergebnisse zeigen für einen der Fälle einen signifikanten Unterschied in der korrekten Diagnose nach dem Geschlecht des Patienten. In diesem Fall wurden weibliche Patienten häufiger richtig diagnostiziert als ihre männlichen Kollegen. Die Beschreibung dieses Falles erforderte, dass sich der virtuelle Patient mit einem sichtbaren Bluterguss auf der Stirn vorstellte. Wir vermuten, dass die erhaltenen Ergebnisse auf eine Übertragung eines realen geschlechtsspezifischen Bias zurückzuführen sein könnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09767-1_50 4709edce5fd72993df69db0c1b4409a5;de;;;1.3.;;;Japanische Hochschulbildung und ihre Probleme Dieser Aufsatz analysiert, warum das hoch entwickelte japanische System der Schul- und Grundausbildung umgekehrt proportional zu den Studentenzahlen scheint, die eine Hochschulausbildung absolvieren. Nur wenige machen weiter. Traditionelle Einstellungen, die eine Hochschulausbildung nicht unterstützen, ergeben sich nachweislich aus der allgemein in Wirtschaft und Industrie vertretenen Ansicht, dass die Hochschulausbildung bei der Rekrutierung von Mitarbeitern keine Bedeutung hat. Es wird jedoch unterschieden zwischen den Geisteswissenschaften (in denen ein Studium nur für diejenigen, die eine akademische Laufbahn anstreben) und neueren Entwicklungen in den Ingenieur- und Naturwissenschaften, die auf eine wachsende Anerkennung des Wertes der postgradualen Ausbildung hindeuten, gesehen wird. Beschrieben wird die Arbeit der staatlichen Universitäts-Chartering-Kommission – der Behörde, die die Einrichtung von Graduiertenschulen genehmigt – mit Schwerpunkt auf ihrer Maßnahme zur Erhaltung der Qualität der Hochschulbildung. Der Autor zeigt, dass universitäre Doktoranden im Vergleich zu industrienahen Studierenden in Bezug auf Berufsaussichten, finanzielle Ausstattung und Laborfinanzierung benachteiligt sein können.;-;-;-;https://link.springer.com/article/10.1023/A%3A1003030501169 5cd39c7ffeb86b99229fb8565513a9c2;de;;;1.3.;;;Ärztliche retrospektive Bewertungen ihrer medizinischen Ausbildung 903 Ärzte bewerteten 10 Aspekte ihrer medizinischen Ausbildung auf Relevanz und Qualität. Diagnosekompetenz ist ein Beispiel für ein als wichtig eingeschätztes Bildungsziel, für das die Ausbildung als gut bewertet wurde. Auch das Wissen über den Aufbau einer Berufspraxis wurde als richtiges Ziel der medizinischen Ausbildung angesehen, die Ausbildung jedoch als weniger befriedigend. Individuelle Unterschiede zwischen den Ärzten in der retrospektiven Zufriedenheit wurden dann mit vormedizinischen, medizinischen Fakultäts- und Persönlichkeitsfaktoren in Verbindung gebracht. Ärztinnen und Ärzte mit günstigeren Bewertungen schnitten im Medizinstudium tendenziell überdurchschnittlich ab, in der prämedizinischen Arbeit jedoch etwas unterdurchschnittlich. Persönlichkeitsvariablen wie Beharrlichkeit und Selbstvertrauen waren bei Männern mit einer höheren retrospektiven Zufriedenheit verbunden, bei Frauen korrelierte die Zufriedenheit mit Variablen wie psychologischem Denken und Sensibilität für andere.;-;-;-;https://link.springer.com/article/10.1007/BF00991943 ed426535f703d2c671889c7f84dfe34b;de;;;1.3.;;;Voruniversitäre Ingenieurausbildung in New South Wales Schulen in New South Wales, Australien, haben seit 1965 eine spezifische Ingenieurausbildung als Oberstufenfach der High School. Dies ist das Ergebnis der damaligen Lehrer der Reihe von Industriekunstfächern, die die Notwendigkeit sahen, Schülern ein Fach anzubieten, das dazu bestimmt war, was jetzt MINT-Karrieren genannt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-6300-621-7_7 22ebd45231a4c818ec9322d8621f9f7d;de;;;1.2.;;;Effektivitätsvergleich des Reichweitenschätzers für batterieelektrische Fahrzeuge Batterieelektrofahrzeuge sind aufgrund ihres Potenzials zur Reduzierung der Luftverschmutzung, der effizienten Nutzung von Energie und der regenerativen Bremsung ein vielversprechender Kandidat für zukünftige Personenkraftwagen. Aufgrund der begrenzten Reichweite und des geringen Preises zögern Verkehrsteilnehmer jedoch, ein Elektrofahrzeug zu besitzen. Darüber hinaus hat die begrenzte Reichweite von BEV bei den Fahrern zu Reichweitenangst geführt. Abgesehen von der Verbesserung der BEV-Technologie zur Erhöhung der Reichweite kann der Reichweitenschätzer nützlich sein, um die Reichweitenangst von BEV-Fahrern zu verringern. Der herkömmliche Reichweitenschätzer wird wie eine Tankanzeige verwendet, um eine allgemeine Richtlinie zu geben, wann das Fahrzeug aufgeladen werden muss, und ist nicht absolut. Um das Vertrauen in das BEV-Fahren weiter zu erhöhen, kann eine fahrtbasierte Reichweitenschätzung parallel zum herkömmlichen Verfahren verwendet werden, um die Reichweitenangst zu reduzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0557-2_80 fa397e25a8c2420695bd53b30aca3007;de;;;1.3.;;;QoS-fähiges Mapping und Scheduling für integriertes CWDM-PON- und WiMAX-Netzwerk Die weltweite Interoperabilität für den Mikrowellenzugang (WiMAX) hat sich zu einer der Schlüsseltechnologien für drahtlose Breitbandzugangsnetze entwickelt, während das Coarse Wavelength Division Multiplexing-Passive Optical Network (CWDM-PON) eine der möglichen Lösungen für zukünftige Hochgeschwindigkeits-Breitbandzugangsnetze ist. Die Integration beider Netze könnte die gesamte Netzleistung verbessern, indem sie Kosteneffizienz, höhere Kapazität, breitere Abdeckung, bessere Netzflexibilität und höhere Zuverlässigkeit ermöglicht. In dieser Arbeit wird ein Planungsalgorithmus als Mittel vorgeschlagen, um die Dienstgüte-(QoS)-Anforderungen von zwei unterschiedlichen Medien aufrechtzuerhalten, während den Teilnehmern die Bandbreite zugewiesen wird. Die Ergebnisse der NS-2-Simulation zeigen, wie die Netzwerkleistung der integrierten CWDM-PON- und WiMAX-Netzwerke in Bezug auf Verzögerung und Durchsatz verbessert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46578-3_1 1f604fdd650a0017b6390adc63429e88;de;;;1.3.;;;Ein Mikrocomputer-Software-Labor für den Informatikunterricht für Medizinstudenten Wir berichten über die Entwicklung einer Reihe von Mikrocomputerprogrammen, die in einem regulären Kurs in Medizininformatik für Medizin- und Krankenpflegestudenten als Software-Ressource für Demonstrationen und praktische Erfahrungen mit medizinischen Anwendungen verwendet wurden. Die 17 Programme haben eine einfache und einheitliche Benutzeroberfläche und decken folgende Anwendungen ab: Krankenakten, Patientenbefragung, Risikobewertung, Codierung medizinischer Daten, Laborautomatisierung, biologische Signal- und Bildverarbeitung, computergestützte Diagnose und Therapie, medizinische Forschung Bildung und Epidemiologie. Benutzerleitfäden und Übungsvorschläge ergänzen den Einsatz dieser Programme in einem Medizininformatik-Kurs. Die bisher erzielten Ergebnisse waren sehr gut: ein gesteigertes Bewusstsein der Studierenden für mögliche Vorteile und Grenzen von Anwendungen von Computern in der Medizin, ein Interesse an der Nutzung der Software für eigene Zwecke und eine Förderung der PC-Kenntnisse und des selbstständigen Lernens. Andere medizinische Fakultäten übernehmen derzeit unsere Software und das Kurslayout aufgrund ihrer Kompaktheit, Effektivität und geringen Kosten, insbesondere für Entwicklungsländer.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-51659-7_78 dded7c18cf37bda5b5d5d153a68fd40c;de;;;1.3.;;;Die subjektive Größe melodischer Intervalle über einen Zwei-Oktaven-Bereich Musikalisch geschulte und ungeschulte Teilnehmer lieferten Größenschätzungen der Größe melodischer Intervalle. Jedes Intervall wurde durch eine Folge von zwei Tonhöhen gebildet, die sich zwischen 50 Cent (ein halber Halbton) und 2.400 Cent (zwei Oktaven) unterschieden und in einem hohen oder einem tiefen Register und in aufsteigender oder absteigender Richtung präsentiert wurden. Die Schätzungen waren für Intervalle im hohen Register höher als für diejenigen im tiefen Register und für absteigende als für aufsteigende Intervalle. Aufsteigende Intervalle wurden als größer als absteigende Intervalle wahrgenommen, wenn sie in einem hohen Register präsentiert wurden, aber absteigende Intervalle wurden als größer als aufsteigende Intervalle wahrgenommen, wenn sie in einem tiefen Register präsentiert wurden. Bei Intervallen bis zu einer Oktave war die Differenzierung der Intervalle bei trainierten Zuhörern größer als bei ungeübten Zuhörern. Wir diskutieren die Implikationen für psychophysische Tonhöhenskalen und Modelle der Musikwahrnehmung.;-;-;-;https://link.springer.com/article/10.3758/BF03206445 e95ae6ee0f2c43fcb8e499e0a017e840;de;;;1.3.;;;Auswirkungen der Token-Variabilität auf unsere Fähigkeit, zwischen Vokalen zu unterscheiden Selbst wenn Sprecher, Kontext und Sprechstil fest gehalten werden, variieren die physikalischen Eigenschaften natürlich gesprochener Äußerungen desselben Sprachklangs beträchtlich. Diese Variabilität schränkt unsere Fähigkeit ein, zwischen verschiedenen Sprachlauten zu unterscheiden. Wir präsentieren einen konzeptionellen Rahmen, um die Fähigkeit zur Unterscheidung zwischen Sprachlauten in Einzeltoken-Experimenten (in denen jeder Sprachton durch eine einzelne Wellenform repräsentiert wird) mit der Auflösung in Mehrfach-Token-Experimenten in Beziehung zu setzen. Experimentelle Ergebnisse zeigen, dass diese Fähigkeit durch eine Erhöhung der Anzahl von Spielsteinen von 1 auf 4 erheblich reduziert wird, dass es jedoch nur eine geringe weitere Verringerung gibt, wenn die Anzahl der Spielsteine ​​auf 16 erhöht wird. Darüber hinaus besteht zwar ein geringer Zusammenhang zwischen der Fähigkeit zur Unterscheidung zwischen einem gegebenen Paar von Token in den Mehrfach- und den 1-Token-Experimenten besteht eine bescheidene Korrelation zwischen der Fähigkeit, spezifische Vokal-Token in den 4- und 16-Token-Experimenten zu unterscheiden. Diese Ergebnisse legen nahe, dass Hörer zwar eine Vielzahl von Hinweisen verwenden, um zwischen einzelnen Zeichen eines Paars von Vokallauten zu unterscheiden, so dass die Leistung sowohl bei den Zeichen als auch bei den Hörern sehr unterschiedlich ist, sie jedoch einen kleineren Satz verwenden, wenn sie zwischen Populationen von natürlich produzierten Vokal-Zeichen unterscheiden. damit die Variabilität reduziert wird. Die Wirksamkeit der im letzteren Fall verwendeten Cues wird eher durch internes Rauschen als durch die Variabilität der Cues selbst begrenzt.;-;-;-;https://link.springer.com/article/10.3758/BF03206044 d0f85d80a9817b0b731b098f12ecad61;de;;;1.2.;;;Wachsende RBF-Netzwerke für die Funktionsapproximation durch eine DE-basierte Methode Der Differential Evolution (DE)-Algorithmus ist ein Fließkomma-kodierter Evolutionärer Algorithmus zur globalen Optimierung. Es hat sich als effiziente, effektive und robuste Optimierungsmethode insbesondere für Probleme mit stetigen Variablen erwiesen. Das Papier befasst sich mit der Anwendung eines DE-basierten Verfahrens zur Durchführung einer Funktionsapproximation unter Verwendung von Gaussian Radial Basis Function (RBF)-Netzwerken mit variablen Breiten. Dieses Verfahren wählt Zentren aus und entscheidet heuristisch über die Gewichte der Netzwerke und verwendet dann den Differential Evolution-Algorithmus für die lokale und globale Abstimmung iterativ, um die Breiten von RBFs zu finden. Das Verfahren wird durch Trainingsnetzwerke demonstriert, die eine Menge von Funktionen approximieren. Als zu minimierende Zielfunktion wird der mittlere quadratische Fehler von den gewünschten Ausgaben zu den tatsächlichen Netzwerkausgaben verwendet. Ein Vergleich der Nettoleistungen mit anderen in der Literatur berichteten Ansätzen wurde durchgeführt. Der vorgeschlagene Ansatz überwindet effektiv das Problem, wie viele radiale Basisfunktionen verwendet werden sollen. Die erhaltenen ersten Ergebnisse legen nahe, dass das auf Differentialentwicklung basierende Verfahren ein effizienter Ansatz zur Approximation von Funktionen mit wachsenden radialen Basisfunktionsnetzwerken ist und das resultierende Netzwerk im Allgemeinen die für kontinuierliche Abbildungen berichteten Approximationsergebnisse verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30497-5_62 12f59adb96a3f914524ef8fe7c78975c;de;;;1.2.;;;Ein neuartiger adaptiver Zielverfolgungsalgorithmus in drahtlosen Sensornetzwerken Dieses Papier schlägt einen informationsbasierten adaptiven Zielalgorithmus vor, der die Mobilität eines mobilen Ziels berücksichtigt. Dieser Algorithmus basiert auf einem dynamischen Cluster und dem Zielvorhersagemechanismus. Es passt die Entfernung und das Zeitintervall der Informationserfassung bewusst an, abhängig von Geschwindigkeit, Beschleunigung und Winkelabweichungen des Ziels. Und es passt das Zeitintervall der realen Cluster-Vorhersagebildung adaptiv an, abhängig von den Geschwindigkeits- und Winkelvariationen eines mobilen Ziels. Wenn das vorhergesagte Zeitintervall, das verwendet wird, um den nächsten realen Cluster zu erzeugen, zur Bildung des dynamischen realen Clusters nicht kontinuierlich ist, führt es einen anderen Ebenenüberwachungsmechanismus ein, nämlich die virtuelle Clusterüberwachung, die sicherstellt, dass das mobile Ziel in WSN überwacht wurde die ganze Zeit. Es erreicht verschiedene Ebenen der Überwachung und Datenerfassung mit realen Clustern und virtuellen Clustern und spart effektiv Systemressourcen. Simulationsergebnisse zeigen, dass dieser Algorithmus eine bessere Tracking-Präzision und einen geringen Energieverbrauch unter verschiedenen Szenen aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18134-4_76 7867b83e6c8c803cddcaa54f5d906b2a;de;;;1.3.;;;Eine Psychotherapie-Trainingsumgebung mit virtuellen Patienten, die mit der Furhat-Roboterplattform implementiert wurde Wir präsentieren ein Demonstrationssystem für die Psychotherapieausbildung, das die soziale Roboterplattform Furhat nutzt, um virtuelle Patienten zu implementieren. Das System führt ein Ausbildungsprogramm mit verschiedenen Modulen durch, beginnend mit der Ausbildung grundlegender psychotherapeutischer Fähigkeiten bis hin zu Aufgaben, bei denen diese Fähigkeiten integriert werden müssen. Ein solches Training beruht stark auf der Beobachtung und dem Umgang mit sowohl verbalen als auch nonverbalen Patientenverhalten während der Sitzung. Daher ist der Furhat-Roboter eine ideale Plattform, um dies umzusetzen. Dieses Papier beschreibt die Gründe für dieses System und seine Implementierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67401-8_20 d0967b35dd42539dea1558a08c884ae3;de;;;1.2.;;;Verhalten spröder Materialien unter Stoßwellenbelastung Das Interesse an der Reaktion spröder Materialien auf dynamische Belastungen bezieht sich auf viele Anwendungen, darunter explosiver Aushub von Gestein, Konstruktion von Hartkeramikpanzerungen, Meteoriteneinschläge auf Raumfahrzeugfenster, Aufprall kondensierter Partikel auf Turbinenschaufeln usw ein Aufprall oder explosiver Angriff, unelastische Verformung, Bruch und Fragmentierung treten unter Bedingungen dreidimensionaler Belastung auf, bei denen mindestens eine Belastungskomponente kompressiv ist. Es ist bekannt, dass das Verhalten spröder Materialien unter quasistatischer Kompression durch solche Merkmale wie Druckbruch, Dilatanz und druckempfindliches Fließen gekennzeichnet ist, die die Verwendung klassischer elastisch-plastischer Stoffmodelle nicht zulassen. Neuere Übersichtsarbeiten (Bombolakis, 1973, Kranz, 1983, und Wang und Shrive, 1995) zeigen, dass, obwohl die Brüchigkeit und Fragmentierung spröder Materialien unter Spannung mehr oder weniger klar ist, die maßgeblichen Mechanismen des Druckbruchs selbst für quasistatische Bedingungen. Die schnelle Lastanwendung kann auch den Effekt von Ratenabhängigkeiten einführen, die das Problem noch komplizierter machen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-4282-4_4 2a8d4da4bd9440cf185207aa394bb772;de;;;1.3.;;;Verbesserung der Lernerfahrung von Anfängern mit einem virtuellen Trainingssystem für die Verwendung von Vorrichtungen und Vorrichtungen Komplexe chirurgische Eingriffe, hohe Kosten und Zeit zur Vorbereitung auf die konventionelle chirurgische Ausbildung sind die Faktoren, die zur Entwicklung des virtuellen Chirurgie-Trainingssystems im Medizinstudium beitragen. Eine neue Vorrichtung und Vorrichtung wurde entwickelt, um orthopädischen Chirurgen bei der Durchführung der Knieersatzoperation zu helfen. Die Schablone und Vorrichtung dient zum Ausrichten des Schneidmessers in der richtigen Position, bevor das Sägen beginnt. Es kann auch die Gesamtzeit reduzieren, die bei der Verwendung eines computergestützten Chirurgiesystems benötigt wird. Daher ist eine Schulung erforderlich, um die richtigen Techniken zum Anbringen der neuen Vorrichtung zu üben, so dass die Zeit, die zum Anbringen der Vorrichtung an der optimalen Position erforderlich ist, reduziert werden kann. Als Alternative zur herkömmlichen Methode wurde ein virtuelles Trainingssystem entwickelt, um die Lernerfahrung von unerfahrenen Chirurgen zu verbessern. Ein Test mit 8 unerfahrenen Chirurgen zeigte, dass die Zeit zum Ausrichten der Schablone auf der Tibia nach der Implementierung des virtuellen Trainingssystems im Vergleich zu zuvor verkürzt wurde. Dabei zeigte sich, dass es dem virtuellen Trainingssystem gelungen ist, den Ärzten die richtige Technik für den Umgang mit der neu entwickelten Vorrichtung zu vermitteln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25191-7_23 a3eb82e0d0c199b26a8a6fcabd2e62a0;de;;;1.2.;;;Elektronisches Polarisationsverhalten bei Kollisionen Die Literatur zum elektronischen Polarisationsverhalten bei Atomkollisionen war bis vor wenigen Jahren relativ spärlich. Diese Situation hat sich nun geändert, und es ist nicht schwierig, umfassende Übersichtsartikel zu diesem Thema zu finden. Einige davon sind in Lit. 1 aufgeführt. Dieses Verfahren enthält auch eine Übersicht von Professor Kessler über polarisierte Elektronenquellen;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-2961-9_27 7e2d2718c1c7c86225d1171dc1b7ec0c;de;;;1.3.;;;Beschäftigungsfähigkeit: Herausforderungen für Bildungs- und Ausbildungssysteme Die jüngste Krise fordert ihren Tribut in Bezug auf die Arbeitslosigkeit, insbesondere bei jungen Menschen. Dies hat die Debatte über den Beitrag der allgemeinen und beruflichen Bildung (E&T) zur Beschäftigungsfähigkeit junger Hochschulabsolventen wiederbelebt. Auf europäischer politischer Ebene besteht ein wachsendes Interesse daran, Anreize für die Reform von E&T-Systemen zu schaffen, damit sie besser auf den künftigen Arbeitsmarktbedarf und kurzfristig ungünstige Arbeitsmarktbedingungen eingehen können. Eine der größten Herausforderungen besteht darin, valide Maßnahmen zur Bewertung des Beitrags von E&T-Systemen zur Beschäftigungsfähigkeit unter Berücksichtigung ihrer Vielfalt innerhalb der Europäischen Union zu finden. Dieses Papier stellt einen operationellen Rahmen für die Analyse der Beschäftigungsfähigkeit vor und diskutiert einige der wichtigsten Herausforderungen im Zusammenhang mit der Mehrdimensionalität des Beschäftigungsfähigkeitskonzepts, dem Fehlen von Daten für den länderübergreifenden Vergleich und der Schwierigkeit, die Rolle der Bildungs- und Ausbildungssysteme von andere Faktoren bei der Bewertung der Arbeitsmarktergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13166-0_42 9002d373fb1a86b0ea1c6979fc1df300;de;;;1.3.;;;Die Diskussion der universitären kunstpädagogischen Ausbildung auf der Grundlage der Beschäftigungsfähigkeit von College-Studenten im modernen Informationszeitalter Die Beschäftigungsfähigkeit von College-Studenten ist die umfassende Qualität und das potenzielle System, das disziplinäres Wissen, Fähigkeiten und psychologische Qualität umfasst. Die Kunsterziehung sollte ihre einzigartige Funktion als wichtiger Bestandteil der gesamtentwicklungspolitischen Bildung ausüben. Um die Beschäftigung von Hochschulabsolventen zu stärken, sollten wir aktive Maßnahmen ergreifen, um eine Vielzahl von Kunstausbildungen zu entwickeln, um das Wissen der Studenten zu bereichern. Die Stärkung emotionaler Faktoren trägt dazu bei, die emotionale Entwicklung von College-Studenten zu fördern. Wir sollten auch die Berufsethikbildung durchdringen. Achten Sie auf die Kreativität der Kunsterziehung und regen Sie sie an. Darüber hinaus sollten wir die Persönlichkeitsentwicklung der Studierenden aktiv fördern, deren harmonische zwischenmenschliche Beziehung entwickeln und die Beschäftigung der Studierenden umfassend fördern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23357-9_10 7746d970c9f2240687134236dee3831b;de;;;1.3.;;;Die Anwendung des Online-Teamprojekttrainings in der Nukleartechnikausbildung Wir diskutieren das Problem der Anwendung von Online-Teamprojekttraining in der kerntechnischen Ausbildung in Bachelor-, Fach- und Masterstudiengängen im Bereich Kernphysik und -technologien, Kernreaktoren und Materialien der National Research Nuclear University MEPhI (Moscow Engineering-Physics Institute). Dabei stehen die methodischen Aspekte der Organisation der studentischen Online-Arbeit im Teamprojekt, der Aufbau eines „Konstruktionsbüros“ und „Projektbüros“ sowie die Anwendung der Projektmanagement-Praxis im Fokus. Die Ergebnisse des laufenden Prozesses der Transformation der Ingenieurausbildung in Übereinstimmung mit den internationalen CDIO (Conceive-Design-Implement-Operate) und den nationalen russischen Bildungsstandards werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49700-6_35 4b7a1a0e20419e44af7156fc85b5fe3a;de;;;1.3.;;;Bildung, Ausbildung, Kompetenzen, Lehrpläne und Technologie Die Bildungsziele sind relativ stabil, wobei sich die Schwerpunkte zwischen so großen Zielen wie der Entwicklung kritischer Denker, effektiver Problemlöser, produktiver Arbeitnehmer, verantwortungsbewusster Bürger und lebenslanger Lernender verlagern. Nationen bemühen sich, florierende Volkswirtschaften mit Chancen für die Bürger zu entwickeln und zu erhalten. Unternehmen konzentrieren sich darauf, einen sicheren Platz im Markt zu erobern und Gewinne und Renditen aus Investitionen zu steigern. Die Technologien ändern sich jedoch schnell und verändern damit die Art und Weise, wie Menschen in fast allen Sektoren arbeiten und interagieren, einschließlich des Bildungswesens. Eine Folge dieser Konvergenz der Situationen ist eine Spannung in der Aus- und Weiterbildung. Einerseits bieten neue Technologien die Möglichkeit, eine hochgradig personalisierte und lernerzentrierte Bildung zu unterstützen. Auf der anderen Seite besteht der Druck, sich auf die Entwicklung von Wissen und Fähigkeiten in den Bereichen Naturwissenschaften, Technologie, Ingenieurwesen und Mathematik zu konzentrieren, hauptsächlich um dem Wirtschaftswachstum und der Expansion in einer hart umkämpften Welt zu dienen. Dieses Kapitel konzentriert sich auf technologiegestütztes Lernen, das von den Kunst- und Geisteswissenschaften geprägt ist, um Spannungen zwischen individuellen und gesellschaftlichen Interessen auszugleichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-02573-5_1 b8adc44038d5c7ca15eabaa2e3c4429f;de;;;1.2.;;;Modellierung von diskretem Verhalten in einem zeitkontinuierlichen Formalismus Eingebettete Echtzeitsysteme bestehen aus einem digitalen Controller, der mit seiner physischen Umgebung interagiert. Die Entwicklung solcher Systeme beinhaltet daher die Spezifizierung und Argumentation über sowohl diskrete als auch zeitkontinuierliche Komponenten. Wir zeigen, wie diese beiden Modelle in einen Timed-Trace-Formalismus integriert werden können, indem diskrete Komponenten als eingeschränkte Klasse stetiger Komponenten behandelt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0851-1_10 39cb6c728c381a256e06d81b96fe7e27;de;;;1.2.;;;Schweiz: Zwischen Weltoffenheit und Parochialismus im Zivilprozess Am 1. Januar 2011 trat die neue Schweizerische Zivilprozessordnung in Kraft und ersetzt die 26 kantonalen Zivilprozessordnungen. Einer der Hauptanreize für die Vereinheitlichung des Zivilverfahrens war die Auffassung, dass unterschiedliche Vorschriften eine effiziente Rechtspflege behindern. Trotz der engen wirtschaftlichen und kulturellen Verflechtungen der Schweiz mit dem Ausland lag der Fokus jedoch fast ausschliesslich darauf, Kompromisse zwischen verschiedenen kantonalen Modellen zu finden. Den internationalen Entwicklungen im Bereich des Zivilprozessrechts wurde hingegen vergleichsweise wenig Aufmerksamkeit geschenkt. Nichtsdestotrotz haben internationale Modelle einen wichtigen Einfluss auf den Schweizer Zivilprozess. Eines der einflussreichsten ist das Übereinkommen von Lugano über die gerichtliche Zuständigkeit und die Vollstreckung gerichtlicher Entscheidungen in Zivil- und Handelssachen. Sie schuf nicht nur einheitliche Regeln für die Zuständigkeit und Vollstreckung in allen Vertragsstaaten in Fällen mit internationalem Bezug, sondern beeinflusste auch Gesetzgebung und Rechtsprechung in rein innerstaatlichen Fällen. Der Schweizer Gesetzgeber und die Schweizer Rechtsprechung folgen oft freiwillig europäischen Entwicklungen, auch wenn sie den ursprünglichen politischen Absichten der Schweiz widersprechen. Die Entwicklung des europäischen Raums der Freiheit, der Sicherheit und des Rechts ist jedoch weit über die ursprünglich im Brüsseler Übereinkommen und jetzt in der Brüssel-I-Verordnung enthaltenen Angelegenheiten hinausgegangen. Die Schweiz hat an dieser Entwicklung nicht teilgenommen. Auch was die Zuständigkeit sowie die Anerkennung und Vollstreckung ausländischer Urteile angeht, droht der Schweiz der Kontakt zu den anstehenden Reformen auf EU-Ebene zu verlieren. Anders als in einigen anderen Rechtsgebieten ist die „autonome Umsetzung“ (;-;-;-;https://link.springer.com/chapter/10.1007/978-90-6704-817-0_12 ce3f26a5b70950e0500bb5947d8209a0;de;;;1.2.;;;Fallberichte Da das klinische Erscheinungsbild sowohl gutartiger als auch bösartiger Schilddrüsenknoten sehr unterschiedlich ist, ist es für den Leser sehr hilfreich, so viele Fälle mit unterschiedlichen körperlichen Befunden wie möglich zu überprüfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-1759-7_7 4709543d85d5936b8b1d925d00269902;de;;;1.2.;;;Granulomatöse Hepatitis bei sekundärer Syphilis Ein ungewöhnlicher Fall einer gut dokumentierten granulomatösen Hepatitis bei sekundärer Syphilis bei einem 47-jährigen Mann wird vorgestellt. Diese hepatische Pathologie bei der sekundären Syphilis wird zusammengefasst und ein Überblick über die Literatur zur syphilitischen granulomatösen Hepatitis vorgelegt.;-;-;-;https://link.springer.com/article/10.1007/BF02937251 b0ad828f07af99aa82d43c3cc3c92a65;de;;;1.2.;;;Kohle- und Kernkrafterzeugung Historisch gesehen waren die ersten Kraftwerke, die große Mengen an elektrischer Energie lieferten, Wasserkraft. Im Jahr 1895 baute Westinghouse den ersten Wechselstromgenerator in den Niagarafällen, indem der Wasserfluss von den Fällen durch eine Turbine geleitet wurde, die elektrische Ströme in Kupferwicklungen induzierte. General Electric baute Hochleistungsnetzleitungen, die die 1,1 MWe Strom nach Buffalo, New York, brachten, wo sie die Straßenlaternen der Stadt beleuchtete und Straßenbahnen antreibte. Die technischen Köpfe dahinter waren Nikola Tesla, der mit Westinghouse zusammenarbeitete, und Elihu Thomson, der Gründer von General Electric. Tesla erfand den heute allgegenwärtigen Wechselstrom-Elektromotor und hatte eine unheimliche Intuition, wie man Strom erzeugt und nutzt. Er war ein in Kroatien geborener Serbe und hatte Elektromagnetismus an Universitäten in Österreich, Tschechien und Ungarn studiert, bevor er 1884 nach Amerika kam (Abschnitt 3.3 und Brief 7).;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-8667-9_6 4db9c90c1e4e0c79a4e60a2116544cc5;de;;;1.2.;;;Mechanismen zur Kontrolle des Sauerstoffmangels im Sommer im westlichen Long Island Sound Physikalische Profildaten (Salzgehalt, Temperatur, Sauerstoff und abwärts gerichtete Strahlung) und In-Situ-Inkubationen von hellen und dunklen Flaschen wurden verwendet, um die vertikale Struktur zu charakterisieren und Mechanismen aufzuklären, die die Hypoxie im Westen des westlichen Long Island Sound kontrollieren. Die Zeit der Sauerstoffverarmung entsprach der Zeit der thermisch kontrollierten Schichtung. Die Schüttdichteunterschiede zwischen Oberflächen- und Grundwasser betrugen nur 1,2 bis 2,7 Sigma-t-Einheiten, aber sie reichten offenbar aus, um der Zerstörung durch Wind und Gezeiten zu widerstehen. Somit war die Sauerstoffverarmung ein kumulativer Prozess über den Sommer. Während der Schichtungsperiode war die Netto-Sauerstoffproduktion (gemessen mit leichten BSB-Flaschen) auf eine schmale Oberflächenzone von 1,8–4,5 m beschränkt. Unterhalb dieser Zone befand sich eine Zwischenzone mit hoher Netto-Sauerstoffaufnahme, darunter eine subpyknokline Zone, in der die Sauerstoffaufnahme sehr gering war. Die Geschwindigkeiten der Gesamtsauerstoffaufnahme (dunkle Flaschen) waren in der Oberflächenschicht am größten und nahmen mit der Tiefe ab. Es bestand eine enge Kopplung zwischen körperlichen Bedingungen und metabolischer Struktur. Vertikale Muster der Sauerstoffproduktion und -entfernung waren bei ruhigem Wetter am stärksten. Die Lage der Zwischenzone entsprach der des Oxyklins. Die Mächtigkeit der Zone und die Steilheit der Oxykline wurden durch die Tiefe und Intensität sowohl der physikalischen Schichtung als auch der biologischen Produktion und Atmung bestimmt. Die biologische Struktur wurde durch physikalische Vermischung in der oberen Wassersäule geschwächt, und die Zwischenzone verschwand mit der Destratifikation im Herbst. Wir vermuten, dass die biologische Aufnahme innerhalb der Wassersäule den Sauerstoffmangel durch zwei Mechanismen beeinflusst. (1) In Grundwasser sind die Aufnahmeraten pro Volumeneinheit gering, aber die Massenaufnahme ist aufgrund des großen Wasservolumens ein wesentlicher Faktor bei der Sauerstoffverarmung. (2) Die Zwischenzone, in der auch die Aufnahme durch die Atemwege von Bedeutung ist, liegt strategisch zwischen der Oberflächenzone der Sauerstofferneuerung und der unteren Zone der Erschöpfung, wo sie einen aktiven Filter darstellt, der die Pyknokline als Barriere gegen die vertikale Sauerstoffverteilung verstärkt. Das Ausmaß der direkten Sauerstoffentfernung in der Wassersäule im Verhältnis zur Entfernung durch den Sedimentsauerstoffbedarf und die möglichen Auswirkungen dieses biologischen Filtermechanismus sind wichtige Überlegungen zum Verständnis der Eutrophierungsdynamik und zum Management des Long Island Sound. Dynamische Modelle, die (1) die Rolle der Wassersäulenaufnahme unterschätzen und (2) nur die Zweizonen-Eigenschaften der physikalischen Schichtung berücksichtigen, neigen dazu, (a) den Beitrag von Sedimenten zu den sommerlichen Sauerstoffdefiziten zu überschätzen und (b) die vertikale Ausbreitung und Belüftung von Grundwasser.;-;-;-;https://link.springer.com/article/10.2307/1351661 663d669aff6cbcf3ad67bd27b1caf744;de;;;1.2.;;;Entwicklung des Einflusses des Menschen auf Muscheln, die sich durch Suspension ernähren, in küstennahen Weichbodenökosystemen Muscheln mit Suspensionsfütterung können oft in großen Konzentrationen („Betten“) im Watt vorkommen. Dies macht sie für menschliche Verbraucher attraktiv und die archäologischen Aufzeichnungen zeigen die Sammlung von Muscheln durch Küstenpopulationen bereits vor Zehntausenden von Jahren. In der Neuzeit verstärkte sich der menschliche Eingriff in die Küstenbestände von Muscheln.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-3030-4_18 ec76a76b2ec891490a7564befd3217cb;de;;;1.3.;;;Programmierte Anleitung: Was es ist und wie man es macht Fünf verhaltensologische Merkmale des programmierten Unterrichts werden skizziert: Verhaltensziele, Verstärkung, Aktivitätsrate: hoch und relevant, sukzessive Annäherung und Beherrschungsfortschritt. Jedes dieser Themen wird erklärt, und es werden Beispiele gegeben, um die Unterschiede zwischen dem programmierten Unterricht und dem gebräuchlicheren „Übertragungsmodell“ des Unterrichts zu veranschaulichen. Ein letzter Abschnitt enthält Vorschläge zu spezifischen Techniken der sukzessiven Approximation.;-;-;-;https://link.springer.com/article/10.1007/BF00957006 652a6363bbaadaf8671b8e3930e4acd2;de;;;1.2.;;;Drei Quantentheorien der Messung Wir betrachten die Drehimpulserhaltung in den Messtheorien von Bohr (klassisch beschriebene Apparatur), von Neumann (Standardquantentheorie) und Wigner, Araki und Yanase.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-0029-8_2 458d6591ba50638662c65cffcfe4ea87;de;;;1.3.;;;Die Auswirkung des Vertrauens der Lehrkräfte auf die Bereitstellung von Lehrplänen für Technologie und Ingenieurwissenschaften Sekundarschule, Altersgruppe 11–14, Technologie- und Ingenieurausbildung in England wurde hauptsächlich im Bereich Design und Technologie (D&T) angeboten. Dies macht D&T-Lehrer unbeabsichtigt für die Ingenieurausbildung und -motivation der Schüler verantwortlich. Dieses Papier analysiert das technische Fachwissen von D&T-Lehrkräften (N = 33) durch Fragebögen zur Selbsteinschätzung vor und nach der Entwicklung eines auf Naturwissenschaften, Technologie, Ingenieurwesen und Mathematik (MINT) ausgerichteten Projekts ihrer Wahl für ihren Unterricht. Die Teilnehmer waren am wenigsten zuversichtlich, die Technologiebereiche zu unterrichten, die mathematische und naturwissenschaftliche Kenntnisse erforderten. Die Ergebnisse analysieren eine vermutete Diskrepanz zwischen dem Hintergrundwissen der Lehrkräfte in kreativen Künsten im Vergleich zu dem für die Ingenieurausbildung erforderlichen technischen Fachwissen. Vorgeschlagene Ursachen für dieses Problem sind die Standards für die Erstausbildung von Lehrern und die Flexibilität des Lehrplans, nicht die Fähigkeiten der Lehrer. Das Papier kommt zu dem Schluss, dass Lehrern einige Elemente der MINT-Ausbildung nicht bekannt waren und dass Weiterbildungsmaßnahmen erforderlich sind, um die Lehrer zu unterstützen und ihr Ingenieurwissen zu verbessern, um ihre Schüler besser für die Ingenieurwissenschaften auszurüsten.;-;-;-;https://link.springer.com/article/10.1007/s10798-019-09542-4 fee5e2d7b8e0b775ded5eda89bbdd89c;de;;;1.2.;;;Management von Vorhofflattern Ein typisches Vorhofflattern ist eine makroreentrante Arrhythmie des rechten Vorhofs. Der Isthmusbereich zwischen dem Trikuspidalanulus, der unteren Hohlvene und dem Ostium des Koronarsinus ist eine kritische Zone des Wiedereintrittskreises. Vorhofflattern wurde mit mäßigen Erfolgen mit Antiarrhythmika der Klasse I und III behandelt, um den Sinusrhythmus aufrechtzuerhalten. Die Katheterablation hat sich bei der Behandlung von Vorhofflattern als sehr erfolgreich erwiesen. Eine zusammenhängende Linie einer bidirektionalen elektrischen Blockade wird im Isthmusbereich zwischen dem Trikuspidalanulus und der unteren Hohlvene durch Anwendung von Hochfrequenzenergie erzeugt. Bei Patienten mit sowohl Vorhofflattern als auch Vorhofflimmern kann die Ablation des Vorhofflatterkreises die Kontrolle des Vorhofflimmerns erleichtern. Lebensqualitätsbewertungen zeigen eine Verbesserung nach Ablation von Vorhofflattern. Mit einer Erfolgswahrscheinlichkeit von 90 %, einer Rezidivrate von 5 bis 15 % und wenigen Komplikationen stellt sich die Katheterablation als beste Therapie des rezidivierenden symptomatischen Flatterns heraus.;-;-;-;https://link.springer.com/article/10.1007/s11886-000-0087-1 4cb9238fcb6662770a5f018ed6aaf177;de;;;1.3.;;;Ressourcenzuweisung für die pilotengestützte massive MIMO-Übertragung Dieses Papier befasst sich mit dem Ressourcenallokationsproblem für einen pilotgestützten Multi-User Massive Multiple-Input-Multiple-Output (MIMO) Uplink mit linearer minimaler mittlerer quadratischer Fehler (MMSE) Kanalschätzung und -erkennung. Wir verwenden die Winkeldomänenkanaldarstellung für einheitliche lineare Antennenarrays und verwenden ihr äquivalentes unabhängiges und nicht identisches verteiltes Kanalmodell. Bei gegebenem Kohärenzintervall und Gesamtenergiebudget untersuchen wir die gemeinsame Optimierung von Trainingslänge und Trainingsleistung, um die erreichbare Summenrate zu maximieren. Für handhabbare Analysen und Lösungen mit geringer Komplexität wird zunächst eine enge Annäherung an die erreichbare Summenrate abgeleitet. Dann wird gezeigt, dass die Trainingslängenoptimierung für feste Trainingsleistung und die Trainingsleistungsoptimierung für feste Trainingslänge in Bezug auf die angenäherte Summenratenmaximierung beide konkav sind. Für die gemeinsame Ressourcenzuweisung wird eine alternative Optimierung vorgeschlagen, die die Trainingslänge und -leistung iterativ löst. Außerdem leiten wir für den Sonderfall, dass die Trainings- und Datenübertragungsleistungen gleich sind, die optimalen Trainingslängen für Bereiche mit hohem und niedrigem Signal-Rausch-Verhältnis (SNR) ab. Numerische Ergebnisse zeigen die Enge der abgeleiteten Summenraten-Approximation und auch den signifikanten Leistungsvorteil der vorgeschlagenen Ressourcenallokation.;-;-;-;https://link.springer.com/article/10.1007/s11432-016-0069-0 b2a0f2853c0c1f92b7fa9ba89c24962f;de;;;1.2.;;;Wissenspflege zu Datenströmen mit Concept Drifting Konzeptdriften in Datenströmen treten oft zu jeder Zeit unvorhersehbar auf. Derzeit behandeln viele Classification-Mining-Algorithmen dieses Problem, indem sie einen inkrementellen Lernansatz oder einen Ensemble-Klassifizierer-Ansatz verwenden. Beide können jedoch zu keinem Zeitpunkt eine genaue Vorhersage treffen. In diesem Beitrag schlagen wir eine neuartige Strategie zur Wissenserhaltung vor. Unser Ansatz speichert und pflegt Wissen in einer mehrdeutigen Entscheidungstabelle mit aktuellen statistischen Indikatoren. Mit unserem Disambiguierungsalgorithmus kann ein Entscheidungsbaum ohne Zeitproblem effizient synthetisiert werden. Unsere Experimentergebnisse haben gezeigt, dass die Genauigkeitsrate unseres Ansatzes höher und glatter ist als bei anderen Ansätzen. Unser Algorithmus hat sich also als echter Ansatz zu jeder Zeit erwiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30497-5_110 2091c5cab9095d31797bc4bd0dc30e5a;de;;;1.3.;;;Risikogrenzen für CART-Regressionsbäume Das Ziel der 1984 von Breiman, Friedman, Olshen und Stone [1] vorgeschlagenen Classification And Regression Trees (CART) ist die Konstruktion eines effizienten Algorithmus, der einen stückweise konstanten Schätzer eines Klassifikators oder einer Regressionsfunktion aus einer Trainingsstichprobe von Beobachtungen liefert . Dieser Algorithmus basiert auf binären baumstrukturierten Partitionen und einem bestraften Kriterium, das es erlaubt, aus einer riesigen Sammlung von Bäumen einige „gute“ baumstrukturierte Schätzer auszuwählen. Aus praktischer Sicht bietet es einige leicht zu interpretierende und leicht zu berechnende Schätzer, die dann in vielen Anwendungen wie Medizin, Meteorologie, Biologie, Umweltverschmutzung oder Bildcodierung weit verbreitet sind (siehe beispielsweise [2], [3]). ).;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-21579-2_24 d4822f3fe0cd69ec9c745139aeaa3d55;de;;;1.2.;;;Verbesserte Erstellung und Nutzung von Metadaten für personalisierte IPTV-Dienste Metadaten sind der Schlüssel zur Verbindung von Videos und einzelnen Benutzern. Für eine erfolgreiche Personalisierung ist es wichtig, detailliertere und konkretere Metadaten zu sammeln. Dieses Papier schlägt eine Methode vor, um Metadaten genauer zu erstellen und zu nutzen, als Ergebnis der Forschung zur Verbesserung der Personalisierung. Zu diesem Zweck schlagen wir eine Möglichkeit vor, ein Video in einer Reihe von segmentierten Bildern zu konsumieren und zu verwenden, um den Geschmack des Benutzers an bestimmten Abschnitten oder Punkten des Videos zu erhalten. Die vorgeschlagene Methode wird auf der Website implementiert und die Wirksamkeit der vorgeschlagenen Methode wird durch den Vergleich der Website-Verweildauer und der Anzahl der Videonutzung pro Sitzung zwischen neuen Besuchern und wiederkehrenden Besuchern aufgezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-4154-9_88 a339fc359e286622d070c610e134291d;de;;;1.2.;;;Entwicklungsgeschichte und Entwicklung der Zugänglichkeit des Landverkehrsnetzes in der Region Peking-Tianjin-Hebei im letzten Jahrhundert Von der Entwicklung des modernen Transportwesens bis hin zur heutigen Ära der Hochgeschwindigkeitsverkehrsnetze hat die Region Peking-Tianjin-Hebei (BTH) immer eine nationale führende Rolle bei der Entwicklung des Landverkehrs in China gespielt. Um die langfristigen evolutionären Merkmale des Landverkehrs in der BTH-Region zu untersuchen, wurde in dieser Arbeit eine Zeitskala von 100 Jahren verwendet, um den Entwicklungsprozess des Landverkehrsnetzes systematisch zu interpretieren. Mit 13 Städten der BTH-Region als Forschungsankerstädte haben wir „Sprung“-Verkehrsmittel berücksichtigt, um die Entwicklung der Erreichbarkeit zu untersuchen. Unsere Forschung zeigt folgende Ergebnisse: (1) Das Landverkehrsnetz in der BTH-Region hat fünf Entwicklungsstufen durchlaufen: die Anfangsphase der Modernisierung (1881–1937), die Phase der Stagnation der Verkehrsentwicklung (1937–1949), die Netzausbauperiode (1949–1980), die Zeit des Fernbaus (1980–1995) und die Zeit des Hochgeschwindigkeitsverkehrsnetzes (1995–heute). Die um Peking zentrierte Netzstruktur existiert seit den Anfängen der modernen Verkehrsentwicklung. (2) Das räumliche Zugänglichkeitsmuster des Landverkehrs in der BTH-Region hat sich von der Ausdehnung entlang der Verkehrskorridore zur Bildung konzentrischer Kreise entwickelt. Die geschichtete zirkuläre Verkehrsstruktur in Ankerstädten hat sich nach und nach zu einem zusammenhängenden Entwicklungsmuster entwickelt. (3) In den Verkehrsstrukturen der Ankerstädte gibt es deutliche hierarchische Unterschiede. Peking stand immer an der Spitze dieser Hierarchie, während die hierarchische Position von Zhangjiakou seit 1949 merklich gesunken ist. Die Region Peking-Tianjin bildete als erste Region eine kurzzeitige Transportkreisstruktur, während die Transportvorteile des zentralen Teils central der Provinz Hebei, die im Zentrum der Verkehrsregion BTH liegt, müssen noch realisiert werden.;-;-;-;https://link.springer.com/article/10.1007/s11442-018-1558-x feef2924bd5b85a9fe4dba8175b8e280;de;;;1.2.;;;Hochwassersimulation im Küstentiefland im Norden von Jiangsu, China Das Küstentiefland in der nördlichen Provinz Jiangsu, China, ist durch ein geringes Relief und ein geringes Wasseroberflächengefälle in Bächen gekennzeichnet. Die Überflutungsstadien liegen in der Regel unter dem Hochwasserstand und der Tidenhub ist relativ klein. All diese Faktoren verhindern eine schnelle Ableitung von Hochwasser und machen die Hochwasserregime hier äußerst empfindlich auf den Meeresspiegelanstieg. Der Pflaumenregen von 1991 wurde untersucht, als der Niederschlag deutlich höher war als normal. Das eindimensionale nicht-konservative Strömungsmodell im offenen Kanal wurde verwendet, um die Strömung im Kanalnetz des untersuchten Gebiets zu simulieren. GIS-Technologie wurde verwendet, um das Maximum im undatierten Bereich durch Analyse der DEMs abzugrenzen.;-;-;-;https://link.springer.com/article/10.1007/BF02826716 c112dc5366ce77f500f039cb602d468b;de;;;1.3.;;;Bewegung, Training und Umsatz der roten Blutkörperchen Ausdauertraining kann zu einer sogenannten „Sportanämie“ führen. Obwohl rote Blutkörperchen (RBCs) unter normalen Bedingungen eine Lebensdauer von etwa 120 Tagen haben, kann die Alterung während eines intensiven Trainings zunehmen. Allerdings ist ein Mangel an Erythrozyten bei Sportlern selten und eine Sportanämie ist wahrscheinlich auf ein erhöhtes Plasmavolumen zurückzuführen. Radfahren, Laufen und Schwimmen können RBC-Schäden verursachen.;-;-;-;https://link.springer.com/article/10.2165/00007256-199519010-00002 ad98af114fd6f7f3ba399b3ee6ce4e5b;de;;;1.2.;;;Ein gleitender Sektor-Ansatz zur quantisierten Feedback-Variablenstruktursteuerung Dieses Papier befasst sich mit dem Problem der quantisierten Rückkopplung quadratischer Stabilisierung für lineare zeitinvariante Systeme. Auf Gleitsektoren basierende Steuerschemata mit quantisierter Zustandsrückkopplungsvariabler Struktur werden eingerichtet. Der Hauptvorteil der Sliding-Sektor-Technik besteht darin, dass durch die Verwendung einer variablen Struktursteuerstrategie verursachtes Rattern vermieden werden kann. Mit der vorgeschlagenen diskreten Online-Einstellung des Quantisierungsparameters wird gezeigt, dass die vorgeschlagenen Gleitsektor-basierten Gleitmodusregler die Zustandsquantisierung bewältigen und quadratische Stabilität des Systems mit geschlossener Schleife garantieren können. Simulationsergebnisse werden angegeben, um die Wirksamkeit der vorgeschlagenen Methode zu überprüfen.;-;-;-;https://link.springer.com/article/10.1007/s12555-013-0169-7 dbe0449605a34587e0b3277ae5c025c5;de;;;1.2.;;;Regression mit teilweise linearisierten Gaußschen Fuzzy-Daten In dieser Arbeit wird ein Regressionsmodell basierend auf teilweise linearisierten Gaußschen Fuzzy-Zahlen vorgestellt. Zuerst definieren wir sie und untersuchen einige Eigenschaften im Vergleich zu herkömmlichen Gaußschen Zahlen. Zweitens werden diese Zahlen in einem allgemeinen Verfahren der kleinsten Quadrate für Fuzzy-Daten verwendet. Wir geben auch ein numerisches Beispiel, in dem die Anwendbarkeit der vorgeschlagenen Methode getestet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25453-6_48 c132396d7a97054809aa3611a522cccb;de;;;1.3.;;;Visualisierung der neu entwickelten Vorrichtung und Vorrichtung für die computergestützte Kniegelenkersatzchirurgie Chirurgische Trainingssysteme auf Basis von Virtual Reality (VR) sind sehr gefragt, da sie eine kostengünstige und effiziente Alternative zu herkömmlichen Trainingsmethoden bieten. Traditionelle chirurgische Trainingsmethoden erfordern Leichen oder Plastikmodelle, die teuer sind. Kadaver können nicht wiederholt verwendet werden und das Training mit Plastikmodellen kann kein realistisches Erlebnis bieten. Dieses Papier beschreibt eine Visualisierung, um die Verwendung von neu konstruierten Vorrichtungen und Vorrichtungen für die computergestützte Kniegelenkersatzoperation zu zeigen. Orthopädische Chirurgen fanden es schwierig, die vorhandene Schablone während der Operation mit dem computergestützten Gerät auszurichten und es ist zeitaufwendig, sie an der richtigen Stelle zu platzieren. Zur Lösung dieses Problems wurde eine neu konstruierte Spannvorrichtung und Spannvorrichtung vorgeschlagen. Eine Visualisierung ist erforderlich, um den Chirurgen zu zeigen, wie es in der computergestützten Kniegelenkersatzoperation verwendet wird. Virtuelle Modelle, die in dieser Visualisierung verwendet werden, werden aus der tatsächlichen Ausrüstung und dem realen menschlichen Datensatz erstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05036-7_22 3d6d14cca91bde2378e13773531720a4;de;;;1.3.;;;Situation und Entwicklungstendenz der Mikroelektronikausbildung in China Die menschliche Gesellschaft tritt in das Informationszeitalter ein. Der Eckpfeiler der Informationstechniken ist die Mikroelektronik. Daher kommt der Forschung, Entwicklung und Ausbildung der Mikroelektronik eine große Bedeutung zu. Dies gilt nicht nur in entwickelten Ländern, sondern auch in Entwicklungsländern wie in China. Da sich die Tür Chinas zur Welt weiter öffnet, sind die Weltbevölkerung an allen Aspekten interessiert, einschließlich der Bildung Chinas. In diesem Beitrag werden die Situation und der sich entwickelnde Trend der Mikroelektronikausbildung in China vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-9506-3_19 f1dad4013ceffd78b32036cde9c09d86;de;;;1.3.;;;Die Wirkung von Fragestilen und -methoden in Quizfragen mit mobilen Geräten In diesem Kapitel wurden Quizfragen an Universitätsstudenten mit Smartphones und Tablets durchgeführt. Der Einfluss von Fragestilen und -methoden auf die Motivation und der Anteil richtiger Antworten wurden dann unter Berücksichtigung des Testansatzes – Vermeidungstendenzen – untersucht. In Studie 1 wurden 20 Multiple-Choice-Fragen gestellt und Unterschiede zwischen Smartphones und Tablets hinsichtlich des Prozentsatzes richtiger Antworten und der optimalen Anzahl von Fragen analysiert. In Studie 2 wurden verschiedene Fragestile analysiert, nämlich Multiple-Choice, Fill-in-the-Blank und eine Kombination aus Multiple-Choice und Fill-in-the-Blank mit Tabletten. In Studie 3 wurden für die Fragemethode für Quizfragen mit Smartphones alle Fragen angezeigt und eine Reihe von Fragen und Antworten zum Vergleich analysiert. In Studie 4 wurden für die Fragemethode für Quiz, die im Kontext der Smartphone-Nutzung betrachtet wurde, alle Fragen angezeigt und eine Reihe von Fragen und Antworten analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-26518-6_1 3cc7c33f38a535f176ee791acae94ac6;de;;;1.3.;;;Neue Lösung für das freie Taumeln der Erde und seine geophysikalischen Auswirkungen In dieser Arbeit wird die Theorie des freien Taumelns der dreiachsigen Erde entwickelt und neue Schlussfolgerungen gezogen: Die Eulerperiode sollte eigentlich durch die erste Art eines vollständigen elliptischen Integrals ausgedrückt werden, die Spur der freien Polarbewegung ist elliptisch und die seiner Neben- und Hauptachsen sind ungefähr parallel zu den Hauptachsen der Erde;-;-;-;https://link.springer.com/article/10.1007/s11806-010-0184-2 1f9b5c4d2667aedbcf3fc117d7c63240;de;;;1.3.;;;Pixel Art Farbpalettensynthese Pixelkunst wird zusammen mit einer Farbpalette erstellt, die die visuelle Gesamtqualität stark beeinflusst. Aus einem bestimmten Bild mit Hunderttausenden von Farben ist es schwierig, eine begrenzte Anzahl von Farben für die Farbpalette auszuwählen. Wir schlagen ein automatisches System vor, das ähnliche Schritte der manuellen Erstellungsprozesse von Pixel-Art-Künstlern übernimmt, um die Farbpalette einer Pixel-Art aus einem gegebenen Bild effektiv zu synthetisieren. Basierend auf unserem Ansatz können sowohl Künstler als auch Anfänger leicht ein niedrig aufgelöstes Bild ableiten, das der erforderlichen endgültigen Pixelgrafik sehr nahe kommt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46578-3_38 d16af1de7cb749915d1bdf41e19a8056;de;;;1.3.;;;Kompetenzbasierte Bewertungsmethoden von Auszubildenden in Aus- oder Weiterbildungsprogrammen für Cyber-Forensik – Ein Rückblick Schulungen oder Schulungen zu Cyber ​​Forensics Investigations sind relativ neu. Die Natur der Cyber-Forensik ist multidisziplinär, was eine Verbreitung zu verschiedenen Trainingsprogrammen erzwingt, von einer Handvoll Tagesworkshops bis hin zu einem Master-Abschluss in Cyber-Forensik. So fanden die Forscher heraus, dass es der Welt aufgrund einiger Faktoren an Experten für Cyber-Forensik mangelt. Daher konzentriert sich dieses Papier darauf, die Implementierung des kompetenzbasierten Assessments der Auszubildenden zu analysieren. Die Studie kommt zu dem Ergebnis, dass die kompetenzbasierte Bewertung der Schulungen oder Ausbildungen im Bereich Cyber ​​Forensics unter 50% liegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22170-5_44 7686d2d7ad87abcc892dade236ce59b0;de;;;1.3.;;;Resampling-Methoden zur Partikelfilterung: identische Verteilung, ein neues Verfahren und vergleichbare Studie Die Resampling ist ein kritischer Vorgang, der sowohl für den effizienten Einsatz des Partikelfilters von theoretischer als auch praktischer Bedeutung ist. Um einen Einblick in den Resampling-Prozess und den Filter zu erhalten, trägt dieser Beitrag als Fortsetzung des Tutorials in drei weiteren Punkten bei (Li;-;-;-;https://link.springer.com/article/10.1631/FITEE.1500199 8609520121f7fe581e906b65d2bbe5d7;de;;;1.3.;;;Sicherheitserziehung, -training und -bewusstsein: Einbindung eines Social-Marketing-Ansatzes für Verhaltensänderungen Effektive Schulung, Schulung und Sensibilisierung für die Informationssicherheit (SETA) ist für den Schutz der Informationsressourcen eines Unternehmens unerlässlich. Obwohl viele Unternehmen erheblich in SETA investieren, nehmen die Vorfälle aufgrund der Nichteinhaltung von Mitarbeitern immer noch zu. Wir argumentieren, dass dies darauf hindeuten könnte, dass die aktuellen SETA-Programme bei der Verbesserung des Sicherheits-Compliance-Verhaltens der Mitarbeiter nicht optimal sind, da ihnen eine ausreichende theoretische Grundlage fehlt. Diese Studie schlägt einen neuen Prozess für die SETA-Entwicklung vor, der auf dem Social-Marketing-Ansatz basiert. Der vorgeschlagene Prozess beinhaltet die Auswahl spezifischer Verhaltensweisen, die Entwicklung eines tieferen Verständnisses der Zielgruppe und die Anwendung theoriegeleiteter Interventionsstrategien zur Verhaltensänderung. Der SETA-Entwicklungsprozess bietet eine solide Grundlage für zukünftige empirische Arbeiten, die Fokusgruppen und Aktionsforschung umfassen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-66039-0_6 f4c53ccce0752eac3c51d9852c7beb33;de;;;1.2.;;;Zukünftige Entwicklungen – die Hamburger Regeln und darüber hinaus Eine Analyse der Gerichtsstandsklauseln in Seeverkehrsdokumenten wäre nicht vollständig ohne einen Überblick über die einschlägigen Vorschriften mehrerer internationaler Übereinkommen, denen weder die Vereinigten Staaten, das Vereinigte Königreich noch Deutschland beigetreten sind,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10222-6_10 f74479bd562f6669a5e0e6fa8ca5bf79;de;;;1.2.;;;Un Peu d’Histoire — La France Libre et la Libération Die alliierten Streitkräfte landeten am 6. Juni 1944 an den Stränden der Normandie, aber erst im August dieses Jahres trafen alliierte Truppen am Stadtrand von Paris ein, wie im ersten Abschnitt unten beschrieben. Um die Euphorie der Alliierten zu würdigen, muss man sich daran erinnern, dass die Befreiung auf eine vierjährige Besatzungszeit folgte, die mit der Invasion 1940 begann. Als die französische Regierung 1940 zusammenbrach, war es General de Gaulle, der in London eine Exilregierung einrichtete. und der zweite Text enthält seinen Aufruf an alle französischen Bürger, ihr Land zu verteidigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-07971-1_13 441bd24d65d6d8a1b48e10a7f5ba4ac8;de;;;1.3.;;;Analyse von Ausbreitungsplänen in NSF-finanzierten Bildungsentwicklungsprojekten Die zunehmende Annahme und Anpassung vielversprechender Unterrichtsstrategien und -materialien wurde als kritische Komponente identifiziert, die zur Verbesserung der naturwissenschaftlichen, technologischen, ingenieurwissenschaftlichen und mathematischen (MINT) Bildung erforderlich ist. Dieses Papier untersucht typische Verbreitungspraktiken und die daraus resultierenden Ergebnisse von Vorschlägen, die von Entwicklern von Bildungsinnovationen verfasst wurden. Diese Vorschläge wurden mit dem Designing for Sustained Adoption Assessment Instrument (DSAAI) analysiert, einem Instrument, das zur Bewertung von Vermehrungsplänen entwickelt wurde, und die Ergebnisse wurden verwendet, um die Wahrscheinlichkeit vorherzusagen, dass ein erfolgreiches Projekt zur Annahme durch andere führen würde. Wir haben festgestellt, dass nur wenige Bildungsentwickler starke Verbreitungspläne vorschlagen. Anschließend wurde eine Folgeanalyse durchgeführt, um zu sehen, welche Verbreitungsstrategien Entwickler tatsächlich nutzten, um ihre Innovationen zu entwickeln, zu verbreiten und zu unterstützen. Anhand einer Webrecherche und Interviews mit Principal Investigators wurde der Umsetzungsgrad der Vermehrungspläne ermittelt und die Akzeptanz der Innovationen abgeschätzt. In dieser Studie analysierten wir 71 von der National Science Foundation finanzierte Vorschläge zur Bildungsentwicklung und sagten voraus, dass 80% bei der Verbreitung ihrer Innovationen nicht erfolgreich sein würden. Die nachfolgende Datenerhebung mit einer Teilmenge davon deutet darauf hin, dass die Vorhersagen einigermaßen genau waren.;-;-;-;https://link.springer.com/article/10.1007/s10956-017-9689-x f9c73831ac14b8102982e17db7484a2f;de;;;1.2.;;;Lineare Viskoelastizität Die einfachste Art von viskoelastischem Verhalten ist die lineare Viskoelastizität. Diese Art von Verhalten wird beobachtet, wenn die Deformation so gering ist, dass die Moleküle eines Polymermaterials in vernachlässigbarem Maße aus ihrer Gleichgewichtskonfiguration und ihrem Verschränkungszustand gestört werden. Offensichtlich würden sehr kleine Verformungen in diese Kategorie fallen. Dies kann eine Verformung sein, bei der die Gesamtdehnung sehr klein war, oder die frühen Stadien einer größeren Verformung. Bei Schmelzen, die ein Fading-Gedächtnis haben und fließfähig sind, wird auch dann ein lineares Verhalten beobachtet, wenn eine Verformung sehr langsam erfolgt, wie bei der stationären einfachen Scherung bei sehr niedrigen Schergeschwindigkeiten. Dies liegt daran, dass Relaxationsprozesse aufgrund der Brownschen Bewegung immer dazu dienen, die Moleküle in ihren Gleichgewichtszustand zurückzuführen, und wenn die Verformung dazu neigt, sie nur sehr langsam aus diesem Zustand zu entfernen, hat dieser Relaxationsmechanismus viel Zeit, um „mitzuhalten“. mit diesem Verfahren, mit dem Nettoergebnis, dass keine signifikante Abweichung vom Gleichgewicht auftritt. Eine Manifestation davon ist, dass bei sehr niedrigen Schergeschwindigkeiten die Viskosität einer polymeren Flüssigkeit unabhängig von der Schergeschwindigkeit wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-9738-4_2 7ea437067f79a7d9fa255445bcf21d7f;de;;;1.3.;;;Eine Studie zum Einsatz von Blended Learning im Lehren und Lernen moderner Bildungstechnologien Der Lehrplanunterricht der modernen pädagogischen Technologie (MET) ist immer eine Frage, die es wert ist, diskutiert zu werden. Mit unserer langjährigen Lehrpraxis und der damit verbundenen Forschungsgrundlage haben wir den Weg des Blended Learning übernommen, um die Bildungsreform in diesem Curriculum fortzusetzen, und erzielten einige gute Ergebnisse Lernen in der Umgebung des Internets. Wir präsentieren eine verwandte Studie im Met-Curriculum-Unterricht. Einige Studenten und Lehrer der Suzhou University of Science and Technology werden befragt, um den Zustand von College-Studenten und Lehrern des MET-Curriculums bei der Nutzung von Computern und Internet zu erfahren. Nach den Ergebnissen der Umfrage kommt die Forscherin zu dem Schluss, dass es möglich ist, Blended Learning im MET-Lehrplan an Hochschulen einzusetzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03697-2_28 b1b266f2df2ae46a596f971813219b79;de;;;1.2.;;;Die menschliche Substantia Nigra und das ventrale Tegmentalgebiet Anhand der Visualisierung von Neuromelanin-pigmentierten Neuronen kann makroskopisch das SN im Mittelhirn leicht unterschieden werden (Locus niger crurum cerebri, Vicq d’Azyr 1786). Die SN wird im Allgemeinen in eine zelldichte Pars compacta und eine zellsparse Pars reticulata unterteilt. Eine Pars lateralis erstreckt sich vom lateralen Rand von A9 zum dorsolateral gelegenen Corpus geniculatum mediale (Bauer 1909) und wurde von Sano (1910) als Area M beschrieben. Es wurden verschiedene Unterteilungen des menschlichen SN und verwandter Strukturen wie der VTA vorgeschlagen. Die historischen Unterschiede in der Nomenklatur sind in Abb. 12 dargestellt. Kriterien für die Unterteilung des SN variabel gestresster zytologisch (Poirier et al. 1983, Braak und Braak 1986), hodologisch (François et al. 1985, Parent 1986) und immunhistochemischer Waters et al. 1988) Daten, was zu einer manchmal recht verwirrenden Nomenklatur führt. Es stehen mehrere Atlanten mit Unterteilungen mesenzephaler CAerger Zellmassen im menschlichen Gehirn zur Verfügung (Foix und Nicolesco 1925, Winkler 1929, Hassler 1937, Riley 1943, Olszewski und Baxter 1954, Crosby et al. 1962, Nieuwenhuys et al. 1988). Die klassische Arbeit von Foix und Nicolesco (1925) ist von besonderem Wert, da sie Daten zum SN beim Altern und bei der Parkinson-Krankheit enthält. Dasselbe gilt für die detaillierten Studien von Hassler (1937, 1938), obwohl seine ausführliche Beschreibung der Pars compacta subnuclei (Abb. 32a) kaum anwendbar ist. Die Variation zwischen den kleinsten Teilgebieten von Hassler (1937) ist einfach zu groß. Der Atlas von Olszewski und Baxter (1954) gibt einen klaren Überblick über Nissl-gefärbte Abschnitte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-75846-1_4 fa8cddba127e22784ee73ef4a2ef1a5d;de;;;1.2.;;;Wirkung einer Zinkergänzung bei Säuglingen mit schwerer Lungenentzündung Lungenentzündung ist eine häufige Infektionskrankheit der Atemwege im Säuglingsalter. Frühere Arbeiten zeigen kontroverse Ergebnisse zum Nutzen einer Zinkergänzung bei Patienten mit Lungenentzündung. Wir führten diese Studie durch, um den Serumzinkstatus bei Säuglingen mit schwerer Lungenentzündung und die klinischen Auswirkungen einer Zinkergänzung auf Patienten mit niedrigen Serumzinkspiegeln zu untersuchen.;-;-;-;https://link.springer.com/article/10.1007/s12519-015-0072-9 9b10a9144ed2096809570ec04a14530c;de;;;1.2.;;;Berechnung von Konfidenzintervallen in GLIM Die einfachste und gebräuchlichste Methode zur Erstellung von Konfidenzintervallen für die Parameter eines generalisierten linearen Modells ist die Verwendung der Standardfehler der Schätzungen. Aus einer Reihe von Gründen ist es jedoch wünschenswert, die Konfidenzintervalle auf der Änderung der Log-Likelihood zu basieren. Dieses Papier präsentiert eine einfache Methode zur Berechnung von profil-likelihood-basierten Konfidenzintervallen für kanonische Link-Modelle in GLIM. Neuere Arbeiten haben es ermöglicht, ungefähre bedingte Intervalle für diese Modelle zu berechnen. Die Implementierung dieser Berechnungen als GLIM-Makros wird diskutiert. Die entsprechenden Makros werden bereitgestellt und ihre Verwendung wird mit Daten aus drei biomedizinischen Studien illustriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-3680-1_27 2ec3bed047639ce737f96ffd39195747;de;;;1.2.;;;Aspekte des Gesprächsstils – linguistische versus Verhaltensanalyse Skinners funktionale Analyse des verbalen Verhaltens wurde der formalen linguistischen Analyse gegenübergestellt, die die grammatische Struktur und „Bedeutung“ von verbalen Antwortprodukten untersucht, unabhängig von den Umständen, unter denen sie produziert werden. Dennoch scheint es, dass bestimmte Bereiche der linguistischen Analyse nicht vollständig strukturell sind. In ihren letzten Büchern;-;-;-;https://link.springer.com/article/10.1007/BF03392876 3ce130ae9fae1b994d7caa4566fd1728;de;;;1.3.;;;Die Reform des Ausbildungsmodus kunstgestalterischer Talente in der Berufsbildung im Kontext Künstlicher Intelligenz In der neuen Ära entwickelt sich künstliche Intelligenz basierend auf Computertechnologie rasant. Als Meilenstein in der Entwicklung von Wissenschaft und Technik löst die Geburt der Künstlichen Intelligenz (KI) eine neue Welle wissenschaftlich-technischer Reformen aus, die auch erhebliche Auswirkungen auf den wirtschaftlichen Bereich hat. In dieser Phase wird diese Technologieentwicklung offiziell in den nationalen Strategieplan in China aufgenommen. Auf dem Weg in das KI-Zeitalter hat sich die Förderung kunstgestalterischer Talente in der Berufsbildung entsprechend gewandelt und die Gesamtentwicklung steht vor neuen Zwängen und Herausforderungen. In diesem Zusammenhang muss die Kunstgestaltung der höheren Berufsschulen mit der Zeit gehen, das Neue durch das Alte hervorbringen und sich gemeinsam weiterentwickeln. Einerseits ist es notwendig, die grundlegende Lehrqualität zu erhalten. Andererseits gilt es, die umfassende Qualität und die persönliche Befähigung von Berufsbildungstalenten zu stärken.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5959-4_86 f444017e0ada84704d002437f07cf048;de;;;1.3.;;;Einsatz von Spieltechnologien zur Entwicklung virtueller Labors für das Physikstudium In dem Artikel wird die Anwendung der Unity 3D Game Engine für die Implementierung des virtuellen physikalischen Labors betrachtet. Die konkurrierenden Plattformen, Programmmodelle, die Entwicklungsmethodik und die Durchführung der Laborarbeiten zur Untersuchung der Lichtpolarisation werden beschrieben. Es zeigte sich, dass die virtuellen physikalischen Labore eines der erfolgreichen Beispiele für die Einführung von Informationstechnologien in den Ausbildungsprozess darstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49700-6_42 698b57878daa505cd2fc29d85134f2ce;de;;;1.2.;;;Mining-Muster aus Schemas großer Sterne basierend auf Streaming-Algorithmen Eine wachsende Herausforderung im Data Mining ist der Umgang mit komplexen, umfangreichen und dynamischen Daten. In vielen realen Anwendungen sind komplexe Daten nicht nur in mehreren Datenbanktabellen organisiert, sondern kommen auch kontinuierlich und endlos in Form von Streams an. Obwohl es einige Algorithmen zum Mining mehrerer Relationen sowie viel mehr Algorithmen zum Mining von Datenströmen gibt, kombinieren nur sehr wenige den Fall der Multirelation mit dem Fall der Datenströme. In diesem Beitrag beschreiben wir einen neuen Algorithmus,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30454-5_10 16d576efbce53b07b8a6857bf9eeddf4;de;;;1.3.;;;Auswirkungen von Blended e-Learning: eine Fallstudie im Rahmen des Hochschulsteuerunterrichts Dieser Artikel hat zwei Hauptziele. Zunächst beschreiben wir das Design eines E-Learning-Systems für einen Studiengang zum Einkommensteuerrecht an der Universität. Zweitens analysieren und untersuchen wir Lernergebnisse in Bezug auf die Lernzufriedenheit und den Lernerfolg der Schüler. Der Lernerfolg wurde anhand von aus den Kursinhalten abgeleiteten Fragen untersucht und die Lernzufriedenheit anhand einer Adaption des Technology Acceptance Model (TAM) analysiert.;-;-;-;https://link.springer.com/article/10.1186/s13673-015-0024-3 5b58647f7e8e848828b34036d0c5d582;de;;;1.3.;;;Einfluss der Multimedia-Produktion von Musikkunst auf die Berufskompetenz der zukünftigen Musiklehrer*innen Das Kapitel untersucht das drängende Problem der musikalischen Hochschulbildung, das den Einfluss multimedialer Technologien auf die Ausbildung der Berufskompetenz zukünftiger MusiklehrerInnen betrifft. Es bietet die Analyse bestehender Multimedia-Produktionen, die für die Ausbildung von Musikstudenten nützlich sind. Die Autoren präsentieren das elektronische Lehrbuch Russian Music: from Ancient Times to Early 20th Century, definieren pädagogische Ziele, die die Notwendigkeit bestimmen, das Lehrbuch in das Studium der Musikgeschichte einzuführen. Konsequenterweise werden der Aufbau des Manuals und seine Anwendungsmöglichkeiten im Unterricht von Musikstudenten sowohl pädagogischer als auch berufsbezogener Fachrichtungen analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35737-4_12 ebe05d2afcfa2242439812071fea5671;de;;;1.3.;;;Prozessmodell zur Massenevakuierung mit zellularen Automaten basierend auf Sicherheitstraining Safety Um das Problem zu lösen, dass sich das Crowd-Evacuating-Prozessmodell mit zellularen Automaten stark vom realen Crowd-Evacuating-Prozess unterscheidet, wird das Crowd-Evacuating-Prozessmodell mit zellularen Automaten auf der Grundlage von Sicherheitstrainings behandelt. Der auf Sicherheitstrainings basierende Prozess zur Evakuierung von Menschenmengen wird simuliert und vorhergesagt, und das Ergebnis ist der Realität sehr nahe. Durch die vertikale Platzierung der Regale wird sowohl eine höhere Fluchtrate als auch eine größere Regalfläche von bis zu 216 m² erreicht;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21402-8_69 e387c2254c735f633430184d349c7f33;de;;;1.3.;;;Der Education Chief Resident in der Medizinstudentenausbildung: Erfolgsindikatoren Obwohl die Bewohner aktiv an der Lehre von Medizinstudenten beteiligt sind, haben einige Studenten das Gefühl, dass sie von den Bewohnern nicht angemessen unterrichtet werden. Die Position des Education Chief Resident in Medical Student Education wurde entwickelt, um die Bildungserfahrung für die Studenten zu verbessern, die akademischen Fähigkeiten des Bildungsleiters zu fördern und zwischen Studenten und Assistenzärzten zu vermitteln.;-;-;-;https://link.springer.com/article/10.1176/appi.ap.34.4.253 e010173e55fb91a2e3bbea302dc11655;de;;;1.3.;;;Computergestütztes, formatives Assessment und dispositionale Lernanalyse im Mathematik- und Statistiklernen Learning Analytics zielt darauf ab, den Lernprozess durch systematische Messungen lernbezogener Daten zu verbessern und Lernenden und Lehrenden informatives Feedback zu geben, um die Regulation des Lernens zu unterstützen. Nachverfolgungsdaten aus technologiegestützten Lernsystemen bilden die Hauptdatenquelle für die Lernanalyse. Dieser empirische Beitrag bietet eine Anwendung des theoretischen Rahmens der dispositionalen Lernanalyse von Buckingham Shum und Deakin Crick [1]: eine Infrastruktur, die Lerndispositionsdaten mit Daten kombiniert, die aus computergestützten, formativen Assessments extrahiert wurden. In einem großen einführenden quantitativen Methodenmodul basierend auf den Prinzipien des Blended Learnings, das persönliche problembasierte Lernsitzungen mit E-Tutorials kombiniert, untersuchen wir die Vorhersagekraft von Lerndispositionen, Ergebnissen von kontinuierlichen formativen Assessments und anderen systemgenerierten Daten bei der Modellierung der Schülerleistung und ihres Potenzials, informatives Feedback zu generieren. Aus einer dynamischen Längsschnittperspektive scheinen computergestützte formative Assessments der beste Prädiktor für die Erkennung leistungsschwacher Schüler und akademischer Leistungen zu sein, während grundlegende LMS-Daten das Lernen nicht wesentlich vorhersagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08657-6_7 80305918f2757ad81310d8b2476abed5;de;;;1.3.;;;Markov-Kette Monte-Carlo-Probenahme In letzter Zeit haben sich Monte Carlo (MC)-basierte Abtastmethoden zur Bewertung hochdimensionaler Posterior-Integrale rasant entwickelt. Zu diesen Sampling-Methoden gehören MC-Relevanz-Sampling (Hammersley und Handscomb 1964, Ripley 1987, Geweke 1989, Wolpert 1991), Gibbs-Sampling (Deutsch und Deutsch 1984, Gelfand und Smith 1990), Hit-and-Run-Sampling (Smith 1984, Bélislc, Romeijn , und Smith 1993, Chen 1993, Chen und Schmeiser 1993 und 1996), Metropolis-Hastings-Sampling (Metropolis et al. 1953, Hastings 1970, Green 1995) und Hybridverfahren (zB Müller 1991, Tierney 1994, Berger und Chen 1993 ). Eine allgemeine Diskussion des Gibbs-Samplers und anderer Markov-Chain-Monte-Carlo-Methoden (MCMC) finden Sie in der;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-1276-8_2 42a7fbaaaa1c98ff20b68c1f9ea637c5;de;;;1.3.;;;Tippen versus lautes Denken beim Lesen: Implikationen für computerbasierte Assessment- und Trainingstools Das Ziel dieser Studie war es, den Einfluss der Modalitäten der Produktion von Think-Aloud-Protokollen auf Lesestrategien zu bewerten. Leser in zwei Studien sprachen oder tippten Protokolle für narrative oder wissenschaftliche Texte und absolvierten Verständnistests für jeden Text. Menschliche Richter identifizierten das Vorhandensein von Paraphrasierungen, Überbrückungen von Schlussfolgerungen und Ausarbeitungen innerhalb der Protokolle. Das Leseverständnis wurde mit dem Nelson-Denny-Test bewertet. Bei narrativen Texten waren Paraphrasierungen und Überbrückungen beim Tippen weniger häufig als beim lauten Denken. Bei naturwissenschaftlichen Texten machten weniger geübte Leser beim Tippen häufiger Brückenschluss als beim Sprechen. Umgekehrt generierten erfahrene Leser beim Tippen von Gedanken mehr Paraphrasen als Brücken, aber nicht beim Sprechen. Diese Ergebnisse haben Auswirkungen auf computerbasierte Werkzeuge zur Lesebewertung und -intervention.;-;-;-;https://link.springer.com/article/10.3758/BF03192771 e155692cd011e2885629f1185a8199fe;de;;;1.2.;;;Klimatischer und anthropogener Einfluss auf die stabile Isotopenaufzeichnung von Massenkarbonaten und Ostrakoden im Neuenburgersee, Schweiz, während der letzten zwei Jahrtausende Der Neuenburgersee ist ein mittelgroßer See mit hartem Wasser und ohne varved Sedimente, der im Westschweizer Unterland am Fuße des Juragebirges liegt. Stabile Isotopendaten (δ18O und δ13C) sowohl von Bulk-Carbonat als auch von Ostrakoden-Calcit in einem 81 cm langen, mit Radiokarbon datierten Sedimentkern repräsentieren die letzten 1500 Jahre der Umweltgeschichte des Neuenburgersees. Der Vergleich zwischen diesem Isotop und anderen paläolimnologischen Daten (mineralogisch, geochemisch, palynologisch usw.) hilft, zwischen anthropogenen und natürlichen Faktoren zu unterscheiden, die den See zuletzt beeinflusst haben. Ein Anstieg der lakustrinen Produktivität (450–650AD ca.), abgeleitet aus dem positiven Trend der δ13C-Werte von Bulkkarbonat, steht im Zusammenhang mit mittelalterlichen Waldrodungen und den damit verbundenen Veränderungen des Nährstoffhaushalts. Ein negativer Trend sowohl bei den Bulk-Carbonat- als auch bei den Ostrakoden-Calcit-δ18O-Werten zwischen etwa 1300 und 1500 n. Chr. wird vorläufig als Folge einer Abkühlung der mittleren Lufttemperatur beim Übergang von der mittelalterlichen Warmzeit zur Kleinen Eiszeit interpretiert. Negative Trends bei den 18O- und δ13C-Massenkarbonatwerten in den obersten Sedimenten, die keine Entsprechung in den Ostrakoden-Calcit-Isotopenwerten aufweisen, gehen einher mit der kürzlich einsetzenden Eutrophierung des Sees. Als Erklärungsmechanismus für die damit verbundenen negativen Isotopentrends wird ein isotopisches Ungleichgewicht während der Calcit-Niederschlagung, wahrscheinlich aufgrund kinetischer Faktoren in Zeiten hoher Produktivität, postuliert, wobei der Effekt einer Verschiebung der Calcit-Niederschläge in die wärmeren Monate nicht ausgeschlossen werden kann.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008005622256 d7b003c90c42cbf4bf4979a47628bbdb;de;;;1.3.;;;Integration von Remote-Labors in die postsekundäre naturwissenschaftliche Bildung Die Fähigkeit, dem postsekundären Studierenden eine exzellente Laborerfahrung zu bieten, ist in vielen Disziplinen der Natur- und Ingenieurwissenschaften von entscheidender Bedeutung. Der Fernzugriff auf Lehrexperimente bietet Pädagogen ein weiteres Werkzeug, um eine starke Laborkomponente mit dem zusätzlichen Vorteil von Funktionalität und Flexibilität zu integrieren. Dieses Papier präsentiert eine vergleichende Perspektive für abgelegene Logistiklabore, indem abgelegene Umgebungen für das Lernen und die Forschung in den Wissenschaften untersucht werden. Es ist von entscheidender Bedeutung, dass das Lerndesign von Online-Lehrlaboren die Vertiefung von Kursprinzipien und -theorie anspricht und eine angemessene Orientierung für die Studierenden bietet, um einen erfolgreichen Betrieb in einem entfernten Umfeld zu ermöglichen. Die Fragen und Überlegungen zur Integration eines Remote-Experiments und zur Schaffung einer unterstützenden schülerzentrierten Lernumgebung werden anhand unserer eigenen Erfahrungen mit modernen chemischen Analyseinstrumenten als konkretes Beispiel dargestellt. Es wird eine kurze Analyse dieses sich entwickelnden Modells gegeben, sowie Feedback von Schülern und Lehrern, zusammengefasst als gewonnene Erkenntnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28816-6_5 b43bb77e96f0fc2b780e4ee705d71a3d;de;;;1.3.;;;Familienstand und Einkommen in entwickelten Ländern Bei der Schätzung von Verdienstgleichungen für Männer in den Vereinigten Staaten wird häufig eine dichotome Variable dafür, ob der Mann derzeit verheiratet ist oder nicht, als Regressor berücksichtigt. Die Koeffizientenschätzung für diese Variable ist meistens groß und signifikant. Der Heiratseffekt wird jedoch selten diskutiert. Dieser Effekt ist zentral für diese Studie, die in zweierlei Hinsicht zum Verständnis dieses statistischen Zusammenhangs beiträgt. Erstens zeigt es, dass der Zusammenhang in fast allen der vierzehn untersuchten Industrieländer und über mehrere unterschiedliche Zeiträume hinweg besteht. Berücksichtigt man Alter und, sofern verfügbar, Bildung, Rasse/ethnische Zugehörigkeit, geleistete Arbeitsstunden und Wohnort, reichen die Heiratsunterschiede beim Jahreseinkommen zugunsten der derzeit verheirateten Männer von 0 % bis 30 %. Zweitens wird festgestellt, dass es wichtige Unterschiede zwischen getrennt lebenden, geschiedenen, verwitweten und nie verheirateten Personen gibt.;-;-;-;https://link.springer.com/article/10.1007/BF00180873 8fbd496c31c3cd7285d9e15997b90fde;de;;;1.2.;;;Geschichte und Nomenklatur Kontroversen und Diskussionen über Details zwischen verschiedenen Schulen der Dermatologie sind die vorherrschenden Bestandteile der Geschichte der AD. Da diese sich nicht gut für eine genaue chronologische Gliederung eignen, bietet sich ein kurzer historischer Überblick eher an.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-74766-3_1 f8e76f305e0eab9719d46434e82011c0;de;;;1.2.;;;Evolution der Zell-zu-Zell-Kommunikation und der strukturellen Gehirnorganisation Die Übersicht befasst sich mit Schlüsselfragen der historischen Entwicklung des Nervensystems, einschließlich der Evolution der interzellulären Kontakte des Gehirns und der Neurotransmittersysteme. Besonderes Augenmerk wird auf die strukturell-funktionelle Organisation des Zentralnervensystems in einer Süßwasser-Lungenschnecke gelegt,;-;-;-;https://link.springer.com/article/10.1134/S0022093012040019 132d60c761f154570ec0ae93aac000e7;de;;;1.2.;;;Botulinumtoxin als Zweitlinientherapie bei chronischer Analfissur ohne 0,2 Prozent Glyceryltrinitrat ZWECK: Glyceryltrinitrat-Paste wird von vielen als Erstlinientherapie bei chronischer Analfissur verwendet, heilt jedoch nur etwa 50 bis 60 Prozent der Fissuren. Wir verwenden Botulinumtoxin als Zweitlinientherapie nach erfolglosem Glyceryltrinitrat und zielten darauf ab, Wirksamkeit, Nebenwirkungen und Patientenpräferenz zu bewerten. METHODEN: Es wurde eine prospektive, nicht randomisierte, offene Studie an Patienten mit chronischer Analfissur durchgeführt, bei denen eine Behandlung mit Glyceryltrinitrat, die mit 20 Einheiten Botulinumtoxin A in den inneren Schließmuskel injiziert wurde, nicht erfolgreich war. Symptomatische Linderung, visuelle Heilung von Fissuren, Nebenwirkungen und Patientenpräferenz wurden bei der 8-wöchigen Nachbeobachtung beurteilt. ERGEBNISSE: Vierzig Patienten wurden mit Botulinumtoxin behandelt. Neunundzwanzig Patienten (73 Prozent) insgesamt verbesserten sich symptomatisch und vermieden eine Operation. Siebzehn Fissuren (43 Prozent) wurden geheilt, während 23 Fissuren (57 Prozent) ungeheilt blieben. Von den nicht verheilten Fissuren waren 5 (12 Prozent) asymptomatisch, 7 (18 Prozent) waren symptomatisch stark gebessert und 11 (27 Prozent) waren symptomatisch nicht besser und wurden operiert. Die mit der Injektion verbundenen Beschwerden waren minimal. Von 34 Patienten, die sich in der Klinik einer Botulinumtoxin-Injektion unterzogen, bevorzugten 24 (71 Prozent) Botulinumtoxin, 7 Glyceryltrinitrat (20 Prozent, Differenz = 51 Prozent, 95 Prozent Konfidenzintervall = 31–71 Prozent) und 9 Prozent waren unentschlossen. Bei 7 Patienten (18 Prozent) wurden vorübergehende leichte Inkontinenzsymptome festgestellt. Schlussfolgerungen: Eine Botulinumtoxin-Injektion der zweiten Wahl verbessert die Symptome bei etwa drei Viertel der Patienten nach erfolgloser primärer Glyceryltrinitrat-Therapie und vermeidet zumindest kurzfristig eine chirurgische Sphinkterotomie. Botulinumtoxin heilt etwa die Hälfte dieser Fissuren. Beschwerden und Nebenwirkungen waren minimal. Eine Politik der First-Line-Glyceryltrinitrat/Second-Line-Botulinumtoxin wird Sphinkterotomie in 85 bis 90 Prozent vermeiden. Höhere Heilungsraten können durch die Gabe von Botulinumtoxin als Erstlinientherapie oder die Behandlung der chronisch fibrotischen Natur der Fissur erreicht werden.;-;-;-;https://link.springer.com/article/10.1007/s10350-004-6556-7 a211bcbe9fea665326962068165c67d4;de;;;1.2.;;;Induzierte Lautheitsreduktion als Funktion der Frequenzdifferenz zwischen Testton und Induktor Wenn auf einen Ton mit hoher Intensität (Inducer) ein Ton mit mittlerer Intensität (Testton) folgt, wird die Lautstärke des letzteren reduziert. Dieses Phänomen, das als induzierte Lautheitsreduktion (ILR) bezeichnet wird, hängt von der Frequenztrennung der beiden Töne ab, da der Frequenzunterschied mit zunehmender Frequenzdifferenz abnimmt. Der genaue Verlauf dieses Rückgangs ist jedoch nicht bekannt. Dieser Artikel stellt zwei Experimente vor, die dieser Frage nachgehen. Im ersten Experiment wurde die Lautstärkenreduzierung, die von einem 2,5-kHz-80-dB-SPL-Induktor erzeugt wurde, mit der Frequenz des Testtons gemessen, die von 800 Hz auf 6 kHz überstrichen wurde. Im zweiten Experiment wurde die Menge an ILR mit demselben Induktor und mit Testtönen auf 2, 2,5, 3 und 4 kHz gemessen. Beide Experimente zeigen, dass einige ILR bei Frequenzabständen von bis zu vier kritischen Bändern auftreten.;-;-;-;https://link.springer.com/article/10.3758/PP.70.4.725 f275ed3efd715875c3a6ebf2508c1a7c;de;;;1.2.;;;Auswirkungen des Baus von Tiefbauten auf bestehende historische Gebäude in Moskau Für Gebäude in historischer Umgebung, die in den Einflussbereich tiefliegender Bauwerke fallen, werden Verformungen in Abhängigkeit von ihrem Abstand zum Graben angegeben und anhand von Feldmessungen abgeleitete Kategorien für ihren Zustand dargestellt. Für die Moskauer Bodenbeschaffenheit wird der Einfluss der Methode zur Öffnung des Grabens auf Verformungen umliegender Gebäude untersucht. Für die Bewertung der Begrenzung der zulässigen zusätzlichen Verformungen der Gebäude wird ein Kriterium vorgeschlagen – die Krümmung der Unterseiten der Fundamente. Für den Bestand historischer Gebäude wird eine Tabelle zur Begrenzung zusätzlicher Verformungen erstellt, wenn in der Nähe tiefliegende Bauwerke errichtet werden.;-;-;-;https://link.springer.com/article/10.1023/A%3A1012560008295 29e27cd6b668559a94f906d238c4284b;de;;;1.2.;;;Diagnostische und therapeutische Behandlung von fetalen Erkrankungen Zu den Zielen der Perinataldiagnostik gehören (1) die Feststellung, ob ein gefährdeter Fötus tatsächlich eine Störung aufweist, (2) die Befähigung eines Gesundheitsteams, eine geeignete Therapie zu bewerten und einzuleiten, und (3) die Bereitstellung von Informationen für die Eltern, die normalerweise beruhigend sind. Die beiden Hauptbereiche sind die Diagnose genetischer Störungen und die Beurteilung des fetalen Wohlbefindens. In den letzten zwei Jahrzehnten ist eine Vielzahl von Techniken verfügbar geworden, darunter (1) Amniozentese, (2) Amnioskopie, (3) Fetoskopie, (4) Ultraschall, (5) Radiographie einschließlich Amniographie und Fetographie, (6) Hormonmessungen und Enzyme in mütterlichem Plasma, Urin und Fruchtwasser, (7) vorgeburtliche biophysikalische Tests und (8) intrapartale fetale Überwachung. Die oben genannten Techniken werden gesondert betrachtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2415-7_191 2f474fce93bfa54b4212c1cd59f7d89e;de;;;1.3.;;;Die Reform des professionellen Englischunterrichts im Studiengang Elektronische Information In diesem Beitrag schlagen wir ausgehend von den Merkmalen des Hauptfachs der elektronischen Information, von der Notwendigkeit, professionelle Englischkurse zu schaffen, kombiniert mit den Merkmalen von Englischkursen und Lehranforderungen, eine Analyse der aktuellen Probleme des Englischunterrichts vor, ein Konzept des Englischunterrichts Reform. Für die praktische Anwendungsfähigkeit der Studierenden sollten Lehrideen, Lehrmethoden, Materialauswahl und andere Aspekte reformiert werden, um die praktischen Fähigkeiten der Studierenden im professionellen Englisch zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24775-0_34 770e6d9f92fc71e13559eb8a851e4210;de;;;1.2.;;;Reine Zahlen, Invarianten und Symmetrie in der Evolution von Lebensgeschichten Bestimmte dimensionslose Zahlen im Zusammenhang mit Lebensgeschichten sind innerhalb einiger Taxa annähernd konserviert, was darauf hindeutet, dass die zugrunde liegenden Kompromisse zwischen Lebensgeschichte und noch zu entdeckenden Symmetrieprinzipien genügen. Einige mögliche Beispiele werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF02214237 664d323e6b867ec01d17b54ad1abbf53;de;;;1.2.;;;Rolle der fetalen Hypophysen-Nebennieren-Achse und der Plazenta bei der Geburtseinleitung Part Das Konzept, dass der Fötus seine eigene Geburt einleitet, stammt aus dem Jahr 460 v. Erst im 10. Jahrhundert schlug der italienische Anatom Fabricius ab Aquapendente vor, dass der Hauptfaktor bei der Einleitung der Geburt die Muskeltätigkeit der Gebärmutter sei. 1882 betonte Spiegelberg erneut die Rolle des Fötus, als er in einem deutschen Hebammenlehrbuch schrieb: „… der Grund, warum die Wehen zu einem bestimmten Zeitpunkt auftreten, muss nicht in der Gebärmutter und ihren Veränderungen, sondern in der Gebärmutter gesucht werden Fötus. Es ist der;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-1286-4_10 3b9be2527d7df3f7e6db437d928b390f;de;;;1.3.;;;Eine Untersuchung einer experimentellen Lehrplattform basierend auf WEBQUEST – Eine Fallstudie in der Netzwerktechnik Dieses Papier, dem zufolge Network Engineering-Kurse Raum-Zeit-, autonome und kollaborative Lehranforderungen umfassen, die auf die Blended-Learning-Theorie zurückgehen, entwickelt die experimentelle Lehrplattform des Netzwerks auf Basis von WEBQUEST. Diese Plattform zielt darauf ab, die Grenzen traditioneller Lehrmethoden aufzulösen und den Präsenzunterricht effektiv in das Online-Lernen zu integrieren, die Chancen und die Beteiligung der Lernenden zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28744-2_18 8b121ba046fde255dde11c09cb224b9d;de;;;1.2.;;;Interferenzen mit 5-Hydroxytryptamin 5-Hydroxytryptamin (5-HT, Serotonin) kommt sowohl in der Peripherie als auch im ZNS vor, wo es als Neurotransmitter fungiert. In der Peripherie wird 5-HT hauptsächlich in den enterochromaffinen Zellen synthetisiert, von wo es in den Pfortaderkreislauf abgegeben wird, um von Blutplättchen aufgenommen zu werden. Die physiologische Rolle von 5-HT bei der kardiovaskulären Regulation ist noch unklar, aber das Amin hat starke pharmakologische Wirkungen auf das Herz (siehe SAXENA 1986) und die Blutgefäße. Seine vaskulären Wirkungen hängen von mehreren Faktoren ab (Art, Gefäßbett, Dosis usw.), und es kann entweder direkt eine Vasodilatation oder eine Vasokonstriktion hervorrufen, die indirekt über neuronale Mechanismen modifiziert werden kann. Neuere Untersuchungen legen nahe, dass die kardiovaskulären und tatsächlich andere Wirkungen von 5-HT durch mindestens drei Arten von Rezeptoren für 5-HT vermittelt werden. In diesem Kapitel beschäftigen wir uns zunächst mit der Unterteilung, Nomenklatur und Funktion von 5-HT-Rezeptoren und anschließend mit der blutdrucksenkenden Wirkung von Mitteln, die über Störungen des 5-HT-Systems wirken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-74209-5_13 721b2f7e22c4ce1fe639d785375fa0f8;de;;;1.3.;;;Deutschland: Vielfältige GIS-Implementierungen in einer vielfältigen Bildungslandschaft In diesem Kapitel beschreiben wir den Status von Geographischen Informationssystemen (GIS) an den Sekundarschulen in Deutschland. Wir diskutieren den aktuellen Stand von GIS in der Sekundarschul- und Lehrerbildung sowie zwei Anwendungsfälle von GIS. Das Kapitel schließt mit einer Diskussion der Perspektiven der GIS-Implementierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-2120-3_12 f706e8099d34d90e13762b085510f099;de;;;1.2.;;;Logik, Argumentation und verbale Verhaltensweisen Dieser Aufsatz analysiert die traditionellen Konzepte von Logik und Argumentation aus der Perspektive des radikalen Behaviorismus und in Bezug auf Skinners Behandlung des verbalen Verhaltens. Die in dieser Analyse behandelten Themen umfassen den Satz, Prämissen und Schlussfolgerungen, Logik und Regeln sowie deduktives und induktives Denken.;-;-;-;https://link.springer.com/article/10.1007/BF03392475 163a2ddc1e4abcd71902a2c559d7d6b1;de;;;1.2.;;;Analytische Störungstheorie Die Theorie der analytischen Störung ist historisch das erste Thema, das in der Störungstheorie diskutiert wird. Es befasst sich hauptsächlich mit dem Verhalten isolierter Eigenwerte und Eigenvektoren (oder Eigenprojektionen) eines Operators in Abhängigkeit von einem Parameter holomorph.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-66282-9_7 b8b40124712a96671795a712dcbb7568;de;;;1.3.;;;Eine automatische Evolution von Regeln zur Identifizierung der multiplen Intelligenz von Schülern Die vorgeschlagene Arbeit konzentriert sich auf den genetischen Fuzzy-Ansatz, um die Fähigkeiten der Schüler zu identifizieren. Es ist ein integrierter Ansatz von Bildung und Technologie, der die Theorie der Multiplen Intelligenz umsetzt. Ziel ist es, den Entwicklungs- und Wartungsaufwand des Systems zu reduzieren und automatisch starke Regeln zu entwickeln. Das vorgeschlagene Modell ist ein neuartiger evolutionärer Hybridansatz zur Messung und Klassifizierung multipler Intelligenz auf freundliche Weise. Das Papier umfasst die allgemeine Architektur des Modells mit Front-End- und Back-End-Designs, einschließlich Codierungsstrategie, Fitnessfunktion, Crossover-Operator und beispielhaft entwickelten Regeln und Ergebnissen. Es schließt mit dem Umfang und der Anwendung der Arbeit auf andere Bereiche.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17881-8_4 14bd2e5194270765df8bf07a89d374b8;de;;;1.3.;;;Einige Beispiele für multivariate Analyse in der pädagogischen und psychologischen Forschung Dieses Papier stellt die Formeln bereit, die zum Testen der Signifikanz der Unterschiede zwischen Mittelwerten verschiedener multivariater Normalpopulationen durch Hotellings Verallgemeinerung des „Student's“-Quotienten erforderlich sind. Es zeigt auch die von Mahalanobis und Rao vorgeschlagenen Methoden zur Klassifizierung verschiedener multivariater Populationen und Individuen an. Die Methoden werden anhand von Persönlichkeitstestdaten von Schülerinnen und Schülern der Lehramtsstudiengänge Allgemeine Grundschule und Allgemeine Sekundarstufe veranschaulicht.;-;-;-;https://link.springer.com/article/10.1007/BF02288759 c7356cd0a952add97a338ae9c5401732;de;;;1.2.;;;Identifizierung der Matra-Region und überlappender Zeichen für die OCR von gedruckten bengalischen Schriften Einer der wichtigen Gründe für eine schlechte Erkennungsrate in einem optischen Zeichenerkennungssystem (OCR) ist der Fehler bei der Zeichensegmentierung. Bei Bangla-Skripten treten die Fehler aus mehreren Gründen auf, darunter die falsche Erkennung von Matras (Überschriften), Über- und Untersegmentierung. Wir haben ein robustes Verfahren zum Erfassen des Headline-Bereichs vorgeschlagen. Das Vorhandensein überlappender Zeichen (in untersegmentierten Teilen) in gescannten gedruckten Dokumenten ist ein Hauptproblem beim Entwerfen eines effektiven Zeichensegmentierungsverfahrens für OCR-Systeme. In diesem Papier wird ein Vorhersagealgorithmus entwickelt, um überlappende Zeichen effektiv zu identifizieren und dann die Schnittgrenzen für die Segmentierung auszuwählen. Unsere Methode kann erfolgreich verwendet werden, um ein hohes Erkennungsergebnis zu erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18134-4_96 320519d60443ef82e3fd5863dc962e31;de;;;1.2.;;;Feature-Repräsentation und Feature-Matching für heterogene Fehlervorhersage Software Defect Prediction (SDP) ist eines der einflussreichsten Forschungsthemen im Bereich Software Engineering. Die frühzeitige Fehlervorhersage innerhalb des Projekts (WPDP) verwendet projektinterne Daten. Es hat jedoch Einschränkungen bei der Vorhersageeffizienz für neue Projekte und Projekte ohne angemessene Trainingsdaten. Vorhersagestudien wurden an projektübergreifenden Fehlervorhersagemodellen (CPDP) durchgeführt, d. h. Modellen, die mit historischen Daten anderer Projekte trainiert wurden. Heterogene Fehlervorhersage (HDP) ist der Spezialfall von CPDP mit unterschiedlichen Metriksätzen von Quell- und Zielprojekt. Trotz der Effektivität vorhandener HDP-Methoden können sie durch das Problem des Klassenungleichgewichts beeinträchtigt werden, das die Vorhersageleistung verringern kann. Der vorgeschlagene Rahmen zielt darauf ab, die kostensensitive Hauptkomponentenanalyse (PCA) und den Feature-Matching zu nutzen, um ein hochwirksames Vorhersagemodell zu erstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-25213-7_1 8527d54fc4de6f6f4b49934dad4960a2;de;;;1.2.;;;Spannungsfeld im Schienenende während des Abschreckprozesses Es ist offensichtlich, dass sich die Bahn in Richtung Hochgeschwindigkeit und Überlastung entwickelt. So wird die geforderte Schienenqualität immer strenger. Das Abschrecken wird als letzte Methode zur Verbesserung des Schienenverhaltens hervorgehoben. Das Spannungsfeld von U71Mn-Schienenenden während des Abschreckens wurde von der FEM-Software simuliert. Und es wurden verschiedene Faktoren untersucht, die die Verteilung des Spannungsfeldes beeinflussen können. Das Ergebnis zeigt, dass die Schienenendbeanspruchung deutlich reduziert werden kann, wenn Aufheizzeit, Haltezeit und Luftdruck während der Windabkühlung genau gewählt werden. Sie ist für die Wahl relevanter Parameter für die Wärmebehandlung von U71Mn-Schwerschienen von großem Wert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18134-4_75 551e8799b0d6f043a0b5202e4a8fb8fd;de;;;1.2.;;;Vergleich mehrerer Diskriminierungsmethoden. Anwendung zur Diagnose akuter Bauchschmerzen Ein französischer Chirurgenverband (ARC&AURC) hat sich verpflichtet, eine Datenbank (ca. 7000 Patienten) aufzubauen und den von de Dombal verwendeten statistischen Ansatz (Bayes-Theorem und symptombedingte Unabhängigkeit) in Bezug auf die computergestützte Diagnose akuter Bauchschmerzen umzusetzen. Aber das System erhielt nur 64 % der genauen Diagnosen (schlechter als die 67 % der Kliniker). Um die Ergebnisse zu verbessern, wurden ausgefeiltere Methoden (unter Berücksichtigung von Wechselwirkungen zweiter Ordnung bei der Schätzung bedingter Wahrscheinlichkeiten) implementiert. Eine vergleichende Studie von parametrischen Modellen (Lancaster, Bahadur) und nicht-parametrischen Modellen (K-nächste Nachbarn) wurde durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-93308-0_3 73488b0bfe6d0c42e5edf1ae5f88a0a6;de;;;1.3.;;;Erratum: Robustes Training neuronaler Feedforward-Netze mit kombinierten Online-/Batch-Quasi-Newton-Techniken Der auf Seite 74 dieses Bandes beginnende Aufsatz wurde zurückgezogen, da er eine große Textmenge enthält, die direkt aus zwei früheren Publikationen desselben Autors stammt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33266-1_72 f4e24e072efcfdb91e6bdfb2b3728a7b;de;;;1.3.;;;Eine neue Cross-Training-Richtlinie für Mitarbeiter für eine U-förmige Montagelinie Diese Studie befasst sich mit einer U-förmigen Montagelinie, die mit teilweise quer ausgebildeten Arbeitern mit Skill-Chaining besetzt ist. Wenn ein Arbeiter abwesend ist, muss sich die Leistung des Produktionssystems verschlechtern. Quergeschulte Arbeiter können die Leistung durch Austausch verbessern. Das vorliegende Papier schlägt eine neue Ausbildungspolitik namens „Workload-Balanced Chaining Policy“ für die Arbeiter in einem U-förmigen Fließband vor. Ein gemischt-ganzzahliges quadratisches Programmierungsmodell (MIQP) wird verwendet, um diese Richtlinie zu verwirklichen, indem Arbeiter zugeteilt werden, die für bestimmte Stationen kreuzweise geschult werden. Die numerischen Beispiele wurden entwickelt, um die neue Verkettungspolitik mit der traditionellen Verkettungspolitik zu vergleichen. Aus der Analyse der Experimente werden einige betriebswirtschaftliche Erkenntnisse abgeleitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24022-5_84 cf6a1d90a7ff0eee7e89d408ad5b861c;de;;;1.3.;;;Forschung zu Lehrplan-Innovationen basierend auf Web Die Lehrer sollten eine spezielle Ausbildung erhalten und hochqualifizierte Hochschulmitarbeiter haben. Um eine qualitativ hochwertige Lehrkraft zu entwickeln, sollte sich der Lehrplan für die Lehrerausbildung auf die beruflichen Fähigkeiten konzentrieren. Unsere Schule muss die beruflichen Fähigkeiten der Lehrer als Durchbruch bei der Innovation des Lehrplanmodus stärken, indem sie den Praxisunterricht im Lehrplan verbessert, die ethische Kultur und die Ausbildung der Lehrfähigkeiten stärkt, um den Lehrerausbildungsmodus zu erneuern. Erhöhung des Anteils der Lehramtspraktika, herausragende Lehrkräfte „Professionalisierung“, Stärkung der beruflichen Qualifizierung der Lehrkräfte, herausragende Lehr-„Praxis“, Nutzung moderner bildungstechnischer Leistungsmerkmale, herausragender Service „Technik“ für die Qualifizierung, Bereitstellung von ein umfassendes Angebot an technischen Dienstleistungen, hervorragende Schulungs-„Autonomie“ und andere Mittel, um bemerkenswerte Ergebnisse zu erzielen. Die berufliche Identität der Studierenden wurde offensichtlich verbessert, die beruflichen Qualifikationen und die Lehrfähigkeit wurden offensichtlich verbessert. Die Absolventen unserer Schule wurden von Grund- und weiterführenden Schulen herzlich aufgenommen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23357-9_39 19eb28bc2b200dc8843feb67603cd982;de;;;1.3.;;;„Human Touch“ mit „Hightech“ in Einklang bringen? Mit der zunehmenden Verbreitung von Technologie in der Bildung, insbesondere im Hochschulbereich, stehen Pädagogen vor dem Dilemma, „human touch“-Dienste wie akademische und persönliche Beratung mit dem „High-Tech“-Umfeld in Einklang zu bringen. Umfangreiche Forschungen haben gezeigt, dass Beratung und andere Unterstützungsdienste einen entscheidenden Teil des Studienerfolgs ausmachen. Dies gilt insbesondere für die Studentenpopulation mit einem Nebenabschluss in der Sonderverwaltungszone Hongkong (HKSAR), wo die besten 18% der High-School-Absolventen staatlich finanzierte und zahlungskräftige Universitäten besuchen, während der Rest aus einer Vielzahl von Nebenabschlüssen wählt Anbieter mit vielen Plätzen. Dieses Papier berichtet über die Einrichtung eines Online-Beratungs- und Lernunterstützungssystems, das die Interaktion zwischen Lehrern und Schülern in einem Community College mit mehreren Standorten ermöglicht. Das System unterstützt Aktivitäten in den Bereichen a;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22383-9_30 fcc19bf83ace57fb00206ef0dbbaf2ce;de;;;1.3.;;;Studie zum Modell des Doppeltutorensystems in der postgradualen Ausbildung Das Doppeltutorensystem ist ein neuer kultivierter Modus für die Innovation und Praktikabilität von Postgraduierten. Der Zweck dieses Beitrags beginnt mit der Einführung in die Ausbildung von Doktoranden mit dem Schwerpunkt medizinische Grundlagenwissenschaften (BMS), stellt die Vorteile, das Management und die Bewertung des Doppeltutorensystems für medizinische Doktoranden umfassend vor, untersucht die Rolle und Bedeutung des Doppeltutorenmodells in der medizinischen postgradualen Ausbildung und sucht einen neuen Weg zur Verbesserung der Qualität der postgradualen Ausbildung, um den durch die Zunahme der Immatrikulationszahlen entstehenden Bedarf zu decken.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_168 e9c37aea878afff15ead84e2bc0946a4;de;;;1.2.;;;Urban Commons Aus ökologischer Sicht ist eines der bedeutendsten Ereignisse in jüngster Zeit in den Städten die Ausweitung von Ödland. Diese neu geschaffenen Gebiete besetzen hauptsächlich Standorte in den Innenstädten, an denen minderwertige Wohnungen mit hoher Dichte abgerissen wurden und in letzter Zeit mit dem Niedergang der Schwerindustrie auch riesige Fabrikkomplexe abgeflacht wurden. Da die Wohnungen der Industrie dienten, liegen die beiden Grundstückstypen zusammen und belegen tendenziell flaches Gelände neben Eisenbahnen, Kanälen und Hauptstraßen, obwohl es in allen außer den wohlhabendsten Gebieten auch eine allgemeine Streuung von Brachland gibt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-0821-5_6 71fb44d45cb2816104856acd4cf8c941;de;;;1.2.;;;Ein Überblick über die kosmische Strahlenforschung: Zusammensetzung, Beschleunigung und Ausbreitung Es wird ein Überblick über die Kosmische Strahlenforschung und ihre Beziehung zu anderen Bereichen der Hochenergie-Astrophysik gegeben. Ein besonderes Augenmerk wird auf die Zusammenfassung aktueller Ergebnisse zu Zusammensetzung, Beschleunigung und Ausbreitung der kosmischen Strahlung gelegt – Themen, die in anderen Beiträgen dieses Bandes noch ausführlicher behandelt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-4025-3_1 0ae9267e8890c4e75984dc09b4894181;de;;;1.2.;;;Vergleichende Fruchtbarkeits- und Fortpflanzungsstrategien bei siebzehn Arten der Cumacea (Crustacea: Peracarida) Die Fruchtbarkeit von 17 Cumaceen-Arten aus 5 Familien aus den östlichen und westlichen gemäßigten Regionen des Atlantiks und des kanadischen Arktischen und Subarktischen Ozeans wird separat diskutiert und verglichen. Die Arten reichen von 0,78 bis 10,11 mm (durchschnittliche Panzerlänge) mit Fruchtbarkeiten von 15,1 bis 168,9 (durchschnittliche Anzahl der Bruteier).;-;-;-;https://link.springer.com/article/10.1007/BF00396952 cd75c9c1dc329ab691da268f83c6b170;de;;;1.2.;;;Simulation einer schnellen Dugdale-Rissbewegung mit unterschiedlicher Geschwindigkeit Die schnelle instationäre Mode III Rissbewegung wird analysiert. Zur Simulation der Rissbewegung innerhalb des elastisch-plastischen Materials wurde das Streifenfließzonenmodell des Risses übernommen. Die „echten“ Vorder- und Hinterkantentrajektorien wurden nach bestimmten physikalisch begründeten Argumenten durch stückweise lineare Funktionen angenähert. Die tatsächliche Bewegung wird mit Hilfe zweier verschiedener Bewegungsgleichungen unter Verwendung des bekannten CTOD-Konzepts sowie einer neuen Definition der „Antriebskraft“ auf die Bandfließzone ausgewählt. Um die Bewegung der Rissspitze für verschiedene Belastungsverläufe und Materialparameter vorherzusagen, wurde eine numerische Analyse verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-3652-5_26 f86de5314a0980a0170368e89f774210;de;;;1.2.;;;Die Kombination von Betamethason und Ambroxol zur Prophylaxe des neonatalen RDS Das neugeborene Atemnotsyndrom (RDS) ist immer noch eine der Hauptursachen für Morbidität und Mortalität bei Frühgeborenen. Wood und Farrell [1] berichteten vor etwa 15 Jahren, dass in den USA etwa 8000 Neugeborene aufgrund von Atemwegserkrankungen pro Jahr starben. Seitdem hat sich vieles geändert, aber die Inzidenz der Erkrankung schwankt immer noch, je nach Berichten und Studien, zwischen 15 und 60 % bei Neugeborenen vor der 35. Schwangerschaftswoche. In Italien beispielsweise lag die Inzidenz des RDS vor der 37. Woche in den letzten Jahren bei 6,9 % [2]. Da die Krankheit so häufig auftritt und in Anbetracht der hohen Krankenhauskosten eines Neugeborenen mit Atemnot, wurde der Einsatz von Prävention als notwendig erachtet und viele Medikamente wurden zu diesem Zweck vorgeschlagen. Unter ihnen sind Steroide am häufigsten verwendet [3–5], aber in den letzten Jahren haben viele Studien in Europa die Wirksamkeit von Ambroxol gezeigt [6,7]. Auch Schilddrüsenhormone haben sich als wirksam erwiesen, müssen jedoch intraamniotisch verabreicht werden [8]. In einer früheren multizentrischen Doppelblindstudie mit 66 Frühgeburten haben wir keine Unterschiede in der RDS-Inzidenz zwischen der mit Ambroxol (A) behandelten Gruppe und einer anderen Gruppe mit Betamethason (B) gezeigt (8,8 % A vs. 10,5 % B .). ), aber die Analyse der Fruchtwasserparameter ergab einen signifikant höheren Anstieg der US-Verhältnisse und der Fluoreszenzpolarisationswerte in Gruppe A [9].;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-12553-1_13 0dd38e1786b778ed5ae9f7c2d949d896;de;;;1.3.;;;Entropie-Majorisierung, Theorem der thermischen Adiabate und Quantenphasenübergänge Lassen Sie ein allgemeines Quanten-Vielteilchensystem bei niedriger Temperatur adiabatisch die Umgebung des quantenkritischen Punktes des Systems durchqueren. Wir zeigen, dass die Temperatur des Systems sowohl aufgrund des Entropie-Majorisierungssatzes in der Quanteninformationswissenschaft als auch des Entropieerhaltungssatzes bei reversiblen adiabatischen Prozessen signifikant unterdrückt wird. Wir nehmen das eindimensionale Transversalfeld-Ising-Modell und das spinlose Fermion-System als konkrete Beispiele, um zu zeigen, dass die inverse Temperatur um die kritischen Punkte der Systeme herum abweichen könnte. Da die Temperatur in Experimenten eine messbare Größe ist, kann sie über reversible adiabatische Prozesse bei tiefen Temperaturen genutzt werden, um Quantenphasenübergänge aus Sicht der Quanteninformatik und der quantenstatistischen Mechanik nachzuweisen.;-;-;-;https://link.springer.com/article/10.1007/s11467-011-0198-8 dca58cf756fccbc8ce7b02c20f759fb7;de;;;1.3.;;;Republik von südafrika Die Union of South Africa wurde 1910 gegründet und umfasste die ehemaligen selbstverwalteten britischen Kolonien Kap der Guten Hoffnung, Natal, Transvaal und den Oranje-Freistaat.;-;-;-;https://link.springer.com/chapter/10.1057/9780230271104_144 5392c719ffd879aa7852a32713a21e70;de;;;1.2.;;;Eigenschaften und Anwendungen von warmgeformten O.D.S. Legierungen Die Oxid-Dispersions-Verfestigung (ODS) erweitert die maximale Temperaturbeständigkeit von Superlegierungen und kann durch das mechanische Legieren (MA) von pulverförmigem Ausgangsmaterial erreicht werden (1) (2) (3). Ein derartiger Festkörper-Verarbeitungsweg erzeugt eine feine, homogene Dispersion von Yttriumoxid in eine segregierte freie Matrix, wobei das Fehlen jeglicher Schmelzlöslichkeitsbeschränkungen es ermöglicht, die Legierungsbasis auf die Erfüllung anderer Eigenschaftsanforderungen anzupassen. Verdichtete und bearbeitete MA-Legierungen weisen außerdem eine einzigartige Fähigkeit zur sekundären Rekristallisation auf, um grobe Körner zu entwickeln, um die Hochtemperatureigenschaften weiter zu verbessern. Diese Art des Strukturwachstums hängt von der gesamten thermomechanischen Verarbeitungshistorie (MP) über alle Verarbeitungsvorgänge ab, ein Faktor, der bei der Warmumformung einzelner Komponenten ausgenutzt werden kann (4). Hier lassen sich Eigenschaften flexibler und wirtschaftlicher auf spezifische Anforderungen ableiten als Bauteile, die aus Stangen- oder Blechen gefertigt werden. Die Warmumformung wird im Allgemeinen bei „unrekristallisierten“ Rohstoffen angewendet, die in verschiedenen geeigneten Stufen der Verarbeitung des Mühlenprodukts entnommen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-1347-9_31 f2f4cac509ac69d445c2a558ec95961c;de;;;1.2.;;;Diskussion von Nicholas Weir Professor Ripley stellt das Bayessche Paradigma in seiner Anwendung auf die astronomische Bildrekonstruktion klar vor. Das spezielle frühere Modell, das er für die Bildentfaltung vorstellt, scheint ein leistungsstarkes und eine interessante Alternative zu dem populären Maximum Entropie (MaxEnt) Prior zu sein. Am wichtigsten ist jedoch, dass er beschreibt, wie unsere Vorstellung von restaurierten Bildern erweitert werden kann, um Modellräume einzubeziehen, die sich weit von dem traditionellen Pixelraster unterscheiden, das wir mit Dekonvolution verbinden. Wenn die jüngsten Ergebnisse ein Hinweis sind, wird die Forschung mit neuartigen Bildmodellen und ihren Vorläufern bald die bedeutendsten Durchbrüche in der astronomischen Bildrestaurierung seit der erstmaligen Anwendung Bayesscher Methoden auf diesem Gebiet vor fast zwei Jahrzehnten bringen (siehe [Pri72]).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-9290-3_40 d28a931128c04b09c52d1c9fe1c63ff2;de;;;1.2.;;;"Höfische Literatur: „Gestern“ ist heute Jeder Spezialist für höfische Literatur, der im Wartezimmer eine Easy-Listening-Sendung oder im Auto einen Oldies-Radiosender gefesselt war, kann bezeugen, dass uns die Kunst des Troubadours und des Trouvère bis heute erhalten bleibt. Die Jongleure der letzten Jahrzehnte sind den Fußstapfen ihrer mittelalterlichen Vorfahren eng gefolgt, indem sie mit mehr oder weniger Erfolg die Sprache der amourösen Besessenheit und Klage ausnutzen, die seit dem späten 19. Jahrhundert im Mittelpunkt zahlreicher wissenschaftlicher Analysen steht. Dieses Kapitel – „Höfliche Literatur: ‚Gestern‘ ist heute“ – untersucht, ob in Kenny Rogers' Gesänge „Lady, ich bin dein Ritter in glänzender Rüstung und ich liebe dich“ Elvis’ bettelndes „Sei nicht grausam zu einem Herzen“ das ist wahr“, jubeln die Temptations „Wenn es draußen kalt ist, habe ich den Monat Mai“ oder Percy Sledges Erinnerung: „Wenn ein Mann eine Frau liebt, kann er sich auf nichts anderes konzentrieren“, höfische Konventionen ist in Hülle und Fülle zu erkennen. Die „Macht der Liebe“ wird in mehr als einem der letzten Songs dieses Titels gepriesen, und „das Buch der Liebe wird sich öffnen und uns hereinlassen“, wenn wir nur „diese gebrochenen Flügel nehmen und wieder fliegen lernen“. Bette Midler tröstet die Verzweiflung, dass „weit unter dem bitteren Schnee der Samen liegt, der … zur Rose wird“, während Seal in „Kiss from a Rose“ zugibt, „du bleibst meine Macht, mein Vergnügen, mein Schmerz“. Es versteht sich von selbst, dass niemand Liebe und Verlust klagender ausdrückt als Country-Musiker. Angesichts der Vielzahl zeitgenössischer Beispiele lässt sich nicht leugnen, dass die Stimme von „gestern“ heute weiterlebt, wie sich in Paul McCartneys gleichnamiger Ballade widerspiegelt. Auch wir neigen dazu, zu fragen, wie er es in einer anderen seiner Kompositionen tut: „Man könnte meinen, die Leute hätten genug von albernen Liebesliedern, aber … ich sehe, dem ist nicht so. Und was ist daran falsch?""";-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-60729-0_7 08ff56c31bc58512226796164494ea55;de;;;1.2.;;;Handelszyklustheorie der wirtschaftlichen Regulierung stehen nicht in der Hauptentwicklungslinie der positiven Ökonomie. Wir kehren nun zu unserer unterbrochenen Analyse von Erklärungssystemen zurück, die so konstruiert sind, dass sie den Tatsachen der wirtschaftlichen Realität so weit wie möglich Rechnung tragen. Unser Interesse konzentriert sich auf Wachstum und Schwankungen des Outputs und anderer Variablen im Zeitverlauf.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-81541-8_19 c11af6968b1b469b894abaf580082980;de;;;1.3.;;;Auswirkung der Technologieführerschaft der Schulleiter auf die Einstellung der Lehrer zum Einsatz von Bildungstechnologien In der heutigen Technologiewelt ist die Integration von Informations- und Kommunikationstechnologien (IKT) in die Bildung von entscheidender Bedeutung. Ohne echte Bemühungen der Lehrer scheint es jedoch nicht möglich zu sein, Technologie effektiv in die Unterrichtspraxis zu integrieren. Die positive Einstellung von Lehrkräften zu Bildungstechnologien wird als wesentlich für die Integration von Technologie in das Lehren und Lernen angesehen. Die Forschung hat auch gezeigt, dass die Technologieführerschaft der Schulleiter mit der Integration von Bildungstechnologie durch die Lehrer in den Unterricht im Klassenzimmer korreliert werden könnte. Diese Studie zielt darauf ab, die Auswirkungen der technologischen Führungsrolle von Sekundarschuldirektoren auf die Einstellung von Lehrern zu Bildungstechnologien zu untersuchen. Daten zur Technologieführerschaft von Schulleitern wurden mit der 2009 von Sincar entwickelten „Technology Leadership Scale“ erhoben, und Daten zur Einstellung von Lehrern zu Bildungstechnologien wurden mit der von Pala 2006 entwickelten „Attitude Towards Educational Technology Scale“ erhoben hat gezeigt, dass die technologische Führung der Schulleiter wenig Einfluss auf die positive Einstellung der Lehrer zum Einsatz von Bildungstechnologien hatte und keinen signifikanten Einfluss auf ihre negative Einstellung hatte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45770-2_21 a3e08d679d1a3788b324a005ead54685;de;;;1.3.;;;Klinische Anwendung von Dichlorvos (Nuvan®) und Trichlorfon (Neguvon®) bei der Behandlung von Lachslaus, Tierärzte, die ein Drittel der norwegischen Fischfarmen repräsentieren, wurden mittels eines Fragebogens zur klinischen Anwendung von Dichlorvos und Trichlorfon befragt. Insgesamt 45 Tierärzte hatten Erfahrung in der Behandlung von Lachsläusen mit diesen Organophosphaten. 49 Prozent der Tierärzte gaben an, dass die Fischzüchter in ihrer Region beim Entlausen der Fische ausschließlich die empfohlenen Behandlungsgeräte verwendeten, von denen ½ die Behandlungslösung immer mit Sauerstoff versorgte. Eine wiederholte Behandlung wurde von 24% der Tierärzte immer verordnet, während 44% dies gelegentlich taten. Von den 45 Tierärzten waren 7 % häufig und 44 % gelegentlich in den Fischfarmen im Zusammenhang mit der Behandlung anwesend. Die Antworten zeigten, dass die Einhaltung der empfohlenen Behandlungsverfahren unbefriedigend war.;-;-;-;https://link.springer.com/article/10.1186/BF03546992 d096c6d8c801ef561093a664719a28f2;de;;;1.2.;;;Bewertung hydrogeologischer und topografischer Kontrollen der Grundwasser-Arsen-Kontamination in der Middle-Ganga-Ebene in Indien: Auf dem Weg zur Entwicklung nachhaltiger Modelle zur Arsenminderung Wir untersuchten die räumliche Verteilung und Schwere der Grundwasser-Arsen-Kontamination in drei bisher nicht untersuchten Dörfern nahe dem Zusammenfluss der Flüsse Ganges und Sone, innerhalb des Maner-Blocks des Bezirks Patna im Bundesstaat Bihar, Indien. Wir sammelten auch Informationen zu demografischen, sozioökonomischen und gesundheitlichen Problemen der Anwohner, um aufgrund der Exposition gegenüber erhöhten Arsenkonzentrationen gefährdete Bevölkerungsgruppen zu identifizieren. In 157 Trinkwasserquellen wurden Arsenkonzentrationen gemessen und mit Feldtest-Kits getestet. Räumliche Muster der Arsenverteilung wurden mit lokalen physiographischen und hydrogeologischen Parametern verglichen. In allen drei Dörfern wurden Arsenkonzentrationen über den WHO- und BIS-Standards (10 µg/L bzw. 50 µg/L) mit einem Maximum von 300 µg/L festgestellt. Die flachen Grundwasserleiter (≤50 m unter der Erdoberfläche) und ältere Handpumpen wurden mit Arsen kontaminiert. Die tieferen Grundwasserleiter (>50 m) wiesen Arsengehalte im zulässigen Bereich auf. Erhöhte Arsenwerte werden in der Nähe des Ganges beobachtet. Eine moderate (r = 0,240, p = 0,031) positive Korrelation mit der Fließrichtung des Oberflächenwassers deutet jedoch darauf hin, dass Arsen im Untersuchungsgebiet von Süden nach Norden und von Westen nach Osten wandert. Dies deutet darauf hin, dass das Alluvium des Flusses Sone eine potenzielle Quelle für Arsenkontamination in Bihar ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-32008-3_10 a8c5a6764ce5905267c65d97aebbcd46;de;;;1.3.;;;Transformation des Laguerre-Gauss-Strahls durch eine Ringlinse Die Ausbreitungseigenschaft von Laguerre-Gaussian (LG) Strahlen, die durch eine diffraktive Ringlinse (RL) laufen, wurde untersucht, wobei die RL von einem Flüssigkristall-Raumlichtmodulator (LC-SLM) erzeugt wurde. Es wurde festgestellt, dass der LG-Strahl zuerst in der Brennebene in einen scharfen Ring umgewandelt wurde und dann hinter der Brennebene ein Bessel-ähnlicher Strahl gebildet wurde, aber die Strahlgröße wurde mit zunehmender Ausbreitungsentfernung vergrößert. Mit Hilfe einer Linsengruppe wurde der Strahl weiter zu einem Besselstrahl kollimiert. Schließlich wurden die „nicht diffraktiven“ und selbstrekonstruierenden Eigenschaften der erzeugten Bessel-Strahlen experimentell überprüft.;-;-;-;https://link.springer.com/article/10.1007/s12200-016-0606-3 3eb6b1ca3022f549770b9fac1623ce56;de;;;1.2.;;;Räumliche Analyse des Straßenrandes Die räumliche Strukturierung von Pflanzenverteilungen ist seit langem als wichtig für das Verständnis der zugrunde liegenden ökologischen Prozesse anerkannt. Die K-Funktion von Ripley ist eine häufig verwendete Methode zur Untersuchung des räumlichen Musters von kartierten Punktdaten in der Ökologie. Die Anwendung dieser Methode auf Punktmuster in Straßennetzen ist jedoch ungeeignet, da die K-Funktion bei der Berechnung der euklidischen Distanzen eine unendlich homogene Umgebung annimmt. Es wurde eine neue Technik zur Analyse der Verteilung von Punkten in einem Netzwerk entwickelt, die als Netzwerk-K-Funktion (für univariate Analyse) und Netzwerk-Kreuz-K-Funktion (für bivariate Analyse) bezeichnet wird. Um ihre Anwendbarkeit für ökologische Datensätze zu untersuchen, wurde diese Methode auf Punktstandortdaten für Straßenrandpopulationen von drei angewendet;-;-;-;https://link.springer.com/article/10.1023/B%3ALAND.0000036114.32418.d4 ce247fa348b10e50039d8582ad4de016;de;;;1.2.;;;Informationssicherheit basierend auf Fourier Plane Random Phase Coding und Optical Scanning Ein Informationssicherheitsverfahren wird durch die Verwendung eines elektrooptischen Kryptosystems präsentiert. Wir untersuchen die Fourier-Ebenen-Zufallsphasencodierungstechnik, eine zufällige Phasencodierung und holographische Codierung. Das vorgeschlagene Kryptosystem basiert auf dieser kombinierten Codierungstechnik. Die Zielinformationen werden zuerst zufällig phasencodiert und dann mit einem zufälligen Fourier-Ebenen-Phasencode multipliziert und weiter zu einer holographischen Codierung verarbeitet. Das elektrooptische Kryptosystem kann so implementiert werden, dass die erzeugte Ausgabe der verschlüsselten Informationen direkt über eine Antenne an eine sichere Site zur digitalen Speicherung gesendet wird. Darüber hinaus hat das System die Fähigkeit, die verschlüsselten Informationen in Echtzeit zu erzeugen. In einer sicheren Site werden die verschlüsselten Informationen zusammen mit einem Entschlüsselungsschlüssel zur Entschlüsselung verarbeitet. Wenn der Verschlüsselungsschlüssel und der Entschlüsselungsschlüssel übereinstimmen, entschlüsselt die Entschlüsselungseinheit die Informationen. Das vorgeschlagene elektrooptische Kryptosystem ermöglicht es uns, die verschlüsselten Daten zu speichern, zu übertragen und zu entschlüsseln. Wir entwickeln die Techniktheorie und untermauern sie mit Simulationsergebnissen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30497-5_127 d87a36a7037873e2eb72e3020e8383d5;de;;;1.2.;;;Ein netzwerkbasierter Ansatz zu Big Data für die Komorbiditäten der Urtikaria Diese Studie untersucht die Netzwerkeigenschaften der Urtikaria-Komorbidität. Komorbiditäten sind das Vorliegen einer oder mehrerer zusätzlicher Störungen oder Erkrankungen, die gleichzeitig mit einer primären Erkrankung oder Störung auftreten. Das Ziel dieser Studie ist es, Krankheiten zu identifizieren, die gleichzeitig mit Urtikaria auftreten. Forschungsdaten wurden aus 1.154.534 Krankenakten der Ambulanz von Urtikaria von 163.141.270 Krankenakten der Ambulanz von 1997 bis 2010 in Taiwan gesammelt. Durch das phänotypische Krankheitsnetzwerk (PDN) hat diese Studie die mit Urtikaria assoziierten Krankheiten identifiziert. Es wurde entdeckt, dass das PDN eine komplexe Struktur hat, bei der einige Krankheiten stark miteinander verbunden sind, während andere kaum miteinander verbunden sind. Diese Ergebnisse sind zwar nicht schlüssig, können aber erklären, dass die Sterblichkeitsrate umso höher ist, je stärker die Krankheiten miteinander verbunden sind, da Patienten, die hochgradig vernetzte Krankheiten entwickeln, mit größerer Wahrscheinlichkeit in einem fortgeschrittenen Stadium der Krankheit diagnostiziert werden, das auf mehreren Wegen erreicht werden kann im PDN.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-4154-9_58 86832c59c3d4626b12b3594c9f63c42a;de;;;1.2.;;;SIMPT: Prozessverbesserung durch interaktive Simulation zeitbewusster Prozessbäume Process-Mining-Techniken, einschließlich Prozesserkennung, Konformitätsprüfung und Prozessverbesserung, bieten umfassende Kenntnisse über Prozesse. Das Aufdecken von laufenden Prozessen und Abweichungen sowie das Erkennen von Performance-Problemen und Engpässen werden durch Process-Mining-Tools gut unterstützt. Alle bereitgestellten Techniken repräsentieren jedoch den vergangenen/aktuellen Zustand des Prozesses. Die Verbesserung eines Prozesses erfordert Einblicke in die zukünftigen Zustände des Prozesses bzgl. die möglichen Aktionen/Änderungen. In diesem Beitrag stellen wir ein neues Tool vor, das es Prozessverantwortlichen ermöglicht, alle Prozessaspekte automatisch aus ihren historischen Ereignisdaten zu extrahieren, diese Aspekte zu ändern und den Prozess automatisch über eine Schnittstelle erneut auszuführen. Die Kombination von Process-Mining- und Simulationstechniken bietet neue evidenzbasierte Wege zur Untersuchung von „Was-wäre-wenn“-Fragen. Daher ist auch eine Bewertung der Auswirkungen von Änderungen in der Prozessverbesserung möglich. Unsere Python-basierte Webanwendung bietet eine vollständige interaktive Plattform zur Verbesserung des Aktivitätsflusses, d. Diese Parameter werden ohne Benutzerhintergrundwissen direkt aus einem Ereignisprotokoll abgeleitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-75018-3_40 e63d1c81fb237d6cbca46e966b996f48;de;;;1.2.;;;Die Gradverteilung zufälliger planarer Graphen Die Gradverteilung ist ein sehr wichtiges Merkmal eines Netzwerks und wurde in verschiedenen realen Netzwerken (wie dem Internet oder sozialen Netzwerken) und auch aus theoretischer Sicht in mehreren probabilistischen Netzwerkmodellen gut untersucht. In diesem Beitrag geben wir einen Überblick über neuere Ergebnisse zur Gradverteilung von planaren Graphen planarer Graph und Karten, wobei angenommen wird, dass jeder planare Graph mit;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88244-2_13 6e4e23b8421b491d274dc464a55ccda2;de;;;1.2.;;;Auf dem Weg zu einem einheitlichen Framework für Computational Trust und Reputationsmodelle für E-Commerce-Anwendungen Die Bewertung der Qualität von Ressourcen und der Zuverlässigkeit von Entitäten in einem System gehört zu den aktuellen Anforderungen moderner Computersysteme. Diese Einschätzung ist das Ergebnis zweier Konzepte, die unser reales Leben sowie Computersysteme dominieren, nämlich Vertrauen und Reputation. Um sie zu messen, wurde eine Vielzahl von Rechenmodellen entwickelt, um Benutzern bei der Entscheidungsfindung zu helfen und die Interaktionen mit dem System und zwischen Benutzern zu verbessern. Aufgrund der großen Vielfalt an Definitionen für Reputations- und Vertrauensthemen versucht dieser Beitrag, diese Definitionen zu vereinheitlichen, indem eine einzigartige Formalisierung in Bezug auf grafische und textuelle Notationen vorgeschlagen wird. Es führt auch eine tiefgreifende Analyse ein, um das Verhalten und die Intuition hinter jedem Rechenmodell zu verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-75018-3_44 7e653da82271f4e73fe5b68646e8b3b9;de;;;1.2.;;;Erkennen Sie sensible Datenlecks über anwendungsübergreifende Anwendungen auf Android mithilfe von statischer und dynamischer Analyse Mobile Malware (insbesondere Spyware) zielt stark auf das Android-Betriebssystem ab. Daten werden durchgesickert, wenn es sich um einen sensiblen Datenfluss handelt (Datenweitergabe von einer sensiblen Quelle zu einer kritischen Senke). Normalerweise wird ein sensibler Datenfluss durch eine Kette von Aktionen ausgeführt. In den meisten Fällen werden sensible Datenflüsse in derselben Anwendung begonnen und beendet. Es gibt jedoch Fälle, in denen diese Flüsse an mehrere Anwendungen übergeben werden können, indem die Kommunikation zwischen den Anwendungen verwendet wird. Die eigenständige Anwendungsanalyse kann solche Datenflüsse nicht erkennen. Die statische Analyse unterliegt Einschränkungen, wenn Malware-Code verschleiert wird. Außerdem finden bestimmte Aktionen nur statt, wenn Sie Eingaben vom Benutzer erhalten. Dies bedeutet, dass die Informationen zu sensiblen Datenströmen von den Eingabedaten abhängig sind. Was zur Analysezeit bei Verwendung der statischen Analysetechnik nicht verfügbar ist. In dieser Studie schlagen wir ein uitHyDroid-System vor, das es ermöglicht, sensible Datenlecks über mehrere Anwendungen mithilfe von Hybridanalyse zu erkennen. uitHyDroid verwendet statische Analysen, um sensible Datenflüsse in jeder Anwendung zu sammeln. In der Zwischenzeit wird dynamische Analyse verwendet, um die Kommunikation zwischen Anwendungen zu erfassen. In dieser Studie verwenden wir zur Bewertung unseres Ansatzes den erweiterten DroidBench-Datensatz und Anwendungen, die von GooglePlay heruntergeladen wurden. Die experimentellen Ergebnisse zeigen, dass fast alle sensiblen Datenlecks im ersten Datensatz korrekt erkannt werden. Darüber hinaus erkennt das vorgeschlagene System mehrere Malware in realen Anwendungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-4154-9_35 2036156159006485d8116dc74899d7c6;de;;;1.3.;;;Transformative Robotic Education zur Verwirklichung der malaysischen Nationalen Bildungsphilosophie Der rasante technologische Fortschritt hat die Anforderungen an die Ausbildung von Studenten zu Kreativität und Innovation sowie zu hochwertigen Problemlösungsfähigkeiten zur Erfüllung der Nachfrage und zur Verbesserung der Lebensqualität im 21.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40409-2_35 46f316f87a35417eb1a32568e2ac7023;de;;;1.2.;;;Ein kombinierter Zugang zur Dynamik von Theorien Phrasen wie „Formaler Ansatz“ oder auch „Systematischer Ansatz“ gelten heute allgemein als Synonyme für linguistische oder semantische Analysen, die sich auf einen Text innerhalb einer formalen Sprache beziehen. Ich teile zumindest bis zu einem gewissen Grad die Ansicht von J. C. C. McKinsey und P. Suppes, dass diese Haltung „für den Mangel an substantiellen Fortschritten in der Wissenschaftsphilosophie verantwortlich war“.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-9459-1_6 35cff90caa8802f8a7e55fff9efcb60a;de;;;1.2.;;;Transaktionsverarbeitung in teilweise replizierten Datenbanken Single-Master-Verfahren zur Lazy-Update-Verbreitung garantieren eine schwache Konsistenz zum Erhöhen der Leseverfügbarkeit, haben jedoch mehr Chancen für Update-Konflikte. Wir schlagen eine Update-Propagation-Methode vor, die auf dem ausgeglichenen Baum von Replikaten in der teilweise replizierten Datenbank basiert. Das vorgeschlagene Verfahren löst effektiv die Nicht-Serialisierbarkeit, die aus den Konflikten einer Propagierungstransaktion und einer Transaktion aufgrund der Lazy-Propagation resultiert. Um die nicht-serialisierbare Ausführung aufzulösen, verwendet unsere Methode den Zeitstempel und die Informationen der RCTL (der letzten festgeschriebenen Aktualisierungs-Transaktionsliste) in der Statusdatenbank. Wir haben ein Experiment zur Leistungsbewertung unseres Algorithmus durch die Simulation durchgeführt und bewiesen, dass er aufgrund der Reduzierung der Abbruchquote von Transaktionen eine gute Leistung aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30497-5_145 c42849b5097e20eb4460a8b9997b18ac;de;;;1.2.;;;Live-Migrationsleistungsmodellierung für virtuelle Maschinen mit anpassbarem Arbeitsspeicher Die Qualität der Dienste ist den Nutzern von Cloud-Computing-Plattformen ein wichtiges Anliegen. Die Migration von Nonstop-Diensten zwischen Hosts in einer Cloud ist für viele kritische Anwendungen wichtig. Die Live-Migration ist ein nützlicher Mechanismus für virtuelle Maschinen, um Dienstausfallzeiten zu minimieren. Daher sollten die Kosten für iteratives Vorkopieren und Ausfallzeiten einer Echtzeitanwendung so gering wie möglich sein. In diesem Papier wird ein allgemeines Modell für die Live-Migration vorgestellt. Es wird eine wirksame Strategie zur Optimierung der Dienstausfallzeit unter diesem Modell vorgeschlagen. Die Leistung der Live-Migration wird für virtuelle Maschinen mit veränderbarem Arbeitsspeicher bewertet. Unsere Ergebnisse zeigen, dass die Dienstausfallzeit durch die dynamische Anpassung der Speichergröße entsprechend den Arbeitssätzen der laufenden Aufgaben erheblich reduziert werden kann;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10509-3_7 0a13a9c8934448626ab4dde2bf9676d4;de;;;1.2.;;;Die Komplexität der Implementierung der Cluster-Lieferkette – Fallstudie von JCH Als neuartiges Managementmuster kann die Cluster Supply Chain (CSC) KMU dabei unterstützen, sich den globalen Herausforderungen durch vielfältige Kooperationen zu stellen. Eine große Herausforderung bei der Umsetzung von CSC ist jedoch die Kluft zwischen Theorie und Praxis in diesem Bereich. Um ein besseres Verständnis dieses aufkommenden Phänomens zu ermöglichen, stellt dieses Papier den Implementierungsprozess von CSC im Kontext von JingCheng Mechanical & Electrical Holding co., ltd. (JCH) als Fallstudie vor. Die Besetzungsstudie von JCH legt die Hauptprobleme in der Praxis der Cluster-Lieferkette nahe: Wie nutzen kleine Unternehmen die Cluster-Lieferkette? Erst nachdem wir das Problem geklärt haben, zeigt der tatsächliche Aufbau und Betrieb der Cluster Supply Chain erfolgreiche Ergebnisse, wie es sein sollte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18129-0_7 2b77d26b4bb3bbedf8e805000a21e80f;de;;;1.3.;;;Regex Parser II: Grundlagen zu regulären Ausdrücken über Lernspiele lehren Wir präsentieren ein Lernspiel, das den Unterricht verbessern und das Interesse an regulären Ausdrücken wecken soll. Das Spiel generiert reguläre Ausdrücke unter Verwendung von Pseudozufallszahlen und vordefinierten Vorlagen und fordert den Spieler auf, Zeichenfolgen in der Sprache bereitzustellen, die dem gegebenen regulären Ausdruck entspricht, während ein Timer herunterzählt. Punkte im Spiel werden dafür vergeben, wie viele Saiten der Spieler eingeben konnte, bevor die Zeit abläuft (Das Spiel, das die JRE erfordert, ist verfügbar über;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-69670-6_7 35fc10ab1c5ca3ad42e3517a224e2387;de;;;1.3.;;;Circsim-tutor: Ein intelligentes Nachhilfesystem für die Kreislaufphysiologie Ziel dieser Forschung ist die Entwicklung eines Intelligent Tutoring Systems (ITS), das den Studierenden die kausalen Zusammenhänge zwischen den Komponenten des Kreislaufphysiologiesystems und dem komplexen Verhalten des blutdruckstabilisierenden negativen Feedbacksystems vermittelt. Dieses System akzeptiert natürliche Spracheingaben von Schülern und generiert begrenzte natürlichsprachliche Erklärungen. Es enthält Regeln, die die Fehler des Schülers identifizieren und ein „fehlerbasiertes“ Schülermodell aufbauen. Es verwendet Nachhilferegeln, um jede Antwort basierend auf seinem Modell des Schülers und der Dialoghistorie zu planen, damit es den Dialog an die Lernbedürfnisse des Schülers anpassen kann. Der Tutor Regelinterpreter leitet den Dialog und legt Strategien und Taktiken fest, um seine pädagogischen Ziele zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-51142-3_64 45b8aca89cc23c49535ce72031c0da1d;de;;;1.3.;;;Die Ökonomie des gebundenen Dienstes: Der Fall von Sekundarschullehrern in Victoria, Australien In den sechs australischen Bundesstaaten bestand die wichtigste Form der Rekrutierung von Lehrern für staatliche Schulen darin, Lehrern Stipendien oder „Studentenschaften“ zu verleihen, die an eine Lehrerausbildung angetreten wurden. Die Lehramtsstudierenden haben sich im Gegenzug zu einer Lehrzeit „verpflichtet“. Das Ziel dieses Papiers ist es, einige der Kosten und Vorteile des Systems zu messen, das im Bundesstaat Victoria betrieben wurde.;-;-;-;https://link.springer.com/article/10.1007/BF01677205 b44c82acc70979d0120d7766a4788831;de;;;1.2.;;;Eine operative Methode zur schnellen Erkennung abnormaler Kanäle in bildgebenden Spektrometern Daten von anormalen Kanälen in einem bildgebenden Spektrometer haben fast immer einen unerwünschten Einfluss auf den Spektrumsabgleich, die Klassifizierung, die Mustererkennung und andere Anwendungen in der hyperspektralen Fernerkundung. Um dieses Problem zu lösen, sollten Forscher die von diesen Kanälen erfassten Daten loswerden. Das Auswählen von anormalen Kanälen nur so, dass jedes Bandbild in einem Bildgebungsdatensatz visuell untersucht wird, ist eine denkbar schwierige und langweilige Aufgabe. Um die Belastung zu verringern, schlägt dieses Papier ein Verfahren vor, das die räumlichen und spektralen Autokorrelationen ausnutzt, die den bildgebenden Spektrometerdaten innewohnen und verwendet werden kann, um die Erkennung von abnormalen Kanälen in einem bildgebenden Spektrometer zu beschleunigen und weitgehend zu automatisieren. Diese Methode wird einfach und erfolgreich auf einen PHI-Datensatz und einen Hymap-Datensatz angewendet und kann auf fernerfasste Daten von anderen hyperspektralen Sensoren angewendet werden.;-;-;-;https://link.springer.com/article/10.1007/BF02826476 cbc24f0fc594b3aa3214810a2c4177dc;de;;;1.3.;;;Verbindung von Studium mit Forschung und Produktion, Förderung der Talentförderung des Studiengangs Vermessungsingenieurwesen Der Bildungsmodus der Produktions-Studien-Forschungs-Kooperation kann die Schüler nicht nur dazu bringen, theoretisches Wissen zu erlernen und mit der produktiven Praxis die wissenschaftlichen Forschungsprojekte zu kombinieren, was von entscheidender Bedeutung ist, um jeden Aspekt der Qualität der Schüler zu verbessern, Innovationsfähigkeit und Teamgeist zu fördern , bessere Anpassung an die Gesellschaft. Die Förderung hochwertiger Talente mit Innovationsgeist, praktischem Können und Unternehmergeist, die sich an die Bedürfnisse des neuen Jahrhunderts anpassen, ist der Grundsatz dieses Papiers, das Forschung und Praxis einer umfassenden Reform der Talenteausbildung, Lehrinhalte, Lehrmethoden, Lehrmittel fortführt des Vermessungswesens, wird sicherlich die Bildungsreform vorantreiben, um sich in die Tiefe zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23345-6_45 473ff70e04052c9be97b9c2ebd8bbfdf;de;;;1.3.;;;Training der Innovationsfähigkeit für Mechatronik-Studenten basierend auf der TRIZ-Theorie Die TRIZ-Theorie, die auf der Synthese der Theorie und des Prinzips der Multidisziplinarität basiert, gilt als eine gute Methode, um Innovationsfähigkeit zu trainieren, den Entwicklungsprozess zu beschleunigen und innovative Produkte von hoher Qualität zu fertigen. Dieses Papier zielt darauf ab, die Mechatronik-Studenten der China Jiliang University als Forschungsgegenstand zu nehmen, die TRIZ-Theorie in das Anbausystem, den Lehrplan und die innovative Praxis einzuführen und dann das Gesetz und die Methode zur Ausbildung des kreativen Denkens und der Innovationsfähigkeit der Studenten zu zeichnen. Laut einem der Forschungsergebnisse haben 95 % der Studierenden in den ersten und zweiten Studienjahren keine innovativen Aktivitäten besucht. Viele Studierende beteiligen sich jedoch nach der Ausbildung mit TRIZ-Theorie im Juniorjahr aktiv an innovativen Aktivitäten und steigern ihre Innovationsfähigkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23345-6_74 f168dfb9608b4429bb86d319bb7ccdd4;de;;;1.2.;;;Lokale Hamiltonoperatoren und Grundzustände Ground Wir diskutieren Vielteilchensysteme, bei denen der Hamilton-Operator nur Wenigteilchen-Wechselwirkungen beinhaltet. Unter Berücksichtigung der Tensorproduktstruktur des Vielteilchen-Hilbertraums führen wir den Begriff der Lokalität ein. Es ist natürlich mit der räumlichen Geometrie des Systems verbunden, wo die natürlichsten Interaktionen zwischen den Freiheitsgraden die „lokalen“ sind, zum Beispiel die Nächsten-Nachbar-Wechselwirkungen. Wir diskutieren den Einfluss der Lokalität auf die Grundzustandseigenschaften. Anschließend diskutieren wir Möglichkeiten zur Bestimmung der Grundzustandsenergie lokaler Hamiltonoperatoren und ihrer Härte. In der Quanteninformationswissenschaft wurden Theorien entwickelt, um zu zeigen, dass es selbst bei Existenz eines Quantencomputers keinen effizienten Weg gibt, die Grundzustandsenergie für einen lokalen Hamilton-Operator im Allgemeinen zu bestimmen. Für praktische Fälle können jedoch spezielle Strukturen zu einer einfacheren Methode führen, wie beispielsweise die Mean-Field-Theorie von Hartree. Wir diskutieren auch eine spezielle Art lokaler Hamilton-Operatoren, die frustrationsfreien Hamilton-Operatoren, bei denen der Grundzustand auch Grundzustände aller lokalen Wechselwirkungsterme ist. Es ist jedoch im Allgemeinen schwierig zu bestimmen, ob ein Hamilton-Operator frustrationsfrei ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4939-9084-9_4 b67b65398bff0a84876444c288e9aca2;de;;;1.2.;;;Optimierung des Wasserverteilungssystems mit einem genetisch simulierten Annealing-Algorithmus Die Optimierung des Wasserversorgungssystems nutzt die neuesten Fortschritte im hybriden genetischen Algorithmus, um automatisch den kostengünstigsten Pumpenbetrieb für jede Pumpstation in einem großen Wasserverteilungssystem zu bestimmen und gleichzeitig vereinfachte hydraulische Leistungsanforderungen zu erfüllen. Die Kalibrierungsergebnisse des Originalmodells waren ziemlich gut. Die Vergleichsergebnisse zeigen, dass der Unterschied zwischen der vereinfachten und der ursprünglichen Simulation von Knotendruck und Rohrströmung weniger als 5 % betrug. Die Genauigkeit des vereinfachten Modells könnte die Forderung nach Optimierung des Pumpenbetriebs erfüllen. Wenn das vereinfachte Modell anstelle des mikroskopischen Modells verwendet wurde, wurde die Berechnungszeit des optimalen Kontrollmodells erheblich gespart, aber die Genauigkeit war im Wesentlichen gleich. Die Ergebnisse des optimalen Regelungsmodells für das Wasserverteilungssystem in City S zeigten, dass das vereinfachte Modell für die optimale Regelung bemerkenswerte Vorteile hatte, da die Berechnungszeit des optimalen Regelungsmodells erheblich eingespart wurde, die Genauigkeit jedoch im Wesentlichen gleich war.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18134-4_104 23b7cb6716eb67a24f2c735a1799a9e9;de;;;1.2.;;;Ein statistischer Vergleich mit ozeanischen Wirbeln unter Verwendung mehrerer Beobachtungsdaten in der Region Kuroshio Extension Aus verschiedenen Datenquellen abgeleitete Wirbeleigenschaften werden verglichen: Meeresoberflächentemperatur (SST), Meeresoberflächen-Höhenanomalie (SSHA) und Trajektorien von Oberflächendriftern. Der Vergleich legt nahe, dass die statistischen Eigenschaften der Wirbel unter Verwendung verschiedener Variablen zur Abgrenzung von Wirbeln unterschiedlich sind, aber sie zeigen einen ähnlichen Trend. Basierend auf dem Vergleich werden in der Kuroshio-Erweiterungsregion abnormale Wirbel mit warmen (kalten) Kernen, aber einer Drehung gegen den Uhrzeigersinn (im Uhrzeigersinn) gefunden.;-;-;-;https://link.springer.com/article/10.1007/s13131-016-0882-1 97b2235bfed046331c0dda64b0045b19;de;;;1.3.;;;E-Bildung – Einsatz der einfachsten Technologien zur Stärkung lokaler Gemeinschaften für die Entwicklung in Malawi Die Stärkung der Gemeinschaft durch den Transfer von Wissen und Fähigkeiten hat das Potenzial, die Fähigkeit der Menschen in Gemeinschaften aufzubauen, ihr Leben zu verbessern, indem sie sich an Aktivitäten beteiligen, die ihr Leben verbessern. Dieses Papier zeigt, dass der Einsatz von zwei sehr einfachen technologischen Innovationen: vorab aufgezeichnete Videoschulungen und ein automatisierter mobiler Hotline-Service in Verbindung mit der Einrichtung von Community-Lernzentren sicherstellen können, dass Menschen überall, jederzeit und in ihrem eigenen Tempo lernen ihre Muttersprache über die am leichtesten zugänglichen Geräte und mit geringen oder keinen Kosten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08368-1_32 7e4de3615ebab8e2c2a2faa6c3fbec6f;de;;;1.2.;;;Einfluss der natürlichen Niederschlagsvariabilität auf die Bewertung der künstlichen Niederschlagsverstärkung Die Bewertung von Wolkensaateffekten ist eines der kritischsten Probleme bei Experimenten zur künstlichen Niederschlagsverstärkung. Die Bewertung ist jedoch nicht einfach, da es eine natürliche Niederschlagsvariabilität gibt, die die Atmosphäre raumzeitlichen Instabilitäten aussetzt. Ziel dieser Studie ist es, die natürliche Niederschlagsvariabilität mit Hilfe der modernen statistischen Simulationsmethode „Bootstrap“ zu analysieren, ihren Einfluss auf die Bewertung von Saataktivitäten zu analysieren und geeignete Maßnahmen zur Einflussnahme zu ergreifen. Die Studie basiert auf den luftgestützten Saatmakroaufzeichnungen von 1997–2007 und den täglichen Niederschlagsdaten in der Provinz Jilin. Der Einfluss der natürlichen Niederschlagsvariabilität kann durch drei Ansätze reduziert werden: die Erhöhung der vermeintlichen „geimpften“ Stichprobengröße;-;-;-;https://link.springer.com/article/10.1007/s11430-015-5055-0 e6a8f4826f191ae8014f94c136adf809;de;;;1.2.;;;Zu den affinen Chiffren in der Kryptographie Vor der Buchstabenhäufigkeitsanalyse und der Bildung der schwarzen Kammern waren die grundlegenden monoalphabetischen Substitutionsziffern praktisch unzerbrechlich und ausreichend für den allgemeinen Gebrauch. Aber als die Verschlüsselung weiter verbreitet wurde, wurde die Notwendigkeit, diese Kryptosysteme zu knacken, unvermeidlich. Mit der Entwicklung der Buchstabenhäufigkeitsanalyse und der Weiterentwicklung der Schwarzen Kammern wurde jede Nachricht, die mit einer Art monoalphabetischer Substitution verschlüsselt war, leicht gebrochen. Sobald eine häufig verwendete monoalphabetische Substitutionschiffre gebrochen war, verbreitete sich das Wort und dieses spezielle Kryptosystem war nutzlos. Die affine Chiffre ist einfach ein Sonderfall der allgemeineren monoalphabetischen Substitutions-Chiffre. In diesem Papier untersuchen wir die affine Chiffre und die generalisierte affine Chiffre.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25327-0_17 51e881ff73c68048e3c5bead2627e8e0;de;;;1.2.;;;Robustheit von Spin-Chain-Zustandsübertragungsschemata Spinketten sind lineare Anordnungen von Qubits (Spin-1/2-Objekte) mit Wechselwirkungen zwischen nächsten oder weiter entfernten Nachbarn. Sie wurden für die Quanteninformationsübertragung zwischen Untereinheiten einer Quanteninformationsverarbeitungsvorrichtung bei kurzen oder mittleren Entfernungen in Betracht gezogen. Die am häufigsten untersuchte Aufgabe ist die Übertragung eines Einzel-Qubit-Zustands. Um dieses Ziel zu erreichen, wurden mehrere Protokolle entwickelt, die sich grob in zwei Klassen unterteilen lassen, vollständig konstruierte und grenzkontrollierte Spinketten. Wir diskutieren den durch die natürliche Dynamik dieser beiden Systemklassen induzierten Zustandstransfer und den Einfluss von Abweichungen von der idealen Systemkonfiguration, d. Die Genauigkeit der Zustandsübertragung hängt von der Kettenlänge und der Stärke der Unordnung ab. Wir beobachten eine Potenzgesetz-Skalierung des Treuedefizits, also der Abweichung vom perfekten Transfer. Grenzkontrollierte Ketten können unter geeigneten Umständen eine ausgezeichnete Wiedergabetreue bieten und sind potenziell weniger schwierig herzustellen und zu kontrollieren als vollständig konstruierte Ketten. Wir überprüfen auch andere existierende theoretische Arbeiten zur Robustheit des Quantenzustandstransfers sowie Vorschläge für eine experimentelle Implementierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39937-4_5 ec49da9001ae9082a5ccf5c86a3d7f89;de;;;1.3.;;;Verwenden von Computerspielen zum Teilen von Wissen Wissen teilen ist die Schlüsseldimension einer lernenden Organisation. Organisationen, die ihre Wettbewerbsfähigkeit aufrechterhalten wollen, müssen die Menschen ermutigen, voneinander zu lernen oder mit anderen Worten, Wissen untereinander auszutauschen. Vielfältige Mechanismen zum Teilen und Transferieren von Wissen zwischen Wissensarbeitern werden heutzutage verwendet. Diese Mechanismen des Wissensaustauschs hängen relativ von der Art und Art des zu übertragenden Wissens ab. Die meisten Organisationen nutzen Mentoring, persönliche Treffen, funktionsübergreifende und elektronische Mittel, um Wissen auszutauschen. Gelehrte behaupteten, dass Simulationsspiele das menschliche Lernen fördern können, da die Spieler während des Spiels Bedeutungen entwickeln können. Dieses Papier schlägt vor, Simulationsspiele als Alternative zum Austausch von Wissen zu verwenden. Ein Simulationsspiel namens FireHazard wird entwickelt und an ausgewählten Teilnehmern getestet. In diesem Papier wurde auch auf die Entwicklung und das Ergebnis der Studie eingegangen.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-9151-2_6 f56776930c04ab4176e4fcc20c7a5491;de;;;1.3.;;;Pädagogische Entwicklung in der Lokalanästhesie-Ausbildung in der Kinderzahnheilkunde mit Virtual-Reality-Simulator Mit den technologischen Fortschritten hat sich auch die Zahnpädagogik weiterentwickelt und neue Lerntechnologien sind entstanden. Virtual Reality (VR) wird als Ausbildungsinstrument in der Zahnmedizin zu wenig genutzt. VR als Ergänzung zum Unterricht in Lokalanästhesie (LA) in der Kinderzahnheilkunde wurde nicht untersucht. Die Studie zielte darauf ab, die Wahrnehmung der dentalen LA VR-Simulation durch Zahnmedizinstudenten bei einem pädiatrischen Patienten zu untersuchen und festzustellen, ob dies die Lernerfahrung der Studenten verbessern kann.;-;-;-;https://link.springer.com/article/10.1007/s40368-021-00604-7 aa27da1710cdf26c77fea8c705adffa8;de;;;1.3.;;;Bewertung von adaptivem Feedback in einem pädagogischen Computerspiel In diesem Beitrag stellen wir eine Studie vor, um den Einfluss von adaptivem Feedback auf die Wirksamkeit eines pädagogischen Mittels für ein pädagogisches Computerspiel zu bewerten. Wir vergleichen eine Version des Spiels ohne Agenten und zwei Versionen mit Agenten, die sich nur in der Genauigkeit des Schülermodells unterscheiden, das verwendet wird, um die Interventionen des Agenten zu leiten. Wir fanden keinen Unterschied beim Lernen der Schüler unter den drei Bedingungen und berichten über eine Analyse, um die Gründe für diese Ergebnisse zu verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04380-2_18 4132b25386a61b89fd16930ba0ce4665;de;;;1.3.;;;Studie zur chinesisch-ausländischen Zusammenarbeit in der Golfausbildung Durch die Analyse der chinesisch-ausländischen Kooperation im Bereich Golfmanagement, kombiniert mit bestehenden Problemen in der Golfausbildung in unserem Land, wurde in dieser Arbeit ein Entscheidungsmodell entwickelt, das für den chinesisch-ausländischen kooperativen Schullauf an höheren Berufsschulen geeignet ist und Referenzvorschläge für Förderung eines realistischen, durchdringenden, funktionsfähigen chinesisch-ausländischen kooperativen Schulbetriebsmechanismus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03449-2_45 8e55bea8dc22bd6d5c9030baf656ed5f;de;;;1.3.;;;Projektionslernbasierter Kernel-Maschinenentwurf unter Verwendung einer Reihe von monoton ansteigenden reproduzierenden Kernel-Hilberträumen Kernel-Maschinen sind weithin als leistungsstarke Werkzeuge für verschiedene Bereiche der Informationswissenschaft bekannt. Im Allgemeinen werden sie basierend auf einem Generalisierungskriterium in Bezug auf die Komplexität des Modells und einer intuitiven, aber ad-hoc-Philosophie entworfen, wie zum Beispiel das in SVM gezeigte Prinzip der maximalen Marge. Andererseits wurde das Projektionslernverfahren auf dem Gebiet der neuronalen Netze vorgeschlagen. Beim Projektionslernen wird die Verallgemeinerungsfähigkeit durch den Abstand zwischen der unbekannten Zielfunktion und der geschätzten bewertet. In diesem Artikel konstruieren wir auf Projektionslernen basierende Kernel-Maschinen und schlagen eine Methode vor, um eine Kernel-Funktion zu erstellen, die für die Aufgabe die notwendige Repräsentierbarkeit besitzt. Das Verfahren wird auf eine Auswahl eines geeigneten reproduzierenden Kern-Hilbert-Raums aus einer Reihe von monoton ansteigenden Unterräumen reduziert. Wir überprüfen auch die Wirksamkeit der vorgeschlagenen Methode anhand von numerischen Beispielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30132-5_143 fa5b1ef4fbbda4b9fcb81043eea630d2;de;;;1.3.;;;Beherrschen der Programmierfähigkeiten mit dem Einsatz von adaptiven Lernspielen Adaptive Lernspielstudien verzeichneten aufgrund ihrer Lernvorteile und ihrer Beliebtheit bei jüngeren Generationen ein schnelles Wachstum. Die Computerprogrammierung wird von Lernenden und Lehrenden aufgrund der geringen Motivation für das Studium als ein herausforderndes Fach angesehen. Es ist wichtig zu wissen, wie adaptive Lernspiele dazu beitragen können, die Motivation und die Lernwahrnehmung unserer Schüler in Bezug auf Programmierfähigkeiten zu verbessern. In diesem Papier wird das Konzept der Verwendung von Lernspielen als Lernmedium diskutiert, indem die folgenden Techniken angewendet werden: Motivation, Intervention, Zusammenarbeit usw. mit einem agentenbasierten Ansatz, um die Fähigkeiten der Schüler in den Konzepten des Programmierens zu stärken und zu verbessern. Wir präsentieren eine Plattform, auf der Lehrinhalte und -methoden auf einzelne Schüler zugeschnitten sind, um das Erlernen und Beherrschen von Programmierkonzepten zu leiten/zu erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11854-3_14 6b0a6a38bfb9a7123d159f5f38c9d762;de;;;1.3.;;;Erste Schritte – Eine Tour durch SL2000 In den folgenden Kapiteln wird davon ausgegangen, dass die SL2000-Software auf einer Apollo-Workstation mit dem Betriebssystem Aegis verwendet wird. Bei Verwendung eines anderen Systems werden andere Befehle benötigt, maschinenabhängige Befehle werden generell mit einem „↑“-Zeichen gekennzeichnet. Es sollte auch beachtet werden, dass alle Befehle mit a . abgeschlossen werden müssen;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-09748-7_2 0bcbb5e2e8fcd9fab491ed51edb7c57e;de;;;1.2.;;;Simulation des Erdbebenverhaltens von Stahlbeton-Gebäuderahmen durch Computer-Aktor-Online-System Vor kurzem wurde als neues Verfahren zur Simulation der nichtlinearen Reaktion von Bauwerken auf Bodenbewegungen bei Erdbeben ein Hybridsystem aus digitalem Computer und statischem Belastungssystem entwickelt. Wir nennen dieses System das Computer-Aktuator-Online-System (Takanashi, K. et al. 1975) oder das Pseudo-Dynamische Testsystem (Nakada, S. et al. 1981). Das Ziel dieser Arbeit ist es, die Methodik des Computer-Aktor-Online-Systems und die Ergebnisse des Erdbebenreaktionstests an einem einfeldrigen zweistöckigen Gebäuderahmen aus Stahlbeton durch das System zu beschreiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-11353-0_26 0d109aed781d9f7afd78eb9c53043786;de;;;1.2.;;;Theoretische Aspekte der Leichtbaurobotersteuerung Heutige Industrierobotersteuerungen verwenden nur Sensoren (hauptsächlich Encoder und Tachometer), die mit den Aktoren verbunden sind. Um den Roboter-Endeffektor zu positionieren, werden die gewünschte Endeffektorposition und -orientierung durch inverse kinematische Berechnungen in Gelenkwinkel umgewandelt. Die Gelenke werden dann auf diese Winkel angesteuert, wobei jedes Gelenk einen Proportional-, Integral- und Ableitungsregler (PID) verwendet, der auf einem Codierer- und Drehzahlmesser-Feedback basiert. Es wird angenommen, dass der Roboter steif genug ist, damit sich der Endeffektor in der beabsichtigten Position und Ausrichtung befindet. Die beiden Haupteinschränkungen von nebeneinander angeordneten Controllern sind: 1) Die Roboterverbindungen und -gelenke müssen sehr steif und daher sehr schwer sein, um ein gewisses Maß an Präzision zu erreichen. Dies begrenzt den Roboter auf langsame Geschwindigkeiten und/oder erfordert eine hohe Antriebsleistung. 2) Die inhärente Flexibilität der Struktur (Verbindungs- und/oder Gelenkflexibilität) macht es unmöglich, wirklich hohe Präzision zu erreichen. Darüber hinaus erfüllen diese Roboterstrukturen und -steuerungen aufgrund der ständig steigenden Anforderungen in Bezug auf Geschwindigkeit, Beschleunigung und Endgenauigkeit nicht mehr. Neue Steuerungsstrategien sind erforderlich und das Gewicht und die Trägheit der beweglichen Teile müssen verringert werden. Diese Abnahme führt zu niedrigeren strukturellen Resonanzfrequenzen und größeren Verbindungs- und Gelenkverformungen und drängt daher auf die Notwendigkeit neuer Steuerungsalgorithmen. Sie verhindern oder dämpfen unerwünschte Schwingungen, die durch Anregung der Strukturdynamik entstehen. Aber auch für Industrieroboter der heutigen Generation besteht Bedarf an solchen Regelalgorithmen. Tests an Industrierobotern haben gezeigt, dass herkömmliche Robotersteuerungen die strukturellen Resonanzfrequenzen anregen und Ungenauigkeiten aufgrund statischer und dynamischer Verformungen erheblich sein können [1, 2, 3].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-77899-5_2 910fd0cf0aadc69dcfa80486cdec4703;de;;;1.2.;;;Optimierung der Nutzung geothermischer Lagerstätten im Pannonischen Becken, Rumänien Im östlichen Teil des Pannonischen Beckens in Rumänien treten Wärmegradienten von 40–55 °C/km auf, die etwas höher sind als der kontinentale Durchschnitt. Etwa 15 geothermische Tieftemperatur-Bohrfelder (50–85 °C) (Abbildung 16.1) nutzen Grundwasserleiter in den detritischen Formationen des Pliozäns in Tiefen zwischen 900 und 2000 m (Plaviţă und Cohut, 1990, 1992).;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-5846-6_16 461847a99c2ce5c25dddb5b23ca2fb8b;de;;;1.2.;;;Finite-Elemente-Studien zur Ausbreitung transienter Wellen Das National Bureau of Standards (NBS) hat an der Entwicklung eines zerstörungsfreien Prüfverfahrens für heterogene Feststoffe mit transienten Spannungswellen gearbeitet [1-5]. Das Verfahren wird als Stoß-Echo-Verfahren bezeichnet. Die Technik beinhaltet das Einführen eines transienten Spannungsimpulses in ein Testobjekt durch mechanischen Stoß an einem Punkt und das Messen der Oberflächenverschiebung, die durch das Eintreffen von Reflexionen des Impulses von internen Defekten und externen Begrenzungen verursacht wird. Eine erfolgreiche Signalinterpretation erfordert ein Verständnis der Natur der Ausbreitung von transienten Spannungswellen in Festkörpern, die Defekte enthalten. Ein Hauptaugenmerk des NBS-Programms liegt auf der Verwendung der Finite-Elemente-Methode, um dieses Verständnis zu erlangen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-1893-4_14 9ae38590fb2d6926c680ef5617279fdd;de;;;1.2.;;;Die französisch-ägyptische Kampagne und ihre Auswirkungen auf die Augenheilkunde Fast alle Soldaten der am Ägyptenfeldzug beteiligten Armeen fielen der späteren Ophthalmia militaris zum Opfer, die heute durch Haemophilus aegyptius, N. gonorrhoea und möglicherweise teilweise durch Chlamydia trachomatis, wahrscheinlich aber durch die Adenoviren verursacht wurde. Aufgrund der enormen Häufigkeit von Augeninfektionen und der Kontroverse, die durch Spekulationen über die Art der Krankheit ausgelöst wurde – englische Chirurgen hielten diese Ophthalmie für ansteckend, während die französischen Chirurgen dieser Ansicht energisch entgegentraten – das Interesse an Augenkrankheiten gestiegen, was schließlich zur Akzeptanz der Augenheilkunde als eigenständiger Zweig der Medizin führte.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-1307-3_15 7346dd3227050293992ac6fa4704c82e;de;;;1.2.;;;Minimierung von DDs Die Größe der DDs hängt von der gewählten Variablenordnung und auch vom Zerlegungstyp ab. In diesem Kapitel werden Algorithmen zur Minimierung von DDs vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-3184-2_6 bf86422183aa7be4447dc19fb3881d90;de;;;1.2.;;;Erworbene Erkrankungen der Pulmonal- und Trikuspidalklappen Die Ätiologie und Pathologie der Trikuspidalinsuffizienz kann in primäre und sekundäre Ursachen unterteilt werden {1}. Die primäre oder „organische“ Trikuspidalinsuffizienz ist auf Anomalien der Trikuspidalklappensegel, der Chordea tendinea, der Papillarmuskeln oder des angrenzenden Myokards zurückzuführen {1, 2}. Häufiger tritt Trikuspidalinsuffizienz auf, wenn anatomisch normale Klappen aufgrund hoher Druck- oder Volumenbelastungen abnormal funktionieren. Dies wird als sekundäre oder funktionelle Trikuspidalinsuffizienz bezeichnet.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-1773-9_12 757af2933afbaa305a0568ccd1a35af7;de;;;1.2.;;;Topisches Minoxidil versus topisches Diltiazem für die chemische Sphinkterotomie der chronischen Analfissur: eine prospektive, randomisierte, doppelblinde, klinische Studie Analfissur ist ein häufiges anorektales Problem, das den Patienten starke Schmerzen und Beschwerden verursacht. Die chemische Sphinkterotomie hat sich als nichtinvasive Alternative zu den chirurgischen Methoden der Fissurenbehandlung herausgestellt. Das Ziel dieser Studie war die Bewertung der Wirksamkeit und der Nebenwirkungen von topisch appliziertem Minoxidil bei der chemischen Sphinkterotomie der chronischen Analfissur im Vergleich zu topischem Diltiazem.;-;-;-;https://link.springer.com/article/10.1007/s00268-017-4449-x 41f13b61e0ec4bafbbf914a2379c87e7;de;;;1.2.;;;Fe-Substitution für Al in Glaukonit mit zunehmender Diagenese im ersten Wilcox-Sandstein (unteres Eozän), Livingston Parish, Louisiana Glaukonite in frühen Ankerit-Konkretionen, Ferroan-Calcit-Zement-Sandsteine ​​und unzementierte Sandsteine ​​im ersten Wilcox-Sandstein des Lockhart Crossing-Feldes, Livingston Parish, Louisiana, zeigen eine fortschreitende Substitution von Fe durch oktaedrisches Al mit zunehmender Diagenese. Aus Glaukonit in frühen ankeritischen Konkretionen wurde ein oktaedrischer Fe-Gehalt von 0.50 Atomen berechnet. Oktaedrisches Fe wies im Durchschnitt 0,60 bzw. 0,90 Atome in späteren Ferroan-Calcit-zementiertem Sandstein bzw. unzementiertem Sandstein auf. Entsprechende oktaedrische Al-Mittelwerte waren 1,16, 1,03 bzw. 0,67. Es wurde auch ein systematischer Anstieg des durchschnittlichen K-Werts der Zwischenschicht von 0,49 auf 0,54 auf 0,61 beobachtet, mit einer offensichtlichen Zunahme der Diagenese. Alle Elementbestimmungen wurden mit einer Elektronenmikrosonde durchgeführt und auf anionenäquivalenter Basis in Strukturformeln basierend auf dem O;-;-;-;https://link.springer.com/article/10.1346/CCMN.1990.0380110 d6254ab9e817b67be46913757e93d6ae;de;;;1.3.;;;Koeffizient Statistischer modifizierter SPIHT-Bildkomprimierungsalgorithmus Unter allen auf Wavelet-Transformation und Zero-Tree-Quantisierung basierenden Bildcodieralgorithmen ist die Satzaufteilung in hierarchische Bäume (SPIHT) für ihre Einfachheit und Effizienz bekannt. Aber theoretische Analysen und experimentelle Ergebnisse haben gezeigt, dass einige wichtige Punkte noch verbessert werden müssen. Dieses Papier schlägt einen auf Koeffizientenstatistik basierenden modifizierten SPIHT Lossless Image Compression Algorithm (MSPIHT-ICA) vor. Durch Hinzufügen einer neuen Beurteilung zu Typ-A-Sätzen hat MSPIHT-ICA den ausgegebenen Bitstrom des Komprimierungsalgorithmus effektiv optimiert. Die Versuchsergebnisse zeigen ferner, dass MSPIHT-ICA im Vergleich zum SPIHT-Algorithmus mit den gleichen Bitraten ein höheres Spitzensignal-Rausch-Verhältnis (PSNR) erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30223-7_94 f7a9744f5630f584df09b8b78bdbbdf6;de;;;1.2.;;;Beispiele und Anwendungen Wir wenden die Modelltheorie-Maßtheorie-Technik von Kapitel 18 auf konkrete feldarithmetische Probleme an. Die Übertragungsprinzipien zwischen Eigenschaften endlicher Körper und Eigenschaften der Körper;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-07216-5_19 c6d89d43ea5161ab22b3751a15837cfa;de;;;1.2.;;;Spektrale Eigenschaften angeregter Zustände in eingeschränkten Geometrien Es ist bekannt, dass Dynamiken angeregter Zustände in eingeschränkten Geometrien nichtexponentielle Zerfälle aufweisen. In diesem Artikel besprechen wir verschiedene Ansätze zur Analyse nichtexponentieller Zerfallsfunktionen, wobei der Schwerpunkt auf der gestreckten exponentiellen Form liegt. Wir konzentrieren uns auf einige lösbare Modelle, für die das gestreckte Exponentialgesetz auf natürliche Weise folgt. Obwohl jedes Modell einen anderen Mechanismus beschreibt, wird gezeigt, dass sie den gleichen Grund für das gestreckte exponentielle Muster haben: die Existenz von skaleninvarianten Relaxationszeiten. Wir bringen Beispiele für Anwendungen in einigen realen Systemen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-3044-2_15 1577fa75cec4042bcaa45e83132db325;de;;;1.2.;;;Die vielversprechende Rolle des Lungenultraschalls bei systemischer Sklerose Ultraschall (US) spielt eine aufstrebende und relevante Rolle bei der Beurteilung der systemischen Sklerose (SSc), auch wenn viele Bereiche und Anwendungen noch nicht ausreichend erforscht sind. In diesem Review werden wir über eine Aktualisierung der verfügbaren Daten zum Einsatz von US bei Lungenbeteiligung berichten, die bei SSc-Patienten zu Behinderungen und Mortalität führen könnte. Lungen-US verwendet keine ionisierende Strahlung und ist schneller und kostengünstiger als die herkömmliche hochauflösende Tomographie (HRCT). Darüber hinaus haben jüngste erste Studien gezeigt, dass US-Scores mit HRCT- und funktionellen Atemtestergebnissen bei interstitiellen Lungenerkrankungen SSc korrelieren. Die Forschungsagenda für die Zukunft sollte eine eingehendere Untersuchung ihrer Spezifität (Vergleich mit gesunden Probanden und anderen Krankheiten) und ihrer Empfindlichkeit gegenüber Veränderungen bei der Nachuntersuchung umfassen, um ihre Anwendung in der täglichen Praxis und in klinischen Studien angemessen zu verbreiten.;-;-;-;https://link.springer.com/article/10.1007/s10067-012-2030-4 0be79f932da1f089416ea0fcbf19c3fc;de;;;1.3.;;;Lehrmethoden des Mixed-Signal-IC-Design-Kurses in einem Bachelor-Curriculum In diesem Artikel werden Lehr- und Experimentierpraktiken des Mixed-Signal IC Design-Kurses in einem Bachelor-Curriculum der Ningbo University vorgestellt. Die Lehrmethoden des Mixed-Signal-IC-Design-Kurses werden durchgeführt, um die starke Nachfrage nach Designern und Elektronikingenieuren von ASIC-Chips von Heimelektronikprodukten zu befriedigen. Die Lehrinhalte, Lehrmethoden und experimentellen Lehrmethoden des Mixed-Signal-IC-Design-Kurses werden durch Bezugnahme auf fortgeschrittene Lehrkonzepte untersucht. Die Ergebnisse haben einen gewissen Wert für die Lehre des Mixed-Signal-IC-Design-Kurses an anderen ähnlichen Hochschulen und Universitäten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24775-0_7 686ebf8d132507a2dac50ceb6ac284cc;de;;;1.3.;;;Data Fusion Network für die Instanzsegmentierung Wir schlagen eine Mask-Ensemble-Methode vor, beispielsweise zur Segmentierung von Zellkernen. Uns motiviert vor allem das Bedürfnis der Entwicklungsbiologie, den Zellkern zu quantifizieren, was Medizinern bei der Bilddiagnostik helfen kann. Ein neuer Bildsegmentierungsalgorithmus des Kerns wird basierend auf konvolutionellen neuronalen Netzen vorgeschlagen, der mit Datenerweiterungsstrategien kombiniert wird. Zuerst werden die klassifizierten Kerne verwendet, um Fusionsschichtparameter zu trainieren. Als nächstes wird die Bildvergrößerungsstrategie verwendet, um das Originalbild auf acht Eingaben zu erweitern, und der Bildfarbkontrast wird verbessert. Am Ende wird die beste Ensemblestrategie für jeden Kerntyp für die Vorhersage trainiert. Der vorgeschlagene Algorithmus reduziert effektiv die Redundanz von lokalen Bildinformationen und erhält die Grenzposition des Zielbereichs genauer.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-01078-2_16 b39d1bca395e95a6070aa8267b7911e6;de;;;1.2.;;;Frio-Schiefer-Mineralogie und die Stöchiometrie der Smektit-zu-Illit-Reaktion: Die wichtigste Reaktion in der klastischen Sedimentdiagenese Die Vergrabungsdiagenese von Schiefer der Frio-Formation führte zu einer Zunahme der Häufigkeit von Mischschicht-Illitsmektit (I-S), Albit und Chlorit und einer Abnahme der Häufigkeit von Kalifeldspat, Illit und Kaolinit. Einige der in dieser Studie ermittelten mineralogischen Trends stehen im Gegensatz zu den Ergebnissen von Hower et al. (1976) und andere Studien über Frio-Schiefer. Die Unterschiede sind auf Verbesserungen der Labor- und Tonquantifizierungstechniken seit der Zeit der früheren Forschung zurückzuführen. Die Zusammensetzung von I-S änderte sich von ~20% auf ~80% Illit, und die mineralogische und chemische Reaktion von I-S setzte sich während der Bestattung fort. Die Schieferdiagenese war ein Prozess mit offenem System, der die Zugabe von K . erforderte;-;-;-;https://link.springer.com/article/10.1346/CCMN.1997.0450502 7791381771a0cab8fca3e9f35d665b54;de;;;1.2.;;;Hydrophobe Wechselwirkungen als Grundlage für die Störung der mikrobiellen Adhäsion Hydrophobe Wechselwirkungen werden bei einer Vielzahl von mikrobiellen Adhäsionsphänomenen sowohl in der offenen Umgebung als auch im Wirt als wichtig angesehen (für einen Überblick über Hydrophobie im Zusammenhang mit mikrobieller Adhäsion siehe Rosenberg und Doyle, 1990). Beispiele für medizinisch bedingte Adhäsionsphänomene, die durch hydrophobe Wechselwirkungen beeinflusst zu werden scheinen, sind Adhäsion an Zähnen, Fettgewebe, Insektenkutikula, Katheter, intrauterine Kontrazeptiva, Bioprothesen, Kontaktlinsen und andere Biomaterialien sowie eine Vielzahl von Epithel- und Phagozyten Zelltypen. 1980 schlugen wir eine einfache Technik zur Messung der bakteriellen (später einschließlich eukaryotischer Mikroorganismen) Adhäsion an flüssigen Kohlenwasserstoffen vor, die auf dem einfachen Vortexen gewaschener Zellsuspensionen mit verschiedenen Testkohlenwasserstoffen mit gleichzeitiger Adhäsion an der Öl-Wasser-Grenzfläche basiert. Die Beobachtung, dass die Adhäsion durch Isopropanol rückgängig gemacht werden kann, war ein Hinweis darauf, dass hydrophobe Wechselwirkungen beteiligt waren, was uns veranlasste, diesen Test als einfache Technik zur Untersuchung der Hydrophobie der Zelloberfläche vorzuschlagen (Rosenberg;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0415-9_29 e3b49a357d1b820c4c4f5f4c39d166d5;de;;;1.3.;;;Schülerwahrnehmung zu unternehmerischen Bildungsprogrammen für Graduate-Startups an ausgewählten ASEAN-Universitäten Entrepreneurship Education spielt eine entscheidende Rolle in der Hochschulbildung, um die Interessen und die Fähigkeit der Studierenden zu einer unternehmerischen Denkweise zu steigern. Diese Studie zielt darauf ab, die Wahrnehmung der Studierenden gegenüber ihrer Institution, ihren Dozenten und sich selbst in Bezug auf die Entrepreneurship-Ausbildung zu bewerten, um das Gamification-Design der Entrepreneurship-Ausbildung in der 4IR-Ära zu informieren. Im Rahmen von Wissenstransferprogrammen wurde an 3 teilnehmenden Universitäten in 3 ASEAN-Ländern, nämlich Malaysia, Indonesien und Vietnam, ein selbstberichteter Fragebogen verteilt, um deren Wahrnehmung der aktuellen unternehmerischen Ausbildung an ihren jeweiligen Institutionen zu messen. Insgesamt gingen 209 Antworten ein, darunter Schüler aus Malaysia (27,3%), Indonesien (42,6%) und Vietnam (30,1%). Die Ergebnisse deuten darauf hin, dass die Kombination aus der Wahrnehmung der Studierenden gegenüber den Institutionen, die die notwendige Unterstützung bieten, der Fähigkeit der Dozenten, Lehrmaterialien auf ansprechende Weise bereitzustellen, und der Offenheit der Studierenden, Unternehmertum zu erlernen, die Offenheit der Studierenden für die unternehmerische Bildung in der Hochschulbildung beeinflusst. Diese Ergebnisse implizieren nützliche Inputs für die Entwicklung von Gamification-Strategien, bei denen das gamifizierte Lehren und Lernen innerhalb der Institution, der Dozenten und der Studierenden eine bessere Akzeptanz von Kursen zur unternehmerischen Bildung beeinflussen würde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-34032-2_48 cf0343cdaf7a7b79463d14a7d53e6ed8;de;;;1.2.;;;Ein Vergleich von Line-Intercept- und Census-Techniken zur Bewertung großer Holzmengen in Bächen Die meisten Vermessungen von Großholz in Bächen werden durch Zählen und Vermessen jedes großen Holzstücks in Reichweite durchgeführt, eine Technik, die effektiv, aber zeitaufwendig ist. In dieser Studie haben wir eine alternative Methode evaluiert, die weniger Zeit in Anspruch nimmt und in Studien eingesetzt werden kann, bei denen eine Schätzung des gesamten großen Holzvolumens entlang eines Bachlaufs die primäre Messgröße von Interesse ist. In Bächen erster bis dritter Ordnung schätzten wir große Holzmengen und große Holzhäufigkeit im Bach, indem wir große Holzzählungsschätzungen mit denen einer modifizierten Linienschnitttechnik verglichen, die häufig bei terrestrischen Walduntersuchungen verwendet wird. Schätzungen des großen Holzvolumens von Linientransekten, die sich in der geografischen Mitte des Baches (parallel zur Bachachse und gleich weit von den Uferrändern) befinden, korrelierten stark mit denen aus der Holzzählung;-;-;-;https://link.springer.com/article/10.1007/s10750-007-9144-8 b6c21e2592d835d8994840c06bb6f578;de;;;1.2.;;;Spermienbewertung mit dem Comet Assay Die von der Weltgesundheitsorganisation festgelegten Kriterien zur Charakterisierung der Spermienqualität sind wertvoll für die Erstellung einer anfänglichen Fruchtbarkeitsdiagnose, aber sie sind schlechte Prädiktoren für die Fruchtbarkeit und bewerten das Kernmaterial der Spermien nicht. Letzteres hat sich jedoch als empfindlich gegenüber einer Vielzahl von Wirkstoffen erwiesen und spielt eine entscheidende Rolle für den Erfolg von Techniken der assistierten Reproduktion, einschließlich der intrazytoplasmatischen Spermieninjektion (ICSI). Unter den verfügbaren Spermienchromatin-Qualitätsassays bietet der Comet-Assay den Vorteil, Daten auf Einzelzellebene zu sammeln, was die Analysemöglichkeit für schwer oligozoospermie Patienten eröffnet. Das Ergebnis des Assays und die Sensitivität der abgewickelten Spermien-DNA machen die Kometenbewertung jedoch zu einem niedrigen Durchsatz und angeblich variablen Verfahren. In diesem Kapitel stellen wir das Prinzip des Comet-Assays sowie die mit diesem Assay verbundenen Verfahrensvarianten vor. Wir heben die jüngsten Verbesserungen durch die Entwicklung von HT-COMET hervor, einer neuartigen standardisierten Hochdurchsatzmethode, die den Weg für eine personalisierte Prognose der Spermienchromatinqualität öffnet. Abschließend diskutieren wir die Anwendbarkeit der Comet-Methode auf die Klinik sowie ihren prognostischen Wert für den Erfolg der ICSI.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-70497-5_7 b5feccd2ab9216238bb7fab20dcfb8dc;de;;;1.2.;;;Tashlhiyt Silben II Das letzte Kapitel befasste sich mit der Silbenbildung in Wortfolgen, die zu einer Melodie gesungen werden. In diesem Kapitel diskutieren wir zwei morphologisch bedingte Alternationen, die belegen, dass unsere Analyse der Silbenstruktur in Tashlhiyt auch innerhalb von Stämmen gültig ist: imperfekte Geminierung und Längenalternationen im kausativen Präfix. Bevor wir dies tun, betrachten wir jedoch kurz die Silbenbildung in Wortfolgen außerhalb der Poesie.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0279-0_5 a204a6d48663144198b08c504f570c92;de;;;1.3.;;;Ziele und Lehrpläne für den naturwissenschaftlichen Unterricht an amerikanischen und chinesischen Gymnasien Dieser Beitrag berichtet über Ergebnisse einer vergleichenden Studie über die Ziele des naturwissenschaftlichen Unterrichts und die Lehrplangestaltung an amerikanischen und chinesischen High Schools, basierend auf Daten aus einer Umfrage unter chinesischen Pädagogen, die zwischen 1991 und 1994 als Gastwissenschaftler in die USA kamen. Die idealen Ziele der Wissenschaft In den USA und China ist die Ausbildung ähnlich, aber die wirklichen Schwerpunkte liegen an den Schulen der beiden Länder ganz anders. Bei der Gestaltung des Lehrplans hat der amerikanische naturwissenschaftliche Unterricht einen größeren Umfang, aber viel weniger Tiefe als sein chinesisches Gegenstück. Diese Unterschiede spiegeln sich auch in Lehrbüchern und Unterrichtsaktivitäten wider. Implikationen für Veränderungen im naturwissenschaftlichen Unterricht werden sowohl für amerikanische als auch für chinesische High Schools diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF01103035 0353159130f59b34d49b8c7191904e97;de;;;1.2.;;;Unterschiede im Deflationsschenkel der Druck-Volumen-Kurven beim akuten Atemnotsyndrom pulmonaler und extrapulmonaler Ursache Bewertung der Unterschiede in den Deflationsdruck-Volumen-(PV)-Kurven zwischen akutem Atemnotsyndrom pulmonalen (ARDSp) und extrapulmonalen (ARDSe) Ursprungs.;-;-;-;https://link.springer.com/article/10.1007/s00134-003-1965-y ebb2f4a5b9fe1f50edb0355a4efcfce3;de;;;1.3.;;;Auf dem Weg zu einer ELF-informierten zweisprachigen Bildung in Taiwan: Beseitigung der Inkongruenz zwischen Politik und Praxis Im Jahr 2018 kündigte das taiwanesische Bildungsministerium (MOE) die nationale bilinguale Bildungspolitik (BE) und seine Verpflichtung zur Umsetzung einer vollständigen Zweisprachigkeit im nationalen Bildungssystem an. Obwohl die Details zur Umsetzung der Richtlinie in lokalen Kontexten im ganzen Land noch diskutiert werden, wurden vor der Ankündigung des MOE von einzelnen Schulen in verschiedenen Städten kleine Experimente durchgeführt. Ein einzigartiger Fall war das CLIL-Pilotprogramm, das vollständig von der Stadtregierung Tainan organisiert und unterstützt wurde und ein Jahr vor der nationalen Politik gestartet wurde. In diesem Papier werden die Erfahrungen mit dem CLIL-Programm von Tainan unter drei Aspekten erörtert: das Unterrichtsmedium, die Anwerbung ausländischer Lehrkräfte und die Bedürfnisse der zweisprachigen Lehrerausbildung. Die Ergebnisse werden dazu beitragen, die nationale Politik zu informieren, wenn das MOE spezifischere Umsetzungsrichtlinien formuliert. Beim Vergleich der Piloterfahrung in Tainan und der Politik des MOE wird die Studie zeigen, dass die Politik des MOE von den traditionellen Ideologien des Englischen als Muttersprache (ENL) beeinflusst wurde, obwohl in vielen Teilen der Welt Pädagogen Englisch als Lingua Franca übernommen haben (ELF) Rahmen in der Lehrplangestaltung. Ein BE-Programm mit ELF-Perspektive wird nicht nur multikulturelles Bewusstsein in die Lehrplangestaltung integrieren, sondern auch die mehrsprachigen Ressourcen von Lehrern und Schülern beim Lehren und Lernen im Klassenzimmer schätzen. Eine ELF-informierte BE-Politik wird die Stärkung lokaler Lehrer als einen entscheidenden Schritt für eine erfolgreiche CLIL-Implementierung betrachten. Angesichts unserer Ergebnisse sollte die bilinguale Bildungspolitik des MOE untersucht und mit dem Bewusstsein für das ELF-Phänomen und den Erfahrungen mit dem CLIL-Pilotprogramm von Tainan aktualisiert werden;-;-;-;https://link.springer.com/article/10.1007/s42321-020-00055-1 eaea181d18731172007f42e8ad500e9b;de;;;1.3.;;;Die Studie zur psychischen Gesundheitserziehung der Musikpädagogik In diesem Artikel haben wir zunächst die Eigenschaften und Merkmale der Musikausbildung untersucht und dann deren Bedeutung für die psychologische Gesundheitsentwicklung von College-Studenten diskutiert. Abschließend werden die in diesem Beitrag vorgeschlagene Methode und Maßnahmen zur Stärkung der Musikpädagogik entsprechend der gegenwärtigen Probleme im Unterricht und der Unzulänglichkeit erläutert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29084-8_53 0ffb6d00c791eb550347eb35215b12a1;de;;;1.3.;;;Integriertes Management der Netzwerkvirtualisierung: Ein Bericht zu APNOMS 2013 Dieser Beitrag präsentiert einen Bericht über APNOMS 2013, der vom 25. bis 27. September 2013 im International Conference Center, Hiroshima, Japan stattfand. Das Thema der APNOMS 2013 lautete „Integriertes Management der Netzwerkvirtualisierung“.;-;-;-;https://link.springer.com/article/10.1007/s10922-014-9309-5 25a139ec9a44ed76c6b9d32ed7c3cb95;de;;;1.3.;;;Implementierung immersiver Technologien in die professionelle Ausbildung von Lehrern Die Einbeziehung von immersiven Technologien wie Augmented Reality, Virtual Reality und Mixed Reality in den Lehrplan bietet potenzielle pädagogische Vorteile: Bereitstellung einer Plattform, um das Engagement der Schüler, die Interaktion, den Spaß und eine verwaltete reflektierende Lernerfahrung zu erhöhen. Forschungsziel: Theoretische Begründung des Einsatzes immersiver Technologien im Bildungsprozess und Entwicklung eines Blended-Kurses „Nutzung der Technologien der Augmented und Virtual Reality in der Praxis moderner Bildungseinrichtungen“ zur Umschulung von Lehrkräften. Forschungsziele: Bestimmung der Rolle und des Stellenwerts von Augmented- und Virtual-Reality-Technologien im Bildungsprozess und deren Einsatz in der Lehrerfortbildung zur Bildung beruflicher Kompetenz. Forschungsgegenstand: die Ausbildung professioneller Kompetenzen von Lehrkräften im Umschulungsprozess. Forschungsgegenstand: Immersive Technologien als Bestandteil des schulischen Bildungsumfelds. Verwendete Forschungsmethoden: Theoretische Methoden, die die Analyse wissenschaftlicher Quellen beinhalten, empirische Methoden der Befragung und Befragung von Lehrern. Forschungsergebnisse: Die Analyse wissenschaftlicher Veröffentlichungen ermöglicht es uns, das Konzept der Augmented und Virtual Reality, seine Arten, die Richtungen der Verwendung von Augmented und Virtual Reality in der Bildung sowie Beispiele für ihre Anwendung im Bildungsprozess zu definieren. Der entwickelte Lehrgang „Einsatz der Technologien der Augmented und Virtual Reality in der Praxis moderner Bildungseinrichtungen“ für die Umschulung von Lehrkräften ermöglicht die Ausbildung professioneller informations- und kommunikationstechnischer Kompetenzen von Lehrkräften. Wichtigste Schlussfolgerungen: Die Einführung immersiver Technologien in den Bildungsprozess erhöht die Effektivität der Ausbildung, fördert die Entwicklung des logischen Denkens der Schüler und erhöht die Motivation der Teilnehmer am Bildungsprozess. Die festgestellten Lücken weisen auf die Unzulänglichkeiten der technischen und methodischen Unterstützung von Lehrkräften bei der Implementierung immersiver Technologien für den Unterricht hin, die zu weiteren Arbeiten in diesem Bereich motivieren können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-77592-6_4 9a048f26093dfed9c2e0c5e269bdef23;de;;;1.3.;;;FluteKit - Eine mobile Lernanwendung für Anfänger, um rhythmische Fähigkeiten zu trainieren und die Grundlagen der Flöte zu erlernen Flötenanfänger leiden oft unter rhythmischen Fehlern, da sie eine Note länger oder kürzer als die richtige Länge spielen können. Manchmal sind die Rhythmen in den Notenblättern zu kompliziert, als dass sie sie verstehen könnten. Flötenanfänger können ihr Interesse verlieren, wenn sie weiterhin unbefriedigend performen. Dieses Papier beschreibt die Entwicklung einer mobilen E-Learning-Anwendung für Flötenlerner, um ihre rhythmischen Fähigkeiten zu trainieren und ihnen zu helfen, die Flötengrundlagen zu erlernen, damit sie ein neues Lied mit weniger Fehlern besser spielen können. Diese Anwendung konzentriert sich darauf, Benutzern zu helfen, rhythmische Fähigkeiten und das Lesen vom Blatt zu erlernen. Die Rhythmen, die die Lernenden gespielt haben, werden aufgezeichnet, erkannt und analysiert. Kommentare und Verbesserungstipps werden den Lernenden entsprechend der festgestellten Schwächen zur Verfügung gestellt. Relevante Ergebnisse von Leseübungen werden verwendet, um die Fehler herauszufinden, die der einzelne Lernende gemacht hat, um seine/ihre Leistung zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-48978-9_9 45c2dff1d2e4e2bf9eb0f9dd866cc28e;de;;;1.3.;;;Vorbereitungen für die Muharram-Saison: Probestunden und Chorausbildung in einer schiitischen Männergilde Während meines zweiten Sommers in Hyderabad führte ein zufälliger Regensturm und eine beiläufige Bemerkung dazu, dass ich eine andere Aktivität erblickte, die von den schiitischen Männergilden gesponsert wurde: die Proben, die Jungen und Teenager auf jede Muharram-Saison vorbereiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-137-06693-0_14 62cef24d806170911f92f4df39d5ff62;de;;;1.3.;;;Ein Trainingssystem für die Bedienung medizinischer Geräte Durch die hochentwickelte Informations- und Kommunikationstechnik (IKT) ergeben sich ständig neue Möglichkeiten für den Einsatz computergestützter Lern- und Bildungssysteme. In dieser Studie wurde ein computergestütztes Schulungssystem für die Ausbildung von klinischen Ingenieuren vorgeschlagen. Im ersten Schritt werden Probleme beim Betrieb medizinischer Geräte verdeutlicht und Forschungsthemen entsprechend fokussiert und deren Lösungen geklärt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_276 8a927ea7ec08981026bf94c1db98dba0;de;;;1.2.;;;Lineare Antworttheorie Zwischen Fluktuationen in einem Mehrkörpersystem im thermodynamischen Gleichgewicht und der Reaktion eines solchen Systems auf äußere Einflüsse wie elektrische und magnetische Felder kann ein allgemeiner Zusammenhang hergestellt werden. Diese Agenturen stören das Gleichgewicht nur geringfügig, wenn sie ausreichend schwach sind. Das System wird als Mitglied eines Ensembles betrachtet und durch die Liouville-Gleichung (1.4.8) beschrieben. Die Schwäche der externen Agenturen ermöglicht eine Linearisierung um das thermodynamische Gleichgewicht. Dies ist die einzige Grundannahme der Theorie. Diese Konzepte können auf interne Einrichtungen, wie Temperaturgradienten und Strömungsgeschwindigkeiten, ausgedehnt werden. Diese Erweiterung ist jedoch nicht einfach, da die Lösung niedrigster Ordnung der Liouville-Gleichung nicht mehr als thermisches Gleichgewicht angesehen werden kann, das durch eine gleichmäßige Temperatur und die Abwesenheit von Strömung gekennzeichnet ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-3612-9_9 3275f7416af66bd20c63faf844b028de;de;;;1.3.;;;E-mature – Zeugnis einer elektronischen Mathematikprüfung Internetanwendungen sind seit ihrer ersten Implementierung vor einigen Jahren revolutionär in unserem täglichen Leben. Eine zunehmende Zahl von Institutionen ändert traditionelle Methoden gegen die „e“. Es betrifft auch den Bildungsbereich. Die Anfänge waren hauptsächlich über die externe Lehre. Seit einigen Jahren wird intensiv an den E-Prüfungen geforscht [6],[7],[8], also dem System, das es ermöglicht, die Kenntnisse und Fähigkeiten der Schüler in Echtzeit zu überprüfen, anstatt schriftliche Prüfungen abzulegen. Dieses Papier zeigt den Bericht, der auf dem ersten Mock e-mature in Mathematik in Polen basiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25327-0_4 3dd031099c66e4b5d59b91fcb0d92aa8;de;;;1.3.;;;Reformmethode des Ausbildungsplans für Informatikstudenten im Rahmen des „Ausgezeichneten Ingenieurausbildungsplans 2.0“ Der vom Bildungsministerium umgesetzte „Plan for Education and Training Excellent Engineers 2.0“ (im Folgenden „Exzellenter Ingenieurausbildungsplan 2.0“ genannt) ist ein Meilenstein in der Entwicklung der Hochschulbildung in China. Die neue industrielle Revolution hat neue Anforderungen und Herausforderungen an die universitäre Ingenieurausbildung gestellt. Entsprechend dem Signal einer groß angelegten Entwicklung einer exzellenten Ingenieurausbildung analysiert dieser Beitrag aus den Ausbildungszielen der Studienrichtungen Informatik im Studienplan Exzellenter Ingenieur 2.0 die zentralen Probleme bei der Umsetzung des Ausbildungsplans für Studierende der Studienrichtung Informatik in unserer Hochschule und diskutiert die Reformmethode des Ausbildungsplans, die neue Ideen in den exzellenten Ingenieurausbildungsplan bringt und einen Weg der nachhaltigen Entwicklung auslotet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5390-5_1 c982cb3d4f5e7251799f155e99bd9430;de;;;1.3.;;;Etablierung eines Ausbildungsmodells für Fahrzeugtechnikschulen und Unternehmen auf der Grundlage eines exzellenten Ingenieurplans Der „Excellent Engineer Education and Training Plan“ des Bildungsministeriums zielt speziell darauf ab, die Fähigkeit der Studierenden zu ingenieurwissenschaftlicher Praxis und Innovation zu fördern. Mit Blick auf die aktuelle Situation der ingenieurwissenschaftlichen Lehre sollten die Hochschulen das moderne Ingenieur-Praxiszentrum aufbauen und mit den hauptfachnahen Unternehmen kooperieren und eine Reihe von Lehrsystemen etablieren, die den Studierenden während ihrer gesamten Studienzeit dienen. Dieser Artikel erklärt die Merkmale des von der JiangSu University und der NanJing Automobile Group eingerichteten College-Unternehmens-Trainingszentrums und weist darauf hin, dass technische Elemente und Ausbildungsprojekte beim Bau der Praxisbasis miteinander vermischt werden sollten, um die Ingenieursqualität der Studenten vollständig zu verbessern und Ingenieurpraxisfähigkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_188 fa340846b9427516fbf0802bb99aba7d;de;;;1.2.;;;Finanzinnovation: Ursachen und Folgen In den letzten zwei Jahrzehnten haben sich auf den nationalen und internationalen Finanzmärkten eine Reihe bedeutender Veränderungen vollzogen. Die Einführung einer Vielzahl neuer Finanzprodukte, ein Zustrom zahlreicher und diversifizierterer Arten von Finanzunternehmen und der zunehmende Einsatz von Computern und Kommunikationstechnologien haben zusammen eine Revolution im Finanzdienstleistungssektor bewirkt. Wie bei allen Revolutionen besteht großes Interesse daran, was diese verursacht und welche Veränderungen sie bewirkt hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-21908-7_5 8cba2646ab4c9c6129eb491f9d13fa87;de;;;1.2.;;;Wechselwirkende Brownsche Teilchen: Eine Studie des Dyson-Modells Wir untersuchen die Gleichgewichtsschwankungen von Brownschen Teilchen in einer Dimension, die durch die Paarkraft 1/x wechselwirken. Im hydrodynamischen Limes ist die Strukturfunktion S(k,t) = (|k|/2π)exp[−|t| |k|πρ] mit ρ ist die Dichte der Teilchen und das Fluktuationsfeld ist Gaußsch.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-6347-7_13 ce7558f85f95da3ce866d3fde0760b39;de;;;1.2.;;;Etablierung und Charakterisierung eines humanen Ovarialkarzinoms, hyperkalzämischer Typ, Zelllinie (OS-1), die PTH, PTHrP und ACTH sezerniert - spezieller Hinweis auf die Anfälligkeit von Krebsmedikamenten - Wir haben erfolgreich eine neue Zelllinie (OS-1) etabliert, die aus humanem Ovarialkarzinom mit sezerniertem PTH, PTH-rP und ACTH vom hyperkalzämischen Typ stammt. Die OS-1-Zelllinie wurde aus dem metastatischen Fokus des Uterus etabliert. Ein Patient war eine 25-jährige Japanerin. Die erste erhielt sie im April 2002 eine linke Ovariektomie. Die histopathologische Diagnose lautete: Ovarialkarzinom, pT2c, Nx, Mx. Im Juni 2003 wurde dann der metastatische Fokus der Gebärmutter ektomiert. Ein Teil des rezidivierenden Uterustumors wurde mit Rasierklingen in kleine Stücke geschnitten und mit 0,1% Trypsin-0,02% EDTA/PBS(–)-Lösung bei Raumtemperatur dissoziiert. Die Einzelzellen und kleinen Zellcluster wurden in 60-mm-Schalen ausgesät und in Wachstumsmedium (GM: DMEM/F12, ergänzt mit 20 % fötalem Rinderserum und 0,1 % Lösung nicht essentieller Aminosäuren) bei 37 °C, 4,7 % CO . kultiviert;-;-;-;https://link.springer.com/article/10.1111/j.1749-0774.2004.tb00044.x 8c5debcf374cb8667aa9cbeebe0a557c;de;;;1.2.;;;Überlegungen zur plastischen Chirurgie für die Rekonstruktion der Bauchwand Das Management von Haut und Weichgewebe ist ein wesentlicher Bestandteil der Bauchdeckenrekonstruktion. Patienten mit komplexen Hernien haben oft Narben, Wunden, Fisteln, Hauttransplantate am Darm, übermäßige Adipositas und Hautüberschuss oder -mangel. Jeder dieser Faktoren erfordert ein durchdachtes Management, um eine erfolgreiche Rekonstruktion zu erreichen. In diesem Kapitel diskutieren wir Strategien und Techniken, um die Weichgeweberekonstruktion zu optimieren und Komplikationsraten zu minimieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-43045-4_34 3a118aca39751a7e93d9db65cb6aacef;de;;;1.2.;;;Landschaftsklimatische Veränderungen am östlichen Makrohang des Nordurals in den letzten 50000 Jahren Es werden landschaftlich-klimatische Veränderungen beschrieben, die in der zweiten Hälfte des späten Neopleistozäns und Holozäns am östlichen Makrohang des nördlichen Urals stattfanden. Anhand geochronologischer und palynologischer Daten wurde die Zusammensetzung der Paläogemeinschaften in verschiedenen Zeitabschnitten der letzten 50000 Jahre detailliert rekonstruiert. Es werden paläoklimatische Parameter vorgestellt, die nach der Zonenbildungsmethode berechnet wurden.;-;-;-;https://link.springer.com/article/10.1134/S1067413609040079 c4d24e328c70ae82f60ef16cfe9cb3cc;de;;;1.2.;;;Alpha bis Omega auf Theta-tragenden Lymphozyten: Immunregulation durch T-Zellen Innerhalb kürzester Zeit, nachdem ein Fremdkörper in den Körper eingedrungen ist, werden zwei gegensätzliche Kräfte in Aktion gesetzt, eine positive und eine negative. Die positive Kraft hat als Hauptziel die Produktion von Substanzen, die den Eindringling angreifen und neutralisieren und/oder töten. Diese angreifenden Kräfte sind äußerst heterogen, können aber in zwei Hauptkategorien unterteilt werden:;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-8810-8_4 f38ea4b8f16db93af3ed0a57449266fb;de;;;1.3.;;;Binaurale Maskierung von Tönen für Töne: Auswirkungen der Unsicherheit bezüglich des Phasenwinkels der Signalzugabe zum Maskierer Dieses Papier vergleicht die Leistung bei kohärenter binauraler Ton-in-Ton-Maskierung für Bedingungen mit und ohne Hörerwissen bezüglich des Phasenwinkels der Addition des Signals zum Maskierer. Unsicherheit wurde durch Randomisierung der vier Phasenwinkel eingeführt: 0, 45, 90 und 135 Grad. Stimuli waren 125-ms-Tonausbrüche bei 250 Hz. Die Ergebnisse zeigten eine deutliche Abnahme der Detektionsleistung unter der Unsicherheitsbedingung bei 135 Grad, mit schwächeren Anzeichen für Abnahmen bei anderen Phasenwinkelwerten. Dies unterstützt die Annahme, dass der Entscheidungsprozess in früheren Studien zur binauralen Ton-in-Ton-Maskierung eine Funktion des Phasenwinkels war.;-;-;-;https://link.springer.com/article/10.3758/BF03204190 4bf0e5fb293e7b91fec713ac46b45150;de;;;1.3.;;;Technologiegestütztes Training für die klinische Krankenschwester Um Teil einer technologisch fortschrittlichen medizinischen Umgebung zu werden, müssen Pflegekräfte die neuen Fähigkeiten beherrschen, die für die Verwaltung des computergestützten klinischen Informationssystems erforderlich sind. In den meisten Fällen haben Pflegekräfte solche Systeme entweder noch nie verwendet oder waren ihnen nur minimal ausgesetzt. Die Effektivität der Pflege steht jedoch in direktem Zusammenhang mit der Geschwindigkeit und Genauigkeit, die Pflegekräfte in dieses zentrale Kommunikationsmittel einbringen. Die Integration von Pflegekräften in die Computerkultur ist nicht nur für die Patientenversorgung, sondern auch für das Wohlbefinden der Pflegekräfte selbst von wesentlicher Bedeutung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-2402-8_25 92be4811c5fcaa8296bc6b6e82a9f540;de;;;1.3.;;;Werkzeuge für die konnektionistische Modellierung: Die dynamische Systemmethodik Ein gewisses Verständnis dynamischer Systeme ist unerlässlich, um Kompetenzen in konnektionistischen Modellen zu erlangen. Dieser mathematische Hintergrund kann entweder durch eine strenge Reihe von formalen Oberstufen- und/oder Absolventenkursen oder durch disziplinierten Selbstunterricht erworben werden. Als Teil der Entwicklung eines Kurses in Konnektionismus sind wir der Meinung, dass, obwohl bestimmte sehr grundlegende mathematische Werkzeuge am besten in ihrer „reinen“ Form (dh aus Mathematiklehrbüchern und -kursen) erlernt werden, ein fortgeschrittenerer Umgang mit der Theorie dynamischer Systeme in der Kontext einer Einführung in den Konnektionismus. Die Studierenden lernen also, konnektionistische Simulationen zu schreiben, indem sie zunächst Programme zur Simulation beliebiger dynamischer Systeme schreiben, dann einige Aspekte dynamischer Systeme im Allgemeinen durch Simulation einiger Spezialfälle erlernen und diese Technik schließlich auf konnektionistische Modelle zunehmender Komplexität anwenden.;-;-;-;https://link.springer.com/article/10.3758/BF03203843 c32d35d87dd4a3840f93faf280709b0e;de;;;1.2.;;;Ausgewählte Fragen Wir behandeln hier Multibindungen und Robotermechanismen zusammen, da Roboter viele davon enthalten, sie werden manchmal als Vektorbindungen bezeichnet. Sie sind eine Gruppe einfacher Bindungen, die irgendwie verwandt sind. Ein Beispiel wäre die Bewegung einer Roboterhand im dreidimensionalen Raum mit Geschwindigkeiten in x-, y- und z-Richtung. Wir können auch über die Transformation in andere Koordinaten nachdenken, etwa Polarkoordinaten, und dies stellt die Verbindung zu Mechanismen her.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83922-1_8 f8571dd775de6fe875347f738b0393f0;de;;;1.2.;;;Ein Expertensystem für die Diagnose von Dieselgeneratoren Die Idee, Systeme der künstlichen Intelligenz (KI) zu entwickeln, um das Wissen menschlicher Experten zu erfassen, erhält heutzutage viel Aufmerksamkeit. Die Idee ist noch attraktiver, wenn wichtiges Fachwissen in einer einzelnen Person steckt, insbesondere einer Person, die kurz vor dem Ruhestand steht und ihr wichtiges Wissen und ihre Denkprozesse nicht anderweitig aufgezeichnet oder weitergegeben hat. Die Dieselgeneratoren im Kernkraftwerk Pilgrim haben vor allem dank der Sorgfalt und Aufmerksamkeit eines Mannes außergewöhnlich gute Leistungen erbracht. Deshalb bauen wir bei Pilgrim ein Expertensystem zur Diagnose von Dieselgeneratorproblemen auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-1009-9_63 77eb466c632edd2e8cf423a086af56db;de;;;1.2.;;;Urbane Geochemie: Untersuchungen im Großraum Berlin Die Verteilung von 41 Spuren- und 11 Hauptelementen in 4000 Oberbodenproben (0–20 cm) aus der Berliner Megacity wird interpretiert. Die detaillierte vergleichende Analyse der Elementverteilungen und die Ergebnisse der Faktorenanalyse ergaben, dass die Verteilungen der Elemente Al, K, Na, Rb, Zr, Nb und Ti überwiegend natürlichen Ursprungs sind, d. Industrie- und Gewerbegebiete weisen gegenüber dem geogenen Hintergrund des Berliner Umlandes oft deutlich erhöhte Werte für Mo, Ni, As, Ag, Cr, Sb, Fe, Mn, Mg, P, TOC und insbesondere Pb, Hg und elektrische Leitfähigkeit auf. Industriegebiete sind tendenziell durch eine Kontamination des Untergrundes mit Cu, Cd, Zn, Hg, Pb und Sn gekennzeichnet. Im Raum Berlin treten in der Nähe der Eisen- und Stahlindustrie und der Baustoffindustrie sowie in der Nähe von Kläranlagen umfangreiche, starke Anomalien von Cd, Zn, Pb, Cu und Hg auf.;-;-;-;https://link.springer.com/article/10.1023/A%3A1026554308673 2549e354c168801b494c6b903d106f7e;de;;;1.2.;;;Reziproke Beziehungen der Transportkoeffizienten in einfachen Materialien Die Kreuzeffekte von Viskosität und Wärmeleitung in anisotropen einfachen Materialien (Festkörper oder Flüssigkeiten) werden im linearen Regime unter Verwendung unserer kürzlich eingeführten Dissipationsfunktionstheorie angegeben. Je nachdem, ob der Temperaturgradient oder der Wärmestrom in der Dissipationsfunktion verwendet wird, zeigen wir, dass sich zwei verschiedene, aber eindeutige Wechselwirkungen zwischen den Transportkoeffizienten ergeben. Diese werden mit den verwirrenden Vorhersagen der Onsager-Theorie und den Ergebnissen der rationalen Thermodynamik verglichen und kontrastiert. Die unsichere experimentelle Situation in Bezug auf diese wechselseitigen Beziehungen wird diskutiert. Experimentelle Tests werden dringend empfohlen.;-;-;-;https://link.springer.com/article/10.1007/BF01325539 6f75fb8b14bf1d87ed7154e515b2778b;de;;;1.2.;;;Atome in einem Magnetfeld: Experimente und ihre semiklassische Beschreibung In den vorherigen Kapiteln haben wir bereits gesehen, dass eine gerichtete Quantisierung existiert. Die Drehimpulsvektoren in einem Atom können sich nur in bestimmten diskreten Richtungen relativ zu einer bestimmten Achse (der Quantisierungsachse) orientieren. Die gerichtete Quantisierung wird beschrieben durch die magnetische Quantenzahl described;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-96813-6_13 dafe11e824df0f7ee14054d986ecad27;de;;;1.2.;;;Auswirkungen der Trachealorientierung auf die Entwicklung einer beatmungsassoziierten Pneumonie: eine experimentelle Studie Eine Ausrichtung der Trachea und des Trachealtubus unterhalb der Horizontalen kann die Aspiration von oropharyngealen Sekreten in die Lunge verhindern, die ein entscheidender Weg bei der Pathogenese der beatmungsassoziierten Pneumonie (VAP) ist. Die Inzidenz von VAP wurde bei Schweinen mit Ausrichtung von Trachea und Trachealtubus oberhalb der Horizontalen (Modell der halbliegenden Position, derzeit empfohlen bei Patienten) und unterhalb der Horizontalen untersucht.;-;-;-;https://link.springer.com/article/10.1007/s00134-012-2495-2 2e6cbdee5c9360c79393c74ec6f325c6;de;;;1.2.;;;Ein Blick auf Neuronale Netze Neuronale Netze werden immer beliebter. Kommentieren wir das besonders einfache Hopfield-Modell und sein stochastisches Gegenstück, die Boltzmann-Maschine.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-97522-6_16 9f448b6288dc6d04e8abc6e8d4fa26c6;de;;;1.2.;;;Multiresolution Lossy-to-Lossless Codierung von MRT-Objekten Dieses Papier schlägt einen objektbasierten, hochskalierbaren, verlustbehafteten bis verlustfreien Kodierungsansatz für Magnetresonanz(MR)-Bilder vor. Der vorgeschlagene Ansatz, genannt OBHS-SPIHT, basiert auf dem wohlbekannten Set Partitioning in Hierarchical Trees (SPIHT)-Algorithmus und unterstützt sowohl die Qualität als auch die Auflösungsskalierbarkeit. Es codiert nach und nach jede Schicht des MR-Datensatzes separat in einer Mehrfachauflösung von niedriger Auflösung zu voller Auflösung und in jeder Auflösung von niedriger Qualität zu verlustfreier Qualität. Um eine höhere Komprimierungseffizienz zu erreichen, codiert der Algorithmus nur das Hauptobjekt von Interesse im Eingabedatensatz und ignoriert den unnötigen Hintergrund. Die experimentellen Ergebnisse zeigen die Effizienz des vorgeschlagenen Algorithmus für die Kodierung von verlustbehafteten bis verlustfreien MRT-Daten mit mehreren Auflösungen. OBHS-SPIHT ist ein sehr attraktiver Kodierungsansatz für die Archivierung und Übertragung von medizinischen Bildinformationen, insbesondere über heterogene Netzwerke.;-;-;-;https://link.springer.com/chapter/10.1007/11864349_80 8c2fa639e4b386f17dc39b58cbb71cf9;de;;;1.2.;;;Modellierung von abrasiven Wasserstrahlschneidprozessen Im Laufe der Jahre wurden mehrere Modelle entwickelt, um das abrasive Wasserstrahlschneidverfahren zu beschreiben. Im Allgemeinen sind diese Modelle Versuche, die erreichbare Schnitttiefe in verschiedenen Materialien abzuschätzen, die unter bestimmten Prozessbedingungen durch abrasive Wasserstrahlen geschnitten werden. Weitere Modelle, etwa für spanabhebende Prozesse und für abrasives Wasserstrahldrehen, -fräsen und -bohren, findet der Leser in Kapitel 9. Kapitel 8 behandelt separat Modelle für Geometrie- und Qualitätsaspekte wie Schnittgeometrie und Oberflächentopographie.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-1572-4_6 c264e28fe57adf718f7f1ce67a803dbe;de;;;1.2.;;;Mikrobielle Herstellung von Aromen und Duftstoffen Die Synthetische Biologie öffnet eine neue Tür für eine nachhaltige und effektive Produktion von Aromen und Düften. Dies wird durch die Entwicklung von Biosynthesewegen für wertvolle Verbindungen von Interesse in den mikrobiellen Wirten erreicht, wie z;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-319-50436-0_375 17c56e782a3b930cde33bfa008535443;de;;;1.2.;;;Topologische Techniken zum Nachweis von Chiralität Neuere Fortschritte in der topologischen Stereochemie haben zur Synthese von Molekülen geführt, deren Einbettungen in 3-Räume topologisch nicht trivial sind, zum Beispiel der molekulare Mäbiusstreifen, der 1982 von Walba, Richards und Haltiwanger synthetisiert wurde [;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-3698-3_7 d46a68c4859460e532165aac204d0c7f;de;;;1.3.;;;Interaktive Manipulations- und Stressvisualisierung mit Mehrfinger-Haptikgerät In der schulmedizinischen Ausbildung trainieren Assistenzärzte ihre Fähigkeiten über Clinical Experiences (OJT). Aufgrund der zunehmenden Achtung der Patientenrechte nehmen die Schulungsmöglichkeiten jedoch ab. Der Virtual-Reality-Simulator ermöglicht eine flexible und wiederholbare Interaktion mit lebenden Organen, ohne diese zu beschädigen. Daher schlagen wir für das Training chirurgischer Manipulationen in dieser Studie einen Trainingssimulator für Organausschluss mit Mehrfinger-Haptikgerät und Stressvisualisierung vor. Das Verfahren wurde auf eine medizinische Ausschlussanwendung angewendet, die eine wichtige Manipulation ist, um einen Arbeitsbereich zu schaffen oder die chirurgische Ansicht in der Chirurgie zu vergrößern. Das System ist mit FEM-basierter Weichteildeformation und dem haptischen Gerät CyberForce ausgestattet. Eine Echtzeitsimulation wurde mit einem Prototypsystem erreicht und ein Trainingsversuch wurde durchgeführt. Die Ergebnisse deuteten auf die Wirksamkeit des Systems und der Stressvisualisierung für das Ausschlusstraining hin.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-49022-7_74 e5765689f3eee345287a0665ad62e208;de;;;1.2.;;;Terrestrisches Quecksilber und Methylquecksilberbudgets für Skandinavien In Skandinavien wurde 1979 an der schwedischen Westküste mit Messungen von Hg in der Luft begonnen. Dieser Standort, die Station Rörvik, ist seitdem Teil mehrerer schwedischer und nordischer atmosphärischer Hg-Netzwerke. Die Ergebnisse der Messungen in diesen Netzen zeigen deutlich die Existenz eines abnehmenden Süd-Nord-Gefälles über Skandinavien. Eine Zusammenstellung der verfügbaren Daten deutet auf eine Abnahme der Hg-Konzentration in der Luft ab 1990 hin. Dies geht einher mit drastisch gesunkenen Hg-Emissionen nach der Schließung großer Hg-Emittenten in der ehemaligen DDR. Skandinavische Messungen des Gesamt-Hg im Niederschlag liegen ab 1987 vor. Die Kopplung zwischen atmosphärischem Hg in Skandinavien und großen kontinentalen Emissionsquellen wird durch ein deutlich abnehmendes Süd-Nord-Gefälle und durch die Tatsache unterstützt, dass auch die Gesamt-Hg-Niederschlagsdaten um 1990. MeHg in der Luft wurde kürzlich gemessen, aber der Datensatz ist noch zu begrenzt, um eine Trendanalyse zu ermöglichen. Der MeHg-Niederschlagsdatensatz ist viel größer, jedoch liegt ein eher unklarer Süd-Nord-Griff vor und es ist keine Kopplung an die dramatischen Veränderungen 1990 in Osteuropa erkennbar. Durch die Überprüfung der Saisonalität und langfristigen Veränderungen in unserem atmosphärischen Hg-Datensatz, zusammen mit unserer Hg/MeHg-Budgetberechnung für bewaldete Ökosysteme und Änderungen der Outputraten, versuchen wir, eine Kopplung zwischen der Belastung eines bewaldeten Ökosystems und dem Output an Oberflächengewässer. In Einzugsgebietsstudien in Südwestschweden wird auf eine im Zeitverlauf verringerte Exportrate von Hg und MeHg hingewiesen. Es ist jedoch noch nicht möglich, die Kopplung zwischen Input- und Output-Flüssen von Hg/MeHg aus einem bewaldeten Einzugsgebiet statistisch zu bestätigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-1780-4_19 a5acab8153e20d726cd08bbe167f2f70;de;;;1.3.;;;Die Begegnung mit dem Selbstmord von Patienten: Die Erfahrung eines Bewohners Die Autoren überprüften die aktuelle Literatur zu den Reaktionen von Psychiatrie-Bewohnern auf den Suizid eines Patienten. Diese Überprüfung untersucht auch die Reaktionen der Anwohner auf Schulungsprogramme nach einem solchen Vorfall.;-;-;-;https://link.springer.com/article/10.1176/appi.ap.31.5.340 18f9e785a23cc78ac851ffcee1a3a355;de;;;1.3.;;;Mehrstufiger paralleler PNN-Algorithmus für Systeme mit verteiltem Speicher Ein paralleles System mit verteiltem Speicher ist eine vielversprechende Plattform, um ein Hochleistungsrechnen mit weniger Baukosten zu erreichen. Anwendungen mit weniger Kommunikation, wie beispielsweise eine Art Parameter-Sweep-Anwendungen (PSA), können auf einem solchen Parallelsystem effizient ausgeführt werden, jedoch sind einige Anwendungen aufgrund der hohen Kommunikationskosten für das Parallelsystem nicht geeignet. Wir konzentrieren uns auf;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79187-4_4 105a5facb435db7de25bd1c0bfb2b083;de;;;1.2.;;;Pneumatose intestinalis Pneumatosis intestinalis (PI) ist durch subseröse oder submuköse gasgefüllte Zysten des Magen-Darm-Trakts gekennzeichnet. Der Verlauf kann gutartig sein oder zu einer dringenden Operation führen. Die Kenntnis der Differentialdiagnose, des Verlaufs und der Behandlungsmodalitäten sind der Schlüssel zur optimalen Versorgung von Patienten, die sich mit dieser Entität vorstellen. In diesem Artikel werden zwei Fälle von „benigner“ Pneumatose vorgestellt, die an unserer Einrichtung über einen Zeitraum von einem Monat beobachtet wurden, zusammen mit einer retrospektiven Überprüfung der englischen Literatur von Januar 1985 bis März 1995 Aussehen, Ätiologie, Differentialdiagnose und Therapie werden besprochen.;-;-;-;https://link.springer.com/article/10.1007/BF02071412 c51a538f31ee5a66408a186c0dcc0cdd;de;;;1.2.;;;Süßwasserfische In diesem Kapitel werden die verschiedenen Ursprünge der Fischfauna und ihre aktuelle Verbreitung und wahrscheinliche Ausbreitungswege vor dem Hintergrund der Paläogeographie und der Merkmale der aktuellen Lebensräume betrachtet, die grob durch die beiden Hauptkategorien stehende und fließende Gewässer repräsentiert werden. Danach werden die Charakteristika von Lentic- und Lotic-Fischgemeinschaften betrachtet und das Kapitel endet mit einem Abschnitt über menschliche Einflüsse auf die Verbreitung und die Zusammensetzung der Gemeinschaften, mit besonderem Bezug auf künstliche Seen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-9951-0_36 6808b14c90288aa09d6dd174e0c8a6ef;de;;;1.3.;;;Finanzierung von Simulationszentren und Forschung sichern Simulationstraining in der medizinischen Ausbildung entwickelt sich nicht nur als innovative Lehrmethode, sondern auch als Methode, um die Fehlerquoten zu senken und die Patientenversorgung und -sicherheit durch effektives Training und Evaluation zu verbessern. Wie bei jedem Vorhaben haben Simulationsforscher jedoch Schwierigkeiten, die Finanzierung für Forschungsarbeiten sicherzustellen, die es der Simulation ermöglichen, ihr Potenzial voll auszuschöpfen. Wir definieren Simulations-Misstrauen trifecta, eine Kombination von drei Hindernissen, die dazu führen, dass Simulationszentren fälschlicherweise Investitionssenken und nicht Einnahmequellen sind. Dieses Kapitel bietet grundlegende Informationen darüber, wie Simulationsforscher effektive Innovationspläne und Geschäftsmodelle für die Simulation entwickeln können. Ein fünfdimensionaler Ansatz zum Umgang mit dem Simulations-Misstrauen wird definiert. Wir decken mehrere Förderorganisationen ab und skizzieren Schlüsselstrategien für die Einreichung von Anträgen bei den Förderorganisationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-5993-4_47 ae7cb250f1b18ea0a73486c2a14529c4;de;;;1.3.;;;Vergleich der wichtigsten Erkenntnisse In diesem Kapitel wird die Synthese des Vergleichs der wichtigsten Ergebnisse in den vier Balkanländern präsentiert. Zunächst wird untersucht, inwieweit es eine Verbindung zwischen der Universität und der Außenwelt hinsichtlich der Rolle der Bildung für die Entwicklung und die Verfolgung der Strategie EU 2020 gab (Variable A). Anschließend werden Art und Stärke der universitätsinternen Leistungsfähigkeit der vier ausgewählten Länder der Stichprobe bei der Verfolgung der Strategie EU 2020 betrachtet und abschließend die Ergebnisse diskutiert, inwieweit eine Koordinierung auf nationaler Ebene stattfindet in Bezug auf die Rolle der Universität bei der Verfolgung einer nachhaltigen Entwicklung und ob die Entwicklungsaktivitäten der Universitäten der Stärkung des Prozesses im Sinne der Strategie EU 2020 dienen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-68006-4_5 5aaa586136f92bbe79bbf8b1bdb8b6b6;de;;;1.3.;;;Unterrichtsentwicklung in der Hochschulbildung: Auswirkungen auf das Lehrverhalten von Lehrkräften in der Wahrnehmung der Studierenden Obwohl die Lehrentwicklung zu einem wichtigen Thema in der Hochschulbildung geworden ist, ist wenig über die Auswirkungen auf die Lehrpraxis bekannt. In dieser Studie untersuchen wir den Einfluss der Unterrichtsentwicklung auf das von den Schülern wahrgenommene Unterrichtsverhalten von Lehrern. Quantitative Schülerdaten wurden für 15 experimentelle und 12 Kontrolllehrer gesammelt. Befragt wurden 45 Experimentalstudierende und 27 Kontrollstudierende. Varianzanalysen und Kovarianzanalysen mit wiederholten Messungen zeigten keinen statistisch signifikanten Einfluss der Unterrichtsentwicklung auf das Lehrverhalten. Die Analyse der qualitativen Daten bestätigte dieses Ergebnis. Es werden verschiedene Interpretationen und Perspektiven für die weitere Forschung sowie für die Planung der Unterrichtsentwicklung diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s11251-013-9267-4 35ee2bc050160d5052df53dd6c4e3557;de;;;1.2.;;;Thermische Dosimetrie Die Implementierung der thermischen Dosimetrie erfordert drei Schritte. Zunächst ist es notwendig, genaue Thermometer zu verwenden. Dieses Thema wird in Kap. 15 dieses Bandes. Zweitens ist es notwendig, ein Maß für die Behandlungswirkung zu verwenden, das eine biologische Bedeutung hat (d. h. es besteht eine quantitative Beziehung zwischen dem Maß der verabreichten Behandlung und der zytotoxischen Wirkung der Behandlung). Eine große Datenbank von In-vitro- und In-vivo-Modellen hat nützliche Konzepte für diesen Aspekt der Dosimetrie bereitgestellt, obwohl neuere Daten aus menschlichen Zellen nahelegen, dass einige grundlegende Überarbeitungen der Konzepte erforderlich sein könnten. In diesem Kapitel werden die Beziehungen zwischen Temperatur, Temperaturdauer und Zytotoxizität untersucht. Darüber hinaus werden Faktoren vorgestellt, von denen bekannt ist, dass sie die Genauigkeit dieser Wirkungsmaße beeinflussen, sowie deren klinische Relevanz hervorgehoben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-57858-8_6 b858297c9f914a1380daac9ad94fcbae;de;;;1.2.;;;Modale Logiken - S4, S5, S4Grz, T, B, K, QT, MSI, ML, G, G* - Ein Aspekt eines Satzes, der für die Argumentation wichtig sein kann, ist, ob er möglich oder unmöglich, notwendig oder nicht ist. Diese Qualitäten sind Modalitäten von Aussagen, die manchmal durch Verben im Konjunktiv wie „könnte“ oder „würde“ signalisiert werden. In diesem Kapitel werde ich die Hauptideen der Modallogik im Hinblick auf eine mögliche Weltsemantik von Kripke diskutieren. Indem ich Set-Assignment-Semantik gebe, werde ich die Frage aufwerfen, ob Modallogiken, wie Relevanzlogiken, auf einer Vorstellung von Bedeutungszusammenhängen von Aussagen beruhen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-0525-2_6 78f039de9a060afd7333d53c0ba60804;de;;;1.2.;;;Immunologie persistierender und rezidivierender Virusinfektionen Die Entwicklung und der weit verbreitete Einsatz von abgeschwächten und abgetöteten Virus-Lebendimpfstoffen hat das Auftreten von Epidemien aufgrund akuter Viruserkrankungen reduziert und den Fokus auf die Rolle von Viren bei chronischen, persistierenden und wiederkehrenden Virusinfektionen gelenkt. Chronisch fortschreitende Erkrankungen können durch konventionelle Viren wie bei Masern und Röteln oder durch unkonventionelle langsame Viren wie bei Kuru und Creutzfeldt-Jakob-Krankheit (CJK) verursacht werden. Diese Wirkstoffe können im Wirt über einen Zeitraum von Monaten oder Jahren persistieren und nur geringe oder keine klinischen Anzeichen oder pathologischen Veränderungen verursachen. Technische Fortschritte bei der Untersuchung von Virus-Zell-Interaktionen auf zellulärer und molekularer Ebene haben dazu beigetragen, unser Verständnis der Wirt-Parasit-Beziehung in persistent infizierten Zellen zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-6191-6_13 41fcd9bc213426b6c5a950711126718e;de;;;1.2.;;;Simulation von Heuschreckenpopulationen in einem Grünland-Ökosystem Ein Kohlenstoffflussmodell der Interaktionen von Heuschrecken mit Produzenten, Zersetzern und anderen Verbraucherkomponenten eines Grünlandökosystems wird vorgestellt. Die wichtigsten treibenden Variablen sind Lufttemperatur und Niederschlag. Heuschrecken wirken sich direkt auf die Erzeuger durch Nahrungsauswahl, Pflanzenfresser und Schäden während der Fütterung aus. Wechselwirkungen mit den Zersetzern folgen aus dem Tod und der Fäkalienproduktion. Heuschrecken interagieren mit anderen Verbrauchern durch Konkurrenz um Nahrung und Raubtiere. Die Hauptziele sind die Schätzung der Heuschreckenpopulationen, des Energieflusses durch die Population und der Auswirkungen auf das Grünlandsystem. Die funktional unterschiedlichen Altersgruppen der Bevölkerung werden gegebenenfalls für Modellziele berücksichtigt. Simulationsergebnisse des Modells werden vorgestellt und diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-9929-5_5 d2a7c894da977827b9c08f46d2074c56;de;;;1.2.;;;Systemzustand Das Erkennen der verhaltensrelevanten Systemstruktur und deren Darstellung im Einflussdiagramm bilden die erste Phase der Modellentwicklung. Das Einflussdiagramm lässt einige qualitative Rückschlüsse auf das System zu, das es repräsentiert, aber diese Ergebnisse sind weder ausreichend noch zuverlässig, um genau zu verstehen, wie sich ein System im Zeitverlauf verhalten kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-10822-1_3 166a8b83ff1c0e914ff6c6907be080ea;de;;;1.2.;;;Bericht des Ausschusses für archäologische Nomenklatur Der folgende Bericht wurde von Prof. John H. Wright, Herrn J. D. McGuire, Herrn F. W. Hodge, Herrn W. K. Moorehead und Dr. C. Peabody, Vorsitzender, erstellt. Die kürzliche Krankheit und der Tod von Professor Wright beraubten den Ausschuss während der endgültigen Abfassung seiner Ratschläge und Vorschläge.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5911-5_3 ce6bb7b837119354e44f07d22964accc;de;;;1.2.;;;Einige kinetische Zellmodelle Dieses Kapitel fasst mehrere Modelle zusammen, die in der Zellzyklusanalyse verwendet werden. Diese Modelle sind in diesem Kapitel enthalten, da sie radioaktive Markierungsexperimente und Chemotherapie verwenden. Gemeinsam ist diesen Modellen, dass sie auf einem Erhaltungsprinzip der Hydrodynamik beruhen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-93126-0_4 955e8543c9eab6c5949e21f85faa7236;de;;;1.2.;;;Bösartige Neubildungen bei Empfängern von Organtransplantationen Bösartige Neubildungen treten häufig bei Empfängern von Organtransplantationen auf.* Zweck dieses Kapitels ist es, einige Berichte aus Organtransplantationszentren zu überprüfen sowie ausgewählte einzelne Patienten einzubeziehen und die Merkmale einiger der Neubildungen sowie mögliche ätiologische Faktoren und Mechanismen zu diskutieren beteiligt am Verständnis des frühen und meist tödlichen Auftretens einer erhöhten Anzahl von Neoplasmen bei Empfängern von Organtransplantationen. Die Patienten sind diejenigen mit Transplantationen von Niere, Leber und Herz. Obwohl praktisch alle Patienten eine Art von Immunsuppression erhalten, werden die Einzelheiten der Behandlung nicht besprochen. Die Neoplasmen waren mit wenigen Ausnahmen bösartig und stammten aus dem transplantierten Organ, von einer bereits bestehenden Neoplasie des Empfängers oder;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-2532-8_16 8f7d84409f7ef87877135ba193212755;de;;;1.2.;;;Erworbener Torticollis als einziges Symptom bei Kindern mit Tumoren der hinteren Schädelgrube Erworbener Torticollis ist ein Symptom einer zugrunde liegenden Erkrankung. Es erfordert eine gründliche und akribische Suche nach der Ursache, da einige der mit Torticollis verbundenen Probleme, wie z. B. ein Tumor der hinteren Schädelgrube, lebensbedrohlich sein können.;-;-;-;https://link.springer.com/article/10.1007/BF00303811 c50b246bcc81df27afe92b948cf53619;de;;;1.2.;;;Singing the Body Electric: Nervöse Musik und Sexualität in Von allen Kunstformen wurde Musik vielleicht am engsten mit Nerven in Verbindung gebracht. Gerade die begrenzte Darstellungskraft der Musik hat dazu geführt, dass sich die Beschreibungen ihrer Wirkung oft weniger auf ihren „Inhalt“ als auf ihre physische Wirkung auf den Körper konzentriert haben. Und in der gesamten Geschichte der Neurologie wurden die Nerven selbst mit den gespannten Saiten eines Musikinstruments verglichen. George Cheynes;-;-;-;https://link.springer.com/chapter/10.1057/9780230287884_7 afa1dbc8ea064ad4c8c465bed01886f6;de;;;1.2.;;;Konfliktbewusste historische Datenfusion Historische Datenberichte zu zahlreichen Ereignissen für überlappende Zeitintervalle, Orte und Namen. Infolgedessen können schwerwiegende Datenkonflikte durch Datenbankredundanz auftreten, die Forscher daran hindern, die richtigen Antworten auf Abfragen in einer integrierten historischen Datenbank zu erhalten. In diesem Beitrag schlagen wir eine neuartige konfliktbewusste Datenfusionsstrategie für historische Datenquellen vor. Wir haben unseren Ansatz an einem groß angelegten Data Warehouse evaluiert, das historische Daten aus etwa 50.000 Berichten zu epidemiologischen Daten aus den USA seit mehr als 100 Jahren integriert. Wir zeigen, dass unser Ansatz Datenaggregationsfehler in der integrierten historischen Datenbank deutlich reduziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23963-2_26 e35f965a8450373e99affd09a36f6666;de;;;1.3.;;;Unterrichtstechnik: Werkzeug oder Allheilmittel? Es ist an der Zeit zu erkennen, dass Bildungstechnologie nicht als Allheilmittel für eine Bildungsreform betrachtet werden kann. Technologie kann bei richtiger Anwendung ein sehr wirksames Instrument zur Verbesserung und Verbesserung der Unterrichts- und Lernerfahrungen in den Inhaltsbereichen sein. Der Einbau elektronischer Hilfsmittel wie Computer und Videodiscs in den Unterricht muss jedoch mit einem systemischen Wandel im Bildungsprozess einhergehen. Der erfolgreiche Einsatz von Technologie hängt davon ab, wie wir Lehrkräften die notwendige Umgebung für die Ausbildung, Instrumente für den Unterricht und Fähigkeiten zur Technologiebewertung bereitstellen. Dieser Beitrag untersucht einige der missbräuchlichen Verwendungen von Technologie und untersucht dann den angemessenen Einsatz von Technologie im Kontext der aktuellen Bildungsreform. Der Fokus liegt auf der Integration von Technologie in den Bildungsprozess, der eine Lernumgebung bietet, die Entdeckung und Kreativität durch den Einsatz von Computervisualisierungen ermöglicht. Der Lehrer wird als das wesentliche Element angesehen, das eine solide Grundlage in den allgemeinen Anwendungen der Technologie und die Fähigkeit erfordert, Systeme zu bewerten und auszuwählen, die für bestimmte Anwendungen effektiv und effizient sind.;-;-;-;https://link.springer.com/article/10.1007/BF02211265 1588833005d1931811963cc826de6c8d;de;;;1.2.;;;Was ist maschinelle Intelligenz? Eine Fallstudie: Börsenprognose-Agenten Dieses Kapitel ist eine Zusammenfassung meines Vortrags, der während der 19. Internationalen Multikonferenz für fortgeschrittene Computersysteme in Miedzyzdroje, Polen im Oktober 2014 gehalten wurde. Der Vortrag begann mit der formalen Definition von Legg und Hutter von dem, was sie Universal Machine Intelligence nennen, das darauf abzielt, die Intelligenz von Allmächtiger Roboter, bei dem Agenten unendlich viele verschiedene Arten von Aufgaben erhalten, um seine universelle Intelligenz zu messen. Wir überlegen, was passiert, wenn wir die Formel nur auf eine bestimmte Aufgabe anwenden. Wir behaupten, dass die Leistungsmessung für jede dieser Aufgaben, die in der Definition von Legg und Hutter angegeben sind, nicht ausreicht, um die Intelligenz des Agenten darzustellen. Dann präsentieren wir unsere fortlaufende Definition von maschineller Intelligenz für eine bestimmte Aufgabe wie die Prognose von Börsenkursen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-15147-2_1 78c1016c58799a2c0f173278cb2b4e5b;de;;;1.3.;;;Rekrutierungsreihenfolge der motorischen Einheit bei willkürlichen und elektrisch induzierten Kontraktionen im Tibialis anterior Die Rekrutierungsreihenfolge der motorischen Einheiten (MU) wurde während willkürlicher und elektrisch induzierter Kontraktionen verglichen. Mit der Spike-getriggerten Mittelwertbildung wurden im menschlichen M. tibialis anterior bei fünf Probanden insgesamt 302 MU mit Rekrutierungsschwellen zwischen 1 % und 88 % der maximalen willkürlichen Kontraktion aufgezeichnet. Die mittlere (±SD) MU-Kraft betrug 98,3 ± 93,3 mN (mittleres Drehmoment 16,8 ± 15,9 mNm) und die mittlere Kontraktionszeit (CT) 46,2 ± 12,7 ms. Die Korrelationskoeffizienten (;-;-;-;https://link.springer.com/article/10.1007/PL00005610 b82bfe945400d52b509f15d44191e65a;de;;;1.3.;;;Wege der islamischen Bildung im 20. Jahrhundert: Sansibar und darüber hinaus Islamische Bildung stand im Mittelpunkt einer Vielzahl von Studien, und die meisten Gelehrten auf diesem Gebiet würden wahrscheinlich zustimmen, dass es im ersten großen Artikel von George Makdisi 1961 in;-;-;-;https://link.springer.com/chapter/10.1057/9781137552310_4 f9cc546ec30a2387e7ddc0b70adf5833;de;;;1.3.;;;MNCs in der Peripherie: DaimlerChrysler South Africa (DCSA), Human Capital Upgrading and Regional Economic Development Wenn multinationale Unternehmen weltweit nach möglichen Investitionsstandorten suchen, gehören lokale Fähigkeiten zu den Schlüsselvariablen, die ihre Entscheidung beeinflussen. Bei ansonsten gleichen Bedingungen zieht höher entwickeltes Humankapital anspruchsvollere ausländische Direktinvestitionen an. Aber die Beziehung zwischen Humanressourcen und Kapitalströmen beschränkt sich nicht auf die Situation vor dem Eintritt. Nach der Markteinführung beeinflussen ausländische Investoren die Nachfrage nach und das Angebot an Qualifikationen. Sie wenden sich beispielsweise an eine lokale Ausbildungsinstitution, um maßgeschneiderte Kurse zu erhalten, die den Absolventen eine Reihe von Fähigkeiten und Kompetenzen vermitteln, die die Unternehmen benötigen, oder um die Fähigkeiten ihrer lokalen Lieferanten entlang der Wertschöpfungskette zu beeinflussen.;-;-;-;https://link.springer.com/chapter/10.1057/9780230593046_7 7e71ef1e18d1dd1e4477e83ca5e14bfc;de;;;1.2.;;;Forschung zum Lebenszyklusmodell von Daten für den Umgang mit Big Data-basierten Sicherheitsvorfällen Die Artefaktanalyse wird verwendet, um verschiedene Arten und Merkmale von Angriffen auf das System im Falle eines Sicherheitsvorfalls zu untersuchen. Darüber hinaus variiert die Genauigkeit der Analyse von Sicherheitsvorfällen je nach Artefaktdaten. Die hochentwickelte Netzwerktechnologie und die Erzeugung einer enormen Menge an Artefakten in der heutigen hypervernetzten Gesellschaft erschweren jedoch das Management. Die Genauigkeit der Analyse kann erhöht werden, wenn alle Artefakte zu Sicherheitsvorfällen gesammelt und gespeichert werden, dies ist jedoch mit Kosten- und Effizienznachteilen bei der Verwaltung von Artefakten verbunden. Daher zielt diese Studie darauf ab, den Plan zur effektiven Behandlung von Sicherheitsvorfällen zusätzlich zur Reduzierung der Managementbelastung basierend auf einem „Artefakt-Lebenszyklus“-Modell vorzuschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6385-4_9 2c01bc423f44c49958846c70793b62a1;de;;;1.3.;;;Modell mit mehreren Mentoren: Ein konzeptioneller Rahmen Dieser Artikel konzentrierte sich auf die Entwicklung eines konzeptionellen Rahmens für den Mentoring-Prozess. Das Modell basiert auf der Prämisse, dass Mentoring kein einzelnes Ereignis im Leben eines Arbeitnehmers ist, sondern mehrere Ereignisse mit unterschiedlichen Mentoring-Stufen. Jede Mentoring-Stufe erfordert eine andere Art von Mentor mit unterschiedlichen Fähigkeiten und Kenntnissen, ähnlich dem HRD-Trainingsmodell von Len Nadler. Daher benötigen die Menschen möglicherweise eine spezielle Ausbildung, um die verschiedenen Mentorenstufen (d. Berater können an vorderster Front dabei sein, die Verwendung des Multiple-Mentor-Modells für dieses Training zu akzeptieren und zu befürworten;-;-;-;https://link.springer.com/article/10.1007/BF01322028 8488f315bade43ef4132108cc8ee9b4e;de;;;1.2.;;;Eine Analyse der Risikofaktoren chronischer Krankheiten basierend auf GRI Chronische Krankheiten sind zur Haupttodesursache für Menschen auf der ganzen Welt geworden und jedes Land musste in den letzten Jahren einen hohen Preis dafür zahlen. Für Forscher ist es von großer Bedeutung, die Risikofaktoren herauszufinden, die das Auftreten, die Aufrechterhaltung und die Prognose einer Vielzahl chronischer Erkrankungen beeinflussen. In dieser Studie wollen wir den Risikofaktor von chronischen Erkrankungen aus Fragebogendaten in der Stadt Pizhou von GRI herausfinden. Wir entwickeln einige maßgeschneiderte Vorverarbeitungsmethoden nach den Merkmalen von Fragebogendaten und entdecken einige signifikante Ergebnisse in Übereinstimmung mit medizinischen Erkenntnissen. Das Ergebnis zeigt, dass Fettleibigkeit, Rauchen und Schlafmangel drei lebenswichtige Risikofaktoren sind, die einige chronische Krankheiten verursachen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06269-3_5 028e93a69ee36669acfeed83218f3c26;de;;;1.2.;;;Abgekürzte psychologische Beurteilung Viele Pflegebedürftige werden von Zeit zu Zeit emotionale Belastungen entwickeln. Aus diesem Grund ist es wichtig, dass Sie Fähigkeiten entwickeln, um ihren psychologischen Status zu beurteilen. Eine solche psychologische Evaluation kann durch ein speziell gestaltetes Interview erfolgen, dessen Prinzipien Sie leicht erlernen und bei Ihren Patienten anwenden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-7885-3_1 8505b087af145dce59b38a11690b258b;de;;;1.2.;;;NUPT ST-Data Miner: Ein räumlich-zeitliches Datenanalyse- und Visualisierungssystem Angesichts der zunehmenden Popularität und Verfügbarkeit von Ortungsgeräten stehen große Mengen an räumlich-zeitlichen Daten (ST-Daten) aus vielen verschiedenen Quellen zur Verfügung. Für die ST-Daten, die die mobilen Eigenschaften der Welt widerspiegeln, ist es wichtig, ein funktionales System aufzubauen, um eine schnelle interaktive Analyse durchzuführen. In diesem Beitrag stellen wir ein Analyse- und Visualisierungssystem, NUPT ST-data Miner, vor, das Benutzern die Visualisierung und Analyse von ST-Daten erleichtert. Es bietet (1) ein flexibles und erweiterbares Framework basierend auf einer Cloud-Computing-Plattform, (2) ist in der Lage, spezifizierte ST-Daten schnell abzurufen, (3) integrierte Mehrfachfunktionen für die ST-Daten. Um seine Effizienz zu demonstrieren, validieren wir unser Modell und System an einem realen Datensatz von Microsoft Research Asia. Die Ergebnisse umfangreicher Experimente zeigen, dass NUPT ST-data Miner ein effektives System zur visuellen Analyse von räumlich-zeitlichen Daten ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1056-0_5 42c0b61bba7f1a2e9ec86cf7fd4fd71f;de;;;1.2.;;;Methodik zur Glaubwürdigkeitsbewertung historischer globaler LUCC-Datensätze Landnutzungsinduzierte Landbedeckungsänderung (LUCC) ist eine wichtige anthropogene Triebkraft des globalen Wandels, die viele Aspekte der regionalen und globalen Umwelt beeinflusst hat und noch immer beeinflusst. Genaue historische Datensätze zur globalen Landnutzung/-bedeckung sind für ein besseres Verständnis der Auswirkungen von LUCC auf den globalen Wandel unerlässlich. Es gibt jedoch nicht nur offensichtliche Inkonsistenzen in aktuellen historischen globalen Landnutzungs-/Bedeckungsdatensätzen, sondern auch Ungenauigkeiten in den Daten in diesen globalen Datensätzen, die durch historische datensatzbasierte rekonstruierte regionale Daten auf der ganzen Welt aufgedeckt werden. Ein Schwerpunkt der historischen LUCC- und Global Change-Forschung bezieht sich darauf, wie die Genauigkeit historischer globaler Landbedeckungsdatensätze verbessert werden kann. Daher wird eine Methodik zur Bewertung der Glaubwürdigkeit vorhandener historischer globaler Landbedeckungsdatensätze benötigt, die sowohl zeitliche als auch räumliche Veränderungen in der Menge und Verteilung der Landbedeckung berücksichtigt. Theoretisch könnte die Glaubwürdigkeit eines globalen Bodenbedeckungsdatensatzes durch den Vergleich von Ähnlichkeiten oder Unterschieden in den Daten mit tatsächlichen Bodenbedeckungsdaten (der „wahre Wert“) bewertet werden. Es ist jedoch äußerst schwierig, historische Beweise für die Bewertung der Glaubwürdigkeit historischer globaler Landbedeckungsdatensätze zu erhalten, die nicht durch Feldstichproben wie zeitgenössische globale Landbedeckungsdatensätze überprüft werden können. Wir schlugen einen methodischen Rahmen zur Bewertung der Glaubwürdigkeit globaler Landbedeckungsdatensätze vor. Unter Berücksichtigung der Arten und Merkmale der verfügbaren Evidenz, die für Bewertungen verwendet wird, haben wir vier methodische Ansätze skizziert: (1) Genauigkeitsbewertung basierend auf regionalen quantitativ rekonstruierten Landbedeckungsdaten, (2) Rationalitätsbewertung basierend auf regionalen historischen Fakten, (3) Rationalitätsbewertung basierend auf Expertise und (4) Wahrscheinlichkeitsbewertung basierend auf der Konsistenz mehrerer Datensätze. Diese Methoden wurden durch fünf Fallstudien zu Glaubwürdigkeitsbewertungen historischer Daten zur Ackerlandbedeckung veranschaulicht. Dieser Rahmen kann auch bei Bewertungen anderer Landbedeckungstypen wie Wald und Grünland angewendet werden.;-;-;-;https://link.springer.com/article/10.1007/s11430-019-9555-3 db94104d42f200ec3fa2854ea1014272;de;;;1.2.;;;Polymorphe Transformationen und Phasenübergänge in schockkomprimierten Festkörpern Es ist bekannt, dass viele Festkörper in Abhängigkeit von Druck und Temperatur in unterschiedlichen Kristallstrukturen vorliegen können. Die Änderung der Kristallstruktur wird oft von einer Änderung der Kompressibilität begleitet, die wiederum die Entwicklung von Kompressions- und Verdünnungswellen beeinflusst. Dieser Umstand eröffnet einen Weg, thermodynamische Parameter und Kinetiken polymorpher Transformationen zu studieren. Stoßwellenbelastung verursacht eine irreversible Erwärmung des Materials, die zu seinem Schmelzen beim Komprimieren oder während des Entladens aus schockkomprimierten Zuständen führen kann. Bei höheren Spitzendrücken reicht der irreversible Teil der Energie der Stoßwellenkompression aus, um einen erheblichen Teil des Materials beim Entladen zu verdampfen. Schmelzen und Verdampfen von geschockten Feststoffen treten beispielsweise als Folge von Hypergeschwindigkeitskollisionen von Meteoriten mit Weltraumapparaten auf. Daher ist es wichtig, diese Phänomene zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-4282-4_6 7a4242d83058f49a05f5957c92722057;de;;;1.2.;;;Überprüfung des Texttranskriptionsverlaufs durch Verwendung evolutionärer Algorithmen Es wird über die Anwendung der ALife-Methoden auf das Gebiet der historischen Dokumentengenealogie berichtet. Zunächst werden die konventionellen analytischen Ansätze zur griechischen und lateinischen Texttranskriptionsgeschichte beschrieben und die damit verbundenen Probleme diskutiert. Als nächstes, mit Fokus auf die Ähnlichkeiten zwischen der Texttranskriptionsgeschichte und dem Tierra-System, schlagen wir die Verwendung evolutionärer Algorithmen zur Verifizierung von Texttranskriptionsgenealogien vor, um die Grenzen der konventionellen Analyse der griechischen und lateinischen Texttranskriptionsgeschichte zu durchbrechen und die Zuverlässigkeit dieser Methoden. In diesem Bericht befassen wir uns im ersten Schritt nur mit den beim Kopieren beteiligten Mutationen und versuchen, sie zur Überprüfung der Genealogie zu nutzen. Wir führen Computersimulationsexperimente auf der Grundlage vorhandener Manuskriptdaten durch und demonstrieren die Möglichkeit, evolutionäre Algorithmen effektiv als ein Mittel zur Überprüfung der derzeit vorgeschlagenen griechischen und lateinischen Textgenealogien zu verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44811-X_50 6d3f4d0636c13844d9e4a7a44850346d;de;;;1.2.;;;Adaptive robuste Steuerung für eine Klasse von unsicheren neutralen Systemen mit Zeitverzögerungen und nichtlinearen Unsicherheiten Die Probleme der robusten Stabilisierung und des adaptiven robusten Reglerentwurfs werden für eine Klasse von unsicheren neutralen Systemen mit Zeitverzögerungen und nichtlinearen Unsicherheiten betrachtet. In diesem Artikel wird die Pade-Approximation verwendet, um mit Eingangsverzögerungen umzugehen, und die Anpassungsgesetze werden vorgeschlagen, um die Norm der unbekannten Parameterunsicherheiten abzuschätzen. Basierend auf dem verbesserten Theorem vom Razumikhin-Typ und den aktualisierten Werten wird eine Klasse von verzögerungsunabhängigen adaptiven robusten Rückkopplungsreglern konstruiert, um die einheitliche endgültige Beschränktheit unsicherer neutraler Systeme mit Eingangsverzögerungen und nichtlinearen Unsicherheiten zu gewährleisten. Schließlich wird der chemische zweistufige Auflösungstank verwendet, um die Wirksamkeit des vorgeschlagenen Verfahrens zu veranschaulichen.;-;-;-;https://link.springer.com/article/10.1007/s12555-020-0028-2 d80aa5464c0c3d46dd66ffe54267a9f1;de;;;1.3.;;;TextCC: Neues neuronales Feed-Forward-Netzwerk zur sofortigen Klassifizierung von Dokumenten Das Corner Classification (CC)-Netzwerk ist eine Art neuronales Feed-Forward-Netzwerk für die sofortige Klassifizierung von Dokumenten. Um Textobjekte sofort zu klassifizieren, wird in diesem Papier ein neuer Trainingsalgorithmus namens TextCC für ein neuronales Feed-Forward-Netzwerk vorgestellt. Um eine Lösung für die Multi-Corner-Beurteilung zu geben, wird ein neuer Trainingsalgorithmus für die Konstruktion der Gewichtsmatrix der Ausgabeschicht von CC angegeben. Experimentelle Ergebnisse zeigen, dass TextCC gut funktionieren kann und die Genauigkeit von TextCC höher ist als die von CC4.;-;-;-;https://link.springer.com/chapter/10.1007/11427445_37 dd17739446a63839843a1585e7ab0d20;de;;;1.2.;;;Wahrnehmungsnormalisierung für die Sprechgeschwindigkeit: Auswirkungen der zeitlichen Distanz Eine Reihe von Studien wurde durchgeführt, um zu untersuchen, wie die Geschwindigkeitsnormalisierung der Sprachwahrnehmung durch die Ähnlichkeit, Dauer und Phonotaktik von Phonemen beeinflusst wird, die benachbart oder distal von dem ursprünglichen Zielphonem waren. Die Dauer des benachbarten (folgenden) Phonems hatte immer einen Einfluss auf die Wahrnehmung des ursprünglichen Ziels. Weder Phonotaktik noch akustische Ähnlichkeit scheinen einen Einfluss auf diesen Frequenznormalisierungseffekt zu haben. Effekte der Dauer des nicht benachbarten (distalen) Phonems wurden jedoch nur gefunden, wenn dieses Phonem zeitlich nahe am Ziel war. Diese Ergebnisse legen nahe, dass es ein zeitliches Fenster gibt, über das die Frequenznormalisierung erfolgt. In den meisten Fällen fallen nur das benachbarte Phonem oder die benachbarten zwei Phoneme in dieses Fenster und beeinflussen somit die Wahrnehmung einer Phonemunterscheidung.;-;-;-;https://link.springer.com/article/10.3758/BF03213089 cd8f14833e1b34d893a66003e9784718;de;;;1.2.;;;Zweidimensionale Modallogik Dieses Kapitel enthält eine technische Einführung in die Welt der mehrdimensionalen Modallogik. Wir werden einige relativ einfache Logiken mit einer zweidimensionalen Semantik behandeln. In Abschnitt 2.1 stellen wir die zu untersuchende Familie der Modaloperatoren mit ihrer zweidimensionalen Semantik vor. In den Abschnitten 2.2 und 2.3 untersuchen wir die zweidimensionale Modallogik mit unären Operatoren. Diese Abschnitte können als Appetizer für den in Kapitel 5 behandelten α-dimensionalen Fall angesehen werden. Abschnitt 2.4 befasst sich mit der modalen Logik der Komposition. Dieser Abschnitt ist eine Einführung in Kapitel 3, das sich ganz der Logik mit Komposition als Hauptverbindung widmet. In Abschnitt 2.5 schließlich geht es um die zweidimensionale Tempuslogik, ein Thema, das in Kapitel 4 wieder aufgegriffen wird. Wir schließen dieses Kapitel mit einigen historischen Anmerkungen zu den hier beschriebenen Logiken ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-5694-3_2 2d8129f463bbc5c916eb1a69cc6de3ce;de;;;1.2.;;;Die Erfahrung der Hörer In den vorangegangenen Kapiteln haben wir gesehen, wie Hinweise aus Noten auf der Seite Informationen über Sänger und Ensembles bewahren können und wie Details von Musikwerken den sozialen Kontext suggerieren können, der einen mittelalterlichen Musikprozess prägte. Für beide Kategorien spiegeln solche Beweise das Bewusstsein und die Reaktion der Komponisten auf erwartete Einschränkungen bei der Aufführung wider. In diesem Kapitel möchte ich mich direkt auf den Hörer konzentrieren, indem ich erkunde, wie zwei mittelalterliche Liedformen – die Ballade und das Rondeau – unterschiedliche Hörerlebnisse strukturieren können. Beide Liedformen beinhalten die Wiederholung verschiedener Musikabschnitte nach einem festen Muster und wurden daher von Musikwissenschaftlern als eng verwandte Varianten angesehen. Aber das Hörerlebnis, das durch jede der beiden Formen strukturiert ist, unterscheidet sich erheblich. Dieser Unterschied in der Erfahrung der Hörer kann die dominierende Popularität des Rondeaus im 15. Jahrhundert erklären.;-;-;-;https://link.springer.com/chapter/10.1057/9781137310071_5 4526cb6bc3c336baa44c385a7f1024f7;de;;;1.2.;;;Telmisartan Telmisartan ist ein Angiotensin-II-Rezeptor-Antagonist, der für Typ-1-Angiotensin-II-Rezeptoren hochselektiv ist. Es war in großen (n > 100), doppelblinden, randomisierten, multizentrischen klinischen Studien bei Patienten mit leichter bis mittelschwerer Hypertonie signifikant wirksamer als Placebo. Telmisartan 20 bis 160 mg einmal täglich führte zu einer mittleren Senkung des systolischen Blutdrucks in Rückenlage und des diastolischen Blutdrucks um bis zu 15,5 bzw. 10,5 mm Hg. Die maximale Blutdrucksenkung trat bei einer Dosierung von 40 bis 80 mg/Tag auf.;-;-;-;https://link.springer.com/article/10.2165/00003495-200161100-00009 e8ec03e2e03542e4ae69a0d74787d1b1;de;;;1.3.;;;Sprachumwandlung zur Modellierung dynamischer Eigenschaften unter Verwendung des Schaltzustandsraummodells In der Literatur der Sprachkonvertierung (VC) dient das auf dem statistischen Gaußschen Mischungsmodell (GMM) basierende Verfahren als Benchmark. Einer der inhärenten Nachteile von GMM ist jedoch als Diskontinuitätsproblem bekannt, das durch das Transformieren von Merkmalen auf einer Rahmen-für-Rahmen-Basis verursacht wird, wodurch die Dynamik zwischen benachbarten Rahmen ignoriert wird und schließlich zu einer verschlechterten Qualität der umgewandelten Sprache führt. Zur Überwindung dieses Mangels wurde eine Vielzahl von Algorithmen vorgeschlagen, von denen die auf dem Zustandsraummodell (SSM) basierende Methode einige vielversprechende Ergebnisse liefert. In diesem Beitrag stellen wir eine erweiterte Version des traditionellen SSM vor, nämlich das Switching SSM (SSSM). Diese neue Struktur ist flexibler als die herkömmliche, da sie die Verwendung einer Mischung von Komponenten ermöglicht, um die schnellen Übergänge zwischen benachbarten Frames zu berücksichtigen. Darüber hinaus wurde die physikalische Bedeutung der Modellparameter von SSSM eingehend untersucht, was zu effizienten anwendungsspezifischen Trainings- und Transformationsverfahren von VC führte. Es wurden Experimente mit objektiven und subjektiven Messungen durchgeführt, um die Leistungen der konventionellen und der vorgeschlagenen SSM-basierten Methoden zu vergleichen, die überzeugt haben, dass durch SSSM offensichtliche Verbesserungen in beiden Aspekten der Ähnlichkeit und Qualität erzielt werden können.;-;-;-;https://link.springer.com/article/10.1007/s11432-013-4799-4 fe48bb72cdcbd56d37b43faedcadb67e;de;;;1.2.;;;Urethro-rektale Fisteln Ätiologie, Symptome und Diagnose der urethro-rektalen Fistel werden beschrieben. Die chirurgische Behandlung unter besonderer Berücksichtigung der Whitehead-Young-Stone-Operation wird diskutiert. Dieses Verfahren führte in 6 Fällen von urethro-rektalen Fisteln zu guten Ergebnissen. Der Zeitraum der postoperativen Beobachtung variierte von 1 bis 11 Jahren.;-;-;-;https://link.springer.com/article/10.1007/BF02426585 c249922d72d187bc96b7155a83b7d330;de;;;1.3.;;;Genetische Fehlbildungen der kortikalen Entwicklung Die Fehlbildungen der Großhirnrinde sind eine der Hauptursachen für Entwicklungsstörungen, schwere Epilepsie und Fortpflanzungsbenachteiligung. Das Aufkommen hochauflösender MRT-Techniken hat die In-vivo-Identifizierung einer großen Gruppe von kortikalen Fehlbildungsphänotypen erleichtert. Mehrere Fehlbildungssyndrome, die durch eine abnormale kortikale Entwicklung verursacht werden, wurden erkannt und spezifische ursächliche Gendefekte wurden identifiziert. Die periventrikuläre noduläre Heterotopie (PNH) ist eine Fehlbildung der neuronalen Migration, bei der eine Untergruppe von Neuronen nicht in die sich entwickelnde Großhirnrinde wandert. X-chromosomale PNH wird hauptsächlich bei Frauen beobachtet und ist oft mit fokaler Epilepsie verbunden.;-;-;-;https://link.springer.com/article/10.1007/s00221-006-0501-z 07d906719c785bac0235a9dd5e4d4902;de;;;1.2.;;;Ozeanische Sedimente Die Meeresbecken sind die ultimative Senke für alles Material, das von Flüssen transportiert oder von Winden ins Meer geblasen wird. Außerdem produzieren sie große Mengen autochthonen biogenen Materials. Die Sedimente der heutigen Tiefseebecken übertreffen in ihrer räumlichen Ausdehnung alle anderen sedimentären Umgebungen bei weitem. Auch gemessen am Volumen und für einen bestimmten Zeitabschnitt haben Tiefseesedimente in den letzten Jahrmillionen vermutlich andere Sedimenttypen, wie zum Beispiel Schelfablagerungen, überwogen. In den alten Aufzeichnungen fehlt jedoch ein relativ großer Anteil ehemaliger Tiefseesedimente. Diese Materialien wurden subduziert und an konvergenten Plattenrändern teilweise in metamorphes Gestein umgewandelt, in orogene Gürtel eingebaut und durch Hebung erodiert. Nicht-metamorphe Tiefseesedimente spielen jedoch auch in alten Gesteinssequenzen auf den Kontinenten eine große Rolle, deren Identifizierung und Interpretation ein wichtiges Ziel bei Beckenstudien und paläogeographischen Rekonstruktionen sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-77055-5_5 6a76fc9996cbbf3cab450c3a947f4224;de;;;1.3.;;;Gesichtshalluzinationen basierend auf CSGT und PCA In diesem Papier schlagen wir, basierend auf der Circularly Symmetrical Gabor Transform (CSGT) und der Hauptkomponentenanalyse (PCA), einen Ansatz für Gesichtshalluzinationen vor. Bei diesem Ansatz werden alle Gesichtsbilder (sowohl Eingangsgesichtsbild als auch ursprüngliche Trainingsdatenbank) zuerst durch CSGT transformiert und dann werden lokale Extremkriterien verwendet, um die intrinsischen Merkmale der Gesichter zu extrahieren. Basierend auf diesen Merkmalen berechnen wir euklidische Distanzen zwischen dem eingegebenen Gesichtsbild und jedem Gesichtsbild in der ursprünglichen Trainingsdatenbank, und dann werden euklidische Distanzen als Kriterien verwendet, um die geeignete Trainingsdatenbank auszuwählen. Sobald die Trainingsdatenbank ausgewählt ist, wird PCA angewendet, um das eingegebene Gesichtsbild als Linearkombination der ausgewählten Trainingsbilder zu halluzinieren. Experimentelle Ergebnisse zeigen, dass unser Ansatz die Trainingsdatenbank automatisch entsprechend dem eingegebenen Gesichtsbild auswählen kann und ein hochauflösendes Bild von hoher Qualität erhält.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87734-9_47 224b2f4fce7e713db47c12ce2e3ef180;de;;;1.2.;;;Interpretation von Transportdaten Die den verschiedenen Arten des Membrantransports zugrunde liegenden kinetischen Prinzipien wurden in den Kapiteln 3–6 diskutiert, zusammen mit Vorschlägen für experimentelle Vorgehensweisen zur Bestimmung der verschiedenen Transportparameter. In diesem Kapitel werden einige praktische Informationen gegeben, die bei der Interpretation der verschiedenen Aufnahme- und Austrittskurven helfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-0718-1_11 d62927ee285783fa81019d8c3da9a30b;de;;;1.2.;;;Robuste Steuerung für Industrieroboter Die Steuerung von Industrierobotern ist ein anspruchsvolles Problem, da wir stark nichtlineare Multi-Freedom-Systeme, Störgrößen wie Elastizitäten oder Parametervariationen in einem Bereich von etwa 100 Prozent (z. B. durch Nutzlaständerungen) haben. Ziel dieser Arbeit ist es, eine Regelung zu entwickeln, die unempfindlich (robust) gegenüber Parameterschwankungen oder Störungen wie nichtlinearer Kopplung und Elastizität ist. Dieses Ziel wird erreicht, indem man einem Vorschlag von LEITMANN, BREINL, folgt: Eine auf ein nominelles System ausgelegte lineare Regelung (Riccati-Regler) wird von einer nichtlinearen Regelung überlagert, die die Auswirkungen der unbekannten Parameter kompensiert. Die allgemeine Theorie ist für SCARA-Roboter spezifiziert, einschließlich solcher Effekte wie elastische Zahnräder („harmonische Antriebe“) und elastische Arme. Die Steuerung ist komplett dezentral, d.h. entkoppelt für die verschiedenen Achsen. Dies ist einfach zu realisieren und eignet sich daher gut für Echtzeitberechnungen. Um die Effizienz des vorgeschlagenen Regelungskonzepts zu zeigen, werden Simulationen für ein beispielhaftes Manöver vorgestellt. Wenn wir die Nutzlastmasse um 1000 Prozent erhöhen und die Getriebeelastizität um 10 Prozent reduzieren, würde eine klassische Steuerung unerträgliche Überschwing- und Bewegungszeiten aufweisen. Die robuste Steuerung kann jedoch kein Überschwingen und nur geringe Bewegungszeitverlängerungen garantieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-9882-4_22 12b8c9310c033921481a58a194613180;de;;;1.3.;;;Die Reform der berufsbildenden Pädagogischen Hochschulen in der Türkei In der Türkei besteht die technische Ausbildung auf Hochschulniveau seit vielen Jahrzehnten in zwei Hauptrichtungen: der „Fakultät für Ingenieurwissenschaften“ und der „Fakultät für technische Bildung“. Die Fakultäten für Ingenieurwissenschaften sind den Ingenieurschulen und Hochschulen auf der ganzen Welt sehr ähnlich und bilden Ingenieurstudenten aus. Die „Fakultäten für technische Bildung“ ähneln den „Schulen für angewandte Wissenschaften“, die viele europäische Länder haben. Die Absolventen dieser Schulen sind entweder an Gymnasien als Lehrkräfte an technischen oder beruflichen Gymnasien angestellt, selbstständig oder bei anderen staatlichen Organisationen als technisches Personal angestellt. Aufgrund der Beschäftigungsprobleme, mit denen die Absolventen dieser Schulen in den letzten Jahren konfrontiert waren, und der Vorschläge des türkischen Hochschulrates (CoHE) hat das türkische Parlament kürzlich beschlossen, diese Hochschulen zu schließen und neue Hochschulen zu eröffnen im November 2009 als „Fakultät für Technik“ bezeichnet. Nach Angaben des CoHE sollen diese neuen Fakultäten Ingenieurstudenten ausbilden. Die Absolventinnen und Absolventen dieser Fakultäten können mit Lehrbefähigung auch Lehrkräfte an Fach- oder Berufsoberschulen werden. In diesem Papier werden Inhalt, Ausblick und Perspektiven dieser jüngsten Reform erörtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13166-0_52 1b4f8e95751ccd28bfec67b7694dd2a0;de;;;1.2.;;;Ein analytischer Ansatz zur Einführung fortschrittlicher Produktionssysteme Die Einführung neuer Technologien in die Industrie kann für den Benutzer und den Lieferanten eine ärgerliche Erfahrung sein. Der Benutzer kennt oder versteht die neue Methode möglicherweise nicht und weiß auch nicht ihre Anforderungen und Vorteile zu schätzen. Dem Anbieter hingegen sind die Bedürfnisse der Anwender und das breitere Anwendungspotenzial ihrer Produkte oft nicht bekannt. Dieser Beitrag betrachtet eine analytische Methode zur Erfüllung der Anforderungen des Anwenders und Anbieters von CNC-Bearbeitungszentren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-8524-4_57 c34de7c8f9f4bbc5091d1cfd838aaace;de;;;1.3.;;;Analyse von E-Learning-Protokollen, um die Verwirrung der phonemischen Wahrnehmung von Schülern bei der englischen Worterkennung einzuschätzen In der Arbeit haben wir die Lernprotokolldaten von Schülern analysiert, die in einem Worthörlernsystem erhalten wurden, um die Verwirrung der phonemischen Wahrnehmung der Schüler einzuschätzen. Wir ließen zwei Schülergruppen einen Wortdiktattest und einen Wortwahltest machen. Englische Wörter im Wortdiktattest wurden in Phoneme aufgelöst und die Fähigkeiten beider Gruppen zur phonemischen Wahrnehmung wurden durch die Bayes-Regel abgeleitet. Durch den Vergleich der durch die Bayes-Regel geschätzten Ergebnisse mit denen des Wortwahltests haben wir vorgeschlagen, dass die Schätzung gültig und hilfreich ist, um adaptive Worterkennungs-Trainingssysteme aufzubauen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41175-5_33 3ec22ce17d84c0dcc47f99ad0274d8de;de;;;1.3.;;;Politik-, Produktivitäts- und Lehrerbewertung In der Tat haben wir, wie wir jetzt mit schmerzlicher Deutlichkeit sehen, auf lange Sicht für die Aufrechterhaltung unserer herausragenden industriellen Stellung in der Welt nur auf den Verstand unseres Volkes angewiesen. Die öffentliche Bildung wird daher unmerklich nicht als eine Sache der Wohltätigkeit um der einzelnen begünstigten Kinder, sondern als eine Angelegenheit des nationalen Interesses betrachtet, die im Interesse der Gemeinschaft als Ganzes unternommen wird. (Sidney Webb in;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4942-6_16 6f7b920a502a5eeb84ee7770d4346d03;de;;;1.2.;;;Kontextsensitives adaptives Routing für opportunistische Netzwerke Die opportunistische Netzwerkweiterleitung von Nachrichten in einem getrennten mobilen Ad-hoc-Netzwerk über alle angetroffenen Knoten bietet einen neuen Mechanismus zum Ausnutzen der mobilen Geräte, die viele Benutzer bereits tragen. Das Weiterleiten von Nachrichten in einem solchen Netzwerk ist jedoch durch viele besondere Herausforderungen gefangen, und einige Protokolle haben dazu beigetragen, diese teilweise zu lösen. In diesem Papier schlagen wir einen kontextsensitiven adaptiven opportunistischen Routing-Algorithmus (CAAR) vor. Der Algorithmus sagt zuerst den ungefähren Standort und die Orientierung des Zielknotens unter Verwendung seiner Bewegungsschlüsselpositionen und historischen Kommunikationsaufzeichnungen voraus und berechnet dann den besten Nachbarn für den nächsten Sprung unter Verwendung des Standorts und der Geschwindigkeit der Nachbarn. In den unvorhersehbaren Fällen werden Weiterleitungsnachrichten an die fähigeren Weiterleitungsknoten geliefert oder auf eine weitere Übertragung gewartet, während der fähige Knoten nicht in der Nachbarschaft existiert. Der vorgeschlagene Algorithmus berücksichtigt das Bewegungsmuster und kann unterschiedliche Netzwerktopologien und Bewegungen anpassen. Die Versuchsergebnisse zeigen, dass der vorgeschlagene Routing-Algorithmus das Epidemic Forwarding (EF) und das Prophet Forwarding (PF) im Paketzustellungsverhältnis übertrifft und gleichzeitig einen geringen Bandbreiten-Overhead gewährleistet.;-;-;-;https://link.springer.com/article/10.1007/s11859-015-1096-7 3f475de6cf9a38327ec1fbaeba1b11b6;de;;;1.2.;;;Rauschunterdrückung in historischen Fotografien mit einem Fuzzy-Filter mit abgeschnittenem Median Rauschunterdrückungsalgorithmen wurden weitgehend entwickelt, um mit den beiden am klassischsten definierten Arten von Rauschen umzugehen: impulsives und Gaußsches Rauschen. Digitalisierte Bilder, wie sie von historischen Fotografien wie Albuminabzügen stammen, enthalten jedoch eine Form von Quasi-Rauschen, die wir als;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74260-9_107 13985d4d056856c821639f8e931ce15b;de;;;1.3.;;;Ausbildungsstrategie in moderner Analytischer Chemie und Modellcurriculum Ausgehend vom derzeit immer noch zu beobachtenden Gegensatz zwischen der großen und weiter steigenden Bedeutung der Analytischen Chemie in der industriellen Forschung, der Entwicklung und Qualitätskontrolle und der geringen Reputation dieses Faches an vielen Universitäten wird eine Analyse der Ursachen dieser Situation und der möglichen Entwicklung vorgenommen. Als Hauptursache wurde gefunden, dass die meisten Universitätslehrpläne für Analytische Chemie veraltet sind. Sie überlassen die Erziehung in den modernen physikalischen Trenn- und Bestimmungsverfahren und COBAC (Computer Based Analytical Chemistry) sowie deren Anwendung auf Lebensmittel-, Umwelt-, Werkstoffkontrolle usw. Andere Abteilungen und sich auf die Vermittlung überwiegend klassischer Lehrinhalte. Nach einer 1983 durchgeführten Studie der „Working Party on Analytical Chemistry“ der „Federation of European Chemical Societies“ (Vorsitzender: Prof. Dr. E. Pungor) trifft dies besonders für Universitäten zu, die keinen eigenen Lehrstuhl oder Bereich für Analytische Chemie aufweisen. Moderne Analytische Chemie ist jedoch endgültig kein Anhängsel irgendeines anderen Faches mehr, sondern die „fachübergreifende Wissenschaft von der Erzeugung von Information über die Zusammensetzung und Struktur von Materie“. Darüber hinaus ist sie der „Schlüssel zur Problemlösung in materiellen Systemen“. Es ist die — sicher schwierige aber für reizvolle — Aufgabe des Professors Analytische Chemie, gemeinsam mit seinem Team die modernen Lehrinhalte (Chemische Analyse, Physikalische Analyse, Biochemische Analyse, Chemometrie, Analysenstrategie, Werkstoffanalyse, klinische Analyse, Umweltanalytik usw.) nach dem Prinzip der Reduktion auf wissenschaftliche Grundlagen zu präsentieren, so dass die Studenten sterben Literatur lesen can, aber auch für zukünftige Entwicklungen offen sind. Eine solche die Zusammenhänge betonende Präsentation der Grundlagen chemischer und physikalischer Methoden der Analytischen Chemie ist einer phänomenologischen Darstellung weit überlegen. Zur Realisierung dieses geprüften Lehrkonzeptes zur Erziehung eines kritikfähigen Analytischen Chemikers zeigt sich die Form der geistigen „Schule der Analytischen Chemie“ mit deren koordinierter Aufgabenteilung als sehr erfolgreich. Auf der Basis of this and weiterer Überlegungen WIRD EIN idealer Modellehrplan für Analytische Chemie an Technischen Universitäten präsentiert und mit gegenwärtigen Erfahrungen vergleichbar.;-;-;-;https://link.springer.com/article/10.1007/BF00476223 d756527e6c943be553aad6ae060ecafc;de;;;1.3.;;;PPBS als Führungsinstrument für Forschungs- und Hochschuleinrichtungen Ein Experiment mit PPBS an einer Hochschule hat keine valide Erkenntnisgrundlage für eine Entscheidung darüber erbracht, ob PPBS ein geeignetes Instrument zur Steuerung von Hochschulbildung und Forschung ist. Dies ist hauptsächlich auf Lücken oder Fehler bei der Durchführung des Experiments zurückzuführen. Grundsätzlich lassen sich jedoch einige Schlussfolgerungen ziehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-46349-5_6 ae50c8b031e6acd0fc2456cee019ed7f;de;;;1.3.;;;Einführung in Teil I-Themen in Einführungskursen in die Programmierung Programmieren zu lernen ist bekanntlich schwierig. Seit den frühen 1970er Jahren gilt die Vermittlung von Programmieren für Anfänger als große Herausforderung und scheint es – entsprechend der Zahl der Teilnehmer an Programmierkonferenzen – immer noch zu sein [Dijkstra 1969, Gries 1974, McCracken et al. 2001, Robins et al., 2003, Soloway und Spohrer, 1988, Wegner et al., 1996. Tatsächlich gilt es als eine von sieben großen Herausforderungen in der Computerausbildung [Mcgettrick et al., 2005]. Die Einführung in die Programmierung auf Universitätsniveau war die Grundlage für viele lebhafte Diskussionen unter Informatiklehrern [Astrachan et al., 2005, Bailie et al., 2003, Bruce, 2005, SIGCSE-Mitglieder, 2005] und für eine beträchtliche Anzahl von Artikel (z. B. die Suche nach „CS1“ in der digitalen Bibliothek von ACM ergibt 1402 Treffer und die Suche nach „einführende Programmierung“ ergibt 62.654 – [Suche wurde am 20. Dezember 2007 durchgeführt]). Es wurden auch offiziellere Ansätze zur Gestaltung von Computerlehrplänen gewählt – die bekanntesten und einflussreichsten sind die Lehrplanempfehlungen der ACM (American Association for the Computing Machinery) und IEEE (Institute of Electrical and Electronics Engineers, Inc). .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77934-6_1 6a52693f0e5c1bcada3214100ad8dd4e;de;;;1.3.;;;Die Studie zur Weiterbildung von Wanderarbeitern des Känozoikums auf der Grundlage der Informationstechnologie Es ist eine präventive Strategie, um die Weiterbildung von Wanderarbeitnehmern zu fördern und die Zahl durch Qualität zu ersetzen, wodurch Arbeitskräftemangel wirklich vermieden und die Qualität der Arbeitnehmer verbessert wird. Eine angemessene kontinuierliche Ausbildung der Wanderarbeitnehmer aus dem Känozoikum wird die Fluktuationsrate ihrer Arbeit verringern. Im Prozess der Weiterbildung für Wanderarbeiter aus dem Känozoikum gibt es jedoch einige Probleme und Hindernisse, die es zu berücksichtigen gilt. Die aktive Suche nach Maßnahmen zur Förderung der Weiterbildung von Wanderarbeitern des Känozoikums soll den reibungslosen Fortgang des Aufbaus einer effektiven Urbanisierung fördern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23357-9_78 873f3f9bbaabd3524f40c58e066eef6b;de;;;1.3.;;;"Untersuchung der Struktur paralleler Algorithmen als Schlüsselelement der High-Performance-Computing-Ausbildung Da die Computerwelt vollständig parallel geworden ist, sollte jeder Softwareentwickler heute mit dem Begriff der „parallelen Algorithmusstruktur“ vertraut sein. Hatten die Studierenden in den letzten Jahren eine grundlegende Einführung in Algorithmen studiert, muss heute die parallele Algorithmenstruktur ein wesentlicher Bestandteil der Informatikausbildung werden. In dieser Arbeit präsentieren wir zwei Jahre Erfahrung im Unterrichten eines Kurses ""Supercomputer Modeling and Technologies"" und der Durchführung praktischer Aufgaben an der Fakultät für Computermathematik und Kybernetik der Lomonosov-Universität Moskau, die darauf abzielen, Studenten eine Methodik zur Analyse paralleler Algorithmuseigenschaften beizubringen.";-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-10549-5_16 7a0700bcd59b617c6505e4226f566514;de;;;1.3.;;;Eine Studie zum Einstellungsbedarf von kleinen und mittleren Unternehmen und der Talentausbildung lokaler Hochschulen Durch empirische Analyse fasst dieser Beitrag den Einstellungsbedarf mittelständischer Unternehmen wie folgt zusammen: Qualifikationsnachweis, Berufserwartung, berufliche Befähigung, Praxiserfahrung, Berufsmoral, fasst die Charakteristika des Einstellungsbedarfs kleiner und mittelständischer Unternehmen zusammen. großen Unternehmen und gibt dann einige Vorschläge für die Reform der Talentausbildung lokaler Hochschulen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_133 0aeb89a1da043de2c05ef819a95d8bd6;de;;;1.3.;;;Lernmodelle zur Aktivitätserkennung im Smart Home Die automatische Erkennung von Aktivitäten in einem Smart Home ist nützlich für das unabhängige Leben älterer Menschen und die Fernüberwachung von Patienten. Lernmethoden werden angewendet, um Aktivitäten zu erkennen, indem die Informationen der in einem Smart Home installierten Sensoren verwendet werden. In diesem Papier präsentieren wir eine vergleichende Studie mit fünf Lernmodellen, die auf die Aktivitätserkennung angewendet werden, und zeigen ihre Stärken und Schwächen unter verschiedenen herausfordernden Bedingungen auf. Zu den Herausforderungen zählen hohe klasseninterne, geringe klassenübergreifende Variationen, unzuverlässige Sensordaten und eine unausgewogene Anzahl von Aktivitätsinstanzen pro Klasse. Dieselben Merkmale werden als Input für die Lernansätze verwendet. Die Auswertung erfolgt anhand von vier öffentlich zugänglichen Smart-Home-Datensätzen. Die Analyse der Ergebnisse zeigt, dass Support Vector Machine (SVM) und Evidence-Theoretic K-nearest Neighbors (ET-KNN) im Vergleich zu den Lernmethoden Probabilistic Neural Network (PNN), K-Nearest Neighbor (KNN) und Naive Bayes (NB .) ) schnitten bei der korrekten Erkennung der Smart-Home-Aktivitäten besser ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46578-3_97 91d2b74eda4e78acf9e05889183930ed;de;;;1.3.;;;Eine kombinierte AdaBoost- und NEWFM-Technik zur Klassifizierung medizinischer Daten Für die medizinische Datenklassifizierung und Krankheitsdiagnose wird eine Hybridtechnik vorgeschlagen, die das AdaBoost-Ensemble-Verfahren mit dem neuronalen Netz mit Fuzzy-Mitgliedschaftsfunktion (NEWFM)-Verfahren kombiniert. Die Kombination von Adaboost, einer allgemeinen Methode zur Verbesserung der Leistung von Lernmethoden, mit dem „Standard“ NEWFM, der als Basisklassifizierer verwendet wird, gewährleistet eine bessere Genauigkeit bei der Klassifizierung medizinischer Daten und der Diagnose von Krankheiten. Zur Validierung des Vorschlags wurden vier medizinische Datensätze verwendet, die sich auf die Erkennung epileptischer Anfälle, Parkinson, kardiovaskuläre (Herz-) und Hepatitis-Diagnosen beziehen. Die Ergebnisse zeigen eine durchschnittliche Klassifikationsgenauigkeit von 95,8% (bestehend aus der besten Genauigkeit von 99,5% für epileptische Anfälle, 87,9% für Parkinson, 97,4% für kardiovaskuläre (Herz-)Erkrankungen und 98,7% für Hepatitis-Datensatzklassifikationen), was darauf hindeutet, dass die Die vorgeschlagene Technik ist in der Lage, medizinische Daten effizient zu klassifizieren und potenzielle Anwendungen in der Krankheitsdiagnose und -behandlung zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46578-3_95 da9e0d3514f287392bfe5ae94b472221;de;;;1.3.;;;Integrierte Gestaltung von Grundbildungs-, Praktikums- und Abschlussmodulen im Lehramtsstudium: Wahrnehmung von Hochschullehrern, Studierenden und Lehrkräften Die Lehrerausbildung an der Blanquerna-Fakultät für Psychologie und Erziehungs- und Sportwissenschaften (FPCEE) in Barcelona hat eine lange pädagogische Tradition, die auf dem Lehren von Innovation basiert. Ihr Unterrichtsstil ist geprägt von Methoden, die auf die Einbindung der Studierenden ausgerichtet sind und eine enge Zusammenarbeit mit den Lehrpraxiszentren. Innerhalb eines Kernfachs des Lehramtsstudiums wurden die Studierenden gebeten, verschiedene methodische Vorschläge zur Förderung der Entwicklung ihrer persönlichen, sozialen und fachlichen Kompetenzen zu bewerten. In den Bewertungsumfragen lagen bei einer Stichprobe von 145 Schülern die Werte für die Variablen sehr zufriedenstellend oder zufriedenstellend zwischen 95,8 % und 83,4 % für die gesamte Reihe der untersuchten methodischen Maßnahmen. Die in dieser ersten Forschungsphase gewonnenen Daten waren sehr hilfreich, um Basisbildungsmodule für das neue Lehramtsstudium zu konzipieren. In der zweiten Phase (in Bearbeitung) werden aktive Lehrkräfte nach ihrer Wahrnehmung zur Orientierung des Praktikums, ihrem Zusammenhang mit der Abschlussarbeit und dem Einfluss der berufsbegleitenden Studierenden auf schulische Innovationsprozesse befragt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13166-0_91 3c3043bc512a75c1ccbcb53c2488f884;de;;;1.3.;;;Veränderungen der räumlichen Organisation kortikaler Rhythmusschwingungen bei Kindern unter dem Einfluss von Musik Veränderungen der systemischen Gehirnaktivität unter dem Einfluss klassischer Musik (kleine und große Musik) wurden anhand von zwei Gruppen gesunder Kinder im Alter von fünf bis sechs Jahren untersucht (;-;-;-;https://link.springer.com/article/10.1134/S0362119715050138 62076cb84f4fdebd070dd8bfc011d668;de;;;1.2.;;;Forschung und Theorie zum Redenschreiben Dieses Kapitel gibt einen Überblick über die wissenschaftliche Forschung zum Redenschreiben. Die meisten Forschungen beschäftigen sich mit der Rhetorik des Präsidenten in den USA und beschreiben das Redenschreiben in verschiedenen Verwaltungen des Weißen Hauses. Diese Studien basieren in der Regel auf historischen Recherchen und Biografien sowie auf Interviews mit ehemaligen und aktiven Redenschreibern. Außerhalb der USA kommt die meiste Forschung aus Nordeuropa und untersucht häufig den Prozess des Redenschreibens in Regierungsministerien. Wir beschreiben drei Hauptbereiche zeitgenössischer Forschung zum Redenschreiben: erstens das Thema Ethik sowohl in der Politik als auch in der Unternehmenskommunikation, zweitens die Forschung zu institutionellen und prozessualen Fragen, drittens die Forschung zu Sprecherstil, Charakter und Authentizität und schließlich wir Erwähnen Sie die Art und Weise, wie das Redenschreiben studiert wird, wobei Interviews mit Redenschreibern am häufigsten vorkommen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-03685-0_4 205a57760d806e21ac8811ade32cf21b;de;;;1.3.;;;Der Einsatz von 3D-Druckern in der medizinischen Ausbildung mit Fokus auf Knochenpathologie Das Ziel dieser Studie war es, die Machbarkeit und Wirksamkeit der Integration von dreidimensionalen (3D) gedruckten Modellen in Pathologievorlesungen zu bestimmen. 3D-Modelle eines Osteochondroms und eines Osteosarkoms wurden aus einem digitalen Modell bzw. einer MRT gedruckt, wobei sowohl stereolithographische als auch fusionierte Ablagerungsmodellierungsdrucktechniken verwendet wurden. Medizinstudenten im ersten Jahr ohne vorherige Schulung zu Knochentumoren wurden in zwei Gruppen randomisiert: eine Kontrollgruppe mit 2D-Bildern und eine experimentelle Gruppe mit 3D-Modellen. Die Studenten sahen sich einen aufgezeichneten Vortrag über Knochentumore an, ergänzt durch den Umgang mit 2D-Bildern oder 3D-Modellen eines Osteochondroms und Osteosarkoms. Die Leistung bei Bewertungen vor und nach der Aktivität wurde verglichen, um die pädagogische Wirksamkeit zu bewerten. Das Drucken von 3D-Modellen von Knochentumoren war relativ einfach und kostengünstig. Die Bewertungsdaten zeigten, dass, obwohl beide Gruppen eine verbesserte Leistung und ein größeres Vertrauen nach der Vorlesung hatten, diejenigen, die mit 3D-Modellen arbeiteten, eine bessere Erfahrung machten als diejenigen mit den 2D-Bildern. Diese Studie zeigt, dass 3D-gedruckte Modelle in eine Pathologie-Vorlesung integriert werden können und Lehr-Lern-Ergebnisse positiv beeinflussen können.;-;-;-;https://link.springer.com/article/10.1007/s40670-021-01222-0 3334af9bc2f581e79f0de0fb48467386;de;;;1.3.;;;Wissensnetzwerke in der Pflege Im letzten Kapitel dieser vierten Auflage werden Wissensnetzwerke in der Pflege diskutiert und vorgestellt. Aufbauend auf den Diskussionen in Kap. 16 Beispiele aus verschiedenen Pflegepraxisdomänen werden anhand konkreter Fälle einbezogen. Dieses Kapitel zeigt, wie die Pflege als Beruf spezifische gesellschaftliche Herausforderungen angeht, indem sie Praxisgemeinschaften als potenzielle Lösung nutzt. Die Teilnehmer der Communitys of Practice nutzen ihr Wissen, um gemeinsam Online-Ressourcen zu erstellen, die das Potenzial haben, die Ergebnisse der Bürger in der Gesellschaft positiv zu beeinflussen und gleichzeitig den Pflegeberuf voranzubringen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-2999-8_21 69add68b8e2bce751eae24e5c461a389;de;;;1.3.;;;Data Science Postgraduate Education an der University of Dar es Salaam in Tansania: Aktuelle Anforderungen und Chancen Mehrere Studien weisen darauf hin, dass es auf dem Markt nicht genügend Leute mit Data-Science-Kenntnissen gibt und selbst IKT-Absolventen von Universitäten nicht über die von Arbeitgebern geforderten Fähigkeiten verfügen. Daher haben Forscher vorgeschlagen, dass Universitäten ihre Lehrpläne dringend überprüfen müssen, da die Welt auf das Datenzeitalter zusteuert. Das Ziel dieser Forschung war es, die aktuellen Qualifikationslücken von Interessengruppen und Möglichkeiten zu analysieren, um ein Data Science-Postgraduiertenprogramm einzurichten, das die aktuellen technologischen Trends und Marktanforderungen an der University of Dar es Salaam (UDSM) widerspiegelt. Ein Fragebogen wurde an 85 identifizierte Organisationen verteilt, um Informationen über den Bedarf an Datenwissenschaftlern und bestehende Qualifikationslücken zu erhalten. Von den 85 ausgefüllten Fragebögen, die an ausgewählte Organisationen verteilt wurden, gingen insgesamt 61 ausgefüllte Fragebögen ein, was auf eine Beteiligungsrate von über 70 % hinweist. Insgesamt lieferten die analysierten Daten einen überzeugenden Beweis für den wachsenden Bedarf der lokalen Industrie an Datenwissenschaftlern. Im Anschluss an die durchgeführte Umfrage wurden verschiedene Workshops und Treffen durchgeführt, um Beiträge von verschiedenen Experten und Interessenvertretern zu verschiedenen Versionen des entwickelten Curriculums einzuholen. Schließlich wurde ein neues Programm in MSc in Data Science genehmigt und ab April 2018 an der UDSM eingerichtet. Trotz seiner verspäteten Genehmigung und ohne formelle Werbung in den öffentlichen Medien zog das Programm für das Studienjahr 2018/19 eine große Anzahl von Bewerbern an, im Vergleich zu mehreren anderen postgradualen Studiengängen in IKT, die an der UDSM angeboten werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-19115-3_29 b576a5737dfe1f970d76b3edcef370a5;de;;;1.2.;;;Die Zusammenstellung einer DTM und einer neuen Satellitenbildkarte für King George Island, Antarktis Eine verbesserte topografische Datenbank für King George Island, eine der am häufigsten besuchten Regionen der Antarktis, wird vorgestellt. Ein erster Schritt bestand darin, Daten aus differentiellen GPS-Vermessungen, die während der Südsommer 1997–1998 und 1999–2000 gewonnen wurden, mit der aktuellen Küstenlinie aus einem SPOT-Satellitenbildmosaik, topografischen Informationen aus bestehenden Karten und aus der Antarctic Digital Database zu kombinieren. Aus diesen Datensätzen wurde mit Arc/Info GIS ein digitales Geländemodell (DTM) generiert. In einem zweiten Schritt wurde aus Höhenlinien aus dem DGM und dem Satellitenmosaik eine Satellitenbildkarte im Maßstab 1:100 000 zusammengestellt. Im östlichen Teil der Insel wurde ein Mangel an genauen topografischen Informationen festgestellt. Zusätzliche topografische Vermessung oder SAR-Interferometrie sollten verwendet werden, um die Datenqualität in diesem Bereich zu verbessern. Die integrierte GIS-Datenbank wird für glaziologische und klimatologische Studien sowie für administrative und wissenschaftliche Zwecke unverzichtbar sein. Zukünftig wird die Anwendung von GIS-Techniken für Umweltverträglichkeitsstudien und Umweltmonitoring sowie für Managementpläne auf King George Island obligatorisch sein.;-;-;-;https://link.springer.com/article/10.1007/BF02826977 acb4fd55f0735828e1d9cea0557c3553;de;;;1.2.;;;Bewegungssegmentierung und Posenerkennung mit Bewegungsverlaufsverläufen Dieses Papier stellt eine schnelle und einfache Methode vor, die ein zeitgesteuertes Bewegungsverlaufsbild (tMHI) verwendet, um Bewegung aus den Gradienten in nacheinander geschichteten Silhouetten darzustellen. Diese Darstellung kann verwendet werden, um (a) die aktuelle Pose des Objekts zu bestimmen und (b) die durch das Objekt in einer Videoszene induzierten Bewegungen zu segmentieren und zu messen. Diese segmentierten Regionen sind keine „Bewegungsblobs“, sondern Bewegungsregionen, die auf natürliche Weise mit Teilen des sich bewegenden Objekts verbunden sind. Diese Methode kann als eine sehr allgemeine „Werkzeugkiste“ zur Gestenerkennung verwendet werden. Wir demonstrieren den Ansatz mit der Erkennung von Wink- und Überkopfklatschbewegungen zur Steuerung eines Musiksyntheseprogramms.;-;-;-;https://link.springer.com/article/10.1007/s001380100064 833317d43eeffcc987fff6abd83e5613;de;;;1.2.;;;Annäherung an die Traditionelle Chinesische Medizin: Vererbung und Erforschung Die Traditionelle Chinesische Medizin (TCM) ist eine Schatzkammer für den Menschen, sie wird in China seit Tausenden von Jahren angewendet und hat wesentlich zum Wachstum und Gedeihen der chinesischen Nation beigetragen. TCM ist nicht einfach gleichzusetzen mit Naturheilkunde, sie ist eine Sammlung von natürlichen Ressourcen, chinesischer Kultur, historischer Erfahrung und moderner Forschung. Warum gibt es seit dem letzten Jahrhundert nur wenig Erfolg bei der Suche nach New Chemical Entity (NCE) aus der TCM? Abgesehen von Geschichte und Kultur, die nicht auf klinischen Praktiken basiert, ist wahrscheinlich die Unkenntnis wasserlöslicher Komponenten die Antwort.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-1455-8_1 8bd25b3b9737d72f0541dc2aab710bc8;de;;;1.3.;;;Das T-Recs Tischerkennungs- und Analysesystem Dieser Beitrag stellt einen neuen Ansatz zur Erkennung von Tabellenstrukturen sowie zur Layoutanalyse vor. Der diskutierte Erkennungsprozess unterscheidet sich erheblich von bestehenden Ansätzen, da er eine Bottom-Up-Clustering gegebener Wortsegmente realisiert, während herkömmliche Tabellenstruktur-Erkenner alle auf die Erkennung einiger Trennzeichen wie Abgrenzung oder signifikanter Leerraum angewiesen sind, um eine Seite von oben zu analysieren. Nieder. Die nachfolgende Analyse der erkannten Layoutelemente basiert auf dem Aufbau einer Kachelstruktur und erkennt zeilen- und/oder spaltenübergreifende Zellen sowie spärliche Tabellen mit hoher Sicherheit. Das Gesamtsystem ist vollständig domänenunabhängig, vernachlässigt optional Textinhalte und kann somit auf beliebige Mixed-Mode-Dokumente (mit oder ohne Tabellen) jeder Sprache angewendet werden und arbeitet sogar mit OCR-Dokumenten geringer Qualität (z. B. Faksimile).;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48172-9_21 665b0e8e4ac550688af4a4c8e68046c3;de;;;1.3.;;;Monte-Carlo-Simulationstechniken für die quantitative Röntgenmikroanalyse Monte-Carlo-Simulationen der Elektronendiffusion werden aufgrund der zunehmenden Geschwindigkeit und Speicherfähigkeit moderner PCs für die Rasterelektronenmikroskopie (REM), die Röntgenmikroanalyse (XRMA) und die Auger-Elektronenspektroskopie (AES) immer interessanter. Auch für komplexe Probenstrukturen können Tiefenverteilungsfunktionen in weniger als einer Minute berechnet werden. Um Monte-Carlo-Simulationen im Energiebereich von 0,1–50 keV anzuwenden, ist es notwendig, eine Datenbank mit elastischen Mott-Querschnitten zu verwenden, die nach der Teilwellenmethode berechnet wurden. Für die meisten Anwendungen reicht es aus, inelastische Streuung nach der Bethe-Continous-Slowing-Down-Näherung und Innenschalen-Ionisationen mit Energieverlusten größer 100–200 eV durch den Gryzinski-Querschnitt zu berücksichtigen. Zur besseren Berücksichtigung von Nachzieheffekten beim Abbremsen werden in Zukunft Energieverlustfunktionen interessant, die durch eine Kramers-Kronig-Analyse experimenteller Elektronenenergieverlustspektren (EELS) gewonnen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-6555-3_1 7136c3c33f3181ecb6b709eb79bf8b7e;de;;;1.2.;;;Genetische Kopplungsanalyse bei früh einsetzender familiärer Alzheimer-Demenz Bei mindestens 50 % aller Patienten mit seniler Demenz wird klinisch eine Alzheimer-Krankheit diagnostiziert (AD, Terry und Katzman 1983). Bei der Autopsie wird AD durch die große Häufigkeit von senilen Plaques und neurofibrillären Tangles im Gehirn, insbesondere im Hippocampus und in der Großhirnrinde, bestätigt (Brun 1983). Bei bis zu 40% dieser AD-Patienten gibt es starke Hinweise auf eine frühere Familienanamnese der Krankheit, was darauf hindeutet, dass ein genetisch prädisponierender Faktor an dieser neurodegenerativen Erkrankung beteiligt ist (Davies 1986, Fitch et al. 1988). In einigen Familien segregiert die Krankheit nach einem klaren autosomal-dominanten Vererbungsmuster (Davies 1986, Bird et al. 1988). Obwohl zwischen diesen Familien große Unterschiede in Bezug auf das Alter bei Beginn der Krankheitssymptome, die Dauer der Erkrankung und die klinische Manifestation der Erkrankung bestehen, kann eine genetische Kopplungsanalyse der Stammbäume mit polymorphen DNA-Markern hilfreich sein, um den für die Krankheit verantwortlichen primären Defekt zu lokalisieren in den Familien (Davies 1986, Botstein et al. 1980).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-74034-3_9 7b7a0d6cdbe36cc6397f8faa2fcc3a0d;de;;;1.3.;;;Ein schneller SMO-Trainingsalgorithmus für die Support-Vektor-Regression Support Vector Regression (SVR) ist ein leistungsstarkes Werkzeug zur Lösung von Regressionsproblemen. Dieses Papier schlägt einen schnellen Sequential Minimal Optimization (SMO)-Algorithmus für das Training der Support Vector Regression (SVR) vor, der zunächst eine analytische Lösung für die quadratische Programmierung (QP) der Größe zwei liefert. Problem, schlägt dann ein neues heuristisches Verfahren vor, um den Arbeitssatz auszuwählen, der zu einer schnelleren Konvergenz des Algorithmus führt. Die Simulationsergebnisse zeigen, dass der vorgeschlagene SMO-Algorithmus die Trainingszeit des SVR reduzieren kann und die Leistung des vorgeschlagenen SMO-Algorithmus besser ist als die des ursprünglichen SMO-Algorithmus.;-;-;-;https://link.springer.com/chapter/10.1007/11539087_26 b59d82211a652261a14724c0d979a60e;de;;;1.3.;;;Automatische Dokumentationserstellung: Inklusive Beispiele Eine gute Dokumentation ist entscheidend für die Benutzerakzeptanz eines Systems, und empirische Studien haben gezeigt, dass Beispiele die Effektivität der Systemdokumentation erheblich steigern können. Studien zeigen jedoch auch, dass schlecht integrierte Texte und Beispiele im Vergleich zur alleinigen Verwendung von Text oder Beispielen tatsächlich schädlich sein können. Es ist daher klar, dass ein System in der Lage sein muss, gut integrierte Beispiele zur Veranschaulichung seiner Punkte bereitzustellen, um eine nützliche Dokumentation automatisch bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0034794 e8b273522cfc9a3bc05477c4d2bf68cf;de;;;1.2.;;;Relativistische Magnet-Dipol-Übergänge in Atomen, Ionen und Psionen Da mein Vortrag bis zu einem gewissen Grad die enorme Reichweite und Leistungsfähigkeit der Quantenelektrodynamik veranschaulichen wird, kann es angebracht sein, darauf hinzuweisen, dass das Eingangsdatum von Diracs Aufsatz;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-4202-1_23 4da1cdbef6231073ecfb1d9b53757749;de;;;1.2.;;;Das Doublet III Neutral Beam Injektor Kryosystem Plasmaheizexperimente mit neutraler Strahlinjektion in den Doublet III-Tokamak laufen seit September 1981. Kryoplatten, die im Strahllinien-Vakuumpumpsystem verwendet werden, werden durch ein Kühlsystem mit geschlossenem Kreislauf auf 3,8 K gekühlt. Die Evaluierung der ersten Strahllinie wurde mit einem 25-l/h-Verflüssiger und einem einzigartigen Rückverflüssigungswärmetauscher durchgeführt, um einen subatmosphärischen Betrieb und Plattendurchflussraten von 140 l/h zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-9865-3_45 22775de1e634369ff6baaaffa29f1ec5;de;;;1.3.;;;Trägheits-Corioliskraft-Störungen von Arm- und Kopfbewegungen enthüllen häufige, nicht-vestibuläre Mechanismen Nick- oder Rollkopfbewegungen während der passiven Rotation neigen dazu, ekelerregend und desorientierend zu sein. Traditionell wurden diese Effekte ausschließlich mit dem ungewöhnlichen Muster der vestibulären Stimulation in Verbindung gebracht, das oft als Coriolis, Cross-Coupled-Stimulation (CCS) bezeichnet wird und durch solche Bewegungen erzeugt wird (;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-1931-7_42 b19bfb9c2a257a750e9485ebf93924f9;de;;;1.2.;;;Levitationsanwendungen von Hochtemperatur-Supraleitern Abbildung 1 zeigt einen Permanentmagneten (PM), der stabil über einem Hochtemperatur-Supraleiter (HTS) schwebt. Bilder wie dieses sind zu einem bekannten Symbol für die HTS-Technologie geworden. Seine Popularität rührt vielleicht von der Leichtigkeit her, mit der die Demonstration durchgeführt werden kann – ein einfacher Styroporbecher mit flüssigem Stickstoff, ein gewöhnlicher PM und ein HTS, der in den meisten Keramiköfen hergestellt werden kann. Gleichzeitig ruft das Bild ein Gefühl von Ehrfurcht und Geheimnis hervor, hervorgerufen durch ein Objekt, das durch einen unsichtbaren Mechanismus stabil aufgehängt ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-07764-1_6 24077f7c9f7f100f1db9a40bcffc37cc;de;;;1.2.;;;Viskosität als Vorbild für bei hoher Temperatur kriechende Gesteine Viele konstitutive Gesetze wurden vorgeschlagen, um das rheologische Verhalten von Naturstoffen zu modellieren. Sie müssen einige allgemeine Prinzipien erfüllen, von denen das offensichtlichste ist:;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-3563-1_5 4a6ae0b33b7c036c13a7a612758cad0f;de;;;1.2.;;;Auswirkungsszenario für eine eingeführte Dekapode auf arktische epibenthische Gemeinschaften Die absichtliche Einführung einer Art zur Bestandsverbesserung oder zur Gründung neuer Fischereien hat oft unvorhergesehene Auswirkungen. Die roten Königskrabben,;-;-;-;https://link.springer.com/article/10.1007/s10530-004-2996-1 8da75829e6eef47e6897936c1c90c01e;de;;;1.3.;;;Design intelligenter künstlicher Agenten: Ihre Anwendung bei der gemeinsamen Aufmerksamkeitsaufgabe für Kinder mit Autismus In letzter Zeit gewinnen computerbasierte Anwendungen für das Fertigkeitstraining an Popularität. Eine wichtige Zutat ist ein Mediator. Daher ist die Gestaltung realistischer künstlicher Agenten (Agenten), die die Rolle des Mediators übernehmen, wichtig. Der Agent muss wie ein echter Mensch aussehen, der naturalistisches Verhalten zeigt. Der Agent kann einen Teint, eine Haarfarbe usw. aufweisen, die die Nationalität des Benutzers darstellen. Außerdem werden die Agenten mit Intelligenz ausgestattet, wie beispielsweise bei der Agenten-Mediated Joint Attention (JA)-Aufgabe. Die JA-Fähigkeit bezieht sich auf die Fähigkeit, sich mit einem Sozialpartner im gemeinsamen Raum um ein Objekt zu kümmern. Derzeit existierende computerbasierte agentenvermittelte JA-Aufgaben verwenden jedoch entweder Agenten, die nicht menschenähnlich sind oder die nur das Gesicht zeigen, was den Realismus stiehlt. In unserer aktuellen Forschung haben wir Mittel mit indischem Aussehen entwickelt, die sich natürlich verhalten. Außerdem ermöglicht die intelligente Engine ihnen, JA-Aufgaben intelligent zu verwalten. Die Ergebnisse einer Studie mit sechs sich typischerweise entwickelnden (TD) Kindern und sechs mit Autismus-Spektrum-Störung (ASS) sind vielversprechend.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-25213-7_9 c80c792ef0ab67245749a5d6609b1f12;de;;;1.3.;;;Bildungswandel in Japan: Schulreformen Dieses Kapitel untersucht Japans Bildungsreformen in den 1980er und 1990er Jahren. Das heutige Schulsystem wurde gebaut, um die Industrialisierung Japans zu fördern, und ist mittlerweile veraltet. Der Schwerpunkt der Bildungsreform des letzten Jahrzehnts war die Diversifizierung der Schulen weg von Uniformität und Starrheit. Zu den Strategien gehören: Einführung neuer Lehrpläne, Einführung innovativer Gymnasien und Erhöhung der Autonomie der Universitäten, um Lehrpläne, Lehre und Forschung zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-4454-2_5 3d5fab9b32654aeb6b1005bc42ae8da1;de;;;1.3.;;;Physiologische Reaktionen auf körperliche Bewegung des gesunden Kindes Um die Reaktion des kranken Kindes auf Bewegung zu verstehen, muss man sich zunächst mit der „normalen“ physiologischen Reaktion auf Bewegung vertraut machen. Ob sich das Kind an eine einzelne Trainingseinheit oder an wiederholte Trainingsreize anpasst, das Kind unterliegt – wie der Erwachsene – physiologischen Veränderungen. Die grundlegende Prämisse dieses Kapitels ist, dass, obwohl solche Veränderungen in jedem Alter stattfinden, es wachstums- oder entwicklungsbedingte Unterschiede bei der Reaktion auf Anstrengung gibt. Wir erwarten nicht, dass ein 6-jähriges Kind so schnell oder so weit läuft wie ein Teenager, der wiederum langsamer und schwächer ist als ein junger Erwachsener. Ein Kind kann auch nicht die gleiche Muskelkraft haben wie ein reiferes Individuum. Auf der anderen Seite erholen sich Kinder schneller von der Belastung und sind früher bereit für einen weiteren Kampf als Jugendliche und Erwachsene.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-5593-2_1 41aafd73122dfcc140a8a001ad13f8b9;de;;;1.3.;;;Design der periodischen Trainingssequenz zur gemeinsamen Kanal- und Frequenzschätzung in frequenzselektiven MIMO-Kanälen Dieses Papier betrachtet das Design einer periodischen Trainingssequenz (TS) zur gemeinsamen Kanal- und Frequenzschätzung in frequenzselektiven Kanälen mit mehreren Eingängen und mehreren Ausgängen (MIMO). Das Designkriterium für den periodischen TS besteht darin, den mittleren quadratischen Fehler (MSE) der Maximum-Likelihood-Channel-Schätzung und die asymptotische Cramer-Rao-Grenze (CRB) für die Frequenzschätzung gemeinsam zu minimieren. Dieses Papier zeigt, dass alle TSs, die den MSE der Kanalschätzung minimieren, denselben asymptotischen CRB für die Frequenzschätzung haben. Darüber hinaus minimieren sie auch die asymptotischen CRBas, solange der Kanal i.i.d. Rayleigh verblassen. Der Entwurf von Frequenzschätzern mit niedriger Komplexität basierend auf der vorgeschlagenen periodischen TS wird ebenfalls untersucht. Schließlich wird die Leistung des vorgeschlagenen periodischen TS durch Simulationsergebnisse bewertet.;-;-;-;https://link.springer.com/article/10.1007/s00034-006-0425-7 20f6045d335b3adb3118485876a325a7;de;;;1.2.;;;CO in der Milchstraße Wenn man die CO-Verteilung der Milchstraße eher als verkürzte Exponentialverteilung als als molekularen Ring mit etwas Gas in großen Radien beschreibt, wird es einfacher, die Entwicklung der Sternenscheibe zu verstehen. Die Sternentstehungsrate pro Einheit der molekularen Gasmasse ist als Funktion des Radius konstant, und die H;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-5414-7_2 834cab088a1ed7fad2f1801f9c6f1b18;de;;;1.2.;;;Regressionsmodelle In den vorangegangenen drei Kapiteln haben wir hauptsächlich verschiedene Arten von statistischen Inferenzen untersucht, die für die Analyse von Lebensverlaufsdaten von Individuen, die in geschichtet sind, anwendbar sind;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-4348-9_7 91ab1005116d83fc438948cd5c8fa446;de;;;1.3.;;;Der Wert der Peer-Evaluation für die Verbesserung der Qualität der Hochschulbildung in der Luft- und Raumfahrt in ganz Europa Das Papier stellt die Ergebnisse eines Pilotprojekts vor, das darauf abzielt, ein sektorspezifisches Qualitätssystem vorzuschlagen, das die bestehenden nationalen oder europäischen Akkreditierungssysteme ergänzen kann und einen Mehrwert für die internen und/oder externen Qualitätssicherungsverfahren bietet, die an den meisten EU-Universitäten vorhanden sind . Das vorgeschlagene System sieht insbesondere einen Besuch vor Ort durch eine Gruppe von Peers vor, um die für den zu evaluierenden Studiengang erstellten Daten und Dokumente zu überprüfen und zu validieren. Die Ergebnisse der Umsetzung dieses Verfahrens an 8 Universitäten werden auf Basis der Rückmeldungen diskutiert, um den Nutzen des Verfahrens aus Sicht des Anbieters des Luft- und Raumfahrtstudiums zu bewerten.;-;-;-;https://link.springer.com/article/10.1007/BF03404744 cd2e03293e2933a1297e06356112194d;de;;;1.3.;;;Wiederverwertbarer Kobalt-Molybdän-Bimetallcarbid-modifizierter Separator fördert die Polysulfid-Adsorptions-Katalyse von Lithium-Schwefel-Batterien Der Polysulfid-Shuttle und die träge Redox-Kinetik aufgrund der notorischen Adsorptions-Katalyse-Unterleistung sind die ultimativen Hindernisse für die praktische Anwendung von Lithium-Schwefel-Batterien (Li-S). Herkömmliche Materiallösungen auf Kohlenstoffbasis und Übergangsmetallverbindungsbasis leiden im Allgemeinen unter schlechter Katalyse bzw. Adsorption, trotz des Leistungsgewinns in Bezug auf das andere. Hier haben wir die Adsorptions-katalytische Fähigkeit von Polysulfiden verbessert und die Li-Anode mit einem komplementären Bimetallcarbid-Elektrokatalysator, Co ., geschützt;-;-;-;https://link.springer.com/article/10.1007/s40843-020-1425-2 2d814b4ff0b48e3cb647d95a7a2ed130;de;;;1.3.;;;Praxis des Prozessmodells zur Evakuierung von Menschenmengen mit zellularen Automaten basierend auf Sicherheitstraining Um das Problem zu lösen, dass sich das Crowd-Evacuating-Prozessmodell mit zellularen Automaten stark vom realen Crowd-Evacuating-Prozess unterscheidet, wird das Crowd-Evacuating-Prozessmodell mit zellularen Automaten auf der Grundlage von Sicherheitstrainings behandelt. Der auf Sicherheitstrainings basierende Prozess zur Evakuierung von Menschenmengen wird simuliert und vorhergesagt, und das Ergebnis ist der Realität sehr nahe. Durch die vertikale Platzierung der Regale wird sowohl eine höhere Fluchtrate als auch eine größere Regalfläche von bis zu 216 m² erreicht;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21524-7_31 21aa6542542ded7757733c4554588a3f;de;;;1.2.;;;Räumliche Kartierung und Modellierung der Arsenbelastung des Grundwassers und Risikobewertung durch Geointerpolationstechnik Die räumliche Interpolationstechnik ist nützlich für die räumliche Kartierung mit spärlichen Daten, die von in-situ-Sampling-Quellen bezogen werden. Durch räumliche Interpolation wurde eine Wand-zu-Wand-Kartierung der Arsenkonzentration im Grundwasser für das gesamte Untersuchungsgebiet unter Verwendung bekannter Konzentrationswerte an nahegelegenen Standorten (Aquiferen) unter homogenen Geländebedingungen durchgeführt. Diese vorliegende Studie schlägt eine empirische Methodik durch Interpolationsansatz zur räumlichen Kartierung der saisonalen und jährlichen Grundwasser-Arsen-Kontamination im Distrikt North 24 Parganas vor, der zufällig einer der am stärksten von Arsen betroffenen Distrikte Westbengalens, Indien, im Bengalischen Becken ist. Zwei Arten von Interpolationsansätzen, Thiessen-Polygon und Kriging, wurden für die räumliche Kartierung der Arsenverteilung verwendet. Auf der Grundlage einer räumlichen Verteilungskarte wurde für den gesamten Bezirk eine Einteilung in sieben Arsenkonzentrationszonen mit unterschiedlichen Kontaminationen durch Arsen im Grundwasser vorgenommen (0,01 mg/L als WHO-deklarierter Höchstwert für sichere Zone). In dieser Studie wurden insgesamt sechs saisonale (Vor-/Nachmonsun-)Daten von 2006 bis 2008 interpretiert, um zeitliche Veränderungen der Arsenkonzentration im Grundwasser zu untersuchen und schließlich die zukünftige Entwicklung zu projizieren. Die zukünftige Trendbewertung der Arsenkontamination wurde durch statistische Analysen durchgeführt, die einer linearen Regressionsgleichung entsprechen. Diese Studie zeigt, dass die nicht betroffenen Blöcke in der Vormonsunzeit (März–April–Mai) des Jahres 2006 bis zum Ende des Jahres 2008 erheblich betroffen waren. Aus dem Regressionsmodell wurde vorhergesagt, dass dieser Trend anhält , dann werden nach zehn Jahren 2/3 Blöcke der genannten Bezirke von Arsen betroffen sein.;-;-;-;https://link.springer.com/article/10.1007/s10668-019-00322-7 6048371421c9cc79e4cdae9417f2fbf7;de;;;1.2.;;;Zu Konflikten zwischen gesetzlichen Vorschriften Dieses Kapitel widmet sich Konflikten zwischen Rechtsnormen, die eine Art Wahl der anwendbaren Regel erfordern, wobei der Autor Regelkollisionen und Regelkonkurrenz unterscheidet. Kollisionen sind Situationen, in denen zwei oder mehr Regeln auf denselben Fall anwendbar sind und es logischerweise unmöglich ist, sie alle einzuhalten, während Wettbewerbe Situationen sind, in denen zwei oder mehr Regeln auf denselben Fall anwendbar sind und es logischerweise nicht unmöglich ist, sie alle erfüllen, führt ihre gemeinsame Anwendung zu Unannehmlichkeiten, die eine Wahl zwischen ihnen rechtfertigen können. Formal gehören die Alternativregeln im Konkurrenzfall zum Spektrum des jeweils anderen, im Kollisionsfall zum gegensätzlichen Spektrum des jeweils anderen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-78858-6_10 a8d0890f6118bedbd2a7e707904391c8;de;;;1.2.;;;Finite-Elemente-Analyse des Ellenbogens nach Gelenkersatz Die Belastungen in Knochen, Implantat und Knochenzement für drei verschiedene Ellenbogen-Endoprothesen wurden mit der Finite-Elemente-Methode berechnet. Die Geometrie und Materialeigenschaften aller Bauteile wurden mit hoher Genauigkeit auf die dreidimensionalen Modelle übertragen. Zur experimentellen Überprüfung der Analysenergebnisse wurden Dehnungsmessstreifen verwendet. Es konnte eine gute Übereinstimmung erzielt werden. Für ein Implantat mit kurzen Fixationsteilen (Modell OHH) wird ein hoher Stressschutz im umgebenden Knochen vorhergesagt. Die Belastungen an der Ulnaoberfläche werden durch ein Implantat stärker reduziert als die Belastungen an der Humerusoberfläche.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-7477-0_27 156c738c82076f23a91643eaf7cf07e4;de;;;1.3.;;;Digitale Kompetenzen im Lehrpersonal europäischer Hochschulen: Lehre und Beratung Wir leben heute in einer praktisch digitalisierten Welt. Daher war Bildung einer der ersten Aspekte, bei denen die Notwendigkeit bestand, sich digital zu aktualisieren. Dies hat zusammen mit Ausnahmesituationen wie COVID-19 (Coronavirus-Erkrankungen) dazu geführt, dass der Unterricht nur über die Informations- und Kommunikationstechnologie (IKT) möglich ist. Als Ziel dieser Mitteilung schlagen wir vor, das Niveau der digitalen Kompetenzen des Lehrpersonals europäischer Hochschulen zu analysieren und bewährte Praktiken in der Lehre und Beratung unter Verwendung von IKT zu ermitteln. Es handelt sich um eine Mixed-Methods-Forschungsstudie, an der 918 Lehrkräfte im quantitativen und 76 im qualitativen Teil teilgenommen haben. Als Instrument ist die Skala;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72660-7_1 eba8da27c3184464c825253d23ef1b84;de;;;1.3.;;;Supercomputer-Technologien in der digitalen Welt: Theorie, Praxis und Bildung Supercomputer-Technologien werden heute überall auf der Welt eingesetzt. Sie bestimmen die Wettbewerbsfähigkeit von Wissenschaft, Wirtschaft und Staaten. Die USA, Europa, China und Japan investieren Milliarden in ihre Entwicklung, fördern nationale Programme in diesem Bereich und bilden die Basis für die Zukunft. Russland unterschätzt die Bedeutung von Supercomputertechnologien. Es hat sich nicht nur dem globalen Trend nicht angeschlossen, sondern verpasst auch eine einzigartige Chance, ein riesiges Potenzial russischer Spezialisten auf diesem Gebiet zu nutzen. Unser Land braucht ein umfassendes Supercomputerprogramm.;-;-;-;https://link.springer.com/article/10.1134/S1019331619020242 5bc8b2671996af15afad7c5f488c442d;de;;;1.3.;;;Statische und dynamische Umgebungen Der Rahmen für die Umsetzung eines effektiven Unterrichts hängt von drei Kompetenzbereichen ab: Bildungsgrundlagen, Methodik und Prozess. Traditionelle Methoden haben versucht, sowohl Grundlagen (Theorie) als auch Prozess zu berücksichtigen. Ein ernsthaftes Problem entsteht beim Versuch, statische Methodologien auf dynamische Umgebungen anzuwenden. Um diesen Punkt zu unterstreichen, betrachten wir Lehren, die Lehrplaner bei der Entwicklung einer Klasse des technologiegestützten Lernens gelernt haben: computerbasiertes Training (CBT). Die gewonnenen Erkenntnisse umfassen das „Wie“, das „Was“, das „Wer“ und das „Warum“ der CBT-Entwicklung und -Bereitstellung. Der Punkt dieses Erfahrungsberichts besteht darin, Bedingungen zu beschreiben, die in traditionellen Methoden nicht berücksichtigt wurden und die mit suboptimalen Ergebnissen in Verbindung gebracht wurden, als Grundlage für unsere Schlussfolgerung, dass statische Prozesse auf dynamische Umgebungen angewendet wurden. Das Ergebnis ist eine Mehrdeutigkeit der Methoden, die die Notwendigkeit nahelegt, eine dynamischere Methodik zu entwickeln und zu etablieren, die sowohl die Dynamik von Lernprozessen als auch die Dynamik von Entwicklungsprozessen widerspiegelt. Wenn diese Dynamik Planungs- und Umsetzungsprozesse beeinflusst, ist das Ergebnis wahrscheinlich ein effektiveres Lernen.;-;-;-;https://link.springer.com/chapter/10.1007/0-306-47584-7_4 748e13c2985a4c728255ae8ba27fefb9;de;;;1.3.;;;Der erwachende Geist der Managementausbildung: 1957–66 1966 erhielt die City University ihre Charta. Sie wurde 1894 als Northampton Institute gegründet, der Standort zwischen der St. John Street und dem Northampton Square wurde vom damaligen Marquess of Northampton gestiftet. Die anderen Stifter waren die City Parochial Foundation und die Skinners’ and Saddlers’ Livery Companies. 1900 wurde es in Northampton Engineering College umbenannt, um seine Ausrichtung widerzuspiegeln. 1924 wurde das College Northampton Polytechnic Institute genannt. 1957 erhielt sie als eine der Fachhochschulen den Status eines College of Advanced Technology und würdigte damit ihre im Laufe der Jahre entwickelten akademischen Qualitäten. Management und Wirtschaft spielten bis zu diesem Zeitpunkt in den Curricula des Studienangebots kaum eine Rolle. Nur ein kleiner Teil wurde von der Abteilung Produktionstechnik gelehrt, um den Anforderungen einer der professionellen Ingenieurinstitutionen gerecht zu werden.;-;-;-;https://link.springer.com/chapter/10.1057/9780230624818_2 cd54cbbb5da6a2df42ab3944af6ef51d;de;;;1.3.;;;Irische Republik . Im April 1916 fand ein Aufstand gegen die britische Herrschaft statt und eine Republik wurde ausgerufen. Der bewaffnete Kampf wurde 1919 erneuert und bis 1921 fortgesetzt. Die Unabhängigkeit Irlands wurde im Januar 1919 vom Nationalparlament bekräftigt;-;-;-;https://link.springer.com/chapter/10.1057/9780230271074_78 cb83995199888bd5e3e159c006863b95;de;;;1.3.;;;Eine Perspektive der internationalen Sicherheitserziehung Der beabsichtigte Beitrag dieses Papiers ist es, die Notwendigkeit einer Internationalisierung der IT-Sicherheitsausbildung zu motivieren. Ausgehend von der Ist-Situation und einem Blick auf ausgewählte Bestandskonzepte wird dann eine Idee für eine internationale sicherheitspolitische Kooperation auf Promotionsebene vorgestellt;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-8145-6_13 17d365e0f05db57f2ae7ffd8ae113548;de;;;1.3.;;;Strategische Planung der Graduate- und Undergraduate-Ausbildung an einer Forschungsuniversität in Japan Als Folge der Abschwächung der Universitätsstandards im Jahr 1991 änderten viele Universitäten in Japan ihre institutionellen Regelungen für die grundständige Ausbildung. Im Allgemeinen legen neue Lehrpläne den Schwerpunkt auf Spezialprogramme in jedem Fachbereich, was zu relativ schwächeren allgemeinbildenden Programmen führt. Die Universität Hokkaido beschloss jedoch, die allgemeinen Bildungsprogramme beizubehalten und zu stärken, die kontinuierlich mit jedem der Spezialprogramme verbunden waren. Die Regelungen sind ein mögliches Modell für Forschungsuniversitäten in Japan der nächsten Generation. Dabei wird das gemeinsame Kerncurriculum, der wesentliche Teil der grundständigen Ausbildung, durch ein interdisziplinäres Bildungssystem unterstützt. Das System ist „eine Universität in der Universität“ in dem Sinne, dass es ein konsistentes Programm bietet, das aus den Kernen jedes Fachgebiets abstrahiert und für Nicht-Fachstudenten neu organisiert wird. Dagegen sollten die Graduiertenprogramme der einzelnen Fachbereiche flexibler gestaltet werden, um dem Wettbewerbsumfeld in der sich wandelnden Forschungswelt gerecht zu werden. Das Modell wird auf der Grundlage der Vorschläge einer Arbeitsgruppe zur strategischen Planung der Universität Hokkaido im 21. Jahrhundert diskutiert.;-;-;-;https://link.springer.com/article/10.1016/S0952-8733%2801%2900035-6 b0c9579cb24305e76d2cc95f5c2e851a;de;;;1.3.;;;Untersuchung der betrieblichen Arbeitspraktiken in Computerspezialitäten für eine gewöhnliche Universität In diesem Papier haben wir die betriebliche Arbeitspraxis einschließlich des Hintergrunds, der damit verbundenen Arbeit und des betrieblichen Schulungsprogramms untersucht. Wir präsentieren die Inhalte der betrieblichen Arbeitspraxis einschließlich Ziel und Aufgabe, Inhalt und Anforderung, Lehrmethoden, Anforderung Zeit und Ort, Arbeitgeber-Feedback, Bewertungsmethoden, Förderung der Zusammenarbeit zwischen Schule und Unternehmen, Stärkung der sozialen Praxis. Wir geben auch die Details des Firmenschulungsprogramms. Gleichzeitig haben wir die Konzepte verbessert, ein detailliertes Lehrplanprogramm für die betriebliche Praxis erstellt und dies in der Praxis umgesetzt. Und wir haben Konzepte verbessert, ein Lehrprogramm für den Bachelor in der Praxis im 7. Semester entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25986-9_100 6c64cd059d4b7ea70ed6788f51f29d4f;de;;;1.2.;;;Komplementarität oder Prozess? Es ist ein Hauptanliegen dieses Symposiums, über die klassische Unterscheidung zwischen Natur und Erkenntnis hinauszugehen. Mein Beitrag zu diesem Thema beruht auf der Arbeit von mir und zahlreichen anderen an einer Theorie der fundamentalen Physik, in der der Grundstoff der Welt aus Verzweigungen besteht;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-2779-0_15 5ee8ef546ed1b0c31ddf355cdb1f7183;de;;;1.2.;;;Ein sequentielles Verhandlungsmodell in der Logikprogrammierung Dieses Papier schlägt ein sequentielles Verhandlungsmodell vor, das die Argumentationsprozesse eines Agenten hinter Verhandlungsverfahren spezifiziert. Wir kodieren Hintergrundwissen, Anforderungen und Verhandlungsbeschränkungen von Agenten in Logikprogrammen und stellen Verhandlungsergebnisse in Antwortsätzen dar. Wir gehen davon aus, dass jeder Agent in jeder Verhandlungssituation eine Reihe von Zielen zu erreichen hat, die normalerweise ohne eine Vereinbarung zwischen allen an den Verhandlungen beteiligten Agenten nicht erreichbar sind. Durch ein alternierendes Angebotsverfahren kann durch abduktives Denken eine Einigung zwischen den Verhandlungsagenten erreicht werden. Wir zeigen, dass das Verfahren zu einem Nash-Gleichgewicht konvergiert, wenn jeder Agent in jeder Runde rationale Angebote/Gegenangebote macht. Darüber hinaus weist das sequentielle Modell auch eine Reihe wünschenswerter Eigenschaften auf, wie z.;-;-;-;https://link.springer.com/article/10.1007/s11704-015-3308-x 691dedace8546e16a930907227f564de;de;;;1.2.;;;Wellenbrecher-Design Wellenbrecher sind so konstruiert, dass sie ein ruhiges Becken bieten, das vor Wellen geschützt ist oder für Schiffe und Hafenanlagen schützt. Sie werden auch verwendet, um den Hafenbereich vor dem Eindringen von Küstendrift zu schützen. Tatsächlich spielen Wellenbrecher für Häfen, die für raue See geöffnet sind, eine Schlüsselrolle im Hafenbetrieb.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-0863-9_10 150438fa223c3ca6f07620dca282b418;de;;;1.3.;;;Eine prinzipientreue Grundlage für LCS In diesem Papier fördern wir eine neue Methodik zum Entwerfen von LCS, die darauf basiert, zuerst das zugrunde liegende Modell zu identifizieren und dann Standardmethoden des maschinellen Lernens zu verwenden, um dieses Modell zu trainieren. Dies führt zu einer eindeutigen Identifizierung des LCS-Modells und macht die Annahmen über die Daten explizit, sowie verspricht Fortschritte im theoretischen Verständnis von LCS durch die Übertragung des Verständnisses der angewandten maschinellen Lernmethoden auf LCS. Darüber hinaus ermöglicht es uns erstmals eine formale und allgemeine, dh darstellungsunabhängige Definition der optimalen Menge von Klassifikatoren, die LCS finden soll. Um die Machbarkeit der vorgeschlagenen Methodik zu demonstrieren, entwerfen wir ein Bayessches LCS-Modell, indem wir Konzepte aus dem entsprechenden Mixtures-of-Experts-Modell übernehmen. Die Qualität einer Menge von Klassifikatoren und damit auch der optimalen Menge von Klassifikatoren wird durch die Anwendung der Bayesschen Modellselektion definiert, die das Finden dieser Menge zu einer prinzipiellen Optimierungsaufgabe macht. Unter Verwendung eines einfachen LCS im Pittsburgh-Stil demonstrieren eine Reihe von vorläufigen Experimenten die Durchführbarkeit dieses Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88138-4_5 2cc3dfa8fbd4f9e35c960af71ca51b4a;de;;;1.3.;;;Die Nutzung von Second Life Das Lehren der physischen Sicherheit kann schwierig sein, da die Klassen im Allgemeinen keinen Zugang zu physischen Strukturen haben, um sie zu bewerten. Der Zweck dieser Studie war es, einen neuen Weg zu untersuchen, physische Sicherheit mithilfe von Second Life zu lehren;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39377-8_21 cd4f020e398894b3e4a4bff97d523d56;de;;;1.3.;;;Analyse von Routing-Protokollen in Fahrzeug-Ad-hoc-Netzwerkanwendungen Vehicular Ad Hoc Networks (VANETs) sind selbstorganisierende, selbstheilende Netzwerke, die eine drahtlose Kommunikation zwischen Fahrzeugen und straßenseitigen Geräten ermöglichen. Sicherheit und Komfort für Fahrer und Passagiere zu bieten, ist ein vielversprechendes Ziel dieser Netzwerke. Das Entwerfen eines geeigneten Routing-Protokolls gemäß der Netzwerkanwendung ist eine der wesentlichen Anforderungen zum Implementieren eines erfolgreichen Fahrzeugnetzwerks. In diesem Papier berichten wir über die Ergebnisse einer Studie zu Routing-Protokollen im Zusammenhang mit Fahrzeuganwendungen und deren Kommunikationsanforderungen. Im Allgemeinen können alle VANET-Kommunikationen entweder durch Unicast- oder Multicast-Routing-Protokolle implementiert werden. Die Ergebnisse der Studie zeigten, dass Multicast-Protokolle, einschließlich Geocast und mobilitätsbasiertes Routing, vielversprechender sind als andere, um die Anwendungsanforderungen zu erfüllen und folglich mehr Forschung zu diesen Protokollen erforderlich ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22203-0_34 21c32b02b4ba84bdbc26a14872555c15;de;;;1.3.;;;Algorithmus zur harmonischen Gezeitenanalyse entlang von T/P-Tracks: Unterschiede der beobachteten Meeresoberflächenhöhen an benachbarten Punkten als Beobachtungen nehmen Zur Verbesserung der harmonischen Gezeitenanalyse entlang von T/P-Tracks wird ein Algorithmus (Differentialmodus) vorgestellt, bei dem die Unterschiede zwischen den beobachteten Meeresoberflächenhöhen an benachbarten Punkten als Beobachtungen genommen werden. Außerdem werden die Beobachtungsgleichungen durch die Ergebnisse der Crossover-Analyse eingeschränkt, die Parameterschätzungen werden in Intervallen von 0,1° Breite nach den kleinsten Quadraten durchgeführt. Die Höhenmesserdaten des Zyklus 10 bis 330 T/P, die das Chinesische Meer und den Nordwestpazifik (2-50 ° N, 105 ° - 150 ° E) abdecken, werden für eine verfeinerte harmonische Gezeitenanalyse entlang der Strecke und harmonische Konstanten von 12 . verwendet Konstituenten in 8 474 Punkten werden erhalten, was darauf hinweist, dass der Algorithmus Nicht-Gezeiteneffekte in den Höhenmesserbeobachtungen effizient beseitigen und die Präzision der Gezeitenparameter verbessern kann. Darüber hinaus stellen die Parameter entlang der Höhenmeterspuren eine glattere Verteilung dar als die von herkömmlichen Algorithmen erhaltenen. Die quadratischen Mittelwerte der Anpassungsfehler zwischen dem Tidenhöhenmodell und den Beobachtungen reduzieren sich von 11 cm auf 1,3 cm.;-;-;-;https://link.springer.com/article/10.1007/s11806-007-0168-z eb08a1eee3f276b1ae0dc215edaac45f;de;;;1.3.;;;Virtuelle Realität und ihre Anwendung zur Rutschanimation von Erdrutschen Einige Forscher übernehmen die virtuelle Realität in Erdrutschen. Daher ist es wichtig, die physikalisch-verformbare Methode mit der Prozesssimulation eines Rutschrutsches zu kombinieren, um den dynamischen Prozess eines Rutschrutsches zu simulieren. Die Analyse des dynamischen Erdrutschgesetzes bietet eine Grundlage, um Katastrophen vorherzusagen und zuverlässig vorherzusagen. Nachdem der Zustand der VR- und Erdrutschkörpersimulation beschrieben wurde, stellt dieser Artikel die Simulation von Erdrutschen durch die physikbasierte verformbare Methode vor. Das Verfahren unterteilt Erdrutsche in einen verformbaren Körper und einen starren. Die Verformung eines verformbaren Körpers kann durch DDA und FEM berechnet werden, und DDA passt die große Verformung an und FEM ist gut für die kleine Verformung. Dieses Papier zeigt, dass es möglich ist, die Erdrutschanimation mit dieser Methode zu simulieren.;-;-;-;https://link.springer.com/article/10.1007/BF02826654 286725db2661e8960b7a4ead1704a689;de;;;1.3.;;;Korrektur des Einflusses der Abplattung der Erde bei der Inversion von GPS-Bedeckungsdaten Durch die Verwendung beobachteter CHAMP-Bahn-Ephemere und des MSISE-90-Trockenluftmodells und der Betrachtung der Erde als Kugel bzw. als Ellipsoid werden Phasenverzögerungen simuliert und die simulierten Daten werden unter verschiedenen Schemata abgerufen. Der Vergleich zwischen den invertierten Temperaturprofilen und den Modelltemperaturprofilen zeigt, dass wir durch die Umkehrung der beobachteten Daten Temperaturergebnisse mit großen Fehlern erhalten, wenn der Effekt der Abplattung der Erde weggelassen wird. Das Korrekturverfahren hat sich als effektiv erwiesen, da die Temperaturfehler mit diesem Verfahren offensichtlich abgenommen haben.;-;-;-;https://link.springer.com/article/10.1007/BF02838657 3114031e1a5570f7814171219df7e72e;de;;;1.3.;;;Komponentenbasiertes topologisches Datenmodell für die dreidimensionale Geologiemodellierung Zur Untersuchung der grundlegenden Eigenschaften geologischer Objekte und der besonderen Anforderungen an die Berechnung von 3D-Geologiemodellen gibt dieser Beitrag ein objektorientiertes topologisches 3D-Datenmodell. In diesem Modell werden die geologischen Objekte in vier Objektklassen unterteilt: Punkt, Linie, Fläche und Volumen. Die Volumenklasse ist weiter in vier Unterklassen unterteilt: das zusammengesetzte Volumen, das komplexe Volumen, das einfache Volumen und die Komponente. Für die geologischen Objekte werden zwölf Arten von topologischen Relationen und die dazugehörigen Datenstrukturen entworfen.;-;-;-;https://link.springer.com/article/10.1007/BF02826851 103f504de17db1e6a4b368ebaf526ac3;de;;;1.3.;;;Optimaler Kernel in einer Klasse von Kernels mit einer invarianten Metrik Auf Kernel-Maschinen basierendes Lernen ist weithin als leistungsstarkes Werkzeug für verschiedene Bereiche der Informationswissenschaft wie Mustererkennung und Regressionsschätzung bekannt. Eines der zentralen Themen von Kernel-Maschinen ist die Modellauswahl, insbesondere die Auswahl eines Kernels oder seiner Parameter. In diesem Artikel betrachten wir eine Klasse von Kernen, die eine monotone Klasse von reproduzierenden Kern-Hilbert-Räumen mit einer invarianten Metrik bildet, und zeigen, dass der Kern, der dem kleinsten reproduzierenden Kern-Hilbert-Raum mit einer unbekannten wahren Funktion entspricht, das optimale Modell für die unbekannte wahre Funktion liefert Funktion.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89689-0_57 74a333cd8df018ac5ff21088772a3d45;de;;;1.3.;;;Numerische Mannigfaltigkeitsmethode und ihre Anwendung bei der Untersuchung von Krustenbewegungen im Sichuan-Yunnan-Gebiet Die numerische Mannigfaltigkeitsmethode (NMM) kann die Bewegungen und Verformungen von Strukturen oder Materialien berechnen. Sowohl die Finite-Elemente-Methode (FEM) für Kontinua als auch die diskontinuierliche Deformationsanalyse (DDA) für Blocksysteme sind Sonderfälle des NMM. NMM hat separate mathematische Abdeckungen und physikalische Netze: Die mathematischen Abdeckungen definieren nur feine oder grobe Näherungen, als die reale Materialgrenze definiert das physikalische Netz die Integrationsfelder. Die mathematischen Abdeckungen sind Dreieckseinheiten, das physikalische Netz umfasst die Verwerfungsgrenzen, Fugen, Blöcke und Grenzflächen verschiedener Krustenzonen auf der Grundlage eines geologischen tektonischen Hintergrunds. Um das komplexe Problem der kontinuierlichen und diskontinuierlichen Deformation auf dem chinesischen Kontinent zu untersuchen, wird die numerische Manifold-Methode (NMM) eingesetzt, um die Krustenbewegung des Sichuan-Yunnan-Gebiets zu untersuchen. Basierend auf dem GPS-Geschwindigkeitsfeld im Gebiet Sichuan-Yunnan wird ein krustales Dehnungs- und Spannungsfeld simuliert und analysiert. Darüber hinaus zeigen die Ergebnisse, dass die NMM eine geeignetere Methode als die DDA ist, um die Bewegung des Gebiets Sichuan-Yunnan zu simulieren. Schließlich wird in der Arbeit eine Art Mechanismus der Krustenbewegung im Gebiet Sichuan-Yunnan diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s11806-008-0078-8 292f6613231873bff71e3e98f4903fa6;de;;;1.3.;;;GPS-gravimetrische Geoidbestimmung in Ägypten Das Hauptziel dieser Studie ist die Verbesserung des Geoids durch GPS/Nivellierungsdaten in Ägypten. Es wurden Vergleiche des gravimetrischen Geoids mit GPS-/Nivellierungsdaten durchgeführt. Auf der Grundlage eines gravimetrischen Geoids, das nach der Methode der kleinsten Quadrate an GPS/Nivellierung angepasst wurde, wurde ein geglättetes Geoid erhalten. Ein hochauflösendes Geoid in Ägypten wurde mit einem 2,5′×2,5′ Gitter berechnet, indem der Datensatz von 2600 ursprünglichen Punktgravitationswerten, 20″×30″ Auflösung Digital Terrain Model (DTM) Gitter und das Kugel-Harmonische-Modell EGM96 kombiniert wurden. Die Berechnungsmethode beinhaltete die strikte Auswertung des Stokes-Integrals mit 1D-FFT. Die Standardabweichung der Differenz zwischen der gravimetrischen und der GPS-/Nivellierungsgeoidhöhe beträgt ±0,47 m. Die Standardabweichung nach Anpassung des gravimetrischen Geoids an die GPS/Nivellierpunkte ist besser als ±13 cm. In Zukunft werden wir versuchen, unsere Geoidergebnisse in Ägypten zu verbessern, indem wir die Dichte der gravimetrischen Abdeckung erhöhen.;-;-;-;https://link.springer.com/article/10.1007/BF02826631 98172e7d9dfdc671d52674f6a37354f8;de;;;1.3.;;;Hin zu E-Learning-Qualitätsstandards für Elektroingenieure Die Anwendung des E-Learning-Ansatzes für Elektroingenieure könnte für alle Absolvententypen von Vorteil sein. Die spezifischen Modelle von virtuellen 3D-Labors werden als Vorstandard-Tool für das E-Learning von Elektroingenieuren vorgeschlagen. Die effektive Integration virtueller 3D-Labors in den Bildungsprozess wird der Hochschulbildung Vorteile bringen, sowohl für berufliche als auch für Standardstudiengänge. Die einfache Einbettung von virtuellen 3D-Labors in Bildungs- und Ausbildungssysteme wird auch für Hochschulzweige hochwertige Fernschulungen ermöglichen. Die gemeinsamen Ausbildungsprogramme und Kurse, die in Zusammenarbeit mit mehreren Partnern entwickelt wurden, sind der Schritt in Richtung internationaler Ausbildungsprogramme sowie Qualitätsstandards des E-Learning für Elektroingenieure. Das gleiche Tool wird Vorteile in der Ausbildung erfahrener Ingenieure im Sinne des Bildungskonzepts des lebenslangen Lernens bringen. Die Anwendung der projektbasierten Lernmethodik wird häufig in spezifischen Ausbildungskursen des Studienprogramms „Steuerung der Elektrotechnik“ der Technischen Universität Riga verwendet. Die Anwendung von „Kolbs erfahrungsorientierter Lerntheorie“ repräsentiert ausreichend den Bildungszyklus für den Fall der Synthese neuer Technologien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29166-1_26 e146a265bb2ba4638526ee0e839719e7;de;;;1.3.;;;Sensorplanung Zielverfolgungsorientiert Clusterbasiert Die Zielverfolgung in drahtlosen Sensornetzwerken mit begrenzten Ressourcen ist ein herausforderndes Problem. Daher müssen sich Sensor-Scheduling-Algorithmen, die für Sensornetzwerke entwickelt wurden, in diesem Papier auf die Energieeinsparung konzentrieren .Der Zustand der Knoten ändert sich während sich das Ziel bewegt, um Energie zu erhalten. Der Clusterkopf wird durch die verbleibende Energie des Knotens ausgewählt und die Positionsfunktion wird ebenfalls angegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18134-4_93 a1382cb17ac18da7df93dda99a725154;de;;;1.2.;;;Ein prozessorientiertes Monitoring-Framework Die Qualität des Produkts ist ein wichtiger Aspekt bei der Konstruktionstätigkeit, die durch Nutzung der verfügbaren Ressourcen in bestimmten Stufen erreicht werden kann. Traditionell erforderte die Forderung nach einem höheren Qualitätsniveau des Produkts den Einsatz zusätzlicher Ressourcen. Es wurde jedoch bereits früher berichtet, dass es möglich sein könnte, die Produktqualität durch eine Verbesserung des Prozesses zu erhöhen, ohne die Ressourcen zu erhöhen [1]. Daher liegt die grundlegende Anstrengung dieser Studie in der Richtung, den Designprozess auf der Designebene zu verbessern, indem ein Feedback-Tool bei der Bewertung der Prozesse namens Design Process Monitoring (PROMO) angeboten wird [2]. Der Zweck dieses Tools besteht darin, die Aktivitäten auf Entwurfsebene eines Prozesses zu überwachen. Das Modell kann eher als deskriptiv oder analytisch als als präskriptiv klassifiziert werden. Das Ziel besteht darin, die Natur des Designprozesses zu untersuchen und zu verstehen. Im Gegensatz dazu dienen präskriptive Modelle der Beschreibung der Prozesse, die die zukünftige Ausführung leiten.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008205518059 ad6904f271220de615701be14dac4933;de;;;1.3.;;;Simulation globaler Softwareentwicklungsprozesse für den Einsatz im Bildungswesen: Eine Machbarkeitsstudie VENTURE ist eine simulationsbasierte Trainingsplattform, die Praktiker bei der Bewältigung von Prozessproblemen unterstützen soll, die in der globalen Softwareentwicklung (GSD) auftreten. VENTURE platziert Praktiker in simulierten GSD-Szenarien, in denen sie eine Rolle spielen und mit virtuellen Agenten interagieren, die Teammitglieder verschiedener Nationalitäten repräsentieren. VENTURE ermöglicht die Simulation von kulturellen, sprachlichen und GSD-Verfahrensproblemen aus Erfahrungen und empirischen Studien. Dieses Papier berichtet über eine Machbarkeitsstudie, die darauf abzielte, das Potenzial von VENTURE zu bestimmen, um: 1) GSD-Szenarien und Prozesse potenzieller Konflikte zu simulieren und 2) Praktiker darin auszubilden, diese Konflikte durch Interaktion mit virtuellen Agenten zu bewältigen. Eine Gruppe von Forschern und Experten untersuchte die Plattform und bestätigte das Konzept durch eine umfragebasierte Methode. Wir erhielten positives Feedback und Ermutigung, da die Simulation von GSD-Prozessen effektiv Schulungen in industriellen Umgebungen bietet und Praktikern hilft, vordefinierte Probleme zu identifizieren und zu lösen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39179-8_4 464bd01989eda41dd5b015c4a34de656;de;;;1.3.;;;Abschätzung der Produktionsfunktionen für die US-Bundesstaaten: die Rolle von öffentlichem und Humankapital Dieses Papier schätzt Produktionsfunktionen für die 48 zusammenhängenden US-Bundesstaaten im Zeitraum 1970–2000 unter Verwendung kürzlich entwickelter Panelschätzer, die gleichzeitig Parameterheterogenität, Querschnittsabhängigkeit und Nichtstationarität behandeln. Die Ergebnisse deuten darauf hin, dass Arbeit, privates Kapital und bei der Kontrolle der Querschnittsabhängigkeit die durchschnittliche Schulzeit einen positiven und signifikanten Effekt auf das Staatseinkommen hat. Im Gegensatz dazu ist der Einkommenseffekt des öffentlichen Kapitalstocks negativ. Die landesspezifischen Koeffizienten deuten darauf hin, dass dieser Effekt wahrscheinlich auf die negative Einkommenselastizität in Bezug auf das öffentliche Kapital in den Staaten zurückzuführen ist, die hauptsächlich in der Schneegürtelregion liegen.;-;-;-;https://link.springer.com/article/10.1007/s00181-016-1092-6 c6d6d9bb6d430bb9a307439385805568;de;;;1.3.;;;Anwendung von Compliance-Mustern und dem Rahmenansatz für das Qualitätsmanagementsystem (QMS), um die Einhaltung der medizinischen Abrechnung sicherzustellen Das United States Office of Inspector General (OIG) hat eine Reihe von Compliance-Richtlinien herausgegeben, darunter Richtlinien für die medizinische Abrechnung durch Dritte für Gesundheitsunternehmen in den Vereinigten Staaten, um Fehler und Betrug im Bereich der medizinischen Abrechnung zu reduzieren. OIG empfiehlt Medizinunternehmen nachdrücklich, die Einhaltung dieser Richtlinien sicherzustellen, indem sie die OIG-Anforderungen in ihre Prozesse einbeziehen. Die Einhaltung der OIG-Richtlinien wird Medizinunternehmen letztendlich dabei unterstützen, die Folgen und Strafen rechtlicher Maßnahmen im Falle einer Nichteinhaltung/einer staatlichen Prüfung zu reduzieren. Diese Untersuchung hat ergeben, dass medizinische Unternehmen einen ISO 9001-Rahmen übernehmen können, um die Einhaltung der OIG-Abrechnungsrichtlinien sicherzustellen. Die Autoren verglichen den ISO 9001-Standard mit den medizinischen Abrechnungsrichtlinien von OIG von Drittanbietern, indem sie ihre Komponenten kartierten. Der Vergleich zeigt, dass die in der ISO 9001-Richtlinie genannten Anforderungen die ärztliche Abrechnungsrichtlinie des OIG um mehr als 70 Prozent erfüllen oder übertreffen. Die Autoren betonen auch, wie wichtig es ist, zusätzliche Muster zu schaffen, die als Compliance-Muster für die Gesundheitsbranche bezeichnet werden. Es werden auch einige Abrechnungs-Compliance-Muster entwickelt, um die Abrechnungs-Compliance sicherzustellen. Die in den USA ansässige externe Medical Billing Company (MBC) mit einem Backup-Büro in Pakistan wurde als Fallstudie verwendet, um die Wirksamkeit dieses vorgeschlagenen Rahmens zu bewerten. MBC konnte die Kundenzufriedenheit von 72 Prozent auf 84 Prozent steigern, indem es das vorgeschlagene Framework und den Compliance-Pattern-Ansatz implementierte. Außerdem wurden zwei interne Audits durchgeführt, um die Wirksamkeit des vorgeschlagenen Rahmens zu bewerten. Aus der Evidenz wurde auch deutlich, dass die Kundenzufriedenheit mit einer vorherigen Implementierung und Anpassung des Framework-Ansatzes enorm gestiegen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37899-7_7 9d838970583c30fa81a6b48d63d9034f;de;;;1.3.;;;Die Diskussion um das Ausbildungsmodell des Fahrzeugbaus für innovative und anwendungsorientierte Talente Die Hauptfächer Fahrzeugtechnik umfassen Maschinenbau, Bautechnik, Verkehrstechnik usw. Diese Arbeit stellt Probleme der traditionellen Fahrzeugtechniklehre vor. Wir sollten die Basis der Disziplinkonstruktion stärken, um das Lerninteresse der Schüler zu steigern. Zuletzt wird eine Methode zur Ausbildung innovativer Anwendungstalente im Fahrzeugbau vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24022-5_35 2b4c99e70cb22fc9eb5a746fb64be034;de;;;1.3.;;;Ein Praxisbericht zum aktiven Lernen mit Planspiel für die Lehramtsstudierenden Dieses Papier beschreibt eine Praxis des Planspiels unter Verwendung von IKT (Informations- und Kommunikationstechnologie, im Folgenden als IKT bezeichnet), die für den Lehramtsstudenten vorbereitet wurde. Seit der japanischen Primar- und Sekundarstufe verbessert sich das Umfeld der IKT im Klassenzimmer. Darüber hinaus bestehen die kommenden Bildungsrichtlinien des Ministeriums auf dem aktiven Lernen mit IKT, es ist wichtiger denn je, das aktive Lernen mit IKT zu erlernen. Aus der Fragebogenerhebung haben wir untersucht, wie die Schüler die IKT zum Lernen nutzen können und welche Schwierigkeiten die Schüler haben. Als Ergebnis wurde spekuliert, dass die Schüler Angst und Schwierigkeiten haben, Lehrer zu werden, die solche Kurse machen, weil die Schüler keine Erfahrung mit aktivem Lernen mit IKT haben. In dieser Studie, als Beispiel für aktives Lernen mit IKT, möchten wir den Schülern Planspiele mit Computeragenten näher bringen und tiefer über die Möglichkeiten des Einsatzes von IKT zum Lernen nachdenken. In diesem Beitrag beschreiben wir die Möglichkeit des Lerneffekts, der durch die Gestaltung des Spiels unter Verwendung der Computeragenten gegeben ist. Und wir berichten über die Praxis des Planspiels mit Strategieagenten. Zukünftig sind auch einige konkrete Methoden mit IKT gefragt, wie das Anbringen von Facilitating Agents und das Simulieren von Spieleragenten im Spiel. Das ist Forschung im Gange.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6936-0_5 a21657bd2e28cb0f07f895246757e0be;de;;;1.3.;;;Ein IT-Tool zur Unterstützung des Anti-Krisen-Trainings im WAZkA-System: Eine Fallstudie In dem Papier stellten die Autoren das Konzept und die Elemente der Implementierung des Subsystems vor, um den Ausbildungsprozess von Betreibern des Antikrisensystems zu unterstützen. Es wurde in Form von Emulatoren von Gefahrenüberwachungssystemen für die Bedürfnisse eines IT-Systems erstellt, das die Analyse von Bedrohungen in Form von CBRN-Kontaminationen (Chemical, Biological, Radiation, Nuclear) unterstützt, deren Auswirkungen vorhersagt und die Bevölkerung alarmiert (WAZkA) .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00840-6_18 1f038284b4a2e98c43b85a1a65796429;de;;;1.3.;;;GRACEs Implikation von zeitlichem Trägheitsmoment und Tageslänge Dieses Papier zielt darauf ab, das zeitliche Trägheitsmoment der Erde und seinen Einfluss auf die Tageslänge (LOD) zu untersuchen. Zuerst werden die GRACE-Daten durch Wavelet-Analyse verarbeitet, um abnormale Sprünge und Rauschen zu entfernen. Anschließend werden die theoretischen Auswirkungen der Potentialkoeffizienten zweiter Ordnung auf das Trägheitsmoment und die LOD untersucht. Schließlich werden die verarbeiteten GRACE-Daten angewendet und die Ergebnisse zeigen, dass die Massenumverteilung in den letzten 6 Jahren zu abnehmenden Tendenzen von Trägheitsmoment und LOD sowie einigen unerwarteten saisonalen Schwankungen geführt hat.;-;-;-;https://link.springer.com/article/10.1007/s11806-009-0082-7 ddb7a2b0e2ae4a9c7b065c0b3d62e41f;de;;;1.3.;;;Eine Studie zum Ausbildungsziel der Technischen Wirtschaftswissenschaften auf Basis der Informationstechnologie Dieser Artikel definiert die Konnotation des Faches Technische Betriebswirtschaftslehre anhand der Anglisierung des Faches theoretische Grundlagen, Struktursystem und Praxisspektrum. Dann stellen wir das Trainingsziel des Themas vor. Wir analysieren Technologieökonomie und Management Ist-Situation und die bestehenden Probleme und geben entsprechende Strategien zur Lösung der Probleme. Wir erwarten, dass die Reform des Unterrichtsmodus das vorgegebene Ausbildungsziel erreichen und das Fach weiter entwickeln kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23339-5_82 b24aa5b14f19a7e00c16e52b5ce7dbb4;de;;;1.2.;;;Stellvertretend für von Neumann–Morgenstern Games in der Situationsrechnung Sequentielle von Neumann-Morgernstern (VM)-Spiele sind ein sehr allgemeiner Formalismus zur Darstellung von Multi-Agenten-Interaktionen und Planungsproblemen in einer Vielzahl von Umgebungen. Wir zeigen, dass sequentielle VM-Spiele mit abzählbar vielen Aktionen und stetigen Nutzenfunktionen eine solide und vollständige Axiomatisierung in der Situationsrechnung aufweisen. Diese Axiomatisierung ermöglicht es uns, spieltheoretische Überlegungen und Lösungskonzepte wie das Nash-Gleichgewicht darzustellen. Wir diskutieren die Anwendung verschiedener Konzepte von der VM-Spieltheorie bis zur Theorie der Planung und Multi-Agenten-Interaktionen, wie zum Beispiel die Darstellung gleichzeitiger Aktionen und die Verwendung der Baire-Topologie, um kontinuierliche Auszahlungsfunktionen zu definieren.;-;-;-;https://link.springer.com/article/10.1023/B%3AAMAI.0000034523.18162.6b b4c3c0d46169b3a64582b4e5abba4641;de;;;1.3.;;;Vereinheitlichung und Harmonisierung im Echtfarbenbild-Stadtplan Echtfarbenbild-Stadtplan ist eine Art neuer Stadtplan, der die hochauflösenden Bild- und Kartensymbole kombiniert und beide Vorteile bei der Visualisierung zeigt. Gleichzeitig sollte die Kartenvereinheitlichung und -harmonisierung während des Entwurfsprozesses berücksichtigt werden, da einige visuelle Konflikte auftreten, wenn Kartensymbole über das Echtfarbenbild gelegt werden. Das Ziel dieser Forschung ist es, die Regeln im Prozess der Gestaltung von Stadtplänen in Echtfarben auf der Grundlage chromatischer und ästhetischer Kenntnisse zu erforschen. Am Ende werden in der Anwendung am Beispiel des Bildatlas von Guangzhou die Bildfarbanpassung, die Darstellung des Straßennetzes und die Symbolgestaltung erörtert.;-;-;-;https://link.springer.com/article/10.1007/s11806-007-0006-3 28a4cdbe96a8aa9219be665598779f67;de;;;1.3.;;;Kombination aus Tonhöhensynchronanalyse und Fisher-Kriterium zur Sprecheridentifikation Es wird ein neuartiges textunabhängiges Sprecheridentifikationssystem vorgeschlagen. In dem vorgeschlagenen System werden das wahrnehmungsbezogene linear-prädiktive Cepstrum 12-ter Ordnung und ihre Delta-Koeffizienten in der Spanne von fünf Rahmen aus der segmentierten Sprache basierend auf dem Verfahren der Tonhöhensynchronanalyse extrahiert. Die Fisher-Verhältnisse der ursprünglichen Koeffizienten werden dann berechnet, und die Koeffizienten, deren Fisher-Verhältnisse größer sind, werden ausgewählt, um die 13-dimensionalen Merkmalsvektoren des Sprechers zu bilden. Das Gaußsche Mischungsmodell wird verwendet, um die Lautsprecher zu modellieren. Die experimentellen Ergebnisse zeigen, dass die Identifikationsgenauigkeit des vorgeschlagenen Systems offensichtlich besser ist als die der Systeme, die auf anderen herkömmlichen Koeffizienten wie den linear prädiktiven Cepstralkoeffizienten und den Mel-Frequenz-Cepstralkoeffizienten basieren.;-;-;-;https://link.springer.com/article/10.1007/s11767-007-0034-z 5297fc0179f372797211f8a2c25a7aa5;de;;;1.2.;;;Die Pathologie intrakranieller arterieller Aneurysmen und ihre Komplikationen Com Aneurysmen sind persistierende, lokalisierte Erweiterungen der Gefäßwand, klassifiziert nach Form oder Ätiologie. Echte Aneurysmen entstehen durch die Dilatation der Bestandteile der Gefäßwand, die tiefgreifende strukturelle Veränderungen aufweisen. Im Gegensatz dazu resultiert ein falsches Aneurysma aus einem teilweisen oder vollständigen Bruch der Wand, bei dem das aus dem extravasierten Blut gebildete pulsierende Hämatom durch perivaskuläre Gewebe und die Organisation des fibrinösen Koagulats abgegrenzt wird, wobei die funktionelle Kontinuität zwischen dem neu gebildeten falschen Lumen und das Lumen des Muttergefäßes.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-5437-9_11 20683295bf3fa870467681c97b844c47;de;;;1.3.;;;Feedback-Präferenzen von Schülern, die in einer gemischten Umgebung lernen: Ausgearbeitete Beispiele, unterrichtete und ungeschulte Problemlösung In modernen, technologiegestützten Lernplattformen, die das Erlernen neuer Konzepte mit dem Üben neu erlernter Fähigkeiten kombinieren, werden den Studierenden mehrere Feedback-Optionen angeboten. Typischerweise bietet eine Problemlösungsübung die Möglichkeit, die Richtigkeit der Antwort zu überprüfen, Hinweise aufzurufen, die eine teilweise Hilfestellung in der Abfolge der Problemlösungsschritte bieten, oder ein vollständig ausgearbeitetes Beispiel aufzurufen. Dies eröffnet neue Möglichkeiten für die Erforschung von Lerntaktiken und -strategien von Schülern, wobei der traditionelle Kontext der laborbasierten Forschung nach experimentellen Designprinzipien hinter sich gelassen wird und die Erforschung offengelegter Lernoptionen von Schülern, die in authentischen Umgebungen lernen, untersucht wird. In dieser empirischen Studie verwenden wir multimodale Daten, bestehend aus protokollierten Spurendaten, Selbstberichtsumfragen und Lernleistungsdaten, um Vorgeschichten und Konsequenzen von Lerntaktiken und -strategien zu untersuchen, die von Schülern angewendet werden, die einführende Mathematik und Statistik lernen. Dies tun wir, indem wir verschiedene Lernprofile unterscheiden, die durch die Intensität der Nutzung der Plattform und die relative Anzahl der aufgerufenen Beispiele und Hinweise bestimmt werden. Diese Lernprofile beziehen sich auf Vorkenntnisse und Lerndispositionen als Vorläufer und folglich auf die Kursleistung. Eine unserer Erkenntnisse ist die des „Hilfemissbrauchs“: Schüler, die die Möglichkeit umgehen, auf ihrer Problemlösungsreise Hinweise als konkretes Feedback zu fordern, und sich stattdessen dafür entscheiden, generische Lösungen des Problems zu nennen: die bearbeiteten Beispiele. Dieser Hilfemissbrauch ist mit Vorkenntnissen und Lerndispositionen verbunden, aber noch viel weniger mit der Kursleistung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58459-7_3 1d2882a4eacd48946acd2aa87068751a;de;;;1.2.;;;Neuer Ansatz für die postbariatrische Abdominoplastik mit erweiterter vertikaler Resektion: Eine prospektive Kohortenstudie Da die Zahl der bariatrischen Operationen zugenommen hat, ist auch die Nachfrage nach post-bariatrischen Abdominoplastiken gestiegen. Das Ziel dieser Studie war es, einen neuen Ansatz für die Ankerlinien-Abdominoplastik zur Behandlung von postbariatrischen Patienten zu beschreiben.;-;-;-;https://link.springer.com/article/10.1007/s00266-019-01339-z 9fa2e3e226f7fb216a8e61a017f7c5c4;de;;;1.2.;;;Kosmische Strahlung in hohen Helibreiten Die Raumsonde Ulysses war die erste, die die Sonne über ihre Pole umkreiste und die Heliosphäre in diesen hohen Helibreiten erforschte. Es hat jetzt zwei schnelle Breitengrad-Scans abgeschlossen, einen beim Sonnenminimum und einen beim Sonnenmaximum. Seit ihrem Start im Oktober 1990 hat diese Mission zu mehreren überraschenden Entdeckungen in Bezug auf energetische Teilchen, kosmische Strahlung, jovianische Elektronen, den Sonnenwind, das heliosphärische Magnetfeld und die globalen Eigenschaften der Heliosphäre geführt. Dieser Aufsatz befasst sich hauptsächlich mit der Ausbreitung und Modulation von kosmischer Strahlung und anderen geladenen Teilchen, sowohl aus Beobachtungs- als auch aus theoretischer Sicht, mit Schwerpunkt auf den Erkenntnissen aus der Erforschung der inneren Heliosphäre bis hin zu hohen Heliolatien. Dies wird für solare Minimum- und Maximumbedingungen durchgeführt. Die Übersicht schließt mit einer Zusammenfassung der wichtigsten wissenschaftlichen Entdeckungen und Erkenntnisse, die bisher aus der Ulysses-Mission gewonnen wurden.;-;-;-;https://link.springer.com/article/10.1007/s11214-006-9085-y 66dff1bb6aa23fa4382dc49f78d72483;de;;;1.3.;;;Stress bei internationalen Medizinabsolventen erkennen und angehen Internationale Medizinabsolventen (IMGs) ziehen definitionsgemäß von dem Land, in dem sie ihre Ausbildung erhalten haben, in ein anderes Land, in dem sie sich ausbilden und/oder niederlassen. Dieser Migrationsprozess und die anschließende Anpassung können zu einer Reihe von Problemen führen, die sich auf das persönliche Funktionieren und die Reaktion auf das neue Land auswirken.;-;-;-;https://link.springer.com/article/10.1176/appi.ap.11040085 7d515dee34b21d768464a874f205c6b5;de;;;1.3.;;;Ausbildung für die Forschung in Software Engineering Die Graduiertenausbildung dient der Vorbereitung auf Forschung und Praxis. Dieser Aspekt der Ausbildung im Bereich Software Engineering wurde jedoch oft wenig betont. Hier werden verschiedene curriculare Fragen der Ausbildung als Vorbereitung auf die Forschung betrachtet. Dazu gehören mathematische Grundlagen, Statistik und Versuchsplanung, die Nutzung von Informationsressourcen und Forschungsmethoden zur Erforschung menschlicher Faktoren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-9614-7_25 66ab7b8c9dd1d5429570541874b4048a;de;;;1.3.;;;Überblick über die EMI-Entwicklung Inhaltslehre in englischer Sprache, auch als Englisch als Unterrichtssprache (EMI) bekannt, hat sich aufgrund der Globalisierung und Internationalisierung zunehmend verbreitet, insbesondere für Bildungseinrichtungen, die internationale Fakultätsmitglieder, Forscher und Studierende mit unterschiedlichem Sprachhintergrund aufnehmen. Obwohl zwei- und mehrsprachige Bildung schon lange existiert und in vielen Formen praktiziert wird (Nationaler Verband für zweisprachige Bildung, NABE, Abgerufen von;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-4645-2_1 e9efe3910ad60a3c07c28597a96e1202;de;;;1.2.;;;Gemischte sklerosierende Knochendysplasie in Koexistenz mit Dysplasie epiphysealis hemimelica (Trevor-Fairbank-Krankheit) Die Koexistenz von gemischt sklerosierender Knochendysplasie und Dysplasie epiphysealis hemimelica ist eine seltene Anomalie. Diese Kombination von Anomalien wurde bisher nicht berichtet. Die klinischen, röntgenologischen und pathologischen Merkmale dieser Erkrankung werden diskutiert und die Methoden zur Behandlung von Gelenkkomplikationen werden besprochen.;-;-;-;https://link.springer.com/article/10.1007/BF00355104 aabf500228c76c974231e0d968744d9d;de;;;1.2.;;;Fragen an den Medical Records Manager Klassifikationscodes kommen großen Institutionen oder Drittzahlern zugute, die Diagnosedaten über das gesamte Spektrum medizinischer Diagnosen sammeln. Eine Einzelpraxis verwendet nur 100–500 verschiedene Diagnosen. Computersysteme, die Arztpraxen unterstützen, sollten die Eingabe von Diagnosen sowohl durch den englischen Text (durch eine alphabetische Suche, Abb. 4.1) als auch durch einen zufälligen dreistelligen Code ermöglichen, den sie dieser Diagnose zuordnen. Das Büropersonal sollte nicht die fünf oder sechs Ziffern eines ICD-9-CM-Codes eingeben müssen, um eine Diagnose einzugeben. Die meisten Software für Arztpraxen ist listengesteuert, so dass jede Praxis ihre eigene Liste von Diagnosen, den diesen Diagnosen zugeordneten englischen Text, den Dateneingabecode und den entsprechenden Code für diese Diagnose definiert, der zu Abrechnungszwecken gedruckt werden soll. Elektronische Aufzeichnungen enthalten tatsächlich nur die dreistellige Nummer aus Ihrer Fachliste, anstatt bis zu sechs Stellen für jede Diagnose in der Computerakte zu speichern. Dies ermöglicht es der Praxis auch, mehrere verschiedene Diagnosen zu erstellen, die nach Ansicht der Ärzte unterschiedlich sind, aber denselben ICD-9-CM-Diagnosecode ausdrucken. Dritte (und die Codierungsbücher) erkennen diese Unterschiede möglicherweise nicht. Schließlich sollte der Arzt jede gestellte Diagnose auf dem Begegnungsbogen (Abb. 4.2) für die Computereingabe notieren. Obwohl nur eine Diagnose für einen Antrag oder eine Rechnung benötigt wird, werden die anderen Diagnosen verwendet, um Laboruntersuchungen und angeordnete Verfahren sowie die Intensität der Dienstleistung zu begründen, falls DRGs (diagnosis-related-groups) in die Büroumgebung kommen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-5100-2_5 ec7ac4140393cceb7e9996cca038a817;de;;;1.2.;;;Eine neue Glucose-6-Phosphat-Dehydrogenase-Variante, Gd(-) Tepic, gekennzeichnet durch einen mäßigen Enzymmangel und leichte Episoden einer hämolytischen Anämie Bei einem 16-jährigen mexikanischen Mann japanischer Abstammung wurde eine neue Variante mit Glucose-6-Phosphat-Dehydrogenase (G-6-PD)-Mangel festgestellt, die nach dem Geburtsort der Großmutter mütterlicherseits Gd(-) Tepic genannt wird. Ein jüngerer Bruder war ebenfalls betroffen und die beiden Schwestern waren heterozygot. Die Mutter, eine obligate Heterozygote, zeigte die abnorme Variante nicht und die mögliche Erklärung dieses Phänomens wird diskutiert. Aus klinischer Sicht hatte der Propositus drei leichte hämolytische Episoden, während seine Geschwister bisher asymptomatisch sind.;-;-;-;https://link.springer.com/article/10.1007/BF00295523 027f0e12fa8b7426d919befcbd46e7a6;de;;;1.2.;;;L. (Colchicaceae) Der Herbstkrokus ist heimisch in grasbewachsenen Wiesen und Wäldern und Flussufern im Südosten Irlands, Englands, der Niederlande und Dänemarks und reicht in Höhen zwischen 400 und 1.200 m östlich bis Polen und südlich bis Spanien und Mittelitalien und Nordafrika. Knollen und Samen waren den alten Griechen und Römern für ihre heilenden Eigenschaften bei Gicht, Rheuma, Arthritis, Wassersucht, Gonorrhoe und vergrößerter Prostata bekannt. Dioskurides und Galen beschrieben Knollen als giftig und tödlich, da sie köstlich schmecken und den Appetit steigern, ihre Blätter, Knollen und Samen sind alle giftig. In Babylonien wurde es bei anschwellenden Gliedergiften, Skorpionstichen, Kopf- und Augenkrankheiten sowie bei Brustschmerzen eingesetzt. Die Pflanze wurde im Laufe der Jahrhunderte mit verschiedenen Namen bezeichnet:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-16807-0_71 92b5916cd204308a8905868ba74304c7;de;;;1.3.;;;Verständliche Theorien aus strukturierten Daten lernen In diesem Tutorial werden einige Probleme der Wissensrepräsentation beim maschinellen Lernen behandelt. Der Fokus liegt auf Anwendungen des maschinellen Lernens, bei denen die zu lernenden Personen eine komplexe Struktur aufweisen. Um solche Individuen darzustellen, wird eine reiche Wissensrepräsentationssprache basierend auf Logik höherer Ordnung eingeführt. Die Logik wird auch verwendet, um verständliche Hypothesen zu konstruieren, die man vielleicht über die Individuen lernen möchte. Das Tutorial führt auf meist informelle Weise in die Grundgedanken dieses Ansatzes der Wissensrepräsentation ein und bietet eine Reihe von Illustrationen. Auch die Anwendung der Ideen auf das Entscheidungsbaumlernen wird an einem Beispiel veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36434-X_6 850e5abf0e1b935666e764c422cfdddb;de;;;1.3.;;;Online- vs. Face-to-Face-Entwicklung interaktiver mündlicher Englischkenntnisse: Eine empirische kontrastive Studie Dieser Artikel präsentiert eine vergleichende empirische Studie über die Wirksamkeit eines traditionellen Präsenzunterrichts im Vergleich zu Online-Technologie zur Entwicklung interaktiver mündlicher Englischkompetenz. Die Motivation für diese Studie stammt aus der Clark-Kozma-Debatte über die Rolle und Wirksamkeit digitaler Medien beim Sprachenlernen. Diese Frage wird aktualisiert, um die Natur der modernen Technologie und die Art und Weise, wie Sprachen derzeit unterrichtet werden, widerzuspiegeln. Das für dieses Experiment verwendete Lernszenario wird vorgestellt, dessen Ergebnisse zeigen, dass die Online-Gruppe zwar ihre mündliche Kompetenz nicht so stark verbesserte wie die Präsenzgruppe, dies jedoch wohl auf Verhaltensmuster und die damit verbundenen praktischen Schwierigkeiten im Internet. Die Autoren kommen zu dem Schluss, dass nach Kozmas Argumentation der IKT-basierte Fernunterricht von Zweitsprachen nur dann so effektiv sein kann wie der Präsenzunterricht, wenn Maßnahmen ergriffen werden, um die Verhaltensgewohnheiten der Schüler zu ändern und ihnen beim Erwerb der Gruppendisziplin zu helfen die diese Online-Umgebungen verlangen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20074-8_4 2c2917599f8167556d18f6d06d0b272c;de;;;1.2.;;;Lückenerkennung bei normalen und beeinträchtigten Hörern: Die Wirkung von Pegel und Frequenz Zeitliche Summation und zeitliche Auflösung werden oft als unterschiedliche Aspekte desselben Integrationsprozesses angesehen. Jedoch ist eine lange Integrationszeit erforderlich, um die Leistung in einer zeitlichen Summierungsaufgabe zu optimieren, wohingegen eine kurze Integrationszeit erforderlich ist, um die Leistung in einer zeitlichen Auflösungsaufgabe zu optimieren. Tatsächlich sind die in zeitlichen Summationsexperimenten gefundenen Integrationszeiten typischerweise ein bis zwei Größenordnungen größer als die in zeitlichen Auflösungsexperimenten gefundenen (für eine Übersicht siehe Green, diesen Band, siehe auch de Boer, diesen Band). Es ist möglich, diesen großen Unterschied in Einklang zu bringen, indem entweder angenommen wird, dass vor der Integration eine kompressive nichtlineare Transformation (Divenyi und Shannon 1983) oder eine neuronale Anpassung (Irwin und Kemp 1976, Irwin und Purdy 1982) stattfindet, aber in dieser Arbeit behandeln wir implizit die zwei Integrationsprozesse als getrennt, indem nur die zeitliche Auflösung und die entsprechend kurze Integrationszeit berücksichtigt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-70622-6_10 81e4cb33c7e064cda4b2725b24f5a2e1;de;;;1.2.;;;Lebensgeschichte und reales Leben: Fötale Ursprünge von Krankheiten, Ethnographie und Geschichte Die unaufhörliche Prozession von Krankheit, Behinderung, Tod und Trauer, die sich in Numbulwar in den letzten Jahren manifestiert hat, hat mich dazu gezwungen, zu fragen, wie dies mit Menschen passiert ist, die ich einst als so wichtig angesehen habe. Wann und wo begann diese Plage der Krankheit? In einer Studie, in der Gesundheit und gesundheitliche Abweichungen große Themen sind, erscheint es besonders wichtig, aber auch schwierig, relevante, aber nicht offensichtliche Faktoren zu identifizieren (Farmer 2004). Ethnographen, die sich hauptsächlich mit dem Hier und Jetzt der teilnehmenden Beobachtung befassen, halten es dennoch für notwendig, weniger sichtbare, weniger unmittelbare Informationen in ihre Darstellungen des menschlichen Daseins aufzunehmen, sie integrieren routinemäßig historisches Material in ihre Berichte. Im Bereich des indigenen Australiens wurden die Ungerechtigkeiten der Kolonisierung von Anthropologen und anderen, die sich mit Fragen der gesundheitlichen Ungleichheit befassen, hervorgehoben (z. B. Carson et al. 2007, Reid und Lupton 1991:xii, Saggers und Gray 1991). Die Geschichte ist jedoch ebenso facettenreich wie die Ethnographie. Auf welcher Grundlage können wir Komponenten der Vergangenheit identifizieren, die für eine aktuelle Darstellung am relevantesten sind? Und wie sind die außerpersonalen Prozesse und Strukturen zu verstehen, die die realen Lebenserfahrungen der Menschen durchdringen, in diesem Fall die Erfahrungen von Krankheit und Tod? Wie aber schafft die Zerstörung einer Lebensweise ein Erbe vorzeitiger Morbidität und Sterblichkeit? Hier kommen Modelle ins Spiel. In diesem Kapitel bewege ich mich, wie auch in weiten Teilen der Anthropologie üblich, disziplinenübergreifend für diese, entsprechend der generellen Ausrichtung dieser Arbeit, auf die biologischen und medizinischen Wissenschaften.;-;-;-;https://link.springer.com/chapter/10.1057/9780230117228_3 36386ae3d1ba17e460a088b7d71a00b7;de;;;1.2.;;;Untersuchung der Strömungsverfolgungsfähigkeiten von Tracerpartikeln für die Anwendung von PIV auf Überschallströmungsfelder Der Transport von Partikeln wird für zwei verschiedene Arten von Überschall-Strömungsfeldern analysiert. Die Umgebung einer Stoßfront und ein Strömungsfeld ähnlich einer Festkörperrotation als Näherung von Wirbelzentren wurden untersucht. Der Einfluss von Partikelgröße und -dichte wird theoretisch durch eine Analyse der Basset-Boussinesq-Oseen-Gleichung untersucht, die die maßgebende Gleichung zur Beschreibung der Partikelbewegung in einer Fluidströmung ist. Die Ergebnisse zeigen, dass selbst kleine Partikel einen Abstand von ca. 10 . benötigen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-10901-3_35 a866a1f07d2f12e9189fcc1f5d73f877;de;;;1.3.;;;Hokkaido Sculpture Web und seine pädagogische Anwendung Kunst-Tourismus ist ein neuer Tourismus, der sich auf Kunstinhalte bezieht, dies sind die Bereiche Skulptur, Musik, Fotografie und so weiter. Wir beteiligen uns an einem Kunst-Tourismus-Projekt der Gesellschaft für Tourismusinformatik in Japan. Vor allem denken wir, dass eine Feldskulptur eines der wichtigsten Kulturgüter ist, weil wir ihr in unserem Leben vielleicht ein Gefühl der Nähe fühlen. Eines unserer Hauptziele ist es, vielen Menschen die Kultur der Feldskulptur zu vermitteln. Also bauen wir Hokkaido Sculpture Web (HSW) unter Verwendung von XOOPS, einem Open-Source-System für Community-Websites mit PHP. XOOPS hatte bereits grundsätzliche Funktionen für das Community-Web als Module. Wir konstruieren ein neues Modul für sculpture web, wir nennen es HSW-Modul. Das HSW-Modul hat viele Funktionen, mit denen sie Autoreninformationen oder Bilder des Autors anzeigen und Autoreninformationen bearbeiten und aktualisieren oder den Ort ausstellen oder fotografieren und Fotos abrufen können. Wir erwarten, dass wir eine Kunst-Wahrheit auf andere Bereiche ausdehnen, indem wir das öffentlich zugängliche HSW-Modul als Open Source verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/3-211-32710-X_12 ab7fd4568421d591a597732576ac8dc9;de;;;1.2.;;;Kapitalbilanz und antizyklische Aufsichtsvorschriften in Entwicklungsländern Der Zusammenhang zwischen Kapitalströmen und Wirtschaftstätigkeit ist seit einem Vierteljahrhundert ein starkes Merkmal der Entwicklungsländer und insbesondere der Schwellenländer. Dies unterstreicht die zentrale Rolle der Mechanismen, die extern erzeugte Boom-Bust-Zyklen auf den Kapitalmärkten auf die Entwicklungsländer übertragen, sowie die damit verbundenen Verwundbarkeiten. Die Stärke der Konjunkturzyklen in Entwicklungsländern und die hohen wirtschaftlichen und sozialen Kosten, die sie verursachen, hängen daher mit den starken Verbindungen zwischen den nationalen und internationalen Kapitalmärkten zusammen.;-;-;-;https://link.springer.com/chapter/10.1057/9781403990099_12 fce58844e714c1132d710c566adf904f;de;;;1.2.;;;Hormonelle Regulation der Pflanzenblüte in verschiedenen photoperiodischen Gruppen Es wurde vorgeschlagen, dass zwei Gruppen von Substanzen, die in den Blättern produziert werden, in die Zusammensetzung der Blütenhormone, dh des Florigen-Komplexes, eingehen: (1) GA, essentiell für die Initiierung und das Wachstum der Blütenstiele, und (2) essentielle Substanzen für die Blüte Initiation und vorläufig benannte Anthesine (Abb. 1). Es wurde festgestellt, dass das Fehlen der Blüte von Langtag-Arten unter Kurztagen auf das Fehlen von GA zurückzuführen ist. Umgekehrt resultiert die Blühverzögerung von Kurztag-Arten unter langen Tagen aus einem Mangel an Anthesinen. (Chailakhyan, 1958).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-65406-0_97 d1fafae29e2ab3a537819d721687f1ab;de;;;1.2.;;;Pneumatosis cystoides intestinalis bei Morbus Crohn Es wird über zwei Fälle von Pneumatosis cystoides intestinalis bei Patienten mit Morbus Crohn berichtet. Diese Fälle veranschaulichen sowohl benigne als auch fulminante Formen der Pneumatosis cystoides intestinalis und verdeutlichen das diagnostische und therapeutische Dilemma von Patienten, bei denen eine Pneumatosis cystoides intestinalis und Morbus Crohn koexistieren. Während bei benignen Formen der Pneumatosis cystoides intestinalis eine Therapie selten indiziert ist, sind die Mortalitätsraten bei der fulminanten Pneumatosis cystoides intestinalis unabhängig von der Art der Therapie hoch.;-;-;-;https://link.springer.com/article/10.1007/BF02554315 323b3c66ada8f37fc1b0952a414e246a;de;;;1.2.;;;Andere Kristallisationsklassen Die meisten Polymere, einschließlich der technologisch wichtigen (wie Polyethylen, Polypropylen und Polyoxymethylen), sind bei der Polymerisation kristallin. Ebenso die meisten natürlichen Polymere (Zellulose, Wolle usw. – Biosynthese!). Sie kristallisieren gleichzeitig mit der Polymerisationsreaktion selbst. Die Bedeutung liegt darin, dass hier Polymerisationsreaktion und Kristallisation miteinander wechselwirken können: Die Polymerisationsreaktion beeinflusst die Kristallmorphologie, während die Kristallisation die Reaktion, das Molekulargewicht und insbesondere deren Verteilung beeinflusst. Beispielsweise wachsen Ketten bis zu einer bestimmten Länge und kristallisieren dann aus (Ausscheidung aus Lösung) oder die Monomere fügen sich dem bereits kristallinen Polymer zu. Über diesen Bereich ist wenig bekannt. Die „entste- hende“ Kristallmorphologie selbst ist im Allgemeinen wenig erforscht (z. B. die in einem Reaktionsgefäß entsteht), aber es ist bekannt, dass eine solche Morphologie sehr spezifisch sein kann mit besonderen Eigenschaften, die das Polymer bei der üblichen Aufbereitung verliert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2367-9_4 3b34b56db90dd83e134b404830c5da56;de;;;1.3.;;;Die Freuden der Pflege älterer Erwachsener: Ausbildung von Praktizierenden zur Stärkung älterer Erwachsener Vielen älteren Erwachsenen fehlt das Wissen über die Folgen einer sitzenden Lebensweise, atypische Krankheitssymptome, die Nebenwirkungen mehrfacher Medikamenteneinnahme und die Gefahren häufiger Krankenhausaufenthalte. Ärztlich ausgebildete Gesundheitsdienstleister und Gemeindegesundheitspraktiker können älteren Erwachsenen diese Informationen durch Gesundheitserziehungskurse zur Verfügung stellen. Diese medizinischen Fachkräfte müssen jedoch ihr Wissen ständig aktualisieren, da sich die Wissenschaft der Gerontologie und Geriatrie ständig erweitert. Das Advanced Certificate in Gerontology Administration Program an der LIU-Brooklyn veranstaltete ein 3-stündiges Train-the-Trainer-Seminar, an dem 62 medizinische Fachkräfte teilnahmen, um das Bewusstsein für die Realitäten des Alterns zu schärfen und eine Reihe von Verhaltensweisen zu beschreiben, die die Gesundheit unterstützen. Etwa 90 Minuten lang präsentierte der Hauptredner Fragen und Lösungen, die die oben genannten Wissensdefizite adressierten, gefolgt von einer Frage-und-Antwort-Runde. Die Teilnehmer wurden gebeten, zur Bewertung des Seminars ein anonymes Umfrageauswertungsformular mit quantitativen und qualitativen Fragen zu verwenden. Geschlossene Fragen wurden auf einer fünfstufigen Skala von 5 = stimme voll und ganz bis 1 = stimme überhaupt nicht zu. Diese Elemente wurden analysiert, um Häufigkeit und Prozent zu berechnen. Die Teilnehmer bewerteten das Seminar positiv: 98 % gaben an, die Vorteile von Bewegung für ältere Erwachsene kennengelernt zu haben, 97 % lernten, die Gefahren eines Krankenhausaufenthalts zu vermeiden. Auswertungen des Seminars legen nahe, dass es möglich ist, Bildungsprogramme zu entwickeln, die sich an Angehörige der Gesundheitsberufe und Gesundheitspraktiker in der Gemeinde richten.;-;-;-;https://link.springer.com/article/10.1007/s10900-013-9779-5 c523e0ef79b4d46649dacc3229f75bbd;de;;;1.3.;;;Photostase in Pflanzen, Grünalgen und Cyanobakterien: Die Rolle lichtsammelnder Antennenkomplexe Sowohl die strukturelle als auch die funktionelle, lichtsammelnde Antennengröße der Photosysteme in Pflanzen, Grünalgen und Cyanobakterien kann in Abhängigkeit von entweder kurzfristigem Stress oder langfristiger Akklimatisierung an hohe oder niedrige Bestrahlungsstärke, suboptimale oder supraoptimale Temperaturen variieren vary als Einschränkung der Nährstoff- und Wasserverfügbarkeit. Die Modulation der Antennengröße als Reaktion auf solche Umgebungsstörungen ist Teil einer komplexen Reaktion, die als Photoakklimatisierung bezeichnet wird. Eine häufige Auswirkung von Veränderungen dieser Umweltfaktoren ist die Schaffung eines Ungleichgewichts zwischen der durch Photochemie absorbierten Energie und der Energie, die durch die elektrochemischen Reaktionen des Elektronentransports verwendet wird, die mit der metabolischen Reduktion von C, N und S gekoppelt sind. Entweder kurzzeitiger Stress oder eine langfristige Akklimatisierung an diese Umweltbedingungen, unabhängig oder in Kombination, kann zu irreversiblen Lichtschäden oder zur Induktion von Lichtschutzmechanismen führen. Da in der Literatur ein Konsens darüber besteht, dass Struktur und Funktion von Photosystem II im Allgemeinen empfindlicher auf Änderungen dieser Umgebungsbedingungen reagieren als Photosystem I, konzentrieren wir unsere Diskussion auf die Rolle der lichtsammelnden Antenne von Photosystem II beim Lichtschutz durch die Aufrechterhaltung eines Gleichgewichts zwischen Energieeintrag durch Photochemie und anschließender Energieverwertung durch Stoffwechsel. Die Veranlagung photosynthetischer Organismen, ein solches Gleichgewicht im Energiehaushalt aufrechtzuerhalten, wird als Photostase bezeichnet. Jede Änderung des Photonenflusses, der Temperatur, des Nährstoffstatus oder der Wasserverfügbarkeit kann ein Ungleichgewicht im Energiehaushalt verursachen, das immer dann auftritt, wenn;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-2087-8_14 e08ea024907a8c92fc36fc06386a16c0;de;;;1.2.;;;Mikroalbuminurie in Perspektiven Die Entwicklung von Immunoassays (einschließlich Radioimmunoassays) zu Beginn der 1960er Jahre ermöglichte die Messung von bisher nicht nachweisbaren Albuminmengen im Urin [;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0614-9_10 3b6a7c5b6ae8207041468ae324777256;de;;;1.2.;;;Projektive Geometrie Ein schönes Beispiel für das Wachsen einer Theorie ist das Thema projektive Geometrie, zumindest was die Theorie der Kegel betrifft. Mit dieser Einschränkung ist es nicht besonders schwierig und ist vollgepackt mit einflussreichen Ideen, um selbst eine Miniaturmathematik zu sein. Dieser letztere Aspekt ist im traditionellen, sterilen, englischsprachigen Stipendienansatz nicht offensichtlich, bei dem die Hauptmotivation darin besteht, Stipendienprüfer zu schlagen (eine von Mathematik unabhängige Aktivität). Da diese Sterilität in bestimmten Institutionen zur Abschaffung der projektiven Geometrie führt, „verstopfen“ wir hier das Thema,;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-6321-0_17 897320151802223205af519d0bf4065b;de;;;1.2.;;;Geschichte und Biografie Obwohl sie bis zur Invasion der Mongolen nur in bescheidenem Umfang praktiziert wurde, ist die Geschichtsschreibung seitdem der überschwänglichste Zweig der persischen Gelehrtenliteratur. Die Zahl der historischen Werke ist ungewöhnlich groß, und obwohl ein hoher Prozentsatz von ihnen als objektive Informationsquelle minderwertig ist, gibt es immer noch eine große Zahl, die dem Historiker einen beträchtlichen Gewinn bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-3479-1_25 3d4deabbd0f9e4c1baf0b6fc486debdd;de;;;1.2.;;;Kritische Experimente bei thermomechanischer Belastung Viele verschiedene mikrostrukturelle Mechanismen können in Materialien wirksam sein, die das Materialverhalten und die Lebensdauer des Materials beeinflussen können. Die Identifizierung temperatur- und dehnungsratenempfindlicher Bereiche durch kritische Experimente würde ein besseres Verständnis des Materialverhaltens ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-3459-7_26 9ce507579a32d5280dbbfee31a3b9c0c;de;;;1.2.;;;Süßwasserumgebungen Die Süßwasserumgebungen sind äußerst vielfältig und eine Klassifizierung kann nur willkürlich und etwas künstlich sein. Die Unterscheidung zwischen Fließgewässern und stehenden Gewässern ist manchmal sehr schwierig, außerdem sind viele Binnengewässer so salzig, manchmal mehr als Meerwasser, so dass die Unterscheidung zwischen Süßwasserbiota und Meeresbiota auch in gewissem Sinne willkürlich ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-9616-8_9 5de118c720e0adca3a165b9ed0d71731;de;;;1.2.;;;Die Rolle von Formantübergängen bei der Wahrnehmung von Stress in Disylables In einer Reihe von Experimenten, über die an anderer Stelle berichtet wurde (Raphael & Dorman, 1981, Raphael, Dorman & Liberman, 1980), haben wir festgestellt, dass die Silben-Anfangsformantübergänge synthetischer CVC-Silben durch ihre Dauer zur Wahrnehmung der Vokaldauer beitragen. Unser experimentelles Paradigma forderte die Probanden auf, silbenfinale Konsonanten in CVC und VC-Silben als Englisch /t/ oder /d/ zu klassifizieren. Die einzige unabhängige Variable in den Experimenten war die Dauer des stationären Teils des Vokals. Die /t/-/d/-Phonemgrenzen, aufgetragen als Funktion der vokalen (Formanten-) Dauer, fielen sowohl in CVC- als auch in VC-Silben praktisch zusammen, was darauf hinweist, dass die anfänglichen Formantübergänge in die Wahrnehmung der Hörer von der Dauer bis etwa im gleichen Ausmaß wie die Steady-State-Formanten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-0381-5_22 1bc261e6595e84034aaaec7f2a87bc15;de;;;1.2.;;;Deuteriumpumpen mit superpermeabler Membran im Divertor von JFT-2M Tokamak In den letzten zehn Jahren wurden große Fortschritte bei der Demonstration von Hochleistungsplasmen in der Kernfusionsforschung erzielt. Dieser Fortschritt wurde oft mit verbesserten Wandmaterialien und besseren Konditionierungstechniken für die Kontrolle von Verunreinigungen und ein geringeres Recycling verbunden. Wandbeschichtungstechniken wie Karbonisierung, Borierung und Berylliumverdampfung reduzieren nicht nur die Sauerstoffkontamination und den Metalleinstrom von der Wand, sondern sorgen auch für ein reduziertes Wasserstoff-/Deuterium-Recycling um die Wand herum [1], was dafür verantwortlich ist, eine Verschlechterung des Einschlusses zu verhindern. Aufgrund der endlichen Wandkapazitäten sind diese Techniken jedoch auf transientes Pumpen beschränkt und können für den Langpulsbetrieb in supraleitenden Maschinen wie Tore Supra, LHD und ITER nicht effektiv sein. Die zukünftige Richtung hin zu Langpuls- oder stationären Experimenten erfordert die Entwicklung eines neuen Typs von Divertor-Pumpsystemen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4331-8_5 a94319b981f4e077052138a49ba8f63f;de;;;1.2.;;;Familiäre Hypercholesterinämie in Italien Plasmacholesterinbewertung und diagnostische Erkenntnisse Die genetisch und klinisch gut charakterisierte familiäre Hypercholesterinämie (FH) stellt für den Hausarzt eigentlich ein „diagnostisches Problem“ dar.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-3205-0_36 d4a0a6e638cab4358e52812bb4ba2197;de;;;1.2.;;;Entsorgung in Tiefbrunnen Die unterirdische Abwasserentsorgung und -speicherung durch Brunneninjektion wird heute sowohl von Industrien [1–5] als auch von Kommunen [2, 6–9] erwogen, um zur Lösung von Umweltproblemen beizutragen. Ein vom Kongress im Clean Water Act von 1972 (PL 92–500) festgelegtes nationales Ziel war es, bis 1985 alle Schadstoffeinträge in schiffbare Gewässer einzustellen [10]. Die Kapazität von Oberflächengewässern, Abwässer aufzunehmen, ohne bestehende Wasserqualitätsstandards zu verletzen, nimmt mit der Zeit ab. Die Kosten für die Entsorgung oder Lagerung durch konventionelle und fortschrittliche Abfallbehandlungstechniken steigen rapide. Diese und andere Faktoren haben dazu geführt, dass sowohl Einleiter als auch Regulierungsbehörden die Injektion in den Untergrund als einen Mechanismus zur Entsorgung von Abfallflüssigkeiten in Betracht ziehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-4822-4_5 b6284ea7807ee0329ea43222be7b248e;de;;;1.2.;;;Antioxidative Aktivität von Propolis von Westalgerien Propolis ist ein harzhaltiges Material, das Bienen aus den Knospen und der Rinde einiger Bäume, insbesondere Nadelbäume, sammeln. Dieser natürliche Mastix ist reich an Wirkstoffen, insbesondere phenolischen Verbindungen mit wichtigen therapeutischen Eigenschaften. Die Untersuchung der antioxidativen Aktivität von Propolis-Extrakten aus verschiedenen Orten Westalgeriens hat gezeigt, dass die Menge an phenolischen Verbindungen und die durch den 2,2-Diphenyl-1-Picrylhydrazyl-Test nachgewiesene Reinigungsaktivität von der geografischen Lage und der lokalen Flora jedes Gebiets abhängt lernen. Die Studie bestätigte auch, dass die verbleibenden Extrakte reich an Wirkstoffen sind, die die anderen biologischen Aktivitäten aufwerten können.;-;-;-;https://link.springer.com/article/10.1007/s10298-016-1085-9 a6aa7820f8c7f4b5832d3a139115f968;de;;;1.2.;;;Gefäßentwicklung, Schlaganfall und neurodegenerative Erkrankungen: ein Ort für neue klinische Interventionen? Schlaganfall und Alzheimer-Krankheit (AD) sind die Hauptursachen für Demenz in Industrieländern. Bisher wurden beide Erkrankungen, vaskuläre Demenz (VaD) und AD, als völlig unterschiedliche Entitäten mit eigener Physiopathologie betrachtet. Ersteres aufgrund einer Durchblutungsstörung des Gehirns und letzteres aufgrund einer primären degenerativen Erkrankung des Gehirns. Neuere epidemiologische Studien sowie neuropathologische Befunde haben jedoch auf Gemeinsamkeiten zwischen beiden Entitäten hingewiesen. Daher haben einige Autoren die „vaskuläre Hypothese der AD“ vorgeschlagen, die AD als eine Gefäßerkrankung mit neurodegenerativen Folgen oder „Vasokognopathie“ betrachtet. Dies hat pharmakologische Implikationen, da es die Möglichkeit für neue therapeutische Ansätze zur Behandlung von AD eröffnet, beispielsweise durch Stimulation der Angiogenese im Gehirn.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-9495-7_14 69cd937ba81c72e2179c542e8e314bb0;de;;;1.2.;;;Kieselalgen in neueren atlantischen (20° S bis 70° nördlicher Breite) Sedimenten: Häufigkeitsmuster und ihre Bedeutung Klappenabundanzen von marinen planktonischen, marinen benthischen und Süßwasser-Kieselalgen in 780 Sedimentoberflächenproben aus dem Nord- und Äquatorialatlantik zwischen 20° S 75° W und 70° N 10° E zeigen Muster, die nicht den veröffentlichten Aufzeichnungen der Primärproduktion in der . entsprechen fotografische Zone. Im Gegenteil, ihre Häufigkeit steht in engerem Zusammenhang mit der Auflösung und Verdünnung durch terrigenes minerogenes und biogenes Karbonatmaterial. Die höchsten Vorkommen an marinen planktonischen Kieselalgen kommen im nördlichen Nordatlantik südlich von Island und in den äquatorialen Regionen vor. Der zentrale Nordatlantik und die zentrale Karibik, die eine geringere Primärproduktion in der photischen Zone aufweisen, enthalten wenige oder keine Kieselalgen in Oberflächensedimenten. Aus Afrika stammende Süßwasserkieselalgen sind in einem Lappen zwischen 5° südlicher und 20° nördlicher Breite konzentriert, wobei die Zahl vom afrikanischen Kontinent nach Westen abnimmt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-3622-0_15 fe3d473d5be3976ef0da094922852173;de;;;1.3.;;;Virtuelle Labore im Bildungswesen Praktische Erfahrungen sind ein wichtiger Bestandteil des Bildungsprozesses. Der oft benötigte zeitliche und wirtschaftliche Aufwand für die Einrichtung und den Bau von wissenschaftlichen Laboratorien liegt jedoch außerhalb der Möglichkeiten vieler Institutionen. Eine Lösung für dieses Problem könnte in der Anpassung der Virtual-Reality-Technologie gefunden werden, die die Schaffung von virtuellen Labors ermöglichen könnte, die die Prozesse und Aktionen simulieren, die in realen Labors stattfinden könnten. Insbesondere schlägt und beschreibt dieses Papier, basierend auf der Expertise und Motivation des VirRAD-IST-Projekts, ein solches pädagogisches virtuelles Labor, das darauf abzielt, die Anforderungen eines realen Labors zu erfüllen und darüber hinaus Kommunikations- und Kooperationsdienste zu unterstützen. Wir schlagen ein webbasiertes System vor, das es Benutzern ermöglicht, Experimente in Bildungsbereichen wie Physik oder Chemie in 3D-Multiuser-Welten durchzuführen, in denen Benutzer durch Avatare repräsentiert werden und ihnen eine breite Palette von Kommunikations- und Kollaborationsdiensten angeboten wird, um zu simulieren effizient ein echter experimenteller Lernprozess.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-24047-0_2 fa4e6bd783548adc5a0773bdff0b5362;de;;;1.2.;;;Therapie der chronischen Hepatitis-B-Infektion Es gibt viele Parallelen zwischen einer Infektion mit dem Hepatitis-B-Virus (HBV) und der Infektion mit dem humanen Immunschwächevirus (HIV). HBV ist ein teilweise doppelsträngiges DNA-Virus, das über ein RNA-Zwischenprodukt repliziert, um virale DNA zu produzieren, ein Prozess, der eine virale reverse Transkriptase erfordert. Daher können Reverse-Transkriptase-Inhibitoren, die bei einer HIV-Infektion wirksam sind, auch gegenüber HBV aktiv sein. HBV wird durch die gleichen Mechanismen übertragen wie HIV (sexuelle, parenterale und perinatale Exposition) und daher gibt es viele Ähnlichkeiten in der Epidemiologie dieser beiden Viren. Wie Patienten mit einer HIV-Infektion besteht bei Patienten mit einer chronischen HBV-Infektion das Risiko, nach Jahren oder sogar Jahrzehnten der Infektion Komplikationen zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-9209-6_19 ad6c7b118b87d6c0cbc753f1836fa518;de;;;1.2.;;;Zellkinetische Faktoren, einzelne Medikamente und Kombinationen Die Unvorhersehbarkeit und die Heterogenität des Ansprechens erschweren die Extrapolation auf die klinische Krebs-Chemotherapie sehr. Eine bessere Vorhersage kann durch die Integration von Ergebnissen aus Studien gemacht werden, die zellkinetische Faktoren, zelluläre Pharmakokinetik und Biochemie der Arzneimittelexposition kombinieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-81488-4_33 7e20c0dd635477b985da24cd3999fc79;de;;;1.2.;;;Der historische Prozess und seine Erklärung: Karl Popper und seine Schuldner Eine schematische Einteilung verschiedener Richtungen der Geschichtsphilosophie könnte darauf hinweisen, dass „klassische“ philosophische Ansichten sich mit der Natur der historischen Prozesse, ihren Komponenten, ihrer Bedeutung und ihrem Ziel befassen. Im klassischen Ansatz bezieht sich historisches Verständnis auf eine Einschätzung des historischen Prozesses. Das philosophische Problem der Geschichte ist zweifach, beide Aspekte des Problems tauchen auch in Hegels Auseinandersetzung mit den beiden Seiten des Begriffs „Geschichte“ als Ablauf und als dessen Verständnis auf. Die klassische Tradition bezieht sich in diesem Sinne auf Hegel, Marx, Comte, Croce, Bradley usw., die ihr Bild geprägt haben. Gemessen an der allgemeinen Tendenz der klassischen Tradition scheint das neuere Interesse an der Geschichte eine andere Richtung einzuschlagen, die man grob als methodologisch bezeichnen könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-1351-2_4 152e01da198e09401e3b8be01e7e436d;de;;;1.2.;;;GESCHICHTE ALS WISSENSCHAFT: [John Bagnell Bury (1861–1927) war klassischer Philologe, bevor er Historiker wurde, und seine Arbeiten zur spätrömischen Zeit und zum Byzantinischen Reich zeichneten sich durch hohe Kompetenz auf beiden Gebieten aus. Im Alter von 28 Jahren schrieb er;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-15406-7_15 9d32f995fcb7c44fe8a5ac77314c1592;de;;;1.2.;;;Vasopressin und endokrine Funktion Auf dem Gebiet der Endokrinologie gibt es immer mehr Beispiele für Hormone, die ursprünglich aufgrund bestimmter Wirkungen identifiziert und benannt wurden und später auch andere Wirkungen haben, von denen sich einige als von größerer physiologischer Bedeutung erweisen als die Originale. Vasopressin (VP) ist eines der früheren Beispiele für dieses Phänomen, da es aufgrund seiner vasopressorischen Eigenschaften identifiziert und benannt wurde, erst später wurde erkannt, dass es als antidiuretisches Hormon von noch größerer Bedeutung ist. Noch später erregte dieses Peptid aufgrund seiner Auswirkungen auf die Funktionen einer Vielzahl endokriner Organe Aufmerksamkeit, und dieser Aspekt der Physiologie von VP wird in diesem Kapitel behandelt. Da die ältere Literatur auf diesem Gebiet 1968 von Döpfner gesichtet wurde, konzentrieren wir uns auf die Fortschritte seit dieser Zeit. Wie so oft waren viele dieser Fortschritte in unserem Wissen über die betreffende Physiologie nur aufgrund der jüngsten technologischen Fortschritte möglich. Zum Beispiel haben sich Assays für die von VP beeinflussten Hormone (sowie für VP selbst) dramatisch verbessert, und die Strukturen einiger dieser Hormone (z. B. der hypophys-iotropen Hormone) wurden erst kürzlich aufgeklärt. Auch die Verfügbarkeit von synthetischen Agonisten und Antagonisten für VP erweist sich für die Untersuchung der an endokrinen Wirkungen beteiligten Rezeptoren als ebenso wertvoll wie für die klassischeren pressorischen und antidiuretischen Wirkungen von VP. Schließlich hat die weit verbreitete Verwendung der Brattle-boro-Ratte mit ihrem angeborenen Mangel an VP einen besonders starken Beitrag zur Untersuchung der endokrinen Wirkungen von VP geleistet. Die Endokrinopathien der Brat-Tleboro-Ratte werden in diesem Kapitel in gewissem Umfang betrachtet, aber der Leser wird für weitere Details auch auf eine neuere Monographie (Sokol und Valtin, 1982) verwiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-8129-1_11 0fa7aca5158faf2e5f01bfe8aaee154f;de;;;1.3.;;;Forschung zum Ausbildungszustand chinesischer Fachleute für geistiges Eigentum Der Beitrag analysiert das Konzept und die Klassifizierung des chinesischen geistigen Eigentums. Und dann führt es eine detaillierte Bedarfsanalyse der chinesischen Fachleute für geistiges Eigentum (IPP) durch, die praktische Fachleute für geistiges Eigentum und Fachleute für geistiges Eigentum in der Forschung umfasst. Und es weist darauf hin, dass einige Probleme in der Ausbildung von chinesischen Fachleuten für geistiges Eigentum liegen. Die Probleme sind der enge universelle Geltungsbereich des geistigen Eigentums, der gravierende Mangel an ausgebildeten Fachleuten für geistiges Eigentum und der Mangel an Lehrern für geistiges Eigentum. Endlich gibt es einige Lösungen, um die Probleme zu lösen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23235-0_27 9708b920926f7187b69b9da7154c421c;de;;;1.2.;;;C/1995 O1 (Hale-Bopp): Gasproduktionskurven und ihre Interpretation Die Entdeckung von C/1995 O1 (Hale-Bopp) bei 7 AE von der Sonne bot die erste Möglichkeit, die Aktivität eines hellen Kometen über einen großen Bereich heliozentrischer Entfernungen r . zu verfolgen;-;-;-;https://link.springer.com/article/10.1023/A%3A1006225030955 997d3c5ea606ea6f3c6ef36ca2e49ef9;de;;;1.2.;;;Reinterventionen nach komplizierter oder fehlgeschlagener Hämorrhoidopexie mit Klammern Die geklammerte Hämorrhoidopexie ist in den letzten fünf Jahren immer beliebter geworden, hauptsächlich aufgrund der Annahme, dass sie mit weniger Schmerzen verbunden ist. Persistierende Tags und Rezidive können jedoch ein Problem darstellen, da Hämorrhoiden nicht entfernt werden und gelegentlich über schwere Komplikationen berichtet wurde, die eine Operation erforderten. Ziel der vorliegenden Studie ist es, die Ursachen und das Ergebnis einer Reintervention nach entweder schwer komplizierter oder fehlgeschlagener Stapler-Hämorrhoidopexie zu analysieren.;-;-;-;https://link.springer.com/article/10.1007/s10350-004-0721-x 6ecb9aa2b105ccc4189d1e23edbef25b;de;;;1.2.;;;Assoziation asymmetrischer Plaquebildung in der Harnblase erwachsener Menschen mit therapeutischer Bestrahlung Asymmetrische Einheitsmembran (AUM) ist bei vielen Arten ein Bestandteil der luminalen Membran der Harnblase. Bei normalen menschlichen Erwachsenen ist es unauffällig, tritt jedoch nach einer zufälligen Exposition gegenüber einer therapeutischen Bestrahlung auf.;-;-;-;https://link.springer.com/article/10.1007/BF01934049 fd91c64be03d4114ee57c7a579be5576;de;;;1.3.;;;Sport-Fußorthesen Die Vorteile eines multidisziplinären Teams gehen ohne eine gut ausgeführte Fußorthesenfertigung und Schuhmodifikation verloren. Der Zweck dieses Kapitels ist es, die Fußorthese-Empfehlungen für häufige Sportverletzungen des Fußes bereitzustellen. Dazu gehören Schuhmodifikationen und individuelle Fußorthesen auf Basis spezifischer Diagnosen. Der Zweck dieser Behandlungen besteht darin, dem Patienten/Sportler eine schnelle Rückkehr zu seiner gewählten sportlichen Aktivität zu ermöglichen. Es ist zwingend erforderlich, dass das Rehabilitationsteam, der Arzt, der Orthopädietechniker, der Therapeut und der Sporttrainer aktiv an der Patientenversorgung beteiligt sind, um optimale Ergebnisse mit minimalen Ausfallzeiten zu erzielen. Der Teamansatz ist im Umgang mit dem Sportler noch wichtiger, da sich seine Bedürfnisse auf und neben dem Spielfeld je nach Schuhanforderungen seines Sports ändern können.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-7427-3_13 46da217012361b04e6adb6f910b71b5d;de;;;1.3.;;;Eine chirurgische und anatomisch-histologische Studie zum transoralen endoskopischen Thyroidektomie-vestibulären Ansatz (TOETVA) Die Zahl der TOETVA-Operationen hat weltweit zugenommen, aber die anatomische Passage von Trokaren ist nicht klar definiert. Unser Ziel war es, eine detaillierte chirurgische anatomische Passage der Trokare bei Leichen zu definieren. Die Schnitte im Mundvorhof, anatomische Bahnen von Trokaren, betroffene mimetische Muskeln, neurovaskuläre Beziehungen von Trokaren und die histologische Korrelation der chirurgischen Anatomie wurden untersucht.;-;-;-;https://link.springer.com/article/10.1007/s00464-019-06856-1 f7c362764d87e6d9e4a5c4c254e6830a;de;;;1.3.;;;Verwendet jemand die Techniken, die wir lehren? Dieser Artikel berichtet über die Ergebnisse einer Umfrage zum Einsatz quantitativer Techniken durch Unternehmen in Dänemark, Schottland und Großbritannien. Die Umfrage untersucht den Bekanntheitsgrad verschiedener Techniken in den drei Ländern und den vergleichbaren Einsatz dieser Techniken. Der Einfluss von Industriestruktur und Unternehmensgröße auf Bekanntheit und Nutzung wird ebenfalls untersucht.;-;-;-;https://link.springer.com/article/10.1057/ori.1994.7 bb1fd1dc7e77241e559207866bf8fb08;de;;;1.3.;;;Elektronenmobilität und Driftgeschwindigkeit in selektiv dotierten InAlAs/InGaAs/InAlAs-Heterostrukturen Eine Erhöhung der Elektronenmobilität und Driftgeschwindigkeit in hohen elektrischen Feldern in Quantentöpfen von selektiv dotierten InAlAs/InGaAs/InAsAs-Heterostrukturen wird experimentell durch Kontrolle der Zusammensetzung der die Grenzfläche bildenden Halbleiter erreicht. Die Elektronenbeweglichkeit an der Grenzfläche im In;-;-;-;https://link.springer.com/article/10.1134/S1063782611090259 6eae2f8258361c99b755ea1ab6390cb2;de;;;1.3.;;;Die praxisorientierte Konstruktion der Ingenieurausbildung basierend auf dem TOPCARES-CDIO-Modell TOPCARES-CDIO basiert auf dem CDIO-Ingenieurausbildungskonzept und mit den Merkmalen des Dalian Neusoft Institute of Information (Dalian Neusoft II) anwendungsorientierten Personalausbildungsmodus, der großen Wert auf die Verbesserung der Fähigkeiten der Studenten legt. College Students Entrepreneurial Center (Student Office & Venture Office, im Folgenden als SOVO bezeichnet) ist Dalian Neusoft II hat eine bahnbrechende IT Talents Cultivation Base in Chinas Colleges geschaffen, die mit einer neuen Bildungsphilosophie und einem ingenieurwissenschaftlichen Ausbildungsmodus kombiniert wird. Im Vergleich zu einigen anderen Ländern ist die unternehmerische Ausbildung chinesischer Studenten noch relativ rückständig. Dieses Papier kombiniert die Möglichkeiten und den Status der unternehmerischen Ausbildung und Berufsberatung chinesischer Studenten, die Dalian Neusoft II den tatsächlichen Merkmalen entsprechen, ein geeignetes Studenten- und effektives neues Modell entwickelt, das der Aufbau einer ingenieurwissenschaftlichen Geschäftspraxisbasis auf der Grundlage von TOPCARES . ist -CDIO. Für die Reform der SOVO-Praxis-Lehrbasis führte es eingehende Studien und Forschungen durch, wobei die Hervorhebung von SOVO auf der Grundlage der TOPCARES-CDIO-Philosophie der Ingenieurausbildung hervorgehoben wurde, um die Fähigkeiten der Studenten zu verbessern, die wichtige Reformen durchgeführt haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24022-5_53 e84f02ef8ce2304339da3585890a62c5;de;;;1.3.;;;Blick über das Tal hinaus: Eine fünfjährige Fallstudie zur Kursinnovation Es wurden Längsveränderungen in der Kursbewertung der Studierenden während des gesamten Prozesses der Implementierung einer informationstechnologiegestützten Durchführung eines Veterinärimmunologiekurses untersucht. Die Schülerbewertungen von fast allen Aspekten des Kurses und des Unterrichts gingen während des Fünfjahreszeitraums der Technologieimplementierung erheblich zurück und erholten sich dann wieder und übertrafen ihr vorheriges Niveau, nachdem die Technologie vollständig implementiert war. Dieser Befund wird im Kontext der Bildungswandel- und Innovationsliteratur diskutiert. Es ist wichtig zu verstehen, wie sich Kursinnovationen im Laufe der Zeit auf die Bewertungen der Studierenden auswirken, um zu vermeiden, dass Innovatoren für vorhersehbare, vorübergehende Verschlechterungen der Kursqualität durch die Studierenden während der Implementierung von Innovationen bestraft werden.;-;-;-;https://link.springer.com/article/10.1023/A%3A1012288421619 41eae4d17c873d713d717fef4845711f;de;;;1.3.;;;Sicherheit am Geldautomaten Mit dem zunehmenden Einsatz des asynchronen Übertragungsmodus (ATM) in Umgebungen sowohl des lokalen Netzes (LAN) als auch des Weitverkehrsnetzes (WAN) steigt das Interesse an sicheren Mitteln zur Übertragung sensibler Informationen über ATM. Angesichts potenzieller Anwendungsfelder, die Quality of Services (QoS) von ATM erfordern, wie beispielsweise die Übertragung medizinischer Bilder, die Anbindung von Zweigstellen an Firmennetzwerke oder staatliche Netzwerke, die sensible Bürgerinformationen übertragen, ist Sicherheit nicht nur erwünscht, sondern unverzichtbar, Notwendigkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35581-8_4 be7d5e440bab15d185797ee5adfa09d7;de;;;1.3.;;;Wahrnehmung von Artikulationsinformationen in natürlicher Sprache durch Affen im Vergleich zu Menschen Vier Affen und sechs Menschen, die fünf verschiedene Muttersprachen repräsentieren, wurden hinsichtlich der Fähigkeit verglichen, natürliche CV-Token von /b/ gegenüber /d/ zu kategorisieren, die von vier Sprechern des amerikanischen Englisch (2 männlich, 2 weiblich) in vier Vokalkontexten (/i, e, a, u/). Es wurde ein „links/rechts“-Verfahren mit zwei Wahlmöglichkeiten verwendet, bei dem sowohl die prozentualen korrekten Daten als auch die Antwortzeitdaten zwischen den Arten verglichen wurden. Beide Messungen zeigten auffällige Kontexteffekte für Affen, da sie bei den hinteren Vokalen /a/ und /u/ besser abschneiden als bei den vorderen Vokalen /i/ und /e/. Menschen zeigten keine Kontexteffekte für das prozentual korrekte Maß, aber ihre Reaktionszeiten zeigten eine Verbesserung für den /i/-Vokal im Gegensatz zu Affen. Die Ergebnisse deuten darauf hin, dass die Wahrnehmung des Artikulationsortes durch Affen stärker von der Richtung der F2-Einsatzübergänge der Silben abhängt als die menschliche Wahrnehmung, da die Rückvokale F2 deutlicher /b/ und /d/ unterscheiden. Obwohl Affen kein genaues Modell der Wahrnehmung des erwachsenen Menschen vor Ort liefern, können sie das präverbale menschliche Kind modellieren, bevor es eine sprachspezifischere Strategie zur Extraktion von Ortsinformationen lernt.;-;-;-;https://link.springer.com/article/10.3758/BF03195002 dd53abfee7f5a467ee3364d1641bc9f2;de;;;1.3.;;;Erkennbarkeit von Dauer- und Intensitätszunahmen in Melodietönen: Ein teilweiser Zusammenhang zwischen Musikwahrnehmung und Darbietung Zwei Experimente demonstrieren Positionsvariationen in der relativen Erkennbarkeit lokaler zeitlicher bzw. dynamischer Störungen in einer isochronen und isodynamischen Folge von Melodietönen, gespielt auf einem computergesteuerten Klavier. Diese Variation kann die Erwartungen der Zuhörer an die Mikrostruktur der Ausdrucksleistung widerspiegeln (die;-;-;-;https://link.springer.com/article/10.3758/BF03208378 230e905e67fe48ecf9af34ee15908d06;de;;;1.3.;;;Herz-Kreislauf-Reaktionen auf die Dehnung der Skelettmuskulatur: Die Wahrheit „dehnen“ oder ein neues Übungsparadigma für die kardiovaskuläre Medizin? Stretching wird häufig mit dem beabsichtigten Zweck verschrieben, den Bewegungsumfang zu erhöhen, die Muskelkoordination zu verbessern und eine längere Immobilisierung durch Alterung oder eine sitzende Lebensweise zu verhindern. Neue Erkenntnisse deuten darauf hin, dass akute oder langfristige Dehnübungen eine Vielzahl von kardiovaskulären Reaktionen modulieren können. Insbesondere zu Beginn der Dehnung löst die mechanische Verformung des Gefäßbetts in Verbindung mit der Stimulation der afferenten Muskelfasern der Gruppe III eine Kaskade von Ereignissen aus, die sowohl zu einer peripheren Vasodilatation als auch zu einem herzfrequenzgesteuerten Anstieg des Herzzeitvolumens, des Blutdrucks und der Muskulatur führt Blutfluss. Dieses Potenzial zur Erhöhung der Scherbelastung und des Blutflusses ohne übermäßigen Muskelenergieverbrauch kann wichtige Auswirkungen auf die zukünftige therapeutische Gefäßmedizin und die Herzgesundheit haben. Die Idee, dass eine kardiovaskuläre Komponente an der Dehnung der menschlichen Skelettmuskulatur beteiligt sein könnte, ist jedoch relativ neu. Daher ist die primäre Absicht dieses Reviews, Themen im Zusammenhang mit der Dehnung der Skelettmuskulatur und der kardiovaskulären Regulation und Funktion hervorzuheben. Die aktuellen Erkenntnisse deuten darauf hin, dass akutes Dehnen ein signifikantes makro- und mikrozirkulatorisches Ereignis verursacht, das den Blutfluss und die Beziehung zwischen Sauerstoffverfügbarkeit und Sauerstoffnutzung verändert. Diese akuten Gefäßveränderungen können, wenn sie chronisch durchgeführt werden, zu einer verbesserten Endothelfunktion, einer verbesserten arteriellen Blutgefäßsteifigkeit und/oder einem verringerten Blutdruck führen. Obwohl mehrere Mechanismen postuliert wurden, wurde eine erhöhte Bioverfügbarkeit von Stickstoffmonoxid als ein vielversprechender Kandidat für die Verbesserung der Gefäßfunktion durch Dehnung hervorgehoben. Insgesamt legen die in diesem Review vorgelegten Beweise nahe, dass akutes oder langfristiges Dehnen als eine neue und alternative therapeutische Intervention mit geringer Intensität dienen kann, die mehrere Parameter der Gefäßfunktion verbessern kann.;-;-;-;https://link.springer.com/article/10.1007/s40279-017-0768-1 4e7f3764e16750054f9b4c9e814e4845;de;;;1.3.;;;Eine Umfrage zu den Lernprofilen der Roma-Erzieher in Griechenland, um die richtige E-Learning-Umgebung für ihre Ausbildung zu entwickeln Durch den Einsatz neuer Technologien im Bildungsbereich können zeitliche und örtliche Barrieren überwunden und die Kosten gesenkt werden. Das E-Training von Pädagogen ist ein interessantes und herausforderndes Feld, in dem verschiedenen Gruppen von Pädagogen je nach ihren Besonderheiten personalisierte Lernumgebungen angeboten werden. Dieses Dokument befasst sich mit Pädagogen von Roma (Zigeunern) in Griechenland und bietet einen Überblick über ihr Lernprofil, das es ermöglicht, die geeigneten e-Learning-Tools zur Entwicklung der effektivsten e-Learning-Umgebung für ihre Ausbildung zu verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87783-7_46 54e9627ae640c72bd73341c7f1c6276f;de;;;1.3.;;;Testkostensensitive Klassifikation mit Greedy-Algorithmus für Trainingsdaten Es wurde viel Arbeit geleistet, um mit dem testkostensensitiven Lernen von Daten mit fehlenden Werten umzugehen. Es gibt einen Konflikt zwischen Effizienz und Genauigkeit zwischen den bisherigen Strategien. Sequentielle Teststrategien haben aufgrund ihrer sequentiellen Eigenschaft eine hohe Genauigkeit, aber eine geringe Effizienz. Einige Batch-Strategien haben eine hohe Effizienz, führen jedoch zu einer schlechten Leistung, da sie alle Entscheidungen auf einmal unter Verwendung von Ausgangsinformationen treffen. In diesem Papier schlagen wir eine neue Teststrategie, den GTD-Algorithmus, vor, um dieses Problem anzugehen. Unser Algorithmus verwendet Trainingsdaten, um die Vorteile eines unbekannten Attributs zu beurteilen und wählt jedes Mal das nützlichste unbekannte Attribut aus, bis es keine lohnenden unbekannten Attribute mehr gibt. Es ist sinnvoller, den Nutzen eines unbekannten Attributs anhand der tatsächlichen Leistung der Trainingsdaten anders als anhand der Schätzung zu beurteilen. Unsere Strategie ist sinnvoll, da sie eine hohe Effizienz (Wir verwenden nur Trainingsdaten, damit GTD nicht sequenziell ist) und gleichzeitig niedrigere Gesamtkosten als die vorherigen Strategien hat. Die Experimente belegen auch, dass unser Algorithmus bisherige Algorithmen deutlich übertrifft, insbesondere bei einer hohen Missing Rate und großen Schwankungen der Testkosten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16493-4_46 32b36480eb14c5a81bfa148dd89f06c3;de;;;1.3.;;;Iterative Trainingstechniken für phonetische Schablonenbasierte Spracherkennung mit einem sprecherunabhängigen Phonetikerkenner Dieses Papier stellt ein neues Verfahren vor, das die Leistung des sprecherspezifischen phonetischen Vorlagen-basierten Spracherkenners mit den sprecherunabhängigen (SI) Phonem-HMMs verbessert. Da der auf phonetischen Vorlagen basierende Spracherkenner nur die Phonemtranskription der Eingabeäußerung verwendet, ist die Leistung des Systems aufgrund der Fehlanpassung zwischen den Trainingsdaten und den SI-Modellen schlechter als die des sprecherabhängigen Systems. Um diese Probleme zu lösen, wird ein neues Trainingsverfahren vorgestellt, das die phonetischen Vorlagen und Transformationsvektoren für die Anpassung der SI-Phonem-HMMs iterativ schätzt. Die stochastischen Anpassungsverfahren auf der Grundlage der phonetischen Klasse und auf der Grundlage des Codebuchs werden verwendet, um die Transformationsvektoren für die Sprecheranpassung zu schätzen. Die Leistungsbewertung unter Verwendung der sprecherabhängigen Erkennungsexperimente, die über eine tatsächliche Telefonleitung durchgeführt wurden, zeigte eine Verringerung der Fehlerraten von etwa 40% im Vergleich zu dem herkömmlichen sprecherspezifischen phonetischen Schablonen-basierten Spracherkenner.;-;-;-;https://link.springer.com/chapter/10.1007/11589990_60 97a7fcae57d7b48bafce3a7eef1d0ad3;de;;;1.3.;;;Parameterschätzung neuronaler Netze und Reduzierung der Dimensionalität bei der Bewertung der Spannungsstabilität von Stromversorgungssystemen Der Bedarf an Echtzeit-Sicherheitsbewertungen von Stromversorgungssystemen hat aufgrund des offenen Systems, der Zunahme der Anzahl von Power-Wheeling-Transaktionen und Umweltbedenken zugenommen. In diesem Artikel wird besonderes Augenmerk auf die Parameterschätzung und Dimensionsreduktion neuronaler Netze gelegt, um die Generalisierung neuronaler Netze bei großskaligen Problemen zu verbessern. Die Ergebnisse belegen die Fähigkeit neuronaler Netze, den kritischsten Spannungsstabilitätsspielraum in einem Stromsystem zu modellieren. Der vorgeschlagene Ansatz wird mit einem IEEE 118-Bus-Testnetzwerk getestet. Die Generalisierungs- und Trainingszeit eines neuronalen Netzmodells kann mit vorgeschlagenen Methoden deutlich verbessert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0509-1_17 780fdb115f630f4ee3165fe317ce89dd;de;;;1.3.;;;Steigern Sie das Interesse an der Cybersecurity-Karriere durch spielbare Fallstudien In diesem Papier stellen wir einen Ansatz für die Cybersicherheitsausbildung vor und helfen den Schülern, ein professionelles Verständnis in Form einer spielbaren Fallstudie (PCS) zu entwickeln, einer Form der Bildungssimulation, die sich auf Angebote des breiteren Bildungssimulationsgenres, Fallstudienanweisungen und Bildungsangebote stützt Alternative Reality-Spiele (oder ARGs). Ein PCS ist eine interaktive Simulation, die es den Studierenden ermöglicht, als Mitglied eines professionellen Teams ein authentisches Szenario (Fallstudie) durchzuspielen. Wir berichten über unsere Ergebnisse einer mehrjährigen Studie eines PCS namens Cybermatics mit Daten von 111 Studenten von zwei verschiedenen US-Universitäten, die mit dem PCS interagierten. Cybermatics steigerte das Verständnis der Schüler für bestimmte Schlüsselaspekte der professionellen Cybersicherheitsarbeit, stärkte ihr Vertrauen in die erfolgreiche Anwendung bestimmter Fähigkeiten im Zusammenhang mit Cybersicherheit und steigerte etwa die Hälfte des Interesses der Studenten an einer Karriere im Bereich Cybersicherheit. Die Schüler berichteten auch über eine Reihe von Gründen, warum sich ihre Wahrnehmungen in diesen Bereichen geändert haben (sowohl positiv als auch negativ). Wir diskutieren auch Designspannungen, die wir in unserem Prozess erlebt haben und denen andere bei der Erstellung von Simulationen wie einem PCS begegnen könnten, da sie versuchen, die Authentizität von gestalteten Lernerfahrungen auszugleichen und sie auch für Neulinge mit wenig Hintergrund in einer Disziplin ausreichend zu rüsten.;-;-;-;https://link.springer.com/article/10.1007/s11528-021-00585-w d2e4264ec8fbbf592731e9e4b03bfd2d;de;;;1.3.;;;Forschung zum plyometrischen Training: Interpretation und Anwendung Einige Untersuchungen haben gezeigt, dass plyometrisches Training eine wichtige Rolle bei der Verbesserung der Schnelligkeit spielt. Trotz der Tatsache, dass diese Methode eine bedeutende Rolle gespielt hat, wurde sie jedoch auch nicht verwendet und verstanden. Um die Methode objektiv zu verstehen und anzuwenden, analysiert die Studie daher die Herkunft und Definition des Konzepts, die physiologischen Grundlagen, die Wirkungen und Methoden des Trainings. Die Ergebnisse zeigten, dass die herausragende Rolle darin besteht, die Geschwindigkeitsfähigkeit des menschlichen Körpers, abgesehen von der maximalen Muskelkraft, zu verbessern. Basierend auf einer solchen Analyse hofft der Autor, dass dieser Artikel die Anwendung des plyometrischen Trainings im Sport verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23062-2_55 433bc616c400d2afde8d88ffedaad1e6;de;;;1.3.;;;Rückenschmerzen bei polnischen Militärhubschrauberpiloten Kreuzschmerzen bei Piloten von Militärhubschraubern werden in der Weltliteratur vielfach diskutiert. Durch Vibrationen und falsche Sitzkonfiguration können Hals-, Brust- und Lendenwirbelsäule überlastet werden. Ziel der Studie war es, die Häufigkeit und Intensität von Schmerzen in der Wirbelsäule zu bestimmen sowie subjektive Risikofaktoren von Rückenschmerzen und deren Auswirkung auf das Handeln des Piloten beim Fliegen eines Hubschraubers zu identifizieren.;-;-;-;https://link.springer.com/article/10.2478/S13382-012-0033-7 68680ff7162cfaf942a150e09842c560;de;;;1.3.;;;Doppelte iterative Kompensationslernsteuerung für das aktive Training des Roboters zur Rehabilitation der oberen Extremitäten In diesem Beitrag wird das Problem der nichtparametrischen Unsicherheit in der aktiven Trainingsphase von Schlaganfallpatienten diskutiert. Auf der Grundlage der nichtlinearen iterativen Lerntheorie wird eine doppelte iterative Kompensationslernsteuerung vorgeschlagen. Diese Methode verwendet die Strategie der Doppelschleifeniteration, die die Reglerparameter in Echtzeit anpassen kann, um den Zustand des Patienten zu erfüllen. Zuerst wird eine Klasse gesättigter nichtlinearer Funktionen eingeführt, um die Anforderung von Positionsbeschränkungen zu erfüllen. Dann wird eine selbstmodifizierte Strategie der Referenztrajektorie für den anfänglichen Positionierungsfehler entworfen. Inzwischen ist der iterative Kompensationscontroller entsprechend dem aktiven Drehmoment des Patienten ausgelegt, der eine angemessene Leistungskompensation für die betroffene Extremität bereitstellen und die Parameter des iterativen lernenden Controllers kontinuierlich aktualisieren kann. Schließlich sind die Konvergenzbedingung und ihr Beweis angegeben. Die Simulationsergebnisse zeigen die Wirksamkeit und Praktikabilität der vorgeschlagenen optimalen Steuerungsstrategie mit doppelter iterativer Kompensation.;-;-;-;https://link.springer.com/article/10.1007/s12555-017-0163-6 83e5ce71ebc1c6fa9cc8492f1a4eb698;de;;;1.3.;;;Wechselbeziehungen von Wahrnehmungsmeldungen von Geruch, Geschmack und Reizung über den nahen Schwellenwertbereich für Mitglieder der Reihe der N-aliphatischen einwertigen Alkohole Viele Verbindungen sind psychophysikalisch komplex, weil sie alle drei chemischen Sinne, Geruch, Geschmack und Reizung stimulieren.3 Wechselbeziehungen zwischen diesen drei Modalitäten werden über den nahen Schwellenwertbereich berichtet, und Vergleiche werden für drei solcher Verbindungen angestellt, Methanol, Ethanol und Propanol . Achtzehn Ss wurden über 16 Sitzungen jeweils unter einer Reihe von Bedingungen getestet: eine kombinierte Aufgabenbedingung, die dem normalen Trinken nahe kam, bei der Schwellenwerte für alle drei Modalitäten gleichzeitig bestimmt wurden, und drei Bedingungen, bei denen jeweils nur ein Schwellenwert in einer Modalität bestimmt wurde . Gepoolte Ergebnisse über Ss ergaben signifikante Verschiebungen der olfaktorischen Schwellen zwischen den Bedingungen, während die Veränderungen der gustatorischen und irritativen Schärfe weniger ausgeprägt waren. Individuelle Ergebnisse ergaben signifikante Korrelationen zwischen psychophysischem Verhalten und Persönlichkeitsmessungen. Die Faktoranalyse von Ss zeigte die Existenz von Untergruppen von Ss an, von denen jede durch unterschiedliche Muster der relativen Empfindlichkeit gegenüber Modalitäten und gegenüber Alkoholen typisiert wurde.;-;-;-;https://link.springer.com/article/10.3758/BF03210440 a671e18f34835fa59d09a5dd1a707cf7;de;;;1.3.;;;Forschung und Praxis zu CAD / CAM Hochqualifiziertes Personaltraining basierend auf Web Um angewandte und innovative Verbundtalente mit hoher Kompetenz und Qualität auszubilden und die Unterrichtspraxis inhaltlich zu bereichern, sollte die Praxisbasis in der Schule aufgebaut und verbessert werden. Und die Forschungen zum Lehrmodell des innovativen CAD 3-D-Designs und der CAM-Advanced-Manufacturing-Technik in einem Ingenieurausbildungszentrum, das mit Studenten, Doktoranden, Lehrern mit Doppelzertifikaten (Fachzeugnis und Lehramtszeugnis) oder den verwandten Fachleuten in der Umgebung zusammenhängt. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ausgeführt werden soll. Der Aufbau des offenen Lehrpraxislabors für CAD / CAM CNC-Bearbeitung hochqualifizierter Talente auf Basis einer Web-Plattform kann der Nachfrage der Gesellschaft nach hochwertigen und hochqualifizierten Talenten besser gerecht werden. Nach fast zwei Jahren Lehr- und Forschungstätigkeit hat der Autor viele hochwertige und hochqualifizierte offene CAD / CAM-Studien auf Basis einer Netzwerkplattform erfolgreich durchgeführt, die zur Verwirklichung des gewünschten Zwecks führten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23324-1_58 6385f740e8dfed7545736636dab88501;de;;;1.2.;;;Die Auswirkungen der Bevölkerungsalterung auf die Wohnungsnachfrage in China basierend auf Systemdynamiken In den letzten Jahren nimmt der Anteil der älteren Bevölkerung Chinas allmählich zu und der Immobilienmarkt verändert sich dramatisch. Folglich wird der Einfluss der Bevölkerungsalterung auf die Wohnungsnachfrage immer wichtiger. Auf der theoretischen Grundlage des Zusammenhangs zwischen Bevölkerungsalterung, Familienstruktur und Wohnungsnachfrage konstruiert dieser Beitrag zunächst ein systemdynamisches Modell der Auswirkungen von Bevölkerungsalterung und Familienstruktur auf die Wohnungsnachfrage in China. Anschließend wird das Modell simuliert und verschiedene Szenarien der Bevölkerungs-, Familienstruktur- und Immobilienpolitik erstellt. Die wichtigsten Schlussfolgerungen dieses Papiers lauten wie folgt: Chinas Bevölkerung wird zunächst steigen und dann sinken und bis 2023 einen Höchststand von 1,401 Milliarden erreichen. Mit dem Anstieg des Anteils der älteren Bevölkerung wird der Grad der Bevölkerungsalterung immer gravierender. Die Familiengröße wird im Jahr 2050 sukzessive auf 2,39 Personen pro Haushalt schrumpfen. Die Wohnungsnachfrage wird zuerst steigen und dann sinken. Durch die Ergebnisse der Szenariosimulation wird in diesem Papier der folgende Vorschlag gemacht, um die Wohnungsnachfrage in China effektiv auszugleichen: Vollständige Lockerung der Familienplanungspolitik, Einführung einer Immobiliensteuer, Aufhebung der Vorverkaufspolitik und Anhebung des Kreditzinses.;-;-;-;https://link.springer.com/article/10.1007/s11424-020-9114-z 01cf468db9ac072db160ae0ff9471694;de;;;1.2.;;;Auf dem Weg zu einer Theorie der kulturellen Interaktion: Der semiotische Aspekt Mit der mythologischen Schule und der indogermanischen Linguistik wird das Studium der Literaturen über die Landesgrenzen hinweg verbunden. Der Impuls dahinter war die Beobachtung auffallender Ähnlichkeiten auf den unterschiedlichsten Ebenen zwischen Texten, von denen man bis dahin keine Gemeinsamkeiten angenommen hatte. Danach widmeten sich alle Forscherinnen und Forscher der nachfolgenden Schulen – der Schule der „Ausleihen“, der kulturhistorischen Schule, der Bühnenschule von Nikolai Marr und anderen – der gleichen Frage: der Erklärung der Ähnlichkeit von Namen, Motiven , Handlungsstränge und Bilder in Werken kulturell und historisch entfernter Literaturen, Mythologien und volkstümlicher Poesietraditionen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-14710-5_5 8c29df5aa912fd67750a0e8628151768;de;;;1.2.;;;Die Teleskopwelt von Sławomir Mrożek begann seine literarische Laufbahn als Satireautor. Satire blüht in Polen seit der deutschen Nazi-Besatzung auf und hat sich unter dem Polen von der Sowjetunion aufgezwungenen Regime noch weiter entwickelt. Jacek Fedorowicz, Jan Pietrzak, Andrzej Rosiewicz gehörten zu den bekanntesten Satirikern und ihr Einfluss auf die öffentliche Meinung ist nicht zu unterschätzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-12331-5_8 0935acc4d06d761b201caf7e6d15080a;de;;;1.3.;;;Internetorientierter Lehrgang „Einführung in das Parallel Computing“: Ein einfacher Einstieg Die Lehrveranstaltung „Einführung in das Parallel Computing“ wird besprochen. Es wurde eine moderne Präsentationsmethode der Lehrmaterialien für den gleichzeitigen Unterricht bei einer großen Teilnehmerzahl (Massive Open Online Course, MOOC) angewendet. Der Lehrgang wird in einfachster Form mit breitem Einsatz der Präsentationsmaterialien angeboten. Die Vorlesungen des Studiengangs sind in relativ kleine Themenbereiche unterteilt, die keinen großen Lernaufwand erfordern. Dies sorgt für einen kontinuierlichen Lernerfolg und steigert die Motivation der Studierenden. Zur Bewertung des Fortschritts im Verständnis der zu studierenden Lehrinhalte enthält die Lehrveranstaltung die Testfragebögen und die Aufgaben zur Entwicklung der Parallelprogramme durch die Studierenden selbst. Die automatisierte Validierung und Skalierbarkeitsprogrammbewertung werden bereitgestellt. Diese Eigenschaften können eine große Teilnehmerzahl anziehen und die Aufmerksamkeit der Studierenden auf die berufliche Tätigkeit im Bereich der Supercomputer-Technologien lenken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-55669-7_23 3d8d5eec927a812dba90527a3aa3a2d9;de;;;1.2.;;;Kombinatorische Fusion zur Verbesserung der Portfolio-Performance Ein zentrales Thema für Manager oder Anleger beim Portfoliomanagement von Vermögenswerten ist die Auswahl der einzubeziehenden Vermögenswerte und die Vorhersage des Werts des Portfolios anhand einer Vielzahl historischer und gleichzeitiger Informationen zu jedem Vermögenswert im Portfolio. Es gibt mehrere Kriterien oder „Modelle“, um Vermögensrenditen vorherzusagen, deren Erfolg von unbekannten Formen (Parametern) der zugrunde liegenden Wahrscheinlichkeitsverteilungen von Vermögenswerten abhängt und ob man auf einen Bullen-, Bären- oder Marktpreis trifft. Verschiedene Modelle konzentrieren sich auf unterschiedliche Aspekte historischer Marktdaten. Wir nutzen die neu entwickelte Combinatorial Fusion Analysis (CFA) in der Informatik zur Steigerung der Portfolioperformance und zeigen an einem Beispiel anhand von US-Börsendaten, dass Fusionsmethoden die Portfolioperformance tatsächlich verbessern können. Die R-Software bietet leistungsstarke Werkzeuge für die Anwendung von CFA im Finanzwesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-1764-5_6 705c2f29fc42871a37efcb85b1d994ee;de;;;1.2.;;;Die Struktur des peripheren Kapitalismus Im klassischen Marxismus herrschte die durchgängige Überzeugung, dass er trotz des destruktiven und ausbeuterischen Charakters des kolonialen Kapitalismus historisch gesehen dennoch eine regenerative Rolle für kolonisierte Gesellschaften erfüllen würde. Es würde die alte vorkapitalistische Gesellschaftsordnung aufbrechen und neue soziale Kräfte erzeugen, die die Dynamik (und Widersprüche) der Kapitalakkumulation und -entwicklung in der Kolonie in Gang setzen. Unter Marxisten überlebt eine solche Ansicht immer noch als Minderheitenansicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-16847-7_14 ea1f238fc20b6823361e76d5339e063b;de;;;1.2.;;;Erdbebengefährdung der Unteren Tejotal-Verwerfungszone (SW Iberia) Die seismische Gefahr von SW Iberia setzt sich aus zwei Beiträgen zusammen: Offshore, große bis sehr große Ereignisse an der Plattengrenze zwischen Afrika und Eurasien, wie das Erdbeben von Lissabon von 1755 oder das Erdbeben der Gorringe Bank von 1969, und Onshore, mäßige bis starke Intraplattenbeben bei vererbten Krustenfrakturen. Eine dieser Zonen mit Krustenschwäche ist die Verwerfungszone Lower Tejo Valley (LTV), die die höchste Erdbebengefährdung in der westlichen Iberien aufweist. In diesem Artikel überprüfen wir die aktive Tektonik und Seismizität des LTV, integrieren frühere geophysikalische Daten mit aktuellen Ergebnissen paläoseismologischer Untersuchungen und diskutieren ihre Auswirkungen auf die seismische Gefahr von SW Iberia. Wir kommen zu dem Schluss, dass die derzeit in der Bauordnung geltende seismische Zoneneinteilung für die Gefährdungsbeurteilung auf das Szenario eines fernen Offshore-Bruchs ausgerichtet ist und die seismische Quelle des LTV nicht angemessen berücksichtigt.;-;-;-;https://link.springer.com/article/10.1023/B%3AJOSE.0000038457.01879.b0 2e1e19b7c218828e0e12d7867e2557f8;de;;;1.2.;;;Wasser im Weltraum: Die Wasserwelt von ISO In diesem Review präsentieren wir die wichtigsten Ergebnisse des ISO-Satelliten zur Häufigkeit und räumlichen Verteilung von Wasserdampf in Richtung von Molekülwolken, entwickelten Sternen, Galaxien und in den Körpern unseres Sonnensystems. Wir diskutieren auch die Modellierung von H;-;-;-;https://link.springer.com/article/10.1007/s11214-005-8058-x 762b36377e49eb8ed79a1fe059775c0b;de;;;1.3.;;;Erkennung von Konsonant-Vokal (CV)-Einheiten unter Hintergrundgeräuschen durch kombinierte zeitliche und spektrale Vorverarbeitung Dieses Papier schlägt hybride Klassifikationsmodelle und Vorverarbeitungsmethoden vor, um die Erkennung von Konsonanten-Vokalen (CV) bei Vorhandensein von Hintergrundgeräuschen zu verbessern. Hintergrundrauschen ist eine der Hauptverschlechterungen in Echtzeitumgebungen, die die Leistung des Spracherkennungssystems stark beeinflusst. In dieser Arbeit werden kombinierte temporale und spektrale Verarbeitungsmethoden (TSP) für die Vorverarbeitung untersucht, um die Leistung der CV-Erkennung zu verbessern. Das vorgeschlagene CV-Erkennungsverfahren wird auf zwei Ebenen durchgeführt, um die Ähnlichkeit zwischen einer großen Anzahl von CV-Klassen zu reduzieren. In der ersten Ebene wird die Vokalkategorie der CV-Einheit erkannt und in der zweiten Ebene wird die Konsonantenkategorie erkannt. Auf jeder Ebene werden komplementäre Beweise aus Hybridmodellen bestehend aus Support Vector Machine (SVM) und Hidden-Markov-Modellen (HMM) kombiniert, um die Erkennungsleistung zu verbessern. Die Leistung des vorgeschlagenen CV-Erkennungssystems wird in der Telugu-Sendedatenbank für weißes und Fahrzeugrauschen bewertet. Die vorgeschlagenen Vorverarbeitungsmethoden und hybriden Klassifikationsmodelle haben die Erkennungsleistung im Vergleich zu bestehenden Methoden verbessert.;-;-;-;https://link.springer.com/article/10.1007/s10772-011-9101-9 18c368c70595f1d2c5ee5bef80580b5c;de;;;1.3.;;;Turtle-Grafiken für die frühe Java-Programmierausbildung Turtle-Grafiken, die erstmals in den späten 1960er Jahren in der Programmiersprache Logo eingeführt wurden, werden seitdem häufig in der Programmierausbildung verwendet. Turtle Graphics eignet sich hervorragend für Programmierschulungen und bietet eine intuitive Plattform zum Verständnis der grundlegenden prozeduralen Programmierprinzipien durch einfache Grafikfunktionen, die visuelles Feedback für die Programmierung ermöglichen. Dieses Papier stellt eine neue und originelle Anwendung von Turtle-Grafiken auf die Programmiersprache Java vor, die insbesondere auf die frühe Java-Programmierausbildung ausgerichtet ist. Das Ziel der vorgeschlagenen Java-Sprachbibliothek für Turtle-Grafiken ist (a) die Verwendung von Turtle-Grafiken, um ein intuitives Verständnis grundlegender prozeduraler Programmierprinzipien zu vermitteln, (b) den Schülern ein einfaches Werkzeug zur Verfügung zu stellen, um visuell interessante Programme in den frühen Phasen der Programmierung zu erstellen und (c) die Motivation der Schüler zu stimulieren, den Lerneffekt der Programmierausbildung zu verbessern und zum weiteren Selbststudium anzuregen. Die vorgeschlagene Java-Turtle-Grafikbibliothek wurde Studenten im ersten Jahr mit minimaler Java-Programmierausbildung vorgestellt, um die Wirksamkeit der vorgeschlagenen Methode zu überprüfen.;-;-;-;https://link.springer.com/article/10.1007/s10015-019-00528-y d4a7772a556ab7a60a3e193f2a6ea149;de;;;1.2.;;;Verwendung von Nitroglycerin zur Behandlung des akuten Myokardinfarkts Nach einem Jahrzehnt der Warnungen vor der Verwendung von Nitraten bei akutem Myokardinfarkt (MI) werden sie für ihr Potenzial zur Rettung des linksventrikulären (LV) Myokards, der Geometrie und Funktion anerkannt. Niedrig dosierte intravenöse (IV) Nitroglycerin (NTG)-Infusion für die ersten 48 Stunden nach akutem MI, titriert, um den mittleren Blutdruck um 10 bis 30 % zu senken, aber nicht unter 80 mmHg, hat sich als sicher erwiesen, um die Hämodynamik zu verbessern und zur Verringerung der Infarktgröße, Infarktausdehnung, Komplikationen und Todesfälle in einer prospektiven, randomisierten, einfachblinden Studie mit 310 Patienten. Darüber hinaus wurde festgestellt, dass eine niedrig dosierte NTG-Infusion für die ersten 48 Stunden, gefolgt von einer verlängerten bukkalen NTG-Gabe während der Heilung nach einem akuten MI in einem exzentrischen Dosierungsschema, um die Toleranz zu minimieren, den weiteren progressiven Umbau begrenzt und die LV-Funktion erhält. Metaanalysen von Nitratstudien bei akutem MI zeigen, dass sie das Überleben verbessern. Vorläufige und laufende Studien deuten darauf hin, dass eine verlängerte NTG-Therapie nach einem MI weitere Vorteile bringen kann.;-;-;-;https://link.springer.com/article/10.1007/BF01744490 0e572eae2845c3919e730282ac577ab2;de;;;1.2.;;;Die Grenze in der osmanischen Geschichte: Alte Ideen und neue Mythen „Die Grenze in der osmanischen Geschichte“. Es ist schwer, die Bedeutung dieses Satzes als dominierendes Konzept innerhalb der begrenzten Palette von Formulierungen zu überschätzen, die die osmanische Geschichtsschreibung seit ihrer Entstehung vor fast einem Jahrhundert als eigenständige akademische Disziplin geprägt haben. Warum sollte dies so sein und warum sollte es nach so langer Zeit immer noch notwendig sein, sich dem Thema eher historiografisch als historisch zu nähern?;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-27439-0_10 e22b478502a7b02a1b670c1c5a689602;de;;;1.3.;;;Microcomputer — Based Games zum Zweck des Umweltschutzes und der Managementausbildung Gaming ist eine Methode, die mit Erfolg für eine Vielzahl komplexer Probleme eingesetzt wurde. Entscheidungsträger, die an einem raffinierten Spiel beteiligt sind, könnten eine realistische Situation haben, in der sie ihre Strategien gemeinsam überlegen müssen. Gaming scheint daher ein vielversprechendes Instrument zur Bewältigung tatsächlich komplexer Probleme zu sein, bei denen menschliche Entscheidungen weitreichende Auswirkungen auf andere haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-46609-0_43 f6d08f2dd03115bb0f2ae4aa0e7eb672;de;;;1.2.;;;"Berechnungs-Tupel-Sequenzen und Objekthistorien: Extended Abstract In letzter Zeit wurde den Datenbankaspekten der Büroautomatisierung und den damit verbundenen Forschungsproblemen viel Aufmerksamkeit gewidmet [A,EN,PFK,SIGMOD,SSLKG]. Eine Hauptkomponente in diesem Bereich ist eine Einrichtung zum Verwalten von historischen Daten für viele ""Objekte"", nämlich ein Objekthistorien-(Verwaltungssystem). Beispiele für solche Systeme sind solche für persönliches Girokonto, Gehaltsüberprüfungen und Dienstpläne. Es gibt jedoch wenig allgemein akzeptierten mathematischen Formalismus, der wichtige Aspekte der historischen Daten für die Objekte (hier Objektgeschichten genannt) erfasst und die Identifizierung und Analyse relevanter Probleme ermöglicht. Ziel der vorliegenden Arbeit ist es, ein mathematisches Modell vorzustellen, das eine solche Untersuchung ermöglicht";-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-1881-1_27 993d126f16c3d3d657429ebd1cab1085;de;;;1.3.;;;Remote-Roboter-Laborexperiment-Plattform basierend auf Teleprogrammierung Remote Laboratory Experimentation ist eine Technik, die in modernen Ingenieurlabors verwendet wird, um akademischen Forschern und Studenten zu helfen, Laborexperimente aus der Ferne über das Internet durchzuführen. Die Fernsteuerung von Experimenten gewinnt in der Aus- und Weiterbildung an Bedeutung. Allerdings gibt es beim Remote-Echtzeittraining zur Instrumentenprogrammierung noch einige ungelöste Probleme wie das Fehlermanagement. In diesem Beitrag wird eine Plattform für die Schulung von Studenten in der ferngesteuerten Roboterexperimentsteuerung durch Teleprogrammierung vorgestellt. Programmiersitzungen können vom Schulungsteilnehmer auf vielen Steuerungsebenen mit integriertem Fehlermanagement durchgeführt werden, um ein Einfrieren des Systems oder eine Fehlfunktion zu vermeiden. Außerdem stellen wir ein echtes Experiment vor: die Programmierung der Navigationssteuerung eines mobilen Roboters in Anwesenheit von Hindernissen mittels Fuzzy Control.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30507-8_2 46cc529e63e224cd340bfa5a3c275ec4;de;;;1.3.;;;Stärkung der Resilienz von Pädagogen: Einbeziehung der Bildungsgemeinschaft, um die Naturgefahren des Klimawandels anzugehen Der Klimawandel und die damit verbundenen Naturgefahren zählen zu den größten ökologischen, wirtschaftlichen und politischen Herausforderungen unserer Zeit. Angesichts der Bedeutung der Schüler für die Zukunft der Auseinandersetzung mit diesen Themen ist es überraschend, dass diejenigen, die für ihre Ausbildung zuständig sind, die Lehrer, so stark übersehen wurden. Dieses Kapitel befasst sich mit den Herausforderungen und Möglichkeiten für die Schaffung einer belastbaren, unterstützten und informierten Bildungsgemeinschaft, die mit den Schülern zusammenarbeiten kann, um die Zukunft zu planen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-20161-0_16 ef66ee3e51e63ff180f60b4f3eb58ec4;de;;;1.3.;;;Webbasiertes Testen im naturwissenschaftlichen Unterricht Der Beitrag beschreibt die Analyse und Charakterisierung von Teilergebnissen (Mathematik) der Forschung, die sich auf die Frage des Nachweises von Schlüsselwissen und -fähigkeiten von Schülern und Studenten in Grund- und Sekundarschulen in ausgewählten Regionen in der Slowakei und der Tschechischen Republik (dem Grenzgebiet zwischen die beiden Länder). Ziel war es festzustellen, ob es regionale Unterschiede und geschlechtsspezifische Unterschiede in der mathematischen Kompetenz gibt. Gleichzeitig entwickeln und testen Sie ein geeignetes Werkzeug, um diese Unterschiede effektiv zu erkennen. Die Ergebnisse werden derzeit im Kontext von Bildungsprogrammen und -politiken weiter analysiert und fächerübergreifend verknüpft, um die Ursachen der bestehenden Unterschiede zu identifizieren. Die Ergebnisse dieser Forschung fließen auch in die Durchführung der forschungsorientierten Durchführung einer virtuellen Exkursion ein, unterstützt durch ein Stipendium KEGA.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06773-5_33 1063d3a3152f4dd548a34b27a809bdf3;de;;;1.2.;;;Optionale Gerichtsstandsvereinbarungen: Deutscher Nationalbericht Dieses Kapitel analysiert die Behandlung von Gerichtsstandsvereinbarungen im deutschen Recht und wurde auf dem 20. Kongress der Internationalen Akademie für Rechtsvergleichung vom 22.–28. Juli 2018 in Fukuoka vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-23914-5_9 b0c121a0010ed90b749f71160dc47abd;de;;;1.3.;;;Akustische Aspekte der Sprachbildung bei Kindern im dritten Lebensjahr Diese Studie umfasst das dritte Lebensjahr im Rahmen einer Längsschnittuntersuchung der Sprachentwicklung bei russischen Kindern, die auf der Basis von Hörer-, Phonetik- und instrumentierter akustischer Analyse durchgeführt wurde. Der vorliegende Bericht befasst sich mit der Etablierung jener zusätzlichen akustischen und phonetischen Merkmale in der kindlichen Sprache, die eine Spracherkennung ermöglichen. Dies ist die erste instrumentierte Analyse bei russischen Kindern mit statistischer Bewertung der Dynamik von Vokalformanten in Kinderwörtern, der Festlegung von Merkmalen (Stress, Stresslosigkeit), Opposition (Palatalisierung, fehlende Palatalisierung von Konsonanten) und der Stimmbeginnzeit für plosive Konsonanten. Die Ergebnisse zeigten, dass das Wiedererkennen von Kinderwörtern durch Hörer mit hoher Erfolgswahrscheinlichkeit aus der Bildung eines Systems akustisch stabiler Eigenschaften in der kindlichen Sprache resultierte, die zusammen eine Informationsadäquanz für die verbale Kommunikation bieten.;-;-;-;https://link.springer.com/article/10.1007/s11055-005-0096-z 68cc7457b64897d4b991c65f2b3ae8f4;de;;;1.3.;;;Interaktive Whiteboard-Integration in Klassenzimmer: Aktive Lehrer verstehen ihren Schulungsprozess Mit der Integration von Informations- und Kommunikationstechnologien (IKT), insbesondere des Interactive Whiteboards (IWB), in die Ausbildung entsteht die Notwendigkeit eines angemessenen Lehrerausbildungsprozesses aufgrund der angemessenen Integration und didaktischen Verwendung dieses Werkzeugs im Unterricht. In diesem Artikel wird die Wahrnehmung der Lehrkräfte zum Ausbildungsprozess zur IKT-Integration diskutiert. Sein Hauptziel besteht darin, zur Vereinheitlichung von Mindestkriterien für eine effektive IKT-Implementierung in jedem Ausbildungsprozess für aktive Lehrer beizutragen. Diese Fallstudie beginnt mit der Entwicklung eines Ausbildungsmodells namens Eduticom, das an 4 Schulen in Katalonien, Spanien, in die Praxis umgesetzt wurde. Die Ergebnisse zeigten unterschiedliche Bedürfnisse der Lehrkräfte wie eine angemessene Infrastruktur, ein angemessenes Management und ein flexibles Ausbildungsmodell, das im Wesentlichen methodische und didaktische Aspekte des IWB-Einsatzes im Unterricht adressiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13166-0_18 843e3f7ff187bdf7c7b51fcc22723e80;de;;;1.3.;;;L’Adoleszenz Mit Ausnahme von Louis Pasteur ist Marie Curie wahrscheinlich die berühmteste aller französischen Wissenschaftler. Sie war jedoch gebürtige Polin und lernte ihren späteren Ehemann Pierre Curie während ihres Physikstudiums an der Sorbonne in Paris kennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-11205-0_6 e909b91c25266d51cc4fcb54b9f6957a;de;;;1.3.;;;Wissenschaftliche Aktivitäten für kleine Kinder Wissenschaft für kleine und ältere Kinder sollte eine Mischung aus der Entwicklung wissenschaftlicher Inhalte, wissenschaftlichen Prozessen und einer positiven Einstellung zur Wissenschaft sein. Wenn Pädagogen die Entwicklung und das Lernen in diesen drei zusammenhängenden und sich ergänzenden Bereichen betonen, lernen Kinder, wie man Naturwissenschaften erforscht, während sie Fähigkeiten entwickeln, wissenschaftliche Prozesse wie Beobachten, Kommunizieren, Vorhersagen und Schlussfolgerungen anzuwenden.;-;-;-;https://link.springer.com/article/10.1007/BF01616965 74cf5c3fe8077b1d9bfa400cf5b5f28b;de;;;1.3.;;;Untersuchung des Trainingsmodus der Computeranwendungstalente basierend auf der informationstechnischen Ausrichtung Dieser Beitrag analysiert die Probleme in der Personalausbildung des Studiengangs Informatik im neu errichteten Bachelor-College, nach der Lehrreform des Studiengangs Informatik und Technologie des Honghe College, untersucht den Ausbildungsmodus der Computeranwendungstalente auf Basis von die informationstechnische Ausrichtung, sie umfasst insbesondere folgende Aspekte: den Gedankengang im Begabtenbildungsmodus, Personalbildungsmodus, die Gestaltung des Begabtenbildungsprogramms, die konkreten Maßnahmen bei der Reform des Begabtenbildungsmodus usw.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22456-0_70 1fd5d53353d91ec5f17c74ad5054778f;de;;;1.3.;;;Ein neuartiger Ansatz zur Merkmalsauswahl und seine Anwendung Die Merkmalsauswahl ist ein zufriedenstellendes Optimierungsproblem. Bei den meisten Feature-Auswahlmethoden wurden die Kosten für die Feature-Extraktion und die automatische Entscheidung über die Feature-Subset-Dimension nicht berücksichtigt. Daher wurde ein neuartiger Ansatz vorgeschlagen, der als befriedigendes Merkmalsauswahlverfahren (SFSM) bezeichnet wird. SFSM integrierte Merkmalsextraktion mit Merkmalsauswahl und berücksichtigter Klassifikationsleistung von Merkmalsproben, der Dimension der Merkmalsteilmenge und der Komplexität der Merkmalsextraktion gleichzeitig. Experimentelle Ergebnisse zeigen, dass SFSM eine befriedigendere Merkmalsuntermenge auswählt als die sequentielle Vorwärtsauswahl unter Verwendung des Distanzkriteriums (SFSDC) und der von Tiejun Lü (GADC) vorgestellten Methode. Außerdem erreicht SFSM eine höhere genaue Erkennungsrate als der ursprüngliche Funktionssatz, SFSDC und GADC, was die Gültigkeit der vorgeschlagenen Methode überprüft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30497-5_104 188459e2bb518b1057ca1b6165eb57ba;de;;;1.2.;;;Beobachtungen über das Schicksal des Nucleus superficialis magnocellularis von Rendahl im Zwischenhirn der Vögel mit Bezug auf die Organisation und Nomenklatur benachbarter retinorezipienter Kerne Die zytoarchitektonische Entwicklung von n. superficialis magnocellularis (dorsaler Thalamus, hinteres Parencephalon) wurde von 3 Tagen Inkubation bis zum reifen Zustand nach dem Schlüpfen im Küken untersucht. Eine Hypothese von Kuhlenbeck (1937) über eine partielle Transformation oder einen Beitrag von SM-Zellen in ein anderes benachbartes Griseum wurde im breiteren Kontext unterschiedlicher Interpretationen der diencephalischen Entwicklung entweder innerhalb von Herricks (1910) longitudinaler Säulentheorie oder innerhalb einer modifizierten neuromerischen Konzeption getestet (Puelles et al. 1987a). Nucleus SM entwickelt sich früh in der Flügelregion des hinteren Halbhirns und bildet eine äußere Mantelschicht über der inneren Hauptzellmasse des Telenzephalopetalthalamus. Thymidin-Markierungsdaten zeigen seine Generationsperiode hauptsächlich zwischen 3 und 4,5 Tagen Inkubation. Während seiner weiteren Entwicklung bleibt SM innerhalb der primären interneuromeren Grenzen, die es von ventralem Thalamus und Prätectum trennen. Nach 8 Tagen Inkubation teilt sich SM in oberflächliche (kompakte) und tiefe (disperse) Unterschichten auf. Der oberflächliche wird zwischen n stark komprimiert. geniculatus ventralis und n. synencephali superficialis. Einige seiner Zellen wandern interstitiell in den Tractus opticus (12–16 Tage in ovo) und verschwinden später. Der entsprechende reife Rest wurde genannt;-;-;-;https://link.springer.com/article/10.1007/BF00192210 e102b6d88742ebe304fe2f7af39ab37c;de;;;1.2.;;;Erkenntnistheoretische Erkenntnis als historische Erkenntnis C Da sich die heutige Philosophie (oder Methodik, wenn man so will) der Wissenschaft von der Vorherrschaft der Ideen der logischen Positivisten befreit, nimmt die Forschung auf diesem Gebiet einen zunehmend historischen Charakter an. Dieser Trend findet bei vielen zeitgenössischen Vertretern der Disziplin Zustimmung. Die Aussage von Imre Lakatos, dass „Methodik mit der Geschichte verbunden ist“, ist heutzutage keine isolierte Meinung.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-1421-6_1 44eef18ce57a8d672caed9e9606e3684;de;;;1.2.;;;Protein-Wasser-Wechselwirkungen Wasser ist eines der wichtigsten Moleküle, die zur Erhaltung des Lebens notwendig sind. Es ist die einzige Substanz, die in allen drei physikalischen Zuständen vorkommt. Die Wechselwirkung von Wasser mit anderen Stoffen ist für die meisten chemischen und biologischen Reaktionen entscheidend. Proteine ​​spielen auch in vielen Lebensprozessen eine wichtige Rolle. Sie geben lebenden Zellen Struktur und regulieren viele Zellfunktionen. Das Zusammenspiel dieser beiden wichtigen Moleküle spielt eine wichtige Rolle bei der Bestimmung der funktionellen Eigenschaften vieler Lebensmittelzutaten. Der Schwerpunkt dieses Kapitels liegt auf der Diskussion der Bindungsarten, die zwischen Wasser- und Proteinmolekülen auftreten und die Wechselwirkung zwischen Wasser- und Proteinmolekülen mit den funktionellen Eigenschaften von Proteinen in Lebensmitteln in Beziehung zu setzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-9895-0_1 2c5929ddee00d4e512aadcc63a78d7e6;de;;;1.2.;;;Persistierender Ductus arteriosus Die erste erfolgreiche Operation bei offenem Ductus arteriosus, die GROSS am 26. August 1938 durchführte, war der Auftakt aller modernen Herzchirurgie. Bereits 1907 schlug MUXRO vor, einen offenen Ductus arteriosus operativ zu korrigieren, aber der erste Versuch wurde erst am 16. März 1938 von STRIEDER unternommen. Die folgende Studie basiert auf 390 in Stockholm operierten Fällen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-94757-5_8 ed9aca4172359a34fd552d0505ccefd8;de;;;1.3.;;;Iterative Erkenntnisse aus der Aktionsforschungsintervention Dieses Kapitel präsentiert die Ergebnisse der in Kapitel 4 skizzierten Forschungsdesign-Methodik aus einer iterativen AR-Narrativ-Perspektive, die Daten aus jedem der verschiedenen Beobachtungszyklen hervorhebt und auch jede Datenerhebungsperiode mit Reflexions- und nachfolgenden Planungsphasen verknüpft. Der Zweck dieses Kapitels besteht darin, die Art und Weise zu vermitteln, in der Daten aus jeder Phase des Projekts von unterschiedlichen Gruppen von Lernenden zu bestimmten Zeitpunkten gesammelt wurden, und so zu zeigen, wie mehrstufige AR dazu beitragen kann, Theorie aus der Praxis aufzubauen. Um den evolutionären Charakter dieser AR zu demonstrieren, werden numerische Daten und narrative Beispiele chronologisch präsentiert, sodass sich wiederholende Themen und Ansichten etabliert und etwaige Inkonsistenzen identifiziert werden können. Das Kapitel betont die methodische und zyklische Triangulation des Forschungsdesigns. Im Gegensatz dazu untersucht Kapitel 6 die Daten aus einer anderen Perspektive, der von „Teilnehmerlinsen“, einem Ansatz, der die Triangulation zwischen Teilnehmer und Untersucher betont (siehe Kapitel 4).;-;-;-;https://link.springer.com/chapter/10.1057/9781137521903_5 d03ad7d738b35088782d468abc19db93;de;;;1.3.;;;Trainingssimulator zur Wiederbelebung von Neugeborenen mit hoher Effektivität und geringen Einführungskosten Die Japanische Gesellschaft für Perinatal- und Neonatalmedizin hat 2007 den Neonatal Cardio Pulmonary Resuscitation (NCPR)-Workshop ins Leben gerufen. Wir haben einen neuen Trainingssimulator für die Neugeborenenwiederbelebung entwickelt, der sowohl hochwirksam ist als auch geringe Einführungskosten hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-59397-5_29 845e515f4321c7b7d6de352080d82dc6;de;;;1.2.;;;Robuste adaptive NN-basierte Ausgangs-Feedback-Steuerung für ein dynamisches Positionierungsschiff mit DSC-Ansatz Für ein dynamisches Positionierungsschiff mit Unsicherheiten und unbekannten externen Störungen wird ein robustes adaptives NN-basiertes Ausgangs-Feedback-Steuerungsschema vorgestellt. Wir gehen das Problem an, dass der Geschwindigkeitsvektor eines Schiffes nicht verfügbar ist, indem wir einen High-Gain-Beobachter einsetzen, und entwickeln den vorgeschlagenen Steuerungsansatz durch die Kombination von vektoriellem Rückschritt mit dynamischem Oberflächensteuerungsansatz, der einfacher und einfacher in der Ingenieurpraxis implementiert werden kann. Die Näherungstechnik des neuronalen Netzes (NN) wird verwendet, um die Unsicherheiten und unbekannten externen Störungen zu kompensieren, und beseitigt die Notwendigkeit der Vorkenntnisse über die Gefäßparameter und externen Störungen. Es wird auch gezeigt, dass die vorgeschlagene Regelstrategie die Position und den Gierwinkel eines dynamischen Positionierungsschiffs zwingen kann, sich dem gewünschten Punkt anzunähern, während alle Singles des entworfenen dynamischen Positionierungssystems mit geschlossenem Regelkreis semi-global einheitlich letztendlich begrenzt durch die Lyapunov-Funktion. Simulationsergebnisse eines Versorgungsschiffs veranschaulichen die Wirksamkeit des vorgeschlagenen Schemas.;-;-;-;https://link.springer.com/article/10.1007/s11432-014-5127-3 40603b01cfc5f52d801bc78615cc2a0d;de;;;1.2.;;;Pharmakokinetische Wechselwirkungen zwischen Theophyllin und anderen Medikamenten (Teil I) Es wurde festgestellt, dass viele Medikamente die Clearance von Theophyllin erhöhen oder verringern, wahrscheinlich durch Wechselwirkung mit einer oder mehreren der Varianten des Cytochrom-P450-Wirkstoffmetabolisierungssystems. Theophyllin kann aufgrund der besonderen Form(en) des beteiligten P450-Systems, weil sein Metabolismus sättigbar ist und/oder weil 90 % seiner Elimination über den Metabolismus erfolgen, besonders anfällig für eine Veränderung seiner Clearance sein. Erythromycin, Troleandomycin (Triacetyloleandomycin), Roxithromycin, Enoxacin, Ciprofloxacin, Pefloxacin, Norfloxacin, Ofloxacin, Fluorchinolon T-3262, Pipemidinsäure, Cimetidin- , Etintidin, Propranolol, Verapamil, Diltiazem, Nifedipin, Furosemid (Frusemid), zumindest einige anovulente Wirkstoffe, Viloxazin, Allopurinol, Ticlopidin, Idrocilamid, Thiabendazol, Disulfiram, Influenza- und ). Im Gegensatz dazu wurde festgestellt, dass die Theophyllin-Clearance (Clearance/Bioverfügbarkeit) durch Isoprenalin (Isoproterenol), Terbutalin, einige Kortikosteroide, Phenytoin, Phenobarbital, Aktivkohle, Felodipin Moricizin, Benzodiazepine und Sulfinpyrazon erhöht ist – manchmal um etwa 25 %, bis zu 80% oder mehr. Für einige dieser Begleitmedikationen können jedoch nur einige der veröffentlichten Studien einen Einfluss belegen, der die Sensitivität mancher Wechselwirkungen gegenüber bestimmten experimentellen und/oder klinischen Bedingungen, z.B. mit Terbutalin, Erythromycin, Ciprofloxacin, Norfloxacin, Ofloxacin, Phenobarbital. Cimetidin, Verapamil, Diltiazem, Nifedipin, Anovulenten, Allopurinol und Grippeimpfung. Darüber hinaus sind Berichte sowohl über die Hemmung als auch über die Induktion der Theophyllin-Clearance durch Rifampicin und Isoniazid erschienen. Dennoch wurde bei vielen untersuchten Medikamenten kein wahrnehmbarer Einfluss auf die Kinetik der Theophyllin-Disposition festgestellt, z. Ephedrin, Orciprenalin (Metaproterenol), Prednison, Prednisolon, Temelastin, Terfenadin, Mequitazin, Pi-Cumast, Repirinast, Josamycin, Midecamycin, Miocamycin, Spiramycin, Amoxicillin, Am-Picillin, Tetracyclin, Doxycyclin, Lomefloxacin, Fluorchinolone NY-198 und AM-833, Nalidixinsäure, Lincomycin, Metronidazol, bestimmte Antazida, Ranitidin, Roxatidin, Piren-Zepin, Rioprostil, Metoclopramid, Meloprolol, Atenoldr, Oxyphenoxypropon Piroxicam, Ozagrel, Mebendazol und Ascorbinsäure. Da Theophyllin einen so engen therapeutischen Konzentrationsbereich hat, können Veränderungen der Clearance von ungefähr 25 % oder mehr klinische Auswirkungen haben. Für Patienten, die gleichzeitig mit Theophyllin Medikamente benötigen, können daher eine sorgfältige Auswahl alternativer Therapien, eine Anpassung des Theophyllin-Dosierungsschemas und/oder eine Überwachung der therapeutischen Medikamente ratsam sein.;-;-;-;https://link.springer.com/article/10.2165/00003088-199120010-00005 b53f02098bdf08ed84c5fee4653d618c;de;;;1.3.;;;Webbasierte interaktive Animation für die Sicherheitserziehung von Kindern: Von 2D zu 3D Webbasierte Animationen umfassen 2D-Animationen (wie Flash-Animationen) und 3D-Animationen (wie WEB3D-basierte Animationen). Animationen sind ein gutes Werkzeug für die Sicherheitserziehung von Kindern. Sie können Kinder dazu bringen, abstrakte Sicherheitsvorschriften auf interaktive Weise zu lernen. Entsprechend der psychologischen Eigenschaften von Kindern und der konstruktivistischen Lerntheorie wird eine Methode zur Entwicklung einer webbasierten Animation zur Sicherheitserziehung von Kindern vorgestellt. Das Design des Cartoon-Szenarios, das gefährliche Verhalten und die Interaktion der Charaktere werden eingeführt. 2D-Animationen sind übertrieben und für kleine Kinder geeignet, 3D-Animationen sind realistisch und eignen sich zum Erkunden in verschiedenen Ansichten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27945-4_64 89d96fec9eaaa7879b60ff7f0f211607;de;;;1.3.;;;Eine interdisziplinäre Perspektive auf Bildungsdienstleistungssysteme Die zunehmende Komplexität der Bildungssysteme hat zu einer Reihe von sich überschneidenden Trends geführt und verlangt, dass eine Disziplin über akademische Silos hinweg integriert wird. Da das Konzept der Dienstleistungsinnovation schneller in Bildungsdienstleistungen vordringt, werden Industrie, Regierung und Hochschulen für das Konzept der Einbettung von Dienstleistungsinnovationen geweckt. Dieses theoretische Papier bietet einen integrierten Rahmen für Bildungssysteme (IFES), der zwei sich überschneidende Dimensionen abdeckt, in denen Dienstleistungsinnovation und Dienstleistungswissenschaft stattfinden können. Um einen Beitrag im Bereich Service Innovation und Service Sciences zu leisten, wird ein interdisziplinärer Ansatz angewendet, der eine Reihe von Kompetenzen zwischen den verschiedenen Interessengruppen miteinander verbindet. Es wird angenommen, dass die Produktivität in der Bildungsindustrie durch die Verknüpfung von Wissen und Ressourcen aus verschiedenen Bereichen und zwischen verschiedenen Interessengruppen durch die Ko-Linearisierung von vier Dimensionen erhöht wird: (1) Information, Kommunikation und Technologie, (2) Fähigkeiten und Werkzeuge, (3) Menschen und Einstellungen, (4) Systeme, Prozesse und Management sind für die Schaffung von Serviceinnovationen von wesentlicher Bedeutung. Dieses Papier liefert eine Perspektive der Interkonnektivität, die mit Harmonie ausgeglichen ist, die für eine effektive Produktivität und Serviceinnovation von entscheidender Bedeutung sind, indem ein Service-Science-Ansatz angenommen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55355-4_13 654910160f37d325d687b6ec9a0b8ea7;de;;;1.3.;;;Forschung zum Informationsspeicher von Standortservern mit SIP im Fernunterrichtssystem In diesem Artikel wird vorgestellt, wie eine schnelle Umleitung durch Standortserver im Fernunterrichtssystem realisiert werden kann. Und erklärt ausführlich die Methode, wie die Informationen des Benutzerregisters auf dem Standortserver des Fernunterrichtssystems gespeichert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31698-2_55 d6b6bd2cad465309e27ace2c68973bc8;de;;;1.3.;;;Ein einfacher neuronaler Netzwerk-Pruning-Algorithmus mit Anwendung auf die Filtersynthese Dieses Papier beschreibt einen Ansatz zur Synthese gewünschter Filter unter Verwendung eines mehrschichtigen neuronalen Netzes (NN). Um die richtige Funktion des Objektfilters zu erhalten, wird ein einfaches Verfahren zum Reduzieren der Strukturen sowohl der Eingabe- als auch der verborgenen Schichten des NN vorgeschlagen. Bei dem vorgeschlagenen Verfahren werden die Einheiten aus dem NN auf der Grundlage des Einflusses des Entfernens jeder Einheit auf den Fehler entfernt, und das NN wird neu trainiert, um den Schaden des Entfernens zu beheben. Jeder Prozess wird abwechselnd durchgeführt, und dann wird die Struktur reduziert. Es wurden Experimente zur Synthese eines bekannten Filters durchgeführt. Durch die Analyse des durch das vorgeschlagene Verfahren erhaltenen NN wurde gezeigt, dass es die richtige Funktion des Objektfilters erhält. Durch das Experiment zum Synthetisieren des Filters zum Lösen realer Signalverarbeitungsaufgaben hat sich gezeigt, dass das durch das vorgeschlagene Verfahren erhaltene NN dem durch das herkömmliche Verfahren erhaltenen hinsichtlich der Filterleistung und des Rechenaufwands überlegen ist.;-;-;-;https://link.springer.com/article/10.1023/A%3A1009639214138 883588458810247f4c50fc3cc3f9b6af;de;;;1.2.;;;Die räumlich-zeitliche Heterogenität der wirtschaftlichen Entwicklung auf Kreisebene und die wichtigsten Triebkräfte auf dem Löss-Plateau, China Unausgewogenes Wirtschaftswachstum ist ein allgegenwärtiges Phänomen bei der Untersuchung der regionalen Entwicklung im großen Raum. Daher ist es von großer Bedeutung, das räumlich-zeitliche Muster des regionalen Wirtschaftswachstums und die Treiber zu analysieren, um die wirtschaftliche Entwicklung von Gebieten mit geringer Entwicklung zu verstehen und zu erleichtern. Ausgehend von einem Landkreis als grundlegender Untersuchungseinheit verwendeten wir die kreisweiten Pro-Kopf-BIP-Daten des Lössplateaus von 2005 bis 2017 sowie geografische Variablen wie Neigung, Höhe und Bevölkerungsdichte, um die räumlich-zeitlichen Unterschiede und die Fahrweise zu analysieren Faktoren der wirtschaftlichen Entwicklung auf Kreisebene im Lössplateau durch den Einsatz konventioneller und fortgeschrittener quantitativer Methoden, einschließlich Exploratory Spatial Data Analysis (ESDA) und des geografischen Detektormodells. Unsere Ergebnisse legen folgendes nahe: (1) Die ausgewählten Indikatoren, einschließlich der absoluten Differenz, der Schwankung der relativen Differenz und der gesamten Differenz der wirtschaftlichen Entwicklung auf dem Lössplateau, zeigen alle stetig steigende Tendenzen. (2) In 64,5% der Landkreise liegt die wirtschaftliche Entwicklung unter dem Durchschnitt der gesamten Region Loss Plateau. Die relativ hoch entwickelten Landkreise sind in den „A“-förmigen Regionen in der Autonomen Region Innere Mongolei, den Provinzen Shaanxi und Henan verteilt, die Landkreise mit niedriger Entwicklung befinden sich jedoch hauptsächlich in den „V“-förmigen Regionen in den Provinzen Gansu und Shanxi. (3) BIP, Investitionen in Sachanlagen und Urbanisierungsrate sind die wichtigsten treibenden Faktoren, die die regionale Wirtschaftsentwicklung beeinflussen, und die kombinierten Effekte sind weitaus größer als die jedes einzelnen Faktors.;-;-;-;https://link.springer.com/article/10.1007/s11442-021-1851-y 8a9a06e92612fd9989b717dad4eb495a;de;;;1.3.;;;Anforderungen an Bildung und Qualifikation Industrie 4.0 (I 4.0) hat durch neue technologische Fortschritte und Methoden zu erhöhter Produktivität und Massenanpassung geführt. Angesichts des Widerstands der Belegschaft müssen die neuen Ansätze fehlerfrei im Unternehmen eingeführt werden. Der Übergang kann jedoch nicht von heute auf morgen akzeptiert werden. Die Hauptgründe sind hohe Kapitalinvestitionen und fehlende Qualifikationen der Belegschaft. Das eigentliche Ziel dieses Kapitels ist es, die verschiedenen Jobrollen in den Unternehmen zu identifizieren, die bereit sind, das I 4.0-Umfeld zu akzeptieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-8165-2_3 1fb5680ab2ddf8f2f136064be6a918ed;de;;;1.3.;;;Ein Überblick über eine interaktive und personalisierte multimediale Tele-Bildungsumgebung über ein Gigabit-Netzwerk Mit dem raschen Fortschritt der Informationstechnologien im Netzwerk- und Multimediabereich wird der Aufbau einer virtuellen Bildungsumgebung über Hochgeschwindigkeitsnetzwerke möglich und wird stark nachgefragt. Es wurden viele Anstrengungen unternommen, um virtuelle Bildungsumgebungen und/oder virtuelle Universitäten zu entwickeln. Es fehlt jedoch noch an einer praktischen virtuellen Bildungsumgebung, die Bildungsaktivitäten mit einem hohen Maß an interaktivem und personalisiertem Lehren und Lernen unterstützt.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-66979-1_28 3427e25ba14603f76cff834769f2907e;de;;;1.3.;;;Addictive Links: Der motivierende Wert der adaptiven Link-Annotation in pädagogischen Hypermedien Adaptive Link-Annotation ist eine beliebte adaptive Navigationsunterstützungstechnologie. Empirische Studien zur adaptiven Annotation im Bildungskontext haben gezeigt, dass sie den Schülern helfen kann, Wissen schneller zu erwerben, die Lernergebnisse zu verbessern, den Navigationsaufwand zu reduzieren und nicht-sequentielle Navigation zu fördern. In diesem Beitrag präsentieren wir unsere Studie zu einem eher unbekannten Effekt der adaptiven Annotation, ihrer Fähigkeit, die Motivation der Schüler, mit nicht obligatorischen Bildungsinhalten zu arbeiten, signifikant zu steigern. Wir haben diesen Effekt untersucht und seine Bedeutung im Kontext zweier unterschiedlicher adaptiver Hypermedia-Systeme bestätigt. Der Beitrag präsentiert und diskutiert die Ergebnisse unserer Arbeit.;-;-;-;https://link.springer.com/chapter/10.1007/11768012_7 b2776bc4812e98e1bf80991d3c929129;de;;;1.3.;;;Klassifikation akuter Leukämie basierend auf DNA-Mikroarray-Genexpressionen unter Verwendung partieller kleinster Quadrate Die Analyse von Microarray-Daten, wenn sie mit Rohdaten zur Genexpressionsintensität präsentiert werden, erfordert bei der Analyse der Daten häufig zwei Hauptschritte. Verarbeiten Sie zuerst die Daten durch Neuskalierung und Standardisierung, sodass die Gesamtintensitäten für jedes Array äquivalent sind. Zweitens wenden Sie statistische Methoden an, um wissenschaftliche Fragen von Interesse zu beantworten. In diesem Papier führen wir für den Datenvorverarbeitungsschritt einen Schwellenwertalgorithmus zur Neuskalierung jedes Arrays ein. Schritt 2 umfasst statistische Klassifizierungs- und Dimensionsreduktionsmethoden. Dazu führen wir die Methode der partiellen kleinsten Quadrate (PLS) ein und wenden sie auf den Leukämie-Microarray-Datensatz von . an;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-0873-1_9 05eaad471d7ce7f27dfec5fa9ccc2d5b;de;;;1.3.;;;Prüfung der Gültigkeit von Zahlenverhältnissen bei der Lautheitsfraktionierung Direkte psychophysische Skalierungsverfahren setzen voraus, dass Beobachter in der Lage sind, einen Zahlenwert direkt mit der erlebten Empfindungsgröße in Beziehung zu setzen. Diese Annahme basiert auf grundlegenden Bedingungen (spezifiziert von Luce, 2002), die experimentell evaluiert wurden. Die Aufgabe der Teilnehmer bestand darin, die Lautstärke eines 1-kHz-Tons so einzustellen, dass er einen bestimmten vorgegebenen Bruchteil der Lautstärke eines Referenztons erreicht. Die Ergebnisse des ersten Experiments legen nahe, dass die Hörer tatsächlich in der Lage waren, Anpassungen auf der Ebene der Verhältnisskala vorzunehmen. Es war jedoch nicht möglich, die in der Aufgabe verwendeten nominalen Brüche als „echte“ wissenschaftliche Zahlen zu interpretieren. Stevens’ (1956, 1975) grundlegende Annahme, dass ein Beobachter die Empfindungsstärke, die ein Stimulus auslöst, direkt einschätzen kann, war somit nicht zutreffend. Im zweiten Experiment wurde die Möglichkeit untersucht, eine spezifische, streng ansteigende Transformationsfunktion aufzustellen, die die offenen Zahlen mit den latenten mathematischen Zahlen in Beziehung setzt. Die Ergebnisse zeigen, dass dies für die Mehrheit der 7 Teilnehmer nicht möglich war.;-;-;-;https://link.springer.com/article/10.3758/BF03193515 b60192d18a6888c54f568a3a48d1f019;de;;;1.3.;;;Sprachkonvertierung durch Abbildung der spektralen und prosodischen Merkmale mit Support Vector Machine Dieses Papier stellt eine alternative Sprachkonvertierungstechnik vor, die die Support Vector Machine (SVM)-Regression als Werkzeug verwendet, um die Stimme eines Quellsprechers in einen bestimmten Standard-Zielsprecher umzuwandeln. Das Hauptziel der Arbeit besteht darin, eine nichtlineare Abbildungsfunktion zwischen den Parametern für die akustischen Eigenschaften der beiden Lautsprecher zu erfassen. Linienspektralfrequenzen (LSFs) wurden als Merkmale verwendet, um die Merkmale des Vokaltrakts darzustellen. Wir verwenden einen Kernel-induzierten Merkmalsraum mit einer SVM vom Typ Radial Basis Function Network (RBFN), die einen Gaußschen Kernel verwendet. Die Intonationscharakteristik (Tonhöhenkontur) wird unter Verwendung der Grundlinientechnik, d. h. der Gaußschen Normalisierung, modifiziert. Die transformierten LSFs zusammen mit der modifizierten Tonhöhenkontur werden verwendet, um das Sprachsignal für den gewünschten Zielsprecher zu synthetisieren. Das Sprachsignal des Zielsprechers wird synthetisiert und sowohl durch den subjektiven als auch durch den Hörtest bewertet. Die Ergebnisse zeigen, dass das vorgeschlagene Modell die Sprachkonvertierungsleistung im Hinblick auf die Erfassung der Identität des Sprechers im Vergleich zu unserem vorherigen Ansatz verbessert. Im vorherigen Ansatz haben wir ein auf einem Feed-Forward-Neuralnetzwerk (FFNN) basierendes Modell zur Modifikation des Vokaltrakts und ein Codebuch-basiertes Verfahren zur Modifikation der Tonhöhenkontur verwendet. Die Leistung des vorgeschlagenen Systems kann jedoch weiter verbessert werden, indem verschiedene benutzerdefinierte Parameter, die bei der Regressionsanalyse verwendet werden, geeignet modifiziert werden und mehr Trainings-LSF-Vektoren in der Trainingsphase verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89619-7_51 d20bd80e8bbb368469b228d85cb2e426;de;;;1.3.;;;Die Aufklärung des deutschen „dualen Systems“ zur beruflichen Hochschulbildung Chinas im modernen Informationszeitalter Das „duale System“ in Deutschland ist derzeit ein international erfolgreiches Berufsbildungsmuster. Dieser Beitrag stellt die Inhalte und Merkmale der deutschen Berufsbildung „dualen Systems“ vor und diskutiert, wie das Wesen des „dualen Systems“ als Referenz für die praktische Reform unserer beruflichen Hochschulbildung genutzt werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23357-9_86 e859eeec3b95e69c1d7db26353aab38e;de;;;1.3.;;;Grundschullehrerausbildung in Informatik: Erfahrung im argentinischen Kontext Dieses Papier präsentiert den Entwurf, die Entwicklung und die vorläufigen Ergebnisse der ersten Spezialisierung in Informatik für die Primarstufe, die vom Bildungsministerium der Provinz Santa Fe genehmigt wurde. Die „Higher Level Teaching Specialization in Didactic of Computing Science: Learning and Teaching Computational Thinking and Programming at the Primary Level“ zielt darauf ab, Lehrkräfte mit dieser Denkweise und dem Potenzial des Programmierens zu befähigen, sie in situierten, interdisziplinären und nicht-exklusiven Unterricht einzubeziehen Praktiken Methoden Ausübungen. Die Gestaltungsachsen dieser Ausbildung werden ebenso dargestellt wie die relevanten Charakteristika der Studierenden. Darüber hinaus werden Ergebnisse bereitgestellt, die es ermöglichen, die Meinungen der Teilnehmenden zum Diktat, den angesprochenen Inhalten und der Einbindung in ihre Praxis zu berücksichtigen. Auf diese Weise werden Daten bereitgestellt, die es ermöglichen, zukünftige Ausbildungskonzepte und -umsetzungen in einem innovativen Feld für Primarstufenlehrer zu überprüfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-48325-8_25 8a36e22da6befb1623a6c5ced4ef071b;de;;;1.3.;;;Faktoren, die die Absicht beeinflussen, ein E-Portfolio im Sektor der Saudi Technical and Vocational Training Corporation (TVTC) zu verwenden: Pilotprüfung Das Hauptproblem, mit dem die Einrichtungen der Berufsbildungswerke (TVTC) derzeit konfrontiert sind, ist ineffizientes Informationsmanagement. In diesem Zusammenhang beinhaltet die Anwendung von OBE die Bereitstellung mehrerer Portfolios für die Studierenden, die zur Generierung täglicher Informationen verwendet werden, wobei Aufzeichnungen als Transaktionsnachweise gespeichert werden. Studien in der Literatur zum Rahmen von E-Portfolio-Systemen im Bildungssektor, insbesondere im TVTC, sind noch rar gesät, und ihr Umfang deckte die Bestimmung der Faktoren, die die Einführung des Systems beeinflussen, nicht ab. Daher wurden in diesem Papier die wichtigsten Faktoren identifiziert, die die Einführung von E-Portfolios unter TVTC-Institutionen beeinflussen könnten, auf deren Grundlage ein Rahmen entwickelt und vorgeschlagen wurde, um die Einführung von Technologien zu erleichtern und die Ergebnisse zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-33582-3_95 6622dd2214247b661c5d83e0f7758058;de;;;1.3.;;;CAD-Schulungsunterstützungssystem basierend auf Workflow Dieses Papier stellt eine Entwicklung und ein Experiment eines CAD-Bildungsunterstützungsrahmens vor, der eine verbesserte Konstruktionsunterstützung für Studenten bietet, die Kursarbeiten zur Schiffskonstruktion unter Verwendung eines Dokumentenverwaltungssystems namens ShareFast durchführen. Die Software bietet die folgenden Funktionen: 1. CAD-Schulungsrahmen für den Selbstunterricht basierend auf dem Workflow des CAD-Betriebs, 2. Netzwerkbasiertes System zum Austausch von Schulungsmaterialien und zur Unterstützung der Kommunikation zwischen Lehrern und Schülern, 3. Ausgereifte und flexible Inhaltsverwaltungsfunktion basierend auf based Metadaten im RDF-Format (Resource Description Framwork) und 4. Betriebsüberwachungsfunktion, um das Verhalten der Schüler beim Auffinden von Problemen für Materialien zu verfolgen. Dieser pädagogische Rahmen wurde für empirische Studien mit Universitätsstudenten verwendet und die Ergebnisse zeigen, dass der Rahmen das Lernen der Studenten durch die Verbesserung der Lernmaterialien beschleunigen kann und dem Dozenten hilft, die Probleme der Studenten in Echtzeit zu verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84800-972-1_43 60e4f22756a4a53e30c8e374ad8f4442;de;;;1.3.;;;Auswirkungen von einbeinigen Gleichgewichtsübungen im Stehen auf die Prävention von Stürzen und Hüftfrakturen bei klinisch definierten älteren Menschen mit hohem Risiko: eine randomisierte kontrollierte Studie Das Ziel dieser Studie war es, die Wirksamkeit der einbeinigen Gleichgewichtsübung im Stehen für 1 Minute zur Vorbeugung von Stürzen und Hüftfrakturen bei älteren Personen mit hohem Risiko in einer randomisierten kontrollierten Studie zu bewerten. Diese Kontrollstudie wurde als 6-monatige Interventionsstudie konzipiert.;-;-;-;https://link.springer.com/article/10.1007/s00776-006-1057-2 cfe457aee99c136b363b0e6f9131726e;de;;;1.3.;;;Rollenkonflikt, Achtsamkeit und Organisationsethik in einer bildungsbasierten Gesundheitseinrichtung Rollenkonflikte treten auf, wenn ein Job widersprüchliche Erwartungen hat, die nicht mit den individuellen Überzeugungen übereinstimmen, eine Situation, die erhebliche Frustration und andere negative Arbeitsergebnisse auslöst. Daher ist ein zunehmendes Interesse an Prozessen zu beobachten, die Rollenkonflikte reduzieren. Mit Hilfe von Informationen, die von einer großen Stichprobe von Personen gesammelt wurden, die in einer bildungsbasierten Gesundheitseinrichtung beschäftigt waren, identifizierte diese Studie mehrere Faktoren, die Rollenkonflikte verringern könnten, nämlich Achtsamkeit und Organisationsethik. Die Ergebnisse zeigten insbesondere, dass Achtsamkeit mit weniger Rollenkonflikten verbunden ist und dass wahrgenommene ethische Werte und ein gemeinsamer Ethikkodex mit weniger Rollenkonflikten und erhöhter Achtsamkeit verbunden sind. Trotz der Einschränkungen der Studie deuten diese Ergebnisse darauf hin, dass Unternehmen Rollenkonflikte durch die Entwicklung von Achtsamkeit und Organisationsethik besser bewältigen können.;-;-;-;https://link.springer.com/article/10.1007/s10551-009-0276-9 0ca75b54317a919ff078e49e0270b2bb;de;;;1.3.;;;Welche Art von pädagogischen technischen Fähigkeiten entwickeln chinesische normale Universitätsstudenten? – Basierend auf der Analyse bildungstechnologischer Lehrmaterialien Mit dem Aufkommen der Ära der Bildungsinformation 2.0 und der Entwicklung der Lehrerprofessionalität wurde der Entwicklung der pädagogischen Fähigkeiten der Lehrer mehr Aufmerksamkeit geschenkt. Der öffentliche Studiengang Bildungstechnik an normalen Hochschulen und Universitäten ist für die berufsvorbereitende Ausbildung der pädagogisch-technischen Fähigkeiten der Studierenden zuständig. Dieser Beitrag analysiert die Lehrbücher, die in den öffentlichen Studiengängen der Bildungstechnologie an zehn normalen Universitäten verwendet werden, und versucht, die Frage zu beantworten: „Welche Art von Bildungstechnologie lernen normale Universitätsstudenten?;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6113-9_33 678ecbd1707a8a9f0e724f8cc9e36c85;de;;;1.2.;;;Ein hybrides Deep Q-Netzwerk für den SVM Lagrange Die Einstellung von Hyperparametern in der Support Vector Machine (SVM) ist hinsichtlich ihrer Genauigkeit und Effizienz sehr wichtig. In diesem Papier verwenden wir eine neuartige Definition des Verstärkungslernzustands, der Aktionen und der Belohnungsfunktion, die es einem tiefen Q-Netzwerk (DQN) ermöglicht, zu lernen, die Optimierungshyperparameter für die tiefen neuronalen Netzwerke der SVM durch überwachte Big-Data zu steuern. In diesem Rahmen basiert der DQN-Algorithmus mit Erfahrungswiedergabe auf dem Off-Policy-Verstärkungslernen für die erwartete diskontierte Rückgabe von Belohnungen oder q-Werten, die mit den Aktionen zum Anpassen der Hyperparameter in der SVM verbunden sind. Wir schlagen die beiden tiefen neuronalen Netze vor, eines mit dem SVM und das andere mit Q-Netzwerk (DQN). Die tiefen neuronalen Netze der SVM lernen eine Richtlinie für die Optimierungs-Hyperparameter, unterscheiden sich jedoch in der Anzahl der zulässigen Aktionen. Die tiefen neuronalen Netze der SVM trainieren gleichzeitig die Hyperparameter der SVM, wie beispielsweise den Lagrange-Multiplikator. Der vorgeschlagene Algorithmus wird Hybrid-DQN in Kombination mit tiefen neuronalen SVM-Netzen genannt. Dieser Algorithmus könnte als Klassifikator in den realen Domänen wie Netzwerkanomalien in den verteilten Serverlasten angesehen werden, da die SVM für den Einsatz in einer Klassifikation geeignet ist, insbesondere für das Eine gegen das Andere. Algorithmusvergleiche zeigen, dass unser vorgeschlagener Algorithmus zu einer guten Optimierung des Lagrange-Multiplikators führt und Overfitting bis zu einem gewissen Grad automatisch ohne menschliche Systemdesigner verhindern kann. Hinsichtlich der Klassifikationsleistung kann der vorgeschlagene Algorithmus mit der ursprünglichen LIBSVM ohne Kontrolle der Hyperparameter verglichen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1056-0_63 115420675dfbb74b6b5d5dbb99c29067;de;;;1.2.;;;Boolesche Operationen von Festkörpern mit freien Oberflächen durch polyedrische Approximation Das Papier beschreibt eine neue Implementierungsmethode für Boolesche Operationen zwischen Volumenkörpern mit Freiformflächen. Boolesche Operationen bestehen aus zwei Prozessen, der topologischen Modifikation und der geometrischen Modifikation, die in unserem Verfahren getrennt durchgeführt werden. Diese Trennung macht den Booleschen Operationsprozess einfach und robust. Im endgültigen Volumenkörper enthaltene Flächen werden von der Repatching-Funktion mit Gregory-Patches interpoliert.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-68093-2_26 10ec72035a84a49b18ff632fa8cf82a3;de;;;1.2.;;;Kuczynski, Jürgen Peter (geboren 1904) Als Sohn des Statistikers und Demografen R. R. Kuczynski wurde J. P. Kuczynski an den Universitäten Berlin und Heidelberg ausgebildet. Er wurde Wirtschaftsredakteur von;-;-;-;https://link.springer.com/referenceworkentry/10.1057/978-1-349-95121-5_1133-1 a993f65e785257323abdc4b04382de0f;de;;;1.3.;;;Schätzung der Bildtreue aus dem empfangenen eingebetteten Bitstrom Trotz der Tatsache, dass der mittlere quadratische Fehler (MSE) das am weitesten verbreitete Kriterium für die Bild-/Videotreue ist, erfordert es die Verfügbarkeit eines Originalbilds und große Rechenressourcen für seine Berechnung. Die Nichtverfügbarkeit von Originalbildern schränkt die Verwendung von MSE als Qualitätsmetrik in vielen praktischen Szenarien ein. Dieses Papier schlägt vor, die MSE-Reduktion (MSER) ​​mit Bezug auf das Nullbild zu verwenden, um die Wiedergabetreue von Bildern abzuschätzen, die aus eingebetteten Bitströmen ohne das Originalbild dekodiert wurden. MSER wird im Allgemeinen für die Ratenzuweisung, den optimalen Fehlerschutz usw. verwendet. MSER gibt jedoch Informationen über die Verbesserung der Wiedergabetreue des decodierten Bildes statt seines absoluten Wertes. Es wird vorgeschlagen, den MSE aus abzuschätzen;-;-;-;https://link.springer.com/article/10.1007/s11760-019-01577-3 887bb8f29a8943fa721703ba46f4ba04;de;;;1.3.;;;Pionierforschung bei Ultra-High-Speed-Ultra-Large-Capacity- und Ultra-Langstrecken-Optikübertragung Ultra-High-Speed, Ultra-Large-Capacity und Ultra-Langstrecken (3U) sind das ewige Streben nach optischer Kommunikation. Als neuer Modus der optischen Kommunikation kann die 3U-Übertragung die Entwicklung von optischen Internet- und Breitband-Mobilkommunikationsnetzen der nächsten Generation sowie den technologischen Fortschritt erheblich fördern und ist daher zum Mittelpunkt des internationalen Hightech-Wettbewerbs im Bereich des geistigen Eigentums geworden. Dieser Beitrag stellt die wissenschaftlichen Probleme, Schlüsseltechnologien und wichtige Errungenschaften der 3U-Übertragungsforschung vor.;-;-;-;https://link.springer.com/article/10.1007/s12200-016-0612-5 12112c3d86a0bc1b8dc41bf0d9733a95;de;;;1.3.;;;Hochschulpädagogik in Griechenland: Pädagogischer Bedarf griechischer Akademiker der Ionischen Universität Das vorliegende Papier berichtet über die Ergebnisse einer kleinen Studie aus dem Jahr 2018. 58 (58) griechische Akademiker der Ionischen Universität (56,7% der gesamten Fakultätsmitglieder) haben das Teaching Perspectives Inventory (TPI) abgeschlossen, in die eine offene Frage enthielt, die darauf abzielte, ihre Ansichten zum Thema Hochschulpädagogik und ihren potenziellen Bedarf an pädagogischer Ausbildung zu ermitteln. Ihre Antworten zeigten, dass die Mehrheit von ihnen die Notwendigkeit einer pädagogischen Ausbildung anerkennt, während sie spezifische Interventionen zur Verbesserung der pädagogischen Lehrfähigkeiten der Fakultät vorschlagen. Aus ihren Antworten aufgeworfene Fragen wie die Entwicklung der kommunikativen Fähigkeiten der Fakultät, die psychologische Unterstützung der Studierenden, die Schaffung von Vertrauens- und Respektsbeziehungen zu ihnen, die kreative Nutzung neuer Technologien und die spezifischen Lehr- und Lernbedürfnisse der verschiedenen Disziplinen werden weitergeführt besprochen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36126-6_81 ec30d776e9cd1f56eead9e286b7db974;de;;;1.3.;;;"Finite-Elemente-Analyse planarer dielektrischer Wellenleiterdiskontinuitäten Das Finite-Elemente-Verfahren wird mit dem Modenanpassungsverfahren und dem Multimode-Netzwerkverfahren kombiniert, um die Streu- und Strahlungseigenschaften einer Klasse von planaren dielektrischen Wellenleiterdiskontinuitäten zu analysieren. Anders als bei der herkömmlichen Methode, die Strahlung als ""Quellfeld""-Problem zu behandeln, werden beim vorliegenden Ansatz zuerst die Dispersionseigenschaften dielektrischer Wellenleiterstrukturen berechnet und dann das Strahlungsproblem auf das Ausbreitungsproblem einer Reihe von . übertragen Oberflächenwellen und Raumwellen unter dem Gesichtspunkt der Streuung, wodurch die Analyse enorm vereinfacht wird.";-;-;-;https://link.springer.com/article/10.1007/BF02069585 53318f721026f95dc0620f4475307abf;de;;;1.3.;;;Quantifizierung der Kapillarversorgung und der Reaktion auf Widerstandstraining bei älteren Männern Es hat sich gezeigt, dass Widerstandstraining (RT) die aerobe Kraft bei älteren Menschen erhöht. Um die Auswirkungen der RT auf die Kapillarversorgung in dieser Population zu bestimmen, führten neun ältere Männer (65–74 Jahre) eine 9-wöchige RT des Unterkörpers durch. Nach RT, Peak O;-;-;-;https://link.springer.com/article/10.1007/s004240050273 bf76ed025252dd8f7b2d78b3fa200092;de;;;1.2.;;;Neurologische Komplikationen des Melanoms Metastasen des Zentralnervensystems (ZNS) manifestieren sich klinisch bei 10–40 % der Patienten mit Melanom und bei bis zu zwei Dritteln der Patienten bei der Autopsie. Während die Prognose von ZNS-Metastasen bei den meisten Krebsarten von der Kontrolle der zugrunde liegenden systemischen Erkrankung abhängt, erleidet die überwiegende Mehrheit der Patienten mit ZNS-Metastasen von Melanomen einen neurologischen Tod. Vorläufige Studienergebnisse deuten darauf hin, dass die Zugabe von Chemotherapeutika mit guter ZNS-Penetration zu Behandlungsschemata bei der initialen Behandlung des metastasierten Melanoms die Inzidenz von ZNS-Metastasen verringern kann. Während eine Palliativtherapie bei Patienten mit gleichzeitig weit verbreiteter Erkrankung sinnvoll ist, sind aggressivere multimodale Behandlungsansätze bei Patienten mit gutem Leistungsstatus und fehlender oder eingeschränkter extrakranieller Erkrankung gerechtfertigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-59745-412-4_28 30e5562eb612c78f3aecd1c4647bcfc2;de;;;1.2.;;;Moderne Requiem-Kompositionen und musikalisches Wissen über Tod und Jenseits In diesem Kapitel werde ich mehrere Requiemmessen ab der zweiten Hälfte des 20. Jahrhunderts untersuchen. Die Fragen, denen ich nachgehen möchte, sind: Welche Ansichten über den Tod und das Jenseits sind in diesen Kompositionen zu hören? Spiegeln zeitgenössische Requiemmessen die Art und Weise wider, wie der Tod erfahren wird, wie er in unsere Kultur eingebettet ist?;-;-;-;https://link.springer.com/chapter/10.1057/9781137472083_15 ff252ab0d34c85c9b8087036a3caf398;de;;;1.3.;;;Wie wird man Telekommunikationsingenieur? „Telekommunikation“ ist ein Teil der „Kommunikationstechnik“, die zur Elektrotechnik gehört. Eine Ingenieurausbildung in diesem Bereich ist daher mit dem Studium der Elektrotechnik an einer Technischen Universität oder Fachhochschule mit der Fachrichtung „Kommunikations- oder Informationswissenschaft“ möglich. Beide Studiengänge führen zum „Diplom“: Der naturwissenschaftliche Studiengang an den Technischen Universitäten oder der Technischen Hochschule führt zum „Dipl.-Ing. (Univ.)“ führt der praxisorientierte Studiengang an der Fachhochschule zum „Dipl.-Ing. (FH)“, ehemals „Ing. (grad)“. Beide Ausbildungswege werden anhand von Studiengängen der Technischen Universität bzw. der Fachhochschule München.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-68696-2_20 7f483525cad9aa720037ef95046bdc8c;de;;;1.3.;;;Bildungsprogramme und -aktivitäten in China für die Nachhaltigkeit der metallurgischen Industrie und ihre Perspektive Das Ausmaß der metallurgischen Industrie Chinas ist sehr groß. Auch der Energieverbrauch, die Ressourcenversorgung und die Umweltbelastung durch China stellen große Herausforderungen dar. In diesem Beitrag werden die Bildungsprogramme und -aktivitäten an Universitäten für Studenten und Absolventen bezüglich der Nachhaltigkeit der metallurgischen Industrie in China vorgestellt. Seit Beginn des 21. Jahrhunderts wurden die Kurse zu den Themen Umweltschutz, Energiesparen, Ökologie, Öko-Materialien eröffnet. Sogar die Metallurgie-Ingenieurschule wurde in die Metallurgie- und Ökoingenieurschule umgewandelt und es wurden Studenten mit dem Schwerpunkt Ökologisches Ingenieurwesen ausgebildet. Andererseits wurden an verschiedenen Universitäten Schlüssellabore für Metallurgietechnik und Ressourcennutzung eingerichtet, die dem Bildungsminister angegliedert waren. Diese Labore bieten Plattformen für Bildungs- und Forschungsaktivitäten zur Nachhaltigkeit der metallurgischen Industrie. Über die Inhalte dieser Lehrveranstaltungen, Aktivitäten und Leistungen in Ausbildung und Forschung einschließlich des internationalen Austauschs wird ausführlich berichtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48768-7_41 32425d6ef69db5b67893db21b0802215;de;;;1.3.;;;Mischung aus Subraumlernen mit adaptiver Dimensionalität: Ein selbstorganisierender Ansatz Sowohl in der Computer Vision als auch in vielen anderen Bereichen müssen hochdimensionale Daten mit potenziell geringen intrinsischen Dimensionen modelliert werden. Wir schlagen ein Unterraum-Mischungsmodell unter dem selbstorganisierenden Rahmen vor, bei dem jedes Neuron eine adaptive Anzahl dominanter Eigenvektoren lernt. Das Gesamtnetz bildet eine Mischung aus geordneten lokalen Unterräumen mit dem Vorteil der Rauschglättung. Experimentelle Ergebnisse zeigen, dass das vorgeschlagene Modell hochdimensionale visuelle Objekte wie handgeschriebene Ziffernbilder, die erheblichen Variationen unterliegen, genau darstellen kann und die intrinsische Dimensionalität nichtlinear verteilter Daten aufzeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25664-6_77 65a8c2a23c83b4122eff7263e604e542;de;;;1.2.;;;Frühes humanistisches Versagen mit Homer (I) Die Angriffe von Vida und Scaliger auf Homer im 16. Jahrhundert sind bekannt. Weniger allgemein anerkannt ist das Ausmaß, in dem diese Angriffe einfach ein Vakuum füllten und natürlich aus der Ratlosigkeit und Schwierigkeit entstanden, die humanistische Leser und Übersetzer seit Petrarca erlebten. Dieser Artikel untersucht die frühe Geschichte der humanistischen Reaktion auf die homerischen Gedichte und das damit verbundene antike Erbe, wie es in kritischen Urteilen und in Übersetzungen belegt ist. In einer allgemeinen Umfrage kommt sie zu dem Schluss, dass die humanistische Reaktion, obwohl sie oft von offensichtlichem Enthusiasmus und guten Absichten geprägt war, in Wirklichkeit nur zögerlich und bestenfalls halbherzig und manchmal geradezu feindselig war. Selbst wenn Unkenntnis des Griechischen oder Schwierigkeiten mit der Sprache kein Problem darstellten, neigte Homer dazu, bewusst oder unbewusst nach dem überragenden Standard von Vergil beurteilt zu werden. Geschmack und Wertschätzung des unverwechselbar Homerischen waren nicht Teil des reichen Erbes, das die frühen Humanisten dem modernen Europa hinterlassen haben. Dieser Artikel wird in zwei Teilen veröffentlicht, die zweite Hälfte erscheint in;-;-;-;https://link.springer.com/article/10.1007/BF02700220 8a3510aba95c3ce114c0656a7ae6d5a6;de;;;1.3.;;;Deep-Belief Network-Hidden Markov-Modell basierter nichtlinearer Equalizer für VCSEL-basierte optische Verbindungen Das Rechenzentrum hat sich in den letzten Jahren rasant entwickelt, was zur Nachfrage nach Hochgeschwindigkeits-Datenübertragung geführt hat. Die auf oberflächenemittierenden Lasern (VCSELs) basierenden optischen Verbindungen entwickeln sich auf 100 Gb/s und darüber hinaus, was es schwierig macht, nichtlineare Verzerrungen durch herkömmliche Entzerrer zu kompensieren oder auszugleichen. Darüber hinaus wird die Herausforderung für konventionelle Entzerrer wegen des Vorhandenseins von Intersymbolinterferenz (ISI) zusammen mit den nichtlinearen Verzerrungen sehr kompliziert. Es wurden so viele DSP-Algorithmen auf Basis von neuronalen Netzwerken, wie beispielsweise künstliche neuronale Netzwerke (ANN), vorgeschlagen, um die Verzerrungen abzuschwächen. KNN hat jedoch die Einschränkungen, dass die relevanten Informationen der Probe nicht berücksichtigt werden, was zu einer Verschlechterung der KNN-Leistung und einer hohen Rechenkomplexität führt. Um eine hervorragende Fähigkeit zur Abschwächung nichtlinearer Verzerrungen wie bei anderen auf neuronalen Netzwerken basierenden Entzerrern beizubehalten und gleichzeitig die relevanten Informationen der Stichprobe zu berücksichtigen, um die Rechenkomplexität zu reduzieren, schlagen wir in diesem Papier ein Deep-Belief-Network-Hidden-Markov-Modell (DBN-HMM) basierend auf nichtlinearen . vor Entzerrer, der in einem PAM-4-modulierten VCSEL und einer optischen Multimode-Faser (MMF)-Verbindungsverbindung experimentell getestet wird. Die BER-Leistung kann im Vergleich zu herkömmlichen DSP-Algorithmen stark verbessert werden. Außerdem kann die Rechenkomplexität des auf DBN-HMM basierenden Entzerrers ungefähr 41% niedriger sein als die des ANN-basierten Verfahrens mit einer ähnlichen BER-Leistung.;-;-;-;https://link.springer.com/article/10.1007/s11432-019-2848-3 dd6634663df62bfcd28abd5995d841f8;de;;;1.3.;;;Training nach ART-2 und Klassifizierung ballistischer Flugkörper mit dem Hidden-Markov-Modell Dieses Papier befasst sich mit der Klassifizierung verschiedener Reichweiten von ballistischen Flugkörpern (BM) für Luftverteidigungsanwendungen unter Verwendung der adaptiven Resonanztheorie (ART-2) und des Hidden-Markov-Modells (HMM). ART-2 findet die anfänglichen Cluster unter Verwendung von unüberwachtem Lernen, die dem HMM zur Klassifizierung unter Verwendung der rekursiven Methode zugeführt werden. Die Klassifizierung basiert auf abgeleiteten Parametern der spezifischen Energie, Beschleunigung, Höhe und Geschwindigkeit, die wiederum aus gemessenen Daten von Radaren gewonnen werden. Um den widersprüchlichen Anforderungen an die Klassifizierung von kurz- und weitreichenden BM-Trajektorien gerecht zu werden, schlagen wir eine Formulierung zur Partitionierung der Trajektorie unter Verwendung eines Moving-Window-Konzepts vor. Experimentelle Ergebnisse zeigen, dass das HMM-Modell in der Lage ist, über 95% innerhalb von Millisekunden zu klassifizieren, sobald die anfänglichen Daten mit ART2 trainiert wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45062-4_14 3415a07a2520b6ddeb5ba1efa5f5afbd;de;;;1.3.;;;E-Tutoring in der Hochschulbildung: Eine Fallstudie Die vorliegende Arbeit konzentriert sich auf die Analyse der Schlüsselqualifikationen des e-Tutors in der Ecampus online University auf der Grundlage der in der Literatur beschriebenen Referenzmodelle. Die Analyse basiert auf einem validierten Fragebogen, der ins Italienische übersetzt und einer Stichprobe von 220 ToL der Universität vorgelegt wurde. Das spezifische Ziel war: (a) die Aufgaben, Rollen und Pflichten von e-Tutoren abzubilden, (b) ein Erhebungsinstrument zu validieren, das auf quantitativer Basis die e-Tutor-Fähigkeiten erkennen kann, (c) die TOL- und TD-Fähigkeiten zu verbessern der Hochschule eCampus dank der erhobenen Daten. Die Ergebnisse zeigen, dass die Rolle des E-Tutors an dieser Universität hybrid ist, sie impliziert keine spezifische disziplinäre Kompetenz, sondern setzt einen pädagogischen Hintergrund voraus, der mit der tatsächlichen Gestaltung der Lernerfahrung der Studierenden innerhalb der Online-Universität verknüpft ist. Die Entwicklung dieser Fähigkeiten beruht weitgehend auf der täglichen Praxis, durch einen mehr oder weniger impliziten Reflexionsprozess und implizit durch den Hinweis auf eine informelle Gemeinschaft, die Anfängern Orientierung und Unterstützung bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-67435-9_22 8c9608561ccf03f30dea5c17b6e5c814;de;;;1.3.;;;RehApp – Ein tragbares Haptiksystem für Rehabilitation und Sporttraining RehApp ist ein skalierbares, kabelloses Haptiksystem für Rehabilitation und Sporttraining. In diesem Beitrag stellen wir zunächst verwandte Arbeiten im Bereich tragbarer haptischer Systeme für Rehabilitation und sportliche Aktivitäten vor. Als nächstes wird das Design und die Implementierung des RehApp-Systems beschrieben. Wir schließen das Papier mit zukünftigen Arbeiten für dieses Demonstrationssystem ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31404-9_38 b3d0f3b6ed24340c9594f3c60b878eb9;de;;;1.3.;;;Zusammenarbeit zwischen Wirtschaft und Bildung, um die Herausforderung eines sich verändernden Umfelds zu meistern Das Jahrzehnt der achtziger Jahre ist zu einer Schlüsselperiode für den Übergang in das Informationszeitalter geworden. Der schnelle technologische Fortschritt hat Informationen potenziell zugänglicher und sicherlich wichtiger für Geschäfts- und Untersuchungsprozesse gemacht. Darüber hinaus hat der Übergang zu einer globalen Wirtschaft den Druck auf Unternehmen und Bildung erhöht, das Humankapital, von dem beide abhängig sind, besser zu entwickeln und zu nutzen. Besser mit Humankapital zu arbeiten und technologische Fortschritte zu nutzen bedeutet oft, für Unternehmen und Bildungseinrichtungen zusammenzuarbeiten.;-;-;-;https://link.springer.com/article/10.1007/BF02908311 0100c30e375a3cb224d144dcca47a10b;de;;;1.2.;;;Topologische Beziehungen in hierarchischen Partitionen Ein hierarchisches räumliches Denken wird vorgeschlagen, um die topologische Beziehung zwischen zwei Regionen in unabhängigen räumlichen Partitionen zu bestimmen. Betrachtete hierarchische Partitionen sind;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48384-5_10 212d50d912563be7894e3c24aac6d930;de;;;1.3.;;;Gegenseitige Konvertierung von Regression und Klassifikation auf Basis von Least Squares Support Vector Machines Klassifikation und Regression sind die interessantesten Probleme im Bereich der Mustererkennung. Das Regressionsproblem kann in ein binäres Klassifikationsproblem umgewandelt werden und eine Unterstützungsvektormaschine der kleinsten Quadrate kann verwendet werden, um das Klassifikationsproblem zu lösen. Die optimale Hyperebene ist die Regressionsfunktion. In diesem Beitrag wird eine einstufige Methode vorgestellt, um das Mehrkategorienproblem zu lösen. Das vorgeschlagene Verfahren wandelt das Klassifikationsproblem in das Funktionsregressionsproblem um und wird angewendet, um das umgewandelte Problem durch Kleinste-Quadrate-Unterstützungsvektormaschinen zu lösen. Das neuartige Verfahren klassifiziert die Proben in allen Kategorien gleichzeitig nur durch das Lösen eines Satzes von linearen Gleichungen. Es werden Demonstrationen numerischer Experimente durchgeführt und gute Leistungen erzielt. Simulationsergebnisse zeigen, dass Regression und Klassifikation auf Basis von Kleinste-Quadrate-Unterstützungsvektormaschinen ineinander umgewandelt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/11759966_148 ef01568f5d3ec53ea7a8d8a7b1538f63;de;;;1.2.;;;Entwicklung von Nährstoffkriterien für die Jiulong-Flussmündung, Südostchina Eine der Hauptsorgen in Mündungs- und Küstengebieten ist die Eutrophierung, die bekanntlich eng mit der Nährstoffanreicherung verbunden ist. Zur Kontrolle und Verbesserung der Oberflächenwasserqualität werden Nährstoffkriterien empfohlen, um Referenzbedingungen für die Umwelt bereitzustellen. Die aktuellen Datensätze zu Nährstoffkriterien in China sind jedoch entweder für Oberflächen- oder Meerwasser ausgelegt und als solche nicht geeignet, die Wasserqualität von Ästuaren zu beurteilen, insbesondere angesichts des einzigartigen Ökosystems und der dynamischen Eigenschaften von Ästuaren. Um dieses Problem im aktuellen Mündungswassermanagement anzugehen, wurden Nährstoffkriterien für ein lokales Mündungsgebiet im Südosten Chinas entwickelt. Die Segmentierung der Jiulong-Flussmündung, China, wurde zunächst durch Felduntersuchungen zwischen 2013 und 2014 analysiert, die zur Abgrenzung von drei Segmenten führten, die sich durch ihre unterschiedlichen Eigenschaften in Bezug auf Salzgehalt, Hydrologie, Ökosysteme usw. auszeichnen. Historische Aufzeichnungen von 1997 bis 2014 wurden dann mit statistischen Modellen analysiert, um mögliche Nährstoffkriterien für das Ästuar zu entwickeln. Diese Phase der Analyse wurde in Kombination mit der Untersuchung von Nährstoffzustandsaufzeichnungen aus den 1980er Jahren durchgeführt, die verwendet wurden, um einen Basisbezugszustand festzulegen. Die empfohlenen Kriterienwerte für gelösten anorganischen Stickstoff (DIN) in den Segmenten I, II und III der Jiulong-Flussmündung betragen 64, 21 bzw. 14 µmol/L und die entsprechenden Werte für löslichen reaktiven Phosphor (SRP) sind 0,89, 0,76 bzw. 0,89 μmol/l. Es sollte betont werden, dass diese Werte standortabhängig sind und dass je nach den physikalischen und biogeochemischen Eigenschaften eines Ästuars oder sogar eines einzelnen Standorts innerhalb eines Einzugsgebiets an anderen Standorten unterschiedliche Ergebnisse erzielt werden können. Es ist zu hoffen, dass die aktuelle Studie durch die Demonstration eines möglichen methodischen Ansatzes und der Methoden zur Ableitung von Nährstoffkriterien in der Mündung des Jiulong-Flusses den Forschern eine grundlegende Grundlage bietet, um umfassendere Nährstoffkriterienindizes für die Untersuchung der Nährstoffbedingungen in anderen zu entwickeln Flussmündungen in ganz China.;-;-;-;https://link.springer.com/article/10.1007/s13131-017-1121-0 3c218b6034100bacbe9f2abec058e546;de;;;1.2.;;;Das plötzliche Veränderungsphänomen von Quantum Discord Selbst wenn die Parameter, die den Zustand eines Systems bestimmen, glatt variiert werden, kann das Verhalten von Quantenkorrelationen ähnlich der Quantendisharmonie und ihrer klassischen Gegenstücke sehr eigentümlich sein, mit dem Auftreten von Nichtanalytik in ihrer Änderungsgeschwindigkeit. Hier besprechen wir dieses Phänomen der plötzlichen Veränderung (SCP) und diskutieren einige wichtige Punkte in Bezug darauf: Seine Aufdeckung, Interpretationen und experimentellen Verifizierungen, seine Verwendung im Kontext der Entstehung der Zeigerbasis in einem Quantenmessverfahren, sein Auftreten und seine Universalität unter Markovasche und nicht-Markovsche Dynamik, ihre theoretische und experimentelle Untersuchung in einigen anderen physikalischen Szenarien und das damit verbundene Phänomen der doppelten plötzlichen Änderung der Spurabstandsdisharmonie. Es werden mehrere offene Fragen identifiziert, und wir gehen davon aus, dass wir durch deren Beantwortung signifikante weitere Einblicke in die Beziehung zwischen dem SCP und den symmetrisch-geometrischen Aspekten des Quantenzustandsraums gewinnen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-53412-1_15 fd55ffad397c7aaf14fd4b14a642cb5d;de;;;1.3.;;;Wissenschaft: Verwaltungspersonal – Bildung Bisher haben wir in diesem Brief mehrmals auf die häufigen Veränderungen Bezug genommen, die in der Welt stattfinden. Diese dynamische Atmosphäre erfordert eine schnelle Reaktion auf neue Anforderungen und Bedürfnisse. In der Hochschulbildung kommen diese dynamischen Veränderungen auf verschiedene Weise zum Ausdruck, die aus der Perspektive der Hochschulen beschrieben, illustriert und analysiert werden;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30225-6_13 1aec3217477091aa6f802af4906911e5;de;;;1.3.;;;Datei-Layout-Design von VBR-Video auf Zoned-Disks Als Fortschritte der Netzwerktechnologien, Komprimierungstechniken und Speichergeräte werden Videomedien in vielen Anwendungen, wie beispielsweise Unterhaltung und Bildung, weit verbreitet. Die Videoinhalte werden normalerweise als Folge von Frames gespeichert, wobei jeder Frame einen einzelnen Bildschnappschuss darstellt. Beim Betrachten durch Menschen ist das Timing der Videowiedergabe entscheidend für den Betrachtungseffekt. D.h. jeder Frame muss innerhalb eines Zeitfensters an die Viewer-Maschine geliefert und von dieser abgespielt werden, um keine beobachtbaren Jitter zu erzeugen. Ein weiterer Grund für die Zeiteinschränkung besteht darin, Videomedien mit anderen Medien, wie beispielsweise Sprache und Text, einer Multimediaanwendung zu synchronisieren. Um die systemweite Dienstgüte (QoS) aufrechtzuerhalten, muss ein Speichersystem Leistungsgarantien bieten, da es eine wichtige Rolle bei der Unterstützung eines Echtzeit-Videomediums spielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-6069-2_3 19434f3ace54f95286196ca57dcde2e6;de;;;1.3.;;;Adaptive generative Initialisierung beim Transferlernen Trotz zahlreicher Untersuchungen zum Transferlernen ist kein Konsens über die optimale Methode des Transferlernens erzielt worden. Um ein einheitliches theoretisches Verständnis des Transferlernens zu vermitteln, formulieren wir den Kern des Transferlernens um, indem wir die optimale Initialisierung zur Erleichterung der zu übertragenden Aufgabe verfolgen. Um eine ideale Initialisierung zu erhalten, schlagen wir daher eine neuartige Initialisierungstechnik vor, d. h. eine angepasste generative Initialisierung. Nicht darauf beschränkt, die Aufgabenübertragung zu verstärken, was noch wichtiger ist, die vorgeschlagene Initialisierung kann auch die Übertragungsvorteile bei der Verteidigung der verheerenden negativen Übertragung binden. In der ersten Phase unserer vorgeschlagenen Initialisierung kann die Inkongruenz zwischen einer Aufgabe und dem ihr zugewiesenen Lernenden (Modell) dadurch gemildert werden, dass das Wissen des Ziellerners zum Trainieren des Quelllerners eingespeist wird, während die spätere generative Phase sicherstellt, dass die angepasste Initialisierung durchgeführt werden kann richtig an den Ziellerner produziert. Die Überlegenheit unserer vorgeschlagenen Initialisierung gegenüber herkömmlichen auf neuronalen Netzwerken basierenden Ansätzen wurde in unserem vorläufigen Experiment zum MNIST-Datensatz validiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98693-7_5 7b5868d56968454c3c04f596057d8f4e;de;;;1.2.;;;Untersuchung regionaler Besonderheiten der Oberflächensonnenstrahlung in Nord- und Ostchina Sonnenstrahlung ist eine wichtige Energiequelle für Pflanzen auf der Erde und auch ein wesentlicher Bestandteil der globalen Energiebilanz. Variationen der auf die Erdoberfläche einfallenden Sonnenstrahlung wirken sich tiefgreifend auf die menschliche und terrestrische Umwelt aus, einschließlich des Klimawandels. Um nützliche Informationen für die Vorhersage des zukünftigen Klimawandels in China zu liefern, werden auf der Grundlage von SSR-Beobachtungen und anderen meteorologischen Messungen in distinctive Nord- und Ostchina von 1961 bis 2007. In der Studie werden mehrere Modelle wie das planparallele Strahlungsübertragungsmodell, empirische und statistische Modelle sowie Methoden der Korrelations- und Regressionsanalyse verwendet. Die Ergebnisse sind wie folgt angegeben. (1) Von 1961 bis 2007 durchlief die gesamte SSR in Nordchina einen Prozess von schnellem „Verdunkeln“ zu langsamem „Verdunkeln“, während in Ostchina ein signifikanter Übergang von „Verdunkelung“ zu „Aufhellung“ stattfand. Obwohl es einige Unterschiede zwischen den beiden regionalen Variationstrends gibt, stimmen die langfristigen Variationen der SSR in den beiden Regionen grundsätzlich mit der weltweiten Beobachtung überein. (2) Zwischen den 1960er und 1980er Jahren spielten Aerosole sowohl in Nord- als auch in Ostchina eine entscheidende Rolle bei der Abschwächung der Strahlung. Nach 1989 traten jedoch in Nord- und Ostchina unterschiedliche Variationstendenzen der SSR auf, was darauf hindeutet, dass Aerosole nicht der dominierende Faktor waren. (3) Die Wolkenbedeckung trug weniger zur Variation der SSR in Nordchina bei, war jedoch die Hauptursache in Ostchina und spielte eine fördernde Rolle bei der Umkehr der SSR von der Abschwächung zur Aufhellung, insbesondere in der „bemerkenswerten Aufhellung“ mit ihren Beitrag von bis zu 70 %.;-;-;-;https://link.springer.com/article/10.1007/s13351-011-0408-x 1dfc05ba4496447c4e83a2573dcc5b9d;de;;;1.2.;;;Tonmineralverteilung in Oberflächensedimenten der Laptewsee: Indikator für Sedimentprovinzen, Dynamik und Quellen 48 Oberflächensedimentproben der Laptewsee, die während der russisch-deutschen Expedition Transdrift I im Sommer 1993 entnommen wurden, wurden auf ihre Tonmineralzusammensetzung (Illit, Smektit, Chlorit und Kaolinit) untersucht. Verschiedene Tonmineralprovinzen, die Rolle der fluviatilen Sedimentversorgung, Transportmechanismen und mögliche Quellgebiete werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-60134-7_45 af2f555e1c356179baa6e880018daac4;de;;;1.2.;;;Biogeografische Abteilungen Es ist noch nicht klar, wie viele Arten in der reichen Flora und Fauna der koreanischen Halbinsel vorkommen. Auch über die Verteilung ist noch nicht viel bekannt. Bezüglich der Flora verzeichnete Nakai (1952) 223 Familien, 968 Gattungen und 4196 „Arten“* (3176 spp., 841 var. und 174 Formen), von denen 1116 Arten und 11 Gattungen in der Region endemisch waren. Kürzlich berichtete Lee (1982a) über 4164 Arten aus Korea (170 fam., 897 gen., 2899 spp., 7 subspp., 929 var. und 329 Formen). Floristische Informationen von Lee (1982a) und Yim & Baik (1985) zeigen, dass es nur 407 Arten (61 fam., 172 gen., 339 spp., 46 var. und 22 Formen) von koreanischen endemischen Pflanzen auf der Halbinsel gibt. und fünf endemische Gattungen, nämlich;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-1624-4_2 f605b3e8f451eb69ae3e752b1ac33e83;de;;;1.2.;;;Datenschutzerhaltende Aggregation von verteilten Bewegungsdaten Wir schlagen einen neuartigen Ansatz zur datenschutzerhaltenden analytischen Verarbeitung in einer verteilten Umgebung vor und gehen das Problem an, aggregierte Informationen über den Fahrzeugverkehr in einer Stadt aus Bewegungsdaten zu erhalten, die von einzelnen Fahrzeugen gesammelt und an einen zentralen Server gesendet werden. Bewegungsdaten sind sensibel, da der Aufenthaltsort von Personen möglicherweise intime persönliche Merkmale wie religiöse oder sexuelle Vorlieben offenlegt und eine erneute Identifizierung von Personen in einer Datenbank ermöglicht. Wir bieten ein datenschutzwahrendes Framework für die Aggregation von Bewegungsdaten basierend auf Trajektoriengeneralisierung in einer verteilten Umgebung. Die vorgeschlagene Lösung, die auf dem Differential Privacy Model und auf Sketching-Techniken für eine effiziente Datenkompression basiert, bietet eine formale Datenschutzgarantie. Anhand von realen Daten demonstrieren wir die Wirksamkeit unseres Ansatzes auch im Hinblick auf den durch die Datentransformation erhaltenen Datennutzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-00615-4_13 431285427c70cc9211d60c6ffba43800;de;;;1.2.;;;Punktpartitionen: Eine qualitative Darstellung für regionenbasierte räumliche Szenen in Eine vollständige qualitative Szenenbeschreibung sollte so beschaffen sein, dass sie die wesentlichen Details einer Konfiguration erfasst, damit eine topologisch korrekte Darstellung wiederhergestellt werden kann. Dieses Papier modelliert eine räumliche Szene durch Sequenzen von Punktpartitionen, dh wie einbettender Raum und Objekte um die Schnittpunkte der Grenzen von Regionen verteilt sind. Es werden 23 Basismuster identifiziert, die ausreichen, um komplexe Szenen, einschließlich Konfigurationen mit Löchern, einzufangen. Um die schematische Darstellung einer räumlichen Szene aus Punktteilungsmustern zu demonstrieren, wird eine solche Szene mit dem entwickelten Modell nachgebildet. Das Papier bietet auch eine Möglichkeit, zwischen diesen komplexeren Beziehungen und den acht groben topologischen Beziehungen des 4-Schnittpunkts zu wechseln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-45738-3_13 3d00c9834be7af69b246644b92d02765;de;;;1.2.;;;Emergente Quantenmaterialien Der Begriff Quantenmaterialien bezieht sich auf Materialien, deren Eigenschaften hauptsächlich durch quantenmechanische Effekte auf makroskopischen Längenskalen definiert werden und die Phänomene und Funktionalitäten aufweisen, die von der klassischen Physik nicht erwartet werden. Einige Schlüsselmerkmale umfassen reduzierte Dimensionalität, starke Vielteilchen-Wechselwirkungen, nichttriviale Topologie und nicht geladene Zustandsvariablen von Ladungsträgern. Das Gebiet der Quantenmaterialien ist seit Jahrzehnten ein Themengebiet der modernen Materialwissenschaft und steht im Mittelpunkt einer Vielzahl moderner Technologien, die von Elektronik, Photonik, Energie, Verteidigung bis hin zu Umwelt- und biomedizinischer Sensorik reichen. In den letzten zehn Jahren wurde viel Forschungsarbeit in die Entwicklung von Quantenmaterialien mit Phänomenen und Funktionalitäten investiert, die sich bei hohen Temperaturen manifestieren und eine beispiellose Durchstimmbarkeit mit atomarer Präzision aufweisen. Dieses florierende Forschungsgebiet hat eine Reihe bahnbrechender Durchbrüche erlebt und ist nun bereit, sich den Herausforderungen in einem neuen Zeitalter der Quanteninformationswissenschaft und -technologie zu stellen. Diese Ausgabe fasst die jüngsten Fortschritte in ausgewählten Themen zusammen und gibt einen Überblick über die zukünftigen Richtungen aufstrebender Quantenmaterialien in den kommenden Jahren.;-;-;-;https://link.springer.com/article/10.1557/mrs.2020.125 6025e81240f81413334b089e3bc11671;de;;;1.2.;;;Strukturanalyse von singulär gestörten Zustandsmodellen Der Artikel widmet sich der Analyse einer Klasse von mathematischen Modellen mit kleinen Parametern, nämlich singulär gestörten Zustandsmodellen. Diese Modelle sind für die Forscher, die sich mit Computersimulation befassen, von besonderem Interesse, da die Modelle charakteristische Eigenschaften des betrachteten Objekts widerspiegeln, die bei der praktischen Auslegung berücksichtigt werden sollten. Insbesondere können unter geeigneten Bedingungen kleine Variationen von Parametern wesentliche Änderungen der physikalischen Zustände des tatsächlichen Objekts verursachen. Am Beispiel elektronischer Schaltungen werden strukturelle Bedingungen untersucht, die die Verfügbarkeit von singulär gestörten Zustandsmodellen in Form des Satzes gewöhnlicher Differentialgleichungen mit kleinen Parametern auf Ableitungen von Zustandsvariablen bewirken. Es wird vorgeschlagen, dass der vorgeschlagene Ansatz zur strukturellen Analyse der genannten Art von mathematischen Modellen auf andere Klassen von Ingenieurobjekten ausgedehnt werden kann, indem das wohlbekannte Prinzip der physikalischen Analogien herangezogen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-15147-2_31 ee69854cebfa7c083753743bad806594;de;;;1.2.;;;Ein System für einen neuen zweidimensionalen Code: Sicherer 2D-Code In diesem Beitrag wird ein neuer 2D-Code namens Secure 2D-Code entwickelt, wobei sowohl Encoder als auch Decoder vorgeschlagen werden. Sicherer 2D-Code kann jede Art von Daten speichern und bietet hohe Sicherheit. Hinsichtlich der Sicherheit sind die Eingabedaten in zwei Teile unterteilt: allgemein und geheim. Die allgemeinen Daten werden in ein 2D-Codemuster umgewandelt, dann werden geheime Daten im 2D-Codemuster versteckt. Um die Lesegeschwindigkeit zu erhöhen und verschiedene Leseumgebungen zu ermöglichen, werden einige Funktionen um die 2D-Codemustergrenze herum hinzugefügt. Hinsichtlich der Zuverlässigkeit wird RS-Code verwendet, um beschädigte Muster zu behandeln.;-;-;-;https://link.springer.com/article/10.1007/s001380050092 b8b2c21276256a17bc1cf93d318fc435;de;;;1.3.;;;Automatische Identifizierung von Clear-Air-Echos basierend auf Millimeterwellen-Wolkenradarmessungen Millimeterwellen-Wolkenradar (MMCR) bietet die Möglichkeit, die Merkmale von Mikropartikeln innerhalb von Wolken zu erkennen und die innere mikrophysikalische Struktur der Wolken zu beschreiben. Daher wird MMCR häufig bei Wolkenbeobachtungen angewendet. Durch den Einfluss nicht-meteorologischer Faktoren wie Insekten werden die Wolkenbeobachtungen jedoch häufig durch nicht-meteorologische Echos in der klaren Luft, sogenannte Clear-Air-Echos, verunreinigt. Es ist von großer Bedeutung, die Klarluftechos automatisch zu erkennen, um aus dem komplexen Wetterhintergrund effektive meteorologische Informationen zu gewinnen. Die Eigenschaften von Clear-Air-Echos werden hier untersucht, indem Daten von vier Geräten kombiniert werden: einem MMCR, einem Laser-Ceilometer, einer L-Band-Radiosonde und einer All-Sky-Kamera. Darüber hinaus wird ein neuer Algorithmus vorgeschlagen, der Merkmalsextraktion, Merkmalsauswahl und -klassifizierung umfasst, um die automatische Erkennung von Freiluftechos zu erreichen. Die Ergebnisse zeigen, dass der Erkennungsalgorithmus sowohl bei einfachen als auch bei komplexen Wetterbedingungen ziemlich zufrieden ist. Die Erkennungsgenauigkeit kann bis zu 95,86 % für die einfachen Fälle erreichen, in denen Wolkenechos und klare Luftechos getrennt sind, und 88,38 % für die komplizierten Fälle, in denen niedrige Wolkenechos und klare Luftechos gemischt werden.;-;-;-;https://link.springer.com/article/10.1007/s00376-020-9270-z eba7d6d9d0a946f7613812af0652b11b;de;;;1.2.;;;Ein thematischer Ansatz für Benutzerähnlichkeit basierend auf geosozialen Check-ins Die Berechnung der Benutzerähnlichkeit ist der Schlüssel für personalisierte standortbasierte Empfehlungssysteme und den Abruf geografischer Informationen. Bisher konzentrierten sich die meisten bestehenden Arbeiten auf strukturierte oder halbstrukturierte Daten, um solche Maßnahmen festzulegen. In dieser Arbeit schlagen wir die Themenmodellierung vor, um spärliche, unstrukturierte Daten, z. B. Tipps und Rezensionen, als zusätzliches Feature zur Berechnung von Benutzerähnlichkeiten zu nutzen. Unser Modell verwendet eine Diagnosegewichtung basierend auf der Entropie von Themen, um die Rolle von Gemeinsamkeiten und Variabilitäten zwischen ähnlichen Benutzern zu bewerten. Schließlich bieten wir eine Validierungstechnik und Ergebnisse mit Daten aus dem standortbasierten sozialen Netzwerk Foursquare an.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-00615-4_3 f5b4b2895a592eee29233fba0d1a21b6;de;;;1.3.;;;Analyse von E-Learning-Plattformen zur Förderung der kolumbianischen Bildung Die Einbindung von Informations- und Kommunikationstechnologien in die Gesellschaften erfolgt entsprechend der Entwicklung der Länder, daher ist die nationale Politik direkt daran beteiligt, wie die Gesellschaft Technologie nutzt und wie sich die verschiedenen Wirtschaftssektoren je nach Ressourcenzugang entwickeln. Es ist bekannt, dass das Bildungsniveau nicht der einzige Faktor ist, der die Entwicklung eines Landes bestimmt. Die Entwicklung dieses Sektors hat jedoch bestimmt, wie sich die Länder beim Umgang mit Wissen und der Akzeptanz von Technologien verhalten, warum dieses Dokument von Autoren erstellt wurde, um zu bewerten, wie Technologie im Bildungssektor funktioniert, welche E-Learning-Tools und Dies ist der Akzeptanzfaktor von Lehrern durch einige angewandte Interviews in Ingenieurfakultäten aus Kolumbien (die untersuchte Landschaft), um eine kritische Analyse der Auswirkungen des Einsatzes von Lernmanagementsystemen als Möglichkeit zur Verbesserung des Bildungssystems und zur Förderung der allgemeinen Entwicklung in der Entwicklung zu geben unter Berücksichtigung der Merkmale und Bedürfnisse von E-Learning-Plattformen aus dem kolumbianischen Kontext.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-62698-7_10 175acff6bd2d11e83251e09693833ab1;de;;;1.2.;;;Konzeptionelle Darstellung von Patientendatenbanken Der Entwurf eines computergestützten Assistenten für Patientendatenbanken wird diskutiert. Ein konzeptionelles Modell für einen solchen Assistenten, das Anzeichen, Symptome, Labordaten sowie radiologische und morphologische Befunde darstellen kann, wird beschrieben. Die Abfragesprache, interpretative Berichte, zusammenfassende Ergebnisse und verwandte Probleme bei der Bereitstellung intelligenter Beratung werden erörtert. Die Rolle solcher Assistenten im Kontext einer Entscheidungsumgebung – menschlich oder automatisiert – wird betont.;-;-;-;https://link.springer.com/article/10.1007/BF02222462 044394812d0c5c7a72cfb5fbccd17e36;de;;;1.2.;;;Störungsanalyse der New Yorker Bucht Der physische Transport von Schadstoffen, ihre Veränderung durch das Nahrungsnetz der Küsten und ihre Übertragung auf den Menschen sind auf dem Festlandsockel zunehmend komplexere Probleme. Bei dem Versuch, Ursache und Wirkung zu trennen, wird eine Computermodellierungstechnik auf Probleme im Zusammenhang mit dem Transport von Schadstoffen als ein Werkzeug bei der Bewertung realer oder potenzieller Küstenstörungen angewendet. Es werden Ansätze zur Weiterentwicklung von Modellen der biologischen Reaktion innerhalb des marinen Küstenökosystems diskutiert. Unsere vorliegenden Störungsanalysen bestehen aus 1) einem Zirkulationsteilmodell, 2) einer simulierten Flugbahn eines Schadstoffpartikels innerhalb des Strömungsfeldes und 3) einem zeitabhängigen Windeintrag für jeden Fall des Modells. Das Zirkulationsmodell ist eine tiefenintegrierte, freie Oberflächenformulierung, die auf Windstress, Bodenreibung, den geostrophischen Druckgradienten, die Corioliskraft und die Bodentopographie reagiert. Das Transportdiffusionsmodell basiert auf Lagrangeschen Massenpunkten oder „Teilchen“, die sich durch ein Eulersches Gitter bewegen. Die Trajektorien von Material, das sich auf der Oberfläche und in der Wassersäule bewegt, werden berechnet. Es hat den Vorteil, dass die Geschichte jedes Teilchens bekannt ist. Mit diesen Modellen konnten wir erfolgreich 1) Driftkartendaten reproduzieren, um die Wahrscheinlichkeit einer Ölkatastrophe im Winter in der New York Bight zu bestimmen, 2) die Quelle der im Juni an der Südküste von Long Island angetroffenen schwimmfähigen Stoffe analysieren, 1976, und 3) die Flugbahn des ausgelaufenen Öls im Hudson River vorherzusagen, nachdem es in die New York Bight Apex eingedrungen war. Für zukünftige Analysen kann das Flachwassermodell modifiziert oder durch ein numerisches Modell ersetzt werden, das eine anspruchsvollere Parametrisierung der physikalischen Zirkulation enthält. Zweitens kann das Partikel-in-Zell-Modell modifiziert werden, um explizit chemische Reaktionen und Wechselwirkungen mit der Biota einzubeziehen. Alle Modelle sollten jedoch im Zusammenhang mit dem Auflösungs- oder Aggregationsgrad, in dem das Ökosystem bekannt ist, und der erforderlichen Managemententscheidung als Hilfe bei der Auswahl von Situationen verwendet werden, die eine weitere Analyse mit umfassenderen ökologischen Überlegungen verdienen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-9146-7_18 488099d7467022107b0850ba01d2434a;de;;;1.2.;;;“Con Sabor a Puerto Rico” Uerto-ricanische Musiker haben das 20. Jahrhundert und darüber hinaus mit beeindruckenden musikalischen Beiträgen in Amerika und der ganzen Welt geprägt. Dieses Kapitel präsentiert einen Blick auf diese puertoricanischen Beiträge aus der Perspektive venezolanischen Musikers und Aficionados. Es präsentiert auch das Argument, dass puerto-ricanische Musiker auf der Insel und in New York die Entwicklung der Salsa-Musik als Idiom erleichtert haben, das Musiker anderer Inseln und Länder inspiriert und ihnen den Raum gegeben hat, ihre eigene Musik zu entwickeln. Die hier vorgelegten Beweise stammen aus Musikanalysen sowie aus ethnographischen Daten (die hauptsächlich in Caracas von 1993 bis 1994 gesammelt wurden) über die venezolanische Rezeption der Puertoricaner, die von Presalsa-Musikern wie Noro Morales und Humberto Morales bis hin zu modernen Innovatoren wie Rafael Cortijo . reichen und Ismael Rivera.;-;-;-;https://link.springer.com/chapter/10.1057/9780230107441_4 36a065383d591fe9b0cdac964de703ba;de;;;1.2.;;;Mathematische Ansätze für Fuzzy-Portfolioauswahlprobleme mit normalen Mischungsverteilungen In diesem Kapitel werden einige vielseitige Portfolioauswahlmodelle mit allgemeinen normalen Mischungsverteilungen und Fuzzy- oder Intervallzahlen betrachtet. Dann werden diese mathematischen Ansätze entwickelt, um das optimale Portfolio zu erhalten. Um unsere vorgeschlagenen Modelle mit Standardmodellen zu vergleichen und die Vorteile unserer vorgeschlagenen Modelle darzustellen, wird außerdem ein numerisches Beispiel bereitgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13935-2_19 2e0f7271c33b9d3dee8409edb45a1209;de;;;1.2.;;;Parametrische Abwärtskonvertierung: Die Zwillinge werden für ein Leben der Verstrickung geboren Die Existenz der Quantenverschränkung unterscheidet die Quantenphysik von der klassischen Physik. Erstmals eingeführt von Schrödinger in seiner Diskussion des berühmten Katzenparadoxons [;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-8907-9_211 668e2b99ab5469ab519cec7c157c2744;de;;;1.2.;;;Die thermodynamischen Kosten des schnellen Denkens Auch nach mehr als 60 Jahren wirft Shannons Forschung weiterhin grundlegende Fragen auf, wie die von R. Luce formulierte, die noch immer unbeantwortet ist: „Warum ist die Informationstheorie trotz scheinbarer Ähnlichkeiten der Konzepte nicht sehr auf psychologische Probleme anwendbar?“ Zu diesem Thema hat S. Pinker, einer der führenden Verteidiger der weit verbreiteten Computertheorie des Geistes, argumentiert, dass Denken einfach eine Art von Berechnung ist und dass die Kluft zwischen menschlicher Kognition und Computermodellen illusorisch sein kann. In diesem Zusammenhang in seinem neuesten Buch mit dem Titel;-;-;-;https://link.springer.com/article/10.1007/s11023-013-9302-x 82446a084f4f1209518c556a72649e33;de;;;1.3.;;;E-Learning von PHP basierend auf den Lösungen realer Probleme PHP ist eine der beliebtesten Web-Programmiersprachen. Viele Leute wollen PHP wegen seiner Einfachheit lernen. Eine der wichtigsten Eigenschaften von PHP ist, dass es sich um eine serverseitige Skriptsprache handelt. Das Erlernen von PHP ist effektiver, wenn ein Schüler in einer realen Umgebung lernen kann. Derzeit sind viele PHP-Online-Lernsysteme und gedruckte Bücher verfügbar. Problembasiertes Lernen (PBL) ist eine effektive Pädagogik, die verwendet wird, um die Fähigkeit der Schüler zur Problemlösung zu verbessern. Bestehende PHP-Lernsysteme unterstützen begrenzte Probleme in der realen Umgebung. In dieser Arbeit haben wir das konventionelle E-Learning von PHP in die PBL-Pädagogik integriert, um die Problemlösungsfähigkeit der Studierenden zu verbessern. In diesem System entwirft ein Lehrer einige Probleme für die Schüler. Jedes Problem enthält eine angemessene Beschreibung und Referenz mit Standard-PHP-Ausgabe. Auf dem Webserver können die Studierenden anhand der entsprechenden Referenzen, URLs, Beispiele und Standardausgaben üben und Antworten zur Problemstellung abgeben. Das System bietet den Studenten die Möglichkeit, das Codieren mit Echtzeitfehlern zu üben und zu experimentieren. Die Schüler können Codes bearbeiten, indem sie ihre Ausgaben innerhalb der bestimmten Dauer wiederholt mit der Standardausgabe vergleichen. Zur Auswertung kann ein Lehrer die von den Schülern eingereichten Codes mit dem Standardcode des Systems, vordefinierten Schlüsselwörtern und Ausgaben vergleichen. Dieses System hilft den Schülern, PHP anhand der realen Probleme selbst zu lernen.;-;-;-;https://link.springer.com/article/10.1007/s40692-015-0050-1 be689bb123c306a513c9c50a37d59fb9;de;;;1.3.;;;Ein Klassifizierungslernalgorithmus, der gegenüber irrelevanten Merkmalen robust ist Das Vorhandensein irrelevanter Merkmale ist eine Tatsache in vielen realen Anwendungen des Klassifikationslernens. Obwohl sich Nearest-Neighbor-Klassifizierungsalgorithmen mit ihrer hohen Vorhersagegenauigkeit als vielversprechender Ansatz für maschinelle Lernaufgaben erwiesen haben, werden sie durch das Vorhandensein solcher irrelevanter Merkmale negativ beeinflusst. In diesem Artikel beschreiben wir einen kürzlich vorgeschlagenen Klassifikationsalgorithmus namens VFI5, der eine vergleichbare Genauigkeit wie Nächstnachbarklassifikatoren erreicht, während er in Bezug auf irrelevante Merkmale robust ist. Das Papier vergleicht sowohl den Nearest-Neighbor-Klassifikator als auch die VFI5-Algorithmen bei Vorhandensein irrelevanter Merkmale sowohl in künstlich generierten als auch in realen Datensätzen, die aus dem UCI-Repository ausgewählt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0057452 684961bce218af79519d05d02344c775;de;;;1.3.;;;Software zur Simulation von Rohrströmungen: Ein Teamansatz zur Lösung eines Problems in der Ingenieurausbildung DIE STUDIE DER BEWEGUNG VON FLÜSSIGKEITEN ist integraler Bestandteil vieler Ingenieurdisziplinen. Ein erster Kurs in Strömungsmechanik führt in viele Arten von Strömungen ein, einschließlich der stationären Strömung durch Rohrsysteme. Computersimulationen können bei der Entdeckung strömungstechnischer Prinzipien eine Rolle spielen, ohne dass umfangreiche Laboreinrichtungen oder die mit der theoretischen Entwicklung verbundene komplizierte Mathematik erforderlich sind. Das;-;-;-;https://link.springer.com/article/10.1007/BF02948594 455431aa9aae0a27ea7c1214d5cf4b66;de;;;1.2.;;;Negative-Connection-Aware Tag-Based Association Mining- und Service-Empfehlung Die Dienstempfehlung erleichtert Entwicklern die Auswahl von Diensten, um neue Mashups mit hoher Granularität und Mehrwert zu erstellen. Derzeit konzentrieren sich die meisten Studien auf das Mining und die Empfehlung gängiger Kompositionsmuster in Mashups. Allerdings werden latent negative Muster in Mashups, die auf unangemessene Kombinationen von Diensten hinweisen, weitgehend ignoriert. Durch die Kombination zusätzlicher negativer Muster zwischen Diensten mit den bereits ausgenutzten gemeinsamen Mashup-Mustern präsentieren wir ein umfassenderes und genaueres Modell für die Dienstempfehlung. Sowohl positive als auch negative Assoziationsregeln werden aus den annotierten Tags der Dienste extrahiert, um zukünftige Mashups vorherzusagen. Das umfangreiche Experiment, das mit realen Datensätzen durchgeführt wurde, zeigt eine 33%ige Verbesserung des F1-Scores im Vergleich zum klassischen Assoziations-Mining-Ansatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45391-9_32 67bb8c58d577da8bb430114f65c34a6b;de;;;1.3.;;;Transfer, interkulturelle Reibung und Hybridisierung: Empirische Evidenz einer deutschen Automobiltochter in Indien Die Untersuchung der länderübergreifenden Übertragbarkeit von Organisationsformen und -praktiken setzt sowohl für den Gelehrten als auch für das multinationale Unternehmen ein anhaltendes Interesse voraus. Es wird argumentiert, dass die vorhandene Forschung – hauptsächlich die enorme Literatur zur Japanisierung – wichtige Beiträge zum Verständnis der Bedingungen der Übertragbarkeit von Organisationsformen und -praktiken geleistet hat, jedoch nicht-japanische Transferherkünfte sowie nicht-westliche (meist südliche) asiatische) Transferziele und haben die institutionelle Einbettung von Transfer und Anpassung nicht ausführlich untersucht. Die vorliegende Studie will einen Beitrag zur Schließung dieser Lücke leisten, indem sie sich auf den Transfer werkstattbezogener Arbeitskonzepte und Arbeitsrollen im interkulturellen Kontext eines deutschen Automobilmultis in Indien konzentriert. Das Papier kombiniert eine Analyse auf Mikro-Makro-Ebene und zeigt, dass eine institutionelle Perspektive für das Verständnis des Transfers, der interkulturellen Reibung und der organisatorischen Hybridisierung auf der Mikroebene von entscheidender Bedeutung ist.;-;-;-;https://link.springer.com/article/10.1057/palgrave.abm.9200139 cad3cc04c8ad1faf3a9122b1a8c7b83c;de;;;1.2.;;;Bevölkerung und urbane Dichte: Lissabon im 19. und 20. Jahrhundert Bezogen auf die Einwohnerzahl war Lissabon schon immer die größte portugiesische Stadt. In den 700 Jahren zwischen der Eroberung Lissabons von den Mauren und der letzten Volkszählung stieg die Einwohnerzahl Lissabons von etwa 5.000 auf 700.000, nachdem sie Anfang der 1980er Jahre ein Maximum von 800.000 erreicht hatte (siehe Tabelle auf Seite 50).;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-5382-9_3 269c8a45a3ef325d20ea266efe26e798;de;;;1.2.;;;Geschlechtskrankheiten Dermatologen praktizierten ursprünglich Venerologie, weil viele Hautausschläge Manifestationen einer sekundären Syphilis waren. Tabelle 9-1 listet die üblichen Geschlechtskrankheiten oder Geschlechtskrankheiten auf. Viele andere Krankheiten werden häufig durch Geschlechtsverkehr übertragen und wurden als „neue“ Geschlechtskrankheiten bezeichnet. Dazu gehören Herpes simplex, unspezifische Urethritis, Molluscum contagiosum, Krätze und Pediculosis pubis.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-5457-7_9 bd020bf65d2af265db8f068f7374d37a;de;;;1.3.;;;Ein gemeinsamer Wahrnehmungsraum für harmonische und perkussive Klangfarben Das Ziel einer Reihe von Hörtests war es, die Hauptdimensionen der Klangfarbe besser zu isolieren, indem eine breite Palette von Klangfarben und konvergierende psychophysische Techniken verwendet wurden. Erfahrene Musiker und Nichtmusiker bewerteten die Timbrai-Ähnlichkeit von drei Sätzen von Ton- und Schlaginstrumenten. Multidimensionale Skalierungsanalysen zeigten, dass sowohl Schwerpunkt als auch Anstiegszeit die wichtigsten akustischen Faktoren über alle Stimulus-Sets hinweg darstellen und dass Musiker und Nichtmusiker sich in der Gewichtung dieser Faktoren nicht signifikant unterscheiden. Clustering-Analysen ergaben, dass die Teilnehmer auch perkussive und in weit geringerem Maße Tonhöhen nach zugrunde liegenden physikalisch-akustischen Gemeinsamkeiten kategorisierten. Die Ergebnisse zeigen, dass der spektrale Schwerpunkt und die Anstiegszeit die wichtigsten wahrnehmungsbezogenen Dimensionen der Klangfarbe darstellen, unabhängig von der musikalischen Ausbildung, dass jedoch die Tendenz, Klangfarben nach Quelleneigenschaften zu gruppieren, mit der akustischen Komplexität zunimmt.;-;-;-;https://link.springer.com/article/10.3758/BF03212144 09344654c12d41c03cbd351b10353361;de;;;1.3.;;;Vermittlung guter Kommunikations- und Angebotskompetenzen: Überwindung eines Defizits unseres Bildungssystems Gute Kommunikationsfähigkeiten erfordern: (1) Verständnis für das eigene Publikum und die subtilen Interaktionen zwischen Autor und Leser, (2) organisatorische Fähigkeiten, um die notwendigen Phasen eines Projekts (z grundlegende Kommunikationsfähigkeiten (Schreiben/Sprechen), dh eine Einrichtung mit den Grundelementen der klaren Übermittlung von Informationen. Die Aufgabe, einen Zuschussantrag als Reaktion auf eine bestimmte Anweisung zu verfassen, wird verwendet, um die Analyse und die Antworten zu veranschaulichen, die für die Durchführung eines größeren schriftlichen Kommunikationsprojekts erforderlich sind. Das Konzept der Fokussierung auf – und Schreiben für – den Leser (in diesem Fall den Begutachter des Vorschlags) wird betont. Obwohl gute Kommunikationsfähigkeiten den Lebensstil, die Produktivität und die Wirtschaft in unserer Gesellschaft beeinflussen, fehlen die Kommunikationsfähigkeiten der amerikanischen Öffentlichkeit schmerzlich – selbst bei Menschen mit hohem Bildungsniveau –, da die Schüler in diesen Fähigkeiten in den Vereinigten Staaten wenig geschult werden System. Solche Fähigkeiten können jedoch sowohl jüngeren Schülern als auch Erwachsenen vermittelt werden.;-;-;-;https://link.springer.com/article/10.1007/BF00701364 65862b3726d2893bf0bf3f226cdc1886;de;;;1.2.;;;Ein PGSA-basiertes Datenreplikat-Auswahlschema für den Zugriff auf das Cloud-Speichersystem Das Datenreplikat-Verwaltungsschema ist eine kritische Komponente des Cloud-Speichersystems. Um seine Skalierbarkeit und Zuverlässigkeit zu verbessern und gleichzeitig die Systemantwortzeit zu verbessern, wird das Mehrfachdatenreplikationsschema verwendet. Wenn ein Cloud-Benutzer eine Zugriffsanfrage stellt, sollte ein geeignetes Replikat ausgewählt werden, um darauf zu antworten, um die Zugriffszeit des Benutzers zu verkürzen und den Systemlastausgleich zu fördern. In diesem Papier wird unter Berücksichtigung des Netzwerkstatus, der Speicherknotenlast und der historischen Informationen zur Replikatauswahl ein PGSA (Plant Growth Simulation Algorithm)-basiertes Datenreplikatauswahlschema für Cloud-Speicher vorgeschlagen, um die durchschnittliche Zugriffszeit und die Replikatnutzung zu verbessern. Das vorgeschlagene Schema wurde basierend auf CloudSim implementiert und die Leistungsbewertung wurde durchgeführt. Simulationsergebnisse haben gezeigt, dass es sowohl machbar als auch effektiv ist, mit einer besseren Leistung als bestimmte existierende Schemata.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44491-7_11 9fa0f3ea6608401b38c07fe6a59147c4;de;;;1.3.;;;Überlegungen zur Hochschulbildung: Sowjetische und französische Bildungsorganisation Eine vergleichende Analyse der Hochschulbildung führt der Autor auf der Grundlage seiner eigenen Lehrerfahrungen an der Moskauer Staatlichen Universität und an einer französischen Provinzuniversität in Nordfrankreich durch.;-;-;-;https://link.springer.com/article/10.1134/S107036321303033X 79b86a85ba94beee36226b5fd888e140;de;;;1.2.;;;Identifizierung von elastischen/visko-plastischen Materialkonstanten unter Stoßbelastung Eine numerische Simulation wird durchgeführt, um die Materialparameter eines elastischen/viskoplastischen Materials unter Zugschlagbelastung zu ermitteln. Die Identifizierung basiert auf einer inversen Analyse unter Verwendung der Kaiman-Filtertechnik und der Finite-Elemente-Methode. Die Eingabedaten für die inverse Analyse sind die Zeitverläufe der Dehnungen an Proben. Die Messfehler können mit der Kaiman-Filtertechnik vernünftig behandelt werden, und die Finite-Elemente-Methode ermöglicht es uns, beliebig geformte Proben zu verwenden. Zur Erzielung hoher Dehnungsraten am Kerbgrund werden gekerbte Proben verwendet. Es hat sich herausgestellt, dass ein zusätzlicher Test bei einer relativ geringen Dehnungsrate zusammen mit einem Test bei einer hohen Dehnungsrate erforderlich ist, um die Identifizierungsgenauigkeit zu erhöhen. Die optimale Dehnungsrate im zusätzlichen Test wird durch Minimieren des größten Eigenwerts der Kovarianzmatrix der geschätzten Parameter bestimmt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0109-0_8 2c317cc11dd3caf5f5d40707ca7aba7e;de;;;1.2.;;;Zustandsabhängige Lebensgeschichte-Gleichungen Matrix-Populationsmodelle bieten ein natürliches Werkzeug zur Analyse zustandsabhängiger Strategien zur Lebensgeschichte. Der Reproduktionswert und die intrinsische Rate des natürlichen Wachstums einer Strategie sowie die optimale Lebensverlaufsstrategie können alle mit Projektionsmatrizen leicht charakterisiert werden. Die resultierenden Formeln sind jedoch nicht direkt mit den entsprechenden Formeln für altersstrukturierte Populationen wie den Lotkas-Gleichungen und der Fisher-Formel für den Fortpflanzungswert vergleichbar. Dies liegt daran, dass Formeln mit Projektionsmatrizen den Überblick darüber verlieren, was mit einem Individuum im Laufe seiner Lebenszeit passiert, und sich nur mit der erwarteten Anzahl von Nachkommen in einem Zeitschritt in der Zukunft beschäftigen. Im Gegensatz dazu folgten die üblichen altersabhängigen Formeln explizit einem einzelnen Individuum von der Geburt bis zum Tod.;-;-;-;https://link.springer.com/article/10.1007/BF00712164 edc180593360ac1c5d59ba17ffe9f44b;de;;;1.2.;;;Geschichte und Genetik der Toleranz gegenüber den natürlichen phytotoxischen Medien des Westbalkans Die sogenannten „Serpentinen“ wurden oft von Botanikern untersucht (vgl. Umfragen bei Whittaker et al., 1954 und Gams, 1975), aber ihr tatsächliches Wissen ist bei weitem nicht zufriedenstellend, insbesondere was den Balkan betrifft, wo zum Beispiel die in Kroatien wurden gar nicht studiert. Auf der anderen Seite sind Studien über Salzsprühnebel eher spärlich und fast vorläufig mit wenigen ökologischen Details, und die aufschlussreichsten Daten zu diesem Thema liefern Boyce (1954), Clayton (1972), Doutt (1941), Edlin (1943) , Malloch (1972), Moss (1940), Parsons, Gill (1968) und Wells (1939), über die Adria: Buljan, Marinković (1949), Gračanin (1934, 1935), Anderlind (1912) und neuerdings Lovrić (1971a, 1971b, 1975a, 1975b, 1976, 1977a, 1977b, 1979, 1980, 1981a, 1981b, 1982a, 1982b, 1982c).;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-6578-2_5 3a93628a1177848407bcc3b07ae3cf9a;de;;;1.2.;;;Epidemiologie und Naturgeschichte der atopischen Erkrankung In diesem Kapitel analysieren wir die endlose weltweite Zunahme allergischer Erkrankungen bei Kindern und deren natürliche Vorgeschichte. Besorgniserregend ist das frühe Alter, in dem die Atopie bei diesen wehrlosen Kindern ihren Siegeszug antritt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-33395-1_5 d36ef99d4d5c825822a9ea5241a87d0e;de;;;1.2.;;;Einzeitige Bestandsmodelle mit Fuzzy-Unterdeckungskosten in Abhängigkeit von zufälligen Bedarfen In diesem Papier werden Bestandsmodelle für eine Periode mit Fuzzy-Knappheitskosten betrachtet, die von diskreten und kontinuierlichen zufälligen Bedarfen abhängig sind, wobei die enge Beziehung zwischen Verbraucherbedarf und Mangelkosten berücksichtigt wird. Da diese Inventarmodelle Zufälligkeit und Unschärfe beinhalten, werden sie als Fuzzy-Random-Programming-Probleme formuliert. Um mit der Unsicherheit umzugehen und die optimale Bestellmenge analytisch zu finden, wird dann der Lösungsansatz unter Verwendung des Yager-Ranking-Verfahrens in Bezug auf den gesamten erwarteten zukünftigen Gewinn vorgeschlagen und die strikte Lösung erhalten. Darüber hinaus werden zum Vergleich mit früheren Inventarmodellen grundlegende Zufallsvariablen und Fuzzy-Zahlen eingeführt und Unterschiede zwischen unseren vorgeschlagenen Modellen und früheren Modellen diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11960-6_19 8d062bca7c878248b170e35632bae7fb;de;;;1.2.;;;Thematische Ansätze Eine bekannte Liste thematischer Interessen und Anliegen taucht in der Larkin-Kritik mit ermüdender Regelmäßigkeit auf. Zeit, Tod, Zufall und Wahl: Das ist der Stoff von Larkins Poesie, wird uns erzählt. Larkins Kritiker weisen auf die Enge dieses Themenspektrums hin, während Bewunderer seinen unverwechselbaren Umgang mit diesen grundsätzlich poetischen Anliegen loben. Anthony Thwaite gehört zu denen, die Larkins Größe als Schriftsteller anhand seines Umgangs mit einem traditionellen und immerwährenden Thema definieren: „Seine Themen – Liebe, Veränderung, Ernüchterung, das Mysterium und die Unerklärlichkeit des Überlebens der Vergangenheit und die Endgültigkeit des Todes – sind unerschütterlich wichtig.“ (Thwaite, 1970, S.54). John Wain wiederholt diese Gefühle, wenn er über Larkin schreibt, dass „wir seine Poesie kaum in den Griff bekommen werden, wenn es uns nicht gelingt, ihre Hauptthemen hervorzuheben“. „Einer davon“, sagt er uns, ist „der Akt des Wählens“ und ein anderer ist „der Einfluss der Zeit auf das individuelle Leben“ (Wain, 1976, S.98, 100). Für beide Kritiker scheint Geschichte – sei es als ‚Vergangenheit‘ oder als ‚Zeit‘ – nur als ein weiteres Thema zu betrachten. Der unglückliche Effekt dieser Sicht auf die Geschichte als Gegenstand besteht darin, dass sie das Ausmaß ignoriert, in dem Larkins Poesie selbst ein Produkt der Geschichte ist. Die Themenkritik nähert sich den Ideen eines Autors oder Textes im Sinne einer „universellen Relevanz“ und berücksichtigt dabei die oft komplexen Zusammenhänge zwischen „Ideen“ und bestimmten Phasen des gesellschaftlichen und kulturellen Wandels wenig. Die thematische Kritik führt also nicht nur zu einer reduktiven Lektüre der Gedichte, indem sie sich auf ein monotones Themenspektrum konzentriert, sondern antwortet auch auf offenkundig unhistorische Weise auf Ideen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-21941-4_4 3de03a47861376e43f55d53251879e65;de;;;1.2.;;;Kooperatives Standortmanagement für ein Mobilfunknetz mit Ad-hoc-Kommunikation Das Mobilfunknetz mit Ad-hoc-Kommunikation ist im Mobilkommunikationssystem der nächsten Generation vorgesehen. Für ein solches Netzwerk wird in diesem Papier ein entfernungsbasiertes (DB) Standortverwaltungsschema vorgeschlagen, das mit dem Ad-hoc-Assistenzknoten (DBCAN) zusammenarbeitet. Dadurch, dass ein mobiles Endgerät seine Mobilitätsinformationen mit einer geeigneten Standortaktualisierung an den Ad-hoc-Assistenzknoten (AAN) weiterleitet, kann DBCAN die Paging-Kosten effektiv reduzieren und die Paging-Verzögerung begrenzen. Darüber hinaus enthält DBCAN ein Verfahren, um zu bestimmen, ob AANs verwendet werden sollten oder nicht, um kosteneffektiv zu sein. Unsere Simulationsergebnisse zeigen, dass DBCAN effektiv Kostensenkungen und dennoch Leistungsverbesserungen erzielen kann, selbst wenn die Wahrscheinlichkeit, Mobilitätsinformationen erfolgreich an AANs zu liefern, auf den Medianwert sinkt.;-;-;-;https://link.springer.com/article/10.1007/s11277-012-0789-x ed27d0f477a4a3381105e3e8677f3e4f;de;;;1.2.;;;Verbreitung, Abundanz und Überleben von juvenilen hermatypischen Korallen (Scleractinia) und die Bedeutung von Strategien zur Lebensgeschichte in der elterlichen Korallengemeinschaft An den Riffen von Curaçao und Bonaire (Niederländische Antillen) wurde die Verbreitung und Abundanz junger Korallen in Tiefen von 3 bis 37 m untersucht. Jugendliche von;-;-;-;https://link.springer.com/article/10.1007/BF00395440 295f3c479137b3e0c1a1d4c0883e22bb;de;;;1.2.;;;Auswirkungen von Beutemilbenarten auf die Lebensgeschichte der Phytoseiidenprädatoren Die Auswirkungen der Eignung von Beutemilben auf verschiedene demografische Merkmale von Phytoseiidenprädatoren und die Beziehung zwischen diesen Effekten und dem Potenzial von Phytoseiidenprädatoren, pflanzenfressende Milbenpopulationen zu kontrollieren, sind gut dokumentiert. In den letzten 20 Jahren haben sich auch Beweise angesammelt, die belegen, dass Phytoseiiden-Prädatoren von pflanzenfressenden Beutemilben-induzierten Pflanzenflüchtigen als olfaktorische Hinweise beim Auffinden ihrer pflanzenfressenden Milbenbeute verwenden, aber weniger gut etabliert ist die Vorhersagbarkeit des Fortpflanzungserfolgs aus der Fähigkeit der Räuber, olfaktorische zu nutzen Hinweise, um ihre Beute zu lokalisieren, und wie diese Prozesse mit dem Erfolg der Räuber als biologische Bekämpfungsmittel der pflanzenfressenden Milbe zusammenhängen. In dieser Studie haben wir in Laborexperimenten ohne Wahl die Entwicklung, das Überleben und die Fruchtbarkeit der beiden neotropischen Phytoseiidenprädatoren bestimmt;-;-;-;https://link.springer.com/article/10.1023/B%3AAPPA.0000008469.57888.82 27984f576f453d2023ec3f47e494a33a;de;;;1.2.;;;Physikalisches Modell der Ausbreitung eines radioaktiven Schadstoffs in der Atmosphäre über einer Wärmeinsel Dieses Projekt beschäftigt sich mit dem Einfluss von Flächenheizungen in urbanen Räumen auf die Schadstoffausbreitung in der Atmosphäre. Die atmosphärische Grenzschicht wird in einer Wasserrinne simuliert. Erdwärme wird lokal angewendet, um den Wärmefluss einer Stadtregion zu reproduzieren. Spaltprodukte, für die die innere Wärmequelle vernachlässigt wird, werden durch horizontale Natriumhydroxidfahnen simuliert des beheizten Bodens, Vergleiche der Konzentrationsverteilungen von Schadstoffen mit und ohne Flächenheizung. Eine Übertragung der Ergebnisse, ausgedrückt in globalen Parametern, ermöglicht es, Aussagen über den Wärmeinseleffekt durch urbane Regionen auf die Schadstoffausbreitung in der Atmosphäre zu erhalten. Die Schlussfolgerung ist, dass die Flächenheizung zwar einen geringeren Einfluss auf die Ausbreitung hat als sich die Rauheit ändert, kann sie lokal nicht vernachlässigt werden;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-4972-0_40 d0fb4bc876836185ffa76a6583b84be2;de;;;1.2.;;;Hymenopteröse Parasitoide des Borkenkäfers [ In Israel wurden 26 Arten von Parasitoiden von 15 Borkenkäferarten nachgewiesen. Parasitoide wurden aus befallenen geschnittenen Ästen von Laubbäumen und Fallenbäumen von Kiefern und Zypressen gesammelt. Die meisten Parasitoide sind oligophag und reichen von;-;-;-;https://link.springer.com/article/10.1007/BF02372363 60f52250f9ba1bb4fec1fb422f30ead9;de;;;1.2.;;;Historische Phytogeographie der Großen Antillen Ein Verständnis der phytogeographischen Geschichte einer Region hängt von einem angemessenen Fossilienbestand ab, um Migrationsgeschichten und den Zeitpunkt und die Richtung(en) von Einschleppungen und Aussterben aufzudecken und das übermäßige Vertrauen auf molekulare Uhren zu verstärken oder zu umgehen. Es hängt außerdem von einer genauen Phylogenie der Taxa ab, um echte Muster geographischer Verwandtschaften (Phylogeographie) zu ermitteln, und einer relativ detaillierten geologischen Geschichte, um die relative Rolle von Verbreitung und Vikariat bei der Besiedlung der Inseln zu beurteilen. Für die Großen Antillen tauchen langsam neue Informationen über den Pflanzenfossilienbestand durch das Studium neuer Floren wie der Palynoflora des Eozäns von Saramaguacán aus Kuba auf, und mehr ist möglicherweise von der megafossilen Flora des mittleren Oligozäns von San Sebastian von Puerto Rico verfügbar, die seitdem nicht revidiert wurde Anfang des 20. Jahrhunderts. Phylogeographische Studien und Flächenkladogramme sind für Pflanzen noch spärlich, aber Daten von verschiedenen Tiergruppen liefern einen Kontext für die allgemeine biotische Geschichte der Antillen. Der vielleicht größte Fortschritt wird bei der Erzielung eines adäquaten plattentektonischen Modells für die Karibikregion erzielt. Es gibt jetzt eine gewisse Konvergenz in Richtung eines mobilistischen Modells, das einen kreidezeitlichen Vulkaninselbogen darstellt, der sich vom Mexiko / Chortis-Block im Norden bis nach Ecuador im Süden erstreckte und sich allmählich durch das sich entwickelnde Portal zwischen Nord- und Südamerika bewegte, um mit den Bahamas zu kollidieren Plattform im mittleren Eozän. Während dieser 70-Millionen-jährigen Geschichte gab es ein immens komplexes Muster von Kollision/Trennung und Eintauchen/Auftauchen, das sowohl Gelegenheit zur Vikariat als auch zur Ausbreitung in der Migration, Evolution und Artbildung der Flora der Großen Antillen bot.;-;-;-;https://link.springer.com/article/10.1663/0007-196X%282003%29055%5B0357%3AHPOTGA%5D2.0.CO%3B2 78a4f543798276f19ed3a11ebd191126;de;;;1.2.;;;Photomovement of Algen – Historischer Überblick über die Forschung und aktueller Stand der Technik Das Interesse, das Geheimnis um die Bewegung lebender Organismen zu verstehen, stammt aus der Antike. Das erste veröffentlichte Werk auf diesem Gebiet [De Motu Animalium („Über die Bewegung der Tiere“)] stammt von Aristoteles (384-322 v. Chr.), der sich für Ähnlichkeiten in der Bewegung bei Tieren interessierte. Leonardo da Vinci (1452-1519), ein angesehener Maler, Architekt und Ingenieur, studierte auch die Bewegungsmechanik von Organismen (Biomechanik). Sein Codex über den Flug der Vögel war eine genaue Studie der Mechanik des Fluges und der Luftbewegung. Dieselben Probleme erregten das Interesse von Giovanni Alfonso Borelli (1608-1679), einem berühmten italienischen Mathematiker, Astronomen und Landsmann von Galileo Galilei. Er verfasste das erste Buch über Biomechanik [De Motu Animalium I und De Motu Animalium II („Über die Bewegung der Tiere“), 1679, das sich der Muskelbewegung und Körperdynamik widmete. Er studierte auch Vogelflug und das Schwimmen von Fischen [Thurston, 1999].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8348-9765-7_2 5be15e9d3ebb3cb5397f18553510c6db;de;;;1.2.;;;Evolution der Lebensgeschichte bei Parasitengonae (Acari: Prostigmata): Einschränkungen hinsichtlich Anzahl und Größe der Nachkommen Anzahl und Größe der Eier sind zwei wichtige Komponenten der Fitness. Das Verständnis der evolutionären Transformationen dieser Charaktere wird oft unvollständig bleiben, wenn man sich auf die Umweltselektion als den einzigen verantwortlichen Faktor konzentriert. Stattdessen sollte auch die einschränkende Kraft der Evolutionsgeschichte der Arten berücksichtigt werden. Parasitengonin-Milben wurden genommen, um die Hypothese zu testen, dass die Selektion angesichts der hohen Larvensterblichkeit eine erhöhte Eierzahl begünstigt. Mehr als 20 Arten der Hydrachnidia, Trombidioidea, Calyptostomatoidea und Erythraeoidea wurden untersucht, die meisten weisen jedoch vergleichsweise niedrige Eierzahlen (100–300) auf. Die Zunahme der Nachkommenzahl wird offensichtlich durch (1) begrenzte Verfügbarkeit geeigneter Wirte in der Zeit eingeschränkt, die eine synchronisierte Eiablage in einem oder wenigen Gelegen begünstigt und daher die reproduktiven Investitionen auf den verfügbaren Platz innerhalb des Eierstocks beschränkt, und (2) Beschränkung auf nur drei unterschiedliche Wachstumsphasen während der Ontogenese, was zu einer starken Korrelation zwischen Ei- und Erwachsenengröße führt In einigen abgeleiteten terrestrischen und aquatischen Untergruppen schwächten jedoch spezifische evolutionäre Transformationen diese Einschränkungen, wodurch diese Arten 1000 oder mehr Eier pro Weibchen ablegen konnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1343-6_8 5d9dc7a8d835215f2d0d0fd6753a8bde;de;;;1.2.;;;Umweltprobleme: Fallgeschichten Wie die Küstengewässer in den meisten Teilen der Welt sind Fjorde anfällig für den Einfluss des Menschen. Aufgrund der topografischen Hindernisse für den freien Verkehr (und damit der häufig verlängerten Spülzeiten), die in den vorherigen Kapiteln erörtert wurden, sind Fjorde jedoch im Allgemeinen viel anfälliger für Verschmutzungsprobleme als die meisten anderen Arten von Flussmündungen (z. B. Skei et al., 1972) .;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-4632-9_8 252228aeabf162c753a5a62a21453b4e;de;;;1.2.;;;Mechanismen der Antheren-Dehiszenz von Angiospermen, ein historischer Rückblick Die Erforschung von Angiosperm-Antheren reicht über drei Jahrhunderte zurück, als Grew (1682) in seiner „Anatomy of Plants“ (Abb. 1) Zeichnungen von Antheren und Pollen veröffentlichte. Der Öffnungsmechanismus wurde in diesem ersten Meisterwerk der Pflanzenanatomie nicht besonders betont. Die ersten Berichte über den Öffnungsmechanismus wurden mehr als ein Jahrhundert später von Brisseau-Mirbel (1808) verfasst, der auf die Rolle des Bindegewebes bei der Antherendehiszenz hinwies. Meyen (1828) und Von Mohl (1830) berichteten über das Vorhandensein von fibrillären Strukturen in subkutanen Zellen der Anthere. Purkinje (1830) führte die Bezeichnungen Exothecium und Endothecium für die epidermale bzw. hypodermale Zellschicht der Anthere ein und die damit verbundene Verdunstung aus letzterer mit Antherendehiszenz (Abb. 2). Ein Hauptteil seines Buches widmet sich der artabhängigen morphologischen Variation dieser Zellen (Abb. 2). Schleiden (1849) stimmte der Bezeichnung Exothecium für die Epidermis zu, schlug jedoch Mesothecium für die Unterhautschicht (Purkinjes endothecium) und Endothecium für die Schicht vor, die heute Tapetum genannt wird. Chatin (1870a, b) diskutierte diese Terminologie, folgte aber schließlich Purkinjes Begriffen. Goebel (1902) und Staedtler (1923) reservierten die Bezeichnung Exothecium für eine Epidermis mit (endotheziumartigen) Wandverdickungen, wie sie bei Gymnospermen zu finden war, und schlugen die Bezeichnung Epidermis für Angiosperm-Antheren vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-59985-9_6 663be2a911b889c2bdcf21776d4700d9;de;;;1.2.;;;Tektonische Verformung: Spannungspfade und Dehnungsverläufe Die traditionellen Bemühungen der Strukturgeologen werden nun, wie in Abschnitt 1.3.5 angedeutet, auf flache Ebenen der Erdkruste und auf Situationen ausgedehnt, in denen unvollständig lithifizierte Sedimente tektonischen Spannungen ausgesetzt waren. Solche Spannungen können, obwohl sie tiefsitzenden Ursprungs sind, bis in die höchsten Schichten von Sedimenthaufen reichen, und wie in Abschnitt 2.2.7 erläutert, kann die Partikeldeformation, die Sedimente charakterisieren, bis in erhebliche Verschüttungstiefen anhalten. Ein Großteil des Sediments, das von tektonischem Stress betroffen ist, befindet sich im breiten und schlecht definierten Bereich der partiellen Versteinerung. Hier werden, wie dieses Kapitel illustriert, die mechanischen Effekte der Diagenese ebenso wichtig wie die elastischen Reaktionen des Sediments.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-0731-0_6 135ea36f7c2338302a08d3247b8a36c4;de;;;1.2.;;;Lebensgeschichten der mediterranen Kiefer Die Lebensgeschichte der spanischen Kiefern und ihre Beziehung zum Feuer als Hauptstörfaktor in ihren Ökosystemen wurde analysiert. Die primären untersuchten ökologischen Eigenschaften waren die Samenbank des Blätterdachs (Beginn der Zapfenproduktion, Prozentsatz und Persistenz von serotinösen Zapfen), Samen- und Zapfenmorphologie, Keimung und Rindendicke. Vier ökologische Gruppen wurden mittels multivariater Clusteranalyse getrennt und ihre lebensgeschichtlichen Merkmale diskutiert. Serotin und frühe Blüte in;-;-;-;https://link.springer.com/article/10.1023/B%3AVEGE.0000029383.72609.f0 f9f8e76034741b4bbfa8616372d2db74;de;;;1.2.;;;Liebe zu Lektinen: Persönliche Geschichte und Prioritätshysterik Die Liebe zu Lektinen in unserer Abteilung begann im Jahr 1958, als es uns zum ersten Mal gelang, ein gut charakterisiertes Glykoprotein aus roten Rinderzellen zu isolieren und zu beschreiben, um den Myxovirus-Rezeptor zu erhalten. Das Influenzavirus Agglutinin kann heute als Lektin betrachtet werden, das mit einem Kohlenhydratrezeptor auf spezifische Weise reagiert. Dieser Rezeptor wurde durch Neuraminidase-Behandlung inaktiviert. Anschließend testeten wir eine Reihe von exogenen Lektinen aus Pflanzen, zum Beispiel Erdnuss, die Rezeptorstruktur für dieses Lektin konnte im Zuge dieser Untersuchungen aufgeklärt werden, sowie aus wirbellosen Quellen, wo wir neue Lektine in Schnecken, Tridacnidenmuscheln und in Schwämmen fanden (Geodie, Axinella). Sie alle reagierten mit subterminalen kryptischen Strukturen, die durch enzymatische Entfernung der Sialinsäure auch von verschiedenen anderen biologischen Partikeln als Erythrozyten aufgedeckt wurden: Lymphozyten, Spermatozoen, pflanzliche Thylakoide, Pilze und Lysosomen. Unsere Ergebnisse sind in Tabelle 1 zusammengefasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-73662-9_4 2a4c6f0ad14f07013b39d81f3bab8562;de;;;1.2.;;;Der natürliche Verlauf der Parkinson-Krankheit Obwohl die Parkinson-Krankheit (PD) die einzige chronische neurodegenerative Erkrankung ist, für die es wirksame symptomatische Therapien gibt, wurde noch keine Behandlung identifiziert, die ihr natürliches Fortschreiten signifikant verlangsamen würde. Studien zum natürlichen Verlauf der Parkinson-Krankheit wurden durch Fragen der diagnostischen Genauigkeit, Heterogenität verschiedener Krankheitsformen sowie durch verwirrende Effekte altersbedingter Komorbiditäten erschwert.;-;-;-;https://link.springer.com/article/10.1007/s00415-006-7002-7 97a824ff2d37c1cee9100346dda6c3e7;de;;;1.2.;;;Neuartiges zahnmedizinisches Kräuterpräparat mit lokaler Wirkung Kräuterextrakte haben seit jeher die Aufmerksamkeit der Forscher als wirksame und sichere Substanzen für die Herstellung von Arzneimitteln auf sich gezogen. In letzter Zeit besteht ein wachsendes Interesse an der Untersuchung natürlicher Kräuterextrakte aufgrund der antioxidativen Eigenschaften, die viele von ihnen aufweisen, insbesondere Traubenkernextrakt, der Polyphenolverbindungen enthält. Die Verwendung von Traubenkernextrakt als Wirkstoff bei der Entwicklung eines Mittels zur Vorbeugung und Behandlung von Erkrankungen der Mundhöhle ist ein neuer Trend in der Pharmakologie. Experimentell ausgewählte Konzentrationen aller Gelkomponenten sorgen für die angestrebte Konsistenz und vor allem antioxidative und antimikrobielle Wirkung. Die entwickelte Formulierung hat angenehme organoleptische Eigenschaften und kann für die Anwendung empfohlen werden.;-;-;-;https://link.springer.com/article/10.1134/S0040579509050273 d27ed720872fc4924060eab3f3500262;de;;;1.2.;;;Neue modellunabhängige Ergebnisse zum Beugungspeak In dieser Sitzung haben wir sehr interessante Vorträge über mögliche dynamische Schemata gehört, die hochenergetische Kollisionen und insbesondere den Beugungspeak, d. h. das kleine t große s-Reggeon für elastische Streuung, beschreiben könnten. Es kann auch nützlich sein, zu versuchen, so viele strenge Informationen wie möglich aus den allgemeinen Grundsätzen zu gewinnen, falls noch strenge Informationen zu finden sind. Es kommt vor, dass Henri Cornille und ich in den letzten Monaten einige neue Ergebnisse erzielen konnten, von denen einige, die die Realteileffekte im vorderen elastischen Peak betreffen, bereits veröffentlicht werden;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-2925-1_15 e022903afd656cdd7426d0e40d16109f;de;;;1.2.;;;Variation der Lebensgeschichte bei Zikaden Die Theorie der Lebensgeschichte versucht, Variationen in Fortpflanzungsmerkmalen wie Fruchtbarkeit, Alter bis zur ersten Fortpflanzung und Eigröße sowie Merkmale zu erklären, die die Fortpflanzung mit günstigen Ressourcen in Raum (Migration) und Zeit (Diapause und Voltinismus) synchronisieren (Stearns 1976, 1977, 1980, Denno und Dingle 1981). Individuen sind durch natürliche Selektion daran gebunden, die Anzahl der Nachkommen zu maximieren, die sie in nachfolgenden Generationen hinterlassen (Stearns 1976). Die Merkmalskombinationen (Life-History-Strategien), die zu einem maximalen Überleben der Nachkommen führen, sind jedoch bei den Insekten und auch bei den Zikaden enorm vielfältig (Denno und Dingle 1981, Denno et al. 1991). Zum Beispiel bei Zikaden,;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-2395-6_5 56a7215895990d6c606de491208edc87;de;;;1.2.;;;Cadmiumbelastung der westdeutschen Bevölkerung Ähnlich wie in anderen Ländern stellen die Ernährung und das Zigarettenrauchen die Hauptquellen der Cadmiumaufnahme der westdeutschen Bevölkerung dar. Aus dem Median des Cadmiumgehalts verschiedener Lebensmittel und unter Berücksichtigung der durchschnittlichen Ernährungsgewohnheiten der westdeutschen Bevölkerung errechnete das Bundesgesundheitsamt die mittlere Cadmiumaufnahme bei Männern mit 0,2425 mg/Woche und bei Frauen mit 0,1882 mg/Woche. Woche 1). Die Cadmiumkonzentration im Tabak deutscher Handelszigaretten wurde von Szadkowski et al. (2), Müller (3) und Scherer & Barkemeyer (4). Nach diesen Studien schwankt die Cadmiumkonzentration im Zigarettentabak zwischen 0,2 und 2,0 ppm bzw. 0,5 – 1,5 µg Cd/Zigarette. Der durchschnittliche Cadmiumgehalt im Mainstream-Rauch deutscher Filterzigaretten beträgt etwa 0,1 µg Cd/Zigarette oder weniger. Bei einfachen Zigaretten liegt der Cadmiumgehalt des Hauptstromrauchs in der Regel über 0,1 (μg/Zigarette. 80 – 95 % des Hauptstromrauchs Cadmium liegen in Partikelform vor. Cadmium in der Gasphase trägt zwischen 5 und 20 % zum Gesamtgehalt an Cadmium im Mainstream-Rauch.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-73766-4_29 2a5c7c99b0d81709bf527185f8b7e5e9;de;;;1.2.;;;Einführung und historischer Überblick In diesem ersten Kapitel geben wir einige historische Hintergründe zu Bakers Theorem, sowohl in qualitativer als auch in quantitativer Form, in homogener als auch in inhomogener Version. Wir beschreiben auch den Sechs-Exponential-Satz, wir präsentieren den Stand der Technik zum Problem der algebraischen Unabhängigkeit von Logarithmen algebraischer Zahlen. Wir schließen mit einigen Anmerkungen zum Linearen Untergruppensatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-11569-5_1 a6eb86b095fceac14e2a72f8a36153dd;de;;;1.2.;;;Geschichte der Diffusion Es ist ungewöhnlich, dass ein Buch, das sich mit dem gegenwärtigen Wissensstand auf einem Gebiet der Physik befasst, eine detaillierte historische Analyse des Themas gibt. Aber jeder, der sich eingehend mit der Diffusion in Gasen beschäftigt, wird feststellen, dass einige Entdeckungen, von denen angenommen wird, dass sie kürzlich gemacht wurden, tatsächlich zu Beginn des neunzehnten Jahrhunderts gemacht wurden, und außerdem, dass einige Gesetze vor mehr als einem Jahrhundert experimentell bestätigt wurden , sind im Dunkeln geblieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-4983-0_6 f105e42b462303c8a0b91bbe70e636e3;de;;;1.2.;;;Quantenphasenmessung Die Theorie der machbaren Quantenphasenmessung wird im Rahmen der Quantenschätztheorie formuliert. Die Phasendetektion ist mit der Messung eines Paares von kommutierenden Hermiteschen Operatoren verbunden. Unter allen möglichen Realisierungen werden die idealen Phasenkonzepte als Darstellungen der euklidischen Algebra auf hermiteschen Operatoren unterschieden. Mögliche Darstellungen der Rotationsuntergruppe entsprechen Messungen mit unbestimmter Phase. Traditionelle „Quantenphasenschwierigkeiten“, die manchmal der fehlenden Eindeutigkeit des hermiteschen Phasenoperators zugeschrieben werden, hängen mit dem klassischen Versuch zusammen, zwischen Quanteneffekt und Messung selbst zu unterscheiden. Bei einer realistischen Quantenphasenmessung sollte die Phasenstatistik unter Verwendung von gezählten diskreten Daten geschätzt werden. Mögliche interferometrische Messungen der Phase – sogenannte operationell definierte Quantenphasenmodelle – sind als spezielle Realisierungen der vorgestellten Theorie enthalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-1391-3_15 3d753fd5f7f22ba4a9c2a8f267c220d8;de;;;1.3.;;;Erkundung der experimentellen Lehrmethoden in der Electronic Design Automation Wie kann man den Schülern die Bedeutung von Experimenten bewusst machen? Wie kann die Qualität der experimentellen Lehre verbessert werden? Es wird ständig diskutiert. In diesem Beitrag werden einige Lösungen für die praktischen Probleme des experimentellen Unterrichts zusammengefasst und analysiert. Als explorativer Fall wurden die experimentellen Lehrmethoden und -maßnahmen in Experiments of Electronic Design Automation analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24775-0_66 93fe307fa17658d477eededffda5c9aa;de;;;1.2.;;;Das sich ändernde Muster der Batholith-Einlagerung während der Erdgeschichte Granit-Batholithen aller Altersstufen umfassen eine endlose Permutation grobkörniger kristalliner Gesteine ​​basierend auf dem mineralogischen Thema Feldspat ± Quarz ± Glimmer ± Amphibole. Es ist üblich, Gabbro-Diorit-Tonalit-Adamellit (manchmal Trondhjemit)-Sequenzen mit einem Gesamtbereich von 45 bis 78% in Kieselsäure zu finden, wie die zuvor aus Peru beschriebenen (Pitcher, dieser Band). Tonalit ist der dominierende Gesteinstyp in der kontinentalen Kruste und trotz oberflächennaher metamorpher und sedimentärer Prozesse, die eine chemische Segregation bewirken, ist die durchschnittliche Zusammensetzung der Kontinente praktisch Tonalit (vgl. Brown und Hennessy, 1978). Obwohl kalkalkalische Tonalit-dominierte Batholith-Suiten vom Archaischen (z (zB Emslie, 1978). Diese beiden Suiten sind chemisch unterschiedlich und dennoch sind alkalische Granite in vielen Fällen so gut entwickelt, dass sie als „Batholithikum“ bezeichnet werden. Sie können daher einen wichtigen Beitrag zum vergangenen Krustenwachstum leisten. Eines der beiden Hauptziele dieses Papiers ist es, die Beziehung der beiden großen Granitfolgen (kalkalkalisch und alkalisch) zu tektonischen Bedingungen und maggenetischen Kontrollen zu diskutieren. Es wird argumentiert, dass beide Suiten im Laufe der geologischen Zeit aufgetreten sind, jedoch mit unterschiedlichen relativen Häufigkeiten, und dass kalk-alkalischer Magmatismus vorherrschte, aber dass die Bedeutung des alkalischen Magmatismus für das Krustenwachstum unterschätzt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-0570-5_9 043a8dc8d3c02619e78c049096ab47fc;de;;;1.2.;;;2 Atmosphärenentwicklung und die Geschichte des Wassers auf dem Mars Die Entdeckung hoher Konzentrationen von Wassereis direkt unter der Marsoberfläche in Polargebieten durch die Raumsonde Mars Odyssey hat die Debatte über die Möglichkeit von Leben auf dem Mars verstärkt. Allgemein wird angenommen, dass das Leben auf der Erde in flüssigem Wasser durch die Verarbeitung organischer Moleküle entstanden ist. Der mögliche Ursprung des Lebens auf dem frühen Mars hätte mit der Entwicklung des planetarischen Wasserinventars in Verbindung gebracht, daher ist es wichtig, die gegenwärtige Menge an Wassereis unter der Planetenoberfläche abzuschätzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-31538-4_2 58fd4d9a5407f4a3b100272b9c60169d;de;;;1.2.;;;Zusammensetzungsentwicklung von Laubwäldern aus nicht-waldlichen Vorläufern in Nordbelgien: Beweise aus der historischen Ökologie Die Vegetationszusammensetzung alter (vor 1800) und neuer (nach 1800) Wäldern wurde anhand von 640 Parzellen, verteilt auf 183 Wälder in Flandern, analysiert. Fünfunddreißig Vegetationstypen wurden identifiziert. Besonders in Birken-Eichen- und Eschen-Erlen-Wäldern wurden deutliche Unterschiede in der Zusammensetzung zwischen alten und neuen Wäldern gefunden. Sie stehen im Zusammenhang mit der Besiedelungsfähigkeit (hauptsächlich Ausbreitung, aber auch Fortpflanzungsfähigkeit und Rekrutierung) der Waldarten. Eine vorläufige Liste der alten Waldarten Westeuropas wird vorgestellt. Die meisten dieser Arten sind Myrmecochoren, Auto- und Barochore (Kurzstreckenverbreiter). Die Folgen für die Renaturierung und Entwicklung von Wäldern werden kurz diskutiert. Die historische Ökologie ermöglicht es uns, die Auswirkungen der ehemaligen Landnutzung auf den heutigen Wald zu beurteilen und die Bedeutung der Besiedlung von Waldarten zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-2866-7_41 598badbf1f33b37af8b9153af1bde3da;de;;;1.2.;;;Weitere Beobachtungen zu den Lebensgeschichten von Limnephiliden, basierend auf der Rothamsted Insect Survey Es wird vorgeschlagen, dass die folgenden elf Arten britischer Limnephiliden zu der Kategorie mit einer kurzen Flugzeit ohne Diapause im Frühjahr und Sommer gehören, die manchmal bis in den Herbst reicht:;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-8641-1_8 fed8099984e547de65d60b51a96112bb;de;;;1.2.;;;Eine Anwendung von Reihendarstellungen auf Null-Eins-Gesetze für unendlich teilbare Zufallsvektoren In dieser Arbeit geben wir eine Anwendung von Reihendarstellungen unendlich teilbarer Zufallsvektoren auf die Null-Eins-Gesetze für messbare Untergruppen. In Satz 2 von Abschnitt 1 liefern wir eine Reihendarstellung von Zufallsvektoren vom Poisson-Typ, die für diesen Zweck geeignet sind. Dann ist die Null-Eins-Dichotomie eine Folge der Beobachtung, dass entweder alle Terme der Reihe, die ein unendlich teilbares Maß μ darstellen, Mitglieder einer Untergruppe sind;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-0559-0_13 39b174c0831770fb5e91a323b49911d9;de;;;1.2.;;;Kinematik des SE Canadian Fold and Thrust Belt: Implikationen für die thermische und organische Reifungsgeschichte Der südkanadische Foreland Fold and Thrust Belt bildet einen sich nach Nordosten verjüngenden Kontraktionsgürtel, der mesoproterozoische intrakontinentale, paläozoische Kontinentalränder und mesozoische bis untere tertiäre Vortiefensequenzen umfasst, die eine Kontraktionsgeschichte der oberen Kreide bis zum Paläozän aufzeichnen. Die Verkürzung wird durch einige wenige größere Überschiebungen (z. B. Lewis-Schub und McDonald-Schub) ausgeglichen, die auf 125 115–125 km geschätzt werden und von der Entwicklung eines vermutlich dicken, derzeit erodierten syntektonischen Vortiefkeils begleitet werden. Die Kontraktionsmerkmale werden von einer zweiten Deformationsphase der Späteozän-Oligozän-Erweiterung mit der Bildung von zwei ausgeprägten Halfgrabensystemen (dh Flathead Valley Graben und Rocky Mountain Trench) und begrenzenden listrischen Normalverwerfungen überlagert, die in der Tiefe mit den bereits bestehenden Schubdekollementen verschmelzen .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69426-7_10 8a7664039b456037911a4e9fa92314ce;de;;;1.2.;;;Eine kurze Geschichte und Darstellung der grundlegenden Theorie der Bruchrechnung Dieser Eröffnungsvortrag soll als Propädeutikum für die Vorträge dieser Konferenz dienen, deren inhomogenes Publikum Wissenschaftler, Mathematiker, Ingenieure und Pädagogen umfasst. Diese Erläuterungs- und Entwicklungsvorlesung, eine Fallstudie über mathematisches Wachstum, untersucht den Ursprung und die Entwicklung einer mathematischen Idee von ihrer Geburt in intellektueller Neugier bis zur Anwendung. Die grundlegende Struktur der Bruchrechnung wird skizziert. Die Anwendungsmöglichkeiten der Bruchrechnung in der anwendbaren Mathematik werden aufgezeigt. Der Vortrag schließt mit einer Erläuterung des Tagungszwecks.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0067096 c4020a509d1af5f716b27e85c2297203;de;;;1.2.;;;Retrospektive und historische Überwachung Jedes biologische Monitoring ist in unterschiedlichem Maße retrospektiv, aber im vorliegenden Kontext verwenden wir den Begriff für Proben, die viele Jahre vor der chemischen Analyse angebaut, exponiert oder gesammelt wurden. Es wurden verschiedene Versuche unternommen, die Veränderungen der Schadstoffbelastung während der Zeit des zunehmenden Einflusses des Menschen auf die Umwelt nachzuvollziehen. Zu den biologischen Materialien, die für solche Studien verwendet wurden, gehören Torf, Jahresringe von Bäumen, Vogelfedern und menschliche Knochen (wie in Kapitel 5, Abschnitt 5.3.4 erörtert) und Herbariumproben, insbesondere Moose. Im Allgemeinen ermöglichten die angewandten Methoden keine quantitative Bewertung der Schadstoffbelastung, aber Vergleiche mit unverschmutzten Standorten oder Zeiträumen, in denen eine minimale Belastung angenommen wurde. Von den drei oben genannten Pflanzenmaterialien hat wahrscheinlich die Jahrringanalyse die größte Aufmerksamkeit erhalten, hat sich jedoch im Allgemeinen als am schwierigsten durchzuführen und zu interpretieren erwiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-7352-7_7 83ecf6af7831e92dc742fca239f85b03;de;;;1.2.;;;Anamnese und körperliche Untersuchung bei Peronealsehnenverletzungen Seitliche Knöchelschmerzen sind eine sehr häufige Beschwerde, die im Allgemeinen durch ein akutes traumatisches Ereignis verursacht wird und sich auch als chronische Erkrankung manifestieren kann. Die Differenzialdiagnose ist umfangreich, aber eine gründliche Anamnese und gezielte körperliche Untersuchung sowie einfache Röntgenuntersuchungen sollten dem Arzt eine genaue Diagnose liefern. Eine übermäßige Abhängigkeit von fortgeschrittener Bildgebung sollte nicht routinemäßig sein, diese Tests sollten gegebenenfalls angeordnet werden, um eine mutmaßliche Diagnose zu bestätigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-46646-6_4 4e03ba8a6e2daabe5ea4fa76448e4335;de;;;1.2.;;;Krankheiten, die die Geschichte verändert haben Im ersten Kapitel habe ich einige Helden der Medizin und ihre Heldentaten besprochen. Jetzt werden wir die Schurken untersuchen – die Krankheiten, die die Menschheit heimsuchen, die Krankheiten, die trotz unserer besten Bemühungen wieder aufzutauchen scheinen, gerade wenn wir kurz davor sind, den Sieg zu erklären. Diese Krankheiten haben unsere Geschichte, Geographie, Kultur, Religion und Sprache beeinflusst.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-73080-6_2 43c010d4c412792e97ac7fcaabc0d506;de;;;1.2.;;;Zur Geschichte der Spiroergometrie Die Spiroergometrie ist ein diagnostisches Verfahren zur Beurteilung der Leistungsfähigkeit des Herz-Kreislauf-Systems, der Atmung und des Stoffwechsels. Begrifflich und inhaltlich umfasst die Spiroergometrie zwei Komponenten: die Spirometrie und die Ergometrie. Ziel der Spirometrie ist die kontinuierliche Messung des Atemgasstoffwechsels und die kontinuierliche Registrierung der Atmung (Spirographie). Hier ist die Messung des Sauerstoffverbrauchs – gleichbedeutend mit der Sauerstoffaufnahme – viel wichtiger als die von CO;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-85404-0_1 7a5fd34ffe35ff151e6a0e7a3b2a8cad;de;;;1.2.;;;Historische Kosten versus Fair-Value-Rechnung im Bankwesen: Auswirkungen auf Aufsicht, Vorsorge, Finanzberichterstattung und Marktdisziplin Die Frage der historischen Kostenrechnung (HCA) versus der Fair-Value-Rechnung (FVA) ist ein fruchtbarer Bereich für die Forschung, wenn sie unter dem Gesichtspunkt der Schnittmenge zwischen Bankkapital und Bankrisikomanagement und dem Ansatz der Aufsichtsbehörden und der Standardsetzer in Bezug auf die Zwecke von HCA und FVA. In diesem Beitrag werden die Anwendbarkeit und Durchsetzbarkeit zweier diametral gegensätzlicher Ansätze der Bankbuchhaltung, ihre Auswirkungen auf Transparenz, Verlässlichkeit und die damit verbundene regulatorische (amtliche) Disziplin diskutiert. Es analysiert die Nützlichkeit, Relevanz und Verlässlichkeit dieser beiden gegensätzlichen Rechnungslegungsrahmen für die Bewertung, den Ansatz und den Ausweis von Bankfinanzinstrumenten in den Bankbüchern (insbesondere Kredite und Risikovorsorge). Es berührt den Nutzen und die Kosten, die mit der Anwendung dieser Rechnungslegungsrahmen verbunden sind. Sie legt nahe, dass die prinzipiellen Vorteile der Umstellung auf die vollständige FVA (FFVA) für Banken durch die pragmatischen und praktischen Schwierigkeiten bei der Umsetzung einer solchen Bilanzierung aufgewogen werden.;-;-;-;https://link.springer.com/article/10.1057/palgrave.jbr.2340186 03318814478dd9883a79a954c3f6ea68;de;;;1.2.;;;Liasic Source Rocks from Three Wells from the Sea of ​​Iroise (French Western Approaches) und Dorset (UK) Aufschlüsse: Natur und modellierte Reifegeschichte Die erste Explorationsphase in den Western Approaches und Channel Basins wurde Mitte der 1980er Jahre ohne nennenswerte Ergebnisse (abgesehen von einer Öl- und einer Gaskondensatshow) abgeschlossen, obwohl in französischen Gewässern 12 Bohrlöcher gebohrt wurden. Allerdings wurde das Onshore-Ölfeld Wytch Farm erschlossen, dessen Produktion Ende 1991 etwa 60.000 Barrel pro Tag erreichte. Gleichzeitig wurden die Gasfelder Kinsale Head und Ballycotton, die von Südirland vor der Küste liegen, mit ausgewiesene Reserven von 1,4 Tcf bzw. 73 Mrd. cf. Erhebliche Mengen an Kohlenwasserstoffen können daher in noch unentdeckten strukturellen oder stratigraphischen Fallen vorhanden sein. Aktuelle Studien werden von den Ergebnissen der ersten Bohrungen sowie von der deutlich verbesserten Qualität der vorliegenden seismischen Daten im Vergleich zu denen von 1970 profitieren. Es ist nun auch möglich, ein besseres Verständnis der Qualität, Verteilung und Reifung zu gewinnen Geschichte der potentiellen Quellgesteine, von denen die liassischen Schwarzschiefer am weitesten verbreitet und ausgereift sind. Abschnitte des Se-Schiefers wurden entlang der klassischen Freilandexponierung der Küste von Dorset und aus Stecklingen in drei Bohrlöchern beprobt. Die Dorset-Sektion ist unreif und der durchschnittliche Bio-Anteil beträgt 3 %. Bei Levneg 1 ist der Liassic-Abschnitt etwa 1250 m dick, mit dem besten Potenzial in den Abschnitten Pliensbachium bis Hettangium. Die gegenwärtigen TOCs sind niedrig (ca. 1 %), aber diese Gesteine ​​sind überreif, so dass ihr anfänglicher organischer Gehalt auf mindestens 2 % geschätzt werden kann. Die gegenwärtige Tiefe dieser Schichten und der gegenwärtige Wärmefluss können diese gegenwärtige Reifung nicht erklären, so dass auch ihre tektonische Geschichte berücksichtigt werden muss. Die seismische Linie des IFP-CGG IS 88 zeigt an dieser Stelle deutlich die Inversion des Beckens im Tertiär, wo sich in sozoischen Zeiten bis zu 4000 m Sediment angesammelt hatten. Die relativ guten liassischen Quellgesteine ​​bei den Bohrlöchern Rea-Gwenn und Travank sind unreif und wurden in einem viel weniger absinkenden Gebiet abgelagert. Sie scheinen dem Dorset-Abschnitt ähnlicher zu sein. Was das Gebiet südlich der Wytch Farm betrifft, zeigt die 1-D-Matoil-Modellierung, dass die Öl- oder Gasförderung in Levneg stoppte, sobald der Inversionsprozess eingeleitet wurde, was bedeutet, dass in diesem Fall prätertiäre strukturelle Fallen günstigere Ziele als kürzlich invertierte Strukturen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-78849-9_12 4fb452ccca9e07a2717400fa0dd54858;de;;;1.2.;;;Variation der Lebenszyklen von Karabinern entlang klimatischer Gradienten: Eine adaptive Perspektive für die Evolution der Lebensgeschichte unter widrigen Bedingungen Die Variation der Lebensgeschichte entlang klimatischer Gradienten zu höheren Höhen und Breiten und ihre evolutionären Implikationen werden für Karabinerkäfer der gemäßigten Zone berücksichtigt, indem Informationen aus physiologischer und Populationsökologie, Biogeographie und mathematischer Theorie integriert werden. Unter den beiden Hauptkategorien des jahreszeitlichen Lebenszyklus bei Karabiden sind Herbstbrüter mit Larvenüberwinterung besser an die Besiedelung kühler Lebensräume angepasst als Frühlingsbrüter, die nicht als Larven überwintern können. Der Erfolg der Herbstbrüter hängt davon ab, dass sowohl Larven als auch Adulte überwintern können, so dass die Entwicklung zwei Jahre dauern kann und sich Semivoltinismus entwickeln kann. Zur Bestimmung des optimalen jahreszeitlichen Lebenszyklus und seiner Relation zum Grad der Iteroparität wurden einfache Lebensverlaufsmodelle verwendet. Die Modelle sagen voraus, dass ausgewachsene Karabiner unter den in kühlen Habitaten zu erwartenden Umweltbelastungen ihre Fitness maximieren, indem sie die Reproduktionsaktivität pro Jahr reduzieren und die Überlebenschancen erwachsener Tiere verbessern. Wenn eine langsame Entwicklung in kühlen Habitaten zu einer verzögerten Reife im ersten Lebensjahr führt, ist eher Semivoltinismus als Univoltinismus die optimale Strategie. Im Allgemeinen nimmt die Bedeutung der Iteroparität zu, wenn die Lebensräume kühler werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1888-2_5 46110e9e870b72f7f5d282e7ac82a462;de;;;1.2.;;;Lebensgeschichte und Evolution von Rädertierchen in Süßwasserplanktongemeinschaften Rädertiere spielen in vielen Süßwasserplanktongemeinschaften eine wichtige Rolle. Die Populationen werden von „bottom-up“ in Abhängigkeit von unterschiedlichen Futtermengen und -qualitäten kontrolliert. Diese Regulierung hängt jedoch auch von Merkmalen der Lebensgeschichte der Rädertierchen ab. Rädertierchen werden von Raubtieren, insbesondere von Copepoden, von oben nach unten kontrolliert;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-8880-6_5 a31604982590d5b4ee7456cf27880448;de;;;1.2.;;;Geschichte von Polyphenylensulfid In den letzten 40 Jahren hat die Kunststoffindustrie ein enormes Wachstum erlebt, ein Wachstum, das durch beispiellose technologische Fortschritte katalysiert und ermöglicht wurde. Diese Fortschritte haben zu einer neuen Klasse von Kunststoffen geführt, die oft als „technische Thermoplaste“ bezeichnet werden. Diese Polymerklasse zeichnet sich durch außergewöhnliche Zähigkeit und gute Belastbarkeit aus. Diese Materialien haben Designern viele neue Horizonte eröffnet und finden Anwendung in Märkten, die zuvor von Metall, Holz, Keramik, Glas usw. dominiert wurden. Ein wichtiges Mitglied dieser Harzfamilie ist Polyphenylensulfid.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-7073-4_14 01d7dcb4a6d3f286d867f169a39bc71b;de;;;1.2.;;;Die Geschichte der Flora und Vegetation im Quartär Vor einigen Jahren wurde ein Bericht über paläoethnobotanische Beobachtungen veröffentlicht (Frenzel 1986). Inzwischen wurden in der breiten und weit verbreiteten Literatur viele interessante Arbeiten diskutiert, die sich mit verschiedenen paläoethnobotanischen Problemen befassen. Es erscheint daher sinnvoll, zumindest einen Teil der Ergebnisse zusammenzufassen. Willerding (1986) veröffentlichte eine hochinteressante Monographie zur Geschichte der mitteleuropäischen Acker- und Weideunkräuter, und Korber-Grohne (1987) beschäftigte sich ausführlich mit der Geschichte und ehemaligen und heutigen Nutzung landwirtschaftlicher Pflanzen in Europa. Im Zusammenhang mit dem, was auf den folgenden Seiten gesagt wird, sollten auch diese beiden Monographien verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-77047-0_19 1c0c6dde13c525fc501cc50efa91abfb;de;;;1.2.;;;Geschichte lehren, Krise lehren Es war ungefähr 7.30 Uhr, der 27. November 1992, und die trockene Morgenluft war leicht kühl, als ich mit meinem Morgenkaffee auf die Terrasse schlenderte. Auf der anderen Seite der Schlucht sah ich zu, wie eine Gruppe Bauern Kohl ernteten, sie in ordentlichen, engen Reihen in Holzkisten packten und auf die Ladefläche eines am Feldrand geparkten Pritschenwagens stapelten. Die langsame, stetige Wiederholung ihrer Bewegungen, die straffe Ordnung der Kohlköpfe, die in die Kisten gequetscht wurden, die dann auf dem Lastwagen dicht gestapelt waren, entlasteten seine Vorhersehbarkeit. Der breite, sich wiederholende Rhythmus der Feldarbeiter, deren gesamter Körper – Rücken, Beine, Arme und Hände – in sanftem Einklang daran arbeiteten, den Kohlkopf herauszuziehen, zu reinigen und einzupacken, hatte eine seltsame Ähnlichkeit und Unähnlichkeit zu den engen, umschriebene, sich wiederholende Bewegungen der Schüler im Klassenzimmer, während sie diktierten – über ihre Notizbücher gebeugt, den Bleistift auf das Papier drückend. Ich erinnerte mich an den letzten Kurs, den ich in der Woche zuvor beobachtet hatte: Frau Gómez’ Universal History-Kurs. Darin hatte der Lehrer an der Tafel die fünf Perioden der Menschheitsgeschichte aufgelistet, festgestellt, dass wir uns jetzt in der „Zeitgenössischen“ (die nach der „Neuzeit“ folgte) befanden und dass diese Periode von der politischen Entwicklung der Demokratie geprägt war Staaten auf der ganzen Welt und die wirtschaftliche Entwicklung der technologiebasierten Produktion. „Dies ist die historische Periode, in der sich Venezuela heute befindet“, sagte Frau Gómez ihren Schülern.;-;-;-;https://link.springer.com/chapter/10.1057/9780230617247_5 17eebd155ec13f16d20f12b895d044b2;de;;;1.2.;;;Lebensgeschichtliche Strategien und die genetische Struktur phytophager Insektenpopulationen Räumliche Selektionsvariationen schaffen das Potential für lokale Anpassung, aber die Realisierung dieses Potentials wird durch das Gleichgewicht zwischen Selektion und den entgegenwirkenden Effekten sowohl der genetischen Drift als auch des Genflusses bestimmt (Slatkin 1973, 1987, Endler 1977). Eine starke Selektion kann im Allgemeinen die Auswirkungen aller bis auf die extremsten Grade genetischer Drift überwinden (Wright 1931, Fisher 1958), aber ein moderater Genfluss aus nahegelegenen Populationen, in denen alternative Merkmale bevorzugt werden, kann theoretisch die Entwicklung lokal angepasster Demen verhindern, sogar unter ziemlich starke Selektionsregime (Slatkin 1973, 1985a, May et al. 1975). Darüber hinaus wird die räumliche Skala, auf der sich lokale Anpassungen entwickeln, durch die räumliche Skala des Genflusses beeinflusst. Bei Arten mit breitem Genfluss kann die Anpassung auf regionaler Ebene erfolgen, während sie bei Arten mit begrenztem Genfluss auf viel kleineren räumlichen Skalen erfolgen kann (Slatkin 1973, Endler 1979, Hanks und Denno 1994, Thomas und Singer, Kapitel 14, dieser Band). Um sowohl die Bedingungen, die die Evolution lokaler Anpassungen bei phytophagen Insekten begünstigen, als auch das Ausmaß, in dem diese Anpassungen stattfinden, gründlich zu verstehen, ist es daher wichtig, die Faktoren aufzuklären, die den Genfluss zwischen Populationen beeinflussen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-0902-5_12 67b9ff552b04a905119b154b403a962e;de;;;1.2.;;;Zyklische klimatische Veränderungen in Zypern, wie aus historischen Dokumenten und den Niederschlagsaufzeichnungen aus einem Jahrhundert hervorgeht In Zypern wurden in den letzten Jahrzehnten klimatische Veränderungen im Zusammenhang mit den durchschnittlichen Wetterbedingungen über einen Zeitraum von 30 Jahren beobachtet. Dies zeugt von einer kontinuierlichen Verringerung der aufgezeichneten Niederschläge. Die dramatischsten Auswirkungen einer solchen Änderung beziehen sich auf die unzureichende Leistung der Wasserwerke des Landes im Vergleich zu der, für die sie ausgelegt sind. Da zum Zeitpunkt des Entwurfs des Wasserwerks nur kurze Flussaufzeichnungen verfügbar waren, werden seit 1916 für die meisten Einzugsgebiete Zyperns simulierte Abflüsse verwendet, die aus viel längeren Niederschlagsaufzeichnungen abgeleitet wurden. Die mathematischen Modelle, mit denen die simulierten Abflüsse aus den historischen Niederschlägen berücksichtigten keine klimatischen Veränderungen, die bis dahin in Zypern nicht untersucht wurden. So erzeugten historische hohe Niederschlagswerte vom Anfang des Jahrhunderts hohe simulierte Abflüsse, die für die Auslegung des Wasserwerks verwendet wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-61084-4_6 5a33291ffbea6192d325d3d5de9a79c7;de;;;1.2.;;;Die südchinesischen Grenzen in der Geschichte Während eines kürzlichen Vortrags über die alten vietnamesischen Dong-son-Bronzetrommeln sagte ein Zuhörer, dass diese Trommeln chinesische Trommeln seien, da „Vietnam während der Han-Dynastie zu China gehörte“.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-137-11123-4_3 bbb85b01314786d75df066b49855a80c;de;;;1.2.;;;Resektion von Rektumkarzinom: Ein historischer Rückblick Die lokale Kontrolle des Rektumkarzinoms und das Überleben der Patienten haben sich mit Fortschritten bei chirurgischen Techniken und adjuvanter Therapie bemerkenswert verbessert. Durch Anwendung fortschrittlicher chirurgischer Prinzipien können Chirurgen jetzt die meisten Rektumkarzinome vollständig entfernen, wobei oft der Analsphinkter erhalten bleibt und der Patient eine relativ normale Darm- und Beckenfunktion erhält. Historisch gesehen erfolgten die frühesten chirurgischen Zugänge bei Rektumkarzinomen über das Perineum. Als sich die chirurgischen Techniken und die Allgemeinanästhesie verbesserten, wurden andere Ansätze, wie beispielsweise ein posteriorer Zugang, unternommen, um den Zugang zum gesamten Rektum zu verbessern. Folglich wurde die abdominoperineale Resektion zur Standardbehandlung, bis die anteriore Resektion für proximale Rektumkarzinome eingeführt wurde. Der wichtigste chirurgische Durchbruch der letzten Jahre war das Aufkommen der totalen mesorektalen Exzision (TME). Der Schwerpunkt in der Rektumkarzinomchirurgie liegt auf der Erhaltung der Funktion, wobei die Präparation in geeigneten anatomischen Ebenen erfolgt. Somit hat die Mobilisierung des Rektums eine lange Geschichte und wird bei modernen Verfahren wie TME und Intersphinkterresektion beobachtet. Dieser Artikel gibt einen Überblick über den Verlauf der chirurgischen Behandlung von Rektumkarzinomen unter Bezugnahme auf historische Perspektiven. Wir diskutieren die wichtigsten chirurgischen Überlegungen zur Mobilisierung des Mastdarms bei mehreren chirurgischen Eingriffen, von konventionellen Operationen bis hin zu modernen standardisierten TME.;-;-;-;https://link.springer.com/article/10.1007/s00595-009-4153-z b4ea0c71a436d5fdea71e13864a94278;de;;;1.2.;;;Eicosapentaensäure (EPA) reduziert die Proliferation von Kryptenzellen und erhöht die Apoptose in normaler Dickdarmschleimhaut bei Patienten mit kolorektalen Adenomen in der Vorgeschichte Omega-3-Fettsäuren in Fischöl üben im Tiermodell eine schützende Wirkung auf die Entstehung von Dickdarmkrebs aus. Bei Patienten mit kolorektalen Adenomen wurde eine erhöhte Kryptenzellproliferation und eine verminderte Apoptose in makroskopisch normal erscheinender Kolonschleimhaut nachgewiesen. Wir untersuchten, ob eine Nahrungsergänzung mit Eicosapentaensäure (EPA) die Proliferation und Apoptose von Kryptenzellen bei solchen Patienten verändern könnte.;-;-;-;https://link.springer.com/article/10.1007/s00384-006-0240-4 9589f3493dc8ab546e2e97ed2a916b4b;de;;;1.2.;;;Orientierungspunkte in der Kommunikation von Wegbeschreibungen Wir untersuchen das Verständnis von Landmarken anhand eines Modells von Einbettungsverfahren, das Affordances auf drei Ebenen etabliert sieht. Auf der ersten Ebene stehen Landmark-Erfahrung und direkter Kommunikationsprozess als eigenständige Angebotsstrukturen. Auf der zweiten Ebene wurde die erste Orientierungserfahrung Teil des Sprechaktes und etablierte so eine direkte Wegfindungskommunikation. Auf der dritten Ebene wird die Kommunikationssituation des Sprechaktes, der das Landmark-Erlebnis einbezieht, in eine indirekte Kommunikation und damit in eine Erzählung umgewandelt. Wir wenden das nivellierte Modell der narrativen Struktur auf von Menschen erstellte Routenanweisungen an. Wir zeigen, wie das Ersterlebnis – der Landmark – in Kommunikationsstrukturen eingebunden wird, wie daraus eine Erzählung wird, um das Verstehen zu sichern und wie das Verstehen über narrative Strukturen gelenkt wird. Mit diesem literaturwissenschaftlichen Ansatz tragen wir zur Problematik des vertieften Verständnisses natürlicher Sprache bei. Letztlich liegt unser Interesse in der automatischen Generierung von Routenanweisungen. Wir zeigen, dass es für eine erfolgreiche Kommunikation nicht ausreicht, nur auf Orientierungspunkte in Routenanweisungen zu verweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30231-5_21 8bf2bbcdb02087df2c9e9ffef2a6ed36;de;;;1.2.;;;Sexualdimorphismus in der Lebensgeschichte Die Theorie der Lebensgeschichte dreht sich um die Idee, dass verschiedene Aktivitäten wie Wachstum, Erhaltung und Fortpflanzung um begrenzte Ressourcen konkurrieren. Daher kann die gegenwärtige Reproduktion zu einer Verringerung des Wachstums und des Überlebens und folglich zu einer Verringerung der zukünftigen Reproduktion führen. Gadgil und Bossert (1970) nannten dies eine „Kostenfunktion“ und das Phänomen wird heute als „Reproduktionskosten“ bezeichnet. Sie interpretierten die Unterschiede in der Lebensgeschichte zwischen den Arten (z. B. Alter bei der ersten Reproduktion) als adaptiv, da die ausgewählte Lebensgeschichte diejenige ist, die die Fitness maximiert (Gadgil und Bossert 1970). Trivers (1972) und Bell (1980) erweiterten dies auf Vergleiche zwischen den Geschlechtern von Tieren und nicht zwischen Arten und stellten fest, dass geschlechtsspezifische Unterschiede bei den Reproduktionskosten zu einem Sexualdimorphismus im Zeitpunkt des Todes und des Alters bei der ersten Reproduktion führen würden , beziehungsweise.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-03908-3_6 6962b1ea23e07f04d4f41bd710551196;de;;;1.2.;;;Klinische Merkmale und Naturgeschichte der AMD In den letzten Jahren hat sich die OCT zu einem wesentlichen Bestandteil der Routineuntersuchungen bei AMD entwickelt, um die klinische Praxis zu lenken und das Ansprechen auf die Behandlung zu analysieren. OCT-Untersuchungen können die Wirksamkeit der Behandlung klar nachweisen, indem sie eine Regression oder Persistenz der Leckage zeigen. Darüber hinaus können auch Veränderungen der äußeren Netzhautschichten analysiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01467-3_9 48f04755750043dcc86e331a49f0b9bc;de;;;1.2.;;;Die Evolutionsgeschichte der Übersetzungsmaschinen Aktuelle Theorien über den Ursprung von Ufe sehen eine RNA-Welt als Höhepunkt der chemischen Evolution vor. Das Ausmaß dieser RNA-Welt und die biochemische Komplexität der sie bevölkerten Vorläuferzellen sind Gegenstand vieler Debatten. Dennoch besteht wahrscheinlich unter Fachleuten Einigkeit darüber, dass die Entdeckung einer Maschinerie für die chirale Synthese von Peptiden mit definierter Sequenz den Weg für den Übergang in die moderne Proteinwelt geebnet hätte. Mit der Entdeckung einer RNA-Replicase, die ursprünglich eine katalytische RNA oder ein frühes Peptidprodukt gewesen sein könnte, wäre die Bühne für die Entwicklung von Populationen von Vorläufern geschaffen, die diese beiden Merkmale in einem Gehäuse aufweisen. Solche fortgeschrittenen Vorfahren wären die ersten Wesen, die das genetische Paar zwischen Replikation, Transkription und Translation aufweisen könnten, das das Markenzeichen des Lebens, wie wir es kennen, ausmacht. Die moderne tmRNA wird in einem Stadium vom Ribosom als tRNA erkannt, während sie anschließend während der Translation als mRNA dient. Diese ungewöhnliche RNA könnte repräsentativ für die Arten von Entitäten sein, die in der späten RNA-Welt vorkommen. Die Hinzufügung von DNA als besseres Speichermedium für genetische Informationen würde den Übergang von der progenotischen Welt zu den lebenden Systemen der modernen Welt abschließen.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-26887-1_6 8783ff0f3cf7bbe53b5cc5c50c7eff5f;de;;;1.2.;;;Radiobeobachtungen historischer, extragalaktischer Supernovae VLA-Karten der Galaxie M83 (NGC 5236) bei b und 20 cm zeigen das Vorhandensein sowohl nicht-thermischer als auch thermischer Quellen, die überwiegend entlang der Innenkanten der optischen Spiralarme liegen. Es wurde festgestellt, dass eine mit der optischen Position der Supernova 1957d zusammenfallende Radioquelle ein nicht-thermisches Spektrum aufweist, so dass SN 1957d als die erste Supernova mittleren Alters (~ 10-300 Jahre) bestätigt wurde, die bei einer beliebigen Wellenlänge nachgewiesen wurde. Eine zweite nicht-thermische Quelle wird vorläufig mit der Supernova 1950b identifiziert, bis die genaue optische Position der Supernova gemessen wird. Zwei weitere nicht-thermische Quellen, die entlang der Innenkanten der Spiralarme liegen, sind wahrscheinlich die Überreste von Supernovae, die optisch nicht gesehen wurden. Alle vier Quellen haben eine monochromatische Leuchtkraft, die mit der von Cas A vergleichbar ist. Eine zusammengesetzte „Radiolichtkurve“ für Supernovae und junge Supernova-Überreste bekannten Alters wird vorgestellt und diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-15206-7_49 013982eec82510b06b427d6e8822bd2d;de;;;1.2.;;;Küstenentwicklung von Yancheng im Norden von Jiangsu, China seit dem mittleren Holozän basierend auf den Landsat-MSS-Bildern Seit den 1970er Jahren liefern Fernerkundungsbilder neue Informationen für die Abgrenzung und Analyse von Küstenänderungen, insbesondere mit Blick auf die kurzfristigen Veränderungen. Dieses Papier, das auf den Landsat-MSS-Bildern basiert, konzentriert sich auf die Küstenentwicklung von Yancheng im Norden von Jiangsu, China, seit dem mittleren Holozän. Ein Zebrastreifenbild, das die alte Küstenentwicklung von Yancheng enthüllen könnte, wurde aus einem Landsat-MSS-Bild extrahiert. Basierend auf den extrahierten schwarz-weißen Streifen wurden 19 Oberflächensedimentproben entnommen und analysiert, um die Sedimentmerkmale dieser Streifen zu erkennen. Es zeigt, dass die meisten Sand- und Schluffsandproben auf den weißen Streifen erscheinen, während sich Schluff- und Schlufftonproben auf den schwarzen Streifen befinden. Sandige und schlammige Sedimente weisen in der Küstenebene von Yancheng ein wechselndes Verteilungsmuster auf. Eine historische Küstenlinienkarte wurde nach den bisherigen Forschungsleistungen der paläo-küstennahen Sandbarrieren und Paläo-Küstenlinien erstellt und dem Zebrastreifenbild überlagert. Der Trend der extrahierten Zebrastreifen stimmt mit den historischen Küstenlinien überein und sollte das Symbol für die Entwicklung der Yancheng-Küstenlinie sein. Auf der Grundlage von zehn Sätzen von schwarz-weißen Streifen und früheren Forschungsergebnissen haben wir das Fortschreiten der Küstenentwicklung in Yancheng in drei Phasen unterteilt (dh das frühe stabile Stadium (6500 a BP-AD 1128), das schnelle Ablagerungsstadium (AD 1128 –1855) und die Anpassungsphase (AD 1855-heute)). Zehn Sätze schwarz-weißer Streifen wurden als charakteristisches Muster der Küstenentwicklung in der Küstenebene von Yancheng identifiziert.;-;-;-;https://link.springer.com/article/10.1007/s11442-013-1052-4 50aaf7abd08b485f4e95fd87c5143fb9;de;;;1.2.;;;Die thermische Geschichte des Universums Heutzutage passiert nicht viel im intergalaktischen Raum. Es finden keine Kernreaktionen statt und Photonen und Neutrinos streuen sehr selten an Materie. Quantitativer ist die Anzahl der Reaktionen pro Partikel pro Zeiteinheit,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-04446-9_6 40f6f61df967bbb1b89875e2010f94db;de;;;1.2.;;;Geschichte der Brustverkleinerung Die Geschichte der Brustverkleinerung umfasst die innovativen Techniken von Chirurgen auf der ganzen Welt. Die Fähigkeit der Chirurgen, über eine Vielzahl von Techniken zu berichten, um eine kosmetische Reduktion des Brustgewebes zu erreichen, zeigt die Beharrlichkeit, bessere Wege zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89873-3_31 ea9a77b0b889b21c13d8016cfcc59c4a;de;;;1.2.;;;Die Beziehung zwischen Überschwemmungsgeschichte und Baldcypress-Stammform in einem Sumpf in einer Überschwemmungsebene von Virginia Algorithmen, die den Stammpfeiler und das Ausmaß der Stammhypertrophie quantitativ definieren, wurden entwickelt und verwendet, um die Beziehung zwischen der Baumform und dem hydrologischen Regime des Oberflächenwassers bei Baldcypress zu bestimmen (;-;-;-;https://link.springer.com/article/10.1007/BF03161654 a29770b58a9b193318fe3da1bb84f84b;de;;;1.2.;;;Neuroleptika-induzierte Dysphagie Neuroleptika können zu extrapyramidalen Symptomen führen, die das Schlucken beeinträchtigen können. Sowohl die orale als auch die pharyngeale Schluckphase können betroffen sein. Im Gegensatz zu den häufigeren Ursachen von Dysphagie, insbesondere bei älteren Menschen, kann eine arzneimittelinduzierte Dysphagie reversibel sein. Dieser Bericht beschreibt einen Fall von Neuroleptika-induzierter Dysphagie bei einem älteren Mann mit Alzheimer-Krankheit. Als das Loxapin abgesetzt wurde, verbesserte sich die Dysphagie deutlich.;-;-;-;https://link.springer.com/article/10.1007/PL00009533 03c008c46dcb5c3bee3fda59f3aa7a7b;de;;;1.2.;;;Naturgeschichte und Ergebnis bei chinesischen Patienten mit gastroenteropankreatischen neuroendokrinen Tumoren: - eine 17-jährige retrospektive Analyse Die Inzidenz von gastroenteropankreatischen neuroendokrinen Tumoren (GEPNETs) steigt in vielen Teilen der Welt, aber epidemiologische Daten von asiatischen Bevölkerungsgruppen sind selten.;-;-;-;https://link.springer.com/article/10.1186/s12902-016-0087-9 a37b81cf327f8688414a46df0cbd9a8f;de;;;1.2.;;;Unterkühlung und Frosttoleranz bei der Europäischen Mauereidechse, Mauereidechsen wurden im Herbst 1988 von einer Population gesammelt, die 1951 in Cincinnati, Ohio, eingeführt wurde. Sie wurden mehrere Wochen lang an 5 °C akklimatisiert, bevor sie bei Minustemperaturen getestet wurden. Elf unterkühlte Echsen wurden vor der Kristallisation nach 15 min bis 26 h bei Körpertemperaturen von -2,2 bis -5,9 °C aus der Kühlkammer genommen. Mit Ausnahme einer einzelnen auf -5,0 °C unterkühlten Eidechse erholten sich alle Eidechsen vollständig. Die Kristallisationstemperaturen von 15 eingefrorenen Eidechsen lagen im Bereich von -0,6 bis -6,4 °C. Gefrorene Eidechsen waren steif mit einer deutlichen blauen Farbe, die beim Auftauen bei 3 °C verblasste. Die Eisgehalte von gefrorenen Eidechsen wurden kalorimetrisch bestimmt und/oder anhand eines theoretischen Modells abgeschätzt, wobei die beiden Methoden im Allgemeinen eng übereinstimmen. Bemerkenswerterweise erholten sich fünf Personen vollständig von Expositionen von bis zu 2 Stunden und mit bis zu 28% ihres gefrorenen Körperwassers. Obwohl diese Tiere nicht so tolerant sind wie bestimmte andere Wirbeltiere, können sie unter Umständen dem Einfrieren standhalten. Das Nichtüberleben des Gefrierens wurde entweder einer übermäßigen Eisansammlung während eines längeren Gefrierens oder einer übermäßigen Unterkühlung vor dem Gefrieren zugeschrieben, die bei der Kristallisation einen großen anfänglichen Anstieg der Eisbildung induzierte. Unsere Ergebnisse stimmen mit denen von Weigmann (1929) überein. Dementsprechend erkennen wir ihn als den ersten an, der Gefriertoleranz bei Wirbeltieren gezeigt hat, und wir erkennen weiter an further;-;-;-;https://link.springer.com/article/10.1007/BF00300945 0b5c8a82c5722829fad1828ce5af1ed7;de;;;1.2.;;;Evolutionsgeschichte von MHC-Klasse-I-Genen in der Säugetierordnung Perissodactyla Wir führten eine Analyse von Teilsequenzen von exprimierten Genen des Haupthistokompatibilitätskomplexes (MHC) der Klasse I durch, die aus einer Reihe von Equidenarten und entfernter verwandten Mitgliedern der Säugetierordnung Perissodactyla isoliert wurden. Die phylogenetische Analyse ergab mindestens sechs Gruppen, von denen fünf Gene und Allele enthielten, die in Equidenarten vorkommen, und eine Gruppe, die für das Nashorn spezifisch ist. Vier der Gruppen enthielten nur eine oder sehr wenige Sequenzen, was auf das Vorhandensein relativ nicht-polymorpher Loci hinweist, während eine andere Gruppe die Mehrheit der identifizierten equiden Sequenzen enthielt. Diese Daten legen nahe, dass eine Diversifizierung der MHC-Gene nach der Aufspaltung zwischen den Equiden und den Rhinocerotidae stattfand, noch vor den Speziationsereignissen innerhalb der Gattung gen;-;-;-;https://link.springer.com/article/10.1007/PL00006554 d464c03adca4d77e4f606304f0e68dc7;de;;;1.2.;;;Fortschritte bei der Messung der durch 14,9 MeV Neutronen induzierten Wirkungsquerschnitte von Gammastrahlung Die Energiespektren und die Produktionsquerschnitte von Gammastrahlen aus den durch 14,9 MeV Neutronen induzierten Reaktionen wurden unter fünf verschiedenen Winkeln gemessen. Die Experimente wurden mit einer Flugzeitanlage für gepulste schnelle Neutronen und einem hochauflösenden Ge(Li)-Spektrometer durchgeführt. Zur Berechnung der Korrekturen der Neutronenflussdämpfung und der Gammastrahlen-Selbstabsorption in der großen hohlzylindrischen Probe mit einer Positionskorrelation wurde ein Monte Carlo Programm entwickelt. Die Lebensdauern der aus der Doppler-Verbreiterung von Gammastrahlenspektren extrahierten Niveaus wurden untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-58113-7_95 20259965c7ca192fdd765e435c61569b;de;;;1.2.;;;Feste Strukturen mit bioorganischen Filmen auf Silizium Die elektrophysikalischen Parameter von Ovalbumin/Silizium- und Propolis/Silizium-Heterostrukturen werden mit Impedanzspektroskopie und Hochfrequenz-Kapazitäts-Spannungs-Kennlinien unter Wasserdampfsorptionsbedingungen untersucht.;-;-;-;https://link.springer.com/article/10.1134/S1063784212060242 07d1d3034f5c31cbe81c0c8c17fd46de;de;;;1.2.;;;Historische und theoretische Probleme: Fragen im „Allgemeinen Teil“ des Kodex Nach fast hundert Jahren, im Juni 1969, wurde endlich ein Gesetz zur ersten umfassenden Reform des deutschen Strafgesetzbuches in Angriff genommen. So gelang es der verstorbenen „Großen Koalition“, der ersten gemeinsamen Ausrichtung der konservativen Christdemokraten (CDU) mit der sozialdemokratischen Opposition (SPD) in der Geschichte der Bundesrepublik, und einer Nachfolge effektiver Justizminister zu sichern Einigung über eine Kompromissreform, die die Einparteienregierung bis dahin nicht durchsetzen konnte. Die aktuellen Reformbemühungen laufen seit über zehn Jahren. Die Vorschläge waren breit diskutiert worden, und selbst in dieser relativ kurzen Zeit hatte sich die Einstellung sowohl der Juristen als auch der Öffentlichkeit erheblich gewandelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-2438-9_4 93acbb0c48cf7db0319769ec6f04e09a;de;;;1.2.;;;Vesta und Ceres: Die Geschichte des Sonnensystems durchqueren Die Entwicklung des Sonnensystems lässt sich schematisch in drei verschiedene Phasen einteilen: den Sonnennebel, das ursprüngliche Sonnensystem und das moderne Sonnensystem. Diese drei Perioden waren durch sehr unterschiedliche Bedingungen gekennzeichnet, sowohl im Hinblick auf die physikalischen Bedingungen als auch auf die durch sie wirkenden Prozesse. Während der Phase des Solaren Nebels bildeten sich Planetesimale und planetare Embryonen und unterschieden sich aufgrund des Zerfalls kurzlebiger Radionuklide. Zur gleichen Zeit bildeten Riesenplaneten ihre Kerne und akkumulierten das Nebelgas, um ihre heutigen Massen zu erreichen. Nach der Gasausbreitung begann das ursprüngliche Sonnensystem seine Entwicklung. Im inneren Sonnensystem bildeten planetarische Embryonen die terrestrischen Planeten und verringerten in Kombination mit den Gravitationsstörungen der Riesenplaneten die Restpopulation der Planetesimalen. Im äußeren Sonnensystem durchliefen Riesenplaneten eine heftige, chaotische Phase der Orbitalneuordnung, die das späte schwere Bombardement verursachte. Dann machte die schnelle und heftige Entwicklung des jungen Sonnensystems Platz für die regelmäßigere säkulare Entwicklung des modernen Sonnensystems. Vesta, durch seine Verbindung mit HED-Meteoriten, und wahrscheinlich auch Ceres gehörten zu den ersten Körpern, die sich in der Geschichte des Sonnensystems bildeten. Hier diskutieren wir die Zeitskala ihrer Entstehung und Entwicklung und wie sie von ihrem Durchgang durch die verschiedenen Phasen der Geschichte des Sonnensystems beeinflusst worden wären, um einen Referenzrahmen zu ziehen, um die Daten zu interpretieren, die die Dawn-Mission über sie liefern wird .;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-4903-4_3 f5d571861aa1cff7f3f3ae37a4b1bc7f;de;;;1.2.;;;Folgen einer 150-jährigen Geschichte menschlicher Störungen in einigen Waldökosystemen Menschliche Störungen in Waldökosystemen haben in den meisten Ländern der Welt eine lange Geschichte. Schon bevor der Bedarf an Ackerland stieg, diente der Wald als Nahrungsgrundlage für Brenn- und Nutzholz, Obst, Wildtiere und andere Produkte. In Mitteleuropa wurden im Laufe der Jahrhunderte etwa zwei Drittel des Landes – überwiegend die für die Landwirtschaft besser geeigneten Flächen, aber auch Flächen in der Nähe von Industrie- und Stadtgebieten – abgeholzt und in den verbliebenen Wäldern auch eine extensive Nutzung vorgenommen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-78972-4_15 2ca285613fc840bc668448363dfc8cac;de;;;1.2.;;;Der natürliche Verlauf und die Klassifikation der diabetischen Retinopathie Der Verlust des Sehvermögens aufgrund von Retinopathie ist die diabetische Komplikation, die am ehesten Trübsinn und Verzweiflung verursacht, während sie eine funktionierende Person in einen Invaliden verwandelt. Die als dauerabhängig anerkannte diabetische Retinopathie hat viele Klassifikationen, die versuchten, verschiedene ophthalmoskopische Befunde und einen variablen klinischen Verlauf zu verstehen. Aktualisiert wird hier die ursprünglich 1981 entwickelte VAHEX-Klassifikation. Die Abkürzung steht für die Stadien der nichtproliferativen diabetischen Nephropathie (V, venöse Dilatation, A, Mikroaneurysmabildung, H hämorrhagische Aktivität, E, Netzhautödem, × Exsudatbildung). Die proliferative diabetische Retinopathie wird nach dem Ausmaß der vitreoretinalen Neovaskularisation, der Gliaproliferation und der vitreoretinalen Traktion eingestuft. Durch den Vergleich der Netzhautfotos von Patienten mit einer Reihe von Referenzfotos können die Kategorie und der Schweregrad der Retinopathie für Untersuchungs- und Prognosezwecke zugeordnet werden. Die universelle Anwendung reproduzierbarer Kriterien zur Klassifikation des diabetischen Auges erleichtert die Erprobung von Therapieschemata wie panretinaler Photokoagulation, Aspirin und Thrombozytenaggregationshemmern. Letztendlich sollte die Fähigkeit zur Kategorisierung und Sortierung von Augenerkrankungen bei Diabetikern eine Erklärung für eine noch unklare Pathogenese liefern, die zu einer definitiven Therapie führt, die weniger schädlich ist als die Laser-Photokoagulation.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4962-4_9 76b463866c2b56adb73940b1d40dc448;de;;;1.2.;;;La Cuisine Française In einem früheren Kapitel lesen wir „la nourriture isole les Français du reste du monde presque autant que leur langue“. Der Grund für diese Isolation sei die Unfähigkeit der Franzosen gewesen, die ausländische Küche zu schätzen. Wenn dies wahr ist, ist es ein Fehler, der großzügig entschuldigt werden könnte, wenn man bedenkt, wie viel Freude die französische Küche dem Rest der Welt bereitet. Zweifellos gibt es viele Länder, deren Küche es nicht wert wäre, in einem solchen Buch und in einem Abschnitt über Aspekte der nationalen Kultur erwähnt zu werden. Die französische Küche ist jedoch ein zentraler Bestandteil der französischen Kultur, und die ausgewählten Artikel vermitteln etwas von der Ehrfurcht und Bewunderung, die dieser besonderen Kunst vorbehalten sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-81220-2_13 5dc8fa15a70ec3b338bad1e56748f78e;de;;;1.2.;;;Historische Entwicklung der Bauchdeckenstraffung Muskelhernie, Fettleibigkeit, Lipodystrophie, Schlaffheit verschiedener Ätiologie der Bauchdecke (z. B. Mehrlingsschwangerschaften) und andere Gründe in geringerer Häufigkeit sind seit den letzten Jahren des 19. Jahrhunderts die Indikationen für eine Bauchdeckenstraffung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27851-3_26 f3ee38689285334116d9d47c60d6cc99;de;;;1.2.;;;Einfluss mono- und multivalenter Kationen auf die elektrokinetischen Eigenschaften normaler humaner Lymph- und Burkitt-Lymphomzellen Verschiedene ein- und mehrwertige Kationen beeinflussten bei konstanter Ionenstärke die elektrokinetischen Oberflächeneigenschaften normaler menschlicher Lymphoid- und Burkitt-Lymphomzellen in einer Weise, die mehr die physikalisch-chemischen Eigenschaften und Bindungsaffinitäten des Kations als seine Wertigkeit widerspiegelte. Der Effekt drückte sich in den Änderungen der Größe der Nettooberflächenladung und in der Verschiebung des isoelektrischen Punktes der Oberfläche aus. Diese Veränderungen waren an der Oberfläche der Burkitt-Lymphomzellen größer als an der Oberfläche ihrer normalen Zelllinien-Gegenstücke.;-;-;-;https://link.springer.com/article/10.1007/BF01940809 349d727610317343aa3da662904b71a8;de;;;1.2.;;;Das Verhältnis von Militär- und Ziviltechnik: eine historische Perspektive Unser Verständnis der Beziehung zwischen militärischer und ziviler Technologie wird durch den Mangel an Beweisen und entschuldigenden Argumenten verdorben. In diesem Aufsatz schlage ich vor, dass es gute historische Gründe für diesen bedauerlichen Zustand gibt. Das vorherrschende Technologiebild im Westen ist stark von liberalem Denken geprägt. Obwohl sich das liberale Denken seit dem 19. Jahrhundert in vielerlei Hinsicht gewandelt hat, ist es der zunehmenden Bedeutung der Militärtechnologie und ihrem Platz in der Wirtschaft nicht gerecht geworden. Die liberale Position des neunzehnten Jahrhunderts war, dass die Militärtechnologie korrupt war, während des Zweiten Weltkriegs die Ansicht, dass;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-7803-5_7 8d4f3040263edc4d57188be1365047a4;de;;;1.2.;;;Lebensgeschichte-Strategien von Rädertierchen Die Strategie der Lebensgeschichte hängt vom Konflikt zwischen unterschiedlichen Stoffwechselanforderungen des Organismus und den biotischen und abiotischen Bedingungen der Umwelt ab. Abiotische Situationen ändern sich oft sehr schnell und behindern die stabile Anpassung von Steady-State-Phasen (Kap. 7.2). Der Einfluss von nur drei, aber einer der wichtigsten abiotischen Parameter wird hier untersucht. Das Verhältnis von Organismen zu biotischen Parametern lässt sich besser vorhersagen. Organismen mit geringem Energiebedarf haben Vorteile in Umgebungen mit geringen Nahrungskonzentrationen. Andererseits geraten sie leicht unter die Kontrolle eines Raubtiers („Top-Down“-Kontrolle in der bekannten Energiepyramide). Andere Organismen mit einem höheren Energiestoffwechsel benötigen ein größeres Nahrungsangebot und werden bei niedrigeren Konzentrationen verdrängt. Sie lassen sich leicht durch „bottom-up“-Faktoren steuern. Andererseits sind sie aufgrund ihrer hohen kinetischen Eigenschaften ihres Stoffwechsels in der Lage, „top-down“-Kontrollen durch Raubtiere zu vermeiden. Beide Typen repräsentieren die Extreme verschiedener Strategien, die bis zu einem hohen r selected ausgewählt wurden;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-77804-9_16 aaa1d7e97360fb2a6a6c831253baf9a4;de;;;1.2.;;;Geschichte der Aufzeichnung des evozierten Potenzials beim Menschen Im Jahr 1875 fand Richard Caton an der Royal Infirmary School of Medicine in Liverpool bei der Suche nach dem zerebralen Gegenstück des Aktionspotentials von du Bois-Reymond im Nerven nicht nur es, sondern bemerkte auch bei einer bipolaren Aufzeichnung mit einem Thomson-Galvanometer aus der Großhirnrinde bei Tieren dass es ein kontinuierliches Zu- und Abnehmen der zerebralen Potenziale gab;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-4431-2_3 84008091bf8a7c642fa4901194c3bb07;de;;;1.2.;;;„Islam und Frau: Wo Tradition auf Moderne trifft“: Geschichte und Interpretationen des Status islamischer Frauen Der Status islamischer Frauen variiert in verschiedenen muslimischen Ländern, die islamische Religion und Recht unterschiedlich interpretieren, insbesondere im Hinblick auf ihre Einstellung gegenüber Frauen. Die meisten dieser islamischen Länder haben spezifische Ansichten über Frauen und unterliegen Einschränkungen. Geschlechterstereotype islamischer Frauen haben ihren Ursprung in der Entwicklung der muslimischen Religion. Dies ist vergleichbar mit der frühen Entwicklung vieler anderer Religionen und wie sich die Geschlechterstereotypen von Frauen mit der Entwicklung dieser Religionen entwickelten. Dieser Aufsatz beschreibt die Bedeutung des Muslimseins und die Lehre des Korans, die aus den Offenbarungen an Mohammed, den Gründer und Propheten des Islam um 610 n. Chr. einschließlich der vollen religiösen Verantwortung. Obwohl die Beschränkungen für Frauen noch galten, war ihre Behandlung viel günstiger als nach Mohammeds Tod. Die Bedingungen für Frauen unter Mohammeds Nachfolgern wurden schlechter. Einstellungen und Wahrnehmungen über Frauen waren noch negativer. Frauen wurden isoliert, abgeschieden, gezwungen, zu Hause zu beten – nicht in der Moschee, und Ausgrenzung wurde praktiziert. Frauen wurden im Wesentlichen aus den meisten Bereichen der Gesellschaft entfernt. Die Verschleierung von Frauen beinhaltete das Bedecken bestimmter Körperteile, um zu verhindern, dass Männer verführt werden. Der Status der Frauen nahm rapide ab und alle Freiheiten, die sie besaßen, wurden im Wesentlichen abgeschafft. Und als sich der Islam im Laufe der Jahrhunderte verbreitete, wurden diese Einschränkungen und Praktiken von den meisten, wenn nicht allen muslimischen Ländern übernommen, geändert oder extremer gemacht und haben sich bis in die heutige Zeit fortgesetzt. Der aktuelle Status von Frauen in islamischen Ländern wird ebenso beschrieben wie die derzeit intensivierten Diskussionen und Debatten über Frauen. In einigen Bundesstaaten wurden Gesetzentwürfe und Gesetze verabschiedet, um die Bedingungen von Frauen zu verbessern, aber einige wurden bereits widerrufen. In anderen Ländern wurden neue Beschränkungen vorgeschlagen. Trotzdem kämpfen islamische Frauen und Frauengruppen weiter für ihre Rechte. Dieser Kampf, inmitten der anhaltenden Unruhen im Nahen Osten und der Zunahme fundamentalistischer Gruppen, hat leider dazu geführt, dass das endgültige Ergebnis für die Frauen noch nicht entschieden ist.;-;-;-;https://link.springer.com/article/10.1023/B%3ASERS.0000046610.16101.e0 9084ff9e81be18f1c5559c8f5936e84f;de;;;1.2.;;;Nebenschilddrüsenkarzinom Das Nebenschilddrüsenkarzinom macht 1 % der Fälle von Hyperparathyreoidismus aus, betrifft Männer und Frauen gleichermaßen und tritt in einem weiten Altersbereich auf, obwohl die meisten Patienten zwischen Mitte 40 und Mitte 50 sind. Symptome sind Polyurie, Polydipsie, Nephrolithiasis, Müdigkeit, Übelkeit, Knochenerkrankungen und eine tastbare Nackenmasse. Das Serumkalzium ist oft deutlich erhöht (13,2–15,5 mg/dl), ebenso wie das Parathormon (PTH) und die alkalische Phosphatase. Die meisten Karzinome treten sporadisch auf, können aber beim Hyperparathyreoidismus-Kiefertumor-Syndrom (HP-JT) und beim familiären isolierten Hyperparathyreoidismus (FIH) auftreten. FIH, eine autosomal-dominante Erkrankung, die mit;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4939-0443-3_17 e039efe18f19a05f663a39746653665d;de;;;1.2.;;;Bedeutung der Kristallisation von Nebenelementen für die Abkühlungsgeschichte von Weißen Zwergen Die Kristallisationsdiagramme beliebiger binärer Ionengemische, die für das Innere dichter, entarteter Sterne charakteristisch sind, werden als Funktion des Ladungsverhältnisses untersucht;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-2020-3_16 8c3eb9ce1852cc00e59d0000ebf18108;de;;;1.2.;;;Historische ENSO-Televerbindungen in der östlichen Hemisphäre Die Untersuchung instrumenteller Daten, die in den letzten hundert Jahren gesammelt wurden, zeigt, dass Niederschlagsschwankungen in verschiedenen Teilen der östlichen Hemisphäre mit dem Phänomen El Niño-Southern Oscillation (ENSO) in Verbindung stehen. Mit Proxy-Niederschlagsdatensätzen aus Indonesien, Afrika, Nordchina und einer Chronologie von Dürren aus Indien untersuchen wir das Auftreten von ENSO-bedingten Überschwemmungen und Dürren in den letzten fünfhundert Jahren. Das Ziel dieser Arbeit ist es, die Stabilität des Musters der ENSO-Televerbindungen über diesen längeren Zeitraum zu untersuchen und alle Änderungen des ENSO-Verhaltens aufzuzeigen, die für die Einschätzung seines zukünftigen Verhaltens relevant sein könnten, wie z .;-;-;-;https://link.springer.com/article/10.1007/BF01104135 dea6146dbdeda2acb31e3bbde469ed6f;de;;;1.2.;;;Analyse historischer Landschaftsmuster mit einem Geographischen Informationssystem – ein methodischer Überblick Bewertet werden verschiedene Methoden zur Speicherung, Abfrage und Analyse historischer Landnutzungsaufzeichnungen mittels elektronischer Datenverarbeitung. Veranschaulicht werden die Verfahren mit Daten aus einer Pilotstudie im Mittelland, die Teil eines umfassenderen landschaftshistorischen Monitoringprogramms der Eidgenössischen Forschungsanstalt für Wald, Schnee und Landschaft ist. Die Landnutzungsmatrix wurde aus topografischen Karten, Luftbildern und anderen Landnutzungsaufzeichnungen abgeleitet und umfasst etwa 100 Jahre mit einem Aktualisierungszyklus von 7 bis 20 Jahren. Es wurde eine spezielle Technik entwickelt, um Serien digitaler Karten zu generieren und die Datenschichten verschiedener Zeitschritte zu überlagern. Jedes Landschaftselement wird mit zeitgestempelten Attributen beschrieben, um den Zugriff auf die gesamte „Lebensgeschichte“ von jedem Punkt in Raum und Zeit aus zu gewährleisten. Das vorgeschlagene Datenmodell erwies sich als leistungsfähiges Werkzeug für die routinemäßige Aktualisierung digitaler Karten. Es kann sowohl von Praktikern als auch von Wissenschaftlern verwendet werden, die mit geografischen Informationssystemen (ARC/INFO oder ähnliches Paket) arbeiten. Mit diesem Verfahren können schnell Störungskarten über eine beliebige Anzahl verfügbarer Aktualisierungen erstellt werden, die es dem Benutzer ermöglichen, Zonen mit ähnlicher Abbau- oder Aufwertungstendenz zu identifizieren. Die Verfahren zur Analyse sich ändernder Landschaftsstrukturen umfassen die Berechnung informationstheoretischer Indizes (Diversität, Dominanz), die Berechnung von Fraktalen, die Kantenanalyse sowie die Landschaftsbewertung entlang zufälliger Traversen. Letzteres erwies sich als besonders leistungsfähig, wo Barrieren-/Lebensraumhäufigkeiten ausgewertet wurden. Auf Basis aller berechneten Parameter scheinen die Landschaftsstrukturen auf der Untersuchungsfläche in den 1930er Jahren ökologisch am günstigsten zu sein, gefolgt von einer starken Degradation im Zweiten Weltkrieg - und in der Nachkriegszeit. Entgegen vieler Hypothesen waren die Landschaftsstrukturen in der zweiten Hälfte des 19. Jahrhunderts strukturell ungünstiger als zwischen 1900 und 1930.;-;-;-;https://link.springer.com/article/10.1007/BF00141590 df21430c6bfbf57e1103b3355772e70f;de;;;1.2.;;;Geschichte und aktuelle Perspektiven des integrierten Pflanzenschutzes von Sojabohnen in Brasilien Das in Brasilien entwickelte und umgesetzte integrierte Schädlingsmanagement (IPM) von Soja war eines der erfolgreichsten Schädlingsbekämpfungsprogramme weltweit. Es wurde in den 1970er Jahren gegründet und zeigte eine enorme Akzeptanz durch die Züchter und verringerte den Einsatz von Insektiziden um über 50%. Es umfasste herausragende Ansätze zur Erkundung und Entscheidungsfindung im Feld unter Berücksichtigung der wirtschaftlichen Schadensschwellen (EILs) für die wichtigsten Schädlinge. Zwei wichtige biologische Bekämpfungsprogramme waren zur Unterstützung des Sojabohnen-IPM-Programms in Brasilien sehr wichtig, d. h. die Verwendung eines NPVAg zur Bekämpfung des Hauptentlaubers, der Samtbohnenraupe;-;-;-;https://link.springer.com/article/10.1007/s13744-013-0111-y a35825cf9963661b83380ce8753d4096;de;;;1.2.;;;Über Geschichte - Aus der Vogelperspektive Die Geschichte der Astronomie ist das Wachstum der Vorstellung des Menschen von seiner Welt, der Quelle und der Essenz seines Lebens. In der Antike und in den folgenden Jahrhunderten war die Astronomie bereits eine hochentwickelte Wissenschaft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68225-7_12 aff5179a14d60a1266148401ed0b5762;de;;;1.2.;;;Zur Vegetations- und Siedlungsgeschichte der südlichen Küstenregion Dobrudza, Nordostbulgarien: Ein Pollendiagramm aus dem Durankulak .-See Die palynologische Untersuchung und Radiokarbon-Datierung eines 6-m-Kerns aus dem See Durankulak im Nordosten Bulgariens ermöglicht die Vegetationsentwicklung und die menschliche Besiedlung von ca. 5500–5300 Kal. v. Chr. weiter verfolgt werden. Steppenvegetation, die mit Laubbaumhainen wie;-;-;-;https://link.springer.com/article/10.1007/BF01374002 a987c3277108d82769c2f2eb40dda400;de;;;1.2.;;;ProToc – eine universelle Sprache für Sicherheitsprotokollspezifikationen Dieses Dokument zeigt eine neue Sprache für Sicherheitsprotokollspezifikationen. Zunächst stellen wir andere Spezifikationssprachen vor. Was die Verwendung betrifft, werden Common Language und ihre Einschränkungen vorgestellt. Dann wird die CAPSL-Sprache gezeigt und innerhalb des AVISPA-Projekts HLPSL-Sprache eingeführt. Das Papier endet mit dem ursprünglichen Ansatz für Protokollspezifikationen, einer neuen ProToc-Sprache, sowie deren Grammatik und Beispielen für Protokollspezifikationen in der Sprache. ProToc wurde als Spezifikationssprache für das Werkzeug zur automatischen Verifikation von Concurrent-Systemen VerICS verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-15147-2_20 7c2df29c47a89953e7efdd3368f84602;de;;;1.2.;;;Auf dem Weg zu verlustarmen Lichtwellenschaltungen für nicht-klassische Optiken bei 800 und 1.550 nm Wir überprüfen die jüngsten Fortschritte bei integrierten quantenoptischen Technologien mit besonderem Schwerpunkt auf der Femtosekundenlaser-Direktschreibtechnik. Wir präsentieren eine vergleichende Studie der Verarbeitungsfenster, die verlustarme Wellenleiter in zwei Gläsern produzieren, Schott AF-45 und Corning Eagle-2000. Wir berichten über die Verluste bei den Wellenlängen 800 und 1.550 nm, den beiden kritischsten Wellenlängen für die Quanteninformationswissenschaft. Wir finden, dass die Eisenabsorption in Eagle-2000 der limitierende Faktor für Ausbreitungsverluste ist, was darauf hindeutet, dass niedrige Fe;-;-;-;https://link.springer.com/article/10.1007/s00339-013-8090-8 63df4328b22d21b93ffec341a44f482d;de;;;1.2.;;;Das Neunbinden-Gürteltier Die Ordnung Edentata (Xenarthra), die „zahnlosen“ Säugetiere, besteht nur aus drei Familien: Gürteltieren, Faultieren und Ameisenbären. Edentata blühte im unteren Tertiäralter (30 MYA), aber nur diese drei Gattungen haben überlebt. Bis vor kurzem gab es eine Reihe von Arten mit und ohne Zähne, die auf Südamerika beschränkt waren. Im letzten Jahrhundert haben sie sich in die warmen Gebiete Mittelamerikas, Mexikos und im Südosten der Vereinigten Staaten ausgebreitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-9768-8_15 a7c653c889a98df50722739e6fe00b43;de;;;1.2.;;;Raubtierinduzierte Plastizität in der frühen Lebensgeschichte und Morphologie bei zwei Anuranamphibien Der Prädationsdruck in den frühen Lebensstadien ist oft hoch, aber nur wenige Studien haben die Reaktionen von Antiprädatoren in diesen Stadien untersucht. Wir untersuchten die Auswirkungen eines Ei-Raubtiers (Egel,;-;-;-;https://link.springer.com/article/10.1007/s00442-002-0984-7 13642eb5a9fad23fc94f033aabccdfe9;de;;;1.2.;;;Heterogenität der Verformung unter dynamischer Belastung: Einfluss einer lokalen Vordehnung in Kupfer Dynamische Zugversuche wurden an Kupferproben mit einer lokalen Vordehnung durchgeführt, deren Niveau zwischen 0 und 15 % liegt. Unter Verwendung einer Hochgeschwindigkeits-Streak-Kameratechnik wird die Entwicklung der Dehnung in jedem Abschnitt der Probe gegen die Zeit bestimmt. Die Ausbreitung der plastischen Dehnungsfront entlang der Probe wird untersucht und der Einfluss des anfänglichen Defekts wird analysiert und diskutiert, um die induzierten Verformungsheterogenitäten aufzuzeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82767-9_17 0f7c452288f8436839863bdb44ac4156;de;;;1.2.;;;Zufallszahlen: Der Bedarf, die Geschichte, die Generatoren Heute spielen Simulations- und Monte-Carlo-Studien in praktisch allen Bereichen der menschlichen Arbeit eine wichtige und immer wichtigere Rolle, und solche Studien benötigen oft viel Computerzeit. Fast jede dieser Studien erfordert für ihre Durchführung eine Quelle von Zufallszahlen (d. h. Zahlen, die als unabhängige, einheitliche Zufallsvariablen im Bereich von 0,0 bis 1,0 erscheinen). Historisch gesehen haben Statistiker auf verschiedene Weise versucht, qualitativ hochwertige Zufallszahlen quantitativ bereitzustellen, wobei die heutzutage am häufigsten über numerische Algorithmen erfolgt, die in einem digitalen Computer ausgeführt werden. Statistische Tests können (obwohl dies noch nicht geschehen ist) diese Algorithmen nach Geschwindigkeit und Güte einstufen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-1845-6_3 d9c5d50a583475c7040c48f5e4757bb2;de;;;1.2.;;;ARM – ein historischer Überblick Anorektale Malformationen (ARM) sind relativ häufig auftretende Anomalien, die einen wichtigen Bestandteil der kinderchirurgischen Praxis darstellen. Viele in unserem Beruf haben ein großes Interesse am Management der zahlreichen ARM-Varianten, die sowohl Jungen als auch Mädchen betreffen. Dieses Kapitel wird versuchen, den Leser durch einen historischen Überblick über diese faszinierenden Anomalien von den frühesten Tagen bis zur heutigen Zeit auf den neuesten Stand zu bringen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-31751-7_1 aa277b1f37b60f2ab42997f0946cff99;de;;;1.2.;;;Ein Massaker erzählen: Das Schreiben von Geschichte und Emotionen als Reaktion auf die Schlacht von Nikopolis (1396) Das Massaker an französischen Kreuzfahrern in Nikopolis (1396) war ein traumatisches Erlebnis für das angeschlagene Königreich Frankreich. In diesem Beitrag werde ich die emotionale Darstellung der Schlacht in drei Texten untersuchen: die anonyme;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-60669-9_10 d9e67ed43bd9589d1a5758e569ff7a3c;de;;;1.2.;;;Quartäre Stratigraphie und Entwicklungsgeschichte der zentralrussischen Periglazial-Loessal-Provinz Als Ergebnis komplexer Untersuchungen in der zentralrussischen Lössalprovinz wurden detaillierte lithologische, geochemische, paläopedologische und paläontologische Merkmale der jungen Lagerstätten der Stratotyp-Sektion Mikhailovka erhalten. Sie bilden die Grundlage für die faziegene Differenzierung, Stratifizierung und Korrelation bestimmter Horizonte, die chronologisch durch paläopedologische und paläontologische Daten mit der geologischen Skala des Neopleistozäns koordiniert werden. Die Löss-Boden-Sequenzen, die den Klimatolithen des unteren, mittleren und oberen Neopleistozäns entsprechen, werden ermittelt und charakterisiert. In der dynamischen Geschichte der zentralrussischen periglazialen Lössalprovinz werden dreizehn paläogeographische Phasen natürlich-klimatischer Veränderungen (sieben warme Zwischeneiszeiten und Zwischenstadien, sechs kalte Epochen im Wechsel mit ihnen) offenbart. Es wird eine rhythmische klimatische Begründung für die stratigraphische Aufteilung rezenter Sedimente in der untersuchten Region geliefert.;-;-;-;https://link.springer.com/article/10.1134/S0869593817040025 bf25c09fa8d633bf09a919745ff00e98;de;;;1.2.;;;Entstehungsgeschichte und praktische Umsetzung des Konzepts des gekoppelten Reaktors Die Entstehungsgeschichte und praktische Umsetzung des Konzepts der gekoppelten Reaktoranlagen, das im Bereich der aperiodischen Pulsreaktoren verwirklicht wurde, wird zurückverfolgt. Es wird gezeigt, dass die Anwendung des Konzepts gekoppelter Reaktoranlagen die Möglichkeiten der an Reaktoren durchgeführten Experimente erheblich erweitert.;-;-;-;https://link.springer.com/article/10.1134/S1063778818080197 586822745a887e79d1ba1fa6b44300d1;de;;;1.2.;;;Förderung in mehreren Stadien der Lebensgeschichte: Beweise für nukleierte Abfolge in Küstendünen Das Verständnis von Pflanzeninteraktionen während der Sukzession ist ein zentrales Ziel der Pflanzenökologie. Das Nukleationsmodell der Sukzession schlägt vor, dass fördernde Interaktionen zu einer Ausstrahlung der Kolonisation von etablierten Pflanzen nach außen führen. Ich testete die Keimbildungshypothese für frühe Sukzessionspflanzen auf den Primärdünen von Barriereinseln im Südosten der Vereinigten Staaten. An der Küste von Florida und Georgia habe ich die oberirdische Vegetation und die Samenbank beprobt und ein Setzling-Auflaufexperiment im Feld durchgeführt. Vegetationsproben an beiden Feldstandorten zeigten positivere Korrelationen in der prozentualen Bedeckung der adulten Arten als zufällig erwartet. An beiden Standorten befanden sich signifikant mehr Samen unter Pflanzen als in offenen Microsites. Samen der gleichen Art wie die adulten Pflanzen in den bewachsenen Microsites wurden aus der Analyse entfernt, so dass die Ansammlung von Samen unter adulten Pflanzen nicht einfach auf einen Samenschatteneffekt zurückzuführen ist. Samen von sechs Arten wurden zu Parzellen unter Pflanzen und in offenen Mikrostandorten hinzugefügt, und das Auflaufen der Sämlinge war unter Pflanzen signifikant höher als im Freien. Die Ergebnisse unterstützen die Vorhersagen der Keimbildungshypothese für die frühen Stadien der Samenausbreitung und -keimung und helfen, die verklumpte Verteilung von Dünenpflanzen im Feld zu erklären. Die Ergebnisse untermauern die Behauptung, dass die Erleichterung ein wichtiger Modus der Pflanzeninteraktion in stressigen und gestörten Lebensräumen ist.;-;-;-;https://link.springer.com/article/10.1023/A%3A1024426608966 a15345ffe813545350bf2010e62e2233;de;;;1.2.;;;Die Anwendung historischer Narrative im naturwissenschaftlichen Lernen: The Atlantic Cable Story Der Einsatz historischer Geschichten für den naturwissenschaftlichen Unterricht wird sowohl theoretisch als auch praktisch unterstützt. Dieser Aufsatz skizziert, wie die historisch basierte Geschichte effektiv im Klassenzimmer genutzt werden kann, und präsentiert zur Veranschaulichung die Geschichte von Lord Kelvins Rolle bei der Verlegung des ersten transatlantischen Kommunikationskabels im Zeitraum von 1857 bis 1866. Erwartet und die beobachteten Vorteile für den Unterricht, die sich aus diesem Ansatz ergeben, werden zusammengefasst. Der Aufsatz schließt mit einem Entwurf eines Forschungsprogramms, das die Entwicklung von historisch basierten Geschichten einschließt.;-;-;-;https://link.springer.com/article/10.1007/s11191-006-9026-x f47ac1d8d1e1a62091c91ee511b71876;de;;;1.2.;;;Geschichte der konstruktiven Typentheorie (1970–95) Die Geschichte der konstruktiven Typentheorie wird entlang von acht Parametern geschrieben, dh sie wird geschrieben, indem die historische Entwicklung von acht der wichtigsten Merkmale dieser Theorie verfolgt wird. Diese Parameter sind entweder verschiedene Arten von Regeln oder aber verschiedene allgemeinere Merkmale der Typentheorie.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-9393-9_3 4e40e2d3ab7dad230fd163af7b0d080d;de;;;1.2.;;;Einige historische Bemerkungen DER Computer ist ein Werkzeug, das die Kontrolle der räumlichen und zeitlichen Dimensionen einiger Ereignisfamilien ermöglicht. Die ersten großen Anwendungen der Informatik, insbesondere des Militärs, haben sich auf diese wesentliche Eigenschaft verlassen. Woher kommt diese Kapazität des Computers? Das Ziel dieses Beitrags ist es, diese Frage zu beantworten, indem die Beziehungen zwischen der Informatik und der Welt des Automatismus in den Vordergrund gestellt werden. Tatsächlich integriert der Computer zwei unterschiedliche Traditionen in Bezug auf die Kontrolle von Zeit und Raum: Regelungsautomatismus und Programmierung. Diese Synthese ist wahrscheinlich einer der Ursprünge der Leistungsfähigkeit des Computers.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-4328-9_2 96f731c51b497c6cd0e8503ac23a6a03;de;;;1.2.;;;Strategien zur Lebensgeschichte von Mündungsnekton: Die Rolle von Sumpfmakrophyten, benthischen Mikroalgen und Phytoplankton im trophischen Spektrum Die stabilen Isotopensignaturen von marinem transientem und residentem Nekton wurden verwendet, um trophische Verbindungen zwischen Primärproduzenten, Sumpfmakrophyten, Phytoplankton, benthischen Mikroalgen und Konsumenten in der Delaware Bay zu untersuchen. Ein gesamter Mündungsansatz wurde verwendet, um den Nährstofffluss von Primärproduzenten zu juvenilen schwachen Fischen zu vergleichen (;-;-;-;https://link.springer.com/article/10.1007/BF02823730 0a34938ea18f6eaf16f1acff17e268db;de;;;1.2.;;;Lithium – Geschichte und Pharmakologie Lithium ist seit 167 Jahren bekannt, wird aber erst seit 35 Jahren in der modernen psychiatrischen Therapie eingesetzt. Das Metall wurde 1817 von Johann Auguste Arfwedson entdeckt, als er für den berühmten schwedischen Chemiker Baron Jons Jakob Berzelius arbeitete. Sie analysierten das Mineral Petalit, das zu Beginn dieses Jahrhunderts von dem Brasilianer Jose Bonifacio de Andrada e Silva entdeckt wurde. Arfwedson konnte zunächst etwa 4% einer Petalitprobe von der Insel Uto nicht identifizieren. Durch Änderung seiner Analysemethode erhielt er ein Salz, das eine geringe Löslichkeit aufwies. Dies stellte sich als Karbonat heraus, und er kam zu dem Schluss, dass es sich um das Salz eines unbekannten Metalls handelte. Berzelius schlug den Namen Lithion vor, da es in einem Gestein gefunden wurde. 1801 hatte Louis Nicolas Vauquelin Spodumen analysiert und die Existenz einer weiteren Komponente vorhergesagt, da er nicht in der Lage war, 10 % der Zusammensetzung des Minerals zu erklären. Arfwedson zeigte anschließend, dass Lithium in Spodumen und Lepidolith vorhanden ist, beides Mineralerze.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-2016-4_1 7e19cd1f18fbbe846a8a8a7058aafc11;de;;;1.2.;;;Analyse von Ereignishistorien Ereignishistorien werden durch sogenannte Ausfallzeitprozesse erzeugt und haben folgende Form. Die abhängige Variable – zum Beispiel ein sozialer Zustand – ist diskret oder kontinuierlich. Im Laufe der Zeit entwickelt es sich wie folgt. Für endliche Zeiträume (von einem Kalenderdatum zum anderen) bleibt er konstant auf einem bestimmten Wert. Zu einem späteren Zeitpunkt, bei dem es sich um eine Zufallsvariable handelt, springt die abhängige Variable auf einen neuen Wert. Der Prozess entwickelt sich auf diese Weise vom Kalenderdatum, an dem eine Änderung auftritt, zu einem späteren Datum, an dem eine weitere Änderung eintritt. Zwischen den Änderungsdaten bleibt die abhängige Variable konstant.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-1292-3_9 726e18fc8ce190611d1909fbb49f90b6;de;;;1.2.;;;Ablagerungen von historischen und Paläotsunamis an der Küste von Ost-Primorye An der Küste der östlichen Primorje wurden erstmals Ablagerungen identifiziert, die Tsunamis von Erdbeben im Boden des Japanischen Meeres hinterlassen haben. Es werden Daten zu den definierten Küstenzonen von Plastun Bay bis Peschanaya Bay, Ol’ga Bay und von Valentin Bay bis Proselochnaya Bay präsentiert. Historische und spätholozäne Paläotsunamis, deren Spuren in den Sektionen gefunden wurden, waren vermutlich die größeren Ereignisse als bekannte Tsunamis des 20. Jahrhunderts. Die Korngrößenzusammensetzung der tsunamigen Ablagerungen wurde analysiert, deren Ähnlichkeit und Unterschied zu den anderen küstennahen Fazies festgestellt und die Herkunftsgebiete des Materials bestimmt. Ermittelt wurden das Alter der Ereignisse, die Höhe der Wellenaufläufe und die Länge der Überschwemmungszonen an den Küstengebieten mit unterschiedlicher Geomorphologie. Die erhaltenen Daten können als erster Schritt zur Zusammenstellung einer geologischen Aufzeichnung von Tsunamis für das nordwestliche Japanische Meer dienen.;-;-;-;https://link.springer.com/article/10.1134/S1819714015010029 88e0a243455554b0c98781585b10305a;de;;;1.2.;;;Effiziente Algorithmen zur Verwaltung der Historie sich entwickelnder Datenbanken Wir schlagen eine neuartige Methode zur Darstellung sich entwickelnder Datenbanken durch „evolving set“ vor, die besonders nützlich ist, wenn wir daran interessiert sind, jeden vergangenen Zustand einer Datenbank zu rekonstruieren. Dieser theoretische Rahmen reduziert daher das Problem der Historienverwaltung von Datenbanken auf das Problem der effizienten Verwaltung der Historie einer sich in der Zeit entwickelnden Menge. Wir präsentieren einen dynamischen Algorithmus, der den Zustand der Menge zu einem bestimmten Zeitpunkt rekonstruiert;-;-;-;https://link.springer.com/chapter/10.1007/3-540-53507-1_75 8ede10a326883f20c2a91d99fe1df7f1;de;;;1.2.;;;Eine kurze Geschichte Es ist eine Binsenweisheit, dass die Polizeikräfte in jedem Land im Kontext und im Klima der politischen Bedingungen und der Stabilität dieses Landes operieren. Ihre Aufgabe der Durchsetzung von Recht und Ordnung wird unweigerlich durch soziale, wirtschaftliche und andere Umstände, die sich aus diesen Rahmenbedingungen ergeben, beeinflusst, sie muss in einer instabilen Situation zwangsläufig schwieriger sein. Wir halten es für wünschenswert, auf diesen offensichtlichen Punkt hinzuweisen angesichts der besonderen Schwierigkeiten, unter denen die Polizei in der Vergangenheit agierte, die in der Provinz auch in Zukunft bestehen können, die nicht von der Polizei selbst gemacht wurden und die ihre Aufgabe manchmal sowohl schwierig als auch geschmacklos.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-18557-3_5 b0c5cc580b7b3ab7b5aef2e99e4f3900;de;;;1.2.;;;Aphrodisiaka in Vergangenheit und Gegenwart: Ein historischer Rückblick Das Medikament Viagra (Sildenafil) hat die öffentliche Aufmerksamkeit auf Aphrodisiaka gelenkt. Die Suche nach solchen Substanzen reicht Jahrtausende zurück. Aphrodisiaka können nach ihrer Wirkungsweise in 3 Typen eingeteilt werden: solche, die (1) die Libido, (2) die Potenz oder (3) das sexuelle Vergnügen steigern. Verschiedene Substanzen tierischen und pflanzlichen Ursprungs wurden in der Volksmedizin verschiedener Kulturen verwendet, einige wurden pharmakologisch identifiziert, um ihre Wirkungsmechanismen zu verstehen. Zur Steigerung der Libido, Ambrein, ein Hauptbestandteil von;-;-;-;https://link.springer.com/article/10.1007/BF02332975 d9547318dd4aa240e9d26d25ca8d7611;de;;;1.2.;;;Critical Strain: Der Einfluss der Verarbeitungshistorie und damit verbundene Faktoren Da die mechanischen Eigenschaften von Kunststoffbauteilen stark von der Verarbeitungshistorie beeinflusst werden, ist es kaum verwunderlich, dass auch die untere Grenze der irreversiblen Schädigung, die durch eine gerade für eine kritische Dehnung ausreichende Belastung verursacht wird, stark von der Verarbeitungsvorgeschichte abhängt. Die beiden in Kapitel 17 aufgeführten Beispiele zeigen die Ergebnisse, die bei der Prüfung an Luft sowie nach dem Eintauchen in ein bestimmtes aggressives Medium erhalten wurden. Tests in aggressiven Medien geben einen sofortigen Hinweis auf die während der Schmelzverarbeitung induzierten Veränderungen, und diese Veränderungen können als kritische Dehnung ausgedrückt werden. Dies impliziert, dass die kritische Dehnung kein eindeutiger Wert ist, sondern von einer Reihe von Faktoren abhängt. So gesehen ist eine Prüfung in einem aggressiven Medium nicht nur die sichtbare Folge des Vorhandenseins von Eigenspannungen, sondern auch eine eigenständige Festigkeitsbestimmung. Nachdem einmal standardisierte Referenzdaten zum Verhalten einer isotropen Probe in einem aggressiven Medium erhalten wurden, ist es sofort möglich, den Grad der Anisotropie und das Vorhandensein von Inhomogenitäten im Allgemeinen zu beurteilen. Wir betrachten die kritische Dehnung nicht mehr als materialspezifischen Parameter basierend auf einer hypothetischen intrinsischen Struktur, sondern beginnen, Defekte und lokalisierte Schwächen im Sinne von Griffiths zu analysieren. Tatsächlich beginnen wir, Fehler in der Volumenstruktur als Funktion der Variablen, die bei der Schmelzverarbeitung beteiligt sind, und als Funktion der Variablen, die bei der Nachbearbeitung von glasartigen Polymeren beteiligt sind, zu bestimmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-9666-9_18 658e74b3c3b115ac0e13cddc7fe78c7b;de;;;1.2.;;;Geschichte der rektalen Medikamente und ihre Indikation bei Herz-Kreislauf-Erkrankungen Die Geschichte der Rektumtherapie, der Resorptionsweg und die angewandten Methoden werden ausführlich diskutiert und die Indikationen für eine solche Therapie aufgezeigt.;-;-;-;https://link.springer.com/article/10.1007/BF03004936 9f74af8b27338c5f4f1a1e99e71b7684;de;;;1.2.;;;Klinische Merkmale und Naturgeschichte der AMD unter OCT Trotz der jüngsten Fortschritte bleibt die altersbedingte Makuladegeneration (AMD) die Hauptursache für Sehverlust in Ländern mit hohem Einkommen, und ihre Inzidenz scheint zuzunehmen, wahrscheinlich aufgrund der längeren Lebensdauer und verbesserter Erkennungsmethoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01467-3_10 ec3d5d5886594170451eb138e50a88fb;de;;;1.2.;;;Lebensgeschichte Taktiken von Bodenmikroarthropoden Eine solide Grundlage für die Definition lebensgeschichtlicher Taktiken wurde durch die Überprüfung von lebensgeschichtlichen Merkmalen gewonnen. Dies beinhaltete eine Erklärung der ökologischen Implikationen von Thelytoky (automiktisch oder apomiktisch), Arrhenotoky, Amphitoky, sexueller Reproduktion, Semelparität, Iteroparität, saisonaler Iteroparität und der Beziehung zwischen Semelparität und juveniler Entwicklung. Es wurden verschiedene Formen der Synchronisation von Lebenszyklen mit Umweltbedingungen klassifiziert, von der Fähigkeit, raue saisonale Bedingungen zu überwinden, bis hin zur obligatorischen Diapausenruhe. Ökologisch geht es dabei um Anpassungen an Umweltbedingungen, die von unregelmäßig auftretenden und unvorhersehbaren Ereignissen bis hin zu regelmäßig auftretenden und vorhersehbaren Bedingungen reichen. Ausbreitungsmerkmale wurden als gerichtete Migration (Pharesie) und ungerichtete Migration (Anemochorie) gruppiert. Es wurde zwischen fakultativer und obligater Phoresie sowie zwischen trägerspezifischer und trägerunspezifischer Phoresie unterschieden. Es wurde ein mehrdimensionales Taktiksystem entworfen, das auf wohldefinierten und nicht abgeleiteten Merkmalen basiert. Dieses System wurde mit ein- und zweidimensionalen Schemata von MacArthur und Wilson (1967), Grime (1977) und Southwood (1977) sowie mit dem mehrdimensionalen System von Stearns (1976) verglichen. Für jede Taktik wurden Beziehungen zu den Hauptbiotopen, in denen sie vorkommt, definiert. Beispiele von Arten, die bestimmte Taktiken zeigen, wurden aus den taxonomischen Ordnungen der Mikroarthropoden ausgewählt. Es wurde die Allgemeingültigkeit der Merkmale für verschiedene Organismengruppen und die Klassifikation der entwickelten Taktiken zur Lebensgeschichte untersucht.;-;-;-;https://link.springer.com/article/10.1007/BF00570628 f64830b5ed185341026e68f195db946e;de;;;1.2.;;;Entwicklung, Lebensgeschichte und Bevölkerungsdynamik Die Lebensgeschichte eines jeden Tieres betrifft die verschiedenen Details seiner Fortpflanzung und Entwicklung. Dazu gehören Merkmale des Lebenszyklus, die als Merkmale der Lebensgeschichte bekannt sind, wie Größe bei der Geburt, Alter und Größe bei Reife, Langlebigkeit, Mortalität, Fruchtbarkeit, Anzahl und Geschlechterverhältnis der Nachkommen sowie die Reaktion dieser Variablen auf Faktoren wie wie Ernährung, Temperatur und Luftfeuchtigkeit. Die meisten dieser Merkmale der Lebensgeschichte stellen Schlüsselvariablen in der Demographie oder der Untersuchung von Populationen dar. Zusammengenommen werden diese Merkmale auf eine Weise ausgedrückt, die die evolutionäre Fitness beeinflusst, mit unvermeidlichen Kompromissen zwischen Reproduktion und Überleben. Eine gute Einführung in das Zusammenspiel dieser Faktoren in Bezug auf die Entwicklung bestimmter Lebensgeschichten bietet Stearns (1992).;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-2224-0_5 2da7f1d26b1e5b92ab5c327b30e0215e;de;;;1.2.;;;Bewertung der historischen Auswirkungen des Bergbaus und der Verhüttung auf die Schwermetallbelastung von Flusssystemen über einen Zeitraum von zwei Jahrzehnten Es wurde das am stärksten verschmutzte Flusssystem in Polen untersucht, das vom aktiven und historischen Bergbau beeinflusst wurde. Bodensediment, Schwebstoffe und Flusswasser wurden 2014 aus dem Fluss Przemsza und seinen Nebenflüssen gesammelt. Die Stichprobenpunkte blieben die gleichen, die in einer Studie von 1995 gewählt wurden. Dies ermöglichte den Vergleich der Schwermetallanreicherung im Bodensediment über einen Zeitraum von fast zwei Jahrzehnten. Es wurde der Schluss gezogen, dass das Wasser des Przemsza-Flusses und seiner Nebenflüsse stark belastet ist mit den folgenden (in μg/dm;-;-;-;https://link.springer.com/article/10.1007/s11270-017-3327-3 fb8c6b75bf73df9d8a6603df2add7e7f;de;;;1.2.;;;Alter und Zellverteilung der Peritonealflüssigkeit bei Frauen zwischen 20 und 40 Jahren years Zytologische Aspirationsproben von Peritonealflüssigkeit zeigten, dass die Mesothelzellanteile bei Frauen zwischen 26 und 35 Jahren signifikant um 19,2 % reduziert waren. Möglicherweise war die Mesothelzellerneuerung bei Frauen der älteren Altersgruppen vermindert.;-;-;-;https://link.springer.com/article/10.1007/BF01940810 a639236864e3007bd53fde355342c990;de;;;1.2.;;;Ein Gründermythos der Wissenschaftsgeschichte? Der Fall Lavoisier Die Geschichte der französischen Chemie wird von Lavoisier dominiert. Auch heute, zwei Jahrhunderte nach der berühmten Revolution in der Chemie, gilt er als unbestrittener Vater der modernen Chemie. Tatsächlich hat sein Name in den Köpfen von mehr als einem Studenten den aller anderen Chemiker in der Geschichte in den Schatten gestellt. Nichtsdestotrotz wurde sein privilegierter Status von mehreren Historikern des Themas in Frage gestellt. Insbesondere Maurice Daumas hat die Bedeutung von Lavoisier neu untersucht, indem er sein System im Lichte des Wissens seiner Zeit neu interpretiert und auf die kognitive Tradition aufmerksam gemacht hat, die Lavoisier bewahrt hat (1). In jüngerer Zeit hat die in Frankreich weithin bekannte Arbeit von H. Guerlac die Idee der radikalen Innovation gemildert, indem sie Lavoisiers Revolution als fruchtbare Wiedervereinigung zweier getrennter Trends in der Chemie präsentiert (2).;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-7035-9_3 577f4e18df0df51936e308f1c03a8e62;de;;;1.2.;;;Die Geschichte der Poly(butylenterephthalat)-Formharze Poly(butylenterephthalat) wird üblicherweise in Analogie zu PET, dem wohlbekannten faserbildenden thermoplastischen Polyester, als PBT bezeichnet. PBT ist wie PET ein lineares Kondensationspolymer auf Basis von Terephthalsäure, aber anstelle des in PET verwendeten Ethylenglykols verwendet PBT 1,4-Butandiol. Die eindeutigere Bezeichnung Poly (Tetramethylenterephthalat) oder PTMT hat sich nie durchgesetzt. vielleicht ein Hinweis auf die Macht der Drei-Buchstaben-Ketten im englischen Alphabet.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-7073-4_7 b89bea7676fb9ac072307c31364e09ce;de;;;1.2.;;;Statistische und historische Analysen von Nationen, die vom Größen-Dichte-Gesetz abweichen Wir untersuchen Nationen, die signifikant von der -2/3-Steigung der Größendichte abweichen, die zuvor für die aggregierten politischen Unterteilungen von 98 modernen Nationen beobachtet und zuvor aus der Theorie der Zeitminimierung abgeleitet wurde. Wir korrigieren Stephans ursprüngliche Liste abweichender Nationen, zeigen, dass alle Steigungen, die negativer als −2/3 sind, auf die fehlerhafte Aufnahme von Städten in die ursprünglichen Datensätze zurückzuführen sind, entwickeln eine Theorie, um die weniger negativen abweichenden Steigungen zu berücksichtigen, und testen die Theorie sowohl durch statistische Manipulation aktueller Daten als auch durch Analyse verfügbarer historischer Daten.;-;-;-;https://link.springer.com/article/10.2307/2061019 69a704fee7873e187b27bf9f7e25c00f;de;;;1.2.;;;Jordan Pi-Sigma Neural Network zur Temperaturvorhersage Diese Studie untersucht und analysiert die Verwendung eines neuen rekurrenten neuronalen Netzmodells: Jordan Pi-Sigma Network (JPSN) als Prognosewerkzeug. Die Fähigkeit von JPSN, zukünftige Temperaturtrends vorherzusagen, wurde getestet und mit der von Multilayer Perceptron (MLP) und dem standardmäßigen Pi-Sigma Neural Network (PSNN), trainiert mit dem Standard-Gradientenabstiegsalgorithmus, verglichen. Ein Satz historischer Temperaturmessungen des malaysischen Wetterdienstes über einen Zeitraum von fünf Jahren wurde als Eingabedaten verwendet, um die Netzwerke für die Vorhersage am nächsten Tag zu trainieren. Simulationsergebnisse zeigen, dass die JPSN-Prognose den MLP- und PSNN-Modellen bei geringerem Vorhersagefehler vergleichsweise überlegen ist und somit ein großes Potenzial in der Vorhersage der Temperaturmessung zeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20998-7_61 2a7037f01fc28d591d31fa2cd024d696;de;;;1.2.;;;Digitales Mondhöhenmodell und Höhenverteilungsmodell basierend auf Chang’E-1 LAM-Daten Mehr als 8,2 Millionen effektive Datenproben wurden mit dem Chang’E-1 Laser Altimeter (LAM) gewonnen. Um ein globales topographisches Modell des Mondes mit verbesserter Genauigkeit zu erstellen, wurde in dieser Arbeit eine hierarchische Many-Knot-Spline-Methode vorgeschlagen. Dieser Algorithmus verwendet eine Hierarchie von Steuergittern, um die LAM-Daten anzunähern oder zu interpolieren. Basierend auf dem vorgeschlagenen Algorithmus wurde ein 0,0625° × 0,0625°-Gitter des globalen Mond-DEM erhalten und mit ULCN2005-, CLTM-s01- bzw. Kaguya-Modellen verglichen. Gleichzeitig untersuchte diese Arbeit das Höhenverteilungsgesetz und etablierte das Höhenverteilungsmodell. Es wird gezeigt, dass die globale Mond- und Nearside-Höhenverteilung eine positiv schiefe und leptokurtische Normalverteilung ist und die fernseitige Höhenverteilung eine positiv schiefe und platykurtische Normalverteilung ist.;-;-;-;https://link.springer.com/article/10.1007/s11431-010-3180-8 92e9c401480b6551f7e56f224685990f;de;;;1.2.;;;Metallographie bei Testfehlern von Raumfahrzeugen Die Versagensart von Materialien von Raumfahrzeugen kann oft durch eine detaillierte Untersuchung der Bruchflächen beurteilt werden. Das Rasterelektronenmikroskop (REM) ist bei solchen Fehleruntersuchungen ein unschätzbares Werkzeug, da es sowohl die Schärfentiefe als auch die Vergrößerungen, die mit herkömmlichen Lichtmikroskopen erreichbar sind, erweitert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23362-8_5 0d502a46fb3d03cec497f0436fb36be8;de;;;1.2.;;;Zusammenhang zwischen Siedlungen und topografischen Faktoren: Ein Beispiel aus der Provinz Sichuan, China Gelände kann die räumliche Verteilung von Siedlungen beeinflussen. Studien zu den Geländeeigenschaften von Siedlungen können helfen, die Auswirkungen der Umwelt auf menschliche Aktivitäten zu verstehen. Dieser Beitrag bietet eine quantitative Analyse des Zusammenhangs zwischen Siedlungen und topographischen Faktoren. Eine statistisch signifikante Stichprobe von Wohnstandorten und ASTER GDEM V2 wurden verwendet, um Geländemerkmale und Siedlungsverteilungen zu untersuchen. Wir wählten acht topografische Faktoren aus und führten ein praktisches Konzept, die Verteilungsentropie, ein, um das Aggregationsausmaß der räumlichen Verteilung der Siedlungen zu beurteilen. Die Studie zeigte, dass die Topographie innerhalb des Untersuchungsgebiets variiert und die Verteilungsentropie darauf hindeutet, dass Siedlungen im statistischen Ansatz eine ausgeprägte Verteilungstendenz aufweisen. Nach den Ergebnissen dieser Studie siedeln sich Bergbewohner bevorzugt in Tälern an. Zusätzlich wurde mit der Verteilungsentropie die Wohneignung in drei Stufen unterteilt: geeignet, normal und ungeeignet. Die Ergebnisse zeigten, dass das geeignete Gebiet in der Provinz Sichuan klein ist und 8,2% bis 29,9% ausmacht, jedoch das ungeeignete Gebiet groß ist und 33% bis 63,3% ausmacht.;-;-;-;https://link.springer.com/article/10.1007/s11629-018-4863-z fa974a57835f0d7f0c80fc0601bb0f93;de;;;1.2.;;;Schwermetalle in Mykorrhiza-Rhizosphären, die durch den Abbau und die Verhüttung von Zn-Pb in der Umgebung von Olkusz in Südpolen kontaminiert sind Böden in Gebieten des Bergbaus und der Verhüttung von Pb-Zn-Erzen in Südpolen sind stark mit Schwermetallen (Zn, Pb, Fe, Cd, Tl, As) angereichert. Die höchsten Konzentrationen von Zn (<55.506 mg kg;-;-;-;https://link.springer.com/article/10.1007/s11270-008-9866-x e1052a131572bd55d1b11872795ee7d2;de;;;1.2.;;;Hormone des Hypophysenvorderlappens Ein Großteil der frühen Forschung zu Hypophysenvorderlappen wurde mit Extrakten aus tierischen Hypophysen und mit Tiermodellen zur spezifischen analytischen Bestimmung der Konzentrationen von Hypophysenvorderlappenhormonen im Serum, im Hypophysengewebe und in einigen Fällen durch Messung der Urinausscheidung durchgeführt , zum Beispiel für Hormone, die während der Schwangerschaft ausgeschieden werden. Für die Humantherapie stehen mittlerweile biosynthetische Hormonpräparate, für zahlreiche Tierarten auch artspezifische Hormonstandards zur Verfügung. Zum Verständnis der Entwicklung der endokrinen Forschung und des notwendigen, hilfreichen und effektiven Zugangs zum Verständnis der Physiologie wird ausführlich auf nicht mehr benötigte historische Methoden verwiesen. Wie auf anderen Gebieten wurden die Rezeptoren für Hypothalamushormone und Hypophysenvorderlappenhormone charakterisiert und untersucht, sowohl zum besseren Verständnis der Regulation als auch in einigen Fällen zu Struktur-Aktivitäts-Studien. Dieser Ansatz war auch sehr hilfreich, um zu verstehen, wie die Empfindlichkeit der Hypophyse sowohl durch die negative Rückkopplung von Gonadensteroiden als auch durch den Einfluss von Hypothalamushormonen reguliert wird.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-642-27728-3_81-1 bc09f36ab86a81bfbce1d990077dac02;de;;;1.3.;;;Ein integriertes graphen- und wahrscheinlichkeitsbasiertes Clustering-Framework für sequentielle Daten Dieses Papier schlägt ein neues integriertes sequenzielles Datenclustering-Framework vor, das auf einem iterativen Prozess basiert, der zwischen dem EM-Prozess und einem modifizierten b-coloring-Clustering-Algorithmus abwechselt. Es weist zwei wichtige Merkmale auf: Erstens ermöglicht das vorgeschlagene Framework die Zuordnung von Clustern zu den Sequenzen, bei denen die b-Farbeigenschaften so lange aufrechterhalten werden, wie der Clustering-Prozess läuft. Zweitens gibt es jedem Cluster eine zweifache Repräsentation durch ein generatives Modell (Markov-Ketten) sowie dominante Mitglieder, die die globale Stabilität der zurückgegebenen Partition sicherstellen. Der vorgeschlagene Rahmen wird anhand von Benchmark-Datensätzen im UCI-Repository bewertet und seine Wirksamkeit wird bestätigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88411-8_24 7a582e34f74e13ea1982cdee3711e15b;de;;;1.2.;;;Konzepte und Hintergründe der Kausalität Seit Anbeginn der Geschichte basiert die Naturwissenschaft auf gemeinsamen Erfahrungen. Der primitive Mensch beobachtete Dinge im Raum und in der Zeit und machte Vermutungen zur Erklärung von Naturerscheinungen (Lenzen, 1954). Solche Erfahrungen führten zu dem Glauben, dass die Sonne die Ursache des Lichts ist, dass Feuer Rauch verursacht und Verletzungen Schmerzen verursachen. Sie führten zu dem Konzept, dass Kausalität ein Prozess ist, bei dem ein Phänomen, die Ursache, ein anderes Phänomen, die Wirkung, hervorruft.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-3024-4_1 2ef717d67b0ed449d32c7baf0ad8ba63;de;;;1.2.;;;Nichtedelmetalle Aluminium ist nach Sauerstoff und Silizium das dritthäufigste Element der Erde, aber es ist ein relativ neues Metall. Eine kommerzielle Herstellung des Metalls wurde erst in diesem Jahrhundert mit der Entwicklung neuer Schmelzverfahren wirklich realisierbar. Die Produktion nach dem Zweiten Weltkrieg betrug noch nur etwa 1 Million Tonnen pro Jahr, aber das Angebot hat sich schnell ausgeweitet und Aluminium ist heute nach Stahl das weltweit am häufigsten verwendete Metall.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-11268-5_9 6cc374b7e1aa5b92f576012b31cb5a27;de;;;1.2.;;;Bewertung von Methoden zur Identifizierung von Quellen interindividueller pharmakokinetischer Variationen Die Vorteile und Grenzen der 2 am häufigsten verwendeten Methoden zur Untersuchung interindividueller pharmakokinetischer Variationen werden untersucht. Die erste Methode basiert auf pharmakokinetischen Vergleichen, die nach wiederholter Verabreichung eines Modellarzneimittels wie Antipyrin vor, während und nach einer sorgfältig kontrollierten Umweltstörung durchgeführt wurden. Ein Hauptvorteil des Tests ist die Verwendung jedes Probanden als Kontrolle. Die Patienten befinden sich in Bezug auf Faktoren, die in der Lage sind, die Fähigkeit zur Metabolisierung von Arzneimitteln in der Leber zu verändern, in der Regel unter basalen Bedingungen. Der Test ist sehr empfindlich und liefert hoch reproduzierbare Ergebnisse. Es war als Forschungsinstrument nützlich, um Umweltfaktoren zu identifizieren, für die Dosis-Wirkungs-Kurven erstellt und verglichen werden können. Der Test erfordert jedoch eine sorgfältige Auswahl und Kontrolle der Probanden, und es kann gefährlich sein, Ergebnisse auf Probanden unter anderen, nicht basalen Umgebungsbedingungen zu extrapolieren. Diese Methode beinhaltet am häufigsten Antipyrin als Testverbindung, aber andere Medikamente können und wurden verwendet. Die Ergebnisse zeigen, dass viele Wirtsfaktoren, die die Antipyrin-Disposition beeinflussen, auch die Disposition anderer Arzneimittel beeinflussen, die durch hepatische Mischfunktionsoxidasen metabolisiert werden.;-;-;-;https://link.springer.com/article/10.2165/00003088-198308050-00002 ac3a46f7b127bda3bf26803cf03077e4;de;;;1.2.;;;Tektonik des Miozäns – Frühes Pleistozän (Tektonik des Himalaya, 23–0,78 Ma) Die Himalaya-Bewegungen wurden zuerst von Huang TK (1945) erkannt und korrelierten mit den Neualpenbewegungen Europas. Als Huang in den 1930er Jahren in Frankreich studierte, ging man davon aus, dass die alpine Orogenese in zwei Phasen stattgefunden hatte, einer „Altalpine“ (Mesozoikum) Phase und einer „Neualpinen“ (Känozoikum) Phase, dies jedoch nicht denke so vor kurzem. Huang war der Ansicht, dass die Bewegungen im Himalaya alle tektonischen Ereignisse umfassen sollten, die während des Känozoikums auftreten. Diese Ansicht wurde in China in den letzten sechzig Jahren allgemein akzeptiert und angewendet. Wie in früheren Kapiteln dieses Bandes beschrieben, ereigneten sich jedoch sowohl die Sichuan- als auch die Nordsinischen tektonischen Ereignisse innerhalb des Känozoikums. Im frühen Mesozoikum wurden der Himalaya und angrenzende Kontinentalblöcke an Gondwana angeschlossen. Anschließend wurden diese Blöcke von Gondwana getrennt und allmählich nach Norden bewegt, bis sie in den Kollisionszonen Banggongco-Nujiang und Yarlung Zangbo mit dem Südrand Eurasiens zusammentrafen und kollidierten. In den Stadien Siuchuans und Nordsiniums lagen die getrennten Blöcke noch im Tethys-Ozean, direkt im Süden Asiens. Die Kollisionszonen, die zur Himalaya-Tektonischen Zone und zum Himalaya-Gebirge führten, bildeten sich erst im Neogen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11868-5_10 d712c1bb39b5eb5144d87d384efef47a;de;;;1.2.;;;Sedimentationsraten in abflussbeschränkten und wiederhergestellten Salzwiesen im Long Island Sound Viele Salzwiesen in dicht besiedelten Gebieten sind einer Verringerung des Gezeitenflusses ausgesetzt. Um die Auswirkungen der Gezeitenströmungsbeschränkung auf die Sumpfsedimentationsprozesse zu bewerten, wurden Sedimentkerne aus strömungsbeschränkten Salzwiesen entlang der Connecticut-Küste des Long Island Sound gesammelt. Kerne wurden auch aus uneingeschränkten Referenzsümpfen und aus einem Sumpf gesammelt, der zuvor eingeschränkt worden war, aber in den 1970er Jahren zu volleren Gezeitenspülungen wiederhergestellt wurde. In den begrenzten Sumpfkernen wurden in der Tiefe hohe Schüttdichten und niedrige C- und N-Konzentrationen gefunden, die wir auf eine Phase der Oxidation organischer Substanz, Sedimentverdichtung und Sumpfoberflächenabsenkung bei der Installation von Flussbeschränkungen (zwischen 100 und 200 Jahren vor dem vorhanden, je nach Sumpf). Aktuelle Sedimentationsraten in den eingeschränkten Sümpfen (bestimmt durch;-;-;-;https://link.springer.com/article/10.2307/1352980 9ae65eb6b642f84ddd2f2492c545e400;de;;;1.2.;;;Chirurgische Therapie bei Dystonie Chirurgische Behandlungen für Dystonie sind seit dem frühen 20. Jahrhundert verfügbar, haben sich jedoch durch eine Kombination aus technologischen Fortschritten und einem besseren Verständnis der Rolle der Basalganglien bei Dystonie in ihrem Verhältnis von Wirksamkeit zu Widrigkeiten verbessert. Das Wort Dystonie beschreibt einen Phänotyp der unwillkürlichen Bewegung, der sich durch eine Vielzahl von Bedingungen manifestieren kann. Dystonie kann nur bestimmte Körperregionen betreffen oder generalisiert sein. Es scheint entscheidend zu sein, zu bestimmen, ob die der Dystonie zugrunde liegende Ätiologie primär (dh genetisch oder idiopathisch bedingt) oder sekundär (dh infolge struktureller, metabolischer oder neurodegenerativer Störungen) ist. Sekundäre Dystonien sind weitaus häufiger als primäre Dystonien. Primäre Dystonien sprechen gut auf Pallidotomie oder tiefe Hirnstimulation des inneren Segments des Globus pallidum an, während sekundäre Dystonien bestenfalls teilweise zu reagieren scheinen. Begrenzte historische und aktuelle Daten deuten darauf hin, dass der Thalamus ein vielversprechendes Ziel für die Behandlung sekundärer Dystonien sein könnte, aber es sind sorgfältigere, prospektive, randomisierte Studien erforderlich. Kombinationen von bilateralen Zielen sind mit der aktuellen Technologie der DBS möglich, werden jedoch aufgrund von chirurgischer Morbidität und Kosten nicht weit verbreitet verwendet. Dieser Artikel gibt einen Überblick über die chirurgische Behandlung von Dystonien von der Vergangenheit bis zur Gegenwart, wobei der Schwerpunkt auf der Trennung der Ergebnisse für primäre vs. sekundäre und generalisierte vs. zervikale Dystonie liegt.;-;-;-;https://link.springer.com/article/10.1007/s11910-003-0006-0 0626b88b5e2fc553a9b95e138b130060;de;;;1.2.;;;Akkumulation und Kapitaltheorie Als Joan Robinsons Ansichten reiften, rückte das Studium der Expansion durch Kapitalakkumulation immer mehr in den Mittelpunkt, und sie versuchte zunehmend, andere Fragen darum zu gruppieren. Doch es erwies sich als schwierig, die Nuss zu knacken. Die Akkumulation wurde von Ökonomen auf zwei sehr unterschiedliche Weisen analysiert, zwischen denen sie sich unbehaglich bewegte. Am häufigsten wurde darin die Erweiterung des produktiven Potenzials einer Volkswirtschaft mit einer gegebenen Technologie gesehen, die dabei verbessert werden kann – das war ihre Grundhaltung. Aber es wurde auch als regelrechte Transformation der technischen und produktiven Organisation der Wirtschaft verstanden, eine Perspektive, die sie durchaus billigte, die aber in ihrer Analyse fast keine Rolle spielte.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-21779-3_5 117889cbad6964cbc695591a43cc2d0b;de;;;1.2.;;;Jenseits der Nosologie in der biologischen Psychiatrie. 5-HT-Störungen bei Stimmungs-, Aggressions- und Angststörungen 5-HT-Störungen wurden bei Depressionen, Angstzuständen, Schizophrenie und Alkoholismus berichtet. Die zunehmende Zahl psychiatrischer Zustände, bei denen Serotonin (5-Hydrotryptamin, 5-HT) offenbar gestört sein kann, erscheint verwirrend. Die Situation wurde als chaotisch bezeichnet, die Befunde selbst unspezifisch. Van Kämmen (1987) nannte 5-HT ironischerweise einen Neurotransmitter aller Jahreszeiten. Wir stimmen mit keiner der Aussagen überein und erklären in diesem Kapitel, warum. Zuerst diskutieren wir die verfügbaren Daten, dann versuchen wir, sie in einen konzeptionellen Rahmen zu bringen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-09506-3_8 751633cfe7ce76bc334a0d3f590a204c;de;;;1.2.;;;Krankheit und Koloniebildung bei der Feuchtholz-Termite Pathogene haben wahrscheinlich die Evolution der Lebensgeschichte sozialer Insekten beeinflusst, da ihre Brutökologie und Sozialität das Risiko der Krankheitsübertragung erhöhen und Anforderungen an das Immunsystem stellen können, die sich letztendlich auf das Überleben und Wachstum von Kolonien auswirken können. Die Kosten für die Aufrechterhaltung und Induktion der Immunfunktion können bei Termiten, die eine stickstoffarme Ernährung haben, besonders hoch sein. Wir untersuchten die Auswirkungen einer Pilzexposition auf das Überleben und die Fortpflanzung während der Koloniegründung in der Feuchtholztermiten;-;-;-;https://link.springer.com/article/10.1007/s00040-005-0859-0 d4b848f2265f23145b6a21096b104ce9;de;;;1.2.;;;Umgang mit entkoppelten Kernexplosionen im Rahmen eines umfassenden Testverbotsvertrags Die Detonation nuklearer Explosionen in riesigen unterirdischen Hohlräumen, um die von ihnen erzeugten seismischen Wellen zu dämpfen oder zu entkoppeln, wird seit mehr als 35 Jahren diskutiert. Dieses Papier gibt einen Überblick über die Geschichte des Entkopplungskonzepts, bewertet, welche Länder über die technologischen Fähigkeiten verfügen, um einen solchen Test eines bestimmten Ertrags durchzuführen, und bewertet verschiedene Entkopplungsszenarien. Ich schließe daraus, dass Tests mit großen Entkopplungsfaktoren, DF, für Ausbeuten von einigen Kilotonnen (kt) oder mehr nur in Hohlräumen in Salzstöcken möglich sind. Bisherige Kernexplosionen in Salz, die groß genug sind, um Explosionen mit Ausbeuten ≥ 0,5 kt vollständig zu entkoppeln, konzentrieren sich nur auf wenige Gebiete Kasachstans und Russlands. Die Existenz aller Hohlräume dieser Größe, die durch vergangene Explosionen entstanden sind, ist bekannt, da die Ereignisse, die diese Hohlräume erzeugt haben, eine mindestens 20-fache Ausbeute aufweisen müssen als die Größe eines vollständig entkoppelten Ereignisses, das in ihnen gezündet werden kann. Die Überwachung so entstandener Hohlräume, die stehen bleiben können, sollte auf 1 kt-Ebene relativ einfach sein, wenn entsprechende Nachweismaßnahmen getroffen werden. Während in Salz durch Lösungsbergbau große Hohlräume entstehen können, ist kein Land bekannt, das die Sole aus einem solchen Hohlraum evakuiert und dann darin eine entkoppelte Atomexplosion durchgeführt hat. Luftgefüllte Hohlräume in Salz, die für signifikante entkoppelte Tests geeignet sind, sind nur über einen sehr engen Tiefenbereich von etwa 200 m bis maximal 900 bis 1300 m stabil. Die meisten Gebiete mit dicken Salzvorkommen in der ehemaligen Sowjetunion und den USA zeichnen sich durch eine effiziente Übertragung seismischer Wellen und eine geringe natürliche seismische Aktivität aus. Der in der Literatur angegebene skalierte Hohlraumradius von 20 m für die vollständige Entkopplung in Granit ist schlecht bestimmt, wahrscheinlich zu klein und hat zu Überschätzungen des Potenzials geführt, Hohlräume in Hartgestein für entkoppelte Nukleartests einzusetzen. Für Hohlräume in hartem Gestein, keine bekannten Erfahrungen mit der Durchführung entkoppelter Nukleartests in ihnen, der Sicherstellung der Eindämmung bei großen Unterschieden in den Hauptspannungen und dem Vorhandensein von Fugen und anderen Inhomogenitäten im Maßstab von 1 bis 100 m und dem Aushub eines so großen Hohlraums, ohne entdeckt zu werden, sind Faktoren, die heimliche entkoppelte Tests von einigen kt oder mehr für Standorte in Hartgestein sehr unwahrscheinlich machen, selbst für Länder mit beträchtlicher Testerfahrung. Entkoppelte Tests von großen DF in beliebigen Medien bei solchen Ausbeuten durch Länder ohne Eindämmungserfahrung wären im Geheimen schwer durchzuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-0419-7_17 675f24e3303d855dcc7405b902859100;de;;;1.2.;;;Gutartige Erkrankungen des Endometriums Im Endometrium tritt eine Vielzahl gutartiger Erkrankungen auf, von seltenen Infektionen bis hin zu alltäglichen Polypen. Da der Uterus außerdem ein Zielorgan der hormonellen Stimulation ist, können morphologische Veränderungen des Endometriums Störungen der Hypothalamus-Hypophysen-Ovarial-Achse widerspiegeln. Die histologischen Veränderungen manifestieren sich typischerweise in abnormalen Uterusblutungen, und eine Endometriumbiopsie oder Kürettage wird gewöhnlich durchgeführt, um übermäßige Blutungen zu kontrollieren oder, häufiger, um ihre Ursache zu bestimmen. Auch die Endometriumbiopsie ist weiterhin ein wichtiger und integraler Bestandteil der Unfruchtbarkeitsabklärung. In diesem Kapitel werden verschiedene gutartige Erkrankungen der Gebärmutter betrachtet, wobei der Schwerpunkt auf der Interpretation von Endometriumbiopsien und Kürettierungen liegt. Angeborene Anomalien der Gebärmutter werden ebenfalls diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-1942-0_10 ba4d06942201086c211626260ac26a48;de;;;1.2.;;;Auswirkungen der Datenintegrationstechnik auf historische Landnutzungs-/Landbedeckungsänderungen: Vergleich historischer Karten mit Fernerkundungsdaten in den belgischen Ardennen Historische Rekonstruktionen von Landnutzungs-/Bedeckungsänderungen erfordern häufig den Vergleich von Karten aus verschiedenen Quellen. Das Ziel dieser Studie war die Messung von Landnutzungs-/Bedeckungsänderungen in den letzten 225 Jahren im Maßstab einer belgischen Landschaft, Lierneux in den Ardennen, auf der Grundlage einer heterogenen Zeitreihe von Bodenbedeckungsdaten. Die Vergleichbarkeit zwischen den Landbedeckungskarten wurde durch eine Methode der Datenintegration durch Kartengeneralisierung erhöht. Zwei Arten von Zeitreihen wurden erstellt, indem die Karten entweder durch Bezugnahme auf die ursprüngliche Karte der Zeitreihe oder durch ein Paar aufeinanderfolgender Karten integriert wurden. Die Erkennung von Landbedeckungsänderungen wurde an den ersten Zeitreihen ohne Datenintegration und an den beiden Typen integrierter Zeitreihen durchgeführt. Die Ergebnisse zeigen, dass Landbedeckung und Landschaftsstruktur in Lierneux seit 1775 tiefgreifenden Veränderungen unterworfen sind, mit einer jährlichen Veränderungsrate auf Landschaftsebene von bis zu 1,40%. Die wichtigsten beobachteten Veränderungsprozesse der Landbedeckung sind die Ausweitung von Grasland-Ackerland und die Wiederaufforstung mit Nadelholzarten, was zu einer stärker fragmentierten Landschaftsstruktur führt. Die anhand integrierter Daten geschätzten jährlichen Änderungsraten der Landbedeckung unterscheiden sich erheblich von den ohne vorherige Integration der Daten geschätzten jährlichen Änderungsraten. Es ist ein Kompromiss, so weit wie möglich in die Vergangenheit zurückzugehen;-;-;-;https://link.springer.com/article/10.1023/A%3A1016599627798 316f9455b8eceeb0b5fbb09bdd7d6e10;de;;;1.2.;;;Automatisiertes paramedizinisches Notfallsystem Mit der Entwicklung der Technologie haben auch die Bereiche Medizin und Wissenschaft zahlreiche Fortschritte gemacht. In medizinischen Notfällen können wenige Minuten über Leben und Tod entscheiden. Die Hindernisse bei der medizinischen Hilfeleistung können durch eine schnellere Versorgung und zugängliche Systeme beseitigt werden. Zu diesem Zweck ist das vorgeschlagene End-to-End-System – Automated Emergency Paramedical Response System (AEPRS) halbautonom und nutzt die Luftverteilung durch Drohnen zur medizinischen Versorgung vor Ort in paramedizinischen Notfällen sowie für Patienten mit a stehende Krankheitsgeschichte. Die Sicherheit vertraulicher medizinischer Informationen ist für Patienten ein wichtiges Anliegen. Die Vertraulichkeit wurde durch die Verwendung von dezentralisiertem verteiltem Computing erreicht, um die Sicherheit der Benutzer ohne Einbeziehung von Drittinstitutionen zu gewährleisten. AEPRS konzentriert sich nicht nur auf städtische Gebiete, sondern auch auf halbstädtische und ländliche Gebiete. In städtischen Gebieten, in denen der Internetzugang weit verbreitet ist, richtet sich ein Chatbot für das Gesundheitswesen an die einzelnen Benutzer und stellt eine Diagnose basierend auf den von den Patienten bereitgestellten Symptomen bereit. In halbstädtischen und ländlichen Gebieten haben Gemeindekrankenhäuser die Möglichkeit, eine spezialisierte Gesundheitsversorgung anzubieten, obwohl kein Facharzt vorhanden ist. Darüber hinaus ermöglicht die Objekterkennung und Gesichtserkennung unter Verwendung des Konzepts der Edge-KI, dass tiefe neuronale Netzwerke am Edge ausgeführt werden können, ohne dass eine GPU- oder Internetverbindung zur Verbindung mit der Cloud erforderlich ist. AEPRS ist ein luftgestütztes medizinisches Notfallversorgungssystem. Es verwendet die vom Benutzer eingegebenen Daten, um im Falle einer alarmierten Notfallsituation die bestmögliche Lösung abzuleiten und reagiert entsprechend auf den Benutzer.;-;-;-;https://link.springer.com/article/10.1007/s13755-018-0061-1 d6f8e9bdeaa542fd97370defc2fa8684;de;;;1.3.;;;Verbesserung des Situationsbewusstseins bei intelligenten virtuellen Agenten Virtuelle Welten sind von Natur aus komplex, dynamisch und unvorhersehbar. Die Schnittstelle, die sie zu externen Agentensystemen bereitstellen, besteht aus Ereignissen auf niedriger Ebene und primitiven Daten. Dies führt zu einer Informationsrepräsentationslücke zwischen virtuellen Welten und deklarativen BDI-basierten Agentensystemen. Infolgedessen sind BDI-basierte intelligente virtuelle Agenten (IVAs) nicht in der Lage, die komplexen abstrakten Situationen, die sich in ihrer Umgebung abspielen, zu erkennen. In diesem Papier beschreiben wir einen zweistufigen Prozess, der es einem IVA ermöglicht, die komplexen Situationen zu identifizieren, denen er begegnet. Zuerst werden komplexe Ereigniserkennungsmechanismen auf die von einem IVA empfangenen Low-Level-Sensordaten angewendet. Komplexe Ereignisse, die im ersten Schritt identifiziert wurden, werden mit einem domänenspezifischen Situationsmodell verglichen, um aktive Situationen zu identifizieren. Das Situationsmodell hilft dem Agenten, den Beginn und das Ende von Situationen sowie jede aktive Situation zu einem bestimmten Zeitpunkt zu kennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36444-0_9 5fdbc19c92bc7659313008e2b8cc0621;de;;;1.2.;;;Poesie und Prosa von Boris Pasternak (1928) die zeitgenössische russische Literatur, wenn wir sie nicht als das sehen, was sie war, immer noch ist und vielleicht immer sein wird, sondern als das, was sie vor unseren Augen immer mehr wird – obwohl wir glauben mögen, dass sie es nie werden wird – nichts ist interessanter, oder wichtiger für das Verständnis seiner gegenwärtigen vorübergehenden Bedeutung als die Poesie und Prosa von Pasternak. Nicht weil;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-15303-9_6 b9f0e6aba53ef9ad904b65dfbc572cac;de;;;1.2.;;;Diskussion über den dynamischen Mechanismus der globalen Tektonik Nachdem die Entwicklung des chinesischen Kontinents, wie in diesem Band dargestellt, beschrieben wurde, stellen viele Forscher und Studenten häufig das Problem der Mechanismen, die die Bewegungen der Lithosphärenplatten steuern, und fragen sich, warum die Bewegungs- und Kompressionsrichtungen durch die Erdoberfläche geändert wurden Geschichte einschließlich der Entwicklung des chinesischen Kontinents. Dies sind große Probleme, mit denen alle Geowissenschaftler konfrontiert sind. Die dynamischen Mechanismen der globalen Tektonik werden im Allgemeinen als außerhalb des Rahmens von Kursen zur Tektonik Chinas liegend angesehen, so dass diese schwierigen Probleme in diesem Buch vermieden werden könnten. Es ist jedoch nicht möglich, die dynamischen Mechanismen zu diskutieren, die die chinesische Kontinentalplatte beeinflusst haben, ohne das gesamte Gebiet der globalen Tektonik zu berücksichtigen. Damit die Leser den gegenwärtigen Stand der Forschung zu globalen tektonischen Mechanismen verstehen, werden alle vernünftigen Hypothesen, die in der Vergangenheit vorgeschlagen wurden und die derzeit in Betracht gezogen werden, überprüft, analysiert und kommentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11868-5_15 08c7d5199ed82a47b8b191e4fd29bbbc;de;;;1.2.;;;Das breite Konzept der Mäßigkeit Weite Auffassungen über die Arbeit der Mäßigung neigen dazu, sie als ein allgemeines psychologisches Prinzip darzustellen, das jeden Aspekt des moralischen Lebens beeinflusst. Diese Auffassungen verbinden oft Mäßigkeit mit Tugend im Allgemeinen. George Henrik von Wright zum Beispiel fällt dieser Verschmelzung zum Opfer, wenn er für die Vorstellung plädiert, dass es im Grunde nur eine Tugend gibt. Er setzt diese eine Tugend mit „so vielen Formen der Selbstbeherrschung“ gleich.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0591-3_2 1f1bb04159d3234cfd54a63ad591b282;de;;;1.2.;;;Die Erde von innen Aus Gesteinsformationen sind knapp 3.000 Mineralien bekannt, deren Zahl pro Jahr um etwa 100 neu entdeckte Mineralien steigt. Doch nur etwa 50 machen 99 Prozent der Erdkruste aus, der Rest sind – global gesehen – Spurenbestandteile. Im Gegensatz dazu macht eine kleine Gruppe, die Plagioklase und Kalifeldspäte, mit weniger als 10 Stück etwa 50 Prozent aller Mineralstoffe aus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-48879-5_7 1db65eb83a99f9875e77a1af4caa6349;de;;;1.2.;;;Last-Encounter-Routing unter Random Waypoint Mobility Last-Encounter-Routing (LER)-Algorithmen für mobile Ad-hoc-Netzwerke verlassen sich nur auf Begegnungshistorien an jedem Knoten, um Pakete weiterzuleiten, und benötigen daher keinen Kontrollverkehr, um Topologieänderungen aufgrund von Knotenmobilität zu verfolgen. LER nutzt die Tatsache, dass vergangene Informationen über die Mobilität eines Knotens helfen, diesen Knoten in der Zukunft zu lokalisieren. Wie wir in früheren Arbeiten [1] hervorgehoben haben, hängt die Leistungsfähigkeit von LER-Algorithmen von den Mobilitätsprozessen der Knoten ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24693-0_80 7a0bf290af8e9d2a3a467562b3a7a319;de;;;1.2.;;;Mehrzweck-Landkartierung und Ressourceninventur Eine Landklassifizierung und Ressourceninventur des Staates Falcón wurde mit dem Ziel durchgeführt, grundlegende Informationen zu sammeln, die bei der Entwicklungsplanung helfen. Das im Nordwesten Venezuelas gelegene Untersuchungsgebiet umfasst eine ökologisch vielfältige Region, sowohl aufgrund seiner unterschiedlichen Geomorphologie als auch aufgrund seiner Geschichte der menschlichen Besiedlung. Es wurde ein Landschaftsansatz verwendet. Auf der Grundlage von Fotointerpretation, Literaturrecherche und Feldarbeit wurden einheitliche Landeinheiten (physiognomische Einheiten) abgegrenzt und hinsichtlich Landschaftsform, Boden, Vegetation, Entwässerungsmuster und Klima beschrieben. Diese wurden aufgrund ihrer potentiellen natürlichen Vegetation durch die Abgrenzung von Klimaxkomplexen in homogene Einheiten (HE) gruppiert. Die letzte Hierarchie, die Landsysteme, umfassen die geomorphogenetisch verwandte HU. Die Ergebnisse werden auf verschiedenen Generalisierungs- und Integrationsebenen in verbalen und kartografischen Beschreibungen präsentiert und in standardisierten Formaten gespeichert, um eine einfache Verständlichkeit und Handhabung zu gewährleisten und unterschiedlichen Bedürfnissen gerecht zu werden. Dieser Bericht beschreibt die Methoden, die für die Erhebung und Datenpräsentation verwendet wurden, und diskutiert ihre Anwendbarkeit und Grenzen.;-;-;-;https://link.springer.com/article/10.1007/BF01867079 f522d4eacbbb23e415338eaa577a5ea1;de;;;1.2.;;;Umweltexternalitäten bei Netzeffekten: Einführung emissionsarmer Technologien im Automobilmarkt* Das Papier betrachtet einen Markt, der derzeit von einer schmutzigen Technologie dominiert wird, die erhebliche Umweltkosten verursacht. Eine saubere Technologie ohne Umweltkosten wird eingeführt, nachdem das Netzwerk der schmutzigen Technologie ausgereift ist. Eine Übernahme der sauberen Technologie ist aufgrund der Netzvorteile zugunsten der schmutzigen Technologie nicht möglich. Das Papier betrachtet zwei Arten von politischen Interventionen, um die externen Umwelteffekte zu korrigieren. Erstens stellen wir fest, dass die für die Einführung der sauberen Technologie erforderliche Steuer sehr hoch ist, was bedeutet, dass eine Steuer in Höhe des geringfügigen Umweltschadens das Externalitätsproblem in vielen Fällen nicht lösen würde. Zweitens, wenn Steuereinnahmen für die Subventionierung der sauberen Technologie verwendet werden, ist die Steuer niedriger als im vorherigen Fall und kann dem marginalen externen Schaden gleichgesetzt werden.;-;-;-;https://link.springer.com/article/10.1007/s11149-005-3961-3 e8a36f99475af1d75c23b3bcecd2ed71;de;;;1.2.;;;Wissensbasierte Konfliktlösung für die Zusammenarbeit zwischen Expertenagenten Kooperierende menschliche Experten sind in der Lage, ihre Fähigkeiten und ihr Wissen produktiv zu integrieren, um Ziele zu erreichen, die über ihre individuellen Fähigkeiten hinausgehen. Maschinenagenten können eines Tages ihre Macht auf ähnliche Weise steigern, indem sie in Teams spezialisierter Experten arbeiten. Dazu müssen die Systeme in der Lage sein, Wissen zu kommunizieren, Lösungen vorzuschlagen, auftretende Konflikte bei der Problemlösung zu lösen und Ergebnisse zu vereinbaren. Wir beschreiben das Cooperating Experts Framework (CEF), ein generisches Framework, das kooperative Problemlösung zwischen Sets wissensbasierter Systeme unterstützt. Die Systeme lösen für ihre spezifische Expertise relevante Teilprobleme und integrieren ihre Bemühungen durch Konfliktlösungsstrategien. CEF bietet Planungs- und Kommunikationsunterstützung für die Agenten, eine Reihe von Konfliktlösungsstrategien und eine Reihe von Heuristiken zur Auswahl der effektivsten Strategie für die Situation. Wir beschreiben auch STEAMER, ein im CEF-Framework implementiertes System, das Dampfkondensatoren entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0014282 03f613199d1c03369378d2030bed907f;de;;;1.2.;;;Natriumcromoglycat (Cromolyn-Natrium): II. Allergische Rhinitis und andere Erkrankungen Therapeutische Studien mit intranasalem Natriumcromoglycat haben gezeigt, dass es bei einigen Patienten mit saisonaler oder perennialer allergischer Rhinitis und bei einigen mit perennialer Rhinitis unbekannter Ursache von Wert ist. Seine Verwendung ermöglicht normalerweise eine Verringerung des Bedarfs an Antihistaminika, daher sollte Natriumcromoglycat bei Patienten, die durch Antihistaminika schläfrig werden, nützlich sein. Wie in Studien zu Asthma variiert der Grad des Nutzens von Person zu Person. Nasenverstopfung und Rhinorrhoe werden konsequenter gelindert als Augensymptome, und Nasenpolypen werden nicht verkleinert.;-;-;-;https://link.springer.com/article/10.2165/00003495-197407030-00003 28b5ae9e22b6a34e2e41e3fb8a83772d;de;;;1.2.;;;Küstensalzmarschen Salzwiesen, die die letzte Stufe der Nivellierung mariner Deltaebenen oder der Auffüllung von Senken, Einbuchtungen und anderen Unregelmäßigkeiten entlang von Küsten darstellen, sind gewissermaßen ein Maß für die Stabilität oder das Gleichgewicht der Küsten. Die gesamte Sedimentabfolge ist daher eine potenzielle Aufzeichnung der Küstengeschichte, sie kann vollständige Abfolgen von ursprünglichen Mündungs-, Delta-, Lagunen- oder Buchtböden bis zur höchsten Gezeitenebene aufweisen, einschließlich seitlicher Variationen in zeitgenössischen Fazies oder Subfazies. Assoziierte Mineralsuiten sind gleichermaßen wichtige Indikatoren für beide Quellen und ein mögliches Recycling von Küstensedimenten. Als bewohnbarer Lebensraum für zahlreiche Organismen, die teilweise einzigartig an Stressbedingungen angepasst sind, erfassen Salzwiesensubstrate viele Details, die für die Paläoökologie, Ichnologie und Umweltrekonstruktion von Bedeutung sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-0056-4_4 cb18cc48fc04d7f42db58349931eeded;de;;;1.2.;;;Eigenschaften auf Ökosystemebene des Luquillo Exerpimental Forest mit Schwerpunkt auf dem Tabonuco Forest Waldstruktur und -dynamik im Luquillo Experimental Forest (LEF) sind entlang eines Höhengradienten organisiert, der die atmosphärischen, edaphischen und topografischen Bedingungen in den Luquillo-Bergen widerspiegelt. Die globale Zirkulation bestimmt die atmosphärischen Bedingungen im LEF. Trotz des günstigen tropischen Klimas ist die Umwelt in der LEF durch Stürme und Hurrikane mit erheblichen Stressperioden verbunden. Diese Ereignisse lösen Erdrutsche und Perioden massiven plötzlichen Baumsterbens aus, die die Bedingungen für Waldwachstum und -sukzession stark beeinflussen. Die wichtigsten abiotischen Bedingungen, die die Biota stressen, sind: (1) mechanischer Stress durch starken Wind und Regen, (2) starke Auswaschung aller Oberflächen durch fast reines Wasser mit hohem chemischem Potenzial, (3) instabiles Gelände, das Massenbewegungen ausgesetzt ist, auf denen Pflanzen müssen sich verankern und wachsen, und (4) gesättigte und anaerobe Böden. Vierzehn biotische Antworten auf diese abiotischen Herausforderungen werden diskutiert. Diese sind: (1) glatte Waldkronen, (2) episodische Baumsterblichkeit, (3) Größen- und Altersdominanz unter den Baumpopulationen, (4) hohe Vielfalt an Lebensformen, (5) Abfangen und Zurückhalten von Nährstoffen durch Epiphyten und andere spezialisierte Lebensformen, (6) hohes Abfangen von Wasser, (7) Bildung von Baumvereinigungen und morphologische oder Wachstumsplastizität, (8) Veränderung der Mikrotopographie durch Bäume, (9) überragende Bedeutung bestimmter Organismengruppen, (10) hoher Umsatz von Arten in Mikroskalen, (11) Heterophylie und Sonnen- und Schattenlichtanpassung, (12) hohe Wurzeldichte, Wurzelbiomasse und Feinwurzelumsatz, (13) hoher Umsatz an Nährstoffen und organischer Substanz als Folge der Wurzel- und Vegetationsdynamik, und (14) Konstanz von Ökosystemratenprozessen in reifen Beständen. Aufgrund der Störungen und des hohen Niederschlags erscheint eine biotische Kontrolle der Nährstoffkreisläufe und des Umsatzes organischer Stoffe kritisch. Wir identifizieren fünf Hauptschnittstellen, an denen die Biota diese Parameter steuert und die die Grundlage für die Widerstandsfähigkeit von Waldökosystemen im LEF bildet. Diese Grenzflächen und ihre biotischen Schlüsselkontrollen sind: (1) Atmosphäre-Erd-Grenzfläche, dominiert von Epiphyten und atmosphärischen Pilzen, (2) Boden-Obergrund-Grenzfläche, dominiert von Mikroorganismen und Tieren wie Regenwürmern, (3) Pflanze-Boden-Grenzfläche, dominiert von holzigen Gefäßen Pflanzen und Tierpopulationen wie Termiten, (4) terrestrisch-aquatische Grenzflächen, die von einer Vielzahl von Wasser- und Amphibienarten von Pflanzen und Tieren dominiert werden, und (5) die aerob-anaerobe Grenzfläche, die von Bakterien und Pilzen dominiert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-2498-3_4 3392494b906cf979b52f3071485434c1;de;;;1.2.;;;Auswirkungen der globalen Erwärmung von 1,5 °C und 2,0 °C auf den Abfluss von drei Binnenflüssen im Hexi-Korridor, Nordwestchina Einzugsgebietsskalierte Projektionen des Abflusses von Flüssen auf verschiedenen Erwärmungsniveaus liefern nützliche Informationen für die Anpassung an den Klimawandel. In dieser Studie untersuchten wir Veränderungen des projizierten Klimas und simulierten Abfluss unter 1,5 °C und 2,0 °C globale Erwärmung von drei Binnenflüssen im Hexi-Korridor: dem Shiyang-Fluss (SYR), dem Heihe-Fluss (HHR) und dem Shule Fluss (SLR). Die Klimaänderung wurde auf der Grundlage von fünf globalen Klimamodellen (GCMs) unter drei repräsentativen Konzentrationspfaden (RCPs) projiziert und die Änderung des Abflusses wurde auf der Grundlage des hydrologischen Modells Soil and Water Assessment Tool (SWAT) simuliert. Darüber hinaus wurden die Unsicherheiten des projizierten Klimawandels und des simulierten Abflusses, die durch die GCMs und RCPs eingeschränkt wurden, quantifiziert. Die Ergebnisse zeigen, dass die jährliche Lufttemperatur im Vergleich zum Basiszeitraum (1976–2005) in den drei Flusseinzugsgebieten unter 1,5 °C global um 1,42–1,54 °C und der jährliche Durchschnittsniederschlag um 4–12 % gestiegen ist Erwärmung, während die jährliche Lufttemperatur um 2,09–2,36 °C und der jährliche Durchschnittsniederschlag um 5–11 % bei einer globalen Erwärmung von 2,0 °C zunimmt. Der simulierte jährliche Abfluss des SYR nimmt bei einer globalen Erwärmung von 1,5 °C um 4 % ab, der des HHR um 3 % und 4 %, während der des SLR deutlich um 10 % und 11 % bei 1,5 °C und 2,0 °C zunimmt C globale Erwärmung bzw. Die zusätzliche globale Erwärmung um 0,5 °C führt zu einem jährlichen Anstieg der Lufttemperatur von 0,67 bis 0,82 °C, einer Änderung des Jahresniederschlags von −1% bis 1% und einer Änderung des simulierten Abflusses von −1% bis 5%. Der simulierte Jahresabfluss weist eine größere Unsicherheit auf. Die Simulationen zeigen eine beträchtliche und konsistente Erwärmung im Herbst und Winter in den drei Becken, relativ trockenere Sommer und Herbst in den SYR- und HHR-Becken und einen relativ trockeneren Herbst im SLR-Becken. Der simulierte monatliche Abfluss zeigt komplexere Veränderungen mit großen Unsicherheiten, die hauptsächlich durch die GCMs eingeschränkt werden.;-;-;-;https://link.springer.com/article/10.1007/s13351-020-9152-4 c7ab9055bd0d07e48e2cd91caf04742a;de;;;1.2.;;;Analyse des Drei-Wege-Wettrüstens Dieses Papier befasst sich mit der Analyse von Drei-Wege-Wettrüsten basierend auf einer Erweiterung von Richardsons Wettrüstgleichungen. Zwei-Wege-Rennen werden überprüft und dann Drei-Wege-Rennen untersucht. Ein Modell zur Untersuchung eines dreiseitigen Aufholprozesses wird vorgestellt. Der Schwerpunkt liegt auf Nationen der Dritten Welt, die Massenvernichtungswaffen besitzen oder besitzen wollen. Beispiele von Zeitgeschichten des Rüstungswettlaufs werden gegeben, um Analysemethoden zu veranschaulichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-8396-1_19 d8612a13a70738dd7f81c0f6256c6f4a;de;;;1.2.;;;Intrakranielle und spinale Tumoren Diagnostik und Therapie von intrakraniellen und spinalen Tumoren bilden einen wichtigen Teil der Arbeitsbelastung neurochirurgischer, neuroradiologischer und neuropathologischer Dienste. Die Therapie vieler bösartiger Hirntumore ist noch weit von einer zufriedenstellenden, aber genauen Diagnose entfernt, und insbesondere der Nachweis von Meningeomen und anderen gutartigen Tumoren ist ein wesentlicher Bestandteil eines guten klinischen Managements.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-1335-5_7 2e6d534009b680c1141b41c10a21c5a3;de;;;1.2.;;;Fazit: Drama und Historiographie Die Herangehensweise an Shakespeares Geschichtsdramatisierung in den obigen Kapiteln entspricht der Praxis der humanistischen Geschichtsschreibung selbst. Die für die rhetorische Kultur der Frühen Neuzeit zentralen Argumente des Sprechens und Handelns standen auch im Zentrum des humanistischen Projekts, die Worte und Taten großer Männer zu feiern, als Vorbild für Nachahmung und Nachahmung, in der Fürstenberatung oder in tatsächlichen Geschichten;-;-;-;https://link.springer.com/chapter/10.1057/9781403913647_12 587277a0f6f3e1ee2c4bfb1eccce4001;de;;;1.2.;;;Bioinspirierte Dimensionsreduktion für die Klassifikation der Parkinson-Krankheit (PD) Angesichts der Nachfrage nach der Entwicklung effizienter Klassifikationsmodelle des maschinellen Lernens (ML) für Gesundheitsdaten und des Potenzials von Bio-Inspired Optimization (BIO)-Algorithmen, das Problem hochdimensionaler Daten anzugehen, untersuchen wir die Bandbreite der mit dem optimale Teilmenge von Merkmalen des PD-Datensatzes für eine effiziente PD-Klassifizierung. Wir haben zwei BIO-Algorithmen verwendet, Genetic Algorithm (GA) und Binary Particle Swarm Optimization (BPSO), um die optimale Teilmenge der Merkmale des PD-Datensatzes zu bestimmen. Der für die Untersuchung ausgewählte Datensatz umfasst 756 Beobachtungen (Zeilen oder Datensätze) über 755 Attribute (Spalten oder Dimensionen oder Merkmale) von 252 PD-Patienten. Wir haben die Feature-Skalierungsmethode MaxAbsolute verwendet, um die Daten zu normalisieren, und die Kreuzvalidierungsmethode One Hold, um verzerrte Ergebnisse zu vermeiden. Dementsprechend werden die Daten im Verhältnis von 70 % und 30 % auf Trainings- und Testset aufgeteilt. Anschließend haben wir GA- und BPSO-Algorithmen separat auf 11 ML-Klassifikatoren (Logistic Regression (LR), Linear Support Vector Machine (lSVM), Radiale Basis Function Support Vector Machine (rSVM), Gaussian Naive Bayes (GNB), Gaussian Process Classifier (GPC)) angewendet ), k-Nearest Neighbor (kNN), Decision Tree (DT), Random Forest (RF), Multilayer Perceptron (MLP), Ada Boost (AB) und Quadratic Discriminant Analysis (QDA)), um die optimale Teilmenge von Merkmalen zu bestimmen ( Reduzierung der Dimensionalität) trägt zu höchster Klassifikationsgenauigkeit bei. Unter allen eingesetzten bioinspirierten ML-Klassifikatoren: GA-inspirierter MLP erzielte die maximale Dimensionsreduktion von 52,32 % durch die Auswahl von nur 359 Merkmalen und lieferte 85,1 % der Klassifikationsgenauigkeit, GA-inspirierte AB lieferte die maximale Klassifikationsgenauigkeit von 90,7 % und produzierte die Dimensionalitätsreduzierung von 41,43 % durch Auswahl von nur 441 Merkmalen % der Dimensionsreduktion durch die Auswahl von nur 403 Merkmalen.;-;-;-;https://link.springer.com/article/10.1007/s13755-020-00104-w 837d5a05859a37716152b74a5d21b18a;de;;;1.2.;;;Kognitive Modellierung der Wirkung der chinesischen Kräutermedizin auf Brustkrebs Die Traditionelle Chinesische Medizin (TCM) hat in letzter Zeit zunehmendes Interesse an der Krebsbehandlung geweckt. Es wurde festgestellt, dass eine TCM-basierte Behandlung in Kombination mit anderen Therapien dazu beitragen kann, die Lebensqualität der Patienten zu verbessern. Der bisherigen Forschung zur TCM fehlt jedoch eine systematische Modellierung des kausalen Zusammenhangs der diagnose- und entscheidungsrelevanten Faktoren.;-;-;-;https://link.springer.com/article/10.1007/s13755-019-0083-3 e16ef6f32cab3ae7ce8b7bd7102464ea;de;;;1.2.;;;Peritoneale Ultrastruktur Vor 90 Jahren definierte Robinson [1] nach einer Zusammenfassung von mehr als zwei Jahrhunderten Forschung die vielfältigen natürlichen Funktionen des Peritoneums wie folgt: a) Flüssigkeitsregulierung für Nährstoff- und mechanische Zwecke, b) Bewegungsförderung, c) Minimierung Reibung, und d) um Gefäße und Nerven zu den Eingeweiden zu leiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-1085-0_5 b8c7e1a471c745250161a850a51301f0;de;;;1.2.;;;Normalwerte für physiologische Parameter Dieses Kapitel soll einige der vorhergehenden Kapitel ergänzen, indem es wichtige physiologische Normalwerte zusammenfasst. Dies soll es dem Leser ermöglichen, diese Werte zu finden, ohne das entsprechende Kapitel zu Rate zu ziehen. Offensichtlich ist die Angabe von Normalwerten physiologischer Parameter mit dem Dilemma behaftet, dass diese Parameter neben den Schwierigkeiten bei der Messung mit der Reifung und dem Alter variieren und von Geschlecht, Körpergröße, Körpergewicht, Körperoberfläche und sogar von Tages- und andere Rhythmen. Viele physiologische Parameter ändern sich mit dem Training. All diese Überlegungen werden in den folgenden Tabellen und Abbildungen weitgehend ignoriert und der Leser auf die entsprechenden Kapitel verwiesen. Viele der Parameter wurden von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-60946-6_127 db7340588b2587c8579518c6b79e796a;de;;;1.2.;;;Die Herstellung und Eigenschaften von großen NIMONIC* Alloy 901 Discs für landgestützte Gasturbinen Die Faktoren, die die Materialauswahl für große Scheiben in hoch bewerteten landgestützten Gasturbinen beeinflussen, werden untersucht. Es wird geschlussfolgert, dass die NIMONIC-Legierung 901, eine Legierung auf Ni-Fe-Cr-Basis, geeignet ist, die herkömmlichen Stähle zu ersetzen. Probleme bei der Herstellung großer Scheiben in diesem Legierungstyp werden diskutiert und der Herstellungsweg beschrieben, der verwendet wird, um eine Scheibe mit einem Durchmesser von 1 Meter herzustellen. Die Struktur und die mechanischen Eigenschaften dieser Scheibe demonstrieren die Praktikabilität der Herstellung großer NIMONIC-Scheiben aus der Legierung 901 ohne nachteilige Auswirkungen im Vergleich zum gut dokumentierten Verhalten von viel kleineren Schmiedestücken für Flugzeugtriebwerke. Die höhere Temperatur- und Festigkeitsfähigkeit solcher großen Scheiben ermöglicht eine erhöhte Effizienz und Wirtschaftlichkeit in landgestützten Gasturbinen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-1347-9_22 a6c43a2d154c3eda63ba3a92b1d6ffe2;de;;;1.2.;;;Subduktionsgeschichte der paläo-pazifischen Platte unter dem eurasischen Kontinent: Mesozoisch-paläogene magmatische Aufzeichnungen in Nordostasien Dieser Artikel bietet einen Überblick über die Gesteinsassoziationen, die Geochemie und die räumliche Verteilung mesozoisch-paläogener magmatischer Gesteine ​​in Nordostasien. Die Aufzeichnungen des Magmatismus werden verwendet, um die räumlich-zeitliche Ausdehnung und den Einfluss mehrerer tektonischer Regime während des Mesozoikums sowie den Beginn und die Geschichte der paläo-pazifischen Plattensubduktion unter dem eurasischen Kontinent zu bewerten. Mesozoisch-paläogener Magmatismus am Kontinentalrand Nordostasiens lässt sich in neun Stadien unterteilen, die in der frühen mittleren Trias, der späten Trias, dem frühen Jura, dem mittleren Jura, dem späten Jura, der frühen frühen Kreide, der späten frühen Kreide, der späten Kreide, und Paläogen bzw. Der Magmatismus der Trias besteht hauptsächlich aus adakitischen Gesteinen, bimodalen Gesteinen, alkalischen Eruptivgesteinen und Graniten und Rhyolithen vom A-Typ, die sich in syn-kollisionalen bis postkollisionalen Extensionseinstellungen im Zusammenhang mit der endgültigen Schließung des paläoasiatischen Ozeans gebildet haben. Allerdings wurden triasische kalk-alkalische Eruptivgesteine ​​in den Erguna-Xing’an-Massiven mit der südlichen Subduktion der ozeanischen Platte Mongol-Ochotsk in Verbindung gebracht. Während der Trias existierte in Nordostasien ein passiver Kontinentalrand. Kalkalkalische magmatische Gesteine ​​des frühen Juras haben eine geochemische Affinität zu bogenförmigem Magmatismus, während gleichzeitiger intrakontinentaler Magmatismus aus bimodalen magmatischen Gesteinen und A-Typ-Graniten besteht. Räumliche Variationen des Kaliumgehalts von magmatischen Gesteinen des frühen Juras vom Kontinentalrand bis zur intrakontinentalen Region zusammen mit dem Vorhandensein eines Akkretionskomplexes aus dem frühen Jura zeigen, dass der Beginn der paläo-pazifischen Plattensubduktion unter dem eurasischen Kontinent im frühen Jura stattfand. Der Magmatismus des mittleren Jura bis zur frühen frühen Kreidezeit fand am Kontinentalrand Nordostasiens nicht statt. Diese Beobachtung, kombiniert mit dem Auftreten von biologischen Ansammlungen in niedriger Höhe und der Alterspopulation von detritischen Zirkonen in einem Akkretionskomplex der frühen Kreidezeit, weist darauf hin, dass zwischen dem Kontinentalrand und der paläo-pazifischen Platte während des Mittleren Jura bis frühen frühen Kreidezeit. Das weit verbreitete Vorkommen von kalkalkalischem Eruptivgestein der späten Unterkreide, I-Graniten und adakitischen Gesteinen deutet auf eine Subduktion der paläo-pazifischen Platte unter dem eurasischen Kontinent zu dieser Zeit hin. Die östliche Verengung der Verteilung der magmatischen Gesteine ​​von der späten Kreidezeit bis zum Paläogen und der Wechsel von einer intrakontinentalen zu einer kontinentalen Randlage deuten auf die Ostbewegung des eurasischen Kontinents und das Zurückrollen der paläopazifischen Platte zu dieser Zeit hin.;-;-;-;https://link.springer.com/article/10.1007/s11430-017-9174-1 eaeee924455026061c982b09c196c65c;de;;;1.2.;;;Studie zur Orientierungsordnung der Hauptkette flüssigkristalliner Polymere Die thermotropen flüssigkristallinen Homo- oder Copolyester auf Basis von 4-Hydroxyacetophenonazin und Diacylchlorid wurden synthetisiert. Die flüssigkristallinen Polymere (LCPs) waren gekennzeichnet durch;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-78893-2_10 c8bab82866d0f8325e97b8fdc2bd4d6b;de;;;1.2.;;;Biomimetische Strömungskontrolltechniken für Luft- und Raumfahrtanwendungen: ein umfassender Überblick Bio-inspirierte Designs dienen Aerodynamikern in den letzten Jahrzehnten als große Inspiration. Die biologischen Merkmale jeder Art haben sich über Generationen entwickelt, die eine wesentliche Rolle für ihr endgültiges Überleben spielen. Künstliche Technologien haben erheblich von diesen evolutionären Eigenschaften profitiert, indem sie solche optimalen Eigenschaften durch künstliche Technik nachahmen. Die biologische Nachahmung eines besonderen Merkmals einer natürlichen Art für wissenschaftliche Anwendungen hat ein interdisziplinäres Studiengebiet eingeführt, das im Volksmund als „Biomimetik“ bezeichnet wird. Biomimetische Lösungen haben aufgrund ihres einzigartigen Potenzials, die bestehenden Designherausforderungen zu bewältigen, an Umfang gewonnen. Der vorliegende Übersichtsartikel nähert sich dem Stand der Technik der biomimetischen Techniken in qualitativer sowie quantitativer Perspektive, indem er sich hauptsächlich auf die potenziellen aerodynamischen Anwendungen konzentriert. Durch einen quantitativen Ansatz können Nachwuchsforscher auf eine solide Basis aus einem Pool bestehender Techniken zurückgreifen. Die Reduzierung des Luftwiderstands, die Verbesserung des Auftriebs und die Kontrolle der Strömungsablösung sind die größten Herausforderungen bei der Designoptimierung im Bereich der Aerodynamik. Die hier diskutierten biomimetischen Techniken werden anhand solcher Qualitäten durch nacheinander organisierte Abschnitte bewertet, die die Schlüsselinstrumente für Anwendungen ohne Schlag sind. Ein kritischer Überblick über die beliebten biomimetischen Techniken zur Strömungskontrolle wird mit ihren potenziellen Anwendungen in Bezug auf die Luft- und Raumfahrtindustrie behandelt. Aufgrund ihrer konzeptionellen Wirksamkeit in aerodynamischen Anwendungen werden auch einige patentierte Techniken aus verwandten Gebieten wie der Hydrodynamik diskutiert. Darüber hinaus wird die Strömungssteuerungseffektivität von Buckelwalen (HW) inspirierten biomimetischen Vorderkantentuberkeln mit geraden und gepfeilten Flügelkonfigurationen numerisch untersucht. Die Ergebnisse zeigen deutlich das Potenzial biomimetischer Techniken, um die zukünftigen Designs aerodynamischer Oberflächen zu verändern.;-;-;-;https://link.springer.com/article/10.1007/s11157-021-09583-z 6c93ad3a659f7bc62809a3ed31ca2b27;de;;;1.2.;;;Die langfristige Profitrate in einer Wirtschaft mit Rohstoffknappheit Zwei wichtige Faktoren, die verhindern, dass die Profitrate in einer Wirtschaft mit positivem Sparen gegen Null sinkt, sind laut Knut Wicksell das Arbeitswachstum und der technische Fortschritt. Dieser Beitrag analysiert den Einfluss dieser Faktoren und der Sparneigung der Wirtschaft auf die langfristige Profitrate in einer Volkswirtschaft mit knappen nicht erneuerbaren natürlichen Ressourcen. Die Existenz der Knappheit natürlicher Ressourcen drückt die langfristige Profitrate. Die Sensitivität dieser Profitrate auf das Arbeitswachstum und den technischen Fortschritt ist jedoch für Volkswirtschaften ohne und mit Ressourcenknappheit gleich.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-04207-4_8 451b4f4ebd4e18e2f6fd5ddceef77c83;de;;;1.2.;;;Ein KPZ-Cocktail geschüttelt, nicht gerührt... Die stochastische partielle Differentialgleichung, die vor fast drei Jahrzehnten von Kardar, Parisi und Zhang (KPZ) vorgeschlagen wurde, inspiriert, fasziniert und verwirrt weiterhin ihre vielen Bewunderer. Hier begleichen wir (i) Schulden an heroische Vorgänger, (ii) heben zusätzliche experimentell relevante Aspekte des kürzlich gelösten 1+1 KPZ-Problems hervor, (iii) verwenden einen expandierenden Substratformalismus, um Zugang zur 3d radialen KPZ-Gleichung zu erhalten und, schließlich (iv) die Untersuchung von Extremalpfaden auf ungeordneten hierarchischen Gittern, richtet unseren Blick auf das Schicksal von;-;-;-;https://link.springer.com/article/10.1007/s10955-015-1282-1 c783637315de9c3a7aa3920d4743b71b;de;;;1.2.;;;Squaryliumfarbstoffe und verwandte Verbindungen Squaryliumfarbstoffe, die erstmals in den 1960er Jahren synthetisiert wurden, bestehen aus einem Oxocyclobutenolat-Kern mit aromatischen oder heterocyclischen Komponenten an beiden Enden des Moleküls. Da Squaryliumfarbstoffe eine intensive Absorption und oft eine Fluoreszenzemission zeigen, haben sie vom Standpunkt der technologischen Anwendungen viel Aufmerksamkeit auf sich gezogen. Es wurden Anstrengungen unternommen, um neue synthetische Verfahren zur Konstruktion von Chromophoren auf Squaryliumbasis zu entwickeln. Hier werden neuartige Syntheseprotokolle zur Konstruktion neuartiger Squarylien und verwandter Chromophore besprochen. Das vorliegende Kapitel beginnt mit der Modifikation von Squaryliumfarbstoffen zu Amino- und Dithio-substituierten Farbstoffen, dann wird die Synthese unsymmetrischer Squaryliumfarbstoffe vorgestellt. Als nächstes werden die Synthesen von Methin- und Aren-verbrückten Bis-Squarylium-Farbstoffen besprochen, und die Bisquaryl-basierten Analoga werden ebenfalls diskutiert. Anwendungen von Squaryliumfarbstoffen und verwandten Verbindungen werden diskutiert, einschließlich xerographischer Geräte, die die photoleitfähigen Eigenschaften von Squaryliumfarbstoffen nutzen, photovoltaische Geräte, die die Farbstoffe als Photosensibilisatoren verwenden, sowie Biomarkierungs- und chemosensorische Materialien für analytische Zwecke. Elektrisch leitende Materialien mit geringer Bandlücke sind durch Polymerisation von Squaryliumgerüsten erhältlich. Als Zukunftsaspekt werden auch supramolekulare Systeme auf Basis von Squarylien vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/7081_2008_117 a6b64f4b35881aa177d414abd652c8fa;de;;;1.2.;;;Design und Validierung eines Chips zum Einfangen von endothelialen Vorläuferzellen und seine Anwendung bei Patienten mit pulmonaler arterieller Hypertonie Die Zahl der zirkulierenden endothelialen Vorläuferzellen (EPCs) korreliert umgekehrt mit dem kardiovaskulären Risiko und dem klinischen Ergebnis und wurde daher als wertvoller Biomarker für die Risikobewertung, den Krankheitsverlauf und das Ansprechen auf die Therapie vorgeschlagen. Derzeitige Strategien zur Isolierung dieser seltenen Zellen beschränken sich jedoch auf komplexe und mühsame Ansätze. Das Ziel dieser Studie war das Design und die Validierung einer mikrofluidischen Einwegplattform, die in der Lage ist, EPCs direkt aus menschlichem Vollblut bei gesunden und kranken Probanden selektiv zu erfassen und auszuzählen, wodurch die Probenvorbereitung entfällt. Anschließend haben wir den „EPC Capture Chip“ klinisch angewendet und die EPC-Zahlen im Blut von Patienten mit pulmonaler arterieller Hypertonie (PAH) bestimmt. Blut wurde in Röhrchen gesammelt und in polymere Mikrofluidikchips injiziert, die mit anti-CD34-Antikörper vorbeschichtete Mikrosäulen enthielten. Gefangene Zellen wurden immunfluoreszierend auf die Expression von Stamm- und Endothel-Antigenen gefärbt, identifiziert und gezählt. Der EPC Capture Chip wurde mit konventionellen Durchflusszytometrie-Zählungen validiert (;-;-;-;https://link.springer.com/article/10.1007/s00109-011-0779-6 8703201933b0e4f26ff91b34bc42783d;de;;;1.2.;;;Die abiotische Umwelt Die Trübung des Wassers ist ein zentrales Thema in den Diskussionen in diesem Buch. Unklarheiten durch Algenblüten und Schwebstoffe wirken sich stark auf das allgemeine Erscheinungsbild eines Sees aus. Wichtig ist, dass es auch viele biologische Mechanismen beeinflusst. Daher erfordert das Verständnis der Funktionsweise von Flachseegemeinschaften ein grundlegendes Verständnis der Unterwasseroptik. Hier werden nur die wichtigsten Punkte behandelt. Eine gute umfassende Behandlung findet sich bei Kirk (1994).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-3154-0_2 4c9e5c47be482e80da84742ba92d8b4c;de;;;1.2.;;;Rekonstruktion der Thermalgeschichte des nordwestlichen Teils des Brunovistulicum Der östliche Teil des europäischen Variszischen Gürtels ist im Böhmischen Massiv (BM) freigelegt. Während der variszischen Orogenese kollidierten die saxothuringischen und moldanubischen BM-Einheiten mit dem Brunovistulicum-Mikrokontinent. Der westliche Teil des Brunovistulicum besteht aus neoproterozoischen kristallinen Gesteinen, die in vier Einheiten vorkommen: dem Thaya-Dom, dem Svratka-Dom, der Schlesischen Domäne und dem Strzelin-Massiv, dem nördlichsten exponierten Teil des Brunovistulicum. Eine weitere neu anerkannte Brunovistulicum-Untereinheit ist die Einheit Drosendorf in Österreich. Während der variszischen Orogenese wurden die Gesteine ​​dieser Einheiten in unterschiedlichem Maße nachbearbeitet. Der Artikel stellt neue SHRIMP U-Pb-Alter vor, die für drei Proben erhalten wurden: N24 – der sillimanithaltige Nowolesie-Gneis, der von der Migmatisierung I betroffen ist, SK 1P – ein während der Migmatisierung II produzierter Pegmatit und SK3 – ein gangübergreifender migmatisierter Gneis . Diese neue Datenergänzung hat bereits Zirkonalter der neoproterozoischen Gneisen und der variszischen Granitoide veröffentlicht. Basierend auf diesen Daten dokumentiert dieser Artikel die thermisch-tektonische Geschichte des Strzelin-Massivs während der Zeitspanne von 600–280 Ma. Das Neoproterozoikum (Ediacaran) dauerte etwa 30 Ma (600–570 Ma). Es gibt keine Hinweise auf thermische Ereignisse, die zwischen dem späten Neoproterozoikum und dem mittleren Devon aufgetreten sein könnten. Die variszische thermische Geschichte ereignete sich von 350 bis 280 Ma. Metamorphische Veränderungen begannen nach der Kollision des Böhmischen Massivs und des Brunovistulicums. Die wichtigsten thermischen Ereignisse werden durch zwei Stadien der Migmatisierung bei 335 Ma bzw. 305 Ma und drei Stadien des granitoiden Magmatismus dokumentiert: ca. 324 Millionen Jahre, ca. 306–303 Ma und ca. 295–283 Mio. Im Vergleich zu anderen Struktureinheiten des westlichen Teils des Brunovistulicums sind die wesentlichen Besonderheiten der Geologie des Strzelin-Massivs: (1) Klippen des saxothuringischen Gesteins auf Gesteinen des Brunovistulicum, (2) Mittel- und Niederdruckmetamorphose, (3) zwei Stufen der Migmatisierung, (4) Vorhandensein einer thermischen Kuppel, (5) lang anhaltender Granit-Magmatismus, (6) wiederholte Intrusionen von kleinvolumigen, geochemisch unterschiedlichen Magmen, die durch Verwerfungen und Risse kontrolliert werden.;-;-;-;https://link.springer.com/article/10.1007/s00531-021-02061-5 39c9bf788a0d50dd89cd780f26f8b20c;de;;;1.2.;;;Zerebrale Anomalien beim Oral-Fazial-Digital-Syndrom Dies ist ein Bericht über drei Fälle des Oralfacial-Digital (OFD)-Syndroms mit begleitenden schweren zerebralen Anomalien. Von 150 gemeldeten Fällen dieses Syndroms wiesen 16 begleitende dokumentierte zerebrale Anomalien auf, darunter porenzephale Zysten, Agenesie des Corpus callosum und kortikale Hypoplasie. Obwohl geistige Behinderung ein herausragendes Merkmal dieses Syndroms ist, ist eine neuroradiologische Abklärung selten.;-;-;-;https://link.springer.com/article/10.1007/BF01006897 46ade48d030e73a91e9a65441583a24f;de;;;1.2.;;;FLUKA-Simulationen von DPA in 6H-SiC-Reaktor-Blanket-Material induziert durch verschiedene Strahlungsfelder, häufig in der Literatur erwähnt Siliziumkarbid (SiC) wird in großem Umfang für die Herstellung von Hightech-Halbleiterbauelementen verwendet. Heute sorgt die Verwendung dieses Materials in Strahlungsumgebungen wie Fusionsreaktoren für Aufregung in der Nuklearindustrie. Bestimmte Strahlungsarten und -energien, denen Halbleiter häufig ausgesetzt waren, sind für High-Tech-Gerätestudien von großem Wert. In diesem Artikel haben wir den FLUKA-Simulationscode verwendet, um strahlungsinduzierte Effekte in 6H-SiC für verschiedene energetische Protonen, Neutronen, Photonen und Elektronen zu untersuchen. Wir haben die Verschiebungs-pro-Atom-Werte unter Berücksichtigung der Simulationsergebnisse in einer sehr großen Perspektive der Strahlungsart und -energie analysiert.;-;-;-;https://link.springer.com/article/10.1007/s10894-012-9525-5 0119e440a42b77973418eeb3978f2b18;de;;;1.2.;;;Antigenität, Lagerung und Alterung: physiologische Autoantikörper gegen Zellmembran- und Serumproteine ​​und das seneszente Zellantigen Normales Humanserum enthält Autoantikörper gegen eine Vielzahl von Zell- und Serumproteinen. IgG-Autoantikörper gegen die Zellmembranproteine ​​Spektrin, Syndein (Band 2.1), Band-3-Abbauprodukte und das seneszente Zellantigen gehören dazu. Physiologische Autoantikörper gegen das seneszente Zellantigen, ein 62 000 Dalton Glycopeptid, das von Band 3 abgeleitet ist, initiieren die Entfernung von seneszenten, beschädigten und gelagerten Zellen in vivo. Das seneszente Zellantigen ist eines der beiden Band-3-Abbauprodukte (Mr ∼ 66 000 und 62 000), die in frisch hergestellten Ghosts beobachtet werden.;-;-;-;https://link.springer.com/article/10.1007/BF00242486 f2a80c502f2f2dc21f6b17210e4b4fce;de;;;1.2.;;;Mechanismen und Bewertung der Lektin-vermittelten Mitogenese Die Entdeckung der Lektin-vermittelten Mitogenese durch Nowell im Jahr 1960 weckte das Interesse an den Eigenschaften von Lektinen und erweiterte gleichzeitig die Kenntnisse der Immunologie. Obwohl einige Lektine sowohl in vitro als auch in vivo polyklonale Aktivatoren sind, können andere ein breites Spektrum von Aktivitäten gegenüber menschlichen Lymphozyten aufweisen. Tatsächlich kann das gleiche Lektin (z. B. Weizenkeim-Agglutinin oder Datura-Lektin) in Abhängigkeit von den experimentellen Bedingungen mitogen, komitogen oder antimitogen sein. Ein einzelnes Lektin kann an mehrere Glykoproteine ​​auf der Lymphozytenoberfläche binden, was zu Wechselwirkungen führt, die funktionell relevant sein können oder nicht und die gegensätzliche Wirkungen haben können. Studien mit Lektinen und mit monoklonalen Antikörpern (MAbs) haben gezeigt, dass eine überraschend große Vielfalt an Zelloberflächenmolekülen die Initiierung und Regulation der Lymphozytenaktivierung und -proliferation beeinflussen kann. Interaktionen zwischen Lymphozyten und akzessorischen Zellen sind entscheidend, einige Signale sind zellvermittelt, andere hängen von löslichen Zytokinen ab. Mitogene Lektine binden vermutlich an den T-Zell-Rezeptor-Komplex und fördern auch ein positives kostimulatorisches Signal, das zur Synthese von Interleukin-2- und Interleukin-2-Rezeptoren (IL-2R) führt. Nicht mitogen. comitogene und antimitogene Lektinaktivitäten wirken wahrscheinlich auch über akzessorische Moleküle, die an der Costimulation beteiligt sind. Pflanzenlektin-Tier-Lymphozyten-Wechselwirkungen haben vermutlich keine physiologische Bedeutung, aber es wird vermutet, dass die ersteren Nachahmer, mikrobielle Superantigene, die bei der Kolonisierung von Wirtszellen wirken können. Die mitogene Stimulation von Lymphozyten kann auf verschiedene Weise beurteilt werden. Die Standardtechnik misst [;-;-;-;https://link.springer.com/article/10.1007/BF02789176 2f2daa2bf8f48b31c24af99c402dd12f;de;;;1.2.;;;Die Anatomie des Beckenbodens und der Schließmuskeln Der Beckenboden unterstützt die viszeralen Organe, ist entscheidend für die Aufrechterhaltung der Kontinenz, erleichtert das Wasserlassen und die Evakuierung und ist bei der Frau Teil des Geburtskanals. Diese multifunktionale Einheit ist ein Komplex aus Muskeln, Faszien und Bändern, die zahlreiche Verbindungen und Verbindungen zu knöchernen Strukturen, Organen und dem fibroelastischen Netzwerk innerhalb fetthaltiger Räume aufweisen. Eine detaillierte Einschätzung des Beckenbodens ist unerlässlich, um normale und abnormale Funktionen zu verstehen. Die Embryologie des Beckenbodens ist enthalten, um bestimmte anatomische Merkmale zu erklären.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-05206-8_1 6fef93790d890bfc64d7eab76ce2e41b;de;;;1.2.;;;MBA: Ein marktbasierter Ansatz für die Datenzuordnung und dynamische Migration für Cloud-Datenbanken Mit der bevorstehenden Umstellung auf Cloud Computing entstehen Cloud-Datenbanken, um Datenbankdienste über das Internet bereitzustellen. In der Cloud-basierten Umgebung werden Daten im Internet-Maßstab verteilt und das System muss eine große Anzahl von Benutzeranfragen gleichzeitig ohne Verzögerung bearbeiten. Die Verteilung der Daten auf die Server hat einen entscheidenden Einfluss auf die Lastverteilung der Abfragen und die Reaktionszeit des Systems. In diesem Papier schlagen wir eine marktbasierte Steuerungsmethode namens MBA vor, um einen Lastausgleich bei Abfragen über eine angemessene Datenverteilung zu erreichen. Im MBA werden Datenbankknoten als Händler in einem Markt behandelt und bestimmte Marktregeln werden verwendet, um die Datenzuordnung und -migration intelligent zu entscheiden. Wir bauten ein Prototypsystem und führten umfangreiche Experimente durch. Experimentelle Ergebnisse zeigen, dass die MBA-Methode die Systemleistung in Bezug auf die durchschnittliche Abfrageantwortzeit und Fairness deutlich verbessert.;-;-;-;https://link.springer.com/article/10.1007/s11432-011-4432-3 b9b4b5a6b070476acd0edcf304404ae2;de;;;1.2.;;;Ursachen der Zonierung Die Zonierung ist eines der offensichtlichsten Merkmale eines felsigen Ufers und mit etwas Mühe auch an Sandstränden und Wattenmeeren zu erkennen. Jede Art hat eine obere und eine untere Verbreitungsgrenze entlang des vertikalen Gezeitengradienten, und die Faktoren, die diese Grenzen setzen, haben seit langem die Aufmerksamkeit von Küstenökologen auf sich gezogen, insbesondere für Pflanzen und sessile Tiere. In diesem Kapitel besprechen wir die verschiedenen Ideen, die zur Erklärung der Zonierung vorgebracht wurden. Wir beginnen mit den frühen Ideen, die die direkten Auswirkungen physikalischer Faktoren betonten. Anschließend beschreiben wir, wie neuere manipulative Experimente die Bedeutung biologischer Faktoren für die Festlegung von Verteilungsgrenzen aufgezeigt haben. Da die meisten Studien an felsigen Ufern durchgeführt wurden, werden wir uns zuerst mit diesen befassen. Wir betrachten dann die Ursachen der Verteilung an Ablagerungsufern und anderen Umweltgradienten.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-1489-6_3 6ac7c0cfefe35ed98f385eded70151d5;de;;;1.2.;;;Entspannte aufgeregte Zustände der Farbzentren Farbzentren in Alkalihalogeniden zeigen einen optischen Zyklus, der ein Musterbeispiel für ähnliche Prozesse in anderen Materialien war und noch heute ist. Darüber hinaus ist die Lumineszenz einiger Farbzentren so effizient, dass sie in Laseranwendungen verwendet wurde. Allerdings ist der Quantenzustand, aus dem die Lichtemission stammt, der sogenannte relaxierte angeregte Zustand (RES), nicht sehr bekannt. Tatsächlich fehlt trotz der Fülle der gesammelten experimentellen Ergebnisse und der versuchten theoretischen Ansätze noch immer eine genaue Beschreibung des RES.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-3044-2_6 59b004e973f9abc8307fd480fccc24f2;de;;;1.2.;;;Simulation der Gasproduktion aus mehrschichtigen hydrattragenden Medien mit vollständig gekoppelten strömungstechnischen, thermischen, chemischen und geomechanischen Prozessen mit TOUGH + Millstone. Teil 1: Numerische Modellierung von Hydraten TOUGH + Millstone wurde für die Analyse gekoppelter Strömungs-, thermischer und geomechanischer Prozesse im Zusammenhang mit der Bildung und/oder Dissoziation von CH4-Hydraten in geologischen Medien entwickelt. Es besteht aus zwei konstituierenden Codes: (a) einer erheblich verbesserten Version des TOUGH + HYDRATE-Simulators V2.0, die alle bekannten strömungstechnischen, physikalischen, thermodynamischen und chemischen Prozesse berücksichtigt, die mit dem Verhalten von hydrathaltigen Systemen verbunden sind, die sich ändern und beinhaltet die neuesten Fortschritte bei der Beschreibung der Systemeigenschaften, nahtlos gekoppelt mit (b) Millstone V1.0, einem neuen Code, der die konzeptionellen, rechnerischen und mathematischen Mängel früherer Codes behebt, die zur Beschreibung der geomechanischen Reaktion dieser Systeme verwendet wurden. Die Fähigkeiten von TOUGH + Millstone werden in der Simulation und Analyse der Systemströmung, des thermischen und geomechanischen Verhaltens während der Gasförderung aus einer realistischen komplexen Offshore-Hydratlagerstätte demonstriert. Im ersten Artikel dieser Reihe diskutieren wir die dem T + H-Hydrat-Simulator zugrunde liegende Physik, die konstitutiven Beziehungen, die die physikalischen, chemischen (Gleichgewicht und kinetische) und thermische Prozesse beschreiben, die Zustände der;-;-;-;https://link.springer.com/article/10.1007/s11242-019-01254-6 3482cad484cff4c0bb9868f76b051968;de;;;1.2.;;;Eine Einführung in die abstrakte lineare Operatortheorie Operator In diesem Kapitel werden Sie etwas über das Ausgangsmaterial der Operatortheorie lesen. Das Kapitel ist mit dem Ziel geschrieben, möglichst schnell zur Spektraltheorie zu gelangen. Matrizen sind Beispiele für lineare Operatoren. Sie transformieren einen linearen Raum in einen anderen und tun dies linear. „Spektralwerte“ sind die unendlichdimensionalen Analoga von Eigenwerten in der endlichdimensionalen Situation. Spektralwerte können verwendet werden, um Operatoren zu zerlegen, ähnlich wie Eigenwerte verwendet werden können, um Matrizen zu zerlegen. Ein Beispiel für diese Art der Zerlegung sehen Sie im letzten Abschnitt dieses Kapitels, wo wir den Spektralsatz für kompakte hermitesche Operatoren beweisen. Eines der wichtigsten offenen Probleme der Operatortheorie zu Beginn des 21. Jahrhunderts ist das „invariante Unterraumproblem“. Im vorletzten Abschnitt dieses Kapitels beschreiben wir dieses Problem und diskutieren einige Teillösungen dafür. Wir lassen uns auch das invariante Unterraumproblem als Motivation dienen, etwas über Operatoren im Hilbertraum zu lernen. Der Stoff am Ende von Abschnitt 3 (ab Theorem 5.7) bis zum letzten Abschnitt (Abschnitt 5) des Kapitels wird normalerweise nicht in einem grundständigen Studiengang behandelt. Dieses Material ist anspruchsvoll und wird wahrscheinlich schwieriger erscheinen als andere Themen, die wir behandeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-3687-8_6 0b9da6d323be58b56c8edc316975e6c9;de;;;1.2.;;;Quantalen und Beobachtungssemantik Wir veranschaulichen die Idee, dass Quantale als Algebren experimenteller Beobachtungen an physikalischen Systemen angesehen werden können, und geben einen Überblick über einige Forschungen in der Informatik, in denen diese Idee verwendet wurde. Wir erweitern den bisher verfügbaren mathematischen Rahmen, um ihn auf allgemeinere Systeme als bisher anwenden zu können, insbesondere auf Quantensysteme und Systeme, deren Verhalten teilweise nicht beobachtbar ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1201-9_11 47490bfcdeaf2dd6d9efb85cc1f559ae;de;;;1.2.;;;Mikrobielle Tenside und ihre möglichen Anwendungen: Ein Überblick Biotensid oder mikrobielle Tenside, die von Mikroben produziert werden, sind strukturell vielfältige und heterogene Gruppen oberflächenaktiver amphipathischer Moleküle. Sie sind in der Lage, Oberflächen- und Grenzflächenspannungen zu reduzieren und haben ein breites Anwendungsspektrum in Industrie und Umwelt. Das vorliegende Kapitel gibt einen Überblick über die biochemischen Eigenschaften verschiedener Klassen mikrobieller Tenside und deren potenzielle Anwendung in verschiedenen Industriesektoren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-5979-9_4 f229394b172e3ae810a56bcc53d79db2;de;;;1.2.;;;Oral plus lokale Antibiotika reduzieren die Notwendigkeit eines operativen Eingriffs bei chronischer Analfissur erheblich: ein neues Ergebnis Bis zu 40% Patienten mit chronischer Fissur-in-ano müssen operativ eingegriffen werden. Bis heute spielen Antibiotika, lokal oder oral, keine Rolle bei der Behandlung chronischer Fissuren-in-Ano. In einer prospektiven Studie wurde Fissur-in-ano wie folgt klassifiziert: akut <6 Wochen Dauer, chronisch >6 Wochen mit normalem/niedrigem Analtonus und akut-on-chronisch >6 Wochen Dauer mit hohem Analtonus . Der ruhende Analtonus wurde klinisch auf einer objektiven Skala – dem DRESS-Score – dem Bewertungssystem für die digitale rektale Untersuchung, bewertet. Lokale und orale Antibiotika zur Vermeidung von Obstipation (LOABAC) wurden für 6 Monate empfohlen. Bei refraktären Fällen wurde flüssiges Paraffin und bei hohem Analtonus Diltiazem-Creme zusammen mit einem Sitzbad verordnet. Non-Responder wurden einer MRT unterzogen, um nach einer Fissurenvertiefung (Vorliegen von Sinus/Fistel) zu suchen. Die Heilung von Fissuren-in-ano wurde durch das Fehlen von Schmerzen, Brennen, Juckreiz oder Krämpfen nach dem Stuhlgang und das Fehlen von Druckempfindlichkeit bei der perrektalen Untersuchung beurteilt. Von 109 Fissuren-in-ano-Patienten, die über 20 Monate rekrutiert wurden, wurden schließlich 90 (M/W – 50/40) eingeschlossen. Das Durchschnittsalter betrug 37,6 ± 12,3 Jahre. Bei konservativ behandelter Behandlung zeigten 86,7% (78/90) der Patienten eine signifikante Linderung und wurden ohne weitere Intervention geheilt. Zwölf von neunzig (13,3%) Patienten hatten keine/minimale Linderung und wurden einer MRT unterzogen, die in 10/90 (11,1%) einen Fissuren-Sinus/Trakt zeigte. MRT war in 2/90 (2 %) normal. Fünf von zehn Patienten mit Nebenhöhlen wurden operiert (Auflegen der Nebenhöhlen) und wurden danach wieder gesund. Der Rest der fünf Patienten wurde zur Nachuntersuchung verloren. Bei chronischer Fissur-in-Ano reduziert die Gabe von lokalen und oralen Antibiotika unter Vermeidung von Obstipation signifikant die Notwendigkeit einer operativen Intervention.;-;-;-;https://link.springer.com/article/10.1007/s12262-017-1617-z 8894630db71c8a3812465d4e24994372;de;;;1.2.;;;Anwendungen von Osmium und Iridium als biogeochemische Tracer in der Umwelt Osmium (Os) und Iridium (Ir) gehören zu den seltensten Elementen auf der Erdoberfläche und sind in der modernen Industrie nur sehr begrenzt einsetzbar. Ihre Umweltbelastung hat jedoch zugenommen, da sie in der Natur mit anderen Platingruppenelementen vorkommen, die eine Vielzahl von industriellen, chemischen, elektrischen und pharmazeutischen Anwendungen haben. Diese Übersicht verfolgt die Entwicklung der analytischen Techniken, die verwendet werden, um die Os- und Ir-Konzentrationen und die Os-Isotopenzusammensetzung in den Umweltproben von ihren Wurzeln in geochemischen und kosmochemischen Untersuchungen präzise zu messen. Anschließend untersuchen wir die Verteilung von Os und Ir in natürlichen Proben und überprüfen die neuere Literatur, die diese Elemente als biogeochemische Tracer verwendet. Die primären Umweltanwendungen von Os und Ir ergeben sich aus der Tatsache, dass diese Elemente auf der Erdoberfläche äußerst selten sind und ihr Eintrag in die Umwelt zu einer Erhöhung ihrer Konzentration in Oberflächenmaterialien führt. Darüber hinaus ist ein einzigartiger Isotopen-Fingerabdruck für Os vorhanden, der in die Umwelt eingeführt wurde, da er aus Erzen stammt, die hauptsächlich in Südafrika und Russland abgebaut wurden. Insbesondere untersuchen wir Studien, in denen (a) Os-Isotope verwendet wurden, um die Ausbreitung von Platingruppenelementen aus Automobilkatalysatoren zu verfolgen und auch die Ausbreitung von Os selbst zu beurteilen, und (b) Ir als absichtlicher Tracer zur Bewertung des Rußbeitrags eingeführt wurde aus der Verbrennung fossiler Brennstoffe.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10637-8_11 8aeee4f55f120a2ea0d353d202c22638;de;;;1.2.;;;Tief eindringender Nävus Der tief penetrierende Nävus ist ein intradermales oder manchmal zusammengesetztes melanozytäres Neoplasma mit drei charakteristischen histologischen Merkmalen: — es nimmt einen großen Teil der Dermis ein und erreicht gelegentlich die Subkutis, — es enthält große Zellen mit blassem Zytoplasma und einem unterschiedlich großen Kern, — und es hat bei der klinischen Untersuchung aufgrund der vielen Melanophagen eine dunkle Farbe. Seine Pigmentierung, das periadnexale Muster und die gleiche Zellgröße am oberen und unteren Rand der Läsion sind Befunde, die darauf hindeuten, dass es sich um eine Variante des blauen Nävus handelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7985-1943-5_14 b754ef792a9b26bcd8fccbacd68a0d98;de;;;1.2.;;;Atomistische Modellierung von Elektrodenmaterialien für Li-Ionen-Batterien: Vom Bulk zu Grenzflächen Im Bereich der Energiematerialien stellt die rechnerische Modellierung elektrochemischer Geräte wie Brennstoffzellen, Akkus, Photovoltaikzellen oder Fotobatterien, die Energieumwandlung und -speicherung kombinieren, für Theoretiker eine große Herausforderung dar. Angesichts der Vielzahl von Fragen im Zusammenhang mit der Modellierung jedes dieser Geräte beschränkt sich dieses Kapitel auf die Untersuchung von wiederaufladbaren Batterien (Akkumulatoren) und insbesondere von Li-Ionen-Batterien. Das Ziel dieses Kapitels ist es, einige der Schlüsselprobleme im Zusammenhang mit der theoretischen und computergestützten Behandlung dieser komplexen Systeme hervorzuheben und einige der modernsten Computertechniken und -methoden vorzustellen, die in diesem Bereich entwickelt werden, um eine der die größten Herausforderungen unseres Jahrhunderts in Sachen Energiespeicherung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-5677-2_1 0f6b23fe37b3f9f9634f570411ff6b98;de;;;1.2.;;;Deterministische und statistische Eigenschaften der Westerlies Es wird eine kurze Beschreibung der klassischen Theorie der atmosphärischen Zirkulation in mittleren Breiten gegeben, die im Wesentlichen auf der Analyse zonengemittelter stationärer Strömungen und ihrer Stabilitätseigenschaften basiert. Die Struktur und die statistischen Eigenschaften der beobachteten Zirkulation werden ausführlich diskutiert. Besonderes Augenmerk wird auf die lang anhaltenden Anomalien gelegt, die normalerweise mit dem meteorologischen Phänomen „Blocking“ verbunden sind. Anomalien führen zu mehreren physikalischen Interpretationen, die der Schlüssel zum Verständnis der statistischen Eigenschaften des atmosphärischen Systems und damit des Klimas sein können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-6608-8_10 f44f7785b8d8e7d9fb899dff09855379;de;;;1.2.;;;Die geologische Geschichte von Ibiza und Formentera Die große Vielfalt an Gesteinen, die heute das Relief von Eivissa und Formentera bilden, sowie die Fülle an Fossilien, die in einigen der Gesteinsschichten zu finden sind, sind wertvolle und umfangreiche Informationsquellen über die geologische Geschichte dieser Inseln.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-6539-3_3 481d9bb0ae17e90857fb43300c61fe4b;de;;;1.2.;;;Modellierung des Kriech- und Zugverhaltens bei hoher homologe Temperatur unter Verwendung der Viskoplastizitätstheorie basierend auf Überspannung (VBO) Bei der Modellierung von Schweiß- und Gießprozessen muss der Übergang vom flüssigen in den festen Zustand eines Metalls oder einer Legierung in einem konstitutiven Modell abgebildet werden, um eine entsprechende Spannungs- und Schadensanalyse sowie Prozesssimulation durchführen zu können. Es wird angenommen, dass sich die Metallschmelze wie ein Newtonsches Fluid verhält und die Stoffgleichung des Fluids sich aus der Stoffgleichung des geschwindigkeits-(zeit-)abhängigen Festkörpers ergeben muss, wenn die Temperatur die Solidustemperatur überschreitet. Wenn die Temperatur sinkt, wird die Flüssigkeit zu einem Feststoff, dessen Eigenschaften anfänglich denen einer Flüssigkeit ähnlich sind. Mit abnehmender Temperatur dominieren weitere Feststoffeigenschaften. Zu diesen Merkmalen gehören Kaltverfestigung, zyklische Verfestigung und die Fähigkeit, einer Ruhespannung ungleich Null nach vorheriger unelastischer Verformung standzuhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-79654-8_199 1dda18d19564112e35d82cf26cb107ec;de;;;1.2.;;;Nettoprämienreserven Stellen Sie sich eine Versicherung vor, die über Nettoprämien finanziert wird. Zum Zeitpunkt des Vertragsabschlusses entspricht der erwartete Barwert der zukünftigen Prämien dem erwarteten Barwert der zukünftigen Leistungszahlungen, d. h. der erwartete Verlust;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-03153-7_6 d97ac1d7a2ead9d5a5bd9eba31015046;de;;;1.2.;;;Eine historische Einführung in Computermodelle für fraktale Aggregate Es ist seit einem Jahrhundert bekannt, dass kleine Partikel, die in Flüssigkeiten und Gasen dispergiert sind, Aggregate mit außergewöhnlich niedriger Dichte bilden können, und eine Vielzahl von Studien in den 1960er und 1970er Jahren, die auf konzeptionellen Modellen und Computermodellen basieren, legten nahe, dass „anomale“ Skalierungsbeziehungen mit den Strukturen dieser Aggregate verbunden. Das Fehlen eines geeigneten theoretischen Rahmens und die Grenzen der Computertechnologie verhinderten jedoch die Entwicklung eines kohärenten Verständnisses der Strukturen dieser Aggregate und der Kinetik ihrer Bildung. In den 1980er Jahren beseitigten die Popularisierung der fraktalen Geometrie und die rasanten Fortschritte in der Computertechnologie diese Hindernisse für den Fortschritt. In diesem Aufsatz werden die frühen Arbeiten zu fraktalen Aggregaten diskutiert und die grundlegenden Partikel-Cluster- und Cluster-Cluster-Aggregationsmodelle beschrieben, die in den 1980er Jahren eingeführt wurden. In den 1990er Jahren konzentrierte sich das Interesse auf die subtilen Beziehungen zwischen Aggregation, Gelierung und spinodaler Zersetzung sowie auf das physikalische Verhalten von Systemen, die fraktale Aggregate enthalten. Die folgenden Beiträge in dieser Sonderausgabe des Journal of Sol-Gel Science and Technology zum Thema „Computersimulationen von Aggregation und Sol-Gel-Prozessen“ beschreiben die jüngsten Fortschritte in diese Richtung. Sie werden in diesem Einführungsbeitrag vorgestellt.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008731904082 01cf9851200fe2dd9b0d505d4582b192;de;;;1.2.;;;Überlandverkehrsnetze: Entwicklungsgeschichte und Zukunftsaussichten Die Basistechnologien für den Landverkehr werden durch ihre Infrastrukturen symbolisiert: Kanäle, Eisenbahnen, Straßen und Luftwege. Sie integrieren räumlich unterschiedliche Orte zu miteinander verbundenen Einheiten und sind als Netzwerke strukturiert. Knoten sind unterschiedliche Orte mit Interaktionspotenzial, wie zum Beispiel urbane und industrielle Zentren. Links sind einzelne Verkehrsinfrastrukturen wie Kanäle, Eisenbahnen und Straßen und die dazugehörigen Verkehrsträger, z. B. Schiffe, Bahnen und Autos. Mit der Zeit ersetzen sie sich nach und nach, alte Systeme werden durch neue ersetzt. Jede einzelne Infrastruktur entwickelt sich nach einem bestimmten Schema, dem sogenannten Technologie-Lebenszyklus. Sie beginnt mit einer frühen Entwicklungsphase mit hohem Experimentiergrad, entwickelt sich über eine Wachstumsphase, die von Standardisierung und durchdringender Diffusion geprägt ist, und tritt schließlich in die letzte Sättigungsphase ein, in der die technischen und wirtschaftlichen Potenziale und damit die weiteren Wachstumsperspektiven ausgeschöpft sind . Dies führt zu einem Strukturwandel und Übergang zur nächsten Generation von Verkehrssystemen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-57843-4_9 b502361a51543791330934a29c72b3c5;de;;;1.2.;;;Makroskopische Behandlung von Oberflächenphänomenen: Thermodynamik und Kinetik von Oberflächen Zunächst definieren wir den Begriff „Oberfläche“. Darunter verstehen wir einfach die Beendigung des Volumenzustands, also den Bereich einer festen oder flüssigen Phase, in dem die auf der Dreidimensionalität basierenden Gleichungen nicht mehr ausreichen, um den vollständigen physikalischen Zustand des Systems zu beschreiben. Diese Definition impliziert, dass eine Oberfläche nicht unbedingt auf die oberste Atomschicht einer Flüssigkeit oder eines Kristalls beschränkt ist, sondern aus mehreren solcher Schichten bestehen kann, die sich in die Masse erstrecken, dh in den Bereich an oder nahe der Oberfläche, wo die Symmetrie der Masse gestört, so dass veränderte Wechselwirkungskräfte entstehen. Diese Asymmetrie wird in Abb. 2.1 veranschaulicht und ist eigentlich für das eigentümliche Verhalten von Oberflächen und Grenzflächen verantwortlich, das zu Phänomenen wie Oberflächenspannung, Kapillardruck oder erhöhter chemischer Reaktivität von Oberflächen im Allgemeinen führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-08009-2_2 ff0d470fdd93923d9788960422224b4c;de;;;1.2.;;;Primäre diffuse leptomeningeale Gliomatose mit anaplastischen Merkmalen Ein Fall von primär diffuser leptomeningealer Gliomatose mit anaplastischen Merkmalen, die zu Lebzeiten diagnostiziert und bei der Autopsie bestätigt wurde, wird vorgestellt. Die klinischen, radiologischen und pathologischen Merkmale werden mit denen der wenigen in der Literatur beschriebenen Fälle verglichen. Frühen Papillenödemen und Hydrozephalus folgten Spinal- und Hirnnervenlähmungen. Die NMR-Bilder und die Gewebebiopsie erwiesen sich als nützlich, um eine in-vivo-Diagnose zu erreichen.;-;-;-;https://link.springer.com/article/10.1007/BF01404866 807dea64dd04b80e6f482b44d94bc20b;de;;;1.2.;;;Verteilung von bph-Genen, die Biphenyl und polychlorierte Biphenyl-abbauende Enzyme codieren, in Bodenbakterien Sechzehn biphenyl- und polychloriertes Biphenyl (PCB) abbauende Stämme wurden an verschiedenen Standorten aus dem Boden isoliert und charakterisiert. Alle Isolate waren gramnegative Bakterien, darunter elf Arten von;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1435-8_18 9167055b67a66ecca5735d1496cd32b9;de;;;1.2.;;;Ernährungsverbesserung von Hülsenfruchtproteinen durch Disulfidaustausch Die Behandlung von rohem Sojamehl mit L-Cystein oder N-Acetyl-L-Cystein führt zur Einführung neuer Halb-Cystin-Rückstände in schwefelarme Hülsenfruchtproteine, mit einer entsprechenden Verbesserung der Nährwertqualität, gemessen am Protein-Effizienz-Verhältnis (PER ) bei Ratten. Die Proteine ​​werden durch Bildung gemischter Disulfidbindungen zwischen hinzugefügten Sulfhydrylverbindungen, proteolytischen Enzyminhibitoren und strukturellen Hülsenfruchtproteinen modifiziert. Diese Modifikation führt zu einem Verlust der inhibitorischen Aktivität und einer erhöhten Proteinverdaulichkeit und einem erhöhten Nährwert. Natriumsulfit ist wirksamer als Cystein, um die Inaktivierung von Trypsin-Inhibitoren in Sojamehl zu erleichtern. Die synergistische Wirkung von Natriumsulfit und Wärme kann auf (1) die Fähigkeit zurückzuführen sein, eine Umlagerung von Proteindisulfidbindungen zu induzieren, um neue strukturelle Einheiten zu erzeugen, ohne die Aminosäurezusammensetzung zu verändern, und auf (2) der Tatsache, dass die neuen Strukturen ihre Fähigkeit zur Komplexbildung verlieren mit Trypsin oder Chymotrypsin. Die gleiche Behandlung inaktivierte Hämagglutinine (Lectine) in Limabohnenmehl. Diese Überlegungen legen nahe, dass Schwefelaminosäuren eine Schlüsselrolle für die Ernährungsqualität und Sicherheit von Hülsenfrüchten spielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-0022-0_21 1c4139d8a647562540fe5831bdef4876;de;;;1.2.;;;Das Küstenzoobenthos Das Küstensubstrat und das dazugehörige Zoobenthos werden anhand einer Reihe von Proben beschrieben, die im Herbst 1977 an den Küsten dieser fünf Seen gesammelt wurden -Zyklen und Tiefenverteilung des Zoobenthos an der Küste. Loch Lomond hatte die vielfältigste und reichhaltigste Fauna, während die von Loch Shiel und Morar in beiderlei Hinsicht sehr verarmt waren. Loch Lomond, Awe und Ness hatten viele Gemeinsamkeiten, aber Loch Morar und Shiel unterschieden sich von diesen drei Lochs und voneinander. Die Ähnlichkeiten und Unterschiede werden in Bezug auf Umweltfaktoren diskutiert und auch die Ökologie verschiedener Arten von ökologischem Interesse wird berücksichtigt. Die Auswirkungen des Menschen auf die Umwelt werden untersucht, insbesondere in Bezug auf Wasserkraftanlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-8635-0_7 f3840b5eb1feb48da61cd5547f458b5b;de;;;1.2.;;;Korrelation von glomerulärer Permeabilität, Endothelverletzung und postoperativer multipler Organdysfunktion Es sollte festgestellt werden, ob der Grad der Mikroalbuminurie mit dem Ausmaß der Endothelzellschädigung, der Schwere der Erkrankung und dem Ausmaß der Multiorgandysfunktion bei Patienten, die sich einer Notoperation unterziehen, korreliert;-;-;-;https://link.springer.com/article/10.1007/s00595-004-2834-1 56caaeb7875559723847a173c828a1d3;de;;;1.2.;;;Balanitis und Vulvitis Als Balanitis wird eine akute oder chronische Entzündung der Eichel und der Vorhaut bezeichnet. Phimose wird häufig damit in Verbindung gebracht. Es ist selten bei beschnittenen Männern.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-3528-6_23 e728260ee7e3c2d11c447c9a8fbca462;de;;;1.2.;;;Ist das eine Verfassung? Anmerkungen zu einem umstrittenen Konzept In seinem Mandat vom Juni 2007 forderte der Europäische Rat die Regierungskonferenz auf, einen „Reformvertrag“ auszuarbeiten, „um die Effizienz und demokratische Legitimität der erweiterten Union sowie die Kohärenz ihres auswärtigen Handelns zu verbessern“. Weiter heißt es: „Das Verfassungskonzept, das darin bestand, alle bestehenden Verträge aufzuheben und durch einen einzigen Text namens ‚Verfassung‘ zu ersetzen, wird aufgegeben.“;-;-;-;https://link.springer.com/chapter/10.1007/978-3-211-09429-7_2 f06c1233d74b5062c5aeb3e1db513265;de;;;1.2.;;;Ultraschallbiometrie des sagittalen Augenwachstums bei Kindern Es ist notwendig, die Wachstumskurven der refraktiven Komponenten der Augen von Kindern zu ermitteln, um die Ätiologie von refraktiven Anomalien aufzuklären und um die Myopie von Frühgeborenen, Buphthalmus oder Augen mit abnormaler axialer Länge mit Makro- oder Mikrokornea zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-7278-0_37 371d7e9c48f8979ccc39ae348e0af734;de;;;1.2.;;;Auswirkungen des Phonemrepertoires In drei Experimenten entdeckten Hörer Vokal- oder Konsonantenziele in Listen von CV-Silben, die aus fünf Vokalen und fünf Konsonanten aufgebaut waren. Antworten waren schneller in einem vorhersehbaren Kontext (z. B. beim Hören auf ein Vokalziel in einer Liste von Silben, die alle mit demselben Konsonanten begannen) als in einem unvorhersehbaren Kontext (z. . In Experiment 1 war die Muttersprache der Zuhörer Niederländisch, in dem Vokal- und Konsonantenrepertoire ähnlich groß sind. Der Unterschied zwischen vorhersagbaren und unvorhersehbaren Kontexten war für Vokal- und Konsonantenziele vergleichbar. In Experiment 2 und 3 war die Muttersprache der Zuhörer Spanisch, das viermal so viele Konsonanten wie Vokale hat, hier waren die Auswirkungen eines unvorhersehbaren Konsonantenkontextes auf die Vokalerkennung signifikant größer als die Auswirkungen eines unvorhersehbaren Vokalkontextes auf die Konsonantenerkennung. Dieser Befund legt nahe, dass die Verarbeitung von Phonemen durch Hörer die Konstitution des phonemischen Repertoires ihrer Sprache und die Auswirkungen, die dies auf die kontextuelle Variabilität hat, berücksichtigt.;-;-;-;https://link.springer.com/article/10.3758/BF03211936 e67023364ab586f6e731024def317017;de;;;1.2.;;;Gibt es gemeinsame biochemische und molekulare Mechanismen, die Manganismus und Parkisonismus kontrollieren? In den letzten Jahrzehnten hat unser grundlegendes Wissen über die Mechanismen und Faktoren, die die Mn-Toxizität regulieren, erhebliche Fortschritte gemacht. Die als Manganismus bekannte Störung ist mit der bevorzugten Akkumulation von Mn im Globus pallidus der Basalganglien verbunden, die allgemein als die Haupt- und Ausgangsstelle der Verletzung angesehen werden. Da der Bereich des ZNS, der die Basalganglien umfasst, sehr komplex ist und von der genauen Funktion und Ausgewogenheit mehrerer Neurotransmitter abhängt, überrascht es nicht, dass sich die Symptome des Manganismus häufig mit denen der Parkinson-Krankheit überschneiden. Die Tatsache, dass neurologische Symptome und der Beginn der Mn-Toxizität ziemlich breit gefächert sind und unvorhersehbar variieren können, spiegelt wahrscheinlich die spezifische genetische Varianz der physiologischen und biochemischen Zusammensetzung innerhalb der Basalganglien bei jedem Individuum wider. Unterschiede in der Reaktion auf Mn-Überexposition sind daher wahrscheinlich auf die zugrunde liegende genetische Variabilität zurückzuführen, die sich letztendlich in Abweichungen sowohl in der Anfälligkeit als auch in den Charakteristiken der neurologischen Läsionen und ausgedrückten Symptome zeigt. Obwohl eine chronische Mn-Exposition nicht der ursprüngliche Erreger des Parkinsonismus ist, gibt es Hinweise darauf, dass eine anhaltende Exposition eine Person prädisponieren kann, dystonische Bewegungen im Zusammenhang mit der Parkinson-Krankheit zu entwickeln. Wie in dieser Übersicht angemerkt, scheint es gemeinsame Fäden zwischen den beiden Erkrankungen zu geben, da Mutationen in den Genen Parkin und ATP13A2, die mit dem frühen Auftreten von Parkinsonismus in Verbindung stehen, auch eine Person für die Entwicklung einer Mn-Toxizität anfällig machen können. Mutationen in beiden Genen scheinen den Transport von Mn in die Zelle zu bewirken. Diese genetischen Unterschiede in Verbindung mit zusätzlichen Umwelt- oder Ernährungsfaktoren müssen auch als Beitrag zur Schwere und zum Auftreten von Manganismus angesehen werden.;-;-;-;https://link.springer.com/article/10.1007/s12017-009-8088-8 be86e431f8e027ce14417d14051bfa70;de;;;1.2.;;;Über eine prädiktive Zuverlässigkeit der Ermüdungsrissinitiierung für große Stahlgussteile Seit über einem Jahrhundert werden und werden große Gussteile aus Stahl und Gusseisen erfolgreich in Ermüdungsbelastungssituationen hergestellt und betrieben. In jüngerer Zeit sind jedoch die Kundenanforderungen an die Leistungsübertragung und die Zuverlässigkeit schwerer Maschinen gestiegen, zusammen mit einer entsprechenden Zunahme sowohl der Komponentengröße als auch der Auswirkung von inhärenten Gussfehlern. Die langfristigen Ziele der Forschung, über deren aktueller Stand in diesem Papier berichtet wird, sind daher zweierlei. Die erste besteht darin, einen Zuverlässigkeits- und Entscheidungsfindungsalgorithmus auf der Grundlage probabilistischer Konzepte zu erstellen, der die Art, Geometrie und Lage von Gussfehlern, ihre Schwere, die lokalen Ermüdungsmaterialeigenschaften von Metallen, die üblicherweise in Gussform verwendet werden, und die Vielfalt der Ermüdungsbelastungen berücksichtigt Situationen. Die zweite besteht darin, eine wachsende Datenbank aufzubauen, um bei der Formulierung zukünftiger Konstruktionsentscheidungen in immer mehr Situationen mit großen Stahlgusskomponenten zu helfen. Obwohl diese prädiktive Technik im Allgemeinen auf jede große Gusssituation anwendbar ist, sind die hier berichteten Forschungsanstrengungen darauf gerichtet, Schätzungen der Zuverlässigkeit der Rissinitiierung für Hohlräder mit 6 bis 12 m Durchmesser zu erstellen, die zum Antrieb von Erzmühlen verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-6821-9_31 6b4e77bd06659b7f1ef5056f907254ea;de;;;1.2.;;;Physikalische Methoden zur Untersuchung von Polyoxometallaten: Erweiterte HÜCkel-Molekularorbitalrechnungen und spektroskopische Eigenschaften Polyoxometallate (POMs) von Vanadium, Molybdän und Wolfram und teilweise auch Niob und Tantal sind sehr wichtige und interessante Komplexklassen mit großem Potenzial für viele Anwendungen [;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0091-8_5 43bd71f2880ea04f74e6de57dc913f2f;de;;;1.2.;;;Eine historische Einführung in die jüdische Kasuistik über Selbstmord und Euthanasie Der Glaube an die Heiligkeit des menschlichen Lebens ist der Glaube, dass jeder Moment des biologischen Lebens jedes Mitglieds unserer Spezies von unendlichem Wert ist. Dieser Glaube hat tiefgreifende Auswirkungen auf die Diskussionen über die Medizinethik, er steht beispielsweise im Gegensatz zu den jüngsten Diskussionen über einen würdevollen Tod, die die Autonomie und Lebensqualität des Patienten eher als die Heiligkeit des menschlichen Lebens betonen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-7838-7_3 2a997800e0826c1bdd392bbdde390874;de;;;1.2.;;;Organisation des „Nichtolfaktorischen“ Telencephalon Bis vor kurzem glaubte man, dass das Froschtelencephalon, wie auch die anderen Nichtsäuger-Wirbeltiere, vom olfaktorischen System dominiert werden. Dieses Missverständnis könnte ursprünglich auf die relativ große Größe der Riechkolben und -bahnen zurückzuführen sein. Es wurde angenommen, dass alle Regionen des Telencephalons olfaktorische Afferenzen erhielten. Die Dominanz des Telenzephalons durch den Geruchssinn ließ wenig Raum für die telenzephale Darstellung anderer Sinnesmodalitäten: Ein typisches Beispiel hierfür ist das Sehen. Das optische Tektum wurde als wichtigster Teil des visuellen Systems von Nichtsäuger-Vertebraten angesehen, zwischen- und telenzephale Strukturen wurden als wenig involviert in diese Modalität angenommen. Herrick (1948) stellte sich den amphibischen Dorsalthalamus als einen Nucleus sensitivus vor, der multimodale Afferenzen integriert und ohne funktionelle Unterteilungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-66316-1_34 f609b408fc8e512c705d1568e980dbd1;de;;;1.2.;;;Lungenmetabolismus beim Fötus und Neugeborenen Entwicklungsstudien zum Stoffwechsel der perinatalen Lunge haben sich hauptsächlich auf das pulmonale Surfactant-System konzentriert, da die fetale Lunge ausreichende Mengen dieses wertvollen Lipid-Protein-Komplexes produzieren muss, um die Fähigkeit des Neugeborenen zu gewährleisten, bei der Geburt eine regelmäßige Luftatmung einzuleiten. Für eine Reihe von Säugetierarten, einschließlich des Menschen, ist gut belegt, dass die Surfactant-Produktion in der pränatalen Lunge während der letzten Trächtigkeitsperiode sprunghaft ansteigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-1642-1_28 cff8a68bb538d30cc55afbcc74594d9a;de;;;1.2.;;;Analyse der Ordnung in höheren Instabilitäten in Bezug auf das Auftreten von Chaos in einem Taylor-Couette-Strömungssystem Ziel der experimentellen Arbeit ist es, den Mechanismus für das Auftreten von Chaos in einem Taylor-Couette-Strömungssystem aufzuklären. Die Aufmerksamkeit wurde auf den Bereich höherer Instabilität von der doppeltperiodischen bis zur schwachturbulenten wellenförmigen Wirbelströmung gerichtet. Um den Hystereseeffekt zu berücksichtigen, wurde die Innenzylinderdrehung aus dem Ruhezustand mit konstanter Geschwindigkeit beschleunigt, bis eine vorgegebene Reynolds-Zahl erreicht wurde. Die Teststrecke mit einem Radiusverhältnis von 0,625 hatte eine Ringspaltweite von 22,5 mm und ein Aspektverhältnis von 4. Ein faseroptischer Laser-Doppler-Geschwindigkeitsmesser wurde verwendet, um eine zeitabhängige periphere Geschwindigkeitskomponente im zentralen Bereich von Wirbel-ceHs zu beobachten. Gleichzeitig wurde die zeitabhängige periphere Komponente von Geschwindigkeitsgradienten an der Wand des stationären Außenzylinders in der Nähe einer der ceH-Grenzen des Ausflusses mit einem bündig in die zylindrische Innenfläche eingebetteten Heißfilm-Schersensor gemessen. Unabhängig von der im Anfahrbetrieb getesteten Beschleunigungsrate der Innenzylinderrotation bildeten sich immer vier Wirbel ceHs, aber die axiale Wellenlänge der beiden Zentralwirbel war kürzer als die der verbleibenden beiden Endwirbel. Die Amplituden der Geschwindigkeitsschwankungen und des Geschwindigkeitsgradienten variierten unregelmäßig, während die erste Grundfrequenz proportional zur Innenzylinderdrehung beibehalten wurde, solange die azimutal wandernden Wellen existierten. Es wurde gefolgert, dass Chaos zunächst an den Einströmzellengrenzen als Folge der Instabilität der viskosen Wechselwirkung von Endwirbeln mit den festen Boden- und Deckflächen auftritt und dass sich die chaotische Turbulenz entlang der Sekundärströmungsstromlinien in Richtung der zentralen Wirbel ausbreitet und durchdringt sehr langsam zum Zentrum der Wirbelzellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-56963-0_20 95658d28ab803c04206eb355a832bce6;de;;;1.2.;;;Elektrophysiologie und topographische Verteilung visuell evozierter Potentiale bei Tieren Evozierte Potentiale sind die bioelektrischen Reaktionen von Nervengewebe (Feldpotentiale) nach elektrischer oder adäquater Stimulation von Sinnesorganen, afferenten Nerven oder anderen neuronal mit dem erfassten Areal verbundenen Hirnstrukturen. Evozierte Potentiale können nur erfasst werden, wenn gleichzeitig genügend Nervengewebe erregt wird. Daher handelt es sich bei den Reizen entweder um elektrische Reize aus einer Vielzahl von Elementen oder um adäquate Reize (Licht, Schall, Druck etc.) mit einem scharfen Gradienten und von kurzer Dauer. Für visuell evozierte Potentiale wird ein kurzer Blitz (ca. 1–10 μs) intensiven Lichts verwendet, wie er von einem Stroboskop erzeugt wird, oder Blitze von längerer Dauer, aber mit kurzer Anstiegszeit. Sinusförmige Reize haben den Nachteil variabler Anstiegszeiten proportional zur Reizfrequenz. Die evozierten Potentiale, die sowohl durch Licht als auch durch elektrische Reize in irgendeinem Teil des visuellen Systems erzeugt werden, haben nur einen eingeschränkten Wert für die Analyse der feineren funktionellen Organisation des visuellen Systems, wenn sie nicht mit Ergebnissen einzelner neuronaler und Verhaltensanalysen korreliert werden. Die evozierte Potenzialanalyse hat jedoch zwei Vorteile: 1) Als elektrophysiologisches Werkzeug zur Bestimmung anatomischer Zusammenhänge im Gehirn und 2) als Methode zur Überwachung zerebraler Reaktionen in Verhaltens-, physiologischen oder pathophysiologischen Situationen, wenn verfeinerte Aufnahmemethoden nicht anwendbar sind. Die Aussagekraft eines evozierten Potentials wird steigen, wenn mehr über die erregenden und hemmenden Reaktionen der einzelnen Neuronen bekannt ist, die dazu beitragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-65495-4_15 749d25fcc21efdd2aaa55021e0bec7a7;de;;;1.2.;;;Akute letale Graft-versus-Host-Krankheit stimuliert die Zellproliferation in Peyer-Plaques und follikelassoziiertem Ileumepithel von erwachsenen Ratten In dieser Studie wurde die Zellproliferation in Peyer’s Patches (PP) und den Lieberkuhn-Krypten des Follikel-assoziierten Ileumepithels während der Entwicklung einer akuten letalen Graft-versus-Host-Reaktion (GVHD) bei erwachsenen Ratten analysiert. Darüber hinaus wurde die Wirkung der Thymektomie auf die GVHD-induzierte Lymphoproliferation durch Analyse der;-;-;-;https://link.springer.com/article/10.1007/BF02890213 52b93cdf8f17be664fc03643b3cc9f03;de;;;1.2.;;;Theoretische Überlegungen Viele Physiologen haben die Tatsache beklagt, dass es viel zu viel Theorien und viel zu wenig definitive Experimente zur Translokation von Assimilaten im Phloem gegeben hat. Das Fehlen definitiver Experimente kann teilweise durch die Komplexität und die Feinheit des untersuchten Systems erklärt werden. Aber definitive Experimente können nicht entwickelt werden, ohne vorher wohldefinierte Modelle aufzustellen. Wir meinen, dass der Umfang der Theoriebildung weit weniger beklagenswert wäre, wenn sie auf klar formulierten Prämissen beruhen und durch die Anwendung der Schalltransporttheorie entwickelt würde. Mit nur relativ wenigen Ausnahmen war das meiste „Theoretisieren“ qualitativ,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-66161-7_16 161859695aab30fc102449ad9cb1f14a;de;;;1.2.;;;Politik und Wissensproduktion: Zwischen Verbriefung und Risikoisierung der Schiefergasproblematik in Polen und Deutschland Dieses Kapitel vergleicht die Schiefergaspolitik in Polen und Deutschland im Hinblick auf den Verbriefungsrahmen, der für Energiestudien um die Konzepte Riskification, Politization und Security Jargon erweitert wurde. Die Analyse zeigt, dass ein wichtiger Teil dieser Politik die Gewinnung von Wissen über die Beziehung zwischen Schiefergasförderungsprozessen und der Umwelt beinhaltet. In Polen und Deutschland wurden zwei unterschiedliche Formen der Wissensproduktion organisiert. In Polen führte das Polnische Geologische Institut empirische Messungen der Umweltauswirkungen an sieben Standorten durch, an denen Unternehmen nach Schiefergas bohrten. In Deutschland hat ExxonMobil ein Expertengremium eingerichtet, das die Worst-Case-Szenarien hypothetischer Bohrungen modelliert hat. Das auf diese methodisch unterschiedliche Weise produzierte Wissen diente nicht nur der Untermauerung unterschiedlicher politischer Bewegungen rund um Schiefergas auf nationaler Ebene – in Polen der Verbriefung und in Deutschland der Risikoifizierung –, sondern wurde im polnischen Fall auch von politischen Akteuren verwendet, um eine Risikoifizierung des Schiefers zu verhindern Gasproblem auf EU-Ebene.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-64964-1_4 0cb11b404a67c870d0f6e029dbd590bb;de;;;1.2.;;;Der Vergleich zwischen der Wachstumsfraktion von bilateralen Vestibularisschwannomen bei Neurofibromatose 2 (NF2) und unilateralen Vestibularisschwannomen unter Verwendung des monoklonalen Antikörpers MIB 1 Formalinfixierte Paraffinschnitte von 55 konsekutiven bilateralen Vestibularisschwannomen bei 46 Patienten mit Neurofibromatose 2 (NF2) und 50 Patienten mit einseitigen Vestibularisschwannomen wurden immunhistochemisch mit dem monoklonalen Antikörper MIB 1 gegen rekombinante Teile des Ki-67-Antigens untersucht.;-;-;-;https://link.springer.com/article/10.1007/BF01428500 1d872bc0970c54c2c1f1325d1394cf19;de;;;1.2.;;;Kac-Moody- und Virasoro-Algebren in der lokalen Quantenphysik Diese Notizen basieren auf Vorlesungen, die an der Erice International School in Mathematical Physics im Juli 1985 gehalten wurden, und behandeln die Sugawara-Konstruktion der Virasoro-Algebra in Bezug auf eine gegebene Kac-Moody-Algebra und ergänzen damit die vorherigen Vorlesungsnotizen. Es werden Ableitungen gezogen und auf die Stringtheorie vereinheitlichter Teilchenwechselwirkungen, konform invariante zweidimensionale Quantenfeldtheorien und die Phasenübergänge zweidimensionaler Gittersysteme angewendet. Die „Quark-Modell“-Darstellung von Kac-Moody-Algebren wird ebenfalls behandelt. Für die Quantenäquivalenz eines chiralen Modells mit Wess-Zumino-Term zu einer freien Fermionentheorie wird ein symmetrisches Raumkriterium abgeleitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-0363-4_3 db053d1243f2e695b782bb667e32a662;de;;;1.2.;;;Optimale Temperaturpolitik für Batch-Reaktoren, die biochemische Reaktionen in Gegenwart von Enzymdeaktivierung durchführen Es wird eine notwendige Bedingung für die optimale Temperaturpolitik gefunden, die zu einer minimalen Reaktionszeit für eine gegebene endgültige Substratumwandlung in einem gut gerührten, enzymatischen Batch-Reaktor führt, der eine enzymkatalysierte Reaktion nach der Michaelis-Menten-Kinetik in Gegenwart eines Enzyms erster Ordnung durchführt Verfall. Die Argumentation, die auf Eulers klassischem Ansatz der Variationsrechnung basiert, ist für die Vorentwurfsschritte relevant, da sie auf einfache Weise anzeigt, welches Temperaturprogramm eingehalten werden sollte, um den maximalen Vorteil des vorhandenen Enzyms unter Verwendung des üblicherweise gewählten Reaktortyps zu erzielen von Technologen auf dem Gebiet der Feinbiochemie. Um die Relevanz und Anwendbarkeit der hier berichteten Arbeiten zu verdeutlichen, wird der Optimalitätsfall unter isothermen Betriebsbedingungen betrachtet und ein Praxisbeispiel erarbeitet.;-;-;-;https://link.springer.com/article/10.1007/BF00369042 266a8999ad1e2fda09fc6563962eb348;de;;;1.2.;;;Analytizitätseigenschaften der S-Matrix: Historische Übersicht und aktuelle Ergebnisse in der S-Matrix-Theorie und der Axiomatischen Feldtheorie Es wird eine Einführung in neuere Arbeiten aus der S-Matrix-Theorie und der axiomatischen Feldtheorie zur Analyse und Ableitung von Impuls-Raum-Analytizitätseigenschaften der Mehrteilchen-S-Matrix gegeben. Es enthält einen historischen Überblick, der die Erfolge, aber auch die grundlegenden Schwierigkeiten beider Theorien in den sechziger Jahren sowie die Entwicklung des Fachs in den siebziger Jahren skizziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-8642-8_8 e2273ca78fd40f32c0663dc6c6fdf6af;de;;;1.2.;;;Reaktionsregime mit hoher Dehnungsrate für dislozierte Legierungsmikrostrukturen Makroskopische Schubspannungen in der Nähe von G/40 sind zu erwarten, wenn duktile Metalle einer nennenswerten plastischen Verformung bei ultrahohen Dehnungsraten ausgesetzt sind. Dieses Spannungsniveau ist bei strukturellen Aluminiumlegierungen etwa 3x höher als die Spannungen im bekannten Dehnratenbereich unter 10;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82767-9_11 002404ea0fde9dba5793680f7eb5ab45;de;;;1.2.;;;Ein Empfehlungssystem für Gruppenreisen, das auf kollaborativer Filterung und ungefährer Gruppeneinschränkungszufriedenheit basiert In dieser Untersuchung wird ein modifiziertes CF-Verfahren (kollaboratives Filtern) vorgeschlagen, um ein Ziel für den Gruppenreiseplanungsservice zu bestimmen. Darüber hinaus umfasst ein zusammengesetztes Reiseprodukt neben der Auswahl eines Reiseziels auch Hotel und Sehenswürdigkeit. Zu diesem Zweck werden die persönlichen Anforderungen des einzelnen Benutzers durch Einschränkungen dargestellt, und eine Gruppeneinschränkung wird basierend auf den Einschränkungen des Gruppenmitglieds konstruiert. Es wird ein zweiphasiges Verfahren zur ungefähren Erfüllungsbeschränkung für Gruppen vorgeschlagen, um das Verfahren zur Entscheidungsfindung in der Gruppe für die Auswahl ihrer Reisepakete zu automatisieren, um den Komfort und die Zufriedenheit der Gruppentouristen zu verbessern. Es wird eine Gruppenreiseempfehlung mit einem anschaulichen Beispiel vorgeschlagen und ein experimentelles Design vorgeschlagen, um das vorgeschlagene Verfahren zu validieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-39512-4_179 95dd72cb04cc0c5fb9c10e428dc26ae6;de;;;1.2.;;;Einführung in einen neuen Ansatz zur Lesbarkeit Warum ist etwas leicht zu lesen? Warum ist ein Text leichter zu verstehen als ein anderer? Sind manche Werke nur verständlich, wenn Sie ein gewisses Maß an Lesefähigkeit erreicht haben? Dies sind die grundlegenden Fragen, mit denen sich das Studium der Lesbarkeit beschäftigt. Der Begriff „Lesbarkeit“ wurde oft mit Lesbarkeitsformeln in Verbindung gebracht (Klare 1963: 29): statistische Werkzeuge, die die relative Schwierigkeit von Texten objektiv messen sollen. Im Grunde geht es jedoch um die Frage, welche Eigenschaften von Texten die Kommunikation unterstützen oder behindern.;-;-;-;https://link.springer.com/chapter/10.1057/9781137388773_1 ab44816db59b17b344e6373216c6e163;de;;;1.2.;;;Proliferation des intrahepatischen Gallengangsepithels bei Gallengangsatresie Als Marker für die Zellproliferation gelten das proliferative Zellkernantigen (PCNA) und der transformierende Wachstumsfaktor α (TGFα). Die Expression von PCNA und TGFα wurde immunhistochemisch unter Verwendung von Anti-PCNA-Antikörper und TGFα bei 31 Patienten mit Gallengangsatresie (BA) (15 ohne Gelbsucht und 16 mit anhaltender Gelbsucht) und 6 Kontrollkindern untersucht. Die Markierungsindizes (LI) für PCNA- und TGFα-positives Gallengangsepithel bei BA betrugen 14,1 ± 14,0 % bzw. 51,4 ± 33,7 %, was signifikant höher war als bei den Kontrollen (;-;-;-;https://link.springer.com/article/10.1007/BF00183743 bec74c240d9dafb377656e7802d565c0;de;;;1.2.;;;"Selektive Ansätze zur Isolierung und Standardisierung von Allergenen Sofortige Immunglobulin-E (IgE)-vermittelte oder Typ-I-Überempfindlichkeit (Coombs und Gell, 1975), manchmal auch einfach als ""Allergie"" bezeichnet, ist eine außerordentlich weit verbreitete Krankheit, von der gesagt wird, dass sie jeweils etwa 10 % der kaukasischen Bevölkerung betrifft. Die am häufigsten anzutreffende Form einer sofortigen Überempfindlichkeit ist die allergische Rhinitis, obwohl schwerere Überempfindlichkeitsreaktionen beispielsweise bei allergischem Asthma und systemischer Anaphylaxie beobachtet werden. Die klinischen Anzeichen von allergischen Reaktionen vom Typ I, die beim Menschen und anderen Tieren beobachtet werden, nämlich lokale Entzündung und Schwellung, Schleimproduktion, Atemwegsobstruktion und Schock werden durch die Freisetzung von Granulat-assoziierten vasoaktiven Mediatoren wie Histamin, langsamer reagierende Substanz der Anaphylaxie und andere Wirkstoffe (Austen";-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-3917-5_2 7554bda99d37b7d1b639f3460e32c0ea;de;;;1.2.;;;Radio-Supernovae Drei Supernovae wurden bisher kurz nach ihrem optischen Ausbruch im Funkbereich entdeckt. Alle sind Typ II. Eine vierte Supernova vom Typ I wird auf Radioemission überwacht, wurde aber im Alter von etwa vier Monaten noch nicht entdeckt. Für zwei der Supernovae werden umfangreiche Daten zu ihren „Lichtkurven“ und Spektren präsentiert und eine Vorbesprechung möglicher Mechanismen gegeben. Eine interessante Schlussfolgerung dieser Arbeit ist, dass in unserer Galaxie in den letzten 20 bis 30 Jahren wahrscheinlich keine ähnlich starke Radiosupernova aufgetreten ist und, wenn diese Supernovae typisch sind, die nächste galaktische Supernova wahrscheinlich im Radiobereich entdeckt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-7876-8_15 f4f3867326af489769c5bdfe32f5c79c;de;;;1.2.;;;Das Packproblem in Statistik, Kodierungstheorie und endlichen projektiven Räumen: Update 2001 Dieser Artikel aktualisiert die Umfrage der Autoren von 1998 [134] zu demselben Thema, die für die Bose Memorial Conference (Colorado, 7.–11. Juni 1995) verfasst wurde. Dieser Artikel enthielt die wichtigsten Ergebnisse zum Verpackungsproblem bis 1995. Seitdem wurden beträchtliche Fortschritte bei verschiedenen Arten von Unterkonfigurationen erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0283-4_13 8ec3cda4b0b1163e60c0c8b0f22fa501;de;;;1.2.;;;Sonographische Darstellung der Puborektalis Das Ziel der vorliegenden Studie war es, das Erscheinungsbild der normalen männlichen Puborectalis mittels transrektalem Ultraschall mit anatomischen Untersuchungen zu vergleichen, um das Verständnis der Beziehung der Prostata zum angrenzenden Beckenboden zu verbessern. Diese Informationen können dazu beitragen, Schäden am Puborectalis während transperinealer ultraschallgesteuerter Biopsien und interventioneller Therapien zu verhindern.;-;-;-;https://link.springer.com/article/10.1007/s12325-009-0036-3 0afa91afc6d9c816697a42b4e60e8fb0;de;;;1.2.;;;Produktion und Handel mit Forstwaren Etwa 2 % der weltweiten Produktion und 3 % des Handels mit Waren stammen aus den Gütern, die auf den Rohstoffen basieren, die der Wald liefert. In diesem Artikel betrachten wir die wichtigsten Größenordnungen der Produktion von und des Handels mit Forstprodukten. Der Artikel enthält grobe Schätzungen des Produktionswertes.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4746-0_7 d1572e092e49f7542a832947a86a346e;de;;;1.2.;;;Notfalltherapie mit inhalativem Stickstoffmonoxid bei kritisch kranken Patienten mit schwerer hypoxämischer Ateminsuffizienz (Kurzbericht) Bewertung der Wirksamkeit von inhaliertem Stickstoffmonoxid (iNO) auf Oxygenierung, Shunt und pulmonal-vaskulärer Widerstandsindex (PVRI) bei schwer hypoxämischen, beatmeten Patienten.;-;-;-;https://link.springer.com/article/10.1007/BF03020535 461c54d9b96b73289196f14240b6b70d;de;;;1.2.;;;Makrobenthische Artenvereinigungen im Ellis Fjord, Vestfold Hills, Antarktis Über einen Zeitraum von 15 Monaten (November 1984 bis Februar 1986) wurde die sublitorale benthische Umgebung des Ellis Fjord, eines 10 km langen Fjords in der Nähe der Davis Station in den Vestfold Hills, Antarktis, untersucht. Die Daten wurden durch Tauchen und Unterwasserfotografie gesammelt und zunächst durch Ordinationstechniken (nicht metrische mehrdimensionale Skalierung) analysiert. Die Ordinationen zeigten, dass der Substrattyp der Faktor ist, der am stärksten mit Veränderungen in der Verteilung und Häufigkeit von makrobenthischen Arten im Fjord verbunden ist. Andere Faktoren, die nachweislich mit Veränderungen der makrobenthischen Artenvereinigungen in Zusammenhang stehen, waren Tiefe, Entfernung von der Fjordmündung, Bodenneigung, Küstenlinieneigenschaften, Strömungsgeschwindigkeit und das Vorhandensein von Wasser mit niedrigem Salzgehalt in geringen Tiefen während der Sommerschmelze. Die vier wichtigsten Substrattypen im Ellis Fjord waren Sand, Fels,;-;-;-;https://link.springer.com/article/10.1007/BF00397776 d7fe31e23933b4ca4b2a937df778664f;de;;;1.2.;;;Mathematisierung der Bewegungswissenschaft und die Geburt der analytischen Mechanik: Eine historiographische Anmerkung Normalerweise spricht man von Mathematisierung einer Natur- oder Sozialwissenschaft, um zu verstehen, dass die Mathematik zu einem Werkzeug einer solchen Wissenschaft wird: Die Sprache der Mathematik wird verwendet, um ihre Ergebnisse zu formulieren, und/oder einige mathematische Techniken werden verwendet, um diese Ergebnisse zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-0591-4_19 1a136df8ff26d379423a0c8c6cf1fde3;de;;;1.2.;;;Bewertung der Unsicherheit der Leckageraten des Tejo- und Sado-Grundwassersystems Das Miopliozäne Grundwassersystem von Tejo und Sado, das wichtigste Portugals, besteht aus zwei Hauptgrundwasserleitern, die durch einen Aquitard getrennt sind. Der untere ist begrenzt und trägt zu einem großen Teil zur städtischen und industriellen Wasserversorgung bei. Um die Rolle dieser Ressourcen zu bewerten, wurden seit dem Setúbal-Projekt 1980 sowohl numerische als auch analytische Modelle implementiert, um die Reaktion des Grundwassersystems in Bezug auf die Variation der hydraulischen Förderhöhen oder Durchflussmengen in Abhängigkeit von unterschiedlichen Pumpen zu bewerten und vorherzusagen Situationen. Zu den wichtigsten Ergebnissen dieses Projekts zählt die Bedeutung von Leckagemechanismen bei der hydraulischen Charakterisierung des Grundwassersystems. Um die Unsicherheit der Leckageraten zu bewerten, wird hier ein geostatistischer Ansatz auf Basis bedingter Simulationstechniken verwendet, um den Einfluss der räumlichen Variabilität der Transmissivität und des Leckageparameters über das numerische Modell zu untersuchen. Ein besonderer Schwerpunkt liegt auf der Unsicherheitsanalyse von Leckage-induzierten Phänomenen wie: Kontamination aus dem Meer oder aus dem Ästuar und Abscheidung durch Pumpen sowie der Analyse der Ausbreitung von Leckraten nach oben und unten in Abhängigkeit von den jeweiligen Systemrandbedingungen . Es werden sowohl stationäre als auch transiente Modelle verwendet und die Ergebnisse im globalen Sinne (Ausgaben der Wahrscheinlichkeitsverteilungsfunktion) und rasterweise (Boxplot-Ausgaben) analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-1739-5_55 356b087635cc3ea4d911223491da6148;de;;;1.2.;;;Pharmakologisches Management von Arrhythmien bei älteren Menschen Die Inzidenz von Herzrhythmusstörungen steigt mit zunehmendem Alter ebenso wie die Prävalenz von strukturellen Herzerkrankungen. Schwerwiegende Arrhythmien, wie anhaltende ventrikuläre Tachykardien, sind bei älteren Patienten selten, aber nicht anhaltende ventrikuläre Tachykardien und Vorhofflimmern sind relativ häufig.;-;-;-;https://link.springer.com/article/10.2165/00002512-199711020-00002 9eabdace9a79ac15cb9c5e5407ee369e;de;;;1.2.;;;Neuer Beweis für ein altes Problem: Die Kopplung der Genomreplikation an das Zellwachstum bei Bakterien Das Problem der Koordination der Genomreplikation mit dem Zellwachstum in Bakterien wurde vor über vier Jahrzehnten gestellt. Anders als bei Eukaryoten ist dieses Problem auch für;-;-;-;https://link.springer.com/article/10.1134/S102279541408002X f1e39b3fcffe05b8863e8ffb61018e0e;de;;;1.2.;;;Energieaustausch und Transpiration Der Wasserverlust aus einem Pflanzenblatt ist ein Prozess, der physikalische Mechanismen und biologische Eigenschaften des Blattes umfasst. Im Prinzip ist die Transpiration ein einfacher Vorgang, aber in Wirklichkeit ist sie aufgrund der Komplexität der Blatteigenschaften und des Verhaltens ein äußerst kompliziertes Phänomen. Es ist klar, dass bestimmte Bedingungen erfüllt sein müssen, damit Wasser aus einem Blatt in die Umwelt gelangen kann. Wasser muss verfügbar sein, Energie muss verfügbar sein, um flüssiges Wasser in Dampf umzuwandeln, und es muss ein Wasserdampfgefälle von innen nach außen im Blatt existieren, das den Gasdiffusionsprozess antreibt. Einen Überblick über frühere Forschungen zu Transpiration und Blatttemperaturen gab Gates (1968).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-66429-8_8 1b249121d239dc51cca9324eae430091;de;;;1.2.;;;Krankenhausbelegung — Bettergänzung Ein Krankenhaus muss wie jede Einrichtung oder Untereinrichtung, die außerplanmäßig Dienstleistungen anbietet, die Produktivität einer hohen Auslastung mit der Wahrscheinlichkeit einer Vollbelegung und einer Leistungsverweigerung abwägen. Der Administrator hat im Wesentlichen drei Kontrollen für diese beiden Maßnahmen: die Bettenausstattung, die Aufnahme von Wahlpatienten und die Verweildauer der Patienten im Krankenhaus. Diese Handhabungsprobleme werden durch verschiedene Beschränkungen, die den Betten auferlegt werden, kompliziert, die ihre Verwendung durch alle Patienten verhindern und somit die erforderliche Anzahl von Betten erhöhen. Die Nutzung von.beds ist beispielsweise durch Geschlecht, Alter (Kinder, Erwachsene), Service (medizinisch, chirurgisch usw.), Privatsphäre (privat, halbprivat, Station) und andere Merkmale (Intensivstationen, Psychiatrie, perinatal usw.).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-93167-3_8 6c6ab21401761fa23f6632a87dd88357;de;;;1.2.;;;Das Streben nach Finanzstabilität: Determinanten des regulatorischen Ansatzes in der Bankenaufsicht Eine wirksame Bankenaufsicht ist wichtig, um die Stabilität des Finanzsektors zu gewährleisten. Die Wahl des Regulierungsansatzes des Bankensektors eines Landes hat Auswirkungen auf die Kreditvergabeentscheidungen der Banken und die Gesamtverfügbarkeit von Krediten im Finanzsystem (Greenwald und Stiglitz 2003: 5–8). Die marktbasierte Regulierung war in den Jahrzehnten vor der globalen Finanzkrise 2008 weit verbreitet. Dieser Ansatz basiert auf der Annahme, dass bei ausreichender Marktinformation die Marktdisziplin die Finanzakteure zu verantwortungsvollem Verhalten zwingt und damit die Finanzstabilität fördert (Barth;-;-;-;https://link.springer.com/chapter/10.1057/9781137282750_2 a242e864e8982e84f37119ca0919e627;de;;;1.2.;;;Geometrische Aspekte der Mechanik Die Mechanik trägt in vielerlei Hinsicht geometrische Strukturen. Dies war in den ersten vier Kapiteln an verschiedenen Stellen sehr deutlich zu spüren. Die wichtigsten Beispiele sind die Strukturen der Raum-Zeit-Kontinua, die die Dynamik der nichtrelativistischen bzw. relativistischen Mechanik unterstützen. Die Formulierung der Lagrangeschen Mechanik über den Raum verallgemeinerter Koordinaten und ihrer Zeitableitungen sowie der Hamilton-Jacobi-Kanonischen Mechanik über dem Phasenraum offenbart starke geometrische Merkmale dieser Mannigfaltigkeiten. (Erinnern Sie sich beispielsweise an die symplektische Struktur des Phasenraums und den Satz von Liouville.) Inwieweit die Mechanik geometrischer Natur ist, zeigt die Tatsache, dass sie historisch wichtige Impulse für die Entwicklung der Differentialgeometrie gab. Die moderne Formulierung der Differentialgeometrie und einiger verwandter mathematischer Disziplinen lieferte ihrerseits die notwendigen Werkzeuge zur Behandlung von Problemen der qualitativen Mechanik, die Gegenstand der aktuellen Forschung sind. Dies ist ein weiteres beeindruckendes Beispiel für die gegenseitige Befruchtung von reiner Mathematik und theoretischer Physik.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-02630-4_5 da99f30a588e7debccb9da2f21a75953;de;;;1.2.;;;Opiatrezeptoren und ihre endogenen Liganden (Endorphine) Opiate haben viele Wirkungen. Die meisten dieser Wirkungen resultieren aus der Aktivierung spezifischer Rezeptoren, die viele gemeinsame Eigenschaften aufweisen, einschließlich Stereospezifität und Empfindlichkeit gegenüber Antagonismus durch entsprechend substituierte Opiate wie Naloxon. Andere Wirkungen von Opiaten zeigen nicht unbedingt Stereospezifität oder Empfindlichkeit gegenüber Antagonismus durch Naloxon (z. B. Aktivierung der Cholinesterase (Gero und Capetola, 1976), Histaminfreisetzung (Feldberg und Pator, 1951) oder Letalität (Dingledine und Goldstein, 1973)) und möglicherweise nicht von allen Arzneimitteln mit Opioid-Eigenschaften ausgeübt werden. Dieser Review befasst sich speziell mit stereospezifischen Opiatrezeptoren mit hoher Affinität, an denen Naloxon eine blockierende Wirkung ausübt, und mit endogenen Substanzen, die mit diesen Rezeptoren interagieren können, um typische Opiatwirkungen in intakten Tieren und/oder isolierten Gewebepräparaten zu erzeugen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-66856-2_3 e2a300fed049f734f156ddd04be58fe2;de;;;1.2.;;;Benthische wirbellose Ansammlungen von Delaware Bay In zwei aufeinanderfolgenden Sommern wurde in Delaware Bay (USA) die erste quantitative buchtweite Untersuchung (207 Stationen) von benthischen Wirbellosen durchgeführt. 1972 wurden 109 Arten an 105 Stationen gesammelt, und 1973 wurden 125 Arten an 102 Stationen gesammelt. In beiden Sommern wurden insgesamt 169 verschiedene Arten gesammelt. Mit zunehmendem Salzgehalt und zunehmender mittlerer Korngröße nahmen die Arten- und Individuenzahl zu. Diese Beziehungen wurden verglichen und fanden sich ähnlich wie in Flussmündungen und Buchten auf der ganzen Welt. Die durchschnittliche Dichte betrug 722 Personen m;-;-;-;https://link.springer.com/article/10.1007/BF00388978 9b1f66dabb1b5662b76f92f598e89dfd;de;;;1.2.;;;Überschüssiges Renin als Ursache für renovaskuläre Hypertonie? Neunzig Jahre nach der Entdeckung des Renins sind wir immer noch nicht sicher, ob ein Überschuss des Enzyms und seiner Produkte Angiotensin I und II die Ursache der renovaskulären Hypertonie sind. Die Begeisterung für die Idee war zyklisch, wobei die Forschung in St. Mary's einen wichtigen Beitrag zu den Höhen und Tiefen leistete.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-72417-6_1 c6f57327709fda89b23d18cb943c48b8;de;;;1.2.;;;Evidenzbasierte Überprüfung aktueller Indikationen zur Behandlung von Botulinumtoxin in der Medizin Botulinum Neurotoxin (BoNT) wird zunehmend nicht nur als kosmetisches Medikament verwendet, sondern hat sich vor allem als das vielseitigste Therapeutikum herauskristallisiert, das in praktisch allen Teilgebieten der Medizin eingesetzt wird. In der Neurologie gibt es Evidenz der Stufe A (effektiv) für die Verwendung bestimmter Serotypen von BoNT bei zervikaler Dystonie, chronischer Migräne, Spastik der oberen und unteren Extremitäten und Evidenz der Stufe B (wahrscheinlich wirksam) bei Blepharospasmus. Diese Empfehlungsstufen sind jedoch mit Vorsicht zu interpretieren, da sie nur auf veröffentlichten randomisierten, kontrollierten Studien basieren und auf bestimmte Produkte beschränkt sind. Die US-amerikanische Food and Drug Administration (US-FDA) hat BoNT für diese und andere Indikationen wie fokale axilläre Hyperhidrose und Sialorrhoe zugelassen, aber es gibt eine wachsende Zahl von Erkrankungen, bei denen BoNT off-label eingesetzt wird. Neben der fokalen Dystonie wird BoNT auch zunehmend zur Behandlung von Tremor und anderen Bewegungsstörungen sowie einer Vielzahl neuropathischer Schmerzerkrankungen wie Trigeminusneuralgie, postherpetischer Neuralgie und diabetischer Neuropathie eingesetzt. In der Urologie gibt es mehrere randomisierte kontrollierte Studien, die die Vorteile von BoNT bei überaktiver Blase und interstitieller Zystitis belegen. In der Gastroenterologie wird BoNT zur Behandlung von Analfissuren und Achalasie eingesetzt. Somit ist BoNT das am weitesten verbreitete therapeutische Molekül.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-50691-9_4 c8efa1520315147813d38c0a03597444;de;;;1.2.;;;Eine Einführung in die statistische Mechanik mit Anwendungen auf die nichtlokale Dispersion Theorien der statistischen Mechanik liefern die Werkzeuge, um von der atomistischen oder molekularen Struktur der Materie auf eine Kontinuumsskala zu gelangen. Solche Theorien ermöglichen es, detaillierte molekulare Daten in Feld- (wie Spannung) und konstitutive Eigenschaften oder Materialparameter abzubilden. Dieser Ansatz unterscheidet sich stark von der Kontinuumsmechanik, bei der die molekulare Zusammensetzung der Felder unbekannt und weitgehend irrelevant ist. Die Weiterentwicklung der Computerarchitektur und der Algorithmen in den letzten Jahren ermöglicht es nun, viele Materialparameter im Kontinuumsmaßstab direkt aus Computerexperimenten im molekularen Maßstab (virtuell) statt im Kontinuumsmaßstab zu bestimmen. Vor allem aus diesem Grund nehmen wir dieses Kapitel in diese Monographie auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-8849-2_2 d8090ab7c3e71fc4faa3e4bcf829c002;de;;;1.2.;;;Metallhaftung im atomaren Maßstab Die Wechselwirkung einer spitz zulaufenden Metallspitze mit einer Metalloberfläche wird sowohl theoretisch als auch experimentell untersucht. Durch den Rückgriff auf einen effektiven Potenzialansatz werden die Eigenschaften der Spitzen-Probe-Kräfte im Hinblick auf die bekannte Theorie der Massenmetalladhäsion systematisch analysiert. Es werden Experimente beschrieben, die die Nahbereichsadhäsionswechselwirkung mittels einer Kombination von Kraftgradientensensorik und Tunnelmikroskopie untersuchen. Es hat sich herausgestellt, dass die auf Masseadhäsion basierenden Konzepte nicht allgemein anwendbar sind, um die beobachteten Kraftgradienteneigenschaften von Spitze zu Probe zu beschreiben. Sie können jedoch semiquantitativ durch effektive Wechselwirkungen, die aus einer Clusterrechnung ermittelt werden, erklärt werden. Es wird auch gezeigt, dass die chemischen Informationen, die durch die Untersuchung von Nahbereichswechselwirkungen gewonnen werden, verwendet werden können, um Adsorbate auf Metalloberflächen zu identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-0049-6_20 ef98c8d19098c247124a17c57d7f0593;de;;;1.2.;;;Die Struktur und die mechanischen Eigenschaften von gummiartigen Materialien Ein genaues Verständnis der Natur der Kautschukelastizität war kaum möglich, bevor Hinweise auf die makromolekulare Struktur von Kautschuk und anderen natürlich vorkommenden Hochpolymeren, z. g. Wolle, Baumwolle, Seide usw. Unsere heutigen Konzeptionen basieren auf der Ansicht, die ursprünglich von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-01378-6_5 cb42ef3516198113abaeeb2a7c903618;de;;;1.2.;;;Eine kurze Geschichte der MADS-Box-Gene in Pflanzen Evolutionäre Entwicklungsgenetik (Evodevotics) ist ein neuartiges wissenschaftliches Unterfangen, das davon ausgeht, dass Veränderungen der Entwicklungskontrollgene ein wesentlicher Aspekt evolutionärer Veränderungen in der Morphologie sind. Das Verständnis der Phylogenie von Entwicklungskontrollgenen kann uns daher helfen, die Evolution von Pflanzen- und Tierformen zu verstehen. Die Prinzipien der Evodevotica werden beispielhaft veranschaulicht, indem die Rolle der MADS-Box-Gene bei der Evolution von Pflanzenreproduktionsstrukturen skizziert wird. In vorhandenen eudikotyledonen Blütenpflanzen wirken MADS-Box-Gene als homöotische Selektorgene, die die Blütenorganidentität bestimmen, und als Blütenmeristemidentitätsgene. Durch die Überprüfung des aktuellen Wissens über MADS-Box-Gene in Farnen, Gymnospermen und verschiedenen Arten von Angiospermen zeigen wir, dass die Phylogenie der MADS-Box-Gene stark mit der Entstehung und Evolution von Pflanzenreproduktionsstrukturen wie Samenanlagen und Blüten korreliert. Es ist daher wahrscheinlich, dass Veränderungen der MADS-Box-Genstruktur, -Expression und -Funktion eine Hauptursache für Innovationen in der Fortpflanzungsentwicklung während der Landpflanzenevolution waren, wie etwa bei der Samen-, Blüten- und Fruchtbildung.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4221-2_6 6c2eeeb3c66bdd9e373c0fb20aa16c12;de;;;1.2.;;;Jüngste Fortschritte bei der Landdatenassimilation beim NASA Global Modeling and Assimilation Office Die Forschung zur Assimilation von Landoberflächendaten hat in den letzten zehn Jahren rasant zugenommen. Wir geben einen kurzen Überblick über die wichtigsten Forschungsbeiträge des NASA Global Modeling and Assimilation Office (GMAO). Die GMAO-Beiträge umfassen vor allem die Weiterentwicklung und Anwendung des Ensemble Kalman-Filters (EnKF) zur Landdatenassimilation. Insbesondere haben wir eine Methode entwickelt, um Störungsfelder zu generieren, die in Raum, Zeit und über Variablen hinweg korreliert sind. Das Verfahren erlaubt die flexible Modellierung von Fehlern in Landoberflächenmodellen und -beobachtungen. Wir haben auch einen adaptiven Filteransatz entwickelt, der Beobachtungs- und Modellfehlereingabeparameter schätzt. Eine perzentilbasierte Skalierungsmethode, die Verzerrungen der Bodenfeuchte in Modell- und Beobachtungsschätzungen berücksichtigt, eröffnete den Weg für die erfolgreiche Anwendung der Landdatenassimilation auf Satellitenabrufe der Bodenfeuchtigkeit. Die Assimilation solcher Daten in das ensemblebasierte GMAO-Landdatenassimilationssystem (GMAO-LDAS) lieferte überlegene Oberflächen- und Wurzelzonen-Assimilationsprodukte (bei Validierung mit In-situ-Messungen und im Vergleich mit den Modellschätzungen oder alleinigen Satellitenbeobachtungen). Satellitengestützte terrestrische Wasserspeicherungsbeobachtungen wurden ebenfalls erfolgreich in das GMAO-LDAS integriert. Darüber hinaus unterstützen synthetische Experimente mit dem GMAO-LDAS den Entwurf eines zukünftigen satellitengestützten Bodenfeuchte-Beobachtungssystems. Satellitenbasierte Beobachtungen der Landoberflächentemperatur (LST) wurden in ein GMAO-Erbe-Variationsassimilationssystem integriert, das mit einem Bias-Schätzmodul ausgestattet war, das speziell für die LST-Assimilation entwickelt wurde. Die laufende Integration von GMAO-Landassimilationsmodulen in das Landinformationssystem wird die Nutzung der GMAO-Software mit einer Vielzahl von Landmodellen ermöglichen und der Forschungsgemeinschaft zugänglich machen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71056-1_21 dff6a8222b8f221621590e9d7cd2f3e6;de;;;1.2.;;;Invarianz, Monotonie und Anwendungen Es wird ein Überblick über aktuelle Ergebnisse der nicht glatten Analyse und Kontrolltheorie mit besonderem Schwerpunkt auf proximalen Methoden gegeben. Die behandelten Themen umfassen proximales Zielen und schwache Invarianz (dies ist das Kernkonzept für viele der nachfolgend vorgestellten Ergebnisse), Monotonie entlang von Trajektorien und Lyapunov-Stabilisierung, Feedback-Synthese bei optimaler Kontrolle, Existenz von Gleichgewichten unter Invarianzhypothesen, Mengenglättungen und Approximationen, Differential Ungleichungen und Invarianztheorie im Hilbertraum.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4560-2_4 7708c4bed56bdecde8342c8352f6a3af;de;;;1.2.;;;Eigenschaften von Chalkopyrit-basierten Materialien und Schichtabscheidung für Dünnschicht-Solarzellen Die Entwicklung von Chalkopyrit-basierten Solarzellen begann Anfang der 1970er Jahre, als Wagner et al. [1] realisierte eine Solarzelle mit 12% Wirkungsgrad auf Basis eines CuInSe;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-10549-8_10 9d85300df823c9fe21a5eaeb2ef379f5;de;;;1.3.;;;Computersimulationen und Schwierigkeiten von Schülern beim Lesen visueller Darstellungen im naturwissenschaftlichen Unterricht Computersimulationen können Lernmöglichkeiten im naturwissenschaftlichen Unterricht bieten, die es den Schülern ermöglichen, mit virtuellen Phänomenen umzugehen und Parameter zu manipulieren oder zu modifizieren, die sonst nicht beobachtet werden könnten. Nach der fortschreitenden Einführung von Computersimulationen in schulischen Kontexten in den letzten Jahrzehnten gab es eine breite wissenschaftliche Diskussion über ihre Auswirkungen auf den naturwissenschaftlichen Unterricht und das Lernen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-6351-041-7_6 1681e0f9094dd930f62db717b17c5ebd;de;;;1.2.;;;Morphologische Beziehungen zwischen Strand und Düne am Youghal Beach, Cork Die Identifizierung kritischer Beziehungen zwischen Strand-Dünen-Morphologie und Erosions-/Anlagerungsstatus in Küstendünensystemen kann eine Vorwarnung geben, die zukünftige Veränderungen der Vordünen-Morphologie und des Strand-Dünen-Verhaltens signalisiert (Sayeet al. 2005). Die morphometrischen Parameter von Stranddünen, die aus Vermessungsdaten des Light Detection and Ranging (LiDAR) und des Differential Global Positioning System (dGPS) in Youghal Beach, Co. Cork, Irland, identifiziert wurden, scheinen jedoch nicht auf die Existenz solcher Beziehungen hinzuweisen. Geografische Informationssystemanalysen (GIS) von historischen und zeitgenössischen Geodaten am Strand von Youghal wurden durchgeführt, um den Erosions-/Anlagerungsstatus zu bestimmen. Die durchschnittliche Änderungsrate der Küstenlinie zwischen 1842 und 2006 betrug −0,102 m a;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29063-3_20 f50044c4dbc2a5fcbcce37f582991654;de;;;1.2.;;;Spuren und Grenzoperatoren In der Theorie elliptischer und parabolischer Randwertprobleme ist es von grundlegender Bedeutung, das Verhalten regulärer Verteilungen auf niederdimensionalen Mannigfaltigkeiten gut zu verstehen. Solche „Spursätze“ bilden den Kern dieses Kapitels, das aus zwei Abschnitten besteht. Der erste beschäftigt sich mit verschiedenen Eigenschaften von Spuren (höherer Ordnung).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-11763-4_8 42604c58c2dec364da63218143de3acd;de;;;1.2.;;;Dynamische Stabilität von Systemen mit weitreichenden Wechselwirkungen: Anwendung der Nyquist-Methode auf das HMF-Modell Wir wenden die Nyquist-Methode auf das Hamiltonian Mean Field (HMF)-Modell an, um die linear-dynamische Stabilität einer räumlich homogenen Verteilungsfunktion in Bezug auf die Vlasov-Gleichung festzulegen. Wir betrachten den Fall der Maxwell- (isotherm) und Tsallis- (polytropen) Verteilungen und zeigen, dass das System oberhalb einer kritischen kinetischen Temperatur T . stabil ist;-;-;-;https://link.springer.com/article/10.1140/epjb/e2009-00180-9 d9c9074f1f33bfb2fdfc1482c7b3f0d9;de;;;1.2.;;;Erweiterung der Anwendungen für Dünnschicht-Solar-PV-Systeme Anwendungen von Dünnschichtsolarzellen, insbesondere a-Si, begannen in den 1980er Jahren hauptsächlich im Bereich der elektrischen Geräte. Durch die Nutzung der Eigenschaften von Dünnschichtsolarzellen wurden einzigartige Anwendungen wie größere elektrische Stromquellen entwickelt. In diesem Kapitel werden drei Arten von Anwendungen vorgestellt. Das erste ist die durchsichtige a-Si-Solarzelle, das zweite ist die flexible a-Si-Solarzelle und das letzte ist das gebäudeintegrierte PV-Modul (BIPV). Dünnschichtsolarzellen dürften in Zukunft eine wichtige Rolle für die weltweite Verbreitung von Solarzellen vom Bereich der elektrischen Geräte bis hin zur Stromerzeugung spielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-10549-8_12 3b0b53f847fae2f0c77c767e899a5fa3;de;;;1.2.;;;Kernspinwechselwirkungen in Festkörpern Der Einfachheit halber fassen wir in diesem Abschnitt die grundlegenden Kernspinwechselwirkungen zusammen, die in Festkörpern auftreten. Die Notation erfolgt durchgehend in Zehnsorialform, um die Anisotropie dieser Wechselwirkungen hervorzuheben. Um die Darstellung möglichst kompakt zu halten, verzichten wir auf detaillierte Herleitungen und verweisen auf das herausragende Buch von A. Abragam [1]. Auch Pool und Farach [2 a] haben Spinwechselwirkungen in Tensorform ausführlich beschrieben. Als weitere Referenz das Buch von C.P. Slichter [2b] wird empfohlen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-68756-3_2 26d4020419642309cadf08210efb7dca;de;;;1.2.;;;Studien zur -Glutamyltransferase-Aktivität im Hirngewebe post mortem Unsere Experimente zeigten, dass sich die Aktivität der γ-Glutamyltransferase (γ-GT) in Homogenaten von Maus-, Ratten- und Rinderhirnen während der ersten vier Tage nach dem Tode nicht merklich veränderte. Im Laufe dieses Zeitraums behielten auch die Mikrogefäße des Gehirns ihre γ-GT-Aktivität bei. γ-GT von Mikrogefäßen aus Rinderhirnrinde, solubilisiert mit Natriumdesoxycholat, wurde im Hohlraumvolumen V . eluiert;-;-;-;https://link.springer.com/article/10.1007/BF00964523 8a601943ed61fdadc1a4040b6c141c22;de;;;1.2.;;;Verbesserung der Genauigkeit des Polynomformextrapolationsmodells in einer verteilten virtuellen Umgebung In diesem Papier haben wir die Beziehung zwischen der Genauigkeit der Extrapolationsdaten und dem Aktualisierungsintervall in einer verteilten virtuellen Umgebung (DVE) untersucht. Basierend auf den Eigenschaften der Polynommodelle haben wir die neue Methode vorgeschlagen, um die Attributdaten zu extrapolieren, die in einem diskreten Zeitraum ankommen. Theoretische Modelle wurden formuliert und zeigten, dass der durchschnittliche Fehler der vorgeschlagenen Methode geringer ist als der heutiger Methoden. Schließlich haben wir bestätigt, dass die vorgeschlagene Methode die Genauigkeit im Vergleich zu aktuellen Methoden verbessern kann, indem wir Experimente mit der Bewegung eines Stiftes für eine Reihe von Buchstaben durchführten, die von einem Menschen geschrieben wurden.;-;-;-;https://link.springer.com/article/10.1007/s00371-007-0109-8 3f54b39b444dd1e0aeb381a4c589d6a2;de;;;1.2.;;;Sanjoy K. Mitter: Ein Gelehrter, ein Gentleman und ein Freund Sanjoy Kumar Mitter wurde am 9. Dezember 1933 in Kalkutta, Indien, geboren. Sein Vater, Subodh Chunder Mitter – Sohn von Sir B.C. Mitter, das erste indische Mitglied des Privy Council of Britain – war ein am University College in London ausgebildeter Elektroingenieur und Gründer von Mitter Industries. Seine Mutter, Protiva Mitter, war die Tochter von Sir C.C. Ghose, Richter am Obersten Gerichtshof von Kalkutta.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5223-9_1 aab0efb9898b1e240b471b9c085a0027;de;;;1.2.;;;Gefrierinduzierte Dehydratation und Membrandestabilisierung in Pflanzen Während eines Frost-Tau-Zyklus treten eine Vielzahl potenziell tödlicher Belastungen auf, einschließlich thermischer, mechanischer, chemischer, osmotischer und möglicherweise sogar elektrischer Störungen. Nichtsdestotrotz besteht ein allgemeiner Konsens, dass in Abwesenheit einer intrazellulären Eisbildung die durch Frost induzierte Zelldehydratation eine Hauptursache für Gefrierverletzungen ist. Obwohl dies erstmals 1886 von Müller-Thurgau vorgeschlagen wurde, wurden die zellulären und molekularen Mechanismen, die für die durch Dehydration verursachten Schäden verantwortlich sind, erst vor kurzem aufgeklärt (Steponkus 1984, Steponkus und Lynch 1989b).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-76682-4_20 e05513e3da340e7f64acbf57844d7f0c;de;;;1.2.;;;Penalty-Finite-Elemente-Methode für die nichtlineare dynamische Reaktion von viskosen, fluidgesättigten zweiphasigen porösen Medien Die maßgeblichen Gleichungen sowie Rand- und Anfangsbedingungen für nichtlineare dynamische Antwortprobleme des Modells viskoser fluidgesättigter zweiphasiger poröser Medien, basierend auf der Mischungstheorie, werden vorgestellt. Mit der gewichteten Residuenmethode nach Galerkin erhält man die entsprechende nichtlineare dynamische Penalty-Finite-Elemente-Gleichung, in der die Abhängigkeiten des Volumenanteils und des Permeationskoeffizienten von der Verformung enthalten sind. Die Iterationslösungsmethode der nichtlinearen Systemgleichung wird ebenfalls diskutiert. Als numerisches Beispiel wird das dynamische Verhalten einer porösen Mediumsäule unter impulsiver Belastung mit dem entwickelten Finite-Elemente-Programm analysiert. Die numerischen Ergebnisse belegen die Effizienz und Korrektheit der Methode.;-;-;-;https://link.springer.com/article/10.1007/BF02459216 84ae773201372a6d10a28ea63620be82;de;;;1.2.;;;Rundheit und Glätte Wenn man an die geschlossene Einheitskugel eines normierten Raumes denkt, ist es verlockend, sich ein rundes, glattes Objekt vorzustellen, wie die geschlossene Einheitskugel des realen euklidischen 2- oder 3-Raumes. Geschlossene Einheitsbälle sind jedoch manchmal nicht so schön geformt. Betrachten wir zum Beispiel die geschlossenen Einheitskugeln von reellem ℓ;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-0603-3_5 d996bb77143e94bf9f9296e203b8e6d3;de;;;1.2.;;;Wasser-Nanocluster in Kosmologie, Astrobiologie, RNA-Welt und Biomedizin: Das Universum als Biosystem Die Laborerzeugung von Wasser-Nanoclustern aus amorphem Eis und starker Terahertz-Strahlung (THz) von Wasser-Nanoclustern, die aus Wasserdampf in ein Vakuum ausgestoßen werden, legen die Möglichkeit nahe, dass Wasser-Nanocluster aus reichlich amorphem eisbeschichtetem kosmischen Staub, der durch Supernova-Explosionen erzeugt wurde, in den interstellaren Raum geschleudert werden. Kosmische Wasser-Nanocluster bieten eine hypothetische einheitliche Lösung für die großen Mysterien unseres Universums: Dunkle Materie (Abschn.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-67227-0_3 6c2f8dd740276d959e43ff6320e45e32;de;;;1.3.;;;Zukunftspläne für die Karriere von Oberstufenschülern: Ergebnisse der umfassenden Umfrage zum Berufsbedarf in Süd-Alberta, Kanada Die Comprehensive Career Needs Survey wurde verwendet, um die Karrierepläne von Oberstufenschülern in Süd-Alberta, Kanada, zu bewerten. Dieser Artikel untersucht die Wahrnehmung von älteren Studenten in Bezug auf (a) ihre Zukunftspläne, (b) das Vertrauen, ihre Karriereziele zu erreichen, (c) die Bedeutung des Verbleibs in ihrer Gemeinschaft und (d) wo sie voraussichtlich arbeiten werden. Die Mehrheit der Befragten plante, eine Vollzeitausbildung mit einer Teilzeitbeschäftigung zu kombinieren, war zuversichtlich, ihre Karrierepläne zu verwirklichen, und erwartete, in ihrem Land Arbeit zu finden. Die Ergebnisse weisen auf einen Bedarf an Programmen hin, die sich mit der Berufswahlentscheidung befassen und Ausbildung und Berufserfahrung kombinieren.;-;-;-;https://link.springer.com/article/10.1007/s10775-006-9103-3 7b86cb96d56ed42316f5f5d514a4b298;de;;;1.2.;;;Verbessern der Leistung von TAntNet-2 mithilfe des Scout-Verhaltens Dynamische Routing-Algorithmen spielen bei der Straßenverkehrslenkung eine wichtige Rolle, um Staus zu vermeiden und Fahrzeuge auf bessere Routen zu lenken. Der TAntNet-2-Algorithmus präsentierte eine modifizierte Version des AntNet-Algorithmus für die dynamische Verkehrsführung des Straßennetzes. TAntNet-2 verwendet die vorbekannten Informationen über die zu erwartende gute Reisezeit zwischen Quellen und Zielen für Straßenverkehrsnetze. Eine gute Reisezeit wird als Schwellenwert verwendet, um den Algorithmus schnell auf eine gute Route zu lenken, auf der entdeckten guten Route zu sparen und unnötige Berechnungen zu entfernen. Dieses Papier präsentiert eine modifizierte Version des TAntNet-2-Routing-Algorithmus, der ein vom Bienenverhalten inspiriertes Verhalten bei der Nektarsuche verwendet. Der neue Algorithmus versucht, die Auswirkungen von Ameisen zu vermeiden, die bei der Suche nach einer guten Route lange Wege zurücklegen. Der modifizierte Algorithmus führt eine neue Technik zum Starten von Ameisen entsprechend der Qualität der gefundenen Lösung ein. Der vorgestellte Algorithmus verwendet Vorwärts-Scout anstelle von Vorwärts-Ameise und verwendet zwei Vorwärts-Scouts für jede Rückwärts-Ameise, falls der erste Scout beim Finden einer akzeptierten guten Route scheitert. Die experimentellen Ergebnisse zeigen eine hohe Leistung des modifizierten TAntNet-2 im Vergleich zu TAntNet und TAntNet-2.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13461-1_40 736bbd321914532965993fd01d86f56e;de;;;1.3.;;;Energieoptimierung für zellular verbundene mobile Multi-UAV-Edge-Computing-Systeme mit Multi-Access-Schemata In diesem Beitrag wird ein mobiles Edge-Computing-System mit zellular verbundenem unbemanntem Fluggerät (UAV) untersucht, bei dem mehrere UAVs einer terrestrischen Basisstation (TBS) zur Berechnungsentlastung zugeordnet sind. Um die große Menge an Datenbits zu berechnen, wird ein Teil der Rechenaufgabe zu TBS migriert und der andere Teil wird lokal an UAVs abgewickelt. Unser Ziel ist es, den Gesamtenergieverbrauch aller UAVs zu minimieren, indem wir gemeinsam die Bitzuweisung, Leistungszuweisung, Ressourcenaufteilung sowie die UAV-Trajektorie unter dem Energiebudget von TBS anpassen. Um den Einfluss der Multi-UAV-Zugangsstrategie auf die Systemleistung tief zu verstehen, werden vier Zugangsschemata in der Uplink-Übertragung betrachtet, dh Zeitmultiplex-Vielfachzugang, orthogonaler Frequenzmultiplex-Mehrfachzugang, Einzelzugang und nicht-orthogonaler Mehrfachzugang Zugang. Die damit verbundenen Probleme unter verschiedenen Zugangsschemata sind alle in nicht-konvexen Formen formuliert, die nur schwer optimal angegangen werden können. Um diese Klasse von Problemen zu lösen, wird die sukzessive konvexe Näherungstechnik verwendet, um die suboptimalen Lösungen zu erhalten. Die numerischen Ergebnisse zeigen, dass das vorgeschlagene System im Vergleich zu den Benchmark-Systemen erheblichen Energieverbrauch einspart.;-;-;-;https://link.springer.com/article/10.1007/s41650-018-0035-0 b8254d8c58929d2aefa2740700e4615a;de;;;1.2.;;;Zelluläre Automatenbasiertes zeitliches Prozessverständnis des Stadtwachstums Das Verständnis des städtischen Wachstumsprozesses ist äußerst wichtig, um einen Entwicklungsplan und eine nachhaltige Wachstumsmanagementpolitik zu erstellen. Da der Prozess Multi-Akteure, Multi-Behavior und verschiedene Politiken umfasst, ist er mit unvorhersehbaren räumlichen und zeitlichen Komplexitäten ausgestattet und erfordert das Auftreten neuer Simulationsansätze, die prozessorientiert sind und stärkere Interpretationsfähigkeiten haben. In diesem Artikel wird ein auf zellulären Automaten basierendes Modell entwickelt, um den zeitlichen Prozess des Stadtwachstums zu verstehen, indem ein dynamisches Gewichtungskonzept und ein projektbasierter Ansatz integriert werden. Wir argumentieren, dass diese Methodik in der Lage ist, den dynamischen Prozess zeitlicher und transparenter zu interpretieren und zu visualisieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45830-1_31 0e5e880b430461365ae3fac8109c593a;de;;;1.2.;;;Z-Kontrast Rastertransmissionselektronenmikroskopie Historisch gesehen folgte die Entwicklung des Transmissionselektronenmikroskops dem Weg, den Kohärenzgrad des Abbildungsprozesses kontinuierlich zu erhöhen. Dies trotz der Tatsache, dass kohärente hochauflösende Bilder unter dem Phasenproblem leiden, was bedeutet, dass sie nicht direkt invertiert werden können, um das Objekt zu ergeben. Die Interpretation muss sich zwangsläufig auf die Simulation von Bildern von Versuchsobjekten stützen. Selbst mit der Aussicht auf eine Korrektur der sphärischen Aberration werden kohärente Bilder in Abhängigkeit von der Defokussierung der Objektivlinse und der Probendicke immer noch viele Formen annehmen, und das Inversionsproblem bleibt bestehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4451-3_7 6f3e18b2ea2e942fd17ab3b08b9c0e46;de;;;1.2.;;;Texturen und c-Achsen-Orientierungen deformierter Quarzkristalle aus porphyrischen Gängen der alpinen »Wurzelzone« (Westalpen) In Quarz-Einsprenglingen aus porphyrischen Gängen der alpinen »Wurzelzone« sind während der Lepontin-Metamorphose unter Bedingungen der Grünschiefer- bis unteren Amphibolitfazies Deformationstexturen gebildet und sterben C-Achsen geregelt worden. Bei aufsteigender und wieder sinkender Temperatur entstehen sich nacheinander Scherflächen und Knickbänder, Boudins, Grenzflächensuturen, Subkörner, grobe und feine Rekristallisate, Deformationslamellen und Brüche.;-;-;-;https://link.springer.com/article/10.1007/BF01820635 7c7f1a5db3259e4ac213af11eff9c291;de;;;1.2.;;;Raman-spektroskopische Untersuchungen der Polymerstruktur Für Polymersysteme liefert die Raman-Spektroskopie Informationen über die chemische Zusammensetzung, die Segmentorientierung, die Konformationsverteilung und die Phasenidentifikation. Die Technik ist äußerst vielseitig, da Informationen für flüssige oder feste Proben (Film, Schüttgut oder Fasern), geordnet oder ungeordnet, erhalten werden können. Die Raman-Intensität von Schwingungen, die mit Polymerrückgratbindungen verbunden sind, ist besonders intensiv, und die meisten Strukturinformationen sind in Bändern enthalten, die aus diesen Moden resultieren. Aufgrund der Verfügbarkeit von Laserquellen, die hochpolarisierte Strahlung erzeugen, die auf ein Volumen in der Größenordnung von 1 µm fokussiert werden kann, kann die Probenanisotropie mit Genauigkeit, Geschwindigkeit und hoher räumlicher Auflösung bestimmt werden. Niedrige Liegevibrationen (< 200 cm;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-04221-2_11 f553ac5da44e6cdea67eff09d2018ee7;de;;;1.2.;;;Gefäßtumore und tumorähnliche Zustände In diesem Bereich ist die Terminologie oft verwirrend und sogar irreführend. Bei vielen Erkrankungen, insbesondere bei den benignen Läsionen, ist die klinische und familiäre Anamnese von großer Bedeutung für die Diagnose.;-;-;-;https://link.springer.com/chapter/10.1007/978-2-8178-0786-7_17 11ca0e9e799ba80197f3a968dec2ba23;de;;;1.2.;;;Ein effizientes Multi-PCA-basiertes Online-Überwachungsschema für mehrstufige imperiale Schmelzprozesse Imperial Smelting Process (ISP) ist eine der wichtigsten Methoden zum Schmelzen von Zink und Blei. In diesem Papier konzentrieren wir uns zunächst auf seine einzigartigen Eigenschaften, dass ISP aus vielen Fütterungszyklen besteht, die sich auf ähnliche Weise wiederholen, und die normalen Prozessänderungen und mehrere Betriebsbedingungen im Prozess häufig vorkommen, was immer zu Fehlalarmen führen würde. Zu diesem Zweck klassifizieren wir jeden Fütterungszyklus von ISP in Anfangsstadium, Übergangsstadium und stationäres Stadium und verwenden Standard-PCA, Störung erster Ordnung (FOP) basierend auf rekursiver dynamischer PCA und Multi-Mode-Ansatz, um mit ihnen umzugehen. Die Überwachungsergebnisse mit realen Daten zeigen, dass das vorgeschlagene System in der Lage sein kann, Fehlalarme zu eliminieren und Fehler effizient zu erkennen.;-;-;-;https://link.springer.com/article/10.1007/s12555-011-9105-x 8895c1115d0a7748bfd367592295cd05;de;;;1.2.;;;Ermittlung des Verhaltens von Kreditkarteninhabern durch lineare Programmierung mit mehreren Kriterien Im Kreditkartenportfoliomanagement ist die Vorhersage des Ausgabeverhaltens des Karteninhabers ein Schlüssel zur Reduzierung des Insolvenzrisikos. Ausgehend von einer Reihe von Attributen für Hauptaspekte von Kreditkarteninhabern und vordefinierten Klassen für das Ausgabeverhalten schlägt dieses Papier ein Klassifizierungsmodell vor, das eine lineare Programmierung mit mehreren Kriterien verwendet, um Verhaltensmuster von Kreditkarteninhabern zu entdecken. Es zeigt ein allgemeines Klassifizierungsmodell, das theoretisch jede Klassengröße verarbeiten kann. Dann konzentriert es sich auf einen typischen Fall, in dem das Verhalten der Karteninhaber in vier Klassen vordefiniert ist. Ein Datensatz einer großen US-Bank wird verwendet, um die Anwendbarkeit der vorgeschlagenen Methode zu demonstrieren.;-;-;-;https://link.springer.com/article/10.1007/s10479-005-6245-5 6e834cdd30c8562b1f0f13f6383e7235;de;;;1.2.;;;Kompartimentelle Anatomie der unteren Extremität: klinische Relevanz für Radiologen Ein gründliches Verständnis der Kompartimentanatomie ist für den Radiologen erforderlich, der an der Behandlung eines Patienten mit einer muskuloskelettalen Malignität der unteren Extremität beteiligt ist. Die Lokalisation des Tumors in das Ursprungskompartiment und die Identifizierung einer extrakompartimentellen Ausbreitung präoperativ sind erforderlich, um einen Tumor richtig einzustufen und die geeignete chirurgische Behandlung zu bestimmen. Ein Verständnis der Lage der Fasziengrenzen, des extrakompartimentären Gewebes und der neurovaskulären Strukturen des Oberschenkels und Unterschenkels erleichtert diesen diagnostischen Prozess. Für den Radiologen, der eine Biopsie einer verdächtigen muskuloskelettalen Läsion plant, wird eine Rücksprache mit dem überweisenden Orthopäden empfohlen, um gemeinsam einen geeigneten perkutanen Biopsieansatz auszuwählen. Eine angemessene präprozedurale Planung gewährleistet die Auswahl eines Zugangs, der eine Ausbreitung des iatrogenen Tumors über das Ursprungskompartiment hinaus verhindert, neurovaskuläre Strukturen schützt und eine vollständige Resektion des Biopsietrakts und der Narbe zum Zeitpunkt der chirurgischen Resektion ermöglicht, ohne ein potenzielles Gliedmaßenerhaltendes Verfahren zu gefährden. Anatomische Querschnittsuntersuchungen und Fallbeispiele zeigen die Bedeutung eines detaillierten Verständnisses der Kompartimentanatomie bei der Annäherung an Patienten mit einem muskuloskeletalen Tumor der unteren Extremität.;-;-;-;https://link.springer.com/article/10.1007/s00256-005-0910-2 0de637f3a0728ff59622c5612031a4ba;de;;;1.2.;;;Risiken für die globale Finanzstabilität durch den Klimawandel: der Fall von Hochwasserrisiken Unter Finanzaufsichtsbehörden wächst die Besorgnis, dass durch den Klimawandel bedingte Veränderungen in der Verteilung und Häufigkeit extremer Wetterereignisse eine Bedrohung für die globale Finanzstabilität darstellen könnten. Wir bewerten dieses Risiko für den Fall von Überschwemmungen, indem wir ein einfaches Modell für die Ausbreitung klimabedingter Schocks über Finanznetzwerke entwickeln. Wir zeigen, dass das Ausmaß globaler Risiken durch das Zusammenspiel zwischen der Exposition von Ländern gegenüber klimabedingten Naturgefahren und ihrer finanziellen Hebelwirkung bestimmt wird. Der Klimawandel führt zu einer Verschiebung der Verteilung der Auswirkungen auf Länder mit hohem Einkommen und damit zu einer größeren Verstärkung der Auswirkungen, da die Finanzsektoren von Ländern mit hohem Einkommen stärker fremdfinanziert werden. Umgekehrt sind Länder mit hohem Einkommen finanziellen Schocks stärker ausgesetzt. In High-End-Klimaszenarien könnte dies zu systemischen Risiken führen, da die Gesamtauswirkungen dem Kapital der Bankensektoren von Ländern entsprechen, die Drehscheiben des globalen Finanznetzwerks sind. Anpassungspolitik oder deren Fehlen scheint einer der wichtigsten Risikotreiber zu sein, da sie die zukünftige Gefährdung von Ländern mit hohem Einkommen bestimmt. Dies impliziert insbesondere, dass die vermiedenen Kosten im Hinblick auf die Finanzstabilität als Nutzen der Anpassungspolitik gewichtet werden sollten.;-;-;-;https://link.springer.com/article/10.1007/s10584-021-03092-2 d3796e3ce9571e55203663c7b30e9b39;de;;;1.2.;;;Chronische Immunsuppression und Behandlung akuter Abstoßung Das richtige Management der Immunsuppression bei Herztransplantationen erfordert Kenntnisse in Immunologie und Pharmakologie. In der Praxis setzen die meisten Zentren heute zwei bis vier verschiedene Immunsuppressiva in einem von mehreren komplizierten Protokollen ein. Betrachtet man die beträchtliche Variabilität einzelner Patienten, das Potenzial für multiple Arzneimittelinteraktionen und die signifikanten Compliance-Probleme, die jedem chronischen Multidrug-Regime innewohnen, dann werden die Dimensionen der Herausforderung, die die Immunsuppression für den praktizierenden Arzt darstellt, offensichtlich. Daher werden in diesem Kapitel alle derzeit zur Immunsuppression eingesetzten Medikamente (Abb. 9.1) untersucht, die meisten der derzeit verwendeten Multi-Medikamenten-Protokolle beschrieben und die Nebenwirkungen und möglichen Wechselwirkungen der Medikamente bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-3008-3_9 67c3f4050fc01381e8c9ebf4c18a53c4;de;;;1.2.;;;Zurückspulen: Eine Kantate Ein „re“ im Titel. Zurückspulen. Umzukehren, rückwärts zu gehen, aber auch zu wiederholen, wo auch die Idee des Vergangenen vorhanden ist, oder zurückzukehren, wo das Zurückgehen ein doppeltes Zurück ist. Zurückspulen: eine Filmspule, ein Bandfaden, ein Geräusch einer Geschichte. Aber wir können nicht sagen, wo das, was gesehen oder gehört oder passiert ist, beginnt oder endet oder wann. „Es hat schon begonnen und damit auch schon den Anfang beendet“,;-;-;-;https://link.springer.com/chapter/10.1057/9780230251311_8 581b34b24bc344521fd887f08d7b4368;de;;;1.2.;;;Antigenmarker der Makrophagendifferenzierung in murinem Gewebe Zellbeschränkte Membranantigene haben es ermöglicht, die Verteilung reifer Makrophagen in vielen Geweben der Maus zu kartieren. Monoklonale Antikörper (mAbs) wurden verwendet, um das Auftreten von Makrophagen während der fötalen und postnatalen Entwicklung zu definieren, um die anatomischen Beziehungen zwischen Makrophagen und anderen Zellen bei normalen und erkrankten Erwachsenen zu bestimmen und um zelluläre Modulation und Heterogenität innerhalb verschiedener Mikroumgebungen zu untersuchen. Aktuelle Studien haben den komplexen Differenzierungsweg mononukleärer Phagozyten in vivo veranschaulicht und Fragen zu den Mechanismen aufgeworfen, die den Eintritt, die Migration und das Schicksal von Monozyten im Gewebe bestimmen. Makrophagen stellen ein großes, weit verstreutes System von Zellen dar, die die Homöostase im normalen Wirt regulieren und auf Gewebeverletzungen reagieren, indem sie wesentliche Funktionen während der Entzündung und Reparatur beitragen. In dieser Übersicht betrachten wir mehrere Membranmarkerantigene, die sich bei der Untersuchung der Lebensgeschichte und der biologischen Eigenschaften von Makrophagen als nützlich erwiesen haben, und beziehen immunchemische Studien zur Antigenexpression mit der Abstammungsanalyse und der Makrophagendifferenzierung in vivo in Verbindung. Wir beschränken unsere Diskussion auf die Maus, in der es möglich ist, das System in seiner Gesamtheit zu manipulieren. Soweit bekannt, sind die Eigenschaften von Makrophagen in anderen Spezies weitgehend ähnlich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-77377-8_1 f1f76e6db74f7e08a64ececa2bfab83f;de;;;1.2.;;;Ableiten zustandsbasierter Implementierungen interaktiver Komponenten mit History-Abstraktionen Das externe Verhalten einer interaktiven Komponente bezieht sich auf die Kommunikationshistorien auf den Eingangs- und Ausgangskanälen. Die Implementierung der Komponente verwendet einen internen Zustand, in dem Eingaben die Ausgabe und eine Aktualisierung des Zustands bewirken. Die Black-Box-Ansicht wird durch eine Stream-Processing-Funktion von Eingabe- zu Ausgabe-Streams modelliert, die Glass-Box-Ansicht durch eine Zustandsübergangsmaschine. Wir stellen eine formale Methode vor, wie eine Stream-Processing-Funktion mit mehreren Argumenten durch eine Zustandsübergangsmaschine korrektheitserhaltend implementiert wird. Die Transformation umfasst zwei wichtige Schritte, die Differenzierung und Geschichtsabstraktion genannt werden. Die Differenzierung lokalisiert die Wirkung eines einzelnen Eingangs auf einen der Eingangskanäle bzgl. die vorherigen Eingabeverläufe. Die Historienabstraktion führt Zustände als Kongruenzklassen von Eingabehistorien ein. Wir erweitern unsere bisherigen Ergebnisse von interaktiven Komponenten mit einem Eingabekanal auf Komponenten mit mehreren Eingabekanälen. Die Verallgemeinerung verwendet eine „Diamanteigenschaft“ für Zustände und Ausgaben, die den Zusammenfluss des resultierenden Zustandsübergangssystems sicherstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-70881-0_17 f6dfe1204288ff22dc15c6981b09559a;de;;;1.2.;;;Das letzte Problem zur Optimalität der Allgemeinen Theorie für nichtlineare Wellengleichungen Die allgemeine Theorie des Anfangswertproblems für vollständig nichtlineare Wellengleichungen besteht darin, die unteren Grenzen der Lebensdauer, der maximalen Existenzzeit, klassischer Lösungen hinsichtlich der Amplitude kleiner Anfangsdaten gemäß der Ordnung glatter nichtlinearer Terme und Raumdimensionen zu klären . Alle Ergebnisse wurden bis 1995 erhalten. Daher waren wir an der Optimalität der unteren Schranken interessiert. Dies kann durch Blow-up-Ergebnisse für Modellgleichungen erhalten werden. Von diesen mehreren Ergebnissen ist seit mehr als 20 Jahren nur der Fall des quadratischen semilinearen Termes in 4 Raumdimensionen offen geblieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-0454-7_17 29a3acd1b444e7c7666ad8f019262507;de;;;1.2.;;;Bewerten Sie Prozesse bei der Desorption und Extraktion von überkritischen Fluiden Überkritische Fluide haben Eigenschaften, die sie als Lösungsmittel für eine Vielzahl von Prozessen attraktiv machen. Zwei Verfahren, die sich grundlegend unterscheiden, sind (1) die Desorption von gelösten Stoffen aus porösen Feststoffen mit überkritischem Kohlendioxid und (2) die reaktive Extraktion (Solvolyse) von Lignin und Cellulose in Biomasse mit überkritischem Butanol. In dieser Diskussion werden mathematische Modelle analysiert, um die relative Bedeutung von kinetischen Geschwindigkeits- und Stoffübergangsprozessen zu bestimmen. Die detaillierte Natur der experimentellen Antworten ermöglicht die Unterscheidung zwischen den verschiedenen Modellen für die Prozesse. Zum Beispiel kann die Desorption von Ethylacetat aus Aktivkohle durch einen Langmuir-Desorptionsratenausdruck beschrieben werden, wobei externe und intrapartikuläre Massentransferbeiträge in das Modell einbezogen werden. Die Solvolyse von Lignin erfordert zwei parallele Reaktionsgeschwindigkeitsausdrücke für zwei Arten von Lignin. Für Solvolyseexperimente mit reaktiver Cellulose wird ein Drei-Reaktions-Modell mit kompetitiver Kohleproduktion benötigt. Diese Diskussion wird den Wert dynamischer (zeitabhängiger) Experimente für die mathematische Modellierung von Systemen mit chemischer Kinetik und Transportprozessen demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-3470-5_7 10b19661274b78f7c4f5c5aa37c1c715;de;;;1.3.;;;Der Student als Qualitätskontrolleur Um einigen der Ideale und Anforderungen des studierendenzentrierten Lernens gerecht zu werden, sind sowohl von den Studierenden als auch von den Mitarbeitern der medizinischen Fakultäten Einstellungsänderungen erforderlich.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4886-3_4 4b049db58660b33d3b40325cd528f2cb;de;;;1.3.;;;Apropos großer Vogel: Vorschulkinder und ein einfaches Spracherkennungssystem Die vorliegende Studie untersuchte die Wirksamkeit einer Konfiguration von Software und Hardware zur automatischen Spracherkennung (ASR) mit einer Kinderstichprobe von 36 Dreijährigen und einer Vergleichsstichprobe von 20 Erwachsenen. Die Probanden verwendeten ein sprecherabhängiges, vorlagenbasiertes System, um ein einfaches Namensspiel „Sesamstraße“ zu spielen. Die Ergebnisse zeigten, dass das System bei Erwachsenen zwar gut funktionierte, bei Kindern jedoch viel weniger effektiv war. Eine Analyse der Leistungen der Kinder zeigt, dass die Sprache von Kindern in Lautstärke und Inhalt variabler ist als die von Erwachsenen. Das ASR-System reagierte auf diese Variabilität ineffektiv, was zu einer schlechteren Leistung führte. Spezifische Verhaltensweisen und ihre Auswirkungen auf das ASR-System werden identifiziert und mögliche Systemänderungen, die diese Verhaltensweisen ansprechen, werden notiert.;-;-;-;https://link.springer.com/article/10.1007/BF02297088 b9e8d314a94a2d5b491d65372e01a6e6;de;;;1.2.;;;Scherspannungs-Dehnungs-Phänomene Eine grundlegende Aussage dieser Arbeit ist der Vorteil, der sich aus der Trennung volumetrischer und deviatorischer Phänomene bei der Untersuchung des physikalischen und mechanischen Verhaltens von Böden ergibt. Hinsichtlich der Behandlung des volumetrischen Phänomens, der Konsolidierung, gibt es fast keine Diskrepanz zwischen diesem und den tatsächlich durchgeführten triaxialen Konsolidierungstests: Die Behandlung von volumetrischen Phänomenen ist tatsächlich von der von deviatorischen Phänomenen getrennt. Die Tatsache, dass dem Scherversuch in der Regel eine Bodenverfestigung vorausgeht, und dass seit der frühen Geschichte der Bodenmechanik Verfestigungen berücksichtigt werden, zumindest;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-1677-6_12 4630b7788060a2462bce6e7f1fb5c9c4;de;;;1.2.;;;Kac-Ward-Formel und ihre Erweiterung auf Ordnungs-Unordnungs-Korrelatoren durch eine Graph-Zeta-Funktion Eine stromlinienförmige Ableitung der Kac-Ward-Formel für die Verteilungsfunktion des planaren Ising-Modells wird vorgestellt und angewendet, um den Kern der Kac-Ward-Matrizen invers mit den Korrelationsfunktionen der Ordnungs-Unordnungs-Korrelationsfunktionen des Ising-Modells in Beziehung zu setzen. Eine Abkürzung für beides wird durch die Bowen-Lanford-Graphen-Zeta-Funktions-Beziehung ermöglicht. Die Kac-Ward-Beziehung wird auch hier erweitert, um eine Familie nichtplanarer Wechselwirkungen auf . zu erzeugen;-;-;-;https://link.springer.com/article/10.1007/s10955-018-2184-9 697f37029bbb15625f39126eded1ae7d;de;;;1.2.;;;Drastische Veränderung der Dynamik, da Taifun Lekima einen Augenwand-Ersatzzyklus durchläuft Warum wird der Taifun Lekima von 1909 so zerstörerisch, nachdem er in China Land erreicht hat? Unter Verwendung eines neu entwickelten mathematischen Apparats, der Multiskalenfenstertransformation (MWT), und der MWT-basierten lokalisierten mehrskaligen Energetikanalyse und Theorie des kanonischen Transfers, soll diese Studie eine Teilantwort aus dynamischer Sicht geben. Die ECMWF-Reanalysefelder werden zuerst auf dem Hintergrundfenster, dem TC-Skalenfenster und dem Konvektionsskalenfenster rekonstruiert. Anschließend wird eine lokalisierte energetische Analyse durchgeführt, die uns deutlich unterschiedliche Szenarien vor und nach dem 8.-9. August 2019 zeigt, wenn ein Augenwandersatzzyklus stattfindet. Davor erfolgt die Energieversorgung in der oberen Schicht hauptsächlich über eine starke, durch die obere Schicht begrenzte barokline Instabilität, die so gewonnene verfügbare potentielle Energie wird dann in die kinetische Energie der TC-Skala umgewandelt, mit einem Teil zur Befeuerung des oberen Teils von Lekima, einem anderen Teil über Druckarbeitsfluss nach unten getragen, um den unteren Teil des Zyklons zu halten. Nach dem Eyewall-Ersatzzyklus tritt eine drastische Änderung der Dynamik auf. Erstens wird die Druckarbeit stark erhöht. Ein positiver barokliner Transfer breitet sich fast über die gesamte Troposphäre aus, ebenso wie der barotrope Transfer, mit anderen Worten, die gesamte Luftsäule ist nun sowohl barotrop als auch baroklin instabil. Diese neu aufgetretenen Instabilitäten tragen dazu bei, den zunehmenden Verbrauch der kinetischen Energie im TC-Maßstab zu kompensieren und tragen somit dazu bei, der Dissipation von Lekima nach Landfällen entgegenzuwirken.;-;-;-;https://link.springer.com/article/10.1007/s11707-020-0865-6 f981bdb9224c7cc88ef0ffed823368ab;de;;;1.2.;;;Überlegungen zur Historiographie der amerikanischen Eugenik: Trends, Brüche, Spannungen In den 1950er Jahren hatte die Eugenik ihren wissenschaftlichen Status verloren, sie gehörte nun eher zum Kontext als zum Inhalt der Wissenschaft. Auch das Interesse an dem Thema war rückläufig. Doch diese Situation sollte sich bald dramatisch ändern. Tatsächlich bemerkte Philip Pauly in einer 1993 veröffentlichten Essay-Rezension, dass eine „Eugenik-Industrie“ an Bedeutung mit der „Darwin-Industrie“ konkurrieren konnte, obwohl die erstere weniger integriert zu sein schien als die letztere. Seitdem hat sich das Tempo der Veröffentlichungen zur Eugenik, einschließlich der amerikanischen Eugenik, nur beschleunigt, während das Feld noch stärker gespalten ist und sich in mehrere und sogar widersprüchliche Richtungen bewegt. Dieser Essay untersucht den Verlauf der Arbeit zur Geschichte der amerikanischen Eugenik seit dem Wiederaufleben des Interesses an diesem Thema in den 1960er Jahren und stellt Trends und auch Brüche fest. Letztere resultieren zum Teil aus der Tatsache, dass das Fach nicht mehr im Besitz von professionellen Historikern ist, was das Interesse von Wissenschaftlern mehrerer anderer Disziplinen sowie von Wissenschaftlern, politischen Aktivisten und Journalisten geweckt hat, und auch aus der Tatsache, dass die Geschichte der Eugenik war fast immer politikorientiert. Der Wunsch von Historikern, politikrelevant zu sein und gleichzeitig auf Kontext, Komplexität und Kontingenz zu achten, hat auf mehreren Ebenen zu Spannungen geführt: innerhalb von Einzelpersonen, unter Historikern und zwischen professionellen Historikern und anderen, die sich auch mit der Geschichte der Eugenik befassen. Dass diese Spannungen von verschiedenen Autoren und sogar von denselben Autoren zu verschiedenen Zeiten unterschiedlich gelöst werden, erklärt, warum die Fragmentierung, die Pauly bemerkte, wahrscheinlich nicht so schnell überwunden werden wird.;-;-;-;https://link.springer.com/article/10.1007/s10739-016-9442-y 563c78800b557f2a42cf035522fb245d;de;;;1.2.;;;Salusin-α- und Salusin-β-Spiegel im Serum bei Patienten mit Morbus Behcet Die Behcet-Krankheit (BD) ist eine chronische, rezidivierende, systemische Vaskulitis unbekannter Ätiologie. Bei BD-Patienten besteht eine erhöhte Prädisposition für Insulinresistenz und das metabolische Syndrom (MetS).;-;-;-;https://link.springer.com/article/10.1684/ejd.2014.2397 037733ae25460f97cf0d41557b905c8b;de;;;1.2.;;;CMIP6-Bewertung und Projektion von Temperatur und Niederschlag über China Dieser Artikel bewertet die Leistung von 20 Coupled Model Intercomparison Project Phase 6 (CMIP6)-Modellen bei der Simulation von Temperatur und Niederschlag über China durch Vergleiche mit gerasterten Beobachtungsdaten für den Zeitraum 1995–2014, mit einem Schwerpunkt auf räumlichen Mustern und zwischenjährlicher Variabilität. Die Auswertungen zeigen, dass die CMIP6-Modelle bei der Reproduktion der klimatologischen räumlichen Verteilung von Temperatur und Niederschlag gut abschneiden, mit einer besseren Leistung für Temperatur als für Niederschlag. Ihre Variabilität zwischen den Jahren kann auch von den meisten Modellen angemessen erfasst werden, jedoch wird eine schlechte Leistung in Bezug auf die Variabilität der Winterniederschläge zwischen den Jahren festgestellt. Basierend auf der Gesamtleistung für die beiden oben genannten Faktoren werden die „höchsten“ Modelle als Ensemble (BMME) ausgewählt. Das BMME übertrifft das Ensemble aller Modelle (AMME) bei der Simulation von Jahres- und Wintertemperaturen und -niederschlägen, insbesondere für Subregionen mit komplexem Gelände, zeigt jedoch nur geringe Verbesserungen bei Sommertemperatur und -niederschlag. Die AMME- und BMME-Projektionen zeigen jährliche Zunahmen von Temperatur und Niederschlag in ganz China bis zum Ende des 21. Pfad 2/Repräsentativer Konzentrationspfad 4.5 (SSP245). Der größte Anstieg der Jahrestemperatur wird für höhere Breitengrade und höhere Lagen prognostiziert, und der größte prozentuale Anstieg des Jahresniederschlags wird für Nord- und Westchina prognostiziert, insbesondere unter SSP585. Das BMME, das in diesen Regionen im Allgemeinen besser abschneidet, prognostiziert jedoch im Vergleich zu den AMME-Projektionen geringere Änderungen der Jahrestemperatur und größere Schwankungen des Jahresniederschlags.;-;-;-;https://link.springer.com/article/10.1007/s00376-021-0351-4 15515558e4330acac1de4fabcbd432f6;de;;;1.2.;;;Kernspaltung Die Entdeckung der Kernspaltung vor etwas mehr als dreißig Jahren (HS 39) hat ein wichtiges Kapitel in der Erforschung der Kernphysik aufgeschlagen. Doch obwohl die Kernspaltung ein nukleares Phänomen ist, ist sie fast unabhängig vom allgemeinen Trend der Kernphysik gewachsen. Dies liegt vor allem daran, dass die Spaltung ein komplizierter Prozess ist. Die verschiedenen Modelle, die zum Verständnis der niederenergetischen Kernphysik entwickelt wurden, konnten nicht erfolgreich angewendet werden, um die vielfältigen Eigenschaften dieses gewaltigen kollektiven Phänomens zu beschreiben und zu erklären. Bei der Spaltung durchläuft der Kern eine Reihe von großen Schwingungen mit einer solchen Amplitude, dass der Kern bis zu dem Punkt verlängert wird, an dem er in zwei Fragmente von etwa gleicher Masse zerbricht, wodurch eine große Menge Energie freigesetzt wird (etwa 200 MeV für spaltungsinduzierte in;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-9041-5_1 bba2f826543514119ddc35774ee6321a;de;;;1.2.;;;Einstellungen und Überzeugungen als verbale Verhaltensweisen Einstellungen und Überzeugungen werden als verbale Verhaltensweisen analysiert. Es wird argumentiert, dass die Gestaltung durch eine verbale Gemeinschaft ein wesentlicher Bestandteil der Bildung und Aufrechterhaltung von Einstellungen und Überzeugungen ist, und es wird vorgeschlagen, dass verbale Gemeinschaften die wichtige Veränderung der Kontrolle von Ereignissen in der Umgebung (Einstellungen und Überzeugungen als Taktik) zu vermitteln Kontrolle durch andere Worte (Einstellungen und Überzeugungen als intraverbale). Es scheint, dass sowohl Einstellungen als auch Überzeugungen ständig durch autoklitische Funktionen sozial ausgehandelt werden. Das heißt, verbale Gemeinschaften verstärken (a) die Berichterstattung über allgemeine anstatt spezifische Einstellungen und Überzeugungen, (b) die Präsentation von Intraverbalen, als wären sie Taktiken, und (c) die Präsentation von Überzeugungen, als wären sie Einstellungen. Die Kohärenz zwischen und zwischen Einstellungen, Überzeugungen und Verhaltensweisen hängt auch von den verstärkenden Praktiken verbaler Gemeinschaften ab. Daher können Einstellungen und Überzeugungen eher als soziales Verhalten als als private, kognitive Prozesse untersucht werden.;-;-;-;https://link.springer.com/article/10.1007/BF03392661 0d1489dc1648b08a038d2b9aa12e28a2;de;;;1.2.;;;Regie und Stil Was ist ein Regisseur? Welche Verantwortung trägt der Regisseur im gesamten Produktionsprozess? Wenn Sie bereits Theatergeschichte studiert haben, wissen Sie, dass sich die formale Rolle des Regisseurs im Laufe der Jahre stark verändert hat. Laut einigen Büchern wurde das Berufsbild des Regisseurs, wie wir es kennen, vom Herzog von Sachsen-Meiningen erfunden;-;-;-;https://link.springer.com/chapter/10.1057/9780230610453_2 c713ed9fe441701e8dcd02c8b9435e82;de;;;1.2.;;;Beweise für die adaptive Bedeutung von Allozymen in Waldbäumen Positive Korrelationen zwischen Allozymheterozygotie und Fitnessmaßen, vor allem Wachstum und Fruchtbarkeit, wurden für eine Reihe von Waldbaumarten berichtet. Da die durch den Allozym-Genotyp erklärten Wachstumsvariationen normalerweise nur in der Größenordnung von wenigen Prozent liegen, wurden wenig Anstrengungen unternommen, um das elektrophoretische Screening von Allozymen als Werkzeug bei der frühen Selektion auf Sämlinge in Produktionsgärtnereien einzusetzen. Wir überprüfen die Fortschritte, die in Studien zur Heterozygotie bei Waldbäumen erzielt wurden, und konzentrieren uns darauf, wie neuere Studien ein sorgfältiges experimentelles Design verwendet haben, um die Prüfung von Hypothesen hinsichtlich der ursächlichen Natur des Heterozygotie-Fitness-Phänomens zu ermöglichen. Wir diskutieren Beweise, die auf eine schädliche Natur seltener Allozym-Allele hindeuten, und präsentieren einen Fall einer scheinbar ausgleichenden Selektion über die Stadien der Lebensgeschichte hinweg, die dazu dient, seltene Allele in . zu erhalten;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-2815-5_10 dc7c68ba8636679347d20f485ffc2cf1;de;;;1.2.;;;Regression von Neoplasmen beim Menschen Neoplasmen sind ein mehrstufiger Prozess, der durch Wachstumsabweichungen verursacht wird. Das T-Zell-Wachstum kann entweder fortschreiten oder in jedem Stadium spontan oder manchmal durch therapieinduzierte Regression stoppen. Während der Behandlung strebt ein Arzt eine künstliche Unterbrechung des Krankheitsprozesses an, entweder durch Ablation des Tumors mit einer Operation, Interferenz durch Radio- oder Chemotherapie oder jede andere Art von kontrollierter Behandlung. Die vollständige Unterdrückung von Metastasen und Rezidiven ist das Ziel, für das solche therapeutischen Lentinan zur Prävention von Mikrometastasen vielversprechend sind (24). Während der spontanen Regression von Neoplasmen, wie bei der therapieinduzierten, kommt es zu einer Reihe komplizierter Wirtstumor/Tumor-Wirt-Interaktionen. Das immunologische System des Wirts kann insbesondere dasjenige sein, das den Hintergrund für eine spontane neoplastische Progression liefert. Ein besseres Verständnis dessen, was tatsächlich passiert, kann weitreichende Auswirkungen auf die Krebstherapie haben. Die zelluläre Histolyse (Kaiser Kapitel 9, Band IV) und die Umwandlung bösartiger Zellen in natürliche können die grundlegenden Prozesse sein (103).;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-2530-4_5 fe153296cc4412b356f941360f2017dd;de;;;1.2.;;;Von der Subduktion zur Kollision: Thermischer Überdruck von HP/LT-Meta-Sedimenten im nordöstlichen Lepontinen Dom (Schweizer Alpen) und Konsequenzen für die tektonometamorphe Evolution des alpinen orogenen Keils Die metamorphe Struktur der Alpen aus dem Känozoikum besteht aus einem durchgehenden druckdominierten Gürtel (Blauschiefer und Eklogit), der parallel zum Orogen verläuft und später von zwei thermischen Kuppeln abgeschnitten wurde, die durch eine Metamorphose vom Barrow-Typ gekennzeichnet sind (Lepontinische Kuppel und Tauernfenster). Diese Studie dokumentiert zum ersten Mal, dass Relikte von Fe-Mg-Carpholit auch innerhalb metasedimentärer Einheiten vorkommen, die Teil der nordöstlichen lepontinischen strukturellen und metamorphen Kuppel sind, wo bisher ausschließlich barrovianische Ansammlungen gefunden wurden. Sie kommen in Meta-Sedimenten sowohl von Unterpenninischen Bündnerschiefer aus dem Wallis-Ozean als auch von strukturell aus Europa stammenden Unterpenninischen Deckdecken und -scheiben vor. Diese Hochdruckeinheiten wurden anschließend von einem thermischen Ereignis überdruckt, was durch das Wachstum neuer Mineralien, die für die Barrovian-Metamorphose typisch sind, dokumentiert wird.;-;-;-;https://link.springer.com/article/10.1007/s00015-008-1289-6 de96b6474f3d2d8dc82e6549b0395954;de;;;1.2.;;;Die Rolle der Vögel in der Ökologie des West-Nil-Virus in Europa und Afrika Das Ziel dieses Kapitels ist zweierlei: erstens die Literatur, die seit der umfassenden Überprüfung von Hayes im Jahr 1989 veröffentlicht wurde, und zweitens einige der Daten zusammenzufassen, die während der jüngsten Epizoose des West-Nil-(WN-)Virus in Israel in den Jahren 1997–2001 gesammelt wurden einschließlich einer Bewertung des Vogelzugs in der Region.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-59403-8_15 47224ce5452508214df87d277407c32a;de;;;1.2.;;;Atmungsmanagement Die Atemtherapie beginnt damit, sicherzustellen, dass der Verbrennungspatient einen geschützten und stabilen Atemweg hat. Wird die Möglichkeit einer Atemwegsobstruktion oder eine drohende Atemwegsobstruktion nicht erkannt, kann dies tödliche Folgen für den Patienten mit Verbrennungen haben. Klassisch schreitet die Obstruktion der Atemwege bei Verbrennungsopfern schnell von einem leichten Rachenödem zu einer vollständigen Obstruktion der oberen Atemwege fort [1].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-0348-7_12 bcd63c5e6b91872d9c15ddc08ee761a0;de;;;1.2.;;;Theorie des Streubruchs im komplexen Spannungszustand Die Untersuchung des Bruchprozesses bei einachsigem Zug oder Druck ist von größter Bedeutung für die Bestimmung grundlegender Bruchregeln von Materialien. Allerdings sollten wir nun den Umfang unserer Untersuchungen erweitern, da eine Vielzahl von Bauwerken und tragenden Teilen den rauen Bedingungen der komplexen Spannungszustände und Belastungen ausgesetzt sind. Dieses Kapitel betrachtet ein phänomenologisches Modell zur Langzeitfestigkeit eines Festkörpers. Das Grundkonzept basiert auf der allmählichen Akkumulation von Schäden im Material während des Bruchprozesses im komplexen Spannungszustand. Da die Akkumulation von Defekten ein zeitlicher Prozess ist und von der Art des Spannungszustandes abhängt, ist es möglich, die Schadensakkumulation im Rahmen der vorgeschlagenen Theorie zu berechnen, wenn die Art des Spannungszustandes mit der Zeit variiert, also zu berücksichtigen die Auswirkungen komplexer (nichtproportionaler) Belastungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1597-3_8 f9d264709534862e2615593a9f09322b;de;;;1.2.;;;Hongkong-Modell: Die überarbeitete Version von 1990 In den letzten Jahren hat das Fehlerkorrekturmodell für dynamische Gleichungen in der quantitativen Ökonomie an Popularität gewonnen. Es wurde auf solche Mainstream-Probleme wie den persönlichen Konsum, Investitionen und die Geldnachfrage angewendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-68258-5_7 3756c691fc3494b299e3dffcf2372fe2;de;;;1.2.;;;Agenten auf dem Wohnungsmarkt. Ein Modell für das historische Zentrum von Siena Ziel der Untersuchung ist es, die Dynamik und Entwicklung des Immobilienmarktes eines stark umkämpften urbanen Zentrums zu analysieren. Eine Analyse wurde durch die Definition eines Multi-Agenten-Systems durchgeführt, das auf einem zellularen Automaten ad hoc implementiert ist. Der Fokus liegt auf der Erforschung des historischen Stadtzentrums von Siena und dem Verhalten der Agenten in diesem Bereich, nämlich der Studenten (sechs Universitätsfakultäten befinden sich im historischen Zentrum), der professionellen Arbeiterklasse (die Hauptakteure des tertiären Sektors der Stadt ) und der Tourismusindustrie (Siena ist ein bekannter Pol der internationalen Touristenattraktion).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30479-1_64 7e8920158ef5906f291691a2d128062e;de;;;1.2.;;;Wiederherstellung eines Laubwaldes in Westnorwegen, der früher zur Futtergewinnung genutzt wurde: Auswirkungen auf Baumkronen und Feldschicht Der reiche Laubwald bei Loi, Luster, Inner Sogn, 61° 20′ N., wurde traditionell für die Futtergewinnung aus Baum- und Feldschichten genutzt. Nach mehr als 40 Jahren Nichtnutzung und Sekundärwaldsukzession wurden Versuche unternommen, den traditionellen landwirtschaftlichen „Wiesenwald“ wiederherzustellen. Nach einer detaillierten Vorregistrierung der Vegetation wurden folgende Maßnahmen ergriffen:;-;-;-;https://link.springer.com/article/10.1007/BF00032599 3c6a3f347a62580f22c48b56ab5a917a;de;;;1.2.;;;Verallgemeinerung in Gegenwart freier Variablen: Ein mechanisch geprüfter Korrektheitsbeweis für einen Algorithmus Wir präsentieren eine Fallstudie, in der ein automatisierter Beweisassistent verwendet wurde, um die Korrektheit eines Algorithmus zu zeigen. Konkret dokumentieren wir die Anwendung einer Erweiterung des Boyer-Moore-Theorem-Beweisers auf das Problem der Überprüfung der Korrektheit einer Implementierung einer Generalisierung, wobei der Beweis überraschend viele Details aufwies und eine frühere Implementierung einen Fehler enthielt. Wir versuchen, genügend Details zu liefern, damit der Leser einen realistischen Eindruck von der Natur dieser Übung gewinnen kann.;-;-;-;https://link.springer.com/article/10.1007/BF00249356 7f2f345768a780e9fc2eaaa0645d0411;de;;;1.2.;;;Bildung unterschiedlicher Zelltypen in der Maus-Blastozyste Die frühe Entwicklung der Maus umfasst eine Reihe von Entscheidungen über das Zellschicksal, bei denen Zellen auf einem Weg mit eingeschränktem Potenzial und zunehmender Spezialisierung geführt werden. Die erste Wahl für Zellen des Embryos ist, ob sie Trophektoderm (TE) oder innere Zellmasse (ICM) werden. TE ist ein extraembryonales Gewebe, das den embryonalen Teil der Plazenta bildet, während ICM Zellen hervorbringt, die für den Fötus zu erzeugen. In der zweiten Entscheidung zum Zellschicksal wird die ICM weiter zu pluripotenten Zellen verfeinert, die den zukünftigen Körper des Embryos, Epiblast (EPI) und extraembryonales primitives Endoderm (PE) bilden, ein Gewebe, das für die Musterung des Embryos und die Etablierung des Entwicklungskreislaufs unerlässlich ist. Das Verständnis dieser frühen Abstammungslinientrennung ist entscheidend für die Aufklärung über Versuche, Pluripotenz zu erfassen und das Zellschicksal in vitro zu lenken. Im Gegensatz zur Vorhersagbarkeit des Schicksals von Nicht-Säugerzellen behält die Entwicklung des Mausembryos die Flexibilität, sich während der Entwicklung an sich ändernde Umstände anzupassen. Hier beschreiben wir diese ersten Entscheidungen über das Zellschicksal, wie sie voreingenommen werden können, während die Flexibilität erhalten bleibt, und schließlich einige der molekularen Schaltkreise, die der frühen Schicksalsentscheidung zugrunde liegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30406-4_11 fa4047ea3bf613ed4a0ee16f0ed61024;de;;;1.2.;;;Anamnesebasierte Diagnosevorlagen im Rahmen der Situationsrechnung Wenn Agenten wie mobile Roboter feststellen, dass die Welt nach der Ausführung einer Aktionsfolge nicht wie erwartet ist, interessieren sie sich dafür, welche Aktionsfehler oder unbemerkten Aktionen tatsächlich aufgetreten sein könnten, was ihnen helfen würde, die Situation zu korrigieren. Dazu untersuchen wir eine Art;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45422-5_18 9fbbbad9fa7c766a1ceb24e5d0a36568;de;;;1.2.;;;Botulinum-A-Toxin-Behandlung bei Lidkrampf, krampfhafter Torticollis und Apraxie der Augenlidöffnung Botulinum-A-Toxin (botAtox) wurde bei der Behandlung von Blepharospasmus (BS), idiopathischer hemifazialer Spasmus (HFS), idiopathischer spasmodischer Torticollis (ST) und Apraxie der Augenlidöffnung (AEO) verwendet. Die Injektion von 7,5–30 E botAtox pro Auge über 3 oder 4 Stellen im Lidbereich von Orbicularis palpebrae (OP) reduzierte in 12/13 Fällen von BS und in 7/8 Fällen von HFS den Lidkrampf. Die Wirkung hielt im Durchschnitt 14,5 Wochen an (Spanne 4–30 Wochen). Palpebrale Ptosis (dauert 1–3 Wochen) war die häufigste Nebenwirkung (16/107 behandelte Augen), stand jedoch nicht in Zusammenhang mit der BotAtox-Dosis oder der Anzahl der Impfstellen. Die Injektion von 60–160 U botAtox in die M. sternocleidomastoideus, Trapezius und Splenius capitis reduzierte die ST objektiv bei 1/4 der Patienten für etwa 4 Wochen. Bei den anderen Patienten ging die Reduktion oder Aufhebung der Hypertrophie der zuvor hyperaktiven Muskulatur mit einer Persistenz oder Neuordnung des Dystoniemusters einher, was auf eine Veränderung des Aktivitätsmusters der Nackenmuskulatur nach botAtox schließen lässt. 5 U botAtox pro Auge, verteilt auf 4 Stellen in der OP, reduzierte die Häufigkeit von Episoden eines unfreiwilligen Augenlidschlusses bei 2 Patienten mit AEO, aber nicht BS signifikant. Der therapeutische Effekt hielt 7 Monate nach der ersten Behandlung und 8 Monate nach der zweiten bei einer 46-jährigen Frau mit einer 6-monatigen Vorgeschichte an, während die zweite Patientin (72 Jahre alter Parkinson) jetzt ihren 3. Behandlungsmonat abgeschlossen hat.;-;-;-;https://link.springer.com/article/10.1007/BF02333858 91e51b40fb99a08c8a92158b60b3263f;de;;;1.2.;;;Nukleare Isomerie Kernisomere können als Atome definiert werden, deren Kerne für messbare Zeiträume in angeregten Zuständen existieren. Alle bekannten Isomere sowie andere niedrig liegende Energieniveaus, die normalerweise bei radioaktiven Zerfallsprozessen vorkommen, sind gebundene Zustände in dem Sinne, dass sie gegenüber der Emission von Protonen oder Neutronen stabil sind. Während zu erwarten ist, dass jeder gebundene angeregte Zustand eine endliche und definierbare Lebensdauer hat, ist es klar, dass das Messkriterium für die Kennzeichnung eines Zustands als isomer davon abhängt, ob uns die experimentellen Techniken zur Bestimmung seiner Lebensdauer zur Verfügung stehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45878-1_1 b9df6de115352dde0a566de74cca1105;de;;;1.2.;;;Die Zusammensetzung der kosmischen Strahlung: Ein Update Die relativen Häufigkeiten von Elementen und/oder Isotopen in der kosmischen Strahlung sind die Informationsquelle sowohl über die Orte des Ursprungs und der Beschleunigung der kosmischen Strahlung als auch über die Bedingungen im interstellaren Medium, durch das sich die Teilchen bewegen. Jüngste (1988-90) Messungen und Interpretationen haben neue Informationen über die Zusammensetzung der kosmischen Strahlung und die Häufigkeit der Quellen geliefert. Diese neuen Ergebnisse werden beschrieben und mit früheren Arbeiten verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-3158-2_2 89cdaccb3f61ab5eeb812cccb9cef682;de;;;1.2.;;;Eine Bewertung der ENSO-Stabilität in CAMS-Klimasystemmodellsimulationen Wir präsentieren einen Überblick über die El Niño-Southern Oscillation (ENSO) Stabilitätssimulation mit dem Klimasystemmodell der Chinese Academy of Meteorological Sciences (CAMS-CSM). Die ENSO Stabilität wurde anhand des Bjerknes (BJ) Stabilitätsindex quantifiziert. Im Allgemeinen hat CAMS-CSM die Fähigkeit, den BJ-Index und die ENSO-bezogenen Luft-See-Feedback-Prozesse angemessen darzustellen. Die wichtigsten Simulationsfehler bestehen in der unterschätzten thermodynamischen Dämpfung und den Rückkopplungen der Thermokline. Weitere diagnostische Analysen zeigen, dass die unterschätzte thermodynamische Rückkopplung auf die Unterschätzung der kurzwelligen Strahlungsrückkopplung zurückzuführen ist, die aus der kalten Abweichung der mittleren Meeresoberflächentemperatur (SST) über dem zentral-östlichen äquatorialen Pazifik (CEEP) entsteht. Das unterschätzte Thermokline-Feedback wird dem geschwächten mittleren Auftrieb und dem geschwächten Wind-SST-Feedback (μ;-;-;-;https://link.springer.com/article/10.1007/s13351-018-8092-8 1ecffa505ef2d5158a8a14db4ed99431;de;;;1.2.;;;Eine probabilistische endochronische Frakturtheorie In einer früheren Arbeit [7] haben wir eine Bruchtheorie aufgestellt, die wir entwickelt haben, indem wir gleichzeitig (1) die Rolle der Dehnungsenergiedichte, (2) die stochastische Natur des Bruchs, (3) ''die Zeit die von Zhurkov und anderen [1–3] angenommene Frakturhypothese, die zumindest in einigen Fällen dem Frakturprozess zugrunde zu liegen scheint.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-7520-3_17 b39460d7b25b845655ca8bf0202a56c2;de;;;1.2.;;;Der Glaskörperzustand Glas ist ein vielseitiger und manchmal rätselhafter Stoff. Es funktioniert ebenso gut als Lichtträger, Beschützer des Menschen und seiner Erfindungen, Kunstobjekt oder unverzichtbares Werkzeug für die Erforschung der Wissenschaft. Je nach Zusammensetzung kann es stärker gemacht werden als Stahl;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-0328-3_1 230dcf002f776e29742ec599b77a6dbe;de;;;1.2.;;;Kundensegmentierung für Power Enterprise basierend auf Enhanced-FCM-Algorithmus Kundensegmentierung ist ein wichtiges Thema des Kundenbeziehungsmanagements und FCM ist eine gängige Methode zur Kundensegmentierung. FCM reagiert jedoch empfindlich auf Ausreißer und die Anzahl der Cluster ist schwer zu bestimmen. In diesem Papier definieren wir hierarchische analytische Indikatoren für die Segmentierung von Stromkunden und schlagen einen neuen Algorithmus namens WKFCM_S . vor;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35527-1_11 5585456c75fd9bc0ed5f254f944ac5a1;de;;;1.2.;;;Identifizierung und Minderung von gletscherbedingten Gefahren: Beispiele aus der Cordillera Blanca, Peru Gletscher und Schneefelder können potenzielle Gefahren darstellen, die auf einer kurzen Zeitskala (Minuten-Tage) signifikant sein können, wie Eis- und Schneelawinen, Jökulhlaups, Aluviones und Eisbergeinschläge. Gletscherbedingte Gefahren können ebenso gravierend, aber weniger offensichtlich sein, wenn sie auf einer viel längeren Zeitskala (Monate-Jahre-Dekaden) betrachtet werden, wie zum Beispiel Gletscherfluten und Eisfrontfluktuationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-2310-5_13 e682d7a5c42ca4a14fb1827f26222080;de;;;1.2.;;;Häufige Komplikationen Komplikationen bei der Körperkonturierung sind häufig. Obwohl sie häufig sind, sind sie oft von geringer Schwere und umfassen unter anderem die Extrusion von Nahtmaterial, Serome, Hämatome, verzögerte Wundheilung und Fettnekrose. Ein Großteil davon ist auf lange Einschnitte, potenzieller Platz für Flüssigkeitsansammlungen und Einschnitte in schwierigen Bereichen wie der Achselhöhle oder Leiste zurückzuführen. Die Patientenauswahl ist der Schlüssel zur Vermeidung bestimmter Komplikationen, und das Management der Erwartungen kann helfen, postoperative Komplikationen zu bewältigen. Dieses Kapitel konzentriert sich auf die Arten von Komplikationen, die häufig nach der Körperkonturierung auftreten, mit Schwerpunkt auf deren Behandlung und Vorbeugung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-03068-1_11 2651b8cf2db0cdfe2c74d0dfdc6b2ee2;de;;;1.2.;;;Management nach dem intravaskulären Ansatz Nach einem kurzen historischen Rückblick werden in diesem Kapitel die experimentellen, technischen und klinischen Grundlagen der intravaskulären Okklusion erörtert. Die Erfahrungen von G. Debrun mit einer Serie von 21 Riesenaneurysmen mit intravaskulärer Behandlung mit oder ohne andere neurochirurgische Verfahren werden vorgestellt, gefolgt von einer Diskussion der gegenwärtigen Rolle dieser sich schnell entwickelnden Methode bei der Behandlung von Riesenaneurysmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83171-3_16 989b5053e50fb8a20702c49182c5852a;de;;;1.2.;;;Experimentelle Bestimmung der Fällungsraten von Authigenem Illit und Kaolinit in Gegenwart von wässrigem Oxalat und Vergleich mit den K/Ar-Alter von Authigenem Illit in Reservoirsandsteinenstone Die Bedeutung der Ausfällungsrate als wirksame Kontrolle der Illit- und Kaolanitbildung während der Diagenese wurde durch Messen der Ausfällungsraten anhand der Al-Flüssigkeitskonzentration in einem Dickson-Flüssigkeitsprobennahmegefäß bei 160°-250° und 500 bar (50 MPa) untersucht. Diese Experimente gelten als Analoga der Ausfällung von Tonen in Sandsteinen aus Porenwässern mit gelösten Carbonsäuren, die eine vorübergehende Stabilität aufweisen und die Löslichkeit von Alumosilikat beeinflussen können. Ausgefällter Illit hatte eine lattenförmige Morphologie und seine Zusammensetzung stimmte mit dem authentischen Illit in Sandsteinen überein. Kaolinit bildete eher tafelförmige als wurmförmig geformte Kristalle. Die Kaolinit-Ausfällungsrate war zwei Größenordnungen schneller als die Illit-Ausfällung und wurde durch die Zersetzung von Oxalat begrenzt. Die Kaolinit-Bildung sollte in praktisch allen Stadien der Verschüttung gleichgewichtskontrolliert sein. Die Extrapolation der Illit-Niederschlagsrate auf die Bestattungstemperaturen zeigt, dass das erste Auftreten von Illit in einer Bestattungssequenz kinetisch kontrolliert werden kann. Ein auf diesen experimentellen Ergebnissen basierendes Modell der Illitfällung wurde verwendet, um die Zeit, die erforderlich ist, um Illit während der Verschüttung eines Sandsteins auszufällen, unter Berücksichtigung von Temperaturänderungen während der Verschüttung vorherzusagen. Für Beispiele aus der nördlichen Nordsee entspricht eine vorhergesagte Illitisierungsschwelle von -60°C, die bei 60–80 Ma auftritt, der beobachteten Initiierung der authigenen Illit-Präzipitation. Es wären Zeiten von etwa 2–5 Ma erforderlich, um an dieser Schwelle eine 98%ige Annäherung an das Gleichgewicht zu erreichen. Die Hauptphase der Illitniederschläge im nördlichen Nordseebecken ist ein späteres, hydrologisch kontrolliertes Ereignis (30-50 Ma). Das Gleichgewicht würde während dieser Phase in etwa 0,1 Ma erreicht werden, was mit dem engen K/Ar-Altersbereich von Illit (1-5 Ma) übereinstimmt, der für einige Sequenzen aufgezeichnet wurde.;-;-;-;https://link.springer.com/article/10.1346/CCMN.1993.0410208 44863eabd498fefecaf8822532922881;de;;;1.2.;;;Eine Siedlung mit etwas Monarchie in sich Die Abschaffung der Monarchie erwies sich als einfacher, als die Notwendigkeit eines Königs zu beseitigen, und von 1649 bis 1660 verschwand die Idee einer Restauration nie aus dem Blick. Der Ruf nach einer wiederbelebten Monarchie sollte, wenn auch unauffällig in Bezug auf loyalistische Ansichten, von einigen der gleichen Leute ausgehen, die eine Republik angestrebt hatten und an dem Prozess und der Zerstörung Karls I. beteiligt waren. Der Appell des Königtums an die Engländer reichten weit von Levellers, die glaubten, das Volk habe einen Tyrannen kassiert, nur um mit einem anderen belastet zu werden, bis hin zu Cromwell selbst, der würdigte, dass die Monarchie der einzige wirksame Schutz gegen ein oberstes und unverantwortliches Parlament sein könnte. Es war zumindest theoretisch beruhigend gewesen, dass die Gesetze Englands einen König vorsahen, dessen Vorrechte begrenzt waren. Auch in der Praxis war das Vorrecht nie ganz zügellos gewesen. Auch Karl I., der England einer elfjährigen persönlichen Herrschaft unterworfen hatte und am Ende als Tyrann verurteilt worden war, regierte rechtsstaatlich und hatte Verständnis für rechtliche Grenzen der monarchischen Macht.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-12952-2_5 799f9038972833a100345fd8419d9ee0;de;;;1.2.;;;Rekonstruktion von Taifune im Jangtse-Delta in den Jahren 1644-1949 n. Chr. basierend auf historischen Chorographien Die Proxy-Aufzeichnungen über Taifune im Jangtse-Delta von 1644 bis 1949 n. Chr. stammen aus historischen Chorographien der Qing-Dynastie und der Republik China. In Anlehnung an die Grundlagen zur Identifizierung historischer Taifune wurden Zeitreihen über das Jangtse-Delta über einen Zeitraum von 306 Jahren entwickelt. Die Schlussfolgerungen sind wie folgt. (1) Von 1644 bis 1949 n. Chr. gab es insgesamt 241 Taifune. Unter Verwendung der historischen Chorographien von 1884 bis 1949 n. Chr. betrug die Anzahl der Taifune 65, was 87,8 % der meteorologischen Beobachtungen entspricht. Die Anzahl der Jahre mit Unterschieden in den Taifunaktivitäten, die nur einmal auf zwei Arten rekonstruiert wurden, beträgt 55 und erreichte 83,3 % in der Zeit von 1884 bis 1949 n. Chr. Mit diesem Ergebnis kann die anhand historischer Chorografien rekonstruierte Serie historischer Taifune den Wandel der Taifunaktivitäten über Jahre hinweg darstellen. (2) Die durchschnittliche Anzahl der Taifunaktivitäten beträgt 0,79 Mal pro Jahr von 1644 bis 1949 n. Chr., und sie zeigen eine steigende Tendenz. Diese 306 Jahre können durch die durchschnittliche Anzahl der Taifunaktivitäten in drei Perioden unterteilt werden: Sie ist von 1644 bis 1784 n. Chr. niedrig, und von 1785 bis 1904 n. Es ist erwähnenswert, dass die Anzahl der Taifun-Aktivitäten den Gipfel in der letzten Periode erreicht, die von 1905 bis 1949 n. Chr. 1,2 Mal pro Jahr beträgt. (3) Vor dem 20. Jahrhundert ist die Zahl der Taifunaktivitäten in warmen Perioden geringer als die Zahl der kalten Perioden. Die Zahl der Taifunaktivitäten nahm jedoch Anfang des 20. Jahrhunderts dramatisch zu. Vergleicht man die Taifun-Aktivitäten mit El Niño-Ereignissen, zeigen die Daten, dass die Anzahl der Taifun-Aktivitäten bei El Niño nicht zugenommen hat.;-;-;-;https://link.springer.com/article/10.1007/s11442-012-0965-7 323ca121d23f01e41838c947e54b097c;de;;;1.2.;;;Fortbewegung in der Vergangenheit: Historische Straßenmodellierung Ein Schlüssel zum Verständnis historischer Geographien sind historische Straßennetze. GIS (Geographical Information Systems) kann die Werkzeuge zur Modellierung von Straßen liefern, deren genauer Verlauf aufgrund fehlender archäologischer Überreste unbekannt ist. Wegfindungsalgorithmen, wie die kostengünstigsten Pfade, können Routen über eine Landschaft basierend auf zugewiesenen Kostenfaktoren berechnen. Doch welche Faktoren sind neben dem Relief und den Flüssen für die Trassenführung historischer Straßen wichtig? Dabei spielen nicht nur physische Faktoren eine wichtige Rolle, sondern auch soziale, kulturelle, politische und militärische Faktoren. Um historische Straßen zu modellieren, müssen diese Faktoren identifiziert und formalisiert werden. Die Formalisierung führt zu einem theoretischen Modell, das dann in einem GIS implementiert werden kann. Als Rahmen für die Formalisierung dienen sozialgeographische Ansätze wie die Systemtheorie. Außerdem werden zwei Fallstudien vorgestellt. Die erste ist eine mittelalterliche byzantinische Straße in der ehemaligen jugoslawischen Republik Mazedonien, die in Dokumenten aus dem 13. und 14. Jahrhundert erwähnt wird. Die zweite Fallstudie befasst sich mit einem historischen buddhistischen Pilgerweg aus dem 11. Jahrhundert im westlichen Himalaya. Ein Verständnis der historischen Geographie ist notwendig, um Modelle historischer Straßen zu erstellen, aber wenn sie einmal erstellt wurden, können sie helfen, räumliche Beziehungen in der historischen Landschaft besser zu verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29770-0_16 5b66c4573ef1020831d780c264adea76;de;;;1.2.;;;Einführung: Ein historischer Ansatz zur Sequenzierung Ich werde nie das rätselhafte Gefühl vergessen, das ich bei meinem ersten Besuch auf dem Wellcome Trust Genome Campus hatte. Der Campus befindet sich in Hinxton, einer kleinen Stadt in Cambridgeshire inmitten einer sehr traditionellen britischen Landschaft. Nach einer langen Busfahrt mit dem lokalen Bus, die große Teile der umliegenden ländlichen Gegend durchquert hat, befindet sich die nächste Haltestelle – und das Wahrzeichen, um sie nicht zu verpassen – neben;-;-;-;https://link.springer.com/chapter/10.1057/9780230370937_1 49ca62441fd7d16fa1aac650e752e9d0;de;;;1.2.;;;Design des digitalen Stoßfilters in CP-EBPSK mit zufällig-polarem Kommunikationssystem Um die Schwierigkeit des Designs digitaler Impacting-Filter im Empfänger von random-polar modulated Extended Binary Phase Shift Keying with Continuous Phase (CP-EBPSK) zu lösen, wird ein Designverfahren basierend auf dem Algorithmus zur Quanten-behaved Particle Swarm Optimization (QPSO) vorgeschlagen. Zunächst wird QPSO ausführlich vorgestellt und auch der grundlegende Ablauf von QPSO gegeben. Dann wird das Demodulationsprinzip des digitalen Impacting-Filters im Kommunikationssystem von CP-EBPSK mit Random-Polar demonstriert und QPSO wird verwendet, um das digitale Impacting-Filter zu entwerfen, das bei Implementierung durch Hardware auch den Effekt der endlichen Wortlänge berücksichtigt . Schließlich wird die vorgeschlagene Methode simuliert. Simulationsergebnisse zeigen, dass das durch ein neues Verfahren entworfene digitale Aufprallfilter eine zufriedenstellende Demodulationsleistung ableiten kann.;-;-;-;https://link.springer.com/article/10.1007/s11767-012-0845-4 c379f408d019dd590f10886ed8cdd091;de;;;1.3.;;;Die Optimierung der Spectrum Sensing Frame Time Mit der Anwendung und Entwicklung der Funktechnologie in allen Bereichen gewinnt das Problem der Frequenzknappheit immer mehr an Aufmerksamkeit. Das kognitive Funkgerät wird eingeführt, um eine opportunistische Nutzung des Spektrums des primären Benutzers durch einen sekundären Benutzer durchzuführen. Daher sollte ein sekundärer Benutzer in der Lage sein, das Spektrum abzutasten. In diesem Papier analysieren wir das Problem der Gestaltung der optimalen Spektrumserfassungsrahmenzeit unter Berücksichtigung der Dynamik des Zustands des Betriebskanals und der Einschränkung der Kollisionswahrscheinlichkeit, um die erwartete Belohnung im Durchsatz eines mehrkanaligen kognitiven Funknetzes zu maximieren in denen zu einem Zeitpunkt mindestens ein freier Kanal vorhanden ist, werden die Energiekosten der Spektrumserfassung und Datenübertragung und Kanalumschaltung berücksichtigt. Wir untersuchen das Problem im Rahmen von partiell beobachtbaren Markov-Entscheidungsprozessen (POMDP).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18134-4_91 d4d2c3cd797cb90d4b7d0e711a8574f7;de;;;1.3.;;;Leistungsoptimierung unter Helligkeits- und Kommunikationsanforderungen für die Kommunikation mit sichtbarem Licht basierend auf der MacAdam-Ellipse Die Datenübertragung mit RGB-LEDs stößt bei VLC (Visible Light Communication) auf großes Forschungsinteresse. Wir betrachten die Leistungsoptimierung unter Helligkeits- und Kommunikationsanforderungen für RGB-LEDs und modellieren die Farbbeschränkung mit der MacAdam-Ellipse anstelle eines Fixpunktes im Farbwertdiagramm. Anschließend wird ein Optimierungsproblem formuliert, um die Sendeleistungsaufnahme und die entsprechenden Koordinaten im Farbwertdiagramm zu bestimmen. Wir schlagen einen neuartigen zweistufigen Algorithmus vor, um das Optimierungsproblem mit geringerer Implementierungskomplexität zu lösen. Numerische Ergebnisse zeigen, dass der vorgeschlagene Ansatz die gleiche Leistung wie die optimale Lösung mit einer Brute-Force-Methode zeigt und den geringeren Stromverbrauch mit MacAdam-Ellipse anstelle eines einfachen Fixpunkts im Farbdiagramm erfordert.;-;-;-;https://link.springer.com/article/10.1007/s41650-017-0043-5 fd2a588aaf70baab459b844a4302556b;de;;;1.3.;;;Prognostiziert für die Stoßzeiten der drahtlosen Mobilkommunikation basierend auf dem Hidden-Markov-Modell Um den Mobilfunkverkehr schnell und genau vorhersagen zu können, werden in diesem Artikel Hidden-Markov-Modelle (HMM) verwendet, um den Verkehr in der Hauptverkehrszeit der drahtlosen Mobilfunkprognose vorherzusagen. Aufgrund des Modells mit strenger mathematischer Struktur, zuverlässiger Rechenleistung und den Eigenschaften zur Beschreibung des Ereignisses wird HMM zum idealen Modell zur Beschreibung des Verkehrsablaufs. Die experimentellen Ergebnisse zeigen, dass HMM-Modelle im Bereich der Vorhersage des Mobilfunkverkehrs eine höhere Genauigkeit und Stabilität aufweisen als die Methode der SVM mit DE-Strategie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30223-7_96 57a9626b0d991ffd68f538f036645949;de;;;1.2.;;;Komplexe größenabhängige Habitatassoziationen bei potamodromen Fischarten Die Kenntnis der Verteilung der Lebensstadien von Arten auf mehreren räumlichen Skalen ist sowohl für eine angemessene Bewertung von Artenmanagement- und Schutzprogrammen als auch für die Fähigkeit, die Folgen menschlicher Störungen für Flusssysteme vorherzusagen, von grundlegender Bedeutung. Die Lebensraumansprüche von drei einheimischen Cyprinidenarten – der iberischen Barbe;-;-;-;https://link.springer.com/article/10.1007/s00027-010-0172-5 26abee93547313b4f72aab6f4137f17d;de;;;1.2.;;;Stochastische N-Personen-Spiele: Erweiterungen des endlichen Zustandsraum-Falls und der Korrelation In diesem Kapitel präsentieren wir einen Rahmen für stochastische Spiele mit m-Personen mit einem unendlichen Zustandsraum. Unser Hauptziel ist es, einen von Nowak und Raghavan [42] bewiesenen korrelierten Gleichgewichtssatz für diskontierte stochastische Spiele mit einem messbaren Zustandsraum vorzustellen, bei denen die Korrelation der Strategien der verschiedenen Spieler nur „öffentliche Signale“ [16] verwendet. Wir werden auch einen detaillierten Überblick über die Literatur mit verwandten Ergebnissen, einigen Approximationssätzen für stochastische Spiele im allgemeinen Zustandsraum (die Existenz von ε-Gleichgewichten) und die Existenz von Gleichgewichten in einigen Klassen von abzählbaren stochastischen Spielen im Zustandsraum mit Anwendungen auf Warteschlangen bereitstellen Modelle.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0189-2_8 5963ded30f9266976a372645b06f6dd4;de;;;1.2.;;;Austausch heterogener Feature-Daten in Concurrent Engineering- und Collaborative Design-Umgebungen Der Austausch heterogener Produktdaten ist eine der Aktivierungstechniken in Concurrent Engineering- und kollaborativen Designumgebungen. Über den traditionellen geometriebasierten Datenaustausch hinaus hat der merkmalsbasierte Datenaustausch viele Vorteile, wie zum Beispiel die Beibehaltung der Konstruktionsabsicht. Zunächst werden die bestehenden Methoden des merkmalsbasierten Datenaustauschs diskutiert. Zweitens werden unsere neuesten Forschungsergebnisse zum merkmalsbasierten Datenaustausch vorgestellt. Abschließend wird der Vergleich unserer Methoden mit ehemals typischen Methoden anhand von Fallstudien analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84882-762-2_37 fb21b77055a93355932ee4da0e2eb4f6;de;;;1.2.;;;Zusammenarbeit mit Dr. Joanne Simpson während der Leitung des TRMM-Projekts Die Entwicklung und Herausforderungen des Projekts Tropical Rainfall Measuring Mission (TRMM) werden definiert und die Rolle von Joanne Simpson als Projektwissenschaftlerin beschrieben, während das Projekt von der frühen Entwicklung zu einem äußerst erfolgreichen operationellen Satellitensystem für die Niederschlagsmessung fortgeschritten ist. Eine enge Interaktion zwischen dem Projektwissenschaftler und den Projektmitarbeitern des TRMM war ein Schlüssel zum Erfolg der Mission.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-878220-63-9_15 a39e5a744fb28a7fad020e483ae60359;de;;;1.2.;;;Die Priorität des Ereignisses vor der Form in Machiavellis Diskurs Die Geschichte der politischen Philosophie, die zu Machiavelli führte, ist die Geschichte der Gründe, warum die menschliche Praxis vorgefertigten Ordnungen oder Formen entsprechen sollte. Mit Machiavelli entdeckte die menschliche Praxis ihre Freiheit im Antagonismus zur Formsphäre, in der Erfahrung, dass bisher als fest und unveränderlich angesehene Ordnungen umgestoßen werden konnten, im Verdacht, dass diese unsere Welt keiner möglichen Ordnung oder Form sichere Grundlagen bietet . Nach Machiavelli sieht sich das politische Denken mit einer Alternative konfrontiert: Entweder sucht es in dieser schwierigen neuen Freiheit eine andere Grundlage für seine Ordnungen oder es hinterfragt die Notwendigkeit einer freien menschlichen Praxis, die vom Primat der Ordnung abhängt. Dieses Buch rekonstruiert die Argumentation, die von Machiavellis Diskurs zu dieser Alternative führt, nimmt auf der Grundlage dieses Diskurses die Position ein, dass die erste Alternative unpraktikabel oder aporetisch ist, und versucht, aus diesem Diskurs einige Fluchtlinien für politische nachzudenken, sollte sie sich, sicher nicht zum ersten Mal, in die zweite, nicht minder beschwerliche Alternative begeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-9337-3_1 a65362922713154748d2b774ddd2386e;de;;;1.2.;;;Transaktionsverarbeitungssystem auf browserbasierter standardisierter Benutzeroberfläche In diesem Kapitel wird der modelltheoretische Ansatz zur Entwicklung eines Transaktionsverarbeitungssystems (TPS) vorgestellt, das das Hauptziel des aktuellen Systems Engineering ist. Bei diesem Ansatz erstellt der Systementwickler die Spezifikation für das Zielsystem basierend auf der relationalen Struktur des TPS (dargestellt in Abschnitt 1.2). Die Spezifikation wird in der computerakzeptablen Mengenlehre beschrieben (eingeführt in Kapitel 2) und dann in extProlog zu einem ausführbaren TPS kompiliert. Das System wird unter der Kontrolle einer standardisierten Benutzeroberfläche (UI) ausgeführt, die in PHP entworfen wurde. Die Benutzeroberfläche wurde auf mehreren Ebenen entwickelt. Der Einfachheit halber behandelt dieses Kapitel die TPS-Entwicklung mit der einfachsten Benutzeroberfläche.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35840-6_14 722e7a98b9453ccbb4165977ec642a2a;de;;;1.2.;;;Skew-Kurven Einrichten eines Nullsystems im Raum Einer der auffallendsten projektiven Theoreme bezüglich des verdrillten Kubus ist, dass sich drei beliebige Schmiegebenen des Kuben in einem Punkt treffen, der mit ihren Schmiegungspunkten koplanar ist. Der verdrillte Kubus baut auf diese Weise ein Nullsystem im Raum auf. Lassen Sie uns allgemeiner definieren an;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-2115-9_6 4330fe13bc5a964c6dffa958409910b0;de;;;1.2.;;;Chemische und Isotopenzusammensetzung des Kometen 67P/Churyumov−Gerasimenko: The Die Studien über die Zusammensetzung und Struktur des Kometen 67P/Churyumov-Gerasimenko – ein kurzperiodischer Komet aus der Familie des Jupiter – der Gegenstand des jüngsten;-;-;-;https://link.springer.com/article/10.1134/S0038094620020021 7951306f2fb515a135a3daf95889f1c1;de;;;1.2.;;;Ein Algorithmus mit festen Parametern für das Waldproblem mit maximaler Übereinstimmung auf multifurcierenden Bäumen Das Maximum Agreement Forest (MAF) Problem auf zwei gegebenen phylogenetischen Bäumen ist ein wichtiges NP-schweres Problem im Bereich der Computerbiologie. In diesem Papier untersuchen wir die parametrisierte Version des MAF-Problems: Gegeben zwei unbewurzelte (vielfurkierende) phylogenetische Bäume;-;-;-;https://link.springer.com/article/10.1007/s11432-015-5355-1 4f7675195f9e58873c33d42498c75b73;de;;;1.2.;;;Entwerfen von iterativem Lernen und sich wiederholenden Controllern In diesem Kapitel werden die Ergebnisse des Lernens und der repetitiven Kontrolle diskutiert, die in einer Reihe von 60 Veröffentlichungen vorgestellt wurden. Der Schwerpunkt in der Zusammenfassung liegt auf den praktischsten Ansätzen, wobei 8 Lerngesetze im Detail diskutiert werden, zusammen mit experimentellen Demonstrationen ihrer Wirksamkeit. Der Unterschied zwischen lernender Kontrolle und repetitiver Kontrolle wird diskutiert, und für lineare Systeme wird vorgeschlagen, dass es in praktischen Anwendungen nur sehr wenige Unterschiede gibt, da die meisten Lerngesetze auf beide Problemklassen angewendet werden könnten. Es werden Verfahren zur Langzeitstabilisierung eingeführt, einschließlich der Verwendung einer Nullphasen-Tiefpassfilterung des Fehlers oder des akkumulierten Lernsignals und einer auf Quantisierung basierenden Stabilisierung. Die Langzeitstabilisierung wird in Experimenten mit bis zu 10.000 Wiederholungen nachgewiesen. Es werden Lerngesetze vorgestellt, die eine Abstimmung von nur 2, 3 oder 4 Parametern erfordern. Die Methoden zu ihrer Abstimmung sind klar und können experimentell durchgeführt werden, ohne ein mathematisches Modell zu benötigen. Demonstrationen an einem kommerziellen Roboter, der ein Hochgeschwindigkeitsmanöver durchführte, führten bei einer kleinen Anzahl von Wiederholungen zu einer Verringerung des RMS-Tracking-Fehlers um den Faktor 100 auf fast 1.000. Solche Verbesserungen können durch einfaches Abstimmen des lernenden Controllers in einer ähnlichen Weise erreicht werden, wie man einen PD-Controller abstimmen könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5629-9_7 63a4dfcb489a5f81780a97d23b2b33ad;de;;;1.2.;;;Thema, Fokus und lokale Relevanz T. Reinhart (80) hat behauptet, dass die naive Identifizierung von Themeninformationen mit alten Informationen und von Fokusinformationen mit neuen Informationen inkonsistent ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-8453-0_5 d171f5038d9b9498ac604afd66601df8;de;;;1.3.;;;Informatikausbildung in Subsahara-Afrika Digital Health, d. h. der Einsatz digitaler, mobiler und drahtloser Technologien für die Gesundheit, wird zunehmend für sein Potenzial zur Stärkung der Gesamtleistung des Gesundheitssystems anerkannt, da digitale Gesundheit den Zugang zu Gesundheitsdiensten verbessern und die Qualität und Effizienz der Versorgung durch Deisolation verbessern kann von Angehörigen der Gesundheitsberufe an abgelegenen Orten. Eines der dringendsten Probleme in angegriffenen Gesundheitssystemen ist ein globaler Mangel und eine ungleichmäßige Verteilung von Gesundheitspersonal, die aufgrund der steigenden Inzidenz nicht übertragbarer Krankheiten (NCDs) und einer weltweit alternden Bevölkerung, die einen zusätzlichen Bedarf im Gesundheitswesen erzeugen wird, wahrscheinlich zunehmen werden. Digital Health kann ein Katalysator sein, um diesen Mangel und andere dringende Probleme in angegriffenen Gesundheitssystemen anzugehen. Bei der Konzeption, Entwicklung, Implementierung und Wartung von digitalen Gesundheitslösungen wird die unzureichende Verfügbarkeit qualifizierter Humanressourcen immer wieder als wesentlicher limitierender Faktor bezeichnet. Mehrere Programme zum Aufbau digitaler Gesundheitskapazitäten auf verschiedenen Ebenen in Afrika schließen jedoch diese Lücke. Unabhängig von der Geographie ist Digital Health ein Wissenschaftsgebiet an der Schnittstelle anderer Domänen, das per Definition interdisziplinär ist und mehr Interprofessionalität erfordert. Es gibt keine digitale Lösung, die für alle passt. Damit die digitale Gesundheit in Afrika ihr volles Potenzial entfalten kann, müssen Lösungen und Anwendungen in Zusammenarbeit mit lokalen menschlichen Kapazitäten basierend auf den tatsächlichen Bedürfnissen entwickelt und eingesetzt werden, wobei innovative Ideen und Kombinationen bestehender und neuer Technologien gefördert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-53813-2_15 0860b43f09fe47e0a9bed1e7c0953471;de;;;1.3.;;;Supervising Supervisors: Eine Reihe von Workshops Die Konzeption einer fortlaufenden Workshop-Reihe basiert auf der Annahme, dass die Residency-Programme für die „Supervising the Supervisors“ verantwortlich sind und die Qualität der Supervision von der Ausbildung abhängt. Ein kürzlich durchgeführter Workshop, der in reproduzierbaren Details präsentiert wird, informiert über die Merkmale, Prinzipien, Schwerpunkte und Strategien der Supervision. Für Psychotherapie-Supervisoren empfiehlt der Artikel, dass Trainingsprogramme Unterstützung, Kompetenzentwicklung und -erhalt, Supervision und Evaluation bieten. Es wird auf die Knappheit an Literatur zur Supervisorenausbildung hingewiesen.;-;-;-;https://link.springer.com/article/10.1007/BF03545563 9f63bac5ec64829f1ffa04925da51029;de;;;1.2.;;;Quantitative Phytogeographie des Yukon Territory (NW Kanada) auf chorologisch-phytosoziologischer Basis Diese Studie basiert auf der Analyse der chorologischen Spektren von 19 Vegetationstypen, die aus einer numerischen Klassifikation von ca. 400 phytosoziologische Aufnahmen während einer Vegetationsaufnahme im Yukon Territory (NW Kanada).;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-5508-0_3 026f6a858dd0d73180fa98eb9cb395c7;de;;;1.2.;;;Sliding-Mode-Controller für spurhaltende Steuersysteme von Schiffen basierend auf Input-Output-Linearisierung Für das nichtlineare Schiffsverfolgungssystem mit Lenkverbindung werden die Polzuordnung und die Gleitmodusregler basierend auf der Eingabe-Ausgabe-Linearisierung unter der Annahme entworfen, dass die Systemparameter konstant sind. Die Simulationsergebnisse belegen: Bei Nennparametern kann der ausgelegte Sliding-Mode-Regler den Stellweg effektiv nachführen, der im Störzustand eine starke Robustheit aufweist, aber das Flattern erzeugt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-53932-9_32 600995080808608c202e1b3ff1af1f35;de;;;1.2.;;;Eine Einführung in Oberflächenwellen In Teil I dieses Buches wurden verschiedene Phänomene beschrieben, die in den Rahmen der klassischen Strömungsmechanik fallen. Im Weltmeer gibt es jedoch viele großräumige Strömungen wie Wellen, große Meeresströmungen oder Gezeiten, die den Rahmen der klassischen Strömungsmechanik sprengen und in der Regel nicht in Strömungslehrbüchern behandelt werden. Alle diese Flüsse sind Gegenstand der Prüfung innerhalb einer Disziplin, die als bekannt ist;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-60209-2_3 e3c9459bfb7f7fb515fc8c2bd42addd4;de;;;1.3.;;;PyDiophantus Labyrinth-Spiel: Spielen Sie es, um Mathematik zu lernen, oder implementieren Sie es, um die Spieleprogrammierung in Python zu lernen Serious Games oder Lernspiele haben seit mehreren Jahren das Interesse von Lehrenden und Forschern geweckt. Im Bildungsbereich werden Serious Games eingesetzt, um Schüler zu motivieren, ihr Interesse an kognitiv anspruchsvollen Feldern zu wecken und den Lehr- und Lernprozess unterhaltsamer zu gestalten. Darüber hinaus wurde das Lernen durch die Implementierung von Spielen als effektive Alternative zum traditionellen lehrerzentrierten Ansatz für das Lehren von Programmieren vorgeschlagen. In diese Richtung zielt die in diesem Artikel vorgestellte Studie darauf ab, zu untersuchen, ob es möglich ist, sowohl Programmierkonzepte als auch Spieleprogrammierungskonzepte durch die Implementierung eines Spiels in Python zu erlernen. Konkret verfolgt die vorgestellte Studie folgende Ziele: erstens bestehende Game-Engines und Bibliotheken zu überprüfen und vergleichend zu analysieren, die von unerfahrenen Programmierern für die Implementierung einfacher Spiele in Python verwendet werden können, zweitens zu untersuchen, ob es möglich ist, ein einfaches aber ein dennoch sinnvolles Spiel, das als Prototyp zum Erlernen von Programmierkonzepten und Spielprogrammierungskonzepten in Python verwendet werden kann. Um das zweite Ziel zu erreichen, wurde ein Serious Game als Fallstudie implementiert, wobei die freie und Open Source Python-Bibliothek von pygame verwendet wurde, die basierend auf der oben genannten vergleichenden Analyse für Anfänger geeignet ist. Das implementierte Spiel PyDiophantus Maze kann zum Lehren und Lernen der Spieleprogrammierung in Python, aber auch zum Erlernen von Mathematik verwendet werden. Der Artikel schließt mit Vorschlägen für den Einsatz des Spiels in der Mathematik- und (Spiel-)Programmierausbildung sowie Plänen für weitere Forschungen.;-;-;-;https://link.springer.com/article/10.1007/s10639-019-10087-1 93f85a9c5f8d15c1a21bea6799b6dcc7;de;;;1.2.;;;Jazz und die afroamerikanische Erfahrung: Die Ausdruckskraft afroamerikanischer Musik Obwohl Paul nie Artikel auf dem Gebiet der Ethik veröffentlichte, las er dennoch viel ethische Theorie. Er kam zu dem Schluss, dass es zu viele Spinner gibt, die Ethik betreiben. Auf die Frage, welche Ethiker er für lesenswert hielt, schlug er Bentham, Prichard, Hegel vor;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-8313-8_10 3889b419bdf85f5e5d4e191ea47b8a91;de;;;1.2.;;;Krankenhausbasierte Entscheidungsunterstützung Entscheidungsunterstützungstechnologien stehen Ärzten zunehmend zur Verfügung. In den letzten Jahren wurde eine Vielzahl von Programmen für den medizinischen Markt entwickelt, die bei der Medikamentendosierung, Gesundheitserhaltung, Diagnose und anderen klinisch relevanten Entscheidungen helfen sollen. Der zunehmend leichtere Zugang zu Personalcomputern ist mitverantwortlich für dieses Wachstum. Ebenso das Interesse an automatisierter medizinischer Entscheidungsfindung, das aus einem wachsenden Bewusstsein für die Erfolge des Medical Computing gewachsen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-3903-9_4 6b952166ead42ec11cbbbe5e39ba2750;de;;;1.2.;;;Eine Methode zur Modellierung von Logistik Basierend auf der Methode der direkten Modellierung des grauen Systems haben wir eine Methode zur Modellierung der Logistik unter dem Kriterium der Minimierung der Summe der Quadrate des modifizierten relativen Fehlers (SSMRE) vorgeschlagen. Anschließend wurde es in der Bevölkerungsvorhersage in den USA angewendet, wobei die Ergebnisse zeigen, dass diese Methode den mittleren absoluten prozentualen Fehler (MAPE) bemerkenswert reduzieren kann und das erstellte Modell vorzugsweise das gesamte historische Bevölkerungsgesetz darstellen kann. Der Modellierungsprozess zeigt, dass diese Methode bequemer ist als die traditionelle Modellierungsmethode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13938-3_31 2d4228ec963217eee620bc3d38b6d8b7;de;;;1.2.;;;Symptomatologie, Pathologie und Behandlung der Bisse von Elapiden Schlangen Auf einen giftigen Schlangenbiss folgt nicht immer ein Hinweis auf eine Vergiftung und sicherlich nicht immer der Tod. Die meisten Schlangenbisse sind „erschreckte“ Bisse oder „defensive“ Bisse, da;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-66913-2_24 8c5e6c8d0cc7d65944037490ded133c1;de;;;1.2.;;;Krebs der Atemwege, der Pleurahöhle, des Mediastinums und der Brustwand Dieses Kapitel behandelt die gesamte thorakale chirurgische Onkologie mit Ausnahme des Ösophaguskarzinoms. Lungenkrebs wird ausführlich behandelt, aber bei den selteneren Tumoren wird der Schwerpunkt auf neuere Entwicklungen in der Behandlung gelegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-72646-0_48 0d2baf41170ced05c6af978dc81c5c95;de;;;1.2.;;;Bruchvektorrechnung Die Berechnung der Ableitungen und Integrale nicht ganzzahliger Ordnung geht auf Leibniz, Liouville, Grünwald, Letnikov und Riemann zurück. Die Bruchrechnung hat eine lange Geschichte von 1695, als die Ableitung der Ordnung;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14003-7_11 ae2b0a0857f52d4973a20da30edbfa17;de;;;1.2.;;;Thermodynamische Zeit In den vorherigen Kapiteln haben wir gesehen, wie die Relativität das Problem der Zeitmessung löst und alle Messungen auf Zeitmessungen reduziert. Relativität schafft jedoch den intuitiven Begriff des „Werdens“ ab. In diesem Teil beginnen wir mit der Betrachtung des Problems der Zeitasymmetrie in der Physik.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-8376-3_6 547cab7725bb1fd8d4bbc465b4324f5a;de;;;1.2.;;;Einige neuere Anwendungen von Funktionalgleichungen Es ist schwierig, einen informativen Überblick über alle kürzlich erschienenen Arbeiten zur Theorie der Funktionalgleichungen zu geben, und es ist offensichtlich unmöglich, die verschiedenen Anwendungen in anderen mathematischen Gebieten oder außerhalb der Mathematik zu kommentieren. In dieser Hinsicht ist es am besten, sich die jüngsten Beiträge von Symposien in Funktionalgleichungen anzusehen (siehe [1], [2] und [26]).;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-6320-7_8 962d2be54cc8e4d52ff968595849e5b1;de;;;1.2.;;;Das Gefängnis des Selbst: Moralische Dilemmata in Jerzy Andrzejewskis Fiktion Von Anfang an galt Jerzy Andrzejewski (1909–83) als Schüler Joseph Conrads. Er hatte auch andere Mentoren, sowohl polnische als auch ausländische, aber es scheint, dass Conrad seine Ansichten über Leben und Moral nachhaltig beeinflusst hatte. Denn Andrzejewskis moralische Voreingenommenheit blieb gewissermaßen unverändert, selbst während sein erzählerisches Handwerk grundlegende Veränderungen durchmachte, sein Erbe von Conrads Hauptdilemmas überstand alle Stürme, einschließlich der Auswirkungen des Marxismus nach dem Krieg.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-12331-5_5 0e789f396932cbfe5d76845298a16a06;de;;;1.2.;;;Paralleler Vergleich der Super-El Niños 1982/83, 1997/98 und 2015/16 und ihre Auswirkungen auf die außertropische Stratosphäre Diese Studie verwendet mehrere Datensätze zur Meeresoberflächentemperatur (SST), um einen parallelen Vergleich von drei Super-El Niños und ihren Auswirkungen auf die Stratosphäre durchzuführen. Die Ergebnisse zeigen, dass warme SST-Anomalien im Gegensatz zu gewöhnlichen El Niños am frühesten im westlichen tropischen Pazifik auftreten und dem Super-El Niño-Gipfel um mehr als 18 Monate vorausgehen. Im vorangegangenen Winter wurden relativ zur Reifephase von El Niño als Vorläufer nordpazifische Oszillations-ähnliche Zirkulationsanomalien beobachtet. Eine Pazifik-Nordamerika (PNA)-Telekonnektion tritt in der extratropischen Troposphäre während der Reifephase auf, trotz der feinen Unterschiede zwischen den Intensitäten sowie der zonalen Position der PNA-Lappen. Im Zusammenhang mit der negativen Niederschlagsreaktion über dem tropischen Indischen Ozean ist die PNA-Televerbindung im Winter 1997/98 die stärkste unter den drei Super-El Niños. Die nördliche Winterstratosphäre zeigt große Anomalien in der Polkappentemperatur und die zirkumpolare westliche, wenn die Störungen durch andere Faktoren linear aus den Zirkulationsdaten herausgefiltert werden. In Verbindung mit der positiven PNA-Reaktion in einem Super-El Niño-Winter werden positive Temperaturanomalien der Polkappen und zirkumpolare östliche Anomalien, wenn auch unterschiedlich zeitlich, in den reifen Wintern der drei Super-El Niños beobachtet. Der stratosphärische Polarwirbel im nächsten Winter ist im Vergleich zu den Ereignissen 1982/83 und 1997/98 ebenfalls ungewöhnlich schwächer und wärmer, und die stratosphärischen Zirkulationsbedingungen bleiben im kommenden Winter nach der Reifephase des Ereignisses 2015/16 zu sehen.;-;-;-;https://link.springer.com/article/10.1007/s00376-017-6260-x df47227f960da2cbc263bbc235553d1a;de;;;1.2.;;;Analytische und numerische Methoden der Dynamikuntersuchung von Fahrzeugen beschrieben durch Wirbelmodelletex In den ersten beiden Kapiteln haben wir zwei Klassen stabilisierter Objekte diskutiert, deren mathematische Modelle in gewissem Sinne nahe beieinander liegen. Diese Modelle werden im gesamten Buch als Werkzeug zur Analyse der dynamischen Eigenschaften von Fahrzeugen verwendet, die von ihnen beschrieben werden, wobei diese Eigenschaften sowohl aus experimenteller Forschung als auch aus mathematischer Simulation von gestörter Bewegung bestimmt werden. Bevor diese Modelle jedoch direkt verwendet werden, müssen einige rein mathematische Aspekte berücksichtigt und einige zusätzliche Einschränkungen eingeführt werden. Dieses Problem sowie analytische und numerische Methoden zur geeigneten Gleichungslösung sind Inhalt dieses Kapitels.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-1038-9_4 02ee46b1862c61e1d660bafd6da6adf4;de;;;1.2.;;;Automatisierte Synthese Das Aufkommen der kombinatorischen Chemie für die Hochdurchsatzsynthese von Verbindungen [1–8] hat die Weiterentwicklung automatisierter Methoden für die Synthese sowie für Reaktionsdesign, Informationsmanagement, Analyse und Reinigung vorangetrieben. Obwohl die Laborautomatisierung in der Vergangenheit in klinischen, analytischen, Prozess- oder Produktentwicklungsprogrammen implementiert wurde [9,10], ist sie in chemischen Syntheselabors zu einer Notwendigkeit geworden, um das volle Potenzial der Bemühungen der kombinatorischen Chemie auszuschöpfen. Es wurden einige perspektivische Artikel [11–14] und Übersichten [15–21] zu automatisierten Synthesebemühungen veröffentlicht, aber nur wenige haben den Wechsel zur und die Einbeziehung in die kombinatorische oder Hochdurchsatzchemie untersucht [22–24]. Dieses Kapitel gibt einen Überblick über die seit 1990 veröffentlichte Literatur zur automatisierten Synthese.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-306-46904-6_8 e3e17dad1b767c98d41343278e6258a5;de;;;1.2.;;;Untersuchung der peripheren Nervenbiopsie In diesem Kapitel wird kurz die Methodik zur Präparation von peripherem Nervengewebe skizziert, gefolgt von einer systematischen Herangehensweise an die histologische Untersuchung einer peripheren Nervenbiopsie mit Schwerpunkt auf der Differentialdiagnose.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07311-8_7 b033850288835ffde14d0c2738b3279e;de;;;1.2.;;;Rektale Schmerzen Anorektaler Schmerz (Proktalgie) ist ein häufiges Symptom, das 6,6 % der Bevölkerung betrifft. Es kann sich aufgrund einer Vielzahl von organischen Störungen oder häufiger aufgrund einer zugrunde liegenden funktionellen Ätiologie entwickeln. Patienten leiden oft unter erheblichen Beeinträchtigungen, verminderter Lebensqualität und psychischer Belastung mit geringer Linderung der Symptome, da viele Ärzte diese Beschwerden als unbedeutend ansehen und das behindernde Symptom nicht vollständig beurteilen und behandeln. In diesem Kapitel werden häufige anorektale Erkrankungen mit rektalen Schmerzen als Hauptsymptom diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4939-1498-2_20 d875cbee230e4e42cd4cc6f2eb3a3a82;de;;;1.2.;;;Geothermie in Island Island liegt im Nordatlantik, südlich des Polarkreises. Es wird vom einzigen großen subaerialen Teil des Mittelatlantischen Rückens gebildet (Abbildung 9.1) und hat eine Fläche von etwa 100000 km²;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-5846-6_9 00d501fbf3ae435e142de7084c02f02f;de;;;1.2.;;;Segmentierung von Farbebenen in historischen Karten basierend auf hierarchischer Farbabtastung Es wird ein Farbbildsegmentierungsprozess (CIS) für gescannte historische Karten vorgestellt, um häufige Probleme im Zusammenhang mit der Segmentierung alter Dokumente zu überwinden, wie z. B. (1) Variation der Farbwerte derselben Farbebene innerhalb einer Kartenseite, (2) Unterschiede in typischen Farben Werte zwischen homogenen Flächen und dünnen Strichen, die beide zur gleichen Farbschicht gehören, und (3) umfangreiche Parametrisierung, die zu einem Mangel an Robustheit führt. Der beschriebene Ansatz basiert auf einer zweistufigen Farbschicht-Prototypsuche unter Verwendung eines eingeschränkten Sampling-Designs. Globale Farbschichtprototypen zur Identifizierung homogener Regionen werden basierend auf der Farbähnlichkeit zu den extremsten Farbschichtwerten abgeleitet, die auf der Kartenseite identifiziert wurden. Diese globalen Farbschichtprototypen werden unter Verwendung relativer Abstände zwischen den Prototyppositionen im Farbraum kontinuierlich angepasst, bis eine zuverlässige Probe gesammelt wird. Basierend auf dieser Probe werden Farbschichtkeime und direkt verbundene Nachbarn derselben Farbschicht bestimmt, was zur Extraktion homogener Farbschichtbereiche führt. Im nächsten Schritt werden die globalen Farbschicht-Prototypen unter Verwendung eines neuen Musters von Farbwerten entlang der Ränder identifizierter homogener Farbbereiche neu berechnet. Dieser Abtastschritt leitet repräsentative Prototypen von Kartenschichtabschnitten ab, die aufgrund von Bleichen, Misch- oder Falschfärbung und Alterung der gescannten Originaldokumente signifikant von homogenen Bereichen derselben Schichten abweichen. Ein räumlicher Expansionsprozess verwendet diese angepassten Prototypen als Startkriterium, um die restlichen Farbschichtanteile zuzuweisen. Der Ansatz zeigt eine hohe Robustheit für Kartendokumente, die unter einer geringen grafischen Qualität leiden, was aufgrund seiner Einfachheit und des begrenzten Bedarfs an Vorabinformationen ein gewisses Potenzial für eine allgemeine Anwendbarkeit zeigt. Die einzige erforderliche Eingabe sind die Farben und die Anzahl der in der Karte vorhandenen Farbebenen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13728-0_21 b307659abae953d39cc40649c3b62d0d;de;;;1.2.;;;Zeitlich getreue Ausführung von Geschäftstransaktionen Serialisierbarkeit ist ein herausragendes Korrektheitskriterium für eine verschachtelte Ausführung von gleichzeitigen Transaktionen. Serialisierbarkeit garantiert, dass die verschachtelte Ausführung gleichzeitiger Transaktionen;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45140-4_31 a9c2a02cc4a83daf3d9081dcc6d135cc;de;;;1.2.;;;Befruchtung und Immunität – erneut besucht Dieser Artikel bietet eine historische Darstellung und einen Vergleich von Immunreaktionen und Befruchtungsphänomenen, insbesondere in Bezug auf Spermien- und Eirezeptoren, und die beträchtlichen Auswirkungen der Entwicklungen in der Immunologie auf unser konzeptionelles und praktisches Verständnis der Befruchtung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2255-9_2 293dc1330aa7c4cc2f570347c3a3cfe5;de;;;1.2.;;;Visualisierung der architektonischen Struktur eines historischen Gebäudes durch Clustering seiner lasergescannten Punktwolke Ein neuer Ansatz zur Visualisierung der lasergescannten Punktwolke historischer Gebäude wird vorgestellt. Es verfügt über 2 erweiterte Funktionen: transparenter Rendering-Effekt und eine unbeaufsichtigte Extraktion von Architekturinformationen. Das transparente Rendering wird mit unserem zuvor beschriebenen Rendering-Tool Stochastic Point-based Rendering (SPBR) durchgeführt. Die Architekturinformationsextraktion wird mit dem Punktwolken-Clustering-Verfahren realisiert, das vorsegmentierte Unterpunktmengen als die primitiven Einheiten im Merkmalsraum für das Clustern betrachtet, anstatt Rohpunkte zu verwenden. Dieses Verfahren erhöht die Genauigkeit und reduziert die Rechenkosten der Extraktion von Architekturinformationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-2669-0_1 b3ad6644877ededbff58605ed6460e1d;de;;;1.2.;;;Riesenzellgranulomatöse Angiitis des Zentralnervensystems Dies ist ein Bericht über fünf obduzierte Fälle von Riesenzellgranulomatöser Angiitis des Zentralnervensystems. Es gab drei Männer und zwei Frauen im Alter von 42 bis 71 Jahren, mit einem akuten Verlauf bei zwei, dem Tod innerhalb einer und fünf Wochen und einer längeren Dauer bei drei, mit wiederkehrender Erkrankung von 16 Monaten bis 5 Jahren. Die klinischen Symptome waren mentale Veränderungen in Verbindung mit Hemiparese oder Tetraparese, extrapyramidale Symptome, Sehstörungen mit Optikusatrophie und Hirnstammsyndrome mit endgültigem Koma. Typische Liquorbefunde waren eine leichte Lymphozytose mit erhöhten Protein- und Gammaglobulinspiegeln. Die allgemeine Autopsie ergab in zwei Fällen eine generalisierte Riesenzellangiitis mit Aortitis, von denen einer die Diagnose durch eine oberflächliche Schläfenarterienbiopsie gestellt hatte, während bei drei Patienten die entzündlichen Läsionen auf das ZNS-Gefäß beschränkt waren und alle Arten und Größen von Gefäßen betrafen. Obwohl keine signifikanten Unterschiede zwischen den Fällen mit systemischer Angiitis mit ZNS-Beteiligung und denen mit auf das ZNS beschränkten vaskulären Läsionen bestanden, zeigte die letztgenannte Gruppe das Überwiegen der Erkrankung für die kleinen leptomeningealen und intrazerebralen oder spinalen Gefäße ohne Beteiligung der großen intra- und extrakranielle brachiozephale Arterien. Letztere sind häufiger an einer kranialen oder systemischen Riesenzell-Angiitis beteiligt. Das ZNS zeigte disseminierte Mikroinfarkte des Gehirns und des Rückenmarks (2 Fälle) oder größere neue und alte Infarkte. Die Ähnlichkeiten in den morphologischen Merkmalen und dem Läsionsmuster der ZNS-Gefässe sowohl bei isolierten als auch bei generalisierten Formen der Riesenzell-Granulomatösen Angiitis sprechen für eine häufige Grunderkrankung bisher unbekannter Ätiologie. Die granulomatöse Angiitis des ZNS wird daher eher als lokale Variante der Riesenzellvaskulitis denn als eigenständige nosologische Entität angesehen. Nach neueren Daten wird die Krankheit vielleicht am besten als Immunkomplexerkrankung angesehen, obwohl auch eine Virusinfektion in Betracht gezogen wird.;-;-;-;https://link.springer.com/article/10.1007/BF00312476 da391ba15b11a91cb34928ee8d277bde;de;;;1.2.;;;NetKAT – Ein formales System zur Verifizierung von Netzwerken Dieses Papier präsentiert einen Überblick über die jüngsten Arbeiten zur Entwicklung von NetKAT, einem formalen System zur Argumentation von Paketvermittlungsnetzen, und seiner Rolle im aufstrebenden Gebiet des softwaredefinierten Netzwerks.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12736-1_1 3a854ec589f7624c488d6c0f0650a7d5;de;;;1.2.;;;Methoden über Automaten und begrenzte Baumbreite Viele der Methoden, die wir für Graphen verwenden, sind Analoga von Methoden, die für Sprachen verwendet werden, die von endlichen Automaten akzeptiert werden. Aus diesem Grund werden wir in den nächsten Abschnitten eine in sich geschlossene Darstellung der Aspekte der klassischen formalen Sprachtheorie geben, die wir benötigen. Wir beginnen mit endlichen Automaten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-0515-9_6 a685b0740c3bceb64138021c5d0f2096;de;;;1.2.;;;Eine Theorie der historischen Entdeckung: Die Konstruktion von Komponentenmodellen Eines der Hauptziele der Chemie des 18. Jahrhunderts war die Bestimmung der Bestandteile von Stoffen. In diesem Aufsatz beschreiben wir STAHL, ein System, das wesentliche Teile der Argumentation über Kompositionsmodelle des 18. Jahrhunderts modelliert. Das System umfasst eine Reihe von Heuristiken zum Generieren von Komponentenmodellen aus Reaktionen sowie Fehlerwiederherstellungsmechanismen zum Umgang mit inkonsistenten Ergebnissen. STAHL verarbeitet chemische Reaktionen inkrementell und ist damit in der Lage, ausgedehnte historische Episoden wie die jahrhundertelange Entwicklung der Phlogiston-Theorie zu rekonstruieren. Wir bewerten die Heuristiken von STAHL im Lichte historischer Daten und kommen zu dem Schluss, dass die gleichen Argumentationsmechanismen für eine Vielzahl historischer Errungenschaften verantwortlich sind, darunter Blacks Modelle des milden Alkalis und Lavoisiers Sauerstofftheorie. STAHL erklärt die Generierung konkurrierender Konten der gleichen Reaktionen, da die Argumentationskette des Systems von Wissen abhängt, das es in früheren Stadien angesammelt hat.;-;-;-;https://link.springer.com/article/10.1023/A%3A1022695221716 b3065af27e1629f6290ff1637d8dfa21;de;;;1.2.;;;Die Biographie des Petrarca schreiben: Von Susanna Dobson (1775) zu den Romantikern 1820 beklagte sich Ugo Foscolo: „Wir schreiben Romanzen statt Biografien, die unter dem Deckmantel der Geschichte unerfahrene Leser irreführen und sich für diejenigen mit mehr Scharfsinn als unbefriedigend erweisen, die Petrarca nur in Biografie kennen können.“ Ansichten ihrer Autoren und Zeiten eher als die von Petrarca.;-;-;-;https://link.springer.com/chapter/10.1057/9780230584433_1 8527943eb4945d41633add356502c319;de;;;1.2.;;;"Dynamische Visualisierung von raumbezogenen Informationen Dieses Papier schlägt einen dynamischen Visualisierungsansatz vor, der die Graphenmetapher und die räumliche Metapher kombiniert, um räumlich referenzierte Daten zu visualisieren und zu navigieren. Es bietet Benutzern ein ""Marschschema"" zum Anzeigen einer Reihe von Diagrammen";-;-;-;https://link.springer.com/chapter/10.1007/11595755_79 7da959145aa05ad5aebe63ce6fc90001;de;;;1.2.;;;Beweise für eine 200 km dicke diamanthaltige Wurzel unter dem Central Mackenzie Valley, Northwest Territories, Kanada? Geochemie des Diamantindikatorminerals aus den Regionen Horn Plateau und Forellensee Das Central Mackenzie Valley (CMV)-Gebiet der Northwest Territories liegt unter dem präkambrischen Grundgebirge des nordamerikanischen Kratons. Das Potenzial dieses Gebiets, Kimberlit-Diamantlagerstätten zu beherbergen, ist aufgrund der seismologisch definierten lithosphärischen Dicke, des Alters des Grundgesteins (2,2–1,7 Ga) und des Vorhandenseins von Kimberlit-Indikatormineralien (KIMs) in quartären Sedimenten relativ hoch. Diese Studie präsentiert Daten für eine große Sammlung von KIMs, die aus Bachsedimenten und Bodenproben aus zwei Untersuchungsgebieten im CMV, dem Horn Plateau und dem Forellensee, gewonnen wurden. In den aufbereiteten Proben dominieren peridotitische Granate die KIM-Kornzahl für beide Regionen (jeweils > 25 %), während eklogitischer Granat in beiden Regionen nahezu fehlt (je < 1 %). Die KIM-Chemie für das Hornplateau weist auf ein erhebliches Diamantenpotenzial hin, mit einer starken Ähnlichkeit mit der KIM-Systematik aus dem zentralen und westlichen Sklavenkraton. Das wichtigste Problem bei der Bewertung des lokalen Diamantpotenzials ist der Grad, in dem die KIM-Chemie lokale und/oder distale Kimberlitkörper widerspiegelt. Die radiogene Isotopenanalyse von detritischen Kimberlit-bezogenen CMV-Ilmenit- und Rutil-Körnern erfordert mindestens zwei große Altersgruppen für erodierte Quellkimberlite. Die statistische Analyse der Daten legt nahe, dass es wahrscheinlich ist, dass einige dieser KIMs aus primären und/oder sekundären Quellen innerhalb des CMV-Gebiets stammen, während andere möglicherweise durch pleistozäne glaziale und/oder glaziofluviale von Ost-Nordost in das Gebiet transportiert wurden Systeme. In diesem Stadium erlaubt es die KIM-Chemie nicht, die genaue Position der Kimberlitquelle(n) einzuschränken.;-;-;-;https://link.springer.com/article/10.1007/s00710-018-0641-4 6bb311e77d4e8ede7df6de092c847654;de;;;1.2.;;;Gewährleistung der Sicherheitswirksamkeit und Qualitätskontrolle im Einzelfall Einerseits kam das vorangegangene Kapitel zu dem Schluss, dass die „Ähnlichkeit“ zwischen traditionellen chinesischen pflanzlichen Arzneimitteln und EU-THMP rational ist, obwohl ersteres seinen einzigartigen Prozess und seine einzigartige Herstellungsmethode auf der Grundlage der Formulierungstheorien des TCM-Systems hat. Daher ist es nicht angebracht, TCMP – zumindest traditionelle chinesische Kräuterarzneimittel – rechtlich ungünstiger zu behandeln. Andererseits hat die Analyse in den vorangegangenen Kapiteln dieses Buches auch gezeigt, mit welcher Skrupel die EU TCMP anerkennt. In diesem Fall kann im Einzelfall das Vorsorgeprinzip angewendet werden. In diesem Kapitel wird daher der Ansatz zur Bewertung der Sicherheit, Wirksamkeit und Qualitätskontrolle des zur Zulassung in der EU verwendeten Arzneimittels erörtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-52848-5_6 69a06afc5516cf9c961250804d05ebd1;de;;;1.2.;;;DNA-Reparatur von Säugetieren und die zellulären DNA-Polymerasen Die genomische DNA wird im Laufe des Lebens eines Organismus durch verschiedene physikalische und chemische Einflüsse geschädigt. Für eine originalgetreue Reproduktion und Konservierung genomischer DNA müssen beschädigte DNA-Stellen repariert werden, und Organismen haben mehrere DNA-Reparaturwege, die für die Aufrechterhaltung der Genomstabilität von entscheidender Bedeutung sind. Jeder einzelne DNA-Reparaturweg (d. h. fehlerfreie Reparatur, Basen-Exzisions-Reparatur, Nukleotid-Exzisions-Reparatur usw.) ist im Allgemeinen in der Natur ähnlich, und dieses Konservierungskonzept war für den schnellen Fortschritt auf dem Gebiet der DNA-Reparatur von Säugetieren von unschätzbarem Wert. Mehrere Beispiele für DNA-Polymerase-unabhängige „fehlerfreie Reparatur“ sind gut bekannt, einschließlich Photolyase-Umkehrung von UV-Schäden und Methyltransferase-Umkehrung von Alkylierungsschäden. Bei den verschiedenen Exzisionsreparaturwegen, die alle eine Form der DNA-Polymerase-vermittelten Lückenfüllung beinhalten, wird zuerst die beschädigte Stelle in der DNA erkannt und exzidiert, die Exzisionslücke wird zugeschnitten, um eine lückenfüllende DNA-Synthese zu ermöglichen, die Nukleotidsequenz ist durch DNA-Synthese wiederhergestellt, und schließlich wird das Phosphodiester-Rückgrat ligiert. Die Exzisionsreparatur beschädigter DNA ist daher ein sequenzieller mehrstufiger Prozess. Das/die spezifische(n) Enzym(e), die an einem einzelnen Schritt beteiligt sind, können von der Art der zu reparierenden DNA-Läsion und dem die Läsion umgebenden DNA-Struktur/Sequenz-Kontext abhängen. Da die Resynthese einer DNA-Sequenz nach Exzision beschädigter DNA durch eine DNA-Polymerase katalysiert wird, spielen diese Enzyme eindeutig eine zentrale Rolle bei der DNA-Reparatur und damit der genomischen Stabilität.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-59259-455-9_11 584a246b8b155323acdb20bcd4e84dd6;de;;;1.2.;;;Schlafreden bei Zwillingen: Epidemiologie und psychiatrische Komorbidität Schlafreden ist normalerweise gutartig, aber chronische Fälle bei Erwachsenen können mit Psychopathologie zusammenhängen. Wir vermuten erhebliche genetische Einflüsse bei der Anfälligkeit für Schlafgespräche und einen Zusammenhang zwischen Schlafgesprächen und psychiatrischen Störungen. Im Jahr 1990 ergab ein Fragebogen an die finnische Zwillingskohorte Antworten von 1298 eineiigen und 2419 zweieiigen Zwillingspaaren im Alter von 33 bis 60 Jahren. Wir verwendeten Strukturgleichungsmodellierung, um genetische und umweltbedingte Varianzkomponenten in der Anfälligkeit für Schlafsprechen abzuschätzen. Zur Beurteilung der psychiatrischen Komorbidität wurden Registerdaten zu Krankenhausaufenthalten und antipsychotischen Langzeitmedikationen verwendet. Das Auftreten von Schlafgesprächen bei Kindern und Erwachsenen war stark korreliert. Ein Geschlechtsunterschied wurde nur bei Erwachsenen beobachtet, wobei das Schlafsprechen bei Männern häufiger vorkam als bei Frauen. Der Anteil der phänotypischen Gesamtvarianz in der Neigung zum Schlafreden, die genetischen Einflüssen beim Schlafreden in der Kindheit zugeschrieben wird, betrug 54 % (95 % KI, 44–62 %) bei Männern und 51 % (43–58 %) bei Frauen, und bei Erwachsenen 37 % (27–46 %) bei Männern und 48 % (40–56 %) bei Frauen. Eine Assoziation mit psychiatrischer Komorbidität wurde nur beim Schlafsprechen bei Erwachsenen gefunden, und es war am höchsten bei denjenigen mit dem Einsetzen des Schlafsprechens im Erwachsenenalter (Odds Ratio 3,77, 95%-KI 2,32–6,17). Schlafreden ist ein ziemlich hartnäckiges Merkmal, das auch bei Erwachsenen auftritt. Sowohl in der Kindheit als auch im Erwachsenenalter gibt es erhebliche genetische Auswirkungen auf das Schlafsprechen, die stark korreliert zu sein scheinen. Bei Erwachsenen tritt psychiatrische Komorbidität bei Personen mit häufigem Schlafsprechen etwa doppelt so häufig auf wie bei Personen mit seltenem oder keinem Schlafsprechen, aber die meisten Fälle von Schlafgesprächen sind nicht mit einer ernsthaften Psychopathologie verbunden.;-;-;-;https://link.springer.com/article/10.1023/A%3A1021623430813 e31d062423379614f42bee3bc7cb55ce;de;;;1.2.;;;Großbritannien im Sinne der Hugenotten des 17. Jahrhunderts Selbst als das Edikt von Nantes einigermaßen gerecht verwaltet wurde, wie in einigen frühen Perioden des 17. Jahrhunderts, wussten und fühlten sich die reformierten Kirchen Frankreichs, wie man sagt, „unter dem Kreuz“, da der König von Frankreich nicht von ihrem Glauben. Offensichtlich war dies ein erhebliches Handicap für sie, noch bevor der französische Hof offen und erbittert den Protestanten gegenüberstand. Daher ist es leicht zu verstehen, warum die Hugenotten so geneigt waren, sich selbst zu trösten, indem sie im europäischen protestantischen Lager nach Unterstützung suchten. Zumindest war es Teil ihrer Ideologie, obwohl die französischen Behörden in der Praxis jeden offiziellen Kontakt zwischen den französischen reformierten Kirchen und ausländischen Protestanten sorgfältig verbot.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-08176-9_9 e0ebc7b0eba31c74f6f99ee2122cbf2f;de;;;1.2.;;;Name-Matching-Methode unter Verwendung der Topologie-Zusammenführung und -Aufteilung des Verlaufs für den Austausch von merkmalsbasierten CAD-Modellen Ein Feature wird durch Verweisen auf topologische Elemente in einem Volumenmodell generiert. Es ist wichtig, die topologischen Entitäten, auf die das Feature verweist, dauerhaft zu benennen. Dieses Problem wird als das anhaltende Namensproblem bezeichnet. Das anhaltende Namensproblem wird in Namensgebung und Namensübereinstimmung unterteilt. Das anhaltende Namensproblem ist ein wichtiges Thema beim Austausch von merkmalsbasierten CAD-Modellen durch ein neutrales Format. Wenn ein CAD-Modell nur die Konstruktionshistorie enthält, ist die Benennung der topologischen Entitäten während der Übersetzung erforderlich. Wenn ein CAD-Modell jedoch auch eine Änderungshistorie enthält, ist auch ein Namensabgleich erforderlich. In einer früheren Studie schlugen die Autoren eine Benennungsmethode zum Austausch von merkmalsbasierten CAD-Modellen vor. In dieser Studie wird eine Lösung für das Namensübereinstimmungsproblem vorgeschlagen und ihre technischen Details diskutiert. Die vorgeschlagene Namensübereinstimmungsmethode basiert auf der lokalen Übereinstimmungstechnik unter Verwendung der Topologiezusammenführung und der Aufteilungsgeschichte. Die Machbarkeit der vorgeschlagenen Namensübereinstimmungsmethode wurde durch Experimente mit einem Prototyp eines CAD-Modellübersetzers demonstriert.;-;-;-;https://link.springer.com/article/10.1007/s12206-012-0827-3 4c0a013ece2be0e0847319f65d44b36f;de;;;1.2.;;;Januar 1976–März 1977 Zwischen Anfang Januar 1976 und Ende März 1977 baute das neue kambodschanische Regime seine Macht weiter aus und beseitigte seine vermeintlichen Feinde, wenn auch zunehmend aus den eigenen Reihen. Die von Ideologie und historischer Feindseligkeit angeheizte Paranoia des Regimes führte auch dazu, dass die Beziehungen zwischen Kambodscha und seinen Nachbarn angespannt blieben. Dennoch wurden die zwischenstaatlichen Spannungen in dieser Zeit im Allgemeinen von allen Seiten heruntergespielt. Die Spaltungen, die später westliche und internationale Reaktionen auf die Ereignisse in Kambodscha bestimmen sollten, waren zu diesem Zeitpunkt noch nicht so scharf gezogen. Aus diesem Grund könnten westliche Regierungen die Menschenrechtslage in Kambodscha getrennt von den größeren geopolitischen Interessen betrachten, die bald darauf von vorrangiger Bedeutung sein würden. Als westliche Journalisten und Kambodscha-Beobachter versuchten, durch den „Khmer-Vorhang“ zu spähen, bildete sich langsam ein gewisser Konsens über die Vorwürfe von Menschenrechtsverletzungen in Kambodscha. Diese zunehmende Aufmerksamkeit für die Menschenrechte übte Druck auf westliche Regierungen aus, die begannen, vorläufige Antworten zu prüfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-24717-2_3 ef920a2977f7bcf9a7d227a10e0ca1fc;de;;;1.2.;;;Bluthochdruck, der die Schwangerschaft erschwert Eine Schwangerschaft kann bei zuvor normotensiven Frauen eine Hypertonie auslösen oder bei bereits hypertensiven Frauen eine Hypertonie verschlimmern. Generalisierte Ödeme, Proteinurie oder beides begleiten oft eine durch eine Schwangerschaft induzierte oder verschlimmerte Hypertonie. In Verbindung mit dem hypertensiven Zustand können sich Krämpfe entwickeln, insbesondere bei Frauen, deren Hypertonie unerkannt bleibt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2619-9_7 0427e0a3c6f643185d54a559d27e628d;de;;;1.2.;;;Hinweis zum Prinzip der moderaten Abweichung des Maximum-Likelihood-Schätzers In dieser kurzen Anmerkung zeigen wir einen einfacheren Beweis, um das Prinzip der moderaten Abweichung des Maximum-Likelihood-Schätzers (MLE) für den unabhängigen Fall zu erhalten.;-;-;-;https://link.springer.com/article/10.1007/s10440-009-9479-4 31c15e2585e0eb9dbf08f7a71e6dccb0;de;;;1.2.;;;Ein Optimierungsalgorithmus basierend auf Evolutionsregeln für das Zellularsystem Als neuer Zweig des Natural Computing hat das Membran-Computing zunehmende Beachtung gefunden. Die hierarchische und parallele Struktur des P-Systems bietet Vorteile bei der Lösung von Optimierungsproblemen. In diesem Papier haben wir Membran-Computing und evolutionäre Algorithmen kombiniert und einen Optimierungsalgorithmus vorgeschlagen, um die multivariablen Optimierungsprobleme mit Einschränkungen zu lösen. Die beiden Standardtestfunktionen wurden verwendet, um den vorgeschlagenen Optimierungsalgorithmus zu bewerten. Die Ergebnisse der Experimente zeigten die Wirksamkeit der vorgeschlagenen Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34289-9_35 d47b9ee1a2976f80126e0409322bda6e;de;;;1.2.;;;Geburtstrauma, perinatale Asphyxie und iatrogene Atemnot Geburtsverletzungen werden üblicherweise als Verletzungen definiert, die mit mechanischen Kräften verbunden sind, die Blutungen, Ödeme, Geweberisse oder Veränderungen der Organfunktion während der intrapartalen Periode verursachen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-8259-1_5 9c338660158b8244cc0cd315db1e81b0;de;;;1.2.;;;Der BBC Russia Service: Großbritanniens White Propaganda Station (1946–53) Wie in Kapitel 2 erwähnt, konzentrierte sich die britische Propagandastrategie in den ersten Jahren des Kalten Krieges auf die Stärkung demokratischer Elemente in Westeuropa, wobei weit weniger Zeit und Mühe für Aktivitäten aufgewendet wurden, die darauf abzielten, die kommunistische Kontrolle über Osteuropa und die Sowjetunion zu untergraben und zu destabilisieren . Einer der Hauptgründe, warum das IRD diesen Ansatz befürwortete, war seine Einschätzung, dass Großbritannien nicht in der Lage war, viele der offensiven Propagandaoperationen durchzuführen, die das Militär befürwortete. Die Unfähigkeit Großbritanniens, Propagandaoperationen innerhalb der Sowjetunion durchzuführen, rührte von den umfangreichen Kontrollmechanismen her, die das kommunistische Regime der sowjetischen Gesellschaft auferlegte, das versuchte, alle sozialen, wirtschaftlichen und politischen Kontakte zwischen der Sowjetunion und dem Westen zu beseitigen. Dieser Eiserne Vorhang schränkte die Fähigkeit des Westens, mit der Sowjetbevölkerung zu kommunizieren, stark ein, geschweige denn, sie zu einer günstigeren Haltung gegenüber der britischen Politik zu bewegen. Die einzigen Instrumente, die diese Kontrollen durchbrechen konnten, waren der BBC Russia Service und andere Kurzwellensender.;-;-;-;https://link.springer.com/chapter/10.1057/9780230236936_4 ab4af56c3e7d8423fd2a59b3dc629817;de;;;1.2.;;;Historische Abfragen in Geosensornetzwerken Dieses Papier befasst sich – unseres Wissens nach erstmals – mit dem Problem der Abfrage historischer Daten in einem Geosensornetzwerk – einem Sensornetzwerk aus mobilen, ortsbezogenen Knoten. Es vergleicht verschiedene Netzwerkarchitekturen und Abfragestrategien hinsichtlich ihrer Leistungsfähigkeit bei der Rekonstruktion von Ereignissen oder Prozessen, die in der Vergangenheit stattgefunden haben, und versucht, die Hypothese zu unterstützen, dass eine Rekonstruktion nur innerhalb der begrenzten Kapazitäten eines Geosensornetzwerks möglich ist. In einer konkreten Fallstudie werden diese Anfragen in einem simulierten Peer-to-Peer-Mitfahrsystem untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76925-5_11 d29f3b18343a62655f8dcd20fc70a5b3;de;;;1.2.;;;Ewige Landstreicher? Staatsbildung, Migration und Wandergruppen in West-Eurone, 1350–1914 In diesem Kapitel versuchen wir zu erklären, warum die europäischen Gesellschaften, insbesondere die Behörden, eine so repressive Politik gegenüber reisenden Gruppen verfolgten, die sie seit dem Mittelalter als „Zigeuner“ oder „Landstreicher“ bezeichneten, und wie die Stigmatisierung dieser Gruppen wurde behoben. Die Annahme, dass die Haltung der Behörden und des Staates gegenüber Migration im Allgemeinen und Wandergruppen im Besonderen ausschlaggebend ist, um das Nebeneinander einer starken und anhaltenden Stigmatisierung dieser Gruppen als soziale Außenseiter und ihre gleichzeitige funktionale wirtschaftliche Rolle zu erklären, reicht nicht aus. Staatsbildung allein reicht nicht aus. Um eine Zirkelargumentation zu vermeiden und einen klaren Einblick in die Interaktion zwischen Behörden und Reisegruppen zu erhalten, müssen wir auch die Funktion der Migration für den Arbeitsmarkt berücksichtigen. Der Hauptgrund dafür ist, dass der Kern der Anschuldigung wirtschaftlicher Natur ist: Die Reisenden arbeiteten unter dem Deckmantel des Bettelns und Stehlens oder der Arbeitsverweigerung. Wenn wir die Stigmatisierung verstehen wollen, müssen wir daher die Vorstellungen von Reisegruppen mit den strukturellen wirtschaftlichen Entwicklungen ab dem Mittelalter verknüpfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-26341-7_4 84a3e8790e76c3407f6279ba06fad04b;de;;;1.2.;;;Die historische Aufzeichnung von Metallen in Sedimenten aus sechs Seen im Fraser River Basin, British Columbia Sedimentkerne wurden aus sechs Seen (Moose, Stuart, Chilko, Kamloops, Nicola und Harrison Lake) gesammelt, die im gesamten Fraser River Basin, British Columbia, verteilt waren. Die Kerne wurden in erster Linie datiert von;-;-;-;https://link.springer.com/article/10.1023/B%3AWATE.0000015349.25371.af 484a6dfbf65febf07ee4b72337c359e8;de;;;1.2.;;;Kentern von Schiffen als nichtlineares dynamisches Problem Fast hundert Gesamtverluste pro Jahr von Schiffen über 500 BRT werden vom Institute of London Underwriters registriert (Underwriters, 1997), Abb. 1, jedoch treten nur die ganz großen Katastrophen in den Blickpunkt der Öffentlichkeit. Verlorene Schiffe bedeuten wirtschaftliche Verluste und Umweltrisiken. Aber diese Katastrophen sind in erster Linie schmerzhaft, weil sie Menschenleben kosten. Deshalb muss die Zahl der Totalverluste reduziert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4229-8_4 4188d0ac96dcc7226fee9f011c04632b;de;;;1.2.;;;Atemwegserkrankungen Die Terminologie der chronischen Atemwegserkrankungen ist unbefriedigend, weshalb hier eine funktionale Beschreibung verwendet wird, um verschiedene pathologische Prozesse im Zusammenhang mit einer weitgehend irreversiblen Atemwegsobstruktion einzubeziehen. Die meisten der folgenden Ausführungen beziehen sich auf Zustände, die unter den allgemeinen Überschriften „chronische Bronchitis und Emphysem“, „chronisch obstruktive Atemwegserkrankung (Lungenerkrankung) usw Da viele Asthmatiker ein gewisses Maß an persistierender Atemwegsobstruktion haben, überschneiden sich viele Asthmatiker, und da „chronische Bronchitis“ einfach als Auswurf definiert wird, erfüllen viele Asthmatiker auch die Definition einer chronischen Bronchitis. Eine weitere Komplikation stellen Patienten dar, deren Atemwegsobstruktion eine geringe spontane Variabilität zeigt, mit nur einer geringen akuten Reaktion auf Bronchodilatatoren, bei denen jedoch eine Reaktion auf Kortikosteroide unbestreitbar ist und die danach zu Recht als Asthmatiker angesehen werden. Die Obstruktion des „Luftstroms“ wird manchmal der Obstruktion der „Atemwege“ vorgezogen, da sie eine Verengung aufgrund des Verlusts der Unterstützung durch die umgebenden Alveolen (wie bei einem Emphysem) zulässt, ohne notwendigerweise anatomische Veränderungen in den Atemwegen selbst, aber die Schwere der Obstruktion des Luftstroms, die aus Allein der Verlust des Lungenrückstoßes ist umstritten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-81333-9_7 15a817ebe1b833b46e30eade4a105520;de;;;1.2.;;;Historisch-kulturelle Nachhaltigkeit und Stadtdynamik Die Geschichte der Humangeographie hat in den letzten Jahrzehnten in vielen Ländern eine Tendenz zu urbaneren Lebensformen bei gleichzeitiger Erweiterung des Aktionsradius der Menschen gezeigt. Urbanisierung ist zu einem weltweiten Phänomen geworden. Ein Beispiel hierfür ist Europa mit einer durchschnittlichen Urbanisierungsrate von 70–80%. Wir beobachten nicht nur einen Anstieg der „Urbanität“ aus der Perspektive urbaner bzw. metropolitaner Bevölkerungsdichten, sondern auch neue Tendenzen zu weiter entfernten Suburbanisierungs- bzw. Deurbanisierungsmustern. Auch ländliche Räume werden zunehmend zu barrierefreien Räumen, die gut an urbane Zentren angebunden sind und auch urbane Lebensweisen aufweisen. „Erreichbarkeit“ und „Mobilität“ sind Schlüsselwörter in einer modernen dynamischen Weltraumökonomie, nicht nur auf intraregionaler, sondern auch auf interregionaler und sogar internationaler Ebene.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-2419-0_8 09fc59d0a5966c05058036561cf2c58a;de;;;1.2.;;;Fortpflanzungsstrategien des antarktischen Silberfischchens: Bekannte Bekannte, Bekannte Unbekannte und Unbekannte Unbekannte Die Fortpflanzung ist ein wichtiger Schritt in der Lebensgeschichte einer Art und umfasst eine Reihe von Strategien und Taktiken, die die Maximierung reproduktiv aktiver Nachkommen in Bezug auf die verfügbare Energie und die Lebenserwartung der Eltern ermöglichen. Geschlechtssystem, Oogenesemuster, Reifungsplan, Verschiebungen in der Habitatnutzung, Laichsaison, Paarungsverhalten und Befruchtungsmuster gehören zu den Merkmalen, die am Prozess der artenadaptiven Optimierung der Reproduktion beteiligt sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-55893-6_9 09b86e4764c8ce8bb5cb5686801c4cbe;de;;;1.2.;;;Ein historischer Überblick über die nichtholomische Mechanik mechanic Das Ziel dieses Beitrags ist es, einen kurzen historisch-wissenschaftlichen Überblick über die nichtholonomische Mechanik zu geben, mit besonderem Schwerpunkt auf den neuesten Entwicklungen. Tatsächlich hat der Einsatz von Differentialgeometriewerkzeugen in den letzten 25 Jahren einen schnellen und unerwarteten Fortschritt in der Theorie ermöglicht, insbesondere im Hinblick auf ein besseres Verständnis von Symmetrien und Reduktion, Hamilton-Jacobi-Theorie und Integrabilitätscharakterisierungen sowie die Konstruktion geeigneter geometrischer Integratoren. Der letzte Teil der Arbeit ist der Diskussion der neuesten Ergebnisse der Hamilton-Jacobi-Theorie für nichtholonome Dynamiken mit unserem eigenen Ansatz gewidmet.;-;-;-;https://link.springer.com/article/10.1007/s13398-011-0046-2 348ccbed19197951df32647a3dd556fa;de;;;1.2.;;;Geothermische Untersuchungen an den KTB-Standorten Oberpfalz und Schwarzwald Die Temperatur als thermodynamische Größe ist von grundlegender Bedeutung für die physikalischen und chemischen Eigenschaften von Gesteinen in der Tiefe sowie für temperaturgesteuerte Prozesse innerhalb der Erde wie z. B. Deformationen und metamorphe Reaktionen. Die meisten dieser Verfahren haben bestimmte Schwellentemperaturen, jenseits derer die Reaktionsgeschwindigkeit deutlich zunimmt. Andererseits ist die Temperatur ein streng limitierender Faktor für den Einsatz von Bohrwerkzeugen und Bohrlochmessinstrumenten. Daher war die Untersuchung des Temperaturfeldes innerhalb der beiden KTB-Zielgebiete eine wichtige Aufgabe der Vorbohrplatzuntersuchungen, um eine verlässliche Grundlage für die Vorhersage der Temperatur in der projektierten Endtiefe des Bohrlochs zu liefern. Dazu ist es notwendig, möglichst genaue und zuverlässige Werte des ungestörten oberflächennahen Wärmeflusses für das Untersuchungsgebiet zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-74588-1_18 c91c701dd2cbc9b0a99cef1daac491b9;de;;;1.2.;;;Multiziel-Zuverlässigkeitsbasierte Optimierung von Kunststoffrahmen Wir betrachten hier eine allgemeine Formulierung einer multikriteriellen zuverlässigkeitsbasierten Optimierung, bei der zwei sich gegenseitig widersprechende Kriterien, minimale Kosten (Gewicht) und maximale Zuverlässigkeit des strukturellen Systems, verwendet werden. Es gibt einige Verfahren, die es uns ermöglichen, das Problem der multikriteriellen Optimierung zu behandeln. Eine davon ist die Transformation des Multikriteriumsproblems in ein Einzelkriteriumsoptimierungsproblem unter Verwendung der Nutzenfunktionsmethode. Der Beitrag wird an einem Beispiel einer Kunststoffrahmenoptimierung mit zufälligen Parametern (Lasten und Materialeigenschaften) illustriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83707-4_22 43e41b3e6e9952d969d61299da9751cb;de;;;1.2.;;;Da habe ich von Sabotage gehört Julia Ruuttila war viermal verheiratet, behauptete aber, dass die große Liebesbeziehung ihres Lebens eine Ehe war. Rückblickend muss es ihr angeboren vorgekommen sein, dass die Liebe ihres verehrten Vaters mit antikapitalistischen und gewerkschaftlichen Werten durchsetzt war.;-;-;-;https://link.springer.com/chapter/10.1057/9781403973559_2 23cf6b55508ecb6c33fa0bbf704ea430;de;;;1.2.;;;Vergleich der Schneefall-Variationen gegenüber China, die anhand verschiedener Methoden zur Schneefall-/Regenfall-Diskriminierung identifiziert wurden Basierend auf den Schneefallbeobachtungen an 836 Oberflächenwetterstationen in China und dem Datensatz der Daily Surface Climate Variables of China Version 3.0 für 1961–2013 wird die Fähigkeit von fünf Methoden mit unterschiedlichen objektiven Kriterien zur Identifizierung von Schneefall im Winter bewertet, um Referenzen für deren Anwendung bereitzustellen Methoden zur Schneefall-/Niederschlagsunterscheidung. Die Methoden I, II, III, IV und V verwenden die tägliche durchschnittliche Oberflächenlufttemperatur (;-;-;-;https://link.springer.com/article/10.1007/s13351-020-0004-z db66a60fff981e4bbd6335381de5ec57;de;;;1.2.;;;Eine Theorie der historischen Entdeckung: Die Konstruktion von Komponentenmodellen Eines der Hauptziele der Chemie des 18. Jahrhunderts war die Bestimmung der Bestandteile von Stoffen. In diesem Aufsatz beschreiben wir STAHL, ein System, das wesentliche Teile der Argumentation über Kompositionsmodelle des 18. Jahrhunderts modelliert. Das System umfasst eine Reihe von Heuristiken zum Generieren von Komponentenmodellen aus Reaktionen sowie Fehlerwiederherstellungsmechanismen zum Umgang mit inkonsistenten Ergebnissen. STAHL verarbeitet chemische Reaktionen inkrementell und ist damit in der Lage, ausgedehnte historische Episoden wie die jahrhundertelange Entwicklung der Phlogiston-Theorie zu rekonstruieren. Wir bewerten die Heuristiken von STAHL im Lichte historischer Daten und kommen zu dem Schluss, dass die gleichen Argumentationsmechanismen für eine Vielzahl historischer Errungenschaften verantwortlich sind, darunter Blacks Modelle des milden Alkalis und Lavoisiers Sauerstofftheorie. STAHL erklärt die Generierung konkurrierender Konten der gleichen Reaktionen, da die Argumentationskette des Systems von Wissen abhängt, das es in früheren Stadien angesammelt hat.;-;-;-;https://link.springer.com/article/10.1007/BF00116252 bfbc0dc3e2aeb3e7a99d06ca09a7dce6;de;;;1.2.;;;Zugriff verweigert: Erinnerung und Widerstand im zeitgenössischen Geisterfilm Die Vergangenheit noch einmal erleben: diese beharrliche Unmöglichkeit von Psychoanalyse und Film. Diese Formen des Nacherzählens laden ein, fordern sogar eine abgelenkte Sicht, die Szene für Szene hin und her flackert und eine Vergangenheit wiederholt, die eine Gegenwart außerhalb der Zeit ist. Dieser Essay untersucht die Meditation über Verlust, eingefrorene Zeit und unheimliche Nachwirkungen in den zeitgenössischen Geisterfilmen;-;-;-;https://link.springer.com/chapter/10.1057/9780230582828_6 f8305fecbfcae4380f5d7a1db02eff7d;de;;;1.2.;;;Erhöhte Sedimentanlagerungsraten nach Invasion um Negative Konnotationen von invasiven Pflanzen weltweit haben sie als Träger ungünstiger Ökosystemveränderungen impliziert. Wir haben 5-Jährige und 20-Jährige gegenübergestellt;-;-;-;https://link.springer.com/article/10.1007/BF02823724 5910bb8161b06890474e5eac76810069;de;;;1.2.;;;Vorbeugung und Behandlung von Hypoglykämie-Unwissenheit bei Diabetes mellitus Typ 1 Bei Diabetes mellitus Typ 1 tritt häufig eine Hypoglykämie-Unkenntnis (verminderte Fähigkeit/Nichterkennung von Hypoglykämiesymptomen bei der physiologischen Schwelle von 3,0 mmol/l) auf, und die Patienten haben dann das Risiko einer schweren Hypoglykämie. Die Unkenntnis einer Hypoglykämie ist das Ergebnis früherer häufiger Episoden von Hypoglykämie (iatrogen). Ebenso führt eine Hypoglykämie in der Anamnese zur Unbewusstheit, während eine sorgfältige Prävention von Hypoglykämie die Hypoglykämie-Bewusstlosigkeit rückgängig machen kann. Daher ist es wichtig, dass Insulintherapieschemata für Typ-1-Diabetes mellitus nicht nur so konzipiert sind, dass sie eine nahezu Normoglykämie erhalten, sondern auch eine Hypoglykämie minimieren. Ein solches Ziel ist machbar, solange (1) ein rationaler Plan der Insulintherapie angenommen wird, einschließlich der angemessenen Verwendung des kurzwirksamen Insulinanalogons Lispro, (2) der Blutzucker richtig überwacht wird, (3) die Blutzuckerziele individualisiert werden und (4) Bildungsprogramme sind weit verbreitet.;-;-;-;https://link.springer.com/article/10.1007/s005920050129 154157d9a29bca769eca9d967c19ea99;de;;;1.2.;;;Klinisch-pathologische Untersuchung der Hintergrund-Magenschleimhaut während einer langfristigen konservativen Erhaltungstherapie bei hartnäckigem peptischem Ulkus Wir untersuchten die Hintergrund-Magenschleimhaut bei acht Patienten mit hartnäckigem peptischem Ulkus, bei denen sich Magenkrebs während einer mehr als 4-jährigen Verabreichung von Histamin (H) entwickelte.;-;-;-;https://link.springer.com/article/10.1007/s005350050211 2eaf146a4a89e10747db5494faae1732;de;;;1.2.;;;Globales, lokales und fokussiertes geografisches Clustering für Fallkontrolldaten mit Wohngeschichten In diesem Beitrag wird ein neuer Ansatz zur Bewertung der Clusterbildung in Fallkontrolldaten vorgestellt, die Wohngeschichten berücksichtigen. Obwohl viele Statistiken zur Bewertung lokaler, fokussierter und globaler Cluster bei Gesundheitsergebnissen vorgeschlagen wurden, gibt es, wenn überhaupt, nur wenige zur Bewertung von Clustern, wenn Personen mobil sind.;-;-;-;https://link.springer.com/article/10.1186/1476-069X-4-4 8f79c3b4256aed73f32152b4c01a6124;de;;;1.2.;;;Geostatistik in der historischen makroseismischen Datenanalyse Dieser Beitrag verfolgt einen geostatistischen Ansatz zur Bewertung, Modellierung und Visualisierung möglicher lokaler Wechselwirkungen zwischen natürlichen Komponenten und verbauten Elementen in der seismischen Risikoanalyse. Diese Methode, angewendet auf die Altstadt von Potenza, bietet einen neuen Blickwinkel für die Katastrophenschutzplanung mit Hilfe von Kerneldichte- und Autokorrelationsindexkarten zur Analyse makroseismischer Schadensszenarien und zur Auswertung der lokalen geologischen, geomorphologischen und makroseismischen Daten des Erdbebens von 1857.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10649-1_19 6c9e03470e127fe5c8b461e0793ba030;de;;;1.2.;;;Computersimulation der dynamischen Verdichtung Die Stoßkompression von Pulvermaterialien durch hochexplosive Sprengstoffe mit zylindrischer Geometrie wurde mit einem zweidimensionalen Computerprogramm simuliert. Die Strömungsfelder in den Pulvern werden für unterschiedliche Anfangsbedingungen analysiert. Ein Ziel besteht darin, das Design der hochexplosiven Anordnung zu bestimmen, um den gewünschten Druck-Zeit-Verlauf in den Pulvern zu erzielen. Die Berechnungen lieferten die Mittel, um Ergebnisse von einer experimentellen Geometrie in eine andere zu übertragen. Ein Beispiel wird für die Verdichtung eines metallischen Glaspulvers gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-8205-8_49 9dfe4c6a34b2a1fd38db2960b27dbd32;de;;;1.2.;;;Eine vorläufige historische Perspektive In diesem einleitenden Kapitel werden Überlegungen zur Thematik, zur Organisation des Buches und (in sehr groben Zügen) zum Stand der Technik, seiner historischen Entwicklung und seinen Publikationsforen angestellt. Das Buch gliedert sich in drei Pole: die Modellierung von Argumentation, die Modellierung von Argumentation und ihre Anwendung auf Narrative sowie eine Gruppe von Data-Mining-Techniken und die Besonderheiten forensischer Disziplinen. Wir erwähnen die Kontroverse unter Rechtswissenschaftlern, unter denen, die bereit sind, probabilistische Modelle zu akzeptieren, und denen, die stattdessen eine Rangfolge der relativen Plausibilität alternativer Darstellungen einer juristischen Erzählung wünschen, ohne sich auf einen Bayesschen Rahmen festzulegen. Künstliche Intelligenz kann zu beiden Lagern beitragen und hat dies bereits getan. Bayessche Netzwerke werden oft auch im juristischen Bereich auf Kausalität angewendet, aber diejenigen, die gegen die probabilistische Quantifizierung argumentieren, werden derzeit durch den Anstieg des Plausibilitätsrankings von juristischen Narrativen bestätigt (Abschnitt „Bex's Ansatz zur Kombination von Geschichten und Argumenten in Sense-Making Software for Crime“ Investigation“, im Kapitel „Die narrative Dimension“ und Abschnitt „Ein anderer Zugang zu kritischen Fragen“ im Kapitel „Argumentation“) innerhalb der Argumentationsforschung (Kapitel „Argumentation“). Praktiker der Künstlichen Intelligenz (KI) müssen Vorsicht walten lassen, damit nicht methodische Mängel ihre Werkzeuge in diesem Bereich mit einigen Rechtswissenschaftlern, geschweige denn Gegnern in Rechtsstreitigkeiten, beeinträchtigen. Es hätte wenig Sinn für Informatiker, Werkzeuge für Rechtsbeweise zu entwickeln, wenn Rechtswissenschaftler sie von Anfang an als fehlerhaft befunden würden;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-8990-8_1 2ed2cb67351335931dae465de06fdf9e;de;;;1.2.;;;Semantik von Datenbanktransformationen Datenbanktransformationen treten in vielen verschiedenen Umgebungen auf, einschließlich der Datenbankintegration, der Entwicklung von Datenbanksystemen und der Implementierung von Benutzeransichten und Dateneingabetools. In diesem Beitrag werden Lösungsansätze für Probleme in diesen Kontexten untersucht, deren Stärken und Schwächen bewertet und Anforderungen an ein formales Modell zur Spezifikation und Umsetzung von Datenbanktransformationen entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0035005 315ad46c9b3098593c2bfa0fd12842c9;de;;;1.2.;;;Funktionelle Eigenschaften von Lupinus-luteus-Proteinen Das Verdickungspotential und die Gelierungsfähigkeit von Lupinenproteinisolaten wurden zum Vergleich mit Sojaisolaten untersucht. Lupine Hauptglobulinfraktionen wurden durch Ultrazentrifugation charakterisiert. Drei Globuline (2,5S, 7,7S und 12,2S) waren vorhanden und diese waren mit den drei Peaks verbunden, die in den Thermogrammen der Differentialscanningkalorimetrie (D.S.C.) zu sehen waren. Die Molekülmassen der beiden Hauptglobuline wurden mit 390 kD und 90 kD ermittelt. Die Lupinen- und Sojaisolate zeigten ähnliche Löslichkeiten. Die intrinsische Viskosität der Sojaisolate war höher (12 cm;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-2674-2_61 882877e4cac55789e7d73cdbbe0b1efb;de;;;1.2.;;;Lohnrelationen das die Erzielung stabiler Preise zum Ziel hat, indem auf nationaler Ebene Einkommenssteigerungen mit Produktivitätssteigerungen gleichgesetzt werden, die Wirkung von Faktoren, die zuvor den Arbeitspreis bestimmt haben, zu modifizieren versucht. Vor dem Hintergrund der Vollbeschäftigung erhöht die Ausübung von Gewerkschaftsmacht durch Tarifverhandlungen normalerweise die Löhne schneller als die Produktivität, und auch die Marktkräfte wirken als autonomer Faktor, der dazu beiträgt, den durchschnittlichen Arbeitspreis schneller als die Produktivität zu erhöhen, wodurch die Stückkosten und Preise steigen. Eine Einkommenspolitik muss Methoden entwickeln, um diese Faktoren ausreichend in Schach zu halten, damit die Einkommensbewegung mit dem Produktivitätswachstum im Einklang steht.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-81631-6_10 555fb3ab6b5d6b2e1b71a6f3d1fc9b15;de;;;1.2.;;;Lektinresistente Zellen Die zytotoxischen Eigenschaften bestimmter Lektine machen sie zu idealen Mitteln für die Selektion von Klonen tierischer Zellmutanten mit veränderten Oberflächenkohlenhydraten. Solche Klone werden durch Kultivieren der Zellen auf festem Medium in Gegenwart toxischer Konzentrationen eines Lektins und Aufnehmen der wenigen überlebenden Kolonien erhalten (Abb. 10.1). Die so selektierten lektinresistenten Zellen sind stabil, wachsen leicht im Labor und bieten ein neues Werkzeug zum Studium der Genetik, Biosynthese und Funktionen von Zelloberflächen-Glykokonjugaten [76, 77].;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4846-7_10 4a19020223506f2791f8ee373a0f4391;de;;;1.2.;;;Biosynthese In den letzten zehn Jahren ist aufgrund von Studien mit Gewebeschnitten und zellfreien Systemen sowie der Anwendung rekombinanter DNA-Techniken ein beträchtliches Wissen über die Biosynthese und Molekulargenetik von Lektinen verfügbar geworden. Wie bei den meisten Proteinen wird die in den Genen kodierte und durch mRNA übertragene Information für die Lektinsynthese von den Ribosomen genutzt, um im endoplasmatischen Retikulum Vorläuferpolypeptide zu bilden. Diese Vorläufer unterliegen co- und posttranslationalen Modifikationen, um die reifen Lektine zu bilden. Ein kotranslationaler Prozessierungsschritt, der fast allen Lektinen gemeinsam ist, ist die proteolytische Entfernung einer 20–30 Aminosäuren langen Signalsequenz vom aminoterminalen Ende. Die meisten Lektine unterliegen auch einer cotranslationalen N-Glykosylierung und weiteren posttranslationalen Modifikationen der Kohlenhydrateinheiten,;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4846-7_8 98746c8c037bcb7d9aaeb69139f093e5;de;;;1.2.;;;Der Vergleich zwischen IABC und EGARCH in der Wechselkursprognose Wechselkursprognosen haben in den letzten Jahren das Interesse vieler Forscher geweckt. Probleme bei der Modellauswahl der Wechselkursprognose und der Verbesserung der Prognosegenauigkeit sind nicht einfach zu lösen. In diesem Beitrag werden die Prognoseergebnisse konventioneller Zeitreihenmodelle und der Interaktiven Künstlichen Bienenkolonie (IABC), einer jungen künstlichen intelligenten Methode, mit 4-Jahres-Historien verglichen. Die Sliding-Window-Strategie wird im Experiment sowohl für die Trainings- als auch für die Testphase verwendet. In unseren Experimenten verwenden wir kontinuierliche Daten der letzten drei Tage als Trainingssatz und verwenden das Trainingsergebnis, um den Wechselkurs am vierten Tag vorherzusagen. Darüber hinaus bewerten wir die Vorhersagegenauigkeit anhand von drei Kriterien, nämlich Mean Square Error (MSE), Mean Absolute Error (MAE) und Root Mean Square Error (RMSE). Die experimentellen Ergebnisse zeigen, dass die Eingabe makroökonomischer Faktoren in die IABC als Eingabedaten in der Lage ist, genauere Daten bezüglich des Wechselkurses zu erzeugen als die herkömmlichen Zeitreihenmodelle wie EGARCH.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07773-4_13 2c286b5c7d431f190d2bbc7adf6bb19d;de;;;1.2.;;;Angriff auf die kontrastverstärkende Forensik in digitalen Bildern Gegenwärtig wurden zahlreiche digitale forensische Bildtechniken vorgeschlagen und als Diagnosewerkzeuge verwendet. Es ist dringend und wichtig, die Zuverlässigkeit solcher Techniken in praktischen Szenarien zu bewerten. In diesem Beitrag untersuchen wir die Sicherheit bestehender forensischer Algorithmen zur digitalen Bildkontrastverbesserung (CE). Aus Sicht der Angreifer schlagen wir zwei Arten von Angriffen vor, den CE-Trace-Versteck-Angriff und den CE-Trace-Forging-Angriff, die den forensischen Detektor ungültig machen bzw. zwei Arten von forensischen Fehlern erzeugen können. Der CE-Trace-Hiding-Angriff wird implementiert, indem lokales zufälliges Dithering in das Design der Pixelwertabbildung integriert wird. Der CE-Trace-Forging-Angriff wird vorgeschlagen, indem das Graustufenhistogramm einer Zielpixelregion modifiziert wird, um Spitzen-/Lückenartefakte zu fälschen. Ein solcher Spurenfälschungsangriff wird typischerweise angewendet, um ausgeklügelte zusammengesetzte Bilder zu erzeugen, die die früheren CE-basierten Zusammensetzungsdetektoren täuschen könnten. Umfangreiche experimentelle Ergebnisse belegen die Wirksamkeit unserer vorgeschlagenen CE-Antiforensik-Schemata.;-;-;-;https://link.springer.com/article/10.1007/s11432-013-4928-0 6bb1b796ad95e42cc0132f86ee472c25;de;;;1.2.;;;Verzerrung des Bindungswinkels in einem Magneten und ihre möglichen magnetobiologischen Implikationen In der Vergangenheit wurden verschiedene Theorien über die biologische Wirkung von Magnetfeldern angeboten. Die gängigste Theorie ist, dass die Wirkung von eisenhaltigen Molekülen wie Hämoglobin und Cytochromen ausgeht. Diese Theorien werden aufgrund der bekannten paramagnetischen Eigenschaften von Eisen vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-0214-9_6 1fa9c5f970ef0f291b871ab9badbf792;de;;;1.2.;;;Den Weg skizzieren 1872 begann Oliver Heaviside eine faszinierende Karriere des wissenschaftlichen Publizierens. Es sollte bis in die frühen Jahre des zwanzigsten Jahrhunderts dauern. Der Anfang scheint jedoch recht bescheiden gewesen zu sein. Die Veröffentlichungen, die er zwischen 1872 und 1881 veröffentlichte, enthalten, wenn überhaupt, keine Hinweise auf die radikale Überarbeitung der Telegraphen- und Telefonpraxis, die er 1887 vorlegte. Sie weisen weder auf seine Formulierung der Vektoralgebra noch auf die kraftvolle, innovative und umstrittene Version von die von ihm entwickelte und verwendete Operationsrechnung, und erst im Nachhinein offenbaren sie Elemente seiner aufschlussreichen Interpretation der elektromagnetischen Theorie von Maxwell. Vielleicht wurden seine frühen Arbeiten aus diesen Gründen bei früheren Untersuchungen seines Werks weitgehend ignoriert. Dennoch liefern sie einige wichtige Einblicke in seine Sicht der Beziehung zwischen Mathematik und Physik, seinen Analysestil und das langsame Aufkommen eines Forschungsprogramms, das ihn in den meisten seiner nachfolgenden Arbeiten leitete. Der Zweck dieses Kapitels besteht darin, diese grundlegenden Aspekte von Heavisides Werk zu skizzieren, wie sie in seinen Papieren von 1872 bis 1881 erscheinen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-0177-5_2 40a8c1aa58b6d160f768e635e03487c0;de;;;1.2.;;;Dreidimensionale Strukturen Voraussetzung für das vollständige Verständnis der Wechselwirkung eines Lektins mit einem Kohlenhydrat auf molekularer Ebene ist die Kenntnis der dreidimensionalen Struktur des Proteins, die am besten durch Röntgenkristallographie gewonnen wird. Viele Lektine werden nun mit dieser Methode untersucht. Die hochaufgelösten Strukturen von drei Leguminosenlektinen (Concanavalin A, Erbsenlektin und Favin), von einem Getreidelektin (Weizenkeimagglutinin) und von Ricin wurden bisher aufgeklärt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4846-7_7 816d53a60f147c1800c2215a2477b1ce;de;;;1.2.;;;Serialisierbare Grafiken Ein Datenbanksystem ist eine Sammlung von Datenelementen, die von Transaktionen in möglicherweise verschachtelter Weise gelesen oder geschrieben werden. Eine verschachtelte Ausführung wird als korrekt angenommen, wenn die Abfolge der Transaktionsschritte, genannt;-;-;-;https://link.springer.com/chapter/10.1007/3-540-50728-0_38 56d325d49cff02b6de57b4db44ec5f1f;de;;;1.2.;;;Auftreten und Isolation Der einfachste Weg, das Vorhandensein eines Lektins in einem biologischen Material nachzuweisen, besteht darin, einen Wasser- oder Pufferextrakt aus diesem Material herzustellen und seine Fähigkeit zu untersuchen, Erythrozyten zu agglutinieren oder ein Polysaccharid oder Glykoprotein auszufällen. Bei einem positiven Ergebnis muss unbedingt nachgewiesen werden, dass die Agglutination bzw. Fällung durch Mono- oder Oligosaccharide spezifisch, also zuckerspezifisch, gehemmt wird (Abb. 3.1).;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4846-7_3 eba34be79b718dea4331ce938f40e40a;de;;;1.3.;;;Ein erweitertes SHESN mit undichten Integratorneuronen und hemmender Verbindung für die Mackey-Glass-Vorhersage Das 2001 von Jaeger vorgeschlagene Echo State Network (ESN) hat bemerkenswerte Fähigkeiten zur Annäherung der Dynamik für komplexe Systeme, wie zum Beispiel das Mackey-Glass-Problem. Im Vergleich zu ESN zeigt das maßstabsfreie hochgeclusterte ESN, d. h. SHESN, dessen Zustandsreservoir sowohl ein Small-World-Phänomen als auch ein maßstabsfreies Merkmal aufweist, noch stärkere Näherungsfähigkeiten der Dynamik und bessere Echozustandseigenschaften. In diesem Artikel erweitern wir das Zustandsreservoir von SHESN mithilfe von undichten Integratorneuronen und inhibitorischen Verbindungen, inspiriert von den Fortschritten in der Neurophysiologie. Wir wenden die erweiterte SHESN, genannt e-SHESN, auf das Mackey-Glass-Vorhersageproblem an. Die experimentellen Ergebnisse zeigen, dass das e-SHESN das SHESN in den Vorhersagefähigkeiten der chaotischen Zeitreihe von Mackey-Glass deutlich übertrifft. Unterdessen bleibt die interessante komplexe Netzwerkcharakteristik im staatlichen Reservoir, einschließlich der Small-World-Eigenschaft und der skalenfreien Eigenschaft, unverändert. Darüber hinaus enthüllen wir, dass das ursprüngliche SHESN in einigen Fällen instabil sein kann. Es wird jedoch gezeigt, dass das vorgeschlagene e-SHESN-Modell in der Lage ist, den Fehler durch die Verbesserung der Netzstabilität zu beheben. Insbesondere durch die Verwendung der Ridge-Regression anstelle der linearen Regression könnte die Stabilität von e-SHESN viel stärker verbessert werden.;-;-;-;https://link.springer.com/article/10.1007/s11460-011-0176-5 778d5071a73cac5cb755c7febf3018ec;de;;;1.2.;;;Finanzielle Zeitreihenanalyse des SV-Modells durch Hybrid Monte Carlo Wir wenden den hybriden Monte Carlo (HMC) Algorithmus erstmals auf die Financial Time Bulle Analyse des Stochastischen Volatilitätsmodells (SV) an. Der HMC-Algorithmus wird für die Markov-Ketten-Monte-Carlo-(MCMC)-Aktualisierung der Volatilitätsvariablen des SV-Modells in der Bayes'schen Inferenz verwendet. Wir berechnen Parameter des SV-Modells aus den künstlichen Finanzdaten und vergleichen die Ergebnisse des HMC-Algorithmus mit denen des Metropolis-Algorithmus. Wir stellen fest, dass die HMC die Volatilitätsvariablen schneller dekorreliert als der Metropolis-Algorithmus. Wir führen auch eine empirische Analyse basierend auf den Yen/Dollar-Wechselkursen durch.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87442-3_114 242c84a3305e80bace48b4cdeab79ae4;de;;;1.2.;;;Innovation und Reifung (1930–1949) Nach der Veröffentlichung von Li Jinxis „Neuer Grammatik der Landessprache“ im Jahr 1924 erschienen in China mehrere Jahre lang keine neuen grammatikalischen Theorien. Von den im vorherigen Kapitel vorgestellten Werken wurde nach Lis nur das von Yang Shuda veröffentlicht, aber dieses Werk gehörte der MSWT-Schule und vertrat keine neuen Standpunkte. Im Allgemeinen gehörten Bücher und Artikel über Grammatik, die nach 1924 veröffentlicht wurden, entweder zur MSWT-Schule oder übernahmen das System von Li Jinxi, wobei letzteres vorherrschend war.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46504-2_4 ca069c7c33d4153f4b92b7d66f498e77;de;;;1.3.;;;Exploration und Forschung zum Ausbildungsmodus neuer Ingenieurtalente vor dem Hintergrund von Big Data Die neue wirtschaftliche und technologische Revolution treibt die rasante Entwicklung des neuen industriellen Innovationsmodells mit interdisziplinären Cross-Integration-Eigenschaften und zeigt einen großen Bedarf an einer Vielzahl neuer Ingenieurtalente mit innovativer unternehmerischer Fähigkeit und multidisziplinärer grenzüberschreitender Integrationsfähigkeit. Vor dem Hintergrund von Big Data müssen Hochschulen und Universitäten auf allen Ebenen Big-Data-Technologie mit der Ausbildung von Ingenieurnachwuchs verbinden und den Aufbau und die Reform neuer Ingenieurstudiengänge beschleunigen. In diesem Beitrag wird hauptsächlich diskutiert, wie die Big-Data-Technologie genutzt werden kann, um die Ausbildung von Talenten zu reformieren. In diesem Beitrag werden einige Ideen und Ansätze zur Förderung des ingenieurwissenschaftlichen Nachwuchses mit hoher Gesamtqualität, Innovations- und Pionierfähigkeit sowie der Fähigkeit zur interdisziplinären grenzüberschreitenden Integration vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2206-8_48 60e5b01bb0f4cd6f528ea8f8d20b20f3;de;;;1.3.;;;Studie zum Ausbildungsmodus innovativer Doktoranden auf Basis von Webressourcen In den letzten Jahren, mit der rasanten sozialen und wirtschaftlichen Entwicklung, ist China sehr gefragt nach den Talenten, so dass sich die postgraduale Studentenausbildung in China sehr schnell entwickelt. Die Ausbildung innovativer postgradualer Studierender ist ein systematisches Projekt, das die enge Verzahnung aller Aspekte und unterschiedlicher Elemente der postgradualen Ausbildung erfordert. Nur durch die Vertiefung der Bildungsinnovation können wir diese Elemente in die Praxis der Ausbildung der innovativen Fähigkeiten der Postgraduierten umsetzen. Durch die Analyse der Grundelemente des postgradualen Ausbildungsmodus stellt dieser Beitrag den für unser Land geeigneten Ausbildungsmodus innovativer Postgraduierte unter den folgenden vier Aspekten vor – Ausbildungsziel, Ausbildungsprozess, Curriculumgestaltung und Qualitätsmanagement.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23357-9_36 cff37c281e068fefb9483d6544993128;de;;;1.2.;;;Stationäres Neutronenradiographiesystem General Atomics (GA) hat derzeit einen schlüsselfertigen Auftrag zum Bau eines stationären Neutronenradiographiesystems (SNRS) auf der McClellan Air Force Base, Sacramento, Kalifornien. Das SNRS ist ein speziell entwickeltes Neutronenradiographie-Inspektionssystem, siehe Abb. 1, das einen 1000 kW TRIGA-Reaktor als Neutronenquelle verwendet, um Flugzeugkomponenten auf Korrosion und andere Defekte zu untersuchen. Das SNRS-Projekt besteht aus vier Hauptsystemen: dem Abschirm- und Eindämmungssystem (SCS), dem TRIGA-Reaktorsystem (TRS), dem Neutronenstrahlsystem (NBS) und dem Komponentenprüfsystem (CIS). Das SNRS-Projekt steht derzeit kurz vor dem Abschluss, die Bauphase ist abgeschlossen und die Installations- und Testphase der Ausrüstung ist in vollem Gange.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-5772-8_126 3f9a533c5259058dd87444688e21d296;de;;;1.2.;;;Neuartige Bauelemente und Prozesse für die 32-nm-CMOS-Technologie und darüber hinaus Die Entwicklung der nächsten 32-nm-Generation und darunter erfordert nicht nur Innovationen bei den Bauelementstrukturen, sondern auch bei den Herstellungstechniken und der Materialauswahl. Zu den vielversprechenden Technologien zählen neue Gate-Strukturen als hoch-;-;-;-;https://link.springer.com/article/10.1007/s11432-008-0071-8 2a7b7859a3476259b96b468bc79934aa;de;;;1.2.;;;Faktorenanalyse und sequenzielle Extraktion enthüllen geochemische Prozesse, die für die Spurenmetallverteilung in fluviatilen Sedimenten eines Pyritabbaugebietes, China, relevant sind Vier fluviale Sedimentkerne wurden geochemisch auf ihre Hauptelemente und ihren Spurenmetallgehalt analysiert und stellen einen sensiblen Umweltdatensatz für Schwermetallkontamination in einem Pyritabbaugebiet, Pearl River Basin, Südchina, dar. Während eine Identifizierung von Ablagerungs- und Nachablagerungsprozessen allein anhand der vertikalen Profile der Spurenmetallgehalte nicht möglich ist, deckt die Faktorenanalyse vier Hauptfaktoren auf, die die Spurenmetallverteilung in den Sedimentkernen steuern. Nach Analyse der geochemischen Anteile von Schwermetallen durch ein sequentielles Extraktionsverfahren konnten diese vier Faktoren erklärt werden als (i) Komplexierung mit organischer Substanz im Sediment (As, Cu, Ni und Zn), (ii) Verwitterungsprozesse durch Eisenreduktion und Oxidation (Pb, Mo und Cr), (iii) Verwitterung durch Mn-Reduktion und -Oxidation (Tl und Co) und (iv) Bindungseffekte von Schwefel im Sediment oder physikalischer Transport von Pyritrückständen (Zn). Die Umweltbewertung durch Geoakkumulationsindizes und Anreicherungsfaktoren zeigt, dass die untersuchten Sedimentkerne signifikant kontaminiert und mit As, Tl, Pb und Zn angereichert sind. Der Risikobewertungscode weist zusätzlich auf ein insgesamt niedriges bis mittleres Risiko dieser untersuchten Schwermetalle hin.;-;-;-;https://link.springer.com/article/10.1007/s13146-010-0007-4 df12e5db222334197c2d0b018907add6;de;;;1.2.;;;Der rechtliche Rahmen für die Wahl von Forumsklauseln in Seeverkehrsdokumenten Der Rechtsrahmen für die Wahl von Gerichtsstandsklauseln in Seeverkehrsdokumenten ist relativ komplex und verdient besondere Aufmerksamkeit. Sie können durch internationale Konventionen, das Admiralitäts-, das Verfahrensrecht, das gewöhnliche Vertragsrecht und spezielle Rechtsvorschriften betroffen sein. Darüber hinaus befinden sich Gerichtsstands- und Schiedsvereinbarungen an der Schnittstelle von Verfahrensrecht und materiellem Recht. Neben den „horizontalen“ Kollisionsnormen, die bei internationalen Verträgen immer ein Thema sind, gibt es auch „vertikale“ Kollisionsnormen, die von föderalen Systemen geschaffen wurden, die adressiert werden müssen. Für das Recht der Vereinigten Staaten mag dies selbstverständlich sein, aber die fortschreitende europäische Integration und die wachsende Bedeutung und Reichweite der EU-Gesetzgebung haben zu ähnlichen Strukturen innerhalb der Europäischen Union geführt. Die folgenden Absätze beleuchten diese verschiedenen Fragen, indem sie die anwendbaren Gesetze beschreiben und ihre Beziehung und ihren Geltungsbereich klarstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10222-6_2 a30733012dc31f8e4151831c0a9e7ec8;de;;;1.2.;;;Eine Einführung zu vollständigen Gittern Dieses einleitende Kapitel dient als bequeme Referenzquelle für bestimmte grundlegende Aspekte vollständiger Gitter, die in der Fortsetzung benötigt werden. Der erfahrene Leser möchte vielleicht direkt zu Kapitel I und dem Beginn der Diskussion des Hauptthemas dieses Buches springen: kontinuierliche Gitter, eine besondere Klasse vollständiger Gitter.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-67678-9_1 43d1f5ce1609940593357044150d2ad4;de;;;1.3.;;;Vorläufige Untersuchung zu kreativen Bildungsinhalten für sehbehinderte (VI) Lernende Dieses Papier berichtet über eine laufende Forschung in Bezug auf die Verfügbarkeit und die Bedürfnisse der kreativen Inhaltsanwendung für sehbehinderte (VI) Lernende, insbesondere sehbehinderte Kinder. In früheren Studien wurden zahlreiche Assistive Technologies (AT) Produkte in Bezug auf Hard- und Software gefunden. Umgekehrt sind Studien zur Entwicklung kreativer Inhaltsanwendungen insbesondere im Bildungsbereich sehr rar. Darüber hinaus zeigt die Erhebung aus der Literatur auch, dass die Verwendung von AT für sehbehinderte Kinder problematisch war. Daher versucht diese Studie, die Verfügbarkeit und die Bedürfnisse der kreativen Anwendung von Bildungsinhalten für VI-Lernende zu untersuchen. Dementsprechend wurden teilstrukturierte Interviews mit Experten aus dem Bereich der besonderen Bedürfnisse durchgeführt. Die Ergebnisse zeigen, dass die speziell für VI-Lernende entwickelte Anwendung kreativer Bildungsinhalte noch nicht existiert und dringend benötigt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-02958-0_37 fb79d4da69d586fee67e72ee4ca840fa;de;;;1.2.;;;Gustav Adolph Michaelis – Arzt, Forscher, Lehrer. Prof. Gustav Adolph Michaelis (1798–1848), Direktor der Geburtsklinik und Hebammenschule Kiel, gilt als einer der Begründer der wissenschaftlichen Geburtshilfe. In Forschung und Lehre orientierte er sich an empirischen Daten. Seine wichtigste wissenschaftliche Arbeit zum schmalen Becken fasst seine Erfahrungen als Geburtshelfer zusammen. Die Pelvimetrie und die Inspektion des sogenannten „Michaelis-Rhomboids“ sagen die Prognose des Geburtsvorgangs voraus. Er war ein gewissenhafter Forscher: Er veröffentlichte selbstkritisch erfolglose Fälle und dachte gründlich über neue Theorien nach. In Deutschland war er der erste, der Semmelweis' Theorie zur Prophylaxe der Puerperalsepsis bewiesen hat. Als er erkannte, dass er den Tod so vieler Frauen bei der Geburt verursacht hatte, war Michaelis verzweifelt und beging 1848 Selbstmord.;-;-;-;https://link.springer.com/article/10.1007/PL00003279 39fcb5451a40c6573cd4d1c5642d200a;de;;;1.2.;;;Annandales Rolle bei der Entwicklung der präperitonealen Leistenherniorrhaphie Die transabdominale posteriore präperitoneale Leistenherniorrhaphie nach Cheatle (1920–21) wurde ignoriert. 1936 von Henry wiederentdeckt, schmachtete es, bis Stoppa (1965) es für GPRVS einsetzte. Da Cheatle keine Referenzen zitierte, wurde die vorangegangene Literatur überprüft, um frühere Beiträge zu ermitteln. Die transabdominale intraperitoneale Entlastung des eingeklemmten Darms durch Medianschnitt begann 1800 v. Von Annandale im Jahr 1873 wieder eingeführt, wurde es 1883 von Lawson Tait zur elektiven Reparatur von reponierbaren Femur- und Leistenhernien angewendet. Bogros' (1823) anteriorer präperitonealer Zugang wurde 1876 von Annandale zur Reparatur von Leistenvorfällen unabhängig verwendet und von Ruggi (1892), Moschowitz (1907) und Bates (1913) populär gemacht. Der ursprüngliche Beitrag von Cheatle bestand darin, die durch eine suprapubische Inzision erhaltene Exposition in den Raum von Retzius (von Urologen verwendet) seitlich in den/die kommunizierenden suprainguinalen präperitonealen Raum(e) von Bogros zu erweitern. Seine Reparatur wurde am King's College Hospital, Strand, London, entwickelt, wo er Lister assistiert hatte. Seine Kollegen und früheren Herniologen haben die Weichen gestellt. Annandale war der wichtigste Antrieb.;-;-;-;https://link.springer.com/article/10.1007/BF02427674 c0c77fa6ec89cfcb03040d35cf416fbe;de;;;1.2.;;;Einfluss starker tropischer Vulkanausbrüche auf die täglichen Temperatur- und Niederschlagsextreme weltweit Diese Studie untersucht die Einflüsse starker tropischer Vulkanausbrüche (SVEs) auf tägliche Temperatur- und Niederschlagsextremereignisse mit Hilfe von Langzeitsimulationen aus dem Hadley Center Coupled Model Version 3 (HadCM3) und dem Community Earth System Model Version 1.1 (CESM1). Die Ergebnisse zeigen, dass das Auftreten von täglichen Hitzeextremen und täglichen Starkniederschlägen in den meisten Teilen der Welt in den Spitzenjahren der SVEs abnimmt. Aufgrund des vulkanischen Kühleffekts sinkt die durchschnittliche Wahrscheinlichkeit täglicher heißer Extreme weltweit um etwa 50 %. Die Intensitätsabnahme ist für Landregionen mittlerer Breite und das tropische Südamerika stärker. Im Gegensatz dazu treten in den meisten Teilen der kontinentalen Regionen tägliche Kälteextreme häufiger auf. Weltweit ist in den Spitzentriebjahren im Durchschnitt alle 1,5 Jahre mit einem alle 3 Jahre unter nicht-vulkanischen Bedingungen zu erwartenden Kälteextremereignis zu rechnen. Insgesamt spielt der SVE-induzierte Kühleffekt eine dominante Rolle bei der Regulierung der täglichen Kälte- und Hitzeextreme. In eurasischen Regionen hoher Breiten nimmt im Gegensatz zu anderen kontinentalen Regionen die Wahrscheinlichkeit und Intensität täglicher Kälteextreme aufgrund eines SVE-verstärkten Polarwirbels und der damit verbundenen Temperaturadvektionsanomalien ab. Hinsichtlich der täglichen Starkniederschlagsextreme nehmen sowohl die Wahrscheinlichkeit als auch die Intensität in den meisten Monsungebieten ab. Weitere Analysen legen nahe, dass die reduzierte Wahrscheinlichkeit und Intensität der täglichen Starkniederschlagsextreme hauptsächlich auf die SVE-induzierte globale Abnahme der Wasserhaltekapazität zurückzuführen ist.;-;-;-;https://link.springer.com/article/10.1007/s13351-021-0160-9 beb0128da97d365ab2e7480b8921b5c7;de;;;1.2.;;;Netzwerkmanagement und Netzwerkdesign I Netzwerkmanagement und Netzwerkdesign arbeiten oft an entgegengesetzten Enden. Es ist klar, dass ein Netzwerk, das kürzeste Pfade verwendet und Komponenten mit einer Auslastung von 10 % aufweist, leicht zu verwalten, aber entsetzlich teuer ist. Auf der anderen Seite, wenn das Netzwerk so eng konzipiert ist, dass es die Grenze zwischen Optimalität und Undurchführbarkeit überschreitet, ist das Netzwerk instabil und ein Management-Albtraum. Damit keine der Situationen eintritt, ist es notwendig, dass Netzwerkdesigntools mit Netzwerkmanagementtools zusammenarbeiten. In diesem Papier beschreiben wir ein System, das die Integration von Netzwerkmanagement und Netzwerkdesign ermöglicht. Wir diskutieren speziell Erweiterungen des Netzwerkmanagements, die für die enge Kopplung von Designtools in einem Netzwerkmanagementsystem erforderlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-1298-5_38 26696d01cbcd94629cd021024f2ae3fc;de;;;1.2.;;;Zeitbewusste kollaborative Filterung für Empfehlungssysteme Herkömmliche kollaborative Filteralgorithmen berücksichtigen nur die historischen Bewertungen der Benutzer, die das Abdriften des Benutzerinteresses und die Änderung der Artikelbeliebtheit über einen langen Zeitraum ignorieren. Mit dem Ziel der obigen Probleme wird ein zeitbewusster kollaborativer Filteralgorithmus vorgeschlagen, der die Benutzerinteressen und die Artikelpopularität im Laufe der Zeit verfolgt. Wir erweitern die weit verbreiteten nachbarschaftsbasierten Algorithmen um zwei Arten von zeitlichen Informationen und entwickeln einen verbesserten Algorithmus zur Abgabe zeitnaher Empfehlungen. Experimentelle Ergebnisse zeigen, dass der vorgeschlagene Ansatz die Genauigkeit der Vorhersage effizient verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33506-8_81 f1b38cd0a309aae7b8444d53726fbb55;de;;;1.2.;;;Auswirkungen der Gefrierintensität auf Bodenlösungsstickstoff und mikrobiellen Biomassestickstoff in einem alpinen Graslandökosystem auf dem tibetischen Plateau, China Die Veränderung des Frost-Tau-Musters des tibetischen Plateaus unter der Klimaerwärmung wird einen tiefgreifenden Einfluss auf den Bodenprozess des alpinen Grasland-Ökosystems haben, jedoch die Erforschung des Einflusses der Frost-Tau-Wirkung auf die Stickstoffprozesse des alpinen Graslands Ökosystem auf der tibetischen Hochebene hat noch nicht viel Aufmerksamkeit erregt. In dieser Studie wurde der Einfluss der Gefrierstärke auf die Bodenstickstoffkomponenten von alpinem Grasland auf dem tibetischen Plateau durch Laborexperimente zur Frost-Tau-Simulation untersucht. Der 0–10 cm große Mutterboden wurde von der alpinen Sumpfwiese und Almwiese in der Permafrostregion des Beilu Flusses gesammelt. Im Experiment wurden die Bodenproben drei Tage bei –10°C, –7°C, –5°C, –3°C bzw. –1°C kultiviert und anschließend einen Tag bei 2°C aufgetaut. Die Ergebnisse zeigten, dass nach dem Gefrier-Tau-Prozess der Stickstoff der mikrobiellen Bodenbiomasse signifikant abnahm, während der gelöste organische Stickstoff und der anorganische Stickstoff signifikant zunahmen. Wenn die Gefriertemperatur unter –7 °C lag, gab es keinen signifikanten Unterschied zwischen dem Gehalt an Stickstoffkomponenten, was darauf hindeutet, dass eine Änderung jeder Stickstoffkomponente eine Ansprechschwelle in Richtung der Gefriertemperatur haben könnte. Da der Frost-Tau-Prozess zur Gefahr von Stickstoffverlusten im alpinen Graslandökosystem führen kann, sollte der Reaktion des Bodenstickstoffkreislaufs alpiner Grasländer auf dem tibetischen Plateau auf den Frost-Tau-Prozess mehr Aufmerksamkeit gewidmet werden.;-;-;-;https://link.springer.com/article/10.1007/s40333-016-0012-0 2c507f5ed677cda6c7283493975ec2d7;de;;;1.2.;;;Meeresströmungen Wasser ist in allen Tiefen ständig in Bewegung, auch wenn das Meer vollkommen ruhig und flach erscheint. In Kap. 3–6 dieses Buches haben wir eine spezielle Art von Wasserbewegung diskutiert, nämlich die periodische Wellenbewegung. Wellen können so klein sein wie Wellen auf der Meeresoberfläche und so groß wie lange Flutwellen mit einer Wellenlänge von Tausenden von Kilometern. Wellen können sich auf der Meeresoberfläche oder entlang von Grenzflächen ausbreiten, die Wassermassen unterschiedlicher Dichte trennen (innere Wellen). In all diesen Fällen ist die Wasserbewegung jedoch periodisch oder kann als Summe der periodischen Bewegungen dargestellt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-60209-2_7 c0d84ffde2665a42a1ae14e6f73f673d;de;;;1.2.;;;Dekadische Veränderung des troposphärischen Temperaturgradienten der ostasiatischen Sommertemperatur um die frühen 1990er Jahre Von 1979 bis 2004 hat der ostasiatische Sommerniederschlag Anfang der 1990er Jahre eine weitere signifikante dekadische Verschiebung erfahren. Basierend auf drei Radiosonden-Temperaturdatensätzen und vier Reanalysedatensätzen untersucht dieser Artikel die dekadische Veränderung der ostasiatischen troposphärischen Sommertemperatur um die frühen 1990er Jahre. Die Ergebnisse zeigen, dass der meridionale Gradient der mittleren oberen Troposphärentemperatur der Schicht für 200–500 hPa (hier nach UTT ist UTT die obere Troposphärentemperatur) um 1992 ebenfalls eine deutliche dekadische Abnahme erfuhr. zentriert entlang des Jangtse-Tal, während die troposphärische Temperatur nördlich bis 35°N eine dekadische Erwärmung zeigt, die sich im Nordwesten Chinas-Mongolei konzentriert. Die JRA-25-Reanalyse ist besser als die anderen Reanalyse-Datensätze, um diesen dekadischen Wandel aufzudecken. Diese dekadische Verschiebung der ostasiatischen Sommer-UTT kann auf den dekadischen Wechsel der ENSO-Periode von einer niederfrequenten Schwingung (4–6 Jahre) zu einer quasi-zweijährigen Schwingung seit 1992 zurückgeführt werden. Sie verhält sich wie eine Zunahme der ENSO-Entwicklungsereignisse und eine Verringerung von ENSO-zerfallenden Ereignissen. Dies führt zu einem stärkeren Antrieb des ENSO-Entwicklungssommers und einem schwächeren Antrieb des ENSO-Abklingens, was nach 1992 zur dominierenden Rolle des Monopol-Kühlmodus der ostasiatischen UTT im Gegensatz zur dominierenden Rolle des Dipolmodus der ostasiatischen UTT vor 1992 führt Die Sommer-UTT-Differenz zwischen 1993–2004 und 1979–1992 zeigt ein „Südkühlung-Nord-Erwärmung“-Muster und trägt damit zur interdekadischen Abnahme des ostasiatischen Sommer-UTT-Meridionalgradienten um 1992 bei.;-;-;-;https://link.springer.com/article/10.1007/s11430-015-5117-3 46e140a468966ce16708350cac2ef060;de;;;1.2.;;;Pulsierende weiße Zwergsterne Ich gehe kurz auf die beobachteten Eigenschaften von pulsierenden Weißen Zwergen ein. Beispiele einiger Anwendungen der Seismologie auf diese Sterne zeigen, wie sie nützliche Beschränkungen für die Theorie der Sternentwicklung liefern können.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4299-1_25 2896d4e5195f3ade650b3b7e87302507;de;;;1.2.;;;Flüssiges Helium Das Phänomen der Suprafluidität nimmt ebenso wie das der Supraleitung eine einzigartige Stellung im Muster unserer bekannten physikalischen Welt ein. Während man anfangs die ungewöhnlichen Effekte, die entdeckt wurden, als einen limitierenden Aspekt der Eigenschaften von Aggregaten bei sehr tiefen Temperaturen betrachtete, ist jetzt ganz klar, dass sie eine tiefere Bedeutung haben. Die Tatsache, dass diese hochgeordneten Zustände bei Temperaturen auftreten, die zwei oder drei Größenordnungen kleiner sind als die Kondensation von Gasen in den flüssigen und festen Zustand, kann aufgrund der besonderen physikalischen Bedingungen an der Oberfläche nur ein Zufall sein der Erde. Es ist durchaus nicht ausgeschlossen, dass im Universum als Ganzes die Aggregation der Materie allgemeiner nach einem Muster abläuft, bei dem die Anordnung der Geschwindigkeiten Vorrang vor der Anordnung der Positionen hat. Bei der Erörterung des Verhaltens von flüssigem Helium sollte man sich daher daran erinnern, dass die bisher entdeckten Phänomene möglicherweise nur einen sehr begrenzten Aspekt eines neuen Musters von Anordnungen wechselwirkender Teilchen darstellen. Die eigentümliche Analogie zwischen Supraleitung, einer Ansammlung geladener Lichtteilchen, die F;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-39773-2_10 2831725b3a5ffcecafb65c095f1e67c0;de;;;1.2.;;;Tachyarrhythmien beim akuten Myokardinfarkt und Optionen für deren elektrische Behandlung Tachyarrhythmien treten in den ersten Tagen nach einem akuten Myokardinfarkt häufig auf, was die instabilen elektrischen Eigenschaften ischämischer Herzzellen widerspiegelt. In der herkömmlichen Koronarversorgungseinheit hat die Steuerung dieser Tachyarrhythmien durch elektrische Mittel gewöhnlich einen Notfall-Gegenschock für lebensbedrohliche Episoden oder die gelegentliche Verwendung von Overdrive-Stimulationen beinhaltet. In den letzten zehn Jahren wurden elektrophysiologische Techniken entwickelt und verfeinert, die eine intrakardiale Aufzeichnung und Stimulation einschließlich der Abgabe eines intravaskulären Gegenschocks ermöglichen. Diese invasiveren Techniken wurden bei akuten Infarkten nicht weit verbreitet angewendet, aber es stellt sich die Frage nach ihrer möglichen Rolle. Dieses Kapitel gibt einen Überblick über die Arten von Tachyarrhythmien, die bei Patienten während eines akuten Myokardinfarkts (AMI) beobachtet wurden, und die zur Diagnose und Behandlung verfügbaren elektrischen Techniken. Die potenzielle Nützlichkeit neuerer Ansätze wird im Kontext der Evidenz des Duke University Medical Center zum Spektrum der Tachyarrhythmien diskutiert, die in den 1980er Jahren auf der Koronarstation entdeckt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-3828-4_26 daa2c5929c7a0cdc7fca1a5fc25634b2;de;;;1.2.;;;Scale-up-Korrelationen für widerstandsreduzierende Tenside Es werden verschiedene Scale-up-Methoden für turbulente Strömungen verglichen. Widerstandsreduktionsdaten gemessen in einem 1/2″- und einem 1″-Rohr mit dem wasserlöslichen Tensid C;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-49337-9_82 9a2e48f9c4241cbaa309b3a332fc6e77;de;;;1.2.;;;Einengende historische Unsicherheit: Wahrscheinlichkeitsklassifikation von mehrdeutig identifizierten Baumarten in historischen Walderhebungsdaten Historische Daten werden zunehmend geschätzt, um Einblicke in den Zustand von Ökosystemen in der Vergangenheit zu erhalten. Die Verwendung solcher Daten umfasst die Bewertung des Ausmaßes von Ökosystemveränderungen, die Ableitung ökologischer Grundlagen für Management, Wiederherstellung und Modellierung und die Bewertung der Bedeutung vergangener Bedingungen für die Zusammensetzung und Funktion aktueller Systeme. Ein historischer Datensatz dieser Art ist die Public Land Survey (PLS) des United States General Land Office, die Daten zu mehreren Baumarten, Größen und Entfernungen enthält, die an jedem Vermessungspunkt in einer Entfernung von einer halben Meile (0,8 km²) aufgezeichnet wurden ) Intervalle auf einem 1-mi (1,6 km) Raster. Diese Vermessungsmethode wurde in den 1790er Jahren auf US-Bundesland begonnen, das sich westlich von Ohio erstreckt. Somit haben die Daten das Potenzial, einen Blick auf einen Großteil der US-Landschaft aus der Mitte des 19. Jahrhunderts zu geben, und sie wurden zu diesem Zweck ausgiebig verwendet. Allerdings können historische Datenquellen, etwa zur Artenzusammensetzung von Wäldern, in der Detailliertheit und Verlässlichkeit der Daten oft eingeschränkt sein, da die Informationen oft nicht ursprünglich aus ökologischen Gründen erfasst wurden. Waldbäume werden manchmal mehrdeutig aufgezeichnet, wobei generische oder obskure gebräuchliche Namen verwendet werden. Für die PLS-Daten des Nordens von Wisconsin, USA, haben wir eine Methode entwickelt, um mehrdeutig identifizierte Baumarten mittels logistischer Regressionsanalyse zu klassifizieren. Die Modelle wurden zunächst auf Teildatensätzen für jede Art erstellt und dann auf Passung mit den restlichen Daten getestet. Die Validierungen wurden unter Verwendung wiederholter, zufälliger Teilmengen der Daten durchgeführt. Die Genauigkeit der Modellvorhersage reichte von 81% bis 96% bei der Unterscheidung von artverwandten Arten zwischen Eiche, Kiefer, Esche, Ahorn, Birke und Ulme. Hauptprädiktorvariablen waren Baumgröße, assoziierte Arten, Landschaftsklassen, die auf den Bodentyp hinweisen, und räumliche Lage innerhalb der Untersuchungsregion. Die Ergebnisse helfen, Unklarheiten zu klären, die früher in Karten historischer Ökosysteme für die Region vorhanden waren, und können auf PLS-Datensätze an anderer Stelle sowie auf andere Quellen mehrdeutiger historischer Daten angewendet werden. Die Kartierung der neu klassifizierten Daten mit ökologischen Landeinheiten liefert zusätzliche Informationen über die Verbreitung, Häufigkeit und Assoziationen von Baumarten sowie deren Beziehungen zu Umweltgradienten vor der Industriezeit und klärt die Identitäten von Arten, die früher nur auf Gattungen kartiert wurden. Wir geben einige Vorbehalte zur angemessenen Verwendung der auf diese Weise gewonnenen Daten und beschreiben deren Potenzial.;-;-;-;https://link.springer.com/article/10.1007/s10021-002-0167-8 8188ae343c233e44ad97912738153433;de;;;1.2.;;;Öffentliche Finanzen in Zeiten des wirtschaftlichen Niedergangs Von etwa 1670 bis 1690 erlebten Portugal und seine europäischen Nachbarn eine allgemeine Rezession, die sich nachteilig auf die Volkswirtschaften und die Einziehung von Staatseinnahmen auswirkte. Während dieser Jahre sanken die Preisniveaus für die meisten Grundrohstoffe deutlich und erreichten ihren Tiefpunkt in den späten 1680er Jahren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-05878-5_6 d153586ce41804d541cd8f7f751379a2;de;;;1.2.;;;Mechanismen der Primärsukzession an der Küste des Kaspischen Meeres Auf der Grundlage der Untersuchung von raumzeitlichen Reihen werden Entwicklungsmuster für die Vegetation in der neukaspischen Ebene festgelegt. Es wurden drei Arten von primären Sukzessionen erkannt, d. h. Psammosere, Halosere und Wiesensere, die sich in den Umweltbedingungen, den regelmäßigen Merkmalen der zeitlichen Dynamik und den Bildungsstadien unterscheiden. Die Stadien der Sukzession wurden anhand der umweltbezogenen und physiognomischen Eigenschaften der Dominanten der Vegetationsgemeinschaften identifiziert.;-;-;-;https://link.springer.com/article/10.1134/S2079096111030036 cf2bee678c1116154e8daec9bd7391df;de;;;1.2.;;;Tektonik des Mitteldevon-Mittelperm (Tianshan-Tektonik, 397–260 Ma) In China wurde die tektonische Periode vom Mitteldevon bis zum Mittelperm (397–260 Ma) früher als Variszium- oder Herzynium-Periode bezeichnet, in Anlehnung an die Begriffe, die in Europa für tektonische Bewegungen des späten Karbon bis zum frühen Perm verwendet wurden, aber es ist angemessener, dass diese Periode sollte von China aus neu definiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11868-5_5 c451de59dcdad4326cdd65fcb4281e1b;de;;;1.3.;;;Ein modularer neuronaler Netzwerkansatz zur Verbesserung der kartenangepassten GPS-Positionierung Dieses Papier bietet einen Überblick über die in den letzten zwei Jahren durchgeführten Arbeiten zur Entwicklung von Techniken für künstliche neuronale Netze (KNN), um die Genauigkeit und Zuverlässigkeit der Straßenauswahl während der Kartenanpassungsberechnung (MM) zu verbessern. MM-Positionen, die von kostengünstigen GPS-Empfängern bereitgestellt werden, haben ein großes Potenzial, wenn sie in handgehaltene oder fahrzeuginterne Geographische Informationssystem-(GIS)-Anwendungen integriert werden, insbesondere solche, die für die Verfolgung und Navigation in Wege- und Straßennetzen verwendet werden. Der angewandte Ansatz eines modularen neuronalen Netzes (MNN) verwendet einen geeigneten Straßenformindikator, um verschiedene Straßenformen für das lokale KNN-Training zu integrieren. MNN-Testergebnisse zeigen ein gutes Potenzial für die Methode, eine signifikante Verbesserung der MM- und Positionsgenauigkeit gegenüber herkömmlichen Methoden zu erzielen. Weitere Ergebnisse und Schlussfolgerungen dieser laufenden Forschung werden zu gegebener Zeit veröffentlicht.;-;-;-;https://link.springer.com/chapter/10.1007/11935148_8 08d3ec41f746970a21da93c54680d548;de;;;1.3.;;;Das medizinische Gespräch unterrichten Um die Auswirkungen des Lehrens spezifischer Interviewtechniken auf verbale Verhaltensweisen und gesundheitliche Ergebnisse zu untersuchen, wurden Assistenzärzte der Inneren Medizin, die in einer Screening-Klinik arbeiteten, entweder einer experimentellen oder einer Kontrollgruppe zugeteilt. Der gesamte Klinikbesuch wurde auf Tonband aufgezeichnet, transkribiert und nach dem Verbal Response Mode (VRM)-System kodiert. Den Bewohnern der Experimentalgruppe wurde das Interviewverhalten (Patientendarstellung und Erklärung des Arztes) beigebracht, das in früheren Studien mit den Patientenergebnissen in Zusammenhang gebracht wurde. Durch Telefoninterviews wurden bei allen Patienten Patientenzufriedenheit, Compliance und Symptomstatus ermittelt. Zweihundertachtundsechzig Interviews (156 in der Experimentalgruppe und 112 in der Kontrollgruppe) wurden in die Studie eingeschlossen. Das Training erhöhte die Exposition der Patienten und die Erklärung durch den Arzt, hatte jedoch keinen Einfluss auf die gesundheitlichen Ergebnisse. Die Einstellungen und Verhaltensweisen der Bewohner während des Trainings werden beschrieben.;-;-;-;https://link.springer.com/article/10.1007/BF02595755 ee48bf56761ba01892ceca391b629660;de;;;1.2.;;;Leitung der Notaufnahme als komplexes adaptives System In diesem Kapitel wird ein Ansatz vorgestellt, der die Anwendung von Konzepten und Methoden aus den System- und Komplexitätswissenschaften im Bereich der Gesundheitswissenschaften erleichtert. Das Gesundheitswesen ist ein verworrenes System mit vielen Abhängigkeiten von Menschen, Ressourcen und Prozessen. Kürzlich wurde der Einsatz von System- und Komplexitätswissenschaften als praktikable Methode vorgeschlagen, um die Herausforderungen im Gesundheitssystem besser zu verstehen und zu bewältigen. Complex Adaptive Systems (CAS) ist ein Zweig der System- und Komplexitätswissenschaften, der eine andere Perspektive einbringt, um die Gesundheitsorganisation zu führen. Wir diskutieren die Identifizierung und Anwendung von CAS-Prinzipien auf die Verwaltung und Führung der Gesundheitsorganisation. Die Notaufnahme wird als Fallstudie genutzt, um die Anwendung von CAS-Konzepten zu identifizieren und zu analysieren. Die Fallstudie erleichtert das Verständnis der CAS-Konzepte und deren Anwendbarkeit auf andere Gesundheitsorganisationen und -abteilungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-26221-5_17 ed3acb254efd745ace9cd6cbae5ac072;de;;;1.2.;;;Tektonik der Jura-Frühe Epoche der Unterkreide (Tektonische Periode von Yanshan, 200–135 Ma) Die Yanshanian-Bewegungen wurden zuerst von Weng WH (1927, 1929) im Yanshan-Gebiet, 116°–119,5°N, 40°–42°E, erkannt. Seitdem wird das Yanshanian in China als lokaler Begriff für tektonische Ereignisse verwendet, die sich hauptsächlich während der Jurazeit ereigneten. Später, (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11868-5_7 2af03ae00a648d5a6422912e6fb31375;de;;;1.2.;;;Ein faseroptischer Ultraschallsensor zur Überwachung der Aushärtung von Epoxid Epoxid ist ein übliches Matrixmaterial in Faserverbundwerkstoffen und wird häufig verwendet mit: Kevlar-, Glas-, Kohlenstoff- und Borfasern. Verbundwerkstoffe mit einer Epoxidmatrix werden in einem Autoklaven verarbeitet, der während der Aushärtung Temperatur und Druck auf das Teil ausübt. Temperatur und Druck erleichtern die Vernetzung von Epoxidgruppen, die mit im Epoxidharz vorhandenen Amingruppen reagieren. Derzeitige Verfahren zum Härten von Faser/Epoxid-Verbundstoffen verwenden vorbestimmte Temperatur- und Druckwerte im Härtungszyklus. Diese Werte werden vom Hersteller angegeben und berücksichtigen nicht Chargenschwankungen im Epoxidharz, die die Härtung beeinflussen. Mögliche Variationen des Epoxidharzes sind: chemische Zusammensetzung, Wassergehalt, Harzfasergehalt, Temperaturverlauf und Feuchtigkeit [1].;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0383-1_85 3d78fc06582ed9651753d0d05caa00c3;de;;;1.2.;;;Regionales Setting und Geochronologie des Banatitischen Magmatischen und Metallogenetischen Gürtels der Spätkreide Der 1.500 km lange Banatitische Magmatische und Metallogenetische Gürtel (BMMB) von Rumänien, Serbien und Bulgarien ist ein komplexer kalk-alkalischer magmatischer Bogen der späten Kreidezeit. Es beherbergt eine Vielzahl von magmatisch-hydrothermalen Cu-, Au-, Mo-, Zn-, Pb- und Fe-Lagerstätten, darunter Europas einzige Porphyr-Kupfer-Lagerstätten von Weltklasse. Regionale Metallogenese kann mit der Subduktion des Vardar-Ozeans während der späten Kreidezeit als Teil der Schließung des Neotethys-Ozeans, der Europa und Afrika im Mesozoikum getrennt hatte, in Verbindung gebracht werden. In den zentralen Abschnitten des Gürtels im südlichsten Banat (Rumänien), Serbien und Nordwestbulgarien dominieren Porphyr Cu–(Au)–(Mo) und eng verbundene epithermale Massivsulfide. Diese Distrikte sind heute die wirtschaftlich bedeutendsten, darunter bedeutende aktive Cu-Au-Minen in Moldova Nouă in Rumänien, Majdanpek, Veliki Krivelj und Bor in Serbien sowie Elatsite, Assarel und Chelopech in Bulgarien. Zahlreicher (und in der Vergangenheit hauptsächlich abgebaut) sind Fe-, Cu- und Zn-Pb-Skarne, die hauptsächlich an den beiden Enden des Gürtels, in Ostbulgarien und in Rumänien, vorkommen. Dieses Papier fasst einige der Lagerstätteneigenschaften im geodynamischen Rahmen der terminalen Vardar-Subduktion zusammen. Heterogene Terrane des Gürtels, einschließlich des Apuseni-Gebirges am westlichen Ende, sind nach der kontinentalen Kollision der Dacia- und Theiss-Blöcke parallel zur Vardar-Front ausgerichtet. Alle verfügbaren geochronologischen Daten (zahlreiche K-Ar- und einige U-Pb- und Re-Os-Alter) werden zusammengestellt und durch ein neues hochpräzises Re-Os-Datum für die Skarn-Lagerstätte Dognecea im Südwesten Rumäniens (76,6±0,3 .) ergänzt Ma). Diese Daten zeigen, dass sich der Magmatismus über mindestens 25 Millionen Jahre erstreckte, von etwa 90 bis 65 Ma in jedem Segment des Gürtels. Im Apuseni-Gebirge und im Banat, wo die Magma-Einlagerung mit einer syn-kollisionellen Ausdehnung im orogenen Gürtel der Karpaten zusammenhängt, scheint die Erzbildung zeitlich begrenzt und möglicherweise durch ein gemeinsames tektonisches Ereignis eingeschränkt zu sein.;-;-;-;https://link.springer.com/article/10.1007/s00126-002-0272-9 01be70291071f328b96ce7818674542e;de;;;1.2.;;;Bewegungsgleichung Dieser Abschnitt widmet sich der zentralen Frage der Grundgleichungen für die nichtklassische Behandlung lasererzeugter Plasmen, der Bewegungsgleichung einschließlich ihrer nichtlinearen Eigenschaften. Die Bewegungsgleichung enthält die nichtlinearen Kräfte, von denen ein Teil die hochfrequente (optische) Verlängerung der ponderomotorischen Kräfte ist, von denen ein anderer Teil jedoch nicht ponderomotorischer Natur ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88966-3_8 e5b76aab001432bd27b8b06416077fb9;de;;;1.2.;;;Reaktion der Mischschichttiefe und Subduktionsrate im subtropischen Nordostpazifik auf die globale Erwärmung Die Reaktion der Mischschichttiefe (MLD) und Subduktionsrate im subtropischen Nordostpazifik auf die globale Erwärmung wird anhand von 9 CMIP5-Modellen untersucht. Verglichen mit dem aktuellen Klima in den 9 Modellen ist die Reaktion des MLD im subtropischen Nordostpazifik auf den erhöhten Strahlungsantrieb räumlich uneinheitlich, wobei sich die maximale Untiefe im Ensemblemittel um 50 m ergibt. Die Unterschiede zwischen den Modellen der MLD-Änderung sind nicht vernachlässigbar und hängen von den verschiedenen dominierten Mechanismen ab. Im Norden der MLD-Front wird die MLD weitgehend flach und wird durch Ekman-Pumpen, Wärmefluss und Änderungen der Kaltadvektion des oberen Ozeans beeinflusst. An der Südseite der MLD-Front ändert sich die MLD im wärmeren Klima ein wenig, was hauptsächlich auf die Warmadvektionsänderung im oberen Ozean zurückzuführen ist. Als Ergebnis schwächt sich die MLD-Frontintensität deutlich von 0,24 m/km auf 0,15 m/km (ca. 33,9%) im Ensemblemittel ab, nicht nur aufgrund des Maximums des MLD-Shoalings, sondern auch abhängig von der MLD-ungleichmäßigen räumlichen Variabilität . Die räumlich ungleichmäßige Abnahme der Subduktionsrate wird aufgrund der deutlichen Abschwächung der MLD-Front hauptsächlich von der lateralen Induktionsreduktion (ca. 85% im Ensemblemittel) dominiert. Diese Forschung zeigt, dass die Änderung der Meeresadvektion die räumlich ungleichmäßige Änderung der MLD stark beeinflusst und dann eine wichtige Rolle bei der Reaktion der MLD-Front und dem Subduktionsprozess auf die globale Erwärmung spielt.;-;-;-;https://link.springer.com/article/10.1007/s13131-021-1818-y 2066ec9488e6c6b3c4e71dbaebfcd201;de;;;1.2.;;;Bestrafung bewerten Die Bewertung der Anwendung und des Missbrauchs von Strafen kann nicht vereinfacht werden, ohne die Kraft vieler der dafür und dagegen vorgebrachten Argumente zu verlieren. Dafür gibt es zwei Hauptgründe. Erstens ist der Begriff der Bestrafung von Natur aus problematisch. Wesentliche erschwerende Faktoren sind die unterschiedlichen Perspektiven auf Kriminologie, Strafjustiz und Strafvollzug, die zu unterschiedlichen Positionen führen, von denen aus Strafmissbrauch definiert und Strafen bewertet werden kann. Zweitens ist der Begriff der Bewertung mehrdeutig. Es könnte sich auf die Bewertung der Idee der Bestrafung oder auf die Bewertung als Ergebnis evaluativer Forschung beziehen. Dieses Kapitel überbrückt diese beiden aus Gründen, die noch klarer werden, aber hier zusammengefasst werden können. Im Wesentlichen überspannt dieses Kapitel die Spaltung zwischen der Überprüfung der Forschung darüber, ob verschiedene Bestrafungen funktionieren, und der Bewertung von Bestrafungen aus verschiedenen moralischen und ethischen Gesichtspunkten, von denen einige – zum Beispiel die moralische Opposition gegen körperliche und die Todesstrafe – experimentelle Forschungen zu ihrer „Wirksamkeit“ machen ' irrelevant. Das heißt nichts über die Schwierigkeiten bei der Beurteilung der Wirksamkeit.;-;-;-;https://link.springer.com/chapter/10.1057/9780230389281_9 45a25007baf615d2c464f0b7f32cc31f;de;;;1.2.;;;Flugzeugpropeller Die früheren Theorien über die Wirkungsweise des Schraubenpropellers gehen auf die Pionierarbeit von Rankine und Wm zurück. Froude, dessen Beiträge von R. E. Froude fortgeführt und erweitert wurden. Diese Studien bezogen sich alle natürlich auf den Schraubenpropeller, wie er auf die Probleme des Schiffsantriebs angewendet wurde. Es gibt jedoch natürlich keinen Unterschied in der grundlegenden Theorie zwischen dem Propeller in seiner Wirkung auf Wasser und auf Luft, und diese früheren Untersuchungen von Rankine und den Froudes bieten einen natürlichen und logischen historischen Ausgangspunkt für eine Diskussion der Theorie der der Schraubenpropeller für Luftfahrtzwecke.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-91487-4_3 83348d3a1a0a9915a1fa089e8abaea60;de;;;1.2.;;;Molekulare Mechanismen der Membranpolarität in Nierenepithelzellen Aufregende Entdeckungen im letzten Jahrzehnt haben Licht auf die grundlegenden Mechanismen geworfen, die dem polarisierten Handel mit Epithelzellen zugrunde liegen. Es ist nun klar, dass die Asymmetrie der Epithelzellmembran durch eine Kombination von intrazellulären Sortiervorgängen, vektoriellen Abgabemechanismen und plasmalemmaspezifischen Fusions- und Retentionsprozessen erreicht wird. Mehrere wohldefinierte Signale, die polarisierte Segregations-, Sortier- oder Retentionsprozesse spezifizieren, wurden nun in einer Reihe von Proteinen beschrieben. Die intrazellulären Maschinen, die diese Signale decodieren und darauf reagieren, werden nun beschrieben. Darüber hinaus wird auch die Natur der Moleküle verstanden, die mit intrazellulären Transportvesikeln assoziieren, um die polarisierte Abgabe, das Anbinden, das Andocken und die Fusion zu koordinieren. Kombiniert mit der direkten Visualisierung polarisierter Sortierprozesse mit neuen Technologien in der Lebendzell-Fluoreszenzmikroskopie entstehen neue und überraschende Einblicke in diese einst schwer fassbaren Handelsprozesse. Hier geben wir einen Überblick über diese jüngsten Fortschritte in einem historisch relevanten Kontext.;-;-;-;https://link.springer.com/chapter/10.1007/s10254-004-0037-1 2047ae2af5d7ebf5d08d6f30c2e38c1e;de;;;1.2.;;;Secnidazol Secnidazol ist strukturell mit den häufig verwendeten 5-Nitroimidazolen Metronidazol und Tinidazol verwandt. Diese Medikamente haben ein gemeinsames Wirkungsspektrum gegen anaerobe Mikroorganismen und scheinen besonders wirksam bei der Behandlung von Amöbiasis, Giardiasis, Trichomoniasis und bakterieller Vaginose zu sein. Secnidazol wird nach oraler Gabe schnell und vollständig resorbiert und hat eine längere terminale Eliminationshalbwertszeit (≈ 17 bis 29 Stunden) als die üblicherweise verwendeten Arzneimittel dieser Klasse.;-;-;-;https://link.springer.com/article/10.2165/00003495-199651040-00007 d4ff8187e54333d2d2f7cee1eb9c3fba;de;;;1.2.;;;Validierung und Kalibrierung integrierter zellularer Automatenmodelle von Landnutzungsänderungen Realistische hochauflösende zellulare Automatenmodelle von städtischen und regionalen Systemen werfen erhebliche Probleme bei der Kalibrierung und Validierung auf. In diesem Kapitel untersuchen wir zunächst die wichtigsten philosophischen und methodischen Probleme, die bei der Validierung von Modellen auftreten, die komplexe, aber aufgrund von Stochastik und Bifurkationen nicht deterministische Ausgabemuster erzeugen. Einige verwandte Probleme des Kartenvergleichs, die sowohl für die Validierung als auch für die Kalibrierung von Bedeutung sind, werden ebenfalls untersucht. Kalibrierungsprobleme werden dann anhand einer Fallstudie unter Anwendung des niederländischen Environment Explorer-Modells sowie zweier in diesem Zusammenhang entwickelten halbautomatischen Kalibrierungsverfahren näher behandelt. Die Kalibrierungswerkzeuge erweisen sich als nützlich, wenn sie nicht perfekt sind und in einigen Fällen sogar die manuelle Kalibrierung übertreffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-1937-3_10 60b4e46da08c1c1cc0f099cf6495b7be;de;;;1.3.;;;Bohnenlektine Die Beziehung zwischen der Polypeptidzusammensetzung und dem Agglutinationsverhalten der lektinhaltigen G2/Albumin-Proteingruppen hat die Identifizierung der aktiven Lektinpolypeptide in verschiedenen Sorten von;-;-;-;https://link.springer.com/article/10.1007/BF00275105 fe4c059ec4413413966bda841983b655;de;;;1.2.;;;Shape-Motion-basiertes Athleten-Tracking für mehrstufige Aktionserkennung Für die Erkennung menschlicher Handlungen in Videos wird ein automatisches menschliches Form-Bewegungs-Analyseverfahren basierend auf einer Fusionsarchitektur vorgeschlagen. Robuste Form-Bewegungs-Merkmale werden aus der Erkennung und Verfolgung von menschlichen Punkten extrahiert. Die Funktionen werden im Rahmen des übertragbaren Glaubensmodells (TBM) zur Handlungserkennung kombiniert. Der TBM-basierte Modellierungs- und Fusionsprozess ermöglicht die Berücksichtigung von Ungenauigkeiten, Unsicherheiten und Konflikten, die den Merkmalen inhärent sind. Die Aktionserkennung erfolgt durch eine Mehrebenenanalyse. Die Sequenzierung wird zur Extraktion von Rückkopplungsinformationen ausgenutzt, um die Verfolgungsergebnisse zu verbessern. Das System wird an realen Videos von Leichtathletik-Meetings getestet, um vier Arten von Sprüngen zu erkennen: Hochsprung, Stabhochsprung, Dreisprung und Weitsprung.;-;-;-;https://link.springer.com/chapter/10.1007/11789239_40 bf5409abb2e033b5371c903dc3a979d6;de;;;1.2.;;;Physikalische Informationsbasis und der Bezug zur Entropie٭ Wir diskutieren die Beziehung zwischen Entropie und Information aus der Sicht der Physiker, wobei wir zwischen gebundener und freier Information unterscheiden. Die quantitativen physikalischen Aspekte des Informationsflusses werden durch Entropieflüsse gegeben, die eng mit der Reduzierung von Unsicherheit und der Vorhersagbarkeit von Ereignissen verbunden sind. Freie Information wird als eine Größe betrachtet, die intrinsische nicht-physikalische Komponenten hat und ursprünglich durch Selbstorganisation und Evolution geschaffen wurde. Gebundene und freie Information werden beide durch einen Materieträger repräsentiert, aber nicht so eng – begrenzt wie Masse oder Energie. Freie Information ist mit Informationsverarbeitung verbunden, sie wird als binäre Beziehung zwischen einem Sender und einem Empfänger eingeführt, die verschiedene Träger haben können, sie ist im Wesentlichen durch symbolische Repräsentationen gekennzeichnet. Die Verarbeitung freier Informationen entsteht ursprünglich durch Selbstorganisation auf der frühen Erde und ist mit der Entstehung des Lebens verbunden, also immer zumindest indirekt mit lebenden Systemen verbunden.;-;-;-;https://link.springer.com/article/10.1140/epjst/e2016-60366-5 3ddc291ff980a78f0be8594d56d91da3;de;;;1.2.;;;Die genetische Struktur von Modellartenpopulationen von Landmollusken unter Bedingungen urbanisierter Landschaft am Beispiel von Auf der Grundlage einer Analyse der morphologischen und genetischen Vielfalt, die mit der Polyacrylamyd-Gelelektrophoresemethode durchgeführt wurde, wurde der Zustand des Populationsgenofunds der Modellarten;-;-;-;https://link.springer.com/article/10.1134/S2079059712020128 ba4237778a0bcf7b032f398037430310;de;;;1.2.;;;Auskultation revisited: Die Wellenform und die spektralen Eigenschaften von Atemgeräuschen während der Vollnarkose Obwohl die Auskultation häufig als kontinuierliches Überwachungsinstrument während der Anästhesie verwendet wird, wurden die Atemgeräusche narkotisierter Patienten nie systematisch untersucht. In dieser Untersuchung verwendeten wir digitale Audiotechnologie, um die Atemgeräusche von 14 gesunden erwachsenen Patienten aufzuzeichnen und zu analysieren, die eine Vollnarkose mit Überdruckbeatmung erhielten. Geräusche, die aus dem Inneren der Speiseröhre aufgenommen wurden, wurden mit denen von der Oberfläche des Brustkorbs verglichen und der entsprechende Luftstrom wurde mit einem Pneumotachographen gemessen. Die mit Inspirations- und Exspirationsphasen assoziierten Schallproben wurden im Zeitbereich (RMS-Amplitude) und Frequenzbereich (Spitzenfrequenz, Spektralflanke und Leistungsverhältnisse) analysiert.;-;-;-;https://link.springer.com/article/10.1007/BF03356568 3392ee89292dd72e19043f60d2925916;de;;;1.2.;;;Lungenembryogenese und -differenzierung Das Thema dieses Kapitels, „Lungenembryogenese und -differenzierung“, stellt ein riesiges Feld dar, das die gesamte Geschichte der Lungenentwicklung abdeckt, beginnend mit den frühen fetalen Stadien bis hin zur Geburt. Dies kann auf verschiedene Weise erzählt werden. Eine davon wäre, das Erscheinungsbild und die Entwicklung der verschiedenen Merkmale – anatomisch, histologisch, biochemisch usw. – zu beschreiben, die für die funktionelle Lunge spezifisch sind. Eine andere wäre, zu versuchen, diese Ereignisse zu verstehen und die der Lungenentwicklung zugrunde liegenden Mechanismen zu betrachten, d;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-4155-7_1 24e3daf20baf56c498c2a37e2bd3ee7d;de;;;1.2.;;;Präventive Planung mit fester Priorität: Eine historische Perspektive Von ihren Wurzeln in der Job-Shop-Planung hat sich die Forschung zur Theorie der präventiven Planung mit fester Priorität von den künstlichen Einschränkungen und vereinfachenden Annahmen, die in der frühen Arbeit verwendet wurden, zu einem ausreichenden Reifegrad entwickelt, dass sie zunehmend bei der Implementierung von Echtzeit verwendet wird Systeme. Daher ist es angemessen, dass wir in dieser Sonderausgabe eine historische Perspektive auf die Entwicklung der präventiven Planung mit fester Priorität bieten.;-;-;-;https://link.springer.com/article/10.1007/BF01094342 a58df3090d7af9d2776abebdf745ea80;de;;;1.2.;;;Statistische Merkmale der Böenfront und automatischer Identifizierungsalgorithmus für CINRAD Böenfront ist eine Art meso- und mikroskaliges Wetterphänomen, das oft ernsthaften Bodenwind und Windscherung verursacht. In diesem Beitrag wird ein automatischer Algorithmus zur Erkennung der Böenfront vorgestellt. Insgesamt 879 Radar-Volumenscan-Proben, ausgewählt aus 21 Böenfront-Wetterprozessen, die zwischen 2009 und 2012 in China aufgetreten sind, werden untersucht und analysiert. Es werden statistische Merkmale des Böenfrontechos in den Feldern Reflektivität, Geschwindigkeit und Spektrumsbreite erhalten. Basierend auf diesen Merkmalen soll ein Algorithmus Böenfronten erkennen und Output-Produkte und quantitative Indizes generieren. Anschließend werden 315 Stichproben verwendet, um den Algorithmus zu verifizieren und 3 typische Fälle werden analysiert. Die wichtigsten Schlussfolgerungen sind: 1) für Schmalbandechos liegt die Intensität zwischen 5 und 30 dBZ, die Breiten liegen zwischen 2 und 10 km, die maximale Höhe beträgt weniger als 4 km (89,33% sind weniger als 3 km) und die Längen liegen zwischen 50 und 200km. Das Schmalbandecho ist höher als sein Umgebungsecho. 2) Böenfronten stellen eine Konvergenzlinie oder eine Windscherung im Geschwindigkeitsfeld dar, die frontale Windgeschwindigkeit nimmt mit zunehmendem Abstand nach radial außen allmählich ab. Die spektralen Breiten der Böenfronten sind groß, mit 87,09% über 4 m s;-;-;-;https://link.springer.com/article/10.1007/s13351-014-3240-2 7366bf1b2601062b85af86025ef9a72e;de;;;1.2.;;;Atemmechanik bei Ards-Patienten Obwohl die aktuelle Definition des Atemnotsyndroms bei Erwachsenen (ARDS) von Ashbaugh et al. (1) wurde das Syndrom eigentlich schon viel früher beschrieben. Ärzten, die Kriegsopfer während des Ersten Weltkriegs behandelten, war eine fortschreitende Form des Lungenkollapses bekannt (2). Wie Matthay (3) bemerkt, bietet Oslers Lehrbuch der Medizin (4) eine hervorragende Beschreibung der frühen Phase des Syndroms. Im Jahr 1927 schrieb Osler: „Eine unkontrollierte Septikämie führt zu einem schaumigen Lungenödem, das dem Serum ähnelt, nicht der blutigen transsudativen Ödemflüssigkeit, die bei Wassersucht oder kongestiver Herzinsuffizienz beobachtet wird.“ Zu Oslers Zeiten gab es keine mechanischen Beatmungsgeräte oder Intensivstationen, daher konnte er uns nicht mehr über ARDS erzählen, da die Entwicklung eines solchen exsudativen Lungenödems in der Regel eine terminale Komplikation war. Lungenverletzungen nach Traumata wurden später in Kausalitäten des Zweiten Weltkriegs als „traumatische nasse Lunge“ beschrieben (5). In diesem Bericht stellten die Autoren klinische und physiologische Merkmale des Syndroms vor und stellten fest: „Es kann nicht genug betont werden, dass die Lunge genauso einzigartig auf ein Trauma reagiert wie das Gehirn oder ein hochspezialisiertes Organ.“ 1950 beschrieben Jenkins et al. (6).;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-2724-0_25 5359abfeb2e527061bd849ad7d86cfd4;de;;;1.2.;;;Bestimmung von Rücklaufwasserständen an unbefestigten Küstenstandorten: eine Fallstudie für Norddeutschland Für die hochgradig gefährdeten und historisch und kulturell bedeutsamen kleinen Sumpfinseln der Halligen im Wattenmeer vor der norddeutschen Küste schätzen wir Wiederkehrperioden und extreme Stillwasserstände. Dies ist eine anspruchsvolle Aufgabe, da für diese Region nur wenige Wasserstandsaufzeichnungen vorliegen und diese derzeit zu kurz sind, um herkömmliche Methoden der Extremwertanalyse anzuwenden. Daher verwenden wir den Ansatz der Regional Frequency Analysis (RFA). Diese stammt aus der Hydrologie, wurde aber bereits in mehreren Küstenstudien verwendet und wird derzeit auch von der im Untersuchungsgebiet für den Küstenschutz zuständigen lokalen Bundesverwaltung angewendet. Die RFA ermöglicht es uns, die Rücklaufmengen indirekt abzuschätzen, indem hydrologische Informationen von gemessenen zu verwandten nicht gemessenen Standorten übertragen werden. Unsere Analysen zeigen, dass diese Methodik einige Nachteile hat und die Renditeniveaus im Vergleich zu direkten Analysen mit Stationsdaten über- oder unterschätzen kann. Um diese Probleme zu überwinden, präsentieren wir einen alternativen Ansatz, der numerische und statistische Modelle kombiniert. Zuerst haben wir ein numerisches multidekadisches Modell für die Wasserstandsdaten für die gesamte Nordsee erstellt. Die vom Hindcast vorhergesagten Wasserstände werden unter Verwendung der Informationen aus den verfügbaren Gezeitenmessdatensätzen korrigiert. Daher stimmen die simulierten Wasserstände gut mit den gemessenen Wasserständen an gemessenen Standorten überein. Die Verzerrungskorrektur wird dann räumlich interpoliert, um Korrekturfunktionen für die simulierten Wasserstände an jedem Küsten- und Inselmodellgitterpunkt im Untersuchungsgebiet zu erhalten. Mit einem empfohlenen Verfahren zur Durchführung von Extremwertanalysen aus einer Begleitstudie werden entlang der gesamten Küstenlinie des Untersuchungsgebiets, einschließlich der vorgelagerten Inseln, kontinuierlich Rücklaufwasserstände geschätzt, die für die Gestaltung der Küsteninfrastruktur geeignet sind. Eine ähnliche Methodik kann in anderen Regionen der Welt angewendet werden, in denen die Beobachtungen des Gezeitenpegels spärlich sind.;-;-;-;https://link.springer.com/article/10.1007/s10236-015-0814-1 c6e9d810df26ae716aa8a2912e06c313;de;;;1.2.;;;Regionale raumzeitliche Variationen eines Nichtdipol-Magnetfelds über dem chinesischen Festland und angrenzenden Regionen im Jahrtausend-Maßstab Raumzeitliche Variationen des Nichtdipol-(ND)-Magnetfelds über dem chinesischen Festland und benachbarten Regionen von 10000 v. Chr. bis 1990 n. Chr. wurden mit den neuesten globalen geomagnetischen Modellen CALS10K.1b, CALS3K.4 und IGRF11 analysiert. Darüber hinaus untersuchten wir für Feldquellen 2;-;-;-;https://link.springer.com/article/10.1007/s11770-017-0622-0 7ef9dc53c33f1762d09b559c5941343d;de;;;1.2.;;;Auswirkungen zukünftiger Landnutzungsänderungen auf das regionale Klima in China Landnutzung und Landbedeckungsänderung (LUCC) ist einer der wichtigsten menschlichen Einflussfaktoren auf das Klima. Es ist jedoch schwierig, aus den Auswirkungen früherer LUCC auf das regionale Klima in der Vergangenheit abzuleiten, wie sich LUCC in Zukunft auf das Klima auswirken wird. Auf Grundlage der vom Coupled Model Intercomparison Project Phase 5 (CMIP5) empfohlenen Landbedeckungsdaten wurde daher ein regionales Klimamodell (RegCM4) verwendet, um die Klimaeffekte zukünftiger Landnutzungsänderungen über China zu untersuchen. Es wurden zwei 15-Jahres-Simulationen (2036–2050) durchgeführt, eine mit den aktuellen Landnutzungsdaten und die andere mit dem zukünftigen Landbedeckungsszenario (2050). Es sei darauf hingewiesen, dass das zukünftige LUCC in China hauptsächlich durch den Übergang vom Grasland zum Wald gekennzeichnet ist. Die Ergebnisse deuten darauf hin, dass die Größenordnungen und Spannweiten der durch zukünftige LUCC verursachten Temperatur- und Niederschlagsänderungen eine offensichtliche Saisonalität aufweisen, die im Sommer und Herbst stärker ausgeprägt ist. Eine signifikante Reaktion des Klimas auf zukünftige LUCC findet hauptsächlich in Nordostchina, Nordchina, dem Hetao-Gebiet, dem östlichen Qinghai-Tibetischen Plateau und Südchina statt. Weitere Untersuchungen zeigen, dass zukünftige LUCC auch erhebliche Auswirkungen auf die atmosphärische Zirkulation haben können. LUCC führt über weite Gebiete von der indischen Halbinsel bis zu den Küsten des Südchinesischen Meeres und Südchinas durch den Golf von Bengalen zu ungewöhnlichem Südwestwind. Darüber hinaus werden sowohl der tropische Südwestmonsun in Indien als auch der Südwestmonsun der Südsee stark sein, und die abnormale Wasserdampfkonvergenz aus dem Südchinesischen Meer und dem Indischen Ozean wird zu mehr Niederschlag in Südchina führen.;-;-;-;https://link.springer.com/article/10.1007/s11430-015-5082-x 34cdbe4f6c23fbdbd7d195d6a97d890e;de;;;1.2.;;;Armuts- und Vermittlungsergebnisse von Intensiven Familienerhaltungsdiensten Es wird argumentiert, dass Intensive Family Preservation Services (IFPS) die Unterbringung von Kindern oft nicht verhindern können, da Familienarmut die langfristige Wirksamkeit der Interventionen behindert. Die aktuelle Forschung wird untersucht, um zu zeigen, dass Familien mit niedrigerem sozioökonomischem Status höhere Raten von Ersatzpflegeplätzen aufweisen und dass viele IFPS-Familien nicht über das gemeinhin als notwendig angenommene Mindesteinkommen verfügen, um erfolgreiche therapeutische Interventionen zu ermöglichen. Die Forschung zeigt auch, dass Armut zu Kindesmissbrauch und -vernachlässigung, zu psychischen Gesundheitsproblemen und zur Jugendkriminalität beiträgt, was dazu führt, dass arme Kinder in den drei Kindersystemen überproportional vertreten sind. Bis die Familienarmut deutlich reduziert ist, wird die IFPS für einen beträchtlichen Teil ihrer Klientel weiterhin enttäuschende Ergebnisse erzielen.;-;-;-;https://link.springer.com/article/10.1007/BF01876586 292451504ef86b02372bc6210d356e43;de;;;1.2.;;;Segmentieren von Bildern mit lokalisierten Histogrammen und Zusammenführen von Regionen Es wird ein funktionierendes System zum Segmentieren von Bildern komplexer Szenen vorgestellt. Das System integriert Techniken, die sich aus langjähriger Forschung zur Low-Level-Bildsegmentierung an der University of Massachusetts und anderswo entwickelt haben. Dieses Papier dokumentiert das Ergebnis dieser historischen Entwicklung. Durch das System erzeugte Segmentierungen werden in der verwandten Bildinterpretationsforschung umfassend verwendet.;-;-;-;https://link.springer.com/article/10.1007/BF00158168 e5acaa805f20d2ba7dbe33cca0d38e70;de;;;1.2.;;;Finite-Elemente-Analyse von Fluidströmungen mit bewegter Grenze Ziel der vorliegenden Studie ist es, die Fluidströmung mit bewegter Grenze mit einer Finite-Elemente-Methode zu analysieren. Der Algorithmus verwendet einen Bruchteilschritt-Ansatz, der verwendet werden kann, um Strömungen mit niedriger Geschwindigkeit mit großen Dichteänderungen aufgrund intensiver Temperaturgradienten zu lösen. Das explizite Lax-Wendroff-Schema wird auf nichtlineare konvektive Terme in den Impulsgleichungen angewendet, um Druckschwingungen im Schachbrettmuster zu verhindern. Für bewegte Gitter wird das ALE-Verfahren (Arbitrary Lagrangeian Eulerian) verwendet. Der numerische Algorithmus in der vorliegenden Studie wird für zweidimensionale instationäre Strömungen in einem angetriebenen Hohlraum und ein natürliches Konvektionsproblem validiert. Um das vorliegende numerische Verfahren auf Motorsimulationen auszudehnen, wird auch eine kolbengetriebene Ansaugströmung mit bewegter Grenze simuliert. Die Dichte-, Temperatur- und Axialgeschwindigkeitsprofile werden für die dreidimensionale instationäre kolbengetriebene Einlassströmung mit Dichteänderungen aufgrund hoher Einlassfluidtemperaturen unter Verwendung des vorliegenden Algorithmus berechnet. Die berechneten Ergebnisse stimmen gut mit anderen numerischen und experimentellen Ergebnissen überein.;-;-;-;https://link.springer.com/article/10.1007/BF03184818 8da7b1eb61796b707af219d4fafedf18;de;;;1.2.;;;Sexuell übertragbare Krankheiten bei Kindern Im Jahr 1916 wurden im Vereinigten Königreich die Geschlechtskrankheiten Syphilis, Gonorrhoe und Chancroid definiert, aber heute sind 26 Krankheitserreger bekannt, die zu sexuell übertragbaren Krankheiten (STD) führen (Tabelle 25.1). Das Karzinom des Gebärmutterhalses wird mit dem Herpes-Simplex-Virus (HSV) und dem Humanen Papillomavirus (HPV) in Verbindung gebracht und wird von einigen als Geschlechtskrankheit angesehen. Die zunehmende Zahl von Infektionen, die jetzt bekanntermaßen sexuell übertragbar sind und auch auf anderen Wegen, beispielsweise Darminfektionen, übertragen werden, spiegelt die zunehmende Vielfalt der sexuellen Aktivität wider.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-3528-6_25 87b0218c9d11574c135f359996f26ec1;de;;;1.2.;;;„Anchor-Line“-Abdominoplastik bei der postbariatrischen Bauchkonturierung Die „Ankerlinien“-Abdominoplastik schließt die medianen oder paramedianen supraumbilikalen Narben (entweder vertikal oder kurze horizontale) in die Resektion ein und impliziert eine ausgedehnte Exzision der Bauchdecke, indem vertikale und horizontale Muster kombiniert werden. Eine endgültige Narbe mit einer „Ankerlinien“-Form wird erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-20004-0_13 308e81ded804a633749a48dec5c95a82;de;;;1.2.;;;AIDS und andere immungeschwächte Staaten Veränderungen der Abwehrmechanismen des Wirts, die für eine Infektion prädisponieren, können grob in drei Hauptkategorien eingeteilt werden: Anomalien der zellvermittelten Immunität (T-Lymphozyten und Makrophagen), Anomalien der humoralen Immunität (Immunglobuline) und abnormale Neutrophile. Derzeit ist die häufigste Ursache für Anomalien im zellvermittelten Arm der Immunität das erworbene Immunschwächesyndrom (AIDS). Transplantation und Mangelernährung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-9698-7_20 baee56170d353b655d9f670a7a3215e0;de;;;1.2.;;;CDH bei der Geburt und in den ersten zehn Lebensmonaten: Diagnose und Management Obwohl mehr als zweitausend Jahre vergangen sind, seit Hippokrates (460–370 v . Handelt es sich um eine pränatale angeborene Fehlbildung, die bei der Geburt in unterschiedlichem Ausmaß vorhanden ist, oder handelt es sich ausschließlich um eine postnatale erworbene Fehlstellung?;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-1369-0_5 9d0e0bee2d2142d13652a3350d48bf4a;de;;;1.2.;;;Verständnis und Management der Schwangerschaft bei Frauen mit Diabetes mellitus Die Frau mit abnormalem Kohlenhydratstoffwechsel hat eine lange Geschichte von Problemen mit der Fortpflanzung. Vor der Einführung des Insulins würde sie selten bis zur Pubertät leben, und wenn doch, führte ihre schlecht eingestellte Hyperglykämie in der Regel zu Amenorrhoe und Unfruchtbarkeit. Erfolgreiche Schwangerschaften waren damals sehr ungewöhnlich. 1924 berichtete Graham über die erste erfolgreiche Schwangerschaft bei einem insulinbehandelten Diabetiker.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2157-6_27 981bd10eae1cd9a29570439a0888f660;de;;;1.2.;;;Glykationsforschung in Aminosäuren: ein Ort, an dem man Zuhause sein kann Dies ist eine Einführung in eine Sammlung von Übersichtsartikeln führender Forscher auf dem Gebiet der Proteinglykationsforschung, siehe folgende Artikel in dieser Ausgabe. Damit starten wir einen Abschnitt dieser Zeitschrift, der jetzt für die Präsentation von Forschungsergebnissen, Übersichten und Kommentaren zur Proteinglykation und verwandten Themen eingerichtet wurde. Glykation ist die spontane, nicht-enzymatische Reaktion von Protein mit Sacchariden und Saccharid-Derivaten. Obwohl in der modernen wissenschaftlichen Ära seit über 100 Jahren untersucht, bleibt seine Bedeutung in Biologie, Medizin, Lebensmittel und Ernährung, Pharmakologie und Toxikologie sowie technologischer Verarbeitung faszinierend unbekannt. In diesem Abschnitt über Aminosäuren ist die Forschung zur Glykation ein Qualifikationsmerkmal für die Veröffentlichung. Die Glykationsforschung hat jetzt einen Ort, den sie zu Hause nennen kann.;-;-;-;https://link.springer.com/article/10.1007/s00726-010-0782-1 d4750ef6aabc5ddb8f6762447eea0131;de;;;1.2.;;;Management venöser Ulzerationen: Exzision, Hauttransplantation und mikrochirurgische Lappen Eine Behandlung mit Beinhochlagerung, Kompressionsbandagierung und lokaler Wundversorgung ist bei der Heilung der meisten venösen Ulzera erfolgreich. Das Scheitern eines venösen Ulkus mit angemessener Wundversorgung oder ein Rezidiv trotz dieser Maßnahmen stellt den Arzt vor eine Herausforderung, bei der mehrere Faktoren berücksichtigt werden müssen, um einen langfristigen Wundverschluss zu erreichen. Die meisten chirurgischen Eingriffe zur Behandlung refraktärer venöser Ulzerationen waren auf die Korrektur der zugrunde liegenden venösen Hypertonie gerichtet, wobei angenommen wurde, dass dies zu einer Auflösung des Ulkus führen würde. Selbst bei erfolgreicher Kontrolle der venösen Hypertonie in der Extremität kann jedoch eine chronisch vernarbte Wunde mit eingeschränkter Heilungsfähigkeit verbleiben und eine chirurgische Rekonstruktion erforderlich machen. Daher ist der Ansatz zur Rekonstruktion des Gewebedefekts bei chronisch venösen Ulzerationen Gegenstand dieses Kapitels.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0473-5_13 cbf91b43ade77e13d2ffefc3ac6a070a;de;;;1.2.;;;Auswirkungen von Spannungen auf die magnetischen Eigenschaften von Stählen Wie in früheren Arbeiten [1] beschrieben, wirkt eine angelegte einachsige Spannung σ in gewisser Hinsicht wie ein angelegtes Magnetfeld, das durch die Magnetostriktion λ wirkt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5947-4_227 7798abdefa7924128232151319f061bf;de;;;1.2.;;;Ein Service-Mining-Ansatz zur Zeitschätzung von Composite Web Services Die Reaktionszeit des Webservice ist eines der wichtigsten Merkmale von SOA-basierten Anwendungen. Dieses Papier schlägt eine Zeitschätzungsmethode für zusammengesetzte Webdienste vor, die auf dem Mining historischer Ausführungsinformationen von Webdiensten in der dynamischen Umgebung basiert. Zuerst gibt es Rahmen und Format für die Dienstprotokollsammlung an, und dann analysiert es die Extrahierungsdienstausführungszeit und Netzübertragungszeit und konstruiert ein Dienstnetz basierend auf der Dienstverhaltensinteraktion. Zweitens stellt das Papier die Methode zur Vorhersage der Ausführungszeit zusammengesetzter Dienste vor und liefert auch das Maß für die Umgebungsverfügbarkeit und Zeitverfügbarkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23223-7_63 1b705f456cbf1be71966c2ce5c824f4b;de;;;1.2.;;;Keyword-Extraktion und Strukturierung medizinischer Gutachten In den letzten Jahren akzeptieren Patienten aufgrund des rasanten Fortschritts in der Medizintechnik in der Regel genauere und detailliertere Untersuchungen. Viele der Untersuchungsberichte werden nicht in numerischen Daten, sondern in Textdokumenten dargestellt, die von den Vertrauensärzten auf der Grundlage der Beobachtungen der Instrumente und biochemischen Tests erstellt wurden. Wenn die oben genannten unstrukturierten Daten als Bericht in strukturierter Form organisiert werden können, hilft es Ärzten, den Status eines Patienten bei den verschiedenen Untersuchungen effizienter zu verstehen. Außerdem kann eine weitere Assoziationsanalyse der strukturierten Daten durchgeführt werden, um potenzielle Faktoren zu identifizieren, die eine Krankheit beeinflussen.;-;-;-;https://link.springer.com/article/10.1007/s13755-020-00108-6 655a6dbd2c50817e4a3400ab7877286b;de;;;1.2.;;;Über die kolkhische Vegetation Dieser Artikel gibt einen kurzen Überblick über die kolhkische Vegetation, die sehr reich an Relikten und Endemiten ist. Die allgemeine Verbreitung und die aktuellen ökologischen Bedingungen der Vegetation werden vorgestellt, wobei der Schwerpunkt auf immergrünen kolkhischen Relikten liegt. Neben diesen zusammengefassten Daten für natürliche und eingeschleppte Vegetation wird der Bezug zum globalen Klimawandel angegeben. Die gegenwärtigen Naturschutzaktivitäten sowie Perspektiven zum Erhalt dieser einzigartigen Vegetation werden im Lichte der Einrichtung eines neuen Schutzgebietssystems in Georgien diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-8722-9_11 2588013207e2a048ae67eee227626d04;de;;;1.2.;;;Zu den physikalischen Eigenschaften und möglichen Rollen von intrazellulärem Wasser Verglichen mit unserem derzeitigen Verständnis der Eigenschaften und Rollen von zellulären Makromolekülen wissen wir sehr wenig über Wasser – das am häufigsten vorkommende und am weitesten verbreitete Molekül in Zellen. Es ist unausweichlich, dass Wasser direkt oder indirekt an allen Formen der Stoffwechselorganisation beteiligt sein muss. Denn es ist ein unverzichtbarer Bestandteil praktisch aller Makromoleküle, ein Substrat oder Produkt vieler Stoffwechselreaktionen und bietet offensichtlich ein dielektrisches Kontinuum für Diffusion und andere Translokationsprozesse. Darüber hinaus können wir erwarten, dass die wässrigen Phasen von Zellen eine wichtige Rolle bei den hydrophoben Wechselwirkungen spielen, die an Zusammenbauprozessen beteiligt sind, wie Enzym-Enzym- und Enzym-Zytomatrix-Assoziationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-5311-9_5 5232370bf41cbc65de93e2aa4e3a8c09;de;;;1.2.;;;Kapitel 2: Die Monarchie heiraten: Die Krönung der Königin Während die Ehe die Königin machte, begründete lange Zeit nur eine Zeremonie ihre Macht wirklich: die Krönung. Die Herrscherin, die nicht mit dem Heiligen Chrisam geweiht war, hatte nicht die gleiche wundersame Kraft wie ihr Ehemann (die Fähigkeit, Skrofulose zu heilen). Ihre Salbung verlieh ihr dennoch einen außergewöhnlichen, fast priesterlichen Status – zumindest für die Dauer der Zeremonie. Sie war die einzige Frau, die beide Arten der Kommunion nahm, den Leib und das Blut Christi, ein Ritus, der sonst im Moment seiner Krönung den Priestern und dem König vorbehalten war. Im 15. Jahrhundert erschien die Krönung jedoch weniger wichtig im Licht einer neuen Vision der Rolle der Königin als Trägerin des „Bluts Frankreichs“.;-;-;-;https://link.springer.com/chapter/10.1057/978-1-349-93028-9_3 1cebb591811d32f608db7efca8b13381;de;;;1.2.;;;Kriechen von Rockfill In der Geotechnik ist die zeitabhängige Setzung normalerweise mit dem Konsolidierungsprozess verbunden. Dabei wird das Setzungsverhalten durch die Geschwindigkeit bestimmt, mit der Wasser unter einem hydraulischen Gradienten aus den Hohlräumen fließen kann, wodurch die Partikel in eine kompaktere Anordnung gleiten können.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-3206-0_9 c9cfedb7dbc16067e2da564fcaf97428;de;;;1.3.;;;"Bewegungskrankheit Reisekrankheit wird bei der passiven Fortbewegung in Fahrzeugen induziert und entsteht entweder durch ungewohnte körperliche Beschleunigungen, an die sich die Person daher nicht angepasst hat, oder durch intersensorische Mismatches mit widersprüchlichen vestibulären und visuellen Reizen (Dichgans und Brandt 1973, 1978, Benson 1977, Reason 1978) , Brandt und Daroff 1980). Laut """;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-3342-1_25 e480bf6339fd897eb7d82120f8f23c7e;de;;;1.2.;;;Mehrschrittmethoden und allgemeine lineare Methoden Dieses Kapitel ist dem Studium von Mehrschritt- und allgemeinen Mehrwertmethoden gewidmet. Nach Rückverfolgung ihrer historischen Entwicklung (Adams, Nyström, Milne, BDF) untersuchen wir in den folgenden Abschnitten die Ordnungs-, Stabilitäts- und Konvergenzeigenschaften dieser Methoden. Konvergenz wird am elegantesten im Rahmen von Einschrittverfahren in höheren Dimensionen eingestellt. Die Abschnitte III.5 und III.6 widmen sich der variablen Schrittweite und Nordsieck-Methoden. Anschließend diskutieren wir die verschiedenen verfügbaren Codes und vergleichen sie an den Zahlenbeispielen aus Abschnitt II.10 sowie an einigen Gleichungen hoher Dimension. Bevor das Kapitel mit einem Abschnitt über spezielle Methoden für Gleichungen zweiter Ordnung abgeschlossen wird, diskutieren wir zwei hochtheoretische Themen: eines zu allgemeinen linearen Methoden, einschließlich Runge-Kutta-Methoden sowie Mehrschrittverfahren und vielen Verallgemeinerungen, und das andere zur asymptotischen Entwicklung von der globale Fehler solcher Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-12607-3_3 db627d2d10f624f81a24ef46589aacb1;de;;;1.2.;;;Extrakorporale und Peritonealdialyse von Arzneimitteln Die Dialyse von Medikamenten und Umweltgiften ist kein Ausscheidungsweg, der dem Pharmakologen, der es gewohnt ist, mit Problemen der Resorption, des Stoffwechsels, der Verteilung und der Ausscheidung umzugehen, schnell einfällt. Die Dialyse hat uns in den letzten Jahren jedoch nicht nur wesentliche Einblicke in einige Probleme des Medikamententransports und der Medikamentenverteilung gegeben, sondern sie hat sich auch als wirksame klinische Behandlung bei Überdosierung häufig eingesetzter Medikamente und zur schnellen Entfernung erwiesen einiger Umweltgifte. Nephrologen konnten sich mit der Kinetik einer akuten und chronischen Medikamentenüberdosierung vertraut machen, da das urämische Syndrom selbst viele Merkmale einer Intoxikation oder Vergiftung aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-65052-9_21 6393d7dd99f01c85ea6c20d130c949cb;de;;;1.2.;;;Beibehalten des Schlüssels in der XML-Datentransformation Die Transformation von XML-Daten ist eine wichtige Aufgabe im Datenaustausch, Data Publishing und Datenintegration. Speziell bei der Datenintegration werden Daten in XML-Quellen so transformiert, dass sie dem Zielschema entsprechen. Für einige dieser Quellen sind XML-Schlüssel definiert. Bei der Transformation der Daten müssen auch die Schlüssel für Constraint-Vergleiche, Konsistenzprüfung und Vereinheitlichung im Zielschema transformiert werden. Wie die Schlüssel transformiert werden und ob die transformierten Schlüssel gültig sind und im Zielschema beibehalten werden, sind daher wichtige Probleme bei der XML-Datentransformation und -integration. Um dieses Problem zu lösen, definieren wir zunächst XML-Schlüssel und deren Erfüllungen. Anschließend untersuchen wir, wie Schlüssel transformiert werden und ob transformierte Schlüssel gültig sind, wenn ein Quellschema in ein Zielschema transformiert wird. Schließlich zeigen wir, ob die transformierten Schlüssel vom transformierten Dokument erfüllt werden.;-;-;-;https://link.springer.com/article/10.1007/s00236-009-0101-z b46c9dd3dffc2fc40902610e8d644b0d;de;;;1.2.;;;Mg-Mangel – ein „neues“ Phänomen im Waldsterben – Symptome und Auswirkungen, Ursachen, Erholung Die sogenannten neuen Waldschäden (vgl. Hüttl 1991) werden mehr oder weniger häufig mit Ernährungsstörungen in Verbindung gebracht. Neben akuten Nährstoffmängeln treten auch Nährstoffungleichgewichte auf, die schließlich zum Rückgang/Absterben oder sogar zum vollständigen Absterben betroffener Bäume oder Baumgruppen führen. Im Allgemeinen sind diese Symptome bekannt. Mindestens eines dieser Schadenssymptome, nämlich Mg-Mangel, findet sich heute jedoch in Beständen und auf Standorten, für die es bisher noch nicht beschrieben wurde (Abb. 1). Der „neue“ Charakter dieses Niedergangstyps wurde durch historische Blattanalysevergleiche bestätigt (vgl. Hüttl 1991). Darüber hinaus wurde in vielen Studien ein bemerkenswerter Zusammenhang zwischen der Mg-Versorgung des Bodens und der Mg-Ernährung von Bäumen/Beständen nachgewiesen, die darauf hindeuten, dass Mg-Mangelbäume nur auf Böden mit unzureichender Mg-Verfügbarkeit vorkommen (z. B. Zoettl und Hüttl 1986).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-76995-5_7 8957d1b0cbda38f30fbc06238d43d98c;de;;;1.2.;;;Ursachen der sich ändernden Ungleichheit in der Welt Um eine Theorie aufzustellen, die die Ungleichheit erklärt und in vielen Ländern allgemein angewendet wird, brauchen wir länder- und zeitübergreifende Messungen der Ungleichheit, die einigermaßen umfassend und einigermaßen zuverlässig sind – und das ist eine große Herausforderung. In den meisten Ländern der Welt verringert Wachstum heute die Ungleichheit, und reiche Länder sind egalitärer als arme. Es gibt jedoch Ausnahmen. Während die globalen Finanzkräfte und die sich ändernden Finanzbedingungen eine starke Rolle bei der wirtschaftlichen Ungleichheit gespielt haben, scheint es keinen einzigen dauerhaften Trend zur Ungleichheit zu geben.;-;-;-;https://link.springer.com/article/10.1007/s10272-016-0577-z 930b8985d9c21d5228c2ecb76cc30c40;de;;;1.2.;;;Die Rolle von Waldfragmenten, Bodentypen und dominanten Arten in der Sekundärsukzession im westlichen Karpatenvorland Untersucht wurden vier siebzig Jahre alte Laubwälder neben drei Altwaldfragmenten, die insgesamt eine Fläche von 27,5 ha bedeckten. Zwei der neueren Wälder wurden auf natürliche Weise angelegt und zwei wurden gepflanzt. Die alten Wälder, darunter Eichen-Hainbuchen- und Eichen-Kiefern-Wälder, waren die einzige nahe Quelle von Diasporen von Waldarten. Die rezenten Wälder unterschieden sich in Fläche, Lage, Bodenreichtum und Lichtverhältnissen. Auf der Grundlage der Daten von 236 systematisch lokalisierten Parzellen wurden die Ähnlichkeiten und Unterschiede in der Bodenvegetation zwischen den alten und den jüngeren Wäldern mittels Detrended Korrespondenzanalyse (DCA) untersucht. Auch nach 70 Jahren Erholung der Waldvegetation wurden in den rezenten Wäldern Unterschiede in der Vegetation der untersuchten Wälder festgestellt. Die Richtung der Sekundärsukzession wurde stark von den Bodenverhältnissen bestimmt. Ältere Wälder zeigten eine höhere Beta-Diversität. Die Ursachen der Konvergenz und Divergenz in der Zusammensetzung der Gemeinschaften wurden analysiert und diskutiert. Die größte Ähnlichkeit wurde zwischen jungen und angrenzenden alten Wäldern gefunden, die auf reichen braunen Böden wachsen. Die größte Divergenz wurde in den jüngeren Wäldern beobachtet, die auf kargen und lichtdurchlässigeren Böden wachsen, wo die sehr große Dichte von;-;-;-;https://link.springer.com/article/10.1007/BF00040334 10016d2c63852875ac35484af68521b3;de;;;1.2.;;;Muster der Raumnutzung in einer Gilde der territorialen Rifffische Am Heron Reef, am südlichen Ende des Great Barrier Reef, existiert eine 8-Arten-Gilde von ökologisch sehr ähnlichen, territorialen, pflanzenfressenden Rifffischen. Alle Individuen dieser Arten halten während des gesamten Jugend- und Erwachsenenlebens Territorien auf Schuttsubstraten. Territorien werden von allen anderen Gildenmitgliedern verteidigt. Drei Trümmerfelder, die jeweils Bewohner von 3 Gildenarten enthalten:;-;-;-;https://link.springer.com/article/10.1007/BF00395530 5af899cb8b38e64139f5ea64aa8d9aa9;de;;;1.2.;;;Ein Greedy-Algorithmus zur Ansichtsempfehlung für die Auswahl materialisierter Ansichten View Die Ansichtsauswahl ist eines der Hauptprobleme bei der Ansichtsmaterialisierung. In der Literatur existieren mehrere Algorithmen zur Ansichtsauswahl, die meisten davon basieren auf Gier. Die gierigen Algorithmen wählen in jeder Iteration die günstigste Ansicht für die Materialisierung aus. Die meisten dieser Algorithmen konzentrieren sich auf den Algorithmus HRUA. HRUA weist eine hohe Laufzeitkomplexität auf. Dadurch wird es unmöglich, Ansichten für höhere Dimensionen auszuwählen. Dieses Skalierbarkeitsproblem wird durch den in diesem Beitrag vorgeschlagenen Greedy-Algorithmus VRGA angegangen. Im Gegensatz zu HRUA wählt VRGA Ansichten aus einem kleineren Suchraum aus, der aus empfohlenen Ansichten besteht, anstatt aus allen Ansichten im Gitter. Dies ermöglicht es VRGA, Ansichten effizient für höherdimensionale Datensätze auszuwählen. Darüber hinaus zeigen experimentelle Ergebnisse, dass VRGA im Vergleich zu HRUA deutlich weniger Nutzenberechnungen, Sichtauswertungszeit und Speicher erfordert. Alternativ hat HRUA in Bezug auf die Gesamtkosten für die Bewertung aller Ansichten einen leichten Vorteil gegenüber VRGA.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19423-8_7 e145b09977d3981d85d61e2385642f1e;de;;;1.2.;;;Strukturelle Merkmale des zentralen Depressionsgürtels im Tiefwassergebiet des Qiongdongnan-Beckens und die Kohlenwasserstoff-Entdeckung von Songnan Low Bulge Das Qiongdongnan-Becken verfügt über das erste proprietäre Hochertragsgasfeld in Tiefseegebieten Chinas und erzielt bedeutende Durchbrüche bei der Öl- und Gasexploration. Der zentrale Depressionsgürtel des Tiefwassergebiets im Qiongdongnan-Becken besteht aus fünf Durchhängen, d. h. Ledong Sag, Lingshui Sag, Songnan Sag, Baodao Sag und Changchang Sag. Es ist ein känozoisches Erweiterungsbecken mit dem Grundgebirge des Präpaläogen als Ganzes. Die strukturelle Forschung im zentralen Depressionsgürtel des Tiefwassergebiets im Qiongdongnan-Becken hat eine wichtige Bedeutung bei der Lösung der grundlegenden geologischen Probleme und der Verbesserung der Exploration von Öl und Gas in diesem Becken. Die seismische Interpretation und Strukturanalyse in diesem Artikel wurde mit der 3D-Seismik von etwa 1,5×10 . durchgeführt;-;-;-;https://link.springer.com/article/10.1007/s13131-021-1753-y c5148c4457449ddd7a3fa577ad7c87c7;de;;;1.2.;;;Eruptivaktivität Die prävariskanische Eruptivaktivität in den Westsudeten wird hauptsächlich als (1) koexistierende Orthogneise und Granite innerhalb mittel- und hochgradiger metamorpher Komplexe und (2) basische und bimodale vulkanische Reihen innerhalb schlecht datierter? innerhalb weniger metamorphosierter und besser dokumentierter paläozoischer Sukzessionen (vgl. Abb. 1 in Kap. VI.A). Derzeit ist es schwierig, Informationen aus verschiedenen Teilen des sudetischen Mosaiks in ein Modell des prävariszischen Magmatismus für diese Region zu integrieren. Es kann zu großräumigen seitlichen Verschiebungen gekommen sein, so dass verschiedene Elemente des Mosaiks eine signifikant unterschiedliche Geschichte haben (Don 1990).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-77518-5_33 cc1c35ab80dbdee95a0b06bd9427e320;de;;;1.2.;;;Wo ist die Heimat des schweren Moleküls in Sgr B2? Wir geben einen Überblick über die frühe Geschichte der molekularen Radionachweise und zeigen, wie die Sgr B2-Region als wichtige molekulare Quelle erkannt wurde. Wir zeigen die Nützlichkeit von Millimeterarray-Karten zur Unterscheidung der verschiedenen chemischen Prozesse in den verschiedenen Regionen von Sgr B2. Wir vermuten, dass die unterschiedlichen chemischen Prozesse Indikatoren für verschiedene evolutionäre Zustände in den Sgr B2-Wolken sein könnten, was erklären könnte, warum wir Sgr B2(N) als das schwere Molekülheimat gefunden haben.;-;-;-;https://link.springer.com/chapter/10.1007/3540586210_13 4af48d5df0d4b5477de5569b23bf4924;de;;;1.2.;;;Entwicklungshilfe Wie in Kapitel 4 erörtert, spielten Lastenteilungsvereinbarungen zwischen den EG-Mitgliedstaaten eine entscheidende Rolle bei der Fortsetzung der Dynamik in Richtung der wirtschaftlichen und politischen Integration. Finanztransfers spielten auch eine wichtige Rolle als Reaktion auf ein zweites Schlüsselelement des internationalen Systems nach 1945: die Auflösung der europäischen Imperien und die konsequente Schaffung einer großen Zahl neuer Staaten in der „Entwicklungswelt“. Obwohl sie rechtlich unabhängig sind, blieben die meisten neuen Staaten arm und verwundbar, und es fehlten an Infrastruktur und Fähigkeiten der Industriegesellschaften. Viele sind seither auf Überseeische Entwicklungshilfe (ODA) angewiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-333-97740-8_5 1d6df7879d5c5a211648e632ab96c642;de;;;1.2.;;;Ein kostengünstiges, MR-kompatibles Olfaktometer Wir präsentieren ein für fMRI-Experimente geeignetes Design für ein Olfaktometer, das mit extrem geringen Kosten konstruiert werden kann. Das Olfaktometer führt Gerüche über eine Nasenkanüle mit unauffällig niedrigen Strömungsgeschwindigkeiten direkt in die Nase ein, ohne dass große Baugruppen am oder in der Nähe des Gesichts der Person erforderlich sind. Das Olfaktometer kann manuell oder per Computer über eine serielle Schnittstelle gesteuert werden. Eine Validierungsstudie bestätigte, dass das Olfaktometer den Testpersonen zuverlässig Gerüche präsentiert. Fehler und Antwortlatenzzeiten verringerten sich wie erwartet mit zunehmender Flussrate auf geordnete Weise.;-;-;-;https://link.springer.com/article/10.3758/BF03192782 9d4c7822d026afad24be793c57f574a5;de;;;1.2.;;;Helden, Heldenverehrer und Juden: Musikmeister, Sklaven und Diener in Thomas Carlyle, Richard Wagner, George Eliot und George Du Maurier In seinem Essay „The Opera“ (1852) argumentiert Carlyle, dass der ideale Musikmeister eine Art „Priester“ ist, der „ein Freund der Götter und erlesenster Wohltäter des Menschen“ ist (O, 398, 397). Der Musiker ist auf einer Ebene mit den „Göttern“;-;-;-;https://link.springer.com/chapter/10.1057/9780230554733_5 658adffb124dca74fac3eef008121626;de;;;1.2.;;;Generalisierungsoperatoren Dieses Kapitel fasst kartografische Generalisierungsoperatoren zusammen, die zur Generalisierung von Geodaten verwendet werden. Es enthält einen Überblick über aktuelle Ansätze, die getestet oder implementiert wurden, um Netzwerke, Punkte oder Gruppen zu verallgemeinern. Der Schwerpunkt liegt auf jüngsten Fortschritten, die zusätzliche Flexibilität für die Anpassung der Generalisierungsverarbeitung in bestimmten geografischen Kontexten und erweiterte Arten der Argumentation über räumliche Konflikte, die Erhaltung spezifischer Merkmalsmerkmale und lokale Variationen in Geometrie, Inhalt und angereicherter Attribution ermöglichen. Anstatt eine erschöpfende Übersicht über die Generalisierungsoperatoren zu geben, widmet das Kapitel den Operatoren, die mit der Netzgeneralisierung verbunden sind, mehr Aufmerksamkeit, was die Logik hinter den Entwicklungen der Kartengeneralisierung gut veranschaulicht. Drei Fallstudien demonstrieren die Anwendung von Betreibern bei der Straßendurchforstung, beim Beschneiden von Flussnetzen und Geflechten sowie bei der hierarchischen Punktbeseitigung. Das Kapitel schließt mit einigen zusammenfassenden Kommentaren und zukünftigen Richtungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-00203-3_6 754f3c8ec7c702f35a53550a9d5ac3db;de;;;1.3.;;;Der berufsbegleitende Weiterbildungsbedarf von Informatiklehrern und ihr Wissen über technisch-pädagogische Inhalte Diese Studie untersucht eine nationale Stichprobe von 1127 Informatiklehrern, die in der Sekundarstufe II Algorithmen und Programmierung unterrichten . Gemäß den Ergebnissen in den TPACK-Subskalen geben die Lehrkräfte an, dass ihr Wissen zwischen den Werten 4,38 (Inhaltswissen) und 3,51 (Pädagogisches Inhaltswissen) liegt. Darüber hinaus sind der gleichen Studie zufolge Lehrkräfte der Ansicht, dass sie Weiterbildung benötigen, um Technologie in ihren Unterricht zu integrieren und Algorithmen zu vermitteln, zwei Bereiche, die sich auf pädagogisches Inhaltswissen und TPACK beziehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35879-1_36 e0c67b86fe4fd081e4043f6102bedb8d;de;;;1.2.;;;Therapeutisches Medikamentenmonitoring von Antikonvulsiva Es gibt erhebliche interindividuelle Unterschiede in der Beziehung zwischen der Kontrolle der Anfälle und der Konzentration des Antikonvulsivums im Serum. Die minimal wirksame Serumkonzentration hängt von der Art und Schwere der Epilepsie ab und variiert von Patient zu Patient. Der therapeutische Bereich sollte als Anhaltspunkt für die Anpassung der Dosis verwendet werden, um die Kontrolle der Anfälle weiter zu verbessern oder die Toxizität zu reduzieren. Letzteres ist bei höheren Serumkonzentrationen wahrscheinlicher, kann aber auch bei niedrigen Konzentrationen vorhanden sein. Eine Abfrage der Serumkonzentration eines Antikonvulsivums sollte nur aus triftigen klinischen Gründen erfolgen, und eine Interpretation dieser Konzentration kann nur erfolgen, wenn alle relevanten klinischen Daten vorliegen.;-;-;-;https://link.springer.com/article/10.2165/00003088-199018040-00004 70741c2362f5ab8da0e010c6f0d3436a;de;;;1.2.;;;Zeitaufgelöste Diagnostik von Excimer-Laser-erzeugten Ablationsplasmen für die gepulste Laserabscheidung Die Eigenschaften von Laserplasmen, die für die gepulste Laserabscheidung (PLD) von Dünnschichten verwendet werden, werden mit vier in-situ-Diagnoseverfahren untersucht: optische Emissionsspektroskopie, optische Absorptionsspektroskopie, Ionensondenstudien und Gate-ICCD (Intensified Charge Coupled Device Array) schnelle Fotografie . Diese vier Techniken sind komplementär und ermöglichen gleichzeitige Betrachtungen des Transports von Ionen, angeregten Zuständen, neutralen und Ionen im Grundzustand sowie heißen Partikeln nach KrF-Laserablation von YBCO, BN, Graphit und Si im Vakuum und Hintergrundgasen. Die Implementierung und Vorteile der vier Techniken werden zuerst beschrieben, um die Schlüsselmerkmale von Laserplasmen für die gepulste Laserabscheidung vorzustellen. Aspekte der Wechselwirkung der Ablationsfahne mit Hintergrundgasen (d. h. Thermalisierung, Dämpfung, Schockbildung) und der Kollision der Plasmafahne mit der Substratheizung werden dann zusammengefasst. Die Techniken der schnellen ICCD-Fotografie und der Gate-Photonenzählung werden dann angewendet, um die Temperatur, Geschwindigkeit und räumliche Verteilung heißer Partikel zu untersuchen, die während der KrF-Ablation von YBCO, BN, Si und Graphit erzeugt werden. Schließlich werden Schlüsselmerkmale der schnellen Bildgebung der Laserablation von Graphit in Edelgase mit hohem Druck vorgestellt, um interne reflektierte Schocks innerhalb der Plume, die Wiederablagerung von Material auf einer Oberfläche und die Bildung von heißen Nanopartikeln innerhalb der Plume aufzuklären.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-8104-2_12 95a478e703b399cd8b4c655334b4d9e1;de;;;1.2.;;;Schwerpunktverfolgung und Geschwindigkeitsmessung von weißen Blutkörperchen im Video Automatisiertes Blutzellenverfolgungssystem spielt eine entscheidende Rolle, da der Verfolgungsprozess die Blutzelleneigenschaften widerspiegelt und auf verschiedene Krankheiten hinweist. Die Verfolgung von Blutkörperchen ist aufgrund der nicht starren Formen der Blutkörperchen und der Variabilität in ihren Videos sowie der Existenz verschiedener sich bewegender Objekte im Blut eine Herausforderung. Um solche Herausforderungen zu bewältigen, haben wir einen auf grünen Sternen basierenden Zentroid (GSBC)-Tracking-Algorithmus für bewegliche weiße Blutkörperchen (WBC) vorgeschlagen, um seine Geschwindigkeit zu messen und seine Flugbahn zu zeichnen. Das vorgeschlagene Zellverfolgungssystem besteht aus zwei Stufen, nämlich WBC-Erkennung und Blob-Analyse, und Feinabstimmung des Verfolgungsprozesses durch Bestimmen des Schwerpunkts der WBC und Markieren des Schwerpunkts für eine weitere Feinverfolgung und um die Bakterien aus der Begrenzungsbox auszuschließen. Darüber hinaus werden die Geschwindigkeit und die Trajektorie der WBC-Bewegung aufgezeichnet und grafisch dargestellt. In den Experimenten wird eine optische Flusstechnik mit dem vorgeschlagenen Verfolgungssystem verglichen, was die Überlegenheit des vorgeschlagenen Systems zeigt, da das optische Flussverfahren die WBC nicht verfolgen konnte. Das vorgeschlagene System identifizierte die Leukozyten genau, während der optische Fluss alle anderen Objekte identifizierte, was dazu führte, dass die Leukozyten nicht verfolgt werden konnten.;-;-;-;https://link.springer.com/article/10.1007/s13755-018-0060-2 03320387aaed00cedce431441664773e;de;;;1.2.;;;Mesotheliome der Tunica vaginalis testis und Bruchsäcke Es werden drei histologisch und immunhistochemisch gut dokumentierte Fälle von Mesotheliom der Tunica vaginalis testis und des Bruchsacks vorgestellt. Analyse- und Follow-up-Daten unserer drei Patienten und eine Überprüfung von 30 zuvor gemeldeten Fällen haben einen unterschiedlichen und oft unvorhersehbaren klinischen Verlauf gezeigt. Basierend auf klinischen und pathologischen Befunden wird eine Einteilung in hoch- und niedriggradige maligne Tumoren vorgeschlagen.;-;-;-;https://link.springer.com/article/10.1007/BF00724916 dec230ee04dc6b62b96f8aca841c0e65;de;;;1.2.;;;Die ätherischen Öle der Burseraceae Die Angiospermen-Arten hauptsächlich tropischer, oft aromatischer Bäume und gelegentlich Sträucher mit abblätternder Rinde, die teilweise Harzgänge in der inneren Rinde enthalten, können in der Ordnung der Sapindales in der Familie der Burseraceae gefunden werden. Die bekanntesten Gattungen, die im Stamm der Bursereae vorkommen, sind;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-16546-8_4 99f54ded81acb8f2408d2c2ba002afca;de;;;1.2.;;;Ist der Arbeitsanteil in Finnland zu niedrig? Das Papier diskutiert den drastischen Rückgang des Erwerbstätigenanteils, der in Finnland in den 1990er Jahren stattfand. Dabei wird untersucht, ob das niedrige Niveau des Erwerbsanteils als neues Gleichgewichtsniveau angesehen werden kann oder ob es ein Hinweis auf ein makroökonomisches Ungleichgewicht ist. Zur Charakterisierung der Höhe des Arbeitsanteils wird das von Draper und Huizinga (2000) verwendete Konzept des ELIS (Equilibrium Labour Income Share) verwendet. Das Papier betont, dass der niedrige Erwerbsanteil ebenso wie die hohe Arbeitslosenquote ein Hinweis auf ein Ungleichgewicht ist. In den kommenden Jahren kann der Anteil daher steigen, ohne das gesamtwirtschaftliche Gleichgewicht zu gefährden.;-;-;-;https://link.springer.com/chapter/10.1007/3-7908-1598-5_11 536eedf2142a4d434607d50d1115d247;de;;;1.2.;;;Chorioretinale Läsionen bei Infektionskrankheiten von neuroophthalmischem Interesse ■ Die okuläre Toxoplasmose ist die häufigste Ursache einer posterioren Uveitis. In den meisten Fällen ist die okuläre Toxoplasmose keine Primärinfektion, sondern entspricht einer Reaktivierung von Netzhautzysten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-33679-2_12 d68e2a6e3d8a4434b391e1d8d64a8892;de;;;1.2.;;;Saturns Ringe: Pre-Cassini-Status und Missionsziele Theoretische und beobachtende Fortschritte bei Studien des Saturn-Ringsystems seit Mitte der 1980er Jahre werden überprüft, wobei der Schwerpunkt auf Fortschritte in Konfiguration und Dynamik, Zusammensetzung und Größenverteilung, Staub und Meteoroiden, Wechselwirkungen der Ringe mit dem Planeten und der Magnetosphäre sowie den Beziehungen zwischen den Ringe und verschiedene Satelliten. Die Cassini-Instrumentensuite mit der größten Relevanz für Ringstudien wird ebenfalls zusammengefasst und betont, wie die einzelnen Instrumente zusammenarbeiten könnten, um noch offene Probleme zu lösen. Die Cassini-Tour wird aus Sicht der Ringstudien beschrieben und die wichtigsten Ziele der Ringwissenschaft werden zusammengefasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-3251-2_7 1ca072618d6e6a565b721d0c6e177c6c;de;;;1.2.;;;Ausdruckskraft zeitlich relationaler Abfragesprachen und zeitliche Vollständigkeit In diesem Papier betrachten wir die Darstellung von Zeitdaten basierend auf Tupel- und Attribut-Zeitstempelung. Wir identifizieren die Anforderungen an zeitliche Daten und erarbeiten deren Implikationen. Wir führen ein temporales relationales Datenmodell ein, bei dem N1NF-Relationen mit 1-Ebene der Verschachtelung verwendet werden. Dieses Modell verwendet Attribut-Zeitstempel. Für dieses Modell werden verschachtelte relationale Tupelkalküle (TRC) und äquivalente zeitliche relationale Algebra (TRA) definiert. Wir verfolgen einen vergleichenden Ansatz zur Vollständigkeit temporaler Abfragesprachen. In dieser Richtung verwenden wir TRC als Metrik und identifizieren gemeinsame zeitliche Operationen.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0053701 840f41f375b412c592921cacefb4ecb0;de;;;1.2.;;;Lösen von quantifizierten Constraint-Erfüllungsproblemen mit Wertauswahlregeln Die Lösung eines quantifizierten Einschränkungszufriedenheitsproblems (QCSP) ist aufgrund seiner Rechenkomplexität normalerweise eine schwierige Aufgabe. Exakte Algorithmen spielen eine wichtige Rolle bei der Lösung dieses Problems, unter denen Backtrack-Algorithmen effektiv sind. Bei einem Backtrack-Algorithmus besteht ein wichtiger Schritt darin, einer Variablen einen gewählten Wert zuzuweisen, wenn eine Verzweigung ausgenutzt wird, und daher kann eine Auswahlregel für einen guten Wert stark beschleunigt werden. In diesem Beitrag schlagen wir zwei Werteauswahlregeln für existenziell bzw. universell quantifizierte Variablen vor, um unnötiges Suchen zu vermeiden. Die Regel für universell quantifizierte Variablen gilt vor dem Ausprobieren von Fehlerwerten in vorherigen Zweigen, und die Regel für existentiell quantifizierte Variablen wählt zuerst die vielversprechenden Werte aus. Im modernen QCSP-Solver sind zwei Regeln integriert, d. h. QCSP-Solve, ein exakter Löser, der auf Backtracking basiert. Wir führen eine Reihe von Experimenten durch, um die Verbesserungen unserer Regeln zu bewerten. Aus den Berechnungsergebnissen können wir schließen, dass die neuen Werteauswahlregeln den Solver im Durchschnitt um das 5-fache und höchstens um das 30-fache beschleunigen. Wir zeigen auch, dass beide Regeln besonders bei Instanzen gut funktionieren, bei denen existentiell und universell quantifizierte Variablen abwechselnd auftreten.;-;-;-;https://link.springer.com/article/10.1007/s11704-019-9179-9 3c8f9240bce8f3dc34a4d289eacc3d2d;de;;;1.3.;;;Virtuelle Simulation und multimodale Informatik für die Bildung im Bereich der öffentlichen Sicherheit Analysieren und studieren Es wird nicht nur im Ingenieurbereich verwendet, sondern auch im Nicht-Ingenieurbereich. In der Ausbildung im Bereich der öffentlichen Sicherheit, wie Schießtraining, Fahrtraining, Szenenuntersuchung und anderen Lehren, kann der Einsatz von Simulationstechnologie nicht nur die Trainingseffizienz verbessern, die Trainingszeit verkürzen, wird nicht durch Umwelt und Klima eingeschränkt, sondern auch wirkt sich hervorragend auf die Gewährleistung von Sicherheit, Kosteneinsparungen und Qualitätssteigerung aus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-74811-1_128 b986f40c1dfee487dd3f62e5e1a832aa;de;;;1.3.;;;Ein Agent, der Kindern hilft, rhetorisch strukturierte digitale Puppenpräsentationen zu erstellen Dieses Papier beschreibt ein pädagogisches Mittel, das Kindern hilft zu lernen, strukturierte Präsentationen über Erklärungen von Konzepten zu verfassen. Mithilfe einer rhetorischen Strukturtheorie-Analyse einer Quellwebseite führt der Agent pädagogische Aufgaben durch, um das Verständnis des Benutzers für rhetorische Zusammenhänge zu unterstützen, regt zum Nachdenken über die Beziehungen zwischen der Struktur des Originaltexts und der Struktur der Präsentationen an und schlägt Verbesserungsmöglichkeiten vor die Leistung des Benutzers. Nach Abschluss des Authorings werden die Präsentationen in kohärenten Strukturen organisiert, die von animierten Charakteren oder Digital Puppets in einem lehrenden Unterrichtskontext ausgeführt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-47987-2_90 1f7d0ee2191ac6248cec3e4331ed2def;de;;;1.3.;;;Was kann die institutionelle Forschung tun, um den Hochschulen zu helfen, den Arbeitskräftebedarf von Staaten und Nationen zu decken? Hochschulen werden von der Gesellschaft als Ausbildungsstätten und Torwächter für Hochschulabsolventen angesehen. Trotz ihrer langen Geschichte, in der sie von vielen als nicht auf den Bedarf an Arbeitskräften reagierend angesehen wurden, hat die Akademie jedoch weder Wege gefunden, diese Anforderungen effektiv zu erfüllen, noch zu artikulieren, warum sie damit Schwierigkeiten haben. In diesem Papier wird erörtert, wie institutionelle Forscher Campus-Administratoren und anderen helfen können, die Rolle zu erklären, die Institutionen bei der Ausbildung von Einzelpersonen für den Arbeitsplatz spielen, und warum sie nicht immer schnell auf den Mangel an hochschulisch ausgebildeten Arbeitskräften reagieren und diesen beheben können. Der erste Abschnitt skizziert, was wirtschaftswissenschaftliche Theorie und Forschung zu den Arbeitsmärkten zu sagen haben, wie es zu Engpässen auf dem Arbeitsmarkt kommt und wie Studierende über die Studienrichtung entscheiden. Der letzte Abschnitt beschreibt die Probleme, mit denen institutionelle Forscher konfrontiert sind, wenn sie ihre Fähigkeiten mit Daten nutzen, um Lösungen für dieses Problem zu finden. Anhand von Daten aus dem Bundesstaat New Hampshire wird gezeigt, dass die Daten, die institutionellen Entscheidungsträgern zur Verfügung stehen, veraltet, ungenau und nicht besonders nützlich für die Gestaltung von Politiken sein können, die es einer Institution ermöglichen würden, auf den Arbeitskräftebedarf der Wirtschaft zu reagieren.;-;-;-;https://link.springer.com/article/10.1007/s11162-005-6935-5 1c951e0a65c37f83043bb4aa3d61de11;de;;;1.3.;;;: Auf dem Weg zu einem intelligenten Computeralgebra-System (Teaching Linear Ordinary Differential Equations) ist ein Intelligent Tutoring System (ITS), das lehrt, wie man lineare gewöhnliche Differentialgleichungen zweiter Ordnung mit konstanten Koeffizienten löst.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-47987-2_44 d82997bc56a743cdd5fe658dfdb400b2;de;;;1.2.;;;Der Biorhythmus der Spinnen Veränderungen in der Physiologie und im Verhalten lebender Organismen finden normalerweise zyklisch oder rhythmisch statt. Dies gilt für Spinnen ebenso wie für alle anderen Tiere und Pflanzen. Einige angeborene Rhythmen, wie der des Herzschlags, haben kurze Perioden. Im Gegensatz dazu wurden bei einer Reihe langlebiger Pflanzen- und Tierarten endogene oder persistente Rhythmen mit einer Periodizität von etwa einem Jahr experimentell nachgewiesen. Rhythmische Funktionen von ökologischer Bedeutung bei Tieren sind hauptsächlich dreierlei: endogene Tages-, Mond- und Jahreszeiten- oder Jahresrhythmen, photoperiodische Phänomene und das Zeitgefühl, das bei der Himmelsnavigation verwendet wird. Endogene oder „persistente“ tägliche Biorhythmen, die mit einer circadianen Periode freilaufen, sind bei Spinnen weit verbreitet. Zirkalunäre Aktivitätsrhythmen scheinen nicht viel untersucht worden zu sein, da die meisten Arten nicht lange genug leben, um endogene circannale Rhythmen zu zeigen. Obwohl diese bei Mygalomorphae und insbesondere bei Theraphosidae vorkommen können, wurde die Möglichkeit ihrer Existenz noch nicht getestet. Obwohl die Autekologie der Phänologie vieler Arten von Spinnentieren untersucht wurde, wurde bisher kein Hinweis auf eine zirka-Jahresuhr gefunden, selbst bei den langlebigsten Arten (CloudsleyThompson 1978).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-71552-5_28 4944dc4cd49a6a810f297503f2ab583f;de;;;1.2.;;;Essen und Trinken Die Franzosen nehmen Essen und Trinken sehr ernst und sprechen gerne darüber. Dies hat unter anderem zur Folge, dass die Sprache des Essens und Trinkens hoch entwickelt ist und für Ausländer sehr schwer zu verstehen sein kann. Es ist nützlich, allgemeine Begriffe wie „Fleisch“, „Fisch“ und „Gemüse“ zu lernen, damit Sie bei der Suche nach etwas fragen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-24815-5_10 cea16335aaeb0efecd827ea7d335c587;de;;;1.2.;;;Getränke und Snacks bestellen Wie Sie in dieser Einheit finden, sind viele Namen für Fast‐Food‐Snacks international. Sie werden auch einige spezifischere französische Vokabeln für Dinge lernen, die Sie bestellen möchten. Vielleicht noch wichtiger ist, dass Sie lernen, zu fragen, was Dinge sind und was verfügbar ist. Gedanken für den Tag: Erfolgreiche Transaktionen in der Fremdsprache hängen davon ab, Strategien zu entwickeln, um die begrenzte Sprache, die Sie kennen, zu verwenden, um herauszufinden, was Sie nicht wissen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-24815-5_3 0613b46a9f4c50c0050a42f07124e1fe;de;;;1.2.;;;Biologische Auswirkungen der Tensidpräsenz in Formulierungen Die Verwendung von Tensiden als Emulgatoren, Lösungsvermittler, Suspensionsstabilisatoren und als Netzmittel in Formulierungen, die zur Verabreichung an Menschen oder Tiere bestimmt sind, kann zu signifikanten Veränderungen der biologischen Aktivität des Wirkstoffs in der Formulierung führen. Ein Arzneimittel wird selten als solches verabreicht, sondern als komplexe Formulierung. In die Formulierung eingearbeitete Tensidmoleküle können ihre vielfältigen Wirkungen auf verschiedene Weise ausüben, z. B. durch Beeinflussung der Deaggregation und Auflösung fester Darreichungsformen (Abb. 7.1), durch Steuerung der Präzipitationsrate von in Lösung verabreichten Medikamenten, durch Erhöhung der Membranpermeabilität und Beeinflussung der Membranintegrität. Zwischen Tensiden und Proteinen treten komplexe Wechselwirkungen auf und somit besteht die Möglichkeit einer durch Tenside induzierten Veränderung der arzneimittelmetabolisierenden Enzymaktivität. Es wurde auch vorgeschlagen, dass Tenside die Bindung des Arzneimittels an die Rezeptorstelle beeinflussen können. Die Determinanten der Wirksamkeit von Tensiden auf die Arzneimittelabsorption sind mehrere. Medikamente, bei denen die Auflösung und nicht der Membrantransport der geschwindigkeitsbestimmende Schritt der Absorption ist, und Medikamente, bei denen letzterer der geschwindigkeitsbestimmende Schritt ist, können unterschiedlich beeinflusst werden. Wasserlösliche Arzneistoffe werden dies nicht tun und wasserunlösliche Arzneistoffe werden mit Tensidmicellen wechselwirken, so dass hohe Konzentrationen von Tensiden wahrscheinlich lipophile und hydrophobe Arzneistoffe in unterschiedlichem Ausmaß beeinflussen. Einige Tenside haben selbst eine direkte physiologische Aktivität und können daher im intakten Tier die physiologische Umgebung beeinflussen, z. indem die Magenverweilzeit so verändert wird, dass ohne physikalisch-chemischer Eingriff eine Tensidwirkung sichtbar wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-5775-6_7 6c3b2793dd138ae6599b9db23eebdbe9;de;;;1.2.;;;Die schwierigste Tür Die erste und einzige Woche, die meine irische Großmutter und meine englische Großmutter zusammen im Haus meiner Kindheit verbrachten, war Anfang des Sommers, als ich dreizehn wurde. Siebenunddreißig Jahre später erinnere ich mich daran, dass es der einzige stille Punkt meines wechselnden, wechselhaften genetischen Erbes und meiner mehrdeutigen Pflege war. ‚Mongrels‘, mein Bruder und ich nannten uns früher. Wir waren uns so bewusst, dass wir weder dem Irland unserer Mutter noch dem England unseres Vaters angehören. Wir wuchsen in Belfast auf, der Hauptstadt des Landes ohne Elternteil, Nordirland, und in einer sozialen und intellektuellen Gemeinschaft, in der man annahm, wir seien Protestanten. Wir waren tatsächlich praktizierende Katholiken. Nun, wir waren zu dritt, mein Vater war argumentativ agnostisch.;-;-;-;https://link.springer.com/chapter/10.1057/9780230374577_13 43127395863e55a11283b1c7c93ced5a;de;;;1.2.;;;Einfluss elektromagnetischer Felder auf die neurohumorale Regulation in ganzen Organismen Die Wirkung von EmFs auf die neurohumorale Regulation zeigt sich sowohl in äußerlich manifestierten Reaktionen als auch in Veränderungen in Art und Geschwindigkeit physiologischer Prozesse. Zu den ersten Wirkungsarten gehören Verhaltensänderungen bei Tieren: unbedingte Reaktionen auf die EmFs und Veränderungen von zuvor elaborierten konditionierten Reflexen, die zweite Wirkungsart umfasst Veränderungen der Funktionen verschiedener Abteilungen des Nervensystems, Störungen der humoralen Regulation, Veränderungen der Art und Geschwindigkeit biochemischer Prozesse usw.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-0635-2_8 1cd32aa93a73ec4b701d8b6f03218951;de;;;1.2.;;;Maßgeschneiderte synthetische Copolymere für die pH-kontrollierte selektive Flockung von feinsten Dispersionen von Ilmenit in Bezug auf Rutil Nach einem neuen methodischen Ansatz zu vollsynthetischen, maßgeschneiderten polymeren Flockungsmitteln für eine gegebene Mineraldispersion haben wir mehrere multifunktionelle Poolymere für die pH-kontrollierte Selektivität bezüglich Rutil hergestellt. Sie hatten die Struktur von radikalischen Vinylcopolymeren mit entweder freien oder geschützten 1,2-Brenzkatechinfunktionen und Acrylsäureeinheiten. Sie hatten auch die charakteristische Eigenschaft, ihre Wirkung von fuokkulierender zu dispergierender oder bester Erfüllung des Flockungsprozesses zu ändern. Die Neigung der Ilmenit-Partikel, sich als Ergebnis der kombinierten Wirkung der Katechol- und Carboxylfunktionen bei saurem pH zu sammeln, wird als wesentliche Voraussetzung und Vorbedingung für die Bildung von Flocken angesehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-7959-1_26 9bf6105dfc3029f3b41c5a516621084d;de;;;1.2.;;;Existenz der schwachen Lösung eines Randwertproblems. V-Elliptizität. Der Satz von Lax-Milgram Im vorangegangenen Kapitel wurde das Konzept einer schwachen Lösung eines Randwertproblems eingeführt. In diesem Kapitel wird die Existenz und Eindeutigkeit dieser schwachen Lösung unter der Annahme bewiesen, dass die Bilinearform ((;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-6450-4_35 122f9ae7c5d3be241c3c0f0c44dd6704;de;;;1.2.;;;Aufbau des Dorsalhorns Die Hauptaufgabe dieses Kapitels ist die Beschreibung der Struktur des Hinterhorns, insbesondere der Laminae I–VI von Rexed (Abb. 3.1). Das Format besteht darin, jedes der Blättchen der Reihe nach zu beschreiben, mit Zwischenspielen für Themen, die nicht streng mit der Struktur eines bestimmten Blättchens zusammenhängen. Dieses Format ist zu rechtfertigen, da fast alle neueren Studien zur Anatomie und Physiologie des Hinterhorns die Lamellen als Orientierungspunkte verwendet haben, und es wird eines der Ziele dieses Kapitels sein, zu zeigen, inwieweit die Lamellen nicht nur in Bezug auf ihre Bedeutung sinnvoll sind in Bezug auf Orientierungspunkte, sondern in Bezug auf die grundlegende Organisation des Rückenmarks. Um die Länge dieses Kapitels in einem vernünftigen Rahmen zu halten, wurden drei relativ willkürliche Abbruchpunkte gewählt. Zunächst werden nur die dorsalen sechs Blättchen betrachtet. Zweitens wird, obwohl der primäre afferente Input zu jeder der Laminae betrachtet wird, der ebenso wichtige absteigende Input nicht berücksichtigt. Drittens beschränken sich die Betrachtungen der Hinterhornstrukturen hauptsächlich auf Studien an Küken, Ratten, Katzen, Affen und Menschen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-1688-7_3 22eba600a45be180acb540fc7f7b6b7c;de;;;1.3.;;;Fehlerdiagnose für Smart Grid durch eine hybride Methode aus groben Sets und neuronalem Netz Herkömmliche Fehlerdiagnosemethoden auf Basis des Relaisschutzes sind bei mehreren verteilten Generatoren im Smart Grid nicht mehr geeignet. Um die Genauigkeit und Schnelligkeit der Fehlerdiagnose mit DG-Verbund zu verbessern, wurde eine neuartige Hybridmethode aus intuitiven Unsicherheits-Rough-Sets und einem neuronalen BP-Netzwerk eingeführt. Zunächst wurden anhand der Datenvorbehandlung die ursprünglichen Fehlerdiagnosestichproben durch das Hybrid-Clustering-Verfahren diskretisiert. Dann wurde das Entscheidungsattribut reduziert, um redundante Informationen zu löschen, um die minimale Fehlermerkmalsteilmenge zu erhalten. Im Verlauf der Fehlerdiagnose durch das neuronale BP-Netzwerk wurden einige Ausgabeergebnisse modifiziert, indem die Inferenzfähigkeit des Expertensystems verwendet wurde. Das ausgearbeitete Beispiel für das Xigaze-Energiesystem im chinesischen Tibet zeigt die Wirksamkeit der Methode und die Fehlererkennungsrate wird um 30% verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23339-5_105 4cba8f7b41ee5c0aac471a6ccc14a3e6;de;;;1.2.;;;Erwartete Auswirkungen sich ändernder Meerwassertemperaturen auf die geografische Verteilung von Algenarten Algen werden im Allgemeinen innerhalb ihrer geografischen Grenzen gehalten, indem die Auswirkungen der Temperatur begrenzt werden. Nördliche Grenzen werden durch niedrige tödliche Wintertemperaturen oder durch Sommertemperaturen gesetzt, die für Wachstum und/oder Fortpflanzung zu niedrig sind. Südliche Grenzen werden durch hohe tödliche Sommertemperaturen oder durch Wintertemperaturen gesetzt, die zu hoch sind, um einen entscheidenden Schritt im Lebenszyklus einzuleiten. Es wurde festgestellt, dass charakteristische thermische Reaktionstypen, die in Laborexperimenten identifiziert wurden, für charakteristische Verteilungsmuster im Nordatlantik verantwortlich sind. Änderungen der Meerwassertemperatur haben daher leicht vorhersehbare Auswirkungen auf die geografische Verteilung der Algenarten. Lokal wird die Artenzusammensetzung (und die Gemeinschaftsstruktur) verändert. Neben der Breitenverschiebung und dem regionalen Aussterben können sich ändernde Meerwassertemperaturen auch zu einer Verschiebung des Selektionsdrucks an einer Grenze führen, insbesondere wenn sich Sommer- und Wintertemperaturen unterschiedlich stark ändern. Zum Beispiel werden die südlichen Grenzen mehrerer kaltgemäßigter Braunalgen in Europa, die derzeit durch die „Winterreproduktionsgrenzen“ festgelegt sind, nach einem Anstieg der Sommertemperaturen um nur wenige Grad zu „sommertödlichen“ Grenzen. Die Rekonstruktion der thermischen Regime während der Eis- und Zwischeneiszeit zeigt, dass solche Verschiebungen des Selektionsdrucks wahrscheinlich häufiger an den östlichen als an den westlichen Atlantikküsten aufgetreten sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-2003-3_9 087252a29682b1be8e339590d53da1fc;de;;;1.2.;;;Ein leichtgewichtiger Ansatz zur Extraktion von Krankheits-Symptom-Beziehungen mit MetaMap zur automatisierten Generierung einer Wissensdatenbank für Krankheiten Diagnostische Entscheidungsunterstützungssysteme erfordern eine Wissensbasis über die Krankheit, und dieser Teil kann einen dominanten Anteil an den Gesamtentwicklungskosten solcher Systeme einnehmen. Dementsprechend haben wir im Hinblick auf eine automatisierte Generierung einer Wissensdatenbank für Krankheiten eine Vorstudie zur effizienten Extraktion symptomatischer Ausdrücke unter Verwendung von MetaMap durchgeführt, einem Werkzeug zum Zuweisen von UMLS (Unified Medical Language System) semantischen Tags zu Phrasen in einem bestimmten medizinischen Literaturtext.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29361-0_20 a83a76da225e8209d148f22c1da00d92;de;;;1.2.;;;Der Pazifische Ozean und seine Inselbögen Der Pazifische Ozean hat im Gegensatz zum Atlantischen und Indischen Ozean eine geologische Geschichte, die sich durch das gesamte Phanerozoikum und möglicherweise weit in das Präkambrium erstreckt. Auch in seinen strukturellen Beziehungen unterscheidet es sich von den neuen Ozeanen. Mobile Gürtel – orogene Gebirgszüge oder Systeme von Inselbögen und Gräben – grenzen den Ozean an fast jedem Punkt ein, und sein inneres Strukturmuster stimmt keineswegs überall mit den Kontinentalrändern überein.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-15613-9_10 b5032da5c1c25f9b0e82c2f47d69d13f;de;;;1.2.;;;Im Institut Pasteur — Teil II Unterbrochene Paarung Der zygotischen Induktion kam eine zusätzliche Bedeutung zu: Sie deutete auf die Möglichkeit hin, die Kinetik der Konjugationsereignisse zu analysieren. Wenn Hershey aus Einfallsreichtum einen Küchenmixer mit seiner Scherkraft ausnutzte, um adsorbierte Phagen von ihren Wirtszellen zu lösen, warum nicht versuchen, Spender- und Rezeptorzellen durch ein ähnliches Verfahren zu trennen?;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-3540-7_12 3b3bdd9fc395d9b6722134b7b2c8d849;de;;;1.2.;;;Kohlenhydratspezifität Untersuchungen zur Kohlenhydratspezifität von Lektinen werden üblicherweise mit der Hapten-Inhibitionstechnik durchgeführt, bei der verschiedene Monosaccharide, Oligosaccharide oder Glykopeptide auf ihre Fähigkeit getestet werden, entweder die Hämagglutination (Abb. 3.1) oder die Polysaccharid- (oder Glykoprotein-)Fällung durch das Lektin zu hemmen . Diese Technik geht auf die Beobachtung von Landsteiner zurück, die Anfang des Jahrhunderts gemacht wurde, dass eine einfache Substanz mit einer Struktur, die eng mit der immunologischen Determinantengruppe eines Antigens verwandt oder mit ihr identisch ist, sich mit dem Antikörper verbinden und dadurch die Antigen-Antikörper-Reaktion (Abb. 1.1). Auch mit Lektinen sind solche Inhibitionsstudien möglich, da die Bindung von Zuckern an Lektine relativ schwach ist, nicht zur Bildung kovalenter Bindungen führt und reversibel ist, wie die Reaktion eines Antikörpers mit einem Antigen (oder eines Enzyms mit einem Hemmstoff). Es wird angenommen, dass die Verbindung, die bei der niedrigsten Konzentration hemmt, am komplementärsten zur Bindungsstelle des Lektins ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4846-7_5 790db403aa81ca3860ca827615741c83;de;;;1.2.;;;Die Simplex-Methode Die Simplex-Methode wurde von Dantzig erfunden und erstmals 1951 veröffentlicht. Sie kann verwendet werden, um jedes lineare Programmierproblem zu lösen, sobald es in kanonische Form gebracht wurde. Sein Name leitet sich vom geometrischen „Simplex“ ab, da eines der ersten Probleme, das durch die Methode gelöst werden konnte, die Einschränkung enthielt;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-9462-7_4 f56238fb6a129d067d9035cf0e537b97;de;;;1.2.;;;Mosse nach Mosse George Mosse starb am 22. Januar 1999. Die Nachricht von seinem Tod verbreitete sich schnell in Italien, wo mit Ausnahme des Historikers Ernst Nolte alle Artikel in den Tageszeitungen seine innovativen Ansätze zur Analyse von Irrationalismus und „neuer Politik“ hervorhoben. Dieselbe linke Gruppe von Historikern, die sich von Mosses Methodik distanziert und die Bedeutung ökonomischer Strukturen in seinem Werk unterschätzt hatte, lobte nun seinen „kulturalistischen“ Ansatz und die „fundamentale“ Bedeutung der von ihm häufig verwendeten Kategorien wie z als Mythen und „neue Politik“.;-;-;-;https://link.springer.com/chapter/10.1057/9781137448514_6 83872d49a6930b5a31383ab54b1d14b8;de;;;1.2.;;;Eine formale Semantik für das Programm-Debugging Diese Arbeit zielt darauf ab, ein semantisches Framework für automatisiertes Debugging aufzubauen. Ein Debugging-Prozess besteht darin, Prozesse nacheinander zu verfolgen, zu lokalisieren und zu beheben. Die ersten beiden Prozesse werden durch ein Verfolgungsverfahren bzw. ein Ortungsverfahren durchgeführt. Das Tracing-Verfahren reproduziert die Ausführung des fehlgeschlagenen Testfalls mit durchdachten Datenstrukturen und speichert notwendige Informationen zum Auffinden von Fehlern. Die Lokalisierungsprozedur verwendet die aus der Tracing-Prozedur erhaltenen Informationen, um schlecht konzipierte Anweisungen zu lokalisieren und ein System von Fix-Gleichungen zu generieren, deren Lösung zur Behebung der Fehler verwendet wird. Es wird eine strukturelle Operationssemantik gegeben, um die Funktionen der Such- und Ortungsverfahren zu definieren. Beide sind nachweislich terminiert. Die Hauptaufgabe des Fixierungsprozesses besteht darin, die Fixiergleichungen zu lösen. Es stellt sich heraus, dass es für einen gegebenen fehlgeschlagenen Testfall vier Arten von Fix-Gleichungen und drei verschiedene Lösungen gibt: 1) Der Fehler ist lösbar, dh es existiert eine Lösung des Systems der Fix-Gleichungen, und das Programm kann repariert. 2) Es liegt ein struktureller Entwurfsfehler im Programm vor, d. h. das System der Fix-Gleichungen, das bei jeder Runde des Lokalisierungsverfahrens erzeugt wird, ist lösbar, aber ein neuer Fehler wird auftreten, wenn der alte Fehler behoben wird. 3) Es liegt ein logischer Konstruktionsfehler vor und das System der Fix-Gleichungen ist nicht lösbar.;-;-;-;https://link.springer.com/article/10.1007/s11432-011-4530-2 03014296cb82e9fc8e9cee5a4eb90775;de;;;1.2.;;;Tonsemantik Dieses Kapitel gibt eine Einführung in das Problem der Tonsemantik, sowohl aus kontextsensitiver semantischer Sicht als auch aus historischer Perspektive. Das Kapitel endet mit einem Überblick über die jüngsten Erfolge.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-85213-8_2 bf8508ef30d345c5b133c052a832c880;de;;;1.2.;;;Die Kirchenväter Obwohl es einige Beweise dafür gibt, dass das Wort „Jude“ manchmal als Hohn verwendet wurde, bevor es von der lateinischen Kirche neu definiert wurde, betrachteten die heidnischen Griechen und Römer die Juden wenig anders als andere Völker.;-;-;-;https://link.springer.com/chapter/10.1057/9780230601987_2 822af245e3a2a0cc0cb90a170ff35df4;de;;;1.2.;;;Grundlagen der kompositorischen Programmverfeinerung Das Ziel dieses Papiers ist zweierlei: Erstens, eine Grundlage für die Verfeinerung von parallelen Programmen zu formulieren, die synchron kommunizieren und/oder Variablen teilen können,;-;-;-;https://link.springer.com/chapter/10.1007/3-540-52559-9_87 4a7c37b4ca3fc1db5f81755dad26a766;de;;;1.3.;;;Vergleichende Studie zu zwei Methoden zur Berechnung des Gravitationspotentials eines Prismas Die Bestimmung des Gravitationspotentials eines Prismas spielt eine wichtige Rolle in der physikalischen Geodäsie und Geophysik. Es gibt jedoch nur wenige Literaturstellen, die genaue Ansätze zur Bestimmung des Gravitationspotentials eines Prismas bieten. Die Diskrete-Elemente-Methode kann verwendet werden, um das Gravitationspotential eines Prismas zu bestimmen und kann die wahren Gravitationspotentialwerte mit ausreichender Genauigkeit annähern (je kleiner jedes Element ist, desto genauer ist das Ergebnis). Obwohl der Ansatz von Nagy einen geschlossenen Ausdruck lieferte, weiß man nicht, ob er gültig ist, da dieser Ansatz in der Literatur nicht bestätigt wurde. In diesem Beitrag wird eine Studie zum Vergleich des Nagy-Ansatzes mit der Diskreten-Elemente-Methode vorgestellt. Die Ergebnisse zeigen, dass die Formeln von Nagy zur Bestimmung des Gravitationspotentials eines Prismas sowohl im Bereich innerhalb als auch außerhalb des Prismas gültig sind.;-;-;-;https://link.springer.com/article/10.1007/s11806-010-0129-9 5a1b35b6c6a8d01564cbf45ee8f5c718;de;;;1.3.;;;Einzelepochen-GPS-Deformationssignalextraktion und Grobfehlererkennungstechnik basierend auf Wavelet-Transformation Die Wavelet-Theorie ist ein geeignetes Werkzeug zur Analyse von GPS-Deformationssignalen einzelner Epochen. Die Wavelet-Analysetechnik zur Erkennung und Wiederherstellung grober Fehler ist fortgeschritten. Kriterien für die Wahl der Wavelet-Funktion und die Entscheidung der Mallat-Zerlegungsstufen werden diskutiert. Es wird ein effektives Deformationssignal-Extraktionsverfahren vorgeschlagen, d. h. eine Wavelet-Rausch-Reduktionstechnik unter Berücksichtigung der Grobfehlerwiederherstellung, die Wavelet-Mehrauflösungs- Grobfehlererfassungsergebnisse kombiniert. Zeitpositionserkennung von groben Fehlern und deren Reparaturleistung werden realisiert. Im Experiment ist ein kompakt unterstütztes orthogonales Wavelet mit kurzem Stützblock effizienter als das längere, wenn grobe Fehler erkannt werden, wodurch feinere Analysen erhalten werden können. Und die Form des erkannten groben Fehlers des kurzen Support-Wavelets ist einfacher als die des längeren. Inzwischen ist die Zeitskala leichter zu identifizieren.;-;-;-;https://link.springer.com/article/10.1007/BF02826765 4b153e11b77d2e800adb94f4f0a7a96b;de;;;1.2.;;;Nuclear Norm Subspace System Identifikation und ihre Anwendung auf ein stochastisches Modell der Pest Das zeitdiskrete Modell der Pest wird vom Halter nullter Ordnung basierend auf dem zeitkontinuierlichen Modell abgeleitet. Aufgrund der Existenz stochastischer Störungen wird das stochastische Modell entsprechend dem zeitdiskreten Modell angegeben. Die Zustandsschätzung und Rauschunterdrückung des stochastischen Modells werden durch den Entwurf eines Kalman-Filters erreicht. Kernnormminimierung besteht darin, die niederrangige Matrix-Approximation anstelle der Singulärwertzerlegung im Prozess der Subraumsystemidentifikation zu strukturieren. Nach den Pestdaten der Weltgesundheitsorganisation werden die Systemmatrizen und die Geräuschintensität des Modells identifiziert. Simulationen werden durchgeführt, um die höhere Näherungsfähigkeit des vorgeschlagenen Verfahrens zu zeigen.;-;-;-;https://link.springer.com/article/10.1007/s11424-019-8003-9 d6b839f6e3219369f941205fc2e02f88;de;;;1.3.;;;Big Data in der Bildung: Stand der Technik, Grenzen und zukünftige Forschungsrichtungen Big Data ist ein wesentlicher Aspekt von Innovation, der in letzter Zeit sowohl von Wissenschaftlern als auch von Praktikern große Aufmerksamkeit erregt hat. Angesichts der Bedeutung des Bildungssektors geht die aktuelle Tendenz dahin, die Rolle von Big Data in diesem Sektor zu untersuchen. Bisher wurden viele Studien durchgeführt, um die Anwendung von Big Data in verschiedenen Bereichen für verschiedene Zwecke zu verstehen. Eine umfassende Überprüfung von Big Data im Bildungsbereich fehlt jedoch noch. Daher zielt diese Studie darauf ab, eine systematische Überprüfung von Big Data im Bildungsbereich durchzuführen, um die Trends zu untersuchen, die Forschungsthemen zu klassifizieren, die Grenzen aufzuzeigen und mögliche zukünftige Richtungen in diesem Bereich aufzuzeigen. Nach einem systematischen Review-Verfahren wurden 40 Primärstudien aus den Jahren 2014 bis 2019 ausgewertet und entsprechende Informationen extrahiert. Die Ergebnisse zeigten, dass die Zahl der Studien, die sich mit Big Data in der Bildung befassen, in den letzten 2 Jahren zugenommen hat. Es wurde festgestellt, dass die aktuellen Studien vier Hauptforschungsthemen im Bereich Big Data im Bildungsbereich abdecken, hauptsächlich das Verhalten und die Leistung von Lernenden, Modellierung und Data Warehouse für Bildungszwecke, Verbesserung des Bildungssystems und Integration von Big Data in den Lehrplan. Die meisten Big-Data-Bildungsforschungen haben sich auf das Verhalten und die Leistungen der Lernenden konzentriert. Darüber hinaus hebt diese Studie Forschungsgrenzen hervor und zeigt die zukünftigen Richtungen auf. Diese Studie bietet einen Leitfaden für zukünftige Studien und zeigt neue Erkenntnisse und Richtungen für den erfolgreichen Einsatz von Big Data in der Bildung auf.;-;-;-;https://link.springer.com/article/10.1186/s41239-020-00223-0 353fff11530aeeeeadabd02c6cf6fdf0;de;;;1.3.;;;Spektrale Darstellung und Analyse der KBR-Präzision basierend auf dem Erdschwerespektrum Satellite-to-Satellite Tracking im Low-Low-Modell (SST-ll) ist eine neue Technik, um eine Reihe von Problemen zu lösen, die bei der Bestimmung des Erdschwerefeldes auftreten. Als Schlüsseltechnik von SST-ll kann KBR SST-ll-Messungen direkt erhalten. Daher ist die KBR-Leistungsanalyse der erste Schritt beim SST-ll-Design. In diesem Artikel wird unter der Annahme, dass sich die Satellitenpaare von SST-ll auf nahe kreisförmigen polaren Umlaufbahnen befinden, die Spektrumsbeziehung zwischen dem Erdschwerefeld und der KBR mit analytischen Methoden hergestellt. Und dann werden einige Beispiele analysiert, die Vorschläge und Schlussfolgerungen aus diesen Beispielen gezogen. Die Forschungsergebnisse könnten als Referenz für ein zukünftiges Satellitengravitationsprojekt Chinas dienen.;-;-;-;https://link.springer.com/article/10.1007/BF02826822 7bc841c5175d2c78c123beb2ad4a32c7;de;;;1.2.;;;Vegetation, Feuerregime und Walddynamik Die San Bernardino Mountains (SBM) haben bemerkenswert vielfältige Buschland- und Nadelwaldgemeinschaften in Verbindung mit Klimagradienten, die durch große Höhenreliefs erzeugt werden. Waldbrände spielen auch eine wichtige Rolle bei der Artenzusammensetzung, Vegetationsstruktur und Biogeographie. Bei der Bewertung der Auswirkungen der Luftverschmutzung in SBM ist es wichtig, Brandstörungen als Mediator in Bestandsdynamiken und Nachbrandfolgen zu berücksichtigen und insbesondere zu berücksichtigen, wie strukturelle Veränderungen einiger Ökosysteme aufgrund eines jahrhundertelangen Brandausschlusses die Fitness selektiv verändert haben können und Wettbewerbsfähigkeit der Arten, wodurch ihre Widerstandsfähigkeit gegen Luftverschmutzung beeinträchtigt wird. Dieses Kapitel dient zwei Zielen: (1) die Vegetation von SBM zu beschreiben und (2) die Feuerökologie wichtiger Ökosysteme zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-1436-6_4 daab880628b81f38caaded3256790622;de;;;1.3.;;;Zeitgenössische Krustenbewegung und Verformung der Südamerika-Platte Dieses Papier präsentiert die zeitgenössische Bewegung und aktive Verformung der südamerikanischen Platte und die relative Bewegung der Nazca-Südamerika-Platte unter Verwendung von geodätischen Weltraumdaten. Die Südamerika-Platte bewegt sich mit durchschnittlich 14,5 mm/a mit einem Azimut von 15,2° und schrumpft in West-Ost mit 10,9 mm/a. Die geodätischen Deformationen der Standorte in Bezug auf die Südamerika-Platte stimmen recht gut mit den geschätzten Deformationen von NNR-NUVEL1A überein, aber die Deformationen der westlichen Regionen Südamerikas sind sehr groß.;-;-;-;https://link.springer.com/article/10.1007/BF02826747 5e413a2bda0c41e2cf03a00a523bdf3f;de;;;1.2.;;;weiteres Studium der Grenzen Die grundlegenden Operationen der Infinitesimalrechnung – Differentiation und Integration – beinhalten Grenzen reeller Zahlen. Um eine strenge Definition dieser Operationen zu geben, muss man daher den Begriff der reellen Zahl genau formulieren. Dies wiederum erfordert eine erneute Überprüfung des Zahlbegriffs selbst.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-8176-8412-9_9 0bccff7c046d49bc19df1403a5805aab;de;;;1.2.;;;Forschung zur Wellenmessung basierend auf einem einzelnen GPS-Empfänger Die Technik und Methode der Wellenmessung mit einem einzigen GPS-Empfänger werden in diesem Artikel beschrieben. Verschiebungsmessexperiment und simuliertes Wellenmessexperiment mit einem einzigen GPS-Empfänger werden durchgeführt, die beiden experimentellen Daten werden verarbeitet und analysiert. Die Machbarkeit der Wellenmessung mit einem GPS-Empfänger ist validiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25778-0_104 c78481ccc961f5db160a605c0eb51ba8;de;;;1.2.;;;Ernährungsmodulation von Autoimmunerkrankungenimmun Die Diättherapie bei Autoimmunerkrankungen wurde im Allgemeinen als Quacksalberei angesehen, doch eine überwältigende Anzahl von Patienten, nämlich diejenigen, die an rheumatischen Autoimmunerkrankungen leiden, geben jährlich fast eine Milliarde Dollar für diese und verwandte unkonventionelle Therapien aus;-;-;-;https://link.springer.com/chapter/10.1007/978-1-59259-709-3_26 066114d39ca793ecc5cf8b12e1daa492;de;;;1.2.;;;Umgang mit Krankheitserregern Wie in den vorherigen Kapiteln besprochen, ist die Aufrechterhaltung einer für die Fische günstigen Fisch-Erreger-Umwelt-Beziehung entscheidend für den anhaltenden Erfolg jeder Brüterei, Fischfarm oder Aquakulturanlage. Die wichtigste Methode, um die erforderliche günstige Beziehung zu erreichen, besteht darin, die Interaktionen von Fischen mit biologischen, chemischen und physikalischen Bedingungen in der Aufzuchtumgebung so zu steuern, dass die Auswirkungen von Stress auf die Resistenz gegen infektiöse und nicht infektiöse Krankheiten minimiert werden. In manchen Fällen ist es jedoch sinnvoll, die Fisch-Erreger-Umwelt-Beziehung zu verbessern, indem auch die Erregerbelastung der Wasserversorgung reduziert oder eliminiert wird. Die derzeit vielversprechendsten Ansätze sind Quarantäne, Brutbestandstrennung und andere biologische Bekämpfungsmethoden, die Krankheitserreger zunächst aus der Brütereianlage ausschließen, sowie Wasseraufbereitungssysteme, die ultraviolettes Licht (UV), Chlor oder Ozon als Desinfektionsmittel verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-6011-1_6 f9b33914b736d893b68ed3480d72f506;de;;;1.2.;;;Herkunft der Milchfettkügelchen und die Natur der Milchfettkügelchenmembran Verfügbare Beweise deuten darauf hin, dass Milchfettkügelchen aus dem endoplasmatischen Retikulum von Brustepithelzellen stammen. Der tatsächliche Prozess, durch den diese Kügelchen gebildet werden, ist unbekannt, aber es gibt Hinweise darauf, dass triglyceridhaltige Vesikel, die aus dem endoplasmatischen Retikulum blasen, als Nukleationsstellen für Kügelchen dienen können. Nach der Bildung wachsen Lipidtröpfchen innerhalb der Zelle und dieses Wachstum scheint durch die Fusion von Triglycerid-enthaltenden Vesikel mit intrazellulären Lipidtröpfchen vermittelt zu werden. Nach der Bildung wandern Lipidtröpfchen zu apikalen Regionen der Zellen, von wo sie in das Alveolarlumen sezerniert werden. Einige Hinweise darauf, dass Mikrotubuli und Mikrofilamente an der intrazellulären Wanderung von Lipidtröpfchen beteiligt sein könnten, wurden erhalten, aber diese Hinweise sind nicht eindeutig. Lipidtröpfchen werden durch Einhüllen in spezialisierte Regionen der apikalen Plasmamembran aus der Zelle freigesetzt. Membranen sekretorischer Vesikel können auch einen Beitrag zur Membran leisten, die Lipidtröpfchen umhüllt. Wie hier beschrieben, wurde die Membran, die Fettkügelchen in Milch umgibt, ausführlich charakterisiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-9231-9_3 feeb76a048ddbbd19fab84a7e7dddd32;de;;;1.2.;;;Fruchtwasser: Biochemische Assays in Bezug auf die Lebensfähigkeit des Fötus Die Auswahl dieser Körperflüssigkeit für die Aufnahme in dieses Buch ist selbsterklärend. In diesem Kapitel wird versucht, die Gründe für die Gewinnung des Fruchtwassers, seine Zusammensetzung, die von seiner Herkunft abhängt, und die große Fülle von Informationen über das Wohlbefinden des Fötus, die durch biochemische Untersuchungen des Fruchtwassers gewonnen werden, zu beschreiben. Referenzen zu zytologischen, histochemischen und biochemischen Studien an suspendierten Zellen, die aus Fruchtwasser gewonnen wurden, sind aufgeführt und dienen als Hintergrundinformationen für weitere Studien. Die meisten dieser Studien werden heute nur von Forschern und einigen forschungsorientierten Labors durchgeführt. Sie führen jedoch erfolgreiche Screening-Programme für die häufigsten biochemischen Erkrankungen des Fötus durch, und die Forschungsinstrumente von gestern sind die Routinetests von heute.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-1767-9_33 2500f35fe53d7f091d27918e621e1b4d;de;;;1.2.;;;Probleme des immunsupprimierten Patienten Seit den frühen 1950er Jahren hat sich die Nierentransplantation von einem experimentellen Verfahren zu einer akzeptablen und wirksamen Behandlung von irreversiblen oder terminalen Nierenerkrankungen entwickelt. Die einjährige Patientenüberlebensrate für Empfänger von lebenden verwandten Spendern beträgt mehr als 95 % und mehr als 90 % für Empfänger von Leichenspendern. Die Ein-Jahres-Transplantat-Überlebensraten liegen bei über 85 % bzw. 65 %. Diese hervorragenden Ergebnisse wurden durch eine Vielzahl von Fortschritten in verschiedenen Bereichen erzielt (Tabelle 12.1).;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-3217-3_12 17ecabad3938dfabe024021a9f1a7d85;de;;;1.2.;;;Das Aspektsystem des Französischen Der aspektive Standpunkt wird im Französischen durch Tempus ausgedrückt. Die Untrennbarkeit von Blickwinkel und Tempus schafft eine formale und konzeptionelle enge Verbindung zwischen Aspekt und zeitlichem Ort. Die Sprache hat einen perfektiven, einen imperfektiven und einen neutralen Standpunkt. Es gibt eine Wahl zwischen perfektiven und imperfektiven Standpunkten in der Vergangenheitsform, die anderen Zeitformen bieten keine Wahl und vermitteln den neutralen oder den perfektiven Standpunkt. Formal ist kein Standpunkt im System dominant, da sie bei allen Situationstypen auftreten. Der perfektive Standpunkt weicht von der Formulierung der Universalgrammatik ab: Er steht Zuständen zur Verfügung und präsentiert sie als abgeschlossen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-5606-6_9 02c42a80d555f701146ff63d30523f95;de;;;1.2.;;;Theoretische Arbeit In den letzten Jahrzehnten wurden verschiedene theoretische Ansätze entwickelt, um die Elektronenemission bei Ion-Atom-Kollisionen zu beschreiben. Jeder dieser Ansätze verwendet einige Näherungen, die erforderlich sind, um das mit dem Ionisationsprozess verbundene Vielteilchenproblem zu lösen. In diesem Abschnitt wird ein breiter Überblick über aktuelle theoretische Methoden zur Ionisation bei Ion-Atom-Kollisionen gegeben. Wir klassifizieren die theoretischen Methoden nach der Stärke der elektronischen Wechselwirkungen mit den Kollisionspartnern. Diese Behandlung entspricht unserem Bild von Coulomb-Zentren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-03480-4_3 5b45f21044c822aaf67f40131cacfbc5;de;;;1.2.;;;Zytokin-induzierte Autoimmunerkrankungen Zytokine werden heute häufig bei der Behandlung vieler Erkrankungen eingesetzt, insbesondere bei Krebs, hämatologischen Malignomen und chronischer Virushepatitis. Bei einigen dieser Zytokine wurde eine klinische Induktion und/oder Exazerbation von Autoimmunmanifestationen beobachtet. Dies war bei Interferon-α und Interferon-γ, Interleukin-2 und einigen koloniestimulierenden Faktoren der Fall. Alle bekannten biologischen und klinischen Autoimmunmerkmale wurden beobachtet, aber Schilddrüsenanomalien traten besonders häufig auf. Einige dieser Manifestationen scheinen mit der Wirkung dieser exogenen Zytokine auf die T-Helferzelle (T;-;-;-;https://link.springer.com/article/10.2165/00002018-199717020-00002 44e724d716f1b5db35d934dff43acb90;de;;;1.2.;;;Weiteres Studium der Grenzen Die grundlegenden Operationen der Infinitesimalrechnung – Differentiation und Integration – beinhalten Grenzen reeller Zahlen. Um eine strenge Definition dieser Operationen zu geben, muss man daher den Begriff der reellen Zahl genau formulieren. Dies wiederum erfordert eine erneute Überprüfung des Zahlbegriffs selbst.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-0271-4_9 e5414c3f45f883c9ab42587d0c0da7e1;de;;;1.2.;;;Modelle von Kernreaktionen Das vorangegangene Kapitel hat einige der Elemente der Quantenstreutheorie skizziert. Über die Art und Weise, in der die Physik des Kerns die Parameter beeinflusst, die in die formale Theorie eingehen, wurde fast nichts gesagt, obwohl einige allgemeine Merkmale von Kernreaktionen in Kapitel 2 kurz diskutiert wurden. Wir wollen nun verschiedene physikalische Modelle genauer beschreiben. Einige Modelle sind allgemeiner anwendbar als andere, aber wie bei einem Modell gilt: Je allgemeiner seine Natur, desto weniger physikalischer Inhalt hat es. Kein einzelnes physikalisches Modell beschreibt alle Phänomene von Kernreaktionen, aber die verwendeten Modelle beschränken sich in der Regel auf eine von zwei großen Kategorien: direkte Reaktionen und zusammengesetzte Kernreaktionen (;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-20531-8_4 1d7e97b77b9b79749e9178e461efd907;de;;;1.2.;;;Aufsteigende Axondegeneration nach anterolateraler Kordotomie. Eine experimentelle Studie am Affen im selben Jahr, in dem Gowers die oben zitierte prophetische Aussage schrieb, beschrieb Bechterew auf der Grundlage mylogenetischer Studien zwei aufsteigende Fasersysteme im anterolateralen Funiculus des Rückenmarks, zwei Systeme, die direkt in die Formatio reticularis des Hirnstamms übergingen. Diese beiden Bahnen bestanden aus einem medialen „Bodenbündel“ des lateralen Funiculus und einem seitlicheren System des „Rest des lateralen Funiculus“, mit Ausnahme des dorsalen Spinozerebellartraktes von Flechsig (Text-Abb. 1).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-7920-1_11 185599c1c3a9b4d12700a83841bd4aad;de;;;1.2.;;;Bewässerungsmanagement und Feldsalzbilanz Der Pflanzenwasserbedarf und die Bewässerungswasserqualität sind zwei Hauptparameter, die berücksichtigt werden müssen, um ein angemessenes Wassermanagement zur Kontrolle des Salzgehalts zu gewährleisten. Richtige Bewässerung stellt das Bodenwasserdefizit wieder her und vermeidet die Anwendung eines verschwenderischen und potenziell schädlichen Überschusses. Etwas überschüssiges Wasser (Bewässerung plus Regen) wird benötigt, um den Salzgehalt des Bodens zu kontrollieren. Im Gießwasser enthaltene lösliche Salze werden durch Bodenverdunstung und Pflanzentranspiration in der Bodenlösung angereichert. Wenn mehr Wasser aufgebracht wird als während einer Erntesaison verwendet wird und eine ausreichende Drainage vorhanden ist, erfolgt die Nettowasserbewegung nach unten und Salze werden aus der Wurzelzone ausgewaschen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-69836-1_6 4609424c561bc115fa9c701f582bec72;de;;;1.2.;;;Das Auslaugen von Haupt- und Spurenelementen aus Kohlenasche Die meisten Kraftwerke betreiben derzeit Nassasche-Entsorgungssysteme. Diese Methode der Ascheentsorgung wird jedoch zunehmend überprüft, da die Möglichkeit einer Kontamination von Oberflächen- und Grundwasser durch aus der Asche ausgewaschene Spurenelemente besteht (Carlson und Adriano, 1993). In Ascheschleusungssystemen werden typischerweise sehr hohe Flüssig-Feststoff-Verhältnisse von 10:1 bis 20:1 verwendet (Chu et al., 1978). Folglich werden große Mengen an Wasser erzeugt, das aus der Asche gelöste Elemente enthält. Die Zusammensetzung des Wassers in einem Ascheteich wird durch die Asche selbst, durch die Qualität des zur Schleusung verwendeten Wassers und durch das Verhältnis des Ascheteiches zu anderen Komponenten des Wasserkreislaufs des Kraftwerks bestimmt (Abbildung 12.1).;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-8496-8_12 8a4de6ce0b3c45f1d7c5d9f995c169dd;de;;;1.2.;;;Zur Relevanz von Ortsgleichungen für die Produktion und Wahrnehmung von Stoppkonsonanten Wir untersuchten die mögliche Relevanz von Ortsgleichungen für die menschliche Produktion und Wahrnehmung von Stoppkonsonanten. Die Orderly Output Constraint (OOC) von Sussman, Frachter und Cable (1995) behauptet, dass der Mensch sich entwickelt hat, um Sprache so zu produzieren, dass;-;-;-;https://link.springer.com/article/10.3758/BF03211916 e7686746566bba5d3ec8359b751a0345;de;;;1.2.;;;Gemeinsame Nutzung erweiterbarer Arrays in einer verteilten Umgebung Wir beschreiben ein verteiltes System für wissenschaftliche Anwendungen basierend auf gemeinsam nutzbaren erweiterbaren Arrays. In unserem Sharing-Schema kann ein Teil oder das gesamte auf der Serverseite platzierte erweiterbare Array von vielen Clients gemeinsam genutzt werden. Ein gemeinsam genutztes Array kann für einen Client als lokal deklariert werden und teilt zunächst einen beliebigen Teil eines erweiterbaren Arrays auf der Serverseite. Nach der ersten Freigabe kann es lokal auf dem Client erweitert werden. Der lokal erweiterte Teil auf der Clientseite kann zusammen mit dem gemeinsam genutzten Teil auf der Serverseite logisch als ein einzelnes erweiterbares Array behandelt werden. Ein Satz erweiterbarer Arrays kann dauerhaft auf dem Sekundärspeicher gespeichert werden. In diesem Papier schlagen wir, nachdem wir die Eigenschaften erweiterbarer Arrays und deren Manipulation vorgeschlagen haben, den Begriff der gemeinsamen Nutzung eines erweiterbaren Arrays vor. Dann werden die Sprachkonstrukte und die Laufzeitroutinen zum Verwalten von erweiterbaren Arrays und gemeinsamen Arrays beschrieben, wobei deren Umfang und Sichtbarkeit in der Client/Server-Systemarchitektur betont wird.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48206-7_4 cd2a200c6710d2a9a263326cbc5fc989;de;;;1.2.;;;Dem Gesetz trotzen: Madeleine Pelletier Dr. Madeleine Pelletier (1874–1939) ist wie die anderen diskutierten Autorinnen vor allem für ihre Aktivitäten als militante Feministin und politische Aktivistin bekannt.;-;-;-;https://link.springer.com/chapter/10.1057/9781403978745_5 ff38d8666c15a78390d043722853f848;de;;;1.2.;;;Bewusster Geist, vergessener Geist: Zwei Ansätze in der Multimethodologie Dieser Beitrag untersucht die konfuzianische und die taoistische Auffassung von Geist und Wissen, polarisiert die beiden neueren Ansätze in der westlichen Multimethodologie und schlägt vor, dass Unterschiede zwischen den beiden Ansätzen kanalisiert werden können, um eine kreative Spannung wie die zwischen den;-;-;-;https://link.springer.com/article/10.1023/A%3A1022140405046 7d9013cc9cea94dff7c3471491fb8fdd;de;;;1.2.;;;Simulation von Thermoformen und Blasformen — Theorie und Experimente Der zunehmende Einsatz von Polymeren bei der Herstellung verschiedener Produkte, von Getränkeflaschen, Kraftstofftanks, Essenstabletts bis hin zu Kühlschrankauskleidungen, hat es wichtig gemacht, bei der Umformung von Kunststoffteilen Mindestanforderungen an die Teiledicke zu erfüllen. Die beiden wichtigsten industriellen Verfahren zur Umformung von kleinen und großen dünnwandigen Kunststoffteilen sind das Thermoformen und das Blasformen. Im Allgemeinen verhalten sich Polymere während dieser Prozesse viskoelastisch und ihr Verformungsprozess beinhaltet große Verformungen, große Dehnungen, große Dehnungsraten, Kontakt zwischen dem heißen Polymer und der Formwand, und auch während des Aufblasens können physikalische Instabilitäten auftreten. Beim Thermoformen und Blasformen, insbesondere wenn stopfenunterstützt, erfolgt der Prozess jedoch schnell und mit einer Dehnungsrate, die hoch genug ist, damit die elastischen Effekte dominant sind und es keine Zeit für eine viskose Dissipation gibt. Das Polymer erfährt eine große elastische Verformung.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-8571-2_15 39e0630ac7c16e0cc86a0d39502c69af;de;;;1.2.;;;Ein neues automatisiertes Fingerabdruck-Identifikationssystem Es wird ein neues automatisiertes System zur Identifizierung von Fingerabdrücken vorgeschlagen. In diesem System können auf der Grundlage einiger lokaler Eigenschaften des digitalen Bildes die Form- und Detailmerkmale des Fingerabdrucks ohne Binärisierung und Ausdünnung aus dem Graustufenbild extrahiert werden. Bei der Abfrage kann ein latenter Fingerabdruck mit den abgelegten Fingerabdrücken durch Form- und/oder Detailmerkmale abgeglichen werden. Das Abgleichen nach Formmerkmalen ist viel schneller als nach Details.;-;-;-;https://link.springer.com/article/10.1007/BF02943110 e5badb0012dcc577c85702de5bfd26c1;de;;;1.2.;;;Visuell-vestibuläre Interaktion: Auswirkungen auf die Wahrnehmung von Eigenbewegungen und die Haltungskontrolle Das Gefühl der Eigenbewegung ist eine häufige visuelle Täuschung, die Rückschlüsse auf die visuell-vestibuläre Interaktion zulässt. Es kann wahrgenommen werden, wenn man auf sich bewegende Wolken schaut, auf fließendes Wasser oder wenn ein Zug auf dem angrenzenden Gleis in einem Bahnhof fährt. Dieses zwingende Gefühl der Körperbewegung kann sogar das Haltungsgleichgewicht beeinflussen. Bei der ersten Annäherung an das Problem könnte eine psychologische Erklärung im Sinne von H . vorgeschlagen werden;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-46354-9_25 a5635f2bced7d8350dadac1179aa87c5;de;;;1.2.;;;Wie die durch Bestäuber vermittelte Paarung mit der Populationsgröße der Pflanzen variiert In den meisten höheren Pflanzen werden sexuelle Interaktionen durch tierische Bestäuber vermittelt, die die Anzahl und den unterschiedlichen Fortpflanzungserfolg von Paaren beeinflussen. Die Anzahl und das Geschlecht von Brutindividuen in Populationen sind zentrale Faktoren in der Evolutionstheorie, aber der quantitative Einfluss der Pflanzenpopulation auf die durch Bestäuber vermittelte Paarung wird noch zu wenig untersucht. Wir untersuchten die Variation der Pollenentfernung (männliche Funktion) und des Fruchtansatzes (weibliche Funktion) bei blühenden Populationen unterschiedlicher Größe von zwei Hummel- und einer Schmetterlings-bestäubten, lohnlosen, pollenlimitierten, hermaphroditischen Orchideenart in Schweden. Mit zunehmender Menge an Pollen, die Insekten von Pflanzen (entweder absolut oder proportional) entfernten, stieg auch die Anzahl der Bestäubungen, während die Anteile der Pflanzen mit unterschiedlichem, als Bestäuber bezeichneten funktionellen Geschlecht (männlich, weiblich, Hermaphrodit) hauptsächlich vom Verhältnis zwischen die Menge an Fruchtansatz und Pollen, die innerhalb der Populationen entfernt wurden. Es wurde festgestellt, dass eine größere Populationsgröße mehrere Auswirkungen hat: (1) die Gesamtzahl der entfernten Pollinien und des Fruchtansatzes nahm zu, (2) der Anteil der von den Pflanzen entfernten Pollen nahm ab, (3) der Anteil der bestäubten Blüten nahm beim Schmetterling ab. war jedoch bei den Hummel-bestäubten Arten nicht betroffen, (4) das Verhältnis zwischen Fruchtansatz und entfernten Pollinien stieg bei den Hummel-bestäubten Arten linear an, erreichte jedoch ein Maximum bei c. 80 Individuen bei den Schmetterlings-bestäubten Arten, (5) die Zahl der als Bestäuber bezeichneten rein männlichen und hermaphroditischen Individuen nahm zu und (6) die Varianz bei der Polliniumentfernung, aber nicht beim Fruchtansatz, nahm zwischen den Individuen zu. Diese Ergebnisse bestätigen empirisch die grundlegende Bedeutung der Populationsgröße für die Paarungsstruktur auskreuzender Pflanzen und zeigen, dass die Selektion auf weibliche Geschlechtsmerkmale bei geringerer Populationsgröße verstärkt wird, während die Selektion auf männliche Geschlechtsmerkmale bei größeren Populationsgrößen verstärkt wird.;-;-;-;https://link.springer.com/article/10.1007/BF00317867 77acd9f895bd427916e66c74e2c8594a;de;;;1.2.;;;Ein Trend zum Rückgang des Weizenverbrauchs Die Einnahme der Weizenprodukte verursacht für einen begrenzten Teil der Bevölkerung aufgrund von Weizenunverträglichkeit oder Zöliakie Unannehmlichkeiten oder sogar größere Störungen. Leider hat ein Kreuzzug aus Marketinginteressen versucht, die Menschen, die Weizenprodukte vertragen, davon zu überzeugen, sich an Weizenprodukte zu halten und teure Ersatzstoffe mit deutlich minderwertiger Qualität zu konsumieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-39823-1_13 11ef40e63e218efb132e83dbd7cb65fd;de;;;1.2.;;;Immunhistochemische Marker für die Prognose zerebraler Glioblastome Das Glioblastom ist der häufigste neuroektodermale Tumor und der bösartigste im Bereich der zerebralen astrozytischen Gliome. Der prognostische Nutzen verschiedener biologischer Marker für Glioblastome wurde umfassend getestet, die erhaltenen Ergebnisse werden jedoch als umstritten angesehen. In der vorliegenden Studie wurden 302 Glioblastom-Proben untersucht, um einen möglichen Zusammenhang zwischen dem klinischen Ergebnis und der Expression einiger immunhistochemischer Variablen zu untersuchen. Darüber hinaus wurden die untersuchten Tumoren in die drei zytologischen Untergruppen – kleinzellig (SGB), pleomorphzellig (PGB) und gemistozytär (GGB) unterteilt. Die immunhistochemischen Variablen unterschieden sich zwischen verschiedenen Untergruppen: Die Zahl der p53-positiven Tumoren überwiegt bei den PGB, während die Zahl der Tumoren mit EGFR- und mdm2-Positivität bei SGB signifikant höher war. GGB enthielt den signifikant niedrigsten mittleren proliferativen Zellkernantigen (PCNA)-Markierungsindex (LI), eine größere Anzahl von p21ras-positiven Fällen und einen höheren mittleren apoptotischen Index (AI). Die Überlebenszeit bei Patienten mit SGB-, EGFR- und mdm2-Positivität und PCNA LI >40% war signifikant kürzer, während das Vorhandensein von p21ras und AI >0,5% mit einem verlängerten Überleben assoziiert war. Die multivariate Analyse ergab, dass die Überlebenszeit mit SGB, EGFR-Positivität und AI (;-;-;-;https://link.springer.com/article/10.1023/A%3A1016218117251 0d8ab1db4d6201ac52a9268646446808;de;;;1.2.;;;Elektrochemische Stromquellen für Fahrzeugantriebe In den letzten Jahren wurde den Untersuchungen, die zu einer möglichen Alternative zum Verbrennungsmotor als primärer Antriebsquelle für den Fahrzeugantrieb führten, große Aufmerksamkeit gewidmet. Stromkraftwerke, eine der möglichen Alternativen, sind Gegenstand dieser Überprüfung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-1950-4_3 29fc6a892fa3434a945cba231774f3b4;de;;;1.2.;;;Die Poetik der Ironie in Flauberts Das Leben in Croisset war weder eine Katastrophe im Fernen Osten noch ein Café auf dem Boulevard Montparnasse. Vielleicht war das der Humor von Croisset. Was konnte man da an den Schwächen der Bourgeoisie leiden, außer schreiben;-;-;-;https://link.springer.com/chapter/10.1057/9780230389526_4 e8fd0961fa03acc7bc9a63489a99d7bf;de;;;1.2.;;;Leistungsoptimierung eines verbesserten bewegungsbasierten Standortaktualisierungsschemas in realen PCS-Netzwerken In diesem Papier wird ein verbessertes bewegungsbasiertes Standortaktualisierungsschema (iMBLU) vorgeschlagen, um die Standortaktualisierungs(LU)-Kosten des herkömmlichen bewegungsbasierten Standortaktualisierungsschemas (CMBLU) zu reduzieren. Die Hauptidee besteht darin, dass der Zähler einer Mobilstation (MS) die Entfernungsinformationen zwischen der aktuell residenten Zelle und der zuletzt registrierten Zelle speichert, anstatt einfach die Anzahl der Zellgrenzenüberschreitungen zu zählen, und eine LU durchgeführt wird, wenn der Zählerwert einen vordefinierten Schwellenwert erreicht, der als Bewegungsschwelle bezeichnet wird. Unnötige LUs werden vermieden, wenn sich die MS um die kürzlich besuchten Zellen herumbewegt. Simulationsergebnisse zeigen, dass das iMBLU-Schema eine beträchtliche Reduzierung der LU-Kosten im Vergleich zu anderen Schemata unter irregulärer Zellenkonfiguration in realen persönlichen Kommunikationsdienst-(PCS)-Netzen erreicht hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09265-2_39 ce5a3fc2e0df6e08e15636a277765fef;de;;;1.2.;;;Behandlung von Atemwegserkrankungen bei Patienten mit schwerer Sepsis Atemstörungen im Zusammenhang mit Sepsis sind keine Seltenheit und gehen mit einer erheblichen unabhängigen Sterblichkeit einher, was ein erhöhtes Bewusstsein und eine erhöhte Wachsamkeit für solche Atemwegskomplikationen kritischer macht. Bis sich eine direkte und wirksame Therapie abzeichnet, bleibt der Schwerpunkt der Versorgung auf unterstützenden Maßnahmen und der Vermeidung von Komplikationen.;-;-;-;https://link.springer.com/chapter/10.1007/0-306-47664-9_26 4b3d9b0d24ce3432f278e54c99043cdb;de;;;1.2.;;;Grundzüge und räumliche Muster des globalen Kulturlandwandels seit den 1980er Jahren In diesem Beitrag haben wir die räumlichen Muster der Kulturlandveränderung zwischen 1982 und 2011 anhand globaler vektorbasierter Landnutzungs-/Landbedeckungsdaten analysiert. (1) Unsere Analyse ergab, dass die gesamte weltweite Anbaufläche um 528,768×10 . zugenommen hat;-;-;-;https://link.springer.com/article/10.1007/s11442-017-1405-5 86481c797fcbcb2bfefb92cd03987237;de;;;1.2.;;;Über die Prädation pelagischer Larven und früher Jungtiere von wirbellosen Meeresbodentieren durch adulte benthische Wirbellose und deren lebendes Durchdringen durch ihre Prädatoren Das dynamische quantitative Gleichgewicht zwischen wirbellosen Beute- und Raubtierarten, die dieselben benthischen Gemeinschaften im flachen Schelf (Sublitoral-Ebenenboden) bewohnen, wurde erstmals von Thorson (1953) diskutiert. Thorson betrachtete den genauen Zeitpunkt der Larvenansiedlung von Beute- und Raubtierarten mit pelagischer Entwicklung und die zeitliche Unterdrückung der Nahrungsaktivitäten der erwachsenen Raubtiere während der Fortpflanzung zum Zeitpunkt der Ansiedlung der Beute als die wichtigsten Faktoren, die das Überleben der Beutearten in solchen Fällen erleichtern Gemeinden. Die erhaltenen Informationen zeigen jedoch, dass Thorsons „Mechanismus des Gleichgewichts zwischen Raubtier- und Beutetierarten benthischer Gemeinschaften“ nicht immer effektiv ist, um das Überleben nicht nur des Raubtiers, sondern manchmal sogar des Raubtierspatz zu sichern. Aus diesem Grund kann der „Mechanismus“ nicht in allen Situationen als universell wirksam eingeschätzt werden. Die Analyse der bisher veröffentlichten Daten zeigt, dass es in marinen benthischen Gemeinschaften, insbesondere in flachen Schelfgewässern, nicht ungewöhnlich ist, dass Gameten, Larven oder frühe Jungtiere verschiedener Beutearten lebend durch Suspensions-(Filter-)Fütterung und Ablagerung gelangen pass -Füttern von erwachsenen Wirbellosen, die sie jagen. Manchmal kann die Entwicklung sogar nach Ausscheidung durch Raubtiere weitergehen. Die Hypothese von Voskresensky (1948) und Goycher (1949) über die Bedeutung dieses Phänomens für die Erhaltung und Rekrutierung der Muschel;-;-;-;https://link.springer.com/article/10.1007/BF00391514 076d8fb53ea24f3e28c9505ba99182b3;de;;;1.2.;;;Embryotransfer bei Tieren Fast 100 Jahre sind vergangen, seit Heape (1891) über den Transfer von zweizelligen Embryonen eines Angorakaninchens in die Eileiter eines trächtigen belgischen Hasen berichtete. Dieses Experiment zeigte, dass der Fortpflanzungstrakt des Empfängers keinen Einfluss auf die genetische Zusammensetzung des Fötus hatte, da übertragene Embryonen zu Angora-Nachkommen führten. Die grundlegenden Strategien des Embryotransfers sind bis heute die gleichen: Synchronität der Reproduktionszyklen zwischen Empfänger und Spender, Verwendung geeigneter genetischer Marker und Transfer von Präimplantationsembryonen in das Lumen des Fortpflanzungstrakts.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2143-9_8 0f11a1c900e3b4ee758c17fa98e77edd;de;;;1.2.;;;Topologische Beziehungen von Pfeilsymbolen in komplexen Diagrammen Einen dynamischen Prozess mit einem pfeilhaltigen Diagramm zu veranschaulichen, ist eine weit verbreitete Konvention in der täglichen Kommunikation der Menschen. Um eine Grundlage für die Erfassung der Struktur und Semantik solcher Diagramme zu schaffen, formalisiert dieser Beitrag die topologischen Beziehungen zwischen zwei Pfeilsymbolen und diskutiert den Einfluss dieser topologischen Beziehungen auf die Semantik des Diagramms. Topologische Beziehungen von Pfeilsymbolen werden durch zwei Arten von Verbindungen hergestellt,;-;-;-;https://link.springer.com/chapter/10.1007/11783183_15 62e9044473f147d4d90b2cf2d1a7c424;de;;;1.2.;;;Der neue Phasenübergang der Weltwirtschaft Der zur Diskussion stehende Beitrag analysiert den Entwicklungsstand der Weltwirtschaft aus transdisziplinärer Sicht. Das wissenschaftliche Problem, das in diesem Artikel gelöst werden soll, besteht darin, darzustellen, welche Arten von Weltwirtschaftsphasen im Vergleich zu den von anderen Autoren oder wissenschaftlichen Arbeiten vorgestellten Wirtschaftsperioden und Zyklen stattgefunden haben und was der Unterschied zwischen Weltwirtschaftsphase, Wirtschaftsphasenübergang ist , und Wirtschaftskreis oder Periode. Das wichtigste wissenschaftliche Ergebnis des Artikels besteht jedoch darin, den neuen Phasenübergang der Weltwirtschaft und die nächste wirtschaftliche Phase, die im zweiten Jahrzehnt des 21. Jahrhunderts beginnt, zu definieren und zu argumentieren. Diese Arbeit ist ein transdisziplinärer und synergetischer Ansatz, bei dem wissenschaftliche Konzepte wie thermodynamische Effizienz, Ordnungsparameter, Attraktoren, kollaborative Commons, offene Gesellschaft, nachhaltige Entwicklung usw. angewendet werden. Die praktische Bedeutung des Papiers besteht in einem tieferen Verständnis der weltwirtschaftlichen Trends, der zukünftigen sozialen und wirtschaftlichen Organisation und inwieweit der Kapitalismus die Weltgesellschaft in einen anderen Wirtschaftsbereich oder sogar in eine andere Wirtschaftsstruktur und -organisation führen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-54454-0_6 73e159fe2bfd9425d51ba6e63a17facc;de;;;1.2.;;;Biofilm – „Stadt der Mikroben“ oder ein Analogon vielzelliger Organismen? Die Definition des Begriffs „Biofilm“ und die Gültigkeit der Analogie zwischen diesen strukturierten mikrobiellen Gemeinschaften und vielzelligen Organismen werden in der Übersicht diskutiert. Die Mechanismen der Biofilmbildung, die Art der Wechselwirkungen der Bestandteile von Biofilmen und die Gründe für die Biofilmresistenz gegenüber Bioziden und Stressfaktoren werden detailliert betrachtet. Die Rolle von Biofilmen in der mikrobiellen Ökologie und in der Biotechnologie wird diskutiert.;-;-;-;https://link.springer.com/article/10.1134/S0026261707020014 b6ed830112fa8ef17fbbfcdf861f4ea6;de;;;1.2.;;;Das Ventrikelsystem in neuroendokrinen Mechanismen Grundlegende Vorschriften, die verwendet werden, um unser Wissen über die neuroendokrine Biologie aufzubauen, haben in der Vergangenheit das Vorhandensein neurosekretorischer Neuronen (1) im endokrinen Hypothalamus als die „unbedingte Notwendigkeit“ der Neuroendokrinologie identifiziert. Zahlreiche Indizienbeweise weisen darauf hin, dass diese neuronalen Elemente im basomedialen Hypothalamus und möglicherweise anderswo im zentralen Nervensystem von Wirbeltieren in großer Zahl im perivaskulären Raum enden können, der die gefensterten Portalkapillaren des hypophysären Portalkreislaufs umgibt. Dieses einzigartige Gefäßnetzwerk in der medianen Eminenz der Neurohypophyse dient offenbar der funktionellen Verbindung des ventralen Zwischenhirns mit der Adenohypophyse und wurde erstmals vor über einem halben Jahrhundert von Popa und Fielding in humanem Obduktionsmaterial beschrieben (2). Diese offenbar nur im Zentralnervensystem einzigartige Gefäßorganisation scheint die einzige und ausschließliche Blutversorgung der Adenohypophyse zu sein, da eine selektive Zerstörung von Regionen des hypophysären Portalbetts zu fokalen Nekrosen in diskreten Regionen der Pars distalis führt (3).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-3861-1_9 f7a0401ad221264aa3bc7a218ab86efd;de;;;1.2.;;;Änderungen des Abflussregimes aufgrund anthropogener Regulierungen in den feucht-tropischen Western Ghats, Bundesstaat Kerala, Indien Die Regulierung des Stromflusses durch ein Reservoir erzeugt ein Flussregime, das sich stark von dem Flussregime vor der Aufstauperiode unterscheidet. Hydro-Electric Projects (HEPs), die in den letzten vier Jahrzehnten in den Western Ghat-Regionen des Bundesstaates Kerala, Indien, in Auftrag gegeben wurden, führten zu erheblichen Veränderungen in den Strömungsverhältnissen der Flüsse des Bundesstaates Kerala im Südwesten Indiens. In diesem Beitrag wird der von Richter et al. (1996) wird verwendet, um Änderungen des Strömungsregimes in den Flüssen Periyar und Muvattupuzha zu analysieren, die auf den Bau der HEPs Idukki (1976), Idamalayar (1987) und Lower Periyar (1997) in den hohen Bereichen der Western Ghats zurückzuführen sind. Normale Niederschlagsjahre (Jahresniederschlagswerte innerhalb der Mittelwerte von ± 0,75 Standardabweichungsgrenzen) werden in der Analyse nur berücksichtigt, um sich auf hydrologische Veränderungen aufgrund menschlicher Aktivitäten zu konzentrieren. Die mittlere hydrologische Alteration im Periyar River (Abweichung von den hydrologischen Indikatorwerten vor der Erschließung) nach Inbetriebnahme von drei HEPs beträgt 35 %. Der Wassertransfer zwischen den Becken nach der Stromerzeugung aus dem Idukki HEP führte zu einem höheren Abfluss in den angrenzenden Muvattupuzha-Fluss, was zu erheblichen Veränderungen in der Wasserumgebung führte (mittlere hydrologische Veränderungen schwanken zwischen 57 und 63%). IHA-Parameter, die hydrologische Veränderungen oberhalb des 67 . zeigen;-;-;-;https://link.springer.com/article/10.1007/s11629-013-2764-8 8b8b68bee3abe8337d57234fe575c311;de;;;1.2.;;;Fremdsprachenlernen, Hyperlexie und frühe Worterkennung Kinder mit Hyperlexie lesen Wörter spontan vor dem Alter von fünf Jahren, haben ein beeinträchtigtes Verständnis sowohl bei Hör- als auch Leseaufgaben und verfügen über eine Worterkennungsfähigkeit, die die Erwartungen aufgrund ihrer kognitiven und sprachlichen Fähigkeiten übertrifft. Ein Schüler mit Hyperlexie und ein anderer Schüler mit einer höheren Worterkennung als Wortverständnis, der sehr früh mit dem Lesen von Wörtern begann, wurden über mehrere Jahre hinweg von der Grundschule bis zum Gymnasium begleitet, als beide einen Spanischkurs im zweiten Jahr absolvierten. Der Zweck der vorliegenden Studie war es, die fremdsprachlichen (FL) Worterkennung, Rechtschreibung, Leseverständnis, Schreiben, Sprechen und Hörverständnis der beiden Schüler und eines anderen Gymnasiasten ohne Hyperlexie zu untersuchen. Die Ergebnisse zeigten, dass der Schüler ohne Hyperlexie bei den meisten FL-Kenntnissen höhere Punktzahlen erreichte als der hyperlexische Schüler und der Schüler mit überdurchschnittlichen Worterkennungsfähigkeiten. Der Schüler mit Hyperlexie und der Schüler mit überdurchschnittlichen Worterkennungsfähigkeiten erzielten bei den Spanischkenntnissen, die die ausschließliche Verwendung phonologischer (Aussprache) und phonologischer/orthographischer Fähigkeiten (Worterkennung, Rechtschreibung) erforderten, höhere Punktzahlen als bei den Spanischkenntnissen, die die Einsatz von Hörverstehen und Sprech- und Schreibfähigkeiten. Die Ergebnisse unterstützen die Annahme, dass Worterkennung und Rechtschreibung in einem FL modulare Prozesse sein können und unabhängig von allgemeinen kognitiven und sprachlichen Fähigkeiten existieren. Die Ergebnisse deuten auch darauf hin, dass die Schüler in einer Sprachkomponente möglicherweise stärkere FL-Lernfähigkeiten haben als in anderen Sprachkomponenten, und dass möglicherweise ein schwacher Zusammenhang zwischen der FL-Worterkennung und der mündlichen Kompetenz in der FL besteht.;-;-;-;https://link.springer.com/article/10.1007/s11881-000-0022-6 2212d4901c5bcc4d13dc8323029bdd36;de;;;1.2.;;;Tektonik des mittleren Kambriums-frühen Devons (die Qilian-Tektonik, 513–397 Ma) Die frühe paläozoische tektonische Periode (mittleres Kambrium-frühes Devon, 513–397 Ma) wurde früher in China als kaledonische orogenetische Periode* bezeichnet. Die kaledonische Orogenese wurde jedoch in Nordwesteuropa und Nordostamerika definiert (Rogers und Dunning, 1991,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11868-5_4 37105a81d61c9527e8dec652a7c07548;de;;;1.2.;;;Die einzigartigen Eigenschaften von Bacteriorhodopsinen als Energiewandler Ein Vierteljahrhundert ist seit der Entdeckung von PM (Purple Membran) vergangen und das erste bakterielle Rhodopsin (BR) wurde in einer Wildzellkultur von . isoliert;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-2442-6_3 2fac208769fc10a4f3c22760c151e4b2;de;;;1.2.;;;Regulatorische Probleme im Zusammenhang mit minimal verarbeiteten gekühlten Lebensmitteln MPR-Lebensmittel sind Lebensmittel mit Mehrwert und Convenience. Sie können geschält, in Scheiben geschnitten, gewürfelt oder gehackt worden sein, sie können blanchiert, pasteurisiert oder teilweise gekocht sein. Sie werden unter Kühlung in Kombination mit anderen Behandlungen wie modifizierter Atmosphäre oder Vakuumverpackung zur Verlängerung der Haltbarkeit gelagert und vermarktet. Neben vielen traditionellen Lebensmitteln wie Milch und Orangensaft, die nur minimal verarbeitet und gekühlt werden, sind weitere Beispiele für MPR-Lebensmittel gekochte Nudel- und Gemüsesalate, ungekochte Nudeln, verpackte Sandwiches, gehackter oder zerkleinerter Salat oder Kohl, verschiedene Formen von vorgeschältem Frisch Kartoffeln, Backwaren, frischer Fisch, Fleisch oder Geflügel sowie teilweise zubereitete oder gekochte Vorspeisen oder komplette Mahlzeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-2393-2_9 b4ae7f000d040b55752e96afb5a33eb7;de;;;1.2.;;;Kapitalmenge . 1. Der Begriff des Kapitals und damit der der „Kapitalmenge“ ist eng mit der Frage der Verteilung des gesellschaftlichen Produkts auf die die Gemeinschaft bildenden Klassen verbunden. Um die Rolle dieses Konzepts in der Wirtschaftstheorie zu diskutieren, ist es daher notwendig, zunächst die beiden breiten Ansätze einer Theorie der Verteilung und relativer Preise zu unterscheiden, die sich in der Geschichte der Wirtschaftsanalyse verfolgen lassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-20861-6_1 f9078ad397c2f47f366c3b331739b780;de;;;1.2.;;;Das Jungpaläolithikum Nordasiens: Errungenschaften, Probleme und Perspektiven. III. Nordostsibirien und der russische Ferne Osten Die Erforschung des Jungpaläolithikums Nordostasiens begann in den 1940er Jahren. Jüngste Arbeiten haben zur Entdeckung einer Reihe von Stätten geführt, von denen einige mehr als 30.000 Jahre alt sind und die der D'uktai-Kultur zugeordnet werden. Das von diesen Stätten geborgene Material weist auf Beziehungen zwischen der D'uktai-Kultur und anderen Kulturen in Europa, Japan, Korea, China und Nordamerika hin. Meistens resultieren diese Ähnlichkeiten jedoch nicht aus einer Verbreitung kultureller Merkmale von Europa nach Asien. Stattdessen spiegeln die meisten von ihnen die lokale Entwicklung des Jungpaläolithikums sowohl in Asien als auch in Europa aus lokalen mittelpaläolithischen Industrien wider, die selbst ursprünglich in Technologie und Typologie ähnlich waren.;-;-;-;https://link.springer.com/article/10.1007/BF00975634 8b89ec5580617817591007113769f5fd;de;;;1.2.;;;Datenflussanalyse In diesem Kapitel stellen wir Techniken zur Datenflussanalyse vor. Die Datenflussanalyse ist die traditionelle Form der Programmanalyse, die in vielen Lehrbüchern zum Schreiben von Compilern beschrieben wird. Wir präsentieren Analysen für die einfache Imperativsprache present;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-03811-6_2 386a66f4166948af699d296a0e02781f;de;;;1.2.;;;Computerisierter Anatomieatlas des menschlichen Gehirns Es wird eine Software zum Entwickeln, Bearbeiten und Anzeigen eines computerisierten 3D-Anatomischen Atlas eines menschlichen Gehirns beschrieben. Das Ziel dieses Atlas ist es, als Referenz bei der Identifizierung verschiedener Strukturen in CT-Scans zu dienen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-7772-3_27 a6d143bf6ff4d87f3fef83a58ecbf206;de;;;1.2.;;;Langfristige Veränderungen intertidaler benthischer Ansammlungen im Mesohalinicum der Wesermündung Langfristige Veränderungen der intertidalen benthischen Assemblagen im Mesohalinicum der Wesermündung wurden durch einen Vergleich von Surveydaten von 1968, 1980 und 1992 untersucht. Mittels einer Clusteranalyse konnten acht Benthos-Assemblies identifiziert und beschrieben werden. Die Veränderungen der Verbreitungsmuster der Gesellschaften und einzelner Arten weisen auf eine Verschiebung der Mündungs-Benthos-Gemeinschaft in Richtung flussaufwärts hin. Eine der wichtigsten Veränderungen, die im Zeitraum von 1968 bis 1980 beobachtet wurde, war ein starker Rückgang der Brackwasseralge;-;-;-;https://link.springer.com/article/10.1007/BF03043029 6dbd19d5ba70710fae6889e2a4c50434;de;;;1.2.;;;Potenziale von Branch-Prädiktoren: Aus Sicht der Entropie Predictors sagt im Wesentlichen die jüngsten Ereignisse basierend auf der Aufzeichnung vergangener Ereignisse, der Geschichte, voraus. Es ist offensichtlich, dass die Vorhersageleistung weitgehend auf dem Regelmäßigkeits-Zufalls-Niveau der Historie beruht. Dieses Dokument konzentriert sich auf die Extraktion effektiver Informationen aus dem Verzweigungsverlauf und erörtert die erwartete Leistung von Verzweigungsprädiktoren. Zu diesem Zweck führt dieses Papier Entropie-Standpunkte zur quantitativen Charakterisierung sowohl des Programmverhaltens als auch des Vorhersagemechanismus ein. Dieses Papier definiert vier neue Entropien aus verschiedenen Blickwinkeln, zwei davon sind unabhängig von Vorhersagemethoden und die anderen sind abhängig von der Prädiktororganisation. Diese neuen Entropien sind nützliche Werkzeuge zur Analyse der oberen Grenze der Vorhersageleistung. Dieser Beitrag zeigt einige Bewertungsergebnisse typischer Prädiktoren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78153-0_21 54f4b5e40e8986d5d50b23da9d0b04c3;de;;;1.2.;;;Standard-Leberfunktionstests und ihre Grenzen: Selektivität und Sensitivität individueller Serum-Gallensäurespiegel bei Leberfunktionsstörungen Zahlreiche Laboruntersuchungen wurden zur Früherkennung, Differenzialdiagnose und Prognose der hepatobiliären Dysfunktion eingesetzt. Basierend auf den physiologischen Prinzipien und den pathophysiologischen Anomalien, die die Leberfunktion bei verschiedenen Erkrankungen beeinträchtigen können, können diese Tests in drei Hauptgruppen eingeteilt werden. Die erste Gruppe umfasst biochemische Tests, die die Fähigkeit der Hepatozyten zum Transport organischer Anionen messen, und Vertreter dieser Gruppe können sein: Gesamt- und individuelle Serumgallensäure (SBA)-Konzentrationen [19, 98, 152], Gesamtserumbilirubin [49, 71 ] und Farbstofftests wie Sulfobromphthalein [160] und Indocyaningrün-Clearance [33, 73, 104]. Die zweite Testgruppe spiegelt die metabolische Kapazität der Leber wider, gemessen an der Aminopyrin-Clearance (Aminopyrin-Atemtest) [18, 103, 149], Galactose-Elimination [103, 125] und Lidocain-Disposition [19, 118]. Die dritte Gruppe umfasst Tests, die sich mit der Fähigkeit der Leber befassen, bestimmte Serumproteine ​​wie Albumin [154] und Gerinnungsfaktoren zu synthetisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-12385-0_14 a6e74c419eaeb3da6bd669478b2fd1cf;de;;;1.2.;;;Zusammenfassung der 12. Russischen Konferenz über Halbleiterphysik (Ershovo, Swenigorod, Moskau, 20.–25. September 2015) Eine Zusammenfassung der 12. Russischen Konferenz über Halbleiterphysik (RCSP-12) vom 20. bis 25. September 2015 im Hotel „Ershovo“ bei Swenigorod, Oblast Moskau, wird präsentiert. Die Statistik der Berichte innerhalb der Sektionen wird angegeben, die Trends der sich ändernden Studieninteressen im Vergleich zur vorherigen 11. Russischen Konferenz über Halbleiterphysik im Jahr 2013 in Sankt Petersburg und der 32. Internationalen Konferenz über Halbleiterphysik im Jahr 2014 in Austin (Texas, USA) werden analysiert. Die Grundzüge der vorliegenden Tagung werden aufgezeigt, die aus meiner Sicht interessantesten Forschungsrichtungen vorgestellt.;-;-;-;https://link.springer.com/article/10.1134/S1063782616060117 010aa15557df62b996358794dad88f6f;de;;;1.3.;;;Prozessverbesserung im Unterricht Software-Qualitätssicherung und Prozessverbesserung sind Themen, die in einem Software-Engineering-Studiengang schwer zu vermitteln sind. Die Studierenden erwerben selten ein tiefgreifendes Verständnis der Konzepte und Ideen der Prozessbewertung, geschweige denn praktische Erfahrungen mit der Verbesserung von Softwareprozessen. In diesem Artikel wird ein Experiment zur Prozessbewertung und -verbesserung beschrieben, das vom Real World Lab, einer Kursreihe für ein Software Engineering-Praktikum für den Bachelor an der Georgia Tech, durchgeführt wurde. Wir haben das Capability Maturity Model (CMM) des SEI als Bewertungsinstrument für die RWL-Prozesse verwendet, um nicht nur den im RWL verwendeten Softwareprozess, sondern auch die pädagogischen Stärken unserer simulierten „realen“ Industrieumgebung zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-58951-1_99 2765ec57e219877538b95944df2ba08c;de;;;1.2.;;;Hydrologie und Landnutzung in einem Sahel-Auen-Feuchtgebiet Afrikas zahlreiche Auen-Feuchtgebiete bieten eine Vielzahl von hydrologischen, ökologischen, wirtschaftlichen und sozialen Vorteilen. Sie spielen eine grundlegende Rolle bei der Unterstützung bedeutender menschlicher Populationen. Wie bei allen Feuchtgebieten ist die Hydrologie der Überschwemmungsgebiete Afrikas von zentraler Bedeutung für ihr Funktionieren und spielt wiederum eine Schlüsselrolle bei der Bestimmung der Vorteile, die sie bieten. Der Zeitpunkt und das Ausmaß der Überschwemmung in der Regenzeit haben großen Einfluss auf die zeitliche und räumliche Verteilung der Ressourcennutzung von Überschwemmungsgebieten. Unter Verwendung von Ergebnissen intensiver hydrologischer Untersuchungen, ergänzt durch Analysen von Flussdaten und Hochwasserausdehnungskarten, grenzt dieser Beitrag Gebiete innerhalb der Hadejia-Nguru-Feuchtgebiete im Nordosten Nigerias nach ihren hydrologischen Eigenschaften ab. Diese Abgrenzung wird in Kombination mit einer Landnutzungskarte aus Luft- und Feldstudien verwendet, um die Auswirkungen der Hydrologie auf menschliche Aktivitäten und Landnutzung zu untersuchen. Der Zeitpunkt der verschiedenen Anbaumethoden in den Feuchtgebieten stimmt nachweislich mit dem jährlichen Hochwasserzyklus überein. Reis wird in überschwemmten Gebieten angebaut und nach dem Rückgang der Überschwemmungen mit anderen Pflanzen angebaut. Die Intensität des Fischfangs und der Beweidung von Rindern variiert ebenfalls mit dem Muster steigender und fallender Wasserstände. Die Verteilung wichtiger Landnutzungen wird stark von räumlichen Variationen der hydrologischen Eigenschaften beeinflusst. Der Standort des Reisanbaus und der kleinräumigen Bewässerung wird durch die Wasserverfügbarkeit in der Regen- bzw. Trockenzeit bestimmt. Entlang des Jama’are-Flusses, der über 70 % des Flusszuflusses in die Feuchtgebiete beiträgt, befinden sich ausgedehnte Reisfarmen mit Überschwemmung. Innerhalb des Hadejia-Flusssystems sind der Madachi-Sumpf und der Marma-Kanal wichtige Überschwemmungsgebiete. Das Hauptgebiet der kleinräumigen Bewässerung liegt entlang des Burum Gana Flusses, in dem kleine, aber ganzjährige Flüsse durch Rückflüsse aus flussaufwärts gelegenen Bewässerungssystemen aufrechterhalten werden. Dieses Gebiet, das nur 13 % der Landnutzungskarte ausmacht, umfasst 48 % der kleinräumigen Bewässerungsfläche. Ausgedehnte Überschwemmungen scheinen in einigen Gebieten eine Barriere für menschliche Aktivitäten zu sein und sind für die Erhaltung der natürlichen Vegetation in zentralen Teilen der Feuchtgebiete verantwortlich. Änderungen der hydrologischen Eigenschaften einiger Teile der Feuchtgebiete aufgrund von Dürre und stromaufwärts gelegenen Bewässerungssystemen haben lokale Gemeinschaften mit unterschiedlichem Erfolg dazu gezwungen, ihre Nutzungsweise der Überschwemmungsressourcen anzupassen. Bauern entlang des Burum Gana haben sich der kleinräumigen Bewässerung verschrieben, während die Bauern am Keffin Hausa River, der fast ausgetrocknet ist, keine andere Wahl hatten, als sich auf die Regenfeldbauwirtschaft zu konzentrieren. Die starken Wechselwirkungen zwischen Hydrologie, Landnutzung und menschlichen Aktivitäten erfordern, dass keine weiteren hydrologischen Veränderungen vorgenommen werden sollten, ohne ihre potenziellen Auswirkungen vollständig zu berücksichtigen.;-;-;-;https://link.springer.com/article/10.1672/0277-5212%282000%29020%5B0639%3AHALUIA%5D2.0.CO%3B2 8b476c624463484a0a9cb77d3ffa916d;de;;;1.2.;;;Nichtholonomische Mechanik Nichtholonome Systeme stellen eine wichtige Klasse mechanischer Steuersysteme bereit. Ein Grund für diese Bedeutung ist, dass Nichtintegrität sowohl für die Mechanik als auch für die Regelung essentiell ist: Nicht integrierbare Zwangsverteilungen sind die Essenz nichtholonomischer Systeme, während eine nicht integrierbare Verteilung von Regelvektorfeldern der Schlüssel zur Regelbarkeit nichtlinearer Systeme ist. Wir werden lernen, wie diese beiden verschiedenen Arten von Nichtintegrität zusammenarbeiten, wenn wir die Kontrolle nichtholonomischer mechanischer Systeme untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/b97376_5 acf40da934eb0018144a40df055139be;de;;;1.2.;;;Operationen an der Brust Läsionen unsicherer Natur, die durch Palpation, Mammographie oder Sonographie erkannt werden, sind eine Indikation für eine Inzisionsbiopsie. Trotz der Fortschritte in der Aspirationszytologie bietet die offene Exzision und die anschließende histologische Untersuchung von Brustgewebe, obwohl sie teurer ist, den zuverlässigsten Beweis für die Natur der Brusterkrankung. Bei allen offenen Biopsien sollte versucht werden, die Läsion vollständig mit ausreichenden Rändern zu exzidieren, auch wenn dies mit einem erheblichen Verlust an Brustgewebe verbunden ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83256-7_5 045c628580a662e081eedfd566feb1a3;de;;;1.2.;;;Temperatur- und Druckabhängigkeit der hydrophoben Wechselwirkungen Die Untersuchung der Temperatur- und Druckabhängigkeit des HI ist aus mehreren Gründen von Interesse. Der erste ist seine Bedeutung für biologische Prozesse. Es ist bekannt, dass Proteine ​​bei steigender Temperatur einen Denaturierungsprozess durchlaufen. Dieser Prozess stört ihre normale Funktion und bedroht daher die gesamte Aktivität oder das Leben jedes biologischen Systems. Es gibt Hinweise, wie in Abschnitt 5.4 gezeigt wird, dass die Stärke des HI mit steigender Temperatur zunimmt, zumindest im Bereich biologisch interessanter Temperaturen. Es scheint daher, dass dieses Verhalten des HI zur thermischen Stabilität von Proteinen gegenüber Denaturierungsneigung beiträgt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-3545-0_5 42c51dc8f74255b8d994b6ae67a6a295;de;;;1.2.;;;Astronomische Zeitskala für das mittlere Oxfordium bis zum späten Kimmeridgium im Schweizer und französischen Jura Detaillierte Untersuchungen von Fazies und Sedimentstrukturen zeigen, dass die flachen Karbonatplattformen des Schweizer und französischen Juras während des mittleren Oxfordiums bis zum späten Kimmeridgium hochfrequente Meeresspiegelschwankungen recht getreu aufzeichneten. Die cyclostratigraphische Analyse innerhalb des etablierten biostratigraphischen und sequenzchronostratigraphischen Rahmens impliziert, dass sich die resultierenden hierarchisch gestapelten Ablagerungssequenzen im Einklang mit den Orbitalzyklen der Präzession (20 kyr) und Exzentrizität (100 und 400 kyr) bildeten. Die hier vorgestellte astronomische Zeitskala basiert auf der Korrelation von 19 Plattformabschnitten und 4 hemipelagischen Abschnitten aus Südostfrankreich, wo eine gute biostratigraphische Kontrolle verfügbar ist. Die zyklostratigraphische Interpretation legt nahe, dass das Intervall zwischen den Sequenzgrenzen Ox4 und Kim1 (frühes Mittel-Oxfordium bis frühes Kimmeridgian) 3,2 Mio;-;-;-;https://link.springer.com/article/10.1007/s00015-007-1230-4 61f08b51be13efa5d91461733e715b74;de;;;1.2.;;;Aussichten für Vorhersagen auf molekularer Basis Es versteht sich fast von selbst, dass der quantitative Zusammenhang zwischen molekularen Parametern wie Kettensteifigkeit oder Molekülmassenverteilung einerseits und rheologischen Eigenschaften unter variierenden Bedingungen andererseits von großem Interesse ist. Dieses Interesse ist für Fundamentalisten sicherlich nicht besonders charakteristisch, es wird von vielen Industriellen geteilt. Ein moderner Trend geht dahin, Polymertypen, die sogenannten Tailored Resins, für ganz spezielle Zwecke herzustellen. Hersteller wollen in diesem Zusammenhang wissen, wie eine Molekülmassenverteilung gestaltet sein muss, um einen bestimmten spezifischen rheologischen Effekt wie Kaltverfestigung bei der Dehnung zu realisieren. Auch bei Allzwecksorten können Fragen auftauchen, die im Hinblick auf mehr oder weniger ausgeprägte Anpassungen in der chemischen Struktur des Polymers gelöst werden müssen. Insbesondere wurde eine unzureichend definierte Langkettenverzweigung als eine Quelle von Variationen in der Verarbeitungsleistung diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-68822-5_3 84206028b98c35fd9bf2880082f93691;de;;;1.2.;;;Stammzellen aus frühen Säugetierembryonen Eine Beschreibung des Potenzials von Zellen während der Embryonalentwicklung weist darauf hin, dass die erste Einschränkung der Totipotentialität in der Zygote während der Blastozystenbildung auftritt, wenn die äußere Zellschicht das Trophektoderm bildet, aus dem die Plazenta entsteht, und die innere Zellen bilden die innere Zellmasse (ICM), die sich zu Fötus und Fötusmembranen entwickelt. An diesem Punkt verlieren die ICM-Zellen die Fähigkeit, Trophektoderm zu bilden, und gelten insofern als pluripotent, als sie alle Zellen des Körpers des Embryos bilden können, jedoch nicht die Plazenta. Eine Population pluripotenter Zellen bleibt mehrere Tage bestehen, aber später in der Entwicklung ist die Pluripotenz auf die primordialen Keimzellen (PGCs) beschränkt, aus denen schließlich die Gameten entstehen. Es wurde eine Vielzahl von Methoden entwickelt, um die Stammzellkapazität früher embryonaler Zellen in vitro zu nutzen. Historisch gesehen wurden als erste Stammzellen aus Maus-Teratokarzinom-Stammzellen und embryonalen Karzinom-Stammzellen gewonnen. Sie wurden aus spontan auftretenden Keimzelltumoren bzw. aus Tumoren, die von embryonalen ektopen Expiantien stammen, isoliert. Sie können in vitro unbegrenzt vermehrt werden und haben die Fähigkeit, sich in viele Zelltypen zu differenzieren. In jüngerer Zeit wurden drei Stammzelltypen direkt aus dem frühen Embryo isoliert, ohne dass das Tumorwachstum dazwischenkam: embryonale Stammzellen (ES) aus der ICM der Blastozyste, Trophektoderm-Stammzellen (TS) aus dem Trophektoderm der Blastozyste oder extraembryonale Ektoderm und embryonale Keimzellen (EG) aus den PGCs. ES-Zellen und EG-Zellen ähneln sich in ihrer Pluripotenz und Fähigkeit zur unbegrenzten Selbsterneuerung, während TS-Zellen ein eingeschränkteres Entwicklungspotential aufweisen. Es wurde noch keine wirklich totipotente Stammzelllinie abgeleitet, aber der Phänotyp von ES-Linien kann unter geeigneten Kulturbedingungen in TS geändert werden, was darauf hinweist, dass eine Transdifferenzierung möglich ist. Kürzlich wurden aus menschlichen Embryonen ES- und EG-Zelllinien gewonnen, die viele, aber nicht alle Merkmale von Maus-Stammzelllinien teilen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-59259-411-5_2 feb435ecc445e4fbe705e09ebaa193a5;de;;;1.2.;;;Wissensstruktur-Ansatz zur Verifizierung von Authentifizierungsprotokollen Die standardmäßige Kripke-Semantik epistemischer Logiken wurde erfolgreich auf die Argumentation von Kommunikationsprotokollen unter der Annahme angewendet, dass das Netzwerk nicht feindlich ist. Dieses Papier stellt eine natürliche Semantik der Kripke-Semantik vor, genannt;-;-;-;https://link.springer.com/article/10.1360/122004-78 644f6fe802ff49ede5402e17a01f76c4;de;;;1.2.;;;Ein IP- und GEP-basiertes dynamisches Entscheidungsmodell für die Börsenprognose Die Prognosemodelle für Börsenindizes, die Computerintelligenz wie Künstliche Neuronale Netze (ANNs) und Genetische Programmierung (GP), insbesondere Hybrid Immune Programming (IP) Algorithm und Gene Expression Programming (GEP) verwenden, haben gute Ergebnisse erzielt. Diese Studien haben jedoch eine statische Umgebung angenommen. Diese Studie untersucht die Entwicklung eines neuen dynamischen Entscheidungsvorhersagemodells. Die Anwendungsergebnisse belegen die höhere Genauigkeit und Generalisierungskapazität des Vorhersagemodells, das durch das neue Verfahren erhalten wird, als statische Modelle.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72383-7_56 b78087fa3c19a303cae9fda6f5828b2f;de;;;1.2.;;;Regionale und zeitliche Variabilität in der Verbreitung und Abundanz von Lorbeer-Sardellen ( Muster und Variabilität der Reproduktionsleistung pelagischer Fische werden selten auf Ökosystemebene bestimmt. Wir untersuchten die zeitliche und räumliche Variabilität beim Laichen von Sardellen (;-;-;-;https://link.springer.com/article/10.2307/1353087 38fdcb43dddca3f99e2490b7e5b9d13b;de;;;1.2.;;;Essschwierigkeiten im Säuglingsalter: ein Hinweis auf psychosomatische Pathologie Ein Säugling kann überleben und wachsen dank der Fürsorge, die ihm von seiner Umgebung garantiert wird, die in den ersten Lebensmonaten hauptsächlich von der Mutter repräsentiert wird, die es schafft, die Bedürfnisse des Säuglings zu befriedigen, indem sie sich diese Fähigkeit der Beziehungsfähigkeit zunutze macht ein grundlegendes Merkmal der „Primary Ma-ternal Preoccupation“;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-4697-5_64 5731130b70195af6308b9a7b912e1351;de;;;1.2.;;;Parametrische proportionale Hazard-Modelle mit Gamma-Frailty In diesem Kapitel wird das parametrische Shared-Frailty-Modell mit einem Einparameter-Gamma-Frailty-Faktor diskutiert. Die Einfachheit dieses Modells ist zweifach: (i) Die Wahl einer Gamma-Frailty ermöglicht es, die Frailties formal in die bedingte Überlebenswahrscheinlichkeit zu integrieren, was zu einem expliziten und einfachen Ausdruck für die marginale Wahrscheinlichkeit führt. Obwohl die Integration auch für einige andere Gebrechlichkeitsverteilungen möglich ist, führt sie zu viel komplexeren Ausdrücken (siehe Kapitel 4), (ii) die Wahl eines parametrischen Baseline-Hazard bedeutet, dass die marginale Likelihood vollständig parametrisch ist, sodass wir uns auf klassische Maximum-Likelihood-Techniken zum Schätzen der Parameter. Für die meisten Beispiele in diesem Kapitel gehen wir von einem Baseline-Hazard aus, das den Weibull-verteilten Ereigniszeiten entspricht, in einer Reihe von praktischen Situationen ist dies eine angemessene Annahme. Die in diesem Kapitel vorgestellte Methodik lässt sich leicht auf andere parametrische Modelle ausweiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-72835-3_2 17a50d5a9f338803f1d8d567de447986;de;;;1.2.;;;Die Reaktionen und das Überleben von Organismen in feuergefährdeten Umgebungen Feuer ist ein weit verbreitetes, natürlich vorkommendes Phänomen der großen Antike, das die Struktur, Zusammensetzung und Dynamik vieler Ökosysteme beeinflusst. Im südlichen Afrika sind insbesondere Grasland-, Savannen- und Fynbos-Ökosysteme wiederkehrenden Bränden ausgesetzt, und Feuer wird als von großer Bedeutung für die Evolution und Erhaltung ihrer Biotas angesehen (Phillips 1930, West 1971, Kruger 1977b).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-69805-7_13 dcc8d6c9a3f90873cbc5233686e663c3;de;;;1.2.;;;Ungarn: Auf dem Weg zu effizienteren Vorbereitungsverfahren Die ungarische Zivilprozessordnung entwickelte sich zu Beginn des 20. Jahrhunderts nach deutschem und österreichischem Vorbild und wurde in der zweiten Hälfte des Jahrhunderts von den sowjetischen Lösungen beeinflusst. Seit dem Regimewechsel 1989 hat der Gesetzgeber mehrere Versuche unternommen, das Verfahren zu konzentrieren und in angemessener Zeit zu verhandeln, mit teilweise erfolgreichen Ergebnissen. Das ungarische Zivilverfahren in erster Instanz darf nicht in eine effiziente Vorbereitungsphase und eine konzentrierte Hauptverhandlung unterteilt werden. Die schriftliche Vorbereitung ist – abgesehen von der formellen Prüfung der Klageschrift – optional. Ob das Gericht die Parteien auffordert, den Fall auf dem Korrespondenzweg vorzubereiten, hängt von der Haltung des Richters und der Art der Fälle ab. Der Erfolg einer schriftlichen Vorbereitung hängt von der Bereitschaft der Parteien ab, sich aktiv daran zu beteiligen. Mit dieser Phase des Verfahrens ist keine wirkliche Ausschließung verbunden. Aufgrund der fehlenden schriftlichen Vorbereitung fungiert die erste Anhörung als vorbereitende Anhörung, sodass ein Großteil der Fälle vertagt wird. Ein Ziel der vom Gesetz vorgeschriebenen Vorverhandlungen wäre auch, den Fall für den Fall des Scheiterns einer gütlichen Einigung verhandlungsbereit zu machen, bleibt jedoch in der Praxis hinter den Erwartungen des Gesetzgebers zurück. Das Konzept der neuen Zivilprozessordnung fordert eine Zäsur zwischen der Vorbereitungs- und der Hauptverhandlung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-29325-7_8 d6a53fac45453d06348bfaa9a6962072;de;;;1.2.;;;Entzündliche Gefäßerkrankungen des Gehirns und des Auges Systemische entzündliche Erkrankungen verursachen oft eine multifokale Vaskulitis, die die Netzhaut, den Sehnerv, die Hirnnerven oder das Gehirn betrifft, so dass die meisten Patienten mit diesen Erkrankungen im Verlauf ihrer Erkrankung neuroophthalmologische Symptome oder Befunde haben. Darüber hinaus gibt es mehrere entzündliche Gefäßerkrankungen, deren einzige klinische Manifestation aus der Beteiligung des Auges oder des Gehirns oder beider hervorgeht. Alle diese entzündlichen Erkrankungen sind in der Gesamtbevölkerung relativ selten bis selten. Trotz der geringen Häufigkeit werden hier die einzelnen Entitäten besprochen, um deren frühzeitige Erkennung zu erleichtern. Nach der Diagnose gibt es oft Behandlungen, die dauerhafte schwere Sehstörungen oder neurologische Störungen verhindern können. Bei Patienten mit systemischer Vaskulitis, die sich mit einer neuroophthalmologischen Dysfunktion präsentieren, kann die Erstellung der richtigen Diagnose helfen, subklinische Anomalien aufzudecken, die Organsysteme außerhalb des Nervensystems betreffen. Diese Befunde können überwacht und behandelt werden, bevor sie klinisch offensichtlich oder schwächend werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-77620-5_9 2c45582821e65dfdcfa23339ed2fdc93;de;;;1.2.;;;Constraint and Logic Programming: Ugo Montanaris Hauptbeiträge und Einführung in den Bandabschnitt Diese kurze Anmerkung führt in das Gebiet der Constraint- und Logikprogrammierung ein. Ich werde zunächst kurz die Hauptbeiträge von Ugo Montanari zu diesen Disziplinen beschreiben. Dann werde ich die in diesem Band enthaltenen Aufsätze zusammenfassen, die sich entweder mit Beschränkungs- oder Logikprogrammierung befassen und die zu Ehren von Ugo Montanari geschrieben wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68679-8_10 1664458207455e7a5822bbdc1e7b7640;de;;;1.2.;;;Ein GIS für das speziell verwaltete Gebiet der Antarktis von Admiralty Bay, King George Island, Antarktis Als Werkzeug für den Bewirtschaftungsplan für das speziell verwaltete Gebiet der Antarktis (ASMA) in der Admiralty Bay wird ein GIS vorgeschlagen. Die ASMA umfasst das Gebiet, das innerhalb des eiszeitlichen Einzugsgebietes der Bucht liegt. Darüber hinaus umfasst es einen Teil des SSSI Nr. 8, der an das Gebiet angrenzt, jedoch außerhalb des Einzugsgebiets der Gletscher liegt. Drei Stationen und sechs Schutzhütten befinden sich in der Umgebung. Anhand einer SPOT-Satellitenbildkarte werden die Grenzen des ASMA markiert und seine Fläche neu berechnet. Es besteht aus 362 km²;-;-;-;https://link.springer.com/article/10.1007/BF02826972 e01c00f65917f9889d37a8ed38574e4b;de;;;1.2.;;;Eine formale Semantik zum Debuggen von synchronen Message Passing-basierten nebenläufigen Programmen In diesem Papier schlagen wir ein semantisches Framework vor, um synchrone, auf Message Passing basierende nebenläufige Programme zu debuggen, die immer nützlicher werden, da paralleles Computing und verteilte Systeme immer allgegenwärtiger werden. Wir entwerfen zunächst ein Modell für nebenläufige Programmiersprachen, um bestehende nebenläufige Programmiersprachen einheitlich darzustellen. Im Vergleich zu sequentiellen Programmiersprachen enthält dieses Modell Kommunikationsanweisungen, d. h. Sende- und Empfangsanweisungen, und eine nebenläufige Struktur zur Darstellung von Kommunikation und Nebenläufigkeit. Wir schlagen dann einen Debugging-Prozess vor, der aus einem Tracing- und einem Ortungsverfahren besteht. Die Tracing-Prozedur führt ein Programm mit einem fehlgeschlagenen Testfall erneut aus und verwendet speziell entwickelte Datenstrukturen, um nützliche Ausführungsinformationen zum Auffinden von Fehlern zu sammeln. Wir stellen für das Tracing-Verfahren eine strukturelle Operationssemantik zur Darstellung synchroner Kommunikation und Nebenläufigkeit bereit. Die Lokalisierungsprozedur lokalisiert rückwärts die schlecht entworfene Anweisung unter Verwendung von Informationen, die in der Verfolgungsprozedur erhalten wurden, erzeugt eine Korrekturgleichung und versucht, den Fehler durch Lösen der Korrekturgleichung zu beheben. Wir schlagen auch eine strukturelle operationelle Semantik für das Lokalisierungsverfahren vor. Wir liefern zwei Beispiele, um unsere vorgeschlagene operationelle Semantik zu testen.;-;-;-;https://link.springer.com/article/10.1007/s11432-014-5150-4 3c4aeeb2359e00b620653ee6ea4ec5a8;de;;;1.2.;;;Eine Typologie kanadischer Vorworte zu Romanen aus dem neunzehnten Jahrhundert In diesem Kapitel wird die Typologie der Vorworte vorgestellt. Allerdings ist es notwendig, vor der Präsentation einige methodische Aspekte kurz zu besprechen. Zunächst sollte klar sein, dass die Vorworttypologie nur ein Teil der systemischen Analyse der Vorworte ist, aber für sich allein stehen kann – als Typologie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-13909-6_3 68a63f3695c88df4fef4c32cf3d7fed1;de;;;1.2.;;;Der dynamische Multiplikator Keynesianische Modelle beziehen sich auf das kurzzeitige Gleichgewicht. Wenn sich etwas ändert, z.B. wenn die Staatsausgaben oder die Sparneigung steigen, kann statisch eine Gleichgewichtslage mit einer anderen verglichen werden. Aber aus Keynes Sicht enthalten die Modelle keine dynamischen Elemente, streng genommen gibt es keine keynesianische makroökonomische Dynamik. Eine Analyse der zeitlichen Prozesse – auch nicht der Inflations- oder Deflationsprozesse – ist nicht vorgesehen, und es gibt keine Verbindung zwischen einer Periode und der nächsten. Der Zinssatz könnte eine solche Verbindung darstellen, wird aber tatsächlich nur verwendet, um die Erwartungen an die Zukunft auf einen für die aktuelle Periode geltenden Barwert zu reduzieren. Diese extreme Vereinfachung wird durch die Annahme einer so kurzen Periode ermöglicht, dass das Grundkapital;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-81541-8_9 1771c0ed7e53fca4db88414c7ab76eb2;de;;;1.2.;;;Epilog: Nach der „Erlösung“ Nachdem die Inseln 1947 offiziell an Griechenland abgetreten wurden, nahm die Erinnerung an die italienische Herrschaft schnell eine wichtige Rolle im Leben der einfachen Dodekanesier ein. Obwohl sie sich mit Griechenland als ihrer Nation identifizierten und die griechische Herrschaft als legitim akzeptierten, hatten sie auch das Gefühl, dass sie für einige Zeit nach der Vereinigung eine neue „Besetzung“ erlebten, und sie drückten dieses Gefühl aus, indem sie den griechischen Staat als „anderen“ bezeichneten. Bei den Befragten wurde dies in Ausdrücken wie „Leben unter den Griechen“ und „als die Griechen kamen“ („me tous Ellines“ und „ótan írthan i Ellines“) vermittelt. Obwohl sie sich von Untergebenen zu Bürgern gewandelt hatten, erweckten die mündlichen Quellen manchmal den Eindruck, dass die Dodekanesier Opfer einer unterdrückenden, fremden Macht geblieben waren. Den Interviewpartnern war bewusst, dass Kritik an der griechischen Herrschaft moralisch und politisch gefährlich war und als unpatriotisch aufgefasst werden konnte, dennoch sahen die Inselbewohner Raum für subtile Kritik, und zwar in Form von nostalgischen Erinnerungen an die italienische Zeit.;-;-;-;https://link.springer.com/chapter/10.1057/9780230376953_8 49e1c7323a231ab8c69e0626954d18ee;de;;;1.2.;;;Endemische Syphilis (Bejel) Endemische Syphilis oder Bejel ist eine nicht-venerische Syphilis. Die Krankheit ist in vielen Teilen der Welt, einschließlich Saudi-Arabien, endemisch. Es wurde geschätzt, dass 4,7 % der Patienten, die sich in Krankenhäusern in Saudi-Arabien vorstellen, eine positive Serologie auf haben;-;-;-;https://link.springer.com/article/10.1007/BF00163561 ef58b473fb4dd90b4ea90d90f33a16e1;de;;;1.2.;;;Komplementaritätsprobleme Dieses Kapitel präsentiert eine umfassende Behandlung des nichtlinearen Komplementaritätsproblems und mehrerer verwandter mathematischer Programme in endlichen Dimensionen. Zu den diskutierten Themen gehören Existenztheorie, Lösungsmethoden, Sensitivitäts- und Stabilitätsanalyse und Anwendungen auf Gleichgewichtsmodellierung und technische Probleme. Es werden einige zukünftige Forschungsrichtungen vorgeschlagen und eine umfangreiche Literaturliste angegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-2025-2_6 0aefa7b4baf4c153c4d4c59d24f50db0;de;;;1.3.;;;Die Rolle der Zeit bei der Aufgabe bei der formativen Bewertung verstehen: Der Fall des Mathematiklernens Beherrschungsdaten, die aus formativen Bewertungen abgeleitet werden, bilden einen reichhaltigen Datensatz für die Entwicklung von Modellen zur Vorhersage von Schülerleistungen. Die Dominanz von formativen Assessment-Mastery-Daten gegenüber Nutzungsintensitätsdaten wie Zeit für Aufgaben oder Anzahl der Klicks war das Ergebnis früherer Forschungen der Autoren im Kontext der dispositionellen Lernanalyse [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27704-2_12 4c9007e1e63d8861cee90cfd25ffc699;de;;;1.3.;;;Agilität des strategischen Plans für das Fernstudium nach COVID-19 an der Cadi Ayyad University. Eine Chance für eine totale digitale Transformation der Universität Anfang März 2020 hat Marokko wie die meisten Länder beschlossen, restriktive Maßnahmen zu verhängen, um die Ausbreitung des SARS-CoV-2-Virus zu begrenzen. Unter diesen Maßnahmen wurden bisher alle Schulen und Universitäten, einschließlich der Cadi Ayyad University (UCA), geschlossen, wodurch die Studierenden gezwungen wurden, Fernkurse zu belegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-67435-9_16 886244dc7eaea2c31cec2efedc7994ad;de;;;1.3.;;;Neue Ergebnisse für pfadbasierten Shared Protection und Link-based Hamiltonian Cycle Protection in überlebensfähigen WDM-Netzwerken In diesem Papier untersuchen wir die pfadbasierten gemeinsamen Schutz (PBSP) und die Link-basierten Hamiltonian Cycle Protection (LBHCP) Schemata zur Tolerierung von Single-Link-Ausfällen in überlebensfähigen Wellenlängen-Multiplexing-Netzwerken. Obwohl frühere Arbeiten gezeigt haben, dass PBSP eine bessere Leistung erbringen kann als ein Link-basierter gemeinsamer Schutz, einschließlich des Falles von LBHCP, können wir anhand der theoretischen Analyse- und Simulationsergebnisse in diesem Papier klar erkennen, dass dieser Hinweis auf frühere Arbeiten für LBHCP nicht geeignet ist, da er ein besseres Ressourcennutzungsverhältnis und eine schnellere Wiederherstellungszeit als PBSP. Daher ist das neue Ergebnis dieses Papiers eine Modifikation der vorherigen ungenauen Idee und kann auch die zukünftige Arbeit von Forschern gut leiten.;-;-;-;https://link.springer.com/article/10.1007/s11107-008-0136-z d7da20daaca7cec519466d19fe3fb468;de;;;1.3.;;;Zurückgezogen: Robustes Training neuronaler Feedforward-Netze mit kombinierten Online-/Batch-Quasi-Newton-Techniken Dieses Papier beschreibt einen robusten Trainingsalgorithmus basierend auf einem Quasi-Newton-Prozess, bei dem Online- und Batch-Fehlerfunktionen durch einen Gewichtungskoeffizientenparameter kombiniert werden. Der Parameter wird angepasst, um sicherzustellen, dass der Algorithmus schrittweise von Online zu Batch wechselt. Darüber hinaus wird eine Analogie zwischen diesem Algorithmus und dem Langevin-Algorithmus betrachtet. Der Langevin-Algorithmus ist ein gradientenbasiertes kontinuierliches Optimierungsverfahren, das das Konzept des Simulated Annealing beinhaltet. Es wird ein neuronales Netztraining vorgestellt, um die Gültigkeit des kombinierten Algorithmus zu demonstrieren. Der Algorithmus erzielt ein robusteres Training und genauere Generalisierungsergebnisse als andere Quasi-Newton-basierte Trainingsalgorithmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33266-1_10 025d7e7d9fafb48e782003f0b12b3693;de;;;1.3.;;;Immunzytochemische Untersuchungen an der Hypophysenpars distalis der Japanischen Langfingerfledermaus, Es wurden immunzytochemische Studien durchgeführt, um die Eigenschaften der Zelltypen und ihre Verteilung in der Pars distalis der Japanischen Langfingerfledermaus zu beschreiben.;-;-;-;https://link.springer.com/article/10.1007/BF00215836 0a2355c6bbccdb8250947a4eb9bcde81;de;;;1.2.;;;Transaktionsplanung in Echtzeit: Ein Framework zur Synthese statischer und dynamischer Faktoren Echtzeitdatenbanken werden zu einem wichtigen Bestandteil komplexer eingebetteter Echtzeitsysteme. In Echtzeitdatenbanken (im Gegensatz zu Echtzeitsystemen) müssen Transaktionen zusätzlich zu den für jede Transaktion (oder Aufgabe) angegebenen Zeitbeschränkungen die ACID-Eigenschaften erfüllen. Obwohl mehrere Ansätze vorgeschlagen wurden, um Echtzeit-Scheduling- und Datenbank-Parallelitätskontrollmethoden zu kombinieren, bietet nach unserem besten Wissen keiner von ihnen einen Rahmen zur Berücksichtigung der dynamischen Kosten, die mit Abbrüchen, Rollbacks und Neustarts von Transaktionen verbunden sind. In diesem Papier schlagen wir einen Rahmen vor, in dem sowohl statische als auch dynamische Transaktionskosten berücksichtigt werden können. Im Einzelnen präsentieren wir: i) ein Verfahren zur Voranalyse von Transaktionen basierend auf dem Konzept von Verzweigungspunkten für Daten, auf die bis zu einem Verzweigungspunkt zugegriffen wird, und Vorhersagen des erwarteten Datenzugriffs, der für den Abschluss der Transaktion anfallen wird, ii) eine Formulierung von Kosten, die enthält statische und dynamische Faktoren zum Priorisieren von Transaktionen, iii) einen Planungsalgorithmus, der die obigen zwei verwendet, und iv) Simulation des Algorithmus für verschiedene Betriebsbedingungen und Arbeitsbelastung. Unsere dynamische Prioritätszuweisungsrichtlinie (auch als kostenbewusster Ansatz oder CCA bezeichnet) passt sich gut an Schwankungen der Systemlast an, ohne übermäßig viele Transaktionsneustarts zu verursachen. Unsere Simulationen zeigen, dass i) CCA sowohl für weiche als auch feste Fristen besser abschneidet als der EDF-HP-Algorithmus, ii) CCA fairer ist als EDF-HP, iii) CCA für weiche Fristen besser ist als EDF-CR, obwohl CCA erfordert und verwendet weniger Informationen, und iv) CCA eignet sich besonders gut für festplattenresidente Daten.;-;-;-;https://link.springer.com/article/10.1023/A%3A1007960831894 0293f5ab665d62ad41230d370e47b04e;de;;;1.2.;;;HRCT beim Nachweis von Lungeninfektionen durch nichttuberkulöse Mykobakterien: persönliche Erfahrung Die Autoren versuchten, die Rolle der hochauflösenden Computertomographie (HRCT) bei der Erkennung und Nachsorge von Lungeninfektionen mit nichttuberkulösen Mykobakterien (NTM) bei immunkompetenten Patienten zu beurteilen und die häufigsten radiologischen Muster für die Diagnose zu identifizieren.;-;-;-;https://link.springer.com/article/10.1007/s11547-009-0375-9 6f857196f2921776905b850fecb93614;de;;;1.2.;;;Wurzel- und Sprossbiomasse im tropischen Trockenwald des halbtrockenen Nordosten Brasiliens Wurzel- und Sprossbiomasse und ihr Verhältnis (R:S) wurden für drei Stadien der Waldverjüngung (18, 40 und > 60 Jahre) sowie für offene und dichte Vegetation in vier Bodenklassen in der semiariden Region Nordosten bestimmt Brasilien.;-;-;-;https://link.springer.com/article/10.1007/s11104-013-2009-1 16b6ca115647c91d0f965964cce56dc0;de;;;1.2.;;;Reaktivität in Tensidsystemen Die Übertragung eines reaktiven gelösten Stoffes in eine Mizelle ändert mehrere Merkmale seiner Existenz, die seine inhärente Stabilität verändern können. In der Mizelle hat sich die molekulare Umgebung der gelösten Moleküle drastisch verändert, von einem wässrigen zu einem relativ unpolaren Milieu, abhängig von der Einfügungstiefe in die Mizelle. Die einfache Tatsache, dass der gelöste Stoff vor angreifenden Spezies wie H;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-5775-6_11 523f567971fe3cfd396fdb32ce197543;de;;;1.2.;;;Wert und Bedeutung Nachdem wir untersucht haben, wie Fotografien und aufgezeichnete Musik als ergänzende Ressourcen verwendet werden, um Menschen zu helfen, ihre Verbindungen zur Vergangenheit zu bewahren oder wiederzubeleben, wenden wir uns nun einem anderen Aspekt ihrer Verwendung zu. Dies betrifft den zeitübergreifenden Wert und die Bedeutung, die sich aus diesen mnemonischen Ressourcen ergibt, die in einigen Fällen über den bewussten Zweck hinausgehen, den sie in unserem täglichen Leben finden. Der Umgang mit diesen Fällen führt uns in eine Erinnerungsmodalität, die wir bisher nur hie und da flüchtig berührt haben. Das unfreiwillige Gedächtnis – das plötzliche und zufällige Wiederauftauchen bestimmter Merkmale der Vergangenheit, zusammen mit dem damit einhergehenden Gefühl der zeitlichen Transposition – wird in diesem Kapitel anhand spezifischer Feldforschungsbeispiele untersucht, wobei aufgezeichnete Musik ein häufigerer und stärkerer Katalysator von . zu sein scheint es als Fotografie. Dies verbindet sich mit unserer Diskussion des Auralen sowie des Visuellen;-;-;-;https://link.springer.com/chapter/10.1057/9781137441218_5 9ae4dab2f81fe3fdce135bf773becd6b;de;;;1.2.;;;Typ III Überempfindlichkeit In diesem Abschnitt werden kollagene Gefäßerkrankungen mit Hinweisen auf eine Typ-III-Überempfindlichkeitskomponente beschrieben. Andere immunologische Ereignisse und Mechanismen können ebenfalls an der Pathogenese dieser Gruppe von Krankheiten beteiligt sein. Diese Störungen sind typischerweise multisystemisch mit proteischen Manifestationen, die die Gelenke, Muskeln, Schleimbeutel und Sehnen betreffen. Augenentzündungen sind häufig und werden oft als wichtiges diagnostisches Kriterium für die klinische Diagnose mehrerer dieser Erkrankungen angesehen (Tabelle 17.1).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-4174-4_17 1d974a921509e2d071fc0ad0cc29e016;de;;;1.2.;;;Vorhersage essentieller Proteine ​​durch Integration der PPI-Netzwerktopologie und Proteinkomplexinformationen Die Identifizierung essentieller Proteine ​​ist wichtig, um die minimalen Anforderungen für das Überleben und die Entwicklung von Zellen zu verstehen. Es wurden zahlreiche Computermethoden vorgeschlagen, um essentielle Proteine ​​aus dem Protein-Protein-Interaktionsnetzwerk (PPI) zu identifizieren. Die meisten Methoden verwenden jedoch nur die Informationen zur PPI-Netzwerktopologie. HartGT wies darauf hin, dass die Essenzität eher ein Produkt des Proteinkomplexes als des einzelnen Proteins ist. Darauf aufbauend schlagen wir eine neue ECC-Methode vor, um essentielle Proteine ​​durch Integration der Subgraph-Zentralität (SC) des PPI-Netzwerks und Proteinkomplexinformationen zu identifizieren. Die experimentellen Ergebnisse zeigen, dass die Leistung von ECC viel besser ist als die von sechs Zentralitätsmethoden, was bedeutet, dass die Vorhersage von essentiellen Proteinen basierend auf Netzwerktopologie und Proteinkomplexen viel besser ist als die nur basierend auf Netzwerktopologie. Darüber hinaus hat ECC eine signifikante Verbesserung bei der Vorhersage von essentiellen Proteinen mit geringer Konnektivität.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21260-4_6 274a534b387e45e5b5053fbf3eb63adb;de;;;1.3.;;;Observables im logisch-algebraischen Ansatz Der Begriff der Observablen ist eine quantenmechanische Variante des Begriffs einer Zufallsvariablen (siehe [32], [69], [20], [29] usw.). Es soll bei der Behandlung von nicht kompatiblen Ereignissen helfen. Im logisch-algebraischen Ansatz wird eine Observable definiert als a;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1201-9_3 aaa304f5c99a9382d846b27e321a87d4;de;;;1.2.;;;Auswirkungen von Zytokinen auf das menschliche EEG und den Schlaf Zahlreiche Tierversuche haben auf eine gegenseitige Abhängigkeit zwischen zentralnervösen Schlaf-Wach-Prozessen und immunologischen Funktionen hingewiesen (Krüger et al., 1990, Krüger und Karnovsky, 1995, Toth, 1995). Zwei grundsätzlich unterschiedliche Konzepte haben diese Forschung geleitet. Einerseits ging man davon aus, dass Schlaf eine allgemein wiederherstellende Wirkung hat und in diesem Zusammenhang auch die Immunfunktion erleichtert (z. B. Dinges et al., 1994, Born et al., 1997). Andererseits wurde die Hypothese aufgestellt, dass das Immunsystem den Schlaf beeinflusst. Diese letztgenannte Ansicht stützt sich auf allgemeine Beobachtungen, dass Infektionskrankheiten mit intensiven Gefühlen von Müdigkeit und Schläfrigkeit einhergehen können. Immunprozesse können über die Freisetzung von Zytokinen, die Botenstoffe des Immunsystems sind, den zentralnervösen Schlaf induzieren und aufrechterhalten. Bei Tieren wurde gezeigt, dass insbesondere Zytokine, die die Immunantwort initiieren, wie die von Monozyten/Makrophagen abgeleiteten Zytokine Tumornekrosefaktor-a (TNF-a) und Interleukin-1 (IL-1), aber auch Interferone (IFNs) den Schlaf erleichtern (z , Shoham et al., 1987, Krüger et al., 1984, 1987, 1990). Diese Arbeit konzentriert sich auf Studien, die untersuchen, ob proinflammatorische Zytokine eine ähnliche fördernde Wirkung auf den menschlichen Schlaf haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-6870-7_14 0a415fa946e588dcb1b607c8dd8c25da;de;;;1.2.;;;Reaktion auf Hitzeschock: Lehren aus Maus-Knockouts Organismen sind mit integrierten regulatorischen Netzwerken ausgestattet, die eingehende Signale in wirksame Antworten umwandeln und verstärken, was letztendlich zu Zelltod- und/oder Überlebenswegen führt. Als konservierter zytoprotektiver Mechanismus von Bakterien bis zum Menschen hat sich die Hitzeschockreaktion als Paradigma für die induzierbare Genexpression etabliert und stimuliert das Interesse von Biologen und Klinikern gleichermaßen, grundlegende Fragen in Bezug auf molekulare Schalter, linienspezifische Anforderungen, einzigartige und /oder redundante Rollen und sogar Bemühungen, die Reaktion therapeutisch zu nutzen. Gen-Targeting-Studien an Mäusen bestätigen HSF1 als Hauptregulator, der für das Zellwachstum, die embryonale Entwicklung und die Reproduktion erforderlich ist. Zum Beispiel stellte die Sterilität von Hsf1-null-weiblichen, aber nicht null-männlichen Mäusen strenge Anforderungen an die mütterliche HSF1-Expression in der Eizelle. Hsf2-Knockouts durch drei unabhängige Labors haben jedoch die Rolle von Säuger-HSF2 für die normale Entwicklung, Fruchtbarkeit und postnatale Nuronfunktion nicht vollständig geklärt. Im Gegensatz dazu haben Hsf4-Knockouts einen konsistenten Beweis für die kritische Rolle von HSF4 bei der Linsenbildung geliefert. In Zukunft wird die molekulare Analyse von HSF-Knockout-Mäusen neue Einblicke in HSF-Interaktionen bringen, ein besseres Verständnis der Genregulation auf Genomebene fördern und zu einer besseren Integration des HSF-Signalwegs in das Leben jenseits des Hitzeschocks, der klassischen Laborherausforderung, führen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-29717-0_6 862d551fafc197290fee2937a9076218;de;;;1.2.;;;Gleichgewichtsmodellierung von Klinoptilolith-Analcime-Gleichgewichten am Yucca Mountain, Nevada, USA Yucca Mountain, Nevada, wird auf seine Eignung als potenzielles Endlager für hochradioaktiven Abfall untersucht. Ein wichtiger Grund für die Wahl als potenzieller Endlagerstandort war das Vorhandensein dicker zeolithreicher Horizonte in den alterierten vulkanischen Büscheln, aus denen der Berg besteht. Klinoptilolith ist der am häufigsten vorkommende Zeolith am Yucca Mountain und kann für die Radionuklidverzögerung und die Bestimmung der hydrologischen Eigenschaften wichtig sein. Daher ist es notwendig, die geochemischen Bedingungen zu verstehen, die die Langzeitstabilität beeinflussen. Zum Beispiel wurde vorgeschlagen, dass eine langfristige, endlagerinduzierte Erwärmung des Gesteins von Yucca Mountain zur Umwandlung von Klinoptilolith in Analcim führen kann, wodurch die hydrologischen Eigenschaften und die Retardationsfähigkeit des Gesteins erheblich beeinträchtigt werden.;-;-;-;https://link.springer.com/article/10.1346/CCMN.1997.0450211 58bd7ac336abd3c355b5c250cde9a508;de;;;1.2.;;;Pathophysiologie der ätzenden Aufnahme Aus einem Bericht der American Association of Poison Control Centers aus dem Jahr 2005 geht hervor, dass es über 200.000 Expositionen gegenüber ätzenden Substanzen in Form von Haushalts- und Industrieprodukten gab, darunter Säuren (Schwefelsäure, Salzsäure), Laugen (Kaliumhydroxid, Natriumhydroxid) und andere Agenten. Während in den meisten Fällen eine Körperoberfläche wie Gesicht, Augen und Extremitäten exponiert war, war die Einnahme des Ätzmittels die häufigste Todesursache [;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-77383-4_16 3759fea5be6d1cfbbfb42b0e9098e4a0;de;;;1.2.;;;Eine stochastische Finite-Elemente-Analyse für die seismische Reaktion von Bodenstandorten In dieser Studie wird eine stochastische Finite-Elemente-Methode zur Analyse der seismischen Reaktion von Bodenstandorten entwickelt. Die erdbebeninduzierte Bodenbewegung wird als zufälliger Prozess behandelt. Zur Modellierung der Bodenmasse wird eine Finite-Elemente-Diskretisierung verwendet. Die dynamische Antwort des Systems auf die zufällige Bodenanregung wird im Frequenzbereich mit Übertragungsfunktionen für verschiedene Parameter formuliert, d.h. Verschiebung, Beschleunigung, Dehnung und Spannung. Die spektralen Dichtefunktionen dieser Antwortvariablen werden dann leicht erhalten, aus denen die Berechnung des quadratischen Mittels und der wahrscheinlichsten Extremwerte der Antwort erfolgt. Die Nichtlinearitäten des Schubmoduls und des Dämpfungsverhältnisses werden unter Verwendung eines äquivalenten linearen Modells für das Spannungs-Dehnungs-Verhalten von Böden und einer iterativen Lösung der Antwort berücksichtigt. Die räumliche Variabilität des Schubmoduls wird durch ein Zufallsfeldmodell beschrieben. Die dynamische Reaktion von Bodenstandorten (unsicheres System) auf erdbebeninduzierte Bodenbewegungen (stochastische Anregung) wird durch eine Störungsmethode erster Ordnung und eine direkte Monte-Carlo-Simulationstechnik bewertet. Die Ergebnisse dieser beiden Ansätze der stochastischen Finite-Elemente-Analyse werden hinsichtlich Genauigkeit und Recheneffizienz verglichen. Die Ergebnisse einer Fallstudie und einiger parametrischer Studien werden ebenfalls vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-84534-5_10 f1344ba7dc4fa970bf3900f4c7b347f0;de;;;1.2.;;;Fluid-Struktur-Interaktion in einem geschichteten Aortenbogenmodell Die Reaktion der Wandspannung auf die Elastizität jeder Schicht in der Aortenwand wurde untersucht, um die Rolle der unterschiedlichen elastischen Eigenschaften der Schichten bei der Aortendissektion zu verstehen. Die komplexe mechanische Interaktion zwischen Blutfluss und Wanddynamik in einem dreidimensionalen Bogenmodell einer Aorta wurde mittels computergestützter gekoppelter Fluid-Struktur-Interaktionsanalyse untersucht. Die Ergebnisse zeigen, dass die Spannungen in der Medienschicht in drei Schichten am höchsten sind und dass die Scherspannungen in der Medienschicht in der Nähe der Adventitiaschicht konzentriert sind. Daher könnte der Unterschied in den elastischen Eigenschaften der Schichten für den pathologischen Zustand verantwortlich sein, in dem sich ein Riss über die Tunica media bis in die Nähe der Tunica Adventitia aufspaltet und sich die Dissektion entlang der laminaren Ebenen der Mediaschicht ausbreitet, wo sie sich in der Nähe der Adventitia-Schicht.;-;-;-;https://link.springer.com/article/10.1007/s10867-006-9027-7 5ff731ab13a3bf5abb9f7f5b49b5c627;de;;;1.2.;;;Potenzialbewertung der Goldressourcen im östlichen Kunlun-Gebirge Chinas, die ein Gewichtungsmodell mit einer räumlichen GIS-Analysetechnik kombiniert Die Bewertung des Ressourcenpotenzials ist eines der Gebiete in den Geowissenschaften, die in der Lage sind, die GIS-Technologie als Ersatz für traditionelle Arbeitsmethoden zu nutzen. Das Goldressourcenpotenzial im östlichen Kunlun-Gebirge, Provinz Qinghai, China, wurde durch die Kombination von Gewichtungsmodellen mit GIS-Raumanalyseverfahren bewertet. Alle in dieser Arbeit verwendeten Datensätze wurden aus einer etablierten geologischen Raumdatenbank mit mehreren Quellen abgeleitet, die geologische, geophysikalische, geochemische und Fernerkundungsdaten enthält. Drei Multi-Klassen-Variablen, d. h. struktureller Schnitt, indosinischer Kalifeldspat-Granit und regionale Verwerfung, wurden in der Näherungsanalyse verwendet, um ihre räumliche Verbindung mit bekannten Goldlagerstätten zu untersuchen. Auf der Grundlage von sieben binären Evidenzkarten, die alle einen bedingten Unabhängigkeitstest bestanden hatten, wurde eine Prospektivitätskarte mit einem Gewichtungsmodell erstellt. Das Untersuchungsgebiet wurde in drei Zielzonen mit hohem Potenzial, mittlerem Potenzial und niedrigem Potenzial unterteilt, von denen Gebiete mit hohem Potenzial und Gebiete mit mittlerem Potenzial 20 % der Gesamtfläche ausmachten und 32 der 43 Goldlagerstätten enthielten. Die Ergebnisse zeigen, dass die Potenzialbewertung der Goldressourcen im östlichen Kunlun-Gebirge eine höhere Genauigkeit aufweist.;-;-;-;https://link.springer.com/article/10.1007/s11769-010-0420-6 811545b4ad2b06dad84781a5f12bad95;de;;;1.2.;;;Eine isotopische und geochemische Studie des saisonalen Schneeschmelzabflusses im Wassereinzugsgebiet des Apex River Nur wenige Studien, wenn überhaupt, haben isotopische Tracer verwendet, um den saisonalen Abfluss der Schneeschmelze in Gebieten mit Permafrostböden zu untersuchen. wir verwendeten Massenbilanztechniken für natürlichen Sauerstoff-18 und verschiedene chemische Parameter (elektrische Leitfähigkeit, Ca, Mg, K, Na und pH), um die Größe und den Zeitpunkt des „alten“ Wasserbeitrags zum Schneeschmelzabfluss 1983 im Apex River abzuschätzen Wasserscheide. Das Einzugsgebiet des Apex River liegt im südlichen Teil von Baffin Island, Northwest Territories, Kanada, wo der Permafrost kontinuierlich ist und die aktive Schicht weniger als 1 m dick ist. Die Wasserscheide mit einer Fläche von 60 km²;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-3947-9_29 79c17354a18731464064a3eb5ff1d476;de;;;1.2.;;;Aggressives Verhalten Die Untersuchung des aggressiven Verhaltens bei Hamstern hat sich auf fünf Hauptbereiche konzentriert und dieses Kapitel ist entsprechend gegliedert. Das erste Thema beinhaltet eine Beschreibung des aggressiven und unterwürfigen Verhaltens, das mit intraspezifischen Begegnungen verbunden ist. Wie zu sehen ist, wird die Wirksamkeit einer Vielzahl von experimentellen Behandlungen teilweise dadurch bestimmt, welche Verhaltensweisen für die Messung ausgewählt werden. Im zweiten Abschnitt werden die unterschiedlichen Testbedingungen diskutiert, die verwendet wurden, da auch diese potenzielle Quellen für Diskrepanzen zwischen den Forschern darstellen. Der dritte Abschnitt analysiert die Rolle der Hormone, der exogen verabreichten und derjenigen, die während des Fortpflanzungszyklus normal sezerniert werden. Die Auswirkungen von Schäden an Strukturen des Zentralnervensystems sind das vierte Thema und der letzte Abschnitt umfasst periphere Einflüsse (z. B. die Rolle der Flankendrüsen, Harderschen Drüsen usw.).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-0815-8_12 632853c13432faa27a026ead0469e236;de;;;1.2.;;;Einige Aspekte nichtlinearer zeitdiskreter Deskriptorsysteme in der Wirtschaftswissenschaft In diesem Artikel untersuchen wir nichtlineare zeitdiskrete Deskriptorsysteme (oder singuläre, implizite, allgemeine) Systeme. Einige der Probleme im Zusammenhang mit solchen Systemen, die bei der Modellierung bestimmter Klassen von ökonomischen Zusammenhängen häufig auftreten, sind Fragen nach der Existenz und Eindeutigkeit von Lösungen. Mittels eines schrittweisen Vorgehens werden wir unter generischen Bedingungen einen lokalen Reduktionsmechanismus angeben, der ein möglicherweise niedrigerdimensionales System in Standardzustandsraumform liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-0962-8_49 a961ed96542cc59d583bd460fefe5c7e;de;;;1.3.;;;Fraktionale Dynamik offener Quantensysteme Wir können ein offenes Quantensystem ausgehend von einem geschlossenen Hamilton-System beschreiben, wenn das offene System Teil des geschlossenen Systems ist (Weiss, 1993). Es können jedoch Situationen auftreten, in denen es schwierig oder unmöglich ist, ein Hamilton-System zu finden, das das gegebene Quantensystem umfasst. Folglich kann die Theorie offener und nicht-hamiltonischer Quantensysteme als grundlegende Verallgemeinerung (Kossakowski, 1972, Davies, 1976, Ingarden und Kossakowski, 1975, Tarasov, 2005, 2008b) der Quanten-Hamilton-Mechanik betrachtet werden. Die Quantenoperationen, die die Dynamik offener Systeme beschreiben, können als echte, vollständig positive spurerhaltende Superoperatoren auf dem Operatorraum angesehen werden. Diese Superoperatoren bilden eine vollständig positive Halbgruppe. Der infinitesimale Generator dieser Halbgruppe ist vollständig dissipativ (Kossakowski, 1972, Davies, 1976, Ingarden und Kossakowski, 1975, Tarasov, 2008b). Fractional Power of Operators (Balakrishnan, 1960, Komatsu, 1966, Berens et al., 1968, Yosida, 1995, Martinez und Sanz, 2000) und Superoperatoren (Tarasov, 2008b, 2009a) können als möglicher Ansatz zur Beschreibung der fraktionalen Dynamik verwendet werden offener Quantensysteme. Wir betrachten Superoperatoren, die gebrochene Potenzen von vollständig dissipativen Superoperatoren sind (Tarasov, 2009a). Wir beweisen, dass die vorgeschlagenen Superoperatoren infinitesimale Generatoren vollständig positiver Halbgruppen für die fraktionale Quantendynamik sind. Die Quanten-Markov-Gleichung, die eine explizite Form eines vollständig dissipativen Superoperators enthält, ist die allgemeinste Art von Markova-Master-Gleichung, die eine nicht-unitäre Entwicklung des Dichteoperators beschreibt, die spurerhaltend und für jede Anfangsbedingung vollständig positiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14003-7_20 e471a9ffb7987ad6e6a8cb8936ba678e;de;;;1.3.;;;Das didaktische Potenzial computergestützter Modellierung für den Physikunterricht Dieser Artikel beschreibt, wie computergestützte Modellierung im Physikunterricht dazu beitragen kann, die Konzeptstruktur einer physikalischen Domäne zu akzentuieren, komplexere und realistischere Phänomene zu untersuchen und die Schülerorientierung des Physikunterrichts voranzutreiben. Wie dieses didaktische Potenzial im Unterricht umgesetzt werden kann, zeigen mehrere Beispiele aus dem Physikunterricht an Gymnasien, die mit dem Modellierungssystem Stella arbeiten. Die Auswirkungen der computergestützten Modellierung auf die körperliche Reflexion und die Entwicklung der körperlichen Kompetenz werden evaluiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-02938-1_6 914dd94b7fbc0f68e6f40ef8416b0611;de;;;1.2.;;;Optimales Job Packing, eine Optimierung der Backfill-Planung für einen Cluster von Workstations In diesem Papier haben wir zwei Optimierungen für die Backfill-Planung vorgeschlagen, d. h. Shortest Width First Backfill (SWFBF) und Shortest Area First Backfill (SAFBF). Ein nahezu optimaler einfacher, aber effektiver Jobpacking-Algorithmus, der Select-Replace-Algorithmus genannt wird, wurde ebenfalls vorgestellt, um externe Fragmentierung zu minimieren. Der Nachweis des Konzepts wurde mit Hilfe einer Simulationsstudie erbracht. Fünf Workloads, die aus einer sauberen Version des parallelen Workload-Archivs (CTC, LANL und SDSC, NASA) abgeleitet wurden, wurden verwendet, um die vorgeschlagenen Heuristiken mit früheren Techniken zu bewerten und zu vergleichen. Mit den einfachen, aber effektiven Optimierungen wurde eine signifikante (56,1%) Leistungsverbesserung im Vergleich zum EASY-Scheduler erreicht.;-;-;-;https://link.springer.com/article/10.1007/s11227-009-0332-3 cc0508932ff5db84f8b8960975be02d9;de;;;1.2.;;;Einstellungen zu Fragen des Lebensendes bei Bewusstseinsstörungen: eine europäische Umfrage Frühere europäische Umfragen zeigten die Unterstützung von medizinischem Fachpersonal beim Entzug der Behandlung [d. h. künstliche Ernährung und Flüssigkeitszufuhr (ANH) bei Patienten mit chronischem vegetativem Zustand (VS)]. Die neuere Definition des minimalen Bewusstseinszustands (MCS) und möglicherweise Fortschritte in der Forschung (z. B. funktionelle Neurobildgebung) haben möglicherweise zu Unsicherheit hinsichtlich der möglichen Restwahrnehmung geführt und die Meinungen von Angehörigen der Gesundheitsberufe beeinflusst. Ziel der Studie war es, die Einstellungen am Lebensende gegenüber VS zu aktualisieren und die Einstellungen am Lebensende gegenüber MCS zu bestimmen. Ein 16-Punkte-Fragebogen zu Bewusstsein, Schmerzen und Problemen am Lebensende bei chronischem (d. h. > 1 Jahr) VS und MCS und Locked-in-Syndrom wurde an Teilnehmer medizinischer und wissenschaftlicher Konferenzen in ganz Europa verteilt (;-;-;-;https://link.springer.com/article/10.1007/s00415-010-5882-z 3c1615cc8e5b76cd4047b59b8004dc05;de;;;1.2.;;;Parteien, Wahlen und EU-Demokratie In diesem Kapitel wird untersucht, wie die beiden zentralen Prozesse der repräsentativen Demokratie in der EU funktionieren: Parteienwettbewerb und Wahlen. Auf nationaler Ebene in Europa arbeiten Parteien und Wahlen im Modell der „kompetitiven Parteiregierung“ Hand in Hand. Auf europäischer Ebene entsteht ein „Parteiensystem“: Alle fünf Jahre finden europaweit Wahlen statt, und es gibt Parteiorganisationen im EP (die Parteigruppen) und zwischen den nationalen Parteiführern (den transnationalen Parteiverbänden). Aber eine wettbewerbsfähige Parteiendemokratie auf europäischer Ebene bleibt noch in weiter Ferne.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-27531-1_6 88896d84d37d390e361e933c04755312;de;;;1.2.;;;Fortschritte bei der Schädlingsbekämpfung von Raps in Europa Die Bekämpfung der Rapsschädlinge in Europa hängt noch immer stark von chemischen Pestiziden ab. Diese werden am häufigsten routinemäßig und prophylaktisch angewendet, häufig ohne Rücksicht auf Schädlingsbefall und nicht nach Schwellenwerten der Schädlingspopulation. Dies führt zu einem übermäßigen Einsatz von Pestiziden, was die wirtschaftliche Wettbewerbsfähigkeit der Kulturpflanzen verringert und die biologische Vielfalt bedroht. Pestizide können auch die natürlichen Wirkstoffe der biologischen Kontrolle abtöten, eine natürliche Ressource von großem potenziellem Nutzen für den Züchter. In diesem Kapitel bespreche ich die jüngsten Fortschritte in unserem Wissen über die Biologie und Synökologie dieser Schädlinge und ihrer natürlichen Feinde und konzentriere mich auf neue Ansätze zu ihrer Bekämpfung, die auf diesem Wissen basieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-07913-3_8 864e5a9b5002034a69d18ddf8284aa74;de;;;1.2.;;;Veränderungen der Fortpflanzungsfunktion freilebender Vögel als direkte Reaktion auf Umweltstörungen Es besteht ein allgemeiner Konsens darüber, dass der Brutbeginn bei Vögeln auftritt, wenn die trophischen Ressourcen für die Produktion und das Überleben der Jungen günstig sind (z. B. Lack 1968, Perrins 1970). Die Umweltfaktoren, die unmittelbare Hinweise für die Entwicklung der Fortpflanzungsfunktion und den Zeitpunkt des Einsetzens der Fortpflanzung liefern, haben in den letzten 50 Jahren beträchtliche Aufmerksamkeit erhalten (z. B. Farner und Gwinner 1980, Farner 1985, Wingfield 1980, 1983). Die hormonellen Mechanismen, die der Entwicklung der Keimdrüsen und der zugehörigen Strukturen, dem Beginn der Fortpflanzung, dem Übergang vom Sexual- zum Elternverhalten und der Wiederholung dieses zeitlichen Musters in mehreren Bruten zugrunde liegen, haben jedoch zwangsläufig ideale Umweltbedingungen angenommen. Ein solcher Ansatz ist entscheidend, wenn experimentelle Paradigmen adäquat kontrolliert und die Mechanismen untersucht werden sollen. Dennoch erleben frei lebende Vögel selten über längere Zeit „ideale“ Bedingungen und sind einer Vielzahl ungünstiger Umweltfaktoren ausgesetzt, die den Fortpflanzungserfolg maßgeblich beeinflussen. So kann man sich die Frage stellen: „Was passiert, wenn etwas schief geht?“. Zum Beispiel können Raubtiere die Eier oder Jungen verzehren oder Stürme können die Nahrungsressourcen reduzieren (Whitmore et al. 1977, Ojanen 1979, Pullamen 1977, Tompa 1971).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-3740-2_7 ef7311ff2f7ff224cca457da29e02aa6;de;;;1.2.;;;Anwendungen von Tensorfunktionen in der Schadensmechanik anisotroper Materialien Dieser Artikel gibt einen kurzen Überblick über einige neuere Fortschritte in der mathematischen Modellierung des Werkstoffverhaltens unter Kriechbedingungen. Die tertiäre Kriechphase wird von der Bildung von Mikrorissen an den Korngrenzen begleitet, so dass es zu einer Schadensakkumulation kommt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36418-4_1 8d19e793474dcc5dd7607d6795746304;de;;;1.2.;;;Morbidität bei kompromittierten Patienten im Zusammenhang mit anderen Viren als Herpes-Gruppen und Hepatitis-Viren In den letzten zehn Jahren ist das Bewusstsein für die vielfältigen Rollen, die virale Wirkstoffe bei immungeschwächten Patienten spielen, stark gestiegen. Dieses Interesse, das durch die Entwicklung einer wirksamen antiviralen Chemotherapie insbesondere für Viren der Herpesgruppe stimuliert wurde, wurde durch die Entwicklung direkterer Diagnoseansätze unter Verwendung molekularbiologischer und monoklonaler Antikörpertechnologie stark erleichtert. Bei immungeschwächten Patienten, bei denen humorale Reaktionen verzögert sein können oder ausbleiben, war ein geringeres Vertrauen auf serologische Standardtechniken für die Virusdiagnose besonders nützlich.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-2490-8_14 578e1395e947d69f0277a5adb31eb6f2;de;;;1.2.;;;Die Auswirkungen von Absprachen auf die soziale Entwicklung In diesem Kapitel geht es hauptsächlich um die Auswirkungen von Absprachen auf die soziale Entwicklung. Unsere wichtigsten Ergebnisse sind: Kollusion schadet der Überwachung durch die öffentliche Meinung, immobilisiert das Verteilungsmuster der Wohneinkommen, behindert die Entwicklung sozialer Organisationen und erhöht die Gesamtkosten der Reform. Abschnitt 8.1 analysiert den Zusammenhang zwischen Kollusion und öffentlicher Aufsicht, Abschn. 8.2 diskutiert die Auswirkungen von Kollusion auf die Wohneinkommensverteilung, Abschn. 8.3 versucht, den Zusammenhang zwischen Kollusion und der Entwicklung sozialer Organisationen zu untersuchen, Abschn. 8.4 diskutiert die Auswirkungen von Absprachen auf die Reformkosten, Abschn. 8.5 ist eine Zusammenfassung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-5059-6_8 1274f8b46a171a8346a76ba4785573e0;de;;;1.2.;;;Amiodaron-induzierte Thyreotoxikose: Gibt es einen Ort für eine Operation? In den meisten Fällen wurde eine Amiodaron-induzierte Hyperthyreose als mild berichtet, und die Schilddrüsenfunktionen normalisieren sich nach Absetzen des Arzneimittels. Dennoch wurde auch eine lebensbedrohliche Amiodaron-induzierte Thyreotoxikose beschrieben. Herkömmliche Behandlungen wie Thyreostatika (Thionamid) und Kortikosteroide sind im Wesentlichen wirkungslos oder ändern den dramatischen Verlauf der Schilddrüsenkrise nicht. Diese eingeschränkte Wirksamkeit der medikamentösen Therapie, insbesondere bei Patienten mit bisher vernachlässigter oder unbekannter Schilddrüsenerkrankung, veranlasste uns zu einem operativen Eingriff. Wir berichten über eine Serie von neun Patienten, die sich bei fünf von ihnen einer totalen oder fast totalen Thyreoidektomie als Erstlinientherapie unterzogen. Die Operation führte zu einem schnellen Abklingen der Thyreotoxikose mit einem ereignislosen postoperativen Verlauf. Dieser Ansatz hat den Vorteil einer sofortigen Wirksamkeit, einem geringen Rückfallrisiko und scheint die einzige Behandlung zu sein, die eine fortgesetzte Therapie mit Amiodaron erlaubt, wenn das Medikament zur Kontrolle einer lebensbedrohlichen Arrhythmie erforderlich erscheint.;-;-;-;https://link.springer.com/article/10.1007/BF01659125 31a1c44c6263ee177ff21ebc59d7e86c;de;;;1.2.;;;Hochwasserabschätzung für eine ungeprüfte Überschwemmungsebene Viele Flüsse in Süd-Louisiana münden in Küsteneinbuchtungen und enden in breiten, tief liegenden Sumpfsystemen mit verschiedenen verzweigten Zuflüssen und ausgedehnten Überschwemmungsgebieten. Das Untersuchungsgebiet des westlichen Terrebonne Parish Marschgebiets im südlichen Zentrum von Louisiana ist eine von Flüssen und Gezeiten dominierte Überschwemmungsebene. Überschwemmungen in der Region werden hauptsächlich durch astronomische Gezeiten, Flussabflüsse und meteorologische Winde verursacht. Im Gebiet gibt es keine Langzeit-Entladungsmessstation.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-3957-8_6 0d0881e86c95a4e949f31ab995034edf;de;;;1.2.;;;Ursachen für die Zunahme unproduktiver Arbeit Die beiden vorangegangenen Kapitel haben ein sehr wichtiges Phänomen in der US-Wirtschaft der Nachkriegszeit identifiziert: die fast Verdoppelung des Verhältnisses von unproduktiver zu produktiver Arbeit. Diese sehr bedeutende Zunahme des relativen Anteils der unproduktiven Arbeit erklärt fast alle Unterschiede in der Entwicklung meiner Schätzungen und der früheren Schätzungen der Mehrwertrate und der Zusammensetzung des Kapitals und ist nach Marx' Theorie die wichtigste Ursache für den Rückgang der konventionellen Profitrate. Dieses Kapitel enthält eine vorläufige Analyse der zugrunde liegenden Ursachen dieses wichtigen Phänomens. Die Ergebnisse sind keineswegs schlüssig, für eine gründliche Analyse dieser Frage wäre ein eigenes Buch erforderlich. Der Zweck dieses Kapitels besteht lediglich darin, vielversprechende Hypothesen für die weitere Forschung zu identifizieren. Wir werden auch diskutieren, ob die identifizierten möglichen Ursachen inhärente oder zufällige Merkmale kapitalistischer Ökonomien sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-12353-7_5 a9c0d74684a5204da25f909df1f9d426;de;;;1.2.;;;Sicherheit und Wirksamkeit von Interferon-α bei 167 Patienten mit humaner T-Zell-lymphotropem Virus Typ 1-assoziierter Myelopathie Eine Überwachungsstudie nach der Markteinführung wurde durchgeführt, um die Sicherheit und Wirksamkeit von Interferon-α bei der humanen T-Zell-lymphotropen Virus Typ 1 (HTLV-1)-assoziierten Myelopathie (HAM) unter Routinebehandlungsbedingungen zu untersuchen. In die Umfrage wurden insgesamt 273 Fälle aus 91 medizinischen Einrichtungen registriert. Bisher wurden 167 Fälle auf Sicherheit und 152 auf Wirksamkeit untersucht. Die Bewertung der Wirksamkeit wurde basierend auf den klinischen Symptomen von HAM bewertet. Die Wirksamkeitsquote (Rate der Patienten, die als „mäßig bis deutlich verbessert“ und „leicht verbessert“ bewertet wurden) nach 4 Wochen betrug 66,2 %. Faktoren, die das Wirksamkeitsverhältnis nach 4 Wochen signifikant beeinflussten, waren der anfängliche Osames Motor Disability Score (OMDS) vor der Interferon-α-Therapie sowie die Dauer und das Stadium der Erkrankung. Bei 11 von 30 Patienten (36,7 %) wurde eine anhaltende Verbesserung des OMDS für mindestens 5 Monate nach Absetzen von Interferon-α beobachtet. Bei 146 Patienten traten insgesamt 536 unerwünschte Arzneimittelwirkungen (UAW) auf, von denen 46 schwerwiegend waren. Da einige dieser UAW erst spät auftraten, ist während der Langzeitbehandlung auf sie zu achten.;-;-;-;https://link.springer.com/article/10.1080/13550280701397627 2d30e3341b6aea5c1be4d526810e0f4f;de;;;1.2.;;;Wirkung einer niedrig dosierten rekombinanten Therapie mit humanem Wachstumshormon auf die Lungenfunktion bei Patienten mit Hypophyse mit Wachstumshormonmangel im Erwachsenenalter Bei erwachsenen Patienten mit im Kindesalter beginnendem Wachstumshormonmangel (GHD) wurde eine Beeinträchtigung der Lungenfunktion beschrieben. Wir untersuchten die forcierte Vitalkapazität (FVC), das forcierte Exspirationsvolumen (FEV1), die totale Lungenkapazität (TLC), die funktionelle Residualkapazität (FRC), das Residualvolumen (VR) und den Index der Inspirationsstärke, des mittleren Tidalvolumens und des Tidal-Inspirationszeitverhältnisses (TV/I) bei 29 Patienten mit im Erwachsenenalter beginnender GHD. Die Daten wurden mit denen von 46 gesunden Kontrollpersonen verglichen. Lediglich das FEV1/FVC-Verhältnis war statistisch unterschiedlich (;-;-;-;https://link.springer.com/article/10.1007/BF03347320 73f67fd4a2a2bc5b08383cd65f071b13;de;;;1.2.;;;Mechanische Faktoren, die die Kontur des Orohypopharynx und der Speiseröhre beeinflussen Aufgrund der Lage der Speiseröhre im hinteren Mediastinum kann die Trübung der Speiseröhre bei der Beurteilung vieler Erkrankungen und Läsionen dieser Region verwendet werden. In diesem Kapitel werden die äußeren und inneren Faktoren diskutiert, die den Orohypopharynx und die Speiseröhre mechanisch verschieben, verzerren, komprimieren, verschließen oder reißen. Die wichtigsten äußeren Strukturen und Räume, die den Orohypopharynx beeinflussen, sind der Retropharyngealraum, die Schilddrüse und die Nebenschilddrüsen, die Luftröhre und die Halswirbelsäule. Die die Speiseröhre im hinteren Mediastinalraum umgebenden Strukturen sind das Herz, der Aortenbogen, die Brustaorta, die Pleura und die Lunge, die mediastinalen Lymphknoten und die Brustwirbelsäule. Intrinsische Anomalien, die hier diskutiert werden, sind Fremdkörper, Perforationen, Erosionen und Schnittwunden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-6344-9_4 05217aed8fca553c9232d784e17de05f;de;;;1.2.;;;Eine Störungsmethode für mehrere Vorzeichenwechsellösungen Wir entwickeln eine Störungsmethode für nicht gerade Funktionale, die eine vorgeschriebene Anzahl von Vorzeichenwechsellösungen erzeugt. Die abstrakte Theorie wird auf die gestörte unterkritische elliptische Gleichung und das gestörte Brézis-Nirenberg-Problem des kritischen Exponenten angewendet.;-;-;-;https://link.springer.com/article/10.1007/s00526-009-0253-2 1cd8dee216cdf8e512fba574815de2dd;de;;;1.2.;;;Quadratische und zyklotomische Felder Im letzten Kapitel haben wir die allgemeine Theorie der algebraischen Zahlenkörper und ihrer Ringe von ganzen Zahlen diskutiert. Wir betrachten nun zwei wichtige Klassen dieser Felder genauer, die zuerst im 19. Der Leser, der sich für die historische Entwicklung dieses Themas interessiert, sollte das Buch von H. Edwards [128] sowie die klassische Abhandlung von H. Smith [72] konsultieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-1779-2_13 ad5312258753d6bebaaa14a6ca5f6317;de;;;1.2.;;;Abū Kāmils Der Ägypter Abū Kāmil (ca. 850-ca. 930), der nach al-Khwārizmī (ca. 820) als zweiter arabischer Algebraist galt, war der erste, der eine algebraische Abhandlung für ausgebildete Mathematiker verfasste. Unter den kürzeren Abhandlungen, die er verfasste, ist eine offensichtlich für eine breitere Leserschaft geschrieben, da sie, wie Abū Kāmil selbst sagt, Formeln enthält, aber keine Demonstrationen, wie es eine Abhandlung auf höherer Ebene tun würde. Dies ist das;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36736-6_19 5e580476f6f96b009dd4ae14c82b028e;de;;;1.2.;;;Machen Sie Ihre Dokumente sicher Tom ist ein Sammler. Im Laufe der Jahre hat er die Autogramme zahlreicher berühmter Persönlichkeiten gekauft und verkauft. Sie fragen sich vielleicht, wie er die Echtheit der Unterschrift von Abe Lincoln, George Wythe oder James Buchanan überprüft hat, da das Fälschen von Unterschriften seit Jahren weit verbreitet ist. Zeitgenössische Fälscher stehlen Geld von einem Girokonto oder ändern Dokumente, um sie als historisch bedeutsame Dokumente auszugeben. Die Verifizierung von Dokumenten erfolgt durch Abgleich einer als echt bekannten Signatur auf einer Signaturkarte oder durch Verifizierung des jeweiligen Dokuments. Auch Informationen zur Nutzung können bei der Verifizierung helfen. Die Überprüfung des George Wythe-Dokuments war einfach. Wythe war Richter in Virginia. Das Dokument hat das Virginia-Gerichtssiegel und einen eingeprägten Bundessteuerstempel.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-0786-3_7 b8b5f6a7638122dfb1631892648198da;de;;;1.2.;;;Simulation und Interaktion der Fluiddynamik In der Fluidsimulation können die Fluide und ihre Umgebung gleichzeitig ihre Eigenschaften wie Form und Temperatur stark ändern, und unterschiedliche Umgebungen würden unterschiedliche Wechselwirkungen charakterisieren, die die Form und Bewegung der Fluide auf unterschiedliche Weise verändern würden. Andererseits würden Wechselwirkungen zwischen Flüssigkeitsgemischen unterschiedlicher Art ein umfassenderes Verhalten erzeugen. Um das Wechselwirkungsverhalten in der physikalisch basierten Simulation von Fluiden zu untersuchen, ist es wichtig, physikalisch korrekte Modelle zu erstellen, um die unterschiedlichen Wechselwirkungen zwischen Fluiden und der Umgebung sowie Wechselwirkungen zwischen den Gemischen darzustellen. In diesem Papier werden wir eine einfache Übersicht über die Wechselwirkungen geben und uns auf die für uns interessantesten konzentrieren und sie mit verschiedenen physikalischen Lösungen modellieren. Insbesondere wird auf die Simulation von mischbaren und nicht mischbaren binären Gemischen näher eingegangen. Bei einigen der Verfahren ist es vorteilhaft, mit der Grafikverarbeitungseinheit (GPU) mitgenommen zu werden, um eine Echtzeitberechnung für eine Simulation im mittleren Maßstab zu erreichen.;-;-;-;https://link.springer.com/article/10.1007/s00371-007-0106-y 25af8cee9d48c1961f0e15443cbb7da4;de;;;1.2.;;;Subsampling MCMC – eine Einführung für den Umfragestatistiker Die rasante Entwicklung der Rechenleistung und die effizienten Markov-Chain-Monte-Carlo-(MCMC)-Simulationsalgorithmen haben die Bayessche Statistik revolutioniert und sie zu einer äußerst praktischen Inferenzmethode in der angewandten Arbeit gemacht. MCMC-Algorithmen neigen jedoch dazu, rechenintensiv zu sein und sind bei großen Datensätzen besonders langsam. Datensubsampling wurde kürzlich vorgeschlagen, um MCMC-Methoden auf sehr große Daten skalierbar zu machen, indem effiziente Stichprobenschemata und Schätzer aus der Literatur zur Stichprobenerhebung verwendet werden. Diese Entwicklungen sind vielen Umfragestatistikern, die traditionell mit nicht-bayesischen Methoden arbeiten und selten MCMC verwenden, unbekannt. Unser Artikel erklärt die Idee des Data Subsampling in MCMC, indem wir einen Arbeitsstrang, Subsampling MCMC, einen sogenannten Pseudo-Marginal MCMC-Ansatz zur Beschleunigung von MCMC durch Data Subsampling, betrachten. Die Rezension ist für einen Umfragestatistiker ohne Vorkenntnisse der MCMC-Methoden geschrieben, da unser Ziel darin besteht, Experten für Umfragestichproben zu motivieren, zur wachsenden Subsampling-MCMC-Literatur beizutragen.;-;-;-;https://link.springer.com/article/10.1007/s13171-018-0153-7 29134d0c1d0b810d8e9cfb4a2689a029;de;;;1.2.;;;Wechselwirkungen zwischen Investitionskapiteln in Megaregionalen und bilateralen Investitionsabkommen Alle kürzlich abgeschlossenen oder derzeit verhandelten Mega-Regionals sollen unter anderem einen regulatorischen Rahmen für ausländische Investitionen vorsehen oder zumindest mit hoher Wahrscheinlichkeit vorsehen. Vor diesem Hintergrund werden in diesem Beitrag einige spezifische Aspekte der Wechselwirkungen zwischen diesen Investitionskapiteln und der im Prinzip schon traditionellen Vertragsgestaltung durch den Abschluss von bilateralen Investitionsverträgen (BITs) näher beleuchtet. Der erste Abschnitt befasst sich mit dem sachlichen Hintergrund und einigen der zugrunde liegenden Erwartungen, die die gegenwärtige Diskussion über das Verhältnis zwischen Investitionskapiteln in Megaregionen und BITs prägen. Im zweiten Teil wird versucht, die verschiedenen potentiellen Verbindungen anhand der Identifizierung von zwei Hauptdimensionen der Interaktion zwischen Megaregionalen und BITs zu systematisieren. Abschließend wird der Beitrag eine Art Vogelperspektive und einige vorläufige Schlussfolgerungen zu den zu erwartenden Konsequenzen dieser Wechselwirkungen für die zukünftige Entwicklung und wissenschaftliche Erforschung des internationalen Investitionsrechts insgesamt liefern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-56663-4_7 c4f77982e8ed4347b6c73d3a7a9e224a;de;;;1.2.;;;Pneumatose cystoides intestinalis Pneumatosis cystoides intestinalis ist eine Erkrankung, bei der submuköse oder subseröse Gaszysten in der Wand des Dünn- oder Dickdarms gefunden werden. Es gibt sowohl fulminante als auch gutartige Formen. Die fulminante Pneumatosis cystoides intestinalis ist mit einem akuten bakteriellen Prozess, Sepsis und Darmnekrose assoziiert, während die benigne Pneumatosis cystoides intestinalis völlig asymptomatisch und als Zufallsbefund bei einer Laparotomie beobachtet werden kann. Viele verschiedene Ursachen für Pneumatosis cystoides intestinalis wurden vorgeschlagen, einschließlich mechanischer und bakterieller Ursachen. Es wird eine Literaturübersicht mit Schwerpunkt auf der Ätiologie der Pneumatosis cystoides intestinalis präsentiert, die wahrscheinlich auf bakterielle und mechanische Faktoren zurückgeführt werden kann. Auch Diagnose und unterschiedliche Therapieformen und deren Wirksamkeit werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF02554132 c8d70ac832b9bf17d8248c2c164e63cf;de;;;1.2.;;;Das medizinische Management der chronisch-kongestiven Herzinsuffizienz Das medizinische Management von Patienten mit chronischer Herzinsuffizienz (CHF) hat sich in den letzten zwei Jahrzehnten stark weiterentwickelt. Neben der Verfügbarkeit neuer Wirkstoffe mit nachgewiesener klinischer Wirksamkeit wissen wir jetzt viel mehr darüber, wo und wann traditionelle Medikamente wie Digoxin und Diuretika eingesetzt (oder manchmal vermieden) werden sollten. Es ist kein Zufall, dass Veränderungen der Therapeutika Fortschritte in unserem Verständnis der Pathogenese der myokardialen Dysfunktion und der integrierten Reihe von Ereignissen, die zum klinischen Syndrom der CHF führen, vorausgingen und in einigen Fällen parallel dazu entwickelt wurden. Darüber hinaus haben die Ergebnisse einer bemerkenswerten Reihe gut konzipierter klinischer Studien in den letzten 5 Jahren Leitlinien für die medizinische Behandlung einer Vielzahl von Patienten mit linksventrikulärer (LV) Dysfunktion bereitgestellt. Obwohl CHF nach wie vor eine äußerst ernste Krankheit ist, haben die Fortschritte in unserem Verständnis der Pathophysiologie und Behandlung, die in diesem Text beschrieben werden, zu einem längeren und angenehmeren Leben für Patienten geführt, die an diesem Syndrom leiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-8315-4_34 99e5ef02fe27cca37ac3c78d535ae322;de;;;1.2.;;;Entferne mich nackt In diesem Beitrag argumentiere ich, dass die traditionelle Analyse von Nullargumenten – Subjekten und Objekten – in der amerikanischen Gebärdensprache neu bewertet werden muss. Normalerweise wird angenommen, dass das Nullargument bei fehlender Übereinstimmung entweder eine themengebundene Variable oder ein stilles Pronomen ist (;-;-;-;https://link.springer.com/article/10.1007/s11049-016-9349-5 75ffd921da49028ff1ec94e3d4675d81;de;;;1.2.;;;Anwendung von CPML zum Abschneiden der offenen Grenzen von zylindrischen Wellenleitern in 2,5-dimensionalen Problemen Um das Problem des Abschneidens der offenen Grenzen von zylindrischen Wellenleitern zu lösen, die bei der Simulation von Hochleistungs-Mikrowellen(HPM)-Quellen verwendet werden, untersucht dieser Artikel die Faltungs-PML (CPML) im zylindrischen Koordinatensystem. Die FDTD-Gleichungen des elektromagnetischen Felds und die Ausdrücke der Achsenrandbedingungen werden vorgestellt. Numerische Experimente werden durchgeführt, um die Gleichungen und Achsenrandbedingungen zu validieren. Die Leistung von CPML wird simuliert, wenn es verwendet wird, um die von den Quellen angeregten zylindrischen Wellenleiter mit unterschiedlichen Frequenzen und Moden in den 2,5-dimensionalen Problemen abzuschneiden. Numerische Ergebnisse zeigen, dass die maximalen relativen Fehler alle kleiner als –90 dB sind. die CPML-Methode wird in die 2,5-dimensionale elektromagnetische PIC-Software eingeführt und der relativistische Rückwärtswellenoszillator wird unter Verwendung dieser Methode simuliert. Die Ergebnisse zeigen, dass die CPML-Eigenschaft viel besser ist als die der absorbierenden Randbedingung vom Mur-Typ, wenn sie zum Abschneiden der offenen Grenzen von Wellenleitern verwendet werden. Die CPML eignet sich besonders zum Abschneiden der offenen Grenzen der dispersiven Wellenleiterbauelemente bei der Simulation von HPM-Quellen.;-;-;-;https://link.springer.com/article/10.1360/04yf0186 7c79483ee60d28e42db057728923dedf;de;;;1.2.;;;Numerische Simulation von Tsunamis — Gegenwart und nahe Zukunft Das Hindcasting eines Tsunamis durch numerische Simulationen ist ein Prozess langwieriger und komplizierter Schlussfolgerungen, wobei nur die Endergebnisse wie Auflaufhöhen und Gezeitenrekorde bekannt sind, die beide möglicherweise aufgrund einer unzureichenden Anzahl von Datensätzen und aufgrund von hydraulischen und mechanischen verzerrt sind Begrenzung der Gezeitenanzeige. Es gibt viele Fehlerquellen. Das mit seismischen Daten ermittelte Anfangsprofil kann sogar vom tatsächlichen Tsunami-Profil abweichen. Das numerische Schema führt zu Fehlern. Nichtlinearität nahe und an Land erfordert eine entsprechende Auswahl von Gleichungen. Unter Berücksichtigung dieser Tatsachen ist anzumerken, dass numerische Simulationen für die Praxis zufriedenstellende Informationen liefern, da der Endfehler in der Regel innerhalb von 15 % bezüglich der maximalen Anlaufhöhe liegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-3362-3_5 75d8fb78e4bfce148e3ff8b8a3bdcf86;de;;;1.2.;;;Lebensraumpräferenzen mittlerer/großer Säugetiere in vom Menschen gestörten Wäldern in Zentraljapan Es ist eine große Sorge, ob der vom Menschen gestörte Wald, d. h. Sekundärwald oder Monokulturwald, Lebensraum für die Tierwelt sein kann. Wir haben die Habitatpräferenz mittelgroßer/großer terrestrischer Säugetierarten in einem vom Menschen gestörten Bergsiedlungsgebiet der Region Akiyama, Zentraljapan, mithilfe von Kamerafallen untersucht, die in Nadelbaumplantagenwäldern und Laubwäldern mit hoher/niedriger Störung platziert wurden und Laub-/Nadelbaum-Mischwald in den Jahren 2008 und 2009. Kamerafallen waren 4568,6 Fallennächte lang in Betrieb und produzierten 740 Fotoaufnahmen von 13 mittelgroßen/großen terrestrischen Säugetierarten. Japanischer Serow und Japanischer Hase dominierten 54 % aller Fotoaufnahmen. Der störungsarme Laubwald zeigte die reichste Säugetierfauna (12 spp.). Wir schlugen vor, dass Obstbäume und Unterwuchsvegetation einen geeigneten Lebensraum sowohl für fruchtfressende als auch für pflanzenfressende Säugetiere bieten. Der Mischwald zeigte die niedrigste Säugetierfauna (6 spp.), die höher gelegen war. Stark gestörter Laubwald (9 spp.) sollte auch ein besserer Lebensraum für einige frugivore und pflanzenfressende Säugetiere sein, wurde aber von Japanischen Mardern und Japanischen Makaken eher gemieden. Nadelbaumplantagenwald (7 spp.) mit Unterwuchsvegetation sollte ein besserer Lebensraum für Japanische Serow und Japanischen Hasen sein, nicht aber für die anderen Arten. Ohne Obstbäume sollte der Nadelbaumplantagenwald kein attraktiver Lebensraum für frugivore Säugetiere sein. Wir haben gezeigt, dass, wenn ein Wald durch den Menschen zerstört wurde, der Wald ein Lebensraum für terrestrische Pflanzenfresser sein kann, dies war jedoch nicht immer der Fall für Frugivores.;-;-;-;https://link.springer.com/article/10.1007/s11284-014-1159-9 f675a18c417a8315b3d1ac5a951d7523;de;;;1.2.;;;Der übertragbare Rubel und die Konvertibilität im Cmea Das vorliegende Papier versucht, einige der neuen Aspekte der Konvertibilität in der europäischen RGW-Region zu beleuchten, vor allem auf regionaler Ebene. Ich beschränke mich auf rein finanzielle Aspekte und eng damit verbundene Probleme der Wirtschaftsführung, auf Analysen „realer“ Wirtschaftsprozesse und wirtschaftspolitischer Alternativen wird bewusst verzichtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-06071-9_14 0c356ff4a1016f637933f33917969350;de;;;1.2.;;;Mangelernährung und Lebensqualität bei Patienten mit nicht-kleinzelligem Lungenkrebs Progressiver Gewichtsverlust, häufig verringert die Leistungsfähigkeit und Lebensqualität bei Patienten mit fortgeschrittenem Lungenkrebs. Es gibt jedoch nur wenige Studien, die sich mit dem Ernährungszustand und der Lebensqualität von Patienten mit nicht-kleinzelligem Lungenkrebs (NSCLC) befassen. Ziel der vorliegenden Studie ist es, den Ernährungszustand und seine Beziehung zur Lebensqualität von NSCLC-Patienten zu bestimmen. Einhundertachtzig NSCLC-Patienten (Durchschnittsalter 62,8 ± 9,6 Jahre) wurden während der Therapie am Niederschlesischen Zentrum für Lungenkrankheiten in Breslau, Polen, untersucht. Der Ernährungsstatus wurde mit dem Mini-Nutritional Assessment (MNA) und die Lebensqualität mit zwei von der European Organization for the Research and Treatment of Cancer (EORTC) entwickelten Instrumenten bewertet: QLQ-C30 und QLQ-LC13 Fragebögen. Die MNA ergab, dass bis zu 51,1 % der Patienten unterernährt waren, 23,9 % mangelernährt waren und nur 25,0 % eine normale Ernährung aufwiesen. Die gut ernährten Befragten bewerteten ihre Lebensqualität in allen Funktionsskalen besser (33,3;-;-;-;https://link.springer.com/chapter/10.1007/5584_2017_23 e9c5086399520ab49aedcdd740331b25;de;;;1.2.;;;"Ursachen und zugrunde liegende dynamische Prozesse der Winterunterdrückung in der Nordpazifik-Sturmbahn Die Aktivität der baroklinen Wellen im Nordpazifik weist Spitzen im späten Herbst und frühen Frühling und ein lokales Minimum im Winter auf, wenn sie nach der Theorie der linearen baroklinen Instabilität ihr Maximum erreichen sollte. Dieses kontraintuitive Phänomen, oder ""Midwinter Suppression"" (MWM), wie es genannt wird, wird mit einem Funktionsanalysegerät, der Multiskalenfenstertransformation (MWT) und der MWT-basierten Theorie des kanonischen Transfers und der lokalisierten Multiskalenenergetikanalyse zusammen mit einem Feature-Tracking-Technik unter Verwendung der Daten des European Centre for Medium-Range Weather Forecasts ReAnalysis (ERA-40). Es wurde festgestellt, dass die MWM aus einer Vielzahl verschiedener physikalischer Prozesse resultiert, einschließlich barokliner kanonischer Übertragung, diabatischer Effekt, Energieflussdivergenz und Reibungsdissipation. Einerseits erreichen die barokline kanonische Übertragung und die diabatische Wirkung ihre jeweiligen Maxima im Spätherbst. Es wird mehr vorübergehend verfügbare potenzielle Energie erzeugt und dann in vorübergehende kinetische Energie umgewandelt, was im Spätherbst zu einer stärkeren Sturmspur führt als im Hochwinter. Auf der anderen Seite sind im zeitigen Frühjahr, obwohl die barokline Instabilität und die Auftriebsumwandlung schwach sind, die Konvergenzen des Energieflusses wesentlich verstärkt, was zu einem Nettoenergiezufluss in die Sturmbahn führt. Dagegen wird die Reibungsverluste im Frühjahr stark reduziert, so dass im zeitigen Frühjahr weniger Übergangsenergie abgebaut wird als im Hochwinter. Es wird weiter festgestellt, dass die Abschwächung des baroklinen kanonischen Transfers im Mittwinter (im Vergleich zum Spätherbst) auf die große Entfernung zwischen dem Sturm und dem Jetstream (an seinem südlichsten Punkt) zurückzuführen ist, der die Interaktion zwischen ihnen unterdrückt. Was die Zunahme der Konvergenz des Energieflusses im zeitigen Frühjahr betrifft, so scheint diese auf die Zunahme (Verstärkung) der Anzahl (Stärke) von Stürmen von stromaufwärts in den Pazifik zurückzuführen zu sein.";-;-;-;https://link.springer.com/article/10.1007/s11430-018-9310-5 f36e6949f749f0b2e12f606081f52038;de;;;1.2.;;;Pharmakologie der Thrombozytenadhäsion und -aggregation An der verletzten Gefäßwand werden Blutplättchen aktiviert und haften sowohl an der subendothelialen Oberfläche als auch aneinander. Diese zellulären Adhäsionsprozesse sind für die primäre Blutstillung erforderlich, können aber auch zu Thrombosen führen. In den letzten Jahren wurden beträchtliche Fortschritte beim Verständnis der molekularen Mechanismen erzielt, die der Blutplättchenaktivierung und -adhäsion zugrunde liegen. Dieses Wissen wird zukünftige Bemühungen um die Entwicklung neuer Thrombozytenaggregationshemmer zur Prävention und Behandlung von Herz-Kreislauf-Erkrankungen vorantreiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68170-0_14 fd5703d4206355a0793464ecb51f62c7;de;;;1.2.;;;Auswirkungen des Schwimmblasenparasiten auf die Gesundheit und Leistung von Europäischen Aalen Es wird angenommen, dass eine wachsende Zahl von Krankheiten, einschließlich Infektionen durch Parasiten, eine wichtige Rolle bei der drastischen Reduzierung des Aals in europäischen Flüssen und Seen spielt. Für den Europäischen Aal wurde bisher das Vorkommen von etwa vierzig Parasitenarten gemeldet. Bykhovskaya-Pavlovskaya et al. (1962) listete 30 Arten in diesem Fisch auf. Seitdem wurden mehrere neue Arten erfasst, darunter auch hochpathogene. Einige dieser Arten kamen von Pazifischen Aalen (;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-9095-0_9 3e0f45a8eb336b4094f5e2c5f4213e7f;de;;;1.2.;;;Klassifikation bei kleinen Stichproben In einer Reihe von Anwendungsbereichen wie Materialien und Genomik, in denen Objekte klassifiziert werden sollen, sind die Stichprobengrößen aufgrund des Aufwands oder der Nichtverfügbarkeit von Datenpunkten oft klein. Viele Designverfahren für Klassifikatoren funktionieren bei großen Stichproben gut, sind jedoch bei kleinen Stichproben ineffektiv oder bestenfalls problematisch. Schlimmer noch, kleine Stichproben machen es schwierig bis unmöglich, eine genaue Fehlerschätzung ohne Modellannahmen zu garantieren, und ohne eine gute Fehlerschätzung ist ein Klassifikator nutzlos. Das vorliegende Kapitel diskutiert das Problem der Fehlerschätzung bei kleinen Stichproben und wie Modellannahmen verwendet werden können, um Grenzen der Fehlerschätzungsgenauigkeit zu erhalten. Angesichts der Notwendigkeit von Modellierungsannahmen diskutieren wir im Folgenden die Fehlerschätzung des minimalen mittleren Fehlerquadrats (MMSE) und das Design optimaler Klassifikatoren in Bezug auf Vorwissen und Daten in einem Bayes-Kontext.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23871-5_4 7e1ca9d380fb99da22f25771d231b07f;de;;;1.2.;;;Charneys Modell – der bekannte Prototyp der baroklinen Instabilität – ist auch barotrop instabil Das Charney-Modell wird mit einem neuen mathematischen Werkzeug, der Multiscale Window Transformation (MWT) und der MWT-basierten lokalisierten Multiskalen-Energetikanalyse, die von Liang und Robinson entwickelt wurde, erneut untersucht, um realistische geophysikalische Fluidströmungsprozesse zu behandeln. Obwohl dieses Modell traditionell als Prototyp der baroklinen Instabilität angesehen wurde, unterliegt es tatsächlich einem gemischten. Während die barokline Instabilität das Bottom-Trapped-Merkmal der Störung erklärt, kann das zweite extreme Zentrum im Störungsfeld nur durch eine neue barotrope Instabilität erklärt werden, wenn die Charney-Green-Zahl γ ≪ 1 ist, die in der gesamten Flüssigkeitssäule stattfindet und auf einer Höhe maximiert, in der sein baroklinisches Gegenstück aufhört zu funktionieren. Das Abweichen der baroklinen Instabilität in eine barotrope in dieser Höhe entspricht gut der Korrektur der Neigung, die auf den Karten der Störungsgeschwindigkeit und des Drucks zu finden ist. In dieser Studie wurde auch die relative Bedeutung der barotropen Instabilität zur baroklinen Instabilität in Bezug auf γ festgestellt. Bei γ 1 ist die barotrope Instabilität vernachlässigbar und daher kann das System als rein baroklin angesehen werden, bei γ 1 sind jedoch barotrope und barotrope Instabilitäten von der gleichen Größenordnung, tatsächlich kann die barotrope Instabilität sogar noch stärker sein. Die Implikationen dieser Ergebnisse wurden diskutiert, indem sie mit realen atmosphärischen Prozessen verknüpft wurden.;-;-;-;https://link.springer.com/article/10.1007/s00376-019-8189-8 fb2c04f8ebe80590d7c71eccb47f0b05;de;;;1.2.;;;„Sie tanzen alle unter dem Grünholzbaum“: Britische und dänische Romantik-Adaptionen von zwei dänischen „Elfenballaden“ Lis Møller findet eine relativ undokumentierte Quelle der Inspiration oder des kulturellen Austauschs wieder, die dänische und britische Romantiker teilen: dänische populäre mittelalterliche Balladen. Der erste Teil von Møllers Essay konzentriert sich auf die beiden Balladen „Elverhøj“ und „Elverskud“ und untersucht einflussreiche englische Übersetzungen. Die zweite identifiziert diese Übersetzungen als Intertexte von John Keats’ gefeierter Ballade „La Belle Dame Sans Merci“ (1817) und gewinnt damit einen wichtigen dänischen Einfluss auf die britische Romantik zurück. Die dritte liest dann Keats' Ballade selbst als Einfluss auf einige spätere dänische, romantische Adaptionen von „Elverhøj“ und „Elverskud“, darunter insbesondere das Libretto des dänischen Kritikers Christian Molbech (1783–1857) für den romantischen Nationalisten 'Konzertstück';-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-51246-4_6 ef6e26e5d54751f03cfd35d63ea38903;de;;;1.2.;;;Ein quanteninspirierter Bakterienschwarmoptimierungsalgorithmus für diskrete Optimierungsprobleme Um das Problem der diskreten Optimierung zu lösen, schlägt dieses Papier einen quanteninspirierten Algorithmus zur Optimierung des bakteriellen Schwarms (QBSO) vor, der auf der Optimierung der bakteriellen Nahrungssuche (BFO) basiert. Der vorgeschlagene QBSO-Algorithmus wendet die Quantencomputertheorie auf die Optimierung der bakteriellen Nahrungssuche an und hat somit die Vorteile sowohl der Quantencomputertheorie als auch der Optimierung der bakteriellen Nahrungssuche. Außerdem verwenden wir das Schwarmmuster von Vögeln im Block, das in der Partikelschwarmoptimierung (PSO) eingeführt wurde. Dann bewerten wir die Effizienz des vorgeschlagenen QBSO-Algorithmus durch vier klassische Benchmark-Funktionen. Simulationsergebnisse zeigen, dass der entworfene Algorithmus einigen früheren Intelligenzalgorithmen sowohl in der Konvergenzrate als auch in der Konvergenzgenauigkeit überlegen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30976-2_4 cee4930717b6b44b2ab730f7fbf7ffcc;de;;;1.2.;;;Ein Fuzzy-Particle-Schwarm-Optimierungsalgorithmus für das Design von Computerkommunikationsnetzwerken Particle Swarm Optimization (PSO) ist eine leistungsstarke Optimierungstechnik, die zur Lösung einer Reihe komplexer Optimierungsprobleme angewendet wurde. Ein solches Optimierungsproblem ist der Topologieentwurf von verteilten lokalen Netzwerken (DLANs). Das Problem ist als ein Mehrzieloptimierungsproblem definiert, das eine gleichzeitige Optimierung der monetären Kosten, der durchschnittlichen Netzwerkverzögerung, der Sprungzahl zwischen den kommunizierenden Knoten und der Zuverlässigkeit unter einer Reihe von Beschränkungen erfordert. Dieses Papier präsentiert einen multi-objektiven Partikelschwarm-Optimierungsalgorithmus, um das Designproblem der DLAN-Topologie effizient zu lösen. Fuzzy-Logik ist in den PSO-Algorithmus integriert, um die Multiobjektivität des Problems zu handhaben. Insbesondere ein kürzlich vorgeschlagener Fuzzy-Aggregationsoperator, nämlich der vereinheitlichte And-Or-Operator (Khan und Engelbrecht in Inf. Sci. 177: 2692–2711,;-;-;-;https://link.springer.com/article/10.1007/s10489-010-0251-2 9eccab6f9d2305f6e029355de497f94e;de;;;1.2.;;;Eine neue nicht-invasive Methode zur Erkennung von Ventilhaftreibung mit Wavelet-Technologie In diesem Brief stellen wir einen neuartigen Ansatz zur Erkennung von Ventilhaftreibung unter Verwendung der Wavelet-Technologie vor. Mit den Closed-Loop-Normalbetriebsdaten wird eine neue nicht-invasive Methode entwickelt. Die redundante dyadische diskrete Wavelet-Transformation wird verwendet, um die Daten in verschiedenen Auflösungsskalen zu zerlegen. Basierend auf der Lipschitz-Regularitätstheorie wird eine skalenübergreifende Wavelet-Koeffizientenanalyse durchgeführt, um die Sprünge in den kontrollierten Variablen zu erkennen. Auf die Daten wird dann eine adaptive Wavelet-Entrauschung angewendet. Merkmale der Ventilhaftreibungsmuster werden aus den entrauschten Daten extrahiert und die Ventilhaftreibungswahrscheinlichkeit wird berechnet.;-;-;-;https://link.springer.com/article/10.1007/s11767-009-0017-3 0d44c2150d50eaa1ce02ead33d13c794;de;;;1.2.;;;Wahrnehmungsnormalisierung für Sprechgeschwindigkeit II: Auswirkungen von Signaldiskontinuitäten In einer Reihe von Experimenten haben wir untersucht, wie die Geschwindigkeitsnormalisierung in der Sprachwahrnehmung durch Segmente beeinflusst wird, die nach dem Ziel auftreten. Die Wahrnehmung des silbeninitialen Ziels wurde durch die Dauer sowohl des benachbarten Vokals als auch des Segments nach dem Vokal beeinflusst, selbst wenn die Identität des Sprechers während der Silbe geändert wurde. Diese Ergebnisse, zusammen mit früheren Erkenntnissen eines zeitlichen Fensters, das einem Zielphonem folgt, innerhalb dessen die Segmentdauer die Wahrnehmung des Ziels beeinflusst, helfen, scheinbar widersprüchliche Ergebnisse zu lösen, die zuvor berichtet wurden. Insgesamt passen die Ergebnisse in einen theoretischen Rahmen, in dem die Häufigkeit, mit der Ereignisse stattfinden, früh in der Verarbeitung extrahiert wird, bevor Stimmen getrennt werden, und die Verwendung dieser Informationen in der nachfolgenden Verarbeitung obligatorisch ist.;-;-;-;https://link.springer.com/article/10.3758/BF03205549 aa2800d1dc48f2deca801696305eceb2;de;;;1.2.;;;Schätzung des Sauerstoffverbrauchs von Lithobiiden-Feldpopulationen aus Labormessungen Der Sauerstoffverbrauch zweier Lithobiiden-Populationen in einem alten Buchenbestand im Solling wird geschätzt. Die Atmung einzelner Individuen wurde bei verschiedenen Temperaturen in einem Warburg-Repirometer bestimmt. Die Atemfrequenz hängt exponentiell von der Temperatur ab (Q;-;-;-;https://link.springer.com/article/10.1007/BF00379702 9c412ba1c0b83fcfffb51d85f5511ede;de;;;1.2.;;;Diskriminierende und Dirigent Die Berechnung der Diskriminante ist das Herzstück der Techniken der algebraischen Zahlentheorie. Es ist an Basisproblemen (Kapitel 9) beteiligt, an verzweigten Primzahlen (Kapitel 10) und jetzt an der Berechnung des Leiters;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-9950-9_17 225f2331d9ef37fcaedb28e95920584f;de;;;1.2.;;;Rekonstruieren von Strings aus Teilstrings mit Quantum-Abfragen In diesem Artikel wird die Anzahl der Quantenabfragen untersucht, die durchgeführt werden, um das Problem der Rekonstruktion einer unbekannten Zeichenfolge aus ihren Teilzeichenfolgen in einem bestimmten Abfragemodell zu lösen. Genauer gesagt besteht das Ziel des Problems darin, eine unbekannte Zeichenfolge zu identifizieren;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31155-0_34 2e052c97156e5a621424ea31239cff90;de;;;1.2.;;;Ein Paradigmenwechsel für die Abdominoplastik: Transverse hypogastrische Plikation ohne supraumbilikale Dissektion, uneingeschränkte Fettabsaugung, Neoumbilikoplastik und tiefliegende Narbenplatzierung (TULUA) Die Lipoabdominoplastik entwickelt sich zu einem sichereren Verfahren, das immer noch nicht frei von Komplikationen wie Nekrose, Dehiszenz, Seromen, epigastrischer Hautredundanz, schlechter Lokalisation von Narben und einem ungeformten, schlecht gelegenen Nabel ist. Unter dem Akronym TULUA wird ein modifizierter Ansatz beschrieben, der einige etablierte Konzepte verändert, aber im Einklang mit der historisch konstanten Entwicklung der Abdominoplastik steht: transversale hypogastrische Bauchwandfaltung, keine Unterminierung oder Lappenhebung über dem Nabel, uneingeschränkte Tumeszenz-Liposuktion des gesamten Abdomens einschließlich Epigastrium und Mittellinie , direkte Haut- und Fettexzision im Unterbauch, Nabelamputation und Rekonstruktion des Nabels mit Hauttransplantat in einer neuen Idealposition und narbenarme Platzierung. Modifikationen waren in primären und sekundären Fällen nützlich, insbesondere wenn Bedenken hinsichtlich der Blutversorgung, früheren Narben, Rauchern und Fettleibigkeit bestehen. TULUA als Paradigmenwechsel verändert die Denkweise in der konventionellen Bauchdeckenstraffung und erweitert die Indikationen auf eine größere Patientengruppe, erzielt normale ästhetische Ergebnisse und erhöht die Sicherheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-20004-0_15 0cb7dbe7ab2e2d4b21eb2e51342c49db;de;;;1.2.;;;Die amerikanisch-europäische Konsenskonferenz zu ARDS, Teil 2 Das akute Atemnotsyndrom (ARDS) trägt weiterhin zur Morbidität und Mortalität von Patienten auf Intensivstationen weltweit bei und verursacht enorme menschliche und finanzielle Kosten. In den letzten zehn Jahren ist die ARDS-Mortalität ohne klare Erklärung zurückgegangen. Das American-European Consensus Committee on ARDS wurde gegründet, um die Standards für die Intensivversorgung von Patienten mit akuten Lungenverletzungen (ALI) im Hinblick auf Beatmungsstrategien, die vielversprechenderen pharmakologischen Wirkstoffe sowie die Definition und Quantifizierung pathologischer Merkmale neu zu bewerten von ALI, die eine Auflösung erfordern. Es wurde der Ansicht, dass die Definition von Strategien für das klinische Design und die Koordination von Studien zwischen Zentren und Kontinenten immer wichtiger wird, um die Erforschung verschiedener neuer Therapien für ARDS zu erleichtern.;-;-;-;https://link.springer.com/article/10.1007/s001340050585 23c4121ba724c96d869cfe87c031041e;de;;;1.2.;;;Möglichkeiten der Fruchtbarkeitsbehandlung bei Frauen über 40 Jahre Die Wahl der Kinderwunschbehandlung bei Frauen über 40 Jahren muss teilweise aus Ergebnissen bei jüngeren Frauen abgeleitet werden, da häufig spezifische Informationen zu Frauen über 40 fehlen. Erwartungen können aus der Kenntnis der;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-2288-0_23 3077f9c96d3d94c3022ae091371d10a2;de;;;1.2.;;;Asymptotische Schätzungs- und Testtheorie für stochastische Prozesse In der klassischen Zeitreihenanalyse wurde die asymptotische Schätz- und Testtheorie für lineare Prozesse entwickelt, zu denen die Modelle AR, MA und ARMA gehören. In den letzten zwanzig Jahren wurden jedoch viele kompliziertere stochastische Prozessmodelle eingeführt, wie nichtlineare Zeitreihenmodelle, Diffusionsprozesse, Punktprozesse und nichtergodische Prozesse. Dieses Kapitel widmet sich der Bereitstellung einer modernen asymptotischen Schätz- und Testtheorie für diese verschiedenen stochastischen Prozessmodelle. Der Ansatz basiert hauptsächlich auf den LAN-Ergebnissen aus dem vorherigen Kapitel. Konkreter diskutieren wir in Abschnitt 3.1 die asymptotische Schätz- und Testtheorie für nicht-gaußsche vektorlineare Prozesse im Hinblick auf LAN. Die Ergebnisse sind sehr allgemein gehalten und umfassen viele andere Arbeiten, die sich mit AR-, MA- und ARMA-Modellen als Spezialfälle beschäftigen. Abschnitt 3.2 behandelt einige Elemente nichtlinearer Zeitreihenmodelle und der asymptotischen Schätztheorie basierend auf dem bedingten Kleinste-Quadrate-Schätzer und dem Maximum-Likelihood-Schätzer (MLE). Wir adressieren das Problem der statistischen Modellauswahl im Allgemeinen. Auch die asymptotische Theorie für nichtergodische Modelle wird erwähnt. In letzter Zeit wurde den kontinuierlichen Zeitprozessen (insbesondere Diffusionsprozessen), die im Finanzwesen auftreten, viel Aufmerksamkeit geschenkt. Daher beschreiben wir in Abschnitt 3.3 die Grundlagen von stochastischen Integralen und Diffusionsprozessen. Dann wird die LAN-basierte asymptotische Schätztheorie für sie untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-1162-4_3 551b75d99e0747f7c17b2a1c80c236e9;de;;;1.3.;;;Doxycyclin-induzierte Transgenexpression während der Entwicklung und des Alterns von Drosophila Der „reverse“ Tetracyclin-Repressor (rtR) bindet ein bestimmtes DNA-Element, den Tetracyclin-Operator (tetO), nur in Gegenwart von Tetracyclin oder Derivaten wie Doxycyclin (dox). Die Fusion von rtR mit der Transkriptionsaktivierungsdomäne des Herpesvirusproteins VP16 erzeugt ein eukaryotisches Transaktivatorprotein (rtTA). Es wurde zuvor gezeigt, dass rtTA die dox-abhängige Transkription von Transgenen, die mit tetO-Sequenzen in Säugetieren verbunden sind, ermöglicht. Um dieses System an . anzupassen;-;-;-;https://link.springer.com/article/10.1007/s004380050770 ecfc7f79977a40c6ef71ad0582d8dbde;de;;;1.2.;;;Veränderungen der Zelljunktion bei Krebs Zellkontakte werden als strukturell spezialisierte Domänen definiert, die an Kontaktregionen zwischen zwei Zellen gebildet werden und zu denen beide Zellen zu gleichen Teilen beitragen. Es wurden verschiedene Typen von Zellkontakten identifiziert, die üblicherweise aufgrund ihrer Ultrastruktur unterteilt werden: Okkludens-, Gap- und Adhärens-Junctions (26, 45, 47, 50). Es ist gängige Praxis unter Morphologen, diese verschiedenen Zellverbindungen zusammen zu betrachten, da sie alle Bestandteile der Zelloberflächenmembran sind, die strukturellen Mittel für komplexe Zell-Zell-Wechselwirkungen bereitstellen und es Zellen ermöglichen, komplexe mehrzellige Strukturen zu bilden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-2528-1_13 5403e22e8a2244daf4b28648b474d353;de;;;1.2.;;;Quantitative Analyse von Mischungen von 1 Die Untersuchung einer natürlich vorkommenden Mischung dioktaedrischer Glimmer führte zu einer Untersuchung von Röntgenbeugungstechniken (XRD), um quantitative Schätzungen von 1 . zu erhalten;-;-;-;https://link.springer.com/article/10.1346/CCMN.1993.0410105 52793b3e753e025ad731855da9428127;de;;;1.2.;;;„Anchor-Line“-Abdominoplastik: Ein umfassender Ansatz für die Rekonstruktion der Bauchwand und die Körperkonturierung Die Abdominoplastik zielt darauf ab, die Bauchdecke neu zu formen, indem die Resektion von Haut und Unterhautgewebe mit muskulo-aponeurotischer Verstärkung kombiniert wird. Bei Patienten, bei denen eine Bauchdeckenstraffung geplant ist, sollte immer an das Vorhandensein einer medianen oder paramedianen supraumbilikalen Narbe gedacht werden. Tatsächlich ist das Vorschieben des superioren Lappens sehr begrenzt und führt zu ungünstigen ästhetischen Ergebnissen, da die mediane Narbe einem unter Spannung stehenden Faden ähnelt. Eine beträchtliche Anzahl dieser Patienten hat als Folge einer bariatrischen Operation supraumbilikale Narben mit massivem Gewichtsverlust. Eine einfache transversale Resektion kann keine ausreichende Körperformung garantieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02639-3_24 651440221097b4ae4cd73d8ccf7c8567;de;;;1.2.;;;Die Finite-Elemente-Methode in porösen Medienströmungen Die Finite-Elemente-Methode wurde erstmals Mitte der 50er Jahre von Statikern als Alternative zu klassischen mathematischen Verfahren im Umgang mit den auftretenden komplexen geometrischen Konfigurationen entwickelt. Obwohl die historischen Ursprünge der Methode zweifellos interessant sind und in den meisten Standardtexten zu diesem Thema zu finden sind [1–7], soll diese in diesem Kapitel nicht wiederholt werden. Ein wichtiger Schritt in der Entwicklung der Technik war die Erkenntnis, dass die Methode stark mit Variationsprinzipien verbunden war. Die Anwendbarkeit der Methode könnte somit ohne weiteres auf andere Disziplinen als die Strukturmechanik ausgedehnt werden, und die Technik könnte sich jedem mathematischen oder physikalischen Problem annähern, dessen Lösung als stationärer Wert eines gegebenen Funktionals ausgedrückt werden könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-6175-3_17 9db93a95d6d99f6a313df87bea5d85b2;de;;;1.2.;;;Über die Reaktion der Subduktion im Südpazifik auf eine Intensivierung der Westwinde und des Wärmeflusses in einem wirbelerlaubenden Ozeanmodell Basierend auf einem wirbelerlaubenden allgemeinen Ozeanzirkulationsmodell wird in diesem Beitrag die Reaktion von Wassermassen auf zwei unterschiedliche Klimaszenarien im Südpazifik bewertet. Unter jährlich wiederkehrenden atmosphärischen Antrieben, die durch unterschiedliche Westwinde und den damit verbundenen Wärmefluss gekennzeichnet sind, wird die Reaktion von Subantarctic Mode Water (SAMW) und Antarctic Intermediate Water (AAIW) quantitativ geschätzt. Sowohl SAMW als auch AAIW sind bei intensiver Westwind und erhöhtem Wärmeverlust wärmer, salziger und dichter. Die Zunahme des Subduktionsvolumens von SAMW und AAIW beträgt ca. 19,8 Sv (1 Sv = 10;-;-;-;https://link.springer.com/article/10.1007/s00376-016-6021-2 574d7f09fa168ff35610fe24644ed2d0;de;;;1.2.;;;Trägheitsregelkarte „Industrielle Anwendung und Rückmeldung“ Neben dem Finden der Zielwerte jeder Komponente eines montierten Produkts ist es auch notwendig, den besten Kompromiss zwischen den Qualitätsproduktkosten und den Qualitätsmontagekosten zu finden. Zu diesem Zweck schlugen Genichi Taguchi und Don Clausing vor, die verlorene Funktion von Taguchi zu verwenden, um diese Qualitätskosten zu bewerten. Basierend auf dieser Funktion schlug Pillet einen neuen Ansatz vor, der als „Trägheitstoleranz“ bezeichnet wird. Dieser Ansatz ist eine neue Sprache zwischen dem Konstrukteur und der verfahrenstechnischen Abteilung. Es ermöglicht, eine Verbindung zwischen den Qualitätsproduktkosten und den Qualitätsmontagekosten herzustellen und dann statistische Toleranzen in der montierten Konstruktion zu verwenden. In diesem Beitrag wird die Effizienz des Einsatzes dieses Ansatzes während der Konstruktionsphase für den Zusammenbau zweier Komponenten sowie seine Effizienz während der Produktionsphase für die Überwachung mit einer Trägheitsregelkarte dargestellt. Um dies zu veranschaulichen, werden diese neuen Ansätze in industriellen Fällen verwendet und mit dem traditionellen Ansatz (Toleranz und Überwachung) verglichen, um den wirtschaftlichen Nutzen zu unterstreichen, der mit dem Inertialansatz erzielt werden kann.;-;-;-;https://link.springer.com/article/10.1007/s12008-014-0225-4 94eef192f656671fca697dccc749b844;de;;;1.2.;;;Körperliche Untersuchung Während der Anamnese wird der Patient untersucht. Dies wird mit der Erfahrung automatisch. So kann aufgrund des allgemeinen Erscheinungsbildes, der Sprechweise, der Nervosität und des Schwitzens eine Thyreotoxikose vermutet werden. Bei einem jungen Mann können pulsierende Halsarterien auf eine Aorteninsuffizienz oder eine Coarctation der Aorta hinweisen. Zyanose, Keuchen und Dyspnoe bei einer älteren Person weisen auf eine chronische Car pulmonale hin. Die Färbung, der Ernährungszustand, das Temperament und der körperliche Habitus des Patienten werden notiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-9183-8_2 42f74125744cde4d42ff8497e8d029a5;de;;;1.2.;;;Geschichte als Metapher, Vermächtnis und Therapie nutzen Während Geschichten seit Generationen Teil unseres Lebens sind, werden wir uns der Kraft und Vielfalt ihrer Verwendungen immer mehr bewusst. Geschichten können metaphorisch innerhalb von Familien oder in der Therapie, als historisches Erbe zur Bestätigung einer Existenz oder als Teil der therapeutischen Technik verwendet werden. Geschichten lassen sich am einfachsten in Übergängen oder Beziehungen finden, und Humor sollte als Teil des Geschichtenerzählens beibehalten werden.;-;-;-;https://link.springer.com/article/10.1007/BF02249300 401af7f18d34b562e10a51d5e7961dfe;de;;;1.2.;;;Zusammenhang zwischen den Abstimmungseigenschaften von otoakustischen Emissionen der Reizfrequenz und Verhaltenstests bei moderaten Pegeln Die Frequenzselektivität, die Fähigkeit des Hörsystems, die Frequenzkomponenten komplexer Geräusche aufzulösen, wird beim Menschen typischerweise mit einer subjektiven Methode, der Messung von psychophysischen Stimmkurven (PTCs), geschätzt. Die otoakustischen Emissionsunterdrückungs-Tuning-Kurven (SFOAE STCs) für die Stimulationsfrequenz könnten potenziell die Frequenzselektivität objektiv bewerten. Wir verglichen PTCs und SFOAE-STCs bei 24 normalhörenden Probanden, die Sonden mit mittlerem Pegel mit Mittenfrequenzen nahe 1, 2 und 4 kHz verwendeten, und zeigten, dass beide Messungen der Frequenzselektivität ähnlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19387-8_265 7497f6624d5d6ee757eb27a07cbca1c3;de;;;1.2.;;;Wortvorhersage basierend auf dem N-Gramm-Modell für die Freitexteingabe in elektronische Patientenakten Der Dokumentationsprozess ist einer der wichtigsten Bestandteile der elektronischen Gesundheitsakte (EHR). Es ist zeitaufwändig und bis jetzt konnten die verfügbaren Dokumentationsverfahren diese Art von EHR-Einschränkungen nicht überwinden. Daher ist die Eingabe von Informationen in die EHR immer noch eine Herausforderung geblieben. In dieser Studie haben wir durch die Anwendung des Trigram-Sprachmodells eine Methode vorgestellt, um die nächsten Wörter beim Tippen von Freitexten vorherzusagen. Es wird angenommen, dass die Verwendung dieses Systems die Tippzeit von freiem Text sparen kann. Das in dieser Forschung eingeführte Wortvorhersagemodell wurde an den freien Texten zu Koloskopie, transösophagealem Echokardiogramm und anterior-zervikaler Dekompression trainiert und getestet. Erforderliche Eingabezeit für jeden der oben genannten Berichte berechnet und mit der manuellen Eingabe derselben Wörter verglichen. Es zeigt sich, dass sich die Tippzeit um 33,36 % und der Tastendruck um 73,53 % reduzieren lässt. Das entwickelte System reduzierte die Zeit für die Eingabe von Freitext, was ein Ansatz zur Verbesserung der EHRs in Bezug auf die Dokumentation sein könnte.;-;-;-;https://link.springer.com/article/10.1007/s13755-019-0065-5 871b3d8ac16073e13c2d8d0778012242;de;;;1.2.;;;Eine Methode zur Segmentierung gedruckter uigurischer Zeichen Die Zeichensegmentierung ist eine der schwierigsten Phasen bei der Erkennung von Uiguren. In dieser Arbeit wird nach dem Schreibstil der Uiguren ein Verfahren vorgeschlagen, das auf der Bildkontur basiert, zuerst die Grundlinienfelder der gescannten Bildseite mittels Hough-Transformation berechnet, dann die Zeichen durch Anpassung der Grundlinienfelder segmentiert , und schließlich das Zusammenführen der mehreren Teile unter Verwendung des statistischen Teils der Breite. Die experimentellen Ergebnisse zeigen eine hohe korrekte Segmentierungsrate und Stabilität.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33506-8_66 f6bce6b0d007b05f99ce9af5ce4fd3b8;de;;;1.2.;;;Propellerplanung Als ich die Verantwortung für die Propellerplanung übernahm, hatte ich noch keine Ahnung von der Flugzeugindustrie und ihren Produkten. Mir war nicht einmal bewusst, dass eine Luftschraube ein Propeller unter einem anderen Namen ist oder dass es mindestens zwei Arten von Propellern gibt, einige mit fester Steigung und einige mit variabler Steigung, oder dass eine Änderung des verwendeten Propellertyps wahrscheinlich eine gleichzeitige Wechsel von Spinner und Konstantdrehzahleinheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-21302-3_5 db5af104e5d0dd7272cede27972c4d5b;de;;;1.2.;;;Stromtransformatoren Der Begriff Stromwandler (allgemein mit ct abgekürzt) wird verwendet, um ein Gerät zu beschreiben, das aus einem Paar miteinander gekoppelter Wicklungen besteht, die um einen Kern, normalerweise aus magnetischem Material, montiert sind. Solche Transformatoren werden normalerweise verwendet, um hohe Ströme, die in ihren Primärwicklungen fließen, auf niedrigere Werte zu reduzieren, die für die Speisung von Mess- und Schutzgeräten geeignet sind. Die Isolierung der letzteren Geräte von den Primärkreisen wird durch die Isolierung gewährleistet, die normalerweise mit den Primärwicklungen verbunden ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-3072-5_2 d75aa8c2f3baff51d9d3a3b08d35b369;de;;;1.2.;;;Quellen und Transport von organischem Kohlenstoff vom Dongjiang-Fluss zur Humen-Mündung des Perlflusses, Südchina Der Transport von organischem Kohlenstoff über Flüsse in die Mündung ist ein bedeutender geochemischer Prozess im globalen Kohlenstoffkreislauf. Dieses Papier präsentiert den gesamten organischen Kohlenstoff (TOC) vom Dongjiang-Einzugsgebiet bis zum angrenzenden Humen-Auslass und diskutiert die Anwendbarkeit von;-;-;-;https://link.springer.com/article/10.1007/s11442-014-1078-2 ecd3dd62a26f44a0bc63706b84b94c5c;de;;;1.2.;;;Lymphomatoide Granulomatose mit primärer Manifestation in der Skelettmuskulatur Die lymphomatoide Granulomatose (LYG) wurde als eine besondere Erkrankung erkannt, die hauptsächlich die Lunge und gelegentlich die oberen Atemwege befällt. Typische histopathologische Läsionen weisen Merkmale einer nicht-neoplastischen lymphoproliferativen Erkrankung auf, die mit Nekrosen des infiltrierten Gewebes und mit angiodestruktiven Prozessen einhergeht. Die Autoren beobachteten einen eigentümlichen Fall, bei dem sich zunächst LYG-typische Läsionen in den quergestreiften Muskeln entwickelten. In diesem Fall gingen multiple tumoröse Muskelinfiltrate und Affektionen des Pharynx, Larynx, der Nasennebenhöhlen und Orbita der Infiltration der Lunge voraus, die erstmals 6 Monate nach dem ersten Muskelinfiltrat und 2 Monate vor dem Tod erkannt wurde.;-;-;-;https://link.springer.com/article/10.1007/BF01716808 3ab437c6e3b3b9ff75e03520d9146dc7;de;;;1.2.;;;Das Gleichgewicht zwischen den Bevölkerungen Im ersten Teil dieses Buches habe ich einige der erfolgreichen Eindringlinge beschrieben, die sich in einem neuen Land oder Meer niederließen, so wie ein Kriegsberichterstatter eine Reihe von Depeschen schreiben könnte, die von der stillen Infiltration von Kommandotruppen, den Überraschungsangriffen, den aufeinanderfolgenden Wellen von spätere Verstärkungen, nachdem die erste Speerspitze keinen Halt findet, Angriff und Gegenangriff und die eventuelle Erweiterung und Besetzung von Territorien, aus denen sie wahrscheinlich nicht wieder verdrängt werden. Und es zeigte sich, dass sich aus der ehemaligen Isolation der Kontinente und teilweise der Ozeane gleichsam mehr Pflanzen- und Tierarten entwickelt hatten, als die Welt wohl fassen kann, wenn sie alle wieder vermischt werden sollen – fast grenzenlose Reservoirs von Arten, die ausziehen, um andere Teile der Welt für Tausende von Jahren zu bombardieren. Der gewonnene Eindruck könnte etwas sein, das der Leser von H. G. Wells’ Fantasie empfindet,;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-5851-7_6 44b711a546cecfcb3cdf9fcea16ee4ab;de;;;1.2.;;;Technik bei der VKB-Rekonstruktion: Kniesehnenrekonstruktion Die Rekonstruktion des vorderen Kreuzbandes (VKB) ist nach wie vor eines der am häufigsten von orthopädischen Chirurgen durchgeführten Verfahren. Rekonstruktive Techniken entwickeln sich weiter, da die laufende Forschung unser Verständnis der Komplexität des nativen VKB verbessert. VKB-Rekonstruktion mit anatomischer Positionierung von Einzelbündeltransplantaten unter Verwendung von anteromedialen Portalbohrtechniken sowie ein verstärktes Interesse an der Doppelbündelrekonstruktion sind neuere Reflektion der laufenden Versuche, die Anatomie, Biomechanik und Funktion des normalen VKB genauer nachzubilden.;-;-;-;https://link.springer.com/chapter/10.1007/978-2-287-99353-4_17 60c4b6e23beb6bc30f09409f57cdd41b;de;;;1.2.;;;Rolle des subtropischen westlichen Strahlwellenleiters bei einem schweren Regensturm in Südchina im Dezember 2013 Ein extremer Regensturm traf Südchina vom 13. bis 17. Dezember 2013 mit einer rekordverdächtigen täglichen Niederschlagsrate, einer großen räumlichen Ausdehnung und einer ungewöhnlich langen Dauer. Wir untersuchten, was diesen Starkregenprozess ausgelöst hat, basierend auf beobachteten Niederschlagsdaten und NCEP-NCAR-Reanalysedaten durch zusammengesetzte und diagnostische Methoden. Die Ergebnisse zeigten, dass ein Rossby-Wellenleiter innerhalb des subtropischen Westjets das Ereignis verursacht hat. Die Rossby-Welle entstand durch das starke Eindringen kalter Luft in den subtropischen Westjet über dem östlichen Mittelmeer. Mit der Verstärkung und Nordverschiebung des Westjets des Mittleren Ostens breitete sich die Rossby-Welle langsam nach Osten aus und vertiefte den Indien-Burma-Trog, der eine große Menge Feuchtigkeit aus dem Golf von Bengalen und dem Südchinesischen Meer nach Südchina transportierte. Die starke Divergenz in der oberen Troposphäre, verursacht durch die Verstärkung des ostasiatischen Westjets, begünstigte auch den Starkregenprozess über Südostchina. Darüber hinaus war die Rossby-Welle mit einer negativen-zu-positiven Phasenverschiebung und Verstärkung der Nordatlantischen Oszillation verbunden, aber die Konvergenz im östlichen Mittelmeer spielte die Schlüsselrolle bei der Ostausbreitung der Rossby-Welle innerhalb des subtropischen Westjets.;-;-;-;https://link.springer.com/article/10.1007/s00376-014-4099-y d618abeff90dbf52c870659ae9bc3dc1;de;;;1.2.;;;Hilbert-Schmidt-Hankel-Normmodellreduktion für lineare Systeme der Matrix zweiter Ordnung Dieser Beitrag betrachtet das optimale Modellreduktionsproblem von linearen Systemen der Matrix zweiter Ordnung im Sinne der Hilbert-Schmidt-Hankel-Norm, wobei die Systeme reduzierter Ordnung die Struktur der ursprünglichen Systeme erhalten. Die Ausdrücke der Fehlerfunktion und ihres Gradienten werden abgeleitet. Zwei numerische Beispiele werden gegeben, um die vorgestellte Modellreduktionstechnik zu veranschaulichen.;-;-;-;https://link.springer.com/article/10.1007/s11768-011-9300-6 7851a16efa7753cefdc4814c5b840ec4;de;;;1.2.;;;Zusammenhang zwischen Veränderungen von Fluss-See-Netzwerken und Wasserständen in typischen Regionen des Taihu-Seebeckens, China Die typischen Regionen des Taihu-Seebeckens, China, wurden ausgewählt, um die Variationseigenschaften von Fluss-See-Netzwerken unter intensiven menschlichen Aktivitäten zu analysieren. Die Eigenschaften der fraktalen Dimension von Flussnetzwerken und Seen für verschiedene Zeiträume wurden untersucht und die Einflüsse der Flusssystementwicklung auf Wasserstandsänderungen wurden durch den Vergleich ihrer fraktalen Eigenschaften weiter untersucht. Die Ergebnisse sind wie folgt: 1) Die Flussnetzentwicklung des Untersuchungsgebietes wird monotoner und einfacher, die Anzahl der Seen nimmt deutlich ab und der Wasserflächenanteil ist seit den 1980er Jahren deutlich gesunken. 2) Die Box-Dimension der Flussnetze in allen Städten des Untersuchungsgebietes nahm von den 1960er bis in die 1980er Jahre langsam ab, während der Rückgang von den 1980er bis in die 2000er Jahre signifikant war. Die Variationen der Seekorrelationsdimension sind denen der Flussnetzwerk-Box-Dimensionen ähnlich. Dies ist ungünstig für die Speicherkapazität der Flussnetze und Seen. 3) Die Hurst-Exponenten der Wasserstände lagen von den 1960er bis 1980er Jahren alle zwischen 0,5 und 1,0, während sie in den 2000er Jahren abnahmen, was auf den Rückgang der Persistenz und die Zunahme der Komplexität von Wasserstandsreihen hinweist. Das Papier kommt zu dem Schluss, dass die Beziehung zwischen der fraktalen Dimension von Fluss-See-Netzwerken und den Hurst-Exponenten der Wasserstandsreihe die Auswirkungen von Flusssystemänderungen auf Hochwasserkatastrophen in gewissem Maße aufdecken kann: Das Verschwinden von Flussnetzwerken und Seen wird zunehmen die Möglichkeit des Auftretens von Hochwasser.;-;-;-;https://link.springer.com/article/10.1007/s11769-012-0570-9 bac3cb8cb652be0c2729ca5bd27021cb;de;;;1.2.;;;Management intraoperativer Komplikationen bei Penisimplantaten Die dreiteilige aufblasbare Penisprothese hat die höchste Patientenzufriedenheit und die niedrigste mechanische Revisionsrate aller medizinisch implantierten Geräte. Revisionen von aufblasbaren Penisprothesen sind häufiger aus nichtmechanischen Gründen als bei Gerätedefekten erforderlich. Intraoperative Komplikationen bei der Implantation von Penisimplantaten können für den prothetischen Chirurgen belastend sein, aber wenn man das Dilemma erkennt, können die meisten dieser Komplikationen mit hervorragenden postoperativen Ergebnissen überwunden werden. Mehr als die Hälfte dieser intraoperativen Komplikationen treten während der Dilatation der Schwellkörper auf. Die Dilatation der Schwellkörper ist ein kritischer Schritt bei der Platzierung jeder Art von Penisprothese und kann bei einem Patienten mit Schwellkörperfibrose besonders schwierig sein. Dieser Übersichtsartikel fasst die Techniken, Ergebnisse und Neuentwicklungen auf dem Gebiet der komplizierten Penisprothetik zusammen.;-;-;-;https://link.springer.com/article/10.1007/s11930-005-0006-y a3442dc26d5ce90f774ce64e4e551de3;de;;;1.2.;;;Eine neuartige Parameterschätzungsmethode für Modelle von Metalloxid-Überspannungsableitern Eine genaue Modellierung und genaue Bestimmung der Parameter von Metalloxid-Überspannungsableitern (MO) sind sehr wichtig für die Zuordnung von Ableitern, Studien zur Isolationskoordination und Berechnungen der Systemzuverlässigkeit. In diesem Artikel wird eine neue Technik vorgeschlagen, die die Kombination von Adaptive Particle Swarm Optimization (APSO) und Ant Colony Optimization (ACO)-Algorithmen und die Verknüpfung von MATLAB und EMTP ist, um die Parameter von MO-Überspannungsableitermodellen zu schätzen. Der vorgeschlagene Algorithmus heißt Modified Adaptive Particle Swarm Optimization (MAPSO). Um den Nachteil des PSO-Algorithmus (Konvergenz zu lokalen Optima) zu überwinden, wird in dem vorgeschlagenen Algorithmus das Trägheitsgewicht unter Verwendung von Fuzzy-Regeln abgestimmt und die kognitiven und die sozialen Parameter werden selbstadaptiv angepasst. Um auch die globale Suchfähigkeit zu verbessern und die Konvergenz zu lokalen Minima zu verhindern, wird der ACO-Algorithmus mit dem vorgeschlagenen APSO-Algorithmus kombiniert. Die transienten Modelle von MO-Überspannungsableitern wurden unter Verwendung von ATP-EMTP simuliert. Die Ergebnisse von Simulationen wurden auf das Programm angewendet, das auf dem MAPSO-Algorithmus basiert und die Fitness und Parameter verschiedener Modelle bestimmen kann. Die Gültigkeit und Genauigkeit der geschätzten Parameter von Überspannungsableitermodellen wird durch den Vergleich der vorhergesagten Restspannung mit experimentellen Ergebnissen bewertet.;-;-;-;https://link.springer.com/article/10.1007/s12046-011-0054-0 86160d7821be438df5f996578d08bc77;de;;;1.2.;;;Verständnis der saisonalen Wasserklarheitsdynamik des Dahuchi-Sees aus In-situ- und Fernerkundungsdaten Die Erfassung, Analyse und das Verständnis der saisonalen Dynamik der Wasserklarheit ist für das Verständnis und die Bewirtschaftung von Seen und die Aufrechterhaltung ihrer Ökosystemleistungen von Bedeutung. Diese Studie zielte darauf ab, die saisonale Dynamik der Wasserklarheit zu untersuchen und zu analysieren, wie Wasserstand, Windgeschwindigkeit und Gesamtniederschlag diese Dynamik im Lake Dahuchi, China, beeinflussen. Die im Feld aufgezeichneten und aus MODIS-Bildern (Moderate Resolution Imaging Spectroradiometer) abgeleiteten Tiefen der Secchi-Scheibe zeigten zusammen ein saisonales Muster der Wasserklarheit, das im Winter und im Frühjahr geringer war, im April oder Mai zunahm und im Sommer die höchsten Werte erreichte die er ab September allmählich abnahm. Eine stückweise lineare Regressionsanalyse zwischen Wasserklarheit und Wasserstand zeigte, dass der Wasserstand 70% der Variation des Logarithmus der Secchi-Scheibentiefe erklären könnte. Die Wasserklarheit des Dahuchi-Sees wurde hauptsächlich durch suspendierte Sedimente gesteuert, während die jahreszeitliche Variation des Wasserspiegels eine unterschiedliche Sediment-Resuspendierung induzierte.;-;-;-;https://link.springer.com/article/10.1007/s11269-008-9356-3 079df0c10eba0b8c875a0f824b93bccb;de;;;1.2.;;;Parameterschätzung für symmetrische stabile Verteilungen durch Wahrscheinlichkeitsintegraltransformation In diesem Artikel wird ein neues Parameterschätzverfahren für symmetrische stabile Verteilungen vorgestellt, das eine Variation von M-Schätzern vom Typ Maximum Likelihood ist. Der Schätzer liefert eine gemeinsame Schätzung des Formparameters;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-01919-2_1 d1200a557273850832dc8e80968ea475;de;;;1.2.;;;Anomaler Ursprung der Parieto-Occipital-Arterie: Fallnotiz Wir berichten über den sehr seltenen, anomalen Ursprung der A. parieto-occipitalis direkt aus dem Willis-Kreis, nicht als Ast der A. cerebri posterior.;-;-;-;https://link.springer.com/article/10.1007/BF00588497 cd14b893d67aa41b036734d854ba078e;de;;;1.2.;;;Hämorrhoiden Hämorrhoiden sind symptomatische erweiterte Analpolster. Diese Kissen bestehen aus verdickter Submukosa, Sinusoiden, elastischem und Bindegewebe und einigen glatten Muskelfasern. Die Hämorrhoidalerkrankung sollte solchen Analpolstern vorbehalten sein, die abnormal und symptomatisch sind. Das Wort „Hämorrhoiden“ leitet sich von den griechischen Wörtern haem (Blut) und rhoos (fließen) ab, was Blutfluss bedeutet. Das Wort „Haufen“ bedeutet Pille oder Kugel. Daher sollten wir diese Krankheit Hämorrhoiden nennen, wenn der Patient über eine Schwellung und Hämorrhoiden klagt, wenn das Symptom Blutung ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-81-322-2589-8_3 f2b0629394bc8a2ae22c3074757c9496;de;;;1.2.;;;Behandlung von Herzinsuffizienz Herzinsuffizienz ist die letzte Situation im natürlichen Verlauf der meisten Herzerkrankungen. Sobald die ersten Anzeichen oder Symptome auftreten, verschlechtert sich die Prognose deutlich.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-0573-3_22 ad1862609401e324f234b1cd885871d0;de;;;1.2.;;;Räumliche Variabilität von Eigenschaften in porösen Medien: ein stochastischer Ansatz Stochastische Methoden können bei Strömungsproblemen in porösen Medien angewendet werden, da sie gut geeignet sind, die Variabilität der physikalischen Eigenschaften im Weltraum zu bewältigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-6175-3_15 60ee26bd23c074f23753144a802ef9f5;de;;;1.2.;;;Die chemische Zusammensetzung von Kometen Kometen sollen eine wichtige Rolle bei der Entstehung und Entwicklung des Lebens auf der Erde gespielt haben, die chemische Zusammensetzung der Kometen kann wichtige Erkenntnisse über diese Rolle liefern. Unser Verständnis der Zusammensetzung von Kometen hat sich seit den jüngsten Erscheinungen der Kometen Hale-Bopp (1995 01) und Hyakutake (1996 B2), den beiden hellsten Kometen der letzten 20 Jahre, deutlich verbessert. Neue Informationen über die Zusammensetzung von Kometenmolekülen und über das Verhältnis von Deuterium zu Wasserstoff (D/H) in Kometenwasser liefern Hinweise auf präsolare chemische Signaturen in Kometeneis. D/H-Verhältnisse und Edelgashäufigkeiten deuten auch darauf hin, dass ein Teil und möglicherweise der größte Teil des Wassers der Erde einen kometenhaften Ursprung hat. Kometen enthalten auch organische Moleküle, die möglicherweise zum Bestand an präbiotischer organischer Substanz auf der Erde beigetragen haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4313-4_13 294a92cfe5dfccb8c2367ef6ef96daf0;de;;;1.2.;;;Die Anwendung von Lektinen zur Charakterisierung und Isolierung von Säugetierzellpopulationen population Säugetierzellen enthalten ausnahmslos eine große Anzahl glykosylierter Einheiten, sowohl innerhalb der Zelle als auch auf der Zelloberfläche. Es besteht ein zunehmendes Bewusstsein für die Nützlichkeit dieser Kohlenhydrate bei der Beschreibung des Phänotyps oder der Funktion vieler Zellpopulationen. Zu diesem Zweck sind Lektine äußerst nützliche Reagenzien. Lektine sind kohlenhydratbindende Proteine ​​und Glykoproteine ​​nichtimmunen Ursprungs, die aus zahlreichen Pflanzen und Tieren stammen. Eine große Vielfalt von Lektinen mit vielen unterschiedlichen Kohlenhydratspezifitäten wurde isoliert. Historisch gesehen waren die gebräuchlichsten Labortechniken, bei denen Lektine verwendet wurden, Agglutination, Mitogenstimulation und Fluoreszenztechniken. Jüngste Fortschritte bei der Entwicklung und Konjugationsverfahren für Markierungen und Matrizen haben zur Entwicklung zahlreicher neuer lektinbasierter Assays geführt. Lektine werden derzeit nicht nur verwendet, um Zellen mit bestimmten Kohlenhydratgruppen zu identifizieren, sondern auch um die Kohlenhydratgruppen zu quantifizieren oder die Kohlenhydrat-tragenden Zellen oder Strukturen zu isolieren;-;-;-;https://link.springer.com/article/10.1007/BF00047469 30650f9e5d483ca413b88b67becbc671;de;;;1.2.;;;Ein mehrstufiger Vorkonditionierer und seine Shared-Memory-Implementierung für einen Reservoirsimulator der neuen Generation Als Ergebnis des Zusammenspiels zwischen Fortschritten in Computerhardware, -software und -algorithmen befinden wir uns jetzt in einer neuen Ära der großmaßstäblichen Lagerstättensimulation, die sich auf eine genaue Strömungsbeschreibung, eine feine Lagerstättencharakterisierung, effiziente nichtlineare/lineare Löser und parallele Implementierung. In diesem Papier diskutieren wir einen mehrstufigen Vorkonditionierer in einem Simulator der neuen Generation und seine Implementierung auf Multicore-Computern. Dieser Vorkonditionierer basiert auf der Methode der Unterraumkorrekturen, um großskalige lineare Systeme zu lösen, die aus vollständig impliziten Methoden in Lagerstättensimulationen resultieren. Wir untersuchen die parallele Effizienz und Robustheit der vorgeschlagenen Methode, indem wir sie auf Millionenzellen-Benchmark-Probleme anwenden.;-;-;-;https://link.springer.com/article/10.1007/s12182-014-0370-1 1b91541b0281a43223144b452f71703a;de;;;1.2.;;;Bewertung der Recyclingfähigkeit von Traktionsbatterien mit dem Konzept der informationstheoretischen Entropie Mit zunehmender Bedeutung von Traktionsbatterietechnologien und der Elektromobilität insgesamt gewinnt die Recyclingfähigkeit von Batterien in Politik, Wirtschaft und Wissenschaft zunehmend an Aufmerksamkeit. Das Ziel dieser Arbeit ist es, das Verständnis über das Recycling von Traktionsbatterien durch Anwendung des Konzepts der Informationstheorie Entropie zu erweitern. Zu diesem Zweck werden informationstheoretische Entropieindikatoren verwendet, um die Materialmischungskomplexität aktueller und zukünftiger Batteriechemien in Elektrofahrzeugen zu bestimmen. Durch die Integration unterschiedlicher ökonomischer Kennzahlen und mit Hilfe zusätzlicher zugehöriger Informationen zu industriellen, politischen und gesellschaftlichen Einflussfaktoren wird die Recyclingfähigkeit von Traktionsbatterien bewertet und die Entwicklung zukünftiger Batterierecyclingsysteme und -politiken diskutiert. Die Ergebnisse zeigen, dass die vorgeschlagene Methodik zum Vergleich unterschiedlicher Produkttechnologien geeignet ist und signifikante Unterschiede hinsichtlich der bestimmenden Faktoren für die Recyclingfähigkeit verschiedener Batterietechnologien bestehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-57886-5_12 4423b92eba552981ad14d254cf2d8014;de;;;1.2.;;;Anwendung der Radiothermolumineszenz zur Untersuchung von Polymersystemen Die Plastifizierung wird in der Polymertechnologie häufig verwendet, wenn es erforderlich ist, den Fluss und die Thermoplastizität von Kunststoffmaterialien zu erhöhen. Ein Weichmacher in einem Polymer mit vielen Bindungspunkten entlang der Polymerketten bricht die Bindungen und maskiert die Kraftzentren für die intermolekulare Polymer-Polymer-Anziehung durch selektives Solvatisieren des Polymers an diesen Punkten. Dies führt zu den gleichen Ergebnissen, als ob ursprünglich weniger Bindungspunkte an den Makromolekülen vorhanden gewesen wären. Üblicherweise wird davon ausgegangen, dass Lösungsmittel oder Weichmacher unterschiedlichen Typs durch unterschiedlich große Kräfte an die Polymermakromoleküle angelagert werden und keine dauerhaft gebunden werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-8695-7_6 060d72c1430afc9a97c740d9d10565e0;de;;;1.2.;;;Der wahrnehmungsbezogene Magneteffekt in australischen englischen Vokalen Neuere Forschungen (Kuhl, 1991) haben vorgeschlagen, dass die interne Struktur von Vokalkategorien hinsichtlich der Reizgüte bewertet wird. Es wurde vorgeschlagen, dass a;-;-;-;https://link.springer.com/article/10.3758/BF03212057 bce501e5b38e621063b7549056475eba;de;;;1.2.;;;Die Glaubwürdigkeitsmodelle mit gleichen Korrelationsrisiken In fast allen bisher betrachteten Glaubwürdigkeitsschätzern wird davon ausgegangen, dass die Behauptungen unabhängig von Risiken sind. Aus praktischer Sicht untersucht dieses Papier jedoch die Glaubwürdigkeitsprämie, wenn Risiken voneinander abhängig sind. Die Autoren bauen die Glaubwürdigkeitsmodelle von Bühlmann auf, um eine gleiche Korrelationsstruktur über Risiken zu berücksichtigen, und es werden auch Parameterschätzungen berücksichtigt. Einige gewünschte Ergebnisse werden abgeleitet.;-;-;-;https://link.springer.com/article/10.1007/s11424-010-8328-x ea887892416bc442351701b877b407b7;de;;;1.2.;;;Die Wände des Magens und des Zwölffingerdarms Bei Oberbauchoperationen mit den Organen in situ kann eine leichte Rinne in der glitzernden serosalen Oberfläche am gastroduodenalen Übergang gesehen werden. In der Rinne kann eine kleine, oberflächliche subseröse Vene, die senkrecht über der Vorderseite des Darms liegt, sichtbar sein, dies ist die V. präpylorica, die in die rechte Magenvene mündet (Kap. 7). Die Rille und die präpylorische Vene zeigen die Position des Pylorusrings an. Bei der Palpation ist am Ring ein plötzlicher Übergang zwischen den dicken Wänden der Pylorusregion und den dünnen Wänden des Duodenums zu spüren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-77708-0_3 fcd172e4493437164b5f70efea7723c5;de;;;1.2.;;;Die Wirkung von Ethanol auf die Biosynthese und Regulation von Opioidpeptiden Alkoholismus und Alkoholmissbrauch sind ernsthafte Gesundheitsprobleme. Es ist bekannt, dass Alkohol die Aktivität einer Reihe von biologischen Systemen beeinflusst, beispielsweise des hormonellen und neuronalen Systems. Zu den biologischen Systemen, deren Aktivität stark durch Alkohol beeinflusst wird, gehört das endogene Opiatsystem. Alkohol verändert die Funktion von Opiatrezeptoren und Opioidpeptiden. Tatsächlich wurde vorgeschlagen, dass viele der Wirkungen von Ethanol durch seine Wirkungen auf das endogene Opiatsystem vermittelt werden. In diesem Review werden Ergebnisse verschiedener Laboratorien zu den Auswirkungen akuter und chronischer Ethanolbehandlungen auf verschiedene Spezies sowie zur Freisetzung, Biosynthese und posttranslationalen Verarbeitung der Endorphine, Enkephaline und Dynorphine, den drei bekannten Familien endogener Opioidpeptide, vorgestellt. Darüber hinaus werden die Auswirkungen von akutem und chronischem Ethanolkonsum auf das β-Endorphin-System beim Menschen und die möglichen Auswirkungen der funktionellen Aktivität des endogenen Opiatsystems auf die genetische Prädisposition für Alkoholismus diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF01952024 05a98e9a1ec177b98f4bda81e4db8ef0;de;;;1.2.;;;Wirtschaftliche Erwägungen bei der Kaiserschnittanwendung Der Kaiserschnitt war ursprünglich indiziert, um das Leben einer Mutter mit Behinderungen der Wehen zu erhalten oder ein lebensfähiges Kind von einer sterbenden Mutter zu gebären.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-2482-2_13 0a0d5acd5fa4e0fd0b8cc0f4309a279e;de;;;1.2.;;;GB-JER: Ein graphenbasiertes Modell für die gemeinsame Entitätsauflösung Das gemeinsame Auflösen mehrerer Klassen verwandter Entitätsdarstellungen fördert die Genauigkeit der Entitätsauflösung. Wir schlagen ein graphenbasiertes Modell zur gemeinsamen Entitätsauflösung vor: GB-JER, das einen dynamischen Entitätsdarstellungs-Beziehungsgraphen nutzt. Es kontrahiert die Nachbarschaft des übereinstimmenden Paares, wobei die Anreicherung der Semantik neue Beweise für die nachfolgende Entitätsauflösung iterativ liefert. Auch GB-JER ist ein inkrementeller Ansatz. Die experimentelle Auswertung zeigt, dass GB-JER den bisherigen modernen Ansatz zur gemeinsamen Entitätsauflösung in der Genauigkeit übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-18120-2_27 d2460cbea47fa8e489a7298cedbe1b01;de;;;1.2.;;;Genomweite Analyse der GRAS-Genfamilie in Reis und Mitglieder der GRAS-Genfamilie kodieren für Transkriptionsregulatoren, die verschiedene Funktionen in Pflanzenwachstum und -entwicklung haben, wie Gibberellin-Signaltransduktion, Wurzelradialmuster, Axillameristembildung, Phytochrom-A-Signaltransduktion und Gametogenese. Bioinformatische Analyse identifizierte 57 und 32 GRAS-Gene in Reis und;-;-;-;https://link.springer.com/article/10.1023/B%3APLAN.0000038256.89809.57 6fb9218c439dc74f34e18aac7aad3155;de;;;1.2.;;;Anhaltende Anomalien, Blockierung und Vorhersagbarkeit Die im letzten Kapitel vorgestellten rotierenden Ringraumexperimente reproduzieren einige wichtige qualitative Merkmale der hochkomplexen allgemeinen Zirkulation der Atmosphäre. Sequenzen von täglichen Wetterkarten zeigen großräumige wellenartige Muster, die in Bezug auf eine westliche mittlere Zonenströmung rückläufig sind. Diese planetarischen Wanderwellen haben viele Ähnlichkeiten mit dem entsprechenden Rossby-Wellenregime in einem rotierenden Ring. Die atmosphärischen Wanderwellen sind jedoch viel weniger regelmäßig als die Laborwellen. Sie werden außerdem stehenden Wellen überlagert, die durch zonale Asymmetrien der Erdoberfläche erzwungen werden, wie am Ende von Abschnitt 4.4 und in Abschnitt 4.6 diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-1052-8_6 a6546e2399f948fc76ca3c64a743cc0c;de;;;1.2.;;;Relativistische Rotation: Ein Vergleich von Theorien Alternative Theorien der relativistischen Rotation, die ab 2004 als brauchbar angesehen wurden, werden im Lichte von Experimenten aus dem Jahr 2005 verglichen. Unterwegs wird die strittige Frage der Gleichzeitigkeitswahl in der Rotation gelöst, indem gezeigt wird, dass nur eine Gleichzeitigkeitswahl, die eine kontinuierliche Zeit besitzt, Anlass gibt , über die allgemeine relativistische Bewegungsgleichung, auf die korrekte Newtonsche Grenz-Coriolis-Beschleunigung. Darüber hinaus wird das weit verbreitete Argument analysiert, das die Lorentz-Kontraktion bei der Rotation und die damit einhergehende gekrümmte Oberfläche einer rotierenden Scheibe behauptet, und argumentiert, dass sie aus mehr als einem Grund fehlt. Es wird angenommen, dass wir nicht durch theoretische Argumente, sondern nur durch Experimente wissen können, ob ein solcher Effekt bei Rotation existiert oder nicht. Die Coriolis/Gleichzeitigkeits-Korrelation und die Ergebnisse der Experimente von 2005 unterstützen die Selleri-Theorie als der Wahrheit am nächsten, obwohl sie in einem allgemeineren Sinn unvollständig ist, da sie keine globale Metrik liefert. Zwei Alternativen, ein modifizierter Klauber-Ansatz und ein Selleri-Klauber-Hybrid, werden vorgestellt, die mit neueren Experimenten übereinstimmen und eine globale Metrik aufweisen, wodurch sie auf Rotationsprobleme aller Art anwendbar sind.;-;-;-;https://link.springer.com/article/10.1007/s10701-006-9099-z e00f1c2d05fc12e091e3018e16785ece;de;;;1.2.;;;Ein Batterie-Ansatz zur klinischen Nutzung der topografischen Hirnkartierung Die Einführung kommerziell erhältlicher Personalcomputer hat die topographische Kartierung elektrischer Gehirnfelder für den klinischen Neurophysiologen leicht zugänglich gemacht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-72658-3_14 2113c582de872f95ec48e7efcbfa84a9;de;;;1.2.;;;Stabilität elliptischer Galaxien. Theoretische Aspekte Sterne, die mehr als 90% der sichtbaren Materie des Universums enthalten, sind in Systemen organisiert, die eine Hierarchie unterschiedlicher Massen und Skalen umfassen: von galaktischen Sternhaufen bis hin zu Galaxienhaufen selbst. Die meisten Systeme in dieser hierarchischen Abfolge sind kollisionsfrei: Die charakteristische Zeit zwischen Kollisionen ist viel größer als typische dynamische Zeiten (z. B. die Schwingungsdauer). Verschiedene Entstehungsbedingungen kollisionsfreier Gravitationssysteme hinterlassen Spuren in ihren wichtigsten charakteristischen Parametern – wie dem Drehimpuls, dem Grad der Anisotropie, der Art der Abhängigkeit der Sterndichte von Koordinaten und so weiter. Die Lebensdauer eines Systems mit einem bestimmten Parametersatz hängt im Wesentlichen davon ab, ob diese Parameter zu einem Bereich gehören, in dem das System stabil ist oder nicht. Ist dies der Fall, kann das System dann beliebig lange (im Sinne der dynamischen Zeitskala) praktisch unverändert existieren, andernfalls muss es sich schnell auf einen anderen, stabilen Zustand einstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-3971-4_25 4b111d9edfe585bc3455702fc526ad01;de;;;1.3.;;;Auf Trainingssequenzen basierende Kanalschätzung für ein Kommunikationssystem mit sichtbarem Licht in Innenräumen Die Kanalschätzung ist eine Schlüsseltechnologie bei der drahtlosen Kommunikation mit sichtbarem Licht (VLCs) in Innenräumen. Unter Verwendung der Trainingssequenz (TS) untersucht dieses Papier die Kanalschätzung bei der drahtlosen Kommunikation mit sichtbarem Licht in Innenräumen. Basierend auf den Ausbreitungs- und Signalmodulationseigenschaften von sichtbarem Licht wird ein Verbindungsmodell für die drahtlose Kommunikation mit sichtbarem Licht in Innenräumen erstellt. Unter Verwendung des Modells werden drei Kanalschätzverfahren vorgeschlagen, d. h. das Korrelationsverfahren, das Verfahren der kleinsten Quadrate (LS) und das Verfahren des kleinsten mittleren quadratischen Fehlers (MMSE). Darüber hinaus wird die Leistungsfähigkeit der vorgeschlagenen drei Methoden durch Computersimulation bewertet. Die Ergebnisse zeigen, dass die Leistung des Korrelationsverfahrens am schlechtesten ist, das LS-Verfahren für ein höheres Signal-Rausch-Verhältnis (SNR) geeignet ist und das MMSE-Verfahren die beste Leistung auf Kosten der höchsten Komplexität erzielt.;-;-;-;https://link.springer.com/article/10.1007/s11801-011-0143-7 c9e77620948663c34bdb0f2e5882252f;de;;;1.2.;;;Kooperativer Gemeinschaftserkennungsalgorithmus basierend auf Random Walks Community Detection ist ein wichtiges Werkzeug, um die Strukturen realer Netzwerke zu verstehen. Obwohl viele neue Methoden bei der Community-Erkennung angewendet wurden, wurde die kooperative Methode, soweit wir wissen, nicht bei der Community-Erkennung angewendet, um die Leistung bei der Ermittlung der Community-Struktur sozialer Netzwerke zu verbessern. In diesem Artikel schlagen wir einen kooperativen Community-Erkennungsalgorithmus vor, der auf Random Walks basierter kooperativer Community-Erkennungsalgorithmus. Zuerst verwendet es Random Walks, um die Ähnlichkeiten zwischen benachbarten Knoten zu berechnen, und übersetzt dann ein gegebenes ungewichtetes Netzwerk basierend auf den Ähnlichkeiten zwischen benachbarten Knoten in gewichtete Netzwerke. Zweitens erkennt es Community-Strukturen von Netzwerken, indem es den Nachbarn einen Knoten aktiviert, dessen Community-Label bekannt ist. Drittens kooperiert es laufende Ergebnisse unseres Community-Erkennungsalgorithmus, um seine Genauigkeit und Stabilität zu verbessern. Schließlich demonstrieren wir unseren Gemeinschaftserkennungsalgorithmus mit drei realen Netzwerken, und die experimentellen Ergebnisse zeigen, dass unsere kooperative halbüberwachte Methode im Vergleich zu anderen zufälligen Gemeinschaftserkennungsalgorithmen eine höhere Genauigkeit und stabilere Ergebnisse aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-04048-6_17 df53758b5eb0c841bf7c01a8dde18395;de;;;1.2.;;;Anästhesie für Halsschlagaderoperationen Die Anästhesie für die Halsschlagaderchirurgie ist anspruchsvoll und gute Ergebnisse erfordern einen starken Teamansatz. Ich glaube, dass die jüngsten multizentrischen Studien sowohl dem Chirurgen als auch dem Anästhesisten einen Prüfstein gegeben haben, mit dem sie ihre Ergebnisse vergleichen können. Wenn zum Beispiel die Ergebnisse Ihres Zentrums genauso gut oder besser sind als die NASCET-Kriterien (Mortalität 0,6% und Schlaganfallrate von 2,1%), dann ist Ihr Team auf einem akzeptablen Niveau. Falls nicht, sind technische Verbesserungen wünschenswert. Bessere Ergebnisse in einem oder mehreren Zentren können den Weg zu einem optimalen anästhetischen und chirurgischen Management weisen. Unabhängig davon sollten uns die Studien NASCET, ECST und ACAS dazu veranlassen, unser Management dieser Fälle zu überdenken, um das Patientenergebnis zu verbessern. Dies ist besonders wichtig, da die Häufigkeit dieses Verfahrens bereits dramatisch zugenommen hat. Diese Studien sollten diejenigen von uns, die an der Behandlung dieser schwierigen Fälle beteiligt sind, dazu veranlassen, gut durchdachte klinische Studien durchzuführen, um einige der oben angesprochenen Kontroversen zu beantworten. Nur dann werden die Anästhesie- und Operationsrisiken für diesen Eingriff nach fundierter wissenschaftlicher Beurteilung auf ein absolutes Minimum reduziert.;-;-;-;https://link.springer.com/article/10.1007/BF03022268 9d185ed5875416d7c90ac0a0c36b8bc0;de;;;1.2.;;;Alters- und geschlechtsspezifische Referenzintervalle für Nüchternblutzucker- und Lipidspiegel bei Schulkindern, gemessen mit dem Abbott Architect c8000 Chemistry Analyzer Referenzintervalle für Pubertätsmerkmale werden durch genetische, geografische, diätetische und sozioökonomische Faktoren beeinflusst. Ziel dieser Studie war es daher, altersspezifische Referenzintervalle für Glukose- und Lipidspiegel bei lokalen Schulkindern zu ermitteln. Dies war eine Querschnittsstudie, die unter saudischen Schulkindern durchgeführt wurde. Nüchternblutproben wurden von 2149 Kindern, 1138 (53%) Jungen und 1011 (47%) Mädchen im Alter von 6 bis 18 Jahren entnommen. Die Proben wurden auf dem Architect c8000 Chemistry System (Abbott Diagnostics, USA) auf Glucose, Cholesterin, Triglyceride, HDL und LDL analysiert. Referenzintervalle wurden mit nichtparametrischen Methoden zwischen dem 2,5. und 97,5. Perzentil festgelegt. Bei den Cholesterin- und Triglyceridwerten wurden in allen Altersgruppen signifikante Unterschiede zwischen Jungen und Mädchen beobachtet (;-;-;-;https://link.springer.com/article/10.1007/s12291-012-0195-x 7300d6b257aa51b8b3956f9e56dd7a62;de;;;1.2.;;;Samenspeicherproteine: - Genetik, Synthese, Akkumulation und Proteinqualität Die wichtigste primäre Quelle für Aminosäuren in der Nahrung für Nichtwiederkäuer ist das Protein, das im geernteten Getreide von Nutzpflanzen enthalten ist. Davon besteht etwa die Hälfte aus einer Fraktion, die als Speicherproteine ​​​​bezeichnet wird. Die wichtigsten Quellen für Samenprotein sind in Tabelle 1 aufgeführt. Daraus ist ersichtlich, dass der Hauptbeitrag von den Getreidearten mit Leguminosen die zweitwichtigste Quelle ist – andere Kulturen leisten einen relativ geringen Beitrag. Dieser Artikel wird sich nur mit den Speicherproteinen aus Getreide und Hülsenfrüchten befassen und sich innerhalb dieser Gruppe auf die Bereiche konzentrieren, in denen das meiste über die biochemische Natur der Proteine ​​und ihre Ablagerung bekannt ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-8267-3_8 bfb4aefd2ef262d8f49aec76347a6856;de;;;1.2.;;;Leistungsverteilungen für selbstgravitierende astrophysikalische Systeme basierend auf nicht umfangreicher Tsallis-Kinetik Die langjährige Entwicklung selbstgravitativer gasförmiger astrophysikalischer Systeme (insbesondere die Entwicklung der Protoplaneten-Akkretionsscheibe) wird hauptsächlich durch relativ schnelle Prozesse der Kollisionsrelaxation von Teilchen bestimmt. Allerdings sollten langsamere dynamische Prozesse im Zusammenhang mit Kraftwechselwirkungen (Newton oder Coulomb) zwischen Teilchen einbezogen werden (wie;-;-;-;https://link.springer.com/article/10.1134/S0038094617020046 e94d89c6bc3c121e0bc442fe9b39106b;de;;;1.2.;;;Wüstenstörungsbewertungen der regionalen Ölförderung durch Aster- und ETM+-Bilder in der Taklimakan-Wüste China Um seinen schnell wachsenden Energiebedarf zu decken, war die Ölförderung in China noch nie so intensiv. Die offensichtlichsten Merkmale der Ölförderung sind progressiv und regional, die durch Fernerkundung überwacht werden können, wie z Anlagen. In diesem Artikel wird das Ölfeld am Nordrand der Taklimakan-Wüste in der Wasserscheide des Tarim-Flusses im Nordwesten Chinas beschrieben. Die Störungswirkungen der regionalen Erdölförderung waren Hauptinhalt des regionalen Umweltmanagements und -monitorings. Basierend auf Enhanced Thematic Mapper Plus (ETM+) und Aster-Bildern, analysierte regionale Landnutzung und Landschaftsveränderung von 2001 bis 2003. Durch den Vergleich kann geschlossen werden, dass sich die ökologische Qualität in diesen 3 Jahren verschlechtert hat. Der Wald degradierte zu Gras und Wüste. Die Waldfläche sank von 9,06 km;-;-;-;https://link.springer.com/article/10.1007/s10661-007-9954-1 d2a1fce76862f9e5dd017ba33a2694b2;de;;;1.2.;;;Fehlergrenzen für Baumcodes, Trellis-Codes und Faltungscodes mit Kodierungs- und Dekodierungsverfahren Eine der Anomalien der Codierungstheorie bestand darin, dass, während Blockparitätsprüfungscodes das Thema der überwiegenden Mehrheit der theoretischen Studien sind, Faltungscodes in den meisten praktischen Anwendungen von „fehlerkorrigierenden Codes“ verwendet wurden. Dafür gibt es viele Gründe, nicht zuletzt die eleganten algebraischen Charakterisierungen, die für Blockcodes formuliert wurden. Aber obwohl wir aus ästhetischen Gründen lieber über lineare Blockcodes als über Faltungscodes spekulieren, scheint mir, dass ein Informationstheoretiker nicht mehr schuldlos unwissend über Nichtblockcodes sein kann. Der Zweck dieser Vorlesungen ist es, einem Leser, der eine gewisse allgemeine Vertrautheit mit Blockcodes hat, eine einigermaßen vollständige und in sich geschlossene Behandlung von Nicht-Blockcodes bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-3008-7_1 d73e0aadcb093ea5f14e00c382b90438;de;;;1.2.;;;Definiert die Umwelt oder die Herkunft der Bevölkerung den Stresszustand und die Energieversorgung der Süßwasser-Flussfüßer, Um die Auswirkungen von Akklimatisierung und/oder Anpassung auf die Stressprotein- (hsc/hsp70)-Reaktion, die Adenylat-Energieladung (ACE), das ATP/ADP-Verhältnis und die Lipid- und Glykogenversorgung zu untersuchen, wurden Proben von vier verschiedenen Populationen der Süßwasseramphipoden;-;-;-;https://link.springer.com/article/10.1007/s10646-002-4428-2 a390106f840e9c0ee28254971a3d7f77;de;;;1.2.;;;Vorbeugung und Behandlung von zerebraler Ischämie Obwohl das Hauptaugenmerk der neueren Forschung zum Schutz des Gehirns auf die Entwicklung von rezeptorspezifischen Medikamenten gerichtet war, hat diese Anstrengung derzeit zu nur wenigen Verbesserungen bei den Patientenergebnissen geführt. Bis Fortschritte in der Pharmakologie zu Verbesserungen beim Menschen führen, werden der Kliniker und seine Patienten gut bedient sein, wenn sie traditionellere Techniken zur Vorbeugung und Behandlung von zerebralen ischämischen Ereignissen anwenden. Dieser Ansatz umfasst Interventionen, um a) Patienten zu identifizieren, die an einer zerebralen Ischämie leiden oder ein Risiko dafür haben, und b) die systemische Physiologie zu verändern, um die Dauer und Schwere jeglicher ischämischer Verletzungen zu verringern. Die Initialtherapie sollte Interventionen zur Verbesserung der Hirndurchblutung und der Sauerstofftransportkapazität des Blutes umfassen. Sobald dies erreicht ist, sollten Maßnahmen zur Kontrolle des Blutzuckerspiegels und zur Behandlung von Fieber ergriffen werden. Bei ansonsten stabilen chirurgischen Patienten kann auch eine leichte Senkung der Patiententemperatur von Vorteil sein, vorausgesetzt, die Temperatursenkungen führen nicht zu Problemen in der systemischen Physiologie und der Patient wird vor dem Aufwachen aus der Vollnarkose wieder aufgewärmt. Die Wahl des Vollnarkosemittels kann für die Kontrolle des Hirndrucks und der Anfallsaktivität von Bedeutung sein. Wenn jedoch ein direkter Schutz des Gehirns gewünscht wird, sollte das Anästhetikum der Wahl ein Barbiturat sein. Schließlich sollte bei Patienten mit einem Risiko für zerebrale Vasospasmen eine Behandlung mit Nimodipin in Betracht gezogen werden. Zusammengenommen sollten diese Interventionen die Chance des Patienten auf eine optimale neurologische Erholung nach einer Ischämie erhöhen.;-;-;-;https://link.springer.com/article/10.1007/BF03013181 336291d200848e8d8dcd13bf28764317;de;;;1.2.;;;Zur Pseudozufälligkeit einer Modifikation von KASUMI-Typ-Permutationen Wir präsentieren eine Modifikation von KASUMI-Typ-Permutationen und analysieren ihre Sicherheit unter Verwendung des Begriffs der Pseudozufälligkeit. Unsere modifizierte KASUMI-Typ-Permutation kann effizienter berechnet werden als die ursprüngliche KASUMI-Typ-Permutation. Darüber hinaus weisen unsere Ergebnisse eine etwas bessere (gleiche) obere Erfolgswahrscheinlichkeit gegen beliebige Angreifer im Sinne einer (Super-)Pseudozufälligkeit auf.;-;-;-;https://link.springer.com/chapter/10.1007/11496618_23 613ff6e719e0739620ee4ac3bf8d9098;de;;;1.2.;;;Optionale Vorschläge zum Testen neuer Teleskopverzweigungen von TNM In diesem Kapitel werden verschiedene Vorschläge zur optionalen Unterteilung der bestehenden T-, N- und M-Kategorien gemacht. d.h. „teleskopische“ Verzweigungen, dargestellt. Teleskopieren ermöglicht die Erfassung zusätzlicher Daten, ohne die Definitionen der bestehenden TNM-Kategorien zu ändern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-46792-9_5 8e2c2cebc66ae4dc89cfba937c372dcb;de;;;1.2.;;;Ein geschlechtsbasierter genetischer Algorithmus zur automatischen Konfiguration von Algorithmen Ein Problem, das der Entwicklung und dem effizienten Einsatz von Solvern inhärent ist, ist das Abstimmen von Parametern. Die CP-Community hat eine lange Geschichte darin, diese Aufgabe automatisch zu lösen. Wir schlagen einen robusten, inhärent parallelen genetischen Algorithmus für das Problem der automatischen Konfiguration von Lösern vor. Um die hohen Kosten der Eignungsbewertung von Personen zu bewältigen, führen wir eine Geschlechtertrennung ein, bei der wir auf beide Geschlechter unterschiedlichen Selektionsdruck ausüben. Experimentelle Ergebnisse einer Auswahl von SAT-Solvern zeigen signifikante Leistungs- und Robustheitsgewinne gegenüber dem aktuellen Stand der Technik bei der automatischen Algorithmuskonfiguration.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04244-7_14 506f60911dea756047f711d1f52fc54f;de;;;1.2.;;;Heuristische Fuzzy-Logik-Steuerung Seit Mamdani [79] seine Erfahrungen mit einem Fuzzy-Logic-Regler an einer Prüfstandsanlage eines Labors veröffentlicht hat, sind viele verschiedene Regelungsansätze auf Basis dieser Theorie erschienen und auch viele Anwendungen dieses Reglertyps auf eine Vielzahl von Prozessen wie z Wasserwerke [60], rotative Klinkeröfen für die Zementherstellung [69] [61], automatischer Zugbetrieb [123], Frachtschiffsteuerung [71], Robotik [108] [107] und andere. Eine ausführliche Einführung in die historische Entwicklung, den Zustand und die Konzepte von Fuzzy-Regelsystemen findet sich in [72], [73].;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0981-5_7 290ed6c66f209539d40f22e0ddd33f15;de;;;1.2.;;;Fortschritte bei der Behandlung und Bekämpfung von gewebebewohnenden Helminthenparasiten Helminthiasis, die einst als eine Krankheit von geringer Bedeutung im Vergleich zu anderen parasitären Krankheiten, die durch verschiedene Mikroben, Viren und Protozoen verursacht werden, angesehen wurde, zählt heute zu den wichtigsten Tropenkrankheiten des Menschen, die für die Gesundheit von Millionen Menschen auf der ganzen Welt verantwortlich sind. Die Krankheit wird durch das Eindringen einer Vielzahl von Parasiten der Klasse Nematoden (Spulwürmer), Trematoden (Plattwürmer oder Egel) und Cestoden (Bandwürmer) in das Magen-Darm-System, den Blutkreislauf, die Muskulatur und andere Organe des menschlichen Körpers verursacht. Die Auswirkungen dieses Befalls auf die Gesundheit des Menschen können von leichten gastrointestinalen oder physiologischen Störungen bis hin zu schwerwiegenden klinischen Komplikationen reichen, die ohne angemessene medizinische Versorgung zu einer hohen Morbiditäts- und Mortalitätsrate in der Bevölkerung führen. Das Vorkommen von Helminthen bei Haustieren verursacht erhebliche wirtschaftliche Verluste und behindert dadurch das sozioökonomische Wachstum der agro- und milchbasierten Regionen der Welt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-9311-4_12 027932175c5221e554c957494e559eb0;de;;;1.2.;;;Vorhersage des Netzwerkverkehrs basierend auf Wavelet-Transformation und Saison-ARIMA-Modell Um die Charakteristik des Netzwerkverkehrs zu behandeln, wird in diesem Papier ein Vorhersagealgorithmus basierend auf der Wavelet-Transformation und dem Season-ARIMA-Modell vorgestellt. Die komplexe Korrelationsstruktur des Netzwerkverlaufsverkehrs wird mit der Wavelet-Methode ausgenutzt. Für die Verkehrsserien unter verschiedenen Zeitskalen wird die Selbstähnlichkeit analysiert und verschiedene Vorhersagemodelle für die Vorhersage ausgewählt. Die Ergebnisreihe wird mit der Wavelet-Methode rekonstruiert. Simulationsergebnisse zeigen, dass die vorgeschlagene Methode eine höhere Vorhersagegenauigkeit erreichen kann als ein einzelnes Vorhersagemodell.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21111-9_17 1772c367a025bba851d9ccdfbb55e1d4;de;;;1.2.;;;Zum Likelihood-Ratio-Test auf die Gleichheit multivariater Normalpopulationen mit zweistufigen monotonen fehlenden Daten In diesem Artikel betrachten wir das Problem des Testens der Gleichheit multivariater Normalpopulationen, wenn der Datensatz fehlende Beobachtungen mit einem zweistufigen monotonen Muster enthält. Die Likelihood-Ratio-Test (LRT)-Statistik für das gleichzeitige Testen der Mittelwertvektoren und der Kovarianzmatrizen wird unter der Bedingung von zweistufigen monotonen fehlenden Daten angegeben. Eine angenäherte modifizierte Likelihood-Ratio-Test (MLRT)-Statistik wird unter Verwendung einer linearen Interpolation basierend auf den Koeffizienten der MLRT-Statistik im Fall vollständiger Datensätze präsentiert. Als alternativen Ansatz schlagen wir angenäherte MLRT-Statistiken zweier Arten mit zweistufigen monotonen fehlenden Daten vor, die die Zerlegungen des Likelihood-Verhältnisses (LR) verwenden. Ein ungefähres oberes Perzentil der LRT-Statistik mit zweistufigen monotonen fehlenden Daten wird auch basierend auf einer asymptotischen Expansion für die LRT-Statistik bei vollständigen Datensätzen abgeleitet. Schließlich untersuchen wir die Genauigkeit der Näherungen mit Hilfe der Monte-Carlo-Simulation.;-;-;-;https://link.springer.com/article/10.1080/15598608.2016.1215942 3920b0c56583eef3161c9bc98f736765;de;;;1.2.;;;Ungewöhnliche Darstellung distaler Harnröhrenduplikationen bei nicht eineiigen Zwillingen Nicht identische Zwillingsbrüder stellten sich mit ähnlichen, offensichtlich zystischen Läsionen direkt neben dem Harnröhrengang vor. Die Histologie bestätigte, dass die Läsionen mit akzessorischen Harnröhren übereinstimmen. Bei keinem der Jungen gab es eine offensichtliche Sinusöffnung. Dieser Bericht beschreibt eine ungewöhnliche Darstellung einer unvollständigen kollateralen Harnröhrenduplikation.;-;-;-;https://link.springer.com/article/10.1007/BF00175850 862a134983c2b26b79febe8436a62ad3;de;;;1.2.;;;Einfluss von mRNA-Zerfallsraten auf die rechnerische Vorhersage von Transkriptionsratenprofilen aus Genexpressionsprofilen Die Häufigkeit einer mRNA-Spezies hängt nicht nur von der Transkriptionsrate ab, mit der sie produziert wird, sondern auch von ihrer Zerfallsrate, die bestimmt, wie schnell sie abgebaut wird. Sowohl die Transkriptionsrate als auch die Zerfallsrate sind wichtige Faktoren bei der Regulierung der Genexpression. Mit dem fortschreitenden Zeitalter der Genomik gibt es eine beträchtliche Anzahl von Genexpressionsdatensätzen, in denen die Expressionsprofile von Zehntausenden von Genen oft uneinheitlich erfasst sind. In jüngster Zeit wurde in zahlreichen Studien vorgeschlagen, aus Expressionsprofilen auf die regulatorischen Netzwerke zu schließen. Dennoch wurde nicht gut untersucht, wie die mRNA-Zerfallsraten die rechnerische Vorhersage von Transkriptionsratenprofilen aus Expressionsprofilen beeinflussen. Um die Einflüsse zu verstehen, präsentieren wir eine systematische Methode basierend auf einem gendynamischen Regulationsmodell unter Berücksichtigung von mRNA-Zerfallsraten, Expressionsprofilen und Transkriptionsprofilen. Allgemein kann ein Expressionsprofil als Repräsentation eines biologischen Zustands betrachtet werden. Der Grundgedanke hinter dem Konzept ist, dass sich der biologische Zustand in der Veränderung des Genexpressionsprofils widerspiegelt. Grundsätzlich hängt der biologische Zustand entweder mit dem Zellzyklus oder mit den Umweltbelastungen zusammen. Die Expressionsprofile von Genen, die zu ersteren gehören, sogenannte Zellzyklusdaten, sind durch Periodizität gekennzeichnet, während die Expressionsprofile von Genen, die zu letzteren gehören, sogenannte konditionsspezifische Daten, durch einen steilen Wechsel nach eine bestimmte Zeit ohne Periodizität. In diesem Artikel untersuchen wir die systematische Methode der simulierten Expressionsdaten sowie der realen Expressionsdaten einschließlich Hefezellzyklusdaten und zustandsspezifischer Daten (Glukoselimitierungsdaten). Die Ergebnisse zeigen, dass die mRNA-Zerfallsraten die rechnerische Vorhersage von Transkriptionsratenprofilen für Zellzyklusdaten nicht signifikant beeinflussen. Im Gegenteil, die Größe und Form von Transkriptionsratenprofilen für zustandsspezifische Daten werden signifikant durch die mRNA-Zerfallsraten beeinflusst. Diese Analyse bietet Forschern die Möglichkeit, zukünftige Forschungen zur rechnerischen Ableitung regulatorischer Netzwerke mit verfügbaren Expressionsprofilen unter verschiedenen biologischen Bedingungen durchzuführen.;-;-;-;https://link.springer.com/article/10.1007/s12038-007-0134-9 3c792de4c30f717fdffb9ec82e81ccb7;de;;;1.2.;;;Mykorrhiza als biologische Bekämpfungsmittel Veränderungen in der gesamten Rhizosphärengemeinschaft können durch Veränderungen in der Mykorrhizagemeinschaft bestätigt werden. Es ist allgemein bekannt, dass verschiedene Kulturpflanzen und Managementpraktiken die Mykorrhiza-Gemeinschaft um Pflanzenwurzeln herum verändern können. Daher ist es möglich, die Lebensgemeinschaft einer gegebenen Rhizosphäre für eine günstige Situation zu verändern, wie beispielsweise die Verringerung des Inokulumpotenzials von Pflanzenpathogenen. Die verfügbaren und/oder erforderlichen Informationen, um eine solche Schlussfolgerung zu stützen, sind enorm. Dieser nachhaltige und grundlegende Ansatz kann zu einer der vielen praktikablen Lösungen für das Management von Pflanzenkrankheiten und die Reduzierung von Pathogen-Inokulum werden. Darüber hinaus können solche Studien den Weg für die gemeinsame Beimpfung von Nutzpflanzen mit vielversprechenden Populationen jeder Gruppe von Mikroflora und Mykorrhizapilzen ebnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-3209-3_25 1e27ea67196ba665c7065bb732827a18;de;;;1.2.;;;Spezialthemen in Differential- und Evolutionseinschlüssen In den Kapiteln I und II haben wir zwei große Klassen von Evolutionseinschlüssen im Detail untersucht. In diesem Kapitel schließen wir das Thema mehrwertige Differentialgleichungen ab, indem wir bestimmte Themen vorstellen, die noch nicht behandelt wurden und in den bestehenden Büchern nicht zu finden sind. In Abschnitt 1 betrachten wir also differentielle Einschlüsse in;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4665-8_3 806aa4858106f9f66ec470e582d3ab33;de;;;1.2.;;;Farb-, Infrarot- und Ultraviolett-Holographie In diesem Kapitel werden die verschiedenen, existierenden Verfahren zur farbtreuen Aufnahme von Hologrammen sowie die bei Künstlern populär gewordenen Möglichkeiten zur Erzeugung von Pseudo-Color-Hologrammen beschrieben. Die Möglichkeit, Hologramme von Objekten aufzunehmen, bei denen die Bilder Farben zeigen, die mit denen des Originalobjekts identisch sind, sind sehr wichtig, um die Akzeptanz der Displayholographie zu erhöhen. Mit der Aufnahme hochwertiger Farbhologramme sind jedoch viele Probleme verbunden, auf die im ersten Teil des Kapitels eingegangen wird. Der zweite Teil befasst sich mit der Infrarot- und Ultraviolett-Holographie. Dies ist ein weiteres wichtiges Gebiet der Holographie, bei dem das Hauptinteresse auf Anwendungen von holographischen optischen Elementen (HOEs) liegt. Die Möglichkeit, Hologramme in diesen Teilen des Spektrums mit Hilfe von Silberhalogenidemulsionen sowie anderen Materialien aufzunehmen, wird diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-47593-4_9 880778ecfa690859e8a0cc24c8364185;de;;;1.2.;;;Die Bauchwand bei Säuglingen und Kindern Der Begriff „Zelosomie“ [Geoffroy Saint-Hilaire 1832–1837, Wolff 1936, 1948, Morin & Neidhart 1977] bezeichnet Verschlussdefekte der vorderen Bauchwand, die bis in den Brustkorb reichen können. In ihren Hauptformen sind diese Fehlbildungen hauptsächlich mit komplexen Läsionen des Rückenmarks und des Beckens verbunden und betreffen manchmal die Gliedmaßen. Es ist ungewöhnlich, dass diese Säuglinge termingerecht zur Welt kommen (Abb. 12.1–12.4).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-48881-8_12 2a470a9fce8a085a6e8fb924688cd91d;de;;;1.2.;;;Nichtinvasive fetale Chirurgie bei hypoplastischem Linksherzsyndrom mit hochintensivem fokussiertem Ultraschall: Eine vorläufige Studie zu geeigneten Parametern Das hypoplastische Linksherzsyndrom ist eine angeborene Herzerkrankung, die teilweise durch eine Aortenklappenstenose vor der Geburt verursacht wird. Herkömmlicherweise wurden bei betroffenen Säuglingen mit einer Mortalität von bis zu 80 % im Alter von 6 Monaten postnatale mehrere Operationen durchgeführt. In letzter Zeit wurde zunehmend über Ballondilatation der stenotischen Aortenklappe in der 21. bis 29. Schwangerschaftswoche berichtet, deren klinische Ergebnisse auf ihre potenzielle Bedeutung hindeuten. Dieses Verfahren erscheint jedoch ziemlich invasiv, da eine ultraschallgeführte Nadel mit einem Ballonkatheter scharf in das schlagende winzige fetale Herz eingeführt werden muss. Hochintensiver fokussierter Ultraschall (HIFU) ist eine der vielversprechendsten nichtinvasiven Modalitäten für die fetale Intervention. Ziel der Studie ist es, geeignete HIFU-Techniken für die fetale Aortenvalvuloplastik bei Feten zu entwickeln, die perinatal ein hypoplasisches Linksherzsyndrom entwickeln können. HIFU wurde an monocoque sphärischen PZT-Schallköpfen erzeugt, die Brennweite beträgt ca. 150 mm und die Resonanzfrequenz beträgt 2,28 und 3,07 MHz. Das Phantom (Hähnchenbrustmuskelgewebe) wurde in entgastes Wasser mit grundsätzlich gleichen akustischen Eigenschaften gelegt und HIFU-Energie wurde mit Sätzen von Antriebsfrequenz, Eingangsleistung und Beschallungszeit zugeführt. Durch eine Beschallung mit einer Antriebsfrequenz von 3,07 MHz, einer Eingangsleistung von 200 W und einer Beschallungszeit von 5 s am Hähnchenbrustphantom im Abstand von ca. 150 mm in entgastem Wasser wurde ein Loch von ca. 1 mm Durchmesser erzeugt. Die Ergebnisse legen nahe, dass die Beschallung unter den Parametern hoher Eingangsleistung und kurzer Beschallungszeit für einen lokalisierten Einschnitt in das Zielgewebe mit minimaler thermischer Schädigung des peripheren Gewebes wirksam ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36841-0_1055 f5b1ae4cbba74bb767b45d89a6460222;de;;;1.2.;;;Umfassendes Bewertungsmodell zum Abflussrisiko bei Wasserkraftprojekten Das Abflussrisiko bei Wasserkraftprojekten wird von vielen Faktoren beeinflusst, wie den eigenen Eigenschaften des Murgangs, dem Umfang und der Bedeutung von Wasserkraftprojekten. Es handelt sich um ein umfassendes Multiindex-Bewertungsproblem für das Murgangrisiko. Entsprechend den Merkmalen zum Murgangrisiko in Wasserkraftprojekten werden die Methode der fallbasierten Argumentation und die Fuzzy-Optimal-Erkennung verwendet, um das Bewertungsmodell für das Murgangrisiko zu erstellen. Zunächst wird ein Bewertungsindexsystem des Murgangrisikos vorgeschlagen, das die vielfältigen Einflussfaktoren auf das Murgangrisiko in Wasserkraftprojekten beschreiben kann. Basierend auf den historischen Murgangdaten wird eine typische Murgangbasis erstellt. Zweitens werden unter Berücksichtigung der Unsicherheit des Murgangs in Wasserkraftprojekten zwei Bewertungsmodelle des Murgangrisikos entwickelt, nämlich das fallbasierte Argumentationsmodell und das Fuzzy-Optimal-Erkennungsmodell. Schließlich werden die beiden Modelle verwendet, um das Murgangrisiko in einem konkreten Wasserkraftprojekt zu analysieren und zu bewerten. Die Fähigkeiten zweier Modelle werden verglichen. Es wird darauf hingewiesen, dass die vorgeschlagenen Modelle geeignet sind, um eine umfassende Bewertung des Murgangrisikos in Wasserkraftprojekten durchzuführen.;-;-;-;https://link.springer.com/article/10.1007/s11269-015-1217-2 0fb6ddda0cec35ad48d6249245638209;de;;;1.2.;;;Entwurf und Analyse von Prozessorplanungsrichtlinien für Echtzeitsysteme In diesem Papier untersuchen wir das Problem der Planung von Jobs mit Echtzeitbeschränkungen in Ein- und Mehrprozessor-Computersystemen. Wir zeigen die Optimalität der Scheduling-Policys Minimum Laxity (ML) und Early Deadline (ED) auf Multiprozessoren unter allgemeinen Workload-Annahmen für Systeme, in denen Jobs nicht bedient werden müssen, wenn sie ihre Fristen versäumen. Wir beschreiben auch ein zeitdiskretes Modell dieser Richtlinien, das auf einem einzelnen Prozessor arbeitet, wenn die Fristen aller Jobs einheitlich begrenzt sind. Die beschriebenen ML- und ED-Richtlinien verursachen einen Overhead mit einer Rechenkomplexität von;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-3956-8_3 68e7316316b57a898dbff0a8b9808bed;de;;;1.2.;;;Paralleles Computing im großen Maßstab von Cloud Resolving Storm Simulator Ein schweres Gewitter besteht aus starken Konvektionswolken. Um eine Simulation dieser Art von Stürmen durchzuführen, ist ein sehr feines Rastersystem erforderlich, um einzelne Konvektionswolken innerhalb eines großen Bereichs aufzulösen. Da konvektive Wolken hochkomplexe Systeme der Wolkendynamik und Mikrophysik sind, ist es erforderlich, detaillierte wolkenphysikalische Prozesse sowie die Fluiddynamik zu formulieren. Für die Berechnung sind ein riesiger Speicher und umfangreiches paralleles Rechnen erforderlich. Für diese Art von Berechnungen haben wir ein numerisches Modell zur Wolkenauflösung entwickelt, das den Namen Cloud Resolving Storm Simulator (CReSS) trägt. In diesem Papier werden wir die grundlegenden Formulierungen und Eigenschaften von CReSS im Detail beschreiben. Wir zeigen auch einige Ergebnisse numerischer Experimente von Stürmen, die durch eine groß angelegte parallele Berechnung mit CReSS erhalten wurden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-47847-7_21 fd09a8e62ac2c119c83209b379448c50;de;;;1.2.;;;Die Funktion des Epigenoms bei der Zellreprogrammierung Während der Zelldifferenzierung oder der metabolischen Umstellung erfahren Zellen tiefgreifende Veränderungen in der Genexpression. Begleitet werden diese Ereignisse von komplexen Modifikationen chromosomaler Komponenten und Kernstrukturen, einschließlich kovalenter Modifikationen von DNA und Chromatin bis hin zur topologischen Reorganisation von Chromosomen und Genen im Zellkern. All diese Organisationsebenen scheinen in unterschiedlichem Maße zur Stabilität und Vererbbarkeit von Transkriptionsprogrammen beizutragen und definieren, was als;-;-;-;https://link.springer.com/article/10.1007/s00018-007-6420-8 6e4105ff20093767802bbf5402f02cde;de;;;1.2.;;;Optische Untersuchung aromatischer Einheiten in Rohölen und Asphaltenen Die optische Spektroskopie bietet eine äußerst leistungsfähige Methode zur Untersuchung der Molekülstruktur und Moleküldynamik. Molekülstrukturen werden durch günstige Energetik der räumlichen Anordnung der konstituierenden Atome und Valenzelektronen bestimmt. Die Energie optischer Photonen korreliert mit der Anregung von Valenzelektronen zu Orbitalen höherer Energie, wodurch eine direkte Sonde der Molekülstruktur entsteht. Die Molekulardynamik kann auch mittels optischer Spektroskopie untersucht werden. Pump-Probe-Experimente, bei denen das erste Photon das Molekül in einen sich entwickelnden Zustand anregt und das zweite Photon mit bekannter Zeitverzögerung die Entwicklung des Moleküls abfragt, wurden auf Dynamiken wie die molekulare Dissoziation in der Femtosekunde (10;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-1615-0_2 94760389f9dbe349d45ff081b1e1a58e;de;;;1.2.;;;Auswirkungen der COVID-19-Prävalenz und des Übertragungsweges auf Sterblichkeitsfälle in den WHO-Regionen Mit dem aktuellen Ausbruch der Coronavirus-Krankheit 2019 (COVID-19) haben die Länder die Bereitschaft erhöht, importierte und lokal übertragene Fälle der Krankheit zu erkennen und zu isolieren. Es wird beobachtet, dass die Art der Übertragung der Krankheit von Land zu Land unterschiedlich ist. Jüngste Studien haben gezeigt, dass COVID-19-Fälle nicht durch Rassen- und Wetterbedingungen beeinflusst werden. In dieser Studie werden die Auswirkungen der Übertragungswege von COVID-19 in Bezug auf die Prävalenz und die Sterblichkeitszahlen in den Regionen der Weltgesundheitsorganisation (WHO) betrachtet. Außerdem wird ein negatives Binomialmodell für neue Todesfälle in allen WHO-Regionen in Abhängigkeit von bestätigten Fällen, bestätigten neuen Fällen, Gesamttodesfällen und Übertragungswegen formuliert, mit dem Ziel, ein Modell zu identifizieren, das die Gesamtzahl der neuen Todesfälle am besten vorhersagt . Die Ergebnisse dieser Studie zeigen, dass es in allen WHO-Regionen einen starken linearen Zusammenhang zwischen den bestätigten COVID-19-Fällen, den insgesamt neuen Todesfällen und dem Übertragungsweg gibt. Die Ergebnisse unterstreichen die bedeutende Rolle der Übertragungswege bei insgesamt neuen Todesfällen in den WHO-Regionen. Die Art der Übertragung auf der Grundlage der Übertragung durch die Gemeinschaft und Fallhäufungen beeinflusst die Zahl der neuen Todesfälle in den Regionen der WHO erheblich. Der Vuong-Test zeigt, dass das formulierte negative Binomialmodell besser zu den Daten passt als das Nullmodell.;-;-;-;https://link.springer.com/article/10.1007/s13755-020-00127-3 ff3d7bdd98b5de2b6daeda8630ea25c4;de;;;1.2.;;;Frühe mikrochirurgische Behandlung von geburtshilflichen Plexus-brachialis-Läsionen. Patientenauswahl und Ergebnisse Eine Literaturübersicht zeigt, dass bei konventioneller Behandlung allein oder in Kombination mit sekundärem Muskel-/Sehnentransfer ca. 4–43 % der Fälle eine unvollständige Erholung mit schweren funktionellen und/oder ästhetischen Beeinträchtigungen zeigen (Gruppe III). Wird bei diesen Patienten eine frühe mikrochirurgische Plexus-brachialis-Revision durchgeführt, kann in 80–90 % der Fälle eine Regeneration ohne signifikante funktionelle und/oder ästhetische Beeinträchtigung (Verschiebung von Gruppe III zu Gruppe II) erreicht werden. Darüber hinaus erhöht die mikrochirurgische Rekonstruktion des Plexus brachialis die Möglichkeiten sekundärer Muskel-Sehnen-Transfers. Daher sollte bei guter Patientenauswahl eine frühzeitige mikrochirurgische Revision mit schweren geburtshilflichen Verletzungen des Plexus brachialis erfolgen. Sie müssen nicht auf eine frustrierende Spontanheilung warten. Unser Konzept basiert auf unserer Erfahrung mit mehr als 1100 Patienten, die sich zwischen 1981 und 1996 mit Plexus-brachialis-Läsionen vorstellten und in unserer Einrichtung behandelt wurden. Es gab 217 geburtshilfliche Plexus-brachialis-Läsionen, von denen 133 konservativ behandelt wurden. In 84 Fällen war eine operative Behandlung notwendig. In 51 Fällen wurde der Plexus brachialis frühzeitig revidiert und bei 33 Patienten wurde ein sekundärer Sehnentransfer durchgeführt.;-;-;-;https://link.springer.com/article/10.1007/PL00003432 d95b64c10e4e9a9ae214c2b43fdb242a;de;;;1.2.;;;Verbesserte Herunterdatierungsmethoden des Gram-Schmidt-Typs Das Problem des Löschens einer Zeile aus einer Q-R-Faktorisierung (Downdating genannt) mit Gram-Schmidt-Orthogonalisierung ist eng verbunden mit der Verwendung klassischer iterativer Methoden zur Lösung eines Problems der kleinsten Quadrate mit dem Orthogonalfaktor als Koeffizientenmatrix. Frühere Ansätze zum Herunterdatieren haben sich auf die genaue Berechnung des Residuums dieses Problems der kleinsten Quadrate konzentriert und dann einen Einheitsvektor in Richtung des Residuums gefunden, der eine neue Spalte für den orthogonalen Faktor wird. Es ist auch wichtig, den Lösungsvektor des zugehörigen Kleinste-Quadrate-Problems genau zu berechnen, da dieser Vektor im Herunterdatierungsprozess verwendet werden muss, um einen guten Rückwärtsfehler in der neuen Faktorisierung aufrechtzuerhalten. Ausgehend von dieser Beobachtung werden neue Algorithmen vorgeschlagen.;-;-;-;https://link.springer.com/article/10.1007/s10543-005-0015-2 742227755160ad22e2d0af5cfb24cc1e;de;;;1.2.;;;Open-plus-Closed-Loop-Steuerung für chaotische Bewegungen eines starren 3D-Pendels Ein Open-Plus-Closed-Loop (OPCL)-Steuerungsproblem für die chaotische Bewegung eines starren 3D-Pendels, das einer konstanten Gravitationskraft ausgesetzt ist, wird untersucht. Es wird angenommen, dass das starre 3D-Pendel aus einem starren Körper besteht, der von einem festen und reibungsfreien Drehpunkt mit drei Drehgraden getragen wird. Um das singuläre Phänomen der Eulerschen Winkelgeschwindigkeitsgleichung zu vermeiden, wird die kinematische Quaterniongleichung verwendet, um die Bewegung des starren 3D-Pendels zu beschreiben. Es wird ein OPCL-Controller für die chaotische Bewegung eines starren 3D-Pendels in der Gleichgewichtsposition entwickelt. Dieser OPCL-Controller besteht aus zwei Teilen: dem Open-Loop-Teil zur Konstruktion einer idealen Trajektorie und dem Closed-Loop-Teil zur Stabilisierung des starren 3D-Pendels. Simulationsergebnisse zeigen, dass die Steuerung effektiv und effizient ist.;-;-;-;https://link.springer.com/article/10.1007/s10483-014-1800-8 7def0355ecf6e1436457dcd83add9db5;de;;;1.2.;;;Vergleichende klinisch-pathologische Studie des resezierten intrahepatischen Cholangiokarzinoms im Nordosten Thailands und Japans Nordostthailand weist eine sehr hohe Inzidenz des intrahepatischen Cholangiokarzinoms (ICC) auf, das eng mit einem Befall durch den Leberegel verbunden ist, während die Ätiologie des ICC in Japan noch ungeklärt ist. Diese Studie verglich die klinisch-pathologischen Merkmale, die Expression von p53- und c-erbB-2-Proteinen und die proliferative Aktivität von ICC bei 19 thailändischen und 23 japanischen Patienten mit ICC, die durch Leberresektion behandelt wurden. Das Durchschnittsalter der thailändischen Patienten (55,8 Jahre) war niedriger als das der Japaner (61,3 Jahre). Alle thailändischen Patienten stellten sich mit Symptomen vor, während 8 japanische Patienten asymptomatisch waren. Es gab keine signifikanten Unterschiede bei den präoperativen Leberfunktionstestwerten. Bei Japanern (34,8%) war die Wahrscheinlichkeit einer Tumorlokalisation im rechten Lappen geringer als bei thailändischen Patienten (63,2%). Peribiliäre Fibrose und adenomatöse Hyperplasie in gutartigen Lebergeweben wurden bei den thailändischen Patienten viel häufiger gefunden (;-;-;-;https://link.springer.com/article/10.1007/s005340050177 9328a80bb5a6644eafac9646b8c7aaf3;de;;;1.2.;;;Anthelminthische Chemotherapie Die jährlichen weltweiten Kosten parasitärer Erkrankungen bei Nutztieren werden auf 6 Milliarden US-Dollar geschätzt, was einem Verlust von mindestens 5 Millionen Tonnen an Wiederkäuerproteinen entspricht. Diese Verluste resultieren aus der erhöhten Sterblichkeit, verringerten Fruchtbarkeit und verminderten Wachstumsrate der erkrankten Tiere, zusammen mit der verringerten Produktion von Fleisch, Milch, Wolle, Fasern und Leder (Kelly und Hall, 1979). Chemotherapie ist für die Bekämpfung dieser Krankheiten von wesentlicher Bedeutung, und ein Hinweis auf ihren Wert sowohl für die Viehzucht als auch für die pharmazeutische Industrie kann aus der Beobachtung gewonnen werden, dass 1978 allein in England und Wales 15 Millionen Pfund für Anthelminthika und ihre Anwendung bei Rindern ausgegeben wurden (Michel;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-06540-0_8 43999494060d0c65e0fd7396ce91f69a;de;;;1.2.;;;Interpretation von Freeze-Fracture-Replikaten von Insekten-Nervengewebe Freeze-Fracture (FF)-Replikation ist eine wichtige Methode zur Visualisierung ultrastruktureller Topographie von Membranen und Organellen in hydratisierten Zellen mit hoher Auflösung und in drei Dimensionen ohne den Eingriff von Einbettungsmedien und mit geringer oder keiner chemischen Fixierung. Die Gewebereplikate bieten umfangreiche Einblicke in gespaltene Membranen. Diese bemerkenswerte Technik, die Einheitsmembranen spaltet, ermöglicht auch die Auflösung der makromolekularen Architektur biologischer Membranen, insbesondere in Bezug auf die Lage von Membranproteinen. In Korrelation mit der Dünnschliff-EM bestätigt und erweitert FF unser Wissen über spezialisierte interzelluläre Kontakte. Beobachtungen der letzteren liefern wesentliche Daten für die Zellbiologie: interzelluläre Adhäsion, metabolische und elektronische Kopplung mit geringem Widerstand, chemische Transmission und parazelluläre Okklusionsbarrieren. Die FF-Technik hat sich auch als unschätzbar für das Verständnis der Art und Lage elektrischer und chemischer Verbindungen erwiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82115-8_18 7eae97e7f9edef969087c1113c8449de;de;;;1.2.;;;Wein: Eines der ältesten biotechnologischen Produkte Wein ist wohl das älteste aller biotechnologischen Produkte und dennoch bietet die moderne Biotechnologie eine ganze Reihe von Möglichkeiten zu seiner Herstellung. Jährlich werden etwa 27 Milliarden Liter Wein aus Trauben von etwa 8 Millionen Hektar Rebfläche hergestellt. Die „magische“ Welt des Weines erlebt derzeit mit ihrem Wandel von einer produktionsorientierten zu einer marktorientierten Branche eine echte Revolution. Und diese Revolution hängt von Innovationen im Bereich der modernen Biotechnologie ab! Einige davon werden in diesem Kapitel besprochen.;-;-;-;https://link.springer.com/chapter/10.3920/978-90-8686-725-7_6 b390cc499464dc211fb18c9a08eec7fa;de;;;1.2.;;;Aspartam und Anfälle Es wurde vermutet, dass der Nahrungssüßstoff Aspartam (L-Aspartyl-L-phenylalaninmethylester) Anfälle fördern könnte und diese Hypothese wurde in der veröffentlichten Literatur argumentiert. Das aktuelle Manuskript gibt einen Überblick über die biochemischen, neurochemischen und Verhaltensexperimente, die durchgeführt wurden, um die Hypothese zu bewerten, die Aspartam mit der Anfallsförderung verbindet. Wir schließen daraus, dass Krampfanfälle bei Nagern oder Primaten, einschließlich des Menschen, nicht durch oral verabreichtes Aspartam verursacht werden. Frühe Berichte über eine Anfallserleichterung durch Aspartam in mehreren Nagetiermodellen wurden durch spätere und sorgfältigere Experimente nicht bestätigt. Prokonvulsive Wirkungen waren bei Menschen und anderen Säugetieren mit Epilepsie und solchen ohne Epilepsie nicht vorhanden. Das Fehlen einer Anfälligkeit für Krampfanfälle war offensichtlich, selbst wenn in experimentellen Paradigmen Dosen verwendet wurden, die um ein Vielfaches höher waren als die, die in der menschlichen Ernährung konsumiert werden. Studien zu Aspartam bei Absence-Anfällen sind nicht so vollständig wie bei Krampfanfällen, aber die verfügbaren Beweise beim Menschen dokumentieren keinen Zusammenhang zwischen der Häufigkeit von Absence-Anfällen und der Einnahme von Aspartam.;-;-;-;https://link.springer.com/article/10.1007/BF00805824 1751bad3e83bc9924d78460156431d63;de;;;1.2.;;;Verallgemeinerte Leray-Schauder-Prinzipien zur Verdichtung zulässiger Multifunktionen Wir stellen verallgemeinerte Fixpunktsätze vom Leray-Schauder-Typ für kompakte oder kondensierende Multifunktionen in sehr allgemeinen Klassen auf. Diese Klassen enthalten Zusammensetzungen von Kakutani-Karten, azyklischen Karten, ansprechbaren Karten, u.s.c. Karten mit R;-;-;-;https://link.springer.com/article/10.1007/BF01782607 a97367ad11a082b1d6bc724d9513105e;de;;;1.2.;;;Bakteriämie durch Enterokokken vom VanC-Typ in einem Universitätskrankenhaus in Japan: eine 6-Jahres-Umfrage Wir untersuchten retrospektiv die klinischen und mikrobiologischen Merkmale einer Bakteriämie, die durch intrinsisch Vancomycin-resistente (VanC-Typ) Enterokokken verursacht wird, in einem Universitätskrankenhaus in Japan. Fünf Fälle von;-;-;-;https://link.springer.com/article/10.1007/s10156-008-0644-x 9da8f52ffdd5f9f5728e0f23517e06f1;de;;;1.2.;;;Riesz-Kolmogorov-Theorem in Lebesgue-Räumen mit variablem Exponenten und seine Anwendungen auf Riemann-Liouville-Fraktionelle Differentialgleichungen In dieser Arbeit erhalten wir die notwendige und hinreichende Bedingung der vorkompakten Mengen in den Lebesgue-Räumen mit variablem Exponenten, die auch als Riesz-Kolmogorov-Theorem bezeichnet wird. Die wichtigste Neuerung dieses Ansatzes ist die konstruktive Approximation, die nicht auf die Beschränktheit des Hardy-Littlewood-Maximaloperators in den betrachteten Räumen angewiesen ist, so dass wir die log-Hölder-stetigen Bedingungen für den variablen Exponenten nicht benötigen. Als Anwendungen stellen wir die Beschränktheit von Riemann-Liouville-Integraloperatoren her und beweisen die Kompaktheit von abgeschnittenen Riemann-Liouville-Integraloperatoren in den variablen Exponenten-Lebesgue-Räumen. Darüber hinaus erhalten wir durch Anwendung des in dieser Arbeit aufgestellten Riesz-Kolmogorov-Theorems die Existenz und die Eindeutigkeit von Lösungen eines Cauchy-Problems für fraktionelle Differentialgleichungen in Lebesgue-Räumen mit variablem Exponenten.;-;-;-;https://link.springer.com/article/10.1007/s11425-017-9274-0 0c94c4e152112389507d42e8751b52cc;de;;;1.2.;;;Ressourcenzuweisung in Mehrkanal-Mehrbenutzer-Relais-Systemen mit Fairness-Beschränkungen In diesem Papier leiten wir optimale gemeinsame Leistungszuweisungs-, Unterkanalpaarungs- und Planungsstrategien in mehreren orthogonalen Kanälen drahtlose Netzwerke mehrerer Benutzer in Gegenwart eines einzelnen regenerativen Relaisknotens ab. Es werden zwei Modelle mit einer Einschränkung der Datenratenanforderung (Fairness) der Benutzer in verschiedenen Zeitbereichen betrachtet. Das erste wird als deterministisches Modell bezeichnet, bei dem die Datenratenanforderung jedes Benutzers in jedem Zeitschlitz erfüllt werden muss;-;-;-;https://link.springer.com/article/10.1007/s11277-010-0096-3 d57971c05f46fc7991440d265ae6e0f0;de;;;1.2.;;;Zur Bahadur-Darstellung von Stichprobenquantilen und Ordnungsstatistiken für NA-Sequenzen In dieser Arbeit wird die Bahadur-Darstellung von Probenquantilen für negativ assoziierte (NA) Sequenzen unter milden Bedingungen etabliert, was die Ergebnisse von Xing und Yang (2011) verbessert. Darüber hinaus erhalten wir auch die Bahadur-Darstellung von Auftragsstatistiken basierend auf den NA-Sequenzen.;-;-;-;https://link.springer.com/article/10.1016/j.jkss.2012.04.003 3cfee613d0bbf4df7a9194c98a096dd4;de;;;1.2.;;;Zeitliches Denken in der Stadtwachstumssimulation Cellular Automata (CA) wurde zwar in vielen Anwendungen erfolgreich eingesetzt, wurde aber in der Regel nur als Strategie zur komplexen Systemmodellierung anstelle eines einheitlichen und konkreten Simulationsmodells eingesetzt. Darüber hinaus ist es sehr schwach, globale, räumliche oder zeitliche Faktoren abzubilden, die in Stadtwachstumssimulationen notwendig sind. Motiviert durch diese Fakten und basierend auf der Idee von CA, der Sprache;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02962-2_67 2482440d6e774c0376fc22b0b930349d;de;;;1.2.;;;Klassische Quantenkanalcodierung Die klassische Quantenkanalcodierung ist ein Verfahren zur Übertragung von Nachrichten über verrauschte Quantenkanäle. Dieses Kapitel zielt auf ein transparentes Verständnis des klassischen Quantenkanalcodierungstheorems ab, das einer der Meilensteine ​​in der Quanteninformationstheorie ist. Da es auf Empfängerseite erforderlich ist, die Quantenmessung zu optimieren, um die Botschaften zu entschlüsseln, spielt die Theorie der diskriminierenden Quantenzustände (Quantenhypothesentest) eine wichtige Rolle.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-43502-1_8 aeac89e40ec925088cb154d49ac0c899;de;;;1.2.;;;Ein neuer Überlastungskontrollmechanismus von TCP mit Inline-Netzwerkmessung In diesem Artikel schlagen wir einen neuartigen Überlastungskontrollmechanismus von TCP vor, indem wir eine Inline-Netzwerkmesstechnik verwenden. Durch die Verwendung von Informationen über die verfügbare Bandbreite eines Netzwerkpfads zwischen Sender- und Empfängerhosts konstruieren wir einen ganz anderen Überlastungskontrollmechanismus als das traditionelle TCP Reno und seine Varianten, basierend auf logistischen und Lotka-Volterra-Modellen aus der Biophysik. Der vorgeschlagene Mechanismus wird durch Analysen und Simulationsauswertungen intensiv untersucht und wir zeigen die Wirksamkeit des vorgeschlagenen Mechanismus in Bezug auf Skalierbarkeit mit der Netzwerkbandbreite, Konvergenzzeit, Fairness zwischen Verbindungen und Stabilität.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30582-8_12 32a5b266edff225d56c7d75594b48b78;de;;;1.2.;;;Ein geländefolgender Kontrollansatz für ein unbemanntes VTOL-Luftfahrzeug unter Verwendung des durchschnittlichen optischen Flusses In diesem Beitrag wird ein nichtlinearer Regler für die Geländeverfolgung eines vertikalen Start- und Landefahrzeugs (VTOL) vorgestellt. Es wird angenommen, dass das VTOL-Fahrzeug ein starrer Körper ist, der mit einer minimalen Sensoreinheit (Kamera, IMU und barometrischer Höhenmesser) ausgestattet ist, die über ein strukturiertes unebenes Gelände manövriert, das aus einer Verkettung von ebenen Oberflächen besteht. Unter der Annahme, dass die Fahrgeschwindigkeit separat auf einen gewünschten Wert geregelt wird, gewährleistet der vorgeschlagene Regelungsansatz die Geländeanpassung und garantiert, dass das Fahrzeug während der Aufgabe nicht mit dem Boden kollidiert. Die vorgeschlagene Steuerung erfasst einen optischen Fluss von mehreren räumlich getrennten Beobachtungspunkten, die typischerweise über mehrere Kameras oder nicht kollineare Richtungen in einer einzigen Kamera erhalten werden. Der vorgeschlagene Regelalgorithmus wurde ausgiebig in Simulationen getestet und dann auf einem Quadrotor-UAV implementiert, um die Leistung des geschlossenen Regelkreises zu demonstrieren.;-;-;-;https://link.springer.com/article/10.1007/s10514-010-9208-x 8a8c1a346ef69eb9d0de1dc6d1d0620c;de;;;1.2.;;;Ungleicher Austausch und die Gewinne aus dem Handel Das klassische Handelsmodell nach dem komparativen Vorteil basiert auf mehreren Annahmen, die bei der praktischen Anwendung des Theorems gelockert werden müssen. Abgesehen von dem Problem, von einem Zwei-Länder-Zwei-Waren-Rahmen verallgemeinern zu müssen, beruht der komparative Vorteil auf der Annahme identischer Produktionsfunktionen, Vollbeschäftigung und internationaler Immobilität der Produktionsfaktoren. Eine weitere Voraussetzung ist, dass vollkommener Wettbewerb innerhalb und zwischen Ländern besteht. Diese letztgenannte Bestimmung erscheint besonders unangemessen bei der Beschreibung der Beziehungen zwischen den meisten Industrie- und Entwicklungsländern.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-16585-8_2 0a323667eb88f8bf95c16c2e22125398;de;;;1.2.;;;Trajektorienoptimierung eines elektrohydraulischen Roboters Der elektrohydraulische Roboter hat ein großes Antriebsmoment und spielt eine unersetzliche Rolle in der Fertigung. In diesem Beitrag wird eine Trajektorienplanungsmethode für einen 6-DOF elektrohydraulischen Roboter basierend auf Zeit-Energie-Ruck vorgeschlagen und realisiert. Es wurde eine Mehrzielfunktion des elektrohydraulischen Roboters über Arbeitseffizienz, Schlagkraft, Stabilität und Energieverbrauchsfaktoren erstellt, gleichzeitig wurden auch die kinematischen und dynamischen Zwangsfunktionen erstellt. Die multi-objektive Trajektorienfunktion des Roboters wurde unter Verwendung des nicht-dominierten, nachbarschaftsimmunen genetischen Algorithmus optimiert und die optimalen Positions-, Geschwindigkeits-, Beschleunigungs- und Ruckplanungskurven jedes Gelenks wurden erhalten. Im Experiment wurden die Durchfluss-Ausgangskurven des Hydrauliksystems von Gelenk 6 basierend auf der Fuzzy-PID-Regelstrategie im Leerlauf, 1,5 kg Last, 4 kg Last erhalten und zeigen, dass die Geschwindigkeits- und Positionstrajektorie des Gelenks mit der vorgestellten Fuzzy-PID-Regelstrategie gut geregelt werden.;-;-;-;https://link.springer.com/article/10.1007/s12206-020-0919-4 964bf9c159395aea5604ca86b28dce11;de;;;1.2.;;;Bayesianismus versus Baconianismus bei der Beurteilung medizinischer Diagnosen Die Medizin ist ein hervorragendes Beispiel für einen Bereich, in dem Rückschlüsse oft unter Unsicherheiten gezogen werden müssen, weil entweder weitere Therapieverzögerungen zu riskant oder weitere Tests oder Untersuchungen zu teuer wären. Mit den Worten von Sardeman, 1964, S. 142: „Wenn Sie alle Labortests für alle durchführen würden, würden Sie nie fertig werden, und niemand könnte dafür bezahlen.“ Aber einige unsichere Schlussfolgerungen sind weniger zuverlässig als andere, und es ist wichtig, die richtigen Unterscheidungen treffen zu können hier. Wie ist also die diagnostische Unsicherheit einzustufen? Zwei Modelle zur Bewertung medizinischer Diagnosen stehen heute oft in scheinbarem Widerspruch zueinander. Die erste ist erklärtermaßen Bayesianisch. Die zweite ist in ihrer Logik nachweislich baconisch, obwohl sie sich normalerweise nicht als solche auffasst. Der Zweck des vorliegenden Papiers besteht darin, den Unterschied zwischen diesen beiden Modellen zu verdeutlichen und zu zeigen, dass sie, wenn sie auf ihre legitimen Rollen beschränkt sind, nicht miteinander in Konflikt geraten.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-2020-5_13 95afb2e29f32616fc41b8f8c513217e0;de;;;1.2.;;;SQUIDs und Übergangskantensensoren 1988 beginne ich als Doktorand in Blas Cabreras Gruppe an der Stanford University. Mich hat der Fokus der Gruppe auf grundlegende physikalische Fragen mit einem empfindlichen neuen Detektortyp angezogen: dem supraleitenden Übergangskantensensor (TES). Diese Sensoren hatten jedoch wichtige Mängel. Sie waren instabil, sie waren langsam, und sie konnten nicht dazu gebracht werden, in Arrays zu arbeiten. Ich beschreibe die Entdeckung als Doktorand, dass die Josephson Junction und der SQUID-Verstärker, die es ermöglicht, all dies ändern. Diese Entdeckung hat zu Generationen der Wissenschaft mit Detektoren für dunkle Materie, Röntgenspektrometern und kosmischen Mikrowellenhintergrundexperimenten geführt.;-;-;-;https://link.springer.com/article/10.1007/s10948-020-05730-9 70ea411f7d84ba9a018e1a1502b17ea0;de;;;1.2.;;;In einem Augenblick Die mathematische Analyse dieses Papiers zeigt, wie die Auswirkungen strategischer lokaler Symbiose einen außergewöhnlichen Mechanismus zur Steigerung der Produktivität in stark wettbewerbsorientierten Umgebungen darstellen. Die auffälligste Konsequenz unserer Analyse ist, dass die Produktivität in Kooperationsgebieten explodieren kann, obwohl einige der Arten an anderer Stelle aufgrund der Aggressionen von Konkurrenten aussterben könnten. Als Nebenprodukt wird erkannt, warum strategische Symbioseeffekte helfen, das massive Aussterben von Populationen oder Industrie- und Finanzunternehmen zu vermeiden. Darüber hinaus wurde numerisch beobachtet, dass Aggressionen auf hohem Niveau bei lokaler strategischer Symbiose eine erhebliche Zunahme der Komplexität des Systems hervorrufen können, ein Mechanismus, der die außergewöhnliche Biodiversität der Biosphäre der Erde erklären könnte, sowie die Komplexität der Weltwirtschaft.;-;-;-;https://link.springer.com/chapter/10.1007/3-7643-7385-7_17 8bdf0de9144cec41e4a66895d51fd40e;de;;;1.2.;;;Verkehrsvorhersage-unterstützter dynamischer Energiesparmechanismus für drahtlose IEEE 802.16e-MANs Wie der Energieverbrauch hauptsächlich durch Batteriebetrieb reduziert werden kann, um die Standby-Zeit zu verlängern, ist eine der entscheidenden Fragen für IEEE 802.16e Wireless MANs. Durch Vorhersage der nächsten Downlink-Inter-Paket-Ankunftszeit wurden drei verkehrsvorhersageunterstützte Energiesparmechanismen basierend auf P-PSCI, d. h. PSCI-PFD, PSCI-ED und PSCI-LD, vorgeschlagen. Darüber hinaus wurden auch die entsprechenden Anpassungsstrategien für P-PSCI vorgestellt, wenn im Schlafmodus Uplink-Pakete zu übertragen waren. Simulationsergebnisse zeigen, dass der vorgeschlagene Mechanismus P-PSCI im Vergleich zu dem von IEEE 802.16e empfohlenen Schlafmodus-Algorithmus aufgrund der Berücksichtigung der Verkehrseigenschaften und Ratenänderungen sowohl die Energieeffizienz als auch die Paketverzögerung für IEEE 802.16e verbessern kann. Darüber hinaus zeigen die Ergebnisse auch, dass PSCI-PFD (;-;-;-;https://link.springer.com/article/10.1007/s11771-013-1647-z ba498985876cfa78fa018fdf9894b35c;de;;;1.2.;;;Generieren von Sound und ressourcenbewusstem Code aus Hybridsystemmodellen Moderne eingebettete Echtzeitsysteme sind komplexe, verteilte, funktionsreiche Anwendungen. Die modellbasierte Entwicklung von Echtzeit-Embedded-Systemen verspricht eine Vereinfachung und Beschleunigung des Implementierungsprozesses. Obwohl es geeignete Modelle zum Entwerfen solcher Systeme und einige Tools gibt, die die automatische Codegenerierung aus solchen Modellen unterstützen, müssen noch einige Probleme im Zusammenhang mit der Sicherstellung der Korrektheit der Implementierung in Bezug auf das Modell angegangen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-70930-5_4 009566b8ca2da15634058333318afc41;de;;;1.2.;;;Polyester- und Polyamid-Hochleistungs-Schmelzklebstoffe Schmelzklebstoffe sind seit Jahrhunderten bekannt. Historisch wurden Mischungen aus natürlichen Wachsen, Kolophonium, Pech und anderen natürlich vorkommenden Stoffen allein oder in Mischungen verwendet, um Dichtungsmassen für eine Vielzahl von Anwendungen herzustellen. Doch erst Anfang der 1950er Jahre kamen Hotmelts auf Basis synthetischer Polymere auf den Markt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0671-9_28 5173d5d69b54c96deb1f15ec83b4536e;de;;;1.2.;;;Eine Bildsegmentierungsmethode mit automatischem Schwellenwert basierend auf einem verbesserten genetischen Auswahlalgorithmus In diesem Artikel wird ein Bildsegmentierungsverfahren vorgestellt, das einen automatischen Schwellenwert verwendet, der auf einem verbesserten genetischen Auswahlalgorithmus basiert. Der optimale Schwellenwert für die Bildsegmentierung wird bei diesem neuen Verfahren in ein Optimierungsproblem umgewandelt. Um gute Effekte für die Bildsegmentierung zu erzielen, wird der optimale Schwellenwert gelöst, indem die Optimierungseffizienz eines verbesserten genetischen Auswahlalgorithmus verwendet wird, der ein globales Optimum erreichen kann. Der genetische Selektionsalgorithmus wird optimiert, indem simulierte Annealing-Temperaturparameter verwendet werden, um geeignete Selektionsdrücke zu erreichen. Codierung, Crossover, Mutationsoperator und andere Parameter des genetischen Selektionsalgorithmus werden bei diesem Verfahren mäßig verbessert. Es kann die Unzulänglichkeiten der existierenden Bildsegmentierungsverfahren überwinden, die nur Pixel-Grauwerte berücksichtigen, ohne räumliche Merkmale und die große Rechenkomplexität dieser Algorithmen zu berücksichtigen. Die Versuchsergebnisse zeigen, dass der neue Algorithmus die Optimierungszeit stark reduziert, die Antirauschleistung der Bildsegmentierung verbessert und die Effizienz der Bildsegmentierung verbessert. Experimentelle Ergebnisse zeigen auch, dass der neue Algorithmus einen besseren Segmentierungseffekt erzielen kann als der von Otsu, wenn die Graustufenverteilung des Hintergrunds ungefähr der Normalverteilung folgt und die Zielregion kleiner als die Hintergrundregion ist. Daher kann das neue Verfahren die nachfolgende Verarbeitung für Computer Vision erleichtern und kann auf die Echtzeit-Bildsegmentierung angewendet werden.;-;-;-;https://link.springer.com/article/10.3103/S0146411616060092 616cca347fd873fcd5ac93373c015c5a;de;;;1.2.;;;Spekulation und Dissipation …Pendant trois années, j'avais rassemblé des Dokumentes, etc . Cette note de l’or et de la chair, cette note du ruissellement des millions et du bruit grandissant des orgis, sonnait si haut et si continulement, que je me décidai à la donner. J’écrivis;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-06097-9_6 171f6f6cff6a4aabc5fb72839061f987;de;;;1.2.;;;β-Galactosidase-Mangel bei einer Korat-Katze: eine neue Form des felinen G Eine 7 Monate alte Korat-Katze wurde wegen einer langsam fortschreitenden neurologischen Erkrankung überwiesen. Zirkulierende Monozyten und Lymphozyten zeigten das Vorhandensein einzelner oder mehrerer leerer Vakuolen und der Blutleukozyten-Enzym-Assay zeigte eine sehr niedrige β-Galactosidase-Aktivität (4,7 nmol/mg pro Stunde) im Vergleich zu nicht betroffenen Eltern und Verwandten. Histologisch zeigte die Katze, die im Alter von 21 Monaten auf Wunsch des Besitzers eingeschläfert wurde, eine diffuse Vakuolisierung und Vergrößerung von Neuronen im gesamten Gehirn, Rückenmark und peripheren Ganglien, einen schweren Verlust von Nervenzellen des Kleinhirns und eine moderate Astrozytose. Das gelagerte Material wurde mit Periodsäure-Schiff auf Gefrierschnitten und mit den Lektinen gefärbt;-;-;-;https://link.springer.com/article/10.1007/s004010050899 769187e14a58a915684d5dbab1a649ba;de;;;1.2.;;;Charakterisierung eines bedeutenden Photosynthese-Genclusters aus dem Heliobacterium Bakterielle Photosynthese wird in fünf Hauptgruppen von Eubakterien gefunden: Cyanobakterien, Purpurbakterien, Heliobakterien, grüne Schwefelbakterien und grüne Nichtschwefelbakterien. Die Analyse von Photosystemen von violetten und grünen Nicht-Schwefel-Bakterien zeigt, dass diese Organismen primitive Photosysteme synthetisieren, die Vorfahren des komplexeren Sauerstoff entwickelnden Photosystems II (PSII) aus Cyanobakterien und Chloroplasten sind (1). Weitere Studien an Heliobakterien und grünen Schwefelbakterien weisen darauf hin, dass sie Photosysteme synthetisieren, die dem Photosystem I (PSI)-Komplex aus Cyanobakterien und Chloroplasten angehören (2). Mit Ausnahme der Sequenzanalyse von PSI- und PSII-Strukturpolypeptiden gibt es nur wenige Informationen über den Ursprung und die Evolution der Photosynthese. Vollständige Sequenzinformationen zu Photosynthesegenen sind nur für das violette Nicht-Schwefel-Bakterium verfügbar,;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-3953-3_666 e0a0524c17bfdb40f2f2a8af1141813a;de;;;1.2.;;;Stabilität und Hopf-Bifurkation für ein virales Infektionsmodell mit verzögerter nicht-lytischer Immunantwort In dieser Arbeit wird eine Klasse eines allgemeineren viralen Infektionsmodells mit verzögerter nicht-lytischer Immunantwort vorgeschlagen, basierend auf einigen wichtigen biologischen Bedeutungen. Die hinreichenden Kriterien für lokale und globale asymptotische Stabilitäten des viralen freien Gleichgewichts sind angegeben. Und die Stabilität und Hopf-Bifurkation des infizierten Gleichgewichts wurden untersucht. Numerische Simulationen werden durchgeführt, um die mathematischen Schlussfolgerungen und die Auswirkungen der Geburtenrate anfälliger T-Zellen und die Wirksamkeit der nicht-lytischen Komponente auf die Stabilität des positiven Gleichgewichts zu erklären;-;-;-;https://link.springer.com/article/10.1007/s12190-009-0285-y fd6cda1a0cdbe33cbfb989b0c5ac6532;de;;;1.2.;;;Assoziationen verschriebener ADHS-Medikamente in der Schwangerschaft mit schwangerschaftsbezogenen Ergebnissen und Nachkommen: Eine systematische Überprüfung Immer mehr Frauen im gebärfähigen Alter nehmen Medikamente gegen Aufmerksamkeitsdefizit-/Hyperaktivitätsstörung (ADHS). Die Ergebnisse aus Studien zur Sicherheit dieser Medikamente während der Schwangerschaft sind gemischt, und es ist unklar, ob Assoziationen kausale Wirkungen widerspiegeln oder teilweise oder vollständig durch andere Faktoren erklärt werden könnten, die sich zwischen exponierten und nicht exponierten Nachkommen unterscheiden.;-;-;-;https://link.springer.com/article/10.1007/s40263-020-00728-2 a76a5562c09c9e6275921ee7f76ac175;de;;;1.2.;;;Schätzung der Infektionsdichte und Epidemiegröße von COVID-19 mithilfe des Rückrechnungsalgorithmus Das neuartige Coronavirus (COVID-19) breitet sich weltweit weiter aus, forderte am 21. April 2020 mehr als 160.000 Menschenleben und erkrankte mehr als 2.400.000 Menschen. Dies bedeutet, dass die Mehrheit der Bevölkerung ansteckungsgefährdet ist, wenn keine Interventionsmaßnahmen ergriffen werden. Das wahre Ausmaß der COVID-19-Epidemie bleibt unbekannt, da ein erheblicher Anteil der Infizierten nur leichte Symptome zeigt oder sogar asymptomatisch ist. Eine rechtzeitige Einschätzung des sich entwickelnden Ausmaßes der Epidemie ist von entscheidender Bedeutung für die Ressourcenzuweisung und die Triage-Entscheidungen. In diesem Artikel modifizieren wir den Rückrechnungsalgorithmus, um eine untere Grenze der Schätzung der Zahl der COVID-19-infizierten Personen in China innerhalb und außerhalb der Provinz Hubei zu erhalten. Wir schätzen die Infektionsdichte unter den Infizierten und zeigen, dass die drastischen Kontrollmaßnahmen, die nach der Sperrung der Stadt Wuhan in ganz China durchgesetzt wurden, die Ausbreitung der Krankheit innerhalb von zwei Wochen effektiv verlangsamt haben. Wir untersuchen auch das Ausmaß der COVID-19-Epidemie in Südkorea und finden einen ähnlichen Effekt seiner Strategie „Testen, verfolgen, isolieren und behandeln“. Von unseren Ergebnissen wird erwartet, dass sie Richtlinien und Aufklärung für Überwachungs- und Kontrollaktivitäten von COVID-19 in anderen Ländern auf der ganzen Welt liefern.;-;-;-;https://link.springer.com/article/10.1007/s13755-020-00122-8 7a1411f3777da41e11aeb62337db9106;de;;;1.2.;;;Asymmetrische Merkmale für zwei Arten von ENSO Es gibt zwei Arten von ENSO, nämlich die ostpazifische (EP) ENSO, die durch die wärmsten (kältesten) SST-Anomalien im östlichen äquatorialen Pazifik gekennzeichnet ist, und die zentralpazifische (CP) ENSO, deren maximale (minimale) SST-Anomalien über dem zentralen äquatorialen Pazifik. Asymmetrische Merkmale von SST-Anomalien für die EP- und CP-Typen von ENSO-Ereignissen und ihre möglichen Mechanismen wurden mithilfe einer Vielzahl von Daten im Zeitraum 1961–2010 analysiert. Die Reaktionen der atmosphärischen Zirkulation auf die beiden Arten von ENSO wurden ebenfalls diskutiert. Die Ergebnisse zeigten asymmetrische Merkmale von SST-Anomalien in Bezug auf räumliche und zeitliche Verteilung und Intensität. Obwohl sich die vorherrschenden Mechanismen sowohl im Entwicklungs- als auch im Zerfallsstadium unterschieden, spielte die ozeanische Vertikaladvektion eine Schlüsselrolle bei der asymmetrischen Intensität der beiden ENSO-Ereignisse. Darüber hinaus zeigten sowohl lokale als auch entfernte atmosphärische Reaktionen starke asymmetrische Signale, die mit der asymmetrischen Verteilung von SST-Anomalien übereinstimmen. Die asymmetrischen atmosphärischen Reaktionen in EP-ENSO (CP-ENSO) waren ähnlich wie bei EP-El Ni˜no (CP-La Ni˜na). Die Intensität der asymmetrischen Reaktionen bei EP-ENSO war viel stärker als bei CP-ENSO.;-;-;-;https://link.springer.com/article/10.1007/s13351-015-5044-4 c48327966619cde0996126382c2c8a84;de;;;1.2.;;;Studien zu Methoden zur Untersuchung von Kohlenhydraten Die Kohlenhydrattoleranz von 50 Kontrollfrauen und 101 Frauen mit klinischem Verdacht auf „potenziell“ diabetisch („prädiabetisch“) wurde durch die kombinierte Anwendung von vier Tests, oral, intravenös, Kortison-Glukose-Toleranztest und Prednison-Glykosurie-Test, untersucht. — Obwohl die Ergebnisse die Ansicht bestätigen, dass keiner der Tests ausreichend zuverlässig ist, scheinen die intravenösen und Cortison-GTTs hierfür besser geeignet zu sein. — Somit ist die intravenöse G.T.T. zeigten eine bemerkenswerte Reproduzierbarkeit und eine zufriedenstellende Beziehung zwischen beeinträchtigten Ergebnissen und geburtshilflichen Vorgeschichten, die stark auf potenzielle Diabetes hinweisen, wie übergewichtige Babys und perinatale Todesfälle bei Säuglingen. Der Test ist jedoch schwierig durchzuführen und richtig zu interpretieren und es treten häufig grenzwertige Ergebnisse auf. — Bei Patienten mit starker klinischer Vorgeschichte und beeinträchtigten intravenösen GTTs konnte bei oraler GTT oft keine vermutlich zugrunde liegende Anomalie aufgedeckt werden. — Kortison-G-.T.T. erwies sich als empfindlicher als der orale und einfacher als der intravenöse Test, er scheint ein geeigneter Test für Screening-Zwecke in der Schwangerschaft zu sein. — Der Prednison-Glykosurie-Test ergab einen hohen Anteil falsch positiver Ergebnisse, insbesondere bei Probanden mit Nierenglykosurie, daher ist er in der Schwangerschaft von zweifelhaftem diagnostischem Wert. — Die Schwangerschaft scheint eine fortschreitende diabetogene Wirkung auszuüben, die bei prädisponierten Personen stärker ausgeprägt ist, daher zeigen Tests mit größerer Wahrscheinlichkeit Anomalien im dritten Trimester. — Drei Frauen, die alle beeinträchtigte intravenöse G.T.T.s hatten, verloren in dieser Schwangerschaft ihre Babys. Es wird vorgeschlagen, dass die Früherkennung potenzieller Diabetiker und eine angemessene geburtshilfliche Versorgung von größter Bedeutung sind, um die perinatale Mortalität zu senken.;-;-;-;https://link.springer.com/article/10.1007/BF01222067 b98cf2ed2fc222f2b32ba2b69c98da05;de;;;1.2.;;;Über die subtropische Nordostpazifik-Mischschichttiefe und deren Einfluss auf die Subduktion Die vorliegenden Klimasimulationen der Mischschichttiefe (MLD) und der Subduktionsrate im subtropischen Nordostpazifik werden anhand von neun der CMIP5-Modelle untersucht. Im Vergleich zu den Beobachtungsdaten werden in diesen Modellen räumliche Muster der MLD und der Subduktionsrate gut simuliert. Das räumliche Muster der MLD ist ungleichmäßig, mit einer lokalen maximalen MLD (>140 m) Region, die im Spätwinter bei (28°N, 135°W) zentriert ist. Das ungleichmäßige MLD-Muster verursacht eine starke MLD-Front im Süden des MLD-Maximumbereichs, steuert das seitliche Induktionsratenmuster und entscheidet dann über die ungleichmäßige Verteilung der Subduktionsrate. Aufgrund der interregionalen Unterschiede der MLD teilen wir diesen Bereich in zwei Regionen auf. Das relativ gleichförmige Ekman-Pumpen hat wenig Einfluss auf das ungleichförmige räumliche Subduktionsmuster, obwohl es in den Werten fast gleich der seitlichen Induktion ist. In der südlichen Region wird die warme Ekman-Advektion nach Norden (–1,75×10;-;-;-;https://link.springer.com/article/10.1007/s13131-017-1102-3 c8dcf03dc5e5810902b7cc44fbf70136;de;;;1.2.;;;Verwendung radiometrischer (Cs-137, Pb-210), geomorpher und stratigraphischer Techniken zur Datierung neuer Altwassersedimente in der Rio-Puerco-Entwässerung Grants-Uran-Region, New Mexico In Ermangelung historischer geochemischer Basisdaten für die Uranregion Grants können Umweltveränderungen aufgrund von Uranmine-Mühl-Aktivitäten nur durch indirekte Methoden bestimmt werden. Auf der Grundlage kombinierter geomorphologischer, stratigraphischer und radiometrischer Datierungstechniken wurde eine Methodik zur Bestimmung des Alters neuer Sedimente in Bächen entwickelt, die die Region entwässern. Da tonreiche Sedimente mögliche Radionuklide und Schwermetalle enthalten, die aus Mineralisierungen und abgebauten Quellen stammen, befanden sich Probenstandorte mit feinkörnigen Ablagerungen, die sowohl vor als auch nach der Minen-Mühl-Aktivität vorhanden waren, in verlassenen Kanalsegmenten (Oldbows) wichtiger Bäche, die die östlichen Grants entwässern Uran-Region. Luftaufnahmen (und abgeleitete Karten), die zwischen 1935 und 1971 aufgenommen wurden, lieferten die historische und geomorphologische Dokumentation der ungefähren Daten der Altwasserbildung und des Alters der Schwemmlandauffüllungen in den verlassenen Kanalsegmenten. An diesen Altarmen wurden Gruben gegraben, um die Stratigraphie und Zusammensetzung der Ablagerungen zu bestimmen. Proben von Grubenwänden und Bohrlöchern unterhalb der Gruben wurden einer radiometrischen Analyse durch Gammastrahlenspektrometrie auf das künstliche Radionuklid Cs-137 und das natürliche Radionuklid Pb-210 sowie andere U-238- und Th-232-Tochter unterzogen. Aufgrund der dynamischen Natur des Systems war eine absolute Datierung mit Cs-137 nicht möglich, aber Proben konnten entweder vor oder nach 1950 datiert werden. Das Datum 1950 ist wichtig, da es den Beginn des Uranabbaus in der Region markierte. Die Pb-210-Datierung war nicht möglich, da Hintergrund-Pb-210 im Vergleich zu Fallout-Pb-210 sehr hoch war.;-;-;-;https://link.springer.com/article/10.1007/BF02574815 cc4bcdb132ea07fc63bf683240a10da2;de;;;1.2.;;;Lymphozyten-Subpopulationen und Funktionen bei Überempfindlichkeitsstörungen Während der letzten 15 Jahre hat uns der Fortschritt beim Verständnis der Struktur und Funktionen von lymphoiden Organen, Zellen und Molekülen ein besseres Verständnis ihrer Rolle bei verschiedenen immunologischen Phänomenen ermöglicht. Dies hat uns an einen Punkt der klinischen Anwendung gebracht. Tierversuche und Naturexperimente am Menschen haben zur Entdeckung eines zweikomponentigen Immunitätskonzepts geführt (Cooper;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-0988-8_3 674d825531d9ec840d8ac0a9496c12fb;de;;;1.2.;;;Extraktion von Kaufmustern im E-Commerce-Markt für Convenience-Stores mithilfe der Kunden-Cube-Analyse Dieses Papier schlägt eine Methode vor, um das Kaufverhalten von Kunden durch die Analyse von Kaufverlaufsdaten in Zeitreihen zu erfassen. Diese Art von Daten wird konventionell mit den beiden Achsen Merchandise und Customer analysiert. In diesem Papier verwenden wir eine Analysemethode namens „Customer Cube“, die die Daten in den drei Dimensionen der Achsen Merchandise, Customer und Time analysiert. Als Ergebnis von Analysen mit dem Customer Cube haben wir drei Arten von Kaufmustern aus den Kaufhistoriendaten einer CVS EC-Site extrahiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30132-5_71 5ce8777927ba3b00bbbcdb852909fefd;de;;;1.2.;;;Mobile Roboter sammeln Algorithmen mit lokaler schwacher Multiplizität in Ringen Das Sammelproblem anonymer und unbewusster mobiler Roboter ist eines der grundlegenden Probleme in der theoretischen mobilen Robotik. Wir betrachten das Sammelproblem in unorientierten und anonymen Ringen, das erfordert, dass sich alle Roboter an einem nicht vordefinierten Knoten sammeln. Da das Sammelproblem nicht ohne zusätzliche Fähigkeiten von Robotern gelöst werden kann, gehen alle vorherigen Arbeiten von einigen Fähigkeiten von Robotern aus, wie beispielsweise dem Zugriff auf den Speicher auf dem Knoten. In diesem Beitrag konzentrieren wir uns auf die Multiplizitätsfähigkeit. Dieses Papier präsentiert einen deterministischen Sammelalgorithmus mit;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13284-1_9 0e0c3de2cce8f2b327af88903b8e90d7;de;;;1.2.;;;Hauptmechanismen in MM Dieses Kapitel gibt einen Überblick über wichtige Paradigmen, die die Architektur von MM stark beeinflussen. Wir beginnen mit einigen bekannten Beiträgen zur reinen Theorie der Makroökonomie, insbesondere konzentrieren wir uns auf die Arbeiten von Mundell und Fleming sowie auf Dornbuschs Modell der;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-59069-6_3 8ae3759d4b56d3e69a676d8bbf502964;de;;;1.2.;;;Keynote-Adresse Worldnet Ich habe mich für mein Thema „worldnet“ entschieden. Das Phänomen, das ich Worldnet nenne, ist eng mit der Entwicklung der Informatik als Disziplin verbunden. Wir feiern heute hier die Geburtsstunde der Informatik als Disziplin mit der ersten Abteilung des Landes für die Vergabe von Doktortiteln direkt hier bei Purdue. Viele der Forschungsergebnisse dieser Disziplin haben im Laufe der Jahre Eingang in die Praxis gefunden und kommen nun in diesem internationalen Netzwerk der Vernetzung zusammen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-1791-7_4 136f5fea0aed40a3d468b3cf327e931c;de;;;1.2.;;;Ein Fernerkundungsmodell zur Schätzung der Sonnenscheindauer in der autonomen Region Ningxia Hui, China Die Sonnenscheindauer (SD) ist stark mit der Sonneneinstrahlung korreliert und wird am häufigsten verwendet, um letztere abzuschätzen. Diese Studie erstellt ein Fernerkundungsmodell mit einer räumlichen Auflösung von 100 m × 100 m, um die SD für die autonome Region Ningxia Hui, China, abzuschätzen. Digitale Höhenmodelldaten (DEM) werden verwendet, um die Topographie widerzuspiegeln, und Wolkenprodukte des bildgebenden Spektroradiometers (MODIS) mit mittlerer Auflösung (Aqua MYD06_L2 und Terra MOD06_L2) werden verwendet, um den Sonnenscheinprozentsatz abzuschätzen. Basierend auf dem Gelände (z. B. Neigung, Ausrichtung und Geländeabschattungsgrad) und den atmosphärischen Bedingungen (z. B. Luftmoleküle, Aerosole, Feuchtigkeit, Wolkenbedeckung und Wolkentypen) fließen auch Beobachtungsdaten von Wetterstationen in das Modell ein. Die Verifizierungsergebnisse zeigen, dass die Modellsimulationen mit den Beobachtungen einigermaßen übereinstimmen, wobei der durchschnittliche relative Fehler der gesamten täglichen SD 2,21 % beträgt. Eine weitere Datenanalyse zeigt, dass die Variation der geschätzten SD mit der der maximal möglichen SD übereinstimmt, ihre räumliche Variation ist so erheblich, dass die geschätzte SD zwischen den Süd- und Nordhängen signifikant variiert, und ihre saisonale Variation ist ebenfalls das ganze Jahr über groß.;-;-;-;https://link.springer.com/article/10.1007/s13351-015-4059-1 d24334905248724b87201ca280f00555;de;;;1.2.;;;Brownsche Bewegung Die Physik wird oft als verwurzelt betrachtet und beschäftigt sich bis heute mit der Erforschung bewegter Körper. Wir haben allen Grund zu der Annahme, dass historisch phänomenologische Versuche, die beobachteten zu beschreiben, Spekulationen über das zugrunde liegende dynamische Gesetz vorausgingen. Dieses Kapitel konzentriert sich auf die zufällige Bewegung, die erstmals 1828 von dem britischen Botaniker R. Brown beschrieben wurde, der den Pollen verschiedener im Wasser verteilter Pflanzen untersuchte. Jahre nach der Entdeckung begannen Wissenschaftler zu erkennen, dass jede Art anorganischer Substanz, nicht nur „lebende Materie“, im Prinzip das gleiche Phänomen aufweist und suchten daher nach einer Erklärung. Tatsächlich entstand viel später (nicht vor 1905) als Ergebnis eines Zusammenspiels von Physik und Mathematik eine respektable Theorie der Brownschen Bewegung. Derzeit die Aussichten für mögliche Anwendungen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-57886-1_1 c0578cd654bf54e1d576055ae397e77b;de;;;1.2.;;;Numerische Studie zur Wirkung von anthropogenen Aerosolen auf anhaltenden Frühlingsregen über Ostchina Die Wirkung anthropogener Aerosole auf den Frühlingsregen (SPR) über Ostchina wird mit einem hochauflösenden Community Atmosphere Model Version 5.1 (CAM5.1) untersucht. Die Ergebnisse zeigen, dass die SPR aufgrund von anthropogenen Aerosolen später beginnt, mit verkürzter Dauer und geringerer Niederschlagsmenge. Ein Absinken der Lufttemperatur über die niedrigen Breiten in Ostasien ist mit anthropogenen Aerosolen verbunden, ebenso eine Abschwächung südwestlich auf der Nordseite des subtropischen Hochs. Währenddessen steigt die Lufttemperatur in den hohen Breiten deutlich an. Dieser asymmetrische Nord-Süd-Thermoeffekt reduziert den meridionalen Temperaturgradienten und schwächt den oberen Westjet über Ostasien und die vertikale Bewegung über Südostchina. Dadurch wird die SPR reduziert und hat eine viel kürzere Dauer. Auch die indirekte Wirkung anthropogener Aerosole spielt eine wichtige Rolle bei der Veränderung der SPR. Die Konzentration der Wolkentröpfchen steigt aufgrund anthropogener Aerosole, die als Wolkenkondensationskerne wirken, was zu einer Verringerung des effektiven Wolkenradius über Ostchina und einer verringerten Niederschlagseffizienz dort führt.;-;-;-;https://link.springer.com/article/10.1007/s13351-014-3198-0 8bc518bcc2879130b0c1523e2ecc2d2d;de;;;1.2.;;;Paradigmen und Herausforderungen in der Stoßwellenforschung Die Stoßkompressionswissenschaft ist eine relativ neue Disziplin, die das Studium von Materialien in thermodynamischen Bereichen ermöglicht, die mit anderen Methoden nicht zugänglich sind. Die zugrunde liegende Motivation für diese Studien besteht darin, ein physikalisches Verständnis der dynamischen Materialreaktion zu fördern. Ein grundlegendes Verständnis der Materialkompression ermöglicht die Entwicklung von Materialmodellen zur Vorhersage der Reaktion von Materialien, die dynamischen Belastungen ausgesetzt sind. Die letzten fünfzig Jahre haben ein anspruchsvolles Forschungsumfeld hervorgebracht, in dem ein breites Spektrum experimenteller, theoretischer und rechnerischer Methoden zu diesem Zweck entdeckt und implementiert wurde. Als Ergebnis wurde eine Vielzahl von phänomenologischen Modellen für den Einsatz in numerischen Simulationen des Materialverhaltens unter komplexen Belastungsbedingungen entwickelt. Doch auch nach einem halben Jahrhundert intensiver Forschung gibt es noch eine Vielzahl von Schockprozessen, die nicht aufgelöst werden können;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0013-7_2 d6b8ad338eba33cbe10a89d370b7e829;de;;;1.2.;;;Schwangerschaften bei Frauen unter Nierenersatztherapie Eine erfolgreiche Schwangerschaft einer Frau unter Nierenersatztherapie (RRT) ist ein eindrucksvoller Beweis für das physiologische Wohlbefinden und die emotionale Rehabilitation. Es wurde bei Frauen mit funktionierenden Transplantaten mehr als tausend Mal berichtet, aber weitaus seltener bei Hämodialyse- und Peritonealdialyse-Patienten;-;-;-;https://link.springer.com/chapter/10.1007/978-0-585-36947-1_34 470385aa27308465a3c06bd216f6e24b;de;;;1.2.;;;Quantitative Methoden zur Erforschung von Landschaftsgrenzen Das Wiederaufleben des Interesses an Ökotonen kommt zu einem technologisch günstigen Zeitpunkt. Neue Geräte und Methoden, die in den letzten zehn Jahren entwickelt wurden, haben unsere Fähigkeit zur quantitativen Untersuchung von Ökotonen erheblich verbessert. Diese Fähigkeit ist wesentlich für die Entwicklung und Prüfung wissenschaftlicher Theorien zu Ökotonen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-2804-2_5 58563d995f2c78b490dbe2853e1b8e7e;de;;;1.2.;;;Management der modernen Wirtschaft: ökonometrische Spezifikation Das Erbe der Keynesianischen Revolution ist eine Methode oder ein Ansatz des makroökonomischen Managements, der versucht, das Nachfrageniveau durch fiskal- und geldpolitische Instrumente weitgehend, aber nicht vollständig zu manipulieren, um eine wirtschaftliche Stabilisierung zu erreichen. Es wurde angenommen, dass dies einen stetigen Betrieb der Wirtschaft bei oder nahe der Vollbeschäftigung bedeutet. In der offenen Wirtschaft muss dieser Ansatz um die Manipulation handelspolitischer Instrumente erweitert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-16092-1_11 54928c94a28f4aae6aa382164d43f563;de;;;1.2.;;;Prognose bei Bewusstseinsstörungen Bei Patienten mit anhaltenden Bewusstseinsstörungen (DOC) wird die klinische Entwicklung durch mehrere Faktoren bestimmt, die eng miteinander interagieren: Ätiologie, Alter des Patienten (beeinflusst wahrscheinlich den physiologischen Genesungsprozess, z der Schwere der Hirnschädigung), der strukturellen und funktionellen Integrität neuronaler Populationen (beurteilt durch neurophysiologische und bildgebende Verfahren) und das Vorhandensein klinischer Komplikationen, die sich auf Behandlungsstrategien auswirken könnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-55964-3_2 a93dc37a0c55dc8cc0b56a471b548ea5;de;;;1.2.;;;Kraniofaziale Rekonstruktion basierend auf multilinearer Subraumanalyse Die kraniofaziale Rekonstruktion zielt darauf ab, das Gesicht einer Person anhand ihres Schädels zu schätzen. Es kann in vielen multimedialen Diensten wie Forensik, Archäologie, Gesichtsanimation usw. angewendet werden. In dieser Arbeit wird eine statistische lernbasierte Methode für die 3D-kraniofaziale Rekonstruktion vorgeschlagen. Um die kraniofaziale Formvariation gut darzustellen und die Relevanz zwischen verschiedenen lokalen Regionen besser zu nutzen, werden zwei Tensormodelle für den Schädel bzw. die Gesichtshaut konstruiert und eine multilineare Subraumanalyse verwendet, um die kraniofazialen Subraummerkmale zu extrahieren. Eine auf der partiellen kleinsten Quadrate Regression (PLSR) basierende Abbildung vom Schädelunterraum zum Hautunterraum wird erstellt, wobei die Attribute wie Alter und BMI berücksichtigt werden. Bei einem unbekannten Schädel wird die 3D-Gesichtshaut anhand des gelernten Mappings mit Hilfe des Hauttensormodells rekonstruiert. Verglichen mit einigen anderen statistischen lernbasierten Methoden in der Literatur spiegelt die vorgeschlagene Methode die Formbeziehung zwischen dem Schädel und dem Gesicht direkter und richtiger wider. Außerdem hat das vorgeschlagene Verfahren wenig manuelle Eingriffe. Experimentelle Ergebnisse zeigen, dass die vorgeschlagene Methode gültig ist.;-;-;-;https://link.springer.com/article/10.1007/s11042-012-1351-2 076ddae29df7a07eea8dcfc6b05027b8;de;;;1.2.;;;Konvektiv gekoppelte äquatoriale Wellen, simuliert durch CAMS-CSM Die Chinese Academy of Meteorological Sciences hat ein Klimasystemmodell (CAMS-CSM) entwickelt, um an der bevorstehenden Phase 6 des Coupled Model Intercomparison Project (CMIP6) teilzunehmen. In dieser Studie haben wir die Modellleistung bei der Simulation der konvektiv gekoppelten Äquatorialwellen (CCEW) bewertet, indem wir die tägliche Niederschlagsmenge eines 23-jährigen gekoppelten Laufs mit den Niederschlagsbeobachtungsdaten des Global Precipitation Climatology Project (GPCP) verglichen haben. Vier dominante Modi von CCEWs, darunter Kelvin-, äquatoriale Rossby (ER), gemischte Rossby-Schwerkraft (MRG), tropische Depressions-Typ (TD-Typ) Wellen, und ihre Jahresmittel- und jahreszeitlichen Zykluseigenschaften werden untersucht. Es zeigt sich, dass die Charakteristik des Raum-Zeit-Spektrums jeder Wellenmode, die durch tropische gemittelte Niederschläge repräsentiert wird, durch CAMS-CSM sehr gut simuliert werden kann, einschließlich der Magnituden und der entsprechenden Tiefen. Die zonale Verteilung des wellenbedingten Niederschlags ist ebenfalls gut simuliert, mit den maximalen Zentren über dem Indischen Ozean und dem Pazifischen Ozean. Die meridionale Verteilung der Wellenaktivitäten ist jedoch schlecht simuliert, wobei die maximalen Zentren von der Nordhalbkugel zur Südhalbkugel verschoben sind, insbesondere die Kelvin-, MRG- und TD-Wellen. Der jahreszeitliche Zyklus jedes Wellenmodus wird im Allgemeinen vom Modell erfasst, aber ihre Amplituden über der südlichen Hemisphäre während des borealen Winters werden stark überschätzt. Der Grund für die übermäßige Wellenaktivität über dem südlichen Pazifik in der Simulation wird diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s13351-019-9021-1 170b86fe742babca8df1726a545a6d60;de;;;1.2.;;;Vorhersage der Endpreise von Online-Auktionen durch Splitting und Clustering von Zeitreihen Online-Auktionen ermöglichen den Nutzern, eine Vielzahl von Waren zu verkaufen und zu kaufen, und sie sind heute einer der wichtigsten Webdienste. Die Vorhersage der Endpreise bei Online-Auktionen ist eine schwierige Aufgabe. In den letzten zehn Jahren wurde jedoch viel Pionierarbeit geleistet. In diesem Beitrag schlagen wir eine neuartige Methode zur Vorhersage von Endpreisen vor, die eine Zeitreihen-Splitting- und Clustering-Methode verwendet, um eine höhere Genauigkeit zu erzielen. Eine Bewertung der Wirksamkeit unserer Methode ist ebenfalls in dem Papier beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29253-8_18 e9a3b0f45ed6e532a044aee27dbe0d61;de;;;1.2.;;;Klassische Themen der Fourier-Analyse Dieser Artikel widmet sich der „Harmonischen Analysis für sich“ (ein Zitat aus dem vorangegangenen Artikel), genauer gesagt spezifischen Problemen der klassischen Theorie der Fourierreihen (und in gewissem Umfang der Fourierintegrale). Die hier vorgestellten Ergebnisse haben vor allem mit Problemen der Spektralsynthese (Theoreme über Konvergenz und Summierbarkeit von Fourier-Reihen, Kapitel 1, 2), mit translationsinvarianten Operatoren (Kapitel 2) und mit Interpretationsproblemen in spektralen Begriffen zu tun (Kapitel 3, 4).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-02732-5_2 13760aeeb36fb81402fde8089b6e7117;de;;;1.2.;;;Ansätze des Kuhn-Tucker-Nachfragesystems zur marktunabhängigen Bewertung In diesem Kapitel fassen wir die jüngsten Fortschritte bei den Kuhn-Tucker-Nachfragesystemansätzen zur nichtmarktbezogenen Bewertung zusammen. In den letzten fünf Jahren wurden simulationsbasierte Schätz- und Wohlfahrtsberechnungsstrategien entwickelt, die es dem Kuhn-Tucker-Framework ermöglichen, politikrelevante Bewertungsfragen in Anwendungen mit vielen qualitätsdifferenzierten Gütern zu adressieren. Wir überprüfen diese Modellierungsinnovationen im Kontext von drei generischen Kuhn-Tucker-Spezifikationen, die sich hinsichtlich ihrer Fähigkeit unterscheiden, unbeobachtete Präferenzheterogenität zu berücksichtigen. Zur Veranschaulichung wenden wir die alternativen Spezifikationen auf kanadische Elchjagddaten an und präsentieren Parameter- und Tierschutzschätzungen. Wir schließen das Kapitel ab, indem wir wichtige Bereiche für zukünftige Forschungen im Rahmen von Kuhn-Tucker vorschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-3684-1_8 1c56d466bb20532ba094ac236631c5ca;de;;;1.2.;;;Straßennetze in Bezug auf Landschaftsformen: Implikationen für schnell wachsende Städte Neben sozioökonomischen Faktoren können große Landschaftsformen die Stadtstruktur und die Stadtform beeinflussen. Hier zeigen wir, dass Landformen signifikante Auswirkungen auf die Stadtform und Straßenmuster der schnell wachsenden iranischen Städte Dezful (ein Fluss) und Khorramabad (Berge und Täler) haben, aber keine eindeutigen Auswirkungen auf die Städte Yazd und Nain. Auch dort, wo die Straßenorientierung ihren Höhepunkt erreicht, ist die Gibbs/Shannon-Entropie (ein Maß für die Streuung oder Ausbreitung) gering, nimmt jedoch aufgrund von Landformbeschränkungen mit gleichförmigerer Verteilung zu. Die Straßen in den alten Innenstädten aller Städte sind im Durchschnitt kürzer und dichter (mehr Straßen pro Flächeneinheit) als die Straßen der neueren Außenbezirke. Die Entropien der äußeren Teile sind auch größer als die der inneren Teile, was darauf hindeutet, dass die Straßenlängenverteilung mit der Ausdehnung der Stadt allmählich mehr gestreut oder ausgebreitet wird. Alle diese Städte sind in den letzten Jahrzehnten schnell gewachsen, wobei die neueren äußeren Teile schnell expandierten. Wie hier gezeigt, haben die schnell geformten äußeren Teile (mit größerer Streuung der Straßenmuster) deutlich unterschiedliche Texturen von denen der älteren inneren Teile, was auf unterschiedliche Funktionalitäten und Wachstumsprozesse hindeutet. Diese quantitativen Methoden zur Straßennetzanalyse können weltweit eingesetzt werden, insbesondere zur Analyse der Auswirkungen von Landschaftsformen auf Stadtform und Textur.;-;-;-;https://link.springer.com/article/10.1007/s11442-014-1093-3 be5dcc9aea9753cffb41e62307ab2812;de;;;1.2.;;;RNA-Immunpräzipitationstechnik für RNA-bindende Proteine ​​spielen eine wichtige Rolle im RNA-Stoffwechsel, insbesondere bei der mRNA-Biogenese und der nachfolgenden Expressionsmuster-Regulierung. Die RNA-Immunpräzipitation (RIP) ist ein leistungsfähiges Werkzeug zum Nachweis von Protein-RNA-Assoziationen. In diesem Artikel behandeln wir kurz die Geschichte dieser Methode zur Analyse von RNA-Protein-Wechselwirkungen und besprechen eine Reihe von Modifikationen der RIP-Technik. Wir präsentieren auch ein angepasstes RIP-Protokoll, das für;-;-;-;https://link.springer.com/article/10.1134/S002689331606008X 6c711037d56afac140994ced20679216;de;;;1.2.;;;Gezeitenströmungen und vorübergehende Phänomene in der Straße von Messina: ein Rückblick Die Meerenge von Messina, die Sizilien von der italienischen Halbinsel trennt, wird seit Homers Zeiten untersucht. Wissenschaftler waren schon immer von seinen starken Strömungen fasziniert, die durch den Gegensatz der Gezeiten zwischen den beiden angrenzenden Tyrrhenischen und Ionischen Becken erzeugt werden. Gezeiten barotrope und barokline Strömungen bis zu 2 m/s, transiente barotrope Wirbel und nichtlineare Wellenzüge, wie sie aus Fern- und In-situ-Beobachtungen und im Lichte numerischer Modelle entdeckt wurden, werden hier analysiert und diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-0677-8_4 3ee4737299669733cb68abbca05e8573;de;;;1.2.;;;Auf dem Weg zu einer umweltfreundlichen Anti-Icing-Beschichtung Die Bildung, Adhäsion und Ansammlung von Eis und Schnee auf festen Oberflächen verursacht mehrere Probleme, wie eine verringerte Effizienz der Stromerzeugung, einen erhöhten Energieverbrauch und mechanische und/oder elektrische Fehler. Diese Probleme verursachen enorme wirtschaftliche Verluste und gefährden die Sicherheit von Elektrogeräten. Daher wurden große Anstrengungen unternommen, um den Mechanismus der Vereisung und die Beziehung zwischen Flüssigkeiten und Oberflächen bei niedrigen Temperaturen zu verstehen. Durch die Kontrolle der Eigenschaften von Oberflächenmerkmalen wie Benetzbarkeit, Topographie und Gleitfähigkeit haben Forscher verschiedene Anti-Eis- oder Eisphobie-Beschichtungen entwickelt. Trotz der vielfältigen Vorschläge und getesteten Szenarien sind die meisten dieser Beschichtungen jedoch unter einer einzigen atmosphärischen Bedingung nicht ausreichend eisabweisend, sodass ihre Anwendbarkeit in der Praxis begrenzt ist. Die Vereisungsbedingungen werden komplex und variabel, wenn sich die Umgebung ändert, was eine anpassungsfähigere eisbeständige Oberfläche erfordert. Dieses Kapitel fasst die jüngsten Fortschritte bei passiven Vereisungsschutzbeschichtungen, insbesondere stimuliresponsiven Vereisungsschutzbeschichtungen mit aktiver Oberflächenfunktion, die mit verschiedenen Methoden hergestellt wurden, zusammen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-92654-4_11 da7ad55453279b51e3676eed8a2518e3;de;;;1.2.;;;Wie erreicht man eine optimale antiproteinurische Dosis von Losartan bei nicht-diabetischen Patienten mit Proteinurie im nephrotischen Bereich? Obwohl das antiproteinurische Ansprechen auf eine antihypertensive Behandlung der Hauptprädiktor für die renoprotektive Wirksamkeit bei langfristiger Nierenerkrankung ist, basierten Studien zur Dosisfindung von Antihypertensiva bisher nur auf dem Blutdruck. Ziel der vorliegenden Studie war es, die optimale antiproteinurische Dosis des Angiotensin-II-Antagonisten Losartan zu finden. Eine offene Dosis-Wirkungs-Studie mit anschließenden sechswöchigen Behandlungsperioden wurde an zehn nicht-diabetischen Patienten mit einer Proteinurie (Uprot) von 5,8 ± 0,8 g/d und einem mittleren arteriellen Druck (MAP) von 103 ± 3,7 mmHg ohne Antihypertensiva durchgeführt Medikament. Alle Patienten hatten eine normale bis mäßig eingeschränkte Nierenfunktion. Nach der Baseline-Periode folgten fünf Perioden mit jeweils einer täglichen Losartan-Dosis von 50 mg, 100 mg, 150 mg, wiederum 50 mg und eine Erholung ohne Losartan. Am Ende jeder Periode wurden Uprot und MAP gemessen. Die aufeinanderfolgenden Losartan-Dosen hatten eine ähnliche antihypertensive Reaktion (–11,3 f 2,8 % bei der 100-mg-Dosis). Die optimale antiproteinurische Reaktion wurde bei 100 mg Losartan (−30 ± 8 %) erreicht. Die Dosis von 50 mg (−13 ± 7 %) war weniger wirksam und die Dosis von 150 mg (−28 ± 8 %) war nicht wirksamer. Wir schlussfolgern, dass 100 mg Losartan die optimale Dosis zur Reduktion der Proteinurie bei nicht-diabetischen Patienten mit nephroticrange Proteinurie ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1848-6_8 0f11764a9e4073d465f59413a2525ed4;de;;;1.2.;;;Omnidirektionale Sensorik für die Robotersteuerung Die meisten der heutigen mobilen Roboter sind mit einer Art omnidirektionaler Kamera ausgestattet. Die Vorteile solcher Sensoren bei Aufgaben wie Navigation, Zielsuche, Erscheinungsbild-basierte Lokalisierung sind nicht zu übersehen. In diesem Artikel gehen wir auf die grundlegenden Fragen ein, wie omnidirektionale Signale verarbeitet, die intrinsische Geometrie von omnidirektionalen Kameras mit einem einzigen Blickpunkt beschrieben, auf 3D-Bewegungen geschlossen und omnidirektionale Sensoren effizient platziert werden können, um eine vollständige Abdeckung zu gewährleisten.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36224-X_12 8cdf36a451557393b070c171aea30292;de;;;1.2.;;;Unterdiagnose von Asthma bei Kindern: Ein Vergleich von Umfrageschätzungen und klinischer Bewertung Diagnostische Muster spielen eine Rolle bei Schätzungen der Asthma-Prävalenz und könnten Auswirkungen auf das Krankheitsmanagement haben. Wir versuchten zu bestimmen, inwieweit aus einem Fragebogen abgeleitete Schätzungen von Asthma bei Kindern das wahre Auftreten der Krankheit widerspiegeln.;-;-;-;https://link.springer.com/article/10.2478/s13382-013-0162-7 a7f4d0069c83849fb56c9d63dab445fa;de;;;1.2.;;;Klinische Pharmakokinetik der Cephalosporine der dritten Generation Zu den Cephalosporinen der dritten Generation, die bereits auf dem Markt sind oder kurz davor stehen, gehören derzeit Cefsulodin, Cefotaxim, Cefoperazon, Latamoxef, Ceftriaxon, Ceftazidim, Ceftizoxim und Cefotetan. Andere neuere Verbindungen befinden sich ebenfalls in der Entwicklung, wurden jedoch nicht in diese Überprüfung aufgenommen.;-;-;-;https://link.springer.com/article/10.2165/00003088-198510020-00001 2f98c2099b6f5c739d88bf746f3c5739;de;;;1.2.;;;Abgrundzirkulation Die Basis der Thermokline in einer Tiefe von etwa 1 km stellt die untere Grenze des Bereichs der kräftigen Ozeanzirkulation dar, die durch den Windstress und die großräumige Verteilung von Erwärmung und Abkühlung angetrieben wird. Unterhalb dieser Region liegt ein riesiges Flüssigkeitsvolumen, das sich bis in eine Tiefe von typischerweise 4–5 km erstreckt, obwohl die Tiefe in der Nähe der großen mittelozeanischen Rückensysteme auf etwa 2 km abnimmt. Diese Region ist überall sehr kalt. Im Weltmeer beträgt die potentielle Temperatur praktisch überall unter 2 km weniger als 4 °C und liegt in den meisten Gebieten in dieser Tiefe näher bei 2 °C (zB Levitus 1982) und die Temperatur fällt typischerweise auf 0–2 °C bei 4 km . Dies;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-03204-6_7 4ed20a834c7ed00a170d1c016b65ff1e;de;;;1.2.;;;Zeolith-Diagenese unterhalb von Pahute Mesa, Nevada Test Site Das tertiäre siliziumhaltige Vulkangestein in der Silent Canyon Caldera unterhalb von Pahute Mesa des Nevada Test Site des Department of Energy wurde in drei vertikale mineralogische Zonen unterteilt, die in ihrer Mächtigkeit variieren und stratigraphische Grenzen überschreiten. Zonale Kontakte sind im Allgemeinen scharf. Zone 1, die oberste Zone, enthält unverändertes oder beginnend verändertes rhyolithisches Glas. Zone 2 ist durch eine Dominanz von Klinoptilolith und untergeordneten Mengen von Smektit, Cristobalit und Mordenit gekennzeichnet. Zone 3 ist eine komplexe Mineralzusammensetzung, die Analcim, Quarz, Calcit, authentischen Kalifeldspat und Albit, Kaolinit, Chlorit und Mischschicht-Illit/Smektit umfasst. Der Mischschichtton zeigt eine Zunahme der Ordnung und eine Abnahme der Expansionsfähigkeit mit der Tiefe.;-;-;-;https://link.springer.com/article/10.1346/CCMN.1981.0290508 f4e4b7fd80a456aaf880cb6fea438010;de;;;1.2.;;;Vorzeitige Wehen Vorzeitige Wehen entstehen, wenn bei einer schwangeren Patientin der Geburtsvorgang zwischen der 20. und der 36. Woche der Amenorrhoe beginnt. Sie kann bei einem Fötus auftreten, bevor er überlebensfähig ist (Frühgeburt mit nicht lebensfähigem Fötus) oder bei einem Empfängnisprodukt, das sich in einem ausreichenden Entwicklungszustand befindet, um es unter günstigen Umständen zu überleben (Frühgeburt mit lebensfähigem Fötus). Letzteres tritt in der Regel nach etwa 28 Schwangerschaftswochen auf und nur in Ausnahmefällen davor. Die Lebensfähigkeit von Frühgeborenen in einem früheren Gestationsalter ist das Ergebnis bewundernswerter Verbesserungen, die in den letzten zehn Jahren bei der Versorgung dieser Säuglinge erzielt wurden. Die allgemeine Inzidenz von Frühgeburten in den Vereinigten Staaten liegt in der Größenordnung von 10 %, wobei die Inzidenz in Untergruppen der Bevölkerung bis zu 20 % beträgt. Diese Zahlen beziehen sich auf das Gestationsalter (vor der 37. Woche) und nicht mehr auf das fetale Gewicht (unter 2500 g).;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-8296-3_11 5dfb66c8d9faca12713600e52d4e6801;de;;;1.2.;;;Der diabetische Fuß Die weltweite Bevölkerung, die an Diabetes mellitus leidet, nimmt stetig zu: 1995 wurden 135 Millionen Menschen mit dieser Krankheit geschätzt, für 2025 werden 300 Millionen Patienten prognostiziert (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-59363-5_14 3766746e9ce2e190b17cb833fdfcb7a7;de;;;1.2.;;;Ein neuartiges vollständig homomorphes Verschlüsselungsschema basierend auf LWE Obwohl das auf Lernen mit Fehlern (LWE) basierende vollständig homomorphe Verschlüsselungsschema das erste Beispiel für eine Abweichung vom ursprünglichen Gentry-Entwurf war, lieferte das Schema keinen detaillierten Umwandlungsprozess der Schaltungsschichtstruktur und muss sich auf die Bootstrapping-Technik verlassen, um vollständigen Homomorphismus zu erreichen. Daher wird durch Modifizieren der durch das obige Schema vorgeschlagenen Relinearisierungstechnik eine Technik präsentiert, die als Nicht-Matrix-Tastenumschaltung bezeichnet wird, die eine Tastenumschaltung mit Relinearisierung und eine reine Tastenumschaltung umfasst. Die komplexen Matrixoperationen der bestehenden Tastenvermittlungstechnik entfallen. Durch Kombinieren dieser Technik mit Modulus-Switching wird ein (nivelliertes) vollständig homomorphes Verschlüsselungsschema ohne Bootstrapping von LWE konstruiert. Um die Struktur der Schaltungsschicht klar zu machen, gibt das Schema einen detaillierten Refresh-Tür-Betrieb an. Schließlich verwenden wir Bootstrapping, um arithmetische Schaltungen auf eine beliebige Schicht aufzurüsten und die homomorphe Rechenfähigkeit des Schemas ohne Schaltungstiefe zu gestalten.;-;-;-;https://link.springer.com/article/10.1007/s11859-016-1142-0 2a937b89fc5db69d6a6aa8f8bd7d0ed3;de;;;1.2.;;;Probleme beim Transport radioaktiver Schlämme und vorgeschlagene Überwachungsausrüstung für den Standort Hanford Über 100 Millionen Gallonen radioaktiver Abfall werden derzeit in mehr als 270 großen unterirdischen Lagertanks in Nuklearreservaten des US-Energieministeriums (DOE) gelagert (Manke 1996). Von diesen Tanks befinden sich 177 am Standort Hanford im Südosten des Staates Washington (Gephart und Lundgren, 1996). Diese Tanks haben Kapazitäten von 50.000 Gallonen bis etwa 1.160.000 Gallonen. Der Abfall in den Tanks des Standorts Hanford besteht hauptsächlich als Flüssigkeiten (z. B. gesättigte Salzlösungen), Schlamm (eine Mischung aus Wasser und unlöslichen Metalloxiden und -hydroxiden) und Salzkuchen (feuchte wasserlösliche Salze wie Natriumnitrat).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-1543-6_14 724c81f43a9ed61e2cb8933ceac6ae13;de;;;1.2.;;;Ptolemäus – ein Instrument zur Messung stabiler Isotopenverhältnisse von Schlüsselflüchtigen auf einem Kometenkern Ein grundlegendes Ziel von Kometenstudien ist es, die genaue Beziehung zwischen diesen Körpern und dem Sonnensystem zu bestimmen – die Frage(n) können wie folgt zusammengefasst werden: Sind Kometen während derselben Ereignisse entstanden, die die Sonne und Planeten hervorgebracht haben, sind sie primitivere Körper? die eine vorsolare Geschichte aufzeichnen, oder handelt es sich um interstellares Material, das in relativ neuerer Zeit gesammelt wurde? Unabhängig von der Herkunft von Kometen ist es durchaus möglich, dass sie teilweise interstellare oder präsolare Komponenten enthalten könnten – tatsächlich erscheint es angesichts der Tatsache, dass primitive Meteoriten solche Wesen enthalten, eher wahrscheinlich. Diese besonderen Komponenten sind wahrscheinlich feuerfest (Staub, makromolekulare organische Komplexe usw.). Von größerer Bedeutung für die oben genannten Probleme sind die flüchtigen Bestandteile, die den Großteil der Kometenmasse ausmachen. Da sich diese Materialien naturgemäß während des Periheldurchgangs eines Kometen verflüchtigen, können sie in einigen Fällen spektroskopisch nachgewiesen und gemessen werden. Die vielleicht nützlichsten Spezies für Isotopenuntersuchungen sind C;-;-;-;https://link.springer.com/article/10.1007/s11214-006-9001-5 8f10982b9fa6c6e46b3eaf141d852b11;de;;;1.2.;;;Kernreaktionen, Niveaus und Spektren schwerer Kerne Das Studium der Kernreaktionen hat es uns ermöglicht, einen theoretischen Rahmen zu entwickeln, nach dem wir versuchen, die experimentellen Daten zu verstehen und zu sammeln, da dieser Rahmen noch lange nicht vollständig ist und ständig modifiziert und erweitert werden muss, wenn neue Fakten ans Licht kommen. Die Datenmenge ist mittlerweile so groß, dass sie am besten anhand dieses theoretischen Rahmens verdaut werden kann. In der folgenden Übersicht gehen wir daher das etwas unorthodoxe Verfahren ein, mit einer kurzen theoretischen Beschreibung von Kernreaktionen zu beginnen und anschließend die experimentellen Daten zu diskutieren. Dieses Verfahren hat einige Vorteile in Bezug auf Klarheit und Einfachheit der Darstellung, aber bei seiner Anwendung vernachlässigen wir die historische Entwicklung des Themas. Dies ist jedoch mittlerweile so umfassend, dass es unmöglich ist, in kurzer Zeit die frühe und mühevolle Arbeit, die zu unseren heutigen Ideen des Nukleus geführt hat, angemessen darzustellen oder auch nur zu erwähnen. Dem Leser wird hier eine kurze Zusammenfassung des Themas in seiner gegenwärtigen Form präsentiert, wir diskutieren das Frühwerk nur insoweit, als es für das Verständnis der Argumentation von unmittelbarer Bedeutung ist, so dass der Leser sich diese Informationen selbst besorgen muss aus allgemeinen Referenzen. Zu diesem Zweck widmen wir neueren Experimenten weit mehr Aufmerksamkeit, als ihre Qualität oder ihre endgültige Bedeutung rechtfertigen könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45875-0_2 7e93e46b2ae669b8e5f8013ba848e78d;de;;;1.2.;;;Modellierung historischer und zukünftiger räumlich-zeitlicher Beziehungen bewegter Objekte in Datenbanken Datenbanken mit beweglichen Objekten haben in letzter Zeit großes Interesse in der Datenbankgemeinschaft, in geografischen Informationssystemen und in den Geowissenschaften gefunden. Bisher konzentrierten sich bewegte Objektmodelle ausschließlich entweder auf vergangene oder zukünftige Bewegungen. Die sogenannte;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76292-8_38 754575c8dbbd743046d59a31f91e799a;de;;;1.2.;;;Gesundheitsindikatoren in EHR-Systemen in der Primärversorgung: Verfügbarkeit und Präsentation Die Prävention von Krankheiten wird neben der Behandlung von Krankheiten als wichtiger Bestandteil der Rolle des Arztes anerkannt. Mit hochwertigen Präventionsangeboten können Krankheiten frühzeitig erkannt, die Gesundheit der Bevölkerung erhalten und Gesundheitskosten gesenkt werden. Eine genaue und bequeme Messung der Qualität und Erbringung von Präventionsdiensten ist jedoch nicht ausreichend erreicht worden. In dieser Hinsicht sind primäre Leistungserbringer die wichtigsten Arbeitskräfte für die Bereitstellung von Präventionsdiensten, und elektronische Gesundheitsaktensysteme (EHR) sind die routinemäßig verwendeten Instrumente für diese Bereitstellung. In diesem Papier überprüfen und fassen wir die derzeit verwendeten Gesundheitsindikatoren zur Messung des Gesundheitszustands einer Person zusammen. Anschließend besuchen und interviewen wir vier Hausärzte, die vier verschiedene EHR/EMR-Systeme verwenden, um die Verfügbarkeit und Darstellung dieser Gesundheitsindikatoren in diesen Systemen zu überprüfen. Wir stellen fest, dass nur sehr wenige Gesundheitsindikatoren in . verfügbar sind;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48335-1_18 d8f4bee5d1adaedd92e020829ddf3f8e;de;;;1.2.;;;Dynamische Modellierung von Abhängigkeiten im Finanzwesen über Copulae zwischen stochastischen Prozessen Die Modellierung der stochastischen Abhängigkeit ist von entscheidender Bedeutung für die Preisbildung und Absicherung von Basket-Derivaten sowie für die Preisbildung und Absicherung einiger anderer Finanzprodukte, wie z. Der klassische Ansatz zur Modellierung der Abhängigkeit im Finanzwesen mittels statischer Copulae (und des Satzes von Sklar) ist für eine konsistente Bewertung und zeitliche Absicherung unzureichend. In dieser Übersicht stellen wir aktuelle Entwicklungen im Bereich der Abhängigkeitsmodellierung zwischen stochastischen Prozessen mit gegebenen Randgesetzen vor. Einige dieser Ergebnisse wurden bereits erfolgreich im Finanzbereich im Zusammenhang mit dem Portfolio-Kreditrisiko angewendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12465-5_2 6c8cd9eb5283d508d49f3a6323e0703d;de;;;1.2.;;;Strenger Beweis der kubischen Konvergenz für den dqds-Algorithmus für singuläre Werte Fernando und Parlett beobachteten, dass der dqds-Algorithmus für singuläre Werte mit Rutishausers Wahl der Verschiebung äußerst effizient gemacht werden kann, insbesondere genießt er „lokale“ (oder einstufige) kubische Konvergenz in der Endstufe der Iteration, wo eine bestimmte Bedingung zu zufrieden sein. Ihre Analyse ist jedoch eher heuristisch und das Gezeigte reicht nicht aus, um eine asymptotische kubische Konvergenz im engeren Sinne zu gewährleisten. Ziel dieser Arbeit ist es, eine konkrete Vorgehensweise für die Schaltstrategie zu spezifizieren und mit mathematischer Strenge zu beweisen, dass der Algorithmus mit dieser Schaltstrategie immer die „Endstufe“ erreicht und asymptotische kubische Konvergenz genießt.;-;-;-;https://link.springer.com/article/10.1007/BF03167513 a4e8d433330b97f91b167f7f5766c9c0;de;;;1.2.;;;Die Rolle von Helium bei der Behandlung von akutem Atemversagen Ramsey isolierte erstmals 1895 Helium aus dem Mineral Cleavit [1]. Mitte der 1930er Jahre beschrieb Barach erstmals seine Verwendung anstelle von Stickstoff als Trägergas für Sauerstoff [2]. Er empfahl es als Ergänzung zur Behandlung von Atemversagen, insbesondere bei obstruktiven Läsionen des Kehlkopfes, der Luftröhre und der Atemwege [1,3,4]. Helium erfreute sich kurzzeitig einer weiten Verbreitung, jedoch mit dem Ausbruch des Zweiten Weltkriegs wurden die Vorräte begrenzt und dies, gepaart mit pharmazeutischen Fortschritten, insbesondere auf dem Gebiet der aerosolisierten Bronchodilatatoren, führte zu seinem Untergang aus dem therapeutischen Arsenal In den letzten Jahren gab es eine kleine Wiederbelebung der experimentellen Verwendung von Helium bei einer Vielzahl von Patienten mit akutem Atemversagen. Das Ziel dieses Kapitels ist es, die theoretischen Gründe für seine Verwendung darzulegen, die begrenzten Versuchsdaten kritisch zu überprüfen und einige der praktischen Probleme bei der Verwendung von Helium in mechanischen Beatmungsgeräten kurz zu diskutieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-59467-0_38 b8a314741a41564018ecee18246094e3;de;;;1.2.;;;Bedingte Intensitäten und Wahrscheinlichkeiten Die in diesem Kapitel zu diskutierenden Ideen wurden in den letzten zwei Jahrzehnten sowohl von Ingenieuren als auch von Mathematikern und Statistikern intensiv weiterentwickelt. Das zugrunde liegende Thema ist die Notwendigkeit einer Theorie der Schätzung, Vorhersage und Kontrolle für Punktprozesse. In den späten 1960er und frühen 1970er Jahren begannen insbesondere Ingenieure, eine bemerkenswerte Analogie zwischen Punktprozessen und Diffusionsprozessen auszunutzen, wobei der Poisson-Prozess eine ähnliche Rolle wie die Brownsche Bewegung spielte. Frühe Arbeiten von Yashin (1970) in der Sowjetunion und Snyder (1972) und Rubin (1972) in den Vereinigten Staaten untersuchten die Analogie zwischen Filter- und Erkennungsproblemen für Punktprozesse und den Kaiman-Filtertechniken für Signal-aus-Rausch-Probleme in den USA Im Gaußschen Kontext ist die Analogie für doppelt stochastische (dh Cox-) Prozesse am nächsten. Der Aufsatz von Gaver (1963) kann als eine Art Vorläufer dieser Entwicklungen angesehen werden. Diesen Arbeiten folgten systematischere Studien in den Arbeiten von Brémaud (1972) und van Schuppen (1973) sowie Arbeiten von Boel, Varaiya und Wong (1975), Kailath und Segall (1975) und Davis (1976), nur einige erwähnen. Auf der probabilistischen Seite wurde die Möglichkeit einer starken Verbindung mit der Martingaltheorie bereits 1964 von Watanabe (1964) bemerkt, der eine Martingalcharakterisierung des Poisson-Prozesses gab, die Martingaltheorie wurde in Kunita und Watanabe (1967) weiterentwickelt. Eine Synthese dieser Ansätze wurde von Kabanov, Liptser und Shiryayev (1975) vorgestellt und in Band II von Liptser und Shiryayev (1978) aufgenommen. Weitere wichtige Übersichten finden sich bei Brémaud und Jacod (1977), Brémaud (1981), Shiryayev (1981) und Jacobsen (1982).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-2001-3_13 3d7ebaa9e28f43dd3e77d1124cbfc823;de;;;1.2.;;;Die Reformatoren in Wort und Tat In der Debatte um die Helden der Reformation war es ein zentrales Problem, das Verhältnis der Menschen zu ihren Ideen genau zu definieren. Dieses Problem wurde nie gelöst. Katholiken und Protestanten waren sich zumindest stillschweigend einig, dass der Mensch, der schwach, unvollkommen und zum Irrtum verurteilt ist, einen irdischen Führer braucht. Aber hier endete die Ähnlichkeit in ihren Positionen. Für Katholiken war die Kirche der sicherste Wegweiser, für Protestanten die Schrift, die jeder Einzelne nach seinen eigenen Vorstellungen interpretierte. Katholiken betrachteten die protestantische Position als anfällig für die Sünde des Stolzes. Um ihre Sache zu beweisen, verglichen sie die Worte mit den Taten der Reformatoren und fanden Diskrepanzen zwischen ihnen, diese Diskrepanzen waren für die Katholiken der Beweis dafür, dass die Reformatoren einen Weg gewählt hatten, der außerhalb der Kirche lag, von der Wahrheit abgekommen waren. Auf diese Weise versuchten Katholiken, protestantische Helden von ihren Sockeln zu stoßen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-2009-1_5 2c8fb507bef2aebb0f2a774f5855f0aa;de;;;1.2.;;;Vorhersage der Ausbreitung von COVID-19 durch gleitendes mSEIR-Beobachter Der Ausbruch von COVID-19 hat nicht nur in China, sondern auf der ganzen Welt beispiellose Herausforderungen mit sich gebracht. Tausende Menschen haben ihr Leben verloren, und das soziale Betriebssystem ist stark betroffen. Daher ist es dringend erforderlich, die Determinanten des Virus und den Gesundheitszustand in bestimmten Bevölkerungsgruppen zu untersuchen und Strategien und Maßnahmen zur Verhinderung der Ausbreitung der Epidemie aufzuzeigen. In dieser Studie wenden wir zunächst den Algorithmus des langen Kurzzeitgedächtnisses an, um die infizierte Bevölkerung in China vorherzusagen. Sie gibt jedoch keine Interpretation der Dynamik des Ausbreitungsprozesses. Auch der Langzeitvorhersagefehler ist zu groß, um akzeptiert zu werden. Daher führen wir das anfällig-exponierte-infiziert-entfernte (SEIR) Modell und weiter das Metapopulations-SEIR (mSEIR)-Modell ein, um den Ausbreitungsprozess von COVID-19 zu erfassen. Durch die Verwendung eines Schiebefensteralgorithmus schlagen wir vor, dass die Parameterschätzung und die Vorhersage der SEIR-Populationen gut durchgeführt werden. Darüber hinaus führen wir umfangreiche numerische Experimente durch, um die Entwicklung der infizierten Bevölkerung für mehrere Provinzen aufzuzeigen. Die Ergebnisse können einen Einblick in die Erforschung von Epidemien und das Verständnis der Ausbreitung des aktuellen COVID-19 geben.;-;-;-;https://link.springer.com/article/10.1007/s11432-020-3034-y 3a878b499e102471cc7235840e5c40d4;de;;;1.2.;;;Vorläufer der Krankheit. Erfahrung mit Versicherungssterblichkeit Wenn wir die biologische Bedeutung menschlicher Variationen betrachten, können wir die Werteverteilungen in Populationen untersuchen und statistisch behandeln – und dann schnell in Schwierigkeiten geraten über die „Repräsentativität“ der Populationen. Oder wir suchen in der Verteilung nach bestimmten Cut-off-Werten, die eine optimale Trennung zwischen „Fällen“ und „Kontrollen“ ermöglichen – und geraten bald in Schwierigkeiten, „Fälle“ und „Kontrollen“ zu definieren. Wir führen ständig eine Bootstrap-Lifting-Operation durch, bei der versucht wird, Variationen zu beschreiben und ihre Bedeutung zu bewerten, sofern keine gültigen unabhängigen Referenzen vorliegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-85617-4_4 a99e6f936c2c3719e167c32eb084788c;de;;;1.2.;;;Den Übergang von der Schule zur Universität angehen Ab 2015 konzipierten und leiteten wir ein Intensivseminar, das den Übergang von der Schule in die Hochschule thematisierte, indem wir die Studierenden für konzeptionelle Veränderungen in der Geschichte der Geometrie sensibilisierten. Im Mittelpunkt dieser Arbeit steht die Konzeption einer Pilotstudie und deren Weiterentwicklung zu einem einsemestrigen Seminar. Wir verwenden den Fall einer Teilnehmerin, Inga, um die Daten und Ergebnisse des Pilotseminars hervorzuheben. Der Fall Inga zeigte, dass das Seminar explizit auf den Übergang von der Schule in die Hochschulmathematik sensibilisierte und es sich lohnte, zu einem einsemestrigen Seminar ausgebaut zu werden. Darüber hinaus können die Erfahrungen der Studierenden in diesem Seminar auch den Übergang von der Universität als Lehrer zurück in die Schule unterstützen und den Weg für Lehramtsstudierende ebnen, um Kleins bekannte doppelte Diskontinuität zu überwinden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-73924-3_4 97bc59ba14c171d8bc4390a66a3b2ca2;de;;;1.2.;;;Die Fruchtbarkeit der Theorie und die Einheit für wissenschaftliche Bewertung Sowohl im Rationalismus als auch im Empirismus, den beiden „klassischen“ Formen der Wissenschaftsphilosophie aus dem 17. Eine wissenschaftliche Aussage zu rechtfertigen hieß, sie aus den ersten Prinzipien (rationalistisch) oder den Beweisen (empiristisch) abzuleiten. Bewerten bedeutete, den Ausgangspunkt der Schlussfolgerung als wahres Prinzip oder zuverlässigen Beweis zu bestätigen und dann die Gültigkeit der daraus gezogenen (deduktiven oder induktiven) Schlussfolgerung zu bewerten. Hier gibt es zwei Hauptannahmen: erstens die fundamentalistische, dass die Wissenschaft auf fundamentalen Aussagen beruhen muss, die selbst unanfechtbar sind, und zweitens die logische, dass die Ableitung der richtige Test einer wissenschaftlichen Behauptung ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-1451-9_25 238605e21214493d5e61563744347a92;de;;;1.2.;;;Koexistenzmechanismen von drei Uferarten im Oberbecken im Hinblick auf ihre Lebensgeschichte, Ökophysiologie und Störungsregime Die Waldvegetation im oberen Becken war stark von der Topographie abhängig. Genauer gesagt variieren die Landschaftsformen in der Uferzone, und die Talböden sind Mosaike, die aktive Kanäle, verlassene Kanäle, Überschwemmungsgebiete, Terrassen und Schwemmfächer umfassen;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-76737-4_5 bd37792cba8a5cb5b419eef76918be6b;de;;;1.2.;;;Genaue Lokalisierung aller Oberflächenwellenmoden für die Greenschen Funktionen eines geschichteten Mediums durch aufeinanderfolgende Störungen In diesem Artikel wird eine effiziente Methode vorgeschlagen, um alle Oberflächenwellenmoden der spektralen Greenschen Funktionen eines geschichteten Mediums schnell und genau zu lokalisieren. Diese Methode besteht aus zwei Teilen. Im ersten Teil werden alle Oberflächenwellenpole ohne Berücksichtigung des Mediumverlustes durch eine modifizierte Dichotomie auf der reellen Achse in der komplexen Ebene lokalisiert. Im zweiten Teil werden aufeinanderfolgende Störungen in Bezug auf den mittleren Verlust durchgeführt, was bedeutet, dass der mittlere Verlust schrittweise von Null auf den gegebenen Wert erhöht wird, und bei jedem Schritt wird der Newton-Raphson-Algorithmus verwendet, um alle aktuelle Pole, mit den Polen im vorherigen Schritt als Anfangswerte. Die Residuen der Oberflächenwellenpole werden analytisch ohne Konturintegral berechnet. Das ganze Verfahren basiert auf den rekursiv rationalen Formen der spektralen Greenschen Funktionen. Als Anwendung werden alle Oberflächenwellenpole und ihre Reste, die mit der in dieser Arbeit vorgeschlagenen Methode erhalten wurden, bei der Bewertung der räumlichen Greenschen Funktionen durch die diskrete komplexe Bildmethode verwendet. Einige numerische Beispiele werden bereitgestellt, um die Korrektheit und Effizienz der vorgeschlagenen Methode zu validieren.;-;-;-;https://link.springer.com/article/10.1007/s11432-010-4093-7 68172f128f806829d1a17b4ba73a45eb;de;;;1.2.;;;Zweistufiges Design kritischer Regelsysteme mit integrierten Reglern zur Störunterdrückung In diesem Beitrag wird ein effizientes Design kritischer Kontrollsysteme vorgeschlagen. Die Schlüsselidee besteht darin, das Entwurfsproblem in zwei einfachere Entwurfsschritte durch die Technik zu zerlegen, die in der klassischen Loop Transfer Recovery-Methode (LTR) verwendet wird. Als Basisregler wird der Störunterdrückungsintegralregler verwendet. Da das Standardschleifenübertragungswiederherstellungsverfahren nicht auf den Störungsunterdrückungsregler angewendet werden kann, wird die kürzlich gefundene Nichtstandardversion für die Zerlegung verwendet. Exogene Eingaben mit Einschränkungen sowohl hinsichtlich der Amplitude als auch der Änderungsrate werden berücksichtigt. Der Majorant-Ansatz wird gewählt, um die analytisch ausreichenden Matching-Bedingungen zu erhalten. Ein numerisches Designbeispiel wird vorgestellt, um die Wirksamkeit des vorgeschlagenen Designs zu veranschaulichen.;-;-;-;https://link.springer.com/article/10.1007/s11633-010-0552-2 e5d2a2501db0644726773185c86d8528;de;;;1.3.;;;Schulung der Innovationsfähigkeit von Studenten in der Ingenieurpraxis durch akademischen Wettbewerb Dieses Papier analysiert die Bedeutung des Lehrens der Ingenieurpraxis und -probleme sowie der aktuellen akademischen Automatisierungswettbewerbe und der Ingenieurpraxis, und erhebt dann den akademischen Wettbewerb als Träger, wird mit technologischer Innovation kombiniert und baut die dreistufige akademische Wettbewerb-Technikpraxis von drei- dimensionales System. Die effektive Wettbewerbspraktiken, Mittel und Wege für unsere tatsächlichen Praktiken erforschen und eine gute Plattform bieten, um die Fähigkeiten von Automatisierungsstudenten zu trainieren, praktische Probleme, Kreativität und Kooperationsgeist zu analysieren und zu lösen. Das bereichert und verbessert also den Inhalt und die Form der Praxislehre, praktiziert die ingenieurwissenschaftliche Praxisinnovation der Studierenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24022-5_68 140775551f6e142a2dac64213d591fff;de;;;1.2.;;;Empirische Literaturwissenschaft als wissenschaftliche Therapie Ziel dieser Arbeit ist es, Lösungen für die gegenwärtigen strukturalistischen und hermeneutischen Anomalien der Literaturwissenschaft anzubieten. In Anlehnung an die Erkenntnistheorie der empirischen Literaturwissenschaft, des radikalen Konstruktivismus und der konstruktivistischen Sprachtheorie vertritt sie die Auffassung, dass Bedeutung nicht als Teil des Textes zu betrachten ist. Ihr primäres Ziel ist es, die Anomalien von Bedeutung, Bewertung und Geschichtlichkeit aus dem literaturwissenschaftlichen Diskurs zu eliminieren. Es führt in die Theorie autopoietischer Systeme ein und präsentiert den nicht-konservativen Zugang zur Literaturwissenschaft. Schließlich skizziert er die Meta- und Objekttheorien der nichtkonservativen Literaturgeschichtsschreibung und plädiert gründlich für eine Wahrnehmung der Vergangenheit als intellektuelle Konstruktion von Gemeinschaften von Geschichtsschreibern.;-;-;-;https://link.springer.com/article/10.1023/A%3A1011949020914 33de443bb33e370cdfd697a418f9030e;de;;;1.2.;;;Durchdringung und Diffusion von Röntgenstrahlen In der Frühzeit der Röntgenforschung waren die Strahlungsquellen Entladungsröhren mit angelegten Potentialen weit unter 100 Schlüssel. Röntgenstrahlen aus diesen Quellen wechselwirken mit Materie hauptsächlich durch den photoelektrischen Effekt. Ihre Durchdringung wird dann durch photoelektrische Absorption begrenzt und durch ein Exponentialgesetz hinreichend beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45920-7_2 57b074f0af36de4ed879fcecbf3710b0;de;;;1.2.;;;Sonic Horizons: Phonograph-Ästhetik und die Erfahrung der Zeit Es ist bezeichnend, dass wir im Englischen kein zeitliches Äquivalent des Wortes „anderswo“ besitzen. Dieses Wort bezeichnet einen Ort, der sich räumlich von dem des Sprechers oder Schriftstellers unterscheidet, aber wenn wir ein „anderes“ Wort suchen, um eine andere Zeit als unsere zu identifizieren, sind wir beraubt. Es gibt kein „anderswo“. Diese lexikalische Abwesenheit in der Sprache verstärkt die Privilegierung des Raums im Laufe der Zeit in einem Großteil unseres Denkens über Kommunikationstechnologien und ihren Beitrag zur Erfahrung der Moderne. Ein solches Denken hat im Allgemeinen die Fähigkeit von Kommunikationstechnologien betont, räumliche Distanzen beim Senden und Empfangen mehrerer Nachrichten zu reduzieren, zu komprimieren oder aufzuheben. Allzu oft hat dies nicht nur zu überhöhten oder idealistischen Darstellungen der technologischen Leistungsfähigkeit in der Kommunikation geführt, sondern auch zu einer vernachlässigten oder unbedachten Behandlung ihrer Auswirkungen auf Zeit- und Zeitverhältnisse. Tatsächlich haben die neuen Medien das Gefühl von Distanz in der Neuzeit verändert, in mancher Hinsicht scheinbar verringert, aber in anderen neue Versionen davon geschaffen, sowohl zeitlich als auch räumlich.;-;-;-;https://link.springer.com/chapter/10.1057/9781137020680_2 e43e4245c37e61da39c090c909d3dc4e;de;;;1.2.;;;Annäherbarkeit der Weg-Abstands-Breite für AT-freie Graphen Die Pfad-Abstands-Breite eines Graphen misst, wie nahe der Graph an einem Pfad liegt. Wir betrachten das Problem der Bestimmung der Weg-Abstands-Breite für Graphen mit;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25870-1_25 2d5f593b3f153f71cc7db769e8309e9a;de;;;1.2.;;;Schlüssel mit Mindestlänge in MST-Kryptosystemen Als spezielle Faktorisierungskategorie endlicher Gruppen wird die logarithmische Signatur (LS) als Hauptkomponente von kryptografischen Schlüsseln verwendet, die in Kryptosystemen mit geheimem Schlüssel wie PGM und Kryptosystemen mit öffentlichem Schlüssel wie z;-;-;-;https://link.springer.com/article/10.1007/s11432-015-5479-3 de945893a86ec3f49d0f06030c6a680e;de;;;1.2.;;;Motoneuron-Krankheit: Grunddesigns, Stichprobengrößen und Fallstricke Im letzten Vierteljahrhundert wurde der Angriff auf die Motoneuron-Krankheit (MND)/Amyotrophe Lateralsklerose (ALS) durch kleine klinische Studien an einem einzigen Zentrum mit technisch komplexen, nicht umfassend validierten Ergebnismessungen als mehreren Endpunkten initiiert. Im Laufe der Zeit kam es zu einer stetigen Eskalation zu multizentrischen großen, teilweise internationalen, klinischen Studien mit einer einfachen, leicht und präzise bestimmbaren Ergebnismessung als primärem Endpunkt. Während dieser Entwicklung wurde offensichtlich, dass unser Verständnis der Ergebnismaße, die zur Bestimmung der potenziellen Behandlungseffekte von Interventionen bei MND/ALS verwendet werden, ein Ungleichgewicht bestand. An erster Stelle stand die unklare Beziehung zwischen klinischen Standardmessungen der Muskelkraft durch manuelle Muskeltests und computergestützter isometrischer Muskelkraft bei MND/ALS-Patienten. Darüber hinaus haben trotz der Reproduzierbarkeits- und Genauigkeitsprüfung krankheitsspezifischer klinimetrischer Skalen bei MND/ALS-Patienten mit Validitätstests gegenüber Standard-Allzweck-Behinderungsskalen nur wenige Studien verschiedene Skalen in derselben MND/ALS-Patientenpopulation verglichen oder die Eigenschaften dieser klinimetrischen Skalen über Zeit [1–14]. Sowohl große als auch kleine klinische Studien haben analytische Methoden verwendet, einschließlich einfacher deskriptiver Statistiken des Ergebnismaßes mit wiederholten Messungen, Änderungen von der Ausgangslinie oder Steigungsmessungen. Die kontroverse Evaluation des Anti-Glutamat-Medikaments Riluzol verwendete ein einfaches Studiendesign mit Überleben als klinischem Endpunkt [15–19]. Dieses klinische Studiendesign und die Analyse mit Ereignishistorie (Zeit bis zum Scheitern oder Überleben) zeigten die potenzielle Bedeutung des Studiendesigns.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-3787-0_34 8b5c8723c2904ffb5bb12045d14d4f6c;de;;;1.2.;;;Gleitmodi höherer Ordnung für die Ausgangs-Feedback-Steuerung von nichtlinearen unsicheren Systemen Dieses Kapitel untersucht einige Aspekte des Ausgangs-Feedback-Steuerungsproblems für nichtlineare unsichere Anlagen, mit besonderem Schwerpunkt auf möglichen Anwendungen neuerer Ergebnisse über Gleitmoden höherer Ordnung (HOSMs). Dieses Regime stellt sich ein, wenn die gleichzeitige, endliche Nullung einer Ausgangsgröße (der gleitenden Größe) und einer bestimmten Anzahl ihrer Ableitungen gewährleistet ist. In dieser Arbeit wird für jeden Schritt eines Steuerungsentwurfs einer Ausgangs-Feedback-Variablenstruktur, nämlich die Definition der gleitenden Variablen, die Synthese des Steuerungsgesetzes und die Zustandsschätzung, eine Übersicht von Vorschlägen, die durch einen endlichen Konvergenztransienten gekennzeichnet sind, vorgeführt. Einige unterschiedliche Arten von Gleitflächen im Zustandsraum, so dass die zugehörige eingeschränkte Bewegung durch eine konvergierende Dynamik in endlicher Zeit gekennzeichnet ist, werden in Erinnerung gerufen. Die Verwendung einer diskontinuierlichen Steuerung, um sie attraktiv und unveränderlich zu machen, wird dann analysiert. Schließlich werden auf HOSMs basierende Echtzeitdifferenzierer zum Schätzen der Ausgangsableitungen betrachtet. Das zweifache Ziel des vorliegenden Kapitels ist es, die neuesten Ergebnisse zu HOSMs zu überblicken und ihre mögliche Rolle bei der Verbesserung bestehender Ansätze aufzuzeigen, zu motivieren und mögliche Leitlinien für zukünftige Forschungen zu ziehen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45666-X_4 1fb8885fb28f2066243f07517910f68d;de;;;1.2.;;;Ein Dorf in Nordchina Eine Reihe von Faktoren haben zu der Homogenität von Klima, Ernährung und Bräuchen in Nordchina geführt. Geographie, Geschichte und Gesellschaft haben alle eine Rolle gespielt. Aus akademischer Sicht bildet Nordchina einen einzigartigen Schwerpunkt für soziokulturelle Studien.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7225-3_3 238750b12dce89665fb8e97619675009;de;;;1.2.;;;Infektionsdynamik in strukturierten Populationen mit Krankheitsbewusstsein basierend auf der Kontakthistorie in der Nachbarschaft In den letzten Jahren wurden fortgesetzte Bemühungen darauf gerichtet, die Wirkung menschlicher Verhaltensreaktionen bei der Verbreitung von Infektionskrankheiten aufzudecken. In diesem Beitrag schlagen wir einen Implementierungsmechanismus des Krankheitsbewusstseins über die individuelle Selbstwahrnehmung aus Nachbarschaftskontakthistorien (NCHs) vor, wobei jeder Einzelne in der Lage ist, sich die Sequenz seiner infektiösen Kontakte zu einem früheren Zeitpunkt zu merken und die Kontaktrate mit seinen Nachbarpersonen als Vorbeugung adaptiv anzupassen Strategie vor Infektionsrisiken. Sowohl analytische als auch numerische Ergebnisse zeigen, dass die NCH-basierte Selbstwahrnehmung eine einfache, aber effiziente Maßnahme zur Krankheitsbekämpfung ist, die das Ausmaß des Ausbruchs von Infektionskrankheiten stark reduzieren kann. Weiterhin untersuchen wir die Wirkungen einer zentralisierten Krankheitsbekämpfungsmaßnahme, die zum Vergleich einem NCH-unabhängigen und gleichmäßig geweckten Krankheitsbewusstsein entspricht. Wir finden, dass unsere vorgeschlagene Strategie die zentralisierte in einem viel größeren und praktischeren Bereich epidemiologischer Parameter übertrifft, was auch die Bedeutung der NCH-basierten Sensibilisierungsinformationen für die Anleitung des individuellen Schutzverhaltens gegen Infektionskrankheiten unterstreicht.;-;-;-;https://link.springer.com/article/10.1140/epjb/e2014-50422-8 36eeffc93573203caa541235f23e89c3;de;;;1.2.;;;Eine informierte Einigung in der multispezialisierten Zusammenarbeit erzielen Sehr oft müssen komplexe Entscheidungen von einer Gruppe von Spezialisten und nicht von einem einzelnen Entscheidungsträger getroffen werden. Um eine wirksame Entscheidung zu treffen, muss die Expertise der Gruppe in die Situation einfließen. Die Verschmelzung von Expertise, bei der Individuen über sehr detailliertes Wissen in ihrem eigenen Bereich und ein viel schwächeres Verständnis für andere verfügen, ist durch viele Schwierigkeiten gekennzeichnet: (1) Agenten können ihr Fachwissen aufgrund von Unterschieden in Wortschatz und konzeptionellen Inhalten nicht verständlich kommunizieren, der Prozess lässt falsche Schlussfolgerungen zu und (3) niemand weiß, was andere wissen müssen. Diese Sackgasse kann nicht durchbrochen werden, bis gemeinsame mentale Modelle entwickelt wurden, um ein Maß an Übereinstimmung bei der Bewertung von Alternativen zu bieten, die zur Konzentration der Aktivität der Gruppe erforderlich sind. Dieser Artikel stellt ein Modell der Entscheidungsfindung durch Spezialistenteams vor, bei dem die Bewertungen der Agenten Experten- und naive Schlussfolgerungen bei der Beurteilung von Alternativen durcheinanderbringen. Es wird eine Aufteilung des Agentenwissens in Experten- und Naive-Modelle vorgeschlagen. Der naive Teil der Agentenmodelle bietet sowohl eine gemeinsame Sprache als auch das inferenzielle Gerüst, das für die Entwicklung gemeinsamer Modelle benötigt wird. Kommunikationen werden anhand ihrer Form und der Entitäten, die sie innerhalb der Agentenmodelle beinhalten, in Bewertungs- oder Begründungstypen eingeteilt. Ein Prozess der Modellverfeinerung wird skizziert, der Kommunikationen zwischen Agenten mit Modifikationen der naiven/gemeinsamen Teile ihrer Modelle verknüpft. Der Prozess der kooperativen Problemlösung durch ein Team von Spezialisten wird als Suche zwischen Alternativen charakterisiert, bei der die Modellverfeinerung die Bewertungen der Agenten ständig verändert, was zu einer zunehmenden Genauigkeit und einer gezielteren Suche führt. Das Modell ist als Forschungsinstrument zur Untersuchung von Multiagenten-Problemlösungen zwischen Menschen und Maschinen gedacht.;-;-;-;https://link.springer.com/article/10.1007/BF01384250 c8aa6bc0ed0458663b5c1c33c6182d98;de;;;1.2.;;;Der Zusammenbruch des „Abbesiden-Kalifats“ Alles entspricht der erstaunlichen Geschwindigkeit, mit der die Söhne der arabischen Wüste im ersten islamischen Jahrhundert den größten Teil der zivilisierten Welt eroberten, es ist der rasche Niedergang der Herrschaft ihrer Nachkommen zwischen der Mitte des dritten und der Mitte des vierten Jahrhunderts. Um 820 war in den Händen eines einzigen Mannes, des Kalifen in Bagdād, eine weitreichendere Autorität konzentriert als in der jeder anderen lebenden Person, um 920 war die Macht seines Nachfolgers so geschwunden, dass sie selbst in seiner Hauptstadt kaum noch spürbar war. Um 1258 lag diese Stadt selbst in Trümmern. Mit seinem Fall ging die arabische Hegemonie für immer verloren und die Geschichte des echten Kalifats endete.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-15402-9_33 24ead455a344ad3f11b295baf0f1289e;de;;;1.2.;;;Generalisierte Hauptkomponentenanalyse und ihre Anwendung in der approximativen stochastischen Realisierungastic Der Zustand eines linearen Systems ist eine Informationsschnittstelle zwischen der Vergangenheit und der Zukunft, und die approximative Realisierung ist im Wesentlichen ein Problem der Approximation einer scheinbar hochdimensionalen Schnittstelle durch einen Teilzustand niedriger Ordnung. In diesem Kapitel verallgemeinern wir die Ideen der Hauptkomponenten auf das Problem der Approximation der Informationsschnittstelle zwischen zwei Zufallsvektoren. Zwei solcher Verallgemeinerungen existieren in der statistischen Literatur [1,2]. Die Anwendung dieser Verallgemeinerungen auf das Teilzustandsauswahlproblem führt zu drei approximativen stochastischen Realisierungsmethoden. Wir diskutieren diese Methoden und das Auswahlkriterium für den partiellen Zustand, das jeweils optimiert wird. Wir untersuchen auch ihre Beziehung zur deterministischen Identifizierung und ausgewogenen Modellreduktion.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2267-2_4 4c3cd8e193dac3f8a583a46dec120db0;de;;;1.2.;;;Ein Behandlungsalgorithmus für Workflow-Zeitausnahmen basierend auf Verlaufsprotokollen Die Behandlung von Zeitausnahmen ist eine Schlüsseltechnologie, um die ordnungsgemäße Ausführung von Prozessinstanzen zu gewährleisten. Zur Vorabbehandlung einer Art von Workflow-Zeitausnahmen, die durch die Verletzung von Terminvorgaben in einer Prozessinstanz verursacht werden, wird in der Arbeit ein Algorithmus auf Basis von Historienprotokollen vorgestellt. Zunächst wird ein Zeitwahrscheinlichkeitsmodell eines Prozesses basierend auf seinen Verlaufsprotokollen erstellt, um die Unbestimmtheit der Ausführungszeit von Aufgaben zu modellieren. Zweitens wird ein Algorithmus vorgestellt, um potenzielle Zeitausnahmen zu erkennen, indem das Zeitwahrscheinlichkeitsmodell und die Arbeitsbelastung der aktuellen Ressourcen analysiert werden. Um potentielle Zeitausnahmen zu behandeln, werden die Taskplaning Strategy Adjustment (TSA) und die Task Execution Time Compression (TEC) aufgerufen, um Zeitverluste auszugleichen. Schließlich zeigen Vergleichsexperimente, dass der Algorithmus potenzielle Zeitausnahmen effizient vermeiden oder damit umgehen kann.;-;-;-;https://link.springer.com/article/10.1007/s11227-010-0543-7 372d90b33edd9dcb28b784c5fd592064;de;;;1.2.;;;Kurze Geschichte auf Kartenprojektionen Kartenprojektionen erschienen vor mehr als zwei Jahrtausenden, als antike griechische Wissenschaftler begannen, mathematische Prinzipien auf das Studium und die Darstellung der Himmelssphäre anzuwenden. Seitdem wurden Hunderte von Kartenprojektionen erfunden. Die Zahl der möglichen Kartenprojektionen ist unbegrenzt und ihr Nutzen motiviert Wissenschaftler, neue zu entwickeln. Kartenprojektionen wurden kürzlich entwickelt, um Planeten oder Asteroiden darzustellen, die zu unregelmäßig sind, um mit einer Kugel oder einem Rotationsellipsoid modelliert zu werden. Im Allgemeinen sind Kartenprojektionen ein Gebiet der Mathematik, genau wie die Differential- oder Projektive Geometrie. Einige Kartenprojektionen basieren auf der Perspektive, während alle anderen eine Art von Abbildung einer kontinuierlichen gekrümmten Oberfläche in eine Ebene sind. Der berühmte Mathematiker Leonhard Euler lieferte 1777 den ersten Beweis, dass die Oberfläche einer Kugel nicht ohne Verzerrung auf eine Ebene abgebildet werden kann. Da jede Kartenprojektion eine gewisse Verzerrung beinhaltet, befasst sich die Kartenprojektionstheorie hauptsächlich mit der Erforschung von Verzerrungen der Kartenprojektion. Die meisten Kartenprojektionen können nicht einfach geometrisch oder physikalisch interpretiert werden und sind durch mathematische Formeln definiert. Jede Kartenprojektion liefert ein anders verzerrtes Bild. Das Studium von Kartenprojektionen liefert die Eigenschaften dieser Verzerrungen. Daher sollte ein Kartograph eine Kartenprojektion nach gewünschten und willkürlichen Eigenschaften oder Bedingungen anwenden. Kartenprojektionen haben sich gleichzeitig mit der Entwicklung der Kartenproduktion und der Kartographie im Allgemeinen entwickelt. Dieses Kapitel gibt einen kurzen Überblick über die Entwicklung der Kartenprojektion von ihren Anfängen bis zur Gegenwart und erwähnt berühmte Namen wie Gerhard Mercator, Johann Heinrich Lambert, Carl Friedrich Gauß, Nicolas Auguste Tissot, John Parr Snyder und viele andere.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-51835-0_11 52fe517ccbf0513ad6024897d7514e96;de;;;1.2.;;;Vergangenheit als Schlüssel für die Zukunft: Gegenseitige Abhängigkeiten von Landnutzung, Bodenentwicklung, Klima und Siedlung Es ist von hoher aktueller Bedeutung, historische Klimaschwankungen und deren Auswirkungen aufzuklären, da zukünftige Entwicklungen und deren Treiber nicht vorhergesagt werden können, wenn die der Vergangenheit nicht verstanden werden. Das Dekapolis-Gebiet im Norden Jordaniens bietet hervorragende Möglichkeiten, diese Frage zu analysieren. Umweltveränderungen, die entweder auf menschliche Aktivitäten oder auf Klimaänderungen zurückzuführen sind, könnten für die Aufgabe des Gebiets durch arabische Bauern im Mittelalter verantwortlich gewesen sein. Neuere Studien lassen die klimatischen Veränderungen als wahrscheinlicheren Grund gelten. Für diese Schlussfolgerung gibt es mehrere Argumente: Klimamodelle passen sehr gut zur historischen Entwicklung. Auch die arabischen Bauern waren hochqualifiziert. Unsere Untersuchungen zeigten ein sehr heterogenes Landnutzungs- und Bodenentwicklungsmuster und fanden keine Hinweise auf ein plötzliches, weit verbreitetes allgemeines Erosionsereignis. Reliktflächen und Bodengenese weisen dagegen auf feuchtere Verhältnisse in der Vergangenheit und Unterschiede in der Bodenentwicklung auf unterschiedliche Landnutzungsintensitäten hin. Zwar ist erkennbar, dass die Landnutzung den Charakter der Landschaft verändert hat und anhand der Bodenentwicklung verfolgt werden kann, aber nicht zu einer Fortentwicklung der Wüste geführt hat. Es scheint daher, dass die Wüstenbildung mit dem Klimawandel zusammenhängt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69509-7_39 3955b64ffa8c92e8a10debb638f78006;de;;;1.2.;;;Digitale Restaurierung des historischen Erbes durch Rekonstruktion aus unkalibrierten Bildern In diesem Beitrag wird ein neuartiger Ansatz zur Restaurierung des digitalen historischen Erbes vorgestellt, der auf einer fotorealistischen 3D-Rekonstruktion aus unkalibrierten Bildsequenzen basiert. Originalbilder der Ziele wie Statuen, Gebäude oder Kulturrelikte werden mit einer Handkamera aufgenommen und in drei Schritten verarbeitet, die aus Vorverarbeitung, spärlicher Rekonstruktion und dichter Rekonstruktion bestehen. Die rekonstruierten Oberflächenmodelle können als digitale Kopien des Erbes aufbewahrt oder ausgestellt werden, experimentelle Ergebnisse zeigen die Wirksamkeit des vorgeschlagenen Ansatzes und sein Anwendungspotenzial im Bereich der Restaurierung des historischen Erbes.;-;-;-;https://link.springer.com/chapter/10.1007/11736639_172 51b06710408093880b02743b1c5f3f4c;de;;;1.2.;;;Bayessche Schätzung des GARCH-Modells mit einer adaptiven Vorschlagsdichte Eine Bayessche Schätzung eines GARCH-Modells wird für den US-Dollar/Japanischen Yen-Wechselkurs durch den Metropolis-Hastings-Algorithmus mit einer Vorschlagsdichte durchgeführt, die durch das adaptive Konstruktionsschema gegeben ist. Im adaptiven Konstruktionsschema wird angenommen, dass die Vorschlagsdichte die Form einer multivariaten Student-t-Verteilung annimmt, und ihre Parameter werden unter Verwendung der abgetasteten Daten bewertet und während der Markov-Chain-Monte-Carlo-Simulationen adaptiv aktualisiert. Wir stellen fest, dass die Autokorrelationszeiten zwischen den durch das adaptive Konstruktionsschema abgetasteten Daten erheblich reduziert werden. Wir schließen daraus, dass das adaptive Konstruktionsschema für die Bayes'sche Inferenz des GARCH-Modells effizient funktioniert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00909-9_61 78124cdd4490ab683c5ee05f9e339e64;de;;;1.2.;;;Die Entwicklung der Grafik in wissenschaftlichen Artikeln Die Verwendung von grafischen Illustrationen in den heutigen wissenschaftlichen Zeitschriften hat sich aus der Praxis ab dem 17. Jahrhundert entwickelt und durch die Anforderungen der Leser und die Technologie der Erstellung und Reproduktion von Anschauungsmaterial modifiziert. Dieser Artikel diskutiert die Gründe für die Verwendung von Illustrationen in wissenschaftlichen Zeitschriften und gibt einen Überblick über die historische Entwicklung ihrer Verwendung. Analysiert werden Fotografien, Grafiken und kartografische Techniken, Grafiken sowie standardisierte Zeichnungen und Diagramme.;-;-;-;https://link.springer.com/article/10.1007/BF02678445 ebff47f31140890f7219796d6931d7e7;de;;;1.2.;;;Die Vielfalt fossiler Mikroorganismen in Gesteinen der Archäischen Zeit Archäische Gesteine ​​(3,9–2,5 Jahre) auf der Erde sind aufgrund der zerstörerischen Natur der Plattentektonik, die diesen Planeten charakterisiert, ungewöhnlich. Darüber hinaus wurde ein Großteil des erhaltenen Materials aus der Archäischen Zeit einer schweren Metamorphose unterzogen. Da sich in dieser Zeit das Leben entwickelt hat, stellen diese Probleme ernsthafte Einschränkungen bei der Suche nach einem frühen Leben dar. Allerdings ist die Lage nicht ganz düster und es ist genügend Gesteinsmaterial in brauchbarer Form erhalten geblieben, um einen ersten Eindruck vom archaischen Leben zu vermitteln. Die Umweltbedingungen für das frühe Leben auf der Erde unterschied sich jedoch sehr von der heutigen Umwelt und sogar von der nachfolgenden Proterozoikum-Ära (2,5–0,54 v.y.). Die unterschiedlichen Umweltbedingungen hatten wichtige Auswirkungen auf das frühe Leben und seine Vielfalt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4269-4_2 6ea3cc949af4bde23f6397f31438b834;de;;;1.2.;;;Auswirkungen der Spannungs-Dehnungs-Berechnungsmethode der Kerbspitze auf die Vorhersage der Lebensdauer von Ermüdungsrissen Zwei Methoden der unelastischen Kerbspannungs-Dehnungs-Berechnung unter zyklischer Belastung werden hinsichtlich ihres Einflusses auf die Ermüdungslebensdauervorhersage diskutiert. Die neue Methode basiert auf dem Konzept der äquivalenten Energiedichte und die Ergebnisse, die mit dieser Technik erhalten wurden, werden mit denen verglichen, die durch Anwendung der Neuber-Regel erhalten wurden. Die Ermüdungslebensdauer wurde auf der Grundlage der Dehnung-Lebensdauer-Manson-Coffin-Beziehung berechnet. Die berechneten Lebensdauern werden mit experimentellen Daten verglichen, die von Schlüssellochproben erhalten wurden, die unter einer Belastungshistorie mit variabler Amplitude getestet wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-3459-7_73 78f1e8d562be20edeee437793a8dec84;de;;;1.2.;;;Beobachtung der Keimung von weiblichen Gameten (Carpogonia) Mehrere Veröffentlichungen haben berichtet, dass ein Teil oder ganzer belaubter Thallus, der scheinbar aus Zygotosporen besteht, in derselben Kultur sowohl zu Klingen als auch zu Conchocelis führen kann;-;-;-;https://link.springer.com/article/10.1007/BF02842685 458ac986e10916af41bc582591c94a42;de;;;1.2.;;;Eine adaptive Markov-Ketten-Monte-Carlo-Methode für das GARCH-Modell Wir schlagen eine Methode vor, um eine Vorschlagsdichte für den Metropolis-Hastings-Algorithmus in Markov Chain Monte Carlo (MCMC)-Simulationen des GARCH-Modells zu konstruieren. Die Vorschlagsdichte wird adaptiv konstruiert, indem die durch das MCMC-Verfahren selbst abgetasteten Daten verwendet werden. Es stellt sich heraus, dass Autokorrelationen zwischen den mit unserer adaptiven Vorschlagsdichte erzeugten Daten stark reduziert werden. Daraus wird geschlossen, dass die adaptive Konstruktionsmethode sehr effizient ist und gut für die MCMC-Simulationen des GARCH-Modells funktioniert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02469-6_22 dafa97e7f8636c8f49fd504aa3b48c1f;de;;;1.2.;;;Modellierung und Bewertung internationaler Klimafinanzierung Die Klimafinanzierung ist ein zentrales Thema in den aktuellen Verhandlungen zum Klimaschutz. Diese Studie etabliert ein Klimafinanzierungsmodell, das auf einem Mechanismus basiert, bei dem Geberländer Fonds zur Klimafinanzierung einrichten und Empfängerländer die Mittel ausschließlich zur Reduzierung der CO2-Emissionen verwenden. Die Prinzipien der Lastenteilung basieren auf dem BIP, historischen Emissionen und verbrauchsabhängigen Emissionen. Anhand dieses Modells entwickeln und analysieren wir eine Reihe von Szenariosimulationen, darunter ein auf der Klimakonferenz von Cancun (2010) verhandeltes Finanzierungsprogramm und mehrere Folgeprogramme. Die Ergebnisse zeigen, dass eine nachhaltige Klimafinanzierung helfen kann, den globalen Klimawandel zu bekämpfen. Die Abkommen von Cancun sollen jedoch bis 2100 zu einer Verringerung der globalen Erwärmung um nur 0,01 °C im Vergleich zum Szenario ohne Klimafinanzierung führen. Längerfristige Klimafinanzierungsprogramme sollten eingerichtet werden, um größere Vorteile zu erzielen. Unser Modell und unsere Simulationen zeigen auch, dass die Klimafinanzierung für Entwicklungsländer wirtschaftliche Vorteile hat. Die entwickelten Länder werden in den frühen Phasen der Klimafinanzierung einen leichten BIP-Verlust erleiden, aber das langfristige Wirtschaftswachstum und die eventuellen Vorteile des Klimaschutzes werden diesen leichten Verlust kompensieren. Unterschiedliche Lastenteilungsprinzipien haben sehr ähnliche Auswirkungen auf die globale Temperaturänderung und das Wirtschaftswachstum der Empfängerländer, führen jedoch zu Unterschieden bei den BIP-Veränderungen für Japan und die FSU. Das BIP-basierte Prinzip führt zu einem größeren Anteil der finanziellen Belastung für Japan, während das auf historischen Emissionen basierende Prinzip zu einem größeren Anteil der finanziellen Belastung für die FSU führt. Ein größerer Lastenanteil führt zu einem größeren BIP-Verlust.;-;-;-;https://link.springer.com/article/10.1007/s11707-015-0511-x 9e3618a7f3f7b3155b9f84c57067b23e;de;;;1.2.;;;Quantifizierung der Attraktivität eines Multiplayer-Spiels mit unvollständigen Informationen: Fallstudie mit DouDiZhu Dieser Artikel untersucht die Natur von DouDiZhu, einem Multiplayer-Spiel mit unvollständigen Informationen und dem beliebtesten Kartenspiel in China. Obwohl es viele DouDiZhu-ähnliche Kartenspiele auf der Welt gibt, zeichnet sich das Standard-DouDiZhu-Kartenspiel besonders durch seine harmonische Kombination mehrerer Faktoren aus, darunter die Anzahl der Spieler, die Rollen des Spielers wie Wirt und Bauer, die Anzahl der Decks und das Punktesystem, um den Gewinner ermitteln. Eine Studie zu solchen Faktoren in Bezug auf die Raffinesse und Attraktivität von DouDiZhu-Spielen wurde jedoch noch nicht erstellt. Daher führt dieses Papier eine solche Studie durch, indem der Spieler mit künstlicher Intelligenz (KI) des DouDiZhu-Spiels mit verschiedenen Ebenen aufgebaut wird, Simulationen des Selbstspiels unter den KI-Spielern durchgeführt werden und die Spielverfeinerung verwendet wird, um die attraktiven Einstellungen dieses Spiels zu bewerten und zu identifizieren . Die erhaltenen Ergebnisse zeigen, dass Standard-DouDiZhu für verschiedene KI-Spieler die ausgefeilteste Spielumgebung bietet, die den tatsächlichen menschlichen Spielern verschiedener Ebenen entspricht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0058-9_29 fa3e802030ab8eb367d3cf32e909687e;de;;;1.2.;;;Modellierung und Kalibrierung von Kamerasystemen mit variablen Parametern Kamerasysteme mit verstellbaren Objektiven sind von Natur aus nützlicher als solche mit festen Objektiven. Einstellbare Objektive ermöglichen es uns, bessere Bilder zu erzeugen, indem wir die Erfassungseigenschaften der Kamera an die Bedingungen in einer Szene anpassen. Sie ermöglichen es uns auch, Messungen durchzuführen, indem wir feststellen, wie sich das Bild der Szene ändert, wenn die Objektiveinstellungen variiert werden. Der Grund, warum verstellbare Linsen in der maschinellen Bildverarbeitung nicht häufiger verwendet werden, liegt darin, dass sie schwer zu modellieren sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-04567-1_6 3a5a9e65c646cf390c86a156bf63dae1;de;;;1.2.;;;Das Prinzip der rekursiven Genomfunktion Als Reaktion auf eine offene Anfrage wird das Prinzip der rekursiven Genomfunktion (PRGF) vorgestellt, das zwei Axiome der Genomik, wie wir sie vor dem Encyclopedia of DNA Elements Project (ENCODE) kannten, effektiv umkehrt. Die PRGF basiert auf der Umkehrung des ineinandergreifenden, aber nachweislich ungültigen zentralen Dogmas und der „Junk-DNA“-Vermutungen, die den Fortschritt der soliden Theorie der Genomfunktion, soweit es die Informationswissenschaft betrifft, ein halbes Jahrhundert lang bremste. PRGF veranschaulicht die Nützlichkeit der Klasse rekursiver Algorithmen als die intrinsische Mathematik der Post-ENCODE-Genomik. Ein spezifischer rekursiver algorithmischer Ansatz für PRGF, der das Wachstum des Purkinje-Neurons steuert, wird skizziert, wobei die Struktur in einer hierarchischen Weise aufgebaut wird, beginnend mit primären genomischen Informationspaketen und in jeder Rekursion unter Verwendung zusätzlicher genomischer Informationspakete, die beim Durchlesen gelöscht werden. Die Vorhersagekraft des Prinzips und seine experimentelle Unterstützung sind angegeben. Es wird argumentiert, dass die Genomik kein außergewöhnliches Beispiel für die Anwendbarkeit der Rekursion in allen Wissenschaften mehr ist.;-;-;-;https://link.springer.com/article/10.1007/s12311-008-0035-y 587c532709f0b34f70c620595fb027d6;de;;;1.2.;;;Bioassay-Reaktionen von Mikroorganismen auf Sediment-Elutriate aus dem St. Lawrence River (Lake St. Louis) Im St. Lawrence River bei Montreal (Lake St. Louis) wurde eine Sedimentstudie mit chemischen und biologischen Analysen durchgeführt. Von 1984 bis 1985 wurden etwa 60 Stationen beprobt und die Sedimente auf Stützvariablen, Schwermetalle und chlororganische Verbindungen analysiert. Teilproben wurden unter Verwendung eines Sediment/Wasser-Verhältnisses von 1 bis 4 ausgewaschen. Die resultierenden Elutriate wurden auf verschiedene chemische Variablen analysiert, während die Toxizität mit dem Microtox-Test gemessen wurde, Algen;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-1896-2_30 f6699138ed26a9b135bf8b0bca8f1307;de;;;1.3.;;;Einbindung von Agentenaufforderungen als Reflexionsgerüst in einer intelligenten Lernumgebung Neuere Forschungen haben die Bedeutung der Reflexion für Schüler in einer intelligenten Lernumgebung hervorgehoben. Die Forscher haben jedoch weder einen Konsens über die effektivsten Wege zur Gestaltung von Gerüsten erreicht, um Reflexion anzuregen, noch haben sie einen gemeinsamen Mechanismus akzeptiert, der die Auswirkungen von Gerüsten auf die Reflexion erklären kann. In diesem Kapitel werden zwei Arten von Handlungsaufforderungen zur Förderung der Reflexion gegenübergestellt, beide aus der Perspektive eines Tutees, die sich in ihrer Spezifität unterscheiden. Generische Aufforderungen sind inhaltsunabhängige Tutee-Fragen, die darauf abzielen, die Reflexion der Schüler über metakognitive Strategien und Überzeugungen in Bezug auf ihre Lernaktivitäten zu fördern. Spezifische Aufforderungen hingegen sind inhaltsabhängige Tutee-Fragen, die die Schüler dazu anregen, über domänenbezogene und aufgabenspezifische Fähigkeiten nachzudenken und ihre erklärenden Antworten zu artikulieren. Dieses Kapitel beschreibt das Design und die Wirkung dieser beiden Arten von Agentenaufforderungen, die an die Lernaktivitäten der Schüler angepasst sind, auf die Lernergebnisse, die hervorgerufenen Reflexionsebenen und die Selbstwirksamkeit der Schüler der Sekundarstufe.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30171-1_15 1d71ef369592790e6efa190b1edba597;de;;;1.2.;;;Die probabilistische und deterministische Parallelkomplexität symmetrischer Funktionen In diesem Papier beweisen wir untere Schranken der Rechenkomplexität symmetrischer Funktionen auf parallelen Maschinen. Die betrachteten parallelen Modelle sind PRIORITY und ARBITRARY, beides weit verbreitete Versionen der Parallel Random Access Machine (PRAM). Wir betrachten zuerst PRIORITÄT. Wir beweisen, dass ein PRIORITY PRAM mit einer gemeinsamen Speicherzelle und;-;-;-;https://link.springer.com/chapter/10.1007/3-540-18088-5_27 fc7a4a491e472efd10b40c880250c818;de;;;1.2.;;;Aktuelle und zukünftige Niederschlagsextreme über den Einzugsgebieten des Mississippi und des Jangtse, wie in CMIP5-Modellen simuliert Sowohl die zentral-östlichen USA als auch China sind anfällig für zunehmende Überschwemmungen aus den Einzugsgebieten des Mississippi und des Jangtse. Dieses Papier kontrastiert die historische und die projizierte räumlich-zeitliche Verteilung von Extremniederschlägen in diesen beiden großen Flusseinzugsgebieten anhand von 31 CMIP5 (Coupled Model Intercomparison Project Phase 5) Modellen historischer und RCP8.5 (repräsentativer Konzentrationspfad) Experimente. Die Ergebnisse zeigen, dass (1) in beiden Flusseinzugsgebieten die stärksten Niederschlagsereignisse in den letzten Jahrzehnten zugenommen haben, während die leichtesten Niederschläge an Häufigkeit abnahmen. Über dem Mississippi-Becken würden sowohl die geringsten Niederschläge (<2,5 mm/Tag) als auch die stärksten (>50 mm/Tag) nach Mitte der 2020er Jahre deutlich abnehmen, während Zwischenereignisse in Zukunft häufiger auftreten, während über dem Jangtse-Becken, Es wird prognostiziert, dass alle Niederschlagskategorien in den kommenden Jahrzehnten häufiger werden. (2) Obwohl der Konsens der CMIP5-Modelle in der Lage war, den zeitlichen Mittelwert und sogar die zeitgemittelte räumliche Verteilung des Niederschlags gut zu reproduzieren, konnten sie Niederschlagstrends sowohl in der räumlichen Verteilung als auch im Zeitmittel nicht simulieren. In ähnlicher Weise erfassten Modelle auch Niederschlagsstatistiken, hatten jedoch Schwierigkeiten, zeitliche Variationen verschiedener Kategorien der Niederschlagsintensität darzustellen. (3) Die gut dokumentierte sommerliche Abkühlung der zweiten Hälfte des 20. Jahrhunderts über den beiden Flusseinzugsgebieten zeigte unterschiedliche Assoziationen mit Niederschlagstrends mit einer höheren Antikorrelation zwischen ihnen über der US-Region, was auf unterschiedliche Prozesse hindeutet, die zu den Abkühlungsmechanismen der beiden beitragen Flußbecken.;-;-;-;https://link.springer.com/article/10.1007/s12583-016-0627-2 68b7b14f7de069689f9dbb8680d3db77;de;;;1.2.;;;Widerstandsdifferenz zwischen stationären und geschockten Gasströmen, die durch einen porösen Körper strömen Es wurden experimentelle und numerische Untersuchungen von Gasströmungen durch poröse Materialien durchgeführt. Wir haben stationäre und instationäre Prozesse untersucht, die auftreten, wenn die Gasströmung mit porösen Materialien wechselwirkt. Dichten;-;-;-;https://link.springer.com/article/10.1007/PL00004063 665f27936e89fc9ac6372fc10a598872;de;;;1.2.;;;Zur Verwendung von Registern zur Erzielung eines abwartefreien Konsenses Die Rechenleistung gleichzeitiger Datentypen stand im Mittelpunkt vieler neuerer Forschungen. Herlihy zeigte, dass eine solche Macht an der Fähigkeit des Typs gemessen werden kann, einen wartefreien Konsens umzusetzen. Jayanti argumentierte, dass diese Fähigkeit auf unterschiedliche Weise gemessen werden könnte, je nachdem, ob beispielsweise Lese-/Schreibregister in einer Implementierung verwendet werden könnten oder nicht. Die Bedeutung dieser Unterscheidung demonstrierte er, indem er einen nichtdeterministischen Typus zeigte, dessen Fähigkeit zur Umsetzung von Konsens durch die Verfügbarkeit von Registern gesteigert wurde. Wir zeigen, dass Register die Fähigkeit nicht erhöhen können, einen wartefreien Konsens jedes deterministischen Typs oder eines beliebigen Typs zu implementieren, der ohne sie Konsens für mindestens zwei Prozesse implementieren kann. Diese Ergebnisse haben einen erheblichen Einfluss auf die Untersuchung der wartefreien Hierarchien nebenläufiger Datentypen. Insbesondere die Kombination dieser Ergebnisse mit anderen neueren Arbeiten legt nahe, dass Jayantis;-;-;-;https://link.springer.com/article/10.1007/s004460050029 eda3cc07bccf1730e1df4b709eced422;de;;;1.2.;;;Datenabhängigkeitsbasierte Wiederherstellungsansätze in Survival-Datenbanksystemen Die Wiederherstellung nach böswilligen Angriffen in Überlebensdatenbanksystemen ist in geschäftskritischen Informationssystemen von entscheidender Bedeutung. Herkömmliche Rollback- und Re-Execute-Techniken sind zu zeitaufwendig und können in Überlebensumgebungen nicht angewendet werden. In diesem Papier werden zwei effiziente Ansätze vorgeschlagen – transaktionsabhängig und datenabhängig. Im Vergleich zum transaktionsabhängigen Ansatz müssen Datenabhängigkeitswiederherstellungsansätze keine unschuldigen Operationen in bösartigen und betroffenen Transaktionen rückgängig machen, selbst wenn es sich um einige harmlose handelt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72586-2_158 5bfa52dc140e5b7c31711d702b609531;de;;;1.2.;;;Glatteres und Bayes-Filter basiertes semi-codeloses Tracking von Dual-Frequenz-GPS-Signalen Um die integrierte Umlaufbahn der chinesischen bemannten Raumschiff-Mission präzise zu bestimmen, wurde eine glattere und auf Bayes-Filtern basierende Technik für eine optimale halbcodelose Verfolgung des P(Y)-Codes auf Zweifrequenz-GPS-Signalen weiterentwickelt. Diese Signalverarbeitungstechnik hat sich als effektiv und robust erwiesen, um den Zugriff auf Dual-Frequenz-GPS-Signale zu ermöglichen. Dieses Papier führt in die Signaldynamik- und Messmodelle ein, beschreibt das W·D-Bit-Schätzverfahren und korrigiert die Fehler der direkten Schätzung von W-Bit beim aktuellen semi-codelosen Tracking. Der Medianfilter wird als Glättungsfilter gewählt, um die besten Messwerte zum aktuellen Zeitpunkt aus dem Verlauf und den aktuellen Informationen zu finden. Der Bayes-Filter wird verwendet, um die L2-P(Y)-Codephase und die L2-Trägerphase rekursiv zu verfolgen.;-;-;-;https://link.springer.com/article/10.1007/s11432-006-2003-9 24e553e6173babd28dc04c9ee8cfbb56;de;;;1.3.;;;Diskussion über den kategorisierten Hochschulmathematikunterricht Die Schüler sind Gegenstand der Lehre, sie müssen in verschiedene Typen eingeteilt werden, um sie auszubilden. Um den tatsächlichen Bedarf der Schülerinnen und Schüler zu erfassen, müssen Lehrkräfte zwei Erhebungen durchführen: Erstens die Untersuchung der mathematischen Grundlagen und das mathematische Interesse, zweitens wird die Beschäftigung der Schülerinnen und Schüler analysiert. Diese verschiedenen Kategorien sind für verschiedene Kurse festgelegt. Im Lehrprogramm sollten wir mehr als eine Richtung öffnen und die Clusterpositionen und Sonderpositionen berücksichtigen. Im Curriculum werden die Wahlpflichtbereiche so festgelegt, dass sie den individuellen Bedürfnissen der Studierenden entsprechen. Wir müssen die Schüler dazu inspirieren, Motive und Verhalten nach oben zu entwickeln. Durch Kategorienlehre wurde eine qualitativ hochwertige Ausbildung effektiv umgesetzt und ermöglicht den Schülern eine effektive Triage, um den Schülern zu helfen, nach dem Abschluss oder der Anstellung weiter zu studieren. An den kategorisierten Unterricht stellen die Lehrkräfte höhere Anforderungen, was die Lehrkräfte dazu anregt, das Niveau ihres Unternehmens zu heben und die Lehr- und Forschungsarbeit weiter zu fördern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27452-7_11 86afcde137c5c395073b5cbf4a07e3a7;de;;;1.3.;;;Eine nichtlineare ICPSO-RBFNN-Inversion für die Bildgebung des elektrischen Widerstands Zur Verbesserung der globalen Suchfähigkeit und Abbildungsqualität der Electric Resistivity Imaging (ERI) Inversion wird ein zweistufig lernender ICPSO-Algorithmus eines radialen Basisfunktions-Neuralnetzwerks (RBFNN) basierend auf Informationskriterium (IC) und Partikelschwarmoptimierung (PSO) vorgestellt . Bei dem vorgeschlagenen Verfahren wird IC angewendet, um die Struktur der verborgenen Schicht durch automatisches Berechnen des optimalen IC-Werts zu erhalten, und der PSO-Algorithmus wird verwendet, um die Mitten und Breiten der radialen Basisfunktionen in der verborgenen Schicht zu optimieren. In der Zwischenzeit werden die Auswirkungen verschiedener Informationskriterien auf die Inversionsergebnisse verglichen und eine Implementierung des vorgeschlagenen ICPSO-Algorithmus angegeben. Das optimierte neuronale Netz hat eine versteckte Schicht mit 261 Knoten, die nach dem Informationskriterium (AIC) von AKAIKE ausgewählt wurden, und wird auf 32 Datensätzen trainiert und auf weiteren 8 synthetischen Datensätzen getestet. Anhand von zwei komplexen Synthesebeispielen wird die Machbarkeit und Wirksamkeit der vorgeschlagenen Methode mit zwei Lernstufen überprüft. Die Ergebnisse zeigen, dass das vorgeschlagene Verfahren eine bessere Leistung und eine höhere Abbildungsqualität aufweist als dreischichtige und vierschichtige neuronale Netze mit Rückpropagation (BPNNs) und die traditionelle Least Square Inversion (LS).;-;-;-;https://link.springer.com/article/10.1007/s11771-016-3269-8 b21f0a67fc1dd507cc8d4f3a81cad48e;de;;;1.2.;;;Hochstabile lokalisierte ILU-Vorkonditionierung für unstrukturierte Netze Die Autoren haben gezeigt, dass die „lokalisierte“ ILU(O)-Faktorisierung eine sehr effektive Vorkonditionierungsmethode für parallele iterative Löser ist. Dieses Verfahren bietet Datenlokalität und einen guten Parallelisierungseffekt, da es keine Kommunikation zwischen Prozessoren gibt. Aber es ist keine so starke Methode wie der ursprüngliche ILU(O)-Vorkonditionierer. Daher wird die Konvergenz langsamer, wenn die Prozessoranzahl größer wird.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0037228 edf7331602debb322ff3fa4c5c546013;de;;;1.3.;;;Beruflicher Hintergrund und Arbeitsweise von Beratern in der Schulentwicklung: Erste empirische Erkenntnisse aus Deutschland In Deutschland ist zu beobachten, dass Schulen bei ihrer pädagogischen und organisatorischen Weiterentwicklung zunehmend auf externe Experten zurückgreifen. Diese Experten stellen in ihrem Beruf und ihrem inhaltlichen Bereich eine heterogene Gruppe dar. Dieser Beitrag geht davon aus, dass mehrere Muster zu beobachten sind, die sowohl mit dem beruflichen Hintergrund der Berater als auch mit den Inhalten und der Arbeitsweise dieser Berater zu tun haben. Es greift Erkenntnisse aus einem größeren Forschungsprojekt des Landes Nordrhein-Westfalen von 2009 bis 2012 auf. Die Ergebnisse des Projekts wurden durch eine standardisierte Befragung von 957 Schulverwaltungen und Fallstudien an sechs Schulen mit standardisierten Lehrerinterviews gewonnen (20–87 pro Schule), qualitative Interviews mit Schulleitungen und Lehrkräften (5–8 pro Schule) sowie Dokumentenanalysen zu Gestaltung, Ablauf und Ergebnissen der externen Schulberatung. Die Ergebnisse zeigen, dass es zwei unterschiedliche Beratungsformen gibt: die Beratung des gesamten Lehrkörpers im Bereich der Lehrentwicklung mit einem direkt an das Schulsystem gebundenen Berater (Typ 1) und eine Beratung von Teilgruppen des Lehrkörpers im Bereich Organisations- und Personalentwicklung mit einem außerschulischen Berater (Typ 2). Dieser Beitrag liefert neue Einblicke in ein im deutschsprachigen Kontext bisher wenig erforschtes Feld.;-;-;-;https://link.springer.com/article/10.1007/s10833-014-9241-1 ea2c31169c09c39630e6c94a45044fba;de;;;1.2.;;;Unterschiede zwischen physikalischer und menschlicher Prozesssimulation in der Geographie: Empirische Analyse zweier Fälle Physische Geographie und Humangeographie sind die Hauptzweige der geographischen Wissenschaften. Physikalische Prozesssimulation und menschliche Prozesssimulation in der Geographie sind beides quantitative Methoden, die verwendet werden, um vergangene Ereignisse zu rekonstruieren oder sogar Ereignisse basierend auf genau bestimmten Parametern vorherzusagen. Es gibt vier Unterschiede zwischen der physikalischen Prozesssimulation und der menschlichen Prozesssimulation in der Geographie, die wir mit zwei konkreten Fällen zusammenfassen, von denen einer die Entwicklung eines Taifuns und seine Niederschlagung betrifft, und der andere die Entwicklung von drei Industriestrukturen in China betrifft . Die Unterschiede konzentrieren sich auf vier Aspekte: die Hauptfaktoren des Forschungsrahmens, den Wissenshintergrund des systematischen Analyserahmens, die Simulationsdatenquellen und die quantitative Methode sowie den Kern des Studienobjekts und die Methode der Prognoseanwendung. Da die Mensch-Land-Beziehung die Schlüsselideologie des Mensch-Land-Systems ist, wird die Beziehung zwischen den physischen und den menschlichen Faktoren gegenwärtig immer enger. Physikalische Prozesssimulation und menschliche Prozesssimulation in der Geographie werden in Zukunft Crossing und Blending aufweisen, um die verschiedenen geographischen Phänomene besser widerzuspiegeln.;-;-;-;https://link.springer.com/article/10.1007/s11442-012-0942-1 f755e516ebf0b6b23836538ebcf865e4;de;;;1.2.;;;Sphärische Trigonometrie Wie der Name schon sagt, beschäftigt sich die sphärische Trigonometrie mit der Lösung von Dreiecken auf der Oberfläche einer Kugel. Es hat sich aus der Astronomie und der Navigation entwickelt, mit der Aufgabe, die Positionen von Punkten und deren Abstände sowie Winkel auf der Himmelskugel oder auf der als Kugel betrachteten Erdoberfläche zu bestimmen. Auch die Grundlage der für die Vermessung wichtigen Gauß-Krüger-Koordinaten wird aus astronomischen Messungen gewonnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-6982-0_13 226f200cab726b430ebb1cad25ca3505;de;;;1.2.;;;Fehlertolerante Beflockung in a Dieser Artikel untersucht das Beflockungsproblem, bei dem sich mobile Roboter gruppieren, um ein gewünschtes Muster zu bilden und sich zusammen zu bewegen, während diese Formation beibehalten wird. Im Gegensatz zu früheren Untersuchungen des Problems betrachten wir ein System mobiler Roboter, bei denen einige von ihnen möglicherweise durch Absturz versagen. Unser Algorithmus sorgt dafür, dass der Absturz fehlerhafter Roboter die Formation nicht dauerhaft zum Stillstand bringt und die richtigen Roboter sich somit irgendwann neu organisieren und gemeinsam weiterbewegen können. Darüber hinaus macht der Algorithmus keine Annahmen über die relativen Geschwindigkeiten, mit denen sich die Roboter bewegen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-92221-6_11 e4613f89ac0a3b3a88ee8a4c6b144b92;de;;;1.2.;;;GeoSOM Suite: Ein Tool für räumliches Clustering Die große Menge an heute verfügbaren Geodaten erfordert den Einsatz von Data-Mining-Tools für deren Analyse. Eine der am häufigsten verwendeten Data-Mining-Techniken ist das Clustering. Es gibt mehrere Methoden für das räumliche Clustern, aber viele betrachten den Raum nur als eine weitere Variable. In diesem Beitrag stellen wir ein für räumliches Clustering besonders geeignetes Werkzeug vor: die GeoSOM-Suite. Dieses Tool implementiert den GeoSOM-Algorithmus, der auf selbstorganisierenden Karten basiert. Dieses Papier beschreibt dieses Tool und zeigt, dass es für die Untersuchung räumlicher Daten geeignet ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02454-2_32 445aeaccdfe35f2a0bd4cf4265bdccae;de;;;1.2.;;;Modellierung von Webdiensten basierend auf dem Bayesschen Netzwerk In diesem Artikel, der auf die semantische Beschreibung von Webservices abzielt, wird ein neuer Ansatz zur probabilistischen grafischen Modellierung von Webservices vorgeschlagen, und das Bayessche Netzwerk der Services wird basierend auf der Anwendung der kleinsten Fixpunkte und bedingter gegenseitiger Informationen konstruiert. Aus der Ableitung und Statistik historischer Aufrufe werden die inhärenten Abhängigkeiten zwischen elementaren Diensten beschrieben und qualitativ und quantitativ gemessen. Vorläufige Experimente und Analysen zeigen, dass unser Ansatz effektiv und machbar ist.;-;-;-;https://link.springer.com/chapter/10.1007/11596370_29 f44d293aee73fa8152b2772d59776af2;de;;;1.2.;;;„gewöhnlicher“ Nävus In Ermangelung besserer Namen verwenden wir diese vereinfachenden Definitionen, um melanozytäre Neoplasien einzuschließen, die im Großen und Ganzen die häufigsten Nävi in ​​der Routinepraxis sind: Lentigo simplex, junktionaler Nävus, zusammengesetzter Nävus und intradermaler Nävus. Diese Läsionen sollen die fortschreitenden Stadien der natürlichen Evolution eines melanozytären Neoplasmas sein. Der erste Schritt ist Lentigo simplex, gekennzeichnet durch die deutliche Proliferation von Melanozyten in einzelnen Einheiten, die entlang der epidermalen Basalschicht ausgerichtet sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7985-1943-5_4 626376c985a9fcbd6ed544c77a178c3a;de;;;1.2.;;;Transtentorielle Herniation des vierten Ventrikels Die transtentorielle Herniation (TTH) des vierten Ventrikels ist das Ergebnis einer fortschreitenden Vergrößerung eines isolierten vierten Ventrikels, der durch die Tentoriumsinzisur in die mittlere Schädelgrube einbricht. Die charakteristischen CT-MR- und neurosonographischen Befunde werden beschrieben.;-;-;-;https://link.springer.com/article/10.1007/BF02019057 e2cd2c5e352d5caeb5d9da55990a39cb;de;;;1.2.;;;Über eine neue Methode zur Datenflussanalyse von Java Virtual Machine Subroutinen Der Bytecode-Verifier der Java Virtual Machine, der die Typsicherheit von Java-Bytecode statisch überprüft, ist die Grundlage des Sicherheitsmodells von Java und garantiert die Sicherheit von mobilem Code, der von einem nicht vertrauenswürdigen Remote-Host gesendet wird. Das Typsystem für Java-Bytecode weist jedoch einige technische Probleme auf, von denen eines in der Handhabung von Unterroutinen liegt. Basierend auf der Arbeit von Stata und Abadi und der von Qian präsentiert dieses Papier ein weiteres Typensystem für Java Virtual Machine Subroutinen. Unser Typensystem umfasst Typen der Form last(;-;-;-;https://link.springer.com/chapter/10.1007/3-540-49727-7_2 312c2f8a307be29060b9dfc4beb783a7;de;;;1.2.;;;Umwandlung von Stream-Processing-Funktionen in Zustandsübergangsmaschinen Die Blackbox-Sicht einer interaktiven Komponente in einem verteilten System konzentriert sich auf das Ein-/Ausgabeverhalten basierend auf Kommunikationshistorien. Die Glass-Box-Ansicht offenbart den internen Zustand der Komponente mit Eingaben, die eine Aktualisierung des Zustands bewirken. Die Black-Box-Ansicht wird durch eine Stream-Processing-Funktion modelliert, die Glass-Box-Ansicht durch eine Zustandsübergangsmaschine. Wir präsentieren eine formale Methode zur Transformation einer Stream-Processing-Funktion in eine Zustandsübergangsmaschine mit Input und Output. Wir führen Zustände als Abstraktionen der Eingabehistorie ein und leiten die Übergangsfunktionen der Maschine über Historienabstraktionen ab. Die Zustandsverfeinerung wird mit drei Anwendungen veranschaulicht, nämlich. eine Iteratorkomponente, eine Scankomponente und einen interaktiven Stapel.;-;-;-;https://link.springer.com/chapter/10.1007/11668855_1 5a3c5ccd42fe457b4ce0b89d09648721;de;;;1.2.;;;Nichtrelativistische Quantenmechanik Dieses Einführungskapitel hat zwei Ziele. Die erste ist eine kurze Zusammenfassung der Quantentheorie, von der angenommen wird, dass sie dem Leser bekannt ist, und insbesondere der Ergebnisse, die später verwendet werden. Eine eingehende Diskussion der Grundlagen der Quantenmechanik wird nicht gegeben und in diesem Kapitel werden die Ergebnisse ohne Beweise zitiert. Die Begründung für diese Politik ist, dass es eine Reihe exzellenter Texte gibt. Dennoch wird auf einige der in dieser Präsentation verwendeten Mathematik später ausführlicher eingegangen. Beispielsweise wird hier eine Kenntnis der Vektor- und Matrixalgebra vorausgesetzt, obwohl Kapitel 2 diesem Thema gewidmet ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-5688-9_1 87ba312599e5a759d774a70717e377ba;de;;;1.2.;;;Reform und Ungleichheit während des Übergangs: Eine Analyse mit Panel-Haushaltsumfragedaten, 1990–2005 Ungleichheitsüberlegungen sind für politische Entscheidungsträger wichtig, da sie nicht nur mit der wirtschaftlichen Lage, sondern auch mit den sozialen und politischen Bedingungen eines bestimmten Landes verknüpft sind. Dies gilt umso mehr für die Länder Osteuropas (EE) und der ehemaligen Sowjetunion (FSU), die im Zeitalter der Globalisierung den Übergang von der staatlich kontrollierten zur Marktwirtschaft vollzogen haben. Es gibt jedoch nur eine begrenzte Anzahl strenger empirischer Studien zur Entwicklung der Ungleichheit in den Transformationsländern. Obwohl es keinen Konsens über die Auswirkungen von Ungleichheit auf das Wirtschaftswachstum gibt, zeigen die in jüngster Zeit für die Transformationsländer verfügbaren empirischen Daten, dass die Auswirkungen der Ungleichheit auf das Wachstum negativ und robust sein können (z. B. Ferreira 1999, Ivanova 2006 , Sukiassyan 2007). Wir beginnen mit einem kurzen Überblick über die Literatur zu den Determinanten von Ungleichheit in Transformationsländern, mit besonderem Schwerpunkt auf der Rolle von Institutionen und Regierungspolitiken, die in der neuen Wirtschaftsordnung nach dem Übergang verfolgt werden. Die Studie versucht dann, die Ursachen der Veränderungen der Ungleichheit zu untersuchen und einige stilisierte Fakten über die Veränderungen der Ungleichheit anhand einer umfangreichen Datenbank von Haushaltsbefragungen zu ermitteln, die im Zeitraum 1990–2005 gesammelt wurden.;-;-;-;https://link.springer.com/chapter/10.1057/9780230361836_4 abd3d21653872042174e645f0832b4aa;de;;;1.2.;;;Die Entstehungsgeschichte von „The Visual Computer“ Eine kurze Geschichte und Perspektiven von „The Visual Computer“ und „The Visual Computer: An International Journal“ werden ausschließlich zur Förderung der zukünftigen Forschung zum visuellen Computer vorgestellt. Es steckt noch in den Kinderschuhen, und die Ansicht des Autors basiert auf seinen eigenen begrenzten Erfahrungen und ist daher anfällig für Fehler.;-;-;-;https://link.springer.com/article/10.1007/s00371-005-0359-2 98dc2f0bc816a3ac8067aa4e636c0a4e;de;;;1.2.;;;Untersuchung des Einsatzes von iterativer Lernkontrolle und repetitiver Kontrolle zur Implementierung periodischer Gangarten In den nächsten Jahren werden erhebliche Anstrengungen unternommen, um humanoide Roboter zu entwickeln, die echtes dynamisches Gehen oder sogar Laufen können. Man kann eine gewünschte Gangart numerisch berechnen, z.B. eine, die so optimiert wurde, dass sie ohne Rückkopplung asymptotisch stabil ist. Normalerweise würde man die Gangart als Befehle an die Steuerungen für die Robotergelenke geben. Jedoch weichen die Steuersystemausgaben im Allgemeinen von dem gegebenen Befehl ab, und je schneller sich der Befehl mit der Zeit ändert, desto größer ist die Abweichung. Iterative Learning Control (ILC) und Repetitive Control (RC) zielen darauf ab, dieses Problem in Situationen zu beheben, in denen sich ein Befehl wiederholt oder periodisch ist. Da Gangarten periodische Bewegungen sind, ist es natürlich zu fragen, ob ILC/RC bei der Implementierung von Gangarten in Hardware von Nutzen sein kann. Diese Regelkonzepte sind kein Ersatz für die Rückkopplungsregelung, sondern arbeiten in Kombination mit ihnen, indem sie die Befehle an die Rückkopplungsregler aus einer übergeordneten Perspektive anpassen. Es wird gezeigt, dass das Gangproblem weder genau zu den ILC- noch zu den RC-Problemaussagen passt. Gangprobleme werden notwendigerweise in Phasen unterteilt, die durch die Trittzeiten des Fußes definiert werden, und außerdem ist die Dauer der Phasen während des Lernprozesses von Zyklus zu Zyklus nicht gleich. Es werden mehrere Methoden vorgeschlagen, um diese Probleme anzugehen, und vier sich wiederholende Steuergesetze werden numerisch untersucht. Die Gesetze, die sowohl Positions- als auch Geschwindigkeitsfehler in die Aktualisierungen einschließen, werden als die effektivsten angesehen. Es scheint, dass solche verallgemeinerten RC-Gesetze bei entsprechender Verfeinerung sehr hilfreich sein könnten, um Hardware dazu zu bringen, gewünschte Gangarten auszuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36119-0_9 616b6457aaaaa0c3deae07fc58b89c3e;de;;;1.2.;;;Ein Archiv für historische Dokumentationen für spezialisierten und öffentlichen Zugang and Das Web ist derzeit die bevorzugte Umgebung zum Suchen und Durchsuchen von Informationen für Wissenschaftler und Laien gleichermaßen. Das Ziel der meisten Anwendungen für das Kulturerbe besteht darin, ein großes Publikum zu interessieren, und daher werden Webschnittstellen entwickelt, auch wenn ein Teil ihrer Funktionalität nicht der breiten Öffentlichkeit angeboten wird. Wir präsentieren eine webbasierte Schnittstelle zum Verwalten, Durchsuchen und Durchsuchen eines Archivs historischer Dokumente. Die Dokumente beziehen sich auf eine Region, die im Mittelalter eine wichtige Regionalmacht war, und ihre Originale befinden sich in der Obhut des portugiesischen Nationalarchivs. Die Herausforderungen des Projekts ergaben sich aus seinen Anforderungen in drei Aspekten: rigorose Archivbeschreibung, die Einbeziehung von Dokumentenanalysen und eine flexible Suchschnittstelle. Das System ist eine Instanz eines Multimedia-Datenbank-Frameworks, das Endbenutzern sowohl Durchsuch- als auch Abruffunktionen und den Sammlungsadministratoren Konfigurations- und Inhaltsverwaltungsdienste bereitstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74851-9_68 aba92aef49016b86cd4ea8a3b6a0fd0f;de;;;1.2.;;;Verwenden von Festplattendurchsatzdaten in Vorhersagen von End-to-End-Grid-Datenübertragungen Datengrids bieten eine Umgebung für Forschergemeinschaften, um den Zugriff auf Kopien großer Datensätze zu teilen, zu replizieren und zu verwalten. In solchen Umgebungen erfordert das Abrufen von Daten von einem der mehreren Replikatstandorte genaue Vorhersagen der End-to-End-Übertragungszeiten. Die Vorhersage der Übertragungszeit ist aufgrund der Beteiligung mehrerer gemeinsam genutzter Komponenten, einschließlich Netzwerke und Festplatten, im End-to-End-Datenpfad erheblich kompliziert, von denen jede Lastschwankungen unterliegt, die den Durchsatz erheblich beeinträchtigen können. Von diesen steigen die Kosten für Plattenzugriffe rapide an und wurden bisher nicht berücksichtigt, obwohl sie auf einigen Maschinen bis zu 30 % der Übertragungszeit ausmachen können. In diesem Papier stellen wir Techniken vor, um Beobachtungen des End-to-End-Anwendungsverhaltens und der Daten zum Platten-I/O-Durchsatz zu kombinieren. Wir entwickeln eine Reihe von Regressionsmodellen, um Vorhersagen abzuleiten, die die Auswirkungen von Plattenlastschwankungen auf die Dateiübertragungszeiten charakterisieren. Wir schließen auch Variationen von Netzwerkkomponenten ein und wenden diese Techniken auf die Protokolle der Übertragungsdaten an, indem wir den GridFTP-Server verwenden, der Teil des Globus Toolkit™ ist. Wir beobachten eine Verbesserung der Vorhersagegenauigkeit von bis zu 9 % im Vergleich zu Ansätzen, die auf isoliertem Systemverhalten in der Vergangenheit basieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36133-2_27 f666cab9bb56989674e7d594e7d82980;de;;;1.2.;;;Erkrankungen des Nervensystems Erkrankungen des Nervensystems können in mehrere Kategorien eingeteilt werden, von denen jede ihre eigene Bedeutung für die Lebensversicherung hat: (1) Krankheiten oder Störungen, die heilbar oder selbstlimitierend sind, keine Tendenz zum Fortschreiten oder Wiederauftreten haben und die Reste hinterlassen können oder nicht neurologische Defekte (z. B. Infektionen, Traumata), (2) Funktionsstörungen des Nervensystems (z. B. idiopathische Epilepsie, Migräne), (3) sekundäre Schädigungen des Nervengewebes durch Erkrankungen anderer Systeme, deren Prognose hauptsächlich die des Erkrankungen des Primärsystems (zB Bluthochdruck, atherothrombotische Gefäßerkrankung) und (4) fortschreitende Erkrankungen, bei denen ein vorzeitiger Tod üblich ist, wobei einige genetisch bedingt sind, einige eine immunpathologische Grundlage haben und andere eine noch unbekannte Ätiologie haben. Die Trennlinie zwischen den Kategorien ist möglicherweise nicht so deutlich, wie es die Klassifikation impliziert, da mehrere Krankheiten eine Zwischenstellung einnehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-14499-0_30 d22dfa00b6e060a1220f080498e30001;de;;;1.2.;;;Exakte Mastergleichung und allgemeine nicht-Markovsche Dynamik in offenen Quantensystemen Untersuchungen der Quanten- und mesoskopischen Thermodynamik zwingen zur Beantwortung zweier grundlegender Fragen im Zusammenhang mit den Grundlagen der statistischen Mechanik: (i) Wie entsteht makroskopische Irreversibilität aus mikroskopischer Reversibilität? (ii) Wie entspannt sich das System im Allgemeinen in ein thermisches Gleichgewicht mit seiner Umgebung? Die Antworten auf diese Fragen beruhen auf einem tiefen Verständnis der Nichtgleichgewichts-Dekohärenzdynamik von Systemen, die mit ihrer Umgebung interagieren. Dekohärenz ist auch ein Hauptanliegen bei der Entwicklung der Quanteninformationstechnologie. In den letzten zwei Jahrzehnten haben sich viele theoretische und experimentelle Untersuchungen diesem Thema gewidmet, wobei die meisten dieser Untersuchungen die Markov-Approximation (gedächtnislos) verwenden. Diese Untersuchungen haben zu einem teilweisen Verständnis mehrerer grundlegender Probleme wie der Quantenmessung und dem Übergang vom Quanten zum klassischen Übergang usw. geführt. Experimentelle Implementierungen der nanoskaligen Festkörper-Quanteninformationsverarbeitung machen jedoch starke nicht-Markovsche Gedächtniseffekte unvermeidlich, was zu ihr Studium ein dringendes und lebenswichtiges Thema. Durch die rigorose Ableitung der exakten Mastergleichung und eine systematische Untersuchung verschiedener nicht-Markovscher Prozesse für eine große Klasse offener Quantensysteme stellen wir fest, dass Dekohärenz unerwartete Komplexitäten manifestiert. Wir demonstrieren diese allgemeine nicht-Markovsche Dynamik, die sich in verschiedenen offenen Quantensystemen manifestiert.;-;-;-;https://link.springer.com/article/10.1140/epjst/e2018-800047-4 b39eeffbf9f3bec82d10f0a90e812ef1;de;;;1.2.;;;Mining von GPS-Daten für die Trajektorienempfehlung Die weit verbreitete Verwendung von GPS-Sensoren in Smartphones ermutigt die Menschen, ihre persönlichen Flugbahnen aufzuzeichnen und mit anderen im Internet zu teilen. Ein Empfehlungsdienst wird benötigt, um den Menschen zu helfen, die große Menge an Trajektorien zu verarbeiten und potenziell interessante auszuwählen. Die GPS-Spurdaten sind ein neues Informationsformat und nur wenige Arbeiten konzentrieren sich darauf, Benutzerpräferenzprofile darauf aufzubauen. In dieser Arbeit haben wir einen Trajektorienempfehlungsrahmen vorgeschlagen und drei Empfehlungsmethoden entwickelt, nämlich aktivitätsbasierte Empfehlung (ABR), GPS-basierte Empfehlung (GBR) und hybride Empfehlung. Der ABR empfiehlt Trajektorien, die sich ausschließlich auf Aktivitäts-Tags stützen. Für GBR haben wir ein generatives Modell vorgeschlagen, um Benutzerprofile basierend auf GPS-Spuren zu erstellen. Die Hybrid-Empfehlung kombiniert ABR und GBR. Wir haben schließlich umfangreiche Experimente durchgeführt, um diese vorgeschlagenen Lösungen zu bewerten, und es stellte sich heraus, dass die Hybridlösung die beste Leistung zeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06605-9_5 9e2a83aa73d566b4a2e5fe7a2f54e882;de;;;1.2.;;;Einführung: Zwei Ideen der Tradition In diesem Kapitel werden zwei Vorstellungen von Tradition skizziert: Tradition als kulturelle Praxis und Tradition als Idealtyp oder Konzept. Die erste imaginiert eine Essenz, die durch Iterationen erhalten bleibt, die zweite sucht nach Transformationsprozessen. In Bezug auf eine internationale Gesellschaftstradition legt sie nahe, dass letztere die Prozesse beleuchtet, durch die die internationale Gesellschaft zu einer Tradition wurde. Es weist darauf hin, wie Denker, die die Idee der „internationalen Gesellschaft“ oder der „Staatengesellschaft“ verwenden, nach vorne griffen, um etwas Neues zu erklären, und nach hinten, um ihr neues Verständnis zu rechtfertigen oder zu begründen. Es deutet darauf hin, dass Grotius den idealen Typus lieferte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-77018-1_1 c4293c26ce694b0fda3204e73137cf0e;de;;;1.2.;;;Das Tempo des modernen Lebens II: Von den Geschwindigkeiten der zeitgenössischen Mikroevolution zu Mustern und Prozessen Wir haben eine Datenbank der Mikroevolution auf zeitgenössischen Zeitskalen in der Natur (47 Quellenartikel, 30 Tierarten) zusammengestellt, die 2649 Evolutionsraten bei Darwinen (proportionale Veränderung pro Million Jahre) und 2151 Evolutionsraten bei Haldanen (Standardabweichungen pro Generation) umfasst. Hier zeigen wir, wie quantitative Ratenmessungen allgemeine Einblicke in Muster und Prozesse der Evolution geben können. Die Häufigkeitsverteilung der evolutionären Raten war ungefähr log-normal, mit vielen langsamen Raten und wenigen schnellen Raten. Die von Haldanen geschätzten Nettoselektionsintensitäten waren im Durchschnitt niedriger als die Selektionsintensitäten, die üblicherweise direkt in natürlichen Populationen gemessen werden. Dieser Unterschied deutet darauf hin, dass die natürliche Selektion leicht eine beobachtete Mikroevolution erreichen könnte, aber dass die typischerweise in der Natur gemessenen Selektionsintensitäten selten lange aufrechterhalten werden (sonst wären die beobachteten Evolutionsraten höher). Merkmale, die eng mit der Fitness verbunden sind (Lebensgeschichte-Merkmale), scheinen sich mindestens genauso schnell zu entwickeln wie Merkmale, die weniger eng mit der Fitness (Morphologie) verbunden sind. Das Ausmaß des evolutionären Unterschieds nahm mit der Länge des Zeitintervalls zu, insbesondere wenn die maximalen Raten aus einer bestimmten Studie berücksichtigt wurden. Dieses Muster deutet auf eine allgemeine Tendenz hin zu einer zunehmenden evolutionären Diversifizierung mit der Zeit hin. Die Evolutionsraten neigten jedoch auch dazu, mit der Zeit abzunehmen, vielleicht weil längere Zeitintervalle im Durchschnitt immer unterschiedliche Raten im Laufe der Zeit durchschnitten oder weil sich die Evolution verlangsamt, wenn sich Populationen neuen Optima nähern oder die genetische Variation aufgebraucht ist. In Kombination legen unsere Ergebnisse nahe, dass makroevolutionäre Übergänge letztendlich durch Mikroevolution entstehen können, die gelegentlich „groß geschrieben“ werden, aber möglicherweise zeitlich durch Mikroevolution „in Anfällen und Anfängen“ gekennzeichnet sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0585-2_10 3ed3da9482ee2a72724e127a1b8ec771;de;;;1.2.;;;Mit Einstellungen und App-Daten arbeiten In diesem Kapitel zeige ich Ihnen, wie Sie dem Benutzer Anwendungseinstellungen präsentieren und diese dauerhaft machen. Fast jede App verfügt über einige Funktionen, die der Benutzer anpassen kann, und die Präsentation der Optionen für den Benutzer auf eine Weise, die mit anderen Apps übereinstimmt, ist ein wichtiger Weg, um sicherzustellen, dass Ihre Benutzer bei der Arbeit mit ihrer früheren Windows-Erfahrung aufbauen können Ihre App.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-4402-8_20 f80c7c43fa88b3911aa1ccbd20434b20;de;;;1.2.;;;Moral und nationales Schicksal in Fray Luis Diese Untersuchung und Interpretation von Themen in den Werken von Fray Luis de León in Bezug auf seine Moraltheorie widerspricht der von Menéndez y Pelayo und anderen, dass sein moralisches Denken grundsätzlich hellenischen Charakter hat oder dass es mit der katholischen Moraltheologie identisch ist. Die zu vertretende Position ist vielmehr, dass Fray Luis nicht nur als christlicher Kabalist zu betrachten ist, sondern dass die jüdische Kulturtradition als ausschließliche Quelle seiner eigenen Mystiklehre angesehen werden kann. Es ist die Universalität der jüdischen Moraltheorie, die in seinem eigenen moralischen Denken einzigartig und besonders ist. Diese Eigenschaft wird für diese bemerkenswerte Haltung gegenüber dem nationalen Schicksal Spaniens von Bedeutung sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-2733-5_5 71f4fedfc555febb1033778608094b14;de;;;1.2.;;;Beruhigungsmittel/Anxiolytika: Lavendelöl Lavendelöl, reich an Linalool und Linalylacetat, wird seit langem als Beruhigungsmittel zur Linderung von Symptomen von psychischem Stress und als Einschlafhilfe verwendet. Die drei wichtigsten botanischen Lavendelarten, die für medizinische Zwecke geerntet werden, sind;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-319-56015-1_159-1 d030a1ff649c573be8d82485879ac5e9;de;;;1.2.;;;Einführung: Feminisms and Futures: Women’s Writing 1660–1830 Obwohl diese Sammlung von Essays von der Konferenz zum zehnjährigen Jubiläum der Chawton House Library inspiriert ist, ist dieses Buch kein Tagungsband. Tatsächlich entstanden, und ziemlich passend, die folgenden Essays wie das Feld, das ihr Thema ist, am Rande der Hauptbühne (die in diesem Fall ein Festzelt auf dem südlichen Rasen der Chawton House Library war). Sie entstanden in Chats auf Fluren und beim Kaffee, gefolgt von Gesprächen an anderen Orten, auf anderen Konferenzen, per E-Mail und telefonisch. Die daraus resultierenden Beiträge zu dieser Sammlung spiegeln das gleichzeitig aufregende und zugleich beunruhigende Gefühl wider, das viele von uns in unserer Erkenntnis teilten, dass das Gespräch, das wir 2013 über das Schreiben von Frauen des 18. Eröffnung der Hausbibliothek im Jahr 2003.;-;-;-;https://link.springer.com/chapter/10.1057/978-1-137-54382-0_2 daed36dc99cb25e4b1e6482f021483fe;de;;;1.2.;;;Kriterien basierend auf den Ergebnissen der Experimente In diesem Kapitel werden Kriterien für Abfertigungsqualitäten von Transportflugzeugen mit Closed-Loop-Flugregelsystemen behandelt. Die Beziehungen zwischen bestehenden und den in dieser Studie vorgeschlagenen Kriterien werden ausführlich diskutiert. Die berücksichtigten Kriterien beschränken sich auf Längsmanöver während des Flugs mit niedriger Geschwindigkeit, einschließlich Flare und Aufsetzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1193-7_9 39975287e342cbf6b0b76aa069b6f188;de;;;1.2.;;;Gegenseitige Singularität genealogischer Strukturen von Fleming-Viot und kontinuierlichen Verzweigungsprozessen Es werden zwei Klassen von maßbewerteten Prozessen (Superprozesse und Fleming-Viot-Prozesse) betrachtet und ihre historischen Strukturen diskutiert. Für Vertreter beider Klassen zeigt sich, dass zwar ihre festen Zeitverteilungen eng verwandt sind, ihre historischen (genealogischen) Strukturen jedoch wechselseitig singulär sind. Dies geschieht aufgrund der gegenseitigen Singularität zufälliger Sequenzen, die die Teilungszeiten der Stammbäume dieser Prozesse beschreiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-0279-0_2 72db209d3b64e259c71210d577e97a8d;de;;;1.2.;;;Dickdarm, Rektum und Anus Der Zweck dieses Kapitels ist es, dem Medizinstudenten und Assistenzarzt einen breiten Überblick über die Erkrankungen des Dickdarms, des Mastdarms und des Anus zu geben. Aufgrund der Breite des behandelten Materials ist dieses Kapitel weder umfassend noch ausführlich. Für eine ausführlichere Überprüfung wird der Leser auf den Referenzabschnitt am Ende des Kapitels verwiesen. Wir hoffen jedoch, dass der Leser durch dieses Kapitel das Grundgerüst erhält, auf dem er das aus diesen anderen Quellen gewonnene Wissen und seine Erfahrungen in der Ausbildung hinzufügen und organisieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-57282-1_33 d900e568bd981c9d88aed5b5075d47cb;de;;;1.2.;;;Segmentierung von Transkripten der mündlichen Geschichte Die Aufteilung mündlicher Überlieferungen in thematisch kohärente Segmente kann sie online leichter zugänglich machen. Menschen fällen regelmäßig Urteile darüber, wo kohärente Segmente aus mündlichen Überlieferungen extrahiert werden können. Aber wenn verschiedene Personen gebeten werden, kohärente Abschnitte aus denselben mündlichen Überlieferungen zu extrahieren, sind sie sich oft nicht einig, wo solche Abschnitte beginnen und enden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24592-8_27 3fe3fa7c587860b032919124a05551b1;de;;;1.2.;;;Eine Arbeitsumgebung für eine digitale Bibliothek historischer Ressourcen Eine Arbeitsumgebung für die digitale Bibliothek des National Archives of Singapore (NAS) wird beschrieben. Das System bietet eine integrierte Plattform zur Unterstützung wissenschaftlicher Aufgaben wie das Durchsuchen, Abfragen, Organisieren und Kommentieren von Ressourcen mithilfe einer räumlichen Metapher. Nach Fertigstellung ermöglicht das System den Benutzern, persönliche Ressourcensammlungen zu erstellen und gemeinsam zu nutzen sowie neue Ressourcen verschiedener Art über Anwendungs-Plug-ins zu erstellen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36227-4_29 20fa48dff106caa7f8e381cec87e76ff;de;;;1.2.;;;Referenzdienste in einer digitalen Bibliothek historischer Artefakte Das National Archives of Singapore (NAS) ist eine Regierungsorganisation von Singapur, die mit der Erhaltung nationaler Aufzeichnungen beauftragt ist. Das NAS bietet einen Referenzdienst, bei dem NAS-Mitarbeiter auf öffentliche Anfragen zu Archivressourcenangelegenheiten antworten. Im Laufe der Zeit stellte sich heraus, dass bestimmte Anfragen häufiger gestellt wurden als andere. Daher wurden physische Ordner gepflegt, um Informationen zu Themen zu speichern, die als beliebte Anfragen identifiziert wurden. Bei vielen Anfragen erwies sich dieser papierbasierte Ansatz jedoch als unzureichend. Die Inquiry Database (ED) wurde daher konzipiert, um den Auskunftsdienst zu automatisieren und die Notwendigkeit für die Öffentlichkeit, für gemeinsame Anfragen persönlich in den Räumlichkeiten des NAS nachzufragen, zu eliminieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36227-4_66 d9ef8ff4ed3e80ede7f70007726f552b;de;;;1.2.;;;Inkohärent, gewalttätig und dünn: Patienten und Wochenbettwahn im Royal Edinburgh Asylum Im Jahr 1883 war Thomas Clouston, medizinischer Superintendent des Royal Edinburgh Asylum, fasziniert, als er die alten Fallnotizen der Anstalt durchlas und Bemerkungen zu den „seltsamen Biografien“, „falschen Überzeugungen“ und „seltsamen Verhalten“ der Patienten machte.;-;-;-;https://link.springer.com/chapter/10.1057/9780230511866_5 54b8845376dee8ad189bb9ffdba6548d;de;;;1.2.;;;Das Spannungs-Dehnungs-Verhalten von IN738LC unter thermomechanischer uni- und multiaxialer Ermüdungsbelastung Hochtemperaturkomponenten wie gekühlte oder ungekühlte Turbinenschaufeln der ersten Stufe werden triaxialen Spannungsfeldern ausgesetzt, die hauptsächlich durch eingeschränkte thermische Spannungsfelder während des Betriebs induziert werden. Die steilsten Temperaturgradienten und damit die größten thermoinduzierten Spannungen werden während der An- und Abfahrphasen des Turbinenbetriebs erzeugt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-8636-8_44 38c22f024d7a1b12df3f58990aa72be1;de;;;1.2.;;;Anthony Burgess: Die Perspektive von Anthony Burgess [John Anthony Burgess Wilson] in seinen beiden historischen Romanen ist die eines Lehrers, der auch Entertainer ist. Beide Rollen sind für Burgess selbstverständlich. Er ist ein witziger, oft etwas frivoler Literaturjournalist und Rundfunksprecher. Er war Schulmeister, Kolonialerziehungsbeamter und Hochschullehrer: Viele seiner Arbeiten haben einen pädagogischen Aspekt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-08261-2_4 163fb86c56ca0587efe7f290f32c95d0;de;;;1.2.;;;Einführung und Quellen Bei der Beschreibung von Gliedmaßenverlust werden alternative Terminologien erwähnt, bevor das Wort Amputation Anfang des 17. Jahrhunderts im Englischen eingeführt wurde. Seitdem sind die schriftlichen Beweise für eine elektive Amputation kumulativ enorm, zunächst stimuliert durch den Aufprall von Schussverletzungen. Die lange, bis in die Vorgeschichte zurückreichende Präambel natürlicher Amputationen und nicht-chirurgischer Amputierter wurde jedoch wenig beachtet und weiterentwickelt. In diesem Kapitel werden ausgewählte schriftliche Quellen aus historischen Perspektiven betrachtet und als unvollständig anerkannt. Es wird auf zahlreiche alternative Verfahren hingewiesen, die seit dem Ende des 18. Jahrhunderts eingeführt wurden, um Amputationen abzuwenden, und auf bestimmte Gesellschaften, die sich aus religiösen Gründen gegen Amputationen aussprechen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84628-509-7_1 a57ed906d9b447025b6375a22fdc285b;de;;;1.2.;;;Auswirkungen Die Erde wird oft als Wärmekraftmaschine angesehen, da viele der wichtigen Phänomene der Erde durch ihre innere Wärmeenergie verursacht werden. Die Phänomene umfassen so großräumige Phänomene wie globale Plattentektonik und kleinräumige Phänomene wie lokale Seismizität, Krustenbewegungen, Vulkanismus und Kohlenwasserstoffreifung. Um die Funktionsweise dieser riesigen Wärmekraftmaschine aufzuklären, müssen die Art und Verteilung ihrer Wärmequellen, die Innentemperatur und die Art der Wärmeübertragung geklärt werden. Durch solche Studien werden die Mechanismen der Erdprozesse abgeleitet und die thermische Geschichte und tektonische Entwicklung der Erde rekonstruiert. Der Weg einer solchen Forschung ist jedoch kein einfacher, da das Problem im Wesentlichen zeitlich und räumlich invers mit nicht eindeutigen Lösungen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-2847-3_9 3d4c7b09397401e00be66b45885cd5dd;de;;;1.2.;;;Existenzialistische Interpretation und objektive Beschreibung Das Versagen der Geschichtlichkeit in Buris Theologie ist darauf zurückzuführen, wie das Problem der Objektivität die existentialistische Interpretation zu bestimmen scheint. Dadurch reduziert sich der Glaubensinhalt in einem fast ganz unspezifischen Sinn auf das persönliche Sein, die einzige Beziehung zwischen christlichen Aussagen und christlicher Existenz ist kausal oder gar magisch, und das christliche Selbstverständnis wird faktisch der theologischen Beschreibung unzugänglich. Diese Probleme lassen sich nur vermeiden, wenn es gelingt, die konkrete Geschichtlichkeit des christlichen Selbstverständnisses zu spezifizieren, was jedoch eine gewisse Einschränkung der Buris Beschränkung der Objektivierungsmöglichkeit erfordert. Die Aufgabe dieses Kapitels besteht darin, zu untersuchen, wie eine solche Einschränkung im Rahmen existentialistischer Interpretation vorgenommen werden könnte. Die Diskussion wird zwei Aspekte haben. Zunächst wird gezeigt, dass ein angemessenes Verständnis der Nichtobjektivität des Glaubens bestimmte Arten von objektiven Beschreibungen des Glaubens nicht ausschließen muss. Hier wird es darum gehen, Wesen und Grenzen der Theologie als existentialistische Deutung genauer zu definieren und zu zeigen, welchen Stellenwert eine solche Theologie am Problem der Objektivität haben sollte. Zweitens soll der Status bestimmter Arten von objektiven Behauptungen in Buris Theologie überprüft werden, um zu sehen, ob Buri selbst nicht versehentlich die These dieser Studie über die Grenzen des Objektivitätsproblems bestätigt. Im abschließenden Kapitel können dann die systematischen Konsequenzen dieser These für die Hermeneutik einer radikalen Theologie betrachtet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-2760-1_6 875cdaf2e8fc87ebb52e553ab4d7c8be;de;;;1.2.;;;Veränderungen der Oberflächenalbedo durch die landwirtschaftliche Entwicklung und klimatische Auswirkungen im Nordosten Chinas Um das Verständnis der regionalen klimatischen Auswirkungen vergangener vom Menschen verursachter Veränderungen der Landbedeckung zu verbessern, wurden die Veränderungen der Oberflächenalbedo, die durch die Umwandlung von natürlicher Vegetation in Ackerland verursacht wurden, in den letzten 300 Jahren im Nordosten Chinas geschätzt und ihre klimatischen Auswirkungen mithilfe des Wetters simuliert Forschungs- und Prognosemodell (WRF). Es wurden wesentliche Aufzeichnungen der natürlichen Vegetation verwendet, die aus historischen Dokumenten und einem regionalen optimalen Datensatz der Oberflächenalbedo zusammengestellt wurden. Die Ergebnisse zeigen, dass die Oberflächenalbedo aufgrund der Umwandlung von Grasland in Ackerland in der Nordostchinesischen Ebene um 0,01–0,03 abnahm und um 0,005–0,015 aufgrund der Umwandlung von Wäldern in Ackerland in den umliegenden Bergen zunahm. Infolgedessen erhöhte sich in der Nordostchinesischen Ebene die Oberflächennettostrahlung um 4–8 W/m;-;-;-;https://link.springer.com/article/10.1007/s11769-012-0535-z a45b912868846832c25663d6954b3806;de;;;1.3.;;;Angst vor Statistik und Computernutzung: Eine Studie zu den Hauptfächern der Hochschulbildung Die FORSCHUNG hat gezeigt, dass die Einführung von Computertechnologie in einen Statistikunterricht geschlechtsspezifische negative Auswirkungen auf die Leistung haben kann. Um dieses Phänomen besser zu verstehen, war der Zweck dieser Studie, ein Konstrukt zu untersuchen, die Lernangst, die nachweislich stark mit der Leistung korreliert. Während der Studie verwendete eine Kontrollgruppe von Hochschulabsolventen (n = 44) während des statistischen Teils eines Bildungsforschungskurses Taschenrechner für die Berechnung, während eine experimentelle Gruppe (n = 43) statistische Software verwendete. Ergebnisse aus dem;-;-;-;https://link.springer.com/article/10.1007/BF02940893 3de39335b95e41a7b532ba75a0e3ac33;de;;;1.2.;;;Eine molekulare Perspektive zur Erhaltung der Vielfalt Die Notwendigkeit, die genetische Variation zusammen mit anderen hierarchischen Ebenen der biologischen Vielfalt zu schützen, wird in zahlreichen internationalen Übereinkommen und nationalen Richtlinien genannt, aber die Konzepte und Informationen, die zur Erreichung dieses Ziels erforderlich sind, sind unzureichend. In einer sich ständig verändernden Welt sollte die Naturschutzplanung darauf abzielen, evolutionäre Prozesse und die dafür notwendige ökologische Funktion von Systemen aufrechtzuerhalten. Zum Zwecke der Bewertung der Erhaltungswerte von Gebieten schlage ich vor, die genetische Vielfalt in adaptive und historische Komponenten zu unterteilen. Surrogate wie morphologische Differenzierungen (z. B. kongruente Verteilungen von Unterarten) spiegeln eher die adaptive als die historische Komponente der genetischen Vielfalt wider. Vorbehaltlich der dauerhaften Lebensfähigkeit der Populationen ist ersteres ersetzbar, letzteres nicht. Daraus folgt, dass die Identifizierung historisch isolierter Gemeinschaften durch vergleichende Phylogeographie oder vielleicht Umweltmodellierung ein wichtiger Bestandteil von Naturschutzbewertungen ist. Dieses Papier veranschaulicht die Anwendung vergleichender Phylogeographie auf Naturschutzbewertungen anhand von zwei Fallstudien, der Regenwaldfauna in den feuchten Tropen Australiens und der waldbewohnenden Herpetofauna im Südosten von Queensland. In beiden Systemen ist die mtDNA-Diversität in einer Weise, die weitgehend mit Umweltmodellen vereinbar ist, unter den Populationen stark aufgeteilt, obwohl sie sich in dem Ausmaß unterscheiden, in dem historische Vikarianz kongruente Diversitätsverteilungen definiert. Für den Schutz priorisierte Gebiete sollten diese historisch isolierten Gemeinschaften zusammen mit starken Umweltgradienten innerhalb jeder umfassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-65930-3_2 861dba1b52bc0d22bf7ce13f61ac6456;de;;;1.3.;;;Globalisierung der Wirtschaft: Die Auswirkungen auf Bildung und Qualifikationsbildung Die Globalisierung der Wirtschaft bietet enorme Möglichkeiten, erfordert aber im Gegenzug deutliche Veränderungen im Produktionsverhalten und in der Ausbildungspolitik. Einzelne Länder werden schwere Entscheidungen treffen müssen, um in einer sich rasch wandelnden Weltwirtschaft sowohl internationale Wettbewerbsfähigkeit als auch nationales Wohlergehen zu erreichen.;-;-;-;https://link.springer.com/article/10.1007/BF02755353 d0fa2ced96ccdfbd0c6b067a4e6f123a;de;;;1.2.;;;Entwicklung und Interkalibrierung von Methoden im nordischen Süßwasserfischmonitoring Das Bewusstsein für die Auswirkungen grenzüberschreitender Umweltverschmutzung hat die Notwendigkeit erhöht, vergleichbare Methoden anzuwenden und gemeinsame Studien zwischen den Ländern im Umweltmonitoring zu initiieren. Bei der Überwachung von Süßwasserfischen wurden eine Reihe verschiedener Methoden verwendet, die die Möglichkeiten für vergleichende Bewertungen zwischen den Ländern stark einschränken. 1990 wurde ein Workshop zur Probenahme von Süßwasserfischen initiiert, um Methoden zu entwickeln und zu kalibrieren, die bei Untersuchungen von Süßwasserfischen in den nordischen Ländern verwendet werden. Während eines Zeitraums von drei Jahren wurde ein neuer Typ von mehrmaschigen Kiemennetzen für die Fischüberwachung in Norwegen, Finnland und Schweden entwickelt. Vergleichsstudien und Kiemennetz-Selektivitätsbewertungen zeigen, dass diese neuen mehrmaschigen Kiemennetze die tatsächliche Populationsstruktur des Europäischen Barschs besser beschreiben;-;-;-;https://link.springer.com/article/10.1007/BF00476862 d5c36555280472aa3df2767c47b817c4;de;;;1.2.;;;Konvergenz der Druckwelle in einer Flüssigkeit Die Konvergenz einer impulsiven Druckwelle in einer Flüssigkeit wird numerisch untersucht. Die Druckwelle wird durch eine impulsive Bewegung eines kugelförmigen Daiphragmas erzeugt. In dieser Simulation wird die Ausbreitung einer sehr kurzen Pulswelle (Wellenlänge von etwa 6 mm) fast ohne Dämpfung unter Verwendung genauer endlicher verschiedener Schemata höherer Ordnung berechnet und das Ergebnis zeigt, dass die Druckwelle im Brennpunkt konvergiert und die Expansionswelle erzeugt von der Kante der Membran erzeugt einen Unterdruckbereich, der der Kompressionswelle folgt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-77648-9_85 fc5231ef36d1f5db46a6774a229e5ba5;de;;;1.2.;;;Axialsymmetrische Ausbreitung von Schmelzen mit basaler Erstarrung Es wird eine Reihe von Experimenten vorgestellt, die eine axialsymmetrische metallische Schmelzeausbreitung in Gegenwart einer basalen Erstarrung zeigen. Der Einfluss der basalen Kruste auf (i) die Lage und Strömungsstruktur des hydraulischen Sprungs und auf (ii) den Verlauf der bewegten (äußeren) Kontaktlinie wird diskutiert. Wir stellen fest, dass die wachsende Basalkruste für den nach innen gerichteten hydraulischen Sprung verantwortlich ist, wahrscheinlich in Verbindung mit einer Änderung der Strömungsstruktur. Die sich bewegende Kontaktlinie neigt dazu, von einer kreisförmigen Form in Richtung einer Fingerform für ein gekühltes Substrat abzuweichen. Somit destabilisiert die Kühlung des Substrats die axialsymmetrische Ausbreitung.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-9807-1_22 316780b3bd689e04d25869ce3608cce5;de;;;1.2.;;;Epilog: Agenda, Dialog und Praxis Ich begann das Buch (Vorwort) mit dem Hinweis auf eine Reihe praktischer lokaler und globaler Probleme, mit denen China und die Welt insgesamt konfrontiert sind. In der Einleitung habe ich dann gefragt, ob die bestehende Diskursforschung der Aufgabe gewachsen wäre, fand sie aber in ihrer jetzigen Form nur kontraproduktiv und schlug daraufhin ein kulturell angemesseneres Paradigma der Diskursforschung zur Untersuchung der Diskurse der Gegenwart vor Chinesische Gesellschaft, das Hauptanliegen des vorliegenden Buches.;-;-;-;https://link.springer.com/chapter/10.1057/9781137365040_8 2c63eec2ccd177bc9cf0878b17cf3908;de;;;1.2.;;;Bauers Leben bis zur Veröffentlichung von Strauss’ Bruno Bauer wurde 1809 in Eisenberg, Thüringen geboren. Thüringen war auch der Geburtsort von Martin Luther und oft wurden Vergleiche zwischen dem großen deutschen Reformator des 16. dieser Zweck.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-1067-2_3 294fa8b7615cbcad88ddebd97e361bfe;de;;;1.3.;;;Verbindungen zwischen Forschung und Schule: Die Rolle von Doktoranden In Australien hat der Wunsch, die Rendite von Investitionen in die Bildungsforschung zu steigern, das Interesse an verschiedenen Aspekten der Forschungswirkung geweckt, einschließlich der Art der Verbindungen zwischen Forschung und Bildung. Eine bedeutende Gruppe in solchen Verbindungen sind Doktoranden, die auch Lehrer oder Bildungsadministratoren sind. Von 1267 Doktoranden wurden Antworten auf Fragen zu ihrer Wahrnehmung neuer Entwicklungen in Schule und Forschung, einschließlich ihres eigenen Studiums, eingeholt. Untersucht wurden auch Unterschiede zwischen postgradualen Studierenden, die an der schulischen Bildung beteiligt waren, und solchen, die auf dieser Ebene nicht involviert waren. Als Hauptquelle für neue Entwicklungen wurden die Kollegen innerhalb ihrer Schule genannt, aber auch die Universitäten sahen zwei Drittel als wichtige Quelle. Die am häufigsten beschriebene Art der Neuentwicklung lag im Bereich des Curriculums. Forschung war die am häufigsten genannte Grundlage für neue Ideen und Entwicklungen in Schulen, wobei eine große Mehrheit angab, dass die Forschung zumindest einen gewissen Einfluss auf ihre Arbeit und die Bildung im Allgemeinen in ihrer Region hatte, wobei die Forschung häufig von Kollegen eingeführt oder vermittelt wurde. Die von diesen Studierenden in ihren eigenen Forschungen und Projekten bearbeiteten Bereiche waren vor allem schulrelevant, am häufigsten in den Bereichen Curriculum sowie Bildungsprozesse und -strukturen. Schließlich wird die Bedeutung von Doktoranden als Bindeglied zwischen Forschung und Schule betont.;-;-;-;https://link.springer.com/article/10.1007/BF03216762 0ae1c6567f07ed3e9e81d5805aef733b;de;;;1.2.;;;Gemeinsame Steuerung für Dummies: Eine Ausarbeitung von Lowenkron Modell von Joint (Stimulus) Kontrolle Das folgende Papier beschreibt das Lowenkron-Modell der Gelenk-(Stimulus-)Kontrolle. Gemeinsame Kontrolle wird als ein Mittel zur Bilanzierung von Leistungen, insbesondere generalisierten Leistungen, beschrieben, für die eine Vorgeschichte der Eventualbeherrschung keine angemessene Berücksichtigung bietet. Beispiele werden bereitgestellt, um Fälle zu veranschaulichen, in denen gemeinsame Kontrolle die Ausführung einer Aufgabe erleichtern kann.;-;-;-;https://link.springer.com/article/10.1007/BF03393033 621abc4074680ec5ac0908abb2f7a563;de;;;1.3.;;;Konzeptionelles Lernen von Naturwissenschaften, unterstützt durch Java-konforme Technologien Der Beitrag stellt das Konzept der Wiederverwendbarkeit von Experimenten vor, die mit CoLoS-Autorentools erstellt und in eine Java-Umgebung konvertiert wurden. Dies ermöglicht eine erhöhte Plattformunabhängigkeit und einen möglichen Einsatz in einer verteilten Umgebung. Die ursprünglichen CoLoS-Experimente laufen auf Motif-kompatiblen Plattformen, die normalerweise auf Workstations mit dem UNIX-Betriebssystem verwendet werden. Diese Experimente werden in Applets umgewandelt, die als normale Komponenten von Hypertext-basierten Lektionen verwendet werden können. Auf diese Weise sind die ursprünglichen CoLoS-Autorentools weiterhin nützlich für die Entwicklung neuer Experimente, die auf den in den Schulen beliebtesten Plattformen verwendet werden können. Das Konzept wird durch die Möglichkeiten der lokalen Netze und des Internets erweitert. Die zusätzlichen Werkzeuge für Fernunterricht und verteilte Gruppenarbeit werden entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35352-4_22 fa9757154b13deea85a5883b96007d96;de;;;1.3.;;;Psychometrische Eigenschaften der chinesischen Version des Psycho-Educational Profile-Revised (CPEP-R) Ziel dieser Studie war es, die Reliabilität und Validität der chinesischen Version des Psycho-Educational Profile-Revised (PEP-R) zu untersuchen. Das chinesische PEP-R (CPEP-R) wurde 63 Vorschulkindern mit Symptomen einer autistischen Störung verabreicht, die aus speziellen Kindertagesstätten in Hongkong rekrutiert wurden. Die Ergebnisse zeigten, dass die Skalen des CPEP-R intern konsistent, bei allen Bewertern zuverlässig und zeitlich stabil waren. Hinsichtlich der gleichzeitigen Validität des CPEP-R korrelierten der vom CPEP-R erfasste Entwicklungsscore und das Entwicklungsalter signifikant mit der Merrill-Palmer Scale of Mental Tests und der Hong Kong Based Adaptive Behavior Scale. Die Verhaltensskala des CPEP-R war auch signifikant mit der Skala zur Bewertung von Autismus im Kindesalter verwandt. Neben der Replikation der Ergebnisse im westlichen Kontext legt die vorliegende Studie nahe, dass die psychometrischen Eigenschaften des PEP-R kulturübergreifend stabil sind und die damit verbundenen Ergebnisse die kulturübergreifende Zuverlässigkeit des Instruments unterstützen.;-;-;-;https://link.springer.com/article/10.1007/s10803-004-1029-3 59304907e094ed9aa00ef45d936b358b;de;;;1.3.;;;Die relative Schwierigkeit der Umkehrung und Dimensionsverschiebung als Funktion des Überlernens Tauben wurden in einer Reihe von diskriminierenden Problemen trainiert, wobei sich die Stimuli sowohl in Farbe als auch in Form unterschieden, wobei eine Dimension relevant und die andere bei jedem Problem irrelevant war. Ein ORE für die Form erschien spät im Experiment, aber die Farbumkehr wurde durch Übertraining verzögert. Übertraining. auf die Form verzögerte die Farbänderung, aber ein Übertraining auf die Farbe hatte keine Auswirkung auf die Farbänderung. Bei unterschiedlichen Schwierigkeitsgraden von Umkehr und Schalten war das Schalten einfacher, das gegenteilige Verhältnis wurde nicht durch Übertraining hergestellt.;-;-;-;https://link.springer.com/article/10.3758/BF03343138 ff2bdc50341d84d85984903aeb7d80b0;de;;;1.3.;;;Systemintegration in APO-DP Die übliche Methode zum Laden von Daten in den APO ist die Verwendung der Info-Cube-Technik aus dem BW-Teil des APO. Der Infowürfel besteht aus den Infoobjekten „Kennzahlen“, „Merkmale“ und „Zeitmerkmale“, Abbildung 14.1. Der Infocube ist somit die Analogon zur Kombination aus Planungsobjektstruktur und Planungsgebiet. Im APO sind die Merkmale 9ALOCNO, 9AMATNR und 9AVERSION für den Infocube obligatorisch. Der Infobereich ist lediglich eine Entität zum Gruppieren von Info-Cubes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-10145-2_14 d4d835b739dcaf82df25d42db46b0726;de;;;1.3.;;;Die Kosten für Bau und Betrieb eines Simulationszentrums Der Mangel an Finanzinformationen führt zu Planungsschwierigkeiten und kann die Einführung einer simulatorbasierten Ausbildung verzögern. Wir haben Daten aus einem bestehenden Simulationszentrum gesammelt und ein Bau- und Betriebsbudget beschrieben, um interessierten Institutionen die Planung und den Bau zu erleichtern.;-;-;-;https://link.springer.com/article/10.1007/BF03013344 fb7cf46a1275e8bdd4202976590f062d;de;;;1.3.;;;Umsetzung der politischen Bildung: Die Rolle der Schule oder Hochschule Welche Rolle spielt die Schule oder das College innerhalb des größeren universitären Umfelds bei der Umsetzung von Politikstudien in der angewandten Entwicklungswissenschaft? Die Antwort auf diese Frage hängt weitgehend davon ab, ob die wissenschaftliche kritische Masse innerhalb oder außerhalb der Hochschulgrenzen liegt, und wenn innerhalb, ob sie abteilungsübergreifend ist. Critical Mass bezieht sich auf die Tiefe der Expertise in der Analyse der öffentlichen Politik und im Programmmanagement zwischen den Disziplinen und Feldern der Entwicklungswissenschaft.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4653-5_11 20845bc18ff6174c3c7522432d6efaab;de;;;1.3.;;;Industrie-Hochschul-Kooperation für die berufliche Bildung Die Veröffentlichung von Bildung erfordert die Zusammenarbeit von Bildungseinrichtungen und der Industrie. Die Ausbildung muss auf die beruflichen Möglichkeiten zugeschnitten sein, mit einer akademischen Abteilung verbunden sein und den Studierenden einen breiten Überblick über die Branche geben. Sie darf weder die mittel- und langfristige noch die kurzfristige Vernachlässigung vernachlässigen und muss während der gesamten beruflichen Laufbahn des Arbeitnehmers fortgeführt werden. Schließlich müssen sowohl die Industrie als auch die Bildung den Leser in den Mittelpunkt aller Aktivitäten stellen.;-;-;-;https://link.springer.com/article/10.1007/BF02680689 c9207facf0687c21de7ca480b655314f;de;;;1.3.;;;Aufbau des Innovations- und Unternehmerbildungsökosystems der Universität auf der Grundlage einer Computernetzwerkplattform Computer Im Zeitalter des „Massenunternehmertums und der Innovation“ ist die Entstehung von unternehmertumsorientierten Universitäten für die Entwicklung einer wissensbasierten Wirtschaft und Gesellschaft unvermeidlich. Hochschulen und Universitäten sind jedoch ein wichtiger Standort für die Förderung nationaler Innovationstalente. Sie tragen die Verantwortung, eine Vielzahl hochwertiger innovativer und unternehmerischer (I-E) Talente für die Gesellschaft zu transportieren. Sie spielen eine entscheidende Rolle bei der Förderung nationaler unabhängiger Innovation und der Umgestaltung des Wirtschaftsmodus. Unter der neuen Situation ist die Förderung von Talenten mit Fähigkeiten und Tugend, die den Bedürfnissen des Staates und der Gesellschaft entsprechen, eine wichtige Richtung bei der Vertiefung der Reform der Hochschulen und Universitäten geworden. Die Bildung des Bewusstseins der College-Studenten für Innovation und Unternehmertum und die Förderung des Unternehmertums erfordern eine langfristige Pflege, Erbauung und Akkumulation, was höhere Anforderungen und Herausforderungen für die Vertiefung der Reform der Innovations- und Unternehmerausbildung an Hochschulen und Universitäten in der Zukunft mit sich bringt. Dieses Papier kombiniert den Hintergrund und die bestehenden Probleme der Innovation und des Unternehmertums von College-Studenten sowie das vorgeschlagene Baumodellkonzept durch das Baukonzept „intern sollte mit externen kombiniert werden“, um die öffentlichen Dienstleistungen zu verbessern und effizientere Dienstleistungen für College-Studenten bereitzustellen. ' Unternehmerschaft.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1468-5_121 949011b5df69de85b4ab66cb45c20a20;de;;;1.3.;;;Hypertext Adventures: Computergestütztes Lehren von Fachberichten in Delft Technische Ingenieure zählen Kommunikations- und Schreibfähigkeiten zu den schwierigsten Aspekten ihres Berufs. Kommunikationskurse sind jedoch teuer, weil die Lehre in Tutorien stattfindet, in denen den Studierenden regelmäßig Feedback gegeben wird. Beschrieben wird ein computergestütztes Praktikum, das darauf abzielt, den Aufwand des Dozenten zu verringern und die Beteiligung der Studierenden durch interaktive und benutzerfreundliche Kursunterlagen zu erhöhen. Das Programm wird in der Knowledge Pro-Umgebung (MS-Windows 3) entwickelt. Das Programm besteht aus drei Modulen: 1) einem Produktmodul, das Beispiele für „ideale Texte“ und Kriterien dafür bietet, 2) einem Stilmodul, das Informationen zu stilistischen Aspekten wie Satzkomplexität, Verwendung von Beispielen, Verwendung von Bindewörtern, Rechtschreibung bietet etc., 3) ein Prozessmodul, das ein Standardverfahren zur Planung und Gliederung eines technischen Berichts und eines Beispiels in Form eines (Hyper-)Text-Adventures bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-2674-8_11 1022ea2b1802f3507334495da94830c2;de;;;1.3.;;;Integration von Roboterdesign-Wettbewerben in den Lehrplan und die K-12-Outreach-Aktivitäten Der Campus in Penn State Abington hat mehrere Designwettbewerbe für mobile Roboter in projektbasierte Designaktivitäten integriert, um die Bachelor-Studiengänge in den Bereichen Ingenieurwesen, Informationswissenschaften und Technologie zu verbessern und auch K-12-Institutionen zu erreichen. Die Roboterwettbewerbe, die interdisziplinäres Design, Teamwork und Rapid Prototyping fördern, unterstützen eine Vielzahl von Bildungsergebnissen in verschiedenen Kursen. Es wurde auch eine Umfrage unter Studenten durchgeführt, um die wichtigsten Erkenntnisse und die allgemeine Bildungsqualität der Roboterwettbewerbsaktivitäten zu ermitteln. Insgesamt waren die Rückmeldungen zur Qualität des Roboterwettbewerbs sehr positiv. Die strategische Auswahl und Durchführung von Roboterdesign-Wettbewerben, wie in diesem Papier beschrieben, bietet einen kostengünstigen Ansatz zur Verbesserung des Lehrplans, zur Förderung der Bindung und zur Förderung des Interesses an naturwissenschaftlich-technischen (MINT)-Karrieren bei K-12-Schülern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03986-7_32 913e32efe90bae3b7c6185377b5ed02d;de;;;1.3.;;;Simulation der Auswirkungen einzelner LEO-Satellitenbahnparameter auf die Verteilung und Anzahl von Bedeckungsereignissen Ausgehend von der Durchführung von GPS-Okkulationsbeobachtungen mit einem Empfänger auf dem LEO-Satelliten entwickelt dieser Beitrag das LEO-Orbit-Simulationssystem, auf dessen Grundlage die Bedeckungsereignisse unter Berücksichtigung der geometrischen Beziehungen der Satelliten und des Sichtfelds der Empfängerantenne simuliert werden können . In diesem Artikel werden die Auswirkungen von 4 Arten von LEO-Bahnparametern, einschließlich des Arguments der Breite (AOL), der Rektaszension des aufsteigenden Knotens (RAAN), der Bahnhöhe und der Bahnneigung auf die Verteilung und Anzahl von Bedeckungsereignissen, die mit einem einzelnen LEO-Satelliten beobachtet werden, beschrieben: durch Simulation diskutiert und einige Schlussfolgerungen gezogen.;-;-;-;https://link.springer.com/article/10.1007/BF02826682 b16c02462ebc773c2b2ba6a3b8bd4e82;de;;;1.3.;;;Die Erforschung des Ausbildungsmodus für anwendungsorientierte Ingenieur-Kreative im Bachelor-Studiengang Entsprechend dem Charakter der anwendungsorientierten Ingenieurstudenten soll die Ausbildung der Kreativen mit der lokalen Wirtschaftsförderung verbunden werden, die die regionale Wirtschaft umfassend am Bedarf der Personalausbildung berücksichtigt und ihre Personalausbildungsziele wissenschaftlich und rational. die Kontinuität und schrittweise Praxis, von leicht bis schwer, die Kombination von Individualität mit Synthese und auch die Kombination von Curriculum mit Außercurricularem wurde betont. Es erforderte eine starke finanzielle Absicherung, ein innovatives Umfeld, die Ausbildung des Personals und ein kulturelles Leben auf dem Campus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24022-5_11 b0bd75eccb07119321e5475b1795351c;de;;;1.3.;;;YMCA imitieren lernen mit einem ESN Wenn ein Echo-State-Netzwerk mit Rückkopplungsverbindungen mit Teacher-Forcing trainiert und später im freien Modus betrieben wird, bekommt man oft Probleme mit der Stabilität. In dieser Arbeit wird ein Echozustandsnetzwerk trainiert, um eine Armbewegung auszuführen. Eine Sequenz mit den gewünschten Koordinaten der Gliedmaßen in jedem Zeitschritt wird dem Netzwerk zusammen mit den aktuellen Gliedmaßenkoordinaten bereitgestellt. Das Netzwerk muss die geeigneten Winkelgeschwindigkeiten finden, die die Arme auf dieser Flugbahn halten. Die aktuellen Gliedmaßenkoordinaten sind eine indirekte Rückmeldung vom Motorausgang über den Simulator. Wir haben ein Problem mit der Stabilität in diesem Setup. Eine einfache Abhilfe besteht darin, den internen Zuständen des Netzwerks Rauschen hinzuzufügen. Wir bestätigen, dass dies hilft, schlagen aber auch eine neue Trainingsstrategie vor, die zu einer noch besseren Leistung bei dieser Aufgabe führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33269-2_64 2781c4a4a5b4f3285b13f07638f3da0e;de;;;1.3.;;;Ausbildung in Service Science Management and Engineering: Eine vergleichende Analyse Ungefähr 60 % der weltweiten Erwerbstätigen sind derzeit entweder in öffentlichen oder privaten Zweigen des Dienstleistungssektors beschäftigt, und dieser Wert steigt in entwickelten Ländern auf 80 %. Auch auf internationaler Ebene ist der Dienstleistungssektor tendenziell stetig gewachsen. Die Menschen arbeiten in einem breiten Spektrum von Bereichen wie Tourismus, Handel, Logistik, Finanzen, Versicherungen sowie kommunale, soziale und persönliche Dienstleistungen. Doch obwohl die Gesellschaft zunehmend mehr Fachkräfte braucht, die sich an diesem Sektor orientieren, gibt es kaum konkrete Ausbildungspläne für Dienstleistungsberufe. In diesem Beitrag wird eine vergleichende Analyse zu Trainingsprogrammen in Service Science Management and Engineering (SSME) präsentiert. Diese vergleichende Analyse wurde während der Definition und Erstellung eines neuen Lehrplans für die Ausbildung von Fachkräften in KMU durchgeführt, der ab dem nächsten akademischen Jahr an der Universität Rey Juan Carlos in Madrid, Spanien, unterrichtet werden wird. Der Abschluss wird in dieser Arbeit kurz beschrieben und in der vergleichenden Analyse analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-14980-6_21 6bf874e5cc6e3e71b4dcdaf1040e93d4;de;;;1.3.;;;Ein Rasch-basierter Ansatz zum Vergleich des englischen Hörverständnisses zwischen CET und GEPT Dieser Artikel beschreibt den Rasch-basierten Ansatz zum Vergleich des englischen Hörverständnisses zwischen zwei wichtigen englischen Sprachtests, nämlich dem General English Proficiency Test (GEPT) in Taiwan und dem College English Test (CET) in China Mainland. Insgesamt 141 Studenten der nicht-englischsprachigen Studiengänge der Jiaxing University wurden zufällig ausgewählt, um einen gemischten Hörtest mit 15 Fragen aus GEPT (hoch-mittel) bzw. 10 Fragen aus CET (Band 4) zu absolvieren. Alle so gesammelten Daten wurden mit Gitest verarbeitet, wobei sowohl die Fähigkeiten der Probanden als auch die Testschwierigkeiten verglichen wurden. Die Ergebnisse zeigen, dass alle Testaufgaben erwartungsgemäß gut moderiert und kalibriert sind. Die Korrelation (= 0,61) zeigt, dass der Schwierigkeitsgrad für unsere Fächer geeignet ist, aber eine weitere Bestätigung ist zu suchen, indem die gleichen Testaufgaben an die Schüler mit ähnlichem Leistungsniveau in Taiwan auf die gleiche Weise verabreicht werden. Aus Sicht der Autoren ist dies ein bahnbrechender, aber bedeutender Vergleich. In Zukunft sind mehr Kooperation und gemeinsame Anstrengungen erforderlich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-47490-7_9 3dab5fa1c743b10abd5b427bf433ec35;de;;;1.3.;;;Einführung von IKT in einem traditionellen Hochschulumfeld Die weit verbreitete Einführung von Informations- und Kommunikationstechnologien (IKT) hat die Realisierung technologisch fortschrittlicher Lernwerkzeuge ermöglicht, die die Bildung auf verschiedenen Ebenen der Welt dramatisch und schnell verändern, insbesondere in einem Ausmaß, das noch vor einer Generation kaum vorstellbar war. Das 21. Jahrhundert wird Zeugen der weitreichenden Veränderungen, die durch die Einführung von IKT in der Bildung eingetreten sind. Dieses Papier versucht, die wahrscheinlichen Veränderungen zu untersuchen, die durch die IKT im Hochschulumfeld verursacht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23345-6_25 8b9a9495c4db82dd30b845eab826cec7;de;;;1.3.;;;Modellauswahl unter Verwendung einer Klasse von Kernels mit einer invarianten Metrik Auf Kernel-Maschinen basierendes Lernen ist weithin als leistungsstarkes Werkzeug für verschiedene Bereiche der Informationswissenschaft wie Mustererkennung und Regressionsschätzung bekannt. Die Wirksamkeit des Modells in Kernelmaschinen hängt von der Entfernung zwischen der unbekannten wahren Funktion und dem linearen Unterraum ab, der durch den Trainingsdatensatz des reproduzierenden Kernel-Hilbert-Raums entsprechend einem angenommenen Kernel spezifiziert wird. In diesem Papier schlagen wir einen Rahmen für die Modellauswahl von Kernel-basierten Lernmaschinen vor, der eine Klasse von Kerneln mit einer invarianten Metrik enthält.;-;-;-;https://link.springer.com/chapter/10.1007/11815921_95 ff580f5ba5a17622c0321018228b1575;de;;;1.3.;;;Ein webbasierter sokratischer Tutor für die Baumerkennung Sokratische Dialoge werden häufig als Mittel zur Implementierung eines ITS verwendet. Die Idee dahinter ist, dass der Lehr- und Lernprozess auf einer persönlichen Reflexion basieren sollte, die durch die richtige Fragestellung in einem geführten Dialog gewonnen werden kann. Diese Methodik geht davon aus, dass der Wissenserwerb ein Entdeckungsprozess ist, in dem sowohl der Lehrer als auch der Schüler eine aktive Rolle spielen. Diese Tutorial-Strategie wurde als Teil einer webbasierten ITS-Architektur für deklarative Domänen entwickelt und auf die botanische Domäne angewendet. In diesem Papier beschreiben wir diese Komponente, die sie unterstützende Wissensrepräsentation und das verwendete Webinterface.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44595-1_22 9d48aae3b5d123da3f0750d2822f872a;de;;;1.3.;;;Bewertung der Schüler Die Beteiligung an der Schülerbewertung ist vielleicht die wichtigste aller Aufgaben, denen sich der Lehrer gegenübersieht. Lehrerinnen und Lehrer nehmen ein solches Engagement in der Regel sehr ernst, doch leider lässt die Qualität vieler Prüfungs- und Prüfungsverfahren zu wünschen übrig. Das Ziel dieses Kapitels ist es daher, Ihnen dabei zu helfen, sicherzustellen, dass die Bewertungen, an denen Sie beteiligt sind, das, was sie messen sollen, so fair und genau wie möglich messen. Wir werden einige Hintergrundinformationen zu den Zwecken von Assessments und den Grundprinzipien der Bildungsmessung bereitstellen. Anschließend erläutern wir Ihnen, mit welchen Bewertungsformen Sie vertraut sein sollten, damit Sie die beste Methode auswählen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-1426-4_7 8f84cb2d15498819554f56a97a427f38;de;;;1.3.;;;Erziehung durch Demütigung Vor ungefähr 10 Jahren wurde ich eingeladen, im Iran zu operieren, um eine Reihe von urologischen Problemen im Zusammenhang mit Kriegswunden während des Iran-Irak-Krieges zu behandeln. Am ersten Tag wurde ich auf eine Visite gebracht und der erste Patient, den ich sah, stand elegant neben seinem Bett und hielt einen Urindrainagebeutel am Ende eines suprapubischen Katheters. Mir wurde gesagt, dass er aufgrund einer Schusswunde eine prostatorektale Fistel hatte und es wurde eine Röntgenaufnahme mit einer Kugel gezeigt, die perfekt zwischen seinem Rektum und seiner Blase sitzt. Kontraststudien bestätigten, dass sich die Kugel in einer Höhle befand, die mit dem Rektum und der Prostata kommunizierte. Mir wurde gesagt, dass alles andere normal sei. Er sagte mir, dass er Kot im Urin hatte und er war sehr froh, dass ich aus England gekommen war, um ihn zu reparieren, da er in den letzten 4 Jahren drei fehlgeschlagene Operationen hatte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-48605-3_54 20a552069e0cff5b76aa807a6bd49f86;de;;;1.3.;;;Forschung zur Anwendung von Big Data in Kombination mit Wahrscheinlichkeitsstatistiken in der Ausbildung von angewandten Talenten Um den Ausbildungseffekt von angewandten Talenten zu verbessern, werden quantitative Auswertungen und Big-Data-Analysen verwendet, um die Ausbildung von angewandten Talenten zu evaluieren. Es wird ein quantitatives Analysemodell für angewandte Talenttrainings basierend auf Big Data und Wahrscheinlichkeitsstatistiken vorgeschlagen. Das statistisch-mathematische Analysemodell des angewandten Talenttrainings wird konstruiert, und die Signifikanz des angewandten Talenttrainings wird unter Verwendung des statistischen T-Testanalyseverfahrens analysiert, und das Nutzenverteilungsmodell des angewandten Talenttrainings wird erstellt. Die Methode der kumulativen Durchschnittsanalyse wird verwendet, um die bilaterale Verlässlichkeit der angewandten Talentschulung zu bewerten, und die Methoden Big Data Mining und Feature Extraction werden verwendet, um die Eigenschaften der angewandten Talentschulung zu analysieren. Das robuste Big-Data-Mining-Modell für die Kultivierung von angewandten Talenten wird konstruiert, und die deskriptive statistische Analysemethode der einzelnen Variablen wird verwendet, die statistische Analyse der Wahrscheinlichkeitstheorie und die Big-Data-Analysemethode werden verwendet, um die Bewertung des Nutzenindex für die Kultivierung zu realisieren von angewandten Talenten. Die Ergebnisse der empirischen Analyse zeigen, dass das Modell eine gute Genauigkeit und ein hohes Vertrauen in die quantitative Bewertung der angewandten Talentförderung besitzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-57881-7_59 b47cfe34f3ea75df45d601ada7199c63;de;;;1.3.;;;Perspektiven für die sozialistischen Länder bis zum Jahr 2000 Die Richtung, die die sozialistischen Staaten in der Vergangenheit eingeschlagen haben, ist klar. Wir haben eine allgemeine Entwicklungslinie gesehen, die von dem ständigen Ziel der Demokratisierung des Bildungswesens inspiriert ist. Um dies zu erreichen, haben Politiker und Wirtschaftsplaner je nach Bedarf und Dringlichkeit unterschiedliche Mittel eingesetzt. Die ständige Sorge bestand jedoch darin, den mechanischen Kräften der sozialen Bedingungen, die die Selektion bestimmen, wirksam entgegenzuwirken. Wir mussten jedoch zugeben, dass nach 55 Jahren Bemühungen in der UdSSR und nur der Hälfte dieser Zeit in den Volksdemokratien Ungleichheiten auf allen Ebenen und in jedem Sektor bestehen bleiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-2426-6_6 e89656d6710cb449c16cc7a434161b80;de;;;1.3.;;;Zehn Jahre Informationssicherheits-Master-Programme Royal Holloway startete 1992 sein MSc-Programm in Informationssicherheit. In den folgenden zehn Jahren hat dieses Programm stetig an Popularität gewonnen, mit etwas mehr als 250 Studenten, die in der aktuellen Sitzung 2002-2003 registriert waren. In diesem Papier reflektieren wir den offensichtlichen Erfolg der ersten zehn Jahre des Programms und kommentieren eine Reihe von Themen, die unserer Meinung nach für Bildungsprogramme zur Informationssicherheit im Allgemeinen von größerer Bedeutung sind. Wir besprechen auch einige Herausforderungen, denen sich solche Programme in der Zukunft gegenübersehen, und wie wir diese angehen wollen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35694-5_21 ba928c379b6ad6fdb58a6942115bb158;de;;;1.3.;;;Adaptiver Filter in SAR-Interferometrie abgeleitetes DEM In diesem Artikel wird die Leistung des Medianfilters, des höhenabhängigen adaptiven Sigma-Medianfilters und des richtungsabhängigen adaptiven Sigma-Medianfilters sowohl auf InSAR-Tandem-DEM als auch auf simuliertem hochverrauschtem DEM getestet. Durch den Vergleich hat sich das richtungsabhängige adaptive Sigma-Median-Filter als das effektivste nicht nur bei der Rauschentfernung, sondern auch im Grenzschutz erwiesen.;-;-;-;https://link.springer.com/article/10.1007/BF02826819 a0dec2d2c08224fbaec86d769fcf4dbe;de;;;1.3.;;;Forschung zum DINA-Modell in der Online-Bildung Lerntests spielen sowohl beim traditionellen Lernen als auch beim Online-Lernen eine wichtige Rolle. Der traditionelle Bildungstest kann nur die Ergebnisse oder Fähigkeiten der Schüler angeben, nicht aber ihr Wissensniveau, das den Anforderungen der Menschen nicht mehr entspricht. In den letzten Jahren wurde das DINA-Modell des kognitiven Diagnosemodells häufig verwendet, um die Wissensbeherrschung der Schüler zu diagnostizieren. Das DINA-Modell kann die Wissenspunkte der Schüler ausgraben und den Lehrern Feedback geben, damit die Lehrer rechtzeitig Abhilfepläne für die Mängel der Schüler erstellen können. Dieses Papier stellt zunächst das Grundprinzip des DINA-Modells und die Verbesserung des DINA-Modells im Bildungsbereich in den letzten Jahren vor. Zweitens stellen wir die Entwicklung des Dina-Modells unter dem Trend der Online-Bildung vor und beweisen die Verfügbarkeit des DINA-Modells in einer Online-Plattform mit experimentellen Daten. Schließlich prognostizieren und analysieren wir die Forschungsrichtung des DINA-Algorithmus in der Zukunft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63955-6_24 95cf594f91585ec2d9a348cdf57fd6e3;de;;;1.3.;;;Eine neue Methode zur Identifizierung des Modellfehlers des Anpassungssystems Einige theoretische Probleme, die die Parameterschätzung beeinflussen, werden in diesem Artikel diskutiert. Der Einfluss und die Transformation zwischen Fehlern von stochastischen und funktionalen Modellen wird ebenfalls aufgezeigt. Zur Auswahl des besten Anpassungsmodells wird eine Formel vorgeschlagen, die sich von den in der Literatur existierenden Methoden zur Schätzung und Identifizierung des Modellfehlers unterscheidet. Auf Grundlage der vorgeschlagenen Formel wird ein effektiver Ansatz zur Auswahl des besten Modells des Anpassungssystems angegeben.;-;-;-;https://link.springer.com/article/10.1007/BF02826818 3cde5aec08fda66d8a1472f1a4f89f44;de;;;1.3.;;;Eine Studie zu den Hintergründen des Modus der Sporttalentenförderung „Studien-Ausbildungsintegration“ im neuen Informationszeitalter Dieser Artikel beschreibt eine detaillierte Studie zum Hintergrund des Systems „Studien-Training-Integration“, einer speziellen Kultivierungsmethode für Sportler in China. Anhand von Methoden wie Recherche, Interview und Literaturrecherche sucht der Artikel nach Richtung und Chance der Reform des Trainingssystems für Sportler und schlägt Vorschläge vor, das System der Kultivierung von Sporttalenten umzustrukturieren, damit mehr Menschen zu Sportlern ausgebildet werden können Investitionskanäle und Verbesserung der Managementstruktur.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23339-5_4 a805a26a2424090bc7c3cdf149c6661a;de;;;1.3.;;;Das neue Ausbildungssystem für Labormediziner Die Labormedizin ist die Brücke zwischen Labor und Klinik. Derzeit wird von Labortechnikern erwartet, dass sie den Ärzten nicht nur Daten, sondern basierend auf den Ergebnissen auch diagnostische Informationen zur Verfügung stellen. Daher müssen Labortechniker ihre Rolle zu Laborärzten ändern. Im Jahr 2003 wurde die Laborärztevereinigung von der Chinesischen Ärztevereinigung gegründet. Vor diesem Hintergrund hat sich das neue Curriculumsystem an unserer Hochschule etabliert. Ziel des neuen Ausbildungssystems ist es, die Studierenden unter Integration von klinischem und labortechnischem Wissen auszubilden und gemeinsam ihre Fähigkeiten und Qualität zu verbessern. Dieses System umfasst die Reorganisation von Kursgruppen, die Ausweitung multimedialer und webbasierter Kurse, die Nutzung von Open Book-Prüfungen und die Stärkung klinisch-praktischer Fähigkeiten. Dadurch werden die Schüler mit Lerninteressen inspiriert und mit der Integration von Qualität und Kreativität geschult. Die fachlichen Fähigkeiten der Lehrkräfte werden entsprechend verbessert. Daher haben wir ein hochintegriertes, innovatives und rationelles Bildungssystem für Studierende der Laboratoriumsmedizin entwickelt. Gleichzeitig sind weitere Untersuchungen in verschiedenen Aspekten erforderlich, um unser Hochschulsystem kontinuierlich zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_274 e4f1efa1d4bc07b14a489722fdbe8bb0;de;;;1.3.;;;Wortart für Old Malay Manuscript Corpus: A Review Die Forschung in Malay Part-of-Speech (POS) hat in den letzten Jahren stark zugenommen. Aus der Literatur sind POS als erste Stufe der automatisierten Textanalyse bekannt und ohne diese Anfangsphase kann die Entwicklung von Sprachtechnologien kaum beginnen. Die malaiische Sprache kann in Roman oder Jawi geschrieben werden. Drei unterschiedliche Schreibweisen zwischen Roman und Jawi machen diese Studie unabdingbar. In diesem Papier haben wir das Problem und die Probleme im Zusammenhang mit der malaiischen Sprache, dem allgemeinen POS-Framework, den POS-Ansätzen und -Techniken hervorgehoben. POS at basis wurde eingeführt, um Informationen aus alten malaiischen Manuskripten zu erhalten, die wichtige Informationen in verschiedenen Wissensbereichen enthalten. Vielversprechende Ergebnisse für das automatische Tagging von Malaiisch in Jawi werden erwartet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40567-9_5 f50b5c351874e0b3e5d6cd64089a946c;de;;;1.3.;;;Anwendungen von viskoelastischen hämostatischen Assays am Pflegeort: Überlegungen und Auswirkungen Im Point-of-Care (POC) Gerinnungstests werden zunehmend eingesetzt, um eine optimale Patientenversorgung zu gewährleisten und die verschiedenen Phänotypen der traumainduzierten Koagulopathie (TIC) zu erkennen. Strenge regulatorische Rahmenbedingungen regeln die Zertifizierung und Akkreditierung von Labors, die POC-Geräte zum Testen von menschlichen Blutproben verwenden, und für diejenigen, die die Compliance-Standards nicht erfüllen, werden Sanktionen verhängt. Die typischerweise kürzere Durchlaufzeit im Vergleich zu herkömmlichen Gerinnungstests ermöglicht schnelle Interventionen, die insbesondere in schnelllebigen klinischen Szenarien wie der Traumaversorgung wichtig sind. Während viele viskoelastische Tests als sinnvolle Ergänzung zu Standardgerinnungstests ansehen, sind andere zu dem Schluss gekommen, dass viskoelastische Tests herkömmliche Gerinnungstests bei hospitalisierten Traumapatienten vollständig ersetzen könnten. Möglichkeiten, viskoelastische Tests in einen präklinischen Bereich zu bringen, werden auch von Forschungsteams untersucht, wobei Erfolge bei der Verwendung von Geräten der nächsten Generation in Krankenwagen und Hubschraubern gemeldet wurden. Weitere Forschungen sind im Gange, um den vollen Nutzen von viskoelastischen Geräten sowohl im Krankenhaus als auch im präklinischen Bereich zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-53606-0_46 1bc9986ac8d7ba0e8f482dbf06cd6e6b;de;;;1.3.;;;Kein Vergleich: Fernunterricht findet neue Verwendung für „Kein signifikanter Unterschied“ Medienvergleichsstudien werden seit langem als ungeeignetes Forschungsdesign zur Messung der Wirksamkeit von Unterrichtstechnologien kritisiert. Allerdings wurde in letzter Zeit ein Wiederaufleben ihrer Verwendung im Fernunterricht zu Programmbewertungszwecken festgestellt. Eine Analyse des Forschungsdesigns wird detailliert erläutern, warum eine solche Methodik ein ungeeigneter Ansatz für eine solche Untersuchung ist. Ein verbesserter Zugang zu solchen Programmen scheint kein zufriedenstellender Nutzen für die Durchführung von Fernunterrichtsbemühungen zu sein. Die Interessengruppen möchten nachweisen, dass die Teilnehmer an Fernkursen die gleiche Unterrichtsqualität außerhalb des Campus erhalten wie diejenigen, die im „traditionellen“ Klassenzimmer tätig sind. Der Wunsch nachzuweisen, dass die Qualität solcher verteilten Angebote der Qualität des On-Campus-Programms entspricht, führt jedoch häufig zu Leistungsvergleichen zwischen den beiden Gruppen von Studierenden. Statistisch gesehen garantiert ein solches Forschungsdesign fast, dass das gewünschte Ergebnis erreicht wird – dass tatsächlich Fernlerner genauso gut abschneiden wie Studenten auf dem Campus.;-;-;-;https://link.springer.com/article/10.1007/BF02299632 47f7e348adef10668545cfe67b65ba1c;de;;;1.3.;;;Selbstanpassendes Trainingsunterstützungssystem für die Programmierung mit genetischem Algorithmus Computer Aided Training ist zu einer wichtigen Methode zur Verbesserung der Computerausbildung geworden. Für diese Forschung schlagen wir ein Unterstützungssystem für Programmiertraining vor, das darauf abzielt, Programmstrukturen zu verstehen, die die erforderlichen Programmspezifikationen erfüllen. In unserem vorgeschlagenen Trainingssystem wird ein gegebener Quellcode in einzelne Puzzleteile zerlegt, und der Benutzer muss die Teile in der richtigen Reihenfolge anordnen, um das Programm zu rekonstruieren. Das vorgeschlagene System wendet einen genetischen Algorithmus (GA) an und ermöglicht es dem System, die Schwierigkeit der Programmierprobleme selbst anzupassen, die der Kompetenz des Auszubildenden entsprechen. Wir haben ein Prototypsystem erstellt und es in einem ersten Jahr des Universitäts-Programmierkurses angewendet.;-;-;-;https://link.springer.com/chapter/10.1007/11553939_74 f99597648069226ac67cb6b1b917f2f8;de;;;1.3.;;;Eigenständige Petrinetze für verteilte Systeme Wir schlagen vor, dass der asynchrone Mechanismus für die Kommunikation im Gegensatz zum synchronen Mechanismus (Handshaking) von CSP (Hoare, 1985) und von CCS (Milner, 1989) als Primitiv für semantische Modelle verteilter Systeme betrachtet werden sollte. Auf diese Weise präsentieren wir einen Ansatz zur Herstellung eines Deadlock-freien Systems und geben ein Denotationsmodell für CCS in einer nicht verschachtelten Weise an.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35271-8_30 b0a60d8658422822559a0ed7a178584d;de;;;1.3.;;;Die Logik der Auswahl einer geeigneten Kartenprojektion in einem Decision Support System (DSS) Es gibt unbestreitbare praktische Konsequenzen, die bei der Auswahl einer geeigneten Kartenprojektion für eine bestimmte Region zu berücksichtigen sind. Die Oberfläche eines Globus, die von globalen, kontinentalen und regionalen Karten abgedeckt wird, ist so einzigartig, dass jeder Typ aufgrund der unterschiedlichen Effekte, die durch Entfernung, Richtung, Maßstab und Fläche verursacht werden, das Ausmaß der Verzerrung, die während einer Projektionstransformation entsteht, deutlich beeinflusst. Ein Decision Support System (DSS) für Kartenprojektionen von kleinskaligen Daten wurde zuvor entwickelt, um bei der Auswahl einer geeigneten Projektion zu helfen. Dieses Papier berichtet über ein Tutorial, das dieses DSS begleitet. Das DSS stellt interaktiv Fragen und erlaubt dem Benutzer, über die Parameter zu entscheiden, die wiederum den logischen Weg zu einer Lösung bestimmen. Das Ziel der Einbeziehung eines Tutorials, das das DSS begleitet, wird durch die visuelle Darstellung des logischen Pfads erreicht, der zu einer empfohlenen Kartenprojektion führt, die aus den vom Benutzer ausgewählten Parametern abgeleitet wird. Das Tutorial informiert den DSS-Benutzer über den Stammbaum der Projektion und bietet eine grundlegende Erklärung des spezifischen Projektionsdesigns. Diese Informationen werden durch Informations-Pop-ups und andere Hilfsmittel bereitgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-51835-0_10 c30d6b0896eed4687358933e267812db;de;;;1.3.;;;Verbesserung der objektorientierten Programmierpädagogik mit einem adaptiven intelligenten Tutorsystem Zu den Herausforderungen für den Programmierunterricht gehört ein Mangel an strukturierten Lehrmethoden, die auf Programmierfächer zugeschnitten sind, während die Vorteile einer individuellen Betreuung der Programmierstudenten aufgrund des hohen Schüler-Lehrer-Verhältnisses nicht leicht zu bewältigen sind. Dieses Papier beschreibt, wie adaptive intelligente Tutorsysteme eine potenzielle Lösung darstellen können, die Lehrern dabei hilft, ihren Schülern individuelle Aufmerksamkeit zu schenken und ihnen gleichzeitig dabei hilft, effektive Wege zum Unterrichten eines grundlegenden Programmierkonzepts wie der objektorientierten Programmierung zu entdecken. Dieses Papier untersucht, wie Anpassungsfähigkeit in traditionellen intelligenten Tutorsystemen erreicht wird, und präsentiert ein adaptives pädagogisches Modell, das maschinelle Lerntechniken verwendet, um effektive Lehrstrategien zu entdecken, die für einen bestimmten Schüler geeignet sind. Die Ergebnisse eines Prototyps des vorgeschlagenen Modells demonstrieren die Fähigkeit des Modells, die Schülermodelle nach ihrem Lernstil korrekt zu klassifizieren. Das gewonnene Wissen kann von Pädagogen angewendet werden, um fundiertere Entscheidungen bei der Formulierung von Unterrichtsplänen zu treffen, die für ihre Schüler besser geeignet sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-05813-5_18 7a822cafeebd82d988e1b0f13f09ebac;de;;;1.3.;;;Sprechen Sie über die lokale Talentausbildung an Universitäten und die Forderung nach wirtschaftlicher sozialer Entwicklung Die Talentförderung im Hochschulbereich ist eng mit der gesellschaftlichen Entwicklung verbunden. In der heutigen Gesellschaft stellt die gesellschaftliche Forderung neue höhere Anforderungen an professionelle Talente. Allerdings besteht derzeit in Chinas Hochschulbildung und sozialer Nachfrage kein harmonisches Phänomen, die örtliche Universität muss diese Fragen mit neuen Augen und Ideen betrachten und analysieren, entsprechende Gegenmaßnahmen ergreifen: soziale Nachfrage als Leitfaden nehmen, Bildungsreform vertiefen, vernünftige Position der Schule Ebene, fachliche Merkmalskonstruktion intensivieren, berufliche Basis stärken, Bildungsqualität durch Reformen von Bildung und Innovation verbessern, Anpassungsfähigkeit der Begabtenbildung an gesellschaftliche Entwicklungserfordernisse weiter stärken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23345-6_46 1b505060415fb867b8291ccc31663d68;de;;;1.3.;;;Entwerfen von Unplugged- und Plugged-Aktivitäten, um computergestütztes Denken zu kultivieren: Eine explorative Studie in der frühkindlichen Bildung Pädagogen und politische Entscheidungsträger haben zunehmend die Bedeutung von Computational Thinking (CT) erkannt. Trotz der wachsenden Zahl von CT-Literatur wird die Kultivierung von CT in der frühkindlichen Bildung immer noch zu wenig erforscht und theoretisiert. In Anlehnung an Piagets Theorie der kognitiven Entwicklung wurde diese explorative Studie mit Schwerpunkt auf drei CT-Fähigkeiten durchgeführt: Mustererkennung, Sequenzierung und Algorithmusdesign. Der Rahmen für die Studie wurde in zwei Stufen entwickelt. Zuerst haben wir zwei Sets von Unplugged-Aktivitäten entwickelt (die sich auf greifbare Materialien stützen), die darauf abzielen, (1) den Schülern konkretere Erfahrungen mit CT zu vermitteln und (2) sie mit dem notwendigen Vokabular/der Anleitung für die anschließende verbundene Aktivität auszustatten (mit einem digitalen Gerät). Die theoretische Grundlage für ein solches unplugged and pluged Design bildeten Piagets Theory of Cognitive Development und Ashers Total Physical Response. In der zweiten Phase haben wir unseren CT-Kurs in einem Kindergarten in Hongkong mit sechs Lehrkräften und insgesamt 11 Schülern von K1 bis K3 (3 bis 6 Jahre) angeboten. Nach 10 Stunden CT-Training demonstrierten fast alle Studenten ihre Beherrschung der Mustererkennung und Sequenzierung. Allerdings konnten die K1-Studierenden die Aufgaben des Algorithmus-Designs nur teilweise lösen, während die anderen das angestrebte Leistungsniveau in der Regel erreichten. Die Stärkung der Ausbildung von Vorschulkindern in der CT-Sprache und differenzierter Unterricht sind einige mögliche Strategien zur Verbesserung des CT-Unterrichts.;-;-;-;https://link.springer.com/article/10.1007/s40299-019-00478-w 6bfa5809aaf2e423aa157973bc06ce2e;de;;;1.3.;;;Bildung für die multireligiöse Gemeinschaft der Cybersicherheit Der Bedarf an Cybersicherheitsexperten wächst. Es gibt viele akademische und Schulungsprogramme für Cybersicherheit, um Studenten und Fachleute auf diese Jobs vorzubereiten. Die Programme decken viele Bereiche der Cybersicherheit mit erheblichen Überschneidungen, aber mit unterschiedlichen Schwerpunkten ab. Einige sind sehr technisch und decken wenig nicht-technisches ab, andere tun das Gegenteil. Cybersicherheitsjobs erfordern in der Regel einige technische Kenntnisse, die Fähigkeit, Sicherheitsprobleme in einen größeren Kontext zu stellen und diese Informationen effektiv und überzeugend zu kommunizieren. Das Problem, technische und nicht-technische Fächer als Silos zu behandeln, anstatt beide anzuerkennen, sind eng miteinander verbunden und müssen gemeinsam gelehrt werden. Dieses Papier zeigt, wie sieben gängige Cybersicherheits-Frameworks und zehn Masterstudiengänge aus Großbritannien und den USA sowohl technische als auch nicht-technische Inhalte abdecken. Es untersucht das Gleichgewicht zwischen technischen Kursen, nicht-technischen Kursen und Kursen, die sowohl technisches als auch nicht-technisches Material mischen. Es wird argumentiert, dass diese Themen nicht isoliert werden können und dass ihre Ausgewogenheit entscheidend ist, um die Ziele der Rahmen und Programme zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-59291-2_3 4b2f5279740237c591d0be46b9424446;de;;;1.3.;;;Erfahrungen und Perspektiven von Tele-Health-Technologien Der Artikel beschreibt das Konzept der modernen Telemedizin und befasst sich mit grundlegenden Richtungen des Einsatzes von Tele-Health-Technologien in der klinischen Praxis und im Ausbildungsprozess. Besonderes Augenmerk wird auf Bereiche wie Remote-Videoberatung und Meisterklassen, Tele-Mentoring gelegt. Abschließend werden die Aussichten neuer technologischer Lösungen für die Telemedizin abgeschätzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6385-4_1 adadfeb9f142a69c091044f26c45617d;de;;;1.3.;;;Von der elektronischen Auktion mit versiegelten Geboten zum elektronischen Scheck In diesem Beitrag stellen wir eine Beziehung zwischen E-Auktion mit versiegelten Geboten und E-Scheck her, indem wir eine Transformationstechnik vorschlagen, die eine sichere E-Auktion mit versiegeltem Gebot in ein sicheres E-Scheck-System umwandelt. Obwohl sich das Anwendungsszenario unterscheidet, stellen wir fest, dass die Schemastruktur und die grundlegenden Sicherheitseigenschaften beider Schemata ähnlich sind, nämlich Unfälschbarkeit, Anonymität und Ununterscheidbarkeit. Als Machbarkeitsnachweis wenden wir die Transformationstechnik auf das klassische E-Auktionsschema mit versiegelten Geboten von Sakurai und Miyazaki an und erhalten ein sicheres E-Scheckschema.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-4154-9_43 1794b98464152ec8f4ddd512fda3147a;de;;;1.3.;;;Modellgetriebenes Design eines mobilen Produktschulungs- und Lernsystems Die weit verbreitete Präsenz mobiler Geräte und deren tiefe Verankerung im Alltag der Menschen bringt vielfältige Anwendungsfälle und Geschäftsmöglichkeiten mit sich. Mobiles Lernen ist ein Anwendungsfall für mobile Geräte. Daraus lässt sich ableiten, dass Unternehmen adäquate mobile Lern- und Trainingsszenarien für die Ausbildung ihrer Mitarbeiter untersuchen müssen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-95204-8_13 0c9088d0138eb5e72bd8a0cd146a4492;de;;;1.3.;;;Sprachen und komplexe Fächer lernen mit Gedächtnispalästen Ein Gedächtnispalast ist eine uralte Technik, den Raum zu nutzen, um Erinnerungen zu organisieren. Es ist ein leistungsstarkes Werkzeug zum schnellen und effektiven Lernen, Behalten und Abrufen großer Mengen komplexer Informationen. Im Mittelalter wurden diese Techniken häufig verwendet, um große Texte und literarische Werke zu lernen und zu verfassen. In diesem Beitrag präsentieren wir die grundlegende Theorie hinter Gedächtnispalästen als Grundlage für das Projekt Macunx – eine VR-Plattform zum Bauen von Gedächtnispalästen, um große Mengen in kurzer Zeit und mit voller Retention zu lernen – sowie die Anfangsstadien ihrer Entwicklung. Das Papier schließt mit einer Diskussion der zukünftigen Phasen beim Testen des Pakets mit Endbenutzern für seine endgültige Verfeinerung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-60633-0_18 b57be94cd3fb0275b55dc020dd49d96b;de;;;1.3.;;;Globale und komponentenweise Extrapolationen zur Beschleunigung des Trainings von Bayesschen Netzen und bedingten Zufallsfeldern Die Dreifachsprung-Extrapolationsmethode ist eine effektive Annäherung an die Beschleunigung von Aitken, die die Konvergenz vieler Algorithmen für das Data Mining, einschließlich EM und generalisierter iterativer Skalierung (GIS), beschleunigen kann. Es gibt zwei Optionen – globale und komponentenweise Extrapolation. Empirische Studien haben gezeigt, dass keiner den anderen dominieren kann und es nicht bekannt ist, welcher unter welchen Bedingungen besser ist. In diesem Artikel untersuchen wir dieses Problem und kommen zu dem Schluss, dass die komponentenweise Extrapolation effektiver ist, wenn die Jacobi-Diagonale (Block-)Diagonale ist. Wir leiten zwei Hinweise ab, um die Blockdiagonale zu bestimmen. Der erste Hinweis ist, dass bei einem sehr spärlichen Datensatz der Jacobi-Wert der EM-Abbildung zum Trainieren eines Bayes-Netzwerks eine Blockdiagonale ist. Die zweite ist, dass die Blockdiagonale der Jacobi-Funktion der GIS-Kartierung zum Training von CRF negativ mit der Stärke der Merkmalsabhängigkeiten korreliert. Wir verifizieren diese Hinweise empirisch mit kontrollierten und realen Datensätzen und zeigen, dass unsere Hinweise genau vorhersagen können, welche Methode überlegen sein wird. Wir zeigen auch, dass sowohl die globale als auch die komponentenweise Extrapolation eine erhebliche Beschleunigung bewirken kann. Insbesondere beim Trainieren großer CRF-Modelle übertrifft die durch komponentenweise Extrapolation beschleunigte GIS-Variante nicht nur ihr Gegenstück zur globalen Extrapolation, wie unser Hinweis vorhersagt, sondern kann auch mit Limited-Memory-BFGS (L-BFGS), dem de compete facto-Standard für CRF-Training, sowohl in Bezug auf Recheneffizienz als auch F-Scores. Obwohl keine der oben genannten Methoden so schnell ist wie der stochastische Gradientenabstieg (SGD), ist für SGD eine sorgfältige Abstimmung erforderlich, und die in diesem Artikel angegebenen Ergebnisse bieten eine nützliche Grundlage für die automatische Abstimmung.;-;-;-;https://link.springer.com/article/10.1007/s10618-009-0128-3 428d1eea70be4d204fb9d17bfa9ffe0c;de;;;1.3.;;;Lernen, Servicedaten mit latenter Semantik zu klassifizieren Service Discovery spielt eine wichtige Rolle bei der Servicekomposition. Um eine bessere Leistung der Diensterkennung zu erzielen, sollte häufig eine Dienstklassifizierung vorhanden sein, um verfügbare Dienste in verschiedene Klassen zu gruppieren. Während es für die Klassifikationsaufgabe unerlässlich ist, einen leistungsfähigen Klassifikator zur Hand zu haben, gehen bestehende Verfahren normalerweise davon aus, dass die Klassenlabels von Diensten im Voraus verfügbar sind, was nicht stimmt. Herkömmliche Clustering-Methoden verbrauchen viel Zeit und Ressourcen bei der Verarbeitung von Web-Service-Daten und führen aufgrund der hochdimensionalen und spärlichen Eigenschaften von WSDL-Dokumenten zu einer schlechten Leistung. In diesem Beitrag wird die Latent Semantic Analysis (LSA) mit dem Expectation-Maximization (EM)-Algorithmus kombiniert, um die schlechte Leistung eines einzelnen Lernmodells zu kompensieren. Die erhaltenen Klassenlabels werden dann vom Support Vector Machine (SVM)-Klassifikator zur weiteren Klassifizierung verwendet. Wir evaluieren unseren Ansatz basierend auf realen WSDL-Dateien. Die experimentellen Ergebnisse zeigen die Effektivität der vorgeschlagenen Methode in Bezug auf Genauigkeit und Qualität der Service-Clustering und -Klassifizierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31900-6_35 1996245e5d50f8486869c8fff9b23bcb;de;;;1.3.;;;Entwicklung und Erprobung eines visuell-haptischen chirurgischen Trainingssimulators für die kieferorthopädische Chirurgie Der visuell-haptische medizinische Trainingssimulator bot eine sichere, wiederholbare und kostengünstige Alternative zu herkömmlichen Operationen bei der Verbesserung und Beurteilung der Fähigkeiten der Chirurgen. In dieser Forschung haben wir einen visuell-haptischen chirurgischen Trainingssimulator für Knochensägeverfahren entwickelt, um eine grundsätzlich realistische Trainingsumgebung für Knochenentfernungsprozesse in der orthognathen Chirurgie bereitzustellen. Das voxelbasierte Modell wurde mithilfe von Computertomographie (CT)-Bildern konstruiert, und die virtuellen Werkzeuge wurden durch Reverse Engineering erstellt. Für das haptische Rendering wurde die Mehrpunkt-Kollisionserkennungsmethode angewendet, um die 3D-Beziehung zwischen dem virtuellen Werkzeug und den Knochenvoxeln zu testen. Durch den Einsatz von Omega.6 als haptischem Gerät und Display300 als 3D-Stereo-Display wurde ein chirurgischer Trainingssimulator mit haptischen Funktionen und Virtual-Reality-Umgebung für die orthognatische Chirurgie realisiert und grundlegende Knochensägevorgänge simuliert. Die vom Simulator berechneten haptischen Kräfte wurden durch Vergleich mit den realen Bearbeitungskräften aus den Experimenten an frischen menschlichen Knochen getestet. Der Vergleich zeigte, dass die berechneten Kräfte und die erfassten Daten den gleichen Trend für das Knochensägeverfahren aufwiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-02913-9_117 421c7c39264f3fb632ed6afd8397b417;de;;;1.3.;;;Transnationale Hochschulbildung in Japan und China: Eine vergleichende Studie In den letzten Jahren ist die Entwicklung der transnationalen Hochschulbildung in vielen Ländern zu einem integralen Bestandteil der Internationalisierung der Hochschulbildung geworden. Die Situation variiert jedoch stark zwischen den Nationen. So ist beispielsweise in den letzten zehn Jahren der Import transnationaler Hochschulbildung in China dramatisch gestiegen, während in Japan, das bereits in den 1980er Jahren eine transnationale Hochschulbildung initiierte, die Zahl der Zweigstellen ausländischer Universitäten kontinuierlich zurückgegangen ist . Viele aktuelle Studien zur transnationalen Hochschulbildung befassen sich mit der bloßen Beschreibung der transnationalen Hochschulbildung auf politischer Ebene, und es ist wenig über ihre Rolle und ihre Auswirkungen auf die nationalen Hochschulsysteme in einem bestimmten Kontext bekannt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-0446-6_12 40a24df2d583f44264e7f4c1585a8ac0;de;;;1.3.;;;Erforschung offener Hochschulen basierend auf moderner Bildungstechnologie In der heutigen Zeit hat die rasante Entwicklung der Bildungstechnologie die Fähigkeit, der Bildungsinformationskommunikation einen Durchbruch im Weltraum zu ermöglichen. Die moderne Bildungstechnologie kann alle Arten von Bildungsinformationen speichern und abrufen, indem die Informationen gespeichert und wiedergegeben werden, mit dem letztendlichen Zweck, den Schülern zu fördern, dass sie keine zeitlichen und räumlichen Beschränkungen haben. Die moderne Bildungstechnologie hat die Anforderungen erfüllt, die Hochschulen nach außen zu öffnen und allen Schülern zu jeder Zeit und an jedem Ort das Lernen zu ermöglichen. Aus diesem Grund ist es für den Bau der offenen Hochschulen in China dringend erforderlich, mit der Bildungstechnologie Schritt zu halten und den Aufbau der Netzwerkhardwarebedingungen in der modernen Zeit zu verbessern. In der Zwischenzeit ist es auch notwendig, ein modernes Bildungskonzept aufzubauen, reichhaltige Netzwerkbildungsressourcen mit hoher Qualität zu schaffen. Dadurch kann die Mission, eine lernorientierte Gesellschaft aufzubauen, in der alle Menschen ihr ganzes Leben lang gerne lernen, durch die offenen Hochschulen erfüllt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29087-9_25 20690318493a10bf9966455e4819193a;de;;;1.3.;;;Jüngste Fortschritte bei zentralen 5-Hydroxytryptamin-Rezeptor-Agonisten und -Antagonisten Intensive Forschungsanstrengungen während der letzten fünfzehn Jahre haben zu bedeutenden Fortschritten in der Pharmakologie und medizinischen Chemie von 5-Hydroxytryptamin (5-HT, Serotonin) und verwandten Wirkstoffen geführt. Die Fortschritte umfassen die Entwicklung leistungsfähiger Testmethoden (wie die Ligandenbindung) und die Einführung von Wirkstoffen mit selektiver pharmakologischer Wirkung (wie Ketanserin). Mehrere aktuelle Übersichten haben ausgewählte Aspekte der 5-HT-Literatur behandelt (siehe z. B. [1–11]).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-9311-4_11 52e3ea9206835d66da3bb7605d0e8fd5;de;;;1.3.;;;Regulation der Hitzeschock-Genexpression als Reaktion auf Stress Hitzeschockgene (HS) oder Stressgene kodieren für eine Reihe von Proteinen, die zusammen das älteste und universellste Stressabwehrsystem bilden. Das System bestimmt die Anpassungsfähigkeit der Zellen an verschiedene nachteilige Faktoren und führt eine Vielzahl von Hilfsfunktionen unter normalen physiologischen Bedingungen aus. Häufige Stressfaktoren wie höhere Temperaturen, Hypoxie, Schwermetalle und andere unterdrücken die Transkription und Translation der meisten Gene, während HS-Gene hochreguliert werden. Die Transkription von HS-Genen wird durch Transkriptionsfaktoren der HS-Faktor (HSF)-Familie gesteuert. Bestimmte HSFs werden aktiviert, wenn sie höheren Temperaturen oder anderen nachteiligen Faktoren ausgesetzt sind, um eine stressinduzierte HS-Genexpression sicherzustellen, während andere HSFs spezifisch in bestimmten Entwicklungsstadien aktiviert werden. Die Regulation des wichtigsten Stress-induzierbaren Faktors bei Säugetieren HSF1 und;-;-;-;https://link.springer.com/article/10.1134/S0026893317020108 98af63367cb2bcd263b9f7d017417bc7;de;;;1.3.;;;Effektive Video-Teletraining-Anleitung gestalten: Das Florida Teletraining Project Das Florida Teletraining Project war eine Evaluierungsstudie, die die Durchführbarkeit der Bereitstellung verschiedener Militärkurse für die Reservekomponenten mit Personal der Community Colleges testen sollte. Die Lieferung erfolgte über ein interaktives Zwei-Wege-System, TNET, eines der Teletrainingsnetzwerke der Armee. Im Projekt wurden fünf Kurse durchgeführt und evaluiert. In diesem Artikel werden die Anforderungen an das Kursdesign beschrieben, die zur Entwicklung der interaktiven Video-Kursunterlagen für das Projekt verwendet werden. Außerdem werden die Ergebnisse der Leistungstests und die Reaktionen der Studierenden und eines Teils des Lehrpersonals auf die in den Lehrveranstaltungen angewandten Lehrmethoden dargestellt. Die Ergebnisse zeigten, dass alle Schüler die Leistungstests bestanden (in Übereinstimmung mit den Meisterungsanforderungen der US-Armee) und über 90 % beim ersten Versuch bestanden. Studenten und Lehrpersonal äußerten sich positiv zu den Strategien, die für die Video-Teletrainings-Kurse entwickelt wurden. Sie bewerteten die Lernmethoden einschließlich der angebotenen Interaktivität als nützlich und effektiv.;-;-;-;https://link.springer.com/article/10.1007/BF02300328 6a3e5bf98ad1fb67f55f463a4cb72f7c;de;;;1.3.;;;Die Optimierung der Fuzzy-Portfolioauswahl für die durchschnittliche durchschnittliche absolute Abweichung über mehrere Perioden Unter Berücksichtigung der Transaktionskosten und der Beschränkungen des Handelsvolumens schlägt das Papier das Fuzzy-Portfolioauswahlmodell mit mittlerer durchschnittlicher absoluter Abweichung über mehrere Perioden vor, bei dem die Fuzzy-Return-Raten als trapezförmige Fuzzy-Zahlen bezeichnet werden, und den neuen Algorithmus – die Methode der diskreten Approximation wird vorgeschlagen, um die proposed Modell. Der Algorithmus ist wie folgt: Diskreditiert gemäß der Netzwerkmethode die Zustandsvariablen und transformiert das Modell in einen mehrperiodengewichteten Digraphen, verwendet die Max-Plus-Algebra, um den maximalen Pfad zu lösen, der die zulässige Lösung ist, iteriert weiter, bis die beiden zulässigen Lösungen basierend auf die zulässige Lösung liegt sehr nahe. Schließlich beweist die Arbeit die lineare Konvergenz des Algorithmus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27296-7_28 9462b313281ddfe9b1d5fe8423a19da4;de;;;1.3.;;;Feedforward Wavelet Neural Network und multivariable funktionale Approximation In diesem Artikel wird ein neuartiges WNN, Multi-Input- und Multi-Output-Feedforward-Wavelet-Neuralnetzwerk konstruiert. In der versteckten Schicht werden Wavelet-Basisfunktionen als Aktivierungsfunktion anstelle der Sigmoidfunktion des Feedforward-Netzwerks verwendet. Die auf dem BP-Algorithmus basierenden Trainingsformeln werden mathematisch abgeleitet und der Trainingsalgorithmus wird vorgestellt. Ein numerisches Experiment wird durchgeführt, um die Anwendung dieses neuronalen Wavelet-Netzwerks in multivariabler funktionaler Näherung zu validieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30497-5_6 456f798c7797c4a28f296e3f63808842;de;;;1.3.;;;Ansatz der maximalen terminalen Region für MPC unter Verwendung von Teilmengensequenz Um den Anziehungsbereich der modellprädiktiven Steuerung (MPC) zu vergrößern, wird in diesem Artikel ein neuer Ansatz zur schrittweisen Annäherung an die maximale Endzustandsregion vorgeschlagen. Angesichts der Endkosten wurden sowohl die umgebende Mengenfolge als auch die Teilmengenfolge des maximalen Endbereichs durch iterative Verwendung einer einstufigen Mengenerweiterung konstruiert. Es wurde theoretisch bewiesen, dass, wenn die Iterationszeit ins Unendliche geht, sowohl die umgebende Mengenfolge als auch die Teilmengenfolge gegen den maximalen Endbereich konvergieren. Alle Umgebungs- und Teilmengen in diesen Sequenzen werden aus dem Zustandsraum extrahiert, indem der Klassifizierer der Support-Vektor-Maschine (SVM) ausgenutzt wird. Schließlich werden Simulationen implementiert, um die Wirksamkeit dieses Ansatzes zu validieren.;-;-;-;https://link.springer.com/article/10.1007/s11460-012-0178-y 6b90941a39290e5ed0290987f46bd035;de;;;1.3.;;;Ein multimediales, mehrsprachiges Lehr- und Trainingssystem für Kinder mit Sprachstörungen In diesem Artikel wird die Entwicklung einer audiovisuellen Aussprachelehr- und Trainingsmethode und eines Softwaresystems diskutiert. Die Methode soll Kindern mit Sprach- und Hörstörungen helfen, ihre Sprachproduktion besser zu kontrollieren. Die Lehrmethode ist für den Übergang von der individuellen Klangvorbereitung zum Üben von Klängen in Sätzen für vier Sprachen konzipiert: Englisch, Schwedisch, Slowenisch und Ungarisch. Das System ist ein allgemein sprachunabhängiges Messwerkzeug und Datenbankeditor. Dieser Datenbankeditor ermöglicht den Aufbau von Modulen für alle Teilnehmersprachen und für unterschiedliche Klanggruppen. Zwei Module sind für das System in allen Sprachen in Entwicklung: eines zum Unterrichten und Trainieren von Vokalen für hörgeschädigte Kinder und das andere zur Korrektur falsch artikulierter Frikativlaute. In dem Artikel stellen wir die Messmethoden, die verwendeten Distance-Score-Berechnungen der visualisierten Sprachspektren und Probleme bei der Evaluation des neuen Multimedia-Tools vor.;-;-;-;https://link.springer.com/article/10.1023/A%3A1026563015923 c3bfad198eb85155a3557d6907551eb1;de;;;1.3.;;;Vorschläge für zusätzliche Experimente Es würde lange dauern (vielleicht ein paar Jahre), um alle Experimente in diesem Buch abzuschließen. Angesichts des jüngsten Trends in der Ingenieurausbildung, Abschlussstein-Designprojekte zu erfordern, werden jedoch im Folgenden einige zusätzliche Themen für Experimente in Bezug auf aktuelle Datenmodemtechniken kurz beschrieben. Referenzen für den Einstieg in jedes Projekt sind enthalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-9763-3_16 4a695255a83cac610b5716e744ae9ad8;de;;;1.3.;;;Innovation und Praxis des „1 + N“-Trainingsmodells für Compound-Design-Talente in Computernetzwerken: Eine Fallstudie des von einer neuen Hochschulgruppe mitbegründeten Undergraduate-Programms Mit dem Fortschritt der Gesellschaft und der Entwicklung von Wissenschaft und Technik treten die Menschen allmählich in das Computerzeitalter ein. Das Aufkommen des Computerzeitalters bietet modernen College-Studenten beispiellose unternehmerische Möglichkeiten sowie Gelegenheiten, Modelle für die Entwicklung von Humanressourcen für die Verbundkonstruktion zu entwickeln. Heute, mit der rasanten Entwicklung von Wissenschaft und Technologie, wird die Beziehung zwischen Informatik und Technologie und anderen Branchen immer enger. Als moderner Universitätsstudent müssen wir die relevanten Kenntnisse des Internets gründlich studieren und unser eigenes algorithmisches Denken pflegen, um eine solide Grundlage für Unternehmertum und Arbeit nach dem Abschluss zu schaffen. Ausgehend von der aktuellen Situation stellt dieser Artikel das Ausbildungsmodell von Composite-Designtalenten vor und untersucht, wie das Ausbildungsmodell von Composite-Talenten in der Lehre angewendet werden kann. Der Zweck dieses Artikels ist die Durchführung von Innovations- und Praxisforschung zum „1 + N“-Modell zur Ausbildung von Composite-Designtalenten unter Computernetzwerken. Methodisch fördern wir vor allem die Gestaltungsfähigkeit der Studierenden durch die Stärkung der Vermittlung von fachlichem Grundwissen, schulen Composite-Designtalente in Gestaltungswettbewerben und fördern die drei Aspekte des kooperativen Lehrmodells Schule-Unternehmen zur Veränderung des ursprünglichen Lehrmodells . Experimentell wird es hauptsächlich von einer Klasse des grundständigen Studiengangs unterrichtet, die von der New Higher Education Group mitgestaltet wird, und am Ende der Vorlesungszeit getestet. Die Prüfung ist vorbei und die Schüler werden befragt. Es wurde festgestellt, dass die Bestehensquote 90% betrug und die Gesamtpunktzahl gut war, von denen 10% nicht bestanden, 25% bestanden, 55% gut und 10% ausgezeichnet waren. Es zeigt, dass die Gesamtlehrwirkung Bewunderung verdient. Mehr als 60 % der Befragten gaben an, mit dem Lehrmodus zufrieden zu sein, und nur 18 % gaben an, mit dem Lehrmodus nicht zufrieden zu sein .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-51556-0_90 928c1de2e4149676dee6cd9c85139b72;de;;;1.3.;;;Studium und Praxis zum Ausbildungsprogramm für die unternehmerische Fähigkeit von Universitätsstudenten Die Durchführung der studentischen Wirtschaftsausbildung an der Universität ist eine wichtige Aufgabe der Umsetzung des wissenschaftlichen Entwicklungskonzepts, der Veränderung des Bildungsgedankens, der Vertiefung der Bildungsreform, der Förderung der Bildungsinnovation. Entsprechend der Ausrichtung, dem Talentförderungsmodus, dem Entwicklungsbedarf und der praktischen Situation unserer Universität stellt das Papier das Ausbildungsschema der unternehmerischen Kompetenz und Fähigkeit von Universitätsstudenten vor, baut die Ausbildungsplattformen für Unternehmertum und Innovation auf, übernimmt den Ausbildungsmodus Staging, um schulen die Studierenden für die grundlegenden Fähigkeiten, die Fähigkeit zur Anwendung von Wissen, die Fähigkeit zum ingenieurmäßigen Design, die Fähigkeit zur wissenschaftlichen Forschung und Entwicklung und die Fähigkeit zur integrierten Innovation. Durch die Kombination eines modernen mehrstufigen integrierten Fertigungssystems mit einem mehrstufigen praktischen Lehrmodus wird die unternehmerische Fähigkeit der Studenten verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24010-2_41 94418e21d0dd813ff62edcdae9530935;de;;;1.3.;;;Förderung des kritischen Denkens der Studierenden im Zeitalter der Künstlichen Intelligenz – aus der Perspektive von Ausbildungsmodus und Bildungsfächern Aus der Perspektive des Trainingsmodus wird sich der Schwerpunkt der Bildung im Zeitalter der künstlichen Intelligenz von der aktuellen Wissens- und Kompetenzerziehung hin zu personalisiertem, kritischem Denken und anderen Bildungsrichtungen verlagern. Das Zeitalter der künstlichen Intelligenz wird die Bildung fördern, um mehr Aufmerksamkeit zu schenken Menschen, insbesondere der spirituellen Welt und der emotionalen Kommunikation der Menschen. Aus der Sicht des Unterrichtsfachs müssen sich die Schüler im Zeitalter der künstlichen Intelligenz an den intelligenten Lernmodus anpassen und die Entwicklung von Cloud Computing, Big Data, künstlicher Intelligenz und anderen fortschrittlichen Technologien hat es den Schülern ermöglicht, selbst zu lernen und kritischem Lernen besteht die wichtigste Verantwortung von Lehrern nicht mehr darin, Wissen zu vermitteln, sondern vor allem als Lebensmentoren für die Schüler zu dienen, ihnen zu helfen, kritisches Denken und innovatives Denken zu trainieren, ihre eigenen Vorteile zu entdecken und den Wert des Lebens zu erkennen, künstliche Intelligenz lässt die Bewertungskriterien von der ursprünglich ergebnisorientierten „einzigen“ Bewertung zur umfassenden und prozessorientierten „mehrdimensionalen“ Bewertung wechseln, und von der ausschließlichen Fokussierung auf die Wissensvermittlung hin zur stärkeren Ausrichtung auf kritisches Denken und sonstige umfassende Qualität und Fähigkeit Anbau.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-74814-2_111 b49dec8436f0d8a23cbf84d2ec44b545;de;;;1.3.;;;Vorhersagendes GIS-Modell für die potenzielle Kartierung der Cu-, Pb-, Zn-Mineralisierung Die geologischen Merkmale, die auf Cu-, Pb-, Zn-Minerallagerstätten in einem Gebiet hinweisen, sind Brüche (Struktur) und Wirtsgesteinssedimente. Zu den verwendeten Datensätzen gehören Aufzeichnungen von Cu-, Pb- und Zn-Ablagerungspunkten, geologische Daten und Fernerkundungsbilder (Landsat TM5). Das Mineralpotenzial des Untersuchungsgebietes wird mittels GIS-basierter Geodatenintegrationstechniken zur Erstellung von Vorhersagekarten bewertet. In diesem Untersuchungsgebiet (Weixi) wurde ein GIS-Vorhersagemodell für das Cu-, Pb-, Zn-Potenzial unter Verwendung von Beweiskraft durchgeführt.;-;-;-;https://link.springer.com/article/10.1007/BF02826942 4116e539b02697d24858f01b00a866c2;de;;;1.3.;;;Studie zum kooperativen Spielmodell der Talentförderung durch Schule-Unternehmens-Koalition Die gemeinsame Talentförderung ist ein wichtiger Bestandteil der Zusammenarbeit zwischen Schule und Unternehmen. Der Erfolg der Zusammenarbeit zwischen Schule und Unternehmen und der kooperativen Strategie hängt eng mit den Ausbildungskosten der Schule oder des Unternehmens zusammen. Dieses Papier schlägt ein kooperatives Drei-Parteien-Spielmodell auf Schüler-, Schul- und Unternehmensbasis vor, um relevante Parameter wie die Ausbildungskosten der Schule und des Unternehmens rational zu quantifizieren. Die Simulation des kooperativen Drei-Parteien-Spielmodells wird ebenfalls in der Arbeit untersucht. Die Simulationsergebnisse helfen Schule und Unternehmen, entsprechende Strategien zu entwickeln. Das Modell kann auch eine vernünftige Erklärung für die Realitäten der Koalition zwischen Schule und Unternehmen liefern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33469-6_14 4dbac08b7928158f7d7f67775c9c4b73;de;;;1.3.;;;Komplexes System für herausragende studentische Forschungsausbildung an privaten Hochschulen Die Verbesserung der Bildungsqualität ist an den Hochschulen immer ein zentrales Anliegen. Gerade für die privaten Hochschulen, die stärker auf die Studierenden ausgerichtet sind, ist der Aufbau eines Ausbildungssystems für herausragende Studierende eine vielversprechende und interessante Aufgabe. In diesem Papier wird ein auf Informationstechnologie basierendes herausragendes Ausbildungsprogramm für Studenten vorgestellt, das Ausbildungsziele, Organisationsstruktur, Kerncurricula, Lehrpersonal, Förderpolitik, Lernen und Selbstmanagement und andere Aspekte umfasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_286 f9aecfdcd5640dc1549cede03b2944b0;de;;;1.3.;;;Forschung zu Lehrreforminhalten und -methoden des SCM-Curriculums an der Zhejiang Shuren University Im Vergleich zu öffentlichen Undergraduate-Universitäten ist die Gesamtqualität der Studierenden an der Zhejiang Shuren University relativ niedriger. Die Schüler lernen den SCM-Lehrplan schwer. Um das Problem zu lösen, wird die Lehrreform des SCM-Curriculums erforscht, um das eigeninitiative Lernen der Studierenden zu verbessern. Ausgehend von der Ist-Situation werden die Inhalte der Lehrreform wie Lehrplanbau, moderner Lehrlaborbau, Lehrmethodenreform und Mittelverbesserung, Lehrplanpraktische Lehrreform, außerschulischer Praxisbau, Referenzmaterialbau und Online-Lernsystembau vorgeschlagen. Lehrmethoden wie heuristischer Unterricht, physikalischer Demonstrationsunterricht und Projektunterricht werden speziell vorgeschlagen, um das Interesse der Studierenden zu wecken. Die Reform des SCM-Lehrplans wurde schrittweise durchgeführt. Es erzielt bestimmte Ergebnisse und wird von Studierenden, internen Kollegen und externen Experten anerkannt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23339-5_40 6c85938353c32db031c40572864e5c83;de;;;1.3.;;;Verallgemeinerung des Lernens: ein wesentlicher Aspekt in der frühkindlichen Bildung Umfangreiche Forschungsergebnisse deuten darauf hin, dass die Verallgemeinerung des Lernens nicht automatisch erfolgt und dass häufig spezielle Techniken erforderlich sind, um die Verallgemeinerung der Fähigkeiten zu fördern. Besondere Probleme mit der Verallgemeinerung wurden bei den Vorbereitungs-, vorakademischen, voraussetzungsvollen und allgemeinen Kompetenztrainingsaufgaben beobachtet, die in frühkindlichen Lehrplänen üblich sind. Der Artikel beschreibt die Natur der Reiz- und Reaktionsverallgemeinerung und identifiziert eine Reihe verwandter Aufgaben, die üblicherweise in frühkindlichen Programmen gelehrt werden. Es wird über verwandte Forschungsergebnisse zur Generalisierung berichtet. Es werden Empfehlungen zur Verbesserung der Generalisierung gegeben.;-;-;-;https://link.springer.com/article/10.1007/BF03174618 edda5a670e018c58e1bb6690da327745;de;;;1.3.;;;Fraktionale zeitliche Elektrodynamikdynamic Die dielektrische Anfälligkeit einer breiten Klasse dielektrischer Materialien folgt über ausgedehnte Frequenzbereiche einer fraktionalen Potenzgesetz-Frequenzabhängigkeit, die als „universelles“ Ansprechen bezeichnet wird. Die elektromagnetischen Felder in solchen dielektrischen Medien können durch fraktionelle Differentialgleichungen (Tarasov, 2008a,b) mit Zeitableitungen nicht ganzzahliger Ordnung beschrieben werden. Eine exakte Lösung der Bruchgleichungen für ein Magnetfeld wird hergeleitet. Wir erhalten Gleichungen, die „universelle“ Curie-von-Schweidler- und Gauß-Gesetze für solche dielektrische Materialien beschreiben (Tarasov, 2008a). Diese Gesetze werden durch fraktionelle Differentialgleichungen dargestellt, sodass die elektromagnetischen Felder in den dielektrischen Materialien eine „universelle“ fraktionelle Dämpfung zeigen (Tarasov, 2008b). Die typischen Eigenschaften „universeller“ elektromagnetischer Wellen im Dielektrikum sind einer breiten Klasse von Materialien gemein, unabhängig von der Art der physikalischen Struktur, der chemischen Zusammensetzung oder der Art der polarisierenden Spezies, seien es Dipole, Elektronen oder Ionen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14003-7_16 bd66bf4c4ee30b9a8354158735f3ab7f;de;;;1.3.;;;Unterschiede in amerikanischem Englisch, Spanisch und Affenwahrnehmung der Ein interessantes Phänomen in der menschlichen Sprachwahrnehmung ist die Handelsbeziehung, bei der zwei verschiedene akustische Signale beide dieselbe phonetische Wahrnehmung signalisieren. Die vorliegende Studie verglich amerikanisches Englisch, Spanisch und Affenhörer in ihrer Wahrnehmung der Handelsbeziehung zwischen Lückendauer und duration;-;-;-;https://link.springer.com/article/10.3758/BF03212132 b7cf1586577c4be882f2626c24030e19;de;;;1.3.;;;Kongruenz bei Qualitätsindikatoren und Laborleistung Die Beherrschung von Labordienstleistungen ist die tragende Säule in der klinischen Medizin, um fehlerfreie diagnostische Ergebnisse zu liefern. Die Effizienz des Labors muss nach internationalen Standardkriterien bewertet werden. Die Qualitätsindikatoren der verschiedenen Phasen des gesamten Testprozesses gelten als das grundlegende messbare Instrument zur Bewertung der Laborleistung. Um die Leistungsfähigkeit des Labors zu optimieren und nach internationalem Standard in unserem neu eingerichteten Labor zu akkreditieren, wurde die Studie durchgeführt, um die Fehlerhäufigkeit von Labor- und Nicht-Laborfachkräften während des gesamten Prüfprozesses zu bewerten. Für Daten, die von April 2016 bis Dezember 2016 in unserem Labor eingegangen sind, wurde eine retrospektive Analyse durchgeführt. Die Gesamtzahl der eingegangenen Proben betrug 61.674, von denen 43200 Proben auf Qualitätsindikatoren analysiert werden konnten. Die Gesamtzahl der in diesen Proben verarbeiteten Tests betrug 172.800. In den Studienstichproben waren 26,5% der Fehler auf präanalytische Faktoren zurückzuführen, während 9,4% der Fehler auf die analytische Phase und 18% auf die postanalytische Phase zurückzuführen waren. Es wurde festgestellt, dass die Unangemessenheit der Testanforderung der wichtigste Attributionsfaktor für präanalytische Fehler ist. Die Effizienz der Instrumentierung in Form von häufigen Ausfällen (~7%) beeinflusste die Leistungsfähigkeit der analytischen Phase in unserem Labor stark. 12% der postanalytischen Fehler wurden auf zu lange Durchlaufzeiten zurückgeführt. Die Aktualität der Aufrufe und Berichte zu kritischen Werten für STAT-Proben zeigte jedoch eine hohe Kompetenz von bis zu 97 %. In der prä-prä- und präanalytischen Phase wurden hohe Fehlerraten beobachtet, die auch für eine hohe Fehlerhäufigkeit in der postanalytischen Phase sprachen. Dies unterstreicht die dringende Notwendigkeit, Richtlinien für die Abwicklung aller Schritte des gesamten Testprozesses zu formulieren und strategische Maßnahmen zur Reduzierung von Fehlerrisiken und Erhöhung der Patientensicherheit einzuleiten.;-;-;-;https://link.springer.com/article/10.1007/s12291-017-0687-9 ef2b38f183f49a9b089203027d847b87;de;;;1.3.;;;Personalisierte Trainingsverschreibung mit virtueller Fitness Das Interesse an Gesundheit nimmt in der modernen Gesellschaft stetig zu und es werden vielfältige Inhalte für das Gesundheitsmanagement entwickelt. Die Auswahl der richtigen Sportart und des richtigen Kraftniveaus für die sportliche Aktivität, die dem Gesundheitszustand oder der körperlichen Leistungsfähigkeit des Einzelnen entspricht, ist der beste Weg, um sichere und effektive Trainingsergebnisse zu erzielen. Anhand der Daten der Benutzer zur körperlichen Leistungsfähigkeit wird die körperliche Zusammensetzung und die körperliche Leistungsfähigkeit der notwendigen Benutzer bewertet und darauf basierend eine adäquate Bewegungsvorschrift entwickelt. Was die Übungsvorschrift betrifft, werden Übungsart, Intensität, Dauer, Häufigkeit und Fortschritt, die für die Benutzer angemessen sind, durch das Echtzeitführungssystem präsentiert, und die Übungsart, die die Benutzer wünschen, wird ausgewählt, um in der virtuellen Realität zu trainieren. Benutzer nehmen weiterhin am Training über ein auf der virtuellen Realität basierendes Trainingsprogramm mit dem personalisierten Trainingsrezept teil, und die Veränderung des Körpers kann visuell über den Avatar überprüft werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0557-2_139 4d3f535c3b47c7cd6ea0665134cf4eee;de;;;1.3.;;;Benutzerzentriertes Design: Ein effektiver Ansatz zur Erstellung von Online-Lernspielen für Senioren Um effektiv zu sein, sollte die Entwicklung von Online-Lernspielen für ältere Erwachsene in einem benutzerzentrierten Designprozess (UCD) verankert sein. Dieser Designansatz leitet sich aus der Computerergonomie ab, bei der die Bedürfnisse, Erwartungen und Eigenschaften der Benutzer in jeder Entwicklungsphase berücksichtigt werden. Dieser unterscheidet sich von anderen Ansätzen dadurch, dass er versucht, das Produkt (in diesem Fall ein Online-Lernspiel) an die Bedürfnisse und Vorlieben des Endbenutzers anzupassen, anstatt Eigenschaften vorzuschreiben, die sich die Designer des Produkts vorstellen. In diesem Kapitel stellen wir den UCD-Prozess vor, der es uns ermöglichte, während der Modellierungsphase (durch Testen eines Modells des Spiels auf Papier), der Prototypenphase (Testen einer eingeschränkten Version des programmierten Spiels) und während Implementierung der endgültigen Version des Spiels (Online-Testen des vollständigen Spiels). Nach unserer Erfahrung in den letzten 25 Jahren erforderten unsere Online-Lernspiele normalerweise zwei oder drei Iterationen, um das Design eines Spiels fertigzustellen. Die Ergebnisse des Ansatzes zeigen, dass UCD die Kosten für Spieldesign und -entwicklung erheblich reduziert und gleichzeitig eine hohe Spielerzufriedenheit sicherstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58459-7_13 d7df34b91fdaa5f46a0a4d033a90fd98;de;;;1.3.;;;Förderung einer sicheren Atmosphäre: Ein erster Schritt zur Diskussion von Gender in familientherapeutischen Trainingsprogrammen In den letzten Jahren wurden mehrere wichtige Aspekte identifiziert, mit denen Genderfragen in Trainingsprogrammen für Familientherapie angesprochen werden. Ein wichtiger erster Schritt wurde jedoch oft nicht explizit gemacht: die Notwendigkeit, ein offenes und sicheres Umfeld zu schaffen, in dem diese Themen diskutiert werden können. Ein solches sicheres Umfeld kann entwickelt werden, indem theoretische Perspektiven genutzt werden, mit denen Studierende und Lehrende der Familientherapie bereits vertraut sind. Dieser Beitrag bietet exemplarisch drei theoretische Perspektiven und macht Vorschläge für eine geschlechtergerechte Diskussionsatmosphäre.;-;-;-;https://link.springer.com/article/10.1007/BF02196844 104e6e4862013a1ca235f6d600b79685;de;;;1.3.;;;Ingenieurhochschulen in den Wellen der „Reindustrialisierung“ Ingenieurwesen, Wissenschaft und Technologie sind eine starke treibende Kraft in der Evolution der menschlichen Zivilisation, seit der Mensch vor 2,5 Millionen Jahren gelernt hat, Werkzeuge zu benutzen. Das Dujiangyan-Bewässerungsprojekt, das während der Zeit der Kriegführenden Staaten gebaut wurde, hat dem Land Sichuan zweitausend Jahre lang geholfen, und die Große Mauer, deren Bau von der Westlichen Zhou-Dynastie bis zur Ming-Dynastie begann, „für einen Zeitraum von zweitausend Jahren und verlängerte sich über einen“ hunderttausend li“ verkörpert die bemerkenswerten Errungenschaften der alten chinesischen Bau- und Ingenieurtechnologie.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1105-5_6 3c51259d31dbf65d525f56ef95d513c9;de;;;1.3.;;;Kfz-Mechatronik-Schulungsprogramm - Eine inklusive Schulungsreihe für Automobilhersteller und Zulieferindustrie Die zunehmende Integration von Elektrik/Elektronik in moderne Produkte hat zu einer deutlichen Veränderung der Entwicklungsprozesse und Wertschöpfung in ehemals mechanisch orientierten Industrien geführt. Mit steigendem Anteil der Informationstechnologie in Fahrzeugen steigen sowohl die Produktfunktionalitäten als auch der Kundennutzen, was grundlegende Veränderungen in den Entwicklungs- und Fertigungsprozessen erfordert. Aufgrund der Tatsache, dass moderne Autos einen signifikanten und immer noch steigenden Anteil mechatronischer Systeme aus Mechanik, Elektrik/Elektronik und Softwarekomponenten aufweisen, spielt eine intelligente und effektive Integration dieser historisch oft getrennten Disziplinen über den gesamten Produktlebenszyklus eine wichtige Rolle. Um diese Integration zu ermöglichen, verändern sich Entwicklungsprozesse sowie angewandte Tools und Methoden, was umfassende Kompetenzen der beteiligten Human Resources einschließlich Management, Ingenieure und einer Reihe weiterer Betroffener erfordert. Die vorliegende Publikation diskutiert den Fortschritt des Technologiewandels in der Automobilindustrie und die damit verbundenen Anforderungen an die angewandten Entwicklungsprozesse. Darauf aufbauend wird ein umfassendes Kfz-Mechatronik-Ausbildungsprogramm eingeführt, das den Bedarf der Wissenserweiterung durch Know-how-Transfer zwischen den verschiedenen beteiligten Ingenieurdisziplinen adressiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-56441-4_25 55b9ef095e7599156090c32d9b6c7102;de;;;1.3.;;;Ausbildungsprozess Umweltingenieurwesen im Bereich Raumluftwissenschaften Da die Ausbildung im Bereich der Raumluftwissenschaften in der Slowakei ein Teil der Umweltausbildung der Fakultät für Bauingenieurwesen der Technischen Universität Kosice ist, möchte ich einige grundlegende Überlegungen vorschlagen, die eine neue Sichtweise für das Verständnis der Beziehungen zwischen Bau- und Innenraum-Umwelttechnik nahelegen können. Wir glauben, dass unsere moralische Verantwortung gegenüber kommenden Generationen für eine zivile Umweltbildung insbesondere bei Raumluftproblemen unmittelbar aus diesen Gedanken folgt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4511-4_11 8a5060376717defdcbb133c349120d01;de;;;1.3.;;;Fähigkeiten und Kenntnisse, die von Fernsehproduktionsspezialisten im Fernunterricht benötigt werden Der Zweck dieser Studie bestand darin, zu untersuchen, welche Fähigkeiten und Kenntnisse im Bereich des Fernunterrichts Fernsehproduktionsspezialisten erwerben mussten, um ihre Aufgaben zu erfüllen. Die Zielstichprobe für diese Studie bestand aus 12 Vollzeit-Fachleuten für Fernsehproduktion, die interaktive, videobasierte Live-Bildungsprogramme an amerikanischen Universitäten entwickeln. Diese Fernsehproduktionsspezialisten hatten jedoch vor ihrer Anstellung an ihren jeweiligen Universitäten keine Erfahrung oder Ausbildung im Bereich des Fernunterrichts. Zur Datenerhebung wurden qualitative Methoden verwendet. Die Analyse führte zu dem Ergebnis, dass Fernsehproduktionsspezialisten Fähigkeiten in zwei Hauptbereichen erwerben mussten – technische Fähigkeiten und persönliche/zwischenmenschliche Fähigkeiten – und Kenntnisse über Methoden der Unterrichtsgestaltung.;-;-;-;https://link.springer.com/article/10.1007/BF02300427 e82e5c3f640b3e1100c28d123e4b428f;de;;;1.3.;;;Der Wert emotional ausdrucksstarker bildender Kunst in der medizinischen Ausbildung Dieser Beitrag nähert sich dem Thema bildende Kunst in der medizinischen Ausbildung aus einer philosophischen Perspektive und stützt sich dabei auf Argumente aus der Erkenntnistheorie, Wissenschaftsphilosophie, Ästhetik und zeitgenössischen Ethiktheorie. Mehrere Medizinethiker haben festgestellt, dass das traditionelle klinische Paradigma die epistemische und emotionale Distanz zwischen Patient und Arzt teilweise durch die Konzentration auf den physischen Körper und die Medizintechnik vergrößern kann. Einige dieser Autoren empfehlen Patienten eine neue Herangehensweise, die auf Empathie und erhöhter Aufmerksamkeit für das Leiden basiert. Nachdem ich diese Argumente, unterstützende Beispiele und Empfehlungen überprüft habe, erkläre ich, wie visuelle Kunst, die die emotionale Reaktion auf Krankheit ausdrückt oder symbolisiert, verwendet werden könnte, um ein zusätzliches Paradigma in die medizinische Ausbildung einzuführen. Dies wäre ein Paradigma, das auf einer empathischen Aufmerksamkeit für die emotionalen Erfahrungen der Patienten während der Krankheit basiert. Mein eigenes Argument ist, dass diese zusätzliche Art der Patientenwahrnehmung und -beziehung die Distanz zwischen Patient und Arzt verringern und Ärzten ermöglichen kann, dem Ideal der Behandlung des Patienten als Person besser gerecht zu werden.;-;-;-;https://link.springer.com/article/10.1007/BF02276809 3fe828fb1eb7a3fd054e08c9534f2b68;de;;;1.3.;;;Qualität der Wissenstransformation als Teil des Wissensmanagementsystems Die Hauptaktivität im Bildungsbereich ist der Wissenstransfer von Pädagogen an Lernende und zwischen Lernenden selbst. Das Wissen kann in expliziter oder impliziter Form vorliegen. Auf der anderen Seite erfolgt die Implementierung von Wissensmanagement in fast allen geschäftlichen und gesellschaftlichen Aktivitäten, auch im Bildungsbereich. Diese Studie zielte darauf ab, sich ein Bild vom Zustand der Umsetzung der Wissenstransformation zu machen und ein Wissensmanagementmodell der privaten Universität in Jakarta zu entwickeln. Die Daten wurden mit dem deskriptiven Tool „Radar“ analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-4154-9_96 14a5d88f48afa7190187a4f8dd07863c;de;;;1.3.;;;Das instruktive Design eines webbasierten selbstreflexiven Lernportfolios für das Kompetenztraining Die technische Ausbildung konzentriert sich hauptsächlich auf die Entwicklung der motorischen Fähigkeiten der Schüler. An berufsbildenden Schulen in Taiwan unterrichten Fachlehrer die Fertigkeiten in der Regel in einer großen Klasse. Daher stehen diese Lehrer immer vor dem Problem, den Lernprozess und die Schwierigkeiten der Schüler nicht zu erkennen, und die Bewertung ist auch glaubwürdig und valide.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35606-3_45 0b4bd69928e753a9790a32e390dd266e;de;;;1.3.;;;Interpretierbare Abfrageprojektion lernen Wir schlagen eine neuartige Lazy-Learning-Methode namens QPL vor, die versucht, nützliche Muster aus Trainingsdaten zu entdecken. Die erkannten Muster (Query Projections) sind an die Query-Instanz angepasst und leicht interpretierbar. Als Mustererkennungsmethode erfordert QPL keinen Batch-Trainingsprozess und erreicht dennoch eine hervorragende Klassifizierungsqualität. Wir verwenden einige Benchmark-Datensätze, um QPL zu bewerten und zu zeigen, dass QPL eine herausragende Leistung und hohe Zuverlässigkeit aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30497-5_149 12d04c8ff864de8f0d4827dcf174f5f1;de;;;1.3.;;;Implikationen der Dirichlet-Annahme für die Diskretisierung stetiger Variablen in naiven Bayes-Klassifikatoren In einem naiven Bayes-Klassifikator wird angenommen, dass sowohl diskrete Variablen als auch diskretisierte kontinuierliche Variablen Dirichlet-Prioritäten haben. Dieses Papier beschreibt die Implikationen und Anwendungen dieser Modellauswahl. Wir beginnen mit der Überprüfung der wichtigsten Eigenschaften von Dirichlet-Verteilungen. Unter diesen Eigenschaften ist die wichtigste „;-;-;-;https://link.springer.com/article/10.1023/A%3A1026367023636 3da7dc839042abe395ecb3d13460504e;de;;;1.3.;;;Eine Studie zum Umfeld der unternehmerischen Unterstützung in Bildungs-(technischen) Einrichtungen Institution Die Bildungseinrichtungen spielen eine Schlüsselrolle bei der Schaffung zukünftiger Unternehmer. Sie vermitteln den Studierenden notwendige Kompetenzen und erhöhen die Chancen auf ihre Beschäftigungsfähigkeit. Die Entwicklungsländer müssen das Unternehmertum fördern und die Studenten dazu bringen, Unternehmertum als Berufswahl zu verfolgen. Der Bericht der Wissenskommission über Unternehmertum (2008) hat zu Recht die effektive Verbindung zwischen Bildung, Innovation und Unternehmertumsinitiative aufgezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11412-5_12 9cdff0a5714a09f782c67e713b2e08d6;de;;;1.3.;;;Erforschung des Smart Education-Effekts durch Schülercamp und Lehrerfortbildung Mit der schnellen Verbreitung der Informationstechnologie und des Cloud Computing führte die Integration des Wandels der IT-Dienstleistungsumgebung mit der IT-Technologie-basierten Bildung zur Entstehung einer mobilen Medienplattform auf Basis von Tablet-PC und Smartphones. Daher können wir einen schnellen Wandel des Bildungsparadigmas in ein solches vorhersagen, das sich ernsthaft auf die allgegenwärtigen intelligenten Geräte verlassen kann, ohne zeitliche, örtliche und Gerätebeschränkungen. Die Bildungsrevision 2009 hat sich das Ziel einer neuen Vision zur Ausbildung von Schülern und Lehrern gesetzt. Die kreativen und talentierten Kandidaten für die Zukunftsgesellschaft sollen in der Lage sein, ihr IT-Wissen der rasanten Entwicklung anzupassen, offene IT zu teilen und durch Kooperation den Teamgeist zu fördern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35251-5_20 e4c8a82f7d0e421b86605e89b274f11a;de;;;1.3.;;;Anwendung von Big Data Analytics zur Verbesserung des Lernprozesses in der technischen Berufsbildung Die Studie identifiziert die Anwendung von Big Data Analytics zur Verbesserung des Lernprozesses in der technischen Berufsbildung (TVET) in Nigeria. Zwei Forschungsfragen wurden beantwortet. Es wurde das deskriptive Erhebungsdesign verwendet und die Zielgruppe bestand aus Experten der Berufsbildung. Als Instrument zur Datenerhebung dient ein strukturierter Fragebogen mit dem Titel „Big Data Analytics in der technischen Berufsbildung“ (BDATVET). BDATVET wurde einer Gesichts- und Inhaltsvalidierung von drei Experten unterzogen, zwei für Berufsbildung und einer für Bildungstechnologie. Cronbach Alpha wurde verwendet, um den Reliabilitätskoeffizienten des Fragebogens zu bestimmen und dieser wurde mit 0,81 ermittelt. Die von den Befragten erhobenen Daten wurden mit Mittelwert und Standardabweichung analysiert. Zu den Erkenntnissen zur Problematik von Big Data gehören unter anderem die Sicherheit, Verfügbarkeit und Stabilität des Internet-Netzdienstes. Die Ergebnisse in Bezug auf die Perspektiven umfassen unter anderem, dass ein Lehrer in Echtzeit das Verständnis des Schülers für das Material misst, überwacht und darauf reagiert. Basierend auf den Ergebnissen wurde unter anderem empfohlen, dass die Akteure der Berufsbildung die grundlegende Sicherheit ihrer Daten wahren müssen und auf Informationen über ihre Kompetenzen zugreifen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-69143-1_2 4dd841b06abe88a0d5af60273ff0185c;de;;;1.3.;;;Arabic Spoken Language Identification System (ASLIS): Ein vorgeschlagenes System zur Identifizierung von modernem Standardarabisch (MSA) und ägyptischem Dialekt Es gibt Millionen von Menschen auf der Welt, die viele Sprachen sprechen. Um miteinander kommunizieren zu können, ist es notwendig, die Sprache zu kennen, die wir verwenden. Um diesen Vorgang durchzuführen, verwenden wir das Spracherkennungssystem.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25453-6_33 053a616951c01289b0ec64c0248f53a6;de;;;1.3.;;;Aus- und Weiterbildungsumgebungen für die Beherrschung von Fähigkeiten Computergestützten Lern- und Ausbildungssystemen mit hochentwickelter Informations- und Kommunikationstechnologie (IKT) wird in letzter Zeit immer mehr Aufmerksamkeit geschenkt. In einem solchen System wurde der Funktion der Qualifikationsausbildung besondere Aufmerksamkeit gewidmet, durch die eine neue Art von Bildungs- und Ausbildungssystem entwickelt werden kann. In dieser Studie haben wir ein Schulungs- und Trainingssystem für die orientalische Akupunktur vorgeschlagen, das sich darauf konzentriert, wie man den Einsatz kleiner Kraft und kleiner Bewegungen trainiert. Die Forschungsthemen sollten Probleme wie die Messung und Präsentation kleiner Einsatzkräfte sowie deren Trainingsmethoden und den Aufbau einer Trainingsumgebung lösen, um ein Ideentrainingssystem zu entwickeln, das sowohl Wissenslernen als auch Fertigkeitstraining zufriedenstellend kombiniert. Die Akupunktur als ein typisches Beispiel der traditionellen orientalischen Heilmethoden wurde in den letzten Jahren aufgrund ihrer wundersamen Heilwirkung von der Welt immer mehr akzeptiert. In der Akupunktur ist es vor allem wichtig, durch Training mit wiederholter Praxis hochqualifiziert zu werden. Eine solche wiederholte Praxis kann jedoch kaum an einem echten menschlichen Körper durchgeführt werden, was immer von Schmerz und Elend begleitet sein kann. In dieser Studie wurde ein Computer-Trainingssystem für Akupunktur mit Force-Feedback-Funktion vorgeschlagen. Ein menschliches Akupunkturpunktmodell mit Namen, Position, Meridianen, Stichtechniken und Heilungsfunktionen wurde im Computer erstellt, und im System wurden Geräte mit Force-Feedback-Funktionen für das Training verwendet. Ein Trainierender erhält Akupunkturerfahrung nicht nur durch visuelle Informationen, sondern auch durch das Erfassen der Kraftinformationen mit einer wahr-falsch-Beurteilung seiner Bewegung, die während der Übung in Echtzeit gegeben wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35286-7_57 335c4e4385f31bd1d48a1ce7d04882f9;de;;;1.3.;;;Garantierte, nicht-fragile Tracking-Steuerung für omnidirektionale rehabilitative Trainingsgeher mit Geschwindigkeitseinschränkungen In dieser Studie wird eine neue nichtlineare Tracking-Steuerungsmethode mit Geschwindigkeitseinschränkungen für omnidirektionale rehabilitative Trainingsgeher vorgeschlagen. Ziel der Studie ist es, einen asymptotisch stabilen, nicht-fragilen Controller zu entwickeln, der die Sicherheit des Rehabilitanden garantieren und die Verfolgung einer von einem Physiotherapeuten geplanten Trainingsbahn gewährleisten kann. Gemäß der Lyapunov-Theorie kann der nicht-fragile Controller mit garantierten Kosten so entworfen werden, dass er Stabilität in Bezug auf Lösungen linearer Matrixungleichungen aufrechterhält. Das Konzept der Sicherheitsgeschwindigkeit wird gegeben und die hinreichenden Bedingungen für die Existenz eines solchen Reglers mit Sicherheitsgeschwindigkeitseinschränkungen werden abgeleitet. Als Anwendung bestätigen Simulationsergebnisse die Wirksamkeit der vorgeschlagenen Methode und verifizieren, dass der Gehwagen eine sichere Trainingsgeschwindigkeit bieten kann.;-;-;-;https://link.springer.com/article/10.1007/s12555-015-0039-6 73c4657d8ef0dfa7654b9fd62cf73cb3;de;;;1.3.;;;Auf dem Weg zu einem Manifest für Ausbildung, Training und Professionalität von Softwareprozessen Im Juni 2015 versammelte sich eine Gruppe von Experten für Software Process Improvement (SPI) und Bildung aus der ganzen Welt beim 1. Internationalen Workshop zu Software Process Education, Training and Professionalism, der im Zusammenhang mit der 15. Internationalen Konferenz Software Process Improvement and Capability Determination stattfand. Gespräche mit wichtigen Akteuren in den relevanten Berufs- und Personenzertifizierungsbereichen sowie erfahrenen Pädagogen führten zu einem Konsens, dass es für die Branche an der Zeit ist, sich den neuen Herausforderungen zu stellen und in einem Manifest eine gemeinsame Vision für Pädagogen und Trainer zusammen mit eine Reihe von Empfehlungen zur Bewältigung der Herausforderungen. Auf dem Workshop präsentierten und diskutierten 14 „Experten“ aus Bildung und Wirtschaft ihre „Weisheit und Erfahrung“ zu den Herausforderungen der Softwareprozessbildung, -ausbildung und -professionalisierung, insbesondere vor dem Hintergrund der neuen Lern- und Lehrformen im Hochschulbereich. Auf der Grundlage der Präsentationen erarbeiteten 32 Workshop-Teilnehmer ein Brainstorming zu Kernwerten und Prinzipien, die speziell auf die Bedürfnisse der Ausbildung, Schulung und Professionalität von Softwareprozessen ausgerichtet sind. Über Affinitätsanalyse und Gruppendenken haben wir ein erstes Manifest identifiziert, das aus 10 Werten und 4 Prinzipien besteht. Es wird erwartet, dass dieser Entwurf des Manifests den neuesten Stand der Kenntnisse über die Ausbildung, Schulung und Professionalität von Softwareprozessen zum Ausdruck bringt. Es basiert auf Hunderten von Personenjahren an Praxis und Erfahrung von Pädagogen und Branchenexperten weltweit. Derzeit werden weitere Arbeiten an der Erweiterung und Validierung dieses Manifestentwurfs im Hinblick auf eine vollständige Veröffentlichung bis 2016 durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-38980-6_8 9cebbbea1f8f490fb59eba35f669315d;de;;;1.3.;;;Qualität der Hochschulpersonalausbildung: Problem- und Lösungsforschung mit moderner Informationstechnologie Nach dem Eintritt in die Nach-Massen-Phase bot sich der Hochschulbildung in China eine sehr gute Chance, die Ausbildungsqualität zu steigern, aber auch auf viele Schwierigkeiten und Probleme. Gemäß dem nationalen Bildungsplan und den Anforderungen von Bildungskonferenzen wird es die oberste Priorität der gegenwärtigen Bildungstheorie und -praxis der chinesischen Hochschulbildung sein, die Chancen und Herausforderungen im Transformationsprozess von einem Massenhochschulland zu einem Land mit Hochschulbildung sorgfältig zu analysieren eine leistungsfähige Hochschulbildung, die Qualität der Ausbildung von Hochschulstrategien und -methoden aktiv erforschen und umfassend verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23357-9_27 11c615e7680742c8f6fc045eabcbc8a3;de;;;1.3.;;;3D-Netzwerk-Spatialisierung: Fügt sie 2D-Darstellungen semantischer Nähe Tiefe hinzu? Räumliche Ansichten verwenden visuell-räumliche Metaphern, um die Sinnfindung aus komplexen nicht-räumlichen Datenbanken zu erleichtern. Die Spatialisierung umfasst typischerweise die Projektion eines hochdimensionalen (nicht-räumlichen) Datenraums auf einen niedrigerdimensionalen Anzeigeraum zur visuellen Datenerkundung. Im Vergleich zu räumlichen 2D-Anzeigen könnten 3D-Anzeigen möglicherweise mehr Informationen vermitteln, da sie alle drei verfügbaren räumlichen Anzeigedimensionen verwenden. In dieser Studie untersuchen wir, ob dieser Vorteil besteht und ob er die zusätzlichen kognitiven, wahrnehmungsbezogenen und technologischen Kosten von 3D-Displays aufwiegt. In einem kontrollierten Mensch-Subjekt-Experiment haben wir untersucht, wie Betrachter Dokumentähnlichkeit in 3D-Netzwerk-Verräumlichungen identifizieren, die Nachrichtenartikel als durch Links verbundene Punkte darstellen. Unsere quantitativen Ergebnisse deuten darauf hin, dass die Ähnlichkeitsbewertungen für 3D-Netzwerkdisplays denen ähnlich sind, die in einer früheren von uns durchgeführten 2D-Studie erhalten wurden. Bei beiden Anzeigearten beurteilten die Betrachter die Dokumentähnlichkeit meist auf der Grundlage von metrischen Entfernungen entlang der Netzwerkverbindungen, im Gegensatz zur Anzahl der Knoten oder der Entfernung über die Netzwerkverbindungen. Knotenzahlen wirken sich jedoch bei 3D-Anzeigen stärker auf Ähnlichkeitsbewertungen aus als bei 2D-Anzeigen. Wir finden auch keine signifikanten Unterschiede in der Ähnlichkeitsbeurteilung, ob 3D-Darstellungen monoskopisch oder stereoskopisch dargestellt werden. Wir kommen zu dem Schluss, dass der Vorteil von 3D-Displays bei der Übermittlung von mehr Informationen als 2D-Displays nicht unbedingt die zusätzlichen Anforderungen an kognitive, wahrnehmungsbezogene und technologische Ressourcen aufwiegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11593-1_3 8e8663e213392d3c906e72217bfc2ea7;de;;;1.3.;;;Bewertung der hygienischen Qualität von Lebensmitteln, die in Universitätskantinen von Nordportugal serviert werden Das Angebot von Gemeinschaftsverpflegung hat in den letzten Jahren zugenommen, da die Menschen hauptsächlich aus beruflichen oder Studiengründen auswärts essen müssen. Die mikrobiologische Qualität von Lebensmitteln (n = 156) wurde in 20 Lebensmittelbetrieben (Cafés und Kantinen) von zwei Universitäten im Norden Portugals bewertet. Insgesamt zeigten die Daten eine hohe mikrobiologische Qualität der servierten Lebensmittel. Es wurden keine Sicherheitsrisiken für Verbraucher festgestellt, da;-;-;-;https://link.springer.com/article/10.1007/s12088-019-00844-8 f35e3bf332581a6c0d443703dbcff26e;de;;;1.3.;;;Ausbildung von Lehramtsstudierenden zur Analyse und Bewertung von Lehrbüchern Das Erlernen der Bewertung von Lesetexten sollte ein wichtiger Bestandteil der Vorbereitung auf den Dienst sein. In dieser Studie wurde ein simulierter Lehrbuchauswahlprozess verwendet, um Unterschiede in der Konsistenz von Experimental- und Kontrollgruppen bei der Bewertung von Lehrbüchern zu vergleichen. Die experimentellen Gruppen, die ihre Kriterien operativ definieren mussten, waren in ihren Bewertungen konsistenter als die Kontrollgruppe, die traditionelle Checklisten verwendet.;-;-;-;https://link.springer.com/article/10.1007/BF02683694 a4b2d8999d1b97e2d51652cf8763edda;de;;;1.3.;;;Granulares Mining des Lernverhaltens von Schülern in einem Lernmanagementsystem unter Verwendung der groben Set-Technik Die Mustervielfalt der Benutzerinteraktion im Lernmanagementsystem kann intelligent untersucht werden, um den Lernstil der Schüler zu diagnostizieren. Zu diesen Mustern gehören die Art und Weise, wie der Benutzer navigiert, die Wahl des im System bereitgestellten Links, die Präferenzen der Art des Lernmaterials und die Verwendung des im System bereitgestellten Tools. In dieser Studie schlagen wir vor, die Entwicklung der Schülermerkmale in die Dimensionen des Integrierten Felder Silverman (IFS)-Lernstils abzubilden. Vier Lerndimensionen im Felder Silverman-Modell sind integriert, um die Schülereigenschaften in sechzehn Lernstile abzubilden. Anschließend wurden durch Anwendung der Grobsatztechnik zwanzig Attribute für das Abbildungsprinzip ausgewählt. Der grobe Satz erzeugt jedoch eine große Anzahl von Regeln, die möglicherweise redundant und irrelevant sind. Daher bewerten und analysieren wir in dieser Studie die wichtigsten IFS-Regeln für das Benutzerverhalten, indem wir diese irrelevanten Regeln filtern. Die Bewertungen der Regeln werden durchgeführt, indem die Regelunterstützung, die Regellänge und die Genauigkeit bewertet werden. Die irrelevanten Regeln werden weiter gefiltert, indem verschiedene Regelunterstützung, Regellänge und Regelgenauigkeit gemessen werden. Es wird hinterfragt, dass die Regeln mit einer Länge zwischen [4,8] und die Regeln, die im Bereich von [6,43] unterstützt werden, mit 96,62% der höchsten Genauigkeit unterliegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11224-9_5 69208b4b696745bdd7ee98ef034a49fa;de;;;1.3.;;;Zwei Strategien bei der frikativen Diskriminierung Synthetische Geräusche aus einem [∫]-[s]-Kontinuum, gefolgt von vokalen Anteilen, die die Lage der [∫]-[s]-Grenze in einem Identifizierungstest beeinflussten, wurden in AXB- und AX-Unterscheidungsaufgaben mit festem Standard präsentiert. Die Mehrheit der naiven Probanden nahm diese Frikativ-Vokal-Silben in beiden Aufgaben ziemlich kategorisch wahr, dh die Unterscheidungsfunktionen folgten den Mustern, die aus den Identifikationswerten vorhergesagt wurden, und zeigten Verschiebungen, die von der Natur des vokalen Teils abhängen. Zwei Probanden erzielten jedoch viel bessere Diskriminierungsergebnisse als die anderen, ebenso wie drei erfahrene Zuhörer und eine Gruppe weniger erfahrener Probanden, die in der AX-Aufgabe ein gewisses Diskriminierungstraining erhalten hatten. Diese Hörer, die (nach ihrer höheren Genauigkeit, ihrem Reaktionsmuster und ihren subjektiven Berichten) erfolgreich der nichtphonetischen Strategie folgten, die Aufmerksamkeit auf die spektralen Eigenschaften des frikativen Geräuschs zu beschränken, wurden nicht von verschiedenen vokalen Kontexten beeinflusst. Diese Ergebnisse unterstützen die Hypothese, dass Einflüsse des vokalen Kontexts auf die frikative Identifikation mit einem phonetischen Wahrnehmungsmodus verbunden sind.;-;-;-;https://link.springer.com/article/10.3758/BF03214276 b0181ea7907a912e1e260bbb91b8c90c;de;;;1.3.;;;Entwurf einer Theorie des motorischen Lernens Dieser Beitrag skizziert eine neue Theorie des motorischen Lernens. Die Theorie wird durch die Anatomie und Physiologie der sensomotorischen Bahnen durch das Kleinhirn, den motorischen Kortex, den Hirnstamm und das Rückenmark eingeschränkt. Es stützt sich auch auf aktuelle Erkenntnisse über zelluläre und molekulare Eigenschaften und erhält Erkenntnisse aus den Ergebnissen von Lernexperimenten mit künstlichen neuronalen Netzen. Die zonale Organisation, die Kletterfasern, Purkinje-Zellen und Kernzellen im Kleinhirn ausrichtet, bietet eine ideale neuronale Architektur für effizientes Lernen. Es wird postuliert, dass Kletterfasern Eigenschaften erwerben, die ihre Fähigkeit verbessern, Sätze von Purkinje-Zellen zu trainieren. Die Puikinje-Zellen steuern dann Bewegungen, indem sie prämotorische Netzwerke selektiv hemmen. Die Wiederholung dieser Kontrolle legt motorische Gewohnheiten fest, die dann automatisch von den prämotorischen Netzwerken ausgeführt werden. Es wird eine langfristige Wiederholung postuliert, um die Topographie des gesamten Netzwerks unter Verwendung von trophischen Mechanismen auszurichten. Diese Prozesse in Kombination werden als geeignet angesehen, die hervorstechenden Merkmale des motorischen Lernens zu erklären.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-3626-6_21 9ce1cadf90a074a6ba1ceaa84203f0c0;de;;;1.3.;;;Erfolgsgeschichte der Zusammenarbeit mit Industrieinstitutionen zur Verbesserung der Lehr-Lernerfahrung Die Zusammenarbeit zwischen Industrie und Wissenschaft kann auf verschiedenen Ebenen erfolgen. Es dient dem gegenseitigen Nutzen und kann einen sinnvollen Beitrag zur Gesellschaft leisten. Interaktion kann aus verschiedenen Gründen stattfinden, darunter Lehrplangestaltung und -entwicklung, Ausbildung und Kompetenzentwicklung, Grundlagenforschung und angewandte Forschung, Technologieentwicklung und -transfer. Dieses Papier diskutiert die Bemühungen des NMAM Institute of Technology, Nitte, einer autonomen Institution, diese Interaktion zu nutzen, um einige dieser Bereiche abzudecken und dadurch die Lehr-Lern-Erfahrung von Schülern und Lehrern zu verbessern und zum allgemeinen Wachstum und zur Entwicklung der Institution.;-;-;-;https://link.springer.com/chapter/10.1007/978-81-322-1931-6_14 3e9a167207dd21e48e173ae7d27f3cc9;de;;;1.3.;;;Ein neuartiges interaktives virtuelles Trainingssystem Dieses Papier schlägt ein neuartiges interaktives virtuelles Trainingssystem vor, das SPS-Anwärtern eine virtuelle Umgebung bietet, die identisch ist mit der tatsächlichen Handhabung verschiedener Arten von Geräten, auf die die Auszubildenden während der Trainingsprogramme nicht zugreifen konnten. Das vorgeschlagene System wird auf ein tatsächliches technisches Schulungsprogramm angewendet, und die Ergebnisse werden analysiert, um seine Angemessenheit und Anwendbarkeit zu überprüfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20998-7_17 46150485304bd0d57dbc11c42932c8c9;de;;;1.3.;;;Modifizierte teambasierte und Blended-Learning-Wahrnehmung: eine Kohortenstudie unter Medizinstudenten der King Saud University Medizinische Fakultäten haben sich zu einer kompetenzbasierten Ausbildung und aktiven lernerzentrierten Strategien entwickelt. Der Studiengang Medizininformatik wurde 2011 im 3. Jahr am College of Medicine (CoM) der King Saud University (KSU) eingeführt, um zukünftigen Medizinabsolventen technologische und informationstechnische Kompetenzen zu vermitteln. Modifiziertes Team-based Learning und Blended Learning wurden durch Präsenzvorlesungen, verschiedene E-Learning-Technologien, Workshops und Seminare betont. Das Hauptziel der aktuellen Studie war es, die Wahrnehmung der Studierenden zu Blended und Modified Team Based Learning am CoM der KSU zu erfassen.;-;-;-;https://link.springer.com/article/10.1186/s12909-021-02639-2 5cc9e25a7e6a7eeacba280b343f6046d;de;;;1.3.;;;Kognitive Strategien für das Training mit Technologie In Kürze, siehe Tabelle 1 für eine Auflistung der kognitiven Strategien und technologischen Gegenstücke. Zusammenfassend: Betrachten Sie Folgendes: • Verwenden Sie Informationen, ohne sie unbedingt im Langzeitgedächtnis zu speichern. • Gegebenenfalls kleinere, in sich abgeschlossene Module präsentieren. • Trainieren Sie nach Möglichkeit am Arbeitsplatz. • Schaffen Sie Abwechslung durch unterschiedliche Medienformen und Ansätze. • Interagieren Sie mit dem Auszubildenden, indem Sie wechselseitige Lernumgebungen schaffen.;-;-;-;https://link.springer.com/article/10.1007/BF02818230 e0a997257259cc47c775115fb065f16c;de;;;1.3.;;;HMMs für die Erkennung von Anomalie-Eindringlingen Anomaly Intrusion Detection konzentriert sich auf die Modellierung normaler Verhaltensweisen und die Identifizierung signifikanter Abweichungen, bei denen es sich um neuartige Angriffe handeln könnte. Die bestehenden Techniken in diesem Bereich wurden analysiert, und dann wurde eine effektive Methode zur Erkennung von Anomalien basierend auf HMMs (Hidden Markov Models) vorgeschlagen, um Muster von Unix-Prozessen zu lernen. Sequenzen von Systemaufrufen mit fester Länge wurden aus Programmspuren extrahiert, um Modelle zu trainieren und zu testen. Dabei wurden sowohl zeitliche Ordnungen als auch Parameter von Systemaufrufen berücksichtigt. Das;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30497-5_108 73912a807cb261213d614ca2c03ddaad;de;;;1.3.;;;Ein Serious Game zur Unterstützung der Ausbildung im Risikomanagement durch projektbasiertes Lernen Die steigende Nachfrage nach Software-Engineering-Profis, insbesondere Projektmanagern, und die Popularisierung der Web-Plattform als Katalysator menschlicher Beziehungen heutzutage haben diese Plattform für die Ausbildung dieser Art von Professionals interessant gemacht. Im Einklang damit haben wir die Verbreitung des Spieleinsatzes als attraktives Instrument im Lehr- und Lernprozess beobachtet. Allerdings ist das Projekt eines webbasierten Lernspiels, das alle pädagogischen und technischen Voraussetzungen für die Ausbildung eines Projektmanagers erfüllt, keine triviale Aufgabe. Zwischen den theoretischen Konzepten, die normalerweise in traditionellen Kursen erlernt werden, und den praktischen Aspekten, die die realen Aufgaben erfordern, klafft eine Lücke. Um zu diesem Problem beizutragen, schlägt dieses Papier die Verwendung eines persistenten browserbasierten Spiels vor, das für das Risikomanagement als Komponentenunterstützung im Qualifizierungsprozess von neuen Fachleuten des Projektmanagements gedacht ist. Das Spiel bietet dem Spieler Erfahrung in einem realen Kontext des Projektmanagements, in dem die Unternehmen häufig vor neue Herausforderungen gestellt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31800-9_6 3f90ce780d70178085e6bb64c227ebd5;de;;;1.3.;;;Ein Tutorial zur Typspezialisierung Das Wesen der partiellen Auswertung ist wunderbar einfach: Wir nehmen einfach ein Programm zusammen mit den Werten einiger seiner Eingaben, wir führen die Operationen aus, die nur von bekannten Eingaben abhängen, erstellen ein neues Programm aus den anderen Operationen und erhalten schließlich ein Restprogramm welches das gleiche Problem wie das Original für eine Unterklasse der Fälle löst. Die Arbeit von Neil Jones und seiner Gruppe in den letzten anderthalb Jahrzehnten hat gezeigt, wie mächtig diese einfache Idee wirklich ist.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-47018-2_12 f55cb08d0f2686e1dd882352fc7f668c;de;;;1.3.;;;Ein Tutorial zur Quadtree-Forschung Die Darstellung von Regionen ist ein wichtiges Thema in der Bildverarbeitung, Kartographie und Computergrafik. Derzeit ist eine Vielzahl von Darstellungen im Einsatz. In letzter Zeit gab es großes Interesse an einer hierarchischen Datenstruktur, die als Quadtree bezeichnet wird. Es ist kompakt und spart je nach Beschaffenheit der Region sowohl Platz als auch Zeit und erleichtert auch Operationen wie die Suche. In diesem Abschnitt geben wir einen kurzen Überblick über die Quadtree-Datenstruktur und die damit verbundenen Forschungsergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-51590-3_15 b316578f6100b78158a045a42c5b0a5d;de;;;1.3.;;;Tutorial zu agentenbasierter Modellierung und Simulation Agentenbasierte Modellierung und Simulation (ABMS) ist ein relativ neuer Ansatz zur Modellierung von Systemen, die aus autonomen, interagierenden Agenten bestehen. Die agentenbasierte Modellierung ist eine Möglichkeit, die Dynamik komplexer Systeme und komplexer adaptiver Systeme zu modellieren. Solche Systeme organisieren sich oft selbst und schaffen eine emergente Ordnung. Agentenbasierte Modelle umfassen auch Verhaltensmodelle (menschlich oder anderweitig) und werden verwendet, um die kollektiven Auswirkungen von Agentenverhalten und Interaktionen zu beobachten. Die Entwicklung von Werkzeugen zur Agentenmodellierung, die Verfügbarkeit von Mikrodaten und Fortschritte in der Berechnung haben eine wachsende Zahl von agentenbasierten Anwendungen in einer Vielzahl von Domänen und Disziplinen ermöglicht. Dieser Artikel bietet eine kurze Einführung in ABMS, veranschaulicht die wichtigsten Konzepte und Grundlagen, diskutiert einige neuere Anwendungen in einer Vielzahl von Disziplinen und identifiziert Methoden und Toolkits für die Entwicklung von Agentenmodellen.;-;-;-;https://link.springer.com/article/10.1057/jos.2010.3 b3e36017761b5d42b51dd48855527084;de;;;1.3.;;;Entwurf und Erprobung eines neuen synthetischen praktischen Ausbildungscurriculums in der Hochschulausbildung, das auf realen Ingenieursituationen basiert In der Arbeit wurde ein neues synthetisiertes praktisches Ausbildungscurriculum entworfen, in dem alle Lernaktivitäten der Studenten in realen Ingenieursituationen platziert werden. In der Arbeit werden Curriculumsrahmen, Organisationsformen, Lehrmanagement und die Prüfung der Lehre diskutiert. Es wurde ein Lehrversuch mit 133 Studierenden, die alle der Fachrichtung Wasserbau angehören, in Gruppen von 3 oder 4 Studierenden durchgeführt. Der Lehreffekt hat gezeigt, dass das Modell erfolgreich ist, und die Fähigkeiten der Studierenden, Wissen zu integrieren und flexibel anzuwenden, werden offenbar verbessert. Es wurde auch ein Fragebogen erstellt, in dem mehrere Bedenken erhoben und zusammengefasst wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24022-5_29 f9d8e3be83087c8f3ab75cb7ad84b0bd;de;;;1.3.;;;Spiegelt das perzeptuelle Lernen in der Sprache Veränderungen in der phonetischen Kategorierepräsentation oder Entscheidungsverzerrung wider? Neuere Studien zeigen, dass sich Wahrnehmungsgrenzen zwischen phonetischen Kategorien durch Training ändern (Norris, McQueen & Cutler, 2003). Zum Beispiel setzten Kraljic und Samuel (2005) Hörer in einer lexikalischen Entscheidungsaufgabe mehrdeutigen /s-∫/-Lauten in beiden S-Wort-Kontexten (z.;-;-;-;https://link.springer.com/article/10.3758/PP.70.4.604 3c4e62b2a8a7d0c6775e0f8b6124edb8;de;;;1.3.;;;Eine Sonde zum Lehrmodell der Studiengang-Zertifikats-Kombination für den Studiengang Programmable Logic Controller an Hochschulen Die Kursreihe Speicherprogrammierbare Steuerungen sind spezialisierte Kurse mit starkem Praxisbezug für den Schwerpunkt Automatisierung. Die Kurse verbessern das ursprüngliche Lehrmodell und stärken die wichtige Rolle, die der Praxisunterricht bei der Förderung der beruflichen und technischen Fähigkeiten der Studierenden spielt. Das Papier, das auf den Status Quo der Lehre und bestehende Probleme von Studiengängen in speicherprogrammierbaren Steuerungen an grundständigen Hochschulen abzielt, untersucht ein Lehrmodell der Studiengang-Zertifikats-Kombination und liefert auf der Grundlage der Analyse dieser Probleme Gegenmaßnahmen und Vorschläge.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24022-5_24 f216c5530e1edf40e911c39cb4b44002;de;;;1.3.;;;Berufsbildungsforschung im Studiengang Computeranwendung aus Sicht der Verbindung von mittlerer und höherer Berufsbildung Die Verbindung von mittlerer und höherer Berufsbildung ist für die mittleren Berufsabsolventen sehr wichtig, um ihren Zugang zu weiterführenden Studien zu erweitern und die Attraktivität der Berufsbildung zu stärken. Die Dissertation erläutert detailliert den Verbindungsmodus zwischen mittlerer und höherer Berufsbildung in westlichen Industrieländern und -regionen und die aktuelle Verbindungssituation zwischen mittlerer und höherer beruflicher häuslicher Bildung, sie analysiert die Probleme, die bei der Verbindung von mittlerer und höherer Bildung in den Hauptfächern Computeranwendungen bestehen , erforscht die Strategien, erforscht und baut vielfältige Formen der Verbindung von mittlerer und höherer Berufsbildung unter Nutzung ausländischer Erfahrungen in der Verbindung mittlerer und höherer Berufsbildung, die für unser Land von großer Bedeutung ist, um das Berufsbildungssystem zu verbessern und sich an die lebenslange Entwicklungstendenz der beruflichen Bildung.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_205 1dc940b3e547c0982f8fb2b752344f2b;de;;;1.3.;;;Tutorial zur Farbwissenschaft Die Prinzipien der Tristimulus-Kolorimetrie werden in Form eines Tutorials vorgestellt. Die klassischen Farbabstimmungsexperimente werden mit Betonung auf die Annahmen, die in diesen Tests implizit sind und auf die Maßeinheiten, die verwendet werden sollten, um die Ergebnisse zu erfassen, beschrieben. Die Transformation zu alternativen Primärfarbenmengen wird abgeleitet und die Geometrie der resultierenden Farbräume dargestellt. Eine kommentierte Bibliographie relevanter Literatur ist ebenfalls vorhanden.;-;-;-;https://link.springer.com/article/10.1007/BF02020428 9c4e011b089837f9008b373984a12595;de;;;1.3.;;;Eine Tutorial-Einführung in die Kreuzentropie-Methode Ziel dieses Kapitels ist es, eine sanfte und in sich geschlossene Einführung in die Kreuzentropie(CE)-Methode zu geben. Wir verweisen auf Abschnitt 1.1 für zusätzliche Hintergrundinformationen zur CE-Methode, einschließlich vieler Referenzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-4321-0_2 46bd55fd6621f35bd10597fdf3e42600;de;;;1.3.;;;Über Funktionen und Typen: Ein Tutorial Die Einführung einer allgemeinen Funktionsdefinition war der Schlüssel zu Freges Formalisierung der Logik. Die Selbstanwendung von Funktionen stand 1902 im Mittelpunkt von Russells Paradox. Dies führte dazu, dass Russell die Typentheorie einführte, um die Anwendung von Funktionen zu kontrollieren und damit das Paradox zu vermeiden. Seitdem wurden verschiedene Typensysteme eingeführt, die jeweils unterschiedliche funktionale Leistungen ermöglichen. Acht dieser einflussreichen Systeme sind im sogenannten Barendregt-Würfel vereint. Diese acht Systeme verwenden unterschiedliche Binder für Funktionen und Typen und erlauben nicht, dass Typen das gleiche Instanziierungsrecht wie Funktionen haben. De Bruijn hat in seinem Automath diese Unterscheidungen nicht getroffen. In diesem Tutorial diskutieren wir das moderne sowie de Bruijns Funktions- und Typengerüst und untersuchen den Würfel in verschiedenen Rahmenwerken.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36137-5_4 1e8c6c3f707e2784e7979dee3a6c7242;de;;;1.3.;;;Die Verallgemeinerung wissenschaftlicher und didaktischer Materialien zur Nanoelektronik Fasst die wissenschaftlichen und didaktischen Materialien zur Nanoelektronik, wie sie sich in Monographien und Lehrbüchern auf der Grundlage des Urheberrechts widerspiegeln, die wichtigsten Forschungsergebnisse und Zusammenstellung der wichtigsten Studien führender Unternehmen und Forschungseinrichtungen der entwickelten Welt zusammen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-287-736-9_55 d466ef1b64900222d8e2d34c85e41981;de;;;1.3.;;;Überlagertes Training zur Kanalschätzung von OFDM-modulierten Amplify-and-Forward-Relay-Netzwerken Dieser Artikel befasst sich mit dem Problem der Kanalschätzung für kooperative Amplify-and-Forward-(AF)-Relay-Netzwerke mit orthogonaler Frequenzmultiplex-(OFDM)-Modulation. Der Algorithmus basiert sowohl auf der Methode der kleinsten Quadrate (LS) als auch der Methode des minimalen mittleren quadratischen Fehlers (MMSE) mit einer überlagerten Trainingsstrategie. Insbesondere überlagern sowohl die Quelle als auch die Weiterleitung ihr eigenes Trainingssignal dem Datenstrom vor der Übertragung, um die separaten Kanalzustandsinformationen der Quelle-zu-Weiterleitungs-Verbindung und der Weiterleitungs-zu-Ziel-Verbindung zu schätzen. Wir präsentieren auch die Leistungsanalyse und leiten die approximierten Ausdrücke in geschlossener Form für den MSE der getrennten Kanalschätzung von Quelle-zu-Relais-Verbindung bzw. Verstärkungsfaktor. Um die Leistung der Kanalschätzung weiter zu verbessern, verwenden wir einen gewichteten Durchschnittsprozess, um die Schätzungsleistung über mehrere OFDM-Blöcke zu verbessern, aus denen wir den optimalen Tracking-Faktor berechnen. Simulationsergebnisse werden bereitgestellt, um das vorgeschlagene Schema zu bestätigen.;-;-;-;https://link.springer.com/article/10.1007/s11432-012-4714-4 c54dfaf41932f9cd7074a48c0e44f609;de;;;1.3.;;;Ein Tutorial zu nicht-parametrischen bilinearen Zeit-Frequenz-Signaldarstellungen Instationäre Signale haben einen zeitabhängigen Spektralinhalt. Dies steht im Gegensatz zu stationären Signalen, deren Energiespektrum ihren spektralen Inhalt charakterisiert und das zeitunabhängig ist. Daher erfordern instationäre Signale gemeinsame Zeit-Frequenz-Darstellungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-2620-2_2 2950e95a4b00473c6bdd54de63c191fb;de;;;1.3.;;;Ultrastrukturelle Untersuchung von Aggregaten im Rückenmark transgener Mäuse mit einem G93A mutierten SOD1-Gen Die ultrastrukturellen Merkmale von SOD1-positiven Aggregaten wurden bestimmt, um zu klären, ob diese Aggregate mit der Pathogenese von SOD1-Mutantenmäusen verbunden sind. Wir untersuchten das Rückenmark von transgenen Mäusen, die ein G93A-mutiertes humanes SOD1-Gen mit weniger Kopien exprimieren (Genkopie 10). Im frühen präsymptomatischen Stadium (Alter 24 Wochen) wurden gelegentlich SOD1- und Ubiquitin-positive granuläre, lineare oder runde Ablagerungen im Neuropil der Vorderhörner gefunden. Ultrastrukturell wurden gelegentlich kleine filamentöse Aggregate in den neuronalen Prozessen einschließlich der Axone in den Vorderhörnern beobachtet. Im späten präsymptomatischen Stadium (28 Wochen) wurden häufig SOD1- und Ubiquitin-positive Ablagerungen und Lewy-Körper-ähnliche Einschlüsse (LIs) in den neuronalen Prozessen einschließlich strangförmig geschwollener Axone und in einigen verbleibenden Vorderhornneuronen nachgewiesen. Ultrastrukturell waren größere filamentöse Aggregate häufig, die in den neuronalen Prozessen der Vorderhörner einschließlich der proximalen Axone vorherrschten, aber selten in den Somata und Dendriten. Die Aggregate bestanden normalerweise aus verwobenen Zwischenfilamenten (ca. 10–15 nm Durchmesser) und enthielten häufig elektronendichte Kerne im Zentrum, die LIs ähneln. Gelegentlich bestanden die Aggregate hauptsächlich aus körniger, amorpher oder vesikulärer Substanz und zeigten weniger filamentöse Strukturen. In den symptomatischen Stadien (32 und 35 SSW) wurden häufig LIs innerhalb der neuronalen Prozesse in den Vorderhörnern, insbesondere in den strangförmig geschwollenen Axonen, nachgewiesen. Über den gesamten Säulen der weißen Substanz und in der grauen Substanz des Vorder- und Hinterhorns wurden viel mehr auffällige SOD1- und Ubiquitin-positive Ablagerungen beobachtet als im vorherigen Stadium. Ultrastrukturell enthielten Aggregate häufig elektronendichte Kerne und wurden häufig in schnurartigen geschwollenen Axonen beobachtet, die aus akkumulierten Neurofilamenten bestehen. Ein hohes Maß an humaner SOD1- und Ubiquitin-Immungold-Markierung war in kleinen bis großen Aggregaten selbst in den präsymptomatischen Stadien vorhanden, und die Aggregate nahmen mit der Zeit in Größe und Häufigkeit zu. Kompakt gepackte Filamente und elektronendichte Kerne von Aggregaten zeigten eine deutlichere Markierung von SOD1- und Ubiquitin-Immungold als in locker gepackten Filamenten. Diese Ergebnisse legen nahe, dass die Akkumulation von SOD1-positiven Aggregaten in den neuronalen Prozessen, vor allem in den Axonen, eine wichtige Determinante für die Neurotoxizität und die Pathogenese dieses Tiermodells darstellt, die wahrscheinlich zu einer Beeinträchtigung des axonalen Transports durch die Sequestrierung von mutiertem SOD1-Protein in Aggregaten führt , oder teilweise durch physikalisches Blockieren des axonalen Transports.;-;-;-;https://link.springer.com/article/10.1007/s00401-004-0939-7 d6d01dc3c8b33feeb82df1ac6583b400;de;;;1.3.;;;Erhöhte Hippocampus-Expression der Divalent Metal Transporter 1 (DMT1)-mRNA-Varianten 1B und +IRE und DMT1-Protein nach NMDA-Rezeptor-Stimulation oder räumlichem Gedächtnistraining Eisen ist essentiell für wichtige neuronale Funktionen, ist aber im Überschuss auch hochgiftig. Neuronen nehmen Eisen durch Transferrinrezeptor-vermittelte Endozytose und über den divalenten Metalltransporter 1 (DMT1) auf. Die N-Terminus (1A, 1B) und C-Terminus (+IRE, -IRE) Spleißvarianten von DMT1 stammen von vier Proteinisoformen, die alle Eisen an Zellen liefern. Diverse physiologische oder pathologische Zustände induzieren eine unterschiedliche Expression von DMT1-Varianten, die vom Zelltyp abhängig sind. Daher wird es relevant, festzustellen, ob die Aktivierung neuronaler Plastizitätsprozesse, die funktionelle;-;-;-;https://link.springer.com/article/10.1007/s12640-009-9096-z d2c06c4dc3b2f933bfe23d32654b03d5;de;;;1.3.;;;Integrieren der Wahrnehmung in Um Realismus in der Computergrafik zu erreichen, sind traditionell immer komplexere Algorithmen sowie größere Computerleistung und Hardwareressourcen erforderlich. Die in letzter Zeit zunehmende Integration der Wahrnehmungsforschung in die Computergrafik bietet jedoch eine wirtschaftlichere Lösung. Psychophysische Experimente werden nun durchgeführt, um Bereiche herauszufinden, die manipuliert werden können, um komplexe Berechnungen in „Berechnungsschnitte“ umzuwandeln. Dieser wahrnehmungsbasierte Ansatz bietet einen besseren Ressourcenverbrauch für Elemente, die für den Menschen am wichtigsten sind, sodass die Ausgabe weiterhin als visuell korrekt wahrgenommen wird. Dieses Papier untersucht die Möglichkeit, Wahrnehmungskonzepte bei der Entwicklung von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25327-0_8 162ec7d5be9bfa3fea6802fd82187779;de;;;1.3.;;;Mitgelieferte visuelle und bildliche Anweisungen für den feldunabhängigen und feldabhängigen Kinderrückruf Hilft es Kindern, Bilder zu zeigen, die eine Geschichte darstellen, sich an den Inhalt der Geschichte zu erinnern? Ist es effektiver, sie mentale Bilder der Geschichte bilden zu lassen? Ist es besser, die Bilder vor oder nach dem Hören der Geschichte zu zeigen oder Anweisungen zu geben, mentale Bilder zu bilden? Reagieren feldunabhängige und feldabhängige Kinder unterschiedlich? Diese Studie mit Sechstklässlern ergab, dass die Bildgebung die effektivste Unterrichtsmethode ist, unabhängig davon, ob die Anweisungen zum Bilden vor oder nach der Hörphase kamen.;-;-;-;https://link.springer.com/article/10.1007/BF02768724 718bc99c5bfbdf271aac55f131d132b6;de;;;1.3.;;;Über die Reform des Ausbildungsmodells basierend auf dem Wettbewerb für elektronisches Design Aufgabe der Hochschulbildung ist die Ausbildung hochrangiger Fachtalente mit Innovationsgeist und Praxisfähigkeit, die Entwicklung von Wissenschaft, Technik und Kultur, die Förderung des sozialistischen Modernisierungswillens. Praxis-, Lehr- und Innovationskapazitätsaufbau ist ein gemeinsamer Schwerpunkt in den letzten Jahren, Hochschulen, der National Undergraduate Electronic Design Contest zur Ausbildung und Verbesserung ihrer Gesamtqualität hat eine wichtige Rolle für die praktischen und kreativen Fähigkeiten der Studierenden gespielt. Allerdings stießen auch die Hochschulen und Universitäten im Prozess der Personalausbildung auf einige Schwierigkeiten, insbesondere die Berufsstudenten der elektronischen Informations- und Elektrotechnik nach dem Abschluss, die innovative, praktische Fähigkeit ist nicht sehr zufriedenstellend.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-3872-4_204 a9841ab479233459dbf02b6d9b7344a0;de;;;1.3.;;;Ein Tutorial zum anwendungsorientierten optimalen Experimentdesign In diesem Kapitel wird ein Tutorial zum Entwurf von Eingangssignalen zur Systemidentifikation vorgestellt. Das Kapitel befasst sich mit den Details des grundlegenden optimalen Experimentdesigns, Berechnungsfragen, der Implementierung und den Bedingungen, die zu einem optimalen Eingangssignal führen. Es wird auch angesprochen, wie sich die beiden grundlegenden Probleme im Zusammenhang mit der Systemidentifikation, der Modellstrukturidentifikation und der Modellvalidierung auf das Experimentdesign beziehen. Während des gesamten Kapitels wird ein einfaches FIR-Beispiel verwendet, um die vorgestellten Konzepte zu beleuchten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-2221-0_9 1d8dc672d2fb5f98d84e71be0621fdde;de;;;1.3.;;;Hochwertige Lernumgebungen erfordern hochwertige Evaluierungsinstrumente An der Wirtschaftswissenschaftlichen Fakultät Maastricht basiert der Bildungsansatz auf problembasiertem Lernen (PBL). Zehn bis zwölf Studenten diskutieren in einer Gruppe unter Anleitung eines Tutors Probleme, die von den Mitarbeitern entwickelt wurden. In diesem Studienjahr werden etwa 28 Gruppen aus allen Wirtschaftsstudenten des ersten Jahres gebildet. Die Tutorgruppe trifft sich zweimal pro Woche zu zweistündigen Sitzungen. In der ersten Stunde berichten die Studierenden über zuvor besprochene Probleme und in der zweiten Stunde diskutieren sie neue Probleme und generieren neue Lernziele.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-5268-6_13 5a90e9d00c2118061c19006db7edd639;de;;;1.3.;;;Training für Soc-Designer: Lösungen von heute für die Probleme von morgen? Die zunehmende Komplexität von System-on-Chip (SoC)-Designs, schnellere Entwicklungszyklen und zunehmende Leistungsbeschränkungen sind herausfordernde Faktoren für Designingenieure. Um sich diesen Herausforderungen zu stellen, ist eine kontinuierliche Schulung in fortgeschrittenen Konstruktionstechniken erforderlich. In diesem Beitrag geht es um die Auswahl von Schulungsthemen aus der Sicht des Anbieters. Ein Kurs zur Low-Power-Optimierung für das integrierte Systemdesign wird als Beispiel genommen, wie umstrittene industrielle Bedarfe an Schulungen zu weiterführenden Kursthemen abgebildet werden können. Die Industrie muss die Probleme von heute lösen und gleichzeitig mit begrenztem Budget in Lösungen für die Probleme von morgen investieren. Diese umstrittenen Anforderungen werden heute nicht ausreichend gelöst.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-2651-5_16 3dfa66c5f82d76650b48aa1ba51f12c0;de;;;1.3.;;;Ein Modell der Ausbildung von Übersetzern/Dolmetschern auf akademischem Niveau in Polen im Lichte der durchgeführten Forschungen und der neuesten gesetzlichen Bestimmungen Regulation Das Ziel meines Kapitels ist es, einen Entwurf eines Modells zur Ausbildung zukünftiger Übersetzer/Dolmetscher auf akademischer Ebene in Polen vorzuschlagen und zur Diskussion vorzulegen. Der genannte Modellentwurf basiert auf den Ergebnissen der in den Jahren 2006–2008 durchgeführten Forschung, die im Wesentlichen eine Befragung einer Gruppe von Studierenden sowie Studierenden der Staatlichen Höheren Berufsschule ( PWSZ), die gebeten wurden, ihre Meinung zu den im Studium angebotenen Curricula und Lehrveranstaltungen abzugeben und deren Nutzen für ihre spätere berufliche Karriere zu beurteilen. Eine weitere Umfrage richtete sich an professionelle Englischübersetzer, die gebeten wurden, ihre eigenen Meinungen und Vorschläge, die ebenfalls im Entwurf enthalten sind, darzulegen, was getan werden kann, um die universitäre Ausbildung um neue praktische und theoretische Inhalte zu bereichern, die für unsere Absolventen erforderlich sind, um als erste behandelt zu werden -Klasse Spezialisten für Übersetzen und Dolmetschen. Das Modell der Ausbildung angehender Übersetzer/Dolmetscher umfasst oder berücksichtigt nicht die Ausbildung für Studierende der Angewandten Linguistik (obwohl einige ihrer Konzepte verwendet werden), sondern konzentriert sich auf die Studierenden der Fakultäten für Englisch sowie der staatlichen Hochschulen. Das Modell gliedert die Ausbildungszeit in zwei Teile, die für Studierende des 1. Jahrgangs (Bachelor) sowie des 2. Jahrgangs (Master) angeboten werden und konzentriert sich auf die wichtigsten Aspekte des Curriculums. Es basiert auch auf den Richtlinien, die in den vom Bildungsministerium erstellten Bildungsstandards enthalten sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-00161-6_20 a30ab385de76394c6927f1f7072ba12a;de;;;1.3.;;;Evolutionäre Ansätze für das Partitions-/Zeitplanproblem Neuere Forschungen haben eine Vielzahl von hauptsächlich auf evolutionären Algorithmen (EA) basierenden Methoden zum Umgang mit Prüfungs- und Stundenplanproblemen hervorgebracht, mit denen Bildungseinrichtungen ständig konfrontiert sind Ein Problem, das in der Literatur zur Stundenplanforschung jedoch noch nicht angesprochen wurde, ist die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-6492-1_61 a416b4ed5f1359fecf440703e8177aba;de;;;1.3.;;;Verbesserung des Problemlösens von Schülern in narrativzentrierten Lernumgebungen: ein modulares Verstärkungslern-Framework Narrative-zentrierte Lernumgebungen umfassen eine Klasse von spielbasierten Lernumgebungen, die Problemlösungen in interaktive Geschichten einbetten. Eine zentrale Herausforderung des narrativ-zentrierten Lernens ist die dynamische Anpassung von Story-Events, um das Lernen der Schüler zu verbessern. In diesem Beitrag untersuchen wir die Auswirkungen eines datengesteuerten Tutoriumsplaners auf die Lernprozesse von Schülern in einer narrativ-zentrierten Lernumgebung, C;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19773-9_42 ad95d0a81a157be44a80dcb55452995e;de;;;1.3.;;;Bitcoin-Forensik: Ein Tutorial In den letzten achtzehn Monaten hat die digitale Kryptowährung Bitcoin ein deutliches Wachstum in Bezug auf Nutzung und Akzeptanz erfahren. Es wurde auch vorhergesagt, dass dieses Wachstum, wenn es anhält, zu einem immer nützlicheren Instrument für verschiedene illegale Aktivitäten werden wird. Vor diesem Hintergrund ist davon auszugehen, dass Studierende und Berufstätige der Digitalen Forensik Kenntnisse in der Materie benötigen. Neue Technologien stellen aufgrund ihrer technischen und rechtlichen Herausforderungen oft eine große Herausforderung für den Bereich der digitalen Forensik dar. Dieses Papier bietet eine Reihe von Tutorials für Bitcoin, die es Lernenden mit beiden Hintergründen ermöglichen, zu lernen, wie es funktioniert und wie es sich auf ihre Arbeitspraxis auswirken kann. Anfang dieses Jahres wurden sie an eine Kohorte von Studenten im dritten Jahr abgegeben. Nach Kenntnis des Autors ist dies die erste Integration des Themas in ein digitales Forensik-Programm durch einen Hochschulanbieter.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-51064-4_2 ffbdf52d861e2b241ac713a9cee99fc5;de;;;1.3.;;;Tutorial Einführung in das Schema Scheme ist eine ziemlich einfache, erweiterbare Sprache. Scheme ist erweiterbar, da von Ihnen definierte Funktionen im Wesentlichen nicht von integrierten Funktionen zu unterscheiden sind. Wie wir in späteren Kapiteln sehen werden, besteht ein großer Teil des Schreibens eines Anwendungsprogramms bei einem guten Design darin, eine Bibliothek wiederverwendbarer Komponenten zu entwickeln, die die Scheme-Sprache für Ihre Programmierprojekte effektiv erweitern.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-2394-8_2 9466fbc73b9cab71dde372f70f4155fa;de;;;1.3.;;;E-Learning-Empfehlungssystem für Lehrkräfte mit Meinungsforschung In den letzten Jahren hat sich E-Learning zu einer der besseren Alternativen des Präsenzunterrichts entwickelt. E-Learning hat die geografischen Grenzen überschritten und steht nun jedem Lernenden zur Verfügung, der das Internet nutzt. Aber das bloße Vorhandensein der E-Learning-Websites stellt nicht sicher, dass alle Inhalte für die Lernenden sehr effektiv sind. Im Allgemeinen muss der Lernende zum Erlernen eines Fachs viele Websites für verschiedene Themen durchsuchen, da keine einzelne Website den besten Inhalt zum Thema an einem einzigen Ort bietet. Daher müssen wir die Bewertungen der Lernenden zu den Inhalten der Website analysieren, um die besten Inhalte an einem einzigen Ort bereitzustellen. In diesem Papier haben wir ein neues E-Learning-Recommender-System namens A . vorgeschlagen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46578-3_122 cbc70a22a8fff2e436cbd9eb4c6cc32a;de;;;1.3.;;;Einführung einer iPad-Innovation in Buchhaltungs-Tutorials Diese Studie berichtet über die zweite Phase eines Versuchs, Tutorials in einem Einführungsfach in die Buchhaltung in interaktivere, schülerzentrierte Lernerfahrungen umzuwandeln, die ein iPad in Kombination mit Freigabe- und Anmerkungstechnologie verwenden. Die Technologie ermöglicht es, die Hausaufgaben der Schüler zu fotografieren, der Klasse sofort über einen Datenprojektor zu zeigen und vom Tutor mit dem iPad live zu kommentieren, mit Schülereingaben. Die Innovation greift Forderungen aus dem Berufsstand des Rechnungswesens nach Bildungsansätzen auf, die Technologie auf phantasievolle Weise einsetzen, um Schüler einzubeziehen und sich vom didaktischen Paradigma zu lösen, das in der Vergangenheit so viel in der Buchhaltungsausbildung dominiert hat. Der Ansatz hat den Vorteil, dass pro Klasse nur ein iPad benötigt wird und wird in Verbindung mit kostenloser Software genutzt: Er ist somit kostengünstig und auf die große Zahl der im Fach eingeschriebenen Studierenden skalierbar. Die Studie, über die in diesem Artikel berichtet wird, umfasste zwei Kurse, die mit iPads durchgeführt wurden, und zwei traditionelle Kurse ohne. Die Evaluation umfasste Beobachtungen der vier Klassen und eine Befragung der Studierenden zu ihren Erfahrungen in den Tutorien. Die Ergebnisse zeigten, dass der Einsatz der Technologie den Unterricht noch nicht in interaktive, schülerzentrierte Veranstaltungen verwandelte: Der Unterrichtsstil des Tutors bestimmte maßgeblich, wie die iPads genutzt wurden und wie viel Interaktion stattfand. Die Schülerinnen und Schüler im Unterricht mit iPad zeigten sich jedoch überwiegend begeistert von deren Nutzung, auch wenn die Umfrageergebnisse in der Regel keine statistisch signifikanten Unterschiede zwischen den Klassen mit und ohne iPad aufzeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25684-9_16 9665a92a14c953502ee2f03c499673dc;de;;;1.3.;;;Webbasierte Tutorials für den Elektronikunterricht Bei einer Vielzahl von Schülerfähigkeiten in einer Klasse ist es schwierig, alle Schüler effektiv zu unterrichten und zu stimulieren. Eine Reihe von webbasierten Tutorials wurde entwickelt, um schwächeren Schülern zu helfen und stärkeren Schülern zu helfen. Der gewählte Ansatz wird mit einem Tutorial veranschaulicht, das die Beziehungen zwischen einer Wahrheitstabelle, einer Karnaugh-Map, einer Logikschaltung und booleschen Algebra-Darstellungen einer Logikfunktion zeigt. Die Nutzung des Tutoriums hat insbesondere bei schwächeren Schülern zu erheblichen Vorteilen geführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-9506-3_35 e8e521505d3726310966c251f50c1b59;de;;;1.3.;;;Entwicklung eines Lernprogrammsystems zum Lesen von Quellcode und Analysieren seiner Lernprotokolldaten mit Mehrfachklassifikationsanalyse Um Programmieranfänger, die das Programmieren als schwierig empfinden, effizient zu unterstützen, wäre es notwendig, die Ursache für die Verhinderung des Programmierverständnisses zu klären und eine neue Unterrichtsmethode zu entwickeln, die ihrem Verständnis entspricht. Ziel dieser Arbeit ist es, ein Lernunterstützungssystem zu entwickeln, das den Programmierunterricht durch das Lesen des Quellcodes erleichtert, das auch zum Selbststudium und zur Miniprüfung zur Verfügung steht. Darüber hinaus soll in dieser Arbeit die Wissenseinheit (Wissensmodul) entdeckt werden, die Programmieranfängern das Verständnis erschwert. Das entwickelte System kann automatisch einen Quellcode der Programmiersprache C generieren, in dem keine besondere Bedeutung besteht, da die Quellcodes als Lernmaterialien zufällig generiert werden. Das entwickelte System wurde in einem Programmierkurs für Anfänger verwendet. Diese Arbeit erhielt das Antwortprotokoll der Studenten, nachdem die Studenten ein Semester des Unterrichts abgeschlossen hatten, und analysierte die Daten. Aus dem Analyseergebnis wurde die Beschreibung geklärt, die das Lesen des Programms für einen Anfänger erschweren kann.;-;-;-;https://link.springer.com/article/10.1007/s10015-017-0357-2 a576fc5b9f6bddc9f51911e8059ce69d;de;;;1.3.;;;"Technologische Vermittlungen im Bildungsevent der Informations- und Wissensgesellschaft: Ausbildung von Ingenieuren Der vorliegende Beitrag versucht, das Verständnis zu sozialisieren, das durch die Untersuchung der Prozesse der Aneignung und Nutzung von Informations- und Kommunikationstechnologien im ingenieurwissenschaftlichen Bildungsbereich an einer privaten Universität, die in Lateinamerika Präsenzunterricht anbietet, hervorgebracht wird. Diese Studie wird in einem komplexen Kontext namens ""Informationsgesellschaft und Wissen"" durchgeführt, der verwandte Bereiche (so genannte Dimensionen) wie Bildung, Kommunikation, Informationstechnologien und Subjektivität verwebt. Der Artikel präsentiert Ergebnisse der Vorstellungen der Informationsgesellschaft, die die Akteure (Studierende und Lehrende einer Technischen Fakultät) von der Aneignung, Anerkennung und Messung der Informations- und Kommunikationstechnologien in ihren Bildungsveranstaltungen haben. Die analysierten Ergebnisse entsprechen den Beziehungen zwischen Informationsgesellschaft, Wissen und Bildung.";-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-50880-1_5 e9119291d81ce27a42907142e3200fb2;de;;;1.3.;;;Diskutieren Sie die praktische Personalausbildung der Bildungstechnologie Die praktische Begabungsausbildung der pädagogischen Technik richtet sich nach den Anforderungen der praktischen Personalausbildung. Es wird mit der Spezialität der Bildungstechnologie selbst kombiniert, wobei eine Vielzahl von Talenttrainingsmodi und eine angemessene Entwicklung eines professionellen Lehrprogramms verwendet werden. Darüber hinaus enthält es Ausbildungsziele, Ausbildungsgrundsätze, Grundvoraussetzungen und eine detaillierte Beschreibung zur Ausbildung des Fachpersonals.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29084-8_87 c75e0a70452c8d10a0d2a685a3231140;de;;;1.3.;;;Ein kurzes Tutorial zur Verfolgung und Erkennung menschlicher Bewegungen mit Microsoft Kinect Dieses Dokument bietet ein kurzes Tutorial zur Microsoft Kinect-Technologie und zum Stand der Forschung zur Verfolgung und Erkennung menschlicher Bewegungen mit Microsoft Kinect. Eine Voraussetzung für die menschliche Bewegungserkennung ist die Merkmalsextraktion. Es gibt zwei Arten von Methoden zur Merkmalsextraktion: skelettgelenkbasiert und tiefen-/farbbildbasiert. Bei gegebenem Satz von Merkmalsvektoren könnte eine Bewegung durch maschinelles Lernen, direkten Vergleich oder regelbasierte Verfahren erkannt werden. Wir skizzieren auch zukünftige Forschungsrichtungen zur Kinect-Technologie.;-;-;-;https://link.springer.com/article/10.1007/s11432-016-5604-y 19972526aafac46469728cc50753659d;de;;;1.1.;;;Informationsverarbeitung und Argumentation mit empirisch falschen Prämissen: Interferenz, Arbeitsgedächtnis und Verarbeitungsgeschwindigkeit In dieser Studie haben wir die Beiträge individueller Unterschiede in der Störanfälligkeit und im Arbeitsgedächtnis zum logischen Denken mit empirisch falschen (d. h. nicht unbedingt wahr) Prämissen untersucht. Insgesamt 97 Universitätsstudenten erhielten eine Satzvervollständigungsaufgabe, für die eine Teilmenge von Stimuli entwickelt wurde, um eine unangemessene semantische Aktivierung zu erzeugen, die die korrekte Reaktion störte, ein Maß für die Arbeitsgedächtniskapazität und eine Reihe von logischen Denkaufgaben mit Prämissen, die nicht immer wahr. Die Ergebnisse zeigen, dass die Störanfälligkeit, gemessen an der Fehlerrate bei der relevanten Teilmenge der Satzvervollständigungsaufgabe, und das Arbeitsgedächtnis unabhängig voneinander für die Variation der Denkleistung verantwortlich sind. Die Teilnehmer, die in dem relevanten Teil der Satzergänzungsaufgabe mehr Fehler machten, zeigten auch mehr empirische Eingriffe in die deduktive Argumentationsaufgabe, selbst wenn die Auswirkungen des Arbeitsgedächtnisses verkleinert wurden. Die Arbeitsgedächtniskapazität war klarer mit Prozessen verbunden, die an der Erzeugung von Unsicherheitsreaktionen auf Schlussfolgerungen beteiligt waren, für die es keine sicheren Schlussfolgerungen gab. Ein Vergleich der Ergebnisse dieser Studie mit Studien zum Denken von Kindern legt nahe, dass Erwachsene zu selektiveren exekutiven Prozessen fähig sind als Kinder. Eine Analyse der Latenzzeiten bei der Satzvervollständigungsaufgabe zeigte, dass Teilnehmer mit hohem Arbeitsgedächtnis, die bei der Satzergänzungsaufgabe keine Fehler machten, eine Strategie verwendeten, die eine langsamere Verarbeitungsgeschwindigkeit beinhaltete, verglichen mit Teilnehmern mit ähnlichem Arbeitsgedächtnis, die Fehler machten. Im Gegensatz dazu hatten Teilnehmer mit niedrigem Arbeitsgedächtnis, die keine Fehler bei der Satzergänzungsaufgabe machten, relativ kürzere Reaktionszeiten als vergleichbare Teilnehmer, die Fehler machten.;-;-;-;https://link.springer.com/article/10.3758/BF03195850 44fb285271d896515e9023bee32ef843;de;;;1.1.;;;Bedingte Informationsverarbeitung: Bedingte und vorausschauende Klassifizierung Es wird ein experimentelles Paradigma der kontingenten Klassifikation eingeführt, bei dem Reize in einer Klassifikationsaufgabe durch das Hinzufügen einer weiteren Dimension gereizt werden, sodass die Klassifikation auf die Unterscheidung von nur zwei Reizen reduziert wird. Die Eventualitäten sind so angeordnet, dass die Cuing-Dimension keine Antwortinformationen liefert. Äquivalente Kontingenzen können arrangiert werden, indem man vor dem Stimulus vorausschaut. Vier Experimente untersuchten dieses Paradigma mit einer diskreten Reaktionsaufgabe unter Verwendung der Stimuli C, O, L und T. In Experiment 1 ohne zusätzliche Cuing-Dimension wurde festgestellt, dass Klassifikation und Diskriminierung basierend auf der Krümmungs-Gerade-Unterscheidung einfacher sind als diese deren Verwendung nicht gestattet. In Experiment 2 wurde Farbe als Hinweisdimension sowohl bei einfachen als auch bei schwierigen Klassifizierungsaufgaben hinzugefügt, wobei im letzteren Fall Kontingenzen verwendet wurden, die leichte oder harte Unterscheidungen erzeugten. Bei keiner der bedingten Einstufungen gab es eine Leistungsverbesserung. In Experiment 3 wurde die seitliche Position als Hinweisdimension bei einer harten Klassifikationsaufgabe verwendet, und in diesem Fall verbesserte sich die Leistung mit einer Kontingenz, die leichte Unterscheidungen erzeugte, aber die Leistung war nicht annähernd so gut wie bei den äquivalenten Unterscheidungsaufgaben allein. In Experiment 4 wurde eine Präcue von 500 ms mit einer harten Klassifikationsaufgabe verwendet, und die Leistung verbesserte sich fast auf das Niveau der äquivalenten Aufgaben, sowohl für leichte als auch für harte Unterscheidungen. Es wird vorgeschlagen, dass die Verwendung oder Nichtverwendung der kontingenten Beziehungen am besten durch die Verwendung optionaler Aufmerksamkeitszuweisung erklärt wird.;-;-;-;https://link.springer.com/article/10.3758/BF03207151 3969a1864edfb6edad13ffcffca3fd9d;de;;;1.1.;;;Informationsverarbeitung in neuronalen Populationen des menschlichen Gehirns beim Lernen von verbalen Signalen Die Anwendung der stereotaktischen Methode zur Diagnose und Therapie verschiedener Hirnerkrankungen eröffnete neue Wege in der Erforschung der Mechanismen der menschlichen geistigen Aktivität. Der komplexe Ansatz zur Untersuchung dieser Probleme wurde entwickelt, einschließlich der Aufzeichnung und Verarbeitung verschiedener physiologischer Daten, z. EEG, Subkortikogramm, langsame Potentiale, pO;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-3908-3_33 d6ba6b88b54e7fc8e2fbd668d656fb7d;de;;;1.1.;;;Universelle Informationsverarbeitung In einer praktischen Umgebung ist es nicht einfach, den Kanal oder die Informationsquelle perfekt zu identifizieren. Um dieses Problem in der klassischen Informationstheorie zu vermeiden, können wir universellen Code verwenden, der unabhängig vom Kanal oder der Informationsquelle funktioniert. Insbesondere Csiszár und Körner haben die Typenmethode für universellen Code etabliert, wobei die Universalität die Unabhängigkeit des Protokolls vom Kanal oder der Informationsquelle ist. Die Schur-Dualität ist die gemeinsame Darstellung der speziellen unitären Gruppe und der Permutationsgruppe und kann als Quantenanalogon der Typenmethode angesehen werden. Dieses Kapitel erklärt zunächst die Methode der Typen und die Schur-Dualität, um zu klären, wie die Schur-Dualität als Quantenanalog der Methode der Typen funktioniert. Dann gehen wir zu universellen Codes oder Protokollen in einzelnen Themen über, Schätzung der Dichtematrix, Hypothesentest des Quantenzustands, Verschränkungskonzentration, Quantendatenkompression und klassischer Quantenkanal usw. Wenn uns die Universalität nicht interessiert, können wir diskutieren diese Themen ohne Anwendung der Darstellungstheorie. Um jedoch Protokolle zu konstruieren, um die Universalität zu erreichen, müssen wir die Schur-Dualitätstheorie anwenden, da sie ohne die Verwendung der Schur-Dualität nicht konstruiert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-45241-8_6 5336f8bfca29ff38fa563ef9c9a581c8;de;;;1.1.;;;Von Neuronen zu Netzwerken: Kritische Verlangsamung regelt die Informationsverarbeitung in allen Wachsamkeitszuständen Die allgemeine Idee, dass die Rechenfähigkeiten bei oder in der Nähe kritischer Zustände im Zusammenhang mit Phasenübergängen oder Verzweigungen maximiert werden, führte zu der Hypothese, dass neuronale Systeme im Gehirn in oder nahe einem kritischen Zustand arbeiten. Bei Phasenübergängen wird erwartet, dass sich ein System langsamer von kleinen Störungen erholt, ein Phänomen, das als kritische Verlangsamung bezeichnet wird. In diesem Kapitel werden wir neuere Studien überprüfen und diskutieren, die eine kritische Verlangsamung als ein durchdringendes Merkmal der Funktion des neuronalen Systems und der Informationsverarbeitung über verschiedene räumliche Skalen von einzelnen Neuronen bis hin zu kortikalen Netzwerken identifiziert haben. Zunächst geben wir eine leicht zugängliche Einführung in die Theorie des kritischen Verlangsamens mit Betonung der Skalierungsgesetze. Zweitens werden wir experimentelle Arbeiten mit der Ganzzell-Patch-Clamp-Technik überprüfen, die zeigen, wie kritische Verlangsamung das Einsetzen von Spiking in einzelnen Neuronen steuert. Die zugehörigen Skalierungsgesetze identifizieren eine Sattelknotenverzweigung, die dem Übergang zum Spiking in pyramidalen Neuronen und schnell-spiking Interneuronen zugrunde liegt. Wir werden Implikationen für die Integration synaptischer Eingänge und die neuronale Informationsverarbeitung im Allgemeinen diskutieren. Drittens werden wir Beweise für die Existenz einer kritischen Verlangsamung auf der Ebene des kortikalen Netzwerks überprüfen. Jüngste Studien an Nagetieren und Menschen zeigen schlüssig, dass der Kortex durch lange dynamische Zeitskalen gesteuert wird, die von einer kritischen Verlangsamung erwartet werden, die die zeitliche Informationsintegration unterstützen, sich jedoch als Funktion des Wachsamkeitszustands und der Wachzeit ändern. Die Ergebnisse liefern neuartige mechanistische und funktionelle Verbindungen zwischen Verhaltensmanifestationen von Schlaf, Wachzustand und Schlafentzug und spezifischen messbaren Veränderungen der Netzwerkdynamik, die für die Charakterisierung der sich ändernden Fähigkeit des Gehirns relevant sind, Informationen über die Zeit und über Wachsamkeitszustände hinweg zu integrieren und zu verarbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20965-0_4 1edbfd04586d2ff968804f05665741ad;de;;;1.1.;;;Kulturübergreifende Studie zu Informationsverarbeitungsverzerrungen beim Chronic Fatigue Syndrom: Vergleich niederländischer und britischer Chronic Fatigue Patienten Patient Diese Studie zielt darauf ab, eine britische Studie mit einer niederländischen Stichprobe zu replizieren, um zu untersuchen, ob Aufmerksamkeits- und Interpretationsverzerrungen und allgemeine Aufmerksamkeitskontrolldefizite bei chronischem Erschöpfungssyndrom (CFS) in Populationen und Kulturen ähnlich sind.;-;-;-;https://link.springer.com/article/10.1007/s12529-017-9682-z 0b0718be1e1133abc9bde0ead2b64b3d;de;;;1.1.;;;Bacteriorhodopsin-Anwendungen in der optischen Informationsverarbeitung – Gentechnik als Werkzeug in der Materialwissenschaft In den letzten Jahrzehnten hat der Einsatz biologischer Materialien in verschiedenen Bereichen der modernen Technik rasant zugenommen. Beispiele sind der weit verbreitete Einsatz von Enzymen zur stereospezifischen Biosynthese von Materialien und die gentechnologische Herstellung biologisch wichtiger Makromoleküle.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-0215-3_11 92dbf360d8f0dc5fb2840c6adac52dfb;de;;;1.1.;;;Die Wirkung von Methylphenidat auf die Informationsverarbeitung Modelle der Informationsverarbeitung, die derzeit in der kognitiven Psychologie verbreitet sind, unterteilen den Reaktionsprozess in eine Reihe diskreter, trennbarer Phasen. Die Unterscheidung zwischen einer Stufe und einer anderen wird durch die Methode der additiven Faktoren (AFM) nach Sternberg (1969) überprüft. Es wird davon ausgegangen, dass Aufgabenfaktoren, die nicht miteinander interagieren, verschiedene Phasen beeinflussen. Die Unterscheidung zwischen Stimulusbewertungsstadien und Reaktionsselektionsstadien wurde durch Hirnereignisbezogene Potenzialstudien (ERP) unterstützt. Die Latenz der P300-Komponente des ERP reagiert empfindlich auf Änderungen der Reizkomplexität, jedoch nicht auf Änderungen der Reaktionskomplexität. Der Fokus dieser Forschung liegt darauf, die Auswirkungen von Stimulanzien auf Phasen der Informationsverarbeitung unter Verwendung von Reaktionszeit (RT) und P300-Latenz innerhalb eines AFM-Rahmens zu bestimmen. vier Dosen Methylphenidat (MP) wurden in einem In-Subjekt-Design verwendet, um die Auswirkungen von MP auf die Reiz- und Reaktionsverarbeitung zu untersuchen. Wir fanden heraus, dass MP die RT beschleunigt und dass dieser Effekt nicht mit dem Effekt der Reizkomplexität auf die RT interagiert. Die MP-Dosis interagiert mit der Reaktionskomplexität, wobei die Dosis für eine optimale Geschwindigkeitssteuerung mit dem Komplexitätsgrad variiert. Die Latenz von P300 wird durch die Reizkomplexität erhöht und nicht durch die Reaktionskomplexität, noch wird sie durch MP beeinflusst. Diese Ergebnisse zeigen, dass das Stimulans auf Prozesse einwirkt, die an der Reaktionsauswahl beteiligt sind, und nicht an der Stimulusbewertung. Individuelle Unterschiede im Ansprechen auf Medikamente sind dosisabhängig, weisen aber auch auf eine Wirkung auf die Verarbeitung der Reaktion hin.;-;-;-;https://link.springer.com/article/10.1007/BF00431690 8d1145ddeed2ac4ac8eacf50d4965ea7;de;;;1.1.;;;Grundlagen der Quanteninformationsverarbeitung Wir geben eine kurze Einführung in die Quanteninformationsverarbeitung. Wir beginnen mit der Definition des Qubits, der fundamentalen Informationseinheit in einem Quantensystem. Anschließend beschreiben wir, wie die Evolution in einem Quantensystem abläuft und wie wir durch projektive Messungen und positive Operatorwertmessungen Informationen aus einem Quantensystem auf eine klassische Ebene bringen können. Der Dichteoperator-Formalismus wird vorgestellt und seine Bedeutung für die Quantenkommunikation diskutiert. Wir geben eine Einführung in die Quantenverschränkung, die kein klassisches Gegenstück hat. Abschließend werden die vier Postulate der Quantenmechanik anhand des Formalisten der Dichteoperatoren vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-42794-2_2 04e265db5f3255da9f4fbc25f3afbc9d;de;;;1.1.;;;Geschlechtsspezifische Unterschiede in der Belohnungssensibilität und Informationsverarbeitung während der Entscheidungsfindung Geschlechtsspezifische Unterschiede in der Belohnungssensitivität und Informationsverarbeitung wurden in zwei Studien anhand einer dynamischen Entscheidungsaufgabe untersucht. In Experiment 1 bestand die optimale Strategie darin, auf eine Option zu verzichten, die größere sofortige Belohnungen lieferte, zugunsten einer, die größere verzögerte Belohnungen lieferte. In Experiment 2 bestand die optimale Strategie darin, die Option auszuwählen, die größere sofortige Belohnungen bietet, da die Option für verzögerte Belohnung nie größere Belohnungen als die Option für sofortige Belohnung bot. Informationen über entgangene Belohnungen wurden entweder präsentiert oder zurückgehalten. In Experiment 1 lenkten Informationen über entgangene Belohnungen die Teilnehmer auf die suboptimale Wahl, während in Experiment 2 entgangene Belohnungen die Teilnehmer auf die optimale Option lenkten. Männer wählten bei der Aufgabe der verzögerten Belohnungen mehr die optimale Wahl, während Frauen aufgrund der entgangenen Belohnungsinformationen eher zu der schlechteren Wahl tendierten. Im Gegensatz dazu übertrafen die Weibchen die Männchen bei der Aufgabe der unmittelbaren Belohnungen. Die Ergebnisse deuten auf einen geschlechtsspezifischen Unterschied in den Informationsverarbeitungsstilen während der Entscheidungsfindung hin.;-;-;-;https://link.springer.com/article/10.1007/s11166-015-9206-7 1405934f23dc4d90cfb422b4a352ec7b;de;;;1.1.;;;Informationsverarbeitung olfaktorischer Reize durch den Hund: II. Stimulussteuerung und Sampling-Strategien beim simultanen Diskriminierungslernen Wenn zwei diskrete Reize gleichzeitig präsentiert werden, wobei die Verstärkung von einer Reaktion auf einen von ihnen (S+) abhängig ist, aber nicht auf den anderen (S−), kann die Redundanz der Situation eine Unterscheidung durch den Organismus auf der Grundlage von Informationen ermöglichen, die von einem der beiden geliefert werden Reiz oder beide Reize. Wenn sich die beiden Stimuli an unterschiedlichen Positionen befinden, muss außerdem bei jedem Versuch nur ein Stimulus abgetastet werden, um zu bestimmen, wo zu reagieren ist. Der tatsächliche Kontrollort (S+, S– oder beides) und die Abtaststrategie sind innerhalb des Standarderfassungsparadigmas nicht bestimmbar. Antworten auf diese Probleme wurden gefunden, indem drei Hunden, von denen jeder zuvor vier einfache Geruchsunterscheidungen erworben hatte, indifferente Reize und nicht standardmäßige Reizkombinationen verabreicht wurden. Die Ergebnisse zeigten, dass jeder Hund ein individuelles, aber sehr konsistentes Muster der Probenahme und Kontrolle annahm.;-;-;-;https://link.springer.com/article/10.3758/BF03335154 496806bb801167bf4eb350f5c5d39d10;de;;;1.1.;;;Geschwindigkeit der visuellen Informationsverarbeitung bei entwicklungsbedingter Legasthenie Unsere Studie verglich 30 Legastheniker mit 30 behinderten und 30 normalen Lesern im Alter zwischen 7 und 14 Jahren in einer Aufgabe, die es uns ermöglichte, die Reaktionszeit dieser drei Gruppen unter drei verschiedenen Bedingungen der Reizpräsentation zu messen: (a) Physische Identität (PI) , beide Reize waren gleich (dh A – A), (b) Namensidentität (NI), die Reize waren physisch unterschiedlich, hatten aber denselben Namen und denselben lexikalischen Wert (dh A – a), (c) Keine Identität (NOI) , unterschieden sich die Stimuli sowohl in ihrer physischen Erscheinung als auch in ihrem Namen und ihrem lexikalischen Wert (dh AE). Innerhalb jeder Gruppe wurden die Probanden in drei Untergruppen zu je 10 Personen nach folgendem chronologischen Alter eingeteilt: 7–9, 10–11 und 12 Jahre und aufwärts. Abhängige Variablen waren: Reaktionszeit in der PI-Bedingung, Subtraktion der Reaktionszeit in der PI von der Reaktionszeit in den NI-Bedingungen (NI — PI) und Summe der Fehler bei der Identifizierung. Die statistische Analyse der Ergebnisse zeigte, dass die Verarbeitungsgeschwindigkeit der normalen Leser unter den PI-Bedingungen höher war als die der anderen beiden Gruppen. Das gleiche Ergebnismuster wurde für die Unterschiede in der Reaktionszeit zwischen den NI- und PI-Bedingungen (NI — PI) gefunden. Zwischen den drei Gruppen wurden keine Unterschiede in der Anzahl der Fehler gefunden. Auch bei keiner abhängigen Variable fanden wir Unterschiede zwischen Legasthenikern und Lesebehinderten. Hinsichtlich des Altersfaktors zeigten die Ergebnisse eine generelle Zunahme der Verarbeitungsgeschwindigkeit der drei Gruppen mit zunehmendem Alter. Allerdings war dieser Anstieg in der Gruppe der Legastheniker deutlich größer. Die geringe Informationsverarbeitungsrate bei legasthenen Kindern wird mit einer neurologischen oder Entwicklungsverzögerung erklärt. Außerdem wird die Möglichkeit bewertet, dass die langsame Verarbeitungsgeschwindigkeit bei den Legasthenikern zu einem Sehdefizit führen könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1241-5_4 545f1f6ea148ae3a1852284c55e0ca2e;de;;;1.1.;;;Eine neue Art der CNOT-Gate-Implementierung für die Informationsverarbeitung mit gefangenen Ionen Eine Sequenz von Laserpulsen wird vorgestellt, um eine neue Art von CNOT-Gate in einer linearen Anordnung gefangener Ionen zu implementieren. Diese Art von Quantengatter ermöglicht es dem Designer von Quantenalgorithmen, „Informationen in den Phononenbus zu senden“, gesteuert durch die in einem der Ionen gespeicherten Informationen. Einige Simulationsergebnisse werden angegeben, um die Dynamik des Systems während der Gate-Implementierung zu zeigen. Die Simulation gibt Auskunft über die Leckage und die Anschnittgenauigkeit.;-;-;-;https://link.springer.com/article/10.1007/s003400000506 9d374a597dce3903c6999a92c388f09f;de;;;1.1.;;;Zeitliche Ungleichungen für sequentielle Mehrfachaktionen in der Quanteninformationsverarbeitung Es wird eine neue Art von zeitlichen Ungleichungen diskutiert, die für algorithmische Prozesse mit einer endlichen Speicherverarbeitungseinheit gelten. Sie sind eine Alternative zu den Leggett-Grag-Modellen sowie zu den modifizierten von Brukner;-;-;-;https://link.springer.com/article/10.1007/s11467-013-0400-2 66a9f071ae34390cfba77f363e094505;de;;;1.1.;;;Lokale Informationsverarbeitung bei Erwachsenen mit hochfunktionalem Autismus und Asperger-Syndrom: Die Nützlichkeit neuropsychologischer Tests und Selbstberichte Die lokale Informationsverarbeitung bei 42 Erwachsenen mit hochfunktionalem Autismus, 41 Erwachsenen mit Asperger-Syndrom und 41 neurotypischen Erwachsenen wurde untersucht. Entgegen unseren Erwartungen übertrafen die Störungsgruppen die neurotypische Gruppe bei den neuropsychologischen Maßnahmen der lokalen Informationsverarbeitung nicht. In Übereinstimmung mit unseren Hypothesen zeigten die Selbstberichte in beiden Störungsgruppen eine höhere lokale Informationsverarbeitung und eine stärkere Tendenz zu systemischen Strategien. In den drei Gruppen fanden sich fehlende und schwache Korrelationen zwischen den Selbstberichten und den beiden neuropsychologischen Aufgaben. Die neuropsychologischen Tests und die Selbstberichte scheinen verschiedene zugrunde liegende Konstrukte zu messen. Die Selbstberichte waren am ehesten prädiktiv für das Vorliegen einer Autismus-Spektrum-Diagnose.;-;-;-;https://link.springer.com/article/10.1007/s10803-010-1106-8 3ff1210ae000af9c4c4d1b4f99c046ff;de;;;1.1.;;;Das Potenzial der Quanteninformationsverarbeitung erkennen Das Quantencomputersystem läutet die erste grundlegende Veränderung in der Natur des Rechnens ein, seit mit der Turing-Maschine das Zeitalter der modernen Computer angebrochen ist. praktisch mit klassischen Systemen. Beispielsweise hätte die Anwendung auf die Faktorisierung großer Zahlen einen revolutionären Einfluss auf die Kryptographie. Aber in der Praxis haben andere Anwendungen, von denen viele noch nicht erkannt wurden, wahrscheinlich einen noch größeren Einfluss, zum Beispiel hätte die Möglichkeit, einen einzelnen Eintrag schnell aus einer großen Datenbank mit ungeordneten Informationen zu extrahieren, einen großen Einfluss auf Felder wie Feature ( B. Fingerabdruck) Erkennung, Sprachübersetzung und Spracherkennung durch Korpora-Matching, und das Many-Body-Problem (zB Flugsicherung), um nur einige zu nennen. Allerdings diktiert die Industrieökonomie, dass ein neuer Ansatz kaum eine Marktposition erreichen wird, es sei denn, der Nutzen ist sehr signifikant. In frühen Anwendungen könnte der Quantencomputer als eine Art Co-Prozessor zur etablierten klassischen Hardware verwendet werden. Kommerziell werden diese jedoch erst dann erfolgreich, wenn die Anzahl der verarbeitbaren Qubits ein System bietet, das gegenüber dem klassischen Ansatz unbestreitbare Vorteile bietet. Dies impliziert, dass es für normale Rechenzwecke keinen Massenmarkt geben würde, bis die Systeme mit großen Dezimalzahlen umgehen können. (Die tatsächliche Anzahl der benötigten Qubits wird wahrscheinlich sowohl von den Anforderungen an die Fehlerkorrektur als auch von der numerischen Größe der Aufgabe bestimmt).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0839-9_14 1ec5170dfe6e9167e21831d23da46eae;de;;;1.1.;;;Rolle der Optik bei der superschnellen Informationsverarbeitung Ab dem Jahrzehnt der 70er Jahre inspirierte eine Motivation die Menschen in der Optik- und Computergemeinde, Optiken anstelle von Elektronik als informationstragendes Signal in der digitalen Daten- und Bildverarbeitung zu verwenden. Hier in dieser Mitteilung gibt der Autor einen kurzen Bericht über die Rolle der Optik bei superschnellen Berechnungen und ihre Vorteile.;-;-;-;https://link.springer.com/article/10.1007/s12648-010-0101-4 84935d43c82e3453de98ebbe94aed551;de;;;1.1.;;;Wiederholung, visuelle Persistenz, visuelles Rauschen und Informationsverarbeitung Ich habe vor, zwei etwas unterschiedliche Forschungsrichtungen zu diskutieren. Der erste betrifft meine Arbeit (hauptsächlich mit Maurice Hershenson) in den letzten fünf Jahren mit den Auswirkungen wiederholter, kurzer Expositionen auf das Wachstum einer Wahrnehmung, hauptsächlich von Wörtern und Buchstaben. Wir haben gezeigt, dass selbst bei fehlender Steigerung der Energie oder Angemessenheit des Stimulus (Dauer, Luminanz, Kontrast, Blickwinkel oder Unterscheidbarkeit des Drucks) gut verteilte, wiederholte Präsentationen nicht nur die Versuchsperson (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-87086-6_7 a372e13b91824c9dd26780f9957a0579;de;;;1.1.;;;Informationsverarbeitung durch oszillierende Neuronen Dieser Artikel gibt einen Überblick über die Methoden, mit denen gekoppelte oszillierende Neuronen von verschiedenen Gehirnmodulen verwendet werden können, um Informationen zu verarbeiten. Insbesondere die Bindungs- und Trennungsprobleme werden im oszillatorischen Rahmen diskutiert und vorläufige Modelle vorgeschlagen, wie diese Probleme gelöst werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-1965-4_5 f1c8d3ceacc8e5899d138512a74287c8;de;;;1.1.;;;Skalierbare Architektur für die Quanteninformationsverarbeitung mit Atomen in optischen Mikrostrukturen Wir überprüfen die jüngsten experimentellen Fortschritte bei der Quanteninformationsverarbeitung und Quantensimulation unter Verwendung neutraler Atome in zweidimensionalen (2D) Arrays optischer Mikrofallen als 2D-Register von Qubits. Wir beschreiben eine skalierbare Quanteninformationsarchitektur basierend auf mikrofabrizierten optischen Elementen, die gleichzeitig auf die wichtigen Themen der Single-Site-Adressierbarkeit und Skalierbarkeit abzielt. Dieser Ansatz bietet flexible und integrierbare Konfigurationen für die Speicherung, Manipulation und den Abruf von Quantenzuständen. Wir präsentieren aktuelle experimentelle Ergebnisse zur Initialisierung und kohärenten Ein-Qubit-Rotation von bis zu 100 einzeln adressierbaren Qubits, dem kohärenten Transport atomarer Quantenzustände in einem skalierbaren Quantenschieberegister und diskutieren die Machbarkeit von Zwei-Qubit-Gattern in 2D-Mikrofallenarrays.;-;-;-;https://link.springer.com/article/10.1007/s11128-011-0297-z 89434677b9e0441d8e60dbc5d9530dc4;de;;;1.1.;;;Visuelle Informationsverarbeitung für sakkadische Augenbewegungen Das Erscheinen eines Ziels im peripheren menschlichen Gesichtsfeld führt häufig zur Reaktion einer sakkadischen Augenbewegung auf dieses Ziel. In vielen Fällen scheint dies reflexartiger Natur zu sein, während in anderen die Bewegung am besten als willkürliches Zielfolgen beschrieben werden kann. Es wird später vorgeschlagen, dass eine dichotome Einteilung in Reflex- und Willkürreaktionen zu stark vereinfacht wird, aber die Analyse in diesem Kapitel ignoriert diese Frage größtenteils und konzentriert sich auf die Details des Prozesses, bei dem die visuelle Information über die Zielposition zu einer genauen Sakkade führt zu einem bestimmten Zeitpunkt. Obwohl diese Analyse fast ausschließlich auf Verhaltensbeobachtungen am Menschen zurückgreift, werden die verwendeten Erklärungskonzepte in vielen Fällen aus neurophysiologischen Kenntnissen des visuellen und okulomotorischen Systems abgeleitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-5488-1_16 429904a252ab39fd97e503c76c1eea96;de;;;1.1.;;;Informationsverarbeitung im Nucleus parabrachialis des Pons Bei traditionellen Untersuchungen des Geschmackssystems werden elektrophysiologische Reaktionen auf Geschmacksreize innerhalb einer bestimmten neuronalen Struktur aufgezeichnet und die Funktion dieser Struktur im Wahrnehmungsprozess wird aus Analysen dieser Reaktionen abgeleitet. Die Analyse der Reaktionseigenschaften einer einzelnen neuronalen Struktur betrachtet diese Reaktionen notwendigerweise aus dem Kontext ihrer Eingabe. Dieses Verfahren hat den Nachteil, dass bei höheren Niveaus der neuronalen Verarbeitung die Beziehung zwischen neuronalen Reaktionen und peripher evozierten Aktivitäten zunehmend stumpf werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-68355-1_160 b57fcb60562ec0115d022618fe682525;de;;;1.1.;;;Ein professionelles meteorologisches Informationsverarbeitungssystem Das METPRO-System bietet der meteorologischen Gemeinschaft ein integriertes, umfassendes System, um meteorologische Daten zu sammeln und zu verarbeiten und grafische Wetterprodukte von mehreren weltraum- und erdbasierten Fernbeobachtungsplattformen zu generieren und anzuzeigen. Dieses professionelle Informationsverarbeitungssystem erfüllt die anspruchsvollen Anforderungen der vielfältigen Interessen der Wetter-Community vom Echtzeitbetrieb bis zur Forschung. Das METPRO-System bietet Stärke, Flexibilität und Benutzerfreundlichkeit in einem einzigen Paket und wird auf modernster und handelsüblicher Hardware mit Industriestandard-Softwareprotokoll betrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-0551-1_40 ca14474b3d8ff4e5735f0ce7d67d5149;de;;;1.1.;;;Optische hybride Quanteninformationsverarbeitung Historisch wurden zwei komplementäre Ansätze zur optischen Quanteninformationsverarbeitung verfolgt: Qubits und kontinuierliche Variablen, die jeweils entweder die Teilchen- oder die Wellennatur des Lichts ausnutzen. Beide Ansätze haben jedoch Vor- und Nachteile. In den letzten Jahren wurden erhebliche Fortschritte bei der Kombination beider Ansätze erzielt, um hybride Protokolle zu realisieren, die die derzeitigen Beschränkungen überwinden. In diesem Kapitel betrachten wir zunächst die Entwicklung der beiden Ansätze mit besonderem Fokus auf die Quantenteleportation und ihre Anwendungen. Anschließend stellen wir unsere jüngsten Forschungsfortschritte bei der Realisierung der Quantenteleportation durch ein Hybridschema vor und erwähnen ihre zukünftigen Anwendungen für die universelle und fehlertolerante Quanteninformationsverarbeitung.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-55756-2_20 76ae85c6c4ccb89bfcfaa8153c264508;de;;;1.1.;;;Verarbeitung von Patienteninformationen Die mündliche oder schriftliche Offenlegung von Risikoinformationen hängt von der medizinischen Fachkraft ab. Der Patient kann jedoch nicht völlig passiv sein. Um erfolgreich kommuniziert zu werden, müssen Risikoinformationen nicht nur offengelegt, sondern auch beachtet, verstanden, integriert, erinnert und letztendlich bei Entscheidungen und Verhaltensweisen richtig genutzt werden. Selbst wenn ein Arzt dies betont, muss der Patient in der Lage sein, Risikoinformationen vollständig zu verarbeiten, damit sie von Wert sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-3354-1_4 e48346692887f95710e8dc499c597b16;de;;;1.1.;;;Dynamische neuronale Informationsverarbeitung von Vokallauten im auditiven Kortex Durch die Simulation eines hierarchischen neuronalen Netzwerkmodells des auditiven Kortex untersuchten wir neuronale Grundlagen für die Kodierung und Wahrnehmung von Vokallauten. Wir zeigen, dass Informationen über Vokale durch spezifische dynamische Zellgruppen kodiert werden und die Wahrnehmung eines angewendeten Vokalklangs durch die kollektive Aktivierung der dem Input entsprechenden Zellgruppe vermittelt wird. Wir haben versucht, die Rolle zeitveränderlicher Formantfrequenzen zu erklären, die eine der bemerkenswerten Eigenschaften natürlicher (vokalisierter) Vokale beim Menschen sind. Wir zeigen, dass die zeitvariable Frequenzstimulation von Neuronen im Vergleich zu einer konstanten Frequenzstimulation vorteilhaft ist, um die neuronale Erregung durch den gesamten Zellverbund entsprechend dem angelegten Stimulus zu verbreiten. Wir schlagen vor, dass die zeitvariable Änderung der Formantfrequenzen von Vokallauten für die Verbesserung der kognitiven Leistung bei der Wahrnehmung von Vokallauten wesentlich sein kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39935-3_2 b47cb17992d6f2a8c36e18928c83cf94;de;;;1.1.;;;Machen Kinderschänder in Fragebögen zu kognitiven Verzerrungen absichtlich etwas Gutes? Eine auf der Informationsverarbeitung basierende Untersuchung Forscher und Kliniker stellen die Hypothese auf, dass Kinderschänder straftatunterstützende Überzeugungen oder kognitive Verzerrungen haben, die eine Umstrukturierung für eine erfolgreiche Rehabilitation erfordern. Allerdings gibt es wenig empirische Belege für diese Hypothese. Aktuelle Fragebogenmessungen der kognitiven Verzerrungen von unbehandelten und behandelten Kinderschändern zeigen, dass diese Männer kognitiven Verzerrungen typischerweise nicht zustimmen. Solche Befunde, insbesondere vor der Behandlung, werden oft so interpretiert, dass Kinderschänder;-;-;-;https://link.springer.com/article/10.1007/s11194-005-4604-z 9a5f54a9771a33e014920bc0e74f4f08;de;;;1.1.;;;Terminologisches Informationsmanagement in ADKMS Ein Hauptziel des ADKMS-Projekts (Advanced Data and Knowledge Management System) ist die Untersuchung des Informationsmanagements auf Basis eines terminologischen Ansatzes. Wir beschreiben ein Anwendungsszenario, in dem organisatorische Informationen über eine große Unternehmensgruppe für eine Wissensdatenbank erfasst werden. Die Anwendung (entwickelt von der Projektgruppe Datamont SpA, Mailand) weist eine Reihe von Anforderungen auf, die dem Service des terminologischen Wissensrepräsentationssystems (entwickelt von der Projektgruppe der TU Berlin) gegenübergestellt werden. Die Wechselwirkung zwischen diesen Aspekten wird hervorgehoben und die daraus resultierenden Techniken für einen angemessenen Zugang und Abruf von Wissensdatenbanken werden skizziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-0705-8_13 848ebd40e538e56ae31d2c95ce4776a6;de;;;1.1.;;;Reizintensität und Informationsverarbeitung Die physiologische und verhaltenswissenschaftliche Literatur zu den Auswirkungen der Reizintensität auf den zeitlichen Verlauf der Informationsverarbeitung wird überprüft. Die physiologischen Daten beschreiben Intensitätseffekte auf die Sinnesbahn. Reaktionszeitstudien zeigen, dass die Wirkung der Intensität auf Verhaltensreaktionen auch von kognitiveren Prozessen abhängt und durch diese vermittelt werden kann. Der Grad, in dem die Intensität die einfache Reaktionszeit beeinflusst, variiert direkt mit dem von den Probanden verwendeten Antwortkriterium. Das Fehlen dieser Abhängigkeit der Wahlreaktionszeit kann auf unterschiedliche Intensitätseffekte auf Energie- und Nichtenergiepfade hinweisen. Die Literatur legt nahe, dass die Intensität den zeitlichen Verlauf der Informationsverarbeitung nicht nur durch Beeinflussung der Verarbeitungsgeschwindigkeit in Sinnesbahnen beeinflusst, sondern auch durch Beeinflussung der Aufmerksamkeit und der Zeit, die erforderlich ist, um die Aufmerksamkeit auf einen Reiz zu lenken.;-;-;-;https://link.springer.com/article/10.3758/BF03199699 12db034772695fb6ee644a97ef0cd9eb;de;;;1.1.;;;Laterale Maskierung in der visuellen Informationsverarbeitung Wenn nicht verwandte Buchstabenfolgen tachistoskopisch präsentiert werden, werden die Endbuchstaben häufiger als ihre Nachbarn gemeldet, und wenn Leerzeichen in Strings eingefügt werden, ist die Leistung bei bestimmten benachbarten Buchstaben der Leistung bei diesen Buchstaben überlegen, wenn keine Leerzeichen vorhanden waren. Ein Experiment wurde durchgeführt, um die Natur dieser Abstandseffekte zu bestimmen. Buchstabenketten wurden an einer Vielzahl von Netzhautstellen präsentiert und Leerzeichen wurden an verschiedenen Positionen in der angewiesenen Links-Rechts-Verarbeitungsreihenfolge eingefügt. Der Raumeffekt stand in keinem Zusammenhang mit der Verarbeitungsreihenfolge, sondern war von der Netzhautlage abhängig. Um den verschiedenen Asymmetrien Rechnung zu tragen, musste postuliert werden, dass Buchstaben dazu neigen, mit benachbarten Buchstaben zu interagieren;-;-;-;https://link.springer.com/article/10.3758/BF03203949 395929c85f17383c70e9793e184ef274;de;;;1.1.;;;"Augenbewegungsmuster bei der visuellen Informationsverarbeitung Augenbewegungsmuster wurden aufgezeichnet, während Ss 5-Zellenmuster visuell scannte, um die Summe der 3 Ziffern in jeder der 4 peripheren Zellen mit der Summe der 3 Ziffern in der zentralen ""Ziel""-Zelle zu vergleichen. Sowohl größere Zielsummen als auch eine größere Ziel-Nicht-Ziel-Ähnlichkeit verursachten signifikant längere Fixationen, Anzahl und Muster der Fixationen waren unabhängig von experimentellen Variablen. Die Ergebnisse unterstützten Vorhersagen auf der Grundlage früherer Studien, die Augenbewegungsmuster und visuelle Reize korrelierten.";-;-;-;https://link.springer.com/article/10.3758/BF03343157 c9a2fe9137dc1fb690eb35f0c040696e;de;;;1.1.;;;Die Synchronisation der neuronalen Aktivität ist ein vielversprechender Mechanismus der Gedächtnisinformationsverarbeitung in Netzwerken von Spalten Die Synchronisation der oszillatorischen Entladung kortikaler Neuronen könnte ein Teil des Mechanismus sein, der an der kortikalen Informationsverarbeitung beteiligt ist. Unter der Annahme, dass die grundlegende Funktionseinheit die Säule ist, die aus lokalen erregenden und hemmenden Zellen besteht und oszillierende neuronale Aktivität erzeugt, wird ein Netzwerkmodell vorgeschlagen, das eine assoziative Gedächtnisfunktion erreicht. Die Schwingungssynchronisation im Modell wird analytisch mit einer Untergitteranalyse untersucht. Insbesondere kann der Abruf eines einzelnen Speichermusters im System untersucht werden, das aus dem ursprünglichen Netzwerkmodell interagierender Spalten abgeleitet werden kann und formal einem System einer isolierten Spalte entspricht. Das numerisch simulierte Netzwerkmodell zeigt eine bemerkenswerte Leistung, bei der ein Abruf gleichzeitig für mehr als ein Speichermuster erreicht wird. Die Manifestationen dieses gleichzeitigen Abrufens in der Netzwerkdynamik sind sukzessive Übergänge des Netzwerkzustands von einer synchronisierten Schwingung für ein Speichermuster zu der für ein anderes Speichermuster.;-;-;-;https://link.springer.com/article/10.1007/BF00202761 895800f7c78e43c88a4d017dc75d3ca3;de;;;1.1.;;;Veränderung der Ideenkonstellationen und des Informationsverarbeitungsstils Schritt 10: Informationen. Beschreiben Sie das Ergebnis in Bezug auf veränderte Prämissen und Modifikationen in charakteristischen Bewältigungs- und Verteidigungsstilen. Beschreiben Sie den Status von Kernkonstellationen widersprüchlicher Ideen und Gefühle. Beziehe diese Modifikationen auf Veränderungen im Stil der Welterfahrung und der Kommunikation mit anderen. Beziehen Sie dies, wenn angegeben, auf den Wandel im historischen Moment, auf kulturelle Einstellungen und gesellschaftliche Werte.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2889-6_11 e50955a809b4c419241b58ccdcc738e1;de;;;1.1.;;;Intelligenz in der auditiven, visuellen und audiovisuellen Informationsverarbeitung Es wurde angenommen, dass es durch Manipulation der Redundanz (sowohl SR als auch BCR) möglich ist, LI Ss dazu zu bringen, IP-Aufgaben so effektiv wie HI Ss auszuführen. Der Unterschied zwischen HI und LI Ss kann eliminiert oder verringert werden, indem das Leistungsniveau von LI Ss verbessert wird. Der gleichzeitige AV-Kanal, der identische oder hohe Redundanzinformationen (hohe BCR) präsentiert, würde es ermöglichen, LI Ss auf ein Leistungsniveau zu bringen, das so hoch ist wie das von HI Ss.;-;-;-;https://link.springer.com/article/10.1007/BF02767637 72511bb4fbb6588138f4d6db8c721b61;de;;;1.1.;;;Ein spiralförmiger akustischer Oberflächenwellenwandler für die Quanteninformationsverarbeitung Es wird ein supraleitender akustischer Oberflächenwellenwandler mit spiralförmiger Geometrie vorgeschlagen. Dieser Wandler ist besonders nützlich für die Quanteninformationsverarbeitung bei kryogenen Temperaturen. Im Vergleich zu einem Interdigitalwandler, der Schallwellen in zwei Richtungen abgibt, kann ein Spiralwandler (SPT) Wellen in vier Richtungen abstrahlen. Diese Eigenschaft ermöglicht eine effizientere Nutzung der Substratoberfläche durch den Übergang von einer Linie zu einer Oberfläche. Am wichtigsten ist, dass uns diese Art von Wandler neue Möglichkeiten für die Quanteninformationsverarbeitung eröffnet, da sie als supraleitendes Transmon-Qubit verwendet werden kann, das gleichzeitig an zwei akustische Hohlräume gekoppelt werden kann. Darüber hinaus kann es für den akustischen Transport von Quantenpunkt-Qubits verwendet werden, was die Mittel zur weitreichenden Kopplung der Qubits verbessern könnte. Der SPT wurde mit dem COMSOL-Simulator simuliert und wird auch mit . modelliert;-;-;-;https://link.springer.com/article/10.1007/s10909-019-02145-2 40ace12bc5bde9d2032949d718f1eeb2;de;;;1.1.;;;Holographie und optische Informationsverarbeitungssysteme Dieses Kapitel befasst sich mit der Verwendung photorefraktiver Kristalle als wiederverwendbare photosensitive Medien in Holographie- und optischen Informationsverarbeitungssystemen. Die zugrunde liegenden Prinzipien werden skizziert und im Zusammenhang mit konkreten Anwendungen diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-47056-4_2 2e5b1b7c076ea9c06f0e326ee7f005f2;de;;;1.1.;;;Dynamische Informationsverarbeitung in den frontalen Assoziationsbereichen von Affen während des Hypothesentestverhaltens Die visuelle Top-Down-Suche basiert auf subjektivem Wissen über das Ziel, das mit Verhaltensfolgen aktualisiert wird. Um festzustellen, ob die frontalen Assoziationsbereiche (FAAs) an der wissensbasierten visuellen Suche beteiligt sind, haben wir eine neue okulomotorische Aufgabe eingeführt, bei der Affen nach einem gültigen Paar von Zielen unter vier visuellen Reizen suchen müssen, wobei sich das gültige Paar von Zielen ohne Anweisung änderte. Dieses Ergebnis zeigte, dass die FAA-Neuronen der Affen eine allmähliche Verschiebung der Repräsentation zeigten, wenn das gültige Paar geändert wurde. Unser Ergebnis legt nahe, dass die FAAs daran beteiligt sind, subjektives Wissen über die Suche nach Zielen basierend auf Verhaltenskonsequenzen dynamisch zu aktualisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-4792-0_92 6625e6c3e5c561dbcab7e667c6249f74;de;;;1.1.;;;Engpässe bei der Informationsverarbeitung im hinteren Parietalkortex von Makaken: ein aufmerksamer Augenzwinkern? Wenn zwei kurze Reize in schneller Folge präsentiert werden, wird unsere Fähigkeit, den zweiten Reiz zu beobachten und zu erkennen, beeinträchtigt, wenn unsere Aufmerksamkeitsressourcen der Verarbeitung des ersten gewidmet sind. Eine solche Unfähigkeit (in Humanstudien als „Aufmerksamkeitsblinzeln“ bezeichnet) tritt etwa 200–500 ms nach dem Einsetzen des ersten Reizes auf. Wir trainierten zwei Affen auf einer verzögerten Match-to-Sample-Aufgabe, bei der sowohl die Position als auch die Ausrichtung von zwei nacheinander präsentierten Gitterfeldern abgestimmt werden mussten. Wenn die Verzögerung zwischen den beiden Gittern variiert wurde, wurde die Verhaltensleistung (d′) des Affen in einer Weise beeinflusst, die dem Aufmerksamkeitsblinzeln beim Menschen entsprach. Darüber hinaus folgte eine Untergruppe von Neuronen im lateralen intraparietalen Bereich des Affen, von denen bekannt ist, dass sie für die Kontrolle der Aufmerksamkeit entscheidend sind, der Variation von d in, selbst wenn d even einem atypischen Muster folgte. Unsere Ergebnisse liefern die erste Verhaltensdemonstration eines Aufmerksamkeitsengpasses beim Makaken ähnlich dem menschlichen Aufmerksamkeitsblinzeln sowie ein mögliches Einzelneuronenkorrelat des Phänomens.;-;-;-;https://link.springer.com/article/10.1007/s00221-013-3569-2 c3ed78ddec035a805459a4d28a668bde;de;;;1.1.;;;Zeitverläufe in der visuellen Informationsverarbeitung: Einige empirische Belege für Hemmung In der Literatur werden zwei unterschiedliche Ansichten zum zeitlichen Verlauf der Aktivierung von „Erkennungseinheiten“ – hypothetischen Einheiten, die Identitätsinformationen repräsentieren – vorgeschlagen. Die erste Ansicht geht davon aus, dass die Erkennungseinheiten die Aktivierung im Laufe der Zeit allmählich akkumulieren. Die zweite geht davon aus, dass die Aktivierungsniveaus anfangs schnell ansteigen und dann abzunehmen beginnen. Hagenzieker und Van der Heijden (1990) haben ein allgemeineres Informationsverarbeitungsmodell vorgeschlagen, das mit beiden Ansichten kompatibel ist. In diesem Modell bestimmt ein Schwellenwert, welche Art von Zeitverlauf erhalten wird. Bei unterschwelligen Aktivierungswerten wird eine allmähliche Akkumulation der Aktivierung festgestellt, bei überschwelligen Werten werden die Aktivierungsniveaus zuerst ansteigen und dann aufgrund der Hemmung abnehmen. Dieses Modell diente als Ausgangspunkt für die vorliegende Arbeit. Die Ausarbeitung dieses Modells führte zu zwei überprüfbaren Hypothesen bezüglich der Identifikationsleistung. Die erste Vorhersage ist, dass nur unter relativ hellen Luminanzbedingungen Hinweise auf eine Hemmung beobachtet werden sollten. Die zweite ist, dass bei gegebener Hemmung das Ausmaß der Wirkung dieser Hemmung mit der Zeit zunehmen sollte. Um die Vorhersagen zu testen, wurde eine Partial-Report-Bar-Probe-Aufgabe verwendet. Das Experiment umfasste zwei Leuchtdichtebedingungen und die Informationen wurden zu zwei verschiedenen Zeitpunkten abgetastet. Um mögliche Lokalisierungsartefakte zu kontrollieren, wurde auch eine Ziffernbenennungsaufgabe verwendet. In beiden Luminanzbedingungen wurden Hinweise auf eine Hemmung gefunden. Gemäß dem Modell nahm das Ausmaß der Hemmwirkung mit der Zeit zu.;-;-;-;https://link.springer.com/article/10.1007/BF00867206 c1690b57d8061a2682e168e1a1c34d2d;de;;;1.1.;;;Das Sehen von Sprache beeinflusst die akustische Informationsverarbeitung im menschlichen Hirnstamm Es wird oft angenommen, dass die afferente auditive Verarbeitung im menschlichen Hirnstamm allein durch akustische Reizmerkmale bestimmt und immun gegen die Stimulation durch andere Sinne oder kognitive Faktoren ist. Im Gegensatz dazu zeigen wir, dass das Lippenlesen während der Sprachwahrnehmung die frühe akustische Verarbeitung beeinflusst. Ereignisbezogene Hirnstammpotentiale wurden von zehn gesunden Erwachsenen zu konkordanten (akustisch-visuelle Übereinstimmung), widersprüchlichen (akustisch-visuelle Fehlanpassungen) und unimodalen Reizen aufgezeichnet. Audiovisuelle (AV) Interaktionen traten bereits ∼11 ms nach der akustischen Stimulation auf und hielten während der ersten 30 ms der Reaktion an. Darüber hinaus hing das Ausmaß der Interaktion von AV-Paarungen ab. Diese Befunde weisen auf eine beträchtliche Plastizität bei der frühen auditiven Verarbeitung hin.;-;-;-;https://link.springer.com/article/10.1007/s00221-005-0071-5 d3ca558298d5a93c104aba8d96c2fc01;de;;;1.1.;;;Informationsverarbeitung, Critical Flicker Fusion Threshold und Benzodiazepine: Ergebnisse und Spekulationen Es gibt Hinweise darauf, dass die Geschwindigkeit der Informationsverarbeitung, gemessen an der kritischen Flicker-Fusionsschwelle (CFFT), nach einigen Benzodiazepinen langsamer ist als nach anderen. Veränderungen der CFFT, die durch die Gabe von Benzodiazepin hervorgerufen werden, korrelieren normalerweise, aber nicht immer, mit Veränderungen anderer Maße der kognitiven Leistung und des Gedächtnisses. Die arzneimittelinduzierten Veränderungen der Informationsverarbeitung und des Gedächtnisses können jedoch nicht vollständig durch einfache Postulate bezüglich Veränderungen des Gesamtniveaus der ZNS-Erregung erklärt werden. Die Ergebnisse einer Reihe von Studien über die Wirkung von Benzodiazepinen auf die Messung von CFFT und Gedächtnis werden überprüft und der Nutzen von CFFT bei der Bewertung des amnesischen oder mnemonischen Potenzials von ZNS-aktiven Arzneimitteln wird bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-73288-1_6 b480d3d35734c8820583a3f46fb69e6b;de;;;1.1.;;;Informationsverarbeitung mit strukturiertem chemisch erregbarem Medium Es ist allgemein bekannt, dass ein erregbares Medium zur Informationsverarbeitung mit Anregungsimpulsen verwendet werden kann. In solchen Medien können Nachrichten kodiert sein oder in der Anzahl von Pulsen oder in den Sequenzen von Zeiten, die aufeinanderfolgende Erregungen trennen. Informationen werden als Ergebnis von zwei Haupteffekten verarbeitet: Wechselwirkungen zwischen Pulsen und Wechselwirkungen zwischen einem Puls und der Umgebung. Die Eigenschaften des erregbaren Mediums liefern uns eine Reihe von Merkmalen, die diejenigen verbleiben, die die biologische Informationsverarbeitung charakterisieren. Beispielsweise treten Anregungsimpulse als Ergebnis eines äußeren Reizes auf und können sich in einem homogenen Medium mit konstanter Geschwindigkeit und einer stationären Form ausbreiten, die Mediumenergie abgibt.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-88981-6_5 623929dd0e3a3e3c34de872d6f226045;de;;;1.1.;;;Die Rolle von Feedforward- und Feedback-Hemmung bei der frequenzabhängigen Informationsverarbeitung in einer Kleinhirn-Granula-Zelle Multimodale sensorische Informationen, die über Moosfasern in das Kleinhirn gelangen, werden durch das Körnerzellnetzwerk (GC) verarbeitet, dessen wichtigste zelluläre Elemente das GC und ein hemmendes Interneuron, die Golgi-Zelle, sind. Es wurde ein GC-Modell konstruiert, das sowohl die Feedforward- (FF) als auch die Feedback-(FB)-Hemmung zu seiner dendritischen Welle unterstützt. Dieses Modell wurde verwendet, um den Einfluss der Golgi-Zell-Hemmung auf GC-Reaktionen auf Moosfaser-Einträge im Bereich von 10–100 Hz zu untersuchen. Sowohl FF- als auch FB-Hemmsignale reduzierten die GC-Ausgabe. Wenn beide Hemmschleifen auf denselben GC-Dendriten zugegriffen haben, wurde die größte Abnahme der GC-Leistung allein durch die FB-Hemmung erzeugt. Wenn jedoch jede inhibitorische Schleife auf einen anderen GC-Dendriten zugreift, waren beide inhibitorischen Eingaben erforderlich, um die größte Abnahme der GC-Ausgabe zu erzeugen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4831-7_75 eca22dad98aa04b5df55db4d1a1ceb17;de;;;1.1.;;;Integrierte Optikarchitektur für die Quanteninformationsverarbeitung mit gefangenen Ionen Standardschemata für die Quanteninformationsverarbeitung mit eingefangenen Ionen (QIP) beinhalten die Manipulation von Ionen in einem großen Feld miteinander verbundener Einfangpotentiale. Der grundlegende Satz von QIP-Operationen, einschließlich Zustandsinitialisierung, universeller Quantenlogik und Zustandserkennung, wird routinemäßig innerhalb einer einzelnen Array-Site mittels optischer Operationen ausgeführt, einschließlich verschiedener Laseranregungen sowie der Sammlung von Ionenfluoreszenz. Der Transport von Ionen zwischen Array-Stellen wird auch routinemäßig in mikrogefertigten Fallen-Arrays durchgeführt. Es ist jedoch immer noch nicht möglich, optische Operationen parallel über alle Array-Standorte hinweg durchzuführen. Das Fehlen dieser Fähigkeit ist eines der Haupthindernisse für eine skalierbare QIP mit gefangenen Ionen und begrenzt derzeit die Nutzung der aktuellen mikrogefertigten Fallentechnologie. Hier präsentieren wir eine Architektur zur skalierbaren Integration optischer Operationen in Trapped-Ion-QIP. Wir zeigen theoretisch, dass Beugungsspiegel, monolithisch auf dem Fallen-Array hergestellt, Licht effizient zwischen Fallen-Array-Stellen und optischen Wellenleiter-Arrays koppeln können. Aus diesen Wellenleitern aufgebaute integrierte optische Schaltungen können zur Sequenzierung von Laseranregung und Fluoreszenzsammlung verwendet werden. Unsere skalierbare Architektur unterstützt alle Standard-QIP-Operationen sowie Photonen-vermittelte Verschränkungskanäle und bietet gleichzeitig erhebliche Leistungsverbesserungen gegenüber aktuellen Techniken.;-;-;-;https://link.springer.com/article/10.1007/s11128-015-1162-2 c1760a4be24066a8ae4a6920b78398a1;de;;;1.1.;;;Emotionale Informationsverarbeitung bei Depression und Burnout: eine Eye-Tracking-Studie Ob Burnout eine Form der Depression ist, ist unklar. Ziel dieser Studie war es, die Relevanz der Unterscheidung zwischen Burnout und Depression zu untersuchen, indem die Aufmerksamkeitsverarbeitung emotionaler Informationen bei Burnout und Depression verglichen wurde. Die Eye-Tracking-Technologie wurde verwendet, um die offene Aufmerksamkeitsentwicklung zu beurteilen. Der Blick von 54 Mitarbeitern des Personalwesens wurde überwacht, während sie eine Reihe emotionaler Bilder frei betrachteten, die als dysphorisch, positiv, angstlösend und neutral bezeichnet wurden. Ähnlich wie bei Depressionen war Burnout mit einer erhöhten Aufmerksamkeit für dysphorische Reize und einer verminderten Aufmerksamkeit für positive Reize verbunden. Hierarchische multiple Regressionsanalysen zeigten, dass Burnout diese Aufmerksamkeitsänderungen nicht mehr vorhersagte, wenn die Depression kontrolliert wurde und umgekehrt, was auf eine Austauschbarkeit der beiden Entitäten in dieser Hinsicht hindeutet. Unseres Wissens ist diese Studie die erste, die (a) die emotionale Aufmerksamkeit bei Burnout untersucht und (b) das Problem der Burnout-Depressions-Überlappung sowohl auf kognitiver als auch auf Verhaltensebene mittels Augenbewegungsmessung behandelt. Insgesamt weisen unsere Ergebnisse auf strukturelle Ähnlichkeiten zwischen Burnout und Depression hin, was die Bedenken hinsichtlich der Einzigartigkeit des Burnout-Phänomens verstärkt.;-;-;-;https://link.springer.com/article/10.1007/s00406-014-0549-x 53c3f0a00bf0cebb4a322eb1760958df;de;;;1.1.;;;Antwortlatenz als Instrument zum Studium von ZPD, ZAD und der laufenden Informationsverarbeitung für L2-Lernende Unter dem Einfluss von Vygotsky hat sich das dynamische Assessment (DA) kürzlich in den Bereich der L2-Tests eingeschlichen, um die kognitive Modifikation der Lernenden durch das Konzept der Mediation und der Zone der proximalen Entwicklung (ZPD) zu beurteilen (Ableeva, The Effects of Dynamic Assessment on L2 Listening Listen Verständnis;-;-;-;https://link.springer.com/article/10.1186/s40862-016-0009-4 549176bdf2eb8ea62598906a67dd2f5a;de;;;1.1.;;;Wahrnehmungsselektivität und Informationsverarbeitung durch schnelle und langsame Lernende beim Paired-Assoziierten Lernen Unter Verwendung eines Designs, das eher eine wahrnehmungsbezogene als eine verbale Unterscheidung in einer zusammengesetzten Stimulus-P-A-Lernaufgabe erfordert, wurden zwei Hypothesen in Bezug auf individuelle Unterschiede in der wahrnehmungsbezogenen Auswahl eines funktionellen Stimulus-Hinweises und der Verarbeitung von Informationen untersucht. Die Hypothese, dass schnelle Lerner (durch Vortest bestimmt) mehr Informationen „verarbeiten“ würden als langsame Lerner beim P-A-Lernen, wurde unterstützt. Langsame Lerner ignorierten konsequent die zufällige Form, zu der sie von Anweisungen spezifisch geleitet wurden, und wählten stattdessen die Kontextfarbe als funktionalen Hinweis. Eine zweite Hypothese, dass ein negativer Transfer aufgrund einer proaktiven Hemmung bei langsam Lernenden größer wäre, wurde ebenfalls unterstützt.;-;-;-;https://link.springer.com/article/10.3758/BF03210454 809c8a6baf292c16bcaa8b169ffee24a;de;;;1.1.;;;Aerobic-Übungen mit hoher Intensität verbessern die Informationsverarbeitung und die motorische Leistung bei Parkinson-Patienten Die Parkinson-Krankheit (PD) beeinträchtigt die Informationsverarbeitung und die motorische Leistung. Der Einfluss von Aerobic-Übungen auf die Modifizierung der schädlichen Wirkungen von PD zugrunde liegenden Informations- und Bewegungskontrollprozessen ist nicht gut belegt. Das Hauptziel dieses Projekts war es, die Auswirkungen einer 8-wöchigen hochintensiven Trainingsintervention auf die Informationsverarbeitung und Bewegungsausführung bei Personen mit PD zu bestimmen. Ein zweites Ziel war es, die Auswirkungen von Antiparkinson-Medikamenten in Bezug auf körperliche Betätigung auf motorische Kontrollprozesse zu verstehen. Die Daten wurden zu Studienbeginn (ohne und ohne Medikation) und nach Abschluss der Trainingsintervention (ohne Medikation) erhoben. Die Informationsverarbeitung und die motorische Ausführung wurden über einfache und ausgewählte Reaktionszeitparadigmen (SRT und CRT) auf einem mobilen Gerät bewertet. Weder Sport noch Medikamente beeinflussten die Informationsverarbeitung oder die Bewegungsausführung nach dem SRT-Paradigma. Unter CRT verbesserte das Training jedoch die Bewegungsausführung und Informationsverarbeitung: Die Gesamtzeit wurde signifikant von 814 auf 747 ms reduziert (;-;-;-;https://link.springer.com/article/10.1007/s00221-020-06009-0 175dc3ffb45d1f12ca00d213931cfc76;de;;;1.1.;;;Kontinuierlich variable Quanteninformationsverarbeitung mit gequetschten Lichtzuständen Wir untersuchen Experimente zur kontinuierlich-variablen Quanteninformationsverarbeitung basierend auf dem Teleportationsschema. Quantenteleportation, die durch einen gequetschten Zweimoden-Vakuumzustand und Messung-und-Feedforward realisiert wird, gilt als elementarer Quantenschaltkreis sowie als Quantenkommunikation. Durch Modifikation von Nebenzuständen oder Measurement-and-Feedforwards können wir verschiedene Quantenschaltungen realisieren, die für universelle Quantenberechnungen ausreichen. Um die auf Teleportation basierende Berechnung zu realisieren, verbessern wir den Grad des Quetschens und die Treue der Teleportation. Mit einem High-Fidelity-Teleporter demonstrieren wir einige fortgeschrittene Teleportationsexperimente, d. h. Teleportation eines gequetschten Zustands und sequentielle Teleportation eines kohärenten Zustands. Darüber hinaus bauen wir als Beispiel für die auf Teleportation basierende Berechnung ein QND-Interaktionsgatter, das ein kontinuierliches Analogon eines CNOT-Gatters ist. Ein QND-Interaktionsgatter wird nur mit zusätzlichen gequetschten Vakuumzuständen und Messung und Feedforward konstruiert. Wir erstellen auch eine kontinuierlich-variable Viermoden-Cluster-Verschränkung für weitere Anwendungen, nämlich Einweg-Quantenberechnungen.;-;-;-;https://link.springer.com/article/10.1134/S0030400X10020189 e8b30535e96c2a8535abefbef11e3619;de;;;1.1.;;;Vergleichende Analyse von Indikatoren der frühen Stadien der sensorischen und sensomotorischen Informationsverarbeitung bei Patienten mit aggressiver und nicht aggressiver Schizophrenie Es sollten die Charakteristika der frühen Stadien der sensorischen (Hemmung des ereignisbezogenen P50-Potentials) und sensomotorischen (Prästimulusmodifikation der akustischen Schreckreaktion (ASR)) bei Patienten mit Schizophrenie unter Berücksichtigung ihrer Verhaltensmerkmale untersucht werden.;-;-;-;https://link.springer.com/article/10.1007/s11055-020-01013-x 494bad0d49d56f146a4076bb22426f03;de;;;1.1.;;;Kohlenmonoxid-Exposition und Informationsverarbeitung während der wahrnehmungsmotorischen Leistung Diese Studie untersuchte den Einfluss einer Exposition gegenüber Kohlenmonoxid aus der Umgebung, was zu einem endgültigen Carboxyhämoglobin (COHb)-Spiegel von ungefähr 5,0% auf die Fähigkeit zur Verarbeitung von Informationen während der motorischen Leistung führte. Fächer (;-;-;-;https://link.springer.com/article/10.1007/BF00378349 afc7c24082ba03ca47c2d2853497b76e;de;;;1.1.;;;"Unterschiede in den frühen und späten Stadien der Informationsverarbeitung zwischen langsamen und schnellen Teilnehmern Das menschliche Gehirn ist ein System, das aus verschiedenen miteinander verbundenen neuronalen Netzen besteht, wobei funktionelle Spezialisierung mit funktioneller Integration sowohl zeitlich als auch räumlich auf vielen Ebenen koexistiert. Die aktuelle Studie ordnete und verglich schnelle und langsame Teilnehmer bei der Verarbeitung von Informationen durch die Bewertung der Latenz und Amplitude der frühen und späten Komponenten des ereignisbezogenen Potenzials (ERP), einschließlich P200, N200, prämotorisches Potenzial (PMP) und P300. Außerdem wurde die Reaktionszeit (RT) der Teilnehmer verglichen und auf die jeweiligen ERP-Komponenten bezogen. Dazu wurden 20 Rechtshänder und Gesunde einem klassischen ERP-""Oddball""-Paradigma unterzogen. Die Hauptkomponentenanalyse (PCA) und die Diskriminanzfunktionsanalyse (DFA) verwendeten PRE-Komponenten und die Reaktionszeit (RT), um Individuen zu klassifizieren. Unsere Ergebnisse zeigen, dass die Latenzen der Komponenten P200 (O2-Elektrode), N200 (O2), PMP (C3) und P300 (Pz) in der Gruppe der schnell reagierenden Teilnehmer deutlich reduziert sind. Außerdem wird die P200-Amplitude in der Gruppe der schnell reagierenden Teilnehmer deutlich erhöht. Basierend auf diesen Ergebnissen schlagen wir vor, dass das ERP auch minimale Beeinträchtigungen bei der Verarbeitung somatosensorischer Informationen und kognitiver und motorischer Phasen erkennen kann. Daher könnte die ERP-Studie auch in der Lage sein, sensomotorische Dysfunktionen bei gesunden älteren Menschen und bei neuropsychiatrischen Patienten (die an Demenz, Parkinson und anderen neurologischen Erkrankungen leiden) zu beurteilen.";-;-;-;https://link.springer.com/article/10.1186/1755-7682-7-49 1c3a4faf88e50d8e13fee400a6d60014;de;;;1.1.;;;Oberflächenimmobilisierte molekulare DNA-Maschinen für die Informationsverarbeitung Die mikroskopische Informationsverarbeitungsmaschinerie biologischer Zellen liefert Inspiration für das Gebiet der molekularen Berechnung und für die Verwendung synthetischer DNA zum Speichern und Verarbeiten von Informationen und Anweisungen. Ein einzelner Mikroliter Lösung kann Milliarden verschiedener DNA-Sequenzen enthalten, und folglich bietet die DNA-Berechnung ein enormes Potenzial für die parallele Verarbeitung. Herkömmliche Datenauslesesysteme sind jedoch komplex, und die verwendeten Verfahren eignen sich nicht gut für die Kombination mit Mainstream-Computerschaltungen. Die Immobilisierung von DNA-Maschinen auf Oberflächen kann die Integration molekularer Geräte mit herkömmlicher Elektronik ermöglichen, das Auslesen von Daten erleichtern und eine massiv parallele Verarbeitung mit geringem Stromverbrauch ermöglichen. Hier skizzieren wir einen allgemeinen Rahmen für hybride bioelektronische Systeme und beschreiben die Ergebnisse unserer vorläufigen Experimente mit auf einer Oberfläche immobilisierten dynamischen DNA-Strukturen, die mit QCM-D (Quarzkristall-Mikrowaage mit Dissipationsüberwachung) durchgeführt wurden, die den Einsatz akustischer Wellen beinhaltet um eine molekulare Schicht auf einem goldbeschichteten Quarzsensor zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23108-2_1 42b03f639a6bdeeea3b4619bc7aabd75;de;;;1.1.;;;Oszillationsaktivität und Cross-Frequency-Interaktionen im Hippocampus und vernetzten Hirnstrukturen während der sensorischen Informationsverarbeitung Es wurde vermutet, dass Schwingungen oder Rhythmen für die Ausführung vieler kognitiver Funktionen erforderlich sind, da sie schnelle und flexible Interaktionen zwischen Neuronen in verschiedenen Gehirnstrukturen unterstützen [Livanov, 1977, Fries, 2005, Womelsdorf et al., 2007]. Bis vor kurzem wurde der Frage, wie verschiedene Arten von Schwingungen bei der Verarbeitung von im Gehirn ankommenden Informationen synchronisiert werden, wenig Aufmerksamkeit geschenkt. Wir berichten hier über eine Analyse des Ausmaßes und der Zusammenhänge rhythmischer Aktivität im in-, α- und -Bereich bei Tieren in zwei Verhaltenszuständen: bei ruhigem Bewusstsein und bei der Wahrnehmung sensorischer Signale. Lokale Feldpotentiale (LFP) wurden in acht Hirnstrukturen (kortikal und subkortikal) aufgezeichnet. Viele Bereiche zeigten eine Zunahme der oszillatorischen Aktivität in verschiedenen Frequenzbändern bei der Abgabe von sensorischen Reizen. Das Hauptergebnis dieser Studie war eine starke Zunahme der Kreuzfrequenzinteraktionen aller Rhythmen sowohl in kortikalen als auch in subkortikalen Strukturen während der sensorischen Informationsverarbeitung. Wir schlagen vor, dass die Zunahme der interfrequenten Interaktionen zwischen verschiedenen Rhythmen in verschiedenen Teilen des Gehirns für eine detaillierte Bewertung von Umweltsignalen und ihre Registrierung im Gedächtnissystem erforderlich ist.;-;-;-;https://link.springer.com/article/10.1007/s11055-018-0627-z 08baede28c1d414ab4910ffc49751b20;de;;;1.1.;;;Informationsverarbeitung durch dynamische Interaktion oszillatorischer Moden in gekoppelten kortikalen Netzwerken Wir zeigen, wie hierarchische Netzwerke aus miteinander verbundenen oszillatorischen Netzwerkmodulen aufgebaut werden können, die zuvor als Modelle des olfaktorischen Kortex oder als Karikaturen von „Patches“ des Neokortex entwickelt wurden. Die Architektur ist so, dass das größere System selbst ein Sonderfall des Netzwerktyps der Submodule ist und mit den gleichen Werkzeugen analysiert werden kann, die zum Entwerfen der Subnetzwerkmodule verwendet wurden. Ein bestimmtes Subnetzwerk wird durch eine Menge neuronaler Populationen gebildet, deren Verbindungen auch Synapsen höherer Ordnung enthalten. Diese Synapsen bestimmen Attraktoren für dieses Teilnetzwerk unabhängig von anderen Teilnetzwerken. Jedes Teilnetzwerkmodul nimmt nur eine minimale Kopplung an, die durch die bekannte Anatomie gerechtfertigt ist. Ein;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-2001-8_14 2db3dd074c98e4a208e8737181d280a5;de;;;1.1.;;;Eine Rolle für die Membranform und die Informationsverarbeitung in der Herzphysiologie Während das Herz ein dynamisches Organ ist und eine seiner Hauptfunktionen darin besteht, den Organismus ausreichend mit Blut zu versorgen, sind die regulatorischen Rückkopplungssysteme, die eine Anpassung an hämodynamische Veränderungen ermöglichen, noch nicht gut verstanden. Unsere aktuelle Beschreibung der Mechanosensation konzentriert sich auf dehnungsempfindliche Ionenkanäle, Zytoskelett-Komponenten, Strukturen wie die sarkomerische Z-Scheibe, Costamere, Caveolae oder das Konzept der Tensegrity, aber diese Modelle erscheinen unvollständig als die bemerkenswerte Plastizität des Myokards als Reaktion auf biomechanischer Stress und Herzfrequenzschwankungen bleiben ungeklärt. Die Signalaktivität an Membranen hängt von ihren geometrischen Parametern wie Oberfläche und Krümmung ab, die die Form mit der Informationsverarbeitung verknüpft. Im Herzen verändern kontinuierliche Kontraktions- und Relaxationszyklen die Membranmorphologie und beeinflussen somit die kardiomechanische Signalübertragung. Dieser Artikel bietet einen kurzen Überblick über aktuelle Modelle der Mechanosensation und konzentriert sich darauf, wie Signalübertragung, Herzmuskelzellendynamik und Membranform interagieren und möglicherweise zu einem selbstorganisierten System führen, das die Form nutzt, um die extra- und intrazelluläre Umgebung zu erfassen. Dieses neuartige Konzept könnte helfen zu erklären, wie sich Änderungen der Frequenz und damit der Membranform auf die kardiale Plastizität auswirken. Eine der Schlussfolgerungen ist, dass Hypertrophie und damit verbundene Fibrose, die als notwendig erachtet wurden, um mit erhöhtem Wandstress fertig zu werden, auch als Teil komplexer Rückkopplungssysteme angesehen werden können, die lokale Membraninhomogenitäten in verschiedenen Herzzelltypen nutzen, um die gesamte Organphysiologie zu beeinflussen und die Es wird vorhergesagt, dass sie die membranvermittelte Signalübertragung feinabstimmen und somit regulieren.;-;-;-;https://link.springer.com/article/10.1007/s00424-014-1575-2 5544f49284f3232e32232cbc0ed8f1ac;de;;;1.1.;;;Informationsverarbeitung in Forschung und Routine-Nuklearkardiologie Nuklearmedizin ist die Anwendung radioaktiver Stoffe zur Diagnose und Behandlung von Patienten und zur Erforschung menschlicher Krankheiten. Es ist ein schnell wachsendes Fachgebiet, hauptsächlich weil seine diagnostischen Instrumente nicht aggressiv und nicht-invasiv sind. Sie lässt sich in zwei Bereiche unterteilen: die In-vitro-Techniken, bei denen Blut-, Urinproben etc. nach Inkubation mit radioaktiven Stoffen untersucht werden und die In-vivo-Techniken, bei denen nicht nur die räumliche Verteilung aber auch sein zeitlicher Verlauf kann extern gemessen werden. Die Nuklearkardiologie ist eine der In-vivo-Techniken und bietet die Beurteilung wesentlicher Herzparameter wie Herzzeitvolumen, Auswurffraktion, intrakardialer Shunt etc., wobei auch Wandbewegungsstörungen und koronare Perfusionsdefekte visualisiert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-93095-9_15 8266fb8a65a1e2fed12625379c543bd5;de;;;1.1.;;;Freundschaftsqualität und soziale Informationsverarbeitung bei klinisch ängstlichen Kindern Der Zusammenhang zwischen wahrgenommener Freundschaftsqualität (FQ) und sozialer Informationsverarbeitung (SIP) wurde in drei Gruppen von Kindern und ihren engen Freunden im Alter von 7–12 Jahren untersucht: 16 angstgestörte Kinder mit sozialer Phobie (SP), 12 angstgestörte Kinder ohne SP (No-SP) und 32 nichtklinische Kinder. Positiver und negativer FQ ist positiv mit der positiven und negativen Reaktion der Zielkinder auf eine Vignettenmessung von SIP verbunden. SP-Kinder berichteten über niedrigere positive SIP als No-SP, aber nicht nicht-klinische Kinder, und dies war der einzige Gruppenunterschied beim SIP. Zielkinder und ihre Freunde waren im negativen, aber nicht im positiven SIP ähnlich. Nach Diskussion über die Vignette mit einem engen Freund nahmen alle Zielkinder im positiven SIP zu, negativer SIP änderte sich nicht. Niedrigere FQ und ein sozial ängstlicher Freund sagten nach der Diskussion einen höheren negativen Ziel-Kind-SIP voraus. Enge Freundschaften spielen bei der SIP von klinischen und nichtklinischen Kindern eine wichtige Rolle.;-;-;-;https://link.springer.com/article/10.1007/s10578-013-0374-x ad2419e7e2ed44714a7a5113cfe48d68;de;;;1.1.;;;Informationsverarbeitungskomponenten des auditiven ereignisbezogenen Potenzials werden durch Kokain reduziert Die Auswirkungen von Kokain auf ein menschliches elektroenzephalographisches ereignisbezogenes Potenzial (ERP) wurden gemessen. 48 Probanden erhielten eine von drei IV-Dosen (0,2, 0,4 oder 0,6 mg/kg) und Placebo. Dreiunddreißig Probanden erhielten eine von drei oralen Dosen (2, 3 oder 4 mg/kg). Alle IV- und oralen Dosen reduzierten die Amplitude der auditiven ERP P200- und P300-Komponenten während der Oddball-Aufgabe. P200-Latenz verringert. Die N100-Amplitude wurde nur nach IV-Verabreichung reduziert. Die Veränderungen der ERPs traten während des Zeitraums der höchsten kardiovaskulären und subjektiven Wirkungen auf.;-;-;-;https://link.springer.com/article/10.1007/BF00431804 a8e9672b60b1c3b5b28e382643a8ca96;de;;;1.1.;;;Parallele Informationsverarbeitung mit einem Reservoir-Computing-System basierend auf miteinander gekoppelten Halbleiterlasern Über die nichtlineare Kanalentzerrung und die Santa-Fe-Zeitreihenvorhersage wird die Parallelverarbeitungsfähigkeit eines Reservoir-Computing (RC)-Systems basierend auf zwei miteinander gekoppelten Halbleiterlasern numerisch demonstriert. Die Ergebnisse zeigen, dass für die parallele Verarbeitung der Vorhersageaufgaben von zwei Santa-Fe-Zeitreihen mit Raten von 0,25 GSa/s die minimalen Vorhersagefehler 3,8 × 10 . betragen;-;-;-;https://link.springer.com/article/10.1007/s00340-019-7351-4 9ab85c09dcd201b55d34f73c0960def2;de;;;1.1.;;;Experimente zur Quanteninformationsverarbeitung unter Verwendung von Kern- und Elektronenspins in Molekülen Kernspins und Elektronenspins in Molekülen haben relativ lange Dekohärenzzeiten, bieten geeignete Wechselwirkungen für den Einsatz in Quantengatter-Operationen und können mit Magnetresonanztechniken kontrolliert werden. In diesem Kapitel werden unter dem Gesichtspunkt der Verwendung dieser Spins für die Quanteninformationsverarbeitung Hamiltonsche Engineering-Methoden und Hardware für die Hyperpräzisionssteuerung entwickelt. Darüber hinaus werden Hyperpolarisationstechniken zur Spin-Initialisierung und ein Spin-Amplifikationsverfahren zur Detektion entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-55756-2_27 a42b90e2717eea9c0a0189bbd5920896;de;;;1.1.;;;Zeitliche Informationsverarbeitung und Sprachkompetenz bei Kindern mit spezifischen Sprachbehinderungen Defizite in der zeitlichen Informationsverarbeitung (TIP) wurden als einer der entscheidenden Mechanismen vorgeschlagen, die Sprachstörungen zugrunde liegen. Ziel der vorliegenden Studie war es, den Zusammenhang zwischen TIP und Sprachkenntnissen bei Kindern mit Spezifischer Sprachstörung (SLI) zu untersuchen. Im Falle von SLI sind normale Muster des Spracherwerbs gestört, während seine Ätiologie nicht mit neurologischen oder umweltbedingten Faktoren verbunden ist. In der vorliegenden Arbeit haben wir bei siebenundzwanzig SLI-Kindern im Alter von 5 bis 8 Jahren sowohl die Effizienz von TIP als auch die Sprachkenntnisse untersucht. Das Ergebnis zeigte eine signifikante Korrelation zwischen der Effizienz von TIP und den globalen Sprachkenntnissen. Diese Daten können einen weiteren Beweis für die Debatte über die SLI-Ätiologie liefern, indem sie Anomalien bei der auditiven Informationsverarbeitung bei SLI-Kindern bestätigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-28109-4_5 9fdbedbcf6db0564c55d9aa49bd8ecf2;de;;;1.1.;;;Selektive Informationsverarbeitung Frühere Studien haben gezeigt, dass Probanden bei bestimmten Aufgaben nicht in der Lage sind, sich gezielt auf bestimmte Bereiche einer visuellen Darstellung zu konzentrieren, selbst wenn sie dazu aufgefordert werden. Eine neuere Studie (Graves, 1976) hat jedoch das Konzept der selektiven Aufmerksamkeit verwendet, um den Unterschied zwischen der Anzahl der Elemente, die bei Aufgaben zur Erkennung erzwungener Entscheidungen verarbeitet werden, und der Anzahl, die bei Aufgaben mit vollständigen Berichten verarbeitet werden, zu erklären. Graves schlug vor, dass bei der Erkennungsaufgabe nur die Identifizierungsverarbeitung erforderlich ist, während bei der vollständigen Berichtsaufgabe sowohl die Identifizierungs- als auch die Positionsverarbeitung erforderlich ist. Ein Problem bei Graves' Aufgabe besteht darin, dass sie nach der Stimuluspräsentation eine Gedächtnissuche erfordert, was wahrscheinlich die vorhergesagte Anzahl der verarbeiteten Elemente reduziert. Das hier berichtete Experiment verwendete teilweise gefüllte Arrays und erforderte Antworten, die nur auf Positionsverarbeitung oder nur Identifikationsverarbeitung oder auf beiden Verarbeitungsarten basieren. In direktem Widerspruch zu Graves’ Schlussfolgerungen zeigten die Ergebnisse, dass Probanden zwar die Identifikationsverarbeitung hemmen konnten, während sie mit der Positionsverarbeitung beschäftigt waren, das Gegenteil jedoch nicht der Fall war. Darüber hinaus erwies sich die Positionsverarbeitung als schneller als die Identifizierungsverarbeitung.;-;-;-;https://link.springer.com/article/10.3758/BF03197384 196d53ad6d983183b7f87b3cb91c1734;de;;;1.1.;;;Haptische Informationsverarbeitung in direkten und indirekten Gedächtnistests Lerneffekte können sich in einer direkten, d.h. d.h. auf eine explizite Art und Weise oder sie können indirekt ausgedrückt werden, d.h. h. implizit. Es wurde untersucht, ob motorischen Prozessen Auswirkungen des Wiederholungsprimings bei der haptischen Informationsexploration zugrunde liegen. In der Testphase mussten Probanden mit verbundenen Augen Gegenstände anfassen, um möglichst schnell Fragen zu deren Eigenschaften (z. Einige der Objekte waren alte (in einer Studienphase präsentiert), andere kamen als neue Objekte in die Testphase. Außerdem waren Anerkennungsurteile erforderlich. Die Ergebnisse zeigten bei Probanden, die in der Studienphase gleich behandelt wurden (Active Touch), verlässliche Effekte des Repetition Priming hinsichtlich der Reaktionszeiten auf alte im Vergleich zu neuen Objekten. Passives Berühren beim Codieren oder Studieren der Namen oder der sichtbaren Objekte selbst führte in der Testphase nicht zu Effekten des Wiederholungsprimings. Andererseits verbesserte die Durchführung angemessener Handbewegungen während der Studie das Erkennungsgedächtnis. Die Rolle motorischer Prozesse bei indirekten und direkten Gedächtnistests wird diskutiert und mit der Erforschung des Gedächtnisses von Handlungsereignissen in Verbindung gebracht.;-;-;-;https://link.springer.com/article/10.1007/BF01371824 5c39644661983a39d67ab2f2f25333c1;de;;;1.1.;;;Durch lichtunterstützte Kollisionen konsequent einzelne Atome für die Quanteninformationsverarbeitung isolieren Wir zählen eine kleine Anzahl von Atomen, die in einer optischen Mikrofalle gefangen sind, indem wir Fluoreszenz verwenden, die durch eine stehende Welle von blau verstimmtem Licht induziert wird. Blauverstimmtes Licht begrenzt die Verluste durch lichtunterstützte Kollisionen und ermöglicht es uns, die gefangenen Atome weiter zu manipulieren. Wenn ein Paar gefangener Atome auf diese Weise detektiert wird, wenden wir einen maßgeschneiderten Laserlichtpuls an, um lichtunterstützte Kollisionen zu induzieren. Wir beobachten direkt, dass diese Kollisionen dazu führen, dass entweder eines oder beide Atome aus der Mikrofalle verloren gehen. Durch Optimierung der Frequenz und Intensität des Laserstrahls, der die lichtunterstützten Kollisionen auslöst, kann ein Atomverlust gegenüber dem Paarverlust dominiert werden. Wir zeigen, dass dieser optimierte lichtunterstützte Stoßimpuls in einer von ~50 Atomen besetzten Mikrofalle alle außer einem Atom effizient ausstoßen kann. Dieses Verfahren kann verwendet werden, um viele einfach besetzte Mikrofallen für eine auf neutralen Atomen basierende Quantenberechnungsvorrichtung vorzubereiten.;-;-;-;https://link.springer.com/article/10.1007/s11128-011-0304-4 09415c27d6475327c6f01482d5da0dfc;de;;;1.1.;;;Auswirkungen der Modalitätskategorisierung auf die unimodale und intermodale sequentielle Informationsverarbeitung bei Normal- und Retardierten Pulssequenzen unterschiedlicher Länge wurden einer einzigen Modalität präsentiert, wechselten zwischen zwei Modalitäten und wechselten zwischen drei Modalitäten bei jugendlichen, erziehbaren Retardierten, gleichaltrigen Normalen des geistigen Alters und gleichen chronologischen Altersnormalen. Ss gab die Anzahl der Impulse in jeder Modalität an. Die Fehler nahmen signifikant in der Reihenfolge R > MA > CA mit zunehmender Anzahl und von den unimodalen zu den multimodalen Bedingungen zu. Im Vergleich zu einer früheren Studie, in der Ss die Gesamtzahl der Stimuli in identischen Sequenzen wie hier angegeben angab, machten alle Gruppen unter den beiden multimodalen Bedingungen signifikant kleinere Fehler und die Fehlerreduktion lag überwiegend in der Größenordnung von Unterschätzungen. Es wurde der Schluss gezogen, dass Anweisungen zum Melden von Pulsen in jeder Modalität die Aufmerksamkeitstiefe für einzelne Reize verringerten, wodurch die Umschaltzeit von einer Modalität zur anderen verkürzt wurde.;-;-;-;https://link.springer.com/article/10.3758/BF03328949 a23519ad5645c7371a1a3c95240920d1;de;;;1.1.;;;Informationsverarbeitung: Die Auswirkungen unterschiedlicher Musterkomplexität und Eingaberate Es wurde gezeigt, dass die Musterkomplexität bei der Beeinflussung der Informationsverarbeitung mit der Eingaberate interagiert. Bei hoher Rate schnitt Ss bei einfachen Problemen besser ab als bei komplexen Problemen, bei moderater Rate war das Gegenteil der Fall. Ss mit hoher Rate erinnerten sich auch an weniger Hinweise und verwendeten einen geringeren Anteil der Hinweise, an die sie sich erinnerten.;-;-;-;https://link.springer.com/article/10.3758/BF03328051 98b9ac01f316362d900b8e2c07a3f53c;de;;;1.1.;;;Die Auswirkungen von Benzodiazepinen auf das Kurzzeitgedächtnis und die Informationsverarbeitung Die Auswirkungen von Flunitrazepam 1 mg, Triazolam 0,25 mg, Lormetazepam 1 mg und Placebo auf die Stadien der Informationsverarbeitung in einer Sternberg-Gedächtnis-Scanning-Aufgabe wurden an zehn gesunden Probanden untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-69659-6_15 4d5116d30882b9840e78ec4d84f32b3e;de;;;1.1.;;;Eine Tabellenkalkulation der frühen Phasen der visuellen Informationsverarbeitung Eine Tabellenkalkulation wurde verwendet, um eine Computersimulation der frühen Stadien der visuellen Informationsverarbeitung zu erstellen, insbesondere der Verarbeitung, die in der Netzhaut, im Nucleus geniculatum laterale und im visuellen Kortex stattfindet. Die Simulation basierte auf einem mathematischen Modell von Marr (1982), das den Prozess der Lokalisierung von Kanten oder Grenzen und deren Unterscheidung von anderen Intensitätsänderungen in der visuellen Eingabe berücksichtigt. Die Simulation stützte sich auf zwei von Marr vorgeschlagene Mechanismen. Ein Mechanismus integrierte Eingaben aus einer Region der Netzhaut, um Intensitätsänderungen in ein funktionelles Muster abzubilden, das als Nulldurchgang bezeichnet wird. Der andere Mechanismus unterschied Kanten von anderen Arten von Intensitätsänderungen, indem er vorschlug, dass Kanten und nur Kanten als räumlich zusammenfallende Nulldurchgänge über einen Bereich von Netzhautfeldgrößen sichtbar sind. Die Simulation verkörperte diese Prinzipien in einem Tabellenkalkulationsmodell mit drei Schichten: eine, die Intensitätsänderungen auf Nulldurchgänge abbildete, eine andere, die diese Nulldurchgänge erfasste, und eine dritte, die räumliche Koinzidenz über Netzhautfelder unterschiedlicher Breite erfasst. Die Simulation war in der Lage, Kanten (Muster mit abrupten Intensitätsänderungen) und im Rauschen vergrabene Kanten von gleichförmigen Eingabemustern, Mustern mit allmählichen Intensitätsänderungen und zufälligen Rauschmustern zu unterscheiden.;-;-;-;https://link.springer.com/article/10.3758/BF03203769 4b5779c9d5fedd24b1c0d6ac6b94af3a;de;;;1.1.;;;Binokulare Tiefeninversion als Paradigma reduzierter visueller Informationsverarbeitung im Prodromalstadium, antipsychotisch-naiver und behandelter Schizophrenie Der binokulare Tiefeninversions-Illusionstest (BDII) stellt ein sensibles Maß für eine beeinträchtigte visuelle Informationsverarbeitung dar, die sich in verschiedenen experimentellen und natürlich vorkommenden psychotischen Zuständen manifestiert. Diese Studie untersucht die Beeinträchtigung der visuellen Verarbeitung bei verschiedenen schwerwiegenden psychiatrischen Erkrankungen an 313 Probanden, die entweder an einem initialen prodromalen Zustand der Psychose (IPS) oder einer Erstepisode, einer antipsychotisch-naiven paranoiden Schizophrenie (SZ-N) sowie einer kurzfristigen antipsychotisch behandelte Schizophrenie (SZ-T), Major Depression (MDD), bipolare Störung (BD), Demenz (D) und gesunde Kontrollpersonen (HC). Patienten mit IPS, SZ-N oder SZ-T zeigten im Vergleich zu HC signifikant höhere BDII-Werte, was darauf hindeutet, dass die visuelle Verarbeitung bereits in einem frühen Stadium der Erkrankung gestört ist. Für MDD, BD und D wurde kein statistisch signifikanter Unterschied zu HC gefunden. Da die Identifizierung von Personen mit hohem Risiko für die Entwicklung von Schizophrenie auf Bewertungsskalen beruht, die eine subtile, präpsychotische Psychopathologie bewerten, wäre es von Interesse, mehr diagnostische Kriterien zur Verfügung zu haben, die Tests, z. kognitive und Wahrnehmungsstörungen. Wir analysierten daher die Receiver Operating Characteristic (ROC)-Kurve und testeten Prodromalfälle gegenüber einer klinisch relevanten Stichprobe von nicht-psychotischen Patienten und Kontrollen, die HC sowie die Gruppen von Patienten mit MDD, BD oder D umfassten, die eine AUC von 0,70 aufwiesen . Somit kann der BDII als zusätzlicher neuropsychologischer Test zur Beurteilung von Patienten mit hohem Risiko für die Entwicklung von Schizophrenie nützlich sein.;-;-;-;https://link.springer.com/article/10.1007/s00406-008-0851-6 bf7c237202c10b07847045862bb15a90;de;;;1.1.;;;Zufällige nichtlineare Schichtstrukturen als Quellen von Photonenpaaren für die Quanteninformationsverarbeitung Es hat sich herausgestellt, dass zufällige nichtlineare Schichtstrukturen eine nützliche Quelle für Photonenpaare mit perfekt nicht unterscheidbaren unverschränkten Photonen sind, die in einen sehr engen Spektralbereich emittiert werden. Die Lokalisierung der wechselwirkenden optischen Felder, die für zufällige Strukturen typisch sind, führt zu relativ hohen Photonenpaarflüssen. Durch Überlagern von Photonenpaar-Emissionsquantenpfaden bei unterschiedlichen Emissionswinkeln können leicht mehrere Arten von Zweiphotonenzuständen (einschließlich Zuständen mit übereinstimmenden Frequenzen) erzeugt werden, die bei der Quanteninformationsverarbeitung nützlich sind.;-;-;-;https://link.springer.com/article/10.1007/s10946-009-9104-z 881dbba6ec86387f544ef70831c09278;de;;;1.1.;;;Diskriminierung und Übereinstimmung innerhalb und zwischen Farbtönen gemessen an Reaktionszeiten: einige Implikationen für die kategoriale Wahrnehmung und das Niveau der Informationsverarbeitung Die gleichen unterschiedlichen Reaktionszeiten (RTs) wurden für Paare von Farbproben erhalten, die wahrnehmungsbezogen von Blau bis Grün reichten. In Experiment 1 antworteten die Beobachter mit „gleich“, wenn beide Stimuli in einem Paar aus derselben Farbtonkategorie stammten (z -grün oder grün-blau). Die RT für „gleiche“ Reaktionen war bei Paaren physikalisch identischer Reize schneller (;-;-;-;https://link.springer.com/article/10.1007/BF00308884 9dc534805175c47e256d7669a47ba16d;de;;;1.1.;;;Informationsverarbeitung in gerichteten Medien Direktionale Medien werden von entscheidungsorientierten Verbrauchern verwendet, um Lieferanten auszuwählen. Es wird angenommen, dass die hohe Beteiligung dieser Verbraucher an Werbebotschaften zu einer zentralen Verarbeitung von Werbeinhalten und der systematischen Auswahl und Verarbeitung relativ großer Aufmerksamkeits- und Anrufergruppen führt, es sei denn, sie werden durch mangelnde Fähigkeiten und/oder Gelegenheiten eingeschränkt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-17320-7_56 3cdcdd0fa09a54f3f967a0470e0af100;de;;;1.1.;;;Mikrotubuli-Netzwerke als Medium zur adaptiven Informationsverarbeitung Mikrotubuli sind Proteinstrukturen, die zellspezifische Organisationen entwickeln und von denen bekannt ist, dass sie eine wichtige Rolle bei der Zellmorphologie, dem Proteintransport und der Organellenstruktur spielen. Mikrotubuli wurden auch als Medium für die intrazelluläre Signalübertragung über große Entfernungen vorgeschlagen. Wir berichten über ein gekoppeltes Oszillatormodell der adaptiven Signalverarbeitung, das durch Mikrotubuli-Organisation und Wachstumsdynamik motiviert ist. Die Arbeitshypothese ist, dass Mikrotubuli und assoziierte Proteine ​​als schnelles Signalintegrationssystem innerhalb von Neuronen dienen und dass die durch dieses Gitter bewirkte Input-Output-Transformation durch adaptive Selbststabilisierung (im Wesentlichen Fehlerrückkopplung, die auf die Mikrotubulusorganisation wirkt) geformt wird.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0040798 4bdf025791af52c2e661adc5b22713c5;de;;;1.1.;;;Framing-Effekte aus der Informationsverarbeitung Menschen ziehen einen sicheren Gewinn einem wahrscheinlich größeren Gewinn vor, wenn die beiden Wahlmöglichkeiten aus einer Gewinnperspektive präsentiert werden, aber einen wahrscheinlich größeren Verlust einem sicheren Verlust, wenn die objektiv identischen Wahlmöglichkeiten aus einer Verlustperspektive präsentiert werden. Solche Präferenzumkehrungen aufgrund des Problemkontextes sind bekannt als;-;-;-;https://link.springer.com/article/10.3758/BF03197268 4b1c98d51b92c50d2ebc3f3671077fc4;de;;;1.1.;;;Die Auswirkungen von Ergotamin-induzierten Kopfschmerzen und Ergotamin-Entzug auf die Informationsverarbeitung Ergotaminmissbrauch und nachfolgende ergotamininduzierte Kopfschmerzen sind ein häufiges Problem bei der pharmakologischen Behandlung von Migräne und anderen Kopfschmerzarten, oft ist eine Entzugstherapie erforderlich. In dieser Studie wurde untersucht, ob Ergotaminmissbrauch die Informationsverarbeitung beeinflusst und ob eine Entzugstherapie zu einer Verbesserung der Informationsverarbeitung führen kann. Wir konzipierten eine standardisierte neurophysiologische retrospektive (Ergotaminmissbrauch) und prospektive (Ergotaminentzug) Studie in einer überregionalen Kopfschmerzambulanz. 71 Patienten, die Ergotaminderivate mit anschließenden täglichen Kopfschmerzen missbrauchten, wurden eingeschlossen und mit 36 ​​Migränepatienten ohne Ergotaminaufnahme und 36 gesunden Probanden verglichen. Die Informationsverarbeitung wurde anhand von Latenzen und Amplituden visuell evozierter ereignisbezogener Potenziale (ERP) vor und nach der Ergotamin-Entzugstherapie bewertet. Die P3-Latenz des ERP war bei Ergotaminmissbrauch (442 ± 45 ms) gegenüber Migräne (415 ± 40 ms) und bei gesunden Probanden (410 ± 33 ms) signifikant erhöht, es gab keinen Unterschied zwischen Ergotamintartrat und Dihydroergotaminmissbrauch. Der migränespezifische Gewöhnungsverlust bei der Informationsverarbeitung, gemessen an der P3-Latenz, konnte bei Migränepatienten mit Ergotaminmissbrauch nicht beobachtet werden. Nach erfolgreicher Entzugstherapie bei 36 Patienten war die abnorm verlängerte P3-Latenz signifikant verkürzt (452 ​​± 47 ms versus 433 ± 30 ms,;-;-;-;https://link.springer.com/article/10.1007/s002130050862 a1ee647d8942983e624efbe14e52c695;de;;;1.1.;;;Die Auswirkungen von Vorinformationen auf die menschliche Informationsverarbeitung in einer Entscheidungsreaktionsaufgabe Es wurde eine Studie durchgeführt, um die Fähigkeit des Menschen zu untersuchen, die Vorabinformationen zu nutzen, was die Unsicherheit im Zusammenhang mit der bevorstehenden Studie in einer Entscheidungsreaktionsaufgabe erheblich reduziert. Jede von acht Ss wurde unter drei experimentellen Bedingungen durchgeführt: (1) eine Sechs-Auswahl-Bedingung mit 2,58 Bit durchschnittlicher Reizunsicherheit, (2) eine Vier-Auswahl-Bedingung mit nur 0,99 Bit durchschnittlicher Reizunsicherheit und (3) eine Bedingung bestehend aus einer randomisierten Zusammenführung der Stimulussequenzen, die in den beiden vorherigen Bedingungen verwendet wurden, bei denen Informationen bezüglich der Unsicherheit (dh 2,58 oder 0,99 Bits), die mit dem bevorstehenden Versuch verbunden sind, 5, 1 oder 2 Sekunden vor der Präsentation des Reizsignal. Es wurde festgestellt, dass die Ss Vorabinformationen zuverlässig nutzen konnten, um ihre Reaktionszeit zu verkürzen, solange die Verzögerung zwischen den Vorabinformationen und dem Stimulussignal 1 Sekunde oder länger betrug. Darüber hinaus wurde festgestellt, dass Vorabinformationen wenig Einfluss auf sequentielle Effekte erster und zweiter Ordnung hatten, die üblicherweise in Daten zur Wahlreaktionszeit gefunden werden.;-;-;-;https://link.springer.com/article/10.3758/BF03335555 b23a26749e2cb1e67e92414193f4de5b;de;;;1.1.;;;Cat Superior Olivary Complex (SOC): Die Basis der binauralen Informationsverarbeitung Das SOC ist die erste Station in der aufsteigenden Hörbahn, an der binaurale Interaktionen auftreten und Läsionen der Bahn zum und vom SOC zu einer beeinträchtigten Schalllokalisationsfähigkeit führen (Jenkins und Masterton 1982). Die beiden wichtigsten Hinweise für die Lokalisierung einer Schallquelle sind Unterschiede in der Ankunftszeit an den beiden Ohren (Δtime) und interaurale Intensitätsunterschiede aufgrund von Schallschatten durch den Kopf (Δint). Die Schallabschattung durch den Kopf ist frequenzabhängig, bei der Katze zeigt sich bei und über 2 kHz ein maximales Δint von 15–20 dB, das unter 1 kHz auf etwa 0 sinkt (Wiener et al., 1966). Umgekehrt sind interaurale Phasenunterschiede (Δpha) nur unterhalb von etwa 1 kHz wichtig, wo eine signifikante Menge an phasenstarrer Information in der Entladung der primären Hörfasern vorhanden ist. Die beiden wichtigsten binauralen Kerne sind der laterale (LSO) und der mediale (MSO) superiore Olivenkern. Der Hauptzelltyp in der LSO ist ipsilateral exzitatorisch/kontralateral inhibitorisch (EI) mit hohem CF i. e. empfindlich auf Aint (Tsuchitani 1977) und der wichtigste MSO-Zelltyp ist niederfrequenter binauraler Exzitator (EE), oft mit ipsi (Ee) oder contra (eE) Ohr dominant (Guinan et al., 1972). Es wurde vorgeschlagen, dass das LSO die Hochfrequenz Aint und das MSO die Niederfrequenz time/Δpha kodiert (Masterton und Diamond, 1967). Diese Annahme ist implizit in Studien zur -Zeitverarbeitung im SOC enthalten, die auf das MSO beschränkt wurden. Diese Studie ist die erste, die den Effekt der Δtime auf LSO-Zellen untersucht. Dieser Punkt ist wichtig, da hochfrequente Signale auf der Grundlage der -Zeit lokalisiert werden können, vorausgesetzt, dass irgendeine Form von Amplitudenmodulation vorhanden ist (McFadden und Pasanen, 1976). Man kann also zwischen Δpha, fortlaufenden Zeitunterschieden eines kontinuierlichen periodischen Signals und ΔZeit, vorübergehenden Zeitunterschieden in der Hüllkurve eines beliebigen Signals unterscheiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-69257-4_32 679b6c7bc6745f16071dd6f7582674f2;de;;;1.1.;;;Untersuchung der Kontrollleistung in der Quanteninformationsverarbeitung Den grundlegenden Gating-Operationen für die Quanteninformationsverarbeitung (QIP) liegt eine große Vielfalt an Physik zugrunde. Ein Schlüsselaspekt eines QIP-Systems ist, wie Rauschen während Quantenoperationen eindringen kann und wie die Unterdrückung oder Korrektur seiner Auswirkungen am besten angegangen werden kann. Quantenkontrolltechniken wurden speziell entwickelt, um diese Bemühungen anzugehen, obwohl eine detaillierte Klassifizierung der Kompatibilität von Kontrollschemata mit Rauschquellen, die in üblichen Quantensystemen gefunden werden, noch nicht durchgeführt wurde. Diese Arbeit untersucht numerisch die Leistung moderner Kontrollmethoden zur Unterdrückung von Dekohärenz in Gegenwart von Rauschformen, die in lebensfähigen Quantensystemen vorkommen. Die rauschgemittelte Prozessmatrix für kontrollierte Ein-Qubit- und Zwei-Qubit-Operationen wird über das Rauschen berechnet, das in Systemen gefunden wird, die von der offenen Markovaschen Quantendynamik angetrieben werden. Anstatt das absolut beste Kontrollschema für einen gegebenen physikalischen Umstand zu beschreiben, dient diese Arbeit stattdessen dazu, das Quantenkontrollverhalten über eine große Klasse von Rauschformen zu klassifizieren, sodass Möglichkeiten zur Verbesserung der QIP-Leistung identifiziert werden können.;-;-;-;https://link.springer.com/article/10.1007/s11128-016-1406-9 d318992d6bb46a4516f2f16f61cef664;de;;;1.1.;;;Analyse des morphologischen Substrats für die Informationsverarbeitung im pallidalen Kernkomplex des Hundegehirns im Hinblick auf die organisatorischen Eigenschaften seiner afferenten Projektionen Der axonale Transport retrograder Marker wurde verwendet, um die Verteilung der afferenten Projektionen der Kerne des Pallidalkomplexes (des Globus pallidus, des Nucleus entopeduncularis und des ventralen Pallidums) von funktionell unterschiedlichen kortikalen und subkortikalen Strukturen (kortikale Felder, Substantia nigra, ventrales Tegmentalfeld und Thalamus) im Hundegehirn. Die Ergebnisse wurden verwendet, um die morphologischen Aspekte sowohl der funktionellen Heterogenität des Pallidums als auch der integrativen Informationsverarbeitung zu analysieren, die den Mechanismen adaptiven Verhaltens zugrunde liegen.;-;-;-;https://link.springer.com/article/10.1023/B%3ANEAB.0000012806.87738.74 52a47839a0aed986a0dfd219997f86dd;de;;;1.1.;;;Charakteristische Auswirkungen von Anzeigeschwierigkeiten auf die Informationsverarbeitung Die Forschung in diesem Papier untersucht die Auswirkungen von zwei häufigen Arten von Schwierigkeiten aufgrund der Informationsanzeige, die von Verbrauchern angetroffen werden: Format und Organisation. Die Ergebnisse einer Studie zeigen, dass Schwierigkeiten aufgrund von Format und/oder Organisation vorhersehbare Auswirkungen auf Reaktionszeiten, Informationsbeschaffung, Verarbeitungsstrategien und Vertrauen in die Wahl haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13162-7_8 2a58dbb36b4680a9d11f66f84d8d9f30;de;;;1.1.;;;Lormetazepam, Gedächtnis und Informationsverarbeitung: Ein Rückblick Die Literatur zur Psychopharmakologie von Lormetazepam wurde überprüft. Studienergebnisse zeigen, dass nach nächtlichen Dosen von 2 mg am Morgen ein allgemeiner Kater auftreten kann. Erkenntnisse aus neueren Arbeiten haben gezeigt, dass die 1,5-mg-Dosis den Abruf von Informationen aus dem Kurzzeitgedächtnis stören kann. Lormetazepam 1 mg hat keine sedierende Wirkung. Eine psychopharmakodynamische Studie am Tag zeigte, dass Lormetazepam 1–2 mg 5 h nach Einnahme des Arzneimittels keine störenden Wirkungen hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-73288-1_12 d9376ea52fce5d78f119355d2a058810;de;;;1.1.;;;Scopolamin und Lorazepam üben unterschiedliche Wirkungsmuster in einer Testbatterie aus, die Stadien der Informationsverarbeitung bewertet Die Wirkungen einer Einzeldosis von Scopolamin (0,5 mg) s.c. und von Lorazepam (2,5 mg) PO wurden in zwei unabhängigen Studien auf ihre Wirkung auf die Leistung in einer psychometrischen Batterie getestet, die Funktionen in Bezug auf verschiedene Stufen der Informationsverarbeitung maß. Aufmerksamkeit und Wachsamkeit wurden durch eine kontinuierliche Aufmerksamkeitsaufgabe bzw. eine Wachsamkeitsaufgabe gemessen. Arbeitsgedächtnis und logisches Denken wurden durch die Aufgabe der schnellen Informationsverarbeitung und des logischen Denkens bewertet, Gedächtniserwerb und -speicherung wurden durch sofortigen und verzögerten Abruf vor und nach der Einnahme mit visuellem Material gemessen. Es zeigte sich folgendes Wirkungsmuster: Sowohl Scopolamin als auch Lorazepam beeinträchtigten die Leistung bei Aufmerksamkeits- und Vigilanzaufgaben sowie bei der schnellen Informationsverarbeitung signifikant (;-;-;-;https://link.springer.com/article/10.1007/BF02246298 2b862593faeca82f1981c9f09f441010;de;;;1.1.;;;Die Rolle der Kritikalität in der flexiblen visuellen Informationsverarbeitung Dynamische Systeme nahe einem kritischen Zustand haben die Fähigkeit, spontan eine große Anzahl von Einheiten an kollektiven Ereignissen, sogenannten Lawinen, zu beteiligen – aber wie kann diese Eigenschaft vom Gehirn aktiv genutzt werden, um unter realistischen Bedingungen sinnvolle Berechnungen durchzuführen? In unserer Studie gehen wir dieser Frage nach, indem wir uns auf das visuelle System konzentrieren, das eine große Herausforderung zu bewältigen hat: Informationen aus einer Vielzahl von Einzelkanälen schnell und flexibel in Abhängigkeit von Verhaltens- und Außenkontext zu integrieren. In diesem Rahmen werden wir zwei verschiedene Beispiele diskutieren, das erste ein Bottom-Up-Szenario der Figur-Ground-Segregation und das zweite eine Top-Down-Verbesserung der Objektunterscheidbarkeit unter selektiver Aufmerksamkeit. Beide Szenarien nutzen explizit kritische Zustände für die Informationsverarbeitung, während sie den Kritikalitätsbegriff formal auf inhomogene Systeme mit starkem externem Antrieb erweitern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20965-0_12 a5ed7e9e70a73df3c9fa800f3c18382b;de;;;1.1.;;;Die Rolle des Bewusstseins bei der affektiven Informationsverarbeitung: Eine Untersuchung der Zajonc-Hypothese Die vorliegende Studie untersucht die Rolle des Bewusstseins bei der Verarbeitung hedonisch valenter Reize. Wir zeigen, dass Stimulusbewusstsein für die Stimulusvalenz weder notwendig ist, um eine affektive Reaktion hervorzurufen noch eine nachfolgende kognitive Entscheidung zu beeinflussen. Die Ergebnisse werden als qualifizierte Unterstützung für Zajoncs Hypothese zur Unabhängigkeit affektiver und kognitiver Verarbeitungssysteme interpretiert. Wir schlagen jedoch vor, dass diese einfache Dichotomie einer Revision bedarf.;-;-;-;https://link.springer.com/article/10.3758/BF03333887 0fa3f0e6d5a86719b27ac56242f4700f;de;;;1.1.;;;Simultaner Kontrast, Ausfüllprozess und Informationsverarbeitung im visuellen System des Menschen In zuvor beschriebenen psychophysischen Experimenten fanden wir, dass ein Reiz, der ein Netzhautskotom umgibt, das Skotom augenblicklich mit seiner Helligkeit und Farbe ausfüllt. Es dauert jedoch einige Sekunden, um eine schwarze stabilisierte Scheibe auszufüllen, die in Bezug auf die Netzhaut ebenfalls unbeweglich ist. Ein Experiment, das durchgeführt wurde, um die Ursache dieser Diskrepanz zu untersuchen, deutete darauf hin, dass ein vermutetes Kontrastfeuern von Neuronen entlang der inneren Grenze der schwarzen stabilisierten Scheibe das Phänomen erklären könnte. Die postulierte Randkontrastentladung kann eine Barriere für die Verbreitung von Helligkeitsinformationen aus der Umgebung bilden. Wenn keine Barriere erzeugt wird (wie bei Netzhautskotomen) oder wenn sie verschwunden ist (durch Stabilisierung), erfolgt die Ausbreitung der Aktivität selbst sehr schnell (wahrscheinlich in höheren Zentren). Das in den Experimenten untersuchte Zusammenwirken dieser Effekte, der Aktivität entlang der Feldgrenze (der Simultankontrast) und der Auffüllung können viele Wahrnehmungsphänomene erklären.;-;-;-;https://link.springer.com/article/10.1007/BF00237914 91d6ede440bfe4ec26a02c1158b29b53;de;;;1.1.;;;Zustandsangst und Informationsverarbeitung: Eine Studie mit 7,5% Kohlendioxid-Herausforderung Wir verwendeten das 7,5% Kohlendioxid-Modell der Angstinduktion, um die Auswirkungen von Zustandsangst auf die einfache Informationsverarbeitung zu untersuchen. Sowohl in Zuständen mit hoher als auch mit geringer Angst haben die Teilnehmer (;-;-;-;https://link.springer.com/article/10.3758/s13423-017-1413-6 f78976d6d1106d130548655142f0df59;de;;;1.1.;;;Strahlteiler-vermittelte Quanteninformationsverarbeitung unter Verwendung von Impulszuständen der neutralen Atome Wir schlagen verschiedene Schemata zur Erzeugung und Manipulation einer Vielzahl atomarer externer transversaler Impulszustände vor. Der grundlegende Bestandteil all dieser Zustände ist ein einfacher zweiteiliger Hohlraum-Feld-Atomimpuls-verschränkter Zustand, der durch nichtresonante Bragg-Beugung zweiter Ordnung der neutralen Zwei-Niveau-Atome erzeugt wird. Weitere multipartite verschränkte Zustands-Engineering und -Manipulation einschließlich Bell-, GHZ-, Dicke- und W-State-Produktion, Remote State-Assisted Enanglement Swapping und Teleportation einer Resonatorfeld-Superposition sowie die Verschränkung auf atomare Impulszustände werden durch gleichzeitige Projektion des Resonators durchgeführt Feld(e) über symmetrische(n) Strahlteiler(n). Es wird weiter diskutiert, dass die Erzeugung und Manipulation solcher dekohärenzresistenten Impulszustände unter dem vorherrschenden experimentellen Forschungsszenario in der Hohlraum-QED durchaus machbar ist.;-;-;-;https://link.springer.com/article/10.1007/s10773-014-2316-1 02f956b595de9f49f0d6658f048423ac;de;;;1.1.;;;Informationsverarbeitung in den höheren Teilen der Hörbahn Während im visuellen System die Rolle des Kortex für die Entschlüsselungsprozesse bekannt ist und sogar hoch entwickelte Neuronen nachgewiesen wurden (Hubel und Wiesel), scheint sich die Organisationsstruktur innerhalb des auditiven Systems insofern deutlich zu unterscheiden, als offensichtlich recht groß Teile der Entschlüsselungsfunktionen beim Hören befinden sich im medialen Genick. Wir wissen nicht, was der Kortex im Detail durch seine Leistung zu dieser Grundfunktion auf thalamischer Ebene hinzufügt. Es kann jedoch spekuliert werden, dass es eher die große Speicherfähigkeit des auditiven Kortex als seine zusätzlichen Entschlüsselungsprozesse sind, die ihn ausmachen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-65902-7_30 78ad69d1aa4f1a081cc3054d4bc99c5b;de;;;1.1.;;;Zweidimensionale optoelektronische Bauelemente für zukünftiges optisches Schalten und Informationsverarbeitung Jüngste Fortschritte werden bei oberflächennormalen optoelektronischen Vorrichtungen, hauptsächlich zur Verwendung beim optischen Schalten und der Informationsverarbeitung, überprüft. Eine Art optoelektronischer integrierter Schaltung (OEIC), das oberflächennormale zweidimensionale Array, wird unter Verwendung dieser Vorrichtungen hergestellt. Dies verbessert die OEICs der ersten Generation durch eine großflächige Integration auf kleiner Fläche, was zu einer höheren Produktionsausbeute führt. Es hat auch Strukturen, die leicht in elektronische Schaltungen integriert werden können und Mehrkanalanforderungen erfüllen. Dieser Ansatz unterstützt den optoelektronischen Fortschritt in Richtung optischer Informationsverarbeitung.;-;-;-;https://link.springer.com/article/10.1007/BF00620193 c5479120f3a8810040cced7de78494c9;de;;;1.1.;;;Kann die Mensch-Roboter-Interaktion die gleiche Tiefe der Verarbeitung sozialer Informationen fördern wie die Mensch-Mensch-Interaktion? Jüngste Studien zu Mensch-Roboter-Interaktionen haben gezeigt, dass humanoide Roboter ein erhebliches Potenzial in der Erforschung der sozialen Kognition haben. Den Autoren sind jedoch keine Studien zur sozialen Informationsverarbeitung aus Mensch-Roboter-Interaktionen bekannt. Um dieses Problem anzugehen, haben wir zwei Arten von sozialen Interaktionsaufgaben (Initiierung und Beantwortung gemeinsamer Aufmerksamkeitsaufgaben) und zwei Arten von Interaktionspartnern (Roboter und menschliche Partner) betrachtet. Die Unterscheidung zwischen diesen Arten der gemeinsamen Aufmerksamkeit (JA) ist wichtig, da angenommen wird, dass sie einzigartige, aber gemeinsame Konstellationen von Prozessen der menschlichen sozialen Kognition und des sozialen Lernens widerspiegeln. 37 Teilnehmer wurden für die aktuelle Studie rekrutiert (Studie 1: 20 Teilnehmer, Studie 2: 17 Teilnehmer), und sie führten eine Bilderkennungsaufgabe zur sozialen Informationsverarbeitung entweder mit Roboter- oder menschlichen Partnern durch. Die Ergebnisse von Studie 1 legten nahe, dass Teilnehmer, die mit einem humanoiden Roboter interagierten, bei der auslösenden JA-Bedingung eine bessere Gedächtnisleistung erreichten als bei der antwortenden JA-Bedingung. Die Ergebnisse von Studie 2 legten nahe, dass die Mensch-Mensch- und Mensch-Roboter-Interaktionen zu keinen quantifizierbaren Unterschieden im Erkennungsgedächtnis führten. Wir diskutieren die Implikationen unserer Ergebnisse für den Nutzen humanoider Roboter in Studien zur sozialen Kognition und zukünftige Forschungsfragen zu Mensch-Roboter-Interaktionen.;-;-;-;https://link.springer.com/article/10.1007/s12369-017-0428-5 1e41ba031da156df5af8a2184ef440c1;de;;;1.1.;;;Netzhautort und Sehschärfe bei der visuellen Informationsverarbeitung Viel neuere Forschungen zur visuellen Informationsverarbeitung haben lineare oder rechteckige Buchstabenanzeigen verwendet, die einen Sichtwinkel von bis zu 8 Grad in der Breite aufweisen. Eine auf diesen Daten basierende nachfolgende Theorie hat die gleichzeitige Verfügbarkeit aller n Ziele für einen Zentralprozessor angenommen. Daten zur Netzhautschärfe legen nahe, dass diese Annahme grundlos ist. Sechs Probanden dienten einer tachistoskopischen Aufgabe zur beschleunigten Buchstabenerkennung, bei der die Anzeigeluminanz, der retinale Zielort, die Anzahl alternativer Zielpositionen und die Stimulusverschlechterung durch Überlagerung eines Punktrasters orthogonal manipuliert wurden. Die Reaktionszeiten zur Identifizierung erhöhten sich um die Größenordnung von 100 ms, da sich die Ziele 3 Grad vom Foveazentrum entfernt befanden, und die Ergebnisse unter konvergenten Operationen im Design legten nahe, dass diese Reaktionszeitverlängerungen eine Manifestation von Faktoren der Verschlechterung des peripheren Stimulus (wie Schärfe, Maskierung, und Leuchtdichte) statt zentralerer kognitiver Prozesse.;-;-;-;https://link.springer.com/article/10.3758/BF03336936 0d5d2b355e91e6fdbb9eff2c88b3b081;de;;;1.1.;;;Quanteninformationsverarbeitung im kollektiv-rotierenden dekohärenzfreien Unterraum Unter Verwendung des atomaren Zustands, der im kollektiv-rotierenden dekohärenzfreien Unterraum (CRDFS) kodiert ist, werden zwei Methoden zum Aufbau des hybridgesteuerten Phasenumkehr-Gates zwischen Photon und dem einzelnen logischen Qubit vorgestellt, unterstützt durch den Hohlraum-Eingabe-Ausgabe-Prozess. Dann werden Möglichkeiten aufgezeigt, die gemeinsamen Einzel-Qubit-Operationen in CRDFS zu realisieren. Basierend auf den früheren Gate- und Single-Qubit-Operationen werden Methoden zum Aufbau des Parity-Gates und des Controlled-Phase-Gates in CRDFS diskutiert. Als nächstes werden zwei Wege zur Realisierung der Bell-Zustandsmessung und der Ansatz zur Realisierung des Quanteninformationstransfers in CRDFS vorgeschlagen. Abschließende Diskussion und numerische Simulation zeigen, dass unsere Arbeit für Quanteninformationsverarbeitungsaufgaben in CRDFS machbar und nützlich ist.;-;-;-;https://link.springer.com/article/10.1007/s11128-015-0975-3 08ba3312d186585d497a52e728982399;de;;;1.1.;;;Quanteninformationsverarbeitung auf Basis einzelner ultrakalter Atome in optischen Fallen Es wird ein kurzer Überblick über experimentelle und theoretische Studien zur Verwendung einzelner neutraler Atome gegeben, die in Anordnungen optischer Dipolfallen als Qubits eines Quantencomputers gefangen sind. Es werden Methoden zum Laden und Registrieren von Atomen in Fallen und zum Ausführen von Zwei-Qubit-Quantenlogikgattern über Dipol-Dipol-Wechselwirkung während der kurzzeitigen Laseranregung von Atomen in Rydberg-Zustände diskutiert.;-;-;-;https://link.springer.com/article/10.3103/S8756699020050106 7277dc2fcbb91ea564f2b741d7f19faa;de;;;1.1.;;;Anforderungen an elektrooptische Materialien für die optische Informationsverarbeitung und Datenverarbeitung Photorefraktive Materialien umfassen eine wichtige Kategorie elektrooptischer Materialien und sind wichtige Bestandteile in einer Vielzahl von Vorrichtungen, die speziell für die Verwendung in optischen Informationsverarbeitungs- und Computersystemen entwickelt wurden. Kritische Fragen, die die Entwicklung und Anwendbarkeit von photorefraktiven Materialien beeinflussen, werden aus der Perspektive von Implementierungen photonischer neuronaler Netze untersucht, die photorefraktive volumenholographische Verbindungen beinhalten.;-;-;-;https://link.springer.com/article/10.1557/PROC-228-123 229639bf015de564243bf37868248baa;de;;;1.1.;;;Die soziale Gruppe als Informationsverarbeitungssystem Dieses Kapitel führt die Theorie auf die Gruppenebene und verwendet Computersimulationen, um sozialen Einfluss als sozial verteilte Informationsverarbeitung zu analysieren. Dabei identifiziert diese Forschungsrichtung Bedingungen, unter denen die Delegation der Verarbeitung an andere zu Fehlern führen kann, die zu kontraproduktiven und manchmal katastrophalen Meinungen und Entscheidungen für die Gruppe führen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30622-9_3 73acd45671903e9b1d33481c9a70ea80;de;;;1.1.;;;Hervorgerufene potenzielle Korrelate der semantischen Informationsverarbeitung in Normalen und Aphasikern Im Sprachverständnis von Eric Lenneberg halten wir einen Aspekt für besonders relevant und wollen ihn in diesem Kapitel hervorheben. Dieser Beitrag stammt aus Lennebergs Überzeugung, dass Neurolinguisten nach einem grundlegenden Prozess suchen müssen, der eine zentrale Stellung in allen kognitiven Funktionen auf höherer Ebene einnimmt. Wie Lenneberg (1970) feststellt, „kann kein psychobiologisches Sprachmodell als adäquat angesehen werden, wenn es nicht den Begriff des Sprachwissens und seine Beziehung zum Wissen im Allgemeinen erfasst“ (S. 636). In seinen Schriften suchte Lenneberg nach einem einzelnen Prozess oder einer Reihe von zentralen Prozessen, die für alle Operationen auf höherer Ebene, einschließlich Wahrnehmung, Sprache, Denken und Wissen, grundlegend waren. Vor diesem Hintergrund argumentierte Lenneberg so eindringlich, dass „sensorische Erkennungsprozesse zu Sprachprozessen homolog seien“ (Lenneberg, 1970). Obwohl Lenneberg diese grundlegenden Prozesse nie genau beschrieben hat, war es ihm dennoch wichtig zu betonen, dass Sprache und Logik die grundlegende Eigenschaft der Klassifikation und Unterscheidung teilen (Lenneberg, 1967, 1970). Wie von Lenneberg (1970) ausführlicher erörtert, wurden die Begriffe der Unterscheidung und Klassifikation 1854 von George Boole in Denk- und Erkenntnisgesetze formalisiert. Die berühmte „Boolesche Algebra“ basiert auf einem binären Klassifikationsschema, das im Wesentlichen ein Formalismus der Konzepte von „Gleichheit“ und „Differenz“.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-2292-4_5 ac240c303b7df7ba7ebdeed4f63fe8ff;de;;;1.1.;;;Die Großhirnhemisphären dienen als zwei Kanäle für die visuelle Informationsverarbeitung Gittermuster oder ZVK-Trigramme wurden tachistoskopisch im linken oder rechten Gesichtsfeld oder gleichzeitig in beiden Gesichtsfeldern präsentiert. Es gab weniger Fehler bei der Identifizierung von Rastern und CVCs, wenn ein Raster links mit einem CVC rechts gepaart wurde, als wenn ein CVC links mit einem Raster rechts gepaart wurde. Das Ergebnis zeigte, dass, wenn jede Hemisphäre die Art von Stimulusmaterial, räumlich oder verbal, erhielt, auf die ihre Funktion spezialisiert war, sie als separate Kanäle dienten und die Verarbeitungsgenauigkeit maximal war.;-;-;-;https://link.springer.com/article/10.3758/BF03333142 ed42940db29ff02151a8bf390d33373d;de;;;1.1.;;;Mehrkanalige akustische Kontrolle der Bewegung der pneumatischen Schlagmaschine im Boden und Algorithmus zur Verarbeitung von Messinformationen Das akustische Datenmesssystem und der Verarbeitungsalgorithmus wurden entwickelt, um eine pneumatische Schlagmaschine im Boden zu positionieren. Das Verfahren basiert auf der Aufzeichnung der Verzögerungszeit des Eintritts eines akustischen Signals, das bei der Interaktion zwischen der pneumatischen Schlagmaschine und dem Boden im Empfänger des Mehrkanal-Messsystems relativ zum Referenzsignal der Maschine erzeugt wird. Das Messsystem und der Algorithmus wurden unter Vollbedingungen getestet.;-;-;-;https://link.springer.com/article/10.1134/S1062739114030223 869d998563719598add1734e344037dd;de;;;1.1.;;;Späte positive Komponente (LPC) während der semantischen Informationsverarbeitung in Kanji- und Kana-Wörtern In der japanischen Rechtschreibung werden zwei Arten von nicht-alphabetischen Symbolen, Kana (phonetische Symbole für Silben) und Kanji (im Wesentlichen nicht-phonetische, logografische Symbole, die lexikalische Morpheme darstellen) in Kombination verwendet. In Studien japanischer Aphasiker wurde berichtet, dass bei der Verarbeitung von Kana und Kanji verschiedene Arten der Dissoziation beobachtet wurden;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-6645-4_58 94db2c96f9e168d621d244d2e28eaac7;de;;;1.1.;;;Variablen in der Informationsverarbeitung laden Die Auswirkungen der Präsentationsrate, der Anzahl der Stimuluskanäle und der Länge der Stimulusläufe auf die Genauigkeit der Informationsverarbeitung eines Bedieners wurden untersucht. Dreißig Ss reagierten auf visuelle Reize, indem sie einen Druckknopf drückten. Reize waren Kombinationen aus vier Formen und drei Farben, die mit Raten von 1,00, 1,25 und 1,50 Sekunden pro Reiz präsentiert wurden. Die Reize wurden auf zwei oder vier Kanälen präsentiert und die Läufe bestanden aus 25, 50 und 100 aufeinanderfolgenden Reizen. Das S ist als Informationskanal konzipiert, in dem die zentralen Vermittlungsprozesse der Kodierung und Dekodierung die Hauptoperationen der Informationsverarbeitung sind.;-;-;-;https://link.springer.com/article/10.1007/BF03393936 3b2c5549bf9d6eee40591e83a0deb37e;de;;;1.1.;;;Unterschiedliche Einflüsse der Trainingsintensität auf die Informationsverarbeitung im Zentralnervensystem Der Einfluss der Belastungsintensität auf die Informationsverarbeitung im Zentralnervensystem wurde anhand der ereignisbezogenen Potenziale P300 und No-Go P300 untersucht. Zwölf Probanden (22–33 Jahre) führten eine Go/No-Go-Reaktionszeit-Aufgabe in einem Kontrollzustand und erneut nach hoch-, mittel- und niederintensiven Tretübungen durch. Im Vergleich zur Kontrollbedingung nahm die P300-Amplitude nach einer hochintensiven Tretübung ab und stieg nach einer mittelintensiven Tretübung an. Es gab keine Veränderung nach dem Treten mit niedriger Intensität. Diese Ergebnisse deuten darauf hin, dass die Menge der Aufmerksamkeitsressourcen, die einer bestimmten Aufgabe gewidmet sind, nach hochintensivem Training abnimmt und nach mittelintensivem Training zunimmt. Die Ergebnisse deuten auch darauf hin, dass Änderungen der P300-Amplitude ein umgekehrtes U-förmiges Verhalten von Unterschieden in der Trainingsintensität sind. Darüber hinaus zeigte die No-Go-P300-Amplitude die gleichen Veränderungen wie die P300-Amplitude bei unterschiedlichen Trainingsintensitäten. Dies deutet darauf hin, dass Unterschiede in der Trainingsintensität nicht nur die Intensität der Verarbeitung der Anforderung einer Go-Reaktion beeinflussten, sondern auch die Verarbeitung der Notwendigkeit einer No-Go-Reaktion. Daraus wird geschlossen, dass Unterschiede in der Trainingsintensität die Informationsverarbeitung im ZNS beeinflussten.;-;-;-;https://link.springer.com/article/10.1007/s00421-004-1097-2 0dac3593e90ac58850f98d7451a01c18;de;;;1.1.;;;Kleinhirninformationsverarbeitung und visuell-räumliche Funktionen Obwohl es konsistente Berichte über veränderte visuell-räumliche Fähigkeiten bei Patienten mit Kleinhirnpathologien gibt und obwohl experimentelle Beweise die Bedeutung dieses Teils des Gehirns für die räumliche Verarbeitung anzeigen, bleibt die Rolle des Kleinhirns in diesem Bereich schwer fassbar. Im vorliegenden Aufsatz werden experimentelle und klinische Studien unserer Arbeitsgruppe untersucht, die die Beziehungen zwischen Kleinhirn und visuell-räumlichen Funktionen fokussieren. Exploratives Verhalten, visuell-räumliche Fähigkeiten und sequentielle räumliche Verarbeitungsfunktionen werden analysiert, um die Beteiligung des Kleinhirns an der räumlichen Datenverarbeitung zu fokussieren. Geprüfte Beweise erhellen die Bedeutung des Kleinhirns für das Scannen sensorischer Daten, um relevante räumliche Informationen zu extrahieren und für die Erfassung raumbezogener Verfahren. Diese Hypothese wird im allgemeinen Rahmen der Beteiligung des Kleinhirns an der Kognition diskutiert.;-;-;-;https://link.springer.com/article/10.1080/14734220701230870 7c2756b0534a7e63e3663cff0e6e5d41;de;;;1.1.;;;Kopfrechnen: Kurzzeitspeicherung und Informationsverarbeitung in einer kognitiven Fähigkeit Obwohl in den letzten Jahren sowohl die Zahl als auch die Verfeinerung der Rechenhilfen rapide zugenommen haben, werden die einfacheren Arten des Kopfrechnens wahrscheinlich ihren Platz als allgemeine und nützliche Fähigkeiten behalten. Ein Verständnis der psychologischen Prozesse, die sie mit sich bringen, sollte daher von allgemeinem Wert sein. Es gibt mindestens zwei recht gute Gründe für die Annahme, dass ein solches Verständnis möglich sein könnte. Erstens sind die Menschen in der Regel in der Lage, klare verbale Aussagen über ihre Strategien zum Kopfrechnen zu machen. Diese Berichte geben Einblicke in einige der Leistungsmerkmale. Zweitens scheint es wahrscheinlich, dass es sich beim mentalen Rechnen um kognitive Systeme handelt, über die bereits viel aus der Grundlagenforschung bekannt ist. Zum Beispiel ist bekannt, dass Menschen eine weitaus größere Fähigkeit zum schriftlichen als zum mentalen Rechnen haben. Dies liegt vermutlich daran, dass geschriebene Informationen relativ dauerhaft sind, während Informationen, die temporär im Gedächtnis gehalten werden, wie beim mentalen Rechnen, schnell vergessen werden. Die Charakteristika der Kurzzeiterinnerung bilden einen ganzen Bereich der experimentellen Psychologie und lassen sich hoffentlich auf die Kopfrechnen übertragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-2535-2_30 9ca25651f0b6ed8cbddf3fe427b59d82;de;;;1.1.;;;Informationsverarbeitung bei Migräne: Ein Überblick über Studien zu P300 Subjektive kognitive Dysfunktion ist bei Migränepatienten weit verbreitet. Ziel dieser Übersichtsarbeit ist es, den Nutzen der Psychophysiologie anhand der P300-Komponente des ereignisbezogenen Potenzials zum Verständnis subtiler und subklinischer Veränderungen der Kognition, die während und zwischen Migräneepisoden auftreten können, zu bewerten. Einige P300-Studien deuten auf eine potenzielle Beeinträchtigung der Informationsverarbeitung hin, was sich in nur wenigen Befunden von interiktaler verminderter Amplitude und verlängerter Latenz, iktaler vergrößerter Amplitude und verlängerter Latenz, Veränderungen der kognitiven Gewöhnung und eingeschränkter Fähigkeit, die Aufmerksamkeit von schmerzhaften Reizen abzulenken, widerspiegelt. P300 kann eine wertvolle Hilfe für Kliniker sein, um Patienten zu identifizieren, bei denen das Risiko einer Chronifizierung und kognitiven Schwächung aufgrund neurovaskulärer Komplikationen besteht. Aus dieser Perspektive könnte eine Forschungsagenda geplant werden, an der eine größere Anzahl von Patienten psychophysiologischen Studien teilnehmen.;-;-;-;https://link.springer.com/article/10.1007/s10484-020-09469-w 4131e7b3acfe3f5de105f800c4fd1662;de;;;1.1.;;;Kann Rauchen die Aufmerksamkeit bei der schnellen Informationsverarbeitung im Lärm steigern? Elektrokortikale, physiologische und Verhaltenseffekte Diese Studie untersuchte die Auswirkungen des Rauchens auf die visuelle Schnellinformationsverarbeitungsleistung (RIP) unter dem Einfluss von störendem Lärm. Die RIP-Aufgaben erforderten, dass die Probanden Triaden von geraden oder ungeraden Ziffern innerhalb einer auf einem Bildschirm präsentierten pseudozufälligen Folge einzelner Ziffern erkennen. Zwei Gruppen von 12 gewohnheitsmäßigen Raucherinnen, die in den letzten 10 Stunden vor den Testsitzungen nicht rauchen durften, durchliefen zwei Testsitzungen, die jeweils aus zwei RIP-Versuchen bestanden, getrennt durch eine Rauchphase (habituelle Zigarette) für eine Gruppe und eine Entspannungsphase ohne Rauchen für die zweite Gruppe. Lärmbelästigung trat nur während des zweiten RIP-Versuchs einer der beiden Sitzungen auf. Rauchen erhöhte die RIP-Leistung, aber Lärm zeigte keine messbare Wirkung. Das während des RIP analysierte EEG zeigte die erwartete geräuschinduzierte Abnahme der Alpha-Leistung. ERP-Analysen zeigten eine durch das Rauchen induzierte Abnahme der CNV-bezogenen Negativität, jedoch keine Geräuscheffekte. Die späte positive Welle (LP) nahm nach dem Rauchen zu, jedoch in geringerem Maße unter der Lärmbedingung. Die Analysen der peripheren physiologischen Messungen ergaben eine durch Rauchen und Lärm induzierte Herzfrequenzbeschleunigung und kutane Vasokonstriktion. Plasmacortisol, Prolaktin und HGH waren nach der Lärmsitzung ebenfalls erhöht. Die Ergebnisse zeigen daher, dass Rauchen den RIP erhöht, wohingegen Lärm die geistige Leistungsfähigkeit nicht beeinträchtigt, obwohl er messbare Auswirkungen auf vegetativen Stress hat.;-;-;-;https://link.springer.com/article/10.1007/BF00442009 cfcc2fafeda433211cead3a499a019d7;de;;;1.1.;;;Auswirkungen von Cotinin auf die Informationsverarbeitung bei Nichtrauchern Cotinin, der wichtigste benachbarte Metabolit von Nikotin, ist bei Rauchern in höheren Konzentrationen und länger als Nikotin vorhanden, seine Auswirkungen auf die Informationsverarbeitung wurden jedoch bisher nicht berichtet. Wir untersuchten die kognitiven Wirkungen von Cotinin bei Nichtrauchern. Sechzehn Probanden wurden auf drei Dosen Cotinin (0,5, 1,0 und 1,5 mg Cotinin-Base/kg) und Placebo, auf eine Auswahlreaktionszeit (RT) und auf eine verbale Erinnerungsaufgabe mit kurzen und langen Listen getestet. Cotinin beeinträchtigte das Recall auf der Longlist signifikant und zeigte eine nicht signifikante, aber im Allgemeinen konsistente dosisabhängige Verlangsamung der RT- und N100-Latenz. Die akuten Wirkungen von Cotinin waren gering und erklären wahrscheinlich nicht die kognitiven Defizite, die beim Tabakentzug beobachtet wurden, obwohl die kognitiven Wirkungen einer chronischen Cotinin-Verabreichung untersucht werden müssen.;-;-;-;https://link.springer.com/article/10.1007/s002130050493 1dd6b2173af0fe3cd0b419750eef807e;de;;;1.1.;;;Auswirkungen von Protriptylin auf Vigilanz und Informationsverarbeitung bei Narkolepsie Vigilanz, Gedächtnisfunktion und Reaktionslatenz bei der Sternberg-Kurzzeitgedächtnis-Scan-Aufgabe wurden bei acht narkoleptischen Patienten mit und ohne Medikamente untersucht. Ohne Medikamente zeigte die Hälfte der Patienten eine reduzierte Wachsamkeit und alle zeigten eine verminderte automatische Gedächtniscodierung und längere Reaktionslatenzen beim Sternberg-Memory-Scanning-Verfahren im Vergleich zum behandelten Zustand. Protriptylin normalisierte die Wachsamkeit bei der Hälfte der Patienten, während sich die Reaktionslatenz und die automatische Informationsverarbeitung bei allen signifikant verbesserten. Diese Ergebnisse werden im Hinblick auf die mögliche Wirkung des Medikaments auf die Erregung des zentralen Nervensystems diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF00212777 4f42f446fe5a678925e81b30345b8e63;de;;;1.1.;;;Vision leicht gemacht: Cubozoans können unser Verständnis der visuellen Informationsverarbeitung auf Systemebene verbessern Tiere, die sich auf das Sehen als ihre wichtigste sensorische Modalität verlassen, reservieren einen großen Teil ihres zentralen Nervensystems, um ihre Umgebung angemessen zu navigieren. Im Allgemeinen korreliert die neuronale Beteiligung mit der Komplexität des visuellen Systems und des Verhaltensrepertoires. Beim Menschen unterstützt ein Drittel der verfügbaren neuronalen Kapazität unsere einkammerigen Mehrzweckaugen, während Tiere mit weniger ausgeklügelten visuellen Systemen weniger Rechenleistung benötigen und im Allgemeinen ein kleineres Gehirn haben und daher kein Sehverhalten haben. Dies hat zur Folge, dass sowohl traditionelle Modelltiere (Mäuse, Zebrafische und Fliegen) als auch experimentell besser handhabbare Tiere (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-92486-1_27 e716ea7aa51e4c05a59049e4b1e5d87a;de;;;1.1.;;;Informationsverarbeitung in der visuellen Suche: Eine kontinuierliche Flusskonzeption und experimentelle Ergebnisse Dieses Papier untersucht den visuellen Suchprozess und die visuelle Informationsverarbeitung im Allgemeinen aus der Perspektive des kontinuierlichen Flusses von Informationen und Antworten durch das visuelle System. Es werden die Ergebnisse von drei Experimenten berichtet, die das Konzept des kontinuierlichen Flusses unterstützen: Informationen sammeln sich allmählich im visuellen System an, mit gleichzeitigem Priming von Antworten. Die ersten beiden Experimente untersuchten die Verarbeitung von Display-Stimuli, die in Größe und Figur-Grund-Kontrast in einer Nichtsuchaufgabe variierten, und lieferten Beweise für ein kontinuierliches Flussmodell. Experiment 3 verwendete einen asynchronen Beginn von Ziel und Rauschen und lieferte einen konvergenten Beweis für die kumulative Natur von Informations- und Antwort-Priming bei der visuellen Verarbeitung.;-;-;-;https://link.springer.com/article/10.3758/BF03198804 c8e0f5f8f740b93526acb97003f794a1;de;;;1.1.;;;Spezialisierung der Informationsverarbeitung bei der Interferenz zwischen globalen und lokalen Aspekten visueller hierarchischer Reize bei Männern und Frauen Geschlechtsbezogene Unterschiede in der globalen/lokalen hemisphärischen selektiven Verarbeitung wurden durch hierarchisch präsentierte Buchstaben in Bezug auf ihre Wahrnehmungs- und Vergleichsbedingungen untersucht. An dem Experiment nahmen 56 rechtshändige Männer und 68 Frauen (im Alter von 17–22 Jahren) teil. Während der Interferenz zwischen globalen und lokalen Aspekten von Reizen war die mittlere Reaktionszeit für korrekte globale Reaktionen kürzer als für lokale Reaktionen, und die rechte Hemisphäre dominierte bei der globalen selektiven Verarbeitung unabhängig vom Geschlecht. Geschlechtsbezogene Unterschiede in der Wahrnehmung visueller hierarchischer Reize waren ausgeprägter als beim Vergleich: Männer bevorzugten die rechtshemisphärische globale Strategie der Informationsverarbeitung, Frauen die linkshemisphärische lokale. Die Dominanz der globalen Strategie bei Männern und der lokalen Strategie bei Frauen während der visuellen hierarchischen Reizwahrnehmung, zusammen mit dem Fehlen von geschlechtsbezogenen Unterschieden in den richtigen Antworten, weist auf die Möglichkeit hin, die gleiche Effizienz der kognitiven Aktivität auf unterschiedliche Weise zu erzielen.;-;-;-;https://link.springer.com/article/10.1134/S0362119711020186 bbb72ae2ac2eb0447d4facbc626dd258;de;;;1.1.;;;Informationsverarbeitung im Gehörgang von Insekten Die akustische Kommunikation von Heuschrecken, Grillen und Katydiden liefert hervorragende Beispiele für allgemeine Prinzipien, wie Nervensysteme sensorische Informationen darstellen. Die Verarbeitung von Hörsignalen bei Insekten ist angeboren, daher sind die beteiligten neuronalen Module „fest verdrahtet“. Außerdem wird der relevante Reizraum eingeschränkt, was die Untersuchung erleichtert. Ein Hauptproblem der sensorischen Verarbeitung ist die Variabilität von Versuch zu Versuch von Spike-Trains, die durch das stochastische Öffnen und Schließen von Ionenkanälen verursacht wird. Bei Tieren, die nur wenige Neuronen für eine bestimmte Aufgabe verwenden können, ist diese Unzuverlässigkeit der Spike-Trains eine relevante Einschränkung für die neuronale Kodierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-28890-1_9 7d3863e693bd24bf5f0430a6ae47047b;de;;;1.1.;;;Informationsmanagement für Zuverlässigkeit Die Zuverlässigkeit eines Computersystems ist die Fähigkeit, Dienste bereitzustellen, denen man vertrauen kann. Der Begriff umfasst drei Teile: die Eigenschaften, die Mittel zur Erreichung und die Bedrohung der Zuverlässigkeit. Aufgrund der Schwere des Ausfalls solcher Systeme wird ihre Entwicklung normalerweise sorgfältig durch eine Reihe von Standards und Hürden gesteuert, die zwischen dem ursprünglichen Konzept und einem funktionsfähigen System stehen. Zuverlässige Systeme werden typischerweise gut verstanden und basieren auf etablierten Spezifikationstechniken, fehlertoleranten Architekturen und Untergruppen von Implementierungssprachen, die Zuverlässigkeitsmittel bieten. Analysetechniken, die dabei helfen, Zuverlässigkeitsbedrohungen zu identifizieren, werden ähnlich gut verstanden. Dieses Papier betrachtet Zuverlässigkeit als ein Problem des Informationsmanagements (IM) und schlägt eine mögliche Lösung vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16699-0_10 ca8be9fdab23339e43aa0af84701d677;de;;;1.1.;;;Einige strukturell-funktionelle Merkmale des dorsolateralen präfrontalen Kortex und des Genu des Corpus Callosum und der auditiven Informationsverarbeitung (P300) bei gesunden Probanden und Patienten mit juveniler Schizophrenie Bei 18 psychisch gesunden Probanden und 22 Patienten mit juveniler Schizophrenie im Remissionsstadium und in Remission wurden die strukturell-funktionellen Eigenschaften des dorsolateralen präfrontalen Kortex und des Genus des Corpus callosum sowie deren Interaktion mit elektrophysiologischen Markern selektiver Aufmerksamkeitsprozesse untersucht. Es wurden keine statistisch signifikanten Unterschiede zwischen den Gruppen in Bezug auf N-Acetylaspartat- und Cholin-haltige Substanzen (gemessen durch Protonen-Magnetresonanz-Spektroskopie) gefunden, während die fraktionierte Anisotropie (gemessen durch Diffusionstensor-Magnetresonanz-Tomographie) im Genu des Corpus callosum niedriger war in der Patientengruppe. Das Fehlen statistisch signifikanter Korrelationen zwischen bildgebenden Eigenschaften und der Schweregradbeurteilung psychopathologischer Störungen sowie gelegentliche korrelierende Interaktionen mit P300-Parametern deuten auf eine schwache Beteiligung der Studienstrukturen an Prozessen, die kognitive Beeinträchtigungen bei Patienten mit juveniler Schizophrenie bestimmen.;-;-;-;https://link.springer.com/article/10.1007/s11055-013-9885-y 4f5ed19f707b01551399ed899340a76c;de;;;1.1.;;;Eine Bewertung eines koffeinhaltigen Tauringetränks auf Stimmung, Gedächtnis und Informationsverarbeitung bei gesunden Probanden ohne Koffeinabstinenz : Koffein ist in einer Vielzahl von Getränken enthalten, oft zusammen mit einer Reihe anderer Zutaten wie Zucker, Taurin, Glucuronolacton und Vitaminen. In den meisten psychopharmakologischen Studien wurden jedoch reine Koffeintabletten oder -getränke mit Dosen verwendet, die über denen liegen, die normalerweise im täglichen Leben konsumiert werden. Darüber hinaus wird allen Teilnehmern vor der Studie in der Regel 10 Stunden oder länger Koffein entzogen. Folglich wurde argumentiert, dass jede Leistungssteigerung nur auf eine Umkehr des Koffeinentzugs zurückzuführen ist.;-;-;-;https://link.springer.com/article/10.1007/s002130100884 2078c400a933b951cb44830e8a14800f;de;;;1.1.;;;Mehrkanalige Informationsverarbeitung in den optischen Echoprozessoren auf Basis von Van-Fleck-Paramagnetkristallen Die Analyse verschiedener Modi der Mehrkanal-Informationsaufzeichnung und -auslesung unter Bedingungen eines stimulierten (akkumulierten und langlebigen) Photonenechos in den mit Seltenerdionen dotierten Kristallen, den sogenannten Van-Fleck-Paramagneten, wurde durchgeführt, um sie in den Betrieb optischer Tieftemperatur-Echoprozessoren.;-;-;-;https://link.springer.com/article/10.3103/S1062873812030422 1c49ea013722890e535b1eb3392021a2;de;;;1.1.;;;Auswirkungen von Kälte auf die menschliche Informationsverarbeitung: Anwendung eines Reaktionszeitparadigmas Es scheinen nur sehr wenige Studien zu den Auswirkungen von Kälte auf die menschliche Informationsverarbeitung zu existieren. Daher wurde das vorliegende Experiment entworfen, um die Auswirkungen der experimentell induzierten Senkung der Körperkerntemperatur auf die Informationsverarbeitung unter Anwendung eines Reaktionszeitparadigmas zu untersuchen. Dreißig gesunde männliche Freiwillige führten eine Stimulusbewertung-Reaktionsauswahl-Reaktionszeit-Aufgabe durch, nachdem sie Umgebungstemperaturen von entweder 28 oder 5°C ausgesetzt waren. Ein Rückgang der Körperkerntemperatur um 0,5°C führte zu einer signifikanten Zunahme sowohl der Reaktions- als auch der Bewegungszeit, was auf eine allgemeine Verschlechterung der Senkung der Körperkerntemperatur auf die Informationsverarbeitung hinweist. Die mittleren Reaktionszeiten betrugen 538 ms bzw. 549 ms für die Kontroll- und die kalte Gruppe (;-;-;-;https://link.springer.com/article/10.1007/BF02691388 58b9f9bae672a47ee33538c11bb800c6;de;;;1.1.;;;Eine informationsverarbeitende Analyse der Auswirkungen von Alkohol auf die Wahrnehmung von Gesichtsemotionen Ausgehend von einem informationsverarbeitenden konzeptionellen Rahmen untersuchte dieses Experiment die Auswirkungen von Alkohol, Erwartung und Geschlecht des Probanden auf die Wahrnehmung von Gesichtsemotionen durch normale Trinker. In einem 2-×-2-faktoriellen Design erhielten 24 Männer und 24 Frauen entweder ein alkoholisches (0,50 g/kg KG) oder ein alkoholfreies Getränk und erhielten die Anweisung, entweder ein alkoholisches oder ein alkoholfreies Getränk zu erhalten. Das wichtigste abhängige Maß waren die Affektbewertungen der Probanden, die in der Mimik enthalten waren. Die Hypothese, dass Alkoholkonsum die Wahrnehmung beeinträchtigen würde, fand einige Unterstützung. Interaktionseffekte zeigten auch, dass größere alkoholinduzierte Defizite auftraten, wenn die Probanden glaubten, Alkohol konsumiert zu haben, und dass die Instruktionsvariable die Reaktionen von Männern und Frauen unterschiedlich beeinflusste. Mit Einschränkungen legen diese Daten die Nützlichkeit einer informationsverarbeitenden Analyse kognitiver Funktionen nahe, die für die Auswirkungen des Alkoholkonsums auf das soziale Verhalten relevant sind.;-;-;-;https://link.springer.com/article/10.1007/BF00427815 38ce5f31ba386325887d76873e908c12;de;;;1.1.;;;Die visuellen Informationsverarbeitungsmuster von Goldfish beim nahrungsmittelverstärkten Unterscheidungslernen zwischen zusammengesetzten visuellen Reizen Um zu untersuchen, wie Goldfische Informationen über zusammengesetzte visuelle Reize verarbeiten und speichern, wurden Goldfische mit visuellen diskriminierenden Reizen trainiert, die aus verschiedenen Farben und Mustern bestehen, wobei eine instrumentelle Y-Labyrinth-Konditionierungstechnik verwendet wurde. Die Fische zeigten je nach Schwierigkeitsgrad der einzelnen Bestandteile (Farbe und Muster) einige sehr unterschiedliche Arten von Informationsverarbeitungsmustern. Diejenigen, die mit zusammengesetzten Reizen mit sowohl einem leichter zu unterscheidenden als auch einem schwierigeren Aspekt trainierten, lernten ersteres selektiv, lernten letzteres jedoch trotz hoher Trainingsrate überhaupt nicht. Im Gegensatz dazu lernten die Fische, die mit zusammengesetzten Reizen trainiert wurden, die aus zwei Aspekten mit ähnlichen Schwierigkeitsgraden bestanden, beide Aspekte. In diesem Fall lernten Fische nur dann, wenn sie mit zusammengesetzten Reizen trainiert wurden, die aus relativ schwierigeren Aspekten bestanden, schneller zwischen den Reizen zu unterscheiden als die Fische in jeder Gruppe, die mit den konstituierenden farbigen oder gemusterten Reizen trainiert wurden. Diese Ergebnisse wurden in Bezug auf visuelle Verarbeitungsmuster, die bei anderen Arten berichtet wurden, und den Mechanismus der Aspektselektion diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF00215080 bf38286d0a1de6702916cb634e7cb686;de;;;1.1.;;;Ereignisbezogene Potenziale, die durch die passive visuell-räumliche Wahrnehmung bei Ratten und Menschen hervorgerufen werden, zeigen gemeinsame Nenner in der Informationsverarbeitung Im menschlichen Kortex werden ereignisbezogene Potenziale (ERPs) als Reaktion auf sensorische, kognitive oder motorische Reize ausgelöst. Aufgrund der inhärenten Schwierigkeiten bei der Durchführung invasiver mechanistischer Studien am Menschen ist wenig über die genauen neurophysiologischen Mechanismen bekannt, die zu ihrer Manifestation führen. Im Gegensatz dazu, obwohl viel über synaptische und neuronale Mechanismen bekannt ist, die der Informationsverarbeitung bei Nagetieren zugrunde liegen, haben nur sehr wenige Studien untersucht, inwieweit ERPs bei Nagetieren und Menschen vergleichbar sind. Hier haben wir dies untersucht, indem wir ERPs bei beiden Arten während der passiven Beobachtung von visuell-räumlichen Bildern, die auf seltsame Weise gezeigt werden, mit einem äquivalenten experimentellen Design auslösten. In der Nager-Kohorte wurden mehrere ERP-Komponenten identifiziert, die beispielsweise dem menschlichen P1, N1 und P2 entsprechen. ERPs, die wahrscheinlich N2 und P300 eines Nagetiers widerspiegeln, wurden ebenfalls entdeckt. Sowohl Abweichungen als auch Wiederholungseffekte waren bei beiden Arten offensichtlich, wobei ERPs von Nagetieren auf wiederholte Reize unmittelbarere Reaktionsänderungen zeigten und Menschen allmählichere Reaktionsverschiebungen zeigten. Diese Ergebnisse deuten darauf hin, dass Menschen und Nagetiere trotz deutlicher Unterschiede in ihren sensorischen und kognitiven Fähigkeiten ähnliche Strategien für die passive Wahrnehmung und anfängliche Verarbeitung visuell-räumlicher Bilder anwenden können.;-;-;-;https://link.springer.com/article/10.1007/s00429-019-01854-4 90af434a2f2caa14f203e5db31efa173;de;;;1.1.;;;Informationsverarbeitung durch Onset-Neuronen im auditiven Hirnstamm der Katze Oktopuszellen im ventralen Cochlea-Nucleus (VCN) waren aufgrund der Merkmale, die sie von anderen VCN-Neuronen unterscheiden, schwierig zu untersuchen. Wir führten In-vivo-Aufnahmen bei Katzen an gut isolierten Einheiten durch, von denen einige intrazellulär markiert und histologisch rekonstruiert wurden. Wir fanden heraus, dass Reaktionen auf niederfrequente Töne mit Frequenzen < 1 kHz ein höheres Maß an neuraler Synchronie und Mitnahme auf den Stimulus zeigen als der Hörnerv. Als Reaktion auf höherfrequente Töne treten die neuronalen Entladungen meist in der Nähe des Reizbeginns auf. Diese Neuronen reagieren auch in einzigartiger Weise auf 100 % amplitudenmodulierte (AM) Töne mit Entladungen, die eine Bandpass-Abstimmung aufweisen. Reaktionen auf frequenzmodulierte Geräusche (FM) sind ungewöhnlich: Krakenzellen reagieren während des aufsteigenden Stimulus stärker als die absteigenden Teile des FM-Stimulus. Wir untersuchten Reaktionen von Neuronen im ventralen Kern des lateralen Lemniscus (VNLL), deren Entladungen auf Töne und AM-Klänge denen von Oktopuszellen ähneln. Wiederholte Stimulation mit kurzen Tonpips von VCN- und VNLL-Onset-Neuronen evoziert Züge von Aktionspotentialen mit allmählichen Verschiebungen zu späteren Zeiten in ihrer ersten Spike-Latenz. Dieses Verhalten entspricht einer kurzfristigen postsynaptischen Depression, die von anderen Autoren in In-vitro-VCN-Aufnahmen von Oktopuszellen beobachtet wurde. VCN- und VNLL-Einsatzeinheiten bei Katzen reagieren auf eingefrorene Geräuschstimuli mit Lücken von nur 1 ms mit einer robusten Entladung nahe dem Reizbeginn nach der Lücke. Dieser Befund legt nahe, dass VCN- und VNLL-Onset-Zellen eine Rolle bei der Lückenerkennung spielen, die für die Sprachwahrnehmung von großer Bedeutung ist.;-;-;-;https://link.springer.com/article/10.1007/s10162-020-00757-0 5630dab84aeaf737acb66540b900ab36;de;;;1.1.;;;Zufällige und mehrdeutige Situationen offenbaren spezifische Verzerrungen und Defizite bei der Verarbeitung sozialer Informationen bei Jugendlichen mit niedrigem intellektuellem und klinischem Niveau des externalisierenden Verhaltens Der Umgang mit Aggression bei Jugendlichen erfordert ein Verständnis der Bandbreite sozialer Problemsituationen, die zu einer verzerrten sozialen Informationsverarbeitung (SIP) führen können. Die vorliegende Studie untersuchte die Situationsspezifität von SIP und analysierte, ob SIP-Defizite und -Bias sowohl in mehrdeutigen als auch eindeutig zufälligen Situationen bei Jugendlichen mit klinischem externalisierendem Verhalten oder mit niedrigem intellektuellem Niveau, kongruent mit leichter geistiger Behinderung, gefunden werden. Jugendliche (;-;-;-;https://link.springer.com/article/10.1007/s10802-020-00676-x 5161987685628fd1a1532d090456eb5a;de;;;1.1.;;;Informationsverarbeitung im Striatum der sich benehmenden Affen Neuronale Signale in der Großhirnrinde werden an das Striatum gesendet, das eine wichtige Eingangsstruktur der Basalganglien ist. Das Striatum enthält GABAerge stachelige Projektionsneuronen und Interneurone. Projektionsneuronen, die sowohl über NMDA- als auch AMPA/Kainat-Rezeptoren erregende glutamaterge Inputs vom Kortex und Thalamus erhalten, haben ausgedehnte lokale Axonkollateralen, die Synapsen mit anderen benachbarten Projektionsneuronen bilden. GABAerge Interneurone erhalten kortikale Inputs und innervieren Projektionsneuronen. Daher wird angenommen, dass die Aktivität von Projektionsneuronen von solchen GABAergen Netzwerken im Striatum kontrolliert wird. Um die Funktionen von GABAergen Netzwerken zu untersuchen, haben wir die Aktivität von striatalen Projektionsneuronen bei sich benehmenden Affen während der Ausführung einer Greifaufgabe mit Verzögerung unter Blockade der GABAergen und glutamatergen Neurotransmission aufgezeichnet. Injektion eines GABA;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-0340-2_3 8e43a96118f222eeba60a8641ddf4271;de;;;1.1.;;;Intron-Evolution und Informationsverarbeitung im DNA-Polymerase-α-Gen in spirotrichen Ciliaten: Eine Hypothese zur Umwandlung zwischen DNA- und RNA-Deletion Die somatischen DNA-Moleküle von spirotrichen Ciliaten liegen als lineare Chromosomen vor, die hauptsächlich für einzelne Gene kodierende Sequenzen mit kurzen 5'- und 3'-flankierenden Regionen enthalten. In der flankierenden DNA wurden nur wenige konservierte Motive gefunden. Motive, die eine Rolle bei der Förderung und/oder Regulierung der Transkription spielen könnten, wurden nicht durchgängig nachgewiesen. Darüber hinaus konnten beim Vergleich der subtelomeren Regionen von 1.356 endsequenzierten somatischen Chromosomen keine mutmaßlich konservierten Motive identifiziert werden.;-;-;-;https://link.springer.com/article/10.1186/1745-6150-2-6 5380a228ca50a8a9ab8a1a432c8281dd;de;;;1.1.;;;Entwicklungen in der Quanteninformationsverarbeitung durch Kernspinresonanz: Nutzung von quadrupolaren und dipolaren Kopplungen Die Verwendung von dipolaren und quadrupolaren Kopplungen für die Quanteninformationsverarbeitung (QIP) durch Kernspinresonanz (NMR) wird beschrieben. In diesen Fällen sind die einzelnen Spins nicht Qubits, sondern die 2;-;-;-;https://link.springer.com/article/10.1007/s12043-002-0114-4 ba8d254d1ece9df98c9c00f02026bb21;de;;;1.1.;;;Die Wirkung von Bildern auf die Informationsverarbeitungsstrategie in einer Multiattribute-Choice-Aufgabe Es wurden zwei Experimente durchgeführt, um die Auswirkungen von Bildanweisungen auf die Informationsverarbeitung in einer Multiattribut-Auswahlaufgabe zu bewerten. Die Probanden wurden angewiesen, sich den Besitz und die Nutzung von Alternativen vorzustellen oder die Verwendung von Bildern zu vermeiden und Alternativen analytischer zu bewerten. Anweisungen zur Verwendung von Bildern erzeugten relativ mehr Verarbeitung durch Alternative. Darüber hinaus schienen bildliche Anweisungen die Probanden zu ermutigen, mehr Informationen pro Alternative zu sammeln und eine konstante Menge an Informationen pro Alternative zu sammeln. Die Daten unterstützen auch die Behauptung, dass der Vertrautheitsgrad die Verarbeitungsstrategie beeinflusst.;-;-;-;https://link.springer.com/article/10.1007/BF00436144 ab900107039fee22bba0fc97cf36bc18;de;;;1.1.;;;Neuronale Signaturen selektiver Aufmerksamkeit – Synchronisation und Verstärkungsmodulation als Mechanismen der selektiven sensorischen Informationsverarbeitung Freiwillige Aufmerksamkeit verstärkt selektiv den Einfluss neuronaler Reaktionen, die Informationen über relevante sensorische Eigenschaften vermitteln. Diese Aufmerksamkeitsmodulation der sensorischen Reaktionen spiegelt selektive Verstärkungsänderungen der sensorischen Spiking-Reaktion wider und wird von einer selektiven Synchronisation jener neuronalen Reaktionen innerhalb einer lokalen neuronalen Gruppe begleitet, die Informationen über den begleitenden visuellen Input übermitteln. Während diese empirischen Signaturen der selektiven Aufmerksamkeit im visuellen Kortex aus verschiedenen Analyseebenen abgeleitet werden (einzelne Neuronen vs. neuronale Gruppen), liefern sie komplementäre Einblicke in die selektive Modulation der sensorischen Verarbeitung im Gehirn: Attribute der begleiteten sensorischen Inputs sind diejenigen, die sich innerhalb einer lokalen neuronalen Gruppe am stärksten synchronisieren, während sie ebenfalls die stärkste Verstärkungsänderung ihrer Spiking-Reaktion zeigen. Diese beiden neuronalen Konsequenzen der Aufmerksamkeit erhöhen das Signal-Rausch-Verhältnis für die begleiteten Informationen, aber ihre unterschiedlichen Rollen für die selektive neuronale Verarbeitung wurden nicht in Einklang gebracht. Hier schlagen wir vor, dass die rhythmische Synchronisation der Schlüsselmechanismus ist, der der selektiven Verstärkungssteuerung im sensorischen Kortex während der Aufmerksamkeitsverarbeitung zugrunde liegt. Wir leiten diese Hypothese aus Computerstudien und Erkenntnissen über die physiologischen Mechanismen ab, die eine synchronisierte oszillatorische Aktivität innerhalb neuronaler Gruppen bewirken. Zusammenfassend scheint die willkürliche Aufmerksamkeit rhythmische neuronale Aktivität zu rekrutieren, um ein selektives Verstärkungsmuster innerhalb des visuellen Kortex aufzubauen, um letztendlich die Darstellung der begleitenden sensorischen Informationen zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-70573-4_1 6d4173b1312c3ffa73062ce28dcb3720;de;;;1.1.;;;Hat ein aerobes Ausdauerprogramm einen Einfluss auf die Informationsverarbeitung bei Migränepatienten? Migräne ist eine Störung der zentralen Informationsverarbeitung, die durch eine verminderte Gewöhnung an ereignisbezogene Potenziale gekennzeichnet ist. Aerobes Training kann positive Auswirkungen auf die Gehirnfunktion und Schmerzen haben. Ziel dieser Studie war es, den Einfluss von Bewegung auf die Informationsverarbeitung und den klinischen Verlauf der Migräne zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/1129-2377-15-11 ec12b0d98a2b46c6552f9abb15c7b989;de;;;1.1.;;;Merkmalsunterscheidung und Altersspezifität in der selbstbezogenen Informationsverarbeitung College-Studenten und ältere Erwachsene trafen für denselben Satz von 80 Eigenschaftsadjektiven sowohl Entscheidungen zur Selbstbeschreibung als auch zur Fremdbeschreibung. Die Hälfte der Adjektive waren eher für junge Erwachsene geeignet als für ältere Erwachsene, während der Rest eher für ältere Erwachsene geeignet war. Die zweimalige Bewertung jedes Merkmals ermöglichte es, die Items, die sowohl sich selbst als auch andere beschreiben (geteilt) von denen zu trennen, die nur sich selbst beschreiben (nicht geteilt). Die Adjektivbefürwortung durch junge Erwachsene zeigte eine Altersspezifität für die gemeinsamen (beide) Merkmale, insbesondere für die sympathischen Adjektive, aber nicht für die einzigartigen (nur sich selbst) Merkmale. Das Bestätigungsmuster älterer Erwachsener zeigte keine Altersspezifität für gemeinsame oder nicht geteilte Merkmale, obwohl ältere Erwachsene schneller auf ältere Artikel zugreifen als junge Artikel.;-;-;-;https://link.springer.com/article/10.3758/BF03333980 bf32c99b35de7af1f52d3b528e4aa12a;de;;;1.1.;;;Visuelle Informationsverarbeitung bei Säuglingen mit fokalen Hirnläsionen Die visuelle Informationsverarbeitung für Gesichter wurde mittels des Fagan-Tests der Säuglingsintelligenz (FTII) bei sechs Säuglingen im Alter von etwa 12 Monaten mit angeborenen einseitigen Hirnläsionen getestet. Magnetresonanztomographie (MRT) wurde verwendet, um die Seite und Größe der Läsionen zu bestimmen. Zusätzlich zum FTII wurden alle Säuglinge einer psychometrischen Bewertung unter Verwendung der Griffiths-Skalen unterzogen. Sehschärfe, Gesichtsfeld und Augenmotilität wurden ebenfalls beurteilt. Drei Säuglinge zeigten Schäden in der linken Hemisphäre und drei in der rechten. Die Schwere der Läsionen, wie durch MRT-Scans gezeigt, war in beiden Gruppen ähnlich. Alle Säuglinge außer einem hatten normale oder grenzwertige kognitive Werte auf der Griffiths-Skala. Umgekehrt zeigten vier Säuglinge abnormale Ergebnisse im FTII, die nicht mit der Schwere der Läsionen, psychometrischen Scores oder dem Vorhandensein von Sehstörungen in Zusammenhang standen. Es wurde eine Präferenz für Stimuli auf der linken Seite des Bildschirms gefunden, unabhängig von der Seite der Läsionen. Dieser Effekt war bei neuartigen Stimuli stärker. Die Ergebnisse dieser Studie bestätigen die Bedeutung einer frühzeitigen Erfassung neuropsychologischer Funktionen bei Säuglingen mit fokalen Hirnläsionen.;-;-;-;https://link.springer.com/article/10.1007/s002210050549 b63592e85ee750022761a59916745da4;de;;;1.1.;;;Optische Informationsverarbeitung in Echtzeit Kohärente optische Verarbeitungssysteme sind besonders gut geeignet für die Handhabung der sehr großen Informationsmenge, die in zweidimensionalen Bildern enthalten ist, da sie jede von mehreren Operationen an allen Informationen im Bild parallel ausführen können. Dieser inhärente Vorteil solcher Systeme gegenüber dem herkömmlichen seriellen Ansatz digitaler Computersysteme ist bekannt und wurde in der Vergangenheit [1] mit großem Vorteil für solche Anwendungen wie Kontrastverbesserung, Filtern von korreliertem Rauschen in telemetrischen Bildern, Erkennung usw. , und in jüngerer Zeit wurden Techniken zum Entschärfen von Bildern entwickelt [2].;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-1905-4_19 46197841ba263402969dd4efe740059f;de;;;1.1.;;;Verschränkung in der Quanteninformationsverarbeitung Ich gehe kurz auf den Status der Verschränkung in der Quanteninformationsverarbeitung ein. Seine Rolle ist für die reine Zustandsverarbeitung meist gut verstanden, aber weniger für die gemischte Zustandsverarbeitung. Ich betrachte einen Fall, in dem wir beantworten können, ob Verschränkung bei der Quantenberechnung mit gemischten Zuständen notwendig ist.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-3283-8_3 5ea10e1b2fd80191095be9b89073327e;de;;;1.1.;;;Visuelle Informationsverarbeitung von sequentiell präsentierten Eingaben: III. Weitere Auswirkungen von Listenlänge und Interstimulus-Intervall-Werten auf die Speicher- und Abrufmechanismen von Sub-Span Es wurden zwei Experimente unter Verwendung eines computergestützten Kathodenstrahlröhren-Anzeigesystems durchgeführt, um die Auswirkungen der Hst-Unterspannenlänge, dh zwei, drei, vier und fünf Dezimalstellen und ein relativ kleines Interstimulusintervall (ISI .) weiter zu untersuchen ) Werte, dh 20, 40, 60, 80 und 100 ms, über die Mechanismen der visuellen Informationsverarbeitung, -speicherung und -abfrage. Die Ergebnisse des ersten Experiments bestätigten die in zwei früheren Studien gefundenen kompakten Absichten zwischen Hst-Länge und ISI-Werten, jedoch mit viel kleineren ISI-Werten als zuvor verwendet. Die Ergebnisse des zweiten Experiments, bei dem ungleiche ISI-Werte innerhalb einer Eingabezeichenfolge gleicher Länge verwendet wurden, zeigten eine geringe Auswirkung dieses Parameters, aber es wurde vorgeschlagen, dass eine breitere Verteilung verschiedener ISI-Werte innerhalb derselben Eingabezeichenfolge sehr starke Effekte.;-;-;-;https://link.springer.com/article/10.3758/BF03210170 0839c8a2c0d217940e40e7778d124635;de;;;1.1.;;;Informationsverarbeitung im zerkalen System der Grillen: Auswirkungen des Wachstums Die Informationsverarbeitung durch das Nervensystem findet auf sehr unterschiedlichen Ebenen statt. Externe Informationen, die in physikalischen Reizen enthalten sind, müssen von den Rezeptoren nach relevanten Parametern und einer geeigneten zentralen Konnektivität ausgewählt werden. Andere Informationsquellen sind intern und können bei der Entwicklung eine Rolle spielen, z.B. in der Anordnung einer geordneten Anordnung von Sensillen und den zentralen Projektionen ihrer sensorischen Neuronen. Als Modellsystem diente das zerkale System der Grillen. Die Anordnung der wind- und geräuschempfindlichen fadenförmigen Sinneshaare auf den Cerci ändert sich bei jeder Häutung. In drei Versuchsreihen werden Wechselwirkungen zwischen Wachstum während der Entwicklung und irgendeiner Art von Informationsverarbeitung beschrieben. (I) Die mechanischen Schwingungseigenschaften der Haare wurden bei unterschiedlichem Alter der Haare und der Tiere gemessen. (II) Cercalcuticula wurde an veränderte Positionen in der Getreideepidermis transplantiert, um Mechanismen der Synapsenbildung während der Differenzierung der fadenförmigen Haarsensillen und ihrer sensorischen Neuronen zu untersuchen. (III) Es wurde getestet, ob sich die Reaktionseigenschaften zweier Interneurone auf niederfrequente Schallreize vom 8. Larvenstadium zum adulten Stadium ändern, einer Zeit, in der die Interneurone an Größe wachsen und sich die Zahl der Afferenzen etwa verdoppelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-6410-7_40 e6901a83e337d091355814345a8d29a6;de;;;1.1.;;;Der optische Thyristor mit doppelter Heterostruktur in Anwendungen der optischen Informationsverarbeitung Der optische Doppelheterostruktur-Thyristor ist ein vielversprechendes Gerät für die optische Informationsverarbeitung. Es hat den wichtigen Vorteil, die Empfangs-, Sende- und Speicherfunktionen in einem einzigen Gerät zu vereinen und gleichzeitig einen erheblichen optischen Gewinn zu erzielen. Wir zeigen in diesem Beitrag die Dynamik des Umschaltens eines einzelnen Geräts und mehrerer Geräte in einem Winner-Takes-All-Netzwerk. Wir lösen das Problem der dramatischen Oberflächenrekombinationsverluste ohne Passivierungs- oder Nachwachsschemata, sondern durch geringe Dotierung der äußersten Schichten. Diese Verbesserung führte zu Arrays von empfindlichen Geräten (5 × 5 und 16 × 16 bis zu 32 × 64 Elementen), die in einigen interessanten Anwendungen verwendet werden, wie z Transkribieren paralleler optischer Informationen von einem Array in ein anderes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-78140-7_31 e0555a95de36930d3fcbb84a248ed32e;de;;;1.1.;;;Visuell-vestibuläre Stimulation stört die Informationsverarbeitung bei jungen und älteren Menschen Aufmerksamkeit wurde mit der Haltungskontrolle und anderen Aufgaben in Verbindung gebracht, die eine sensorische Integration erfordern. Das Ziel dieser Studie war es, die Rolle der Aufmerksamkeit bei der sensomotorischen Verarbeitung vestibulärer und kombinierter visuell-vestibulärer Informationen während sitzender Rotationen mit einem Dual-Task-Interferenz-Ansatz zu untersuchen. Wir stellten die Hypothese auf, dass die auditive Informationsverarbeitung durch gleichzeitige visuell-okuläre, vestibulookuläre oder kombinierte visuell-vestibulookuläre Verarbeitung beeinflusst wird. Wir stellten weiterhin die Hypothese auf, dass der Effekt bei älteren Probanden größer wäre. Zwanzig ältere Probanden (10 Frauen, 10 Männer, 69,3 ± 3,2 Jahre) und 20 junge Probanden (10 Frauen, 10 Männer, 23,5 ± 2,9 Jahre) wurden gebeten, Informationsverarbeitungsaufgaben durchzuführen, während sie sich verschiedenen Arten von vestibulärem, visuell-vestibulärem . unterzogen und Augenmotorikparadigmen. Die informationsverarbeitenden Aufgaben waren: (1) eine auditive einfache Reaktionszeitaufgabe (SRT), (2) eine auditive Go-No-Go (disjunktive) Reaktionszeitaufgabe (DRT) und (3) eine auditive Zwangs- Wahlaufgabe (CRT). Die visuell-vestibulär-okulären motorischen Zustände umfassten: (1) keine Bewegung/Dunkelheit (NEIN), (2) keine Bewegung/Fixierung (FIX), (3) keine Bewegung/Verfolgung (P), (4) Erde-vertikale Achse Rotation (EVAR) bei Dunkelheit, (5) EVAR mit Fixierung (E-FIX), (6) Rotation außerhalb der vertikalen Achse (OVAR) bei Dunkelheit und (7) OVAR mit Fixierung (O-FIX). Die Ergebnisse zeigten, dass ältere Probanden im Vergleich zu jungen Probanden längere Reaktionszeiten für alle Kombinationen von Reizbedingung und Reaktionszeitaufgabe hatten. Verglichen mit der NO-Basislinie waren die Reaktionszeiten während der EVAR bei jungen und älteren Probanden länger und während der OVAR bei den jungen Probanden länger. Für FIX und P übertrafen die Reaktionszeiten während P die während FIX und während NO für beide Gruppen. Bei E-FIX und O-FIX unterschieden sich die Reaktionszeiten nicht von denen bei EVAR und OVAR. Die Störung der Informationsverarbeitung durch gleichzeitige vestibuläre Stimulation im Dunkeln kann auf einer kortikalen Hemmung auditiver Prozesse durch vestibuläre Stimulation beruhen. Augenbewegungen, die durch EVAR induziert wurden, zeigten eine erhöhte Phasenvoreilung während Reaktionszeitaufgaben, was auf eine veränderte vestibulookuläre Reflexdynamik (VOR) hindeutet, möglicherweise basierend auf zerebellarvermittelten Änderungen der Geschwindigkeitsspeicherung. Da die Fixierung eines kopffixierten visuellen Ziels nicht zum Effekt der Rotation im Dunkeln beitrug, ist eine weitere Implikation unserer Ergebnisse, dass die VOR-Fixierung während einer gleichzeitigen Informationsverarbeitungsaufgabe hauptsächlich durch VOR-Unterdrückung und nicht durch VOR-Aufhebung.;-;-;-;https://link.springer.com/article/10.1007/s00221-003-1560-z cea3c4d3efb8de7776e6ce7cfb09c15b;de;;;1.1.;;;Informationsverarbeitung in Nervenzellen Das zentrale Nervensystem kann auf funktionaler Ebene als ein sehr ausgeklügeltes Rechengerät betrachtet werden, das eine enorme Menge an eingehenden sensorischen Informationen in Befehle an das motorische System umwandelt, um auf die Welt einzuwirken. Die erforderlichen Berechnungen berücksichtigen vergangene Erfahrungen, d. h. Erinnerungen, und Erwartungen darüber, wie sich die Außenwelt verhält. Eines der ultimativen Ziele der Neurowissenschaften ist es, die von diesem System durchgeführten Berechnungen zu verstehen. Ebenso wichtig ist die Frage nach der Identifizierung der Grundeinheiten der Informationsverarbeitung. Sind einzelne Nervenzellen die elementaren Recheneinheiten oder findet die Informationsverarbeitung auf subzellulärer Ebene statt?;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-6771-8_18 39f7bca07f55d5178bea77c39592bf9c;de;;;1.1.;;;Chemische Informationsverarbeitungsgeräte, die unter Verwendung eines nichtlinearen Mediums mit kontrollierter Erregbarkeit konstruiert sind Chemische Signale aus Anregungspulsen können in einem Medium mit entsprechender geometrischer Anordnung anregbarer und nicht anregbarer Bereiche verarbeitet werden. In diesem Papier betrachten wir zwei Arten von Signalverarbeitungsgeräten: ein binäres Logikgatter und eine neuronenähnliche Struktur mit vier Eingängen. Anhand numerischer Simulationen zeigen wir, dass kleine lokale Änderungen des Erregbarkeitsniveaus des Mediums die vom Gerät ausgeführte Funktion vollständig verändern und somit zur Programmierung genutzt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/11839132_11 220593298b747818c01bd4a5c6d45298;de;;;1.1.;;;Fußgängererkennung durch neuromorphe visuelle Informationsverarbeitung Es gibt viele Untersuchungen zur Fußgängererkennung, da Fußgänger laut Todesfallstatistik auf der Straße großen Gefahren ausgesetzt sind. Um das Wohlbefinden der Fußgänger zu steigern, gab es viele Durchbrüche in der Computer-Vision-Forschung und deren Anwendung in realen Fahrzeugen. Die Zuverlässigkeit und Komplexität des Algorithmus sind jedoch noch sehr zweifelhaft, um die Sicherheit von Fußgängern zu verbessern. Die meisten Computer-Vision-basierten Algorithmen sind komplexer Natur, was wiederum die Kostenfrage für die Fahrzeughersteller erfordert, während die Zuverlässigkeit der meisten Algorithmen bei Nacht (dunkle Umgebung), Regen oder beiden Bedingungen erheblich sinkt. In dieser Arbeit versuchen wir, die Zuverlässigkeit unserer „Augen“ und die Genauigkeit des Computersehens zu erfassen, indem wir neuromorphe visuelle Informationsverarbeitung implementieren. Unsere neuromorphe visuelle Informationsverarbeitung basiert auf den Ergebnissen des Experiments von Hubel und Wiesel am striatischen Kortex der Katze. Aus dem Ergebnis haben wir unsere einzigartige neuromorphe visuelle Informationsverarbeitung geformt, die die Reaktion des quergestreiften Kortex der Katze auf denselben Input nachahmen kann. Und aufgrund seiner neuromorphen Implementierung ist es möglich, es mit relativ einfacher CMOS-Technologie zu implementieren, was die Kosten bei einer möglichen zukünftigen Implementierung reduzieren würde. Der Algorithmus arbeitet, indem er verschiedene Richtungen von Orientierungsmerkmalen unter Verwendung unserer neuromorphen visuellen Informationsverarbeitung extrahiert, dann wird ein neuronales Netzwerk mit einer Vorlage darauf angewendet, die dem Oberkörper des menschlichen Körpers ähnelt. Unsere Methode zur Extraktion von Orientierungsmerkmalen und die Verwendung eines neuronalen Netzes stellen die Zuverlässigkeit unseres Algorithmus sicher, um auch unter anderen Bedingungen wie in grauer Umgebung (Dämmerungsumgebung) gut zu funktionieren. Aktuelle Ergebnisse aus Daten, die an verschiedenen Orten in Korea, in London und aus der Daimler-Datenbank erfasst wurden, zeigen, dass unser Algorithmus erfolgreich funktioniert. Diese Datensätze variieren alle, da die Umgebung unterschiedlich ist. Der in London erfasste Datensatz umfasst insbesondere die engen Straßen und die stärkere Präsenz von Fußgängern oder Radfahrern. Trotz alledem war die Erkennung erfolgreich, da nur wenige Parameteränderungen der Änderung des Bildtyps gerecht werden konnten. Zusammenfassend lässt sich sagen, dass diese Forschung erfolgreich Fußgänger mithilfe des neuromorphen CMOS-Ansatzes erkannt hat, um die Kosten für die Implementierung zu reduzieren und gleichzeitig die Genauigkeit und Zuverlässigkeit der Erkennung zu verbessern, über 90 % für den Videodatensatz, der sowohl bei Tag als auch bei Nacht aufgenommen wurde. Derzeit läuft auch ein Projekt mit Hyundai Motor Co., um eine Hardware zu implementieren, die unsere Arbeit nutzt, um Fußgänger zu erkennen, um sie zu warnen, wenn das Elektrofahrzeug von Hyundai in ihrer Nähe ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33805-2_29 6baea759ec41ea82ace0602f5a0f7ae7;de;;;1.1.;;;Informationsverarbeitung im motorsensorischen Kortex Um die Informationsverarbeitung im motorisch-sensorischen Kortex zu diskutieren, müssen wir wissen, welche Informationen diesen Teil des Gehirns erreichen, wie sie verarbeitet werden und zu welchem ​​Zweck. Wir beginnen mit der Definition des motorisch-sensorischen Kortex und machen erste Vermutungen über die Funktionen, die er erfüllen könnte. Als nächstes betrachten wir die Arten von Informationen, die sie erreichen, und wie die Zielzellen für diese sensorischen Eingaben im kortikalen Gewebe verteilt und gruppiert sind. Nachdem wir die motorischen Outputs dieser Zellen untersucht haben, können wir einige Input-Output-Eigenschaften für anatomisch definierbare Zellgruppen formulieren. Nachdem wir die minimalen Input-Output-Bausteine ​​des motorischen sensorischen Kortex festgelegt haben, werden wir unsere Vermutungen über seine Funktionen erneut überprüfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-87086-6_12 472004ac3691725d8c21f5af9805b166;de;;;1.1.;;;Epitaxiale Strukturen für optische Informationsverarbeitungsanwendungen: Supergitter-Infrarotdetektoren Fortschritte bei epitaktischen Wachstumstechniken wie Molekularstrahlepitaxie und metallorganische chemische Gasphasenabscheidung haben die Bildung hochwertiger III-V-Heterostrukturen mit dimensionaler Kontrolle bis auf atomare Ebene mit abrupter Dotierung und nahezu defektfreien Grenzflächen erleichtert. Die Flexibilität und bemerkenswerte Kontrolle, die diese Techniken bieten, haben zur Herstellung neuer Bauelemente geführt, die auf der Begrenzung oder Modulation von Ladungsträgern in dünnen III-V-Heterostrukturen basieren. Es wird erwartet, dass Quantenquellen und übergitterbasierte Vorrichtungen in der optischen Informationsverarbeitung als Quellen, Modulatoren und Detektoren verwendet werden. In diesem Artikel werden wir die allgemeinen epitaktischen Anforderungen für Quantentöpfe und Übergitter-basierte Geräte überprüfen und die Herstellung und Eigenschaften einer neuen Klasse von Infrarot-Photodetektoren diskutieren, die Intraband-Übergänge in Quantentöpfen verwenden.;-;-;-;https://link.springer.com/article/10.1557/PROC-228-249 c21fe958b80f74ba8224f18f9f2dc01a;de;;;1.1.;;;Informationsverarbeitung im präfrontalen Kortex des Primaten Das Arbeitsgedächtnis ist ein Mechanismus zur kurzfristigen aktiven Speicherung von Informationen und zur Verarbeitung gespeicherter Informationen. Das Arbeitsgedächtnis ist ein wichtiges Konzept, um präfrontale kortikale Funktionen zu verstehen. Obwohl Beweise für temporäre Speichermechanismen von Informationen gesammelt wurden, ist wenig über neuronale Mechanismen der Informationsverarbeitung bekannt. Um zu verstehen, wie Informationen im Nervensystem verarbeitet werden, müssen wir wissen, welche Informationen die Aktivität einzelner Neuronen repräsentiert und wie sich die repräsentierten Informationen durch Aktivitäten einzelner Neuronen im zeitlichen Ablauf des Versuchs ändern. Wir verwendeten zwei Arten von okulomotorischen Versionen der DelayedResponse (ODR)-Aufgaben und untersuchten, welche Informationen die präfrontale Einzelneuronenaktivität darstellt. Wir stellten fest, dass alle Aktivitäten in der Cue-Periode Cue-Positionen darstellten und dass die meisten Aktivitäten in der Verzögerungszeit Cue-Positionen darstellten. Die meisten okulomotorischen Aktivitäten repräsentierten jedoch Sakkadenrichtungen. Diese Ergebnisse legen nahe, dass präfrontale Neuronen an der sensomotorischen Transformation beteiligt sind. Um die präfrontale Beteiligung an der sensomotorischen Transformation zu untersuchen, analysierten wir die Aktivitäten einzelner Neuronen mit einer Populationsvektoranalyse. Als Ergebnis haben wir festgestellt, dass sich die Informationen, die durch eine Population von PFC-Neuronen repräsentiert werden, während der Verzögerungsperiode allmählich von Informationen für visuelle Hinweise zu denen für Sakkade ändern.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-7949-4_9 947c1187a7687557b04e39b6237d33c3;de;;;1.1.;;;Unterscheidung zwischen aufmerksamkeits- und amnestischen Effekten bei der Informationsverarbeitung: die getrennten und kombinierten Wirkungen von Scopolamin und Nikotin auf die verbale freie Erinnerung Ein wichtiges Thema in unserem Verständnis der cholinergen Modulation der Informationsverarbeitung ist das Ausmaß, in dem arzneimittelinduzierte Veränderungen die Gedächtnisprozesse per se oder einfach die Aufmerksamkeitsprozesse beeinflussen, die für eine effektive Informationsaufnahme erforderlich sind. In dieser Studie untersuchten wir die getrennten und kombinierten Wirkungen von Scopolamin und Nikotin auf die verbale freie Erinnerung. Eine Einzeldosis Nikotin verbesserte die Erinnerungsleistung auf Supraspan-Listen (30 Wörter), aber nicht auf Shortlists (10 Wörter). Die gleiche Nikotindosis hatte keinen Einfluss auf die Scopolamin-induzierten Erinnerungsdefizite, die sowohl für 30- als auch für 10-Wörter-Listen beobachtet wurden. Die Ergebnisse werden im Hinblick auf die Unabhängigkeit von Aufmerksamkeits- und Gedächtnisprozessen und die Spezifität der Wirkung dieser beiden cholinergen Verbindungen diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF02246037 ab1d1809392e07eb506e69662409939b;de;;;1.1.;;;Auf dem Weg zur Erweiterung der Quanteninformationsverarbeitung von gefangenen Ionen Jüngste theoretische Fortschritte haben mehrere Rechenalgorithmen identifiziert, die mithilfe von Quanteninformationsverarbeitung (QIP) implementiert werden können, was eine exponentielle Beschleunigung gegenüber den entsprechenden (bekannten) Algorithmen auf herkömmlichen Computern bietet. QIP nutzt die kontraintuitiven Eigenschaften der Quantenmechanik, wie die Verschränkung und das Superpositionsprinzip. Leider war es bisher unmöglich, ein praktisches QIP-System zu bauen, das herkömmliche Computer übertrifft. Atomare Ionen, die in einem Array miteinander verbundener Fallen eingeschlossen sind, stellen einen potenziell skalierbaren Ansatz für QIP dar. Alle Grundvoraussetzungen wurden in ein- und zwei Qubit-Experimenten experimentell nachgewiesen. Die verbleibende Aufgabe besteht darin, das System auf viele Qubits zu skalieren und gleichzeitig Fehler im System zu minimieren und zu korrigieren. Dies erfordert zwar äußerst anspruchsvolle technologische Verbesserungen, jedoch sind derzeit keine grundlegenden Hindernisse in Sicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73466-6_43 0615bf2a2aa5b81b2e622074cba22054;de;;;1.1.;;;Augenblinzeln hängt mit der auditiven Informationsverarbeitung zusammen: Beweise für eine komplexe Sprachwahrnehmungsaufgabe Es gibt zunehmend Hinweise darauf, dass spontanes Augenzwinkern mit mentalen Zuständen zusammenhängt und die Leistung bei bestimmten Aufgaben aufgrund ihres Zusammenhangs mit der dopaminergen Aktivität vorhersagen kann. Darüber hinaus hat sich gezeigt, dass Augenblinzeln während der Ausführung von Sehaufgaben vorzugsweise nicht ausgeführt wird, bevor alle verfügbaren Informationen und sogar die manuelle Reaktion verarbeitet und gegeben wurden. Somit stellen Blinzeln einen natürlichen Endpunkt der visuellen Informationsverarbeitung dar. In der vorliegenden Studie untersuchen wir, inwieweit eine solche funktionelle Zuordnung des Lidschlags auch dann zutrifft, wenn nur auditive Reize verarbeitet werden. Dazu präsentieren wir Blinzelanalysen an Daten einer auditiven Aktienkursüberwachungsaufgabe, um das Timing und die Häufigkeit von Blinzeln in Bezug auf die zeitliche Dynamik der Aufgabe und verschiedene Arten von verfügbaren Hinweisen zu untersuchen. Unsere Ergebnisse zeigen, dass Blinzeln sinnvoll statt zufällig ablaufen, obwohl keine visuellen Informationen verarbeitet werden müssen. Das Blinzeln wird deutlich beschleunigt, wenn ein No-Go-Versuch angezeigt wird, der alle nachfolgenden Informationen irrelevant macht. Obwohl die Reize ausschließlich akustisch waren, wurde das Blinzeln während der Reizdarbietung meist gehemmt. Zusammengenommen hängen Blinks von den dargebotenen Informationen ab und markieren einen bestimmten Zeitpunkt, zu dem diese Informationen abschließend verarbeitet werden. Diese Ergebnisse liefern weitere Unterstützung für die Nützlichkeit von Eyeblink-Analysen, unabhängig von der Modalität der verarbeiteten Informationen.;-;-;-;https://link.springer.com/article/10.1007/s00426-017-0952-9 4c9cebc5ed95036ce3a38d99650d1b96;de;;;1.1.;;;Adaptive Informationsverarbeitung von Netzwerkmodulen an dynamische und räumliche Reize Anpassung und Homöostase sind grundlegende Merkmale der Informationsverarbeitung in Zellen und werden in einem breiten Spektrum von Zusammenhängen gesehen. Ein Großteil des gegenwärtigen Verständnisses von Anpassung in Netzwerkmodulen/-motiven basiert auf deren Reaktion auf einfache Reize. Neuerdings gibt es auch Studien zur Adaptation bei dynamischen Reizen. Es fehlt jedoch weitgehend eine umfassendere Synthese, wie verschiedene Anpassungsschaltkreise funktionieren und welche Schaltkreise ein breiteres adaptives Verhalten in Klassen komplexerer und räumlicher Reize ermöglichen.;-;-;-;https://link.springer.com/article/10.1186/s12918-019-0703-1 35de092679b3ac715ae2aebe36366871;de;;;1.1.;;;Hippocampale Kontrolle der cingulären kortikalen und anterioren thalamischen Informationsverarbeitung während des Lernens bei Kaninchen Frühere Studien zu den neuralen Determinanten der diskriminativen Vermeidungskonditionierung bei Kaninchen haben ein theoretisches Modell gefördert, das die interaktive Funktion des cingulären Kortex (Brodmann-Area 24 und 29), der anterioren ventralen und medialen dorsalen Thalamuskerne (AVN und MDN) und des Hippocampus beschreibt describes . Hier testen wir Hypothesen des Modells zum Einfluss des Hippocampus auf die kortikale und thalamische Informationsverarbeitung. Die Kaninchen lernten, lokomotorische konditionierte Reaktionen (CRs) in einem Aktivitätsrad als Reaktion auf einen akustischen (reinen) positiven konditionalen Reiz (CS+) durchzuführen. Ein unbedingter Schockreiz (US) wurde 5 s nach CS+-Beginn gegeben, aber die Fortbewegung während des CS+-US-Intervalls verhinderte den US. Die Kaninchen lernten auch, einen zweiten Ton (einen negativen bedingten Reiz, CS-) mit einer anderen Hörfrequenz als der CS+ zu ignorieren, der die USA nicht vorhersagte. Multi-unit-Aktivität und intrakranielle Makropotentiale wurden im cingulären Kortex und dem AVN während Akquisition, Übertraining, Extinktion, Reakquisition und Umkehrtraining aufgezeichnet. Die Daten wurden bei intakten Kaninchen und bei Kaninchen mit bilateralen Läsionen des subikulären Komplexes, dem Ursprung der Projektionen der Hippocampus-Formation zum cingulären Kortex und AVN, erhalten. Außerdem wurde die Aktivität im AVN in einer separaten Gruppe von Kaninchen mit posterioren cingulären kortikalen (Bereich 29) Läsionen aufgezeichnet. Subikuläre und Area 29-Läsionen waren mit einer Verstärkung der trainingsinduzierten CS+-ausgelösten neuronalen Reaktion im AVN verbunden. Die Häufigkeit von CRs war bei Tieren mit subikulären Läsionen erhöht. CS-ausgelöste Einheitsreaktionen in den cingulären Kortizes wurden bei Kaninchen mit subikulären Läsionen abgeschwächt. Beide Läsionen waren mit signifikant erhöhten Amplituden der vom CS hervorgerufenen durchschnittlichen kortikalen und thalamischen Makropotentiale verbunden. Diese Ergebnisse legten die folgenden Schlussfolgerungen nahe: a) subikulokortikale Afferenzen bieten einen aktivierenden Einfluss, der für die CS-ausgelöste Erregung im cingulären Kortex essentiell ist, b) die cinguläre kortikale Exzitationsantwort in intakten Tieren übt einen limitierenden Einfluss auf die Aktivität im AVN aus, c) die verstärkte neuronale AVN-Antwort bei Kaninchen mit Läsionen ist auf das Fehlen des limitierenden Einflusses zurückzuführen und trägt zur erhöhten CR-Frequenz bei diesen Tieren bei. Es wird vermutet, dass der Hippocampus über subiculokortikale Projektionen den Fluss von CR-induzierenden thalamokortikalen exzitatorischen Salven steuert. Diese Governance bestimmt den Zeitpunkt des CR-Outputs. Die Ergebnisse der hippocampalen Verarbeitung von Kontextinformationen, die durch die subiculokortikale Projektion wirken, bestimmen den für die CR am besten geeigneten Zeitpunkt.;-;-;-;https://link.springer.com/article/10.1007/BF00269462 a82ffe3c11bb22163c6100511847f661;de;;;1.1.;;;Nutzen Menschen Risiko-Ertrags-Strukturen, um die Informationsverarbeitung bei riskanten Entscheidungen zu vereinfachen? Die hohen Belohnungen, die sich die Leute wünschen, sind oft unwahrscheinlich. Hier haben wir untersucht, ob Entscheidungsträger solche ökologischen Korrelationen zwischen Chancen und Risiken nutzen, um ihre Informationsverarbeitung zu vereinfachen. In einer Lernphase wurden die Teilnehmer Optionen ausgesetzt, bei denen Risiken und Chancen negativ, positiv oder nicht korreliert waren. In einer anschließenden riskanten Auswahlaufgabe, bei der der Schwerpunkt darauf lag, entweder eine „schnelle“ oder „bestmögliche“ Wahl zu treffen, wurden die Augenbewegungen der Teilnehmer verfolgt. Die Veränderungen der Anzahl, Verteilung und Richtung der Augenfixationen in „schnellen“ Studien unterschieden sich nicht zwischen den Risiko-Ertrags-Bedingungen. In den „besten“ Studien senkten die Teilnehmer mit der negativ korrelierten Bedingung jedoch ihre Evidenzschwelle, reagierten schneller und wichen stärker von der Erwartungswertmaximierung ab als in den anderen Risiko-Ertrags-Bedingungen. Die Ergebnisse unterstreichen, wie Schlussfolgerungen über die kognitive Verarbeitung von Menschen bei riskanten Entscheidungen von Risiko-Ertrags-Strukturen abhängen können, einer oft vernachlässigten Umwelteigenschaft.;-;-;-;https://link.springer.com/article/10.1007/s40881-019-00068-y f35e70a8f30bdbbbb6d2d1764588556d;de;;;1.1.;;;Bestätigende Informationsverarbeitung bei Rechtsentscheidungen: Wirkung intimer Verurteilung Eine umfangreiche Forschungsarbeit hat sich auf die rechtliche Entscheidungsfindung in gemischten Gerichten aus Laien- und Berufsrichtern konzentriert. Es wurden jedoch nur wenige Studien durchgeführt, um die Auswirkungen der intimen Verurteilungsanweisung (ICI), einer Entscheidungsregel, die auf der Eindrucksbildung basiert, die in Zivilrechtssystemen verwendet wird, auf die Beweisverarbeitung zu testen. Der Einfluss der beiden Facetten der IKI (Entscheidungsregel und Motivationserfordernis) auf die konfirmatorische Informationsverarbeitung (CIP) wurde in einem Schaden-to-Person-Fall untersucht. Unter Verwendung einer Methodik, die das simulierte Juror- ​​und CIP-Paradigma kombiniert, wurden die Entscheidungsregel (basierend auf Eindruck vs. Rationalität) und die Motivationsanforderung (erforderlich vs. nicht erforderlich) manipuliert, um ihre Auswirkungen auf Assimilations- und selektive Expositionsverzerrungen zu beobachten. Die Ergebnisse zeigten signifikante Wechselwirkungen der beiden Facetten des ICI, jedoch nur auf dem Assimilationsbias. Diese Ergebnisse werden im Lichte der Beweisverfahren im Rahmen der strafgerichtlichen Entscheidungsfindung diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s11896-019-9316-2 f01bff646a059f672f3a3f7ac110bf0d;de;;;1.1.;;;In-silico-Design computergestützter Nukleinsäuren für die molekulare Informationsverarbeitung In den letzten Jahren sind Nukleinsäuren zu einem Schwerpunkt des Interesses für prototypische Implementierungen von molekularen Computerkonzepten geworden. Im gleichen Zeitraum wurde zunehmend die Bedeutung von Ribonukleinsäuren als Komponenten der regulatorischen Netzwerke in lebenden Zellen erkannt. Molekulare Computer sind attraktiv aufgrund ihrer Fähigkeit, innerhalb eines biologischen Systems zu funktionieren, einem Anwendungsgebiet, das dem gegenwärtigen Informationstechnologie-Paradigma fremd ist. Die Existenz natürlicher Informationsverarbeitungsarchitekturen (vorwiegend durch Proteine ​​veranschaulicht) zeigt, dass Computer auf der Grundlage von physikalischen Substraten, die sich radikal von Silizium unterscheiden, durchführbar sind. Zwei Schlüsselprinzipien liegen der Informationsverarbeitung auf molekularer Ebene in Organismen zugrunde: Konformationsdynamik von Makromolekülen und Selbstorganisation von Makromolekülen. Nukleinsäuren unterstützen beide Prinzipien, und darüber hinaus ist ein computergestütztes Design dieser Moleküle praktikabel. Diese Studie demonstriert die Einfachheit, mit der man einen Satz von Nukleinsäure-Recheneinheiten unter Verwendung eines neuen Rechenprotokolls konstruieren kann. Mit dem neuen Protokoll wurden verschiedene Klassen von Nukleinsäuren konstruiert, die den vollständigen Satz von booleschen logischen Operatoren imitieren. Diese Nukleinsäureklassen weisen günstige thermodynamische Eigenschaften auf und sind der im Labor implementierten Annäherung erfolgreicher Kandidaten deutlich ähnlich. Dieses neue Protokoll würde den Aufbau eines Netzwerks miteinander verbundener Nukleinsäuren (als Schaltkreis) für die molekulare Informationsverarbeitung ermöglichen.;-;-;-;https://link.springer.com/article/10.1186/1758-2946-5-22 993b4d32909d936208e7143891f6e334;de;;;1.1.;;;CIN: Ein intelligentes Informationsmanagement-Toolkit Informationssysteme sind oft mit unvollständigen Informationen konfrontiert und müssen daher plausible Vermutungen anstellen, um zufriedenstellend zu funktionieren. Ein einfaches Beispiel ist die Closed-World-Annahme, die in Datenbanksystemen weit verbreitet ist. Default Reasoning stellt formale Methoden zur Verfügung, die ein solches Verhalten unterstützen, die plausiblen Vermutungen werden in Ermangelung vollständiger Informationen anhand von Default-Regeln („Faustregeln“) aufgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34979-4_44 0a353cbb296d362a6f063d5e075673c9;de;;;1.1.;;;Unterschiedliche Sichtweisen: Wie geschlechtsspezifische Unterschiede in der Informationsverarbeitung die Inhaltsanalyse narrativer Texte beeinflussen Dieses Manuskript untersucht das Potenzial von Bias in der qualitativen Forschung aufgrund des Coder-Genders. Es berichtet über eine Studie zu Geschlechtsunterschieden bei der Kodierung von Männern und Frauen, basierend auf einer Kodierungsaufgabe, die schriftliche Erzählungen umfasst, die von 18 Männern und 17 Frauen ausgefüllt wurden. Die Studie fand geschlechtsspezifische Unterschiede bei der Kodierung, das Vorhandensein/Fehlen von 10 Themen im Zusammenhang mit dem Geschenkaustausch und drei Geschlechterrollenkonzepten sowie Unterschiede in der Intercoder-Zuverlässigkeit basierend auf der geschlechtlichen Zusammensetzung der Coderpaare. Bei mehreren Hypothesen waren die Unterschiede entgegengesetzt zu den vorhergesagten. Die überraschenden Ergebnisse deuten auf die Komplexität qualitativer Daten hin und unterstreichen die Notwendigkeit größerer Sorgfalt bei deren Analyse. Es werden spezifische Empfehlungen für Forschende gegeben, die qualitative Daten verwenden, und es werden Vorschläge für zukünftige Forschungen gemacht.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008150826550 997dd7d1f2a88f79cee68198cc24d4d0;de;;;1.1.;;;Der Geburtsfehler des Informationsverarbeitungsansatzes Die akademische Psychologie wird seit etwa sechs Jahrzehnten vom Informationsverarbeitungsansatz (IPA) dominiert. Nach der IPA dienen mentale Aktivitäten, also Kognitionen, der Verarbeitung von Reizen, um eine Repräsentation der Umwelt zu rekonstruieren. Es wird argumentiert, dass diese Vorstellung irreführend ist: Geistige Aktivitäten dienen in erster Linie der Kontrolle freiwilligen Verhaltens. In dieser Funktion streben sie nach Antizipationen erreichbarer Zustände. Dementsprechend bezieht sich Kognition nicht auf die Verarbeitung, sondern auf die Antizipation erreichbarer gewünschter Reize oder Zustände. Zwei „alte“ Konzeptionen in der Psychologie haben bereits die entscheidende Rolle verhaltensgeleiteter Antizipationen betont: die Reafference – und das ideomotorische Prinzip, wobei sich erstere mit den Grundlagen der Wahrnehmung und letztere mit den Grundlagen der Verhaltenssteuerung befasst. Es werden Spekulationen darüber diskutiert, wie beide Prinzipien zusammenwirken könnten, um willkürliches Verhalten zu kontrollieren und dadurch die mentale Struktur der wahrgenommenen Welt zu schaffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22599-9_3 ee34a35c446415be03432e0599a4f3cc;de;;;1.1.;;;Analytischer Informationsverarbeitungsstil bei Migränepatienten Trotz großer Fortschritte in den pathophysiologischen Facetten der Migräne, die in den letzten Jahren gemacht wurden, ist die Migräneätiologie bis heute noch nicht vollständig verstanden, außerdem muss bis heute der Zusammenhang zwischen psychologischen Faktoren und diesem primären Kopfschmerz weiter aufgeklärt werden. Allerdings wurde eine abnormale Informationsverarbeitung, gemessen an evozierten und ereignisbezogenen Potenzialen, als ein Schlüsselmerkmal in der Migränepathogenese angesehen. Das Ziel dieser Arbeit war es, die Beziehungen zwischen dem analytischen/globalen Stil der Informationsverarbeitung und Migräne zu untersuchen und einen analytischen Stil zu vermuten, wie in unserer vorherigen Studie zum Cluster-Kopfschmerz hervorgehoben wurde. In dieser Studie wurden drei Tests des kognitiven Stils angewendet, die noch nie zuvor im Kontext von Migräne verwendet wurden: „Sternberg-Wagner Self-Assessment Inventory“, die C. Cornoldi-Testreihe AMOS und Brain-Dominance Questionnaire. 280 Migränepatienten mit und ohne Aura wurden getestet und zwei Kontrollgruppen zugeordnet: gesunde Probanden und Patienten mit Spannungskopfschmerz. Unsere Ergebnisse zeigten eine starke Korrelation zwischen dem analytischen Informationsverarbeitungsstil und Migräne, was auf eine Bevorzugung eines visuellen sensorischen Ansatzes bei Migräne ohne Aura im Einklang mit bekannten neuroelektrophysiologischen Daten hinweist. Diese Ergebnisse könnten eine Rolle für dieses spezifische kognitive Verhalten in der Migräne-Pathogenese nahelegen, was uns dazu veranlasst, die neuroelektrophysiologischen, neurobiologischen und epigenetischen Korrelate weiter zu untersuchen.;-;-;-;https://link.springer.com/article/10.1007/s10072-012-1193-8 5fffe985f406dbc8aacab3a3e9b9ce0f;de;;;1.1.;;;Primaten-Informationsverarbeitung unter Natriumpentobarbital und Chlorpromazin: Differentielle Arzneimittelwirkungen mit tachistoskopisch präsentierten diskriminativen Reizen Natriumpentobarbital und Chlorpromazin wurden daraufhin untersucht, inwieweit sie die Geschwindigkeit oder Effizienz, mit der sensorische Informationen verarbeitet werden können, unterschiedlich reduzieren. Rhesusaffen wurden unter vergleichbaren Dosen von Natriumpentobarbital und CPZ auf ein visuelles Diskriminierungsproblem mit unterschiedlicher Dauer tachistoskopisch präsentierter Reizinformationen getestet. Wenn unbegrenzte Stimulusinformationen verfügbar waren, wurden bei den verwendeten Dosen keine Wirkungen der beiden Medikamente beobachtet, aber mit zunehmender Verkürzung der Dauer der Stimuluspräsentation wurden die Wirkungen von Natriumpentobarbital schwerwiegender, während CPZ sich bei nicht von der Kochsalzlösung unterschied beliebige Präsentationsdauer. Während früher veröffentlichte Literatur darauf hindeutet, dass CPZ die Leistung durch intermittierende Blockierung sensorischer Eingaben oder Übertragungen beeinträchtigt, liefern die vorliegenden Daten die erste direkte Verhaltensbestätigung, dass Barbiturate die Leistung beeinträchtigen, indem sie die Geschwindigkeit verzögern, mit der sensorische Reize verarbeitet und verwendet werden können.;-;-;-;https://link.springer.com/article/10.1007/BF00492359 88d60def4010be065ab8766884a56c81;de;;;1.1.;;;Die Entwicklung eines intelligenten Wissens- und Informationsmanagementsystems im E-Commerce basierend auf Fuzzy Cognitive Map und Ontologie Ontologien sind formale, explizite Spezifikationen gemeinsamer Konzeptualisierungen eines bestimmten Diskursbereichs. Fuzzy Cognitive Map (FCM) ist eine Modellierungs- und Simulationsmethodik, die ein beliebiges System auf einer abstrakten konzeptuellen Darstellung beschreibt. Schließlich wird das intelligente Wissens- und Informationsmanagementsystem im E-Commerce basierend auf Ontologie und FCM vorgeschlagen. Unsere Experimente haben gezeigt, dass die vorgeschlagene Methodik die Ableitung wichtigerer Ontologiebegriffe und nützlichere Ontologieregeln aus dem Informationssystem ermöglicht. Die experimentellen Ergebnisse zeigen, dass diese Methode sehr vielversprechend ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27287-5_23 5e3ea26bcf8286ebd9f24afd11ae92ec;de;;;1.1.;;;Informationsverarbeitung und Basalganglienfunktion Einige Teile des Striatums erhalten Inputs von Teilen des Gehirns auf der höchsten Ebene der Informationsverarbeitung wie dem Assoziationskortex und limbischen Strukturen. Die erste in diesem Kapitel behandelte Frage ist, ob die Basalganglien einen Weg für Informationen von diesen höchsten Ebenen der Informationsverarbeitung zur Beeinflussung der motorischen Funktion bieten, da das Striatum über andere Teile der Basalganglien zu Strukturen führt, die mit motorischen Funktionen befasst sind, wie z der prämotorische Kortex und der ergänzende motorische Bereich. Einige Teile des Striatums erhalten auch Inputs von Strukturen, die mit Bewegung befasst sind, wie dem motorischen Kortex und dem somatosensorischen Kortex. Eine zweite betrachtete Frage ist daher, ob es im Striatum eine Mischung oder Integration der Eingaben gibt, die es von den Teilen des Kortex erhält, die mit der Informationsverarbeitung auf hoher Ebene befasst sind, und vom limbischen System mit Eingaben, die von den somatosensorischen und motorischen Kortizes empfangen werden . Diese Fragen werden anhand von Erkenntnissen sowohl aus der Anatomie als auch aus der Neurophysiologie der Basalganglien untersucht. Bevor ich das Thema der hierarchischen Organisation der Informationsverarbeitung in jedem der sensorischen Systeme verlasse und was die gefundene hierarchische Organisation erreicht, möchte ich darauf hinweisen, dass diese Fragen und die Art der Kodierung in solchen neuronalen Systemen diskutiert werden an anderer Stelle (Rolls 1987a, 1988).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-3147-2_15 30866fe8f6197eecce6d2630054f9715;de;;;1.1.;;;Flotation REST und Informationsverarbeitung: Eine Reaktionszeitstudie In der Vergangenheit gab es viele Debatten über die Auswirkungen der sensorischen Isolation auf die kognitiven Funktionen und den Erregungszustand. Diese vorläufige Studie untersucht die Auswirkungen von Flotations-REST auf Erregung und Aufmerksamkeit. Die Geschwindigkeit der manuellen Reaktion auf einen einfachen visuellen Reiz und eine komplexere Zwei-Wahl-Reaktionszeitaufgabe wurden verwendet, um die kognitive Wachheit und Aufmerksamkeit zu beurteilen. Physiologische Messungen der Entspannungsreaktion, des Herz- und Blutdrucks und des Stimmungszustands wurden ebenfalls aufgezeichnet. Zwölf Probanden erlebten zwei REST- und zwei Kontrollsitzungen (eine pro Tag, 45 min) in abwechselnder Reihenfolge (REST-Kontrolle-REST-Kontrolle oder umgekehrt). Die Ergebnisse zeigten eine signifikante Abnahme der Herzfrequenz und des Blutdrucks in REST, jedoch nicht unter Kontrollbedingungen. Die Reaktionszeitaufgaben wurden in REST und Kontrolle gleich gut ausgeführt, was darauf hindeutet, dass in REST weder eine kognitive Desorganisation noch eine Steigerung der Aufmerksamkeit auftrat. Zu den berichteten Stimmungsschwankungen in REST gehörten verringerte Angst und Anspannung und erhöhte Energie. In der Kontrollbedingung traten keine Stimmungsänderungen auf. Obwohl die Ergebnisse dieser Studie die Möglichkeit nicht ausschließen, dass bei REST eine kognitive Desorganisation auftreten kann, scheint es, dass REST mit Entspannung verbunden ist, was zu einer geringeren Angst und einem erhöhten Energiegefühl ohne Veränderung der kognitiven Leistung führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-9701-4_9 0cf71d886a8255c066234059b94266d7;de;;;1.1.;;;Beeinträchtigung der Informationsverarbeitungsgeschwindigkeit und des Arbeitsgedächtnisses bei Leukenzephalopathie mit Beteiligung des Hirnstamms und des Rückenmarks und erhöhtem Laktat (LBSL) und Leukenzephalopathie mit Beteiligung des Hirnstamms und des Rückenmarks und erhöhtem Laktat (LBSL) ist klinisch durch progressive Pyramiden- und Kleinhirndysfunktion, Dysfunktion der Wirbelsäule und manchmal mit axonaler Neuropathie gekennzeichnet. Die Magnetresonanztomographie des Gehirns und des Rückenmarks zeigt charakteristische Befunde. LBSL wird durch Mutationen in der verursacht;-;-;-;https://link.springer.com/article/10.1007/s00415-013-6940-0 65e95049ca23517a14b1e1b232ba6eab;de;;;1.1.;;;Regulation der Informationsverarbeitung im Hippocampus durch K+ Release und (K+)o Akkumulation: Mögliche Rolle beim Lernen Der Hippocampus hat einen eigentümlich eingeschränkten extrazellulären Raum, nicht so sehr, weil seine extrazellulären Spalten besonders eng sind, sondern eher, weil sie sehr wenig verzweigt sind (Green und Maxwell, 1961). Beatriz Vasquez und ich erhielten 1967 (unveröffentlicht) Inulinraumwerte von 7,9 ± 1,2 % (n = 12) für den Hippocampus der Ratte, gegenüber 13,3 ± 2,1 % (n = 4, p unter 0,0005) für den Rest der Großhirnhemisphäre. Messungen der relativen Oberfläche, die von extrazellulären Spalten eingenommen wird, in elektronenmikroskopischen Aufnahmen von Stratum pyramidale und radiale der Ratte (Green und Maxwell, 1961) ergaben in unseren Händen noch kleinere Werte von 2,0% oder weniger. In diesen Schichten des Hippocampus stehen sich Neuronen über weite Strecken gegenüber, nur durch die Interzellularspalten getrennt, ohne dazwischenliegende Gliafortsätze (Green, 1964, Green und Maxwell, 1961), und die Situation ist eindeutig ein Extremfall von denen, die von Lebovitz (1970) theoretisch untersucht wurden, bei denen neuronale Aktivität lang anhaltende (K+)o-Ansammlungen verursacht.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-3066-0_9 cded2a7d7196906629afea1d3b48455f;de;;;1.1.;;;Niedrige visuelle Informationsverarbeitungsgeschwindigkeit und Aufmerksamkeit sind Prädiktoren für Müdigkeit bei Grund- und Mittelschülern Müdigkeit ist eine häufige Beschwerde bei Grund- und Mittelschülern und wird bekanntermaßen mit verminderten schulischen Leistungen in Verbindung gebracht. Kürzlich haben wir gezeigt, dass Müdigkeit bei diesen Schülern mit einer verminderten kognitiven Funktion korreliert. Es gibt jedoch keine Studien, die kognitive Prädiktoren für Müdigkeit identifiziert haben. Daher haben wir versucht, bei diesen Schülern unabhängige kognitive Prädiktoren für Fatigue zu bestimmen.;-;-;-;https://link.springer.com/article/10.1186/1744-9081-7-20 38dd65340baed0ee30d80f32c30fab06;de;;;1.1.;;;Angstzustand beeinflusst die Geschwindigkeit der Informationsverarbeitung bei Patienten mit Multipler Sklerose Das Ziel dieser Studie war es, den Einfluss von Angst auf die kognitive Leistungsfähigkeit einer klinischen Stichprobe von Patienten mit schubförmig-remittierender (RR) MS zu untersuchen. Einhundertneunzig Patienten (140 Frauen) wurden in die Studie eingeschlossen und anhand des Beck-Depressions-Inventars, des State-Trait-Angst-Inventars und der kurzen wiederholbaren Batterie von Rao, die die bei MS am häufigsten beeinträchtigten kognitiven Domänen bewertet, bewertet. Hinsichtlich der neuropsychologischen Leistung erfüllten insgesamt 76 (40 %) Probanden unser Kriterium der kognitiven Beeinträchtigung. Bei den Tests, die bei Patienten mit kognitiver Beeinträchtigung (CI) am häufigsten fehlschlugen, wurden die komplexe Aufmerksamkeit und die Informationsverarbeitungsgeschwindigkeit [Simbol Digit Modalities Test (SDMT), Paced Auditory Serial Auditory Test (PASAT) 3 und 2] und das verbale Gedächtnis bewertet. In der univariaten Analyse stand die Zustandsangst im Zusammenhang mit dem Versagen beim SDMT (;-;-;-;https://link.springer.com/article/10.1007/s10072-013-1544-0 2c7fc269230c65e485a3ae4a0bb51029;de;;;1.1.;;;Warum genetische Informationsverarbeitung eine Quantenbasis haben könnte Lebende Organismen sind nicht nur zufällige Ansammlungen organischer Moleküle. Beim scheinbaren Herumhüpfen von Lebensmolekülen findet eine kontinuierliche Informationsverarbeitung statt. Optimierungskriterien in dieser Informationsverarbeitung können anhand der Gesetze der Physik gesucht werden. Die Quantendynamik kann erklären, warum lebende Organismen 4 Nukleotidbasen und 20 Aminosäuren als optimale Lösungen des molekularen Montageprozesses haben. Experimente sollten in der Lage sein zu sagen, ob die Evolution die Quantendynamik tatsächlich ausgenutzt hat oder nicht.;-;-;-;https://link.springer.com/article/10.1007/BF02703638 72ddf73882ee5e2f0ad977734e7fb438;de;;;1.1.;;;Analyse der strukturellen Grundlagen der Informationsverarbeitung in den Basalganglien: Die räumliche Organisation thalamokortikaler Projektionen im Hundehirn Eine Analyse der Architektur der thalamischen Projektionssysteme des Nucleus caudatus, Putamen und Nucleus accumbens unter Verwendung des axonalen Transports retrograder Marker wurde durchgeführt, um das morphologische Substrat für die Informationsverarbeitung im Striatum des Hundehirns zu untersuchen. Die Kerne des Striatums enthielten Bereiche, durch die eine getrennte Leitung von motorischen (dorsalen Segmenten des Nucleus caudatus und Putamen) und limbischen Informationen (medialer Segment des Nucleus accumbens) erfolgen konnte, zusammen mit Bereichen (ventrale Segmente des Nucleus caudatus und Putamen, laterales Segment) des Nucleus accumbens), bei dem es zu einer konvergenten Weiterleitung funktionell unterschiedlicher Informationen kommen könnte, die in den Thalamuskernen verarbeitet werden. Diese Daten leisten einen wesentlichen Beitrag zum Verständnis der anatomischen Aspekte sowohl der funktionellen Heterogenität der Basalganglien als auch der in ihnen stattfindenden integrativen Informationsverarbeitung, die den Mechanismen der adaptiven Verhaltensorganisation zugrunde liegt.;-;-;-;https://link.springer.com/article/10.1023/A%3A1021721930907 27e67ce266bfd62890a6bacd1bc0208c;de;;;1.1.;;;Die Rolle von Hemmung und Anpassung bei der sensorischen Informationsverarbeitung Einige gemeinsame Merkmale neuronaler Transformationen entlang sensorischer Bahnen werden diskutiert. Der Schwerpunkt liegt auf der räumlichen Abbildung im visuellen System, aber es bestehen enge Parallelen in der zeitlichen visuellen Abbildung sowie in anderen Sinnessystemen. Die Rolle der lateralen Hemmung bei sequentiellen Transformationen wird durch direkte Berechnung und durch mathematische Analyse untersucht.;-;-;-;https://link.springer.com/article/10.1007/BF00288781 79a8da73254bf6d6447183055f200243;de;;;1.1.;;;Smart Skins: Informationsverarbeitung durch Querlinien-Durchflusssensoren Die Informationsverarbeitungsfähigkeiten des Seitenliniensystems und sein potenzieller Nutzen bei der Vermessung fremder Umgebungen und der Bereitstellung sensorischer Führung für autonome Fahrzeuge in dunklen oder stark turbulenten Bedingungen werden überprüft. Die Seitenlinie ist ein räumlich verteiltes System richtungsempfindlicher Sensoren, die auf niederfrequente Wasserbewegungen reagieren, die von nahegelegenen sich bewegenden Quellen, den eigenen Bewegungen des Tieres, den Umgebungsbewegungen des umgebenden Wassers und Verzerrungen in Umgebungs- oder selbsterzeugten Bewegungen erzeugt werden verursacht durch das Vorhandensein von stationären Objekten. Während Seitenliniensensoren auf der Hautoberfläche Verhaltensweisen zu dienen scheinen, die von großräumigen Reizen abhängig sind, wie z Lokalisierung. Stimulationsmuster entlang von Sensorarrays liefern umfassende Informationen über Position, Entfernung und Richtung von sich bewegenden Quellen. Das Seitenliniensystem hat auch verschiedene Mechanismen entwickelt – statische biomechanische Filter an der Peripherie und dynamische neuronale Filter im Zentralnervensystem – zur Verbesserung des Signal-Rausch-Verhältnisses in verschiedenen Verhaltenskontexten, angefangen von unerwarteten Ereignissen von Bedeutung (z sich näherndes Raubtier oder Beutetier) auf erwartete Ereignisse von geringer Relevanz (z. B. die eigenen wiederholten und regelmäßigen Atembewegungen des Tieres).;-;-;-;https://link.springer.com/article/10.1023/A%3A1012491007495 dc95d51a6beb471218f1db1c09b44bdc;de;;;1.1.;;;Silizium-Quanten-Informationsverarbeitung Aktuelle Entwicklungen zur Nutzung von Elektronen- und Kernspins in Silizium als Quantenbits für die Quanteninformationsverarbeitung werden besprochen. Motiviert durch den bahnbrechenden Vorschlag eines Silizium-basierten Quantencomputers von Kane im Jahr 1998, die Quantenverschränkung zwischen Elektronen- und Kernspins von Phosphordonatoren in Silizium und die Quantenspeicheroperation von;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-55756-2_26 e41de11680b0bfd4e9bc2c65c831e241;de;;;1.1.;;;Prinzipien der Implementierung des Informationsmanagements in die Prozesse der technischen Instandhaltung von Luftfahrzeugen Es wird ein prädiktiver Ansatz zur Lösung einer Reihe von Problemen bei der Verbesserung der Organisation des technischen Instandhaltungsprozesses von Luftfahrzeugen betrachtet. Die Lösung dieses Problems basiert auf der Struktur der methodischen Unterstützung für das Informationsmanagement der Prozesse der technischen Wartung von Luftfahrzeugen unter Berücksichtigung des Inhalts der Datenbank der Informationsflüsse und des allgemeinen Schemas ihrer Beziehungen.;-;-;-;https://link.springer.com/article/10.3103/S1068799821010025 be1d0f57fa0b39b58627568086ec54be;de;;;1.1.;;;Aufbau und Anwendung von Informationsmanagementsystemen im Straßen- und Brückenbau Chinas Straßen- und Brückenbau nimmt in der Volkswirtschaft eine wichtige Stellung ein. Straßen und Brücken spielen eine wichtige Rolle und haben einen engen Bezug zum nationalen Leben. Nach der aktuellen Projektbauleitung zu urteilen, haben Chinas Ingenieurbauabteilungen im Allgemeinen Probleme wie einen niedrigen Technologiestand, ein unvollkommenes Informationsmanagementsystem und fehlende professionelle Talente. Die Popularisierung und Entwicklung der Informationstechnologie bietet einen wichtigen technischen Ansatz für das wissenschaftliche Management des Ingenieurbaus. In diesem Beitrag werden zunächst das Konzept und die Charakteristika des Wege- und Brückenbaumanagement-Informationssystems erläutert und der Ist-Zustand sowie bestehende Mängel des Wege- und Brückenbau-Projektmanagement-Informationsbaus analysiert. Auf dieser Grundlage schlägt der Beitrag vor, ein den Besonderheiten des Straßen- und Brückenbaus angepasstes Ingenieurbauinformationsmanagementsystem aufzubauen. Die Erforschung und Entwicklung von Wege- und Brückenmanagement-Informationsmanagementsystemen wird die Erneuerung von Wege- und Brückenmanagementkonzepten stark beschleunigen und ist daher von großer Bedeutung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1468-5_144 69746150606bbb0f1d9ba58b09a3f51d;de;;;1.1.;;;Informationsverarbeitung mit Drei-Qubit- und Qubit-Qutrit-Kodierungen von nicht zusammengesetzten Quantensystemen Wir untersuchen die Quanteninformationseigenschaften eines siebenstufigen Systems, das durch ein Teilchen in einer eindimensionalen Quadrat-Well-Falle realisiert wird, und diskutieren die Merkmale der Kodierung von siebenstufigen Systemen in Form von Drei-Qubit- oder Qubit-Qutrit-Systemen. Wir verwenden die Drei-Qubit-Kodierung des Systems, um die Subadditivitäts- und starke Subadditivitätsbedingungen für den thermischen Zustand des Teilchens zu untersuchen. Wir verwenden die qubit-qutrit-Codierung, um einen einzelnen qudit-Algorithmus zur Berechnung der Parität einer Bitfolge vorzuschlagen. Die erhaltenen Ergebnisse weisen auf die potenzielle Ressource von Mehrebenensystemen zur Realisierung der Quanteninformationsverarbeitung hin.;-;-;-;https://link.springer.com/article/10.1007/s10946-016-9610-8 8ae9acb6b77a589e6f8a416b1327d576;de;;;1.1.;;;Evozierte potenzielle Indikatoren für größen- und orientierungsspezifische Informationsverarbeitung: merkmalsspezifische Sinneskanäle und Aufmerksamkeit Ein Vorteil evozierter Potentiale (EPs) für transiente Reize besteht darin, dass sie Informationen über den zeitlichen Verlauf der elektrophysiologischen Reaktion auf solche Reize enthalten. Es kann angenommen werden, dass dieser zeitliche Verlauf die zeitliche Abfolge widerspiegelt, in der die im Stimulus enthaltenen Informationen verarbeitet werden. Die vorliegende Arbeit zielt in erster Linie auf ein besseres Verständnis des zeitlichen Verlaufs der Informationsverarbeitung spezifisch auf Größe (Raumfrequenz) und Ausrichtung der Elemente visueller Reize ab. Eine solche Verarbeitung wird sowohl im Zusammenhang mit sensorischen Informationskanälen als auch mit selektiver Aufmerksamkeit betrachtet. Der letzte Abschnitt wird einen kurzen Überblick über vorläufige Daten zu den potenziellen Anwendungen dieser Art von Verfahren bei klinischen Problemen geben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-3483-5_12 ecf260becd7aa5ec3108da8e93a45fe8;de;;;1.1.;;;Geschmacksinformationsverarbeitung im Inselkortex von Ratten Der kortikale Geschmacksbereich (CTA) befindet sich in zwei zytoarchitektonisch unterschiedlichen Bereichen der Großhirnrinde bei Ratten: granuläre und dysgranuläre Inselbereiche (Bereiche GI und DI). In beiden Bereichen wurden Geschmacksneuronen unter mechanorezeptiven Neuronen mit rezeptiven Feldern in der Mundhöhle gefunden [1]. Kortikale Geschmacksneuronen bei Ratten sind durch kleine Antwortgrößen, große rezeptive Felder und Antwortprofile mit zwei Spitzen gekennzeichnet [2–4]. Solche Reaktionsmerkmale werden als Ergebnis der Konvergenz von Afferenzen an verschiedenen Relaisstationen entlang der zentralen gustatorischen Bahn und im CTA zusammen mit der Wirkung von exzitatorischen und inhibitorischen Interneuronen in diesen Regionen angesehen. Bei diesen synaptischen Prozessen wirken viele Substanzen als Transmitter oder Modulatoren.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-68355-1_161 2dd80f5adcb3faae20fbb7866585d26f;de;;;1.1.;;;Gesundheitserziehung und Gesundheitsförderung: Schlüsselkonzepte und beispielhafte Belege zu ihrer Unterstützung Support Gesundheit wird als das Ergebnis einer Interaktion zwischen individuellen und Umweltfaktoren betrachtet. Während Gesundheitserziehung der Prozess der Aufklärung der Menschen über Gesundheit und deren Einfluss auf ihre Gesundheit ist, zielt Gesundheitsförderung nicht nur auf die Menschen, sondern auch auf ihr Umfeld ab. Die Förderung des Gesundheitsverhaltens kann in der;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-93826-4_17 622422560ceae8a66c149568657e4e39;de;;;1.1.;;;Der Beitrag der extrasynaptischen Signalgebung zur zerebellären Informationsverarbeitung Die Vielfalt der Synapsen innerhalb der einfachen modularen Struktur des Kleinhirns war entscheidend für das Studium der phasischen extrasynaptischen Signalübertragung durch schnelle Neurotransmitter, die zusammen als „Spillover“ bezeichnet werden. Darüber hinaus hat die Zugänglichkeit von Kleinhirnkomponenten für In-vivo-Aufzeichnungen und ihre Rekrutierung durch einfache Verhaltensweisen oder sensorische Reize sowohl direkte als auch indirekte Demonstrationen der Auswirkungen von Transmitter-Spillover im intakten Gehirn ermöglicht. Die kontinuierliche Erforschung des Spillovers im Kleinhirn fördert nicht nur unser Verständnis des Informationstransfers durch Kleinhirnstrukturen, sondern auch, wie extrasynaptische Signale im gesamten ZNS reguliert und interpretiert werden können.;-;-;-;https://link.springer.com/article/10.1007/s12311-014-0554-7 27a1ce8ffbce638a6dd2dd38903740a0;de;;;1.1.;;;Visuo-vestibuläre Informationsverarbeitung durch unipolare Bürstenzellen im Kaninchenflokkulus Die unipolare Bürstenzelle (UBC) ist ein glutamaterge granuläres Schichtinterneuron, das überwiegend im Vestibulozerebellum und Teilen des Vermis lokalisiert ist. Bei Ratten und Kaninchen haben wir zuvor unter Verwendung der juxtazellulären Markierung in Kombination mit der Aufzeichnung der spontanen Aktivität festgestellt, dass Zellen mit sehr regelmäßiger spontaner Aktivität zur UBC-Kategorie gehören. Unter Verwendung dieser Signatur zeichneten wir flockige UBCs sowohl bei anästhesierten als auch bei wachen Kaninchen auf, während wir eine visuell-vestibuläre Stimulation durch Verwendung einer sigmoidalen Rotation des gesamten Tieres lieferten. Bei dem anästhesierten Kaninchen zeigte die Aktivität der vermuteten UBC-Einheiten eine große Vielfalt von Modulationsprofilen, die mit Aspekten der Kopfgeschwindigkeit oder -beschleunigung in Zusammenhang stehen könnten. Diese Modulationsprofile könnten auch beim wachen Kaninchen gefunden werden, wo sie zusätzlich auch ein Augenpositionssignal tragen könnten. Darüber hinaus konnten Einheiten beim wachen Kaninchen relativ lange Antwortlatenzen von bis zu 0,5 s aufweisen. Wir vermuten, dass die in dieser Studie erfassten UBCs hauptsächlich zur Kategorie der UBC vom Typ I (Calretinin-positiv) gehören und verschiedene Rollen bei der flockigen visuo-vestibulären Informationsverarbeitung spielen können, wie z .;-;-;-;https://link.springer.com/article/10.1007/s12311-015-0710-8 df9b2fb8ee60bcff8b69ed3e557b7946;de;;;1.1.;;;Fazit: Der Einfluss schriftlicher Zeugenaussagen auf Geschworenenurteile und Informationsverarbeitung Scheinjuroren, die aus Geschworenenlisten rekrutiert wurden, erhielten entweder keine schriftlichen Aussagen über die direkte Aussage von Sachverständigen oder erhielten solche Aussagen vor oder nach der Präsentation dieser Aussage. Die Präsentation der Aussagen vor der Zeugenaussage und dem Kreuzverhör lieferte den Geschworenen ein Schema, das es ihnen ermöglichte, effektiver zwischen den Behauptungen von vier unterschiedlich würdigen Klägern zu unterscheiden, da sie mehr Beweismittel verarbeiteten als andere Geschworene. Geschworene, die vor der Zeugenaussage schriftliche Stellungnahmen erhielten, hielten die Beweise für verständlicher als andere Geschworene. Geschworene mit schriftlichen Stellungnahmen nach Aussage und Kreuzverhör waren in der Lage, zwischen den am schwersten und am wenigsten schwer verletzten Klägern zu unterscheiden, während Geschworene, die keine schriftlichen Stellungnahmen erhielten, nicht in der Lage waren, zwischen den unterschiedlich würdigen Klägern zu unterscheiden. Die Grenzen dieser Case-Management-Technik und der Studie werden diskutiert.;-;-;-;https://link.springer.com/article/10.1023/A%3A1005415104323 c5fd9e73264ff82e8f03e23cdbf0b9ca;de;;;1.1.;;;Photoinduzierte Anisotropie und dynamische Polarisationsholographie auf Bacteriorhodopsin-Filmen für die optische Informationsverarbeitung Bacteriorhodopsin (BR), ein Photorezeptorprotein, besitzt einen photochemischen Zyklus aus mehreren verschiedenen Zwischenprodukten, die alle photoaktiv sind. Die BR-Moleküle sowohl in der Ausgangsform des Photozyklus, bR570 (Absorptionsmaximum bei 570 nm) als auch im langlebigsten (in Filmen) Zwischenprodukt M412 (Absorptionsmaximum bei 412 nm) besitzen eine anisotrope Absorption. Unter Einwirkung von linear polarisiertem Licht findet die reversible anisotrope Photoselektion von BR-Molekülen statt. In der vorliegenden Arbeit wird die Möglichkeit der Nutzung photoinduzierter Anisotropie in BR-Filmen basierend auf bR570 und M412 für die logische Bildverarbeitung aufgezeigt. Die dynamische Polarisationsholographieaufzeichnung basierend auf einem anisotropen Photoselektionsmechanismus ermöglicht es, eine Speicherdichte zu erhöhen und die Informationslöschung während des Auslesevorgangs zu verringern. Ein Vergleich der experimentellen Abhängigkeit der Beziehung zwischen Beugungseffizienzen der Intensitäts- und Polarisationsgitter von der Aufzeichnungsintensität mit der berechneten ist eine sehr empfindliche Technik, um die intensitätsabhängige Erholungszeit zu untersuchen. Es wird gezeigt, dass die durchschnittliche Erholungszeit in bR570 mit zunehmender He-Ne-Laser-Aufzeichnungsintensität abnimmt. Somit kann eine Datenspeicherzeit durch Aufzeichnen der Lichtintensität gesteuert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0141-0_11 9a0b4c745f2db0ad46c77b1f7f115ad6;de;;;1.1.;;;Grenzen der Informationsverarbeitung bei der Generierung von Neuroanatomie: globale Optimierung des olfaktorischen Kortex und der Amygdala der Ratte Ein Muster einer weit verbreiteten Verbindungsoptimierung im Nervensystem hat sich gezeigt: Der Einsatz einiger neuronaler Verbindungen erreicht ein Optimum, manchmal ohne erkennbare Grenzen. Hier werden neue Ergebnisse zur Optimierung des Layouts verbundener Bereiche des olfaktorischen Cortex von Ratten und der Amygdala der Ratte berichtet. Eine größere Frage betrifft Mechanismen – wie eine solche Minimierung erreicht wird. Eine nächste Frage ist, warum ein Nervensystem sich optimieren würde, anstatt nur mäßig zufrieden zu stellen. Ein morphogenetischer Vorschlag, der diese Fragen in Verbindung bringt, besteht darin, dass die Mittel zur Organisation der neuronalen Verdrahtung auch zur Ertragsoptimierung führen. Ein Teil der Neuroanatomie wird durch „Sparen von Drähten“ generiert, und diese Optimierung erfolgt über einfache physikalische Prozesse und nicht über DNA-vermittelte Mechanismen. Ein solcher „nicht-genomischer Nativismus“ ist somit ein Weg, um grundlegende Beschränkungen bei der Generierung von Gehirnen, einigen der komplexesten Strukturen im bekannten Universum, zu umgehen.;-;-;-;https://link.springer.com/article/10.1007/s10867-009-9162-z b291d53f5b6fac303970e9de76123960;de;;;1.1.;;;Der Einfluss induzierter Stimmung auf die soziale Informationsverarbeitung von Kindern: Zielklärung und Antwortentscheidung Wir untersuchten, ob die induzierte Stimmung die sozialen Informationsverarbeitungsschritte der Zielklärung und Antwortentscheidung bei 480 Erst- bis Drittklässlern und in ausgewählten Gruppen von gering akzeptiert-aggressiven (;-;-;-;https://link.springer.com/article/10.1007/s10802-009-9356-7 4d909e3b5a4450f723213f97724aa0a1;de;;;1.1.;;;Informationsverarbeitung mit Speckle-Mustern Nach dem Aufkommen des Lasers und seiner Anwendung in der Holographie wurde die Aufmerksamkeit der Forscher auf den Speckle-Effekt gelenkt, der entsteht, wenn ein diffundierendes Objekt mit kohärentem Licht beleuchtet wird. Die ganz besonderen Eigenschaften von Speckle und insbesondere seine Feinheit haben zur Entwicklung neuer Techniken geführt. Eine Aufzeichnung des Speckle-Musters auf einer hochauflösenden fotografischen Platte dient als gewöhnlicher Diffusor und die meisten Anwendungen werden von den Interferenzphänomenen abgeleitet, die von diesen Diffusoren erzeugt werden. Diese Phänomene sind seit sehr langer Zeit bekannt und die frühesten Beobachtungen wurden gemacht von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-43205-1_5 c5836f43b199802ffe275ce1a73a1942;de;;;1.1.;;;Hemmung, Verstärkungsempfindlichkeit und zeitliche Informationsverarbeitung bei ADHS und ADHS+ODD: Beweise für eine separate Entität? Diese Studie verglich Kinder mit ADHS-only, ADHS+ODD und normalen Kontrollen (Alter 8-12) hinsichtlich dreier neurokognitiver Schlüsselfunktionen: Reaktionshemmung, Verstärkungssensitivität und zeitliche Informationsverarbeitung. Das Ziel war zweierlei: (a) neurokognitive Beeinträchtigungen bei Kindern mit nur ADHS und Kindern mit ADHS+ODD zu untersuchen und (b) zu testen, ob ADHS+ODD eine schwerere Form von ADHS in Bezug auf die neurokognitive Leistung ist. In Experiment 1 wurden die Hemmfähigkeiten unter Verwendung der Stoppaufgabe gemessen. In Experiment 2 wurden die Verstärkungsempfindlichkeit und die Fähigkeiten zur zeitlichen Informationsverarbeitung unter Verwendung einer Timing-Aufgabe mit einer Belohnungs- und einer Strafbedingung gemessen. Im Vergleich zu den Kontrollen zeigten Kinder mit nur ADHS eine beeinträchtigte Hemmungskontrolle, zeigten mehr Zeitunterschätzungen und zeigten eine Leistungsverschlechterung angesichts von Belohnung und Strafe. Kinder mit ADHS+ODD schnitten in Bezug auf die hemmenden Kontrollen und die Tendenz zur Unterschätzung der Zeit zwischen Kindern mit nur ADHS und Kontrollen ab, waren jedoch in Bezug auf die zeitliche Variabilität stärker beeinträchtigt als Kontrollen und Kinder mit nur ADHS. Angesichts von Belohnung und Strafe verbesserten Kinder mit ADHS+ODD ihre Leistung im Vergleich zu einem neutralen Zustand, im Gegensatz zu Kindern mit nur ADHS. Angesichts der Belohnung war die Leistungsverbesserung in der ADHS+ODD-Gruppe überproportional größer als die der Kontrollen. Zusammengefasst legen die Ergebnisse nahe, dass die komorbide ADHS+ODD in Bezug auf die neurokognitive Funktion eine wesentliche andere Entität ist als nur ADHS.;-;-;-;https://link.springer.com/article/10.1007/s10802-009-9334-0 1f7dcc23b169758cca3dff067fb43066;de;;;1.1.;;;Ein Mittel zur Charakterisierung und Messung der Informationsprozesse von Ingenieuren mit Eye Tracking Wie Ingenieure Informationen während der Konstruktion nutzen und verarbeiten, wurde vor allem durch „Think-Aloud“-Studien untersucht. Der Denkprozess, der sich selbst berichtet, beeinflusst jedoch eine Aufgabe und führt mehrere damit verbundene Verzerrungen ein, die zu einem allgemeinen Mangel an Angemessenheit führen. Einige dieser Probleme können durch passive Beobachtungstechniken wie Eyetracking und standardisierte Informationsquellen zur Untersuchung des Informationsverarbeitungsverhaltens angegangen werden. Eyetracking ist ein leistungsstarkes Forschungswerkzeug, mit dem aus dem Blick einer Person Rückschlüsse auf die Informationsverarbeitung gezogen werden können. In diesem Beitrag werden eine Reihe grundlegender Informationsprozesse basierend auf Blick,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-44989-0_31 c01d542b6a40c98dfd3b7ea1ee977a74;de;;;1.1.;;;Thermodynamik der Informationsverarbeitung auf molekularer Ebene Die Thermodynamik von Copolymerisationsprozessen, die zur Bildung und Replikation von Copolymeren führen, wird vorgestellt. Copolymere sind natürliche eindimensionale Informationsträger, die in der Reihenfolge der während ihrer Synthese zufällig angehängten oder abgelösten Monomereinheiten kodiert sein können. Hier werden multivariate Fluktuationsbeziehungen für Copolymerisationsprozesse aufgestellt, die Bernoulli- und Markovketten erster Ordnung synthetisieren. Daraus wird die thermodynamische Entropieproduktion abgeleitet und es wird gezeigt, dass sie von Größen abhängt, die möglicherweise in der Copolymersequenz gespeicherte Informationen charakterisieren.;-;-;-;https://link.springer.com/article/10.1140/epjst/e2015-02430-y cad4cc434db10236d7951e57f4c2b514;de;;;1.1.;;;Wirkung von extrinsischem Rauschen auf vibrotaktile Informationsverarbeitungskanäle Hautrezeptoren, die auf hochfrequente Vibrationen empfindlich sind, erzeugen bei Reizschwellenniveaus eine räumliche Summation, während die Reaktion der auf niedrige Frequenzen empfindlichen Rezeptorpopulation unabhängig von der Kontaktorgröße bei der Reizschwelle zu sein scheint. Es wurde über ein Phänomen berichtet, bei dem die vermutlich nicht summierende Population von Mechanorezeptoren eine räumliche Summation auf überschwelligen Niveaus erzeugt. Eine mögliche Erklärung betrifft die relativen Signal-Rausch-Verhältnisse von kutanen Mechanorezeptorsystemen. Durch selektives Maskieren der Systeme mit Schmalband- und Breitbandrauschen kann gezeigt werden, dass jede Kombination von Signalfrequenz, Maskierungsrauschen und Schützgröße, die überwiegend eines der Systeme aktiviert, zu einem linearen Effekt des Maskers auf die Schwelle des . führt Signal. Kombinationen der experimentellen Variablen, die beide Rezeptorsysteme gleichzeitig aktivieren, reduzieren den Effekt der Maskierung um die Hälfte. Dies wird als Beweis für einen interaktiven Prozess zwischen Rezeptorsystemen innerhalb des Zentralnervensystems interpretiert. Die Auswirkungen des Signal-Rausch-Verhältnisses und der intrasensorischen Interaktionen werden diskutiert.;-;-;-;https://link.springer.com/article/10.3758/BF03204092 ba3094f7bd2ec0cdae9ac4852be3c224;de;;;1.1.;;;Konzeptbasiertes visuelles Informationsmanagement mit großem lexikalischen Korpus Die meisten Benutzer möchten visuelle Informationen finden, die auf der Semantik visueller Inhalte basieren, wie z. B. der Name einer Person, semantische Beziehungen, eine Handlung in einer Szene usw. Techniken zur inhaltsbasierten Bild- oder Videosuche sind jedoch noch nicht ausgereift, um visuelle Semantik vollständig zu erkennen, während die Suche nach Farbe, Größe, Textur und Form Stand der Technik ist. Daher sind spezielle Möglichkeiten zum Verwalten von Textanmerkungen beim Abrufen visueller Informationen erforderlich. In diesem Beitrag wird ein Rahmen für die Integration von Suchmechanismen für textuelle und visuelle Inhalte vorgestellt. Das vorgeschlagene Framework umfasst eine ontologiebasierte semantische Abfrageverarbeitung durch effiziente semantische Ähnlichkeitsmessung. Es wird ein neues konzeptionelles Ähnlichkeitsabstandsmaß zwischen zwei konzeptionellen Entitäten in einer großen Taxonomiestruktur vorgeschlagen und seine Effizienz demonstriert. Mit dem vorgeschlagenen Verfahren kann ein Informationsabrufsystem profitieren, wie (1) die Reduzierung der Anzahl von Versuchen und Irrtümern, um korrekte Schlüsselwörter zu finden, (2) Verbesserung der Präzisionsraten durch Eliminieren der semantischen Heterogenität in der Beschreibung und (3) Verbesserung der Erinnerungsraten durch präzise Modellierung von Konzepten und deren Beziehungen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44759-8_35 bda38a0e8eb194b1f6a08bd82ce7adff;de;;;1.1.;;;Rollen des vorderen cingulären Kortex und des medialen Thalamus bei der kurz- und langfristigen aversiven Informationsverarbeitung Der anteriore cinguläre Kortex (ACC) und der mediale Thalamus (MT) sind zwei der Hauptkomponenten der medialen Schmerzbahn, die dem affektiven Aspekt des Schmerzes dienen. Die Hypothese der vorliegenden Studie war, dass das ACC an der kurzfristigen aversiven Informationsverarbeitung beteiligt ist und dass das MT für die Kodierung unbedingter nozizeptiver Informationen entscheidend ist. Die Rolle dieser beiden Komponenten bei der kurz- und langfristigen aversiven Informationsverarbeitung wurde anhand einer schrittweisen hemmenden Vermeidungsaufgabe untersucht.;-;-;-;https://link.springer.com/article/10.1186/1744-8069-6-42 5775696a79fe8c0a5f63e39304c81be9;de;;;1.1.;;;Modulation der Nukleinsäure-Informationsverarbeitung durch PNAs Die Fähigkeit kurzer PNAs, gezielt Nukleinsäuresequenzen selektiv zu binden, entweder durch Watson-Crick-Basenpaarung oder durch Tripelhelix-Bildung mit Hoogstein-Bindung, verleiht ihnen ein enormes Potenzial, die Informationsverarbeitung von Nukleinsäuren zu stören. Ihre Unfähigkeit, ein geeignetes Substrat für RNase H zu bilden, wurde oft als ein wichtiger limitierender Faktor für ihre Fähigkeit zur Regulierung der Genexpression angesehen. Inzwischen ist jedoch klar, dass ein umsichtiges Targeting zur Unterbrechung spezifischer und entscheidender Schritte der Nukleinsäure-Informationsverarbeitung führen kann. Dies gilt insbesondere für viele der Mechanismen, die spezifisch für Viren sind.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-32956-0_2 ccd17eb042c5291e0dc830f466175712;de;;;1.1.;;;Die Auswirkungen von Zigaretten unterschiedlicher Ausbeute auf die schnelle Informationsverarbeitungsleistung Der Zweck dieser Studie war es, die Auswirkungen von vier Zigaretten mit einer Reihe von kovariierenden Nikotin- und „Teer“-Ausbeuten auf die Leistung einer schnellen Informationsverarbeitungsaufgabe zu bestimmen. Fünfundzwanzig Raucher wurden an verschiedenen Tagen mit jeder der Zigaretten und in einem Nicht-Raucher-Kontrollzustand getestet. Die Testreihenfolge wurde über Tage mit einem 5×5 Latin Square Design ausgeglichen. Rauchen hat nicht nur dazu beigetragen, die Abnahme der Geschwindigkeit und Genauigkeit zu verhindern, die im Laufe der Zeit unter den Bedingungen des Nichtrauchens auftrat, sondern es verbesserte sogar die Leistung gegenüber den Ausgangswerten. Darüber hinaus wurden die größten Verbesserungen bei den Zigaretten mit höherem Nikotingehalt festgestellt. Diese objektiv gemessenen Wirkungen der Zigaretten auf die Leistungsfähigkeit stimmten mit den subjektiven Bewertungen der Wirkungen der Zigaretten außerhalb des Labors überein und werden im Zusammenhang mit anderen Fragebogenstudien und einer Erhebung zum Rauchen am Arbeitsplatz diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF00427682 8a8722a30ebca17de4d38b2c77c248b3;de;;;1.1.;;;Bild- und Informationsverarbeitung Die einzigartige Rolle von Bildern bei der Informationsverarbeitung besteht darin, ein Gegenstück zur verbalen Verarbeitung zu bieten. Bilder scheinen enger mit der individuellen Erfahrung verbunden zu sein als die verbalen Bezeichnungen dieser Erfahrungen. Bilder können visueller als verbal direkter ausgedrückt werden. Auf die spezifischen Eigenschaften von Bildern, die ihre Wirksamkeit in der Therapie erhöhen, wurde bereits zuvor hingewiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-0444-0_2 f5834f505803229e54874ac30c4ed2a3;de;;;1.1.;;;Wahrnehmung als Informationsverarbeitung Um sich in der Umgebung angemessen zu verhalten, benötigt die Person Informationen über deren Anordnung. Die Umgebung kann man sich am besten als eine Anordnung von Oberflächen vorstellen, von denen eine in einer horizontalen Ebene liegt, die anderen beiden in einem gewissen Winkel zueinander in der vertikalen Ebene. In der Mobilität besteht die Aufgabe des Reisenden beispielsweise darin, den Kontakt mit der horizontalen Fläche aufrechtzuerhalten und den Kontakt mit den vertikalen zu vermeiden. Jansson (1985) hat die Aufgabe der Mobilität in Richtung Gehen, Mitgehen und Umhergehen analysiert. Zu diesem muss man hinzufügen;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-4461-0_4 fdb07f7c5c0c0cb123b1ef2d6c7556ed;de;;;1.1.;;;Restinformationsverarbeitung im vernachlässigten visuellen Halbfeld Ein Patient mit Vernachlässigung des Gesichtshalbfeldes ohne Hemianopsie führte „gleiche/unterschiedliche“ Zwischenfeldvergleiche durch und benannte Stimuli, die entweder einseitig oder beidseitig in den Gesichtshalbfeldern präsentiert wurden. Bei einseitiger Präsentation konnte er alle Reize in beiden Feldern benennen, während bei gleichzeitiger beidseitiger Stimulation seine Leistung auf ca. Diese Leistung wurde nicht durch Hinweise auf das Vorhandensein von LVF-Stimuli verbessert. Interfield-Vergleiche waren unter allen Bedingungen zu 100 % korrekt. Daraus wird geschlossen, dass eine Unaufmerksamkeit für den linken Hemiraum bei Patienten mit visuellem Neglect immer dann auftritt, wenn Informationen im rechten Hemiraum Aufmerksamkeit erregen oder bewusst verarbeitet werden müssen. Einfache „gleiche/unterschiedliche“ Urteile werden vermutlich auf einer voraufmerksamen Ebene durchgeführt und sind nicht von Vernachlässigung betroffen.;-;-;-;https://link.springer.com/article/10.1007/BF00314140 0bfbe001cca1d7951d64955ae9629752;de;;;1.1.;;;Quanteninformationsverarbeitung mit Faseroptik: Quanten-Fourier-Transformation von 1024 Qubits Unter einer Reihe von Kandidaten haben Photonen Vorteile für die Implementierung von Qubits: sehr schwache Kopplung an die Umgebung, die bestehende Einzelphotonen-Messtechnik und so weiter. Darüber hinaus ermöglichen uns kommerziell erhältliche faseroptische Geräte den Bau von Quantenschaltungen, die aus Ein-Qubit-Operationen bestehen (einschließlich klassisch gesteuerter Gates). Faseroptik löst die Modenanpassungsprobleme in herkömmlichen Optiken und stellt mechanisch stabile optische Schaltungen bereit. Eine Quanten-Fourier-Transformation (QFT) mit anschließender Messung wurde mit einer einfachen Schaltung auf Basis von Faseroptik demonstriert. Die Schaltung erwies sich als robust gegenüber Unvollkommenheiten im Rotationstor. Die Fehlerwahrscheinlichkeit wurde auf 0,01 pro Qubit geschätzt, was einem fehlerfreien Betrieb für 100 Qubits entsprach. Die Fehlerwahrscheinlichkeit kann weiter reduziert werden, um eine erfolgreiche QFT von 1024 Qubits zu erreichen, indem die Mehrheit der akkumulierten Ergebnisse verwendet wird. QFT ist bekanntlich eine Schlüsselfunktion in Quantenberechnungen wie dem letzten Teil von Shors Faktorisierungsalgorithmus. Die vorliegende QFT-Schaltung würde in Kombination mit kontrollierten einheitlichen Gattern praktische Quantencomputer ermöglichen. Mögliche Schemata zur Realisierung von Quantencomputern dieser Linie werden untersucht.;-;-;-;https://link.springer.com/article/10.1134/1.2034605 7be19378749503825df890c421de08d2;de;;;1.1.;;;Die unmittelbare Wirkung des stroboskopischen Sehtrainings auf die Informationsverarbeitungszeit bei Menschen mit Multipler Sklerose: eine explorative Studie Stroboskopisches visuelles Training (SVT) ist eine Trainingsform, die darauf abzielt, die visuelle und Wahrnehmungsleistung zu verbessern, indem Einzelpersonen Aktivitäten unter Bedingungen des intermittierenden Sehens ausführen. Die Wirksamkeit von SVT wurde bei Menschen mit Multipler Sklerose (PwMS) noch nie untersucht, daher war es unser Ziel, die unmittelbare Wirkung von SVT auf die kognitive Funktion, den Gang und die statische Gleichgewichtsleistung bei PwMS zu untersuchen. Diese durch Gutachter verblindete, randomisierte Crossover-Studie umfasste 26 PmMS, 16 Frauen, ein Durchschnittsalter von 47,9 und einen medianen EDSS-Score von 4,5. Die Teilnehmer nahmen an zwei Sitzungen teil: SVT- und Kontrolltraining. Die Übungen sowohl für die SVT- als auch für die Kontrollsitzungen basierten auf Ballfangaufgaben. Die Trainingseinheiten waren in Länge (40–50 min) und Art der Übungsübungen identisch. Der Unterschied zwischen den beiden Übungsregimen bestand darin, dass die SVT-Sitzung mit einer Stroboskop-Brille durchgeführt wurde und das Kontrolltraining mit einer ähnlichen Brille ohne Linsen durchgeführt wurde. Die Kognition wurde durch eine computergestützte Software (Mindstreams;-;-;-;https://link.springer.com/article/10.1007/s00702-020-02190-2 8fb6bb09cb0718ffedb448ed878fba70;de;;;1.1.;;;Bistabile Nematik – ein neuartiger Ansatz für die optische Informationsverarbeitung Partikel aus pyrogener Kieselsäure mit einem Primärdurchmesser von 7 bis 16 nm, die Aggregate und Agglomerate bilden, stabilisieren die Orientierung nematischer Flüssigkristalle. Durch äußere Einwirkung schichten stabile Suspensionen von 2 bis 3 vol. Prozent des Festkörpers können transparent oder lichtstreuend gemacht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-93430-7_2 8fdcc0930ec64953ca9255d28fa52a4e;de;;;1.1.;;;Ein Überblick über die optische Informationsverarbeitung in einigen fortgeschrittenen Datenverarbeitungsanwendungen Der Stand der Technik in der informationsverarbeitenden Industrie wird überprüft und mit optischen Ansätzen verglichen, um zu definieren, in welchen Bereichen letztere eine Rolle spielen können. Als Beispiel werden die verschiedenen Elemente des automatisierten Büros unter dem Gesichtspunkt untersucht, in welchen Bereichen optische Ansätze bestehende Technologien verdrängen könnten. Da diese Technologien ein bewegliches Ziel darstellen, können keine neuen Kandidaten in den Markt eintreten, es sei denn, sie bieten erhebliche Preis- und/oder Leistungsvorteile. Es wird der Schluss gezogen, dass optische Technologien im nächsten Jahrzehnt bestenfalls eine vernachlässigbare Chance haben, in den Speichermarkt einzutreten, und dann nur noch am oberen Ende. Sie haben jedoch größere Erfolgschancen in der Kommunikation, und sie sind bei Eingabe- und Ausgabegeräten so gut wie angekommen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-7545-0_23 cb92c7660b6f4fa0d7577189a150e207;de;;;1.1.;;;Diskussion über „Drift nach der Gewinnmitteilung und Informationsverarbeitungsfehler der Marktteilnehmer“ Liang (2003, in dieser Ausgabe) stellt die Hypothese auf, dass die vorhersehbaren Kursdrifts, die nach Ankündigungen von Gewinnzahlen auftreten, mit (a) Divergenz in den Ansichten der Analysten und (b) der Verlässlichkeit der öffentlich gemeldeten Quartalsgewinne zunehmen. Während die bisherige Literatur im Allgemeinen die Hypothese aufstellte, dass Drifts durch die Unfähigkeit des Aktienmarktes verursacht werden, die vorhersagbare Autokorrelation bei saisonal unterschiedlichen Quartalsgewinnen vollständig einzuschätzen, stützt sich dieser Artikel auf kognitive Verzerrungen, die in der Behavioral Finance-Literatur vorgeschlagen werden. Obwohl die Ergebnisse mit diesen Vorhersagen übereinstimmen, werden in meiner Diskussion mögliche Gründe angesprochen, warum es verfrüht sein könnte, den Schluss zu ziehen, dass die hier diskutierten kognitiven Verzerrungen Drifts verursachen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1024429915810 be24886a07e59b16fdd576ef91a99b1a;de;;;1.1.;;;Anforderungsanalyse des Informationsmanagementsystems für die pädiatrische klinische Pflege Der Gesamtbedarf des pädiatrischen Pflegeinformationssystems wurde in dem Papier definiert und analysiert (der Bedarf des Krankenhausmanagements, der Bedarf des pädiatrischen Managements, der Bedarf der Kinderärzte, der Bedarf der Kinderpflegeexperten, der Bedarf der Kinderkrankenschwestern, der Wartungsbedarf). Personal, die Bedürfnisse von Kindern und Familie), basierend auf dem HIS-System der theoretischen Analyse und verwandter Technologien. Schlagen Sie ein Client/Server-Entwurfsmuster vor, um ein Diagramm des pädiatrischen Informationsmanagements zu entwerfen. In dem Beitrag wurden die konkrete Ausgestaltung der pädiatrischen Pflegeinformation, der pädiatrischen Abteilungsleitung, Patient und Familie, Führungs-/Arztanfragen und weiterer pädiatrischer Informationsmanagement-Funktionsmodule vorgestellt. Die pädiatrischen Gesundheitsprozesse, der Matronen-Informationsfluss, wurden untersucht und realisiert. Das Subsystem hat das Management der klinischen pädiatrischen Versorgung stark vereinfacht, die Kosten gesenkt und hat eine große Bedeutung für das Informationsmanagement der klinischen pädiatrischen Versorgung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-4856-2_29 2f340db2a27eceac0cb2f02ed3c75518;de;;;1.1.;;;Ein kurzer Überblick über mögliche Mechanismen der Informationsverarbeitung Ich werde versuchen, einen Außenblick darüber zu geben, was wirbellose Studien zur Lernforschung beitragen können. Obwohl ich keine Studien an Wirbellosen durchgeführt habe, interessiere ich mich schon lange für sie. Als ich bei der Atomenergiekommission war, war einer der ersten Vorschläge, die auf meinem Schreibtisch auftauchten, von Jim McConnell zur Planarienforschung. In Anbetracht der Schwierigkeiten, die ich mit der Genehmigung dieses Vorschlags hatte, interessiere ich mich seitdem für dieses Gebiet, hauptsächlich, um zu sehen, ob die Hälfte dessen, was er 1958 vorschlug, machbar war oder nicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-6565-3_3 e518a624e77a2831f0ef435dbe24d2d2;de;;;1.1.;;;Bewertung der Informationsverarbeitung und Stimmungswirkung eines transdermalen Nikotinpflasters Der Zweck dieser Studie bestand darin, festzustellen, ob ein transdermales Nikotinpflaster die gleichen Auswirkungen auf Leistung und Stimmung hat wie Zigarettenrauchen. Das Nikotinpflaster verbesserte die Aufmerksamkeitsverarbeitung und führte zu einigen Verbesserungen des Gedächtnisses. Es erzeugte die beruhigende Wirkung des Rauchens und induzierte Glücksgefühle, die durch das Rauchen verstärkt wurden. Diese Wirkungen wurden 6 h nach der Anwendung des Pflasters festgestellt, was zeigt, dass sich eine akute Toleranz gegenüber diesen Verhaltenseffekten nach Nikotinexposition nicht vollständig oder überhaupt nicht entwickelt hatte, obwohl es immer noch möglich ist, dass eine Toleranz bei längerer Exposition auftritt.;-;-;-;https://link.springer.com/article/10.1007/s002130050514 961dd7f83218e11e7a35fc49f02789f0;de;;;1.1.;;;Perfekte Quanteninformationsverarbeitung mit Dicke-Klasse-Zustand Wir untersuchen die Möglichkeit, eine perfekte Quanteninformationsverarbeitung mit Dicke-Klassen-Zustand zu implementieren. Es wird gezeigt, dass der symmetrische Dicke-Zustand |D;-;-;-;https://link.springer.com/article/10.1140/epjd/e2010-00106-8 829ff4a0b0d3e8886ae71a429241b8b0;de;;;1.1.;;;Spannungsgesteuerte Membranströme in Neuronen, die an der Geruchsinformationsverarbeitung im Schneckenprocerebrum beteiligt sind Das Procerebrum (PC) des Schneckenhirns ist eine kritische Region für die Geruchsunterscheidung und das Geruchslernen. Die morphologische Organisation und physiologische Funktion des PCs wurde bei mehreren Gastropodenarten intensiv untersucht, jedoch wurde das Vorhandensein und die Verteilung von Ionenkanälen in platzenden und nicht platzenden Zellen noch nicht beschrieben. Daher war das Ziel unserer Studie, die verschiedenen Ionenkanäle zu identifizieren, die in PC-Neuronen vorhanden sind. Basierend auf Ganzzell-Patch-Clamp- und immunhistochemischen Experimenten zeigen wir, dass Na;-;-;-;https://link.springer.com/article/10.1007/s00429-013-0526-6 f09fdd53e97965cc0c42be9c6ef39288;de;;;1.1.;;;Serotonerge Modulation der Hippocampus-Theta-Aktivität in Bezug auf die Hippocampus-Informationsverarbeitung Die Hippocampus-Theta-Aktivität ist das Ergebnis der konzertierten Aktivität einer Gruppe von Kernen, die sich im Hirnstamm und im kaudalen Zwischenhirnbereich befinden, die zusammen als synchronisierendes aufsteigendes System bezeichnet werden. Serotonin ist als einziger Neurotransmitter bekannt, der die Elektroenzephalographie des Hippocampus desynchronisieren kann. Es wurde eine Theorie entwickelt, in der Serotonin, das auf mediale Septumneuronen wirkt, cholinerge/GABAerge Inputs in den Hippocampus und damit die von diesem Bereich vermittelte kognitive Verarbeitung moduliert. Allerdings haben sich nur wenige Studien mit der Beziehung zwischen der Serotonin-Modulation der Theta-Aktivität und der Kognition befasst. In diesem Review präsentieren wir eine Zusammenfassung und Analyse der Daten zu Serotonin und seiner Theta-Aktivitätsmodulation mit Kognition, und wir diskutieren auch die wenigen Arbeiten zu Serotonin, Theta-Aktivität und Kognition sowie die Theorien zur Serotonin-Regulation von organisierten Gedächtnisprozessen durch den Hippocampus. Wir schlagen vor, dass ein Serotoninmangel eine Beeinträchtigung der Relais induziert, die die Frequenz der Hippocampus-Theta-Aktivität kodieren, während eine Erschöpfung der Relais, in denen die Frequenz nicht kodiert ist, Verbesserungen beim räumlichen Lernen induziert, die mit einer erhöhten Expression der hochfrequenten Theta-Aktivität zusammenhängen.;-;-;-;https://link.springer.com/article/10.1007/s00221-013-3679-x c7b39e3079345e3873573fd5b8b5e3ff;de;;;1.1.;;;Die Ursprünge differentieller hemisphärischer Strategien zur Informationsverarbeitung in den Beziehungen zwischen Stimme und Gesichtswahrnehmung Es wird vermutet, dass die pränatale Exposition gegenüber mütterlicher Sprache in Verbindung mit unterschiedlichen Entwicklungsraten der beiden Hemisphären zu einer Sprachspezialisierung der linken Hemisphäre zum Zeitpunkt der Geburt führt. Diese Spezialisierung führt zusammen mit der Tendenz von Erwachsenen, mit Säuglingen zu sprechen, wenn sie sich nähern, zu einer Spezialisierung der rechten Hemisphäre für Gesichter. Es wird ferner vorgeschlagen, dass die schlechte Auflösung mittlerer und hoher Ortsfrequenzen bei Säuglingen die anfängliche Verarbeitung der rechten Hemisphäre auf eine Verarbeitung beschränkt, bei der die Konfiguration des Gesichts eher als spezifische Merkmale beachtet wird. Verbesserungen der visuellen Funktionen führen zu einer Verarbeitung bestimmter Merkmale in der linken Hemisphäre. Es wird daher vorgeschlagen, dass der charakteristische rechte Hemisphärenmodus der ganzheitlichen Verarbeitung und der linke Hemisphärenmodus der analytischen Verarbeitung aus der frühen Gesichtsverarbeitung, der Stimmverarbeitung, stammen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-8234-6_14 08b97c7e6356571849265d99e8e8a3de;de;;;1.1.;;;Informationsverarbeitung bei Patienten mit frühzeitig und kontinuierlich behandelter Phenylketonurie Insgesamt 33 Patienten mit frühzeitig und kontinuierlich behandelter Phenylketonurie (PKU) im Alter zwischen 7 und 16 Jahren und 33 Kontrollpersonen nahmen an einer Studie teil, in der Wahrnehmungs-, zentrale und reaktionsbezogene Mechanismen der Informationsverarbeitung untersucht wurden. Die untersuchten spezifischen Mechanismen waren: Wahrnehmungsfilterung, Gedächtnissuche, Reaktionsauswahl, Reaktionsausführung und motorische Voreinstellung. Darüber hinaus wurden die Gruppen hinsichtlich des mittleren Intelligenzniveaus und des aufgabenorientierten Verhaltens verglichen. Die Leistung der PKU-Patienten entsprach bei allen drei Aufgaben praktisch der der Kontrollen, was darauf hindeutet, dass PKU-Patienten, die kontinuierlich eine gut kontrollierte phenylalaninreduzierte Diät einhalten, in den elementaren Mechanismen der Informationsverarbeitung nicht beeinträchtigt sind. Darüber hinaus unterschieden sich die Gruppen nicht im mittleren IQ oder im aufgabenorientierten Verhalten.;-;-;-;https://link.springer.com/article/10.1007/BF02276719 54adf4b617b2e983701351040968007b;de;;;1.1.;;;Selektive Verarbeitung von Nahrungs-, Gewichts- und Körperformwörtern bei nicht geduldigen Frauen mit Bulimia nervosa: Störung der Stroop-Aufgabe Die Studie untersuchte, ob der Stroop-Interferenzeffekt bei Nichtpatienten mit einer Selbsteinschätzung, die mit der Diagnose Bulimia nervosa übereinstimmt, gefunden werden kann. Die bulimische Nichtpatientengruppe zeigte signifikant mehr Störungen bei störungsspezifischen Wörtern (Essen, Gewicht und Körperform) als bei Kontrollwörtern. Die beiden Nichtpatienten-Vergleichsgruppen, eine depressiv-nicht-bulimische Gruppe und eine nicht-bulimische-nicht-depressive Gruppe, zeigten keine Interferenzen. Diese Ergebnisse zeigen, dass Nichtpatienten mit Bulimia nervosa verwendet werden können, um verschiedene Modelle der kognitiven und emotionalen Prozesse, die bei Bulimia nervosa beteiligt sind, mit der modifizierten Stroop-Aufgabe zu testen. Methodische Probleme bei der Verwendung der computergestützten Stroop-Aufgabe bei klinischen Populationen werden ebenfalls erwähnt.;-;-;-;https://link.springer.com/article/10.1007/BF02229111 91691c7d32d1e6ca03d8a81fead1c51a;de;;;1.1.;;;Nichtlineare räumlich-zeitliche Informationsverarbeitung mit Femtosekunden-Laserpulsen Die Informationsverarbeitung mit Femtosekunden-Laserpulsen für optische Kommunikations- und Speicheranwendungen wird beschrieben. Insbesondere werden Ergebnisse zur Femtosekundenpulsbildgebung unter Verwendung nichtlinearer optischer Wellenmischung sowie zur Femtosekundenpulsspeicherung in photorefraktiven Materialien präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4096-6_18 c2ea6891b8f9403ab1d514eefb009e58;de;;;1.1.;;;Reiz- und wahrnehmungsbestimmte Aspekte der haptischen wahrnehmungsbezogenen Informationsverarbeitung Die Geschwindigkeit der Klassifikation von haptisch ohne Sehen wahrgenommenen Reizen wurde in drei Experimenten gemessen, in denen Probanden ein Kartenspiel sortierten, das Stimuli mit erhabenen Linien enthielt, die aus der orthogonalen Kombination von zwei dichotomen Attributen von Linien erzeugt wurden: Anzahl und Ausrichtung. Um die Art der dimensionalen Interaktion für den Satz von Reizen beurteilen zu können, führten die Versuchspersonen in Experiment 1 13 verschiedene beschleunigte Klassifikationsaufgaben von drei Grundtypen durch. Die Leistungsergebnisse bei diesen Diskriminierungs-, Fokussierungs- und Klassifikationsaufgaben zeigten, dass Unterschiede in der Verarbeitung auf die Konfigurationseigenschaften der einzelnen Stimuli zurückzuführen waren und nicht auf die Dimensionen, die zur Erzeugung der Stimuli verwendet wurden. Die Experimente 2 und 3 lieferten den Beweis, dass die Versuchspersonen bei längerer Übung und Anwendung einer ganzheitlichen Inspektionsstrategie die Art und Weise, wie sie die Reize in den Fokussierungs- und Verdichtungsaufgaben kodierten und verarbeiteten, modifizieren konnten. Diskutiert wird die Rolle von reiz- und wahrnehmungsbestimmten Aspekten der Wahrnehmungsinformationsverarbeitung als Mitbestimmungsfaktoren der haptischen Wahrnehmungsleistung.;-;-;-;https://link.springer.com/article/10.3758/BF03330547 f206fd6ccf7ec37d7f61423128dedbf1;de;;;1.1.;;;Blutcholesterin im Alter und kognitiver Verfall: eine Längsschnittstudie an chinesischen älteren Menschen Frühere Studien zur Lipid-Kognitionsbeziehung bei älteren Erwachsenen sind begrenzt und haben zu gemischten Ergebnissen geführt. Wir untersuchten daher in einer gemeinschaftsbasierten Längsschnittstudie an chinesischen älteren Menschen, ob höhere Cholesterinkonzentrationen im Blut mit einem schnelleren kognitiven Verfall verbunden waren.;-;-;-;https://link.springer.com/article/10.1186/s13024-017-0167-y ef3130378a51769d6fe8dc68a823a9e3;de;;;1.1.;;;Vergleich der Wirkungen von Nikotin auf eine feste Rate und eine fachbezogene Version der schnellen Informationsverarbeitungsaufgabe In einer modifizierten „subject-paced“- statt einer Fixed-Rate-Version einer Rapid Information Processing (RIP)-Aufgabe wird die Präsentationsrate der Stimuli kontinuierlich dem individuellen Leistungsniveau angepasst. Somit bewertet diese modifizierte Aufgabenversion wahrscheinlich eher eine kontinuierliche „Geschwindigkeitsfunktion“ als nur „Wachsamkeit“. Um die beiden Aufgabenversionen direkter vergleichen zu können, führten wir eine Studie durch, in der die Auswirkungen einer normalen Nikotinzigarette und der nahezu nikotinfreien Zigarette NEXT auf beide Aufgabenversionen unter den gleichen Versuchsbedingungen untersucht wurden. Die dominante Alpha-Frequenz wies auf eine stärkere Erregung hin, die von der RIP-Version mit Subjektstimulation im Vergleich zur Version mit fester Rate hervorgerufen wurde. Bei der Version mit fester Rate reduzierte das Rauchen von Nikotinzigaretten die Reaktionszeiten, während bei der Version mit Subjekttempo die Verarbeitungsrate verbessert wurde. Darüber hinaus verringerte das Rauchen von NEXT das Verlangen weniger als das Rauchen der normalen Zigaretten. Es wurde geschlussfolgert, dass die beiden Aufgabenversionen sensibel auf unterschiedliche kognitive Funktionen reagieren. Während die fachgesteuerte Version empfindlicher auf Auswirkungen auf die Verarbeitungsgeschwindigkeit reagierte, war die Version mit fester Rate empfindlicher auf Auswirkungen auf die Reaktionszeit.;-;-;-;https://link.springer.com/article/10.1007/BF02246080 e2e2ce67c3407817c6eed8d122dc591f;de;;;1.1.;;;Gestaltung agiler Prozesse im Informationsmanagement Heutige Projekte müssen immer dynamischer und turbulenter werdende Umweltbedingungen bewältigen [HHL09]. Agile Ansätze sind eine Möglichkeit, dieser Herausforderung erfolgreich zu begegnen. Während die Kombination von agilen und eher traditionellen Vorgehensmodellen in der Industrie übliche Praxis der Softwareentwicklung zu sein scheint [HDGZ06], mangelt es an wissenschaftlicher Reflexion. In diesem Beitrag wird ein Ansatz zur Prozessgestaltung vorgestellt, der in Informationsmanagementprojekten eingesetzt werden kann und die Vorteile agiler Softwareentwicklungsmethoden mit denen traditioneller Informationsmanagementmethoden kombiniert. Das agile Informationsmanagement stellt Prozessdesignern eine Toolsuite zur Verfügung, die aus Rollen, Werten und Prinzipien sowie einem Set verschiedener Methoden besteht und in kleinen Schritten iterative und inkrementelle Prozesse implementiert. Erste Ergebnisse einer Fallstudie bestätigen die Angemessenheit des Ansatzes für herausfordernde häufige Veränderungen (z. B. aufgrund sich ändernder Märkte, Nutzerbedürfnisse oder vage Anforderungen), interdisziplinäre Zusammenarbeit und Kommunikation zwischen den beteiligten Rollen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16208-4_15 07bccc0b08dfebd74f49c2538ccc3937;de;;;1.1.;;;Komplexes Informationsmanagement mit einem Framework, das von ECA-Regeln in XML unterstützt wird Es ist der Wunsch jedes Unternehmens, Best Practices in sein Unternehmen zu integrieren. Diese Einbindung führt zu der Notwendigkeit, Informationen zu pflegen, die als komplex angesehen werden könnten. Die Verwaltung dieser komplexen Informationen stellt eine große Herausforderung für den Bereich des Informationsmanagements dar. Dieses Papier stellt einen Rahmen für die Einbeziehung von Best Practices und das anschließende Management der resultierenden komplexen Informationen vor. Das Papier stellt auch einen Ansatz zur Unterstützung dieses Rahmens vor, indem das ECA-Regelparadigma mit einer XML-basierten Sprache namens AIM zum Spezifizieren und Abfragen von Best Practices und komplexen Informationen verwendet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75975-1_22 173e298135bca7f66fb33aebc374bbd5;de;;;1.1.;;;Relational Laboratory Information Management System der EPA: Entwicklung und Implementierung Die von einem Umweltlabor erstellten Informationen führen oft zu regulatorischen Maßnahmen oder politischen Entscheidungen. Das Umweltlabor liefert auch die Informationen, die die Einhaltung der staatlichen und bundesstaatlichen Umweltvorschriften durch das Unternehmen bestimmen. Dass ein Laboratorium von der Industrie, einem unabhängigen Auftragnehmer oder der Regierung betrieben wird, ist für die Verantwortung des Laboratoriums unerheblich, innerhalb eines nützlichen Zeitrahmens Informationen von bekannter Qualität bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-0615-3_7 27dd676f83c821d19e1c35224468fa2d;de;;;1.1.;;;Hypnotische Anfälligkeit, Bildgebungsfähigkeit und Informationsverarbeitung: Ein integrativer Blick Zu Beginn des 19. Jahrhunderts plädierte Jose Custodi di Faria für eine psychologische Erklärung des damaligen Mesmerismus. Er betonte, dass bei dieser Manipulation ein sogenannter Klarschlaf stattfinde und dieser allein durch die erhöhten Erwartungen und Aufnahmeeinstellungen der Versuchsperson hervorgerufen werde. Da die Versuchsperson hypnotisiert werden wollte und erwartete, dass dadurch etwas passiert, wurden die Erwartungen tatsächlich erfüllt. Mit dem Schwerpunkt auf psychologischen Faktoren während des mesmerischen Prozesses entwickelte Faria ein so genanntes Standardverfahren zur Herbeiführung von Klarschlaf. Er benutzte eine Reihe von beruhigenden und befehlenden verbalen Vorschlägen, während sich die Versuchsperson im empfänglichen, hypnotischen Zustand befand. Faria erkannte dann, wie auch andere, die ihm folgten, wie Ambroise August Liebeault und Hippolyte Marie Bernheim, dass verbale Suggestionen eine wichtige Rolle beim Mesmerismus spielen (Wallace und Fisher, 1987).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-2623-4_11 a44737702f381226adc54cfed3f1d685;de;;;1.1.;;;Endlicher Horizont Die vernetzten Messungen kommen mit unterschiedlicher Zeitverzögerung im Informationsverarbeitungszentrum an. Dadurch wird der Filter für unterschiedliche Filterszenen benötigt. Die bestehenden Filteralgorithmen werden meist für spezifische Filterszenen vorgeschlagen. Diese Situation motiviert unsere gegenwärtige Forschung. In dieser Arbeit wird ein lineares zeitveränderliches System mit unbekannten statistischen Rauscheigenschaften und einem einheitlichen endlichen Horizont betrachtet;-;-;-;https://link.springer.com/article/10.1007/s12555-012-9201-6 f505e2704443c7065ce3afb8b2918da6;de;;;1.1.;;;Informationsmanagement für die Offline-Roboterprogrammierung Dieses Papier beschreibt einen Ansatz zur Spezifikation und Modellierung von Informationen, die für die Offline-Roboterprogrammierung erforderlich sind. Der Ansatz zeichnet sich durch die kombinierte Struktur- und Betriebsbeschreibung der Daten aus. Die Anforderungen an die Datenbankmodellierung für Roboterprogrammierungsanwendungen werden betrachtet und Techniken zum Modellieren spezifischer Konzepte in dieser Anwendung werden beschrieben. Als Datenmanagementumgebung wird dabei EDEN verwendet, ein experimentelles Datenbankmanagementsystem für die industrielle Automatisierung, das sich derzeit in der Entwicklung befindet. EDEN basiert auf 3DIS, einem erweiterbaren objektorientierten Informationsmanagement-Framework. In diesem Artikel zeigen wir einige Datenmodellierungsprobleme, die in Offline-Roboterprogrammiersystemen auftreten, und wie das EDEN-System diese angeht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-58214-1_84 a66778731184aa7c8bc8981a0de6dfb2;de;;;1.1.;;;Ein Apfelextrakt-Getränk in Kombination mit Koffein kann die Wachsamkeit, geistige Erschöpfung und die Geschwindigkeit der Informationsverarbeitung verbessern Die psychologischen Wirkungen von niedrig dosiertem Koffein in Kombination mit Polyphenolen aus Äpfeln sind wissenschaftlich kaum erforscht, synergistische Effekte sind jedoch plausibel. Ein randomisiertes, doppelblindes, placebokontrolliertes Cross-over-Experiment wurde verwendet, um die psychologischen Wirkungen von Apfelextraktgetränken in Kombination mit 10, 20, 37,5 und 75 mg Koffein zu testen. Es wurden Vergleiche sowohl mit einem künstlich gesüßten und gefärbten Placebo-Getränk angestellt, um die Testgetränke nachzuahmen, und einem positiven Kontrollgetränk mit 75 mg Koffein, jedoch ohne Apfelextrakt. Im Vergleich zu Placebo wurde die Hypothese aufgestellt, dass nach dem Verzehr des Getränks mit Apfelextrakt mit Koffeinzusatz dosisabhängige Verbesserungen der kognitiven Leistung, Stimmung und Motivation erzielt werden. Die Ergebnisse wurden vor, 60 bis 110 und 125 bis 175 Minuten nach dem Trinken bewertet. Das Positivkontrollgetränk führte zu mehr seriellen sieben Subtraktionen, einer höheren Motivation zur Durchführung kognitiver Aufgaben und einem geringeren Müdigkeitsgefühl (alle;-;-;-;https://link.springer.com/article/10.1007/s41465-020-00204-1 0ff1ff3c430986388fcf67c3253e1316;de;;;1.1.;;;Interaktion zwischen bewusster und unbewusster Informationsverarbeitung von Gesichtern und Wörtern Es ist allgemein anerkannt, dass die ganzheitliche Verarbeitung ein Schlüsselmerkmal der Gesichtswahrnehmung ist. Obwohl die ganzheitliche Verarbeitung die automatische Integration von Gesichtsteilen impliziert, ist unklar, ob eine solche Verarbeitung die Kenntnis von Gesichtsteilen erfordert. Hier haben wir die Wechselwirkungen zwischen sichtbaren Gesichtsteilen und unsichtbar gemachten Gesichtsteilen durch kontinuierliche Blitzunterdrückung (CFS) untersucht. Im ersten Experiment mit sichtbarer oberer Gesichtshälfte und unsichtbarer unterer Gesichtshälfte zeigten die Ergebnisse, dass die wahrgenommene Gesichtsidentität durch die unsichtbare untere Gesichtshälfte beeinflusst wurde, was darauf hindeutet, dass eine Integration zwischen den sichtbaren und unsichtbaren Gesichtsteilen stattfindet, eine Variante des „Composite Face-Effekts“. Im zweiten Experiment untersuchten wir den Einfluss sichtbarer Gesichtsteile auf die Verarbeitung unsichtbarer Gesichtsteile, gemessen an der Zeit, die es dauerte, bis die unsichtbaren Teile aus dem CFS ausbrachen. Die Ergebnisse zeigten einen sichtbaren zu unsichtbaren Erleichterungseffekt, dass die ausgerichteten unsichtbaren Gesichtsteile schneller durch CFS brachen als wenn die sichtbaren und unsichtbaren Gesichtsteile falsch ausgerichtet waren. Sichtbare Augen hatten einen stärkeren Einfluss auf die unsichtbare Nase/Mund als umgekehrt. Eine solche Erleichterung der Verarbeitung von sichtbaren zu unsichtbaren Teilen wurde auch gefunden, wenn chinesische Zeichen als Stimuli verwendet wurden. Diese Ergebnisse zeigen, dass die Informationsintegration über die Bewusstseinsgrenze hinweg stattfindet.;-;-;-;https://link.springer.com/article/10.1007/s12264-021-00738-0 8344c3733f255868f9139a503e4f3fb1;de;;;1.1.;;;Anforderungen an das Produktinformationsmanagement in den Lebenszyklusphasen Vertrieb und Service einer Anlage Die Informationen rund um die Lieferung und den Betrieb einer Anlage sind enorm. Die Nutzung dieser Informationen und insbesondere des erfahrungsbasierten Wissens kann geschäftliche Vorteile bringen. In einem Netzwerk von Organisationen zu agieren bedeutet, eine Vielzahl von Prozessen und Produkten an unterschiedlichen Standorten, Arbeitsumgebungen und Arbeitsbedingungen zu verwalten. In diesem Whitepaper werden einige allgemeine Anforderungen an die Verwaltung von Informationen in den Verkaufs- und Servicelebenszyklusphasen virtueller Unternehmen erörtert. Unternehmen sollten sich auf das vorgelagerte Informationsmanagement vorbereiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35412-5_30 c16e38d60e0545df57db5fc0a7ed5522;de;;;1.1.;;;Auswirkungen der Gestaltgruppierung auf die taktile Informationsverarbeitung: beim Berühren der Hände die räumliche Nähe außer Kraft setzen Mit einer taktilen Variante des Negativ-Priming-Paradigmas analysierten wir den Einfluss der Gestaltgruppierung auf die Fähigkeit der Teilnehmer, ablenkende taktile Informationen zu ignorieren. Der Abstand zwischen den Händen der Teilnehmer, an die gleichzeitig Ziel- und Distraktorreiz abgegeben wurden, wurde variiert (nahe/berührende Hände vs. Hände weit auseinander). Darüber hinaus wurde der Einfluss von Berührungen der Hände kontrolliert, da die Teilnehmer Handschuhe trugen und ihre Hände durch eine Abdeckung vor dem Sehen geschützt waren. Die Stärke des taktilen Negativ-Priming-Effekts wurde durch die Interaktion zwischen Handtrennung und dem Tragen von Handschuhen moduliert. Beim Berühren der Hände trat eine negative Grundierung nur beim Tragen von Handschuhen auf, die einen direkten Haut-zu-Haut-Kontakt verhinderten. Im Gegensatz dazu trat bei größeren Abständen zwischen den Händen der Teilnehmer ein negatives Priming nur dann auf, wenn keine Handschuhe getragen wurden. Dieses Ergebnismuster wird im Hinblick auf die konkurrierenden Einflüsse zweier interagierender Gestaltprinzipien – nämlich Verbundenheit und Nähe – auf die Verarbeitung taktiler Distraktoren interpretiert.;-;-;-;https://link.springer.com/article/10.3758/s13414-012-0417-6 30618a370514c8ac1b27915c2705859b;de;;;1.1.;;;Rolle der DNA bei der Informationsverarbeitung des Gehirns Bei der erwachsenen Ratte befindet sich die Gehirn-DNA in einem Turnover-Zustand, an dem auch eine neuronale perikaryale Fraktion beteiligt ist. Die DNA-Synthese des Gehirns wird durch Lernen in Aufwärts- oder Abwärtsverschiebungen moduliert, je nach Art der Lernaufgabe. Die Konzentration der während des Trainings synthetisierten radioaktiven Gehirn-DNA ist umgekehrt abhängig von der Menge des paradoxen Schlafs nach dem Training, jedoch nur bei nicht lernenden Ratten. Diese Ergebnisse werden als Beweis dafür gewertet, dass Gehirn-DNA während des Lernens in Bezug auf den Prozess der Informationsspeicherung synthetisiert wird und schließlich in Bezug auf die Entfernung dieser Informationen abgebaut werden kann. Der letztere Prozess erfordert paradoxen Schlaf und tritt auf, wenn sich die Informationen als ohne adaptiven Wert erweisen. Es wird vorgeschlagen, dass Transpositionsmechanismen dem beobachteten DNA-Umsatz im Gehirn und den entsprechenden Ereignissen der Informationsverarbeitung zugrunde liegen. Die Daten unterstützen auch die sequentielle Hypothese der Schlaffunktion, die besagt, dass die vom Gehirn während des Wachzustands gesammelten Informationen während des Schlafs in zwei Hauptschritten verarbeitet werden, die während des synchronisierten und pardoxen Schlafs sequentiell ablaufen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2321-1_23 3bcd80abff569fa1e811eec60e1643de;de;;;1.1.;;;Neukonfiguration des Informationsmanagement-Frameworks basierend auf Adaptive Grid Computing In diesem Papier bietet GridIMF den Benutzern Konsistenz und passt sich gleichzeitig an Variabilitäts-Rasterinformationen an. GridIMF entwirft ein hierarchisches 3-Tier-Informationsmanagementmodell in Übereinstimmung mit den beteiligten Absichten, Rollen und Betriebsstrategien der Netzinformationen. Um Netzinformationen effektiv zu verwalten, bietet GridIMF Netzdienste an, während es in GVMS und GRMS unterteilt wird. GVMS schlägt einen optimalen Auswahlmechanismus für virtuelle Organisationen vor, um die Leistung bestimmter Anwendungen und eine LRM-Auto-Recovery-Strategie zu verbessern, die Fehler der virtuellen Organisation behandelt. GRMS unterstützt eine adaptive leistungsbasierte Aufgabenzuweisungsmethode für Lastausgleich und Fehlertoleranz. Die Zustandsüberwachungs- und Visualisierungsansicht bietet Anpassungsfähigkeit bei der Verwaltung von Netzinformationen. Der Anwendungsproxy entfernt die gegenseitige Abhängigkeit zwischen Dienstobjekten von GridIMF und Anwendungsobjekten. Um die Ausführbarkeit von GridIMF zu analysieren, werden zwei fraktale Bildverarbeitungen angepasst, deren Eigenschaften unterschiedlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/11946441_51 90f6d32cab3ba0a52006212042e8c05e;de;;;1.1.;;;Dimensionale Interaktionen in der vibrotaktilen Informationsverarbeitung Die Wirkung von irrelevanten Dimensionsvariationen auf die Verarbeitung von vibrotaktilen Stimuli wurde gemessen. Sechs Beobachter führten eine beschleunigte Klassifikationsaufgabe mit Reizen durch, die entlang der Dimensionen von Tonhöhe und Lautstärke variierten. Wahlreaktionszeiten wurden für Reize erhalten, die sich nur in einer Dimension, in zwei korrelierten Dimensionen oder in zwei orthogonal variierten Dimensionen unterschieden. Im Vergleich zur eindimensionalen Leistung waren die Reaktionszeiten im korrelierten Zustand schneller und im orthogonalen Zustand langsamer. Im Allgemeinen stimmten diese Ergebnisse mit ähnlichen Experimenten in anderen Modalitäten überein, mit der Ausnahme, dass die Effekte in dieser Studie in Fällen stärker waren, in denen die Lautstärke und nicht die Tonhöhe die relevante Dimension war. Die Ergebnisse werden im Hinblick auf die Ganzheit von Tonhöhe und Lautheit und die relative Unterscheidbarkeit von Dimensionen erklärt.;-;-;-;https://link.springer.com/article/10.3758/BF03199505 0f5d8cd0d6a7371d2eb1996547d5d85d;de;;;1.1.;;;Einige Analysen der Informationsverarbeitung und sensorischen Fähigkeiten von alkoholkranken Korsakow-Patienten In den letzten fünf Jahren hat sich unser Labor auf die Faktoren konzentriert, die den amnesischen Symptomen (d. h. anterograde und retrograde Amnesie) von alkoholkranken Korsakow-Patienten zugrunde liegen. Da nun zwei umfassende Übersichtsarbeiten zu diesen Studien erschienen sind (Cermak und Butters, 1973, Butters und Cermak, 1974), werden wir diese Ergebnisse nur kurz diskutieren und uns dann den Ergebnissen zweier neuerer Untersuchungen zuwenden. Der erste Satz umfasst die Rolle von Informationsverarbeitungsstörungen bei Gedächtnisstörungen von alkoholischen Korsakows und chronischen Alkoholikern. Diese Studien weisen darauf hin, dass chronische Alkoholiker einige der gleichen kognitiven Beeinträchtigungen aufweisen, die eine wichtige Rolle bei den amnesischen Symptomen der Korsakows spielen können. Die zweite Untersuchungsreihe befasst sich mit den grundlegenden sensorischen Fähigkeiten von alkoholkranken Korsakow-Patienten. Da die bei der Korsakow-Krankheit geschädigten neuralen Strukturen (n. medialis dorsalis und Mammillarkörper) mit dem olfaktorischen System in Verbindung gebracht werden, haben wir psychophysikalische Methoden verwendet, um die Unterscheidungsfähigkeit dieser Patienten in den olfaktorischen, visuellen und auditiven Modalitäten zu untersuchen. Die Ergebnisse dieser Studien zeigen eine sehr schwere olfaktorische sensorische Beeinträchtigung bei alkoholkranken Korsakow-Patienten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-0632-1_42 15f7e6fc93d1aca70a788df3651e5b2e;de;;;1.1.;;;Organisatorischer semiotischer Ansatz zur Definition von Informationsmanagement-Anforderungen für Öl- und Gas-Großkapitalprojekte Die Organisationssemiotik bietet Methoden zum Verständnis komplexer Probleme. Dieses Papier schlägt die Verwendung der organisationalen semiotischen Zwiebel vor, um die komplexen Anforderungen an das Informationsmanagement von vorgelagerten Öl- und Gaskapitalprojekten zu verstehen und anzugehen. Einige der Herausforderungen des Projektinformationsmanagements, denen ein Unternehmen ausgesetzt ist, werden anhand der organisationalen semiotischen Zwiebel dargestellt. Dieser Ansatz zeigt die Vorteile der Verwendung der Zwiebel als analytische Methode zur Analyse von Anforderungen an das Informationsmanagement, da Anforderungen ganzheitlich analysiert und auf informeller, formaler und technischer Ebene adressiert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40660-7_207 2bc623c424df278a0f416e22b23684f6;de;;;1.1.;;;Reizgröße und Schärfe in der Informationsverarbeitung Zehn Probanden dienten in einer Schnellerkennungsaufgabe, bei der Buchstabenziele von 0,143 bis 2,14 Grad Sehwinkel in der Höhe variiert wurden. Es wurde festgestellt, dass die Identifizierungslatenzen in der Größenordnung von 40 ms sowohl für blockierte als auch für randomisierte Präsentationen von Größen mit zunehmender Zielgröße abnahmen. Jenseits einer Größe von ungefähr 0,75° des Sehwinkels wurde die Reaktionszeit asymptotisch und die blockierte Präsentation der Zielgröße wurde als schneller beurteilt als randomisiert. Diese Ergebnisse wurden interpretiert, um die Ansicht zu stützen, dass sich eine Wahrnehmung im visuellen System im Laufe der Zeit allmählich entwickelt, was eine grobe Figur-Grund-Unterscheidung sehr früh in der Verarbeitung, aber eine Unterscheidung feiner Details erst später ermöglicht. Implikationen dieser Ergebnisse für Human-Factor-Anwendungen werden diskutiert.;-;-;-;https://link.springer.com/article/10.3758/BF03329719 ee217a8ea9a64ba98564510e53e596d3;de;;;1.1.;;;Visuelle Informationsverarbeitung bei kürzlich abstinenten Methamphetamin-abhängigen Personen: Studie zu evozierten Potenzialen Methamphetamin (MAP) ist ein indirekter Dopaminagonist, der die kognitive Leistungsfähigkeit vorübergehend steigern kann. Sein langfristiger Missbrauch kann jedoch zu einem Dopaminmangel und daraus folgenden kognitiven und Aufmerksamkeitsstörungen führen. Die Verschlechterung der Sehfunktionen bei der Parkinson-Krankheit und ihre Verbesserung nach der Verabreichung von Levodopa impliziert die Rolle von Dopamin in der Physiologie des Sehvermögens. Dies liefert die Begründung für die Untersuchung der Sehfunktionen bei abstinenten MAP-Missbrauchern.;-;-;-;https://link.springer.com/article/10.1007/s10633-008-9135-8 8d0a0b0c3e1fcbed73996c9759aa90eb;de;;;1.1.;;;Spielverhalten und Verzerrungen bei der Informationsverarbeitung Menschen neigen dazu, bei der kognitiven Verarbeitung von Informationen ziemlich konsistente Verzerrungen zu zeigen. In einer Spielumgebung können diese Verzerrungen die Teilnahme an Glücksspielen beeinträchtigen. Der Verfügbarkeitsbias reduziert komplexe probalistische Urteile auf einfachere, da relevante Instanzen leicht erinnert werden können. Der Repräsentativitätsbias ordnet einem Unternehmen oder Prozess aufgrund von Beweisen, die in einem begrenzten Rahmen erhalten wurden, fälschlicherweise Eigenschaften zu. Voreingenommene Faktoren scheinen durch individuelle Unterschiede und situative Faktoren beeinflusst zu werden. Die Auswirkungen auf das Glücksspiel können sich in der Spieldauer, dem gespielten Geld und der Zufriedenheit oder Unzufriedenheit mit dem Spiel manifestieren. Implikationen für die Behandlung pathologischer Spieler werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF01019864 41538084b8f2c661af75057cbcfc9d24;de;;;1.1.;;;Informationsverarbeitung in der visuellen Peripherie Die Informationsverarbeitungskapazität der visuellen Peripherie wurde in zwei Experimenten unter Verwendung von Stimuli mit bekanntem relativen Informationsgehalt untersucht. Die Ergebnisse von Experiment I zeigten, dass redundante Muster bei allen getesteten Umfangswinkeln (5, 10, 20 und 30 Grad) im Vergleich zu intermediären und nicht redundanten Mustern am einfachsten zu identifizieren sind. Die Leistung bei allen Mustern nahm mit zunehmendem Umfangswinkel ab. In Experiment II war bei einer Unterscheidungsaufgabe gleichzeitiges foveales und peripheres Sehen erforderlich. Die Leistung war nur dann über dem Zufall, wenn das periphere (7-Grad)-Muster redundant war. Das foveale Muster hatte keinen Einfluss auf die Diskriminierung.;-;-;-;https://link.springer.com/article/10.3758/BF03334369 6cad6f1a63f19338ac399f7632860a14;de;;;1.1.;;;Quanteninformationsverarbeitung wie durch molekularbasierte gepulste ENDOR-Spektroskopie untersucht Die rasante Entwicklung und Miniaturisierung aktueller Computer wird sich vermutlich schon nach wenigen Jahrzehnten verlangsamen. Die derzeitige Technologie der Computer, daher sogenannte klassische Computer, basiert auf klassischer Physik, die versagt, wenn die Größe der Computer nur mikroskopische Größenordnungen wie atomare oder molekulare Einheiten erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-3910-7_81 e2ea9501ce5b6d368605564ee8df942d;de;;;1.1.;;;Einfache Quanteninformationsverarbeitung mit HF-supraleitendem Qubit Unter Verwendung von HF-supraleitenden Quanteninterferenzvorrichtungen, die mit einem Übertragungsleitungsresonator gekoppelt sind, schlagen wir ein Schema zur Implementierung der Quanteninformationsverarbeitung vor. In diesem System werden die maximal verschränkten Zustände mit zwei Qubits hoher Wiedergabetreue und ein Quantenlogikgatter realisiert. Unter der Bedingung großer Verstimmung wird der angeregte Zustand einer HF-supraleitenden Quanteninterferenzvorrichtung adiabatisch eliminiert. So kann die spontane Emission des supraleitenden Qubits im angeregten Zustand in dieser Arbeit effektiv vermieden werden. Zuletzt wurden die experimentelle Machbarkeit und die Herausforderung unserer Systeme diskutiert.;-;-;-;https://link.springer.com/article/10.1134/S0021364012240149 1acf5f44cbec34b5756fdb9acd15f781;de;;;1.1.;;;Informationsverarbeitung im Verlauf eines visuellen Interneurons Heuschrecken-Ozellar-Retinalzellen werden von riesigen 2 mm langen Zellen zweiter Ordnung innerviert, die entlang ihres Verlaufs diskrete Integrationszonen aufweisen, einschließlich einer Hauptzone in der axonalen Länge des Neurons. Die komplexen synaptischen Anordnungen, die zwischen afferenten und efferenten Zellen höherer Ordnung und diesen Zellen zweiter Ordnung auf ihrem Verlauf bestehen, legen nahe, dass die Übertragung durch die elektrotonische Ausbreitung langsamer Potentiale erfolgt. Die Größe und Zugänglichkeit dieser visuellen Interneurone bietet eine einzigartige Vorbereitung für die Untersuchung von Mechanismen der abgestuften synaptischen Übertragung.;-;-;-;https://link.springer.com/article/10.1007/BF01944168 2079afadced114c9f2afa2b487625fef;de;;;1.1.;;;XML-Anwendung für SNMP_basiertes Informationsmanagement Das Informationsmanagement erfordert eine flexible, erweiterbare Form, da Informationen immer größer und komplexer werden. Dieses Papier analysiert die Architektur der XML-Anwendung für das SNMP_basierte Informationsmanagement und untersucht, wie XML mit dem SNMP_basierten Informationsmanagement kombiniert werden kann. Eine einfache HTML-Anforderung wird an den Webserver gesendet, die jeweilige Verwaltungsoberfläche wird nach dem XML/MIB-Mapping bereitgestellt, XML-Dateien der Antwort werden erstellt, um auf der HTML-Seite basierend auf XML-Technologien angezeigt zu werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11618-6_13 af67630b5c90b75a0dd842c0d7e05a4b;de;;;1.1.;;;Eine Studie, die zwei Arten der Informationsverarbeitung der sexuellen Reaktion vorschlägt Genitale und subjektive sexuelle Erregung als Reaktion auf sexuelle Bilder wurden untersucht. In einer früheren Studie waren Probanden, die ermutigt wurden, Informationen über sexuelle Reize und sexuelle Reaktionen zu verarbeiten, sexuell erregter als Probanden, die ermutigt wurden, nur Informationen über sexuelle Reize zu verarbeiten. In der vorliegenden Studie wurde der umgekehrte Effekt bei Probanden gefunden, die verbale Weiterbildung erhalten hatten, um Informationen über sexuelle Reize oder Reaktionen unterschiedlich zu verarbeiten. Dies legt zwei verschiedene Arten der Verarbeitung von Informationen über sexuelle Reaktionen nahe. Sie können aus einer einfachen Ermutigung oder einem verbalen Training resultieren, sexuelle Informationen zu verarbeiten.;-;-;-;https://link.springer.com/article/10.1007/BF01541974 f61082672b97e0bc67755e7a0468bcee;de;;;1.1.;;;Die getrennten und kombinierten Wirkungen von Scopolamin und Nikotin auf die menschliche Informationsverarbeitung Frühere Arbeiten in diesem und einem anderen Labor haben gezeigt, dass Nikotintabletten die Leistung einer schnellen Informationsverarbeitungsaufgabe verbessern und den Stroop-Effekt reduzieren, während Scopolamin die gegenteiligen Wirkungen hat. Der Zweck dieser Studie bestand darin, diese früheren Ergebnisse zu erweitern, indem festgestellt wurde, ob diese beiden Medikamente bei gemeinsamer Verabreichung antagonistische Wirkungen auf die Aufgabenerfüllung haben. Es wird über zwei Experimente berichtet, die beide doppelblinde Latin-Square-Designs innerhalb der Probanden verwenden. In der ersten erhielten sechs Probanden Einzel- und Kombinationsdosen von Scopolamin 1,2 mg und Nikotin 1,5 mg, und es gab einige Hinweise darauf, dass die beiden Medikamente wechselseitig antagonistische Wirkungen auf die schnelle Informationsverarbeitungsaufgabe hatten. Im zweiten Experiment erhielten 12 Probanden die gleichen Dosen, jedoch wurde ein schneller Informationsverarbeitungstest über einen längeren Zeitraum durchgeführt und der Stroop-Test wurde am Ende der 2,5-stündigen Sitzung eingeführt. Nikotin wirkt sowohl bei der Schnellinformationsaufgabe als auch beim Stroop-Test der durch Scopolamin erzeugten Leistungsschwäche entgegen. Diese Ergebnisse unterstützen weiter die Theorie, dass zentrale cholinerge Signalwege eine wichtige Rolle bei der menschlichen Informationsverarbeitung spielen.;-;-;-;https://link.springer.com/article/10.1007/BF00432014 daf65eb220916c4dad49d10b19683167;de;;;1.1.;;;Die glutamaterge Synapse: eine komplexe Maschinerie der Informationsverarbeitung Als häufigster synaptischer Typ ist die glutamaterge Synapse für den größten Teil der Informationsverarbeitung des Gehirns verantwortlich. Trotz der konzeptionellen Einfachheit des grundlegenden Mechanismus der synaptischen Übertragung zeigt die glutamaterge Synapse eine große Variation in der Reaktion auf die präsynaptische Freisetzung des Neurotransmitters. Diese Variabilität wird nicht nur zwischen verschiedenen Synapsen beobachtet, sondern auch in derselben einzelnen Synapse. Die Variabilität der synaptischen Antwort ist auf mehrere Kontrollmechanismen der zwischen den Neuronen übertragenen Informationen zurückzuführen und legt nahe, dass die glutamaterge Synapse keine einfache Brücke für die Übertragung von Informationen ist, sondern eine wichtige Rolle bei ihrer Ausarbeitung und Verwaltung spielt. Die Steuerung der synaptischen Informationen erfolgt an prä-, post- und extrasynaptischen Stellen in einer Art Kooperation zwischen den prä- und postsynaptischen Neuronen, die auch die Aktivität anderer Neuronen beinhaltet. Das Zusammenspiel der verschiedenen Steuerungsmechanismen ist äußerst kompliziert und seine vollständige Funktionalität noch lange nicht vollständig verstanden. Der vorliegende Aufsatz soll, wenn auch nicht erschöpfend, die wichtigsten dieser Mechanismen und ihre Komplexität skizzieren, deren Verständnis zu den faszinierendsten Herausforderungen der zukünftigen Neurowissenschaften gehören wird.;-;-;-;https://link.springer.com/article/10.1007/s11571-021-09679-w e7bde5aeba68d1bb0fc1872accd9aecf;de;;;1.1.;;;Neurokognitive und Informationsverarbeitungsverzerrungen bei posttraumatischer Belastungsstörung Wir überprüfen aktuelle Forschungsergebnisse zu neurokognitiven und informationsverarbeitenden Anomalien bei posttraumatischer Belastungsstörung (PTSD), einschließlich Studien zur Richtung der Kausalität. Wir betrachten die Neurokognition zusätzlich im Zusammenhang mit komorbiden leichten Schädel-Hirn-Traumata (SHT) und psychosozialen Behandlungen für PTSD.;-;-;-;https://link.springer.com/article/10.1007/s11920-018-0964-1 5fd22db64328513994e35ea6082a12f0;de;;;1.1.;;;Ist die analytische Informationsverarbeitung ein Kompetenzmerkmal in der Medizin? Die Diagnose beginnt mit der Generierung einer ersten Diagnosehypothese durch automatische Informationsverarbeitung. Die Informationsverarbeitung kann hier aufhören, wenn die Hypothese akzeptiert wird, oder eine analytische Verarbeitung kann verwendet werden, um die Hypothese zu verfeinern. Diese Beschreibung stellt die analytische Verarbeitung als optionales Extra der Informationsverarbeitung dar, was uns zu der Frage führt, ob sie tatsächlich zur diagnostischen Leistung beiträgt und ob sie Expertise oder mangelnde Expertise ankündigt. Wenn wir Studenten ermutigen, Probleme durch analytische Verarbeitung zu lösen – wie es unsere Lehrtradition ist –, unterstützen oder behindern wir die diagnostische Leistung und die Entwicklung von Fachwissen? Der Zusammenhang zwischen Informationsverarbeitung, Expertise und diagnostischer Leistung ist komplex. Mindestens vier zusätzliche Variablen beeinflussen diese Beziehung: Kontext, Aufgabenschwierigkeit, klinischer Bereich und experimentelle Bedingungen. Daher können wir keine allgemeine Aussage über die Beziehung zwischen Verarbeitung, Expertise und Leistung treffen – wir können nur sagen, dass bei einem Problem mit bestimmten Informationen, einer bestimmten Schwierigkeit, in einem bestimmten klinischen Bereich und unter bestimmten experimentellen Bedingungen die analytische Verarbeitung scheinbar die diagnostische Leistung zu verbessern und ein Merkmal von Fachwissen zu sein. Keine einzelne Verarbeitungsstrategie ist ein Allheilmittel. Die Schulung der Studierenden sowohl in der automatischen als auch in der analytischen Verarbeitung bietet Flexibilität in der Informationsverarbeitung und bereitet sie besser auf die vielfältigen Probleme vor, denen sie begegnen können.;-;-;-;https://link.springer.com/article/10.1007/s10459-007-9080-4 3628d13a7e1f82b69de7f60edd4e5cfc;de;;;1.1.;;;Informationsverarbeitung von Buchstaben- und Wortpaaren in Abhängigkeit von Ein- und Ausschaltzeiten Die vorliegende Studie versucht, ein vorläufiges Modell der visuellen Informationsverarbeitung mit sequentiellen Eingaben zu erweitern, das sich derzeit in der Entwicklung befindet, wobei ein computerbasiertes Kathodenstrahlröhren-Anzeigesystem verwendet wird. Buchstaben- und Wortpaare wurden für 28 verschiedene Ein-Aus-Zeitkombinationen mit Ein-Zeiten im Bereich von 5 ms bis 50 ms und Aus-Zeiten im Bereich von 1 ms bis 125 ms präsentiert. Die Ergebnisse deuten darauf hin, dass sowohl Ein-, Aus- als auch Gesamtverarbeitungszeiten die prozentualen korrekten Erkennungen beeinflussen, und dass, während ein allmählicher Anstieg der prozentualen korrekten Erkennungen bis zu etwa 50 ms der Gesamtverarbeitungszeit auftritt, eine deutliche Diskontinuität etwa zwischen 50 . aufzutreten scheint und 60 ms Gesamtverarbeitungszeit, wobei der Prozentsatz korrekter Erkennungen abrupt von ungefähr 40% korrekten Erkennungen auf ungefähr 90% korrekte Erkennungen über eine Gesamtverarbeitungszeitspanne von nur 10 ms springt.;-;-;-;https://link.springer.com/article/10.3758/BF03209534 7020439a4614da8f43de823d31bdd80e;de;;;1.1.;;;Bestimmung der Ölquellenbelastung mit Hilfe der Oulet-Temperatur-Informationsverarbeitung Entwicklung einer neuen Methode zur Bestimmung der Ölquellenbelastung durch Messung der Temperaturwerte am Auslass. Vorgeschlagenes mathematisches Modell, das es ermöglicht, das Temperaturprofil der Flüssigkeit entlang des Bohrlochs zu berechnen, um die Belastung der Ölquelle zu bestimmen, unter Berücksichtigung des geothermischen Gradienten in dem das Bohrloch umgebenden Gestein. Es hat sich gezeigt, dass das neue Verfahren im Gegensatz zu den bisherigen vorgeschlagenen Verfahren sehr einfach eine sofortige Bestimmung der Ölquellenbelastung ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-4600-1_4 d611783e5a2f39869859c72941a24194;de;;;1.1.;;;Fehlende Gewöhnung an evozierte visuelle Potenziale im analytischen Informationsverarbeitungsstil: Evidenz bei gesunden Probanden Die Gewöhnung gilt als einer der grundlegendsten Mechanismen des Lernens. Ein Gewöhnungsdefizit an mehrere sensorische Stimulationen wurde als Merkmal des Migränegehirns definiert und auch bei anderen Erkrankungen beobachtet. Andererseits ist der analytische Informationsverarbeitungsstil durch die Angewohnheit gekennzeichnet, ständig Reize auszuwerten und wurde mit Migräne in Verbindung gebracht. Wir untersuchten eine mögliche Korrelation zwischen der fehlenden Gewöhnung evozierter visueller Potentiale und dem analytischen kognitiven Stil bei gesunden Probanden. Nach Sternberg-Wagner-Selbsteinschätzungsinventar wurden 15 gesunde Freiwillige (HV) mit hohem analytischem Score und 15 HV mit hohem Global-Score rekrutiert. Beide Gruppen wurden nach psychologischer Auswertung visuell evozierten Potenzialen aufgezeichnet. Wir beobachteten einen signifikanten Mangel an Gewöhnung bei analytischen Individuen im Vergleich zu globalen Gruppen. Zusammenfassend lässt sich sagen, dass bei analytischen Probanden eine reduzierte Gewöhnung visuell evozierter Potenziale beobachtet wurde. Unsere Ergebnisse legen nahe, dass weitere Untersuchungen zum Zusammenhang zwischen analytischem kognitivem Stil und fehlender Gewöhnung sowohl bei physiologischen als auch bei pathophysiologischen Bedingungen durchgeführt werden sollten.;-;-;-;https://link.springer.com/article/10.1007/s10072-014-1962-7 90965128a3c79da2d2682a39bfe3ac22;de;;;1.1.;;;Automatisierte neuropsychiatrische Messungen der Informationsverarbeitung bei Fibromyalgie Es wird angenommen, dass abnorme zentrale neurologische Funktionen zu den abnormen Empfindungen der Fibromyalgie (FM) beitragen. Die meisten Patienten mit FM klagen über eine verminderte kognitive Funktion. Diese Studie versuchte, die objektive kognitive Funktion zwischen FM und gesunden Kontrollpersonen zu Studienbeginn zu vergleichen und festzustellen, ob eine symptomatische Verbesserung mit einer objektiven kognitiven Verbesserung zusammenhängt. Automatisierte neuropsychologische Bewertungsmetriken (ANAM) wurden verwendet, um die neurokognitive Funktion zu quantifizieren. Die Leistung auf ANAM wurde zwischen Probanden mit FM, Muskel-Skelett-Schmerzen und schmerzfreien Kontrollen verglichen. Zehn verschiedene FM-Probanden absolvierten ein 8-wöchiges umfassendes Behandlungsprogramm. Es wurden Reihentests mit ANAM und dem Fibromyalgia Impact Questionnaire durchgeführt. Die statistische Analyse wurde unter Verwendung wiederholter Wilcoxon-Vorzeichen-Rangtests durchgeführt. Bei ANAM wurden keine Unterschiede zwischen Kontrollen und Probanden mit Schmerzstörungen festgestellt. Eine klinische Verbesserung (FIQ-Medianänderung 33,9,;-;-;-;https://link.springer.com/article/10.1007/s00296-007-0487-2 27adbed7f2a7d558f34c5660ff0764fd;de;;;1.1.;;;Ein Überblick über mikrofabrizierte Ionenfallen aus Silizium für die Quanteninformationsverarbeitung Die Quanteninformationsverarbeitung (QIP) ist zu einem heißen Forschungsthema geworden, wie S. Haroche und DJ Wineland, die 2012 den Nobelpreis für Physik erhielten, bewiesen haben QIP. Dieses Papier bietet eine kurze Einführung in Ionenfallenvorrichtungen und gibt einen Überblick über Ionenfallen, die mit konventioneller Präzisionsbearbeitung sowie MEMS-basierter Mikrofabrikation hergestellt wurden. Anschließend werden Mikrofabrikationsmethoden für Ionenfallen im Detail erläutert. Abschließend werden aktuelle Forschungsfragen zu mikrofabrizierten Ionenfallen vorgestellt. Das QIP stellt MEMS vor erhebliche neue Herausforderungen, da verschiedene QIP-Technologien für sichere verschlüsselte Kommunikation und komplexe Computeranwendungen entwickelt werden.;-;-;-;https://link.springer.com/article/10.1186/s40486-015-0013-3 a1fa79e0cf6c450c20611bd2b135f5e3;de;;;1.1.;;;Funktionelle Konnektivität und Informationsverarbeitung in den Basalganglien normaler und Parkinson-Affen Die Art der Informationsverarbeitung (z. B. parallele oder integrative Verarbeitung) in der Basalganglienschaltung wird durch den Grad der Systemkopplung bestimmt, nämlich durch die funktionalen Verbindungen (vollständig getrennt oder vollständig überlappend) zwischen den Eingangs- und Ausgangsstrukturen der Schaltung. Um den Grad der funktionellen Kopplung und mögliche Modelle der Informationsverarbeitung in den Basalganglien zu testen, untersuchten wir die Kreuzkorrelationshistogramme gleichzeitig aufgezeichneter Neuronen im Globus pallidus von Rhesus- und Grünmeerkatzen vor und nach MPTP-Behandlung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-0194-1_25 cf768c959413947fc380dca26913905b;de;;;1.1.;;;Eine niedrige Dosis von subkutanem Nikotin verbessert die Informationsverarbeitung bei Nichtrauchern Viele Studien haben ergeben, dass Zigarettenrauchen oder Nikotin die geistige Leistungsfähigkeit abstinenter Raucher verbessert. Eine ungeklärte Frage ist, ob diese Verbesserung primär auf eine direkte Leistungserleichterung oder auf eine Linderung der durch den Nikotinentzug verursachten Beeinträchtigung zurückzuführen ist. Wir bewerteten die Leistung von 12 Nichtrauchern vor und zweimal (15 und 45 min) nach einer subkutanen Injektion von 0,8 mg Nikotin, 0,8 ml Kochsalzlösung und einer Kontrolle ohne Behandlung in einer Auswahlreaktionszeit (RT). Jede Behandlung wurde an einem separaten Tag verabreicht, der Kontrolltag wurde an der ersten Sitzung verabreicht. Die Reihenfolge von Nikotin und Kochsalzlösung war zwischen den Probanden ausgewogen, und die Injektionen wurden doppelblind verabreicht. Die RT-Aufgabe manipulierte die Reiz- und Reaktionsverarbeitung. Diese Manipulationen bestanden aus zwei Stufen der Reizkomplexität und zwei Stufen der Reaktionskomplexität, was zu vier Aufgabenbedingungen führte. Diese Manipulationen zusammen mit Latenzmessungen des ereignisbezogenen Potenzials wurden verwendet, um die Komponenten der Verarbeitung zu identifizieren, die die Auswirkungen von Nikotin auf die Leistung vermittelten. Während jeder Sitzung mit aktivem Arzneimittel wurden der Nikotinspiegel im Blut, die kardiovaskulären und die subjektiven Reaktionen vor und nach jedem der drei Tests (vor der Einnahme, 15 Minuten und 45 Minuten nach der Einnahme) gemessen. Bei den informationsverarbeitenden Maßnahmen zeigten nur die Vergleiche des Pre- und 15-min-Post-Tests signifikante Arzneimittelwirkungen. Nikotin im Vergleich zu Kochsalzlösung erhöhte die Anzahl der Reaktionen am schnellen Ende der RT-Verteilung signifikant. Es gab jedoch keine Änderungen in der Genauigkeit. Nikotin beschleunigte auch die mittlere RT im Vergleich zu Kochsalzlösung oder dem Kontrolltag, aber die Effekte waren nur für den Vergleich von Kontrolle und Nikotin signifikant. Es gab eine Wechselwirkung zwischen den Wirkungen von Nikotin und den Aufgabenvariablen, so dass Nikotin die P3-Latenz unter den härtesten Aufgabenbedingungen beschleunigte, während sie sie unter den anderen Aufgabenbedingungen verlangsamte. Nikotin erhöhte die Herzfrequenz signifikant, was während der gesamten Sitzung anhielt. Die Nikotinspiegel im Blut waren niedriger als in einer vorläufigen Studie an Rauchern erwartet und könnten für die geringeren als erwarteten durchschnittlichen RT-Effekte verantwortlich sein. Diese Ergebnisse legen nahe, dass selbst eine geringe Nikotindosis direkt die Aufmerksamkeits- oder Reizverarbeitungskomponenten der Informationsverarbeitung beeinflusst. Diese Studie veranschaulicht auch, wie wichtig es ist, sowohl mehrere Komponenten der Informationsverarbeitung als auch den Nikotinspiegel zu bewerten, wenn die Auswirkungen von Nikotin auf die Wahrnehmung untersucht werden.;-;-;-;https://link.springer.com/article/10.1007/BF02244994 90b92b330733431b0b7820d320642b48;de;;;1.1.;;;Individuelle Unterschiede in Kontrollmotivation und sozialer Informationsverarbeitung Die persönliche Kontrolle gehört seit mehr als 20 Jahren zu den am weitesten verbreiteten Konzepten der Persönlichkeits- und Sozialpsychologen. Wie viel Kontrolle die Menschen über ein Ereignis zu haben glauben, kann eine Vielzahl positiver oder negativer Konsequenzen auslösen (vgl. Burger 1989, Lefcourt 1982, Thompson, Cheek & Graham, 1988). Persönliche Kontrolle ist ein zentrales Konzept in Theorie und Forschung zu erlernter Hilflosigkeit, Typ-A-Verhalten, intrinsischer Motivation und Kontrollort. Wie viel Kontrolle wir über eine Situation zu haben glauben, wurde verwendet, um Depression, Leistungsstreben, Glücksspiel, Menschendränge, Gesundheitsverhalten, Attributionsverarbeitung und Aggression zu erklären.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-8309-3_8 4e95066b202466ee0c68826a64e5c87b;de;;;1.1.;;;Vergleichende Bewertung der Genauigkeit und Robustheit verschiedener Informationsverarbeitungsalgorithmen aus verdreifachten Messkanälen Am Beispiel eines Dreikanalsystems zur Füllstandsmessung von Tanks von Trägerraketen führen wir eine vergleichende Bewertung der Genauigkeit und Robustheit verschiedener Algorithmen zur Verarbeitung von Messinformationen aus drei gleichartigen Messkanälen durch. Wir betrachten verschiedene Verarbeitungsalgorithmen von drei gleichgenauen Messungen: das Finden des arithmetischen Mittels von drei gleichgenauen Messungen und eine Mehrheitsauswahl von drei gleichgenauen Messungen. Für diese Algorithmen werden die Wahrscheinlichkeitsdichtefunktion der Messfehler und Vertrauensgrenzen des Messfehlers unter der Annahme gleichförmiger oder normaler Gesetze der Fehlerverteilung von drei gleich genauen Messungen gefunden. Ein verallgemeinerter Algorithmus zur Verarbeitung redundanter Informationen wird vorgeschlagen. Das Wesen des verallgemeinerten Algorithmus ist die Addition von drei gleich genauen Messungen unter Berücksichtigung individueller Gewichtungsfaktoren. Gewichtungskoeffizienten werden basierend auf den Werten von drei gleich genauen Messungen ausgewählt: Den Minimal- und Maximalwerten wird der gleiche Gewichtungskoeffizient zugewiesen und dem Median wird ein Koeffizient zugewiesen, der die Summe der drei Gewichtungsfaktoren auf eins normiert. Für einen verallgemeinerten Algorithmus mittels Simulationsmodellierung werden die Vertrauensgrenzen des Messfehlers in Abhängigkeit von den gewählten Gewichtungsfaktoren bestimmt. Die Robustheit der betrachteten Verarbeitungsalgorithmen wird für drei gleich genaue Messungen an drei baugleichen Messkanälen mit einer zufälligen Störung an einem der Kanäle bewertet. Es werden Empfehlungen zur Auswahl der Gewichte für drei gleiche Messungen gegeben. Für das betrachtete Kraftstofffüllstandsmesssystem ist es gerechtfertigt, einen Algorithmus zur Verarbeitung von Messinformationen zu verwenden, der auf einer Mehrheitsauswahl von drei gleich genauen Messungen basiert.;-;-;-;https://link.springer.com/article/10.1007/s11018-019-01691-1 db97600e93af44b052c9a4e77a93bb7b;de;;;1.1.;;;Zwei molekulare Informationsverarbeitungssysteme basierend auf katalytischen Nukleinsäuren Mischungen von Molekülen sind zu einer leistungsstarken Informationsverarbeitung fähig [1]. Diese Aussage ist in folgender Weise selbstverständlich: Es handelt sich um ein hierarchisch organisiertes komplexes Molekülgemisch, das es zu anderen ähnlich organisierten Molekülgemischen formuliert. Mit einer solchen Aussage befürworte ich nicht die extremen Formen des Reduktionismus, sondern mache einen meiner Meinung nach kleinen ersten Schritt, um die Informationsverarbeitungsfähigkeiten von Molekülen zu nutzen und hoffentlich einige Einschränkungen traditionellerer Computerparadigmen zu überwinden. Es gibt verschiedene Ideen, wie man die Fähigkeiten der molekularen Informationsverarbeitung verstehen und nutzen kann, und ich werde einige im Folgenden auflisten. Meine Liste ist bei weitem nicht erschöpfend und die Abgrenzungen sind alles andere als eindeutig. Soweit verfügbar, werde ich Beispiele aus unseren Forschungsbemühungen liefern. Für ein Informatikpublikum sollte ich betonen, dass ich Chemikerin bin. Daher kann mein Ansatz einen ganz anderen Fokus und eine andere mathematische Strenge haben, als wenn er von einem Informatiker gewählt würde.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-53868-4_6 c46cf30664064d903918a497f1bf31f3;de;;;1.1.;;;Optische Datenumschaltung in Informationsverarbeitungs- und Messsystemen Betrachtet wird das Funktionsschema eines Breitband-Datenrouters für verteilte Informationsverarbeitungs- und Messsysteme mit einer Vielzahl von Sensoren. Das vorgeschlagene Gerät gewährleistet ein geringes Übersprechrauschen mit minimaler Ausrüstung an einem „Eingang-Ausgang“.;-;-;-;https://link.springer.com/article/10.1007/s11018-005-0034-z fda4761981aa4ea8116c079e793cf5fa;de;;;1.1.;;;Verfolgung der ersten zwei Sekunden: drei Stufen der visuellen Informationsverarbeitung? Wir verglichen visuelle Priming- und Vergleichsaufgaben, um die Informationsverarbeitung eines Reizes während der ersten 2 s nach seinem Einsetzen zu beurteilen. Bei beiden Aufgaben folgte auf einen 13-ms-Prime bei unterschiedlichen SOAs eine 40-ms-Sonde. Bei der Priming-Aufgabe identifizierten Beobachter die Sonde so schnell und genau wie möglich, bei der Vergleichsaufgabe bestimmten Beobachter so schnell und genau wie möglich, ob Sonde und Prime identisch waren oder nicht. Priming-Effekte erreichten ein Maximum bei einer SOA von 133 ms und fielen dann monoton um 700 ms auf Null ab, was auf ein relativ kurzes visuosensorisches (ikonisches) Gedächtnis hinweist. Im Gegensatz dazu ergaben die Vergleichseffekte eine mehrphasige Funktion mit einem Maximum bei 0 ms gefolgt von einem Minimum bei 133 ms, gefolgt von einem Maximum bei 240 ms und einem weiteren Minimum bei 720 ms und schließlich ein drittes Maximum bei 1.200 ms vor danach rückläufig. Die Ergebnisse zeigen drei Stufen der Priming-Verarbeitung, die wir als ikonische sichtbare Persistenz, ikonische informationelle Persistenz und visuelles Arbeitsgedächtnis ansehen, wobei die ersten beiden in der Priming-Aufgabe und alle drei in der Vergleichsaufgabe verwendet werden. Diese Stadien stehen im Zusammenhang mit Stadien, von denen angenommen wird, dass sie der Reizverarbeitung bei anderen Aufgaben zugrunde liegen, wie z. B. denen, die zum Aufmerksamkeitsblinzeln führen.;-;-;-;https://link.springer.com/article/10.3758/s13423-013-0482-4 670bd1092d01e7784459b0941d3447b4;de;;;1.1.;;;Informationsverarbeitung und Strategie Eine Nachbildung von Neissers visuellem Scanning-Experiment wurde erfolgreich durchgeführt. Ein Versuch, die Schwierigkeit der Zielbuchstaben zueinander sowie zu den Hintergrundbuchstaben zu kontrollieren, war nur teilweise erfolgreich. Während der Nachbesprechung von Ss wurden mehrere Strategien zum Scannen verschiedener Bedingungen berichtet.;-;-;-;https://link.springer.com/article/10.3758/BF03335821 cfab473cc0e7412d5abdc56fbaa5c600;de;;;1.1.;;;Weiße Substanz korreliert mit einer verlangsamten Informationsverarbeitungsgeschwindigkeit bei nicht beeinträchtigten Multiple-Sklerose-Patienten mit Beginn in jungen Jahren Verlangsamte Informationsverarbeitungsgeschwindigkeit ist einer der frühesten Marker für kognitive Beeinträchtigungen bei Multipler Sklerose (MS) und wurde mit der strukturellen Integrität der weißen Substanz (WM) in Verbindung gebracht. Die Lokalisierung von MW-Trakten, die mit einer Verlangsamung, aber nicht signifikanten Beeinträchtigung, bei spezifischen kognitiven Aufgaben bei pädiatrischer und jungfräulicher MS verbunden sind, kann eine frühe und wirksame therapeutische Intervention erleichtern. Bei 25 MS-Patienten und 24 Kontrollen, die sich auch dem Symbol Digit Modalities Test (SDMT) und den computerbasierten Cogstate Simple and Choice Reaktionszeittests unterzogen, wurden Diffusionstensor-Bildgebungsdaten gesammelt. Fraktionale Anisotropie (FA), Mittelwert (MD), radiale (RD) und axiale (AD) Diffusivitäten wurden korreliert;-;-;-;https://link.springer.com/article/10.1007/s11682-020-00345-z 61e7e41c85e3b4e21cbef64d70c037e4;de;;;1.1.;;;Informationsverarbeitung während der körperlichen Betätigung: eine chronometrische und elektromyographische Studie Die Wahlreaktionszeit (RT) ist kürzer, wenn die Teilnehmer eine Wahlaufgabe gleichzeitig mit einer submaximalen Übung ausführen, als wenn sie in Ruhe sind. Der Zweck der vorliegenden Studie bestand darin, festzustellen, ob eine solche Übung die Reaktionsausführung beeinflusst oder ob sie Prozesse verändert, die der neuromuskulären Ebene vorgelagert sind. Zu diesem Zweck wurde die elektromyographische (EMG) Aktivität der Antwortagonisten in einer RT-Aufgabe zwischen den Händen analysiert, die entweder gleichzeitig mit einer Tretaufgabe oder in Ruhe durchgeführt wurde. Die visuelle Reizintensität wurde auch manipuliert, um zu bestimmen, ob Bewegung die frühen sensorischen Prozesse weiter beeinflusst. Die Ergebnisse zeigen, dass Bewegung das Zeitintervall beeinflusst, das vom Beginn der Kontraktion der Reaktionsagonisten bis zur mechanischen Reaktion vergeht, was darauf hindeutet, dass diese Variable die peripheren motorischen Prozesse modifiziert, die an der Reaktionsausführung beteiligt sind. EMG-Signalanalysen zeigten außerdem, dass die kortikospinale Steuerung während der Belastung effizienter ist als in Ruhe. Darüber hinaus wurde gezeigt, dass Bewegung mit der visuellen Reizintensität in der Zeit zwischen Reiz und willkürlichem EMG-Einsetzen interagiert und die kritische Flimmerfusionsfrequenzschwelle erhöht, was darauf hindeutet, dass Bewegung die peripheren sensorischen Prozesse verändert, die an frühen sensorischen Operationen beteiligt sind. Die Zerlegung der RT in Bezug auf die EMG-Aktivität von Reaktionsagonisten gibt Aufschluss über die durch Bewegung beeinflussten Prozesse und legt nahe, dass Bewegung sowohl sensorische Prozesse als auch spätmotorische Prozesse beeinflusst.;-;-;-;https://link.springer.com/article/10.1007/s00221-005-2331-9 8c3d9b48cb9ac92839fb8793114265bb;de;;;1.1.;;;Akute Wirkungen der Anxiolytika Suriclon und Alprazolam auf die kognitive Informationsverarbeitung durch topografische Kartierung ereignisbezogener Hirnpotentiale (P300) bei gesunden Probanden In einer doppelblinden, placebokontrollierten Cross-over-Studie wurden akute Wirkungen von Suriclon – einem Cyclopyrrolon-Derivat – mittels topographischer Kartierung ereignisbezogener Potenziale (ERPs) untersucht. 15 gesunde Freiwillige im Alter von 22–35 Jahren erhielten randomisierte, orale Einzeldosen von Placebo, 0,1 mg, 0,2 mg und 0,4 mg Suriclon und 1 mg Alprazolam als Referenzsubstanz. ERPs wurden in einem auditiven Oddball-Paradigma vor und 3 h nach der Einnahme jedes Medikaments untersucht. Neben 17 EEG-Ableitungen wurden vertikale und horizontale Elektrookulogramme (EOGs) aufgezeichnet. Nach EOG-Minimierung und Artefaktidentifikation wurden die Spitzenlatenzen des räumlichen Mittels durch ein automatisches Verfahren bestimmt. Im Vergleich zu Placebo wurden keine signifikanten Effekte der niedrigen und mittleren Dosierungen von Suriclon auf die N1-Amplitude beobachtet, die höchste Dosierung reduzierte die N1-Amplitude, ebenso wie 1 mg Alprazolam in noch stärkerem Maße. Während nach Suriclon keine konsistenten Auswirkungen auf die P2-Amplitude beobachtet wurden, reduzierte Alprazolam die P2-Amplitude. Die P300-Amplitude war nur nach der höchsten Suriclon-Dosierung, aber noch viel stärker nach Alprazolam reduziert. Die P300-Latenz wurde durch Suriclon nicht signifikant beeinflusst, jedoch wurde eine deutliche Verlängerung der P300-Latenz nach 1 mg Alprazolam beobachtet. Bezüglich der N1- und P2-Wirkungen kann Alprazolam, nicht jedoch Suriclon, einen hemmenden Einfluss auf die reizinduzierte kortikale Erregung haben. Bezüglich der P300-Wirkung waren die verwendeten Suriclon-Dosen 1 mg Alprazolam überlegen, das eine reduzierte kognitive Informationsverarbeitungskapazität und eine verlängerte Reizbewertungszeit zu haben schien. Das selbsteingeschätzte Wohlbefinden (Adjektiv-Checkliste) zeigte nach 0,1 mg und 0,2 mg leichte positive Effekte, aber deutliche sedierende Wirkungen sowohl nach 0,4 mg Suriclon als auch nach 1 mg Alprazolam.;-;-;-;https://link.springer.com/article/10.1007/BF00192378 2f14cfb8bc108301f72b2de8d30f6712;de;;;1.1.;;;Einige optische Informationsverarbeitungssysteme Optische Informationsverarbeitungssysteme sind in den letzten 20 Jahren auf zunehmendes Interesse gestoßen. Anwendungsmöglichkeiten liegen in allen Bereichen, in denen große Informationsmengen verarbeitet werden sollen. Am bekanntesten sind optische Filtertechniken, die mit sehr einfachen Mitteln z. B. in der Lage sind, ein Bild zu differenzieren, um Konturen und feine Strukturen hervorzuheben, bestimmte Ortsfrequenzen der Bildinformation zu unterdrücken, um periodische Strukturen zu unterdrücken oder hervorzuheben, eine Phasenverschiebung zwischen in erster und nullter Ordnung gebeugtem Licht, um kleine Phasenänderungen in ansonsten nicht wahrnehmbaren Mikroskoppräparaten sichtbar zu machen usw.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-1980-1_9 51952c467bba08711be462b306d39a26;de;;;1.1.;;;„Range“-Informationsverarbeitung auf den höchsten Ebenen des auditiven Systems Echolokalisierende Fledermäuse bestimmen die Zielentfernung, indem sie die Zeitverzögerung zwischen dem ausgesendeten Biosonarpuls und dem zurückkehrenden Echo messen. Wir haben zwei Arten von Neuronen in einem Teil der Hörrinde der Schnurrbartfledermaus gefunden:;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-7254-7_65 e89410284d8a29fcec332eee69877445;de;;;1.1.;;;Amodale Vervollständigung und Scheinfiguren: Eine informationsverarbeitende Analyse Eine Scheinfigur ist eine verdeckende Figur. In allen zwingenden Fällen erfolgt die Wahrnehmung der Illusion zusammen mit einer amodalen Vervollständigung der auslösenden Elemente. Ob dieser Zusammenhang kausal zu interpretieren ist, ist derzeit jedoch ungewiss. Der Zweck dieses Kapitels besteht darin, die Vervollständigung aus informationsverarbeitender Sicht zu betrachten. Ein besseres Verständnis des Vervollständigungsprozesses könnte helfen, seine Rolle bei der Wahrnehmung illusorischer Figuren zu klären und uns einen Einblick in die Produktion dieser Illusionen im visuellen System geben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-4760-9_24 191c46ddb8658d6a0323cfe517933a40;de;;;1.1.;;;Darmreaktivität auf Wörter mit emotionalem Inhalt und Informationsverarbeitung im Gehirn beim Reizdarmsyndrom Die intestinale Reaktivität auf emotionale Erfahrungen ist kaum bekannt. Wir verglichen daher gesunde Kontrollpersonen mit nicht-psychiatrischen Reizdarmsyndrom (RDS)-Patienten und RDS-Patienten mit komorbiden phobischen Angststörungen in Bezug auf die Reaktivität der Rektumwand während der Exposition gegenüber alltäglichen Worten mit emotionalem Inhalt. Wir fanden heraus, dass 70,3% der Probanden entweder mit einem erhöhten oder verringerten rektalen Tonus reagierten, wenn sie Wutwörtern ausgesetzt waren, 75,0% bei Traurigkeitswörtern und 76,6% bei Angstwörtern. Wir untersuchten auch ereignisbezogene Potenziale im Gehirn auf die gleichen Reize. Wir beobachteten signifikante Gruppenunterschiede im Frontalhirn bis hin zu Traurigkeit;-;-;-;https://link.springer.com/article/10.1023/A%3A1005502119461 d5f49e1af1b1e66226cdcc23b10456e9;de;;;1.1.;;;Mehrere Engpässe in der Informationsverarbeitung? Eine elektrophysiologische Untersuchung Wenn zwei Reize in schneller Folge verarbeitet werden sollen, wird die Reaktionszeit (RT) auf den zweiten Reiz verzögert. Die Verlangsamung der RT wurde einem einzelnen Verarbeitungsengpass bei der Antwortauswahl (RS) oder einem zentralen Engpass nach der Initiierung der ersten Reaktion zugeschrieben. Die Hypothese eines Engpasses bei der Reaktionsinitiierung basiert hauptsächlich auf Berichten über unteradditive Interaktionen zwischen der Stimulus-Onset-Asynchronie (SOA) und der Anzahl der Stimulus-Reaktions-Alternativen (einfache vs. Zwei-Auswahl-Antwort). Die vorliegende Studie testete die Hypothese eines Engpasses bei der Initiation der Reaktion, indem das lateralisierte Bereitschaftspotential (LRP), ein Gehirnstrom, der während oder unmittelbar nach RS auftritt, aufgezeichnet wurde. Die LRP-Ergebnisse stimmten mit einem zentralen Engpass überein, unterstützten jedoch nicht die Hypothese des späten Engpasses. Stattdessen lieferte das LRP direkte Beweise dafür, dass die unteradditive Interaktion von Anzahl der Alternativen und SOA auf eine Zunahme der Antworterwartungen in der einfachen Antwortbedingung zurückzuführen ist.;-;-;-;https://link.springer.com/article/10.3758/BF03196142 1b724721fba90720b47762dcef170419;de;;;1.1.;;;Volloptisches quaternäres Computing und Informationsverarbeitung: ein vielversprechender Weg Die Very Large Scale Integration (VLSI)-Technologie hat die Elektronikindustrie revolutioniert und das 20. Jahrhundert als Computerzeitalter begründet. Aber wir brauchen eine alternative technologische Lösung für das Problem des Hochgeschwindigkeitsrechnens, und wenn wir unsere Gedanken nicht auf einen völlig anderen Weg richten, werden wir unsere Informationsverarbeitungsleistung für die Zukunft nicht weiter verbessern können. Die Mehrwertlogik (MVL) ist als Technologie der nächsten Generation positioniert, die arithmetische Funktionen schneller und mit weniger Verbindungen als binäre Logik ausführen kann. Volloptisches quaternäres Rechnen, basierend auf einem Radix-4-Zahlensystem, kann das Computersystem der nächsten Generation sein. In diesem Artikel haben wir versucht, einen Überblick über quaternäre Logik-basierte Informationsverarbeitungsschemata zu geben, in denen zukünftige Forschungen erforscht werden können. Wir haben auch die wahrscheinliche programmierbare Logikvorrichtung in einem quaternären optischen Computer gezeigt.;-;-;-;https://link.springer.com/article/10.1007/s12596-013-0126-0 fbaddd4264fb435db26033800248a5e6;de;;;1.1.;;;Der Einfluss von Kultur und Sprache auf die organisatorische Informationsverarbeitung Das Wachstum des globalen Geschäfts hat viele Unternehmen dazu veranlasst, Kanalmitglieder in verschiedenen Ländern auf der ganzen Welt zu suchen. Der Aufbau einer funktionierenden Arbeitsbeziehung mit neuen Kanalmitgliedern ist ein schwieriger Prozess, selbst wenn die potenziellen Kanalmitglieder eine gemeinsame Sprache und Kultur haben. Beim Eingehen einer Kanalbeziehung mit einem neuen Kanalmitglied mit anderen Sprachen, sozialen Kulturen und Geschäftskulturen ist der Prozess noch schwieriger.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13084-2_31 a538120481596957665627b4e0f49b6b;de;;;1.1.;;;Informationsverarbeitung eines Bekanntenvergewaltigungsszenarios bei hoch- und niedrig-dissoziierenden College-Frauen Um den Einfluss der Dissoziation auf die Informationsverarbeitung zu beurteilen, wurden 66 College-Frauen mit hohem und niedrigem Grad an Merkmalsdissoziation daraufhin untersucht, wie sie Videosegmente eines Vergewaltigungsszenarios durch Bekannte (tatsächlicher Angriff nicht gezeigt) und eines nicht bedrohlichen Kontrollszenarios vereinten. Unitization ist ein Paradigma, das misst, wie aktiv Menschen Reize verarbeiten, indem sie aufzeichnen, wie oft sie einen Knopf drücken, um anzuzeigen, dass sie ein bedeutendes oder bedeutungsvolles Ereignis gesehen haben. Die Merkmalsdissoziation korrelierte negativ mit der Einheitsbildung der Teilnehmer des Vergewaltigungsvideobands, die Einheitsbildung war positiv mit der Identifizierung von Gefahrenhinweisen und die Zustandsdissoziation war negativ mit der Gefährlichkeitsbewertung korreliert.;-;-;-;https://link.springer.com/article/10.1023/A%3A1011168808683 8b9a416c80ad89ae8cbfa81df0fab251;de;;;1.1.;;;Kontinuierliche Informationsverarbeitung bei konzeptionellen Identifikationen Ziel dieser Untersuchung war die Analyse von Prozessen der konzeptionellen Objektidentifikation. Es wurden drei Experimente durchgeführt, die ein von Miller (1982) entwickeltes Reaktionsvorbereitungsparadigma verwendeten. Die Ergebnisse bestätigen die psychologische Validität einer früher von den Autoren vorgeschlagenen Unterscheidung zwischen sensorisch und kategorial repräsentierten Konzepten. Der Prozess der Identifikation von Objekten als Sinneskonzepten wurde genauer analysiert. Die experimentellen Ergebnisse legen nahe, dass es sich um einen sequentiellen Merkmalsvergleichsprozess handeln könnte, der durch kontinuierliche Informationsverarbeitung gekennzeichnet ist. Zu Beginn des Prozesses werden die figurativen Merkmale verarbeitet, die eine Identifizierung eines Objekts als einem allgemeineren Sinneskonzept ermöglichen. In nachfolgenden Verarbeitungsstufen wird diese erste Begriffsidentifikation durch eine zusätzliche Prüfung detaillierter figurativer Merkmale immer weiter spezifiziert. Noch wichtiger ist, dass die Ergebnisse zeigen, dass die Informationen über die allgemeine konzeptionelle Identität eines Objekts nicht nur früh im Identifizierungsprozess verfügbar sind, sondern auch für die Vorbereitung nachfolgender Prozesse oder Verarbeitungsstufen verwendet werden können, noch bevor das Objekt vollständig identifiziert ist. Mögliche Einflüsse der frühen Informationen auf die Steuerung der Begriffsidentifikation selbst und auf die Auswahl und Steuerung des motorischen Verhaltens werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF00309125 6bb73efba9a9dbfb300716a2dcb1eda5;de;;;1.1.;;;Netzhautlage und Stringposition als wichtige Variablen in der visuellen Informationsverarbeitung Drei Experimente wurden durchgeführt, um die Auswirkungen des Netzhautortes und der Schnurposition bei der tachistoskopischen Buchstabenerkennung zu isolieren. Der Netzhautort erwies sich als wichtige Variable, selbst wenn seine Reichweite auf weniger als ein Grad vom Zentrum der Fovea beschränkt war. Die Leistung war in der Mitte der Fovea maximal und fiel schnell auf etwa 1,5 Grad von der Mitte ab. Von dieser Distanz an war der Leistungsabfall ganz allmählich. Auch die Saitenlage war ein wichtiger Faktor. Retina-Locus und String-Position interagierten so, dass die Endpositionen weniger vom Retina-Locus beeinflusst wurden als die mittleren Positionen. Es wurde auch festgestellt, dass die Verarbeitungsreihenfolge im Unterschied zur Berichtsreihenfolge eine signifikante Komponente des Effekts der Stringposition war.;-;-;-;https://link.springer.com/article/10.3758/BF03198569 1f9db743ecd6b4a27fef18180922826c;de;;;1.1.;;;Unterstützung des Informationsmanagements von Kontrollaktivitäten in einer CIM-Shopfloor-Umgebung Eine CIM-Shopfloor-Umgebung kann durch eine Sammlung verschiedener Aktivitäten unterstützt werden, z. B. Design, Fertigung, Marketing usw. Jede Aktivität kann aus einer Reihe von Unteraktivitäten bestehen, wobei eine Unteraktivität von mehreren Agenten ausgeführt und repräsentiert werden kann. Die „Agenten“ werden hier als Komponenten beschrieben, die Aktivitäten durch die Ausführung ihrer spezifischen „Aufgaben“ ausführen. Bisher haben Hersteller für DCS (Distributed Control Systems) die Probleme des „Informationsmanagements“, des „Informationsaustauschs“ und der „Steuerung“ gelöst, indem sie alle Instrumente und Steuergeräte vom gleichen Lieferanten bezogen haben. In realen Anwendungen jedoch definieren die industriellen Prozesse sowohl innerhalb der CAC-Aktivität (zwischen ihren Unteraktivitäten) als auch in den Beziehungen zwischen der CAC-Aktivität und anderen CIM-Aktivitäten unterschiedlich formatierte Daten, beispielsweise die diskreten und kontinuierlichen Variablen, die zwischen mehrere herstellerübergreifende Kontrollgeräte. Daher sind die gemeinsame Nutzung und Verwaltung von Informationen und die Kontrollprobleme immer noch die schwierigen technologischen Probleme ohne eine integrale Lösung. Dieses Dokument konzentriert sich auf die Computer Aided Control (CAC)-Aktivität und beschreibt einige Agenten, die an der Prozesssteuerung beteiligt sind, und die Aufgaben, die sie ausführen. Darüber hinaus wird eine Architektur beschrieben, die die Anforderungen an das Informationsmanagement für die Zusammenarbeit von Agenten in einer CIM-Shopfloor-Umgebung unterstützt. Diese Informationsmanagementarchitektur wird dann auf die Definition von kooperierenden CAC-Agenten angewendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34910-7_24 0d7002b06e3e5c2de012ab869e68b71e;de;;;1.1.;;;Eine Wirkung von Triazolam auf die visuelle Aufmerksamkeit und die Informationsverarbeitung Diese Studie untersuchte, ob Benzodiazepine selektiv Aspekte der Aufmerksamkeit und/oder der visuellen Informationsverarbeitung beeinflussen, ebenso wie das Gedächtnis. Es wurde ein visuelles Suchparadigma verwendet, bei dem normale Freiwillige und eine Einzeldosis Triazolam verwendet wurden. Dieses Paradigma sah eine detaillierte Untersuchung von zwei Aspekten der visuellen Aufmerksamkeit und der Informationsverarbeitung vor: 1) kontrollierte versus automatische Aufmerksamkeitszuweisung (über zentrale und periphere Hinweise) und 2) das Ausmaß, in dem die Verarbeitung eines Elements an einem nicht hinweisgebenden Ort die Leistung beeinflusst affects (über Cue-Gültigkeit). Triazolam verlängerte im Vergleich zu Placebo signifikant die Ansprechzeit und der Arzneimittelzustand interagierte mit der Cue-Validität, aber nicht mit der Cue-Type. Basierend auf diesen Daten argumentieren wir, dass Triazolam;-;-;-;https://link.springer.com/article/10.1007/BF02245623 4a5e761b01c9f1d39b67d5cd756f8493;de;;;1.1.;;;Soliton-gesteuerte Quanteninformationsverarbeitung Wir beschreiben Anwendungen von Solitonen und Solitonenkollisionen zum Transport, Transfer und zur Strahlteilung von Qubits, die von optischen Photonen getragen werden. Transport und Übertragung realisieren die für die Quanteninformationsverarbeitung notwendigen „fliegenden Qubits“, und die Strahlteilung führt theoretisch zu einer Implementierung des Quantencomputings mit linearer Optik. Diese vorgeschlagenen Anwendungen sind in eine einheitliche optische Faser eingebettet und erfordern keine spezielle Geräteherstellung, keine Kühlung und kein Vakuum.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-33921-4_13 e3f6d4775a10fcc847f3c8ba28328f5e;de;;;1.1.;;;SPP diffraktive Linse als eines der grundlegenden Geräte für die plasmonische Informationsverarbeitung Es wird das Konzept der krummlinigen FZP-ähnlichen Linse in der Ebene SPP angeboten, die einen erheblichen Einfluss auf Wissenschaft und Technologie haben wird. Die Anpassung der binären phasenumkehrenden konischen Fresnel-Zonenplatte im freien Raum 3D für den Betrieb mit SPP-Wellen zeigt, dass Analoga von Fourier-Beugungskomponenten für in-plane SPP-3D-Optiken entwickelt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24253-8_5 828d53bfb1f95dd4342e76f0af93956e;de;;;1.1.;;;Informationsverarbeitung durch das Lateral Line System Dieser Review deckt vier Forschungsbereiche ab, die in den letzten 10 Jahren erfolgreich zu unserem Verständnis der Seitenlinienfunktion beigetragen haben. Auffallend am Seitenliniensystem ist seine enorme Vielfalt. Neuere Befunde weisen jedoch auf eine funktionelle Konstanz hin, die durch relativ subtile morphologische Merkmale aufrechterhalten werden kann. Es wurde gezeigt, dass andere morphologische Variationen die Empfindlichkeit bei bestimmten Frequenzbandbreiten erhöhen. Ein zweiter Forschungsbereich konzentrierte sich auf die hydrodynamische Bildgebung und die peripheren Muster der Rezeptorerregung, die Reizmerkmale wie Amplitude, Entfernung, Ort und Bewegungsrichtung kodieren könnten. Ein detailliertes Modell wird beschrieben und liefert mehrere Vorhersagen für die Arten von Informationen, die von der Peripherie an das zentrale Nervensystem (ZNS) weitergegeben werden. Das dritte behandelte Thema sind die Mechanismen, die die Signalerkennung in verrauschten Umgebungen verbessern. Es wird deutlich, dass Kanäle als biomechanische Filter wirken, um das Signal-Rausch-Verhältnis bei niederfrequenten Geräuschen wie gleichmäßigen Wasserbewegungen in der Umgebung zu verbessern. Es wurde gezeigt, dass zwei zentrale Mechanismen, die efferente Modulation der Rezeptoranregung und ein zentraler dynamischer Filtermechanismus, die Reafferenz aufgrund von selbsterzeugtem Rauschen reduzieren und die Signalerkennung im Allgemeinen verbessern können. Es wird postuliert, dass der zweite zentrale Mechanismus dem Anti-Hebbian-Lernmechanismus ähnelt, der innerhalb des verwandten elektrosensorischen Systems gut dokumentiert ist. Schließlich behandelt diese Übersicht die kürzlich dokumentierte Rolle des Seitenliniensystems bei natürlichen Verhaltensweisen, einschließlich Balz und Beutefang. Einige dieser neueren Studien haben zu der aufregenden Schlussfolgerung geführt, dass die Seitenlinie aus zwei unterschiedlichen Informationskanälen bestehen kann, von denen einer von einem Kanal und der andere von oberflächlichen Neuromasten bedient wird, und dass jeder für unterschiedliche Verhaltensaufgaben bestimmt ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-22628-6_7 55a3aa7a7c0073d94e9176af98fccfb2;de;;;1.1.;;;Einfluss von Koffein auf die Informationsverarbeitungsphasen bei ausgeruhten und erschöpften Probanden Die Auswirkungen von Koffein auf verschiedene Stufen der Informationsverarbeitung wurden anhand von Wahlreaktionszeitaufgaben untersucht. Unabhängige Variablen waren Stimulusabbau, Stimulus-Reaktions-Kompatibilität, Zeitunsicherheit, Zustand des Subjekts und Koffeinbehandlung. Es wurde angenommen, dass die Aufgabenvariablen die folgenden Verarbeitungsstufen, Kodierung, Antwortauswahl bzw. motorische Vorbereitung, beeinflussen. Eine Dosis von 200 mg zu Beginn des Experiments und eine Erhaltungsdosis von 50 mg Koffin oder Laktose zur Hälfte der Sitzung wurden gut ausgeruhten und erschöpften Probanden doppelblind und täuschend verabreicht. Verhaltensmessungen, ereignisbezogene Potenziale (ERPs) und Stimmungsfragebögen wurden verwendet, um die Koffeinwirkung zu beurteilen. Die Daten zeigten, dass Koffein die Reaktionszeit verkürzt. Dieser Effekt zeigte eine Wechselwirkung mit Reizabbau und Zeitunsicherheit. Darüber hinaus unterstützten die ERP-Ergebnisse die Ansicht, dass Koffein die kortikale Erregung und die Wahrnehmungsempfindlichkeit erhöht. Stimulierende Wirkungen von Koffein waren hauptsächlich an den Eingangs- und Ausgangsstufen des informationsverarbeitenden Systems lokalisiert. Zentrale Prozesse wurden durch Koffein nicht beeinflusst. Ermüdete Probanden zeigten nach Koffein größere Leistungssteigerungen als gut ausgeruhte Probanden. Die Ergebnisse zeigten auch, dass die Koffeinwirkung nicht bei allen Probanden stimulierend war: 6 von 30 Probanden zeigten keine erregende Wirkung von Koffein.;-;-;-;https://link.springer.com/article/10.1007/BF02245217 3246c08c367b95cca24598d65cdf7aa6;de;;;1.1.;;;(Actino)Bakterielle „Intelligenz“: Vergleichende Genomik nutzen, um die Informationsverarbeitungskapazitäten von Mikroben zu entschlüsseln Bakterielle Genome kodieren zahlreiche und oft ausgeklügelte Signalgeräte, um Veränderungen in ihrer Umgebung wahrzunehmen und geeignete adaptive Reaktionen zu starten. Mit ihrer Hilfe sind Mikroben in der Lage, bestimmte Entscheidungsprozesse zu orchestrieren, die das Zellverhalten verändern, aber auch Informationen integrieren und kommunizieren. Darüber hinaus und darüber hinaus ermöglichen einige Signalübertragungssysteme Bakterien auch, sich an frühere Reize zu erinnern und aus ihnen zu lernen, um Umweltveränderungen zu antizipieren. Wie kürzlich vorgeschlagen, weisen alle diese Aspekte darauf hin, dass Bakterien tatsächlich eine Kognition aufweisen, die bemerkenswert an das erinnert, was wir als intelligentes Verhalten bezeichnen, zumindest wenn sie sich auf höhere Eukaryoten beziehen. In diesem Essay werden umfassende Daten aus vergleichenden Genomanalysen von mikrobiellen Signalübertragungssystemen verwendet, um das Konzept der Kognition in Bakterienzellen zu untersuchen. Anhand einer kürzlich durchgeführten umfassenden Analyse von über 100 aktinobakteriellen Genomen als Testfall veranschaulichen wir die verschiedenen Schichten der Fähigkeiten von Bakterien, die zu kognitiver und Verhaltenskomplexität sowie einer Form von „bakterieller Intelligenz“ führen. Wir versuchen, das Bewusstsein dafür zu schärfen, Bakterien als kognitive Organismen zu betrachten, und glauben, dass diese Sichtweise einen neuen Weg in die experimentellen Studien bakterieller Signaltransduktionssysteme bereichern und eröffnen würde.;-;-;-;https://link.springer.com/article/10.1007/s00294-016-0569-3 59db3a082174bc6c5f8f8ae4f3df554f;de;;;1.1.;;;Informationsverarbeitung nach der Wahl durch Tauben Bei einer bedingten Diskriminierung (Matching-to-Sample) folgen auf eine Probe zwei Vergleichsreize, von denen je nach Probe einer richtig ist. Hinweise aus früheren Forschungen deuten darauf hin, dass die Erfassung durch Tauben erleichtert wird, wenn die Reizanzeige nach einer falschen Reaktion (das sogenannte Strafzeitverfahren) aufrechterhalten wird. Die vorliegende Untersuchung prüfte die Hypothese, dass das Strafzeitverfahren es den Tauben ermöglicht, nach einer falschen Wahl die aufrechterhaltene Reizanzeige zu überprüfen und daraus zu lernen. Dies geschah durch die Einbeziehung einer Strafzeitgruppe, bei der sich die Stichprobe nach einer falschen Auswahl änderte, um dem falschen Vergleich zu entsprechen, wodurch den Tauben nach der Wahl „Fehlinformationen“ zur Verfügung gestellt wurden Standard-Strafzeitgruppe (die nach einem Fehler keine Änderung in der Stichprobe aufwies). Darüber hinaus lag der Erwerb von Matching durch eine Kontrollgruppe, die keine Strafzeit erhielt, in der Mitte zwischen den anderen beiden Gruppen, was darauf hindeutet, dass die Tauben nicht nur aufgrund der Aversivität der Strafzeit vorsichtiger bei der Auswahl waren. Somit scheint es, dass die Tauben bei der Erfassung der Übereinstimmung mit der Probe, wenn die Stimulusanzeige nach einer falschen Auswahl beibehalten wird, Informationen von der Anzeige überprüfen oder erhalten können. Dies ist das erste Mal, dass ein solcher Effekt für eine nichtmenschliche Spezies berichtet wurde.;-;-;-;https://link.springer.com/article/10.1007/s10071-005-0254-2 de822d298a875c811e89af25acee64f8;de;;;1.1.;;;Lexikalischer Zugang aus der Sicht der Informationsverarbeitung: Lesen und Schreiben (Daten aus der Pathologie) In den letzten fünfzehn Jahren gab es eine Erneuerung der Ansätze, um zu erklären, wie wir vom Print zum Sinn bzw. vom Print zum mündlichen Output gelangen. Nach den Beobachtungen von Marshall und Newcombe (1973) wurde die Erforschung erworbener Lesestörungen tatsächlich zu einer theoretischen Frage. Tiefe Legasthenie und oberflächliche Legasthenie – beide ursprünglich als Muster von Lesefehlern beschrieben – haben bei der Beschreibung der Leseprozesse eine wichtige Rolle gespielt, da weitgehend Einigkeit darüber besteht, dass die Leistung neurologischer Patienten eher trennbare Subsysteme normaler Funktion aufzeigen kann, als dies zu dokumentieren Ersetzen eines Subsystems durch ein anderes (vgl. Shallice, 1979).;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-1041-6_17 24ac6b09542823140c0d00908cca2327;de;;;1.1.;;;Techniken und Anwendung der simultanen Informationsverarbeitung Im vorigen Kapitel wurde ein theoretischer Ansatz der interventionellen Neuropsychologie skizziert, der sich nicht auf die individuellen Symptome hirngeschädigter Patienten konzentriert, sondern auf die konkrete Qualität ihrer Persönlichkeit. Wir schlossen mit einer Aussage, die das Ziel der Behandlung darin definiert, den Patienten zu trainieren, seine Aufmerksamkeit in seinem Erfahrungsfeld zwischen Figur und Grund zu verteilen, so dass nicht nur die Figur, sondern in geringerem Maße auch der Grund verarbeitet und kodiert wird . Der Fokus dieses Kapitels liegt zunächst auf einigen allgemeinen und praktischen Überlegungen und Annahmen, aus denen die hier beschriebenen Behandlungs- bzw. Interventionsstrategien entwickelt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-4250-2_12 a72010ef5bf80b74d251faf7707f8d38;de;;;1.1.;;;Zuschreibungen und Informationsverarbeitung Die Attributionstheorie wurde in der Sozialpsychologie als „die vorherrschende theoretische Perspektive“ bezeichnet (Aron & Aron, 1986). Seit mehr als einem Vierteljahrzehnt ist die Untersuchung, wie Menschen die Ursachen ihres eigenen und fremden Verhaltens erklären, ein Eckpfeiler der sozialpsychologischen Forschung. Die Arbeit an Attributionen begann als Erweiterung der Forschung zur Personenwahrnehmung, aber die Anwendung einiger der Ergebnisse wurde bald für Psychologen in anderen Bereichen offensichtlich. Folglich hat sich das Verständnis der Zuschreibungen von Menschen für sich selbst und das Verhalten anderer als sehr nützlich erwiesen, um so unterschiedliche Themen wie Depression, Bildungserfolg und Beziehungen zu verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-9984-2_6 90e4ea51064f4bbc308bc72ec1087c06;de;;;1.1.;;;Differentialdiagnose von Hörstörungen – Klinische Befunde, die zur Informationsverarbeitung im Hörweg beitragen Die Fernfeldaufzeichnung von akustisch evozierten Potentialen (AEP) gewinnt für neurophysiologische, audiologische und neuerdings auch otoneurologische Ansätze zunehmend an Bedeutung. Sowohl die Elektrocochleographie (ECochG) als auch die Aufzeichnung früher AEPs (Hirnstammpotentiale, Latenz 2 – 10 ms) sind sehr zuverlässig und unabhängig von der Wachsamkeit der Probanden wichtig für die Diagnostik von cochleären und retrocochleären Hörstörungen bis in die Hirnstammregion. Späte AEPs (Latenz über 50 ms) sind nur unter Aufnahmebedingungen konstanter Wachsamkeit, vorzugsweise im Wachzustand, zuverlässig. Späte AEPs haben den Vorteil, dass sie zur Bestimmung von Hörschwellen für niedrigere Frequenzen verwendet werden können, während für frühe AEPs die untere Frequenzgrenze bei etwa 1 kHz liegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-3908-3_23 d7fee056c38361d54c4e74f30ac2f3cf;de;;;1.1.;;;Elektrodermale Aktivität als Indikator für die Informationsverarbeitung in einem nonaversiven differentiellen klassischen Konditionierungsparadigma Die meisten Untersuchungen zur Informationsverarbeitung in der autonomen Konditionierung nach Pavlov beim Menschen konzentrierten sich auf die Rolle des Bewusstseins der Kontingenz des konditionierten Reizes (CS) und des unbedingten Reizes (UCS). Während in diesen Studien nur die qualitative Information des CS variiert wurde (UCS tritt auf oder nicht auf), wurde das vorliegende Experiment entworfen, um die quantitative Information des CS zu variieren. In einem Differential-Konditionierungs-Paradigma, bei dem eine Buchstabenreproduktionsaufgabe als nicht-aversives UCS verwendet wurde, wurden elektrodermale Reaktionen auf verschiedene Grade von CS-Informationsinhalt untersucht. Zwanzig Probanden erlebten zwei unterschiedliche Bedingungen in einem internen Design. In einer Bedingung wurde nur die Anzahl der im folgenden UCS verwendeten Buchstaben als CS+ dargestellt, während in der anderen Bedingung die CS bereits die gesamten UCS-Informationen enthielt. Beide Bedingungen führten zu signifikanten Unterschieden im Ausmaß der elektrodermalen Reaktion.;-;-;-;https://link.springer.com/article/10.1007/BF02691219 baf6469915e2029fd0a9d0472eccb9d8;de;;;1.1.;;;Informationsverarbeitung bei älteren versus jüngeren Erwachsenen: Genauigkeit versus Geschwindigkeit Jüngere Erwachsene schneiden bei Gedächtnisaufgaben im Allgemeinen besser ab als ältere Erwachsene, wobei eine reduzierte Verarbeitungsgeschwindigkeit als vermittelnder Faktor vorgeschlagen wird. Die Verarbeitungsgeschwindigkeit wird jedoch oft mit Genauigkeit verwechselt. Um diese Verwirrung zu überwinden und altersbedingte Veränderungen der Informationsverarbeitungsgeschwindigkeit zu quantifizieren, wurde in der aktuellen Studie ein speziell entwickeltes Computerprogramm verwendet, das die Leistungsgenauigkeit konstant hielt, während die Verarbeitungsgeschwindigkeit gemessen wurde. An dieser Studie nahmen zwölf ältere (Durchschnittsalter = 77) und jüngere (Durchschnittsalter = 27) Probanden teil. Ältere Probanden verarbeiteten sowohl visuelle (Mittelwert = 3860) als auch akustische (Mittelwert = 3400) Informationen langsamer als jüngere Probanden (Mittelwert = 1680 bzw. Mittelwert = 2070). Modalitätsspezifische Unterschiede in der Verarbeitungsgeschwindigkeit waren nicht vorhanden. Wichtig ist, dass die mittleren Genauigkeitsniveaus der älteren Probanden denen der jüngeren Probanden ähnlich waren. Diese Ergebnisse legen nahe, dass die Verarbeitungsgeschwindigkeit eine entscheidende Determinante für Beeinträchtigungen des Arbeitsgedächtnisses bei älteren Menschen sein kann. Jedoch könnten individualisierte Raten der Informationspräsentation es älteren Probanden ermöglichen, genauso genau wie jüngere Probanden zu performen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1012911203468 1004ed088696b9676685c4d17a906225;de;;;1.1.;;;Ego-Involvement führt zu einer positiven Aktivierung des Selbstschemas und zu einem Positivitäts-Bias bei der Informationsverarbeitung Studie 1 untersuchte die Hypothese, dass Ego-Beteiligung zu einer positiven Aktivierung des Selbstschemas führt. Die Ego-Beteiligung wurde induziert, indem Versuchspersonen einen schwierigen Intelligenztest erwarteten. Unbeteiligte Kontrollpersonen erwarteten den Test nicht. Alle Probanden führten eine Tiefenbearbeitungsaufgabe durch, nach der die zufällige Erinnerung bewertet wurde. Ego-involvierte im Vergleich zu nicht-involvierten Probanden neigten dazu, sich sowohl auf der selbstreferenten als auch auf der semantischen Verarbeitungsebene an eine größere Anzahl positiver und weniger negative Wörter zu erinnern. Studie 2 wurde durchgeführt, um die Selbstschema-Hypothese weiter zu adressieren und die durch die Ergebnisse von Studie 1 nahegelegte Hypothese zu adressieren, dass die Ego-Beteiligung zu einer Positivitätsverzerrung bei der Informationsverarbeitung führt. Das Design von Studie 2 war dem von Studie 1 ähnlich. Die Ergebnisse zeigten, dass die Selbstbegünstigung negativer Wörter, die auf der selbstreferenten Ebene erinnert wurden, bei Ego-bezogenen Probanden größer war als bei nicht-involvierten Probanden, was auf eine positive Selbstschemaaktivierung schließen lässt. Darüber hinaus erinnerten sich Ego-involvierte Probanden an eine größere Anzahl positiver Wörter auf semantischer Ebene, was auf eine positive Tendenz bei der Informationsverarbeitung hindeutet.;-;-;-;https://link.springer.com/article/10.1007/BF00995533 28a7b6b1795ed9a254b9c715acf22b36;de;;;1.1.;;;Visuelle Informationsverarbeitung von sequentiell präsentierten Eingaben: I. Auswirkungen des Eingabetimings auf die Speicher- und Abrufmechanismen von Teilbereichen“ Ein computergestütztes Kathodenstrahlröhren-Anzeigesystem wurde verwendet, um den Effekt der Länge der Unterspannenliste zu untersuchen, dh zwei, drei oder vier Fünf-Buchstaben-Wörter und mehrere Interstimulus-Intervall (ISI)-Werte, dh 100, 150, 200 , 250, 300, 500 und 700 ms auf die visuelle Informationsverarbeitung. Komplizierte Interaktionen wurden zwischen Listenlänge und IS1-Werten gefunden. Zwei Klassen von Ss wurden identifiziert und als „langsame“ und „schnelle“ Prozessoren bezeichnet und die Gesamtergebnisse wurden mit einem vorläufigen Modell der visuellen Informationsverarbeitung mit sequentiellen Eingaben in Verbindung gebracht.;-;-;-;https://link.springer.com/article/10.3758/BF03209567 1e22c8410cc7186c6744e6241e363903;de;;;1.1.;;;Beziehung in elektronischen Verhandlungen: Verfolgung des Verhaltens im Laufe der Zeit Praktizierende sind häufig mit Situationen konfrontiert, in denen sie einen Konflikt über elektronische Kommunikationsmedien wie E-Mail lösen müssen. Um zu verstehen, wie Konflikte in computervermittelten Kommunikationsumgebungen bewältigt werden können, haben wir ein Laborexperiment durchgeführt, in dem die Interaktion zwischen Verhandlungspartnern bei ihrem Versuch, einen bestimmten Konflikt zu lösen, analysiert wurde. Wir haben Inhalte und Analysen auf die Verhandlungstranskripte angewendet und verschiedene Phasen mit unterschiedlichen Schwerpunkten der Verhandlungsführer identifiziert. Die erste Phase, die Differenzierungsphase, ist geprägt von offenen Konflikten und Auseinandersetzungen der Gegenüber, während die anschließende Integrationsphase darauf abzielt, ein positives Klima zu schaffen und mögliche Problemlösungen zu diskutieren. Zwischen den beiden Phasen findet eine Verhaltensverschiebung statt, d. h. von der Informationsbereitstellung in der Differenzierungsphase hin zum Einsatz von Taktik und dem Austausch von Angeboten in der Integrationsphase. Ein besonderer Schwerpunkt wird auf die Wirkung der vorherigen Verhandlungspartnerschaft gelegt. Verhandler, die sich persönlich kennen, bewältigen Konflikte mit hoher Intensität besser und erzielen mehr Vereinbarungen. Wir kommen zu dem Schluss, dass Praktiker Konflikte besser bewältigen können, wenn sie sich der verschiedenen Phasen in Verhandlungsprozessen bewusst sind. Darüber hinaus empfehlen wir, Kick-off-Meetings für elektronische Verhandlungen anzubieten, um die zwischenmenschlichen Beziehungen zwischen den Verhandlungspartnern zu stärken.;-;-;-;https://link.springer.com/article/10.1007/s11573-007-0327-6 35737600225ff70882138c827e394932;de;;;1.1.;;;Chaos und Informationsverarbeitung: Multifraktale Attraktoren, die Wahrnehmung und Kognition vermitteln Die Informationstheorie quantifiziert und optimiert (in Bezug auf gegebene Randbedingungen) die Effizienz des Entwerfens, Durchführens und Interpretierens (der Ergebnisse) einzelner oder mehrerer Messungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-2305-9_12 94f90c80169f2859a34d1302bacd9b27;de;;;1.1.;;;Rauschen in der kohärenten optischen Informationsverarbeitung Das am Ausgang eines Informationsverarbeitungssystems auftretende Rauschen stellt eine wichtige Grenze für die Genauigkeit dar, mit der die gewünschten Verarbeitungsvorgänge durchgeführt werden können. Der detaillierte statistische Charakter des Rauschens sowie sein Schweregrad hängen von vielen Faktoren ab, darunter: (1) der Qualität der zu verarbeitenden Eingangsdaten, (2) dem Charakter der durchzuführenden mathematischen Datenverarbeitungsvorgänge , (3) die physikalische Ausgestaltung des Datenverarbeitungssystems (zB elektronisch, optisch, digital, analog usw.) und (4) den Genauigkeitsgrad, mit dem die idealen Verarbeitungsvorgänge physikalisch realisiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-7542-9_5 87a5a96e1fb757d7e3c1bb25ce9247b9;de;;;1.1.;;;Aspekte der Informationsverarbeitung: Informationsfluss in synergetischen Computern Synergetische Computer sind eine neue Klasse hochparalleler Computer, die auf den Grundprinzipien der Synergetik aufgebaut sind und die Analogie zwischen Mustererkennung und Musterbildung nutzen. Wir zeigen, dass der Informationsfluss in solchen Computern explizit bestimmt werden kann. Auf diese Weise kann die in solchen Parallelrechnern benötigte Kanalkapazität bestimmt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-2305-9_15 1a329337c180d41769e3c839e159f4a2;de;;;1.1.;;;Von der Gleichgewichtsregulation zur Körperorientierung: Zwei Ziele für die muskelpropriozeptive Informationsverarbeitung? Diese Studie basierte auf der Annahme, dass die zentrale Verarbeitung propriozeptiver Inputs, die von zahlreichen Muskeln ausgehen, sowohl zur Wahrnehmung als auch zur Kontrolle der Körperhaltung beiträgt. Die Muskel-Spindel-Inputs bilden eine „propriozeptive Kette“, die die Augenmuskulatur funktionell mit der Fußmuskulatur verbindet. Hier konzentrierten wir uns auf den spezifischen Beitrag zweier Verbindungen zur Kontrolle der menschlichen aufrechten Haltung, indem wir untersuchten, wie propriozeptive Botschaften, die von Knöchel- und Nackenmuskeln stammen, durch das zentrale Nervensystem integriert werden können. Einzelne oder kombinierte mechanische Vibrationen wurden auf verschiedene Muskelsehnen entweder auf einer (Knöchel oder Nacken) oder auf beiden (Knöchel plus Nacken) Körperebene angewendet. Die Amplitude und die spezifische Richtung der resultierenden orientierten Körperneigungen wurden analysiert, indem der Center of Foot Pressure (CoP) durch eine Kraftplattform mit vier Dehnungsmessstreifen aufgezeichnet wurde. Die Ergebnisse lassen sich wie folgt zusammenfassen: (1) die vibrationsinduzierten Ganzkörperneigungen orientierten sich an den stimulierten Muskeln, außerdem waren die Neigungen gegenläufig, wenn Nacken- oder Knöchelmuskeln auf derselben Körperseite stimuliert wurden (2) mit Ausnahme der Knöchel-Antagonisten führte das gleichzeitige Schwingen benachbarter oder antagonistischer Muskeln auf derselben Körperebene (Knöchel oder Nacken) zu Körperschwingungen, deren Ausrichtung eine Kombination aus denjenigen war, die durch separate Stimulation dieser Muskeln erhalten wurden, und (3) ebenso induzierten gleichzeitig vibrierende Knöchel- und Nackenmuskeln Haltungsreaktionen des ganzen Körpers, deren Richtung und Amplitude eine Kombination aus denen waren, die durch separate Vibrationen erhalten wurden. Wir schließen daraus, dass die multiplen propriozeptiven Inputs, die entweder von einer oder beiden Körperebenen stammen, im Sinne von Vektoradditionsgesetzen gemeinsam verarbeitet werden können. Darüber hinaus schlagen wir vor, dass propriozeptive Informationen der Knöchel- und Nackenmuskulatur für zwei Aufgaben verwendet werden können: Gleichgewichtskontrolle und Körperorientierung, mit zentraler Integration beider Aufgaben.;-;-;-;https://link.springer.com/article/10.1007/s002210050602 e0f92fab23ea7ca014965e645aa52ce8;de;;;1.1.;;;Eine 12-jährige prospektive Studie zu Mustern von Problemen bei der Verarbeitung sozialer Informationen und externalisierendem Verhalten Diese Studie untersuchte, wie sich diskrete Schritte der sozialen Informationsverarbeitung (SIP) miteinander verbinden können, um verschiedene Gruppen von Jugendlichen zu bilden, die durch bestimmte SIP-Muster gekennzeichnet sind. SIP-Assessments wurden an einer Gemeinschaftsstichprobe von 576 Kindern im Kindergarten durchgeführt, mit Follow-up-Assessments in den Klassen 3, 8 und 11. In jedem Alter wurden vier Profile erstellt, die Jugendliche ohne SIP-Probleme mit SIP-Problemen im Frühstadium repräsentieren ( codieren oder feindselige Zuschreibungen vornehmen), mit SIP-Problemen in späteren Schritten (Auswahl instrumenteller Ziele, Generierung aggressiver Reaktionen oder positive Bewertung von Aggression) und mit allgegenwärtigen SIP-Problemen. Obwohl Muster von SIP-Problemen mit gleichzeitigem Externalisieren während der Grundschule in Zusammenhang standen, war die Konsistenz zwischen Kognition und zukünftigem Externalisierungsverhalten in der Grundschule nicht so stark wie zwischen den Klassenstufen 8 und 11. In einigen Fällen zeichneten sich Jugendliche durch das gleichzeitige Auftreten von Probleme in frühen und späteren SIP-Schritten hatten höhere Externalisierungswerte als Jugendliche, die nur in dem einen oder anderen durch Probleme gekennzeichnet waren.;-;-;-;https://link.springer.com/article/10.1007/s10802-006-9057-4 38dec2177dfffdf8661049a7c73cc7bb;de;;;1.1.;;;Audiovisuelles Speech Gating: Untersuchung von Informationen und Informationsverarbeitung Wir untersuchten die Wahrnehmungsverarbeitung von Gesichtsinformationen und Sprachinformationen, um die Natur des multisensorischen Integrationsprozesses zu testen. Einsilbige Wörter wurden im Hintergrundrauschen bei einer von acht Stimulusdauern im Bereich von 45 bis 80 % der Gesamtwortdauer präsentiert. Die Leistung wurde relativ zu einem Fuzzy-Logical-Wahrnehmungsmodell (FLMP) und einem additiven Modell (ADD) bewertet. Diese beiden Modelle unterscheiden sich in der Art des Integrationsprozesses: optimale multiplikative Integration im FLMP und additiv im ADD. Das FLMP lieferte eine deutlich bessere Beschreibung der Wortidentifikationen im Vergleich zum ADD. In Übereinstimmung mit den Ergebnissen mehrerer anderer Aufgaben in der audiovisuellen Sprachwahrnehmung beschreibt der FLMP auch genau die kontinuierliche Aufnahme von Informationen während der Wortwahrnehmung.;-;-;-;https://link.springer.com/article/10.1007/s10339-004-0014-2 47eaaa60bb7d9fb3a2e19385c8abdca3;de;;;1.1.;;;Intoleranz gegenüber Unsicherheit und Informationsverarbeitung: Hinweise auf verzerrte Rückrufe und Interpretationen Die Forschung legt nahe, dass Intoleranz gegenüber Unsicherheit ein kognitiver Prozess ist, der an übermäßiger Sorge und generalisierter Angststörung (GAD) beteiligt ist. Obwohl frühere Studien darauf hindeuten, dass Unsicherheitsintoleranz und übermäßige Sorge eng miteinander verbunden sind, muss die Frage, wie Unsicherheitsintoleranz zu Sorgen führen kann, empirisch untersucht werden. In diesem Beitrag werden zwei Studien vorgestellt, die die Intoleranz gegenüber Unsicherheit und Informationsverarbeitung untersuchen. Studie 1 verwendete eine zufällige Lernaufgabe, um den Zusammenhang zwischen Intoleranz gegenüber Unsicherheit und der Erinnerung an Reize, die Unsicherheit bezeichnen, zu untersuchen. Die Ergebnisse zeigten, dass sich Teilnehmer mit hoher Unsicherheitsintoleranz im Vergleich zu denen mit geringer Unsicherheitsintoleranz an einen höheren Anteil an Wörtern erinnerten, die Unsicherheit bezeichnen. Studie 2 untersuchte, ob Unsicherheitsintoleranz mit bedrohlichen Interpretationen mehrdeutiger Informationen verbunden wäre. Die Ergebnisse zeigten, dass Teilnehmer mit einer hohen Unsicherheitsintoleranz mehr Besorgnis über mehrdeutige Situationen angaben als Teilnehmer mit einer geringen Unsicherheitsintoleranz. Darüber hinaus war die Tendenz zu bedrohlichen Interpretationen von mehrdeutigen Situationen stärker mit Unsicherheitsintoleranz als mit Sorge, Angst oder Depression verbunden. Zusammengenommen deuten diese Ergebnisse darauf hin, dass eine Intoleranz gegenüber Unsicherheit mit Verzerrungen der Informationsverarbeitung verbunden ist, die an der Ätiologie übermäßiger Sorge und GAD beteiligt sein können.;-;-;-;https://link.springer.com/article/10.1007/s10608-005-1648-9 78a3fb2abde1277e520369bcd1e7c5e7;de;;;1.1.;;;Interpretieren von sexuellen Dating-Begegnungen: Unterschiede bei der Verarbeitung sozialer Informationen bei Männern und Frauen Untersuchungen haben gezeigt, dass College-Frauen einem erheblichen Risiko für sexuelle Übergriffe durch Dating-Partner ausgesetzt sind, und Studien haben gezeigt, dass die frühzeitige Erkennung von Gefahrenhinweisen ein wichtiger Faktor bei der Vermeidung von Vergewaltigungen ist. Diese Studie untersuchte, wie Männer und Frauen sexuelle Begegnungen in einer Vergewaltigungssituation verarbeiten und wie sie sich in der Interpretation von Hinweisen und der Entscheidungsfindung anhand des Modells der sozialen Informationsverarbeitung (SIP) von Crick und Dodge (1994) unterscheiden. Die Teilnehmer hörten eine Audio-Vignette, die eine Frau zeigt, die sich gegen sexuellen Kontakt widersetzt, während der Mann weiterhin sexuelle Annäherungsversuche macht. Die Vignette wurde an einem Punkt angehalten, an dem Unklarheiten bezüglich der sexuellen Absichten der Akteure und Multiple-Choice-/Forced-Antwort-Fragen bestehen, die fünf Stufen der sozialen Informationsverarbeitung widerspiegeln (kausale und Absichtsinterpretation, Zielklärung, Antwortentscheidung, Antwortwirksamkeit und Reaktionsauswertung) verabreicht. Die Analysen zeigten, dass sich Männer und Frauen in allen SIP-Stadien signifikant unterschieden und die emotionale Reaktion ein signifikanter Prädiktor für die Reaktionsentscheidung war. Implikationen der Ergebnisse wurden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s10896-015-9757-z 3a16a09a66f5cf07b58768faab5b05a9;de;;;1.1.;;;Dynamik der funktionellen Konnektivität in mehrschichtigen kortikalen Hirnnetzwerken während der sensorischen Informationsverarbeitung Die Topologie eines funktionellen mehrschichtigen Netzwerks des Gehirns wird dynamisch angepasst, um eine optimale Leistung bei der Ausführung kognitiver Aufgaben, einschließlich der sensorischen Informationsverarbeitung, bereitzustellen. Funktionelle Konnektivität zwischen Hirnregionen wird durch Korrelation oder Synchronisationsinferenz in aufgezeichneten Signalen neuronaler Aktivität erreicht. Der vielversprechende Ansatz zur Untersuchung der kortikalen Netzwerkstruktur beinhaltet die Berücksichtigung funktionaler Wechselwirkungen in verschiedenen Frequenzbändern auf den verschiedenen Schichten des mehrschichtigen Netzwerkmodells. Verbindungen zwischen diesen Schichten können basierend auf Kreuzfrequenzkopplungen wiederhergestellt werden. Während die Topologie der funktionellen Konnektivität innerhalb jeder Schicht aus registrierten neurophysiologischen Signalen effektiv wiederhergestellt werden kann, sind die Mechanismen, die der Kopplung zwischen verschiedenen Schichten zugrunde liegen, noch wenig verstanden. Hier betrachten wir die Evolution der kortikalen Netzwerktopologie in Alpha- und Beta-Frequenzbändern während der visuellen Reizverarbeitung. Für jedes Frequenzband wird die funktionelle Konnektivität zwischen verschiedenen Hirnregionen durch Vergleich der Fourier-Spektren von EEG-Signalen geschätzt. Die erhaltenen funktionalen Topologien werden als Schichten eines Zweischichtnetzwerks betrachtet. Im Rahmen eines mehrschichtigen Modells analysieren wir die Evolution der funktionellen Netzwerktopologie auf beiden Schichten und zeigen Merkmale der Intraschicht-Interaktion, die der visuellen Informationsverarbeitung im Gehirn zugrunde liegt.;-;-;-;https://link.springer.com/article/10.1140/epjst/e2019-900077-7 92629bf96057e9572e0049ca3e8a08ba;de;;;1.1.;;;Zustands- und Merkmalswut, Angst und Verarbeitung sozialer Informationen Emotionen umfassen eine Konfiguration von Gesichtsmuskeln, eine Erregung physiologischer Funktionen und eine Förderung besonderer Aufmerksamkeits- und Informationsverarbeitungsmuster (Izard, 1991). Dieses Kapitel konzentriert sich darauf, wie Wut die Aufmerksamkeit und die Informationsverarbeitung beeinflusst. Wir werden sehen, dass die zuverlässigsten Auswirkungen des Einflusses von Wut auf die Aufmerksamkeit und die Informationsverarbeitung bei wütenden, feindseligen oder aggressiven Personen auftreten, die sich in einem wütenden Zustand befinden. Diese Eigenschaft-Zustands-Interaktion tritt wahrscheinlich auf, weil die Wut-Erregung in gewisser Weise die Verarbeitung von Informationen einschränkt, was dazu führt, dass bestimmte Personen die Verarbeitungserfahrungen aus früheren Erfahrungen von Wut und Bedrohung nutzen. Wir diskutieren, wie und warum verschiedene Personen unterschiedliche Verarbeitungstendenzen haben können, insbesondere im Zusammenhang mit der Erkennung von Wut und Bedrohung. Anschließend untersuchen wir, wie und warum andere Personen als Ergebnis ihrer Erfahrungen mit Wut und Bedrohung unterschiedliche Verarbeitungsschemata in Bezug auf Wut und Bedrohung entwickeln könnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-89676-2_18 aba386f62fb76d5994352abec9e9a64c;de;;;1.1.;;;Akusto-optoelektronische Prozessoren für Kommunikations- und Informationsverarbeitungssysteme Die Probleme der Verwendung von Funktionselektronik in Funkkommunikations- und Funksignalverarbeitungssystemen werden betrachtet. Unter dem Gesichtspunkt des Durchsatzes und der Effizienz der Nutzung von Frequenzressourcen werden verschiedene Verfahren des Funkzugriffs verglichen. Die Aussichten für die Anwendung von Systemen mit Codeteilung von Kanälen unter Verwendung von angepassten Filtern auf akustische Oberflächenwellen werden gezeigt. Die Ergebnisse der Forschung und Entwicklung verschiedener akusto-optischer Geräte, darunter Funksignal-Spektrumanalysatoren, Peiler – Frequenzmesser und Demodulatoren von phasenverschobenen Signalen werden vorgestellt.;-;-;-;https://link.springer.com/article/10.1023/A%3A1015040031114 6c4cc3bb5ca6364f2fe07548bb48bc6e;de;;;1.1.;;;Normalisierungsverfahren für Relaxationsstudien in der NMR-Quanteninformationsverarbeitung NMR-Studien zur Quanteninformationsverarbeitung beruhen auf der Rekonstruktion der Dichtematrix, die die sogenannten pseudoreinen Zustände (PPS) repräsentiert. Ein anfangs reiner Teil eines PPS-Zustands durchläuft während eines Rechenprozesses unitäre und nicht-unitäre (Relaxations-)Transformationen, was einen „Reinheitsverlust“ bis zum Erreichen des Gleichgewichts verursacht. Außerdem ändert sich bei der Relaxation die Kernpolarisation mit der Zeit, eine Tatsache, die beim Vergleich von Dichtematrizen zu verschiedenen Zeitpunkten berücksichtigt werden muss. Der Versuch, zeitfixierte Normalisierungsverfahren zu verwenden, wenn Relaxation vorhanden ist, führt zu verschiedenen Anomalien bei Matrizenpopulationen. In diesem Beitrag schlagen wir eine Methode vor, die die Zeitabhängigkeit des Normierungsfaktors berücksichtigt. Aus einer generischen Form für die Abweichungsdichtematrix wird ein Ausdruck für den relaxierenden reinen Anfangszustand abgeleitet. Das Verfahren wird beispielhaft mit einem Experiment der Entspannung des Zusammentreffens eines pseudo-verschränkten Zustands, der das Phänomen des plötzlichen Todes zeigt, und der Entspannung der Wigner-Funktion eines Pseudo-Katzen-Zustands veranschaulicht.;-;-;-;https://link.springer.com/article/10.1007/s11128-009-0158-1 3db0d9ce120f722ab1286a00511728cc;de;;;1.1.;;;Situiertes Scripting und unternehmerische Expertise: Eine sozial situierte Sicht der Informationsverarbeitungsperspektive In den letzten Jahren hat sich im Bereich der unternehmerischen Kognitionsforschung ein neues Narrativ herausgebildet, das Erklärungen weg von Boxologien – scheinbar statischen Darstellungen abstrakter, körperloser kognitiver Strukturen – hin zu einer dynamischeren Sicht der unternehmerischen Kognition verlagert hat. In diesem Kapitel greifen wir unter Verwendung der sozial situierten Kognitionstheorie unser ursprüngliches Kapitel über unternehmerische Skripte und unternehmerische Expertise erneut auf, um unternehmerische Skripte innerhalb dieser neuen (dynamischeren) Erzählung besser zu platzieren. Wir schlagen eine Erklärung vor, die sowohl die statische als auch die dynamische Sichtweise unternehmerischer Skripte vereint.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-45544-0_12 71c7aaee31090093631c3a9970448ee8;de;;;1.1.;;;Neue Perspektiven in der Informationsverarbeitung des Gehirns Die Aktivität der Hirnrinde, wie sie von Kopfhaut- oder kortikalen Elektroden im Frequenzbereich der Elektroenzephalographie (EEG) unterschiedlich aufgezeichnet wird, spiegelt wahrscheinlich die grundlegende Strategie der Informationsverarbeitung des Gehirns wider. Zur Interpretation dieses Phänomens wurden verschiedene Hypothesen aufgestellt, von denen die populärste ist, dass sich geeignete Kombinationen von erregenden und hemmenden Neuronen als Anordnungen von Oszillatoren verhalten, die für Synchronisation und Desynchronisation anfällig sind. Implizit in dieser Ansicht ist die Annahme, dass EEG-Potentiale Epiphänomene von Aktionspotentialen sind, was mit dem Argument übereinstimmt, dass Spannungsschwankungen in dendritischen Membranen die postsynaptischen Effekte von zielgerichteten Neuronen reproduzieren. Dieses klassische Argument passt jedoch nicht wirklich zu der Entdeckung, dass die Feuersynchronisation über ausgedehnte Hirnareale oft in etwa 1 ms hergestellt zu sein scheint, was ein kleiner Bruchteil jeder EEG-Frequenzkomponentenperiode ist. Dies steht im Gegensatz zu der Tatsache, dass alle Rechenmodelle dynamischer Systeme, die von mehr oder weniger schwach wechselwirkenden Oszillatoren naher Frequenzen gebildet werden, mehr als eine Periode benötigen, um eine Synchronisation zu erreichen. Die Entdeckung, dass die somatodendritischen Membranen spezialisierter Neuronenpopulationen intrinsische Subthreshold-Oszillationen (ISOs) im EEG-Frequenzbereich aufweisen, zusammen mit experimentellen Beweisen, dass kurze hemmende Reize in der Lage sind, ISO-Phasen zurückzusetzen, ändert das oben beschriebene Schema radikal und ebnet den Weg zu eine neuartige Ansicht. Ziel dieses Papiers ist es, die Natur der ISO-Generierungsmechanismen aufzuklären, die Gründe für ihre Zuverlässigkeit beim Starten und Stoppen synchronisierter Zündung zu erklären und ihr Potenzial bei der Informationsverarbeitung des Gehirns aufzuzeigen. Es wird auch auf die Notwendigkeit eines Repertoires an extraneuronalen Regulationsmechanismen geschlossen, die mutmaßlich durch Astrozyten vermittelt werden. Schließlich wird kurz auf die Bedeutung von ISOs für das Gehirn als parallelrekursive Maschine eingegangen.;-;-;-;https://link.springer.com/article/10.1007/s10867-009-9163-y 6d2a96a503b53986aabd05a3465620f7;de;;;1.3.;;;Auswirkungen von Trägerfrequenz-Offset und Kanalschätzungsfehlern auf die Leistung von MIMO-OFDM-Systemen in räumlich korrelierten Kanälen Als wirksame Technik zum Bekämpfen von Mehrwege-Fading und für die Übertragung mit hoher Bitrate über drahtlose Kanäle wird orthogonales Frequenzmultiplexing (OFDM) umfassend in drahtlosen Hochraten-Kommunikationssystemen wie dem drahtlosen lokalen Netzwerk (WLAN) und die digitalen terrestrischen Rundfunksysteme (DTTB), um leistungsstarke, bandbreiteneffiziente Multimediadienste zu unterstützen. Mehrere Antennen und Sende- oder Empfangsdiversität, Orthogonal-Frequenzmultiplex mit mehreren Eingängen und mehreren Ausgängen (MIMO-OFDM) können verwendet werden, um die Fehlerleistung und Kapazität von drahtlosen Systemen zu verbessern. In diesem Papier betrachten wir die Auswirkungen von Trägerfrequenz-Offset und Kanalschätzungsfehlern auf die Leistung von MIMO-OFDM-Systemen in räumlich korrelierten Kanälen. Theoretische Berechnungen und Computersimulationen werden durchgeführt, um die Leistungsverschlechterung von MIMO-OFDM-Systemen in räumlich korrelierten Kanälen aufgrund von Trägerfrequenzversatz und Kanalschätzfehlern zu analysieren, und die theoretischen und simulierten Ergebnisse stimmen gut überein.;-;-;-;https://link.springer.com/article/10.1007/s11277-009-9910-1 4023ba3ca84689fce9f01a878fd4faf9;de;;;1.3.;;;Allgemeine Cofaktoren: TFIID, Mediator und USA Drei Klassen von allgemeinen Cofaktoren sind typischerweise an der Genaktivierung beteiligt, um die Kommunikation zwischen genspezifischen Transkriptionsfaktoren und Komponenten der allgemeinen Transkriptionsmaschinerie zu erleichtern. Zu diesen allgemeinen Cofaktoren gehören TBP-assoziierte Faktoren (TAFs), die in TFIID vorkommen, Mediator, der mit der carboxyterminalen Domäne der RNA-Polymerase II assoziiert ist, und von der Upstream-Stimulationsaktivität (USA) abgeleitete positive Cofaktoren (PC1, PC2, PC3 und PC4) und negative Cofaktor 1 (NC1). Unter diesen allgemeinen Cofaktoren besitzt nur TFIID eine Kern-Promotor-Bindungsaktivität. Während TBP und einige TAF-Komponenten von TFIID unterschiedliche Kern-Promotorelemente erkennen können, besitzt die größte Untereinheit von TFIID, TAF1, auch enzymatische Aktivitäten, die Transkriptionskomponenten und Histonproteine ​​posttranslational modifizieren können. Die enzymatischen Aktivitäten von TAFs stellen ein einzigartiges Merkmal von TFIID bei der Erkennung des Kernpromotors und bei der aktivatorabhängigen Transkription dar, das sich von der von TBP unterscheidet. TFIID interagiert auch direkt mit einer Vielzahl von Aktivatoren und erleichtert die Rekrutierung von RNA-Polymerase II in die Promotorregion. Ähnlich wie TAFs sind Mediator- und USA-abgeleitete Komponenten alle in der Lage, die basale Transkription zu unterdrücken, wenn Aktivatoren fehlen, und die Transkription in Gegenwart von Aktivatoren zu stimulieren. In diesem Kapitel werden wir hauptsächlich im menschlichen System diskutieren, wie TAFs, Mediator, USA-abgeleitete Cofaktoren und ein einzigartiger TBP-interagierender negativer Cofaktor 2 (NC2) den Initiationsschritt der Transkription nach der Wirkung von Histonacetyltransferasen und Chromatin-Remodeling regulieren Faktoren, um die Promotorregion freizulegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-40049-5_4 a8a25776f6e3dadc61504398174a92db;de;;;1.3.;;;Auf dem Ausbildungsweg von Compound Talents für E-Business in China Als völlig neue Betriebsform hat das E-Business eine neue industrielle Revolution bewirkt. Die Net Economy hat einen enormen Einfluss auf die Wissensstruktur der Talente und die traditionelle Wirtschaftstheorie ausgeübt, was zu einer Veränderung des Personalausbildungsmodus geführt hat. Ausgehend vom Status Quo der E-Business-Entwicklung in China und basierend auf den Anforderungen der E-Business-Ausbildung, analysierte die Diplomarbeit die Nachfrage nach Talenten und den Trainingsmodus für E-Business und stellte verschiedene Ausbildungswege für zusammengesetzte Talente vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22418-8_74 ca5d819a0badf8b92c2cab7393ff964c;de;;;1.3.;;;Über den Generierungsalgorithmus von virtuellen VRS-Beobachtungen In den letzten Jahren wurde die Netzwerk-RTK-Positionierungstechnologie, insbesondere die VRS-Technologie, in einigen Teilen Chinas und in vielen Ländern der Welt weit verbreitet eingesetzt. Das Prinzip der VRS-Technologie wird mit entsprechender Formelableitung diskutiert, und es werden detaillierte Beschreibungen und Anwendungen von VRS-Korrekturen und virtuellen Beobachtungsgenerierungsalgorithmen gegeben.;-;-;-;https://link.springer.com/article/10.1007/s11806-007-0021-4 1b1f9d87fcaa66c429d862d039acee59;de;;;1.3.;;;Entwicklung und quantitative Bewertung eines Ellbogengelenkroboters für die Altenpflegeausbildung Ein Robotersimulator für die Ausbildung von Altenpflegern spielt eine wichtige Rolle bei der stetigen Zunahme des Anteils der Alten in der Gesellschaft. Pflegekräfte oder Therapeuten, insbesondere die Anfänger, benötigen eine Ausbildung in Pflegefähigkeiten. Während eine der besten Methoden darin besteht, die Fähigkeiten mit einer echten älteren Person zu üben, gibt es Hindernisse wie die Rekrutierung von Probanden und die Ermüdung, die sie durch wiederholte Trainingseinheiten erfahren. Um die Effektivität des Pflegertrainings zu verbessern, haben wir zu Trainingszwecken einen älteren Gelenksimulator eines Körperteils entwickelt. In dieser Studie nahmen drei Experten mit langjähriger Erfahrung in der Altenpflege an der Erfassung von Daten wie Ellbogengelenkwinkel, Kraftdrehmoment und Druckwert teil, während sie die Bewegungsübung mit dem vorgeschlagenen Ellenbogengelenkroboter für ältere Menschen zum Vergleich mit die von Novizen. Weiterhin wurden Experimente als Vorbewertung, Nachbewertung I (nach 30 min) und Nachbewertung II (nach 1 Monat) durchgeführt. Zur quantitativen Bewertung der Pflegerausbildung wurden zwei Parameter als Mittelwert des Bereichs des Ellenbogengelenkwinkels und der Mittelwert des Bereichs des Kraftdrehmoments extrahiert und die Ergebnisse der Experten und Auszubildenden verglichen. Der Vergleich zeigte einen statistisch signifikanten Unterschied zwischen Vor- und Nachevaluation. Daher kommen wir in dieser Studie zu dem Schluss, dass unser vorgeschlagener Ansatz nach weiterer Forschung potenziell die Pflege- und Pflegefähigkeiten verbessern kann.;-;-;-;https://link.springer.com/article/10.1007/s11370-019-00282-x 32c47192b51ceca86e69513ae9d3ec62;de;;;1.3.;;;Verbesserung des Auflösungsverhältnisses der seismischen Aufzeichnung durch symmetrische bioorthogonale Multi-Wavelet-Transformation Dieser Artikel diskutiert einen Versuch, die Auflösung einer seismischen Aufzeichnung durch die Verwendung einer ausgeglichenen bioorthogonalen Multi-Wavelet-Transformation zu verbessern. Die Wavelet-Transformation bietet viele lokale Informationen über seismische Signale, die für Zeit, Raum, Frequenz und Wellenzahl relevant sind. Die Kompensation des Verlustes von Hochfrequenzinformationen ermöglicht eine Verbesserung des Auflösungsverhältnisses der seismischen Aufzeichnung. Numerische Ergebnisse zeigen, dass die vorgeschlagene Methode in Bezug auf Durchführbarkeit und Effektivität mehrere Vorteile gegenüber einem einzelnen Wavelet hat und die Praxis zeigt einige zufriedenstellende Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30497-5_59 f9b44ae28bfb2d428a87988982e50423;de;;;1.1.;;;Visuell evozierte potenzielle Korrelate von Informationsverarbeitungsdefiziten bei chronischen Alkoholikern Es wurde postuliert, dass chronischer Alkoholmissbrauch zu Funktionsstörungen des Gehirns führt. Neuropsychologische Tests haben gezeigt, dass Alkohol einige intellektuelle Fähigkeiten stärker beeinflusst als andere (Goodwin und Hill, 1975, Kleinknecht und Goldstein, 1972), insbesondere die visuell-räumlichen und visuell-motorischen Fähigkeiten sind beeinträchtigt, während die verbalen Fähigkeiten intakt zu bleiben scheinen. Darüber hinaus wird berichtet, dass Alkoholiker Schwierigkeiten bei Aufgaben haben, die abstraktes Denken erfordern. Sie haben Schwierigkeiten, die relevanten Dimensionen eines Reizarrays zu extrahieren, insbesondere wenn sich die Relevanz dieser Dimensionen ändert (Oscar-Berman, 1973, 1978), und daher sind sie dafür bekannt, dominante Reaktionstendenzen fortzusetzen. Diese Merkmale wurden bei Patienten mit frontaler Hirnschädigung berichtet (Oscar-Berman, 1973, 1978, Parsons, 1975, Luria, 1966, 1973, Pribram, 1973, 1975).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-3632-7_46 5da90e249bea85721dac73131aff0171;de;;;1.1.;;;Der Mehrwellen-Mischprozess kann verwendet werden, um eine einzelne Photonenquelle für die Quanteninformationsverarbeitung zu erzeugen In der Quantenkryptographie sollen Einzelphotonenquellen verwendet werden, die Antibunching höherer Ordnung darstellen müssen. Wir haben nichtklassische Effekte untersucht, d. h. Antibunching höherer Ordnung und subpoissonsche Photonenstatistik höherer Ordnung (HOSPS) im Pumpmodus in einem nichtlinearen optischen Achtwellenmischprozess unter Verwendung von Kurzzeitwechselwirkungstechniken. Wir haben festgestellt, dass nichtklassische Effekte direkt von der Anzahl der Photonen vor ihrer Wechselwirkung mit dem nichtlinearen Medium abhängen, und je höher die Anzahl der vor der Wechselwirkung im System vorhandenen Photonen ist, desto höher ist die Nichtklassizität des Systems.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1048-6_32 5b61c479a5749725e79d42fb4cb6afd9;de;;;1.1.;;;Elektrophysiologische Aspekte der Informationsverarbeitung Allen Lebewesen gemeinsam ist, dass ihre Zellorganisation aus unzähligen inneren und äußeren Membranstrukturen besteht. Diese Membranen dienen dazu, Zellhohlräume oder Kompartimente, die von einem Kompartiment zum nächsten verschiedene Substanzen in wässriger Form enthalten, voneinander zu trennen. Eine wesentliche Eigenschaft lebender Membranen ist die von;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-2772-4_6 879397d0277e12025654a226a7734e8e;de;;;1.1.;;;Ein geklonter qutrit und sein Nutzen bei Aufgaben der Informationsverarbeitung Wir analysieren die Wirksamkeit eines Outputs als Ressource einer universellen Quantenklonierungsmaschine bei Informationsverarbeitungsaufgaben wie Teleportation und Dense Coding. Dazu haben wir die;-;-;-;https://link.springer.com/article/10.1007/s11128-013-0678-6 02a059e4b5bfeff93f5fba9e60a0918b;de;;;1.1.;;;Forschung und Entwicklung eines Dürreüberwachungs- und Informationsmanagementsystems in der Provinz Heilongjiang Häufige Dürren können schwere Schäden für Wirtschaft, Gesellschaft und Umwelt verursachen. Ziel dieser Studie ist es, ein Fernerkundungs-basiertes Dürreüberwachungs- und Informationsmanagementsystem (RDMIMS) zu entwickeln, um Managern zu helfen, die regionale Dürresituation besser zu verstehen und schnelle und reaktionsschnelle Maßnahmen zu definieren. RDMIMS umfasst vier Module für Datenmanagement, Dürreüberwachung und -analyse, Geschäftsbetrieb und Informationsabfrage. Darüber hinaus kombiniert RDMIMS die Bodenbeobachtungsdaten des Bodenfeuchtigkeitsgehalts mit den Inversionsparametern der Fernerkundung, um regionale Dürreinformationen mit erhöhter Genauigkeit zu erhalten. Es bietet Benutzern flexiblere Operationsmethoden, die genauere Überwachungsergebnisse durch Ändern der Gewichtungskoeffizienten jedes Überwachungsmodells erzielen können. Darüber hinaus kann der Geschäftsbetriebsmodus Überwachungsergebnisse durch „einen Klick“ bereitstellen, sodass die Manager mehr Auswahlmöglichkeiten unter verschiedenen Anforderungen haben. Die Ergebnisse zeigten, dass das System die Dürresituation im Untersuchungsgebiet effektiv überwachen und die Bedürfnisse und Erwartungen der Manager nach Informationsanfragen erfüllen kann.;-;-;-;https://link.springer.com/article/10.1007/s13369-021-05762-w 17f4be74c91997b228c6e48bdeff3947;de;;;1.1.;;;Anwendung des Informationsmanagementsystems im Labor zur Überwachung der Meeresumwelt Um dieser Anforderung des Meeresumweltüberwachungsgeschäfts gerecht zu werden, Entwurf und Entwicklung des Informationsmanagementsystems für das Meeresumweltüberwachungslabor. Es wird hauptsächlich für die Umgebungsüberwachung des Geschäftsprozessmanagements, der Ressourcen und der Daten des Automatisierungsmanagements verwendet. Die Annahme, Verteilung, Analyse, Originalaufzeichnung, Überwachungsbericht, Datenüberprüfung, Unterzeichnung und Ausgabebericht für die Überwachungsprobe wurden im automatischen Umlauf der gesamten Fahrt durchgeführt. Mit dem Managementsystem, das die Arbeitseffizienz der Umweltüberwachung verbessern kann, den Qualitätsmanagementstandard, können wir den Umweltmanagementservice verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31003-4_42 0ef6f7ec0f543143f258904a4237a6b9;de;;;1.3.;;;Design und Entwicklung eines lernbasierten Spiels für die Akupunkturausbildung Herkömmliche Lehr- und Lernumgebungen erfüllen oft nicht die Lernbedürfnisse von Schülern, die erfahrungsorientierte Aktivitäten und den Einsatz neuer Technologien bevorzugen. In diesem Papier wird eine neue Methode zur Erstellung einer Spielplattform bereitgestellt, die das Akupunkturwissen beinhaltet. Wenn Schüler diese Plattform nutzen, werden sie feststellen, dass Lernen eine interessante Sache ist. Dies sind die sogenannten Serious Games. Sie wächst in einer Vielzahl von Bereichen wie Bildung, Training und Simulation usw. Wir entwickeln ein Spiel für die Akupunkturausbildung und verwenden eine andere Plattform, Unity3D, als unsere Spielengine. 3D-Modelle und andere Szenen werden mit 3ds Max 2012 entworfen und dann in das *.fbx-Format konvertiert, um sie in Unity 3D zu laden. Wenn sich die Schüler in das Spiel einloggen, präsentiert das Spiel eine Reihe von Szenen mit einigen Fragen und fordert die Schüler auf, Entscheidungen über das Akupunkturwissen zu treffen. Es werden auch einige Details des Spiels für das Akupunktur-Lernen besprochen und einige Referenzen für die Entwicklung der Serious Games bereitgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_293 5adac53f49aab8176358d4c402050c08;de;;;1.3.;;;Klassenzimmeranpassung von Die Anpassung eines strukturierten Einzelzellenmodells zur Verwendung auf MS-DOS-Computersystemen machte dieses Lernwerkzeug weithin verfügbar. Die Anpassung umfasste die Erstellung von Bildschirmanzeigen, Benutzeroberflächen und Laufzeitgrafiken zusätzlich zur Übersetzung von FORTRAN in BASIC. Einige Anwendungen für die Simulation im Klassenzimmer werden vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-0177-3_32 9335133f223d82d7ac3ed97c8d48a401;de;;;1.3.;;;Empirisches Erstellen und Bewerten eines probabilistischen Modells des Benutzeraffekts Wir präsentieren ein probabilistisches Modell des Benutzeraffekts, das es einem intelligenten Agenten ermöglicht, während der Interaktion mit einem pädagogischen Computerspiel mehrere Benutzeremotionen zu erkennen. Unser Modell basiert auf einem probabilistischen Rahmen, der die hohe Unsicherheit beim Erkennen einer Vielzahl von Benutzeremotionen berücksichtigt, indem Informationen über die Ursachen und Auswirkungen emotionaler Reaktionen in einem Dynamic Bayesian Network kombiniert werden. Der Teil des Rahmens, der von Ursachen zu Emotionen führt (;-;-;-;https://link.springer.com/article/10.1007/s11257-009-9062-8 53f6b244e115bc909fbbb0ab280466f8;de;;;1.3.;;;Eine sehr vernetzte Welt managen: Ein Bericht über APNOMS2015 Dieser Artikel präsentiert einen Bericht über APNOMS2015, das vom 19. bis 21. August 2015 in Busan, Korea, stattfand. Das Thema von APNOMS2015 lautete „Managing a Very Connected World“.;-;-;-;https://link.springer.com/article/10.1007/s10922-016-9366-z da91aa57d6ead7eb9a15c1ad1d8ab1e4;de;;;1.1.;;;Vermessung von Objekten des digitalen Kulturraums in der Analytik der soziokulturellen Sphäre Dieser Beitrag beschäftigt sich mit dem Problem, den virtuellen soziokulturellen Raum durch seine Messung zu untersuchen. Die Aussagekraft des Messverfahrens, auch für die Untersuchung der sozialen Interaktion, wird hervorgehoben. Indikatoren für die Überwachung des digitalen kulturellen Umfelds werden vorgeschlagen.;-;-;-;https://link.springer.com/article/10.3103/S0147688216030023 67566984a951709a446da9851e153587;de;;;1.3.;;;Anwendung des neuronalen Netzmodells des RBF zur Vorhersage der Touristenmenge in der Provinz Hainan Die Touristenmenge ist ein wichtiger Faktor, der über den wirtschaftlichen Nutzen und die nachhaltige Entwicklung des Tourismus entscheidet. Somit wird die Vorhersage der Touristenmenge zum wichtigen Inhalt der Tourismusentwicklungsplanung. Basierend auf der Touristenmenge der Provinz Hainan seit mehr als zwanzig Jahren erstellt dieser Artikel ein Modell zur Vorhersage der Touristenmenge nach dem neuronalen Netz von RBF [1], in dem das Prinzip und der Algorithmus des neuronalen Netzes RBF verwendet werden. Und dieses Papier sagt auch die zukünftige Touristenmenge der Provinz Hainan voraus. Das Emulationsergebnis des RBF-Neuralnetzwerkmodells von Matlab zeigt, dass basierend auf dem RBF-Neuralnetzwerk-Vorhersagemodell für die Touristenmenge die zukünftige Touristenmenge der Provinz Hainan genau vorhergesagt werden kann, wodurch eine neue Idee und ein Mittel für die Vorhersage der Touristenmenge bereitgestellt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21783-8_50 74dc59ccfb2244e190202b2e02637b73;de;;;1.3.;;;Forschung zur nachhaltigen Entwicklung der Hochschulsportausbildung Der moderne Leichtathletiksport ist unter den Sportlern nicht mehr einfach. Es ist ermutigend Die Leistung ist das Ergebnis der gemeinsamen Anstrengungen von Coach, Managern und Forschern. Sportbildungseinrichtungen betrachten häufig ihren Standort und bilden eine große Anzahl von Fachkräften der Qualitätssicherung aus, um den Leistungssport zu bedienen. Diese Detaillierte Analyse der Einflussfaktoren des Leistungssports stellt das Sicherheitssystem der physikalischen Hochschulen vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29084-8_75 613248647f9521ef2b41f4cd567e485a;de;;;1.3.;;;Wie das Bildungssystem auf die technologische Entwicklung und Informatisierung der Gesellschaft reagieren sollte Das Bildungssystem spiegelt immer den technologischen Wandel der Gesellschaft wider. Einerseits reagiert die Bildung auf solche Veränderungen, andererseits werden in den Eingeweiden des Bildungssystems neue Mitglieder der Gesellschaft ausgebildet, die die Technisierung beeinflussen. Derzeit befindet sich etwa die Hälfte der Weltbevölkerung in einem Alter, das von der weit verbreiteten Nutzung der Informationstechnologie geprägt ist. Für diesen Teil der globalen Gesellschaft ist der Einsatz moderner Technologien im Bildungswesen selbstverständlich. Dieser Artikel diskutiert den Prozess der technologischen gesellschaftlichen Entwicklung, der durch eine Abfolge industrieller Revolutionen gekennzeichnet ist. Sie zeigt, dass durch die Entwicklung von Informatisierungswerkzeugen Informationsrevolutionen diesen Revolutionen überlagert werden. Die charakteristischen Merkmale der gerade stattfindenden vierten industriellen Revolution, die aus Sicht der Bildungssystementwicklung bedeutsam sind, werden diskutiert. Es wird eine fundierte Prognose einer neuen Informationsrevolution im Zusammenhang mit dem Aufkommen automatisierter Übersetzungssysteme durchgeführt. Für jeden Aspekt solcher Revolutionen wird eine Reihe von Vorschlägen zur Verbesserung von Inhalten, Methoden, Instrumenten und anderen Komponenten von Bildungssystemen beschrieben. Der Artikel betrachtet auch die negativen Folgen für die Gesellschaft und ihr Bildungssystem, die neue Informationen und industrielle Revolutionen nach sich ziehen können. Es werden Ansätze diskutiert, mit denen das Bildungssystem die negativen Aspekte des Übergangs der Gesellschaft in eine neue informationstechnische und technologische Entwicklungsstufe reduzieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-78273-3_3 255839136105ec7ae6be07fd666f44b0;de;;;1.3.;;;Klassifikationsmodell für das Bild von Hautläsionen Das Problem der Bildklassifizierung konzentriert sich hauptsächlich auf die Merkmalsextraktion, die von Bilddaten abhängt. Das berühmte Merkmal wird jedoch aus Bildern unter Verwendung der Gray Level Co-Occurrence Matrix (GLCM) extrahiert, um alle Merkmale abzudecken, deren Reichweite unterschiedlich ist. Das Problem ist eine geringere Genauigkeit, wenn sie in das Klassifizierungsmodell eingegeben wird. Diese Idee des Papiers wird für Merkmalsnormierungstypen 2 vorgeschlagen, die als lokale Normierung und globale Normierung aus allen Merkmalsextraktionen unter Verwendung von GLCM bei der Vorverarbeitung des Klassifizierungsverfahrens bezeichnet werden. Diese aus GLCM extrahierten Merkmalswerte werden in eine geeignete Normalisierung transformiert und ein Eingabeklassifizierungsmodell als Backpropagation in Mehrschicht-Perzeptron- und Mehrklassen-Unterstützungsvektormaschinenverfahren (Polynom und RBF) gegeben, um diese Klassifizierungsmodelle zu vergleichen. Die Bildklassifikation der Hautkrankheit, die von Hautläsionen herrührt, wurde in vier Klassen eingeteilt: Tinea Corporis, Pityriasis Versicolor, Molluscum Contagiosum und Herpes Zoster. Die experimentellen Ergebnisse werden im Vergleich zwischen Nicht-Normalisierung und Normalisierung innerhalb derselben Klasse, die als lokale Normierung bezeichnet wird, und allen Klassen, die als globale Normierung bezeichnet werden, gezeigt. Die Genauigkeit von MLP mit Normalisierung durch Min-Max-Normalisierung mit lokaler Normalisierung ist mit 92 % am höchsten. Die Methoden Polynom-SVM und RBF-SVM werden mit 85% bzw. 81% Genauigkeit angegeben. Während die Genauigkeit des Klassifizierungsmodells mit Nicht-Normalisierung und der globalen Normalisierung durchschnittlich nur mit ungefähr 35 % angegeben wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-4154-9_64 18aee3ac11e6116324dfd0881f8f5757;de;;;1.3.;;;Diskussion über die Verbesserung des Sicherheitstrainingseffekts von drei Personalkategorien Die Sicherheitsschulung ist eine wichtige Grundlagenarbeit im Bereich der sicheren Produktion. Es ist auch ein grundlegendes Mittel zur Verbesserung des Sicherheitsmanagements und ein wirksamer Weg zur Verbesserung der Sicherheitsqualität, der Sicherheitskompetenz und des Sicherheitsbewusstseins. Basierend auf der Analyse der Hauptmängel der Ausbildung wurde der Inhalt des Sicherheitstrainings mit den Merkmalen des Straßen- und Wasserstraßenbaus kombiniert, und es wurden fortschrittliche Ausbildungsmethoden mit verschiedenen Mitteln vorgeschlagen, die auf der Reform und Innovation der traditionellen Sprachmethode basieren. Der gesamte Ausbildungsprozess war ein Kreislaufsystem der kontinuierlichen Verbesserung, und die Akkreditierung des Personals wurde mit guten Ergebnissen erreicht. Die Studie hat eine wichtige Bedeutung für die Verbesserung der Sicherheitslage im Autobahn- und Wasserstraßenbau in China.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24022-5_16 c97f66e08c76a4d7d52dd5636d1cecf3;de;;;1.3.;;;Ein flexibles Spracherkennungssystem für Cerebralparese-Behinderte Zerebralparese (CP) ist eine Behinderung mit einer Erkrankung, bei der Kinder aufgrund einer Schädigung des Teils des Gehirns - des Großhirns - Probleme haben, ihre Bewegungskoordination zu kontrollieren. Es kann auch dazu führen, dass die Sprache nicht richtig funktioniert, was dazu führt, dass CP behindert oft unter Verwendung von Zeichen- oder Körpersprache kommuniziert. Sprachstörungen bei behinderter CP sind häufig aufgrund des Verbindungsfehlers zwischen dem Kortex und anderen Teilen des Gehirns wie dem Kleinhirn. Daher müssen CP-Behinderte die meiste Zeit ihre Wörter oder Sätze in ihren Gesprächen wiederholen, um andere Menschen besser zu verstehen. In diesem Beitrag wird die Entwicklung eines flexiblen Sprach-zu-Text-Erkennungssystems für CP-Behinderte vorgestellt. Es ist ein System, bei dem die gespeicherten Sprachreferenzen in der Datenbank flexibel entsprechend der Sprache des deaktivierten CP angepasst werden können. Die Entwicklungsalgorithmen umfassen Spracherkennungstriggerung, Zero-Crossing-Rate (ZCR) für die Endpunkterkennung, Mel-Frequency Cepstral Coefficients (MFCC) für die Merkmalsextraktion und Dynamic Time Warping (DTW) für die Musterklassifizierung. Mit anderen Worten, dieses flexible System basiert auf dem Sprachtraining von deaktivierten CPs und dem anschließenden Erkennen ihrer Spracheingaben. Die Ergebnisse zeigen die Glaubwürdigkeit des entwickelten Erkennungssystems durch eine hohe Genauigkeit der Spracherkennung, die ungefähr zwischen 78% und 97% liegt. Diese Leistung zeigt, dass das entwickelte flexible Spracherkennungssystem bereit ist, CP-Behinderten im täglichen Gespräch mit normalen Menschen positive Auswirkungen zu verleihen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25327-0_5 04bf29acf1fa4c4b235ec93613927c96;de;;;1.3.;;;Satzzeichen-Wiederherstellungssystem für slowenische Sprache Die Wiederherstellung von Satzzeichen ist der Vorgang, bei dem Satzzeichensymbole zu Rohtext hinzugefügt werden. Es wird typischerweise als Nachbearbeitungsaufgabe von automatischen Spracherkennungssystemen (ASR) verwendet. In diesem Beitrag stellen wir einen Ansatz zur Wiederherstellung der Zeichensetzung für Texte in slowenischer Sprache vor. Das System wird unter Verwendung bidirektionaler rekurrenter neuronaler Netze trainiert, die nur durch Worteinbettungen gespeist werden. Die Auswertungsergebnisse zeigen, dass unser Ansatz in der Lage ist, Satzzeichen mit einem hohen . wiederherzustellen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-50316-1_31 9234a8fb960d581d9bad6e3d630b14a5;de;;;1.3.;;;TQM-Führung Heute sind sich alle einig, dass Führung eine notwendige Bedingung für TQM ist. Das können Sie in jedem Buch über TQM nachlesen. Aber was ist Führung in Bezug auf Qualitätsmanagement? Die Antworten auf diese Frage sind nicht so leicht zu vereinbaren und variieren von Autor zu Autor und von Manager zu Manager erheblich.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-0539-2_7 11b3e9014b12d7f9c0e2a199738cba00;de;;;1.3.;;;Verbessertes adaptives Neuro-Fuzzy-Inferenzsystem für die Vorhersage von HIV/AIDS-Zeitreihen Die Verbesserung der Genauigkeit der Zeitreihenvorhersage war schon immer eine Herausforderung für Forscher. Die Vorhersage von Zeitreihendaten im Gesundheitswesen wie HIV/AIDS-Daten gewinnt im Gesundheitsmanagement an Bedeutung. Statistische Techniken wie gleitender Durchschnitt (MA), gewichteter gleitender Durchschnitt (WMA) und autoregressiver integrierter gleitender Durchschnitt (ARIMA) haben Einschränkungen bei der Handhabung der nichtlinearen Beziehungen zwischen den Daten. Techniken der künstlichen Intelligenz (KI) wie neuronale Netze gelten als besser für die Vorhersage nichtlinearer Daten. Im Allgemeinen kann es bei komplexen Gesundheitsdaten schwierig sein, mit den statistischen oder KI-Modellen einzeln eine hohe Vorhersagegenauigkeit zu erzielen. Um dieses Problem zu lösen, ist ein Hybridmodell wie das adaptive Neuro-Fuzzy-Inferenzsystem (ANFIS) erforderlich. In diesem Papier schlagen wir ein verbessertes ANFIS-Modell vor, um HIV/AIDS-Daten vorherzusagen. Unter Verwendung von zwei statistischen Indikatoren, nämlich Root Mean Square Error (RMSE) und Mean Absolute Error (MAE), wird die Vorhersagegenauigkeit des vorgeschlagenen Modells mit den Genauigkeiten verglichen, die mit MA-, WMA-, ARIMA- und neuronalen Netzmodellen basierend auf HIV/AIDS erhalten wurden Daten. Die Ergebnisse zeigen, dass das vorgeschlagene Modell im Vergleich zu den anderen Modellen Verbesserungen von bis zu 87,84% liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25462-8_1 baed32bf3ab35941d32fb29588ba76bb;de;;;1.3.;;;Eine Erforschung des „PRAMs“-Modus der Auftragserziehung Die Umsetzung der Auftragserziehung in den Berufsschulen hat einen wichtigen Einfluss auf die Personalausbildung. Bei der Ausbildung sollten wir uns an die PRAM-Merkmale halten, zu denen eine Art der Teilzeitarbeit gehört, nämlich die Organisation der Schüler zur Teilnahme an der Arbeit und zum Lernen nach der theoretischen Ausbildung, um das Berufsbewusstsein der Schüler zu stärken und eine angemessene Vergütung zu erhalten um die Begeisterung für das Lernen zu wecken, eine Umgebung mit echten Schwertern und Speeren, um die Schüler dazu zu bringen, das eigentliche Projekt oder die eigentliche Aufgabe abzuschließen und die praktischen Fähigkeiten zu verbessern, eine Weiterbildung, die Unternehmen und Hochschulen voranbringt Jobs, die Unternehmen benötigen, konzentrieren wir uns auf die Übereinstimmung der Eigenschaften und Berufsmerkmale der Studenten, schulen die Studenten, um die Übereinstimmung zwischen Mensch und Arbeitsplatz zu erreichen, und sorgen letztendlich dafür, dass Unternehmen, Hochschulen und Studenten sich mit der Bildung zufrieden fühlen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21783-8_37 32d4c642177a5b79ebc521e3d4ca2d68;de;;;1.1.;;;Personal Semantics: Personal Information Management im Web mit semantischen Technologien Jeder Webnutzer verfügt über mehrere Online-Profile, über die personenbezogene Daten mit vielen Dienstleistern ausgetauscht werden. Dieser Austausch personenbezogener Daten findet in einem Tempo statt, das ohne eine globale Sicht und Kontrolle schwer zu verstehen und zu verwalten ist, mit offensichtlichen Konsequenzen für die Datenkontrolle, das Eigentum und natürlich die Privatsphäre. Um Probleme im Zusammenhang mit aktuellen serviceorientierten Ansätzen anzugehen, schlagen wir eine benutzerzentrierte Architektur vor, bei der die Interaktion zwischen einem Benutzer und anderen Agenten basierend auf einem globalen Profil für den Benutzer verwaltet, in einem Profilverwaltungssystem verwaltet und vom Benutzer selbst gesteuert wird . In dieser Promotion werden wir Forschungsfragen und Herausforderungen bei der Realisierung eines solchen Systems auf Basis semantischer Technologien untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21064-8_41 a97f11564411fb6776f993c784b5d4bf;de;;;1.1.;;;Informationsverarbeitung und Wärmeübertragungstechnik Die Wärmeübertragungsforschung zum Kühlen elektronischer Geräte muss mit einem soliden Verständnis des Arbeitsprinzips des Computersystems und der daraus resultierenden inhärenten Einschränkungen geplant und durchgeführt werden. Der vorliegende Beitrag skizziert die Anforderungen an das Computersystem und erläutert einige Forschungsthemen, die für die Entwicklung zukünftiger Computergenerationen von Bedeutung sein werden. Die wichtigsten Präsentationspunkte sind wie folgt. (1) Der in den letzten zehn Jahren erreichte Fortschritt bei der Miniaturisierung von Schaltungen muss in naher Zukunft aufgrund der steigenden Kosten der Schaltungsherstellung und der Schwierigkeit der Chipkühlung unter den Beschränkungen in Bezug auf elektronische Systeme gebremst werden. Der letztere Faktor weist auf die Möglichkeit hin, dass der Wärmefluss auf dem Chip kein dominierender Faktor bei der weiteren Verbesserung der Computerleistung sein wird, wie es bisher der Fall war. Die Wärmeübertragungsforschung, die sich nur auf Kühlchips konzentriert, wird daher weniger Auswirkungen auf die zukünftige Entwicklung der Computertechnologie haben. (2) Die Forderung, die Kommunikationsverzögerungszeit innerhalb des Systems zu minimieren, und somit die Verdrahtung auf Systemebene kürzer zu machen, legt die Präferenz für die Systemmorphologie fest, und die geometrische Konfiguration des Systems definiert das optimale Kühlschema. Das Ergebnis der Fallstudie für einen immersionsgekühlten Card-Stack-Prozessor ergab, dass der optimale Kühlmittelkanalabstand im Submillimeterbereich liegt. Die Wärmeübertragung auf Fluorinert, das in einem Kanal mit solch kleinen Abmessungen strömt, ist ein wichtiges Forschungsthema. Insbesondere die zweiphasige Strömungswärmeübertragung in Sub-Millimeter-Kanälen muss ein Schwerpunkt der zukünftigen Wärmeübertragungsforschung sein. (3) Der Downsizing-Trend in der Computerindustrie zwingt die Geräteentwickler dazu, das Wärmemanagement auch auf Systemebene auszuüben. Ein Kompromiss zwischen Wärme und Systemvolumen wird anhand eines vereinfachten Modells veranschaulicht. Die Studie zeigt, dass eine Erhöhung des Schrankvolumens um 10 %, um Platz für die Durchströmung von Kühlluft zu schaffen, die thermische Umgebung im Schrank deutlich verbessert. (4) Die Wärmeübertragung von einer lokalisierten Wärmequelle in einem luftgekühlten verkleinerten Computer stellt aufgrund seiner konjugierten Natur ein anspruchsvolles Forschungsthema dar. Das Experiment wird durchgeführt, indem ein quadratisches Modul auf einer flachen Kupferplatte in einem Parallelplattenkanal montiert wird. Komplexe physikalische Prozesse in diesem geometrisch einfachen System werden skizziert und einige Beispiele für die Wärmeübertragungsdaten werden gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-1090-7_35 833065aeb791d90e04e9256dea048200;de;;;1.1.;;;Dialektik als Umwelt: Ein Brunswik-Linsen-Modell dialektisch fragender Systeme Im vorigen Kapitel wurde die Dialektik im Sinne von Ackoffs „Verhaltenstheorie der Kommunikation“ (1958) formuliert. Der Hauptzweck dieses Kapitels ist die Entwicklung einer Brunswik (1955) Linsenmodell-Foumulation (Hursch;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-8469-1_3 c6a6871a96966cf0aab4b34b6b3d647a;de;;;1.3.;;;Nichtsprachliche Faktoren, die die Beurteilung von nicht muttersprachlichen englischsprachigen Lehrassistenten durch Studenten beeinflussen Als Reaktion auf die dramatischen Veränderungen in der Demografie der Hochschulbildung werden erhebliche Anstrengungen unternommen, um Lehrassistenten auszubilden, die keine englischen Muttersprachler (NNSTAs) sind. Drei Studien erweitern frühere Forschungen, die die Wirksamkeit nichtsprachlicher Faktoren wie der ethnischen Zugehörigkeit bei der Beeinflussung der Reaktionen von Studenten auf NNSTAs zeigten. Studie 1 untersuchte die Auswirkungen der ethnischen Zugehörigkeit des Lehrers, selbst wenn die Sprache des Lehrers völlig normal war. Studie 2 identifizierte unter mehreren Einstellungs- und Hintergrundvariablen Prädiktoren für Lehrerbewertungen und Hörverständnis. Studie 3 war eine Pilotintervention, bei der Studenten als Lehrtrainer für NNSTAs dienten. Diese Intervention hatte jedoch keinen nachweisbaren Einfluss auf die Einstellungen der Studenten. Zusammengenommen rechtfertigen diese Ergebnisse, dass die interkulturelle Sensibilisierung für Studierende das Kompetenztraining für NNSTAs ergänzen muss, diese Sensibilisierung jedoch nicht aus einem oberflächlichen Interventionsprogramm erwächst.;-;-;-;https://link.springer.com/article/10.1007/BF00973770 6c5460e27a0138be6d0d17879d212bf6;de;;;1.1.;;;SCIMS: Ein Managementsystem für soziale Kontextinformationen für sozialbewusste Anwendungen Soziale Kontextinformationen wurden mit ermutigenden Ergebnissen bei der Entwicklung sozialbewusster Anwendungen in verschiedenen Bereichen verwendet. Die sozialen Informationen der Benutzer werden jedoch über das Web verteilt und von vielen verschiedenen proprietären Anwendungen verwaltet, was für Anwendungsentwickler eine Herausforderung darstellt, da sie Informationen aus verschiedenen Quellen sammeln und viele irrelevante Informationen durcharbeiten müssen, um die relevanten sozialen Kontextinformationen zu erhalten . Die Kombination der sozialen Informationen aus den verschiedenen Quellen und die Einbeziehung einer reichhaltigeren Semantik könnte den Entwicklern eine große Hilfe sein und die Anwendungen bereichern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31095-9_20 1e55e09c23abbeeee09fd7d7234c0338;de;;;1.3.;;;Techniken zur Lösung des großflächigen Klassifikationsproblems bei der chinesischen Handschrifterkennung Angesichts der großen Anzahl von Kategorien oder Klassentypen in der chinesischen Sprache besteht die Herausforderung bei der Zeichenerkennung darin, ein so umfangreiches Problem sowohl in der Trainings- als auch in der Testphase zu lösen. In diesem Beitrag werden drei Techniken behandelt, deren Kombination sich bei der Lösung des Problems als effektiv erwiesen hat. Die Techniken sind: 1) ein Prototyp-Lern-/Matching-Verfahren, das die Anzahl und Position von Prototypen in der Lernphase bestimmt und die Kandidaten für jedes Zeichen in der Testphase auswählt, 2) Support Vector Machines (SVM), die Spitzenkandidaten, die während des Prototyp-Lern- oder -Matching-Prozesses erhalten wurden, und 3) schnelle Feature-Vektor-Matching-Techniken zur Beschleunigung des Prototyp-Matchings über Entscheidungsbäume und Subvektor-Matching. Die Techniken werden auf chinesische handgeschriebene Zeichen angewendet, die als Merkmalsvektoren ausgedrückt werden, die durch Extraktionsoperationen wie nichtlineare Normalisierung, gerichtete Merkmalsextraktion und Merkmalsunschärfe abgeleitet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78199-8_10 ce50a5ddf4aec45b66629c9a814d7da0;de;;;1.3.;;;Forschung zum Mixed-Learning-Modell und zum innovativen Mechanismus der Talentförderung auf Basis von Computational Thinking Dieses Kapitel fasst Ideen zu Denken und gemischtem Lernen zusammen, fasst gängige Lerntheorien zusammen und analysiert die Merkmale von Lernenden, die an grundlegenden Computerkursen an Universitäten teilnehmen, während sie durch universitäre Standardlehrpraktiken unterstützt werden. In diesem Kapitel werden Lernprozesse und Lerneffekte für Teilnehmer/innen von Computer-Grundkursen an der Universität analysiert. Es analysiert und fasst die Gültigkeit und Machbarkeit eines hybriden Lernmodells auf der Grundlage von Computational Thinking zusammen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8944-2_8 c59410eaf5861fb2abf8fb29f38ada58;de;;;1.3.;;;"Die Untersuchung zum Grundmodell der chinesischen Musikhochschulbildung Die chinesische Universität der Fachrichtung Lehrerausbildung Musikwissenschaft ist ein professioneller Bachelor-Studiengang, der für seine gemeinsame Hochschulbildung ""basierende Musikausbildung für die Ausbildung von Lehrern"" ist. Aufgrund seiner fachlichen Besonderheit und des bundesweiten Umfangs des Schulbetriebs haben alle Arten von Universitäten die ähnliche Professionalität erhöht, die berufliche Entwicklung des Fachbaus und des Studiensystembaus komplizierter gefunden. Ausgehend von der Zusammenfassung der Unterrichtspraxis, zur Bildung des Lehrplans als Ausgangspunkt, wird die ordentliche Hochschullehre der Fachrichtung Musiklehrerausbildung rund um die grundständige Lehre, die Theorie- und Lehrpraxisreihe diskutiert.";-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29084-8_81 4a8093079721252ce1d397e06c61fb1c;de;;;1.3.;;;Rechtliche Regelungen für ÖPP in Mittel- und Osteuropa Der Privatsektor kann auf vielfältige Weise in die öffentliche Infrastruktur investieren. Je nach Höhe des damit verbundenen Risikos reicht die Vielfalt möglicher Vertragsgestaltungen von der öffentlichen Beschaffung, bei der ein Auftragnehmer kein Projektrisiko übernimmt, bis hin zur Privatisierung, bei der öffentliche Vermögenswerte oder Anteile an einem öffentlichen Unternehmen zusammen mit allen damit verbundenen Risiken. Die interessantesten und anspruchsvollsten Vereinbarungen liegen wohl im Bereich zwischen Beschaffung und Privatisierung. Solche Optionen werden im Allgemeinen als wirksamer angesehen als solche an den Extremen des Spektrums.;-;-;-;https://link.springer.com/chapter/10.1057/9780230593992_10 f6abaa6ccd24295db142125405af9b96;de;;;1.1.;;;Die Funktion von Offset-Neuronen bei der auditiven Informationsverarbeitung Offset-Neuronen, die auf die Beendigung der Schallstimulation reagieren, können eine wichtige Rolle bei der auditiven zeitlichen Informationsverarbeitung, der Schallsignalerkennung und der komplexen Unterscheidung spielen. Zwei weitere mögliche Mechanismen wurden untersucht: neurale Hemmung und die intrinsische Leitfähigkeitseigenschaft von versetzten Neuronenmembranen. Es wurde postuliert, dass die zugrunde liegende Offset-Reaktion im oberen Paraolivarkern von Mäusen lokalisiert ist. Auch die biologische Bedeutung der versetzten Neuronen wurde diskutiert.;-;-;-;https://link.springer.com/article/10.2478/s13380-014-0235-5 89503e753130ab4bb63ff1da1f09bebe;de;;;1.3.;;;"Neuropsychologie und Komamanagement Stedman's Medical Dictionary-26th Edition (1995) definiert ein Koma als „einen Zustand tiefer Bewusstlosigkeit, aus dem man nicht erweckt werden kann, der auf die Wirkung einer aufgenommenen oder im Körper gebildeten toxischen Substanz, auf ein Trauma oder Krankheit."" Funktionell liegt eine Person im Koma, wenn sie nicht in der Lage ist, gezielt auf Reize in der Umgebung zu reagieren.";-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-78867-8_30 7fa4d3623b7543e96a499e139dae73a0;de;;;1.3.;;;Entwicklung malaysischer Methoden zur Ermittlung der Kompetenz für Ermittler in der digitalen Forensik Cyber ​​Forensics Investigations und seine Ausbildung/Ausbildung sind relativ neu. Die Natur der Cyberforensik ist komplex und erfordert multidisziplinäre Fähigkeiten, Kenntnisse und Fähigkeiten. Obwohl es Trainings-/Ausbildungsprogramme für die Verbreitung gibt, von einer Handvoll Tagesworkshops bis hin zum Master-Abschluss in Cyber-Forensik, fehlen der Welt aufgrund einiger Faktoren Cyber-Forensik-Ermittler. Folglich konzentriert sich dieses Papier auf die Anforderungen an die Kompetenzidentifikation. Die Mehrheit der Befragten (Durchschnitt 95,66 %) stimmte zu, dass verschiedene Interessengruppen die Kompetenzidentifikationsphase durchführen sollten, während 86,7 % der Befragten die Merkmale der Kompetenzidentifikation unterstützten. Darüber hinaus besteht ein signifikanter Zusammenhang zwischen der Kompetenzidentifikation und der Cyber-Forensik-Ermittler-Fertigkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35326-0_55 c0294e703268097289b00da530c2cc65;de;;;1.3.;;;Legal Engineering und seine Verarbeitung natürlicher Sprache Unsere Gesellschaft wird durch viele Gesetze geregelt, die sich gegenseitig bedingen. Wenn wir eine Gesellschaft als System betrachten, können Gesetze als Vorgaben für die Gesellschaft angesehen werden. Ein derart systemorientierter Aspekt von Gesetzen wurde bisher nicht gut untersucht. In der kommenden e-Society spielen Gesetze eine wichtigere Rolle, um eine vertrauenswürdige Gesellschaft zu erreichen, und wir erwarten eine Methodik, die einen systemorientierten Aspekt der Gesetze behandelt. Legal Engineering ist das neue Feld, das die Methodik untersucht und Informationswissenschaft, Software-Engineering und künstliche Intelligenz auf Gesetze anwendet, um Gesetze zu unterstützen und Gesetze mithilfe von Computern umzusetzen. Bisher hat die Shimazu-Gruppe von JAIST als Studien zu Legal Engineering das logische Strukturmodell von Gesetzesparagraphen, das Koreferenzmodell von Gesetzestexten, das Editiermodell von Gesetzestexten usw. vorgeschlagen und ihre Modelle implementiert. Die Tojo-Gruppe von JAIST überprüfte, ob mehrere verwandte Verordnungen der Präfektur Toyama in Japan Widersprüche enthalten oder nicht. Die Ochimizu-Gruppe von JAIST untersuchte das Modell zur Gestaltung eines Gesetzesumsetzungssystems und schlug das Rechenschaftsmodell für das Gesetzesumsetzungssystem vor. Die Futatsugi-Gruppe von JAIST schlug die formale Beschreibung und die Überprüfungsmethode von Rechtsgebieten vor. Da Gesetze in natürlicher Sprache verfasst werden, ist die Verarbeitung natürlicher Sprache für das Legal Engineering unerlässlich. In diesem Vortrag werden nach der Zielsetzung, dem Ansatz und der Problematik des Legal Engineering Studien zur Natural Language Processing für das Legal Engineering vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-02741-8_3 72002b4a0e3c9f66394ddab360be46b0;de;;;1.1.;;;Green-IT-Strategien: Informationsmanagement im architektonischen Regenerativen Design Ausgehend von der Definition von Green IT als Kombination von Umwelt- und Informationstechnologie versucht dieser Beitrag, das Konzept der Green IT als Definition des Informationsmanagements im regenerativen Design im Gebäudesektor vorzustellen. Der Artikel diskutiert einen innovativen Ansatz der Siedlung für die Stadt. Ziel der Aktivitäten ist es, die negativen Auswirkungen auf die gebaute Umwelt und die Stadtbewohner zu begrenzen. Der Artikel diskutiert ausgewählte Themen und definiert den Rahmen für die zukünftige Regionalprogrammierung. Die Review-Struktur wurde auf Basis des Off-Grid-Frameworks festgelegt. Das Ergebnis zeigt, dass mit ausgewählten Elementen der Datenwolke Projekte einer nachhaltigen Entwicklungsstrategie umgesetzt werden können. Dies ermöglicht die zukünftige Strategieentwicklung in Städten basierend auf ausgewählten Technologiekategorien. Dies ermöglicht ein konsequentes Handeln im Bereich innovativer Projekte. Das Konzept sieht vor, netzwerkfähige Quartiere zu entwickeln. Ressourcen werden in einem geschlossenen Kreislauf verwendet. Technologie wird verwendet, um Verhaltensmuster zu überwachen. Die Daten werden an eine Cloud gesendet, die für eine ähnliche Abrechnung eingerichtet wurde. Dadurch können Sie voneinander lernen. Ein integriertes Informationsmanagementsystem wird vorhandene Technologien ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-47975-6_21 4450d7d4f627f1765ee27e63e529237c;de;;;1.1.;;;Hypophysenadenylatcyclase-aktivierendes Polypeptid, ein potenzieller therapeutischer Wirkstoff für diabetische Retinopathie bei Ratten: Fokus auf dem vertikalen Informationsverarbeitungspfad Hypophysenadenylatzyklase aktivierendes Polypeptid (PACAP) ist ein neurotrophes und neuroprotektives Peptid, von dem gezeigt wurde, dass es bei verschiedenen neuronalen Verletzungen, wie z. Die diabetische Retinopathie (DR), die häufigste Komplikation von Diabetes, betrifft das Mikrogefäßsystem und die neuronale Architektur der Netzhaut. Wir haben bereits früher bewiesen, dass PACAP auch in einem Rattenmodell von DR schützend ist. In dieser Studie wurde Streptozotocin-induzierter DR mit intravitrealer PACAP-Verabreichung behandelt, um die synaptische Struktur und Proteine ​​der PACAP-behandelten diabetischen Netzhaut, hauptsächlich im vertikalen Informationsverarbeitungsweg, weiter zu analysieren. Mit Streptozotocin behandelte Wistar-Ratten erhielten 2 Wochen nach Induktion des Diabetes dreimal intravitreale PACAP-Injektion in das rechte Auge. Mit morphologischen und molekularbiologischen (qRT-PCR, Western Blot) Methoden wurden retinale Synapsen (Bänder, konventionell) und verwandte Strukturen analysiert. Die elektronenmikroskopische Analyse ergab, dass das retinale Pigmentepithel, die Bandsynapsen und andere synaptische Profile bei Diabetes Veränderungen erlitten. Bei PACAP-behandelten diabetischen Retinas wurden jedoch mehr bipolare Bandsynapsen in der inneren plexiformen Schicht intakt gefunden als bei DR-Tieren. Die Bandsynapse wurde mit dem C-terminalen Bindungsprotein 2/Fagott markiert und bildete hufeisenförmige Bänder, die in PACAP-behandelten diabetischen Retinas stärker zurückgehalten wurden als in DR-Ratten. Diese Ergebnisse werden durch molekularbiologische Daten gestützt. Die selektive Degeneration verwandter Strukturen wie Bipolar- und Ganglienzellen könnte durch eine PACAP-Behandlung verbessert werden. Zusammenfassend lässt sich sagen, dass die intravitreale Verabreichung von PACAP ein therapeutisches Potenzial bei Streptozotocin-induzierter DR haben könnte, indem die Synapsenintegrität im vertikalen Pfad erhalten bleibt.;-;-;-;https://link.springer.com/article/10.1007/s12640-015-9593-1 87291a9657eb671bac2762626f9d8c2a;de;;;1.1.;;;Ausbau des Umweltinformationsmanagements: Den zukünftigen Anforderungen der Elektronikindustrie gerecht werden Die Umweltauswirkungen der Produktherstellung, -verwendung und -entsorgung sind zu einem weltweiten Problem geworden. Gesetze und Vorschriften zum Schutz der menschlichen Gesundheit und der Umwelt werden in der gesamten Weltgemeinschaft eingeführt. Zusätzlich zu den regulatorischen Anforderungen haben Produktionsnetzwerke begonnen, auf marktorientierte Ökoeffizienz- und Nachhaltigkeitsanforderungen zu reagieren. Um Fertigungssysteme für diese Anforderungen zu optimieren, müssen Informationen während des Produktlebenszyklus vor- und nachgelagert frei fließen. Diese Informationen umfassen unter anderem Informationen zur Einhaltung gesetzlicher Vorschriften, zum Materialgehalt, zum Energieverbrauch und zu Testdaten. Um Systeme zu modifizieren, um diese Daten effektiv zu verwalten, müssen Sie wissen, welche Informationen erforderlich sind. In diesem Papier werden sowohl regulatorische als auch freiwillige Informationsbedürfnisse erörtert, wobei der Schwerpunkt auf den Bemühungen der Elektronikindustrie zum Umweltinformationsmanagement und -austausch liegt. Der Informationsbedarf wird in regulatorische Informationen (Compliance-Informationen, Materialinhalte etc.) und freiwillige Informationen (Ökobilanz, Cradle-to-Cradle etc.) unterteilt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84882-762-2_26 255c36acee0fbc628d8d9f0cae30382a;de;;;1.3.;;;Diskussion über das Kultivieren eines Modells der multimodalen Innovationsfähigkeit für Studierende des Hauptfachs Elektrische Automatisierung Mit dem Ziel, Fachleute für die elektrische Automatisierung mit Innovationsgeist und praktischen Fähigkeiten zu kultivieren, untersucht dieses Papier ein multimodales Kultivierungsmodell für innovative Talente. Das Modell umfasst im Wesentlichen: den Aufbau einer richtungsweisenden Lehrplattform der Modularisierung, die Umsetzung eines projektgetriebenen Lehrmodells, die Etablierung einer neuen experimentellen Lehridee, eine Null-Anpassungszeit und ein Doppelzertifikat-Lehrmodell sowie die Kursgestaltung in Verbindung mit technologischem Wettbewerb, die wird multimodale innovative Talente aus mehreren Blickwinkeln fördern. Die Lehrpraxis zeigt, dass Studierende, die nach dem Modell zur Förderung innovativer Talente ausgebildet werden, über eine stärkere praktische Fähigkeit und berufliche Wettbewerbsfähigkeit verfügen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24022-5_25 88195f3fc1a3c86fed88c0c33990d318;de;;;1.3.;;;Hochschulbildung: Lernen, wie man aufpasst In diesem Beitrag diskutiere ich die Idee, dass die Universität eine Geistesschulung anbieten sollte, die sich nicht auf Techniken zum wirksamen Screenen und Verlagern von Informationen reduzieren lässt. Das bedeutet nicht, dass letzteres unnötig oder unerwünscht ist. Im Gegenteil, da wir im digitalen Zeitalter von morgens bis abends mit Informationen bombardiert werden, ist es ganz klar von Vorteil, ja sogar unerlässlich, dass wir lernen, alles zu managen und tückische Gewässer geschickt zu befahren. Dennoch besteht die Gefahr, dass wir so viel Aufwand in die Entwicklung von Methoden und Protokollen für ein vorbereitendes und prophylaktisches Informationsmanagement investieren, dass wir die Frage aus den Augen verlieren, warum wir lesen, studieren, lehren und lernen. Insbesondere besteht die Gefahr, dass eine Neuorientierung in;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-69628-3_6 3c5618d356c17c94433c08436fecf17b;de;;;1.3.;;;Wege und Vorteile ausländischer Kommunikation durch Computer in Chinas bilingualem Hochschulunterricht Auslandskommunikation ist in Chinas zweisprachiger Ausbildung sehr wichtig, da das auf Englisch verfasste Originallehrbuch für den Unterricht angepasst wird. Ausländische Kommunikation über Computer ist für viele Lehrer erschwinglich. Basierend auf der Unterrichtspraxis stellt der Beitrag Wege der Fremdkommunikation durch Computer im bilingualen Unterricht vor und fasst die Vorteile der Kommunikation zusammen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18129-0_35 85158fd28b6125f515470768b8286a67;de;;;1.3.;;;Auf Sektoren basierende Wiederverwendung von Piloten zur Verbesserung der spektralen Nettoeffizienz im massiven MIMO-Mehrzellensystemcell Ein Sektorisierungsverfahren unter Verwendung des einheitlichen kreisförmigen Arrays (UCA) wird vorgeschlagen, um die spektrale Nettoeffizienz (SE) des massiven MIMO-Mehrzellensystems zu verbessern, was ein wichtiger Index zum Bewerten der Leistung eines Kommunikationssystems ist. Wir leiten das ergodisch erreichbare Uplink-Netz SE pro Zelle eines allgemeinen sektorisierten Systems her und erhalten seine deterministische Näherung basierend auf der Theorie der großen Zufallsmatrix. Für das sektorisierte System werden verschiedene Gewichtungsmatrizen berücksichtigt und diejenige mit der besten Leistung wird für die weitere Analyse verwendet. Gleichzeitig wird die Konsistenz der deterministischen Näherung mit dem Ergebnis der Monte-Carlo-Simulation bewiesen. Schließlich zeigen numerische Ergebnisse, dass die Netto-SE pro Zelle im Vergleich zum herkömmlichen massiven MIMO-System mit mehreren Zellen erheblich verbessert werden kann, was die Wirksamkeit des Sektorisierungsverfahrens bestätigt. Darüber hinaus werden in diesem Beitrag auch Vergleiche mit anderen Pilot-Wiederverwendungsmethoden angestellt.;-;-;-;https://link.springer.com/article/10.1007/s11432-015-5503-7 5424de6a22532bac8f378f20c30b2166;de;;;1.3.;;;Die Rolle internationaler Psychiater mit medizinischem Abschluss im Gesundheitssystem der Vereinigten Staaten Internationale medizinische Absolventen (IMGs) machen einen erheblichen Teil der US-amerikanischen Ärzteschaft aus, einschließlich der praktizierenden Psychiater. Der Zweck dieser Studie war es, basierend auf aktuellen Daten, die Eigenschaften und Qualitäten von IMG-Psychiatern zu beschreiben, die in den USA Patienten versorgen.;-;-;-;https://link.springer.com/article/10.1176/appi.ap.11040060 129c4f7b1c44f4faa14ee7135a86caba;de;;;1.3.;;;Webbasiertes Dateiübertragungssystem zur Bereitstellung von E-Trainingsinhalten Das schnelle Wachstum der Telekommunikationstechnologie hat zur Entwicklung vieler intelligenter Geräte geführt. Insbesondere der Smartphone-Markt ist nach der Entwicklung der Telekommunikationstechnologie der dritten Generation stark gewachsen. Infolgedessen wird von den meisten Menschen erwartet, dass sie innerhalb weniger Jahre ein Smartphone verwenden. Darüber hinaus wächst der Markt für Smart Devices wie Tablets und Smart TVs rasant. Daher wird von den meisten Menschen erwartet, dass sie innerhalb weniger Jahre verschiedene intelligente Geräte besitzen. Insbesondere Bildungssysteme, die intelligente Geräte verwenden, werden sehr nützlich sein. Deshalb implementieren wir ein E-Trainingssystem für Kfz-Mechaniker mit intelligenten Geräten. Die Aktualisierung von Inhalten in Echtzeit wird jedoch nicht unterstützt. In diesem Papier implementieren wir ein webbasiertes Dateiübertragungssystem für die Bereitstellung von E-Trainingsinhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35603-2_40 a46b5d39af2cc9fbb871a225fbce8221;de;;;1.3.;;;Hochschulbildung, Wirtschaftswachstum und Einkommen Dieses Kapitel bietet einen selektiven, nichttechnischen Überblick über die Forschung zum Beitrag der Bildung und insbesondere der Hochschulbildung zum Wirtschaftswachstum und zur effizienten Ressourcenallokation. Es werden drei große Fragen gestellt. Erstens, was ist über die Rolle der Bildung für das Wirtschaftswachstum bekannt? Diese Frage wurde auf unterschiedliche Weise angegangen. Einige Ökonomen haben Wachstumsrechnungstechniken auf makroökonomische Daten über Veränderungen des Schulabschlussniveaus und der gesamtwirtschaftlichen Produktion angewendet. Diese Verfahren werden beschrieben. Obwohl es eine sehr umfangreiche Literatur zu diesem Thema gibt, sind die Methoden willkürlich und die Ergebnisse sind fragil. In jüngster Zeit haben Ökonomen damit begonnen, den länderübergreifenden Zusammenhang zwischen Wirtschaftswachstumsraten und Einschulungsraten systematischer zu untersuchen. Dies könnte sich als fruchtbare Forschungsrichtung erweisen. Derzeit ist es noch zu früh, um mit Zuversicht über seine Schlussfolgerungen zu den Auswirkungen der Bildung auf das Wachstum zu berichten. Diese Forschung ist skizziert. Ein anderer Ansatz nutzt Beobachtungen auf der Ebene einzelner Branchen, um den Zusammenhang zwischen dem Bildungsstand der Arbeitnehmer und dem Produktivitätswachstum zu messen. Diese Forschung bestätigt die Vorstellung, dass Bildung einen positiven Beitrag zum Wirtschaftswachstum leistet, konnte diesen Beitrag jedoch nicht genau quantifizieren. Die Gründe dafür werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-8167-7_3 0728d1b94339002d81cded3e767285f6;de;;;1.3.;;;Nutzung innovativer Computerausbildung durch Studentenvereinigungen Die Computerausbildung steht vor neuen Herausforderungen für die aufkommenden neuen Technologien wie Multi-Core/Many-Core-Technologie. Übung ist eine Möglichkeit, dieses Problem zu lösen. Die Praxis ist im Kurs jedoch eingeschränkt. Es sollten andere Möglichkeiten für die Praxis der Studierenden geschaffen werden. In diesem Beitrag wird ein neuartiger Ansatz beschrieben, um innovative Computerausbildung durch Studentenvereinigungen zu nutzen. Die Schüler organisieren sich in einer Vielzahl von Vereinen, in denen sie unter Anleitung von Lehrern spontan verschiedene Aktivitäten durchführen. Sie engagieren sich aktiver in der Praxis und ergreifen die Initiative, um neue Inhalte zu lernen. Unsere Untersuchung zeigt auch, dass Studierende eine hohe Akzeptanz gegenüber solchen Verbänden haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_39 078edb05fdfb4146698cb09f4098e5f6;de;;;1.3.;;;Klinische und elektromyographische Effekte des Biofeedback-Trainings bei Unterkieferdysfunktion Zwanzig Patienten mit Unterkieferdysfunktion, 10 akute und 10 chronische, wurden mit elektromyographischem Biofeedback von entweder m. Masseter oder m. frontalis-Bereich. Die elektromyographische Aktivität in beiden Muskelbereichen wurde während sechs Trainingseinheiten aufgezeichnet. Die mittlere elektromyographische Aktivität nahm innerhalb der Sitzungen für beide Muskelbereiche signifikant ab, für die m. Masseter-Bereich. Die Aktivität nahm zwischen den Sitzungen für keinen Muskelbereich signifikant ab. Die klinischen und subjektiven Symptome der Unterkieferdysfunktion verbesserten sich nach dem Training signifikant. Keine Unterschiede, elektromyographisch oder klinisch, zwischen akuten, chronischen, m. Masseter-Bereich, oder m. Frontalis-Area-Feedback-Patienten konnten beobachtet werden. Es konnte keine Korrelation zwischen der Abnahme der elektromyographischen Aktivität und den Symptomen festgestellt werden. Da ein vereinfachtes neuromuskuläres Lernmodell für das Biofeedback-Training von diesen Ergebnissen wenig gestützt wird, werden alternative Sichtweisen diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF00998844 acd3ff50b607ec717fa58e21c360f661;de;;;1.3.;;;Die Beziehung zwischen Gap-Diskriminierung und Hörstrom-Segregation Lückenunterscheidung und Stromtrennung wurden unter Verwendung von Sequenzen von 2, 4, 8 oder 16 Tönen untersucht. Die Frequenzunterschiede zwischen den Tönen reichten von 1/24 bis 2 1/2 Oktaven. Beurteilungen der Bachsegregation zeigen eine große intersubjektive Variabilität, während die Gap-Schwellenwerte vergleichsweise stabil sind. Gap-Schwellenwerte und Streaming-Beurteilungen werden beide durch die Frequenztrennung zwischen den Tönen beeinflusst. Von der Darstellungsrate sind jedoch nur Streaming-Urteile betroffen. Gap-Threshold-Funktionen zeigen bei zunehmenden Frequenzunterschieden und schnelleren Darstellungsraten keine Diskontinuitäten oder Plateaus. Diese Ergebnisse legen nahe, dass die Stream-Segregation kein primärer Faktor ist, der die Lückendiskriminierungsleistung in tonalen Sequenzen begrenzt.;-;-;-;https://link.springer.com/article/10.3758/BF03204859 aa77454551ccbe8136b9931a6291cad1;de;;;1.1.;;;Informationsmanagement von bewegten Objekten: Die Datenbankherausforderung Die Miniaturisierung von Computergeräten und Fortschritte in der drahtlosen Kommunikation und Sensortechnologie sind einige der Kräfte, die Computer vom stationären Desktop auf den mobilen Außenbereich übertragen. Einige wichtige Klassen neuer Anwendungen, die durch diese revolutionäre Entwicklung ermöglicht werden, umfassen standortbasierte Dienste, touristische Dienste, mobiler elektronischer Handel und digitale Schlachtfelder. Einige bestehende Anwendungsklassen, die von der Entwicklung profitieren werden, umfassen Transport- und Flugsicherung, Wettervorhersage, Notfallmaßnahmen, mobiles Ressourcenmanagement und mobile Arbeitskräfte. Location Management, also die Verwaltung von transienten Standortinformationen, ist eine Basistechnologie für all diese Anwendungen. Das Standortmanagement ist auch ein grundlegender Bestandteil anderer Technologien wie Fly-Through-Visualisierung, Kontextbewusstsein, Augmented Reality, Mobilfunkkommunikation und dynamische Ressourcenerkennung.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45431-4_7 37c318d5e9e0c70f5760641613f838b5;de;;;1.3.;;;Empfindlichkeit gegenüber Ereignis-Timing in regelmäßigen und unregelmäßigen Sequenzen: Einflüsse des musikalischen Könnens In zwei Experimenten wurde die Leistung von Hörern mit unterschiedlicher musikalischer Ausbildung (hohe Fähigkeiten, geringe Fähigkeiten) in einer zwei-alternativen Forced-Choice-Zeiterfassungsaufgabe mit einfachen fünftaktigen akustischen Sequenzen untersucht. In jedem einer Versuchsreihe bestimmten alle Hörer, welcher von zwei Musterzyklen eine kleine Zeitänderung enthielt. Der Sequenzkontext wurde ebenfalls variiert (regelmäßiges vs. unregelmäßiges Timing). In Experiment 1, in dem der Kontext als Variable zwischen den Probanden manipuliert wurde, schnitten hochqualifizierte Hörer nur mit regelmäßigen Mustern signifikant besser ab als geringqualifizierte Hörer. In Experiment 2, in dem der Kontext als Variable innerhalb des Subjekts manipuliert wurde, war die einzige signifikante Varianzquelle der Musterkontext: Alle Zuhörer waren besser darin, Zeitänderungen in regelmäßigen als in unregelmäßigen Mustern zu erkennen. Die Ergebnisse werden im Lichte mehrerer Hypothesen betrachtet, einschließlich des Erwartungs-/Kontrastmodells (Jones & Boltz, 1989).;-;-;-;https://link.springer.com/article/10.3758/BF03206737 5baabeac1412278ffcc93e5b43e19a45;de;;;1.1.;;;Informationsmanagementsystem für ein Verwaltungsbüro mit RFID-getaggten klassifizierten Dokumenten Der Beitrag stellt die Systemarchitektur für das mit RFID ausgestattete Verwaltungsbüro mit eingeschränktem Zugang vor. Alle Einrichtungen der Verwaltung sind mit RFID-Lesegeräten ausgestattet, die in Schränken, Schreibtischen, Kopierern und Eingangsschleusen platziert sind, um in Reichweite befindliche Dokumente sofort lesen zu können. Die vorgestellten Hard- und Softwarekomponenten sowie Geschäfts- und Simulationsmodelle sind das Ergebnis analytischer Arbeiten der Expertengruppe. Das Team setzte sich aus Spezialisten unterschiedlicher Fachgebiete wie Dokumentenmanagement, IT, Datensicherheit, Radio Frequency Identification etc. zusammen. Neben den Hard- und Softwarearchitekturen wird auch ein Ansatz zur Systembewertung auf Basis von Computersimulation vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-34706-2_3 3953794b8e3175799aa6a8e00d1e0efd;de;;;1.3.;;;Zur Entwicklung des Ingenieurmanagements und der Ausbildung dieses Personals in diesem Bereich Engineering Management ist eine neue Disziplin mit viel Entwicklungspotenzial. Dieser Major zielt darauf ab, fortschrittliches Managementpersonal mit Vielseitigkeit zu produzieren. Die Mitgliedschaft unseres Landes in der WTO hat einen höheren Bedarf an solchem ​​Personal geschaffen. In diesem Beitrag werden die Charakteristika des Ingenieurmanagements, die aktuelle Situation dieser Disziplin und die bisher ungelösten Probleme und auf dieser Grundlage die Lösungen und Strategien zur Bewältigung der Probleme diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27503-6_78 7a880f906785226422788f15b0f7582c;de;;;1.3.;;;Gedanken zur Reform der aktuellen, auf Web basierenden Lehrplangestaltung In diesem Beitrag werden die Erfahrungen und Erkenntnisse aus den Lehrangeboten der Berufsbildung analysiert, die Probleme der Curriculumsgestaltung aufgezeigt und einige Anregungen und Maßnahmen zur Curriculumsgestaltung der Berufsbildung vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23339-5_46 82704a15c535ce0974ce5b69eb23ef64;de;;;1.1.;;;Ontologie-basiertes Informationsmanagement: Nutzung der Benutzerperspektive in der Filmindustrie In vielen Branchen können Praktiker mit unterschiedlichen Aufgaben die gleiche Frage stellen, auf die sie sehr unterschiedliche Antworten erwarten. Die Antworten müssen aus ihrer Perspektive formuliert werden, wobei die Perspektive auf ihrer Rolle innerhalb der Branche basiert. Wir stellen eine Methode zur Bestimmung der Perspektive eines Agenten im Kontext der Filmindustrie aus der Untersuchung einer Domänenontologie vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13654-2_31 8c4a14bc275f5d4ec78dc08e046e636a;de;;;1.3.;;;Einsatz und Validierung von Luftultraschall als taktile Schnittstelle in medizinischen Trainingssimulatoren Wir haben ein System namens UltraSendo entwickelt, das ein Kraftfeld im Raum erzeugt, indem ein Array von Ultraschallwandlern verwendet wird, die zusammen Ultraschallwellen zu einem Brennpunkt emittieren. UltraSendo ist die erste Anwendung dieser Technologie im Kontext medizinischer Trainingssimulatoren. In einem Katheterlabor in einem großen regionalen Krankenhaus wurde eine Gesichtsvalidierungsstudie durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12057-7_4 33d26131573f9407d4d053e19531e07b;de;;;1.3.;;;Leistungsvergleich von Trainingsansätzen neuronaler Netze in der indirekten adaptiven Steuerung Dieses Papier schlägt ein indirektes adaptives Steuerungsverfahren vor, das neuronale Netze (NN) verwendet, basierend auf variablen Lernraten (VLRs) kombiniert mit Taylor-Entwicklung (TD) für nichtlineare Systeme. In der vorgeschlagenen Steuerungsarchitektur werden zwei neuronale Netzwerkblöcke sowohl als Identifizierer als auch als Controller verwendet. Der Spurfehler bzw. der Identifikationsfehler werden verwendet, um den neuronalen Controller und das neuronale Modell zu trainieren. Die NN-Kennung approximiert dynamische Systeme und liefert dem NN-Controller Informationen über die Systemempfindlichkeit. Die Gradienten-Abstiegs-Methode unter Verwendung einer entwickelten variablen Lernrate wird mit der Taylor-Entwicklung gemischt und angewendet, um alle Gewichte des NN zu trainieren. Die NN TD-VLRs werden verwendet, um die Konvergenz des vorgeschlagenen Steuersystems zu gewährleisten. Die Wirksamkeit des vorgeschlagenen Algorithmus, angewendet auf ein Beispiel nichtlinearer dynamischer Systeme, wird durch Simulationsexperimente demonstriert. Die Simulationsergebnisse zeigen, dass die Anwendung des gemischten vorgeschlagenen Verfahrens die kleinste MSE und die optimale Zeitsimulation gewährleistet. Darüber hinaus ist der Controller des neuronalen Netzes unempfindlich gegenüber Variationen der Systemparameter.;-;-;-;https://link.springer.com/article/10.1007/s12555-017-0085-3 dfe13b6094476f1668892d8897a8a751;de;;;1.3.;;;Auditorische Brain-Computer-Interfaces (BCIs) und ihre praktischen Anwendungen Brain-Computer-Interfaces (BCIs) können Patienten mit schweren neuromuskulären Erkrankungen wie der amyotrophen Lateralsklerose einen Kommunikationsweg bieten. Die meisten aktuellen BCI-Systeme verlassen sich auf die verbleibende Sehfunktion von Individuen, jedoch können Patienten mit schweren neuromuskulären Erkrankungen die Fähigkeit verlieren, auf visuelle Ziele zu schauen oder den Blick beizubehalten. Daher wurden vor kurzem auditive BCI-Paradigmen als eine der alternativen BCI-Modalitäten untersucht. Dieser Artikel gibt einen kurzen Überblick über mehrere Studien, die sich auf auditive BCI-Paradigmen konzentrieren, und diskutiert ihre Perspektiven in Bezug auf praktische Anwendungen.;-;-;-;https://link.springer.com/article/10.1007/s13534-012-0051-1 531343bc8a4a8d3b7b554f193613299f;de;;;1.3.;;;Training und Fettsäurenstoffwechsel Ältere Studien am Menschen scheinen eine Korrelation zwischen dem Plasmaumsatz und der Oxidation von langkettigen Fettsäuren (LCFA) einerseits und der Plasma-LCFA-Konzentration andererseits bei submaximalem Training nahe zu legen. Neuere Studien beim Menschen, in denen bei längerer submaximaler Belastung höhere Plasma-LCFA-Konzentrationen erreicht wurden, haben jedoch trotz steigender Plasma-LCFA-Konzentrationen eine Abflachung der Nettoaufnahme gezeigt. Darüber hinaus wurde diese Beziehung zwischen der Plasma-LCFA-Konzentration und der Plasma-LCFA-Aufnahme und -Oxidation durch Ausdauertraining so verändert, dass im trainierten Zustand kein Ausgleichen sichtbar war. Diese neueren Erkenntnisse beim Menschen stützen die Annahme anderer Zelltypen, dass der Transport von Fettsäuren aus dem Gefäßkompartiment in den zytosolischen Raum der Muskelzelle nicht nur durch einfache Diffusion, sondern überwiegend durch Träger vermittelt wird. Während längerer submaximaler Kniestreckübungen wurde gezeigt, dass die Gesamtoxidation von LCFA bei trainierten im Vergleich zu nicht trainierten Probanden um ca. 60 % höher war. Die trainingsinduzierten Anpassungen, die für diese erhöhte Verwertung von Plasmafettsäuren durch den Muskel verantwortlich sind, könnten an mehreren Schritten von der Mobilisierung der Fettsäuren bis zum Skelettmuskelstoffwechsel in den Mitochondrien angesiedelt sein. Inwieweit Triacylglycerol, das sich in der Muskelzelle befindet, zur gesamten Lipidverwertung während des Trainings beiträgt, ist noch nicht klar. Aufgrund der Unterschätzung des Beitrags von Plasma-LCFA und Fettsäuren, die aus den zirkulierenden VLDL-Triacyl-Glycerolen freigesetzt werden, zur gesamten Fettsäureoxidation während des Trainings wird jedoch zunehmend verstanden, dass Muskel-Triacylglycerol beim Menschen in geringerem Maße als Treibstoff während des Trainings beiträgt als meistens angegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-1928-1_21 c8d13a391bab471e645319118152c830;de;;;1.3.;;;Erkennung metrischer Strukturen in auditiven Figurenmustern Diese Versuchsreihe befasste sich mit der Unterscheidung zwischen zwei zeitlichen Mustern, die sich nur durch das Einfügen einer zusätzlichen stillen Lücke unterscheiden. In Experiment 1 variierten die Muster in metrischer und figuraler Struktur. Die metrische Struktur wird als das Gefühl zeitlicher Regelmäßigkeit beschrieben, das zwischen subjektiv akzentuierten Tönen auftreten kann. Die figurale Struktur wird als die Gruppierung von zeitlich benachbarten Tönen beschrieben, die durch Stille getrennt sind. Standardmuster waren entweder stark oder schwach metrisch, Vergleichsmuster unterschieden sich von den Standards durch das Einfügen einer Stille, die entweder nur die metrische Struktur oder sowohl die metrische als auch die figurale Struktur störte. Experiment 1 unterstützte die Rolle sowohl metrischer als auch figuraler Strukturen und unterstützte das Taktinduktionsmodell von Povel und Essens (1985) als Darstellung der metrischen Verarbeitung. In den Experimenten 2–4 wurde die Unterscheidung von Mustern mit unterschiedlichen metrischen Strukturen aber identischen figuralen Strukturen genauer untersucht. Die Geschwindigkeit der Präsentation der Muster wurde variiert. Die multiple Regression zeigte, dass sich die Diskriminierung unabhängig von Ratenschwankungen mit zunehmender absoluter (nicht relativer) Dauer der stillen Lücke verbesserte. Wir argumentieren, dass bei der zeitlichen Musterunterscheidung ein zusätzlicher Timing-Mechanismus unabhängig von der Musterstruktur wirksam ist. Alle Ergebnisse wurden über die Niveaus des Musiktrainings der Hörer repliziert.;-;-;-;https://link.springer.com/article/10.3758/BF03196795 30644e16ebe62829bd579510d489a9a6;de;;;1.3.;;;Abschwächung des Hawthorne-Effekts durch Computersimulationen Die Hawthorne-Studien von Roethlisberger und Dickson (1939), die das Verhalten am Arbeitsplatz untersuchten, haben eine konsistente Präsenz in der sozialwissenschaftlichen und pädagogischen Forschungsliteratur (Chiesa & Hobbs, 2008). Der Hawthorne-Effekt wurde oft in sozialen Experimenten festgestellt, die beschreiben, dass Teilnehmer ihr Verhalten während der Untersuchung ändern, weil sie wissen, dass sie untersucht werden (G. Payne & J. Payne, 2004). Dieses Kapitel untersucht die Verwendung des Hawthorne-Effekts in der Literatur und beinhaltet die Möglichkeit, den Hawthorne-Effekt durch eine Untersuchung einer Computersimulation mit eingebetteten leistungsbasierten Bewertungen zu mildern. Die Antworten der Teilnehmer über die Auswirkung der Simulation auf ihre Antworten leiteten diese Untersuchung im Hawthorne-Effekt ein. Die Erkenntnisse und Implikationen befassen sich mit den anwendbaren Anwendungen von Computersimulationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-6091-329-7_11 b37e02ea52e4ea8a2d0af8613ea93c87;de;;;1.3.;;;Schätzung des Verschlechterungsniveaus über ein neuronales Netzwerk, das die kategoriebasierte ordinal überwachte kanonische Korrelation mit mehreren Ansichten maximiert In diesem Beitrag wird ein Verfahren zur Schätzung des Verschlechterungsniveaus über ein neuronales Netzwerk vorgestellt, das die kategoriebasierte ordinal überwachte kanonische Korrelation mit mehreren Ansichten maximiert. Dieses Papier konzentriert sich auf reale Daten wie industrielle Anwendungen und enthält zwei Beiträge. Erstens wandelt ein neuartiges neuronales Netz, das multimodale Merkmale handhabt, ursprüngliche Merkmale in Merkmale um, die effektiv Verschlechterungsniveaus in Sendemasten darstellen, die eine der Infrastrukturen sind, wobei nur die Korrelationsmaximierung berücksichtigt wird. Dies kann realisiert werden, indem Projektionsmatrizen festgelegt werden, die die Korrelationen zwischen mehreren Merkmalen in Gewichten von verborgenen Schichten maximieren. Das heißt, da das vorgeschlagene Netzwerk nur wenige versteckte Schichten hat, kann es aus einer kleinen Menge von Trainingsdaten trainiert werden. Zweitens leitet die vorgeschlagene Methode eine kategoriebasierte ordinal überwachte kanonische Korrelationsanalyse mit mehreren Ansichten (Co-sMVCCA) ab, da es verschiedene Merkmale und eine ordinale Skala der Verschlechterungsgrade gibt. Co-sMVCCA ermöglicht die Schätzung der effektiven Projektion unter Berücksichtigung sowohl der Divergenz innerhalb der Klasse als auch der Ordinalskala zwischen den Klassen. Experimentelle Ergebnisse zeigten, dass das vorgeschlagene Verfahren eine genaue Schätzung des Verschlechterungsniveaus realisiert.;-;-;-;https://link.springer.com/article/10.1007/s11042-020-10040-2 e5271cce32b8e7d80fae48db667d26ff;de;;;1.3.;;;Eine agile Methode zur Entwicklung von OERs und deren Anwendung im Serious Game Design Interaktive Bildungsressourcen können eine virtuelle Umgebung fördern, die es ihren Benutzern ermöglicht, Wissen zu erwerben, Fähigkeiten zu trainieren und ständig Feedback zu erhalten. Damit eine Bildungsressource jedoch effektiv ist, sollte ihre Entwicklung systematisch und multidisziplinär erfolgen. Es wurden verschiedene Methoden vorgeschlagen, um die Entwicklung von Bildungsressourcen zu unterstützen. Sie beschreiben jedoch nicht den gesamten Lebenszyklus, einschließlich der vielfältigen Anforderungen wie Lernziele und Inhaltsdefinition, Leistungsbewertung der Lernenden, Nichtlinearität, Schülerengagement und kontinuierliches Feedback. Dieses Papier beschreibt einen Überblick über die AIMED-Methode, eine agile, integrative und offene Methode zur Entwicklung von Bildungsressourcen, auf ganzheitliche und multidisziplinäre Weise. Es integriert die Bereiche Simulationsmodellierung, Game Design, Instructional Design, Prinzipien agiler Entwicklungsmethoden, Projektmanagement und Content Domain. AIMED basiert auf der Integration der DevJSTA-Methodik zur Erstellung von Serious Games und der AM-OER-Methode zur Entwicklung offener Bildungsressourcen. Eine Machbarkeitsstudie wurde mit einer ernsthaften Spielentwicklung durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-97934-2_12 0b4fb6f5e9f5cd6ee724a0cbc31703e0;de;;;1.3.;;;Analyse der Bereitschaft von Landwirten zur Teilnahme an Qualifizierungsmaßnahmen für außerbetriebliche Beschäftigung und deren Faktoren ——Der Fall der Stadt Ya'an, Provinz Sichuan, China Dieses Papier nimmt Landwirte mit Transferneigung zum Studium. Basierend auf der Analyse deskriptiver Statistiken von Daten, die von Autoren im Jahr 2007 erhoben wurden, gehen wir davon aus, dass die Bereitschaft der Landwirte zur Teilnahme an Qualifizierungsmaßnahmen für außerbetriebliche Beschäftigung (STOE) als abhängige Variable gilt. Acht unabhängige Variablen wurden aus drei Gruppen ausgewählt und die Faktoren der Bereitschaft der Landwirte, sich an STOE anzuschließen, durch ein binär-logistisches Modell analysiert. Das Ergebnis zeigt, dass die Nachfragepräferenz der Ausbildungsgruppe, einschließlich Ausbildungszeit, Nachfrage nach Ausbildungsinformationen, Ausbildungsplatz und Anteil der Ausbildungskosten, sowie das Alter einen bemerkenswerten Einfluss auf die STOE haben. Darüber hinaus haben Geschlecht, Bildungsniveau und die Zahl der Hausarbeit wenig Einfluss auf STOE. Es zeigt, dass das Laufmodell von STOE einen starken Einfluss auf die Entscheidung der Landwirte hat, ihr beizutreten. Schließlich schlug sie einige Vorschläge zur Verbesserung der Effizienz von STOE vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16336-4_4 75c8c691c2e1a6d3b6c5efc27113e146;de;;;1.3.;;;Internationale Entrepreneurship-Ausbildung: Hindernisse versus Unterstützungsmechanismen für MINT-Studenten Frühere Forschungen zu Entrepreneurship Education (EE), die sich speziell an Studenten aus den Bereichen Naturwissenschaften und Technologie richteten, waren sehr spärlich. Diese Forschung zielt darauf ab, zu analysieren, wie Hochschulen (HEIs) EE-Programme entwickeln, sowie zu diskutieren, wie die Hindernisse für EE von MINT-Studenten (Naturwissenschaften, Technologie, Ingenieurwesen und Mathematik) wahrgenommen werden. Das Papier basiert auf einem internationalen Ausbildungsprojekt, SCIENT, das darauf abzielt, den Unternehmergeist junger Wissenschaftler mit Fokus auf den Lean-Start-up-Ansatz zu fördern. Die Daten wurden durch Fragebögen an MINT-Studenten in einigen europäischen Ländern erhoben. Die Ergebnisse zeigen, dass Hochschulen verschiedene Arten von Aktivitäten und auf unterschiedliche Weise durchführen, um den Unternehmergeist bei MINT-Absolventen und -Studenten zu fördern. Als Hemmnisse für Unternehmensgründungen wurden die mit hohen Patentkosten verbundenen Schwierigkeiten bei der Erlangung finanzieller Unterstützung hervorgehoben. Staatliche und private Investoren sollten finanzielle Unterstützungsinstrumente entwickeln, um diesen potenziellen Unternehmern zu helfen.;-;-;-;https://link.springer.com/article/10.1007/s10843-020-00274-4 4c8605af1d13e41456905b9c5783afb8;de;;;1.3.;;;IL-2-Stimulation regulatorischer T-Zellen: ein stochastischer und algorithmischer Ansatz Regulatorische T-Zellen exprimieren IL-2-Rezeptor (IL-2R)-Komplexe auf ihrer Oberfläche, produzieren jedoch keine IL-2-Moleküle. Das Überleben einer Population regulatorischer T-Zellen hängt von der Produktion von IL-2 durch andere Zellen ab, wie beispielsweise Effektor-T-Zellen. Wir formulieren eine stochastische Version des Modells von Busse (Dynamics of the IL-2 cytokine network and T-cell proliferation, Logos, Berlin, 2010, [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-45833-5_4 7cc6a98570726975f695f90802f77f51;de;;;1.3.;;;Elektrophysiologische neuromuskuläre systemische Eigenschaften von Sportlern im Krafttraining Diese Studie basiert auf der Analyse elektrophysiologischer Eigenschaften, die das neuromuskuläre System von Sportlern während ihrer Trainingseinheiten in Abhängigkeit von ihrer Spezialisierung und ihrem sportlichen Niveau beschreiben. Es hat sich gezeigt, dass sich die physiologischen Veränderungen, die ein perfektes Krafttraining bei Gewichthebersportlern sichern, hauptsächlich im peripheren Teil ihres neuromuskulären Systems, nämlich auf der Ebene der Muskeln selbst und der neuromuskulären Verbindungen, konzentrieren und sich in den Eigenschaften des Elektromyogramms als willkürliche Bewegungen widerspiegeln und M Antwortparameter. Gleichzeitig berühren physiologische Umlagerungen bei Kampfsportlern die peripheren Mechanismen und die zentrale Komponente in der Regulation der motorischen Aktivität und spiegeln sich in den Parametern der visuell und somatosensorisch evozierten Hirnpotentiale wider. Die Ergebnisse offenbaren eine ganze Reihe neuer wichtiger Ansätze zur Funktionsweise verschiedener Kompartimente des Nervensystems und des neuromuskulären Apparats bei Sportlern unterschiedlicher Spezialisierung. Sie können als Grundlage für die Entwicklung praktischer Empfehlungen zur Organisation der sportfachlichen Auswahl in verschiedenen Stadien der sportlichen Perfektion sowie zur physiologischen Unterstützung des Trainingsprozesses und der Methoden der Betriebssteuerung dienen.;-;-;-;https://link.springer.com/article/10.1134/S0362119716030099 92b147a10ca194a7e055b28c0e818152;de;;;1.1.;;;Informationsmanagement zur intelligenten Überwachung hybrider Prozesssteuerung Die Hauptziele beim Design des Hybrid Process Intelligent Supervision Systems (HPISS) sind die Überwachung der hybriden (dh diskreten, kontinuierlichen und symbolischen) Prozesssteuerung, das strukturierte Informationsmanagement zwischen seinen verschiedenen Komponenten und seine Integration in die Prozesssteuerung und andere CIM-Aktivitäten. Das HPISS unterstützt den Supervisor im Normalbetrieb und in Notsituationen. Im Normalbetrieb unterstützt das Überwachungssystem das Management der Produktionsziele und die Überwachung der Prozesssteuerung. Sowohl die Notfallanalyse als auch die Entscheidungsunterstützung unterstützen den Vorgesetzten in Notsituationen. Dieses Papier beschreibt das Design von HPISS als Multi-Agenten-System mit Schwerpunkt auf der gemeinsamen Nutzung und dem Austausch von Informationen zwischen den Agenten unter Verwendung der PEER föderierten Integrationsarchitektur. Als Anwendungsbeispiel wird im Beitrag die Überwachung eines Wasserkraftwerks beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35065-3_11 41225c0433a367b717f15d95236e67b5;de;;;1.1.;;;Überbrückung der digitalen Lücke im wissenschaftlichen Schreiben und Informationsmanagement: Der Fall der Geisteswissenschaftler Akademisches Schreiben ist eine Fähigkeit, die an modernen Universitäten immer mehr Aufmerksamkeit erregt. Indem wir Studenten, insbesondere Studenten der Geisteswissenschaften, Schreibfähigkeiten beibringen, können wir die Nachteile der heutigen informationsüberladenen Umgebung ausgleichen, kritisches Denken, klare Gedanken und die Fähigkeit zur kreativen Auseinandersetzung mit Textmaterial entwickeln. Dieser Artikel basiert auf den Erfahrungen bei der Entwicklung und Lehre eines Master-Kurses, der sich speziell auf das Notizen als Teil des wissenschaftlichen Schreibens konzentriert und digitale und analoge Werkzeuge kombiniert, um den Studierenden effizientere Fähigkeiten zum Aufzeichnen und zum Informationsmanagement zu vermitteln. Die mit quantitativen und qualitativen Methoden gesammelten Daten helfen, die Notizen- und Schreibpraktiken der Schüler zu erläutern und die Bereiche hervorzuheben, die weiterer Aufmerksamkeit bedürfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37858-5_45 0f3396e5883517520bd0e476f7aa1bd0;de;;;1.1.;;;Informationsmanagementsystem für Kompetenztraining basierend auf der B/S-Struktur Der Artikel weist darauf hin, dass das Skill Training auf der Verwendung der Struktur von B/S basiert und die professionelle Technologieschule als Ziel der Analyse verwendet, es analysiert das Prinzip der Gestaltung des Managementsystems. Durch die Analyse der Hardware der heutigen professionellen Technologieschulsysteme und die Auswahl der Modelle der Software können wir die Leitideologie der Entwicklung des Systems erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31698-2_104 116afde054b361ca411b5449e24fa1b9;de;;;1.1.;;;Informationsmanagement und CAD/CAM – Die neue Herausforderung Das Ausstattungsangebot der jeweiligen Hersteller und die installierten Pilotprojekte der verschiedenen Anwender lassen erkennen, dass der aktuelle technische Wandel durch die Mikroelektronik von einer neuen Qualität geprägt sein wird: Wenn einzelne Funktionen bisher in individuellen Lösungen einer flexiblen Mechanisierung zugänglich waren, dann a Prozess der Integration von Funktionen, Technologien und Geräten steht derzeit in Produktion und Verwaltung am Anfang. Beispielsweise kommen Testsysteme in der Verwaltung, Konstruktionssysteme im Ingenieurbüro und computergesteuerte Werkzeugmaschinen und Industrieroboter in der Werkstatt zum Einsatz. Bisher handelt es sich jedoch meist um Insellösungen, bei denen für die verschiedenen Aktivitäten separate Informations- und Kommunikationsmittel genutzt werden. Erst die Verkettung, also die Integration der unterschiedlichen Systeme, bietet die Möglichkeit zur Effizienzsteigerung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82580-4_2 9ddeedb1199e86c22b9523af38e86c6d;de;;;1.1.;;;Video-Informations-Management-System für die informationsgesteuerte Neurochirurgie Da die Grenze zwischen Glioblastom und normalem Gewebe unklar ist, ist eine präzise Resektion erforderlich, um das Risiko postoperativer unerwünschter Ereignisse wie Aphasie zu reduzieren und die Restlebensdauer des Patienten durch vollständige Resektion der Tumorregion zu verlängern. Chirurgen verwenden verschiedene Informationen wie präoperative und intraoperative Bilder, chirurgische Navigation, pathologische Bilder usw., um die Resektionslinie zu bestimmen. Im herkömmlichen Operationssaal werden Informationen verteilt. In dieser Studie wurde ein Videoinformationsintegrationssystem unter Verwendung eines dedizierten Hardware-Videomischers implementiert. Bei der klinischen Bewertung wurde ein voreingestelltes Fensterlayout einfach per Knopfdruck ausgewählt, und es wurden weder Verzögerungen noch Rauschen beobachtet. In der zukünftigen Studie werden wir je nach Operationsszenario ein automatisches Layoutwechselsystem implementieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-54094-6_9 1abcb3c718425cccfe9a05313f8a03f1;de;;;1.3.;;;Mathematical Modeling Education ist die wichtigste Bildungsschnittstelle zwischen Mathematik und Industrie Mathematische Modellierung ist die wichtigste Schnittstelle zwischen Mathematik und Industrie. Mathematical Modeling Education ist die wichtigste Bildungsschnittstelle zwischen Mathematik und Industrie. Chinas Bemühungen zur Stärkung der mathematischen Modellbildung in Bildung und Forschung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-02270-3_5 a56e2030a0c3601dd4f98b2056177c81;de;;;1.3.;;;Rechtliche und ethische Fragen in der Disziplin emotional gestörter Kinder Ziel dieses Kapitels ist es, einen Überblick über ausgewählte rechtliche und ethische Fragen des Disziplinarverfahrens bei emotional gestörten Kindern zu geben. Der Schwerpunkt liegt auf öffentlichen Schulen und anderen institutionellen Einrichtungen, in denen Kinder Bildungsleistungen nach dem öffentlichen Recht 94–142 erhalten. Es wird anerkannt, dass Probleme der Vertraulichkeit von Informationen, die Akzeptanz der Einstufung der Schule und die Definition des am wenigsten einschränkenden Umfelds durch die Eltern und das Recht der Eltern, alle Informationen über ihre Kinder zu erfahren, ethische und rechtliche Fragen beinhalten. Diese Probleme wurden jedoch in der Literatur zur Kindervertretung ausführlich behandelt und werden daher hier nicht diskutiert (Hyman und Schreiber, 1975, Mearig, 1978). Von größerer Bedeutung für die Autoren sind die alltäglichen Probleme, denen sich Pädagogen und Kliniker im Umgang mit emotional gestörten Kindern gegenübersehen, die ein maladaptives Verhalten zeigen, das sich selbst und anderen Schwierigkeiten bereitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-6329-3_3 8e228628cab210e99e3a2d56b9fafc58;de;;;1.3.;;;Was können MINT-Bildungssysteme in der Welt aus dem israelischen Fall lernen? Dieser Brief veranschaulicht die Anwendung eines vollständigen Risikomanagementprozesses für ein Bildungssystem – MINT-Bildung in Israel. Wir hoffen, dass diese Beschreibung die Eignung von Risikomanagementprozessen auch für die Bildungsorganisation veranschaulicht. In diesem Kapitel schlagen wir konzeptionelle Ideen vor, die hinter dem methodischen Risikomanagementprozess standen, den wir in unserer Studie angewendet haben. Wir hoffen, dass diese Richtlinien auch für andere Nationen nützlich sein werden, die in letzter Zeit die Bedeutung der MINT-Ausbildung als Grundwissen für alle ihre K-12-Absolventen erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-51984-5_7 a6758e860e682ff815441d44c6b69e52;de;;;1.1.;;;Indoor-Navigation für mobile Roboter unter Verwendung eines in die Umgebung eingebetteten lokalen Informationsverwaltungsgeräts und eines optischen Zeigers Das Papier diskutiert eine neue Hybridnavigationsstrategie für mobile Roboter, die in Innenräumen arbeiten, unter Verwendung des Information Assistant (IA) Systems und des Optical Pointer (OP). Für die intelligente Navigation benötigen die Roboter statische und globale Informationen, die eine topologische Karte beschreiben, wie die Positionsbeziehung von einer beliebigen Startposition zu einer beliebigen Zielposition für die Erstellung eines Wegeplans sowie dynamische und lokale Informationen einschließlich lokaler Karte, Hindernisse, Verkehrsinformationen für die Navigation Steuerung. Wir schlagen eine Methode zur Verwaltung der Informationen vor. Der Roboter hat nur grobe Weginformationen zum Ziel, und die IAs, bei denen es sich um kleine Kommunikationsgeräte handelt, die in der Umgebung installiert sind, verwalten die realen Umgebungsinformationen lokal. Das OP dient zur Führung eines Roboters in Kreuzungen wie Kreuzungen, der über IA mit mobilen Robotern kommuniziert und deren Zielpositionen durch eine Lichtprojektion eines Laserpointers auf den Boden anzeigt. Der mobile Roboter lässt es zu und rennt dem Laserlichtfeuer hinterher und erreicht das Ziel. Mit diesen Systemen kann der Roboter effizient zum Ziel navigieren.;-;-;-;https://link.springer.com/chapter/10.1007/10991459_5 da2601bb18dda04b0e6b902362a0b230;de;;;1.1.;;;Der Einsatz von Computern für das Informationsmanagement in der Pflanzenzüchtung Es wird ein System beschrieben, das Computer verwendet, das viele der mit Pflanzenzüchtungsversuchen verbundenen Büroaufgaben minimiert. Ihre Funktionsweise und Ausgabelisten werden kurz vorgestellt. Die wichtigsten im System verwendeten Computerprogramme sind bei den Autoren erhältlich.;-;-;-;https://link.springer.com/article/10.1007/BF00039346 14a03e62346577e4d229c7c11222eef8;de;;;1.3.;;;Servicequalität im Long Tail: Narrative und die Nutzung weicher Metadaten Die unscharfen Bereiche des sozialen Lebens fallen in den Bereich der Informationswissenschaft. Im Folgenden wird eine Methode vorgestellt, die sich mit der Ausnahmebehandlung oder auch dem Long Tail befasst. Es basiert auf dem von Peirce inspirierten KiF-Modell. Aber diesmal geht es nicht darum, Abläufe zu beschreiben oder Ermittlungsprozesse zu modellieren, sondern sinnvolle Sensoren zu entwickeln, die gleichzeitig die Analyse des Problems strukturieren und den Zugriff auf eine mit Geschichten gefüllte Datenbank ermöglichen. Anwendungsbereich ist das niederländische Bildungssystem.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55355-4_3 7085308f7e3e79b3fb281722f9e48b89;de;;;1.3.;;;Das Recht zu lernen, das Recht zu lehren: Geistige und künstlerische Arbeit als Beruf Eine Frage von grundlegender Bedeutung für die Geschichte der Arbeit ist in allen Altersstufen und Gesellschaften die der Ausbildung. Das Kapitel untersucht den Zugang von Frauen zu Bildung im katholischen und protestantischen Europa und die Möglichkeiten, die Frauen als Lehrerinnen hatten. Die intellektuelle und künstlerische Arbeit als Frauenberuf wird anhand der Karrieren einiger Intellektueller und Künstlerinnen untersucht: Wissenschaftlerinnen, Schauspielerinnen, Sängerinnen, Journalistinnen, Malerinnen in verschiedenen europäischen Kontexten. Es gab bestimmte Zeitrahmen in diesem Prozess, die nicht immer den Mustern folgten, die uns offensichtlicher erscheinen würden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-96541-3_7 487ebe3445e0acaff39b905deaa56aa7;de;;;1.3.;;;Schwermetalle: ihr Weg vom Boden, Grundwasser und Quellen zum Góreckie-See (Polen) Im Nationalpark Wielkopolski (Mittelwesten Polens) wurden die Migrationswege von Schwermetallen untersucht, die aus einem früher landwirtschaftlich genutzten Gebiet stammen. Die beteiligten Schwermetalle (Cd, Cu, Cr, Pb, Ni und Zn) wurden im Grundwasser, den Quellen, die den Góreckie-See speisen, und im See selbst bestimmt. Um zu zeigen, wie die Schwermetalle freigesetzt werden können und wie ihre biologische Verfügbarkeit ist, wurden Boden- und Sedimentproben einer einstufigen Extraktion mit 0,01 M CaCl . unterzogen;-;-;-;https://link.springer.com/article/10.1007/s10661-011-2191-7 485fbe8e6fcca77c47bd6fe47b3fcb74;de;;;1.3.;;;E-Book-Reader-Anwendung, die von Befehlen gesteuert wird, die von einer Gehirn-Computer-Schnittstelle bereitgestellt werden, die auf dem Paradigma der motorischen Bildgebung basiert Um eine Computeranwendung zu implementieren, die von Befehlen gesteuert wird, die von einer Gehirn-Computer-Schnittstelle bereitgestellt werden, ist eine Änderung des Steuerungsansatzes erforderlich. In diesem Artikel diskutieren wir die Gehirnpotentiale, die in den Gehirn-Computer-Schnittstellen verwendet werden, im Hinblick auf ihre Nützlichkeit für die Steuerung verschiedener Arten von Anwendungen. Unser Hauptziel ist es, einen einfachen Steuerungsansatz basierend auf einer motorischen Bildstrategie vorzuschlagen und ein Beispiel für eine reale Computeranwendung (einen E-Book-Reader) zu präsentieren, die diesen Ansatz anwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-15147-2_9 969a73fbb1c0e29e4c0a8a76375b2d66;de;;;1.3.;;;Selbstkalibrierung und Bildwiedergabe mit RBF Neural Network Dieses Papier beschreibt einen neuen Ansatz für die Selbstkalibrierung und Farbbildwiedergabe unter Verwendung eines neuronalen Netzes mit radialer Basisfunktion (RBF). Die meisten empirischen Ansätze verwenden ein Kalibrierungsobjekt. Hier benötigen wir kein Kalibrierungsobjekt sowohl für die Formwiederherstellung als auch für die Farbbildwiedergabe. Die Trainingsdaten des neuronalen Netzes werden durch die Drehungen eines Zielobjekts erhalten. Der Ansatz kann realistische virtuelle Bilder ohne jedes Kalibrierungsobjekt erzeugen, das die gleichen Reflexionseigenschaften wie das Zielobjekt aufweist. Der vorgeschlagene Ansatz verwendet ein neuronales Netzwerk, um sowohl die Oberflächenorientierung als auch die Albedo zu erhalten, und wendet ein anderes neuronales Netzwerk an, um virtuelle Bilder für jeden Blickwinkel und jede Richtung der Lichtquelle zu erzeugen. Experimente mit realen Daten werden demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04592-9_87 87edc6f06b2f289072c2d4be3960f78b;de;;;1.3.;;;Auf pädagogischen Prinzipien basierende E-Learning-Exploration: Ein Fall von Baumediationstraining E-Learning dient Instituten zunehmend als grundlegende Infrastruktur, die es Lehrenden ermöglicht, Studierenden vielfältiges Wissen zu vermitteln und die Interaktion zwischen Lehrenden und Studierenden zu stärken. Bei der Umsetzung von e-Learning ist das Verständnis der zugrunde liegenden Pädagogik eine der wichtigsten Voraussetzungen. Die meisten E-Learning-Anbieter verstehen sich als reine Technologieanbieter. Sie informieren die Lernenden selten über die Auswahl von Lernmaterialien zum Lehren und Lernen. Der Lernpfad als Routine, die Lernende bei der Auswahl des geeigneten Lernmaterials anleitet, ist daher ein wichtiges Thema, wenn man bedenkt, dass sich ein einzelner Lernpfad nicht an alle Lernenden anpassen kann. Daher schlägt dieses Papier einen neuen pädagogischen prinzipienbasierten E-Learning-Rahmen vor, um maßgeschneiderte Lernpfade zu identifizieren. Basierend auf dem Framework wird ein Ausbildungssystem für Baumediation eingeführt. Das System hat einen solchen Lernpfad Pionierarbeit geleistet, um Lernende zu führen, an der bevorzugten Position zu beginnen und einen effizienten Verhandlungsaustausch zu ermöglichen, um eine „Win-Win“-Vereinbarung zu erzielen. Die experimentellen Ergebnisse belegen die Wirksamkeit des E-Learning-Systems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-71084-6_63 e3d7e6c2602635f1de8237f0b37a98ed;de;;;1.3.;;;Die inkrementelle Einführungsmethode für ein virtuelles Bildungsmodell Dieses Papier beschreibt die Anwendung der Virtual-Reality-Technologie zur Entwicklung eines Bildungsmodells im Zusammenhang mit dem Bau einer Brücke. Das Modell ermöglicht die Visualisierung des physischen Fortschritts der Arbeiten nach einem geplanten Bauablauf, die Beobachtung von Details der Form jedes Bauteils der Arbeiten und ermöglicht die Untersuchung der Art und Funktionsweise der beim Bau verwendeten Geräte. Das Modell ermöglicht die Interaktion und dann ein gewisses Maß an Zusammenarbeit zwischen Schülern und Lehrern bei der Analyse von Aspekten bezüglich geometrischer Formen, Arbeitsmethodik oder anderer technischer Probleme, die bei der Anwendung beobachtet werden. Das Modell bietet einen deutlichen Vorteil als Lehrmittel im Erststudium des Bauingenieurwesens.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04265-2_50 1b885bee82a4000b33e7a7c9d016aaf2;de;;;1.3.;;;Dem Ministerkomitee vorgelegte Fälle 1974 wurde das Ministerkomitee aufgefordert, gemäß Artikel 32 Absatz 1 der Konvention zu entscheiden, ob eine Konventionsverletzung in der;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-1200-8_7 d416b9529c603140cc2ae05bacdec10d;de;;;1.3.;;;Die Beziehung zwischen Sonnenschutz durch Erythem, Photoimmunsuppression und Photokarzinogenese bei der haarlosen Maus Trotz massiver Aufklärungskampagnen über die Risiken der Sonnenexposition und der leichten Verfügbarkeit von Sonnenschutzmitteln steigen die Inzidenzraten von Hautkrebs weltweit weiter an.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-10135-3_9 4a2af835d1fb9bc3a58ce37800fcdbc0;de;;;1.1.;;;Wie bereichere ich die Service-Begegnung? Empirische Einblicke in die Zusammenhänge zwischen Kundenleistung, Interaktionsqualität und Kundenzufriedenheit Als Koproduzenten von Wert tragen Kunden aktiv zur Leistungserstellung und -erbringung bei. Im Gegensatz zur Produktion von Sachgütern werden Dienstleistungen während des Konsums produziert. Folglich sind die Kunden als Teil des Service Delivery Systems an der Produktion der von ihnen erhaltenen Services beteiligt. In diesem Zusammenhang wird allgemein anerkannt, dass die Kundenbeteiligung den Serviceproduktionsprozess und damit die Zufriedenheit der Kunden mit dem Serviceergebnis beeinflusst. Gerade im Bereich Human Services beeinflusst die Kundenleistung die Qualität und Effektivität von Serviceprozessen enorm.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-18687-0_125 d31fab60a98d42c1f767683b25374036;de;;;1.1.;;;Ein Kontextinformationsmanagementsystem für kontextsensitive Dienste in Smart Home Umgebungen In den letzten Jahren wurden kontextsensitive Systeme untersucht, die eine Vielzahl von Kontexten ausnutzen, die in der Smart-Home-Umgebung erstellt wurden, um Benutzern Informationen und Dienste bereitzustellen. Bestehende kontextsensitive Systeme ermitteln den Zustand der Umgebung (Kontext) anhand isolierter Kontextdaten einzelner Geräte oder Sensoren. Darüber hinaus wurde wenig versucht, aus dem wahrgenommenen Kontext auf die Bedürfnisse oder Vorlieben der Bewohner zu schließen. Dieses Papier untersucht die Merkmale der Kontexterkennung basierend auf den Kontextinformationen, die in der Smart-Home-Umgebung erstellt wurden, und schlägt eine Möglichkeit vor, kontextbezogene Dienste unter Verwendung der Verhaltensmuster der Bewohner bereitzustellen. Das in diesem Beitrag vorgeschlagene Kontextinformationsmanagementsystem analysiert Kontextinformationen, um Muster, Konflikte und Fehler in einer Smart-Home-Umgebung zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-2598-0_16 05b080ab75fd035b5e2975a5f3f6cc38;de;;;1.1.;;;Multi-Device Information Management für die Echtzeitverarbeitung biomedizinischer Signale Dieses Papier schlägt einen ersten Ansatz für das Multi-Device-Informationsmanagement vor, der von einer Personal Intelligent Platform (PIP) für die umfassende Pflege entwickelt wurde. Diese Plattform muss die spezifischen Anforderungen erfüllen, die durch die verteilte Echtzeitverarbeitung der erfassten Daten von biomedizinischen intelligenten Sensoren, die der überwachte Benutzer mit sich führt, gestellt werden. Das analysierte Multi-Device-Management-System erfüllt diese Einschränkungen und optimiert die Verarbeitung heterogener Signale unterschiedlicher Sensoren. Zu diesem Zweck werden die Ergebnisse hinsichtlich des Zeitverhaltens für den Fall des Einsatzes der Sturzerkennung mittels Beschleunigungssensor-Smart-Sensoren analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29305-4_584 2eff951c6a7672444c3ef44e6ef6e1b1;de;;;1.3.;;;Die Forschung zur Erfassungsmethode für die dreidimensionale Temperatur des Ofens basierend auf einer Support Vector Machine SVM ist eine zunehmend verbreitete Lerntechnologie, die auf der statistischen Lerntheorie basiert. Angesichts der Vielfalt der Veränderungen der brennenden Flamme in Großkesseln, um den Zustand der Ofenflamme in Echtzeit zu beherrschen. In diesem Papier wird das SVM-Netzwerk, das die grundlegende Methode der Flammenbildtemperatur absorbiert, vorgestellt, um das SVM-Netzwerkmodell gründlich zu untersuchen und eine verbesserte SVM-Netzwerkmethode vorzuschlagen, was die Methode zur Berechnung des dreidimensionalen Temperaturfeldes was viele Vorteile gegenüber der traditionellen Optimierungsmethode hat. Durch die Simulationsstudien und die experimentellen Ergebnisse ist es möglich, das SVM-Netzwerk zu verwenden, um das dreidimensionale Temperaturfeld im Ofen zu testen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23321-0_53 98267f16ecce4dfad5468bf36d65b476;de;;;1.1.;;;Informationsmanagement in Rüstungskontrollverhandlungen Dieses Papier skizziert einen neuartigen Ansatz zur Verhandlungsführung und zeigt, wie dieser Ansatz auf die spezifischen Probleme der Rüstungskontrolle angewendet werden kann. Er untersucht in recht allgemeiner Form die logischen Ziele von Rüstungskontrollgesprächen und die Art und Weise, wie diese Ziele mit den spezifischen Dimensionen, die normalerweise in einem Vertrag anzutreffen sind, in Beziehung stehen. Es befasst sich mit der unglücklichen Komplikation der Geheimhaltung – dem Wunsch, nicht nur seine Fähigkeiten, sondern sogar einige seiner Ziele vor seinem „Gegner“ abzuschirmen. Diese Geheimhaltung erschwert die Suche nach einem tragfähigen Vertrag doppelt. Das Papier beschreibt einen Prozess, der diese Schwierigkeit angeht. Der Prozess dreht sich um ein „Drittanbietergerät“ zusammen mit einigen Protokollen und Strategien zu seiner Verwendung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2805-6_18 1f880476114d7775ef8e87f2d89dae72;de;;;1.1.;;;Design des Kundeninformationsmanagementsystems Das Customer Information Management (CIM) muss die Kundendaten handhaben, pflegen und speichern. Um dieses Ziel zu erreichen, ist eine Anwendung erforderlich, die die Kunden- und Artikeldetails aus den externen Quelldateien übernimmt und im Data Warehouse (DW) speichert. Es ist ein ETL-System, das entwickelt wurde, um die Zuordnung zum Laden des Ziels aus den Quelldateien zu erstellen, nachdem die vom Administrator geforderten Kriterien angewendet wurden, und bietet auch die allgemeinen Merkmale und Funktionen, die zum Speichern und Verwalten von Kundendaten erforderlich sind. Die im DW gespeicherten Daten werden transformiert (bereinigt und integriert), sind also glaubwürdig und können für Geschäftseinblicke verwendet werden. Dies dient als wichtige Komponente für BI (Business Intelligence), die bei der Umwandlung von Roh-/Betriebsdaten in aussagekräftige Informationen hilft. Das entwickelte Fact_Inventory liefert uns die historischen Daten in zusammengefasster Form, die für Management-, strategische und analytische Entscheidungen durch das Analystenteam und die Endbenutzer verwendet werden können. Es fungiert als riesiges Lagerhaus für die bereits verarbeiteten Daten und kann als „Informationssystem“ bezeichnet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0132-6_13 c5d612fc8c1dff272a92c6ba61a4f3d2;de;;;1.1.;;;Datenräume: Eine neue Abstraktion für das Informationsmanagement Die meisten Datenverwaltungsszenarien haben heute selten eine Situation, in der alle zu verwaltenden Daten gut in ein herkömmliches relationales DBMS oder in jedes andere einzelne Datenmodell oder System passen. Stattdessen sehen wir eine Reihe von lose verbundenen Datenquellen, in der Regel mit den folgenden wiederkehrenden Herausforderungen:;-;-;-;https://link.springer.com/chapter/10.1007/11733836_1 ab67f5372dc97a6269c8adce3bd1afca;de;;;1.3.;;;Oversampling versus Variational Autoencoder: Verwendung synthetischer Daten zum Nachweis von Heracleum Sosnowskyi in Satellitenbildern Die Erkennung von Wachstumsbereichen gefährlicher invasiver Pflanzen wie Heracleum Sosnowskyi (HS) in Satellitenbildern ist eine wichtige Anwendung von Machine Learning und Computer Vision Methoden. Es existiert umfangreiche Literatur zum Problem der Pflanzenklassifizierung in Bildern. Manchmal ist es jedoch am schwierigsten, qualitative Labels zu sammeln und genügend Daten zu sammeln, um Modelle zu trainieren. Diese Schwierigkeit tritt insbesondere bei der Analyse von Satellitenbildern auf, bei der die Kennzeichnung der Daten manuell schwer durchzuführen ist. In dieser Arbeit standen wir vor dem gleichen Problem (Datenmangel), als wir versuchten, ein Klassifizierungsmodell für die HS-Erkennung in Bildern zu erstellen. Das Problem des Datenmangels kann gelöst werden, indem synthetische Daten mit einfachen Methoden wie Oversampling (OS) bis hin zu komplexeren Techniken wie Variational Autoencoders (VAE) und Generative Adversarial Networks generiert werden. Nach unserem besten Wissen gibt es keine Arbeit, die die Leistung der Verwendung von OS mit VAE verglichen hat, um synthetische Pixel zu erzeugen, um das Problem des Datenmangels für die Aufgabe der HS-Klassifizierung in Bildern zu überwinden. Dementsprechend führen wir in dieser Arbeit diesen Vergleich durch und präsentieren die Auswertungsergebnisse auf unserem Datensatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1465-4_40 379cef630149bd3dc86c6abb96ce1a4e;de;;;1.1.;;;Anwendungen für das Informationsmanagement: Wie man den Verlust der Privatsphäre misst In diesem Kapitel nutzen wir die in Kapitel 30 beschriebene Erfahrung mit der Messung des Grades der Nichtübereinstimmung zwischen Wahrscheinlichkeitsmodellen, P-Boxen usw. Einige unserer datenschutzbezogenen Ergebnisse erschienen erstmals in [58].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24905-1_35 17defd909a953f6c416ab62338c65f29;de;;;1.3.;;;Entwicklung und Umsetzung eines IKT-basierten Disaster Prevention and Mitigation Education Program für die junge Generation Japan ist eines der katastrophenanfälligen Länder. Dann werden verschiedene Katastrophenerziehung in Schulen und lokalen Gemeinden durchgeführt, um die durch Katastrophen verursachten Schäden zu lindern. Laut verschiedenen Umfragen ist das Bewusstsein für Katastrophenvorsorge bei jungen Menschen jedoch geringer als in anderen Altersgruppen in Japan. Aus diesem Grund haben wir mit der Präfektur Kanagawa, Japan, an der Einrichtung eines IKT-basierten Programms zur Katastrophenprävention und -minderung zusammengearbeitet, um junge Menschen für Katastrophenprävention und -minderung zu sensibilisieren. Das Programm basiert auf dem Workshop bestehend aus Stadtbeobachtung und Gruppendiskussion unter Verwendung von DITS/DIMS (Disaster Information Tweeting and Mapping System), die in den vorangegangenen Studien vorgeschlagen wurden. In diesem Beitrag stellen wir die Inhalte des etablierten Bildungsprogramms zur Katastrophenvorsorge und -minderung für die junge Generation vor. Darüber hinaus berichten wir über die Ergebnisse der Workshops zur Katastrophenprävention und -minderung mit diesem Programm an mehreren Mittel- und Oberschulen in der Präfektur Kanagawa, Japan. Die Ergebnisse des Nachfragebogens zeigen, dass viele Teilnehmende einen positiven Eindruck von dem entwickelten Katastrophenbildungsprogramm hatten.;-;-;-;https://link.springer.com/article/10.1007/s10796-020-10082-9 de7165728b984f27b5e4b3ba0f1f5a39;de;;;1.3.;;;Erste Schritte mit Mikrocomputern in der Grundausbildung: Hinweise und Richtlinien Mikrocomputer können viele Funktionen in der Grundausbildung erfüllen, einschließlich der Kontrolle von Laborexperimenten, der Präsentation von Klassenzimmerdemonstrationen, der Erstellung von Handzetteln und der Überwachung der Schülerleistung. Die Podiumsmitglieder eines Symposiums präsentierten mehrere allgemeine Richtlinien für die Verwendung von Mikrocomputern und spezifische Richtlinien für die Auswahl und den Kauf von Ausrüstung und für den täglichen Betrieb einer Mikrocomputeranlage.;-;-;-;https://link.springer.com/article/10.3758/BF03202374 c936838bbc18f57a5aea2ef211a1251e;de;;;1.1.;;;Ein einfaches Informationsmanagementsystem zur Verwendung bei Online-Experimenten Die Hard- und Softwarefähigkeiten des modernen Online-Labors erlauben die Entwicklung immer komplexerer experimenteller Verfahren. Diese Verfahren beinhalten oft die Sammlung von Daten von vielen Teilnehmern über längere Zeiträume. Die Verfahren können die bedingte Präsentation experimenteller Aufgaben erfordern, die durch zahlreiche Parameter definiert oder teilweise durch das vorherige Teilnehmerverhalten bestimmt werden. Die Generierung, Organisation, Abfrage und Analyse sowie die Dokumentation und Überwachung dieser experimentellen Verfahren erfordern oft eine Online-Informationsquelle. Ein einfaches Informationsmanagement-(SIM)-System zur Verwendung in Online-Umgebungen ist eine Möglichkeit, diese Informationen bereitzustellen. Das SIM-System wurde verwendet, um experimentelle Verfahren zum Studium der menschlichen Problemlösung zu implementieren und weist allgemeine Eigenschaften auf, die es interessant machen.;-;-;-;https://link.springer.com/article/10.3758/BF03201764 c0d4adc3e2500b3521de4ff4f5d2c30a;de;;;1.3.;;;Vermittlung von kollaborativen Fähigkeiten mit einem Gruppenleiter-Computer-Tutor In diesem Papier wird erörtert, wie ein Computertutor für Gruppenleiter den Schülern beim Erlernen von kollaborativen Fähigkeiten in einer kooperativen Lernumgebung helfen kann. Die Schüler müssen jedoch kollaborative Fähigkeiten erlernen und deren Anwendung üben. Der in diesem Beitrag diskutierte Gruppenleiter Computertutor ist auf den Prinzipien des kooperativen Lernens, intelligenter Tutorsysteme und computergestützter kollaborativer Arbeit innerhalb eines intelligenten kollaborativen Lernsystems (ICLS) konzipiert. Ziel des Gruppenleiters ist es, die Gruppenarbeit auf der Aufgabenebene zu erleichtern und den Schülern bei der Arbeit an vernetzten Computern in der Jigsaw-Methode des kooperativen Lernens den Einsatz von kollaborativen Fähigkeiten auf der Diskussionsebene beizubringen. Die ICLS und ihr Gruppenleiter wurden von zwei Klassen an einer Universität der Geisteswissenschaften verwendet. Qualitative Untersuchungen zeigen, dass sich die kooperative Einstellung der Studierenden veränderte und sich die akademischen Leistungen von der Vor- zur Nachbehandlung verbesserten. Vor allem Studenten nutzten die Kommunikationsfähigkeit der Offenheit in Diskussionen vom Typ Kommentar. Die Schüler genossen die Zusammenarbeit über das ICLS und ihre Lehrer waren der Meinung, dass die Erfahrung für sie wertvoll war.;-;-;-;https://link.springer.com/article/10.1007/BF00144337 1e09ad2e360f545b57f5803e6e6cd925;de;;;1.3.;;;Kollaboration, Wissensaustausch und digitale Umgebungen: Wie sieht es mit Argumentations- und Fragekompetenz aus? Diese Arbeit zielt darauf ab, eine Online-Plattform (ArguQuest) zu erklären, deren Hauptziel es ist, das Lernen durch Argumentieren und Fragen in einer kollaborativen virtuellen Umgebung anzuregen. Es wird erwartet, dass die Schüler ihr Wissen verdeutlichen, indem sie ihren Mitschülern erklären, was sie wissen. Sie müssen sich präzise und klar äußern, damit ihre Kollegen sie und die Ideen, die sie ausdrücken möchten, verstehen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07485-6_43 9317ec6e8d5c07d3586b275c599dd6ba;de;;;1.3.;;;Multipolarimetrische SAR-Bildkompression basierend auf spärlicher Darstellung Der Einsatz spärlicher Darstellungen in der Signal- und Bildverarbeitung hat in den letzten Jahren sukzessive zugenommen. Das Erhalten eines übervollständigen Wörterbuchs aus einem Satz von Signalen ermöglicht es uns, diese Signale als eine spärliche lineare Kombination von Wörterbuchatomen darzustellen. Unter Berücksichtigung der Relativität zwischen den multipolarimetrischen Radarbildern mit synthetischer Apertur (SAR) wird ein neues Komprimierungsschema für eine auf multipolarimetrischen SAR-Bildern basierende spärliche Darstellung vorgeschlagen. Das Multilevel-Wörterbuch wird iterativ im 9/7-Wavelet-Bereich unter Verwendung eines Einkanal-SAR-Bildes gelernt, und die anderen Kanäle werden durch spärliche Approximation komprimiert, ebenfalls im 9/7-Wavelet-Bereich, gefolgt von einer Entropiecodierung der spärlichen Koeffizienten. Die experimentellen Ergebnisse werden mit zwei modernen Kompressionsverfahren verglichen: SPIHT (Set Partitioning in hierarchical Trees) und JPEG2000. Aufgrund der Effizienz des Codierungsschemas übertrifft unser Verfahren sowohl SPIHT als auch JPEG2000 in Bezug auf das Signal-Rausch-Verhältnis (PSNR) und den Kantenerhaltungsindex (EPI).;-;-;-;https://link.springer.com/article/10.1007/s11432-012-4612-9 1b10c3c4179ffbc1c160e2088068225a;de;;;1.3.;;;Bewegung für Patienten mit kongestiver Herzinsuffizienz Die kongestive Herzinsuffizienz ist eine weit verbreitete Folge von Myokardinfarkten und anderen chronischen Erkrankungen (einschließlich Ischämie ohne Infarkt, Bluthochdruck, verschiedene Infektionen, toxische Stoffwechsel- und endokrine Störungen). Die Belastungstoleranz ist stark eingeschränkt, die kardiale Ejektionsfraktion beträgt oft weniger als 20 % und die maximale Sauerstoffaufnahme kann weniger als 10 ml/kg·min betragen, was eine Verschlechterung der Lebensqualität zur Folge hat.;-;-;-;https://link.springer.com/article/10.2165/00007256-199723020-00002 d6ea83a6dd6cfe19687e77b2b5f756da;de;;;1.1.;;;Implementierung eines NFC-basierten Smart-Drug-Informationsmanagementsystems Dieses Papier ist ein Forschungspapier, das eine NFC-basierte Kappe für das intelligente Arzneimittelinformationsmanagement entwickelt, die einfach an vorhandene Medikamente angebracht werden kann, sodass sie problemlos zur Bereitstellung von Informationen für ältere Patienten verwendet werden können. Unser Ziel ist es, einen Systemprototyp zu entwickeln, der einen Smart-Drug-Informations-Management-Service bietet, damit ältere Patienten unabhängig vom Ort problemlos die Medikamentenzeit ohne Alarm erhalten und die Informationen zur Medikamentengeschichte jederzeit überprüfen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7605-3_127 feafdf2f29907870093eeba86762e243;de;;;1.3.;;;Ein innovatives Bildungsformat basierend auf einer Mixed-Reality-Umgebung: Eine Fallstudie und Nutzenbewertung Wir befinden uns mitten in einer Informationsrevolution, in der neue Technologien neue Produkte und Dienstleistungen schaffen, die viele Aspekte unseres Lebens neu definieren. Die Einführung von Informations- und Kommunikationstechnologien (IKT) im Bildungskontext hat es führenden Forschern und Praktikern ermöglicht, neue Wege zur Durchführung von Lernprozessen zu finden. Es liegt auf der Hand, dass Schüler von Natur aus von Aktivitäten angezogen werden, die Technologie beinhalten. In dieser Arbeit schlagen wir ein innovatives wettbewerbsbasiertes Bildungsformat namens „TIWE Linguistico“ vor, das eine Mixed Reality (MR)-Umgebung nutzt, um das Erlernen von Englisch als Fremdsprache zu fördern. Das „TIWE Linguistico“ wurde experimentell in einem italienischen Gymnasium eingesetzt und die erzielten Vorteile wurden durch Anwendung der FEE-Methode (Features Extraction) validiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13293-8_12 e937912d6632bba852a65271088d16f4;de;;;1.3.;;;"Virtuelles Praktikum als mediatisierte Erfahrung. Die Ausbildung des Erziehers während des COVID19-Notfalls Die Arbeit stellt die multimodale Studie zu den didaktischen Lösungen vor, die für das virtuelle Praktikum des Studiengangs „Educational Sciences“ an der Giustino Fortunato University als Reaktion auf den COVID19-Notfall angenommen wurden. Es konzentriert sich darauf, wie das Praktikum - angenommen als ""aktives Vermittlungsinstrument"" - in virtueller Form umgestaltet - dh ""mediiert"" wurde - und setzt Untersuchungsziele wie: die Wirkung bestimmter LMS-Quellen, die interaktiven Webseminare innerhalb der e-tivities-Strukturen, auf pädagogische Fähigkeiten, wie zum Beispiel das professionelle Denken, das bei der Gestaltung von Interventionen zum Ausdruck kommt, die Verwendung ikonischer Mittel bei der Simulation von Fällen und Problemen. Die Synthese von zwei verschiedenen Arten von Analysen und Dokumenten – verbalen Interaktionsaustausch über Webinar-Transkriptionen und ikonische Mediatoren, die verwendet werden, um den simulierten Fall zu illustrieren – zeigt, dass: a. wenn das virtuelle Praktikum gezielte E-Aktivitäten zu bestimmten Fähigkeiten bietet, wäre es nützlich für den Aufbau von professionellem Denken und Fähigkeiten, b. Konkret können Webseminare - interaktiv zwischen Mentor und Mentee und unterstützt durch erklärende Mittel wie Bilder - bei der Simulation von Problemfällen wirken und so die Gestaltungskompetenz der Intervention trainieren.";-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-67435-9_14 728659f37f1892d38b8db7725c9791d6;de;;;1.3.;;;Best Practices für e-Learning im Präsenz- und Fernunterricht – Eine Fallstudie der Universität Karlstad E-Learning hat in den letzten Jahrzehnten neue Formen des Lernens und Lehrens in der Hochschulbildung ermöglicht. Es scheint jedoch relativ wenige Fallstudien zu geben, die vergleichen und analysieren, wie E-Learning in verschiedenen Unterrichtsformen angewendet werden könnte. Der Hauptzweck dieses Papiers besteht daher darin, zu untersuchen, wie E-Learning in Präsenz- und Fernstudien bzw. in Hybriden davon eingesetzt werden kann und was die Vor- und Nachteile verschiedener Lehrmethoden sind. Eine Fallstudie der Fakultät für Wirtschaftsinformatik der Universität Karlstad zeigt, dass E-Learning sowohl im Präsenz- als auch im Fernunterricht erfolgreich eingesetzt werden kann und auch für flexibles oder gemischtes Lernen verwendet werden kann. Es ist jedoch Vorsicht geboten, um eine Informationsüberflutung bei den Studierenden auf dem Campus zu vermeiden oder die hoch geschätzte zeitliche und räumliche Flexibilität für Fernstudenten zu reduzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24770-0_9 60c642c44ecfb3b0d9b9de10c426e59c;de;;;1.3.;;;Aktuelle Trends in der mehrsprachigen Sprachverarbeitung In diesem Artikel beschreiben wir die jüngsten Arbeiten des Idiap Research Institute im Bereich der mehrsprachigen Sprachverarbeitung und geben einige Einblicke in aufkommende Herausforderungen für die Forschungsgemeinschaft. Die mehrsprachige Sprachverarbeitung ist seit vielen Jahren ein Thema von anhaltendem Interesse in der Forschungsgemeinschaft, und das Gebiet erfährt nun aufgrund zweier starker treibender Kräfte erneutes Interesse. Erstens stellen die technischen Fortschritte in der Spracherkennung und -synthese die Forscher vor neue Herausforderungen und Chancen. Diskriminierende Funktionen finden beispielsweise in der Spracherkennungsgemeinschaft breite Anwendung, aber bei der Verwendung solcher Funktionen in einer mehrsprachigen Umgebung treten zusätzliche Probleme auf. Ein weiteres Beispiel ist die scheinbare Konvergenz von Spracherkennungs- und Sprachsynthesetechnologien in Form von statistischen parametrischen Methoden. Diese Konvergenz ermöglicht die Untersuchung neuer Ansätze zur einheitlichen Modellierung für die automatische Spracherkennung und Text-zu-Sprache-Synthese (TTS) sowie die sprachübergreifende Sprecheranpassung für TTS. Die zweite treibende Kraft sind die Impulse von Regierung und Industrie für Technologien, die dazu beitragen, nationale und internationale Sprachbarrieren abzubauen, die auch Hindernisse für die Expansion von Politik und Wirtschaft darstellen. Speech-to-Speech und Speech-to-Text-Übersetzung entstehen damit als Schlüsseltechnologien, deren Kernstück die mehrsprachige Sprachverarbeitung ist.;-;-;-;https://link.springer.com/article/10.1007/s12046-011-0050-4 5a2b635fb66f890c5aa92d06f89acf68;de;;;1.3.;;;Ein neues zweidimensionales Modell zur Bewertung der Qualität des Fernunterrichts In diesem Papier wurde ein Bewertungsindexsystem basierend auf dem zweidimensionalen Modell „Anwendungsfelder der Informationstechnologie – Förderung der Servicequalität“ entwickelt und entworfen. Die Anwendungsfelder der Informationstechnologie umfassten akademische und nicht-akademische Studentenbetreuungsdienste. Die Förderung der Servicequalität umfasste Sachwerte, Zuverlässigkeit, Reaktionsfähigkeit, Sicherheit und Empathie. Diese zweidimensionale Rahmenbewertungsmethode ist hilfreich, um die Leistungen zu bestimmten Aspekten der Studentenbetreuungsdienste zu verstehen und dann gezielte Verbesserungen für die Fernbildungseinrichtungen vorzunehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54930-4_39 02f2d1e739e87dec945319c864ef9bb5;de;;;1.3.;;;Geometrische Analyse für das Design von unterstützenden Medizinprodukten Auf dem Gebiet der Computergrafik wurden Verfahren zur Netzvereinfachung, Analyse mit mehreren Auflösungen und Oberflächenparametrisierungstechniken umfassend untersucht. In diesem Beitrag werden innovative Anwendungen dieser Techniken zur biomechanischen Analyse dünner elastischer Zahnspangen vorgestellt. Die Streben werden in polygonalen Netzen dargestellt, und Netzvereinfachung und Analyse mit mehreren Auflösungen ermöglichen eine schnelle geometrische Berechnung und Verarbeitung. Das Multi-Resolution-Verstrebungsnetz ist für die Berechnung der Dehnungsenergie parametrisiert. Die Versuchsergebnisse belegen, dass die geometrische 3D-Analyse für das Design von unterstützenden medizinischen Geräten recht gut funktioniert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30497-5_141 611f021f8b617e110e91fb2b1107c466;de;;;1.3.;;;Eine Visualisierungsmethode im virtuellen Bildungssystem In diesem Beitrag stellen wir einen visualisierungsbasierten Wissensausdrucksansatz für virtuelle Bildungssysteme vor. Unsere Methode ermöglicht es Lehrenden und Studierenden, komplexe Algorithmen und Verfahren im Lehr- und Lernprozess intuitiver und komfortabler zu verstehen. Als Beispiele nehmen wir in diesem Beitrag den Entscheidungsbaum und den Random Forest Algorithmus im Bereich Data Mining. In unserer Methode wird der Entscheidungsbaum durch ein virtuelles 3D-Baummodell repräsentiert, das sowohl die Struktur als auch die Klassifikationsergebnisse übersichtlich darstellen lässt. Außerdem wird Random Forest durch eine Gruppe virtueller 3D-Bäume repräsentiert und ihre Positionen geben die Ähnlichkeit zwischen den Entscheidungsbäumen an. Wir stellen auch mehrere Benutzerinteraktionstools in unserem System bereit. Die Tools helfen Benutzern, den Wald zu durchsuchen, einen Baum auszuwählen, einen Baum zu löschen und sogar die Detailinformationen des Entscheidungsbaums anzuzeigen. Die effektiven und verständlichen Ergebnisse zeigen die Machbarkeit der Anwendung der Visualisierungsmethode im virtuellen Bildungssystem.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_41 165885228efcf9cfb2b018cd4c48d50b;de;;;1.3.;;;Übersetzen grundlegender metrischer zeitlicher Logikformeln in Promela Um das Echtzeitsystem unter Verwendung der Modellprüftechnik formal zu verifizieren, sind zwei notwendige Elemente erforderlich, das Echtzeitsystemmodell und seine erwarteten Echtzeiteigenschaften. Um diese Echtzeiteigenschaften zu spezifizieren, wird ein geeignetes erweitertes Logiksystem benötigt, um mit quantitativen Zeitbeschränkungen fertig zu werden. Wir wählen eines der beliebtesten Echtzeit-Logiksysteme namens Metric Temporal Logic (MTL) aus, um unsere erwähnten Echtzeiteigenschaften zu spezifizieren. Die in MTL definierten Echtzeiteigenschaften sind für den SPIN-Modellchecker jedoch immer noch nicht relevant. In diesem Papier schlagen wir ein neuartiges Schema vor, um die grundlegenden MTL-Formeln in Promela- und LTL-Formeln zu übersetzen, die in SPIN relevant in Bezug auf Promelas Inline-Definitionen und Makrobefehle verwendet werden. Die Pünktlichkeit der Formeln bleibt bei der Übersetzung erhalten. In der Praxis werden die grundlegenden Timing-Beschränkungen schließlich und immer Operatoren von MTL fokussiert, und die Übersetzung von MTL-Formeln der Echtzeit-Sicherheitseigenschaftsmuster wird demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0557-2_99 b63f71db2f3dcbd5a52c4e11a75ad78e;de;;;1.3.;;;Ein Cross-Layer-Design für ratlose Codierung mit optimaler Paketgröße über Block-Fading-Kanäle Ratenlose Codes sind beliebte Lösch-Ausfüllen-Codes, die in der Lage sind, die potenziell unendliche Menge an Redundanz auf Paketebene bereitzustellen. Die optimale Paketgröße wurde jedoch in einem drahtlosen Kommunikationssystem sowohl von der Anwendungsschicht als auch der physikalischen Schicht nicht sorgfältig untersucht. In diesem Papier wird ein schichtübergreifender Ansatz vorgeschlagen, um eine optimale rateless-codierte Paketgröße zu finden, um den Goodput eines drahtlosen Systems zu maximieren, das Nachrichten fester Länge über Blockfading-Kanäle liefert. Wir analysieren die Systemleistung und identifizieren die Auswirkungen der Paketgröße auf die Zuverlässigkeit und Effizienz. Darüber hinaus kann der Goodput mit dem vorgeschlagenen Ansatz durch Abwägen von Zuverlässigkeit und Effizienz verbessert werden. Wir vergleichen auch die Leistung des ratenlosen Codiersystems mit dem herkömmlichen System, das nur Kanalcodes verwendet. Eine bessere Leistung des ratlosen Codiersystems zeigt sich bei relativ niedrigen Signal-Rausch-Verhältnissen und der Goodput wird um etwa 20 % bei 0 dB verbessert.;-;-;-;https://link.springer.com/article/10.1007/s11277-012-0687-2 9adeb1faf8699edfd4f93aa1528e0fae;de;;;1.1.;;;Hochauflösendes Informationsmanagement Dezentrale und selbstoptimierende Fertigungssteuerung in einer Betriebsumgebung mit mehreren Maschinen Die Dynamik in der Produktion aufzufangen und die Produktionsprozesse zu stabilisieren erfordert einen hohen Aufwand in der Auftragssteuerung. Heutige IT-Systeme wie Enterprise Resource Planning (ERP) und Manufacturing Execution Systems (MES) sind darauf spezialisiert, technische Ressourcen zu planen und deterministische Abläufe zu optimieren. Unstimmigkeiten in der Planung sind spätestens durch das Betriebspersonal auszugleichen. Die Vision von High Resolution Information Management (HRIM) besteht darin, im Gegensatz zum traditionellen zentralisierten Kontrollparadigma auf dezentrale und adaptive Kontrollmechanismen für die Arbeiter aufzubauen. Durch die Nutzung von Kontextinformationen, die Schaffung von Transparenz durch Informationen und die Bewertung von Alternativen im Entscheidungsprozess, können die Mitarbeiter besser im Umgang mit der systemimmanenten Dynamik befähigt werden. Die zentralisierte Struktur des unternehmensweiten Planungs- und Kontrollsystems wird daher nicht im operativen Bereich abgeschafft, sondern durch dezentrale Selbstkontrollstrukturen ergänzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10430-5_56 588951fd9e05d9ab2c4641d2f0b3b982;de;;;1.3.;;;Diskussion über die Fähigkeit von Studenten, komplexe technische Probleme aus der Perspektive einer professionellen Zertifizierung zu lösen China trat formell dem „Washington Accord“ bei und Chinas Ingenieurausbildung brachte neue Chancen und Herausforderungen mit sich. Um dem Anspruch „der Fähigkeit zur Lösung komplexer ingenieurwissenschaftlicher Probleme“ gerecht zu werden, nehmen wir die tiefgreifende Lehrreform und das eigentliche Projekt als Hintergrund und nehmen die Ingenieurstechnik als Leitlinie. Wir sollten die praktischen Fähigkeiten der Studierenden weiter ausbauen. Die Entwicklung eines neuen Berufszertifizierungsstandards kann das Niveau der Ingenieurausbildung an Hochschulen verbessern und die internationale Anerkennung und Wettbewerbsfähigkeit der Absolventen verbessern. Bei der Berufsakkreditierung sollten wir auf die Förderung der Fähigkeiten der Studierenden achten, komplexe ingenieurwissenschaftliche Probleme zu lösen, d. h. die Studierenden müssen vom Erlernen von Buchwissen in die Lösung praktischer Probleme übergehen, was der Idee der ergebnisorientierten Bildung entspricht .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-93719-9_1 4053ec8a570cebca10214f974e2bce0a;de;;;1.3.;;;Effizienzsteigerung der Support Vector Machine durch Vereinfachung der Form der Separation Hypersurface Dieses Papier präsentiert eine vierstufige Trainingsmethode zur Steigerung der Effizienz von Support Vector Machine (SVM) durch Vereinfachung der Form der Separations-Hyperfläche. Zuerst wird eine SVM anfänglich durch alle Trainingsmuster trainiert, wodurch eine Anzahl von Unterstützungsvektoren erzeugt wird. Zweitens werden die Stützvektoren, die die Hyperfläche stark gefaltet machen, aus dem Trainingssatz ausgeschlossen. Drittens wird die SVM nur durch die verbleibenden Abtastwerte im Trainingssatz neu trainiert. Schließlich wird die Komplexität der trainierten SVM weiter reduziert, indem die Trennungshyperfläche mit einer Teilmenge der Stützvektoren angenähert wird. Im Vergleich zur anfänglich trainierten SVM durch alle Stichproben ist die Effizienz der schließlich trainierten SVM ohne Systemverschlechterung stark verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30497-5_114 2b9bbff9ece6d5442415fb64c8541d5d;de;;;1.3.;;;Rekursives Semi-Blind-Beamforming nach kleinsten Quadraten für MIMO unter Verwendung von entscheidungsgerichteter Anpassung und konstantem Modulkriterium Ein neues halbblindes adaptives Beamforming-Schema wird für Multi-Input-Multi-Output-(MIMO)-induzierte und Raumteilungs-Mehrfachzugriff-basierte drahtlose Systeme vorgeschlagen, die Phasenumtastsignalisierung hoher Ordnung verwenden. Eine minimale Anzahl von Trainingssymbolen, die der Anzahl der Empfängerantennenelemente sehr nahe kommt, wird verwendet, um eine grobe anfängliche Schätzung der kleinsten Quadrate des Gewichtsvektors des Strahlformers bereitzustellen. Eine neue Kostenfunktion, die das Kriterium des konstanten Moduls mit einer entscheidungsgerichteten Anpassung kombiniert, wird verwendet, um den Gewichtungsvektor des Strahlformers anzupassen. Diese Kostenfunktion kann als quadratische Form mit einer Lösung in geschlossener Form angenähert werden, auf deren Grundlage wir dann den rekursiven kleinsten Quadrate (RLS) semi-blind adaptive Beamforming-Algorithmus herleiten. Dieses semi-blinde adaptive Beamforming-Schema ist in der Lage, schnell auf die Beamforming-Lösung mit minimalem mittleren Fehlerquadrat zu konvergieren, wie in unserer Simulationsstudie demonstriert. Unser vorgeschlagener halbblinder RLS-Beamforming-Algorithmus bietet daher ein effizientes Detektionsschema für die zukünftige Generation von MIMO-unterstützten Mobilkommunikationssystemen.;-;-;-;https://link.springer.com/article/10.1007/s11633-017-1087-6 754956b4192d53ebbab0d3914eba1073;de;;;1.1.;;;Anwendungen für das Informationsmanagement: So schätzen Sie den Vertrauensgrad ein In diesem Kapitel verwenden wir die Wahrscheinlichkeits- und Intervallunsicherheit, um den Grad des Vertrauens in einen Agenten zu schätzen. Einige dieser Ergebnisse erschienen erstmals in [56, 141].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24905-1_34 dd6df42d4f8fe65dd0334870978cf0b4;de;;;1.1.;;;Strategie und Struktur: Erweiterung der Theorie und Integration der Forschung zu nationalen und internationalen Unternehmen In diesem Papier versuchen wir, die nationale und internationale Strategie-Struktur-Theorie zu erweitern und zu integrieren. Wir verwenden einen informationsverarbeitenden Ansatz, um das Verhältnis zwischen nationalen und internationalen Elementen der Strategie und der Makrostruktur zu modellieren. Wir testen unsere Hypothesen mit Daten von 156 deutschen Firmen. Durch die Einbeziehung neuer Strategieelemente (Art der Wettbewerbsstrategie, Internationalisierungsgrad und Art der internationalen Strategie) entsteht ein Modell, das bestehenden Modellen in der Erklärung der neueren und komplexeren Strategie- und Strukturformen überlegen ist.;-;-;-;https://link.springer.com/article/10.1007/BF03396631 e2457ccbcaf7b3ac40ce64a8e2808809;de;;;1.3.;;;Untersuchung des Einsatzes von Microsoft SharePoint in britischen Hochschulen Dieses Papier beschreibt eine Untersuchung der Verwendung von Microsoft SharePoint in britischen Hochschulen (HEIs). Die Studie wurde von Eduserv finanziert und 2009 von der Northumbria University durchgeführt. Sie zielte darauf ab, herauszufinden, wie SharePoint verwendet wurde, die Ansichten der Interessengruppen und die daraus gewonnenen Erkenntnisse. Die Studie umfasste: eine Literaturrecherche, eine telefonische Befragung von IT-Direktoren/-Managern in 40 Hochschulen, eine Online-Umfrage mit Antworten von 47 Hochschulen, eine Online-Community-Konsultation, drei detaillierte Fallstudien, eine öffentliche Veranstaltung. Die Studie ergab, dass die meisten britischen Hochschulen in gewissem Umfang SharePoint verwenden. Aspekte der SharePoint-Implementierungen – Beschaffung, Implementierungsansätze, Treiber, kritische Erfolgsfaktoren, Einsatz in Lehre, Studium und Forschung sowie Barrieren – werden beschrieben. Die Schlussfolgerungen beziehen sich auf die Zukunft der SharePoint-Nutzung in britischen Hochschulen, sobald die Version 2010 des Produkts verfügbar ist. Die Übertragbarkeit der Erkenntnisse auf andere Sektoren wird diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16419-4_34 4d02b0a6e10efd1a4a0b54a4e6fa909f;de;;;1.3.;;;Die Kapazität des nicht nachweisbaren verdeckten Ein/Aus-Kanals Fast alle modernen Computernetzwerke basieren auf der TCP/IP-Protokollsuite. Strukturmerkmale von IP ermöglichen jedoch den Aufbau verdeckter Kanäle mit hoher Kapazität unter Verwendung der Modifikation von Verzögerungen zwischen Paketen, Headerfeldern der Pakete und Paketlängen. Eine Technik, um solche Kanäle zu eliminieren, ist die Verkehrsnormalisierung, die das Senden von Paketen mit gleichen Längen und festen Kopffeldern mit gleichen Verzögerungen zwischen den Paketen bedeutet, was zu einer erheblichen Verringerung der Kapazität der effizienten Kommunikationskanäle und dem Fehlen funktionaler Fähigkeiten von Netzwerkprotokollen führt. Eine andere Möglichkeit, einem verdeckten Kanal entgegenzuwirken, besteht darin, einen aktiven Kanal zu erkennen. Nichtsdestotrotz kann ein Angreifer die Kapazität des verdeckten Kanals absichtlich reduzieren, um sie unauffindbar zu machen. Wir untersuchen den verdeckten On/Off-Kanal und geben Empfehlungen zur Auswahl der Parameter von;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0557-2_63 53e2ed731d3cfe542bbe8b3db5df659f;de;;;1.1.;;;Entwerfen elementarer Strukturen zur Anpassung an die MNC-Strategie Dieses Kapitel verwendet Informationsverarbeitungslogik, um wichtige Übereinstimmungen zwischen den vier verschiedenen Arten von elementaren Strukturen (z. Die Hypothesen werden empirisch überprüft und die Informationsverarbeitungskapazitäten der verschiedenen Elementarstrukturtypen konzeptionell diskutiert. Diese elementaren Strukturen werden zu den Dimensionen einer Matrixstruktur und ihre kombinierten Informationsverarbeitungskapazitäten werden zur Informationsverarbeitungskapazität einer Matrixstruktur. Aus diesem Grund muss man Strategie-Struktur-Fit für elementare Strukturen verstehen, bevor man sie für Matrixstrukturen verstehen kann.;-;-;-;https://link.springer.com/chapter/10.1057/978-1-137-57975-1_3 3380b611c4df39e1bef3022e5b55a4d8;de;;;1.3.;;;Computational Approaches for Gene Prediction: Eine vergleichende Untersuchung Die genaue Vorhersage der Genstruktur spielt eine grundlegende Rolle bei der funktionellen Annotation von Genen. Das Hauptaugenmerk von Genvorhersagemethoden liegt darin, Muster in langen DNA-Sequenzen zu finden, die auf das Vorhandensein von Genen hinweisen. Das Problem der Genvorhersage ist ein wichtiges Problem im Bereich der Bioinformatik. Mit dem explosionsartigen Wachstum genomischer Informationen besteht ein Bedarf an computergestützten Ansätzen, die die Genlokalisierung, -struktur und -funktionsvorhersage erleichtern. In diesem Beitrag befassen wir uns mit verschiedenen rechnerischen Ansätzen für Genvorhersagen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25453-6_2 71743a40c5962a177318e4ac5c1a2b56;de;;;1.3.;;;Computergestützte Bewertung von Schülerantworten Von den Schülern erstellte Antworten wie Aufsätze, Kurzantwortfragen und Protokolle zum lauten Denken bieten eine wertvolle Gelegenheit, die Lernergebnisse und Verständnisstrategien der Schüler zu beurteilen. Angesichts der Herausforderungen bei der Benotung von Schülerantworten zögern die Lehrkräfte jedoch möglicherweise, sie zu verwenden. Es gab große Fortschritte bei der Anwendung der natürlichen Sprachverarbeitung von Schülerantworten. Diese Literaturübersicht konzentriert sich auf zwei Dimensionen, die bei der Entwicklung neuer Systeme berücksichtigt werden müssen. Die erste ist die Art der Antwort, die der Schüler bereitstellt – nämlich sinnstiftende Antworten (z. B. Protokolle zum lauten Denken, Dialog in Tutorien) und Produkte des Verstehens (z. B. Aufsätze, offene Fragen). Die zweite entspricht Überlegungen zur Art der verwendeten Systeme zur Verarbeitung natürlicher Sprache und deren Anwendung zur Analyse der Schülerantworten. Wir argumentieren, dass die Angemessenheit der Bewertungsprotokolle teilweise durch die Art der Reaktion eingeschränkt wird und Forscher Hybridsysteme verwenden sollten, die auf mehreren, konvergenten Algorithmen natürlicher Sprache basieren.;-;-;-;https://link.springer.com/article/10.3758/s13428-012-0211-3 d4329ae9354aa6a0d2f6121805ca8396;de;;;1.3.;;;Verbesserter Phasenunwrapping-Algorithmus basierend auf NVIDIA CUDA Der Beitrag stellt eine verbesserte Version des Region-Growing-Algorithmus für das interferometrische Phasenunwrapping der Radarbilder vor. Es wird ein Verfahren zum Packen/Entpacken von Indizes von Punkten in einem Foto entwickelt, das auf bitweisen Operationen basiert. Ein schneller Algorithmus zum Erzeugen eines Wachstumsrings von Zielpixeln und ein Algorithmus zum Zusammenführen von Regionen werden erstellt. Die Softwareimplementierung des Algorithmus kann auf Plattformen ausgeführt werden, die Grafikgeräte verwenden, die die NVIDIA CUDA-Technologie unterstützen.;-;-;-;https://link.springer.com/article/10.1134/S0361768817010054 3a15c5af926f79c9c2999728c51550b4;de;;;1.3.;;;Praktische innovative Vermittlung von Berufsenglisch Berufsschulen in der Gesellschaft nehmen bekanntlich die wichtige Rolle der Ausbildung anwendungsorientierter Fachkräfte wie in den Bereichen Produktion, Technik, Management, Dienstleistung usw. Allgemein gesprochen ist Berufsenglisch eines der Grundfächer der beruflichen Bildung. Sein Bildungsprozess sollte um die Anwendung herum durchgeführt werden. Daher sollten wir zunächst darauf bestehen, Lernen und Üben zu kombinieren. Zweitens sollten wir die Grundlage, die Richtung und die Praktikabilität hervorheben. Tatsächlich kann uns die Wirkung von Berufsenglisch angesichts des gegenwärtigen Lehrprozesses nicht befriedigen. Weil der praktische Unterrichtsteil nicht die Aufmerksamkeit bekommt, die er verdient. Dieser Text, der sich auf die Erforschung des Themas der praktischen Innovationslehre des Berufsenglischen konzentriert, hat eine hohe praktische und richtungsweisende Bedeutung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29084-8_50 77dd184e7dca36b21b30e79fdf32fec5;de;;;1.3.;;;Vergleich der Fuzzy Combiner Trainingsmethoden In jüngerer Zeit haben neuronale Netztechniken und Fuzzy-Logik-Inferenzsysteme eine zunehmende Aufmerksamkeit erhalten. Gleichzeitig werden Verfahren zur Entscheidungsfindung durch eine Gruppe von Klassifikatoren als generelles Problem in verschiedenen Anwendungsgebieten der Mustererkennung angesehen. Der von den Autoren vorgeschlagene Fuzzy-Combiner nutzt die Unterstützungswerte von Klassifikatoren, um eine endgültige Antwort ohne weitere Einschränkungen ihrer Struktur bereitzustellen. Die Arbeiten zur Verallgemeinerung der Zweiklassenklassifikation in die Mehrklassenklassifikation mittels eines Fuzzy-Inferenzsystems werden in diesem Beitrag erweitert. Es werden verschiedene Methoden des Fuzzy-Combiner-Trainings untersucht und die Ergebnisse von Computerexperimenten, die an UCI-Benchmark-Datensätzen in der Matlab-Umgebung durchgeführt wurden, vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34630-9_17 c20ff70e4e1c855dfa69538b0c3b5cd3;de;;;1.3.;;;Forschung zur Instanz-Fahrlehrmethode des Java-Studiums Um die Qualität von Hochschulabsolventen weiter zu verbessern, um den sozialen Bedürfnissen gerecht zu werden, untersucht dieser Beitrag, wie die Unterrichtsmethode im Klassenzimmer reformiert werden kann. Nehmen wir den Java-Programmierkurs als Beispiel. In diesem Papier wird eine Unterrichtsmethode „Instanzfahren“ mit einer „4W1H“-Lehridee vorgestellt. „Instanzfahren“ bezieht sich auf eine Methode, die auf einer typischen Instanz während des gesamten Lehrprozesses eines Kurses basiert, und „4W1H“ bezieht sich auf eine Vorstellung von „Was, Warum, Wann, Wo und Wie“ über das Lernen. Die gegenwärtige Situation „nicht lernen können, aber nicht lernen“ wird auf diese Weise verändert und dann können die Schüler einen tugendhaften Kreislauf in drei Grundverbindungen bilden, nämlich „vor dem Unterricht“, „nach dem Unterricht“ und „in der Praxis“. “. Diese neuartige Methode stellt sicher, dass das Bildungsziel sowohl in der Praxis als auch in der Theorie erfolgreich erreicht werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23345-6_5 fabd53bc68b28a87b63aada890b4d7a6;de;;;1.3.;;;Ein integrativer Rahmen für das Umdenken von Projekten der 2. Generation nachhaltiger Entwicklung (SD2.0), Bildung und der Universität als Katalysator Die Universität ist bereit, als Katalysator für einen integrierten, sektorübergreifenden und skalenübergreifenden Ansatz zu fungieren, der die erforderlichen kollektiven sozialen und technischen Fähigkeiten der Hauptakteure aufbaut, um eine nachhaltige Entwicklung der zweiten Generation (SD2.0) zu ermöglichen. Eine Synthese empirischer Beweise wird verwendet, um eine neue;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-26734-0_6 6cecfee4d2429b41fa1c3149b24d77b8;de;;;1.3.;;;Selbstlernsystem für Thoraxkompressionen im Workshop zur Neugeborenenwiederbelebung Die Japanische Gesellschaft für Perinatal- und Neonatalmedizin hat 2007 den Neonatal Cardio-Pulmonary Resuscitation (NCPR)-Workshop ins Leben gerufen. Objektive Überprüfungen und Selbstschulungen in Workshops zu grundlegenden Fertigkeiten werden als effektiv erachtet. Ausbilder sind jedoch für die aktuelle Ausbildung unerlässlich, daher ist eine Selbstausbildung schwierig. Selbst wenn es einen Ausbilder gibt, sind subjektive Bewertungen und mündliche Anweisungen üblich. In dieser Studie konzentrierten wir uns auf die Thoraxkompression als grundlegende Technik der Neugeborenenwiederbelebung. Wir haben ein Selbsttrainingssystem für die Arbeiter entwickelt, das darauf abzielt, ihre Fähigkeiten zu erhalten, und die Wirkung der vorgeschlagenen Methode aus dem Experiment demonstriert. Aus den Interviewergebnissen haben wir ergeben, dass zusätzliche Funktionen wie Rückstoß und künstliche Beatmung erforderlich waren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5852-8_8 33aec585287c6f4b7f851e4193f7c861;de;;;1.3.;;;RBF Neuronale Netze Falllehre Forschung In diesem Beitrag wurde die RBF-Falllehre für neuronale Netze untersucht. Im eigentlichen Lehrprozess finden wir es für die Studierenden schwieriger, den Kurs zu erlernen, da die RBF-Curriculumstheorie des neuronalen Netzes stärker ist. Viele Studenten wissen nicht, wie sie die Theorie anwenden können, um praktische Probleme zu lösen. Daher vermitteln wir Studenten durch Falllehren grundlegende Kenntnisse des neuronalen Netzes RBF. In diesem Beitrag wurde ein RBF-Neuralnetzwerk-Beispiel analysiert und angewendet, um den Schülern zu ermöglichen, RBF-Neuralnetzwerk zu erlernen. Die Unterrichtspraxis zeigt, dass Fallunterricht eine bessere Unterrichtseffektivität erreichen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22418-8_49 454119f7537493503c22724294b79d45;de;;;1.1.;;;Die Auswirkungen der Informationsüberflutung auf die Absicht der Verbraucher, Elektrofahrzeuge zu nutzen Um die Verhaltensabsichten der Verbraucher für Elektrofahrzeuge (EV) zu fördern, sollten Hersteller von Elektrofahrzeugen ein erhebliches Engagement für EV-bezogene Informationen eingehen und eine strategische Planung zur Veröffentlichung dieser Informationen entwickeln. Die Theorie der Informationsüberflutung legt jedoch nahe, dass eine Fülle von Informationen zu einem Problem der Informationsüberflutung über einen Schwellenwert hinaus führen kann, wodurch die endgültigen Verhaltensabsichten verringert werden. Die Analyse verwendet eine Fragebogenerhebung mit 619 Befragten, um die Beziehungen zwischen EV-bezogenen Informationsmerkmalen, Informationsüberflutung und EV-Verhaltensabsichten der Verbraucher zu untersuchen. Die Ergebnisse zeigen, dass die Quantität und Qualität von Informationen zu Elektrofahrzeugen die Informationsflut der Verbraucher beeinflussen kann. Im Gegensatz dazu kann sich die wahrgenommene Informationsüberflutung der Verbraucher negativ auf ihre pro-EV-Verhaltensabsichten auswirken. Darüber hinaus können Verbraucher mit unterschiedlichen Kenntnissen über EV-Produkte und Informationsverarbeitungsfähigkeiten unterschiedlichen Graden einer wahrgenommenen Informationsüberflutung ausgesetzt sein.;-;-;-;https://link.springer.com/article/10.1007/s11116-019-10001-1 012b463fa6bb307dc44b70c1e0dd3448;de;;;1.3.;;;Filter für lineare stochastische zeitdiskrete Systeme Beobachtete Variablen in der Realwirtschaft werden von Beobachtungsfehlern begleitet, und jedes angenommene linear-dynamische Wirtschaftssystem muss einen zufälligen Störungsterm enthalten, der durch das Systemschema unerklärlich ist. „Filtern“ ist hier das Problem, in einem solchen System alle Zustandsgrößen aus bisher verfügbaren Ein- und Ausgangsdaten zu schätzen. Das Filtern ist natürlich eine Voraussetzung für die Bereitstellung optimaler Rückkopplungssteuerwerte. In Anlehnung an Rhodes (1971) verifizieren wir die rekursiven Kalman-Formeln für den Prädiktor und Filter für unser dynamisches System in Tutorial-Manier (Abschnitt 4.2). (Abschnitt 4.1 ist einer vorläufigen Abschätzung der kleinsten Quadrate gewidmet.) In den Abschnitten 4.3 und 4.4 beschäftigen wir uns mit dem Problem, ein Filter minimaler Ordnung vom Beobachtertyp zu finden, und verlassen uns ausschließlich auf Tse und Athans (1970). Ihre Idee ist, die Kovarianzmatrix von Schätzfehlern zu minimieren und einen dynamischen Beobachter-Schätzer minimaler Ordnung zu etablieren. Der Schätzer wird auch auf ein allgemeines System mit verteilter Verzögerung angewendet. Schließlich werden in Abschnitt 4.5 verwandte ökonomische Anwendungen vorgestellt und untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-5737-0_4 e87dacd63a417f93a84538e46cd75a8b;de;;;1.3.;;;Ein Überwachungssystem für einen Bauernhof Dieses Papier schlägt ein intelligentes Überwachungssystem vor, um die betroffene Person oder das Tier identifizieren zu können, um zu verhindern, dass die Ernte gestohlen wird. Bisher verwenden die meisten Überwachungssysteme eine Methode, die Bilder von Überwachungskameras oder Sensornetzwerken aufzeichnet. Diese Art von Überwachungssystem hat die Einschränkung, eine Person nicht zu identifizieren oder nicht. Die Einschränkung stört einen Betriebsleiter. Um das Problem zu lösen, erkennen wir bewegte Objekte mithilfe des Codebuchs und unterscheiden mithilfe des Adaboost-Algorithmus, ob es sich um Menschen oder Geräusche handelt. Außerdem überträgt dieses System Bildinformationen an den Supervisor. Aber obwohl das erkannte Objekt eine Person ist, ist nicht leicht zu unterscheiden, ob es sich um eine betroffene oder eine zweifelhafte Person handelt. Aus diesem Grund wegen der geringen Auflösung der Bilder. Damit unnötiger Notfallalarm nicht klingelt, verwenden wir die Smartcard-Technologie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25483-3_22 ff81d93adb5469e46ea0e784e2a9958f;de;;;1.3.;;;Die Durchbiegungserkennung des Öllagertanks In diesem Papier betrachten wir Frage A im Hochschulwettbewerb des Community Cup 2100 im mathematischen Wettbewerb im Modellierungswettbewerb. Wir lukubieren die Auslenkungskennung des Öllagertanks und die Abgrenzungsmaterie des Öllagertankvolumens und bauen Modelle zur Lösung des Zusammenhangs zwischen Volumen und Tiefe der Öllagerung. Wir bauen das entsprechende Modell mit der Methode des linearen Regresses, Datenschluss, Interpolation und erhalten schließlich den erforderlichen Wert mit MATLAB-Software. Wir bauen ein Integralmodell mit Integralformel und erhalten die Beziehung zwischen Volumen und Tiefe, die Öl speichern, basierend auf der Integralformel mit der Methode des Schließens von Polynomfunktionen, um eine neue Funktionsformel zu erstellen, die die Lösung erleichtert. Durch Analyse des Fehlers und Vergleich der erzeugten Kurve mit den realen Daten ist der Fehler geringer.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18134-4_49 0ee8754c402dfa71fcd7d1a57d2b7575;de;;;1.3.;;;Ein Überwachungssystem, das CNN zur Gesichtserkennung mit Objekt-, Personen- und Gesichtserkennung verwendet In letzter Zeit spielt das Überwachungssystem eine wichtige Rolle bei der Aufklärung mehrerer Verbrechen, indem es von Menschen zu beobachtende Monitore ersetzt. Nicht nur viele Funktionen sind kompliziert in ein System integriert, sondern es wurde auch ein System entwickelt, um statistische Daten zu erfassen, um nützliche Informationen zu extrahieren. Es sollte jedoch in Betracht gezogen werden, viele Funktionen zu integrieren, um die Verarbeitungszeit zu reduzieren, da ein System eine begrenzte Verarbeitungsfähigkeit hat. Wenn ein System sich bewegende Objekte berücksichtigt, könnte es die Verarbeitungszeit verkürzen, da das Überwachungssystem normalerweise einen statischen Hintergrund hat, der nutzlose Informationen ist. Personen- und Gesichtserkennung werden in erkannten Objekten durchgeführt. Erkannte Gesichter werden mit CNN (Convolutional Neural Network) erkannt. Die Verarbeitungszeit des vorgeschlagenen Systems wird reduziert und die wahre Gesichtserkennungsrate beträgt 72,7% bei unterschiedlichen Entfernungen von 2 m bis 5 m.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0557-2_93 6b9da3291fe7a76ac2f9625f78679b14;de;;;1.3.;;;Vergleich des Mundgesundheitsverhaltens zwischen zahnmedizinischen und nicht-zahnmedizinischen Studenten an einer Universität im Südwesten Chinas – Erforschung der zukünftigen Priorität der Mundgesundheitserziehung Laut einer nationalen Umfrage aus dem Jahr 2015 hat das Mundgesundheitsverhalten (OHB) der Menschen nach Jahrzehnten der Mundgesundheitserziehung (OHE) nicht mit dem Wissens- und Einstellungstempo in China Schritt gehalten. Daher müssen wir OHE verbessern, um das OHB der Menschen zu stärken. Studenten gelten als die besten Kandidaten für die Verbesserung der OHE. Das Ziel dieser Studie ist es, den Mundgesundheitsstatus von Studenten und bestehende Probleme in OHB durch den Vergleich von zahnmedizinischen und nicht zahnmedizinischen Studenten an der Sichuan University zu bestimmen. Wir hoffen, einige Vorschläge für zukünftige OHE geben zu können, um das OHB der Menschen zu verbessern.;-;-;-;https://link.springer.com/article/10.1186/s12903-020-01232-1 f883df7a8b633be3c088633996b3351a;de;;;1.3.;;;Drei Phasen der De-facto-Quasi-Dezentralisierung der Hochschulbildung in China seit 1949 Diese Studie konzentriert sich auf die drei Phasen der De-facto-Quasi-Dezentralisierung der Hochschulbildung in China seit 1949 und die Zentrum-Lokal-Beziehungen während jeder der Phasen. Die drei Phasen sind: (1) die Phase der späten 1950er und frühen 1960er Jahre, als die Kontrolle auf Provinzebene verstärkt wurde, (2) die Phase der späten 1990er und frühen 2000er Jahre, als „unabhängige Hochschulen“ und von Menschen geführte Institutionen und (3) die gegenwärtige Phase, die seit Mitte der 2000er Jahre andauert, in der chinesisch-ausländische Elite-Institutionen (zB NYU Shanghai) und junge Elite-Forschungseinrichtungen (zB ShanghaiTech und Westlake University) genehmigt wurden. Um die Diversifizierung und Verbreitung von Hochschuleinrichtungen in jeder Phase zu untersuchen, wurde ein theoretischer Rahmen auf der Grundlage von Zhengs (De facto Federalism in China: reforms and dynamics of central-local relations, World Scientific, Singapur,;-;-;-;https://link.springer.com/article/10.1057/s41307-019-00159-9 a31dbb1ce3b29053be212f13a66dedc8;de;;;1.3.;;;Auf dem Weg zur automatischen forensischen Gesichtserkennung In diesem Beitrag stellen wir eine Methodik und experimentelle Ergebnisse zur Evidenzbewertung im Kontext der forensischen Gesichtserkennung vor. In forensischen Anwendungen muss der Matching-Score (im Folgenden Ähnlichkeits-Score genannt) aus einem biometrischen System als Likelihood Ratio (LR) dargestellt werden. In unseren Experimenten betrachten wir das Gesichtserkennungssystem als „Black Box“ und berechnen LR aus Ähnlichkeitswerten. Der vorgeschlagene Ansatz entspricht dem Bayes'schen Rahmen, wonach die Pflicht eines Forensikers darin besteht, LR aus biometrischen Beweisen zu berechnen, die dann vom Richter oder der Jury mit Vorkenntnissen des Falls eingearbeitet werden. In unseren Experimenten verwenden wir insgesamt 2878 Bilder von 100 Probanden aus zwei verschiedenen Datenbanken. Unsere experimentellen Ergebnisse beweisen die Machbarkeit unseres Ansatzes, einen LR-Wert bei einem Bild eines verdächtigen Gesichts und eines befragten Gesichts zu erreichen. Darüber hinaus vergleichen wir die Leistung zweier biometrischer Gesichtserkennungssysteme in der forensischen Fallarbeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25453-6_5 8417010e43149a2479f4a7af9a922d64;de;;;1.3.;;;Modelle zur Unterstützung der Weiterbildung von Fachkräften für den Hightech-Bereich Das Weiterbildungskonzept für Fachkräfte für High-Tech-Branchen ist aktuell, insbesondere für die Software-Engineering-Ausbildung. Die Prozesse der Weiterbildung von Fachkräften, die Erstellung und Entwicklung von Bildungsprogrammen, die Unterstützung von E-Learning-Ressourcen sind eng miteinander verbunden und erfordern eine komplexe Automatisierung, um eine qualitativ hochwertige und relevante Ausbildung bereitzustellen. Wir entwickeln die Modelle für den Lebenszyklus von Fach-, E-Learning-Ressourcen und Bildungsprogrammen. Auf Basis dieser Modelle wird ein Prototyp des CALS-Systems entwickelt. Für die Online-Synchronisation der entwickelten Modelle wird eine Netzwerkumgebung benötigt, um eine Gemeinschaft von Universitäten und Industrie zu schaffen. Die Bildungsstandards der Bundesländer und die professionellen Standards in den Informationstechnologien haben jetzt unterschiedliche Ontologien, und die Netzwerkumgebung wird dazu beitragen, die Informationsinteraktion und das Verständnis des Arbeitsmarktes und der Universitäten im High-Tech-Sektor zu verbessern. Das Netzwerkumfeld umfasst nicht nur die Themen Bildung, Bewertung und Beratung, sondern auch wissenschaftliche Aktivitäten (gemeinsame Forschung und Entwicklung) und die Kommerzialisierung universitärer Forschungsergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11854-3_10 ae994231eee85cb1b520dc1ddd050620;de;;;1.3.;;;IT-Professionelles Robotersimulations-Trainingssystem basierend auf Projektdurchdringungs- und Schwimmbadlehrmethoden In diesem Beitrag wurde die projektorientierte Lehrmethode mit der Schwimmbad-Lehrmethode kombiniert, wobei praktische Trainingsmethoden übernommen und das im Unterricht erlernte Wissen durch das Projekt in den Ausbildungsprozess integriert wurden. So konnten die Schüler nach und nach verstehen und sich verbessern. Bei der Implementierung der Lehrmethoden, die auf die Nachteile hoher Schadensrate, hoher Baukosten und der Tatsache abzielen, dass das vollständig virtuelle Experimentiersystem in der Vergangenheit keine reale Entwicklungsumgebung bieten konnte, als das traditionelle Experimentier- und Trainingssystem eine hohe Schadensrate und schlug eine paravirtualisierte Robotersimulation vor. Die Schulungsszenarien umfassen Anwendungsszenarien, Cloud-Plattformen und Schnittstellenkarten, um sicherzustellen, dass die Schüler die tatsächliche Entwicklungsumgebung praxisnah kennen. Die Umgebung des Anwendungsszenarios nach Abschluss des experimentellen Programms ist virtuell, teilbar und wiederverwendbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3648-5_125 37f2b6aabfb9e71ac0a68d4671a0d1a8;de;;;1.3.;;;Evolutionäres Circular-ELM zur referenzreduzierten Bewertung der wahrgenommenen Bildqualität Derzeit ist die Qualität des Bildes sehr wichtig. Das Publikum muss das unverzerrte Bild wie das Originalbild erhalten. Ursache für den Verlust der Bildqualität wie Speicherung, Übertragung, Komprimierung und Rendering. Die Mechanismen beruhen auf Systemen, die die visuelle Qualität mit der menschlichen Wahrnehmung beurteilen können. Computational Intelligence (CI)-Paradigmen stellen eine geeignete Technologie dar, um dieses anspruchsvolle Problem zu lösen. In diesem vorliegenden Papier wird die Evolutionary Extreme Learning Machine (EC-ELM) in Circular-ELM (C-ELM), das eine erweiterte Extreme Learning Machine (ELM) ist, und die Differential Evolution (DE) abgeleitet, um geeignete Gewichtungen und versteckte Verzerrungen auszuwählen , das die Leistung bei der Lösung des Problems der visuellen Qualitätsbewertung nachweisen kann, indem es in den vorgeschlagenen Rahmen eingebettet wird. Aufgrund der experimentellen Ergebnisse kann das EC-ELM die visuellen Signale in Qualitäts-Score-Werte abbilden, die dem echten Qualitäts-Score als ELM, Evolutionary Extreme Learning (E-ELM) und dem ursprünglichen C-ELM nahe kommen und auch stabil sind. Seine Dose bestätigt, dass das EC-ELM auf anerkannten Benchmarks und auf vier verschiedene Arten von Verzerrungen getestet wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46578-3_77 c760b4d8718468e574e47566b4934b3e;de;;;1.1.;;;Vertrauen und adaptive Rationalität In den letzten Jahren beschäftigte sich ein immer größerer Teil der Vertrauensforschung mit der unterschiedlichen Art und Weise, wie kognitive Prozesse die Wahl einer vertrauensvollen Handlung beeinflussen, verzerren und bestimmen. Eine zunehmend beachtete Idee ist, dass es tatsächlich eine Reihe verschiedener „Wege zum Vertrauen“ gibt, die ein Treugeber bei einem Vertrauensproblem einschlagen kann. Die Thesen sind sehr unterschiedlich, doch gemeinsam ist ihnen die Grundidee, dass Vertrauen das Produkt kognitiver Abkürzungen sein kann, die die Informationsverarbeitung erleichtern und die kognitive Belastung des Vertrauensgebers reduzieren, um knappe kognitive Ressourcen und Verarbeitungskapazitäten freizusetzen. Im Wesentlichen weisen sie auf einen unterschiedlichen Grad an Rationalität bei der Wahl einer vertrauensvollen Handlung und allgemeiner auf die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-07327-5_4 61a95ab3865fe0ae97da3c7871de7a30;de;;;1.1.;;;Literaturische Rezension Dieses Kapitel gibt einen Überblick über die vorhandene Literatur im Zusammenhang mit TPPR und konzentriert sich auf theoretische sowie empirische Arbeiten, die einen Einfluss von TPPR auf das Verbraucherverhalten nahelegen. Darüber hinaus werden die wichtigsten Konstrukte des Verbraucherverhaltens, die dieser Arbeit gewidmet sind, eingehend diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-3633-2_2 06936ca70918b3ec6af61001869ba791;de;;;1.3.;;;Warum wollen sie unterrichten? Die vielfältigen Gründe verschiedener Schülergruppen für eine Lehrerausbildung In Zeiten des Lehrermangels ist eine wohlüberlegte, zielorientierte Lehrerrekrutierung wichtig. Ein Verständnis der Gründe, warum verschiedene Schülergruppen eine Lehrerausbildung absolvieren, wäre für die Entwicklung gezielter Kampagnen hilfreich. Vor diesem Hintergrund lautet die Forschungsfrage: Was sind die Motivationen für den Einstieg in die Primarlehrerausbildung und unterscheiden sich diese Motivationen je nach Schülercharakteristik? Während eines Pflichtkurses wurde ein Fragebogen durchgeführt, der auf den Gründen und Erwartungen des Lern- und Studienfragebogens beruhte. Die Teilnehmer waren 1.805 Grundschullehrer, die ihr erstes Studienjahr an 14 verschiedenen Schulen in Flandern (Belgien) begannen. Die Ergebnisse zeigen, dass die Schüler die Lehrerausbildung hauptsächlich aus intrinsischen und altruistischen Gründen absolvieren, z in der Welt. Darüber hinaus berücksichtigen die Studierenden auch extrinsische Faktoren wie gute Arbeitsbedingungen, lange Ferien und die Vereinbarkeit von Beruf und Familie. Es wurden signifikante Unterschiede in der Motivation gefunden, die mit Schülermerkmalen wie Geschlecht, Alter, Bildungshintergrund und selbst berichteten schulischen Leistungen zusammenhängen, was darauf hindeutet, dass die Rekrutierung von Lehrkräften von bevölkerungsspezifischen Ansätzen zur Steigerung der Attraktivität von Lehre und Lehrerausbildung profitieren könnte.;-;-;-;https://link.springer.com/article/10.1007/s10212-012-0151-4 f1b5d7134ad7b8315deb5f7457fd1056;de;;;1.3.;;;Erfahrung mit Fernstudium der Informatik Informations- und Kommunikationstechnologien entwickeln sich sehr schnell. Auf diese rasante Entwicklung muss das Informatiklernen reagieren. Außerdem erfordert die Ausbildung von IKT-Mitarbeitern Flexibilität und Akzeptanz neuer Fakten. Es besteht die Notwendigkeit, Ihr Wissen und Ihre Fähigkeiten ständig weiterzubilden und zu erweitern. Das traditionelle System der Vollzeitausbildung ist oft nur für junge Studierende geeignet. Wer bereits berufstätig ist, zieht das Fernstudium einer kombinierten Bildungsform vor. Dieser Artikel illustriert zwanzig Jahre Erfahrung im Fernstudium im Bachelor und Master of Science in Informatik. Annahmen bestätigen, dass das Fernstudium für die Studierenden anspruchsvoller ist als das Vollzeitstudium. Das Fernstudium erfordert eine höhere Motivation der Studierenden und die Fähigkeit, mit der Zeit im Selbststudium zu arbeiten. Der Artikel zeigt den Vergleich der Ergebnisse und der Erfolgsquote von Präsenz- und Fernstudierenden und beschreibt auch die Möglichkeiten zur Verbesserung der Qualität des Fernstudiums. Langfristige Ergebnisse zeigen, dass Fernstudierende in den ersten Studienjahren deutlich schlechtere Ergebnisse erzielen als Vollzeit-Bachelorstudierende. In den Folgejahren nehmen die Unterschiede ab und die Schülerergebnisse sind teilweise vergleichbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99972-2_41 4a9c101744da7e433263253fab1e4187;de;;;1.3.;;;Erkennung einzelner Geschwister bei Geschwistern mit Gangbiometrie Gang ist eine weitere potenzielle menschliche Biometrie, die untersucht werden sollte, wenn die Gesichtserkennung in videobasierten Systemen fehlschlägt, wie es bei Geschwistern mit ähnlichen Gesichtern der Fall ist. Wir führen Analysen an 10 Geschwisterpaaren durch, bei denen angenommen wird, dass ihre Gesichter Ähnlichkeiten aufweisen. Unsere Gangmerkmale sind die Winkelversatztrajektorien von gehenden Individuen. Wir wenden Glättung mit dem Bezier-Polynom in unserem Wurzelfindungsalgorithmus für eine genaue Gangzyklus-Extraktion an. Dann wenden wir die Klassifikation mit zwei verschiedenen Klassifikatoren an, der linearen Diskriminanzanalyse (LDA) und der;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25462-8_10 27b9c108e616e716e94f95f3602e0f53;de;;;1.3.;;;Der Public-Health-Ansatz zur Reduzierung von Suiziden: Möglichkeiten für die Lehrplanentwicklung in psychiatrischen Ausbildungsprogrammen Die Autoren überprüfen den aktuellen Stand der Curricula zur Suizidprävention in psychiatrischen Ausbildungsprogrammen, beschreiben den Public-Health-Ansatz zur Suizidprävention, diskutieren Public-Health-Strategien zur Reduzierung von Suiziden und die einzigartige Rolle von Psychiatern in Bezug auf die Suizidprävention und bieten Public-Health-orientierte Richtlinien zur Suizidprävention für Assistenzärzte in der Psychiatrie.;-;-;-;https://link.springer.com/article/10.1007/s40596-014-0127-6 8dd27de9e7776377353e3d3b0c0bf336;de;;;1.1.;;;Informationsmanagementsystem für kleine automatische Navigationsroboterschiffe Automatische Navigationsroboterschiffe haben große Ergebnisse bei der Erfassung von Meeresdaten. Insbesondere kleine Roboterschiffe mit automatischer Navigation haben geringe Kosten und können präzise navigieren, so dass sie bei mehreren Operationen einen Vorteil haben. Ein Problem bei der Datensammlung durch mehrere kleine automatische Navigationsroboterschiffe besteht jedoch darin, dass bei der Navigationsplanung, dem Navigationsmanagement und der Datenanalyse im Vergleich zu der Durchführung mit einem einzelnen Schiff viel Arbeit erforderlich ist. In dieser Veröffentlichung wird ein Informationsmanagementsystem namens Robot Ship Information Management System (RSIMS) für kleine Roboterschiffe mit automatischer Navigation vorgeschlagen, um das obige Problem zu lösen. RSIMS verarbeitet von Schiffen und Benutzern gesendete Daten in Echtzeit. Zunächst werden die verarbeiteten Daten in drei Arten von Informationen zu Schiff, Ozean und Kreuzfahrtplan unterteilt. Dann zeigt RSIMS Benutzern die neuesten Informationen auf der Web-GUI an. Der Benutzer kann immer die neuesten Informationen durchsuchen, da die in Echtzeit aktualisierten Informationen durch asynchrone Kommunikation auch auf der Web-GUI ständig aktualisiert werden. RSIMS hat eine hohe Nützlichkeit und Benutzerfreundlichkeit beim Betrieb von automatischen Navigationsroboterschiffen, die durch Hinzufügen einer Anwendung mit hoher analytischer Fähigkeit zu RSIMS effektiver gemacht werden soll.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-78361-7_32 e0641562dfd1fe35b6e063707f930aad;de;;;1.3.;;;Ein linguistisch-intelligentes System für technologiegestütztes Lernen in der Berufsbildung – Das ILLU-Projekt In diesem Beitrag beschreibe ich ein linguistisch intelligentes Softwaresystem mit Methoden der Computerlinguistik zur automatischen Bewertung von Übersetzungen in der Online-Ausbildung von Dolmetschern und Übersetzern. Mit diesem System erhalten die Studenten eine Online-Schnittstelle, die ihnen ein angemessenes Übersetzungstraining bietet. Das Hauptziel bei der Entwicklung eines solchen Systems war es, eine E-Learning-Einheit zu schaffen, die es den Studierenden ermöglicht, einen vorgegebenen Text in einer speziellen Online-Umgebung zu übersetzen und anschließend eine automatische Auswertung der eingegebenen Übersetzung vom System zu erhalten. Dies geschieht auf computerlinguistischer Basis mit spezieller Analysesoftware, Musterlösungen und hinterlegten Klassifikationen typischer Übersetzungsfehler.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04636-0_87 7fb740b2e4c3dbae4cc95e5284f770c2;de;;;1.3.;;;Eine neuartige alternative Hypothesencharakterisierung unter Verwendung von Kernel-Klassifikatoren für die LLR-basierte Sprecherverifizierung In einem Log-Likelihood-Ratio (LLR)-basierten Sprecherverifikationssystem ist die Alternativhypothese normalerweise schlecht definiert und a priori schwer zu charakterisieren, da sie den Raum aller möglichen Betrüger abdecken sollte. In diesem Beitrag schlagen wir ein neues LLR-Maß vor, um die Alternativhypothese effektiver und robuster als herkömmliche Methoden zu charakterisieren. Dieses LLR-Maß kann weiter als ein nichtlinearer Diskriminanzklassifizierer formuliert und durch Kernel-basierte Techniken wie die Kernel Fisher Discriminant (KFD) und Support Vector Machine (SVM) gelöst werden. Die Ergebnisse von Experimenten zu zwei Sprecherverifikationsaufgaben zeigen, dass die vorgeschlagenen Methoden klassische LLR-basierte Ansätze übertreffen.;-;-;-;https://link.springer.com/chapter/10.1007/11939993_53 4c369664d52ebb62d615d1b88060f8e3;de;;;1.3.;;;Erkennen der Verwendung von tragbaren elektrischen Geräten mit einer handgetragenen Drahtspule Dieser Artikel beschreibt die Entwicklung eines neuen fingerringförmigen Sensorgeräts mit einer Drahtspule zur Erkennung der Verwendung von tragbaren elektrischen Geräten wie Digitalkameras, Mobiltelefonen, elektrischen Zahnbürsten und Haartrocknern durch Erfassen zeitveränderlicher Magnetfelder, die von der Geräte. In letzter Zeit hat sich die Erfassung der Nutzung von elektrischen Haushaltsgeräten als vielversprechendes Gebiet für Studien zur Aktivitätserkennung herausgestellt, da wir die täglichen Aktivitäten auf hohem Niveau abschätzen können, indem wir die Nutzung von Elektrogeräten erkennen, die in unserem täglichen Leben allgegenwärtig sind. Unser Ansatz zeichnet sich dadurch aus, dass wir die Nutzung von Elektrogeräten, die nicht an die Heiminfrastruktur angeschlossen sind, erkennen können, ohne diese mit Sensoren ausstatten zu müssen. Wir haben die Leistung unseres Ansatzes anhand von Sensordaten aus realen Häusern bewertet. Wir haben auch die Übertragbarkeit von Trainingsdaten zwischen verschiedenen Benutzern untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31205-2_15 84e1bac864f617ac2f19d650e540e868;de;;;1.3.;;;Übersetzung der Spezifikation für sicherheitskritische Softwareanforderungen in Lustre SpecTRM-RL (Specification Tools and Requirements Methodology-Requirements Language) ist eine Modellierungssprache zur Beschreibung sicherheitskritischer Softwareanforderungen. SpecTRM-RL unterstützt jedoch keine formale Verifikation, die bei der Entwicklung sicherheitskritischer Systeme und Software eine sehr wichtige Rolle spielt. Lustre ist eine datenflusssynchrone Sprache, die für die Programmierung reaktiver Systeme entwickelt wurde. Lustre unterstützt die Analyse und formale Verifikation sowie die Codegenerierung. Daher wird SpecTRM-RL durch die Übersetzung von SpecTRM-RL in Lustre nicht nur SpecTRM-RL eine Verifizierungsfunktion verleihen, sondern auch ermöglichen, dass SpecTRM-RL verschiedene Analyseansätze von Codes unterstützt, indem es einen zuvor entwickelten Übersetzer verwendet, der Lustre in NuSMV, PVS PV umwandelt , und SAL. In diesem Papier stelle ich die Regeln zur Übersetzung von SpecTRM-RL in die Lustre-Sprache vor und präsentiere auch eine empirische Studie, in der wir ein SpecTRM-RL-Anforderungsdokument unter Verwendung der vorgeschlagenen Regeln praktisch in Lustre übersetzen. Diese Studie zeigt, dass SpecTRM-RL effektiv in Lustre umgewandelt werden kann, um die formale Verifizierung zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-6268-1_29 19b9a302280b5f24d2f13e5291bdcdf3;de;;;1.3.;;;Assoziative Lernmethode in einem Hypersäulenmodell Wir schlagen ein assoziativ lernbares Hypersäulenmodell (AHCM) vor. Ein Hypersäulenmodell ist ein selbstorganisiertes, kompetitives und hierarchisches mehrschichtiges neuronales Netzwerk. Es wird vom Neocognitron abgeleitet, indem jede S-Zelle und C-Zelle durch eine zweischichtige hierarchische selbstorganisierende Karte ersetzt wird. Das HCM kann Bilder mit unterschiedlicher Objektgröße, Position, Orientierung und räumlicher Auflösung erkennen. Featurekarten können jedoch einige Features integrieren, die in der unteren Schicht extrahiert wurden, selbst wenn die Features aus Eingabedaten extrahiert werden, die zu verschiedenen Kategorien gehören. Der Lernalgorithmus des HCM verursacht dieses Problem, da es sich um ein unüberwachtes Lernen handelt, das von einer selbstorganisierenden Karte verwendet wird. Daher wird ein assoziatives Lernverfahren eingeführt, das aus dem HCM abgeleitet wird, indem assoziative Signale und assoziative Gewichte an traditionelle Eingangsdaten bzw. Verbindungsgewichte angehängt werden. Die AHCM wurde zur Handformerkennung angewendet. Wir haben festgestellt, dass das AHCM eine geeignete Merkmalskarte und eine höhere Erkennungsgenauigkeit im Vergleich zum HCM generieren kann.;-;-;-;https://link.springer.com/article/10.1007/s10015-006-0404-x 361075b0d3aae6e49a296fbd3698a897;de;;;1.3.;;;Soziale Faktoren im naturwissenschaftlichen Unterricht Ein Überblick über die wichtigsten Faktoren, die für das Lernen von Wissen relevant sind, legt eine Reihe von sozialen Variablen nahe, die untersucht werden sollten. Es wird eine Reihe von sozialen Experimenten vorgeschlagen, die bei den Gymnasiasten des Landes zu verbesserten Leistungen in Naturwissenschaften führen können. Diese Analyse legt eine Politik der wissenschaftlichen Bildung nahe.;-;-;-;https://link.springer.com/article/10.1007/BF00120861 790b29b893aeafdaf94f8ade6b0cd506;de;;;1.3.;;;Generikasubstitution: ein potenzieller Risikofaktor für Medikationsfehler in Krankenhäusern Die Bemühungen, die Arzneimittelkosten im norwegischen Krankenhaussektor einzudämmen, haben sich auf die Ausschreibung von Arzneimitteln konzentriert, was zu häufigen Änderungen der Arzneimittelbestände führte. Aufgrund des Ausmaßes der Verschreibung durch Ärzte aus der Krankenhaus-Medikamentenliste müssen die Pflegekräfte auf den Stationen eine Generikasubstitution durchführen. Ziel der vorliegenden Studie ist es, die Erfahrungen von Krankenhauspflegekräften mit Generikasubstitution zu untersuchen und ihre Ansichten zu dieser Strategie als Risikofaktor für Medikationsfehler zu untersuchen.;-;-;-;https://link.springer.com/article/10.1007/s12325-010-0007-8 6d817c9586500755b01a19e7fa7c8c35;de;;;1.3.;;;Ernährungsmanagement von Typ-2-Diabetes durch Hausärzte Eine Umfrage wurde an eine Wahrscheinlichkeitsstichprobe von Hausärzten in Indiana gesendet, um ihren Einsatz und die Hindernisse für eine Ernährungstherapie bei Patienten mit Typ-2-Diabetes zu bewerten. Die meisten (62 %) Hausärzte gaben an, ihre Typ-2-Diabetes-Patienten zur Ernährungsberatung zu überweisen, während 38 % angaben, selbst Beratung anzubieten. Patientenzentrierte Barrieren wurden am häufigsten als Gründe für die geringe Wirksamkeit der Ernährungstherapie genannt. Dies unterscheidet sich von früheren Forschungen, die Faktoren auf Systemebene als Barrieren anführen.;-;-;-;https://link.springer.com/article/10.1046/j.1525-1497.2000.t01-1-90907.x 19db21c5cb41e866a770ed90dbdbdfc3;de;;;1.3.;;;Geometrie in russischen Schulen: Traditionen der Vergangenheit und des Staates in der Gegenwart Die Rolle der Geometrie in Bildung und Leben ist enorm. Platon betrachtete die Geometrie als das erste Wesentliche in der Geistesschulung. „Niemand ohne Geometrie betreten meine Türen“, lautete die Inschrift über der Tür seiner Schule. V. Arnold sagt, dass jeder, der nie Beweiskunst studiert hat, richtiges Denken nicht von falschen unterscheiden kann. Das Erlernen der festen Geometrie ist wichtig für ihre Anwendungen in Physik, Kristallographie, Chemie usw. Geometrische Formen allein sind oft echte Kunstwerke und die visuelle Wahrnehmung von Ornamenten, Polyedern, ihre Symmetrien erfreuen das Auge und die zugrunde liegende Struktur stimuliert den Geist. Daher ist insbesondere die Geometrie ein mächtiges Werkzeug, um Schüler für die Mathematik zu begeistern.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-9046-9_16 308b450af0f4705943f86c88c2e1d295;de;;;1.3.;;;Systemdynamik in Europa heute: ein Rückblick auf professionelle Infrastruktur und akademische Programme Dieser Artikel beschreibt das Netzwerk von Organisationen und Aktivitäten, die hinter der Systemdynamik in Europa heute stehen, einschließlich Universitäten und Unternehmen, die den Ansatz und Informationen über die System Dynamics Society verwenden. Spätere Abschnitte des Artikels enthalten ausführliche Berichte über akademische Programme in Systemdynamik an der London Business School und den Universitäten Mannheim und Bergen.;-;-;-;https://link.springer.com/article/10.1057/palgrave.jors.2600735 ec3c0c88bed22705934fa6bf9f53d247;de;;;1.3.;;;Ein optimierungsbasierter Klassifikationsansatz mit der nicht-additiven Maßnahme Optimierungsbasierte Klassifikationsansätze wurden gut für Entscheidungsfindungsprobleme verwendet, wie beispielsweise die Klassifikation beim Data Mining. Es geht davon aus, dass die Beiträge aller Attribute für das Klassifizierungsmodell dem gemeinsamen individuellen Beitrag jedes Attributs entsprechen. Die Auswirkungen der Interaktionen zwischen Attributen werden jedoch aufgrund der linearen oder gleichmäßigen Aggregation von Attributen ignoriert. Daher führen wir das verallgemeinerte Choquet-Integral in Bezug auf das nicht-additive Maß als das Attribut-Aggregationswerkzeug zu den optimierungsbasierten Ansätzen in Klassifikationsproblemen ein. Außerdem ist die Grenze für die Klassifizierung in unserem vorgeschlagenen Modell im Vergleich zu früheren optimierungsbasierten Modellen optimiert. Das experimentelle Ergebnis von zwei Real-Life-Datensätzen zeigt die signifikante Verbesserung des Einsatzes der nicht-additiven Maßnahme im Data Mining.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69387-1_51 d2c46a898c0a665ceea0989f57a41108;de;;;1.3.;;;Simulationen von Sommerniederschlägen in China mit einem optimalen Ensemble von Kumulusschemata RegCM3-Simulationen (REGional Climate Model) des Niederschlags in China in den Jahren 1991 und 1998 sind sehr empfindlich gegenüber der Cumulus-Parametrisierung. Von den vier verfügbaren Systemen hat keines in ganz China überlegene Fähigkeiten, aber jedes erfasst bestimmte beobachtete Signale in verschiedenen Regionen. Das Grell-Schema mit der Fritsch-Chappell-Schließung erzeugt die geringsten Verzerrungen über dem Norden, das Grell-Schema mit der Arakawa-Schubert-Schließung schneidet im Südosten von 100°O am besten ab, das Anthes-Kuo-Schema ist gegenüber dem Nordosten überlegen, und die Das Emanuel-Schema ist im Südwesten von 100°E und entlang des Jangtse-Beckens realistischer. Diese Unterschiede weisen auf ein starkes Maß an Unabhängigkeit und Komplementarität zwischen den Parametrisierungen hin. Als solches wird aus den vier Schemata ein Ensemble entwickelt, dessen relative Beiträge oder Gewichte lokal optimiert werden, um insgesamt minimale quadratische Fehler aus beobachteten täglichen Niederschlägen zu ergeben. Der Kompetenzgewinn wird bewertet, indem die gleiche Verteilung der Gewichte in einem anderen Zeitraum angewendet wird. Es zeigt sich, dass das Ensemble sowohl 1991 als auch 1998 immer kleinere Bruttoverzerrungen erzeugt als die einzelnen Schemata. Das Ensemble kann jedoch die großen Niederschlagsdefizite über dem Südwesten von 100°E und entlang des Jangtsebeckens, die systematisch sind, nicht eliminieren über alle Schemata hinweg. Weitere Verbesserungen können durch ein Super-Ensemble basierend auf mehreren Cumulus-Schemata und/oder mehreren Modellen vorgenommen werden.;-;-;-;https://link.springer.com/article/10.1007/s11707-009-0022-8 59d74f697ffaf0ec5f94752ce8a71281;de;;;1.1.;;;Ein Ortungsdienst mit Lastenausgleich für die Verwaltung von Standortinformationen von drahtlosen Sensornetzwerken mit mehreren Senken In vielen Anwendungen von Wireless Sensor Networks (WSNs) verfügt das Netzwerk neben einer großen Anzahl statischer Sensorknoten, die Informationen aus ihrer Umgebung sammeln, über einige mobile Senken. Die statischen Sensorknoten in solchen Anwendungen verwenden einen Ortungsdienst, um den Standort einer mobilen Senke zu finden. Die meisten der vorgeschlagenen Ortungsdienste sind in mobilen Ad-hoc-Netzwerken nützlich und für WSNs nicht effizient. Außerdem sind neue Protokolle, die speziell für WSNs entwickelt wurden, nicht lastausgleichend. Einige Sensorknoten leiten mehr Pakete weiter und verbrauchen ihre Energie schnell, wodurch die Netzwerklebensdauer drastisch reduziert wird. In diesem Whitepaper schlagen wir einen Standortdienst namens Load Balanced Location Service (LBLS) für WSNs vor, die einige mobile Senken enthalten. LBLS wählt vier Knoten im Netzumriss aus und verwendet nur den Standort dieser Knoten. LBLS verbrauchen nicht die Energie bestimmter Knoten im Vergleich zu anderen Mechanismen, die Standortinformationsnachrichten an ausgewählte Knoten weiterleiten. Wir beweisen formal, dass in LBLS jeder Sensorknoten immer jeden mobilen Knoten im Netzwerk lokalisieren kann. Durch eine umfassende Simulation zeigen wir, dass LBLS ein Ortungsdienst mit Lastenausgleich ist. Simulationsergebnisse zeigen die Überlegenheit von LBLS hinsichtlich des Lastausgleichsfaktors im Vergleich zu den meisten verfügbaren zugehörigen Ortungsdiensten.;-;-;-;https://link.springer.com/article/10.1007/s00607-017-0567-4 9c74f78b5cdaa2d3ede7a3e192b98841;de;;;1.3.;;;Entwicklungszusammenarbeit zwischen Universitäten: Erfahrungen der Vrije Universiteit 1976–1991 Wissen ist für die Entwicklung in jeder Gesellschaft unerlässlich. In modernen Gesellschaften haben wissenschaftliches Wissen und wissenschaftsbezogenes Wissen lebenswichtige Funktionen. Diese Art von Wissen ist Sache der Universitäten. Universitäten haben Zugang zum internationalen Lehrkörper. Sie machen Lernen in ihrer eigenen Umgebung verfügbar und geben es an neue Generationen weiter. Nach Möglichkeit werden die Hochschulen durch ihre Forschung das vorhandene Wissen ergänzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-23169-0_14 4a6271f9f66f02731468fc43644b2d53;de;;;1.3.;;;Vergleich von Model Checking und Term Rewriting zur Verifizierung eines eingebetteten Systems Es gibt zwei Hauptrichtungen für die Verifikation digitaler Systeme: Theorembeweisverfahren wie das Term-Rewriting werden für die Verifikation von datenorientierten Systemen verwendet, und die Modellprüfung von Zeitlogiken wird normalerweise für die Verifikation von kontrolldominierten Systemen verwendet. Während das Theorembeweisen eine inhärent interaktive Verifikationsmethode ist, wird die Modellprüfung automatisch durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35570-2_11 2369a3b207fe0b7eafee057d7b99e5e9;de;;;1.3.;;;Erlernen bimanueller Koordinationsmuster für rhythmische Bewegungen Koordinierte bimanuelle Bewegungen bilden die Grundlage für viele motorische Fähigkeiten des Alltags. Bei der menschlichen bimanuellen Koordination gibt es mehrere Grundprinzipien oder voreingestellte Koordinationsmodi, wie die Bevorzugung von gleichphasigen oder gegenphasigen Bewegungen. Ziel unserer Arbeit ist es, Roboter bimanuelle Koordination so lernen zu lassen, dass sie ohne weiteres Training Variationen der erlernten Bewegungen erzeugen können. In dieser Arbeit untersuchen wir ein künstliches System, das bimanuelle Koordinationsmuster mit verschiedenen Phasenunterschieden, Frequenzverhältnissen und Amplituden lernt. Die Ergebnisse erlauben uns zu spekulieren, dass, wenn die Beziehung zwischen den beiden Armen leicht darzustellen ist, das System in der Lage ist, diese Beziehung beizubehalten, wenn sich die Geschwindigkeit der Bewegung ändert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15825-4_19 558ab8b43073caabb7ff2ad2427a79b7;de;;;1.3.;;;Untersuchung des Vertrauens von Lehrern in technologisch-pädagogisches und inhaltliches Wissen: eine erste Validierung der TPACK-Skalen im Kontext der K-12-Computerausbildung education Die Ausbildung und das Profil von Informatiklehrern (CS) sind von entscheidender Bedeutung, um sicherzustellen, dass die Schüler Zugang zu einer qualitativ hochwertigen Informatikausbildung (CSE) haben. Ziel dieser Studie ist es, das Profil von CS-Lehrern in Griechenland zu untersuchen und mit der Technik der Persona abzubilden. Diese Studie untersucht eine nationale Stichprobe von 636 CS-Lehrern, die Algorithmen und Programmieren im Sekundarbereich II unterrichten. Der Aufbau der Persona basiert auf den Fähigkeiten und Bedürfnissen der Lehrkräfte in Bezug auf die zentralen Aspekte ihres Wissens in Bezug auf drei Schlüsseldomänen, die im Rahmen des technologischen, pädagogischen und inhaltlichen Wissens (TPACK) beschrieben werden. Den Ergebnissen zufolge erreichen Lehrkräfte relativ hohe Werte auf den TPACK-Subskalen, geben jedoch an, dass ihr Technologiewissen und die Schnittmenge zwischen inhaltlichem, pädagogischem und technologischem Wissen verbessert werden müssen. Darüber hinaus sind die Lehrkräfte der Meinung, dass sie Weiterbildung benötigen, um Technologie in ihren Unterricht zu integrieren sowie Algorithmen zu vermitteln, die zwei Bereiche sind, die sich auf pädagogisches Inhaltswissen und TPACK beziehen. Durch die Erfassung des Wissens, der Fähigkeiten und der Bedürfnisse von CS-Lehrern werden wir in der Lage sein, die Herausforderungen zu erkennen, mit denen sie während des Unterrichts konfrontiert sind, und Strategien und Richtlinien zur Bewältigung dieser Herausforderungen zu erwägen.;-;-;-;https://link.springer.com/article/10.1007/s40692-014-0024-8 16db45e89f2d0917dd8c476cea1531f2;de;;;1.3.;;;Determinanten der Schülerzufriedenheit in hybriden Lernumgebungen basierend auf MAPLE Mathematik ist in Deutschland leider zum Angstthema geworden und bleibt einer der Hauptgründe für einen Studienabbruch. Daher müssen Universitäten die Wissenslücke zwischen dem in der Schule erlernten mathematischen Wissen und dem im Studium benötigten mathematischen Wissen schließen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-81698-8_6 a6e9ce02421af240659678c4102ed6ae;de;;;1.3.;;;Erstellen und Retargeting von Bewegung durch das muskuloskelettale Modell des menschlichen Körpers In letzter Zeit wurde die Optimierung auf verschiedene Weise verwendet, um durch Bewegungserfassungssysteme erhaltene menschliche Körperbewegungen zu interpolieren oder neu auszurichten. Allerdings wurde in solchen Fällen die innere Struktur des menschlichen Körpers selten berücksichtigt, und es gab daher Schwierigkeiten, physiologische Effekte wie Ermüdung oder Verletzungen zu simulieren. In diesem Artikel schlagen wir eine Methode vor, um menschliche Körperbewegungen unter Verwendung eines muskuloskeletalen menschlichen Körpermodells zu erzeugen/umzulenken. Mit unserer Methode ist es möglich, dynamisch und physiologisch machbare Bewegungen zu erzeugen. Da in unserem System ein Muskelmodell auf Basis des Hill-Modells enthalten ist, ist es auch möglich, die ursprüngliche Bewegung durch Veränderung von Muskelparametern wieder anzusteuern. Mit dem Muskelermüdungsmodell kann beispielsweise eine Bewegung simuliert werden, bei der ein menschlicher Körper allmählich ermüdet. Durch Erhöhen oder Verringern der von den Muskeln ausübbaren Maximalkraft auf Null können auch Trainings- oder Verschiebungseffekte von Muskeln simuliert werden. Unsere Methode kann zur biomechanisch korrekten inversen Kinematik, Bewegungsinterpolation und physiologischen Retargeting der menschlichen Körperbewegung verwendet werden.;-;-;-;https://link.springer.com/article/10.1007/s003719900065 d340852bc73843959933d88589678d7d;de;;;1.3.;;;L’Enseignement Die verbreitete Weisheit über das französische Bildungswesen, dass das System von Napoleon geschaffen wurde und sich seitdem kaum verändert hat, hat nicht einmal mehr die Wahrheit, die es rechtfertigt. Der Druck der les événements von 1968 beschleunigte die Reformen im Hochschulbereich, und der Prozess hin zu einem System von Gesamtschulen wurde in den 1960er Jahren begonnen und schließlich durch die Haby-Reformen von 1975 durchgesetzt. unter der Leitung von Professeur Legrand erstellt, hat neue Vorschläge vorgelegt, auf die in einem der folgenden Artikel Bezug genommen wird, während eine kürzlich durchgeführte Umfrage;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-81220-2_10 8d3ac651321cd776fa677eb776530341;de;;;1.3.;;;Verwendung der Methodik der Dokumentenanalyse zur Untersuchung von Bildungsreformen und politischen Veränderungen in der postsowjetischen Ukraine Nach dem Zusammenbruch der Sowjetunion und der Ausrufung der Unabhängigkeit wurde die ukrainische Gesellschaft als gleichzeitig radikale Transformation innerhalb dreier Vektoren betrachtet – vom regionalen Außenposten zum Nationalstaat, vom Autoritarismus zur Demokratie und von der Kommandowirtschaft zur Marktwirtschaft (Pascual & Pifer , 2002). Die Bewältigung eines solchen Wandels ist zu einer Generationsherausforderung geworden, das Alte zu zerreißen und das Neue aufzubauen, während das Zerreißen eines alten Imperiums einfacher war, da verfallene Strukturen zerbröckelten, war der Aufbau eines neuen Staates eine schwierigere Aufgabe, da der Aufbau neuer Strukturen Zeit braucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-6351-011-0_12 f5634a921b933fb918836e250c6e70e4;de;;;1.3.;;;Forschung und Praxis zum anwendungsorientierten Bildungsmodus „Return to Engineering“ für College-Studenten der Fachrichtung Elektromechanik Es ist ein pädagogisches Merkmal unserer Schule, anwendungsorientierte technische Talente mit einer nachhaltigen Entwicklung zu fördern. „Return to Engineering“ und die kooperative Ausbildung von Fertigung, Studium und Forschung sind wichtige Methoden, um anwendungsorientierte Talente zu fördern und die Ausbildungsqualität von Ingenieurstudenten zu verbessern. Basierend auf der Analyse zur „Return to Engineering“ und der kooperativen Ausbildung von Herstellung, Studium und Forschung wird in dem Papier eine positive Untersuchung und Praxis des Talentförderungsmodus, der Studiensystemreform und des praxisorientierten Bildungssystembaus für Maschinenbaustudiengänge durchgeführt, um die ingenieurwissenschaftliche Anwendungsfähigkeit und das Bewusstsein der Studierenden und verbessern ihre umfassenden Qualitäten durch „Return to Engineering“ und die Zusammenarbeit von Herstellung, Studium und Forschung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24097-3_80 5241f194ec5415415966bec1c71f13b3;de;;;1.3.;;;Tutoren im Taschenformat für Wirtschaftswissenschaften Mobiles Lehren hat im Vergleich zu traditionellen Lehrmethoden sowohl Vor- als auch Nachteile. Mobile Anwendungen (Apps) bieten eine gute Lösung als unterstützendes Lehrmittel, um Missverständnisse zu lösen. Tutors in Pockets (TIPs) ist eine mobile App, die an der University of Wollongong entwickelt und implementiert wurde. Es ist als unterstützendes Lehr- und Lerninstrument für wirtschaftswissenschaftliche Inhalte konzipiert. Das Projekt ist als flexibler Rahmen für Lehrmaterialien konzipiert, die bei Bedarf auf weitere Studiengänge und Fächer erweitert werden können. Alle von Mobilgeräten unterstützten Multimediamaterialien können in dieser App verwendet werden, z. B. Video, Audio, Bild, Weblink und Text. Diese App ist so konzipiert, dass sie einfach mit bestehenden E-Learning-Systemen und -Modellen als Mehrwertwerkzeug verbunden werden kann, um den Schülern, die andere mobile Geräte verwenden, und den Schülern ohne mobiles Gerät einen gleichberechtigten Zugriff auf die entwickelten Lehrmaterialien zu bieten in Vorlesungen und Übungen übernommen. Sowohl persönliche Interviews als auch Online-Umfragen werden verwendet, um das Feedback von Studierenden und Mitarbeitern zu diesem Projekt zu sammeln. Die Ergebnisse zeigen, dass die TIPs-App einen positiven Einfluss auf die Lerneffizienz der Schüler, das Verständnis komplexer Konzepte, das Langzeitgedächtnis, die Korrektur einiger Missverständnisse, die Diskussion mit anderen Schülern und Lehrern sowie die Leistungen in den Fächern hat. Die Studenten sind sich auch einig, dass es ihnen hilft, jederzeit und überall eine kleine Zeit (wie das Warten auf einen Bus) zu nutzen, um zu lernen.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-642-41981-2_1-2 f5d2d8bd1eda94971d07ded29c38bb6e;de;;;1.3.;;;Pädagogische Evaluation intelligenter und kreativer Fähigkeiten mit Computerspielen: Eine Fallstudie für e-Learning Im Informationszeitalter ist ein Computer unser aktiver intelligenter Mitarbeiter, um zu arbeiten und etwas zu lernen, sodass die intelligente Fähigkeit des Lernenden auch bei der Ausbildung von Informationstechnologien (IT) berücksichtigt werden muss. Ziel dieser Arbeit ist es, eine quantitative Bewertung der intelligenten Fähigkeit bei der Computernutzung vorzuschlagen. Der Autor diskutiert einige Elemente der intelligenten Fähigkeit (wie Schnelligkeit, Logik, Genauigkeit, Gedächtnis, Urteilsvermögen, Geduld, Entscheidung und Schlussfolgerung) und formuliert quantitative Bewertungsmethoden der Elemente mit Computerspielen. Ein Tutor für IT-Ausbildung wird in der Lage sein, die Ergebnisse der Forschung auf die computergestützte Bildung anzuwenden, um die intelligenten Aktivitäten der Lernenden zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/11893004_126 bb63ad93085bc5fe4dc4a85a3fd1df43;de;;;1.3.;;;Anwendung geodätischer Empfänger zur Zeitmessung und Zeitübertragung Es werden zwei Verfahren zur Glättung der durch Träger und Doppler beobachtbaren Pseudoentfernung diskutiert. Dann wird das auf den RINEX-Beobachtungsdateien basierende Verfahren mit den geodätischen Ashtech Z-XII3T-Empfängern getestet, die von einer stabilen externen Frequenz bei der UNSO angetrieben werden. Dieses Papier schlägt vor, dieses Verfahren für die Verbindungen zwischen geodätischen Empfängern anzupassen, um die Vorteile;-;-;-;https://link.springer.com/article/10.1007/BF02826984 b8d04801be44fe36036ca5df6b82b9b3;de;;;1.3.;;;Qualifikationen — Investitionen in Bildung Unternehmen im grünen Technologiesektor müssen innovativ sein, um zu überleben. Doch Heureka-Momente werden eher von Wissenschaftlern und anderen hochqualifizierten, hochqualifizierten Mitarbeitern erlebt, nicht von gering qualifizierten Arbeitskräften. Eine hochqualifizierte Belegschaft ist die Grundlage für den Erfolg in zunehmend wettbewerbsintensiven Branchen. Ohne diese intelligenten Mitarbeiter werden Unternehmen im Bereich der grünen Technologie nicht gedeihen können. Vorbei sind die Zeiten, in denen es im Bereich Umwelttechnik hauptsächlich um arbeitsintensive Dienstleistungen wie Abfallwirtschaft und Recycling ging. Heute zählt sie zu den innovativsten Branchen weltweit und deckt die Leitmärkte umweltfreundliche Stromerzeugung und -speicherung, Energieeffizienz, Materialeffizienz, Abfallwirtschaft und Recycling, nachhaltiges Wassermanagement und nachhaltige Mobilität ab müssen innovativ sein, um zu überleben. Doch Heureka-Momente werden eher von Wissenschaftlern und anderen hochqualifizierten, hochqualifizierten Mitarbeitern erlebt, nicht von gering qualifizierten Arbeitskräften. Eine hochqualifizierte Belegschaft ist die Grundlage für den Erfolg in zunehmend wettbewerbsintensiven Branchen. Ohne diese klugen Mitarbeiter werden Unternehmen im Bereich der grünen Technologie nicht gedeihen können. Vorbei sind die Zeiten, in denen es im Bereich Umwelttechnik hauptsächlich um arbeitsintensive Dienstleistungen wie Abfallwirtschaft und Recycling ging. Heute zählt sie zu den innovativsten Branchen weltweit und deckt die Leitmärkte umweltfreundliche Stromerzeugung und -speicherung, Energieeffizienz, Materialeffizienz, Abfallwirtschaft und Recycling, nachhaltige Wasserwirtschaft und nachhaltige Mobilität ab.;-;-;-;https://link.springer.com/chapter/10.1057/9780230303874_19 34c98ae071d064efe7011aaa564461bb;de;;;1.1.;;;Benutzeroberfläche und Informationsmanagement von Szenarien Szenariobasiertes Training hat sich als effektiver Lehransatz erwiesen. Es kann jedoch für Ausbilder schwierig sein, Szenarien zu erstellen, da deren Entwicklung zeitaufwändig ist. Dies kann dazu führen, dass dieselben Szenarien wiederverwendet werden, was die Effektivität des Trainings verringert. Darüber hinaus basieren Szenarien auf Trainingszielen und können in ihrer Komplexität variieren. Forscher haben Methoden untersucht, um diesen Prozess zu vereinfachen, indem sie verschiedene Ansätze zur Szenariogenerierung bewertet haben. Innerhalb eines solchen Tools muss es jedoch eine Möglichkeit geben, die verschiedenen Szenariokomponenten und ihre Beziehungen innerhalb des Szenarios leicht zu verstehen. In diesem Beitrag werden das PYTHAGORAS-System (Procedural Yielding Techniques and Heuristics for Automated Generation of Objects with Related and Analogous Scenarios) und insbesondere dessen Editor zur Erstellung von Szenarien diskutiert. Wir haben dieses System entwickelt, um den Prozess der Szenariogenerierung zu vereinfachen und ein klareres Verständnis der Szenariokomponenten und -beziehungen zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21793-7_4 6edee54df2b1f1ca6b5026327bacfb48;de;;;1.3.;;;Fractional Dynamics of Hamiltonian Quantum Systems In der Quantenmechanik sind die Observablen durch selbstadjungierte Operatoren gegeben (Messiah, 1999, Tarasov, 2005). Die dynamische Beschreibung eines Quantensystems wird durch einen Superoperator (Tarasov, 2008b) gegeben, eine Regel, die jedem Operator genau einen Operator zuweist. Die Dynamik von Quantenobservablen wird durch die Heisenberg-Gleichung beschrieben. Für Hamilton-Systeme wird der infinitesimale Superoperator der Heisenberg-Gleichung durch eine Ableitung definiert (Tarasov, 2005, 2008b). Der infinitesimale Generator (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14003-7_19 bb25f8074d2ab11e6441edd3c07c1aae;de;;;1.3.;;;In der Plattform der Praxis Lehre Link, Studie zur Umweltelitebildung In den letzten Jahren hat die Fachrichtung Umwelttechnik der China University of Mining and Technology (Beijing) eine Reihe von Reformen durchgeführt, die darauf abzielen, die praktische Erfahrung der Studenten in Bezug auf die Innovationsfähigkeit zu verbessern. Dieses Papier untersucht das praktische Lehrsystem der Umwelttechnik in Kombination mit dieser praktischen Erfahrung. Es basiert auf dem von unserer Schule vorgebrachten Geist „Aktiver Aufbau des Bildungssystems der Elite der Energiewirtschaft und Erforschung diversifizierter Personalausbildungsmodi“. Darüber hinaus stellt dieser Beitrag die Maßnahmen vor, um den Forschungsvorsprung mit den Disziplinen der Umwelttechnik zu verbinden, die energieberuflichen Vorteile unserer Schule aufzuzeigen, die Praxis-Lehrverbindung im Bereich der Kohleentsorgung aufzubauen und die umweltfachliche Elite zu fördern.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_392 3f0d88e4a35d7ca5e4402eae7bd23f1b;de;;;1.1.;;;Teamorientierte Plattform zum Teilen von Informationen Um im heutigen hart umkämpften Markt bestehen und sich entwickeln zu können, müssen Unternehmen über ein hohes Maß an Flexibilität und schnelle Reaktionsfähigkeit verfügen. Die gleichen Anforderungen gelten auch für den Teileinformationsaustausch. Gerade im neuen Collaborative Product Commerce (CPC) ist diese Art des Informationsaustauschs eine Herausforderung. Die auf Unternehmensebene konzipierte traditionelle Teilebibliothek (Plib) ist nicht in der Lage, einen flexiblen und effektiven Informationsaustausch in CPC bereitzustellen. Unter Berücksichtigung des Prinzips der virtuellen Organisation in CPC wird die potenzielle Informationskapazität von Teams ausgeschöpft. Außerdem wird eine teamorientierte Plattform zum Teilen von Informationen vorgeschlagen. Diese Plattform besteht aus dem teamorientierten Teileinformationsmodell basierend auf dem Plib-Standard, der Architektur dieser Plattform und drei Arten von Mustern zum Teilen von Teileinformationen. Als Ergebnis dieses Ansatzes wird die Effizienz des Teile-Informationsaustauschs signifikant verbessert.;-;-;-;https://link.springer.com/article/10.1007/s00170-011-3887-0 15a7975bc87ee03fa7b12f406769f09c;de;;;1.1.;;;Depressive Kognition: Modelle, Mechanismen und Methoden Der Enthusiasmus für die kognitive Sichtweise der Depression wird durch die Zahl der in letzter Zeit erschienenen wichtigen Übersichts- und Kommentararbeiten belegt (z. B. Blaney 1986, Coyne 1982, Coyne & Gotlib 1983, 1986, Ingram & Reed 1986, Magaro, 1987, Segal & Shaw, 1986a, 1986b) sowie aus den Perspektiven vieler Mitwirkender dieses Bandes. Obwohl die Ansichten und Schlussfolgerungen dieser Autoren teilweise erheblich variieren, dokumentieren sie die Entwicklung und das enorme Wachstum des Interesses an kognitiven Mechanismen im letzten Jahrzehnt in Bezug auf verschiedene Aspekte des depressiven Funktionierens.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0649-8_11 a2056d05033e53c1d0901792ba641998;de;;;1.3.;;;Sind Point-of-Care-Tests in irischen Krankenhäusern bereit für den Labormodernisierungsprozess? Eine Prüfung anhand der aktuellen nationalen irischen Richtlinien Der Prozess der Labormodernisierung in Irland wird Point-of-Care-Tests (POCT) als einen seiner zentralen Grundsätze beinhalten. Eine frühere Basiserhebung zeigte jedoch, dass POCT insbesondere in Bezug auf Informationstechnologie (IT) und Personal unterbesetzt war.;-;-;-;https://link.springer.com/article/10.1007/s11845-013-0949-3 008619afb3db4f4763e9fd31bb81d550;de;;;1.3.;;;Das Wurmausbreitungsmodell mit dualer dynamischer Quarantänestrategie Internetwürmer werden mit der rasanten Entwicklung des Internets immer gefährlicher. Aufgrund der extrem schnellen Verbreitung und großen Zerstörungskraft von Netzwerkwürmern sind starke dynamische Quarantänestrategien notwendig. Inspiriert durch den realen Ansatz zur Prävention und Behandlung von Infektionskrankheiten schlägt dieses Papier eine Quarantänestrategie vor, die auf einem dynamischen Wurmvermehrungsmodell basiert: das SIQRV Dual Quarantine Model. Diese Strategie verwendet die dynamische Quarantänemethode, um den anfälligen Host und den infizierten Host unter Quarantäne zu stellen und sie dann nach einer bestimmten Zeit freizugeben, unabhängig davon, ob die Sicherheit des isolierten Hosts überprüft wurde. Durch mathematische Modellierung wurde herausgefunden, dass wenn die grundlegende Reproduktionszahl R;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18134-4_79 8c63cc055935acfb9a672c33ff31330e;de;;;1.3.;;;Anisomycin unterdrückt das Wachstum von Jurkat-T-Zellen durch die zellzyklusregulierenden Proteine Neuere Studien haben gezeigt, dass Anisomycin die Vermehrung von Säugetierzellen signifikant hemmt, sein Mechanismus bleibt jedoch unklar. In dieser Studie wurden Jurkat-T-Zellen verwendet, um zunächst einen Zusammenhang zwischen der Wirkung von Anisomycin auf sie und der Veränderung von zellzyklusregulierenden Proteinen zu untersuchen.;-;-;-;https://link.springer.com/article/10.1016/S1734-1140%2813%2971019-3 42db968c8fb347f93e2b4d08ada62d0d;de;;;1.3.;;;Bohren von Löchern mit hohem Seitenverhältnis mit Femtosekunden-Laserfilamenten mit Aberrationen Ein Nahinfrarot-Femtosekundenlaser wird durch eine plankonvexe Linse mit einer Brennweite von 100 mm fokussiert, um einen Laserfaden zu bilden, der zum Bohren von Löchern auf Kupfertargets verwendet wird. Durch Verschieben oder Drehen der Fokussierungslinse wird dem fokussierten Laserstrahl eine zusätzliche Aberration auferlegt und ein signifikanter Einfluss auf das Seitenverhältnis und die Querschnittsform der Mikrolöcher erzeugt. Experimentelle Ergebnisse zeigen, dass bei richtiger Aberration die Kupferplatte mit einer Dicke von 3 mm mit einem Seitenverhältnis von 30 durchbohrt werden kann, während auf Kupferplatten mit einer Dicke von 3 mm mit einem Femtosekundenlaser keine Durchgangslöcher gebohrt werden können minimierte Aberration. Außerdem werden bei Verwendung eines Femtosekunden-Laserfilaments mit großem Astigmatismus Mikrolöcher mit einem Längen-zu-Breiten-Verhältnis von bis zu 3,3 im Querschnitt erhalten. Daher kann das hier vorgeschlagene Verfahren verwendet werden, um lange ovale Löcher mit hohen Aspektverhältnissen herzustellen.;-;-;-;https://link.springer.com/article/10.1007/s12200-021-1214-4 6bb52d7aa554234fe81e13364afa896f;de;;;1.3.;;;Eine Zuverlässigkeitsanalyse von kaskadierten TMR-Systemen Kaskadierte TMRs (Triple Module Redundancy) wurden in verschiedenen Bereichen wie Pipeline-Prozess, redundantem Poly-Si-TFT usw. verwendet. Ursprüngliche kaskadierte TMR mit einem Voter haben ein Single Point of Failure Problem, so dass viele Modellstudien von kaskadierten TMR wurden getan, um ein zuverlässigeres und kostengünstigeres Modell als das vorherige zu machen. Das Modell mit einem Wähler in früheren Arbeiten verbessert die Zuverlässigkeit im Vergleich zum ursprünglichen Modell, indem es ein Single Point of Failure Problem löst. Das Modell erfordert jedoch strenge Regeln, um die Zuverlässigkeit zu verbessern. Der Weg, die strenge Regel zu lockern, besteht darin, mehr als einen Wähler pro Phase zu verwenden. Die Verwendung von mehr als einem Wähler in jeder Phase ist jedoch keine kostengünstige Lösung. In diesem Papier haben wir ein kostengünstiges neues Modell der kaskadierten TMR vorgeschlagen. Gleichzeitig lockerte das Modell auch die strenge Regel in früheren Werken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46578-3_43 bdba9e179696511038d51ac26378aebe;de;;;1.3.;;;Internet Hospital: Herausforderungen und Chancen in China Internet-Krankenhäuser über Telekommunikationstechnologien definieren das Konzept der Gesundheitsversorgung neu und beginnen, den traditionellen Gesundheitssektor zu revolutionieren. Diese neue Methode hat einen erheblichen Vorteil, um die ländlichen und abgelegenen Gebiete mit geringeren Kosten rechtzeitig mit angemessenen medizinischen Ressourcen zu versorgen, und verbessert die Kapazität der ländlichen Gesundheitsversorgung. Qualitäts- und Sicherheitsbedenken wurden jedoch durch keine zuverlässigen Beweise ausgeräumt. Das Internet-Krankenhaus kann über Diagnose und Behandlung hinausgehen und Möglichkeiten in der Aus- und Weiterbildung sowie im Krankheitsmanagement in China finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48335-1_9 4b78e8779f98a76c63032c69a45337e1;de;;;1.3.;;;Untersuchung der Auswirkungen von Aktualität und Umfang von Schulungstexten auf das Problem der Autorenerkennung Die Vorhersage durch partielle Übereinstimmung (PPM) ist ein wirksames Werkzeug, um das Problem der Autorenerkennung anzugehen. In dieser Studie haben wir die trainierte PPM-Technik zur Autorenerkennung erfolgreich auf türkische Texte angewendet. Darüber hinaus haben wir die Auswirkungen der Aktualität sowie der Größe des Trainingstextes auf die Leistung des PPM-Ansatzes untersucht. Die Ergebnisse zeigen, dass neuere und umfangreichere Trainingstexte dazu beitragen, die Kompressionsrate zu senken, was wiederum zu einem erhöhten Erfolg bei der Autorenerkennung führt. Beim Vergleich der Auswirkungen der Aktualität und der Größe des Trainingstextes sehen wir, dass der Größenfaktor eine dominantere Rolle bei der Leistung spielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30182-0_3 662add227b8ae2be52848bc19e762198;de;;;1.3.;;;Konstruktion und Untersuchung eines Finite-Elemente-Modells der Brustwirbelsäule basierend auf CT-Bildern Direktes Einlesen von 228-Schichten von 0,75 mm dicken aufeinanderfolgenden CT-Dicom-Bildern des thorakolumbalen menschlichen Körpers in die Mimics, und dann wurde das dreidimensionale geometrische Oberflächennetzmodell erfasst, nachdem die Redundanzdaten bereinigt wurden. Dann könnte das Oberflächennetzmodell in Ansys und das volumetrische Netz in Ansys eingeführt werden. Anschließend wurde das volumetrische Netz zur Materialzuweisung in die Mimics eingeführt und das dreidimensionale Finite-Elemente-Modell in Ansys generiert. Die Dreiecke mit geringer Qualität konnten in den Mimics repariert werden. Diese Methode ist schnell und mit hoher Genauigkeit. Das dreidimensionale Finite-Elemente-Modell ist sehr hilfreich, um die Biomechanik zu studieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34910-2_73 75f6424a6d6e175aa2206dedde549eae;de;;;1.3.;;;Design und Implementierung von Drohnen für Breitbandkommunikation und Langstrecken in der Seefahrt Dieses Papier soll die Drohne entwerfen und implementieren, die breitbandige Multimediakommunikation für große Reichweiten in der Seefahrt unterstützt. Die Drohne ist ein unbenanntes Luftfahrzeug (UAV), das von einer Funkwelle gesteuert wird, nicht von Personen, die die Maschine besteigen. Um eine intelligente Drohne für Hochgeschwindigkeits-Videostreaming in der Seefahrt mit großer Reichweite zu entwickeln, sind Hardware-Designtechniken, die die Struktur einer Drohne entwerfen, Steuerungstechniken, die eine Drohne betreiben, und Kommunikationstechniken, die eine Drohne auf große Entfernung steuern, notwendige Techniken. In diesem Papier werden die Einschränkungen und Techniken zum Entwerfen und Implementieren der Struktur von Drohnen erläutert, die die Breitband-Multimedia-Kommunikation für die Seefahrt mit großer Reichweite unterstützen. Durch die Erweiterung dieses Kommunikationsdrohnennetzwerks soll der Nutzen einer Drohne verbessert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0557-2_22 8173059138d6b9f4df69c2f5f14a7481;de;;;1.3.;;;Unverzerrte Schätzformel der Einheitsgewichts-Standardabweichung in der Regularisierungslösung Die Regularisierungsmethode ist eine effektive Methode zum Lösen von schlecht gestellten Gleichungen. In diesem Artikel wird die unverzerrte Schätzformel der Einheitsgewichts-Standardabweichung in der Regularisierungslösung abgeleitet und die Formel mit dem numerischen Fall von 1 000 Stichprobendaten unter Verwendung der typischen schlecht gestellten Gleichung verifiziert, d. e. die Fredholm-Integrationsgleichung erster Art.;-;-;-;https://link.springer.com/article/10.1007/BF02826293 e72f378d4d661bc98f54c2e2a9619c39;de;;;1.3.;;;Semiparametrische Regression und Modellverfeinerung Dieses Papier stellt eine semiparametrische Anpassungsmethode vor, die für allgemeine Fälle geeignet ist. Unter der Annahme, dass die Regularisierungsmatrix positiv definit ist, wird die Berechnungsmethode diskutiert und die entsprechenden Formeln vorgestellt. Schließlich wird ein simuliertes Anpassungsproblem konstruiert, um die in diesem Papier beschriebene Methode zu erklären. Die Ergebnisse aus dem semiparametrischen Modell und dem G-M-Modell werden verglichen. Die Ergebnisse zeigen, dass die Modellfehler bzw. die systematischen Fehler der Beobachtungen mit der semiparametrischen Schätzmethode richtig erkannt werden können.;-;-;-;https://link.springer.com/article/10.1007/BF02826468 b7cdb108305769f94f0080fde1a742c2;de;;;1.1.;;;Freizeit- und Fix-End-Point-Multitarget-Optimal-Control-Theorie, angewendet auf Quantencomputing Quantencomputing und Quanteninformationswissenschaft werden voraussichtlich eine der neuesten Technologien der nächsten Generation sein. In diesem Artikel konzentrieren wir uns auf theoretische und numerische Studien zum Quantencomputing und zur Erzeugung von Verschränkungen unter Verwendung molekularer interner Freiheitsgrade (elektronisch, schwingend und rotatorisch). Wir haben eine Methode vorgeschlagen, um die Bell-Zustände und beliebige lineare Überlagerungszustände in molekularen Schwingungs-Rotations-Modi durch sequentielle gechirpte Laserpulse zu erzeugen. Darüber hinaus werden die numerischen Simulationen des Deutsch-Jozsa-Algorithmus unter Verwendung mehrerer Kombinationen der molekularen inneren Zustände berichtet und unter dem Gesichtspunkt der Genauigkeit der Messergebnisse des Senders verglichen. Es stellte sich heraus, dass Rotationsmoden polarer Moleküle, die durch Dipol-Dipol-Wechselwirkung gekoppelt sind, die vielversprechendsten Kandidaten für das molekulare Quantencomputing sind. In Verbindung mit Quantencomputing und Verschränkungsmanipulation durch externe Laserfelder haben wir für die Quantensysteme ohne und mit Dissipation Freizeit- und Fixendpunkt-Optimal-Control-Theorien (FRFP-OCTs) konstruiert. Unter Verwendung der Theorien haben wir Simulationen zur Erzeugung und Aufrechterhaltung von Verschränkungen durchgeführt. Aus den numerischen Ergebnissen haben wir herausgefunden, dass FRFP-OCT effizienter ist als die konventionelle Fixed-Time- und Fixed-End-Point-Optimal-Control-Theorie (FIFP-OCT), da die optimale Zeitdauer der externen Laserfelder auch exakt mit FRFP-OKT.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4939-3658-8_5 79bbdd4289707cd3eea1a70a07a88ee9;de;;;1.3.;;;Attachmentkontrolle der Fibroblastenproliferationlife Wachstumsfaktoren, Nährstoffe und Anhaftung sind die drei physiologischen Mediatoren der Zellteilung von Fibroblasten (1–4). Proliferierende Fibroblasten verwenden Wachstumsfaktoren, um die Zellzyklusprogression während des größten Teils von Gl aufrechtzuerhalten (4, 5). Fibroblasten verlassen den Zellzyklus und treten in einen ruhenden G0-Zustand ein, wenn Wachstumsfaktoren aus dem nährstoffhaltigen Medium entfernt werden (4, 6). Der Wiedereintritt in den Zellzyklus erfordert die Stimulation des G0/G1-Übergangs, und diese Ereignisse werden auch durch Wachstumsfaktoren vermittelt (4). Weniger Studien haben sich mit der Rolle von Nährstoffen bei der Fibroblastenproliferation befasst, aber es ist klar, dass die Nährstoffverarmung das Fortschreiten des Fibroblasten-Zellzyklus im frühen G1 stoppt und eine Gl-assoziierte Zunahme der Zellgröße verhindert (3, 6).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-9418-1_2 7ec3e977959c2f8f55a6e7b9b226a68c;de;;;1.3.;;;Ausrichtungsmodell und Trainingstechnik in SMT vom Englischen ins Malayalam Dieser Artikel untersucht bestimmte Trainingsmethoden, die im Statistical Machine Translator (SMT) vom Englischen ins Malayalam übernommen wurden. Im englischen Malayalam SMT wird die Wort-zu-Wort-Übersetzung durch das Trainieren des Parallelkorpus bestimmt. Unser primäres Ziel ist es, das Alignment-Modell zu verbessern, indem die Anzahl der möglichen Alignments aller im zweisprachigen Korpus vorhandenen Satzpaare reduziert wird. Die Einarbeitung morphologischer Informationen in das Parallelkorpus mit Hilfe des Wortarten-Taggers hat zu besseren Trainingsergebnissen bei verbesserter Genauigkeit geführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14834-7_29 33133dbd98f41600d586704943e046d6;de;;;1.3.;;;Das Hitzeschock-verwandte 80-Gen der Tomate wird von Matrix-Anheftungsregionen flankiert Es wird angenommen, dass Matrix-Anheftungsregionen (MARs) an der Organisation und Segregation unabhängiger chromosomaler Schleifendomänen beteiligt sind. Obwohl es mehrere Berichte über die Wirkung von MARs im Zusammenhang mit heterologen Genen gibt, sind die Informationen über die Rolle von MARs, die mit Pflanzengenen assoziiert sind, begrenzter. Transgene Studien legen nahe, dass die Upstream-, Intron- und Downstream-Regionen des entwicklungsbedingt regulierten Hitzeschock-Gens 80;-;-;-;https://link.springer.com/article/10.1007/BF00020492 291b38713a6a5fa64ab5d204378b3e09;de;;;1.3.;;;Impedanzstudien von Poly(4,4’-dialkyl-2,2’-bithiophenen) Die Polymerisation von 3,3’- oder 4,4’-symmetrisch disubstituierten 2,2’-Bithiophenen führt zu Polymeren mit einer charakteristischen „dimeren“ Seitengruppenverteilung (Schema 1).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-84705-9_65 8dc15301555aec71d582bbf4ce014bbe;de;;;1.3.;;;Pretest der mathematischen Grundlagen für die Statistik In dem Kurs, den Sie jetzt belegen, wird es einige Mathematik geben. Es wird etwas geben, was einige Lehrer eine kleine Algebra nennen, aber einige Schüler sind anderer Meinung. Wie viel? Genau das soll Ihnen dieser Test zeigen. Sie müssen ihn nicht abgeben. Die Autoren empfehlen, diesen Test sofort zu machen. Schließen Sie den Test ab. Markieren Sie die Antworten, bei denen Sie sich sicher sind, und auch die, bei denen Sie sich nicht sicher sind. Überprüfen Sie erneut, bis Sie zufrieden sind. Dann (und erst dann) wenden Sie sich dem Antwortschlüssel auf Seite 85 zu und korrigieren Sie Ihren eigenen Test. Direkt unter dem Antwortschlüssel werden wir Ihnen etwas über Ihre Punktzahl erzählen, aber lesen Sie das noch nicht! Wenn Ihnen dieser Test überhaupt von Nutzen sein soll, machen Sie ihn mit so viel oder wenig Zeitaufwand, wie Sie möchten, und bewerten Sie ihn. Viel Glück!;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-4288-6_1 e68a6e4cf570b541d40313ecbb2a0e6a;de;;;1.1.;;;Analyse von Produktionsplanungs- und Steuerungssystemen (PPS) als effiziente Kombination von Informationsaktivitäten Die Leistungsfähigkeit der Aktivitätsanalyse (Koopmans 1951, Fandel 1991 a, Fandel 1991 b) als Untersuchungsinstrument und Modellierungskonzept beruht auf vielen Umständen und Vorteilen. Es ist ein sehr allgemeiner Ansatz zur Untersuchung von Produktionsbeziehungen und zur Untersuchung ihrer Prinzipien im Hinblick auf die Umwandlung von Inputs in Outputs. Dabei verwendet die Analyse nur wenige Begriffe, Definitionen und Annahmen und ihre analytische Kraft liegt in der formalen Stringenz ihrer Vorgehensweise. Einige Autoren sehen in der Aktivitätsanalyse bzw. in der damit eng verbundenen Betrachtung von Produktionskorrespondenzen eine geeignete Plattform, die Produktionstheorie mit der Produktionsplanung zu verbinden (Shephard et al. 1977).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-77537-6_3 34ac1beaf949dbd4c90bf35b5c0b0ec4;de;;;1.3.;;;Verständlichkeit unterbrochener sinnvoller und unsinniger Sprache mit und ohne Störgeräusche Das Einfügen von Rauschen in die stillen Intervalle unterbrochener Sprache hat einen sehr auffälligen Wahrnehmungseffekt, wenn ein bestimmtes Signal-Rausch-Verhältnis verwendet wird. Es wurden widersprüchliche Berichte veröffentlicht, ob das eingefügte Rauschen die Sprachverständlichkeit verbessert oder nicht. Der Hauptunterschied zwischen den Studien war die Redundanz des Sprachmaterials. Wir zeigen in der vorliegenden Arbeit, dass das Rauschen zu einer besseren Verständlichkeit unterbrochener Sprache führt. Der Redundanzgrad bestimmt den möglichen Verbesserungsbetrag. Die Konsequenzen unserer Erkenntnisse werden diskutiert. in Bezug auf Phänomene wie Kontinuitätswahrnehmung und Pulsationsschwellenmessung. Für die Verarbeitung unterbrochener Reize mit und ohne Störgeräusch wird eine Hypothese aufgestellt: Für Reize mit Störgeräuschen wird das Vorhandensein eines automatischen Interpolationsmechanismus im Hörsystem angenommen. Der Mechanismus funktioniert nur, wenn das Geräusch es unmöglich macht, die Unterbrechung wahrzunehmen.;-;-;-;https://link.springer.com/article/10.3758/BF03202859 b3f571d30120ab50fb68aef3595f6199;de;;;1.3.;;;Bedeutung der Antikörperklasse bei Helmintheninfektionen Antikörper spielen eine wichtige Rolle bei der Abwehr vieler Parasiten. Sie sind essentiell für die Immunerkennung von Antigenen, die in die Oberfläche von großen nicht phagozytierbaren Helminthen eingebaut sind. Durch die Fokussierung der Abwehrmechanismen des Wirts gegen den intakten Parasiten können sie somit letztendlich zu einer Abstoßung des Parasiten führen. Der Nachweis von Antikörpern kann auch bei der Diagnose von Parasiteninfektionen eine Rolle spielen, insbesondere beim Screening auf frühe Infektionen und als rationale Grundlage für die Organisation wirksamer Programme zur Krankheitsbekämpfung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-3508-8_24 8d52e25daa4c0f4381c3c4e332fa1dc8;de;;;1.3.;;;Verhalten der Blut-Hirn-Schranke gegenüber biogenen Aminen bei experimenteller zerebraler Ischämie Betrachtet man die Blut-Hirn-Schranke (BBB) ​​als Konglomerat von Regulationssystemen, die mit der Aufrechterhaltung einer homöostatisch kontrollierten biochemischen Umgebung für das Hirnparenchym befasst sind, kann davon ausgegangen werden, dass jede Dysfunktion dieser Systeme durch zerebrale Ischämie die Pathologie der resultierenden path Läsionen. Frühere Studien zur Wirkung der Ischämie auf die BHS zeigten, dass sich verschiedene Substanzen hinsichtlich des Zeitpunkts und der Intensität ihres abnormen Durchgangs vom Blut ins Gehirn unterscheiden. So konnte gezeigt werden, dass nach zerebraler Ischämie der Abbau der BHS zu mikromolekularen Substanzen wie;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-3752-2_23 64b6830ceb08ef24685982441ad527bd;de;;;1.1.;;;Kundenorientiertes Enterprise Information Management Die Bindung bestehender Kunden ist eine Priorität für Unternehmen, um auf dem gegenwärtigen Markt zu überleben und zu gedeihen. Die extrem hohen Neukundenakquisitionskosten in einem reifen Markt haben Unternehmen dazu veranlasst, aktiv nach dem Aufbau und der Aufrechterhaltung langfristiger Kundenbeziehungen zu suchen. Von solchen Beziehungen wird erwartet, dass sie stark genug sind, um außer in den extremsten Fällen ein erhebliches Hindernis für die Verlagerung von Geschäften auf den Wettbewerb zu bilden. Es gibt kognitive, affektive und verhaltensbezogene Aspekte solcher Beziehungen, die relevant sind. Der Übergang einer neutralen oder negativen Beziehung in ein positives Gebiet basiert auf Veränderungen in einer oder mehreren dieser Dimensionen. Der Informationsaustausch zwischen einer Organisation und ihren Kunden spielt bei einem solchen Wandel eine bedeutende Rolle. Art und Umfang der Beziehung zu einem Kunden ändern sich, da sich die Kundenbedürfnisse im Laufe des Produktlebenszyklus in der Branche des Kunden ändern. Es wird ein Rahmen vorgeschlagen, der die Konzepte „Kundenbeziehungsmanagement“ und „Produktlebenszyklus“ zum „Kundenbeziehungslebenszyklus“ zusammenführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-9518-6_10 456e04bf71e7b51c0c221ec7c8379ece;de;;;1.1.;;;Unterstützung des klinischen Informationsmanagements durch NFC-Technologie Die Teleüberwachung ist ein Problem bei alternden alleinlebenden Menschen, da die Kontrolle der Vitalfunktionen für sie kompliziert ist. In diesem Sinne erleichtern einige Initiativen durch die Anpassung von Technologien diese Kontrollen. In dieser Arbeit stellen wir eine Lösung vor, die aus der Anpassungsfähigkeit der Near Field Communications-Technologie besteht. Mobiltelefone NFC-fähig, die als Middleware zwischen Messgeräten und Personen dienen. Darüber hinaus wird ein Vorschlag für die Verwaltung klinischer Informationen und Arzneimittelverschreibungen vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89208-3_413 9995064b4ff3e2bbdba8080b5c72c6b8;de;;;1.3.;;;Analyse der Verfügbarkeit von Netzwerkdiensten des 2N-Redundanzmodells mit ununterbrochener Weiterleitung Dieses Dokument konzentriert sich auf die Verfügbarkeit einer Netzwerkdienstanwendung mit 2N-Redundanzmodell und ununterbrochener Weiterleitung. Das Redundanzmodell ist eine Form der Belastbarkeit, die die Dienstverfügbarkeit im Falle eines Komponentenausfalls sicherstellt. Im Modell gibt es höchstens eine aktive Serviceeinheit und höchstens eine Standby-Serviceeinheit. Der aktive stellt den Dienst bereit, während der Standby bereit ist, die aktive Rolle zu übernehmen, wenn der aktive ausfällt. Die ununterbrochene Weiterleitung ist ein weiteres Verfahren zur Erhöhung der Verfügbarkeit des Netzwerkdienstes, der die Dienstpakete basierend auf seiner Kopie der Weiterleitungsinformationen weiterleiten kann, bis die ausgefallene Komponente wiederhergestellt ist. Wir entwerfen unser Analysemodell mit Stochastic Reward Nets und analysieren dann den Zusammenhang zwischen einer Verfügbarkeit und einer Nonstop-Weiterleitung mit SPNP.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46578-3_126 ccdc1c02f8507ece50320a118d15a44a;de;;;1.1.;;;Informationsmessung und Informationstechnologie: Ein Mythos des 20. Jahrhunderts Dieses Papier führt vier Argumente an. Erstens geht es in der klassischen Informationstheorie nicht wirklich um Informationen. Zweitens verarbeiten elektronische Rechner in Wahrheit keine Informationen. Drittens ist „Information“ weniger ein wissenschaftliches als vielmehr ein mythisches Konzept. Schließlich wird versucht, die Voraussetzungen für eine vollständig wissenschaftliche Informationstheorie zu skizzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-4512-8_2 26565e5f009ae1a33e67c55929633e93;de;;;1.3.;;;Verfügbarkeitsanalyse für ein Rechenzentrumskühlsystem mit (n,k)-Wege-CRACs Kühlsysteme von Rechenzentren haben Computerausrüstungen gekühlt. Kürzlich wurde angenommen, dass diese Systeme den Energieverbrauch einsparen und in verschiedenen Umgebungen effektiv arbeiten. Daher ist es wichtig, eine geeignete Kühlsysteminfrastruktur für Rechenzentren zu entwerfen und ihre Zuverlässigkeit, insbesondere Verfügbarkeit und Zuverlässigkeit, zu analysieren. In diesem Papier haben wir ein (n,k)-Wege-Kühlsystem für Rechenzentren vorgeschlagen, das aus n Einheiten Haupt-CRAC (Computer Room Air Conditioner) und k Einheiten Ersatz-CRAC besteht. Wir haben auch eine angemessene Anzahl von CRAC-Haupteinheiten berechnet (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46578-3_44 d00adaf8d3f19d8dd447d95613c9ecc2;de;;;1.3.;;;Verallgemeinerung beim perzeptuellen Lernen für Sprache Der lexikalische Kontext beeinflusst stark die Identifizierung von mehrdeutigen Klängen durch den Hörer. Zum Beispiel wird ein Ton in der Mitte zwischen /f/ und /s/ als /f/ in „sheri_“ gemeldet, aber als /s/ in „Pari_“. Norris, McQueen und Cutler (2003) haben gezeigt, dass Hörer, nachdem sie solche lexikalisch bestimmten Phoneme gehört haben, ihre phonemischen Kategorien erweitern, um mehrdeutige Zeichen einzuschließen als zuvor. Wir haben getestet, ob Hörer ihre phonemischen Kategorien für einen bestimmten Sprecher anpassen: Lernen Hörer den „Akzent“ eines bestimmten Sprechers? In ähnlicher Weise haben wir untersucht, ob das perzeptuelle Lernen spezifisch für die bestimmten mehrdeutigen Phoneme ist, die Hörer hören, oder ob sich die Anpassungen auf verwandte Klänge verallgemeinern. Die Teilnehmer hörten während einer lexikalischen Entscheidungsaufgabe mehrdeutige /d/- oder /t/-Phoneme. Sie kategorisierten dann Laute auf /d/-/t/ und /b/-/p/ Continua, entweder in derselben Stimme, die sie für die lexikalische Entscheidung gehört hatten, oder in einer anderen Stimme. Perzeptives Lernen, das sowohl auf Sprecher- als auch auf Testkontinua verallgemeinert wird: Veränderungen in der Wahrnehmungsrepräsentation sind robust und breit abgestimmt.;-;-;-;https://link.springer.com/article/10.3758/BF03193841 a7789f8193487395a34b8c56e18eddf9;de;;;1.3.;;;So verwenden Sie diese Kurzanleitung Einer der Hauptzwecke des Briefes besteht darin, den Lesern anwendbare und praktische professionelle Werkzeuge zur Verfügung zu stellen. Aus diesem Grund haben wir diesen Brief als Benutzerleitfaden für jeden Praktiker erstellt, der die Rolle eines Managers, eines Pädagogen oder eines Forschers innehat. Wir hoffen, dass es Fachleuten helfen wird, ihre berufliche Arbeit in Bezug auf Qualität, Effizienz und Erreichung ihres beruflichen Ziels zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30225-6_2 e64965f47d03caad4f7d302954d36b79;de;;;1.3.;;;Eine virtuelle klinische Lernumgebung für die Ausbildung von Krankenschwestern Jeder Krankenpflegeschüler wird geschult, um bestimmte Fähigkeiten zu besitzen, bevor er die klinische Ausbildung in einem Krankenhaus beginnt. In diesem Artikel wird die Verwendung von virtueller Realität zur Simulation einer Krankenstation für die Ausbildung von Krankenschwestern vorgestellt. Die Ausstattung unserer virtuellen Station wurde sorgfältig entwickelt, um die Ausstattung in Krankenhausstationen in Hongkong zu simulieren. Auf unserer virtuellen Station werden verschiedene Aufgaben des Stationsbetriebs vorgeführt. Durch die Interaktionen, die auf der virtuellen Station angeboten werden, können Krankenpflegestudenten den Stationsbetrieb besser verstehen. Unsere Anwendung soll die Angst unerfahrener Krankenpflegestudenten verringern und sie mit der Umgebung der Station vertraut machen, was dann medizinische Fehler in ihrem echten Praktikum minimieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-0008-0_2 f8da1eee9b0a695f92cd39870d1fd854;de;;;1.3.;;;Abdeckungsgesteuerte Fairness-Tests Das Testen von Software ist eine entscheidende Aufgabe. Im Gegensatz zu herkömmlicher Software muss KI-Software, die Entscheidungsalgorithmen oder Klassifikatoren verwendet, auf Diskriminierung oder Verzerrung getestet werden. Eine solche Voreingenommenheit kann bestimmte Personen aufgrund ihrer geschützten Eigenschaften wie Rasse, Geschlecht oder Nationalität diskriminieren. Es ist ein großes Anliegen, Diskriminierung als unbeabsichtigtes Verhalten zu haben. Frühere Arbeiten wurden zufällig auf Diskriminierung getestet, was zu Abweichungen in den Ergebnissen bei jeder Testausführung geführt hat. Diese unterschiedlichen Ergebnisse weisen darauf hin, dass bei jeder Testausführung eine Diskriminierung nicht gefunden wird. Obwohl es fast unmöglich ist, alle Diskriminierungen zu finden, wenn wir nicht alle möglichen Kombinationen im System überprüfen, ist es wichtig, so viele Diskriminierungen wie möglich zu erkennen. Daher schlagen wir Coverage-Guided Fairness Testing (CGFT) vor. CGFT nutzt kombinatorisches Testen, um eine gleichmäßig verteilte Testsuite zu generieren. Wir haben CGFT mit zwei verschiedenen Datensätzen ausgewertet und jeweils drei Modelle erstellt. Die Ergebnisse zeigen eine Verbesserung der Anzahl der bei der Verwendung von CGFT festgestellten Ungerechtigkeiten im Vergleich zu früheren Arbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-79474-3_13 e3131ffefdc4b9d6acaabef339518747;de;;;1.3.;;;Die Klasse umkehren oder in die Klasse investieren? Flipped Classroom in Lehrtechnologie für Multimediaproduktion In Anlehnung an die Ansätze, die sich in der Bildung im Allgemeinen – und in der künstlerischen Bildung im Besonderen – durchgesetzt haben, fördert dieser Beitrag die Einführung anwendbarer Methoden, um das Interesse junger Studierender zu wecken und durch das Flipped Classroom zu schulen. Dies ist ein aktiver Ansatz, der sich auf den Schüler konzentriert und sich aus der Prämisse ergibt, die Zeit einer Aktivität zu verlängern, um kritisches Denken und Autonomie beim Lernen zu fördern. In diesem Zusammenhang werden einige der verknüpften Lerntheorien beleuchtet, der Vorschlag skizziert, die didaktischen, curricularen und technologischen Entscheidungen detailliert beschrieben. Die Ergebnisse seiner Umsetzung spiegeln sich in einem ersten Studienjahr der School of Arts der Northeast National University wider, um die Lehre eines Softwaretools in einer interaktiven multimedialen narrativen Umsetzung zu fördern. Abschließend werden Schlussfolgerungen gezogen und synthetisiert in Bezug auf die signifikanten Auswirkungen des Lernens für die Realisierung der betreffenden Produktionen und der zugrunde liegenden Ableitungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-75214-3_28 105a0616da05e7994c23146433be338b;de;;;1.3.;;;Zweidimensionale Hidden-Markov-Modelle in der Verkehrszeichenerkennung In diesem Beitrag wird ein automatisches Verkehrszeichenerkennungssystem vorgestellt. Das System basiert auf zweidimensionalen Hidden-Markov-Modellen. Zunächst wird eine Studie der bestehenden Verkehrszeichenerkennungsforschung vorgestellt. In dieser Studie werden die Probleme im Zusammenhang mit der automatischen Verkehrszeichenerkennung beschrieben, die bestehenden Methoden zur Lösung des Verkehrszeichenerkennungsproblems überprüft und die Eigenschaften dieser Methoden verglichen. Zweitens wird das erstellte Verkehrszeichenerkennungssystem beschrieben. Das System ist in der Lage, die zuvor erkannten Verkehrszeichen zu erkennen. Das System verwendet eine zweidimensionale diskrete Wavelet-Transformation zur Merkmalsextraktion von Straßenschildern. Im Erkennungsprozess basiert das System auf zweidimensionalen Hidden-Markov-Modellen. Die experimentellen Ergebnisse zeigen, dass das System mit den zweidimensionalen Hidden-Markov-Modellen und der Wavelet-Transformation eine durchschnittliche Erkennungsrate von 83% erreichen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10662-5_1 af9e84a23f43c9c79c2897f195a11e8a;de;;;1.1.;;;Modellierungstechnologie und die Geschichte des Analog Computing Es ist in der Geschichte der Computer üblich, den Computer als Rechenmaschine oder sogar als Informationsmaschine zu beschreiben. Aufbauend auf den vielfältigen Themen, die in Kap. 2 entwickelt dieses Kapitel die Idee des Computers als „Modelliermaschine“. Es begründet philosophische und historische Motivationen für die Untersuchung des Computers als Modellierungstechnologie. Es wird gezeigt, dass diese Perspektive des Rechnens hilft zu erklären, warum Benutzer der analogen Technologie Computing als eine dynamische, explorative Tätigkeit verstanden haben. Für die Benutzer des analogen Rechnens waren die großen Stapelverarbeitungsmaschinen, die typischerweise für die Datenverarbeitung verwendet werden, keine zufriedenstellenden Werkzeuge. Das Verständnis dieser „Nutzungskontexte“ hilft bei der Interpretation analog-digitaler Debatten und Kontroversen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84882-948-0_3 01a189377d526bca0d2ae342a83ce832;de;;;1.3.;;;Effiziente Simulation durch Kreuzentropie Die Leistungsfähigkeit moderner Systeme, wie kohärente Zuverlässigkeitssysteme, Inventarsysteme, Versicherungsrisiko, Speichersysteme, Computernetzwerke und Telekommunikationsnetzwerke wird oft durch Wahrscheinlichkeiten;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-4321-0_3 b66316c3414adf54253f56cd49494ca7;de;;;1.3.;;;Faktoren, die die Einhaltung der allgemeinen Vorsichtsmaßnahmen beeinflussen Diese Studie charakterisiert den Grad der selbstberichteten Einhaltung der Allgemeinen Vorsichtsmaßnahmen (UP) bei Beschäftigten im Gesundheitswesen (HCWs), die einem Risiko einer durch Blut übertragenen Exposition ausgesetzt sind. Unter 1135 Beschäftigten des Gesundheitswesens wurde eine Zweckmäßigkeitsumfrage durchgeführt, bei der ein hohes Risiko für die Übertragung von durch Blut übertragenen Krankheitserregern erwartet wurde. Unter Verwendung eines Querschnittsdesigns und eines theoretischen Modells von Gershon et al. (1995) wurden die Daten mit logistischer Regression analysiert. Zu den Faktoren, die mit mindestens einer der beiden Maßnahmen der HCW-Compliance mit UP verbunden sind, gehörten eine längere Betriebszugehörigkeit, mehr Wissen über die Übertragung des humanen Immunschwächevirus (HIV), eine konservative Einstellung zu riskanten Verhaltensweisen, die Wahrnehmung eines starken organisatorischen Sicherheitsklimas und eine Schulung im Umgang mit persönlicher Schutzausrüstung absolviert haben. Die Kenntnis der mit der Compliance verbundenen Faktoren hilft zu erklären, warum Beschäftigte im Gesundheitswesen trotz des tatsächlichen Berufsrisikos durch die Exposition gegenüber durch Blut übertragbaren Krankheitserregern manchmal eine schlechte Compliance aufweisen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1007727104284 27a0be5263199594a5b0289beb46c76e;de;;;1.1.;;;Energetik der Aufmerksamkeit und Alzheimer-Krankheit Die kognitive Psychologie ist in ihr viertes Jahrzehnt eingetreten. Der informationsverarbeitende Ansatz zur Kognition, den Broadbent, Miller und andere vor mehr als dreißig Jahren entwickelt haben, ist heute fest etabliert. Die Entwicklung von Modellen der Informationsverarbeitung in dieser Zeit war stetig und beeindruckend. Ausgehend vom Einkanalmodell und den von Broadbent eingeführten allgemeinen Flussdiagrammen wurden kognitive Modelle immer präziser und besser spezifiziert. Viele Modelle kognitiver Prozesse werden heute mathematisch oder rechnerisch spezifiziert. Es ist nun beispielsweise möglich, eine detaillierte Darstellung der elementaren mentalen Operationen zu liefern, die an verdeckten kognitiven Prozessen wie mentaler Vorstellungskraft (Kosslyn 1981) und Lesen (Just & Carpenter 1980) beteiligt sind. Diese Operationen können rechnerisch unter Verwendung von Produktionssystemen und verwandten formalen Beschreibungsverfahren spezifiziert werden (Kosslyn & Shwartz, 1977, Thibadeau, Just & Carpenter, 1981).;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-4448-0_28 d0285e3c83d714bf432c4b83df047354;de;;;1.1.;;;Implementierung eines Lastmanagement-Anwendungssystems unter Verwendung von Smart Grid-Datenschutzrichtlinien in der Energiemanagement-Dienstleistungsumgebung Da das Smart Grid ein intelligentes Stromnetz ist, kombiniert es die Informationstechnologie mit dem bestehenden Stromnetz. Stromversorger und -verbraucher tauschen in Echtzeit Informationen in beide Richtungen aus und ist ein Stromnetz der nächsten Generation zur Optimierung der Energieeffizienz. Dieses Papier schlägt die Implementierung eines Lastmanagement-Anwendungssystems unter Verwendung von Smart Grid-Datenschutzrichtlinien in Energiemanagementdiensten in einer Energiemanagementdienstumgebung vor. Die Struktur des auf Datenschutzrichtlinien basierenden Schutzsystems, das ein Lastmanagementsystem in der Smart-Grid-Umgebung verwendet, ist die Struktur, die Daten im Lastmanagementsystem über das Anwendungsdienstnetz an das Web liefert. Zu diesem Zweck hat das auf Datenschutzrichtlinien basierende Schutzsystem das auf Datenschutzrichtlinien basierende Smart Grid-Schutzsystem vorgeschlagen und entwickelt, das den Dienstzugriff durch den Schutz von Elementen in Bezug auf die persönlichen Informationen des Benutzers und das Einstellen des Datenschutzniveaus für jedes Element steuert.;-;-;-;https://link.springer.com/article/10.1007/s10586-014-0367-y ac78506a66913f43b11ca15dc4deb61d;de;;;1.3.;;;Ensemble von Subraum-Diskriminanten-Klassifikatoren für das Staging der schistosomalen Leberfibrose in mikroskopischen Bildern von Mäusen Schistosomiasis ist eine der gefährlichen parasitären Erkrankungen, die das Lebergewebe befallen und zu Leberfibrose führen. Eine solche Krankheit hat mehrere Ebenen, die den Schweregrad der Fibrose angeben. Um den Fibrosegrad für Diagnose und Behandlung zu beurteilen, wurden die mikroskopischen Bilder des Lebergewebes in ihren verschiedenen Stadien untersucht. In der vorliegenden Arbeit wird ein automatisiertes Staging-Verfahren vorgeschlagen, um die statistisch extrahierten Merkmale aus jedem Fibrosestadium unter Verwendung eines Ensemble-Klassifizierers zu klassifizieren, nämlich des Unterraum-Ensembles unter Verwendung eines linearen Diskriminanz-Lernschemas. Die Leistung des Unterraum/Diskriminanten-Ensemble-Klassifizierers wurde mit anderen Ensemble-Kombinationen verglichen, nämlich dem Boosted/Bäume-Ensemble, Bagged/Bäume-Ensemble, Unterraum/KNN-Ensemble und dem RUSBoosted/Bäume-Ensemble. Die Simulationsergebnisse belegen die Überlegenheit des vorgeschlagenen Unterraum-/Diskriminanten-Ensembles mit einer Genauigkeit von 90% im Vergleich zu den anderen Ensemble-Klassifikatoren.;-;-;-;https://link.springer.com/article/10.1007/s13755-018-0059-8 45a457c7e31b661207696b70fd83af25;de;;;1.3.;;;Diskurs zur Entwicklung von EEG-Diagnostik und Biofeedback bei Aufmerksamkeitsdefizit-/Hyperaktivitätsstörungen Dieser Artikel gibt einen Überblick über die Arbeit, die meine Kollegen und ich in den letzten 15 Jahren geleistet haben, um eine Begründung für die Diagnose der Aufmerksamkeitsdefizit-/Hyperaktivitätsstörung (ADHS) und die Behandlung von ADHS mit EEG-Biofeedback-Techniken zu entwickeln. Der Artikel gibt zunächst einen kurzen Überblick über die Geschichte der Forschung und Theorie zum Verständnis von ADHS und befasst sich dann mit der Entwicklung von Paradigmen und Behandlungsprotokollen für EEG und ereignisbezogenes Potenzial (ERP) für diese Störung, einschließlich unserer Arbeit und der von anderen, die unsere repliziert haben Ergebnisse. Anschauliches Material aus unserer aktuellen Forschung und Kinderfallstudien ist enthalten. Es werden Vorschläge für zukünftige experimentelle und klinische Arbeiten in diesem Bereich vorgestellt und theoretische Fragen zum Verständnis der neurophysiologischen und neurologischen Grundlagen von ADHS diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF01000016 f4d745b184b19a3864450acaa19b141b;de;;;1.3.;;;Linear-dynamische Systemmethode zur taktilen Objektklassifizierung Viele taktile Sequenzen können erzielt werden, indem eine geschickte Hand zum Greifen verschiedener Gegenstände verwendet wird. Die Fähigkeit zur roboterhaften Umgebungswahrnehmung und geschickten Manipulation wird durch die korrekte Klassifizierung dieser taktilen Sequenzen deutlich verbessert. Daher werden taktile Sequenzen in eine Reihe von Untergruppen unterteilt, und ein Verfahren basierend auf einem linearen dynamischen System (LDS) wird verwendet, um Merkmale zu extrahieren. Da diese LDSs im nichteuklidischen Raum liegen, wird die Martin-Distanz, die eine andere Messung als die euklidische Distanz ist, verwendet, um die Distanz zwischen zwei LDSs zu berechnen, und der K-Medoid-Algorithmus wird zum Clustern verwendet. Das Codebuch wird nach dem Clustern erhalten und wird verwendet, um Zeitsequenzen darzustellen, um einen Bag-of-System (BoS) zu erhalten. Dann werden BoS und Labels an Extreme Learning Machine (ELM) gesendet, um einen Klassifikator zu trainieren. Schließlich werden drei Datenbanken, KTH-7, KTH-10 und TSH-8 verwendet, um unseren Algorithmus zu bewerten.;-;-;-;https://link.springer.com/article/10.1007/s11432-014-5212-7 66e3a72d8215403d72c9cf5044b5aa44;de;;;1.3.;;;Forschung zum Ausbildungsweg von Fachkräften für Gebäudedekorationstechnik vor dem Hintergrund der Fertigung im Jahr 2025 in China Die starke Fertigungsindustrie und die wirtschaftliche Entwicklung in China erfordern von den Arbeitnehmern eine gute fachliche Kompetenz und einen guten Geist, um so den Anforderungen der Ära „Made in China 2025“ besser gerecht zu werden und die Fähigkeit der Berufsbildung besser zu entwickeln, der Wirtschaft und Gesellschaft zu dienen. Daher sollte die Berufsbildung in der Lage sein, Fachkräfte auszubilden, die Studierenden sowohl Professionalität als auch berufliche Fähigkeiten mitbringen und beides tief verzahnt sein sollten. In der neuen Ära der rasanten Entwicklung der Informationstechnologie ist es sehr wichtig, die Rückkehr des Handwerksgeistes zu fordern und ihm die Merkmale der Zeit zu verleihen und eine moderne Interpretation durchzuführen. Handwerkergeist ist die Basis von Innovation, und Innovationsgeist ist die unvermeidliche Voraussetzung für Handwerker. Die Pflege des Handwerkergeistes ist eine wesentliche Qualität für Berufsschulabsolventen und ein wichtiges Thema, auf das Berufsbildnerinnen und Berufsbildner achten müssen. Die Höheren Berufs- und Fachhochschulen als wichtige Einrichtung zur Ausbildung von Fachkräften, wie man die Pflege des Handwerkergeistes in die Kompetenzbildung integrieren und das System der Talentförderung ändern kann, das mehr auf Fähigkeiten als auf spirituelle Konnotation setzt, ist besonders wichtig.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-15740-1_130 e1a6d10459e986ca45b0ab421fe8d7b3;de;;;1.1.;;;Entscheidungsfindungsmodell des Business Continuity Managements Business Continuity Management (BCM) wird zur wichtigsten Sicherung des E-Learning. Wir sollten das Entscheidungsfindungsmodell des BCM gestalten, um die Qualität des BCM zu verbessern. Das Entscheidungsfindungsmodell von BCM nutzt Veränderungen zur Verbesserung der Wettbewerbsfähigkeit durch Interaktion zwischen Mitgliedern von BCM in einer dynamischen Umgebung. Die Beschreibung des Entscheidungsfindungsmodells von BCM umfasst drei Elemente: Eigentum der Agenten, Veränderungen in der Umgebung sowie Rechte und Pflichten der Agenten. Das Entscheidungsfindungsmodell des BCM besteht aus vier Teilen: Analyse und Beschreibung der dynamischen Umgebung, BCM-Fähigkeitsmessung und -bewertung, BCM-Strategie und hierarchische Struktur der Entscheidungsfindung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27296-7_45 d2d4a9bc6be3ecdeedcbe8596e2a4856;de;;;1.1.;;;RFID-fähige Echtzeit-Infrastruktur zur Verfolgung von Fertigungsinformationen für erweiterte Unternehmen In erweiterten Unternehmen spielt die Echtzeitverfolgung von Fertigungsinformationen eine wichtige Rolle und zielt darauf ab, der richtigen Person zur richtigen Zeit die richtigen Informationen im richtigen Format bereitzustellen, um ein optimales Produktionsmanagement zwischen den beteiligten Unternehmen zu erreichen. Dieses Papier schlägt eine RFID-fähige Infrastruktur zur Verfolgung von Fertigungsinformationen in Echtzeit vor, um die Echtzeit-Erfassung von Fertigungsdaten und Fertigungsdatenverarbeitungsmethoden für erweiterte Unternehmen anzugehen. Nach der vorgeschlagenen Infrastruktur werden die traditionellen Fertigungsressourcen wie Mitarbeiter, Maschinen und Materialien mit RFID-Geräten ausgestattet, um die Umgebung für die Echtzeit-Datenerfassung aufzubauen. Dann wird eine Reihe von Herstellungsinformationsverarbeitungsverfahren wie Herstellungskosten, Fortschritt, WIP-(Work-in-Progress)-Inventar usw. eingerichtet, um die Echtzeit-Fertigungsinformationen erweiterter Unternehmen zu verfolgen. Schließlich wird eine Fallstudie gegeben, um den vorgestellten Rahmen und die entsprechenden Methoden zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10430-5_128 2e7f579f61cd9a569cc05cf37c034208;de;;;1.3.;;;Künstliche neuronale Netze Reisfeld-Klassifizierer mit raumzeitlichen Fernerkundungsdaten Die Überwachung von Veränderungen in einem Reisfeldgebiet ist wichtig, da Reis ein Grundnahrungsmittel ist und der Reisanbau ein wichtiges Anbausystem in Asien ist. Zur Überwachung von Veränderungen der Landoberfläche wurden im Bereich der Fernerkundung verschiedene Anwendungen mit unterschiedlichen Satelliten erforscht. Die Überwachung eines Reisfeldes mit Fernerkundung ist jedoch aufgrund der zeitlichen Veränderungen der Landoberfläche und der unterschiedlichen raumzeitlichen Eigenschaften in Ländern und Regionen schwierig. In diesem Artikel haben wir ein künstliches neuronales Netzwerk verwendet, um Reisfeldbereiche mithilfe von Sensordaten mit moderater Auflösung, die raumzeitliche Informationen enthalten, zu klassifizieren. Unser Ziel ist es, automatisch einen Reisfeld-Klassifikator zu generieren, um lokalisierte Klassifikatoren für jedes Land und jede Region zu erstellen.;-;-;-;https://link.springer.com/article/10.1007/s10015-010-0797-4 1960637fce34c66c87da69272159ce01;de;;;1.1.;;;Das Herdenverhalten von WeChat-Benutzern bei der Weitergabe von Gesundheitsinformationen verstehen: Eine empirische Studie in China In diesem Beitrag wird versucht, die Auswirkungen sozialer Einflussfaktoren und des Herdeneffekts auf das Herdenverhalten bei der Weiterleitung von Gesundheitsinformationen von WeChat-Nutzern zu untersuchen. Die Ergebnisse der Datenanalyse zeigen, dass soziale Einflussfaktoren einen signifikanten Einfluss auf das Herdenverhalten bei der Weiterleitung von Gesundheitsinformationen von WeChat-Nutzern durch zwei Mechanismen haben, nämlich normativen sozialen Einfluss und informationellen sozialen Einfluss. Und der Herdeneffektfaktor wirkt sich positiv auf das Herdenverhalten bei der Weitergabe von Gesundheitsinformationen aus. Insbesondere die Auswirkungen informatorischer sozialer Einflussfaktoren sind größer, die in der bisherigen Literatur ignoriert wurden. Auch Implikationen für Forschung und Praxis werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-34482-5_16 7d348bf6667a6ca606979e03f979ef48;de;;;1.3.;;;Mining der Freundschaftsbeziehung von Kindern aus den Aktivitätsdaten Dieses Papier schlägt eine Methode vor, um die Freundschaftsbeziehungen von Kindern durch den Einsatz von Bewegungssensoren zu extrahieren. Durch das Zusammenleben lernen Kinder, sich in die Gesellschaft einzufügen, und dies wird stark von ihren freundschaftlichen Beziehungen beeinflusst. Obwohl Vorschullehrer sie beobachten müssen, um den sozialen Fortschritt der Kinder zu fördern und die Persönlichkeitsentwicklung jedes Kindes zu unterstützen, können nur erfahrene Lehrer auf die Kinder aufpassen und gleichzeitig eine qualitativ hochwertige Anleitung bieten. Um das Problem zu lösen, schlägt dieser Beitrag eine mathematische und objektive Methode vor, die Lehrern bei der Beobachtung hilft. Es verwendet numerische Daten des Aktivitätsniveaus, die von Schrittzählern aufgezeichnet wurden, und die Autoren erstellen ein Baumdiagramm, das als Dendrogramm bezeichnet wird, basierend auf hierarchischer Clusterung mit aufgezeichnetem Aktivitätsniveau. Außerdem berechnen die Autoren die „Breite“ und „Tiefe“ der Freundschaftsbeziehungen von Kindern, indem sie mehr als ein Dendrogramm verwenden. Wenn die Autoren zwei Monate lang das Aktivitätsniveau der Kinder in einem bestimmten Kindergarten erfassten und die vorgeschlagene Methode bewerteten, deckten sich die Ergebnisse in der Regel mit den Aussagen der Lehrer zu den Kindern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25453-6_59 1e3d858ea38cbcbb78a76ad8c9b6a383;de;;;1.1.;;;Einfluss von Komplexität und Lärm auf die mentale Arbeitsbelastung bei einer manuellen Montageaufgabe Mass Customization bedeutet eine Zunahme von Produktvarianten, Komplexität und Informationsverarbeitung der Betreiber. Allgemein wird davon ausgegangen, dass dies zu einer Erhöhung der mentalen Arbeitsbelastung führt. In einem realen Laborumfeld sollen die Probanden Aufgaben mit zunehmender Komplexität bewältigen, während die mentale Arbeitsbelastung anhand verschiedener Parameter (subjektiv, leistungsbezogen und physiologisch) erreicht wird. Darüber hinaus werden die Probanden mit zwei Ebenen von Industrielärm konfrontiert, was die mentale Belastung zusätzlich zur Komplexität erhöht. Die Ergebnisse zeigen, dass Komplexität und die Interaktion von Komplexität und Lärm einen signifikanten Einfluss auf die mentale Arbeitsbelastung haben. Weitere physiologische Reaktionsmuster (elektrokardiographische und Eye-Tracking-Daten) auf die Verarbeitung von Teilen mit höherer Informationsbelastung werden untersucht und gleichzeitige Muster für Pupillenreaktion, Fixationsdauer und Herzfrequenzvariabilität können aufgezeigt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-62302-9_10 b6523c939b22e156ed354e4354999849;de;;;1.3.;;;Trends in der Social Media-Anwendung: Das Potenzial von Google+ für die Bildung am Beispiel eines Bachelor-Studiengangs Marketing Google Plus hat das Potenzial, die Zusammenarbeit der Schüler durch Kreise zu verbessern, Recherchen für Projekte mit Funken durchzuführen, die Beziehung zwischen Schülern und Lehrern zu verbessern, indem diese Art von sozialen Medien verwendet wird, um miteinander in Kontakt zu treten, und Blended Learning mit der Hangout-Funktion zu unterstützen . Das beispielhaft gezeigte Kurskonzept bietet einen konkreten Ansatz zur Integration von Google Plus-Funktionalitäten in die Bildung. Die Ergebnisse der anstehenden Analyse des eingesetzten Konzepts werden Vorteile und Verbesserungspotenzial sowohl des Systems als auch seines Einsatzes im Bildungsbereich aufzeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27207-3_62 5bd1c2ed558910c413d3b89dcacb5838;de;;;1.1.;;;Ein neuronales Netzwerk basierendes hierarchisches Motorschema einer Mehrfingerhand und ihre Bewegungsvielfalt Motion Dieser Artikel präsentiert ein neuronales Netzwerk-basiertes hierarchisches Motorschema einer Mehrfingerhand, um ein geeignetes Verhalten für eine unbekannte Situation zu erzeugen, ohne alle neuronalen Netzwerke neu zu trainieren, und untersucht seine Bewegungsdiversität durch Änderung seiner Eingangssignale. Herkömmliche neuronale Netze sind schwierig, gewünschte Bewegungen in einer unbekannten Situation zu erzeugen. Unser hierarchisches Motorschema besteht aus den beiden Schichten. Ein unteres Schema wird durch ein rekurrentes neuronales Netz implementiert, das mit primitiven Bewegungsmustern trainiert wird und eine Fingerbewegung aus einem vom oberen Schema gesendeten Befehlscode erzeugt. Das obere Schema erzeugt Befehlscodes für jeden Finger aus einem Verhaltensbefehlscode wie beispielsweise Greifen. Wir haben gezeigt, dass, obwohl die unteren Schemata fixiert waren, eine Vielfalt von erzeugten Fingerbewegungen durch Ändern eines Verhaltenscodes des oberen Schemas durch Computersimulation erreicht werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02490-0_30 bc0d3af426a5550eeed79074c4debe21;de;;;1.1.;;;Verhalten und Sensibilisierung von Schilddrüsenkrebspatienten in Korea, die sich einer niedrig dosierten Radiojodtherapie außerhalb eines Krankenhauses unterziehen, im Hinblick auf die Strahlensicherheit Mit der jüngsten Zunahme der Inzidenz von Schilddrüsenkrebs hat auch die nicht stationäre Behandlung mit niedrig dosiertem (NH-LD) Radiojod (RIT) schnell zugenommen. Die zulässige Radioaktivitätsgrenze, die ohne Krankenhausaufenthalt verabreicht werden darf, hängt von der individuellen Berechnung ab, die teilweise auf dem Verhalten der Patienten basiert. In dieser Studie wurde das Verhalten koreanischer Patienten in Bezug auf die Strahlensicherheit bei NHLD RIT untersucht.;-;-;-;https://link.springer.com/article/10.1007/s13139-010-0057-5 ec92aca3800ebebcf578dbafea8b4f13;de;;;1.1.;;;Kognitive Theorie und Psychometrie In den letzten zehn Jahren haben Studenten der menschlichen Intelligenz mehr Entwicklung und Veränderung unserer Intelligenzvorstellungen miterlebt als alle Studenten dieses Themas seit dem frühen 20 und Intelligenzbewertung. Diesem Jahrzehnt der Gärung und des schnellen Fortschritts folgten mehrere Jahrzehnte zuvor, in denen sich relativ wenig an unseren Vorstellungen von Intelligenz geändert hatte. Warum ist ein Feld, das sich stabilisiert hatte und nach Meinung einiger eher ruhig geworden war, plötzlich in Schwung gekommen? Verschiedene Psychologen mögen unterschiedliche Gründe anführen, aber viele von ihnen würden den Wechsel auf den Einfluss eines neuen Paradigmas auf Theorie und Forschung im Bereich der Intelligenz zurückführen. Das Paradigma war das der kognitiven Psychologie.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-2195-5_13 20dd9c48c5bd71c460746a6485c0673d;de;;;1.3.;;;Eskalation der Wiederherstellung mit Lastenausgleich und gemeinsamer Nutzung von Backup-Ressourcen in überlebensfähigen optischen WDM-Netzwerken In diesem Papier schlagen wir einen neuen überlebensfähigen Algorithmus namens Enhanced Shared-Path Protection (ESPP) vor, um Multi-Link-Ausfälle in optischen WDM-Netzwerken zu tolerieren. In ESPP betrachten wir die Load-Balancing-Methode, um die Blockierungswahrscheinlichkeit für die Berechnung der primären Pfade zu reduzieren, und wir verwenden auch die Idee der gemeinsamen Nutzung von Backup-Ressourcen, um Backup-Ressourcen für die Berechnung der Backup-Pfade zu sparen. Um Multi-Link-Ausfälle zu tolerieren, führen wir den Wiederherstellungseskalationsmechanismus durch, um neue Routen für die Übertragung des von den Ausfällen betroffenen Datenverkehrs einzurichten. Simulationsergebnisse zeigen, dass ESPP im Vergleich zum herkömmlichen Algorithmus ein besseres Ressourcennutzungsverhältnis, eine geringere Blockierungswahrscheinlichkeit und eine höhere Schutzfähigkeit aufweist.;-;-;-;https://link.springer.com/article/10.1007/s11107-009-0201-2 83e7c4400726d6ac3ed8e6ec4e32187b;de;;;1.3.;;;Leistungen und Herausforderungen der chirurgischen Simulation Seit fast einem Jahrzehnt haben fortschrittliche Computertechnologien außergewöhnliche Lernwerkzeuge geschaffen, die dreidimensionale (3D) Visualisierung und virtuelle Realität verwenden. Pionierleistungen in der chirurgischen Simulation mit diesen Werkzeugen haben zu einer ersten Generation von Simulatoren für chirurgisch-technische Fertigkeiten geführt. Zu den Leistungen gehören Simulationen mit 3D-Modellen der Anatomie zum Üben chirurgischer Aufgaben, eine erste Bewertung der Schülerleistungen in technischen Fähigkeiten und das Bewusstsein der Fachgesellschaften für das Potenzial in der chirurgischen Ausbildung und Zertifizierung. Es bleiben jedoch enorme Herausforderungen, darunter die Verbesserung der technischen Genauigkeit, die Standardisierung genauer Metriken für die Leistungsbewertung, die Integration von Simulatoren in einen robusten Lehrplan, die strenge Bewertung von Simulatoren auf Wirksamkeit und Mehrwert für die chirurgische Ausbildung, Festlegung der Simulationsanwendung bis zur Zertifizierung chirurgische technische Fähigkeiten und ein Geschäftsmodell zur erfolgreichen Implementierung und Verbreitung von Simulationen in der gesamten medizinischen Bildungsgemeinschaft. Diese Übersicht befasst sich mit dem historischen Fortschritt chirurgischer Simulatoren, ihren Errungenschaften und den verbleibenden Herausforderungen.;-;-;-;https://link.springer.com/article/10.1007/s004640000369 00810e384e831c5516335f135c476cb1;de;;;1.3.;;;Vorhersage von Protein-O-Glycosylierungsstellen durch Kernel-Hauptkomponentenanalyse und künstliches neuronales Netzwerk Die O-Glykosylierung ist eine der Hauptarten der Protein-Glykosylierung von Säugetieren, sie tritt an der bestimmten Stelle von Serin und Threonin auf. Es ist wichtig, die O-Glykosylierungsstelle vorherzusagen. In diesem Artikel haben wir eine neue Methode zur Kombination der Kernel-Hauptkomponentenanalyse (KPCA) und des künstlichen neuronalen Netzwerks (ANN) vorgeschlagen, um die O-Glykosylierungsstelle vorherzusagen. Die Proben für das Experiment werden durch die Sparse-Codierung mit einer Fenstergröße w = 21 codiert. Wir extrahierten zuerst die Merkmale der Originaldaten durch Kernel-Hauptkomponentenanalyse und verwendeten dann künstliche neuronale Netze, um die Testproben in zwei Klassen (positiv und negativ) zu klassifizieren. Die Ergebnisse von Experimenten zeigen, dass die vorgeschlagene Methode effektiver und genauer ist als PCA+ANN. Die Vorhersagegenauigkeit beträgt etwa 88,5%.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21802-6_72 5c35ab7da15993573a92595c7f65bf3c;de;;;1.3.;;;Die Interaktion von Antwort M und % ORM beim Paired-Assoziierten Lernen In zwei Experimenten wurde die Interaktion von Antwortbedeutung (M) und prozentualem Auftreten von Antwortmitgliedern (%ORM) untersucht. Die Ergebnisse beider Experimente zeigten, dass früh im Training M-Items mit hoher Antwort größere Unterschiede zwischen %ORM-Gruppen erzeugten als Mitems mit niedriger Antwort, aber das Gegenteil war spät im Training der Fall. Frühere Versäumnisse, ein signifikantes M durch %ORM-Interaktion zu erhalten, wurden der Verwendung von Reaktionsmaßen zugeschrieben, die nicht auf die Umkehr der Interaktion mit dem Training reagieren.;-;-;-;https://link.springer.com/article/10.3758/BF03336205 a6342163c56b866e7feffd6447a344bd;de;;;1.3.;;;Algorithmus zur Verbesserung der Nachtsichtbarkeit in Echtzeit unter Verwendung der Ähnlichkeit von invertiertem Nachtbild und Nebelbild In diesem Artikel schlagen wir einen verbesserten Algorithmus zur Verbesserung der Nachtsichtbarkeit vor, der auf der Dunstentfernungsmethode basiert. Das vorgeschlagene Verfahren verwendet ein neues Trübungsentfernungsverfahren anstelle des herkömmlichen Verfahrens. Diese Entnebelungsmethode ist sehr gut und schneller als die herkömmliche Methode. Es verwendet auch eine weitere Contrast Limit Adaptive Histogram Equalization (CLAHE) zum Schärfen des Bildes. Das vorgeschlagene Verfahren kann auf jede Anwendung angewendet werden, die eine Kamera für sichtbares Licht verwendet, und es ist geeignet, eine Blackbox, eine Fahrzeugkamera und eine Handykamera anzuwenden, da eine Echtzeitverarbeitung möglich ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46578-3_124 d3510d7a1bbdfbb25f2d351186bfbf61;de;;;1.3.;;;Service Learning in der Hochschulbildung: eine systematische Literaturrecherche In den letzten Jahren hat sich die Einführung von Service Learning an Hochschulen als moderne Lehr- und Lernstrategie etabliert. Ziel dieser Studie ist es, eine systematische Literaturrecherche zur Implementierung von Service Learning in der Hochschulbildung anzubieten. Es fehlt an Forschung zur Rolle des Service Learning im Hochschulbereich. Auch eine umfassende systematische Literaturrecherche zum Service Learning im Hochschulbereich wird in bisherigen Studien übersehen. Daher umfasst diese Studie eine eingehende systematische Literaturrecherche, die den Nutzungsansatz und die Ergebnisse von Service Learning in der Hochschulbildung widerspiegelt. Durch einen streng explorativen Ansatz liefert diese Studie vier Hauptergebnisse: (1) Akzeptanz und Nutzung von Service Learning in verschiedenen akademischen Disziplinen, die eine detaillierte Diskussion darüber umfasst, inwieweit pädagogische Praxis des Service Learning in jeder Disziplin existiert. (2) Neue Fragen zur Integration von Service Learning in verschiedene wissenschaftliche Disziplinen. (3) Vergleichende Analyse früherer Service-Learning-Frameworks, die die theoretische Grundlage, die wichtigsten Ergebnisse und die Grenzen jedes Frameworks umfasst. (4) Potenzielle Vorteile von Service Learning für alle Teilnehmer. Service Learning bietet vielfältige Vorteile für alle Beteiligten. Wir haben die Liste potenzieller Ergebnisse im Lichte der neuen Service Learning-Literatur identifiziert. Diese Ergebnisse zeigen, dass Service Learning in einigen wissenschaftlichen Disziplinen häufig eingesetzt wird, d. Darüber hinaus zeigte der Vergleich bisheriger Service-Learning-Frameworks, dass die meisten von ihnen fachorientiert sind und sich speziell auf institutionalisierende und praktische Aspekte konzentrieren.;-;-;-;https://link.springer.com/article/10.1007/s12564-019-09580-6 e90db93faed4c48e15630b27d86c476a;de;;;1.3.;;;Empfehlungen für einen Lehrplan für Echtzeitsysteme Ziel der Kurse zur Ausbildung von Echtzeit-Computer- und Steuerungstechnikern ist es, Themen und Probleme bei der Entwicklung eingebetteter Systeme für harte Echtzeitumgebungen zu diskutieren. Mit letzterem Begriff sind industrielle, wissenschaftliche und militärische Anwendungsgebiete gemeint, die durch strenge Zeitvorgaben gekennzeichnet sind, die auf keinen Fall verletzt werden dürfen. Im Gegensatz dazu müssen kommerzielle Systeme z. B. für automatische Banking- und Airline-Reservierungen nur weiche Echtzeitanforderungen erfüllen, d etwas variabler Zeitrahmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-585-32314-5_16 66449548e7bcebe1e4f7aee457296275;de;;;1.3.;;;Pixon-basierte Bildrekonstruktion mit mehreren Auflösungen und Quantifizierung von Bildinformationsinhalten Dieser Artikel beschreibt die Theorie der pixonbasierten Bildrekonstruktion. Nach einer kurzen Einführung in die grundlegenden Konzepte des Pixons konzentriert sich der Artikel hauptsächlich auf unsere aktuelle Implementierung der Techniken zusammen mit den Näherungen und Abkürzungen, die praktische Softwarealgorithmen zu liefern scheinen. Anschließend präsentieren wir ein Anwendungsbeispiel der Methode auf astrophysikalische Daten, d. h. die Abbildung des Einsteinrings in der Gravitationslinse von FSC 10214+4724.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-5430-7_17 3bd7faf961f3350194f4319a2c0ccb63;de;;;1.3.;;;Bleiben oder nicht bleiben: Eine Entscheidung, die nach Abschluss des Doktorats unter internationalen asiatischen Doktortiteln an US-Hochschulen zu treffen ist Die Mobilitätsmuster hochqualifizierter Arbeitskräfte und die Faktoren, die diese Muster beeinflussen, haben sich in den letzten Jahrzehnten in vielfältiger Weise verändert. Diese Studie untersucht die Aufenthalts- und Rückkehrtrends von asiatischen Promovierten aus China, Indien, Südkorea und Taiwan, die ihren Abschluss in den USA erworben haben. Mittels logistischer Regression zur Analyse von Daten sowohl des Integrated Postsecondary Education Data System (IPEDS) als auch des Survey of Earned Doctorates (SED) der US National Science Foundation wurden einzelne Hintergrundvariablen, institutionelle Variablen und Herkunftslandvariablen auf ihre Wirkung untersucht über die Entscheidung einer Person, nach der Promotion in den Vereinigten Staaten zu bleiben. Über die Merkmale der einzelnen, institutionellen und Herkunftsländer hinweg wurden signifikant unterschiedliche Muster der Aufenthaltsquoten festgestellt. Implikationen für Politik und zukünftige Forschung werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-60394-0_11 7bc4c6285e891add18ce0a6e792f5a85;de;;;1.3.;;;Medizinisches Simulationstraining: Ausrichtung medizinischer Fähigkeiten, um Feldverletzungen in Echtzeit zu emulieren Technologische Fortschritte in der modernen Kriegsführung führen weiterhin zu schnellen Veränderungen in der Art und Weise, wie das Militär Verletzungen verfolgt und wie das Militär Feldverletzungen versorgt. Simulationstrainingserfahrungen sollten regelmäßig evaluiert, angepasst und angepasst werden, um ein entscheidendes Training zur Behandlung von Verletzungen, die im Feld auftreten, in Echtzeit bereitzustellen. Medizinisches Simulationstraining ist für medizinisches Fachpersonal nur dann von Nutzen, wenn die Teilnehmer des Trainings medizinische Fähigkeiten anwenden, die für ihre Patientenpopulation relevant sind. Es ist wichtig, dass die Lehrpläne für die militärmedizinische Simulationsausbildung flexibel und intelligent sind. Militärmedizinische Simulationen für das Feld müssen aktualisiert und angepasst werden, um medizinisches Personal zu schulen, um Verletzungen im Feld in Echtzeit zu versorgen. Militärmedizinisches Personal muss in der Lage sein, die Fertigkeit schnell zu erlernen, um vor dem Einsatz im Feld eine hohe Kompetenz aufzubauen. Diese Forschungsbemühungen sollten feststellen, ob militärmedizinische Simulationstechniken, die in der aktuellen Trainingsumgebung unterrichtet werden, die erforderlichen medizinischen Fähigkeiten widerspiegeln, die in den Daten des Pre-Hospital Trauma Registry (PHTR) gesehen werden. Die Verfolgung von Verletzungsmustern im Feld ist nicht nur entscheidend, um festzustellen, ob das aktuelle Simulationstraining Feldszenarien genau nachahmt, sondern auch, um festzustellen, ob sich die Verletzungsmuster seit Beginn der Operation Iraqi Freedom geändert haben. Diese Informationen werden Änderungen/Aktualisierungen in den auf Simulationsaufgaben basierenden Ausbildungslehrplänen und -forschungen erleichtern, um die volle Kompetenz und die vollständige Bereitschaft der medizinischen Kräfte zu gewährleisten, die zu der bestmöglichen Versorgung des verletzten Kämpfers führen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-60591-3_14 6eb090ce3dfaa3c324660c204864c038;de;;;1.3.;;;Ein Kanalzuweisungsalgorithmus basierend auf dem Verbindungsverkehr in einem drahtlosen Mesh-Netzwerk In einem drahtlosen Mesh-Netzwerk, um die Interferenzen innerhalb des Mesh-Netzwerks zu minimieren und die Netzwerkkonnektivität bei der Kanalzuweisung zu verbessern. In dieser Arbeit wurde ein heuristischer Algorithmus vorgeschlagen, der den Auslastungsgrad eines Knotens durch Vorhersage des Verbindungsverkehrs in den Netzwerken vorhersagen kann. So kann der Algorithmus flexibel auf die Verteilung des Datenverkehrs reagieren. In diesem Papier wurde auch das Protokollinterferenzmodell verwendet, um die Interferenzen zwischen den Verbindungen im drahtlosen Mesh-Netzwerk zu reduzieren. Simulationsergebnisse zeigen, dass der Algorithmus die Wartezeit während der Übertragung eines Datenrahmens reduzieren kann. Und der Netzwerkdurchsatz und die Stabilität können erheblich verbessert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25908-1_19 f4b0f7f3f773f29c0aeb24e12c9b3da8;de;;;1.1.;;;Hedonismus versus Genauigkeit: der Einfluss von Motivation und Affekt auf die Bewertung multipler Gewinne und Verluste Der wahrgenommene Wert mehrerer Gewinne und Verluste kann durch die Ziele oder den affektiven Zustand eines Wahrnehmenden beeinflusst werden. In dieser Arbeit wurden Erkenntnisse aus der Prospekttheorie mit dem heuristisch-systematischen Modell kombiniert, um die Informationsverarbeitungsstrategien zu beleuchten, die der motivierten und affektbezogenen Präferenzbildung im Kontext der Bewertung multipler Gewinne und Verluste zugrunde liegen. Insbesondere untersuchen die Ergebnisse aus zwei Experimenten den Einfluss von Motivation und Affekt auf Präferenzen für segregierte versus integrierte Gewinne und Verluste. Im ersten Experiment wurde – in Übereinstimmung mit Hypothesen – festgestellt, dass die Genauigkeitsmotivation eine systematische Verarbeitung zu Gewinnen induziert. Die gemischten Ergebnisse in der Verlustbedingung werden mit dem Einfluss des negativen Affekts erklärt. Insgesamt stützen die Beweise die Vorstellung, dass die Wertfunktionen der Menschen in Abhängigkeit von den aktuellen Zielen der Menschen flexibler sein könnten als von der Perspektiventheorie vorhergesagt. Das zweite Experiment untermauert diese Ergebnisse, indem es den Einfluss von negativem versus positivem Affekt auf die Bewertung von Gewinnen und Verlusten identifiziert. Die Ergebnisse legen nahe, dass das Stimmungsmanagement Informationsverarbeitung und Präferenzen in Abhängigkeit von der Kongruenz von Affektvalenz (z. B. negativ wie Traurigkeit) und Valenzereignis (z. B. positives Ereignis wie Gewinn) bestimmt. Aus betriebswirtschaftlicher Sicht ergänzen diese Studien das praktische Wissen zu Preiskommunikation, Bündelung, Zuschlägen oder Zahlungsabfolgen. Bei der Festlegung von Preisen, Gehältern oder anderen Vergütungsmodellen sollten Manager berücksichtigen, ob ihre Zielgruppe eher treffsicher oder motivierter ist.;-;-;-;https://link.springer.com/article/10.1007/s11846-012-0090-0 474d90411277165dc98d7bb5b203f5ba;de;;;1.1.;;;Die Begle Memorial Series zur Forschung in der Mathematikdidaktik Dieses Papier gehört zu einer Reihe von Präsentationen auf diesem Kongress, die an die Arbeit von Ed Begle erinnern. Als Grundlage für diese Präsentationen diente Begles letztes Werk „Critical Variables in Mathematics Education“ (1979). Insbesondere werde ich auf „Die Verwendung kritischer Variablen zur Organisation der Forschung, Probleme bei der Synthese von Forschung und die Art der empirischen Forschung, die für den Mathematikunterricht am nützlichsten wäre“ eingehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-8223-2_12 f1aac1e5d752919c635ab269f8133ce2;de;;;1.1.;;;Trait-Angst moduliert überschwellige und unterschwellige Bedrohung: Gehirnpotenziale Hinweise auf frühe und späte Verarbeitungseinflüsse Es wird angenommen, dass die Analyse der Bedrohung eine „schnelle und schmutzige“ Phase in Verbindung mit einer langsameren Verarbeitung umfasst, die vollständiger ist. Wir untersuchten beide Arten der Bedrohungsanalyse, indem wir Gehirnpotentiale als Reaktion auf Bedrohung und neutrale Wörter aufzeichneten. Persönlichkeitstests wurden verwendet, um Teilnehmer zu identifizieren, die entweder hohe oder niedrige Trait-Angst (TA) hatten. Eine beobachtete Verstärkung des okzipitalen P1-Potentials für Bedrohungswörter während einer emotionalen Stroop-Aufgabe wurde als Signal einer unbewussten Verarbeitung interpretiert, da sie früh war, unabhängig davon, ob die Wortexposition unter- oder überschwellig war, und umso ausgeprägter, je höher der TA-Wert war. Spätere positive Potenziale wurden auch für Bedrohung gegenüber neutralen Wörtern verstärkt, aber die Amplitudenverstärkung nahm mit höherem TA nur in der unterschwelligen Bedingung zu. Diese Ergebnisse legen nahe, dass die unbewusste Bedrohungsanalyse bei Angstanfälligen intensiviert wird, ebenso wie ein späteres Stadium der Bedrohungsverarbeitung, das dynamischen Wechselwirkungen zwischen automatischen und strategischen Einflüssen unterliegt.;-;-;-;https://link.springer.com/article/10.3758/CABN.7.1.25 ed0a03c887984a19d3829289dd07a3f4;de;;;1.1.;;;Geschlechterfragen! Thermische Behaglichkeit und individuelle Wahrnehmung der Raumklimaqualität: Eine Literaturübersicht Der Einsatz von Technologie im Bauwesen hat eine deutliche Steigerung des Komforts und den Bau energieeffizienter Gebäude ermöglicht. Für den Raumklimakomfort gibt es jedoch keinen universellen Standard, der für alle geeignet ist. Das Raumklima wird individuell wahrgenommen und die Anforderungen werden subjektiv geprägt. In diesem Beitrag wird eine Literaturrecherche durchgeführt, um bestimmte geschlechtsrelevante Aspekte zu beschreiben. Ziel ist es, für diese Aspekte zu sensibilisieren, um die Gleichstellungsorientierung als integralen Bestandteil von Planungen und energieeffizienten Gebäudekonzepten voranzubringen. Die Ergebnisse zeigen, dass die thermische Behaglichkeit ein wesentlicher Parameter ist, und es wurden Unterschiede von bis zu 3 °C zwischen Frauen und Männern festgestellt. Dieser Unterschied ist in Büros am deutlichsten, in denen Frauen in einer wärmeren Umgebung eine bessere kognitive Leistung zeigen, während Männer bei kälteren Temperaturen besser abschneiden. Als Einflussfaktor für die Zufriedenheit mit Luftfeuchtigkeit, akustischen Bedingungen, Sehkomfort, Privatsphäre, Luftqualität, Gesundheitsaspekten, Lichtpräferenzen und Helligkeitsempfinden wurde auch das Geschlecht gefunden. Darüber hinaus tritt das Sick-Building-Syndrom bei Frauen häufiger auf. Zusammenfassend bestätigt die Literatur, dass wesentliche Parameter der Innenraumqualität (IEQ) zwischen Männern und Frauen stark variieren und in der Praxis der Gebäudetechnik stärker berücksichtigt werden sollten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71819-0_9 c405b41e33c9409fa94ae004084a2d0c;de;;;1.3.;;;Erkennung überfluteter Straßen vom Fahrrekorder: Deep Net für seltene Ereignisse trainieren mit semantischen Informationen von GANs Für das Verkehrsmanagement ist es wichtig, ungewöhnliche Bedingungen oder Straßenunregelmäßigkeiten zu verstehen, die durch Naturkatastrophen (z. Unter anderem haben wir uns auf überflutete Straßen als ungewöhnliche Ereignisse konzentriert und eine Methode zur automatischen Erkennung vorgeschlagen, die Deep-Learning-Methoden aus Fahrvideos verwendet. Da solche ungewöhnlichen Ereignisse selten auftreten, reicht die Menge an Trainingsdaten für Deep Learning in der Regel nicht aus. Daher schlagen wir einen Ansatz zur Datenaugmentation vor, der Generative Adversarial Networks (GANs) verwendet, um das Problem zu lösen. Um die Daten effektiv zu erweitern, schlagen wir eine Multi-Domain-Bild-zu-Bild-Transformation durch GANs vor. Um die Robustheit der Bildtransformation zu erhöhen, führen wir außerdem neu semantische Informationen ein. Wir synthetisierten einen neuen Datensatz mit GANs und überprüften die Leistung unserer Methode, indem wir überflutete Szenen erkannten.;-;-;-;https://link.springer.com/article/10.1007/s13177-019-00219-9 afdd8f236f5cad2016d0f8fb4ab5e00c;de;;;1.3.;;;Robuster TSK-Fuzzy-Modellierungsansatz mit Noise-Clustering-Konzept zur Funktionsapproximation Approx Dieses Papier schlägt den Algorithmus vor, bei dem ein zusätzlicher Term zu einer objektiven Funktion des Rauschclustering-Algorithmus hinzugefügt wird, um Fuzzy-Unterräume in einer Fuzzy-Regressionsweise zu definieren, um Fuzzy-Unterräume und Parameter der Folgeteile gleichzeitig zu identifizieren und eine robuste Leistung gegen Ausreißer zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30497-5_84 e0ea1fe6d91c2439d3ae57a659b3c18b;de;;;1.3.;;;Die Auswirkungen unterschiedlicher Klassenverteilung auf das Lernverhalten bei der Erkennung von Medicare-Betrug mit unausgewogenen Big Data Die Gesundheitsversorgung in den Vereinigten Staaten ist ein kritischer Aspekt im Leben der meisten Menschen, insbesondere für die alternde Bevölkerungsgruppe. Diese wachsende ältere Bevölkerung verlangt weiterhin nach kostengünstigeren Gesundheitsprogrammen. Medicare ist ein lebenswichtiges Programm, das den Bedürfnissen älterer Menschen in den Vereinigten Staaten dient. Die wachsende Zahl von Medicare-Leistungsempfängern und das enorme Geldvolumen in der Gesundheitsbranche erhöhen die Attraktivität und das Risiko von Betrug. In diesem Papier konzentrieren wir uns auf die Aufdeckung von Betrug durch Anbieter von Medicare Teil B, der betrügerische Aktivitäten beinhaltet, wie z. Wir diskutieren die Datenverarbeitung von Teil B und beschreiben einen einzigartigen Prozess zur Zuordnung von Betrugsetiketten zu bekannten betrügerischen Anbietern. Der gekennzeichnete große Datensatz ist mit einer sehr begrenzten Anzahl von Betrugsfällen stark unausgewogen. Um dieses Klassenungleichgewicht zu bekämpfen, generieren wir sieben Klassenverteilungen und bewerten das Verhalten und die Betrugserkennungsleistung von sechs verschiedenen Methoden des maschinellen Lernens. Unsere Ergebnisse zeigen, dass RF100 mit einer 90:10-Klassenverteilung der beste Lerner mit einer AUC von 0,87302 ist. Darüber hinaus ähnelt das Lernerverhalten bei der 50:50-ausgewogenen Klassenverteilung unausgewogeneren Verteilungen, die mehr von den Originaldaten behalten. Basierend auf den Ergebnissen der Leistungs- und Signifikanztests gehen wir davon aus, dass die Speicherung von mehr Informationen der Mehrheitsklasse zu einer besseren Leistung bei der Betrugserkennung von Medicare Teil B gegenüber den ausgewogenen Datensätzen bei der Mehrheit der Lernenden führt.;-;-;-;https://link.springer.com/article/10.1007/s13755-018-0051-3 5ef8e5c4544dd6e384b67279bd0e00b6;de;;;1.3.;;;Management von Matrixed, Disserated Advisors in virtuellen Universitäten Es fehlt an Forschung, wie die beratende Rolle an rein virtuellen Universitäten zu bewältigen ist. Dieses Papier hebt die Notwendigkeit für virtuelle Universitäten hervor, ein großes, verteiltes Lehrpersonal durch virtuelle Arbeitsgruppen zu koordinieren. Im speziellen Fall der Studienberatung können diese Gruppen in einer virtuellen Matrixstruktur funktionieren – wie es in der Open University of Catalonia der Fall ist – und damit spezifische Koordinationsherausforderungen generieren. Das Papier erarbeitet ein Input-Prozess-Output-Modell, das als Leitfaden für die Erforschung der Wirksamkeit von Matrix-, verteilten Beratern verwendet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35879-1_83 f8cbba99d2caa99db54dc7a2bfb945d7;de;;;1.3.;;;Temperaturfehlerkorrektur basierend auf dem neuronalen BP-Netzwerk in einem meteorologischen drahtlosen Sensornetzwerk Die Verwendung eines meteorologischen drahtlosen Sensornetzwerks zur Überwachung der Lufttemperatur (AT) kann die Kosten für die Überwachung erheblich reduzieren. Und es zeichnet sich durch einfache Bereitstellung und hohe Mobilität aus. Aber kostengünstige Sensoren werden leicht durch externe Umgebungen beeinflusst, was oft zu ungenauen Messungen führt. Frühere Forschungen haben gezeigt, dass zwischen AT und Sonnenstrahlung (SR) ein enger Zusammenhang besteht. Daher haben wir im Mai ein neuronales Netzmodell mit Backpropagation (BP) unter Verwendung von SR als Eingabeparameter entworfen, um die Beziehung zwischen SR und AT-Fehler (ATE) mit allen Daten im Mai herzustellen. Dann haben wir das trainierte BP-Modell verwendet, um die Fehler in anderen Monaten zu korrigieren. Wir haben die Leistung der Datensätze in früheren Untersuchungen bewertet und dann den maximalen absoluten Fehler, den mittleren absoluten Fehler bzw. die Standardabweichung verglichen. Die experimentellen Ergebnisse zeigen, dass unsere Methode eine wettbewerbsfähige Leistung erzielt. Es beweist, dass das neuronale BP-Netz aufgrund seiner leistungsstarken Funktionen der nichtlinearen Anpassung sehr gut geeignet ist, dieses Problem zu lösen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48674-1_11 0cf4047c65a1afe3b2409e53fc4f4e55;de;;;1.3.;;;Hochschulqualitätsaufsicht Systemforschung In den letzten Jahren hat die Qualität der Hochschulbildung mit der rasanten Entwicklung der Hochschulbildung in China große Aufmerksamkeit in der gesamten Gesellschaft erregt. Daher wird die Überwachung der Hochschulqualität zu einem schwierigen theoretischen und praktischen Problem, das dringend gelöst werden sollte. Eine Studie über das chinesische Aufsichtssystem für die Qualität der Hochschulbildung wird die Entwicklung der Hochschulqualität fördern. In diesem Beitrag wird ein Hochschulqualitätsaufsichtssystem über die Hochschulqualitätskontrolle vorgestellt, auf dessen Grundlage die mehrparteienbeteiligten Aufsichtsbereiche gebildet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_19 ece3b6598ac08d897c75b66f69c69efa;de;;;1.3.;;;Forschung und Praxis zur Innovation und unternehmerischen Bildung von College-Studenten Die Stärkung der Innovations- und Unternehmerausbildung ist eine der wichtigen Aufgaben der chinesischen Hochschulreform und -entwicklung. Entrepreneurship Education sollte sich darauf konzentrieren, bahnbrechenden genetischen Code für zukünftige Generationen zu entwickeln. Im Wesentlichen handelt es sich um eine bildungsinnovationsorientierte unternehmerische Revolution der Personalentwicklung. Technologische Innovation ist eine strategische Unterstützung zur Verbesserung der sozialen Produktivität und umfassenden nationalen Stärke, die in den Mittelpunkt der nationalen Gesamtentwicklung gestellt werden sollte. Für Chinas Hochschulbildung schlägt sie weitere neue Anforderungen vor. Eine ernsthafte Diskussion über die Innovationsbildung von College-Studenten ist erforderlich. Durch die Praxis werden Verbesserungen in der Qualität der Innovation und der Ausbildung zum Unternehmertum erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-2098-8_6 a966ca7c57d6291a42bfcdddc8cd31aa;de;;;1.3.;;;Verwalten eines Notfallvorsorgeprogramms Im vorangegangenen Kapitel wurden viele technische Aspekte der chemischen Prozesssicherheit und einige Sicherheitsmanagementsysteme untersucht, die die Grundlage eines umfassenden Notfallvorsorgeprogramms bilden. Natürlich besteht der erste Schritt bei der Vorbereitung auf Notfälle darin, die Bedingungen, die sie verursachen könnten, zu identifizieren und abzuschwächen. Dieser Prozess beginnt früh in der Entwurfsphase einer Chemieanlage und setzt sich während der gesamten Lebensdauer fort. Das Ziel ist es,;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-27843-8_4 d2dfef118c2398ee6c748099dce52d6d;de;;;1.3.;;;Beschreiben und Generieren multimodaler Inhalte mit affektiven lebensechten Agenten mit MPML In diesem Artikel geben wir einen Überblick über unsere Forschung zu multimodalen Medien und Inhalten mit verkörperten lebensechten Agenten. Insbesondere beschreiben wir unsere Forschung, die sich auf MPML (Multimodal Presentation Markup Language) konzentriert. MPML ermöglicht es Menschen, multimodale Inhalte einfach zu schreiben und zu produzieren, und dient als Kern für die Integration verschiedener Komponenten und Funktionalitäten, die für multimodale Medien wichtig sind. Um die Vorteile und Nutzbarkeit von MPML in einer Vielzahl von Umgebungen zu demonstrieren, einschließlich animiertem Web, 3D-VRML-Raum, Mobiltelefonen und der physischen Welt mit einem humanoiden Roboter, wurden mehrere Versionen von MPML entwickelt, wobei das grundlegende Format beibehalten wurde. Da das emotionale Verhalten des Agenten ein wichtiger Faktor ist, um Agenten lebensecht zu machen und von den Menschen als attraktiver und freundlicher Mensch-Computer-Interaktionsstil akzeptiert zu werden, wurden in MPML emotionsbezogene Funktionen betont. Um den Aufwand für das Verfassen der Inhalte zu erleichtern, ist es auch erforderlich, den Agenten eine gewisse Autonomie zu verleihen. Wir zeigen einige unserer Ansätze dazu.;-;-;-;https://link.springer.com/article/10.1007/BF03037295 414408df4b852b98aacfd9e643cf0f59;de;;;1.3.;;;Zuverlässigkeitsbasiertes Design menschlicher Leistungsbedingungen mit Fuzzy Perfection Es wird ein Verfahren zur Auswahl von Leistungsbedingungen vorgeschlagen, die die menschliche Zuverlässigkeit beeinträchtigen, ohne zeitaufwendige Berechnung der Wahrscheinlichkeit eines menschlichen Fehlers. Diese Methode basiert auf dem speziell eingeführten Konzept der Fuzzy-Perfektion und der Theorie der Entscheidungsfindung unter Fuzziness. Es wird gezeigt, dass das vorgeschlagene Verfahren sowohl unabhängig als auch zusammen mit dem bekannten CREAM-Verfahren zur Bestimmung der Zuverlässigkeitsklasse basierend auf kognitiven Bewertungen menschlicher Leistungsbedingungen verwendet werden kann. Es wird gezeigt, dass die durch das vorgeschlagene Fuzzy-Perfection-Verfahren erhaltenen Ergebnisse mit denen übereinstimmen, die auf der Wahrscheinlichkeit fehlerhafter Aktionen basieren.;-;-;-;https://link.springer.com/article/10.1007/s10559-019-00128-5 9ee2528b8598aa26f01bb1bae27f28f6;de;;;1.3.;;;Modularitätsoptimierung als Trainingskriterium für graphische neuronale Netze Graph Convolution ist eine neue skalierbare Methode zum Durchführen von Deep-Feature-Learning für attributierte Graphen, indem lokale Knoteninformationen über mehrere Schichten aggregiert werden. Solche Schichten berücksichtigen nur Attributinformationen von Knotennachbarn im Vorwärtsmodell und beziehen kein Wissen über die globale Netzwerkstruktur in die Lernaufgabe ein. Insbesondere die Modularitätsfunktion bietet eine komfortable Informationsquelle über die Community-Struktur von Netzwerken. In dieser Arbeit untersuchen wir den Einfluss auf die Qualität gelernter Repräsentationen durch die Einbeziehung von Zielen zur Erhaltung der Gemeinschaftsstruktur von Netzwerken in das Graphenfaltungsmodell. Wir integrieren die Ziele auf zwei Arten, durch einen expliziten Regularisierungsterm in der Kostenfunktion in der Ausgabeschicht und als zusätzlichen Verlustterm, der über eine Hilfsschicht berechnet wird. Wir berichten über die Wirkung von gemeinschaftsstrukturerhaltenden Begriffen in den Graphfaltungsarchitekturen. Die experimentelle Auswertung von zwei attributierten bibliographischen Netzwerken zeigte, dass die Einbeziehung des gemeinschaftserhaltenden Ziels die Genauigkeit der semi-überwachten Knotenklassifizierung im Sparse-Label-Regime verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-73198-8_11 c5cfb3d6945e05f978a9292e9162a4b0;de;;;1.3.;;;Numerische Simulation eines Herz-Lungen-Systems unter Therapie, seine Verwendung in computergestütztem Unterricht und Training Diese Arbeit stammt aus einer in den letzten Jahren von den Autoren und anderen durchgeführten Arbeit zum Problem der Modellierung komplexer biologischer Systeme (1). Hier werden neue biomathematische und Programmiertechniken im Hinblick auf eine Verallgemeinerung der Methoden zur Simulation und Analyse diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-48334-9_26 ee2869c1c6357089c67110586948c370;de;;;1.3.;;;Klassifizierung von GPS-Satelliten mit verbesserten Backpropagation-Trainingsalgorithmen Die Faktorgeometrische Verdünnung der Präzision (GDOP) ist ein Indikator, der die Qualität der GPS-Positionierung anzeigt und wurde oft verwendet, um eine geeignete Satellitenuntergruppe aus mindestens 24 bestehenden Satelliten im Orbit auszuwählen. Die Berechnung von GPS GDOP ist eine zeitaufwendige Aufgabe, die durch das Lösen von Messgleichungen mit komplizierter Matrixtransformation und -inversion durchgeführt werden kann. Um diesen Rechenaufwand zu verringern, wurde in dieser Forschung das künstliche neuronale Netz (KNN) verwendet. Obwohl die Basic Backpropagation (BP) der beliebteste KNN-Algorithmus ist und in Schätzern, Detektoren oder Klassifikatoren verwendet werden kann, ist sie für praktische Probleme zu langsam und ihre Leistung ist in vielen Fällen nicht zufriedenstellend. Um dieses Problem zu lösen, wurden sechs Algorithmen vorgeschlagen, nämlich BP mit adaptiver Lernrate und Impuls, Fletcher-Reeves konjugierter Gradientenalgorithmus (CGA), Polak-Ribikre-CGA, Powell-Beale-CGA, skalierter CGA und resilienter BP, Konvergenzzeit des Basis-BP. Die Simulationsergebnisse zeigen, dass resilientes BP im Vergleich zu anderen Methoden eine höhere Genauigkeit und Rechenzeit aufweist. Der belastbare BP kann die Klassifizierungsgenauigkeit von 93,16 auf 98,02 % verbessern, indem er die GPS-GDOP-Messdaten verwendet.;-;-;-;https://link.springer.com/article/10.1007/s11277-012-0844-7 8f5b28dd02b9643912caacc016305bf5;de;;;1.3.;;;Englisch als Unterrichtsmedium an ost- und südostasiatischen Universitäten In diesem Kapitel betrachte ich die zunehmende Verlagerung des Englischen als Unterrichtssprache (EMI) in Ost- und Südostasien mit Fokus auf den Hochschulbereich. Ich werde auch mögliche Auswirkungen des Trends zu EMI an asiatischen Universitäten für den australischen Universitätssektor diskutieren. Das Kapitel beginnt mit einer kurzen Diskussion des kürzlich veröffentlichten Weißbuchs der australischen Regierung, Australien im asiatischen Jahrhundert, gefolgt von einer Zusammenfassung der jüngsten Entwicklungen in Bezug auf den Einsatz von EMI an ausgewählten europäischen Universitäten. Der Hauptteil des Papiers überprüft und diskutiert die Einführung von EMI bei ausgewählten Universitäten in Asien. Einige vorläufige Vorhersagen zur Verwendung von Englisch und asiatischen Sprachen in der Hochschulbildung in Australasien schließen das Kapitel ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7972-3_2 1d5127357aad760a2bfe98c50b9e3d81;de;;;1.3.;;;Adaptive Mehrbenutzererkennung Angespornt durch seine Anwendungen im Code Division Multiple Access hat sich die Mehrbenutzererkennung von ihren Ursprüngen vor mehr als zehn Jahren zu einer lebhaften Forschungs- und Entwicklungstätigkeit in Industrie und Hochschulen entwickelt. Da die Notwendigkeit zur Erhöhung der Kapazität in Mehrbenutzer-Funkkanälen immer dringender wird, kann mit Sicherheit erwartet werden, dass das Interesse an diesem Thema in naher Zukunft zunehmen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-2251-5_6 5d920ac0758dc631f292808eb6bb10c3;de;;;1.3.;;;Einführung semantischer Informationen in Bewegungsgraphen Um die Bewegungssynthese auf Basis von Bewegungsgraphen zu verbessern, wurde die semantische Steuerung eingeführt. Hybride Bewegungsmerkmale einschließlich numerischer und benutzerdefinierter semantischer relationaler Merkmale wurden extrahiert, um die charakteristischen Aspekte zu kodieren, die in den Posen der Charaktere der gegebenen Bewegungssequenzen enthalten sind. Bewegungsschablonen wurden dann automatisch aus den Trainingsbewegungen abgeleitet, um die räumlich-zeitlichen Eigenschaften einer ganzen gegebenen Klasse semantisch verwandter Bewegungen zu erfassen. Die Datenströme von Bewegungsdokumenten wurden automatisch mit semantischen Bewegungsklassenetiketten versehen, indem ihre jeweiligen Bewegungsklassenvorlagen abgeglichen wurden. Schließlich wurde die semantische Steuerung in die auf Bewegungsgraphen basierende menschliche Bewegungssynthese eingeführt. Experimente zur Bewegungssynthese demonstrieren die Wirksamkeit des Ansatzes, der Benutzern ein höheres Maß an semantisch intuitiver Steuerung und eine hohe Qualität der menschlichen Bewegungssynthese aus der Bewegungserfassungsdatenbank ermöglicht.;-;-;-;https://link.springer.com/article/10.1007/s11771-011-0809-0 8c33801ecf0ffdd1704d0e0bc77623f9;de;;;1.3.;;;Integration von groben Sets mit neuronalen Netzen zur Gewichtung von Leistungsindikatoren für die Verkehrssicherheit Road Dieses Papier zielt darauf ab, zwei Hauptunsicherheitsfaktoren beim Training neuronaler Netze bei der Entwicklung eines zusammengesetzten Verkehrssicherheitsleistungsindikators zu verbessern. Diese Faktoren sind der Anfangswert der Netzwerkgewichte und die Iterationszeit. Insbesondere wird die Theorie der groben Mengen zur Regelinduktion und Merkmalsauswahl in Entscheidungssituationen angewendet, und die Konzepte von Reduktion und Kern werden verwendet, um Entscheidungsregeln aus den Daten zu generieren, um das Selbsttraining neuronaler Netze zu leiten. Mittels Simulation werden sieben Indikatoren in einem Verkehrssicherheitsdatensatz für 21 europäische Länder optimal gewichtet. Die Länder werden nach ihrem zusammengesetzten Indikatorwert eingestuft. Eine Vergleichsstudie zeigt die Machbarkeit dieses hybriden Rahmens für Leistungsindikatoren für die Straßenverkehrssicherheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02962-2_8 6cb21b45e603765099ad27d0faad64bd;de;;;1.3.;;;Entwicklungsergebnisse der Ausbildung für Online-Freiberufler auf den Philippinen Impact Sourcing konzentriert sich auf die Ausbildung und Einstellung von Menschen, die sonst keinen Job im Outsourcing-Geschäft finden würden. Die philippinische Regierung hat ein Schulungsprogramm initiiert, um Menschen auf die Online-Freiberuflichkeit in sozioökonomisch benachteiligten Gebieten des Landes vorzubereiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-11235-6_8 be3f5e64b8db8744dd3dbee934a84045;de;;;1.3.;;;Wie werden körpereigene Proteine ​​zu Peptiden und erreichen das Endoplasmatische Retikulum T-Lymphozyten erkennen über spezifische T-Zell-Rezeptoren (TCR) antigene Peptide, die an vom Haupthistokompatibilitätskomplex (MHC) kodierte Moleküle gebunden sind. Die jüngste Kristallisation von TCR-MHC-Komplexen hat unser Verständnis dieses Erkennungsprozesses (G;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-72045-1_2 b09ea7f7d90e0fa95d02d3f0e4345e52;de;;;1.3.;;;Die Reform der Praxislehre und der Ausbildungsmodus kreativer Talente für elektro-informatische Fachrichtungen In diesem Beitrag nehmen wir am Beispiel der Fachrichtung Nachrichtentechnik den Praxisunterricht und den Ausbildungsmodus kreativer Talente für Fachrichtungen des elektronischen Informationstyps. Bei der Formulierung des Ausbildungsprogramms muss das Kurssystem mit Schwerpunkt auf den Lehrinhalten der praktischen Fertigkeiten optimiert werden. Die Experimente von Grundlagenkursen und theoretischen Kursen gehören hauptsächlich zu den Validierungsexperimenten, und die von professionellen Plattformkursen und praktischen Wahlkursen gehören hauptsächlich zu den Designexperimenten. Darüber hinaus wird betont, dass die Themen der Studienprojekte und der Abschlussgestaltung umfassend, praxisnah und innovativ sein sollten, außerschulische Aktivitäten in Naturwissenschaften und Technik fokussieren sich auf die Ausbildung der technischen Kompetenzen der Studierenden. Schließlich wird das Bauschema eines professionellen Labors vorgestellt, um die ingenieurpraktische Fähigkeit und Innovationsfähigkeit der Studenten weiter zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23324-1_33 63be2c9874712f9a42a97910a665f2db;de;;;1.3.;;;Verbesserter E-Mail-Spam-Schutz durch duale Modelle zur Absenderverifizierung Spam-Mails, die von Botnets verbreitet werden, verschwenden Benutzerzeit und verbrauchen Ressourcen wie Speicherplatz und Netzwerkbandbreite. Viele Arbeiten haben einen Beitrag zu Spam-Erkennungstechniken. Meistens dienen diese Spam-Filter- und -Erkennungsmechanismen dem Schutz der Empfänger. Sie verhindern nicht, dass sich Spam tatsächlich ausbreitet. Um die Verbreitung von Spam zu verhindern, entwickeln wir zwei Module zur Überprüfung des E-Mail-Absenders: das Modul Sender Verification (SV) und das Modul Sender Location Verification (SLV). Der erste läuft auf dem Mail Submission Agent. Es verifiziert das Absenderkonto. Letzteres läuft auf dem Mail Transfer Agent. Es überprüft Spam oder Ham, indem es den Standort des Absenderlandes berücksichtigt. Da in beiden Modulen nur der Mail-Header verifiziert wird, funktioniert unser Ansatz sowohl bei textbasiertem Spam als auch bei anderen Arten von Bilder-Spam. Somit sind diese beiden getrennten Module in der Lage, Spam schnell und effektiv zu blockieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25327-0_30 f6a415a25e4376cf2593f06c08769883;de;;;1.3.;;;Die Fabel vom Bildungsmanager Hilary ist Dekanin der Wissenschaften an einer etablierten, angesehenen, aber nicht Ivy-League-Universität. Ungewöhnlich in der akademischen Welt hat sie den größten Teil ihres Berufslebens an einer Universität verbracht, obwohl sie ihre Doktoranden- und Habilitationstätigkeiten sowie ihre erste hauptamtliche Anstellung als Dozentin an anderen Universitäten absolvierte.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-2215-9_17 a82e39f7298808abee5819b536d9d2e7;de;;;1.3.;;;Zytopathologie-Labormanagement In diesem Kapitel werden Themen von Regulierung und Akkreditierung (CLIA88, HIPPA, CMS, CAP) bis hin zu Personal- und Zulassungsanforderungen sowie Verantwortlichkeiten verschiedener Rollen vom Abteilungsleiter bis zum General Supervisor und Zytotechnologen behandelt. Arbeitsbelastungsgrenzen, Eignungsprüfungen und Weiterbildungsanforderungen werden ebenfalls besprochen. Zu den Themen gehören Richtlinien und Verfahren, Dokumentenkontrolle, Workflow, Berichtselemente, Qualitätssicherung, Daten, Statistiken und Sicherheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-24059-2_2 b6a3032e84271d2c6003a26e243ed7a7;de;;;1.1.;;;Aufgabenattribute und Prozessintegration im Business Process Offshoring: Eine Perspektive von Dienstleistern aus Indien und China Diese Studie befasst sich mit einem wichtigen Thema bei der Gestaltung und Verwaltung von Business Process Offshoring (BPO): Prozessintegration zwischen einem Offshore-Dienstleister und seinem globalen BPO-Kunden. Wir haben die Informationsverarbeitungslinse im globalen BPO angewendet und die Logik entwickelt, dass die international disaggregierte Prozessintegration eine Übereinstimmung zwischen der Prozessintegration und den Aufgabenmerkmalen von BPO (d. Diese Ausrichtung wird durch den Aufgabenkontext, wie die geografische Verteilung der Endkunden des globalen Kunden und die Art des Offshore-Anbieters (unabhängiger Anbieter vs. Captive und Joint Venture) weiter moderiert. Schließlich schlagen wir vor, dass die Prozessintegration eine positive, aber krummlinige Beziehung zu den von Offshore-Anbietern erzielten wirtschaftlichen Erträgen hat. Unsere Analyse von 308 BPO-Unternehmen in Indien und China unterstützt unsere Vorschläge. Wir kommen zu dem Schluss, dass internationale Manager, die global disaggregierte Aktivitäten in BPO überwachen und integrieren, eine angemessene Ausrichtung auf die Aufgabenmerkmale und die Aufgabeninterdependenz des BPO-Projekts herstellen und den konditionierenden Effekt externer Komplexität genau untersuchen sollten. Durch die Beseitigung des Mangels an Forschung zur Steuerung des globalen BPO bietet diese Studie einige Einblicke in die Integrations- und Externalisierungsdynamik für das wachsende Offshoring von Geschäfts-/Wissensprozessen.;-;-;-;https://link.springer.com/article/10.1057/jibs.2012.8 4507cdbba243db8f4c20c1c6a575d724;de;;;1.3.;;;Le Caractère Français So sehr wir vor den Gefahren der Schaffung nationaler Stereotype gewarnt werden und uns auch bewusst sind, dass solche Stereotype unmöglich zu verallgemeinert sind, es bleibt doch eine gewisse Freude, wenn Daninos einige unserer Gefühle zur französischen Individualität witzig bestätigt. Die Rezension von Theodore Zeldins Buch über die Franzosen weist einige der Klischees effektiv zurück, aber bedeutet das, dass solche Klischees einfach verschwinden werden? Zum Guten oder zum Schlechten, „le syndrom du béret basque“ und andere Volksmythen werden uns zweifellos noch lange begleiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-81220-2_1 cf28956343fba634ad814a68179ee08d;de;;;1.1.;;;Über Reservoir Computing: Von mathematischen Grundlagen zu unkonventionellen Anwendungen In einem typischen unkonventionellen Rechenaufbau besteht das Ziel darin, ein gegebenes dynamisches System, das nicht einfach angepasst oder programmiert werden kann, für Anwendungen der Informationsverarbeitung zu nutzen. Während man eine gewisse Intuition hat, wie man das System verwendet, ist es oft der Fall, dass nicht ganz klar ist, wie dies in der Praxis erreicht wird. Reservoir Computing stellt eine Reihe von Ansätzen dar, die in solchen Situationen nützlich sein könnten. Als Paradigma birgt Reservoir Computing ein enormes technologisches Potenzial, das im Kontext unkonventioneller Berechnungen natürlich freigesetzt werden kann. In diesem Kapitel werden mehrere Schlüsselkonzepte des Reservoir-Computings überprüft, neu interpretiert und synthetisiert, um die Umsetzung der unkonventionellen Berechnungsagenda zu unterstützen und zu veranschaulichen, was unkonventionelle Berechnungen sein könnten. Auch einige philosophische Ansätze werden diskutiert, z.B. das stark damit verbundene Implementierungsproblem. Der Fokus liegt auf dem Verständnis von Reservoir Computing im klassischen Setup, bei dem ein einziges festes dynamisches System verwendet wird: Zu diesem Zweck werden mathematische Grundlagen des Reservoir Computing vorgestellt, insbesondere das Stone-Weierstrass-Approximationstheorem, mit einer Mischung aus Strenge und intuitivem Erklärungen. Für die Synthese war es entscheidend, sowohl die Unterschiede als auch die Ähnlichkeiten zwischen Liquid State Machines und Echo State Networks gründlich zu analysieren und eine gemeinsame kontextunabhängige Basis zu finden. Das Ergebnis der Synthese ist das vorgeschlagene Reservoir-Machine-Modell. Das Modell könnte verwendet werden, um zu analysieren, wie unkonventionelle Informationsverarbeitungsgeräte gebaut werden und um ihre Rechenkapazität zu verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-33924-5_23 01eb9295e18d9a1a64deba3aec80c443;de;;;1.1.;;;Informationsproduktionsfunktionen in der dynamischen Losgrößenbestimmung Das komplexe Problem der aktivitätsanalytischen Beschreibung von Vorgängen der Informationsverarbeitung in PPC-Systemen wurde von FANDEL (1991 und 1992) ausführlich diskutiert. In diesem Zusammenhang mussten Begriffe wie Informationsverarbeitungsaktivität und Informationstechnologie definiert und mehrere Definitionen von Effizienz und Dominanz angegeben werden. Dies geschah, um Informationen über Güter, die an der Produktion eines Unternehmens beteiligt sind, als Input- und Outputgüter der Produktionsplanung und -steuerung zu definieren und formal Verfahren der effizienten Informationsverarbeitung in PPS-Systemen durch Informationsproduktionsfunktionen zu beschreiben. Schließlich dienen diese Überlegungen dazu, einzelne PPS-Methoden, -Module oder PPS-Gesamtsysteme auf Basis effizienter und dominanter Verfahren der Informationsverarbeitung zu bewerten. Denn das Planungsverfahren zur Lösung einer PPS-Aufgabe oder des gesamten Aufgabenkomplexes ist einem anderen Verfahren sicherlich überlegen, wenn es im Sinne einer bestimmten Dominanzdefinition bessere Ergebnisse bei der Nutzung und Generierung relevanter Informationen zur Beherrschung solcher erzielt Planungsaufgaben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-78063-9_30 932c2764953856557b3ff5c6a1342c18;de;;;1.3.;;;Schulung von Erwachsenen zu traditionellen vs. Web 2.0 IS-Themen: Die Sicht der Auszubildenden In diesem Papier stellen wir die Sichtweise der Auszubildenden in Bezug auf die Ausbildung zu traditionellen versus zeitgenössischen (hauptsächlich Web 2.0) Informationssystemlösungen vor. Das Ausbildungsprogramm wurde im Rahmen des Digital Enterprise Research Network (DERN) durchgeführt, einem Netzwerk von fünf Organisationen (drei Universitäten und zwei IT-Unternehmen) in Griechenland, das darauf abzielt, ein langfristiges Lernen im Bereich der Betriebswirtschaftslehre zu fördern, wobei der Schwerpunkt auf dem Einsatz von IKT-Technologien liegt, im Einklang mit den Bedürfnissen der Wissensgesellschaft. Das Programm bildete zwanzig Auszubildende 120 Stunden lang aus, die sich zu gleichen Teilen auf Vorträge und Workshops verteilten. In diesem Beitrag stellen wir zunächst das Profil und die Motivation der Auszubildenden vor. Anschließend befragen wir ihre Ansichten zu Erwartungen und Werten traditioneller und zeitgenössischer Ausbildungsthemen. Die ersten Ergebnisse legen nahe, dass die Auszubildenden traditionelle Themen höher erwarten und wertschätzen als aktuelle.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87783-7_33 239a567eae814b8300534887b3b7732a;de;;;1.3.;;;Einkommensungleichheit und Armutsdynamik in Polen und Ostdeutschland vor und im Übergang Ein Ziel der wirtschaftlichen Transformation Osteuropas ist die langfristige Steigerung des Volkseinkommens. Um dieses Ziel zu verwirklichen, ist es notwendig, die wirtschaftlichen Freiheiten zu sichern, die die politischen Freiheiten in modernen demokratischen Gesellschaften ergänzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-50003-9_11 763889559773cb6528ac83a3060a8a1b;de;;;1.3.;;;Aktivierungsbasierte rekursive selbstorganisierende Karten: eine allgemeine Formulierung und empirische Ergebnisse Wir verallgemeinern eine Klasse von neuronalen Netzmodellen, die den Kohonen Self-Organising Map (SOM)-Algorithmus unter Verwendung rekurrenter Verbindungen in den sequentiellen und zeitlichen Bereich erweitern. Das Verhalten der Klasse der aktivierungsbasierten rekursiven selbstorganisierenden Karten (ARSOM) wird in Bezug auf die Wahl der Übertragungsfunktion und der Parametereinstellungen diskutiert. Durch den Leistungsvergleich mit bestehenden Benchmarks demonstrieren wir die Robustheit und Systematik der ARSOM-Modelle und öffnen so die Tür zu praktischen Anwendungen.;-;-;-;https://link.springer.com/article/10.1007/s11063-006-9015-8 81f17bce4b4a1b26305059c0f3462c34;de;;;1.3.;;;Eigentumswohnung: Anglo-Ägyptischer Sudan Die Herrschaft Ägyptens im Sudan wurde 1882 vom Mahdi unterbrochen, der mit seinem Nachfolger, dem Khalifa, das Land ab 1885 etwa 13 Jahre lang hielt. 1890 begann eine anglo-ägyptische Armee mit Operationen zur Wiedererlangung der verlorenen Provinzen, und am 2. September 1898 wurde der Sturz des Khalifa in der Schlacht von Omdurman abgeschlossen. Im November 1899 wurde er schließlich von General Wingates Truppen in der Nähe von Gedid besiegt und getötet.;-;-;-;https://link.springer.com/chapter/10.1057/9780230270848_20 7d28bc8dc37e8ce44ae19478804ee0e4;de;;;1.3.;;;Automatische Metadatenextraktion für Bildungsressourcen basierend auf der Zitationskette Dieses Papier schlägt einen Ansatz vor, um mithilfe von Zitationsketten automatisch Metadaten aus Bildungsressourcen zu extrahieren. Durch Verfolgung der zitierten Beziehung zwischen Literaturen, Verwendung von Mustervergleichsalgorithmen zur Bestimmung des am besten geeigneten Musters für die Auflösung, Nutzung des Preorder-Traversal-Algorithmus, um Literatur einzeln abzufragen, können die Metadaten von Bildungsressourcen, die von anderen zitiert werden, automatisch extrahiert werden. Die experimentellen Ergebnisse zeigen, dass der von uns vorgeschlagene Ansatz schnell und effizient bei der automatischen Extraktion von Metadaten für Bildungsressourcen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11276-8_14 1365db832a01ba3b7b8101055870aeea;de;;;1.3.;;;Laborexperimente zur Sedimentation von feinkörnigen Sedimenten: Ein Überblick über den Stand der Technik im Lichte von Experimenten mit dem Delfter Gezeitenkanal Es wird ein Überblick über Laborversuche zur Sedimentation von feinkörnigen Sedimenten gegeben, wobei der Aspekt des Nichtaufbrechens der fragilen Aggregate betont wird. Ein Vergleich zwischen Sedimentprozessen in einer Gezeitenrinne und in der Natur zeigt die Bedeutung verschiedener Zeitskalen: Zeitskala des Absetzens, Zeitskala der vertikalen Vermischung und Zeitskala der Flockung. Eine kurze Beschreibung des Delfter Gezeitenkanals ist enthalten. Der Beitrag schließt mit Experimenten unter Gezeitenbedingungen. Sie zeigen die Bedeutung der Gezeitenschlafphase, ausreichend Zeit für die Entwicklung der großen Aggregate, die zu großen Sinkgeschwindigkeiten führen, sowie den Einfluss von Gezeitenverzerrung und asymmetrischen Konzentrationskurven auf den längsgerichteten Feinsedimenttransport. Die Entwicklung der Konzentrationskurven während der aufeinanderfolgenden Gezeitenzyklen, beginnend mit einem konsolidierten Bett, zeigt die dominierende Rolle der Struktur und Eigenschaften der obersten Schicht des Bettes und veranschaulicht die Schwierigkeit der Vorhersage der Schwebstoffkonzentration während eines Gezeitenzyklus von Ergebnisse von Erosionsversuchen unter stationären Strömungsbedingungen. Die Entwicklung dieser Deckschicht unter instationären Strömungsbedingungen bedarf weiterer Forschung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-9061-9_18 80e56b5322d706d361cb94cecd4f011a;de;;;1.3.;;;Automatisierte Färbung: Ventana-Perspektive Ventana ist zu seiner aktuellen Position in der Branche aufgestiegen, indem es einige der am besten integrierten Automatisierungslösungen anbietet. Wir haben Ventana eingeladen, Perspektiven und Einblicke in die Rolle der Automatisierung in der Immunhistochemie anzubieten. Die Experten von Ventana beantworten Fragen zu den verfügbaren Technologien und wie diese Technologien die Herausforderungen bei der Automatisierung des Färbeprozesses angehen. Sie diskutieren auch den Prozess der Übertragung von Assays von manuellen auf automatisierte Techniken, die Rolle der Automatisierung bei der Qualitätskontrolle, die Konnektivität mit Computerinfrastrukturen, Bildanalyse, die Funktion automatisierter Retrievalmethoden und das sich ändernde Portfolio von Antikörpern für Testzwecke und die neue Rolle von mehrfarbige Färbeprotokolle.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-8062-5_5 d7734e463fe7d8e43e1897a0c077505e;de;;;1.3.;;;Aufbau diversifizierter Mehrfachbäume zur Klassifizierung in hochdimensionalen verrauschten biomedizinischen Daten Es ist üblich, dass auf die Betriebsdaten, die aufgrund von Rauschen von den Trainingsdaten abweichen, ein trainiertes Klassifikationsmodell angewendet wird. In diesem Artikel wird eine Ensemble-Methode, Diversified Multiple Tree (DMT), auf ihre Fähigkeit zur Klassifizierung von Instanzen in einem neuen Labor unter Verwendung des auf Instanzen eines anderen Labors basierenden Klassifikators getestet.;-;-;-;https://link.springer.com/article/10.1007/s13755-017-0025-x 3cc335033e81e4ef5161071027473e8b;de;;;1.1.;;;Subjektive Zeit versus richtige (Uhr-)Zeit Einige Physiker haben in letzter Zeit einige radikale Vorschläge über die Natur der physikalischen Zeit gemacht. Diese Theorien wiederum beziehen sich auf Vorschläge, die Psychologen gemacht haben, und auf Beweise, die sie über die Natur der subjektiven Zeit gesammelt haben. Die Erforschung dieser interdisziplinären Verbindungen kann fruchtbar sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4285-8_5 92ed57f62311184cb03e0440be555a3b;de;;;1.3.;;;Elektrophysiologische Charakterisierung der Chloridsekretion im Jejunum und Dickdarm von Schweinen in Abhängigkeit von Alter und Absetzen Eine Hypersekretion von Chlorid kann Durchfall verursachen, eine Krankheit, die bei jungen Schweinen häufig auftritt, insbesondere während des Absetzens. Wir untersuchten den Beitrag verschiedener Kanäle zur Darm-Cl;-;-;-;https://link.springer.com/article/10.1007/s00360-009-0371-3 03c80ec4223e6c95854a347cc15dad24;de;;;1.1.;;;Aufbau von CTRON-Fehlertoleranzfunktionen CTRON-Anwendungsfelder wie Vermittlungsknoten, Informationsverarbeitungsknoten und Kommunikationsverarbeitungsknoten erfordern Fehlertoleranzfunktionen, um eine hohe Zuverlässigkeit sicherzustellen. Insbesondere Vermittlungssystem und Online-Transaktionssystem sind typische fehlertolerante Systeme in CTRON-Anwendungsgebieten. Schnittstellen für Fehlertoleranzfunktionen sind eines der Hauptmerkmale von CTRON.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-68102-1_13 fdbaf4d27bba72c9a6362f99b3f19582;de;;;1.1.;;;Dimensionen und Komponenten individueller Unterschiede in den räumlichen Fähigkeiten Das Ziel dieses Kapitels ist es, die Fortschritte bei der Untersuchung individueller Unterschiede in den räumlichen Fähigkeiten zu überprüfen und einige der praktischen Implikationen dieser Arbeit zu berücksichtigen. Es gibt viele Gründe für das Studium der räumlichen Kognition im Allgemeinen und der räumlichen Fähigkeiten im Besonderen. Erstens ist es von theoretischer und praktischer Bedeutung zu verstehen, wie Individuen die physische Welt repräsentieren, in der sie tätig sind. Es gibt Belege für eine theoretische Trennung von räumlichen Darstellungen und semantischen Darstellungen. Zweitens gibt es eine umfangreiche Literatur, die auf die Existenz mehrerer räumlicher Fähigkeiten hindeutet, die sich von allgemeinen Fähigkeiten und von verbalen Fähigkeiten unterscheiden lassen. Drittens scheint es bei einigen räumlichen Fähigkeiten wichtige Geschlechtsunterschiede zu geben. Viertens fügen die Maße der räumlichen Fähigkeit der Vorhersage der Leistung in bestimmten Studiengängen wie Ingenieurdesign oder Grafik und Berufen wie Mechaniker, Architekt oder Pilot häufig eine einzigartige Varianz hinzu.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-9437-5_6 8640d3ab71b443d4a31d7b89488204c8;de;;;1.1.;;;Risikowahrnehmung im Brandevakuierungsverhalten neu betrachtet: Definitionen, verwandte Konzepte und empirische Beweise Die Risikowahrnehmung (RP) wird in vielen Forschungsdisziplinen untersucht (z. B. Sicherheitstechnik, Psychologie und Soziologie). Die Definitionen von RP können grob in Erwartungswert- und Risiko-als-Gefühl-Ansätze unterteilt werden. In der vorliegenden Übersichtsarbeit wird RP als die Personalisierung des Risikos im Zusammenhang mit einem aktuellen Ereignis, wie einem anhaltenden Feuernotfall, angesehen, das von Emotionen beeinflusst wird und anfällig für kognitive Verzerrungen ist. Wir differenzieren RP von anderen verwandten Konzepten (z. B. Situationsbewusstsein) und führen theoretische Rahmen ein, die für RP in der Brandevakuierung relevant sind (z. B. Schutzmaßnahmenentscheidungsmodell und heuristisch-systematische Ansätze). Darüber hinaus begutachten wir Studien zu RP während der Evakuierung mit Schwerpunkt auf der Evakuierung des World Trade Centers am 11. September 2001 und präsentieren Faktoren, die RP modulieren, sowie die Beziehung zwischen wahrgenommenem Risiko und Schutzmaßnahmen. Wir fassen die Faktoren zusammen, die das Wahrnehmungsrisiko beeinflussen und diskutieren die Richtung dieser Beziehungen (d. h. positiver oder negativer Einfluss oder belanglos) und schließen mit der Präsentation der Grenzen dieses Reviews und einem Ausblick auf zukünftige Forschung.;-;-;-;https://link.springer.com/article/10.1186/s40038-014-0005-z a2780e6a19d25c68bb8a04e457c7e190;de;;;1.3.;;;Web-interaktive Multimedia-Technologie: State of the Art Elluminate, eine web-interaktive Multimedia-Technologie (WIMT), ein Informations- und Kommunikationssystem, wurde in einer großen Universitätsstadt eingeführt. Seine Attribute werden in diesem Dokument beschrieben, von rein textbasierten bis hin zu komplexeren Features. Das System enthält mehrere Multimediafunktionen wie Chat, Audio, Video, Umfragen, Whiteboard und Desktop-Sharing. Dieses System bietet Echtzeit-Zusammenarbeit. Beim Einsatz in einer universitären Lehr- und Lernumgebung ermöglicht es ein sofortiges Feedback zwischen den Teilnehmern über den physischen Raum hinweg. Dies bietet eine zusätzliche Möglichkeit zur Interaktivität in einer Online-Lernumgebung. Der Aufbau von Beziehungen zwischen Akademiker und Schüler ist ein wesentlicher Bestandteil des Lernens. WIMT ermöglicht erweitertes Lernen durch Interaktion zwischen Akademiker und Schüler.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22203-0_4 5644d97a220016cb1433bf88de180f3a;de;;;1.3.;;;Iterative Lernkontrolle: Eine Übersicht über das Expositorium In diesem Kapitel geben wir einen Überblick über das Gebiet der iterativen Lernkontrolle (ILC). Wir beginnen mit einer detaillierten Beschreibung der ILC-Technik, gefolgt von zwei veranschaulichenden Beispielen, die einen Eindruck von der Natur von ILC-Algorithmen und ihrer Leistung geben. Darauf folgt eine thematische Klassifikation einiger Literatur zu ILC und eine Diskussion der Verbindung zwischen ILC und anderen gängigen Steuerungsparadigmen, einschließlich konventioneller Rückkopplungssteuerung, optimaler Steuerung, adaptiver Steuerung und intelligenter Steuerung. Als nächstes geben wir eine Zusammenfassung der wichtigsten Algorithmen, Ergebnisse und Anwendungen von ILC in der Literatur. In dieser Diskussion werden auch einige aufkommende Forschungsthemen in der ILC berücksichtigt. Als Beispiel für einige der neuen Richtungen in der ILC-Theorie präsentieren wir einige unserer jüngsten Ergebnisse, die zeigen, wie ILC verwendet werden kann, um eine gewünschte periodische Bewegung in einem sich zunächst nicht wiederholenden Prozess zu erzwingen: einem Gas-Metall-Lichtbogenschweißsystem. Das Kapitel schließt mit zusammenfassenden Kommentaren zur Vergangenheit, Gegenwart und Zukunft von ILC.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-0571-5_4 cd1c329988b7b0ac2f63b5eb79fbf386;de;;;1.1.;;;Kognitive Verzerrung: Aussagen und mögliche Welten In diesem Artikel wird das Konzept der kognitiven Verzerrungen untersucht. Die neuere Forschung hat festgestellt, dass das Konzept der kognitiven Verzerrungen nicht klar ist. Um jedoch Fortschritte in der wissenschaftlichen Literatur zu machen, ist ein angemessenes Maß an konzeptioneller Klarheit erforderlich. Beispiele zu kognitiven Verzerrungen stammen aus der Literatur zur kognitiven Theorie und Therapie. Zunächst wird eine kleine Stichprobe einer Analyse unterzogen, deren Inhalt auf einen Querschnitt von Aussagen reduziert wird. Insgesamt werden aus dieser ersten Stichprobe 24 Aussagen zum Konzept der kognitiven Verzerrung extrahiert. Diese Aussagen werden dann einer vorläufigen thematischen Analyse unterzogen, die dann auf Stichproben aus neun weiteren Artikeln erweitert wird, bevor mit der grundlegenden Mengenlehre die Anzahl aller möglichen in der Literatur vorhandenen Semantikwelten berechnet wird. Aus dieser Berechnung ergeben sich 567 mögliche Welten kognitiver Verzerrungen. Obwohl hier kein fertiges Konzept kognitiver Verzerrungen vorgeschlagen wird, wird eine Arbeitshypothese aufgestellt, um den Fortschritt der Forschung zu unterstützen. Fortan wird argumentiert, dass eine kognitive Verzerrung als klinisch relevanter Typ problematischer Kognition mit bestimmbarem operationellen Status und Umfang definiert wird, bis weitere Überlegungen stattgefunden haben. Es wäre hilfreich, wenn Praktiker und Forscher die Eigenschaften dieser Kategorien spezifizieren und gleichzeitig ein gemeinsames Vokabular verwenden, um die Klarheit der Kommunikation auf diesem Gebiet zu verbessern.;-;-;-;https://link.springer.com/article/10.1007/s10942-014-0202-7 d5a13cca99008511baf2597f13385475;de;;;1.3.;;;Verbreitungsaktivitäten im Rahmen des PL-Grid-Projekts als erfolgreiches Mittel zur Förderung seines Angebots und seiner Leistungen Die Verbreitung von Informationen sowie die Förderung von Ergebnissen sind die zentralen Aktivitäten eines mit europäischen Mitteln kofinanzierten wissenschaftlichen Projekts. In diesem Papier werden die im Rahmen des PL-Grid-Projekts durchgeführten Verbreitungsaktivitäten zusammengefasst. Es wird auch auf eine Reihe von entscheidenden Elementen dieser Arbeit hingewiesen – nämlich auf die Rollen und Verantwortlichkeiten der Projektpartner, die Kommunikationsmethoden, die Struktur der Verbreitungsbemühungen sowie die Mittel und Maße ihres Erfolgs.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28267-6_26 2313cfdd193b437eaad3df28bea6abb0;de;;;1.3.;;;Analyse des hierarchischen Modells von Lehrkompetenzen basierend auf Multimedia-Technologie Das Hauptziel dieser Forschung ist es, die Zusammensetzung der Lehrkompetenzen zu klären. Erstens extrahiert dieser Beitrag gemäß der Definition von Lehrkompetenzen und des Verfahrenswissens die Elemente der allgemeinen Lehrkompetenzen aus zwei Aspekten, einschließlich des Lehrverhaltens der Lehrkräfte und der Kognition der Lehrkräfte, und analysiert das hierarchische Modell der Lehrfähigkeiten, das solide theoretische Unterstützung bei der Evaluation der pädagogischen Grundkompetenzen sinnvoll.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23345-6_93 fe6d41642fe5a4bf47008e422fb35ad3;de;;;1.3.;;;Eine modifizierte überwachte Lernregel zum Trainieren eines neuronalen Netzes mit photonischem Spiking, um digitale Muster zu erkennen Erstmals wird eine modifizierte Regel für überwachtes Lernen vorgeschlagen, die zum Training von photonischen Spiking-Neural-Netzen (SNN) geeignet ist. Die vorgeschlagene Lernregel ist unabhängig von den Zeitintervallen zwischen tatsächlichem Spike und gewünschtem Spike oder zwischen präsynaptischem Spike und postsynaptischem Spike. Basierend auf der vorgeschlagenen Regel des überwachten Lernens werden 10 digitale Bilder in einem photonischen neuronalen Netzwerk gelernt, das aus 30 präsynaptischen Neuronen und 10 postsynaptischen Neuronen besteht. Präsynaptische und postsynaptische Neuronen sind photonische Neuronen, die auf oberflächenemittierenden Lasern mit vertikaler Kavität mit einem eingebetteten sättigbaren Absorber (VCSEL-SA) basieren. Die Ergebnisse zeigen, dass nach ausreichendem Training 10 digitale Bilder im photonischen SNN korrekt erkannt werden. Zusätzlich werden die Auswirkungen der Lernrate, des Jitters der Lernrate, der anfänglichen Gewichtungsverteilung von SNN und des Vorspannungsstroms von postsynaptischen Neuronen (VCSELs-SA) auf den erkannten Fehler basierend auf der vorgeschlagenen Lernregel sorgfältig untersucht. Nach unserem besten Wissen wurde eine solche modifizierte überwachte Lernregel noch nicht beschrieben, die zum Training photonischer neuronaler Netze beitragen würde und daher für neuromorphe photonische Systeme und Mustererkennung interessant ist.;-;-;-;https://link.springer.com/article/10.1007/s11432-020-3040-1 b6be38917e444a4ede23eb9a93d06c3d;de;;;1.3.;;;im Sekundarbereich: Das GI-Lernerprojekt Geospatial Thinking ist ein Lernergebnis, das hauptsächlich auf Denk- und Argumentationsweisen in Bezug auf Mustererkennung, räumliche Beschreibung, Visualisierung, räumliche Konzeptnutzung und räumliche Werkzeugnutzung basiert. Es umfasst eine Sammlung verschiedener Fähigkeiten, um die kritische Anwendung räumlicher Informationen zur Bewältigung realer Probleme zu erreichen, nachdem die Eigenschaften und die miteinander verbundenen Prozesse von Natur und menschlichem Einfluss rechtzeitig und in angemessenem Umfang untersucht und verstanden wurden. Das europäische Erasmus+ Projekt „Developing a learning line on GIScience in education“ (GI Learner) hat daher eine Geospatial Thinking Learning Line für Sekundarschulen entwickelt, damit eine Integration von Geospatial Thinking erfolgen kann. Als Ergebnis einer ausführlichen Literaturrecherche wurde eine Liste von zehn räumlichen Denkkompetenzen definiert. Das Learning Line Konzept verwendet dabei unterschiedliche Komplexitätsgrade, bezogen auf die Taxonomie von Bloom, unter Berücksichtigung von Alter und Fähigkeiten der Schüler. Für jede der Kompetenzen wurden lehrplanbezogene Unterrichtsmaterialien erstellt, die eine kurzfristige Umsetzung im Unterricht erleichtern. Um den Einfluss der Lernlinien auf das räumliche Denken zu messen, wurde daher ein Selbsteinschätzungstest entwickelt, der den Komplexitätsgrad jeder Kompetenz (A, B oder C) für jede Altersgruppe berücksichtigt. Die Website des GI-Lerner-Projekts (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-17783-6_3 f2978df0306f6bfdc323f1b4feb16c15;de;;;1.3.;;;Geostatistische Modellmittelung basierend auf bedingten Informationskriterien Die Variablenauswahl bei der geostatistischen Regression ist ein wichtiges Problem, wurde jedoch in der Literatur nicht gut untersucht. In diesem Papier konzentrieren wir uns auf die räumliche Vorhersage und betrachten eine Klasse von bedingten Informationskriterien, die durch einen Strafparameter indiziert sind. Anstatt ein festes Kriterium anzuwenden, das zu einem instabilen Prädiktor in dem Sinne führt, dass er in Bezug auf die Antwortvariablen diskontinuierlich ist, da eine kleine Änderung der Antwort dazu führen kann, dass ein anderes Modell ausgewählt wird, stabilisieren wir den Prädiktor weiter durch lokale Modellmittelung, was zu einem Prädiktor führt, der nicht nur kontinuierlich, sondern auch differenzierbar ist, selbst nachdem geschätzte Modellparameter eingefügt wurden. Dann wird Steins unverzerrte Risikoschätzung angewendet, um den Strafparameter auszuwählen, was zu einer datenabhängigen Strafe führt, die an das zugrunde liegende Modell adaptiv ist. Einige numerische Experimente zeigen die Überlegenheit des vorgeschlagenen Modellmittelungsverfahrens gegenüber einigen allgemein verwendeten Variablenauswahlverfahren. Darüber hinaus wird die vorgeschlagene Methode auf einen Quecksilberdatensatz für Seen in Maine angewendet.;-;-;-;https://link.springer.com/article/10.1007/s10651-011-0171-2 701fe69f99a1c55b58141589db6fcba2;de;;;1.3.;;;Die Auswirkungen des Logistikdesignwettbewerbs auf die Logistikausbildung Eine Fallstudie zum National Container Cup Dieses Papier analysierte die aktuellen Probleme der Hochschulbildung zu Logistik und Persönlichkeitsmerkmalen von College-Studenten, diskutierte im Rahmen des National Container Cup Logistics Design-Wettbewerbs die Bedeutung, die der Logistik-Design-Wettbewerb für die Verbesserung der umfassenden Fähigkeiten von Logistik-Fachhochschulen und Logistik-Studenten haben kann Unterricht für Lehrer.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23339-5_103 a4f6155f2fca728661f7d1acf17ca4eb;de;;;1.3.;;;Schüler mit Sehbehinderung Psychologen und Pädagogen haben spekuliert, dass 90 bis 95 % der Wahrnehmungen sehender Kinder auf das Sehen zurückzuführen sind (Hatlen & Curry, 1987). Wenn das Sehvermögen eingeschränkt ist, kann dies einen signifikanten Einfluss auf die schulischen Leistungen der Schüler haben oder auch nicht. Wenn das Sehproblem schwerwiegend genug ist, um das Funktionieren der Schule zu beeinträchtigen, benötigen die Schüler irgendeine Art von Unterstützung beim Umgang mit Schulinhalten. Im Laufe der Jahre gab es einige Verwirrung hinsichtlich der allgemeinen Merkmale von Schülern mit Sehbehinderungen und der Gesamtbehinderungswirkung der Behinderung selbst. Ein Großteil dieser Verwirrung ist wahrscheinlich auf Missverständnisse bezüglich der tatsächlichen Auswirkungen der Beeinträchtigung auf die Fähigkeit der Schüler, ihr Sehvermögen zu nutzen, zurückzuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-3602-3_11 c76aa86b4438e60fe3bad32d6a91d837;de;;;1.3.;;;Mikroanalyse der Leistung in variablen Intervallen während der Reizmischung compound Eine additive Summation wird beobachtet, wenn mehr Reaktionen auf die gleichzeitige Präsentation (Ton-plus-Licht) unabhängig konditionierter Reize (Ton und Licht) als auf einen der Reize allein abgegeben werden. Das aktuelle Experiment versuchte zu bestimmen, ob diese erhöhte Rate während Ton-plus-Licht eine Funktion einer neuen modalen Interresponse-Zeit (IRT) oder einer differentiellen Mischung von Pausen mit einer modalen IRT-Charakteristik der Reaktion in Ton und Licht allein war. Drei Ratten wurden nach einem Dreikomponenten-Mehrfachplan trainiert, bei dem Ton und Licht jeweils mit einem 30-Sekunden-Plan mit variablem Intervall verbunden waren, während ein 100-Sekunden-Plan mit variablem Intervall bei gleichzeitiger Abwesenheit dieser Reize, Ton-Aus und Licht- aus. Die Ansprechraten zu Studienbeginn waren 2- bis 4-mal so hoch in Tonus oder Licht als ohne sie. Bei den Tests wurden von allen Tieren mehr Reaktionen auf Ton plus Licht als auf Ton oder Licht abgegeben, aber die modale IRT lag für alle Testbedingungen im Bereich von 0,2 bis 0,4 Sekunden IRT. Ton-plus-Licht steuert weniger lange IRT-Werte und mehr Reaktionen in der kurzen Modalkategorie als Ton oder Licht allein. Diese Ergebnisse unterstützen die Response-Mixing-Hypothese der Stimuluskontrolle, d. h. es wurde kein „neues“ Verhalten während der neuartigen Kombination von Stimuluselementen beobachtet, sondern nur eine Mischung aus zuvor verstärkten Verhaltensmustern in unterschiedlichen Anteilen.;-;-;-;https://link.springer.com/article/10.3758/BF03212004 b635eeb34f7c3aa4c2d58d855a8dc8ec;de;;;1.3.;;;Ein konzeptioneller Rahmen für die Personalplanung im Gesundheitswesen Die Weltgesundheitsorganisation hat sich zum Ziel gesetzt, bis zum Jahr 2000 Gesundheit für alle zu erreichen, das heißt, alle Menschen der Welt auf einem ausreichend positiven Gesundheitsniveau zu halten, damit sie ein wirtschaftlich und sozial produktives Leben führen können. Einer der Beiträge zu einer positiven Gesundheit ist die Gesundheitsversorgung, die in der Regel eine persönliche Betreuung ist. Das Gesundheitswesen erfordert das Eingreifen des Einzelnen – sei es das Gesundheitspersonal von Familienmitgliedern – zur Vorbeugung und Behandlung von Krankheiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-6693-2_7 f84d04afa72fdf906d87e91660899b98;de;;;1.3.;;;Implementierung von Programmierung in Schulmathematik und -technologie: intrinsische und extrinsische Herausforderungen für Lehrer teachers Die Reform des schwedischen nationalen Lehrplans von 2017 verlangt, dass alle Mathematik- und Techniklehrer an Pflichtschulen die Programmierung in ihren Unterricht integrieren. Die neue Programmplanungspolitik stellt eine besondere Herausforderung dar, da die Mehrheit der betroffenen Lehrkräfte über keine oder nur geringe Programmiererfahrung verfügt. Dieses Papier berichtet über eine Studie über Lehrer, die sich auf die Umsetzung der neuen Politik vorbereiten. Einblicke in den Vorbereitungsprozess wurden durch aufgezeichnete Gruppengespräche ermöglicht und die Daten wurden im März 2018, weniger als 4 Monate vor der formellen Verabschiedung des neuen Lehrplans, erhoben. Die Ergebnisse, die unter Verwendung eines Rahmens für intrinsische und extrinsische Herausforderungen konzipiert wurden, zeigen mehrere Herausforderungen auf, die sich potenziell auf die Übernahme der Programmpolitik und die Qualität der Umsetzung auswirken können, wie z wiederkehrende Probleme mit der IT-Infrastruktur der Schule. Diese Studie soll Wissen über die Anliegen und geäußerten Bedürfnisse von Lehrkräften liefern, während die Programmgestaltung als neue Lehrplaninhalte ausgehandelt wird, und soll somit zum Verständnis der Lehrerstrategien beitragen, um sich der schwedischen Bildungsreform 2017 zu nähern, mit der Programmgestaltung eingeführt wird. Dieses Wissen ist wertvoll für die Möglichkeiten, besser zu verstehen, unter welchen Umständen das Programmieren in die Schulmathematik und -technologie einbezogen wird. Die Ergebnisse veranschaulichen die Komplexität der Umsetzung der Lehrplanreform und können für Entscheidungsträger auf allen Ebenen der Schulpolitik sowie für Anbieter von Lehrerfortbildungen und Lehrerfortbildungen von Wert sein.;-;-;-;https://link.springer.com/article/10.1007/s10798-020-09602-0 2bdf161c76f34ecf1939c8a641b6ca96;de;;;1.3.;;;Malaiische Spracherkennung für Kinder im Vorschulalter mit Hidden Markov Model (HMM) Systemtraining) Dieses Papier zielt darauf ab, die Implementierung der malaiischen Spracherkennung (SR) unter Verwendung des Hidden-Markov-Modells (HMM)-Systemtrainings für malaiische Vorschulkinder zu diskutieren. Das System wird entwickelt, indem die Architektur des HMM-basierten Recognizers mit unterschiedlichen Merkmalsextraktionsalgorithmen implementiert wird. Das System wird für 16 malaiische Wörter trainiert, indem 704 Sprachproben gesammelt werden (640 für Trainingsproben und 64 für Testproben). Die Daten werden von 20 Vorschulkindern im Alter zwischen fünf und sechs Jahren in Echtzeitumgebungen gesammelt. Das Papier beschreibt auch den Prozessablauf zur Entwicklung der Architektur des Systems. Die experimentellen Ergebnisse zeigen, dass die höchste Gesamtsystemleistung 94,86 % - Trainieren und 76,04 % - Testen beträgt, die MFCC (Mel-Frequency Cepstral Coefficient) mit 39 extrahierten Merkmalsvektoren (MFCC39) verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2622-6_21 2af007cf979a98365a9d735f26806c3c;de;;;1.3.;;;Das Wesentliche der Hierarchie der E-Weiterbildung in China Die in China bestehende Kluft zwischen verschiedenen Krankenhäusern führt dazu, dass Ärzte in Krankenhäusern unterschiedlicher Ebenen ein ungleiches Umfeld für die medizinische Weiterbildung (CME) teilen, was zu einer Kluft zwischen den Diagnosen führt. Die Anzahl der untersuchten Patienten und die Beratung durch Experten korrelierten stark mit der Verbesserung der klinischen Fähigkeiten der Ärzte. Die Implementierung von CME muss die beiden Faktoren berücksichtigen. Im Anschluss an eine Primärerhebung wurde in dieser Studie eine systematische und detaillierte Analyse der aktuellen CME-Situation in Krankenhäusern verschiedener Ebenen durchgeführt. Krankenhäuser werden in 3 Stufen eingeteilt. Es wurden CME-Muster mittels Informationstechnik vorgeschlagen, die verschiedenen Ebenen entsprechen. Mit dieser Hierarchie der medizinischen Weiterbildung erhofft man sich, dass das Diagnoseniveau der Ärzte in den verschiedenen Krankenhausstufen ähnlich ist, damit jeder Einzelne eine qualitativ hochwertige medizinische Leistung erhalten kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_277 98c476dece7cf38133bf8ede62941dc5;de;;;1.3.;;;Ein inhaltsverstärkter kollaborativer Filteralgorithmus für das personalisierte Training in der Interpretation radiologischer Bildgebung Die Entwicklung einer Methode, mit der Fälle basierend auf dem Leistungsniveau der Auszubildenden und den Merkmalen der Fälle ausgewählt werden können, ist für die Entwicklung eines personalisierten Trainingsprogramms in der Radiologieausbildung unerlässlich. In diesem Artikel schlagen wir einen neuartigen hybriden Vorhersagealgorithmus namens Content-Boosted Collaborative Filtering (CBCF) vor, um den Schwierigkeitsgrad jedes Falls für jeden Auszubildenden vorherzusagen. Die CBCF verwendet eine inhaltsbasierte Filtermethode (CBF), um vorhandene Bewertungsdaten von Auszubildenden zu verbessern, und liefert dann endgültige Vorhersagen durch einen kollaborativen Filteralgorithmus (CF). Der CBCF-Algorithmus beinhaltet die Vorteile von CBF und CF, ohne die Nachteile von beiden zu erben. Die CBCF-Methode wird anhand von drei Datensätzen mit den reinen CBF- und reinen CF-Ansätzen verglichen. Die experimentellen Daten werden dann im Hinblick auf die MAE-Metrik ausgewertet. Unsere experimentellen Ergebnisse zeigen, dass die CBCF die reinen CBF- und CF-Methoden in Bezug auf die Vorhersagegenauigkeit um 13,33 bzw. 12,17 % übertrifft. Dies legt auch nahe, dass die CBCF bei der Entwicklung personalisierter Trainingssysteme in der Radiologieausbildung verwendet werden kann.;-;-;-;https://link.springer.com/article/10.1007/s10278-014-9678-z 48775bd43597244c7031e2062d0afceb;de;;;1.3.;;;Webanwendung für die Verwaltung digitaler Diplome in Schulungszentren inklusive Sicherheits-QR-Codes Die Prozesse haben sich im Laufe der Zeit diversifiziert, die virtuelle Modalität der Ausbildung ist diejenige, die derzeit vorherrscht, viele öffentliche und private Einrichtungen veranstalten auch Veranstaltungen wie Kongresse mit Mehrheitsbeteiligung, alle diese Bildungsprozesse werden durch Zertifikate garantiert, die normalerweise sofort gedruckt werden müssen wie diese Ereignisse gipfeln. Die Verwaltung der Zertifikate bringt einige Schwierigkeiten mit sich, wie hohe Einzelkosten, Fehler in den Namen werden mehrfach kommentiert und müssen wiederholt werden. Das Projekt zielte darauf ab, dieses Management zu systematisieren, um digitale Zertifikate zu erhalten, die jederzeit von jedem Teil der Welt einfach heruntergeladen werden können. Die Forschung wurde in mehreren Einrichtungen durchgeführt, die Ausbildungsverfahren herausgeben und sich diesen Schwierigkeiten widmen. Es war auch möglich, die Entwicklungswerkzeuge zu stützen und schließlich wurde als Ergebnis eine Webanwendung erhalten, mit der alle digitalen Diplome eines oder mehrerer Ausbildungsverfahren verwaltet werden können. Auch sollte erwähnt werden, dass die Sicherheit bei digitalen Zertifikaten durch QR-Codes gegeben ist. Die wichtigste Schlussfolgerung ist, dass Webanwendungen die Verbesserung der betrieblichen Aspekte jedes Schulungszentrums ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-42517-3_29 6731cdc48bd27c6d8e5ba19433cc7b0e;de;;;1.3.;;;Das Bildungsprogramm der Earth System Science Research School (ESSReS) Die Earth System Science Research School (ESSReS) ist eine internationale und interdisziplinäre Forschungsschule für 23 Doktoranden am Alfred-Wegener-Institut Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) und ihren Partneruniversitäten: Universität Bremen und Jacobs University Bremen. ESSReS kombiniert Beobachtungen, Modellierung und Datenanalyse, um das komplexe Klimasystem der Erde zu entschlüsseln. Strukturierte Ausbildung, internationaler Austausch und Supervision unterstützen die interdisziplinäre Forschung in einer frühen Phase der wissenschaftlichen Karriere.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13865-7_2 55a0892b8ee5e3f5670f6e7e95f97327;de;;;1.3.;;;Den guten Willen in Gewinn umwandeln . Im Gegensatz dazu hat der gute Wille ein Gewinnbeitragspotenzial, das weit über dem des traditionellen Dollars liegt. Eine bahnbrechende Studie, die von Technical Assistance Research Programs* für Coca-Cola Co. durchgeführt wurde, ergab schlüssig, dass Verbraucher, die sich nach einer ersten Beschwerde dem Unternehmen wohlgesinnt fühlten, ihren Konsum von Coca-Cola tendenziell deutlich erhöhten, während diejenigen, die weniger zufrieden waren einen deutlichen Rückgang ihrer Käufe des Erfrischungsgetränks. Andere Studien haben gezeigt, dass;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-1645-9_15 012490d25e15839d57906fd3e01b7293;de;;;1.3.;;;Nichtlineares Filterdesign unter Verwendung dynamischer neuronaler Netze mit schnellem Training Dieses Papier stellt nichtlineare Filterung unter Verwendung dynamischer neuronaler Netze (DNNs) vor. Außerdem wird die allgemeine Verwendung der linearen Filterstruktur angegeben. DNN, das eine quasilineare Struktur hat, wurde effektiv als Filter mit einem schnellen Trainingsalgorithmus wie dem Levenberg-Marquardt-Verfahren verwendet. Die Testergebnisse zeigen, dass die Leistung von DNN als lineare und nichtlineare Filter zufriedenstellend ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39737-3_75 fdeb4c713cba94d1c322bb6ab2a8dc6c;de;;;1.3.;;;"Ein kritischer Blick auf MOOCs Massive Open Online Courses (MOOCs) werden jedem, der sich anmeldet, online angeboten. Es gibt keine Registrierungspflicht und für diejenigen, die keine Studienleistungen oder ein Zertifikat über den erfolgreichen Abschluss erhalten möchten, fallen keine Gebühren für die Einschreibung an. Infolgedessen können Einschreibungen in die Tausende gehen. MOOCs sind ein neues Phänomen des 21. Jahrhunderts, das aus der Bewegung für offene Bildungsressourcen und einem Kurs mit dem Titel „Connectivism and Connective Knowledge“ hervorgegangen ist, der 2008 von George Siemens und Stephen Downes angeboten wurde. Es gab eine kleine Anzahl von Studenten an der Universität von Manitoba, die Studiengebühren bezahlten und mehrere Tausend andere, die einfach kostenlos an der Online-Kursumgebung teilnahmen. Angesichts des Themas (Konnektivismus) dieses frühen MOOC und der Tatsache, dass diejenigen, die nicht zahlen, als Teil einer erweiterten Gemeinschaft anwesend waren, die sich um das Thema des Kurses versammelt hat, ist der Schluss naheliegend, dass das ""C"" im MOOC für ""Kurs"" für registrierte Teilnehmer und 'Community' für diejenigen, die nicht registriert sind. Seit 2008 sind MOOCs vielerorts aufgetaucht und haben viele Formen angenommen. Dieses Kapitel untersucht das Wachstum von MOOCs und die Rolle, die sie im Kontext von Lernen und Unterricht spielen können. Hier wird argumentiert, dass es ein Fehler ist, aktuelle MOOCs als eine neue Form eines Fernstudiums zu betrachten. Vielmehr sollten aktuelle MOOCs nicht als Lehrveranstaltungen, sondern als Gemeinschaften fachspezifischer Teilnehmender betrachtet und evaluiert werden.";-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-52925-6_7 f4b410f37ee86488f97fa221d88a0f32;de;;;1.1.;;;Drug Checking: Eine Präventionsmaßnahme für eine heterogene Gruppe mit hoher Konsumhäufigkeit und polyvalentem Drogenkonsum – Evaluation der züricher Drogenchecking-Angebote Die zunehmende Partykultur in Zürich stellt insbesondere den Konsum von Alkohol und sogenannten Partydrogen vor neue Herausforderungen. Streetwork, die Jugendberatung der Stadt Zürich, bietet seit 2001 bzw. 2006 stationäre Drogenchecks vor Ort an. Beim Drug Checking wird immer ein anonymer Fragebogen ausgefüllt, der es ermöglicht, wichtige Informationen über eine weitgehend unbekannte Gruppe von Konsumenten und deren Konsumverhalten zu sammeln.;-;-;-;https://link.springer.com/article/10.1186/1477-7517-8-16 69748454932afab7a85e61a3c30f8ced;de;;;1.3.;;;Optischer Fasersensor durch Kaskadierung von langperiodischen Fasergittern mit FBG für Doppelparametermessung Ein optischer Fasersensor zur Dehnungs- und Temperaturmessung basierend auf einem Fasergitter mit langer Periode (LPFG), das mit einer Faser-Bragg-Gitter-(FBG)-Struktur kaskadiert ist, wurde vorgeschlagen und sowohl theoretisch als auch experimentell realisiert. Die theoretische Analyse zeigt, dass zwei Mikrostrukturen mit ähnlichen Empfindlichkeiten nicht für die Messung von Doppelparametern verwendet werden können. Das LPFG wird durch das CO . mikrobearbeitet;-;-;-;https://link.springer.com/article/10.1007/s11801-017-7178-3 22828537c619667605431f80633bcf06;de;;;1.3.;;;Formalisierte symbolische Argumentation für Musikanwendungen Symbolisches Musik-Computing gibt es seit den frühen KI-Musikaktivitäten. Obwohl das Interesse an diesem Bereich in den letzten Jahrzehnten zurückgegangen ist, haben in letzter Zeit Versuche, eine Standarddarstellung für Musikanwendungen über das Internet wie MusicXML und IEEE P1599 zu schaffen, das Interesse am symbolischen Musik-Computing wiederbelebt. Die Fähigkeit, Musik mit traditionellen Begriffen zu diskutieren, die Musiker in ihren Gesprächen verwenden würden, ist nützlich. Ein Wissensdatenbanksystem, das Schlussfolgerungen auf der gleichen Abstraktionsebene wie ein Mensch durchführt, wäre in der Lage, dem menschlichen Gegenüber einen klaren und sauberen Denkprozess darzustellen. Dies ist sehr nützlich, insbesondere aus der Perspektive der Wissensverwertung und der Wissenserhaltung. In diesem Bericht werden formalisierte symbolische Argumentationen von Intervallschreibweisen und Akkordschreibweisen vorgestellt. Wir haben eine formale Implementierung des symbolischen Musikdenkens unter Verwendung der Z-Notation gezeigt. Eindeutige Intervallschreibweisen und Akkordschreibweisen sind implementiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25327-0_39 369d14bca00edf92e11f8d7c0818e0d4;de;;;1.3.;;;TSG 10: Trends in Mathematik und Mathematik: Ihre Reflexionen zur Mathematikdidaktik Im Mittelpunkt der Aktivitäten der Gruppe standen kurze Präsentationen und Diskussionen darüber. Auch bei einigen kurzfristigen Absagen von Beiträgen war die Zeit wie immer zu kurz, um einige der vorgestellten Ideen besser zu verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-9046-9_80 f2efe6138be809427bb6e038ffaa78cf;de;;;1.1.;;;Anwendungsrecherche von Buchhaltungsarchivinformatisierung auf Basis von Big Data Die heutige Gesellschaft ist eine rasante Entwicklung der Gesellschaft, Wissenschaft und Technologie werden entwickelt, Informationsfluss, die Kommunikation der Menschen wird immer enger, das Leben wird immer bequemer, Big Data ist das Produkt dieser Hightech-Ära. Daher besteht in diesem Zusammenhang der unvermeidliche Entwicklungstrend einiger Anwendungsfelder darin, umfangreiche Informationen in der Verwaltung von Archivinformationen zu verwenden und zu entwickeln. Um die Buchführungsarchivinformationen umfassender, aktiver, aktueller und relevanter zu machen, sollten wir die Multimediatechnologie in Big Data anwenden, die nicht nur eine große technische Unterstützung für die Verwaltung von Archivinformationen bieten kann, sondern auch Archivinformationsressourcen durch Multimediacomputer zur Verfügung stellt. Wenn wir reichhaltige und farbenfrohe Archivressourcen erhalten, wird dies sehr wichtig. Komfortabel. Um den Aufbau der Informatisierung von Buchhaltungsarchiven zu beschleunigen, müssen wir zunächst die Bedeutung von Buchhaltungsarchiven erhöhen, Talente für das Compound-Management fördern und den Sicherheitsmechanismus verbessern. Und durch die gemeinsame Nutzung von Archivinformationsressourcen und die Nutzung von Archivinformationsressourcen können wir die Entwicklung der Informatisierung von Buchhaltungsarchiven besser fördern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1468-5_9 1f0e81f923ad26dbdbe029b0d10d9d44;de;;;1.1.;;;Die Rolle der verbalen Fähigkeiten bei der Verarbeitung komplexer verbalen Informationen Diese Studie untersuchte die Beziehung zwischen psychometrischen Testergebnissen der mentalen Fähigkeiten und mehreren Reaktionszeitmessungen, einer einfachen Reaktionsaufgabe, einer Entscheidungsreaktionsaufgabe, der Buchstabenidentifikationsaufgabe von Posner und Mitchell (1967) und einer Variation Überprüfungsaufgabe. Es wurden Ergebnisse auf den Raven Advanced Progressive Matrices und dem Verbal Subtest des Scholastic Aptitude Test (SATV) erhalten. Die weniger komplexen Aufgaben der Informationsverarbeitung replizieren frühere Studien, in denen die allgemeine Intelligenz nur am Rande mit Reaktionszeitmaßen zusammenhängt. Die Satzverifikationsaufgabe variierte systematisch die Aufgabenkomplexität. Mehrere direkte und abgeleitete Maße aus der Aufgabe korrelierten signifikant mit psychometrischen Maßen der Mentalität. Obwohl jedoch eine Reihe von Vorkehrungen getroffen wurden, um sicherzustellen, dass die Satzprüfungsaufgabe die rein verbale Verarbeitungseffizienz bewertete, gab es kaum Hinweise auf einen wichtigen aufgabenspezifischen Zusammenhang zwischen Prüfungsmaßnahmen und verbalen Fähigkeiten. Darüber hinaus spiegelte die Satzprüfung trotz ihrer relativen verbalen Komplexität keine größere Beziehung zur verbalen Fähigkeit wider als andere Aufgaben. Insgesamt deuteten die in dieser Studie verwendeten Messgrößen der Informationsverarbeitungseffizienz eher auf eine eher allgemeine als auf eine aufgabenspezifische Beziehung zur geistigen Fähigkeit hin.;-;-;-;https://link.springer.com/article/10.1007/BF00419660 ecedc4f3ca05d64d2382e78e1c4f5f48;de;;;1.3.;;;Warum ignorieren wir das Risiko bei Schulentscheidungen? Während bei fast jeder Entscheidung über Investitionen in die Schulbildung Unsicherheit herrscht, wird sie in der Forschung meist ignoriert und fehlt in Lehrbüchern der Arbeitsökonomie praktisch. Dieser Beitrag dokumentiert die Spielräume für Risiken, diskutiert die harte Entflechtung von Heterogenität und Risiko, stellt die analytischen Modelle in den Blick, beklagt das Fehlen eines guten Arbeitspferdes und zeigt die Herausforderungen auf, die es zu bewältigen gilt: Ex-ante-Risiken für Investoren dokumentieren, beherrschbare und modellierbares analytisches Modell und integrieren die Möglichkeit der Verbrauchsglättung in analytische und empirische Arbeiten. Die Absicherung des Arbeitsmarktrisikos an der Börse kann getrost vernachlässigt werden.;-;-;-;https://link.springer.com/article/10.1007/s10645-014-9245-5 860eb5063fccd8f9018303082c1bbfa2;de;;;1.3.;;;Design eines Cartoon-Spiels zur Verkehrserziehung von Kindern in China In diesem Beitrag wird eine Methode zur Entwicklung eines Cartoon-Spiels zur Verkehrserziehung chinesischer Kinder vorgestellt. Basierend auf den psychologischen Eigenschaften von Kindern und der konstruktivistischen Lerntheorie wird die Gestaltung von Spielszenarien, Emotionen und Interaktion der Charaktere eingeführt. Die Szene in diesem Zeichentrickspiel basiert auf Gibsons Theorie der Gebote und alle Zeichen auf Objekten sind leicht zu unterscheiden. Eine endliche Zustandsmaschine wird verwendet, um den Emotionszustand einer Zeichentrickfigur auszudrücken, und NPC (Nicht-Spielerfigur) wird eingeführt, um das Interesse eines kindlichen Benutzers zu wecken. Das Zeichentrickspiel kann sowohl auf dem lokalen PC als auch im Internet ausgeführt werden, ein Kinderbenutzer kann durch interaktive Methode Sicherheitswissen erlernen. Das Ergebnis wird ein neues Mittel für die Verkehrssicherheitserziehung von Kindern in China bieten.;-;-;-;https://link.springer.com/chapter/10.1007/11736639_72 d13496a11b19293fa02405d57efa5d3d;de;;;1.3.;;;Ein agentenbasiertes Modell, das Investitionen in Bildung mit wirtschaftlichem Wohlstand in Verbindung bringt Dieser Beitrag beschreibt einige Experimente mit einem agentenbasierten Modell, das darauf abzielt, die Beziehung zwischen den Investitionen einer Gesellschaft in Bildung in einer Generation und dem Ergebnis in Bezug auf die Gesundheit der Wirtschaft der Gesellschaft in den folgenden Generationen zu erfassen. Das von uns verwendete Modell ist eine Multiagentensimulation, die aus einem gleichungsbasierten Modell in der Wirtschaftsliteratur abgeleitet wurde. Das gleichungsbasierte Modell wird verwendet, um parametrisierte Sätze von Agentenverhalten und Umgebungseigenschaften zu erstellen. Die Agenten werden in drei chronologische Kategorien unterteilt: Studenten, Erwachsene und Rentner, und jede reagiert auf unterschiedliche Weise auf die Umwelt und beeinflusst sie sowohl in Bezug auf das Humankapital als auch auf das Sachkapital. Wir untersuchen die Auswirkungen unterschiedlicher Parametereinstellungen auf die Bildungsinvestitionen einer Gesellschaft und das daraus resultierende Wirtschaftswachstum.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-70916-9_7 0cecd6e14e63e1a68e937c2b33e0d119;de;;;1.1.;;;Die Entwicklung visueller Informationsprozesse im Erwachsenen- und Alter Die menschliche Welt ist eine visuelle Welt. Unsere Fähigkeit zu sehen war wichtig für unsere evolutionäre Vergangenheit und wird für unsere evolutionäre Zukunft wichtig sein. Das Auffinden von Beutetieren und entkommenden Raubtieren mag in den Industriegesellschaften des 20. Jahrhunderts weniger wichtig sein als in unserer Vergangenheit, aber andere Sehaufgaben sind wichtig geworden. Erwachsene in der modernen Welt müssen sich mit Sehaufgaben auseinandersetzen, die sich selbst unsere jüngsten Vorfahren nie vorgestellt haben. Die Entwicklung von Hochgeschwindigkeits-Transportsystemen ermöglicht es uns, schnell durch eine Vielzahl von Umgebungen zu reisen. Diese Entwicklungen haben starke Anforderungen an die visuelle Überwachung von Fahrern, Fußgängern, Piloten und Fluglotsen geschaffen. Sie haben die Anforderungen an die Erfassung von räumlichen Anordnungsinformationen und die Verwendung der visuellen Informationen, die die Fortbewegung in einer städtischen Umgebung unterstützen, erhöht. Die industrielle Welt hat den Bedarf an Bildung und Lehrmaterialien erhöht. Während Erwachsene in der modernen Gesellschaft wenig Zeit damit verbringen, Tiere über Felder hinweg zu verfolgen, verbringen sie immer mehr Zeit damit, Wörter auf gedruckten Seiten zu verfolgen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-4178-9_6 cd42ce4bb80113a1f661098c18f97164;de;;;1.1.;;;Intelligenz und Erfahrung: Ein neopiagetischer Ansatz Ein organismischer prozessstruktureller Zugang zu den klassischen und modernen Fragen der Intelligenz und Erfahrung wird skizziert. Es wird eine Theorie der konstruktiven Operatoren (TCO) vorgestellt, die ursprünglich entwickelt wurde, um Piagets metatheoretische Vorstellungen von Stadien und Gleichgewicht zu erklären. Die Theorie beschreibt einen psychologischen Organismus, der ein sehr aktives semantisch-pragmatisches System ist, das auf assimilatorische Praxis ausgerichtet ist. Seine Organisation ist zweistufig: eine situationsgebundene Ebene subjektiver Operatoren (Schemata) und eine situationsfreie Ebene, die entweder durch stille Operatoren (mentale Anstrengung, lernende Operatoren, Feldfaktoren, affektive Faktoren usw.) oder durch Grundprinzipien gebildet wird, die die dynamische Artikulation von subjektiven und stillen Operatoren (die zentrale Artikulation ist ein Prinzip der schematischen Überbestimmung der Leistung).;-;-;-;https://link.springer.com/article/10.1007/BF00117011 0314e4ad51bdb36d926baafebe59d303;de;;;1.3.;;;Fernunterrichtssystem basierend auf der Metasynthese-Methodik und der Theorie der lernenden Organisation Wissenschaft und Technik entwickeln sich rasant, führen zum modernen Fernunterricht und entwickeln sich nach und nach zu einer Besonderheit des offenen komplexen Riesensystems. Zum Teil stark erhöht die Zahl der Werbung, die Interaktion zwischen den Subsystemen des Online-Lernens alle Elemente immer komplizierter. Neben Komplexität, Offenheit, Produktion und den Hauptmerkmalen der Weite machen moderne Fernstudiengänge aus. Daher muss eine neue Generation von theoretischen Berechnungswerkzeugen Probleme im Zusammenhang mit diesem speziellen OCGS lösen. Wir alle wissen, dass Lernen für die Forschung „Komplexität“ als Thema der Einheit im 21. Jahrhundert einfach ist, um uns in das neue Jahr der Komplexität der Welt zu bringen. Wie ein Wissenschaftsnamen vermuten lässt, dass, anwendbar auf die Komplexitätswissenschaft, die grundlegende Theorie des metasyntaktischen OCGS-Engineerings eine praktische Methode ist, die viele Interaktions-OCGS-Objekte mit mehreren Ebenen versteht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29084-8_62 df1ebdabbce85623546980efde9e4726;de;;;1.1.;;;Die Entropietheorie des Geistes Bevor wir die Details des menschlichen Geistes besprechen, können wir über eine einfache und offensichtliche Tatsache nachdenken: Die Größe unseres Gehirns ist viel kleiner als die Welt, die wir zu begreifen versuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4939-3466-9_5 009963217af872a7395fb91f0ed9890d;de;;;1.3.;;;PC-basierte Modellierung und Simulation großer Schiffsantriebsanlagen Derzeit basieren die meisten Schiffsmaschinenraumsimulatoren (MERS) weltweit auf Netzwerktechnologie. Aber solche MERS brauchen viel Geld und viel Platz, um sie zu installieren und zu verwenden. So kann in der Freizeit für die Besatzung der Bedarf des Trainings individuell nicht gedeckt werden. So wurde für die Ausbildung ein Simulationssystem einer PC-basierten Schiffsantriebsanlage entwickelt. In diesem Beitrag wurde ein transientes Simulationsmodell für große Schiffsantriebssysteme vorgeschlagen. Gleichzeitig werden im Simulationssystem auch die Schiffsantriebssteuerung, das Kraftstoffsystem, das Kühlwasser usw. entwickelt. Das Modell ist eine modularisierte Struktur und die Module, die die Komponenten des Systems beschreiben, können leicht hinzugefügt werden. Auch verwandte Teilsysteme von Schiffsantriebsanlagen werden in diesem Simulationssystem etabliert. Die Simulationsexperimente demonstrieren die stabilen und dynamischen Ergebnisse, die mit den Reiseversuchsergebnissen übereinstimmen. Das Modell kann zur Analyse und Vorhersage der Leistung von Schiffsantriebsanlagen verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-3656-8_70 126cbf1998f5763ecd274d10144a7cec;de;;;1.1.;;;Quantumisierung der Theoretischen Informatik Reifung der Informatik Die jüngsten Entwicklungen im Bereich der Quanteninformationsverarbeitung und -kommunikation (QICP) haben deutlich gemacht, dass die Grundlagen des Rechnens nicht wie bisher auf den Gesetzen und Grenzen der klassischen Physik, sondern auf den Gesetzen und Grenzen der Quantenphysik basieren müssen .;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44929-9_44 2bc4dcc200f432a8c73397896e684119;de;;;1.1.;;;Wie sich das objektive und subjektive Wissen von Investmentfondsanlegern auf ihr Informationssuch- und Verarbeitungsverhalten auswirkt Entgegen der landläufigen Meinung, dass objektives Wissen (OK) (d. h. was tatsächlich im Gedächtnis gespeichert ist) und subjektives Wissen (SK) (d. h. was Individuen zu wissen wahrnehmen) unterschiedlich das Informationssuche- und Informationsverarbeitungsverhalten beeinflussen, und Eine empirische Studie, die an 268 Investmentfonds-Investoren (MF) durchgeführt wurde, zeigt keinen signifikanten Unterschied in der Auswirkung von OK und SK auf die Breite und Tiefe der Informationssuche und Informationsverarbeitung. Die Studie legt nahe, dass OK und SK die Breite und Tiefe des Informationssuch- und Informationsverarbeitungsverhaltens signifikant positiv beeinflussen, jedoch gibt es keinen signifikanten Unterschied in der Art und Weise, wie sie sich auswirken. Die mögliche Erklärung lautet, dass sich die Auswirkungen von SK auf das tatsächliche Anlageverhalten nicht wesentlich davon unterscheiden, obwohl MF-Investoren unter Selbsttäuschung (d von in Ordnung. Auch die Implikationen der Ergebnisse werden diskutiert.;-;-;-;https://link.springer.com/article/10.1057/fsm.2011.1 cd0d3073bf38da5e4abc028b58a3521f;de;;;1.1.;;;Methodische und statistische Techniken zur chronometrischen Untersuchung geistiger Fähigkeiten Das Studium individueller Unterschiede in der Reaktionszeit (RT) hat seinen Ursprung nicht in der Psychologie, sondern in der Astronomie. Der preußische Astronom F. W. Bessel prägte 1823 den Begriff;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-4940-2_2 3f9619bad5eed1621f0361beaab5cc2a;de;;;1.3.;;;Studie zur Einstellung der Widerstandsparameter des Trainingssystems für die Akupunkturbehandlung Diese Forschung ist eine Grundlagenforschung, um das Gefühl von Force-Feedback dem realen Gefühl näher zu bringen. Das Force-Feedback-Gefühl wird aktiviert, indem das Teil und der Akupunkturpunkt des menschlichen Körpers als dreidimensionale Daten angezeigt werden, das haptische Gerät bedient, der Akupunkturpunkt berührt und der Einführvorgang der Akupunktur simuliert wird. Ein Bewertungsexperiment wurde durchgeführt, um den Widerstandsparameter zu bestimmen, um den numerischen Wert zu erhalten, der die Referenz des Härteempfindens des Körpers ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-22263-5_31 98da9f9575372733dfe6a0c2806c2c40;de;;;1.1.;;;Der Computer als Metapher für die psychologische Untersuchung: Überlegungen und Empfehlungen Mir geht es um den Computer als Metapher zur Erklärung von Wahrnehmung und Handlung. Eine repräsentative Stichprobe von Argumenten für und gegen das Paradigma wird präsentiert und bewertet. Die Schlussfolgerung ist, dass die Idee der Berechnung produktiv ist, um eine funktionalistische Beschreibung unserer Wahrnehmung und unseres Handelns zu erreichen. Diese Beschreibungsebene kann unabhängig von der Beschreibung auf den Ebenen der Neurophysiologie und Phänomenologie zu unserem Verständnis beitragen. Einige der wahrgenommenen Einschränkungen der Rechenmethode beruhen auf der Annahme, dass die symbolische Ebene diskret und abstrakt sein muss. Tatsächlich nutzen lohnende Erklärungen innerhalb des Informationsverarbeitungsrahmens kontinuierliche, modalitätsspezifische Prozesse und Darstellungen als Erklärungsmittel. Ein Vorschlag für einen Übergang vom diskreten zum kontinuierlichen Modus ist, Computertheorien mit den von ihnen beschriebenen psychologischen Phänomenen in Einklang zu bringen. Es werden verschiedene Alternativen zum Berechnungsrahmen in Betracht gezogen und als unzureichende Substitute befunden. Ein Forschungsbeispiel wird verwendet, um den Wert des kontinuierlichen Modus und die rechnerische Erklärungsebene zu demonstrieren.;-;-;-;https://link.springer.com/article/10.3758/BF03201006 d1d0ca2d49ca00c292dea2485409de26;de;;;1.3.;;;Fernunterricht basierend auf Roboter-Edutainment In diesem Artikel wird die Rolle von Robotern in der Fernbildung diskutiert. Es gibt drei verschiedene Ziele des Roboter-Edutainments, d. h. Lernen an Robotern, Lernen durch Roboter und Lernen mit Robotern. Letzteres ist der Einsatz von menschenfreundlichen Robotern anstelle von Personalcomputern für den computergestützten Unterricht. Insbesondere ist eine natürliche Kommunikationsfähigkeit von Lernrobotern beim Lernen mit Robotern erforderlich. In diesem Papier wenden wir menschenfreundliche Roboter für die Fernausbildung an und diskutieren die Anforderungen und Spezifikationen von Robotern für die Fernausbildung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03986-7_24 64223867b0ac70ffdcf27e9cc51bd1ee;de;;;1.3.;;;Verwendung von Präferenzabfragen für die Suche nach Lernressourcen Die wachsende Zahl an Lernressourcen erhöht zwar die Auswahl für die Lernenden, macht es aber auch immer schwieriger, geeignete Kurse zu finden. Daher sind verbesserte Suchfähigkeiten in Lernressourcen-Repositorys erforderlich. Wir schlagen einen Ansatz für die Suche nach Lernressourcen vor, der auf Präferenzabfragen basiert. Eine Präferenzabfrage erlaubt nicht nur harte Beschränkungen (wie ‚Return-Vorlesungen über Mathematik‘), sondern auch weiche Beschränkungen (wie ‚Ich bevorzuge einen Kurs am Montag, aber Dienstag ist auch in Ordnung‘). Solche Abfragen geben immer den Satz optimaler Elemente in Bezug auf die gegebenen Präferenzen zurück. Wir zeigen, wie diese Technik für den Lernbereich genutzt werden kann und stellen den Personal Preference Search Service (PPSS) vor, der im Vergleich zu herkömmlichen Suchmöglichkeiten für Lernressourcen deutlich verbesserte Suchmöglichkeiten bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75195-3_11 151d9771bac19ef4ba96ebe3b100c045;de;;;1.3.;;;Support für Patienten mit pulmonaler Hypertonie Patienten mit pulmonaler arterieller Hypertonie (PAH) benötigen eine multidisziplinäre Behandlungsstrategie, die Aufklärung, Unterstützung und häufige klinische Beurteilungen umfasst. Im Mittelpunkt der Betreuung von PAH-Patienten steht ein speziell ausgebildetes Team von Angehörigen der Gesundheitsberufe, das Patienten und ihren Betreuern ein breites Spektrum an Unterstützung und Schulung bietet. Da der Großteil des PAH-Managements außerhalb von routinemäßigen klinischen Besuchen stattfindet, ist es wichtig, einen fachkundigen klinischen Koordinator für pulmonale Hypertonie (PHC) zu haben, der häufig mit Patienten kommuniziert. Laufende Überwachung von Symptomen, Reaktion auf Medikamente, Sauerstoffbedarf, Ernährung, Bewegung, emotionales Wohlbefinden und finanzielle Bedürfnisse sind für die Optimierung und Aufrechterhaltung des klinischen Status von größter Bedeutung. Die Aufklärung von Patienten, Pflegepersonal und Klinikern für nicht-pulmonale Hypertonie (PH) über Routinetests und das Krankheitsmanagement ist eine der Hauptaufgaben des PHC. Eine engmaschige Überwachung und Einbeziehung in die Versorgung hospitalisierter Patienten durch das PH-Team ist entscheidend für eine sichere und qualitativ hochwertige Versorgung. Eine durchdachte Entlassungsbeurteilung und -planung wird einen reibungslosen Übergang in die poststationäre Versorgung gewährleisten und potenziell vermeidbare Krankenhausaufenthalte verhindern. Die Sicherstellung des Zugangs zu PAH-spezifischen Medikamenten ist ein wesentlicher Aspekt der unterstützenden Versorgung des PAH-Patienten. Selbst wenn die Patienten mit vorherigen Genehmigungen erfolgreich waren, können sie bei der Bezahlung ihrer Medikamente und ihrer medizinischen Versorgung in finanzielle Schwierigkeiten geraten. Die Navigation durch das komplexe Krankenversicherungssystem und die Genehmigungsverfahren erfordert viel Zeit und Fachwissen im Auftrag des PH-Koordinators. Häufig benötigen PAH-Patienten auch Unterstützung bei der Beantragung einer Behinderung, oft ein langwieriger und komplizierter Prozess. Chronische Erkrankungen können praktisch jeden Aspekt des Lebens beeinträchtigen. Wege zu finden, die emotionalen und sozialen Veränderungen, die PAH-Patienten erfahren, durch Netzwerke und Selbsthilfegruppen anzugehen, kann lebensverändernd sein. Eine solche Gruppe, die Pulmonary Hypertension Association (PHA), ist eine gemeinnützige Organisation zur Unterstützung, Bildung, Interessenvertretung und Sensibilisierung für Patienten und Pflegepersonal, die mit PAH zu tun haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23594-3_21 47a983b5a73fc5ce693de2820d9857ab;de;;;1.3.;;;Ausbildung und Forschung im Bereich Service Science and Technology an der Tsinghua University Mit dem Beginn der dienstleistungswirtschaftlichen Zeiten in China sollte die Bedeutung der Ausbildung und Forschung der Dienstleistungswissenschaft hervorgehoben werden. Als neues Fach sind sowohl Talente als auch Forschung mit Bezug zur Dienstleistungswissenschaft eine Herausforderung. In diesem Thema wird über die Bemühungen des Research Center of Modern Services Science & Technology der Tsinghua University sowohl in der Bildung als auch in der Forschung berichtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-76578-5_33 6b3ee500b90151fcd81e7f34e7f45a64;de;;;1.3.;;;Das MP-Modell (Materialization Pattern) zur Darstellung von Bildungsstandards für Mathematik Die Darstellung natürlicher Sprachen mit UML ist aus verschiedenen Gründen ein wichtiges Forschungsthema. Es wurde wenig Arbeit an der Modellierung von Imperativ-Stimmungssätzen geleistet, die die Satzstruktur von Standardaussagen im Mathematikunterricht sind. In diesem Beitrag schlagen wir das MP-Modell (Materialization Pattern) vor, das die Semantik englischer Sätze erfasst, die in mathematischen Bildungsstandards verwendet werden. Das MP-Modell basiert auf den Reed-Kellogg-Satzdiagrammen und erstellt MP-Schemata mit der UML-Notation. Das MP-Modell stellt explizit die Semantik der Sätze dar, indem es mathematische Konzepte und den kognitiven Prozess mathematischer Konzepte aus mathematischen Standardaussagen extrahiert und die Modellierung vereinfacht. Dieses MP-Modell wurde auch entwickelt, um mathematische Standardaussagen über Schema-Matching abzugleichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04947-7_17 1368b85f31a879e3b3f1a1578e9e8ca4;de;;;1.3.;;;Verhaltensanalytische Repertoires: Woher kommen sie und wie können sie gepflegt werden? Das Gebiet der Verhaltensanalyse steht hinsichtlich seiner Existenz als Disziplin und als Beruf vor einer Reihe von Problemen, darunter (a) die Ermittlung der Kenntnisse und Fähigkeiten, die das Repertoire kompetenter Verhaltensanalytiker umfassen, (b) die Art der Lehrpläne, die die von der Disziplin benötigten Wissenschaftler und Praktiker, (c) Identifizierung der für eine erfolgreiche Berufslaufbahn erforderlichen allgemeinen fachlichen und sozialen Fähigkeiten, (d) akademische Beschäftigungsmöglichkeiten für Verhaltensanalytiker und (e) die Pflege verhaltensanalytischer Repertoires. Empfehlungen werden als mögliche Lösungen für Probleme angeboten, die in Bezug auf jede dieser Fragen aufgeworfen wurden.;-;-;-;https://link.springer.com/article/10.1007/BF03392715 3b3d5e1032bc03af2863a9e0aa1f7f91;de;;;1.3.;;;Computergestütztes Denken: Bemühungen in Korea Das Computerzeitalter verändert die Bildung. Um das volle Potenzial eines solchen Wandels auszuschöpfen, müssen wir über die einfache Einführung von IT im Klassenzimmer hinausgehen. Die Schüler werden am meisten davon profitieren, wenn sie lernen, computergestütztes Denken (CT) anzuwenden, während sie die Prinzipien und besten Praktiken der Informatik anwenden, um alle möglichen Probleme der realen Welt zu lösen. Diese Botschaft (Wing, Communications of the ACM 49(3):33–35, 2006) wurde von Jeannette Wing, Corporate Vice President bei Microsoft Research, entwickelt und ist auch das Hauptthema der;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-52691-1_22 28ff569bbe1ea9cf89e79088faf8812c;de;;;1.3.;;;Nutzung der Straßenverkehrssimulation „SUMO“ für Bildungszwecke Das Zentrum für Angewandte Informatik und das Institut für Verkehrsforschung des Deutschen Zentrums für Luft- und Raumfahrt entwickeln seit dem Jahr 2000 ein mikroskopisches Straßenverkehrssimulationspaket namens „SUMO“ – eine Abkürzung für „Simulation of Urban MObility“. Inzwischen ist die Simulation in der Lage, auch mit realistischen Szenarien wie Großstädten umzugehen und wird für diese Zwecke in den Institutsprojekten eingesetzt. Die Idee war, die Verkehrsforschungsgemeinschaft mit einer gemeinsamen Plattform zu unterstützen, um neue Ideen und Modelle zu testen, ohne ein Framework neu implementieren zu müssen, das Straßendaten, Fahrzeugrouten, Ampelsteuerung usw. behandelt. Um dieses Ziel zu erreichen, ist der Simulationscode verfügbar als available Open Source. In dieser Publikation möchten wir zeigen, wie die meisten Attribute des Verkehrsflusses simuliert werden können. Dies sollte vor allem für pädagogische Zwecke interessant sein.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-28091-X_19 a8983985fa8c1b150b4bdd3a77eceab6;de;;;1.3.;;;Studie zur Anwendung von Online-Bildung auf der Grundlage einer interaktiven Plattform Obwohl die Netzwerkplattform als Assistenzlehrsystem an den meisten Hochschulen und Universitäten eingesetzt wurde, war die gesamte Lehrwirkung nicht zufriedenstellend. In dieser Arbeit wurde die Lösung der interaktiven Lehrplattform vorgestellt und einige angewandte Forschungen zum neuen Lehrmodus basierend auf der interaktiven Plattform durchgeführt. Der Zweck dieses Lehrmodus besteht darin, den Klassenunterricht vom Präsenzunterricht auf den Vor- und den Nachunterricht auszudehnen, und die drei Teile müssen als gleich wichtig behandelt werden, damit sie einen ganzen Lehrprozess bilden können. Die Plattform stellt nicht nur die Unterlagen zum Lernen bereit, sondern wird auch außerhalb des Unterrichts zu einer Online-Kommunikationsplattform zwischen Lehrenden und Studierenden. Es hat sich im Testeinsatz im letzten Jahr als effektiver Lehrmodus auf Basis der interaktiven Online-Plattform erwiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_370 9e8bc866d42bfcfe151d8589d2611b70;de;;;1.1.;;;Bestimmte theoretische Konzepte in der SLA-Forschung zu Sprache und Schrift Dieses Kapitel bietet einen Überblick über die Literatur zur SLA-Forschung. Bestimmte theoretische Begriffe – Kompetenz und Leistung, Lernen und Erwerb, Spracheinsatz, Eingabe- und Informationsverarbeitung – die sowohl für mündliche als auch für schriftliche Aufgaben relevant sind, werden diskutiert. Konzepte zur Sprachproduktion in den Studien zur Sprachausgabe – Konzept der Sprachfähigkeit, Rolle der Nachahmung, Sprachproduktion in der Erstsprache, Fehler und Selbstkontrolle, Äußerungsinitiierung in einer Zweitsprache, vorgefertigte Sprache – werden erneut aufgegriffen. Die Studien zum schriftlichen Output konzentrieren sich im Detail auf verschiedene Methoden, die aus der Perspektive der Inputs und der Informationsverarbeitung untersucht werden. Darüber hinaus werden die internationalen und nationalen Szenarien im Bereich der Angewandten Linguistik und des Sprachunterrichts dargestellt. Gemischte Leistungsklassen werden vor dem Hintergrund des indischen ELT-Szenarios diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-81-322-2604-8_2 7cde658291fdb759065dbfb90b9f4ee4;de;;;1.3.;;;Grober Ansatz für KDD (Extended Abstract) Dieses Tutorial ist eine Übersicht über die grobe Mengenlehre und einige ihrer Anwendungen in Knowledge Discovery from Databases (KDD). Es wird auch den Praxisleitfaden zur Analyse verschiedener Probleme des realen Lebens unter Verwendung von Rough-Set-Methoden sowie die Präsentation des Rough Set Exploration Systems (RSES) umfassen, das als Vormaterial für die Hauptkonferenz und die zugehörigen Workshops dienen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79721-0_4 5ed01780bdb6ef6dabffb4e75ed6bd45;de;;;1.3.;;;Vertrauensbasiertes Lernen in der Investitionsanalyse Ziel dieser Studie ist es, die Effektivität des Einsatzes von Multiple-Choice-Tests in Fächern der Verwaltung und Betriebswirtschaft zu ermitteln. Dazu haben wir in einem Multiple-Choice-Test mit konkreten Fragen den Umfang der gewonnenen Erkenntnisse und das Vertrauen in die Antworten überprüft. Die Tests wurden in einer Gruppe von 200 Studierenden des Bachelorstudiengangs Business Administration and Management durchgeführt. Die durchgeführten Analysen wurden in einem Thema des Umfangs der Anlageanalyse durchgeführt und zu zwei verschiedenen Kurszeitpunkten den gewonnenen Wissensstand sowie das Vertrauen und die Sicherheit in den Antworten gemessen. Bei den Messungen wurden unterschiedliche Schwierigkeitsgrade der gestellten Fragen und die Zeit, die die Schüler für die Durchführung des Tests aufwenden, berücksichtigt. Die Ergebnisse bestätigen, dass die Studierenden im Allgemeinen in der Lage sind, sich nebenbei mehr Wissen anzueignen und das Vertrauen und die Zuversicht in die Antworten zu erhöhen. Es wird bestätigt, dass der Schwierigkeitsgrad der Fragen, die von den Leitern der Fächer a priori festgelegt wurden, mit dem Sicherheitsniveau und dem Vertrauen in die Antworten in Beziehung steht. Es wird geschätzt, dass die Verbesserung der erlernten Fähigkeiten von den Unternehmen positiv bewertet wird und besonders wichtig für die Arbeitsvermittlung von Studenten ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13166-0_4 a402c7e2e0c315d7beb8e2653b26526f;de;;;1.3.;;;Die Integration von Online- und Offline-Bildung in das System der Studierendenvorbereitung für die globale akademische Mobilität In dieser Studie untersuchten die Autoren die wachsende Rolle des Prozesses der globalen akademischen Mobilität für die Situation der professionellen Personalvorbereitung auf die neuen Bedingungen des wachsenden globalen Marktes. Die Anforderungen an das Bildungssystem liegen in der Suche und Anregung neuer Ansätze und Technologien zur Lösung dieser Aufgabe, insbesondere in der Vermittlung des englischen akademischen Diskurses als Instrument der Kommunikation im akademischen und beruflichen Umfeld. Gleichzeitig untersuchen heutzutage viele ESL-Lehrer die Möglichkeiten zur Implementierung von Online-Kursen in den Unterricht im Klassenzimmer. Dieser fortlaufende Beitrag widmet sich der theoretischen und experimentellen Untersuchung verschiedener Modelle, die zu diesem Zweck Online- und Offline-Bildung integrieren, und der Vorbereitung der Studierenden auf die effektive Nutzung verschiedener Genres des akademischen Diskurses in der englischen Sprache als Sprache der globalen Kommunikation. Die Ergebnisse zeigten das Wachstum verschiedener Arten von Kompetenzen, die für die globale akademische Mobilität erforderlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-02846-6_13 2b6c53a9abb1a4781097cc553db2abe5;de;;;1.3.;;;Die Idee der freien Studenten: Ihr einheitlicher Inhalt [1913c] Dass eine Kulturbewegung seit ihrer Entstehung fünfzehn Jahre braucht, um ihre philosophischen Grundlagen zu entwickeln und zu klären, spricht in keiner Weise gegen den Wert dieser Bewegung. Im Gegenteil, das Handeln, das auf bestimmten bestimmten Werten beruht, geht einer klaren Anerkennung dieser Werte voraus, dass ein Ideal erst dann klar und deutlich ins Bewusstsein tritt, nachdem die Person, die unter dem Einfluss der Emotion, die sie hervorruft, handelt, begonnen hat, es zu versuchen durch sein Handeln sein eher vage geahntes als klar eingestandenes Ziel zu erkennen, ist ein häufig beobachtetes Phänomen. Nicht klares, rationales Wissen gibt einer Handlung ihren moralischen Wert, sondern das Motiv dafür, unabhängig von den intellektuellen Prozessen, die die Handlung begleiten. Das bedeutet jedoch nicht, dass eine klare Formulierung der eigenen Willensentscheidung nicht erforderlich ist. Im Gegenteil, ein fortschreitender Mensch wird sich bemühen, das Ziel all seiner mühsamen Bemühungen, die so oft nur mit Undank vergolten werden, klar und deutlich zu bestimmen. Er wird dieses Bemühen machen, weil er ein konsequentes Handeln wünscht, weil er möchte, dass alle seine Aktivitäten seinem einen großen Ideal entsprechen, weil ihm nur die klare Erkenntnis seines eigenen Endzwecks die richtige Kraft gibt, dafür zu kämpfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-9761-5_5 fbabfb0ede15cd71e362f6d5bd985aac;de;;;1.3.;;;WWW-Programmierung Dieser Abschnitt behandelt einige der Methoden, die verwendet werden, um über das WWW zu programmieren. Das WWW wurde ursprünglich 1989 vom CERN, dem europäischen Forschungslabor für Teilchenphysik in Genf, Schweiz, konzipiert. Sein Hauptziel war es, verschiedene Arten von Informationen wie Text, Grafik und Video auf einfache Weise miteinander zu integrieren. Es unterstützt auch die Verknüpfung von Informationen. Die entwickelte Standardsprache ist HTML (HyperText Markup Language), eine textbasierte Sprache mit bestimmten Formatierungs-Tags. Diese Tags werden durch ein kleiner als (<) und ein größer als (>) gekennzeichnet. Die meisten haben eine öffnende und schließende Version, zum Beispiel wird zum Hervorheben von fettem Text das fette öffnende Tag () verwendet und das schließende Tag ist . Wenn ein Größer-als- oder ein Kleiner-als-Symbol erforderlich ist, kann eine spezielle Zeichenfolge verwendet werden. Es ist gut für Dokumente von geringer und mittlerer Qualität, aber es ist schwierig, qualitativ hochwertiges Druckmaterial zu produzieren. Es ist wahrscheinlich, dass neue HTML-Versionen eine verbesserte Darstellung unterstützen. Tabelle H2.1 definiert einige der Tags, die in HTML verwendet werden. Als nächstes wird ein Beispiel-HTML gegeben, und Abbildung H2.1 zeigt, wie es von einem WWW-Browser interpretiert wird.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-0-306-48331-8_45 7c9f434285abfddf7fa8fea9b2b358aa;de;;;1.3.;;;Der Wert von Videovorlesungen im Klassenzimmer - UPT Study Case Als Lehrer haben wir die Verantwortung, den Schülern zu helfen, die grundlegenden Konzepte und Details (sofern erforderlich) zu einem Thema zu verstehen. Wir müssen ihnen die richtigen Materialien anbieten, um die Informationen und die Möglichkeit zum Hören, Ausprobieren, Sehen und Denken zu erhalten. In unserer Studie, die in der Umgebung der Politehnica University of Timisoara (UPT) durchgeführt wurde, haben wir eine Zielgruppe ausgewählt, die aus etwa 200 Studenten besteht, die in zwei Untergruppen unterteilt sind. Wir hatten Klassentreffen mit allen. Wir boten der ersten Gruppe gedrucktes Material für das Heimstudium und der zweiten Gruppe - Videovorträge. Wir haben die Studierenden evaluiert und die Ergebnisse analysiert. Wir führten ein persönliches Gespräch nach der Prüfung und eine Umfrage durch, um die Vor- und Nachteile von Video und Druck aus der Sicht der Schüler/innen herauszufiltern. Dieses Papier bietet verwandte Arbeiten auf diesem Gebiet, das Design von Videovorlesungen, unsere Studienergebnisse und Schlussfolgerungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24770-0_12 ec8ef476ba0c492858112dceb93b8ec7;de;;;1.3.;;;Phänologie im Hochschulbereich: bodengestützte und räumliche Analysetools Neue räumliche Analysemethoden und eine zunehmende Menge an Fernerkundungsdaten sind die notwendigen Werkzeuge für die Skalierung von bodenbasierten phänologischen Messungen auf größere Ökosysteme, kontinentale und globale Prozesse. Da jedoch Fernerkundungsdaten und -instrumente nicht einfach zu beherrschen sind, ist häufig eine Ausbildung auf Hochschulebene erforderlich. Curricula und Ausbildungsprogramme, die diese integralen Bestandteile der phänologischen Forschung verbinden, werden dringend benötigt, da die Zahl der Personen mit den erforderlichen Fähigkeiten im Umgang mit einer wachsenden Anzahl hochentwickelter Analysewerkzeuge und gesammelter Fernerkundungsdaten immer noch recht gering ist. In diesem Kapitel stellen wir eine Reihe von Beispielen für feldbasierte Ansätze der phänologischen Ausbildung auf Hochschul- und Universitätsebene vor. Anschließend führen wir den Leser durch die Ressourcen, die für die Integration der Fernerkundung mit der landgestützten phänologischen Überwachung zur Verfügung stehen, und schlagen mögliche Wege zur Nutzung dieser Ressourcen vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-6925-0_31 d798e4c7489bd9d15e4f91289794d348;de;;;1.3.;;;Strategieoptimierung für kontrollierten Markov-Prozess mit deskriptiver Komplexitätsbeschränkung Aufgrund verschiedener Vorteile bei der Speicherung und Implementierung werden einfache Strategien in der Regel komplexen Strategien vorgezogen, wenn die Leistungen eng beieinander liegen. Die Strategieoptimierung für einen kontrollierten Markov-Prozess mit deskriptiver Komplexitätsbeschränkung stellt einen allgemeinen Rahmen für viele solcher Probleme bereit. In diesem Papier zeigen wir zunächst anhand von Beispielen, dass die deskriptive Komplexität und die Leistung einer Strategie unabhängig sein können, und verwenden die F-Matrix im No-Free-Lunch-Theorem, um das Risiko aufzuzeigen, dass die Approximation komplexer Strategien zu einfachen Strategien führen kann die in der Kardinalleistung grenzenlos schlechter sind als die ursprünglichen komplexen Strategien. Anschließend entwickeln wir eine Methode, die die deskriptive Komplexitätsbeschränkung direkt behandelt, die einfache Strategien exakt beschreibt und komplexe Strategien bei der Optimierung nur approximiert. Der ordinale Leistungsunterschied zwischen den resultierenden Strategien dieses selektiven Näherungsverfahrens und dem globalen Optimum wird quantifiziert. Numerische Beispiele zu einem Triebwerkswartungsproblem zeigen, wie dieses Verfahren die Lösungsqualität verbessert. Wir hoffen, dass diese Arbeit einige Einblicke in die Lösung der allgemeinen Strategieoptimierung für den kontrollierten Markov-Prozess mit deskriptiven Komplexitätsbeschränkungen liefert.;-;-;-;https://link.springer.com/article/10.1007/s11432-009-0192-8 111e736e0331879ab2a5b5f6fe1c7811;de;;;1.3.;;;Transformationale Führung in der naturwissenschaftlichen Bildung In diesem Kapitel wird beschrieben, wie transformative Führungskräfte Lehrer dazu angeleitet und inspiriert haben, den Lehrplaninhalt und die Methodik des naturwissenschaftlichen Unterrichts im englischen öffentlichen Schulsystem in Quebec erheblich zu ändern. Wir beginnen mit einem kurzen Überblick über das aktuelle Verständnis von Transformational Leadership und die Rolle von Schulleitern, Lehrern und wissenschaftlichen Beratern in diesem Prozess.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-6209-638-7_7 b1dda5fa5e5fd2f030d2f1642477b77e;de;;;1.3.;;;Was sind die verwendeten UML-Diagrammkonstrukte? Eine Dokument- und Werkzeuganalysestudie mit Aktivitäts- und Anwendungsfalldiagrammen UML bietet für jeden ihrer Diagrammtypen eine sehr große Menge an Konstrukten, von denen jedoch viele kaum verwendet werden oder gar nicht bekannt sind. Hier haben wir uns entschieden, anhand einer Dokument- und Toolanalysestudie einen genauen Blick auf die Nutzungsgrade der Konstrukte Aktivitäts- und Use-Case-Diagramme zu präsentieren, die zunächst Bücher, Kurse, Tutorials und Tools zu UML umfasst. Ergebnisse der Studie zeigen, dass von den 47 Aktivitätsdiagramm-Konstrukten eine große Mehrheit kaum genutzt wird, während nur neun Ergebnisse weit verbreitet erscheinen, während nur zwei der neun Konstrukte der Anwendungsfalldiagramme kaum genutzt werden. Diese Arbeit ist Teil eines größeren Projekts zur Untersuchung des Nutzungsgrades der UML-Diagramme und ihrer Konstrukte, auch mittels einer persönlichen Meinungsumfrage für UML-Anwender.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25156-1_5 959afc2dd6ce92ae62318971ebe97351;de;;;1.1.;;;URBS-Erzwingungsmechanismen für objektorientierte Systeme Unsere bisherigen Bemühungen haben die benutzerrollenbasierte Sicherheit (URBS) für die diskretionäre Zugriffskontrolle untersucht, um einen anpassbaren Zugriff auf die öffentliche Schnittstelle von Objekttypen/Klassen zu ermöglichen, die verschiedenen Personen zu unterschiedlichen Zeiten je nach ihren Bedürfnissen und Verantwortlichkeiten innerhalb der Anwendung spezialisierten Zugriff ermöglichen . Unterstützt wird dies durch die ADAM-Umgebung (Active Design and Analyzes Modeling), die automatisch Code (C++, Ada83, Ada95) aus sprachunabhängigen objektorientierten Designs generiert, die über text- und formularbasierte Eingaben bereitgestellt wurden. ADAM bietet eine Möglichkeit, benutzerrollenbasierte Sicherheit und Autorisierung zu definieren und zu analysieren, bietet jedoch keinen automatischen Übergang von diesen Definitionen zu „Code“, der die erforderliche Sicherheit realisiert. Die in diesem Beitrag vorgestellte Arbeit beschreibt drei Ansätze für Durchsetzungsmechanismen für objektorientierte Systeme und bewertet sie im Kontext einer Reihe von Zielen. Wir glauben, dass die hier vorgestellten Ansätze und Ergebnisse für objektorientierte Systeme relevant sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34932-9_6 aeb01b4983da40aa92fb2c6ac4b22277;de;;;1.1.;;;Mit mentaler Arbeitsbelastung umgehen In den letzten dreißig Jahren belastet die Arbeitsbelastung eher die geistigen Fähigkeiten des menschlichen Bedieners als seine körperlichen Fähigkeiten. Es gibt eine wachsende Zahl von Tätigkeiten, bei denen dem Bediener Aufgaben übertragen werden, die die Überwachung und/oder Überwachung komplexer Systeme oder Problemlösungen unterschiedlicher Art beinhalten. Anstatt also als Produzent von;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-1042-6_12 e6620a7e77ab226632742f93f4b97dc9;de;;;1.3.;;;Virtuelles Netzwerk-Einbettungsmodell zur Minimierung des Energieverbrauchs Die Kosten der verbrauchten Energie der Netzbetreiber werden zu einer der Hauptbelastungen und die Netzwerkvirtualisierung wird als effektive Strategie angesehen, bei der die Einbettung virtueller Netzwerke den Kern bildet. Daher wird ein virtuelles Netzwerkeinbettungsmodell zur Minimierung des Energieverbrauchs (VNEME) vorgeschlagen, das den Energieverbrauch als Einbettungsbeschränkungen betrachtet. VNEME wählt Knoten und Links aus, deren Lastspannungen zwischen zwei Schwellenwerten liegen, sodass die Knoten und Links unter bestimmten Schwellenwerten auf andere migriert und ausgeschaltet oder in den Ruhezustand versetzt werden können. Simulationsexperimente zeigen, dass der Energieverbrauch basierend auf dem vorgeschlagenen VNEME reduziert werden kann, wenn eine große Anzahl von VNs-Anfragen eingeht, aber das Akzeptanzverhältnis wenig beeinflusst wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-15554-8_53 ca40ff42e7f50f8287ad41dd1b20bc3e;de;;;1.3.;;;Eine wissenschaftliche Schreibpädagogik und Mixed-Methods-Assessment für die Ingenieurausbildung mit Open-Coding und multidimensionaler Skalierung Bewertungen neuer pädagogischer Praktiken beruhen normalerweise auf lehrerorientierten Umfragen und Fragebögen, um die Wahrnehmung der Lehrmethoden durch die Schüler zu messen, jedoch können feste Antwortkategorien in strukturierten Fragebögen die Ergebnisse verzerren. Dieser Beitrag demonstriert einen Mixed-Methods-Ansatz mit offenem und multidimensionalem Skalieren (MDS) für eine schülerorientierte explorative Analyse und Visualisierung von Wahrnehmungen von Lehrmethoden. Ein Kurs für wissenschaftliches Schreiben und Forschungsmethodik ist ein Pflichtkurs für Doktoranden im ersten Jahr in Softwaretechnik und Geoinformatik an der Universität Wuhan, China. Die Doktoranden, die diesen Kurs besuchten, kamen aus Ländern, deren Muttersprache nicht Englisch ist, und aus einer Vielzahl von Bereichen der Softwaretechnik und Geoinformatik. Das Problem bestand daher darin, unvermittelte Wahrnehmungen der Kurszuordnung zu entlocken, die resultierenden Daten für die Interpretation zu reduzieren und zu verallgemeinern. Eine grafische Visualisierung der Themen, die in den Antworten der Schüler auf zwei offene Fragen zu einer Aufgabe auftauchten, lieferte eine Grundlage für die Ableitung der Interessen und Bedürfnisse der Schüler. In diesem Kurs wurde eine Bewertung einer aufgabenorientierten Problemlösungserfahrung durch eine Mixed-Methods-Strategie implementiert, die qualitative Methoden, explorative Data-Mining-Techniken und kartografische Visualisierung umfasst. Die Visualisierung zeigt, dass die teilnehmenden Schüler die Übung im Allgemeinen als herausfordernd empfanden, ihnen half, die Anforderungen an das Journal zu verstehen und Wege zu entwickeln, Texte zu erheben, um Informationen zu extrahieren. Die Ergebnisse deuteten auch darauf hin, dass dieser Konsens in Bezug auf die eigenen Ziele, Domänen und Forschungsinteressen jedes Teilnehmers aufbricht. Unstrukturierte Fragen, offene Kodierung und MDS-Visualisierung können sich auch bei der Entwicklung und Bewertung anderer schülerzentrierter Pädagogik als hilfreich erweisen.;-;-;-;https://link.springer.com/article/10.1007/s10798-019-09504-w 267826150e88453382b00dc13c8a4d2f;de;;;1.3.;;;Professionelle und laienhafte Haltung gegenüber psychischen Erkrankungen und psychischen Patienten Nach übereinstimmenden Schätzungen und statistischen Daten nimmt die Zahl der psychischen Störungen in unserem Land zu. Jahr für Jahr wenden sich immer mehr Menschen wegen psychischer Probleme an Ärzte. Spezialpraxen, Ambulanzen und Krankenhäuser sind überfüllt und Fachärzte überfordert. Die Entwicklung der psychiatrischen Dienste kann mit den steigenden Anforderungen nicht Schritt halten. Im Gegenteil, es ist deutlich hinter andere Zweige des Gesundheitswesens zurückgefallen. Die Gesundheitserziehung hat nur der Prävention somatischer Erkrankungen Aufmerksamkeit geschenkt. Die psychische Gesundheit ist geblieben;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-1430-4_6 39f4ce4b1804a73d897dba3a8e1aa77d;de;;;1.1.;;;Mitarbeiterkommunikationsstrategien für organisatorische Krisen Vielleicht ist es für eine Organisation zu keinem Zeitpunkt wichtiger, sensibel und offen mit ihren Mitarbeitern zu kommunizieren als in einer Krise. Diese Bemühungen werden jedoch von der Sicht des Managements auf eine Krisensituation getrieben, die die stressbedingten Reaktionen der Mitarbeiter auf das Kommunikationsverhalten der Führungskräfte häufig nicht berücksichtigt. Dieser Beitrag stützt sich auf Forschungsergebnisse zu Lebenssituationen, Krisenmanagement, Kommunikation, Stress, Psychologie und Informationsverarbeitung, um die emotionalen, kognitiven und Informationsbedürfnisse von Mitarbeitern in Krisensituationen zu analysieren. Die Autoren stellen ein empfängerorientiertes „Employee Crisis Communication Model“ vor. Dieses Modell skizziert stressbedingte Wahrnehmungs- und Verhaltensreaktionen von Mitarbeitern auf große Krisen, die unter anderem ihre Fähigkeit zum Umgang mit Informationen und Entscheidungen ernsthaft beeinträchtigen können. Anschließend diskutieren die Autoren die Implikationen der Anwendung bestimmter Kommunikationsstrategien auf Krisenumgebungen.;-;-;-;https://link.springer.com/article/10.1007/BF01384980 6c3de2e2407843351f25ca064fa9123a;de;;;1.3.;;;Systematischer Ansatz zur Qualitätsbewertung der Hierarchiestruktur in der Bildung für die Entscheidungsfindung im Management Es wird eine systematische Methode zur Bewertung der Gesamtqualität der komplexen Hierarchiestruktur vorgestellt. Diese Qualitäten bilden die Marktfähigkeit der Umsetzung von voruniversitären Bildungsprogrammen ausländischer Studenten für die endgültige Entscheidungsfindung im Management. Die Gesamtqualität des Systems wird durch experimentell ermittelte Einzelqualitäten entsprechend den Hierarchiestufen mittels ihrer Resultierenden nach dem funktionalen Kolmogorov-Nagumo-Mittel gebildet. Das analysierte System wird in Form einer 4-stufigen Struktur mit 19 parametrischen Variablen dargestellt, die 15 Systemattribute definieren. Die vorgestellte Qualitätsbewertung wurde in Form von MathCad-Dateien realisiert, die nach der hierarchischen Struktur des Systems organisiert waren. Als zu bewertende Hauptkriterien wurden mehrere Eigenschaften unter Berücksichtigung von drei Kriterien ausgewählt: Marktfähigkeit der Marke der Bildungseinrichtung im Bildungsdienstleistungsmarkt, Potenzial der an der Realisierung des Bildungsprogramms beteiligten Lehrkräfte und finanzielle Stabilität Programm. Dieser Ansatz ermöglicht eine sofortige Erfassung von Änderungen der Expertenbewertung, um den subjektiven Aspekt der getroffenen Entscheidung zu minimieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-65551-2_27 af5b4602173283f3d2054d65973a074b;de;;;1.3.;;;Ein Rahmen für die Untersuchung von Kompetenzspezialisierung, Geschlechterungleichheit und Karriereförderung im Bereich der Informationssicherheit In diesem Beitrag wird ein laufendes Forschungsprojekt vorgestellt, das Karrierehindernisse für weibliche Informationssicherheitsfachkräfte untersucht. Die Studie schlägt vor, die erfolgskritischen Fähigkeiten im Bereich der Informationssicherheit zu identifizieren und geschlechtsspezifische Unterschiede in spezialisierten Fähigkeiten zu untersuchen. Das Papier bietet einen kurzen Überblick über IT-Arbeitskräftestudien mit besonderem Fokus auf geschlechtsspezifische Ungleichheitsprobleme. Das Forschungsdesign und die analytischen Methoden werden ebenfalls vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/11593980_24 28480143b7e0ddaea7338957c73e1483;de;;;1.3.;;;Lehrende Wahrnehmung von Virtual Reality als Lehr- und Lernplattform Virtual Reality (VR) wird zunehmend als nützliche Bildungsplattform anerkannt. In Südafrika wird VR jedoch hauptsächlich als Unterhaltungsplattform anerkannt. Daher wurden die potenziellen Vorteile von VR und die wahrgenommene Benutzerfreundlichkeit im südafrikanischen Hochschulumfeld nicht umfassend untersucht. Daher untersucht dieser Beitrag unter Verwendung des Technology Adoption Model (TAM) die wahrgenommene Nützlichkeit (PU) und Benutzerfreundlichkeit (PEOU) von VR durch Dozenten. Dieses Papier identifiziert auch die wahrgenommenen Herausforderungen bei der Einführung von VR als Lehr- und Lernplattform aus der Perspektive der Hochschulbildung und schlägt vor, wie diese Herausforderungen überwunden werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-05813-5_20 0b802070e930fca8ea29715ffc7167a5;de;;;1.3.;;;Referenzgruppen und subjektives wirtschaftliches Wohlergehen von Rentnern in Europa Diese Studie trägt zur interdisziplinären Debatte über die Auswirkungen des absoluten und relativen Einkommens auf das subjektive Wohlbefinden bei, indem sie Einkommensmaße auf Länderebene in die Analyse des wirtschaftlichen Wohlergehens von Rentnern einführt. Dabei wird sowohl die Relevanz alternativer Referenzgruppen für unterschiedliche Altersphasen, gemessen am Medianeinkommen, als auch der Effekt der allgemeinen Einkommensungleichheit innerhalb der Länder untersucht. Die Analysen basieren auf den Querschnittskomponenten der Erhebung European Union Statistics on Income and Living Conditions von 2005 bis 2011 mit Informationen zu 458.769 Rentnern aus 31 europäischen Ländern. Mit der mehrstufigen linearen Regressionsanalyse werden die Auswirkungen unterschiedlicher Einkommensmaße sowohl auf individueller als auch auf Länderebene analysiert. Das Hauptergebnis zeigt, dass das durchschnittliche Einkommensniveau der Rentner innerhalb der Länder Spillover-Effekte stark genug aufweist, um zu dem Schluss zu kommen, dass andere Rentner einen relevanten Bezugspunkt darstellen. Das hohe Einkommensniveau von Rentnern verringert die Angemessenheit des individuellen Einkommens unabhängig vom Alter. Die Ergebnisse zeigten auch, dass die Arbeitsmarktgruppe unterschiedliche Auswirkungen auf verschiedene Altersgruppen hat. Die allgemeine Einkommensungleichheit hat keinen Einfluss auf das subjektive wirtschaftliche Wohlergehen der Rentner.;-;-;-;https://link.springer.com/article/10.1007/s11205-016-1262-0 a5a08b33d0d90fdbbb46519aaa39fd61;de;;;1.3.;;;Identifizierung von Sicherheitsgefahren durch Missbrauchsfälle: Experimenteller Vergleich von Text und Diagrammen Generell werden sowohl Diagrammen als auch Texten ihre Vor- und Nachteile für die Darstellung von Use-Case-Modellen zugeschrieben, dies wird jedoch selten experimentell untersucht. Dieses Papier beschreibt ein kontrolliertes Experiment, bei dem wir die Identifizierung von Sicherheitsrisiken anhand von Missbrauchsfällen basierend auf Use-Case-Diagrammen und textuellen Anwendungsfällen vergleichen. Die Versuchsteilnehmer fanden Use-Case-Diagramme und textuelle Use-Cases gleichermaßen einfach zu handhaben. In den meisten Fällen konnten diejenigen, die textuelle Anwendungsfälle verwendeten, mehr Fehlermodi oder Bedrohungen identifizieren. Der Hauptgrund dafür scheint zu sein, dass Anwendungsfälle Analysten ermutigen, sich speziell auf Bedrohungen im Zusammenhang mit den im Anwendungsfall genannten Funktionen zu konzentrieren, und textliche Anwendungsfälle enthalten mehr funktionale Details als Diagramme. Der Fokus wird durch Informationen in jedem Anwendungsfall bestimmt, die somit die Anzahl der identifizierten Bedrohungen bestimmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87875-9_50 04191d5862626bc1988b816065a75db2;de;;;1.3.;;;Zur Robustheit multifraktaler Spektren gegenüber geometrischen Transformationen und Beleuchtung Segmentierungsansätze auf Basis einer regulären Region verwenden Farb- oder Intensitätsinformationen, um zwischen verschiedenen Regionen zu unterscheiden. Die Leistung solcher Verfahren ist für von Menschenhand geschaffene Objekte akzeptabel, da sie hauptsächlich aus regelmäßigen Formen und glatten Oberflächen bestehen. Die meisten natürlichen Objekte wie Berge, Bäume oder Wolken hingegen bestehen typischerweise aus komplexen, rauen und unregelmäßigen Oberflächen in 3D, die durch den Bilderzeugungsprozess in texturierte Bereiche auf der 2D-Bildebene umgewandelt werden. Wenn wir Bilder solcher Oberflächen automatisch segmentieren oder klassifizieren wollen, müssen wir einen Weg finden, das Wesen ihrer Struktur prägnant zu erfassen. Dies kann erreicht werden, indem die 3D-Informationen in Kombination mit der Textur des entsprechenden Bereichs auf der Bildebene verwendet werden. Eine Möglichkeit, diese Beziehung zu modellieren, ist die Fraktalanalyse, die sich als gute Darstellung natürlicher Objekte erwiesen hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25453-6_8 fcfbb7c4ba9e396f796ec5e736ee4a30;de;;;1.3.;;;Biomechanik und Laufökonomie Die Laufökonomie, die traditionell als Sauerstoffkosten beim Laufen bei einer bestimmten Geschwindigkeit gemessen wird, wurde als physiologisches Kriterium für eine „effiziente“ Leistung akzeptiert und als kritisches Element der Gesamtleistung beim Laufen identifiziert. Es gibt einen intuitiven Zusammenhang zwischen der Laufmechanik und den Energiekosten des Laufens, aber die Forschung hat bis heute kein klares mechanisches Profil eines wirtschaftlichen Läufers etabliert. Es scheint, dass Einzelpersonen durch Training in der Lage sind, ihre eigene einzigartige Kombination von Abmessungen und mechanischen Eigenschaften zu integrieren und anzupassen, damit sie zu einer für sie wirtschaftlichsten Laufbewegung gelangen.;-;-;-;https://link.springer.com/article/10.2165/00007256-199622020-00003 4c5921f21fac8638630d76e115378c18;de;;;1.3.;;;Die Welt für die Wirtschaft neu gestalten In ihren kühnsten Träumen hätten sich Führungskräfte der 1960er Jahre nie vorstellen können, was in den letzten Jahrzehnten passiert ist. Politische Führer beschäftigen sich nicht mehr mit der entfernten Möglichkeit eines Abdriftens in Richtung Sozialismus, sondern sehen sich nun als Neugestaltung der ganzen Welt nach dem Bild ihrer rechten Ideale. Politische Führer müssen sich nicht mehr um Demonstranten auf den Straßen kümmern, sondern schrecken vor nichts zurück, um sich um die Gunst der Wirtschaft zu schmeicheln. Steuern, ob von Reichen oder Konzernen, sind buchstäblich dahingeschmolzen, während die Last der Regierung zunehmend auf den Rücken der Mittelschicht fällt. Tatsächlich forderte die erste Regierung von George W. Bush schamlos Steuersenkungen und Deregulierung als Antworten auf praktisch alle Probleme, mit Ausnahme der realen und eingebildeten Probleme, auf die sich die Regierung in ihren Forderungen nach einer stärkeren Überwachung und Regulierung der persönlichen Daten der Menschen berief und politisches Verhalten.;-;-;-;https://link.springer.com/chapter/10.1057/9780230607064_5 63fe79535e853339975f5d7c4b58499f;de;;;1.3.;;;FDBMS-Antrag für eine Erhebung zur Bildungsleistung Es wurden wichtige Anstrengungen unternommen, um Fuzzy-Abfragefähigkeiten bereitzustellen. Dennoch nutzen derzeit zu wenige reale Systeme diese Arbeiten. Wir stellen hier einen Antrag zur Überprüfung der Ergebnisse einer periodischen studentischen Meinungsumfrage zur Bildungsleistung von Professoren vor. Diese Anwendung wurde mit SQLfi Fuzzy DBMS entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85654-2_67 7c1b15795aa045fc7b959df20d83dffe;de;;;1.3.;;;Auswirkungen der Transformation auf die Ungleichheit in Russland Die meisten Beobachter sind sich einig, dass die Ungleichheit in Russland dramatisch zugenommen hat und dass Ungleichheit wichtig ist. Aber es gibt viele Argumente, warum es wichtig ist. Die Schlüsselfrage betrifft die Auswirkungen der Transformation Russlands auf Ungleichheit und Armut. Marshall;-;-;-;https://link.springer.com/chapter/10.1057/9780230591028_9 e2e974d99a37afab213e1c0f9320c197;de;;;1.3.;;;E-Commerce Undergraduate-Trainingsmodus Die moderne Arbeitsteilung wird heute immer deutlicher. Wie gehen wir mit der peinlichen Situation um, dass die E-Commerce-Hauptstudenten umfangreiches, aber oberflächliches Wissen erworben haben? Die einzige Lösung besteht darin, die anwendungsorientierten E-Commerce-Talente auf der Basis von Universitäten zu fördern, was die Beschäftigungsquote von Elektrohandels-Hauptstudenten verbessern könnte. Aus Sicht der Studierenden soll in diesem Papier allen Universitäten empfohlen werden, Maßnahmen zu ergreifen, wenn die Umstände dies zulassen, und alle Arten von Ressourcen nach den Wünschen der Studierenden zu integrieren. Es wird ein völlig neuer Ausbildungsmodus für anwendungsorientierte E-Commerce-Studenten aus der Sicht der Ausbildungsleitung und des Innovationsmanagements diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-4856-2_5 4c59866e787110a175083bd4913c6c91;de;;;1.1.;;;Das Konzept der professionellen Skepsis Professionelle Skepsis ist ein grundlegendes Konzept in der Wirtschaftsprüfung, was durch ihre Bedeutung in den Prüfungsstandards und in der wissenschaftlichen Literatur deutlich wird. Die entscheidende Bedeutung der professionellen Skepsis ergibt sich daraus, dass sie gleichzeitig die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-08871-2_4 b6cd24ae135c4a21b0a514a384caa34e;de;;;1.1.;;;Teamklima, Teamkognition, Teamintuition und Softwarequalität: Die moderierende Rolle der Projektkomplexität Teams stellen einen vorherrschenden Ansatz dar, um Arbeit in der heutigen hyperkompetitiven Geschäftsumgebung zu erledigen. Obwohl allgemein angenommen wird, dass teambezogene Fähigkeiten den Erfolg neuer Produktentwicklungsprojekte bestimmen, gibt es nur wenige empirische Untersuchungen zu Teamfähigkeiten. Basierend auf der ressourcenbasierten Unternehmenssicht, der organisationalen Lerntheorie und der situierten Lerntheorie untersucht diese Studie die Wechselbeziehungen zwischen Teamklima, zwei Informationsverarbeitungsfähigkeiten (d. h. Teamkognition und Teamintuition) und Softwarequalität. Außerdem untersucht diese Studie den moderierenden Effekt der Projektkomplexität zwischen den Fähigkeiten der Informationsverarbeitung und der Qualität der Software. Bei der Untersuchung der Daten von 139 Softwareentwicklungsprojekten mit den Methoden der partiellen kleinsten Quadrate der Strukturgleichung stellten wir fest, dass das Teamklima einen direkten Einfluss auf die Teamkognition hat. Darüber hinaus zeigten die Ergebnisse, dass die Teamkognition positiv mit der Qualität des Softwareprodukts im Allgemeinen zusammenhängt, insbesondere wurde diese Beziehung als viel signifikanter festgestellt, wenn die Projektkomplexität als Moderator verwendet wurde. Dieses Ergebnis zeigt, dass die Fähigkeit des Softwareentwicklungsteams, Informationen logisch zu verarbeiten, um Situationen effektiv zu interpretieren, es dem Team ermöglicht, überlegene Softwareprodukte auf den Markt zu bringen, wenn unerwartete und unerwünschte Ereignisse ein Projekt kompliziert und schwierig machen. Insbesondere sollten Führungskräfte Teams ermutigen, von neuen Ideen zu profitieren und gemeinsame Anstrengungen zu unternehmen, um Ziele zu erreichen. Führungskräfte sollten Teams auch in die Lage versetzen, sich auf ihre Aufgaben zu spezialisieren und ihre kollektiven Informationsverarbeitungsfähigkeiten zu verbessern.;-;-;-;https://link.springer.com/article/10.1007/s10726-013-9367-1 eb1bd8f40d5c7cf99cee768301c69656;de;;;1.3.;;;Integration der automatisierten Steuerungssysteme in einem Fertigungsunternehmen Die strategische Entwicklung der russischen Fertigung beim Aufbau einer digitalen Wirtschaft und der Umsetzung von Industrie 4.0 wird analysiert. Die digitale Transformation der Industrie wird in Bezug auf neue Architekturmodelle und Standards betrachtet. Es wird ein praxisorientiertes Modell für die Vermittlung digitaler Kompetenz anhand eines virtuellen Fertigungsunternehmens vorgeschlagen.;-;-;-;https://link.springer.com/article/10.3103/S1068798X19120165 e21922010b9be9bda9d01f626534d230;de;;;1.3.;;;Forschung zum innovativen bildungspraktischen Lehrmodus elektronischer Informationen für herausragende Ingenieure Um der Forderung des „Plans zur Aus- und Weiterbildung herausragender Ingenieure“ gerecht zu werden und die Praxis- und umfassende Innovationsfähigkeit der Studierenden kontinuierlich zu verbessern, sollten wir die Bildungsreform weiter vertiefen. In diesem Beitrag wird ein neues System innovativer bildungspraktischer Lehre vorgestellt: die Reform von Lehrmethoden und Lehrideen zugleich. Die Lehrmethode setzt auf progressiven Unterricht, die Lehrphilosophie auf interaktives Lehren und wettbewerbsfähiges Lernen. Durch die Kombination beider werden wir ein virtuoses interaktives Lehrsystem aus „Klassenzimmerunterricht + Curriculumdesign + elektronischer Wettbewerb“ aufbauen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-93719-9_10 a02b45c013ab33b33ad208f7482299b1;de;;;1.1.;;;Untersuchung der Verarbeitung von Verbrauchernachrichten von angst- und herausforderungsbasierter Werbung: Ein konzeptioneller Rahmen. Der vorgeschlagene konzeptionelle Rahmen verbessert unser theoretisches Verständnis der kognitiven, emotionalen und verhaltensbezogenen Prozesse von Verbrauchern, die mit Aufrufen von Angst-/Herausforderungsnachrichten in einem sozialen Marketingkontext verbunden sind. Wir integrieren unterschiedliche Wissensgebiete aus den Bereichen Psychologie und Persönlichkeitsforschung und untersuchen moderierende Effekte individueller Unterschiede wie Erfahrungsvermeidung, Stresstoleranz und Identitätsstile auf die Informationsverarbeitung und das Verhalten bei einem kombinierten Angst-/Herausforderungsappell. Der vorgeschlagene theoretische Rahmen kombiniert ein Informationsverarbeitungskonstrukt mit einem überarbeiteten Schutzmotivationsmodell, um expliziter aufzuzeigen, wie kognitive Verarbeitung die Überzeugung von Angst-/Herausforderungsappellen beeinflusst. Der konzeptionelle Rahmen testet auch die vermittelnden Effekte von Reaktionseffizienz und Selbstverantwortung auf die Tiefe der Informationsverarbeitung und Einstellungsänderungen. Das Verständnis der komplizierten Details der Informationsverarbeitung sollte Social Marketer in die Lage versetzen, Nachrichten auf spezifische psychologische Profile von Kunden zuzuschneiden, um ihr Verhalten zu ändern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24184-5_103 41a57555cfa9e26337fdf73f69aba913;de;;;1.3.;;;Die Fragebogenbefragung zur Lehrmethode Video-Feedback zur Ausbildung der Bauchuntersuchung bei Medizinstudierenden Es sollte die Wirkung der Video-Feedback-Lehrmethode auf das Fertigkeitstraining für die körperliche Untersuchung des Abdomens bei Medizinstudenten untersucht werden. Eine kleine Klasse, 50 Studenten der Fachrichtung Klinische Medizin an der medizinischen Hochschule der China Three Gorges University, wurde nach dem Zufallsprinzip ausgewählt und die Video-Feedback-Lehrmethode wurde verwendet, um die traditionelle Lehrmethode zu ersetzen. Jeder Schüler erhielt 2 Wochen nach der experimentellen Klasse einen Fragebogen. Der Schüler akzeptierte weitgehend die Video-Feedback-Lehrmethode und dachte, dass die Video-Feedback-Lehrmethode das Interesse der Schüler wecken und den Schülern ermöglichen kann, mehr zu gewinnen. Es ist vorteilhafter, die Lerneffizienz, Aggressivität und Unabhängigkeit des Schülers zu erhöhen, als die traditionelle Lehrmethode. Die Video-Feedback-Lehrmethode erfordert jedoch, dass die Schüler mehr außerschulische Zeit für das Fertigkeitstraining aufwenden. Die Video-Feedback-Lehrmethode ist eine anwendbare Lehrmethode für das klinische Kompetenztraining von Medizinstudenten. Diese Methode kann die Motivation und den Enthusiasmus der Schüler stärker steigern und die Trainingseffizienz im Vergleich zur traditionellen Lehrmethode verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_333 1a707635e642375c66c422c64d077ddb;de;;;1.3.;;;c3d.io: STEAM (Wissenschaft, Technologie, Ingenieurwesen, Kunst, Mathematik) Bildung mit Virtual Reality ermöglichen Als Lehrplan der Zukunft haben Coding, VR und 3D-Druck Einzug in die K-12-Klassenzimmer gehalten. Trotz ihrer Erwartungen, das Lernen der Schüler zu verbessern, gehören viele Lektionen rund um den Einsatz dieser Technologien zur „einmaligen“ Vielfalt ohne eine übergreifende integrierte Pädagogik. c3d.io ist eine webbasierte, blockorientierte Programmierplattform, die es einfach macht, mit wenigen Klicks 3D-Umgebungen zu erstellen. Mit Funktionen wie dem Importieren externer Assets, stereoskopischem Rendering, Echtzeit-Head-Tracking und Smartphone-Bereitstellung ermöglicht c3d.io die Erstellung von unterhaltsamen, integrierten, erforschungsbasierten Projekten (wie das oben beschriebene) für K-12-Schüler. Mit Googles Blockly und Javascript als Hauptsprache ist das System sowohl von Lehrern als auch von Schülern extrem einfach zu bedienen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-01177-2_104 ef7314952c144ef211c78c07de38fbe2;de;;;1.3.;;;Analyse von Abhängigkeiten zwischen spezifischen Praktiken im CMMI-Reifegrad 2 CMMI enthält eine Sammlung von Prozessbereichen (PAs), von denen jeder viele spezifische Praktiken (SPs) enthält. Die CMMI-Spezifikation gibt jedoch keine explizite Empfehlung, welche einzelnen SPs vor anderen SPs implementiert werden können oder sollen. In diesem Papier identifizieren wir Abhängigkeiten zwischen CMMI SPs in PAs im Reifegrad 2 und zwischen den PAs. Wir haben den Text der CMMI-Spezifikation analysiert, um jedes Arbeitsprodukt (WP) zu identifizieren, das von jedem SP in Reifegrad 2 produziert und verwendet wird. Unsere Analyse wurde von unabhängigen Forschern validiert und mit einer bestehenden Abhängigkeitsanalyse in CMMI-Schulungsmaterialien verglichen. Unsere Ergebnisse sind als Referenzmodell für SP- und PA-Abhängigkeiten sowohl für SPI-Forscher als auch für Praktiker von Bedeutung. Für Forscher haben wir eine explizite Darstellung von SP- und PA-Abhängigkeiten bereitgestellt, die bisher nur in der CMMI-Spezifikation implizit enthalten waren. Für Praktiker können unsere Ergebnisse eine Orientierungshilfe für die Reihenfolge der Implementierung von SPs und PAs sein. Unsere Abhängigkeitsanalyse hat Einschränkungen, da sie aus dem Text der CMMI-Spezifikation abgeleitet werden kann – wir haben keine direkten Beweise dafür, dass diese Abhängigkeiten in der Praxis gültig sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85936-9_9 66cf3b6f0a99a54c6d797edb3030da5a;de;;;1.3.;;;Statistische Musikmodellierung zur Identifizierung und Ausrichtung Dieser Beitrag beschreibt eine Methodik zur statistischen Modellierung von Musikwerken. Ausgehend von der Darstellung der symbolischen Partitur oder der Tonaufnahme einer Aufführung wird ein Hidden-Markov-Modell erstellt, um das entsprechende Musikwerk darzustellen. Das Modell kann verwendet werden, um unbekannte Aufnahmen zu identifizieren und mit dem entsprechenden Score abzugleichen. Die experimentelle Auswertung anhand einer Sammlung klassischer Musikaufnahmen zeigte, dass dieser Ansatz sowohl hinsichtlich der Identifizierung als auch der Ausrichtung effektiv ist. Die Methodik kann als Kernkomponente für eine Reihe von Werkzeugen genutzt werden, die darauf abzielen, auf eine Musiksammlung zuzugreifen und sie aktiv anzuhören.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11674-2_9 af75ce94eec07f600187a841160c3607;de;;;1.3.;;;Trends und Probleme in Lernen, Design und Technologie In letzter Zeit ist der Einfluss digitaler Technologien auf das tägliche Leben der Menschen unbestritten. Geräte wie Computer und Smartphones sind heute Teil der zwischenmenschlichen Kommunikation, Arbeit, Unterhaltung und sogar des Lernens. Interessanterweise kann das Lernen mit diesen Technologien auf formaler Basis erfolgen, z. B. wenn Schüler Simulationen verwenden, um komplexe Inhalte in der Physik zu verstehen, oder auf informeller Basis, indem die Lernenden Online-Tutorials ansehen, um die grundlegenden Fähigkeiten einer Bildbearbeitungssoftware zu erlernen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-4430-5_1 28911baa6916f19c0650b94f1818afd4;de;;;1.3.;;;Ein Framework zur groben satzbasierten Auswahl von Partitionierungsattributen In diesem Papier konzentrieren wir unsere Diskussion auf die grobe mengenbasierte Auswahl von Partitionierungsattributen. Zunächst weisen wir darauf hin, dass die Aussage der MMR-Technik eine Erweiterung der Mazlack-Technik ist, unvernünftig ist. Wir beweisen, dass die mittlere Rauheit der MMR-Technik nur das Gegenteil der TR-Technik von Mazlack ist. Zweitens beobachten wir, dass der Vorschlag von MMR, eine geringere Rechenkomplexität zu erreichen, indem die Rauheitsmessung basierend auf der Beziehung zwischen einem;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04020-7_11 e83d0161af0e8aec6fa26a3c19c6f341;de;;;1.1.;;;Ein Forschungs- und Bildungsrahmen für IKT/S-Dienstleistungsmanagement In diesem Papier wird erläutert, wie ein erweitertes Informationsmanagement-Framework maßgeblich dazu beitragen kann, das ICT/S-Service-Management zu ermöglichen. Darüber hinaus wird gezeigt, wie dieses Framework die Grundlage für einen neuen ICT/S Services Management Studiengang im Curriculum Informationsmanagement der K.U. Leuven bildet.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-76578-5_32 70703342b4492edecfac090cde1920a3;de;;;1.3.;;;Eine Klasse neuartiger Kernel-Funktionen Dieses Papier schlägt eine Art neuartiger Kernelfunktionen vor, die aus den reproduzierenden Kernen von Hilbert-Räumen erhalten werden, die mit einem speziellen inneren Produkt verbunden sind. SVM mit den vorgeschlagenen Kernelfunktionen benötigen nur weniger Unterstützungsvektoren zum Konstruieren einer Zweiklassen-Hyperebene als die SVM mit Gaußschen Kernelfunktionen, sodass die vorgeschlagenen Kernelfunktionen die bessere Verallgemeinerung aufweisen. Schließlich werden SVM mit reproduzierenden und Gaußschen Kerneln jeweils auf zwei Benchmark-Beispiele angewendet: die bekannten Brustkrebsdaten aus Wisconsin und der künstliche Datensatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88906-9_24 9bbab2e898d27b492e210fb867995f8d;de;;;1.3.;;;Entwicklung eines Vererbungsassistenzsystems zum Erleben von Bedienfertigkeiten unter Nutzung einer haptischen Funktion von PHANToM Gegenwärtig werden mehrere kommerziell erhältliche chirurgische Simulatoren in fortgeschrittenen medizinischen Einrichtungen verwendet, und die meisten von ihnen bieten eine selbstlernende Umgebung für Auszubildende, die junge Ärzte und/oder Assistenzärzte sind. Daher gehen wir davon aus, dass unerfahrene Ärzte die langjährigen Fähigkeiten erfahrener Ärzte erben müssen, denn der Mangel an Ärzten und Pflegepersonal ist eines der gravierendsten medizinischen Probleme. In diesem Artikel wird eine Trainingsfunktion an einem chirurgischen Simulatorsystem vorgeschlagen, die es den Auszubildenden ermöglicht, die Gefühle erfahrener Chirurgen während der Operation zu spüren. Die von uns aufgebaute Erbschaftshilfefunktion könnte helfen, die fehlende Erfahrung junger Ärzte auszugleichen und effektiver als das derzeitige System sein. Die Erbschaftsassistenzfunktion ermöglicht es, die Betriebsdaten erfahrener Ärzte zu erfassen und in einer Ausbildungsszene für junge Auszubildende wiederzugeben. Dann konnten junge Ärzte ihre eigenen Fähigkeiten trainieren, indem sie die aufgezeichneten Beratungsdaten in einem Operationssimulator intuitiv referenzierten. Um den Zweck dieser Studie zu erfüllen, haben wir ein grundlegendes System konstruiert. Ein einfaches virtuelles Objekt auf Basis eines dynamischen Modells reagiert hinsichtlich Visualisierung und Kraft auf die Manipulation einer virtuellen Pinzette über ein haptisches Gerät, PHANToM. Mehrere Laborstudenten des Versuchsgegenstandes wurden herausgefordert, eine Ausbildung mit dem entwickelten System zu erhalten. Dieser Artikel beschreibt das System und diskutiert die Ergebnisse und zukünftige Arbeiten.;-;-;-;https://link.springer.com/article/10.1007/s10015-010-0789-4 e4c4d76019344990651f4faec4a46477;de;;;1.3.;;;Modellierung der Programmierfähigkeiten von Schülern in einem pädagogischen Empfehlungssystem In diesem Beitrag stellen wir einen sogenannten überwachten Bildungsempfehlungsrahmen vor, der darauf abzielt, einem Schüler Programmieraufgaben zu empfehlen, die seine Fähigkeiten und seine Leistung verbessern. Das Hauptproblem dieses Ansatzes ist ein geeignetes Studentenmodell bzgl. seine Fähigkeiten und andere implizite Faktoren. Das Schülermodell lässt sich aus den vom Schüler bereitgestellten Lösungen und der (textlichen sowie numerischen) Bewertung dieser Lösungen durch den Lehrer ableiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38844-6_49 6935db3c2f78eae7f91d71ee79a7fd9f;de;;;1.3.;;;Prozedurales medizinisches Training in VR in einer intelligenten virtuellen Universitätsklinik Ein smartes virtuelles Universitätsklinikum, das ein reales abbildet, kann Studierende auf den direkten Patientenkontakt vorbereiten und Möglichkeiten für die klinische Praxis bieten. Ein solches virtuelles Krankenhaus wird das Lernen der Studenten unterstützen, indem es adaptive und flexible Lösungen bietet, um eine Vielzahl von klinischen Situationen im eigenen Tempo zu üben. Dieses Papier baut auf einer früheren Forschung zum Konzept der Smart Virtual University auf und untersucht die Möglichkeiten der medizinischen Verfahrensausbildung mit Virtual Reality. Ein Szenario mit Fokus auf präoperativem neurochirurgischem Vorgehenstraining wurde entwickelt und getestet. Das Verfahrenstraining wurde mit realen medizinischen Daten (MRT und Ultraschall) ergänzt. Die Rückmeldungen aus den Tests waren im Allgemeinen positiv, sowohl in Bezug auf die allgemeine Benutzererfahrung als auch auf die erwarteten Lernergebnisse. Das Papier stellt das Umsetzungsverfahren, die Evaluierungsergebnisse vor und skizziert die Richtungen für die zukünftige Arbeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-92363-5_12 4316474d37ab2f3de3690500c8f6929d;de;;;1.3.;;;Evaluation von Computersimulation und Computeranimation als eLearning-Tools in Biophysik-Vorlesungen und im Selbstlernprozess von Medizinstudierenden E-Learning-Tools der Computersimulation und Computeranimation in der Biophysik wurden eingesetzt, um Medizinstudierende in der Vorlesung und in ihrer Selbstlernphase zu unterstützen. In einer elektronischen Befragung mit sieben Fragen bewerteten Studierende (N=106) beide Arten von Neuen Medien, den Einsatz in Vorlesungen und zum Selbstlernen sowie den Anteil der Neuen Medien in der Lehre und deren Einfluss auf das Lernen. Der Einsatz von Simulation und Animation zu Demonstrationszwecken in Vorlesungen wurde allgemein sehr gut angenommen, wohingegen die interaktive Nutzung von Simulationen durch die Studierenden selbst deutlich niedriger bewertet wurde. Wir teilten die Studierendenkohorte in fünf Untergruppen hinsichtlich ihrer Vorkenntnisse in Physik ein. Wir haben festgestellt, dass die aktive Nutzung des „virtuellen Labors“ gerade von Studierenden mit geringen Vorkenntnissen weniger angenommen wird. Im Allgemeinen scheinen Schüler solche Lehr- und Lernhilfen leicht zu integrieren, aber eher als Leistung denn als dominante neue Lernmethode in Hype-Manier.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29305-4_450 b1d05d0ec9c39dee2cb72521799d694e;de;;;1.3.;;;BLDA-Ansatz zur Klassifizierung des P300-Potenzials Brain-Computer-Interface (BCI) bietet dem Gehirn einen neuen Kommunikations- und Kontrollkanal zur Übermittlung von Nachrichten und Befehlen an die Außenwelt. BCIs erfordern eine effektive Online-Verarbeitung von EEG oder P300, die nur 300 ms nach dem Ereignis aufgetreten sind. In diesem Papier verwenden wir eine Methode der Bayesschen Linearen Diskriminanzanalyse (BLDA), um P300-Signale aus dem Datensatz von BCI Competition III zu klassifizieren. P300 werden erhalten, wenn die Probanden einem Bildschirm gegenüberstanden, auf dem blitzende Objekte angezeigt wurden. Vor dem Training eines Klassifikationsparameters für die BLDA wurden mehrere Vorverarbeitungsoperationen auf die Daten angewendet, einschließlich Filterung, Probeextraktion et al. Mit dem BLDA-Algorithmus könnte die Klassifizierungsgenauigkeit in unserem Experiment bis zu über 80% betragen, abhängig von den gemittelten Versuchszeiten und dem SNR der Daten. Zusammenfassend lässt sich sagen, dass es geeignet ist, LDA im P300-basierten BCI-System zu verwenden, und LDA wird eine vielversprechende Methode sein, um Merkmale für BCI-Designs zu extrahieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79039-6_86 8d9e0181c71fe14dad8793d7aba335ad;de;;;1.1.;;;Auf dem Weg zu einer Architekturmodellierungssprache für vernetzte Organisationen Referenzmodelle für kollaborative vernetzte Organisationen (CNOs) befinden sich in der Entwicklung, aber Enterprise Architecture Modeling Languages ​​(EAMLs) für CNOs sind sehr wenige. Das Fehlen von Referenzmodellen erschwert die Kommunikation zwischen den Menschen und das Fehlen von EAMLs erschwert auch die Implementierung von Informationssystemen, die CNOs unterstützen. Zur Anreicherung von Referenzmodellen und EAMLs für CNO entwickeln wir Modellierungskonstrukte einer EAML. Es unterstützt (1) Multi-Level-Modellierung basierend auf der Model-Driven Architecture von OMG für ausdrucksstarke und einfache Implementierung und (2) Multi-Foeus-Modellierung basierend auf Zachman Framework für eine vollständige Modellierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-73798-0_32 fd6744d575e61cedaf69f39228a620de;de;;;1.1.;;;Emotionen und Organisationskultur Organisationskultur ist die Summe aller bewussten und unbewussten Elemente, die in Unternehmen als Regel oder Norm erlebt werden. Ein Überblick über drei Konzeptualisierungen von Organisationskultur von Schein, Müller und LaLoux veranschaulichen unterschiedliche Sichtweisen und die Relevanz von Kultur im Kontext der digitalen Transformation. Die Interdependenz von Kultur und Change Management wird in einer Beschreibung und Erläuterung der Rolle von Emotionen und den entsprechenden kulturbezogenen „Display Rules“ erläutert. Schließlich werden Konzepte für die Gestaltung und Veränderung der Organisationskultur, einschließlich Emotionen, bereitgestellt. Die zentrale Erkenntnis ist, dass Emotionen innerhalb und zwischen Teams oder Gruppen Menschen dazu motivieren, bestimmte Aktivitäten auszuführen, die sich auf bestimmte Situationen in der Gruppe beziehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-33489-5_3 bdb1cba330cfcf670ee908e1acc0e155;de;;;1.1.;;;Strategische Entscheidungsfindung im globalen Kontext: Der Verständniseffekt des Fremdsprachengebrauchs auf die Zusammenarbeit Mit zunehmender Globalisierung kommunizieren immer mehr Menschen in Fremdsprachen, wenn sie strategische Entscheidungen treffen. Wir entwickeln ein theoretisches Modell, in dem das Verstehen einen wesentlichen Mediator für die Auswirkungen des Fremdsprachengebrauchs auf die Zusammenarbeit in globalen Geschäftskontexten darstellt. Um konzeptionelle Mehrdeutigkeiten aufzulösen, trennen wir die zum Verständnis führende Informationsverarbeitung von der Entscheidungsfindung anhand der zuvor erfassten Informationen. Im ersten Schritt zeigen wir, wie die Verwendung einer Fremdsprache, abhängig von den jeweiligen Fremdsprachenkenntnissen, sowohl ein tieferes als auch ein höheres Verständnis auslösen kann. Variation im Verständnis wird in einem zweiten Schritt und unabhängig von ihrer Ursache negativ mit den Kooperationstendenzen des Einzelnen in Verbindung gebracht. Unsere experimentellen Ergebnisse unterstützen unsere Theorie. Diese Studie liefert neue Mikrogrundlagen für strategische Entscheidungen und diskutiert unzuverlässige Kooperation als potenziell destruktive Führungsgruppendynamik in fremdsprachlichen Kontexten.;-;-;-;https://link.springer.com/article/10.1007/s11575-020-00412-z 18644a33f7de61e38feced098c4aad1a;de;;;1.3.;;;Überprüfung des Bewertungssystems für verzögerte Menarche basierend auf morphologischen Unterschieden bei koreanischen Frauen female In der vorliegenden Studie wurde die verzögerte Menarche bei koreanischen Frauen individuell anhand des Intervalls zwischen dem Alter bei der Menarche und dem Alter bei der maximalen Spitzengeschwindigkeit (MPV) der Höhe, abgeleitet durch die Wavelet-Interpolationsmethode (WIM), verifiziert. Für koreanische Frauen wurde jedoch kein Bewertungssystem für eine verzögerte Menarche eingerichtet. Aus diesem Grund wird das Bewertungssystem für die verzögerte Menarche aus einer Regressionsanalyse zwischen dem Alter bei der Menarche und dem Alter bei MPV der Höhe abgeleitet. Die Gesundheitszeugnisse von 400 koreanischen Frauen im zweiten Jahr an einer High School wurden von der ersten Klasse der Grundschule bis zum zweiten Jahr der High School (von 1997 bis 2008) überprüft. Die Längsschnittdaten der Körpergröße wurden aus den Gesundheitsuntersuchungsunterlagen gewonnen. Das Alter bei der Menarche wurde durch Fragebögen und Interviews recherchiert. Schließlich wurden 391 Probanden mit vollständigen Daten für die Analyse verwendet. Für die Auswertung bei verzögerter Menarche wurden Least-Squares-Approximationspolynome des Alters bei der Menarche für das Alter bei MPV der Höhe erster bis dritter Ordnung konstruiert, und die Regressionsgleichung zweiter Ordnung war gültig. Daher wurde die quadratische Regressionsbewertung des Alters bei Menarche für das Alter bei MPV der Höhe für jede Person angewendet. Die morphologischen Faktoren des Typs fettdünner Körper und groß-kleiner Körper hatten keinen Einfluss auf die Beurteilung einer verzögerten Menarche. Obwohl beim Typ mit geringer Höhe kein signifikanter Unterschied festgestellt wurde, war jedoch ein kleiner signifikanter Unterschied (;-;-;-;https://link.springer.com/article/10.1007/s11332-009-0082-x 83fe097cd2751e0a8b622943c811a6cd;de;;;1.3.;;;Charakter- und Verhaltenskomponenten von Lehrkräften in der Neurochirurgie Wir müssen uns einer großen zeitgenössischen Gefahr bewusst sein: dass die Wissenschaften dazu neigen, die Geisteswissenschaften zu mechanisieren und sie obsolet erscheinen zu lassen, viel mehr als die Geisteswissenschaften die Naturwissenschaften vermenschlichen können (Stanlis). Es wäre ein großer Fehler, wenn wir glauben würden, dass unser Leben ohne die schönen Künste und die Geisteswissenschaften vollständig sein könnte. Ich bin überzeugt, dass ein besseres Verständnis der humanistischen Kultur unser Verhalten und unseren Charakter verbessert und somit einen großen Beitrag zur Weiterentwicklung unseres Berufs leistet.;-;-;-;https://link.springer.com/article/10.1007/BF01809360 550b17b8272452bd5087dbd0e4edf1ff;de;;;1.3.;;;Robustes RVM basierend auf Spike-Slab Prior Obwohl die Relevance Vector Machine (RVM) die beliebtesten Algorithmen für maschinelles Lernen und Computer Vision ist, machen Ausreißer in den Trainingsdaten die Schätzung unzuverlässig. In dem Papier wird ein robustes RVM-Modell unter einem nicht-parametrischen Bayes-Framework vorgeschlagen. Wir zerlegen den Rauschterm im RVM-Modell in zwei Komponenten, einen Gaußschen Rauschterm und einen stacheligen Rauschterm. Daher wird angenommen, dass die beobachteten Daten wie folgt dargestellt werden:;-;-;-;https://link.springer.com/article/10.1007/s11767-012-0873-0 52a1a097d6e8707f2895aa4c978c59c5;de;;;1.3.;;;Plasmaglukosestoffwechsel während des Trainings beim Menschen Plasmaglukose ist eine wichtige Energiequelle beim trainierenden Menschen und liefert zwischen 20 und 50 % der gesamten oxidativen Energieproduktion und zwischen 25 und 100 % der gesamten oxidierten Kohlehydrate während submaximaler Belastung. Die Plasmaglukoseverwertung steigt mit der Intensität des Trainings aufgrund einer Erhöhung der Glucoseverwertung durch jede aktive Muskelfaser, einer Erhöhung der Anzahl aktiver Muskelfasern oder beidem. Die Plasmaglukosenutzung steigt auch mit der Dauer der Belastung, wodurch die fortschreitende Abnahme der Muskelglykogenkonzentration teilweise kompensiert wird. Beim Vergleich bei gleicher absoluter Trainingsintensität (d. h. gleichem V̇O;-;-;-;https://link.springer.com/article/10.2165/00007256-199111020-00003 72627b03f99fd9cddf13b6c68c72eb67;de;;;1.1.;;;Schlussfolgerungen und Ausblick auf die Forschung für multidisziplinäres Engineering für Cyber-Physical Production Systems Dieses Kapitel fasst und reflektiert das in diesem Buch präsentierte Material zu Herausforderungen und Lösungen für die erforderliche Informationsverarbeitung und -verwaltung im Kontext des multidisziplinären Engineerings von Produktionssystemen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-56345-9_17 c5667046a525541cd267021d503e440e;de;;;1.1.;;;Kognitive und Aufmerksamkeitsprozesse in Persönlichkeit und Intelligenz Das Ziel dieses Kapitels ist es, Fortschritte bei der Verknüpfung von Intelligenz und Persönlichkeit mit Konstrukten zu diskutieren, die auf der Theorie der Informationsverarbeitung basieren. Es gibt umfangreiche Forschungen zu Korrelationen zwischen Indizes von informationsverarbeitenden Funktionen und psychometrischen Intelligenz- und Persönlichkeitsmaßen, obwohl Intelligenz und Persönlichkeit relativ selten in derselben Studie bewertet werden. Aufgrund des korrelativen Charakters der Beweise müssen wir vorsichtig vorgehen, um Schlussfolgerungen daraus zu ziehen, und beginnen daher mit einem Überblick über die damit verbundenen Interpretationsprobleme.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-5571-8_18 eacbd5402aada70d6d0b01dc78b3d30c;de;;;1.3.;;;Aufbau eines Qualitätsbewertungssystems zur Nachverfolgung der Personalausbildung in höheren Berufsschulen basierend auf Computermodellierung Mit der Aufwertung der Industriestrukturen und der Entwicklung der Industriekette haben einige höhere Berufsschulen einige Probleme, wie die schlechte Fachentwicklung, die schwache Fähigkeit zur kollaborativen Entwicklung zwischen den Fachrichtungen und die schlechte Ressourcenteilung usw. Es ist ein effektiver Weg, diese Probleme zu lösen, indem die Fachgruppe der Dienstleistungskette aufgebaut und der Ausbildungsmodus der Fachgruppe untersucht wird. Am Beispiel der Fachgruppe Schienenverkehr analysiert dieser Beitrag die Bauformen der Industriekette und der Fachgruppe Schienenverkehr und stellt den Entwicklungspfad und die Sicherungsmaßnahmen der integrierten Ausbildung für die Fachgruppe der der Bahnverkehr.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-15740-1_21 2a2229ddc5cd93d0ca128e87dab4e431;de;;;1.3.;;;Die Anwendungen von vagen weichen Sets und verallgemeinerten vagen weichen Sets Das Problem der Entscheidungsfindung in einem ungenauen Umfeld hat in den letzten Jahren eine überragende Bedeutung erlangt. In diesem Papier definieren wir eine vage weiche Relation und ein Ähnlichkeitsmaß für vage weiche Mengen. Unter Verwendung dieser Definitionen wurden einige neuartige Methoden der Objekterkennung aus ungenauen Multiobserver-Daten vorgestellt. Darüber hinaus führen wir den Begriff der generalisierten vagen weichen Mengen ein und untersuchen einige seiner Eigenschaften. Das Ähnlichkeitsmaß verallgemeinerter vager weicher Mengen wird ebenfalls vorgestellt und eine Anwendung dieses Maßes bei Entscheidungsproblemen gezeigt.;-;-;-;https://link.springer.com/article/10.1007/s10255-015-0517-x 0a35f31c0509c21e0ccf452efc9520e2;de;;;1.3.;;;Informationskausalität Wir überprüfen die Literatur zum Prinzip der Informationskausalität (IC). IC gehört zu den Versuchen, die Quantenphysik von physikalischen Prinzipien neu abzuleiten. Im Gegensatz zu den meisten Rekonstruktionssätzen, die davon ausgehen, dass einige (sonst nicht charakterisierte) Messungen alle verfügbaren Informationen liefern, wird IC als geräteunabhängige Kommunikationsaufgabe formuliert. Als solche konnte sie nur hoffen, die von der Quantenphysik vorhergesagten Korrelationen wiederherzustellen, nicht den Hilbert-Raumformalismus selbst. Die erste bemerkenswerte Leistung von IC war die Ableitung der Tsirelson-Schranke für die Clauser-Horne-Shimony-Holt-Ungleichung ohne Hilbert-Raum-Formalismus. Danach liegen weitere Ergebnisse für bipartite Szenarien vor, die die Möglichkeit offen lassen, dass IC die Quantenmenge exakt definieren kann. Wenn das bipartite IC-Kriterium jedoch auf multipartite Szenarien angewendet wird, stellt es die Quantenmenge definitiv nicht wieder her: Die Möglichkeit einer multipartiten Generalisierung von IC ist eines der noch offenen Herausforderungen. Auch das Prinzip der IK hat seit seiner Einführung verfeinerte Formulierungen erhalten, von denen eine hier zum ersten Mal vorgestellt wird (nämlich dass alle bisher erhaltenen Ergebnisse gelten, wenn;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-7303-4_12 55907bec32fe108b38a84a3d565aaf79;de;;;1.3.;;;Multi-Beschichtungs-basiertes Grobset-Modell In diesem Beitrag werden sechs Typen optimistischer Multi-Covering-Rough-Set-Modelle und sechs Typen pessimistischer Multi-Covering-Roh-Set-Modelle im Multi-Covering-Approximationsraum vorgeschlagen. Aus drei verschiedenen Blickwinkeln werden Beziehungen zwischen Multi-Covering-Rough-Set-Modellen eingehend untersucht. Sie sind Beziehungen zwischen optimistischen Multi-Covering-Rough-Set-Modellen, Beziehungen zwischen pessimistischen Multi-Covering-Rough-Set-Modellen und Beziehungen zwischen optimistischen und pessimistischen Multi-Covering-Rough-Set-Modellen. Die gewonnenen Ergebnisse liefern eine theoretische Grundlage für die weiteren Diskussionen zu Multi-Covering-Rough-Sets.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41218-9_25 a0b6a205513af9949c3debcc2b8ed8b8;de;;;1.3.;;;Steuerbarkeit von Booleschen Steuernetzwerken, die Zustände vermeiden In diesem Papier wird das Boolesche Kontrollnetzwerk (BCN) unter Verwendung des Halbtensorprodukts und der Vektorform von Booleschen logischen Variablen als bilineares diskretes Zeitsystem über Zustands- und Kontrollvariablen ausgedrückt. Ausgehend von der algebraischen Form werden die Erreichbarkeit und Kontrollierbarkeit unter Vermeidung unerwünschter Zustände diskutiert. Die hier diskutierte Erreichbarkeit und Steuerbarkeit unterliegen bestimmten Beschränkungen und die Definitionen von Erreichbarkeit und Steuerbarkeit, die unerwünschte Zustände vermeiden, haben praktische Bedeutung. Auch sind die notwendigen und hinreichenden Voraussetzungen für Erreichbarkeit und Kontrollierbarkeit gegeben. Schließlich wird die Steuersequenz konstruiert, die einen Zustand in einen anderen steuert.;-;-;-;https://link.springer.com/article/10.1007/s11432-013-4839-0 6ea849c4ccffbf970c79c8eeab318602;de;;;1.3.;;;Schlangenmodell zur Extraktion der Lössschulterlinie aus DEMs Schulterlinien sind die wichtigsten Landformabgrenzungen für die geografische Analyse, Bodenerosionsmodellierung und Landnutzungsplanung im Gebiet des Lössplateaus in China. Dieses Papier schlägt eine automatische, effektive und genaue Methode zur Bestimmung der Lössschulterlinie aus DEMs vor, indem ein hydrologischer D8-Algorithmus und ein Schlangenmodell integriert werden. Die Grenzlinie der Wasserscheide wird als anfängliche Kontur angenommen, die sich entwickelt, um die genaue Position der Lössschulterlinie durch die Führung einer externen Kraft des Schlangenmodells von DEMs zu identifizieren. Experimente zeigen, dass das Verfahren die Schwierigkeiten sowohl bei der Schwellenwertauswahl für die Kantenerkennung als auch die Probleme beim Trennen früherer Extraktionsansätze überwindet. Die Genauigkeitsauswertung der Schulterlinienkarten der beiden Testgebiete des Lössplateaus zeigt deutliche Verbesserungen bei der Extraktion. Der durchschnittliche Konturanpassungsabstand des neuen Verfahrens beträgt 12,0 m bei 5 m Auflösung DEM und zeigt eine Verbesserung der Genauigkeit und Kontinuität. Die Vergleiche der Genauigkeitsbewertungen der beiden Teststandorte zeigen, dass das Schlangenmodellverfahren im Lössebenenbereich besser abschneidet als im Bereich mit hoher Rinnendichte.;-;-;-;https://link.springer.com/article/10.1007/s11629-013-2484-0 459489df14988948660ff8d5c9a5df93;de;;;1.1.;;;Das Zwei-Perioden-Modell der rationalen Unaufmerksamkeit: Beschleunigungen und Analysen Dieses Papier demonstriert die Eigenschaften und eine Lösungsmethode für das allgemeinere Zwei-Perioden-Modell der rationalen Unaufmerksamkeit von Sims (Rational inattention: A research agenda, 2006). Es wird gezeigt, dass das entsprechende Optimierungsproblem konvex ist und sehr schnell gelöst werden kann. Dieses Papier demonstriert auch ein Rechenwerkzeug, das sich gut für die Lösung von Modellen der rationalen Unaufmerksamkeit eignet, und veranschaulicht weiter eine Kritik, die in Sims (Rational inattention: A research agenda, 2006) bezüglich rationaler Unaufmerksamkeitsmodelle vorgebracht wurde, deren Lösungen parametrische Formulierungen annehmen, anstatt nach ihrer optimal abgeleiteten aufzulösen , nicht parametrische Gegenstücke.;-;-;-;https://link.springer.com/article/10.1007/s10614-008-9151-5 40a7f6befd5b2d36be735023f8a4c4e5;de;;;1.1.;;;Die JSM-Methode und Modifikationsrechnung Es wird eine allgemeine informelle Einführung in eine neue Art von Kalkül vorgeschlagen, die die Verwendung sowohl echter als auch plausibler Inferenzregeln erlaubt und Nichtmonotonie und temporäre Mehrdeutigkeit toleriert. Unter Verwendung einiger bekannter begrifflicher Apparate und Systeme von Begriffen und Sätzen werden die konkreten Bedeutungen erklärt, die in der Arbeit verwendet werden.;-;-;-;https://link.springer.com/article/10.3103/S0147688210050035 60d7c2c87c75cf35f15c6d8f980c3996;de;;;1.3.;;;Ein Algorithmus zur blinden Entzerrung der Unterstützungsvektormaschine basierend auf einem Immunklon-Algorithmus Mit dem Ziel, das Parameterauswahlverfahren der Support-Vektor-Maschine (SVM) auf seine Anwendung im Blind-Entzerrungsalgorithmus zu beeinflussen, wird ein SVM-Konstantmodul-Blind-Entzerrungsalgorithmus basierend auf dem Immunklon-Auswahlalgorithmus (CSA-SVM-CMA) vorgeschlagen. In diesem vorgeschlagenen Algorithmus wird der Immunklonalgorithmus verwendet, um die Parameter der SVM auf der Grundlage der Vorteile seiner Verhinderung von evolutionärem Frühreifem, Vermeidung lokaler Optimum und schneller Konvergenz zu optimieren. Der vorgeschlagene Algorithmus kann die Parameterauswahleffizienz des SVM-Konstantmodul-Blindentzerrungsalgorithmus (SVM-CMA) verbessern und den Mangel der künstlichen Einstellparameter überwinden. Dementsprechend hat der CSA-SVM-CMA eine schnellere Konvergenzrate und einen kleineren mittleren quadratischen Fehler als der SVM-CMA. Computersimulationen in akustischen Unterwasserkanälen haben die Gültigkeit des Algorithmus bewiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18129-0_67 ba8f103e03a3ca01d80eb003b9d363f8;de;;;1.3.;;;Probleme und Gegenmaßnahmen der Zhejiang High-Tech Enterprises Industry-University-Institute Cooperation in China Die Zusammenarbeit zwischen Industrie, Universität und Institut ist ein wichtiges Mittel, um technische Entwicklungen und Leistungen für Hightech-Unternehmen zu beschleunigen. In Anbetracht der Tatsache, dass es in Zhejiang High-Tech-Unternehmen einige Probleme gab, zu denen ein niedriges kooperatives Niveau, ein einzelner Vertrieb, eine schwache sekundäre F&E-Fähigkeit, ein offensichtliches Risiko usw Aufbau von Organisationssystemen und Schaffung eines besseren Umfelds für die Zusammenarbeit zwischen Industrie, Universität und Institut.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18134-4_8 cb99cd8dd0a442bdbee22ba106f694cc;de;;;1.3.;;;Verständnis der Verhaltensabsicht zur Verwendung von SaaS-ERP-Untermodulen unter Berücksichtigung des wahrgenommenen Vergnügens, der wahrgenommenen Angst und der wahrgenommenen Systemleistung Der Einsatz von Cloud-Lösungen zur Unterstützung des Enterprise Resource Planning (ERP)-Systems ist für viele Unternehmen zur Priorität geworden, um in der aktuellen globalen Welt wettbewerbsfähig zu bleiben. Diese Forschung konzentriert sich auf die Verhaltensabsicht der Mitarbeiter, Software as a Service (SaaS) ERP-Untermodule bei einem globalen Anbieter von Bauwerkzeugen zu verwenden, wobei wahrgenommene Freude, Angst und Systemleistung berücksichtigt werden. Das Ziel dieser Studie ist es, die Verhaltensabsicht der Mitarbeiter zu analysieren und zu untersuchen, SaaS-ERP-Untermodule in den Unternehmen des Bauwerkzeuganbieters unter Berücksichtigung dieser einzigartigen Variablen und Prädiktoren zu verwenden. Die Ergebnisse dieser Forschung können Organisationen und Forschern dabei helfen und unterstützen, ein grundlegendes Verständnis dafür aufzubauen, wie diese Variablen die Absicht des Benutzers, SaaS-ERP-Untermodule zu verwenden, vorhersagen können, was von großem Vorteil ist. In 25 Ländern wurden 250 Nutzer aus der Führungsetage und höheren Managementebenen weltweit angesprochen. Ein statistisches Werkzeug wird verwendet, um die Daten der Befragten zu analysieren, und die Modellierung von Strukturgleichungen wird verwendet, um die Antworten und die Beziehung jeder Hypothese zu analysieren. Die Hypothese wird anhand der konsolidierten Daten getestet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1465-4_13 c6a417d02667f2edf6646b6c000dd20c;de;;;1.1.;;;Eine rudimentäre Version des kognitiven strukturellen Realismus Das Kapitel startet einen neuen Versuch, das Problem der Repräsentation anzugehen. In diesem Kapitel werde ich argumentieren, dass wir zur Lösung des Problems die zugrunde liegende Struktur wissenschaftlicher Theorien in Form von kognitiven Strukturen spezifizieren können. Um die wünschenswerten kognitiven Strukturen einzuführen, werde ich mich auf die vorangegangene Arbeit von Churchland stützen und sie als eine neue Version des strukturellen Realismus interpretieren. Meine Auslegung von Churchlands Arbeit ebnet den Weg für eine Synthese zwischen CMSA und SR. Das Kapitel skizziert eine rudimentäre Version von Cognitive SR und ihre Lösung des Repräsentationsproblems. Eine fortgeschrittene Version, die weitere Details zu den zugrundeliegenden neurologischen Mechanismen und ihrer biologischen Lebensfähigkeit enthält, wird in den nächsten Kapiteln dieses Buches vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-05114-3_5 d8dbc9062da7fb2599077cda9dd73db5;de;;;1.3.;;;Regionale Merkmale von Wolkenstrahlungseffekten vor und nach dem Einsetzen des Sommermonsuns im Südchinesischen Meer Der Beginn des Sommermonsuns im Südchinesischen Meer (SCSSM) ist durch schnelle thermodynamische Veränderungen in der Atmosphäre gekennzeichnet, die für regionale Wetter- und Klimaprozesse entscheidend sind. Bisher haben sich nur wenige Studien auf die Veränderungen der damit verbundenen Wolken- und Strahlungsmerkmale konzentriert. Diese Studie untersucht die raumzeitlichen Eigenschaften von Strahlungseffekten (CREs) der Top-of-Atmosphere (TOA) vor und nach dem SCSSM-Einsetzen über dem Südchinesischen Meer (SCS) und Südchina (SC), basierend auf den Wolken von 2001–2016 und den Earth's Radiant Energy System (CERES) Energy Balanced and Filled (EBAF) Satellitendaten und ERA-Interim-Reanalysedaten. Vor dem Einsetzen des SCSSM tritt ein starker Netto-CRE (NCRE) auf, der von seiner kühlenden Kurzwellenkomponente dominiert wird, über dem SC, während eine absteigende Bewegung und ein schwacher NCRE über dem SCS vorherrschen. In der SCSSM-Onset-Pentade nehmen Konvektion, hohe Wolken und langwellige und kurzwellige CREs (LWCRE und SWCRE) über dem südlichen und zentralen SCS abrupt zu, und ihre hochwertigen Zentren bewegen sich anschließend nordöstlich und werden stark vom subtropischen Hoch des Westpazifik beeinflusst. Der starke Offset zwischen LWCRE und SWCRE ermöglicht es, dass die NCRE-Intensität (TOA-Strahlungsbudget) zwischen dem SCS und dem westlichen Nordpazifik nach dem SCSSM-Einsatz recht klein (groß) ist. Im Gegensatz dazu verbleiben nach dem Einsetzen von SCSSM Wolken niedriger mittlerer Ebene und stark abkühlendes SWCRE über SC, aber die zunehmenden hohen Wolken und LWCRE schwächen (verstärken) die regionale NCRE (TOA Radiation Budget) Intensität. Diese deutlichen Breitenunterschiede in den CREs zwischen SCS und SC resultieren hauptsächlich aus ihren jeweils vorherrschenden Wolkentypen und Zirkulationsbedingungen, die die Unterschiede zwischen den tropischen SCSSM- und subtropischen ostasiatischen Monsunprozessen manifestieren. Die Ergebnisse zeigen, dass regionale Wolkenanteile und CREs vor und nach dem SCSSM-Einsetzen stark durch die schnell veränderte großräumige Zirkulation über den ostasiatischen Monsunregionen moduliert werden und die raumzeitliche Variation der CREs zu einem großen Teil eine Reaktion auf die Anpassung der Monsunzirkulation ist .;-;-;-;https://link.springer.com/article/10.1007/s13351-020-0018-6 2123b5294588670d4be31681904feb17;de;;;1.3.;;;Status von Learning Analytics in Asien: Perspektiven der Hochschulakteure Trotz der wachsenden Popularität von Learning Analytics im Hochschulbereich wurde sein Entwicklungsstand in Asien kaum untersucht. Dieser Beitrag berichtet über eine Studie zur Entwicklung von Learning Analytics in der Hochschulbildung in Asien. Es wurden halbstrukturierte Interviews mit acht leitenden Managern oder leitenden Akademikern verschiedener Hochschulen in Asien durchgeführt. Die Teilnehmer wurden nach der Position ihrer Institutionen zu Learning Analytics, dem Fortschritt bei der Implementierung, Faktoren, die zu einer effektiven Implementierung führen, und gegebenenfalls aufgetretenen Herausforderungen befragt. Die Ergebnisse zeigten, dass in den Einrichtungen, in denen Learning Analytics implementiert wurde, diese hauptsächlich darauf abzielten, die Schülerbindung, die Pädagogik und die Lernerfahrung der Schüler zu verbessern. Seine wirksame Umsetzung beruht auf der Unterstützung durch die Geschäftsleitung und der Berücksichtigung der Ansichten der Studierenden bei der Entscheidungsfindung. Die Institutionen der Teilnehmenden stießen auf Schwierigkeiten aufgrund von Bedenken von Lehrenden und Studierenden, wie der erhöhten Arbeitsbelastung und dem Datenschutz sowie technischen Problemen bei der Datenerhebung, -verarbeitung und -analyse. Kurz gesagt, obwohl in Asien erst spät begonnen, gewinnt Learning Analytics allmählich an Aufmerksamkeit und wird implementiert. Die zukünftigen Forschungsrichtungen und Praktiken in der Learning Analytics werden ebenfalls diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-0008-0_25 b6348125ec86f4e37a171fff51a73434;de;;;1.3.;;;Unstarre Objektverfolgung mit der modifizierten Mean-Shift-Methode Der traditionelle Mean-Shift-Algorithmus verwendet ein einzelnes Histogramm, um sich bewegende Objekte zu verfolgen. Da der traditionellen Mittelwertverschiebung Informationen zur räumlichen Verteilung fehlen, ist es insbesondere schwierig, nicht starre Objekte zu verfolgen. Mit Fokus auf dieses Problem wird ein verbesserter Mean-Shift-Algorithmus basierend auf dem Formmerkmal und der Farbe des Ziels vorgestellt. Die Ergebnisse zeigen, dass der Algorithmus das nicht starre Ziel in Echtzeit verfolgen kann und eine bevorzugte Anpassungsfähigkeit und Robustheit gegenüber unregelmäßiger Bewegung und Verformung des Ziels aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0557-2_45 63e91d990ee81d774d4f6f79bc9ccaad;de;;;1.3.;;;Opferbereitschaft für die Umwelt: Ein Vergleich des Umweltbewusstseins in China, Japan und Südkorea Ziel dieses Papiers ist es, das Umweltbewusstsein der Menschen in China, Japan und Südkorea aus der Perspektive der Opferbereitschaft (WTS) für die Umwelt zu vergleichen und zu klären. Analytische Ergebnisse aus länderübergreifenden Umfragedaten zeigen, dass Chinesen, insbesondere Bürger Pekings, tendenziell positive WTS haben, Japaner tendenziell negative WTS haben und Südkoreaner zwischen Chinesen und Japanern angesiedelt sind. Basierend auf der überarbeiteten Normaktivierungstheorie werden in dieser Studie Umweltangst- und Umweltverantwortungsurteile vorgeschlagen, um die Bildung von WTS auf nationaler Ebene zu erklären. Ein positiver Zusammenhang zwischen WTS und Umweltangst wird in den untersuchten Regionen bestätigt. Der Einfluss von Umweltverantwortungsurteilen auf die Wachtturm-Gesellschaft ist jedoch von Gebiet zu Gebiet unterschiedlich. Im Allgemeinen bilden Menschen, die Bürgern oder Unternehmen die wichtigste Umweltverantwortung zuschreiben, eher eine positive Wachtturm-Gesellschaft als diejenigen, die sie der Regierung zuschreiben. Darüber hinaus wird auch der Einfluss demografischer Faktoren auf die WTS-Bildung geklärt und die Attributionsmerkmale umweltopferwilliger Personen auf nationaler Ebene geklärt.;-;-;-;https://link.springer.com/article/10.2333/bhmk.43.19 bc7096e9bcad1ac03b6ff1423d1adf9c;de;;;1.3.;;;Mischfrequenz-Feedback-Regelung mit kleiner Verstärkung und Anwendung auf Insulinpumpen Dieses Papier betrachtet das Syntheseproblem der Zustandsrückkopplungssteuerung für lineare zeitkontinuierliche Systeme mit kleinen Verstärkungsspezifikationen in gemischten Frequenzbereichen. Im Rahmen des Linear Matrix Inequality (LMI)-Ansatzes wird eine neue Methode zum Entwurf der Zustandsrückkopplungsregler entwickelt. Abschließend wird die Wirksamkeit des vorgeschlagenen Verfahrens im Vergleich zum vorliegenden Ergebnis anhand einer Anwendung auf Insulinpumpen veranschaulicht.;-;-;-;https://link.springer.com/article/10.1007/s12555-009-0219-3 6aaa830723f9739664741d91b89a46cc;de;;;1.3.;;;Flaschenhals der Wissensgesellschaft Wissen ist eine Voraussetzung für Wohlstand und Nachhaltigkeit der menschlichen Gesellschaft. Voraussetzung für den Erwerb, die Entwicklung und die Nutzung von Wissen ist eine angemessene Ausbildung. Aber welche Bildung in welchem ​​Umfang? Nach gesellschaftlichen Beobachtungen mangelt es an Studieninteressierten und Arbeitswilligen in Naturwissenschaften [1,2], Ingenieurwesen [3] und handwerklichen Berufen. In diesen Bereichen besteht ein großer Bedarf an Arbeitsplätzen [4] und die aktuelle Situation wird als entscheidende Bedrohung für die wirtschaftliche Entwicklung und den Wohlstand angesehen [5]. In diesem Papier werden die möglichen Gründe dafür diskutiert - niedrige Belohnungen, teures und schwieriges Studium, Vorurteile [6] usw. Ein Metagrund kann die fehlende Fähigkeit (und Fähigkeit) sein, hart zu arbeiten und die Tatsache, dass oft vergessen wird, dass Wissen sein kann nur dann sinnvoll, wenn entsprechende Fähigkeiten trainiert werden. Diese Situation ist die Folge des Scheiterns von Sozial- und Bildungsprozessen, insbesondere fehlender Rückkopplungen in Bildungssystemen. Es ist auch die Folge einer unsachgemäßen Verwendung von IT, die den Einsatz von IT in pädagogischen (Mikro-)Prozessen betont, während die Möglichkeit, IT als Instrument zu verwenden, das es Bürgern und Regierungen ermöglicht, den Erfolg und die Effektivität von Bildungssystemen und ihrer Transformation zu messen, nicht genutzt wird. Sie wird durch unsachgemäße Gesetzgebung und falsche Praktiken bei der Erhebung und Verwendung von Daten zu Bildungsprozessen verursacht. Eine Lösung dieses Problems wird vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87783-7_11 4817e1a75ae0eb754437c11a00cde660;de;;;1.3.;;;Entwicklung von Soft Skills durch Doktoranden Dieses Papier wurde im Rahmen des durch die Programme von Erasmus+ ermöglichten Kapazitätsaufbauprojekts „Modernisierung der Doktorandenausbildung in Naturwissenschaften und Verbesserung der Lehrmethoden“ erstellt. Das Hauptziel dieses Projekts ist die Verbesserung der Qualität der Doktorandenausbildung durch die Einführung neuer Lehrmethoden auf der Grundlage interdisziplinärer Ansätze und internationaler Kooperationen. Der Autor stellt das russische System der Doktorandenausbildung, seine Struktur, Inhalte und Hauptkompetenzen vor, die für die Ausbildung hochqualifizierter Forscher erforderlich sind. Der Beitrag konzentriert sich auf die Entwicklung kommunikativer Fähigkeiten von Doktoranden im Rahmen des Fremdsprachenkurses, der Doktorandenprogramme umfasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-40271-6_17 ca5d215790b4c118933b77a1b849ae4e;de;;;1.1.;;;Design und Implementierung von Echtzeit-Verarbeitungssystemen Dieses Kapitel ist die Materialisierung und Integration der Forschungsergebnisse in den obigen sechs Kapiteln und ist die kritische Phase für die Anwendung der optischen Informationsverarbeitung für die Zielführung von Flugzeugen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6994-0_7 50adaa19641b43bdbb2deb7304c269c4;de;;;1.1.;;;Auf dem Weg zu einer empirischen Kinderpsychopathologie Im Laufe der letzten 20 Jahre hat sich der klinische Begriff zur Beschreibung überaktiver, ablenkbarer und impulsiver Kinder von hyperaktiv zu Aufmerksamkeitsdefizitstörung mit Hyperaktivität (ADDH) des Diagnostic and Statistical Manual of Mental Disorders, Third Edition III) zur Aufmerksamkeitsdefizit-Hyperaktivitätsstörung (ADHS) von DSM-III-R. DSM-IV wird den Begriff Aufmerksamkeitsdefizit-Hyperaktivitätsstörung verwenden und unterscheidet Aufmerksamkeitsdefizit-Hyperaktivitätsstörung, überwiegend unaufmerksamer Typ, überwiegend hyperaktiv-impulsiver Typ und kombinierter Typ, wenn in den letzten sechs Monaten sowohl die Kriterien für Unaufmerksamkeit als auch Impulsivität erfüllt sind. Die Veränderungen in der diagnostischen Taxonomie sind durch klinische Gutachten entstanden und beruhen nicht auf empirischen Erkenntnissen. Quay (1988) argumentierte, dass die klinische Kinderpsychologie einen starken hypothetisch-deduktiven Ansatz benötigt, um Taxonomien auf empirische Beweise zu stützen. In diesem Sinne haben wir ADDH anhand eines theoretischen Aufmerksamkeitsmodells erforscht, das über etablierte Paradigmen und gesetzmäßige Beziehungen verfügt. Die Schlussfolgerung dieser Arbeit hat uns zu der Annahme veranlasst, dass Kinder mit Aufmerksamkeitsdefizit mit Hyperaktivität kein Aufmerksamkeitsdefizit sind (Sergeant, 1981), und dass dies ein Missverständnis ist (van der Meere, 1988). Diese Schlussfolgerung ist kontraintuitiv. Tatsächlich hat Barkley (1991) die Frage aufgeworfen, ob solche experimentellen Paradigmen, wie die kontinuierliche Leistungsaufgabe, eine ökologische Gültigkeit für ADDH haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-1501-6_3 d8575b71fb4471a5bb9536d6919e5479;de;;;1.3.;;;Forschung zum Aufbau einer innovativen experimentellen Plattform für die öffentliche Gesundheit Der Artikel stellte die Schule der öffentlichen Gesundheit Disziplin Vorteil, Innovation Talente Kultivierung als die Hauptlinie, um akademische Innovation experimentelle Plattform Konstruktion der Entwicklung Gedankengang durchzuführen. Bei der Innovation Plattformbau müssen wir sowohl den öffentlichen experimentellen Plattformbau als auch die Entwicklung des Disziplinvorteilsplattformbaus berücksichtigen. Beim Aufbau des Lehrpersonals stärken wir die Lehrerverantwortung und wecken die Begeisterung der Lehrer. In der Personalausbildung wurden fruchtbare Ergebnisse erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35440-3_69 652b8cdefe158f589100970c9a80ff83;de;;;1.3.;;;Ingenieurpädagogik orientierte Lehrmittelkonstruktion für Elektro- und Elektroniktechnik Die Elektro- und Elektroniktechnik ist ein wichtiger fachlicher Basisstudiengang für alle nicht-elektrotechnischen Fachrichtungen. Ein geeignetes Lehrbuch ist ein wichtiger Garant für die Qualität des Studiums. Entsprechend dem neuen Trend der Reform und Entwicklung des Elektro- und Elektronikunterrichts wurde eine Neuauflage des Lehrbuchs der Elektro- und Elektroniktechnik fertiggestellt, um den Anforderungen der Ingenieurausbildung gerecht zu werden. Das Struktursystem dieses Lehrbuchs ist akribisch geordnet und versucht Systematik, Einfachheit, Zweckmäßigkeit und Epochencharakter zu haben. Die Anwendungspraxis dieses Lehrbuchs zeigt, dass es eine gute Wirkung auf die Lehre von nicht-elektrotechnischen Studiengängen hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23339-5_58 249064fb22e2f40e54f2e96e75b4fffb;de;;;1.3.;;;Über einen Fuzzy-DVQ-Algorithmus für die Spracherkennung In diesem Beitrag stellen wir eine neue Version des DVQ-Algorithmus vor, ein überwachtes kompetitives Lernen basierend auf Fuzzy-Wissen. Die adaptive Lernregel verwendet eine Zugehörigkeitsfunktion, die für die nächsten Nachbarn definiert ist. Mitgliedschaftswerte werden berechnet, um Referenzen anzupassen, zu erzeugen oder zu vernichten, um das Netzwerk zu stabilisieren und eine mögliche Divergenz von Neuronen zu vermeiden. Simulationen von Sprachsignalergebnissen werden präsentiert, um die Auswirkungen dieses Ansatzes zu zeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-57745-1_67 437374780c1f573b0cd173b024cc1184;de;;;1.3.;;;Führende und leitende Rolle von Supervisoren in der Verwaltung der Graduiertenausbildung Die Bildungsverwaltung ist ein Qualitätsüberwachungs- und Sicherheitssystem im Prozess der Graduiertenausbildung. Es ist sowohl für die Innovation und Entwicklung der Graduiertenausbildung als auch für die Verbesserung akademischer Dissertationen wichtig. Die Praxisfähigkeit zur Innovation ist ein grundlegender Maßstab der Ausbildungsqualität. Vorgesetzte spielen während des Zeitraums eine führende Position und Führungsrolle. Der Grund dafür ist, dass das Niveau der Dissertation, die Realisierung von Innovationen und die ideelle Glaubensbildung der Absolventinnen und Absolventen stark von der wissenschaftlichen Begabung und dem Charakter der Betreuerinnen und Betreuer abhängig sind. Ein neuer Bildungsmodus kann der Integration von Ressourcen, dem Spielen von Gruppenweisheit und der Verbesserung der Bildungsqualität zugute kommen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_444 20985318bd1724b4dd5361f5b81911cd;de;;;1.1.;;;Die Entstehung von I Welche Implikationen haben die jüngsten Fortschritte in der Physik und in den System- und Informationstheorien für unsere Lebenskonzepte? Sie sind, wie wir sehen werden, enorm. Obwohl die Implikationen klar sind, sind die endgültigen Auswirkungen auf die Biologie noch zu spüren, denn die biologischen Wissenschaften beginnen gerade erst damit, die Theorien anzuwenden, die sich aus den folgenschweren Veränderungen in verwandten Gebieten ergeben. Während sich Physiker zunehmend mit der Rolle des menschlichen Geistes bei der Definition aller physikalischen Ereignisse in einer relativen Prozesswelt beschäftigt haben, haben sich Biologen bis vor kurzem noch stärker mit dem reduktionistischen Lebensansatz beschäftigt und sich darauf konzentriert, unseren Platz in der mechanische Welt der Form und Funktion. Während des 20. Jahrhunderts haben sich Physiker auf Beziehungen innerhalb von Systemen und zwischen Systemen konzentriert und den menschlichen Geist als integralen Aspekt dieser Beziehungen definiert. „Es ist“, sagt Harold J. Morowitz, „als wären die beiden Disziplinen in schnell fahrenden Zügen, die in entgegengesetzte Richtungen fahren und nicht bemerken, was auf den Gleisen passiert“ [27:S. 34].;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-5212-2_8 f5a9da8430f18a120fb03a73a4f15c61;de;;;1.1.;;;Informationsdynamik Obwohl wir Zugang zu einer Fülle von Informationen haben, ist das Hauptproblem immer die Verarbeitung der verfügbaren Informationen. Wie man alles, was wir beobachten und wissen, einen Sinn macht. Genau wie das englische Alphabet: Wir wissen, dass es 26 Buchstaben gibt, aber wenn wir diese Buchstaben nicht sinnvoll zusammenfügen, vermitteln sie keine Informationen. Es gibt unendlich viele Möglichkeiten, diese Buchstaben zusammenzusetzen. Nur ein kleiner Teil davon macht Sinn. Nur einige von ihnen vermitteln genau das, was wir vermitteln möchten, obwohl die Botschaft von verschiedenen Personen unterschiedlich interpretiert werden kann. Dasselbe Problem stellt sich bei Informationen: Wie können wir die Informationen, die wir haben, verarbeiten? Wie können wir unter Bedingungen unvollständiger beobachteter Informationen folgern und folgern? In seinem bahnbrechenden Buch über die Philosophie der Information schreibt Floridi (;-;-;-;https://link.springer.com/article/10.1007/s11023-013-9326-2 c50e855d3257d73f94f8f531d1295980;de;;;1.3.;;;IT im Bildungswesen Anwendung von Computern im Unterrichten von Aroma- und Dufttechnologie Duft und Geschmack spielen in vielen Bereichen eine wichtige Rolle. Die Riechstoff- und Aromatechnologie ist ein Kernfach für die Ausbildung der Studenten, deren Hauptfach Chemieingenieurwesen ist. Diese Arbeit befasst sich mit den Anwendungen des Computers in diesem Kurs. Die Anwendungen von Internet, Geschmacks- und Duft-Computersoftware, elektronischer Nase und elektronischer Zunge in der Geschmacks- und Dufttechnologie wurden diskutiert. Das Internet wird häufig verwendet, um Informationen über Aromen und Düfte zu sammeln. Die Computersoftware für die Aromen- und Duftkreation wurde zu einem wichtigen Werkzeug für die Parfümentwicklung und die Erweiterung des Wissens über Parfümerierohstoffe. Elektronische Nase und elektronische Zunge sind zwei computergesteuerte Geräte, die Gerüche bzw. Geschmäcker erkennen sollen. Sie können eine Reihe von Nachteilen vermeiden, die durch menschliche Ermüdung oder Stress verursacht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_313 6935951f0f5b14ac1b209ceb5a405165;de;;;1.3.;;;Existenzsätze für Kegelsattelpunkte und vektorbewertete Minimaxsätze Diese Arbeit beschäftigt sich mit vektorwertigen Minimax-Theoremen. Wir führen eine vektorwertige Version der unteren Halbstetigkeit ein, die eine Verallgemeinerung der gewöhnlichen unteren Halbstetigkeit auf reellwertige Funktionen zur Charakterisierung effizienter Lösungen ist. Wir geben einige Bedingungen an, die die Existenz von Kegelsattelpunkten einer vektorwertigen Funktion sicherstellen. Wir präsentieren Minimax-Theoreme für vektorwertige Funktionen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-46854-4_23 91a08e3b4e01458fa6febae48b57cbe2;de;;;1.3.;;;Braucht jede Inspektion wirklich ein Meeting? Software-Review ist ein grundlegender Bestandteil des Software-Qualitätssicherungsprozesses, dennoch gibt es erhebliche Kontroversen um die effizienteste und effektivste Review-Methode. Eine zentrale Frage betrifft die Nutzung von Meetings, die traditionelle Review-Praxis betrachtet sie als wesentlich, während neuere Erkenntnisse ihren Nutzen in Frage stellen. Um einen Einblick in diese Frage zu geben, führten wir ein kontrolliertes Experiment durch, um verschiedene Kosten- und Wirksamkeitsmaße für eine sitzungs- und nicht sitzungsbasierte Überprüfungsmethode zu bewerten. Das Experiment verwendete CSRS, eine computervermittelte kollaborative Software-Überprüfungsumgebung, und 24 Drei-Personen-Gruppen. Wir stellten fest, dass die untersuchte sitzungsbasierte Überprüfungsmethode signifikant kostspieliger war als die nicht sitzungsbasierte Methode, aber dass die sitzungsbasierte Überprüfung nicht signifikant mehr Fehler fand als die nicht sitzungsbasierte Methode. Die sitzungsbasierte Bewertungsmethode war jedoch signifikant besser bei der Reduzierung des Niveaus von falsch positiven Ergebnissen, und die Probanden bevorzugten subjektiv eine sitzungsbasierte Bewertung gegenüber einer nicht sitzungsbasierten Bewertung. Dieses Papier präsentiert die Motivation für dieses Experiment, sein Design und seine Implementierung, unsere empirischen Ergebnisse, Hinweise auf Internet-Repositorys für die Replikation oder zusätzliche Analyse dieses Experiments, Schlussfolgerungen und zukünftige Richtungen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1009787822215 d6d0400d725abe60e3e7d12c58c048f4;de;;;1.3.;;;Sport und leichte essentielle Hypertonie Chronische essentielle Hypertonie ist ein großes Gesundheitsproblem, von dem schätzungsweise 15 bis 30 % der Menschen aus den meisten westlichen Industrieländern betroffen sind. Personen mit leichter Hypertonie (diastolischer Blutdruck zwischen 90 und 104 mm Hg und/oder systolischer Blutdruck zwischen 140 und 159 mm Hg) stellen die überwältigende Mehrheit der Hypertoniker in der Allgemeinbevölkerung. Die Erzielung einer langfristigen Blutdruckkontrolle bei diesen Personen ist von zentraler strategischer Bedeutung bei der Prävention von Hypertonie-bedingter Morbidität und Mortalität. Epidemiologische Studien legen nahe, dass regelmäßige körperliche Aktivität zur Vorbeugung von Bluthochdruck von Vorteil sein kann. Die Ergebnisse epidemiologischer Studien werden durch eine aktuelle Metaanalyse von 25 aeroben Längstrainingsstudien gestützt, in denen die durchschnittliche stichprobengewichtete Reduktion des systolischen und diastolischen Ruheblutdrucks 10,8 mm Hg bzw. 8,2 mm Hg betrug. Darüber hinaus legen vorläufige Analysen unseres Zentrums nahe, dass kardiorespiratorische Fitness und daraus abgeleitet aerobes Trainingstraining bei der Senkung der Sterblichkeitsrate bei Bluthochdruckpatienten von Nutzen sein können. Bei der Erstellung eines Trainingsrezeptes mit der Absicht, einen erhöhten Blutdruck zu senken und das Risiko für eine koronare Herzkrankheit zu mindern, müssen mehrere Faktoren berücksichtigt werden, um die Wahrscheinlichkeit einer sicheren und effektiven Reaktion zu optimieren. Konkret sind die 5 Grundbestandteile der Bewegungsvorschrift für Patienten mit leichter Hypertonie Sicherheitsaspekte, die Art der durchzuführenden Bewegung sowie die Häufigkeit, Intensität und Dauer des Trainings. Bei Patienten, die eine Pharmakotherapie benötigen, muss auch die Wechselwirkung zwischen dem spezifischen blutdrucksenkenden Mittel und den körperlichen Belastungen berücksichtigt werden. Wir empfehlen ein Aerobic-Training mit einer Intensität von 60 bis 85 % der maximalen Herzfrequenz durchzuführen und die Dauer und Frequenz so zu modulieren, dass ein wöchentlicher Energieverbrauch zwischen 14 und 20 kcal/kg Körpergewicht erreicht wird.;-;-;-;https://link.springer.com/article/10.2165/00007256-199010060-00005 f4cd29704d99760cb7140facd6c73c1e;de;;;1.3.;;;Automatische Segmentierungstechnik ohne Benutzermodifikation für die 3D-Visualisierung in medizinischen Bildern Es ist notwendig, ein CT- oder MR-Bild zu analysieren und dann ein Bild eines bestimmten Organs aus dem eines anderen Gewebes für die 3D-Visualisierung (dreidimensional) zu segmentieren. Es gibt viele Möglichkeiten der Segmentierung, aber sie haben ein etwas ineffektives Problem, da sie mit einer manuellen Behandlung kombiniert werden. In dieser Studie haben wir eine neue Segmentierungsmethode entwickelt, die eine Region-Growing-Technik und eine verformbare Modellierungstechnik mit Kontrollpunkten für eine effektivere Segmentierung verwendet. Als Ergebnis versuchen wir, das Bild der Leber zu extrahieren und die verbesserte Leistung zu identifizieren, indem wir den in dieser Studie vorgeschlagenen Algorithmus auf ein zweidimensionales CT-Bild des Magens anwenden, der eine große Lücke zwischen den Schichten aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30497-5_93 1834b28f76c59afb2807d91784c87af1;de;;;1.3.;;;Rollen der erzwungenen und trägheitsinstabilen Konvektionsentwicklung beim Einsetzen des indischen Sommermonsuns Die NCEP/NCAR R1-Reanalysedaten werden verwendet, um den Einfluss erzwungener und inertialer Instabilität in der unteren Troposphäre über dem Arabischen Meer auf den Beginn des Indischen Sommermonsuns (ISM) zu untersuchen und die wichtige Rolle der zonalen Advektion zonaler geostrophischer Schwung spielte in der erzwungenen instabilen Konvektion. Die Ergebnisse zeigen, dass während des ISM-Einsetzens die Null-Absolut-Vorticity-Kontur (;-;-;-;https://link.springer.com/article/10.1007/s11430-014-4865-9 414bb010e8e5557c7b35e46086eca2cc;de;;;1.3.;;;Modellierung von Bildungsdaten: Von der gleichungsbasierten Modellierung zur agentenbasierten Modellierung Agentenbasierte Simulation wird zunehmend verwendet, um die Leistung komplexer Systeme zu analysieren. In diesem Artikel beschreiben wir die Ergebnisse unserer Arbeit an einem spezifischen agentenbasierten Modell, zeigen, wie es gegen das gleichungsbasierte Modell, aus dem es abgeleitet wurde, validiert werden kann, und zeigen, inwieweit es verwendet werden kann, um zusätzliche Ergebnisse über und über denen, die das gleichungsbasierte Modell bereitstellen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76539-4_4 0de1304a79591f44dd2c58e3d4af48cb;de;;;1.1.;;;266 Fuzzy-Frontend-Studien: Aktueller Stand und zukünftige Richtungen für die Entwicklung neuer Produkte Untersucht wurden 266 Fuzzy-Front-End (FFE)-Studien im Bereich der Neuproduktentwicklung (NPD). Die Studien wurden mit einem bibliometrischen Verfahren ausgewählt und chronologisch und statistisch anhand von zehn in zwei Dimensionen unterteilten Kriterien untersucht. Die erste Dimension ist mit Gesamtattributen des FFE verbunden, die aus sechs Kriterien bestehen: Studientaxonomie, Modelltyp, NPD-Geschwindigkeit, NPD-Attribute, Modellcharakteristik und Modellstruktur. Die zweite Dimension ist für die FFE-Leistungsstruktur in Bezug auf Prozessparameter relevant und besteht aus vier Kriterien: FFE-Aufgabe, Aktivität, Leistungsmethode und Toolkit. In Bezug auf diese beiden Dimensionen betrachtet der Artikel frühere FFE-Studien, um ein Verständnis der Merkmale jeder FFE-Studie zusammen mit verwandtem Wissen und Theorien sowie der Identifizierung von Evolutionstrends von FFE-Studien zu gewinnen. Basierend auf der Identifikation wird für jedes Kriterium eine FFE-Modellentwicklungsstrategie formuliert und in diesem Papier werden mögliche Optionen zur Umsetzung jener Strategien vorgeschlagen, die Einfluss auf die Form des Clusternetzwerks haben. Die Datenbank soll als Überblick über alle bestehenden FFE-Studien verwendet werden und die Auswahl spezifischer FFE-Studien ermöglichen, um FFE-Ansätze zu untersuchen die sich auf den gesamten Innovationsprozess auswirken und wie die Leistungsstruktur in Bezug auf Prozessparameter zu verwalten ist.;-;-;-;https://link.springer.com/article/10.1007/s00163-021-00365-w 4839412b54307c54d8d0d81d73c2bf72;de;;;1.3.;;;"Autismus-Spektrum-Störung: Gehirnbilder und Registrierung Autismus ist eine Störung der Gehirnfunktion, die zu Sprachen, Kommunikation, sozialen Interaktionen, Verhaltensweisen und Interessen führt. Verschiedene Studien zu Autismus im Bereich der Neurowissenschaften und Informatik haben die Komplexität dieser Entwicklungsstörung durch die Analyse von Nervensignalen und Gehirnbildern aufgezeigt. Dieser Artikel stellt die Untersuchung der Anomalien in autistischen Gehirnbildern unter Verwendung einer neuen Bildregistrierungsmethode namens ""Template-basierte affine Registrierung"" vor. Der Hauptbeitrag dieser Technik besteht darin, die verschiedenen Gehirnbilder, die von verschiedenen Geräten aufgenommen wurden, in einem neuen Koordinatensystem auszurichten. Durch die Verwendung der homogenen Koordinatentransformation bietet das neue Verfahren eine robuste Transformation gegen Rotation und Translationen von Quell- und Zielbildern. Die Umsetzung dieser Studie in autistischen Gehirnbildern liefert die guten Ergebnisse.";-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48335-1_15 a57679cce69f1b795592781af982b977;de;;;1.3.;;;Eine neuartige Blockverschlüsselung basierend auf einer chaotischen Karte Ein chaotisches kryptographisches Blockschema basierend auf der Chebyschev-Karte wird vorgeschlagen. Mit zufälligen Binärsequenzen, die aus der Paar-Tschebyschew-Karte mit unterschiedlichen Anfangsbedingungen erzeugt wurden, wird der Klartextblock durch einen schlüsselabhängigen Verschiebungsansatz permutiert und dann durch die klassische chaotische Maskierungstechnik verschlüsselt. Simulationsergebnisse zeigen, dass der vorgeschlagene Algorithmus ausgezeichnete kryptografische Eigenschaften wie Diffusions- und Verwirrungseigenschaften aufweist und den Angriffen mit bekanntem Klartext und Angriffen mit gewähltem Klartext widerstehen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18129-0_57 0a03624978495c121d6d865d3004ce60;de;;;1.3.;;;Eine neue Programmierschnittstelle für die pädagogische Robotik Educational Robotics verwendet Roboter als Werkzeug zum Unterrichten einer Vielzahl von Fächern, die nicht speziell Robotik in den Grundstudiengängen sind. Um dieses Ziel zu erreichen, ist eine adäquate Schnittstelle entscheidend, die es unerfahrenen Schülern ermöglicht, auf einfache Weise mit Robotern zu interagieren. In diesem Beitrag stellen wir die aktuelle Entwicklung von ERBPI (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21975-7_7 9f773c1cac6e786d8710bec0627d2767;de;;;1.3.;;;Neue Methode zur posynomialen geometrischen Programmierung trapezförmiger Fuzzy-Zahlen In diesem Beitrag wird eine Methode zur Lösung der psynomialen geometrischen Programmierung mit Fuzzy-Koeffizienten vorgestellt. Durch den Vergleich von Fuzzy-Zahlen mit einem Verfahren wird die Programmierung mit Fuzzy-Koeffizienten auf die Programmierung mit konstanten Koeffizienten reduziert. Dann kann die Programmierung mit Fuzzy-Koeffizienten gelöst werden, indem ein Verfahren zur geometrischen Psynomial-Programmierung verwendet wird. Schließlich wird ein Vergleichsbeispiel verwendet, um die Vorteile des neuen Verfahrens zu veranschaulichen.;-;-;-;https://link.springer.com/article/10.1007/s12543-013-0147-z 6e952258cc6717f3ab4feb9dcfd93041;de;;;1.1.;;;Deinstitutionalisierung der Schulwissenschaft: Implikationen einer starken Sicht auf situierte Kognition Psychologische Lernmodelle werden seit vier Jahrzehnten von Informationsverarbeitungsmodellen geprägt. Diese Modelle haben zu Unterrichtsmodellen geführt, die auf dem Informationstransfer von Lehrern zu Schülern basieren. Neuere Forschungen in vielen Bereichen zeigen jedoch, dass Informationsverarbeitungsmodelle nicht viel der menschlichen Kompetenz in alltäglichen wissenschaftlichen und Laienkontexten berücksichtigen. Gleichzeitig wurden situierte Kognitionsmodelle entwickelt, die Kompetenzen in unterschiedlichsten Situationen besser berücksichtigen. Die Implikationen der situierten Kognition unterscheiden sich deutlich von denen der Informationsverarbeitung. Lehren und Lernen werden nicht mehr nur als Informationsvermittlung verstanden, sondern als zunehmende Teilhabe an alltäglichen Praktiken. Die Konzeption des naturwissenschaftlichen Lernens als Verlauf einer zunehmenden Beteiligung fordert die Lehrkräfte auf, den Zweck der naturwissenschaftlichen Ausbildung zu überdenken, von der Vorbereitung von Wissenschaftlern auf die Vorbereitung der Bürger auf die Teilnahme an öffentlichen wissenschaftlichen Maßnahmen.;-;-;-;https://link.springer.com/article/10.1007/BF02461477 32c0e891772fc9ad5dd6e6a515dbe385;de;;;1.1.;;;Standards für Computergrafik und Produktmodelldatenaustausch Integration ist ein Schlüsselthema für Leute, die Software oder Hardware schreiben oder kaufen oder sogar neue Mitarbeiter einstellen, die sich schnell in die neue Umgebung einarbeiten müssen. Neue Soft- und Hardware müssen mit bestehenden Systemen verknüpft werden. Die Implementierung bestehender Soft- und Hardware muss so einfach und kostengünstig wie möglich sein. Auf vorhandene Datendateien, einschließlich Grafik- und Produktdaten, muss möglicherweise zugegriffen und deren Austausch erfolgen. Es ist die Notwendigkeit, Produkte und Menschen auf kosteneffektive Weise zu integrieren, die Standards zu einer wünschenswerten Anforderung in jeder Computerumgebung macht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-61340-1_7 e9db7e4714b52ebeb5b055daa2c03d98;de;;;1.1.;;;Das Datenschutzparadox in HCI: Calculus-Verhalten bei der Offenlegung von PII online Das Datenschutzparadox ist ein Verhaltensphänomen des Datenschutzes, bei dem sich Einzelpersonen bewusst sind, dass die personenbezogenen Daten (PII), die sie bei einer Online-Transaktion offenlegen, kompromittiert werden können, sie aber dennoch offenlegen. Eine Erklärung für dieses Phänomen ist, dass die Entscheidung, Informationen online offen zu legen, durch eine Risiko-Ertrags-Analyse, die als Privacy Calculus bezeichnet wird, basiert. Das breite Rahmenwerk der Datenschutzkalküle bietet jedoch nicht unbedingt einen Einblick in die spezifische Risiko- oder Ertragsbewertung einer Person. In unserer Studie bewerten wir mehrere Verhaltensfaktoren, um zu beurteilen, ob und inwieweit jeder die Risikobewertung einer Person beeinflusst oder beeinflusst, wenn sie entscheiden, ob ihre PII bei einer bestimmten Online-Transaktion offengelegt oder zurückgehalten werden sollen. Insbesondere berichten wir über die Ergebnisse einer kürzlich von uns durchgeführten Umfrage, bei der Faktoren untersucht wurden, die in drei verschiedenen Verhaltensmodellen enthalten sind. Die Ergebnisse dieser Umfrage wurden mithilfe einer explorativen Faktorenanalyse analysiert, die Erkenntnisse über die Bedeutung jeder Variablen im Hinblick auf das Online-Informationsverhalten lieferte. Von den in unsere Studie einbezogenen Faktoren haben unsere Ergebnisse vier Variablen zutage gefördert –;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-22338-0_13 bb79a000b3f46637d86cd6a23f2d0737;de;;;1.3.;;;Code ABC MOOC für Mathematiklehrer Computing ist das neueste Add-on zur Verbesserung der K-12-Lehrpläne vieler Länder mit dem Ziel, die digitale Kompetenzlücke zu schließen. Der überarbeitete finnische Lehrplan 2014 integriert Computer hauptsächlich in Mathematik. Folglich muss Finnland Mathematiklehrer ausbilden, um Informatik im Grundschulbereich zu unterrichten. Diese Studie beschreibt die Python- und Racket-Tracks des Code ABC MOOC, die die Programmiergrundlagen für Mathematiklehrer einführen. Ihre Eignung für Mathematik wird anhand der Kursinhalte und des Feedbacks verglichen. Die Ergebnisse zeigen, dass das funktionale Paradigma von Racket konzeptionell der Mathematik, insbesondere der Algebra, näher kommt. Zudem gilt Racket allgemein als anspruchsvoller in Bezug auf die Syntax und z.B. um Rekursion als Iterationsmechanismus zu verwenden. Auch Mathematiklehrer stufen die Eignung höher ein, da die Inhalte und Übungen des Tracks speziell auf ihr Fach zugeschnitten sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94640-5_4 06633252c3730e95670d1e81af385fa7;de;;;1.3.;;;Steuerung für Teleoperation und haptische Schnittstellen Das Konzept der Teleoperation hat sich weiterentwickelt, um nicht nur Manipulationen aus der Ferne, sondern auch Manipulationen über Skalengrenzen hinweg und in virtuellen Umgebungen mit Anwendungen in vielen Bereichen zu ermöglichen. Darüber hinaus war das Design leistungsstarker Force-Feedback-Teleoperationsmaster eine wesentliche treibende Kraft bei der Entwicklung neuartiger elektromechanischer oder „haptischer“ Computer-Benutzerschnittstellen, die dem Computerbenutzer kinästhetisches und taktiles Feedback geben. Da haptische Schnittstellen/Teleoperator-Master mit einem Operator und einem realen oder virtuellen dynamischen Slave interagieren müssen, der eine erhebliche dynamische Unsicherheit aufweist, einschließlich manchmal großer und unbekannter Verzögerungen, stellt die Steuerung solcher Geräte erhebliche Herausforderungen. Dieses Kapitel gibt einen Überblick über die Arbeit der Teleoperationssteuerung und diskutiert Fragen der Simulation und Steuerung, die bei der Manipulation virtueller Umgebungen auftreten.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0015076 2d7bf6faed0ba5102ba478b0c7d4f6a7;de;;;1.3.;;;Erste kleine Gewalttaten: Überlegungen zu Stillen und Einläufen in Westafrika Wenn sie Gewalttaten heraufbeschwören, stellen sich viele Westler gerne Waffen oder andere unnachgiebige Waffen vor, die es einer Person ermöglichen, Gewalt gegen eine andere anzuwenden – einschließlich Projektilkraft (durch Kugeln) oder noch mehr „Massenvernichtungswaffen“, die eine enorme Kapazität haben mit minimalem Aufwand viel Gewalt zu erzeugen. Wenn wir über solche Gewalttaten nachdenken, stellen sich viele von uns auch gerne Fremde als ihre Täter vor. Die von der Regierung finanzierte Initiative Drug Abuse Resistance Education (D.A.R.E.), die jetzt von lokalen Polizeibehörden in 49 Ländern verwaltet wird, hat als erstes Ziel die Sozialisierung kleiner Kinder, damit sie Fremde als potenzielle Täter von drogenmotivierter Gewalt fürchten.;-;-;-;https://link.springer.com/chapter/10.1057/9781137322609_6 a0e3517b89752f4e19b40f96a3956825;de;;;1.1.;;;Modellierung mentaler Funktionen Ein Modell ist ein System, eine Struktur oder ein Aktivitätsprogramm, das in unterschiedlichem Maße ein anderes System, eine Struktur oder ein Programm widerspiegelt. Modellierung ist eine notwendige Bedingung für die Generierung von Informationen. Das Gehirn des Menschen, seine Rinde, stellt einen mächtigen Modellierungsapparat dar. Der Kortex schafft seine eigenen Modelle aufgrund seiner Vielfalt, erstens aufgrund der hierarchischen Struktur seiner Nervenzellen und zweitens aufgrund der Struktur der Moleküle in den Zellen selbst. Die Energieumwandlung innerhalb der Zellen – deren Aktivität in Form von Nervenimpulsen ausgedrückt – ist ein weiteres Mittel zur Modellbildung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-00640-3_5 1bef20522e168d4c9db0a30800244c15;de;;;1.1.;;;Unterscheidung verschiedener Arten kognitiver Belastung: ein Vergleich verschiedener Maßnahmen Measure Neuere Studien zu Lernen und Instruktion verwenden kognitive Belastungsmessung, um auf die kognitiven Ressourcen des Menschen und den Verbrauch dieser Ressourcen während des Lernprozesses zu achten. Um verschiedene Messungen der kognitiven Belastung für verschiedene kognitive Belastungsfaktoren zu validieren, vergleicht die vorliegende Studie drei verschiedene Methoden der objektiven Messung der kognitiven Belastung und eine subjektive Methode. Ein experimentelles Dreigruppendesign (;-;-;-;https://link.springer.com/article/10.1007/s10648-017-9404-8 64ff0bf523abe52213e681dbffde95ea;de;;;1.3.;;;Anwenden der Regularisierung der kanonischen Korrelationsanalyse der kleinsten Quadrate in einer Extreme Learning Machine für Klassifikationsprobleme mit mehreren Labels Multi Die Klassifizierung mit mehreren Labels ist ein Klassifizierungstyp, bei dem jede Instanz einem Satz von Labels zugeordnet ist. Viele Verfahren wie BP-MLL, Rang-SVM und MLRBF wurden für die Multi-Label-Klassifizierung vorgeschlagen, aber ihre Lernfähigkeiten sind zu langsam. Extreme Learning Machine (ELM) ist ein bekannter Algorithmus für SLFNs, der schneller lernen kann als die herkömmlichen neuronalen Netze auf Gradientenbasis und außerdem eine bessere Generalisierungsleistung bietet. Die Klassifikationsleistung von ELM mit Multi-Label-Klassifizierung kann jedoch trotz seines Vorteils beim schnellen Training nicht gut genug sein. Daher schlägt dieses Papier zwei Multi-Label-Klassifizierungsansätze in ELM vor. Der erste Ansatz verwendet das 1-norm-regularisierte kleinste Quadrat für die kanonische Korrelationsanalyse (1-norm LSCCA), um die Projektionsvektoren zu erhalten, die wiederum die Vektoren verwenden, um die neuen Informationen bereitzustellen. Dann wird ELM verwendet, um diese neuen Informationen in dem neuen Raum zu lernen. Der zweite Ansatz wendet die Ensemble-Methode auf den ersten Ansatz an, um die zufälligen Effekte von ELM zu reduzieren. Die experimentellen Ergebnisse zeigen, dass die beiden vorgeschlagenen Verfahren die Leistung von ELM bei der Multi-Label-Klassifizierung verbessern können und auch schneller sind als die bisherigen Multi-Label-Klassifizierungsverfahren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-14063-6_32 fb99f206817d0fb9329574ad2f2dcc72;de;;;1.3.;;;Auswählen besonderer Funktionen zur Verbesserung der Leistung des mehrdimensionalen Fuzzy-Vault-Schemas Das Fuzzy-Vault-Schema ist eines der beliebtesten biometrischen Kryptosysteme. Das Schema ist jedoch für Satzunterschiede ausgelegt, während die euklidische Distanz häufig in biometrischen Techniken verwendet wird. Das multidimensionale Fuzzy-Vault-Schema (MDFVS) ist eine modifizierte Version, die basierend auf biometrischen Merkmalsdaten einfach implementiert werden kann. In MDFVS ist jeder Punkt ein Vektor, und das euklidische Distanzmaß wird für die echte Punktfilterung verwendet. Um bessere Leistungen zu erzielen, ist der Schritt der Merkmalsauswahl in den MDFVS-Algorithmen sehr wichtig und sollte gut gestaltet sein. In diesem Papier schlagen wir vor, die Erkennungsrate anzuwenden, um die Unterscheidung von Merkmalen zu messen und starke Unterscheidungsmerkmale zu echten Punkten auszuwählen. Es werden einige Prinzipien der Auswahl starker Unterscheidungsmerkmale zur Bildung echter Punkte diskutiert. Eine Implementierung von MDFVS mit Merkmalsauswahl wird ebenfalls vorgestellt. Experimentelle Ergebnisse auf der Grundlage von Handabdrücken zeigen, dass der vorgeschlagene Ansatz zur Merkmalsauswahl die Leistung von MDFVS verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25449-9_29 49bc8898de0fcb12ae304b4fb7f01214;de;;;1.3.;;;Das Experiment zur Verbesserung der räumlichen Fähigkeiten von Schülern durch den Einsatz von VGLS Um die Wirkung von VGLS (Virtual Geometry Learning System) mit der traditionellen Lehrmethode bei der Verbesserung der räumlichen Fähigkeiten der Schüler zu vergleichen, haben wir zwei Klassen (insgesamt 106 Schüler) in der Jingqiao-Mittelschule als Experimentalklasse und Kontrollklasse ausgewählt und vor -getestet ihr Grundniveau der räumlichen Fähigkeiten. Die VGLS wurde in der Experimentalklasse vier Wochen lang angewendet, während in der Kontrollklasse die traditionelle Lehrmethode angewendet wurde. Einige Schlussfolgerungen können aus dem Ergebnis des Nachtests gezogen werden: Im Vergleich zur traditionellen Lehrmethode ist der VGLS-Ansatz signifikant effektiver bei der Verbesserung der geistigen Faltung, Entfaltung und Rotationsfähigkeit der Schüler, ohne offensichtliche Überlegenheit bei der Verbesserung der Mustererkennung der Schüler , VGLS ist signifikant wirksam bei der Verbesserung der mentalen Rotationsfähigkeit von Frauen und der mentalen Faltungs- und Entfaltungsfähigkeit von Männern.;-;-;-;https://link.springer.com/chapter/10.1007/11941354_47 189b487829f4bd56baffa55eaada7135;de;;;1.1.;;;Befragungstendenzen im Klassenzimmer aus Sicht von Big Data Wir leben jetzt in einer Ära von Big Data. Aus der Perspektive der Datenanalyse der Klassenzimmerbefragung wählt die Arbeit drei Bezirke in Stadt B aus, die signifikante Unterschiede aufweisen. Dies sind der pädagogisch entwickelte Distrikt D, der weniger entwickelte Distrikt F und der sich entwickelnde Distrikt M. Die Studie verwendet das geschichtete Stichprobenverfahren, um aus drei verschiedenen Gruppen von Lehrern, nämlich Anfängerlehrern, kompetenten Lehrern und erfahrenen Lehrern, mittels Videofallanalyse auszuwählen , die Modellmethode der Item-Response-Theorie (IRT) und die induktive und deduktive Methode, um die Merkmale der Unterrichtsfragen von Lehrern zu analysieren. Es wurde festgestellt, dass: (1) Alle drei Distrikte mit ihrem unterschiedlichen Niveau in der Bildungsentwicklung in Bezug auf die offene Befragung das Niveau der offenen Befragung ihrer erfahrenen Grundschullehrer verbessern müssen. In Mittelschulen ist die offene Frageneigung von Anfängerlehrern signifikant niedriger als die von qualifizierten und erfahrenen Lehrern. (3) In den drei Bezirken haben die erfahrenen und qualifizierten Grundschullehrer des Entwicklungsbezirks einen herausragenden Vorteil beim Aufwerfen kritischer und kreativer Fragen, während in den Mittelschulen die Lehranfänger in der Regel ein niedrigeres Niveau haben als die qualifizierten und erfahrenen Lehrer in der Erziehung Kritische und kreative Fragen. Die Ergebnisse der Big-Data-Analyse ermöglichen uns einen Rückschluss auf die Wertorientierung der Lehrkräfte beim Fragen im Unterricht. Gegenwärtig achten sie auf den lokalen Wert der Klassenzimmerbefragung, ignorieren jedoch den Gesamtwert, achten auf den instrumentellen Wert der Klassenzimmerbefragung, ignorieren jedoch den objektiven Wert und achten auf den oberflächlichen Wert von Klassenzimmerfragen, aber ignorieren zugrunde liegenden Wert.;-;-;-;https://link.springer.com/article/10.1007/BF03397112 564da0606c0b4c8396c68e7b07f4d37f;de;;;1.1.;;;Ein konzeptioneller Rahmen für die Zentralbankkommunikation Central In diesem Kapitel möchte ich mich einer praktikablen Definition der kommunikativen Interaktion zwischen der Zentralbank und den Finanzmärkten nähern. Dieses Kapitel befasst sich mit einer umfassenden Sicht auf die Kommunikation. Kommunikation ist keine lineare Transformation von Informationen, also keine lineare Transformation einer bestimmten Bedeutung von einem Sender zu einem Empfänger. Die Veröffentlichung von Informationen durch eine Zentralbank impliziert die Schaffung nichtlinearer Kommunikationsstrukturen. Ich möchte einen nichtlinearen konzeptionellen Rahmen für Zentralbanken und kommunikative Interaktionen vorschlagen. Da Kommunikation auf der Interaktion zwischen mindestens zwei Personen oder Institutionen beruht, beinhaltet diese Interaktion unterschiedliche Arten der Wahrnehmung und Verarbeitung von Informationen und auch des Verstehens. Der konzeptionelle Rahmen stellt Kommunikation als Verfahren der Informationsverarbeitung, Interaktionen zwischen Menschen und Institutionen in verschiedenen Kontexten vor. Es schließt die Ansicht aus, dass Kommunikation auf codierter Sprache oder mechanischen Anpassungen basiert, wie sie durch das Standardmodell der Kommunikation beschrieben werden.;-;-;-;https://link.springer.com/chapter/10.1057/9780230305960_3 7ddbd0d01fae771d480bd9d9cb27fbd0;de;;;1.3.;;;Textklassifizierung mit Support Vector Machine und neuronalem Backpropagation-Netzwerk Wir verglichen eine Support Vector Machine (SVM) mit einem Backpropagation Neural Network (BPNN) für die Aufgabe der Textklassifizierung von Webdokumenten der XiangShan Science Conference (XSSC). Wir haben die Leistungen der Mehrklassenklassifikation dieser beiden Lernmethoden verglichen. Das Ergebnis eines Experiments zeigte, dass SVM das von BPNN in Bezug auf Vorhersagegenauigkeit und Erinnerungsvermögen deutlich übertraf. Darüber hinaus wurde das Ergebnis der Klassifikation mit der in dieser Arbeit entwickelten kombinierten Methode verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72590-9_21 1b0cfd3e5aad603b63e4c72878f17df0;de;;;1.3.;;;Ein Cloud-Ressourcenzuweisungsmechanismus basierend auf Mean-Variance-Optimierung und doppelter Multi-Attribution-Auktion Als neuartiges kommerzielles Modell kann Cloud Computing verschiedene Arten von Ressourcen in das Netzwerk integrieren. Ressourcenanbieter bieten den Nutzern diese Ressourcen in Form von Diensten an und erhalten entsprechende Gewinne. Um die Cloud-Ressourcen rationeller zu nutzen, ist ein effektiver Mechanismus für die Ressourcenallokation erforderlich. In diesem Papier werden die Preiszuordnung und die Nichtpreiszuordnung beider Händler analysiert. Der Algorithmus der Support-Vektor-Maschine wird verwendet, um den Preis vorherzusagen, wodurch die Kurs- und Gebotsabgabe weiter bestimmt wird. Dann wird der neuronale Netzalgorithmus von BP verwendet, um die Nicht-Preis-Attributionen auf den Qualitätsindex zu übertragen. Um die Gesamtzufriedenheit von Ressourcenanbietern und Ressourcenverbrauchern zu maximieren, wird schließlich der Algorithmus zur Optimierung der mittleren Varianz verwendet, um das optimierte Cloud-Ressourcenzuweisungsschema zu erhalten. Simulationsergebnisse haben gezeigt, dass der vorgeschlagene Mechanismus machbar und effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40820-5_10 5f61c78ff40ab164242af8a94c61e90d;de;;;1.1.;;;Ein Anreizmechanismus-Design in E-Trade-Bewertungssystemen In den letzten Jahren hat sich der Handel über das Internet stark weiterentwickelt und die Bequemlichkeit des Handels im Internet verbessert. Allerdings nehmen auch die Handelsprobleme zu. Dieses Papier schlägt einen neuen Bewertungsmechanismus vor, um die Informationsunvollständigkeit und -asymmetrie durch die Verwendung von Multi-Attribut-Bewertung zu verringern. Käufer können aufgrund der von Verkäufern gewählten Multikriterien genau bewerten. Basierend auf der Anzahl der ausgewählten Kriterien ermittelt das System die Anreizrate des synthetischen Ratings für Verkäufer. Verkäufer haben somit einen Anreiz, viele Bewertungsattribute für Käufer offenzulegen. Unser Experiment zeigt die Funktionsweise der Anreizbewertung basierend auf einer Reihe von Kriterien. Zu den Vorteilen unseres vorgeschlagenen Modells gehören unvollständige und asymmetrische Informationsabnahmen auf der E-Commerce-Site.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15405-8_15 d3758c3499cf8251a6192e9a4fc84abc;de;;;1.1.;;;Theorie und Forschung zur Erforschung kindlicher Besonderheiten Theorie und Forschung zur Erforschung kindlicher Besonderheiten befinden sich derzeit in einem raschen Wandel (Adelman 1995, Kazdin & Kagan 1994, Mash & Krahn 1995). Dieser Wandel wurde durch konvergierende Beweisquellen zur Unterstützung einer multidimensionalen Sichtweise kindlicher Besonderheiten und die wachsende Erkenntnis, dass viele unserer früheren Modelle der Außergewöhnlichkeit es versäumt haben, die mit einer solchen Sichtweise verbundene Komplexität zu erfassen, vorangetrieben (Cicchetti & Cohen, 1995, Hersen). & Ammerman, 1995, Mash & Barkley, 1996). Aktuelle Herangehensweisen an die Außergewöhnlichkeit erkennen (1) die vielfältigen und interagierenden Arten an, in denen sich Besonderheiten bei Kindern ausdrücken, (2) die Bedeutung kontextueller Einflüsse und multipler Perspektiven bei der Beschreibung und dem Verständnis von Außergewöhnlichkeit, (3) die dynamische und sich verändernde Natur kindlicher Besonderheiten, (4) die multiplen Determinanten, die zu den meisten Formen von Außergewöhnlichkeit beitragen, und (5) die Notwendigkeit, mehrere Wege und Ergebnisse bei der Untersuchung von kindlichen Ausnahmefällen zu berücksichtigen (Mash & Dozois, 1996, Mash & Wolfe, 1999).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-5375-2_1 508ad8469c2dc34e1c237463648161fd;de;;;1.3.;;;Effizienz von Exascale-Supercomputerzentren und Supercomputing-Ausbildung Die effiziente Nutzung aller Möglichkeiten moderner Computersysteme stellt eine globale Herausforderung dar. Um es effizient zu lösen, müssen wir uns gleichzeitig in zwei Richtungen bewegen. Erstens muss das Hochschulsystem mit einer breiten Einführung von parallelen Computertechnologien als Hauptidee in allen Lehrplänen und Studiengängen verändert werden. Zweitens ist es notwendig, Softwaretools und -systeme zu entwickeln, um Ursachen für schlechte Performance von Anwendungen aufdecken zu können sowie die Effizienz von Supercomputerzentren in einem großen Taskflow zu bewerten. Wir versuchen, diese beiden Richtungen im Supercomputerzentrum der Moskauer Staatlichen Universität zu kombinieren. In diesem Artikel werden wir uns auf die Hauptidee der weiten Verbreitung der Supercomputing-Ausbildung für die effiziente Nutzung von Supercomputersystemen heute und in naher Zukunft konzentrieren und die bisher in diesem Bereich erzielten Ergebnisse beschreiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-32243-8_2 e77290cccdae4e335d37be05c2ebe03f;de;;;1.3.;;;Wie experimentelle Algorithmik von Mayos Erweiterungen der Neyman-Pearson-Testtheorie profitieren kann Obwohl in den letzten Jahrzehnten theoretische Ergebnisse für mehrere Algorithmen in vielen Anwendungsdomänen präsentiert wurden, können nicht alle Algorithmen vollständig theoretisch analysiert werden. Experimentieren ist notwendig. Die Analyse von Algorithmen sollte den gleichen Prinzipien und Standards anderer Erfahrungswissenschaften folgen. Dieser Artikel konzentriert sich auf stochastische Suchalgorithmen, wie zum Beispiel evolutionäre Algorithmen oder Partikelschwarmoptimierung. Stochastische Suchalgorithmen gehen harte Optimierungsprobleme aus der realen Welt an, z. B. Probleme aus der Verfahrenstechnik, der Tragflächenoptimierung oder der Bioinformatik, bei denen klassische Methoden der mathematischen Optimierung versagen. Heutzutage werden für die Analyse von Algorithmen statistische Werkzeuge entwickelt, die in der Lage sind, Probleme wie kleine Stichprobengrößen, Nicht-Normalverteilungen, verrauschte Ergebnisse usw. zu bewältigen. Obwohl es geeignete Instrumente gibt, um die statistische Signifikanz experimenteller Daten zu diskutieren, ist die statistische Signifikanz per se nicht wissenschaftlich aussagekräftig. Es gilt, die Lücke zwischen der statistischen Signifikanz eines experimentellen Ergebnisses und seiner wissenschaftlichen Bedeutung zu schließen. Wir werden einige Ideen vorschlagen, wie diese Aufgabe basierend auf Mayos;-;-;-;https://link.springer.com/article/10.1007/s11229-007-9297-z f458d42575d2fda86316f04e603f8f4c;de;;;1.3.;;;Ein Ausbilderassistent für Team-Training in dynamischen virtuellen Multi-Agenten-Welten Das Training von Teams in hochdynamischen, multiagenten virtuellen Welten stellt hohe Anforderungen an einen Ausbilder. Wir lösen das Problem des Lehrers mit dem PuppetMaster. Der PuppetMaster verwaltet ein Netzwerk von Monitoren, die über die Aktivitäten in der Simulation berichten, um dem Lehrer eine Interpretation und situationsspezifische Analyse des Schülerverhaltens zu ermöglichen. Der Ansatz zur Modellierung von Schülerteams besteht darin, den Zustandsraum in ein abstraktes situationsbasiertes Verhaltensmodell zu strukturieren, das die Interpretation angesichts fehlender Informationen über die Aktionen und Ziele des Agenten unterstützt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-68716-5_52 1708642cde8bbb212d9022e46161f8ea;de;;;1.3.;;;Mehrdimensionales System zur Einführung von Bildung an Hochschulen und Universitäten Die Einführung von Bildung, als ein wichtiger Begriff in der aktuellen Situation, hat im Bildungsbereich immer mehr Aufmerksamkeit auf sich gezogen. Die damit verbundenen praktischen und theoretischen Studien nehmen im Hochschulbereich Chinas rasant zu und dennoch erfordert eine effektivere Einführungsausbildung den Aufbau eines mehrdimensionalen Bildungssystems unter Berücksichtigung des Bildungsziels, der Zielbildung, der passenden Disziplinen und die Bildungsplattform.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27503-6_50 20316837ccc9261d990e8dead91f2c5d;de;;;1.3.;;;Zur Rechenkomplexität der Approximation von Verteilungen durch probabilistische Automaten Wir führen ein rigoroses Leistungskriterium für Trainingsalgorithmen für probabilistische Automaten (PAs) und Hidden-Markov-Modelle (HMMs) ein, die ausgiebig zur Spracherkennung verwendet werden, und analysieren die Komplexität des Trainingsproblems als Rechenproblem. Das PA-Trainingsproblem ist das Problem der Approximation einer willkürlichen, unbekannten Quellenverteilung durch von einer PA erzeugte Verteilungen. Zu diesem wichtigen, gut untersuchten Problem gehen wir folgender Frage nach: Gibt es eine;-;-;-;https://link.springer.com/article/10.1007/BF00992677 6e61930d2654a35fbdd9ded68381fe05;de;;;1.3.;;;Zur Rechenkomplexität approximierender Verteilungen durch probabilistische Automaten Wir führen ein rigoroses Leistungskriterium für Trainingsalgorithmen für probabilistische Automaten (PAs) und Hidden-Markov-Modelle (HMMs) ein, die ausgiebig zur Spracherkennung verwendet werden, und analysieren die Komplexität des Trainingsproblems als Rechenproblem. Das PA-Trainingsproblem ist das Problem der Approximation einer willkürlichen, unbekannten Quellenverteilung durch von einer PA erzeugte Verteilungen. Zu diesem wichtigen, gut untersuchten Problem gehen wir folgender Frage nach: Gibt es eine;-;-;-;https://link.springer.com/article/10.1023/A%3A1022693116573 7948426bb43359d0801e4cc5b92f62f7;de;;;1.1.;;;Soziale Kognition und Sexualdelikte: Ein theoretischer Rahmen Kliniker und Forscher haben die wichtige Rolle von unangepassten Überzeugungen und verzerrtem Denken bei der Erleichterung oder Rechtfertigung von Sexualdelikten festgestellt. Es gab eine Reihe von Versuchen, die Natur dieser Überzeugungen zu beschreiben und Methoden zu ihrer Messung zu entwickeln, jedoch ohne eine integrierende Theorie. Wir glauben, dass ein Verständnis der kognitiven Prozesse, die der Initiierung, Aufrechterhaltung und Rechtfertigung von Sexualdelikten zugrunde liegen, eine wesentliche Voraussetzung für die Entwicklung erfolgreicher Behandlungsprogramme ist. Der vorliegende Beitrag schlägt die Verwendung eines sozialen Kognitionsrahmens vor, um kognitive Prozesse zu berücksichtigen, die wichtige Faktoren für die Neigung einiger Männer sein können, Sexualdelikte zu begehen. Einschlägige Forschung im Bereich der sozialen Kognition, die Informationsverarbeitung, mentale Kontrolle und den Einfluss affektiver und motivationaler Faktoren auf kognitive Prozesse abdeckt, wird beschrieben und mit der Literatur zu Sexualdelikten in Verbindung gebracht. Implikationen für die klinische Praxis und Vorschläge für zukünftige Forschung werden hervorgehoben.;-;-;-;https://link.springer.com/article/10.1007/BF02258016 c49a418e0e15718a220393ca30b52346;de;;;1.3.;;;Anpassung in kollaborativen virtuellen Umgebungen für Schulungen Virtuelle Trainingsumgebungen, insbesondere kollaborative Umgebungen, erfordern Anpassungsfähigkeit, um in verschiedenen Situationen eingesetzt werden zu können. In diesem Beitrag klassifizieren wir den Anpassungsbedarf in zwei Ebenen. Der erste betrifft die Anwendungseinstellung. Die zweite ist eine dynamische Anpassung zur Laufzeit. Die in diesem Papier vorgeschlagenen Modelle erfüllen diese beiden Anforderungsebenen. Virtuelle Welt, Verhalten des virtuellen Menschen, Szenario und Anwendungskonfiguration können an eine bestimmte Trainingssituation angepasst werden. Darüber hinaus ermöglicht ein Aktionsauswahlmechanismus den Akteuren, ihre Aktionsplanung dynamisch an eine Situation anzupassen. Diese Situation wird durch einen aktuellen Kontext, vergangene Aktionen und ein zu erreichendes Ziel, nämlich ein Szenario, definiert. Schließlich validieren wir unsere Modelle, indem wir ein anschauliches Szenario präsentieren: die kollaborative Montage eines Möbelstücks.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03364-3_40 a2ae19ace51420acf1ba1b980ecab6ac;de;;;1.3.;;;Eine Methode zum Extrahieren von Sätzen mit Proteinfunktionsinformationen aus Artikeln durch iteratives Lernen mit Feature-Update Proteine ​​sind wichtige Makromoleküle in lebenden Systemen und erfüllen in fast allen biologischen Prozessen verschiedene Funktionen. Informationen zur Proteinfunktion werden in vielen wissenschaftlichen Artikeln berichtet. Die Extraktion der Funktionsinformationen aus den Artikeln ist für die Wirkstoffforschung, das Verständnis von Lebensphänomenen usw. nützlich. Es ist jedoch unmöglich, die Funktionsinformationen manuell aus einer Reihe von Artikeln zu extrahieren. In diesem Artikel schlagen wir eine Methode vor, um Sätze mit Proteinfunktionsinformationen durch iteratives Lernen mit Merkmalsaktualisierung zu extrahieren. Bei dieser Methode verwenden wir einen Klassifikator, um die Sätze, die die Funktionsinformationen enthalten, von den anderen Sätzen zu unterscheiden, und führen ein halbautomatisches Verfahren ein, bei dem ein neuer Klassifikator basierend auf dem Feedback des Benutzers für die zuvor klassifizierten Ergebnisse rekonstruiert wird. In dem Experiment mit zwölf Artikeln als Feedback-Daten wurde bestätigt, dass das F-Maß durch iteratives Lernen verbessert wurde, ohne den negativen Effekt des Feedbacks zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38342-7_8 01d2288b852c5d44835df806baf49c0a;de;;;1.3.;;;Klinische Bewertung der Beckenbodenmuskulatur Die klinische Untersuchung ist die Grundlage der Diagnose von urogynäkologischen Erkrankungen. Es ist wichtig, dass diese Prüfung von einer gut ausgebildeten Person mit den entsprechenden Fähigkeiten durchgeführt wird. Der Patient soll aktiv an der Untersuchung teilnehmen und bei Bedarf die Kontraktionen der Beckenbodenmuskulatur (PFM) koordiniert durchführen können. Dies bildet die Grundlage für die anschließenden Beckenbodenübungen und erlernt die dazu wesentlichen unterschiedlichen Arten der Muskelkontraktion. Die digitale Selbstuntersuchung ist ein wichtiger Bestandteil der Beckenbodenschulung, und eine Frau sollte dies selbst tun können. Es gibt verschiedene Bewertungsmethoden, insbesondere die P.E.R.F.E.C.T. Schema ist eine wichtige Bewertungstechnik und notwendig bei der Planung eines Behandlungsprogramms. Der Knack ist ein nützliches Manöver, das gelehrt werden kann, um Stressinkontinenz vorzubeugen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84628-505-9_9 5b1aff471d6822d3e8fea071abea78f3;de;;;1.1.;;;Entwicklung eines Zuchtleistungsmanagementsystems auf Schweinehaltungsbetrieben Die Studie wurde durchgeführt, um systemische und dynamische Analysedaten bereitzustellen, um einen besseren Betrieb auf einem Zuchtschweinebetrieb mit Prozessmanagement, insbesondere bei Reproduktionsparametern, zu unterstützen. In der Studie wurde ein vollständiges Simulationsmodell für den Betrieb einer Zuchtschweineanlage vorgeschlagen und eine Reihe von Definitionen von Prozessparametern in Bezug auf die Dienstleistung, Abferkelleistung und Absetzleistung vorgelegt. Einige von ihnen werden in den Rechenmodellen beschrieben. Basierend auf vorgeschlagenen Definitionen und Modellen unter Verwendung von Visual Basic 6.0 Access-Datenbanken und Crystal Reports in Kombination mit genetischen Merkmalen verschiedener Schweinerassen wurde die Beziehungsstrukturdatenbank entworfen und ein Satz digitaler Managementinformationssysteme entwickelt. Das System bietet eine Reihe praktischer, intelligenter Eingabeschnittstellen für Originaldaten, und alle verschiedenen Reproduktionsdaten können gezählt, analysiert und grafisch dargestellt werden, basierend auf verschiedenen Leistungen in einer bestimmten Dauer, und es kann alle angezeigten Sauenverlaufskarten dynamisch ableiten a vollständige Reproduktionsleistungen einschließlich einiger wichtiger Indizes wie Abferkelrate, Abferkelintervall, durchschnittliche Trächtigkeitstage und durchschnittliches Absetzgewicht et al. in Bezug auf Paritäten, anhand derer entschieden werden kann, ob eine Frau nicht mehr verwendet werden muss. Daher ermöglichte das System mit Hilfe von Systemanalyse- und Softwaredesign-Techniken die Realisierung des Informationsmanagements und der Intelligenzanalyse für einen Zuchtschweinebetrieb auf der Grundlage eines vollständigen digitalen Managements des Reproduktionsprozesses von der Dienstleistung bis zum Absetzen und zwischen verschiedenen Kategorien von Zuchtschweinen und Paritäten.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-77251-6_29 00ff8ef90d413b954e1e4fb3e09a9791;de;;;1.1.;;;Community-Erkennung basierend auf Minimum-Cut-Graph-Partitionierung Eine der nützlichsten Messungen der Community-Erkennungsqualität ist die Modularität, die bewertet, wie eine bestimmte Division von einem erwarteten Zufallsgraphen abweicht. Dieser Artikel demonstriert, dass (i) die Modularitätsmaximierung in Versionen der standardmäßigen Minimum-Cut-Graph-Partitionierung umgewandelt werden kann und (ii) die normalisierte Version der Modularitätsmaximierung identisch mit der normalisierten Cut-Graph-Partitionierung ist. In der Zwischenzeit kombinieren wir die Modularitätstheorie innovativ mit der populären statistischen Inferenzmethode in zwei Aspekten: (i) Umwandlung eines solchen statistischen Modells in ein Nullmodell bei der Modularitätsmaximierung, (ii) Anpassung der Zielfunktion der statistischen Inferenzmethode für unsere Optimierung. Basierend auf den obigen Demonstrationen schlägt dieses Papier einen effizienten Algorithmus für die Community-Erkennung vor, indem der spektrale Partitionierungsalgorithmus von Laplace angepasst wird. Die Experimente sowohl in realen als auch in synthetischen Netzwerken zeigen, dass sowohl die Qualität als auch die Laufzeit des vorgeschlagenen Algorithmus mit den bisherigen besten Algorithmen konkurrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-21042-1_5 66b58af50fd8c907500260be06668d9c;de;;;1.3.;;;Psychologie in der Lehrerbildung: Wirksamkeit, Professionalisierung, Management und Gewohnheit Jede dieser Hypothesen erfordert einen anderen Untersuchungsansatz. Um insbesondere die Wirksamkeitsperspektive zu untersuchen, habe ich eine Übersicht über die neuere Literatur durchgeführt und die Ergebnisse wissenschaftlicher Forschungsberichte zusammengefasst, die sich mit dem Verhältnis der Pädagogischen Psychologie zur Qualität des Unterrichts befassen. Um zweitens die Plausibilität der Professionalisierungsperspektive zu untersuchen, habe ich mich auf Psychologie- und Lehrerbildungsgeschichten sowie Professionalisierungstheorien bezogen, um die historische Rolle der Pädagogischen Psychologie bei der Professionalisierung zu beurteilen. Drittens, um die Erklärung von Politik und Management zu untersuchen, habe ich einen genealogischen Ansatz zum Verhältnis von Psychologie und Lehrerbildung als Disziplinen im erkenntnistheoretischen Kontext der modernen Sozialwissenschaften gewählt. Um schließlich die Rolle und Funktion der Gewohnheit zu untersuchen, wandte ich mich der Philosophie von John Dewey (1921) zu;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-5038-8_4 7b5b8b1f4016c91ecb7715e597728670;de;;;1.3.;;;Vorbereitung der Doktoranden auf die Lehre der Ingenieurwissenschaften Das Papier enthält einige Ergebnisse der Untersuchung des Systems der pädagogischen Ausbildung von Doktoranden an russischen Universitäten, die im Rahmen des ERASMUS+ Capacity Building for Higher Education-Projekts EXTEND durchgeführt wurden (# 586060-EPP-1-2017-1-RO -EPPKA2-CBHE-JP). Der Name des Projekts lautet „Exzellenz in der Ingenieurausbildung durch Lehrerausbildung und neue pädagogische Ansätze in Russland und Tadschikistan“ und widmet sich damit der Ausbildung von neuem Personal für die Ingenieurhochschulen. Die Stärken und Schwächen des Systems der pädagogischen Ausbildung junger Lehrkräfte werden in diesem Papier diskutiert sowie einige Empfehlungen zur Verbesserung der Vorbereitung der Russischlehrer.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29750-3_28 b3addf42d141ab56739811ae436f417b;de;;;1.3.;;;Die Entwicklung des Gesprächsverhaltens Dieser Aufsatz beginnt mit der Beschreibung eines Phänomens, das vor einigen Jahren im Labor entdeckt wurde, skizziert einige der Argumente, die zu seiner Erklärung vorgebracht wurden, berichtet über ein umfangreiches Follow-up, das einige dieser Argumente testen soll, und gibt dann einige eher spekulative Schlussfolgerungen, die auf der gesamten Masse basieren von Daten und den Ideen, die dadurch geweckt wurden. Kurz gesagt, das Phänomen ist, dass sich kleine Kinder in Gesprächen anders verhalten als ältere Kinder und Erwachsene.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-0492-1_7 3f0b924eb78991566fa37dad88de6793;de;;;1.1.;;;Kognitive Ansätze zur Entscheidungsfindung Die Entscheidungsfindung ist ein so grundlegender Teil des menschlichen Handelns, dass eine befriedigende Erklärung der Wahlmöglichkeiten von Menschen zwischen verschiedenen Handlungsoptionen ein zentrales Problem für die Psychologie zu sein scheint. Obwohl es viele Forschungen zu diesem Problem gab, blieb es bis vor kurzem relativ unabhängig von anderen Bereichen der Psychologie, und es gab nur wenige Hinweise auf den Austausch von Ideen, der zwischen diesen anderen Bereichen stattfand. Bei dem Versuch, diese gesonderte Entwicklung zu erklären, kann man darauf hinweisen, dass die intellektuelle Tradition, die die Forschung in der Entscheidungsfindung beeinflusste, sich stark von den Traditionen anderer Bereiche der Psychologie unterschied. Bis vor kurzem war die Entscheidungstheorie die vorherrschende Perspektive, und da diese ihren Ursprung in der Ökonomie und Statistik hat, unterscheidet sie sich von anderen Bereichen der Psychologie, die auf intellektuellen Traditionen wie dem Assoziationismus basieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2391-4_4 7cdf19edf47727db2f7e656f47d57526;de;;;1.1.;;;Wechselwirkungen zwischen Recht und Alltagsdenken in der gesellschaftlichen Kategorisierung von Ereignissen Die Frage hinter diesem Kapitel lautet ganz allgemein: Wie werden Ereignisse verstanden und definiert, so dass bestimmte rechtliche Antworten als angemessen erachtet werden? Ich betrachte dies als einen Prozess der sozialen Kategorisierung. Damit meine ich den Prozess, bei dem Ereignisse oder Fälle als Beispiele für eine Klasse klassifiziert werden, wobei die Kategorisierung soziale, vielleicht rechtliche Konsequenzen oder Implikationen hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-2629-6_3 64938d8f43ef9741b51abb071e46e8e8;de;;;1.1.;;;Denkschulen im organisationalen Lernen Dieser Artikel versucht, Kohärenz in die Vielfalt zu bringen, die die organisationale Lernforschung kennzeichnet. Es wird argumentiert, dass organisationales Lernen in vier Denkschulen eingebettet ist: eine Wirtschaftsschule, eine Managementschule, eine Entwicklungsschule und eine Prozessschule. Der Artikel bietet eine umfassende Analyse der Schulen, beschreibt ihre Unterschiede und skizziert, wie jede von ihnen effektiv eingesetzt werden kann. Um den Nutzen theoretischer Pluralität zu demonstrieren, werden die vier Schulen auf die zentralen Marketingthemen Marktorientierung und Produktneuentwicklung angewendet. Es werden Implikationen für die zukünftige Forschung im Marketing gegeben.;-;-;-;https://link.springer.com/article/10.1177/03079459994335 08ebc1fba5bad9782ada4548736a8f72;de;;;1.1.;;;Forschung zur Katastrophenkommunikation Aus unserer Erfahrung beim Großen Erdbeben in Ostjapan im März 2011, um den Menschen im betroffenen Gebiet in Bezug auf IT-Unterstützung wie Internetworking und Bereitstellung von PCs zu helfen, sind wir auf ein interessantes Thema bezüglich der Zusammenarbeit mit Menschen einschließlich Unterstützern und Opfern gestoßen. Wir nennen dieses Problem Katastrophenkommunikation. Wir lernten auch den Bedarf an Katastropheninformationsverarbeitung kennen, da es keine solchen Systeme gab, um Unterkünfte, Güterverteilung und Freiwillige zu verwalten. Andererseits sind solche Systeme in den Vereinigten Staaten von Amerika und in Europa im Hinblick auf die Informationsverarbeitung für das Notfallmanagement in großem Umfang erforscht worden. Während wir in Japan viele Naturkatastrophen erlebt haben, haben sich nur sehr wenige Forscher in den Bereichen Informatik und Informationssysteme mit diesem Thema beschäftigt. Aus dieser Perspektive versuchen wir in dieser Forschung die Informationen zu identifizieren, die bei einer Katastrophe benötigt werden. Insbesondere untersuchten wir den Bedarf und die Voraussetzungen für die Verarbeitung von Katastropheninformationen in Iwate, Japan. Wir haben im März 2011 einige Unterstützer von Iwate interviewt, wie lokale Regierungsbeamte, Ärzte und Universitätsverwalter und fanden heraus, dass zu Beginn der Katastrophe das Situationsbewusstsein dringend erforderlich war. Dieser Beitrag berichtet über unser Projekt der Befragung von Personen, die während des Katastrophenschutzes in der Katastrophenhilfe tätig waren, sowie über unsere Erprobung eines Systems zur Situationserkennung basierend auf den Ergebnissen unserer Interviews.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-18293-9_1 61d03a07bc056308362c6f0ddbfbf869;de;;;1.1.;;;Soziale und kognitive Evolution Sozialität, Kognition, Kommunikation und Sprache sind im menschlichen Leben vereint, sie entziehen sich der Erklärung durch eine einzige Theorie. Dieses Kapitel betrachtet zwei evolutionäre Darstellungen dieser Realitäten. Die erste ist Maturanas und Varelas Idee von „Wissen ist Tun“. Auf dieser Grundlage entwickeln Varela und seine Mitarbeiter eine Theorie der enaktiven Kognition und kontrastieren sie mit repräsentationalen Kognitionstheorien. Die zweite Theorie von Derek Bickerton geht davon aus, dass sich die Sprache nicht aus Kommunikationen, sondern aus Repräsentationen entwickelt hat, und verfolgt die Evolution von Repräsentationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-1263-9_4 7ff77140425cf6f2404c4498d92ce542;de;;;1.3.;;;Wissensstruktur zu Viren für die Benutzerschulung Es gibt viele Faktoren, die zur Verbreitung und Ansteckung des Virus beitragen. Eine der großen Herausforderungen bei der Bekämpfung von Computerviren besteht darin, den Benutzer zu schulen. Es erfordert viel Aufwand, den Benutzer über Computerviren aufzuklären. Die Forscher haben ECOVP erstellt, das Benutzern beim Umgang mit Virenproblemen und den Zielbenutzern einschließlich Heimanwender, Nicht-IT-Literaturhintergrund und IT-Personal bei der Handhabung von Virenvorfällen helfen soll. Die Forscher hatten untersucht, welche Informationen verarbeitet werden müssen, damit wir daraus Erkenntnisse über den Umgang mit dem Virusproblem gewinnen konnten. Wir haben sieben wichtige Kriterien identifiziert, die die Benutzer verstehen müssen, damit sie dem Computervirus begegnen können. Dieses Papier konzentriert sich jedoch nur auf Virenangriffe auf der Windows-Plattform.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74377-4_85 af3bbb87509ed3cd30d880bd0f6adafc;de;;;1.1.;;;Vision, Denken und modellbasierte Schlussfolgerungen Modellbasiertes Denken bezieht sich auf die Art von Schlussfolgerungen, die auf der Grundlage eines sie leitenden Wissenskontextes durchgeführt werden. Dieser Kontext stellt ein Modell eines Realitätsbereichs dar, d. h. eine approximative und in unterschiedlichem Maße vereinfachende Darstellung der Faktoren, die dem Verhalten dieses Bereichs zugrunde liegen, und der Wechselbeziehungen, die das Verhalten dieses Bereichs bestimmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30526-4_26 2986eb1d48eeec7678c7befa79671192;de;;;1.3.;;;Ein universelles neuronales Netzwerksimulatorsystem für die medizinische Datenverarbeitung Wir haben ein universelles neuronales Netzwerksimulatorsystem für die medizinische Datenverarbeitung entwickelt. Dieses System verfügt über eine flexible Netzwerkdefinitionssprache. Benutzer können unter Verwendung der Definitionssprache beliebige hierarchische neuronale Netze definieren, um medizinische Daten zu analysieren, die einige komplexe Muster enthalten. Der in diesem System verwendete Lernalgorithmus ist Backpropagation. Lernkurven werden in mehreren Fenstern angezeigt. Dies ist ein Allzwecksystem, so dass es für verschiedene Arten der medizinischen Datenverarbeitung verwendet werden kann, wie beispielsweise eindimensionale Signalverarbeitung oder zweidimensionale Bildverarbeitung. Das System kann auf einer Standard-UNIX-Workstation ausgeführt werden, die schneller und leistungsfähiger ist als die meisten PCs. Das System benötigt ein X-Window-System/Motif Motif und einen C-Compiler. Dies sind Standardsystemprogramme, die bereits auf den meisten UNIX-Workstations verfügbar sind. Der Quellcode des Systems kann von unserer anonymen FTP-Site über das Internet abgerufen werden.;-;-;-;https://link.springer.com/article/10.1007/BF00999272 5d2383e3cd5b7ef8db8ce77a88b42d7e;de;;;1.1.;;;Klärung des Zusammenhangs zwischen Beteiligungsvariablen und Werbewirksamkeit bei Jugendlichen Frühere Forschungen haben die Notwendigkeit einer eingehenden Untersuchung der Rolle von Beteiligungsvariablen in der Werbeinformationsverarbeitung junger Menschen gezeigt, angesichts der Ungeeignetheit bestehender Überzeugungsmodelle für Erwachsene für eine junge Bevölkerung, der unzureichenden Berücksichtigung von Beteiligungsvariablen bei jungen Menschen und die einzigartigen Eigenschaften dieser Population. Diese Studie untersuchte die Auswirkungen von Werbebeteiligung und Produktbeteiligung auf die Werbewirksamkeit bei Jugendlichen anhand einer quantitativen Studie an 252 4- bis 15-Jährigen. Die Ergebnisse zeigen, dass Werbeeinbindung und Produkteinbindung einen positiven direkten Effekt auf die Werbewirksamkeit hatten. Darüber hinaus hatten alle endogenen Variablen – subjektives Produktwissen, Einfluss von Gleichaltrigen und Eltern sowie Alter – über Werbebeteiligung und Produktbeteiligung indirekte Auswirkungen auf die Werbewirksamkeit. Interessanterweise hatten subjektives Produktwissen und Peer-Einfluss keinen direkten, sondern nur einen indirekten Einfluss auf die Werbewirksamkeit. Diese Studie stellt die Komplexität des Prozesses genauer dar und zeigt, dass Werbebeteiligung und Produktbeteiligung zu einem besseren Verständnis des Prozesses bei jungen Menschen beitragen.;-;-;-;https://link.springer.com/article/10.1007/s10603-013-9226-0 4ee24dbdc956cbacef6c6f6f9739b206;de;;;1.1.;;;Intelligentes System zur Diabetesvorhersage bei Patienten mit chronischer Pankreatitis Dieser Beitrag präsentiert die Ergebnisse der JSM-Methode zur automatisierten Unterstützung der wissenschaftlichen Forschung (ASSR JSM-Methode) implementiert in einem computerintelligenten System (IS-JSM), das die Entwicklung von Diabetes bei Patienten mit chronischer Pankreatitis vorhersagt. Erstmals wird die ASSR JSM-Methode auf eine Folge von expandierenden Faktendatenbanken angewendet, die zum Nachweis empirischer Gesetzmäßigkeiten (ERs), d. h. erhaltener Ursachen des untersuchten Effekts (Entstehung von Diabetes bei Patienten mit chronischen Pankreatitis). Um ERs im IS-JSM zu erkennen, haben wir ein algebraisches Gitter von JSM-Resoning-Strategien (induktive Inferenzregeln) verwendet. Diese Ergebnisse haben eine informative klinische Interpretation und belegen die Nützlichkeit von Data Mining mit dem IS-JSM, das als Werkzeug für die evidenzbasierte Medizin verwendet werden kann.;-;-;-;https://link.springer.com/article/10.3103/S0147688216050051 bc76d4efad25d7ea2bd10681f41847da;de;;;1.3.;;;Deep Key Frame-Extraktion für das Sporttraining Für einige professionelle Sportarten ist es erforderlich, die Athletikpose im Training der Athleten zu überwachen und zu analysieren. Um das Durchsuchen von Schulungsvideos zu erleichtern, ist es erforderlich, die Keyframes aus den Schulungsvideos zu extrahieren. In diesem Artikel schlagen wir eine Methode zur Extraktion von tiefen Keyframes zur Analyse von Sporttrainingsvideos vor. Um die Verzerrung durch den komplexen Hintergrund zu mildern, werden Fully Convolutional Networks (FCN) verwendet, um zuerst den Vordergrundbereich zu extrahieren, der den Athleten und die Langhantel enthält. Dann werden über den extrahierten Vordergrundbereichen Convolutional Neural Networks (CNN) genutzt, um die Posenwahrscheinlichkeit jedes Frames zu schätzen und die Keyframes mit der maximalen Wahrscheinlichkeit für jede Pose zu extrahieren. Die experimentellen Ergebnisse zeigen, dass das vorgeschlagene Verfahren eine gute Leistung bei der Schlüsselbildextraktion von Sportvideo-Vergleichsverfahren erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7305-2_51 6d645817bf6ee4080c7fc67e95652e6d;de;;;1.3.;;;Eine qualitative Analyse einer E-Education-Initiative in Deep Rural Schools in Südafrika: A Need to Build Resilienz Die Initiative Information Communication and Technology for Rural Education Development (ICT4RED) in Südafrika, die auf die Einführung von IKT in Schulen in benachteiligten Gemeinden abzielte, wurde von einer Regierungsbehörde (dem Meraka Institute) koordiniert. Die Initiative wurde von einer Reihe von Regierungsvertretern unterstützt, nämlich dem Ministerium für Wissenschaft und Technologie, dem Ministerium für Grundbildung, dem Ministerium für ländliche Entwicklung und Landreform und dem Bildungsministerium der Provinz. ICT4E-Projekte scheitern oft, wenn sich das Implementierungsteam und der Geldgeber zurückziehen, insbesondere in ländlichen Schulen, wo die einzigen technischen Ressourcen an der Schule die durch das Projekt oder die Intervention bereitgestellten sind. Obwohl dies mehrere Gründe hat, liegt das Problem häufig in der Integration des Projekts in den institutionellen Alltag des Bildungssystems. Dies belastet das schulische Umfeld, insbesondere die Lehrkraft, die von den Bezirks- und Landesabteilungen oft nur wenig Unterstützung erhält. Die Forscher führten halbstrukturierte Interviews mit elf Lehrern aus fünf Projektschulen, die seinerzeit für eine Evaluation ausgewählt wurden, in der Provinz Eastern Cape in Südafrika. Die Erkenntnisse zu dem Papier wurden inhaltsanalytisch generiert. Der Inhalt der Interviews wurde schließlich mit dem Resilience Assessment Benchmarking and Impact Toolkit (RABIT) von Heeks analysiert. Die Forschung hat gezeigt, dass diese Schulen den eingeführten Wandel ohne Unterstützung durch ihr formelles Unterstützungssystem nicht durchhalten können. Dies deutet darauf hin, dass die Schulen widerstandsfähiger sein müssen, um Kapazitäten zur Aufnahme der Intervention zu entwickeln und sie erfolgreich umzusetzen auf Schulebene.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-11235-6_9 2aa9cab04649b58f2ebbb8fc37a91bea;de;;;1.3.;;;Er:YAG-Lasertherapie bei periimplantärer Infektion: eine histologische Studie Ziel dieser Studie war es, die Auswirkungen des Er:YAG-Lasers auf die Degranulation und das Debridement der Implantatoberfläche bei periimplantären Infektionen zu bewerten. Die periimplantäre Infektion wurde bei Hunden experimentell induziert und die Behandlung erfolgte mit einem Er:YAG-Laser oder einer Kunststoffkürette. Die Tiere wurden nach 24 Wochen getötet und nicht entkalkte histologische Schnitte hergestellt und analysiert. Degranulation und Debridement der Implantatoberfläche wurden mit dem Er:YAG-Laser effektiv und sicher durchgeführt. Histologisch wurde auf der laserbehandelten Implantatoberfläche eine günstige Knochenneubildung beobachtet, und die Lasergruppe zeigte eine Tendenz zu einem stärkeren Knochen-Implantat-Kontakt als die Kürettengruppe. Diese Ergebnisse zeigen, dass die Er:YAG-Lasertherapie bei der Behandlung von Periimplantitis vielversprechend ist.;-;-;-;https://link.springer.com/article/10.1007/s10103-006-0430-x 50ac8b32fe4ebef35d602e649b88cd4f;de;;;1.1.;;;Forschung zum Einfluss der vertikalen Position von Text und Bild des Sport-Event-Logos auf die Einstellung zum Sport-Event Als besondere Markenidentität haben die Gestaltung und Verwendung von Sportevent-Logos immer mehr Aufmerksamkeit bei Sportevent-Veranstaltern auf sich gezogen. Gegenwärtig konzentrieren sich die Forschungen zu Logos von Sportveranstaltungen hauptsächlich auf die Auswirkungen von „Anwesenheit oder Abwesenheit“, und es gibt keine eingehende Forschung zum „Wie“, was bedeutet, dass Forschungen darüber, wie sich Logos für Sportveranstaltungen besser auswirken können Sensibilisierung für Sportveranstaltungen und Steigerung der Effektivität von Sportveranstaltungen. Basierend auf der Theorie des Standorteffekts untersucht diese Arbeit den Einfluss der vertikalen Position von Logo und Text von Sportereignissen auf die Einstellung von Sportereignissen durch zwei Experimente. Die Studie ergab, dass die Einstellung der Verbraucher gegenüber der Veranstaltung im Vergleich zur Kombination der Position des Veranstaltungslogos „Text oben und unten“ positiver ist, wenn sie der Kombination „Bild oben und unten“ des Veranstaltungslogos gegenüberstehen. Dieses Papier bereichert die Forschung zur damit verbundenen Identifizierung von Sportereignissen und bietet theoretische Referenzen für die genaue Gestaltung des Sportereignislogos durch die Sportereignismanagementorganisation.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-79203-9_48 91a9d3cf67f40017131f4aca7da983a7;de;;;1.1.;;;Marketing-Kommunikation Der Begriff „Marketingkommunikation“ wurde als Titel dieses Kapitels bewusst und mit Bedacht gewählt, obwohl er in der Marketingpraxis unbestreitbar noch nicht weit verbreitet ist, weil er die Thematik möglichst präzise definiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-06853-1_6 81a5a65cf3c7124c30cb1ef2168a4d85;de;;;1.3.;;;Einheitliche Entropietheorie und maximale Diskriminierung bei der Mustererkennung Mustererkennung ist ein sehr dringendes Forschungsgebiet in der intelligenten Informationsverarbeitung und computerintelligenten Wahrnehmung, wie Computer Vision, Content Based Retrieval, etc. Generell wird die Forschung zur Mustererkennung teilweise separat als Merkmalsextraktion, Klassifikation etc. bei denen das globale Optimum nicht erreicht werden konnte. In diesem Kapitel wird zunächst die Unified Entropie Theory zur Mustererkennung vorgestellt, in der die Informationsverfahren beim Lernen und Erkennen und die bestimmende Rolle der gegenseitigen Information entdeckt wurden. Zweitens wird die auf Maximum MI Discrimination basierende Unterraummustererkennung vorgestellt, um eine optimale Erkennungsleistung zu erzielen, die für schwierige Mustererkennungsprobleme entscheidend ist. Versuche zur handschriftlichen Zeichenerkennung erweisen sich als effektiv und effizient.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22407-2_27 e24ff6e2dcd5af450b6849b0c7535cbe;de;;;1.1.;;;Organische Mathematik: Zur Erweiterung der Logik von physikalischen Atomen auf zelluläre Informationsprozesse Formal erfordert die zelluläre Informationsverarbeitung mathematische Formen der Darstellung von Teilen des Ganzen. Zur Einbettung der symbolischen Bedeutungen sind mehrere Arten von mereologischen Operanden, Kooperanden und Operatoren erforderlich. Die gemeinsame Quelle von Aussagen sind die Ordnungszahlen, die sowohl als (messbare) physikalische Objekte als auch als mathematische Objekte betrachtet werden. Die Ordnungszahlen dienen als Quelle der neuartigen Notation für die organische Mathematik. Die historisch-wissenschaftliche Grundlage der Notation wird durch die elektrischen Teilchen (abstrakt definiert als Kardinal- und Ordnungszahlen) beschrieben. Die regelmäßige Ordnung der Ordnungszahlen als Diagramme definiert die Radix-Attribute des Perplex-Zahlensystems. Eine Triade mathematischer Konstrukte, die aus den perplexen Zahlen aufgebaut sind, umfasst die Quantenmechanik, die Elementtabelle und die Molekularbiologie. Die Basis der hybriden Logik der biologischen Informationsverarbeitung umfasst Formen sowohl kopulativer als auch prädikativer Aussagen über die anziehenden und abstoßenden Eigenschaften elektrischer Teilchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23108-2_3 67ff0e77d97b0d1972c1ef10cbdb3567;de;;;1.1.;;;Hierarchische Kategorisierung koartikulierter Phoneme: Eine theoretische Analyse Dieser Artikel beschäftigt sich mit der Frage, wie Hörer koartikulierte Phoneme erkennen. Das Problem wird aus der Perspektive der Musterklassifikation angegangen. Zunächst werden die potentiellen akustischen Effekte der Koartikulation anhand der Muster definiert, die die Eingabe für einen Klassifikator bilden. Als nächstes wird ein Kategorisierungsmodell namens HICAT eingeführt, das hierarchische Abhängigkeiten einbezieht, um diese Eingabe optimal zu verarbeiten. Das Modell ermöglicht, dass die Position, Orientierung und Steilheit einer Phonemgrenze vom wahrgenommenen Wert eines benachbarten Phonems abhängt. Es wird argumentiert, dass, wenn sich Hörer wie statistische Mustererkenner verhalten, sie die im Modell enthaltenen Kategorisierungsstrategien verwenden können. Das HICAT-Modell wird mit bestehenden Kategorisierungsmodellen verglichen, darunter das fuzzylogische Wahrnehmungsmodell und Neareys diphone-biased-sekundär-cue-Modell. Schließlich wird ein Verfahren vorgestellt, mit dem Kategorisierungsstrategien, die wahrscheinlich von Zuhörern verwendet werden, aus Verteilungen von akustischen Hinweisen, wie sie in natürlicher Sprache auftreten, vorhergesagt werden können.;-;-;-;https://link.springer.com/article/10.3758/BF03194529 9b0394a91d43dc9474a482c0888ba53d;de;;;1.3.;;;Untersuchung von Problemen des semi-überwachten Lernens zur Begriffsklärung im Wortsinn Word Sense Disambiguation (WSD) ist das Problem, den richtigen Sinn eines polysemen Wortes in einem bestimmten Kontext zu bestimmen. In diesem Beitrag untersuchen wir die Verwendung von unmarkierten Daten für WSD im Rahmen des semi-überwachten Lernens, bei dem der ursprüngliche markierte Datensatz iterativ durch Nutzung unmarkierter Daten erweitert wird. Dieses Papier befasst sich mit zwei Problemen, die bei diesem Ansatz auftreten: Bestimmen einer Teilmenge von neuen markierten Daten bei jeder Erweiterung und Generieren des endgültigen Klassifikators. Indem wir Lösungen für diese Probleme anbieten, generieren wir einige Varianten von Bootstrapping-Algorithmen und wenden sie auf die Begriffsklärung im Wortsinn an. Die Experimente wurden mit den Datensätzen von vier Wörtern durchgeführt:;-;-;-;https://link.springer.com/chapter/10.1007/11940098_51 17edcedcffe753260a9efb27ad244cc2;de;;;1.3.;;;Lehrinhalte: Prüfung der Farnen/Meloen-These In diesem Kapitel werden die Ergebnisse einer empirischen Prüfung der Farnen/Meloen-These zu den Präferenzen der Studierenden bezüglich Inhalt und Stil der Bildung und deren Beziehungen zu relevanten politischen Einstellungen beschrieben. Unser Hauptforschungsproblem besteht darin, dass Bildung klare politische Auswirkungen hat, weil einige Schüler länger im Schulsystem bleiben als andere und daher die Bevölkerung hinsichtlich des durchschnittlichen Bildungsniveaus und der Verteilung und des Verbrauchs von Bildungsressourcen variiert. Unsere These in dieser Studie war, dass nicht nur das erreichte Bildungsniveau Auswirkungen hat, sondern dass es auch darauf ankommt, was gelehrt wird, welche Lehrinhalte und der Bildungsprozess im Allgemeinen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-63025-7_11 e066c3c9d86e8fd9062101072d451b69;de;;;1.3.;;;Verteidigung gegen die dunklen Künste mit spielbasiertem Lernen lehren: Ein Überblick über Lernspiele für die Cybersicherheitsausbildung Beim Vergleich spielbasierter Lernansätze für die Cybersicherheitsausbildung mit der Klasse „Verteidigung gegen die dunklen Künste“ in Hogwarts stellen wir einige Ähnlichkeiten fest, obwohl sie nicht direkt miteinander verbunden sind. In der Vergangenheit wurden verschiedene spielbasierte Lernanwendungen und Lernspiele entwickelt, die jedoch ähnlich wie der Lehrerfluch in Harry Potter die Prototypenphase nicht überleben und daher der Öffentlichkeit nicht zugänglich sind. Die vorliegende Arbeit präsentiert eine umfangreiche systematische Literatur- und Produktübersicht zu zwei Hypothesen sowie vertiefende Spielanalysen anhand eines Klassifikationsmodells für Serious Games. Wir erwarten zwar nicht, dass viele Spiele für die Zielgruppe der nicht-professionellen Internet- und IT-Endnutzer ohne Vorkenntnisse in Informatik (CS) verfügbar sind, vermuten aber auch, dass verfügbare Spiele keine angemessenen Lernziele aufweisen und kein nachhaltiges Wissen vermitteln und Fähigkeiten in CS. Für unsere Spielanalyse haben wir das G/P/S-Klassifizierungsmodell verwendet, um Erkenntnisse über Gameplay, Zweck und Umfang der Anwendungen zu gewinnen. Die Ergebnisse beinhalten eine falsifizierte erste Hypothese und Indikatoren für die zweite Hypothese. Außerdem werden die Ergebnisse der Spielanalyse vorgestellt und diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58459-7_4 e33ef4eb3dccd898178feaed5931ebf3;de;;;1.3.;;;Progressives Entspannungstraining Assistierte kognitive Therapie von Schlaflosigkeit Um die Wirksamkeit der durch progressives Entspannungstraining unterstützten kognitiven Therapie zur Behandlung von Schlaflosigkeit von College-Studenten zu untersuchen, führt dieser Artikel eine 3-monatige Behandlung von College-Studenten durch. Wir messen viermal, vor der Behandlung, Behandlung einen Monat, Behandlung 3 Monate und 1 Monat nach der Behandlung. Nach der Behandlung verbesserte sich die Schlafqualität von 121 College-Studenten signifikant. Behandlungsergebnis: Progressive Entspannungstraining unterstützte kognitive Therapie ist eine wirksame Methode zur Behandlung von Schlaflosigkeit von Studenten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34041-3_83 3a30a9c743234e483f20220e673e5fc8;de;;;1.3.;;;Förderung der fortgeschrittenen Ego-Entwicklung bei Erwachsenen Eine Interventionsstudie wurde durchgeführt, um zu untersuchen, ob eine fortgeschrittene Ich-Entwicklung gefördert werden kann, wenn die Faktoren berücksichtigt werden, die wahrscheinlich am Übergangsprozess in die Ich-Phase im Erwachsenenalter beteiligt sind. Ein konzeptioneller Rahmen, der solche Faktoren identifizierte, wurde beschrieben, in dem die Hypothese aufgestellt wurde, dass der Phasenübergang als Reaktion auf strukturell disbalancende, persönlich hervorstechende, emotional einnehmende und zwischenmenschliche Lebenserfahrungen stattfindet. Die Intervention wurde in Übereinstimmung mit diesen vorgeschlagenen Arten von Lebenserfahrungen entworfen und richtete sich an Erwachsene in der modalen Phase der Ich-Entwicklung. Unter Verwendung eines experimentellen Designs wurde in 2 äquivalenten Interventionsgruppen ein signifikanter Anstieg des Ego-Levels gefunden, während in einer entsprechenden Kontrollgruppe kein Anstieg gefunden wurde. Die Ergebnisse zeigen die Möglichkeit einer fortgesetzten Ich-Entwicklung im Erwachsenenalter, einschließlich der Entwicklung bis in die fortgeschrittenen Ich-Stadien, und geben Klarheit über einige der Prozesse, die an einer solchen Entwicklung beteiligt sind.;-;-;-;https://link.springer.com/article/10.1023/B%3AJADE.0000012524.32002.8d e96c54764f7a130e4534f291dd0d0fc7;de;;;1.3.;;;Geschlechtsspezifische Trends beim Wert der Bildung und die sich abzeichnende geschlechtsspezifische Kluft bei Hochschulabschlüssen Die Analyse der Daten der aktuellen Bevölkerungserhebung vom März von 1964 bis 2002 zeigt, dass weiße Frauen bei ihren Hochschulabschlüssen weiße Männer überholten und dass dieses Phänomen in einer Zeit auftrat, in der der Lebensstandardgewinn von Frauen durch Hochschulabschluss schneller anstieg als die für Männer. Wir untersuchen, ob diese Trends mit Veränderungen des Bildungswerts für Männer und Frauen in Bezug auf die Einkommenserträge aus der Hochschulbildung, die Wahrscheinlichkeit zu heiraten und zu bleiben, bildungsbedingte Unterschiede im Familienlebensstandard und die Versicherung gegen den Armut. Obwohl die Renditen einer Hochschulausbildung in Form des Einkommens für Frauen über den gesamten Zeitraum höher blieben als für Männer, liefern die Trends dieser Renditen keine plausible Erklärung für geschlechtsspezifische Trends bei den Hochschulabschlüssen. Berücksichtigt man jedoch umfassendere Messgrößen des materiellen Wohlergehens, scheinen die Erträge von Frauen an Hochschulbildung schneller gestiegen zu sein als die von Männern.;-;-;-;https://link.springer.com/article/10.1353/dem.2006.0003 c6e2509d6fd5009cc3b211d39ac63e71;de;;;1.1.;;;Kognitive Habilitation bei Schizophrenie: Eine theoretische Überprüfung und ein Behandlungsmodell model Es gibt Belege für Informationsverarbeitungsdefizite bei Schizophrenie. Die funktionelle Bedeutung dieser Defizite wird erst am Anfang verstanden. Es gibt Hinweise darauf, dass diese Defizite auf Interventionen ansprechen können. Es hat sich gezeigt, dass Schulungen zu mangelhaften Funktionen mit Leistungsverbesserungen zusammenhängen. Ein Behandlungsprogramm der kognitiven Rehabilitation wird aus der Literatur abgeleitet und aus klinischen Erfahrungen induziert. Die Behandlung soll direkt auf die Informationsverarbeitungsdefizite schizophrener Patienten einwirken und indirekt funktionelle Defizite lindern.;-;-;-;https://link.springer.com/article/10.1007/BF01112572 bbca1f0cf31e676640423298965e7fa4;de;;;1.1.;;;Die Lehrbotschaft: Eine theoretische Perspektive Dieser Artikel stellt ein theoretisches Modell für das Nachrichtendesign vor, das sich als geeignet erwiesen hat, die Unterrichtsqualität zu verbessern und gleichzeitig die Kosteneffizienz zu erhöhen. Durch die Integration von klassischer Rhetorik, Informationstheorie, zeitgenössischer Medienkritik, Sozialpsychologie und Psychologie der menschlichen Informationsverarbeitung weist das Modell den Designer an, einen Zeitblock zu entwerfen, der die Informationslast und die Nachrichtenkomplexität innerhalb der Grenzen der Fähigkeiten und Erfahrungen des Empfängers optimiert , die Anforderungen der Quelle sowie die Möglichkeiten und Grenzen des Mediums.;-;-;-;https://link.springer.com/article/10.1007/BF02791457 e907086030a6123dc40b6de5a0cb42ce;de;;;1.1.;;;Human Reliability Assessment – ​​Stand der Technik für aufgaben- und zielbezogenes Verhalten Große Ausfälle technischer Systeme zeigen, wie stark die heutige Welt und der Erhalt unserer Umwelt vom reibungslosen Funktionieren der Systeme abhängen. Ereignisse können als Auswirkungen unvorhergesehener Bedingungen angesehen werden, die zum Fehlen von Sicherheitsfunktionen eines Systems führen. Es gibt jedoch obligatorische Methoden, um zu zeigen, dass Systeme sicher funktionieren können und um eine sichere Funktion unter realen Bedingungen zu gewährleisten, die für jedes technische System durchgeführt werden müssen, d. h. prädiktive Risikobewertungen. Da es immer wieder zu Unfällen kommt, zeigen Unfälle natürlich auch die Unvollständigkeit solcher prädiktiver Risikobewertungen. Dieses Papier beschreibt, wie prädiktive Risikobewertungen in Bezug auf die Rolle des Menschen bei Risiken und Unfällen verbessert werden können. Es werden die Fallstricke und Notwendigkeiten einer besseren Bewertung der menschlichen Zuverlässigkeit beschrieben, einschließlich des aufgaben- und zielbezogenen menschlichen Verhaltens bei Risikobewertungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-5796-1_9 19d0e37fbb316be4b7b11d5f8ddafcfc;de;;;1.3.;;;Ein Entwicklungsansatz für mobiles Robotic Reaching Dieses Papier stellt einen Entwicklungsansatz vor, um die Reichweite eines mobilen Roboters zu schaffen. Der Ansatz besteht aus zwei Stufen. In der ersten Stufe kann sich der mobile Roboter nicht bewegen, so dass der Roboter die Greiffähigkeit in der statischen Umgebung entwickelt. In der zweiten Stufe lernt der Roboter, seine Bewegungsfähigkeit zu kontrollieren. Durch die Kombination der beiden Fähigkeiten erhält der Roboter erfolgreich die Fähigkeit, Objekte zu erreichen, die weit vom Roboter entfernt sind. Die beiden Fähigkeiten werden durch zwei künstliche neuronale Netze implementiert. Auf das Robotersystem wird ein entwicklungsbedingter Zwangsmechanismus angewendet, so dass sich der Roboter an die Umgebung anpasst und die Aufgaben in einer dynamischen Umgebung Schritt für Schritt erledigt. Die Experimente und Simulationen zeigen, dass das Robotersystem, indem es den Prozess der menschlichen Entwicklung nachahmt, allmählich und autonom die Reichweite erlangt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22876-1_25 06fa06bb3023339710f6f856e8374440;de;;;1.3.;;;Die Lernansätze von Lehramtsstudierenden und die Präferenzen für konstruktivistische Lernumgebungen in Beziehung setzen In zwei flämischen Instituten für die Lehrerfortbildung und die Lehrerfortbildung wurde die Beziehung zwischen den Lernstilen und den Präferenzen für das Lernumfeld von Lehrern in der Ausbildung untersucht. Die Ergebnisse deuten darauf hin, dass einige Komponenten der Lernansätze von Lehramtsstudierenden (Lernkonzepte, Lernstrategien und Lernorientierungen) Prädiktoren für Präferenzen für konstruktivistische Lernumgebungen sind. Unterschiede in den Lernansätzen und Präferenzen für Lernumgebungen hängen auch mit der Art der Lehrerausbildung zusammen, die Lehramtsstudierende verfolgten.;-;-;-;https://link.springer.com/article/10.1007/s10984-005-1564-7 4afd6f2f0257d16bc55e6f0a6dd2a3e9;de;;;1.3.;;;Die aktuelle Situation, Probleme und Gegenmaßnahmen bei der Anwendung der doppelt qualifizierten Lehrerbildungstechnologie Doppelqualifizierte Lehrkräfte sind das Rückgrat der Berufsbildung. Sie müssen sowohl über eine Lehrerqualifikation als auch über eine berufliche Qualifikation verfügen, dh sie sind zusammengesetzte Talente mit sowohl pädagogischen und pädagogischen Fähigkeiten als auch berufsbezogenen Fähigkeiten. Die Ausbildungs- und Lehrfähigkeit von doppelt qualifizierten Lehrkräften ist derzeit von entscheidender Bedeutung für die Förderung kompetenzorientierter Begabungen, die von der Gesellschaft dringend benötigt werden. Die moderne Bildungstechnologie ist ein wichtiger Bestandteil der Bildungs- und Lehrfähigkeit, bringt aber in ihrem Einsatz auch eine Vielzahl von Problemen mit sich. Dieser Beitrag untersucht die Anwendung moderner Bildungstechnologien von doppelt qualifizierten Lehrern und schlägt entsprechende Gegenmaßnahmen vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-15740-1_142 493db619ff08c2c38d948906329acfc8;de;;;1.3.;;;Online-Lernsteuerung für diskrete nichtlineare Systeme über eine verbesserte ADDHP-Methode In diesem Artikel wird hauptsächlich ein generisches Schema für das adaptive Online-Kritikdesign für nichtlineare Systeme auf der Grundlage von neuronaler dynamischer Programmierung (NDP), genauer gesagt, einer verbesserten aktionsabhängigen dualen heuristischen dynamischen Programmierung (ADDHP) diskutiert. Der Hauptvorteil des vorgeschlagenen Verfahrens besteht darin, das neuronale Modellnetz zu vermeiden, das den Zustand des nächsten Zeitschritts vorhersagt, und nur aktuelle und vorherige Zustände in dem Verfahren zu verwenden, da der Algorithmus besser für Echtzeit- oder Online-Anwendungen geeignet ist für Prozesssteuerung. In dieser Arbeit wird auch ein Konvergenzbeweis der Methode gegeben, um sicherzustellen, dass die Steuerung das Optimum erreicht. Schließlich verifiziert das Simulationsergebnis die Leistung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72383-7_46 d668679ac5c90f9cf1f698c5f6967bef;de;;;1.3.;;;Design und Evaluation eines Cybersecurity Awareness Training Game Serious Games werden immer beliebter, weil sie die Möglichkeit bieten, in einer natürlichen Umgebung zu lernen. Obwohl viele Konzepte, die in Schulungen zur Sensibilisierung für Cybersicherheit enthalten sind, universell sind, scheitern viele Schulungsformen daran, dass sie auf dem Auswendiglernen basieren und die Benutzer nicht erfordern, über Sicherheitskonzepte nachzudenken. Das Hauptziel dieser Studie ist die Entwicklung eines geeigneten Schulungstools für Cybersicherheit, das eine Umgebung bietet, die Benutzern hilft, Sicherheitskonzepte beim Spielen eines Spiels zu verstehen. Um unser Ziel zu erreichen, haben wir ein neu entwickeltes Modell, das Activity Theory-based Model of Serious Games (ATMSG), angewendet, um unser eigenes Spiel zu entwickeln. Entsprechend dem Design haben wir eine Spieledemo implementiert und ihr Gameplay bewertet. Die Ergebnisse zeigten, dass das Story-Gameplay den Spielern helfen kann, ihr Verständnis von Cybersicherheitsproblemen und -lösungen zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-66715-7_19 7bb9bab669a181df889a3ece571edbf9;de;;;1.3.;;;Design und Implementierung eines computergestützten Trainingssystems für das Lernen von Pflegeprozessen Krankenschwestern müssen den Zustand jedes Patienten aus physischer, mentaler, sozialer und spiritueller Perspektive erfassen. Aus dieser Sicht erkennen Krankenschwestern sowohl die Krankheitskontrolle, die die Beobachtung und Behandlung als auch die Unterstützung von lebenden Patienten ermöglicht. Dieser Arbeitsprozess wird als „Pflegeprozess“ bezeichnet. Die Ausbildung von Assessment-Fähigkeiten ist eine der wichtigsten Aufgaben, um den Pflegeprozess und das Unterstützungssystem zu verstehen, um die lange wartenden Assessment-Fähigkeiten zu meistern. Wir haben CASYSNUPL, Computer Assisted System for Nursing Process Learning, entwickelt und in Vorlesungen und Übungen eingesetzt. Es ist ein System, mit dem der Lernende einen medizinischen Fall durch Mediendateien abbilden und auf einem eigenständigen Computer durch eine Vorlagendatei mit MS-Excel VBA lernen kann. So können Lernende den Pflegeprozess ebenso verstehen wie Lernende, die in der Mann-zu-Mann-Praxis erlernt werden. CASYSNUPL wird von den Lernenden dahingehend bewertet, dass es ihnen geholfen hat, den Pflegeprozess zu verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29934-6_18 c828054187b6d3c30697915c09d96a9f;de;;;1.3.;;;Ein neues Modell für den Massentransfer von Gelenkknorpel: Rolling Depression Load Device Der Massentransfer ist einer der wichtigen Aspekte, um die physiologische Aktivität des Gewebes aufrechtzuerhalten, insbesondere kann Knorpel ohne mechanische Umgebung nicht funktionieren. Der mechanische Zustand treibt Nährstoffe in das Knorpelgewebe ein und aus, die Veränderung dieses Prozesses spielt eine Schlüsselrolle für die biologische Aktivität. Früher verwendeten Forscher Kompression, um den Stofftransport im Knorpel zu untersuchen, hier haben wir zunächst ein neues Gerät zur Rolling Depression Load (RDL) entwickelt und dieses Gerät auch in die Praxis umgesetzt. Das Gerät ist in Rollsteuerungssystem und Druckstufeneinstellmechanismus unterteilt. Das Rollsteuerungssystem stellt das reine Rollen und die gleichmäßige Geschwindigkeit des Rollenauftrags auf kultiviertes Gewebe sicher. Der Kompressionseinstellmechanismus kann unterschiedliche Kompressionsgrößen und eine gleichmäßige Kompression realisieren. Vorläufige Tests zeigten, dass die Rolldepressionsbelastung tatsächlich den Prozess des Massentransfers des Gelenkknorpels verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18134-4_92 e68b81373c7f7ef390e2c8febf11ee0c;de;;;1.3.;;;Block-Markov-Überlagerungsübertragung mit Pulspositionsmodulation über optische Freiraumverbindungen Bei der FSO-Kommunikation (Free-Space Optical) wird die Leistung der Kommunikationssysteme durch atmosphärische Turbulenzen stark beeinträchtigt. PPM (Pulse Position Modulation) wird aufgrund seiner hohen Leistungseffizienz in FSO-Kommunikationssystemen häufig verwendet. In diesem Papier stellen wir eine Kombination aus der BMST-Technik (Block Markov Superposition Transmission) und dem PPM-Schema vor, um die Zuverlässigkeit der Übertragung über FSO-Verbindungen zu verbessern. Basierend auf der Analyse eines äquivalenten Systems wird eine untere Grenze der Bitfehlerrate des vorgeschlagenen Schemas präsentiert. Umfangreiche Simulationen werden durchgeführt, die zeigen, dass das BMST-PPM-System unter einer Vielzahl von Turbulenzbedingungen gut funktioniert und die Leistung des Basiscodes verbessert. Simulationsergebnisse zeigen auch, dass die Leistung des Systems mit dem Gleitfenster-Erkennungs-/Decodierungsalgorithmus gut mit der unteren Grenze im Bereich niedriger Fehlerrate übereinstimmt.;-;-;-;https://link.springer.com/article/10.1007/s41650-017-0047-1 8fc4885d58c2fdbbfc7cb3ac60dacb33;de;;;1.3.;;;Online-Aktionserkennung durch Vorlagenabgleich Die Erkennung menschlicher Handlungen durch Video hat aufgrund ihrer breiten Anwendungsmöglichkeiten in verschiedenen Gemeinschaften große Aufmerksamkeit auf sich gezogen. Das menschliche Skelett wird als effektive Methode zur Analyse menschlicher Bewegungen angesehen und stellt den menschlichen Körper als Punkte und Linien dar. In letzter Zeit machen Tiefenkameras die Skelettverfolgung praktisch. Basierend auf der Extraktion und dem Template-Matching entwickeln wir in diesem Beitrag ein System zur Online-Segmentierung und -Erkennung menschlicher Handlungen. Wir haben eine Methode vorgeschlagen, um Aktionsvorlagen zu generieren, die verwendet werden können, um klasseninterne Variationen darzustellen. Wir haben dann einen effizienten Subsequenz-Matching-Algorithmus für den Online-Prozess übernommen. Die experimentellen Ergebnisse zeigten die Effektivität und Effizienz unseres Systems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37899-7_25 cba84b21cf280e041dacc5680912c761;de;;;1.1.;;;Gemeinsame Verarbeitung von Informationen in integrierten luftgestützten Funkgeräten In den ersten Jahrzehnten der Luftfahrt bestand die luftgestützte Luftfahrtausrüstung aus mehreren elektromechanischen Sensoren und Aktoren, die einerseits auf die äußere Umgebung, andererseits auf den Piloten und durch ihn auf das Flugzeug geschlossen wurden. Die Informationsflüsse, die sie durchliefen, waren unbedeutend und wurden vom Piloten interaktiv verarbeitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0897-1_6 c7ecea5ce87ece85db75e85f9f46fe20;de;;;1.1.;;;Ausbreitung kinetischer Unsicherheiten durch eine kanonische Topologie des TLR4-Signalnetzwerks in verschiedenen Regionen des biochemischen Reaktionsraums Signalübertragungsnetzwerke stellen die Informationsverarbeitungssysteme dar, die bestimmen, welche dynamischen Regime biochemischer Aktivität einer Zelle unter bestimmten Umständen zugänglich sind. Eines der Hauptanliegen in der molekularen Systembiologie ist die Aufklärung der Robustheitseigenschaften und der Informationsverarbeitungsfähigkeiten von Signalübertragungsnetzwerken. Um dieses Ziel zu erreichen, müssen kausale Beziehungen zwischen dem Konstruktionsprinzip biochemischer Reaktionssysteme und ihrem entstehenden dynamischen Verhalten hergestellt werden.;-;-;-;https://link.springer.com/article/10.1186/1742-4682-7-7 cea54580d6001f79cddcb48050edd36d;de;;;1.3.;;;Ein Brushlet-basierter Feature-Satz, der auf die Texturklassifizierung angewendet wird Die Energiemaße von Brushlet-Koeffizienten werden als Merkmale für die Texturklassifizierung vorgeschlagen, deren Leistung bei der Texturklassifizierung durch Experimente an Brodatz-Texturen untersucht wird. Die Ergebnisse zeigen, dass die hohe Klassifikationsgenauigkeit erreicht werden kann, die weit verbreitete Klassifikationsverfahren auf Wavelet-Basis übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30497-5_180 706f6a0f1dbf31bc1a68d1539b3b17fd;de;;;1.3.;;;Die Anwendung des künstlichen Immunsystems für Design, Entwicklung und Nutzung des Hybridsystems in der Bildung Der Umfang des Papiers ist dem Entwurf einer theoretischen und praktischen Untersuchung des mathematischen Modellkonzepts für das Education Progress Control System (EPCS) gewidmet, das für Bildungseinrichtungen angewendet werden könnte. Die Vielseitigkeit des EPCS liegt in seiner Unabhängigkeit von spezifischen Fachinhalten (oder verwandten Faktoren), die es Lehrern ermöglicht, den gewünschten Kurs direkt auf die Bildungsplattform hochzuladen und Schülern die Möglichkeit zu geben, einzelne Kurse auszuwählen, um ihre eigenen Bildungsprogramme zu planen. Um das entworfene EPCS zu implementieren, wurde der Ansatz des hybriden Systemdesigns gewählt, da er die Vorteile verschiedener Technologien kombiniert, die es ermöglichen, komplizierte Aufgaben zu lösen. Das bekannte Fuzzy-Logic-Design ermöglicht die Bestimmung der Ausbildungsinhalte, aber dieser Ansatz bereitet den Schülern erhebliche Schwierigkeiten. Die Implementierung des selbstorganisierten Kohonen-Netzwerks (oder Self-Organizing Map (SOM) ist eine Rechenmethode zur Visualisierung und Analyse von hochdimensionalen Daten, insbesondere experimentell gewonnenen Informationen) ermöglicht jedoch die Klassifizierung von Schülern, die an Bildungsprogrammen des EPCS teilnehmen Plattform. Ein Algorithmus zur Optimierung der erhaltenen Zielkomponente des Systems unter Verwendung eines künstlichen Immunsystems wird in Betracht gezogen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-78273-3_7 0534648079e5f5ef99cc5b46991ddd01;de;;;1.3.;;;Korrekturmethode für photoelektrischen Theodolit-Messfehler basierend auf dem neuronalen BP-Netz Die Methode der kleinsten Quadrate wird häufig verwendet, um den Systemfehler in photoelektrischen Theodoliten zu korrigieren, aber sie hängt stark vom Modell ab und vernachlässigt die Residuen während der Modellierung. Zuerst wird ein Systemfehlerkorrekturverfahren basierend auf einem neuronalen BP-Netz vorgestellt, und dann wird eine Klasse von Stylebooks ausgewählt und vollständig erweitert. Schließlich werden einige Stylebooks ausgewählt, um die neuronalen BP-Netze zu trainieren, und die restlichen werden verwendet, um die Annäherungsfähigkeit des neuronalen BP-Netzes zu validieren. Die Simulationsergebnisse beweisen, dass neuronale BP-Netze eine ideale Wirkung zur Fehlerkorrektur erzielen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18129-0_36 aeece888ddea235123c74fca3bb70252;de;;;1.3.;;;Parameterschätzung für MIMO-System basierend auf MUSIC- und ML-Methoden Das Problem der Schätzung des Frequenzversatzes und der Kanalverstärkung für Systeme mit mehreren Eingängen und mehreren Ausgängen (MIMO) im Fall von Kanälen mit flachem Fading wird angesprochen. Basierend auf der Multiple Signal Classification (MUSIC) und der Maximum Likelihood (ML) Methode wird ein neuer gemeinsamer Schätzungsalgorithmus von Frequenzoffsets und Kanalverstärkungen vorgeschlagen. Der neue Algorithmus hat drei Schritte. Eine Teilmenge von Frequenzoffsets wird zuerst mit dem MUSIC-Algorithmus geschätzt. Alle Frequenzoffsets in der Teilmenge werden dann mit dem ML-Verfahren identifiziert. Schließlich werden Kanalverstärkungen mit dem ML-Schätzer berechnet. Der Algorithmus ist ein eindimensionales Suchschema und verringert daher stark die Komplexität der gemeinsamen ML-Schätzung, die im Wesentlichen ein mehrdimensionales Suchschema ist.;-;-;-;https://link.springer.com/article/10.1007/s11460-009-0027-9 4d11eb17aef87bf0cad5a7b70c01b5cc;de;;;1.3.;;;Rahmen für das innovative Bildungssystem für Unternehmertum Bildung ist die umfassende Aktivität, in der wir uns selbst und die Welt um uns herum kennenlernen. Der Wandel im Bildungssystem ist in jedem Land ein großes Problem, was die mehrstufigen Bildungsanliegen betrifft. Da die Technologie unseren Weg der Verhaltensänderung sogar zu unserem Denken des Lebens führt, werden nach und nach neue Hilfsmittel für die Bildung eingeführt. Daher sind zahlreiche Aktivitäten im Bereich der unternehmerischen und unternehmerischen Bildung an Schulen und Hochschulen wichtig. Diese Studie stellt die Konzepte für ein innovatives Bildungssystem (IES) und unternehmerische Merkmale vor, um den Anforderungen von High-Tech-Unternehmensaktivitäten gerecht zu werden. Der Rahmen ist so aufgebaut, dass er jeden kausalen Faktor für die Strukturstudie und die Einbeziehung von Aufgaben verknüpft, was die Ideen zur Bildung eines IES zur Arbeit und Nützlichkeit liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29920-9_24 1951d6bf520fa05a320e41a515883ea3;de;;;1.1.;;;Spezifische Merkmale des Sexualdimorphismus menschlicher kognitiver Funktionen unter Bedingungen der altersbedingten Involution Spezifische Merkmale bestimmter kognitiver Funktionen wurden unter Bedingungen der altersbedingten Involution untersucht. Insgesamt wurden 66 Frauen und 45 Männer in drei Altersgruppen (30–39, 40–49 und 50–60 Jahre) untersucht. Es wurde ein automatisiertes Verfahren zum Testen einer Reihe von kognitiven Funktionen verwendet. Es wurde festgestellt, dass unterschiedliche Bildungsraten eines eher deterministischen Systems der Informationsverarbeitung ein spezifisches psychophysiologisches Merkmal des Sexualdimorphismus unter Bedingungen der altersbedingten Involution sind. Dies erklärt die Tatsache, dass sich die kognitiven Funktionen bei Männern im Alter früher als bei Frauen verschlechtern. Involutionsprozesse dieser Funktionen können durch adaptive kompensatorische Gehirnmechanismen verhindert werden, die sich in einer erhöhten stochastischen Organisation des Systems der Informationsverarbeitung manifestieren.;-;-;-;https://link.springer.com/article/10.1023/A%3A1022056719831 4d03975dc41af1f990ef90022686f18f;de;;;1.1.;;;Das Wesen der Bildungskompetenz Die „raison d’etre“ dieses Kapitels besteht darin, den tatsächlichen und möglichen Beitrag der Entwicklungspsychologie zur Lösung pädagogischer Fragen und insbesondere des Problems der Weissagung der Natur pädagogischer Kompetenz zu betrachten. Da dies eher das Thema für einen Wälzer als für ein Kapitel darstellt, ist eine klar definierte und abgegrenzte Struktur erforderlich, um es überschaubar zu machen. Der gewählte Ansatz umfasst die Berücksichtigung von zwei Forschungsrichtungen, die sich mit „Kompetenz“ befassen. Es wird argumentiert, dass die gegenwärtige Situation in beiden die Wünschbarkeit der gleichen Forschungsstrategie in der Entwicklungspsychologie zeigt, wenn Fortschritte beim Verständnis pädagogischer Kompetenz erzielt werden sollen. Die Gründe dafür, dass diese Strategie bisher für die entwicklungspsychologische Forschung nicht charakteristisch war, werden diskutiert und das Kapitel schließt mit einer Betrachtung von Aspekten der laufenden Forschung, die auf Tendenzen hin zu ihrer Einführung hinweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-16331-1_8 e0c84643e76bc393055baf9e16b91956;de;;;1.3.;;;Zur Selbstanpassungsfähigkeit der höheren Berufsbildung Der höheren Berufsbildung kommt die Doppelaufgabe zu, die menschliche Überlebenskultur und Entwicklungskultur zu vermitteln. Und aufgrund ihrer pädagogischen Eigenschaften muss sie ihr Lehrmanagement, ihre Inhalte, Methoden und Zielsetzungen sowie andere Elemente in der Lehre so schnell wie möglich anpassen, um sich dem Beschäftigungsdruck auf die Studierenden aus dem Berufsleben sowie der wirtschaftlichen Entwicklung und dem Wandel in der der Fortschritt der Wissenschaft. Die Diskussion um die Selbstanpassungsfähigkeit der höheren Berufsbildung zielt darauf ab, die Lehre mit der Entwicklung von Wirtschaft und Wissenschaft und Technik einzuholen, die Lücke zwischen beruflicher Bildung und beruflichem Bedarf zu verkürzen und den Bildungsmodus durch schnelle und aktive Selbstanpassung zu ersetzen Wandel für den Bildungsmodus mit traditionell passivem Wandel mit dem Ziel, der höheren Berufsbildung wirklich eine gebührende Rolle in der Entwicklung der Volkswirtschaft zu geben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21783-8_55 dc704672dbee81dfabb82ac2db83f44d;de;;;1.1.;;;Die Backpropagation des Gewichtsabfalls für Verallgemeinerungen mit fehlenden Werten Der Zweck dieser Studie besteht darin, die Verallgemeinerungsfähigkeit eines modifizierten Backpropagation-Trainingsalgorithmus, der als Weight Decay bezeichnet wird, zu untersuchen. Insbesondere konzentrieren wir uns auf die Wirkung der Weight Decay-Methode auf Datensätze mit fehlenden Werten. Als Testbank werden in dieser Studie drei Datensätze mit echten fehlenden Werten und drei Datensätze mit fehlenden Werten, die durch zufälliges Löschen von Attributwerten erzeugt wurden, verwendet. Zuerst rekonstruieren wir fehlende Werte mit vier verschiedenen Methoden, nämlich Standard-Backpropagation, iterative multiple Regression, Ersetzen durch Durchschnitt und Ersetzen durch Null. Dann werden die Standard-Backpropagation und die Weight Decay-Backpropagation verwendet, um Netzwerke für Klassifikationsvorhersagen zu trainieren. Experimentelle Ergebnisse zeigen, dass die Gewichtsabnahme-Backpropagation zumindest eine Leistung erreichen kann, die der Standard-Backpropagation äquivalent ist. Darüber hinaus gibt es Hinweise darauf, dass die Standard-Backpropagation ein brauchbares Werkzeug ist, um fehlende Werte zu rekonstruieren. Experimentelle Ergebnisse zeigen auch, dass im gleichen Datensatz die Differenzeffekte von Rekonstruktionsmethoden umso höher sind, je höher der Prozentsatz an fehlenden Werten ist.;-;-;-;https://link.springer.com/article/10.1023/A%3A1018945915940 c7b99715b78464e703d06f71ae5c3a6d;de;;;1.3.;;;Kreuzvalidierung und Ensemble-Analysen zur multikriteriellen Linearprogramming-Klassifikation für das Verhalten von Kreditkarteninhabern Im Kreditkartenportfoliomanagement ist die Vorhersage des Verhaltens der Karteninhaber ein Schlüssel zur Reduzierung des Abbuchungsrisikos von Kreditkartenherausgebern. Als vielversprechender Data-Mining-Ansatz wurde die lineare Programmierung nach mehreren Kriterien (MCLP) erfolgreich angewendet, um das Verhalten von Kreditkarteninhabern für Business Intelligence in zwei oder mehrere Gruppen einzuteilen. Das Ziel dieses Papiers ist es, die Stabilität von MCLP bei der Klassifizierung des Verhaltens von Kreditkarteninhabern unter Verwendung von Kreuzvalidierungs- und Ensemble-Techniken zu untersuchen. Zunächst wird ein Überblick über die Zweigruppen-MCLP-Modellformulierung und eine Beschreibung des in diesem Papier verwendeten Datensatzes gegeben. Anschließend werden Kreuzvalidierungs- und Ensemble-Methoden getestet. Wie die Ergebnisse zeigten, liegen die Klassifikationsraten der Kreuzvalidierungs- und Ensemble-Methoden nahe denen der alleinigen Verwendung von MCLP. Mit anderen Worten, MCLP ist eine relativ stabile Methode zur Klassifizierung des Verhaltens von Kreditkarteninhabern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-25944-2_120 c64840015de7c56ff5c80e60cbd163e8;de;;;1.3.;;;Ron Zemke: Ein Anführer auf der anderen Seite des Zauns Das Educational Media and Technology Yearbook hat weiterhin bahnbrechende Persönlichkeiten vorgestellt, die sich in der Wissenschaft einen Namen gemacht haben. In dieser Ausgabe wird EMTY weitere Führungskräfte im Bereich der Lehrtechnologie vorstellen. Einer dieser Führungskräfte, denen wir unseren Tribut zollen werden, ist eine Person, die Beiträge zu unserem Bereich geleistet hat, jedoch aus dem Geschäfts- und Industriebereich. Ron Zemke war ein Instructional Technologist, der als Berater, Trainer und Redakteur für;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-1305-9_24 57f40f7c52bcbd96330b6b961c202ce4;de;;;1.1.;;;Die Philosophie des logischen Mechanismus Lassen Sie mich zunächst dem Herausgeber und den Mitwirkenden dieses Bandes meinen großen Dank aussprechen. Ich hätte nie erwartet, so geehrt zu werden, und es war eine Freude und eine lohnende Erfahrung, jeden dieser ausgezeichneten Aufsätze zu lesen und darüber nachzudenken.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-0987-8_17 a7eaa437cdf2578d2420ba8d832b3a96;de;;;1.3.;;;Unterstützung beim Training von Know-how mit Wearable-Technologien: Das WEKIT-Referenzrahmenwerk In diesem Kapitel stellen wir einen konzeptionellen Referenzrahmen für die Gestaltung von Augmented-Reality-Anwendungen zur Trainingsunterstützung vor. Das Framework nutzt die Fähigkeiten moderner Augmented Reality und Wearable-Technologie, um die Leistung des Experten zu erfassen, um die Kompetenzentwicklung zu unterstützen. Es wurde im Rahmen des Projekts Wearable Experience for Knowledge Intensive Training (WEKIT) entwickelt, das eine neuartige technologische Plattform für die industrielle Ausbildung bereitstellen soll. Das Framework identifiziert die modernsten Augmented-Reality-Trainingsmethoden, die wir aus einer umfangreichen Literaturrecherche als „Transfermechanismen“ bezeichnen. Transfermechanismen nutzen die Bildungsangebote von Augmented Reality und Wearable-Technologie, um die Expertenleistung zu erfassen und die Auszubildenden zu schulen. Das Framework selbst basiert auf dem 4C/ID-Modell von Merrienboer, das sich für das Training komplexer Fähigkeiten eignet. Das 4C/ID-Modell kapselt wichtige Elemente von Lehrlingsmodellen, die eine primäre Ausbildungsmethode in der Industrie darstellen. Das Framework ergänzt das 4C/ID-Modell mit Expertenleistungsdaten, die mithilfe von Wearable-Technologie erfasst und dann im Modell genutzt werden, um einen neuartigen Trainingsansatz zur effizienten und effektiven Beherrschung der erforderlichen Fähigkeiten bereitzustellen. In diesem Kapitel geben wir einen kurzen Überblick über unsere aktuellen Fortschritte bei der Entwicklung dieses Frameworks.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-6144-8_10 cc88f092168a05ea547465ae1882609e;de;;;1.1.;;;Der Einfluss von Metaphern auf die Informationsvisualisierung Metapher ist der zugrunde liegende Mechanismus der Informationskommunikation. Obwohl Metaphern in Informationsvisualisierungsdesigns allgegenwärtig sind, beeinflussen unterschiedliche Konnotationen die Informationsverarbeitung der Benutzer unterschiedlich. Visuelle Metaphern können jedoch störende Attribute implizieren, die möglicherweise durch die Quellkonzepte verursacht werden, und zu Rückwirkungen auf die Schlussfolgerungen der Benutzer führen. Das Verständnis der Vor- und Nachteile des metaphorischen Übertragungseffekts bei der Informationsvisualisierung würde dazu beitragen, Visualisierungsdesigns zu optimieren und die Effizienz und Genauigkeit der Informationsverarbeitung zu verbessern. Dieser Beitrag untersucht empirisch, wie Metaphern verschiedene Aktivitäten der Informationsverarbeitung beeinflussen, einschließlich des Verstehens, der Schlussfolgerung und des Urteils bei der Informationsvisualisierung. Metaphern, die klare semantische Bedeutungen in der Quelldomäne veranschaulichen, können sowohl die konzeptionelle Geläufigkeit des Benutzers beim Informationsverständnis als auch die Rate der richtigen Informationssuche verbessern.;-;-;-;https://link.springer.com/article/10.1007/s12650-016-0371-9 6e7d5736bfac38da5d3474e2f3a02249;de;;;1.1.;;;Ein Entwicklungsansatz für mentale Bilder Sowohl in der Piagetschen Theorie als auch in den Theorien der Informationsverarbeitung (IP) wurde die Entwicklung von Fähigkeiten für mentale Bilder behandelt. Ziel der vorliegenden Arbeit ist es, die Annahmen, die Methodik und die wichtigsten Ergebnisse dieser beiden Ansätze zu untersuchen, mit besonderem Fokus auf die Entwicklung der Fähigkeit zu mentalen Transformationsbildern beim Kind. Der erste Teil dieses Papiers befasst sich mit den Hauptproblemen in Piagetian und IP-Studien. Der Vergleich zeigt, dass jedes Feld einen bestimmten Darstellungsmodus identifiziert hat. Es wird argumentiert, dass die Verbindung dieser beiden Darstellungsweisen ein mächtiges Werkzeug bei der Konzeptualisierung der Entwicklung räumlicher Operationen sein kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-6407-8_8 105fe714544b9fa9e0986751bff4cba0;de;;;1.1.;;;Verwendung von Wahrnehmungssignaturen zur Definition und Dissoziation zustandsspezifischer neuronaler Ätiologie: Autismus und Fragile-X-Syndrom als Modellzustände Der funktionelle Zusammenhang zwischen genetischer Veränderung und Verhaltensendzustand ist selten geradlinig und niemals linear. Beispiele dafür sind Fälle, in denen neurologische Erkrankungen, die durch eine eindeutige genetische Ätiologie definiert sind, Verhaltensphänotypen teilen, wie es bei Autismus und dem Fragile-X-Syndrom (FXS) der Fall ist. In diesem Papier und seinem Begleitpapier schlagen wir eine Methode vor, um den funktionellen Zusammenhang zwischen Genotyp und neuraler Veränderung über diese Zielbedingungen hinweg zu bewerten, indem wir ihre;-;-;-;https://link.springer.com/article/10.1007/s10803-010-1109-5 a8b4f513c2c0c0243394eb04f75133ad;de;;;1.3.;;;Multi-Resolution Least Squares unterstützen Vektormaschinen Die Least Squares Support Vector Machines (LS-SVM) sind eine Verbesserung der SVM. Kombiniert die LS-SVM mit der Multi-Resolution Analysis (MRA), schlägt dieser Brief die Multi-Resolution LS-SVM (MLS-SVM) vor. Der vorgeschlagene Algorithmus hat den gleichen theoretischen Rahmen wie MRA, jedoch mit einer besseren Approximationsfähigkeit. Bei einer festen Skala ist MLS-SVM eine klassische LS-SVM, aber MLS-SVM kann sich der Zielfunktion auf verschiedenen Skalen allmählich annähern. In Experimenten wird das MLS-SVM zur nichtlinearen Systemidentifikation verwendet und erreicht eine bessere Identifikationsgenauigkeit.;-;-;-;https://link.springer.com/article/10.1007/s11767-006-0270-7 f7f5241ccd164b7fee95b2e16f4d018d;de;;;1.3.;;;WPSS-Kommunikationssystem basierend auf CRBF-Netzwerk-Equalizern In diesem Artikel wird ein neuartiges Wavelet Packet Spread Spectrum (WPSS) Kommunikationssystem basierend auf den komplexen Radial Basis Function (CRBF) Netzwerk-Equalizern für Mehrwege-Fading-Kanäle untersucht. Die Technik der komplexen radialen Basisfunktions-Netzwerkentzerrer wird verwendet, um Intersymbolinterferenz (ISI) zu unterdrücken, die durch Mehrwege-Fading-Kanäle verursacht wird, und um die Symbolfehlerrate (SER) zu reduzieren. Die Systemleistung wird in Mehrwege-Fading-Kanälen untersucht. Die theoretischen Analyse- und Simulationsergebnisse zeigen, dass die vorgeschlagene CRBF-Kanalentzerrerstruktur, die den Algorithmus der kleinsten mittleren Quadrate (LMS) verwendet, um die optimierten Entzerrergewichte zu erhalten, sowohl eine schnelle Konvergenz als auch einen niedrigen Wert des mittleren quadratischen Fehlers bietet überlegene SER-Leistung gegenüber der des herkömmlichen CRBF-OFDM-SS (Spreading Spectrum)-Systems, und das vorgeschlagene CRBF-WPSS-System übertrifft die WPSS-Systembasis auf Zero-Forcing-Entzerrern für Mehrwege-Fadingkanäle.;-;-;-;https://link.springer.com/chapter/10.1007/11816157_25 24b8fccf1650ac32d819996f72ffe86e;de;;;1.3.;;;Forschung zum Lehrplansystem und den Einstellungen für die Roboterausbildung im Internet der Dinge Major Basierend auf den Merkmalen des bestehenden Hauptfachs Internet der Dinge (IoT) in Kombination mit den Anforderungen einer professionellen Zertifizierung schlägt dieses Papier vor, den Lehrplan für die Roboterausbildung in das Hauptkurssystem zu integrieren, das die Abschlussanforderungen und den Ingenieurlehrplan erfüllt. Dieser Artikel stellt den Lehrplan für die fortgeschrittene Roboterausbildung im Ausland vor und schlägt das Lehrmodell der Robotertheorie, des Roboterexperiments und der umfassenden Roboterausbildung vor. Dabei werden auch das Semestersetting, die Lehrinhalte, die Unterrichtsstunden, die Credits und weitere verwandte Inhalte des Studiengangs Roboterausbildung im Hauptfach Internet der Dinge besprochen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-7542-2_23 40efdfd6abd10f11bf6f356c4552648f;de;;;1.1.;;;Verschränkung, Quantenphasenübergänge und Dichtematrix-Renormierung Wir untersuchen die Rolle der Verschränkung bei Quantenphasenübergängen und zeigen, dass der Erfolg der Dichtematrix-Renormierungsgruppe (DMRG) beim Verständnis solcher Phasenübergänge darauf zurückzuführen ist, wie sie die Verschränkung bei der Renormierung bewahrt. Wir bieten eine;-;-;-;https://link.springer.com/article/10.1023/A%3A1019601218492 3322129cf85f4b8401f4645d72b29ab1;de;;;1.1.;;;Zusammenhang zwischen Lean Manufacturing-Lehrmethoden und den Lernpräferenzen der Studierenden Da immer mehr Unternehmen das Konzept von Lean Manufacturing (LM) annehmen, sollten Universitäten eine Änderung ihrer Lehrpläne in Betracht ziehen, da die Studenten mit hoher Wahrscheinlichkeit an einigen Aspekten von LM teilnehmen, wenn sie ihre berufliche Laufbahn beginnen. Daher ist es wichtig, geeignete Lernerfahrungen zu bieten, um die Schüler auf das LM vorzubereiten. Studenten können jedoch auf verschiedene Weise lernen, und das Lehren von LM hat sich als äußerst herausfordernd erwiesen, insbesondere für Studenten der Ingenieurwissenschaften, die nicht an Abstraktionen gewöhnt sind. Dieses Papier zielt darauf ab, den Zusammenhang zwischen verschiedenen LM-Lehrmethoden und den Lernpräferenzen der Studierenden zu untersuchen, um ihre Leistung in Kursen zu steigern. Dazu wurden 76 Absolventen des Wirtschaftsingenieurwesens, die an zwei LM-Studiengängen mit unterschiedlichen Lehrmethoden teilgenommen haben, nach ihren Lernpräferenzen und -leistungen bewertet. Jeder LM-Kurs hatte einen spezifischen Lehransatz: (i) Vorlesungen und Übungen im Klassenzimmer (als traditionelle Lehrmethoden klassifiziert) und (ii) problembasiertes Lernen (PBL) in realen Problemen von Unternehmen, die eine LM-Implementierung durchlaufen. Von den acht Hypothesen, die für diese Studie formuliert wurden, haben unsere Ergebnisse vier davon bestätigt, zwei für jede angewandte LM-Lehrmethode. Darüber hinaus scheint der Effekt der Lerndimension „Informationswahrnehmung“ umfangreicher zu sein als die anderen, da die Leistung der Studierenden in beiden Lehrmethoden signifikant damit verbunden ist. Die Mischung aus aktiven Lernmethoden und traditionellen Lehrmethoden kann das dialogische Lernen erleichtern, die Zusammenarbeit zwischen den Studierenden fördern und den Wissenstransfer zu LM erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-73648-8_5 70d82cdbd43ba63334bc8cbe8ad839b1;de;;;1.3.;;;Auf dem Weg zum groben Set-basierten Konzeptmodellierer Das Papier berichtet über einen groben Ansatz für die Modellierung von Konzepten, die in evolutionären Informationssystemen für Corporate Computing anzutreffen sind. Funktionen wie das Extrahieren von Konzepten aus Textabfragen und Multimedia werden im Kontext von offenen Abfragen veranschaulicht. Probleme der Konzepttransformation mit ihren technischen Anwendungen werden diskutiert. Die Autoren schlagen den Konzeptmodellierer als Methodik für die groß angelegte Produktion von Schulungs- und Lehrmaterial für webbasierte Fernunterrichtsprogramme vor, die ein garantiertes Mindestmaß an Genauigkeit für die Konzepteinführung und -aufnahme beinhaltet.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0509-1_43 064474c9e5fa874eed0e70f6aa04b880;de;;;1.1.;;;Zur Implementierung von Produktmodellschnittstellen in CIME Dieses Papier befasst sich damit, wie neutrale Produktmodellschnittstellen identifiziert, spezifiziert und implementiert werden können, um intelligente und flexible Mittel für das Informationsmanagement in der Fertigung diskreter mechanischer Produkte bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35291-6_7 a39b0f64b0b936f33307078f438a44bd;de;;;1.1.;;;Theoretische Transpositionen in der Gehirnfunktion und die Grundlagen der erweiterten Kognition Augmented Cognition (AugCog) untersucht Verhalten in Echtzeit und in realen Umgebungen. Dieser Forschungsweg ist eine Abkehr von experimentellen Standardansätzen, wie sie in den Bereichen der kognitiven Psychologie und der Neurowissenschaften akzeptiert werden. AugCog als Studienrichtung hat daher das Potenzial, einige der bewährten laborbasierten Erkenntnisse zu Themen wie Lernen und Lerntransfer auf den neuesten Stand zu bringen. Sowohl aus der Perspektive der biologischen Systeme als auch aus der Sicht der Kognitionsneurowissenschaften ist die Zukunft von AugCog geschichtsträchtig und scheint von seinem Erfolg bei der Verschmelzung dieser Paradigmen und der gleichzeitigen Herstellung von Analysewerkzeugen abhängig zu sein, mit denen man weiterhin in das Gehirn blicken kann, wie es in Betriebsumgebungen funktioniert. In diesem Artikel überprüfen wir die Theorien, die die Ansätze der Augmented Cognition vorantreiben, und bewerten ihre Fähigkeit, das Feld voranzutreiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21852-1_19 d2ddb08e6bce99d7730a73c14b6e9b44;de;;;1.3.;;;Zustände physikalischer Systeme in der klassischen und Quantenmechanik Wir diskutieren die Zustandsbeschreibungen physikalischer Systeme in der klassischen und der Quantenmechanik. Wir zeigen, dass es zwar möglich ist, eine gemeinsame Terminologie für beide zu entwickeln, die Unterschiede in den zugrunde liegenden mathematischen Strukturen jedoch zu signifikanten Ausgangspunkten zwischen den beiden Beschreibungen auf mathematischer und konzeptioneller Ebene führen. Wir analysieren die Zustandsräume von physikalischen Systemen, die durch zwei- und dreidimensionale komplexe Hilberträume beschrieben werden, sehr detailliert, um zu veranschaulichen, wie subtil diese Frage im Allgemeinen sein kann. Wir beleuchten die Rolle der Bargmann-Invarianten beim Übergang vom Hilbert-Raum zum Strahlenraum, dem Zustandsraum der Quantenmechanik, und auch im Kontext von Wigners Theorem über Symmetrien in der Quantenmechanik, wo sie ursprünglich auftraten.;-;-;-;https://link.springer.com/article/10.1007/s12045-012-0007-x 40e839324f073754dc2227ad85fdb23f;de;;;1.1.;;;Ein auf Modellauswahl basierendes selbstaufspaltendes Gauss-Mixture-Lernen mit Anwendung auf die Sprecheridentifikation Wir schlagen einen selbstaufspaltenden Gaussian Mixing Learning (SGML) Algorithmus für die Gaussian Mixing Modeling vor. Der SGML-Algorithmus ist deterministisch und kann eine geeignete Anzahl von Komponenten des Gaußschen Mischungsmodells (GMM) basierend auf einem selbstteilenden Gültigkeitsmaß, dem Bayesschen Informationskriterium (BIC), finden. Es beginnt mit einer einzelnen Komponente im Merkmalsraum und teilt sich während des Lernprozesses adaptiv auf, bis die am besten geeignete Anzahl von Komponenten gefunden ist. Der SGML-Algorithmus funktioniert auch gut beim Lernen des GMM mit einer gegebenen Komponentennummer. In unseren Experimenten zum Clustering eines synthetischen Datensatzes und der textunabhängigen Sprecheridentifikationsaufgabe haben wir die Fähigkeit der SGML zum modellbasierten Clustering und zur automatischen Bestimmung der Modellkomplexität der Sprecher-GMMs zur Sprecheridentifikation beobachtet.;-;-;-;https://link.springer.com/article/10.1155/S1110865704407100 a437f56197c8b09e8a12210bc2b8c106;de;;;1.3.;;;Spieldesign für erworbene Hirnverletzungen Kognitive Rehabilitation: Ein konzeptioneller Rahmen Erworbene Hirnverletzungen, wie traumatische Hirnverletzungen und Schlaganfälle, sind in den meisten Ländern die Hauptursache für langfristige Behinderungen. In der Rehabilitation sind zwei kritische Punkte die steigende Anzahl von Patienten und die Heterogenität der Beeinträchtigungen, die zu begrenzten Personalressourcen führen, die Einrichtungen, die zu hohen Kosten der Rehabilitationsbehandlung führen, und die Wahrnehmung der Patienten, dass traditionelle Rehabilitationsübungen langweilig sind und sie die vorgeschriebenen Übungen vernachlässigen . Derzeit gibt es keinen spezifischen Standard und keine Leitlinie, um machbare und wirksame spielbasierte Rehabilitationsmaßnahmen durchzuführen. Daher wird in dieser Arbeit ein konzeptioneller Rahmen vorgeschlagen, um die Entwicklung effektiver und effizienter Spiele für die kognitive Rehabilitation von erworbenen Hirnverletzungen zu leiten. Der konzeptionelle Rahmen wird durch die Untersuchung von Serious Games und Rehabilitationsbezogenen Rahmenwerken und Literaturen entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-02958-0_21 e6e209002217e7a347a242ccd3f8653b;de;;;1.3.;;;Studium der Ausbildung zum Finanzinformatiker im elektronischen Zeitalter Es ist bekannt, dass talentierte Personen im Bereich der Finanzinformatik unabdingbar sind, um die Modernisierungsentwicklung der Finanzabteilung im Informationszeitalter zu erreichen. Dieses Papier zielt darauf ab, die Charakteristika von informatisierten Talenten und die Gründe für die Einschränkung ihrer Entwicklung zu analysieren, und schlägt dann einige Strategien und Vorschläge für die Entwicklung talentierter Personen der Finanzinformatisierung vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23993-9_26 3e61de88beaf377964edfb4a559f1933;de;;;1.3.;;;Erkennung von Zeichen mit sehr niedriger Auflösung in bewegten Bildern, die mit einer tragbaren Digitalkamera aufgenommen wurden Viele Arten von digitalen Geräten können problemlos bewegte Bilder aufnehmen, wie z. B. digitale Videokameras oder mit einer Kamera ausgestattete Mobiltelefone. Wenn ein Bild mit solchen Geräten in alltäglichen Situationen aufgenommen wird, ist die Auflösung nicht immer hoch, außerdem können Handvibrationen zu Unschärfen führen, was eine genaue Erkennung von Zeichen aus solch schlechten Bildern erschwert. Dieses Papier stellt einen neuen Zeichenerkennungsalgorithmus für Videodaten mit sehr niedriger Auflösung vor. Das vorgeschlagene Verfahren verwendet Mehrfachrahmenbilder, um Informationen aus jedem Bild basierend auf einem Unterraumverfahren zu integrieren. Experimentelle Ergebnisse mit einer DV-Kamera und einer Telefonkamera zeigen, dass unsere Methode die Erkennungsgenauigkeit verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30541-5_31 64653b56447de7015cc9db5630f4bfaa;de;;;1.1.;;;Förderung der Perspektivenkoordination durch Dilemmadiskussion. Die Wirksamkeit von Gruppendiskussionen im Klassenzimmer auf zwischenmenschliche Verhandlungsstrategien von 12-jährigen Schülern Die Förderung von sozialer Kompetenz und sozialer Kognition ist ein wichtiges Ziel von Bildung und Sozialisation. Nach Theorien der sozialen kognitiven und moralischen Entwicklung kann die soziale Kognition durch die Interaktion von Jugendlichen mit Gleichaltrigen gefördert werden. In dieser Studie wird soziale Kognition theoretisch durch das interpersonale Verhandlungsstrategiemodell von Selman konzeptualisiert, das Ebenen der perspektivischen Koordination und Schritte der Informationsverarbeitung (Problemerkennung, Generierung von Verhandlungsstrategien, Auswahl einer Strategie, Evaluation) unterscheidet. In einem Prä-Post-Kontrollgruppendesign untersuchte diese Studie, ob Dilemmadiskussionen unter Gleichaltrigen zu einer höheren individuellen Perspektivenkoordination im Vergleich zu einer individualistischen Bedingung führen. Mitglieder der Diskussions-Bedingung zeigten im Vergleich zur Kontrollgruppe bei den Informationsverarbeitungsschritten „Strategien generieren“ und „Strategieauswahl“ höhere Gewinnwerte in der perspektivischen Koordination. Um die verbale Interaktion in den Diskussionsgruppen zu analysieren, wurde ein integrativer Kodierungsplan entwickelt. Zusätzlich wurden merkmalsähnliche Argumentationsmotive der Teilnehmer erfasst. Die Ergebnisse von Mehrebenenanalysen legen nahe, dass Fortschritte in der posttest-perspektivischen Koordination durch die konsensuale Lösung des Dilemmas durch die Gruppe sowie durch einen erklärungsorientierten Diskussionsstil vermittelt werden, jedoch nur, wenn dieser von einem merkmalsähnlichen Subjekt- und Konsens begleitet wird -orientiertes Argumentationsmotiv. Es werden theoretische und praktische Schlussfolgerungen gezogen.;-;-;-;https://link.springer.com/article/10.1007/s11218-004-1884-y 2785445d00e6203110199e93f6431db3;de;;;1.3.;;;Jenseits der Technologie: Der ganzheitliche Vorteil Da technische Technologien in das Gefüge unserer Gesellschaft einfließen, ignorieren Ingenieure die Notwendigkeit, wertvolle, nichttechnische Fähigkeiten auf eigene Gefahr in ihr Bildungsparadigma zu integrieren. Die aufregende Zukunft des Ingenieurwesens liegt jenseits der technologischen Bezeichnungen (z. B. Maschinenbauingenieur, Elektroingenieur und Chemieingenieur), wo die isolierte Ausbildung einem mächtigeren Beruf von breit ausgebildeten „ganzheitlichen Ingenieuren“ zufällt – Ingenieuren, die komplexe, interdisziplinäre Maßnahmen verwalten, führen und verstehen Systeme, die die Kraft des Ingenieursdenkens in Themen einbringen, die Technologie, Recht, öffentliche Ordnung, Nachhaltigkeit, Kunst, Regierung und Industrie umfassen und verbinden. Das Ende der Technologie als einziger Fokus des Ingenieurwesens ermöglicht eine Zukunft, in der der Ingenieurberuf aktiv wächst und sich weiterentwickelt und das Beste aus Wissenschaft, Technologie und Innovation einbringt, um den komplexen Herausforderungen unseres Lebens im 21. Jahrhundert gerecht zu werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-1393-7_1 18ce56090f338f3f9f891357d82bc019;de;;;1.3.;;;Mnemosyne: Anpassung der Loci-Methode an immersive virtuelle Realität „Mnemosyne“ ist eine immersive Virtual Reality (VR)-Anwendung, die entwickelt wurde, um den Gedächtnisabruf zu erhöhen. Die Anwendung simuliert die Prozesse der alten mnemonischen „Methode der Loci“ (MOL), die auch als „Memory Palace“-Technik bezeichnet wird. Die Anwendung ermöglicht es Benutzern, personalisierte Speicherpaläste zu erstellen, indem sie „Speicherwürfel“ in einer virtuellen Umgebung (VE) über ein Head-Mounted Display (HMD) navigieren und speichern. Ergebnisse einer Pilotstudie mit 18 Teilnehmern zeigen, dass Personen mit höheren räumlichen Denkfähigkeiten mehr von der Verwendung des MOL profitieren. Eine Auswertung der Pilotstudie hat eine Reihe interessanter Fragen aufgeworfen, die bei der Neugestaltung einer größeren Studie berücksichtigt werden sollten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-95270-3_16 23d0c5d25f38f26ffafb4beb7ed55f9b;de;;;1.1.;;;Die Interpersonal Privacy Identity (IPI): Entwicklung eines Datenschutzes als Kontrollmodell Das Internet und die Social-Computing-Technologie haben unsere Fähigkeit, Informationen zu sammeln, revolutioniert und neue Kommunikationsformen und Formen der Selbstdarstellung ermöglicht. Da die Popularität von Social Computing-Technologien zugenommen hat, hat unsere Gesellschaft begonnen, Veränderungen im Sozialisationsverhalten zu beobachten. Die Theorie der Sozialpsychologie legt nahe, dass technologische Veränderungen die Erwartungen eines Individuums an Privatsphäre durch adaptives Verhalten beeinflussen können, das sich aus der Nutzung ergibt (Laufer und Wolfe in J Soc Issues 33(3): 22–42 (;-;-;-;https://link.springer.com/article/10.1007/s10799-015-0246-0 e9ece83c1fda0644a1be223ae97c723d;de;;;1.1.;;;Kognitive Verzerrungen bei Angst, Depression und Aggression in der Kindheit: Sind sie allgegenwärtig oder spezifisch? Diese Studie untersuchte, inwieweit negative Informationsverarbeitungsverzerrungen von Kindern die kognitiven Modalitäten von Aufmerksamkeit, Urteilsvermögen und Gedächtnis durchdringen und ob solche Verzerrungen spezifisch mit Angst, Depression und/oder Aggression verbunden sind. 133 Kinder im Alter zwischen 8 und 14 Jahren wurden anhand einer Aufmerksamkeitszuweisungsaufgabe, einer Vignetteninterpretationsmaßnahme und einer Erinnerungsaufrufaufgabe untersucht. Die Kinder füllten auch Angst- und Depressionsinventare aus und wurden von den Lehrern nach einem Maß an Aggression bewertet. Insgesamt deuteten die Ergebnisse auf einen überwiegend allgegenwärtigen negativen Bias im Zusammenhang mit Kinderpsychopathologie hin, mit einigen Hinweisen auf Spezifität. Die kanonischen Korrelationsanalysen zeigten, dass ein hohes Maß an Angst, Depression und Aggression mit Verzerrungen verbunden waren: Aufmerksamkeit für negative Informationen, Interpretation mehrdeutiger Situationen als negativ und bevorzugte Erinnerung an negative Wörter. Über diesen allgemeinen Bias hinaus zeigte Angst eine spezifische Assoziation mit der Aufmerksamkeit auf negative Informationen in den univariaten Analysen.;-;-;-;https://link.springer.com/article/10.1007/s10608-006-9077-y 811cd47a6e8615923bb3a3d4f0d1d310;de;;;1.3.;;;Segmentbasierte Codierung von Farbbildern Basierend auf der Idee der Bildcodierung der zweiten Generation wird ein neuartiges Schema zum Codieren von Standbildern vorgestellt. Zuerst wurde ein Bild mit einem pulsgekoppelten neuronalen Netzwerk partitioniert, und dann wurde ein verbesserter Kettencode und die diskrete 2D-Cosinus-Transformation verwendet, um die Form bzw. die Farbe seiner Kanten zu codieren. Um seine glatten und Texturbereiche zu codieren, wurde eine verbesserte Zero-Trees-Strategie basierend auf dem Wavelet der 2. Generation gewählt. Danach wurde das Nullbaumdiagramm ausgewählt, um die quantifizierten Koeffizienten neu anzuordnen. Und schließlich wurden einige Regelungen nach Psychologie verschiedener Nutzer gegeben. Experimente unter rauschfreien Kanälen zeigen, dass die vorgeschlagene Methode besser abschneidet als die aktuellen, wie JPEG, CMP, EZW und JPEG2000.;-;-;-;https://link.springer.com/article/10.1007/s11432-009-0019-7 95ffe9d1021ff288d45c3ca2d6dd7935;de;;;1.1.;;;Paradigmen der Wahl Marketing, wie Ingenieurwesen, Medizin und Recht, begann nicht als akademisches Fach oder als ein um seiner selbst willen gelehrtes und gelerntes Wissen. Ihre Ursprünge sind vielmehr mit praktischen Anliegen der Betriebswirtschaft verbunden und insbesondere mit der Etablierung regelmäßiger, formalisierter Muster des wirtschaftlichen Austauschs, um einen höheren materiellen Lebensstandard zu ermöglichen. Trotz der stark gestiegenen Komplexität des gesellschaftlichen und wirtschaftlichen Lebens bleiben die Ziele des Marketingmanagements weitgehend ähnlich. Zwar sind all diese Disziplinen inzwischen in den etablierten Rahmenbedingungen von Bildung und Forschung institutionalisiert, können aber dennoch zu Recht als Technologien und Wissenschaftsbereiche betrachtet werden. Es handelt sich um Technologien, die fest auf systematischen oder wissenschaftlichen Erkenntnissen und Untersuchungen basieren oder gerade dabei sind, es zu werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-17089-0_2 cf6caf5373456f80b458716f6efbdc6d;de;;;1.1.;;;Mentale Chronometrie. I. Verhaltens- und physiologische Techniken Untersuchungen zur Geschwindigkeit der „Entscheidungsfindung“ gehören zu den ältesten im Bereich der experimentellen Psychologie. Das abhängige Maß, das dieses Feld dominiert hat, ist die Reaktionszeit (RT). Welches Gehirn RT-Indizes genau verarbeitet, bleibt dennoch sehr umstritten.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-4912-6_6 dcec29d4ee2a868a302abb76f3df6240;de;;;1.3.;;;Einsatz von Musikinstrumenten zur Verbesserung der motorischen Erholung nach einem Schlaganfall In früheren Studien konnte gezeigt werden, dass ein Bedarf an effizienten motorischen Rehabilitationsansätzen besteht. Dazu haben wir ein musikunterstütztes Trainingsprogramm evaluiert, das bei 20 Schlaganfallpatienten (10 an der linken und 10 an der rechten oberen Extremität betroffen) eine auditiv-sensomotorische Bewegungs-Korepräsentation induzieren sollte. Patienten ohne musikalische Vorerfahrung nahmen an einem intensiven Schritt-für-Schritt-Training zunächst der paretischen Extremität, gefolgt von einem Training beider Extremitäten teil. Das Training wurde 15 Mal über 3 Wochen zusätzlich zur konventionellen Behandlung durchgeführt. Sowohl die Fein- als auch die Grobmotorik wurden durch den Einsatz eines MIDI-Pianos oder elektronischer Drum-Pads angesprochen. Als Kontrolle wurden 20 Schlaganfallpatienten (10 Betroffene links und 10 rechts) mit ausschließlich konventionellen Therapien rekrutiert. Die Zuweisung zu den Trainings- und Kontrollgruppen erfolgte pseudo-zufällig, um in jeder Gruppe eine gleiche Anzahl von links- und rechtsbetroffenen Patienten zu erreichen. Die motorischen Funktionen vor und nach der Behandlung wurden unter Verwendung eines computerisierten Bewegungsanalysesystems (Zebris) und einer etablierten Reihe von motorischen Tests (z. B. Action Research Arm Test, Box & Block Test) überwacht. Die Patienten zeigten nach der Behandlung eine signifikante Verbesserung in Bezug auf Geschwindigkeit, Präzision und Geschmeidigkeit der Bewegungen, wie durch 3D-Bewegungsanalyse und klinische motorische Tests gezeigt. Darüber hinaus verbesserte sich im Vergleich zu den Kontrollpersonen die motorische Kontrolle bei alltäglichen Aktivitäten signifikant. Zusammenfassend ist diese innovative Therapiestrategie ein effektiver Ansatz für die motorische Neurorehabilitation von Schlaganfallpatienten.;-;-;-;https://link.springer.com/article/10.1007/s00415-006-0523-2 e3f52ca017ca7cbb46c1e7d347022805;de;;;1.3.;;;Vorschlag und experimentelle Ergebnisse einer Umgebungsintelligenz für die Ausbildung zum Lötkolben-Halten In Japan bieten Berufsschulen, Fachoberschulen und Mittelschulen Kurse zum Löten mit einem Lötkolben an. Die Verwendung eines Lötkolbens kann für Anfänger schwierig und gefährlich sein. Lehrer sind in ihrer Fähigkeit, jede Praxis der Schüler zu verfolgen, eingeschränkt. Es besteht also Bedarf an einem Unterstützungssystem für die praktische Praxis in Japan. In diesem Papier schlagen wir ein auf Umgebungsintelligenz basierendes Unterstützungssystem vor, um das Risiko von Lötpraktiken im Bildungsbereich zu reduzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-61108-8_44 bca60d1d5a2ee2a197c549705fa9eb66;de;;;1.3.;;;Selbsterkenntnis in einer computergestützten kollaborativen Lernumgebung Der Zweck dieser Studie war es, die Rolle von Self-Awareness (SA)-Schnittstellen zu untersuchen, die zur Verbesserung der Schreibfähigkeiten in einer computergestützten kollaborativen Schreibumgebung namens SWoRD implementiert wurden [7]. Für SWoRD wurden Visualisierungsschnittstellen zur Verbesserung der SA entwickelt. Die Schüler erhielten die Möglichkeit, ihr Schreiben mithilfe von multiplem Peer-Feedback selbst zu überwachen und zu bewerten. Die Studienergebnisse zeigen, dass, obwohl nicht alle Schüler ihre SA mit den Schnittstellen entwickelten, die Schüler, die SA entwickelten, ihre Schreibfähigkeiten im Vergleich zu denen, die SA nicht verbesserten, drastisch verbesserten. Abschließend werden die Ergebnisse diskutiert und zukünftige Forschungsthemen vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73257-0_32 7ce5d3637f8b873fc4378a63326d3dba;de;;;1.3.;;;Loughborough – Die Entwicklung einer Abteilung Die Fakultät für Chemieingenieurwesen in Loughborough besteht seit etwa einunddreißig Jahren, obwohl dort seit 1947 Chemieingenieurwesen gelehrt wurde. Die Fakultät begann mit etwa dreißig Studenten und drei Mitarbeitern und hat heute etwa 250 Studenten, 50 Doktoranden, 20 Fakultäten und etwa 20 Hilfskräfte. Dieser Beitrag zeichnet die Geschichte dieser Entwicklung nach und dokumentiert einige der innovativen Merkmale, die die Abteilung Pionierarbeit geleistet hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-2307-2_12 9f89f5c45d51de20b3ad9ccf6710dc07;de;;;1.3.;;;Optimierungsmodell zur Schätzung der Biomasse des Mount Tai Forest basierend auf Fernerkundung Die Entwicklung einer kohlenstoffarmen Wirtschaft und die Förderung der Energieeinsparung werden zum Grundkonsens aller Länder. Daher wird der globale Kohlenstoffkreislauf zu einem weit verbreiteten Forschungsthema in der wissenschaftlichen Gemeinschaft. Etwa 77% des Vegetationskohlenstoffs speichert die Waldbiomasse in terrestrischen Ökosystemen. Die Waldbiomasse ist daher der wichtigste Parameter im Kohlenstoffkreislauf des terrestrischen Ökosystems. In diesem Beitrag wird zur Schätzung der Waldbiomasse des Mount Tai ein auf Fernerkundung basierendes Optimierungsmodell der Support Vector Machine (SVM) vorgeschlagen. In diesem Modell werden die meteorologischen Daten, Geländedaten, Fernerkundungsdaten berücksichtigt. Im Vergleich zu den Ergebnissen von SVM mit denen des regressiven Analyseverfahrens sind sowohl die Trainingsgenauigkeit als auch die Testgenauigkeit des regressiven Analyseverfahrens niedriger als die von SVM, so dass SVM eine höhere Genauigkeit erzielen könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27275-2_51 b6964c331b53c01c3f3ceef882768712;de;;;1.1.;;;Theoretische Grundlagen für den Einsatz von Klang im Multimediaunterricht zur Verbesserung des Lernens Jüngste technologische Fortschritte ermöglichen nun die vollständige Integration von Ton in Unterrichtssoftware. Geräusche können die Aufmerksamkeit der Lernenden wecken und fokussieren, ablenkende Reize reduzieren und das Lernen ansprechender gestalten. Darüber hinaus können sie den Lernenden helfen, Details zu verdichten, auszuarbeiten und zu organisieren, indem sie Zusammenhänge zwischen neuen Informationen hervorheben und Verbindungen zu bereits vorhandenem Wissen herstellen. Daher kann Klang viel versprechend für die Dämpfung von Erfassungs-, Verarbeitungs- und Abruf-„Rauschen“ in Lehrsoftware sein. Leider ignorieren Benutzeroberflächen- und Instruktionsdesign-Leitfäden den Klang fast vollständig, und die Forschung legt nahe, dass viele vielversprechende Instruktionsanwendungen noch weitgehend unerforscht sind. Dieser Beitrag untersucht informationsverarbeitende und kommunikationstheoretische Grundlagen für die systematische Verwendung von Klang im Lehrkommunikationssystem und schlägt einen Rahmen für ein Forschungsprogramm zur Verwendung von Klang durch Lehrsoftware vor.;-;-;-;https://link.springer.com/article/10.1007/BF02504912 93c0caff37e4d48855688f8efc48809b;de;;;1.1.;;;Das Bekannte verändern Das Verändern kennen lernen: Die Metatheorie der Allgemeinen Systemtheorie als konzeptioneller Rahmen zur Untersuchung komplexer Veränderungen und komplexer Gedanken Though Das Problem des Wandels, seine Formen und sein Wissen darüber sind gegenwärtig in der Psychologie von Interesse. Fragen können im Kontext der persönlichen Veränderung, der Wechselbeziehungen zwischen Person und Gesellschaft, der kognitiven Entwicklung, der Entwicklung über die Lebensspanne und der Veränderung von Beziehungen formuliert werden. An diesem Punkt in der Geschichte der Psychologie sind wir bereit, nicht nur statische Entitäten zu verstehen, sondern;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-3594-1_3 28d7cceabacbc7345f83b569fa2c4e5c;de;;;1.3.;;;Szenariobasiertes Schulungssystem zum praktischen Informationsschutz mit Virtualisierungssystem Mit der Weiterentwicklung der Informations- und Kommunikationstechnologie nehmen Cyber-Bedrohungen immer mehr zu. Um dem gerecht zu werden, wird aktiv an der Forschung und Entwicklung von Informationssicherheitstrainingssystemen gearbeitet. Es ist jedoch nicht einfach, eine Umgebung zu konstruieren und einzurichten, in der ein Auszubildender ein neues Szenario üben kann. In diesem Papier wird ein praktisches Schulungssystem für den Informationsschutz vorgeschlagen, mit dem Schulungsteilnehmer nur mit einem Webbrowser und installierter VMRC (VMware Remote Console) ohne spezielle Einrichtung geschult werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3648-5_58 d9c052e3e84a18e6e32d3de1c75f87e5;de;;;1.3.;;;Eine neue textunabhängige Sprecheridentifikation mit Vektorquantisierung und mehrschichtigem Perzeptron In diesem Beitrag schlagen wir eine neue textunabhängige Sprecheridentifikationsmethode unter Verwendung von VQ und MLP vor. Es besteht aus drei Teilen: einer neuen spektralen Peakanalyse basierend auf der Merkmalsextraktion, dem Sprecherclustering und der Modellauswahl mit VQ und der MLP-basierten Sprecheridentifikation. Der Merkmalsvektor spiegelt die sprecherspezifischen Eigenschaften wider und hat ein Langzeitmerkmal, das ihn textunabhängig macht. Das vorgeschlagene Verfahren hat eine rechnerische Effizienz für die Merkmalsextraktion und -identifikation. Um die vorgeschlagene Methode zu bewerten, berechneten wir das korrekte Identifikationsverhältnis (CIR), die durchschnittliche CIR der vorgeschlagenen und GMM-Methode betrug 92,27 % und 85,78 % für 5-Sekunden-Segmente bei 15-Sprecher-Identifikation. Experimentelle Ergebnisse haben wir eine mit der GMM-Methode vergleichbare Leistung erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/11760023_25 f4a2ac42e9806e28e97302f928a4c6f7;de;;;1.3.;;;Visualisierung zeitlicher Clusteränderungen mithilfe von selbstorganisierenden Karten mit relativer Dichte Wir stellen eine Self-Organizing Map (SOM)-basierte Visualisierungsmethode vor, die Clusterstrukturen in temporalen Datensätzen mithilfe von Relative Density SOM (ReDSOM)-Visualisierung vergleicht. ReDSOM-Visualisierungen in Kombination mit distanzmatrixbasierten Visualisierungen und Cluster-Farbverknüpfung sind in der Lage, entstehende Cluster, verschwindende Cluster, geteilte Cluster, verschmolzene Cluster, sich vergrößernde Cluster, zusammenziehende Cluster, die Verschiebung von Cluster-Schwerpunkten und Änderungen der Cluster-Dichte visuell zu identifizieren. Wenn beispielsweise eine Region in einem SOM im Vergleich zu einer früheren SOM deutlich dichter wird und gut von anderen Regionen getrennt ist, dann kann die neue Region als ein neuer Cluster bezeichnet werden. Die Fähigkeiten von ReDSOM werden anhand von synthetischen Datensätzen sowie realen Datensätzen der Weltbank und des australischen Steueramts demonstriert. Die Ergebnisse der Real-Life-Datensätze zeigen, dass interaktiv identifizierte Veränderungen mit tatsächlichen Veränderungen in Verbindung gebracht werden können. Die Identifizierung solcher Cluster-Änderungen ist in vielen Zusammenhängen wichtig, einschließlich der Untersuchung von Veränderungen des Bevölkerungsverhaltens im Zusammenhang mit Compliance und Steuerbetrug.;-;-;-;https://link.springer.com/article/10.1007/s10115-009-0264-5 7946c07a4524a039a5cf08d5a1ce5228;de;;;1.1.;;;Die mechanistische Theorie der menschlichen Kognition Im dritten Kapitel liefert der Autor eine systematische und analytische Darstellung der wichtigsten theoretischen Aspekte der Mechanistischen Theorie der menschlichen Kognition (MTHC). Er zeigt, dass die Theorie einerseits eindeutig einer Form des Physikalismus verpflichtet ist, andererseits aber bestimmte Arten traditioneller erkenntnistheoretischer reduktionistischer Ansätze ablehnt. Der Rahmen versucht, eine pluralistische und integrative mechanistische Sicht auf die Beziehung zwischen menschlichem Gehirn und Kognition zu bieten, eine Sichtweise, die auf Phänomene und Theorien insgesamt in den Kognitionswissenschaften und kognitiven Neurowissenschaften angewendet wird. Diese allgemeine pluralistische integrative neurokognitive Beziehung ist die wichtigste Säule, die die Anwendung der Theorie auf die menschliche Kognition begründet. Darüber hinaus untersucht der Autor auch, wie der Rahmen konkret auf zwei paradigmatische Fälle menschlicher kognitiver Phänomene angewendet wird: Der erste Fall bezieht sich auf das Wahrnehmungssystem und der zweite Fall auf das Gedächtnissystem. Auf diese Weise ist es möglich, die Anwendung der Theorie auf bestimmte psychologische Phänomene zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63680-7_3 f13494260f97e3f6ec6f60e2251c82c9;de;;;1.3.;;;SISINE: Eine dedizierte Multiplayer-Rollenspielplattform für Verhandlungstraining, die Fähigkeiten der künstlichen Intelligenz nutzt In den letzten Jahrzehnten haben eine Reihe von Trainern Rollenspiele eingesetzt, um Verhandlungsgeschick zu vermitteln. Das SISINE-Projekt – gefördert durch das EU-Leonardo-Programm – hat eine Lehrmethodik entwickelt, die es ermöglicht, solche Ansätze in einer virtuellen Umgebung durchzuführen. Die Lehrmethodik nutzt eine speziell entwickelte Technologieplattform, die es einer kleinen Gemeinschaft von Spielern ermöglicht, zu kommunizieren, zu interagieren und online zu spielen, um grundlegende Begriffe und Regeln zum Verhandeln zu erwerben und dieses Wissen anzuwenden. Ein Teil des SISINE-Projekts hat Techniken der künstlichen Intelligenz untersucht, um die Möglichkeit der Implementierung computergesteuerter „künstlicher Spieler“ zu bewerten, die einige intelligente Verhaltensweisen verkörpern. In diesem Kapitel werden die ersten Ergebnisse dieser Untersuchungen vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11224-9_8 5f38754b2a345a75680c1d1b3e166f83;de;;;1.3.;;;Drogenmissbrauch und Alkoholprogramme für Jugendliche Dieses Kapitel untersucht die Erstellung eines Handbuchs für den türkischen Bewährungsdienst (TPS) zur Drogen- und Alkoholarbeit mit jungen Menschen, das das Thema Netzerweiterung aufwirft und eine einfache Zielmatrix beschreibt, die während der Mission entwickelt wurde. Die jugendlichen Straftäter in der Türkei wurden im Vergleich zum Vereinigten Königreich insgesamt leicht verurteilt, wobei Cannabis die Hauptkonsumdroge war. Die Fragen der „Hochtarifierung“ und der Kriminalisierung des Drogenkonsums auf niedrigem Niveau werden untersucht. Die Einbeziehung eines Gesundheitsexperten in die Mission trug zu einem großen Teil des behördenübergreifenden Dialogs und des Verständnisses bei und brachte auch Fragen der Leistungserbringung in sehr unterschiedlichen Strukturen des Vereinigten Königreichs auf.;-;-;-;https://link.springer.com/chapter/10.1057/9781137300607_11 2baba24981db91591bbfede6dd09a6b8;de;;;1.1.;;;Das Verhältnis von Aufmerksamkeit und Intelligenz Die Beziehung zwischen Aufmerksamkeit und Intelligenz wird normalerweise als die Beziehung zwischen einer Grundfähigkeit und einer komplexen Fähigkeit in dem Sinne betrachtet, dass Aufmerksamkeit eine Quelle, Determinante oder ein Bestandteil der Intelligenz ist. In diesem Kapitel wird der Begriff Konstituent bevorzugt, da er die Idee einer Ansammlung von Grundfähigkeiten, die eine komplexe Fähigkeit besonders gut hervorbringen, repräsentiert. Als kognitive Grundlage der Intelligenz wird meist der Aufbau von Grundfähigkeiten thematisiert (Schweizer, 2005). Obwohl Aufmerksamkeit auf den ersten Blick als natürliches Mitglied der Versammlung der Grundfähigkeiten erscheinen mag, kann die genaue Betrachtung der Komplexität des Konzepts Zweifel an der Richtigkeit der angenommenen Zugehörigkeit aufkommen lassen. Diese Komplexität ist das Ergebnis der Forschungsbemühungen einer Vielzahl experimenteller Forscher, die eine Vielzahl von Facetten, Typen, Dimensionen und Maßen der Aufmerksamkeit geschaffen haben (Pashler, 1998), und sie bietet eine Reihe von Perspektiven für die Betrachtung der Beziehung zwischen Aufmerksamkeit und Intelligenz. Eine solche Anzahl unterschiedlicher Perspektiven ist jedoch nicht wirklich von Vorteil, da die Perspektiven eine Quelle von Inkonsistenz und sogar Kontroversen sind. Daher ist es in diesem Forschungsfeld erforderlich, die empirische Evidenz zum Zusammenhang zwischen Aufmerksamkeit und Intelligenz besonders sorgfältig auszuwerten und sich auf Versuche der Integration der verschiedenen Perspektiven zu konzentrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-1210-7_15 2e024e282d8d174d4896e90592d25a16;de;;;1.1.;;;Verwendung von Informationen zu menschlichen Fehlern zur Fehlervermeidung Die Entwicklung fehlerfreier Softwareanforderungen ist von entscheidender Bedeutung für den Erfolg eines Softwareprojekts. Probleme, die während der Erfassung und Spezifikation von Anforderungen auftreten, sind, wenn sie nicht frühzeitig behoben werden, kostspielig später zu beheben. Daher ist es wichtig, Techniken zu entwickeln, die den Anforderungsingenieuren helfen, Anforderungsprobleme zu erkennen und zu vermeiden. Als eine menschzentrierte Aktivität kann das Requirements Engineering durch die psychologische Forschung zu menschlichen Fehlern beeinflusst werden, die die Mängel der menschlichen Kognition während des Planungs- und Ausführungsprozesses einer Aufgabe darstellen. Wir haben angestellt;-;-;-;https://link.springer.com/article/10.1007/s10664-018-9623-8 cca31a4fef40d2caff36a2ae7e943b66;de;;;1.1.;;;Begründung der neuronalen Modellierung Bei der neuronalen Modellierung sind zwei unterschiedliche Motive erkennbar. Das Original ist ein Versuch, biophysikalische Phänomene zu beschreiben, die in realen biologischen Neuronen stattfinden, wobei zu erwarten ist, dass einige Primitiven oder Grundelemente der Informationsverarbeitung durch das Gehirn isoliert und identifiziert werden könnten. Ein anderer ist der direkte Versuch, neue Geräte zu entwickeln, die auf heuristisch konzipierten, aber biologisch inspirierten einfachen Komponenten wie Schwellenwert-Logikeinheiten oder formalen Neuronen basieren. Die so entworfenen Schaltungen heißen üblicherweise;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-97610-0_2 a3fa58b83f6e76a1a140211585107332;de;;;1.1.;;;Wirtschaftstheorie und staatliche Technologiepolitik Jüngste Vorschläge des Bundes und Programmexperimente zur Verbesserung der Innovationsleistung der amerikanischen Industrie basieren auf einem unangemessenen analytischen Rahmen. Die diesen Vorschlägen zugrunde liegende neoklassische mikroökonomische Analyse betont die Unterversorgung mit FuE. Ein wesentliches Problem in diesem Zusammenhang ist jedoch die Verwertung komplexer Forschungsergebnisse durch Unternehmen und Industrien mit geringer eigener Forschungskompetenz. Dieses Problem ist ein zentrales Anliegen eines alternativen Ansatzes zur Analyse von Innovationen, der als Informationsverarbeitungs-Framework bezeichnet wird. Dieser analytische Ansatz, der empirische Unterstützung durch eine Untersuchung früherer kooperativer Forschungsprogramme in den Vereinigten Staaten und Großbritannien und eine Analyse der Aktivitäten unabhängiger Beratungsunternehmen erhält, legt nahe, dass kooperative oder außeruniversitäre Forschung als Ersatz für firmeninterne Forschung nicht effektiv funktioniert Forschung. Öffentliche Politiken zur Förderung von Innovationen sollten sowohl auf die Verteilung als auch auf das Angebot von FuE achten.;-;-;-;https://link.springer.com/article/10.1007/BF00138466 139b5e18e9a45148daba16814b11b987;de;;;1.1.;;;Zu Verbundvorteilen in der Kommunikation Ein klassisches Rätsel in der Wirtschaftstheorie des Unternehmens betrifft die grundlegende Ursache sinkender Skalenerträge. Wenn eine Anlage die Produktmenge;-;-;-;https://link.springer.com/article/10.1007/BF02499123 05c3104ca11e570dcb49890dbd75e25c;de;;;1.1.;;;Posttraumatische Belastungsstörung, Intimpartnergewalt und Trauma-informierte Intervention Posttraumatische Belastungsstörung (PTSD) wurde in einer Reihe von Bevölkerungsgruppen mit Gewalt in der Partnerschaft (IPV) in Verbindung gebracht. Dieses Kapitel fasst theoretische Modelle zusammen, die versuchen, diese Assoziationen zu erklären, mit einem Schwerpunkt auf sozialen Informationsverarbeitungsmodellen, die beschreiben, wie sich Traumata auf die Art und Weise auswirken, wie wir unsere soziale Welt interpretieren und verarbeiten, Kernthemen, die Traumata und missbräuchlichem Verhalten zugrunde liegen, sowie Schwierigkeiten bei der Emotionsregulation . Auch mögliche Mediatoren und Moderatoren dieser Beziehung werden diskutiert, darunter Schädel-Hirn-Trauma (SHT), neuropsychologische Defizite, Substanzgebrauch, depressive Symptome und Beziehungskonflikte. Schließlich beschreiben wir die Literatur zu IPV-Interventionen. Während die Literatur durch einen Mangel an randomisierten kontrollierten Studien, kleinen Behandlungseffekten und fehlerhaften Forschungsdesigns gekennzeichnet ist, zeichnen sich vielversprechendere traumainformierte Interventionsansätze ab, die einigen Anlass zu Optimismus geben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-33188-7_7 3d7d8e6e372fab600cbd529eb0a4f384;de;;;1.3.;;;Flucht-Lern-Defizit nach überfüllter Aufzucht bei Ratten: Test einer Hilflosigkeits-Hypothese In einer früheren Studie zeigten Ratten, die in überfüllten Umgebungen aufgezogen wurden, ähnliche Merkmale wie das Phänomen der erlernten Hilflosigkeit, das nach Exposition gegenüber einem unausweichlichen Schock beschrieben wurde. In der vorliegenden Studie wurden Ratten, die 50 Tage nach dem Absetzen allein oder in Gruppen von 4 oder 32 aufgezogen wurden, in einer Shuttlebox getestet, für die zwei aufeinanderfolgende Kreuzungen erforderlich waren, um einen Schock zu vermeiden oder zu entkommen. Zehn Ratten aus jeder Populationsgruppe erhielten vor dem Shuttlebox-Training einen unvermeidlichen Schock, während weitere 10 identisch behandelt, aber nicht geschockt wurden. Ratten, denen ein unentrinnbarer Schock verabreicht wurde, konnten die Shuttlebox-Aufgabe nicht ausführen, unabhängig von der Größe der Population, mit der sie aufgezogen wurden. Ratten, die nicht vorgeschockt waren, führten die Shuttle-Aufgabe durch, obwohl die in Gruppen von 32 aufgezogenen Ratten mehrere Versuche benötigten, um das Niveau der kleineren Gruppen zu erreichen. Die Ergebnisse deuten darauf hin, dass Lernstörungen nach überfüllter Aufzucht nicht auf hilfloses Verhalten zurückzuführen sind.;-;-;-;https://link.springer.com/article/10.3758/BF03333392 2702a5fb950cfe4cde4dddbcb2972cfe;de;;;1.3.;;;Annäherungsvermeidungskonfliktverhalten in Abhängigkeit von vorangegangener Schockstimulation Albino-Ratten erhielten eine Reihe von 1-sekündigen. Schocks, die an fünf aufeinander folgenden Tagen in Heimkäfigen verabreicht wurden, und wurden später in einer Annäherungs-Vermeidungs-Konfliktsituation entweder mit Schock oder Luftstoß getestet. Im Vergleich zu Kontrollgruppen waren die Vorschock-Ss anfänglich weniger empfindlich gegenüber den Auswirkungen von Elektroschocks in der Konfliktsituation.;-;-;-;https://link.springer.com/article/10.3758/BF03328576 c6668f1953952747f355c63923f8de22;de;;;1.3.;;;CSTallocator: Call-Site-Tracing-basierter Shared Memory Allocator für die Reduzierung von False Sharing in seitenbasierten DSM-Systemen Eine falsche gemeinsame Nutzung ist das Ergebnis der gemeinsamen Anordnung von nicht zusammenhängenden Daten in derselben Einheit der Speicherkohärenz und ist eine Quelle für unnötigen Overhead, der nicht hilft, die Speicherkohärenz in Mehrprozessorsystemen aufrechtzuerhalten. Darüber hinaus wird der durch falsche gemeinsame Nutzung verursachte Schaden im Verhältnis zur Granularität der Speicherkohärenz groß. Um eine falsche gemeinsame Nutzung in seitenbasierten DSM-Systemen zu reduzieren, ist es notwendig, den getrennten gemeinsam genutzten Seiten nicht verwandte Datenobjekte mit unterschiedlichen Zugriffsmustern zuzuordnen. In diesem Papier schlagen wir vor;-;-;-;https://link.springer.com/chapter/10.1007/11847366_16 e518503683d28cb30c79af1fdcbea1b5;de;;;1.1.;;;Mechatronische Produktentwicklung Im obigen Zitat schildert Comerford (1994) treffend die Situation, die die Entwicklung der Mechatronik auslöste. Gekennzeichnet durch den genannten Technologie-Mix haben sich mechatronische Produkte nach und nach aus elektromechanischen Produkten durch die Hinzufügung von zunächst Elektronik, später Computersteuerung und Software entwickelt. Ko Kikuchi, der ehemalige Präsident der Yasakawa Electric Company, führte den Begriff ein;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-11092-5_2 d29544ec5770d6457abad3c95e2456d5;de;;;1.1.;;;Mathematische Methoden im System- und Software-Engineering Auch heute noch klafft eine bemerkenswerte Kluft zwischen den in der Praxis des Software Engineering verwendeten Techniken und Methoden und den von Wissenschaftlern erarbeiteten und vertretenen formalen Techniken. Unser Ziel ist es, diese Lücke zu schließen und die pragmatischen und meist informellen Ideen des Systems und Software Engineering in der Praxis und die mathematischen Techniken zur formalen Spezifikation, Verfeinerung und Verifikation von Softwaresystemen zusammenzuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-60858-2_20 85b2544f4e20364f2426c64c42f6c4d1;de;;;1.3.;;;Datenkomprimierungsalgorithmen für visuelle Informationen Audiovisuelle Informationen sind eine der reichhaltigsten, aber auch bandbreitenintensivsten Kommunikationsarten. Um die Anforderungen neuer Anwendungen zu erfüllen, werden leistungsfähige Datenkompressionsverfahren benötigt, um die globale Bitrate drastisch zu reduzieren. In diesem Artikel haben wir ein einfaches verlustfreies Komprimierungsschema für visuelle Bilder vorgeschlagen, das verwendet wird, um visuelle Bilder zu komprimieren. Bei diesem Schema werden die zweidimensionalen visuellen Bilddaten unter Verwendung unseres vorgeschlagenen Pixelabtastverfahrens in eindimensionale Daten umgewandelt. Die Differenz zwischen aufeinanderfolgenden Pixelwerten in den resultierenden eindimensionalen Bilddaten wird genommen und die Reste werden unter Verwendung eines Entropiecodierers verlustfrei codiert. Die Arbeitsprinzipien dieses Ansatzes werden zusammen mit dem verwendeten Bildkompressionsalgorithmus vorgestellt. Wir haben einen Softwarealgorithmus entwickelt und implementiert, um einige Standardtestbilder mit Codierungstechniken im Huffman-Stil in einer MATLAB-Plattform zu komprimieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25462-8_44 161c96106a41aa59b96a0cd51676592a;de;;;1.3.;;;Doppelschleifen-Design Eine entscheidende Rolle für Learning Design besteht darin, die Bildung zu verbessern, aber wir müssen uns zuerst fragen: Welche Rolle spielt Bildung? Dewey (1938/2007) argumentiert, dass sie wachstumsfördernde Erfahrungen vermitteln soll. Nicht nur im Verlauf der Erfahrung selbst, sondern in der Schaffung der Bedingungen für weiteres Wachstum durch zukünftige Erfahrungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-6300-103-8_7 a9fb3795f0f197da5340269ddd312705;de;;;1.3.;;;Ein technischer Ansatz für das formale Design digitaler Systeme Dieses Papier beschreibt einen ersten Versuch, Entwurfswerkzeuge zu entwickeln, die Theorembeweis und Konstruktionsmethoden vereinen. Um Akzeptanz zu erlangen, muss sich ein solches Tool auf die Engineering-Aufgabe konzentrieren und Beweisschritte müssen ausgeblendet werden. Aus diesen Ideen wurde ein prototypisches System auf Basis des HOL-Proof-Assistenten entwickelt. Die Hauptmerkmale dieses Systems sind dreifach. Erstens verwenden wir Window Reasoning zur Modellierung des Designprozesses. Zweitens haben wir eine Reihe von anwendungsspezifischen abgeleiteten Inferenzregeln definiert, die allgemeine Designaufgaben implementieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-58450-1_50 1e6db20671b1bc7eab37df5e57303ef8;de;;;1.1.;;;FORTSCHRITTE BEI ​​DER ANWENDUNG DER NEUROWISSENSCHAFTEN AUF EIN VERSTÄNDNIS DES MENSCHLICHEN LERNENS: DIE HERAUSFORDERUNG, EINE MITTLERE NEUROEDUCATIONSTHEORIE ZU FINDEN Die moderne neurowissenschaftliche Forschung hat unser Verständnis des menschlichen Gehirns wesentlich verbessert. Es bleiben jedoch viele Herausforderungen bei der Entwicklung einer starken, gehirnbasierten Theorie des menschlichen Lernens, insbesondere in komplexen Umgebungen wie Bildungseinrichtungen. Einige der aktuellen Fragen und Herausforderungen in unserem Fortschritt bei der Entwicklung umfassender neurowissenschaftlicher Theorien des menschlichen Lernens, insbesondere in den akademischen Disziplinen, werden besprochen, beginnend mit einer kurzen Zusammenfassung der Geschichte der Publikationen im naturwissenschaftlichen Lernen. Darauf folgt eine Analyse einiger der großen Probleme und konzeptionellen Probleme, mit denen wir derzeit bei der Entwicklung einer starken, lernrelevanten „Neuroedukationstheorie“ konfrontiert sind, insbesondere in eher abstrakten Disziplinen wie Mathematik und Naturwissenschaften. Abschließend werden einige Perspektiven auf mögliche zukünftige Strategien und Herausforderungen bei der Erreichung des Ziels einer neuroedukativen Theorie vorgestellt.;-;-;-;https://link.springer.com/article/10.1007/s10763-013-9455-3 699e25f29fee107afb06d51d4a3d758b;de;;;1.1.;;;Die Organisation von Verben des Wissens: Beweise für kulturelle Gemeinsamkeiten und Variationen in der Theorie des Geistes Interkulturelle Gemeinsamkeiten und Variationen in volkstümlichen Wissenstheorien wurden untersucht, indem die Organisation von Wissensverben bei deutschen und japanischen Erwachsenen untersucht wurde. Deutsche und japanische Erwachsene führten eine von zwei Aufgaben durch: eine Ähnlichkeitsbeurteilungsaufgabe und eine Attributbewertungsaufgabe. Die Organisationsstruktur wurde für die Ähnlichkeitsbeurteilungsaufgabe mittels mehrdimensionaler Skalierung und additiver Ähnlichkeitsbaumanalysen bewertet. Die Attributbewertungsaufgabe wurde verwendet, um die Merkmale zu beschreiben, die die Dimensionen und Cluster organisierten, die sich aus den Skalierungslösungen ergeben. Die dargestellte Volkstheorie des Geistes war ein Informationsverarbeitungsmodell mit konstruktiven Komponenten, obwohl die konstruktiven Aspekte für die Deutschen wichtiger waren als für die Japaner.;-;-;-;https://link.springer.com/article/10.3758/BF03198534 3c5b5e9c2f847987901200bd47378643;de;;;1.3.;;;Ein effizienter hierarchischer Traversal-Algorithmus für Raytracing Raytracing hat sich als hervorragende Technik zum Rendern realistischer Bilder erwiesen. Es ist jedoch wichtig, die lange Rechenzeit zu reduzieren, die sich aus der Brute-Force-Natur der ursprünglichen Raytracing-Algorithmen ergibt. In diesem Papier werden zwei Ideen vorgeschlagen, um die bekannte hierarchische Unterteilungsmethode zu beschleunigen. Zuerst wird ein neues Hierarchiedurchquerungsschema beschrieben, um die Anzahl von Strahlbegrenzungsvolumen-Schnitttests für Sekundärstrahlen zu reduzieren. Dann wird ein Plane-Sweep-Verfahren vorgeschlagen, um weniger Schnittpunktprüfungen für Augenstrahlen durchzuführen. Experimente und Diskussionen werden präsentiert, um die Machbarkeit unserer Methoden zu beweisen.;-;-;-;https://link.springer.com/article/10.1007/BF01901944 6a03a97072a01181059654e8389b992e;de;;;1.1.;;;Probleme lösen Problemlösung und Denken sind untrennbar miteinander verbunden. Wir schlagen vor, dass eine Theorie des Denkens den Begriff der Problemlösung berücksichtigen und einbeziehen muss. In diesem Kapitel besprechen wir die wichtigsten Darstellungen des Problemlösens und hoffen, den Leser davon zu überzeugen, dass Problemlösen einen idealen Rahmen für die Entwicklung einer Theorie des Denkens bieten kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03129-8_1 e67e78ed30c56e06f01c3a795f689bbc;de;;;1.1.;;;Kognitiver Stil und Theorie und Praxis des individuellen und kollektiven Lernens in Organisationen Dieser Aufsatz gibt einen Überblick über Aspekte zweier weitgehend unterschiedlicher Literaturen aus den angrenzenden Gebieten des individuellen und organisationalen Lernens und identifiziert einige Implikationen für Theorie und Praxis. Im Mittelpunkt der Aufmerksamkeit steht das Ausmaß, in dem das individuelle Ebenenkonstrukt kognitiver Stil sinnvoll angewendet werden kann, um das Verständnis des Lernens sowohl auf der Ebene der Organisation als auch auf der Ebene des Individuums zu unterstützen. Es wird darauf geachtet, wie die Berücksichtigung des kognitiven Stils die Wirksamkeit von Interventionen zur Verbesserung der individuellen und organisatorischen Leistung verbessern kann. Neun Interventionskategorien werden identifiziert.;-;-;-;https://link.springer.com/article/10.1023/A%3A1016978926688 1ddebd799048ca408d3da361ce2fbcd5;de;;;1.3.;;;Andere Aktivitäten zur Mengenermittlung In den 1980er und 1990er Jahren erbrachten viele Vermessungsingenieure Dienstleistungen außerhalb ihrer normalen Aufgaben. Einige davon werden als ausreichend wichtig erachtet, um den Fachgebieten ganze Kapitel zu widmen, wie zum Beispiel Wertmanagement in Kapitel 9 und Projektmanagement in Kapitel 12. Eine breite und vielfältige Palette anderer Aktivitäten, mit denen der Mengenprüfer beschäftigt werden kann, werden in diesem Kapitel beschrieben , von der Bauleitung bis zur Beilegung von Baustreitigkeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-14402-0_13 865ebcf6364631d3010a5145b86e02d7;de;;;1.1.;;;Einige neue Gestaltpsychologien Das gegenwärtige Jahrzehnt hat ein Wiederaufleben des Interesses an Wahrnehmungsphänomenen erlebt, die von Gestaltpsychologen untersucht wurden. Einige dieser neuen Psychologien nennen sich Neo-Gestalt-Psychologie. Daher erscheint es angebracht, ihre Beziehung zur Gestaltpsychologie zu untersuchen.;-;-;-;https://link.springer.com/article/10.1007/BF00309361 8ea8979c8146496865d39102710a0572;de;;;1.1.;;;Neuronale Modellierung Obwohl wir inzwischen mit verschiedenen Methoden vertraut sind, in denen mathematische Studien zum Verständnis der Nervenimpulsdynamik beigetragen haben, bleibt noch viel zu tun, bevor das globale Verhalten eines Neurons als gut modelliert betrachtet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-22463-3_9 6cad9b89e4a1e3243a884c61ddfbd501;de;;;1.3.;;;Eine Multifokus-Bildfusionsmethode basierend auf Bildinformationsmerkmalen und den künstlichen neuronalen Netzen Es wird ein Ansatz zur Bildfusion auf Signalebene mit mehreren Fokussen vorgestellt, der auf Bildinformationsmerkmalen und den neuronalen Multiplayer-Feedforward-Netzen (MLFN) basiert. Drei Merkmalsparameter (räumliche Frequenz, Definition und Informationsentropie) werden ausgewählt, die visuelle Bildinformationen effektiv aufdecken können. Zur objektiven Beurteilung der Fusionsbildqualität wird der Root Mean Square Error (RMSE) als Beurteilungskriterium herangezogen. Experimentelle Ergebnisse zeigen, dass das Fusionsverfahren basierend auf visuellen Bildmerkmalen und dem MLFN das Multifokusbild effektiv fusionieren kann und den Wavelet- und Multiwavelet-Verfahren quantitativ überlegen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-37256-1_91 d090aa4f9deccccb7083f48093336857;de;;;1.3.;;;Qualifikationen und Kompetenzniveaus von Praktikern der digitalen Forensik in Südafrika: Eine explorative Studie Digitale forensische Untersuchungen erfordern Kompetenz in den mit einer Untersuchung verbundenen Fähigkeiten, die oft durch Qualifikationen gemessen werden, die aus schulischer Ausbildung, digitaler forensischer Ausbildung, digitaler forensischer Zertifizierung und arbeitsbezogener Erfahrung in der digitalen Forensik bestehen. Während frühere Untersuchungen zu den Qualifikationen von Fachleuten der digitalen Forensik im südafrikanischen Umfeld durchgeführt wurden, wurde der Zusammenhang zwischen Qualifikationen und Qualifikationsmaßen nicht untersucht. Diese Forschungsstudie verwendet einen konzeptionellen Forschungsrahmen, um den Zusammenhang zwischen Qualifikationen und dem Kompetenzniveau digitaler Forensiker in Südafrika zu testen. Die Ergebnisse zeigen, dass kontinuierliche Weiterbildung und das Niveau der Zeugenaussage eines Digitalforensics-Praktikers in einem Zivil- oder Strafverfahren positiv mit dem allgemeinen Kompetenzniveau verbunden sind. Andere Faktoren wie die formale Ausbildung, die Anzahl der forensischen Schulungen, die Zertifizierung und die arbeitsbezogene Erfahrung standen in keinem direkten Zusammenhang mit der gemessenen Fähigkeit. Daher ist weitere Forschung erforderlich, um die Rolle dieser Faktoren bei der Verbesserung des Qualifikationsniveaus zu verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-05813-5_23 af93ff4a9c9ef932983d52a7c01b5187;de;;;1.3.;;;Entwicklung und Funktion der Synergidzelle Die Synergidzellen befinden sich im weiblichen Gametophyten und sind für die Reproduktion der Angiospermen essentiell. Während des Befruchtungsprozesses wächst ein Pollenschlauch in eine der Synergidzellen ein, hört auf zu wachsen, platzt und gibt seine beiden Samenzellen in diese Zelle ab. Die synergidischen Zellen produzieren einen Lockstoff, der den Pollenschlauch zum weiblichen Gametophyten führt und wahrscheinlich Faktoren enthält, die die Hemmung des Pollenschlauchwachstums, des Pollenschlauchausflusses und der Gametenfusion kontrollieren. Die Synergidzellen enthalten an ihren Mikropylarpolen eine ausgearbeitete Zellwand, den fadenförmigen Apparat, der wahrscheinlich eine Rolle bei der Pollenschlauchführung und Pollenschlauchaufnahme spielt. Jüngste genetische, molekulare und physiologische Studien in;-;-;-;https://link.springer.com/article/10.1007/s00497-007-0059-3 4c7c8681587cb60a605b0dc573a6f28f;de;;;1.1.;;;Aufmerksamkeitsprozesse und individuelle Unterschiede Angesichts der beobachtbaren Tatsache, dass Säuglinge ihre Umgebung wahrnehmen und erkunden, ist es wertvoll festzustellen, welche Variablen dieses Verhalten bestimmen. In diesem Kapitel widmen wir uns der Untersuchung der Aufmerksamkeit im Säuglingsalter, in der Überzeugung, dass Aufmerksamkeitsprozesse eine wichtige Rolle in der frühen kognitiven Entwicklung des Kindes spielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2985-5_7 bf4d24967ee233f3e42ff6c2c3fff18a;de;;;1.1.;;;Angst, Sorge und das Selbst Ich frage mich, wie die Leute auf dieses Kapitel reagieren werden. Soll ich etwas Dummes sagen? Werde ich weiterhin an meinen Überzeugungen festhalten und sie weiterhin unter öffentlicher Kontrolle prüfen oder werde ich die Missbilligung durch andere fürchten und es vermeiden, diese Ideen zu präsentieren, oder, schlimmer noch, meine Ideen so ändern, dass sie dem entsprechen, was sie meiner Meinung nach hören wollen?;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-1793-7_9 e8560fa62627d576a1d48b18f7e9708c;de;;;1.1.;;;Ein Modell von Quaternion-Neuralnetzen vom Hopfield-Typ und seine Energiefunktion Kürzlich wurden Modelle neuronaler Netze vorgeschlagen, die direkt mit komplexen Zahlen umgehen können, komplexwertige neuronale Netze, und es wurden mehrere Studien über ihre Fähigkeiten zur Informationsverarbeitung durchgeführt. Darüber hinaus wurden auch Modelle neuronaler Netze vorgeschlagen, die mit Quaternionenzahlen umgehen können, die eine Erweiterung komplexer Zahlen sind. Sie sind jedoch alle mehrschichtige quaternionische neuronale Netze. Dieses Papier schlägt ein Modell rekurrenter quaternionischer neuronaler Netze, Hopfield-Typ quaternion neuronaler Netze vor. Wir untersuchen die Dynamik des vorgeschlagenen Modells unter dem Gesichtspunkt der Existenz einer Energiefunktion und leiten ihre Bedingung ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30499-9_16 eec7ddc48eca1eb7bc99b0badfd45173;de;;;1.3.;;;Faire Frequenzzuteilung mit reduzierter Frequenzübergabe in kognitiven Funksensornetzwerken Dieses Papier betrachtet das Problem der zentralisierten Spektrumszuweisungen in drahtlosen kognitiven Funksensornetzwerken im Hinblick auf die folgenden Ziele: (1) Maximierung der Fairness, die die Priorität unter den Sensordaten widerspiegelt, und (2) Vermeidung unnötiger Spektrumsübergabe. Wir wandeln dieses Problem in eine multiobjektive gemischt ganzzahlige nichtkonvexe nichtlineare Programmierung um. Um die Unhandlichkeit anzugehen, konvexisieren wir zuerst das ursprüngliche Problem unter Verwendung einer arithmetisch-geometrischen Mittelwertapproximation und verwenden dann eine gewichtete Chebyshev-normbasierte Skalarisierungsmethode, um das Mehrzielproblem in ein einziges Ziel zusammenzufassen. Schließlich wenden wir eine einfache Rundungsmethode an, um ungefähre ganzzahlige Lösungen zu erhalten. Ein bemerkenswerter Vorteil des vorgeschlagenen Ansatzes besteht darin, dass er es ermöglicht, innerhalb angemessener Rechenzeit ziemlich gute genäherte ganzzahlige Lösungen zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54900-7_20 d21a26842325624212851fd799b35f6e;de;;;1.3.;;;Komprimieren von Stand- und Bewegtbildern mit Wavelets Die Wavelet-Transformation hat sich zu einer Spitzentechnologie in der Bildkompressionsforschung entwickelt. Dieser Artikel erklärt, was Wavelets sind und bietet ein praktisches Tutorial zur Wavelet-basierten Komprimierung, das den Lesern hilft, diese wichtige neue Technologie zu verstehen und mit ihr zu experimentieren.;-;-;-;https://link.springer.com/article/10.1007/BF01215399 506c3fc94a5b18a94b9cbc5b8f727d99;de;;;1.1.;;;Grundlagen des Umschreibens von Begriffen Begriffe und Bäume sind wichtige strukturierte Objekte, die in der Informatik fast überall zu finden sind, nicht nur im Zusammenhang mit ihren mathematischen Grundlagen. In jeder axiomatischen Definition von Strukturen und gleichungsdefinierten Kalkülen findet man die Kombination von Axiomen, d. h. Gleichungen, und einer Methode zur Ableitung neuer;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-59126-6_5 4e525752d3c0198f7edd728b09fbac78;de;;;1.1.;;;Entwicklungstheorien Das Ziel dieses Kapitels ist es, einen Überblick über die wichtigsten theoretischen Perspektiven der sozialen Entwicklung zu geben, mit besonderem Schwerpunkt auf Theorien, die den gesamten Verlauf der individuellen Entwicklung umfassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-0694-6_1 ebf4eda0e3589a438cdc1754112efb38;de;;;1.3.;;;Auswirkungen von Informationssicherheitsschulungen auf die Erkennung von Phishing-Angriffen: Eine Fallstudie der Technischen Universität Vilnius Gediminas Phishing-Angriffe sind eine Art Social-Engineering-Angriff und werden oft als Anfangsphase einer größeren Kampagne verwendet. Es ist gefährlich, da Benutzer den Angreifern versehentlich persönliche Daten oder sensible Unternehmensinformationen preisgeben können. Daher muss die Unfähigkeit, Phishing-Angriffe zu erkennen und angemessen darauf zu reagieren, als eines der Hauptsicherheitsrisiken im Unternehmen angesehen werden. In diesem Whitepaper stellen wir eine Methodik zur Bewertung der Widerstandsfähigkeit von Mitarbeitern gegen Phishing-Angriffe vor. Wir analysieren auch die Veränderungen der Situation nach der Teilnahme der Mitarbeiter an Informationssicherheitsschulungen. Innerhalb eines Jahres wurden Versuche mit Mitarbeitern der Technischen Universität Vilnius Gediminas durchgeführt, um Erkenntnisse über ihre Leichtgläubigkeit gegenüber Phishing-Angriffen vor und nach Sicherheitsschulungen zu sammeln. Die Ergebnisse des Experiments zeigen den Nutzen von Sicherheitstrainings, es gibt jedoch noch Raum für Verbesserungen und muss in Zukunft beachtet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-57672-1_23 75622f7cb35a4e5e2bd82c9fc17df9d6;de;;;1.1.;;;Brücken zwischen Lerntheorien und technologiegestützten Umgebungen: Eine kritische Auseinandersetzung mit seiner Geschichte In der Bildung wird Retrospektive oft als Methode verwendet, um neue Trends besser zu verstehen, wie in vielen Büchern und Artikeln dokumentiert. In diesem Kapitel liegt der Fokus nicht auf einer umfassenden Beschreibung der Geschichte der Bildungstechnologie, sondern auf dem Zusammenspiel von Lerntheorien und Technologien. Allerdings sind weder Lerntheorien noch Werkzeuge monolithische Phänomene. Sie setzen sich aus mehreren Attributen zusammen und beziehen sich auf viele Aspekte und Facetten, die die Geschichte der Bildungstechnologie hochkomplex machen. Darüber hinaus spiegelt die Evolution sowohl in der Theorie als auch in der Technologie keine klaren aufeinander folgenden Brüche oder diskreten Entwicklungen wider – eher Wachstums- und Akkumulationswellen. Bei genauerer Betrachtung von Lernen und Technik wird deutlich, dass viele Interaktionen stattfinden. Diese Interaktionen werden nach der kontinuierlichen Weiterentwicklung nach dem Zweiten Weltkrieg dokumentiert. Wir folgen keinem strengen Zeitrahmen, sondern bündeln die kritische Bewertung in den folgenden Beobachtungen: (1) Entwicklungen in Gesellschaft und Bildung haben die Auswahl und den Einsatz von Lerntheorien und -technologien beeinflusst, (2) Lerntheorien und -technologien sind etwas vage konzeptionellen Bereich, (3) Lerntheorien und -technologien sind durch Informationsverarbeitung und Wissenserwerb verbunden und verflochten, (4) Bildungstechnologien haben die Lernerunterstützung von der Programm- oder Ausbilderkontrolle hin zu mehr gemeinsamer und Lernerkontrolle verlagert und (5) Lerntheorien und Erkenntnisse eine unscharfe Mischung aus Prinzipien und Anwendungen. Die Geschichte spiegelt eine Entwicklung vom individuellen zum gemeinschaftlichen Lernen, vom inhaltsorientierten Lernen zu prozessorientierten Ansätzen, von isolierten Medien zu integrierter Nutzung, von Präsentationsmedien zu interaktiven Medien, von orts- und zeitabhängigen Lernsituationen zu allgegenwärtigem Lernen feste Werkzeuge in Richtung Handheld-Geräte. Diese Entwicklungen konfrontieren Lernende zunehmend mit Komplexität und fordern ihre Verantwortung heraus, aktive Teilnehmer an einer lernenden Gesellschaft zu werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-3185-5_1 621b5a9776483a820728cc37acb33a02;de;;;1.3.;;;Bildungsinnovation: Fallstudien zu E-Learning und Präsenzunterricht in der Hochschulbildung: Was ist das Beste? Bildungsinnovationen sind hier, um zu bleiben. Dieses Kapitel enthält die Ergebnisse einer Studie über die Anwendung der Informations- und Kommunikationstechnologie auf fortgeschrittene Lehr- und Lernaktivitäten. Strategisch wichtig ist, dass die Technologie neue Wege des Lehrens und Lernens eröffnet. Der Zweck dieses Kapitels besteht zunächst darin, die typischen fortgeschrittenen Lehr- und Lernaktivitäten/-funktionen zu identifizieren, die im E-Learning und Präsenzunterricht angewendet werden können. Fallstudien wurden aus einer Gruppe von Lehrkräften ausgewählt, die bereits seit einigen Jahren in beiden Lehrformen tätig sind und somit Erfahrung mit Blended Teaching and Learning haben. Eine Reihe von Lehraktivitäten/-funktionen wurden in ihrer Anwendung in der E-Learning-Situation positiv bewertet. Besonders hervorzuheben sind Peer-Review und Zusammenarbeit, Förderung der Reflexion und Anregung zu kritischem und kreativem Denken, Team-Teaching, Förderung der Entdeckung/Erweiterung von Wissen und Problematisierung des Lehrplans. Beim Lehren und Lernen von Angesicht zu Angesicht, Einladung zum Engagement, zum Kennenlernen, unter Einbeziehung von Metaphern und Analogien, Lehre, die eine Verbindung zum Lernen herstellt, Veränderungen anregt, Verständnis fördert und andere hervorstechen. Wie die Lehrenden in den Fallstudien sehen, werden sowohl E-Learning als auch Präsenzunterricht als komplementär betrachtet. Wir definieren diese Sichtweise als gemischtes Lehren und Lernen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03582-1_23 ce09859a34c6980c72701ba6eb0a8528;de;;;1.3.;;;Modellierung ausgewählter Echtzeit-Datenbank-Parallelitätskontrollprotokolle in Uppaal Echtzeit-Datenbankmanagementsysteme (RTDBMS) sind in letzter Zeit Gegenstand einer intensiven Forschung. Modellprüfalgorithmen und Verifikationswerkzeuge sind ebenfalls von großer Bedeutung. In diesem Papier zeigen wir einige Möglichkeiten der Verwendung eines Verifikationstools Uppaal für einige Varianten von pessimistischen und optimistischen Parallelitätskontrollprotokollen, die in Echtzeit-Datenbankmanagementsystemen verwendet werden. Wir präsentieren einige mögliche Modelle solcher Protokolle, ausgedrückt als Netze zeitgesteuerter Automaten, die eine Modellierungssprache von Uppaal sind.;-;-;-;https://link.springer.com/article/10.1007/s11334-009-0086-3 19fd9913b180bd4323a6eca6eb6a3172;de;;;1.3.;;;Wissenschaft: Fakultätsmitglieder – Bildung Fakultätsmitglieder werden nach drei Hauptkriterien bewertet: Forschung, Lehre und Service. Daher ist klar, dass die Bildungskomponente des Modells für die Analyse der Rolle eines Fakultätsmitglieds relevant ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30225-6_10 7515e0471e1728e9bf604c447a5c2623;de;;;1.3.;;;Neuer Ansatz zur Bildung physikalisch adsorbierter Kapillarbeschichtungen aus hyperverzweigtem Poly(ethylenimin) mit Maltosehülle zur Verbesserung der Trennung von Katecholaminen und Proteinen in CE Als Beschichtungsmaterialien für Quarzglaskapillaren wurden Kern-Schale-Polymere auf Basis eines hyperverzweigten (hb) Poly(ethylenimin)-Kerns und einer Schale mit variablem Maltosegehalt verwendet. Ein neuer, einfacher, schneller und reproduzierbarer Weg zur Modifizierung der Kapillarwände durch physikalische Adsorption von Kern-Schale-Polymeren mit einem Cu;-;-;-;https://link.springer.com/article/10.1007/s10337-017-3390-3 75a3f16d8909af3d2b2e9a5bca11b170;de;;;1.3.;;;Ein neuer schneller Algorithmus zum Trainieren von Stapelfiltern mit großen Fenstern Zur Unterdrückung des Pulsrauschens werden häufig Stapelfilter eingesetzt. Im Allgemeinen sind die Ergebnisse umso besser, je größer die Stapelfilter sind. Leider können verfügbare Algorithmen zum Entwerfen von Stapelfiltern aufgrund ihrer enormen Rechenkomplexität nur für kleine Fenstergrößen geeignet sein. Dieses Papier präsentiert einen neuen schnellen adaptiven Algorithmus zum Entwerfen eines Stapelfilters mit großen Fenstern. Die Idee des neuen Algorithmus besteht darin, ein größeres Fenster in viele Unterfenster zu unterteilen. Die Verfahren zum Teilen eines großen Fensters werden angegeben. Ein Immune Memory Clonal Selection Algorithmus wird verwendet, um die Stapelfilter mit kleinen Fenstergrößen zu entwerfen. Aufgrund seiner hochparallelen Struktur lässt es sich sehr schnell implementieren. Als Experiment wurde der Algorithmus verwendet, um Bilder wiederherzustellen, die durch unkorreliertes additives Rauschen mit einem Pegel von 10 % bis 50 % beschädigt waren. Die Ergebnisse zeigen, dass der Algorithmus effektiv und praktikabel ist.;-;-;-;https://link.springer.com/chapter/10.1007/11881223_91 3c8940040b81be41ee590907cccf907a;de;;;1.3.;;;Photonische Quantenmetrologien unter Verwendung von Photonen: Phasensuperempfindlichkeit und Verschränkungsverstärkung Die Quanteninformationswissenschaft hat in letzter Zeit erhebliche Aufmerksamkeit auf sich gezogen. Es nutzt die intrinsische Natur der Quantenmechanik wie Quantensuperposition, das Unschärfeprinzip und Quantenverschränkung, um neue Funktionen zu realisieren. In letzter Zeit hat sich die Quantenmetrologie als Anwendung der Quanteninformationswissenschaft herausgebildet. Unter den vielen physikalischen Quanten sind Photonen ein unverzichtbares Werkzeug für die Messtechnik, da lichtbasierte Messungen auf Bereiche von der Astronomie bis hin zu den Biowissenschaften anwendbar sind. In der Quantenmetrologie wird die Quantenverschränkung zwischen Photonen verwendet. In diesem Kapitel werden wir versuchen, einen kurzen Überblick über dieses aufstrebende Gebiet zu geben, das sich hauptsächlich auf zwei Themen konzentriert: Optische Phasenmessungen jenseits des Standardquantenlimits (SQL) und quantenoptische Kohärenz Tomographie (QOCT). Die Empfindlichkeit einer optischen Phasenmessung für eine gegebene Photonenzahl;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-55756-2_7 b61ef5f3b9199755a274df55384717fb;de;;;1.3.;;;Forschung zur Plattformintegration von ausrüstungsunterstützenden Simulationstrainingssystemen und Integrationsabschluss Aufgrund der Geräteunterstützung sind Simulationstrainingssysteme geografisch verteilt, laufen unabhängig und sind nicht miteinander verbunden, was die steigende Nachfrage nach Ausrüstungsunterstützungsfähigkeiten nicht erfüllen kann. Es bietet Plattformintegration, um die Ausrüstung, die Simulationstrainingssysteme unterstützt, zu einem organischen Ganzen zu verteilen. Es entwirft auch die Funktionsstruktur der integrierten Plattform und erforscht den Integrationsgrad, der die Notwendigkeit einer systematischen und organisierten Durchführung von Ausrüstungsunterstützungstrainings und der Schulung von Personen erfüllen kann, die sowohl das Kommando als auch die Technologie kennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32427-7_51 b06c410fb6fdc62ae0b013c8e02066ce;de;;;1.1.;;;Organisatorische Kognition: Ein kritischer Blick auf die verwendeten Theorien Dieses Kapitel beschäftigt sich mit der Untersuchung der Ontologie der organisatorischen Kognition (OC) durch konzeptionelles Mapping, um zu erkennen und zu verstehen, worum es bei OC wirklich geht. Ziel ist es nicht, eine umfassende Literaturrecherche zu diesem Bereich bereitzustellen, sondern das Konzept so abzubilden, dass sowohl Bedeutung als auch Reichweite besser definiert werden können. Dabei betrachtet der Artikel mehrere Perspektiven, unter denen der Bereich „Organisation“ mit „Kognition“ interagiert oder sich auf ihn bezieht (oder nicht tut). Es wird eine Tabelle präsentiert, die Ähnlichkeiten und Unterschiede zwischen den Ansätzen zusammenfasst. Schließlich wird die Tabelle dann als Werkzeug verwendet, um Überschneidungen und Lücken aufzuzeigen und mögliche Richtungen für die zukünftige Forschung im Bereich OK zu definieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49115-8_15 a1a35bcfa18908653c51dec56f1641be;de;;;1.1.;;;Wie eine flexible Matrixstruktur Ambidextrie auf Makroebene großer, komplexer Organisationen wie MNCs schaffen könnte Es ist schwierig, große, komplexe Organisationen wie MNCs beidhändig zu machen – sie effizient zu machen, damit sie kurzfristig erfolgreich sind und mit ihren sich verändernden Umgebungen synchron sind, damit sie langfristig erfolgreich sind und überleben. Die beiden Arten von Lernaktivitäten, die Ambidextrie, Ausbeutung und Exploration unterstützen, unterscheiden sich grundlegend (März 1991). Der bekannte strukturelle Ansatz zur Schaffung organisatorischer Ambidextrie verwendet separate Untereinheiten für Exploration und Exploration (O’Reilly und Tushman 2011). Wir argumentieren, dass dieser Ansatz die hohe Produkt-, geografische und funktionale Vielfalt, die in großen, komplexen Unternehmen existiert, nicht voll ausnutzen kann, um auf einer eher makroökonomischen Ebene Ambidextrie zu schaffen. Unternehmen, die mit dieser Art von Komplexität konfrontiert sind, begegnen ihr oft mit einer Matrixstruktur. Für solche Firmen argumentieren wir, dass eine flexiblere Form der Matrixstruktur die Schaffung einer neuen Form der Ambidextrie auf der Makroebene solcher Firmen erleichtern kann. Wie in Egelhoff und Wolf (Egelhoff und Wolf 2017) entwickelt, ist eine flexible Matrixstruktur eine solche, die ihren Entscheidungsmodus zwischen ausgewogener Entscheidungsfindung, bei der Entscheidungen durch beide Dimensionen einer Matrix gemeinsam getroffen werden, und regelbasierter Entscheidungsfindung variieren kann , wobei vorab festgelegt ist, welche Dimension einer Matrix einseitig bestimmte Arten von Entscheidungen trifft. Wir argumentieren, dass regelbasierte Entscheidungsfindung dazu neigt, die Nutzung und Verfeinerung von vorhandenem Wissen zu erleichtern, während ausgewogene Entscheidungsfindung dazu neigt, die Erforschung und Entwicklung von neuem Wissen zu erleichtern. Durch die Festlegung des einen oder anderen Entscheidungsmodus kann das Management auf Unternehmensebene wichtige strategische Entscheidungen (z.;-;-;-;https://link.springer.com/article/10.1007/s11575-020-00418-7 baf155706ed365ad1f415edf80deee4a;de;;;1.1.;;;Kognitive Neurowissenschaften und Gestaltung der chirurgischen Ausbildung Der chirurgische Pädagoge, der die menschliche Kognition versteht, ist besser in der Lage, Bildungsaktivitäten zu entwerfen und durchzuführen. Die kognitiven Neurowissenschaften schlagen Theorien und Modelle des Lernens vor, die zu diesem Verständnis beitragen. Die Informationsverarbeitungstheorie betont die aktive Gedankenverarbeitung, bei der Informationen gruppiert und zwischen dem Arbeits- und dem Langzeitgedächtnis des Lernenden verarbeitet werden. Wenn diese Informationen synthetisiert werden, entwickeln sie sich zu einem Schema, das vom Verstand effizienter manipuliert werden kann. Die Cognitive Load Theory stützt sich auf diese Theorie und schlägt vor, dass sich Schemata am besten entwickeln, wenn eine Lernaktivität auf das Publikum zugeschnitten ist. Mastery Learning behauptet, dass Kompetenz in Stufen auftritt und dass es für einen Lernenden am besten ist, seinen aktuellen Lernbereich zu beherrschen, bevor er zum nächsten übergeht. Optimaler Unterricht erkennt den aktuellen Lernbereich des Lernenden und beschleunigt die Erlangung der Beherrschung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3128-2_6 ee5f798c369a46635803976e5a892813;de;;;1.1.;;;Kommunikation von Organisationsstrategie und koordinierter Entscheidungsfindung als Katalysatoren für eine verbesserte Wahrnehmung von ethischen Unternehmenswerten in einem Finanzdienstleistungsunternehmen Basierend auf der Stakeholder-Theorie und anderen Interaktionsperspektiven untersucht diese Studie die Verbindungen zwischen Strategiekommunikation, Geschäftsentscheidungen und Organisationsethik. Anhand von Umfragedaten von Mitarbeitern eines in den USA tätigen Finanzdienstleistungsunternehmens ermittelt die Studie 1) ob eine koordinierte Entscheidungsfindung eine vorgeschlagene Beziehung zwischen der Kommunikation der Geschäftsstrategie und der Wahrnehmung der ethischen Werte des Unternehmens durch die Mitarbeiter vollständig vermittelt oder ob sowohl die Geschäftsstrategiekommunikation als auch die koordinierte Entscheidungsfindung die wahrgenommenen ethischen Werte beeinflussen (Teilmediation). Ergebnisse aus der Strukturgleichungsmodellierung bieten starke Unterstützung für eine vollständige Mediation. Die praktischen/theoretischen Implikationen der Ergebnisse und zukünftige Forschungsvorschläge werden vorgestellt.;-;-;-;https://link.springer.com/article/10.1007/s10672-014-9253-2 4692c0cff78e7f022ff4003df84d6259;de;;;1.1.;;;Mechatronische Systeme – Eine kurze Einführung Viele technische Verfahren und Produkte im Bereich Maschinenbau und Elektrotechnik weisen eine zunehmende Integration der Mechanik mit digitaler Elektronik und Informationsverarbeitung auf. Diese Integration findet zwischen den Komponenten (Hardware) und den informationsgesteuerten Funktionen (Software) statt, was zu integrierten Systemen führt, die als mechatronische Systeme bezeichnet werden. Ihre Entwicklung beinhaltet das Finden einer optimalen Balance zwischen der grundlegenden mechanischen Struktur, der Implementierung von Sensoren und Aktoren sowie der automatischen Informationsverarbeitung und Gesamtsteuerung. Häufig werden vormals mechanische Funktionen durch elektronisch gesteuerte Funktionen ersetzt, was zu einfacheren mechanischen Strukturen und erhöhter Funktionalität führt. Die Entwicklung mechatronischer Systeme öffnet die Tür zu vielen innovativen Lösungen und Synergieeffekten, die mit Mechanik oder Elektronik allein nicht möglich sind. Dieser technische Fortschritt hat einen sehr starken Einfluss auf eine Vielzahl von Produkten aus den Bereichen Mechanik, Elektrik und Elektronik und verändert zunehmend das Design beispielsweise konventioneller elektromechanischer Komponenten, Maschinen, Fahrzeuge und feinmechanischer Geräte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78831-7_19 4620ed4be58f1a070920a5d54e4dcc5d;de;;;1.1.;;;Computational Intelligence-Lösungen für den Heimatschutz Auf der Grundlage konsolidierter Anforderungen internationaler Polizeien hat Elsag Datamat eine integrierte Tool-Suite entwickelt, die alle wichtigen Homeland Security-Aktivitäten wie Operationen, Notfallmaßnahmen, Ermittlungen und Geheimdienstanalysen unterstützt. Die letzte Unterstützung deckt den gesamten „Intelligence Cycle“ entlang seiner Hauptphasen ab und integriert eine Vielzahl von automatischen und halbautomatischen Werkzeugen, sowohl aus den ursprünglichen Unternehmensentwicklungen als auch aus dem Markt (COTS), in einem homogenen Rahmen. Die Unterstützung der Analysephase, die am anspruchsvollsten und rechenintensivsten ist, nutzt Klassifikationstechniken, Clustering-Techniken, Neuheitserkennung und andere anspruchsvolle Algorithmen. Ein innovativer und vielversprechender Einsatz von Clustering und Neuheitserkennung, der die Analyse des „Informationsverhaltens“ unterstützt, kann für die Analysten sehr nützlich sein, um relevante Themen zu identifizieren, ihre Entwicklung zu überwachen und neue Informationsereignisse zu erkennen, die im überwachten Szenario Aufmerksamkeit verdienen könnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88181-0_6 c0588d5db5fd2d5f99bc5629dba6d4c0;de;;;1.1.;;;Ein computergestützter Ansatz für kollektives Verhalten In ihrem Buch „Information Theory and the Living System“ schreibt Gatlin (Gatlin, Information Theory and the Living System, 1972) evolution die Fähigkeit, die für ihre eigene genaue Wiedergabe notwendigen Informationen zu speichern und zu verarbeiten.“ Irgendwie kann diese Aussage leicht angepasst werden, um Schwärme aus der Sicht der Informationsverarbeitung zu definieren: Ein Schwarm kann operativ als ein einzelnes verteiltes Informationsverarbeitungssystem definiert werden – eine dynamische und dezentralisierte Struktur von funktionierenden Einheiten – das die Fähigkeit besitzt, Informationen zu verarbeiten und sich an Veränderungen anzupassen Umgebungen. Diese Definition spiegelt die allgemeine Rolle der Berechnung in komplexen Systemen von Mitchell (Mitchell, Complexity: A Guided Tour, 2009) wider: „Berechnung ist, was ein komplexes System mit Informationen macht, um erfolgreich zu sein oder sich in seiner Umgebung anzupassen.“;-;-;-;https://link.springer.com/chapter/10.1007/978-981-287-751-2_6 c21c2981a485a12aaa67b246081b4bd1;de;;;1.3.;;;Erkennung epileptischer Anfälle mithilfe von EEGs basierend auf dem Kernelradius der Funktionen des intrinsischen Modus Die Erforschung der automatisierten Erkennung epileptischer Anfälle mittels EEGs hat in diesen Jahrzehnten immer mehr Forscher angezogen. Als entscheidend für die erfolgreiche Realisierung wird die Extraktion geeigneter Merkmale in EEGs angesehen, die zur Unterscheidung von Nichtanfalls-EEG von Anfalls-EEG verwendet werden können. In dieser Arbeit haben wir eine neuartige Methode zur Kernelradius-basierten Merkmalsextraktion aus der Perspektive der nichtlinearen Dynamikanalyse vorgeschlagen. Das gegebene EEG-Signal wird zunächst adaptiv unter Verwendung der empirischen Moduszerlegung in verschiedene Anzahlen von Eigenmodusfunktionen (IMFs) zerlegt. Anschließend wird die dreidimensionale Phasenraumdarstellung (3D-PSR) für jeden IMF nach dem Zeitverzögerungsverfahren rekonstruiert. Zuletzt wird der Kernelradius des entsprechenden 3D-PSR definiert, der den Konzentrationsgrad aller Punkte in 3D-PSR charakterisieren soll. Mit dem extrahierten Merkmal KRF verwenden wir eine extreme Lernmaschine und eine Support-Vektor-Maschine als Klassifikatoren, um die Aufgabe der automatisierten Erkennung von epileptischen Anfällen zu erfüllen. Die Leistungsfähigkeit der vorgeschlagenen Methode wird abschließend in der Bonner EEG-Datenbank verifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-69182-4_2 a1ca52d683f4af9db5d3544ec7769f8c;de;;;1.3.;;;Bestimmung der Muskelkraft mittels RMS der Elektromyographie bei Schlaganfallüberlebenden Schlaganfall ist eine bedrohliche Krankheit. Rehabilitationsübungen können beeinträchtigte Gliedmaßen rehabilitieren. Anstelle einer manuellen Bewertungsmethode der Skala des Medical Research Council (MRC) bei der Messung der Muskelkraft wird Elektromyographie (EMG) verwendet, um das Muskelsignal zu messen. Ein zweikanaliger Oberflächen-EMG-Sensor wird verwendet, um die Kraft von Bizeps und Armmuskulatur zu messen. In dieser Studie wurden zehn Schlaganfallpatienten und zehn Gesunde für das Projekt rekrutiert. Die Patienten wurden während aller Rehabilitationssitzungen der EMG-Messung ausgesetzt. Der Gesamt-Root-Mean-Square (RMS) wurde verwendet, um die Stärke der Muskeln zu bestimmen. Das Ergebnis zeigte, dass der Gesamt-RMS-Wert der beeinträchtigten oberen Extremität am Ende des Rehabilitationsprozesses durchschnittlich um 4,22% verbessert wurde. Bei der Muskelkraftmessung zeigte die EMG-Signalmessung eine deutliche Verbesserung (+2,43 %) im Vergleich zur MRC-Skalenmessung (+0 %). Daher kann die EMG-Signalmessung die Muskelkraft des Patienten genau beschreiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6385-4_19 35d576aba07d514efac87bd204cb06ea;de;;;1.1.;;;Ein umfassendes Modell des Informationssuch- und Verarbeitungsverhaltens von Investmentfondsanlegern Das Verständnis des Anlageverhaltens, insbesondere des Informationssuch- und Verarbeitungsverhaltens von Anlegern von Investmentfonds (MF) ist ein Schlüssel zur effektiven Vermarktung von MF-Systemen, und dennoch haben wir nur begrenzte Kenntnisse darüber. Diese Studie schlägt und validiert ein Modell der Informationssuche und -verarbeitung von MF-Investoren. Das vorgeschlagene Modell wird durch die Kombination der begrenzten Erkenntnisse aus den bestehenden Studien erreicht, die über mehrere Bereiche der Literatur verteilt sind, nämlich traditionelles Finanzwesen, Verhaltensfinanzierung und Verbraucherverhalten. Das Modell legt nahe, dass: (i) das subjektive Wissen von MF-Anlegern (SK) sich negativ auf ihr wahrgenommenes Kaufrisiko (PPR) auswirkt, (ii) das SK von MF-Anlegern ihre Beteiligung an Kaufentscheidungen (PDI) positiv beeinflusst, (iii) PPR sich negativ auf ihre PDI, (iv) PDI wirkt sich positiv auf ihre Informationstiefe (DIS) und ihr Informationsverarbeitungsverhalten (DIP) aus und (v) DIS wirkt sich positiv auf ihre DIP aus. Das Modell wird empirisch durch Strukturgleichungsmodellierung von Daten validiert, die aus einer Umfrage unter 268 MF-Investoren gesammelt wurden. Auch die Implikationen des Modells, die für die MF-Vermarkter und die Politik relevant sind, werden diskutiert.;-;-;-;https://link.springer.com/article/10.1057/fsm.2012.3 9aa8ff11f90c7646db5b50f6696174d6;de;;;1.1.;;;Der Prozess, der zu Partnergewalt führt Die meisten Gewalttheorien geben die Faktoren an, die dieses Verhalten fördern oder hemmen, liefern jedoch keine Erklärung dafür, wie dies geschieht. Das soziale Informationsverarbeitungsmodell (Crick & Dodge, 1994;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-4568-5_5 65af28401ad5330203687b473efc016f;de;;;1.1.;;;Konzeption der Bürgerunterstützung für die Europäische Union Dieses Kapitel liefert eine Zusammenstellung relevanter theoretischer Modelle und Konzepte, die als Grundlage für die empirischen Analysen des Buches dienen. Das zentrale Konzept, das das Fortbestehen des politischen Systems der EU mit den Einstellungen der Bürger verknüpft, ist die politische Unterstützung. In der Tradition der politischen Kulturforschung zeichnet das Kapitel die theoretische Entwicklung des Förderkonzepts von seiner ursprünglichen Anwendung bis zur Übertragung auf supranationale Regime wie die EU nach. Das zentrale Postulat innerhalb dieses Forschungsstrangs ist, dass die Beständigkeit eines politischen Systems von der Kongruenz zwischen der politischen Kultur der Bürger und der Struktur des Regimes abhängt. Die Entscheidung, die Untersuchung der Bürgerperspektive auf die Eurokrise in diesen Rahmen einzubetten, ist angemessen, da eine akute Krise einem echten Test für die Unterstützung der Bürger für ein politisches Regime und damit für dessen letztendliche Beständigkeit gleicht. Letztendlich liefert dieses Kapitel eine weitere Konzeptualisierung der Idee von a;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-16461-4_2 dfc42c24ed34d42e76981f58ad25a9fb;de;;;1.3.;;;Standardisierung und Nachweis von Antikörper-beschichtetem Candida im Urin durch direkten Immunfluoreszenztest Aceton, Tetrachlorkohlenstoff, Ethylalkohol, eine Mischung aus Ethylalkohol und Aceton und Hitze wurden auf ihre Fixiereigenschaft für die direkte Immunfluoreszenz (IF)-Färbung von Antikörper-beschichteten . untersucht;-;-;-;https://link.springer.com/article/10.1007/BF00437260 be605566a890bb05deb467bba5c21013;de;;;1.3.;;;Halbprivate Bildung Über den sogenannten Hausaufgabenhilfeabzug hatten schwedische Eltern das Recht, die Hälfte der Kosten für die private Hausaufgabenhilfe ihrer Kinder, also diejenigen, die Steuern abzusetzen hatten, von den Steuern abzuziehen. Zusätzlich zu diesem formal ausschließenden Faktor gab es eine viel größere Gruppe von Eltern, die keine wirklichen Möglichkeiten hatten, die Steuervergünstigung in Anspruch zu nehmen, da die privaten Kosten selbst mit der staatlichen Förderung erheblich waren. Das Kapitel diskutiert die Implikationen staatlich geförderter privater Hausaufgabenhilfe und des sogenannten Schattenunterrichts insgesamt. Das Kapitel geht auch auf das Schulgutscheinsystem ein, das scheinbar ein öffentlich finanziertes Schulsystem ermöglicht, aber allmählich die Studiengebühren im Schulbereich unter Druck setzt, was der eigentliche Zweck der Erfindung war.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-24784-3_7 f1944479d05f2b286702ac9840f9c291;de;;;1.3.;;;MIDS-Projekt – ein nationaler Ansatz zur Erhöhung der Patientensicherheit durch verbesserte Nutzung medizinischer Informationsdatensysteme MIDS, Medical Information Data Systems wird als Begriff für Systeme vorgeschlagen, die aus medizinischen Geräten und IT-Systemen bestehen. MIDS werden verwendet, um physiologische Daten von Patienten zu sammeln und diese Daten über ein Computernetzwerk an Server und Datenbanken zu übertragen. Das Projekt hat gezeigt, dass die Hersteller von IT-Systemen für das Gesundheitswesen und deren Nutzer nicht die volle Verantwortung für die Entwicklung und Implementierung der Informationssicherheit und Funktionalität übernehmen. Beispielsweise gibt es keine klaren Routinen, wie die Richtigkeit der Informationen sichergestellt werden kann, die zwischen verschiedenen IT-Systemen übertragen werden. Problematisch ist auch, dass die Grenze zwischen Medizinprodukten und IT-Systemen unklar ist, was die Entscheidung über anzuwendende Richtlinien oder Rechtsvorschriften erschwert. Dadurch ist auch unklar, wer die Systeme unterstützen soll und das Projekt schlägt Leitlinien zur Verbesserung der Situation vor. Das Projekt zeigte auch, dass Weiterbildungsbedarf des mit MIDS umgehenden Personals besteht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73044-6_270 5c8a8f7abb9c9c318358316e9ec268fa;de;;;1.3.;;;Polen: (Po)Land der Chancen Polen liegt im Zentrum Europas und allein diese Tatsache sollte ausreichen, um das Potenzial des Landes zu demonstrieren. Polen grenzt im Westen an Deutschland (entlang der Flüsse Nysa KĜodzka und Oder), im Süden an Tschechien und die Slowakei (Gebirgsgrenzen) sowie im Osten an die Ukraine, Weißrussland und teilweise Litauen. Eine russische Enklave, die als Oblast Kaliningrad bekannt ist, verläuft entlang eines kleinen Teils der polnischen Grenze im Norden. Der Rest der nördlichen Grenze erstreckt sich entlang der sandigen Küste der Ostsee.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-6553-0_6 a494af2fa8dc097d61e89ec245f62f0d;de;;;1.1.;;;Kriminalität und Entscheidungsfindung: Neue Wege für die Kriminalprävention In den letzten 30 Jahren hat sich die kriminologische Forschung drastisch verändert. Kriminologen haben ihren Fokus von der Erklärung, warum manche Menschen Straftaten begehen und andere nicht (zwischenindividuelle Unterschiede) verlagert, hin zu Veränderungen der kriminellen Delikte einzelner Personen im Laufe der Zeit (individuelle Veränderungen). Neue Theorien wurden entwickelt, um das Paradox von Kontinuität und Wandel zu erklären. Wir konzentrieren uns darauf, die Rolle des menschlichen Handelns in Bezug auf die Verarbeitung von sozialen Informationen und die Entscheidungsfindung zu erläutern, und führen ein umfassenderes Entscheidungsmodell ein, nämlich das soziale Informationsverarbeitungsmodell (SIPM, Crick und;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-44124-5_30 6bd150900b77579ac94c8c539f5b7959;de;;;1.1.;;;Die Angemessenheit von Punktkriterien bei der Bewertung und dem Vergleich von Intervall-Alternativproblemen Bei der Bewertung und dem Vergleich von Intervallalternativen werden häufig Punktindikatoren verwendet. Es wird gezeigt, dass ein Indikator verwendbar ist, der die Wahrscheinlichkeiten der Wahrheit der Hypothese über die Bevorzugung einer der Alternativen in einem analysierten Paar auf numerische Weise charakterisiert. Die Ergebnisse aus der Bewertung der Alternativen anhand des angebotenen Kriteriums und der verbreiteten Punkterwartungswertkriterien werden verglichen.;-;-;-;https://link.springer.com/article/10.3103/S0147688214060070 d7d4e185aa0bce7c16772f8d77857ea5;de;;;1.3.;;;Berechtigung für den H-1B-Status Der H-1B-Antragsprozess sollte mit einer Analyse der H-1B-Berechtigung beginnen, um die Erfolgsaussichten, die Ressourcen, die für die Vorbereitung des Falles benötigt werden, und ob es sich überhaupt lohnt, zu bestimmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-4729-6_4 44829eb39605a69eac3bd925e594dc86;de;;;1.3.;;;Design und Forschung zu einem Co-Simulations-Trainingssystem eines großen Stromnetzes mit Verteilnetz basierend auf einem intelligenten Materialsystem Die auf dem Markt existierende Simulationssoftware für das Stromnetztraining konzentriert sich auf die Netzstruktur und die Flussberechnung ohne die lokalen Details oder den Gerätebetrieb oder konzentriert sich auf ein oder zwei Umspannwerke, aber ignoriert die Leistung der Umspannwerke. Mit der immer komplexer werdenden Struktur des häuslichen Stromnetzes und dem zunehmenden Leistungsumfang kann die vorhandene Stromnetzsimulationssoftware die Anforderungen nicht erfüllen. Es wird ein groß angelegtes Strom-Co-Simulationssystem vorgestellt, das ein 10 kV-Verteilernetz umfasst. Daher umfasst die Co-Simulation alle Spannungsebenen, einschließlich der Zentralstation, der Umspannwerke, der Stromverteilungsstation und des Verteilungsnetzes. Es entspricht internationalen Standards, einer interaktiven, verteilten Simulationsplattform, die es dem Managementsystem ermöglichen kann, mit intelligenten, automatisierten Netzwerkfunktionen zu arbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23339-5_17 55fd24260e1cc3f482cb60ec122abfe5;de;;;1.3.;;;Vergleichen von exakten und ungefähren räumlichen Autoregressionsmodelllösungen für die räumliche Datenanalyse Das Spatial Autoregression (SAR)-Modell ist ein beliebtes Verfahren zur Analyse räumlicher Daten, das in vielen Anwendungen mit Geodatensätzen verwendet wird. Exakte Lösungen zum Schätzen von SAR-Parametern sind jedoch rechenaufwendig, da alle Eigenwerte einer sehr großen Matrix berechnet werden müssen. Vor kurzem haben wir eine hochgenaue parallele Formulierung des SAR-Parameterschätzverfahrens unter Verwendung von Datenparallelität und einer hybriden Programmiertechnik entwickelt. Obwohl diese parallele Implementierung eine Skalierbarkeit auf bis zu acht Prozessoren zeigte, leidet die exakte Lösung immer noch unter einer hohen Rechenkomplexität und einem hohen Speicherbedarf. Diese Einschränkungen haben uns veranlasst, Näherungslösungen für die Schätzung von SAR-Modellparametern zu untersuchen, mit dem Hauptziel der Skalierung des SAR-Modells für große räumliche Datenanalyseprobleme. In diesem Papier präsentieren wir zwei Kandidaten für approximative semi-sparse Lösungen des SAR-Modells basierend auf Taylor-Reihenentwicklung und Chebyshev-Polynomen. Unsere ersten Experimente zeigten, dass diese neuen Techniken für sehr große Datensätze, wie beispielsweise Fernerkundungsbilder mit Millionen von Pixeln, gut skalieren. Die Ergebnisse zeigen auch, dass die Unterschiede zwischen exakten und ungefähren SAR-Parameterschätzungen innerhalb von 0,7 % bzw. 8,2 % für Tschebyscheff-Polynome und Taylor-Reihenentwicklung liegen und keinen signifikanten Einfluss auf die Vorhersagegenauigkeit haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30231-5_10 5acaf7b1c6012cefb3cbd9d5751c012e;de;;;1.3.;;;Gewichteter Gaußscher Kernel mit mehreren Breiten und Netzwerkkernelmuster Der traditionelle Gaußsche Kernel ist der am weitesten verbreitete in Kernelmaschinen wie Support Vector Machines und wurde ausführlich auf dem Gebiet neuronaler Netze wie dem Radial Basis Function Network untersucht. Aufgrund der gleichen Gewichtung und Datenverteilung, die im traditionellen Gaussian Kernel definiert ist, werden die Gewichte des auf solchen Kernels basierenden neuronalen Netzwerks jedoch hauptsächlich durch die Eingabedaten gesteuert. Es gibt keinen Unterschied zwischen der Aktivierungsfunktion (d. h. Neuron oder Neurode). Wir schlagen einen neuen Kernel namens Weighted Gaussian Kernel with Multiple Widths vor, um mehr Parameter zur Steuerung der Daten zu haben. Unter Verwendung des neuen Kernels in neuronalen Netzen schlagen wir ein neues Konzept namens Network Kernel Pattern vor, um die traditionelle Struktur des Radial Basis Function Network mit einigen neuen Definitionen zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-3656-8_6 7b8aaa0e5b7a8deb8199e61a1129b0d1;de;;;1.3.;;;Tatsache und Interpretation Dieses Kapitel hat die Form von zwei Fallstudien. Dabei werden Sie aufgefordert, Sachverhalte festzustellen, Erklärungen und Interpretationen zu erarbeiten und Schlussfolgerungen zu ziehen. Diese Aktivitäten haben einen dreifachen Zweck: Erstens, kritisches Denken zu fördern, damit Sie sich durch Fragen und Suchen nach Antworten eine eigene Meinung bilden können, zweitens, indem Sie Informationen in vielfältiger Form präsentieren, um Erfahrungen bei der Suche zu sammeln Informationen in Diagrammen, Diagrammen, Grafiken und Tabellen sowie aus Texten und drittens eine praktische Einführung in eine Methode der Recherche aus Quellenmaterial zu bieten, die in einer Reihe von Lehrveranstaltungen zunehmend benötigt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-19936-5_4 124ff7ea0efa90bd455b0e58924244a8;de;;;1.1.;;;Vorhersage und Analyse von Weaning-Ergebnissen von beatmungsabhängigen Patienten mit einem künstlichen neuromolekularen System Wir haben ein aus physiologischen Erkenntnissen motiviertes vertikales Informationsverarbeitungsmodell entwickelt, das intra- und interneuronale Informationsverarbeitung integriert. Die Informationsverarbeitung auf intraneuronaler Ebene soll ein Repertoire an Musterverarbeitungsneuronen schaffen. Die Informationsverarbeitung auf interneuronaler Ebene besteht darin, geeignete Musterverarbeitungsneuronen zu gruppieren, um ein effektives Musterverarbeitungssystem zu bilden. Das System wurde auf eine Datenbank mit den Entwöhnungsergebnissen von beatmungsabhängigen Patienten angewendet. Das Beatmungsgerät wurde verwendet, um den Atembedarf von Patienten zu decken, und die Entwöhnung ist der schrittweise Prozess, bei dem es bei beatmungsabhängigen Patienten entfernt wird. Experimente mit dem Modell zeigen, dass das integrierte System in der Lage ist, selbstständig Daten zu differenzieren und die Patienten mit erfolgreichen Weaning-Ergebnissen von denen ohne Erfolg zu trennen. Unsere Parameteranalyse zeigt, dass die meisten vom System als signifikant identifizierten Parameter mit denen von Ärzten übereinstimmen, einige jedoch nicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69384-0_86 b1f37dece955d4b4b26b29c0b0472bd8;de;;;1.3.;;;Training des Human-in-the-Loop in industriellen Cyber-Bereichen Mit dem Trend der Automatisierung in der Fertigung und dem Fortschritt der Technologien sollten sich Wissen, Fähigkeiten und Fähigkeiten der Belegschaft entsprechend entwickeln. Aktuelle Trainingstechnologien bieten oft keine praktischen Schulungen und Übungen. Daher müssen Trainingsmethoden und -technologien angepasst werden, um die neuen Anforderungen und Fortschritte zu unterstützen. Cyber ​​Ranges sind virtuelle Umgebungen, die realistische Netzwerke und Systeme nachahmen und beispielsweise für Schulungen, Übungen oder Forschung verwendet werden können. Während sich der aktuelle Stand der Technik hauptsächlich auf technische Designs und Entwicklungen konzentriert, konzentriert sich dieser Beitrag auf die Bewertung und Integration des Human-in-the-Loop in industriellen Cyber-Bereichen (dh Cyber-Bereichen mit spezifischen Szenarien, die in Industrie 4.0, Fertigung oder verwandte Themen). Wir beschreiben den Human-in-the-Loop in Cyber-Bereichen und skizzieren ein beispielhaftes Anwendungsszenario. Darüber hinaus diskutieren wir Herausforderungen in Bezug auf die Umsetzung in Cyber-Bereichen. Für zukünftige Arbeiten werden wir dieses Design- und Entwicklungsschema für die Weiterentwicklung industrieller Cyber-Ranges und ihrer Komponenten nutzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-48602-0_10 4107a29661c5369cf1e04a1d1e8a400e;de;;;1.3.;;;Schülerevaluation des Unterrichts: Im neuen Paradigma des Fernunterrichts Der Fernunterricht hat in den letzten zehn Jahren eine rasante Entwicklung erfahren. Da sich Millionen von Hochschulstudenten für den Fernunterricht einschreiben, ist es von entscheidender Bedeutung, das Lernen und die Erfahrungen der Schüler mit Online-Bildung zu verstehen. Ausgehend von einer großen Stichprobe von 11.351 Studierenden, die von 1.522 Dozenten an 29 Hochschulen und Universitäten unterrichtet werden, untersucht diese Studie die Faktoren, die die Bewertung des Fernunterrichts durch die Studierenden beeinflussen. Wichtige Ergebnisse zeigen, dass Geschlecht und Klassengröße im Fernunterricht keine signifikanten Prädiktoren für die Unterrichtsqualität mehr sind. Faktoren wie die Gründe für die Kursteilnahme, der Klassenstatus der Studierenden und der akademische Rang des Dozenten haben jedoch einen erheblichen Einfluss auf die Bewertung des Lernens und des Unterrichts durch die Studierenden. Die Erkenntnisse aus dieser Studie bieten wichtige Implikationen für institutionelle Administratoren bei der Nutzung der Evaluierungsergebnisse und bei der Entwicklung von Strategien, die den Fakultäten helfen, effektive Online-Dozenten zu werden.;-;-;-;https://link.springer.com/article/10.1007/s11162-011-9236-1 b17dd37424b69aa6e39bb312ebb6b154;de;;;1.1.;;;Kosmologische Grenzen der Berechnung Eine echte universelle Turing-Maschine kann nur konstruiert werden, wenn es möglich ist, bis zum Ende des Universums tatsächlich unendlich viele Bits zu verarbeiten und zu speichern. Es werden Bedingungen für das Universum abgeleitet, die gelten müssen, wenn eine solche Verarbeitung und Speicherung möglich sein soll. Insbesondere wird gezeigt, dass dies nur möglich ist, wenn das Universum geschlossen ist und nur wenn seine Zukunft;-;-;-;https://link.springer.com/article/10.1007/BF00670475 2d67a21af9e767c7a30872e518e15774;de;;;1.3.;;;Empirische Untersuchung einfacher und schwerer Beispiele im CNN-Training Deep Neural Networks (DNNs) lassen sich trotz ihrer enormen Größe und der Fähigkeit, sich alle Beispiele zu merken, gut verallgemeinern. Es gibt eine Hypothese, dass DNNs beginnen, aus einfachen Mustern zu lernen, und die Hypothese basiert auf der Existenz von Beispielen, die in der frühen Trainingsphase konsistent gut klassifiziert sind (d. h.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36808-1_20 c2ca6972bb92718db1c1f1d47d1d8265;de;;;1.3.;;;Anwendung von Mini-Modellen auf die Verarbeitung von Intervall-Informationsgranulaten In diesem Artikel wird beschrieben, wie Intervallinformationsgranulate von Minimodellen verarbeitet werden. Minimodelle sind lokale Regressionsmodelle, die für das Funktionsapproximationslernen verwendet werden können. In diesem Beitrag werden Minimodelle auf der Basis von Hypersphären vorgestellt und es wurden Untersuchungen für lineare und nichtlineare Modelle ohne Einschränkungen der Problemeingaberaumdimension durchgeführt. Da die Ausgabe des Modells eine Form des Intervalls hat, wurde eine spezielle Methode der Modellfehlerberechnung ausgearbeitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-15147-2_4 246d8ffc63621591a732ced1113b97f1;de;;;1.1.;;;Größe und Fähigkeiten Das Institut für Angewandte Informatik (vorgestellt in Kapitel 3) verhandelte einen Vertrag mit einer Forschungsagentur der Europäischen Union. Dieser Auftrag wäre der größte Einzelauftrag in der Geschichte des Unternehmens. Der Vertrag sieht vor, dass Angewandte Informatik etwa vierzig Mitarbeiter beschäftigt und die koordinierende Einheit für eine Reihe von Forschungsteams in anderen europäischen Ländern ist. Benny Mortensen machte sich keine Sorgen über die wissenschaftlichen und technologischen Aspekte des neuen Projekts, äußerte jedoch Bedenken, ein Unternehmen zu führen, das doppelt so groß sein würde wie derzeit. Ihm wurde klar, dass er nicht mehr so ​​stark in jedes Projekt involviert sein würde und dass ihm mehr Reisen und Zeit für die Rekrutierung weniger Zeit lassen würden, um detaillierte Kenntnisse über den Ablauf von Projekten zu haben. Der Erfolg des Unternehmens hing zu einem großen Teil von seiner Fähigkeit ab, Ressourcen effizient einzusetzen und somit Kosten und Zeit zu sparen, indem er das Wissen aus einem Projekt zur Verbesserung eines anderen Projekts nutzte.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-0021-2_5 4747cf8dffe91d4210d874fc0b233f73;de;;;1.1.;;;Voreingenommene Aufmerksamkeit bei Angststörungen im Kindesalter: Eine Vorstudie Diese Studie liefert vorläufige Tests von zwei Hypothesen: (1) Kinder mit Angststörungen zeigen eine Aufmerksamkeitsverzerrung gegenüber emotional bedrohlichen Reizen und (2) normale Kontrollpersonen zeigen eine Aufmerksamkeitsverzerrung weg von emotional bedrohlichen Reizen. Zwölf Kinder im Alter von 9 bis 14 Jahren mit der Primärdiagnose einer Angststörung wurden mit 12 normalen Kontrollpersonen verglichen, die nach Alter, Geschlecht, Wortschatz und Lesefähigkeit abgestimmt waren. Die Probanden führten eine Reaktionszeitaufgabe durch, bei der die visuelle Aufmerksamkeit auf bedrohliche gegenüber neutralen Wörtern gemessen wurde. Die ängstliche Gruppe zeigte die vorhergesagte Aufmerksamkeitsverzerrung gegenüber Drohwörtern. Die Kontrollen zeigten jedoch nicht die vorhergesagte Verzerrung weg von Drohwörtern. Diese Ergebnisse sind die ersten, die zeigen, dass bei klinisch ängstlichen Kindern verzerrte Aufmerksamkeitsverarbeitung auftritt. Die potenzielle Rolle eines solchen Aufmerksamkeitsbias bei Angststörungen im Kindesalter und die zukünftige Ausrichtung der Forschung werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF01447092 1a8081bdf1c7d9cf2329d2698c420e00;de;;;1.1.;;;Ein Multi-Agenten-System für mobile Umgebungen In diesem Papier präsentieren wir ein Framework/Modell für ein logisch programmierendes Multiagentensystem in mobilen Umgebungen. Ein solches System besteht aus einer Reihe von Agenten, die über drahtgebundene oder drahtlose Kommunikationskanäle verbunden sind, und wir modellieren die Interaktionen zwischen den Agenten in unserer Formalisierung. Unsere Formalisierung ist wissensorientiert mit deklarativer Semantik. Unser Modell kann verwendet werden, um die Details der Wissenstransaktion in mobilen Umgebungen zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-23152-8_2 4c9ef46b801b7f034e933c28f8cb72f8;de;;;1.3.;;;Ein Informationssystem zur Unterstützung der kollaborativen Hirntumorforschung Zur Unterstützung der Hirntumorforschung haben wir ein Neuroonkologisches Informationssystem (NOIS) entwickelt und unterhalten es derzeit. Das System wurde von einer Gruppe von Forschern an mehreren Zentren in den USA verwendet, die zusammenarbeiten, um Informationen über Gewebeproben, entsprechende klinische und diagnostische Informationen und eventuelle Forschungsergebnisse einzugeben, zu speichern und abzurufen. Das Informationssystem besteht aus einer Datenbank und Benutzeroberflächenkomponenten. Die Datenbank umfasst klinische, diagnostische und Gewebeinventar-Subsysteme. die Benutzeroberflächen ermöglichen Eingabe- und Abfragefunktionen an der Datenbank.;-;-;-;https://link.springer.com/article/10.1007/BF02478882 e392e77d0b1fe8a05923996b2203db48;de;;;1.1.;;;Grundprogramme des menschlichen Verhaltens In diesem Kapitel werde ich versuchen, die allgemeinen Annahmen zu formulieren, die einer Hypothese über menschliche Verhaltensprogramme zugrunde liegen – in Bezug auf den Mechanismus des menschlichen Denkens und des Geistes. Natürlich sind auch diese Annahmen als hypothetisch zu betrachten und bedürfen daher einer ernsthaften Diskussion. Ich werde versuchen, mich auf informationelle Aspekte zu beschränken und nur seltene und oberflächliche Ausflüge in die Physiologie der höheren Nervenfunktionen zu machen. (Mir scheint, dass die Zeit für eine physiologische Hypothese des Denkens noch nicht gekommen ist.) Wir müssen jedoch zunächst einige Probleme der menschlichen Entwicklung untersuchen. Ich werde diese so formulieren, wie sie für mich am sinnvollsten sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-00640-3_3 d3cb876799897c0bc0e4eaff61110d92;de;;;1.1.;;;Wie sich die Luft- und Raumfahrt- und Verteidigungsindustrie in Indien bis 2020 entwickeln könnte: Eine institutionelle Perspektive Das sehr unsichere und dynamische Geschäftsumfeld in Schwellenländern mit ihren undurchsichtigen Institutionen behindert oft eine effektive Entscheidungsfindung. Manager können sich jedoch bestmöglich auf jede Art von zukünftigen Ereignissen vorbereiten, indem sie alternative Szenarien systematisch bewerten. Ich nutze Daten einer Delphi-Umfrage, um in einem multimethodischen Ansatz aussagekräftige Szenarien zur Zukunft der Luft- und Raumfahrt- und Verteidigungsindustrie in Indien unter Berücksichtigung der Perspektiven des politischen, wirtschaftlichen, sozialen und technologischen Umfelds und der zentralen Interessengruppen zu entwickeln. Basierend auf den Argumenten der Institutionentheorie und der Informationsverarbeitungstheorie habe ich eine Fuzzy-C-Means-Clusteranalyse angewendet, um den wahrscheinlichsten Szenario- und Szenariomatrix-Ansatz zu erstellen, um die zweideutigsten Einschätzungen von Experten bezüglich der zukünftigen Entwicklung der Luft- und Raumfahrt- und Verteidigungsindustrie in Indien zu berücksichtigen . Forschungsergebnisse deuten darauf hin, dass vor allem ausländische OEMs ihre Spitzentechnologien mit hoher Wahrscheinlichkeit weiterhin schützen und daher nur noch Manager aus ihren Heimatländern einsetzen werden. Damit bilden diese Spitzentechnologien insbesondere im Defence-Bereich das entscheidende Wettbewerbskriterium. Darüber hinaus sollten Entscheidungsträger insbesondere auf mögliche FDI-Beschränkungen für ausländische Hersteller achten. Da diese Entwicklung in der Fachwelt deutlicher Meinungsverschiedenheit herrscht, erfordern die Aspekte der politischen Institutionen weitere Untersuchungen. Ganz allgemein trägt dieses Forschungsvorhaben zum Verständnis von Schwellenländern bei. Es zeigt auch die Kompatibilität von Delphi-Umfragedaten mit verschiedenen Analysemethoden wie insbesondere Fuzzy-Logik und Szenariomatrizen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-11946-1_4 26a3f0f0f1bd8e19b943780ada73c44a;de;;;1.1.;;;Service Federation in virtuellen Organisationen Die praktische Umsetzung des Konzepts des dynamischen virtuellen Unternehmens liegt aufgrund einer Reihe von Faktoren wie dem Fehlen geeigneter interoperabler Infrastrukturen und Tools, fehlender gemeinsamer Ontologie und sozio-organisatorischer Schwierigkeiten noch weit von den Erwartungen entfernt. Die Bildung von Industrieclustern, unterstützt durch fortschrittliche Informations- und Kommunikationstools, kann jedoch inzwischen eine Grundlage für die schnelle Schaffung dynamischer virtueller Unternehmen als Reaktion auf die Marktchancen bieten. In diesem Zusammenhang wird ein föderaler Service Management Ansatz vorgestellt und dessen Anwendung auf die Tourismusbranche diskutiert. Schließlich wird die Unterstützung für die Aggregation einfacherer Dienste zu Mehrwertdiensten vorgestellt, die durch verteilte Geschäftsprozesse innerhalb verschiedener Organisationen implementiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35492-7_29 70573f17ac157d27474d153126cd4d52;de;;;1.1.;;;Theoretische Perspektiven Eine Vielzahl von konzeptionellen Modellen wurde entwickelt, um die Entstehung und das daraus resultierende symptomatische Bild von PTSD zu erklären. Auf dem Gebiet der Traumaforschung sind das von Horowitz (1973, 1974, 1976, 1979) befürwortete Informationsverarbeitungsmodell, das von Green, Wilson und Lindy (1985) skizzierte psychosoziale Modell und das von Keane et al al. (1985) waren die einflussreichsten. Verschiedene vorgestellte psychodynamische Modelle („klassische“, Eriksonsche und Objektbeziehungstheorie) haben zu einem besseren Verständnis der PTSD in Bezug auf das Individuum und seine inneren Funktionen beigetragen. Aktuelle psychophysiologische und psychobiologische Modelle der PTSD sind ebenfalls Gegenstand von großem Interesse. Das kybernetische Modell von PTSD von Shultz (1984) bringt ein Systemverständnis für die Störung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-0756-1_6 99fd4d8f78d9f988fb7fd7f0724149f5;de;;;1.3.;;;Drei-Parteien-Stop-Wait-Quantum-Kommunikationsprotokoll für die Sicherungsschicht basierend auf dem GHZ-Zustand Basierend auf der delokalisierten Verschränkungskorrelation des GHZ-Zustands in der Quanteninformationstheorie wird ein Dreiparteien-Stop-Wait-Quantenkommunikationsprotokoll für die Sicherungsschicht vorgestellt. Wenn drei Standorte, Alice, Bob und Charlie, in der Sicherungsschicht kommunizieren, wird der Datenrahmen von Alice an Bob und Charlie gesendet. Wenn der Datenrahmen innerhalb der eingestellten Zeit empfangen wird, kehren die Empfänger, Bob und Charlie, über den Quantenkanal zu Quantenbestätigungsrahmen oder zu negativen Quantenbestätigungsrahmen zurück. In dem vorgeschlagenen Protokoll kann der Sender Alice gleichzeitig Quantenbestätigungs-(QACK)-Rahmen oder Quanten-negative Bestätigungs(QNACK)-Rahmen von Bob und Charlie empfangen und verarbeiten. Und aufgrund der Vergänglichkeit der Übertragung von Quanteninformationen werden Ausbreitungsverzögerung und Verarbeitungsverzögerung zwischen drei Standorten reduziert. Dadurch kann die minimale Zeitspanne zwischen zwei erfolgreich zugestellten Datenrahmen deutlich reduziert werden, die Kommunikationszeit wird verkürzt. Es wird gezeigt, dass das vorgeschlagene Protokoll das Maximum effektiv verbessert und die Kommunikationseffizienz für die Sicherungsschicht in einem Multicast-Kommunikationsnetzwerk verbessert.;-;-;-;https://link.springer.com/article/10.1007/s10773-012-1390-5 5c7896d3d23d37809233b3342f3cb73d;de;;;1.1.;;;Das Paradigma der Selbstoptimierung Maschinen sind allgegenwärtig. Sie produzieren, sie transportieren. Maschinen erleichtern und unterstützen die Arbeit. Die zunehmende Verschmelzung des Maschinenbaus mit der Informationstechnologie hat erhebliche Vorteile gebracht. Diese Situation wird durch den Begriff Mechatronik ausgedrückt, was das enge Zusammenspiel von Mechanik, Elektrik/Elektronik, Regelungstechnik und Softwaretechnik zur Verbesserung des Verhaltens eines technischen Systems bedeutet. Die Integration kognitiver Funktionen in mechatronische Systeme ermöglicht Systemen eine inhärente Teilintelligenz. Das Verhalten dieser zukünftigen Systeme wird durch die Kommunikation und Kooperation der intelligenten Systemelemente geprägt. Aus informationsverarbeitender Sicht betrachten wir diese verteilten Systeme als Multi-Agenten-Systeme. Diese Fähigkeiten eröffnen faszinierende Perspektiven für die Gestaltung zukünftiger technischer Systeme. Der Begriff Selbstoptimierung charakterisiert diese Perspektive: die endogene Anpassung der Systemziele an sich ändernde Betriebsbedingungen. Dies führt zu einer autonomen Anpassung der Systemparameter oder der Systemstruktur und damit des Verhaltens des Systems. In diesem Kapitel werden selbstoptimierende Systeme ausführlich beschrieben. Langfristiges Ziel des Sonderforschungsbereichs 614 „Selbstoptimierende Konzepte und Strukturen im Maschinenbau“ ist es, das aktive Paradigma der Selbstoptimierung für den Maschinenbau zu öffnen und anderen die Entwicklung dieser Systeme zu ermöglichen. Dabei müssen sich Entwickler einer Reihe von Herausforderungen stellen, z.B. die Multidisziplinarität und die Komplexität des Systems. Dieses Buch liefert eine Entwurfsmethodik, die hilft, diese Herausforderungen zu meistern und es Dritten ermöglicht, selbstoptimierende Systeme selbst zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45435-6_1 8ee22622994295f670dc155396c45288;de;;;1.3.;;;Wissenschaftliche Kompetenz und Lehrerentwicklungslücke: Karplus’ Herausforderungplus In den späten 1950er Jahren begannen zwei Revolutionen, eine in der Wissenschaft mit dem Start des ersten Weltraumsatelliten und die andere in der Bildung mit dem Beginn eines großen Paradigmenwechsels im Unterricht der elementaren Naturwissenschaften. Die beiden waren innig verbunden. Der dramatische Start eines Satelliten durch die Sowjetunion veranlasste Politiker, Pädagogen und Wissenschaftler, sich auf das Fehlen einer wissenschaftlich gebildeten Öffentlichkeit in den Vereinigten Staaten und die Auswirkungen auf die nationale Sicherheit und wissenschaftliche Leistung zu konzentrieren. Die Herausforderung bestand darin, in kürzester Zeit eine wissenschaftlich gebildete Population zu schaffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-0876-1_8 2ab5300c640afe8cfa341d262aa809fa;de;;;1.3.;;;Aufnahme des Kurses „Menschliche Körperzusammensetzung“ in das medizinische oder prämedizinische Curriculum Die Körperzusammensetzungswissenschaft befasst sich mit der Verfolgung von Veränderungen der Proportionen der Körperkomponenten. Körperfett, fettfreie und magere Massen unterliegen signifikanten Veränderungen bei chronischen, metabolischen, kardiovaskulären, krebsartigen Erkrankungen und anderen. Quantitative Studien dieser Veränderungen können mit einfachen, nicht-invasiven und kostengünstigen Methoden durchgeführt werden. Die gesammelten Daten könnten signifikante klinische Werte bei der Vorhersage, Diagnose und Prognose mehrerer schwerer Krankheiten haben, insbesondere solcher, die das Gesundheitssystem belasten. In den medizinischen Curricula wird diesem Bereich jedoch zu wenig Aufmerksamkeit geschenkt. Wir schlagen in diesem Artikel eine spezielle Lehrveranstaltung „Klinische Körperkomposition“ als Wahlpflichtfach für die Medizinstudierenden und/oder einen wesentlichen Bestandteil des vormedizinischen Curriculums vor.;-;-;-;https://link.springer.com/article/10.1007/BF03341621 b27435b7f255b7ed8f274bdb29b57052;de;;;1.1.;;;Verbesserung der Genauigkeit eines künstlichen neuronalen Netzmodells zur Vorhersage von Aufwand und Fehlern in Entwicklungsprojekten für eingebettete Software In diesem Beitrag schlagen wir eine Methode zur Reduzierung der Fehlerquote im Aufwand und Fehlervorhersagemodelle für eingebettete Softwareentwicklungsprojekte mit künstlichen neuronalen Netzen (ANNs) vor. Darüber hinaus führen wir ein Bewertungsexperiment durch, bei dem der t-Test von Welch verwendet wird, um die Genauigkeit der vorgeschlagenen KNN-Methode mit der unseres ursprünglichen KNN-Modells zu vergleichen. Die Ergebnisse zeigen, dass das vorgeschlagene KNN-Modell bei der Vorhersage der Fehlerzahl für neue Projekte genauer ist als das ursprüngliche, da die Mittelwerte der Fehler im vorgeschlagenen KNN statistisch signifikant niedriger sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13265-0_2 7d8e210292b32f67a5415a337a08b773;de;;;1.1.;;;Cue-Management: Verwenden von Fitness-Cues zur Steigerung der Werbewirksamkeit Die aktuelle Denkweise über die Werbeverarbeitung entspricht stark der zeitgenössischen psychologischen Theorie und Forschung, die zeigt, dass bei der menschlichen Informationsverarbeitung und Entscheidungsfindung zwei verschiedene Gehirnsysteme am Werk sind: System 1 (S1, evolutionär alt, unbewusst/vorbewusst, automatisch, schnell und intuitiv) und System 2 (S2, evolutionär neu, bewusst, kontrolliert, langsam und reflektierend). Tatsächlich unterscheiden moderne Modelle der Werbeverarbeitung gleichermaßen zwei verschiedene Überzeugungswege: einen, bei dem sich der Verbraucher auf Produkt-/Markenattributinformationen konzentriert und bei dem er/sie eine elaborierte Informationsverarbeitung betreibt (S2), und einen in die sie/er die Anzeige nur oberflächlich im Sinne einer Handvoll sinnvoller „Hinweise“ verarbeitet (S1). Bezüglich der S2-Werbeverarbeitung bietet die Means-End-Chain-Theorie einen soliden theoretischen Rahmen. Bezüglich der S1-Werbeverarbeitung bleibt jedoch die Frage: Was ist ein sinnvoller Hinweis? Hier werde ich argumentieren, dass sowohl die Idee von evolutionären alten Systemen wie den S1-Systemen (entwickelte „mentale Organe“) als auch die Idee von Hinweisen, die sie aktivieren („Fitness-Hinweise“) von zentraler Bedeutung für die evolutionäre Psychologie sind. Ich werde auch die Ergebnisse eines groß angelegten Experiments präsentieren, in dem die Auswirkungen untersucht wurden, die diese Hinweise auf die Bewertungen der Werbesympathie (als Indikatoren für die Werbewirksamkeit) haben können. Dieses Experiment zeigt gleichermaßen den Wert der Evolutionspsychologie als solide Perspektive für Cue-Management-Praktiken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-92784-6_10 18bdf7156e2e08fcb67bf75c5dbca925;de;;;1.3.;;;Lerninteraktionen zwischen Mehrkanalsequenzen mit dynamischen Einflussmodellen Viele reale Anwendungen beinhalten die gleichzeitige Aufzeichnung und Analyse von Mehrkanal-Informationsquellen. Das Erlernen und Modellieren der Interaktionen zwischen Kanälen ist der Kernschritt zur Analyse und Erkennung von Systemeigenschaften. Dieses Papier stellt ein Modell vor, das den dynamischen Einfluss zwischen Mehrkanalsequenzen lernt. Das Modell, das dynamische Einflussmodell, erlaubt die Änderung der funktionalen Rollen einzelner Kanäle und modelliert die sich ändernde Einflussstärke zwischen den Kanälen. Durch Abfrage der Werte von Einflussfaktoren können wir die funktionale Rolle jedes Kanals qualitativ erkennen und erfahren, inwieweit sich die Ketten zu jedem Zeitpunkt quantitativ beeinflussen. Die experimentellen Ergebnisse zu synthetischen Daten und der Anwendung der Mehrpersonen-Interaktionserkennung zeigen, dass unser Modell zuverlässig und effektiv ist.;-;-;-;https://link.springer.com/article/10.1007/s11432-010-4008-7 a80d52b348637764157ea9963de07f13;de;;;1.1.;;;Quantenprinzipien und mathematische Modelle in der Physik und darüber hinaus Während die mathematische Modellierung jenseits der Physik – in Biologie, Neurowissenschaften, Psychologie und Ökonomie – von klassischen mathematischen Modellen (C-Modellen), vor allem probabilistischer und statistischer Natur, dominiert wurde und wird, werden quantenmathematische Modelle (Q-Modelle), mathematische Modelle basierend auf dem mathematischen Formalismus der Quantentheorie, haben sich in letzter Zeit in der mathematischen Modellierung in diesen Bereichen etabliert. In diesem Kapitel werden einige der Gründe für die Verwendung solcher Modelle untersucht. Um dies zu tun, berücksichtigt der Autor die grundlegenden;-;-;-;https://link.springer.com/chapter/10.1057/978-1-137-49276-0_16 4b1468b666b81eff6b92698b1851559f;de;;;1.1.;;;Beziehungen und Operationen in einem zeichenbasierten Weltmodell des Akteurs Nach den modernen Theorien zur Entstehung mentaler Funktionen und der jeweiligen Rolle neurophysiologischer Prozesse ist die Bildung mentaler Funktionen mit der Existenz oder kommunikativen Synthese spezifischer Informationsstrukturen verbunden, die drei Arten von Informationen unterschiedlicher Herkunft enthalten: Informationen von außen Umgebung, Informationen aus dem Gedächtnis und Informationen aus Motivationszentren. Diese Komponenten sind über ihre Namensgebung miteinander verbunden, dies gewährleistet auch die Stabilität der entstehenden Strukturen. Wir bezeichnen solche Informationsstrukturen aufgrund ihrer Ähnlichkeit mit ähnlichen Strukturen, die in der Semiotik untersucht wurden, als Zeichen. Eine Reihe von Zeichen, die ein Akteur während seiner Aktivitäten und Kommunikation bildet, erzeugt sein zeichenbasiertes Weltmodell, das seine Vorstellungen von der Umwelt, sich selbst und anderen Akteuren widerspiegelt. Das zeichenbasierte Weltmodell ermöglicht das Setzen und Lösen einer Reihe von Aufgaben, die bei der Verhaltensmodellierung für intelligente Agenten und deren Koalitionen anfallen, wie z. Dieser Beitrag untersucht ein spezielles Objekt, nämlich die Kausalmatrix, die die Struktur der Zeichenkomponenten beschreibt. Auf dieser Basis werden Operationen und Beziehungen im zeichenbasierten Weltbildmodell bestimmt, das die psychologischen Eigenschaften menschlichen Verhaltens simuliert.;-;-;-;https://link.springer.com/article/10.3103/S0147688218050040 b8444a4a4dfeb7265db5524e3b9fd4ba;de;;;1.1.;;;Aus Angst vor der Armee und dem Feind Feindbilder sollen Kernkonzepte der politischen Beurteilung der internationalen Beziehungen sein. Mit ihrem nachteiligen Charakter werden sie leicht als verbesserungswürdige Persönlichkeitsmerkmale angesehen, deren Existenz entweder auf persönliche Mängel oder auf einseitige Informationen von Beamten und Presseorganen zurückzuführen ist. „Krieg beginnt in den Köpfen der Menschen“, heißt es in der Präambel der UNESCO. Dieses Muster stillschweigender Überzeugung dient normalerweise als ungeprüfte Vorstufe für einige Versuche, Gedanken über Frieden und Sicherheit zu erklären. Sogar das Wettrüsten wird als direkter Sprössling von Feindbildern konzipiert, ohne jegliche Beweise. Die Frage ist, ob man einen Begriff in der Wissenschaft so wahllos ernst nehmen kann. Diese Frage zu stellen, beantwortet sie. Wir müssen eine Theorie über die Beziehung eines Subjekts zu seinem internationalen politischen Umfeld entwickeln, um Meinungsdaten wie das Feindbild zu erklären.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-0747-9_8 7b3d9929d3e893d835c55ba0d4028886;de;;;1.1.;;;Die unbewusste Wahrnehmung von Gerüchen als Treiber von Verbraucherreaktionen: ein Rahmen, der den Emotions-Kognitions-Ansatz im Duftmarketing integriert Frühere Forschungen haben gezeigt, dass Gerüche die Verhaltens-, kognitiven und affektiven Reaktionen der Verbraucher auf Produkte und Umgebungen beeinflussen. Die Sensorik- und Duftforschung hat einen emotionalen Ansatz priorisiert, bei dem die Verbraucherreaktionen hauptsächlich affektive Reaktionen auf Gerüche sind. Die Wahrnehmung der Umwelt durch den Einzelnen wird jedoch häufig durch einen unbewussten Mechanismus reguliert, der nicht unbedingt rationales Denken beinhaltet. Daher können ihre Reaktionen auf Gerüche aus automatischen und unbewussten kognitiven Prozessen resultieren, die ohne ihr Bewusstsein ablaufen. Wir schlagen vor, dass die unbewusste Geruchsinterpretation die Reaktionen der Verbraucher auf Gerüche und Verhaltensweisen besser reguliert als Emotionen und dass die Art und Weise, wie Geruchsinformationen kognitiv verarbeitet und in Wissen integriert werden, darauf eingehen kann, inwieweit Gerüche Individuen helfen, ihre Umgebung ganzheitlich wahrzunehmen und Bedeutungen zuzuordnen auf Ereignisse und gesellschaftliche Phänomene. Durch eine systematische Überprüfung von 55 empirischen Studien zum Geruchssinn diskutieren wir i) die aktuellen theoretischen Ansätze zum Duftmarketing und die relevantesten empirischen Ergebnisse, ii) schlagen einen kognitionsbasierten Rahmen vor, um die zugrunde liegenden Mechanismen zu untersuchen, durch die Gerüche mental verarbeitet werden, um Einfluss Verhaltens-, kognitive und affektive Reaktionen der Verbraucher und iii) Entwicklung einer Forschungsagenda, um weitere Studien zur kognitiven Verarbeitung von Düften anzuregen.;-;-;-;https://link.springer.com/article/10.1007/s13162-019-00154-8 67faf90c58602db9c6852410524cfda6;de;;;1.1.;;;Die Rolle von Emotionen im Marketing Emotionen sind mentale Bereitschaftszustände, die aus der Einschätzung von Ereignissen oder den eigenen Gedanken entstehen. In diesem Artikel diskutieren die Autoren die Differenzierung von Emotionen von Affekten, Stimmungen und Einstellungen und skizzieren eine Bewertungstheorie von Emotionen. Als nächstes werden verschiedene Messfragen betrachtet. Es folgt eine Analyse der Rolle der Erregung bei Emotionen. Emotionen als Marker, Mediatoren und Moderatoren von Verbraucherreaktionen werden dann analysiert. Die Autoren wenden sich dem Einfluss von Emotionen auf kognitive Prozesse zu, gefolgt von einer Untersuchung der Implikationen von Emotionen für Willensbildung, zielgerichtetes Verhalten und Hilfeentscheidungen. Auch Emotionen und Kundenzufriedenheit werden kurz beleuchtet. Der Artikel schließt mit einer Reihe von Fragen für die zukünftige Forschung.;-;-;-;https://link.springer.com/article/10.1177/0092070399272005 b8800b028a3dc2a5ad88c9ec89016b15;de;;;1.3.;;;Neuartige inverse kinematische Ansätze für Robotermanipulatoren mit auf Pieper-Kriterien basierender Geometrie In diesem Beitrag wird die inverse Kinematik (IK) für Robotermanipulatoren mit auf Pieper-Kriterium basierender Geometrie aus einer neuartigen Perspektive untersucht. Anders als bei der traditionellen inversen Transformationsmethode werden die Eigenschaften der orthogonalen Matrix, der Punktproduktoperation und der Blockmatrix synthetisch in die vorgeschlagenen Schemata einbezogen, um die IK-Lösung zu vereinfachen, wobei die IK-Matrixgleichungen ohne komplexe Berechnungen der . in reine algebraische Gleichungen umgewandelt werden Inverse für Transformationsmatrizen. In der Zwischenzeit stellen die Linearkombinationen verwandter Gleichungen bei der IK-Lösung sicher, dass die Lösungen frei von Fremdwurzeln sind, was die Recheneffizienz weiter erhöht. Darüber hinaus wird das Singularitätsproblem für einen speziellen Robotermanipulator dieser Art vollständig adressiert. Schließlich werden experimentelle Tests bereitgestellt, um die vorgeschlagenen IK-Schemata zu verifizieren.;-;-;-;https://link.springer.com/article/10.1007/s12555-013-0440-y f534b1c408b2e79b4ac4f068c710abb2;de;;;1.3.;;;Erweiterte Tied-Mixture-HMMs für beschriftete und unbeschriftete Zeitreihendaten Beim Design von Klassifikatoren mangelt es oft an ausreichend gekennzeichneten Daten, da die Klassenlabels von erfahrenen Analysten identifiziert werden und das Sammeln von gekennzeichneten Daten daher oft viel kostet. Um dieses Problem zu mildern, wurden mehrere Lernverfahren vorgeschlagen, um unmarkierte Daten effektiv zu verwenden, die kostengünstig gesammelt werden können. Bei diesen Verfahren wurden jedoch nur statische Daten berücksichtigt, zeitreihenunbeschriftete Daten können mit diesen Verfahren nicht behandelt werden. Mit Fokus auf Hidden-Markov-Modelle (HMMs) stellen wir in diesem Beitrag zunächst eine Erweiterung von HMMs vor, genannt Extended Tied-Mixture HMMs (ETM-HMMs), in der sowohl beschriftete als auch unbeschriftete Zeitreihendaten verwendet werden können;-;-;-;https://link.springer.com/article/10.1023/B%3AVLSI.0000027484.54541.bd 715257823b04b8f630f2e6d61574c486;de;;;1.3.;;;Design der virtuellen Trainingsplattform für den Anflug und die Landung von Trägerflugzeugen Eine virtuelle Trainingsplattform für den Anflug und die Landung von Trägerflugzeugen wird basierend auf Virtual-Reality-Technologie entwickelt. Ein verteiltes Framework wird übernommen und jeder Knoten des Systems wird im Detail vorgestellt. Dann wird in diesem Beitrag eine Methode der Echtzeitkommunikation unter Verwendung der Reflective Memory-Technologie vorgestellt. Und es stellt die logische Beziehung und Integration dynamischer Module von drei Landetypen vor. Die Umgebungsbibliothek der Trainingsplattform für Anflug und Landung ist mit einer 3D-Grafik-Engine erstellt. Die visuellen 3D-Modelle werden mit DOF- und Textur-Mapping-Technologie erstellt. Und das Schema der Sprachkommunikation zwischen LSO und Piloten wird vorgeschlagen. Dann analysiert es die Probleme der Kollisionserkennung. Schließlich ist die globale Visualisierung gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34396-4_29 8b537a01e60edc0d897626fe8135aacd;de;;;1.3.;;;Praktische Erfahrungen Basierend auf dem Hintergrundwissen aus dem vorherigen Kapitel sind wir bereit, praktische Erfahrungen im Umgang mit einem Pregel-ähnlichen System zu sammeln. Wir konzentrieren uns auf die Einführung in die Verwendung von BigGraph@CUHK, unserer C++-Implementierung von Pregel und seinen Verbesserungen/Erweiterungen, die hocheffizient und aufgrund ihres übersichtlichen Designs sehr gut für Bildungszwecke geeignet ist. Leser, die nur daran interessiert sind, bestehende Big-Graph-Analysesysteme zu untersuchen, können dieses Kapitel getrost überspringen, während Forscher und Praktiker, die daran interessiert sind, Pregel-ähnliche Systeme zu verwenden und ihre eigenen Big-Data-Systeme aufzubauen, von der Lektüre dieses Kapitels profitieren könnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-58217-7_3 7b75b14f2116ed75067ee12d4aa69b4d;de;;;1.3.;;;Empathie im Gesundheitswesen lehren: von Spiegelneuronen zur Bildungstechnologie Während sich die moderne Medizin in Richtung einer genetisch basierten personalisierten Behandlung bewegt, staunen wir immer noch täglich über die heilende Kraft der therapeutischen Beziehungen zu den Patienten. Wir sind jetzt näher daran zu verstehen, wo im Gehirn unsere Fähigkeit liegt, die Welt aus der Perspektive anderer Menschen zu sehen. Empathie ist die Fähigkeit, die Gefühle und Erfahrungen einer anderen Person zu erkennen und die Welt aus ihrer Perspektive zu betrachten. In der Interaktion zwischen Gesundheitsdienstleister und Patient verbessert Empathie die zwischenmenschliche Kommunikation, fördert die therapeutische Allianz, korreliert mit der Zufriedenheit von Patienten und Leistungserbringer und verbessert die Behandlungsergebnisse. Obwohl die Bedeutung von Empathie im Gesundheitswesen allgemein anerkannt ist, sind weitere Arbeiten erforderlich, um die Dimensionen von Empathie zu klären, die für die Vermittlung geeignet sind, und die Rolle der Empathiewahrnehmung von Gesundheitsdienstleistern und Patienten für Behandlungsergebnisse zu definieren. Hier werden wir (1) einen kurzen Überblick über die Neurobiologie der Empathie geben, (2) die Dimensionen und Konzeptualisierungen von Empathie in Bezug auf Gesundheitsberufe diskutieren und (3) die Literatur zu empathischen Lehrinterventionen diskutieren, einschließlich technologischer Optionen, mit Schwerpunkt auf virtueller Patiententechnologie für die Ausbildung in Medizin, Pflege und verwandten Gesundheitsberufen.;-;-;-;https://link.springer.com/article/10.1007/s41347-017-0019-1 c61d91c81f49b379f0a25a73dd4ab0c3;de;;;1.3.;;;Training neuronaler Netze mit optimal begrenztem Ellipsoid-Algorithmus Im Vergleich zu normalen Lernalgorithmen, zum Beispiel Backpropagation, hat der Optimal Bounded Ellipsoid (OBE)-Algorithmus einige bessere Eigenschaften, wie beispielsweise schnellere Konvergenz, da er eine ähnliche Struktur wie ein Kalman-Filter hat. OBE hat einige Vorteile gegenüber dem Kalman-Filtertraining, das Rauschen muss nicht guassianisch sein. In diesem Artikel wird der OBE-Algorithmus angewendet, um die Gewichte rekurrenter neuronaler Netze für die nichtlineare Systemidentifikation zu trainieren;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72383-7_137 0b25b787b32de0f85e24ed457298cd24;de;;;1.3.;;;Evaluationen von Bildungspraxis, Programmen, Projekten, Produkten und Richtlinien Es gibt etablierte Evaluationsmethoden, die auf Programme, Projekte, Produkte, Praxis und Politik in vielen Bereichen angewendet werden können. Bewertungen von Bildungsanstrengungen und Technologien zur Unterstützung von Lernen, Unterricht und Leistung wurden jedoch weniger unterstützt als in anderen Bereichen wie Gesundheitswesen oder Marketing. Bildung ist ein komplexes Unterfangen, das die Evaluierung von Bemühungen zur Verbesserung der Bildung zu einer Herausforderung macht. Die Bedeutung der Durchführung von Evaluationen und des Aufbaus von Wissen darüber, was wann und warum in der Bildung funktioniert (und was nicht funktioniert) ist wichtig für die fortschreitende Entwicklung und kontinuierliche Verbesserung von Lernen, Unterricht und Leistung. Dieser Beitrag beschreibt das allgemeine Wissen über verschiedene Evaluationsansätze und fasst Erkenntnisse zur Evaluation von Interventionen und Innovationen in der Bildung, insbesondere im Bereich Technologie, zusammen. Es werden sowohl formative als auch summative Evaluationen angesprochen, mit besonderem Schwerpunkt auf formativen Evaluationen, da diese im Allgemeinen komplexer sind. Die Verwendung eines Logikmodells wird beschrieben. Umsetzungstreue und Wirkungsstudien werden veranschaulicht. Auch die Beziehung zwischen Evaluationsstudien und Forschung wird diskutiert.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-319-17727-4_1-1 dab70c64eb33a709d880ab2ecd8edccf;de;;;1.3.;;;Bildungsplattform für angeborene Herzfehler basierend auf Mixed Reality-Technologie In letzter Zeit hat die Mixed Reality (MR)-Technologie eine rasante Entwicklung und starke Anwendungsperspektiven in verschiedenen Bereichen. Diese Technologie wurde erfolgreich in der klinischen Arbeit mittels chirurgischer Navigation und Punktionspositionierung eingesetzt. Es gibt jedoch nur wenige Berichte über die Anwendungen der MR-Technologie in China. Daher wurde auf Basis der MR-Technologie eine medizinische Ausbildungsplattform für verwandte Berufe durch die Rekonstruktion von 3D-Herzmodellen entwickelt. Aufgrund der verschiedenen Arten angeborener Herzfehler und des umfassenden medizinischen Wissenssystems wird es von angeborenen Herzfehlern ausgehen und später auf andere Organe ausgedehnt werden. Der Lehrmodus wurde bereichert und grundlegende und klinische Lehrmaterialien zur Verfügung gestellt. Außerdem wurden die Interessen der Schüler motiviert und die Lerneffizienz gestärkt. Ein gleichberechtigter Kommunikationsmechanismus zwischen Lehrern und Schülern wurde aufgebaut. Experimentelle Ergebnisse zeigen, dass sowohl Lehrer als auch Schüler von dieser vorgeschlagenen Plattform profitieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0121-0_24 e4bf09ee4de001a64e6022f97c0d9ba1;de;;;1.1.;;;ISS Automatisierte Workstations Der integrierte Systemsimulator (ISS) umfasst eine automatisierte Workstation des Trainingsleiters (AWS-TS), die die Durchführung funktionaler Aufgaben bezüglich Management, Überwachung und anschließender Analyse des Trainingsprozesses ermöglicht (Filin und Suleymanov in Upgrade of the ATC System Training Module „Spectr-M“, 131, 2003, [;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9386-0_6 cd9167c2020d9994a6fbfef4285fe7c2;de;;;1.3.;;;Das Schiff hat den Hafen verlassen, aber der Kapitän ist MIA: Mobile Adoption in Higher Education Institutes Die mobile Technologie ermöglicht den Zugriff auf Informationen über eine Vielzahl von Übertragungsmedien wie Sprache, Text, Video und zweidimensionale Barcodes, überall und jederzeit. Daher erwarten die aktuellen Studierenden, dass die mobile Integration für das Lehren und Lernen an den Hochschulen (Hochschulen) zum Standard wird. Der Zweck dieses Papiers bestand darin, die Akzeptanz mobiler Geräte durch Studierende für die Programmdurchführung im Vergleich zur Akzeptanz oder dem Widerstand der Dozenten zu untersuchen, den Einsatz und das Potenzial für die Integration mobiler Technologien für authentisches Lehren und Lernen an Hochschulen zu untersuchen. Die Studie verwendete ein multimodales Forschungsdesign und eine Methodik. Zu den Datenerhebungsstrategien gehörten: (i) eine 2014 an 207 Studenten des ersten und zweiten Studienjahres der Fakultäten für Geistes- und Wirtschaftswissenschaften und Informationstechnologie des Vaal Triangle Campus (VTC) der North-West University verteilte Umfrage und (ii) zwei Einzelinterviews mit Dozenten der beiden Fakultäten. Die quantitativen und qualitativen Daten wurden mit dem Technology Enhanced Learning (TEL) Framework und dem Technology Acceptance Model (TAM) analysiert, um vorherzusagen, ob die Studierenden und Dozenten SMARTguides auf Tablets/iPads für authentisches Lehren und Lernen am VTC einsetzen . Die Ergebnisse zeigen, dass Studierende mobile Technologien für die Programmdurchführung einsetzen. Obwohl Dozenten jedoch die Integration mobiler Technologien für authentisches Lehren und Lernen steuern sollten, sind Dozenten aufgrund institutioneller Einschränkungen zurückhaltend, SMARTguides als Lehr- und Lernwerkzeug zu verwenden, und haben gemischte Gefühle über die Nutzung und das Potenzial der Integration mobiler Technologien für die Programmdurchführung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25684-9_9 5beaa15d44ed2a1838448395d55871b1;de;;;1.3.;;;Verbesserung der künstlerisch-gestalterischen Fähigkeiten durch Signaturpädagogik in der Online-Musikausbildung Der Beitrag stellt die Möglichkeiten der Online-Musikausbildung auf der Grundlage der Signaturpädagogik als Haupttrend der Forschungsarbeit vor. Angesichts des COVID19-Notfalls in der Hochschulbildung stellte die Herausforderung, die erforderlich ist, um neue Methoden im Lehren und Lernen speziell in der musikalischen Bildung zu entwickeln, den Prozess der Ausbildung von Aufführungsfähigkeiten ein. Die methodische Grundlage der Forschung war die Signature Pädagogik als Reflexion der Denkweise als Profi zur Etablierung fortschrittlichster Lernmethoden für zukünftige Musiklehrer. Die Daten wurden von der Online-Ressource der Kazan Federal University gesammelt, z. B. Studentenaufsätze, Musikinstrumentendarbietung für quantitative Daten und Feedback von Studenten für qualitative Daten. Basierend auf den Ergebnissen der Forschungsarbeit wurde festgestellt, dass die Umsetzung des charakteristischen pädagogischen Ansatzes in der Musikpädagogik durch Methoden der Kritik und Aktivierung des kreativen Potenzials durch das Online-Format es ermöglicht, den Klavierunterrichtsbildungsprozess und insbesondere die Entwicklung der Schüler zu verbessern ' Leistungsfähigkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-67435-9_7 6c968bb98a757e8facb16b081b6638cb;de;;;1.1.;;;Warum ist Theory of Mind wichtig für referentielle Kommunikation? Diese Forschung untersucht die Beziehung zwischen der Theory of Mind (ToM) von Kindern und dem kommunikativen Verhalten und den Strategien, die in einer referentiellen Kommunikationsaufgabe verwendet werden. Insgesamt 46 Kinder (im Alter von 6 bis 10 Jahren) erhielten 6 ToM-Aufgaben und nahmen auch paarweise an einer kooperativen Aufgabe teil. Jedes Paar baute 4 Konstruktionsmodelle. Die Ergebnisse zeigten, dass mehrere ToM-Fähigkeiten mit dem kommunikativen Verhalten der Bitte um Klärung und der Bereitstellung von Informationen zusammenhängen. Darüber hinaus war die am häufigsten verwendete kommunikative Strategie die gemeinsame Überprüfung, bei der die Teilnehmer gemeinsam die Lage ihrer Blöcke überprüften. Diese Strategie war am stärksten mit ToM-Fähigkeiten und dem kooperativen Erfolg verbunden. Die Bedeutung von ToM für die Entwicklung der für die Zusammenarbeit notwendigen kommunikativen Verhaltensweisen und Strategien wird diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s12144-016-9492-5 3a7b87e7ddc02c76af1354f1a3844374;de;;;1.1.;;;Verhandlungen basierend auf der Persönlichkeit Personal Verhandlung ist das Highlight des E-Commerce und der künstlichen Intelligenz. Dieses Papier wendet die Idee der Persönlichkeit auf BDI-Modelle an und versucht daher, eine neue Verhandlungsarchitektur vorzustellen und das Protokoll und den Algorithmus zu illustrieren. Durch die Experimente analysiert und beweist diese Arbeit, dass die Persönlichkeit (das Temperament) einen großen Einfluss auf die Konzessionsraten bei Verhandlungen hat und daher die Wahl der Verhandlungsstrategie beeinflusst.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-23152-8_5 35d2839cef2e405bc37bdb4b79f5e3c9;de;;;1.1.;;;Quantenoptik mit Quantenpunkten Seit fünfzehn Jahren stehen einzelne Halbleiter-Quantenpunkte, oft als künstliche Festkörperatome bezeichnet, an der Spitze verschiedener Forschungsrichtungen der experimentellen Quanteninformationswissenschaft, insbesondere bei der Entwicklung praktischer Quellen für Quantenlichtzustände. Hier fassen wir die bisherige Forschung zum Tailoring der Emissionseigenschaften von einzelnen Quantenpunkten zusammen, die einzelne Photonen, nicht unterscheidbare einzelne Photonen und verschränkte Photonenpaare erzeugen. Schließlich werden die Fortschritte und Zukunftsaussichten für Anwendungen einzelner Punkte in der Quanteninformationsverarbeitung betrachtet.;-;-;-;https://link.springer.com/article/10.1140/epjd/e2014-50717-x 942554e31ebe82f8511bc559fbd44221;de;;;1.3.;;;Einsatz von Spiel- und Trainingssoftwarekomplexen in der Anwaltsvorbereitung Zur Umsetzung der Trainingsstrategie wurden Computerspiel „Cyber ​​Lawyer“, Methoden der Informationsvisualisierung, Analyse, Synthese, Beobachtung, Design angewendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29750-3_29 59fd3d88c21409a63bc4f2151f4476cf;de;;;1.3.;;;Rolle von E-Learning-Modellen für indische Sprachen bei der Implementierung von E-Governance E-Learning wird an Arbeitsplätzen rund um den Globus in verschiedenen Sektoren und unterschiedlicher Größe zur dominierenden Bereitstellungsmethode. E-Learning war mittlerweile eine drei Jahrzehnte alte Technologie im Vergleich zur computergestützten Ausbildung und Ausbildung. Für eine erfolgreiche Implementierung von E-Governance besteht ein wesentlicher Bedarf an der Entwicklung neuer und effizienter E-Learning-Modelle, die alle indischen Sprachen einbeziehen können. Grundsätzlich sind E-Learning-Modelle Versuche, einen verallgemeinerten Rahmen zu entwickeln, um die Anliegen der Lernenden und die Herausforderungen der Technologie zu adressieren, damit Online-Lernen effektiv stattfinden kann. Das Wachstum des E-Learning verändert die Natur der Bildung, wie sie konzipiert, verwaltet, durchgeführt, unterstützt und bewertet wird. In diesem Beitrag wurden E-Learning-Modelle für indische Sprachen vorgeschlagen, um E-Governance zu implementieren, um Schulnetzwerke zu entwickeln, um nicht formale Systeme zu verbessern, um die Alphabetisierung und Lebenskompetenzen zu verbessern, für die Lehrerausbildung, für die Entwicklung von Informations- und Kommunikationspolitik Technologiesysteme und zur Modernisierung von Lehrplänen und Lernmethoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19403-0_12 5ff67003cb45ce20765cbe40533b900a;de;;;1.3.;;;Forschung zur Computerausbildung und Bildungsreform anhand einer Fallstudie Derzeit ist die Bildungsreform in China ein weit verbreitetes Problem. Da das Bildungsmodell seit Dutzenden von Jahren unverändert geblieben ist, wurden nach und nach einige Nachteile sichtbar, die für die heutige Zeit unpassend waren. Um mit der neuen Technologie Schritt zu halten, braucht die Informatik als eine der sich am schnellsten entwickelnden Disziplinen und selbst auch Auswirkungen auf die moderne Bildung dringend eine Bildungsreform rechtzeitig mehr als andere. In diesem Papier analysieren wir die Probleme in der Computerausbildung auf der Grundlage einer Fallstudienforschung, und die Gegenmaßnahmen, die zu diesen Problemen beitragen, werden ebenfalls vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23321-0_82 d09d62738d900786101b8c8265f21690;de;;;1.1.;;;Kodierung von Bildern basierend auf retinalen Ganglienzellen Die heutige Computer Vision-Technologie hat keine zufriedenstellenden Ergebnisse gezeigt und ist weit von einer echten Anwendung entfernt, da die derzeit entwickelte Computer Vision-Theorie viele Annahmen hat und es schwierig ist, die meisten davon auf die reale Welt anzuwenden. Daher werden wir die Grenzen der aktuellen Computer-Vision-Technologie überschreiten, indem wir ein Bilderkennungsmodell entwickeln, das auf retinalen Ganglienzellen basiert. Wir haben das Bilderkennungsmodell basierend auf retinalen Ganglienzellen konstruiert und Experimente mit der Erkennung und Kompressionsverarbeitung von Informationen wie retinalen Ganglienzellen durch eine handgeschriebene Zeichendatenbank von MNIST durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24709-8_52 8217dbc54a0a1b1bc52201a4f7178030;de;;;1.3.;;;Modellgetriebene automatische Fragengenerierung für ein gamifiziertes Trainingssystem für klinische Leitlinien Clinical Practice Guidelines (CPGs) sind ein Eckpfeiler der modernen medizinischen Praxis, da sie die umfangreiche medizinische Literatur zusammenfassen und Versorgungsempfehlungen basierend auf der aktuell besten Evidenz geben. Es gibt jedoch Hindernisse für die CPG-Nutzung, wie z. B. mangelndes Bewusstsein und mangelnde Vertrautheit der CPG durch Kliniker aufgrund ineffektiver CPG-Verbreitung und -Umsetzung. Dies erfordert die Erforschung effektiver und skalierbarer Strategien zur Verbreitung von CPG, die das Bewusstsein und die Vertrautheit von CPG verbessern. Wir beschreiben einen modellgetriebenen Ansatz zur Gestaltung und Entwicklung eines gamifizierten E-Learning-Systems für klinische Leitlinien, bei dem die Schulungsfragen automatisch generiert werden. Außerdem stellen wir den mit diesem Ansatz entwickelten Prototyp vor. Wir verwenden Modelle für verschiedene Aspekte des Systems, ein Entitätsmodell für den klinischen Bereich, ein Workflow-Modell für die klinischen Prozesse und eine Game-Engine, um die Trainingseinheiten zu generieren und zu verwalten. Wir setzen Gamification ein, um die Motivation und das Engagement der Benutzer bei der Schulung von Leitlinieninhalten zu erhöhen. Wir führten eine begrenzte formative Evaluation des Prototypsystems durch und die Benutzer waren sich einig, dass das System eine sinnvolle Ergänzung zu ihrer Ausbildung darstellen würde. Unser vorgeschlagener Ansatz ist flexibel und anpassungsfähig, da er eine einfache Aktualisierung der Leitlinien, die Integration mit verschiedenen Geräteschnittstellen und die Darstellung beliebiger Leitlinien ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-40223-5_11 da7a4386759799f6c121ef784552161c;de;;;1.1.;;;Aufmerksamkeit bei geschlossenen Kopfverletzungen: eine kritische Überprüfung Die geschlossene Kopfverletzung (CHI) ist eine der häufigsten Ursachen für körperliche Behinderungen und kognitive Beeinträchtigungen bei jungen Menschen. Bei Patienten mit CHI kann sowohl in der akuten als auch in der subakuten Phase eine Störung kognitiver Funktionen nachgewiesen werden, die ihre Leistungsfähigkeit bei einer Vielzahl neuropsychologischer Aufgaben beeinträchtigt. Die häufigsten Defizite betreffen Aufmerksamkeit und Gedächtnis.;-;-;-;https://link.springer.com/article/10.1007/s100720050024 cecf239c3522d05898294a1d0ab63322;de;;;1.1.;;;Assoziation neuraler Veränderungen und Genotyp bei Autismus und Fragile-X-Syndrom: Einbeziehung von Wahrnehmungsphänotypen in die kausale Modellierung Wir haben zuvor den Nutzen der Verwendung von Wahrnehmungssignaturen zur Definition und Dissoziation zustandsspezifischer neuronaler Funktionen beschrieben (siehe Begleitpapier, diese Ausgabe), die frühen visuellen Prozessen bei Autismus und FXS zugrunde liegen. Diese wahrnehmungsgesteuerten Hypothesen basieren auf einer unterschiedlichen Leistung, die sich nur in den frühesten Stadien der visuellen Informationsverarbeitung zeigt, die durch die Funktionsweise lokaler neuronaler Netze vermittelt wird. In diesem Artikel überprüfen wir zunächst, wie die meisten groß angelegten neuronalen Modelle nicht in der Lage sind, atypische Wahrnehmungsfunktionen auf niedriger Ebene bei Autismus zu behandeln, und schlagen dann vor, wie zustandsspezifische, lokale neuronale Endophänotypen (in unserem Begleitpapier beschrieben) in kausale Modelle, um Zielgene oder Gencluster abzuleiten, die an der Pathogenese des Autismus beteiligt sind. Der Nutzen eines solchen translationalen Forschungsansatzes wird diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s10803-010-1110-z 55abd45ca45b20396acaf8470382c37f;de;;;1.3.;;;Ein auf Entscheidungs-Hyperebenen-Heuristik basierender Klassifikationsalgorithmus für künstliche Immunnetze Die meisten der entwickelten immunbasierten Klassifikatoren erzeugen zufällig Antikörper, was sich negativ auf die Klassifikationsleistung auswirkt. Um die Antikörpererzeugung effektiv zu steuern, wird ein auf Entscheidungs-Hyperebenen-Heuristik basierender Klassifikationsalgorithmus für künstliche Immunnetzwerke (DHPAINC) vorgeschlagen. DHPAINC tabuisiert die inneren Regionen der Klassendomäne, daher ist die Antikörperbildung nahe der Klassendomänengrenze begrenzt. Dann werden die Antikörper nach ihren Erkennungsfähigkeiten bewertet und die Antikörper mit geringer Erkennungsfähigkeit werden entfernt, um eine Überanpassung zu vermeiden. Schließlich neigen die hochwertigen Antikörper dazu, im Immunnetzwerk stabil zu sein. Der Algorithmus wurde auf die Klassifizierung von zwei simulierten Datensätzen angewendet und die Ergebnisse zeigen, dass die von den Antikörpern bestimmten Entscheidungshyperebenen gut zu den Klassendomänengrenzen passen. Darüber hinaus wurde der Algorithmus auf die Klassifizierung von UCI-Datensätzen und die emotionale Spracherkennung angewendet, und die Ergebnisse zeigen, dass der Algorithmus eine gute Leistung aufweist, was bedeutet, dass DHPAINC ein vielversprechender Klassifikator ist.;-;-;-;https://link.springer.com/article/10.1007/s11771-013-1683-8 5c65d4d9e241cd5e17ebaaacbf37031b;de;;;1.1.;;;Kognition und negative Affektivität Kognitive Ansätze zur Konzeptualisierung, empirischen Untersuchung, Bewertung und Behandlung von Verhaltensstörungen sind sowohl weit verbreitet als auch reichlich vorhanden (Ingram, Kendall & Chen, 1991). Einst als radikale Abkehr von der empirischen Psychologie betrachtet, verdient die Notwendigkeit der „kognitiven Revolution“ in der klinischen Psychologie derzeit nur eine Diskussion aus historischer Sicht (Ingram & Kendall, 1986). Kognitive Perspektiven, die heute fest als legitimer Aspekt der Psychologie anerkannt sind, gehen davon aus, dass die Art und Weise, in der Informationen verarbeitet werden, eine bedeutende Rolle bei der Vermittlung von Verhaltenserfahrungen spielt und zu einer erheblichen Varianz des individuellen Funktionierens beiträgt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-9041-2_5 1ec6c1b95ebe86997abd787b95e5275b;de;;;1.3.;;;Labororientierte Demonstrationen Das Papier, in dem die Verwendung von Folienpräsentationen von Themen erläutert wurde, denen Tutorials zu Diskussionen in kleinen Gruppen folgten, wurde in Sitzung 2 präsentiert und die Diskussion über das Papier wird dort behandelt. Die Demonstration während der Sitzung 3 bestand aus einer Reihe von ausgestellten Fotos, um die verwendeten Geräte und Methoden zu veranschaulichen. In Sitzung 3 fanden Einzelgespräche mit Dr. Buckingham statt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2163-7_23 f6ffc5f1d8d6a8ff8dd428862c49bc30;de;;;1.3.;;;Beeinflussung des berufsbezogenen Lernens: Die Rolle von Berufsmerkmalen und selbstgesteuerter Lernorientierung in der berufsbegleitenden Ausbildung Basierend auf dem Demand-Control-Support (DCS)-Modell soll in der vorliegenden Arbeit der Einfluss von Jobmerkmalen wie Jobanforderungen, Jobkontrolle, soziale Unterstützung am Arbeitsplatz und selbstgesteuerte Lernorientierung auf das arbeitsbezogene Lernverhalten von Arbeitskräfte. Die vorliegende Studie wurde in einem Zentrum für Teilzeit-Berufsbildung in Flandern (Belgien) durchgeführt. Die Schüler im Zentrum arbeiten an 3 Tagen in der Woche und gehen an den anderen zwei Tagen zur Schule. Es wurde ein Fragebogen mit Skalen verwendet, die von validierten Instrumenten adaptiert wurden. Die Schüler wurden gebeten, den Fragebogen mit Blick auf ihre gegenwärtige Tätigkeit auszufüllen. Insgesamt 115 Studierende aus unterschiedlichen Bereichen haben den Fragebogen ausgefüllt. Es wurde davon ausgegangen, dass hohe Werte bei der selbstgesteuerten Lernorientierung und hohe Werte bei den Berufsmerkmalen Arbeitsanforderungen, Arbeitsplatzkontrolle und soziale Unterstützung mit einem stärker arbeitsbezogenen Lernverhalten verbunden sind. Alle Skalen hatten akzeptable Cronbach-Alpha-Werte. Die Ergebnisse der linearen Regressionsanalysen zeigten, dass nur die Skala der selbstgesteuerten Lernorientierung das arbeitsbezogene Lernverhalten signifikant vorhersagte.;-;-;-;https://link.springer.com/article/10.1007/s12186-010-9041-6 902ffea67e140a4c5a1931a3b88bbad5;de;;;1.3.;;;Adaptives Testen von Test++ Wir stellen die adaptiven Funktionen von Test++ vor, einem adaptiven System für Training und Lehre im Internet. Das System integriert eine adaptive Trainingsumgebung für personalisiertes Training und eine kooperative Umgebung für Prüfungen, die sowohl über das Internet als auch über einen Java-fähigen Standardbrowser zugänglich sind.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44595-1_25 f3a946434cf06ea0ede6fdce27006855;de;;;1.3.;;;Wettbewerbsfähiges Lernen in der Stromkreistheorie mit MOODLE Kürzlich haben wir eine auf kompetitivem Lernen basierende Aktivität im Fach „Elektrische Schaltungstheorie“ eingeführt, die im ersten Jahr des 3-jährigen Studiengangs Technische Telekommunikationstechnik an der Universität Valladolid gelehrt wird. Die Schüler werden in Gruppen eingeteilt und treten in einem Turnier in einer Reihe von K.-o.-Runden gegeneinander an. In jeder dieser Runden löst eine konkurrierende Gruppe ein Stromkreisproblem und schlägt ein Update dazu vor, das dann vom anderen konkurrierenden Team gelöst werden muss, und so weiter, bis eine von ihnen ausfällt. Um die Verwaltung des Spiels zu erleichtern, wurde die Open-Source-Plattform MOODLE verwendet. Dieses Papier beschreibt die Erfahrungen und den daraus resultierenden Lernnutzen sowie die Implementierung der Methode mit der MOODLE-Plattform. Darüber hinaus werden die Zufriedenheit der Schüler und der Zeitaufwand der Schüler und des Lehrers bei der Anwendung dieser Technik analysiert. Während sich die Erfahrung auf das Thema „Elektrische Schaltungstheorie“ konzentriert, ist anzumerken, dass sie leicht auf andere Fächer ausgeweitet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16324-1_13 b1d35bd90ec39d87ff1d85d196e8eb68;de;;;1.3.;;;Verbessern Sie die Erfahrungen und Fähigkeiten der Fakultät mit Maple im 21 Welche Rolle spielen das Vertrauen und die Fähigkeiten der Fakultät bei der Verwendung eines Computeralgebra-Systems (CAS) bei der Steigerung des Studienerfolgs in Mathematikkursen an Colleges? Studien zeigen, dass die Verbesserung der räumlichen Fähigkeiten der Schüler in Mathematik ein Schlüsselindikator für ihren Erfolg in der Analysis ist. Sorby et al. (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-41258-6_18 23c97406b59faf553969660a8fa2cc3f;de;;;1.1.;;;Zweistufiges Modell der visuellen Rückwärtsmaskierung: Sensorische Übertragung und Gewinnung effektiver Informationen in Abhängigkeit von Zielintensität und Ähnlichkeit Ein Funktionsmodell wird verwendet, um die Wirkung von Zielintensität und Zielsatz-Ähnlichkeit auf die rückwärtige visuelle Maskierung zu beschreiben. Das Modell besteht aus zwei unterschiedlichen Phasen der visuellen Informationsverarbeitung. Die erste Stufe bezieht sich auf die sensorische Transduktion und Übertragung und es wird angenommen, dass sie eine endliche und messbare Zeitdauer benötigt, während der die Leistung zufällig bleibt. Die zweite Stufe, die mit der zentralen Verarbeitung verbunden ist, zeichnet sich durch eine negativ beschleunigte Wachstumsfunktion aus, die die Ansammlung effektiver Informationen widerspiegelt. Die Ergebnisse zeigen, dass die Dauer der Übertragungsphase umgekehrt proportional zur Zielintensität ist. Überraschenderweise ist die Rate der Informationsanhäufung eine interaktive Funktion sowohl der Zielintensität als auch der Zielsatz-Ähnlichkeit. Das Ergebnismuster stimmt mit der Interpretation überein, dass sowohl Intensität als auch Ähnlichkeit ihre Wirkung durch einen gemeinsamen Mechanismus vermitteln – die Ansammlung effektiver Informationen.;-;-;-;https://link.springer.com/article/10.3758/BF03206742 b1fc1f2fff2d36651a4e34d0a06e048d;de;;;1.3.;;;Die spezifischen Herausforderungen der Elektronik- und IT-Ausbildung in Neuseeland Neuseeland ist wahrscheinlich am bekanntesten für seine geografische Abgeschiedenheit, sein sauberes und grünes Image, seine freundlichen Menschen, die Qualität seiner landwirtschaftlichen Produkte und für seine sportlichen Fähigkeiten. Es ist nicht allgemein bekannt, dass Neuseeland auch ein Land ist, das neue Informations- und Kommunikationstechnologien schnell übernommen und angepasst hat. Das Konzept der wissensbasierten Wirtschaft ist in letzter Zeit bis ins 21.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-9506-3_18 514ec992b6d04f921f1cfdf23a2787b3;de;;;1.3.;;;Ein hybrider multiobjektiver evolutionärer Algorithmus für die Erkennung von Anomalie-Eindringlingen Intrusion Detection Systems (IDS) sind Tools zur Netzwerksicherheit, die lokale Auditdaten verarbeiten oder den Netzwerkverkehr überwachen, um nach bestimmten Mustern oder bestimmten Abweichungen vom erwarteten Verhalten zu suchen. Wir verwenden einen multiobjektiven evolutionären Algorithmus, der mit einem künstlichen Immunsystem als Methode für anomaliebasiertes IDS hybridisiert ist, aufgrund der Ähnlichkeit zwischen der Architektur des Intrusion Detection Systems und dem biologischen Immunsystem. In dieser Studie testeten wir die Verbesserungen, die wir an jREMISA, einem von multiobjektiven evolutionären Algorithmen inspirierten künstlichen Immunsystem, am DARPA 1999-Datensatz vorgenommen haben, und verglichen unsere Ergebnisse mit anderen in der Literatur. Die fast 100 % wahre und 0 % falsch positive Rate unseres Ansatzes unter den gegebenen Parametereinstellungen und experimentellen Bedingungen zeigt, dass die Verbesserungen als anomaliebasiertes IDS im Vergleich zu verwandten Studien erfolgreich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14883-5_65 ce8f4576cd72d6da1d4bb6a8093d2f6d;de;;;1.1.;;;Lehren zum Verstehen In diesem Kapitel werden aktuelle Ansichten des Lehrens zum Verstehen untersucht. Zunächst liefern wir Hintergrundinformationen und beschreiben den Einfluss von Theorie und Forschung auf Veränderungen in den Ansätzen, die dazu geführt haben, dass Studierende in letzter Zeit als aktive Konstrukteure ihres Verständnisses betont werden. Dann fassen wir eine Vielzahl von Programmen zusammen und vergleichen sie, die Konstruktionselemente enthalten, und überprüfen Probleme, die einer weiteren Untersuchung bedürfen. Schließlich betrachten wir Probleme im Zusammenhang mit der Verbreitung, insbesondere Schwierigkeiten, auf die Lehrkräfte stoßen können, und beschreiben vielversprechende Versuche, ihre Fähigkeit, verständnisvoll zu unterrichten, zu fördern.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4942-6_21 031a1f89a2d0311c8bcef946c522d958;de;;;1.3.;;;Die Kontroverse um die kognitive Illusion: Eine verkleidete methodologische Debatte, die für Ökonomen von Bedeutung ist Anfang der 1970er Jahre starteten Daniel Kahneman und Amos Tversky ein Forschungsprogramm, das zeigte, dass heuristische Abkürzungen zu Wahrscheinlichkeitsurteilen führen können, die von statistischen Prinzipien abweichen. Denn diese;-;-;-;https://link.springer.com/chapter/10.1007/0-387-24244-9_5 fcb2e31003b0f9cc2446e7dc1a48a0d5;de;;;1.1.;;;Berechnung als intrinsische Eigenschaft In dem Bemühen, grundlegende Unterschiede zwischen Computern und Gehirnen aufzudecken, identifiziert dieser Artikel Berechnungen mit einer bestimmten Art von physikalischen Prozessen, im Gegensatz dazu, das Verhalten physikalischer Systeme als eine oder mehrere abstrakte Berechnungen zu interpretieren. Das heißt, ob ein System rechnerisch arbeitet oder nicht, hängt davon ab, wie die Aspekte des Systems, die wir als informationell betrachten, physikalisch Veränderungen bewirken, und nicht von unserer Fähigkeit, sein Verhalten rechnerisch zu beschreiben. Ein physikalischer Rahmen, der auf dem Begriff des „kausalen Mechanismus“ basiert, wird verwendet, um verschiedene Arten der Informationsverarbeitung auf physikalisch-prinzipielle Weise zu unterscheiden, wobei jeder Informationsverarbeitungstyp ein bestimmter kausaler Mechanismus zugeordnet ist. Der mit der Berechnung verbundene Kausalmechanismus ist der Mustervergleich, der;-;-;-;https://link.springer.com/article/10.1007/BF00974170 3d69bb17b262128e93aec7b2d8b80564;de;;;1.1.;;;Auswirkungen von kollaborativen Kleingruppendiskussionen auf das soziale Denken früher Jugendlicher Diese Studie untersuchte den Einfluss von Kleingruppendiskussionen auf die Entwicklung des sozialen Denkens bei frühen Jugendlichen. Insgesamt 147 Fünftklässler (79 Männer und 68 Frauen) aus sechs Klassenzimmern einer öffentlichen Schule in Taiwan nahmen an einer quasi-experimentellen Vor- und Nachkontrolle teil. Klassenzimmer der Schüler wurden entweder einer 5-wöchigen Bedingung für kollaboratives soziales Denken (CSR) oder einer Bedingung des Vorlesens (RA) mit aktiver Kontrolle zugewiesen. Alle Schüler absolvierten vor und nach der Intervention einen Essay zum sozialen Denken. Schüler in der CSR-Bedingung generierten mehr soziales Wissen, betrachteten mehr mögliche Lösungen für das komplexe sozial-moralische Problem und reflektierten mehr kognitive Perspektiven der Charaktere der Geschichte. Schüler im RA-Zustand erzeugten flachere Interpretationen und waren mehr auf die affektiven Perspektiven der Charaktere der Geschichte eingestellt. Das soziale Denken der CSR-Studenten war tendenziell kohärenter, komplexer und beinhaltete eine Wissenskoordination. Diese Ergebnisse stützen die Behauptung, dass CSR-Diskussionen ein produktives Mittel sind, um das soziale Denken der Schüler zu verbessern.;-;-;-;https://link.springer.com/article/10.1007/s11145-019-09946-7 2bb7fd655fe898e55551e9ba27bec267;de;;;1.1.;;;Über rechnerische Erklärungen Computergestützte Erklärungen konzentrieren sich auf die Informationsverarbeitung, die in bestimmten kognitiven Fähigkeiten wie Wahrnehmung, Argumentation oder Entscheidungsfindung erforderlich ist. Diese Erläuterungen spezifizieren die Art der Informationsverarbeitungsaufgabe, welche Informationen dargestellt werden müssen und warum sie in einer bestimmten Weise bearbeitet werden sollten. In diesem Artikel stehen drei Fragen zum Wesen von rechnerischen Erklärungen im Mittelpunkt: (1) Um welche Art von Erklärungen handelt es sich, (2) in welchem ​​Sinne sind rechnerische Erklärungen erklärend und (3) inwieweit handelt es sich um eine spezielle unabhängige“ oder „autonome“ Erklärungsebene. In diesem Papier verteidigen wir die Ansicht, dass computergestützte Erklärungen echte Erklärungen sind, die nicht-kausale/formale Abhängigkeiten verfolgen. Insbesondere argumentieren wir, dass sie keine bloßen Erklärungsskizzen liefern, im Gegensatz zu dem, was beispielsweise Piccinini und Craver (Synthese 183(3):283-311,;-;-;-;https://link.springer.com/article/10.1007/s11229-016-1101-5 0c8c1c8722082a7909758e68a8dbb9e0;de;;;1.1.;;;Kontextbasiertes Zugriffskontrollmodell in einer Cloud-Rechenzentrumsumgebung Aufgrund der Cloud-Umgebung, der Entwicklung von intelligenten Geräten und der Entwicklung von IT-Technologie in letzter Zeit ist das Interesse an Cloud-Rechenzentren gestiegen, die die Cloud mit dem bestehenden Rechenzentrum kombinieren und den Benutzern den Zugriff auf Ressourcen wie Datenbanken erleichtern , Web und Dokument unabhängig von Zeit und Ort. Es gibt jedoch Sicherheitsprobleme als widersprüchliche Ergebnisse wie Autorität oder Richtlinie für den Zugriff auf Ressourcen, Überprüfung der Datenintegrität und Datensicherheit. Insbesondere bei der Zugriffskontrolle der Benutzer in der Cloud, die von vielen Benutzern verwendet wird, gibt es eine Abweichung. Daher schlägt dieses Papier ein auf Situationserkennungstechnologie basierendes Zugriffskontrollmodell vor, das viele Cloud-Benutzer und den Zugriff auf Geräte flexibel steuern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-8798-7_62 016a486fbcf9f1a78d204e3a8674a0bc;de;;;1.1.;;;Erwerb von lexikalischem Wissen mit Rohkorpora und unüberwachter Clustering-Methode In dieser Arbeit schlagen wir ein Computermodell für den automatischen Erwerb von lexikalischem Wissen vor, das auf den Prinzipien der Informationsverarbeitung der menschlichen Sprache basiert. Das vorgeschlagene Modell geht von einem Hybridmodell für die menschliche lexikalische Repräsentation aus, das vollständige Listen- und Zerlegungsformen umfasst. Die vorgeschlagene Methode erwirbt automatisch lexikalische Einträge und ihr grammatikalisches Wissen durch unüberwachte Lerntechniken. Um die Leistung der vorgeschlagenen Methode zu bewerten, wurde ein umfangreiches Korpus von über 10 Millionen lexikalischen Wörtern verwendet, der lexikalische Wissenserwerbsprozess getestet und die Ergebnisse analysiert.;-;-;-;https://link.springer.com/article/10.1007/s10586-013-0306-3 ae118a37b1c687a6547af1e77c1b38f5;de;;;1.1.;;;Forschung zur Verhaltensmodellierung der Verarbeitung von Gerüchteinformationen durch Notfallnetzwerke Diese Studie präsentiert ein vollständiges Verhaltensmodell der Verbreitung von Gerüchten im Netzwerk. Zunächst werden die relevanten psychologischen Merkmale des Informationsverarbeitungsverhaltens von Kommunikatoren wie Medienkompetenz, psychologische Distanz, kognitive Ressourcen und Stereotype vorgestellt. Zweitens werden Kommunikatoren je nach Forschungsgegenstand in ereignisbezogene und ereignisunabhängige Arten eingeteilt. Der grundlegende Prozess der Informationsverbreitung von Netzwerkgerüchten wird vorgeschlagen. Anschließend wird, basierend auf der Kombination von psychologischem Modell, statistischer Lernmethode und Meinungsdynamik, das ereignisbezogene und ereignisunabhängige Gerüchtkommunikatorverhalten quantitativ modelliert. Dies ist eine Vorstudie in Kombination mit einem Psychologiemodell und statistischen Lernmethoden, das Modell stammt aus den Daten und hat eine hohe Glaubwürdigkeit in Echtzeitdynamik, es kann verwendet werden, um den zukünftigen Entwicklungsprozess von Netzwerkgerüchten vorherzusagen, der von großer theoretischer Bedeutung ist und praktischer Wert.;-;-;-;https://link.springer.com/article/10.1007/s42452-019-1722-7 cc23c80c91d6df8505f2f64cf6d79c3c;de;;;1.3.;;;Erweiterte Methoden zur Schätzung der Ursprungs-Ziel-Verkehrsmatrix Für viele verkehrstechnische Aufgaben benötigen Telekommunikationsbetreiber gute Kenntnisse über den Verkehr, der durch ihre Netze läuft. Diese Informationen werden vollständig durch die Matrix der Datenmengen repräsentiert, die während eines Zeitraums von jedem Eingangsknoten zu jedem Ausgangsknoten gehen. Diese Matrix wird als Ursprungs-Ziel-(OD)-Verkehrsmatrix bezeichnet. Eine solche Matrix ist jedoch nicht direkt verfügbar. Mit Hilfe des Simple Network Management Protocol (SNMP) lassen sich nur Maße der Datenmengen ermitteln, die über eine Verbindung zwischen Routern übertragen werden. Diese Messungen werden als Linkcounts bezeichnet.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-25551-6_8 7725afb89001eda013f07cfe1116e947;de;;;1.1.;;;Eine systematische Literaturrecherche zu Social Media Analytics und Smart Tourism In den letzten Jahren nimmt die Zahl der Veröffentlichungen zur Nutzung sozialer Medien durch Touristen zu und wird immer noch diskutiert. Das Hauptziel dieser Studie ist es, den Stand der Technik zu analysieren, indem die wichtigsten Fragen im Zusammenhang mit Social Media Analytics und Smart Tourism (SMAST) identifiziert werden und einige Leitlinien für die zukünftige Forschung durch eine systematische Literaturrecherche (SLR) gegeben werden. Die verwendete Methodik basiert auf dem Sammeln, Synthetisieren und Analysieren von Werken, die zwischen 2014 und April 2018 veröffentlicht wurden. Diese Arbeit basiert auf 45 Artikeln, die aus drei elektronischen Datenbanken stammen ) Forschungsmethodik, (ii) Art der Analyse, (iii) aktuelle Tourismusthemen und (iv) Art oder Plattform der sozialen Medien. Darüber hinaus bestehen die drei am häufigsten erhaltenen Themen aus: (1) auf Literaturrecherche, theoretischem Ansatz oder explorativer Analyse basierenden Arbeiten, (2) Reiseinformationen, Suche oder elektronischen Mundpropaganda (eWOM), nutzergenerierten Inhalten ) und (3) Analyse der Social-Media-Aktivitäten. Das Fazit dieser Arbeit unterstreicht, dass die Nutzung der von Nutzern in sozialen Netzwerken generierten Daten und Smart Tourism Themen von großem Interesse für Tourismusforscher sind, Herausforderungen, Chancen und neue Ansätze in SMAST werden ebenfalls vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-03910-3_25 83ded8a415233ee788ca9d1f22b42247;de;;;1.3.;;;Quantisierungsdesign für vernetzte Feedback-Steuerungssysteme In diesem Papier betrachten wir das Design von miteinander verbundenen H-Infinity-Feedback-Steuerungssystemen mit quantisierten Signalen. Wir gehen davon aus, dass eine dezentrale statische Ausgangsrückkopplung für ein zusammengeschaltetes zeitkontinuierliches LTI-System so konzipiert wurde, dass das geschlossene System stabil ist und ein gewünschter H-unendlich-Stördämpfungspegel erreicht wird, und dass die Messausgänge der Subsysteme zuvor quantisiert werden sie werden an den lokalen Controller weitergegeben. Wir schlagen eine lokalausgangsabhängige Strategie zur Aktualisierung der Parameter der Quantisierer vor, so dass das gesamte geschlossene Regelkreissystem asymptotisch stabil ist und den gleichen H-unendlich-Stördämpfungspegel erreicht. Sowohl die vorgefertigten Regler als auch die Parameter der Quantisierer sind dezentral aufgebaut, abhängig von lokalen Informationen.;-;-;-;https://link.springer.com/article/10.1007/s11768-010-9185-9 fa9841afc03c5dcad9327c87ab9134f9;de;;;1.3.;;;Robuste Output-Feedback-Steuerung für stochastische nichtlineare Systeme mit Modellierungsfehlern In dieser Arbeit wird das Stabilisierungsproblem eines stochastischen nichtlinearen Systems mit Modellierungsfehlern betrachtet. Zunächst wird ein erweiterter Beobachter vorgestellt, um den nicht messbaren Zuständen sowie Modellierungsfehlern entgegenzuwirken. Ein adaptiver Ausgangsrückkopplungsregler ist so ausgelegt, dass alle Signale in dem geschlossenen Regelkreis in der Wahrscheinlichkeit begrenzt sind und der Ausgang fast sicher auf den Ursprung geregelt wird.;-;-;-;https://link.springer.com/article/10.1007/s11768-012-0068-0 ba78dc2d88415311cf03940e5dccf3c1;de;;;1.3.;;;Design eines vier spiegelverkehrten Telezoomsystems Ein neuartiges invertiertes Teleobjektiv-Vierspiegel-Zoomsystem mit großem Sichtfeld (FOV) wurde über eine große spektrale Bandbreite entwickelt. Die anfängliche Konfiguration des Zoomsystems wurde durch Anwendung der Aberrationsgleichungen unter bestimmten Bedingungen erhalten. Dann wurde eine Methode vorgestellt, um die asphärischen Koeffizienten mit den Aberrationen dieses Systems zu korrelieren. Durch diese Methode konnte die erforderliche Bildqualität nach Optimierung mit dem ZEMAX® Optical Design Code erreicht werden. Neben der guten Bildqualität ist ein weiterer Vorteil dieses Systems die Möglichkeit, billige Optiken zu verwenden.;-;-;-;https://link.springer.com/article/10.1007/s12200-016-0549-8 0adec1f7fb57a6d4c43a00e555cea13c;de;;;1.3.;;;Zehnjähriger Fortschritt der chinesischen Polargeodäsie: 1996–2006 Der zehnjährige Fortschritt der chinesischen Polargeodäsie von 1996 bis 2006 wird zusammengefasst. Unter Verwendung von GPS-Daten der Great Wall Station, Zhongshan Station und Yellow River Station wurden Untersuchungen zu Plattenbewegung, Krustenbewegung, Bahnbestimmung und atmosphärischer Überwachung, einschließlich der Ionosphäre und Troposphäre, durchgeführt. GPS wurde auch bei den Expeditionen Amery Ice Shelf, Grove Mountains und Dome A eingesetzt, um die Eisdynamik zu untersuchen. Während der Südsommersaison 2004/2005 wurden die absolute und relative Schwerkraft an der Great Wall Station mit einer Genauigkeit von ± 3 × 10 . gemessen;-;-;-;https://link.springer.com/article/10.1007/s11707-008-0006-0 ed9948ee66b99427f50a162209bffa99;de;;;1.1.;;;Ein akademisches Programm für Public Affairs in Österreich Seit Mitte der 2000er Jahre entstand in Österreich ein Bedarf an gut ausgebildeten Public-Affairs-Profis. 2006 richtete die Universität Wien einen postgradualen Master of Arts-Studiengang mit dem Schwerpunkt Public Affairs ein. Das berufsbegleitende Studium dauert vier Semester mit einem Arbeitspensum von 120 ECTS-Punkten. Das Programm besteht nicht nur aus einer praktischen Ausbildung, sondern basiert auf einem theoretischen Rahmen. Es integriert erfolgreich reales, erfahrungsbasiertes Lernen in die Hochschulbildung. Zum Abschluss müssen die Studierenden eine Masterarbeit schreiben und eine Abschlussprüfung bestehen.;-;-;-;https://link.springer.com/article/10.1057/iga.2014.25 55f27833ca082a09e3925e7b6e804927;de;;;1.1.;;;Ein kognitives Modell pathologischer Sorgen bei Kindern und Jugendlichen: Eine systematische Überprüfung Sorgen sind bei Kindern und Jugendlichen weit verbreitet, doch einige Jugendliche erleben übermäßige Sorgen, die über die Zeit andauern und erhebliche Belastungen verursachen. Während die Literatur zu Sorgen und generalisierter Angststörung (GAD) bei Erwachsenen gut etabliert ist, ist relativ wenig über die kognitiven Mechanismen bekannt, die den Sorgen von Kindern und Jugendlichen zugrunde liegen. Ein einflussreiches kognitives Modell pathologischer Sorgen bei Erwachsenen (Hirsch und Matthews in Behav Res Therapy 50:636–646,;-;-;-;https://link.springer.com/article/10.1007/s10567-020-00311-7 e5dc3f731e51a15bd322fd37e5aa204e;de;;;1.3.;;;Die Forschung zur ideologischen und politischen Bildungsmethode basierend auf der Innovationsfähigkeit von College-Studenten in der Informationsumgebung Die Förderung der Innovationsfähigkeit von Studierenden hängt nicht nur mit dem Erfolg der Personalausbildung, sondern auch mit dem Aufstieg und Niedergang des Landes zusammen. Obwohl die Ausbildungsqualität der Hochschulen in unserem Land international einen guten Ruf genießt, fehlt es im Vergleich zu ausländischen Spitzenuniversitäten an geförderten innovativen Talenten. Wenn die Hochschulen ihren historischen Auftrag dieses neuen Jahrhunderts erfüllen wollen, innovatives Qualitätspersonal zu entwickeln, muss die ideologische und politische Theorielehre eine unersetzliche Rolle bei der Förderung der Innovationsfähigkeit der Studierenden spielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23345-6_72 312c6e7de2958c1876929905c39c64c8;de;;;1.1.;;;Granulares Computing: Eine Einführung Die Studie beschäftigt sich mit den Grundlagen des Granular Computing. Granular Computing befasst sich, wie der Name schon sagt, mit der Darstellung von Informationen in Form einiger Aggregate (die mehrere einzelne Einheiten umfassen) und deren Verarbeitung. Wir erläutern die Gründe für granulares Computing. Als nächstes werden eine Reihe von formalen Rahmenwerken der Informationsgranulierung erörtert, einschließlich mehrerer Alternativen, wie beispielsweise Fuzzy-Sets, Intervallanalyse, grobe Sets und Wahrscheinlichkeit. Der Begriff der Granularität selbst wird definiert und quantifiziert. Eine Design-Agenda des Granular Computing wird formuliert und die wichtigsten Designprobleme werden angesprochen. Es wird auch eine Reihe von granularen Architekturen diskutiert, um die grundlegenden algorithmischen und konzeptionellen Herausforderungen zu behandeln. Es wird gezeigt, dass sich die Verwendung von Informationsgranulaten unterschiedlicher Größe (Granularität) für allgemeine Pyramidenarchitekturen der Informationsverarbeitung anbietet. Die Rolle von Kodierungs- und Dekodierungsmechanismen, die in dieser Umgebung sichtbar sind, wird ebenso ausführlich diskutiert, zusammen mit einigen speziellen Lösungen. Die Absicht dieses Papiers ist es, die Grundlagen zu erarbeiten und das gesamte Gebiet in eine bestimmte Perspektive zu rücken, ohne auf spezifische algorithmische Details einzugehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-1856-7_15 c63bd19815a6d32a43c4a6a2e20e003b;de;;;1.1.;;;Soziokulturelle Nachhaltigkeit in der Modellierung von Green Building Information Die Building Information Modeling (BIM)-Technologie, die für weitere Prozesse in der Green Building-Branche verwendet wird, hat in der Literatur breite Beachtung gefunden. Einige Unternehmen haben diese natürliche Synergie genutzt, aber viele bleiben am Rande und können das Potenzial von BIM in grünen Projekten nicht voll ausschöpfen. Darüber hinaus konzentriert sich die meiste Literatur auf technische Aspekte der BIM-Nutzung, während soziale und kulturelle Aspekte ihrer Anwendung ignoriert werden. Dieser enge, taktische Fokus kann die Synergie zwischen BIM und Green Building untergraben und das Erreichen strategischer, nachhaltiger Ziele verhindern. Die Ziele dieses Artikels sind: (1) Überprüfung des BIM-Status im Kontext der sozialen und kulturellen Nachhaltigkeit in der Baubranche und (2) Vorschläge für Kriterien zur Förderung integrativer Anwendungen, die soziale und kulturelle Nachhaltigkeit in der grünen Baubranche erreichen . Zur Analyse von Richtlinien und Standards wurden fünf Ebenen der sozialen und kulturellen Nachhaltigkeit identifiziert und im Rahmen von BIM-Anwendungen klassifiziert. Die vorgeschlagenen Kriterien beziehen sich auf die Komplexität in der Green Building-Branche und nutzen die BIM-Integrationsfähigkeit, um eine soziale und kulturelle Integration zu erreichen. Die vorgeschlagenen Kriterien dienen als Grundlage für die Bewertung der BIM-Leistung und damit als Lösung, um Unterschiede in bestehenden Richtlinien und Standards zu mildern.;-;-;-;https://link.springer.com/article/10.1007/s10098-017-1409-y a87b088cf2c6def50ede7dd4acfea0de;de;;;1.1.;;;Problemdefinition in der Ehe- und Familientherapie: Eine qualitative Studie Dieser Beitrag beschreibt die Ergebnisse einer Grounded-Theory-Studie zum Prozess der Konstruktion von Problemdefinitionen durch Ehe- und Familientherapeuten. Die Kodierung der Beobachtungen und Interviews führte zu zwei Metaproblemdefinitionsprozessen. Im ersten Metaprozess behielten die Kliniker ihre Definitionen während der Therapiesitzung bei sich. Im Gegensatz dazu beinhaltete der zweite Meta-Definitionsprozess Kliniker, die ihre internen Problemdefinitionen vorbrachten und sie in das therapeutische Gespräch einfließen ließen. Implikationen für bestehende Konzeptualisierungen und ehe- und familientherapeutische Praxis und Supervision werden diskutiert, sowie Vorschläge für weitere Überlegungen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1013001012043 c48ed361fa12fa5260cef178d2e19a61;de;;;1.3.;;;Modell der ontogenetischen Variabilität des Funktionszustandes des Organismus in verschiedenen Bewegungsregimen Dieser Beitrag analysiert die Ergebnisse der Untersuchung der Langzeitwirkung von körperlicher Bewegung und Sport im Altersbereich, einschließlich der späten Phasen der menschlichen Ontogenese, aus der Sicht der Theorie des oxidativen Stresses. Um die Merkmale der ontogenetischen Variabilität des Funktionszustands des Organismus zu untersuchen, wurde eine vergleichende Studie der Indizes des Funktionszustands des Organismus unter verschiedenen motorischen Aktivitätsregimen in verschiedenen Altersstadien der Entwicklung durchgeführt: bei Sportveteranen, die fortfahren aktive motorische Aktivität nach Beendigung einer Sportkarriere, bei ehemaligen Sportlern mit sitzender Lebensweise, bei Freizeitsportlern und bei Personen, die nie regelmäßig Sport getrieben haben. Das Kontingent männlicher Probanden unterschiedlichen Alters umfasste auch ehemalige Sportler und Trainer von Nationalmannschaften für zyklische und Spielsportarten, die eine überwiegende Ausdauer erfordern. Als Ergebnis der Studie wurde ein Modell entwickelt, das die Merkmale und Mechanismen der ontogenetischen Variabilität des Funktionszustandes des Organismus unter dem Einfluss verschiedener motorischer Aktivitätsregime widerspiegelt.;-;-;-;https://link.springer.com/article/10.1134/S2079057017030110 753722ec8a9476a2b4136ec4f155af37;de;;;1.3.;;;Die Sicht des Patienten auf die Arbeit des Arztes Für mich ist die medizinische Grundversorgung aus Sicht der Öffentlichkeit das Hauptthema. Die Öffentlichkeit geht nach Meinungsumfragen im Allgemeinen davon aus, dass Personen mit einer Berufszulassung technisch kompetent sind, obwohl sie nicht sehr gut in der Lage sind, ein Urteil zu fällen. Daher ist das erste Anliegen des Verbrauchers der Zugang, d. h. die Möglichkeit, umgehend einen Arzt aufzusuchen, wenn ein Bedarf an medizinischer Versorgung entsteht und dieser als akute Notwendigkeit empfunden wird. Zweitens hat die Öffentlichkeit eine Sorge, eine wichtige Sorge, inwieweit der Arzt ein Interesse an ihnen als Patienten und als Person bekundet. Sie wollen das Gefühl haben, dass sich der Arzt wirklich interessiert, dass er nicht nur einen technischen Job macht oder nur versucht, ein Honorar zu bekommen. Und das dritte Problem sind natürlich die Kosten. Wir haben bereits erwähnt, inwieweit sich sowohl der Arzt als auch der Patient der wahren Kosten der medizinischen Versorgung nicht wirklich bewusst sind, weil ein Großteil davon inzwischen indirekt durch direkte staatliche Subventionen oder durch Zahlungen Dritter über gemeinnützige oder gemeinnützig finanziert wird private Krankenversicherung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-8837-5_3 d8ea9d752ff3600cd35e05afa93964c8;de;;;1.1.;;;Ausrichtung von Governance-Mechanismen auf Aufgabenmerkmale zur Verbesserung der Servicefähigkeiten – eine empirische Studie zum professionellen Service-Outsourcing in Indien Da Emerging Markets zunehmend eine wichtige Rolle beim Outsourcing spielen, konzentrieren wir uns auf die komplexen Beziehungen im Umfeld des Professional Service Outsourcing. Aufbauend auf Informationsverarbeitungs- und Kontingenztheorien trägt dieses Papier zu den dringend benötigten Bemühungen bei der Untersuchung des professionellen Dienstleistungs-Outsourcings, einer neuen und schnell wachsenden grenzüberschreitenden professionellen Dienstleistungsaktivität, bei. Diese Studie untersucht den Einfluss von Aufgabenmerkmalen und deren Abstimmung mit den zwischenbetrieblichen Governance-Mechanismen auf die Verbesserung der Servicefähigkeiten. Anhand von Umfragedaten von 192 indischen professionellen Dienstleistern stellen wir fest, dass die Beziehung zwischen Aufgabenkomplexität und Servicefähigkeiten krummliniger Natur ist. Noch wichtiger ist, dass der vertragliche Governance-Mechanismus besser im Umgang mit den Unsicherheiten im Zusammenhang mit der Aufgabenkomplexität und Konnektivität funktioniert, während der administrative Governance-Mechanismus beim Umgang mit dem Problem der Aufgabensicherheit bessere Arbeit leistet. Vertragliche und administrative Mechanismen ergänzen sich bei der Bewältigung von Aufgaben mit hoher Komplexität und Sicherheitsaspekten. Für praktizierende globale Kunden und Offshore-Dienstleister werden Managementimplikationen gezogen, um die ausgelagerten beruflichen Aufgaben erfolgreich zu verwalten und zu steuern, um den erwarteten Nutzen zu erzielen.;-;-;-;https://link.springer.com/article/10.1007/s12063-019-00141-z 8a78be17ce065f750d974855a750766b;de;;;1.1.;;;Innovative Visualisierung des Netzzustands für eine vorausschauende Prozesssteuerung Gestresste Betriebsbedingungen und häufig wechselnde Erzeugungsmuster in heutigen Stromnetzen erfordern neue Wege der Informationsvisualisierung in der Leitstelle. Der Beitrag stellt ein anwenderorientiertes Visualisierungskonzept vor, das die Ergebnisse der Online-Sicherheitsbewertung präsentiert und effiziente Kontrollmaßnahmen in kritischen Situationen ermöglicht. Durch kompakte Zustandsanzeigen werden hochdimensionale Messsätze reduziert. Der Einsatz von Computational Intelligence innerhalb des umfassenden Informationsmanagementsystems garantiert eine schnelle und menschenorientierte Informationsverarbeitung.;-;-;-;https://link.springer.com/article/10.1007/s002020100083 baea23b6b4fa1ebb184115632715a5c7;de;;;1.3.;;;Regressionsanalyse der Anzahl der Assoziationsregeln Das typische Modell, das die Maßnahmen umfasst: Unterstützung, Vertrauen und Interesse, wird oft an die Regeln der Bergbauverbände angepasst. Im Modell werden die zugehörigen Parameter in der Regel durch Erfahrungswerte gewählt, daher ist die Anzahl der nützlichen Regeln schwer abzuschätzen. Wenn die Zahl zu groß ist, können wir die sinnvollen Regeln nicht effektiv extrahieren. Dieses Papier analysiert die Bedeutung der Parameter und entwirft eine Vielzahl von Gleichungen zwischen der Anzahl der Regeln und den Parametern unter Verwendung der Regressionsmethode. Schließlich erhalten wir experimentell eine bevorzugte Regressionsgleichung. Dieses Papier verwendet mehrere Korrelationskoeffizienten, um die Anpassungseffekte der Gleichungen zu testen, und verwendet einen Signifikanztest, um zu überprüfen, ob die Koeffizienten der Parameter signifikant Null sind oder nicht. Als optimal angepasste Gleichung wird die Regressionsgleichung mit einem größeren multiplen Korrelationskoeffizienten gewählt. Mit der gewählten optimalen Gleichung können wir die Anzahl der Regeln unter den gegebenen Parametern vorhersagen und die Wahl der drei Parameter weiter optimieren und deren Wertebereiche bestimmen.;-;-;-;https://link.springer.com/article/10.1007/s11633-010-0557-x 773f69b1e90dafc75b4568ca803841d1;de;;;1.3.;;;Leistungs- und Robustheitsanalyse eines Fuzzy-immunen Flussreglers in ATM-Netzwerken mit zeitveränderlichen Mehrfachverzögerungen Für die Netze mit asynchronem Übertragungsmodus (ATM) mit zeitveränderlichen mehrfachen Zeitverzögerungen wird ein realistischeres Modell für die Verkehrsklasse der verfügbaren Bitrate (ABR) mit expliziter Ratenrückmeldung eingeführt. Es wurde ein Fuzzy-immuner Controller entwickelt, der die ABR-Raten online anpassen kann, den durch die Sättigungs-Nichtlinearität verursachten schlechten Effekt überwindet und die gewichtete Fairness erfüllt. Auch die hinreichende Bedingung, die die Stabilität des Regelkreises mit einem Fuzzy-Immune-Regler garantiert, wird erstmals theoretisch dargestellt. Der Algorithmus weist eine gute Performance auf und vor allem hat er eine solide theoretische Grundlage und kann leicht in die Praxis umgesetzt werden. Simulationsergebnisse zeigen, dass das Steuerungssystem schnell, anpassungsfähig und robust ist und gleichzeitig die Dienstgüte (QoS) gewährleistet ist.;-;-;-;https://link.springer.com/article/10.1007/s11768-008-6184-1 6c5dd8dd590e22921035a1cc46b782a0;de;;;1.1.;;;Leseverständnis und Strategienutzung Dieses Kapitel konzentriert sich auf das Leseverständnis und die Verwendung von Strategien. Der erste Teil definiert das Leseverständnis basierend auf vorhandener umfangreicher Literatur. Relevante Lesemodelle werden dann überprüft und diskutiert. Anschließend werden relevante empirische Studien zum Leseverständnis und zur Strategienutzung vorgestellt. Zuerst werden die Theorie der Metakognition und ihre Anwendung auf das Leseverständnis vorgestellt, gefolgt von Studien zum Zusammenhang zwischen Strategieverwendung und Sprachleistung, Prüfungsstrategien, geschlechtsspezifischen Unterschieden in der Strategieverwendung und Sprachleistung sowie der Strategieverwendung und Sprachleistung chinesischer College-Studenten . Auf dieser Grundlage werden hypothetische Modelle zur Erprobung und Untersuchung in den folgenden Teilen der Studie postuliert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-6325-1_3 d9155c2cd7132c7bc28cf2198c3f516f;de;;;1.3.;;;Erforschung des elektronischen Bildstabilisierungsalgorithmus basierend auf dem Orbitalcharakter Das monokulare Sehen ist die Schlüsseltechnologie für das Antikollisionswarnsystem von Lokomotiven. Die Reichweitenpräzision beeinflusst die Leistung des Systems. In diesem Beitrag wird gemäß der Frage des Video-Jitter-Ergebnisses in der Genauigkeitsreduzierung ein neuer EIS-Algorithmus vorgeschlagen, der auf der Bahncharakteristik basiert, durch Extrahieren und Anpassen partieller Merkmalsvorlagen, die den globalen Bewegungsvektor erhalten. Behandeln Sie die partielle Feature-Vorlage, anstatt das globale Bild zu behandeln, die Geschwindigkeit des Systems wird offensichtlich verbessert. Das Ergebnis der Simulation zeigt, dass dieser Algorithmus die Bildmigration, die aufgrund des Videojitters erzeugt wird, effektiv eliminieren kann, die Abweichung der Entfernungsmessgenauigkeit gelöst hat und die Echtzeitanforderung des Systems erfüllt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18134-4_85 f7b64302085a21389e9939aa51d09d53;de;;;1.3.;;;PID-Steuerung eines unbemannten Miniatur-Helikopter-Giersystems basierend auf dem neuronalen RBF-Netzwerk Die Gierdynamik eines unbemannten Miniaturhubschraubers weist ein komplexes, nichtlineares, zeitveränderliches und kopplungsdynamisches Verhalten auf. In diesem Beitrag wird ein vereinfachtes Gierdynamikmodell von MUH im Schwebe- oder Langsamflugmodus erstellt. Das SISO-Modell der Gierdynamik wird durch Mechanismusmodellierung und Systemidentifikationsmodellierungsverfahren erhalten. Die PID-Regelung basierend auf der RBF-Neuralnetz-Methode kombiniert die Vorteile des traditionellen PID-Reglers und des Neuronalen Netzreglers. Es hat eine schnelle Reaktion, gute Robustheit und Selbstanpassungsfähigkeit. Es eignet sich zur Steuerung des Azimutsystems der MUH. Simulationsergebnisse zeigen, dass das Steuerungssystem mit schneller Reaktion, guter Robustheit und Selbstanpassung gut funktioniert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18134-4_50 6ed8a70b899353ee596e916cfdde7f33;de;;;1.3.;;;Numerische Simulation für die Timoshenko-Beam-Gleichungen mit Boundary-Feedback In dieser Arbeit wird ein vibrierender Timoshenko-Balken mit Grenzrückkopplung betrachtet. Ein linearisiertes Drei-Niveau-Differenzschema für die Timoshenko-Balkengleichungen wird durch die Methode der Ordnungsreduktion auf gleichförmigen Netzen abgeleitet. Die einzigartige Lösbarkeit, unbedingte Stabilität und Konvergenz des Differenzenschemas werden bewiesen. Die Konvergenzordnung in der maximalen Norm ist sowohl in Raum als auch in Zeit von Ordnung zwei. Die Gültigkeit dieser theoretischen Analyse wird experimentell überprüft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18129-0_17 8abdc54c897f42828c35321a1394932b;de;;;1.3.;;;Online-Gestenanalyse und Steuerung der Audioverarbeitung Dieses Kapitel stellt einen allgemeinen Rahmen für die gestengesteuerte Audioverarbeitung vor. Es wird angenommen, dass die Gestenparameter mehrdimensionale zeitliche Profile sind, die von Bewegungs- oder Tonerfassungssystemen erhalten werden. Die Analyse basiert auf Techniken des maschinellen Lernens und vergleicht den eingehenden Datenfluss mit gespeicherten Vorlagen. Die Mapping-Verfahren zwischen der Geste und der Audioverarbeitung beinhalten eine spezielle Methode, die wir als temporales Mapping bezeichnen. Dabei wird die zeitliche Entwicklung der Gesteneingabe beim Mapping-Prozess berücksichtigt. Wir beschreiben ein Beispiel für eine mögliche Verwendung des Frameworks, mit dem wir in verschiedenen Kontexten experimentiert haben, einschließlich Musik- und Tanzperformances, Musikpädagogik und Installationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22291-7_8 d70b3049cd19de36f07614640250c388;de;;;1.1.;;;Tomkins und Literatur: Ein hermeneutisches Modell Dieses Kapitel stellt die Hauptkonzepte von Tomkins' Affekt-Skript-Theorie und seine eigenwillige Terminologie vor und enthält einen Überblick über seine „Mensch-Theorie“ als Ablehnung der einst vorherrschenden Triebtheorie der menschlichen Motivation, was zur Definition der wichtigsten notwendigen Begriffe führt zum Verständnis von Tomkins' Ideen, wie Affekt, Gefühl, Emotion, bevor wir die Sprache der Literatur in den Ausdruck menschlicher Affekt-Gefühl-Emotion-Zustände einführen. (Das Buch enthält ein angehängtes Glossar mit seinen Begriffen, um das Verständnis zu erleichtern.) Die Schrifttheorie zeichnet die „Lebensweise der Menschen in der Welt“ nach, sowohl individuell als auch sozial, und schwingt auf eindrucksvolle Weise mit dem Literaturstudium als einer Form des menschlichen Ausdrucks mit. ich formuliere ein;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94863-8_2 b40327662f5beef284de7ffdd8cea335;de;;;1.3.;;;Factoring-basierte Proxy-Signatur-Schemata mit Forward-Security Die Eigenschaft der Forward-Security kann genutzt werden, um mögliche Schäden durch das Freilegen von Schlüsseln zu reduzieren. Jedoch hat keines der existierenden Proxy-Signatur-Schemata die Vorwärtssicherheit berücksichtigt. Und die meisten Proxy-Signatur-Schemata basieren auf dem Problem des diskreten Logarithmus. In diesem Papier stellen wir zunächst ein vorwärtssicheres Proxy-Signaturschema vor, das auf dem Faktorisierungsproblem basiert. Als nächstes präsentieren wir ein vorwärtssicheres Schwellenwert-Proxy-Signaturschema.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30497-5_159 8c5b2ccc31c66a19f13ae8767560eff2;de;;;1.3.;;;Die Kinematik- und Dynamiksimulation der Kollision zwischen Starrstab und Boden Denn der einzelne starre Stab hat den nicht festen Punkt, der den Kontaktaufprall auf den Boden im Bewegungsprozess glättet und die Bewegungssituation der Vor- und Nachkollision zwischen dem starren Stab und dem Boden analysiert. Basierend auf den geometrischen Eigenschaften dieser Konstruktion, gibt die Methode an, zu beurteilen, welcher Endpunkt der Stange zuerst auf den Boden auftrifft. Simulation der Bewegungssituation der Vor- und Nachkollision des starren Stabes mit MATLAB.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18129-0_31 303fe006fdfc98dafa9b21dfec3a58b0;de;;;1.3.;;;Modellierung und Simulation eines Wasserzuweisungssystems basierend auf einem simulierten Annealing-Hybridgenetikalgorithmus Gegenwärtig werden die Wasserressourcen in den meisten Wassereinzugsgebieten in China gemäß Verwaltungsanweisungen verteilt. Diese Art der Zuteilungsmethode hat viele Nachteile und behindert die Lehrwirkung des Marktmechanismus auf die Wasserzuteilung. Das Papier untersucht das Süd-Nord-Wassertransferprojekt und diskutiert die Wasserverteilung der Knotenseen entlang des Projekts. Zunächst wurden vier Annahmen aufgestellt. Zweitens analysierte es die Beschränkungsbedingungen der Wasserzuteilung im Hinblick auf den gegenwärtigen Stand der Wasserzuteilung in China. Drittens wurde ein Zielmodell der Wasserallokation erstellt und ein systematisches Modell unter dem Gesichtspunkt umfassender Gewinne der Wassernutzung und Gewinne der Knotenseen erstellt. Viertens wurde die Berechnungsmethode des Modells mittels Simulated Annealing Hybrid Genetic Algorithm (SHGA) diskutiert. Schließlich validierte es die Rationalität und Validität des Modells durch einen Simulationstest.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18134-4_17 25ece04154dee76d5f097633873b27c3;de;;;1.1.;;;Die Quellen der Fehlwahrnehmung Dieses Kapitel beschreibt kognitive, innenpolitische und organisatorische Hindernisse für eine rationale Entscheidungsfindung, die Abschreckung zunichte machen können. Ich untersuche ihre Wirkung in zwei Fallstudien: der amerikanisch-chinesischen Komponente des Koreakrieges und der chinesisch-indischen Krise von 1962. Anschließend untersuche ich die relativen Vorteile kognitiver und motivationaler Ansätze zur Entscheidungsfindung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-43443-4_6 c5de6c1e747d84c29b84175c9294bf34;de;;;1.3.;;;Bildkomprimierung durch geschichtete neuronale Quantennetze Wir haben das Qubit-Neuronenmodell als neues Schema im Nicht-Standard-Computing vorgeschlagen. Identifizierungsprobleme wurden an neuronalen Netzen untersucht, die durch dieses Qubit-Neuronenmodell konstruiert wurden, und wir haben hohe Verarbeitungsfähigkeiten von ihnen festgestellt. In diesem Papier bewerten wir die Leistung des quantenneuralen Netzwerks großer Größe bei Bildkompressionsproblemen, um den Nutzen für die praktischen Anwendungen im Vergleich zum herkömmlichen Netzwerk aus formalen Neuronenmodellen abzuschätzen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1019708909383 4805118d3825be63d1f21a530e2597c9;de;;;1.3.;;;Design von FCM-basiertem FNN vom Typ 2 und genetischer Optimierung für die Mustererkennung In diesem Beitrag wird eine neue Kategorie von Fuzzy-Neuralnetzen mit mehreren Ausgängen basierend auf einem Intervalltyp-2-Fuzzy-C-Means-Clustering-Algorithmus (IT2FCM-basierter FNNm) zur Mustererkennung vorgeschlagen. Der Prämissenteil der Regeln des vorgeschlagenen Netzwerks wird mit Hilfe der Streupartition des Eingaberaums realisiert, die durch den IT2FCM-Clustering-Algorithmus erzeugt wird. Die Nummer der Partition des Eingaberaums entspricht der Anzahl der Cluster, und die einzelnen partitionierten Räume beschreiben die Fuzzy-Regeln. Der Konsequenzteil der Regeln wird durch Polynomfunktionen mit einem Intervallsatz zusammen mit mehreren Ausgaben dargestellt. Die Koeffizienten der Polynomfunktionen werden durch den Backpropagation(BP)-Algorithmus gelernt. Um die Parameter des IT2FCM-basierten FNNm zu optimieren, betrachten wir realcodierte genetische Algorithmen. Das vorgeschlagene Netzwerk wird unter Verwendung numerischer Experimente zur Mustererkennung evaluiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35603-2_20 801ae4f73826c9808c8f681b44aba57b;de;;;1.1.;;;Geometrische Unterscheidbarkeitsmaße begrenzen die Schätzung und Diskriminierung von Quantenkanälen Quantenkanalschätzung und -diskriminierung sind grundlegend verwandte Aufgaben der Informationsverarbeitung, die in der Quanteninformationswissenschaft von Interesse sind. In diesem Papier analysieren wir diese Aufgaben, indem wir die richtigen logarithmischen abgeleiteten Fisher-Informationen bzw. die geometrische Rényi-Relativentropie verwenden, und wir identifizieren auch Verbindungen zwischen diesen Unterscheidbarkeitsmaßen. Ein wichtiges Ergebnis unserer Arbeit ist, dass eine Kettenregeleigenschaft für die richtige logarithmische Ableitung der Fisher-Information und die geometrische Rényi-Relativentropie für das Intervall gilt holds;-;-;-;https://link.springer.com/article/10.1007/s11128-021-02992-7 8cebad858dd0ef0b453d94d72570610f;de;;;1.3.;;;Phononen-Polariton-Kopplung an der Schnittstelle zur Verbesserung der Graphen-Absorption Hier präsentieren wir einen Graphen-Photodetektor, dessen Infrarotabsorptionen von Graphen und strukturellem System durch Kopplung von Phononenpolariton (IPhP) an der Grenzfläche verstärkt werden. IPhPs werden an der SiC/AlN-Schnittstelle der Bauelementstruktur unterstützt und verwendet, um Zwischenbandübergänge des intrinsischen Graphens unter Gated-Field-Tuning anzuregen. Die Simulationsergebnisse zeigen, dass die Extinktion von Graphen oder System bei senkrechtem Einfall bis zu 43% erreicht oder in einem mittleren Infrarot-Frequenzbereich nahe Eins liegt. Darüber hinaus haben wir festgestellt, dass die Spitzenabsorptionsfrequenz hauptsächlich durch die AlN-Dicke bestimmt wird und mit abnehmender Dicke eine Rotverschiebung aufweist. Diese Struktur hat ein großes Anwendungspotenzial in der Graphen-Infrarot-Detektionstechnologie.;-;-;-;https://link.springer.com/article/10.1007/s12200-019-0957-7 18ea80b5b777e84f203e2af608b2088b;de;;;1.1.;;;Der gemeinsame Einfluss von Stimmung und einer kognitiv anspruchsvollen Aufgabe auf die Risikobereitschaft Diese Studie untersucht einen stimmungsregulationsbasierten Abgleich früherer Befunde in der Literatur zur Stimmungserhaltung und zu Informationsprozessen über den Einfluss einer negativen Stimmungslage auf die Risikobeurteilung. Die Teilnehmer erhielten eine negative Stimmungsinduktion unter Verwendung eines standardisierten Filmclip-Verfahrens und führten anschließend eine Risikobeurteilung unter einer von drei Bedingungen durch: (1) unmittelbar nach der Stimmungsinduktion, (2) nach einer 5-minütigen Verzögerung ohne Aufgaben oder (3) nach der Ausführung einer kognitiv anspruchsvollen Aufgabe. Wie erwartet zeigten Teilnehmer, die nach der Durchführung der kognitiv anspruchsvollen Aufgabe Risikobeurteilungen trafen, eine höhere Erholung von der negativen Stimmungsinduktion (dh erhöhte positive Stimmung und verringerte negative Stimmung) und ein geringeres Niveau der Risikoeinschätzung als Teilnehmer an der verzögerten Zustand. Zusätzliche Analysen zeigten, dass die Risikoeinschätzungen durch eine Stimmungsänderung nach der interpolierten Aufgabe erklärt wurden. Diese Ergebnisse gleichen die bisherigen Widersprüche zwischen den beiden Perspektiven aus. Implikationen für zukünftige Forschungen zur restaurativen Rolle der kognitiven Aufgabenleistung als Strategie zur Stimmungsregulation werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s11031-009-9147-z cea756b0277cbeb4e91095c13389e790;de;;;1.1.;;;Sich entwickelnde Modelle des sozialen Wissens Fritz Heider hatte wie Dewey, Kelly und Piaget das aufklärerische Kompetenzmodell (Flanagan, 1991) sozialer Denker als naive Wissenschaftler vorangetrieben. Er postulierte, dass sie wie formale Wissenschaftler versuchen, Ursachen von Ereignissen zu identifizieren, um Vorhersagen und Kontrolle über sie zu erlangen: Attributionen sind die kausalen Erklärungen (Kapitel 2). Heider postulierte auch, dass Zuschreibungen zwischen Person und Situation durch implizite Subtraktion aufgeteilt werden, wenn persönliche Kräfte die Umweltkräfte übersteigen, wird eine persönliche Zuschreibung vorgenommen. Eine Zeit lang dominierten zwischenmenschliche Attributionen die Forschung in der sozialen Kognition (Kelley & Michela, 1980), wie in den nachfolgenden Kapiteln (z. Heiders Theorie war sehr generativ, aber nur einige ihrer Spekulationen haben die Überprüfung überlebt, und ihr naives Wissenschaftlermodell hat sich als nur ein Teil der Geschichte erwiesen. Dieser Abschnitt behandelt Theorien über zwischenmenschliche Attributionen, die von Edward E. (Ned) Jones und Harold Kelley vorgeschlagen wurden, bahnbrechende Experimente, die sie testeten, und die frühe Frage der Angemessenheit dieses theoretischen Modells und methodischen Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5843-9_5 d558a8b826f1f937ad9ce003a980232d;de;;;1.3.;;;Entwurf eines Festkomma-Glättungsalgorithmus für lineare diskrete Zeitverzögerungssysteme Dieser Artikel untersucht die Fixkomma-Glättungsprobleme für lineare zeitdiskrete Systeme mit mehreren Zeitverzögerungen in den Beobachtungen. Die betrachteten linearen zeitdiskreten Systeme haben;-;-;-;https://link.springer.com/article/10.1007/s11768-012-0173-0 c07ab3ea0c77a4eec1f71de939d755c8;de;;;1.1.;;;Neuropsychologische Aspekte der Multiplen Sklerose Seit S. Raos [„Neuropsychologie der Multiplen Sklerose: Eine kritische Überprüfung“, A Journal of Clinical and Experimental Neuropsychology, Vol. 2, No. 85, S. 503–542] (1986) zukunftsweisende Übersicht, wurden umfangreiche Forschungen zu den neuropsychologischen Folgen der Multiplen Sklerose durchgeführt. Diese Übersichtsarbeit greift die Forschungsliteratur des letzten Jahrzehnts auf, um einen Überblick über den aktuellen Wissensstand zu Ätiologie, Verlauf, Symptomen, Beurteilung, Folgen und Therapie der Multiplen Sklerose (MS) zu geben. Das Konzept der subkortikalen Demenz wird im Lichte der neuesten Literatur, die die neuropsychologischen Defizite bei Patienten mit MS dokumentiert, überarbeitet. Es wird die Ansicht in Betracht gezogen, dass kognitiv heterogene Patientengruppen spezifischere Muster fokaler neuropsychologischer Beeinträchtigungen verschleiern können. Es wird auch ein kritischer Überblick über die neuere Literatur gegeben, in dem detailliert dargelegt wird, inwieweit die neuere Forschung die 1986 von Rao identifizierten Bereiche des Forschungsbedarfs adressiert hat. Angesichts der jüngsten Fortschritte in unserem Wissen muss der Bewertung von Rehabilitation und psychologische Intervention wird hervorgehoben.;-;-;-;https://link.springer.com/article/10.1023/A%3A1025621700003 3a0a09edddfc645e6eddd9010c21e198;de;;;1.1.;;;Quantendekohärenz und ihre Abschwächung Eine der größten Herausforderungen in der Quanteninformationswissenschaft ist die Entwicklung von Methoden zur effizienten Aufrechterhaltung der einzigartigen Quanteneigenschaften von Zuständen während der Ausführung von Aufgaben der Quanteninformationsverarbeitung. Insbesondere werden Hardwaredesigns für die Quanteninformationsverarbeitung mit zwei konkurrierenden Anforderungen konfrontiert: der starken Wechselwirkungen zwischen ihren internen Komponenten für die Leistung kontrollierter Quantengatter und der Isolierung von Qubits von der Umgebung, in der die Hardware arbeitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-36944-0_10 b8d4a20be5a20b2c3ec12381f8a5174b;de;;;1.1.;;;Erweiterung der CTRON-Kernel-Schnittstelle Die CTRON-Kernel-Schnittstellenspezifikationen wurden insgesamt überarbeitet, um eine noch breitere Anwendbarkeit von CTRON zu gewährleisten. Im Mittelpunkt der Überarbeitungen stehen Subset-Bezeichnungen und die Spezifikation der architekturabhängigen Schnittstelle. Das Ergebnis ist ein leicht verständliches Teilmengensystem, vereinfacht auf nur fünf Teilmengen, einschließlich der Mikrountermenge. Außerdem werden Schnittstellenmodelle für architekturabhängige Features detailliert untersucht, und diese Modelle sind die Grundlage für eine genauere Spezifikation.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-68081-9_14 294c94dc53e884d51391db601c6c42db;de;;;1.1.;;;Applicative-Frame-Modell der medizinischen Wissensrepräsentation Die moderne Phase der digitalen Transformation des Gesundheitswesens hat die Schaffung und Anwendung intelligenter Entscheidungsunterstützungssysteme als eine der Hauptaufgaben definiert. Grundlage von Systemen dieser Klasse ist das Wissensdatenbank-Managementsystem, in dem medizinisches Wissen formalisiert und akkumuliert wird. Das Modell der medizinischen Wissensrepräsentation sollte dem Entscheidungsprozess angemessen entsprechen. Die Autoren schlagen ein solches Modell basierend auf dem mittels kombinatorischer Logik beschriebenen Datenflussgraphen vor. Als Wissensspeicher wird das entwickelte Anwendungsrahmenmodell vorgeschlagen, das Eingabeattribute und ein Zielattribut enthält, deren Beziehung zwischen denen durch die Anwendungsfunktion festgelegt wird. Das Entscheidungsinferenzverfahren ist eine Verkleinerung des Baums der Anwendungsrahmen. Formale Reduktionsregeln werden angegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-2765-1_29 3769afd77d3e2a3edc5571a8f1cc3b64;de;;;1.1.;;;Der aktuelle Stand ätiologischer Theorien bei intrafamiliärer Kindesmisshandlung Kindesmisshandlung ist ein großes soziales Problem, von dem jedes Jahr über eine Million Kinder und ihre Familien betroffen sind (National Center on Child Abuse and Neglect, 1992). Eine wirksame Behandlungsentwicklung für Täter und Opfer dieses Problems beruht auf der Verfügbarkeit gut artikulierter und validierter Ätiologietheorien. Solche Theorien ermöglichen eine empirische Dokumentation ursächlicher Faktoren und letztlich auch gezieltere Interventionen. Das Ziel dieses Kapitels ist es, die Fortschritte bei der Entwicklung von ätiologischen Modellen für intrafamiliäre Kindesmisshandlung zu bewerten. Das Kapitel beginnt mit einem historischen Überblick über die Kräfte, die die Theoriebildung in frühen Phasen dieses Gebiets verlangsamten und jetzt die Theorieentwicklung stärker fördern. Anschließend untersuchen wir die Grundlagen aktueller Theorien zu jeder Form von Kindesmisshandlung und heben die Definitionen und Annahmen hervor, die Modelle übernommen haben, und die grundlegenden Dimensionen, in denen sie sich unterscheiden. Das Kapitel endet mit einem vorläufigen Versuch, die aktuelle Theoriebildung in ein Metamodell zu integrieren, das für die Behandlungsentwicklung nützlich wäre.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-2909-2_1 c2f935dd039e7e1c14f621379a4dcdb0;de;;;1.3.;;;Fehlerdiagnose von Wälzlagern basierend auf Lyapunov-Exponenten Das nichtlineare Verhalten von Wälzlagern wird untersucht. Der Lyapvnov-Exponent wird aus einer experimentellen Zeitreihe basierend auf seinem unterschiedlichen Zustand geschätzt. Die experimentellen Ergebnisse zeigen, dass der Lyapvnov-Exponent für die verschiedenen Zustände unterschiedlich ist und als Kenngröße zur Erkennung des Wälzlagerfehlers verwendet werden kann. Die Regel für die Fehlerdiagnose von Wälzlagern wird unter Verwendung des Lyapvnov-Exponenten extrahiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18129-0_8 4a222d3eb0b83149725c51b0c6197672;de;;;1.3.;;;Eine Studie über Sprachcodierer für die automatische Spracherkennung in ungünstigen Kommunikationsumgebungen In dieser Forschungsarbeit präsentieren wir die Auswirkungen mehrerer Standard-Sprachcodierer auf die automatische Spracherkennung in ungünstigen Kommunikationsumgebungen wie Tandem, Rahmenlöschung und verrauschten Bedingungen. Die widrigen Bedingungen wurden gewählt, um den Betrieb von Mobilkommunikationsumgebungen zu simulieren. Die Vergleichsergebnisse können eine Richtlinie zur Auswahl eines Sprachcodierers liefern, wenn ein Spracherkennungsdienst in digitalen Kommunikationsnetzen benötigt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25453-6_7 f004751ebd1aaeaa8b10bab7e76b3726;de;;;1.3.;;;Robuste Stabilisierung von geschalteten zeitdiskreten Systemen mit Aktorsättigung Dieser Artikel untersucht das robuste Stabilisierungsproblem von geschalteten zeitdiskreten linearen Systemen, die einer Aktorsättigung unterliegen. Neue geschaltete sättigungsabhängige Lyapunov-Funktionen werden genutzt, um einen robusten stabilisierenden Zustandsrückkopplungsregler zu entwickeln, der eine Schätzung des Anziehungsbereichs maximiert. Das Designproblem des Controllers (Koeffizientenmatrizen) wird dann auf ein Optimierungsproblem mit linearen Matrixungleichungs(LMI)-Beschränkungen reduziert. Ein Zahlenbeispiel soll die Wirksamkeit der vorgeschlagenen Methode zeigen.;-;-;-;https://link.springer.com/article/10.1007/s11768-009-7097-3 1ea00e6299ac4d39d853a0571e4f2122;de;;;1.3.;;;Robuste Steuerung für eine Klasse von T-S Fuzzy-Systemen mit zeitvariabler Intervallverzögerung Es wird das Problem der verzögerungsabhängigen Stabilitätsanalyse und des Reglerentwurfs für eine Klasse von T-S-Fuzzy-Systemen mit zeitvariabler Verzögerung des Intervallzustands betrachtet. Basierend auf der Lyapunov-Stabilitätstheorie, die ein neues Lyapunov-Krasovskii-Funktional definiert und einige frei gewichtende Matrizen einführt, wird ein neues verzögerungsabhängiges Kriterium angegeben, um sicherzustellen, dass die Systeme asymptotisch stabil sind. Der Vorteil der vorgeschlagenen Bedingungen liegt in der geringeren Konservativität als die bestehenden, was durch die Berücksichtigung des Mittelwerts des Zeitverzögerungsintervalls und die Einführung der freien Variablen erreicht wird. Durch das Konzept der parallel verteilten Kompensation (PDC) wird eine verzögerungsabhängige Bedingung für die Existenz eines Fuzzy-State-Feedback-Regelgesetzes mit Speicher vorgeschlagen. Ein weiterer Vorteil ist die Berücksichtigung des Speichers des Controllers. Alle Bedingungen werden in Form von linearen Matrixungleichungen (LMIs) dargestellt, die mithilfe der LMI-Optimierungstechniken effizient gelöst werden können. Zwei numerische Beispiele werden gegeben, um die Machbarkeit und Gültigkeit des vorgeschlagenen Ansatzes zu veranschaulichen.;-;-;-;https://link.springer.com/article/10.1007/s12555-012-0409-2 5dcb2536f1f648ab1b19ac32086d56ca;de;;;1.3.;;;Zustandsrückkopplungssteuerung basierend auf Zwillingsstützvektorregressionskompensation für eine Klasse nichtlinearer Systeme In diesem Beitrag stellen wir einen neuen Twin Support Vector Regression (TSVR)-Algorithmus vor, der eine unbekannte Funktion durch Annäherung an ihre obere und untere Grenze schätzt, die Endfunktion wird durch den Mittelwert der beiden Funktionen erhalten. Für die Klasse der nichtlinearen Systeme, die aus linearen und nichtlinearen Anteilen bestehen, verwenden wir TSVR mit einem Wavelet-Kernel, um den unbekannten nichtlinearen Anteil im ursprünglichen System zu schätzen und ihm entgegenzuwirken, und dann wird eine Zustandsrückkopplungsregelung durchgeführt, um eine geschlossene Regelung zu realisieren für das kompensierte System. Simulationsergebnisse zeigen, dass der TSVR mit dem Wavelet-Kernel eine gute Annäherungsfähigkeit und Generalisierung aufweist. Das gesamte geschlossene Regelkreissystem mit einer Zustandsrückkopplungssteuerung ist stabil, wenn die kompensierenden Fehler bestimmte Bedingungen erfüllen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21090-7_60 9b7e635e205108f42e09f46b4c37b373;de;;;1.3.;;;Zwei Operatorenpaare im gradinduzierten Überdeckungs-Grobsatz Zwei Operatorenpaare werden in gradinduzierter Überdeckung des Rohsatzes definiert und ihre Eigenschaften werden diskutiert. Mit ihnen können nun zwei Paare von Ungleichungen, die in der gradinduzierten, groben Mengenlehre gut bekannt sind, modifiziert werden, um jeweils Gleichungen zu werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23226-8_63 87fccaf358373452ca73c286e05db9e6;de;;;1.1.;;;Ein Prototyp-Such-Toolkit Informationsüberflutung ist heute Realität. Wir sorgen uns nicht mehr um die Beschaffung ausreichender Datenmengen, sondern darum, die uns zur Verfügung stehenden riesigen Datenmengen zu sichten und zu verstehen. Zu diesem Zweck haben wir ein integriertes Toolkit zur Informationsverarbeitung entwickelt, das dem Benutzer eine Vielzahl von Möglichkeiten bietet, seine Informationen anzuzeigen. Die Ansichten umfassen Keyword-Suchergebnisse, ein domänenspezifisches Ranking-System, das die adaptive Erfassung von Themenvokabularen ermöglicht, um die Suchergebnisse anzupassen und zu fokussieren, Navigationsseiten zum Durchsuchen und eine georäumliche und zeitliche Komponente, um Ergebnisse in Zeit und Raum zu visualisieren und „was“ bereitzustellen wenn“ Szenario spielt. Die Integration der Informationen aus verschiedenen Tools und Quellen bietet dem Benutzer zusätzliche Informationen und eine weitere Möglichkeit, die Daten zu analysieren. Ein Beispiel für die Integration wird anhand von Berichten über die Vogelgrippe (Vogelgrippe) veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01141-2_4 e9138520a1663210d0f5892c8bd67a4f;de;;;1.1.;;;Das kumulative Kontinuitätsmodell der Persönlichkeitsentwicklung: Ein Gleichgewicht zwischen Kontinuität und Veränderung der Persönlichkeitsmerkmale im gesamten Lebensverlauf finden Die Forschung hat gezeigt, dass die Konsistenz von Persönlichkeitsmerkmalen häufiger vorkommt als die Veränderung von Persönlichkeitsmerkmalen und dass eine Veränderung der Persönlichkeitsmerkmale selten dramatisch ist. Dieser Befund führt zu einem theoretischen Dilemma, denn Merkmalstheorien liefern keine Erklärung für die Persönlichkeitsveränderung. Alternativ konzentrieren sich die meisten Theorien der Erwachsenenentwicklung auf die Veränderung, aber nicht auf die Veränderung der Persönlichkeitsmerkmale. Um dieses theoretische Übersehen zu adressieren, beschreiben wir zunächst die Mechanismen, die die Persönlichkeitskontinuität fördern, wie die Umwelt, genetische Faktoren, psychologische Funktionen und Mensch-Umwelt-Transaktionen. Dann beschreiben wir das Gegenstück zur Kontinuität, die Mechanismen, die Persönlichkeitsveränderungen ermöglichen, wie z. Wir argumentieren, dass Identitätsprozesse sowohl die Mechanismen der Kontinuität als auch des Wandels erklären können und die Grundlage für eine Theorie bilden, die die empirischen Befunde zur Entwicklung von Persönlichkeitsmerkmalen im Lebensverlauf erklärt. Konkret argumentieren wir, dass die Entwicklung einer starken Identität und bestimmte Facetten der Identitätsstruktur, wie Identitätserlangung und -sicherheit, mit vielen Mechanismen, die die Persönlichkeitskontinuität fördern, positiv zusammenhängen. Darüber hinaus argumentieren wir, dass eine unbeabsichtigte Konsequenz der Identitätsentwicklung darin besteht, sich in Kontexte zu begeben, die eine Persönlichkeitsveränderung fördern, wie beispielsweise neue Rollen oder ein anderer Freundeskreis.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-0357-6_9 a25a10ada5d560f9f672d518abc23314;de;;;1.1.;;;Bildverbesserung mit Contourlet-Transformation ohne Unterabtastung In diesem Beitrag wird eine neuartige Bildverbesserungstechnik vorgestellt, die in der medizinischen und biologischen Bildgebung weit verbreitet zur Verbesserung der Bildqualität eingesetzt werden kann. Das Hauptziel der Verbesserung besteht darin, ein Bild so zu bearbeiten, dass das Ergebnis für eine bestimmte Anwendung besser geeignet ist als das Originalbild. Die Bildverbesserung verbessert schwache Kanten oder schwache Merkmale in einem Bild, während starke Kanten oder Merkmale beibehalten werden. Alle existierenden Verfahren zur Bildverbesserung zerlegen Bilder auf trennbare Weise und können daher die geometrischen Informationen im Transformationsbereich nicht verwenden, um schwache Kanten von Rauschen zu unterscheiden. Daher verstärken sie entweder Rauschen oder führen sichtbare Artefakte ein, wenn sie auf verrauschte Bilder angewendet werden. Die Non-Subsampled Contourlet-Transformation, die auf Non-Subsampled-Pyramiden und Non-Subsampled-Richtfilterbänken aufgebaut ist, kann eine verschiebungsinvariante direktionale Mehrfachauflösungsbilddarstellung bereitstellen. Die geometrischen Informationen werden Pixel für Pixel aus den nicht unterabgetasteten Contourlet-Transformationskoeffizienten gesammelt. Das vorgeschlagene Verfahren erzielte bessere Anreicherungsergebnisse als die Wavelet-basierten Anreicherungsverfahren.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-44641-7_41 76dd9bdebdf5c3de91b1c0685cb63b37;de;;;1.1.;;;Die Informationspolitik in der EU: Der Fall der europäischen Agenturen Vor 15 Jahren prägte Majone (1997) den Begriff „Regulierung durch Information“, um den zunehmenden Einfluss der EU-Agenturen auf den europäischen Entscheidungsprozess durch ihre Informations- und Vernetzungsrolle zu beschreiben. Seitdem beobachten wir ein stetig wachsendes wissenschaftliches Interesse am Prozess der Agenzifizierung in der Europäischen Union. Agenturen werden aus einer Vielzahl von Perspektiven untersucht, von ihrer Entstehung bis hin zu Fragen ihrer Legitimität, Rechenschaftspflicht, Autonomie und Glaubwürdigkeit (z. B. Groenleer 2009, Busuioc 2010). Wir wissen jedoch relativ wenig darüber, wie Agenturen tatsächlich Informationen verarbeiten und wie sich dies auf das „Was“ (d. h. den konkreten Inhalt ihrer Entscheidungen) oder die Autorität und Legitimität auswirkt, die Agenturen bei ihren politischen Prinzipien und Interessengruppen genießen. Dieses Kapitel untersucht Agenturen aus der Perspektive der Informationsverarbeitung als eine Forschungsstrategie, von der man hofft, dass sie dazu beitragen kann, diese Lücke zu schließen. Wir werden dies tun, indem wir zwei intensiv untersuchte Agenturen in der EU – die Europäische Behörde für Lebensmittelsicherheit (EFSA) und die Europäische Arzneimittel-Agentur (EMA) – (erneut) untersuchen und uns kritisch mit einigen Interpretationen und Behauptungen in der wissenschaftlichen Literatur zu EFSA und EMA (zB Kelemen 2002, Krapohl 2004, Borrâs et al. 2007, Gehring und Krapohl 2007, Groenleer 2011).;-;-;-;https://link.springer.com/chapter/10.1057/9781137325419_7 4e38b53dc972f6ab2ca97e87250023c8;de;;;1.1.;;;Wachsamkeit und kognitive Kontrolle: Interaktionen in der räumlichen Stroop-Aufgabe Kognitive Kontrolle über die Informationsverarbeitung kann durch selektive Aufmerksamkeit implementiert werden, ist jedoch oft suboptimal, was sich durch Kongruenzeffekte aus der Verarbeitung irrelevanter Reizmerkmale zeigt. Die Forschung hat gezeigt, dass die Kongruenzeffekte bei einigen Aufgaben größer sind, wenn die Probanden wacher sind, und es wurde vorgeschlagen, dass diese Benachrichtigungs-Kongruenz-Interaktion mit der räumlichen Informationsverarbeitung verbunden sein könnte. Der Autor untersuchte die Allgemeingültigkeit der Interaktion, indem er einen vorregistrierten Satz von vier Experimenten durchführte, in denen die Wachsamkeit in Varianten der räumlichen Stroop-Aufgabe manipuliert wurde, bei der die räumliche Bedeutung eines an einer irrelevanten Position präsentierten Stimulus klassifiziert wurde. Unabhängig von Stimulustyp (Pfeile oder Wörter) und räumlicher Dimension (horizontal oder vertikal) wurden in allen Experimenten signifikante Alarmierungs-Kongruenz-Interaktionen für Reaktionszeiten gefunden. Die Ergebnisse stimmen mit der Annahme überein, dass räumliche Aufmerksamkeit und räumliche Informationsverarbeitung wichtige Quellen der Interaktion sind, mit Auswirkungen auf das Verständnis, wie Wachsamkeit mit kognitiver Kontrolle zusammenhängt.;-;-;-;https://link.springer.com/article/10.3758/s13414-020-01993-5 8d9039aba98f1de47fcfdc96cc825d8f;de;;;1.1.;;;Geschäftsmodellbasierte Finanzbuchhaltung Ein Geschäftsmodell bezieht sich auf eine Handelsstruktur von Stakeholdern sowie eine Handelsstruktur von Aktivitätssystemen. Bei Geschäftsmodellen müssen wir nicht nur die Governance-Beziehungen zwischen Stakeholdern und Aktivitätssystemen berücksichtigen (welcher Stakeholder besetzt welche Aktivitätssysteme und welches Aktivitätssystem gehört zu welchem ​​Stakeholder), sondern auch den Einfluss verschiedener Handelsmodi auf den Handel Struktur. Viele grenzüberschreitende innovative Geschäftsmodelle ergeben sich aus der Addition, Reduzierung, Aufteilung und anschließenden Neugruppierung der ursprünglichen Stakeholder und Aktivitätssysteme. Grenzüberschreitendes Denken über neue Geschäftsmodelle braucht einen neuen Bezugsrahmen für Transaktionspreise,;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7058-2_7 8dd2cfc7817f1f7f49c7f46b13e58fe3;de;;;1.3.;;;Modellierung eines kurzen Alkoholinterventionsdialogs mit MDPs für die Lieferung durch ECAs Dieses Papier beschreibt das Design eines multimodalen gesprochenen Dialogsystems, das Markov-Entscheidungsprozesse (MDPs) verwendet, um es verkörperten, konversationalen virtuellen Gesundheitscoach-Agenten zu ermöglichen, kurze Interventionen zur Änderung des Lebensstils - insbesondere bei übermäßigem Alkoholkonsum - durchzuführen. Sein Beitrag ist zweifach. Erstens ist es der bisher erste Versuch, Techniken zur Optimierung der Politik des stochastischen Dialogs im Bereich des Gesundheitsdialogs zu untersuchen. Zweitens bietet es ein Modell für längere Verzweigungsdialoge (in Bezug auf die Anzahl der Dialogrunden und die Anzahl der Slots) als die üblichen gegenwärtig verfügbaren Dialoginteraktionen zum Ausfüllen von Slots (z. B. Tourismusinformationsbereich). Darüber hinaus bildet das Modell die Grundlage für die Generierung eines reich annotierten Dialogkorpus, der für die Anwendung von auf Reinforcement Learning basierenden Optimierungsverfahren unabdingbar ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40415-3_8 2c6fbd5aef019e43cedd4ee30dd6c99d;de;;;1.3.;;;Ultraschnelle Nichtgleichgewichtsdynamik von Intersubband-Anregungen in quasi-zweidimensionalen Halbleitern Zwischensubbandanregungen spielen eine wichtige Rolle für die Nichtgleichgewichtsträgerdynamik in quasi-zweidimensionalen Halbleitern. In diesem Kapitel werden optische Studien der ultraschnellen Intersubband-Dynamik in Quantentöpfen und Bauelementstrukturen besprochen. Wir diskutieren zunächst die optischen Spektren von Intersubband-Übergängen und die relevanten Streuprozesse von Trägern, Vielteilcheneffekten und Kopplungen an andere Elementaranregungen in Tutorium. Darauf folgt ein kurzer Überblick über experimentelle Techniken, die einen Einblick in die ultraschnelle Intersubband-Dynamik geben. Der Hauptteil des Kapitels widmet sich experimentellen und theoretischen Ergebnissen zur kohärenten Dynamik von Intersubband-Polarisationen und den anschließenden inkohärenten Ladungsträgerrelaxationsprozessen, d. h. Intersubband-Streuung, Thermalisierung und Kühlung von Trägerplasmen. Wir betrachten hauptsächlich das Verhalten von Einkomponenten-Elektronenplasmen in GalnAs/A1 InAs-Mehrfachquantenquellen für Energieabstände zwischen den Subbändern, die größer sind als die Energie longitudinaler optischer Phononen. Insbesondere wird die Rolle der Träger-Träger- und Träger-Phonon-Streuung für die verschiedenen Phasen des Relaxationsszenarios analysiert. Im letzten Teil des Kapitels wird kurz die Physik optoelektronischer Bauelemente diskutiert, die optische Intersubband-Anregungen verwenden, d. h. Photodetektoren für das mittlere Infrarot und den Quantenkaskadenlaser.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0203-2_2 3defcd9b75f1271ad4a7515ada7a8fe4;de;;;1.1.;;;Neuronaler Mechanismus des Abbaus der visuellen Information von der Netzhaut zum V1-Bereich Der Informationsverarbeitungsmechanismus des visuellen Nervensystems ist ein ungelöstes wissenschaftliches Problem, das Neurowissenschaftler seit langem verwirrt. Die Menge an visueller Information wird deutlich verschlechtert, wenn sie nach Eintritt in die Netzhaut das V1 erreicht, dies beeinträchtigt jedoch nicht unsere visuelle Wahrnehmung der Außenwelt. Derzeit sind die Mechanismen des Abbaus von visueller Information von der Netzhaut zu V1 noch unklar. Die aktuelle Studie nutzte dazu die von Marcus E. Raichle zusammengefassten experimentellen Daten, um die neuronalen Mechanismen zu untersuchen, die dem Abbau der großen Datenmenge der topologischen Kartierung von der Netzhaut nach V1 zugrunde liegen, wobei zunächst das Photorezeptormodell herangezogen wurde. Die erhaltenen Ergebnisse zeigten, dass die Bildkantenmerkmale visueller Informationen durch den Faltungsalgorithmus in Bezug auf die Funktion der synaptischen Plastizität extrahiert wurden, wenn visuelle Signale hierarchisch von niedriger zu hoher Ebene verarbeitet wurden. Die visuelle Verarbeitung war durch den visuellen Informationsabbau gekennzeichnet, und dieser Kompensationsmechanismus verkörperte die Prinzipien der Energieminimierung und der Maximierung der Übertragungseffizienz der Gehirnaktivität, die mit den von Marcus E. Raichle zusammengefassten experimentellen Daten übereinstimmten. Unsere Ergebnisse fördern das Verständnis des Informationsverarbeitungsmechanismus des visuellen Nervensystems.;-;-;-;https://link.springer.com/article/10.1007/s11571-020-09599-1 bb924d524b0d1a2ef6b2d254e4305918;de;;;1.1.;;;Emulation des Wahrnehmungssystems des Gehirns zum Zweck der Sensorfusion Dieser Artikel präsentiert ein bionisches Modell, das aus Forschungsergebnissen über das Wahrnehmungssystem des menschlichen Gehirns abgeleitet wurde, um intelligente Sensorfusionssysteme der nächsten Generation zu bauen. Zu diesem Zweck wird ein neues Informationsverarbeitungsprinzip namens neurosymbolische Informationsverarbeitung eingeführt. Bei diesem Verfahren werden sensorische Daten durch sogenannte neurosymbolische Netzwerke verarbeitet. Die grundlegenden Verarbeitungseinheiten neurosymbolischer Netzwerke sind Neurosymbole. Korrelationen zwischen Neurosymbolen eines neurosymbolischen Netzwerks werden anhand von Beispielen erlernt. Die Wahrnehmung basiert auf Sensordaten und auf der Interaktion mit kognitiven Prozessen wie Aufmerksamkeitsfokus, Gedächtnis und Wissen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03202-8_2 70d350caa9f42aee54a61e5accf1c7fc;de;;;1.3.;;;Kreatin-Supplementierung und Sportlerinnen Die Wirkung einer oralen Kreatin (Cr)-Supplementierung auf die Leistungsfähigkeit hat in den letzten Jahren eine beträchtliche Aufmerksamkeit erhalten und hat sich als wirksam erwiesen, sowohl die aerobe als auch die anaerobe Trainingsleistung zu verbessern. Die Mehrheit der Cr-Forschung hat Männer als Probanden verwendet, daher können die für Männer berichteten Ergebnisse nicht unbedingt auf Frauen verallgemeinert werden, und es gab einige Kontroversen über die Wirksamkeit der Cr-Supplementierung zur Verbesserung der Leistung bei hochintensiven Trainings bei Frauen. Forsberg et al. (;-;-;-;https://link.springer.com/chapter/10.1007/978-1-59745-573-2_4 20d5a5d2261ac6adb3f45fbbd98c534c;de;;;1.3.;;;Integrale Optimierungsmethoden für den Datenstrukturkurs Theorie und Praxis „Datenstruktur“ ist eine wichtige Pflichtveranstaltung in der Computerkursgruppe, die recht schwierig und abstrakt ist. In dieser Arbeit schlagen wir entsprechend den Merkmalen der Datenstruktur, denen der Studierenden und den aktuellen Problemen in der Lehre eine Methode vor, eine auf Datenstruktur basierende Kursgruppe aufzubauen und eine experimentelle Lehre mit inkrementellem Entwicklungsgedanken zu gestalten, Theorie und Praxis ganzheitlich zu optimieren, das Lehrziel zu erreichen und eine bessere Lehrwirkung zu erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24775-0_54 7e21bb8087384648e93eaeed94ea8ccc;de;;;1.3.;;;Optimale Bestellentscheidungen für mehrere austauschbare Produkte mit stochastischen Anforderungen Dieses Papier befasst sich mit einem stochastischen Bestandsproblem einer einzelnen Periode mit mehreren Produkten, von denen einige (oder alle) ersetzt werden können, wenn eines nicht auf Lager ist. „Angesichts der Kreuzsubstitutionswahrscheinlichkeiten dieser Produkte besteht das Problem darin, die optimale Bestellmenge jedes Artikels zu finden, die den erwarteten Gewinn pro Periode maximiert. Da die Zielfunktion, die den erwarteten Gewinn einer Periode repräsentiert, im allgemeinen Fall von n Produkten äußerst schwierig zu analysieren ist, schlagen wir eine heuristische Regel vor, die auf der exakten Lösung für den Fall mit zwei Produkten basiert, dessen Lösung bekannt ist. Die Wirksamkeit der Heuristik wird mit den Ergebnissen einer Simulations-Optimierungsstudie verglichen, die die optimale Lösung generieren kann. Ein detailliertes Beispiel mit exponentieller Nachfrage für drei Produkte veranschaulicht die Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82580-4_49 ec686885935de7a66f642d0785b47432;de;;;1.3.;;;Ansatz mit häufigen positiven und negativen Itemsets für die Erkennung von Netzwerkangriffen In letzter Zeit bestand großes Interesse an der Anwendung von Data Mining auf die Erkennung von Eindringversuchen in Computernetzwerke. Ein genaues Netzwerkverkehrsmodell ist für die Netzwerkfestlegung wichtig. Umfangreiches Wissen ist entscheidend für eine bessere Genauigkeit des Netzwerkverkehrsmodells. In diesem Whitepaper wird die Verwendung eines Frequent Positive and Negative (FPN) Itemset-Ansatzes für die Erkennung von Eindringversuchen in den Netzwerkverkehr vorgestellt. Der FPN-Ansatz generiert starke positive und negative Regeln, die wichtige Erkenntnisse für den Aufbau eines genauen Netzwerkverkehrsmodells liefern. Normalerweise werden häufige Itemsets basierend auf der Häufigkeit des Vorhandenseins eines bestimmten Items oder Itemsets generiert, bevor die relevanten Regeln generiert werden. Beim FPN-Ansatz werden jedoch für negative Assoziationsregeln häufig fehlende Itemsets eingeführt. Der FPN-Ansatz hat die Genauigkeit des Netzwerkverkehrsmodells durch die Identifizierung von Volumenanomalien erfolgreich verbessert. Die Experimente wurden an Netzwerkverkehrsdaten an der Universität Kebangsaan Malaysia durchgeführt. Wir berichten auch über experimentelle Ergebnisse über andere Algorithmen wie Rough Set und Naive Bayes. Die Ergebnisse zeigen, dass die Leistung des FPN-Ansatzes mit den Ergebnissen anderer Algorithmen vergleichbar ist. Tatsächlich erzielt der FPN-Ansatz im Vergleich zu anderen Algorithmen bessere Ergebnisse, was darauf hindeutet, dass der FPN-Ansatz ein vielversprechender Ansatz zur Lösung von Problemen bei der Erkennung von Eindringlingen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40567-9_14 7fe84daa415049d7469d5875235509a8;de;;;1.1.;;;Früher robuster Designansatz für beschleunigte Innovationsprozesse in der Automobilindustrie Die Umstellung auf modularisierte Autos führt zu frühzeitigen und präzisen Konzeptentscheidungen für die Entwicklung von Modulen. Viele Moduldefinitionen konzentrieren sich auf die Interaktion zwischen Modulen, um sie aktualisierbar zu machen. Der Fokus liegt hier auf Modulen, die mit unbekannten Restriktionen in Bezug auf Unsicherheit arbeiten müssen. In diesem Beitrag wird der Schwerpunkt auf unbekanntes Auto-Styling in frühen Designphasen gelegt. Aufgrund häufiger Schnittstellenmodifikationen während des Validierungsprozesses des Car-Stylings wird der große Einfluss dieser unbekannten Modulbeschränkung für kinematische Systeme diskutiert. Der systematische Ansatz der Robust Kinematics Optimization wird sukzessive beschrieben und veranschaulicht. Durch die frühzeitige und computergestützte Berücksichtigung von Unsicherheiten ist der Entwickler in der Lage, auch sehr unkonventionelle und innovative Modulkonzepte zu beurteilen. Darüber hinaus wird eine höhere Transparenz bei Konzeptentscheidungen erreicht, da die Folgen von Änderungen in späteren Entwicklungsstadien frühzeitig integriert und validiert wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22182-8_3 287b47c25063ee9e1eb6eec8d0933261;de;;;1.1.;;;Frühe Entwicklung und das Risiko für neurologische Verhaltensstörungen In den letzten Jahrzehnten haben die Erkenntnisse über die Faktoren, die das frühe Risiko für neurologische Verhaltensabweichungen beeinflussen, erheblich zugenommen, nicht zuletzt aufgrund der Entwicklung verfeinerter Modelle zur Konzeptualisierung von Gehirn-Verhaltensbeziehungen ab den frühesten Entwicklungsphasen. Parallel dazu wurden Verfahren entwickelt, die die Beobachtung und Messung der Gehirnaktivität in verschiedenen Zuständen des Organismus und auf verschiedenen Organisationsebenen ermöglichen. Heutzutage werden erhebliche Fortschritte bei der Fähigkeit gemacht, Gehirnprozesse, Zustände und Aktivitäten wie Sprechen und Lesen gleichzeitig zu erfassen. Dies impliziert einen enormen Erklärungsgewinn in Bezug auf das frühe Risiko für neurologische Verhaltensabweichungen im Vergleich zu noch vor einigen Jahrzehnten. Ein besseres Verständnis der Gehirn-Verhaltensbeziehungen in der frühen Ontogenese ist eine Voraussetzung für die Verbesserung der Früherkennung und unserer Möglichkeiten zur Prävention und Behandlung. Vor diesem Hintergrund wird in diesem Kapitel der „Stand der Technik“ bei der Untersuchung des frühen Risikos für neurologische Verhaltensabweichungen diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4507-7_7 40a05423c05b08a4a9347023557d25ff;de;;;1.1.;;;Der Phi-Bot: Ein Roboter, der von einem Schleimpilz gesteuert wird Die Informationsverarbeitung in natürlichen Systemen unterscheidet sich radikal von der aktuellen Informationstechnologie. Dieser Unterschied wird besonders im Bereich der Robotik deutlich, wo sowohl die Organismen als auch die künstlichen Geräte vor einer ähnlichen Herausforderung stehen: der Notwendigkeit, in einer komplexen Umgebung in Echtzeit zu agieren und dies mit Rechenressourcen, die durch Größe und Stromverbrauch stark eingeschränkt sind. Biologische Systeme entwickelten beneidenswerte Rechenfähigkeiten, um mit lauten und rauen Umgebungen fertig zu werden und mit konkurrierenden Lebensformen zu konkurrieren. Die Informationsverarbeitung in biologischen Systemen, vom Einzeller bis zum Gehirn, nutzt direkt die physikalischen und chemischen Prozesse der zellulären und intrazellulären Dynamik, während die in künstlichen Systemen prinzipiell unabhängig von jeglicher physikalischen Umsetzung ist. Die gewaltige Kluft zwischen künstlichen und natürlichen Systemen in Bezug auf die Fähigkeit zur Informationsverarbeitung [1] motiviert die Erforschung biologischer Arten der Informationsverarbeitung. Hybride Artefakte beispielsweise versuchen, die theoretischen und physikalischen Grenzen der Informationsverarbeitung in Festkörperrealisierungen digitaler von Neumann-Maschinen zu überwinden, indem sie die Selbstorganisation natürlich gewachsener Systeme in technischen Umgebungen ausnutzen [2, 3].;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84882-530-7_10 98eb86f64da779a49044bdcd27d80022;de;;;1.1.;;;Ein biologisch inspiriertes Modell für verdeckte Muster In dieser Arbeit wird ein biologisch inspiriertes Modell für teilweise verdeckte Muster vorgeschlagen. Das Modell basiert auf der Hypothese, dass im menschlichen visuellen System okkludierende Muster eine Schlüsselrolle bei der Erkennung sowie bei der Rekonstruktion der internen Repräsentation der okkludierenden Teile eines Musters spielen. Das vorgeschlagene Modell wird mit einem bidirektionalen hierarchischen neuronalen Netz realisiert. In diesem Netzwerk interagieren Top-Down-Hinweise, die durch direkte Verbindungen von den niedrigeren zu höheren Hierarchieebenen erzeugt werden, mit den Bottom-Up-Informationen, die aus den nicht verdeckten Teilen generiert werden, um verdeckte Muster zu erkennen. Darüber hinaus modulieren Positionshinweise sowohl der verdeckten als auch der verdeckten Muster, die separat, aber im gleichen Netzwerk berechnet werden, die Top-Down- und Bottom-Up-Verarbeitung, um die verdeckten Muster zu rekonstruieren. Simulationsergebnisse unterstützen die vorgestellte Hypothese sowie die Effektivität des Modells, eine Lösung zur Erkennung verdeckter Muster bereitzustellen. Das Verhalten des Modells entspricht dem bekannten menschlichen Verhalten auf den verdeckten Mustern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24955-6_11 667b6ba1443feff508d08dfc46c83eea;de;;;1.1.;;;Aktuelle und wiederkehrende Fragen bei der Einschätzung von Intelligenz und Persönlichkeit In diesem Kapitel diskutieren wir aktuelle Trends in der Einschätzung von Intelligenz und Persönlichkeit, von denen wir glauben, dass sie Auswirkungen auf die Zukunft dieser Disziplinen haben. Die Gegenwart wird jedoch immer von der Vergangenheit beleuchtet, ja manchmal ist sie nur im Kontext vorhergehender Ereignisse verständlich. Daher identifizieren wir, wenn möglich, einige der Fäden, die aktuelle Kontroversen mit früheren Debatten verbinden. Obwohl wir davon ausgehen, dass die von uns identifizierten Themen zukünftige Entwicklungen mitgestalten werden, verzichten wir weitestgehend auf konkrete Spekulationen über die Zukunft der Intelligenz- und Persönlichkeitsbewertung. Wir lesen frühere Vorhersagen anderer über die Zukunft der psychologischen Theorie und Forschung so, dass diejenigen, die mehr als einfache Extrapolationen sind, im Rückblick normalerweise bestenfalls charmant naiv erscheinen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-5571-8_21 caa51c81070dcc41d7e0f3cc85a809b9;de;;;1.3.;;;Statistische Schlafmustermodellierung zur Beurteilung der Schlafqualität basierend auf Schallereignissen Ein guter Schlaf ist wichtig für ein gesundes Leben. In letzter Zeit sind mehrere Schlafgeräte für Verbraucher auf den Markt gekommen, die behaupten, dass sie eine persönliche Schlafüberwachung bieten können, jedoch benötigen viele von ihnen zusätzliche Hardware oder es fehlen wissenschaftliche Beweise für ihre Zuverlässigkeit. In dieser Arbeit haben wir eine neuartige Methode vorgeschlagen, um die Schlafqualität durch im Schlafzimmer aufgezeichnete Schallereignisse zu beurteilen. Wir verwendeten die subjektive Schlafqualität als Trainingslabel, kombinierten mehrere Ansätze des maschinellen Lernens, einschließlich Kernelized Self Organizing Map, Hierarchical Clustering und Hidden Markov Model, erhielten die Modelle, um das Schlafmuster einer bestimmten Qualitätsstufe anzuzeigen. Das vorgeschlagene Verfahren unterscheidet sich von herkömmlichen schlafphasenbasierten Verfahren und bietet einen neuen Aspekt der Schlafüberwachung, dass Schallereignisse direkt mit dem Schlaf einer Person korreliert sind.;-;-;-;https://link.springer.com/article/10.1007/s13755-017-0031-z 427c208a7735030dca1551705c754fca;de;;;1.1.;;;Biophysik des Bewusstseins: Ein skaleninvarianter akustischer Informationscode eines superfluiden Quantenraums leitet die mentalen Eigenschaften des Universums In diesem Kapitel postulieren wir ein integrales Konzept der Informationsverarbeitung im Universum auf der Grundlage eines neuen biophysikalischen Prinzips, der Generalized Music (GM)-Skala der EMF-Frequenzen. Metaanalysen der aktuellen biomedizinischen Literatur zeigten das Vorhandensein eines ausgeprägten Musters diskreter EMF-Frequenzbänder in einer Vielzahl von belebten und nicht belebten Systemen. Der zugrundeliegende Algorithmus harmonischer Solitonwellen lieferte eine neuartige konzeptionelle Schnittstelle zwischen lebenden und nicht-lebenden Systemen, die sowohl für die Bereiche der Hirnforschung als auch der biologischen Evolution von Bedeutung ist. Wir glauben, dass die Natur von resonierenden Quanteneinheiten geleitet wird, die mit Quantenvakuumfluktuationen eines unmittelbar bevorstehenden Nullpunktsenergiefeldes (ZPE) zusammenhängen, das auch als suprafluider Quantenraum (SQS) angesehen wird. Da der gesamte menschliche Organismus, einschließlich des Gehirns, in dieses dynamische Energiefeld eingebettet ist, wird eine Pilotwellen-gesteuerte Supervenience der Gehirnfunktion konzipiert. Umgekehrt kann das Gehirn diskrete Informationszustände als individuelle Gedächtnisspuren in das ZPE-Feld schreiben. Beide Informationsflüsse können mit einem holofraktalen Gedächtnisarbeitsraum zusammenhängen, der mit dem Gehirn verbunden, aber nicht auf dieses reduziert werden kann, der als skaleninvariantes mentales Attribut der Realität agiert. Unser Konzept adressiert daher das früher postulierte „harte Problem“ in der Bewusstseinsforschung. Der vorgeschlagene feldrezeptive Arbeitsbereich integriert vergangene und (erwartete) zukünftige Ereignisse und kann die ultraschnellen Gesamtreaktionen des Gehirns sowie den Ursprung von Qualia erklären. Es wurde gezeigt, dass die Informationsverarbeitung im Gehirn durch die Ausbreitung von Hydronium-(Proton/Wasser)-Ionen in wässrigen Kompartimenten weitgehend erleichtert wird. Die Hydroniumionen bewegen sich frei in einem hexagonal organisierten H;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7253-1_8 b4a714c7a9e48af1f8f028eb9ca7e1bd;de;;;1.1.;;;Quantentheorie und die Natur des Bewusstseins Unser Interesse konzentriert sich auf die Idee, dass Bewusstsein ein mächtiges Handelndes Wesen ist. Für diese Idee existiert bisher kein wissenschaftliches Konzept. Das liegt nicht an Problemen der Psychologie oder der Hirnforschung, sondern an widerspenstigen Theorien der modernen Physik. Deshalb müssen wir auf dem Gebiet der Physik nach einer Lösung suchen. Eine Lösung kann in einem neuen Verständnis der Grundlagen der physikalischen Theorie gefunden werden. Dies könnte durch abstrakte und absolute Quanten-Informationsbits (AQI-Bits) gegeben sein. Um das weit verbreitete Missverständnis von „Information“ als „sinnvoll“ zu vermeiden, war es notwendig, ein neues Wort für die bedeutungslosen AQI-Bits zu finden: Die AQI-Bits bilden eine Quantenvorstruktur namens „Protyposis“ (griechisch: „pre- Entstehung“), aus denen ausgehend von energetischen und materiellen Elementarteilchen reale Objekte gebildet werden können. Die Protyposis AQI-Bits bieten eine Vorstruktur für alle Entitäten in den Naturwissenschaften. Sie sind die grundlegenden Wesenheiten, aus denen einerseits die physische Natur des Gehirns und andererseits die mentale Natur des Bewusstseins während der kosmologischen und der folgenden biologischen Evolution entstanden sind. Ein tieferes Verständnis der Quantenstrukturen kann helfen, den Widerstand gegen die Quantentheorie im Bereich der Hirnforschung und des Bewusstseins zu überwinden. Der Schlüssel zum Verständnis ist das Konzept der Protyposis, das eine abstrakte Quanteninformation ohne eine bestimmte Bedeutung bedeutet. Mit den AQI-Bits der Protyposis können sowohl masselose als auch massive Quantenteilchen konstruiert werden. Sogar Quanteninformationen mit besonderen Bedeutungen, beispielsweise grammatikalisch formulierte Gedanken, könnten schließlich erklärt werden. Solange die fundamentale Grundlage der Quantentheorie missverstanden wird, dass sie aus einer Mannigfaltigkeit einiger kleiner Objekte wie Atome, Quarks oder Strings besteht, hat das Problem des Verständnisses des Bewusstseins keine Lösung. Wenn wir stattdessen die Quantentheorie als auf wirklich einfachen Quantenstrukturen basierend verstehen, gäbe es keine grundlegenden Probleme mehr für das Verständnis des Bewusstseins.;-;-;-;https://link.springer.com/article/10.1007/s10699-017-9536-9 590bfeca82ed3884290b55c3f551bc03;de;;;1.1.;;;Informationen: Kurs und Regress Das Hauptziel dieser Arbeit ist es, für den Autor selbst und möglicherweise auch für die breitere Gemeinschaft von Informationstheoretikern Richtlinien zu finden, entlang derer die verschiedenen Ideen zum Thema Information konzeptionell angeordnet werden können. An der Oberfläche scheint es keine grundlegende Einheit zu geben, die diese Papiere verbindet, meine ist keine Ausnahme. Jeder Autor nimmt diese oder jene besondere Bedeutung des Begriffs „Information“ an und diskutiert dann wiederum eine folgerichtige Zwillingsevolution durch geologische und kulturelle Zeitalter, also die Genese und das Erkennen von Informationen. Was ist dieses Ding „Information“? Wir könnten stattdessen vielleicht „wissenschaftliche Informationen“ sagen. Dieser Fachbegriff wurde von Leon Brillouin (1956) eingeführt, der vielleicht als erster systematisch über den Unterschied zwischen „Information“ im engeren Sinne eines Maßes und dem anderen, über das alle reden, nachgedacht hat. Tatsächlich schlug er vor, entropische („gebundene“) und „freie“ Informationen zu unterscheiden, und argumentierte, dass letztere nur willkürlich seien. Informationen sind also alles, was wir uns wünschen. Nun überdenke ich die Frage in einem noch größeren Zusammenhang, um nach einem anderen Sinn zu suchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-77211-5_2 3bbff7211a54719d15ae648a9cbbc5e4;de;;;1.1.;;;Kognitive Dysfunktionen bei Multipler Sklerose Kognitive Funktionen sind häufig von den pathologischen Prozessen der MS interessiert, wobei der Prozentsatz der beeinträchtigten Patienten zwischen 45 und 70 liegt. Diese Dysfunktionen führen zu erheblichen Einschränkungen in familiären und sozialen Beziehungen sowie in beruflichen Aktivitäten. Nach einer langen Zeit der Vernachlässigung ist das Interesse von Forschern und Klinikern an kognitiven Funktionen von MS-Patienten in den letzten 30 Jahren stetig gestiegen. Tatsächlich wissen wir, dass einige kognitive Domänen (komplexe Aufmerksamkeit, Informationsverarbeitungsgeschwindigkeit, Arbeitsgedächtnis, Gedächtnis und Lernen, exekutive und visuell-räumliche Funktionen) häufiger beteiligt sind als andere (Grundaufmerksamkeit, Sprache, allgemeine Intelligenz). Neuere Forschungen haben die quantitativen und qualitativen Merkmale kognitiver Dysfunktionen genauer untersucht: Beeinträchtigungen sowohl der Kodierungs- als auch der Abrufprozesse scheinen die bei MS-Patienten so häufig festgestellten Gedächtnis- und Lernstörungen zu verursachen, Dysfunktionen der Informationsverarbeitungsgeschwindigkeit treten als die häufigste und früheste auf Folge von MS-bedingten Schäden und neuropsychologischen Tests, die wie dem Symbol Digit Modalities Test untersucht werden, scheint die Verarbeitungsgeschwindigkeit das empfindlichste Werkzeug für das Vorliegen einer kognitiven Beeinträchtigung zu sein, visuell-räumliche kognitive Funktionen sind häufiger als bisher angenommen beteiligt, auch bei Patienten ohne signifikante visuelle Funktionen “ Beeinträchtigung, Sprache und allgemeine Intelligenz sollten eingehender untersucht werden, bevor sichergestellt wird, dass sie relativ verschont bleiben. Auch wenn wichtige Fortschritte bei der Identifizierung und dem Verständnis kognitiver Funktionen bei MS-Patienten erzielt wurden, müssen die Untersuchungen fortgesetzt werden, da eine tiefere Kenntnis dieser Aspekte die Möglichkeit erhöht, Strategien zur Behebung der Folgen kognitiver Dysfunktionen zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-88-470-2676-6_17 86b4acfd4f54d3be4ba21993fd95e241;de;;;1.1.;;;Zur Äquivalenz von Standard-Inferenzverfahren Statistische Multiparametermodelle führen zu einigen schwierigen Problemen bei der statistischen Inferenz. Der übliche Ansatz besteht darin, die Inferenzprozedur in eine Sequenz von Prozeduren zu zerlegen, von denen jede eine kleine Teilmenge der Parameter umfasst. Das klassische Beispiel ist die Analyse der Varianztrennung der Komponenten des linearen Modells mit normalem Fehler.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-1436-6_2 a01bbe563fb71d53bc2166e9512c2fb2;de;;;1.3.;;;Lineare Rekonstruktionen und die Analyse der stabilen Abtastrate Die Theorie des Sampling und der Rekonstruktion von Daten hat ein breites Anwendungsspektrum und eine reiche Sammlung von Techniken. Ein Kernproblem vieler Methoden ist die Schätzung der Anzahl der benötigten Proben, um eine stabile und genaue Rekonstruktion zu gewährleisten. Dies kann oft durch die;-;-;-;https://link.springer.com/article/10.1007/BF03549616 0d7b9a38fdb4557391dd13be176610e2;de;;;1.3.;;;Die Konstruktion eines Modells für medizinische Kosten und Arbeit (MEDIKA) In diesem Beitrag werden Schätzergebnisse von Gleichungen vorgestellt, die Kapazität, Konsum und Beschäftigung in einem Großteil des somatischen Gesundheitssektors in den Niederlanden erklären. Diese Gleichungen sind hilfreich, um die Funktionsweise des niederländischen Gesundheitssektors zu verstehen. Sie tragen zu zuverlässigeren Schätzungen der zukünftigen Kosten und Beschäftigung bei.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-2051-4_9 4d992c0c5edfa6b1fcdc7d8d37dcc0f0;de;;;1.3.;;;Der Effekt der Normalisierung für den negativen Auswahlalgorithmus für reelle Werte Die vorläufigen Informationen der Daten, die in 0 und 1 normalisiert werden, sind für ein genaues Data-Mining-Ergebnis, einschließlich eines negativen Auswahlalgorithmus für reale Werte, unerlässlich. Als Einklassenklassifizierung ist während der Normalisierung nur die Eigenprobe verfügbar, daher besteht weniger Vertrauen, dass sie das gesamte Problem vollständig darstellt, wenn die Nicht-Eigenprobe unbekannt ist. Das Problem „außerhalb des Bereichs“ tritt auf, wenn die Werte der überwachten Daten die Grenze als Einstellung in der Normalisierungsphase überschreiten. Diese Studie zielte darauf ab, den Effekt der Normalisierungstechnik zu untersuchen und den zuverlässigsten Normalisierungsalgorithmus für den Realwert-Negativauswahlalgorithmus zu identifizieren, hauptsächlich wenn das Nicht-Selbst nicht verfügbar ist. Drei Normalisierungsalgorithmen – die Min-Max-, Soft-Max-Skalierung und Z-Scores wurden für das Experiment ausgewählt. Vier universelle Datensätze wurden normalisiert und die Leistung jedes Normalisierungsalgorithmus in Bezug auf den Realwert-Negativ-Auswahlalgorithmus wurde basierend auf fünf wichtigen Leistungsmetriken gemessen – Erkennungsrate, Spezifität, Fehlalarmrate, Genauigkeit und Anzahl der Detektoren. Das Ergebnis zeigt, dass die negative Auswahl des Realwerts stark von der Art des Normalisierungsalgorithmus abhängig ist, wobei die Auswahl eines geeigneten Normalisierungsansatzes die Erkennungsleistung verbessern kann. Der Min-Max-Algorithmus ist der zuverlässigste Algorithmus für eine negative Auswahl des Realwerts, wenn er durchweg eine gute Erkennungsleistung liefert. Ähnlich dem Z-Score hat es auch eine ähnliche Fähigkeit, jedoch scheint min max ein besserer Ansatz in Bezug auf höhere Spezifität, niedrigere Fehlalarmrate und weniger Detektoren zu sein. Inzwischen hat sich herausgestellt, dass die Soft-Max-Skalierung für einen negativen Auswahlalgorithmus mit reellen Werten nicht geeignet ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40567-9_17 446b767bbd2ffa67c913722a4b689eae;de;;;1.3.;;;Probabilistische Zufallsprojektionen und Sprecherverifizierung Biometrie ist anfällig für Probleme mit nicht widerrufbaren und Datenschutzverletzungen. Multiple Random Projections (MRP) wurde als einer der stornierbaren biometrischen Ansätze in der Gesichtserkennung eingeführt, um diese Probleme anzugehen. Diese Technik ist jedoch nur auf biometrische 1D-Merkmalsvektoren mit fester Länge anwendbar, scheiterte jedoch bei Merkmalen unterschiedlicher Größe, wie z. Außerdem kann eine einfache Matching-Metrik, die in MRP verwendet wird, keine zufriedenstellende Verifizierungsleistung bieten. In diesem Papier schlagen wir eine Variante von MRP vor, die als Probabilistic Random Projections (PRP) in der textunabhängigen Sprecherverifikation geprägt ist. Das PRP repräsentiert das Sprachmerkmal im 2D-Matrixformat und die Sprechermodellierung wird durch das Gaussian Mixture Model implementiert. Die Formulierung wird in zwei Szenarien (legitimes und gestohlenes Token) unter Verwendung der YOHO-Sprachdatenbank getestet. Daneben werden auch gewünschte Eigenschaften wie Einwegtransformation und Diversität untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74549-5_47 234ac7a31c5daba384fc0dc2df6bc5e8;de;;;1.1.;;;Die Anwendung von Visual Analytics auf finanzielle Entscheidungsfindung und Risikomanagement: Hinweise aus der Verhaltensökonomie Zu verstehen, wie Einzelpersonen und Organisationen unter Unsicherheit und mit unterschiedlichen Informationseinstellungen finanzielle Entscheidungen treffen, ist von grundlegender Bedeutung für die Theorie und Praxis des Informationsmanagements. Aufgrund von Einschränkungen der kognitiven Fähigkeiten und Problemen der Informationsüberflutung werden komplexe Informationsmengen möglicherweise nicht vollständig verstanden, was zu einer suboptimalen wirtschaftlichen Entscheidungsfindung führt. Wir haben Visual Analytics (VA) angewendet, die es Benutzern ermöglicht, interaktiv Informationen aus großen Informationsmengen zu entdecken, um den finanziellen Entscheidungsprozess zu verbessern. Mit einer experimentellen Methodik finden wir Beweise dafür, dass VA die Kosten für die Beschaffung von Informationen reduziert, Entscheidungen verbessert und das Vertrauen der Benutzer in eine Reihe verschiedener risikobehafteter finanzieller Entscheidungsaufgaben erhöht. Dies ist ein im Entstehen begriffenes Forschungsgebiet, und es sind zusätzliche Arbeiten erforderlich, um VA-Instrumente für die finanzielle Entscheidungsfindung und das Risikomanagement zu entwickeln und zu bewerten. Leitlinien für bewährte Verfahren für die Präsentation komplexer Informationsmengen können nur durch eine gründliche Bewertung der Auswirkungen der Informationspräsentation auf die tatsächliche Auswahl entstehen. Darüber hinaus ist der Einfluss von VA auf kollaborative Entscheidungsumgebungen nicht vollständig verstanden. Die Zukunft der angewandten VA für finanzielle Entscheidungsfindung und Risikomanagement muss ein interdisziplinäres Team von Verhaltensökonomen, VA-Forschern, Informatikern und Kognitionswissenschaftlern einbeziehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32232-7_5 14a5a974dc7512e8d2a4ce35dbc92d04;de;;;1.1.;;;Vergleich des Kapazitätskoeffizienten und der Dual-Task-Bewertung der visuellen Multitasking-Workload Die Analyse des Kapazitätskoeffizienten bietet einen theoretisch fundierten alternativen Ansatz zu subjektiven Messungen und der Bewertung der mentalen Arbeitsbelastung durch Doppelaufgabeninterferenz. Die Arbeitsbelastungseffizienz ist ein Modellierungskonstrukt der menschlichen Informationsverarbeitung, das als die Effizienz definiert ist, mit der das System auf die Zunahme der Anzahl kognitiver Prozesse reagiert. In diesem Papier untersuche ich die Beziehung zwischen der Kapazitätskoeffizientenanalyse der Arbeitslasteffizienz und den Maßen der Reaktionszeit auf Interferenzen bei zwei Aufgaben. Ich untersuche, wie die relativ einfachen Annahmen, die der Analyse des Kapazitätskoeffizienten zugrunde liegen, denen entsprechen, die bei der Bewertung der Arbeitsbelastung durch Doppelaufgabeninterferenz gemacht werden. Für die Untersuchung von visuellem Multitasking ermöglicht die Kapazitätskoeffizientenanalyse einen Vergleich des visuellen Informationsdurchsatzes, wenn die Anzahl der Aufgaben von einer auf zwei auf eine beliebige Anzahl gleichzeitiger Aufgaben ansteigt. Durch die Verwendung von Basismodellen, die aus Transformationen der Antwortzeitverteilung abgeleitet wurden, ermöglicht die Kapazitätskoeffizientenanalyse theoretisch fundierte Interpretationen der Arbeitsbelastung. Ich veranschauliche die Verwendung von Kapazitätskoeffizienten für visuelles Multitasking im Vergleich zur Dual-Task-Interferenzanalyse an Beispieldaten aus dynamischem Multitasking in der modifizierten Multi-Attribute Task Battery.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-58625-0_1 f77a64b36c4af4927b8e3abeab109203;de;;;1.1.;;;Application Rough setzt Theorie auf Ordinalskala-Daten zur Entdeckung von Wissen Die grobe Mengenlehre wurde in vielen Bereichen wie der Wissensfindung angewendet und hat die Fähigkeit, mit unvollständigen, ungenauen oder inkonsistenten Informationen umzugehen. Die traditionelle Assoziationsregel, die festgelegt werden sollte, um zu vermeiden, dass sowohl nur triviale Regeln beibehalten als auch interessante Regeln nicht verworfen werden. In diesem Artikel werden die neuen Data-Mining-Techniken auf ordinalskalierte Daten angewendet, die die Unsicherheit im Klassifizierungsprozess bewältigen können. Das Ziel der Forschung ist es, ein neues Assoziationsregelkonzept bereitzustellen, das ordinale Skalendaten verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17537-4_63 e035a93f9d09d0629dc04cde301b835f;de;;;1.1.;;;VLSI-Systeme mit neuromorphem Lernen: Eine Übersicht Carver Mead führte „neuromorphic engineering“ [1] als interdisziplinären Ansatz zum Design biologisch inspirierter neuronaler Informationsverarbeitungssysteme ein, bei dem neurophysiologische Modelle der Wahrnehmung und Informationsverarbeitung in biologischen Systemen auf analoge VLSI-Systeme abgebildet werden, die nicht nur deren Funktionen emulieren, sondern auch ähneln ihrer Struktur [18]. Die Motivation für die Emulation neuronaler Funktionen und Strukturen in analoger VLSI ist die Erkenntnis, dass anspruchsvolle Aufgaben der Wahrnehmung, Klassifikation, Assoziation und Kontrolle, die von lebenden Organismen erfolgreich ausgeführt werden, nur in künstlichen Systemen mit einem ihrer Struktur und Organisation entsprechenden Implementierungsmedium gelöst werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-585-28001-1_17 c812aa87530743e7b9957ea0c9dcd530;de;;;1.1.;;;Zusammenführen individuell erlernter optimaler Ergebnisse zur Beschleunigung der Koordination Durch Zusammenführen der individuell erlernten Optimalwertfunktionen von Agenten können Agenten ihre optimalen Richtlinien in einem Multiagentensystem lernen. Vorkenntnisse der Aufgabe werden verwendet, um sie in mehrere Teilaufgaben zu zerlegen, und diese Zerlegung reduziert die Zustands- und Aktionsräume stark. Die Optimalwertfunktionen jeder Unteraufgabe werden durch den MAXQ-Q[1]-Algorithmus gelernt. Durch die Definition der unteren und oberen Schranke der Wertfunktionen der gesamten Aufgabe schlagen wir einen neuartigen Online-Multiagenten-Lernalgorithmus LU-Q vor, und LU-Q beschleunigt das Lernen der Koordination zwischen mehreren Agenten durch Aufgabenzerlegung und Aktionsbereinigung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27772-9_64 95dcb950b45174b8224a10cd7c38722c;de;;;1.1.;;;Die Triple CAB-Intervention für Erwachsene mit schwerer/schwerwiegender geistiger Behinderung zur Verbesserung der Wachstumschancen und Lebensqualität In Übereinstimmung mit der Theorie des Kompensationsalters (CAT, Lifshitz-Vahav, 2015) sollten Erwachsene mit schwerer oder tiefgreifender ID trotz der Schwere ihrer Behinderung und trotz ihres höheren chronologischen Alters nach der vermeintlich kritischen Phase der Adoleszenz als zugänglich für Veränderungen angesehen werden. Dieses Kapitel liefert empirische Belege für die Behauptung, dass auch Erwachsene mit schwerem und tiefgreifendem ID von einer Intervention profitieren können, die auf dem Triple CAB (Kognition, Affekt, Verhalten)-Modell basiert, das nicht nur das Training adaptiver Verhaltenskompetenzen, sondern auch systematisch konzipierte Vermittlungsbemühungen umfasst includes drei Kompetenzbereiche zu fördern. In diesem Kapitel wird untersucht, wie das CAB-Modell erstmals auf diese einzigartige Population in zwei Rehabilitationszentren für Erwachsene mit schwerer und tiefgreifender ID angewendet wurde, indem die Mitarbeiter-Klienten-Interaktionen genutzt wurden, um die kognitiven Funktionen (das C in CAB) und die affektiven Fähigkeiten der erwachsenen Patienten zu vermitteln bestehend aus Werten und Autonomie (das A in CAB) und die Selbstregulation des Verhaltens während der Aufgabenerfüllung (das B in CAB). Die Erwachsenen, die an der Intervention teilnahmen, verbesserten ihre kognitiven, emotionalen und Verhaltenskompetenzen, dann wurde das Triple CAB für die Implementierung mit diesen herausfordernden Populationen mit schweren und tiefgreifenden IDs weiterentwickelt. Es werden praktische Empfehlungen für verschiedene Anwendungen des Triple-CAB-Ansatzes in Umgebungen für diese schwierigeren Populationen gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-38352-7_5 8f522728f511d5afc2e91b898e25e419;de;;;1.1.;;;Gegenwart und Zukunft der Qualimetrie als wissenschaftliche Disziplin Der Status der Qualimetrie als Wissenschaft ist begründet. Die Zusammenhänge zwischen Qualimetrie und Systemologie werden definiert. Der Platz der Qualimetrie unter den Qualitätskontrollmethoden wird identifiziert. Trends in der Qualimetrie werden formuliert.;-;-;-;https://link.springer.com/article/10.3103/S0147688214010122 632f7caa86bca8d15238f7ade8018c22;de;;;1.3.;;;Robuste Kooperation vernetzter Fahrzeugsysteme mit eigenwertbegrenzten Interaktionstopologien bei ungewisser Dynamik Diese Studie stellt eine verteilte H-unendlich-Steuerungsmethode für unsichere Platoons mit dimensions- und strukturell unbekannten Interaktionstopologien vor, vorausgesetzt, die zugehörigen topologischen Eigenwerte sind durch einen vordefinierten Bereich begrenzt durch unsichere Systeme dritter Ordnung mit beschränkten Störungen. Ausgehend von der Eigenwertzerlegung topologischer Matrizen wandeln wir das Platoon-System durch Anwendung einer linearen Transformation in einen normbeschränkten unsicheren Teil und einen diagonal strukturierten bestimmten Teil um. Wir verwenden dann eine gängige Lyapunov-Methode, um einen verteilten H-Infinity-Controller zu entwerfen. Numerisch sollen zwei lineare Matrixungleichungen entsprechend den minimalen und maximalen Eigenwerten gelöst werden. Der resultierende Controller kann Interaktionstopologien mit Eigenwerten tolerieren, die in einem bestimmten Bereich liegen. Das vorgeschlagene Verfahren kann auch Robustheitsleistung und Störungsdämpfungsfähigkeit für das geschlossene Zugsystem sicherstellen. Hardware-in-the-Loop-Tests werden durchgeführt, um die Wirksamkeit unserer Methode zu validieren.;-;-;-;https://link.springer.com/article/10.1007/s11465-018-0486-x 9c755133158de5c2725ba5edd81166f2;de;;;1.3.;;;Ein System zum Abgleichen mathematischer Formeln, die während einer Vorlesung gesprochen werden, mit denen, die auf dem Bildschirm zur Verwendung bei der Ferntranskription angezeigt werden Es wird ein System zum Extrahieren und Abgleichen von mathematischen Formeln beschrieben, die mündlich während einer Vorlesung präsentiert werden, mit denen, die gleichzeitig auf dem Bildschirm des Vorlesungsraums angezeigt werden. Jede vom Dozenten gesprochene und auf dem Bildschirm angezeigte mathematische Formel wird extrahiert und dem Schreiber gezeigt. Die Untersuchung ergab, dass in einer Vorlesung, in der viele mathematische Formeln präsentiert wurden, etwa 80% davon sowohl gesprochen als auch auf dem Bildschirm angezeigt wurden, was bedeutet, dass das System einem Schreiber helfen kann, bis zu 80% der präsentierten Formeln korrekt zu transkribieren. Ein Spracherkennungssystem wird verwendet, um die Formeln aus der Sprache des Dozenten zu extrahieren, und ein System, das die Flugbahn des Endes des Stickzeigers analysiert, wird verwendet, um die Formeln aus den projizierten Bildern zu extrahieren. Diese Informationen werden kombiniert und verwendet, um die angegebenen Formeln mit den gesprochenen abzugleichen. Beim Testen mit tatsächlichen Vorlesungen extrahierte dieses System 71,4% der mathematischen Formeln, sowohl gesprochen als auch angezeigt, und stellte sie mit einer Genauigkeit von 89,4% zur Transkription bereit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31522-0_21 1160a2f3700c625cf3a597607e8a47fa;de;;;1.3.;;;Anpassung der Pflegeinformatik-Pyramide an das Umsetzungsmonitoring Fortschritte in der Pflegeinformatik (NI) erfordern die Entwicklung und Erprobung von konzeptionellen Modellen und Rahmenwerken, die die einzigartigen Eigenschaften dieses Gebiets einbeziehen. Wichtige Modellkomponenten sind Attribute, die die Kombination von Pflegewissenschaft, Informationswissenschaft, Informationstechnologie und den damit verbundenen Daten-Informations-Wissen-Transformationen widerspiegeln [1]. Modelle, die Richtung, Interaktion und Zweck zwischen Komponenten darstellen, bieten Fokus und Orientierung für die Forschung. Solche Modelle fördern die Replikation, Verfeinerung durch vergleichende Analysen und die kumulative Wissensentwicklung in der Pflegeinformatik. Der Zweck dieses Papiers besteht darin, ein Beispiel für die Anpassung eines bestehenden Forschungsmodells in einen Rahmen für eine systematische Untersuchung des Implementierungsprozesses in NI zu beschreiben und zu veranschaulichen. Als Ergebnis der Entwicklung und Anwendung dieses Frameworks werden mehrere Verfeinerungen und Verwendungen empfohlen, um weitere Studien im Bereich der Systemimplementierung anzuregen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-2182-1_61 c8be28fb23410ea06e8c36b361e2953b;de;;;1.3.;;;Ein räumlich-frequenz-lokalisierter Ansatz der räumlichen Filterung für die motorische Bildklassifizierung Die Klassifizierung von Motor Imagery (MI)-Signalen ist das Herzstück von Anwendungen, die auf dem Brain-Computer Interface (BCI) basieren. Die räumliche Filterung ist ein wichtiger Schritt in diesem Prozess, der einen neuen Satz von Signalen zur besseren Unterscheidung von zwei Klassen von EEG-Signalen erzeugt. In dieser Arbeit wird ein neuer Ansatz der räumlichen Filterung namens Space-Frequency Localized Spatial Filtering (SFLSF) vorgeschlagen, um die Leistung der MI-Klassifizierung zu verbessern. Das SFLSF-Verfahren teilt zunächst die Kopfhaut-EEG-Kanäle in lokal überlappende räumliche Fenster. Dann wird eine Filterbank verwendet, um die Signale in lokale Frequenzbänder aufzuteilen. Die in Raum und Frequenz lokalisierte Gruppe von Kanälen wird dann mit einem räumlichen Filter verarbeitet, und anschließend werden Merkmale für die Klassifikationsaufgabe extrahiert. Experimentelle Ergebnisse bestätigen, dass die vorgeschlagene Raumlokalisierung dazu beiträgt, die Klassifikationsgenauigkeit im Vergleich zu den bestehenden Verfahren mit Raumfiltern zu erhöhen. Die Klassifikationsleistung wird weiter verbessert, wenn die Frequenzlokalisierung integriert wird. Somit trägt der vorgeschlagene raumfrequenzlokalisierte Ansatz der räumlichen Filterung dazu bei, ein besseres Klassifikationsergebnis zu liefern, das durchweg 3–5% höher ist als bei herkömmlichen Verfahren.;-;-;-;https://link.springer.com/article/10.1007/s13755-020-00106-8 8a04520f82a8de53c4a12a180b154b72;de;;;1.1.;;;Öffentliche und private Schulwahl im deutschen Grundschulbereich: Eine empirische Analyse der elterlichen Gründe Weltweit sind Privatisierungstrends in öffentlichen Angelegenheiten erkennbar, auch im Bildungswesen. In den letzten zwei Jahrzehnten hat sich der private Bildungssektor des deutschen Schulsystems kontinuierlich erweitert. Ihr Anteil im Schulsystem stieg auf bis zu 9 %.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-17104-9_12 3c1e8c6fa4bc6fec6124a61a7f8facd6;de;;;1.1.;;;Demut von Führungskräften mit Serviceleistung verbinden: die Rolle des Serviceklimas und der Misshandlung von Kunden Diese Studie untersucht den Einfluss der Demut von Führungskräften auf die Serviceleistung der Mitarbeiter. Neue konzeptionelle Beobachtungen werden durch die Integration von Führungs- und Serviceklimaliteratur präsentiert. Basierend auf der Theorie der sozialen Informationsverarbeitung untersucht diese Studie, wie Demut von Führungskräften und Misshandlung von Kunden die Verbesserung des Serviceklimas und der Serviceleistung der Mitarbeiter unterstützen. Die Daten werden aus mehreren Quellen von 294 Hotelmitarbeitern zu drei Zeitpunkten in China gesammelt. Die Ergebnisse zeigen, dass die Bescheidenheit der Führungskraft die Serviceleistung der Mitarbeiter durch das Serviceklima positiv beeinflusst. Außerdem zeigt die Demut von Führungskräften eine starke Beziehung zum Serviceklima für Mitarbeiter, wenn Servicemitarbeiter an vorderster Front die Misshandlung von Kunden beobachten.;-;-;-;https://link.springer.com/article/10.1057/s41291-020-00145-9 544f285267ff28d862503d4ed48026d9;de;;;1.1.;;;Eine Einführung in Economic Choice Automaten Dieser Beitrag stellt eine Weiterentwicklung der Transformationshalbgruppe ökonomischer Wahlautomaten als Untergruppe der Halbgruppe (Monoid) von Teilfunktionen vor, die über den Zuständen eines endlichen Automaten definiert sind. Die betrachteten Klassen des Konsistenzverhaltens sind solche, die durch lineare Ordnungen, schwache Ordnungen, quasi-transitive Beziehungen und nicht rationalisierbare pfadunabhängige Wahlfunktionen rationalisiert werden. Für jede dieser Klassen des Auswahlverhaltens wird eine bestimmte Gitterklasse als die Aktionshalbgruppe identifiziert, die den Automaten antreibt. Angesichts dieser Charakterisierungen werden mehrere Merkmale des Auswahlverhaltens berücksichtigt. Insbesondere wird die vereinfachende Intervalleigenschaft der pfadunabhängigen Wahl und die Bedeutung der Verteilungseigenschaft der quasi-transitiven rationalen Wahl bei der Reduzierung der Komplexität der dynamischen Wahl angesprochen. Basierend auf der algebraischen Struktur von Halbautomaten, die pfadunabhängige Auswahlfunktionen implementieren, ist es möglich, diese Halbautomaten nach der mathematischen Leistung zu ordnen, die erforderlich ist, um eine bestimmte Klasse von Auswahlfunktionen zu implementieren. Dies bietet eine Möglichkeit, diese Maschinen nach ihrer „Implementierungskomplexität“ einzuordnen. Außerdem wird die rechnerische Komplexität der Konstruktion eines Halbautomaten untersucht, der eine bestimmte Klasse von Auswahlfunktionen implementiert. Es ist ersichtlich, dass diese Komplexitäten in umgekehrter Beziehung stehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46439-7_5 78dba5f4377f9a472094d6384d1ac2d4;de;;;1.3.;;;Zufriedenheit unter jungen Akademikern an neuseeländischen Universitäten: Ein konzeptionelles Modell getestet Das Ausbalancieren vieler konkurrierender Rollen und Erwartungen in einem Umfeld, in dem Autonomie und Unabhängigkeit geschätzt werden, kann bei einigen Akademikern zu ernsthafter Unzufriedenheit führen, die sich überarbeitet, unterbelohnt und schlecht unterstützt fühlen. Da Neuseelands Akademiker vergleichsweise unterbezahlt sind, sollten wir auf die Zufriedenheit unseres akademischen Personals und die Bedingungen, die die Zufriedenheit beeinflussen, achten. Dieses Kapitel adaptiert ein bekanntes konzeptionelles Modell der akademischen Zufriedenheit und testet es im neuseeländischen Kontext mit Nachwuchswissenschaftlern. Wir finden im Vergleich zu Akademikern weltweit eine hohe Zufriedenheit und stellen den starken Einfluss verschiedener Motivatoren, Hygienefaktoren und Umweltbedingungen fest, die positiv und negativ mit der Zufriedenheit interagieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-61830-2_5 4784258603711a9c90e21fccd1b008fc;de;;;1.3.;;;Auf dem Weg zu einem Standard zur Beschreibung und Klassifizierung von Serious Games als Lernressourcen für das Softwareprojektmanagement In den letzten Jahren gab es in vielen Bereichen wie Gesundheit, Wissenschaft, Regierung und Bildung immer mehr neue Serious Games. Es ist wünschenswert, diese neuen Serious Games als Lernressourcen zu beschreiben und zu klassifizieren, um ihren Einsatz in der Bildung und die Integration in den Lernprozess zu erleichtern. Ziel dieser Arbeit ist es, eine gängige Bewertungsmethode zu analysieren, um die Eignung von Serious Games für den Einsatz in der Software-Projektmanagement-Ausbildung zu beschreiben, zu klassifizieren und zu bewerten. Als Proof of Concept haben wir die vorgeschlagene Bewertungsmethode angewendet, um die Stärken und Schwächen eines Serious Games hinsichtlich seiner pädagogischen, spielerischen und technischen Eigenschaften zu bewerten und zu analysieren. Die Ergebnisse der Evaluierung haben es uns ermöglicht, die wichtigsten Merkmale zu identifizieren, die für die Entwicklung einer Evaluierungsmethode zur Beschreibung, Klassifizierung und Bewertung der Eignung von Serious Games für den Einsatz in der Software-Projektmanagement-Ausbildung erforderlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-97925-0_19 c9fbdacb4ed76681b074c438b3f6c2b4;de;;;1.1.;;;Psychiatrische Aufmerksamkeitsstörungen Aufmerksamkeitsstörungen, die bei Menschen mit vier psychiatrischen Erkrankungen auftreten, werden berücksichtigt: (1) affektive Störungen, (2) Schizophrenie, (3) Aufmerksamkeitsdefizit-Hyperaktivitätsstörung (ADHS) und (4) Angst-/Stressstörungen. Für jede dieser Störungen werden die Art und die zugrunde liegenden pathophysiologischen Mechanismen berücksichtigt, die für Aufmerksamkeitsstörungen verantwortlich sind. Wir werden auch Beweise aus dem Bereich der Verhaltensmedizin diskutieren, die implizieren, dass Aufmerksamkeit zu bestimmten gesundheitlichen Risikofaktoren beiträgt, darunter Schmerzen, Fettleibigkeit, körperliche Aktivität und Substanzabhängigkeit, insbesondere Rauchen und starker Alkohol- und Drogenkonsum.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-72639-7_17 583fc97f3f6f33c607f98fb3810eda3f;de;;;1.1.;;;Die Dimensionen von Bühnentheorien Phasentheorien werden häufig verwendet, um die Struktur kognitiver Prozesse in den Bereichen kognitive Verarbeitung und kognitive Entwicklung darzustellen. Hierarchische eindimensionale Theorien, die aus einer einzigen Abfolge von Stufen bestehen, durch die die Entwicklung nur in eine Richtung verläuft, haben sich durchgesetzt. Eine Überprüfung der Bühnentheorien ergab jedoch, dass eine zweidimensionale, interaktive (multidimensionale) Struktur gerechtfertigt ist. Insbesondere im Bereich der kognitiven Entwicklung haben Forschungsergebnisse eine Unterteilung der Stadien prominenter eindimensionaler Theorien unterstützt. Diesem Trend folgend hat eine kleine Zahl von Theoretikern mehrdimensionale Theorien entwickelt, von denen die meisten aus einer Abfolge von Stufen bestehen, wobei jede Stufe eine Reihe von Unterstufen oder Ebenen enthält. Das Aufkommen eines ähnlichen Trends in anderen Bereichen wird untersucht und die Aussichten für die Verwendung eines bestehenden multidimensionalen Rahmens, um zukünftige Vergleiche und die Integration verschiedener Stufentheorien zu ermöglichen, werden untersucht.;-;-;-;https://link.springer.com/article/10.1007/s12144-002-1012-0 bc35f694b3932b932ae29f37703dc208;de;;;1.1.;;;Wissen und sozialer Wandel in Samia, Westkenia Interkulturelle Studien haben die Bedeutung der Wissenskontrolle für den Status und die Behandlung alter Menschen gezeigt. Dieses Papier ist eine Fallstudie über die Informationsverarbeitungsaktivitäten älterer Samia im kolonialen Kenia und die Veränderungen dieser Aktivitäten im Zuge der Modernisierung. Einige Möglichkeiten, wie ältere Menschen kontrolliertes Wissen im traditionellen Kontext der Vergangenheit haben, werden aus Interviews mit älteren Samia-Personen rekonstruiert. Dies wird mit der Situation in den 1980er Jahren verglichen, die während zweijähriger Feldforschung beobachtet wurde. Implikationen der Veränderungen für den Status und die Behandlung älterer Sami, für die Generationenbeziehungen unter den Samien und für die gerontologische Theorie werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF00119707 d058ed5ac8b9160d35bb6d796916b663;de;;;1.1.;;;Ein mathematisches Modell der dreigliedrigen Synapse: Astrozyten-induzierte synaptische Plastizität In diesem Artikel präsentieren wir ein biologisch detailliertes mathematisches Modell dreiteiliger Synapsen, bei denen Astrozyten die kurzfristige synaptische Plastizität modulieren. Das Modell besteht aus einem präsynaptischen Bouton, einem postsynaptischen dendritischen Spine-Head, einem synaptischen Spalt und einem perisynaptischen Astrozyten, der Ca . steuert;-;-;-;https://link.springer.com/article/10.1007/s10867-012-9267-7 d33dcce47782289b3ea0774e7d1aa973;de;;;1.1.;;;Integritätstheorie für das Ressourcenraummodell und seine Anwendung Das Resource Space Model (RSM) ist ein semantisches Datenmodell basierend auf orthogonaler Klassifikationssemantik zur effektiven Verwaltung verschiedener Ressourcen in einer Verbindungsumgebung. Parallel zu den Integritätstheorien relationaler und XML-basierter Datenmodelle präsentiert diese Keynote die Integritätstheorie für den RSM, einschließlich der Entitätsintegritätsbeschränkungen basierend auf dem Schlüsselsystem des RSM, der Mitgliedschaftsintegritätsbeschränkungen, der referenziellen Integritätsbeschränkungen und, die benutzerdefinierten Integritätsbeschränkungen, die für Anwendungen relevant sind. Diese Theorie garantiert dem RSM, Ressourcen korrekt und effizient zu spezifizieren und zu verwalten. Der Umsetzungsansatz und die Anwendung in der Kulturausstellung werden demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/11563952_2 eb8b55d3075afc1cc9ffee4457b0605c;de;;;1.1.;;;Objekte und Umgebungen in dynamischen CIMOSA-Modellen Objekte spielen eine grundlegende Rolle bei der Unternehmensmodellierung und damit bei der Unternehmensintegration. In diesem Beitrag wird das allgemeine algebraische Gerüst von Objekten als beobachtete Prozesse als semantische Grundlage für den objektorientierten Modellierungsansatz von CIMOSA verwendet. Das Framework ist so konstruiert, dass es die dynamischen Aspekte des Unternehmens hervorhebt, indem algebraische Abstraktionsmechanismen zur Modellierung der Veränderungen der Unternehmensobjekte in der Zeit und geeignete Umgebungen für deren Einbettung definiert werden. Ermutigt durch die Resonanz, die diese Ideen bei der ersten Präsentation durch den Autor auf der CIM Europe-Konferenz 1993 erhielten, ist dies eine Fortsetzung des dort verwendeten Rahmens. Ausgehend von den Erfahrungen aus der Modellierung des Aluminiumgusswerks ELVAL S.A. in Griechenland und Forschungsergebnissen im Bereich der objektorientierten Sprachtheorie konzentriert sich die Ausstellung auf grundlegende Ideen und Definitionen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34983-1_17 03717ce81f19aa3efd5df98c23b6eabe;de;;;1.3.;;;Psychologische Interventionen in forensischen Settings In den vorangegangenen Kapiteln haben wir die verschiedenen psychischen Probleme erörtert, die auftreten können, nachdem ein Angeklagter einer Straftat angeklagt wird (z Defekt). In diesem Kapitel werden wir einige der Möglichkeiten diskutieren, wie das Strafjustizsystem in das Leben dieser Gefangenen eingreift. Die obige Vignette über Tom ist leider eine häufige Reaktion von Gefängnispersonal, von denen viele die Verzweiflung eines psychisch kranken Insassen nicht schätzen. Einige stellen die Fähigkeit von Gefängnisbeamten in Frage, die Bedürfnisse psychisch Kranker jemals angemessen zu verstehen oder zu berücksichtigen, und erklären, dass die Ziele des Gefängnissystems eher darin bestehen, den Täter zu bestrafen und die Gesellschaft zu schützen, als zu rehabilitieren und zu reformieren. Schauen Sie sich jedoch die Statistiken an, wer im Gefängnis landet, sicherlich diejenigen aus dem Unterleib der Gesellschaft, die den klassischen Denkern Unterstützung zukommen lassen, die glauben, dass Kriminalität auf „schwachen“ Genen oder anderen Versagen des starken Willens beruht, um Versuchungen zu vermeiden, wie sie im Vergleich zu die Reformer, die sie angesichts ihres von Missbrauch und Verzweiflung geprägten Hintergrunds freundlicher behandeln wollen. Gefängnisse haben die größte Population erwachsener Analphabeten, was darauf hindeutet, dass sowohl Bildung als auch psychologische Behandlung Rückfälle reduzieren und bessere Bürger hervorbringen könnten, wenn Straftäter in die Gesellschaft zurückkehren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-3795-0_8 6fcc310ddd582e64819a330ebc53fb3d;de;;;1.1.;;;Die Geschichte der Hochbegabungsforschung Die Wahrnehmung von Hochbegabung hat sich im Laufe der Geschichte von einem theologischen über einen metaphysischen zu einem empirischen Ansatz entwickelt. Dieses Kapitel bietet einen Überblick über den letztgenannten Ansatz, der seit Ende des 19. Jahrhunderts die Begabungsforschung leitet. Zunächst wird die historische Entwicklung des Intelligenzbegriffs und seine Bedeutung für die Begabungsforschung skizziert. Daran schließt sich ein historischer Rückblick auf Studien an, die auf multidimensionalen Hochbegabungsmodellen und dem Expertisenansatz basieren. Nach einer Darstellung von Untersuchungen zu Gen-Umwelt-Interaktionen wird ein historischer Abriss auf pädagogische Studien und Studien zu individuellen Unterschieden und Untergruppen von Hochbegabten fokussiert. Abschließend werden Faktoren, die die Begabungsforschung im Laufe der Geschichte beeinflusst haben, zur Diskussion gestellt, wobei auch die Bedeutung kultureller Unterschiede und entsprechende Forschung in diesem Bereich thematisiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-6162-2_2 6717dab927e84cfd7def70a5700d1734;de;;;1.1.;;;Pathway-Analyse zweier amyotropher Lateralsklerose GWAS zeigt gemeinsame genetische Signale bei Alzheimer und Parkinson Die Amyotrophe Lateralsklerose (ALS) ist nach der Alzheimer-Krankheit (AD) und der Parkinson-Krankheit (PD) die dritthäufigste neurodegenerative Erkrankung. Um die genetische Ätiologie von ALS zu entschlüsseln, wurden genomweite Assoziationsstudien (GWAS) durchgeführt. Die neu identifizierten ALS-Suszeptibilitäts-Loci üben jedoch nur sehr geringe Risikowirkungen aus und können das zugrunde liegende genetische ALS-Risiko nicht vollständig erklären. Ein Großteil der Erblichkeit der ALS ist noch zu erklären. Vor kurzem wurde die Pathway-Analyse von GWAS verwendet, um die Mechanismen von AD und PD zu untersuchen. Wir glauben, dass auch AD- oder PD-Risikopfade an ALS beteiligt sein können. Um diese Ansicht zu bestätigen, führten wir eine Pathway-Analyse von zwei unabhängigen ALS GWAS durch. Wir identifizierten mehrere Klassifikationen der Kyoto Encyclopedia of Genes and Genomes Pathways in Bezug auf Stoffwechsel, Immunsystem und Krankheiten, Umweltinformationsverarbeitung, genetische Informationsverarbeitung, zelluläre Prozesse sowie Nervensystem und neurodegenerative Krankheiten als konsistente Signale in den beiden ALS GWAS. Auf der Ebene der einzelnen Pfade haben wir 12 gemeinsame Pfade identifiziert. Wir verglichen die Ergebnisse von ALS GWAS mit denen früherer Pathway-Analysen von AD und PD GWAS. Die Ergebnisse unterstützten weiterhin die Beteiligung von AD- und PD-Risikopfaden bei ALS. Wir glauben, dass unsere Ergebnisse das Verständnis der ALS-Mechanismen verbessern können und für zukünftige genetische Studien sehr nützlich sein werden.;-;-;-;https://link.springer.com/article/10.1007/s12035-014-8673-1 d0e1e0f5f92bb87a638a0a9ff3200c35;de;;;1.3.;;;Eigenschaften eines viralen Fusionsproteins Die Mechanismen, durch die Proteine ​​die biologische Membranfusion vermitteln, sind nicht klar verstanden. Wir haben säureinduzierte Veränderungen im Influenza-Hämagglutinin (HA), einem viralen Membranfusionsfaktor, analysiert und mit seiner durch Säure ausgelösten Fusionsaktivität in Beziehung gesetzt. Unsere Ergebnisse, von denen einige hier zum ersten Mal veröffentlicht werden, zeigen, dass die extramembrane Domäne von HA amphiphile Eigenschaften erhält, wenn sie durch eine milde Behandlung mit niedrigem pH in die fusionsaktive Form umgewandelt wird. Wir zeigen, dass jede HA-Untereinheit die Fähigkeit erlangt, ungefähr 10 zusätzliche Moleküle von Triton X-100 zu binden. Ein fusionsinaktiver Vorläufer von HA, HAO genannt, erwirbt diese Eigenschaft nicht. Das trimere Ektodomänenfragment von HA neigt außerdem dazu, nach Säurebehandlung in Dimere und Trimere zu dissoziieren. Ein Modell für die säureinduzierten Veränderungen der HA und der Fusionsmechanismus werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-1659-6_28 baed1d97b541404e32d7bf289b1ed571;de;;;1.1.;;;Wie sich die Nutzung von Big Data auf Marketingstrategien und -leistung von Unternehmen auswirkt: Eine Zusammenfassung Einer der wichtigsten Trends in heutigen Unternehmen, der sich zu einer neuen strategischen Ressource entwickelt, ist das Phänomen der transformativen Big Data (BD) (Alharthi et al. 2017). Während die Forschung zu den operativen Aspekten von BD auf niedriger Ebene floriert (Lehn 2018), ist wenig über ihre Auswirkungen auf die Strategien von Unternehmen bekannt. Strategische Orientierungen leiten die Entscheidungsfindung und das Handeln des Unternehmens und beschreiben, wie Ressourcen zugewiesen und eingesetzt werden. Während der Erfolg von Orientierungen von Intelligenz abhängt (Hakala 2011), ist BD ein verwandtes Feld des Wissensmanagements (Xu et al. 2016), das Wissen bereitstellt, das traditionelle Systeme nicht bereitstellen können (Kumar 2018). Daher müssen Unternehmen den Wert von Daten in Orientierungen nutzen, da sie das Potenzial besitzen, strategische Entscheidungen und Handlungen zu verändern (Mazzei und Noble 2017).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-42545-6_7 7192f8887f40639846f4bf1af4a4a3ed;de;;;1.1.;;;"Jenseits von Bells Theorem II: Szenarien mit beliebiger Kausalstruktur Kürzlich wurde festgestellt, dass Bell-Szenarien nur eine kleine Unterklasse interessanter Setups sind, um die nichtklassischen Merkmale der Quantentheorie innerhalb der Raumzeit zu studieren. Wir finden, dass es möglich ist, auf jedem gerichteten azyklischen Graphen über klassische Korrelationen, Quantenkorrelationen und andere Arten von Korrelationen zu sprechen, und dies erfasst verschiedene Erweiterungen von Bell-Szenarien, die in der Literatur berücksichtigt wurden. Aus konzeptioneller Sicht zeichnet sich unser Ansatz durch seinen hohen Grad an Vereinheitlichung aus: Während die Begriffe Quelle, Wahl der Einstellung und Messung in einem Bell-Szenario scheinbar unterschiedliche Rollen spielen, zeigt unser Formalismus, dass sie allesamt das gleiche Konzept von ""Ereignis"". Unsere Arbeit kann auch als Beitrag zum Thema Kausalschluss mit latenten Variablen verstanden werden. Unter anderem führen wir Hidden Bayesian Networks als Verallgemeinerung von Hidden-Markov-Modellen ein.";-;-;-;https://link.springer.com/article/10.1007/s00220-015-2495-5 7286a3de747d06095809576f21089940;de;;;1.1.;;;Verwendung endlicher Domänen im Constraint Satisfaction Problem Constraint Satisfaction Problem (CSP)-Methoden sollen (meist kombinatorische) Probleme insbesondere in den Bereichen Planung und Terminierung lösen. Unser Papier konzentriert sich auf ein Modell, das die Bogenkonsistenz erzwingt, ohne die Struktur des Constraint Network (CN) zu ändern, d. Die Ausbreitung einer Variablendomäne auf die Einschränkungen in Bezug auf diese Variable ermöglicht es dem Modell, die Größe des Suchraums unter Kontrolle zu halten, indem nur die Variablenwerte aufgezählt werden, die Teil einer Lösung sind.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-23152-8_44 9c35aae7266152549dd10196d6640444;de;;;1.1.;;;Implizites und explizites Gedächtnis für Bedrohungswörter bei Teilnehmern mit hoher und niedriger Angstempfindlichkeit Diese Studie untersuchte das Gedächtnis für Angst- und Bedrohungswörter bei Teilnehmern mit hoher Angstsensitivität (HAS, n = 38) und wenig Angstsensitivität (LAS, n = 36). Basierend auf der Informationsverarbeitungstheorie der Angst von Foa und Kozak (1986) wurde die Hypothese aufgestellt, dass HAS-Teilnehmer Angst- und bedrohungsbezogene Informationen besser erinnern als LAS-Teilnehmer und dass physiologische Erregung diesen Unterschied verstärken würde. Die Unterstützung für die erste Hypothese war begrenzt. Angstsensitivität beeinflusste das explizite Gedächtnis, jedoch nur bei allgemeinen Drohwörtern, nicht bei Angstwörtern. HAS-Teilnehmer erinnerten sich signifikant mehr Drohwörter als neutrale, positive oder Angstwörter, während sich LAS-Teilnehmer signifikant mehr positive Wörter als neutrale oder Angstwörter erinnerten. HAS-Teilnehmer erinnerten sich auch an deutlich mehr Drohwörter als LAS-Teilnehmer. Somit zeigten HAS-Teilnehmer einen expliziten Gedächtnis-Bias bei Wörtern, aber unerwarteterweise nicht bei Angstwörtern. Es wurden keine impliziten Gedächtnisunterschiede gefunden. Im Gegensatz zur zweiten Hypothese hatte die Erregungsmanipulation (dh Hyperventilation) keine Wirkung. Da die Angstempfindlichkeit ein kognitiver Risikofaktor für Panikstörungen ist, deuten diese Ergebnisse darauf hin, dass bei Patienten vor dem Einsetzen der Störung, vielleicht sogar schon davor, Gedächtnisverzerrungen für Bedrohungen bestehen die erste unerwartete Panikattacke.;-;-;-;https://link.springer.com/article/10.1023/A%3A1018706607051 81a032f1517e4bff3cabebd76035773b;de;;;1.1.;;;Zur Definition empirischer Gesetzmäßigkeiten durch die JSM-Methode zur automatischen Hypothesengenerierung In diesem Beitrag werden empirische Gesetzmäßigkeiten definiert, die mithilfe von JSM-Argumentation in Fakten entdeckt wurden. Diese Gesetzmäßigkeiten werden in empirische Gesetze und Tendenzen unterteilt.;-;-;-;https://link.springer.com/article/10.3103/S0147688212050024 fc7f63e1e9107e6a8ee9db7d5682e7c5;de;;;1.1.;;;Ein Leitfaden für fortgeschrittene Multimedia-Breitbandanwendungen Das BERKOM-Referenzmodell Anwendungsorientierte Schichten Dieses Papier führt in das BERKOM-Referenzmodell ein und gibt Profilempfehlungen für die anwendungsorientierten Schichten des OSI-Referenzmodells. Das BERKOM-Referenzmodell ist ein Rahmenwerk zur Kategorisierung von Kommunikationsstandards und neben Kommunikations-, Daten- und Informationsstrukturen und Aspekten der Anwendungsumgebung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-77060-9_34 b446a896029f7175f4e75a183f771db8;de;;;1.1.;;;Einführung in die Möglichkeitstheorie Die Hauptschwierigkeit von entscheidungsunterstützenden Systemen liegt darin, dass wir mit unvollkommenen entscheidungsrelevanten Informationen umgehen müssen. Auf dieser Ebene müssen wir eine Grundannahme zulassen, dass menschliches Wissen, Argumentation und ausgetauschte Beweise und Informationen intrinsisch größtenteils durch ein Maß an Mehrdeutigkeit und Unsicherheit gekennzeichnet und ausgedrückt werden und nicht durch eine probabilistische Unsicherheit. Tatsächlich erfassen Unsicherheit und Mehrdeutigkeit zwei ziemlich unterschiedliche Arten von Informationsunvollkommenheiten. Tatsächlich wird Ambiguität aus der teilweisen Zugehörigkeit eines oder mehrerer Punkte aus der Menge der Entscheidungen abgeleitet. Dabei wurden in den letzten fünf Jahrzehnten große Anstrengungen unternommen, um neue nichtklassische Unsicherheitstheorien zu entwickeln (Fuzzy-Sets-Theorie, Glaubensfunktionen oder Evidenztheorie, ungenaue Wahrscheinlichkeitstheorie und Möglichkeitstheorie). Von den neuen Theorien wird gesagt, dass die Möglichkeitstheorie dem Rahmen für die Darstellung der menschlichen Wahrnehmungsunsicherheit zugänglich ist. Bevor Sie sich eingehend mit verschiedenen Konzepten der Möglichkeitstheorie befassen, ist es wichtig, das Konzept der „Information“, im Folgenden Informationselement genannt, sowie verschiedene Formen von Informationsunvollkommenheiten genau zu definieren und einen kurzen Besuch einiger existierender Theorien zu machen, die eine Verarbeitung unvollkommene Informationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-32853-5_1 4bdf9b89d13c72a033e51457ddf20fd2;de;;;1.3.;;;Eine Verbesserungsmethode für die Approximation von Filtern gebrochener Ordnung In den Regelsystemen mit gebrochener Ordnung ist der Regler gebrochener Ordnung besser als der Regler ganzzahliger Ordnung, um die Systemleistung zu verbessern, und der Entwurf eines Differenzierers gebrochener Ordnung ist der Regler gebrochener Ordnung, um einen wichtigen Schritt zu erreichen. Fractional Differential für die aktuellen Probleme im Design, wird den genetischen Algorithmus verbessern wird eingeführt, um das Design von fraktionalen Filtern an Oustaloup-Filter zu approximieren . Simulationsergebnisse zeigen, dass das verbesserte genetische Algorithmusdesign des Differenzierers gebrochener Ordnung in einer deutlich verbesserten Leistung des Bandes resultiert, der darauf abzielt, die traditionelle fraktionale Differenzierungsfilter-Approximation im Band an beiden Enden des Problems effektiver zu approximieren Frequenzgang des Differenzierers.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21802-6_17 1066846bdd42a17f8483e44662b830ea;de;;;1.1.;;;Autonome und kontrollierte Regulierung von leistungsorientierten Zielen: Ihr Verhältnis zu Perfektionismus und Bildungserfolgen Die vorliegende Forschung verwendet die Selbstbestimmungstheorie, um zu untersuchen, ob eine autonome und kontrollierte Regulierung von Leistungszielen (PAp) Bildungsergebnisse differenziell vorhersagen und die durch die Zielstärke erklärte Varianz erhöhen würde. Zwei Querschnittsstudien unter Schülern der 10. bis 12. Klasse unterstützten diese Hypothese, zeigten jedoch, dass die PAp-Zielstärke keine Ergebnisse mehr vorhersagte, wenn die Regulierung der PAp-Ziele in dieselbe Regressionsgleichung mit der PAp-Zielstärke eingesetzt wurde. Studie 2 untersuchte Perfektionismus in Bezug auf PAp-Ziele und Regulierungsarten und zeigte dabei, dass adaptiver und maladaptiver Perfektionismus beide positiv mit PAp-Zielen in Zusammenhang standen, adaptiver und maladaptiver Perfektionismus jedoch mit autonomen bzw. Schließlich zeigte die Pfadmodellierung, dass die autonome und kontrollierte Regulierung von PAp-Zielen (aber nicht die PAp-Ziele selbst) für fast die gesamte Beziehung zwischen den Arten von Perfektionismus und Lernergebnissen verantwortlich war. Die Diskussion betont, dass es entscheidend ist, über die Betrachtung von PAp-Zielen an sich hinauszugehen und dabei die Arten der Regulierung von PAp-Zielen zu berücksichtigen.;-;-;-;https://link.springer.com/article/10.1007/s11031-010-9188-3 835f657e37e6681f9f2c9f78fc3814c2;de;;;1.1.;;;Beobachtendes Lernen von gewalttätigem Verhalten Obwohl sich bei Kindern nur selten gewohnheitsmäßige aggressive und gewalttätige Verhaltensweisen entwickeln, es sei denn, es gibt eine Konvergenz mehrerer prädisponierender und auslösender biosozialer und kontextueller Faktoren, gibt es überzeugende Beweise dafür, dass die frühe Beobachtung von Aggression und Gewalt in der Umgebung des Kindes oder in den Massenmedien wesentlich zur Entwicklung beiträgt aggressiver Gewohnheiten, die während des gesamten Lebens bestehen bleiben können (Bandura, 1986, Berkowitz, 1993, Paik & Comstock, 1994, Eron, Huesmann, Lefkowitz & Walder, 1972, Huesmann, 1986, Huesmann & Eron, 1986, Huesmann & Miller, 1994 ). Die empirische Evidenz zur Bedeutung des beobachtenden Lernens hat sich seit Jahrzehnten angehäuft, aber durch das Aufkommen sozialer/kognitiver Prozessmodelle zur Erklärung individueller Aggressionsunterschiede an Relevanz gewonnen. In diesem Kapitel 1 gebe ich einen Überblick über ein einheitliches kognitives/informationsverarbeitendes Modell sozialen Verhaltens, innerhalb dessen Aggression verstanden werden kann Verhalten im Allgemeinen und aggressives Verhalten im Besonderen, und ich diskutiere die biosozialen Prozesse, die am beobachtenden Lernen dieser kognitiven/informationsverarbeitenden Strukturen beteiligt zu sein scheinen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-4648-8_5 96b2b42fe274af62c0cbf0345996ed8a;de;;;1.1.;;;Förderung der sozialen Kompetenz in der frühen Adoleszenz: Entwicklungsüberlegungen Die Förderung sozialer Kompetenz (SCP) während der Kindheit und Jugend wurde als wichtiges Mittel zur Förderung von adaptivem Verhalten und zur Prävention von Psychopathologie identifiziert (Kent & Rolf, 1979, Kornberg & Caplan, 1980, Long, 1986, Report of the Prevention Task Panel, 1978) . Als Ergebnis wurden verschiedene schulbasierte SCP-Programme entwickelt (siehe Rezensionen von Durlak & Jason, 1984, Pellegrini & Urbain, 1985, Spivack & Shure, 1982, Weissberg & Allen, 1986). Viele dieser Programme sind für Kinder im Vorschul- und Grundschulalter (4–10 Jahre) konzipiert und basieren größtenteils auf der Annahme, dass je früher die Intervention erfolgt, desto wahrscheinlicher ist es, soziale Kompetenz zu fördern und schwerwiegendere Probleme auszuschließen später im Leben (Durlak & Jason, 1984).;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-2442-0_22 850930b5e2d8eaf0d0ce944e64e5b665;de;;;1.1.;;;Kognitives Wissen und exekutive Kontrolle: Metakognition Der Bereich der psychologischen Forschung zur Metakognition wird anhand einer Unterscheidung zwischen deklarativem und prozeduralem Wissen in informationsverarbeitenden Systemen diskutiert. Nach diesen Wissensarten kann man zwischen kognitivem Wissen und exekutiven Prozessen einer Person unterscheiden. Kognitives Wissen bezieht sich auf die gespeicherten Informationen einer Person über das menschliche Denken, insbesondere über die Merkmale seines eigenen Denkens. Exekutive Prozesse beziehen sich auf kognitive Aktivitäten, die auf die Überwachung der Anwendung und Wirkung von Lösungsstrategien und auf die Regulierung des eigenen Denkens gerichtet sind. Gegenstand der psychologischen Metakognitionsforschung ist die Steuerung von Aktivitäten in informationsverarbeitenden Systemen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-68469-2_12 fd6813bad1340cade3eaaa85ef17045e;de;;;1.1.;;;Quantencomputing-Implementierungen mit neutralen Teilchen Wir untersuchen die Quanteninformationsverarbeitung mit kalten neutralen Teilchen, also Atomen oder polaren Molekülen. Zuerst analysieren wir die am besten geeigneten Freiheitsgrade dieser Teilchen zum Speichern von Quanteninformationen und diskutieren dann sowohl Ein- als auch Zwei-Qubit-Gate-Implementierungen. Wir konzentrieren unsere Diskussion hauptsächlich auf Kollisionsquantengatter, die sich am besten für atomchipartige Bauelemente eignen, sowie auf Gattervorschläge, die für optische Gitter konzipiert wurden. Darüber hinaus analysieren wir Schemata sowohl für kalte Atome, die in optischen Hohlräumen eingeschlossen sind, als auch hybride Ansätze zur Erzeugung von Verschränkungen, und wir zeigen, wie die Theorie der optimalen Kontrolle ein leistungsfähiges Werkzeug sein könnte, um die Geschwindigkeit der Gate-Operationen zu erhöhen und hohe Genauigkeiten zu erreichen, die für Fehlertolerante Quantenberechnung.;-;-;-;https://link.springer.com/article/10.1007/s11128-011-0291-5 dc47a45594f479311a58114f1a4b6ee1;de;;;1.1.;;;Die Organisation des Denkens: Was die funktionelle Bildgebung des Gehirns über die Neuroarchitektur komplexer Kognitionen verrät Jüngste Erkenntnisse aus der Bildgebung des Gehirns, insbesondere der fMRT, beginnen, einige der grundlegenden Eigenschaften der Organisation der kortikalen Systeme aufzudecken, die der komplexen Kognition zugrunde liegen. Wir schlagen eine neue Reihe von Funktionsprinzipien vor, die diese Organisation regeln, und charakterisieren das System als eine Reihe von zusammenarbeitenden kortikalen Zentren, die als groß angelegtes kortikales Netzwerk operieren. Zwei der kritischen Merkmale des Netzwerks sind, dass es ressourcenbeschränkt und dynamisch konfiguriert ist, wobei Ressourcenbeschränkungen und -anforderungen die Netzwerktopologie dynamisch gestalten. Die Funktionsprinzipien sind in einer kognitiven Neuroarchitektur, 4CAPS, verkörpert, die aus einer Reihe von interagierenden Rechenzentren besteht, die aktivierenden kortikalen Bereichen entsprechen. Jedes 4CAPS-Zentrum ist ein hybrides Produktionssystem, das sowohl symbolische als auch konnektionistische Attribute besitzt. Wir beschreiben 4CAPS-Modelle des Satzverständnisses, der räumlichen Problemlösung und des komplexen Multitaskings und vergleichen die Darstellungen dieser Modelle mit Gehirnaktivierungs- und Verhaltensergebnissen. Schließlich vergleichen wir 4CAPS mit anderen vorgeschlagenen Neuroarchitekturen.;-;-;-;https://link.springer.com/article/10.3758/CABN.7.3.153 94c7d5a7d3598c02948114bb69685fa6;de;;;1.1.;;;Erfahrungsbasierte Wurzeln von Absicht, Initiative und Vertrauen Absicht, Initiative und Vertrauen wurden von sehr unterschiedlichen Denkschulen als Entwicklungsprodukte der ersten beiden Lebensjahre bei menschlichen Säuglingen angesehen. Da Beweise für Plastizität die traditionelle Überzeugung geschwächt haben, dass die frühe Entwicklung in ihrem Verlauf und ihrer Geschwindigkeit im Wesentlichen durch Vererbung vorbestimmt ist, kann der Erfahrung und insbesondere der frühen Erfahrung eine einflussreiche Rolle zugeschrieben werden (Hunt, 1979a). Es ist üblich, diesen Einfluss „Umwelt“ zu nennen. Doch es ist die Funktionsweise des kindlichen Organismus und nicht die Umwelt an sich, die den Verlauf und die Geschwindigkeit seiner Entwicklung verändert. Umweltbedingungen haben nur indirekten Einfluss, da sie der Kontrolle der Funktionsfähigkeit eines Säuglings dienen. Jüngste Beweise haben bisher unvermutete Beweise für die Spezifität zwischen den Arten von Erfahrungen und den Arten der betroffenen Entwicklungsleistungen erbracht (siehe Hunt, 1977). Diese Belege einer solchen Spezifität machen es sowohl für die Wissenschaft der Entwicklungspsychologie als auch für die Technologie der Früherziehung wichtig, möglichst genau und genau zu wissen, welche Erfahrungen für die verschiedenen Entwicklungsleistungen wichtig sind. Der Inhalt dieser Arbeit wurde durch eine unerwartete Folge einer Intervention in der Säuglingsaufzucht in einem Waisenhaus in Teheran nahegelegt (Hunt, Mohandessi, Ghodssi & Akiyama, 1976). Diese Intervention sollte die Nachahmung der Stimme und damit die Sprachleistung fördern (Hunt 1979a). Als sich herausstellte, dass die Intervention auch radikale Verbesserungen in Initiative, Stimmung und Vertrauen hervorbrachte, legte sie in Kombination mit anderen neuen Erkenntnissen in der Literatur die Notwendigkeit nahe, meine Formulierung der Rolle der intrinsischen Motivation in der frühen psychologischen Entwicklung zu überarbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-3195-7_8 f504e56c590b7fb2204d13ea9cef5262;de;;;1.1.;;;Testen von Vulnerabilitätsmodellen: Stabilität potenzieller Vulnerabilitätsindikatoren über den klinischen Zustand hinweg In den letzten Jahren haben mehrere Forscher eine Unterscheidung zwischen Vulnerabilitätsindikatoren (oder -markern) und Episodenindikatoren für schizophrene Störungen vorgeschlagen, basierend darauf, ob eine Anomalie nur während des aktiven psychotischen Zustands oder dauerhaft vorliegt (Zubin und Spring 1977, Cromwell und Spaulding 1978). Messungen, die Anomalien während der akuten psychotischen Episode aufzeigen und dann während nicht-psychotischer, klinisch remittierter Perioden auf normale Werte zurückkehren, werden als Episodenindikatoren bezeichnet, weil sie Prozesse anzeigen, die akute Störungen während der psychotischen Periode zeigen. Es wird erwartet, dass Episodenindikatoren (1) Anomalien, die Prozesse widerspiegeln, die den akuten psychotischen Symptomen unmittelbar zugrunde liegen, und (2) Anomalien, die sekundär zu Störungen im Zusammenhang mit akuten psychotischen Symptomen sind, einschließen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-74881-3_14 8d93a939ece74b5ccfdb70e9055f0fea;de;;;1.1.;;;Intelligenz, Persönlichkeit, Psychopathologie und Anpassung Was als „kognitive Revolution“ (Gardner, 1985) bezeichnet wurde, hatte tiefgreifende Auswirkungen auf alle Bereiche der Psychologie. Obwohl vorgeschlagen wurde, dass ein Großteil dieses Trends besser als „Wiederentdeckung“ angesehen wird (Sternberg, 1990, Sternberg & Frensch, 1990), ist es klar, dass in den 1980er und 1990er Jahren das Interesse an den kognitiven Aspekten der drei Themen, mit denen sich dieses Kapitel hauptsächlich beschäftigt: Intelligenz, Persönlichkeit und Psychopathologie. Wir werden das integrative Potenzial eines kognitiven Ansatzes zum Verständnis dieser drei Konstrukte untersuchen, das sich in Theorie und Forschung offenbart.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-5571-8_13 abb0025efdfd2065ef2dc371537e958e;de;;;1.1.;;;Chinesisches Textkorrekturmodell zur Integration von Fehlererkennung und Fehlerkorrektur Im Textkorrekturbereich sind Fehlererkennung und Fehlerkorrektur zueinander umkehrbar. In diesem Beitrag unter Berücksichtigung der gleichen Betrachtungswinkel stellen wir eine Idee der „gestreuten Saitenkonzentration“ vor und kombinieren die bidirektionalen Pinyin-Wissensbasen, um die Genauigkeit des Positionierungsfehlers zu verbessern. Wir schließen grundsätzlich die Lücken zwischen Fehlererkennung und Fehlerkorrektur, um eine effektive Integration von Fehlererkennung und Fehlerkorrektur zu erreichen. In diesem Beitrag wird das Fehlererkennungsmodell des heutigen Textes optimiert und der Sortieralgorithmus der Fehlerkorrektur diskutiert. Die experimentellen Ergebnisse zeigen, dass die Rückrufrate dieser Methode 95,37 % beträgt, die Genauigkeitsrate 83 % beträgt und die Methode gute Anwendungsaussichten hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49508-8_35 c1acc96105ddd0a4179de741b9ea2556;de;;;1.3.;;;Steigerung der Effektivität des 4-jährigen Rechnungslegungsprogramms: Strategien zur Einbindung von Studenten und Dozenten Das Papier umfasst drei Teile. Zunächst werden die Inhalte und die Bedeutung von Bilanzierungsübungen vorgestellt. Der zweite Teil ist die Literaturrecherche. Im letzten und wichtigsten Teil werden drei Untersuchungen durchgeführt und analysiert, um die Wirksamkeit des Bilanzierungspraxisprogramms zu verbessern. Der Analyse zufolge kommt der Schluss zu, dass Bilanzierungspraxiskurse eine große Bedeutung für die Entwicklung der Lern- und Arbeitsfähigkeit der Studierenden haben. Um das Ziel zu erreichen, ist ein angemessener Anteil an unterschiedlichen Praxismethoden, Lehrkräfte mit ausreichender Praxiserfahrung und eine finanzielle Unterstützung des Kollegiums unabdingbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23023-3_70 f87fa19d74f8b534b5e5a3a93b666d0c;de;;;1.3.;;;Eine kritische Analyse der PSP-Datenqualität: Ergebnisse einer Fallstudie Der Personal Software Process (PSP) wird von Softwareingenieuren verwendet, um Daten über ihre Arbeit zu sammeln und zu analysieren. Veröffentlichte Studien verwenden in der Regel Daten, die mit dem PSP gesammelt wurden, um quantitative Schlussfolgerungen über deren Auswirkungen auf das Programmierverhalten und die Produktqualität zu ziehen. Unsere Erfahrung mit PSP hat uns jedoch dazu veranlasst, die Qualität der Daten sowohl während der Erhebung als auch bei der späteren Analyse in Frage zu stellen. Wir stellten die Hypothese auf, dass Datenqualitätsprobleme einen erheblichen Einfluss auf den Wert von PSP-Maßnahmen haben können – signifikant genug, um zu falschen Schlussfolgerungen hinsichtlich der Prozessverbesserung zu führen. Um diese Hypothese zu testen, haben wir ein Tool zur Automatisierung des PSP entwickelt und dann 89 Projekte untersucht, die von zehn Probanden mit dem PSP manuell in einem Bildungsumfeld durchgeführt wurden. Wir haben 1539 primäre Fehler entdeckt und sie nach Typ, Subtyp, Schweregrad und Alter kategorisiert. Um das Erfassungsproblem zu untersuchen, haben wir uns die 90 Fehler angesehen, die unmögliche Kombinationen von Daten darstellten, und andere weniger konkrete Anomalien in Zeiterfassungsprotokollen und Fehleraufzeichnungsprotokollen. Zur Untersuchung des Analyseproblems haben wir ein Regelwerk entwickelt, die Fehler soweit wie möglich korrigiert und die Originaldaten mit den korrigierten Daten verglichen. Bei Kennzahlen wie Ertrag und Preis-Leistungs-Verhältnis fanden wir signifikante Unterschiede, die unsere Hypothese bestätigen. Unsere Ergebnisse werfen Fragen bezüglich der Genauigkeit von manuell gesammelten und analysierten PSP-Daten auf, weisen darauf hin, dass für eine qualitativ hochwertige PSP-Datenanalyse möglicherweise eine integrierte Toolunterstützung erforderlich ist, und legen nahe, dass externe Maßnahmen verwendet werden sollten, wenn versucht wird, den Einfluss des PSP auf das Programmierverhalten zu bewerten und Produktqualität.;-;-;-;https://link.springer.com/article/10.1023/A%3A1009801218527 7bf56a39832013d55fc4d88f15fe4ed4;de;;;1.3.;;;Animierte Aussprache generiert aus Sprache für das Aussprachetraining Für den Sprachunterricht wurde in den letzten Jahren das computergestützte Aussprachetraining (CAPT) eingeführt. CAPT bewertet die Aussprachequalität des Lernenden und weist mithilfe der Spracherkennungstechnologie auf falsche Phoneme hin. Obwohl der Lernende somit erkennen kann, dass seine/ihre Sprache sich von der des Lehrers unterscheidet, kann der Lernende die Artikulationsorgane dennoch nicht kontrollieren, um richtig auszusprechen. Der Lernende kann nicht verstehen, wie er die falschen artikulatorischen Gesten präzise korrigieren kann. Wir weisen auf diese Unterschiede hin, indem wir die falschen Aussprachebewegungen eines Lernenden und die richtigen Aussprachebewegungen mit CG-Animation visualisieren. Wir schlagen ein System zum Generieren animierter Aussprache vor, indem die Aussprachebewegungen eines Lernenden anhand seiner Sprache automatisch geschätzt werden. Das vorgeschlagene System bildet Sprache auf Koordinatenwerte ab, die benötigt werden, um die Animationen zu erzeugen, indem mehrschichtige neuronale Netzwerke (MLN) verwendet werden. Wir verwenden MRT-Daten, um glatte animierte Aussprachen zu generieren. Darüber hinaus überprüfen wir durch experimentelle Evaluation, ob der Vokaltraktbereich und die Artikulationsmerkmale als Merkmale der Aussprachebewegung geeignet sind;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29934-6_8 d5c98169e456c78b0f48a40868c2e4b9;de;;;1.1.;;;Die globalen Strategien des Unternehmens und der Einfluss von Umweltvariablen des Konzernwissens auf den Entscheidungsprozess Ein Unternehmen kann nur erfolgreich sein, wenn es effektive Strategien anwendet und über geeignete intrinsische Ressourcen und Fähigkeiten sowie zugehörige externe Informationen verfügt, um Marktchancen zu analysieren und Marktanteile zu gewinnen, um einen Wettbewerbsvorteil in der globalen Geschäftslandschaft zu erhalten. In diesem Zusammenhang ist das Verbraucherwissen im Rahmen des Konsumverhaltens einer Gruppe ein kritischer strategischer Faktor, um Wettbewerbsvorteile zu schaffen. In diesem Rahmen ist es wichtig zu verstehen, dass Wettbewerbsvorteile nicht mehr allein an der Menge der leicht zugänglichen Ressourcen oder an der Materialproduktion gemessen werden können. Der Zugang zu Verbraucherwissen ist ein wesentlicher Bestandteil der Kernkompetenzen eines Unternehmens. Strategisch gesehen ist Verbraucherwissen eine immaterielle Ressource, die Unternehmen dabei hilft, im Geschäftsumfeld flexibler und damit wettbewerbsfähiger zu werden (de Vita, Mercurio & Testa, 2007).;-;-;-;https://link.springer.com/chapter/10.1057/9781137429599_1 1446b1ba008104d0f27dad8dff7b7f36;de;;;1.1.;;;Negative Evidenz beim Erst- und Zweitspracherwerb Während der Fokus von Kapitel 4 auf dem problematischen Status des metalinguistischen Outputs bei der Formulierung der Theorie des Zweitspracherwerbs lag, untersucht Kapitel 5 die Möglichkeit einer förderlichen Rolle des metalinguistischen Inputs beim Sprachenlernen. Der Begriff „metallinguistischer Input“ wird hier in einem ziemlich allgemeinen Sinn verwendet, um sich auf die Bezugnahmen von Gesprächspartnern (normalerweise Muttersprachlern oder Lehrern) auf die sprachliche Form der Lernenden zu beziehen. Obwohl eine solche Definition eine Reihe von metasprachlichen Inputs umfasst, wird in diesem Kapitel besonderes Gewicht auf die Funktion negativer Evidenz (d. h. Hinweisen an die Lernenden, dass bestimmte Zeichenfolgen nicht grammatikalisch sind) für die endgültige Erlangung von Zielkenntnissen gelegt sprachliche Struktur.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-74124-1_6 4aabc58755e3168cb0c2802e1426d3be;de;;;1.1.;;;Steuerung von Konstruktions- und Fertigungsprozessen basierend auf Informationsinhalten Bei der Analyse von Konstruktions- und Fertigungsaufgaben und ihrer gegenseitigen Wechselwirkungen scheint die zugrunde liegende Information dieser Aufgaben von größter Bedeutung zu sein. Werden diese Informationen formalisiert und strukturiert verwaltet, können sie als Grundlage für die Steuerung der Konstruktions- und Fertigungsprozesse dienen. Die zu diesem Zweck verwendete ontologische Beschreibung wird ausgearbeitet. Bedeutsam in dieser Hinsicht ist die Einführung zweckdienlicher Differenzierungen in verschiedenen Aspekten der Ontologie.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1901-8_33 16db8f7bbf1178e4ec9afd58eed8ff48;de;;;1.1.;;;Datensysteme: Muster von forma Im vorigen Kapitel haben wir die Idee der Daten zur Forma erhoben: die physikalische Natur von Zeichen. In diesem Kapitel konzentrieren wir uns auf Systeme dieser Form. Symbole stehen in Beziehung zueinander und werden in Datensystemen verarbeitet. Ein Datensystem ist ein physikalisches Symbolsystem, das aus physikalischen Mustern (Symbolen) besteht, die zu Strukturen kombiniert und manipuliert werden können, um neue Strukturen zu erzeugen. Wir schlagen ein besonderes Interesse an den Datensystemen vor, in denen die Symbole eine gewisse Beständigkeit aufweisen. Mit Persistenz meinen wir, dass Symbole für eine gewisse Dauer über die Kommunikation hinaus existieren, in der die Symbole verwendet wurden.;-;-;-;https://link.springer.com/chapter/10.1057/9780230295025_7 178e52fa590d3900db0a93da8556b477;de;;;1.1.;;;Führung als Funktion von Gruppenaktionen Es gibt viele verschiedene Wege zum wissenschaftlichen Verständnis. Für mich ist es eine Voraussetzung des Verstehens, die Funktionen der untersuchten Objekte in ihrem Kontext zu erfassen. Mein Eindruck ist, dass Führungstheorie und -forschung trotz einiger bemerkenswerter Entwicklungen inkohärent bleiben und wichtige Probleme übersehen, daher muss auch ihr praktischer Nutzen begrenzt sein. Um diesen unbefriedigenden Zustand zu verbessern, schlage ich vor, unseren Spielraum zu erweitern und Führungsphänomene aus einer systemischen Perspektive zu betrachten. Wenn dies gelingt, wie ich hoffe, werden die partiellen Theorien und Befunde an ihre Stelle treten, und wir können sie sogar mit weiteren bisher vernachlässigten Gesichtspunkten zu einer allgemeineren Theorie integrieren. Die von mir vorgeschlagene Perspektive ist das Konzept des Gruppenhandelns: Ich betrachte Gruppen (oder andere soziale Systeme, wie Organisationen oder auch Massen) als handelnde Systeme, die durch gerichtetes Verhalten aktiv interne und externe Ziele anstreben. Ich gehe ferner davon aus, dass sich die strukturellen Eigenschaften von Gruppen zumindest teilweise im Dienste von Gruppenaktionsfunktionen entwickeln. Dies ist insbesondere bei Führung der Fall, die einige der wichtigsten Funktionen des Gruppenhandelns umfasst, nämlich Steuerung, Energetisierung und Kontrolle, und oft wesentlich zur Gruppenidentität und Kohärenz als Voraussetzung für dauerhaft angepasste Aktivität beiträgt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-4876-7_8 029644f3dd45a447d6f856aa655b0d97;de;;;1.3.;;;Silbenteilung: Voraussetzung für die Lese- und Schreibfähigkeit von Legasthenikern Die Fähigkeit, lange Wörter zu lesen, ist Voraussetzung für die Lese- und Schreibfähigkeit von Legasthenikern. Die sofortige Erkennung von gedruckten Symbolen ist für Leser mit fotografischem Gedächtnis einfach, aber Legastheniker können viele lange Wörter, die ihnen akustisch tatsächlich vertraut sind, visuell nicht erkennen. Wissenschaftliche, automatische, multisensorische Verfahren zur Unterteilung längerer Wörter in leicht lesbare Silben können es den Schülern ermöglichen, visuelle Symbole schnell zu übersetzen und dadurch Wörter beliebiger Länge genau zu lesen, zu schreiben oder zu buchstabieren.;-;-;-;https://link.springer.com/article/10.1007/BF02648258 d2f8fa2f58d33eb2c467a003fe15cf75;de;;;1.3.;;;Vortests von spanischsprachigen Bildungsradiobotschaften zur Förderung einer rechtzeitigen und vollständigen Impfung von Säuglingen in Kalifornien Kaliforniens hispanische Säuglinge haben niedrigere Immunisierungen als nicht-lateinamerikanische weiße Säuglinge, 53,7% bzw. 65,2%. Das spanischsprachige Radio ist ein effektiver Ort der Massenmedien, um Informationen an die Latino-Bevölkerung zu übermitteln. Es wurde gezeigt, dass fehlendes Wissen der Eltern über den Zeitpunkt der Impfung von Säuglingen mit einer verzögerten Durchimpfungsrate verbunden ist. Um das Wissen der Latino-Eltern über den Impfzeitpunkt zu verbessern, wurden zwei spanischsprachige Radiowerbespots entwickelt, die in Verbindung mit gemeindebasierten Bildungsbemühungen verwendet werden. Um die potenzielle pädagogische Wirkung der beiden Werbespots zu messen, wurden sie vorab mit einer Gruppe spanischsprachiger Latino-Eltern mit geringem Einkommen getestet, die Mitglieder der Zielgruppe repräsentierten, für die die Werbespots erstellt wurden. Beide Werbespots wurden von den Eltern positiv bewertet und riefen immunisierungsspezifische Reaktionen hervor. Obwohl die korrekte Erinnerung an den vereinfachten Grundimmunisierungsplan gering war, scheinen das Niveau der Immunisierungsreaktionskonsistenz und die allgemeine Zustimmung beider Werbespots ihre Verwendung als Teil der Aufklärungsarbeit über die lateinamerikanische Säuglingsimpfung in Kalifornien zu unterstützen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1018742321772 a831408a0f258a4e965a597c0a52e71d;de;;;1.3.;;;Praxis im Verbund Praktische Lehrmethode für Informationssicherheit Major In diesem Papier werden der Aufbau und die Verbesserung des Lehrsystems für den Hauptfachbereich Informationssicherheit der nordöstlichen Universität erörtert, einschließlich des Lehrplansystems, der Praxis, der Ausbildung, des Abschlussdesigns und anderer Aspekte. Wir erforschen die Berufslehrprozesse und das Garantiesystem im Hauptfach Informationssicherheit und üben es im täglichen Unterricht und einige Beschreibungen der Anwendungsergebnisse dieses Programms werden vorgestellt. Die Anwendungsergebnisse durch die Lehrmethode erhalten ein gutes Feedback.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23357-9_40 85ca35cfc9766bd951e025eb7b891df1;de;;;1.1.;;;Ausdruckskraft und Komplexität formaler Systeme Formalisierung spielt in der Informatik eine zentrale Rolle. Die Kommunikation zwischen Mensch und Computer sowie die Informationsverarbeitung innerhalb von Computersystemen erfordern, dass Konzepte und Objekte der Anwendungsdomäne formal durch eine künstliche Sprache repräsentiert werden. In den letzten fünfzig Jahren hat die Entwicklung formaler Modelle praktisch alle Aspekte des menschlichen Lebens betraf, von der Informatik bis zum Management, von der Arbeit bis zum Spielen und Sex. Eine solche Entwicklung ist einer der wichtigen Beiträge der Informatik zur epistemologischen und intellektuellen Entwicklung des Menschen, der die mächtige Rolle erweitert, die die mathematische Formalisierung im Laufe der Jahrhunderte gespielt hat. Bei der Erstellung eines formalen Realitätsmodells stellt sich jedoch ein wichtiges Problem: Je stärker die Ausdruckskraft des Systems, desto komplexer die Verwendung des Modells. Ein „optimales“ Gleichgewicht zwischen Ausdruckskraft und Komplexität ist der Schlüssel, der den Erfolg einiger formaler Systeme und Sprachen erklärt, die in Informatik und Anwendungen weit verbreitet sind. Nachdem die gegensätzlichen Anforderungen an Ausdruckskraft und rechnerische Handhabbarkeit bei der Konstruktion formaler Modelle erörtert wurden, werden in der Arbeit zwei Fallstudien betrachtet: formale Chomsky-Grammatiken und relationale Datenbanksprachen, und das Gleichgewicht zwischen Ausdruckskraft und Komplexität für solche Systeme wird genauer analysiert . Schließlich wird das Konzept der Prägnanz eines formalen Systems berücksichtigt und gezeigt, dass die Rolle der Prägnanz bei der Beeinflussung der Komplexität formaler Systeme von entscheidender Bedeutung ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-9620-6_7 c3d9a215725cb48f5c87f466b8ea9322;de;;;1.1.;;;Sensorische und motorische Einflüsse auf die Aufmerksamkeitsdynamik bei der Wiederherstellung des Gleichgewichts im Stehen bei jungen und älteren Erwachsenen Diese Studie untersuchte den Einfluss der Aufmerksamkeit auf die sensorischen und motorischen Aktionen während der posturalen Erholung von Unterfußstörungen bei jungen und älteren Erwachsenen. Es wurde ein Dual-Task-Paradigma verwendet, das disjunktive und Choice-Reaction-Time-(RT)-Aufgaben auf auditive und visuelle Reize mit unterschiedlichen Verzögerungen ab dem Einsetzen von zwei Arten von Plattformstörungen (Rotationen und Translationen) umfasst. Die RTs waren vor der Störung (Vorbereitungsphase) und während der unmittelbaren Erholungsreaktion (Antworteinleitung) bei jungen und älteren Erwachsenen erhöht, aber diese Störung verschwand schnell nach Beginn der Störungsreaktion (<220 ms). Die sensorische Modalität der RT-Aufgabe beeinflusste die Ergebnisse, wobei die Interferenz bei der auditiven Aufgabe im Vergleich zur visuellen Aufgabe größer war. Mit zunehmender motorischer Komplexität der RT-Aufgabe (disjunktiv versus wahlfrei) kam es zu größeren Störungen durch die Störung. Schließlich erhöhte die Erhöhung der Komplexität der Haltungsstörung durch Mischen der Rotations- und Translationsstörungen die Interferenz für die auditiven RT-Aufgaben, beeinflusste jedoch nicht die visuellen RT-Reaktionen. Diese Ergebnisse legen nahe, dass sensorische und motorische Komponenten der Haltungskontrolle unter dem Einfluss verschiedener dynamischer Aufmerksamkeitsprozesse stehen.;-;-;-;https://link.springer.com/article/10.1007/s00221-017-4985-5 a6ca09af88ebf81771a8c0772d3fc45c;de;;;1.1.;;;Tore zum Bewusstsein: Emotion, Aufmerksamkeit und elektrodermale Aktivität Kaum jemand würde bestreiten, dass die Aktivierung des vegetativen Nervensystems einen wichtigen Bestandteil von Emotionen darstellt. Das Herz rast vor Wut oder sinkt in Ekel und Angst vor einem verstümmelten Körper. Schmetterlinge scheinen in ängstlicher Erwartung in den Magen einzudringen, und aus Angst kann es zu Schweißausbrüchen kommen. Alltagsbeobachtungen dieser Art haben einige Ermittler (z.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-2864-7_10 95f75dbc5fa8df554af4137327637ab3;de;;;1.1.;;;Methoden zum Entwurf und zur Systemanalyse von schnellen neuronalen Netzen und linear abstimmbaren Transformationen In diesem Beitrag wird das Paradigma der schnellen neuronalen Netze (FNN) diskutiert. Systeminvarianten schneller Transformationen werden dargestellt. Formale linguistische Methoden zur Struktur- und Topologiegestaltung von FNN und linear abstimmbaren Transformationen werden entwickelt. Die Methoden zur Abstimmung von FNN zur Realisierung von Spektraltransformationen, reguläre Fraktale, optimale Filter werden betrachtet. Die Fragen der Verwendung von FNN in Quantenrechnungen werden untersucht. Es wird das Verfahren zur getrennten Kapazitätsschätzung für schwach verbundene neuronale Feed-Forward-Netze angeboten. Die Abhängigkeit der Menge erkannter Muster von den Freiheitsgraden des neuronalen Netzes wird erhalten. Die experimentellen Ergebnisse sind dargestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-73137-7_9 fb5e35c35f0d822914117660ed0de1eb;de;;;1.1.;;;Kognitive Informatik, verteilte Repräsentation und Verkörperung Dieses Papier ist eine überarbeitete und erweiterte Version eines Keynote-Beitrags zu einer kürzlich stattgefundenen Konferenz über Kognitive Informatik. Es bietet eine kurze Zusammenfassung einiger der Kernanliegen anderer Konferenzbeiträge, hebt die Bandbreite der diskutierten Themen hervor und argumentiert, dass viele der zentralen Konzepte und Anliegen der kognitiven Informatik von den Teilnehmern verstanden werden – und andere im Allgemeinen Bereich der Berechnung - verlassen sich auf unbegründete realistische Annahmen und die so genannte funktionalistische Sicht der Repräsentation. Selbst wenn solche Ideen – wenn auch in überarbeiteter Form – verteidigt werden können, muss eine umfassendere Auseinandersetzung mit der Literatur und Fragen außerhalb der Grenzen der Computer- und Computer-Orthodoxie erfolgen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1025409729387 b639f7057d2ded552ba615fa06959325;de;;;1.1.;;;Biomathematischer Ansatz für einen Computer der neuen Generation Die Perspektiven einer neuen Computergeneration werden aus biomathematischer Sicht untersucht. Die Grenzen der bestehenden Geräte werden diskutiert und die Vorzüge eines Biochips als Quantengerät für die Computer der neuen Generation werden untersucht. Der menschliche Informationsverarbeitungsmechanismus wird im Hinblick auf die wohlbekannte von Neuman-Verarbeitung, die relativ weniger bekannte Inferenzverarbeitung und eine neue Tippfehlerverarbeitung, nämlich die globale Informationsverarbeitung, modelliert. Für die neue Computergeneration wird eine radikal neue Computerarchitektur vorgeschlagen, die die drei Verarbeitungsarten vereint.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-2975-3_47 19a279e3c543a4ee63c1e7a93bc2887e;de;;;1.3.;;;Statistik-Experiment-Basis auf Excel im Statistikunterricht: Am Beispiel der Zhejiang Shuren University Mit der Entwicklung des Computers wird die Analyse statistischer Daten einfacher, bequemer und genauer. Daher fordert der Computer die Popularisierung von Statistiken. Daher ist es dringend erforderlich, ein Statistik-Experiment in den Statistikunterricht einzubauen. In diesem Kapitel wird das auf Excel basierende Statistik-Experiment-Lehrsystem diskutiert und auch die Lehrwirkung untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_456 22fdf8530ee3c34d3b18a5b05f836414;de;;;1.3.;;;Verhandlungstraining in der virtuellen Realität verbessert Verhandlungswissen und -fähigkeit In diesem Beitrag testen wir die Hypothese, dass das Verhandlungstraining mit Virtual Reality (VR) das Verhandlungsgeschick und -wissen positiv beeinflusst. Wir besprechen die Gestaltung des VR-Trainings. Anschließend präsentieren wir die Ergebnisse eines Zwischenexperiments (n=42) mit drei experimentellen Bedingungen (Kontrolle, einmaliges Training, wiederholtes Training), in dem Lerneffekte auf Verhandlungsgeschick und -wissen der Probanden untersucht wurden. In unserem Fall besteht Verhandlungsgeschick aus Verhandlungsergebnis (endgültiger Gebotsnutzen) und Konversationsfähigkeit (explorative Gesprächsentscheidungen im VR-Szenario), und Verhandlungswissen ist die Reflexionsqualität der Probanden über das gefilmte Verhalten zweier Verhandlungsakteure. Unsere Ergebnisse bestätigen die Hypothese. Wir fanden signifikante Effekte des Trainings auf die Konversationsfähigkeit und das Verhandlungswissen. Wir fanden einen marginal signifikanten Effekt des Trainings auf das Verhandlungsergebnis. Da der Effekt des Trainings auf das Verhandlungsergebnis nur marginal signifikant und nur dann vorhanden war, wenn überschattende Effekte des Reflektierens kontrolliert wurden, postulieren wir, dass andere Lernansätze (z. B. Instruktion) benötigt werden, um die während der gemeinsamen Explorationsphase gewonnenen Informationen zu nutzen einer Verhandlung über die Erstellung eines Angebots. Unsere Ergebnisse sind besonders wichtig angesichts der spärlichen Verfügbarkeit experimenteller Studien, die Lerneffekte des VR-Verhandlungstrainings zeigen, und geben zusätzliche Unterstützung für solche Studien, die positive Effekte wie das BiLAT-System berichten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33197-8_23 d625902705486f2a1ea43b718897833e;de;;;1.3.;;;Ein Vergleich der Auswirkungen von Familie und Nachbarschaft auf Noten, Testergebnisse, Bildungsstand und Einkommen – Belege aus Schweden Dieser Artikel vergleicht Geschwister- und Nachbarschaftskorrelationen in Bezug auf Schulleistung, Bildungsstand und Einkommen, um herauszufinden, ob die Nachbarschaft, in der ein Kind aufwächst, Teile der Geschwisterähnlichkeiten erklären könnte, die in früheren Geschwisterkorrelationsstudien gefunden wurden. Die Daten basieren auf einer Kohorte von fast 13.000 im Jahr 1953 geborenen Personen und ihren Geschwistern, die alle im Großraum Stockholm aufgewachsen sind. Die Ergebnisse zeigen, dass Nachbarschaftskorrelationen im Allgemeinen sehr klein und insbesondere viel kleiner sind als die Geschwisterkorrelationen. Das Leben in der gleichen Nachbarschaft scheint nicht viel zu den Geschwisterähnlichkeiten hinzuzufügen.;-;-;-;https://link.springer.com/article/10.1007/s10888-010-9144-1 7833720fcc243f5b7d56a9e241ce281f;de;;;1.3.;;;Persönliche Meinungen in Klassenzimmerinteraktionen zum Ausdruck bringen: Die Rolle von Humor und der Zurschaustellung von Unsicherheit Un Wir wollten aufdecken, wie junge Menschen mit den Herausforderungen der persönlichen Meinungsäußerung im Unterricht umgehen. Basierend auf einem Korpus von Video-Aufzeichnungen des Französisch L1-Unterrichts an einer Sekundarschule in der Schweiz untersuchen wir die interaktiven Ressourcen, die die Schüler dafür einsetzen, darunter Humor und Behauptungen der Unsicherheit als Mittel zum Umgang mit der potenziell heiklen Natur von Meinungsäußerung. Wir zeigen, wie im Klassenzimmer sowohl von Lehrkräften als auch von Gleichaltrigen auf die Äußerung persönlicher Meinungen und damit verbundener Ressourcen reagiert wird. Die Studie beleuchtet die Interaktionskompetenz der Studierenden, indem sie dokumentiert, wie sie bei der Äußerung persönlicher Meinungen subtil zwischen Durchsetzungsvermögen und Unsicherheit als Reaktion auf die lokalen Umstände der laufenden Interaktion abwägen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-46867-9_2 1453bee34f2ccde467c692418dd31fa6;de;;;1.3.;;;Die Auswirkungen von Belastungshitzestress auf die gastrointestinale Integrität, gastrointestinale Symptome, das systemische Endotoxin- und Zytokinprofil Die Studie zielte darauf ab, die Auswirkungen von Belastungshitzestress auf die gastrointestinale Integrität, Symptome, systemische Endotoxin- und Entzündungsreaktionen zu bestimmen und die Beziehung zwischen Veränderungen der Körpertemperatur und gastrointestinalen Störungen zu bewerten.;-;-;-;https://link.springer.com/article/10.1007/s00421-017-3781-z fe3b3314b9aa4d3f3d19a7b3b7ce636e;de;;;1.1.;;;Mehrere Wissensprozesse Das letzte Kapitel endete mit einem neuen Modell des sozialen Wissens, das strategisch entweder als naiver Wissenschaftler oder kognitiver Geizhals fungieren kann. In diesem Kapitel stellen wir die vielfältigen Wissensprozesse vor, die entwickelt wurden, um die taktische Flexibilität zu ermöglichen, unterschiedliche Ziele zu verfolgen. Wir behandeln nicht nur bewusste explizite Kognition, sondern untersuchen auch automatische, introspektiv unbekannte implizite Kognition. Wir betrachten auch Affekt und ökologisch begründete Wahrnehmung als Beiträge zum Wissen, die nicht nur außerhalb des Bewusstseins liegen, sondern auch jenseits der Kognition im traditionellen Sinne. Im nächsten Kapitel betrachten wir, wie multiple Wissensprozesse Stereotypen und Vorurteile erzeugen und überwinden. Auf dem Weg dorthin entstauben wir eine andere Tradition, die Psychoanalytische, und erkennen ihr Erbe an, wenn wir zum Studium unbewusster Wissensprozesse zurückkehren, jetzt mit experimentellen Methoden. Durchgängig wird die Komplementarität der Anforderungen des sozialen Lebens und der Gestaltung des wissenden Systems gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5843-9_6 5f5c0a95ff177e89416dbb9e727daab0;de;;;1.3.;;;Schwere neuropsychiatrische und externalisierte Störungen der Adoleszenz und Kindheit Externalisierende Störungen wurden als solche Störungen definiert, bei denen ein offenes Verhalten vorliegt [APA]. Externalisierte Störungen sind durch zahlreiche dysfunktionale Verhaltensweisen gekennzeichnet, die das Management in den sozialen und psychologischen Aspekten des Lebens des Kindes erschweren. Zu den zu untersuchenden externalisierten Störungen gehören die Aufmerksamkeitsdefizit-Hyperaktivitätsstörung und die Verhaltensstörung. Schwere neuropsychiatrische Störungen, einschließlich Tourette-Syndrom, Asperger-Syndrom und Autismus (durchdringende Entwicklungsstörungen der Kindheit), werden hier aufgrund der Ähnlichkeiten in den betroffenen Hirnarealen und in den vermuteten Neurotransmittersystemen diskutiert. Comings (1990) legt nahe, dass viele der Symptome von ADHS und Frontallappendysfunktion auch mit Autismus und Tourette-Syndrom geteilt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-47672-8_6 2642d66924433f565bdbd21fb5e614d7;de;;;1.3.;;;"Produktiver Konsum und Wachstum in Entwicklungsländern Das gemeinsame Interesse fast aller Entwicklungs- und Wachstumstheorien ist das Grundkonzept des „harschen“ intertemporalen Konsum-Trade-offs: Der aktuelle Konsum reduziert zwangsläufig zukünftige Konsummöglichkeiten im mit oder ohne Sinn. Dies gilt für die frühen ""Low-Level-Gleichgewichtsfallen-Theorien"" (Nelson, 1956 und Leibenstein, 1957), die neoklassische Wachstumstheorie (Solow, 1956, Swan, 1956, Ramsey, 1928, Cass, 1965 und Koopmans, 1965) sowie die endogenen Wachstumstheorien (zB Lucas, 1988, Romer, 1990 und Rebelo, 1991).";-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45784-5_4 6caf4b32e5a8fb1bf56e09f20f8e9c6d;de;;;1.1.;;;Organisationen, die komplexe Projekte in unsicheren Umgebungen durchführen Jüngste Erkenntnisse deuten darauf hin, dass das Umfeld von Unternehmen komplexer und unsicherer wird. Dieser Beitrag untersucht den Zusammenhang zwischen der Komplexität der Unternehmensaktivitäten, Umweltunsicherheiten und der Organisationsstruktur. Wir gehen davon aus, dass Agenten hierarchisch angeordnet sind, aber Entscheidungen können auf verschiedenen Ebenen getroffen werden. Wir modellieren die Aktivitätsmenge eines Unternehmens als modifiziertes;-;-;-;https://link.springer.com/article/10.1007/s11403-007-0025-z 12dddd1bc69b2dece5e0b736daf97a64;de;;;1.1.;;;Reservoir Computing mit Computational Matter Das Reservoir-Computing-Paradigma der Informationsverarbeitung ist als natürliche Antwort auf das Problem des Trainings rekurrenter neuronaler Netze entstanden. Es wurde erkannt, dass die Trainingsphase vermieden werden kann, vorausgesetzt, ein Netzwerk hat einige wohldefinierte Eigenschaften, z. die Eigenschaft echo state. Diese Idee wurde auf beliebige künstliche dynamische Systeme verallgemeinert. Im Prinzip könnte jedes dynamische System für fortgeschrittene Informationsverarbeitungsanwendungen verwendet werden, vorausgesetzt, dass ein solches System die Trennungs- und die Approximationseigenschaft besitzt. Um diese Idee in die Praxis umzusetzen, braucht es nur eine einfache Ausleseschicht, über die auf die internen Zustände des Systems zugegriffen werden kann. Im Folgenden werden einige Anwendungsszenarien dieser generischen Idee zusammen mit einigen verwandten technischen Aspekten diskutiert. Wir behandeln beide praktischen Probleme, die bei der Umsetzung der Idee auftreten können, und diskutieren verschiedene Strategien zur Lösung solcher Probleme.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-65826-1_14 e2a5af83d823a8020d10c9284f2c230f;de;;;1.1.;;;Selbstheilungsaspekte von EMDR: Der therapeutische Veränderungsprozess und Perspektiven integrierter Psychotherapien Eye Movement Desensitization and Reprocessing (EMDR) (Shapiro 1989a, 1989b, 1995) ist ein innovativer, umfassender Ansatz in der Psychotherapie. Während der Einsatz von Augenbewegungen durch EMDR viel Aufmerksamkeit auf sich gezogen hat, lässt sich die Wirksamkeit der EMDR-Methode sparsam mit vielen Therapieformen erklären. Langs (1985) Informationsverarbeitungsnetzwerke bieten eine Möglichkeit, das von Shapiro vorgeschlagene Accelerated Information Processing-Modell zur Erklärung von EMDR zu verstehen. Eine repräsentative EMDR-Sitzung wird präsentiert, um die integrativen Komponenten der Verfahrenselemente von EMDR und das Spektrum der klinischen Wirkungen zu veranschaulichen. Therapeutische Veränderungen als Ergebnis der Selbstheilung mit EMDR werden aus der Perspektive anderer psychotherapeutischer Ansätze diskutiert, um den Beitrag von EMDR zur psychotherapeutischen Integrationsbewegung zu verstehen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1009400317083 b2b2f4e97140a03640d99c0c0fd01b38;de;;;1.3.;;;Sthenie, Ehrgeiz und Bildungsstand bei Patienten mit ankylosierender Spondylitis: Eine kontrollierte Studie der Persönlichkeitsmerkmale im Vergleich zu rheumatoider Arthritis und nicht näher bezeichneten Kreuzschmerzen Im Vergleich zu Kontrollgruppen mit rheumatoider Arthritis und chronischen nicht-entzündlichen Kreuzschmerzen wurden über hundert polyklinische Patienten mit ankylosierender Spondylitis durch psychologische Tests auf verschiedene Persönlichkeitsmerkmale untersucht und erwiesen sich als relativ sthenisch und gebildet. Um diese Persönlichkeitsmerkmale zu erklären, scheinen bei der Spondylitis ankylosans einige krankheitsbezogene Faktoren relevant zu sein: ein relativ milder Krankheitsverlauf, Linderung der Beschwerden durch Bewegung und eine lange Vordiagnostik.;-;-;-;https://link.springer.com/article/10.1007/BF02032082 f7b9ddd56498b5e8994e97566bcd0d3a;de;;;1.3.;;;Wortüberwachungsaufgaben interagieren mit Darstellungsebenen während des Sprachverstehens Forscher verwenden häufig Daten aus Überwachungsaufgaben, um zu argumentieren, dass Bedeutungsbeschränkungen Prozesse auf niedrigerer Ebene erleichtern. Eine alternative Hypothese ist, dass die Verarbeitungsebene, die eine Überwachungsaufgabe erfordert, mit der Verarbeitung auf Diskursebene interagiert. Die Probanden überwachten gesprochene Sätze auf ein Synonym (semantische Übereinstimmung), ein unsinniges Wort (phonologische Übereinstimmung) oder einen Reim (phonologisch und semantisch eingeschränkte Übereinstimmung). Die kritischen Ziele erschienen am Anfang des Schlusssatzes in Zweisatzsätzen, die mit if begannen, was eine semantische Analyse auf Diskursebene signalisiert, oder mit obwohl, das eine oberflächliche Repräsentation beibehält. Die Synonym-Überwachungszeiten waren für if schneller als für obwohl, die Zeiten für die Überwachung von Unsinnswörtern waren schneller als für if, und die Reim-Überwachungszeiten waren für if und obwohl nicht unterschiedlich. Die Ergebnisse zeigen, dass Konjunktionen beeinflussen, wie Hörer ihre Aufmerksamkeit semantischen gegenüber phonologischen Informationen zuweisen, was bedeutet, dass Hörer diese Art von Informationen unabhängig bilden.;-;-;-;https://link.springer.com/article/10.1023/A%3A1005148104885 dd946d2bcb5979f5ccdc95107fa9b2f9;de;;;1.3.;;;Eine Studie zum Bildungsprogramm für Fachoberschulen zur Entwicklung von App Contents Based Authoring Tools Diese Arbeit befasst sich mit der Forschung für den Kurs, der Mobile App produziert. Inhalte mit App. Autorentool und Gegenstand dieser Forschung ist die Einführung des Regelunterrichts an den Fachoberschulen. Die Forschung wird mit der Methode der Fragebogenerhebung durchgeführt, die zweimal durchgeführt wird. Die 1. Fragebogenerhebung wurde bei 136 Lehrkräften von 82 Fachoberschulen und die 2. Umfrage bei 160 Lehrkräften von 71 Fachoberschulen durchgeführt. Skala für die Fragebogenerhebung wurden in 5 Stufen unterteilt. Um den Nutzen aus dem Ergebnis der Umfrage abzuleiten, wurde allen teilnehmenden Lehrern eine Vorschulung für 8 Stunden an einem Tag angeboten, bevor sie zwei Fragebogenerhebungen beantworteten. Inhalt der Ausbildung war die Erstellung einer mobilen App. Inhalte per App. Authoring-Tool. Das Ergebnis der Fragebogenerhebungen ergab, dass 87% der Befragten der 1. Umfrage und 93% der Befragten der 2. Umfrage die Machbarkeit für die Anwendung der Ausbildung präsentierten, die mit Sehr zufriedenstellend und Befriedigend, zwei oberen der fünf Waage. Die 1. Umfrage und 2. Umfrage wurden im Abstand von sechs Monaten durchgeführt und das Ergebnis der 2. Umfrage zeigte eine Steigerung um 6% gegenüber der 1. Umfrage.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32692-9_83 0ee982342af9301b46441877b7d0c52e;de;;;1.1.;;;Voraussetzungen und Fragen zum Umgang mit Chinesisch in internationalisierten Bewerbungen Die Besonderheiten der chinesischen, insbesondere der Hanzi-Verarbeitung mit Computern werden beschrieben, und es werden Probleme mit Bezug auf die Umgebung tragbarer Anwendungen behandelt. Obwohl sich ein Großteil der Beschreibung auf lokalisierte Probleme bezieht, gilt die Betrachtungsweise für tragbare, internationalisierte Anwendungen.;-;-;-;https://link.springer.com/article/10.1007/BF02946168 d76252b69aea3f4ec419a0193102f1cf;de;;;1.1.;;;Verschränkung, Parataxie und Kosmologie Der Physiker-Philosoph Michael Polanyi betonte, dass kein anderes Gebiet der mathematischen Physik unser Gefühl der intellektuellen Zufriedenheit so stark verändert habe wie die Entdeckung der Quantentheorie ([37]). Obwohl im Grunde anti-intuitiv, fesselt „Quantenrealität“ die Vorstellungskraft wie die Relativitätstheorie;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-2008-3_32 334c50f0937fcf85a05d2e00856d35a9;de;;;1.3.;;;Regionale Verteilung und Tagesvariation von tiefen Konvektionssystemen über der asiatischen Monsunregion Unter Verwendung von 12-Jahres-Daten des auf der Tropical Rainfall Measuring Mission (TRMM) basierenden Niederschlagsradars (PR) werden räumliche und tageszeitliche Variationen von tiefen Konvektionssystemen (DCSs) über der asiatischen Monsunregion analysiert. Die DCSs werden durch ein 20 dBZ Echotop definiert, das sich über 14 km erstreckt. Die räumliche Verteilung der DCS-Genese wird ebenfalls unter Bezugnahme auf die Reanalysedaten der National Centers for Environmental Prediction (NCEP) diskutiert. Die Ergebnisse zeigen, dass DCS hauptsächlich über Land auftreten. Sie konzentrieren sich während der Vormonsunzeit südlich von 20°N und bewegen sich dann deutlich in die Regionen der mittleren Breiten, wobei die aktivste Region während der Monsunzeit am Südhang des Himalaya liegt. DCS über dem tibetischen Plateau sind häufiger als in Zentral-Ost-China, aber kleiner in horizontaler Skala und schwächer in konvektiver Intensität. DCS in Zentral-Ost-China haben robustere Aufwinde und erzeugen mehr Blitze als in anderen asiatischen Monsunregionen. Die horizontale Skala von DCSs über dem Ozean ist größer als die über den anderen Regionen, und die entsprechende minimale Infrarot-(IR)-Helligkeitstemperatur ist niedriger, während die konvektive Intensität schwächer ist. Kontinentale DCS sind häufiger von Mittag bis Mitternacht und DCS über dem tibetischen Plateau häufiger von Mittag bis Abend. Die ozeanische DCS-Frequenz hat einen schwächeren Tageszyklus mit einem Maximum der Morgendämmerung, und die Tagesvariation der DCSs über dem tropischen maritimen Kontinent stimmt mit der über dem Kontinent überein.;-;-;-;https://link.springer.com/article/10.1007/s11430-012-4551-8 aac03ec74ab7cb809b6e27dbab7df318;de;;;1.3.;;;Motivation der Schüler durch Online-Wettbewerb: Eine Analyse der Zufriedenheit und des Lernstils Das Bologna-Modell verfolgt das Ziel, die Qualität der Hochschulbildung und damit die Humanressourcen in ganz Europa zu verbessern. Eine der Aktionslinien des Bologna-Prozesses ist die Förderung der Attraktivität des Europäischen Hochschulraums (EHR). Motivierte Studierende sind dabei ein zentrales Element. Motivation kann auf verschiedene Weise erreicht werden, von denen einer in diesem Papier untersucht wird, und besteht darin, aktive E-Learning-Methoden zu verwenden, um die Schüler zu zwingen, während ihres Lernprozesses untereinander zu konkurrieren. Die Beziehung zwischen Motivation und Wettbewerb wird anhand einer Reihe von Hypothesen analysiert, die sich auf Elemente wie den Zufriedenheitsgrad der Schüler mit unterschiedlichen Lernstilen (kompetitiv, kollaborativ...) bei der Verwendung des wettbewerbsorientierten aktiven E-Learning-Tools namens QUESTournament konzentrieren. Dieses System wurde in mehreren Universitätsstudiengängen mit unterschiedlichen Abschlüssen und Diplomen verwendet, die an der Universität Valladolid (Spanien) gelehrt werden. Die aus diesen Erfahrungen gesammelten Daten werden analysiert und diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85033-5_17 01cc56621c11bd71bb9ccd674ce485e3;de;;;1.3.;;;Impact Factor von E - Learning: Fallstudie Sekundarschulbildung Mit der festen Überzeugung, dass technologiegestütztes Lernen soziale und wirtschaftliche Grenzen wirklich aufheben kann, hat das Konzept des E-Learning vielen Schülern geholfen, ihre Träume zu verwirklichen. Diese vielfältigen Aktivitäten zeugen von der festen Ausrichtung und dem Engagement für die Verbreitung hochwertiger Bildung. Der Einsatz audiovisueller Technologien nimmt in den großen indischen Städten exponentiell zu. In diesem Papier haben wir einen Impact-Faktor vorgeschlagen, um die schulischen Leistungen der Schüler derjenigen Schulen zu berechnen, an denen die E-Learning-Technologie bereits eingeführt wurde. Es wurden Experimente mit akademischen Daten der letzten drei Jahre durchgeführt, um die Gesamtwirkung von E-Learning in der Sekundarstufe zu zeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12214-9_66 be996966ce501681a1643e4f675f3bc3;de;;;1.1.;;;Fuzzy-Risikoberechnung Um die Ungenauigkeit der Risikobewertung in Bezug auf Wahrscheinlichkeiten aufzuzeigen, führen wir in diesem Kapitel die Möglichkeits-Wahrscheinlichkeits-Verteilung (PPD) ein. Wir konzentrieren uns auf die Berechnung und Anwendung einer PPD. Abschnitt 12.1 enthält die Definition einer PPD. Abschnitt 12.2 entwickelt die Methode der Informationsverteilung, die einen Algorithmus zur Berechnung einer PPD bildet. Abschnitt 12.3 führt den Fuzzy-Erwartungswert einer PPD ein, um Alternativen einzustufen. Abschnitt 12.4 gibt ein reales Beispiel im Hochwassermanagement, um den Nutzen des Rankings basierend auf einer PPD aufzuzeigen. Wir fassen dieses Kapitel in Abschnitt 12.5 zusammen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-1785-0_12 e3ea6354f6eeac63d840823814e1f421;de;;;1.3.;;;Effizientes Design des rotierenden Wanderwellenoszillator-Arrays durch geometrische Programmierung Dieses Papier präsentiert eine effiziente Methode zur globalen Optimierung und Automatisierung der Komponentendimensionierung für rotierende Wanderwellenoszillator-Arrays. Das konzentrierte Äquivalenzmodell von Übertragungsleitungen, die durch Wechselrichterpaare belastet werden, wird bewertet und Posynomialfunktionen für Schwingungsfrequenz, Verlustleistung, Phasenrauschen usw. werden unter Verwendung der Übertragungsleitungstheorie formuliert. Das resultierende Designproblem kann als geometrisches Programmierproblem formuliert werden, das mit einem konvexen Optimierungslöser effizient gelöst werden kann. Das vorgeschlagene Verfahren kann die globalen Optima effizienter berechnen als das traditionelle iterative Schema und verschiedene Entwurfsprobleme können mit demselben Schaltungsmodell gelöst werden. Die global optimalen Kompromisskurven zwischen konkurrierenden Zielen werden auch berechnet, um robuste Designs durchzuführen und den Designraum schnell zu erkunden.;-;-;-;https://link.springer.com/article/10.1631/jzus.A0820774 3a223b7cc1dd1155c4484743b7cd3529;de;;;1.3.;;;Auf dem Weg zur erfolgreichen Implementierung eines virtuellen Klassenzimmers für die berufliche Hochschulbildung in Indonesien Das virtuelle Klassenzimmer wächst weiter, wird aber immer mehr zur Norm und unterscheidet sich grundlegend von den Berufsschülern an der indonesischen Universität. Mit den versprochenen Vorteilen des virtuellen Klassenzimmers treten bei der Umsetzung viele Herausforderungen und Schwierigkeiten auf. Obwohl es bereits erfolgreiche Gestaltungsprinzipien für virtuelle Klassenzimmer gibt, die Organisationen bei der Bewältigung der Herausforderungen unterstützen, fehlt in Indonesien noch der Ansatz zur Umsetzung der Gestaltungsprinzipien des virtuellen Klassenzimmers an der beruflichen Hochschule. In dieser Studie wollen wir die Forschungslücke schließen und nutzen die designwissenschaftliche Forschung, indem wir die Dozenten interviewen, um die Lösungen zu entwerfen. Die vorgeschlagenen Gestaltungsansätze wurden in einer Lehrveranstaltung umgesetzt und mit Studierenden aus zwei verschiedenen Gruppen evaluiert. Insgesamt zeigt die Evaluierung der vorgeschlagenen Ansätze 1 signifikante Ergebnisse als Indikator für den Nutzen der Implementierung eines virtuellen Klassenzimmers für Berufsschüler in Indonesien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20798-4_14 52dc2924071dadbba30e7e8426a20bd6;de;;;1.3.;;;Meine frühe Bildung und gleichzeitige Objekte Vor Erreichen des obligatorischen Rentenalters der Universität Tokio habe ich die Universität verlassen und bin im Frühjahr 2011 an das Riken Advanced Institute of Computational Science (AICS) gewechselt. Das AICS hat seinen Sitz in Kobe, das 600 km westlich von Tokio liegt . Es ist die zweite Stadt außerhalb von Tokio, in der ich gelebt habe, mit Ausnahme von Boston in den USA. Neben dem für mich neuen Standort von AICS sind auch die Aufgaben des Instituts, für die ich mitverantwortlich bin, neu. Im Mai 2012 hatte ich die Ehre, an einem internationalen Workshop teilzunehmen, der von vielen meiner ehemaligen Studenten und Kollegen im Ausland organisiert wurde, um mein 65;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44471-9_1 0f5a44ea4352634dd409724b168b2263;de;;;1.3.;;;VRacter: Untersuchung der charakterbasierten Avatar-Präferenz in der Bildung Das Finden der besten Übereinstimmung für Schüler und Lehrer wird als vielversprechender Weg angesehen, um den Lerngewinn zu maximieren und die Lernerfahrung in jedem renommierten Bildungsinstitut zu verbessern. Charaktere, d. h. Merkmale, die zwischen Individuen unterscheiden, wie die Persönlichkeit, sind ein Schlüsselaspekt in jeder menschlichen Interaktion, auch in der zwischen Schülern und Lehrern. Charakter definiert, wie sich eine Person in einer bestimmten Situation verhält. In der aktuellen Arbeit konzentrieren wir uns auf Schüler in einer virtuellen Lernumgebung mit einem Lehrer-Avatar, der einen bestimmten Unterrichtsstil verkörpert, und den daraus resultierenden Lerngewinn. Die Hauptforschungsfrage ist, wie sich bestimmte Charakterkomponenten des Schülers in den verschiedenen Situationen (Lehrer mit unterschiedlichen Stilen) auf seinen Lernerfolg auswirken. Die Verwendung einer kontrollierten und dennoch anpassbaren Umgebung wie der virtuellen Realität ist gut geeignet, um diese Übereinstimmung zwischen verschiedenen Lehrer- und Schülerstilen zu untersuchen. Dieser Beitrag untersucht den Zusammenhang zwischen verschiedenen Verkörperungen pädagogischer Handlungscharaktere und der Persönlichkeit der Studierenden in Bezug auf ihren Erkenntnisgewinn. Die verschiedenen Agenten-Charaktere werden durch Körpersprache und Sprechstil verkörpert, modelliert durch unterschiedliche Bewegungsanimationen sowie das Tempo und den Tonfall der Sprache. Der Lerngewinn eines jeden Schülers, der sich aus dem Besuch von zwei VR-Kurzvorträgen für zwei virtuelle Lehrer mit unterschiedlichen Unterrichtsstilen ergibt, wird berechnet und auf die Persönlichkeit des Schülers bezogen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-51999-5_6 b84cff360a5b436e66ca833f732e49f9;de;;;1.3.;;;Ein Trainingsalgorithmus zur Stärkung der generischen Kompetenzen von Hochschulstudenten In den letzten Jahren hat sich herausgestellt, dass kolumbianische Studenten im Grundstudium Defizite in allgemeinen Kompetenzen wie Sprachen, Mathematik und quantitativem Denken aufweisen. Diese Kompetenzen sind grundlegende Fähigkeiten, die die Studierenden während eines Bachelor-Programms entwickeln müssen. Darüber hinaus sind diese Kompetenzen bestimmend für die Lernleistung der Studierenden während des gesamten Bachelor-Studiengangs. In diesem Beitrag schlagen wir eine Gamification-Strategie vor, die auf der Selbstbestimmungstheorie basiert, um Studenten im Grundstudium zu motivieren, generische Kompetenzen zu trainieren und zu verbessern. Gamification wurde bereits mehrfach erfolgreich im Bildungswesen eingesetzt, jedoch nicht zur Stärkung allgemeiner Kompetenzen. Darüber hinaus beinhaltet unsere Strategie einen Ansatz, das Wissen zu stärken, indem die schwächsten Kompetenzen eines Schülers identifiziert und ihm/ihr die Möglichkeit geboten wird, zu bestimmten Themen zu trainieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98998-3_16 04fc4ef8633f960c6c8a437f25ee1d8a;de;;;1.3.;;;EmbedIT – Ein offenes Robotik-Kit für die Bildung Roboter wurden im Unterricht oft als pädagogisches Werkzeug verwendet, um Kinder an Wissenschaft und Technologie heranzuführen, Disziplinen, die von sinkenden Einschreibungen an Universitäten betroffen sind. Folglich sind viele Roboterbausätze ab Lager verfügbar. Obwohl viele dieser Plattformen einfach zu bedienen sind, konzentrieren sie sich auf einen klassischen Top-Down-Engineering-Ansatz. Darüber hinaus erfordern sie oft fortgeschrittene Programmierkenntnisse. In diesem Beitrag stellen wir ein offenes Robotik-Kit für den Bildungsbereich (EmbedIT) vor, das sich derzeit in der Entwicklung befindet. Im Gegensatz zu herkömmlichen Roboterbausätzen ermöglicht EmbedIT den Schülern einen nicht ingenieursorientierten Zugang zur technischen Welt. Über eine grafische Benutzeroberfläche können die Schüler Roboter einfach bauen und steuern. Wir glauben, dass, sobald Faszination und ein grundlegendes Verständnis für Technik aufgebaut sind, die Barriere zum Erlernen weiterführender Themen wie Programmierung und Elektronik geringer ist. Weiter beschreiben wir die Hard- und Software von EmbedIT, den aktuellen Stand der Implementierung und mögliche Anwendungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21975-7_4 5d84ec8c195007e9429ce885f72eed9a;de;;;1.1.;;;Die kognitive Seite der Angst Aufbauend auf einer Differenzierung der Kognitionsdimensionen (Präpositionen/Inhalte, Operationen, Produkte, Strukturen) wird ein kognitives Komponentenmodell der Angst vorgeschlagen und beschrieben. Das Modell besteht aus den kritischen psychopathologischen Merkmalen, gemeinsamen psychopathologischen Merkmalen und der Fehlervarianz. Kognitive Verzerrungen werden von kognitiven Defiziten unterschieden. Spezifische kritische Merkmale wie schematischer Inhalt und Funktionsweise, zeitliche Verzerrungen und aufgabenirrelevantes Denken werden beschrieben und gelten als relativ angstspezifische Aspekte der kognitiven Funktionsweise. Gemeinsame Merkmale wie Selbstabsorption, automatische Verarbeitung, Kapazitätsbeschränkungen und kognitive Asymmetrie werden ebenfalls beschrieben, werden jedoch als Aspekte dysfunktionaler Kognition im Zusammenhang mit Angstzuständen sowie einigen anderen verwandten Psychopathologien betrachtet. Fragen, die zusätzliche Forschung erfordern, werden notiert.;-;-;-;https://link.springer.com/article/10.1007/BF01183856 3bd5a96df6a800a32ac6bcd444462075;de;;;1.3.;;;Kampf gegen das Stigma des „Second-Tier“-Status: Die Entstehung einer „semi-elite“ privaten Hochschulbildung in Vietnam In ihrem dritten Entwicklungsjahrzehnt wurde die zeitgenössische vietnamesische private Hochschulbildung (PHE) trotz ihrer Expansion und ihres steigenden Beitrags zum vietnamesischen Hochschulsystem nur wenig beachtet. Im Wesentlichen werden private Hochschulen im Vergleich zu öffentlichen Universitäten oft als Einrichtungen der zweiten Ebene betrachtet. Ein solches Stigma rührte nicht nur von im Allgemeinen unauffälligen Studenten an privaten Universitäten her, sondern auch von einzigartigen sozioökonomischen Merkmalen eines kommunistischen Staates, in dem das Konzept des Privatsektors oft Fragen der politischen Korrektheit aufwirft. Ich stütze mich auf qualitative und quantitative Daten aus verschiedenen Quellen, um zu argumentieren, dass Vietnams PHE viele Potenziale hat, um das Stigma des Zweitrangs zu überwinden und die erste Wahl von Mittelschichtstudenten zu werden. Insbesondere finde ich, dass die im Rahmen von Doi Moi (Reform) 1986 eingeleiteten makroökonomischen Reformen privaten Universitäten zahlreiche Möglichkeiten zur Bekämpfung des Stigmas der zweiten Stufe eröffnet haben. Darüber hinaus weisen meine Daten auch auf eine bestimmte Gruppe privater Universitäten hin, die eine große Anzahl von Studierenden mit akademischen und finanziellen Fähigkeiten eingeschrieben haben. Die Ergebnisse meines Kapitels implizieren, dass das staatliche Monopol in der Hochschulbildung, einschließlich der Bereitstellung hochwertiger Bildung, zu Ende gegangen ist – nichtstaatliche Sektoren sind jetzt ein echtes Gegengewicht zum staatlichen System geworden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-46912-2_8 48b6776711861de9bbc6e32f6a565931;de;;;1.1.;;;Eine Einführung in die Informationstheorie mit Anwendungen auf die Neurowissenschaften Angesichts der stetig steigenden Quantität und Qualität der aus neuronalen Systemen gewonnenen Daten aller Größenordnungen wurden in den letzten Jahrzehnten informationstheoretische Analysen in den Neurowissenschaften immer beliebter. Solche Analysen können tiefe Einblicke in die Funktionsweise solcher Systeme liefern und auch bei der Charakterisierung und Analyse der neuralen Dysfunktion helfen, ein Thema, das in letzter Zeit in den Forschungsfokus der Computational Neurosciences gerückt ist. Dieses Kapitel soll eine kurze Einführung in die Grundlagen der Informationstheorie geben, nicht nur, aber besonders geeignet für Personen mit weniger fundierten Kenntnissen in Mathematik und Wahrscheinlichkeitstheorie. Bei den Anwendungen liegt der Fokus auf neurowissenschaftlichen Themen. Wir beginnen mit einem Überblick über die Grundlagen der Wahrscheinlichkeitstheorie wie den Begriff der Wahrscheinlichkeit, Wahrscheinlichkeitsverteilungen und Zufallsvariablen. Anschließend diskutieren wir die Konzepte Information und Entropie (im Sinne von Shannon), Mutual Information und Transferentropie (manchmal auch als bedingte Mutual Information bezeichnet). Da diese Größen für Messdaten in der Praxis nicht berechnet werden können, diskutieren wir Schätztechniken für informationstheoretische Größen. Wir schließen mit einer Diskussion über Anwendungen der Informationstheorie im Bereich der Neurowissenschaften, einschließlich Fragen zu möglichen medizinischen Anwendungen und einem kurzen Überblick über Softwarepakete, die für die informationstheoretische Analyse neuronaler Daten verwendet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-8785-2_5 8ee49e37b23556328ae021d70a43a321;de;;;1.3.;;;Zustandszuweisungsalgorithmus mit niedriger Leistung für FSMs unter Berücksichtigung der Spitzenstromoptimierung Die Finite-State-Machine (FSM) spielt eine entscheidende Rolle beim Design sequentieller Logik. In einem FSM kann der hohe Spitzenstrom, der durch Zustandsübergänge gezogen wird, zu einem großen Spannungsabfall und einer Elektromigration führen, die die Zuverlässigkeit der Schaltung erheblich beeinträchtigen. Mehrere veröffentlichte Veröffentlichungen zeigen, dass der Spitzenstrom durch Nachoptimierungsschemata oder auf Boolesche Erfüllbarkeit (SAT) basierende Formulierungen reduziert werden kann. Diese Verfahren zum Reduzieren des Spitzenstroms erhöhen jedoch entweder die Gesamtverlustleistung oder sind nicht effizient. In diesem Papier wurde ein Algorithmus zur Zuweisung von Zuständen mit niedrigem Stromverbrauch mit Beschränkungen für den Spitzenstrom nach oben vorgeschlagen. Zuerst werden die Spitzenstrombeschränkungen in die Zielfunktion durch eine Lagrange-Relaxationstechnik mit Lagrange-Multiplikatoren gewichtet, um die Verletzung zu bestrafen. Zweitens werden Lagrange-Teilprobleme durch einen genetischen Algorithmus mit Lagrange-Multiplikatoren gelöst, die durch das Subgradient-Optimierungsverfahren aktualisiert werden. Schließlich bestimmt ein heuristischer Algorithmus die obere Grenze des Spitzenstroms und erzielt eine Optimierung zwischen Spitzenstrom und Schaltleistung. Experimentelle Ergebnisse der Benchmark-Suiten des International Workshop on Logic and Synthesis (IWLS) 1993 zeigen, dass die vorgeschlagene Methode eine Reduzierung des Spitzenstroms um bis zu 45,27%, eine Reduzierung der Schaltleistung um 6,31 % und eine signifikante Reduzierung der Laufzeit im Vergleich zu zuvor veröffentlichten Ergebnissen erreichen kann.;-;-;-;https://link.springer.com/article/10.1007/s11390-013-1397-2 29e567b84b1a8d88175c3b01065eb198;de;;;1.3.;;;Erforschung und Anwendung von Bedarfsprognosen für urbane Logistik basierend auf einem neuronalen Netzwerk mit hoher Geschwindigkeit und präzisem genetischen Algorithmus In Anbetracht der Probleme, dass das städtische Logistiksystem ein unsicheres, nichtlineares, dynamisches und kompliziertes System ist und es schwierig ist, es mit traditionellen Methoden zu beschreiben, wird in diesem Beitrag eine Methode zur Vorhersage der Nachfrage nach städtischer Logistik basierend auf einem hochgeschwindigkeits- und präzisen neuronalen Algorithmus vorgestellt Papier. Das neuronale Hochgeschwindigkeits- und präzisen genetischen Algorithmus-Netzwerk ist mit dem adaptiven und Gleitkomma-Code-genetischen Algorithmus mit dem BP-Netzwerk kombiniert, das eine höhere Genauigkeit und eine schnellere Konvergenzgeschwindigkeit aufweist. Wir konstruieren die Netzwerkstruktur und geben den Algorithmusfluss an. Es werden die wichtigsten Parameter zur Beeinflussung der urbanen Logistiknachfrage untersucht. Mit der Fähigkeit des starken Selbstlernens und der schnelleren Konvergenz eines Hochgeschwindigkeits- und präzisen neuronalen Netzwerks mit genetischen Algorithmen kann die Prognosemethode die städtische Logistiknachfrage wirklich vorhersagen, indem sie die Indexinformationen der Auswirkungen der städtischen Logistiknachfrage lernt. Die tatsächlichen Prognoseergebnisse zeigen, dass diese Methode machbar und effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01510-6_63 7140e901c1db1470eb180ad07274da1d;de;;;1.3.;;;Annotierte chirurgische Manipulation für den Simulator-basierten chirurgischen Skill-Transfer mit SiRE – Simulation Record Editor Dieser Beitrag skizziert die Bemühungen zur Entwicklung eines Rahmens zur Annotation aufgezeichneter chirurgischer Eingriffe mit dem Ziel eines simulatorbasierten Kompetenztransfers in der Chirurgie. Das Framework basiert auf SiRE – Simulation Record Editor – einer Anwendung, die es medizinischen Lehrkräften ermöglicht, Variationen zu erstellen und chirurgische Eingriffe auch ohne chirurgische Manipulationskenntnisse perfekt zu zeigen. Durch die Verwendung von SiRE können physikalische Eigenschaften der aufgezeichneten Manipulation interaktiv und genau modifiziert werden. Bearbeitete Beispiele können kommentiert werden, da sie als selbstlernende Medien in der chirurgischen Ausbildung der Zukunft gedacht sind.;-;-;-;https://link.springer.com/chapter/10.1007/11790273_14 c6950a930a012643cd830dadf1eeb225;de;;;1.3.;;;Managementmodell von Spitzensportlern an allgemeinen Hochschulen und Universitäten Im 21. Jahrhundert war es sehr wichtig, die nachhaltige Entwicklung des Leistungssports in der Provinz Jiangsu zu verwirklichen, indem man sich auf die Ressourcen der allgemeinen Hochschulen und Universitäten stützte und hochrangige Sportmannschaften zusammenstellte. Aus der Perspektive des historischen Rückblicks und des Blicks in die Zukunft wird das Managementmodell von Spitzensportlern an allgemeinen Hochschulen und Universitäten der Provinz Jiangsu systematisch analysiert und versucht, einige Vorschläge für die Konstruktion des Managementmodells von Spitzensportlern im Allgemeinen zu geben Colleges und Universitäten der Provinz Jiangsu.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35470-0_32 c2f2f5c9f6eede0a7b10b40cfd19e86b;de;;;1.3.;;;Umgebungsbasierte virtuelle Interaktion zur Motivationssteigerung der MINT-Ausbildung: Die qualitative Interviewgestaltung und -analyse Die Entwicklung der IKT hat zur Verwendung von Simulation und Visualisierung (S&V) in verschiedenen Bereichen als nützliches virtuelles interaktives Werkzeug geführt. Obwohl es viele Diskussionen und damit verbundene Studien zur Relevanz von S&V in aktuellen Anwendungen gibt, erfüllen die vorgeschlagenen Tools und Methoden die Bedürfnisse der unterschiedlichen und dynamischen Nutzer heute nicht ausreichend. Eine Literaturstudie hat fünf Hauptkomponenten identifiziert, die die MINT-Motivation bei Schulkindern durch die Integration von S&V beeinflussen können: a) Simulation und Visualisierung für CAI, b) Motivationsniveau und -prozess, c) Grüne Umweltdaten, d) LernergebnisLearning und e) Anpassung an das Szenario. In dieser Studie werden grüne Umweltdaten als echte wissenschaftliche Daten verwendet. Um die identifizierten Komponenten zu validieren, wurden halbstrukturierte Interviews mit drei Experten mit unterschiedlichen Hintergründen aus den Bereichen Bildung, Umwelt und Informatik durchgeführt. Sie wurden aufgrund ihrer Erfahrungen und des Umfangs ihrer Arbeiten interviewt. Ziel des Interviews war es, von den Experten vertiefte Informationen über die Zuverlässigkeit und Eignung der identifizierten Komponenten und der zugrunde liegenden Elemente zu erhalten. Das Design des Interviewprotokolls und -instruments wird in diesem Papier vorgestellt, das aus Demografie und Hintergrund, Anwendung und Faktoren, die die Nutzung von S&V beeinflussen, Anwendung und Faktoren, die das Motivationsniveau und -prozess beeinflussen, die Nutzung von Umweltdaten und aktuelle Szenarien mit S&V-Technik. Anschließend wurden die Interviewdaten transkribiert, kodiert und anhand der identifizierten Themen kategorisiert. Das Ergebnis der Analyse zeigt 17 Elementgruppen, die weiter in 58 Unterelemente unterteilt wurden.;-;-;-;https://link.springer.com/article/10.1007/s10639-019-09996-y 5f9c29407327c14c9e87212f31c25164;de;;;1.1.;;;Gründe für die Annahme, dass das Leben nicht laplaceanisch ist Wie wäre eine zufriedenstellende mechanistische Theorie, die die Lücke zwischen dem Verhalten eines Menschen oder Tieres und dem, was im Gehirn vor sich geht, überbrückt? Wenn es um Details geht, dann gibt es auf diese Frage ungefähr so ​​viele Antworten, wie es Theoretiker gibt, die sich damit beschäftigen. Aber auf einer ausreichend abstrakten Ebene ist die Antwort einfach. Eine solche Theorie würde die folgende Form annehmen.;-;-;-;https://link.springer.com/chapter/10.1057/9780230377134_4 f1e0cdc7257d39fda314fa951e089d6d;de;;;1.1.;;;Auswirkungen von Nikotin auf die Wahrnehmungsgeschwindigkeit Es wird über zwei Experimente berichtet, die die Auswirkungen von Nikotin auf die Leistung im Inspektionszeit-(IT)-Verfahren untersuchen. Experiment 1 verglich ITs beim Rauchen (0,8 mg Nikotinzigarette), Scheinrauchen und Nichtraucherbedingungen. Die IT war beim Rauchen signifikant kürzer als beim Nichtraucher oder beim Scheinrauchen, was darauf hindeutet, dass Nikotin die frühe Informationsverarbeitung verbessert. Dieses Ergebnis ist wegen der Korrelation zwischen IT und IQ, die in früheren Experimenten berichtet wurde, von besonderem Interesse. Die nikotinbedingte Abnahme der IT lässt die Möglichkeit aufkommen, dass Nikotin zumindest einen Teil der physiologischen Prozesse, die der intellektuellen Leistungsfähigkeit zugrunde liegen, verstärkt. Experiment 2 untersuchte die Persistenz dieser nikotinbedingten Verbesserung der IT und untersuchte die Wirkungen von Nikotin in 480 IT-Studien. Die Ergebnisse deuten darauf hin, dass die ITs aus dem letzten Drittel der 480 Studien bei der 0,8-mg-Zigarette signifikant kürzer waren als bei der Nichtraucher-Bedingung. Die Ergebnisse dieser beiden Experimente, zusammen mit neueren Arbeiten, die die Auswirkungen von Nikotin auf das Saitenlängenmaß der AEP-Wellenformkomplexität und die Hick-Entscheidungszeit (DT) untersuchten, sowie Studien zur Untersuchung der kognitiven Funktionen und der Dysfunktion des cholinergen Systems bei Demenz deuten auf eine Rolle von das cholinerge System in der intellektuellen Leistung.;-;-;-;https://link.springer.com/article/10.1007/BF02246296 27ca746b60ce32a1c6aef1f41dff15a0;de;;;1.3.;;;Visuelle Überwachung industrieller Betriebszustände basierend auf Kernel Fisher Vector und selbstorganisierenden Kartennetzwerken Da industrielle Prozesse immer komplizierter werden und die Korrelation zwischen industriellen Prozessvariablen dazu neigt, starke nichtlineare Eigenschaften zu zeigen, ist es eine Herausforderung, industrielle Betriebszustände effektiv und visuell zu überwachen. Zur Verbesserung der Visualisierung der Prozessüberwachung wird eine Methode basierend auf Kernel-Fischer-Vektor- und selbstorganisierenden Kartennetzen (KFV-SOM) vorgeschlagen. In KFV-SOM wird zunächst die Kernel-Fischer-Diskriminanzanalyse verwendet, um Daten mithilfe einer nichtlinearen Funktion in den hochdimensionalen Raum abzubilden, und der optimale Fisher-Merkmalsvektor, der industrielle Betriebszustände passend darstellen kann, wird extrahiert. Das heißt, der Normalzustand und verschiedene Arten von Fehlern können im Fisher-Merkmalsvektorraum gut unterschieden werden. Die topologische Struktur des Fisher-Merkmalsvektorraums wird dann intuitiv auf der zweidimensionalen Ausgabekarte der selbstorganisierenden Karte (SOM) mit dem Fisher-Merkmalsvektor als Eingabe des SOM-Netzwerks visualisiert. Somit kann das KFV-SOM die Visualisierung des Monitorings effektiv realisieren. Der kontinuierliche Rührkesselreaktorprozess wird angewendet, um die Leistungsfähigkeit von KFV-SOM zu veranschaulichen. Das Ergebnis zeigt, dass KFV-SOM die Überwachung effektiv visualisieren kann und die Betriebszustände des Normalzustands und verschiedene Arten von Fehlern auf der Ausgangskarte des SOM-Netzwerks besser anzeigt als SOM, SOM integriert mit Hauptkomponentenanalyse, SOM integriert mit korrelativem Komponentenanalyse, SOM mit integrierter Fisher-Diskriminanzanalyse und SOM mit integrierter kanonischer Variablenanalyse.;-;-;-;https://link.springer.com/article/10.1007/s12555-018-0338-9 74a6cb0718c89663fbcdc16d393f1856;de;;;1.3.;;;Eine auf Virtual Reality und QFD basierende Bildungsstrategie zur Entwicklung von Soft Skills bei Studenten der Ingenieurwissenschaften Diese Arbeit zeigt eine auf Gamification basierende Bildungsstrategie zur Entwicklung von Soft Skills bei Ingenieurstudenten durch die Simulation des Prozesses der Produktentwicklung basierend auf QFD (Quality Function Deployment) in einer Virtual Reality Umgebung mit „Second Life“. Die in dieser Arbeit durchgeführten Schritte werden ausgehend vom Entwurfsprozess des Vorschlags erläutert, gefolgt von der Entwicklung des Vorschlags und der Bewertung. Schließlich zeigten die Ergebnisse, dass der Vorschlag seine Ziele erreichte, da die virtuelle Umgebung Bedingungen bot, die der QFD-Implementierung in einem Unternehmen sehr nahe kamen, was dazu beitrug, positive Interaktionen zwischen den Studenten zu fördern, die die Apathie und Angst unter ihnen überwanden und mit dem Abschluss endeten eine positive Wahrnehmung des Prozesses.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-31019-6_8 7a8e5c92c341b803110531ad40c4c421;de;;;1.3.;;;Alles zusammenbringen: Lektionen über formal erweiterte Lehrerrollen, Lehrer, die Schüler beraten, und Lehrer, die sozial-emotionale Unterstützung leisten King, Los Robles und Western entwickeln sich, wie alle Schulen, ständig weiter. In diesem Buch biete ich eine Momentaufnahme jeder Schule und ihrer Lehrer zu einem bestimmten Zeitpunkt an, wobei mir klar ist, dass sich das Beratungsprogramm jeder Schule seit meinen letzten Interviews wahrscheinlich geändert hat. Die „Schnappschüsse“ in den vorangegangenen Kapiteln dieses Buches zeigen, was passieren kann, wenn Schulen formal erweiterte Lehrerrollen zuweisen und wie die Unterstützung durch den Lehrerberuf und die K-12-Schulen die Umsetzbarkeit dieser Rollen einrahmen.;-;-;-;https://link.springer.com/chapter/10.1057/9781137311269_7 3f813f30401a52e43a1f80b67ec18701;de;;;1.3.;;;Modelländerung: Die Herausforderung der Inklusion Neben „Inklusion“ bedeutet Eingliederung in das Bildungssystem auch „Inklusion“ für die Einbindung von Wissen, zwei unterschiedliche Prozesse, die anfangs Hand in Hand gingen, aber mit der Erweiterung der Bildungssysteme allmählich auseinanderdriften. Während die Bevölkerung insgesamt, einschließlich der stärker benachteiligten Sektoren, ihr Bildungsniveau in den letzten Jahrzehnten verbessert hat, sind die erheblichen Anstrengungen in jüngster Zeit kaum noch zu erkennen. Es ist, als ob der Prozess aufgrund von Praktiken der pädagogischen Marginalisierung, die so eingebettet sind, dass sie sich ständig neu erfinden, ein Ende erreicht hätte. Das Bildungssystem hat seine Orientierung verloren, weil mit dem Aufkommen der Informations- und Kommunikationsgesellschaft ein neuer Ansatz erforderlich ist, der eine von seinen Ursprüngen abgeschnittene Neudefinition von Wissen impliziert. Auch bei der Suche nach einer gerechteren, demokratischeren Gesellschaft muss der Gedanke des „Einbeziehens“ ein zentraler Begriff sein. Dies impliziert die Entwicklung einer Reihe von Standpunkten oder Grundhaltungen, wenn wir über inklusive Bildung nachdenken. Da ist die ideologisch-politische Sichtweise, das heißt die Entwicklung des Ideals von Gerechtigkeit und Demokratie im Rahmen der Bildung als Recht, die erkenntnistheoretische Sichtweise, die darin besteht, den neuen Bildungsansatz in den neuesten Entwicklungen der Komplexitätstheorie der pädagogische Aspekt – das heißt, die Fortschritte der neuen Lernwissenschaften zu übernehmen, um eine neue „Technologie der Bildungsproduktion“ (Didaktik) zu entwickeln, die die Denkfähigkeit der gesamten Bevölkerung garantiert, und die institutionelle Sichtweise – die einer Überprüfung bedarf das Konzept eines „Schulsystems“ und die Einbeziehung anderer institutioneller Räume, indem die gesamte Gesellschaft als potenzielle „Lernumgebungen“ betrachtet wird.;-;-;-;https://link.springer.com/article/10.1007/s11125-008-9059-9 44eac844aaa27fc0e21d3fe1cf10ca21;de;;;1.1.;;;Ein neuronales Modell der ästhetischen Präferenz für das Produkt Es gilt, die Mechanismen der ästhetischen Sensibilität zu verstehen und ein Modell zu deren Vorhersage und Steuerung zu erstellen, um visuelle Elemente von Produkten strategisch zu gestalten, die die Nutzerbewertungen erhöhen. In diesem Kapitel wird ein kognitiver neurowissenschaftlicher Ansatz diskutiert, der versucht, subjektives Erleben und Verhalten von seiner biologischen Grundlage, dem Gehirn, als eine Methode zum Verständnis und zur Modellierung der menschlichen Ästhetik zu verstehen. Zunächst werden wir für dieses Kapitel eine Definition der Sensibilität geben und frühere Studien zur ästhetischen Sensibilität vorstellen. Anschließend diskutieren wir eine Studie, die ein kognitives neuronales Modell der ästhetischen Sensibilität gegenüber Produkten präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-38360-2_9 b37a64a384fb8fdca9026954a15ca1ac;de;;;1.3.;;;Inanspruchnahme der Physiotherapie bei Patienten mit rheumatischen Erkrankungen Rheumatische Erkrankungen sind häufige Erkrankungen des Bewegungsapparates, die die Funktionsfähigkeit und die gesundheitsbezogene Lebensqualität der Patienten beeinträchtigen. Die Physiotherapie (PT) ist eines der wichtigsten Behandlungselemente, und es gibt Hinweise auf ihre Wirksamkeit bei der Verringerung von Beeinträchtigungen und Behinderungen. Über den Einsatz von PT bei Patienten mit rheumatischen Erkrankungen in Deutschland ist jedoch wenig bekannt. Vor allem Einflussfaktoren wurden selten untersucht. Bei der Analyse von Über-, Missbrauch und Unternutzung können Versorgungsdaten sowohl positive als auch negative Einflussfaktoren aufzeigen, die dann bei Handlungsbedarf gezielt angesteuert werden können. In diesem Kapitel wird eine Sekundäranalyse des RheumaDat-Panels vorgestellt. Ziel war es, die Prävalenz der PT-Nutzung und ihre potenziellen Prädiktoren bei Patienten mit rheumatoider Arthritis oder Fibromyalgie zu bestimmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-9191-0_13 97af4c4c6d34048979b31549746ded3a;de;;;1.3.;;;Entwicklung eines Trainingssystems für die zahnärztliche Behandlung mit WebAR und Leap Motion Controller Studierende eines zahnmedizinischen Studiengangs müssen für ihre Ausbildung zum Zahnarzt viel Geld bezahlen, da sie in der zahnärztlichen Ausbildung teuren Zahnersatz verwenden müssen, der nach der Ausbildung weggeworfen wird. Wenn wir anstelle des physischen Zahnersatzes virtuelle Objekte bereitstellen können, die durch 3D-CG realisiert wurden, können Zahnmedizinstudenten ihre Ausbildungskosten drastisch reduzieren, da solche virtuellen Objekte wiederholt verwendet werden können und es keinen physischen Verlust gibt. Dann behandelt dieses Papier Trainingssysteme für zahnmedizinische Behandlungen. Die Autoren schlagen ein Prototypsystem vor, das die WebAR-Technologie und das Leap Motion Controller-Gerät verwendet, und zeigen in diesem Artikel Ergebnisse eines einfachen Experiments zur Bewertung des Prototypsystems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-50454-0_60 9861daa4745a22f0d9a13c847472579b;de;;;1.3.;;;Analysen zum Generalisierungsfehler von Ensemble-Kernel-Regressoren Kernel-based Learning ist weithin als leistungsstarkes Werkzeug für verschiedene Bereiche der Informationswissenschaft wie Mustererkennung und Regressionsschätzung bekannt. In den letzten Jahrzehnten hat eine Kombination verschiedener lernender Maschinen, das sogenannte Ensemble-Learning, das das Lernen mit mehreren Kernen beinhaltet, auf diesem Gebiet viel Aufmerksamkeit erregt. Obwohl seine Wirksamkeit in vielen Arbeiten numerisch nachgewiesen wurde, sind seine theoretischen Grundlagen nicht ausreichend untersucht. In diesem Artikel diskutieren wir Regressionsprobleme mit einer Klasse von Kernels und zeigen, dass der Generalisierungsfehler eines Ensemble-Kernel-Regressors mit der Klasse von Kernels kleiner ist als der gemittelte Generalisierungsfehler von Kernel-Regressoren mit jedem Kernel in der Klasse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44415-3_28 8ef84ee585a5931ebdb3a21e89f782fa;de;;;1.1.;;;Organisationskultur als Basis für die Wettbewerbsfähigkeit einer Bibliothek Die Probleme der Gestaltung der Organisationskultur und der internen Kommunikation im Bibliotheksbetrieb werden berücksichtigt. Es werden Methoden zur Transformation der traditionellen Funktionen im Bibliothekspersonalmanagement und die effizientesten Mittel und Motivationsinstrumente sowie die Ausbildung von Fachkräften einer modernen Bibliothek vorgeschlagen.;-;-;-;https://link.springer.com/article/10.3103/S0147688211010060 f9344a4cd061ff763711d6a9f986fc2a;de;;;1.1.;;;Der Content Analyzer zur Unterstützung der Interoperabilität von MPEG-4-Inhalten in heterogenen Playern MPEG-4 unterstützt objektbasierte interaktive Multimediaanwendungen. Um komplexe Multimediaszenen zusammenzustellen, unterstützt MPEG-4 BIFS und XMT als Szenenbeschreibung. Für die Interoperabilität des MPEG-4-Inhalts und des objektbasierten Rendering-Informationsmanagements schlägt dieses Dokument den Inhaltsanalysator vor, der die Beschreibung mehrerer Szenen unterstützt. Um die Effizienz des Content-Managements zu verbessern, bietet der Content-Analyzer eine Moduloptimierung vom Parsing der Szenenbeschreibung bis zum Szeneninformationsmanagement. Dieser Analysator unterstützt die genaue Analyse der Szenenbeschreibung und das objektbasierte Kerninformationsmanagement. Und es kann auf XML-basierte heterogene Player angewendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/11596356_99 693dea3d933e12761a3b1b49cfba4f36;de;;;1.1.;;;Das Konzept der Energie in der psychologischen Theorie Die erste Verwendung des Begriffs „Energetik“ in der systematischen psychologischen Theorie, die wir finden konnten, war in GL Freemans Buch „The Energetics of Human Behaviour“, das 1948 veröffentlicht wurde dass physiologische Studien zum Verständnis der Beziehung zwischen Motivation und Verhalten beitragen könnten. In diesem Kapitel verfolgen wir zunächst den intellektuellen Hintergrund des energetischen Konzepts, wie es von Freeman, Malmö, Duffy und anderen verwendet wird. Als nächstes versuchen wir, Verbindungen zwischen dieser Arbeit und der Tradition der Informationsverarbeitung herzustellen. Wir glauben, dass ein Schlüssel zur Herstellung dieser Verbindung darin liegt, die Entwicklung von Aufmerksamkeitssystemen früh im Leben zu verstehen. Wie Titchener (1908) betrachten wir die Aufmerksamkeit als zentral für das psychologische Unternehmen, weil sie subjektives Erleben und freiwillige Kontrolle mit menschlicher Leistung verbindet. Darüber hinaus hat das Konzept der Aufmerksamkeit sowohl in der Physiologie als auch in der Informationsverarbeitung Wurzeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-4448-0_2 c0bba4574e90abae89c3a5aa0fab685c;de;;;1.1.;;;Energie in der Wachstumsrechnung und der Aggregation von Kapital und Leistung Wir überprüfen die physische Aggregation von Wertschöpfung und Kapital in Bezug auf Arbeitsleistung und Informationsverarbeitung und ihr Verhältnis zu den deflationierten monetären Zeitreihen von Output und Kapital. In der Wachstumsrechnung ergänzt es die Zeitreihen von Arbeit und Energie, gemessen in geleisteten Arbeitsstunden pro Jahr bzw. verbrauchten Kilowattstunden pro Jahr. Diese Aggregation ist die konzeptionelle Grundlage, auf der diejenigen energieabhängigen Produktionsfunktionen konstruiert wurden, die das Wirtschaftswachstum der großen Industrieländer im 20. Jahrhundert mit kleinen Residuen und Produktionselastizitäten reproduzieren, die für Energie viel größer und für Arbeit viel kleiner sind als die Kostenanteile dieser Faktoren. Eine solche Berücksichtigung des Wachstums, die von der Mainstream-Ökonomie abweicht, kann ein erster Schritt sein, um den Ersten und den Zweiten Hauptsatz der Thermodynamik in die Ökonomie zu integrieren.;-;-;-;https://link.springer.com/article/10.1007/s41247-020-00068-1 faddaec6f525885432c912116493f8b0;de;;;1.3.;;;Änderungserkennung von sandigen Landflächen in der Minfeng-Oase von Xinjiang, China In den letzten Jahren wurde der Wüstenbildung in Xinjiang, China, insbesondere am südlichen Rand der Taklimakan-Wüste, viel Aufmerksamkeit gewidmet. In dieser Studie wurde als Fallstudiengebiet eine Oase im Kreis Minfeng ausgewählt, die sich am südlichen Rand der Taklimakan-Wüste befindet. Es wurde eine überwachte Klassifizierung für Landtypen durchgeführt, und dann wurden die Änderungserkennung und der Änderungstrend in sandigen Landflächen analysiert und verglichen. Die Ergebnisse zeigen, dass die Sandfläche in der Region im Zeitraum 1992–2001 abgenommen hat. Der Hauptwechsel war zwischen sandigem Land und spärlicher Vegetation im Wüstenoasen-Ökoton. Darüber hinaus war der Wechsel von Wald- zu Grünland und/oder Ackerland von 1992 bis 2001 ziemlich offensichtlich. Diese Veränderungen würden wahrscheinlich zu einer fragileren Umwelt und einem höheren Potenzial für die Wüstenbildung in diesem Gebiet führen.;-;-;-;https://link.springer.com/article/10.1007/s10661-008-0260-3 159b8e07097e3faf10a2deab1aef7da5;de;;;1.3.;;;Validierung des Fahrtrainingsmodells von Computational-Rabi für die Entscheidungsfindung In diesem Papier wird die Validierung des Fahrertrainings (C-RDT)-Modells von Computational-Rabi für die Entscheidungsfindung erläutert. Um die Funktionsfähigkeit dieses Modells nachzuweisen, ist eine Evaluation mittels Validierung unabdingbar. Daher ist die Validierung eine Methode, die verwendet wird, um die logische Korrektheit des Modells sicherzustellen. Daher steht die Bewertung des Modells durch Validierungsverfahren in der Literatur noch aus. Daher hat diese Studie diese Lücke geschlossen, indem sie sie bereitgestellt hat, und sie dient als die Neuheit dieser Studie. Um das C-RDT-Modell zu validieren, wurde eine experimentelle Methode angewendet, bei der ein Experiment mit Menschen durchgeführt wurde. Die Funktionen eines angepassten Spielfahrsimulators wurden mit den externen Faktoren der Bewusstseinskomponente des Modells abgebildet, und das für die Validierung verwendete Instrument wurde ebenfalls basierend auf den externen und zeitlichen Faktoren der Trainingskomponente des Modells entworfen. Lediglich ein Post-Test-Experiment war erforderlich, um die Wirksamkeit der Modellfaktoren zu untersuchen. Das Experiment ermittelt den Effekt des Trainings mit dem Spielsimulator auf die Automatität des Fahrers, um eine effektive Hauptentscheidung zu treffen. Für das Experiment wurden die Teilnehmer in Kontroll- und Versuchsgruppen eingeteilt. Die experimentelle Gruppe wurde trainiert, während die Kontrollgruppe nicht trainiert wurde. Basierend auf den Trainingsergebnissen wurden zwei Hypothesen aufgestellt: H0 und H1;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-69143-1_48 f2ec067fce6f2a4d593e940163f27e1f;de;;;1.3.;;;Quantitatives EEG im Sport: Leistungseinschätzung professioneller Fußballspielerinnen Die Messung der Spitzenleistung von Sportlern bleibt eine Herausforderung in der Bewegungswissenschaft und Sportpsychologie. Mit der nicht-invasiven quantitativen Elektroenzephalographie (QEEG) können verschiedene sportpsychologische Faktoren analysiert werden.;-;-;-;https://link.springer.com/article/10.1007/s13755-021-00144-w 3e031e68c8a7a2d2bf82958bfd4c4ef1;de;;;1.3.;;;Ähnliche Cluster-basierte kontinuierliche Wortsammlung für das Word-Vektor-Training Mit der zunehmenden Verwendung natürlicher Sprachverarbeitung wird der Aufbau eines Wortvektors, der mehr semantische Informationen enthält, zu einer obersten Priorität. Der Wortvektor wird verwendet, um die grundlegendste Einheit im Sprachwort darzustellen und ist die Grundlage des neuronalen natürlichen Sprachverarbeitungsmodells. Daher beeinflusst die Qualität von Wortvektoren direkt die Leistung verschiedener Anwendungen. Im kontinuierlichen Wortbeutelmodell, das durch die Häufigkeit des Auftretens begrenzt ist, werden einige Wörter nicht ausreichend trainiert. Gleichzeitig werden einige niederfrequente Wörter basierend auf der Mindesthäufigkeit vom Modell ignoriert. In diesem Papier bauen wir ähnliche Cluster aus dem semantischen Wörterbuch und integrieren sie mit Hilfe von Multi-Classifier in das CBOW-Modell. Wir verbessern Wortvektoren und verwenden sie, um eine semantische Ähnlichkeitsvergleichsaufgabe abzuschließen. Im Vergleich zu den von CBOW erstellten ursprünglichen Wortvektoren hat die von uns vorgeschlagene Methode eine höhere Genauigkeit. Es zeigt, dass einige semantische Informationen integriert wurden und die Wortvektoren niederfrequenter Wörter verbessert wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9409-6_106 290935568b57869c04565cfb08c8f72d;de;;;1.3.;;;Doktorandenausbildung in Kanada Die Doktorandenausbildung entstand in den frühen Jahren des 20. Jahrhunderts an mehreren kanadischen Universitäten. Jede kanadische Universität hat ihre eigenen Programme und Standards entwickelt, aber die Programme wurden stark vom amerikanischen Modell beeinflusst und beinhalteten normalerweise Studienleistungen, eine umfassende Anforderung und die erfolgreiche Verteidigung einer Hauptarbeit. Während viele kanadische Institutionen Doktorgrade anbieten, werden die meisten Doktorgrade von einer Handvoll großer Forschungsuniversitäten verliehen. Aktuelle Themen sind das Angebot und die Nachfrage nach Doktorandinnen und Doktoranden sowie die Entwicklung von beruflichen Entwicklungsmöglichkeiten zur Unterstützung von Studierenden, die sich für nichtakademische Karrierewege interessieren könnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-89713-4_9 c47e5ab60ebcfa95fdb4eea8536e7895;de;;;1.3.;;;Forschung zu einem verbesserten SVM-Trainingsalgorithmus In der Arbeit wird ein neuer SVM-Trainingsalgorithmus vorgeschlagen, um die Gültigkeit und Effizienz der Bildannotation zu verbessern. Diese Annotationsaufgaben stehen aufgrund der Korrelation zwischen den Labels in Beziehung zueinander. Das Modell lernt während des Trainings implizit einen linearen Ausgabekernel. Die Simulationsergebnisse zeigen, dass Joint SVM im Vergleich zu einem unabhängigen SVM-Training die Klassifikationsgenauigkeit und -effizienz erheblich verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9409-6_201 b6a30f4aad782048ca9623433a80ec31;de;;;1.3.;;;Bewegungsanalyse zum besseren Verständnis psychomotorischer Fähigkeiten in der Laparoskopie: objektives bewertungsbasiertes Simulationstraining mit tierischen Organen Unser Ziel war es, die Bewegungen mehrerer laparoskopischer chirurgischer Instrumente bei Teilnehmern mit unterschiedlicher chirurgischer Erfahrung in einer Reihe von Nasslabor-Trainingsübungen zu charakterisieren, bei denen die Teilnehmer eine Reihe von chirurgischen Eingriffen durchführen müssen, darunter Greifen von Gewebe, Gewebezug und Dissektion, Anbringen eines Hem-o-lok-Clips und Nähen/Knoten und Digitalisierung des chirurgischen Kompetenzniveaus.;-;-;-;https://link.springer.com/article/10.1007/s00464-020-07940-7 a85c0d2e8abc804331ab26bf6b993f7c;de;;;1.1.;;;Einige Funktionen der Aufzählungssteuerung in der DSM-Methode. Teil eins Die Möglichkeiten der Aufzählungsoptimierung in der intelligenten Datenanalyse durch das DSM-Verfahren der automatisierten Hypothesenbildung werden diskutiert. Optionen zur Aufzählungssteuerung werden ebenso berücksichtigt wie Optionen zur Aufzählungsreduktion durch Zerlegen der gesamten Vielzahl von DSM-Hypothesen in unabhängig gebildete Fragmente. Das Konzept der approximativen DSM-Methode wird formuliert.;-;-;-;https://link.springer.com/article/10.3103/S0147688214060082 6678844d0ef34fb56775418f2ab77f64;de;;;1.3.;;;Erforschung einer Simulationsmethode zur Erzeugung von UAV-Fehlern im Hinblick auf das Notfallbetriebstraining In diesem Papier werden für UAV-Simulationstrainingssysteme, die den Trainingsanforderungen für den Notfallbetrieb ausgesetzt sind, Simulationsmethoden für die Simulation von UAV-Fehlern erforscht. Gemäß den Eigenschaften und Gesetzen des UAV-Systemausfalls werden Fehlererzeugungsverfahren basierend auf der Akkumulation von Betriebsfrequenz, Flugzustand und Flugumgebung, drei Modi von UAV-Fehlererzeugungsverfahren vorgeschlagen. Dann wendet dieses Papier typische Instanzen an, um die Fehlererzeugungsmethoden zu verifizieren. Die Ergebnisse zeigen, dass die Methoden die UAV-Fehlerbedingungen gut darstellen und das hochrealistische Simulationstraining von UAV realisieren können.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8411-4_263 2221531ec81b96488afa7c6eac5dab66;de;;;1.3.;;;Softwaremodellierung in der Bildung: Das 6. Symposium für Pädagogen auf der MODELS 2010 Das Educators' Symposium (EduSymp) bietet ein wichtiges Forum für die Ausbildung zur Softwaremodellierung. Traditionell mit der ACM/IEEE International Conference on Model-Driven Engineering Languages ​​and Systems (MODELS) organisiert, bietet EduSymp Pädagogen eine einzigartige Gelegenheit, innovative pädagogische Ansätze zur Softwaremodellierung zu präsentieren und zu diskutieren. In diesem Beitrag wird eine kurze Retrospektive zur 6. Ausgabe von EduSymp in Oslo präsentiert. Das Programm umfasste eine Vielzahl von Aktivitäten, darunter interessante und zum Nachdenken anregende mündliche Präsentationen, eine interaktive Breakout-Session und eine Podiumsdiskussion.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21210-9_4 4d400e2fe902318ec0b6f6611009f68a;de;;;1.3.;;;Unterrichtsentwicklung für Hochschullehrer: Auswirkungen auf den Lehransatz Obwohl die Unterrichtsentwicklung für Lehrkräfte zu einem wichtigen Thema in der Hochschulbildung geworden ist, ist wenig über ihre Auswirkungen auf die tägliche Unterrichtspraxis bekannt. Das Fehlen einer systematischen Programmbewertung ist ein anhaltendes Problem. In dieser Studie untersuchen wir anhand eines quasi-experimentellen Designs den Einfluss eines Lehrentwicklungsprogramms für angehende Hochschullehrer auf ihren Lehransatz. Quantitative Pre-Test- sowie Post-Test-Daten wurden von 20 experimentellen Lehrern und 20 Kontrolllehrern zusammengetragen. Beim Nachtest wurden auch qualitative Daten erhoben: 17 Lehrer der Experimentalgruppe und 12 Lehrer der Kontrollgruppe wurden befragt. Gepaart;-;-;-;https://link.springer.com/article/10.1007/s10734-009-9294-x e3bf34ed09b428bdc461c268d1256d68;de;;;1.3.;;;Quantitative Methodik für studierende Familien Viele Merkmale prägen die Forschungsmethoden von Familienwissenschaftlern. Erstens haben Familien eine gemeinsame Vergangenheit und Zukunft (Copeland und White, 1991). Andere Bereiche untersuchen Gruppen, die Geschichte haben, aber nur wenige Bereiche beinhalten eine Geschichte, die für alltägliche Entscheidungen so hartnäckig wichtig ist. Zweitens sind Familien sowohl heilig als auch profan. Die Ehrfurcht, die wir für Familien empfinden, fordert Forscher heraus, die versuchen, sie zu objektivieren und zu messen, während sie gleichzeitig das Ausmaß von Gewalt, Unehrlichkeit und Missbrauch in Familien erkennen, das Ausdrücke wie „schmutzige Wäsche“ nicht erfassen. Sowohl heilig als auch profan zu sein, führt zu einem Maß an Privatsphäre, das schwer zu entwirren ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-5367-7_11 e341d4d89e1acee43b2168fd0b7b7f02;de;;;1.3.;;;Sprachbefehlserkennung für Kampfpiloten mit Grammatikbaum Diese Forschung bewältigt die Sprachbefehlserkennung für Kampfpiloten. Der Sprachbefehl setzt sich im Kämpfersystem aus mehreren zusammenhängenden Wörtern zusammen. Und der Erkenner trennt den Befehl automatisch in einzelne Wörter und implementiert für jedes Wort eine isolierte Worterkennung. Um die Leistung des Befehlserkenners zu verbessern, wird die Fehlerkorrektur unter Verwendung eines Grammatikbaums vorgeschlagen. Der isolierte Worterkennungsfehler wird im Fehlerkorrekturprozess korrigiert. Unser experimentelles Ergebnis zeigt, dass der Grammatikbaum die Leistung des Befehlserkenners signifikant verbessert hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35603-2_18 93fe959d3497dfa4584b6ad3bd1ad0a9;de;;;1.1.;;;Die Auswirkungen sozialer und kognitiver Hinweise auf das Lernverständnis, das Blickmuster und die kognitive Belastung im Videounterricht Die Studierenden erleben Herausforderungen beim Verstehen visueller Informationen beim multimedialen Lernen. Insbesondere immersive Multimediaumgebungen, wie etwa virtuelle Realität, erhöhen die Wahrscheinlichkeit, dass Schüler Ablenkungen ausgesetzt sind, in denen die Informationssuche während des systemgesteuerten Unterrichts stattfand. Obwohl in früheren Studien verschiedene Cue-Designs überprüft wurden, um die Aufmerksamkeit der Schüler zu erhöhen, besteht immer noch Skepsis darüber, wie Cue-Designs ihr Lernverständnis im Videounterricht unterstützen können. Für diese Studie haben wir insgesamt 64 Studenten einer Universität befragt. Unter Verwendung von Videoanweisungen, die von einem animierten pädagogischen Agenten (APA) durchgeführt wurden, untersuchte diese Studie die Wirkung von sozialen (dh Gesprächsgesten einer APA) und kognitiven (dh visuellen Hinweisen) Hinweisen auf das Lernverständnis und die Blickdaten der Schüler innerhalb von Arten von visuelle Informationen (Text und Bild). Außerdem wurde in dieser Studie untersucht, wie beide Reize die kognitive Belastung der Schüler insgesamt förderten. Spezifisch für die Textinformationsverarbeitung bestätigten die Ergebnisse der Studie, dass der negative Haupteffekt von sozialen Hinweisen das Lernverständnis der Schüler untergrub und ihre kognitive Belastung erhöhte, während kognitive Hinweise im Videounterricht zu unterstützen schienen. Diese Studie ergab auch, dass bei der Bildinformationsverarbeitung unterschiedliche visuelle Aufmerksamkeitsmuster der Schüler auftraten. In Bezug auf die bildliche Informationsverarbeitung impliziert das Studienergebnis, dass, während soziale Hinweise visuelle Ablenkungen verursachten und das Lernverständnis verringerten, kognitive Hinweise als visuelle Hinweise den Lernenden halfen, Bildinformationen über visuell-räumliche Hinweise zu integrieren. Abschließend berichteten wir über mehrere Designimplikationen, die aus den Studienergebnissen abgeleitet wurden.;-;-;-;https://link.springer.com/article/10.1007/s12528-020-09255-x c3f5234a1f00ba56e6c6d54106ba8f9e;de;;;1.3.;;;Verwenden der AlgoWiki Open Encyclopedia of Parallel Algorithmic Features in HPC Education AlgoWiki ist eine offene Enzyklopädie von Algorithmuseigenschaften und deren Implementierungen auf verschiedenen Hardware- und Softwareplattformen. Es kann für verschiedene Zwecke verwendet werden, beispielsweise um den optimalen Algorithmus zur Lösung eines bestimmten Problems zu finden, die Informationsstruktur einer Anwendung zu analysieren oder die Effizienz verschiedener Implementierungen desselben Algorithmus zu vergleichen. In diesem Artikel betrachten wir mehrere Optionen für die Verwendung von AlgoWiki, um verschiedene Konzepte und Begriffe im Wissens- und Kompetenzschatz für parallele Berechnungs- und Supercomputertechnologien zu veranschaulichen. Die Approbation dieser Optionen erfolgt im Rahmen der Lehrveranstaltungen „Supercomputers and Parallel Data Processing“ und „Supercomputer Simulation and Technologies“, die am Institut für Computermathematik und Kybernetik der Lomonosov-Universität Moskau gelehrt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-28163-2_6 3db7ec0cc66e9a6252001da84a156628;de;;;1.3.;;;Dialektische Verhaltenstherapie Die dialektische Verhaltenstherapie (DBT) ist eine umfassende Behandlung, die ursprünglich für chronisch suizidale Erwachsene entwickelt wurde, bei denen eine Borderline-Persönlichkeitsstörung (BPS) diagnostiziert wurde. Seit seiner Einführung wurde DBT für verschiedene Patientenpopulationen in verschiedenen therapeutischen Settings angepasst, einschließlich Jugendlicher mit Borderline-Persönlichkeitsstörung. In diesem Kapitel werden die theoretischen Grundlagen der DBT und ihre Anwendung auf suizidale Jugendliche mit Borderline-Persönlichkeitsmerkmalen untersucht. Theoretische Grundlagen der DBT werden vorgestellt, darunter dialektische Philosophie, Zen-Praxis, Behaviorismus und die biosoziale Theorie. Die verschiedenen Funktionen und Modi der DBT-Behandlung, die verwendet werden, um die vielfältigen Probleme und Verhaltensmuster von Jugendlichen mit BPS anzugehen, werden erläutert. Empirische Forschung zur Wirksamkeit von DBT bei Jugendlichen mit BPS wird überprüft, einschließlich neuerer Ergebnisse aus den ersten randomisierten klinischen Kontrollstudien zur Bewertung von DBT bei suizidalen Jugendlichen mit BPS-Merkmal. Anpassungen von DBT für Kinder, an andere psychiatrische Populationen und für schulische Einrichtungen werden ebenfalls zusammengefasst. Schließlich werden zukünftige Richtungen für die Erforschung von DBT bei Jugendlichen mit BPS berücksichtigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4939-0591-1_24 475d273435b9376f438fd53211d8c6df;de;;;1.1.;;;Angewandte Forschung zum Sicherheitsüberwachungssystem für Turmdrehkrane basierend auf dem Internet der Dinge Dieses Papier analysiert die aktuelle Situation des Sicherheitsüberwachungssystems von Turmdrehkranen und stellt ein neues intelligentes System vor: mit der Netzwerkarchitektur des Internets der Dinge als Grundlage, unter Verwendung der Wireless Sensor Networks-Technologie, die CAN-Bus-Technologie mit Zigbee-Technologie kombiniert, die bietet industrielle Steuerung mit einfachen, kostengünstigen, zuverlässigen und effizienten Methoden in Echtzeit. In diesem Beitrag werden Aufbau und Funktion des intelligenten Systems detailliert vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27966-9_74 49c10abc39d7d67865fe1c932f43e3a6;de;;;1.3.;;;Machbarkeit elektromagnetischer Kommunikation in drahtlosen Unterwassersensornetzwerken Underwater Wireless Sensor Networks (UWSNs), bestehend aus einer Reihe von Sensorknoten, die eingesetzt werden, um kollaborative Überwachungsaufgaben durchzuführen. Sensorknoten sind über Funksignale miteinander verbunden. Das akustische Signal ist die dominante Welle, die für die UWSN-Kommunikation verwendet wird. Akustische Signale stehen vielen Herausforderungen wie Umgebungsrauschen, künstlichem Rauschen, begrenzter Bandbreite, Mehrwege und niedriger Ausbreitungsgeschwindigkeit gegenüber. Diese Herausforderungen werden in Flachwasserumgebungen gravierender, in denen ein hohes Maß an Umgebungs- und künstlichem Lärm, Trübung und Mehrwege vorhanden ist. Daher können elektromagnetische Signale zur Verwendung als Kommunikationssignal für UWSNs verwendet werden. In dieser Arbeit wird die Leistungsfähigkeit elektromagnetischer Kommunikation in der Wasserumgebung untersucht. Die Untersuchung wird für Süß- und Meerwasserumgebungen durchgeführt. Die Ergebnisse zeigen, dass die Süßwasserumgebung eine Nahbereichskommunikation ermöglichen kann, während die Kommunikation für Meerwasser aufgrund des hohen Dämpfungswerts schwieriger ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25462-8_55 6b2fa0e44c16ad5d0caf7ee8d8197d9d;de;;;1.3.;;;Kaskadenbedingte generative gegnerische Netze für die räumlich-spektrale hyperspektrale Probengenerierung Die Probengenerierung ist ein effektiver Weg, um das Problem der Unzulänglichkeit von Trainingsdaten für die hyperspektrale Bildklassifizierung zu lösen. Das Generative Adversarial Network (GAN) ist eine der beliebtesten Deep-Learning-Methoden, die mithilfe von Adversarial-Training die Region der Stichproben basierend auf der erforderlichen Klassenbezeichnung generiert. In diesem Artikel schlagen wir kaskadenbedingte generative kontradiktorische Netze für die vollständige räumlich-spektrale Probengenerierung von hyperspektralen Bildern vor, genannt C;-;-;-;https://link.springer.com/article/10.1007/s11432-019-2798-9 531413645f425723fb9535a4fce48c94;de;;;1.3.;;;Eine explorative Studie zum berufsbegleitenden Lehrpersonalengagement auf Leinwand für das Lehren und Lernen in der Hochschulbildung Der Einsatz virtueller Lernumgebungen (VLEs) ist ein wesentlicher Bestandteil der Lehr- und Lernstrategie im Hochschulbereich. Ziel dieses Forschungspapiers ist es, eine Lücke in der Literatur zu schließen, indem die Nutzung des Canvas VLE durch Teilzeitlehrkräfte an einer Hochschule in Hongkong untersucht wird, um die Einflussfaktoren auf die Nutzung durch das Lehrpersonal zu verstehen und wies darauf hin, wie seine Nutzung für eine verbesserte Lehr- und Lernerfahrung weiter verbessert werden könnte. In Verbindung mit strukturierten Fragebögen und Interviews mit Lehrpersonal der Hong Kong Higher Education (HE) wurde eine Erhebung der aktuellen wissenschaftlichen Forschungsliteratur zum VLE-Engagement von Lehrkräften durchgeführt. Die Probleme in der Forschungsliteratur wurden durch Umfrage- und Interviewergebnisse bestätigt und umfassten mangelnde Vorbereitungszeit, mangelnde Einarbeitung in die VLE-Funktionen und technische Probleme. Um diese Probleme anzugehen, wurden eine verstärkte Vorbereitung des Lehrpersonals durch praktisches Kennenlernen des VLE-Gebrauchs, verbunden mit der Verbreitung angemessener Lehrmittel für Lehrende und Studierende, unterstützt durch solide Schulungen in der Nutzung der interaktiven Kommunikationsfunktionen des VLE empfohlen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9895-7_23 f8627dc2b2f3a57f359c175290954972;de;;;1.3.;;;Validierung der Knotenbindungsbewegung durch zeitlich-räumliche Anpassung mit RGB-D-Sensor für das chirurgische Training Wir schlagen eine Methode zur Validierung von chirurgischen Knotenbindebewegungen für das Selbsttraining von chirurgischen Auszubildenden vor. Unsere Methode beobachtet ihre Hände durch einen RGB-D-Sensor und beschreibt die Punktwolke als SHOT-Feature. Wir verwenden die Funktionen zum Abgleichen einer Eingabe-Punktwolkensequenz mit der eines Experten durch dynamische Programmierung. Auf der Grundlage der übereinstimmenden Rahmen validiert das Verfahren die relativen Positionen beider Hände und jeder Handform in jedem Eingaberahmen. Dann erkennt das System unpassende Teile in jedem Frame und zeigt sie an. Dieses Papier zeigt die Ergebnisse unserer Methode an einem Bewegungsdatensatz eines Anfängers und eines erfahrenen Chirurgen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23024-5_53 00644c28a2113fa29af2cd4117d915eb;de;;;1.3.;;;Dreidimensionale Bewegungsanalyse des rechten Ventrikels mit einem elektromechanischen biventrikulären Modell Frühere mechanische Herzmodelle wurden hauptsächlich zur Analyse des Verhaltens der linken Herzkammer konstruiert, und die rechte Herzkammer wurde aufgrund ihrer komplexen Geometriestruktur fast nicht berücksichtigt. Die Bewegung des gesunden rechten Ventrikels und seine krankheitsbedingten Veränderungen sind derzeit nicht gut verstanden. In dieser Arbeit wurde ein biventrikuläres 3-D-Finite-Elemente-Modell mit realer geometrischer Form und Faserstruktur konstruiert und die Bewegung und Deformation der rechtsventrikulären Wand während der systolischen Phase simuliert. Die Ergebnisse zeigen: 1) Die freie Wand des rechten Ventrikels bewegt sich in Richtung des Septums und gleichzeitig bewegen sich die Basis und die Mitte der freien Wand in Richtung des Apex, was das Volumen des rechten Ventrikels verringert, 2) die minimale Hauptbelastung ist an der Spitze am größten, dann in der Mitte der freien Wand, und seine Richtung ist ungefähr in Richtung der epikardialen Muskelfasern. Die Ergebnisse stimmen gut mit Lösungen überein, die aus MR-Tagging-Bildern erhalten wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30497-5_61 ac0481f9358ed130843c1e6d6f5a0001;de;;;1.1.;;;β-Cyclodextrin-Einschlusskomplexe von Lisinopril und Zofenopril Lisinopril ist ein Angiotensin-Converting-Enzym-Hemmer, der nach oraler Gabe eine verminderte Resorption und Bioverfügbarkeit sowie Instabilität in Gegenwart von Laktose zeigt. Zofenopril, eines der neuesten Therapeutika derselben Klasse, ist ein stark lipophiles Medikament mit geringer Wasserlöslichkeit. Einschlusskomplexe zwischen den Wirkstoffen und β-Cyclodextrin (β-CD) wurden erhalten, um ihre Löslichkeit, Bioverfügbarkeit und Stabilität zu verbessern. Ziel dieser Studie war es, die Gast-Wirt-Wechselwirkung von Lisinopril-Dihydrat (LIS) und Zofenopril-Calcium (ZOF) mit β-CD im Festkörper und in wässriger Lösung zu untersuchen, um die Bildung von Einschlusskomplexen zwischen den Komponenten nachzuweisen. Die Einschlusskomplexe wurden mit der Knetmethode hergestellt und mit verschiedenen analytischen Techniken untersucht, einschließlich thermischer Analyse, Pulverröntgendiffraktometrie (PXRD), Fourier-Transformations-Infrarotspektroskopie (FTIR) und UV-Spektroskopie. Alle diese Techniken zeigten, dass LIS und ZOF sowohl in Lösung als auch in festem Zustand Einschlusskomplexe mit β-CD bilden. Die Stöchiometrie der Einschlusskomplexe betrug für beide Wirkstoffe 1:1, und die scheinbare konstante Stabilität wurde mit 615,86 und 375,85 M . berechnet;-;-;-;https://link.springer.com/article/10.1007/s10973-015-5045-7 ed5cc1a73a4c1ee80537c6092793e740;de;;;1.1.;;;Evaluation des Zusammenhangs zwischen eigener Differenzierung kognitiver Prozesse und metakognitiven Selbsteinschätzungen Es ist fraglich, ob Menschen genaue und glaubwürdige metakognitive Selbsteinschätzungen liefern können. Diese Studie untersuchte den Zusammenhang zwischen metakognitiver Selbsteinschätzung und der Darstellung kognitiver Prozesse. 54 College-Studenten reichten schriftliche Beschreibungen verschiedener kognitiver Prozesse ein. Die latente semantische Analyse bewertete die Beschreibungen hinsichtlich der Differenzierung jedes Individuums zwischen verschiedenen Prozessen in drei Phasen: Bedingungen, mentale Operationen und Ergebnisse. Die Ergebnisse zeigten, dass Personen mit guten Selbsteinschätzungen unterschiedliche Prozesse konsistent in allen drei Phasen unterschieden, während Personen mit schlechten metakognitiven Selbsteinschätzungen klare Unterschiede zwischen verschiedenen Prozessen in Bezug auf die Bedingungen oder Ergebnisse der Prozesse machten, jedoch viel weniger in Bezug auf die Art und Weise die Prozesse entwickeln sich. Der komplexe Zusammenhang zwischen metakognitiver Selbstwahrnehmung und dem eigenen konzeptionellen Wissen in diesem Bereich wird diskutiert.;-;-;-;https://link.springer.com/article/10.3758/BRM.41.1.244 8f7d29b605a03ee3e224766675b8b0c7;de;;;1.1.;;;Ein Modell des Befehlsverhaltens von Agenten in einer qualitativen semiotischen Umgebung. Teil 2. Modelle und Algorithmen zur Bildung und Funktionsweise von Agententeams Es wird ein Algorithmus zur Konstruktion einer qualitativen semiotischen Umgebung für eine Gruppe von Agenten vorgeschlagen, der darin besteht, die Unterräume der Zustände des dynamischen Systems „Gruppe von Robotern – Umgebung“ in Form eines qualitativen konzeptionellen Rahmens dieser Umgebung zu bestimmen. Es wird ein Algorithmus zum Symbolisieren der Zustandsklassen eines konzeptionellen Rahmens vorgeschlagen. Im Sinne einer qualitativen semiotischen Umgebung wird ein mathematisches Modell des Agenten mit BDI-Architektur vorgeschlagen. Die Bedingungen für die Bildung und Funktion von Agenten mit BDI-Architektur in dieser Umgebung werden formuliert.;-;-;-;https://link.springer.com/article/10.3103/S0147688218060060 e7a3762fffade2e7e44d2863c555e304;de;;;1.1.;;;Ein Prospekt für die fruchtbare Interaktion zwischen Neuroethologie und Neuroengineering Es gibt zwei wichtige Ziele in der Neurowissenschaft. Das eine betrifft das Verständnis von Funktionen im Zusammenhang mit tierischem und menschlichem Verhalten – ein Forschungsthema der Neuroethologie, das andere versucht, ausgehend von Ergebnissen ersterer, Strategien für den Bau sogenannter intelligenter Maschinen zu entwickeln – das Forschungsgebiet der Neurotechnik. Die bisherige Idee ist nicht, die menschliche Kognition oder die Mustererkennung der Kröte in ein technisches Gerät einzubauen, sondern bestimmte aufgabenorientierte Funktionsprinzipien zu suchen und zu nutzen, die, implementiert durch neuronale Netze, kostengünstiger und vermutlich noch einfacher sind als diese ein Ingenieur, der mit einem vergleichbaren technischen Problem konfrontiert ist, hätte vielleicht gedacht. Anhand von visuell geführten Verhaltensweisen von Kröten betonen wir in diesem Kapitel die Notwendigkeit von Modellen von Gehirnfunktionen, erläutern den Vorteil des Dialogs zwischen Experimentalisten (Neuroethologen) und Modellierern (Computer-Neurowissenschaftler) und weisen auf den Umfang der Fragen und gemeinsamen Projekte für die nahe Zukunft. Die Themen sind: 1) Parallel verteilte Verarbeitung visueller Signale, 2) Implikation retinaler On- und Off-Kanäle, 3) Zentrifugale Kontrolle der Netzhautfunktion, 4) Vorderhirn-involvierte Modulation von Reiz-Antwort-vermittelnden tektalen Netzwerken, 5) Kombinatorische Steuerung von motorischen Mustererzeugungssystemen. Jedes Thema adressiert (a) neuroethologische Daten, (b) aktuelle neuroethologische Projekte und (c) Fragestellungen zum Neuro-Engineering.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-84545-1_2 157702aa138e26573880bc1096e8bbb1;de;;;1.1.;;;Physikalismus, Funktionalismus und bewusstes Denken In diesem Aufsatz führe ich meine Theorie der bewussten Erfahrung als Reaktion auf die Kritik von David Cole weiter aus und spreche eine Reihe der von ihm aufgeworfenen Fragen direkt an. Insbesondere untersuche ich Coles Behauptung, dass eher der Funktionalismus als die Neurophysiologie der theoretische Schlüssel zum Bewusstsein ist. Ich argumentiere, dass der schwache Typ-Physikalismus eine feinkörnigere Analyse bietet, schwächere Annahmen macht und mehr Raum für empirische Methoden lässt.;-;-;-;https://link.springer.com/article/10.1007/BF00388918 6bf7c35d2ff666f407a9b3f483f8e222;de;;;1.1.;;;Neugestaltung der IT-Governance in Octo Telematics, um IT-Business-Alignment zu erreichen Der Fall zeigt, wie ein Technologiedienstleistungsunternehmen seine IT-Governance-Struktur prägte und umgestaltete, um die IT-Funktion besser in Geschäftskunden zu integrieren. Das Unternehmen ist ein großer italienischer Telematikanbieter – Octo Telematics – der auf die Bereitstellung von Telematikdiensten und -systemen für den Versicherungs- und Automobilmarkt spezialisiert ist. Während des hier beschriebenen Zeitraums wuchs und globalisierte das Unternehmen rasant. Die gewünschte Abstimmung zwischen der IT und den Geschäftseinheiten ist erforderlich, um Verhaltensweisen zu fördern, die mit der Mission und Strategie der Organisation übereinstimmen. Als Octo mit neuen Prozessen, Ausschüssen und Reorganisationen experimentierte, „reiste“ das Unternehmen durch mehrere Governance-Archetypen.;-;-;-;https://link.springer.com/article/10.1057/jittc.2013.8 6783eb857e81d636844238980b15c245;de;;;1.3.;;;Handabdruckerkennung mit Gabor Feature-Based Bidirektional 2DLDA In diesem Beitrag werden ein Verfahren zur Erkennung von Handabdrücken und eine neuartige Fusionsstrategie vorgeschlagen. Das Verfahren basiert auf einer Kombination von Gabor-Filtern und bidirektionaler zweidimensionaler linearer Diskriminanzanalyse (2DLDA)-Fusion. Wir verwenden horizontales 2DLDA (H2DLDA oder 2DLDA) und vertikales 2DLDA (V2DLDA), um zwei Arten von Merkmalen von Gabor-basierten Bildern (Gaborpalms) zu extrahieren: eine Art besteht aus horizontalen Diskriminanzmerkmalen, die hauptsächlich von 2DLDA extrahiert werden, und die andere besteht aus vertikale Merkmale, die von V2DLDA extrahiert wurden. Um diese beiden Arten von Merkmalen zu verschmelzen, wird eine entfernungsbasierte adaptive Strategie entwickelt. Schließlich wird der nächstgelegene Nachbarklassifikator zur Klassifizierung verwendet. Unter Verwendung der Gaborpalmen einer etwas höheren Dimension, was einen geringen Rechenaufwand bedeutet, zeigen experimentelle Ergebnisse der PolyU Palmprint Database, dass das vorgeschlagene Verfahren mehrere gewünschte Ergebnisse liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22691-5_40 cede4f76d59f3da04de79c05ed7cc9a3;de;;;1.3.;;;Groß angelegte Mikro-Blog-Autorenzuschreibung: Jenseits von einfachem Feature-Engineering Mit der ständig wachsenden Nutzung sozialer Medien spielt die Zuschreibung der Autorenschaft eine wichtige Rolle bei der Vermeidung von Cyberkriminalität und hilft bei der Analyse von Online-Spuren, die von Cyberstreichen, Stalkern, Mobbern, Identitätsdieben und dergleichen hinterlassen wurden. In diesem Beitrag schlagen wir eine Methode für die Zuschreibung der Autorenschaft in Mikroblogs vor, die hundert- bis tausendmal schneller ist als bei modernen Gegenstücken. Das Verfahren basiert auf einem leistungsstarken und skalierbaren Feature-Repräsentationsansatz, der Benutzermuster in Mikroblog-Nachrichten nutzt, sowie auf einem maßgeschneiderten Musterklassifikator, der für den Umgang mit Big Data und hochdimensionalen Daten geeignet ist. Schließlich diskutieren wir die Reduzierung des Suchraums bei der Analyse von Hunderten von Online-Verdächtigen und Millionen von Online-Mikronachrichten, was diesen Ansatz für die digitale Forensik und die Strafverfolgung von unschätzbarem Wert macht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12568-8_49 85f7f2cbc0b889df3219b0bd53cc0734;de;;;1.3.;;;Evolutionärer Ansatz virtueller Praxisgemeinschaften: Eine Reflexion in einem Netzwerk spanischer ländlicher Schulen Die Isolation ländlicher Gemeinden schafft besondere Notwendigkeiten für Lehrer und Schüler in ländlichen Schulen. Der vorliegende Artikel beschreibt „Rural Virtual School“, eine Virtual Community of Practice (VCoP), in der spanische Lehrer ländlicher Schulen Lernressourcen und Lehrmethoden über soziale Softwareanwendungen austauschen. Der Artikel kommt zu einem evolutionären Modell, in dem sich die Nutzung der Social Software Tools zusammen mit den Bedürfnissen und Aktivitäten des VCoP über die verschiedenen Lebensphasen hinweg weiterentwickelt. Derzeit hat die Gemeinschaft einen hohen Reifegrad erreicht und um ihre Dynamik zu erhalten, verwenden die Mitglieder bewusst geeignete Technologien, die speziell entwickelt wurden, um reiche innovative Bildungsansätze zu verbessern, durch die sie gemeinsam kreative Praktiken entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13166-0_81 ce9f73b34e9f633bcf4096bf39515d01;de;;;1.3.;;;Hochschulausbildung in Robotik und Advanced Automation: Eine zertifizierte Vorlesungsperspektive und Strategie zur Entwicklung eines didaktischen und technischen Kursmodells Dieser Beitrag untersucht die Entwicklung der sogenannten zertifizierten Hochschulstudiengänge in Robotik und fortgeschrittene Automatisierung an deutschen Hochschulen, basierend auf Kooperationen zwischen Industrie und Hochschulen. Es geht detailliert auf die konzeptionelle Entwicklung des zertifizierten Hochschulstudiums ein und gibt eine Lösung für den didaktisch-technischen Teil des Konzepts. Als Beispiel wird die Kooperation der Rheinischen Fachhochschule Köln gGmbH mit der FANUC Robotics Deutschland GmbH im Detail analysiert. Darin heißt es, dass der rechtliche und didaktisch-technische Teil des Konzepts wesentlich für die Durchführbarkeit des Studiengangs gewesen sei. Es kommt zu dem Schluss, dass der Hochschulpolitik und der Unternehmenspolitik gut konzipierte gemeinsame Konzepte fehlen, aber die Zukunft für diese zertifizierten Studiengänge rosig ist, solange sie konzeptionell gut gestaltet sind und die Industrie engagiert bleibt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21975-7_29 2337326b96b96cee0f89b10c329f5f24;de;;;1.1.;;;Aufmerksamkeitsstörungen: ihre Auswirkungen auf Verhalten, Kognition und Rehabilitation Das Aufmerksamkeitssystem ist ein wichtiger Kontrollprozess, der eine Reihe von kognitiven Funktionen vermittelt, die vielen Aspekten des Verhaltens zugrunde liegen. Aufmerksamkeitsstörungen können als grundlegende Ursache vieler kognitiver Beeinträchtigungen angesehen werden und bilden oft die Grundlage anderer psychischer Störungen, die auf Hirnverletzungen folgen. Die Rolle der Aufmerksamkeit bei Gedächtnis- und Lernstörungen ist seit einiger Zeit anerkannt, wurde aber erst vor kurzem als ein wichtiges Konzept für die Rehabilitation und den Aufbau funktioneller Fähigkeiten eingeführt. Die scheinbare Verzögerung bei der Umsetzung von Forschungsergebnissen aus der akademischen Psychologie in Techniken, die im klinischen Umfeld verwendet werden können, ist wahrscheinlich auf die Mehrdeutigkeit zurückzuführen, die seit jeher mit dem Aufmerksamkeitsprozess verbunden ist. Psychologen haben nie eine klare Definition von Aufmerksamkeit gegeben, und dies hat zu einem großen Teil zu Problemen bei der Identifizierung oder Messung von Aufmerksamkeit (mit herkömmlichen psychologischen Tests) geführt, die Aufmerksamkeitsstörungen von anderen Formen kognitiver Beeinträchtigungen unterscheidet (Lezak, 1983).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-4523-5_8 bd3fa65263a04903ed0c328743dd7341;de;;;1.1.;;;Funktionsmodell der Qualitätswahrnehmung (Forschungsfragen) Dieses Kapitel beschreibt ein Funktionsmodell der Sprachqualitätswahrnehmung für Nur-Hören-Testszenarien, das interne Prozesse und Gedächtnisrepräsentationen entlang einer Hierarchie von sensorischen, wahrnehmungsbezogenen, kognitiven und reaktionsbezogenen Verarbeitungsstufen spezifiziert. Komponenten des ereignisbezogenen Hirnpotentials werden als psychophysiologische Indikatoren an bestimmte innere Prozesse geknüpft. Der letzte Absatz listet Forschungsfragen auf, die in den folgenden drei experimentellen Studien (Kap.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71389-8_4 b0b994abaa6d7ab9810017731c1eca2c;de;;;1.3.;;;Exergaming – New Age Gaming für Gesundheit, Rehabilitation und Bildung Der urbane Lebensstil ist hektisch und informationsreich. Ein geschäftiges Arbeitstempo und digitale Unterhaltung nehmen Zeit weg von körperlicher Betätigung in der realen Welt, während Zivilisationskrankheiten weltweit zunehmen. Exergaming, ein Begriff, der „Übung“ und „Gaming“ kombiniert, hat viel Potenzial, um verschiedene neue Geschäftsmöglichkeiten für Dienstleistungen für den Unterhaltungs- und Freizeitsektor sowie den Gesundheitssektor zu bieten. In diesem Artikel bespreche ich einige neue Exergaming-Prototypen. Außerdem präsentiere ich aktuelle Rehabilitationsprogramme, insbesondere die PS3-basierte Rehabilitation von Kindern mit Hemiplegie. Die Nintendo Wii ist auch ein aufstrebender Konkurrent im Gesundheitsbereich. Ich bespreche Wii-basierte Gleichgewichts- und Handgelenkstherapien, die sich immer weiter verbreiten. Die Wii-Passform und Wii-Sportarten werden bei gesundheitsbewussten Menschen immer beliebter. Auch Forscher der Universität Ulster haben einige neue Webspiele für die Rehabilitation der oberen Gliedmaßen entwickelt. Auch der Einsatz von PSPs im englischen Laborunterricht wird gezeigt. Gemeinsam trägt die Gaming-Branche heute viel bei.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17881-8_40 d887ccb58a84644569ab26dc1653b400;de;;;1.3.;;;Computersimulation des Sprengwandschutzes unter Methan-Luft-Explosion auf einer Offshore-Plattform Ein internes Explosionsprogramm wird vorgestellt, um den Sprengwandschutz unter Methan-Luft-Explosion auf einer Offshore-Plattform zu bewerten, basierend auf zweidimensionalen, zeitabhängigen, reaktiven Navier-Stokes-Gleichungen einschließlich der Auswirkungen von Viskosität, Wärmeleitung und Moleküldiffusion. Die Ergebnisse zeigen, dass dieses Programm erfolgreich den Explosionsprozess einer Methan-Luft-Gaswolke erzeugen kann. Da der Überdruck hinter der Sprengwand und auf der Rettungsbootplatte mehr als 1,0 atm beträgt, wenn die Explosionswelle vorbeizieht, reicht die aktuelle Sprengwand nicht aus, um die Person und das Rettungsboot zu schützen. Daher muss die Sprengwand neu gestaltet werden. Die Explosionswelle der Methan-Luft-Gaswolke durchläuft einen sukzessiven Prozess von Detonationsbildung, Detonationsübertragung, Stoßdämpfung, regelmäßiger Reflexion und Mach-Reflexion usw. Darüber hinaus ist sie aufgrund des hohen Überdrucks, der bei der Gaswolkenexplosion erzeugt wird, äußerst verheerend und muss vermieden werden jederzeit auf der Offshore-Plattform.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18134-4_52 9912c7d0575a3f54c6392b3c4b71b970;de;;;1.1.;;;Ein mimetischer Algorithmus zur Verfeinerung der unteren Grenze der Anzahl von Spuren im Kanal-Routing-Problem Das Studium von Algorithmen und ihrem Design kann in verschiedenen Dimensionen vorangetrieben werden. In diesem Papier haben wir eine definitive Verfeinerung der unteren Schranke für die Anzahl der Spuren, die zum Routen eines Kanals erforderlich sind. Der Angriff erfolgt unter einem komplementären Gesichtspunkt. Unser Algorithmus schafft es, jede Art von Approximation zu vermeiden. Der Ansatz führt eine genaue Abbildung des Problems in eine grafische Darstellung durch und analysiert den Graphen mit Hilfe des mimetischen Algorithmus, der eine Kombination aus sequentieller und GA-basierter Scheitelpunktfärbung verwendet. Die Leistung des Algorithmus hängt davon ab, wie effektiv der mimetische Ansatz angewendet werden kann, indem geeignete Werte für die Parameter ausgewählt werden, um die grafische Darstellung des Problems zu bewerten. Dieser Gesichtspunkt hat einen immensen Beitrag gegen das Festhalten an lokalen Minima für dieses Optimierungsproblem. Das feinere Ergebnis veranschaulicht deutlich Instanzen, die eine bessere oder zumindest die gleiche untere Grenze beim VLSI-Kanal-Routing-Problem ergeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-44641-7_32 f7151ad2e18011c03dbc9116c80aad04;de;;;1.1.;;;Äquivalentes Kernproblem des relationalen Datenbankmodells Beim relationalen Datenbankmodell ist es wichtig, eine Menge von Beziehungen zu erhalten, die normalisiert sind. Um die Gesamtzahl der normalisierten Relationen zu reduzieren, müssen Relationen mit mehr als einem Schlüssel berücksichtigt werden. Schlüssel in derselben Beziehung werden als äquivalent bezeichnet. Bernstein hat einen Algorithmus entwickelt, um einen minimalen Relationssatz unter Verwendung des Schlüsseläquivalenzkonzepts zu erhalten. Die wichtigsten Ergebnisse dieser Arbeit sind, dass (1) Probleme des Bernstein-Algorithmus aufgezeigt und Algorithmen zur Behandlung dieser Probleme gezeigt werden und (2) für mehrere Normalisierungsklassen Algorithmen für minimales Schemadesign unter Berücksichtigung der Schlüsseläquivalenz angegeben werden. Die folgenden Ansätze werden in diesem Beitrag verwendet, (1) eine neue Definition der Schlüsseläquivalenz, (2) Minimierungstechniken logischer Funktionen (Prime-Implikanten-Generierung, ein verallgemeinertes Minimum-Cover-Problem), (3) die Idee der Minimierung angegebenen sequentiellen Maschinen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-09541-1_27 d64de8c3fa66f8c406154a5f1d5b86c0;de;;;1.1.;;;Kann massive Modularität die menschliche Intelligenz erklären? Informationskontrollproblem und Implikationen für die kognitive Architektur Eine grundlegende Aufgabe jeder zukünftigen kognitiven Architektur ist die Informationssteuerung: das Weiterleiten von Informationen an die relevanten Mechanismen, um eine Vielzahl von Aufgaben zu unterstützen. Jerry Fodor hat argumentiert, dass die Massive Modularity Hypothesis aufgrund ihrer architektonischen Verpflichtungen und ihrer Abhängigkeit von heuristischer Informationsverarbeitung keine flexible Informationskontrolle berücksichtigen kann. Ich argumentiere stattdessen, dass das eigentliche Problem in seinem Bekenntnis zum Nativismus liegt – neuere massive Modularitätsmodelle können trotz der Einbeziehung von Lern- und Selbstorganisationsmechanismen immer noch nicht lernen, Informationen flexibel genug zu kontrollieren. Nachdem ich diese Position verteidigt habe, schließe ich den Beitrag mit einer Diskussion weitergehender Implikationen für Kontrolle und kognitive Architektur.;-;-;-;https://link.springer.com/article/10.1007/s11229-019-02215-8 14d0910039ea252a000a40b2608faa77;de;;;1.1.;;;Neuverteilung mentaler Ressourcen über die produktive Lebensspanne Veränderungen des intelligenten Verhaltens über die Arbeitslebensdauer werden in einem informationsverarbeitenden Rahmen analysiert. Methodische Fragen der bisherigen Alternsforschung wurden in Verbindung mit einer vorbereitenden Aufgabenanalyse auf Basis der Computertheorie untersucht. Zunächst wurde eine Übersicht über die neuere Literatur vorgelegt, die ergab, dass (a) die meisten Studien Querschnittsstudien sind, (b) nur wenige Forscher systematisch die Vergleichbarkeit der Altersgruppen sicherstellen und (c) alle älteren Probanden funktionelle Freiwillige sind, möglicherweise im Gegensatz zu Probanden, die dies nicht tun sich freiwillig melden. Die diesen Praktiken zugrunde liegenden Annahmen wurden analysiert. Ihre Folgen sind potenziell schwerwiegend genug, um die meisten Verallgemeinerungen in der Literatur zum kognitiven Altern zu untergraben. Eine Studie mit einem breiten Spektrum kognitiver Aufgaben testete die zugrunde liegenden Annahmen. Alte und junge Probanden wurden sorgfältig gleichgestellt, indem Stichproben aus einer homogenen Population weißer Lehrerinnen gezogen wurden. Nicht-Freiwillige wurden durch Zahlung eines hohen Honorars zur Teilnahme verleitet, und ihre Leistung in einem breiten Spektrum von Aufgaben umfasste einige, die aktuelle Trends in der Informationsverarbeitungsforschung widerspiegeln (Metagedächtnis, Inferenz, Weltwissen) und andere, die aufgrund ihrer . ausgewählt wurden Popularität in der untersuchten Literatur (WAIS-Subtests, Recall, Recognition). Sie wurden in einen vierfach geordneten Satz eingeteilt, der evolutionäre Überlegungen und die Theorie der Informationsverarbeitung widerspiegelt, in Aufgaben, die Informationspflege, Lokalisierung und Erstellung sowie Systemabfrage umfassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-4178-9_15 c5f05682021ab81801db779a2ada765a;de;;;1.1.;;;Theoretische Modelle von Trainings- und Transfereffekten Modelle des kognitiven Transfers basieren typischerweise auf der Theorie identischer Elemente: Wissen aus einer Aufgabe kann nur dann von einer anderen Aufgabe verwendet werden, wenn die Elemente des Wissens identisch sind. Dies lässt jedoch viele Fragen bezüglich der Art des Wissens und der Mechanismen des Transfers offen. Die in diesem Kapitel vorgestellte zentrale Idee ist, dass die Elemente des Wissens auf mehreren Abstraktionsebenen identifiziert werden können und Wissen auf einer sehr niedrigen Ebene transferiert werden kann. Darüber hinaus ist der Mechanismus des Transfers, dass Allgemeinwissen ein Nebenprodukt des Lernens ist. Die Theorie der PRIMs (Primitive Information Processing Element) bietet ein Prozessmodell des Transfers. In diesem Kapitel diskutieren wir die Grundlagen von PRIMs und zeigen, wie sie Phänomene rund um das Gehirntraining, die kognitive Entwicklung und das Lernen aus Anweisungen auf verschiedenen Abstraktionsebenen vorhersagen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-39292-5_4 e23e26968bcec0245a90b8235be202b0;de;;;1.1.;;;Kausale Zuordnung von Verhalten und Leistung Ach Menschen haben ein grundlegendes Bedürfnis, ihre Umwelt zu verstehen, vorherzusagen und zu kontrollieren. Kausale Zuschreibungen sind hierfür äußerst wichtig. Ohne die Ursachen für ein Verhalten oder Ereignis zu kennen, wird es unvorhersehbar, ob es wieder auftritt und wie es beeinflusst werden könnte. Dieses Kapitel führt zunächst in das Thema ein, indem es Weiners Attributionstheorie von Motivation, Emotion und Verhalten vorstellt, bevor der Prozess der kausalen Attribution beschrieben wird. Dazu wird im Kapitel erläutert, wann und wie intensiv Menschen nach Ursachen suchen und diese auf Ereignisse zurückführen. Es werden sowohl normative als auch deskriptive Modelle der Kausalzuordnung diskutiert. Im dritten Teil des Kapitels geht es dann um die Auswirkungen der Kausalattribution auf Motivation, Emotion und Verhalten. Konkret wird deren Einfluss auf Lernen und Leistung, die Entwicklung depressiver Symptome sowie aggressives Verhalten beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-65094-4_15 8a30b40f038a187c4491b8156bf792cf;de;;;1.1.;;;Wettbewerbsorientiertes Lernen durch Informationsmaximierung: Eliminierung toter Neuronen beim wettbewerbsorientierten Lernen In dieser Arbeit schlagen wir eine neue informationstheoretische kompetitive Lernmethode vor. Bei der Realisierung des Wettbewerbs wird weder der Winner-Take-All-Algorithmus noch die laterale Hemmung verwendet. Stattdessen basiert das neue Verfahren auf der gegenseitigen Informationsmaximierung zwischen Eingabemustern und konkurrierenden Einheiten. Durch die Maximierung der gegenseitigen Information wird die Entropie konkurrierender Einheiten so weit wie möglich erhöht. Das bedeutet, dass alle Wettbewerbseinheiten in unserem Rahmen gleichermaßen genutzt werden müssen. Somit werden keine unterausgelasteten Neuronen (tote Neuronen) erzeugt. Wir haben unsere Methode auf ein einfaches künstliches Datenproblem und ein tatsächliches Straßenklassifizierungsproblem angewendet. In beiden Fällen bestätigten experimentelle Ergebnisse, dass die neue Methode die endgültigen Lösungen fast unabhängig von den Anfangsbedingungen erzeugen kann und die Klassifikationsleistung erheblich verbessert wird.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44989-2_13 18f8d0719d247753f41cfca7ea7b52e1;de;;;1.3.;;;Service Science, Management und Engineering (SSME) in Japan Dieses Papier berichtet über die neuesten akademischen und staatlichen Aktivitäten in Bezug auf Service Innovation und Service Science, Management, Engineering (SSME) in Japan. Universitäten, Regierungsinstitute und Regierungsbeamte suchen nach neuen Ideen zur Förderung des Wirtschaftswachstums, insbesondere nach der Finanzkrise, die Ende 2008 begann. Service-Innovationen sind ein ausgezeichneter Ort, um nach diesen neuen Ideen zu suchen, und SSME als neue akademische Initiative für die Vermittlung von Grundlagen für Dienstleistungsinnovationen, kann eine ausgezeichnete Grundlage für Dienstleistungsinnovationen bilden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-1628-0_31 6d9070108acff0b8c942043059cf0072;de;;;1.3.;;;Eine Leistungsstudie des Hidden-Markov-Modells und des Random Forest bei der Klassifizierung des Internetverkehrs Derzeit gewinnt die Klassifikation des Internet-Traffics zunehmend an Bedeutung und es wurde eine breite Palette von Verfahren für eine Vielzahl von Netzwerkwerkzeugen entwickelt. Methoden des maschinellen Lernens werden häufig zur Erkennung und Klassifizierung von Internetverkehr eingesetzt. Diese Untersuchung richtet den Blick auf zwei häufig eingesetzte Techniken in diesem Bereich. Dies sind das Hidden-Markov-Modell und das Random-Forest-Verfahren. Darüber hinaus bietet die Studie eine detaillierte Erklärung und Analyse der Methodik für jede und leitet die Vorteile und Rückschläge weiter, die durch den Vergleich der Leistung in verschiedenen signifikanten Faktoren zugeschrieben werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0557-2_32 b00413062ef1aac5b94f48fc7e570892;de;;;1.3.;;;Kooperative Kommunikations- und Cognitive Radio (CR)-Technologie in LTE-Advanced Der exponentielle Anstieg der Anforderungen an drahtlosen Zugang im Laufe der Jahre hat zu einer schnellen Entwicklung der drahtlosen Zugangstechnologie der nächsten Generation geführt. Angesichts knapper Spektrumsressourcen ist jedoch der steigende Bandbreitenbedarf zum Hauptproblem geworden, da dieses Problem den Evolutionsprozess behindert und im Allgemeinen die Netzwerkleistung beeinträchtigt. In diesem Artikel untersuchen wir anhand von 3GPP (3rd Generation Partnership Project) LTE-Advanced (Long Term Evolution - Advanced) als perfektes Muster für den 4G-Standardkandidaten (vierte Generation) gründlich seine Schlüsseltechnologien und geben so einen Überblick über die Netzwerkleistung und -effizienz Verbesserung durch die Implementierung kooperativer Kommunikations- und Cognitive Radio (CR)-Technologie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25462-8_62 5f312d677a91be764edbca6dbb181718;de;;;1.3.;;;Das Vertraute aufbrechen: Bildungstheorien auf simulationsbasiertes Lernen und Assessment-Design anwenden Als praxisorientierter, erfahrungsbasierter Bildungsansatz wird der Simulation mitunter ein Mangel an Bildungstheorie vorgeworfen und sie ist anfällig für Validitätsfragen. Lewin [;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9582-7_5 69350e3aedc934cfb84954dbeccbd48a;de;;;1.3.;;;Die Erstellung animierter Grafiken zur Entwicklung von computergestütztem Denken und zur Unterstützung der MINT-Ausbildung Problemlösung und rechnerisches Denken sind die Schlüsselkompetenzen, die alle Menschen für berufliche Entfaltung, persönliche Entwicklung, aktive Bürgerschaft, soziale Eingliederung und Beschäftigung benötigen. In der Mathematik werden während der kontextualisierten Problemlösung mit Maple die Unterschiede zwischen diesen beiden Fähigkeiten geringer. Ein sehr wichtiges Merkmal von Maple zur Problemlösung ist die Programmierung animierter Graphen: eine Animation, die durch Verallgemeinerung eines statischen Graphen erhalten wird, wobei der zu variierende Parameter und sein Variationsintervall ausgewählt werden. Das erste Ziel dieser Forschung ist es, die rechnerischen Denkprozesse hinter der Erstellung von animierten Graphen zur Lösung eines kontextualisierten Problems zu analysieren. Zu diesem Zweck haben wir einige Problemlösungen ausgewählt und analysiert, die von Schülern der vierten Klasse der Sekundarstufe II in Italien (Klasse 12) durchgeführt wurden. Der Beitrag zeigt einige Beispiele, in denen sich unterschiedliche Prozesse des Computational Thinking herausgebildet haben, die Auflösungsstrategien und unterschiedliche Generalisierungsprozesse widerspiegeln. Aus der Analyse ging hervor, dass alle Prozesse, die den mentalen Strategien des computergestützten Denkens zugrunde liegen, die für die Lösung von Problemen nützlich sind, bei der Erstellung animierter Graphen aktiviert werden. Im zweiten Teil des Artikels diskutieren wir Beispiele für Animationen, die während der Ausbildung mit Sekundarschullehrern erstellt wurden und wie Animationen das Erlernen wissenschaftlicher Konzepte unterstützen können. Es ist sehr wichtig, die Lehrer diesbezüglich zu schulen, sowohl die Prozesse zu verstehen, die die Schüler bei der Erstellung animierter Grafiken aktivieren würden, als auch die theoretischen oder praktischen Erklärungen mit animierten Darstellungen anzureichern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-41258-6_14 ff72ee965fa7489b5e58f669fa0e6206;de;;;1.3.;;;Der Einfluss von E-Learning in der Hochschulbildung: Eine empirische Analyse im Kontext der Präsenzlehre Das Ziel dieses Kapitels ist es, den Einfluss von E-Learning-Technologien und -Werkzeugen als Unterstützung für lehrergeleitete Kurse auf die Leistung (Effizienz) des Unterrichts sowie auf die Akzeptanz der Lernenden zu analysieren. Es zielt auch darauf ab, moderierende Faktoren, die einen Einfluss auf den Prozess haben, zu analysieren und zu bestimmen. Das Papier basiert auf den Daten, die während eines akademischen Jahres an einer großen spanischen Universität gesammelt wurden, die 2500 Kurse (mit E-Learning-Unterstützung) anbietet und 1800 Professoren beschäftigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22383-9_24 cdff4fa80fb4bf047312d67b16880c60;de;;;1.3.;;;Ein sicherheitsbewusstes Fuzzy Embedded ACO Based Routing Protocol (SAFACO) in VANETs Intelligente Fahrzeugtechnologien haben sich in den letzten Jahren rasant entwickelt. Intelligente Fahrzeuge können die wesentlichen Informationen wie Straßen- und Wetterbedingungen austauschen, um die Verkehrssicherheit zu gewährleisten. Allerdings kommunizieren Fahrzeuge untereinander oder mit der Road Side Unit (RSU) über einen Funkkanal, was viele Herausforderungen bei der Erfüllung der Sicherheitsanforderungen mit sich bringt. Beim Datenroutingprozess können Angreifer die Datenpakete analysieren, modifizieren oder verwerfen, um die Privatsphäre der Fahrzeuge zu enthüllen oder die normale Kommunikation zu stören. In diesem Artikel entwickeln wir einen sicherheitsbewussten Fuzzy-eingebetteten ACO-Routing-Algorithmus (SAFACO) in VANETs, ​​der digitale Signaturen mit einem auf Fuzzy-Logik eingebetteten ACO-basierten Routing-Protokoll kombiniert. Nachdem wir die Hauptstruktur von SAFACO vorgestellt haben, bieten wir auch eine detaillierte Diskussion seines Sicherheitsmechanismus. Das vorgeschlagene sichere Kommunikationsschema ist in der Lage, die Authentifizierung bereitzustellen, die Datenkonsistenz sicherzustellen, die Privatsphäre von Fahrzeugen zu wahren sowie bösartige Fahrzeuge zu erkennen und zu isolieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-4154-9_32 51d778f7a1c244211f919066f215b75d;de;;;1.1.;;;Modelle der Koalitionsbildung kooperativer Akteure: Stand und Perspektiven der Forschung Dieses Papier beschreibt die wichtigsten Ansätze für die Konstruktion von Modellen der Koalitionsbildung unter rationalen kooperativen Akteuren. Die Taxonomie der Veröffentlichungen in diesem sich schnell entwickelnden interdisziplinären Forschungsgebiet wird vorgestellt. Basierend auf den Erfahrungen der Autoren werden verschiedene Ansätze im Hinblick auf ihre Anwendbarkeit auf reale Aufgabenstellungen verglichen. Besonderes Augenmerk wird auf Modelle der kooperativen Spieltheorie gelegt.;-;-;-;https://link.springer.com/article/10.3103/S014768821205005X 14099d05ec73d4a59324a584aa636fed;de;;;1.1.;;;Codierung räumlicher Informationen: Der Beweis für hierarchische Verarbeitung In diesem Artikel wird beschrieben, wie Personen räumliche Informationen verarbeiten, wie sich der geografische Standort auf die Verarbeitungsmethode auswirken kann, wie ein Verständnis der räumlichen Informationsverarbeitung erforderlich ist, um räumliche Entscheidungen genau zu modellieren, und wie räumliche Variationen bei der Verarbeitung von Informationen gemessen werden können. Es werden sowohl nicht-hierarchische als auch hierarchische Methoden der Informationsverarbeitung diskutiert, wobei letztere die wahrscheinlichere Methode zur Verarbeitung räumlicher Informationen ist. Ergebnisse eines empirischen Beispiels mit Migrationsströmen innerhalb der USA legen nahe, dass Individuen eine hierarchische Methode der räumlichen Ordnung verwenden und dass es ein räumliches Muster in dem Maße gibt, wie räumliche Informationen hierarchisch verarbeitet werden. Es wird gezeigt, dass dieses Muster mit der Menge an räumlichen Informationen zusammenhängt, die einer Person zur Verfügung stehen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-55966-3_16 2cc7c4eed72a003aa91baf7e37d42c56;de;;;1.1.;;;Ein Leitfaden für Anfänger in der Mathematik neuronaler Netze Es wird eine Beschreibung der Rolle der Mathematik bei der Gestaltung unseres Verständnisses der Funktionsweise neuronaler Netze und der merkwürdigen neuen mathematischen Konzepte gegeben, die durch unsere Versuche, neuronale Netze in Gleichungen zu erfassen, generiert wurden. Eine Auswahl relativ einfacher Beispiele für neuronale Netzaufgaben, Modelle und Berechnungen wird vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-3427-5_2 6f98c1fe0534984b7801724ea4a2f3b2;de;;;1.1.;;;Computersimulationsmodelle In diesem Kapitel betrachten wir drei repräsentative Bemühungen zur Untersuchung der biologischen Informationsverarbeitung durch Modelle, die in digitalen Computerprogrammen enthalten sind. Theorie und Kunst der Computersimulation sind umfangreiche Themen, die wir nicht explizit diskutieren können. Darüber hinaus hat jedes der Modelle, die wir uns ansehen, mindestens den Umfang eines Ph.D. Dissertation. Daher werden auch unsere Beispiele recht oberflächlich und qualitativ behandelt. Der Leser, der die Möglichkeit hat, sich durch eine dieser Dissertationen zu arbeiten, wird es als eine lohnende, wenn auch schwierige und manchmal frustrierende Aufgabe empfinden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-85501-6_11 a48e80027d59cb45bfe4518b2e06fac6;de;;;1.3.;;;Effektives Trajektorien-Ähnlichkeitsmaß für sich bewegende Objekte in einer realen Szene Trajektorien von sich bewegenden Objekten liefern fruchtbare Informationen zum Analysieren von Aktivitäten der sich bewegenden Objekte, daher haben zahlreiche Forschungen versucht, semantische Informationen aus den Trajektorien unter Verwendung von Cluster-Algorithmen zu erhalten. Um die Trajektorien zu clustern, sollte zuerst das Ähnlichkeitsmaß der Trajektorien definiert werden. Die meisten existierenden Verfahren haben Ähnlichkeitsmaße verwendet, die auf dynamischer Programmierung (DP) basieren, um mit unterschiedlichen Längen von Trajektorien fertig zu werden. DP-basierte Ähnlichkeitsmaße haben jedoch nicht genügend Unterscheidungskraft, um Trajektorien aus der realen Umgebung richtig zu gruppieren. In diesem Papier wird ein effektives Trajektorien-Ähnlichkeitsmaß vorgeschlagen, und das vorgeschlagene Maß basiert auf den geographischen und semantischen Ähnlichkeiten, die dieselbe Skala haben. Daher kann die Bedeutung der geografischen und semantischen Informationen leicht durch eine gewichtete Summe der beiden Ähnlichkeiten kontrolliert werden. Durch Experimente an einem anspruchsvollen realen Datensatz wurde bewiesen, dass die vorgeschlagene Maßnahme eine bessere Unterscheidungskraft hat als die bestehende Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46578-3_75 5c0262399dabcbcc506a8331ec5a49d1;de;;;1.3.;;;Optimierungsstudie zur Berechnungsmethode für Kanalerdarbeiten basierend auf MATLAB Die Berechnung des Kanalübergangs-Erdbauvolumens ist die grundlegende Arbeit der Kanalplanung und -konstruktion. Herkömmliche Berechnungen sind kompliziert und von geringer Genauigkeit. Die Studie basiert auf der starken Berechnungsfunktion und der benutzerfreundlichen Oberfläche von MATLAB. Bei der Analyse der traditionellen Berechnung und des Prinzips empfehle ich eine Berechnung unter Verwendung der Interpolation der quadratischen B-Spline-Funktion und des Integrals, was die Berechnung einfacher, genauer und als Referenz macht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18129-0_12 8068dd664f912d86686f160092aadbf8;de;;;1.3.;;;Universitäten mit Automobilqualität - Erweiterung der AQUA-Allianz in die Hochschulbildung In diesem Beitrag wird die Ausweitung von AQUA (Automotive Knowledge Alliance AQUA – Integrating Automotive SPICE, Six Sigma, and Functional Safety) in das Hochschulstudium diskutiert. Nachfolgeprojekt Automotive Quality Universities (AQU) zielt auf die Anpassung des AQUA-Integrierten Konzepts an die Hochschulen mit ECTS-vergaben Studien ab. Ziel ist es, die Wissenslücke zwischen den Bedürfnissen der Automobilindustrie und den Fähigkeiten der Absolventen im Bereich Automotive SPICE, Funktionale Sicherheit und Six Sigma zu schließen. Das integrierte Konzept von AQU und AQUA komplexer Ansatz für die Ausbildung von Absolventen und Ingenieuren zur Erweiterung der Kenntnisse in diesem Bereich wird beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-44817-6_14 ef42f818ba7534b84d3d8de655e449fa;de;;;1.3.;;;Segmentierung medizinischer Bilder mit verbessertem Chan-Vese-Modell Die Bildsegmentierung spielt bei vielen medizinischen Bildgebungsanwendungen eine entscheidende Rolle. Die Verwendung des herkömmlichen Chan-Vese-Algorithmus für die medizinische Bildanalyse ist wegen seiner Fähigkeit, eine vollständige Aufteilung des Bildes zu erzeugen, weit verbreitet. Zu seinen Nachteilen gehören jedoch eine Übersegmentierung und eine Empfindlichkeit gegenüber falschen Kanten. In diesem Papier stellen wir einen neuartigen Algorithmus vor, der k-Means-Clustering und einen verbesserten Chan-Vese-Algorithmus beinhaltet. Der verbesserte Chan-Vese-Algorithmus basiert auf der Ähnlichkeit zwischen jedem Punkt und Mittelpunkt in der Nachbarschaft. Dieser Algorithmus kann die Details des lokalen Bereichs erfassen, um die Bildsegmentierung im heterogenen Graustufenbereich zu realisieren. Die experimentellen Ergebnisse zeigen, dass diese Methode das medizinische Bild mit hoher Genauigkeit, Anpassungsfähigkeit und stabilerer Leistung im Vergleich zum traditionellen Chan-Vese-Modell segmentieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0557-2_38 d8135dfe58f93196b3a12c7679da62b6;de;;;1.3.;;;Spekulatives FEM-Simulationssystem für invasive chirurgische Eingriffe mit haptischer Interaktion Herkömmliche chirurgische Simulatoren mit virtueller Realität werden wegen der Beschränkung der Rechenressourcen des Personalcomputers für nicht-invasive Operationen bereitgestellt. Für die Entwicklung eines fortschrittlichen Simulators ist die Simulation invasiver Operationen wie Einschnitt und Ablation erforderlich. Außerdem sollte für die interaktive haptische Simulation das Bruchmodell auf der Grundlage der Physik übernommen werden. Daher ist die Erzielung eines Bruchsimulationssystems in großem Maßstab mit Interaktivität erwünscht. Diese Studie zielt darauf ab, einen Echtzeit-Ruptursimulator mit physikbasierter haptischer Interaktion bereitzustellen. Das vorgeschlagene System verwendet eine spekulative Berechnung der Steifigkeitsmatrix, um die Berechnungsverzögerung im FEM-Bruchmodell zu verbergen. Das System nimmt die Implementierung auf dem PC-Cluster an und verwendet den Simulationscache, um die Berechnungsverzögerung zu verbergen. Dieses Papier bietet einen Bericht über die Trefferquote der Spekulation.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-49022-7_75 b2ead80c7c8859f083d0c81dc1ffb253;de;;;1.3.;;;Eine Lehrerbefragung zur Effektivität einer E-Learning-Plattform an einer Hochschule Technologie spielt in vielen Bereichen der Bildung eine wichtige Rolle. Unsere Institution hat eine e-Learning-Plattform eingeführt und diese Plattform bietet Lehrern und Schülern viele nützliche Werkzeuge, um die Lehr- und Lernerfahrungen zu verbessern. Allerdings kennt nicht jeder Lehrer und Schüler die Tools und verwendet die Tools richtig, da sie mit dem System nicht vertraut sind. Lehrer können eigene Lehr- und Lernansätze haben, die viele Jahre lang nützlich sind und durch die richtige Nutzung der E-Learning-Plattform weiter verbessert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-48978-9_26 5d9443a6523b09f51ac8ffb64b913584;de;;;1.3.;;;Management im alten Stil Die industrielle Revolution wurde von britischen Kapitalisten nach Indien gebracht, die von Indiens industriellem Potenzial angezogen wurden. Diese Menschen standen jedoch vor einem großen Dilemma: Sie wollten nicht in Indien leben und sich persönlich um ihre Investitionen kümmern. Um dieses Problem zu überwinden, erfanden diese Männer ein einzigartiges System der Abwesenheitsverwaltung. Sie gründeten und registrierten ihre Unternehmen in England, um in Indien Geschäfte zu machen, aber die Direktoren dieser Unternehmen übernahmen nicht die direkte Verantwortung für den Betrieb und das Management der Unternehmen. Stattdessen vergaben sie diese Funktionen an interessierte Briten, die entweder in Indien lebten oder bereit waren, dorthin zu gehen. Dieses System der Verwaltung durch einen Bevollmächtigten wurde als „Verwaltungssystem“ bekannt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-7499-2_2 a0b4de261e0a9b3b06c71310bd6938ff;de;;;1.3.;;;Kalman-Filterbasierte Erkennung aggressiven Verhaltens für Innenumgebungen Indoor Das automatisierte Videoüberwachungssystem ist ein sehr wichtiges modernes Werkzeug, insbesondere mit der steigenden Popularität des Internets der Dinge (IoT). Die Zahl der angeschlossenen Videokameras, die für Überwachungsanwendungen zur Verfügung stehen, nimmt ständig zu, wobei sogar eine Handykamera mit niedriger Auflösung verwendet wurde, um diesen Zweck zu erfüllen. Für einen geschlossenen Raum ist es eine der wichtigsten Überwachungsfunktionen, aggressives Verhalten automatisch zu erkennen, sodass jeder verbale oder körperliche Kampf sofort gestoppt werden kann. Darüber hinaus ist ein automatisiertes Erkennungssystem für aggressives Verhalten auch für die Implementierung in Gefängnissen und Gefängnissen geeignet, wo ein aggressives Verhalten mit größerer Wahrscheinlichkeit auftritt. Aggressives Verhalten kann einfach als jedes Verhalten definiert werden, das dem Opfer möglicherweise physisch oder psychisch schaden kann. Daher schlägt dieses Papier ein auf einem Kalman-Filter basierendes automatisiertes System zur Erkennung aggressiven Verhaltens vor, das durchschnittliche optische Flussinformationen verwendet. Eine gefilterte optische Strömungsgeschwindigkeit unter Verwendung von Hintergrundsubtraktion ist die Eingabe in die Gaußsche Verteilung, um die Tracker-Beobachtung zu modellieren. Ein Bi-State-Tracker, normale und aggressive Zustände werden während des gesamten Videos verfolgt, wobei die Erkennungsentscheidung jedes Frames entweder davon abhängt, ob der geglättete normale Zustand oder der geglättete aggressive Zustand größer ist. Die Genauigkeit des vorgeschlagenen Systems ist moderat, da die beste Leistung nur 0,75 beträgt, während die Empfindlichkeitsleistung mit dem höchsten Wert von 0,85 gut ist. Daher kann das System durch Anwenden eines besseren Entscheidungsmoduls durch Einbetten räumlicher Informationen des optischen Flusses weiter verbessert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0557-2_79 bb6d39cdbe273ecc7b764e02c0d4e349;de;;;1.1.;;;Kognitive Psychophysiologie und das Studium von Zuständen und Prozessen Die Prämisse der kognitiven Psychophysiologie ist, dass das Verständnis menschlicher kognitiver Prozesse durch die Verwendung psychophysiologischer Maßnahmen in Verbindung mit Maßnahmen des offenen Verhaltens verbessert werden kann (siehe z. In diesem Kapitel werden wir den Ansatz der kognitiven Psychophysiologie veranschaulichen, indem wir einige neuere Forschungen in unserem Labor beschreiben (Coles, Gratton, Bashore, Eriksen & Donchin, 1985, Gratton, Coles, Sirevaag, Eriksen & Donchin, in Vorbereitung). Wir werden auch erörtern, wie diese Forschung die Fragen, mit denen sich dieses Buch beschäftigt, beeinflussen kann, nämlich die Beziehung zwischen energetischen Zuständen und psychologischen Prozessen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-4448-0_29 6767583b2ffb16fc4840b8b403f28624;de;;;1.1.;;;Objektkalkül in der System-Objekt-Methode der Wissensdarstellung In dieser Arbeit werden Methoden der Formalisierung des Einheit-Funktion-Objekt-Systemansatzes und die auf diesem Ansatz basierende System-Objekt-Methode der Wissensdarstellung betrachtet. Die Zweckmäßigkeit, einige Ideen der Objektrechnung von Abadi-Cardeli und der Mustertheorie von Grenander zur weiteren Formalisierung anzuwenden, wird begründet. In Analogie zum obigen algebraischen Apparat wurde die Berechnung spezieller Objekte entwickelt, die Elemente von System-Objekt-Modellen darstellen, die den grafischen Formelismus und grundlegende Operationen mit Objekten umfasst. Es wird gezeigt, dass es mit dem vorgeschlagenen formal-semantischen Alphabet spezieller Objekte möglich ist, das Verfahren zur Zerlegung eines komplexen Systems auf der Basis der grundlegenden Hierarchie von Klassen systemischer Zusammenhänge zu vereinfachen. Es werden eine Reihe systemweiter Regelmäßigkeiten konkretisiert.;-;-;-;https://link.springer.com/article/10.3103/S0147688218050039 f698950f8a50c1f0297e2d55b378ed05;de;;;1.3.;;;Überzeugungen von Lehrkräften zu Blended Learning in der Hochschulbildung: Eine Mixed-Methods-Studie Das Ziel dieser Arbeit ist es, die wichtigsten Überzeugungen, Erwartungen und Einstellungen von Hochschullehrern bezüglich der Akzeptanz und Einführung von Blended Learning (BL)-Methoden mit einem quantitativen und qualitativen Ansatz zu analysieren. Zur Durchführung der empirischen Analyse wurde ein Mixed-Method-Design (DEXPLIS Sequential Explanatory Model) angewendet. An der Studie nahmen insgesamt 982 Lehrkräfte verschiedener spanischer Universitäten (quantitativer Teil) und eine Teilstichprobe von 86 (für die qualitative Studie) teil. Die Ergebnisse identifizieren eine Reihe von Überzeugungen (Vor- und Nachteile) sowie die Hauptforderungen dieser Lehrer an die Umsetzung von BL.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20798-4_16 deb34701eb02893cff18ae3eb0b37fdf;de;;;1.3.;;;Entscheidungsbaum mit sensibler Beschneidung in einem netzwerkbasierten Intrusion Detection System Techniken des maschinellen Lernens wurden im Bereich des netzwerkbasierten Intrusion Detection Systems (NIDS) umfassend angewendet, insbesondere bei der Aufgabe der Klassifizierung des Netzwerkverkehrs. Ein Entscheidungsbaummodell mit seiner Verwandtschaftsterminologie ist für diese Anwendung sehr geeignet. Der Verdienst seiner geradlinigen und einfachen “;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0058-9_1 44122293da28afbb0e10f7021c45201d;de;;;1.1.;;;Perspektiven innovativer Technologien in der Fertigung Die Mehrzahl der Maschinenbauprodukte zeichnet sich heute durch ein enges Zusammenspiel zwischen klassischer Mechanik und Elektronik, Regelungstechnik und Software aus, treffend mit dem Begriff Mechatronik ausgedrückt. Es entstehen jedoch weitere Möglichkeiten, die weit über die Mechatronik hinausgehen – Systeme mit inhärenter Intelligenz. Zukünftige Systeme im Bereich Maschinenbau umfassen Konfigurationen von intelligenten Systemelementen, die wir auch als Lösungselemente bezeichnen, da sie die Lösung einer Funktion ermöglichen. Die Leistungsfähigkeit des Gesamtsystems wird durch die Kommunikation und Zusammenarbeit intelligenter Systemelemente geprägt. Softwaretechnisch handelt es sich dabei um verteilte Systeme interagierender Agenten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55776-7_23 6f3178a9c0512a7d1b49113509e273a8;de;;;1.3.;;;Erfahrungen und Wahrnehmungen der Lernenden bei der Verwendung von Social Media-Tools beim formalen Lernen am Arbeitsplatz Da Social-Media-Tools zunehmend im E-Learning am Arbeitsplatz eingesetzt werden, wächst auch der Bedarf an Fallstudien, die es uns ermöglichen, die zugrunde liegende Dynamik zu verstehen, um Best Practices zu entwickeln und potenzielle Fallstricke zu vermeiden. Mit einem qualitativen Ansatz untersuchten wir ein Pilottraining, das auf eine große Versicherungsorganisation zugeschnitten war und hauptsächlich mit Chats, Blogs, Sprachkonferenzen und Diskussionsforen durchgeführt wurde. Unsere Ergebnisse zeigen, dass die Nutzung sozialer Medien trotz Herausforderungen einen Mehrwert für E-Learning schaffen kann und damit vielen bisher nur schwach begründeten Behauptungen über ihr Potenzial Glauben schenken kann. Insbesondere ermöglichten synchrone Tools Peer-Support, Erfahrungsaustausch und Networking. Dennoch zeigen die Ergebnisse auch, dass interaktiver Lernprozess nicht automatisch durch das Hinzufügen sozialer Tools entsteht, sondern gestaltet und gepflegt werden muss. Basierend auf den Ansichten der Lernenden diskutieren wir, wie die Lernerfahrung insgesamt verbessert und das Lernen effizienter gestaltet werden kann. Außerdem diskutieren wir, wie die Social-Media-Tools verbessert werden können, um den Bedürfnissen der Lernenden beim E-Learning im Gegensatz zu ihrer Freizeitnutzung besser gerecht zu werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37285-8_6 20db6e2ca2255e547aa631e6e1ada1e5;de;;;1.3.;;;0,18-um-CMOS-Technologie bei der Implementierung einer S-Box und einer modifizierten S-Box Kryptografische Algorithmen sind die wichtigsten Elemente bei der Gestaltung der Systemsicherheit. Obwohl es zahlreiche Verschlüsselungssysteme gibt, die in Sicherheitssystemen von verschiedenen Organisationen verwendet werden, wird für die breitere Verwendung ein bestimmtes Verschlüsselungsverfahren als Standard verwendet. Der international anerkannte und anerkannte Algorithmus ist Advanced Encryption Standard. Hier in diesem Papier haben wir den Advanced Encryption Standard (AES) unter Verwendung von Hardware Descriptive Language (HDL) implementiert und eine modifizierte S-Box konstruiert. Fläche und Leistung beider S-Boxen werden verglichen und auch ihre Angriffsresistenz analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21937-5_26 132e4a10172cace54d8d539cb7d557d9;de;;;1.3.;;;Abschätzung der minimalen Verarbeitungszeit des Flüssigkristalldisplay-Monitorscharniers bei der 2D-Konturbearbeitung Diese Studie betrachtet die Mastercam-Simulation und die Optimierung des genetischen Algorithmus, um einen minimalen Verarbeitungszeitwert des Flüssigkristalldisplay-Monitorscharniers bei der zweidimensionalen (2D) Konturbearbeitung zu schätzen. Das Regressionsmodell wurde entwickelt, um die Fitnessfunktionsgleichung der GA-Optimierung zu formulieren. Diese Studie ergab, dass GA in der Lage ist, den Wert der optimalen Schnittbedingungen zu schätzen, um die Bearbeitungszeit zu minimieren. Bei hohem Vorschub, hoher Spindeldrehzahl, hoher Steigung und geringer Zugrate des Bearbeitungsparameters empfiehlt GA 349,3916 Sekunden als minimale Bearbeitungszeit. Folglich hat GA die minimale Bearbeitungszeit der Mastercam-Simulation um ca. 6,58 % reduziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25453-6_22 58a7b1983cd7ad7913a1608b71a5f628;de;;;1.3.;;;Können anvertrauenswürdige berufliche Aktivitäten das Lernen fördern: Was wir von den Jesuiten lernen können Entrustable Professional Activities (EPAs) sind in letzter Zeit das Schlagwort in der medizinischen Ausbildung und im Bereich der Gesundheitsberufe. Medizinische Berufsverbände und medizinische Ausbilder weltweit sehen die Entwicklung von EPAs als vielversprechenden Ansatz, um die Schwierigkeiten bei der Beurteilung der Kompetenzen ihrer Auszubildenden in einer klinischen Umgebung des arbeitsintegrierten Lernens (WIL) zu überwinden. Obwohl zahlreiche Forschungen darüber durchgeführt wurden, wie EPAs als Methode zur Beurteilung von Kompetenzen mit Stoppuhr verwendet werden können, um sicherzustellen, dass medizinische Auszubildende auf der Grundlage gut getesteter und vereinbarter aussagekräftiger Standards als die besten beurteilt werden, ist die wichtigste und wesentliche Frage Die Frage, wie EPAs das tägliche selbstgesteuerte Lernen der Schüler für ihre kontinuierliche berufliche Entwicklung von Fachwissen am besten fördern könnten, bleibt weitgehend unbeantwortet. Angesichts dieser Spitzenentwicklung in der kompetenzbasierten medizinischen Ausbildung (CBME) und der wichtigen Rolle, die das Gesundheitswesen in der globalen Gesellschaft des 21. Vorbereitung medizinischer Fachkräfte und auf das Gesundheitswesen in der kommenden Zukunft. Vor diesem Hintergrund bietet dieses Papier ein Update zum Fortschritt dieses sich allmählich etablierenden Ansatzes für die kompetenzbasierte medizinische Ausbildung, identifiziert die Essenz dieser neuen, neuartigen arbeitsplatzbasierten Bewertungsmethode in Bezug auf eine Überprüfung der zeitgenössischen kompetenzbasierten medizinischen und untersucht schließlich, wie die Weisheit der Jesuiten genutzt werden könnte, um den potenziellen Einfluss der EPAs auf die Erfüllung der Mission der medizinischen Ausbildung zu fördern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-0008-0_15 1de8a9708c00e7fdc25886621f3dafe2;de;;;1.1.;;;Zu den logischen Werkzeugen der intelligenten soziologischen Datenanalyse Die logischen Werkzeuge zur Formalisierung der qualitativen soziologischen Datenanalyse werden betrachtet. Die Fähigkeiten von Ansätzen, die JSM-Argumentation, eine Klasse kognitiver plausibler Argumentation verwenden, und die Methoden der Booleschen Algebra werden betrachtet und verglichen.;-;-;-;https://link.springer.com/article/10.3103/S0147688210060031 e7a1625912c4b84624192c37230b25ab;de;;;1.3.;;;Analyse und Vorhersage von atmosphärischen Kanalinterferenzen im 100-km-Maßstab in TD-LTE-Netzen Atmosphärische Kanäle sind horizontale Schichten, die unter bestimmten Wetterbedingungen in der unteren Atmosphäre auftreten. Funksignale, die in atmosphärischen Kanälen geführt werden, neigen dazu, weniger Dämpfung zu erfahren und sich viel weiter auszubreiten, d. h. Hunderte von Kilometern. In einem groß angelegten TD-LTE-Netzwerk (Time Division Long Term Evolution) bewirken atmosphärische Kanäle, dass sich weit entfernte drahtlose Downlink-Signale über den vorgesehenen Schutzabstand hinaus ausbreiten und lokale Uplink-Signale stören, was zu einer großen Ausfallwahrscheinlichkeit führt. In diesem Papier analysieren wir die Eigenschaften der atmosphärischen ADI-Kanalinterferenz (Atmospheric Duct Interference) unter Verwendung realer netzwerkseitiger Big Data aus dem derzeit betriebenen TD-LTE-Netzwerk von China Mobile. Die Analyseergebnisse liefern die zeitveränderlichen und gerichteten Eigenschaften von ADI. Darüber hinaus haben wir eine auf SVM (Support Vector Machine) basierende räumliche Vorhersagemethode der ADI durch maschinelles Lernen über die Kombination von echten netzwerkseitigen Big Data und echten meteorologischen Daten vorgeschlagen. Darüber hinaus wird eine Implementierung des ADMM-Frameworks (Alternating Direction Methods of Multipliers) vorgeschlagen, um ein verteiltes SVM-Vorhersageschema zu implementieren, das den Datenaustausch zwischen verschiedenen Regionen/Städten reduziert, eine ähnliche Vorhersagegenauigkeit beibehält und somit für Betreiber praktischer ist.;-;-;-;https://link.springer.com/article/10.1007/s41650-017-0006-x 017c8769553312aba7e7216f86988411;de;;;1.3.;;;Von Gaußscher Krümmung abgeleitete Invarianten für Isometrie Oberflächenverformungen ohne Reißen oder Dehnen unter Beibehaltung der intrinsischen Eigenschaften werden als Isometrien bezeichnet. Dieses Papier präsentiert eine neue Definition von Gaußschen Krümmungsmomenten (GCMs) durch das Integral von;-;-;-;https://link.springer.com/article/10.1007/s11432-011-4453-y 9e354db6194795b8cd397937bcb8be3c;de;;;1.1.;;;Die menschliche Komponente der Systemvalidierung In den letzten zehn Jahren wurden viele Erfahrungen in Bezug auf Aspekte des menschlichen Faktors beim Betrieb komplexer Systeme wie fortschrittlicher militärischer und ziviler Flugzeuge gesammelt. Die rasante Entwicklung und Anwendung der Technologie löste zwei gegenläufige Trends aus. Der erste Trend bezieht sich auf die fortschreitende Automatisierung und das Problem der Unterlast oder Selbstgefälligkeit des Betreibers, während der zweite Trend mit den erhöhten Einsatzfähigkeiten von Systemen wie Militärflugzeugen und dem Problem der „Modierung“ und der Überlastung von Menschen mit Informationen verbunden ist. In beiden Fällen ist die menschliche Leistung entscheidend für das System, aber die Arbeitsbelastung muss als unzureichend für eine optimale Leistung, Sicherheit oder Ausdauer der beteiligten Piloten angesehen werden. Ein aktuelles und dringendes Problemfeld ist die Neugestaltung des Flugsicherungssystems, um den erwarteten Verkehrsanforderungen der Zukunft gerecht zu werden. Selbst bei dem gegenwärtigen Verkehr besteht Bedarf an einem verbesserten System, aber der vorhergesagte Bedarf wird auf das Doppelte des gegenwärtigen geschätzt. Allein die Unfallrate sollte halbiert werden, um den Status Quo der Gesamtzahl der im Luftverkehr verunglückten Personen zu erhalten. Sowohl Systemingenieure als auch Human Factors-Mitarbeiter stellen eine sehr große Herausforderung dar, da menschliches Versagen ein schwerwiegender Unfall- oder Pannenfaktor ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-02933-6_17 dc54871d8c1ab23942dc4e5d4ace65b0;de;;;1.1.;;;Gedächtnisbasierte kognitive Modellierung für robuste Objektextraktion und -verfolgung Inspiriert von der Art und Weise, wie Menschen die Umwelt wahrnehmen, schlagen wir in diesem Beitrag ein gedächtnisbasiertes kognitives Modell für die visuelle Informationsverarbeitung vor, das einige kognitive Funktionen des menschlichen Gehirns nachahmen kann, wie z. usw. Das vorgeschlagene Modell umfasst fünf Komponenten: Informationsgranulat, Gedächtnisräume, kognitives Verhalten, Regeln zur Manipulation von Informationen zwischen Gedächtnisräumen und Entscheidungsprozesse. Zur getrennten Speicherung der erfassten aktuellen, zeitlichen und permanenten Informationen sind drei Speicherplätze definiert, d. h. Ultrakurzzeitgedächtnis (USTMS), Kurzzeitgedächtnis (STMS) und Langzeitgedächtnis (LTMS). Das vorgeschlagene speicherbasierte Modell kann sich erinnern oder vergessen, was die Szene jemals war, was dem Modell hilft, sich schneller an die Variation der Szene anzupassen. Wir wenden das Modell an, um zwei heiße Themen in der Computer Vision zu adressieren: Hintergrundmodellierung und Objektverfolgung. Ein speicherbasiertes Gaussian Mixing Model (MGMM) zur Objektsegmentierung und ein speicherbasiertes Template-Update (MTU) Modell zur Objektverfolgung mit Partikelfilter (PF) werden jeweils ausgestellt. Experimentelle Ergebnisse zeigen, dass das vorgeschlagene Modell mit Szenen mit plötzlichen Hintergrund- und Vordergrundänderungen robuster umgehen kann, wenn bewegte Objekte unter komplexem Hintergrund segmentiert und verfolgt werden.;-;-;-;https://link.springer.com/article/10.1007/s10489-013-0437-5 1b0a9a82ddbed3615f3ee52976ce8db9;de;;;1.3.;;;Verfeinerung der schulischen Merkmale und Verbesserung der Bildungsqualität mit moderner Informationstechnologie – Erforschung und Praxis der Schaffung einer bekannten Marke unabhängiger Hochschulen Mit der rasanten Entwicklung der Hochschulbildung schritt die Massenhochschulbildung im Kontext des Mangels an Hochschulen weiter voran, daher entstanden unabhängige Hochschulen und entwickelten sich in China rasant. Angesichts einer solchen Situation ist es jedoch zu einer großen Herausforderung geworden, die eigenen Kernkompetenzen zu pflegen und eine eigene Marke im Entwicklungsprozess zu schaffen. In dieser Dissertation wurden Datensammlung und Fallanalyse genutzt, um die Innovation in der Lehre am Haojing College, den Aufbau von Fakultäten, das Managementmuster und die Campuskultur eingehend zu untersuchen und eine ausgeklügelte Strategie für den Aufbau unabhängiger Colleges zu entwickeln eine berühmte Marke.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23339-5_101 9389ca2c2cfe876e0283949735aec904;de;;;1.3.;;;Psychotherapie bei psychiatrischen Erkrankungen Die Psychotherapie hat sich in den letzten 100 oder mehr Jahren von einer theoretisch abgeleiteten Intervention mit wenig empirischer Unterstützung zu einem breiten Spektrum von Interventionen entwickelt, für das es eine ebenso breite Evidenz gibt. Dieses Kapitel gibt einen Überblick über die Psychotherapie bei psychiatrischen Erkrankungen. Das Ziel dieses Kapitels besteht darin, die Geschichte der Psychotherapieentwicklung zu überprüfen, die wichtigsten wirksamen Ansätze der Psychotherapie zu identifizieren und die gegenwärtig bei bestimmten Störungen verwendeten Interventionen zu beschreiben. Dieses Kapitel konzentriert sich auf evidenzbasierte Psychotherapien (mit nachgewiesenem Behandlungsnutzen in streng kontrollierten Forschungsstudien), da wir der Ansicht sind, dass Schulungen und Schulungen in der Behandlung die durch wissenschaftliche Daten gestützten Interventionen betonen sollten. Wir hoffen, den Lesern ein angemessenes Verständnis der aktuellen Literatur zu vermitteln, um wirksame Behandlungsempfehlungen abzugeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-59259-960-8_27 3577cef9f03bca228fe0f8e7467cf8d6;de;;;1.1.;;;Kognitive Kontrollprozesse bei Aufmerksamkeitsdefizit-/Hyperaktivitätsstörung Seit vielen Jahren arbeiten Forscher daran, die Ursachen der beeinträchtigten Leistungsfähigkeit von Kindern mit Aufmerksamkeitsdefizit-/Hyperaktivitätsstörung (ADHS) bei kognitiven, informationsverarbeitenden und neuropsychologischen Aufgaben besser zu verstehen. Diese Bemühungen haben in letzter Zeit zu einem Schwerpunkt auf der Identifizierung der „Kern“ oder „primären“ Dysfunktion geführt, die für die kognitiven Probleme von ADHS-Kindern verantwortlich ist. In diesem Kapitel versuche ich einen Überblick über die umfangreiche und oft verwirrende Literatur auf diesem Gebiet zu geben und betone dabei Erkenntnisse, die meiner Meinung nach in eine funktionierende Konzeptualisierung der kognitiven Defizite im Zusammenhang mit ADHS einfließen müssen. Ich weise auch auf konzeptionelle und statistische Probleme hin, von denen ich glaube, dass sie den Forschungsfortschritt zu ADHS behindern.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4881-2_5 21e6d494613846c702faf3732665c812;de;;;1.3.;;;Eine Studie zu Einflussfaktoren internationaler angewandter Talentförderung in der Hochschulbildung Im Zuge der globalen wirtschaftlichen Integration werden der internationale Austausch und die Zusammenarbeit im Hochschulbereich immer häufiger und vertieft. Die Internationalisierung der Hochschulbildung ist zu einem heißen Thema und einem neuen Trend bei der Reform und Entwicklung von Hochschuleinrichtungen in der Welt geworden. In diesem Beitrag werden anhand des Analytic Hierarchy Process, der qualitative und quantitative Analysen kombiniert, die Probleme, Einflussfaktoren und Gegenmaßnahmen in der Ausbildung von internationalisierten angewandten Talenten in der Hochschulbildung untersucht und die Bedeutung, Standards, Bewertungsmethoden und Bewertungsschritte von internationalisierten angewandten Talenten erläutert in der höheren Berufsbildung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3648-5_218 e9807817d0769473212eea579a0a37b5;de;;;1.1.;;;Computermodelle zur Aufmerksamkeitsanalyse Das Wiederaufleben des Interesses an den Kognitionswissenschaften seit den frühen 1970er Jahren wurde von einer dramatischen Beschleunigung der Entwicklung theoretischer Modelle begleitet. Kognitionswissenschaftler entwickeln Modelle, um die formalen Eigenschaften der von ihnen untersuchten Prozesse zu charakterisieren. Die Bemühungen, die Kognition zu modellieren, führten in letzter Zeit zu einem Fokus auf „neurale Netze“, computerbasierte Computersysteme, die die Eigenschaften tatsächlicher neuronaler Gehirnprozesse simulieren. Neuronale Netze werden mittels Computational Modeling entworfen, was ein direktes Ergebnis der Fortschritte in der mathematischen Psychologie und Informatik ist. Computermodelle werden in der Hoffnung erstellt, dass sie eine formale mathematische Grundlage für das Verständnis von kognitiven und Verhaltensprozessen liefern. Diese Modelle versuchen, die der Informationsverarbeitung zugrunde liegenden Parameter zu spezifizieren und sind daher für Forscher von Aufmerksamkeitsphänomenen von erheblichem Interesse. Obwohl diese Modelle manchmal kaum mehr zu leisten scheinen, als eine mathematische Beschreibung von Prozessen zu liefern, die typischerweise weniger formal charakterisiert sind, können sie nützlich sein, um die Beschränkungen und Parameter zu identifizieren, die Aufmerksamkeitsoperationen zugrunde liegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-7463-1_21 e26a1c3feb6d49459c67924706e7342d;de;;;1.1.;;;Bewertung der Informationsergonomie bei der Arbeit durch Protokollierung und Herzfrequenzvariabilität Die Aufrechterhaltung der Leistungsfähigkeit in einem allgegenwärtigen Arbeitsumfeld hängt zunehmend von der Qualität der physischen, kognitiven und organisatorischen Arbeitsergonomie ab. Da die digitale Arbeitsumgebung die Herrschaft der meisten Wissensarbeiter ist, besteht die Notwendigkeit, das Studium der Arbeitsergonomie weiterzuentwickeln, indem den besonderen Fragen der Informationsergonomie auch im Bereich HCI Aufmerksamkeit gewidmet wird. Das Papier stellt das Konzept der Informationsergonomie (IE) vor und operationalisiert es durch die Spezifizierung von Maßnahmen, die in einer Feldstudie zur Wissensarbeit verwendet werden. Die empirischen Daten wurden von 35 Teilnehmern erhoben. Das Material besteht aus Anwendungsprotokolldaten der PC-Nutzung und Herzvariabilitätsratendaten. Basierend auf den empirischen Erkenntnissen reflektiert die Studie auch theoretische Vorschläge für die Entwicklung der IE-Forschung. Die Studie trägt zur methodischen Weiterentwicklung der IE-Forschung bei, indem sie Werkzeuge ausarbeitet und die Messung von IE operationalisiert und validiert. Die Erkenntnisse haben auch praktische Implikationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-60492-3_41 64f0c3c3f695e089e7caad8618f95ff3;de;;;1.3.;;;Offene Bildungsressource zu verantwortungsvollem, ethischem, ästhetischem und funktionellem Lernen bei chirurgischen Verfahren, die das Management von Schnitten und Nähten erfordern Open Educational Resources (OER) ermöglichen die Verfügbarkeit aktueller und relevanter Informationen entsprechend den Kontexten und Disziplinen, in denen Lernen auf Basis von Vorwissen autonom stattfindet. Dieses Dokument beschreibt die ADDIE-Methode, die Analyse, das Design, die Entwicklung, die Anwendung und die Bewertung einer offenen Bildungsressource, die die Ausbildung in der Behandlung von Weichgewebeschnitten und -nähten bei Zahnmedizinstudenten im dritten Jahr ergänzen soll. Die OER besteht aus drei Modulen, die die Informationen sequentiell präsentieren, wobei das Wissen der Disziplin berücksichtigt wird: Know how to do, know how to be und know how to be. Während der Phasen der Erstellung der Ressource wurden Umfragen bei den Schülern durchgeführt, um ihnen Inhalte anzubieten, die es ihnen ermöglichen, entsprechend den verschiedenen Kontexten zu interagieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-62554-2_6 77f86521057ce4dcad78c937cd2676f2;de;;;1.3.;;;Ein disaggregiertes Box-Cox Logit-Mode-Choice-Modell des Intercity-Personenverkehrs in Deutschland In diesem Kapitel wollen wir die Verkehrsträgerwahl untersuchen, die wohl eines der wichtigsten Themen in der Verkehrsplanung ist: Die Verkehrsträgerwahl beeinflusst die allgemeine Effizienz, mit der man in städtischen und zwischenstädtischen Gebieten reisen kann, das Platzangebot Verkehrsfunktionen gewidmet sind und ob den Reisenden eine Reihe von Wahlmöglichkeiten zur Verfügung steht. Die Analyse der Verkehrsmittelwahl ist der dritte Schritt des klassischen vierstufigen Verkehrsplanungsprozesses, der nach der Fahrtgenerierung, die das Ausmaß der Fahrten erklärt, und der Fahrtverteilung, die die relative Häufigkeit der Fahrtlängen erklärt, folgt. Die Analyse der Verkehrsmittelwahl erfordert Informationen aus dem vierten Schritt des Prozesses: der Zuweisungsphase oder der Darstellung der Routenwahl innerhalb der Netze und die resultierenden Werte von Preisen und Service-Levels nach Ursprungs-Ziel-Paar. Die Analyse der Verkehrsmittelwahl ist jedoch tendenziell der entscheidende Schritt bei der Bewertung von Verkehrsszenarien, da die „Umleitungseffekte“ aus der Änderung des Netzdienstes typischerweise die Auswirkungen auf die Gesamtfahrleistung dominieren. Es ist oft von entscheidender Bedeutung bei der Analyse der Auswirkungen neuer Hauptinfrastrukturen, die die Moduseigenschaften ändern.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-13977-4_2 44cc1a77c7e7fb3e8de3326971def634;de;;;1.3.;;;Anwendung von Computer Intelligent Control Technology im Sportunterricht : In der heutigen Gesellschaft ist die Informationstechnologie in alle Aspekte des täglichen Lebens und der Arbeit der Menschen eingedrungen, im aktuellen Prozess des Sportunterrichts an den Hochschulen begannen immer mehr Schulen, computerintelligente Steuerungstechnologie zu verwenden bei der Analyse seiner spezifischen Anwendung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5959-4_27 3009fe2124eb2d3a13059fc7366b194a;de;;;1.1.;;;Auf dem Weg zu einer transaktionalen Konzeptualisierung der oppositionellen Trotzstörung: Implikationen für die Beurteilung und Behandlung Die Konzeptualisierung und Behandlung der oppositionellen trotzigen Störung (ODD) ist durch überraschende Homogenität gekennzeichnet. In diesem Papier werden Beweise präsentiert, die die Heterogenität innerhalb von ODD unterstreichen, einschließlich der Forschung, die (a) die Unterscheidung zwischen reaktiven und proaktiven Formen der Aggression, (b) die Bedeutung der affektiven Modulation und Selbstregulation und der damit verbundenen kognitiven Fähigkeiten in der Entwicklung demonstriert der Fähigkeit zur Compliance und (c) hohe Komorbidität zwischen ODD und anderen Störungen. Die unterschiedlichen Wege, die zu oppositionellem Verhalten führen, legen nahe, dass verschiedene Kinder mit ODD möglicherweise unterschiedliche Interventionsformen benötigen. Die Notwendigkeit einer transaktionalen Konzeptualisierung, eines umfassenden Verständnisses der Faktoren, die den Schwierigkeiten einzelner Kinder mit ODD zugrunde liegen, und der Abstimmung von Interventionsinhaltsstoffen auf die spezifischen Bedürfnisse verschiedener Kinder und Familien wird diskutiert.;-;-;-;https://link.springer.com/article/10.1023/A%3A1021850921476 40557725d08e80bdb557aeea36e5316d;de;;;1.3.;;;Eine Studie über den Stand und die Wirksamkeit der Aufklärung über psychische Gesundheit an einer Berufsschule in der Provinz Hainan auf der Grundlage der Informationstechnologie Es ist Pflicht und Grundvoraussetzung für Talente, geistig gesund zu sein. Berufsschüler sind in Bezug auf ihre psychische Gesundheit unreif. Konfrontiert mit Druck, nehmen psychische Probleme und Probleme zu und beeinträchtigen ihr Leben, Studium und Entwicklung. Der vorliegende Beitrag versucht, den Zustand der psychischen Gesundheit von Berufsschülern zu erheben und die Ursachen zu untersuchen, damit der Aktivität des Psychiatrischen Kurses mehr Aufmerksamkeit geschenkt wird und die Schlüsselfähigkeiten der Schüler im Lichte der verfahrenstechnischen Bewertungsmethode festgehalten werden. Dadurch werden Eigeninitiative und Selbstvertrauen der Schülerinnen und Schüler sowie Fähigkeiten und Handlungsabsichten erworben und somit die Wirksamkeit der Erziehung zur psychischen Gesundheit verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23345-6_86 e4ad82bcf77ae08f5bd06acbe6f4939c;de;;;1.1.;;;Integriertes Systemkonzept für energieeffiziente Smart Buildings und Cities Die Lebensqualität in den europäischen Städten zeigt, dass sich die Lebensqualität zwar in vielen Bereichen verbessert hat, sich jedoch in anderen Bereichen wie Umweltfragen und Energieeffizienz verschlechtert hat. An solchen Orten erleben Menschen, Unternehmen und Behörden spezifische Bedürfnisse und Anforderungen in Bereichen wie Energieeffizienz, Umwelt und Verkehrsdienstleistungen. Diese Domänen werden zunehmend durch webbasierte Anwendungen, serviceorientierte Architekturen, ubiquitäre Sensorinfrastruktur, fortschrittliche Informationsmanagementanwendungen wie Data Warehousing und Data Mining-Technologien ermöglicht und erleichtert, die verwertbare Informationen für eine intelligente und vorausschauende Steuerung für weiter optimierte intelligente Gebäude und Städte generieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07977-6_19 4c7553cae0eb7e6aaaf17f19d1a7589d;de;;;1.1.;;;Verzerrungen der visuellen Aufmerksamkeit bei Kindern und Jugendlichen mit klinischer Angst und gemischter Angst-Depression Neuere Forschungen haben gezeigt, dass ängstliche erwachsene und kindliche Patienten sowie ängstliche Erwachsene mit hohen Merkmalen die Aufmerksamkeit selektiv auf bedrohliche Reize lenken. Die vorliegende Studie erweitert diese Forschung und untersucht die Inhaltsspezifität der Effekte bei klinisch ängstlichen und gemischt ängstlich-depressiven Kindern und Jugendlichen. 24 allgemein ängstliche Patienten im Alter von 9 bis 18 Jahren, 19 gemischt ängstlich-depressive Patienten und 24 normale Kontrollpersonen waren in Bezug auf Alter, Geschlecht, verbalen IQ und Wortschatz vergleichbar. Die Teilnehmer führten eine Aufmerksamkeitsverteilungsaufgabe durch, bei der die Latenzdaten zur Sondierungserkennung verwendet wurden, um die Verteilung der visuellen Aufmerksamkeit für bedrohungsbezogenes und depressionsbezogenes Material zu bestimmen. Die Ergebnisse zeigten, dass klinisch ängstliche Kinder im Vergleich zu Kontrollen selektiv Verarbeitungsressourcen auf Bedrohungsreize verteilten. Allerdings zeigten gemischt ängstlich-depressive Kinder im Vergleich zu den Kontrollen keine Aufmerksamkeitsverzerrung gegenüber bedrohungs- oder depressionsbezogenen Stimuli. Vorläufige Daten zu Alters- und Geschlechtsunterschieden werden ebenfalls präsentiert. Die Ergebnisse dieser Studie werden im Lichte der bisherigen Forschung diskutiert.;-;-;-;https://link.springer.com/article/10.1023/A%3A1021952407074 4a61815ea2fef0f8f5e03c550eb79558;de;;;1.3.;;;Sprecheranpassungstechniken für die Spracherkennung mit einem sprecherunabhängigen Lauterkenner Wir präsentieren ein neues Verfahren, das die Leistung des Spracherkennungssystems mit dem sprecherunabhängigen (SI) phonetischen Erkenner verbessert. Die Leistung des Spracherkennungssystems mit dem SI-Phonetikerkenner ist aufgrund der Fehlanpassung zwischen den Trainingsäußerungen und einem Satz von SI-Modellen schlechter als die des sprecherabhängigen Systems. Ein neues Trainingsverfahren, das die phonetischen Vorlagen und Transformationsvektoren iterativ schätzt, wird vorgestellt, um die Fehlanpassung unter Verwendung von Sprecheranpassungstechniken zu reduzieren. Die stochastischen Anpassungsverfahren werden verwendet, um die Transformationsvektoren für die Sprecheranpassung zu schätzen. Der Versuch, der über eine tatsächliche Telefonleitung durchgeführt wurde, zeigt, dass im Vergleich zum herkömmlichen Verfahren eine Reduzierung der Fehlerraten um etwa 40% erreicht werden konnte.;-;-;-;https://link.springer.com/chapter/10.1007/11596448_13 73cab0da382d275f5d8cd4c9f650d93f;de;;;1.3.;;;Einflussfaktoren für den bilingualen Informatikunterricht Der bilinguale Informatikunterricht ist an verschiedenen Universitäten weit verbreitet. Als wichtiger Punkt der Bildungsreform sieht sich der zweisprachige Unterricht in der Praxis mit einigen Problemen konfrontiert, die gelöst werden müssen, um die Lehrwirkung zu verbessern. Nach den Erfahrungen des Autors mit der bilingualen Unterrichtspraxis in den letzten Jahren werden drei Faktoren, darunter Studierende, Lehrende und Kurse, detailliert analysiert, die das praktische Ergebnis des bilingualen Unterrichts stark beeinflussen. Einige Antworten werden gegeben, um diese Probleme zu lösen. Die Forschung in diesem Beitrag trägt dazu bei, den zweisprachigen Informatikunterricht wissenschaftlich zu popularisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23756-0_83 3575e3f090b789329e814b3c71ab1611;de;;;1.3.;;;Entwicklung eines Vorhersagemodells für effiziente Lernergebnisse im koreanischen Bildungswesen Die vorliegende Studie extrahierte aussagekräftige Daten aus den gesammelten Lernergebnisdaten inländischer Studenten unter Verwendung der Educational Data Mining-Analysetechnik und verarbeitete die Daten, um ein Vorhersagemodell für die Wahrscheinlichkeit von Hochschulzugangsberechtigungen zu entwerfen und Indikatoren abzuleiten, die von den Lernenden bei der Vorhersage der Hochschulaufnahmeprüfung verwendet werden können Ergebnisse. Das in der vorliegenden Arbeit vorgestellte Entwurfsmodell schlug eine Analysemodellierung vor, um die Trainingsdatentabellen der einzelnen Lernenden basierend auf der grundlegenden Politik des koreanischen Bildungswesens für die Aufnahmeprüfung semantisch zu klassifizieren, um Positionsmodelle zu erstellen, die für die Attribute der Vorhersage geeignet sind und die Routen für die Universitätsaufnahmeprüfung vorhersagen .;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9309-3_24 da5632ac35c284249eba18a138d111d5;de;;;1.3.;;;Design des Vorschul-Sportunterrichtssystems von Regionen mit Minderheitennationalität In diesem Beitrag wird die Entwicklungssituation der Sportunterrichtsaktivitäten für die Kinder in den Kindergärten der Stadt Kaili in der Provinz Guizhou von den Autoren als Forschungsgegenstand genommen, um ein umfassendes und objektives Verständnis der aktuellen Situation der Sportunterricht in den Kindergärten der Stadt Kaili in der Provinz Guizhou und gleichzeitig die Durchführung einer eingehenden Studie zu Theorien und Praktiken des Sportunterrichts für Kinder in den Minderheitenregionen der Provinz Guizhou. Dadurch kann dieses Papier in gewisser Weise einen Nachschlag für die sinnvollen Organisationen sowie die Entwicklung der sportlichen Aktivitäten der Kinder in den Kindergärten in der Zukunft bieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29084-8_68 ffbeb99f02a06876a4092a7b3b2c9e39;de;;;1.3.;;;Fallstudie: Erstellen eines dynamischen Bildbetrachters Wir haben in diesem Buch so viel behandelt – von den Kernelementen der ActionScript-Sprache über erweiterte Codierungsfunktionen wie Grafikerstellung und dynamisches Laden von Daten bis hin zur Verwendung von Komponenten und Klassenbibliotheken zur Funktionserweiterung. Jetzt ist es an der Zeit, all dieses Wissen in einer einzigen, praxisnahen Anwendung zusammenzuführen, die zeigt, was Sie mit Ihren neu erworbenen ActionScript-Kenntnissen leicht erreichen können. Dies wird dazu beitragen, die Konzepte zu festigen, die Sie in den letzten paar hundert Seiten aufgenommen haben (und Sie werden etwas ziemlich Cooles und Nützliches erstellen!).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-0196-0_12 952bb38411d7810036cfef80289b592f;de;;;1.1.;;;Verbesserte Speicherkapazität eines neuromorphen Reservoir-Computersystems basierend auf einem VCSEL mit doppelter optischer Rückkopplung In diesem Beitrag wird ein neuromorphes Reservoir-Computing-System (RC) mit erhöhter Speicherkapazität (MC) basierend auf einem oberflächenemittierenden Laser mit vertikaler Kavität (VCSEL) vorgeschlagen und numerisch untersucht. Das Ziel dieser Studie ist es, den MC des vorgeschlagenen Systems zu untersuchen. Zum Vergleich wird auch der MC des VCSEL-basierten RC-Systems mit Single Optical Feedback (SOF) berücksichtigt. Es hat sich herausgestellt, dass im Vergleich mit dem VCSEL-basierten RC-System mit SOF eine verbesserte MC für das VCSEL-basierte RC-System mit DOF erhalten werden kann. Außerdem werden die Auswirkungen der Rückkopplungsstärke, der eingespeisten Stärke, der Frequenzverstimmung sowie des Injektionsstroms auf den MC des VCSEL-basierten RC-Systems mit DOF berücksichtigt. Darüber hinaus wird auch der Einfluss von Rückkopplungsverzögerungen sorgfältig untersucht. Somit bietet ein solches vorgeschlagenes VCSEL-basiertes RC-System mit DOF eine Perspektive für die Weiterentwicklung des neuromorphen photonischen Systems basierend auf RC.;-;-;-;https://link.springer.com/article/10.1007/s11432-020-2862-7 99752a20ab07c8f5bc4165c700858f14;de;;;1.3.;;;Erweiterte Anzeige anatomischer Namen von Bronchialästen zur Unterstützung der Bronchoskopie In diesem Beitrag wird eine Methode zur automatisierten anatomischen Kennzeichnung von Bronchialästen (ALBB) zur erweiterten Darstellung des Ergebnisses für die Bronchoskopie vorgestellt. Ein Verfahren zur automatisierten ALBB spielt eine wichtige Rolle, um eine erweiterte Darstellung anatomischer Namen von Bronchialästen zu realisieren. Das ALBB-Problem kann als ein Problem angesehen werden, bei dem jeder Bronchialzweig in den Bronchialnamen eingeordnet wird, zu dem er gehört. Daher konstruiert das vorgeschlagene Verfahren Klassifikatoren, die anatomische Namen von Bronchialästen ausgeben, indem es den Ansatz des maschinellen Lernens verwendet. Die vorgeschlagene Methode besteht aus vier Schritten: (a) Extraktion von Bronchialbaumstrukturen aus 3D-CT-Datensätzen, (b) Konstruktion von Klassifikatoren unter Verwendung der Mehrklassen-AdaBoost-Technik, (c) automatisierte Klassifizierung von Bronchialästen unter Verwendung der konstruierten Klassifikatoren und (d) eine erweiterte Anzeige anatomischer Namen von Bronchialästen. Wir haben die vorgeschlagene Methode auf 71 Fälle von 3D-CT-Datensätzen angewendet. Wir haben die ALBB-Ergebnisse nach dem Leave-One-Out-Schema ausgewertet. Die experimentellen Ergebnisse zeigten, dass die vorgeschlagene Methode Bronchialästen von 90,1% bis hin zu Segmentlappenästen korrekte anatomische Namen zuordnen kann. Wir haben auch bestätigt, dass eine erweiterte Anzeige der ALBB-Ergebnisse sehr nützlich war, um die Bronchoskopie zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79982-5_41 d5e603befd79c63bac10eb1552288444;de;;;1.3.;;;Blended Learning und Analyse von Faktoren, die den Einsatz von IKT im Bildungswesen beeinflussen Die zunehmende Verfügbarkeit von Informations- und Kommunikationstechnologien (IKT) bietet Lehrern spannende Möglichkeiten, pädagogische Praktiken zu verändern. In vielen Teilen Südasiens, insbesondere in Indien, stammen die Schüler aus ländlichen Gebieten, wo die Lehrmittel begrenzt sind. Dies wird sich auf die Qualität des Verstehens der englischen Sprache im Hochschulbereich auswirken. Der Bedarf an Lehrkräften, IKT in ihre Lehr- und Lernprogramme zu integrieren, ist hoch und setzt die Lehrkräfte in einem ohnehin schon herausfordernden Beruf zusätzlich unter Druck. Die allgegenwärtige Natur der IKT im täglichen Leben hat dazu geführt, dass die Gesellschaft auf Systeme und Werkzeuge angewiesen ist, die die Art und Weise, wie Menschen denken und arbeiten, herausfordern. In diesem Papier wird eine detaillierte Analyse der Faktoren vorgestellt, die den Einsatz von IKT im Bildungswesen beeinflussen. Die Ergebnisse dieser Studie werden Lehrern, Akademikern und politischen Entscheidungsträgern helfen, eine Politik zur Verbesserung des Verständnisses der englischen Sprache und ihrer effektiven Vermittlung zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4851-2_33 dd22208fc1cf2c6dcdb14e097a2fbec8;de;;;1.3.;;;Ein eingebettetes neuartiges kompaktes Merkmalsprofilbild in einem Sprachsignal für ein Teledermoskopiesystem Die Teledermoskopie ist ein vielversprechender telemedizinischer Dienst zur Ferndiagnose und -behandlung von Hauterkrankungen anhand von Dermatoskopiebildern. Es erfordert qualitativ hochwertige Übertragungsdienste, eine effiziente Nutzung der Kanalbandbreite, effektiven Speicher und Sicherheit. Somit wird in dieser Arbeit ein verbessertes Teledermoskopiesystem entwickelt, das eine effiziente und sichere Übertragung der Dermatoskopiebilder gewährleistet. Es schlug ein neuartiges merkmalsbasiertes sicheres Diagnosesystem vor, das die automatisierte Klassifizierung von malignen Melanomen und gutartigen Nävus auf der Empfängerseite (d.;-;-;-;https://link.springer.com/article/10.1007/s13755-020-00113-9 9e60fe3d2ff23628261d275d630d4c5b;de;;;1.3.;;;Optimale Funktionen und Klassen zum Schätzen der Ausrichtung mobiler Roboter basierend auf der Support Vector Machine Damit ein mobiler Roboter seine ihm zugewiesenen Aufgaben erfüllen kann, benötigt er oft eine Darstellung seiner Umgebung, wie beispielsweise Kenntnisse über die Navigation in seiner Umgebung und ein Verfahren zur Bestimmung seiner Position in der Umgebung. Ein großes Problem bei Computer Vision und maschinellem Lernen besteht darin, eine gute Funktion zu erreichen, da sie die Leistung eines Bildverarbeitungssystems weitgehend bestimmen kann. Ein gutes Feature sollte informativ, invariant gegenüber Rauschen oder einem bestimmten Satz von Transformationen und schnell zu berechnen sein. Außerdem ist bei bestimmten Einstellungen eine spärliche Merkmalsantwort entweder über Bilder hinweg oder innerhalb eines einzelnen Bildes erwünscht. Unser Ziel dieses Papiers ist es, optimale Eigenschaften zu erhalten sowie die optimale Winkelklasse zu bestimmen, um einzelne oder vereinheitlichte Bilder der mobilen Roboterorientierung aus zwei Kameraorientierungen zu schätzen. Wir führen den Feature-Auswahlprozess ein, bevor wir Features basierend auf dem Support Vector Machine-Klassifikator klassifizieren. Wir erreichen eine bessere Genauigkeitsrate, indem wir nur die Feature-Anzahl von 30 Features auf nur 17 Features auf einheitlichen Bildern reduzieren. Darüber hinaus stellen wir auch fest, dass nur 5 Klassen von Roboterwinkeln ausreichen, um die Roboterorientierung richtig einzuschätzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23147-6_33 0704028fc1c528385ea1f00b15766874;de;;;1.3.;;;Der Einfluss der Computertechnologie in der modernen Designausbildung Basierend auf integrierbarer Ware beeinflusst CAI die Designausbildung im gesamten Lehr- und Lernprozess weit und tief. Es revolutionierte den traditionellen linearen und unidirektionalen Unterricht, es veränderte den kognitiven Lernstil der Schüler, es verbesserte die Ausbildung der Schüler zum kreativen Denken und die kreative Fähigkeit der Schüler, die in Bezug auf Design trainieren Gleichzeitig müssen wir das Risiko der Designausbildung, das sich aus der Anwendung der Computertechnologie ergibt, sorgfältig untersuchen und ein Gleichgewicht zwischen der Anwendung der Computertechnologie und den Zielen der Designausbildung finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29084-8_55 2b37797cd04bef5abd6281a2ce2401b1;de;;;1.3.;;;Strategien für die internetbasierte institutsübergreifende Beratung und Zusammenarbeit von Lehrkräften in der Grundbildung Diese Studie zielte darauf ab, die Methoden zur Verbesserung der Wettbewerbsfähigkeit von Lehrkräften durch webbasierte schulübergreifende Zusammenarbeit in der Grundbildung zu untersuchen. Wir haben einige spezielle Websites mit speziellen Funktionen zur Unterstützung der Zusammenarbeit entwickelt und dazugehörige Aktivitäten entworfen, getestet und modifiziert. Nach anderthalb Jahren Exploration schlossen wir die folgenden typischen Modelle für die Organisation verwandter Aktivitäten ab: gemeinsame Nutzung von Ressourcen, Peer-Bewertung von Fällen durch asynchrone Kommunikation, von Experten kommentierter Klassenraumbericht, themenbasierte asynchrone Studie und Diskussion, Kolumnendiskussion unter Leitung von Experten und herausragende Lehrer, synchrones Studieren und Diskutieren basierend auf Instant-Communication-Tools, asynchrone Kommunikation basierend auf pädagogischer Erzählforschung usw.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24010-2_66 1263f3c568977f72d6c1db5f0956f003;de;;;1.3.;;;Transnationales Kapital in berufliche Entwicklung umwandeln: eine Studie von Chinas Stipendiaten des Thousand Youth Talents Scheme In den letzten zehn Jahren oder so hat die chinesische Regierung strategisch chinesische Überflieger aus dem Ausland zurückgelockt, um Wissenschaft, Technologie und Hochschulbildung zu stärken. Eine der wichtigsten Initiativen ist das 2011 gestartete Thousand Youth Talents Scheme (TYTS). Bis 2017 wurden 2980 Stipendiaten des Thousand Youth Talents Scheme (TYTS) an Chinas Universitäten, Forschungsinstituten und Unternehmen eingestellt;-;-;-;https://link.springer.com/article/10.1007/s12564-018-9533-x 3a10be8637f56684923b7699a01c00fd;de;;;1.3.;;;Zur Verbesserung des Motivmechanismus zur Verbesserung der College-Enterprise Corporation für Berufsbildung Mit dem Ziel, derzeit eine Zusammenarbeit zwischen Berufsbildungskollegs und Unternehmen in unserem Land in das realistische Problem der Zusammenarbeit der flachen Schicht zu stellen, beginnt dieses Papier mit einer gründlichen Analyse der Faktoren, die Berufs- und Berufseinrichtungen motivieren, mit Unternehmen zusammenzuarbeiten, gefolgt von einem Schlussfolgerung, dass diese Zusammenarbeit nicht ausreichend motiviert ist. Dementsprechend schlagen die Autoren einen Mechanismus zur Gewährleistung der Regierung, einen Mechanismus der Win-Win-Kooperation, einen Mechanismus zur gegenseitigen Einbindung, einen Bewertungs- und Anreizmechanismus und einen Mechanismus zur kulturellen Durchdringung vor. Diese werden als berechtigte Motivationsmechanismen angeführt, um die Kooperation zwischen Hochschule und Unternehmen in der Berufsbildung voranzutreiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27503-6_71 262f4b441900e3c68aaf78aaef1ec368;de;;;1.1.;;;Die kognitive Revolution in der Psychologie Keine Geschichte der Psychologie und der Rolle des Bewusstseins in der Psychologie wäre vollständig ohne einen Überblick über die jüngste kognitive Revolution in der Psychologie (Gardner, 1985). Baars (1986) weist darauf hin, dass zwischen 1955 und 1965 eine stille Revolution in der wissenschaftlichen Psychologie stattgefunden hat, die zur kognitiven Revolution der 1970er und 1980er Jahre führte.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-0629-8_4 8e974b0fd6c202bc7546f379bd740b1f;de;;;1.1.;;;Von Experten lernen: Erweitertes Denken in frühen Phasen des Designprozesses fördern Im Kontext eines erweiterten Kognitionsmodells werden empirische Belege dafür präsentiert, wie Expertendesigner aus verschiedenen Domänen ihre internen Prozesse kognitiv mit externen Ressourcen verknüpfen. Der Artikel konzentriert sich kurz auf die Haupttrends in der erweiterten Designkognitionstheorie und insbesondere auf neuere Trends in der Informationsverarbeitung und der Verkörperungstheorie. Ziel des Beitrags ist es, über die Implikationen eines Verständnisses von Expertenwissen als erweitertes System, das Komplexität und Nichtlinearität in Design Thinking und Problemlösung berücksichtigen kann, für die Technologie- und Designausbildung zu reflektieren. Dies wird erreicht, indem die Relevanz der Kreuzkorrelationen und der Dynamiken an der Schnittstelle von kognitiven Phasen, absichtsgetriebener Entscheidungsfindung und Verkörperungsprinzipien von Experten für die Anfängerausbildung in Technik und Design aufgezeigt wird. Es wird argumentiert, dass einseitige Ansätze des 20. Jahrhunderts zur Gestaltung von Bildung den Bedürfnissen des 21. Es wird weiter argumentiert, dass ein kombinierter Ansatz aus Informationsverarbeitung und Verkörperung die Antwort sein könnte. Der Artikel stellt wesentliche Ergebnisse einer Fallstudie mit Think-Aloud-Protokollstudien in einem quasi-experimentellen Format vor, die als zentrales Instrument zur Gewinnung wissenschaftlicher Daten im kognitionswissenschaftlichen Paradigma eingesetzt wurde. Die Ergebnisse legten nahe, dass erweiterte Designumgebungen besonders gut für die Vermittlung von Design Thinking geeignet sein könnten. Basierend auf diesen Ergebnissen untersucht der Artikel schließlich, wie Pädagogen den kombinierten Ansatz nutzen können, um die Herstellung von Verbindungen zwischen der Innen- und Außenwelt in der Designausbildung voranzutreiben.;-;-;-;https://link.springer.com/article/10.1007/s10798-014-9295-7 bf0ea8db82d7e3384db528547521e916;de;;;1.1.;;;Probleme mit Feedback-Sets Vor nicht allzu langer Zeit schien in der Literatur ein Konsens darüber zu bestehen, dass Rückkopplungssatzprobleme, die aus dem Bereich des kombinatorischen Schaltungsentwurfs stammen, unter allen klassischen kombinatorischen Optimierungsproblemen aufgrund des Fehlens positiver Ergebnisse in effizienten exakten und Näherungsalgorithmen. Dieses Bild hat sich in den letzten Jahren völlig verändert. Bei der Entwicklung von Näherungsalgorithmen mit beweisbarer Leistung wurden dramatische Fortschritte erzielt, nacheinander wurden neue Grenzen gesetzt und man kann wohl sagen, dass Feedback-Set-Probleme zu den spannendsten Frontend-Problemen in der kombinatorischen Optimierung werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-3023-4_4 3471415f37a92894d68bf33a816c3aa4;de;;;1.1.;;;Bells Ungleichungen — Grundlagen und Quantenkommunikation Für einzelne Ereignisse macht die Quantenmechanik nur probabilistische Vorhersagen. Kann man in dieser Hinsicht über die Quantenmechanik hinausgehen? Diese Frage wird seit den Anfängen der Theorie diskutiert und erforscht. Als Hidden-Variable-Programme bezeichnet man den Versuch, eine tiefere, realistische physikalische Beschreibungsebene zu konstruieren, in der einzelne Systeme wie in der klassischen Physik bereits durch Messungen aufgedeckte Eigenschaften aufweisen. Demonstrationen, dass ein Programm mit versteckten Variablen notwendigerweise erfordert, dass die Ergebnisse bestimmter Experimente mit den Vorhersagen der Quantentheorie nicht übereinstimmen, werden als „No-Go-Theoreme“ bezeichnet. Das Bell-Theorem schließt lokale versteckte Variablentheorien aus. Das Kochen-Specker-Theorem schließt nicht-kontextuelle Hidden-Variable-Theorien aus. In lokalen Hidden-Variable-Theorien sind lichtschnellere Einflüsse verboten, daher sind die Ergebnisse einer gegebenen Messung (tatsächlich oder nur potentiell möglich) unabhängig von den Einstellungen anderer Messgeräte, die sich in räumlicher Trennung befinden. In nicht kontextuellen Theorien versteckter Variablen sind die vorgegebenen Ergebnisse einer (entarteten) Observablen unabhängig von anderen Observablen, die gemeinsam mit ihr gemessen werden.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-540-92910-9_42 2282772776fdf38d6ac81f6d8e603f74;de;;;1.1.;;;Konsumenten-Verhalten Das Konsumverhalten umfasst alle Aktivitäten von Käufern, Ex-Käufern und potenziellen Käufern von der Kaufberatung bis zur Nachkaufbewertung und vom fortgesetzten Konsum bis zur Einstellung. Sie reicht von der Bewusstwerdung eines Bedürfnisses über die Suche und Bewertung möglicher Befriedigungsmöglichkeiten und den Kaufvorgang selbst bis hin zur Bewertung des Kaufgegenstandes im Gebrauch, die sich unmittelbar auf die Wahrscheinlichkeit des Rückkaufs auswirkt (Alba et al., 1991). Die Mitte bis Ende der 1960er Jahre entstandenen Modelle des Konsumverhaltens, auf die sich die zentrale theoretische Perspektive der akademischen Konsumforschung seither fast ausschließlich stützte, lieferten eine unverwechselbare Mischung aus kognitiver und sozialer Psychologie. Wesentliche Bestandteile dieses Paradigmas sind die zielgerichtete Rezeption, Kodierung, Repräsentation und Verarbeitung von Informationen, aber ebenso entscheidend war die Art und Weise, in der dieses kognitive Verfahren mit dem Verhalten in der Abfolge von Glaubens-, Einstellungs- und Absichtsbildung verknüpft wurde. Der anfängliche Schwerpunkt lag auf der Verarbeitung mit hoher Beteiligung, aber durch sukzessive Ausarbeitungen haben sich mehrere der Modelle allmählich der Verarbeitung mit geringer Beteiligung angepasst (Engel et al., 1995, Howard, 1989), die die Erinnerungsfähigkeit beeinflussen kann, ohne dass eine vorherige Bewertung erforderlich ist ( Hawkins & Hoch, 1992).;-;-;-;https://link.springer.com/chapter/10.1057/9780230510029_2 aead156d1cf57712b73482b8d8ee5160;de;;;1.1.;;;Mentale Chronometrie. II. Individuelle Unterschiede Im vorherigen Kapitel wurden Probleme bei der Interpretation von RT-Daten untersucht, die angeblich als Indikator für die Geschwindigkeit der Entscheidungsfindung dienen sollen. Hervorgehoben wurden alternative Analysemethoden und die Möglichkeit der Einbeziehung neuerer Entwicklungen im physiologischen Bereich. In diesem Kapitel wird die Frage der Gruppenunterschiede in der RT untersucht. Wir greifen auf eine Stichprobe von Studien zurück, die angeblich Gruppenunterschiede in der „Geschwindigkeit der Informationsverarbeitung“ gefunden haben. Die Themenauswahl ist alles andere als vollständig. Sie spiegeln Bereiche von persönlichem Interesse wider. Eingeschlossen in diese Diskussion ist eine Überprüfung der RT in Bezug auf (a) Intelligenz, (b) Extraversion, (c) Hyperaktivität, (d) Hirntrauma und (e) Alterung. Wie sich zeigen wird, haben die meisten Forscher in diesen Bereichen zumindest einige „nichtkognitive“ Faktoren berücksichtigt, die die RT beeinflussen. Viele Autoren erkennen, dass ein Teil der Gesamtdauer der RT für die offenkundige motorische Reaktion aufgewendet wird. Um die für die motorische Reaktion benötigte Zeit zu kontrollieren, wird häufig eine Messung der Bewegungszeit (MT) in die Analyse der RT einbezogen. Beim üblichen Choice-RT-Experiment wird den Probanden gesagt, sie sollen auf einen von mehreren Reizen durch Drücken eines entsprechenden Knopfes oder Hebels reagieren. Ihr Finger wird oft auf einen „Home“-Knopf gelegt, von dem sie nach der Präsentation des Stimulus und nachdem ihre Entscheidungen getroffen wurden, zum entsprechenden „Signal“-Knopf wechseln. RT besteht somit aus der Zeit, die erforderlich ist, um zu entscheiden, welcher Stimulus präsentiert wurde – „Entscheidungszeit“ oder DT und der Zeit, die benötigt wird, um die entsprechende Schaltfläche auszuwählen und zu ihr zu wechseln – MT.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-4912-6_7 a2fbf14f2ffbc6e0daba4b42076c993c;de;;;1.1.;;;Die Transformation von Ideen: Der Ursprung und die Entwicklung der Theorie des unterbrochenen Gleichgewichts Wie erklären wir Veränderungen in einem weniger vorhersehbaren politischen Prozess, der durch abrupte politische Veränderungen und lange Stabilitätsperioden gekennzeichnet ist? Dieser episodische Veränderungsprozess ist das grundlegende Axiom der Punctuated Equilibrium Theory (PET). Dieses Argument wurde ursprünglich auf das Agenda-Setting angewendet, aber PET hat sich im Laufe der Jahre über seine Ursprünge hinaus entwickelt und umfasst zahlreiche Facetten des politischen Prozesses. Wissenschaftler, die sich mit Aufmerksamkeit und Framing beschäftigen – kritische Komponenten des Agenda-Settings, die eine individuelle Betrachtung wert sind – haben den PET-Rahmen verwendet, um zu verstehen, wie Politik definiert wird. Diese Kernkomponenten wurden weiter zerlegt, als Studien die vereinheitlichende Komponente der Informationsverarbeitung untersuchten. Die Anwendbarkeit der PET ist nicht nur auf ihre Verallgemeinerung zurückzuführen, sondern auch auf die Bemühungen der Wissenschaftler, die Bestandteile der PET-Analyse zu verstehen.;-;-;-;https://link.springer.com/chapter/10.1057/978-1-137-50494-4_6 8f3ff35f8d75c1f4320e6a6848190180;de;;;1.3.;;;Emotion und Dialog im MRE Virtual Humans Wir beschreiben die Emotions- und Dialogaspekte der virtuellen Agenten, die im MRE-Projekt am USC verwendet werden. Die Emotions- und Dialogmodelle wurden unabhängig voneinander gestartet, wobei jedoch jedes ein zentrales Aufgabenmodell entscheidend nutzt. In diesem Beitrag beschreiben wir das Aufgabenmodell, das Dialogmodell und das Emotionsmodell sowie die Interaktionen zwischen ihnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24842-2_12 3882115851deb5dd225c7bd8266fb0fc;de;;;1.3.;;;Eignungsbewertung ländlicher Siedlungen basierend auf der Zugänglichkeit von Produktion und Leben: Eine Fallstudie der Stadt Tingzu in der chinesischen Provinz Hubeibei Ländliche Siedlungen sind die Hauptträger der Landwirtschaft, des ländlichen Raums und der Landwirte, daher ist die Optimierung der Produktions- und Lebensräume ländlicher Siedlungen von großer Bedeutung für die ländliche Entwicklung. Ausgehend von einer effektiven Ressourcenallokation wurde in dieser Studie ein Eignungsbewertungssystem für ländliche Siedlungen, basierend auf der Erreichbarkeit von Produktion und Wohnen, als wissenschaftliche Grundlage für die Optimierung von Produktion und Wohnraum vorgeschlagen. Die Erreichbarkeit von Produktion und Wohnen wurde durch eine verbesserte zweistufige Methode der schwimmenden Einzugsgebiete gemessen, die Nähe und Verfügbarkeit basierend auf der Neigung der Landbewohner berücksichtigte. Das Eignungsbewertungssystem bestand aus einer traditionellen Eignungsbewertung und einer neu vorgeschlagenen Identifizierung von limitierenden Faktoren auf der Grundlage des Verlustbewertungsanteils der Eignung. Als Fallstudiengebiet wurde die Stadt Tingzu in der Provinz Hubei in China ausgewählt. Basierend auf den Ergebnissen des Eignungsbewertungssystems wurden entsprechende Vorschläge zur ländlichen Flurbereinigung, Industrieaufteilung sowie zur Gestaltung von Gesundheits- und Bildungseinrichtungen vorgeschlagen, um die Produktions- und Lebensräume ländlicher Siedlungen in Tingzu Town zu optimieren. Es zeigt sich, dass die Eignungsbewertung basierend auf der Zugänglichkeit von Produktion und Wohnen wissenschaftlicher und genauer ist als die traditionellen, die Produktion und Wohnkomfort deutlich überschätzen. Darüber hinaus kann uns die limitierende Faktoridentifikation dabei helfen, Vorschläge entsprechend den örtlichen Gegebenheiten zu unterbreiten und eine sehr gezielte Optimierung von Produktions- und Lebensraum ländlicher Siedlungen herbeizuführen.;-;-;-;https://link.springer.com/article/10.1007/s11769-015-0771-0 40be8f94839c3be957a0e749c1aa820e;de;;;1.3.;;;Gradinduziertes raues Set-Modell Durch den Klassifikationsfehler auf der Basis des Modells des induzierten Grobsatzes auf der Grundlage der Überdeckung, konstruieren Sie das Modell des Grobsatzmodells der induzierten Überdeckung, das mehrere relevante Eigenschaften diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11276-8_110 ebc263daa993261ac05a48365242e5be;de;;;1.1.;;;Diagnose des aktuellen Zustands dynamischer Objekte und Systeme mit komplexen Strukturen durch Fuzzy-Logik anhand von Simulationsmodellen Es wird eine Technik zum Aufbau von zwei- und dreistufigen Diagnosesystemen des aktuellen Zustands eines dynamischen Objekts mit einer komplexen parallel-seriellen Struktur basierend auf Fuzzy-Logik-Inferenz unter Verwendung zusätzlicher Merkmale in Form der Parameter des adaptiven dynamischen Modells beschrieben.;-;-;-;https://link.springer.com/article/10.3103/S0147688213060026 2aeabc2af03ccb675b3a2fa9bf74b108;de;;;1.1.;;;Dancing Chief im Gehirn oder Bewusstsein als Verstrickung Der freie Wille im absichtlichen Bewusstsein ist Skeptikern ausgesetzt, da festgestellt wurde, dass unterbewusste neuronale Aktivitäten, das sogenannte Bereitschaftspotential, der Absicht zu einer Handlung vorausgehen. Die Frage, ob der freie Wille eine authentische Illusion ist, wurde nicht nur in der Psychologie, sondern auch in der Physik und Philosophie diskutiert. Die meisten Wissenschaftler glauben jedoch, dass das intentionale Bewusstsein, das glaubt, einen eigenen freien Willen zu haben, durch das Bereitschaftspotential im Voraus bestimmt wird und dass freier Wille nicht mit Determinismus koexistieren kann. Wir weisen hier darauf hin, dass ein im Voraus zu bestimmendes Wissen nicht verifiziert werden kann, bis ein lokales Ereignis an einem lokalen Standort von einem anderen lokalen Standort ohne Störung des Ereignisses bekannt ist. Das ist die Annahme der Lokalität. Wir zeigen hier, dass Determinismus, freier Wille und Lokalität drei wesentliche Elemente des Bewusstseins sind und zeigen, dass sie ein Trilemma bilden. Die Tatsache, dass eines von drei Elementen aufgegeben werden muss, kann zu drei Arten von Bewusstsein führen. Das Fehlen eines freien Willens kann ein Bewusstsein vom Typ I darstellen, das mit Symptomen bei einer Autismus-Spektrum-Störung wie einer geschwächten Theorie des Geistes übereinstimmt. Das Fehlen von Determinismus kann ein Bewusstsein vom Typ II darstellen, das mit Symptomen bei Schizophrenie wie Gedankeneinfügung, Selbst-Andere-Integration übereinstimmt. Das Fehlen von Lokalität kann ein Bewusstsein vom Typ III darstellen, das mit typischen Menschen übereinstimmt. Die Verschränkung des intentionalen Bewusstseins mit der Unbewusstheit einschließlich des Bereitschaftspotentials finden wir nur im Typ III-Bewusstsein. Schließlich zeigen wir, dass ein Gefühl der Entscheidungsfreiheit und des freien Willens nicht hergestellt werden kann, bis das Bewusstsein als Verstrickung implementiert ist.;-;-;-;https://link.springer.com/article/10.1007/s10699-019-09585-9 559a4a3c1658c1d7c8ae0c6476e2d156;de;;;1.1.;;;Ein erweiterter grober Sets-Ansatz zur Analyse von CUDT Die Classical Rough Sets Theory (CRST) gilt als effektiver mathematischer Ansatz, um Regeln aus der Decision Table (DT) zu entdecken. Jeder Eintrag in DT muss einzigartig sein und einen bestimmten qualitativen Attributwert haben. Es gibt jedoch immer heterogene Einträge in DT aus komplexen Entscheidungsproblemen, dh Einträge mit einem kontinuierlichen quantitativen Attribut, unbekannte Einträge oder mehrwertige Einträge, und diese Arten von Einträgen treten oft in demselben DT auf. Die DT mit diesen Einträgen namens Continuous Uncertain Decision Table (CUDT) kann nicht direkt von CRST analysiert werden. Glücklicherweise haben wir durch die Modellierung dieser drei Arten von Einträgen in CUDT mit der Fuzzy-Sets-Theorie (FST) festgestellt, dass CUDT in eine spezielle DT namens Extended Decision Table (EDT) umgewandelt werden kann, in der jedem Eintrag ein Mitgliedschaftsgrad zugeordnet ist. Ein erweiterter CRST wird vorgeschlagen, um den CUDT in EDT zu transformieren und die unteren Näherungen und die Grenzen von Entscheidungskonzepten in EDT zu berechnen.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-23152-8_21 32ed57d5045ff5909ee62c90efde3e44;de;;;1.3.;;;Hören und spielen: auditiv-motorische Interaktion in einem Bard’s Tale-Videospiel Seriöse Videospiele stellen eine immersive Art des Lernens dar und bieten eine Interaktion zwischen Lernen und Spiel. Seriöse Spiele haben sich als motivierend erwiesen und trainieren den Spieler, sich bestimmte Fähigkeiten anzueignen. Designer sollten jedoch eine Balance zwischen pädagogischen Zielen und Spielmechanik finden. Jüngste Untersuchungen zeigen die Lernvorteile, die Spieler durch das Spielen von Musik-Videospielen erzielen, und wie diese Spiele die Spieler dabei unterstützen können, ihre musikalischen Fähigkeiten aufgrund der verkörperten Musikkognition zu verbessern. In der aktuellen Studie entwickeln wir ein Musik-Video-Spiel, um die Tonhöhenerkennung von Spielern zu verbessern. Wir verwenden das LM-GM-Modell, um das Design des Videospiels zu bewerten. Darüber hinaus wurde eine Pilot-Fallstudie durchgeführt, bei der die Teilnehmer das Videospiel durchführten und einen Fragebogen zur Spielerfahrung beantworteten. Daher haben wir die Spielererfahrung analysiert und vorläufige Ergebnisse zeigen eine Beziehung zwischen Lernen und Gameplay. Dennoch sind weitere Studien erforderlich, um die Lerneffekte abzuschätzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-93596-6_14 83170d9787c0c19dcc62b3c1b9fb4ccc;de;;;1.3.;;;Sind dehnungs- und kraftunabhängige Bewegungsparameter? Vorbereitungs- und bewegungsbezogene neuronale Aktivität im Affenkortex Bewegungsausmaß und Bewegungskraft können in der motorischen Leistung unabhängig gesteuert werden. Daher sollte es im Zentralnervensystem (ZNS) unabhängige Darstellungen von Ausdehnung und Kraft geben. Um diese Hypothese zu testen, wurden Mikroelektroden-Aufzeichnungen im sensomotorischen Kortex von Affen gemacht, die darauf trainiert waren, visuell signalisierte Handgelenkflexionsbewegungen in zwei Ausmaßen gegen zwei Reibungswiderstandsstufen auszuführen. Ein anfängliches Vorbereitungssignal (PS) lieferte vollständige, teilweise oder keine Informationen über Ausmaß und/oder Kraft der Bewegung, die als Reaktion auf ein zweites Antwortsignal (RS) ausgeführt werden musste. Die Aktivität von 511 Neuronen des primären motorischen Kortex (MI), des prämotorischen Kortex (PM), des postzentralen Kortex (PC) und des hinteren parietalen Kortex (PA) wurde bei zwei Affen aufgezeichnet. Sowohl die Reaktionszeit (RT) als auch die neuronalen Daten legen nahe, dass es unabhängige neuronale Mechanismen gibt, die für die Programmierung beider Parameter verantwortlich sind. Einerseits verkürzten Teilinformationen über einen der Bewegungsparameter die RT im Vergleich zum Zustand ohne vorherige Informationen. Auf der anderen Seite gab es unter anderem zwei diskrete Populationen von Neuronen, von denen die eine nur auf die Ausdehnung, die andere nur auf die Kraft bezogen war. Vorbereitende Aktivitätsänderungen in Bezug auf beide Bewegungsparameter waren hauptsächlich im frontalen Kortex, insbesondere im PM, lokalisiert. Nach Auftreten des RS nahm der Prozentsatz selektiver Aktivitätsänderungen zu und erstreckte sich tendenziell auf den parietalen Kortex. Insbesondere während der Bewegung sind bei PA kraftbedingte Aktivitätsänderungen aufgetreten. Darüber hinaus führten wir versuchsweise Korrelationsanalysen zwischen RT und vorbereitender neuronaler Aktivität für alle Bedingungen der Vorinformation durch. Der mittlere Korrelationskoeffizient war signifikant höher bei Informationen zum Bewegungsausmaß als bei Informationen zur Bewegungskraft und bei MI/PM signifikant höher als bei PC/PA.;-;-;-;https://link.springer.com/article/10.1007/BF00241412 c4dbef9a3ec7de8dd16a7b38bf4420b7;de;;;1.3.;;;Gestaltung ansprechender Lernerfahrungen in der Programmierung In diesem Papier beschreiben wir Arbeiten zur Untersuchung der Schaffung von ansprechenden Programmierlernerfahrungen. Hintergrundforschungen flossen in das Design von vier Feldstudien ein, um zu untersuchen, wie Programmieraufgaben zur Motivation der Lernenden gestaltet werden könnten. Unsere empirischen Ergebnisse aus diesen vier Feldstudien sind hier zusammengefasst, mit besonderem Fokus auf eine – Whack a Mole –, die die Verwendung einer physischen Schnittstelle mit der Verwendung einer bildschirmbasierten äquivalenten Schnittstelle verglich, um Erkenntnisse darüber zu erhalten, was für eine ansprechende Lernerfahrung. Emotionen, die von zwei Gruppen von teilnehmenden Bachelor-Studenten berichtet wurden, wurden analysiert, um die Verbindungen zwischen den Emotionen, die während des Programmierens erlebt wurden, und ihrer Herkunft zu identifizieren. Es wurden Beweise für die sehr positiven Emotionen gesammelt, die Lernende erlebten, die mit einer physischen Schnittstelle (Arduino) programmierten, im Vergleich zu einem ähnlichen Programm, das unter Verwendung einer bildschirmbasierten äquivalenten Schnittstelle entwickelt wurde. Eine Folgestudie lieferte weitere Belege für die Motivation der personalisierten Gestaltung der Programmierung greifbarer physischer Artefakte. Die Zusammenstellung aller Beweise führte zur Entwicklung einer Reihe von „Lerndimensionen“, die Pädagogen Einblicke geben können, um wichtige Designentscheidungen für die Schaffung ansprechender Programmierlernerfahrungen zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94640-5_12 21487498ae235de81faf7a929406ecb0;de;;;1.1.;;;Approximation mehrdimensionaler Abhängigkeiten nach strukturierten Stichproben Wir betrachten das Problem der mehrdimensionalen Approximation anhand von Stichproben mit faktoriellem Versuchsdesign (vollständig oder unvollständig). Universelle Näherungsverfahren berücksichtigen diese Besonderheit einer Stichprobe nicht. In der vorliegenden Arbeit wird ein strukturelles Approximationsverfahren entwickelt: Die Funktionsklasse und die Regularisierung werden in besonderer Weise gewählt und effiziente Methoden zum Finden einer optimalen Lösung in dieser Klasse vorgeschlagen.;-;-;-;https://link.springer.com/article/10.3103/S0147688215050032 410e5e7f21bb4110216e2dca68678002;de;;;1.3.;;;Eine Soft-Computing-Methode des wirtschaftlichen Beitragssatzes der Bildung: Ein Fall von China Der wirtschaftliche Beitragssatz der Bildung ist der Schlüsselfaktor der Bildungsökonomie. In diesem Beitrag wird eine Soft-Computing-Methode für den ökonomischen Beitragssatz der Bildung vorgeschlagen. Die Methode besteht aus vier Schritten: Der erste Schritt besteht darin, ein Fuzzy-Soft-Clustering auf ein Objektsystem basierend auf dem Niveau der Wissenschaftstechnologie durchzuführen und die optimale Anzahl von Clustern zu erhalten, die die Anzahl der Fuzzy-Regeln bestimmt. Der zweite Schritt besteht darin, dass die Fuzzy Neural Networks FNN1 vom Humankapital zum Wirtschaftswachstum konstruiert werden und wir den wirtschaftlichen Beitragssatz des Humankapitals erhalten;-;-;-;https://link.springer.com/chapter/10.1007/11760191_171 d8c59ba80a655f00dff2442ea211d4a8;de;;;1.3.;;;Prosodische Hinweise für morphologische Komplexität: Der Fall der niederländischen Pluralnomen Kürzlich wurde gezeigt, dass Hörer systematische Unterschiede in Vokallänge und Intonation verwenden, um Mehrdeutigkeiten zwischen einfachen Wörtern mit Onset-Match aufzulösen (Davis, Marslen-Wilson & Gaskell, 2002, Salverda, Dahan & McQueen, 2003). Die vorliegende Studie zeigt, dass Hörer auch prosodische Informationen im Sprachsignal nutzen, um die morphologische Verarbeitung zu optimieren. Die präzise akustische Umsetzung des Stammes liefert dem Hörer entscheidende Informationen über den morphologischen Kontext, in dem der Stamm auftritt, und dämpft die Konkurrenz zwischen gespeicherten Flexionsvarianten. Wir argumentieren, dass Hörer aufgrund der relativen Invarianz der Dauer des Einsetzens in der Lage sind, prosodische Informationen zu nutzen, obwohl das Sprachsignal innerhalb und zwischen den Sprechern sehr variabel ist. Dies liefert den Zuhörern eine Grundlinie, anhand derer die Dauerhinweise in einem Vokal und einer Coda bewertet werden können. Darüber hinaus liefern unsere Experimente Hinweise auf artikelspezifische prosodische Effekte.;-;-;-;https://link.springer.com/article/10.3758/BF03193061 10defe4dab2e1182134b128a8f104ee0;de;;;1.3.;;;Umgang mit Mundkrebs: die Auswirkungen von gesundheits- und krankheitsbezogenen Persönlichkeitsmerkmalen Orale Tumoren führen zu entscheidenden Einschränkungen der Lebensqualität und des Wohlbefindens. Der Umgang mit Krankheit ist ein multidimensionales Konstrukt, das von verschiedenen Faktoren beeinflusst wird, darunter soziale Struktur, soziale Unterstützung, Kontrollort und religiöse Erwägungen. Der Einfluss der Persönlichkeit auf die Krankheitsbewältigung ist jedoch kaum untersucht. In diesem Zusammenhang wurde nur ein Persönlichkeitsmodell entwickelt, das jedoch Persönlichkeit in sehr weiten Dimensionen definiert. Daher betrachtete diese Studie die Persönlichkeitsfaktoren im Zusammenhang mit Gesundheit und Krankheit und zielte darauf ab, potenzielle klinische Anwendungen bei Patienten mit Mundkrebs zu identifizieren.;-;-;-;https://link.springer.com/article/10.1007/s00520-014-2300-6 8ae038104e0978b5301cfc96b3c2d6ac;de;;;1.3.;;;Interzentrale Beziehungen des menschlichen EEG beim Musikhören Unterschiedliche Musikstile und -intensitäten erzeugen charakteristische Muster von Veränderungen in der Korrelation neokortikaler Biopotentiale. Bei klassischer Musik dreier Intensitäten und Rockmusik mittlerer und hoher Intensität wurde eine Asymmetrie im Kohärenzmuster (Coh) der kortikalen Aktivität der Hörer nachgewiesen: intrahemisphärisches Coh in der rechten Hemisphäre nahm zu, während eine Abnahme der EEG-Synchronisation vorherrschte die linke Hemisphäre. Ein Fokus der Coh-Integration, am stärksten für die γ-Frequenzen ausgeprägt, bildete sich beim Hören von sowohl klassischer als auch Rockmusik (außer Rockmusik geringer Intensität). Das Hören von Rockmusik geringer Intensität erhöhte die Wahrscheinlichkeit einer Abnahme der intra- und interhemisphärischen Coh in beiden Hemisphären, die in allen Frequenzbändern ausgeprägt war, erheblich. Das Hören von Rockmusik veränderte die interhemisphärische Coh in einem größeren Prozentsatz der Fälle als das Hören von klassischer Musik.;-;-;-;https://link.springer.com/article/10.1007/s10747-005-0065-5 238b3f3c4cdf98909d8d1cfb7666b1e6;de;;;1.3.;;;Datenvisualisierung für Humankapital- und Halal-Schulungen in der Halal-Industrie mit Tableau Desktop Datenvisualisierung beschreibt alle Bemühungen, den Menschen zu helfen, die Rohdaten zu verstehen, indem sie in eine interaktive Art der Datenpräsentation umgewandelt werden. In dieser Studie wendeten die Forscher das Datenvisualisierungskonzept an, um die Trends oder Muster des Humankapitals und der Halal-Ausbildung in der Halal-Branche zu identifizieren. Das in dieser Studie verwendete Visualisierungstool ist als Tableau bekannt und ist ein gutes Visualisierungstool mit einer Vielzahl interaktiver Grafiken. Der in dieser Studie verwendete Humankapitaldatensatz wurde vom Jobstreet-Portal gesammelt. Diese Studie hat das Wachstum des Humankapitals in der Halal-Industrie und die Beziehung zwischen Humankapital und Halal-Ausbildung in Malaysia analysiert. Die in dieser Studie gezeigte Diagrammanalyse wird es Menschen wie Halal-Trainingsanbietern und Arbeitssuchenden ermöglichen, eine weise Entscheidung zu treffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-6502-6_51 77b34040647161274b305e65409f54c8;de;;;1.3.;;;Sensorische und motorische Reaktionen von Trigeminus- und retikulären Neuronen während des Nahrungsaufnahmeverhaltens bei Ratten Aktivitäten von 53 Neuronen im Hirnstamm wurden mit chronisch implantierten feinen Drähten bei frei fressenden und trinkenden Ratten aufgezeichnet. Zwanzig Einheiten wurden aus dem trigeminalen mesencephalen Kern isoliert, 18 waren Spindelafferenzen und 2 parodontale Afferenzen. Die Spindeleinheiten wurden in 4 Typen eingeteilt: 5 Einheiten zeigten eine rhythmische Aktivität, die sich nur auf die Kieferöffnungsphase sowohl beim Lecken als auch beim Kauen bezieht, 8 Einheiten, die während der Kieferöffnungsphase während des Leckens abgegeben wurden, aber sowohl beim Öffnen als auch beim Schließen des Kiefers beim Essen, 2 Einheiten erhöhten die phasische Aktivität in der Kieferöffnungsphase während des Leckens, erhöhten sich jedoch tonisch unabhängig von den Kieferbewegungen während des Essens, und die verbleibenden 3 Einheiten reagierten nur in der Kieferschlussphase sowohl beim Lecken als auch beim Essverhalten. Es wurde angenommen, dass neun Einheiten aus dem motorischen Kern des Trigeminus isolierte Alpha-Motoneurone sind, 2 den M. temporalis innervieren, 3 den M. masseter, 2 den M. digastricus und die restlichen 2 vermutlich die M. pterygoideus. Diese Einheiten mit einer mittleren tonischen Spontanfrequenz von etwa 10 Impulsen/s zeigten phasenbezogene rhythmische Burst-Aktivitäten beim Lecken und Essen. Vier Einheiten wurden aus dem sensorischen Hauptkern des Trigeminus isoliert. Sechzehn Einheiten wurden aus der medullären Formatio reticularis und 1 aus der pontinen Formatio reticularis isoliert. Von diesen 16 Einheiten waren 3 aus dem parvozellulären Teil der medullären Formatio reticularis vermutlich prämotorische Interneurone und 3 Einheiten aus der „Intertrigeminusregion“, 2 Einheiten aus der „juxtatrigeminalen Region“ und 8 Einheiten aus der „supratrigeminalen Region“. auf mehrere Sinnesmodalitäten. Diese Ergebnisse zeigen, dass fast alle untersuchten Einheiten charakteristische rhythmische Aktivitäten im Zusammenhang mit der Position der Zunge oder des Unterkiefers während rhythmischer Kieferbewegungen zeigten.;-;-;-;https://link.springer.com/article/10.1007/BF00247896 c87be6bcb91f5a3d3dd0f167ae572b37;de;;;1.3.;;;Farbbild-Einkanalverschlüsselung basierend auf der Tricolor-Gitter-Theorie Es wird ein Verfahren zur Farbbild-Einkanalverschlüsselung vorgeschlagen. Das vorgeschlagene Verfahren verwendet Tricolor-Gitter, um ein Farbbild in ein Graustufenbild zu kodieren, dann wird das Graustufenbild durch doppelte Zufallsphasenverschlüsselung verschlüsselt, so dass ein Farbbild in einem einzigen Kanal verschlüsselt wird und seine Sicherheit gewährleistet ist. Computersimulationen und die Analyse der chromatischen Aberration werden gegeben, um die Möglichkeit der vorgeschlagenen Idee zu beweisen. Das optische System ist einfacher und in der Praxis leicht anzuwenden. Die Simulationsergebnisse zeigen, dass dieses Verfahren zur Verschlüsselung eines Farbbildes effizient und robust ist.;-;-;-;https://link.springer.com/article/10.1007/s11801-009-8198-4 eb17edf4adc3f1ed453d6dbabe5cbd50;de;;;1.3.;;;Die beschleunigte Leistungsmethode für die Kernel-Hauptkomponentenanalyse Angesichts des großen Datensatzes ist die Kernel-Hauptkomponentenanalyse (KPCA) aufgrund des Speicher- und Rechenproblems nicht durchführbar. Um diese Nachteile zu überwinden, wird ein Verfahren mit beschleunigter Leistung zum Berechnen von Kernel-Hauptkomponenten vorgeschlagen. Zuerst wird die beschleunigte Power-Iteration eingeführt, um den ersten Eigenwert und den entsprechenden Eigenvektor zu berechnen. Dann wird das Deflationsverfahren wiederholt angewendet, um andere Eigenvektoren höherer Ordnung zu erhalten. Die räumliche und zeitliche Komplexität des vorgeschlagenen Verfahrens wird stark reduziert. Experimentelle Ergebnisse bestätigen die Wirksamkeit des vorgeschlagenen Verfahrens.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23220-6_71 15c22f8b1a3a52a32d871d5a113933a8;de;;;1.3.;;;Physiologische und biomechanische Aspekte des Orientierungslaufs Orientierungslauf ist ein Ausdauerlauf, der sich von anderen Laufsportarten sowohl in seiner kognitiven Komponente als auch in der Art des Geländes unterscheidet. Die Anforderungen, dieses Terrain zu überwinden, manifestieren sich nicht in signifikanten Unterschieden zwischen Orientierungsläufern und Straßenläufern im Somatotyp, obwohl durchweg gezeigt wurde, dass Elite-Orientierungsläuferinnen einen höheren Grad an Adipositas (> 19 %) als Elite-Straßenläufer aufweisen. Eine hohe aerobe Leistung bei Orientierungsläufern (bis zu 63 bzw. 76 ml/kg/min bei Frauen und Männern) ist mit einer geringeren anaeroben Leistung verbunden. Während die Beinkraft im Vergleich zu anderen Sportspezialitäten im Allgemeinen nicht hoch ist, haben weibliche Orientierungsläuferinnen eine relativ gute Beinbeugekraft.;-;-;-;https://link.springer.com/article/10.2165/00007256-199724060-00005 72f890f405bf38af90f186a2403e6572;de;;;1.3.;;;Dynamik neuronaler Reaktionen im inferotemporalen Kortex im Zusammenhang mit dem Lernen von 3D-Objekterkennung Die Diskriminierung von Objekten bei gleichen Betrachtungswinkeln entwickelt in gewissem Maße eine blickinvariante Objekterkennung. Um den zugrundeliegenden neuronalen Mechanismus aufzudecken, haben wir die Aktivitäten der inferotemporalen Zellpopulationen untersucht, die auf Objektbilder mit unterschiedlichen Vorerfahrungen reagieren. Mit unterschiedlichen Objektsätzen wurden die Affen zuvor mit der Objektaufgabe trainiert, bei der eine blickinvariante Objekterkennung über ähnliche Objekte hinweg erforderlich war, und der Bildaufgabe, bei der nur die Unterscheidung bei gleichen Blickwinkeln erforderlich war. Auf der Ebene der Zellpopulation fanden wir, dass die Reaktionen auf die Bilder mit vorheriger Erfahrung mit der Bildaufgabe ähnlich denen auf die Bilder mit der vorherigen Erfahrung mit der Objektaufgabe waren. Der höchste Grad an Antwortähnlichkeit wurde 260 ms nach Beginn des Stimulus gefunden. Die Ergebnisse legen nahe, dass sich die ansichtsinvarianten neuronalen Repräsentationen durch die Erfahrung der Objektunterscheidung bei gleichen Blickwinkeln entwickelt haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-42051-1_25 9ba211804b9d19b35d40995fae0555ec;de;;;1.3.;;;Hitzeschockproteine ​​bei Immunreaktionen Der Review befasst sich mit Hitzeschockproteinen und deren Bedeutung bei Immunreaktionen. Es konzentriert sich auf Probleme physiologischer und pathologischer Wechselwirkungen in Ätiologie und Dauer von Autoimmunerkrankungen und Infektionsprozessen, insbesondere Pilzinfektionen. Neue Trends werden bei der Nutzung von Hitzeschockproteinen zur Herstellung spezifischer Schutzimpfstoffe beschrieben.;-;-;-;https://link.springer.com/article/10.1007/BF02816261 0b9ad1f018b232d3596f8dc938890f0b;de;;;1.1.;;;Die dynamische Renaissance der Neurowissenschaften Obwohl es in den Kognitionswissenschaften eine umfangreiche philosophische Literatur zur Theorie dynamischer Systeme gibt, gilt dies nicht für die Neurowissenschaften. Dieses Papier versucht, durch eine Reihe von sich überschneidenden Themen zu einer verstärkten Diskussion anzuregen. Das erste Ziel ist in erster Linie historisch und soll zeigen, dass die Theorie dynamischer Systeme derzeit eine Renaissance in den Neurowissenschaften erlebt. Obwohl dynamische Konzepte und Methoden in den modernen Neurowissenschaften immer beliebter werden, sollte der allgemeine Ansatz nicht als etwas völlig Neues für die Neurowissenschaften angesehen werden. Stattdessen ist es angemessener, die aktuellen Entwicklungen als zentrale Ansätze zu betrachten, die einige der wichtigsten frühen Errungenschaften der Neurowissenschaften ermöglicht haben, nämlich die Hodgkin-Huxley- und FitzHugh-Nagumo-Modelle. Das zweite Ziel ist in erster Linie kritisch und verteidigt eine Version der „dynamischen Hypothese“ in den Neurowissenschaften. Während sich die ursprüngliche Version auf die Verteidigung einer nicht-computergestützten und nicht-repräsentativen Darstellung der Kognition konzentrierte, ist die Version, die ich im Sinn habe, breiter angelegt und umfasst sowohl Kognition als auch die neuronalen Systeme, die sie realisieren. Vor diesem Hintergrund diskutiere ich die Forschung zur motorischen Kontrolle als paradigmatisches Beispiel dafür, dass die Konzepte und Methoden der Theorie dynamischer Systeme zunehmend und erfolgreich auf neuronale Systeme in den modernen Neurowissenschaften angewendet werden. Noch wichtiger ist, dass solche Anwendungen einen stärkeren metaphysischen Anspruch motivieren, das heißt, neuronale Systeme als;-;-;-;https://link.springer.com/article/10.1007/s11229-020-02874-y cc13f4259d536cf3a2b8f447e55acbb5;de;;;1.1.;;;Unterstützung des kontinuierlichen Informationsflusses durch Building Information Modeling (BIM) Das Fehlen von Mechanismen zur Verwaltung von Bauprojektinformationen mit traditionellen Dokumentationsmethoden führt zu Informationsverschwendung. Building Information Modeling (BIM) als eine der jüngsten Entwicklungen in der Architekten-, Ingenieur- und Baubranche (AEC) hat den Prozess der Informationsverwaltung zwischen Projektbeteiligten revolutioniert. BIM wird als effektive Plattform befürwortet, die alle wesentlichen Projektinformationen digitalisiert und aufnimmt, die extrahiert, vernetzt und zwischen Projektbeteiligten geteilt werden können, um eine effektive Entscheidungsfindung und Bauvorgänge zu fördern. Trotz der bedeutenden Rolle von BIM bei der Unterstützung von Lean Construction-Prinzipien gibt es wenig Hinweise darauf, wie BIM den kontinuierlichen Informationsfluss in Bauprojekten nutzt. Diese Studie zielt darauf ab, die Mechanismen zu finden, durch die BIM einen kontinuierlichen Informationsfluss ermöglicht. Eine Desktop-Studie zu Sekundärdaten wurde durchgeführt, um diese Mechanismen zu identifizieren. Die Ergebnisse der Sekundärdatenanalyse legen nahe, dass die Schlüsselaspekte von BIM bei der Speicherung und Übertragung von Projektinformationen wie effektiver Informationsaustausch, frühzeitige Einbeziehung der Projektbeteiligten, Informationsgenauigkeit und Echtzeitzugriff auf Projektinformationen den Informationsfluss in Bauprojekten verbessern können .;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1910-9_11 8252d7a31e0930ce10d6a91fac46efa8;de;;;1.1.;;;Genetische Variation und Differenzierung von Subtropische Böden sind generell durch Phosphor- (P), Calcium- (Ca) und Magnesiummangel (Mg) gekennzeichnet, extrem P-reiche Böden entwickeln sich auf Phosphatgesteinen. Wie solche kontrastierenden geologisch abgeleiteten Böden die genetische Vielfalt und Struktur lokaler Pflanzenpopulationen beeinflussen, ist nicht gut dokumentiert, was unser Verständnis der adaptiven Evolution von Pflanzen in subtropischen Gebieten behindert. In dieser Studie wendeten wir die Double Digest Restriktionsstellen-assoziierte DNA-Sequenzierung (ddRAD-seq) an, um die genetische Variation und Differenzierung von natürlichen;-;-;-;https://link.springer.com/article/10.1007/s00606-021-01764-1 6635ce20d4d9d64de652d6feb33f5114;de;;;1.1.;;;Faser-Memristoren In diesem Kapitel konzentrieren wir uns auf einen aufstrebenden Typ von Faser-Memristor. Zuerst werden die grundlegenden Aspekte des Memristors sorgfältig diskutiert, einschließlich seiner Entwicklungsgeschichte, Struktur, Arbeitsmechanismen und Materialien.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9945-3_11 017e3f7286248736a3b19976bb839479;de;;;1.1.;;;Eine neue Methode zur Modellierung der Hauptkurve Hauptkurvenverlauf durch die Mitte eines mehrdimensionalen Datensatzes, um die Verteilungsform der Punkte im Datensatz auszudrücken, modellieren wir dafür die Hauptkurve. Die neue Methode zur Modellierung der komplexen Hauptkurve, basierend auf einem B-Spline-Netzwerk, wird vorgeschlagen. Dieses Verfahren kombiniert den polygonalen Linienalgorithmus des Lernens der Hauptkurve mit einem B-Spline-Netzwerk. Auf einmal wird der Algorithmus präsentiert, der einen Gabelungspunkt der komplexen Hauptkurve findet. Unsere experimentellen Ergebnisse zu Simulationsdaten zeigen, dass dies machbar und effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-44641-7_23 1c927688f89b4319f651f5c91f956966;de;;;1.3.;;;Analyse der Wahrnehmungsempfindlichkeit gegenüber kopfbezogenen Impulsantworten in der Medianebene Diese Studie befasst sich mit der Wahrnehmungsempfindlichkeit gegenüber Head-Related Impulse Responses (HRIRs) in der Medianebene basierend auf einer Reihe von subjektiven Hörtests mit einem Kopfhörer. Zuerst wurden die nicht-individualisierten HRIRs aus 12 Hauptkomponenten (PCs) modelliert, die aus der Hauptkomponentenanalyse (PCA) der CIPIC HRTF-Datenbank extrahiert wurden. Der Just Noticeable Difference (JND) im Gewicht der PCs (PCWs) auf jeder Höhe wurde geschätzt. Es wurde keine gemeinsame höhenabhängige Tendenz oder PCW-abhängige Tendenz von JND bei PCWs bei den fünf Probanden, die an den Tests teilnahmen, beobachtet, und die interindividuelle Variation der JND bei PCWs war groß. Der JND in HRIRs kann indirekt aus dem JND in PCWs geschätzt werden, da die HRIRs durch eine lineare Summation der PCWs gewichtet dargestellt werden können. Die gemeinsame höhenabhängige Tendenz von JND in Directional Impulse Responses (DIRs), die die durchschnittlich subtrahierten HRIRs sind, kann bei allen fünf Probanden gefunden werden. Die Änderung der PCWs scheint nicht zu unserer Wahrnehmung der Schallquelleneigenschaften beizutragen, jedoch scheint die resultierende Änderung der HRIRs aufgrund der Änderung der PCWs einen Beitrag zu leisten. Die Probanden zeigten größere JND in DIRs im vorderen Bereich als im hinteren Bereich. Dies bedeutet, dass unsere Wahrnehmung der Eigenschaften von Schallquellen für frontale Quellen empfindlicher ist als für hintere Quellen.;-;-;-;https://link.springer.com/article/10.1007/s12206-009-0925-z 40e30d4045409dfd12dfc70f0873206b;de;;;1.3.;;;Block-TERM-Faktorisierung von Blockmatrizen Reversible Integer-Mapping (oder Integer-Transformation) ist ein nützlicher Weg, um eine verlustfreie Codierung zu realisieren, und diese Technik wurde für die Mehrkomponenten-Bildkomprimierung im neuen internationalen Bildkomprimierungsstandard JPEG 2000 verwendet transform kann durch Faktorisieren der Transformationsmatrix in 3 dreieckige elementare reversible Matrizen (TERMs) oder eine Reihe von einreihigen elementaren reversiblen Matrizen (SERMs) implementiert werden. Um ganzzahlige Transformationen zu beschleunigen und zu parallelisieren, untersuchen wir in diesem Artikel Block-TERM- und SERM-Faktorisierungen. Um eine flexible Skalierung zu gewährleisten, muss zunächst die klassische Determinante (;-;-;-;https://link.springer.com/article/10.1007/BF02901656 a98dd5bee1186003b40abeb0fb7511a7;de;;;1.3.;;;Weiterbildungsartikel Antikoagulanzien in der Anästhesie In diesem Artikel wurden einige der wichtigeren Aspekte der Antikoagulanzientherapie, die für den Anästhesisten relevant sind, untersucht. Wir hoffen, dass es einen rationalen Ansatz für die Behandlung von Patienten, die eine Antikoagulanzientherapie erhalten, und für die Behandlung einer akuten Antikoagulation ermöglicht.;-;-;-;https://link.springer.com/article/10.1007/BF03010526 b50c6b66a3859ed6e39df9a69d474664;de;;;1.1.;;;Schlaflosigkeit: Neurophysiologische und neuropsychologische Ansätze Schlaflosigkeit ist ein Symptom, ein Syndrom und eine Begleiterkrankung. Seine Diagnose beruht auf subjektiven Berichten des Betroffenen und ist definiert als Schwierigkeiten beim Einschlafen, Durchschlafen, zu frühes Aufwachen oder nicht erholsamer Schlaf. Schlaflosigkeit und insbesondere primäre Schlaflosigkeit haben jedoch in der Schlaflosigkeitsforschung unter Verwendung objektiver Maßnahmen viel Aufmerksamkeit erhalten. Schlaflosigkeit, ihre Besonderheiten, häufigsten Unterarten und zwei prominenteste Modelle werden zunächst kurz vorgestellt. Anschließend wird die Schlaflosigkeit anhand der Ergebnisse überprüft, die mit der Verwendung neurophysiologischer Maßnahmen so einfach/traditionell wie der Polysomnographie bis hin zu komplexeren wie der Leistungsspektralanalyse, Neuroimaging, zyklisch alternierenden Mustern und ereignisbezogenen Potenzialen erzielt wurden. Darüber hinaus wird eine Überprüfung der Diskrepanzen zwischen subjektiven und objektiven Berichten über kognitive Veränderungen durch neuropsychologische Tests angeboten. Abschließend wird auf die Notwendigkeit der Kombination von Maßnahmen hingewiesen.;-;-;-;https://link.springer.com/article/10.1007/s11065-011-9160-3 5143081aa5065501c5c08a90d3519d01;de;;;1.3.;;;Nährstoffanalyse von Schulmahlzeiten und anthropometrischen Messungen in einer privaten und öffentlichen Schule in Chennai, Indien Schulmahlzeiten wurden als Methode implementiert, um Kindern eine bessere Lernumgebung zu ermöglichen. Diese Programme vereinen die Bedeutung einer angemessenen Ernährung für akademische Leistung, Wachstum und Entwicklung. Diese Studie diente dazu, die Auswirkungen des School Lunch Program in Indien zu bewerten und Maßnahmen im Zusammenhang mit der angemessenen Ernährung und Wachstumsverzögerung bei Kindern im Schulalter in Chennai, Indien, zu beobachten. Ernährungs- und anthropometrische Daten wurden bei Schülern im Alter von 7 bis 10 Jahren in einem privat finanzierten (;-;-;-;https://link.springer.com/article/10.1007/s13755-020-0101-5 3d773228e9296e9b9dc1becac436af08;de;;;1.3.;;;Wahlverwaltung: Erfolge und anhaltende Herausforderungen Für die meisten ist die regelmäßige Abhaltung von freien und fairen Wahlen, an denen mehrere politische Parteien teilnehmen können, der Eckpfeiler der Demokratie. Die Organisation glaubwürdiger und transparenter Wahlen ist ein wichtiges Merkmal des demokratischen Prozesses, wird jedoch in Analysen zur demokratischen Konsolidierung oft übersehen. Da Wahlen eine der wichtigsten Formen der Interaktion der Bürger mit dem Staat und eine der grundlegendsten Legitimationsquellen für eine Regierung sind, ist es wichtig, dass sie von einer Organisation, die von den meisten gesehen wird, kompetent durchgeführt und verwaltet wird als politisch unparteiisch und immun gegen staatliche Einmischung. Wenn Wahlverwaltungen politisiert oder inkompetent sind, werden Wahlergebnisse häufig sowohl von Bürgern als auch von Parteien, die bei den Wahlen schlecht abgeschnitten haben, angefochten und bekämpft. Daher ist die Bewertung der Organisation, die Wahlen verwaltet, von entscheidender Bedeutung für die Bewertung des Fortschritts der demokratischen Institutionalisierung in Südafrika.;-;-;-;https://link.springer.com/chapter/10.1057/9781403978868_5 1a3cd8640d2234016be0d3cd1a90a9e6;de;;;1.3.;;;Verwendung eines Hidden-Markov-Modells zur Analyse des Niederschlagsmusters der Hochwassersaison und seiner zeitlichen Variation über Ostchina In diesem Beitrag wird das homogene Hidden-Markov-Modell (HMM), ein statistisches Mustererkennungsverfahren, vorgestellt. Basierend auf dem HMM wird eine 53-jährige Aufzeichnung des täglichen Niederschlags während der Flutsaison (April–September) an 389 Stationen in Ostchina von 1961–2013 in sechs Muster eingeteilt: das Südchinesische (SC) Muster, der südliche Jangtse (SY)-Muster, das Yangtze-Huai-Fluss-(YH)-Muster, das Nordchina-(NC)-Muster, das insgesamt nassere (OW)-Muster und das insgesamt trockenere (OD)-Muster. Merkmale der Übergangswahrscheinlichkeitsmatrix der ersten vier Muster zeigen, dass 1) das NC-Muster am beständigsten ist, gefolgt von YH und SY am wenigsten, und 2) es existiert ein SY–SC–SY–YH– NC-Ausbreitungsprozess für den Regengürtel über Ostchina während der Flutsaison. Die intrasaisonale Variabilität in der Auftrittshäufigkeit jedes Musters bestimmt seine Start- und Endzeit. Darüber hinaus hat die Analyse der interdekadischen Variabilität der Häufigkeit jedes Musters in den letzten sechs Jahrzehnten drei offensichtliche interdekadische Variationen für die SC-, YH- und NC-Muster Mitte bis Ende der 1970er, Anfang der 1990er und Ende der 1990er Jahre identifiziert. Nach 2000 spielen die in der südlichen Region konzentrierten Muster eine dominante Rolle, so dass in Ostchina eine Niederschlagsverteilung „im Süden und Dürre im Norden“ erhalten bleibt. Zusammenfassend bietet uns das HMM einen einzigartigen Ansatz, um sowohl die räumliche Verteilung als auch die zeitlichen Variationsmerkmale des Hochwasserniederschlags zu erhalten.;-;-;-;https://link.springer.com/article/10.1007/s13351-018-7107-9 08efe3e2b13f54abc02e2de1a6e7ef82;de;;;1.3.;;;Der Zustand der Preisgestaltung Als Professor an einer Ingenieurschule zu arbeiten, ist nicht die Erfahrung im Elfenbeinturm, die sich die meisten Menschen vorstellen. Es stimmt, Lehren kann sehr lohnend sein und niemand sagt einem, was man forschen soll. Im Gegensatz zu Professoren an juristischen Fakultäten oder geisteswissenschaftlichen Fakultäten müssen Ingenieurprofessoren jedoch Geld anwerben: Geld für die Ausrüstung, Geld für die Studiengebühren und Stipendien und Geld für eine geringere Lehrtätigkeit. Alles in allem ist es ein gesundes Arrangement, das Professoren motiviert, an relevanten Problemen zu arbeiten, da es einen starken Zusammenhang gibt zwischen dem, was die Leute forschen wollen und was sie zu zahlen bereit sind. Manchmal wirkt der Job jedoch eher wie eine Position im Vertrieb als in Lehre und Forschung.;-;-;-;https://link.springer.com/chapter/10.1057/9780230606906_10 301b4eddbadcce2a6daf6da99e1ad319;de;;;1.3.;;;Eine wirtschaftliche Analyse der Investitionen in die duale Ausbildung von Versicherungsvertretern Der Hauptzweck dieser Forschung ist es, die Auswirkungen der Marktnachfrageunsicherheit auf dem kooperativen Versicherungsmarkt zu untersuchen. Zu diesem Zweck bauen wir ein spieltheoretisches Modell auf, das Schulungsinvestitionen von Versicherungsvertretern in einem Versicherungsmarkt mit Nachfrageunsicherheit beinhaltet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31724-8_61 2928e102a25baf09dccc9c042ce1ee1f;de;;;1.1.;;;Messung von Negativitätsverzerrungen in persönlichen Erzählungen mit korpusbasierten Emotionswörterbüchern Diese Studie präsentiert eine neue Methodik zur Messung von Negativitätsverzerrungen unter Verwendung von positiven und negativen Wörterbüchern von Emotionswörtern, die auf autobiografische Erzählungen angewendet werden. Im Gegensatz zur kognitiven Theorie der Stimmungsdysregulation konnten frühere textanalytische Studien keine signifikante Korrelation zwischen Emotionswörterbüchern und negativer Affektivität oder Dysphorie finden. In der vorliegenden Studie wurde ein a-priori-Listen-Wörterbuch von Emotionswörtern basierend auf der tatsächlichen Verwendung dieser Wörter in persönlichen Erzählungen von fast 500 College-Studenten verfeinert. Die Hälfte des Korpus wurde verwendet, um mittels Konkordanzanalyse die grammatikalischen Strukturen zu konstruieren, die mit den Wörtern in ihrem emotionalen Sinn verbunden sind. Die zweite Korpushälfte diente als Validierungskorpus. Das resultierende Wörterbuch ignoriert Wörter, die nicht in ihrem beabsichtigten emotionalen Sinn verwendet werden, einschließlich negierter Emotionen, Homophone, eingefrorener Idiome usw. Die Korrelationen der resultierenden korpusbasierten Wörterbücher für negative und positive Emotionen mit Selbstberichtsmaßen negativer Affektivität gingen in die erwartete Richtung , und waren mit mittlerer Effektstärke statistisch signifikant. Der potenzielle Einsatz dieser Wörterbücher als implizites Maß für Negativitätsverzerrungen und bei der Analyse von Psychotherapie-Transkripten wird diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s10936-010-9158-7 451a9fde3bb3f4c56d6c67b192e0c690;de;;;1.1.;;;Gemeinsames Clustering und Feature-Auswahl Aufgrund des Fehlens von Klassenbezeichnungen ist die nicht überwachte Feature-Auswahl viel schwieriger als die überwachte Feature-Auswahl. Herkömmliche unüberwachte Feature-Auswahlalgorithmen wählen normalerweise Features aus, um die Struktur des Datasets beizubehalten. Inspiriert von den jüngsten Entwicklungen zum diskriminativen Clustering schlagen wir in diesem Beitrag einen neuartigen Ansatz zur unüberwachten Merkmalsauswahl über Joint Clustering and Feature Selection (JCFS) vor. Insbesondere integrieren wir den Fisher-Score in das Clustering-Framework. Wir wählen diese Merkmale so aus, dass das Fisher-Kriterium maximiert wird und die Mannigfaltigkeitsstruktur gleichzeitig am besten erhalten bleiben kann. Wir entdecken auch die Verbindung zwischen JCFS und anderen Clustering- und Merkmalsauswahlmethoden wie diskriminativem K-Means, JELSR und DCS. Experimentelle Ergebnisse an realen Datensätzen zeigten die Wirksamkeit des vorgeschlagenen Algorithmus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38562-9_25 1189d89de2486739f62b940112ba9627;de;;;1.1.;;;Indizes für Moving-Objects-Daten Die grundlegenden Merkmale von räumlich-zeitlichen Daten sind die massiven Daten und die komplexe räumlich-zeitliche Beziehung. Daher sind Indizes eine effektive Methode, um den Zugriff auf raum-zeitliche Daten zu implementieren. Moving-Object-Data-Management ist der Hauptstudiengang im Raum-Zeit-Management, der stark anwendungsorientiert und breit angelegt ist. Im ersten Teil dieses Kapitels werden die aktuellen Bewegtdatenindizes diskutiert, was darauf hinweist, dass die Indizes von Bewegtobjektdaten die Forschungsgrenze und den Hotspot in räumlich-zeitlichen Datenbanken darstellen. Der zweite Teil dieses Kapitels ist unsere ursprüngliche Arbeit, die hauptsächlich eine Indextechnik für bewegte Objektdaten basierend auf zeitlinearer Ordnung vorschlägt. Aktuelle Arbeiten beschäftigen sich in der Regel mit der Zeitdimension als einer gemeinsamen räumlichen Dimension, die im Wesentlichen ein „reiner“ höherdimensionaler räumlicher Index ist. Diese Schemata können die bestehende spezielle Indextechnik direkt nutzen, können aber die grundlegenden Unterschiede zwischen „Zeit“ und „Raum“ sowohl aus theoretischen Prinzipien als auch aus technischer Umsetzung nicht effektiv widerspiegeln. Somit gibt es möglicherweise größere Möglichkeiten zur Verbesserung der Abfrageeffizienz durch bestimmte neuartige Indexierungsschemata. Das Indexmodell in diesem Kapitel macht eine richtige Trennung zwischen Zeit und Raum, dh diskutiert zuerst die Zeit und dann den Raum und koppelt sie dann in geeigneter Weise. Darüber hinaus werden entsprechende Simulationen entworfen und implementiert, was darauf hindeutet, dass unsere Indexmethode eine höhere Effizienz als TB-Tree hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14959-7_9 3d8238e033db1ab09fbf19c3c8bb0a98;de;;;1.1.;;;Alterung sensomotorischer Prozesse: eine systematische Studie in Fitts’ Aufgabe Obwohl eine altersbedingte Abnahme der Informationsverarbeitungskapazitäten als Hauptursache für die Verhaltensverlangsamung angenommen wird, wurde sie bei zielgerichteten motorischen Aufgaben kaum systematisch untersucht. Die vorliegende Studie untersuchte, wie sich die Abnahme der Informationsverarbeitung auf die sensomotorischen Prozesse auswirkt, die der Steuerung eines diskreten;-;-;-;https://link.springer.com/article/10.1007/s00221-013-3542-0 f6f5fdba2d1c786a1e63b37a485a0bc0;de;;;1.3.;;;Modellierung und Analyse der Vorhersage der Netzwerksicherheitssituation basierend auf Covariance Likelihood Neural Die Sicherheitslage ist die Voraussetzung der Netzwerksicherheitswarnung. Aus Mangel an Selbstlernen der Situationsdatenverarbeitung in bestehenden komplexen Netzwerken wird eine Modellierung und Analyse der Netzwerksicherheits-Situationsvorhersage basierend auf der neuronalen Kovarianzwahrscheinlichkeit vorgestellt. Mit der Einführung der Fehlerkovarianz-Likelihood-Funktion und unter Berücksichtigung des Einflusses von Stichprobenrauschen wird das Netzwerksicherheits-Situationsvorhersagemodell unter Verwendung der Situationssequenzen als Eingabesequenzen und in der Rückwärtsausbreitung, um die Parameteranpassung zu erreichen. Die Ergebnisse zeigen, dass das Modell die Beziehungsmerkmale zwischen Komplexität und Effizienz in komplexen neuronalen Netzen nutzen kann und dass das Verfahren eine gute Leistung bei der Situationsvorhersage aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24553-4_11 b8c3e8990c73a244c3d6cd0f2a4b1ad6;de;;;1.1.;;;Ein systematischer Ansatz zur Definition von Rechten des geistigen Eigentums in Kooperationsprojekten Die Identifizierung des geistigen Eigentums (IP), das aus einem gemeinsamen Forschungs- und Entwicklungsprojekt resultiert, und die Bestimmung der richtigen Eigentumsverhältnisse bezüglich jedes Partners ist nicht nur eine Frage der Gerechtigkeit, sondern auch eine wichtige Voraussetzung für eine reibungslose Zusammenarbeit. In diesem Beitrag wird ein Beispiel für ein Verfahren zur Identifizierung und Charakterisierung der IPs vorgestellt, das aus einem Verbundprojekt zum Thema „Infrastrukturen für virtuelle Unternehmen“ hervorgegangen ist. Der Unterschied zwischen geistigem Eigentum und wirtschaftlichem Wert wird beschrieben, indem kurz die technologische Roadmap diskutiert wird, die Forschungsergebnisse in marktfähige Produkte umwandelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35399-9_45 02af0da58721336dd7d8e233c8759e3b;de;;;1.1.;;;Soziales Verhalten Die Sozialen Neurowissenschaften versuchen sowohl zu verstehen, wie das Gehirn kognitive Prozesse hervorruft, die für soziale Interaktion und Entscheidungsfindung erforderlich sind, als auch die neuronalen Mechanismen von Störungen der sozialen Kognition zu verstehen und Behandlungen für diese zu entwickeln. Obwohl es sich um ein relativ junges Gebiet handelt, das Anfang der 1990er Jahre aus der kognitiven und affektiven Neurowissenschaft hervorgegangen ist, hat die soziale Neurowissenschaft ihre Wurzeln in Ansätzen zum Gehirn und zur sozialen Funktion, die bis ins 19. Jahrhundert zurückreichen. Dieses Kapitel bietet eine kurze Geschichte dieser Ansätze und eine kurze Einführung in zwei Schlüsselmethoden der sozialen Neurowissenschaften, bevor wir uns acht kritischen Themen auf diesem Gebiet im einundzwanzigsten Jahrhundert zuwenden: Gesichtsverarbeitung, Emotionen und soziale Entscheidungen, Simulationsprozesse und Theorie des Geistes, des moralischen Handelns und der sozialen Dysfunktion bei Autismus.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-1-4614-1997-6_78 c61edda89cc1720e635c76a93874e5a5;de;;;1.1.;;;Theoretische Perspektiven aus Across Psychology In diesem Kapitel präsentieren wir die erste Hälfte unseres gründlichen interdisziplinären Überblicks über die unterschiedliche bisherige Literatur zum externen Gedächtnis und wie es mit dem internen Gedächtnis interagiert. Hier sammeln und überprüfen wir theoretische Perspektiven aus der gesamten Psychologie. Zu den spezifischen Theorien, die wir behandeln, gehören das transaktive Gedächtnis und Exogramme. Zu den Themen, die wir behandeln, gehören Metakognition (Metaspeicher), prospektives Gedächtnis, Arbeitsgedächtnis, menschliche Faktoren und kognitive Rehabilitation. Dabei fließen auch relevante Erkenntnisse aus unseren eigenen Daten ein, über die in den Kapiteln berichtet wird;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99169-6_5 cedda46f663c68bf9e9778151dc643b7;de;;;1.1.;;;Auf dem Weg zu einem Modell funktioneller Gehirnprozesse I: Funktionelle Mikroarchitektur des Zentralnervensystems Standardmodelle der semantischen Informationsverarbeitung – Information rein, Information verarbeitet, Information raus (in Form von Äußerungen oder Handlungen) – eignen sich für Standardmodelle der Funktionsweise des Gehirns, z. Das heißt, in Bezug auf hoch entwickelte Nachkommen der Modelle von McCulloch und Pitts (Bull Math Biophys 7:115–133,;-;-;-;https://link.springer.com/article/10.1007/s10516-015-9275-x 9d82f72e9954a9b34a3affb2a51d4c20;de;;;1.1.;;;Sozialverhalten: Soziale Neurowissenschaften und Sozialverhalten: Eine Einführung Die Sozialen Neurowissenschaften versuchen sowohl zu verstehen, wie das Gehirn kognitive Prozesse hervorruft, die für soziale Interaktion und Entscheidungsfindung erforderlich sind, als auch die neuronalen Mechanismen von Störungen der sozialen Kognition zu verstehen und Behandlungen für diese zu entwickeln. Obwohl es sich um ein relativ junges Gebiet handelt, das Anfang der 1990er Jahre aus der kognitiven und affektiven Neurowissenschaft hervorgegangen ist, hat die soziale Neurowissenschaft ihre Wurzeln in Ansätzen zum Gehirn und zur sozialen Funktion, die bis ins 19. Jahrhundert zurückreichen. Dieses Kapitel bietet eine kurze Geschichte dieser Ansätze und eine kurze Einführung in zwei Schlüsselmethoden der sozialen Neurowissenschaften, bevor wir uns acht kritischen Themen auf diesem Gebiet im einundzwanzigsten Jahrhundert zuwenden: Gesichtsverarbeitung, Emotionen und soziale Entscheidungen, Simulationsprozesse und Theorie des Geistes, des moralischen Handelns und der sozialen Dysfunktion bei Autismus.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-1-4939-3474-4_78 feb74a64bded89c485c387e807831c7f;de;;;1.3.;;;Pflege der Beziehung Dieser Artikel beschreibt die soziale Netzwerkintervention, eine innovative Form der sozialen Arbeit, die auf einem Handlungsprinzip basiert, das die Dynamik von primären und sekundären Netzwerken ausnutzt, insbesondere die Bewegung hin zu einer Person, die Autonomie fördert. Nach der Vertiefung der qualifizierenden Aspekte (Wertigkeit der Forderung, Förderung der gegenseitigen Anerkennung zwischen den Beteiligten, Begleitung des Klienten und seines Netzwerks) liefert der Autor einen technisch-anthropologischen Abriss des durch technische Einstellungen geprägten Sozialen Netzwerkpraktikers ( {it Fokussierung auf Netzwerkbeziehungen und Schwerpunktverlagerung von den Problemen, Direktive in der Form und Nicht-Direktive in den Inhalten}) sowie menschliche Einstellungen (Erkennung der Bestimmtheit der Beziehung, existenzielle Öffnung, unermüdliche Verfügbarkeit, Förderung des Positiven, Freiheit aus dem Ergebnis). Diese bilden für den Sozialarbeiter die wesentliche Voraussetzung, um sich um andere zu kümmern und ihnen Hoffnung zu geben.;-;-;-;https://link.springer.com/article/10.1007/s12682-009-0033-5 e75335016206300dda75f859128ea5c0;de;;;1.3.;;;Mikro-Mini-Satelliten für einen erschwinglichen Zugang zum Weltraum Die sich ändernde Weltpolitik und der militärische Schwerpunkt haben erheblichen Druck auf die Finanzbudgets der Weltraumbehörden und eine Verlagerung hin zu einer zunehmenden Kommerzialisierung von Weltraumaktivitäten gebracht. Der Haushaltsdruck, gepaart mit der raschen Weiterentwicklung der kommerziellen und Verbraucher-Mikroelektronik, hat den Einsatz kleinerer und rechenleistungsfähigerer Satelliten als „schnelleres, billigeres, besseres“ Mittel zur Realisierung von Weltraummissionen katalysiert – als Ergänzung zu herkömmlichen großen Satellitensystemen. Bezahlbare Kleinsatelliten erfordern jedoch einen ganz anderen Ansatz als etablierte Techniken der Raumfahrttechnik. Seit 1979 leistet die University of Surrey (UK) Pionierarbeit bei kostengünstigen Satellitentechnik-Techniken für Kleinsatelliten und hat eine Reihe hochentwickelter, aber kostengünstiger „Mikrosatelliten“ entwickelt – gebaut für jeweils rund 3 Millionen US-Dollar. Dreizehn solcher Mikrosatelliten wurden von Surrey in eine erdnahe Umlaufbahn geschossen, die eine breite Palette von Nutzlasten für Satellitenkommunikation, Weltraumforschung, Fernerkundung und In-Orbit-Technologie-Demonstrationsnutzlasten tragen – sowohl zivile als auch militärische. Sieben Mikrosatelliten-Missionen bildeten auch den Schwerpunkt und die Mittel für sehr erfolgreiche Satelliten-Know-how-Transfer und Trainingsprogramme zwischen Surrey und aufstrebenden Weltraumnationen wie Korea, Portugal, Pakistan, Südafrika, Chile, Singapur, Malaysia und Thailand und jetzt PR provided China – führt zum Start seiner ersten nationalen Satelliten (z. B. KITSAT-1, PoSAT-1, BADR-1, TMSAT & FASat-B) – bietet schnelle Reaktion, geringes Risiko und erschwinglichen Zugang zum Weltraum. Das Surrey Space Center bietet ein einzigartiges Umfeld: Es kombiniert akademische Forschung und postgraduale Lehre mit kommerzieller Entwicklung und Herstellung von Satelliten durch sein Spin-off-Unternehmen Surrey Satellite Technology Ltd (SSTL) und wird fast vollständig aus kommerziellen Verträgen finanziert. Im April 1999 startete Surrey einen neuen 315 kg schweren Minisatelliten (UoSAT-12), der bei SSTL mit hochauflösender EO, ​​fortschrittlicher digitaler Kommunikation und Technologie-Demonstrationsnutzlasten innerhalb derselben kostengünstigen Satellitentechnikphilosophie entwickelt und gebaut wurde. Surrey bereitet derzeit eine Kommunikationskonstellation mit sechs Satelliten (ESAT) und ein tägliches Katastrophenüberwachungsnetzwerk mit sieben Satelliten vor, die Surreys neueste, verbesserte 130 kg-Mikrosatelliten verwenden werden. Surrey hat auch seine erste kostengünstige interplanetare Mission zum Mond für den Start im Jahr 2001 begonnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-9395-3_22 7a8d406754015ee0c47a0e1ba7a1b1cf;de;;;1.3.;;;Schaffung eines sicheren Ortes für Wachstum in der Aufsicht Wenn Menschen Angst haben, wird das Lernen gehemmt. In zu vielen gestörten Familien, institutionellen Settings, starren Organisationen und manchen Supervisionsgruppen fehlt das Gefühl emotionaler Sicherheit. Der erste Schritt in der Lehre, Supervision oder Therapie ist die Notwendigkeit, eine sichere Umgebung zu schaffen. Der Autor schlägt ein Modell vor, das auf jede Supervisionsgruppe, Arbeitsgruppe, Organisation, Klassenzimmer oder Familie anwendbar ist. Ein Gruppenmodell, das speziell auf die Beziehung zwischen Familientherapiestudenten oder Praktikanten und Supervisoren angewendet wird, schlägt Wege vor, das Wachstum durch Minimierung der Angst zu fördern.;-;-;-;https://link.springer.com/article/10.1007/BF02197050 ff57e33f95dccba5f745b4af9e8550fd;de;;;1.1.;;;Modelle und experimentelle Ergebnisse zur Erkennung von Bedienerfehlern bei der Displayüberwachung Dieses Papier befasst sich mit der Fähigkeit des menschlichen Bedieners, visuelle Anzeigen zu überwachen. Wir werden das Versagen des Bedieners bei der Erkennung bestimmter Signale oder Änderungen der Anzeigeinformationen besprechen. Dies ist in der Tat ein begrenztes Thema, da der bloßen Erkennung eines Signals immer eine Bedieneraktion folgt. Wenn eine Bedienungsperson als perfekter Detektor agieren könnte, aber keine Korrekturmaßnahmen einleiten könnte, hätte diese ideale Erkennung keinen praktischen Nutzen. Es ist aber auch klar, dass die Detektion per se eine notwendige Voraussetzung für das Bedienen ist. Ein Bediener, der eine Abweichung von einem kontrollierten Prozess nicht erkennt, wird niemals in der Lage sein, effektiv zu steuern. Wir hoffen, dass eine Aufteilung des Lebens in Erkennung und spätere Stufen der Informationsverarbeitung die endgültige Entstehung eines detaillierten Modells der gesamten Wahrnehmung, Kognition und Aktion des Bedieners ermöglichen wird. Die hier diskutierte Forschung wird nur das „Front-End“ des vollständigeren Modells sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-9230-3_20 21960d3a5900cb18acdf74007746bf65;de;;;1.1.;;;Selbstregulierung: Das Streben nach Zielen Im vorigen Kapitel haben wir argumentiert, dass Persönlichkeit und psychologische Anpassung als individuelle Unterschiede in den Zielen interpretiert werden können, auf die Menschen hinarbeiten. Dieses Kapitel geht von der sozial-kognitiven Psychologie über das, was Menschen wollen, zur sozial-kognitiven Psychologie über, wie sie versuchen, das zu bekommen, was sie wollen. Es befasst sich mit Theorie und Forschung zum komplexen Thema der Selbstregulation: Wie wir unser eigenes Verhalten, unsere Wahrnehmung und unseren Affekt regulieren, um unsere Ziele zu verfolgen. Wie im letzten Kapitel besprochen, sind das Setzen von Zielen und das Erreichen dieser Ziele wesentliche Bestandteile eines zufriedenstellenden Lebens. Aber Ziele zu haben reicht nicht aus, die persönliche Zufriedenheit hängt auch davon ab, an Zielen zu arbeiten und einen gewissen Erfolg bei der Zielerreichung zu haben. Kapitel 7 befasste sich mit der Selbstregulierung in Bezug auf die Überwindung und das Verlernen der automatischen sozialen Urteile, die in Stereotypen und Vorurteilen vorkommen. In diesem Kapitel wird die Selbstregulation des gesamten menschlichen Kognitions- und Verhaltensspektrums diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5843-9_10 a524a5ea17dbe3646ed98baa801bf17b;de;;;1.3.;;;Doppelt selektive Fading-Kanalschätzung in MIMO OFDM-Systemen Hohe Datenübertragungsraten und hohe Mobilität führen zu Zeit- und Frequenzselektivität in drahtlosen Kommunikationskanälen. Dieses Papier untersuchte die zeit- und frequenzdoppelte selektive Kanalschätzung unter Verwendung von Pilottönen unter Multi-Input Multi-Output (MIMO) Orthogonal Frequency Division Multiplexing (OFDM). Zuerst wurde ein komplexes exponentielles Basisexpansionskanalmodell (BECM) eingeführt, um einen doppelt selektiven Kanal während einer OFDM-Symbolperiode darzustellen, dann wurde basierend auf BECM ein effektives MIMO-OFDM-Verfahren zur doppelt selektiven Kanalschätzung vorgestellt, schließlich wurde die Optimalität beim Designen Pilottonparameter wurden gemäß der Minimierung der Kanalschätzung MSE durchgeführt, hauptsächlich einschließlich der Anzahl, der Platzierung und der Struktur von Pilottönen. Simulationsergebnisse zeigen, dass das vorgeschlagene Schätzverfahren in doppelt selektiven Kanalszenarien eine gute Leistung aufweist und die theoretischen Analyseergebnisse bestätigen.;-;-;-;https://link.springer.com/article/10.1360/122004-184 50cbbda3218250a8574e728376ab3da2;de;;;1.3.;;;Verbesserte Kreuzvalidierung für Klassifikatoren, die algorithmische Entscheidungen treffen, um die Laufzeit zu minimieren, ohne die Korrektheit der Ausgabe zu beeinträchtigen Unser Thema ist der Einsatz von maschinellem Lernen, um Software zu verbessern, indem Entscheidungen getroffen werden, die die Korrektheit der Ausgabe nicht beeinträchtigen, aber die Zeit, die für die Erstellung einer solchen Ausgabe benötigt wird, beeinflussen. Wir beschäftigen uns insbesondere mit Computeralgebra-Systemen (CASs), und unsere Experimente dienen insbesondere der Auswahl der Variablenordnung, die bei der Durchführung einer zylindrischen algebraischen Zerlegung von . verwendet wird;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-43120-4_27 e9df8a032058699942f33cc20aba37f2;de;;;1.3.;;;Genaue numerische Berechnung des Heißverformungsverhaltens durch Integration der Finite-Elemente-Methode mit künstlichem neuronalem Netz Die genaue Charakterisierung des Fließverhaltens spielt eine entscheidende Rolle bei der Auslegung und Optimierung von Warmumformprozessen mit der Finite-Elemente-Methode (FEM). In dieser Studie wurden die Heißkompressionstests bei erhöhter Temperatur auf einer thermophysikalischen Testmaschine Gleeble 3500 durchgeführt, um die wahren Spannungs-Dehnungs-Daten der Superlegierung GH4169 zu erhalten. Anschließend wurde ein künstliches neuronales Netz (ANN) mit Backpropagation-Algorithmus verwendet, um die experimentellen wahren Spannungs-Dehnungs-Daten zu lernen und dann die konstitutiven Beziehungen außerhalb der experimentellen Bedingungen vorherzusagen. Es wurde gezeigt, dass das KNN das Fließverhalten der GH4169-Superlegierung präzise verfolgen und vorhersagen kann. Das optimal konstruierte und gut trainierte KNN-Modell wurde über eine benutzerdefinierte Material-Subroutine in Fortran-Sprache in eine allgemeine Finite-Elemente-(FE-)Softwareplattform geschrieben. Schließlich wurden die simulierten Heißkompressionstests mit dem im FE-Modell implantierten ANN-Modell durchgeführt. Die Vergleiche zwischen den experimentellen und simulierten Hub-Last-Kurven zeigten, dass die Integration von FEM mit KNN ein praktikabler Ansatz ist, um qualitativ hochwertige numerische Berechnungen für die verschiedenen Warmumformprozesse durchzuführen.;-;-;-;https://link.springer.com/article/10.1007/s12541-018-0047-6 c8dcff56716bf64d384f635c193e8ac2;de;;;1.3.;;;Wahrnehmung der emotionalen Intonation kurzer Pseudowörter Reaktionszeiten und Erkennungseffizienzen zur Identifizierung emotionaler Intonationen in kurzen, sinnlosen Wörtern, die sich durch ein einzelnes Phonem unterscheiden, wurden unter Bedingungen der Exposition gegenüber Störgeräuschen und ohne solche Störungen untersucht. Die Ergebnisse wurden mit Werten verglichen, die zuvor für sinnvolle Äußerungen erhalten wurden. Die Kohorte bestand aus 49 Zuhörern im Alter von 20 bis 79 Jahren. Die Wahrnehmung emotionaler Intonationen auf verschiedenen Ebenen der Sprachaktivität (phonologisch und lexikalisch-semantisch) weist sowohl Gemeinsamkeiten als auch Unterschiede auf. Je nach Alter und Geschlecht war die Wahrnehmung emotionaler Intonationen durch Hörer invariant in Bezug auf das sprachliche Niveau der Sprachreize. Bei bedeutungslosen Wörtern wurde die Wahrnehmung emotionaler Intonationen, insbesondere bei Lärm, stark von der phonemischen Zusammensetzung der Wörter beeinflusst. Das informativste akustische Merkmal, das die Wahrnehmung der emotionalen Prosodie in kurzen, bedeutungslosen Worten vor dem Hintergrund von Geräuschen und ohne Geräusch unterstützte, war die Variation der Frequenz des Grundtons.;-;-;-;https://link.springer.com/article/10.1007/s11055-013-9789-x 250a7d220e48efbd6989f49a31b3398d;de;;;1.3.;;;Supermannigfaltigkeiten, Supermannigfaltigkeits-Kohomologie und Supervektorbündel Wir zeigen, dass eine geeignete Wahl der Kategorie der Supermannigfaltigkeiten die Einführung einer wohlerzogenen Kategorie von Supervektorbündeln erlaubt. Insbesondere haben solche Supermannigfaltigkeiten ein Tangentenbündel mit einer Standardfaser, die an jedem Punkt mit dem Tangentialraum an diesem Punkt identifiziert werden kann. Wir diskutieren auch die kohomologische Klassifikation von Superlinienbündeln. Um die Arbeit so in sich geschlossen wie möglich zu machen, geben wir einen kurzen Überblick über die supermannigfaltige Kohomologie.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-7809-7_24 2f167e1a30b7a48519b582bd309b4ced;de;;;1.3.;;;Biochemische und klinische Anwendungen der Titrationskalorimetrie und der enthalpimetrischen Analyse In den letzten Jahren wurden mehrere analytische Methoden entwickelt, die auf der adiabatischen Reaktionskalorimetrie basieren. Maßgebliche Übersichten über thermometrische Enthalpietitrationen (einschließlich kinetischer Titrimetrie), Direkteinspritzungsenthalpimetrie und thermokinetische Analyse sind verfügbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-4509-2_18 055d7c833c6e948c58789a13c3427b36;de;;;1.3.;;;Verteilte Modellierung extraterrestrischer Sonnenstrahlung über das zerklüftete Gelände Pakistans In Pakistan wurde das solare Analogon angesprochen, aber seiner geographischen Parametrisierung an der Oberfläche wurde am wenigsten Beachtung geschenkt. Unangemessene Dichte von Stationen und ihre räumliche Abdeckung insbesondere in schwierigen peripheren nationalen Territorien, geringe oder keine Sonnenstrahlungsdaten, nicht zufriedenstellende Sonnenstundendaten und geringe Qualität der am Boden beobachteten Wolkenbedeckungsdaten führen zu einer Situation, in der die räumliche Modellierung der ) und deren Bodenparametrierung ausreichenden Umfang bekommen. Die Eingabe des digitalen Höhenmodells (DEM) in das geografische Informationssystem (GIS) ist ein kompatibles Werkzeug, um die räumliche Verteilung der ESR über das raue Gelände des Untersuchungsbereichs zu demonstrieren. Zum ersten Mal wird eine verteilte Modellierung der ESR über das zerklüftete Gelände Pakistans basierend auf DEM und ArcGIS durchgeführt. Die Ergebnisse zeigen deutlich, dass die komplexen Landformen die zonale Verteilung der ESR in Pakistan tiefgreifend stören. Der Screening-Einfluss der Topographie ist im Winter höher und im Sommer deutlich geringer auf die räumliche Verteilung der ESR. Der kombinierte Effekt von Topographie und Breitengrad ist offensichtlich. Daher wurde das Modell weiter bestätigt, indem Rb (Verhältnis der ESR-Menge über zerklüftetem Gelände zur ebenen Oberfläche) gegen den Azimut bei verschiedenen Breiten mit unterschiedlichen Neigungswinkeln aufgetragen wurde. Die Ergebnisse belegen eindeutig die starke Abschirmwirkung von zerklüftetem Gelände im ganzen Land, insbesondere im Himalaya, Karakorum und Hindukush (HKH), im westlichen Grenzgebirge und im Belutschistan-Plateau. Dieses Modell kann als grundlegende raumbezogene Informationen für wissenschaftliche Untersuchungen in Pakistan hilfreich sein, wo ein erheblicher Teil der nationalen Bevölkerung in Bergregionen lebt.;-;-;-;https://link.springer.com/article/10.1007/s11629-011-2004-z 35641c2a7bc9832f655c371beaa7e04d;de;;;1.1.;;;So verbessern Sie die Zufriedenheit mit dem Krankenhausaufenthalt von Schwerverletzten Im Rahmen der medizinischen Qualitätssicherung wird die Patientenzufriedenheit mit medizinischen und organisatorischen Aspekten der Gesundheitsversorgung als relevantes Ergebnis von Patientenbefragungen nach einem Krankenhausaufenthalt angesehen. In der Qualitätsforschung wird davon ausgegangen, dass die Beurteilung der Patientenzufriedenheit ein direktes Maß für die Qualität der Gesundheitsversorgung darstellt. Darüber hinaus gibt es Hinweise darauf, dass zufriedene Patienten eine höhere Compliance für den Behandlungsverlauf aufweisen und damit die Wahrscheinlichkeit eines erfolgreichen Behandlungsabschlusses deutlich steigt. Ziel der vorliegenden Analyse ist es, Determinanten der Zufriedenheit schwerverletzter Patienten im Hinblick auf ihre akute Krankenhauseinweisung zu identifizieren.;-;-;-;https://link.springer.com/article/10.1007/s00423-007-0186-1 17f6890ab7a1606087e18d2653279062;de;;;1.1.;;;Analyse von Kanal- und Plattensubsystemen in Computersystemen Die Informationsverarbeitungsindustrie hat sich von der herkömmlichen mathematischen Berechnung zum Informationsmanagement verlagert. Die interaktive Nutzung eines Systems mit großen Datenbanken ist mittlerweile weit verbreitet, und die Datenbank ist zu einem der zentralen Schlüsselfaktoren für ein Gesamtsystemdesign geworden. Dies wiederum hat die Entwicklung neuer Peripheriegeräte veranlasst.;-;-;-;https://link.springer.com/article/10.1007/BF01159084 31d4770dcfb46594492929d41715121f;de;;;1.1.;;;Psychologische und biologische Theorien zu traumatischen Belastungsstörungen bei Kindern und Jugendlichen Um traumatische Belastungsstörungen bei Kindern und Jugendlichen beurteilen und behandeln zu können, benötigen Kliniker einen theoretischen Orientierungsrahmen, um die Entstehung, den Verlauf und die beitragenden (Risiko- und Schutz-) Faktoren für diese Störungen zu konzeptualisieren. Das vorliegende Kapitel gibt daher einen Überblick über die führenden psychobiologischen Theorien zu traumatischen Belastungsstörungen im Kindesalter. Das Kapitel beginnt mit einer kurzen historischen Chronologie der vorherrschenden Theorien, gefolgt von einer Zusammenfassung der wissenschaftlichen Forschung, die die Theorieentwicklung im Bereich des traumatischen Stresses beeinflusst hat. Anschließend werden die wichtigsten aktuellen Theorien zu traumatischen Belastungsstörungen bei Kindern und Jugendlichen beschrieben, darunter Lern-/Konditionierungs-, kognitive/Informationsverarbeitungs-, interpersonelle/Ressourcen-, Entwicklungs- und Generationentheorien. Das Kapitel schließt mit einer Diskussion der Implikationen dieser Theorien für die klinische Bewertung und Behandlung von traumatischen Belastungsstörungen im Kindesalter.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-46138-0_5 e591f1a65b5fc6ecbb505ab26daa95f8;de;;;1.3.;;;Kongruente Zahlen, elliptische Kurven und der Übergang vom Lokalen zum Globalen Das alte ungelöste Problem der kongruenten Zahlen wurde auf eine der Hauptfragen der zeitgenössischen Arithmetik reduziert: die Endlichkeit der Anzahl von Kurven über Q, die an jeder Stelle zu einer gegebenen Kurve isomorph werden. Wir geben eine elementare Einführung in kongruente Zahlen und ihre mutmaßliche Charakterisierung, diskutieren lokale zu globale Fragen, die zum Endlichkeitsproblem führen, und listen einige Ergebnisse und Vermutungen der arithmetischen Theorie elliptischer Kurven auf.;-;-;-;https://link.springer.com/article/10.1007/s12045-009-0113-6 2c16862cc361c3d442251640cced0187;de;;;1.3.;;;Durch elektrostatische Wechselwirkungen induzierte lamellare Phasenkoexistenz Membranen, die hochgeladene Biomoleküle enthalten, können bei kleinen Abständen einen minimalen freien Energiezustand aufweisen, der auf die stark korrelierten elektrostatischen Wechselwirkungen, die durch Gegenionen vermittelt werden, zurückzuführen ist. Dieses Phänomen kann zu einer kondensierten, lamellaren Phase geladener Membranen führen, die im thermodynamischen Gleichgewicht mit einer sehr verdünnten Membranphase koexistiert. Obwohl die verdünnte Phase hauptsächlich aus Wasser besteht, erfordert die Entropie, dass diese Phase einige Membranen und Gegenionen enthalten muss. So kann allein durch Elektrostatik die Koexistenz einer kondensierten und einer ungebundenen lamellaren Phase entstehen. Wir verwenden numerische Simulationen, um die Natur dieser Koexistenz bei einer großen Ladungsdichte der Membran, bei multivalenten Gegenionen und bei einer für Biomoleküle charakteristischen Membranladung vorherzusagen. Wir untersuchen auch die Auswirkungen der Größe des Gegenions und des Salzes auf die beiden koexistierenden Phasen. Mit steigender Salzkonzentration sagen wir voraus, dass die elektrostatische Abschirmung durch Salz die Phasentrennung zerstören kann.;-;-;-;https://link.springer.com/article/10.1140/epje/i2010-10567-5 1c20e6db64fbfade51b9822d0aded882;de;;;1.3.;;;Zell-Zell-Erkennung während der Befruchtung bei der Rotalge Aglaothamnion oosumiense (Ceramiaceae, Rhodophyta) Die Bindung von Fluoresceinisothiocyanat (FITC)-konjugierten Lektinen an Gameten von Aglaothamnion oosumiense Itono während der Befruchtung wurde mit konfokaler Mikroskopie untersucht. Die physiologischen Wirkungen von Lektinen und Kohlenhydraten auf die Gametenbindung wurden ebenfalls untersucht. Vier verschiedene Lektine, Concanavalin A (ConA), Sojabohnen-Agglutinin (SBA), Dolichos biflorus-Agglutinin (DBA) und Weizenkeim-Agglutinin (WGA), banden an die Oberfläche von Spermatien, aber jedes Lektin markierte eine andere Region des Spermas. SBA und DBA banden nur an die Samenanhänge, aber ConA banden an die gesamte Samenoberfläche mit Ausnahme der Samenanhänge. WGA bezeichnete eine schmale Region, die den Samenkörper und die Anhängsel verbindet. Während der Befruchtung bewegten sich die ConA- und WGA-spezifischen Substanzen auf der Samenoberfläche in Richtung des Kontaktbereichs mit der Trichogyne und reicherten sich an der Oberfläche des Befruchtungskanals an. Spermatiale Bindung an Trichogyne wurde durch Vorinkubation von Sperma ua mit SBA oder ConA gehemmt, während Trichogynrezeptoren durch die komplementären Kohlenhydrate D-Glucose bzw. N-Acetylgalactosamin blockiert wurden. WGA und DBA sowie ihre komplementären Kohlenhydrate hatten einen geringen Einfluss auf die Gametenbindung. Die hemmende Wirkung von ConA und SBA wurde verstärkt, wenn die beiden Lektine gleichzeitig appliziert wurden. Die hemmende Wirkung beider Lektine wurde teilweise (bei 80–90% der Kontrollen) durch gleichzeitige Zugabe von komplementären Kohlenhydraten aufgehoben. Die Ergebnisse legen nahe, dass SBA- und ConA-Rezeptoren auf der Spermatiumoberfläche an der Gametenerkennung in Aglaothamnion oosumiense beteiligt sind.;-;-;-;https://link.springer.com/article/10.1023/A%3A1017021730931 9dee5353951a3836af45d335ae0aa874;de;;;1.3.;;;Zweikanalbasierte Rauschunterdrückung in einer komplexen Spektrumsebene für Freisprech-Kommunikationssystem Für ein Freisprech-Kommunikationssystem beschreibt dieses Dokument eine Rauschunterdrückungsmethode unter Verwendung eines Zweikanalmikrofons. Kürzlich wurde das Complex Spectrum Circle Centroid (CSCC)-Verfahren vorgeschlagen. Dieses Verfahren verwendet geometrische Informationen und schätzt das Spektrum des Zielsignals. Das Verfahren hat den Vorteil, dass vor seinem Betrieb keine Anpassung der Array-Verarbeitungsparameter an die Umgebung erforderlich ist und es bei instationärem Rauschen wirksam ist. Das ursprüngliche CSCC-Verfahren erfordert jedoch mindestens drei Mikrofone, um das Spektrum des Zielsignals (Kreismitte) abzuschätzen. In diesem Beitrag schlagen wir eine Methode vor, die das Spektrum des Zielsignals mit nur zwei Mikrofonen abschätzt. In experimentellen Ergebnissen erreicht das vorgeschlagene Verfahren die gleiche Leistung wie das ursprüngliche CSCC-Verfahren und kann das Zielsignal in einer simulierten verrauschten Umgebung fast vollständig wiederherstellen.;-;-;-;https://link.springer.com/article/10.1007/s11265-006-0032-7 25d10c3d9a9a23f98bd3bc3ea7950e6f;de;;;1.3.;;;Wer bestimmt die Auslagen des Gesundheitswesens in den Vereinigten Staaten? Faktor-Ranking und -Auswahl durch Ensemble-Learning Out-of-pocket-Kosten (OOP) im Gesundheitswesen bestehen aus den jährlichen Ausgaben, die von Einzelpersonen oder Familien bezahlt werden und nicht von der Versicherung erstattet werden. In den USA werden die zunehmenden Unterschiede im Gesundheitswesen durch den schnellen Anstieg der OOP-Kosten verursacht. Mit einer präzisen Prognose der OOP-Kosten können Regierungen die Gestaltung der Gesundheitspolitik verbessern, um die OOP-Kosten besser zu kontrollieren. Diese Studie entwirft ein rein datengesteuertes Ensemble-Lernverfahren, um eine Sammlung von Faktoren zu erreichen, die die OOP-Kosten am besten vorhersagen.;-;-;-;https://link.springer.com/article/10.1007/s13755-021-00153-9 0b9fa2c124f0bde1d3f614481e23a203;de;;;1.3.;;;Auswirkungen der Schlaferziehung mit Selbsthilfebehandlung bei Grundschulkindern mit nächtlicher Lebensweise und Reizbarkeit Das Ziel dieser Studie war es, die Auswirkungen von Schlaferziehung mit Selbsthilfebehandlung bei Grundschulkindern zu untersuchen. An dieser Studie nahmen einhundertachtundvierzig Kinder aus zwei Schulen der Präfektur Hiroshima teil. Die Schulen stellten eine Gruppe zur Schlaferziehung und eine zweite Gruppe als Kontrollgruppe zur Verfügung. Der Schlafkurs vermittelte Wissen über die Bedeutung von Schlaf und Schlafverbesserung und wurde in Form eines Quiz für 20 min für Kinder der Schlaferziehungsgruppe durchgeführt. Außerdem wählten die Kinder eine zur Verbesserung des Schlafes wirksame Methode aus und das ausgewählte Zielverhalten wurde von ihnen 2 Wochen lang überwacht. Nach dem Schlafkurs verbesserte sich die Gesamtzahl der richtigen Antworten auf schlafbezogene Items in der Schlaferziehungsgruppe von der Vorbehandlung bis nach dem Kurs und wurde nach 2 Wochen beibehalten. Nach der Behandlung zeigten die Teilnehmer der Schlaferziehungsgruppe signifikante Verbesserungen der Schlafenszeit und Schlafdauer. Viele schlafbezogene Verhaltensweisen, die mit der Schlafeffizienz verbunden sind, zeigten einen signifikanten Anstieg. Darüber hinaus verbesserten sich ihr schlechter Schlaf und ihre Reizbarkeit erheblich. Basierend auf der multiplen Regressionsanalyse wurden die Schlafenszeit und die Schlafdauer durch die Modifikation von drei schlafbezogenen Verhaltensweisen verbessert, darunter das Aufstehen jeden Morgen ungefähr zur festgelegten Zeit, das Unterlassen von Fernsehen oder Videos vor dem Schlafengehen und kein Nickerchen nach dem Heimkommen . Darüber hinaus ist eine Verbesserung der Schlafenszeit und Schlafdauer wirksam bei der Linderung der Reizbarkeit. Diese Ergebnisse legen nahe, dass Schlaferziehung mit Selbsthilfebehandlung bei der Verbesserung des nächtlichen Lebensstils, des schlechten Schlafs und der Reizbarkeit bei Grundschulkindern nützlich sein kann.;-;-;-;https://link.springer.com/article/10.1111/sbr.12055 85dbcd4d9c8de6e81c5e1a35abe3adeb;de;;;1.3.;;;Trends der Forschung im Physikunterricht in Korea Der Zweck dieser Studie ist es, die Trends der Physikdidaktikforschung in Korea in den letzten 10 Jahren zu untersuchen, um den gegenwärtigen Stand der Physikdidaktik zu diagnostizieren und Richtungen für die Forschung im Physikdidaktik vorzuschlagen. Zu diesem Zweck haben wir 10 Jahre lang von 2008 bis 2017 Inhaltsanalysen und Netzwerkanalysen für 341 in NPSM und JKASE veröffentlichte physikdidaktische Arbeiten durchgeführt Experimente und Unterrichtsstrategien zu entwickeln und Lehrpläne und Lehrbücher zu analysieren. Was die Forschungsfächer anbelangt, so waren die Forschungen an den Sekundarschülern am stärksten und die Studien über den universitären Physikunterricht relativ wenige. Insbesondere da das Studium der Hochschulphysik auf den Begriff der Mechanik und Elektromagnetik ausgerichtet war, reichte die Themenvielfalt im Vergleich zum Studium der Physikdidaktik der Sekundarstufe, in dem verschiedene Forschungen wie Untersuchung oder Unterrichtsstrategie betrieben wurden, nicht aus. Es war auch schwierig, politische Forschung zu finden, die die Richtung zur Verbesserung verschiedener Probleme des Physikunterrichts leiten kann. Basierend auf den Ergebnissen diskutierten wir die Implikationen für die zukünftige physikdidaktische Forschung.;-;-;-;https://link.springer.com/article/10.3938/jkps.72.1502 05aa1c8f52c87cc1035711d2c9838db5;de;;;1.1.;;;Neuropsychologisches Assessment In diesem Kapitel werden methodische Aspekte der neuropsychologischen Diagnostik diskutiert. Zunächst wird ein kurzer theoretischer neuropsychologischer Rahmen vorgestellt, der sich auf die Untersuchung von Gehirn-Verhaltens-Interaktionen bezieht. Wir werden uns auf den Einsatz von globalen Screening-Tests, spezifischen neuropsychologischen Tests, computergestützten Assessments und der Entwicklung einer Testbatterie konzentrieren, die für den Einsatz bei jungen und älteren Diabetespatienten optimiert ist. Die wichtigen kognitiven Domänen werden in Bezug auf ihre Bewertung vorgestellt: Intelligenz, exekutive Funktion, Lernen und Gedächtnis, Aufmerksamkeit und Arbeitsgedächtnis, Wahrnehmung, Sprache und Informationsverarbeitungsgeschwindigkeit. Das Kapitel befasst sich mit psychometrischen Aspekten wie Validität und Reliabilität sowie Sensitivität, die für die Interpretation von Testergebnissen wichtig sind. Andere psychologische Konstrukte, die potenzielle Confounder für die kognitive Leistungsfähigkeit bei Diabetespatienten sind, werden diskutiert, wie Coping, Persönlichkeit, Motivation und Stimmung. Schließlich wird in diesem Kapitel die klinische Signifikanz statistisch signifikanter Unterschiede zwischen Fällen und Kontrollen diskutiert, sowohl im Hinblick auf die klinische Entscheidungsfindung bei einzelnen Patienten als auch auf Gruppenebene.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-60327-850-8_4 17a95224fbe3fe7a4c3707f9dc855f85;de;;;1.3.;;;Realisierung eines intelligenten Frog Call Identification Agent In dieser Arbeit wird ein intelligenter Frosch-Anruf-Identifikationsagent entwickelt, um der Öffentlichkeit eine einfache Online-Konsultation zu ermöglichen. Die rohen Froschrufabtastungen werden zuerst durch Rauschentfernung, Hochfrequenzkompensation und diskrete Wavelet-Transformationstechniken gefiltert. Es wird ein adaptiver Endpunkterkennungs-Segmentierungsalgorithmus vorgeschlagen, um die einzelnen Silben effektiv vom Rauschen zu trennen. Vier Merkmale werden extrahiert und dienen als Eingabeparameter des Klassifikators. Drei bekannte Klassifikatoren, die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78582-8_10 0d4d1293d5e8f62aac265204dac45f74;de;;;1.3.;;;Fuzzy-Hauptkomponentenanalyse und ihr Kernel-basiertes Modell Die Hauptkomponentenanalyse (PCA) ist eine der wichtigsten Methoden zur Merkmalsextraktion, und die Kernel-Hauptkomponentenanalyse (KPCA) ist eine nichtlineare Erweiterung der PCA basierend auf Kernelmethoden. In der realen Welt sind alle Eingabedaten möglicherweise nicht vollständig einer Klasse zugeordnet und können teilweise zu anderen Klassen gehören. Basierend auf der Theorie der Fuzzy-Sets stellt dieses Papier die Fuzzy-Hauptkomponentenanalyse (FPCA) und ihr nichtlineares Erweiterungsmodell vor.;-;-;-;https://link.springer.com/article/10.1007/s11767-006-0039-z 9af6dc3f47af1fd475dd564666957ee0;de;;;1.1.;;;Umweltstress und kognitive Leistung Einige allgemeine Merkmale der Forschung zu den Auswirkungen von Stress auf die kognitive Leistungsfähigkeit sind bemerkenswert. Im Bereich Stress und Kognition gibt es wenig theoretische Entwicklung. Wir haben noch keine Theorie von Stress und Kognition, die die Umstände, unter denen Stress die menschliche Aufgabenleistung beeinflusst, angemessen erklären oder vorhersagen kann. Ein Grund für dieses Manko ist, dass Aufgabenvariablen von Forschern, die die Auswirkungen von Stress auf die Kognition untersuchen, nicht ausreichend berücksichtigt wurden. Ob ein bestimmter Stressor die menschliche Aufgabenleistung beeinflusst, wird stark von den Eigenschaften des physischen Stressors, von der individuellen Motivation und Erwartung sowie von Aufgabenparametern wie Belastungsanforderungen oder Komplexität beeinflusst.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-9380-2_5 6a41e7f3a69003791e9bb090598271e8;de;;;1.1.;;;Nichthierarchische Aspekte der internen Organisation des Unternehmens: Eine Teilerhebung in vergleichender Perspektive Es hat sich herausgestellt, dass eine der grundlegenden Ursachen für das Scheitern sozialistischer Ökonomien die Unvereinbarkeit zentralisierter nationaler Planung mit effizienten Systemen des Informationstransfers und der Anreize war. Aber werden die Probleme der ehemaligen Zentralplanwirtschaften gelöst, wenn die monolithische, einspitzige Hierarchie des nationalen Planungsapparats durch multiple Management- und Kontrollhierarchien ersetzt wird, die auf dem Produktmarkt konkurrieren und deren Eintritt und Austritt kontrolliert werden? vom Kapitalmarkt? Wenden wir uns der Marktwirtschaft zu, so finden wir eine Vielzahl von Formen der internen Struktur und Governance von Unternehmen sowie Unterschiede in Grad und Methoden der Kontrolle durch den Kapitalmarkt. Warum gibt es eine solche Vielfalt und welche Auswirkungen hat sie auf die Effizienz? Werden sich Unternehmen unterschiedlicher nationaler, kultureller und historischer Herkunft schließlich dem idealen Ökonomenmodell einer Hierarchie annähern, die Spezialisierungs-, Umfangs- und Größenvorteile unter der Disziplin perfekt wettbewerbsfähiger Märkte ausnutzt?;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-25168-1_11 4b15774dda099e691f20be1a0da244cb;de;;;1.3.;;;Interkulturelle Trainingsprogramme und Effektivität der Anpassung von Expatriates Der Zweck der hier berichteten Studie bestand darin, interkulturelle Trainingsprogramme und die Wirksamkeit der Anpassung von Expatriates zu untersuchen, die eine effektive interkulturelle Interaktion erhöhen. Effektives interkulturelles Training erhöht das Wissen der Auszubildenden, ermutigt sie, die persönlichen und organisatorischen Vorteile von kultureller Vielfalt und interkultureller Kompetenz zu erkennen und erhöht ihre Fähigkeiten und Fähigkeiten, mit kultureller Vielfalt umzugehen. Interkulturelles Training ist eine wirksame Strategie zur Erreichung der Leistungsziele der Organisation und der multikulturellen politischen Ziele. Die Beseitigung der festgestellten Grenzen der gegenwärtigen Praxis in der CCT wird ihren Beitrag zur Entwicklung und Verbesserung der organisatorischen und individuellen kulturellen Kompetenz erhöhen. Darüber hinaus könnte die Entwicklung interkultureller Trainingsprogramme für das Unternehmen und seine Mitarbeiter einen Mehrwert schaffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35606-3_48 ac53ebe9c97fc929810fa093720d5a5c;de;;;1.3.;;;Der Aufbau eines umfassenden Finanzbewertungssystems in höheren Berufsschulen basierend auf der Konnotationskonstruktion Die Konnotation Konstruktion ist für die Entwicklung von höheren Berufsschulen unverzichtbar. Auf der Grundlage praktischer Erfahrungen stellt dieser Beitrag die Gesamtfinanzkraft, die Lehrqualitätsleistung, die Qualifikationsleistung und das Entwicklungspotential der höheren Berufsschulen vor. Auf diese Weise wird das umfassende finanzielle Bewertungssystem konstruiert, das den Konnotationsaufbau der Höheren Berufskollegs verkörpert.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_140 12a145988cfa6ead3a0d3fb318a50b57;de;;;1.3.;;;Bestrafung durch das Sorgerecht Dieses Kapitel befasst sich mit drei Hauptarten von Haftanstalten: Gefängnis, Haftanstalten für Kinder und Jugendliche und, in einem kurzen Nachtrag, Krankenhaushaft für Menschen mit psychischen Problemen. Diese sind kein umfassender Überblick über die große Bandbreite von Freiheitsentziehungen, aber sie ermöglichen die Untersuchung typischer Verwendungen von Strafe als Sorgerecht. Bei ihrer Untersuchung stößt dieses Kapitel auf eine auffallende Mehrdeutigkeit, die im Zentrum der Spannungen zwischen ihren behaupteten therapeutischen Zwecken und Funktionen und ihren tatsächlichen strafenden Zwecken liegt, die bei allen drei Arten der Obsorge im Mittelpunkt stehen. Selten ist die Dichotomie jedoch so scharf definiert, was die Klärung, Beschreibung und Deutung der Bedeutung von Strafformen erheblich erschwert. Das Kapitel berührt auch die erwünschte Natur von Freiheitsentziehungsregelungen im Gegensatz zu ihren unbeabsichtigten Folgen im Hinblick auf eine Zunahme des Verhaltens von Straftaten statt einer Verringerung oder eine signifikante Selbstmordrate Asylsuchenden und versuchten Einwanderern schließlich eine Reihe von nicht strafrechtlichen Einrichtungen, in denen Kinder, ältere Menschen, Menschen mit psychischen Problemen und Menschen mit Lernschwierigkeiten behandelt werden. Es sei darauf hingewiesen, dass die Diskussion über körperliche Züchtigung in Kapitel 6 viel Relevanz in Bezug auf Internate, insbesondere öffentliche Schulen, enthält.;-;-;-;https://link.springer.com/chapter/10.1057/9780230389281_6 7d47f91e214ed764db4d0da6d03068c1;de;;;1.3.;;;Sorptions- und Auslaugungseigenschaften der Komposite und Komplexe natürlicher mikroporöser Materialien Dieser Beitrag befasst sich mit den Aspekten der Anwendung von natürlichen mikroporösen Materialien (NMM), die für einen Jahrtausendhorizont des Umweltschutzes projiziert werden. Obwohl die NMM hervorragende Sorptionseigenschaften besitzen, schränkt ihre natürliche physikalisch-mechanische Form ihre Anwendung in technologischen Prozessen, wie beispielsweise Füllkörperkolonnen, in der Regel ein. Aufgrund ihrer Wärme- und Strahlungsstabilität, Druckfestigkeit, Beständigkeit gegenüber den Zyklen Gefrieren/Auftauen und Benetzen/Trocknen haben sie jedoch zunehmendes Interesse an der langfristigen Behandlung gefährlicher Abfälle gefunden;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4499-5_8 720ee548dcbf2e448e381dcb8b32c5ce;de;;;1.3.;;;Flexibilität und Übung Dehnungsübungen werden seit langem befürwortet, um die Leistung zu verbessern, das Verletzungsrisiko zu verringern und die Rehabilitation nach einer Verletzung zu erleichtern. Allerdings gibt es in der Literatur widersprüchliche Belege für den möglichen Nutzen von Flexibilitätstraining. Im Sport basieren Flexibilitätstrainingsprogramme weitgehend auf der Meinung eines Trainers oder Trainers, die oft aus persönlichen Erfahrungen stammt, manchmal in Verbindung mit einer eingeschränkten oder unkritischen Lektüre der Literatur. Darüber hinaus variiert die Qualität der verfügbaren Literatur stark, von streng kontrollierten, gut konzipierten Experimenten bis zu Experimenten, die schlecht konstruiert sind und ungerechtfertigte Schlussfolgerungen ziehen. Viele veröffentlichte Artikel verstoßen gegen anerkannte Forschungsstandards, haben aber dennoch Praktiker dazu gebracht, eine Reihe von irrigen Überzeugungen zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-60327-105-9_8 363007698d246512ac40593d2a00946d;de;;;1.3.;;;Hochschulforschung als Stamm, Territorium und/oder Gemeinschaft: eine Ko-Zitat-Analyse Dieser Artikel baut auf bestehenden Forschungsarbeiten auf, die das Feld der Hochschulforschung kartiert und analysiert haben, insbesondere auf der Analyse der Artikel;-;-;-;https://link.springer.com/article/10.1007/s10734-007-9077-1 36c97fbf7423d7a717d80e60ed3bf103;de;;;1.3.;;;Belastungsinduzierte Hypoglykämie bei IDDM-Patienten, die mit einem kurzwirksamen Insulinanalogon behandelt wurden Um die Wirkung eines kurzwirksamen Insulinanalogons auf die belastungsinduzierte Hypoglykämie bei insulinabhängigen Diabetes mellitus (IDDM)-Patienten zu untersuchen, verglichen wir die glykämische Reaktion von 40 Minuten Fahrradergometer-Training, das entweder kurz (40 Minuten) oder später (180 Minuten) durchgeführt wurde. nach einer Frühstücksmahlzeit und subkutaner Injektion von entweder kurzwirksamem Insulinanalogon [Lys(B28) Pro(B29)] oder löslichem Humaninsulin (Humulin Regular) bei zehn IDDM-Patienten mit langer Krankheitsdauer. Beide Präparate wurden 1 Monat vor den jeweiligen Studien verwendet. Veränderungen des Blutzuckers, des Insulins und der gegenregulatorischen Hormone wurden untersucht. Im Vergleich zu Humaninsulin war nach der Analoginjektion die Spitzeninsulinkonzentration früher eingetreten, sie war um 56 % höher (;-;-;-;https://link.springer.com/article/10.1007/BF02369359 ff74500977369be9301a0a808eb7bf87;de;;;1.3.;;;Empfehlung im Bildungsportal nach beziehungsbasiertem Wichtigkeitsranking Die Empfehlung im Bildungsportal ist hilfreich für Schüler, um die wichtigen Lernressourcen in Schulen zu kennen. Gegenwärtig konzentrieren sich frühere Verfahren, die zur Lösung dieses Problems vorgeschlagen wurden, hauptsächlich auf die Anzahl der Seitenaufrufe. Eine Lernressource ist wichtig, nur weil viele Schüler sie gesehen haben. Da jedoch die Metadaten in einer Ressource verfügbar werden, werden die Beziehungen zwischen den Ressourcen und anderen Entitäten in der realen Welt immer mehr. Leider wurde nicht gut untersucht, wie solche Beziehungen verwendet werden können, um bessere Empfehlungen zu geben. In diesem Beitrag präsentieren wir eine ergänzende Studie zu diesem Problem. Insbesondere konzentrieren wir uns auf ein allgemeines Bildungsportal, das aus verschiedenen typisierten Objekten besteht, einschließlich Ressource, Kategorie, Tag, Benutzer und Abteilung. Das Empfehlungsobjekt ist Ressource. Wir haben jedoch festgestellt, dass der Wichtigkeitsrang einer Ressource durch ihre Beziehungen zu anderen typisierten Objekten beeinflusst werden kann. Daher formalisieren wir die Ressourcenempfehlung als Rangfolgeproblem, indem wir ihre Beziehungen zu anderen typisierten Objekten berücksichtigen. Es wird ein Random-Walk-Algorithmus vorgeschlagen, um die Bedeutung jedes Objekts im Bildungsportal zu schätzen. Schließlich wird das experimentelle Ergebnis in einem realen Datensatz ausgewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85033-5_5 5393fff871d6056c58858336b22a3093;de;;;1.3.;;;Verwendung von Software Inspection als Katalysator für SPI in einem kleinen Unternehmen Prozessverbesserungsaktivitäten in kleinen und mittleren Unternehmen (KMU) sind aufgrund der geringen Anzahl von Mitarbeitern und Projekten eine Herausforderung, die Menschen in einer Vielzahl von Rollen ausführen müssen. Die Zuweisung von Prozessverbesserungsaktivitäten an das überlastete Personal kann als Bedrohung für laufende Projekte angesehen werden. Sowohl das Management als auch die Mitarbeiter sollten sich vom Nutzen der Verbesserungsmaßnahmen überzeugen, bevor sie den ersten Schritt des Prozesses unternehmen. Auch in dieser Situation bietet die Softwareinspektion einen verlockenden Ausgangspunkt zur Prozessverbesserung. Es ist ein fokussierter und gut definierter Teilprozess und ermöglicht selbst bei kurzer Nutzung eine hohe Kapitalrendite. Unser Experiment in einem kleinen Softwareunternehmen bestätigt, dass die Softwareinspektion den berechtigten Ausgangspunkt für die Prozessverbesserung darstellt. Anhand des Inspektionsreifegradmodells erkennt das Unternehmen Schwachstellen in seiner Reviewpraxis und Inspektionsmuster helfen bei der Aufdeckung von Verbesserungsmaßnahmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24659-6_5 0f82f27e4697cbeb47b19b464885e03c;de;;;1.1.;;;Geist und Raum Dieses Kapitel beschreibt verschiedene Ansätze zu Komplexität und Entropie im Zentralnervensystem, die zeitliche und räumliche Veränderungen der neuronalen Synchronisation und Kohärenz erklären können. Diese Veränderungen in der Komplexität des Gehirns sind wahrscheinlich die Grundlage für diskrete mentale Zustände, die durch ihre Unterschiede das Erkennen und die Wahrnehmung der äußeren und inneren Welt ermöglichen. Nach diesem Konzept entsteht das Bild der Welt als Folge der Schaffung von Ordnung durch nichtlineare Aktivitäten großer Neuronengruppen. Diese hoch organisierten nichtlinearen Prozesse sind eine Folge einer hohen Systemkomplexität, die auftritt, wenn das System eine große Anzahl miteinander verbundener und gleichzeitig aktiver neuronaler Baugruppen umfasst und in einem desynchronisierten parallel verteilten Modus läuft, der zu Selbstorganisation führen kann. Diese Komplexitäts- und Entropieebenen innerhalb des Gehirns stellen wahrscheinlich einen grundlegenden Code dar, der es ermöglicht, mentalen und physischen Raum zu verbinden und entsprechende Unterschiede und deren Erkennung im mentalen und physischen Raum zu definieren. Dieser Ansatz bietet die Möglichkeit, „Neurogeometrie“ als geometrisches Modell der funktionellen Architektur des Gehirns zu studieren, das durch neuronale Komplexität die Geometrie des Außenraums im mentalen Raum widerspiegeln kann. Die Lösung des Bindungsproblems könnte dabei prinzipiell ähnliche mathematische Ansätze wie in der Physik verwenden, aber auch Beschreibungen enthalten, wie bestimmte Beobachter die Realität „definieren“ und beobachterspezifische Geometrie des Raumes schaffen, wie in der Allgemeinen Theorie der Relativitätstheorie und andere theoretische Konzepte der Physik, die die Rolle des Beobachters in der physikalischen Welt berücksichtigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-0436-1_6 6372098a0f9fcc6556c45a6a6826fb51;de;;;1.3.;;;Umfangreiche Interaktion und Feedback-gestütztes Mammographie-Training: Eine Erprobung eines Augmented Reality-Ansatzes Der konventionelle Ansatz „Tastatur und Workstation“ ermöglicht eine komplexe medizinische Bilddarstellung und -manipulation während der Mammographie-Interpretation. Dennoch bleibt es eine Herausforderung, umfassende Interaktionen und Rückmeldungen in Echtzeit für das Navigationstraining oder die computergestützte Erkennung von Krankheiten bereitzustellen. Durch Computer Vision und modernste AR-Technik (Augmented Reality) schlägt diese Studie einen Ansatz für die AR-Mammographie-Workstation vor, der eine arbeitsplatzunabhängige, reichhaltige Interaktion und Echtzeit-Feedback unterstützen könnte. Dieser flexible AR-Ansatz untersucht die Möglichkeit, verschiedene mammografische Trainingsszenen über AR zu ermöglichen, sowie seine Grenzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-60964-5_33 9a25a21adf8323caaa18aa2f844f2ccf;de;;;1.3.;;;Lernspieldesign zum Unterrichten von Chinesisch als Fremdsprache durch effektive Lernumgebung, Flow, Motivation Mit der rasanten Entwicklung der Online-Spiele hat sich das Lernspiel als potenzielles Lernwerkzeug erwiesen, das Lernmotive verbessern kann [1]. Jetzt stellt das Lernspiel eine neue interessante Entwicklung im Bildungsbereich dar. In diesem Beitrag stellen wir zunächst das effektive Lernumgebungs-, Flow-, Motivations-(EFM)-Modell vor, das ein benutzerzentriertes Spieldesign-Modell ist, und entwerfen dann das Lernspiel zum Unterrichten von Chinesisch als Fremdsprache basierend auf der Idee des EFM-Modells. Dieses Lernspiel schafft eine fesselnde und immersive Lernerfahrung, um Lernergebnisse zu erzielen, es versucht, den Ausländern einen neuen Lernweg und eine neue Lernerfahrung zu bieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20539-2_1 342bf52b24887dc44354c860290af23d;de;;;1.3.;;;Virtual Reality App für ASS-Kinderfrühtraining Child Autismus-Spektrum-Störung (ASS) ist eine psychische Entwicklungsstörung, die sich in Form von Kommunikationsschwierigkeiten, eingeschränkten Interessen und Aktivitäten, sich wiederholenden Verhaltensmustern usw. verhält. Schätzungen zufolge betrifft ASS 2015 etwa 1% der Menschen (62,2 Millionen weltweit). den Statistiken zufolge gibt es weltweit etwa 70.000.000 und in China mehr als 13.000.000, darunter 3.000.000 junge Patienten unter 14 Jahren, mit einer Zunahme um 200.000 pro Jahr. Das Frührehabilitationstraining für Kinderpatienten könnte die Lebensfähigkeit der ASS-Patienten verbessern und die Pflegekosten in ihrem späteren Leben senken. Eine neue Virtual-Reality (VR)-App, VR-ASD, wurde entwickelt, um die Kosten und die Anforderungen an die Schulungskompetenz des Trainers zu reduzieren und die Effizienz und Qualität des ASD-Trainings für Kinder-ASS-Patienten zu verbessern. Basierend auf der Vorstudie geben wir die Grundprinzipien, den Hauptrahmen und die typischen Funktionsmodelle der App VRASD mit Details zu Operationen und Fähigkeiten an.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6549-0_9 487c3032f44229490d047fc533763458;de;;;1.1.;;;Zuverlässigkeit der Knoteninformationen bei der Methode der autonomen Lastverteilung Wir haben die „Autonomous Load Distribution (ALD) Method“ als einen der Lastverteilungsalgorithmen für Mehrcomputersysteme vorgeschlagen. Bei der ALD-Methode verfügt ein Knoten über andere Knoteninformationen, die er für die Aufgabenverarbeitung mit Erstellung einer Kandidatenliste anfordern kann. In diesem Papier untersuchen wir die Zuverlässigkeit von Knoteninformationen. Die Zuverlässigkeit der Knoteninformationen ist ein wichtiges Thema, da ihr Maß betrifft, ob der Knoten die Last effektiv verteilt oder nicht. Um diesen Punkt zu zeigen, haben wir unter bestimmten Bedingungen simuliert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-73137-7_35 1f614deed33cea32a2d7db4fab66a809;de;;;1.1.;;;Mediatoren des Obst- und Gemüsekonsums bei Darmkrebsüberlebenden Aufgrund der Früherkennung und Behandlung hat sich die Überlebensrate nach der Diagnose von Dickdarmkrebs (CRC) stetig erhöht. Eine CRC-Diagnose könnte als „lehrbarer Moment“ betrachtet werden, eine Zeit, in der Interventionisten erfolgreich Ernährungsumstellungen fördern könnten. CRC-Interventionen mit maßgeschneiderter Printkommunikation (TPC) und telefonischer Motivationsinterviews (TMI) haben sich bei der Förderung des Obst- und Gemüsekonsums (FVC) bei CRC-Überlebenden als wirksam erwiesen. Es ist jedoch wenig darüber bekannt, wie diese Interventionen wirken, um ihre Wirkung zu entfalten. Diese Studie untersuchte, ob Informationsprozesse den Zusammenhang zwischen einer CRC-Intervention und FVC bei CRC-Überlebenden vermitteln.;-;-;-;https://link.springer.com/article/10.1007/s11764-010-0116-z b3c1533454f44991830d846a9e5cfaaf;de;;;1.1.;;;Von der Technologie integrierter Schaltkreise zu Siliziumgrauer Materie: Hardwareimplementierung künstlicher neuronaler Netze Eine sehr große Zahl von Arbeiten im Bereich Künstliche Neuronale Netze beschäftigt sich mit der Implementierung dieser Modelle als Software- aber auch Hardware-Lösungen. Allerdings haben Hardware-Implementierungen dieser Modelle und ausgegebenen Lösungen im Wesentlichen die Ausführungsgeschwindigkeitsaspekte betrafen. Heute stellt sich eine neue Frage unumgänglich: Ist die spezifische Hardware-Implementierung künstlicher neuronaler Netze unter Berücksichtigung der tatsächlichen Rechengeschwindigkeiten (mehrere Giga-Operationen pro Sekunde) noch ein relevantes Thema? Diese Arbeit beschäftigt sich mit zwei Hauptzielen. Die erste bezieht sich auf die Hardwareimplementierung von KNN und zeigt, wie theoretische Grundlagen von KNN zu einer elektronischen Implementierung dieser intelligenten Techniken führen könnten. Das zweite Ziel des Papiers ist es, die oben formulierte Frage durch Erlernen der Plastizität und Robustheit von KNN-Hardwareimplementierungen zu diskutieren.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-26325-X_31 025f931928094d82cfd12730caa13c66;de;;;1.1.;;;Leveraged Marketing Communications: ein Rahmen zur Erklärung der Auswirkungen von Zweitmarkenassoziationen Dieses Papier konzentriert sich auf das Konzept der Leveraged Marketing Communications (LMC) und bietet die erste umfassende Definition des Konzepts. LMC werden hier als Markenbildungsstrategien definiert, die eine Marke mit einem anderen Objekt verbinden, um der Marke zu ermöglichen, von den Assoziationen der Zielgruppe mit dem Objekt zu profitieren. Wir entwickeln einen integrativen konzeptionellen Rahmen zum Verständnis der Faktoren, die die Markenwirkungen von LMC beeinflussen, basierend auf früheren Forschungsergebnissen zu fünf verschiedenen LMC-Strategien (Promi-Endorsement, Sponsoring, Produktplatzierungen, Cause-related Marketing und Cobranding) und deren Auswirkungen die Marke. Der Rahmen stützt sich auch auf frühere Modelle des Cobranding und Kellers (;-;-;-;https://link.springer.com/article/10.1007/s13162-016-0081-4 8d5875e1bcc601ed5671616852154626;de;;;1.1.;;;Förderung der pädagogischen Metakognition von Mathematiklehrern: Ein theoretisch-praktisches Modell und eine Fallstudie Forscher sind sich einig, dass „Metakognition“ die Art des Lernens konzeptualisiert, die zu unserer sich schnell verändernden, metamodernen Welt passt: ein autonomes, lebenslanges Lernen, das an neue Lernaufgaben angepasst werden kann. Metakognitiv aktive Personen entwickeln ein solches Lernen, weil sie sich ihres Wissens bewusst sind und gleichzeitig das weitere Lernen durch Aktivierungsstrategien und Bewertung ihrer Effizienz steuern und regulieren können (Flavell. Am Psychol 34(10):906–911, 1979, Schraw. Contemp Educ Psychol 19:460–475, 1998). Im Laufe der Jahre wurde Metakognition mit verbesserten Schülerleistungen in Verbindung gebracht (z. B. Veenman et al. Metacognition Learn 1(1):3–14, 2006). Im Bereich der Mathematik weisen Forschungsergebnisse darauf hin, dass Misserfolg oder Erfolg in der Mathematik, wie etwa beim Problemlösen, auf den Einsatz von Metakognition zurückzuführen sein kann (Kramarski, Mevarech. Am Educ Res J 40:281–310, 2003, Schoenfeld. Learning mathematisch denken: Problemlösung, Metakognition und Sinnbildung in der Mathematik. In DA Grouws (Hrsg.) Handbook of Research on Mathematics Teaching and Learning. MacMillan, New York, S. 165–197,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-66659-4_13 37c05d7c2bb3189ea9fefc1d6151b34a;de;;;1.1.;;;Ontologiebasierte Integration von Managementverhalten und Informationsdefinitionen mit SWRL und OWL Aktuelle Netzwerkverwaltungsarchitekturen verwenden unterschiedliche Modelle, um Verwaltungsinformationsobjekte zu definieren. Diese Definitionen umfassen tatsächlich auch auf nicht formale Weise die Definition einiger Verhaltensinformationen, die ein Manager in Bezug auf die verwalteten Objekte durchführen sollte. Ein Manager ist also nicht in der Lage, diese Verhaltensinformationen automatisch zu verarbeiten. Frühere Forschungsarbeiten schlugen die Verwendung formaler Ontologiesprachen wie OWL vor, um eine semantische Integration verschiedener Managementinformationsdefinitionen vorzunehmen. Dieses Papier geht weiter und schlägt eine formale Definition der verschiedenen Managementverhaltensspezifikationen vor, die in die Managementinformationsdefinitionen integriert sind. Somit können übliche Verhaltensdefinitionen, die implizit in den Managementinformationsdefinitionen und explizit in Richtliniendefinitionen enthalten sind, formal ausgedrückt und in die Informationsdefinitionen aufgenommen werden. Dieses Papier konzentriert sich auf die Definition von Verhaltensregeln in Managementinformationen mit SWRL, einer Regelsprache, die definiert wurde, um die OWL-Funktionalität zu ergänzen.;-;-;-;https://link.springer.com/chapter/10.1007/11568285_2 d2988e6992379dadfae93bca8e9f5e6d;de;;;1.1.;;;Rauchen und Raben-IQ Es wurde kürzlich gezeigt, dass Nikotin die Messungen der Informationsverarbeitungsgeschwindigkeit verbessert, einschließlich der Entscheidungszeit (DT)-Komponente der einfachen und Wahlreaktionszeit und des Zeichenkettenlängenmaßes der evozierten potentiellen Wellenformkomplexität. Beide (DT und String-Länge) korrelieren zuvor mit der Leistung bei Standard-Intelligenztests (IQ). Wir stellten daher die Hypothese auf, dass Nikotin die intellektuelle Leistung auf die elementaren Korrelate der Informationsverarbeitung des IQ verbessert. Im aktuellen Experiment haben wir diese Hypothese mit dem Raven Advanced Progressive Matrices (APM) Test getestet. Die APM-Werte waren in der Rauchersitzung im Vergleich zur Nichtrauchersitzung signifikant höher, was darauf hindeutet, dass Nikotin die physiologischen Prozesse verbessert, die der Leistung bei intellektuellen Aufgaben zugrunde liegen.;-;-;-;https://link.springer.com/article/10.1007/BF02245346 93eb5c226f044ad4836b3c7c1bd60956;de;;;1.1.;;;Erkennen, Wissen und Benennen: Können Bildverarbeitungsmodelle von Objekten Nicht-Bild-Visuals aufnehmen? Dieses Papier bietet einen Überblick über die informationsverarbeitenden Konten von Bildern von Objekten und von Nicht-Bild-Visuals (NPVs) wie Graphen und Diagrammen, einschließlich Theorien des Graphenverständnisses. Im Vergleich zur Untersuchung von Objekten scheint es eher wenige informationsverarbeitende Untersuchungen von NPVs zu geben. Ein NPV-Korpus wurde entwickelt und Items wurden als visuelle Reize in vier kognitiven Aufgaben verwendet. Die Aufgaben bewerteten Verarbeitung auf Wahrnehmungsebene (NPV-Erkennung), semantisches Wissen und lexikalische Produktion (Benennung). Die Ergebnisse werden in Bezug auf mehrere Fragen diskutiert: Wie gut funktionieren Modelle von Objekten?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44043-8_19 dce6dbe52930135a4e071b8acbf832d3;de;;;1.3.;;;Expression von Lektin-spezifischen zellulären Glykokonjugaten während der oralen Karzinogenese Untersucht wurde das Bindungsmuster der beiden Lektine Concanavalin A (ConA) und Erdnuss-Agglutin (PNA) in verschiedenen Phasen der Tumorprogression im Mundepithel. Dazu gehörten nicht-dysplastische, dysplastische und neoplastische Läsionen sowie normales Gewebe. ConA und PNA zeigten eine intensive Färbung in der Basalmembran aller Arten von Läsionen. In den Färbemustern zwischen verschiedenen Stadien der oralen Karzinogenese wurde ein geringer Unterschied beobachtet, entweder mit ConA oder PNA. ConA zeigte bei allen Arten von Läsionen eine leichte Zytoplasma- und Membranfärbung, während PNA in allen histologischen Gruppen eine mäßige bis intensive Färbung sowohl im Zytoplasma als auch in der Membran von Zellen der unteren Schicht zeigte. Die vorliegende Studie zeigt daher, dass diese Lektine einen begrenzten Wert bei der Aufklärung der oralen Karzinogenese haben und von unbedeutender diagnostischer Bedeutung sind.;-;-;-;https://link.springer.com/article/10.1007/BF01215989 98246cfe5afffc9f8da19c6f56ebaf2d;de;;;1.1.;;;Die Rolle der Modellrasse bei der Beeinflussung der Produktwahrnehmung der chinesischen Verbraucher Frühere Studien haben gezeigt, dass Verbraucher im Allgemeinen Anzeigen mit rassisch ähnlichen Modellen bevorzugen. Die Unterscheidungstheorie legt jedoch nahe, dass Menschen in einer homogenen Gesellschaft Rasse möglicherweise nicht als Ähnlichkeitsmerkmal behandeln. Auf der Grundlage der Stereotypaktivierung und der Herkunftslandtheorie stellen wir fest, dass die Verwendung westlicher Modelle in Anzeigen die Überzeugungen und Einstellungen der chinesischen Verbraucher zu Produktattributen verbessern kann. Unsere Arbeit erweitert auch das Wissen über geschlechtsspezifische Unterschiede in der Informationsverarbeitung, indem sie zeigt, dass der Modell-Rasse-Effekt bei Männern stärker ist zeigen ausländische Models in Anzeigen.;-;-;-;https://link.springer.com/article/10.1057/abm.2016.1 ccc40043c1ccc790c94eee21fb94a702;de;;;1.1.;;;Kompetenz definieren und Zielfähigkeiten identifizieren Es passt, dass wir diesen Band mit dem Versuch beginnen, soziale Kompetenz zu definieren. Eine Definition sollte uns weiter in Richtung Operationalisierung und Identifizierung kritischer Fähigkeiten bringen, die bei der Bewertung und Intervention angestrebt werden. Derzeit gibt es jedoch keine einheitliche Definition von Sozialkompetenz. Obwohl angesichts der übergreifenden und komplexen Natur einer solchen Kompetenz verständlich, hat dieser Mangel an Übereinstimmung sowohl bei der Beurteilung als auch bei der Intervention zu Problemen geführt und den Gesamtnutzen des Konstrukts eingeschränkt. Die vorgeschlagenen erforderlichen Fähigkeiten für sozial kompetentes Reagieren reichen von kognitiven (z. B. Informationsvorrat, Fähigkeiten zur Verarbeitung/Erfassung, Perspektivenübernahme), emotionalen (z. B. Affektregulation) und verhaltensbezogenen (z. B. Konversationsfähigkeiten, prosozialem Verhalten) sowie Motivations- und Erwartungssätze (zB moralische Entwicklung, Selbstwirksamkeit, Dubois & Felner, 1996).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-0609-0_1 244886368ea4ef593de34149cc601e0b;de;;;1.1.;;;Die Rolle der Koordination bei der Prävention von Schäden in Gesundheitsgruppen: Forschungsbeispiele aus der Anästhesie und ein integriertes Koordinationsmodell für Aktionsteams im Gesundheitswesen In diesem Kapitel diskutieren wir die Rolle der Gruppenkoordination als Mittel zur Prävention von iatrogenen Schäden in der Gesundheitsversorgung, indem wir Anästhesieteams als unser Forschungsforum verwenden. Anwendung des inklusiven Modells der Gruppenkoordination in Kap. 2 (siehe Abb. 2.5) skizzieren wir, dass (1) die klinische Leistung und die Patientensicherheit Funktionen der Gruppenkoordination sind, (2) Informationen und Aktionen wichtige Input-Entitäten der Gruppenkoordination sind, (3) die Anpassung an situative Anforderungen als kritischer Koordinierungsprozess, und (4) explizite und implizite Koordinierung sind wesentliche Koordinierungsmechanismen. Wir präsentieren aktuelle Erkenntnisse zur Rolle jedes dieser Konzepte für die Teamarbeit im Gesundheitswesen. Durch die Kombination theoretischer Überlegungen und empirischer Ergebnisse werden wir ein integriertes Koordinationsmodell für Aktionsteams im Gesundheitswesen anbieten. Die Kernidee dieses Modells ist, dass Koordination entlang zweier unabhängiger Dimensionen klassifiziert werden kann (1) Mechanismen wie explizite vs. implizite Koordination und (2) Eingabeentitäten wie Verhalten (z. B. Handlungen) und Bedeutungen (z. B. Informationen). Wir schlagen daher vor, die Nützlichkeit der Teamkoordinierung im Hinblick auf diese Unterscheidung zu berücksichtigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15355-6_5 126f21e3652e94b9b9f9c427bca4244d;de;;;1.3.;;;Die Erfolgsquote persönlicher Gehaltsverhandlungen: Eine weitere Untersuchung der akademischen Gehaltsunterschiede nach Geschlecht Einer Stichprobe von männlichen und weiblichen Assistenzprofessoren in öffentlichen Einrichtungen zur Landförderung wurde ein Fragebogen zu ihren bisherigen Gehaltsverhandlungen und ihrer Wahrnehmung des akademischen Vergütungssystems zugesandt. Die Umfrageergebnisse zeigten, dass Akademikerinnen und Akademikerinnen etwa die gleiche Tendenz haben, eine Gehaltsverhandlung sowohl für Einstiegsgehälter als auch für Gehaltserhöhungen zu versuchen. Es wurde festgestellt, dass Frauen bei der Aushandlung von Anfangsgehältern ebenso erfolgreich wie die Männer waren und bei der Aushandlung von Gehaltserhöhungen erfolgreicher waren. Die untersuchten Frauen und Männer zeigten auch eine deutliche Übereinstimmung in ihrer Wahrnehmung des akademischen Belohnungssystems. Frauen berichteten jedoch auch von Gefühlen der Lohnungleichheit, wenn sie sich mit Gleichaltrigen verglichen, insbesondere mit Gleichaltrigen des anderen Geschlechts.;-;-;-;https://link.springer.com/article/10.1007/BF00973506 32d6504b2ead06e6667821024c0f0180;de;;;1.3.;;;3D-Studie für Wärmeübertragung, Schmierung und Reibungskopplung für Kolbenringlaufbuchsen von Dieselmotoren Kolbenring und Laufbuchse von Verbrennungsmotoren werden im Allgemeinen unter immer raueren Bedingungen eingesetzt. Um die Mechanismen zu untersuchen, die die Arbeit ineffektiv beeinflussen, wird das gekoppelte Wärmeübertragungs-, Schmier- und Reibungsmodell zwischen Kolbenring und Laufbuchse vorgeschlagen, indem Gas, Kolbensatzbuchse, Schmierfilm und Kühlmittel gekoppelt werden. In diesem Modell werden die Temperaturschwankung des Schmiermittels, das Gas-Blowby, die Oberflächenrauheit, die Bruchstelle und die nichtaxiale Symmetrie des Ölfilms berücksichtigt. Die gekoppelte Wärmeübertragungs-, Schmierungs- und Reibungssimulation wird für den 6110 Dieselmotor durchgeführt und die Temperaturfelder der Kolbensatzbuchse mit den entsprechenden Schmierungs- und Reibungskurven erhalten. Die simulierten Ergebnisse werden durch Vergleich mit dem Temperaturexperiment des Kolbens verifiziert.;-;-;-;https://link.springer.com/article/10.1007/s12206-019-0151-2 8933a886f8000d43a9c7f085ceb8914a;de;;;1.1.;;;Neubewertung der Natur des Lernens in einem naturwissenschaftlichen oder mathematischen Klassenzimmer Die Natur des Lernens, die in der ersten Hälfte des 20. Jahrhunderts von behavioristischen Modellen dominiert wurde, wurde in der zweiten Hälfte mit der kognitiven Revolution komplizierter (Harre & Gillett, 1994). Im 21. Jahrhundert entstehen neue Lernparadigmen, die das Wesen und die Entwicklung des Lernens zu einem Ort der Kontroverse machen. Sfard (1998) stellt beispielsweise zwei Metaphern für das Lernen von Mathematik vor – Lernen als Erwerb versus Lernen als Beteiligung. Andere haben auch alternative Lernmodelle vorgeschlagen (z. B. Kirshner, 2002, Lehrer & Schäuble, 2006).;-;-;-;https://link.springer.com/chapter/10.1007/978-94-6091-864-3_2 a21fbc71c415fb74e6be18c7a11162a0;de;;;1.1.;;;Ein Überblick über die zweidimensionale Automatentheorie Der Hauptzweck dieses Papiers besteht darin, verschiedene Eigenschaften alternierender, nichtdeterministischer und deterministischer zweidimensionaler Turingmaschinen (einschließlich zweidimensionaler endlicher Automaten und Markerautomaten) zu untersuchen und zelluläre Typen zweidimensionaler Automaten kurz zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0015929 61a77e5e39c74058a638d1bc7f77041e;de;;;1.1.;;;Forschung zur adaptiven Planungsmethode von Kommunikationsressourceninformationen in der Umgebung des Internets der Dinge Die kontinuierliche Erweiterung der Informationsressourcen von Kommunikationsressourcen im Umfeld des Internets der Dinge hatte dazu geführt, dass Informationsmanagementprobleme zu einem der Kernprobleme der Kommunikationsinformationsintegration wurden. Dieses Papier schlug ein adaptives Scheduling-Verfahren für Kommunikationsressourceninformationen in der Umgebung des Internets der Dinge vor. Basierend auf der GIS-Technologie wurde Kommunikationsressourcenmanagement für den Informationsaustausch über Datenbankkommunikationsressourcen verwendet. Als nächstes wurde die verteilte Datenbank auf drei Ebenen verwendet, um das Hochladen und Speichern von Informationen über die Kommunikationsressourcen des Internets der Dinge mit einer offensichtlichen hierarchischen Beziehung einzurichten. Der Datenbanksynchronisierungsmechanismus wurde verwendet, um sicherzustellen, dass jede Konfiguration der Datenbankkommunikationsressourcen synchronisiert wurde, und ein Netzwerkkanal wurde eingerichtet, um die Netzwerklast zu erhöhen. Basierend auf den Browserinformationen wurden schließlich die Kommunikationsressourcen adaptiv eingeplant. Die experimentellen Daten zeigten, dass im Vergleich mit dem traditionellen Ressourceninformationsplanungsverfahren die Ressourcenübertragungsgeschwindigkeit des entworfenen adaptiven Planungsverfahrens für Kommunikationsressourceninformationsressourcen um 65% erhöht wurde und die Übertragungsrate der Informationsressourcenübertragung um 27% erhöht wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36402-1_25 b6a3c31b9223ec6edf052e1f912b9017;de;;;1.1.;;;Visuelle Algorithmen Man kann (oder zumindest habe ich dies bei David Marr getan: siehe Marr und Poggio 1976, Marr 1982) mindestens drei Ebenen unterscheiden, auf denen ein visueller Prozessor verstanden werden muss. Auf der obersten Ebene befindet sich die Computertheorie der Vorrichtung, in der das zu lösende Problem charakterisiert und die natürlichen Randbedingungen explizit gemacht werden. Unten befindet sich die Ebene der detaillierten neuronalen „Hardware“ – neuronale Schaltkreise, Synapsen usw. – die die Berechnung durchführen. In der Mitte befindet sich eine Studie der Algorithmen, die zur Berechnung der Lösung verwendet werden. Diese zweite Ebene ist am schwierigsten genau zu definieren, da sie eine Brücke zwischen der Rechenebene und der Hardwareebene darstellt. Während also die Schaltung durch die verfügbaren Mechanismen und die Berechnung durch die Art des Problems bestimmt wird, wird der Algorithmus selbst durch die Berechnung bestimmt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-68888-1_10 25592ae29a3adbff0f9591f5b748f9d2;de;;;1.3.;;;Einführung in die angewandte Systemsimulation Modellierungs- und Simulationstechnologie ist zu einem unverzichtbaren Werkzeug für fast alle Disziplinen geworden, die vom Design von Transistoren, VLSI-Chips und Computersystemen und Netzwerken bis hin zu Aerodynamik, Luftfahrt und Space Shuttles reichen. Die beeindruckenden Fortschritte in der Computer- und Telekommunikation haben es ermöglicht, Modellierung und Simulation in allen Disziplinen effizient einzusetzen [;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-9218-5_1 02de248466eb5c828d562b7317247dea;de;;;1.3.;;;Ein neuartiger pyramidaler Dual-Tree-Richtungsfilterbank-Domain-Farbbild-Wasserzeichenalgorithmus Geometrische Verzerrung ist bekannt als einer der am schwierigsten zu widerstehenden Angriffe, da sie die Position des Wasserzeichens desynchronisieren und somit eine falsche Wasserzeichenerkennung verursachen kann. Es ist eine herausfordernde Arbeit, ein robustes Schema für Farbbilder mit Wasserzeichen gegen geometrische Verzerrungen zu entwerfen. Basierend auf der Support Vector Regression (SVR) und der Pyramidal Dual-Tree Directional Filter Bank (PDTDFB) wird ein neuer Farbbild-Wasserzeichen-Algorithmus gegen geometrische Verzerrung vorgeschlagen. Experimentelle Ergebnisse zeigen, dass das vorgeschlagene Schema nicht nur unsichtbar und robust gegenüber üblichen Bildverarbeitungsoperationen wie Medianfilterung, Rauschaddition und JPEG-Komprimierung usw. ist, sondern auch robust gegenüber geometrischen Verzerrungen und kombinierten Angriffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25243-3_13 006fae856bf93768f9a0d7bc774c36c8;de;;;1.3.;;;Verifizieren paralleler Programme mit MPI-Spin Standardtest- und Debugging-Techniken sind notorisch ineffektiv, wenn sie auf parallele Programme angewendet werden, aufgrund der zahlreichen Quellen von Nichtdeterminismus, die sich aus der Parallelität ergeben. MPI-;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75416-9_8 4d61de49bf442cf3400c7d0f9b757945;de;;;1.3.;;;Verwendung des PSO-Algorithmus für ein einfaches LSB-Substitutions-basiertes Steganographie-Schema in der DCT-Transformationsdomäne Ein verbessertes Verfahren zum Einbetten einer geheimen Nachricht in ein Titelbild mit Substitution des niedrigstwertigen Bits (LSB) in einer diskreten Kosinustransformations-(DCT)-Domäne wurde vorgeschlagen. Die geheime Nachricht wurde zuerst in Partitionen aufgeteilt, während das Titelbild in Blöcke der Größe 2x2 unterteilt wurde und DCT verwendet wurde, um die Blöcke vom Raumbereich in den Frequenzbereich umzuwandeln. Dann wurde der Particle Swarm Optimization (PSO)-Algorithmus angewendet, um nach einer optimalen Substitutionsmatrix T zu suchen, um die geteilten Partitionen für eine optimale Einbettung zu transformieren. Als nächstes wurde der transformierte Teil der geheimen Nachricht durch LSB-Substitution in die AC-Koeffizienten der transformierten Bildblöcke eingebettet. Experimentelle Ergebnisse zeigen, dass das vorgeschlagene Verfahren die Qualität des Stego-Bildes besser halten kann, während die Sicherheit der versteckten geheimen Nachricht durch die Verwendung der Substitutionsmatrix T erhöht wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21515-5_25 53e0afbed7c797bb63a7f131cc8dac86;de;;;1.3.;;;Bemerkungen zum Fortschritt in der Bildungstechnologie Nachdem er nach 15-jähriger Tätigkeit als Redakteur von Educational Technology Research & Development zurückgetreten war und von Steve Ross, der 18 Jahre lang als Redakteur tätig war, und von vielen führenden Wissenschaftlern im breiten und multidisziplinären Gebiet der Bildungstechnologie viel gelernt Ich habe an den Mehrwert der Forschung und Entwicklung so vieler talentierter und engagierter Akademiker gedacht. Die innovativen Lernumgebungen und sorgfältigen Studien, die ich in den letzten 15 Jahren gelesen habe, lassen mich fragen, warum es im Bereich der Bildungstechnologie anscheinend so wenig Fortschritte gibt. In anderen Bereichen wie der Automobiltechnik oder der medizinischen Forschung sind bemerkenswerte Fortschritte zu verzeichnen. Auch in bildungsrelevanten Bereichen wie Hirnforschung und Sozialverhalten konnten wir bedeutende und nachhaltige Fortschritte verzeichnen. Warum gab es in der Bildungstechnologieforschung und den vielen innovativen Lernumgebungen, die in den letzten Jahren geschaffen wurden, nicht mehr Fortschritte und Auswirkungen? Das ist die Frage, die diese Bemerkungen motiviert.;-;-;-;https://link.springer.com/article/10.1007/s11423-020-09736-x 51e02993e9f764f989219a07429587ea;de;;;1.1.;;;Vertrauenswürdigkeitsbewertung der Multisensor-Situationserkennung in Transitüberwachungsszenarien Physical Security Information Management (PSIM)-Systeme sind eine neue Einführung in die Überwachung kritischer Infrastrukturen, wie sie für den Massenverkehr verwendet werden. In diesen Systemen sind verschiedene Sensoren als separate Ereigniserkennungsgeräte integriert, von denen jeder unabhängige Alarme generiert. Um die Rate von Fehlalarmen zu senken und Überwachungspersonal ein besseres Situationsbewusstsein zu bieten, haben wir ein Framework – nämlich DETECT – entwickelt, um Informationen von mehreren heterogenen Sensoren zu korrelieren. DETECT verwendet Erkennungsmodelle basierend auf (erweiterten) Ereignisbäumen, um Warnungen auf höherer Ebene zu generieren, wenn ein bekanntes Bedrohungsszenario erkannt wird. In diesem Beitrag erweitern wir DETECT um die Annahme probabilistischer Modelle zur Bewertung der Vertrauenswürdigkeit der Bedrohungserkennung in Referenzszenarien. Der Ansatz ermöglicht auch eine quantitative Bewertung der Modellempfindlichkeit gegenüber Sensorfehlern. Die Ergebnisse einer Fallstudie im Bereich des Verkehrswesens demonstrieren den zu erwartenden Vertrauenszuwachs, wenn probabilistisch charakterisierte Szenarien zur Bedrohungserkennung anstelle von Einzelsensoralarmen verwendet werden. Darüber hinaus zeigen wir, wie eine Modellanalyse zur Entwurfszeit dazu dienen kann, Entscheidungen über den Typ und die Redundanz von Detektoren zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40588-4_31 ca5aa0e7c92c697848e012630f0a83e1;de;;;1.1.;;;Muss Kognition gegenständlich sein? In verschiedenen Kontexten und aus verschiedenen Gründen definieren Autoren kognitive Prozesse und Architekturen oft als solche, die gegenständliche Zustände und Strukturen beinhalten. In ähnlicher Weise werden auch kognitive Theorien oft als solche bezeichnet, die sich auf Repräsentationen berufen. In diesem Beitrag präsentiere ich mehrere Gründe für die Ablehnung dieser Art der Abgrenzung des Kognitiven. Einige der Gründe, die dagegen sprechen, Kognition in gegenständlichen Begriffen zu definieren, sind, dass dies unsere Theoriebildung unnötig einschränkt, den empirischen Status der repräsentationalen Theorie des Geistes untergräbt und wild deflationäre und erklärlich leere Vorstellungen von Repräsentation fördert. Nachdem ich diese Sichtweise kritisiert habe, skizziere ich alternative Wege, wie wir versuchen könnten, das Besondere an Kognition und kognitiver Theoriebildung zu erfassen.;-;-;-;https://link.springer.com/article/10.1007/s11229-014-0644-6 d1d3a51e3c2f0833dad80cc0dbd7fb75;de;;;1.3.;;;Durch die Betonung der Praxis des Lehrens, um den Wert der grundständigen Ausbildung auf der Grundlage moderner Webressourcen widerzuspiegeln Mit dem Rückgang der Qualität der grundständigen Ausbildung und dem enormen Beschäftigungsdruck von Studierenden wurde der Wert der grundständigen Ausbildung in China in letzter Zeit in Frage gestellt. Eine der effektivsten Methoden zur Lösung des Problems in kürzester Zeit ist die Stärkung des Praxisunterrichts. Je früher und umso mehr der Praxisunterricht könnte der Lehrwirkung des theoretischen Wissens zugute kommen und gleichzeitig der Beschäftigungsdruck abgebaut werden. Außerdem könnte die umfassende Qualität junger Lehrer verbessert werden. Lediglich die Praxislehre wurde von den Fakultätsmitgliedern und der Verwaltung des Colleges stark betont und von den Studierenden eigenverantwortlich gefordert, der Wert der grundständigen Ausbildung konnte widergespiegelt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23345-6_33 b506828509c4eee89fefe5e3300acbcb;de;;;1.3.;;;Diskutieren Sie über das THOEL-Lernsystem, das auf das Lehrdesign in der Hochschulbildung angewendet wird Das Thoel-Lernsystem unterstützt eine Vielzahl von Lehrmethoden und bietet eine hochwertige Lernumgebung für das selbstgesteuerte, kooperative und individuelle Lernen der Lernenden. In der Arbeit werden Lernziele, Lerninhalte, Lernstrategie, Lernevaluation und interaktives Lernsystem in Anlehnung an das THOEL-Lernsystem konkret aufgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24010-2_3 2f93314845b9b36b82cde202412687c1;de;;;1.3.;;;Drei grundlegende Produktivitätskonzepte: Prinzipien und Messung Die Literatur zur Produktivität widmet einer Reihe von Messproblemen und Unterscheidungen wie der zwischen Arbeitsproduktivität und totaler Faktorproduktivität beträchtliche und verdiente Aufmerksamkeit. Einige der grundlegenden Definitionsfragen, die implizit in vielen Diskussionen auftauchen, scheinen jedoch nicht in dem Maße untersucht worden zu sein, wie sie es verdienen. In diesem Beitrag stellen wir drei verschiedene Grundkonzepte von Produktivität gegenüber, diskutieren die Unterschiede in ihrer Interpretation und Bedeutung und zeigen dann empirisch, dass die Verwendung unterschiedlicher Produktivitätsbegriffe zu großen Unterschieden in der Messung des Produktivitätswachstums führen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-08633-7_22 1348064f43649b50a77da89163f9f0a9;de;;;1.3.;;;Wirksamkeit einer von einem Physiotherapeuten durchgeführten kognitiven Verhaltensaufklärung für Patienten, die sich einer Operation zur Knieendoprothetik unterziehen: ein Protokoll einer randomisierten kontrollierten Studie Die totale Kniearthroplastik (TKA) ist ein häufiges und im Allgemeinen wirksames Verfahren, das hauptsächlich aufgrund von fortgeschrittener Arthrose, Schmerzen, körperlicher Behinderung und eingeschränkter Lebensqualität durchgeführt wird. Ungefähr 20 % der Patienten sprechen jedoch schlecht auf die Operation an und chronische Schmerzen und Behinderungen nach TKA bleiben für viele Patienten eine große gesundheitliche Belastung. Zu den am besten dokumentierten und stärksten psychologischen Prädiktoren für ein schlechtes Ergebnis nach TKA gehört die Schmerzkatastrophisierung. Neuere Forschungen haben gezeigt, dass Patienten mit diesen Gedanken ein höheres Risiko für anhaltende Schmerzen und eine geringere körperliche Funktionsfähigkeit nach der Operation haben als Patienten mit geringer Schmerzkatastrophierung vor TKA. Es besteht ein hoher Bedarf an der Entwicklung von Behandlungsmethoden zur Verbesserung des Selbstmanagements für diese Patientengruppe TKA.;-;-;-;https://link.springer.com/article/10.1186/s12891-017-1476-6 c76d319292994f2d80e6d434df114adf;de;;;1.3.;;;Verschärft Preisstabilität die Arbeitsmarktrigiditäten in der EWU? Wie wird sich das Engagement für Preisstabilität auf die Arbeitsmarktrigiditäten in der Europäischen Währungsunion auswirken? Ich untersuche ein Modell, bei dem Unternehmen zwischen festen Lohnverträgen (bei denen der Arbeitgeber den Arbeitnehmer nicht entlassen kann und der Lohn nur im gegenseitigen Einvernehmen geändert werden kann) oder Verträgen mit freier Beschäftigung wählen, sodass jede Partei das Arbeitsverhältnis (mit starke Ähnlichkeiten mit Zeitarbeitsplätzen). Ein fester Tarifvertrag schafft bessere Anreize für Investitionen und Weiterbildung, während eine Beschäftigung nach Belieben eine effiziente Mobilität ermöglicht. Die Inflation schmälert im Laufe der Zeit den realen Wert eines festen Vertragslohns, und schlecht angepasste Arbeitnehmer kündigen eher für andere Jobs. Die Desinflation hat gegenläufige Auswirkungen auf die Arbeitsmarktrigidität: Festlohnverträge werden real starrer, aber weniger Unternehmen werden sich für Festlohnverträge entscheiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-4062-2_8 4520dccdf448e629a0515f30a60c7837;de;;;1.1.;;;Sprachintensität als Ausdruck von Macht in politischen Botschaften Politische Führer und andere Persönlichkeiten des öffentlichen Lebens verwenden intensive Sprache (spezifische oder emotionale lexikalische Elemente in einem Text), um Macht in der Gesellschaft auszuüben. Die Informationsverarbeitungstheorie wird verwendet, um die Wirkung der Sprachintensität auf die Themen-, Botschafts- und Quellenbewertung zu erklären. Diese Effekte werden durch die Untersuchung des Einflusses der Sprachintensität in George Bushs Botschaft der Feindseligkeiten demonstriert. Teilnehmer an der Studie (;-;-;-;https://link.springer.com/chapter/10.1057/9781137478382_10 6f07661497ef37fe038a84ad026a6a63;de;;;1.1.;;;Revisited Computation im Kontext der Kognitionswissenschaft In diesem letzten Kapitel schließen wir das Buch mit vier Thesen ab. Zunächst argumentieren wir in Abschnitt 8.1, dass im Verlauf nichttrivialer Berechnungen typischerweise nur;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41375-9_8 9795cf769a521d29b45c1761166191fc;de;;;1.1.;;;Clusteranalyse verhaltens- und ereignisbezogener Potenziale während eines kontingenten negativen Variationsparadigmas bei remittierend-rezidivierenden und benignen Formen der Multiplen Sklerose Ereignisbezogene Potenziale (ERPs) können als hochsensible Methode zur Erkennung von subtilen Graden kognitiver Dysfunktion verwendet werden. Andererseits wird die Beeinträchtigung kognitiver Fähigkeiten zunehmend als Kennzeichen von Patienten mit Multipler Sklerose (MS) erkannt. Wir versuchten, das psychophysiologische Muster der Informationsverarbeitung bei MS-Patienten mit der schubförmig-remittierenden Form der Krankheit und geringer körperlicher Behinderung zu bestimmen, die als zwei Untertypen betrachtet werden: „typische schubförmig-remittierend“ (RRMS) und „benigne MS“ (BMS). Darüber hinaus haben wir unsere Daten einer Clusteranalyse unterzogen, um festzustellen, ob sich MS-Patienten und gesunde Kontrollpersonen in ihrem psychophysiologischen Profil unterscheiden lassen.;-;-;-;https://link.springer.com/article/10.1186/1471-2377-11-64 9d1e61000587683e3037ba7111f49fb9;de;;;1.3.;;;Deterministischer Abhängigkeitsstrukturanalysator für Chinesisch Wir präsentieren eine Methode der Abhängigkeitsstrukturanalyse für Chinesisch. Die Methode ist eine Variante von Yamadas Arbeit (Yamada, 2003), die ursprünglich für die englische Analyse vorgeschlagen wurde. Unser Bottom-Up-Parsing-Algorithmus konstruiert deterministisch eine Abhängigkeitsstruktur für einen Eingabesatz. Support Vector Machines (SVMs) werden verwendet, um die Wortabhängigkeitsbeziehungen zu bestimmen. Experimentelle Auswertungen des CKIP-Korpus zeigen, dass die Methode auf chinesischen Dokumenten in mehreren Bereichen recht genau ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30211-7_53 952b88ca25ab4611a912fa743709c1cf;de;;;1.3.;;;Progressives Widerstandstraining und Krebstestis (PROTRACT) - Wirksamkeit von Widerstandstraining auf Muskelfunktion, Morphologie und Entzündungsprofil bei Hodenkrebspatienten, die sich einer Chemotherapie unterziehen: Design einer randomisierten kontrollierten Studie Die Standardbehandlung für Patienten mit disseminierten Keimzelltumoren ist eine Kombinationschemotherapie mit Bleomycin, Etoposid und Cisplatin (BEP). Diese Behandlung ist hochwirksam, jedoch treten bei der Mehrheit der Patienten während der Behandlung schwere Nebenwirkungen auf und es besteht das Risiko, eine beträchtliche langfristige Morbidität zu entwickeln, einschließlich sekundärer bösartiger Neubildungen, Herz-Kreislauf-Erkrankungen und Lungentoxizität. Eine vernachlässigte Nebenwirkung ist die von vielen Patienten mit Hodenkrebs genannte erhebliche Muskelermüdung sowohl während als auch nach der Behandlung. Über die pathophysiologischen Wirkungen antineoplastischer Mittel auf die Skelettmuskulatur liegen nur sehr begrenzte Informationen vor. Das primäre Ziel dieser Studie ist es, die Auswirkungen einer BEP-Behandlung auf die Skelettmuskulatur bei Hodenkrebspatienten zu untersuchen und zu untersuchen, ob der erwartete behandlungsinduzierte Muskelabbau durch hochintensives progressives Widerstandstraining (HIPRT) abgeschwächt oder sogar umgekehrt werden kann .;-;-;-;https://link.springer.com/article/10.1186/1471-2407-11-326 6b65da171ea8685dc23df68d434e3f0a;de;;;1.1.;;;Die Rolle von Idealismus und Relativismus als Dispositionsmerkmale im sozialverantwortlichen Entscheidungsprozess In dieser Studie wurde untersucht, wie sich Entscheidungsträger in der Verarbeitung ihres organisatorischen Umfelds (Peers und organisatorische Kontrollsysteme) in Abhängigkeit von ihrem Idealismus und Relativismus unterscheiden. Mit Fokus auf Fragen des sozial verantwortlichen Einkaufens/Sourcings wurden die Antworten von Einkaufs-/Sourcing-Experten von US-amerikanischen Bekleidungs- und Schuhunternehmen mithilfe einer Reihe von Regressionsanalysen analysiert. Die Ergebnisse unterstützten im Allgemeinen die These, dass die Grade von Idealismus und Relativismus die Beteiligungsniveaus bestimmen, die wiederum zu unterschiedlichen Reaktionen auf das organisatorische Umfeld und entsprechende Mengen an Informationsverarbeitung führen. Hoch idealistische (relativistische) Individuen wurden nur von idealistischen (relativistischen) Signalen der organisatorischen Umgebung beeinflusst. Weitere Analysen zeigten, dass sehr idealistische und relativistische Personen das Organisationsumfeld eher im Hinblick auf seine geschäftlichen Vorzüge bewerten. Die Ergebnisse legen nahe, dass Unternehmen sorgfältig planen müssen, wie sie ihren Mitarbeitern die zugrunde liegenden Bedeutungen organisatorischer Initiativen vermitteln, da sie wissen, dass Personen mit starken ethischen Ansichten nur auf das reagieren, was sie glauben und dessen Wert für das Geschäft herausarbeiten. Weitere theoretische und praktische Implikationen und Anregungen werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s10551-004-3239-1 220bd084b613790616a2890deca7a7c0;de;;;1.1.;;;Abfragen der Bilddatenbank nach Videoinhalten In dieser Studie wird ein inhaltsbasiertes Bildabrufsystem vorgeschlagen, das eine Bildsequenz als Abfrage verwendet. Das vorgeschlagene System wird auf eine Fischdatenbank in Taiwan angewendet, die vom Institut für Zoologie der Academia Sinica gesammelt wird. Der Hauptbeitrag dieser Studie ist dreifach: (1) Das vorgeschlagene Abfrage-durch-Bild-Sequenz-Schema kann die Probleme beseitigen, die durch nicht-starre Fischbewegungen, ernsthafte Deformationen und partielle Okklusionen verursacht werden. (2) Bei herkömmlichen Abfrage-nach-einem-Beispiel-Schemata können Abfragen mit unterschiedlichen Abbildungsbedingungen völlig unterschiedliche Abrufergebnisse erzeugen, aber das vorgeschlagene Abfrageschema kann unterschiedliche Abbildungsbedingungen überwinden. (3) Das vorgeschlagene Fischdarstellungsschema ist invariant gegenüber Translation, Skalierung und Rotation. Experimentelle Ergebnisse haben die Wirksamkeit des vorgeschlagenen Systems bewiesen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36228-2_21 1b2ef63d105c161588e3d5401af28620;de;;;1.1.;;;Ein kognitives Modell des musikalischen Sichtlesens Der Autor, ein professioneller Flötist und Psychologe, interviewte vier Pianisten, die für ihre Fähigkeiten des Blattlesens bekannt sind. Die Ergebnisse der Interviews werden unter mehreren Gesichtspunkten betrachtet. Als Problem der Mustererkennung wird das Blattlesen analysiert: Ein Satz aus einer Händel-Sonate wird verwendet, um das Prinzip des Scannens nach bekannten Mustern zu veranschaulichen. Auch die enge Beziehung zwischen dem musikalischen Blattlesen und der Lektüre konventioneller Texte wird suggeriert. Schließlich wird, aufbauend auf den Ergebnissen anderer Studien, ein kognitives Modell des musikalischen Sichtlesens vorgeschlagen. Das schematische Modell ineinandergreifender informationsverarbeitender Systeme erklärt die Unterschiede zwischen erfahrenen und ungelernten Blattlesegeräten und erklärt auch, warum einige erfahrene Berufsmusiker schlechte Blattlesegeräte sind. Die Verifizierung des Modells erfolgt in einem zusätzlichen Abschnitt, in dem über Gespräche mit ungelernten Blattlesern berichtet wird.;-;-;-;https://link.springer.com/article/10.1007/BF01067255 c4b6121ef7a9ec8360ab48978ea7d5a8;de;;;1.3.;;;Bioaerosole in der Deponieumgebung: ein Überblick über die mikrobielle Vielfalt und potenzielle Gesundheitsgefahren Die Deponierung ist in verschiedenen Ländern einer der unverzichtbaren Bestandteile der Abfallwirtschaft. Feste Abfälle, die auf Deponien entsorgt werden, liefern Nährstoffe für die Vermehrung pathogener Mikroben, die aufgrund der lokalen Meteorologie und verschiedener Abfallentsorgungsaktivitäten in die Atmosphäre aerosoliert werden. Bioaerosole, die von Deponien freigesetzt werden, können gesundheitliche Probleme für Mitarbeiter und die angrenzende Öffentlichkeit verursachen. Die vorliegende Studie bietet einen Überblick über die mikrobielle Diversität, die in Luftproben von verschiedenen Deponien weltweit gemeldet wird. In diesem Papier werden auch andere Aspekte erörtert, einschließlich der Auswirkungen meteorologischer Bedingungen auf die Bioaerosolkonzentrationen, Probenahmetechniken, Bioaerosolexposition und potenzielle gesundheitliche Auswirkungen. Die Literaturanalyse ergab, dass die Deponieluft von mikrobiellem Staub oder verschiedenen pathogenen Mikroben wie . dominiert wird;-;-;-;https://link.springer.com/article/10.1007/s10453-021-09693-9 cd063774fdddf8c285bc6f8e3dd2e528;de;;;1.1.;;;Sicherheitsmanagement für die Instandhaltung von Fluggeräten basierend auf der Technologie von IOT Der Beitrag erforscht und analysiert das Internet der Dinge und das Sicherheitsmanagement für die Wartung von Flugausrüstungen. Es bietet spezifische Maßnahmen für das Sicherheitsmanagement für die Wartung von Luftfahrtausrüstungen unter Anwendung der Internet-of-Things-Technologie. Dieses Papier hat eine wichtige Bedeutung bei der Beschleunigung des Informationsprozesses des Sicherheitsmanagements für die Instandhaltung von Luftfahrtausrüstung und der Verbesserung der Managementeffizienz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38433-2_124 b541c4f6a0a914de26e6ecd2145e2cad;de;;;1.1.;;;Spezifikation von Informationsfluss-Sicherheitsrichtlinien im modellbasierten Systems Engineering Model-based Systems Engineering bietet einen multidisziplinären Ansatz zur Entwicklung von Cyber-Physical Systems. Sicherheit ist aufgrund ihres hohen Vernetzungsgrades ein Schlüsselfaktor für Cyber-Physical Systems und muss zu Beginn der Entwicklung vorgeladen werden. Allerdings fehlt es an modellbasierten Systems Engineering-Ansätzen, die eine frühzeitige Spezifikation von Sicherheitsrichtlinien ermöglichen. Dies hat zur Folge, dass Sicherheitsanforderungen häufig unspezifiziert bleiben und daher in den nachgelagerten Entwicklungsphasen nur schwer erfüllt werden können. In diesem Beitrag schlagen wir vor, modellbasiertes Systems Engineering mit der Theorie der Informationsflusssicherheit zu integrieren. Wir erweitern Systems-Engineering-Modelle auf Informationsfluss-Richtlinien, die es Systemingenieuren ermöglichen, die Informationsfluss-Sicherheitsanforderungen eines in Entwicklung befindlichen Systems zu spezifizieren. Durch die Verfeinerung der resultierenden Modelle ermöglicht unser Ansatz die Ableitung von Sicherheitsanforderungen für einzelne Softwarekomponenten. Wir veranschaulichen unseren Ansatz anhand eines modellbasierten Entwurfs eines autonomen Autos.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-04771-9_47 b7d63100e18dc72de2fdf298e07fb359;de;;;1.3.;;;Eine Kombination von Stichproben- und Feature-Subsets in Eins-gegen-anderen-Klassifikatoren Wir untersuchten einen „sample-feature-subset“-Ansatz, der eine Art Erweiterung des Bagging und der Random-Subspace-Methode ist. In diesem Verfahren sammeln wir einige Teilmengen von Trainingsbeispielen in jeder Klasse und entfernen dann die redundanten Merkmale aus diesen Teilmengen. Als Ergebnis werden diese Teilmengen in verschiedenen Merkmalsräumen dargestellt. Wir konstruierten Eins-gegen-andere-Klassifikatoren als Komponenten-Klassifikatoren, indem wir diese Teilmengen einem Basisklassifikator zuführten und sie dann in Mehrheitsentscheidungen kombinierten. Einige experimentelle Ergebnisse zeigten, dass dieser Ansatz die Random-Subspace-Methode übertraf.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72523-7_25 9b2fd5c48eb6c79e06bd6e10c63eeca0;de;;;1.3.;;;Elektrifizierung ländlicher Grundschulen durch Photovoltaik in Tunesien Da die durchschnittlichen Kosten für den Anschluss der ländlichen Verbraucher an das öffentliche Stromnetz gestiegen sind, hielt es die tunesische Regierung für sinnvoll, die Möglichkeiten zur Einführung erneuerbarer Energiequellen als ergänzende Lösung zur Durchführung ländlicher Elektrifizierungsprogramme zu untersuchen, insbesondere die Photovoltaik mehrere soziale und technische Vorteile. Darüber hinaus können auch verstreute Einzelnutzer in abgelegenen ländlichen Gebieten wirtschaftlich versorgt werden, insbesondere wenn der Bedarf an elektrischer Energie gering ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-3622-8_300 2abca25832388968119d9ee12b6e9bb5;de;;;1.1.;;;Variationen des intrazellulären pH-Werts in humanen Erythrozyten über K Die Veränderung des intrazellulären pH-Wertes von Erythrozyten unter verschiedenen experimentellen Bedingungen wurde mit dem pH-sensitiven Fluoreszenzfarbstoff BCECF untersucht und mit (Ouabain + Bumetanid + EGTA)-insensitivem K . korreliert;-;-;-;https://link.springer.com/article/10.1007/s00232001089 abba61855d2823c807ecbc69c5d3af67;de;;;1.1.;;;Quasi-kanonische Beweissysteme erster Ordnung Quasikanonische Systeme vom Gentzen-Typ mit Dual-Arity-Quantoren sind eine breite Klasse von Beweissystemen. Mit Hilfe der vierwertigen nichtdeterministischen Semantik zeigen wir, dass jedes System dieser Klasse starke Schnitteliminierung zulässt, wenn es ein bestimmtes syntaktisches Kohärenzkriterium erfüllt. Als konkrete Anwendung wird dieses Ergebnis auf das Framework der Existential Information Processing (EIP) übertragen, um es von seiner aktuellen propositionalen Ebene auf die erste Stufe zu erweitern – ein Schritt, der für die Nützlichkeit des Umgangs mit eingehenden Informationen entscheidend ist aus verschiedenen Quellen (die widersprüchliche oder unvollständige Informationen liefern können).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29026-9_5 806144b9d18cea5d73d7bc8c6eee9863;de;;;1.1.;;;Projektorganisation Struktur- und Entwurfskoordination in Architektur- und Ingenieurentwurfsprojekten: Eine erweiterte strukturelle Kontingenzperspektive Peter Morris macht auf das Front-End im Bauprojekt aufmerksam. Die Entwurfsphase ist ein wichtiger Teil im Front-End des Bauprojekts. Aufgrund mangelnder Koordination zwischen verschiedenen Fachleuten in der Entwurfsphase führt die Informationsinkonsistenz (z. B. Kollision) zwischen verschiedenen Disziplinen (z. B. Architektur, Hochbau) zu Verzögerungen und Kostenüberschreitungen in der Bauphase. Es geht um die Gestaltung der Projektorganisationsstruktur im Designteam, um die Leistung der Designkoordination zu verbessern. Die strukturelle Kontingenztheorie argumentiert, dass es keine beste Organisationsstruktur gibt. Die Auswirkung der Organisationsstruktur auf die Leistung hängt von der Aufgabenunsicherheit ab. Die Organisationsstruktur reagiert jedoch nicht sensibel auf Eventualveränderungen. Aber Projektorganisationsstruktur, da eine temporäre Organisationsstruktur viel einfacher angepasst werden kann. Koordination ist eine informationsverarbeitende Aktivität zur Bewältigung von Aufgabenunsicherheiten. Es wird postuliert, dass die Projektorganisationsstruktur die Projektleistung beeinflusst, indem sie die Informationsverarbeitung erleichtert oder verbietet, um die Unsicherheit der Aufgaben zu reduzieren. Unter Einbeziehung der Struktur-Verhaltens-Performance-Perspektive in die traditionelle strukturelle Kontingenztheorie wird ein fortgeschrittener struktureller Kontingenzrahmen entwickelt, um die Beziehung zwischen der Projektorganisationsstruktur und der Projektleistung zu untersuchen. Es wird postuliert, dass, wenn sich die Aufgabenunsicherheit ändert, die Leistung wiederhergestellt wird, indem das Verhalten der Organisationsstruktur an neue Informationsverarbeitungsanforderungen angepasst wird. Eine Fallstudie wird durchgeführt, um das Framework zu testen. Das erweiterte Framework hilft zu verstehen, wie sich die Projektorganisationsstruktur aus einer systematischeren und prozessualen Sicht auf die Projektleistung auswirkt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0855-9_91 1cd32eb52d80db5a9ee974dde147707e;de;;;1.1.;;;Kürzeste Pfad- und Wortvektorbasierte Relationsdarstellung und Clustering Relationsdarstellung spielt eine wichtige Rolle beim Textverständnis. In diesem Artikel wurde im Gegensatz zu zuvor veröffentlichten überwachten Methoden oder halbüberwachten Methoden eine neue Methode der Relationsdarstellung und Clusterbildung basierend auf dem kürzesten Pfad und dem Wortvektor vorgeschlagen. Durch Akkumulieren des Wortvektors entlang des kürzesten Weges innerhalb des Abhängigkeitsbaums können wir nicht nur die wesentliche Darstellung der Relation erhalten, sondern die Relation auch gleichzeitig in den semantischen Raum abbilden. Daher könnte ein zuverlässiger Abstand zwischen zwei beliebigen Beziehungen gemessen werden. Darüber hinaus können weitere Anwendungen wie Relations-Clustering bequem durch direkte Analyse der Sammlung von Vektoren durchgeführt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-21042-1_66 c9771aa9bbf8fd7e04882e955e83b50b;de;;;1.1.;;;Wenn Tänzer ihre Schuhe gefressen haben: Induktives Denken mit sachlichen und kontrafaktischen Prämissen Dieses Experiment befasste sich mit der Wirkung von Vorinformation, die entweder vertraut oder neu und entweder relevant oder irrelevant sein kann, auf die Lösung von Problemen des induktiven Denkens. Sechzig Studenten absolvierten jeweils 216 verbale induktive Denkaufgaben und fünf psychometrische Leistungstests. Die Argumentationsprobleme wurden zu gleichen Teilen in Analogien, Klassifikationen und Reihenvervollständigungen aufgeteilt, wobei die Hälfte jeder Art von Item in einem Standardformat ohne Cue und die Hälfte mit einem Precue präsentiert wurde. In Bezug auf die interne Validierung wurde festgestellt, dass Probanden bei Analogien und Klassifikationen länger brauchen, um irrelevante als relevante Informationen zu verarbeiten, wenn die Vorraussetzung bekannt ist, aber sie brauchen länger, um relevante als irrelevante Informationen zu verarbeiten, wenn die Vorraussetzung neu ist. Für Serienvervollständigungen gilt diese Beziehung nicht, vielmehr verlängern sowohl Neuheit als auch Irrelevanz die Verarbeitung von Informationen, wobei die Zeit für Irrelevanz größer ist als für Neuheit. Die Nützlichkeit von Precues für verschiedene Aufgaben wurde untersucht, und es wurde festgestellt, dass bekannte relevante Precues die Lösung der schwierigeren Arten von Aufgaben (Klassifikationen und Serienvervollständigungen) erleichterten, aber die Lösung der einfacheren, automatischer gelösten Aufgaben (Analogien) erschwerten. In Bezug auf die externe Validierung wurde festgestellt, dass sich die nicht verankerten Induktionsaufgaben mit psychometrischen Tests in Bezug auf die gemessenen Fähigkeiten überlappten, dass die gemessenen Fähigkeiten eher flüssig als kristallisiert waren und dass die vorgefertigten (mehr nicht verankerten) Items bessere Maße für flüssige Fähigkeiten waren als waren die uncued Elemente.;-;-;-;https://link.springer.com/article/10.3758/BF03199551 fc1e2f593242478085d1b97dc097a722;de;;;1.1.;;;Stärkung der Führung: mitarbeiterbezogene Vorgeschichte und Konsequenzen Wir entwickeln ein theoretisches Modell zur Stärkung der Führung, das rollenbasierte Ansichten von Followership und die Theorie der sozialen Informationsverarbeitung integriert und der Forschung zur Stärkung der Führung eine wechselseitige Komponente hinzufügt. Unser theoretisches Modell schlägt vor, dass die Aufgabenerfüllung der Mitarbeiter und die Qualität der Vorgesetzten-Angestellten-Beziehung als Hinweise dienen, die das Verhalten der Vorgesetzten zur Ermächtigung beeinflussen, die wiederum als Hinweise dienen, die die Stimme der Mitarbeiter durch den Fokus der Mitarbeiterförderung beeinflussen. Daten von 223 Vorgesetzten-Angestellten-Dyaden unterstützten unsere Hypothesen und zeigten, dass Vorgesetzte mit Mitarbeitern, die gute Leistungen erbringen und zu denen sie eine gute Beziehung haben, stärkeres Empowerment-Verhalten zeigen. Das Empowerment-Verhalten von Vorgesetzten löst bei Mitarbeitern einen staatlichen Förderungsfokus aus, der diese Mitarbeiter dazu anregt, ihre Bedenken, Ideen und Meinungen zu äußern, um die Funktionsweise des Mitarbeiters, des Teams oder der Organisation zu verbessern.;-;-;-;https://link.springer.com/article/10.1007/s10490-020-09734-w c4b1eec99e4da84f481f75e64c6c5510;de;;;1.1.;;;Von TAM abgeleitetes Konstrukt des wahrgenommenen Kundenwerts und des Online-Kaufverhaltens: Eine empirische Untersuchung Explo Das Technology Acceptance Model (TAM) wurde ursprünglich als einfaches Modell entwickelt, um spezifisches Technologieverhalten in Informationssystemen zu erklären. In den letzten 18 Jahren wurde das TAM aufgrund seiner Popularität um verschiedene kontextspezifische Konstrukte erweitert, um Phänomene in E-Commerce, E-Learning, E-Banking und drahtlosen Technologien neben Informationssystemen zu erklären. Diese Studie versucht im Kontext des E-Commerce, genauer gesagt des Online-Kaufverhaltens, eine Kohorte bestehender Konstrukte unter Verwendung der aufkommenden Grundsätze der Customer Value-based Theory zu konsolidieren und die sparsamen Absichten von TAM wiederherzustellen. Insgesamt wurden 1730 Fragebögen von Internetnutzern gesammelt, die eine Kreditkarte besaßen. Die Befragten kamen aus allen Landeshauptstädten Malaysias, einschließlich Cyberjaya, der Smart City des Multimedia Super Corridor in Malaysia. Von 1730 Fragebögen bildeten 1440 die Stichprobe für die weitere Datenanalyse. Bivariate, partielle Korrelationen und schrittweise multiple Regression wurden in dieser Studie verwendet, um den Einfluss des Kundennutzens zu bestimmen. Die Ergebnisse haben gezeigt, dass der wahrgenommene Kundenwert eine wichtige Determinante des Online-Transaktionsverhaltens ist. Bei Vorhandensein des wahrgenommenen Kundenwerts ist nur die Verhaltensabsicht ein signifikanter Prädiktor für das Online-Kaufverhalten. Daher wird das kundenwertbasierte Modell vorgeschlagen, um eine sparsame Konzeptualisierung bei der Vorhersage der Verbraucherakzeptanz von E-Commerce-Transaktionen zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-39229-5_18 a1f908cf674044457a481080472af2b6;de;;;1.1.;;;Ladelastprognose für Elektrofahrzeuge basierend auf Fuzzy-Inferenz Die Integration von Elektrofahrzeugen (EVS) in großem Umfang wird aufgrund ihrer ungeordneten Ladung große Auswirkungen auf das Stromsystem haben. Die Ladelast von Elektroautos kann nicht als herkömmliche Stromlast prognostiziert werden, die normalerweise auf Basis von historischen Daten prognostiziert wird. Um die Zuverlässigkeit und Sicherheit des Netzes zu verbessern, bedarf es einiger anderer Methoden zur Vorhersage der Ladelast von Elektrofahrzeugen. Dieses Papier analysiert die Fahreigenschaften von Elektrofahrzeugen und emuliert dann mit dem Fuzzy-Inferenz-System den Prozess der Fahrerentscheidung, ihr Auto zu laden, wobei die Ladewahrscheinlichkeit am gegebenen Ort erreicht wird. Schließlich kann anhand der in Peking prognostizierten Anzahl von Elektrofahrzeugen das Tagesprofil der Ladelast vorhergesagt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45643-9_62 f6902ebadad7b9bc69d975fe4ca5aade;de;;;1.1.;;;Verhalten virtueller Menschen: Einzelpersonen, Gruppen und Massen In diesem Kapitel versuchen wir zunächst herauszufinden, welche Mechanismen simuliert werden sollten, um wirklich virtuelle Menschen oder Akteure zu implementieren. Wir gehen von einer Struktur aus, die Wahrnehmung, Emotion, Verhalten und Handlung verbindet. Dann betonen wir das zentrale Konzept der Autonomie und führen das Konzept der Autonomieebenen ein. Schließlich schlagen wir eine neue Abstraktion für die Spezifikation von Verhalten in komplexen virtuellen Umgebungssimulationen vor, die menschliche Agenten, Agentengruppen und interaktive Objekte mit unterschiedlichen Autonomiegraden umfassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-3646-0_18 6b4c85fec0eb90d02ed21de549020fba;de;;;1.1.;;;Absolut, positiv die Stimme des Kunden hören: Untersuchung der Overnight Delivery in der Umfrageforschung In letzter Zeit haben Vermarkter ihre Forschungsbudgets erhöht und viele Methoden verwendet, um die „Stimme des Kunden“ zu erfassen. Doch Umfragen, die regelmäßig in der Marktforschung eingesetzt werden, sind trotz der Bemühungen, diese zu reduzieren, immer noch von Nichtbeantwortungsquoten geprägt. Wir untersuchen Overnight Delivery (OD) als Erhebungsmethode zur Reduzierung von Antwortausfällen. Auch der Vorkontakt, eine häufig verwendete Umfragepraxis, wird in Betracht gezogen. Es ergeben sich drei Hauptergebnisse: (1) insgesamt erhöht OD die Reaktionsraten, aber verlängert die Reaktionszeiten, (2) in ähnlicher Weise erhöht der Vorkontakt die Reaktionszeiten, obwohl er zu längeren Reaktionszeiten führt, und (3) OD in Kombination mit dem Vorkontakt bietet die größte Rate von Antwort.;-;-;-;https://link.springer.com/article/10.1023/A%3A1009895732670 a9c03f7bef79b496db69e66d2e8b8632;de;;;1.1.;;;Aufmerksamkeitsstörungen im Zusammenhang mit neurologischen Erkrankungen Aufmerksamkeitsstörungen gehören zu den häufigsten Manifestationen neurologischer Erkrankungen und anderer medizinischer Erkrankungen, die das Gehirn betreffen. Eine Studie mit Patienten mit peripherer Gefäßerkrankung, transitorischen ischämischen Attacken und „stillem“ Schlaganfall ergab beispielsweise, dass 25 % der Patienten bei den Aufmerksamkeitsmaßen unter die fünfte Kachel fielen [1]. Dennoch haben diese Störungen in der neuropsychologischen Forschungsliteratur typischerweise weniger Gewicht erhalten als andere kognitive Syndrome. Dafür gibt es mehrere wahrscheinliche Erklärungen: (1) Aufmerksamkeitsstörungen können nicht auf eine bestimmte Hirnstruktur lokalisiert werden, sondern können sekundär durch Schädigungen verschiedener Hirnregionen entstehen. (2) Historisch war es schwieriger, Aufmerksamkeit zu messen als andere kognitive Funktionen wie Gedächtnis, visuelle Wahrnehmung, Sprache oder motorische Kontrolle. (3) Es besteht die Tendenz, Aufmerksamkeitsprobleme anhand der Leistung bei einem einzelnen Aufgabentyp zu charakterisieren, wie z. (4) Aufmerksamkeitsprobleme werden eher als Manifestation unzureichender Anstrengung oder Motivation abgetan denn als Folge einer Funktionsstörung des Gehirns. (5) Aufmerksamkeitsbeschwerden und -störungen sind bei Menschen mit neurologischen und anderen Erkrankungen so weit verbreitet, dass sie leicht übersehen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-72639-7_15 fdc9873d1bf42d72a1396c65262a3458;de;;;1.1.;;;Vorhersage unvollständiger Daten auf Basis einer nicht symmetrischen Ähnlichkeitsbeziehung Die grobe Mengenlehre war als Werkzeug für ungenaue und inkonsistente Informationssysteme gedacht. Unvollständige Informationen können auch als Sonderfall von ungenauen Informationen angesehen werden. Da die Grobmengentheorie die Vollständigkeit aller Attribute des Eingabevektors voraussetzt, wurden viele Modifikationen dieser Theorie entwickelt, die beschreiben, wie die unvollständigen Daten verwendet werden. In diesem Artikel werden die grundlegenden Ansätze vorgestellt: Toleranzrelation und asymmetrische Ähnlichkeitsrelation. Außerdem wurde ein neues Verfahren zum Ergänzen einiger unvollständiger Objekte aus einer Informationstabelle vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-73137-7_8 dcc40157f21a85a91268f4694d8ae27d;de;;;1.1.;;;Bayessche Berichte über verdeckte selektive Aufmerksamkeit: Eine Tutorial-Rezension Entscheidungsfindungs- und optimale Beobachtermodelle bieten einen wichtigen theoretischen Ansatz zur Untersuchung verdeckter selektiver Aufmerksamkeit. Während ihre probabilistische Formulierung einen quantitativen Vergleich mit der menschlichen Leistung ermöglicht, können die Modelle komplex sein und ihre Erkenntnisse sind nicht immer sofort ersichtlich. Teil 1 begründet die theoretische Attraktivität des Bayes'schen Ansatzes und stellt vor, wie probabilistische Ansätze auf verdeckte Suchparadigmen angewendet werden können. Teil 2 präsentiert neuartige Formulierungen von Bayes-Modellen von 4 wichtigen Paradigmen der verdeckten Aufmerksamkeit und veranschaulicht optimale Beobachtervorhersagen über eine Reihe experimenteller Manipulationen. Die grafische Modellnotation wird verwendet, um Modelle zugänglich zu präsentieren, und ergänzender Code wird bereitgestellt, um die Lücke zwischen Modelltheorie und praktischer Implementierung zu schließen. Teil 3 gibt einen umfassenden Überblick über empirische und modellierende Beweise, die zeigen, dass viele experimentelle Phänomene im Bereich der verdeckten selektiven Aufmerksamkeit eine Reihe von Nebenprodukten sind. Diese Effekte entstehen als Ergebnis von Beobachtern, die Bayes'sche Inferenz mit verrauschten sensorischen Beobachtungen, vorherigen Erwartungen und Kenntnissen der generativen Struktur der Reizumgebung durchführen.;-;-;-;https://link.springer.com/article/10.3758/s13414-014-0830-0 02b7caa5609ebb162163e5f0b8d8e731;de;;;1.1.;;;Gedächtnisbewertung und -heilung bei hirnverletzten Patienten In diesem Kapitel wird ein Ansatz zur Erfassung von Gedächtnisdefiziten und die anschließende Anwendung kognitiver Strategien/mnemonischer Techniken zur Behebung dieser Defizite beschrieben. Wir werden uns in erster Linie mit den amnesischen Defiziten bei hirngeschädigten Patienten beschäftigen. Amnesie kann grob als die Unfähigkeit definiert werden, Informationen abzurufen, die einmal verstanden und/oder gelernt wurden. Wie weiter unten gezeigt wird, gibt es zahlreiche Arten von „amnesischen Defiziten“, abhängig vom Ort der Verletzung und wiederum von den sensorischen Modalitäten und kognitiven Prozessen, die durch die beteiligten neuronalen Systeme repräsentiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-9392-5_5 394116b92c7c5c861eecbcc7391d4973;de;;;1.1.;;;Semantik algorithmischer Sprachen Dies ist ein Überblick über Methoden zur Formalisierung der Semantik von Programmiersprachen (algorithmische Sprachen und Spezifikationssprachen). Hauptaugenmerk wird auf die logische Herangehensweise gelegt.;-;-;-;https://link.springer.com/article/10.1007/BF01101651 31dc1172c49a1b6d4e4ddbb309c8fc3a;de;;;1.1.;;;Singleton-Darstellung einer Fuzzy-Menge zur Berechnung der Fuzzy-Modellantwort für Fuzzy-Eingänge Das klassische Fuzzy-Modell berechnet eine scharfe Antwort für scharfe Eingaben. Dieses Papier stellt eine Methode zur Berechnung der Fuzzy-Modellantwort für Fuzzy-Eingaben vor. Das Verfahren basiert auf der Singleton-Darstellung eines Fuzzy-Satzes und ermöglicht es, eine Fuzzy-Antwort für Fuzzy-Eingaben zu erhalten. Die vorgestellte Methode wird mit alternativen Ansätzen verglichen: Zadehs possibilistische Methode und Methode basierend auf Ähnlichkeitsmaß. Die Validität der vorgeschlagenen Methode wird durch experimentelle Ergebnisse (im Vergleich zu den Ergebnissen des Extensionsprinzips) veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-73137-7_13 0743face2c346a0e3934c37977bc7cba;de;;;1.1.;;;Der Diskurs schizophrener Sprecher: Eine Diskussion In Kapitel 1 haben wir vorgeschlagen, dass die Diagnose einer Denkstörung eine doppelte Schlussfolgerung beinhaltet. Der Kliniker geht von einer persönlichen Verwirrungserfahrung aus, um zu folgern, dass der Patient verwirrt ist. Die Schlussfolgerung wird gemacht, um die Erfahrung des Hörers zu berücksichtigen. Aus der Schlussfolgerung, dass die Sprache des Patienten verwirrend ist, leitet der Kliniker als nächstes ab, dass die Gedanken des Patienten verwirrt sein müssen. Diese Schlussfolgerung ist ein Versuch, das Verhalten des Sprechers zu erklären.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-9119-1_7 c09c54e5cd94199ec7bc4709b9d34240;de;;;1.1.;;;Der warme Blick in Kontrollmotivation und soziale Kognition Mit großer Freude und etwas Stolz schreibe ich dieses letzte Kapitel für den vorliegenden Band. Tory Higgins und ich haben bereits in den frühen 1980er Jahren erkannt, dass unsere jeweiligen Bereiche, soziale Kognition und soziale Motivation, einander viel zu bieten haben. Dennoch sprachen die Leute in diesen Bereichen kaum miteinander, geschweige denn, die Ideen des anderen zu integrieren (siehe Sorrentino & Higgins, 1986a). Wir erkannten, dass eine Erneuerung der Beziehung zwischen den beiden Bereichen längst überfällig war. Schon früh glaubte man, dass Motivation und Kognition Hand in Hand gehen, von Lewins Feldtheorie in den 30er und 40er Jahren bis zu Bruners „New Look“ in den 50er Jahren. Dann, mit dem Aufkommen der Kognition als einer der wichtigsten Kräfte in der Psychologie, gepaart mit einer vernichtenden Kritik am „New Look“, gingen die beiden Bereiche getrennte Wege. Obwohl dies „wirklich keine verschwendete Zeit“ (The Eagles) war, da viel gelernt wurde, war das Feld offensichtlich bereit für ein Wiedersehen. Alles, was es brauchte, war ein kleiner Schubs oder ein wenig Prime.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-8309-3_11 53478f918aa81192f3a06ace5cdb6712;de;;;1.1.;;;Propagation von Individual Bias durch Gruppenurteil: Fehler in der Behandlung asymmetrisch informativer Signale Gruppenentscheidungen werden häufig in Jurys, Unternehmen und in der Politik verwendet, um die Informationsgrundlage für eine Entscheidung zu erhöhen und die Urteilsgenauigkeit zu verbessern. Neuere Arbeiten zur Verallgemeinerung des Jury-Theorems von Condercet liefern eine zwingende Rechtfertigung für diese Verwendung von Gruppen. Aber diese Theorien stützen sich auf ein Modell des Individuums als optimalen Bayes'schen Entscheidungsträger. Sammeln Gruppen effektiv Informationen, wenn die Individuen die fehlerhaften, nicht-bayesischen Entscheidungsträger sind, die tatsächlich handelnde Gruppen bevölkern? Wir untersuchen zunächst die Beweise dafür, dass Individuen unter bestimmten Bedingungen systematisch den Satz von Bayes verletzen. Wir berichten dann über zwei Experimente, die darauf abzielen, zu testen, ob Individuen Bayes'scher Argumentation folgen und ob Gruppen in der Lage sind, verzerrte individuelle Informationsverarbeitung zu überwinden. Die Experimente zeigen, dass unter bestimmten Bedingungen, mit extremen Wahrscheinlichkeiten und bei Signalen mit unterschiedlicher Diagnose, dass die individuelle Genauigkeit mit zunehmender Information tatsächlich abnimmt. Bei bestimmten Problemen aggregiert die Mehrheitsregel effektiv einzelne Informationen. Bei den schwierigsten Problemen kann die Mehrheitsregel die individuelle Voreingenommenheit nicht dämpfen. Die Implikationen dieser Ergebnisse für die Forschung zum individuellen und Gruppenurteil werden diskutiert.;-;-;-;https://link.springer.com/article/10.1023/A%3A1020643713354 3eccdd4436185cb5a43806bac12e07cb;de;;;1.1.;;;Informative Darstellungen von Wahrnehmung und Handlung: Skeptische Reflexionen Philosophen betrachten sich mangels detaillierter empirischer Kenntnisse als Spezialisten für die allgemeinsten Themen. Daher konzentrieren sich meine Überlegungen auf einige Schlüsselbegriffe und Schlüsselideen in diesem Band – auf Begriffe, die nicht explizit diskutiert und begründet werden, weil sie das Rückgrat vieler Arbeiten bilden und den theoretischen Rahmen definieren, mit dem sie arbeiten. Es gibt zwei Denkweisen, die Sie annehmen können, wenn Sie sich durch einen Band wie diesen arbeiten. Zunächst lässt man sich in die Herangehensweise, das Vokabular, die Leitannahmen, die Art der Fragen, den Argumentationsstil eintauchen. An all das gewöhnt man sich, und in diesem Sinne versteht man, was man liest. Später, in einer zweiten und dritten Runde, können Sie von allem einen Schritt zurücktreten und sich fragen, was Sie wirklich und wahrhaftig verstanden haben. Und in dieser zweiten, nüchternen Geisteshaltung werden Sie vielleicht feststellen, dass viele Dinge, die zunächst glatt und klar erschienen, verwirrend und zutiefst rätselhaft sind. Meine Kommentare sind aus dieser Art von Erfahrung entstanden. Je mehr ich über die Punkte nachdachte, die ich hier anspreche, desto skeptischer wurde ich. Schließlich entschied ich, dass ich am besten die Gründe für meine Verwirrung und Verwirrung beschreiben konnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-75348-0_13 5a4f897f609112eab98b378600ef8d2f;de;;;1.1.;;;Aufmerksamkeitsblinzeln und Impulsivität: Evidenz für eine höhere funktionelle Impulsivität bei Nicht-Blinkern im Vergleich zu Blinkern Das Aufmerksamkeitsblinzeln (AB) stellt eine grundlegende Grenze der Informationsverarbeitung dar. Etwa 5–10 % aller Probanden zeigen jedoch keinen AB. Aufgrund der niedrigen Basisrate dieser sogenannten Nicht-Blinker sind Studien zu den Mechanismen, die dem fehlenden AB von Nicht-Blinkern zugrunde liegen, äußerst spärlich. Die wenigen vorliegenden Studien fanden heraus, dass Nicht-Blinker im Vergleich zu Blinkern schneller und effizienter in der Informationsverarbeitung sind. Ein Persönlichkeitsmerkmal, das zuvor mit der Geschwindigkeit und Effizienz der Informationsverarbeitung sowie mit der Größe des AB in Verbindung gebracht wurde, ist Impulsivität. Daher wurde in der vorliegenden Studie untersucht, ob sich 15 Nicht-Blinker und 15 Blinker in funktioneller und/oder dysfunktionaler Impulsivität unterscheiden. Um ein besseres Verständnis der zugrunde liegenden Verarbeitungsmechanismen zu erhalten, wurde der P300-Anteil im ereignisbezogenen Potenzial während der Durchführung der AB-Aufgabe erfasst. Unsere Ergebnisse zeigten eine höhere funktionelle Impulsivität bei Nicht-Blinkern im Vergleich zu Blinkern, aber keine Unterschiede zwischen den beiden Gruppen bei der dysfunktionalen Impulsivität. Wie durch die kürzere P300-Latenzzeit angezeigt, verarbeiteten Nicht-Blinker Informationen nach der AB-Periode schneller als Blinker, aber während der AB-Periode langsamer. Diese Geschwindigkeitseffekte waren jedoch nicht mit funktioneller Impulsivität verbunden. Impulsivität und Geschwindigkeit der Informationsverarbeitung scheinen somit zwei ziemlich unabhängige Quellen für das fehlende AB von Nicht-Blinkern zu sein.;-;-;-;https://link.springer.com/article/10.1007/s10339-013-0553-5 389fade22505bb0dacb7bac888183b64;de;;;1.1.;;;Das obere und untere Gesichtsfeld des Menschen: Elektrophysiologische und funktionelle Unterschiede Grundlegende sensorische Funktionen hängen von physikalischen Reizeigenschaften, physiologischen Wahrnehmungsmechanismen, dem Zustand des Nervensystems zum Zeitpunkt der Reizankunft und auch von der genauen Lage des Reizes auf der Rezeptorebene ab. Im somatosensorischen System beispielsweise unterscheidet sich die räumliche Auflösung mechanischer Reize je nachdem, ob sie auf die Fingerkuppen oder auf den Armbereich aufgebracht werden, und das visuelle System weist ausgeprägte Funktionsunterschiede zwischen Zentrum und Peripherie der Netzhaut auf die unterschiedliche lokale Packungsdichte der Photorezeptoren und ihre unterschiedlichen Verbindungen zu den retinalen Ganglienzellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-71060-5_1 633b7456acb1e3761afd48707f80f95f;de;;;1.1.;;;Die Bewertung des klinischen Denkens verstehen Clinical Reasoning Assessment ist ein wesentlicher Bestandteil zur Feststellung der Kompetenz eines Angehörigen der Gesundheitsberufe. Clinical Reasoning kann nicht direkt beurteilt werden. Sie muss aus den Entscheidungen und Entscheidungen eines Arztes gewonnen werden. Klinisches Wissen und Wissensorganisation dienen eher als ein allgemeiner Problemlösungsprozess als das Substrat für die Fähigkeit zum klinischen Denken. Leider erschweren das Fehlen eines Goldstandards für den Clinical Reasoning-Prozess und die Beobachtung der Kontextspezifität die Beurteilung des Clinical Reasoning. Die Informationsverarbeitungstheorie, die sich auf die Art und Weise konzentriert, wie das Gehirn Wissen verarbeitet und organisiert, hat wertvolle Einblicke in die kognitive Psychologie des diagnostischen und therapeutischen Denkens geliefert, konnte jedoch die Varianz in der diagnostischen Leistung von Gesundheitspersonal nicht erklären. Es hat sich die Situativitätstheorie herausgebildet, die darauf hindeutet, dass diese Varianz mit kontextspezifischen Faktoren zusammenhängt, die sich auf die Leistung des klinischen Denkens eines Angehörigen der Gesundheitsberufe auswirken. Sowohl die Informationsverarbeitung als auch die Situativitätstheorie bestimmen die Art und Weise, wie wir Clinical Reasoning beurteilen. Aktuelle Bewertungsmethoden konzentrieren sich auf standardisierte Wissenstests zur Maximierung psychometrischer Parameter und arbeitsbasierte Bewertungen, die das klinische Denken unter authentischen, unsicheren Bedingungen bewerten, die die Zuverlässigkeit dieser Messungen verringern können. Probleme der Inter-Rater-Reliabilität und Kontextspezifität erfordern, dass mehrere Rater mehrere Begegnungen in mehreren Kontexten bewerten, um die Validität und Zuverlässigkeit zu optimieren. Keine einzelne Bewertungsmethode kann alle Aspekte des Clinical Reasoning bewerten. Um die Qualität der Bewertungen der Clinical Reasoning-Fähigkeit zu verbessern, sind daher verschiedene Kombinationen von Methoden erforderlich, die verschiedene Komponenten des Clinical Reasoning-Prozesses messen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30064-1_11 fdeb6e44bd56bc59a9c0fbbfdce4cfc8;de;;;1.1.;;;Kognitive Funktionen und Prädiktoren davon bei Patienten mit 1–10 Hirnmetastasen, die für die stereotaktische Radiochirurgie ausgewählt wurden Informationen über prädiktive Faktoren der kognitiven Funktion bei Patienten mit (mehreren) Hirnmetastasen (BM), die für eine Radiochirurgie ausgewählt wurden, können eine individuellere Versorgung ermöglichen und eine Rolle bei der Vorhersage des kognitiven Ergebnisses nach einer Radiochirurgie spielen. Das Ziel dieser Studie war es, die kognitive Leistung und deren Prädiktoren bei Patienten mit 1–10 BM vor der Radiochirurgie zu bewerten.;-;-;-;https://link.springer.com/article/10.1007/s11060-019-03292-y 82a09f229eebc5d5c66efadcd941ea70;de;;;1.1.;;;Ein Versuch, Aufmerksamkeitsdefizite bei Schädel-Hirn-Traumata zu differenzieren Aufmerksamkeitsdefizite bei Patienten mit Schädel-Hirn-Trauma (SHT) können mit leichten bis schweren Auswirkungen auf das Gehirn auftreten. Auf der Grundlage von Durchsichten sowohl der kognitiven als auch der neurobehavioralen Literatur werden die folgenden drei Aufmerksamkeitskonzepte behandelt: (a) Erregung/Aufmerksamkeit, (b) selektive Aufmerksamkeit und (c) energetische Aspekte der Aufmerksamkeit, die Komponenten wie Anstrengung, Ressourcen . umfassen Zuordnung und Verarbeitungsgeschwindigkeit. Innerhalb jedes Konzepts werden Definitionen vorgeschlagen, die zugrunde liegenden Gehirnmechanismen identifiziert und die spezifischen Defizite im Zusammenhang mit SHT untersucht. Dieser Review verbindet theoretische Perspektiven und klinische Befunde mit dem Ziel, zu einer diagnostischen Differenzierung zu führen, die wiederum der Behandlungsplanung zugute kommt.;-;-;-;https://link.springer.com/article/10.1007/BF01875418 da02e7db59b8b2342f4a66868c138428;de;;;1.1.;;;Statistischer Zustand eines Systems Praktisch jedes Informationssystem muss nicht eine einzelne Information verarbeiten, sondern eine Reihe davon. Durch die Verarbeitung des gesamten Zuges konnten wir alle Eigenschaften seiner Komponenten, insbesondere alle Beziehungen zwischen ihnen, ausnutzen und folglich die für jede Komponente des Zuges erforderlichen Informationsverarbeitungsressourcen minimieren. Um einen Zug als Ganzes zu bearbeiten, müssen ausreichend große Ressourcen zur Verfügung stehen. Allerdings sind die Ressourcen in der Regel begrenzt. Dann ist es naheliegend, den primären Informationszug in Blöcke aufzuteilen und jeden Block separat zu verarbeiten, jedoch nach einer Regel, die die Eigenschaften des gesamten Zuges berücksichtigt. Das nennt man;-;-;-;https://link.springer.com/chapter/10.1007/978-0-585-27999-2_4 4854c572c7d5138b01c039ce652bfb11;de;;;1.1.;;;Ein neuer semantischer Ansatz für CBIR basierend auf Beta-Wavelet-Netzwerkmodellierung Form, verfeinert durch Textur- und Farbmerkmale Heutzutage werden große Sammlungen digitaler Bilder erstellt. Viele dieser Sammlungen sind das Ergebnis der Digitalisierung bestehender Sammlungen analoger Fotografien, Diagramme, Zeichnungen, Gemälde und Drucke. Content-Based Image Retrieval ist eine Lösung für das Informationsmanagement. Die Bildgewinnung, die eine Wahrnehmung auf niedriger Ebene (Farbe, Textur und Form) und eine auf hoher Ebene kombiniert, ist ein aufstrebender breiter Forschungsbereich. In diesem Artikel haben wir einen neuen semantischen Ansatz vorgestellt, der auf der Extraktion von Formen basiert, die mit der Extraktion von Textur- und Farbmerkmalen unter Verwendung von 2D Beta Wavelet Network (2D BWN) Modellierung verfeinert wurden. Der Formdeskriptor basiert auf den besten Detailkoeffizienten (BDC), der Texturdeskriptor basiert auf den besten Approximationskoeffizienten (BAC) und der für Farbe wird auf dem approximierten Bild durch Anwenden der ersten beiden Momente berechnet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10840-7_46 b8dda4955c3e5f184673ba738eebfb6e;de;;;1.1.;;;Algebraische Methoden in der Quanteninformatik Der Artikel präsentiert und diskutiert mehrere wichtige Probleme und Herausforderungen der Quanteninformatik, bei denen algebraische Methoden sehr nützlich oder sogar von entscheidender Bedeutung waren oder erwarten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75414-5_6 1df06b9aeee7a33117bc13cb09e935aa;de;;;1.1.;;;Kultursoziologie trifft auf kognitive Wildnis: Vorteile des verteilten Kognitionsrahmens für die Analyse der Schnittmenge von Kultur und Kognition Die kognitive Kultursoziologie hat eine Vorliebe für den neurowissenschaftlichen Flügel der Kognitionswissenschaft gezeigt, der Kognition im Allgemeinen als einen Prozess sieht, der im individuellen Geist abläuft. Diese Präferenz hat zur individualistischen Form der kognitiven Kultursoziologie beigetragen. Andere theoretische Rahmen können der kognitiven Kultursoziologie aus dieser Essiggurke helfen. Der Beitrag identifiziert den Ansatz der verteilten Kognition als wertvollen theoretischen Rahmen, der viele der individuellen/neurologischen Erkenntnisse der kognitiven Kultursoziologie mit den eher makroökonomischen Perspektiven der meisten Kultursoziologen integrieren kann. Der Artikel beschreibt den Ansatz der verteilten Kognition und betont seine Affinität zu einigen der theoretischen und analytischen Modelle, die bereits von einer Vielzahl von Kultursoziologen verwendet werden. Zu den Merkmalen, die es bietet, gehören eine Debetonung der inneren/äußeren Grenze der einzelnen Person als Markierung der Grenze der Kognition, die Aufmerksamkeit für heterogene Informationsnetzwerke und die Bedeutungsverbreitung und eine starke Rolle der Kultur nicht nur bei der Bereitstellung von Inhalten für die Kognition, sondern bei der tatsächlichen Gestaltung des verteilten Kognitionsprozesses. Das Konzept der verteilten Kognition hat das Potenzial, das Konzept der Kultur zu verbessern, aber nicht zu ersetzen, indem es fruchtbare neue Wege aufzeigt, um die Wege der Informations- und Bedeutungsverbreitung zu erkunden, die Kognition in ihrer verteilten Form ausmachen.;-;-;-;https://link.springer.com/article/10.1057/s41290-019-00075-w 432e9dc3b63e2e62b784122f0a6d9825;de;;;1.1.;;;Nutzung der Verarbeitung, um sprachliche Hinweise, Macht und Überzeugungskraft zu verstehen In einem Überzeugungskontext kann die Art und Weise, wie etwas gesagt wird, die Wahrnehmung von Macht und die anschließende Informationsverarbeitung ebenso beeinflussen wie das Gesagte. Hier konzentrieren wir uns vor allem darauf, wie verschiedene sprachliche Hinweise und Stile (z. Anhand gängiger Dual- und Multiprozessmodelle als Leitfaden untersuchen wir, wie sprachliche Hinweise und die damit verbundene Machtdynamik in einem Überzeugungskontext mehrere Rollen erfüllen. Zusammengenommen bestimmen die Rolle und die daraus resultierende Informationsverarbeitung die Dauerhaftigkeit der im Überzeugungskontext gebildeten Einstellungen. Nimmt man jede sprachliche Variable der Reihe nach, gibt es klare Hinweise darauf, dass linguistische Hinweise auch Informationen über Machtdynamiken vermitteln. Diese Information über die relative Macht zwischen Quelle und Publikum beeinflusst auch die Informationsverarbeitung und die Einstellungsstärke. Durch den Einsatz von Informationsverarbeitungsmodellen ist es möglich, Implikationen für Einstellungsstärke, Vertrauen und Dauerhaftigkeit zu diskutieren. Als Ergebnis dieser Prozesse bieten sprachliche Hinweise einen Mechanismus, durch den Machtdynamiken sowohl aufgedeckt als auch verdinglicht werden. Obwohl sich die meisten Forschungen auf den Einfluss von Überzeugung auf die Einstellung zu einer Vielzahl von Themen konzentriert haben, schlagen wir vor, dass die Verwendung bestimmter sprachlicher Hinweise nicht nur die Einstellung zu Nachrichten, sondern auch die Einstellung zu Menschen beeinflussen kann.;-;-;-;https://link.springer.com/chapter/10.1057/9781137478382_8 f7f42912ad8ef6e8a5964d24b9fe71ed;de;;;1.1.;;;Kategorische Ontologie komplexer Raumzeitstrukturen: Die Entstehung von Leben und menschlichem Bewusstsein Con Es wird eine kategoriale Ontologie von Raum und Zeit für emergente Biosysteme, superkomplexe Dynamiken, Evolution und menschliches Bewusstsein vorgestellt. Beziehungsstrukturen von Organismen und dem menschlichen Geist werden natürlicherweise in nichtabelschen Kategorien und höherdimensionaler Algebra dargestellt. Der Aufstieg des Menschen und anderer Organismen durch Anpassung, Evolution und soziale Koevolution wird kategorisch als variable biogroupoide Repräsentationen sich entwickelnder Arten betrachtet. Das verbindende Thema lokaler-globaler Ansätze zu organismischer Entwicklung, Evolution und menschlichem Bewusstsein führt zu neuartigen Beziehungsmustern, die in super- und ultrakomplexen Systemen in Form von Colimits von Biogroupoiden und allgemeiner als Kompositionen lokaler Verfahren entstehen in Bezug auf lokal Lie-Gruppoide definiert werden. Lösungen für solche lokal-zu-globalen Probleme in hochkomplexen Systemen mit „gebrochener Symmetrie“ können mit Hilfe verallgemeinerter van Kampen-Theoreme der algebraischen Topologie wie dem Higher Homotopy van Kampen Theorem (HHvKT) gefunden werden. Ursprüngliche Organismenstrukturen werden von den einfachsten metabolischen Reparatursystemen bis hin zur Selbstreplikation durch autokatalytische Reaktionen vorhergesagt. Die intrinsische dynamische „Asymmetrie“ genetischer Netzwerke in der organismischen Entwicklung und Evolution wird anhand von Kategorien mehrwertiger ukasiewicz-Moisil-Algebren untersucht und dann mit denen der (nicht-kommutativen) Quantenlogik verglichen. Die Behauptung wird in diesem Aufsatz verteidigt, dass das menschliche Bewusstsein;-;-;-;https://link.springer.com/article/10.1007/s10516-007-9011-2 1197722fdfa7219dbf560d8a2e5d4bed;de;;;1.1.;;;System- und sozialwissenschaftliche Grundlagen der computergestützten Politikanalyse Ursprünglich in den technischen Wissenschaften entwickelt, wurde die Computersimulation in den letzten zehn Jahren zunehmend zur Simulation von Prozessen in gesellschaftlichen Systemen und als Instrument der Politikanalyse eingesetzt. In diesem Zusammenhang ergeben sich neue wissenschaftliche und gesellschaftspolitische Probleme, deren Lösungen größtenteils noch in den Kinderschuhen stecken. Der Beitrag gibt einen Überblick über die spezifischen Anforderungen an Simulationen von Gesellschaftssystemen, insbesondere im Hinblick auf ihren Einsatz in der computergestützten Politikanalyse, sozial- und systemwissenschaftliche Grundlagen, Forschungslücken, Anwendungsprobleme, und der einschlägigen Literatur.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-5570-9_2 ebf1f77c5a7659eaf1f5039815b09ea9;de;;;1.1.;;;Blinde Flecken, verzerrte Aufmerksamkeit und die Politik der Nicht-Koordination Bach und Wegrich führen in das Leitthema des Bandes ein, das sich um das Verständnis dreht, wie routinemäßige Entscheidungsprozesse in Organisationen des öffentlichen Sektors möglicherweise zu problematischen Ergebnissen in Bezug auf Koordination und Problemlösung führen. Anstatt diese Ergebnisse als Ergebnis organisatorischer oder individueller Pathologien zu betrachten, verfolgt das Kapitel die Ursprünge der Nichtkoordinierung innerhalb und zwischen Organisationen auf absichtlich rationales organisatorisches Verhalten. Die Autoren konzeptualisieren blinde Flecken als Teil eines größeren Universums von Verzerrungen in der organisatorischen Aufmerksamkeit, basierend auf etablierten theoretischen Vorstellungen von begrenzter Rationalität und institutionalisierten Organisationen, und zeigen, wie verschiedene Arten von Aufmerksamkeitsverzerrungen neue Einblicke in scheinbar irrationales oder unkoordiniertes Verwaltungsverhalten liefern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-76672-0_1 73434bfb579385931b024990497c9620;de;;;1.1.;;;Sozialkompetenz und neurokognitives individualisiertes Training bei Schizophrenie: Vergleich mit strukturierten Freizeitaktivitäten Kognitive Beeinträchtigungen und Defizite in sozialen Fähigkeiten sind bei Patienten mit Schizophrenie weitgehend dokumentiert und werden zunehmend als geschwindigkeitsbegrenzende Faktoren für die Genesung anerkannt. Es wurde nachgewiesen, dass kognitives Training und soziales Kompetenztraining (SST) wirksam sind, um die Beeinträchtigung kognitiver und sozialer Fähigkeiten bei Schizophrenie zu behandeln, jedoch ist die Übersetzung einer verbesserten Leistung bei Aufgaben der kognitiven oder sozialen Fähigkeiten in verbesserte funktionelle Ergebnisse umstritten. Neueren Übersichten zufolge haben Interventionen, die kognitives Training in Verbindung mit psychosozialer Rehabilitation bieten, einen größeren Einfluss auf das funktionelle Ergebnis als jede Intervention allein, was darauf hindeutet, dass die beiden Behandlungsansätze in einer synergistischen Weise zusammenarbeiten können. Die vorliegende Pilotstudie wurde entwickelt, um die Hypothese zu testen, dass ein integriertes Rehabilitationsprogramm, einschließlich individualisierter kognitiver und SST, effektiver ist als die strukturierten Freizeitaktivitäten (SLA), die in vielen italienischen Abteilungen für psychische Gesundheit durchgeführt werden. Der primäre Zielparameter war die persönliche und soziale Funktion der Probanden, wie sie durch das Interview zur Beurteilung der Behinderung bewertet wurde. Die Studie basiert auf einem kontrollierten Design mit Randomisierung in Behandlungsgruppen, Blindbewertungen und stabiler pharmakologischer Behandlung. Die Probanden wurden unter Patienten rekrutiert, die drei psychiatrische Einrichtungen in der italienischen Region Kampanien besuchten. Dreißig Patienten wurden randomisiert dem experimentellen Programm „Soziale Fähigkeiten und neurokognitives individualisiertes Training“ (SSANIT) und 30 Patienten SLA zugeteilt. Die beiden Programme wurden hinsichtlich der Gesamtdauer sowie der Häufigkeit und Dauer der Sitzungen aufeinander abgestimmt. Die beiden Patientengruppen unterschieden sich zu Studienbeginn nicht in Bezug auf Psychopathologie, neurokognitive und persönliche/soziale Funktionen. Nach 6-monatiger Behandlung war die persönliche und soziale Funktionsfähigkeit bei Patienten, die SSANIT zugewiesen wurden, signifikant besser als bei Patienten, die den üblichen Rehabilitationsaktivitäten in psychiatrischen Abteilungen zugeteilt wurden. Bei beiden Programmen wurde kein Vorteil hinsichtlich der psychopathologischen und kognitiven Outcome-Indizes beobachtet. Wie bei anderen integrierten Programmen sind auch bei SSANIT weitere Studien erforderlich, um die Verallgemeinerung und Persistenz der beobachteten Fortschritte zu überprüfen und die am besten geeignete Länge und Dosis der therapeutischen Intervention sowie den relativen Beitrag jeder Programmkomponente zu ihrer Wirkung auf die Probanden zu klären ' Behinderung.;-;-;-;https://link.springer.com/article/10.1007/s00406-009-0078-1 fb74ac1187c413f43d02dec6caa57603;de;;;1.1.;;;Korrelationen zellulärer Aktivitäten im Nervensystem: Physiologische und methodische Überlegungen Rhythmen (Zyklen, Schwingungen) und Synchronisationsprozesse durchdringen alle Aspekte des Lebendigen und Nichtlebenden, von circadianen Rhythmen bis hin zu individuellen Gewohnheiten und Merkmalen (Glass, 2001, Pikovsky et al., 2001). Die verteilte Natur der Kognition impliziert, dass verschiedene Hirnareale ihre Aktivität irgendwie koordinieren müssen: Kognition, sei es in Form von Wahrnehmung oder motorischen Aktionen, resultiert aus der integrierten räumlich-zeitlichen koordinierten Aktivität von Zellpopulationen im Nervensystem, die sowohl gliale als auch neuronale Elemente umfassen. Da das kollektive Verhalten des Systems aus seinen einzelnen Komponenten schwer, wenn nicht unmöglich abzuleiten ist, wird die Bestimmung der gehirnkoordinierten Aktivität auf angemessenen Beschreibungsebenen grundlegend für das Verständnis der Funktion des Nervensystems und ihrer Beziehung zum Verhalten. Es stellen sich einige Fragen: Welche Variablen sind am besten geeignet, um diese Korrelationen in der Aktivität zu messen? Welche Ordnungsparameter sollten verwendet werden, um die koordinierte Aktivität zwischen Zellpopulationen zu charakterisieren und wie hängen diese Aktivitätsmuster mit Verhaltensreaktionen zusammen? Welche Beschreibungsebene sollte verwendet werden? Dieses Kapitel fasst einige physiologische und methodologische Überlegungen zusammen, um dem wissenschaftlichen Praktiker bei der Untersuchung korrelierter Aktivitätsmuster in Nervensystemen zu helfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-93797-7_1 23118fcba299accac872cb303793be2a;de;;;1.1.;;;Gaußsche Quantenberechnung mit Oracle-Entscheidungsproblemen Wir untersuchen einen Quantencomputer mit einfachen harmonischen Oszillatoren, der Entscheidungsprobleme von Orakel löst. Wir zeigen, dass solche Computer eine bessere Leistung erbringen können, indem sie nicht orthogonale Gaußsche Wellenfunktionen anstelle von orthogonalen Top-Hat-Wellenfunktionen als Eingabe für den Informationscodierungsprozess verwenden. Am Beispiel des Deutsch-Jozsa-Problems zeigen wir, dass die Gaußsche Modulation mit optimierten Breitenparametern zu einer geringeren Fehlerrate führt als bei der Top-Hat-Kodierung. Wir schließen daraus, dass die Gaußsche Modulation einen verbesserten Kompromiss zwischen Codierung, Verarbeitung und Messung der Informationen ermöglichen kann.;-;-;-;https://link.springer.com/article/10.1007/s11128-012-0489-1 c489b43a63c6433cae7772e384816cbe;de;;;1.1.;;;Nutzung von Engineering-Datenbanken Der Unterschied zwischen den Anforderungen von Engineering-Datenbanken und denen traditioneller Anwendungen sowie die unterschiedlichen Datenbankkonzepte zu deren Erfüllung wurden bereits in Kap. 2. Wie wir aus Abschn. 2.4 gibt es in der modernen Datenbankforschung eine Vielzahl von Lösungsvorschlägen, jedoch sind noch keine Systeme am Markt verfügbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-61508-5_3 0ee90be4223391645f33c45d3864e866;de;;;1.1.;;;Kundenprozesse Dieses Kapitel befasst sich mit der „anderen Seite“ des Service-Transaktionsprozesses und hinterfragt die Struktur eines Service-Blueprint-Gegenstücks. In der bisherigen Diskussion wurde lediglich auf die Anbieterseite des Serviceprozesses (Kapitel 2) sowie die Notwendigkeit von Abstimmungsaktivitäten zwischen beiden Seiten hingewiesen, die Transaktionskosten verursachen (Kapitel 3). Daher wird nun der Kundenprozess behandelt. Dabei werden kognitive Strukturen untersucht. Auch wenn die Dissertation von einem Business-to-Business-Paradigma dominiert wird, das später den Kern der empirischen Untersuchung darstellen wird, lassen sich die primär auf Individuen bezogenen kognitiven Strukturen dennoch anwenden. Kundenprozesse können dann von dem kognitiven Konstrukt abstrahiert werden, das sich ursprünglich auf eine Person bezieht. Um die Funktionalität zu verstehen und in einen breiteren Kontext zu übertragen, ist ein grundlegendes Verständnis des kognitiven Konstrukts unabdingbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8350-9447-5_4 88315d29c7a4c4def421db7a1d1f51e7;de;;;1.1.;;;Computational Technosphere and Cellular Engineering Das grundlegende Ingenieurproblem besteht darin, nützliche Systeme aus gegebenen Materialien und mit gegebenen Werkzeugen zu bauen. Hier untersuchen wir dieses Problem in der computergestützten Technosphäre von Computern, Smartphones, Netzwerken und anderen von Menschen geschaffenen Informationsverarbeitungs- und Kommunikationsgeräten. Der Schwerpunkt liegt auf der Konstruktion verschiedener Arten von Informationsverarbeitungsautomaten mittels zellularer Automaten. Wir nennen dieses Engineering-Problem zellulares Engineering. Im Kontext der Zellulartechnik werden verschiedene Typen und Ebenen von Computersystemen und -modellen betrachtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35482-3_10 5f8f39bc691d2e27befa54625e6ed539;de;;;1.1.;;;Theoretische Erklärungsrahmen für nachhaltiges Verhalten Im vorherigen Kapitel geht es um die Definition von nachhaltigem Verhalten, die zugrunde liegenden Prinzipien und die Hintergründe der Bildung für nachhaltige Entwicklung (BNE). In diesem Kapitel wird die kognitive Theorie diskutiert, die nachhaltiges Verhalten unter dem Ansatz der Informationsverarbeitung modelliert. Darüber hinaus werden in diesem Abschnitt die bekanntesten sozialpsychologischen Modelle zur Erklärung von Einstellungen, die die Erforschung von nachhaltigem Verhalten fördern, und den damit verbundenen Faktoren gezeigt. Dies liefert konzeptionelle Rahmen, die die Faktoren identifizieren, die nachhaltiges Verhalten erklären (insbesondere in Situationen, in denen soziale Dilemmata bestehen, wie es bei vielen Umweltproblemen und ihren wirtschaftlichen, sozialen und kulturellen Kontexten der Fall ist, wie in BNE aufgezeigt).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19393-9_2 929091291d7cfd892a47b406f52003a1;de;;;1.1.;;;Verarbeitung von Temporalinformationen und Basalganglien: neue Evidenz aus fMRI Die zeitliche Informationsverarbeitung ist eine grundlegende Gehirnfunktion, die zentrale Zeiterfassungsmechanismen unabhängig von der Sinnesmodalität umfassen könnte. Psychopharmakologische Studien und Patientenstudien weisen auf eine entscheidende Rolle der Basalganglien bei der Zeitschätzung hin. In dieser Studie wurde die funktionelle Magnetresonanztomographie (fMRT) bei 15 gesunden männlichen Rechtshändern angewendet, die eine Aufgabe zur akustischen Zeitschätzung (Dauerunterscheidung von Tonpaaren im Bereich von 1.000–1.400 ms) und Frequenzunterscheidungen (Tonpaare, die sich in Tonhöhe, ca. 1.000 Hz) als aktive Regelaufgabe. Die Aufgabenschwierigkeit wurde ständig durch einen adaptiven Algorithmus (gewichtetes Up-Down-Verfahren) moduliert, der auf die individuelle Leistung reagierte. Die Zeitschätzung (im Vergleich zum Ruhezustand) rief ein deutliches Muster der zerebralen Aktivität hervor, einschließlich des rechten medialen und linken und rechten dorsolateralen präfrontalen Kortex (DLPFC), Thalamus, Basalganglien (Kern caudatus und Putamen), linker vorderer cingulärer Kortex und oberer temporal Hörbereiche. Die meisten Aktivierungen zeigten eine Lateralisation zur rechten Hemisphäre und waren in der Frequenzdiskriminierungsaufgabe ähnlich. Beim Vergleich von Zeit- und Frequenzaufgaben haben wir die Aktivierung im rechten Putamen isoliert, die sich nur auf die Zeitschätzung beschränkt. Dieses Ergebnis unterstützt die Vorstellung einer zentralen Verarbeitung zeitlicher Informationen, die mit der Aktivität der Basalganglien verbunden sind. Die zeitliche Informationsverarbeitung im Gehirn könnte somit ein verteilter Interaktionsprozess zwischen modalitätsabhängiger sensorischer kortikaler Funktion, dem Putamen (mit einer zeitspezifischen Funktion) und weiteren präfrontalen kortikalen Systemen im Zusammenhang mit Aufmerksamkeit und Gedächtnis sein. Weitere Untersuchungen sind erforderlich, um die unterschiedlichen Beiträge des Striatums und anderer Bereiche zum Timing abzugrenzen.;-;-;-;https://link.springer.com/article/10.1007/s00221-002-1188-4 d6f833ec644dbba415cc5a24a8b5263d;de;;;1.1.;;;Design eines kognitiven Tutors zur Diagnose der Intelligenztypen bei Vorschulkindern im Alter von 3 bis 5 Jahren Die Zusammenhänge zwischen Vorschule, Erwerbstätigkeit und wirtschaftlicher Produktivität sowie Kosten-Nutzen-Studien in diesem Bereich zeigen eine potenziell hohe Rendite in den frühen Kindheitsjahren. Die Vorschule ist nach Angaben des peruanischen Bildungsministeriums die wichtigste Grundlage der Bildungsstruktur. Die Investition in diese Art von Bildung beträgt jedoch im Durchschnitt etwa 250 Soles (77 US-Dollar) pro Schüler. Auf 18 Schüler kommt im Durchschnitt eine Lehrkraft, und nur 60 % dieser Lehrkräfte sind auf Vorschulerziehung spezialisiert (Escale;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-46140-9_31 43cd6bbb5a025fdc002a76a060f37fe4;de;;;1.1.;;;"Über (nicht) definierende Erkenntnis Sollten sich Kognitionswissenschaftler wegen ihres Fehlens einer disziplinfixierenden Definition von Kognition mehr schämen wie Biologen wegen ihrer Unfähigkeit, „Leben“ zu definieren? Meine Antwort ist nein"". Philosophen, die ein einzigartiges „Zeichen des Kognitiven“ oder weniger belastende, aber dennoch kategorische Charakterisierungen von Kognition suchen, arbeiten auf einer Analyseebene, an der nichts hängt, was Kognitionswissenschaftlern oder Kognitionsphilosophen wichtig sein sollte. Im Gegensatz dazu plädiere ich für eine pluralistische Haltung gegenüber der Verwendung des Begriffs „Kognition“, die den Drang meidet, Kognition als eine metaphysisch gut definierte „natürliche“ Art zu behandeln.";-;-;-;https://link.springer.com/article/10.1007/s11229-017-1454-4 c9b3fec4beeb8f1d5b655eaf61b99ea1;de;;;1.1.;;;Komponenten des analogen Denkens bei einer leicht kopfverletzten Bevölkerung Diese Studie versuchte, die Auswirkungen einer leichten Kopfverletzung auf eine bestimmte Art von kognitiver Fähigkeit, das verbale analoge Denken, zu untersuchen. Die Leistung von 19 Personen mit Kopfverletzungen wurde mit einer Gruppe von 30 Kontrollpersonen verglichen, die nach Alter, Bildung und Geschlecht auf 100 verbale Analogien abgestimmt waren. Lösungszeiten und Fehlerraten wurden modelliert. Nicht standardisierte Regressionsgewichte für einzelne Probanden wurden mit der Leistung der Probanden in einer Reihe von standardisierten Fähigkeitstests korreliert. Die Ergebnisse zeigten, dass die Probanden mit Kopfverletzungen im Vergleich zu den Kontrollpersonen: (a) die Analogien signifikant langsamer lösten und bestimmte Prozesse besonders langsam ausführen: Kodierung/Inferenz und Vergleich, (b) tendenziell eine größere Variabilität der Leistung aufwiesen und (c) Daten hatten, die eine schlechtere Komponentenmodellanpassung aufwiesen. Die Daten legen nahe, dass das analoge Denken durch eine Kopfverletzung beeinträchtigt wird und bestimmte Informationsprozesse für Leistungsdefizite verantwortlich sein können.;-;-;-;https://link.springer.com/article/10.1007/BF02686825 c82fbf101fa98ebb6c0e6a1c5dada7ed;de;;;1.1.;;;Softwarequalität und Entwicklungsgeschwindigkeit in globalen Softwareentwicklungsteams Das Papier stützt sich auf die Theorie der Informationsverarbeitung, um vorzuschlagen, dass nationale Vielfalt Hindernisse für die Integration von Informationen zwischen Mitgliedern globaler Softwareentwicklungsteams schafft, was sich negativ auf die Softwarequalität und die Entwicklungsgeschwindigkeit auswirkt. Es wurde jedoch erwartet, dass die Wirkung solcher Beziehungen von der Zeit abhängt, in der die Teammitglieder in der Vergangenheit zusammengearbeitet haben (d. h. frühere Arbeitsbeziehungen). Hypothesen wurden in einer Feldstudie getestet, an der 62 globale Softwareentwicklungsteams in Europa sowie Mittel- und Südamerika teilnahmen. Teams mit einem hohen Grad an früherer Arbeitsbeziehung entwickelten in schnellerem Tempo qualitativ hochwertigere Software. Nationale Diversität wirkte sich in Teams mit hoher Arbeitsbindung positiv auf die Softwarequalität aus, in Teams mit geringer Arbeitsbindung hingegen negativ. Nationale Diversität wirkte sich ebenfalls negativ auf die Geschwindigkeit der Softwareentwicklung aus, jedoch war der Effekt bei Teams mit hoher früherer Arbeitsbindung weniger ausgeprägt als bei Teams mit geringer Arbeitsbindung.;-;-;-;https://link.springer.com/article/10.1007/s12599-015-0372-6 793f16e95fd8946d2d92ea21ea04cee0;de;;;1.1.;;;Die Planung und Organisation periodischer assoziativer Berechnungen: Effiziente Netzwerke Dieser Beitrag charakterisiert die effizienten dezentralen Netzwerke zur Berechnung des assoziativen Aggregats von Datenkohorten fester Größe, die periodisch eintreffen. Radner (1993) hat dieses Problem der periodischen parallelen assoziativen Berechnung als ein Modell der laufenden Informationsverarbeitung und -kommunikation durch das Verwaltungspersonal einer großen Organisation vorgeschlagen. Für ein einfacheres Modell, in dem die Organisation eine einzige Datenkohorte verarbeitet – was dem periodischen Modell entspricht, wenn die Agenten nur bei beschäftigt bezahlt werden – stellte er fest, dass die effizienten Netzwerke hierarchisch, aber ziemlich unregelmäßig sind, obwohl das Rechenproblem und die Technologie sind jeweils symmetrisch. Im periodischen Modell, bei dem Manager auch im Leerlauf bezahlt werden, ist es wichtig, die Leerlaufzeit zu minimieren, wenn Manager für die Bearbeitung von Aufgaben eingeplant werden. Ein solches Scheduling erscheint schwieriger, wenn jedes Problem durch eine unregelmäßige Hierarchie verarbeitet wird, was darauf hindeutet, dass Hierarchien im periodischen Modell regelmäßiger sein könnten. Wir zeigen jedoch, dass in einer Klasse effizienter Netzwerke für periodische Berechnungen, die die Effizienzgrenze überspannen, die Verarbeitung jeder Kohorte der effizienten Verarbeitung einer einzelnen Kohorte ähnelt und die gesamte Organisationsstruktur nicht einmal hierarchisch ist.;-;-;-;https://link.springer.com/article/10.1007/s100580050007 24b2738af224fcf11314a4a5cead8db3;de;;;1.1.;;;Lineare Systeme und Kontrolltheorie für Quanteninformationen Dieses Kapitel veranschaulicht mehrere Anwendungsbeispiele der Theorie linearer Quantensysteme zur Analyse von Problemen, die bei der Quanteninformationsverarbeitung von Interesse sind, und diskutiert zwei experimentelle Demonstrationen von kohärentem Echtzeit-Feedback und messbasierter Feedback-Steuerung aus der Literatur. Die behandelten Probleme sind dissipative Erzeugung von Gaußschen Zuständen von Singlemode-Oszillatoren, effiziente Verstärkung der Verschränkung zwischen wandernden Gauß'schen Feldern, Rückwirkungsvermeidung, perfekter Zustandstransfer in einem linearen Quantennetzwerk und robuste Quantenverstärkung. Die beiden Experimente demonstrieren die Verbesserung des optischen Squeezings durch statisches kohärentes Feedback und die Erzeugung eines spin-gequetschten Zustands in einem atomaren Ensemble durch messbasierte Feedback-Steuerung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-55201-9_6 f134f6f1e8a9cf0d1966a650d585ccb6;de;;;1.1.;;;Zeitliche Indizes, die gültige Zeit unterstützen Dieses Kapitel untersucht die temporale Indextechnik basierend auf gültiger Zeit. Zunächst wird die aktuelle Studie zum zeitlichen Index vorgestellt. Anschließend führt es zeitliche Äquivalenz, zeitliche Vorordnung und andere grundlegende Konzepte ein und untersucht ihre relativen Eigenschaften, die den notwendigen mathematischen Rahmen für den zeitlichen Index liefern. Darüber hinaus führt es den Algorithmus für die zeitliche Verzweigung linearer Ordnung ein, indem die Eigenschaften der Zeitintervallzahl untersucht werden. Dabei ist der zeitliche Index —;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14959-7_8 4b12e519a0e1f38868c2208275dda5c2;de;;;1.1.;;;Verallgemeinerung des Merkmalsvergleichsprozesses: Mengenlehre, Neuronale Systeme Urteile sind Merkmalsvergleichsverfahren zwischen Reizen und Bezugsrahmen (Konzepte, Kategorien, Gedächtnisstrukturen). Eine Verallgemeinerung dieses Prozesses führt zur empirischen Fundierung einer Skala für Reize mit qualitativen Merkmalen (a, b, c…) und einer Skala für Reize mit quantitativen Merkmalen (a, aa, aaa…). Die erste Skala veranschaulicht den Merkmalsvergleichsprozess von Wahrnehmung und Beurteilung. Die Skala für Stimuli mit quantitativen Merkmalen ist in erster Linie eine Skala für physikalische Messungen. Die beste theoretische Grundlage für Ähnlichkeitsurteile ist ein mengentheoretischer Ansatz, da die Mengenlehre auf Strukturen und Prozesse des Nervensystems bezogen werden kann. Dies wird auf der Ebene einzelner Neuronen, Zellverbände und Detektoren elementarer visueller Merkmale gezeigt. Im zweiten Teil des Kapitels werden Gedächtnisstrukturen und zugrundeliegende neuronale Systeme analysiert, die wesentlich an Prozessen der Selbstregulation beteiligt sind. Dazu gehören der präfrontale Kortex, die neuronalen Strukturen und Prozesse, die dem deklarativen Gedächtnis und der Beurteilung zugrunde liegen, sowie neuronale Systeme, die an der Entscheidungsfindung beteiligt sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-29467-4_5 86c9adb8b8947da0ca771e2024be7c1f;de;;;1.1.;;;Ein Scheduling-Modell für Multiroboter-Montagezellen Wir schlagen ein gemischtes 0–1 lineares Programmiermodell für die repetitive Planung von Multiroboter-Montage- und Bearbeitungszellen vor. Der gewählte Ansatz ist monolithisch im Gegensatz zu hierarchisch, um eine Suboptimierung des Systems zu vermeiden. Das Modell erlaubt eine beliebige Anzahl von alternativen Wegen (oder Modi), um jede Operation auszuführen. Eine Betriebsweise wird durch die benötigten Ressourcen (Einrichtungen) und die Dauer ihrer Nutzung bestimmt. Das Modell beinhaltet Anlagenwechselzeiten. Roboterkollisionen werden vermieden. Mehrere Zielfunktionen werden formuliert, um verschiedene Zwecke zu unterstützen. Das Scheduling-Problem einer Multiroboter-Montagezelle wird unter Verwendung kommerziell erhältlicher mathematischer Programmiersoftware formuliert und gelöst. Es werden Lösungen unter vier verschiedenen Zielfunktionen berichtet.;-;-;-;https://link.springer.com/article/10.1007/BF00167515 2b0992341df21f9d94390881431ddafc;de;;;1.1.;;;Kognitive Entwicklung bei autistischen Kindern Autismus beginnt bei der Geburt oder kurz danach. Das erste Anzeichen dafür, dass Eltern ihr Kind „anders“ haben, ist oft, dass sich das Kind durch den menschlichen Kontakt und die Interaktion unwohl fühlt, und nicht umgekehrt, was normalerweise der Fall ist. Während normale Säuglinge aktiv eine visuelle, auditive und taktile Suche in ihrer Umgebung durchführen, bleiben autistische Säuglinge relativ passiv und starren ins Leere. Er oder sie ist ein gleichgültiger Feeder und schläft unruhig. Aus dem inaktiven Säugling wird ein widerwilliges Kleinkind, es gibt Verzögerungen bei verschiedenen sensomotorischen Meilensteinen, vor allem beim Beginn und der Entwicklung des Sprechens. Von klein auf zeigt das autistische Kind verschiedene selbststimulierende und stereotype Verhaltensweisen, wie z , 1981).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-5036-4_5 72991e56da2f49b90bca680cd076b3b3;de;;;1.1.;;;Modell der Aktivität hippocampaler Neuronen basierend auf der Theorie der selektiven Desensibilisierung Die Integration verschiedener Arten von Informationen gilt als eine Schlüsselfunktion des Hippocampus. Auf der Grundlage einer Computertheorie stellen wir die Hypothese auf, dass der Hippocampus eine Informationsintegration durch selektive Desensibilisierung von CA3-Neuronen durchführt, und konstruieren auf der Grundlage dieser Hypothese ein Modell des hippocampalen trisynaptischen Netzwerks. Dieses Modell kann die Ergebnisse eines physiologischen Experiments reproduzieren, in dem Ratten-Hippocampus-Platzzellen in verschiedenen Umgebungen aufgezeichnet wurden, während das konventionelle Schichtmodell dies nicht kann. Dieses Ergebnis unterstützt zusammen mit einigen anderen physiologischen Beweisen unsere Hypothese.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02490-0_47 4da5b0b01a035bfaebb05e09cc0f011f;de;;;1.1.;;;Individuelle Unterschiede und Zusammenhänge zwischen ausgewählten kognitiven Fähigkeiten Ein Experiment wurde durchgeführt, um individuelle Unterschiede und Zusammenhänge in der Leistung bei drei Aufgaben der Kurzzeitgedächtnisverarbeitung und der visuellen Verarbeitung zu untersuchen. Parameter von Modellen für diese Aufgaben wurden korreliert. Für einige Intertask-Parameter wurden hohe Korrelationen (0,97 und 0,83) erhalten. Dies weist darauf hin, dass elementare Komponentenprozesse für verschiedene Aufgaben identifiziert werden können, die ähnlich oder stark verwandt sind. Psychometrische Messungen (SATM und SATV) wurden auch mit den Parametern des Informationsverarbeitungsmodells korreliert. Hohe multiple Korrelationen von SATV und SATM wurden unter Verwendung von Modellparametern als Prädiktoren erhalten. wenn die Daten getrennt für weibliche und männliche Probanden analysiert wurden. Die Ergebnisse lassen auf geschlechtsspezifische Unterschiede in den Zusammenhängen der untersuchten kognitiven Prozesse schließen.;-;-;-;https://link.springer.com/article/10.3758/BF03213232 d56c6681a4abe199d9e06a90c8d1cc35;de;;;1.1.;;;Nichtparametrische Regression zum Erlernen nichtlinearer Transformationen Die Informationsverarbeitung bei Tieren und künstlichen Bewegungssystemen besteht aus einer Reihe von Transformationen, die sensorische Signale auf Zwischenrepräsentationen und schließlich auf motorische Befehle abbilden. Angesichts der physischen und neuroanatomischen Unterschiede zwischen Individuen und der Notwendigkeit von Plastizität während der Entwicklung ist es sehr wahrscheinlich, dass solche Transformationen eher erlernt als von der Evolution vorprogrammiert werden. Solche selbstorganisierenden Prozesse, die in der Lage sind, nichtlineare Abhängigkeiten zwischen verschiedenen Signalgruppen zu entdecken, sind ein wesentlicher Bestandteil der prärationalen Intelligenz. Während neuronale Netzalgorithmen bei der Suche nach Lösungen für Lerntransformationen die natürliche Wahl zu sein scheinen, wird in diesem Beitrag genauer untersucht, welche Arten von neuronalen Netzen tatsächlich für die Anforderungen eines autonom lernenden Systems geeignet sind. Der von uns verfolgte Ansatz orientiert sich an jüngsten Entwicklungen in der Lerntheorie, die das Lernen neuronaler Netze mit etablierten statistischen Theorien verknüpft haben. Dieses neue statistische Verständnis hat insbesondere zur Entwicklung neuronaler Netzsysteme geführt, die direkt auf statistischen Methoden basieren. Eine Familie solcher Verfahren stammt aus der nichtparametrischen Regression. In diesem Artikel wird das nichtparametrische Lernen mit den verbreiteteren parametrischen Gegenstücken auf nichttechnische Weise verglichen und untersucht, wie sich diese beiden Familien in ihren Eigenschaften und ihrer Anwendbarkeit unterscheiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0870-9_67 c62515fe919866efae71ad1df6bf774f;de;;;1.1.;;;4-D-Parameterschätzung von Schmalbandquellen basierend auf paralleler Faktoranalyse In diesem Beitrag wird ein neuartiger Algorithmus vorgestellt, um gemeinsam Frequenz, zweidimensionale (2-D) Einfallsrichtung (DOA) und Reichweite von Nahfeld-Schmalbandquellen zu schätzen. Die vorgeschlagene Methode erweitert das Analysemodell des Parallelfaktors (PARAFAC) von der gemeinsamen Daten- und Unterraumdomäne auf die kumulierte und bildet Dreiwege-Arrays unter Verwendung der fünf kumulierten Matrizen, die aus den Array-Ausgaben erhalten werden, und analysiert die Eindeutigkeit von Low -Rang-Zerlegung der Dreiwege-Arrays, schätzt dann gemeinsam Quellenparameter über die Niederrang-Zerlegung. Im Vergleich zu den herkömmlichen Verfahren verringert das vorgeschlagene Verfahren den Verlust der Array-Apertur und vermeidet Paarungsparameter. Noch wichtiger ist, dass dieser Algorithmus mit gemischten Fernfeld- und Nahfeldquellen umgehen kann. Schließlich validieren die Simulationsergebnisse die Leistungsfähigkeit der vorgeschlagenen Methode.;-;-;-;https://link.springer.com/article/10.1007/s11434-008-0271-z 51426ebf3118f23d9ef20000a14b1ad5;de;;;1.1.;;;Inhaltsbasierter Videoabruf basierend auf Ähnlichkeit der Kamerabewegung Dieses Papier schlägt eine Methode zum inhaltsbasierten Abrufen von Sportvideos unter Verwendung von Kameraarbeitsinformationen vor. Da in Sportvideos eine bestimmte Kameraführung für eine typische Szene vorhanden ist, wird der Übergang der Kameraführung zu einem effektiven Hinweis zum Abrufen einer Sportszene basierend auf ihrem Inhalt. Das vorgeschlagene Verfahren extrahiert eine Reihe von Kameraparametern sowohl aus einer benutzerspezifizierten Szene eines Suchschlüssels als auch einem Videostrom eines Suchziels und erkennt Szenen mit einem Inhalt ähnlich dem des Schlüssels von dem Ziel durch Anwenden eines kontinuierlichen DP-Abgleichs. Die Methode wurde anhand eines Videostreams eines Baseballspiels evaluiert. Recall-Precision-Kurven machen seine Wirksamkeit deutlich.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35504-7_4 63c59fb56b40ee8fac810cc6df7c65ef;de;;;1.1.;;;Emotionale Intelligenz als Fähigkeit: Theorie, Herausforderungen und neue Wege Vor etwa 25 Jahren wurde die Emotionale Intelligenz (EI) erstmals in die wissenschaftliche Gemeinschaft eingeführt. In diesem Kapitel bieten wir einen allgemeinen Rahmen für das Verständnis von EI als Fähigkeit. Wir beginnen mit der Identifizierung der Ursprünge des Konstrukts, das in der Intelligenzliteratur und dem grundlegenden Vier-Zweigen-Modell der Fähigkeits-EI verwurzelt ist, beschreiben dann die am häufigsten verwendeten Maße von EI als Fähigkeit und überprüfen kritisch die prädiktiven Validitätsnachweise. Wir nähern uns den aktuellen Herausforderungen, einschließlich der Schwierigkeiten, Antworten als „richtig“ im emotionalen Bereich zu bewerten, und eröffnen eine Diskussion darüber, wie die inkrementelle Validität von Fähigkeits-EI erhöht werden kann. Schließlich schlagen wir neue Richtungen vor, indem wir eine Unterscheidung zwischen einer kristallisierten Komponente von EI, die auf dem Wissen über Emotionen basiert, und einer flüssigen Komponente, die auf der Verarbeitung von Emotionsinformationen basiert, einführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-90633-1_2 df7479d5a33b401a540bac64ddeb7fdf;de;;;1.1.;;;Definition in der semantischen Struktur eines wissenschaftlichen Textes Dieser Beitrag zeigt auf theoretischer Ebene, dass ein Textmodell, das mit Textdefinitionen als seinen Elementen organisiert ist, Inhalte angemessener darstellen kann als ein Modell, das Begriffe und ihre Beziehungen als seine Konstrukte verwendet.;-;-;-;https://link.springer.com/article/10.3103/S0147688217050070 3b3eb98ed7b6c51464f2023af124875d;de;;;1.1.;;;Strukturrealistische Darstellung des Selbst In diesem Aufsatz, der von den Entwicklungen in der Wissenschaftsphilosophie des späten 20. Ich nenne die Position strukturell-realistische Theorie des Selbst (kurz SRS). Genauer gesagt, argumentiere ich, dass SRS einen Mittelweg bietet, um eine metaphysische Versöhnung zwischen den beiden wiederkehrenden und anscheinend konkurrierenden Formen solcher antisubstantivistischer Ansichten, d. Der Begriff des strukturellen Selbst als das untermauernde Muster, das Gegenstand der ontologischen Verpflichtungen in SRS ist, ist nicht so schwerfällig wie der orthodoxe substantivistische Begriff und trägt dennoch der Beziehung der verschiedenen Aspekte und Elemente des Selbst durch ihre Integration Rechnung strukturell zu einem zentralen vereinigenden Muster der Selbstheit. Ich verwende die experimentellen Studien von Northoff et al. (Neurobild 31:440–457,;-;-;-;https://link.springer.com/article/10.1007/s11229-016-1098-9 dd86a4a9300c516d5ba29f0cd49647b7;de;;;1.1.;;;Systemidentifikation basierend auf der Online Variational Bayes Methode und ihre Anwendung auf das Reinforcement Learning In diesem Artikel stellen wir eine Online-Variational Bayes (VB) Methode zur Identifizierung von linearen Zustandsraummodellen vor. Der Lernalgorithmus ist als alternative Maximierung einer Online-Freien Energie implementiert, die zur Bestimmung der Dimension des internen Zustands verwendet werden kann. Wir schlagen auch eine Methode des Reinforcement Learning (RL) vor, die diese Systemidentifikationsmethode verwendet. Unsere RL-Methode wird auf ein einfaches Problem der automatischen Steuerung angewendet. Das Ergebnis zeigt, dass unsere Methode in der Lage ist, die Dimension des inneren Zustands korrekt zu bestimmen und auch in einer teilweise beobachtbaren Umgebung eine gute Kontrolle zu erlangen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44989-2_16 6cde1cb6a3e7eab2d5f495e65a4a1118;de;;;1.1.;;;Eine situative Perspektive auf Kognition und Lernen in Interaktion Mein Ziel ist es, zu Konzepten beizutragen, die Aspekte der sozialen Interaktion und des fachlichen Informationsgehalts in Kognition und Lernen erklären können. Der von mir gewählte Ansatz, den ich situativ nenne, nimmt Aktivitätssysteme als Hauptfokus des Studiums und der Analyse und versucht, Prozesse zu verstehen, in denen Teilnehmer gemeinsam Informationen konstruieren, die sie für ihren Fortschritt bei der von ihnen bearbeiteten Aufgabe als relevant erachten. Ich argumentiere, dass diese situative Perspektive und die individuelle Informationsverarbeitungsperspektive beide in einer Weise gültig sind, die die Entwicklung der Integration zwischen ihnen fördert. Ich zitiere frühere Forschungen, die zeigen, dass die Positionierung im Teilnehmerrahmen ein wichtiger Faktor zur Erklärung produktiver und weniger produktiver kognitiver Phänomene ist. Die Analyse von FastPlant-Daten, die ich vorstelle, zeigt außerdem, dass die Positionierung von Schülern in verschiedenen Aktivitätsphasen einer Aufgabe unterschiedlich sein kann. Insbesondere kann die Schülervertretung zwischen Aktivitäten unterscheiden, die zu berücksichtigende Alternativen generieren, und Aktivitäten, die bestimmen, welche Alternative bevorzugt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-7582-9_3 d01067f474cb1a77f82f88909943baca;de;;;1.1.;;;Forschung zur Key Performance Evaluation Method basierend auf dem Fuzzy-Analytic-Hierarchie-Prozess Bei der traditionellen Leistungsbewertungsmethode legt der Finanzanalyseprozess zu viel Wert auf die Integrität und das Gewicht der Leistungsfaktoren ist nicht klar, was zu einem schlechten Aggregationsgrad der Leistungsbewertungsdaten führt. Es wird ein Schlüsselleistungsbewertungsverfahren basierend auf dem Fuzzy-Analytic-Hierarchie-Prozess (FAHP) vorgeschlagen. Der Datenfluss der Leistungsindikatoren wird entsprechend der aktuellen Situation des Unternehmens auf der Grundlage der drei Indikatoren Arbeitseffizienz des Finanzpersonals, Verwendung der Finanzmittel und Gesamteffizienz der Finanzoperationen erstellt. Durch die Anwendung der Datenumhüllungsanalyse und der statischen Baumanalyse wird ein umfassendes Analysemodell erstellt. Der Indexdatenfluss wird gemäß dem Grenzleistungswert abgetastet und die Gewichtung jedes Faktors wird unter Verwendung der Idee der Fuzzy-Hierarchie berechnet. Nach der Quantifizierung wird die endgültige Fuzzy-Bewertung erhalten und die Key-Performance-Bewertung durchgeführt. Die experimentellen Ergebnisse zeigen, dass der Datenaggregationsgrad der entworfenen Methode zur Bewertung der Schlüsselleistung im Vergleich zur traditionellen Methode zur Bewertung der Schlüsselleistung um 29% verbessert wird und der wissenschaftliche Charakter insgesamt stärker ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-67871-5_42 0c521ad910d42bbba9af9c806be0daa5;de;;;1.1.;;;Einführung der Designkognition Design ist die menschliche Konzeption und Planung von praktisch allem auf der Welt. Alles von Menschenhand geschaffene Design hat als seine grundlegende Essenz, dass alles von bestimmten Absichten angetrieben wird und durch eine Reihe von Handlungen erreicht wird, um Ergebnisse zu erzielen. Design ist Prozess, Artefakt und Disziplin. Wie im American Heritage Dictionary erklärt, bedeutet Design aus der Sicht der Handlung: (1) im Kopf zu begreifen oder zu gestalten, zu erfinden, (2) als Ziel oder Zweck zu haben, zu beabsichtigen und (3, ), um einen bestimmten Zweck oder eine bestimmte Wirkung zu schaffen oder zu erfinden. Durch die Synthese dieser Definitionen zu einem integrierten konzeptionellen Rahmen kann Design so beschrieben werden, dass es einen Zweck begreift, ein Ziel erfindet und einen Plan für eine zielgerichtete Absicht im Kopf formuliert. Andererseits ist ein Design aus der Perspektive eines Unternehmens: (1) eine Zeichnung oder Skizze, (2) eine grafische Darstellung, (3) ein bestimmter Plan oder eine bestimmte Methode, (4) ein begründeter Zweck oder (5 ) eine bewusste Absicht (American Heritage Dictionary 2013). Hier werden sowohl ein Zweck als auch eine Absicht als Entitäten behandelt, denn sie sind das Produkt schöpferischer Handlungen. Design ist also ein geschaffenes Objekt, eine generierte Methode, ein entwickelter Zweck oder eine gedachte Absicht für alltägliche Routinen, die durch mentale Anstrengung durchgeführt werden. Design sollte als wesentlicher Bestandteil des menschlichen Lebens anerkannt werden – tatsächlich als ein kritischer Bestandteil der menschlichen Intelligenz – und verdient als solches einen kritischen Diskurs.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-14017-9_2 6229d880ed99320552af50d24161675a;de;;;1.1.;;;Ein Vergleich der Gentranskriptionsprofile von domestiziertem und wildem Atlantischem Lachs ( Atlantischer Lachs wird seit ungefähr zehn Generationen domestiziert, beginnend in den frühen 1970er Jahren. Dieser Prozess der künstlichen Selektion hat verschiedene genetische Unterschiede zwischen Wild- und Zuchtbeständen geschaffen. Jedes Jahr entkommen Hunderttausende von Zuchtfischen in die Wildnis. Diese Entflohenen können sich mit wilden Artgenossen kreuzen, was sowohl der Fischzuchtindustrie als auch den Fischereimanagern Sorgen bereitet. Daher ist ein besseres Verständnis der Wechselwirkungen zwischen domestiziertem und wildem Lachs für die anhaltende Nachhaltigkeit der Aquakulturindustrie und die Erhaltung gesunder Wildbestände unerlässlich.;-;-;-;https://link.springer.com/article/10.1186/1471-2164-15-884 51e507317ac2eaaf12e725c18d074f07;de;;;1.1.;;;Verschränkung und Quantenfehlerkorrektur Die Quantenverschränkung ist ein grundlegendes Thema der Quanteninformation, das verschiedene Aspekte hat. Um seine Essenz zu entdecken, haben wir dieses Thema aus verschiedenen Blickwinkeln untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-33133-6_5 5ceaf0cc27abafec9baf7805809daeb2;de;;;1.1.;;;Altersbedingte Verlangsamung Die altersbedingte Verlangsamung ist eine der robustesten Erkenntnisse in der Gerontologie. Sein Ort liegt mit ziemlicher Sicherheit im Zentralnervensystem und seine Ursache war der Vorstoß vieler moderner Geropsychologie. Der spezifischen oder allgemeinen Natur der Verlangsamung wurde sowohl aus der Perspektive der Informationsverarbeitung als auch aus einem neuropsychologischen Ansatz viel Aufmerksamkeit geschenkt. Diese Präsentation wird eine Reihe von Experimenten skizzieren, die Informationsverarbeitung und kinematische Bewegungsanalyse umfassen, um sich auf die Phänomene der altersbedingten Verlangsamung und mögliche Erklärungen zu konzentrieren. Es wird argumentiert, dass der Alterungsprozess zu einer Desorganisation des Zentralnervensystems führt, so dass quantitative (Verlangsamung) und qualitative (Diskoordination) Veränderungen beobachtet werden. Diese Desorganisation kann unter Verwendung neuronaler Netze und in Bezug auf Bewegung durch den Begriff der selektiven Auflösung koordinativer Strukturen modelliert werden. Wenn die Freiheitsgrade, die normalerweise auf eine Einheit beschränkt sind, bei älteren Menschen unabhängig gesteuert werden müssen, können die Kosten sehr gut Langsamkeit und Koordinationsverlust sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-1976-4_6 cbefa740919b2e9960ef40589b5b9744;de;;;1.1.;;;Reale Welten: Simulation nicht standardmäßiger Rationalität in der Mikroökonomie In diesem Kapitel werden die Unterschiede zwischen dem Standardbegriff der Rationalität, der im neoklassischen Wirtschaftsmodell verwendet wird, und dem Begriff der „nicht standardmäßigen“ Rationalität beleuchtet. Der Begriff der Nicht-Standard-Rationalität wurde verwendet, um die Diskrepanzen zwischen den idealen kognitiven Einstellungen des Homo Oeconomicus und den begrenzten rationalen Fähigkeiten realer Entscheidungsträger anzugehen. Im Gegensatz dazu wird dieser Begriff durch keine adäquate oder erschöpfende theoretische Darstellung von „nicht standardmäßigen“ Präferenzen gestützt und bietet daher keine nützlichen Anwendungen für reale Simulationen in der Mikroökonomie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-22605-3_3 4cbc2a69de62871a229d2d08bc290144;de;;;1.1.;;;Allgemeine Modelle individueller Unterschiede in der Kognition: Die Kommentare Die Antwort auf diese Frage hängt von der theoretischen Orientierung ab. Ich bevorzuge einen groben Ansatz in der Tradition von Hans Eysenck und anderen, der betont, dass die Persönlichkeit nicht als eine weitere separate Fähigkeit des Geistes gedacht wird, sondern als Ergebnis des Funktionierens entscheidender Gehirn-Verhaltensprozesse/-systeme mit individuellen Unterschiede in den Betriebsparametern dieser Prozesse/Systeme, die zu dem führen, was wir „Persönlichkeit“ nennen – der große Lerntheoretiker Hull machte vor vielen Jahren im Wesentlichen dasselbe (sein Ansatz stimulierte Eysenck, 1957 seine erste kausale Theorie der Persönlichkeit zu entwickeln). ). Diese Perspektive sieht „Persönlichkeit“ als die Kehrseite der Gehirn-Verhaltensmünze, einschließlich ihrer kognitiven Komponenten. Welche Gehirn-Verhaltenssysteme sind entscheidend für individuelle Unterschiede in der Kognition? Entscheidende Persönlichkeitssysteme weisen nach Corr (2007) folgende Merkmale auf: (1) sie üben einen durchdringenden und signifikanten Einfluss auf psychische Funktionen aus und (2) sie dienen der Differenzierung von Menschen hinsichtlich habitueller Verhaltensformen. Darüber hinaus müssen die Systeme, die an systematischen Variationen von Verhalten, Emotionen und Kognition beteiligt sind, die den entscheidenden zugrunde liegenden Gehirn-Verhaltenssystemen entsprechen, auch Folgendes aufweisen: (1) signifikante polymorphe Variation in der Population und (2) Stabilität im Zeitverlauf.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-1210-7_4 4280286a9b6c9f4c9ec3ed019e46c0df;de;;;1.1.;;;Neuartiges Architekturmodell in CWNs In diesem Kapitel werden innovative Architekturen von CWN im Detail vorgestellt. Nach einem kurzen Überblick über die Forschungsarbeiten bestehender Architekturen wird eine neuartige Architektur von CWN vorgeschlagen, die den kognitiven Informationsfluss und den Ressourcenfluss umfasst. Anschließend wird auch die funktionale Architektur des vorgeschlagenen neuartigen CWN vorgestellt. Abschließend wird die Deployment-Architektur kurz unter Implementierungsgesichtspunkten im Hinblick auf die ungleichmäßige Informationsdichteverteilung dargestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-15768-9_3 e63ef7333a34157b54666d1bfdeafb49;de;;;1.1.;;;Längsbeziehungen zwischen Überzeugungen, die Aggression, Wutregulierung und Dating-Aggression unter frühen Jugendlichen unterstützen Dating-Aggression tritt häufig in der frühen bis mittleren Adoleszenz auf und hat negative Auswirkungen auf die psychosoziale Anpassung und die körperliche Gesundheit. Die während dieses Entwicklungszeitrahmens erlernten Verhaltensmuster können in zukünftigen Datierungsbeziehungen bestehen bleiben, was die Notwendigkeit unterstreicht, Risikofaktoren für dieses Ergebnis zu identifizieren. Die aktuelle Studie untersuchte Längsschnittbeziehungen zwischen Überzeugungen, die Aggression, Wutregulierung und Datierungsaggression unterstützen. Die Teilnehmer waren 176 Mittelschüler der sechsten, siebten und achten Klasse (50 % weiblich, 82 % Afroamerikaner). Zwischen Überzeugungen, die reaktive oder proaktive Aggression unterstützen, und Dating-Aggression wurden keine direkten Effekte gefunden. Überzeugungen, die reaktive Aggression unterstützen, sagten eine Zunahme der Wutfehlregulation voraus, und Überzeugungen, die proaktive Aggression unterstützen, führten zu einer nachfolgenden Zunahme der Wuthemmung. Wut-Dysregulation und -Hemmung waren mit einer höheren Häufigkeit von Dating-Aggression verbunden. Ein indirekter Effekt wurde für den Zusammenhang zwischen Überzeugungen, die reaktive Aggression begünstigen, und Datierung von Aggression über Wutdysregulation gefunden. Ein weiterer indirekter Effekt ergab sich für die Beziehung zwischen Überzeugungen, die proaktive Aggression begünstigen, und Aggression aufgrund von Wuthemmung. Die Ergebnisse der Studie legten nahe, dass Überzeugungen, die proaktive und reaktive Aggression unterstützen, unterschiedlich mit Emotionsregulationsprozessen in Zusammenhang stehen, und identifizierten Wutfehlregulation und -hemmung als Risikofaktoren für die Datierung von Aggression bei Jugendlichen.;-;-;-;https://link.springer.com/article/10.1007/s10964-016-0569-0 18d8dabc8294cffafcc3a590ada04209;de;;;1.1.;;;Entscheidungsfindung in Zellen Zelluläre Signaltransduktionsnetzwerke sind hochkomplex strukturiert, was stark darauf hindeutet, dass sie Funktionen haben, die über die einfache Weitergabe von Informationen von außerhalb der Zelle ins Innere hinausgehen. Jüngste Erkenntnisse aus mathematischen und systemischen Ansätzen zur Untersuchung dieser Netzwerke weisen darauf hin, dass diese komplexen Netzwerke externe Signale tatsächlich auf eine nicht triviale Weise verarbeiten könnten, was die Fähigkeit zur Entscheidungsfindung in der Zelle verleiht. In diesem Kapitel werden wir zunächst die Konzepte von Information, Informationsverarbeitung und Entscheidungsfindung aus quantitativer Perspektive analysieren. Wir werden diese Analyse dann auf die Strukturen und Funktionen intrazellulärer Signalübertragungsnetzwerke anwenden und sehen, dass sie viele Merkmale aufweisen, die mit nichttrivialen Entscheidungssystemen vereinbar sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-5797-9_12 cab6804c9b42fc621972d2d078ab8127;de;;;1.1.;;;Eine Methode zur Erstellung allgemeiner Konzepte unter Verwendung von temporalen Entscheidungsbäumen Es werden mehrere Ansätze zum Erzeugen von zeitlichen Entscheidungsbäumen für Diagnosezwecke und Algorithmen zum Erzeugen von Entscheidungsbäumen betrachtet. Der Prozess der Diagnose basierend auf Informationen über mögliche Fehler wird modelliert. Für die Diagnostik in der Dynamik wird ein Multiagenten-Ansatz verwendet.;-;-;-;https://link.springer.com/article/10.3103/S0147688211060025 1538ad02eddb06cbb9f19791a5eff583;de;;;1.1.;;;Intelligente Planung und Gestaltung eines neuen risikobasierten, intelligenten Flugplans Ein sicherer Flug beginnt mit der effektiven Durchführung der Flugplanungs- und Einweisungsaufgabe vor dem Flug. Es können jedoch mehrere Probleme im Zusammenhang mit der Ausführung dieser Aufgabe identifiziert werden. Potenziell bietet die Einführung eines verbesserten Flugplans die Möglichkeit, die Qualität und Verfügbarkeit der der Flugbesatzung zur Verfügung gestellten Informationen zu verbessern, wodurch die Qualität der Besatzungsbesprechungen verbessert wird. Der vorgeschlagene risikobasierte, intelligente Flugplan wird aus der Sicht des aktuellen Betriebskonzepts (z. In diesem Fall liegt der Schwerpunkt auf dem Austausch von Informationen zwischen bestimmten Interessengruppen der Fluggesellschaften (z. B. Flugbetriebsmanagement und Sicherheitsfunktionen) und der Wartung, um einen sicheren und effizienten Flugbetrieb zu unterstützen. Insgesamt wird die Einführung dieses neuen Flugplans zur Definition neuer betrieblicher und organisatorischer Prozesse sowie zu einer neuen Art der Durchführung der Vorflug-, Planungs- und Einweisungsaufgabe führen. Es wird erwartet, dass sich dies positiv auf die Betriebs- und Sicherheitsergebnisse des Fluges auswirken wird.;-;-;-;https://link.springer.com/article/10.1007/s10111-010-0154-3 da22c1def2b29ee6c8c2f911fb8d08b2;de;;;1.1.;;;Hände, Worte und Geist: Zur Strukturalisierung von Körperbewegungen im Diskurs und der Fähigkeit zur verbalen Repräsentation Harold Bloom (1973) brachte in seinem Bestreben, die Beziehung eines Dichters zum anderen darzustellen, eine eindringliche Idee vor – die Angst vor Einfluss. Der Dichter muss in seinem Bemühen, die Integrität seines schöpferischen Denkens zu bewahren, ständig das Eindringen seiner Vorgänger abwehren. Er wendet seine Energie auf sich selbst, um diese Autonomie zu bewahren, und erreicht sie oft mit schrecklichen Kosten. Der verbale Dialog im menschlichen Diskurs ist weit entfernt von einem poetischen Dialog, sondern wird auch von der Angst vor Einfluss bestimmt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-0492-1_6 e188100477f926e7c455114390907e49;de;;;1.1.;;;Temporales XML-Indexschema Aufgrund der Eigenschaften zeitlicher Beschränkungen kann es in temporalem XML eine Beziehung zwischen strukturellen und zeitlichen Informationen geben. Dieses Kapitel konzentriert sich darauf und untersucht einen zeitlichen XML-Index basierend auf einer linearen Ordnung. Zunächst wird die lineare Ordnungsaufteilung erörtert, die dem zeitlichen Index einen mathematischen Rahmen bietet. Zweitens erforscht es Algorithmen zu linearen Ordnungszweigen, die für die Indexerstellung entscheidend sind. Drittens untersucht es die Abfragepfade basierend auf temporalem XML. Schließlich implementiert es Simulationen mit einer großen Anzahl von Testdaten, deren Ergebnisse zeigen, dass der Index machbar und effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14959-7_10 b78af6df6db4a9349f68ce15887e5e35;de;;;1.1.;;;Unterbrechung der Monotonie bei gleichzeitiger Erhöhung der Nachfrage: Vorteile von Ruhe und intervenierenden Aufgaben bei der Wachsamkeit In den hier vorgestellten Experimenten haben wir den Einfluss intervenierender Aufgaben auf das Vigilanzdekrement untersucht. In Experiment 1 führten die Teilnehmer entweder (a) kontinuierlich eine visuell-räumliche Wachsamkeitsaufgabe durch, (b) erhielten eine Ruhepause oder (c) führten vorübergehend eine andere, anspruchsvolle visuell-räumliche Aufgabe in der Mitte der Wache durch. Es wurde festgestellt, dass sowohl das Einlegen einer Ruhepause als auch das Ausführen der dazwischenliegenden Aufgabe die Wachsamkeitsabnahme in den Reaktionszeiten verringert. Die Genauigkeit der Zielerkennung war in allen Gruppen gleich. In Experiment 2 erhielten wir subjektive Bewertungen von Aufgabenanforderung, Langeweile, Motivation und Gedankenwanderung sowohl für die Wachsamkeitsaufgabe als auch für die Zwischenaufgabe, die in Experiment 1 durchgeführt wurden. Die Zwischenaufgabe wurde in Bezug auf mentale Anforderungen, körperliche Anforderungen und zeitliche Anforderungen als anspruchsvoller eingestuft , eigene Leistung, Anstrengung und Frustration. Darüber hinaus berichteten die Teilnehmer auch, dass sie sich gelangweilter und weniger motiviert fühlten und dass ihre Gedanken beim Abschluss der Mahnwache häufiger abwanderten. Störungen der Aufgabenmonotonie (auch wenn sie kognitiv anspruchsvoll sind) können die Abnahme der Wachsamkeit mildern. Die Implikationen dieses Ergebnisses in Bezug auf aktuelle theoretische Darstellungen des Vigilanzdekrements werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s00426-016-0752-7 02192faa95548a3610dddf6e25ae9928;de;;;1.1.;;;Strukturbildung und nichtlineare Dynamik in Polyelektrolyt-responsiven Gelen Allgemeine Prinzipien der Informationsverarbeitung durch chemische lichtempfindliche Reaktionen – Diffusionsmedien werden diskutiert. Es werden neue Modi der Bildentwicklung im Prozess seiner Umwandlung durch Reaktion – Diffusionsmedium vorgeschlagen. Beschrieben wird ein neuer Ansatz für das Design von Materialien, die ein oszillierendes Quell-Entquell-Verhalten zeigen, basierend auf Komplexen von Katalysatoren der Belousov-Zhabotinsky (BZ)-Reaktion mit Polymergelen.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-2993-5_8 e623824d09a64999d77507d7e825327b;de;;;1.1.;;;Neurocomputing: Die Technologie und einige potenzielle Anwendungen in der Neurochirurgie Gegenwärtig basiert im Wesentlichen die gesamte automatisierte Informationsverarbeitung auf dem Paradigma der „verherrlichten Rechenmaschine“, das John von Neumann in seinem Beraterbericht von 1945 für das Projekt, das den ersten verwendbaren elektronischen Digitalcomputer entwickelte, ENIAC formulierte. Bei diesem Ansatz definiert der Benutzer das zu lösende Problem und entwickelt anschließend ein algorithmisches Verfahren zu dessen Lösung. Dieser Algorithmus wird dann in einer Softwaresprache (z. B. FORTRAN, Ada, C, Pascal usw.) ausgedrückt und auf einem Computer ausgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-2798-4_9 836667cfcfb798d104be1cddfb9eef6f;de;;;1.1.;;;Quanteninformation durch Verschränkung und verrauschte optische Moden schützen Wir integrieren aktive und passive Quantenfehlerkorrekturtechniken, um eine Reihe optischer Informationsmodi eines kontinuierlich veränderlichen Quanteninformationssystems zu schützen. Unsere Methode verwendet Ancilla-Modi, verschränkte Modi und Gauge-Modi (Modi in einem gemischten Zustand), um Fehler in einer Reihe von Informationsmodi zu korrigieren. Eine linear-optische Codierschaltung bestehend aus Offline-Squeezern, passiven optischen Geräten, Vorwärtssteuerung, bedingter Modulation und Homodyn-Messungen führt die Codierung durch. Das Ergebnis ist, dass wir den verschränkungsunterstützten Operatorstabilisator-Formalismus für diskrete Variablen auf die kontinuierliche Quanteninformationsverarbeitung erweitern.;-;-;-;https://link.springer.com/article/10.1007/s11128-009-0117-x 776fb2dc51fd669c527368ebceb4d07d;de;;;1.1.;;;Ein biologisch inspiriertes Modell zur Erkennung überlappender Muster In dieser Arbeit wird ein biologisch inspiriertes Modell zur Erkennung überlappender Muster vorgeschlagen. Als Lösung des Problems wird die Informationsverarbeitung entlang der beiden visuellen Informationsverarbeitungswege, d. h. des dorsalen und des ventralen Weges, modelliert. Wir gehen davon aus, dass die dorsale Bahn zusätzlich zur Codierung der räumlichen Informationen die Formdarstellungen der Muster lernt. In unserem Modell verwendet der dorsale Pfad das Formwissen als Top-Down-Führungssignal, um die Bottom-Up-Salienzkarte der überlappenden Muster zu segmentieren. Die segmentierte Karte wird verwendet, um die Verarbeitung im ventralen Pfad zu modulieren. Die Mustersegmentierung in der dorsalen Bahn wird als interaktiver Prozess implementiert. Die Interaktion zwischen den beiden Bahnen führt zu einer sequentiellen Erkennung der überlappten Muster entlang der ventralen Bahn nacheinander. Simulationsergebnisse unterstützen die vorgestellte Hypothese sowie die Effektivität des Modells.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32711-7_12 e3467fddf56b8f8eb5f6982da01d313c;de;;;1.1.;;;Fallstudien zum webbasierten kollaborativen Design Daten, die aus realen Projekten mit webbasierten Kommunikations- und Projektmanagementsystemen gesammelt wurden, liefern quantitative Beweise für die Charakterisierung des Designprozesses. Zehntausende von Datensätzen wurden aus sechs Fällen analysiert. Bei den Gehäusen handelt es sich ausschließlich um High-End-Büro- und Einzelhandelsbauprojekte mit etwa 50 Mitgliedern des Designteams. Die Daten unterstützen die Unterscheidung mehrerer Phasen im Designprozess, da sich die Nutzungsmuster der Software im Laufe der Zeit ändern. Koordinationsaktivitäten sind in frühen Stadien häufiger, während Kooperationsaktivitäten in späten Stadien häufiger vorkommen. In der Planungs- und Entwurfsphase konzentriert sich der Einsatz der Software auf den Zugriff auf statische Informationen, während in der Baudokumentation eine relativ größere Anzahl von Aktivitäten Generierungs- und Verarbeitungsvorgänge umfasst.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-3698-1_43 0dd99817c623917f5973377a3865bdcf;de;;;1.1.;;;Timing-Mechanismen bei der optimalen Nahrungssuche: Einige Anwendungen der Skalarerwartungstheorie Unsicherheit und ihre Auswirkungen auf die Vorhersagen der optimalen Nahrungssuche wurden ausführlich diskutiert (für eine Übersicht siehe Stephens & Krebs 1986). Üblicherweise wird angenommen, dass Unsicherheit aus stochastischen Eigenschaften der Umwelt (Caraco 1980, McNamara & Houston 1980) oder aus vorübergehend unvollständigem Wissen während des Lernens resultiert (Krebs, Kacelnik & Taylor 1978, McNamara & Houston 1985, Shettleworth, Krebs, Stephens & Gibbon 1988). Ungewissheit bei der Nahrungssuche kann jedoch auch von intrinsischen Eigenschaften der informationsverarbeitenden Fähigkeiten des Räubers herrühren. Hier betrachten wir Ambiguitätsprobleme bei der Nahrungssuche im psychologischen System, das für die Wahrnehmung, Speicherung und den Abruf von Informationen über die Dauer von Zeitintervallen verantwortlich ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-75118-9_4 30b0462a5d8b57ea4dde12800b7c451f;de;;;1.1.;;;Wissensmanagement für Projekte Der aktuelle Diskurs über Wissensmanagement in Unternehmen leidet häufig unter Zweifeln am tatsächlichen Nutzen des Konzepts in der Praxis. Malik unterstreicht diesen Trend in seinem Statement „Wissensmanagement – ​​auch dieser König ist nackt“ (Malik (2001) Wissensmanagement – ​​auch dieser Kaiser ist nackt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44214-2_5 8aec680e6c4189384c5ed5da94e095f8;de;;;1.1.;;;Demenzfrüherkennung: Mögliche Beiträge der Neuropsychologie Die Beurteilung der sehr frühen Stadien der senilen Demenz scheint aus mehreren Gründen relevant zu sein. Zunächst ist es wichtig, zwischen dem „normalen“ Altern und verschiedenen psychiatrischen und neurologischen Erkrankungen im Hinblick auf eine mögliche Intervention in den Krankheitsverlauf durch biologische (medikamentöse) und nichtbiologische (Training, Psychotherapie) Methoden zu unterscheiden. Angesichts der weniger ausgeprägten strukturellen Veränderungen ist eine Behandlung in einem früheren Stadium des Krankheitsverlaufs wahrscheinlich erfolgreicher. Es gibt einige Hinweise für diese Hypothese in Bezug auf die Behandlung mit Vasopressin-ähnlichen Neuropeptiden (z. B. Jolles 1983). Zweitens kann in den sehr frühen Stadien der senilen Demenz das Profil der Verhaltens-, emotionalen und kognitiven Defizite des Patienten einen Hinweis auf die Ursache der Krankheit oder der Krankheiten und deren Pathogenese geben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-70644-8_7 d6311e0d00e09dc643b9f46de7a37f24;de;;;1.1.;;;Dynamisches Modell der Gerüchteverbreitung basierend auf evolutionärem Spiel und Anti-Gerüchten Im sozialen Online-Netzwerk enthält der Verbreitungsprozess von Gerüchten eine komplexe Dynamik. Die traditionelle Forschung der Gerüchteverbreitung untersucht hauptsächlich den Verbreitungsprozess von Gerüchten aus der Perspektive von Gerüchten und teilnehmenden Nutzern. Die Symbiose und Konfrontation von Gerüchte- und Anti-Gerücht-Informationen und die dynamischen Veränderungen des Einflusses von Anti-Gerücht-Informationen werden nicht betont. Gleichzeitig werden auch die Rentabilität der Menschen und die Herdenpsychologie ignoriert. Angesichts der obigen Probleme berücksichtigen wir die Anti-Gerücht-Informationen und die psychologischen Faktoren des Benutzers vollständig, konstruieren ein Modell der Gerüchte-Ausbreitungsdynamik basierend auf evolutionären Spiel- und Anti-Gerücht-Informationen und bieten eine theoretische Grundlage für das Studium der inhärenten Gesetze des Verbreitungsprozesses von Gerüchten. Zunächst analysieren wir das Interaktionsmuster und die Charakteristik von Gerüchten in sozialen Netzwerken. In Anspielung auf die Symbiose von Gerüchte- und Anti-Gerücht-Informationen und die dynamischen Veränderungen des Einflusses von Anti-Gerücht-Informationen haben wir auf Basis des SIR-Modells das SKIR-Gerüchtverbreitungsmodell konstruiert. Zweitens verwenden wir aufgrund der Rivalität zwischen Gerüchten und Anti-Gerüchten-Informationen sowie der Rentabilität und der Herdenpsychologie des Benutzers die evolutionäre Spieltheorie, um den treibenden Kraftmechanismus von Informationen zu konstruieren und die Ursachen des Benutzerverhaltens im Verbreitungsprozess von Gerüchten zu untersuchen. Gleichzeitig kombinieren wir die Verhaltensfaktoren und externen Faktoren des Benutzers, um den Einfluss von Informationen durch die multivariate lineare Regressionsmethode zu ermitteln, die die theoretische Grundlage für die treibende Kraft der Informationen liefert. Durch die Kombination des in diesem Papier vorgeschlagenen SKIR-Modells erhalten wir schließlich ein Modell der Gerüchteausbreitungsdynamik, das auf evolutionären Spiel- und Anti-Gerüchtsinformationen basiert. Wir haben durch Experimente bewiesen, dass das Modell die Ausbreitungssituation von Gerüchten und die dynamische Änderungsregel des Einflusses von Anti-Gerüchtsinformationen effektiv beschreiben kann. Andererseits kann es auch den Einfluss der Psychologie der Menschen auf die Verbreitung von Gerüchten widerspiegeln.;-;-;-;https://link.springer.com/article/10.1007/s11071-018-4579-1 1eac9fd22f044ddad8ff444161dc3bd1;de;;;1.1.;;;Überprüfung und weitere Diskussion über Bewusstsein Informationen, die für uns eine neue Bedeutung bekommen, können mit der Blüte eines schönen Baumes im Frühling verglichen werden. Wenn wir beginnen, eine Fremdsprache zu verstehen oder die Bedeutung eines Gedichts zu verstehen, ist die Errungenschaft, der vorherigen Information eine neue oder tiefere Bedeutung zu verleihen – die Erlangung einer;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0977-8_12 fe8d6f5eeb31185b9053c2120c85e16f;de;;;1.1.;;;Präkrastinations- und Aufschubeffekte treten bei einer Greifaufgabe auf Wie entscheiden wir, welches Objekt wir aufnehmen sollen, wenn wir zwei Alternativen haben? Stellen Sie sich vor, ein Objekt ist nah, muss aber über eine lange Distanz getragen werden, und das andere Objekt ist weit entfernt, muss aber über eine kurze Distanz getragen werden. Sie könnten vorhersagen, dass die Teilnehmer das entfernte Objekt bevorzugen würden, das über eine kurze Distanz getragen werden muss. Mit anderen Worten, sie würden das Aufnehmen eines Gegenstands aufschieben und verzögern, um die körperliche Anstrengung zu minimieren. Tatsächlich ziehen es die Teilnehmer vor, das nahe Objekt über eine lange Distanz zu tragen, was als Präkrastination bezeichnet wird. Die Vorkrastination kann der Aufschubzeit vorgezogen werden, da das Aufnehmen des ersten Objekts das Erreichen des ersten Ziels der Aufgabe beschleunigt und anschließend die kognitive Belastung verringert. Ziel der aktuellen Studie war es, die Mechanismen des Präkrastinationseffekts weiter zu untersuchen. Dies wurde erreicht, indem die primäre Gehaufgabe, die in der ersten Studie zur Präkrastination verwendet wurde, in eine Greifaufgabe umgewandelt wurde. Diese Änderung ermöglichte die Messung der Dauer der Informationsverarbeitung (d. h. der Reaktionszeit), wenn die Teilnehmer entschieden, welches Objekt sie bewegen wollten. Überraschenderweise zeigten die Teilnehmer eine Reihe von Verhaltensweisen: etwa 40% vorkrastiniert, 40% aufgeschoben und 20% weder vorkrastiniert noch aufgeschoben. Wir schlagen vor, dass das Herunterskalieren der Aufgabe von einer Gehaufgabe auf eine Greifaufgabe die körperliche Anstrengung, die kognitive Belastung und die Interaktion zwischen diesen Aufgabenanforderungen verändert. Dies ermöglichte es einigen Teilnehmern, vorzukrastinieren und anderen zu zögern. Es gab einen interessanten Zusammenhang zwischen der Dauer der Informationsverarbeitung und dem Verhalten der Teilnehmer: Teilnehmer mit der kürzesten Reaktionszeit hatten die stärkste Tendenz zur Präkrastination und Teilnehmer mit der längsten Reaktionszeit hatten die stärkste Tendenz zur Prokrastination. Diese Ergebnisse stimmen mit der Hypothese der automatischen Präkrastinationsreaktion überein, dass die „Entscheidung“ zur Präkrastination automatisch erfolgt. Dieser Automatismus verursachte die kurze Dauer der Informationsverarbeitung für Teilnehmer, die vorkrastiniert waren. Teilnehmer, die prokrastinierten, mussten zunächst die automatische Reaktion auf Präkrastinate hemmen, was eine lange Dauer der Informationsverarbeitung verursachte.;-;-;-;https://link.springer.com/article/10.1007/s00221-019-05493-3 23ba37f3d759cbef6d6f0d69de895fd3;de;;;1.1.;;;Leistung erhöht die Abhängigkeit von bevorzugten Verarbeitungsstilen Ein beträchtlicher Teil der Forschung hat vorgeschlagen, dass Macht zu heuristischer und kategoriebasierter Informationsverarbeitung führt, jedoch sind die Beweise oft widersprüchlich. Wir schlagen die neuartige Idee vor, dass Macht chronisch zugängliche Informationsverarbeitungsstile verstärkt, die entweder zur systematischen oder heuristischen Verarbeitung beitragen können. Wir untersuchen heuristische (vs. systematische) Verarbeitung in Verbindung mit der Notwendigkeit des Abschlusses. Die Ergebnisse von drei Studien und einer Metaanalyse unterstützten diese Behauptungen. Macht erhöhte heuristische Informationsverarbeitung, manifestiert in der Erkennung schemakonsistenter Informationen, in der Verwendung stereotyper Informationen zur Bildung von Eindrücken und verringerte die Komplexität kategorialer Darstellungen, jedoch nur für diejenigen Teilnehmer, die Informationen standardmäßig nach vereinfachten Heuristiken verarbeiteten, d , sind stark schließungsbedürftig. Für diejenigen, die diesen Verarbeitungsstil weniger bevorzugen, d. h. einen geringen Schließbedarf, führt die Leistung zu den gegenteiligen Effekten. Diese Ergebnisse legen nahe, dass Macht Individuen dazu ermächtigt, sich auf ihre dominanten Informationsverarbeitungsstrategien zu verlassen, und dass Macht die zwischenmenschliche Variabilität erhöht.;-;-;-;https://link.springer.com/article/10.1007/s11031-016-9548-8 c6d61b68710e0e5f39fbe4904a9d890f;de;;;1.1.;;;Prolegomenon für eine Holonomische Gehirntheorie „Bevor der Zusammenhang von Denken und Gehirn erklärt werden kann, muss er in elementarer Form angegeben werden, und es ist sehr schwierig, ihn zu formulieren. … Viele würden an dieser Stelle Erleichterung finden, wenn sie das Geheimnis des Unerkennbaren und die „Staunen“, die wir empfinden sollten, feiern würden. ... Es mag ein konstitutionelles Gebrechen sein, aber ich kann mich nicht mit solchen Mitteln trösten, die intellektuelle Niederlage zum Luxus machen. … Lieber am Rande leben, besser ewig an der Feile nagen!“ (James, 1950, S. 177–179);-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-48779-8_10 03fc99478b85b02b62a9b8856d65191b;de;;;1.1.;;;Co-Evolution und Co-Management von ökonomischer und ökologischer Nachhaltigkeit: Ein semantischer Ansatz zur Modellierung klimaangepasster Landnutzungsstrategien in Nordwestdeutschland Ökosysteme und Wirtschaftssysteme sind funktional miteinander verflochten. In Bezug auf Klimawandel und Nachhaltigkeit nehmen widersprüchliche Dynamiken zu. Eine sorgfältige Fragestellung wird daher als Voraussetzung dafür gesehen, Komplexität zu strukturieren, ohne exklusiv zu sein. Im Projekt nordwest2050 wird zu klimaangepassten Innovationsstrategien im Nordwesten Deutschlands geforscht. Ein Thema ist die regionale Regulierung von Landnutzungskonflikten. Ein vorausschauendes gemeinsames Management ökologischer und ökonomischer Zwecke wird durch den Einsatz dynamischer Modellierung unterstützt. Die Analyse und Regulierung sozioökonomischer Konflikte erfordert sowohl quantitative als auch qualitative Daten. Informationen, die auf mehreren Ebenen verstreut sind, müssen vor Ort identifiziert, bewertet und kommuniziert werden. Daher wird hier ein semantischer Ansatz vorgestellt, der darauf abzielt, die konzeptionellen Schnittstellen zu strukturieren, mit denen das dynamische Modell arbeitet. Die Integration der Fähigkeiten entscheidungsentscheidender Wirtschaftsakteure mit der sensiblen Bündelung von Informationen baut auf dem Konzept der Ökosystemleistungen auf. Das Modell dient als Werkzeug, um gemeinsam mit regionalen Akteuren unterschiedliche Einstellungen und Anpassungen zu reflektieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19536-5_17 96ebdc087cf56eb9176c4f1e8aec0f5a;de;;;1.1.;;;Aufmerksamkeitsbewertung, simultan-sukzessive Codierung und Planung Es hat eine signifikante Verschiebung von der Definition von Fähigkeiten hin zu einem Interesse am Verständnis kognitiver Prozesse stattgefunden (Glaser, 1972, Messick, 1973). Als Reaktion auf diese Verschiebung von der Fähigkeit zur Verarbeitung haben sich einige Psychologen der Informationsverarbeitung zugewandt (z. B. Hunt, 1980, Simon, 1981), weil der breite Rahmen, den die Informationsverarbeitung bietet, unterschiedliche Ansätze zur Intelligenz wie computerbasierte und neuropsychologische Modelle berücksichtigen kann . Um zu verstehen, wie Informationen verarbeitet werden, müssen Sie versuchen zu verstehen, wie sie im Gehirn ablaufen. Diese Absicht, die sprichwörtliche „Black Box“ zu verstehen, wird von Intelligenztheoretikern wie Eysenck (1981) und Jensen (1981) geteilt, insbesondere durch ihre Versuche, eine biologische Grundlage für Intelligenz zu entdecken.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-4392-2_8 3e2da03ce2fdee3ea03b7ab0ffbd5c27;de;;;1.1.;;;Grenzen der gegenseitigen Information für einfache Codes durch Informationskombination Für die codierte Übertragung über einen speicherlosen Kanal werden zwei Arten von gegenseitiger Information betrachtet: die gegenseitige Information zwischen einem Codesymbol und seiner verrauschten Beobachtung und die gesamte gegenseitige Information zwischen Codierereingang und Decodiererausgang. Die gegenseitige Gesamtinformation wird als Kombination der den einzelnen Codesymbolen zugeordneten gegenseitigen Informationen interpretiert. Somit wird das Ausnutzen von Codebeschränkungen in der Decodierungsprozedur als Kombinieren gegenseitiger Informationen interpretiert. Für einzelne Paritätsprüfcodes und Wiederholungscodes präsentieren wir Grenzen für die gegenseitige Gesamtinformation, die nur auf den den einzelnen Codesymbolen zugeordneten gegenseitigen Informationen basiert. Unter Verwendung dieser gegenseitigen Informationsgrenzen berechnen wir Grenzen für die extrinsische Informationsübertragung (;-;-;-;https://link.springer.com/article/10.1007/BF03219813 4070e44052cb59af4a2dbb6ba232a6c4;de;;;1.1.;;;Reflexschaltung, die höhere Funktionen unterstützt Die Formen des Lernens, die höhere Funktionen unterstützen, entstehen als Summen von Eigenschaften neuronaler Systeme auf subzellulärer, zellulärer und Netzwerkebene. Wir haben bereits gesehen, wie die zellulären und subzellulären Eigenschaften die neuronale Anpassung und damit die Funktionsweise neuronaler Netze beeinflussen, die erlerntes Verhalten unterstützen. Aber was ist mit der Reflexschaltung? Wie beeinflusst die Architektur der Reflexschaltung das Gedächtnis, das Lernen und die höheren Funktionen? In der Technik ist der Entwurf elektrischer Schaltungen wichtig, da jeder Entwurf seine eigenen Konsequenzen für die Informationsverarbeitung hat. Einige Logikschaltungen können beispielsweise dadurch unterschieden werden, ob sie seriell oder parallel arbeiten. Zwei in Reihe geschaltete Alles-oder-Nichts-Elemente (a und b) haben die logische Wirkung auf die Nachrichtenübertragung von „if“;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-5642-7_6 647a9fec3f362ddb25147d7f6f4e2d9c;de;;;1.1.;;;Interaktion mit der externen Umwelt: Das Prinzip der engen Grenzen des Wandels und das Prinzip der Umweltorganisation und -verknüpfung In den vorangegangenen Kapiteln wurde darauf hingewiesen, dass die menschliche Kognition beim Umgang mit biologisch sekundären Informationen einen sehr großen Informationsspeicher benötigt, um zu funktionieren. Das Langzeitgedächtnis bildet diesen Speicher. Der Großteil der im Langzeitgedächtnis gespeicherten Informationen wird durch Ausleihen von Informationen aus dem Langzeitgedächtnis anderer Personen gewonnen, wobei kleinere Mengen an Originalinformationen durch ein zufälliges Generierungs- und Testverfahren erzeugt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-8126-4_4 a749f6d7bb62b24a90e70886abd14a32;de;;;1.1.;;;Entwicklung eines empirischen Tests Im Folgenden soll die in den vorangegangenen Kapiteln dieses Buches entwickelte Perspektive von Vertrauen und adaptiver Rationalität einem empirischen Test unterzogen werden. Dieser Test hat ein doppeltes Ziel: Zum einen soll er die Angemessenheit einer adaptiven Rationalitätsperspektive in der Vertrauensforschung von einem allgemeinen Standpunkt aus beurteilen. Die in dieser Arbeit entwickelte „Framing“-Perspektive des Vertrauens ist insofern neu, als sie psychologische Vorstellungen von flexibler Informationsverarbeitung, „situierter Kognition“ und einer kontingenten Anwendung unterschiedlicher Vertrauensstrategien bei Vertrauensproblemen mit soziologischen Vorstellungen einer kulturellen Definition verbindet der Situation und adaptive Rationalität.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-07327-5_6 cb5d1efe97d1d34eb3092f1d66510c0f;de;;;1.1.;;;Objektorientierte Modellierung Die Analyse ist der Schlüssel zum Verständnis einer Domäne, eines Systems innerhalb der Domäne und der Umgebung, in der sie betrieben wird. Eine vollständige, kohärente und qualitativ hochwertige Analyse ist eine Voraussetzung für den Erfolg der Systemevolution. Während die Allgemeine Systemtheorie, die in Kapitel 14 diskutiert wird, versucht hat, das schwierige Problem der Erforschung gemeinsamer zugrunde liegender Systemprinzipien anzugehen, hat sie;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-56209-9_15 420f2731dc8b5dece1de46bde29deb82;de;;;1.1.;;;Neuro-elektrophysiologisches Argument zur Energiecodierung Basierend auf der Analyse sowohl neuroelektrophysiologischer experimenteller Daten als auch der biophysikalischen Eigenschaften von Neuronen haben wir in einer frühen Forschungsarbeit ein neues biophysikalisches Modell vorgeschlagen, das die Eigenschaft der Energiecodierung in neuronaler Aktivität widerspiegelt. Basierend auf den obigen Forschungsarbeiten kann das in dieser Arbeit vorgeschlagene biophysikalische Modell die Membranpotentiale und den depolarisierenden Membranstrom mittels neuro-elektrophysiologischer experimenteller Daten reproduzieren. In Kombination mit unseren bisherigen Forschungsergebnissen zeigt sich erneut, dass das vorgeschlagene biophysikalische Modell im Vergleich zu bekannten biophysikalischen Modellen von Neuronen effektiver ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72383-7_132 21632252721450d07e87bc84560769b6;de;;;1.1.;;;„Tote“ Chromosomen und ihre Eliminierung im neurogenetischen Aktienindex-Vorhersagesystem Dieses Papier stellt eine Methode für eine kurzfristige Aktienindexvorhersage vor. Die Quelldaten stammen von der Deutschen Börse (als Zielmarkt) und zwei weiteren Märkten (Tokyo Stock Exchange und New York Stock Exchange) zusammen mit den Wechselkursen EUR/USD und USD/JPY. Als Vorhersagemaschine werden neuronale Netze verwendet, die von einem genetischen Algorithmus (GA) unterstützt werden. Abgesehen von vielversprechenden numerischen Ergebnissen, die das System erzielt, liegt der besondere Fokus in der Arbeit auf dem Problem der Eliminierung von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10684-2_67 63a82523de9df29e999aa5f91ebdb0e4;de;;;1.1.;;;Bewertung des lokalen Beitrags zur globalen Leistung in drahtlosen Sensor- und Aktornetzwerken Drahtlose Sensornetzwerke werden oft mit dem Ziel untersucht, Informationen so effizient wie möglich aus dem Netzwerk zu entfernen. Wenn die Anwendung jedoch auch ein Aktornetzwerk umfasst, ist es vorteilhaft, Aktionen im Netzwerk zu bestimmen. In solchen Einstellungen führt die Optimierung des Sensorknotenverhaltens in Bezug auf die Sensorinformationstreue nicht notwendigerweise zu einem optimalen Verhalten in Bezug auf die Aktionstreue. Inspiriert von neuronalen Systemen präsentieren wir ein Modell eines Sensor- und Aktornetzwerks basierend auf den Vektorraumwerkzeugen von;-;-;-;https://link.springer.com/chapter/10.1007/11776178_1 3bde1b13e6bb0b023d6f016d7f1f38df;de;;;1.1.;;;Ein integriertes präventionswissenschaftliches Modell: Eine konzeptionelle Grundlage für die Präventionsforschung In diesem Kapitel wird eine umfassende Perspektive der Präventionswissenschaft vorgeschlagen, indem ein konzeptionelles Modell entwickelt wird, das primäre Sozialisationsmodelle mit sozialer Informationsverarbeitung und Entscheidungsfindung integriert. Unter Anwendung der gemeinsamen Definition von Sozialisation, um kulturell angemessene Normen und Werte zu vermitteln, die zu einem prosozialen, präventiven Verhalten von Individuen führen, wird der Schluss gezogen, dass im Präventionsprozess evidenzbasierte Sozialisationsinhalte vermittelt werden. Diese Kommunikation kann indirekt durch das Training relevanter Sozialisationsagenten oder direkt durch Präventionsagenten erfolgen, die selbst die Rolle eines Sozialisationsagenten einnehmen. Der Vorteil dieser Perspektive besteht darin, dass sie den Fokus der Präventionstheorien umlenkt, da sie Fragen im Zusammenhang mit dem Sozialisationsprozess behandeln. Da die Sozialisation eine universelle Erfahrung ist, die sich möglicherweise nur in ihrem Inhalt und ihrer Nachrichtenmodalität unterscheidet, ist die Anwendbarkeit dieser integrierten Theorie nicht durch geografische und kulturelle Grenzen beschränkt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-7424-2_11 31d98a329ab3d39ea6e5b5ec35ff4bcc;de;;;1.1.;;;Zugriffskontrollmethode basierend auf einem gegenseitigen Vertrauensmechanismus in der Edge-Computing-Umgebung Das Problem des gegenseitigen Vertrauens zwischen Benutzern und Edge-Knoten in einer Edge-Computing-Umgebung ist eine ausreichende Garantie für die doppelte Sicherheit von Edge-Computing-Dienstnutzern und -Dienstanbietern. Die Sicherheit und Glaubwürdigkeit des Benutzers zu erreichen und das Vertrauen der Edge-Service-Knoten zu gewährleisten, ist eine ernsthafte Herausforderung für die Sicherheit des Edge-Computing. In diesem Beitrag wird basierend auf dem User Behavior Trust Model und dem Edge Service Node Trust Evaluation Model das Konzept des gegenseitigen Vertrauens im Edge Computing definiert, der gegenseitige Vertrauensmechanismus und das gegenseitige Vertrauensmodell entworfen und auf dieser Grundlage der Zugang Es wird ein auf gegenseitigem Vertrauen basierendes Kontrollmodell EUSMTM vorgeschlagen. (Edge Users and Edge Servers Mutual Trust Model) wird das EUSMTM in Bezug auf Modelldefinition, Rahmenstruktur, Algorithmusfluss und Autorisierungsentscheidungsmechanismus detailliert beschrieben. Das EUSMTM-Modell integriert das Vertrauensmanagement eng in das RBAC-Modell (Role-Based Access Control). Das EUSMTM-Modell zielt auf die Multi-Domain-Eigenschaften der Edge-Computing-Umgebung ab und implementiert auf gegenseitigem Vertrauen basierende Strategien für die Intra-Domain-Zugriffskontrolle und Cross-Domain-Zugriffskontrolle und implementiert die Verbesserung und Erweiterung des RBAC-Modells in der Edge-Computing-Umgebung . Durch Vergleichen und Analysieren der Leistung von EUSMTM in einer simulierten Umgebung wird die Gültigkeit des Vertrauensmodells zwischen dem Benutzer und dem Edge-Server überprüft. Durch das vergleichende Experiment von bidirektionalem Vertrauen und einseitigem Vertrauen zwischen dem Edge-Benutzer und dem Edge Servers werden die relativen Vorteile der Zugriffskontrolle auf der Grundlage von bidirektionalem Vertrauen im EUSMTM-Modell analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-68884-4_28 143a901b73c1aac14600abf08a2f35a3;de;;;1.1.;;;Nicht-computergestützte Anwendungen der Quanteninformation in NMR Das Gebiet der Quanteninformationsverarbeitung hat von vielen Konzepten und Techniken der Kernspinresonanzspektroskopie (NMR) profitiert. Hier diskutieren wir, wie die NMR-Spektroskopie von Ideen der Quanteninformationstheorie profitieren kann. Die Anwendung der Optimalsteuerungstheorie auf Quantensysteme liefert viele Beispiele für die indirekte gegenseitige Befruchtung zwischen Computer- und Nicht-Computeranwendungen.;-;-;-;https://link.springer.com/article/10.1007/s00450-006-0014-9 a06b490d0f8ecea1848e577cc70835c7;de;;;1.1.;;;Soziale Kognition und soziale Realität: Informationsbeschaffung und -nutzung im Labor und in der realen Welt Die Forschung zur sozialen Kognition hat in den letzten Jahren großes Interesse geweckt. Obwohl sich Forscher in den spezifischen Konzepten und Methoden unterscheiden können, die sie im Sinn haben, wenn sie von „sozialer Kognition“ sprechen, sind sie sich im Allgemeinen einig, dass das ultimative Ziel ihrer Forschung darin besteht, die kognitiven Prozesse zu identifizieren, die vermutlich die Reaktionen der Menschen auf die Informationen vermitteln, die ihnen in sozialen Kontexten. Zu den besorgniserregenden „Input“-Variablen gehören Inhalt, Quelle und Kontext der im sozialen Umfeld verfügbaren Informationen. Zu den prominent untersuchten „Output“-Variablen gehören Einstellungen, Überzeugungen, Urteile und gelegentlich offenes körperliches Verhalten. Ziel der sozialen Kognitionsforschung ist es, die kognitiven Prozesse zu spezifizieren, die diese Variablen verbinden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-4798-2_2 15c10015edd91e216309ef680256f1c5;de;;;1.1.;;;Die Entwicklung der Zivilisation und die Entwicklung der Wissenschaft Der in der Epoche der wissenschaftlich-technischen Revolution fast grenzenlose Wissenschaftsglaube (Szientismus) ist am Ende des 20. Welche Prozesse in der Wissenschaft könnten diese Veränderungen verursacht haben? Welche Rolle spielen Positivismus und Dialektik in der modernen Wissenschaft? Diese Fragen werden in dieser Arbeit behandelt.;-;-;-;https://link.springer.com/article/10.3103/S0147688207020013 31d0b3e1cc42e7430e5acf61ea6baae6;de;;;1.1.;;;Rechenhilfen zur Planung und Steuerung der Fertigung Aktuelle Entwicklungen in der VLSI- und Softwaretechnologie führen zum Konzept verteilter computerbasierter Steuerungssysteme. Unterstützt wird diese Entwicklung durch Standard-Programmiersprachen wie PASCAL, COBOL, PEARL und ADA, Hochgeschwindigkeits-Kommunikationsmethoden und fortschrittliche Datenbanktechniken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-82748-8_6 177c09bd060ba3f1141776964c904dde;de;;;1.1.;;;Grundlagen der Computerkommunikation Das vorgestellte Kapitel enthält die Beschreibung der wichtigsten Kommunikationsprobleme in verschiedenen Arten von Computernetzwerken, grundlegende Computernetzwerkstrukturen, Grundlagen der Kommunikationstheorie, internationale Standards für Computernetzwerkdesign und eine kurze Beschreibung wesentlicher Eigenschaften typischer Computernetzwerke und offener Systeme.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-60286-0_106 9b7d2eab1556572c569d5ea8479426e8;de;;;1.1.;;;Handelsvolumen und Preisverzerrung: Ein agentenbasiertes Modell mit heterogenem Fundamentalwissen In diesem Beitrag wird untersucht, ob Handelsvolumen und Preisverzerrung durch die begrenzte Rationalität des Anlegers erklärt werden können. Angenommen, Agenten sind durch ihren Informationszugriff und ihre Verarbeitung eingeschränkt, was sind die Konsequenzen für die Marktdynamik? Wir stellen das Ergebnis von Simulationen in einem ABM dar, das die Liquidität als endogenes Merkmal des Marktes betrachtet und es erlaubt, Investoren als begrenzt rational zu gestalten. In einem Call-Auktionsmarkt, auf dem zwei riskante Vermögenswerte getauscht werden, werden Trader als eine Mischung aus fundamentalistischen und trendfolgenden Aussichten definiert. Jeder unterscheidet sich in Verhalten, Auftragsstrategie, Stimmung, Wissen, Risikoaversion und Anlagehorizont. Wir stellen Agenten in einen Kontext sich entwickelnder Fundamentalwerte und Orderplatzierungsstrategien, sie nehmen das Fundamentale wahr, haben aber auch eine heterogene Glaubensausdauer und passen ihre Orders an die Markttiefe an, um ihre Ausführungswahrscheinlichkeit und ihren Gewinn zu maximieren. Durch das Hinzufügen begrenzter Rationalität in ihrer Informationsverarbeitung zeigen wir, dass (1) übliche Merkmale wie Trendfolger-Ausblick und heterogener Anlagehorizont wichtige Merkmale sind, um eine übermäßige Volatilität der Vermögenspreise und Marktineffizienz zu erzeugen, (2) der lernende Fundamentalwert den Markt stabilisiert stabilize Preis und Handelsvolumen, (3) die Orderplatzierungsstrategie erhöht das Handelsvolumen, reduziert aber die Markteffizienz und -stabilität, (4) die Stimmung des Agenten verhindert einen illiquiden Markt und erhöht schwach die Marktvolatilität als klassische Noise-Trader-Agenten, (5) die Auf dem Markt ist immer die Ungeduld gegenüber dem Verkaufen von Händlern vorhanden: Die Verkaufsaufträge am Markt sind immer zahlreicher als die Kaufaufträge am Markt.;-;-;-;https://link.springer.com/article/10.1007/s10614-017-9655-y 7c9eb018b81cedebd9fec17ae96361aa;de;;;1.1.;;;Diskussion: Ein facettenreicher, mehrstufiger Angriff auf das Selbst In der Einleitung wurden mehrere Kategorien aufgezählt, die sich auf Wirkungen, Phänomene und Erklärungen bezogen, die mit den vielfältigen Selbstschulen verbunden sind. Nachdem die Autoren ihre Positionen und Wirkungen vorgestellt haben, zeigt sich einmal mehr, dass es nicht nur hinsichtlich der nachgewiesenen und dokumentierten empirischen Wirkungen, sondern vor allem hinsichtlich der breiten Theorie und Annahmen deutlich unterschiedliche Schulen gibt. Die Facette, der wir dieses Kapitel widmen möchten, ist die Tatsache, dass jeder Effekt bzw. jedes allgemeine Selbstphänomen in mehreren Kapiteln angegangen und beschrieben wurde. Das heißt, es handelt sich hier um eine endliche Anzahl interessanter Selbstphänomene, die jeweils von einer Autorengruppe bearbeitet werden, mit dem Vorteil, dass sich durch die divergenten Ansätze eine Art Triangulation ergibt. Diese Entwicklung versetzt uns in die Lage, über mehrere Selbstwirkungen wie folgt etwas Bestimmtes sagen zu können:;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-0331-2_27 bf9be0b8939986e58380989f3d47ab60;de;;;1.1.;;;OSI-Dienste für die Transaktionsverarbeitung In diesem Beitrag werden die Ansätze der „International Standard Organization“ (ISO) zur Unterstützung transaktionsorientierter Anwendungen in offenen Systemen vorgestellt und diskutiert. Das Papier basiert auf den seit Januar 1987 verfügbaren Dokumenten. Im ISO-Referenzmodell für „Open System Interconnection“ ist die anwendungsspezifische Kommunikationsunterstützung in der Anwendungsschicht (7) angesiedelt. Der Beitrag konzentriert sich auf den Aufbau und die Hauptkomponenten dieses Teils des Modells und insbesondere auf Dienste, die die Transaktionsverarbeitung in verteilten Anwendungen unterstützen. Anhand einer konkreten transaktionsorientierten Anwendung diskutieren wir den Einsatz unterschiedlicher Ansätze. Wir schließen das Papier mit einigen Kommentaren zur aktuellen Situation bei der Entwicklung von ISO-OSI-Standards für die Transaktionsverarbeitung ab.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-51085-0_40 0673405fc5f44d96c4d4c77aeccb2be4;de;;;1.1.;;;Auf dem Weg zu einer klareren Definition des Aufmerksamkeitsdefizits hyperaktiver Kinder In den letzten Jahren hat sich in der klinischen, pädagogischen und Forschungsliteratur die Akzeptanz der zentralen Bedeutung eines Aufmerksamkeitsdefizits bei hyperaktiven Kindern herauskristallisiert. Wenn wir die Definitionen von untersuchen;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2985-5_8 6ec0d77b8334752b79777b14a66fac0a;de;;;1.1.;;;Die Beziehung zwischen Reizverarbeitung und Antwortauswahl in der Simon-Aufgabe: Hinweise auf eine zeitliche Überlappung Wie der Simon-Effekt zeigt, können Wahlreaktionen schneller durchgeführt werden, wenn die Reaktion räumlich dem Reiz entspricht, auch wenn der Reizort für die Aufgabe irrelevant ist. In den Experimenten 1–4 werden die Beziehungen zwischen dem Simon-Effekt und Stimulusexzentrizität, Signalqualität und Signal-Hintergrund-Kontrast untersucht. Es wurde festgestellt, dass der Simon-Effekt mit all diesen Faktoren interagiert, zumindest wenn er blockweise manipuliert wird. Diese Ergebnisse stehen im Widerspruch zu früheren Ergebnissen und sind aus der Sicht der additiven Faktorenmethode schwer zu interpretieren. Es wird eine alternative Interpretation vorgeschlagen, die die Ergebnisse auf die zeitliche Beziehung zwischen der Verarbeitung der relevanten Reizinformationen und dem Ort des Reizes zurückführt. Die Annahme ist, dass eine Abnahme des Simon-Effekts durch jede experimentelle Manipulation verursacht wird, die den zeitlichen Abstand zwischen der Kodierung der relevanten Reizinformationen und der des irrelevanten Reizortes deutlich vergrößert. Diese Annahme wurde in Experiment 5 direkter getestet. Die Stimuli wurden über die Zeit auf einem Bildschirm aufgebaut, sodass der zeitliche Abstand zwischen dem Vorhandensein von Orts- und Identitätsinformationen experimentell kontrolliert werden konnte. Die Ergebnisse liefern weitere Unterstützung für eine zeitlich verzögerte Interpretation von Interaktionen zwischen irrelevanter Reiz-Antwort-Korrespondenz und Faktoren, die frühe Stadien der Informationsverarbeitung beeinflussen.;-;-;-;https://link.springer.com/article/10.1007/BF00419688 eb2a31f9be523e1dd3df86d47e050bb2;de;;;1.1.;;;Kognitive Stile: Einige Informationen und Implikationen für die Unterrichtsgestaltung Hier wird ein neuer Ansatz für das Instruktionsdesign vorgestellt, der die Bedeutung des kognitiven Stils als Lernmerkmal betont. Die Autoren berichten, dass 11 Dimensionen des Merkmals gefunden wurden, was darauf hindeutet, dass Individuen sich in der Art und Weise unterscheiden, wie sie Informationen verarbeiten. Angesichts der Tatsache, dass kognitive Stile stabil sind, resistent gegen Veränderungen durch Training sind und wenig Bezug zu den allgemeinen Fähigkeiten haben, plädieren die Autoren dafür, den Lernenden zu unterstützen, dessen Informationsverarbeitungsmuster nicht mit der geplanten Aufgabe kompatibel ist;-;-;-;https://link.springer.com/article/10.1007/BF02766370 c80acc6e15f02b90b7078abb3634f0dc;de;;;1.1.;;;Selektivität und Verarbeitungsstufen – Eine anhaltende Kontroverse in der Aufmerksamkeitstheorie: Eine Überprüfung Die Beziehung zwischen Aufmerksamkeitsselektivität und Verarbeitungsstadien oder Ebenen der Stimulusanalyse ist in der Aufmerksamkeitstheorie eine langjährige Kontroverse. Obwohl die Debatte zwischen der Theorie der frühen Selektion und der Theorie der späten Selektion mehr als zwei Jahrzehnte alt ist, ist in der Literatur noch immer keine klare theoretische Lösung erkennbar. Das Ziel dieser Überprüfung ist es, die Evidenz zu diesem Thema zu überprüfen und den aktuellen Stand dieser wichtigen Frage zu klären. Die Evidenz wird in fünf allgemeine experimentelle Fragen eingeordnet. Es wird der Schluss gezogen, dass breite Versionen sowohl der frühen als auch der späten Selektion in wichtigen Punkten falsch sind, dass der gemeinsame Rahmen, in dem beide Arten von Theorien artikuliert werden, nicht solide ist und dass die Beweise eine klare theoretische Anerkennung der Mehrebenennatur der selektiven Aufmerksamkeit erfordern.;-;-;-;https://link.springer.com/article/10.1007/BF02686574 24d771f22c737d788cfdd7674bcf50d4;de;;;1.1.;;;Kognitive Psychologie kann als die Fähigkeit angesehen werden, Ereignisse, die zuvor erlebt wurden, zu speichern und später abzurufen oder wiederzuerkennen. Das Gedächtnis ist ein aktiver Prozess, ein System, das Informationen empfängt, kodiert, modifiziert und wiedergewinnt. Menschen bezeichnen Gedächtnis normalerweise als eine einzelne Fähigkeit, aber der Begriff „Gedächtnis“ umfasst eine komplexe Sammlung von Fähigkeiten, Prozessen und mentalen Systemen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-13450-2_3 c2e8d6bde17edc20347e313fc7afc23b;de;;;1.1.;;;Abschlussbericht der Anwendungsgruppe Dieser Bericht fasst die Ergebnisse der Anwendungsarbeitsgruppe auf der Nato-Konferenz 1977 über psychische Arbeitsbelastung zusammen. Es betont das angewandte Problem, die Bedürfnisse und die Methoden, die von angewandten Spezialisten vereinbart wurden, mit einer ungewöhnlichen Breite und Tiefe. Typische Fragestellungen aus Anwendungen und Konzepten, mit denen angewandte Problemstellungen angegangen werden, werden von Mitgliedern der Anwendungsgruppe zusammengefasst. Diese Zusammenfassungen bieten einen breit angelegten Referenzrahmen für angewandte Bedürfnisse in Bezug auf theoretische und modellierende Entwicklungen. Kommentare, Erfahrungen und allgemeine Beobachtungen aus der Interaktion mit Grundlagenforschern werden zusammengefasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-0884-4_28 1adb5a8e936956d4f833ac03b5c35b48;de;;;1.1.;;;Das Gefühl der Anstrengung: eine Kosten-Nutzen-Theorie der Phänomenologie der geistigen Anstrengung of In der aktuellen Arbeit formulieren wir eine Theorie zur Erklärung der Phänomenologie der mentalen Anstrengung. Die Theorie liefert eine Arbeitsdefinition von mentaler Anstrengung, erklärt, inwiefern mentale Anstrengung eine begrenzte Ressource ist, und spezifiziert die Faktoren, die bestimmen, ob mentale Anstrengung als aversiv erlebt wird oder nicht. Der Kern unserer Theorie ist die Vermutung, dass;-;-;-;https://link.springer.com/article/10.1007/s13164-020-00512-7 1a64c66dc6ce5ccdaa62be1902559fce;de;;;1.1.;;;Eine entropiebasierte Methode zur kausalen Entdeckung in einem linearen azyklischen Modell In diesem Beitrag wird ein neuer Algorithmus zur kausalen Entdeckung in linearen azyklischen Grafikmodellen vorgeschlagen. Der Algorithmus misst die Entropie beobachteter Datensequenzen, indem er die Parameter ihrer ungefähren Verteilung auf eine verallgemeinerte Gaußsche Familie abschätzt. Kausale Ordnung kann durch eine Entropie-Basis-Methode entdeckt werden. Im Vergleich zu früheren Verfahren ist die Stichprobenkomplexität des vorgeschlagenen Algorithmus viel geringer, was bedeutet, dass der kausale Zusammenhang mit einer geringeren Anzahl von Stichproben korrekt entdeckt werden kann. Ein explizites Erfordernis von Datensequenzen für eine korrekte kausale Inferenz in einem linearen azyklischen Grafikmodell wird diskutiert. Es werden Versuchsergebnisse sowohl für künstliche Daten als auch für reale Daten präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-42042-9_32 2fd9b729251e6f799b46b2a71ffd0f08;de;;;1.1.;;;Design der CTRON Application Oriented Communication Control Interface CTRON ist eine Reihe von Betriebssystemschnittstellenspezifikationen, die für allgemeine Anwendungen entwickelt wurden, die auf Knoten in Informations- und Kommunikationsnetzwerken angewendet werden. Einige gemeinnützige Organisationen unternehmen große Anstrengungen zur Standardisierung von API (Application Program Interface).;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-68102-1_15 c2123adab30f92e4d99b42bba70bfa90;de;;;1.1.;;;Methoden zur Messung von psychischem Stress und Belastung Es besteht allgemein Einigkeit darüber, dass die Messung von Arbeitsbelastung und -belastung Aufschluss über die Angemessenheit der Arbeitsgestaltung gibt, also Informationen, die notwendig sind, um zu überprüfen, ob die Arbeitsbedingungen den Kriterien der menschzentrierten Gestaltung entsprechen (LUCZAK 1998). Dementsprechend stellt eine solche Analyse eine wichtige Voraussetzung für die Bewertung von Arbeitssystemen dar. Darüber hinaus ist eine Bewertung der psychischen Belastung durch Rechtsvorschriften wie die „Maschinenrichtlinie“ oder die „EU-Richtlinie über Mindestanforderungen an Gesundheit und Sicherheit bei der Arbeit mit Bildschirmgeräten“ vorgeschrieben. Beide Richtlinien enthalten die Verpflichtung, psychische Belastungen von Bedienern oder Mitarbeitern zu messen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01293-8_30 8183e88621b5a6884bbae62906afb887;de;;;1.1.;;;Struktur der exekutiven Funktionen bei Kindern mit Zerebralparese: eine Untersuchung von Andersons Entwicklungsmodell Es sollte die Faktorenstruktur der exekutiven Funktion (EF) bei Kindern mit Zerebralparese (CP) untersucht werden und ob diese durch das von Anderson beschriebene Vierkomponentenmodell der EF beschrieben werden kann (;-;-;-;https://link.springer.com/article/10.1007/s10882-016-9500-6 9b00601272ce9837ad49c5e413ec66c0;de;;;1.1.;;;Affekt im juristischen und forensischen Umfeld: Die kognitiven Vorteile, wenn man nicht zu glücklich ist Stellen Sie sich das folgende Szenario vor. Es ist ein kalter, regnerischer Tag, und als Sie die örtliche Nachrichtenagentur betreten, um eine Zeitung zu kaufen, bemerken Sie kurz einige seltsame Gegenstände an der Kasse – ein Streichholzschachtelauto, einige Plastikspielzeugtiere und ein paar andere Schmuckstücke, Gegenstände die wirklich nicht in eine Shop-Umgebung gehören. Als Sie den Laden verlassen, kommt eine junge Frau auf Sie zu, stellt sich als Psychologin vor, die das Gedächtnis erforscht, und bittet Sie, sich so viele seltsame Gegenstände wie möglich zu merken, die Sie kurz im Laden gesehen haben. Die Frage, die sie interessiert, ist diese: Kann Ihre durch das unangenehme Wetter hervorgerufene leicht negative Stimmung die Genauigkeit Ihres Augenzeugengedächtnisses für die gesehenen Objekte verbessern? Können wir uns allgemeiner besser an alltägliche Details erinnern, wenn wir schlecht gelaunt sind, oder erinnern sich Menschen an einem hellen, sonnigen Tag besser, wenn sie gut gelaunt sind?;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-0696-0_2 79239771f11436daab7b9bd8f5d0a21c;de;;;1.1.;;;Umgang mit Unsicherheit: Auf dem Weg zu einem institutionellen Sensemaking-Modell Um die Strategien von Krisenmanagern zur Bewältigung von Unsicherheit in Krisen zu verstehen, bietet dieses Kapitel eine Bestandsaufnahme relevanter Forschungserkenntnisse und Ergebnisse aus der Sozialpsychologie, der Organisationstheorie, der Politikwissenschaft, der öffentlichen Verwaltung und der Krisenmanagementliteratur.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-3990-4_2 cab17698c272c5a6f74df0b8434adad6;de;;;1.1.;;;Zu den formalen Aspekten von Approximationsalgorithmen Formale Aspekte näherungsweiser Lösungen für schwierige Probleme werden berücksichtigt. Wir definieren eine Approximationsmaschine und ihre Sprache als formales Berechnungsmodell. Wir verstärken bisherige Ergebnisse, indem wir die Interpretation der Komplexitätsklassen mit Dichte in Form von Approximationssprachen zeigen. Insbesondere analysieren wir die Worst-Case-, Best-Case- und Average-Case-Komplexität bezogen auf die formalen Sprachen von Approximationsmaschinen. Auch der Zusammenhang zwischen der Dichte einer Komplexitätsklasse und der „Güte“ einer Approximation wird untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-53504-7_58 19923478a51d8246651e4ff896f3d276;de;;;1.1.;;;Die Beiträge der kognitiven Psychologie zu Vulnerabilitätsmodellen Diese Sitzung befasst sich mit einem Thema, das von einem der „Giganten“ der Psychiatrie, Emil Kraepelin, entwickelt wurde. Es gehörte zu Kraepelins Genie, die Konstrukte der „kognitiven“ Psychologie seiner Zeit (Assoziationspsychologie) zu verwenden, um einen konzeptionellen Rahmen und beschreibende Begriffe für seine bahnbrechende Charakterisierung der Phänomenologie der Schizophrenie bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-74881-3_16 6047bc91240bea5b0e8560e753e5f408;de;;;1.1.;;;Herstellerunabhängiges mechatronisches Informationsmodell für Steuerungen Modulares, systembasiertes Engineering ist der Schlüssel zu einer schnellen, kundenindividuellen Maschinen- und Anlagenkonfiguration. Dieser Ansatz gilt als die beste Methode, um unterschiedliche funktionale Anforderungen mit minimalem Ressourceneinsatz zu realisieren. Der interdisziplinäre Aufbau von Steuerungen zur Automatisierung von Maschinen wird bisher nicht durch Engineering-Tools unterstützt. Dies ist teilweise auf das Fehlen standardisierter mechatronischer Informationsmodelle zurückzuführen. Der Maschinenhersteller ist gefordert, die notwendigen mechatronischen Informationsmodelle eindeutig für jedes Steuerungssystem eigenständig zu erstellen. Damit erfüllt er keine Modellierungsvorgaben. Dadurch sind die mechatronischen Informationsmodelle für andere Steuerungsarchitekturen nicht anwendbar. Die herkömmlich verwendeten mechatronischen Informationsmodelle sowie die herstellerspezifischen Engineering-Tools definieren die Steuerungshardwarekomponenten und deren Konfigurationen. Eine Abstraktion der logischen und funktionalen Schichten findet nicht statt. Folglich ist ein mechatronisches Steuerungsarchitekturmodell erforderlich. Diese Architektur kann als Modellierungsgrundlage in modularen systembasierten interdisziplinären Engineering-Werkzeugen dienen. Daher ist ein Ansatz zu einem herstellerunabhängigen, mechatronischen Informationsmodell für Steuerungssysteme Gegenstand dieses Beitrags.;-;-;-;https://link.springer.com/article/10.1007/s11740-010-0220-y b7e99ab9419453bb48c914abf0baf683;de;;;1.1.;;;Kognitive Behandlung bei Schizophrenie Wir beobachten derzeit ein zunehmendes Interesse an integrativen Konzepten der Schizophrenie (z. B. Brenner 1987, Ciompi 1985, Strauss & Carpenter 1981, Zubin & Spring 1977). Trotz erheblicher Unterschiede in ihren Ausgangsannahmen, Standpunkten und Schwerpunkten lässt sich ein Trend zu einem Vulnerabilitäts-Stress-Modell erkennen, in das frühere Überlegungen in diese Richtung in neuer Form integriert werden. Als Indikatoren oder Merkmale der Anfälligkeit für Schizophrenie gelten Beeinträchtigungen der Informationsverarbeitung, also elementare kognitive Störungen, die für eine verminderte Stressbewältigungsfähigkeit verantwortlich gemacht werden (z. B. Nuechterlein & Dawson, 1984, Zubin, 1986 .). ).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-74308-5_9 447848bc2d2031217e63a5a6fadec74a;de;;;1.1.;;;Einschätzung der Kreativität: Die Lösung einer Midlife-Crisis Die Bewertung der Kreativität wird mit besonderem Fokus auf Anwendungen in Bildung und Unterricht überprüft. Es werden eine Vielzahl existierender Instrumente sowie allgemeine Kritikpunkte an der Kreativitätsmessung beschrieben. Es wird ein Blick in die Zukunft geboten, der versucht, über die „Midlife-Crisis“ der Kreativität hinauszublicken. Neben der kontinuierlichen psychometrischen Entwicklung kognitiver und affektiver Tests, Umfragen und Inventare haben alternative Bewertungsmethoden und Modelle, die aus modernen kognitiven Lern- und Gedächtnistheorien abgeleitet sind, viel zu bieten. Wir beenden unsere Analyse mit einer Reihe von Richtlinien für Lehrer und andere Bildungsfachleute, die sie zur Bewertung kreativer Denkfähigkeiten verwenden können, und mit mehreren Empfehlungen für zukünftige Forschung und Entwicklung im Bereich Kreativitätsbewertung.;-;-;-;https://link.springer.com/article/10.1007/BF02213374 138e069de63d99a549961d3a71950586;de;;;1.1.;;;Irrtümer der Progression in Theorien zur Evolution der Gehirngröße Die stillschweigende Annahme, dass die relative Vergrößerung und Differenzierung des Gehirns einen fortschreitenden evolutionären Trend zu größerer Intelligenz widerspiegelt, ist ein Haupthindernis für das Studium der Gehirnevolution. Theorien, die vorgeben, eine lineare Skala für diese vermutete Korrelation zwischen Gehirngröße und Intelligenz aufzustellen, werden durch das Fehlen einer unvoreingenommenen allometrischen Basislinie zur Schätzung der Unterschiede in der Enzephalisation, durch die Inkompatibilität allometrischer Analysen auf verschiedenen taxonomischen Ebenen, durch die Nichtlinearität Subtraktionskriterium“, das verwendet wird, um die somatischen und kognitiven Komponenten der Enzephalisation aufzuteilen, und durch das Versäumnis, unabhängig jede kognitive Grundlage für die Regelmäßigkeit der Gehirn-Körper-Allometrie nachzuweisen. Die Analyse von Abweichungen von allometrischen Trends des Gehirns/Körpers im Sinne einer „Enzephalisation“ verschleiert die Komplementarität zwischen Gehirn- und Körpergröße und ignoriert die Auswahl nach Körpergröße, die wahrscheinlich die meisten Abweichungen bestimmt. Da es versäumt wurde, die Auswirkungen der Allometrie auf vielen Strukturebenen zu analysieren, haben vergleichende Anatome methodologische Artefakte mit progressiven evolutionären Trends verwechselt. Viele strukturelle Veränderungen, von denen angenommen wird, dass sie eine Progression der Gehirnstruktur von primitiven zu fortgeschrittenen Formen zeigen, sind das Ergebnis allometrischer Prozesse. Es stellt sich heraus, dass eine erhöhte Gehirngröße einige bisher nicht erkannte funktionelle Nachteile hat.;-;-;-;https://link.springer.com/article/10.1007/BF02192869 bf9d8709fa5eb17b6558d31a647a6734;de;;;1.1.;;;Kybernetik: Ein Mittel zur Analyse neuronaler Netze Gesunde Ansätze zum Verständnis der „höheren Funktion“ sind nützlich, aber, wie wir gesehen haben, grundsätzlich introspektiv. Solche Ansätze könnten wegen ihrer intrinsischen Fehleranfälligkeit, insbesondere der in Abb. 6.6 dargestellten Art, bei analytischer Anwendung schlecht beraten sein. Es müssen andere, objektivere Mittel gefunden werden, um die komplexen integrativen Funktionen neuronaler Netze zu analysieren. So wie unser Wissen über anatomisch und physiologisch basierte Gedächtnis- und Lernprozesse fortschreitet, muss auch unser Ausdruck dieses Wissens voranschreiten. Die Form dieses verbesserten Ausdrucks ist wahrscheinlich mathematisch und so spezifisch wie der Ausdruck unseres modernen Wissens über Genetik und genetische Codes. Der Zweck dieses Kapitels besteht darin, einige der Formen zu untersuchen, die wahrscheinlich dazu dienen, unser Wissen über Gedächtnis und Lernen auszudrücken.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-5642-7_7 da81b4cbcb031f54cd8b8a289cf9a577;de;;;1.1.;;;Lerntheorien für die Ingenieur- und Technikausbildung Die Optimierung technischer Systeme hängt von wissenschaftlich fundierten Modellen der Systemleistung ab. In ähnlicher Weise baut die Entwicklung von Bildungssystemen in den Bereichen Ingenieurwesen und Technologie auf fruchtbare Weise auf relevanten Lerntheorien auf. Ingenieurwesen und Technologie beinhalten komplexe Fähigkeiten und Konzepte, die in vielfältige Kontexte eingebettet sind. Wir überprüfen Lerntheorien, die besonders geeignet sind, um das Lernen solch komplexer Konzepte in reichhaltigen Kontexten zu unterstützen, wobei wir uns stark auf Informationsverarbeitung, verteilte Kognition und kognitive Ausbildung stützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-6091-549-9_1 497540f96629c8557a36a1dd4a018623;de;;;1.1.;;;Lokale adaptive Unterraumregression Das inkrementelle Lernen sensomotorischer Transformationen in hochdimensionalen Räumen ist eine der Grundvoraussetzungen für den Erfolg autonomer Robotergeräte sowie biologischer Bewegungssysteme. Aufgrund der Datenknappheit in hochdimensionalen Räumen erforderte das Lernen in solchen Umgebungen bisher eine beträchtliche Menge an Vorwissen über die Lernaufgabe, die normalerweise von einem menschlichen Experten bereitgestellt wird. In diesem Beitrag schlagen wir eine teilweise Überarbeitung der Ansicht vor. Basierend auf empirischen Studien haben wir beobachtet, dass die Datenverteilungen von physikalischen Bewegungssystemen, obwohl sie global hochdimensional und spärlich sind, lokal niedrigdimensional und dicht sind. Unter dieser Annahme leiten wir einen Lernalgorithmus ab, Locally Adaptive Subspace Regression, der diese Eigenschaft ausnutzt, indem er eine dynamisch wachsende lokale Dimensionsreduktionstechnik als Vorverarbeitungsschritt mit einer nichtparametrischen Lerntechnik, der lokal gewichteten Regression, kombiniert, die auch den Gültigkeitsbereich die Regression. Die Nützlichkeit des Algorithmus und die Gültigkeit seiner Annahmen werden für einen synthetischen Datensatz und für Daten der inversen Dynamik menschlicher Armbewegungen und einen tatsächlichen anthropomorphen Roboterarm mit 7 Freiheitsgraden veranschaulicht.;-;-;-;https://link.springer.com/article/10.1023/A%3A1009696221209 87933911c0cd6920284ab3db15bdfa95;de;;;1.1.;;;Ein Eltern-Kind-Interaktionsmodell der sozialen Angststörung bei Jugendlichen In diesem Beitrag wird eine der häufigsten Störungen im Kindes- und Jugendalter, die soziale Angststörung (SAD), untersucht, um das komplexe und heikle Zusammenspiel zwischen Eltern- und Kindfaktoren zu veranschaulichen, das zu einer fehlgeschlagenen normalen Entwicklung führen kann. Unser Eltern-Kind-Modell der SAD postuliert eine Vielzahl von Variablen, die zusammenlaufen und den Beginn und die Aufrechterhaltung dieser Störung verursachen. Im Einzelnen werden fünf Risikofaktoren – temperamentvolle Eigenschaften des Kindes, elterliche Angst, Bindungsprozesse in der Eltern-Kind-Dyade, Informationsverarbeitungsfehler und Erziehungspraktiken – beleuchtet. Obwohl anerkannt wird, dass andere Faktoren, einschließlich genetischer Einflüsse und Beziehungen zu Gleichaltrigen, ebenfalls wichtig sein können, stehen sie einfach nicht im Mittelpunkt dieses Papiers. Innerhalb dieser Einschränkungen werden die Implikationen unseres Eltern-Kind-Interaktionsmodells für Prävention, Behandlung, Forschung und Praxis untersucht.;-;-;-;https://link.springer.com/article/10.1007/s10567-011-0108-1 22dd608eb62847d2393a4658270e8e34;de;;;1.1.;;;Genetische Interpretation der Neurosemantik und kinetischer Ansatz zum Studium komplexer Netze: Theorie und Experimente Der neurosemantische Ansatz ermöglicht die Bildung von Informationsmanagementsystemen basierend auf eingehenden Informationsflüssen. Dieser Beitrag untersucht die Möglichkeiten molekulargenetischer Algorithmen der Multiskalen-Informationsanalyse zur Darstellung neurosemantischer Netzwerke in verschiedenen parametrischen Räumen. Die praktische Anwendung eines solchen kombinierten Ansatzes für Aufgaben der molekularen Diagnostik genetischer Erkrankungen unter Verwendung der orthogonalen Funktionen von Walsh wird vorgeschlagen. Es werden Fragen der Interaktion zwischen Semantik und Semiotik im Kontext des Phänomens Bewusstsein und Gehirn betrachtet. Ein kinetischer Ansatz wird auch verwendet, um Zufallsgraphen zu konstruieren, die in einer geometrischen Version es ermöglichen, komplexe Strukturen zu erhalten, nach einem Perkolationsübergang kann ein komplexer Cluster mit Elementen des Bewusstseins verglichen werden. Die Bedeutung der Studie liegt darin begründet, dass der wissenschaftliche Fortschritt neue Methoden erfordert, um die Wahrnehmung der Ergebnisse der neuronalen Netzanalyse sowie die Wahrnehmung von Big Data mit der Möglichkeit der Analyse auf verschiedenen Visualisierungsskalen zu optimieren. Von Interesse für die Wissenschaft sind auch Modellversuche im Bereich der Theorie der Bewusstseinsentstehung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-67133-4_2 8535a179a8db3bf52411b7316c0e3b96;de;;;1.1.;;;Konkurrenz durch Konkurrenz und endogene Unternehmensgröße Der Artikel untersucht die Dynamik der Unternehmensgröße in einem wiederholten Cournot-Spiel mit unbekannter Nachfragefunktion. Wir modellieren das Unternehmen als eine Art künstliches neuronales Netz. In jeder Periode muss es lernen, Umgebungssignale sowohl einem Bedarfsparameter als auch der Ausgangswahl seines Konkurrenten zuzuordnen. Dieses Lernspiel steht jedoch im Hintergrund, da wir uns auf die endogene Anpassung der Netzwerkgröße konzentrieren. Wir untersuchen die langfristige Entwicklung der Unternehmens-/Netzwerkgröße als Funktion der Gewinne, der Größe des Konkurrenten und der Art der verwendeten Anpassungsregeln.;-;-;-;https://link.springer.com/article/10.1007/s00191-008-0111-y 6109fcfb4df3b4db54fca7f878a51a16;de;;;1.1.;;;Design eines Multitask-Neurovision-Prozessors Die Architektur eines biologisch motivierten visuellen Informationsprozessors, der eine Vielzahl von Aufgaben ausführen kann, die mit den frühen Stadien des maschinellen Sehens verbunden sind, wird beschrieben. Die vom Prozessor durchgeführten Rechenoperationen emulieren die raumzeitlichen Informationsverarbeitungsfähigkeiten bestimmter neuronaler Aktivitätsfelder, die entlang des menschlichen Sehweges gefunden werden. Das Zustandsraummodell des Neurovisionsprozessors ist ein zweidimensionales Nural-Netzwerk aus dicht miteinander verbundenen nichtlinearen Verarbeitungselementen PE's. Ein individuelles PE repräsentiert die dynamische Aktivität, die von einer räumlich lokalisierten Population von erregenden und hemmenden Nervenzellen gezeigt wird. Jedes PE kann Eingaben von einem externen Signalraum sowie von den benachbarten PEs innerhalb des Netzwerks empfangen. Die in den Signalraum eingebetteten Informationen werden vom Feedforward-Subnetz extrahiert. Das Feedback-Subnetz des Neurovisionsprozessors erzeugt nützliche Steady-State- und Temporal-Response-Eigenschaften, die für raumzeitliche Filterung, visuelles Kurzzeitgedächtnis, raumzeitliche Stabilisierung, kompetitive Feedback-Interaktion und inhaltsadressierbares Gedächtnis verwendet werden können. Um die Vielseitigkeit des Multitask-Prozessordesigns für Machine-Vision-Anwendungen zu veranschaulichen, wird eine Computersimulation eines vereinfachten Vision-Systems zum Filtern, Speichern und Klassifizieren von verrauschten Graustufenbildern vorgestellt.;-;-;-;https://link.springer.com/article/10.1007/BF00118592 7cb97b91323beb8f841314239a265628;de;;;1.1.;;;Steuerungssysteme für Präzisionsmaschinen Die Steuerung ist ein Kernbestandteil von Präzisionsmaschinen. Unabhängig davon, ob die Präzisionsmaschinen für die Fertigung (z. B. Drehen, Fräsen, Schleifen, Läppen, Polieren) oder die Inspektion von mechanischen Teilen verwendet werden, kann das Steuerungssystem die Leistung von Präzisionsmaschinen maßgeblich bestimmen. In diesem Kapitel wird die Steuerung von Präzisionsmaschinen ausführlich beschrieben. Zunächst wird kurz die Entwicklung der in Präzisionsmaschinen verwendeten Steuerungen vorgestellt und eine Definition gegeben. Zum anderen werden einige Schlüsseltechnologien in der Steuerung von Präzisionsmaschinen detailliert ausgearbeitet, darunter Präzisionsmaschinentechnik, Detektionssensorik, Informationsverarbeitungstechnik, Servoantriebstechnik, Automatisierungstechnik und Systemsoftwaretechnik. Drittens werden drei gängige Steuerungssysteme von Präzisionsmaschinen vorgestellt, wie z. B. ein Vorschubsteuerungssystem, ein Temperatursteuerungssystem und ein Vibrationssteuerungssystem. Schließlich werden zwei typische Fälle bei der Steuerung von Präzisionswerkzeugmaschinen angewendet, wie z. B. ein aktives Messsteuerungssystem und ein Präzisionssteuerungssystem für Gitterskalen.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-981-13-0381-4_13 24cb708bdf00a4085d11aba88964e1d2;de;;;1.1.;;;Von der Quantenphysik zu Programmiersprachen: Ein prozessalgebraischer Ansatz Die Forschung im Quantencomputing sucht nach den Konsequenzen, wenn die Kodierung, Verarbeitung und Kommunikation von Informationen die Gesetze der Quantenphysik ausnutzen, dh die Gesetze des ultimativen Wissens, das wir heute über die fremde Welt der Elementarteilchen haben, wie sie von der Quantenmechanik beschrieben wird . Nach einer Einführung in die Prinzipien der Quanteninformationsverarbeitung und einem kurzen Überblick über die wichtigsten Durchbrüche, die die ersten zehn Jahre der Forschung auf diesem Gebiet gebracht haben, konzentriert sich dieser Artikel auf einen typischen „informatischen“ Weg, um ein tieferes Verständnis dessen zu erlangen, was es bedeutet mit Quantenressourcen zu rechnen, nämlich zum Entwurf von Programmiersprachen für Quantenalgorithmen und -protokolle und zu den Fragen, die die Semantik solcher Sprachen aufwirft. Besondere Aufmerksamkeit wird dem prozessalgebraischen Ansatz für solche Sprachen gewidmet, durch eine Präsentation von QPAlg, der Quantenprozessalgebra, die von den Autoren entwickelt wird.;-;-;-;https://link.springer.com/chapter/10.1007/11527800_1 9305ad6d2f1535d89617fa08b55e3d94;de;;;1.1.;;;Prozessneuronen In diesem Kapitel werden wir beginnen, das Process Neural Network (PNN), das Gegenstand des Buches ist, im Detail zu diskutieren. Zunächst wird das Konzept des Prozessneurons eingeführt. Das Prozessneuron ist die grundlegende Informationsverarbeitungseinheit, aus der das PNN besteht, und das zu seiner Bildung verwendete Modell und seine Funktionsweise bestimmen die Eigenschaften und die Informationsverarbeitungsfähigkeit des PNN. In diesem Kapitel führen wir hauptsächlich eine allgemeine Definition und grundlegende Eigenschaften des Prozessneurons sowie die Beziehung zwischen dem Prozessneuron und mathematischen Konzepten wie zusammengesetzten Funktionen, funktionalen Funktionen usw.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73762-9_3 33a83678d8f3d77dac072a47e5b49ce8;de;;;1.1.;;;Extrahieren von unscharfen linguistischen Zusammenfassungen basierend auf der Einbeziehung von Abschlusstheorie und FCA In Informationssystemen (oder Datenbanken) sind Attributwerte von Objekten im Allgemeinen Zahlen oder Symbole, aus der Sicht der Anwendung werden linguistische Informationen oder Entscheidungsregeln häufig verwendet. Daher wären unscharfe linguistische Zusammenfassungen sehr wünschenswert und menschlich konsistent. In diesem Beitrag wird das Extrahieren von Fuzzy-Sprachzusammenfassungen aus einem kontinuierlichen Informationssystem diskutiert. Da unscharfe linguistische Zusammenfassungen nicht direkt im Informationssystem extrahiert werden können, wird das Fuzzy-Informationssystem verwendet, um das kontinuierliche Informationssystem zu diskretisieren, und das Level Cut Set wird verwendet, um zunächst ein klassisches Informationssystem zu erhalten. Dann werden basierend auf der Einbeziehung der Gradtheorie und der formalen Konzeptanalyse (FCA) einfache fuzzy linguistische Zusammenfassungen extrahiert. Um komplexe linguistische Zusammenfassungen zu extrahieren, werden logische Konjunktionen ∨ , ∧ und → verwendet. Ein Beispiel für die Qualitätsprüfung von gesüßtem Vollmilchpulver wird ebenfalls bereitgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72950-1_28 3b8f5860b182c6bf83adb9d6c069853b;de;;;1.1.;;;Holonomie und Struktur in der Organisation der Wahrnehmung Das Gesicht der Psychologie hat sich in einem Jahrhundert des Wachstums als Wissenschaft einer Reihe von Veränderungen unterzogen. Anfängliche Beschäftigung mit Sinnesvorgängen (wie z. B. in den Händen von Helmholtz und Mach) und Denken (wie sie von Külpe, Brentano und James untersucht wurden) wichen Untersuchungen von Gefühlen (z. B. Wundt) und Motivationen (z. B. Freud .). ). Auf den Introspektionismus von Tichener folgten die Faktoren von Spearman, Thurston und Cattell und der Behaviorismus von Watson, die Gestalten von Koffka, Köhler, Wertheimer und Metzger wurden den Lerntheorien von Pavlov, Hilgard, Hull, Spence, Tolman und Skinner. Jedes dieser Gesichter hat ein Erbe hinterlassen, das sich in seinen Nachkommen und der Vielfalt ihrer Modifikationen, Techniken und formalen Aussagen dessen, was Psychologie ausmacht, verfolgen lässt und von der Kraft dieser jungen Wissenschaft zeugt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-1193-8_8 c541e11dafeb1539e24de5fc5a72b4f0;de;;;1.1.;;;Ein logischer Ansatz für die Fuzzy-Datenanalyse In diesem Artikel untersuchen wir die Extraktion von Fuzzy-Regeln aus Datentabellen basierend auf der Möglichkeitstheorie. Zur Darstellung der extrahierten Fuzzy-Regeln wird eine possibilistische Entscheidungssprache verwendet. Der Algorithmus zur Regelextraktion wird vorgestellt und die Komplexitätsanalyse durchgeführt. Da die Ergebnisse des Regelinduktionsprozesses stark von der Repräsentationssprache abhängen, diskutieren wir auch einige Ansätze zur dynamischen Anpassung der Sprache basierend auf den Daten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-48247-5_51 1773fe34b3248d77b41968d8d8c57c20;de;;;1.1.;;;Räumlich-zeitliche Dateninterpretation basierend auf dem Wahrnehmungsmodell Dieses Kapitel beschreibt Ansätze zur Interpretation der heterogenen Daten von Sensoren basierend auf einem neuen Wahrnehmungsmodell, das kognitive Funktionen wie Datenabstraktion, Kontextverfolgung und Aufmerksamkeitswechsel implementiert. Basierend auf Fuzzy-L-R-Zahlen werden die Wissenspräsentation und die Rules-Engine-Inferenz eingeführt. Die Belastbarkeit und Interoperabilität des Wahrnehmungsmodells zeigt sich an zwei Interpretationsbeispielen heterogener räumlich-zeitlicher Daten von Sensoren über die Situation an der Kreuzung und über den befahrbaren Weg zwischen Landmarken der Roboterroute.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-35480-0_3 aa7749b87c4754645b7c725cf432dd54;de;;;1.1.;;;Überblick über verschiedene objektorientierte Ansätze Allen unterschiedlichen objektorientierten Modellierungsansätzen sind mehrere Merkmale gemeinsam. Sie basieren auf der Objektorientierung und den zuvor eingeführten OO-Schlüsselkonzepten. Alle von ihnen verwenden auch eine grafische Notation mit Textunterstützung, um ihre Grafiken zu erweitern. Darüber hinaus sollte das Endergebnis jeder Methode zur Darstellung der Informationen und des Verhaltens eines Systems mehr oder weniger identisch und unabhängig vom gewählten Ansatz sein. Dies muss der Fall sein, um die Konsistenz zu gewährleisten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18877-0_2 7312fe130cf6da06aff1a188e618667e;de;;;1.1.;;;Studien auf Zeit: ein Vorschlag, wie man aus der Zirkularität herauskommt Die Zeitanalyse wird sehr oft durch Zirkularität beeinträchtigt: Mehrere Disziplinen wie Psychologie, Linguistik und Neurowissenschaften analysieren die Zeit mithilfe von Konzepten oder Begriffen, die bereits in sich selbst die Erfahrung und Vorstellung von Zeit enthalten oder darauf basieren (z , zum Beispiel wird Zeit als „Dauer“ definiert oder wenn unsere Fähigkeit, Dauern abzuschätzen, durch den Rückgriff auf eine interne Uhr erklärt wird). Einige detaillierte Beispiele für Zirkularität in der Zeitanalyse werden hier gegeben und untersucht. Ein Ausweg aus der Zirkularität ist dann gegeben: Er wird durch den Vorschlag der Aufmerksamkeitssemantik (AS) repräsentiert, Wörter und ihre Bedeutungen im Hinblick auf das Ziel zu betrachten, dem sie dienen, und die Mittel und Prozesse, die entwickelt und implementiert werden, um dieses Ziel zu erreichen. Laut AS besteht das Hauptziel von Wörtern darin, dem Hörer oder Leser eine spezifische bewusste Erfahrung anzuzeigen und sie hervorzurufen: nämlich die bewusste Erfahrung, auf die durch ihre Bedeutungen Bezug genommen wird. Worte erreichen ihr Hauptziel, indem sie die verdichteten Anweisungen zu den Aufmerksamkeitsoperationen vermitteln, die man durchführen muss, wenn man das, was durch sie und durch sie ausgedrückt wird, bewusst erleben will. Durch die Beschreibung der durch Worte hervorgerufenen bewussten Erfahrungen mit den Aufmerksamkeitsoperationen, die für die Produktion solcher bewussten Erfahrungen verantwortlich sind, bietet AS ein a-linguistisches Gegenstück zur Sprache und damit einen effektiven Ausweg aus der Zirkularität. Auf Machs Spuren (Beiträge zur Analyse der Empfindungen,;-;-;-;https://link.springer.com/article/10.1007/s10339-008-0215-1 c7828f058f24e1bdce5d552abf615936;de;;;1.1.;;;Marktorientierung: Überprüfung, Verfeinerung und Roadmap Im Bereich der Marktorientierung wurden in den letzten zehn Jahren erhebliche Fortschritte erzielt. Die wissenschaftliche Aufmerksamkeit hat sich auf die Definition, Messung und Auswirkung einer Marktorientierung konzentriert. Die Aufmerksamkeit wurde auch auf organisatorische Treiber der Marktorientierung und deren Verbesserung gerichtet. Trotz der Fortschritte bleiben mehrere Forschungsherausforderungen bestehen, und es bestehen vielfältige Möglichkeiten für weitere Arbeiten in diesem Bereich. Dieses Papier überprüft kritisch den „Stand der Technik“ und bietet einen Fahrplan für die zukünftige Arbeit in diesem Bereich. Die Überprüfung konzentriert sich in erster Linie auf (1) die Bedeutung der Marktorientierung, (2) ihre Beziehung zu mehreren aufkommenden Themen/Themen in der Literatur (z ) die Qualität des marktorientierten Verhaltens, (4) Auswirkungen der Marktorientierung und (5) Probleme bei der Verbesserung der Marktorientierung. Wir schließen mit einer konzeptionellen Synthese und methodischen Vorschlägen.;-;-;-;https://link.springer.com/article/10.1007/BF00128686 0c780c79e049478094eca937c9e92275;de;;;1.1.;;;NMR-Methoden zur molekularen Strukturuntersuchung paramagnetischer Lanthanoidkomplexe in Lösungen. Anwendungen auf Kronenetherkomplexe Die Literaturdaten zu NMR-spektroskopischen Methoden zur Untersuchung der räumlichen Struktur und Moleküldynamik von Lanthanoidkomplexen mit makrocyclischen Potyethern in Lösungen werden zusammengestellt.;-;-;-;https://link.springer.com/article/10.1007/BF02903634 792950646dceaf928eb893ac88d75efc;de;;;1.1.;;;PLS-Mischungsmodell zur Online-Dimensionsreduktion Dieser Artikel stellt eine Online-Lernmethode zur Modellierung hochdimensionaler Eingabedaten vor. Dieses Verfahren approximiert eine nichtlineare Funktion durch Summieren mehrerer lokaler linearer Funktionen. Jede lineare Funktion wird als gewichtete Summe einer kleinen Anzahl von dominanten Variablen dargestellt, die durch die Regressionsmethode der partiellen kleinsten Quadrate (PLS) extrahiert werden. Darüber hinaus wird mit den dominanten Variablen auch eine Radialfunktion neu definiert, die den jeweiligen Eingabebereich jeder linearen Funktion repräsentiert. Dieser Artikel stellt auch einen Online-Algorithmus zur deterministischen Annealing-Erwartungsmaximierung (DAEM) vor, der einen Temperaturkontrollmechanismus zum Erfassen der am besten geeigneten Systemparameter enthält. Experimentelle Ergebnisse zeigen das effektive Lernverhalten der neuen Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69158-7_30 f14b2cade95cadca0cefd199a0f101bc;de;;;1.1.;;;Assoziationssysteme – Assoziative Hybridarchitektur auf Aufgabenstrukturebene Die in den Kapiteln 3, 4 und 5 beschriebenen hybriden Architekturen basieren auf der Fusion, Transformation und Kombination intelligenter Methoden wie Expertensysteme, Fuzzy-Logik, neuronale Netze und genetische Algorithmen. Die Konzepte der Fusion, Transformation und Kombination wurden in verschiedenen Situationen oder Aufgaben und durch die Anwendung von Top-Down- und/oder Bottom-Up-Wissensentwicklungsstrategien verwendet. Alle diese Hybridarchitekturen haben eine Reihe von Vorteilen darin, dass die Hybridanordnung in der Lage ist, Aufgaben in verschiedenen Situationen erfolgreich zu erfüllen. Diese Hybridarchitekturen leiden jedoch auch unter einigen Nachteilen. Diese Nachteile lassen sich mit der Qualität der Lösung und dem abgedeckten Aufgabenspektrum erklären (siehe Abbildung 6.1). Fusions- und Transformationsarchitekturen allein erfassen nicht alle Aspekte der menschlichen Kognition im Zusammenhang mit der Problemlösung. Fusionsarchitekturen führen beispielsweise zu einer Umwandlung von explizitem Wissen in implizites Wissen und verlieren somit die deklarativen Aspekte der Problemlösung. Dadurch sind sie in ihrem Aufgabenspektrum eingeschränkt. Die Transformationsarchitekturen mit Bottom-Up-Strategie geraten mit zunehmender Aufgabenkomplexität in Probleme. Daher leidet die Lösungsqualität, wenn es eine starke Überlappung zwischen Variablen gibt, die Regeln sehr kompliziert sind, die Datenqualität schlecht ist oder die Daten verrauscht sind. Da es ihnen an expliziter Begründung mangelt, wird auch das Spektrum der von ihnen abgedeckten Aufgaben eingeschränkt. Die Kombinationsarchitekturen decken aufgrund ihrer inhärenten Flexibilität hinsichtlich der Auswahl von zwei oder mehr intelligenten Methoden eine Reihe von Aufgaben ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-6223-8_6 75627a38fd3bb8a129b102ae9a3ca16a;de;;;1.1.;;;Auf dem Weg zu einer einheitlichen Komponententheorie der menschlichen Intelligenz: I. Fluidfähigkeit Ein Fortschrittsbericht über die Entwicklung einer einheitlichen Theorie der menschlichen Intelligenz wird vorgestellt. Der Bericht befasst sich mit dem Teil der Theorie, der die Flüssigkeitsfähigkeit betrifft, der grob als Synonym für Argumentation angesehen wird. Die auf das Denken angewandte vereinheitlichte Theorie umfasst eine Reihe hierarchisch verschachtelter Untertheorien, von denen jede nach und nach spezifischere Aspekte des menschlichen Denkverhaltens berücksichtigt. Die Grundeinheit der Theorie ist die Komponente: Es wird behauptet, dass ein relativ kleiner Satz von Komponenten das Verhalten in einer Vielzahl von Denkaufgaben erklären kann und dass einzelne Komponenten über den vertikalen Bereich der Hierarchie allgemein sind. Die Komponenten und die Teiltheorien, in denen sie eine Rolle spielen, werden kurz beschrieben und, sofern vorhanden, Daten zur Überprüfung der Teiltheorien zusammengefasst. Diese Daten liefern zumindest vorläufige Unterstützung für die vorgeschlagene theoretische Struktur.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-1083-9_31 eb8f54682dc515ff215ebccbf8bd8466;de;;;1.1.;;;Die Politik der Aufmerksamkeitszuweisung beeinflusst das voraussichtliche Timing Die Rolle der Kontrolle der Aufmerksamkeitsallokation bei prospektiven Beurteilungen der Dauer wurde in zwei Experimenten getestet. Im ersten Experiment wurde gezeigt, dass prospektive Dauerbeurteilungen gleicher Taktdauern länger sind, wenn das Timing als primäre Aufgabe behandelt wird, als wenn es als sekundäre Aufgabe behandelt wird, unabhängig von der Schwierigkeit der nicht-zeitlichen Aufgabe, die den bewertetes Intervall. Im zweiten Experiment wurde dieser Befund repliziert. Darüber hinaus wurde gezeigt, dass die Dauerbeurteilungen länger sind als diejenigen, die unter Bedingungen einer sekundären Aufgabe erhalten werden, jedoch kürzer sind als diejenigen, die unter Bedingungen einer primären Aufgabe erhalten werden, wenn dem prospektiven Timing keine bestimmte Priorität im Voraus zugewiesen wird. Es wurde auch gezeigt, dass die prospektive Dauerbeurteilung kürzer wird, wenn die Aufmerksamkeit vom Timing abgelenkt wird, als wenn die Aufmerksamkeit nicht abgelenkt wird. Diese Ergebnisse stützen die Annahme, dass prospektives Timing eine Dual-Task-Bedingung schafft, bei der die Größe der Dauerbeurteilungen die Menge der Aufmerksamkeitsressourcen widerspiegelt, die der zeitlichen Informationsverarbeitung zugewiesen sind.;-;-;-;https://link.springer.com/article/10.3758/BF03209465 afbb160c8017e43889561b43c9b6702b;de;;;1.1.;;;Heterogenität bei der Wahl der Glücksspielaufgabe in Iowa: Präferenz für seltene – hohe Bestrafung Das Belohnungsattribut, d. h. langfristige versus kurzfristige Belohnung, ist das am häufigsten analysierte Wahlattribut im Iowa Gambling Task (IGT). Die vorliegende Studie (;-;-;-;https://link.springer.com/article/10.1007/s11299-008-0050-1 7c36e4a1d5195305efa264050ea4fd24;de;;;1.1.;;;Allgemeine und variable Aspekte der Intelligenz Dieses Kapitel betrachtet die Bewertung der menschlichen Intelligenz aus einer breiten Perspektive der Gehirn-Verhaltens-Beziehungen als Hilfe zum Verständnis der Implikationen normaler sowie abnormaler intellektueller Fähigkeiten durch die Diskussion von Bio-Verhaltensparadigmen im Zusammenhang mit menschlicher Intelligenz. Alle Psychologen haben ein starkes Interesse an Intelligenz aus theoretischer, sozialer und klinischer Perspektive. Es ist wichtig, das Intelligenzniveau in mehreren Kontexten als Auswahl- und Einstufungskriterium sowie als Hilfe bei der Diagnose und Behandlung zu ermitteln, einschließlich als Basiswert der gesamten mentalen Funktion, mit der spezifischere kognitive Fähigkeiten verglichen werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4939-1562-0_23 5ee00660865e7cfe144a4c49d48650a0;de;;;1.1.;;;Ein QP-Framework: Eine kontextbezogene Darstellung der Präferenzen von Agenten bei der Anlageauswahl Kontextbezogene Entscheidungen und Überzeugungen und ihre Auswirkungen auf Marktergebnisse stehen im Mittelpunkt der Forschung im Bereich Behavioral Finance. Wir beschreiben einige der bemerkenswerten probabilistischen Irrtümer, die das Anlegerverhalten und die daraus resultierende Abweichung der Vermögenspreise vom Gleichgewicht der rationalen Erwartungen untermauern. In realen Finanzmärkten erfordert die Komplexität von Finanzprodukten und die damit verbundene Mehrdeutigkeit eine allgemeinere Formalisierung der Glaubensbildung der Agenten, als dies die Standardwahrscheinlichkeitstheorie und dynamische Modelle auf der Grundlage klassischer stochastischer Prozesse bieten. Der Hauptvorteil der Quantenwahrscheinlichkeit (QP) besteht darin, dass sie die Kontextualität von Überzeugungen durch die Vorstellung von . erfassen kann;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-48853-6_7 5ff24c5274ae2b89f4b23594adfbf751;de;;;1.1.;;;Wissensmanagement als Risikomanagement: Eine Notwendigkeit für Open Governance? Das Papier findet eine Rolle für Wissensmanagement im Management von Geschäftsrisiken. Wir beginnen damit, dass wir zeigen, dass Risikomanagement für die meisten Unternehmen ein Thema von einiger Bedeutung ist. Anschließend gehen wir kurz auf das Problem der Risikodefinition und seinen Zusammenhang mit der Gefährdung ein, einschließlich einer pragmatischen Kategorisierung der Risiken, die von der Industrie übernommen werden. Hervorgehoben wird die Schlüsselrolle von Information und Wissen als Risikokonstrukte.;-;-;-;https://link.springer.com/article/10.1057/palgrave.rm.8240028 ef819d7f3476414aa48db31fdd98e4dd;de;;;1.1.;;;Kommunikationsprotokoll Wir befinden uns derzeit in der Informationstechnologiegesellschaft. Aufgrund der enormen Auswirkungen von Computern und der damit verbundenen Fähigkeit, mit anderen Computern zu kommunizieren, wurde die Produktivität von Organisationen und Einzelpersonen seit ihrer Einführung erheblich verbessert. Die täglichen Transaktionen in Kaufhäusern, Banken, Zahlungsschaltern, Reservierungsschaltern und anderen Kommunikationseinrichtungen sind heute weitgehend von Computern und den dazugehörigen Kommunikationsnetzen abhängig. Es ist offensichtlich, dass ein Verarbeitungsbedarf eines Servicezählers nicht nur von der Verarbeitungsleistung des Personal Computers (PC) abhängt, sondern immer mehr von der Fähigkeit jedes PCs, mit anderen Prozessen an entfernten Standorten zu kommunizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5549-0_1 0ceeb103aa6a5dfb2403d128334f36e9;de;;;1.1.;;;Einzelneuronenmodelle Neuronen werden im Allgemeinen sowohl als strukturelle und funktionelle Einheiten des Nervensystems als auch als seine Grundeinheiten für die Informationsverarbeitung betrachtet. Ein einzelnes Neuron und seine Modelle sind gut untersucht. Als Beispiele dafür, wie computergestützte Neurowissenschaftler mathematische und informatische Ideen und Ansätze zur Lösung neurobiologischer Probleme verwenden, werden in diesem Kapitel verschiedene Einzelneuronenmodelle diskutiert, darunter das Hodgkin-Huxley-Modell, das Multi-Kompartiment-Modell, das vereinfachte Modell und einige vereinfachte oder verallgemeinerte Modelle des H-H-Modells. Es wird auch eine dynamische Analyse einiger oben genannter Modelle gegeben, um zu zeigen, wie eine solche Analyse uns einen theoretischen Rahmen geben könnte, um die Variabilität des Neuronenverhaltens aufzuklären.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-7393-5_3 5a1a48456b762cdbff4f19b43bf963df;de;;;1.1.;;;Auf dem Weg zu einer theoriegeleiteten Forschungsagenda in Six Sigma Quality Innovation: Verknüpfung von Forschungsmöglichkeiten mit organisationstheoretischer Typologie Implementierungen von Six Sigma Quality Innovation (SSQI) haben zu Leistungsvorteilen für mehrere führende Unternehmen geführt. Obwohl SSQI seine Wurzeln in den Grundlagen des Total Quality Management (TQM) und der ISO 9000-Zertifizierung hat, präsentiert es eine Reihe einzigartiger organisatorischer Praktiken und Ideen, die eine Gelegenheit für interessante und wichtige Untersuchungen mit Relevanz für den Betrieb und das Lieferkettenmanagement bieten. Mit wenigen bemerkenswerten Ausnahmen hat die wissenschaftliche Literatur im Bereich Operations Management verschiedenen Aspekten von SSQI nicht genügend Aufmerksamkeit gewidmet. In diesem Beitrag identifizieren wir einige potenzielle Bereiche für zukünftige Forschung und entwickeln Forschungsfragen zu diesen Bereichen. Wir fordern theoriegeleitete Untersuchungen, indem wir einen Rahmen für die Verknüpfung von SSQI-Forschungsthemen mit geeigneten theoretischen Perspektiven präsentieren. Ausgehend von der Analyseeinheit und den unterschiedlichen Perspektiven des Managements präsentiert die Typologie sechs Kategorien von Organisationstheorien. Die Typologie bietet eine bequeme Grundlage für die Kategorisierung der Forschungsfragen in SSQI basierend auf ihrer zugrunde liegenden theoretischen Begründung. Wir nutzen die Verbindungen zwischen den Forschungsfragen in SSQI und den theoretischen Perspektiven, um Forschungsvorschläge zu entwickeln, die potenziell theoriegeleitete Forschungsstudien zu Qualitätsinnovationen unterstützen und anstoßen könnten.;-;-;-;https://link.springer.com/article/10.1186/s40887-015-0005-7 aeab4d01ef4336bfb3552c95f4b2e7d9;de;;;1.1.;;;Maßgeschneiderte soziale Kompetenzinterventionen für Kinder mit Lernbehinderungen Bei Kindern mit Lernbehinderungen (LDs) treten häufig Herausforderungen in der sozialen Kompetenz auf, insbesondere bei solchen mit gleichzeitig auftretenden psychischen Gesundheitsproblemen (LD + MH). Soziale Kompetenz erfordert ein komplexes Set von Fähigkeiten, einschließlich sozialer Fähigkeiten, Fähigkeiten zur Perspektivenübernahme und Verständnis des sozialen Umfelds. Die erfolgreiche Umsetzung dieser Fähigkeiten erfordert Verhaltens- und Emotionsregulation, ein Bereich der Schwäche für viele Jugendliche mit LD + MH. Die vorliegende Studie untersuchte in einem Mixed-Method-Design die Wirksamkeit eines Sozialkompetenz-Gruppenprogramms für Kinder mit LD + MH (Durchschnittsalter = 11,4 Jahre), bei dem Gruppengröße, Inhalt und Struktur auf das Niveau der Emotionsregulation des Kindes zugeschnitten sind , Informationsverarbeitungsfähigkeiten und soziale Kompetenzziele. Von den Eltern durchgeführte quantitative Messungen und codierte Verhaltensbeobachtungen, die vor und nach der Behandlung durchgeführt wurden, zeigten einen signifikanten Anstieg der Initiierung und des Engagements in positive soziale Interaktionen, grundlegende Fähigkeiten, die die Verbesserung der sozialen Kompetenz unterstützen. Qualitative Interviews mit Eltern, Kindern und Lehrern deuteten auf Verbesserungen des sozialen Selbstkonzepts, der Initiation und der Emotionsregulation hin. Die Anpassung der Behandlung an die Informationsverarbeitungs- und Emotionsregulationsfähigkeiten des Kindes sowie das Feedback „im Moment“ unterstützten die erzielten Fortschritte und trugen dazu bei, dass die Teilnehmer eine positive soziale Erfahrung machten. Richtungen für zukünftige Forschung werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s10826-015-0278-4 0cf81f13bf8d9f7cd6a19f613d5355b7;de;;;1.1.;;;Natürlichsprachliche Kommunikation zwischen menschlichen Benutzern und der Notfallzentrale: POLINT-112-SMS Wir präsentieren einen Prototyp des POLINT-112-SMS-Systems, das das Informationsmanagement und die Entscheidungsfindung in Notfallsituationen unterstützen soll. Das System ist in der Lage, SMS-Texte (Short Message Service) zu interpretieren und versteht und verarbeitet die vom menschlichen Benutzer bereitgestellten Informationen. Wir stellen die spezifische Entwicklungsmethodik des Projekts und die Hauptmodule des Systems vor: SMS-Gate, NLP-Modul (Verarbeitung von Polnisch), Situationsanalysemodul (SAM), Dialogwartungsmodul (DMM), Visualisierungsmodul (VIS) sowie einige entwickelte Ressourcen innerhalb des Projekts (PolNet).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20095-3_28 565ce0c08e86a8055f547fb82fa04f2a;de;;;1.1.;;;Kognitive und genetische Ansätze zum Verständnis von Stressanfälligkeit und psychischem Wohlbefinden zusammenbringen In diesem Kapitel möchten wir einen Überblick über kognitive und genetische Ansätze zur psychischen Gesundheit geben, um eine stärkere Zusammenarbeit zwischen denen zu fördern, die typischerweise einen kognitiven Ansatz in der experimentellen Psychopathologie verfolgen, und denjenigen, die in der Molekulargenetik arbeiten, die typischerweise einen eher biologischen Ansatz verfolgen . Aufgrund des umfangreichen Charakters beider Bereiche ist unsere Überprüfung notwendigerweise selektiv. Dennoch hoffen wir, dass dieses Kapitel eine stärkere interdisziplinäre Zusammenarbeit zwischen Genetikern und Kognitionswissenschaftlern fördern wird, um unser Verständnis von Psychopathologie und psychischem Wohlbefinden zu vertiefen. Wir glauben, dass es für Forscher viele Möglichkeiten gibt, ihre Kräfte zu bündeln, um besser zu verstehen, warum manche Menschen besonders anfällig für emotionale Störungen sind, während andere widerstandsfähiger gegen den Ausbruch von Störungen sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-27473-3_4 2eeacd6e5f11f924e2df1e10c5ffec3a;de;;;1.1.;;;Hemisphärische Unterschiede in evozierten Potentialen für relevante und irrelevante visuelle Reize Seit den Anfängen der Mittelung evozierter Potentiale (EPs) beim Menschen wurde die Bedeutung kognitiver Variablen sowie Stimulusvariablen erkannt (z. B. Chapman und Bragdon, 1964). Unter Verwendung eines experimentellen Designs, das die Verarbeitung von Zahlen- und Buchstabenstimuli beinhaltet, haben wir EP-Effekte im Zusammenhang mit einer Vielzahl kognitiver Operationen untersucht (Chapman, 1965, 1966, 1969a, 1969b, 1973, 1974a, 1974b, 1977, im Druck, Chapman et al ., in Druck (a), Chapman et al - Lappen) Es ist von Interesse, die kognitiven Effekte an anderen Stellen zu untersuchen, mit besonderem Fokus auf die Frage der Hemisphärenunterschiede und der Parietal-Occipital-Differenzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-3483-5_5 d02ef745c371f3834984310db28151a1;de;;;1.1.;;;Teleportationsbasierte Quantenberechnung, erweiterter Temperley-Lieb-Diagrammansatz und Yang-Baxter-Gleichung Dieser Artikel konzentriert sich auf die Untersuchung topologischer Merkmale in der teleportationsbasierten Quantenberechnung und soll einen detaillierten Überblick über die teleportationsbasierte Quantenberechnung geben (Gottesman und Chuang in Nature 402:;-;-;-;https://link.springer.com/article/10.1007/s11128-015-1158-y 92bc1e7c0461873f77b7878a3706d315;de;;;1.1.;;;Die phänomenologische und intersubjektive Natur der Achtsamkeit durch den enaktiven Ansatz wiedergewinnen Die Einführung von Achtsamkeit im Westen erfolgte durch Theorien und Forschungsmethoden, die auf den Wirkungen basieren, die Achtsamkeitspraktiken im Gehirn erzeugen (Informationsverarbeitung und neurobiologische Aktivität). Dennoch entziehen sich diese Ansätze jeglicher Bezugnahme auf das Kernmerkmal der Achtsamkeit, nämlich ihre subjektive und intersubjektive bewusste Natur. Mit dem Ziel, einen praktikablen wissenschaftlichen Vorschlag zu liefern, um diese Lücke zu schließen, präsentieren wir den enaktiven Ansatz als einen natürlich gut geeigneten Erklärungsrahmen, um Achtsamkeit in ihrem vollen Erfahrungsreichtum sowohl in ihren physischen als auch in ihren phänomenologischen Eigenschaften zu studieren. Dieses Kapitel ist wie folgt aufgebaut. Erstens argumentieren wir, dass der wissenschaftliche Ansatz zur Achtsamkeit seine phänomenologische Natur nicht erklärt hat, und betrachten, wie die Mainstream-Kognitionswissenschaft Aufmerksamkeit und Bewusstsein in nicht erfahrungsorientierten funktionalen Begriffen versteht. Im folgenden Abschnitt gehen wir näher auf die Bedeutung und das Wesen der Achtsamkeit ein und argumentieren für ihre im Wesentlichen phänomenologische Natur. Darüber hinaus behaupten wir, dass es nicht nur eine subjektive Dimension, sondern auch einen relationalen intersubjektiven Bereich umfasst. Schließlich stellen wir den enaktiven Ansatz und die neurophänomenologische Methode als wissenschaftlichen Rahmen vor, um Achtsamkeit als erfahrungsbezogenes Beziehungsphänomen zu untersuchen, das sowohl aus physikalischen als auch aus phänomenologischen Eigenschaften besteht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-57733-9_4 72784bce7d2c0c88d9d4ccc242469d5b;de;;;1.1.;;;Die kognitiven Merkmale von ehelich gewalttätigen Männern: Theorie und Beweise Die empirische Suche nach psychologischen Merkmalen, die ehelich gewalttätige Männer (MVM) von ihren gewaltfreien Gegenstücken unterscheiden, hat Forscher zur Rolle kognitiver Faktoren bei ehelicher Gewalt geführt. In der vorliegenden Übersicht skizzieren wir die theoretische Begründung für eine solche Forschung und untersuchen die gesammelten empirischen Beweise. Forscher haben untersucht, ob MVM unterschiedliche Attributionsprozesse, patriarchale Einstellungen und unangepasste Überzeugungen unterstützen, typischerweise unter Verwendung von Fragebogenmethoden. Obwohl es teilweise Beweise dafür gibt, dass sich MVM in Bezug auf diese kognitiven Konstrukte von gewaltfreien Ehemännern unterscheiden, schwächen zahlreiche theoretische und methodische Probleme die Verallgemeinerbarkeit dieser Ergebnisse. Insbesondere weisen wir darauf hin, dass Forscher im Bereich der ehelichen Gewalt (1) den Zusammenhang zwischen Kognition, ehelicher Not und ehelicher Gewalt sorgfältiger prüfen müssen, bevor sie zu dem Schluss kommen, dass eine bestimmte Kognition einzigartig für MVM ist, und (2) Fortschritte aus der sozialen Kognitionsforschung zu die Automatität kognitiver Prozesse in zukünftige Untersuchungen der Ursachen und Korrelate ehelicher Gewalt.;-;-;-;https://link.springer.com/article/10.1023/A%3A1005441924292 60560672dff6704effd59c8227a841d1;de;;;1.1.;;;Über mikroskopische Irreversibilität und nicht-deterministisches Chaos: Den Konflikt zwischen Determinismus und Willensfreiheit lösen Dieser Artikel versucht, den uralten Konflikt zwischen Determinismus und freiem Willen zu lösen. Das Problem wird aus zwei Richtungen angegangen: biologische Informationsverarbeitung und physikalischer Determinismus auf ontologischer und epistemologischer Ebene. Es wird gezeigt, dass die biologische Informationsverarbeitung weder absolut deterministisch noch vollständig zufällig ist. Es wird gezeigt, dass der Determinismus von Laplace weder bewiesen noch widerlegt werden kann und daher eine erkenntnistheoretische Wahl ist. Es wird weiter gezeigt, dass a) Boltzmanns statistische Mechanik mit der Newtonschen Mechanik unvereinbar ist, entgegen Boltzmanns eigener Behauptung, b) mikroskopische Reversibilität unmöglich makroskopische Irreversibilität verursachen kann, c) Zermelos Rekursionsparadox und Loschmidts Geschwindigkeitsumkehrparadox sind gültige Argumente gegen Boltzmannsmann behaupten, und d) indem Boltzmann die Verbindung mit der Newtonschen Mechanik brach, war er tatsächlich der Held, der uns aus der Fessel des absoluten physikalischen Determinismus befreit hatte. Nicht zuletzt ist es unmöglich, ein wissenschaftliches Experiment zu entwerfen, um die Existenz oder Nichtexistenz des freien Willens zu testen, da die erforderliche Homogenität menschlicher Testproben nicht eingehalten werden kann. Personen, die an die Existenz von Freiem glauben, werden jedoch eine konsistentere Weltanschauung haben als Nichtgläubige. Wenn der freie Wille nicht existiert, ist es zwecklos und bedeutungslos, andere davon zu überzeugen, dass es keinen freien Willen gibt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28111-2_21 ae5aae07171c02e2328cbfb1dd191054;de;;;1.1.;;;Informationsaustausch von Jointly Managed Inventory (JMI) im Umfeld des Supply Chain Managements Dieses Papier untersucht Probleme des Informationsaustauschs von Jointly Managed Inventory im Umfeld des Supply Chain Managements, wobei das Jointly Managed Inventory basierend auf Koordinatenzentrum als Forschungsobjekt ausgewählt wird. Zunächst werden in diesem Papier zwei bestehende Probleme des Informationsaustauschs im Jointly Managed Inventory-System eingehend analysiert, nämlich die Informationsasymmetrie zwischen den Mitgliedsunternehmen im JMI und die Informationsvariation der Lieferkette – „Der Bullwhip-Effekt“. Anschließend diskutiert dieses Papier die Umsetzung des Informationsaustauschs im JMI unter drei Aspekten: technische Unterstützung des Informationsaustauschs, Anreizmaßnahmen und Stärkung von Maßnahmen zum Informationsaustausch. Um die Praktikabilität des Informationsaustauschs zu validieren, erörtert dieses Papier schließlich den Wert des Informationsaustauschs für das gemeinsam verwaltete Inventar und das gesamte Lieferkettensystem.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38445-5_109 76599f2836492bc42ed582fb92cc0fe3;de;;;1.1.;;;Präaufmerksamkeits- und aufmerksamkeitsbezogene kognitive Defizite als Angriffspunkte für die Behandlung von Schizophrenie Die Pharmakotherapie der Schizophrenie zielt traditionell auf positive psychotische Symptome ab. Eine aufkommende Ansicht ist, dass die Entwicklung von Medikamenten, die die Kognition bei Schizophrenie-Patienten verbessern, ein großer Schritt nach vorne ist, um bessere funktionelle Ergebnisse zu erzielen. Die bei Schizophrenie häufig beobachteten kognitiven Defizite können mit (1) neuropsychologischen Tests und (2) neurophysiologischen Tests, dem Thema dieses Artikels, beurteilt werden. Diese neurophysiologischen Maßnahmen decken ein Spektrum von automatischer Präaufmerksamkeit bis hin zu aufmerksamkeitsabhängigen Prozessen ab.;-;-;-;https://link.springer.com/article/10.1007/s00213-004-1848-0 cc6bfb74b0b8c42ee797004ccef85f4f;de;;;1.1.;;;Trauma, PTSD und Partnergewalt in Militärfamilien Intimpartnergewalt (IPV) ist ein öffentliches Gesundheitsproblem in den Vereinigten Staaten, das bei Militärangehörigen, die einem Trauma ausgesetzt sind und Symptome einer posttraumatischen Belastungsstörung (PTSD) aufweisen, besonders ausgeprägt sein kann. Wie dieses Kapitel veranschaulicht, gibt es Hinweise darauf, dass die Entwicklung posttraumatischer Psychopathologie und insbesondere PTSD stark mit der Entwicklung von Gewalt und missbräuchlichem Verhalten in Beziehungen verbunden ist. Neben dem Überblick über die Forschung zum Zusammenhang zwischen PTSD und IPV in Militärpopulationen diskutieren wir in diesem Kapitel Informationsverarbeitungsmodelle, die den Zusammenhang zwischen PTSD und IPV und potenzielle Moderatoren dieses Zusammenhangs erklären, sowie Strategien zur Prävention und Behandlung von IPV in diese Bevölkerung. Außerdem werden Empfehlungen für die künftige Arbeit in diesem Bereich der Untersuchung und Programmentwicklung gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-7064-0_10 11f74ba63bff5fb1daa713f33691cb5c;de;;;1.1.;;;Konzeptuelles Modell der adaptiven semantischen Visualisierung Das im vorigen Kapitel vorgestellte High-Level-Design gab bereits einen kurzen und verständlichen Blick auf die methodische Ebene unseres konzeptionellen Modells.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30816-6_6 c95596f9533392e334dc42afb40cc93e;de;;;1.1.;;;Dokumenteigenschaften Die Essenz eines Dokuments sowie jedes anderen Objekts (Dings) liegt in seinen Merkmalen, Eigenschaften und Funktionen. Die Arbeiten, die sich auf dokumententheoretische Probleme konzentrieren, scheinen nicht zwischen diesen Konzepten zu unterscheiden und müssen daher in Übereinstimmung gebracht werden. Der Zweck dieses Artikels ist es, die wesentlichen Eigenschaften eines Dokuments als Informationsobjekt und soziales Phänomen zu definieren.;-;-;-;https://link.springer.com/article/10.3103/S0147688212040107 87df7bc2518a9e35359b1d5efd590a77;de;;;1.1.;;;Die Modellierung von Prozessen zur Erstellung elektronischer Lernwerkzeuge In diesem Beitrag wird die Modellierung von Prozessen zur Erstellung elektronischer Lernwerkzeuge untersucht. Unterschiedliche Modellierungsansätze werden detailliert analysiert. Es wurde ein konzeptionelles Modell von Lernwerkzeugen entwickelt und ein Funktionsmodell ihrer Erstellung und Verwendung vorgeschlagen.;-;-;-;https://link.springer.com/article/10.3103/S0147688210020085 41be088b63f0e61cb43262249bf5fc99;de;;;1.1.;;;Visuell-räumliches Denken in psychologischen Studien des 20. Jahrhunderts Eine kritische Literaturrecherche zu psychologischen Studien zu räumlichen Fähigkeiten und visuellen Bildern, insbesondere solchen, die mit dem Mathematikunterricht verbunden sind, wird synthetisiert. Der Großteil der Literatur stammt aus einer Zeit des letzten Jahrhunderts, in der visuell-räumliches Denken (unter den Namen räumliche Fähigkeiten, visuelle Bilder und visuelle Verarbeitung) ganz oben auf der Forschungsagenda stand. Es werden jedoch auch neuere Studien einbezogen, zusammen mit der Besorgnis, dass seine Bedeutung im Rahmen der nationalen Testregimes vergessen wurde. Basierend auf der Literaturrecherche zeigte eine Schlüsselstudie im Klassenzimmer die Vielfalt des visuell-räumlichen Denkens im Kontext des Klassenzimmers. Die Wirksamkeit spezifischer Lernerfahrungen mit Schwerpunkt auf visuell-räumlichem Denken für Geometrie veranschaulichte die Bedeutung der Entwicklung von bildlichem, dynamischem, muster- und handlungsvisuellem Denken. Insbesondere der problemlösende Charakter der Lernerfahrungen zeigte, wie der Mathematiklerner auf Objekte (geistig und physisch) und Menschen achtet und visuell-räumliches Denken zusammen mit anderen kognitiven Prozessen, Heuristiken und Affekten verwendet. Infolgedessen bietet die Reaktionsfähigkeit des Lernenden einen Weg nach vorne bei der Problemlösung. Die Reaktionsfähigkeit wiederum beeinflusst den unmittelbaren Kontext, der einen Lernzyklus bildet. Durch das Auspacken der Studien mit dem Schwerpunkt auf visuell-räumlichem Denken durch „Eintauchen in die Köpfe von Kindern“ wurde gezeigt, wie sich frühes Geometrielernen auf das Untersuchen, Visualisieren, Beschreiben und Klassifizieren konzentrieren sollte, wobei der Schwerpunkt auf den Konzepten im Zusammenhang mit Teilen und Ganzen von Formen und Orientierung und Bewegung von und innerhalb von Formen. Nachfolgende Studien in Schulen bestätigten die Wirksamkeit beim visuell-räumlichen Denken und beim Geometrielernen. Die Notwendigkeit einer stärkeren Anerkennung kultureller Unterschiede wurde jedoch deutlicher.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-02463-9_2 3588f9b3c79407357c77d2afa3bd249d;de;;;1.1.;;;Simulationstheorie und zwischenmenschliche Nutzenvergleiche überdacht Um das Problem der zwischenmenschlichen Nutzenvergleiche zu lösen, müssen wir uns nach einer populären Strategie unter Ökonomen und Philosophen ansehen, wie gewöhnliche Menschen solche Vergleiche im täglichen Leben anstellen. Der jüngste Versuch, diese Strategie zu entwickeln, wurde von Goldman in seinem Buch „Simulation and Interpersonal Utility“ (Ethik 4:709–726,;-;-;-;https://link.springer.com/article/10.1007/s11229-013-0318-9 6f8f1240db820b6f72b8bb1f6ba0ad9a;de;;;1.1.;;;Einsatz von Expertenbewertung und Analytik in Russlands Innovationsinfrastruktur Dieses Papier präsentiert eine Definition der nationalen Sicherheit der Russischen Föderation, identifiziert die Rolle des wissenschaftlichen und technologischen Fortschritts als Grundlage für diese Sicherheit und zeigt die Entwicklung ihrer Innovation auf. Die Studie behandelt den Begriff der Expertologie als eine wissenschaftlich-analytische Tätigkeitslinie, untersucht die Techniken der staatlichen gutachterlichen Begutachtung wissenschaftlich-technischer zielorientierter Programme sowie deren integrierte Unterstützung.;-;-;-;https://link.springer.com/article/10.3103/S014768820903006X a4d35cd01fdf46e3656e2337bad565e3;de;;;1.1.;;;Public Health Practitioner über Gesundheitskommunikation unterrichten: Die MPH-Curriculum-Erfahrung Die Verbreitung von Gesundheitsinformationen an die Öffentlichkeit erfolgt häufig über die Massenmedien. Medienstrategien als Bestandteil der Verhaltensänderung setzen Kenntnisse von Kommunikationstheorien und -methoden durch Public Health Practitioner voraus. Wir haben die Curricula von 52 akkreditierten Graduiertenprogrammen, die zum Master in Public Health (MPH) führen, auf ihre Kommunikationskomponente untersucht. Die Absolventenbulletins für das Aufnahmejahr 1996 wurden auf das Leitbild der öffentlichen Gesundheit, die Ziele des MPH-Ausbildungsprogramms und auf die Kurstitel untersucht. Als kommunikationsorientiert wurden Lehrveranstaltungen identifiziert, wenn im Titel die Begriffe Kommunikation, Information, Marketing oder Medien verwendet wurden. Es wurden insgesamt 82 Kommunikationskurse angeboten, davon 65 Kurse in 26 Schools of Public Health (SPH), 13 Kurse in 18 Community Health and Preventive Medicine Departments (CHPM) und 4 Kurse in 8 Community Health Education Departments (CHE). Der Unterschied in der durchschnittlichen Anzahl der Gesundheitskommunikationskurse war nach Art des MPH-Programms signifikant (p < 0,003), wobei SPH durchschnittlich 3 Kurse anbot, CHPM-Abteilungen durchschnittlich 1 Kurs anboten und CHE durchschnittlich 0,5 Kurse anboten. Die Verteilung der Kommunikationskurse reichte von 10 Kursen bis 0 Kursen pro Programm. Sieben SPH boten 3 oder mehr Kommunikationskurse an, während 5 SPH keine Gesundheitskommunikationskurse im MPH-Curriculum anboten. Diese Daten weisen auf einen Mangel in der Ausbildung von MPH-Studenten in Theorie und Fähigkeiten der Gesundheitskommunikation hin, wie durch Kurstitel in Absolventenbulletins festgestellt wird.;-;-;-;https://link.springer.com/article/10.1023/A%3A1018761407950 f3b1f4266f29749ac52f6317b77cbec0;de;;;1.1.;;;Forschung zur Fuzzy-Beziehung zwischen den anormalen Vorläuferelementen und Erdbebenelementen Dieser Artikel befasst sich mit der Fuzzy-Informationsverarbeitungsmethode bei der Erforschung der Beziehung zwischen zwei Variablen oder zwischen Multivariablen mit den unbestimmten oder unscharfen Merkmalen, die sich von der traditionellen statistischen Methode unterscheiden. Die Verlässlichkeit und Wirksamkeit der Methode wurden in der numerischen Simulation für eine Reihe von künstlichen Daten von anormalen Vorläuferparametern und Erdbebenelementen getestet und bestätigt. Schließlich wurde die Beziehung zwischen der tatsächlichen monatlichen Häufigkeit kleiner Erdbeben in Huoshan, Provinz Anhui, China, und der Stärke zukünftiger stärkerer Erdbeben als zwei Variablen mit der Methode analysiert. Es scheint den Autoren, dass mit einer quantitativen Analyse des Beitrittsgrades in Fuzzy-Mathematik mit dieser Methode vernünftigere und perfektere Ergebnisse erzielt werden könnten als mit der traditionellen statistischen Korrelationsanalyse.;-;-;-;https://link.springer.com/article/10.1007/s11589-999-0068-4 5d12153a1db705b7519b71377d31878d;de;;;1.1.;;;Signalkodierung und sensorische Verarbeitung in der peripheren Netzhaut des Facettenauges Die Struktur des Dipteren-Facettenauges bietet ein umfangreiches neuronales Netzwerk für die sensorische Verarbeitung visueller Signale. Die Codierung auftreffender Photonen als transmembrane Spannungsfluktuationen bietet visuellen Neuronen die Möglichkeit, relevante Informationen aus der visuellen Umgebung zu extrahieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-2519-0_5 41111c7e3f5b3c6ad4fe87ed18b408bf;de;;;1.1.;;;Randbewusstsein: Ein nützlicher Rahmen zur Klärung der Natur erfahrungsbasierter metakognitiver Gefühle In diesem Kapitel wird diskutiert, wie Inkonsistenzen in Koriats Behandlung erfahrungsbasierter metakognitiver Gefühle durch die Integration von Ideen und Methoden aus der Randbewusstseinsforschung aufgelöst werden können. Erfahrungsbasierte metakognitive Gefühle sollen widerspiegeln;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-6546-2_4 f26e14542b1ad646d00c603ec8a85ac5;de;;;1.1.;;;Kommunikation an der Schnittstelle von Entwicklung, Public Diplomacy und Soft Power Ziel dieses Kapitels ist es, eine theoretische Grundlage für ein besseres Verständnis der Schnittstellen zwischen Public Diplomacy und Entwicklungskommunikation zu entwickeln. Beide Aktivitäten beinhalten Theorien des Einflusses auf den sozialen Wandel im Ausland, unabhängig davon, ob es sich um einstellungs-, verhaltens- oder gesellschaftspolitische Veränderungen handelt. Beide beinhalten einen freiwilligen Transfer von Ressourcen (z. B. Geld, Wissen, Technologie) von einem Akteur, der eine bestimmte Sache oder Agenda fördert, an eine Gruppe oder Organisation im Ausland. Beide versuchen, durch eine aktive Zivilgesellschaft und einen privaten Sektor die gewünschten politischen Ergebnisse zu stimulieren und zu erzielen, und beide unterstützen letztendlich das, was als das Gemeinwohl angesehen wird. Beides ist strategisch, geplant und beabsichtigt. Durch eine Analyse der Überschneidungen dieser Ziele legt das Kapitel eine theoretische Grundlage dafür, wie Entwicklungskommunikation und Public Diplomacy als Instrumente der Soft Power betrachtet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-76759-8_2 b60ee4e8c8c5386a5e13a25a487cab11;de;;;1.1.;;;Quantensuchalgorithmus für Set-Operation Die Operationen von Datensätzen, wie Schnitt, Vereinigung und Komplement, sind die grundlegenden Berechnungen in der Mathematik. Es ist sehr wichtig, einen schnellen Algorithmus für den Satzbetrieb zu entwickeln. In diesem Beitrag wird der Quantenalgorithmus zur Berechnung der Schnittmenge;-;-;-;https://link.springer.com/article/10.1007/s11128-012-0385-8 2ab9ecc43cafd2584262c91c31ef9ff3;de;;;1.1.;;;Informationsunterstützung der Leistungsqualität eines Unternehmens Die Bewertung der Leistungsqualität eines Unternehmens, zu der auch die Managementqualität gehört, wird anhand seiner Zustandsparameter Effektivität, Effizienz und nachhaltiger Erfolg analysiert. Die Effizienz wird anhand von Outputs bewertet. Wirksamkeit und nachhaltiger Erfolg werden anhand von Ergebnissen bewertet. Ergebnisse werden in Vektorform dargestellt, Ergebnisse werden durch einen komplexen Indikator dargestellt und nachhaltiger Erfolg wird als Prognose durch Schätzung einer Reihe komplexer Indikatoren dargestellt. Leistungsqualität kann charakterisiert werden durch kombinierte;-;-;-;https://link.springer.com/article/10.3103/S0147688213020081 9e06220bb2b789e9d1469f5333f3cdfd;de;;;1.1.;;;Analyse der Anforderungen für kollaborative wissenschaftliche Experimentierumgebungen Wissenschaftler stehen bei der Durchführung ihrer komplexen Experimente vor einer Reihe von Herausforderungen. Collaborative Experimentation Environment (CEE), die in diesem Papier behandelt wird, ist eine Unterstützungsumgebung für wissenschaftliche Experimente, wobei der Schwerpunkt auf der Unterstützung gemeinsamer multidisziplinärer Projekte und Kooperationen liegt. Damit eine unterstützende Infrastruktur Wissenschaftler bei der Bewältigung der anspruchsvollen Merkmale ihrer Experimente unterstützt, muss sie ihren Anforderungen angemessen entsprechen. Dieses Papier präsentiert die Ergebnisse der Charakterisierung und Anforderungsanalyse für CEE zur Unterstützung der kollaborativen Aktivitäten von Wissenschaftlern und stellt die für die wissenschaftliche Experimentierumgebung VLAM-G notwendigen Erweiterungen vor.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-22829-2_26 c68723cf9af6ad45547343f98c0b4612;de;;;1.1.;;;Ein neuronaler Netzansatz zur Signalerkennung in der digitalen Kommunikation In diesem Beitrag schlagen wir einen neuen Ansatz für die Signalerkennung in der drahtlosen digitalen Kommunikation basierend auf dem neuronalen Netz mit transientem Chaos und zeitveränderlicher Verstärkung (NNTCTG) vor und geben ein konkretes Modell des Signaldetektors nach geeigneten Transformationen und Abbildungen. Es ist allgemein bekannt, dass das Problem der Signaldetektion mit maximaler Wahrscheinlichkeit als ein komplexes Optimierungsproblem beschrieben werden kann, das so viele lokale Optima aufweist, dass konventionelle neuronale Netze vom Hopfield-Typ nicht lösen können. Durch den Verzicht auf das ernsthafte lokale Optima-Problem neuronaler Netze vom Hopfield-Typ nutzt das NNTCTG die zeitvariablen Parameter des rekurrenten neuronalen Netzes, um das sich entwickelnde Verhalten des Netzes so zu steuern, dass das Netz den Übergang von chaotischem Verhalten zu Gradient durchläuft Konvergenz. Es hat eine reichere und flexiblere Dynamik als herkömmliche neuronale Netze nur mit Punktattraktoren, so dass davon ausgegangen werden kann, dass es viel Fähigkeit hat, nach global optimalen oder nahezu optimalen Lösungen zu suchen. Nach Durchlaufen eines vorübergehend inversen Bifurkationsprozesses kann sich das NNTCTG dem globalen Optimum oder der Umgebung des globalen Optimums unseres Problems nähern. Es wurden Simulationsexperimente durchgeführt, um die Wirksamkeit und Validierung des vorgeschlagenen auf neuronalen Netzwerken basierenden Verfahrens zur Signalerkennung in der digitalen Kommunikation zu zeigen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1016311301032 ccc964dd07df68f607e0a76bf4117f55;de;;;1.1.;;;Effiziente Parallelerkennung einiger Kreisbogendiagramme, I Wir präsentieren die ersten effizienten parallelen Algorithmen zum Erkennen einiger Unterklassen von Kreisbogengraphen, einschließlich γ Kreisbogengraphen und richtigen Intervallgraphen. Diese Algorithmen laufen in O(log;-;-;-;https://link.springer.com/article/10.1007/BF01190897 2a0758c196f8c84a55e56e92d268ab3e;de;;;1.1.;;;Dokumentation der Wirksamkeit von Virtual RealityExposition mit psychophysiologischen und informationsverarbeitenden Maßnahmen Es wurden viele Ergebnisstudien durchgeführt, um die Wirksamkeit der virtuellen Realität bei der Behandlung spezifischer Phobien zu bewerten. In den meisten Studien wurden jedoch Selbstauskunftsdaten verwendet. Die Ergänzung objektiver Maße von Erregungs- und Informationsverarbeitungsmechanismen wäre ein wertvoller Beitrag, um die Nützlichkeit der virtuellen Realität bei der Behandlung von Angststörungen zu validieren. Das Ziel dieser Studie war es, den Einfluss von Virtual-Reality-Exposition (VRE) auf die Herzreaktion und die automatische Verarbeitung bedrohlicher Reize zu dokumentieren. Achtundzwanzig Erwachsene mit Spinnenphobie wurden untersucht und erhielten eine expositionsbasierte Behandlung mit virtueller Realität. Zu den allgemeinen Ergebnis- und spezifischen Prozessmessungen gehörten eine Batterie standardisierter Fragebögen, eine bildliche emotionale Stroop-Aufgabe, ein Verhaltensvermeidungstest und eine Messung der Inter-Beat-Intervalle (IBI) der Teilnehmer, während sie eine lebende Vogelspinne betrachteten. Die Beurteilung wurde vor und nach der Behandlung durchgeführt. ANOVAs mit wiederholten Messungen zeigten, dass die Therapie einen positiven Einfluss auf die Fragebogendaten sowie auf den Verhaltensvermeidungstest hatte. Analysen zur bildhaften Stroop-Aufgabe zeigten, dass sich die Informationsverarbeitung spinnenbezogener Reize nach der Behandlung veränderte, was ebenfalls auf einen Therapieerfolg hindeutet. Psychophysiologische Daten zeigten auch eine positive Veränderung nach der Behandlung, was auf eine Abnahme der Angst hindeutet. Insgesamt führte die VRE zu signifikanten therapeutischen Verbesserungen sowohl bei objektiven Messgrößen als auch bei Selbstberichtsinstrumenten.;-;-;-;https://link.springer.com/article/10.1007/s10484-005-6379-x 9dec7b0c83afc28710c6b2758ad9fb79;de;;;1.1.;;;Training nicht bedrohlicher Interpretationen in Spinnenangst Um einen kausalen Zusammenhang zwischen verzerrter Informationsverarbeitung und Angstreaktion zu evaluieren, wie er von vielen kognitiven Modellen von Angststörungen postuliert wird, wurden Spinnen-relevante Interpretationen in einer analogen phobischen Stichprobe so trainiert, dass sie nicht bedrohlich sind. Teilnehmer mit hoher Spinnenangst (;-;-;-;https://link.springer.com/article/10.1007/s10608-006-9084-z 402eb330fab54d123333160c272627a0;de;;;1.1.;;;Augenbewegungen bei Grundschulkindern mit unterschiedlichen Lesekompetenzen Wir untersuchten die Lesefähigkeiten von Grundschulkindern (8–9 Jahre) mit den neuropsychologischen und Eye-Tracking-Methoden. Wir analysierten mögliche Korrelationen zwischen dem Niveau der Lesekompetenz und der bevorzugten Lesestrategie mit den Merkmalen der Augenbewegungen und der kognitiven Funktion von Kindern. An der Studie nahmen 46 Drittklässler teil. Ihre Lesefähigkeit wurde anhand der Wörter mit regelmäßiger und unregelmäßiger Schreibweise bewertet. Basierend auf einer Clusteranalyse der Leseleistung wurden diese Kinder nach Niveau und Qualität der Leseentwicklung in vier Gruppen eingeteilt. Gruppe 1 las alle Wortarten gut genug, Gruppe 2 las normale Wörter gut und unregelmäßige Wörter etwas schlechter, Kinder der Gruppen 3 und 4 lasen normale Wörter zufriedenstellend, während unregelmäßige Wörter signifikant schlechter gelesen wurden als normale Wörter in Gruppe 3 und wurden von den Kindern der Gruppe 4 nicht gelesen. Eine Eye-Tracking-Studie ermöglichte es uns, darauf hinzuweisen, dass Kinder mit guten Lesefähigkeiten eher die lexikalische Strategie verwenden und Kinder mit relativ schlechten Lesefähigkeiten die sublexikalische Strategie, die ihnen besser zur Verfügung steht. Darüber hinaus zeigte die Analyse der individuellen Unterschiede bei schlechten Lesern, dass einige von ihnen auch in der Lage waren, lexikalische Strategien im Leseprozess zu rekrutieren.;-;-;-;https://link.springer.com/article/10.1134/S0362119720030081 d7f1910917aaf5bce6466e5cb3e4b737;de;;;1.1.;;;Kultur und Konsumverhalten In diesem Kapitel befassen wir uns mit der akademischen Forschung darüber, wie Kultur das Verbraucherverhalten und die Überzeugungskraft beeinflusst. Wir konzentrieren uns auf Erkenntnisse zu den beiden am häufigsten verwendeten Ansätzen, um das Verhalten interkultureller Konsumenten zu modellieren: den Ansatz der kulturellen Syndrome und die dynamische konstruktivistische Kulturtheorie. Wir schließen das Kapitel, indem wir eine zukünftige Agenda für die Erforschung des interkulturellen Verbraucherverhaltens skizzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-65091-3_4 75d9ca2a73bed1b9894d7b36c43a0dde;de;;;1.1.;;;Eine schnelle und effiziente Rauschunterdrückungsmethode, die für eine geringe Rauschdichte geeignet ist In diesem Beitrag wird ein schnelles und effizientes Verfahren zur Rauschunterdrückung vorgeschlagen. Die Hauptidee des Verfahrens besteht darin, die Laufzeit des Standard-Medianfilters zu reduzieren. Der Hauptunterschied zwischen unserer Methode und dem Standard-Medianfilter besteht in der Vorverarbeitung vor der Filterung. Wir verwenden ein einfaches Rauscherkennungsschema, um zu entscheiden, welches Pixel mit dem Standard-Medianfilter verarbeitet werden soll. Unser Rauscherkennungsschema basiert auf der Technologie zum Verbergen von Bildern. Die experimentellen Ergebnisse zeigen, dass unsere Methode nur etwa ein Viertel der Laufzeit des Standard-Medianfilters verbraucht. Anhand der experimentellen Ergebnisse werden wir auch zeigen, dass unser Verfahren für niedrige Rauschdichte besser geeignet ist als andere bekannte Medianfilter wie das Standardmedianfilter und das mittenbetonte Medianfilter.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36228-2_48 dc56fc433bdf056341985c3307fc13ae;de;;;1.1.;;;Soziale Fähigkeiten, soziale Angst und kognitive Faktoren bei Schizophrenie Der Mensch ist vor allem ein soziales Wesen. Wir werden in soziale Umgebungen hineingeboren, wir entdecken und erforschen die Welt durch sozialen Diskurs, und wir lernen uns selbst durch zwischenmenschliche Erfahrung kennen. Soziale Interaktion ist so grundlegend für unsere Natur, dass Menschen, die nicht in der Lage sind, sich normal zu verbinden, fremd erscheinen und ihnen einige wesentliche menschliche Eigenschaften fehlen. Ein gestörtes soziales Funktionieren stellt eine große menschliche Tragödie dar, da soziale Dysfunktion oft zu einer Entfremdung von der Gesellschaft mit begrenzten Möglichkeiten der Teilhabe, Selbstfindung und Mitwirkung führt. Diese Tragödie ist zentral für die Schizophrenie, die durch allgegenwärtige zwischenmenschliche Angst, beeinträchtigtes Sozialverhalten und Rückzug aus menschlichen Beziehungen gekennzeichnet ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-2504-6_11 30ae4c9783d06455dd0561e45af3bcaf;de;;;1.1.;;;Pareto-Grenzvisualisierung bei der Entwicklung von Freigaberegeln für Wasserkraftwerke Es wird das Problem der Entwicklung von Regeln für das Wasserressourcenmanagement eines Wasserkraftwerks betrachtet. Es wird ein multikriterielles Entscheidungsunterstützungsverfahren vorgeschlagen, das mehrere Kriterien zur Prüfung der Qualität des Managements verwendet und die Interessen verschiedener Wasserverbraucher beschreibt. Es wird das Modell eines Systems verwendet, das Kriteriumswerte für verschiedene mögliche Regeln zulässt, aber keine analytische Untersuchung zulässt. Das Verfahren basiert auf der Approximation der Edgeworth-Pareto-Hülle für das betrachtete Mehrzielproblem und der daraus resultierenden interaktiven Visualisierung der Pareto-Grenze.;-;-;-;https://link.springer.com/article/10.3103/S0147688214050025 b8a97a46d62608e6293d7e695a33f1e7;de;;;1.1.;;;Lernen und Konsistenz Beim Entwerfen von Lernalgorithmen erscheint es durchaus sinnvoll, sie so zu konstruieren, dass alle Daten, die der Algorithmus bereits erhalten hat, korrekt und vollständig in der Hypothese widergespiegelt werden, die der Algorithmus über diese Daten ausgibt. Dieser Ansatz kann jedoch völlig fehlschlagen. Sie kann zur Unlösbarkeit des Lernproblems führen oder eine effiziente Lösung ausschließen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-60217-8_1 b290d5c0b74b7e57e7b1e58c9b5e5e81;de;;;1.1.;;;Ein modellbasierter Ansatz zur Analyse von Authentifizierungsprotokollen Das Papier stellt das integrierte Framework OF-APSAF für die Authentifizierungsprotokollanalyse vor. Das Framework baut auf einer etablierten formalen Methode CSP und seinen unterstützenden Tools auf: Casper und FDR. Integraler Bestandteil von OF-APSAF ist der objektorientierte semi-formale Ansatz zur Modellierung kryptographischer Protokolle, ihres Anwendungskontextes und ihrer Sicherheitsanforderungen. Die Modellierung basiert auf UML und einem Katalog spezialisierter Analysemuster. Die Objektorientierung hilft, die Komplexität zu bewältigen, die der Domäne der Verifikation von Sicherheitsprotokollen und formalen Methoden im Allgemeinen innewohnt.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-26325-X_19 35b0735b6155d337ee7dfd3cdfa54947;de;;;1.1.;;;Konflikte und die Komplexität kognitiver Prozesse Aus der Perspektive der Theorie dynamischer Systeme ist der Zusammenbruch von Komplexität eines der entscheidenden Phänomene, die an Konflikteskalation und Widerspenstigkeit beteiligt sind. Dies geschieht, wenn die Beziehungen zwischen verschiedenen psychologischen oder sozialen Elementen, die an einem Konflikt beteiligt sind, sich angleichen und sich gegenseitig verstärken. Auf individueller Ebene spiegelt sich ein Zusammenbruch der Komplexität in einer Abnahme der Komplexität kognitiver Prozesse wider – die Dimensionen der Realitätswahrnehmung konvergieren, sodass es am Ende aufs Sein ankommt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31436-0_6 512192a4617079be29c3ac3a29fd2d09;de;;;1.1.;;;Übereinstimmung von selbstberichteten und genitalen Maßnahmen der sexuellen Erregung bei Männern und Frauen: Eine Meta-Analyse Die Bewertung der sexuellen Erregung bei Männern und Frauen informiert über theoretische Studien zur menschlichen Sexualität und bietet eine Methode zur Bewertung und Bewertung der Behandlung von sexuellen Dysfunktionen und Paraphilien. Das Verständnis der Erregungsmaße ist daher für weitere theoretische und praktische Fortschritte in der Erforschung der menschlichen Sexualität von größter Bedeutung. In dieser Metaanalyse überprüfen wir die Forschung, um das Ausmaß der Übereinstimmung zwischen selbstberichteten und genitalen Messungen der sexuellen Erregung zu quantifizieren, um festzustellen, ob es einen Geschlechtsunterschied in dieser Übereinstimmung gibt, und um theoretische und methodische Moderatoren der subjektiv-genitalen Übereinstimmung zu identifizieren . Wir identifizierten 132 von Experten oder wissenschaftlich begutachtete Laborstudien, die zwischen 1969 und 2007 veröffentlicht wurden und eine Korrelation zwischen selbstberichteten und genitalen Messungen der sexuellen Erregung zeigten, mit einer Gesamtstichprobe von 2.505 Frauen und 1.918 Männern. Es gab einen statistisch signifikanten Geschlechtsunterschied in der Übereinstimmung zwischen selbstberichteten und genitalen Maßnahmen, bei Männern (;-;-;-;https://link.springer.com/article/10.1007/s10508-009-9556-9 76b1890b160a1b8ab69148cc73dd1cc1;de;;;1.1.;;;Konzeptbildung und kognitive Entwicklung Die Fähigkeit zu klarem und vernünftigem Denken, das heißt in der Lage zu sein, einer Argumentation zu folgen, Konzepte zu erfassen und selbst Fragestellungen zu initiieren, ist offensichtlich zentral für den Bildungsfortschritt von Kindern. Unabhängig davon, welches Fach studiert wird, sind das Versäumnis, die Anforderungen zu verstehen oder die damit verbundenen Probleme zu erkennen und anzugehen, offensichtliche Hindernisse für jeden wirklichen Fortschritt. Obwohl sie sich dessen vollkommen bewusst sind, ist einigen Lehrern nicht klar, wie viel Denken (oder Kognition) sie vernünftigerweise von einem Kind in einem bestimmten Alter erwarten können. Viele Bildungsversagen sind in der Tat darauf zurückzuführen, dass Denkformen gefordert werden, die Kinder nicht liefern können.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-24139-2_3 04dc2b3d54351d3b3e86467f63171a2f;de;;;1.1.;;;Komponentenuntersuchungen der menschlichen Intelligenz In den letzten Jahren verwende ich eine Reihe von Verfahren, die ich „Komponentenanalyse“ nenne, um die Leistung bei einer Vielzahl von Denkaufgaben zu untersuchen: Analogien, lineare Syllogismen, kategoriale Syllogismen, Klassifikationsprobleme und Reihenvervollständigungsprobleme. Ziel der Komponentenanalyse ist es, die einer Reihe verwandter Informationsverarbeitungsaufgaben zugrunde liegenden Komponenten mentaler Operationen zu identifizieren und die Organisation dieser Komponentenoperationen in Bezug auf ihre Beziehungen sowohl zueinander als auch zu übergeordneten Konstellationen mentaler Fähigkeiten aufzudecken. Aus psychometrischer Sicht kann die Komponentenanalyse als ein detaillierter Algorithmus zur Konstruktvalidierung angesehen werden – der Versuch, die abgeleiteten Merkmale (in unserem Fall mentale Operationen) auszuarbeiten, die das Testverhalten bestimmen (Campbell, 1960). Aus der Sicht der Informationsverarbeitung kann die Komponentenanalyse als eine Reihe von Verfahren zum Auffinden der Identität und Organisation einer Reihe elementarer Informationsprozesse angesehen werden (Newell & Simon, 1972).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-2535-2_26 98e6efc83a27a516fc631fe9edf84504;de;;;1.1.;;;Zeitliche Aspekte der Datenfusion Zeit ist ein wichtiger und allzu oft ignorierter Aspekt der Funktionsweise sensorischer Systeme. Die meiste Aufmerksamkeit, die zeitlichen Aspekten der sensorischen Informationsverarbeitung geschenkt wurde, galt der Messung von zeitlichen Eigenschaften der Umgebung, wie der Geschwindigkeit sich bewegender Objekte, und relativ wenig Aufmerksamkeit wurde der Rolle von zeitlichen Beschränkungen bei der sensorischen Informationsverarbeitung geschenkt sowohl die Weltmodelle als auch die sensorischen Verarbeitungsalgorithmen selbst.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-2076-1_8 0bc1919af7f27736f9ab6a38fda3c10e;de;;;1.1.;;;Antwortlatenzen beim menschlichen Matching-to-Sample Eine optimale Charakterisierung individueller informationsverarbeitender Fähigkeiten erfordert die Isolierung bewertbarer Komponenten. Beim Matching-to-Sample könnten drei elementare Prozesse getrennt werden, wenn ein vorgeschlagenes Modell der seriellen, selbstbeendenden Suche unterstützt würde: Registrierung des Stimulus im Kurzzeitgedächtnis, Vergleich der beiden registrierten Stimuli und Ausführung der identifizierenden Antwort. Unterstützung für das Modell wurde erhalten, als Antwortlatenzen als Funktion der Links-Rechts-Position des Zielreizes in einer Anzeige untersucht wurden, quantitative Schätzungen der Komponenten jedoch aufgrund der Wechselwirkungen zwischen den Aufgaben und der Linearität des Scanprozesses nicht möglich waren . Ein zweites Experiment, bei dem die Anzahl der Vergleichsreize variiert wurde, ergab hochlineare Funktionen, deren Steigungen und Achsenabschnitte bestimmte Aspekte des Modells verletzten. Daten zu Augenbewegungen, die in einem dritten Experiment erhalten wurden, unterstützten wiederum das Basismodell, zeigten jedoch, dass die medianen Antwortlatenzen eine Verwechslung von optimalen und suboptimalen Leistungen darstellen.;-;-;-;https://link.springer.com/article/10.3758/BF03209358 ba372a3ffc3c35932bb9b3ed790056fe;de;;;1.1.;;;Kognitive Funktionen bei der Entscheidungsfindung Es ist eine allgemeine Beobachtung, dass die Entscheidungsfindung zwischen Multi-Attribut-Alternativen in der Regel subjektiv und objektiv nicht optimal oder sogar irrational ist. Ziel der vorliegenden Arbeit ist es, ein kognitiv-psychologisches Prozessmodell für den Entscheidungsprozess (DP) zu beschreiben, das diese Nicht-Optimalität erklären kann. Daher ist zunächst die Annahme, dass die DP zum Gegenstand einer kognitionspsychologischen Analyse gemacht werden kann. Dies bedeutet, dass die Labelentscheidung auf Situationen beschränkt ist, in denen ein Entscheidungsträger (DM) eine Entscheidung trifft;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-1276-8_28 a7814229e17fd201e786a9095d98f460;de;;;1.1.;;;Produktinnovation, Signalisierung und endogene regulatorische Verzögerung Dieses Papier untersucht die Determinanten des Timings der Produktinnovation und der behördlichen Zulassung eines monopolistischen Unternehmens und schlägt ein Signalmodell mit endogener regulatorischer Verzögerung vor. Regulatorische Verzögerungen haben einen Multiplikatoreffekt auf die Gesamtzeit bis zur Markteinführung, denn wenn das Unternehmen erwartet, dass die Regulierungsbehörde länger braucht, um die Zulassung zu erteilen, verzögert das Unternehmen seine Produkteinführung. Das Unternehmen kann seine Innovation zeitlich so planen, dass es der Regulierungsbehörde seine privaten Informationen über die Grenzkosten der Verzögerung mitteilt. Eine erfolgreiche Signalgebung im trennenden Gleichgewicht führt den Regulator dazu, die Regulierungsverzögerung zu reduzieren. Die Implikationen des Modells stimmen mit Daten über Innovationen und regulatorische Verzögerungen auf den Telekommunikationsmärkten in einigen Bundesstaaten des Mittleren Westens der USA überein.;-;-;-;https://link.springer.com/article/10.1007/s11149-007-9052-x fcbd09400462a5c6e9dd5067ce60a923;de;;;1.1.;;;Logoerkennung und -erkennung basierend auf der Klassifizierung Online-Produktbetrug im boomenden E-Commerce-Markt ist zu einem großen Problem für Marktbeobachter und Handelsunternehmen geworden. Die Logo-Erkennung spielt eine entscheidende Rolle, um die zunehmenden Online-Fälschungshandelsversuche zu verhindern. In diesem Artikel wird ein neuartiges Verfahren basierend auf Random Forest-Klassifizierung mit Multityp-Merkmale vorgestellt, um die Logobereiche auf beliebigen Bildern zu erkennen, und die erkannten Logobereiche werden weiter unter Verwendung der visuellen Wörter mit räumlich korrelierten Informationen erkannt. Es wurden umfangreiche Experimente an realistischen und rauschenden Bildern mit unterschiedlichen Logos durchgeführt. Die Ergebnisse zeigen, dass das vorgeschlagene Verfahren die Logobereiche erkennen kann und die Erkennungsleistung den bekannten Viola-Jones-Ansatz zum Erkennen beliebiger Logos auf realistischen Bildern übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08010-9_86 3887a7b6eadcf1d057c0822749360ab9;de;;;1.1.;;;Modellierung des menschlichen Verhaltens in Rendezvous- und Docking-Aufgaben mit manueller Steuerung Manuelles Rendezvous und Docking (RVD) mit menschlicher Beteiligung kann verwendet werden, wenn autonomes RVD in einer unsicheren Umgebung ungültig ist. Aufgrund der Besonderheit und Komplexität der RVD-Aufgabe ist es notwendig, die menschlichen kognitiven Prozesse bei der Bewertung der menschlichen Leistung zu verstehen. In diesem Beitrag wird ein Modellierungsansatz vorgeschlagen, der sich auf die dem Entscheidungsprozess zugrunde liegende Informationsverarbeitung konzentriert, um eine Echtzeit-Visualisierung der Informationsverarbeitung zu erreichen und ein menschenähnliches Verhalten von manuell gesteuerten RVD zu erzeugen. Es wird implementiert, indem die symbolischen Wissensrepräsentationen mit einem Warteschlangennetzwerkmechanismus kombiniert werden. Dieses Rechenmodell hier kann verwendet werden, um zu beschreiben und zu erklären, wie die menschliche Kognition funktioniert. Darüber hinaus wird eine quantitative Validierung des Modells durchgeführt, indem die Leistungsergebnisse des Modells mit den Ergebnissen von Personen verglichen werden, die dieselben Aufgaben ausführen, was widerspiegelt, dass dieses Modell als „Ersatz“ für menschliche Teilnehmer verwendet werden kann, um ihre Kognition und Leistung in manuelle Steuerung RVD-Task.;-;-;-;https://link.springer.com/article/10.1007/s10111-016-0388-9 48d2aaa323d7b6e7eedc09c07a5c17ff;de;;;1.1.;;;Die Erforschung des Soving geometrischer Zwangsbedingungen basierend auf der Methode der Path Tracking Homotopy Iteration Das geometrische Beschränkungsproblem ist im Wesentlichen äquivalent zu dem Problem, einen Satz nichtlinearer Gleichungen zu lösen. Nichtlineare Gleichungen können durch den klassischen Newton-Raphson-Algorithmus gelöst werden. Pfadverfolgung ist die iterative Anwendung des Newton-Raphson-Algorithmus. Das Homotopie-Iterationsverfahren basierend auf der Pfadverfolgung ist zum Lösen aller Polynomgleichungen geeignet. Da wir bei jedem Schritt der Pfadverfolgung den Schätztache loswerden und die Anzahl der Teiler kleiner ist, ist die Berechnungseffizienz höher als bei der herkömmlichen Kontinuumsmethode und die Berechnungskomplexität ist auch geringer als bei der herkömmlichen Kontinuumsmethode.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-23152-8_11 6452be0104153ec5ba6fe54a91516b82;de;;;1.1.;;;Deterministische und Voluntaristische Theorien des Organisationswandels Es gibt viele Denkschulen, die sich mit Organisationen und ihrer Entwicklung befassen. Die Innovationsforschung konzentriert sich beispielsweise auf Prozess- und Produktinnovationen in der Wirtschaft. Institutionelle Theorien und industrielle Organisation befassen sich mit dem Marktaustausch. Strategisches Management beschäftigt sich mit der Wettbewerbsfähigkeit von Unternehmen. Viele Theorien berücksichtigen einzelne Aspekte in Organisationen wie Macht, Kultur oder Sinnstiftung. Darüber hinaus gibt es praktische Ansätze wie Change Management und Organisationsentwicklung, die auf eine erfolgreiche Umsetzung von Veränderungen abzielen. Diese Dissertation konzentriert sich jedoch auf;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8349-6811-1_2 e9925f56307e306aee2eaf28e47f5fb8;de;;;1.1.;;;Ein wachsames Auge auf die unsichtbare Hand Der Beitrag zeigt, wie und unter welchen minimalen Bedingungen für die Informationsversorgung ein Markt seinen wettbewerbsfähigen Gleichgewichtspreis findet und damit die sog;-;-;-;https://link.springer.com/article/10.1007/BF01193633 e917d10dbaea0aedaa348baec18da1fb;de;;;1.1.;;;Wie wirkt sich die Reizkomplexität auf die Aufmerksamkeit für sich wiederholende und sich ändernde Informationen bei Autismus aus? Eine langsamere Gewöhnung an sich wiederholende Reize kennzeichnet Autismus, aber es ist nicht bekannt, ob dies durch Schwierigkeiten bei der Informationsverarbeitung oder eine Aufmerksamkeitsverzerrung in Richtung Gleichheit getrieben wird. Wir führten Eye-Tracking durch und präsentierten 7–15 Jahre alte Kinder und Jugendliche (n = 103) mit Autismus als zwei separate Reizströme (einer sich wiederholend und einer wechselnd) aufragende geometrische Formen, Uhren mit beweglichen Armen und lächelnden Gesichtern, ADHS oder gleichzeitig auftretendem Autismus + ADHS und neurotypischen Kindern (Studie-1) und neurotypischen Kindern (n = 64) mit unterschiedlich ausgeprägten autistischen Merkmalen (Studie-2). In beiden Studien waren autistische Merkmale mit längeren Blicken auf den sich wiederholenden Reiz und kürzeren Blicken auf den sich ändernden Reiz verbunden, jedoch nur bei komplexeren Reizen, was auf größere Schwierigkeiten bei der Verarbeitung komplexer oder unvorhersehbarer Informationen hinweist.;-;-;-;https://link.springer.com/article/10.1007/s10803-021-04961-6 5a8c831ad83f9090bc8e5746b047df1e;de;;;1.1.;;;Aufmerksamkeit und sensorische Integration zur Haltungskontrolle bei jungen Erwachsenen mit Autismus-Spektrum-Störungen Bei Erwachsenen mit Autismus-Spektrum-Störungen (ASS) wurde über Beeinträchtigungen der posturalen Kontrolle berichtet. Balance beruht auf der Integration multisensorischer Signale, ein Prozess, der Aufmerksamkeit erfordert. Das Ziel dieser Studie war es herauszufinden, ob der Einfluss von Aufmerksamkeitsanforderungen auf sensorische Integrationsfähigkeiten, die für das Gleichgewicht relevant sind, teilweise zu posturalen Kontrollstörungen bei ASS beiträgt. Junge Erwachsene mit ASS (;-;-;-;https://link.springer.com/article/10.1007/s00221-021-06058-z adf51ace5709b3ff0253101624da47d2;de;;;1.1.;;;Mechanik im VINITI RAS: vom Abstract-Journal zur Datenbank. Die Geschichte seiner Entwicklung. Statistische Merkmale im Zeitraum von 1953 bis 2008 Dieser Beitrag befasst sich mit der Entstehungs- und Entwicklungsgeschichte des VINITI RAS AJ im Bereich Mechanik von 1953 bis 2008. Die Veränderungen in den Vorläufern und die Dynamik der Verteilung der Gesamtzahl der Dokumente in der Mechanik AJ/DB werden nachgezeichnet . Der Dokumenten-Informationsfluss der DB „Mechanik“ von 1953 bis 2008 wird statistisch analysiert.;-;-;-;https://link.springer.com/article/10.3103/S014768821001003X c6ab83d447e5188bccea911e754c26d8;de;;;1.1.;;;Modelle des Verbraucherwahlverhaltens Kein Überblick über die wissenschaftliche Literatur der Wirtschaftspsychologie wäre vollständig ohne eine Behandlung des Prozesses der Verbraucherwahl, der zum Erwerb von Waren und Dienstleistungen führt. Das vorliegende Kapitel untersucht fünf konzeptionelle Modelle des Verbraucherwahlverhaltens. Keines dieser Modelle kann als alt bezeichnet werden. Zwei entstanden Mitte der 1960er Jahre, während die restlichen drei in den letzten zehn Jahren entwickelt (oder überarbeitet) wurden. Die Entwicklung dieses theoretischen Gebiets ist somit ein relativ junges Phänomen in der Wirtschaftspsychologie.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-7791-5_9 60232e834d52ee763351af24bd68be52;de;;;1.1.;;;Ein Axiomatiksystem für die Ontologie-Revision Eine Ontologie besteht aus Konzepten und der Subsumtionsbeziehung zwischen diesen Konzepten und wird als Baum unter der Subsumtionsbeziehung angenommen. Während des Aufbaus und der Pflege von Ontologien werden den Ontologien ständig neue Aussagen hinzugefügt, die bestehenden Aussagen widersprechen können. Die Überarbeitung der Ontologie ist notwendig, um neue Anweisungen aufzunehmen. Hinsichtlich der Methode der Axiomatisierung wird ein Axiomensystem für die Ontologierevision, das Z-Axiomensystem genannt, angegeben, das nachweislich den Prinzipien des Erfolgs, der Konsistenz und der minimalen Veränderung genügt. Im Gegensatz zur monotonen Glaubensrevision ist die Ontologierevision möglicherweise nicht monoton und extrahiert nicht nur einige Aussagen, die mit einer revidierenden Aussage im Widerspruch stehen, extrahiert Aussagen, die der revidierenden Aussage nicht widersprechen, sondern fügt auch neue Aussagen hinzu, um die Baumstruktur von structure beizubehalten die überarbeitete Ontologie und erfüllen die minimale Änderung. Es wird ein konkreter Ontologie-Revisionsoperator vorgeschlagen, der nachweislich das Z-Axiom-System erfüllt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-44641-7_10 a0bc9b63358b35268358a7b98eb11114;de;;;1.1.;;;Aufklärung der Risikomechanismen von Gen-Umwelt-Interaktionen bei pädiatrischen Angstzuständen: Einbeziehung neurowissenschaftlicher Erkenntnisse Jüngste Erkenntnisse über die Gen-Umwelt-Interaktion zur Angst bei Kindern und Jugendlichen wecken das Interesse an Mechanismen, durch die genetische Risiken ausgedrückt werden. Aktuelle Erkenntnisse aus den Neurowissenschaften weisen auf Wege zur Erforschung mutmaßlicher Mechanismen hin. Speziell neuere Dokumentationen von Anomalien der Gehirnfunktion bei ängstlichen Jugendlichen könnten das Endergebnis der Genexpression widerspiegeln. Diese ererbten Veranlagungen können wiederum die Wahrscheinlichkeit einer Psychopathologie bei Stress erhöhen. Ziel des vorliegenden Artikels ist es, mutmaßliche Mechanismen zu betrachten, die die genetische Sensibilität für die Umwelt (G × E) widerspiegeln. Daher überprüfen wir Daten, die eine verzerrte Verarbeitung von Bedrohungsinformationen und Anomalien in Gehirnschaltkreisen beim Ausdruck pädiatrischer Angst implizieren. Diese Daten deuten darauf hin, dass Verbindungen zwischen Genen, Gehirn, psychologischen Prozessen und Verhalten über die Entwicklung hinweg noch lange nicht etabliert sind. Dementsprechend schlägt der Artikel Strategien vor, um diese Verbindungen zu untersuchen. Die Erforschung dieser Beziehungen während der Entwicklung ist von entscheidender Bedeutung, da diese frühen Lebensprozesse möglicherweise längerfristige Muster emotionalen Verhaltens und damit lebenslange Angstverläufe prägen können.;-;-;-;https://link.springer.com/article/10.1007/s00406-007-0788-1 326b7224d367c752349734fba7db4cbf;de;;;1.1.;;;Persönlichkeitswege zu impulsivem Verhalten und ihre Beziehungen zu Abweichung: Ergebnisse aus drei Stichproben Die Bedeutung der Beziehung zwischen Impulsivität und Devianz ist unter Kriminologen wohlbekannt. Jedoch können Unterschiede in der Darstellung von Impulsivität, einige nur titelgebende und andere substantiell, unser Verständnis dieser Beziehungen trüben. Die aktuelle Studie untersucht die Argumentation von Whiteside und Lynam;-;-;-;https://link.springer.com/article/10.1007/s10940-004-5867-0 a091857cfa754dbdbcd1c782bb3607e7;de;;;1.1.;;;Moderne Psychologie Die moderne Psychologie ist das Ergebnis einer jahrhundertelangen wissenschaftlichen Debatte, in der eine Reihe rivalisierender Denkschulen das Studium des Menschen mit unterschiedlichen Ansätzen verfolgt haben. Dieses Bild konkurrierender Ansätze und Standpunkte ist charakteristisch für die frühen Entwicklungsstadien jeder Wissenschaft. Physik und Chemie haben diese Phase durchlaufen, bevor eine allgemeine Einigung über die Beziehungen zwischen verschiedenen Denkschulen erzielt wurde. Beloff (1973) argumentierte in einem Überblick über die moderne Psychologie, dass es keine einzelne Wissenschaft namens „Psychologie“ gibt, sondern eine Reihe unabhängiger „psychologischer Wissenschaften“ mit ihren eigenen Studienbereichen. Einige dieser „Wissenschaften“ interessieren sich für die Beziehung zwischen Geist (Bewusstsein) und Körper (neurophysiologische Funktion), andere betrachten die Unterschiede zwischen Persönlichkeitstypen und sozialen Funktionen. Es ist diese Vielfalt von „Psychologien“, die es schwierig macht, Psychologie zu definieren. Diese Aufgabe wird noch dadurch erschwert, dass die Psychologie seit Beloffs Rezension begonnen hat, einen Punkt zu erreichen, an dem die Trennungen zwischen den „psychologischen Wissenschaften“ zurückgehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-16746-3_2 6968bbbfa92af2f7f3efd8d320a6e943;de;;;1.1.;;;Katastrophentheorie: Methodik, Erkenntnistheorie und Anwendungen in der LernwissenschaftLearning Herkömmliche Forschungsmethoden im Bildungsbereich haben sich als unzureichend erwiesen, um bestimmte Phänomene wie Lernen und Problemlösung, die überwiegend als lineare Prozesse betrachtet und behandelt werden, hinreichend zu erklären. Im letzten Jahrzehnt hatten Komplexitätstheorie und nichtlineare Dynamik (NDS) die Konzepte und Werkzeuge bereitgestellt, um das Testen von Hypothesen und die Theoriebildung voranzutreiben. Im Bereich der naturwissenschaftlichen Bildung zeigte eine Reihe von Untersuchungen mit Konstrukten und Variablen aus neopiagetschen Theorien und Informationsverarbeitungsmodellen, dass nichtlineare Modelle den linearen Pendants in bestimmten Fällen überlegen waren und demonstrierten die Anwendbarkeit des NDS-Frameworks in der Bildungsforschung. Dieses Kapitel bietet eine historische Entwicklung der Katastrophentheorie (CT) in den Sozialwissenschaften, eine klare Darstellung der verwandten Konzepte wie Bifurkation, Hysterese und Verhaltensattraktoren und einen klaren Überblick über ihre Anwendungen beim Lernen und Problemlösen zusammen mit theoretischen und praktische Fragen der CT-Modellierung. Darüber hinaus werden statistische Analysen mit unterschiedlichen Ansätzen vorgestellt und mathematische Fragestellungen beleuchtet. In diesem Kapitel werden auch wichtige philosophische – ontologische und erkenntnistheoretische – Fragen, die sich aus der Förderung des nichtlinearen Rahmens ergeben, sowie ihre Implikationen für die Erziehungswissenschaften analysiert. Abschließend werden die Richtungen für die zukünftige Forschung und der entscheidende Beitrag von NDS zur Theorieentwicklung in der Bildungsforschung diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27577-2_9 82b3b7038f93b488389ddd7f8b5b977c;de;;;1.1.;;;Analyse der Grenzen der Informationstheorie Die Grenzen der Shannon-Informationstheorie werden aus neuen Perspektiven aufgezeigt. Die Einschränkungen bestehen hauptsächlich in der Vernachlässigung der Zuverlässigkeit und Vollständigkeit der Informationen. Die Bedeutung der Informationszuverlässigkeit für die Informationsmessungen wird durch Beispielanalysen weiter veranschaulicht. Es wird darauf hingewiesen, dass solche Einschränkungen auf die Vernachlässigung mehrstufiger Informationsunsicherheiten, die Unsicherheit des Modells und anderer Objekte des Informationssystems und unzureichende Kenntnisse über Unsicherheiten von Wahrscheinlichkeitswerten zurückzuführen sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32891-6_9 fbbf11823782fae85405a8508c2d06a2;de;;;1.1.;;;Standardisierung von Schnittstellen in der Radiologie – Der ACR-NEMA-Standard 1983 bildeten das American College of Radiology (ACR) und die National Electrical Manufacturers' Association (NEMA) ein gemeinsames Komitee, um einen Standard zur „Förderung der Kommunikation digitaler Bildinformationen unabhängig vom Quellformat oder Gerätehersteller...“ zu entwickeln [1 ]. Der daraus resultierende, 1985 veröffentlichte Standard bildet die Grundlage der meisten kommerziellen Entwicklungen im Bereich der Bildarchivierungs- und Kommunikationssysteme (PACS).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-48358-5_5 388e50d9864a94bf5427cc9422b8f4b9;de;;;1.1.;;;Zeitliche Finite-State-Maschinen: Ein neuartiges Framework für die allgemeine Klasse dynamischer Netzwerke Dies ist ein Folgepapier, das unsere kürzlich veröffentlichte Arbeit integriert, in der die Implementierung von gehirninspirierten Informationsverarbeitungssystemen mit Hilfe von endlichen Automaten diskutiert wird. Unter Verwendung einer zuvor vorgestellten Implementierung des Liquid-State-Machine-Frameworks unter Verwendung eines neuartigen synaptischen Modells zeigt diese Studie, dass ein solches Netzwerk Eingabeinformationen intern repräsentiert und verarbeitet, indem es Übergänge zwischen einem Satz diskreter und endlicher neuronaler temporaler Zustände verwendet. Das eingeführte Framework wird als zeitlicher endlicher Automat (tFSM) bezeichnet. Die vorgeschlagene Arbeit beinhaltet eine neue Definition für einen „neuralen Zustand“ innerhalb eines dynamischen Netzwerks und diskutiert die Rechenkapazität des tFSM. Dieses Papier präsentiert neue Perspektiven und eröffnet neue Wege beim Importieren des Verhaltens von Spiking neuronalen Netzen in das klassische Rechenmodell von endlichen Automaten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34481-7_52 513963e7d9098008b08ecc1e05a91c7e;de;;;1.1.;;;Dynamische Auswahl von Agenteninteraktionsprotokollen Ein Problem, das beim Umgang mit Konversationsrichtlinien, die von Agenten verwaltet werden, nie angegangen wird, ist die Art und Weise, wie sie das richtige Interaktionsprotokoll auswählen, um das vorliegende Problem zu lösen. Diese Arbeit ist ein erster Versuch, ein solches Verfahren zu automatisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35602-0_15 df2bbb9a28795249c7abad4fbd666a98;de;;;1.1.;;;Psychologie riskanter Entscheidungen Die meisten Definitionen eines Entscheidungsproblems umfassen (1) die Handlungsoptionen oder Alternativen, die dem Entscheidungsträger zur Verfügung stehen, (2) die möglichen Ergebnisse und die damit verbundenen Werte, die von den Handlungen abhängig sind, und (3) die Ereignisse oder Kontingenzen, die mit Handlungen zusammenhängen zu Ergebnissen (Huber, 1980, Tversky & Kahneman, 1981). Die Bewertung und/oder Wahl unter einer Reihe von Glücksspielen erfasst alle drei grundlegenden Informationselemente, die die meisten Entscheidungsprobleme darstellen. Folglich ist die Untersuchung der psychologischen Prozesse, die an Urteilen und Entscheidungen zwischen Glücksspielen beteiligt sind, eines der aktivsten Gebiete der Entscheidungsforschung (siehe Einhorn & Hogarth, 1981, Slovic, Fischhoff & Lichtenstein, 1977). Zu verstehen, wie Individuen unter Risiko Entscheidungen treffen, hat auch direkte Bedeutung für die Verbesserung von Entscheidungen in Unternehmen (Libby & Fishburn, 1977) und in der öffentlichen Ordnung (Slovic, 1978). Entscheidungsanalytiker und andere, deren Aufgabe es ist, die Entscheidungsleistung zu verbessern, verwenden häufig Antworten auf einfache Glücksspiele als Input für normative Modelle (Keeney & Raiffa, 1976).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2391-4_1 74c1389a663831daf0cd5038a375be39;de;;;1.1.;;;Physiologische Vermittlung der Haltung, Bildung und Veränderung der Haltung Die Kontroverse zwischen Natur und Erziehung ist in der Psychologie eine wiederkehrende, und die Literatur zur Einstellungsbildung und -änderung war nicht immun dagegen. Moore (1929) glaubte, dass es einen Zusammenhang zwischen biologischen Faktoren (erblichem Temperament) und Einstellungsextremität gibt. Klineberg (1940) stellte fest, dass rassistische Vorurteile „manchmal als direkte, biologisch bedingte Feindseligkeit oder Aggressivität zwischen verschiedenen Rassengruppen ausgedrückt werden“ (S. 346–347). Allports (1935) Ansicht, dass Einstellungen durch Erfahrung oder Nachahmung erlernt werden, hat diese Perspektive jedoch durch eine weithin akzeptierte zeitgenössische Definition von Einstellung ersetzt, die „eine erlernte Veranlagung ist, in Bezug auf ein gegebenes Objekt in einer durchweg günstigen oder ungünstigen Weise zu reagieren“ ( Fishbein & Ajzen, 1975, S. 6).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-5202-3_7 4905a4d15aa3fd7370175a2d0167186e;de;;;1.1.;;;Hedge-Algebren linguistischer Werte Hedge-Algebren auf der Menge linguistischer Werte bilden einen algebraischen Ansatz für CWW. Aus philologischer Sicht gibt es eine Ordnungsbeziehung zwischen sprachlichen Werten, die durch natürliche Bedeutungen sprachlicher Werte bestimmt wird, die als semantische Ordnungsbeziehung sprachlicher Werte bezeichnet wird. Basierend auf der semantischen Ordnungsbeziehung schlugen Ho und Wechler (1990) Hedge-Algebren vor. Danach werden Erweiterungen von Hedge-Algebren vorgeschlagen,;-;-;-;https://link.springer.com/chapter/10.2991/978-94-91216-28-2_3 25cf8900fabb64cc79534b5b198c9b51;de;;;1.1.;;;Informationsarchitektur zwischen nicht lebenden und lebenden Kollektiven Kollektives Verhalten wird weithin als eine charakteristische Eigenschaft lebender und intelligenter Systeme angesehen. Es sind jedoch viele Beispiele für einfache physikalische Systeme bekannt, die nicht lebendig sind, die jedoch auch kollektives Verhalten zeigen, was dazu führt, dass einfache physikalische Modelle oft übernommen werden, um lebendiges kollektives Verhalten zu erklären. Um kollektives Verhalten in lebendigen Beispielen zu verstehen, ist es wichtig festzustellen, ob es grundlegende Unterschiede im kollektiven Verhalten von nicht-lebenden und lebenden Systemen gibt, sowie die Grenzen der Intuition, die aus einfacheren, physikalischen . aufgebaut werden kann Beispiele zur Erklärung biologischer Phänomene. Hier schlagen wir einen Rahmen vor, um nichtlebende und lebende Kollektive als Kontinuum basierend auf ihrer Informationsarchitektur zu vergleichen, dh wie Informationen über verschiedene Freiheitsgrade hinweg gespeichert und verarbeitet werden. Wir überprüfen verschiedene Beispiele kollektiver Phänomene, die aus einer informationstheoretischen Perspektive charakterisiert sind, und bieten Ausblicke auf zukünftige Richtungen zur Quantifizierung lebender kollektiver Verhaltensweisen basierend auf ihrer Informationsstruktur.;-;-;-;https://link.springer.com/article/10.1007/s12064-020-00331-5 43ac68e65869b11c8e933d53f559353a;de;;;1.1.;;;Kategorievererbung beim Übergang von statischen zu dynamischen Wissenssystemen Der Wert der Heranziehung des Apparats der Kategorientheorie zur abstrakten Wissensbeschreibung in einem Produktsystem wurde bereits von den Autoren demonstriert. Das Gerät war ursprünglich für die Beschreibung der gängigen, d. h. statischen Expertensysteme gedacht, die in der Künstlichen Intelligenz und verwandten Gebieten am weitesten verbreitet sind. In einem solchen Fall schienen die sogenannten dynamischen Expertensysteme, die das Verändern von Daten und Wissen während des Betriebs ermöglichen, gewissermaßen außen vor. Da das dynamische Expertensystem auf den statischen in den zuvor vorgeschlagenen Schemata basierte, stellt sich die Frage nach der Zirkulation des kategorietheoretischen Apparats dieser Systeme. Dies erforderte eine gewisse Verallgemeinerung des zuvor entwickelten kategorietheoretischen Apparats, verbunden mit der Einführung der sogenannten Fiberd-Kategorien und entsprechender Kontextgitter. Der gesamte Problemkomplex, der sich in diesem Zusammenhang stellt, wird in diesem Beitrag betrachtet.;-;-;-;https://link.springer.com/article/10.3103/S0147688210050011 4473d585df282ae09e569672c54dccce;de;;;1.1.;;;Die Beziehung zwischen selbstreguliertem Lernen und akademischen Leistungen in Kindheit und Jugend: Eine Metaanalyse Diese Forschungssynthese untersucht, wie sich die akademische Leistung auf zwei Hauptkomponenten des selbstregulierten Lernens für Schüler in der Grund- und Sekundarstufe bezieht. In zwei Metaanalysen wurden frühere Erkenntnisse zu (1) den definierenden metakognitiven Prozessen des selbstregulierten Lernens und (2) der Nutzung kognitiver Strategien durch die Schüler integriert. Die Gesamtkorrelationen waren gering (metakognitive Prozesse,;-;-;-;https://link.springer.com/article/10.1007/s10648-015-9320-8 26099d42fbd89324e71a09fcd8deb2f3;de;;;1.1.;;;Kontrolle der verschränkten Dekohärenz durch das Interaktionsmodell zwischen Qubit und Umgebung Die verschränkte Evolution der gekoppelten Qubits, die mit einer Nicht-Markov-Umgebung interagieren, wird im Hinblick auf die Gleichzeitigkeit untersucht. Die Ergebnisse zeigen, dass die Verschränkung von Quantensystemen nicht nur vom Anfangszustand des Systems abhängt, sondern auch von den Kopplungswegen zwischen Qubit und Umgebung. Es zeigt, dass: (1) wenn das System anfänglich in ist;-;-;-;https://link.springer.com/article/10.1007/s10773-011-0708-z abc3b1930b40a4f5a4065da9f95d9c60;de;;;1.1.;;;Normative und deskriptive Aspekte der Entscheidungsfindung Die Probleme des menschlichen Verhaltens in Entscheidungsprozessen stehen in diesem Kapitel im Mittelpunkt. Die Lücken zwischen den Anforderungen an Entscheidungsmethoden und den Möglichkeiten menschlicher Informationsverarbeitungssysteme werden analysiert. Das qualitative Modell, das das Verhalten des Entscheidungsträgers beschreibt, wird vorgeschlagen. Das Modell definiert die Leitlinien für die Konstruktion von verhaltensgerecht begründeten Entscheidungsmethoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5025-9_5 52c1b2a9192a07f83a83c77992a21bc3;de;;;1.1.;;;A basierend auf einem Identitätsüberwachungssystem in der Luftsicherheit Eine Bildschutzvorrichtung umfasst eine Informationssammeleinheit zum Sammeln persönlich identifizierbarer Informationen, die in Bilder eingebettet werden sollen, die von einem Bilderfassungsinstrument aufgenommen werden, und eine Informationsverarbeitungseinheit zum Extrahieren persönlicher Informationen aus den gesammelten persönlich identifizierbaren Informationen. Ferner umfasst die Bildschutzvorrichtung eine Informationseinbettungseinheit zum Einbetten der extrahierten persönlichen Informationen in ein erfasstes Bild und eine Bildsignatureinheit zum Schreiben einer Signatur auf dem erfassten Bild unter Verwendung der extrahierten persönlichen Informationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-5064-7_31 d7fc8658f9e7754760fee0f4a1678e61;de;;;1.1.;;;Was kommt als nächstes? Die Zukunft vorherzusagen ist ein zweifelhaftes und undankbares Unterfangen. Zu viele Faktoren, die heute nicht sichtbar sind, können die bekannten und scheinbar offensichtlichen Trends plötzlich ändern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-211-99699-7_8 de06caf28122edda6100239cdd83dd0a;de;;;1.1.;;;Ein neuer Ansatz für unstrukturierte Probleme der Entscheidungsfindung In der in Kapitel 1 vorgestellten Problemklassifikation von H. Simon kann man eine Klasse von unstrukturierten Problemen mit Variablen qualitativer Natur und unbekannten Beziehungen zwischen den Variablen abgrenzen. H. Simon stellte fest, dass, obwohl man bei strategischen Entscheidungen wirtschaftlicher, politischer usw. Art oft mit solchen Problemen konfrontiert ist, die Mittel zu ihrer Lösung unzureichend entwickelt wurden. Tatsächlich sind die Hauptmerkmale dieses Problems qualitativer Natur, und es fehlen noch ausreichend zuverlässige quantitative Modelle. Betrachten wir einige detaillierte Beispiele.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-2638-1_3 3ec3b67e376cca5c6ffbffff8f884098;de;;;1.1.;;;Entscheidungszeit als Funktion der Aufgabenkomplexität Wenn eine Wahl zwischen einer gegebenen Anzahl von Alternativen zu treffen ist, werden sowohl die Aufgabenkomplexität als auch die kognitive Belastung als zunehmende Funktionen sowohl der Anzahl der Aspekte pro Alternative als auch der Schwierigkeit der Wahl zwischen Alternativen definiert. Es wird davon ausgegangen, dass der Entscheidungsträger die Kosten für (1) Zeit des Entscheidungsverfahrens und (2) gemachte Fehler minimiert. Aufgrund der begrenzten Informationsverarbeitungskapazität wird vorgeschlagen, dass die optimale Entscheidungszeit eine konkave Funktion der Aufgabenkomplexität ist: Sowohl für einfache als auch für zu komplexe Aufgaben ist die Entscheidungszeit relativ klein.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-1834-0_19 f4f55890e607e752f94a85e56ffc8399;de;;;1.1.;;;Interpretation mehrdeutiger Informationen bei Mädchen mit Depressionsrisiko Die Forschung hat durchgängig dokumentiert, dass depressive Personen Informationen in einer negativ voreingenommenen Weise verarbeiten. Es gibt jedoch wenig Beweise dafür, ob diese Verzerrungen Risikofaktoren für Depressionen darstellen, wie von kognitiven Modellen vermutet. In der vorliegenden Studie haben wir untersucht, ob ein bestimmter kognitiver Bias, der bei derzeit depressiven Personen beobachtet wird, die Tendenz, mehrdeutige Informationen negativ zu interpretieren, Töchter von depressiven Müttern charakterisiert, einer Bevölkerungsgruppe, von der bekannt ist, dass sie ein erhöhtes Risiko für Depressionen haben. Nach einer negativen Stimmungsinduktion führten junge Töchter von depressiven und nie gestörten Müttern zwei Informationsverarbeitungsaufgaben durch, in denen ihre Interpretationen von emotional mehrdeutigen Reizen bewertet wurden. Töchter depressiver Mütter interpretierten mehrdeutige Worte negativer und weniger positiv und mehrdeutige Geschichten negativer als Töchter nie gestörter Mütter. Diese Ergebnisse unterstützen kognitive Vulnerabilitätsmodelle von Depressionen.;-;-;-;https://link.springer.com/article/10.1007/s10802-008-9259-z f16b7fd7d7d9bb275d9de964c3d0ca5c;de;;;1.1.;;;Konzeptualisierung und Operationalisierung des Einzelhandelsimages: Ein Fall konkurrierender Theorien der mittleren Ebene Dieser Artikel stellt den Fall vor, dass Inkonsistenzen zwischen der Konzeptualisierung von Einzelhandelsgeschäften und der Operationalisierung eine kritische Trennung zwischen Theorie und Messung innerhalb des Paradigmas signalisieren. Die Autoren führen die Trennung auf den Einfluss zweier rivalisierender Theorien der Informationsverarbeitung auf mittlerer Ebene zurück. Die erste, stückweise basierende Verarbeitungstheorie, hat in der Vergangenheit die Operationalisierung und Messung von Einzelhandelsgeschäftsbildern in diesem Bereich dominiert. Die Autoren argumentieren jedoch, dass die Zeit für eine neue Informationsverarbeitungstheorie – die kategoriebasierte Informationsverarbeitung – gekommen ist, um die stückweise Verarbeitung als positive Heuristik innerhalb des Ladenbild-Paradigmas in Frage zu stellen. Die Vorteile einer kategoriebasierten Verarbeitung gegenüber einer stückweisen Verarbeitung werden sowohl aus positiver als auch aus normativer Sicht diskutiert. Es werden Empfehlungen für Manager und Vorschläge für die zukünftige Forschung angeboten.;-;-;-;https://link.springer.com/article/10.1007/BF02723456 cd043f30eda25fa8bed21e9ef8c3fba2;de;;;1.1.;;;Informationsmetabolismus im Rahmen der Exakten Wissenschaften Das Buch ist die Präsentation der laufenden Konzeption. Einen wichtigen Beitrag zu seiner Entwicklung leistete mein Freund Andrzej Bielecki, ein Mathematiker, Physiker und Informatiker. Vor einigen Jahren begann unsere wissenschaftliche Zusammenarbeit mit einer populären Diskussion über die Beziehungen zwischen Mathematik und Bewusstseinsmodellen. Die mathematische Beschreibung des in einem Buch vorgestellten Modells kann einerseits als eine besondere Art der Überprüfung seiner inneren Konsistenz betrachtet werden und andererseits die Perspektiven der Anwendung dieses Modells in Studien der Künstlichen Intelligenz eröffnen. Bis jetzt haben wir mehrere Artikel geschrieben und veröffentlicht und wir setzen die Zusammenarbeit fort.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-32758-7_7 ce55651bde5d521eae810693fad8a734;de;;;1.1.;;;Ein Rahmen für die Verhaltensmodellierung Ausgehend von einer detaillierten Betrachtung des Wesens wissenschaftlichen Handelns werden wir in diesem Kapitel argumentieren, dass sich die Ziele und Mittel der physikalischen und der Verhaltenswissenschaften aufgrund der kategorisch unterschiedlichen Weltaspekte, die sie untersuchen, in wesentlicher Weise unterscheiden müssen. Die agentiven Aspekte von Organismen, die das Hauptanliegen der Verhaltenswissenschaften sein sollten, können nicht mit den Standardtechniken der mathematischen Physik untersucht werden, die sich in der Entwicklung der physikalischen Wissenschaften als so erfolgreich erwiesen haben. Der Formalismus, der zum Studium des organismischen Verhaltens benötigt wird, ist der Formalismus, der dem Studium von Informationsverarbeitungsmaschinen zugrunde liegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-67934-6_1 017190481105d1cac5d7cac9c8949012;de;;;1.1.;;;Die Naturalisierung der Philosophie Naturalismus ist die Ansicht, dass die Realität mit der Natur koextensiv ist und dass daher menschliches Wissen keinen Gegenstand außerhalb des natürlichen Bereichs hat. Ein Trend zum Naturalismus ist seit zweieinhalb Jahrtausenden ein durchdringendes Merkmal des europäischen Denkens, ein langsames Abdriften von einem ursprünglich dualistischen Modus des europäischen Denkens hin zu einem immer strengeren naturalistischen Monismus. In Platons Philosophie wurde der ursprüngliche Dualismus mit außergewöhnlicher Strenge herausgestellt. Es wurde in erster Linie definiert in;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-9741-5_1 10baa70c0e08c066039f6a9257a16070;de;;;1.1.;;;Ihr Gehirn ist wie ein Computer: Funktion, Analogie, Vereinfachung Die Beziehung zwischen Gehirn und Computer ist ein Dauerthema der theoretischen Neurowissenschaften, hat aber in der Philosophie der Neurowissenschaften relativ wenig Beachtung gefunden. Dieser Artikel argumentiert, dass ein Großteil der Popularität des Gehirn-Computer-Vergleichs (z. B. Schaltungsmodelle von Neuronen und Hirnarealen seit McCulloch und Pitts, Bull Math Biophys 5: 115–33, 1943) durch ihre Nützlichkeit zur Vereinfachung der Gehirn. Genauer gesagt, durch die Rechtfertigung einer scharfen Unterscheidung zwischen Aspekten der neuronalen Anatomie und Physiologie, die der Informationsverarbeitung dienen, und solchen, die „reine metabolische Unterstützung“ sind, bietet der Computerrahmen ein Mittel zur Abstraktion von den Komplexitäten der zellulären Neurobiologie, da diese Details für die (Rechen-)Funktionen des Systems als irrelevant eingestuft werden. Ich argumentiere, dass die Beziehung zwischen Gehirn und Computer als eine Analogie zu verstehen ist, und betrachte die Implikationen dieser Interpretation für Vorstellungen von multipler Realisation. Ich schlage einige Einschränkungen unseres Verständnisses des Gehirns und der Kognition vor, die sich aus der radikalen Abstraktion ergeben können, die durch den Rechenrahmen auferlegt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-54092-0_11 a08f25a5f4a4e6dd50a05984c86a5c30;de;;;1.1.;;;Umfrage zu agentenorientierten Modellierungssprachen In diesem Kapitel geben wir einen Überblick über die Arbeiten zur Entwicklung agentenorientierter Modellierungssprachen. Diese Sprachen sollen erstens helfen, ein bestimmtes System zu verstehen, und zweitens, es zu entwerfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7643-8396-1_2 ff30f214cd26b6d446190b1cc245e06b;de;;;1.1.;;;Mikrotubuli als Quanten-Hopfield-Netzwerk Die Theorie des Orchestrierten Objektivs (Orch OR) von Penrose und Hameroff CHEXX[14] legt die Existenz von Quantenberechnungen in Mikrotubuli-Proteinanordnungen in lebenden Zellen nahe. Um diesen Vorschlag numerisch zu untersuchen, modellieren wir dieses System als Quanten-Hopfield-Netzwerk (QHN) mit Qubits, die die Tubuline darstellen und bei endlichen Temperaturen coulombisch miteinander wechselwirken. Die Auswirkungen von Energieverlusten, Dissipation und anderen Umweltfaktoren werden nicht berücksichtigt oder gelten als abgeschirmt. An diesem Rechenmodell werden Simulationen durchgeführt, und wir suchen nach stabilen Zuständen (lokalen Minima) des Netzwerks. Wir finden, dass die Quanteninformationsverarbeitung in Mikrotubuli möglich ist, allerdings bei Temperaturen (5.8 K) niedriger als physiologische Temperaturen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36723-3_10 716e584da3c76e54000f80255494f3ca;de;;;1.1.;;;Verhaltenskongruenz in Turing-Test-ähnlichen Mensch-Computer-Interaktionen Intentionen von intentionalen Prädikaten höherer Ordnung müssen in einem System beachtet werden, wenn ihm Intelligenz zugeschrieben werden soll. Um eine operationale Definition solcher Prädikate zu geben, wird der Turing-Test in den McCarthy-Test geändert. Diese Transformation kann verwendet werden, um den Grad der Verhaltenskongruenz von Systemen zu unterscheiden, die an einer dialogischen Interaktion beteiligt sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04617-9_49 556aa8959dda38c9513f147ed729e826;de;;;1.1.;;;Entwurf eines wissensbasierten Echtzeit-Reglers mit Anwendungen in hydraulischen Turbinen-Generator-Systemen Probleme beim Entwurf und der Implementierung eines wissensbasierten Echtzeit-Controllers (KBC) wurden untersucht. Das Konstruktionsziel eines solchen Controllers besteht darin, die Gesamtsystemstabilität und -leistung nicht nur unter normalen, sondern auch unter Notfallbedingungen aufrechtzuerhalten. Es wird eine allgemeine Struktur für solche Controller vorgeschlagen. Es besteht aus vier Hauptkomponenten: einer Wissensdatenbank, einer Echtzeit-Inferenz-Engine, Informationsverarbeitungsalgorithmen und einem verteilten Controller. Die Funktionen jeder einzelnen Komponente sowie die Beziehung zwischen ihnen werden berücksichtigt. Die vorgeschlagene Entwurfsmethodik wird angewendet, um einen wissensbasierten Echtzeitregler für einen hydraulischen Turbinenregler zu synthetisieren.;-;-;-;https://link.springer.com/article/10.1007/BF00238690 3bfed8bc08bf565c456d97ccfff5b666;de;;;1.1.;;;Die Whorfian-Hypothese revisited: Ein kognitionswissenschaftlicher Blick auf sprachliche und kulturelle Auswirkungen auf das Denken Though Als die Völker der Erde aufhörten, dieselbe Sprache zu sprechen, verloren sie die Fähigkeit zu kommunizieren. Aber hatten sie weiterhin dieselben Gedanken, ausgedrückt in verschiedenen Sprachen? Wir denken nicht. Betrachten Sie ein moderneres Versagen bei der Kommunikation. Die Historikerin Barbara Tuchman hat zugegeben, dass sie über bestimmte Menschentypen einfach nicht schreiben kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-2778-0_5 723921e62c1d38d0668a9b99c1dbfd91;de;;;1.1.;;;Kognitive Verhaltenstherapie aggressiver Kinder Kinder, die von Gleichaltrigen und Lehrern als übermäßig aggressiv eingestuft werden, zeigen eine Reihe von Verhaltensweisen, darunter verbale Provokationen und Drohungen, körperliche Kämpfe, schlecht kontrollierte Wut, geringe Frustrationstoleranz, Mobbing und störendes Verhalten. Aggressive Kinder haben typischerweise verschiedene Untergruppen dieser Verhaltenssymptome, und Forschung und klinische Bemühungen haben sich darauf konzentriert, sinnvolle Unterarten aggressiver Kinder zu identifizieren. Ein gemeinsames Merkmal aller aggressiven Kinder ist jedoch, dass sie intensive, negative Auswirkungen auf die Menschen haben, die mit ihnen interagieren. Gleichaltrige werden schikaniert, Lehrer von ihrem Lehrauftrag abgehalten und Eltern sind frustriert, weil sie das zwanghafte, provokative Verhalten dieser Kinder nicht kontrollieren können. Aufgrund dieser eklatanten Auswirkungen auf andere werden aggressive Kinder häufiger in psychiatrische Dienste überwiesen als Kinder mit den meisten anderen Formen der Psychopathologie.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-9406-9_11 057bce53df51082cdd0b10de3a2facf8;de;;;1.1.;;;Techniken zur formalen Modellierung und Analyse Quantenkommunikation und kryptografische Protokolle sind auf dem besten Weg, eine wichtige praktische Technologie zu werden. Obwohl viele erfolgreiche Forschungen zum Nachweis ihrer Korrektheit durchgeführt wurden, werden in dieser Arbeit meist keine bekannten Techniken aus formalen Methoden wie formale Logiken zur Spezifikation, formale Modellierungssprachen, Trennung von Abstraktionsebenen und Kompositionsanalyse verwendet. Wir argumentieren, dass diese Techniken für die Analyse großskaliger Systeme notwendig sein werden, die Quanten- und klassische Komponenten kombinieren. Die Ergebnisse unserer Untersuchung fassen wir mit verschiedenen Ansätzen zusammen: Verhaltensäquivalenz in der Prozesskalküle, Modellprüfung und Äquivalenzprüfung. Die Quantenteleportation wird als Beispiel verwendet, um unsere Techniken zu veranschaulichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38164-5_18 e5f948cc4b2870f0a254bb0757464eea;de;;;1.1.;;;Analyse des Kaufverhaltens von Verbrauchern basierend auf dem neuronalen Netzalgorithmus der selbstorganisierenden Feature Map in der E-Supply Chain Es gibt ein berühmtes Sprichwort „Der Verbraucher ist Gott“. Die genaue Analyse des Kaufverhaltens der Verbraucher ist daher der Schlüssel zum Erfolg, um den Gewinn der gesamten E-Supply Chain zu sichern. Erstens schlägt und vergleicht dieser Artikel drei Arten von Forschungsmethoden zur Analyse des Kaufverhaltens der Verbraucher und weist dann darauf hin, dass die datengetriebene Forschungsmethode die wissenschaftlichste ist. Zweitens verwendet dieser Beitrag unter der Anleitung des datengetriebenen Forschungsmodus das Self-Organizing Feature Map Neural Network (SOFM NN) als Werkzeug zur Analyse des Kaufverhaltens von Verbrauchern in der E-Supply Chain of Book. Basierend auf den Ergebnissen der Analyse des Kaufverhaltens der Verbraucher werden in diesem Papier schließlich einige entsprechende Cyber-Marketing-Strategien vorgestellt, die dazu beitragen können, die Loyalität der Verbraucher zu erhöhen und den Gewinn der gesamten E-Supply-Kette zu maximieren. Da die Analyse des Kaufverhaltens von Verbrauchern auf der Grundlage von SOFM NN eine vergleichsweise neue Methode ist, dienen die Forschungsergebnisse in diesem Artikel nur als Referenz.;-;-;-;https://link.springer.com/chapter/10.1007/11893028_114 6b0ae7a6b922f0d54afdb4479713345b;de;;;1.1.;;;Quantenverschränkung Die Quantenverschränkung ist ein markantes Merkmal der Quantenmechanik, und die Klärung ihrer Eigenschaften ist von entscheidender Bedeutung für die Entwicklung der Quanteninformationstechnologie. In den letzten Jahren hat sich die Theorie der Verschränkung zusammen mit der Quanteninformationstheorie rasant entwickelt. Insbesondere die Einführung des Konzepts der lokalen Operationen und der klassischen Kommunikation ermöglicht es uns, das Ausmaß der Verschränkung zu quantifizieren und führt zu einem viel besseren Verständnis der Quantenverschränkung. In diesem Kapitel werden die verschiedenen Eigenschaften der Quantenverschränkung erklärt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-43502-1_7 b5be9a1faec9f4a48407d8b4adeb1c98;de;;;1.1.;;;Was kann das Regressionsmodell der menschlichen Urteilskraft aus der Multi-Attribute-Entscheidungstheorie lernen? Zelenys jüngste Vermutung, dass die Multiattribut-Entscheidungstheorie helfen könnte, die Unzulänglichkeiten des linearen Regressionsmodells zu überwinden, ist falsch. Die Anerkennung der Informationsverarbeitungsvorteile, die Mehrfachattribut-Entscheidungssituationen innewohnen, kombiniert mit der Forderung nach Transitivität selbst impliziert lineare Zielfunktionen. Dies folgt aus einigen neueren Entwicklungen eines Psychologen und Ökonomen in der Analyse individueller und kollektiver Entscheidungsprozesse, die;-;-;-;https://link.springer.com/article/10.1007/BF00138122 d13ecb32bb6f5bf2cd427c13d3f6756c;de;;;1.1.;;;Netzwerkorganisation des Informationsprozesses im Gehirn junger Erwachsener Um nicht-zufällige Organisationsmuster von Informationsprozessen im Gehirn zu charakterisieren, kombinieren wir komplexe Netzwerkanalysen und funktionelle Magnetresonanztomographie im Ruhezustand, um die von jungen Erwachsenen abgeleitete Gehirnaktivität zu untersuchen und dann das Baumlayout und die Modulstruktur ganzer Gehirn Netzwerk. Diese Netzwerkorganisationen können mit der Entstehung komplexer Dynamiken in Verbindung gebracht werden, die die augenblicklichen Reaktionen des Gehirns auf die Außenwelt unterstützen und das Verständnis potenziell biologischer Mechanismen der Gehirnfunktion erweitern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37835-5_4 50e452fdb1a97f412e9c7f86037bc3de;de;;;1.1.;;;Prozessanlagen-Informationsintegration in drei Dimensionen Der Beitrag befasst sich mit dem Management von Produktinformationen von komplexen Unikaten. Informationen und Wissen können als wichtige Ressourcen für Planung, Bau, Betrieb und Modernisierung von verfahrenstechnischen Anlagen angesehen werden. Das Forschungsproblem wird anhand von drei Fällen angegangen, die die Grundlage für ein generisches konzeptionelles Modell für die Informationsintegration über den Lebenszyklus von Prozessanlagen bilden. Das Modell zur Verwaltung und Integration von Informationen umfasst drei Dimensionen: zwischen Interessengruppen, innerhalb des Anlagenlebenszyklus und zwischen Anlagen oder Anlagenprojekten. Dieses Papier basiert auf einem Projekt namens Novel Information Integration Techniques and Models (NIITM).;-;-;-;https://link.springer.com/chapter/10.1007/0-387-23852-2_6 4746bb2d680569c04acc220181f97509;de;;;1.1.;;;Zu den informationstheoretischen Implikationen der Verkörperung – Prinzipien und Methoden Verkörperte intelligente Systeme unterliegen naturgemäß physikalischen Beschränkungen wie Kräften und Momenten (aufgrund von Schwerkraft und Reibung), Energiebedarf für den Antrieb und eventueller Beschädigung und Degeneration. Aber Verkörperung impliziert weit mehr als nur eine Reihe von einschränkenden physikalischen Beschränkungen, sie unterstützt direkt die Auswahl und Verarbeitung von Informationen. Hier konzentrieren wir uns auf eine aufkommende Verbindung zwischen Information und Verkörperung, dh darauf, wie Verkörperung die intelligente Informationsverarbeitung aktiv unterstützt und fördert, indem sie die Dynamik der Interaktion zwischen einem verkörperten System und seiner Umgebung ausnutzt. Vor diesem Hintergrund bedeutet die Behauptung, dass „Intelligenz einen Körper braucht“, dass verkörperte Systeme aktiv Informationsstrukturen in Sinneseingaben induzieren und damit die große Herausforderung, die sich aus der Notwendigkeit der Verarbeitung riesiger Informationsmengen in Echtzeit ergibt, stark vereinfachen. Die so induzierte Struktur hängt entscheidend von der Morphologie und den Materialien des verkörperten Systems ab. Aus dieser Perspektive informiert und prägt Verhalten die Kognition, da es das Ergebnis des dynamischen Zusammenspiels von physikalischen und informationstheoretischen Prozessen ist und nicht das Endergebnis eines Kontrollprozesses, der auf jeder einzelnen Analyseebene verstanden werden kann. Dieses Kapitel gibt einen Überblick über die neuere Literatur zur Verkörperung, erläutert einige der zugrunde liegenden Prinzipien und zeigt, wie Robotersysteme eingesetzt werden können, um den Begriff der Informationsstruktur zu charakterisieren und zu quantifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77296-5_8 73d712cc225b5819117680dc810e2cdb;de;;;1.1.;;;Interne Modelle und Intermittenz: Eine theoretische Darstellung des menschlichen Tracking-Verhaltens Dieser Artikel befasst sich mit der Verwendung von Tracking-Studien, um eine theoretische Darstellung der Informationsverarbeitung durch das menschliche ZNS während der Bewegungssteuerung zu testen. Die Theorie schlägt eine Brücke zwischen Studien zur Reaktionszeit und kontinuierlichem Tracking. Es wird vorgeschlagen, dass das menschliche ZNS neuronale Schaltkreise umfasst, um inverse interne Modelle der dynamischen, nichtlinearen Beziehungen zwischen ausgehenden Motorbefehlen und deren resultierenden Wahrnehmungskonsequenzen mit mehreren Eingaben, mehreren Ausgaben zu berechnen. Die inversen internen Modelle werden während der Bewegungsausführung verwendet, um vorgeplante Trajektorien gewünschter Wahrnehmungsfolgen in geeignete ausgehende motorische Befehle umzuwandeln, um diese zu erreichen. Das ZNS benötigt ein endliches Zeitintervall, um die gewünschten Wahrnehmungsfolgen einer Bewegung im Voraus zu planen, und es beginnt nicht mit der Planung einer neuen Bewegung, bis die Planung der alten abgeschlossen ist. Dieses Verhalten führt zu Unterbrechungen bei der Planung von Bewegungen. In diesem Beitrag zeigen wir, dass die Verstärkungs- und Phasenfrequenzgangeigenschaften des menschlichen Operators in einer visuellen Verfolgungsverfolgungsaufgabe theoretisch aus diesen Annahmen abgeleitet werden können. Durch die Einbeziehung der Auswirkungen der internen Modellungenauigkeit und des Geschwindigkeits-Genauigkeits-Kompromisses in die Leistung wird gezeigt, dass verschiedene Aspekte des experimentell gemessenen Tracking-Verhaltens berücksichtigt werden können.;-;-;-;https://link.springer.com/article/10.1007/BF00364156 70c7ccffd558d8bd9d705d103b24eca7;de;;;1.1.;;;Gibt es eine statistische Lösung für das Allgemeinheitsproblem? Dieser Artikel befasst sich mit einem statistischen Vorschlag von James R. Beebe zur Lösung des Generalitätsproblems für die Prozesszuverlässigkeit. Der Vorschlag wird von Alvin I. Goldman als interessanter Lösungskandidat hervorgehoben. Goldman äußert jedoch die Sorge, dass der Vorschlag nicht immer zu einem eindeutigen Ergebnis führen könnte. Dieser Sorge begegnen wir, indem wir ein Dilemma beweisen: Entweder liefert der statistische Ansatz kein eindeutiges Ergebnis oder er führt zu einer Trivialisierung, d. h. Verlässlichkeit kollabiert in Wahrheit (und Anti-Reliabilität in Falschheit). Zur Vermeidung dieser misslichen Lage werden verschiedene Strategien erwogen, darunter die Überarbeitung der statistischen Regel oder die Beschränkung ihrer Anwendung auf natürliche Arten. Alle Änderungsanträge werden als ernsthafte Probleme angesehen. Wir schließen daraus, dass Reliabilitätsexperten nach einer überzeugenden Lösung für das Generalitätsproblem woanders suchen müssen.;-;-;-;https://link.springer.com/article/10.1007/s10670-012-9427-y bc114287b47065fe82f1fb9c8e50cf23;de;;;1.1.;;;Reaktionsspezifische Quellen von Dual-Task-Interferenzen im menschlichen prämotorischen Kortex Es ist schwierig, zwei Aufgaben gleichzeitig auszuführen. Ein Beispiel für solche Leistungseinschränkungen ist die psychologische Refraktärzeit (PRP): Wenn Teilnehmer unterschiedliche motorische Reaktionen auf zwei in schneller Folge dargebotene Reize ausführen, wird die Reaktion auf den zweiten Reiz mit abnehmendem Zeitintervall zwischen den beiden Reizen zunehmend verlangsamt. Es wird angenommen, dass diese Beeinträchtigung eine zentrale Einschränkung bei der Auswahl der geeigneten Reaktion auf jeden Reiz widerspiegelt, jedoch nicht bei der wahrnehmungsbezogenen Kodierung der Reize. In der vorliegenden Studie wurde versucht zu bestimmen, welche Hirnregionen unter Dual-Task-Bedingungen spezifisch an der Antwortselektion beteiligt sind, indem die fMRT-Gehirnaktivität, die aus einer Antwortselektionsmanipulation gemessen wurde, die die Dual-Task-Kosten erhöhte, mit der Gehirnaktivität verglichen wurde, die von einem ebenso anspruchsvollen Manipulation, die die Wahrnehmungssichtbarkeit beeinträchtigt. Während eine Reihe von parieto-frontalen Bereichen, die an der Reaktionsselektion beteiligt sind, durch beide Dual-Task-Manipulationen aktiviert wurden, wurden der dorsale prämotorische Kortex und in geringerem Maße der untere frontale Kortex durch die Manipulation der Reaktionsselektion spezifisch aktiviert. Diese Ergebnisse legen nahe, dass der prämotorische Kortex ein wichtiger neuronaler Ort der Einschränkung der Reaktionsselektion in Dual-Task-Situationen ist.;-;-;-;https://link.springer.com/article/10.1007/s00426-005-0022-6 ec681fbeb7df7ea890e7f3a26b4c1fa9;de;;;1.1.;;;Organisationsstruktur als erklärender Faktor der Marktorientierung Diese Arbeit konzentriert sich auf die Untersuchung der organisatorischen Präzedenzfälle der Marktorientierung. Es geht von der Betrachtung des Marktes als einer immateriellen Ressource des organisationalen Lernens aus und reflektiert die Auswirkungen von Formalisierung, Zentralisierung, Komplexität und Integration auf ihn. Das nach Überarbeitung der entsprechenden Bibliographie aufgestellte konzeptionelle Modell wird durch eine empirische Studie überprüft. Dies wurde mit Firmen mit weniger als zwanzig Beschäftigten aus dem Industriesektor Andalusiens, Südspanien, durchgeführt. Die Ergebnisse bestätigen die Wirkung von Formalisierung, Integration und Zentralisierung auf die Marketingorientierung der Unternehmen, lassen jedoch keine Aussage über einen Zusammenhang zwischen Marketingorientierung und Komplexität der Unternehmen zu. Daraus ergibt sich für das Management die Notwendigkeit, die Organisationsstrukturen zu überprüfen, um die Einführung der Marktorientierung nicht zu verlangsamen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30457-6_11 881eac2777c802d1f98b18daa40277a3;de;;;1.1.;;;Psychologische Forschung im probabilistischen Verständnis Dieses Kapitel widmet sich der Wahrscheinlichkeitsforschung, die in der Psychologie zu finden ist, und beschäftigt sich mit verschiedenen Forschungsparadigmen. Es werden herausragende experimentelle Aufgaben und Forschungsfragen zum Umgang von Individuen mit probabilistischen Settings diskutiert. Ziel ist es, einen fundierten und repräsentativen Überblick über die Vielzahl psychologischer Untersuchungen zu geben. Wir beginnen mit der Präsentation einer indikativen Stichprobe psychologischer Studien zur Reaktion von Menschen auf wahrscheinlichkeitstheoretische Probleme. Kritische Dimensionen zur Beurteilung der Bildungsrelevanz von Paradigmen und Fragestellungen werden vorgestellt. Die wenigen Entwicklungstheorien, die sich mit dem Erwerb von Wahrscheinlichkeiten in der Psychologie befassen, werden diskutiert. In den abschließenden Abschnitten werden Defizite und Perspektiven der Bildungsforschung kritisch beleuchtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-3532-0_7 65f885dd3630a79deb37b5e440b29b4c;de;;;1.1.;;;Digitale Spielpädagogik: Mit Spielen lehren In diesem Kapitel sehen wir, wie sich Pädagogik mit Videospielen verbindet, indem wir Spiele durch die Linse mehrerer bekannter und akzeptierter Lehrtheorien und -modelle betrachten. Unter der Prämisse, dass „gute“ Spiele bereits eine solide Pädagogik verkörpern, sollten wir keine Probleme haben, Lehrtheorien auf Spieldesigns abzubilden, selbst wenn die Einbeziehung dieser Theorien nicht beabsichtigt war. Aus diesen Untersuchungen können wir erkennen, dass Lern- und Instruktionsdesign mit gutem Spieldesign vereinbar sind und umgekehrt. Dann erweitern wir unser wachsendes Vokabular weiter, indem wir ein typisches Spiel auspacken, um die Elemente zu sehen, die es funktionieren lassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12223-6_3 d253251fb135123f22fa3aba22a41260;de;;;1.1.;;;Ontologiebasierte Organisation von Interaktionen zwischen Diensten im Smart Space zur hybriden Systemsteuerung Am Beispiel eines Raumreinigungsszenarios im Smart-Home-System wird ein Ansatz zur Organisation von Interaktionen zwischen Diensten im Smart Space (hybride Systemsteuerung) dargestellt. Die Smart-Space-Technologie wird verwendet, um Interaktionen zwischen Systemdiensten zu unterstützen, während der ontologiebasierte Ansatz verwendet wird, um die Interoperabilität der Dienste bereitzustellen. Hybride Automaten werden verwendet, um das Verhalten jedes einzelnen Dienstes zu beschreiben, was sowohl die automatische Generierung des Programmcodes als auch die Überprüfung von Systemkomponenten ermöglicht.;-;-;-;https://link.springer.com/article/10.3103/S014768821505007X d2cbe228bf69f37c9d18163a989054e5;de;;;1.1.;;;System zur Entscheidungsfindung Ein Entscheidungsprozess würde als ein recht interessantes Feld in der Erforschung der menschlichen Informationsverarbeitungsaktivität angesehen. Bei der Informationsverarbeitung des Menschen, die von einem allgemeinen Problem wie der Auswahl eines Autos bis hin zur Auswahl von Politik oder Taktik unter hochpolitischen und strategischen Überlegungen reicht, werden Bewertungen und Urteile mit subjektiver Gewichtung unter Berücksichtigung der Verlässlichkeit und Mehrdeutigkeit der erhaltenen Informationen durchgeführt. Um ein Entscheidungsunterstützungssystem für ein schlecht definiertes Problem wie ein sozioökonomisches System oder ein Großsystem einzurichten, ist es notwendig, die Merkmale der vom Hersteller durchgeführten Informationsverarbeitung zu definieren, um den Entscheidungsprozess leicht handhabbar zu machen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-2770-1_2 1ed4a962a576123a8b039130a54dd88b;de;;;1.1.;;;Die Rolle der Informationsintegration bei der Entmystifizierung ganzheitlicher Methodik Die Einteilung in ganzheitliche und reduktionistische Denk- und Untersuchungsmethoden war in allen Epochen und in allen Bereichen der intellektuellen Tätigkeit präsent, wobei erstere meist eine mysteriöse Aura hatten. Das Papier bietet eine kurze Darstellung des Vorhandenseins und der Notwendigkeit der ganzheitlichen Methoden. Ein Ansatz zur Informationsintegration wird in einem allgemeinen Informationsrahmen vorgestellt, der als Identifizierung von Vielfalt verstanden wird. Für allgemeinere Zwecke wird hier ein Überblick über den Formalismus der Informationsintegration in Bezug auf Schließräume gegeben, der in früheren Arbeiten des Autors für das Studium des Bewusstseins entwickelt wurde. Dieser Formalismus kann als Grundlage für eine allgemeinere Methodik zur ganzheitlichen Beschreibung einer breiten Klasse von Systemen dienen, die mit Informationen in Verbindung gebracht werden können. Da der Grad der Informationsintegration von vollständiger Desintegration bis hin zu vollständiger Integration mit vielen dazwischenliegenden Graden variieren kann, zeigt der Formalismus, dass eine solche Methodik die beiden ehemals antagonistischen Ansätze zu einem kombinieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28111-2_28 292838973cad441d054b20972d4031a2;de;;;1.1.;;;Eine hierarchische Perspektive auf die Dimensionen unternehmerischer Orientierung Diese Studie untersucht die hierarchische Beziehung zwischen den drei Dimensionen der unternehmerischen Ausrichtung (EO): Proaktivität, Innovationsfähigkeit und Risikobereitschaft. Die Informationsverarbeitungstheorie und die Strategische Entscheidungstheorie wurden verwendet, um die Rolle sowohl der industriellen Großzügigkeit als auch der Wahrnehmung von Gelegenheiten bei der Bildung von EO auf Unternehmensebene zu untersuchen. Daten, die von 227 Organisationen in vier Ländern gesammelt wurden, deuten darauf hin, dass innovatives und risikofreudiges Verhalten im Wesentlichen von Proaktivität und der wahrgenommenen Verfügbarkeit von Chancen in einer Branche angetrieben wird. Daher scheint Proaktivität der führende und wichtigste Faktor bei der Förderung und Ermöglichung der anderen Dimensionen der EO zu sein. Die Forschungs- und Managementimplikationen dieser Ergebnisse werden ebenfalls diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s11365-008-0097-9 91c55e4805d622b1ddd6d0727a27491c;de;;;1.1.;;;Von der Computer-Metapher zum Computational Modeling: Die Evolution des Computationalismus In diesem Beitrag argumentiere ich, dass Computationalism eine fortschrittliche Forschungstradition ist. Seine metaphysischen Annahmen sind, dass Nervensysteme rechnerisch sind und dass die Informationsverarbeitung für die Wahrnehmung notwendig ist. Zunächst werden die Hauptgründe untersucht, warum die Informationsverarbeitung die Kognition erklären sollte. Dann argumentiere ich, dass frühe Formulierungen dieser Gründe veraltet sind. Wenn man sich jedoch auf die mechanistische Darstellung der physikalischen Berechnung stützt, können sie auf überzeugende Weise neu formuliert werden. Als nächstes stelle ich zwei Rechenmodelle des Arbeitsgedächtnisses gegenüber, um zu zeigen, wie sich die Modellierung im Laufe der Jahre entwickelt hat. Die methodischen Annahmen neuer Modellierungsarbeiten werden am besten im mechanistischen Rahmen verstanden, was durch die empirische Validierung von Modellen belegt wird. Darüber hinaus rechtfertigen die methodischen und theoretischen Fortschritte in der Computational Neuroscience den neuen mechanistischen Erklärungsansatz, der gleichzeitig die besten Praktiken der Computermodellierung rechtfertigt. Insgesamt ist die computergestützte Modellierung in der kognitiven (Neuro-)Wissenschaft zu Recht erfolgreich. Seine Erfolge hängen mit tiefen konzeptionellen Verbindungen zwischen Kognition und Berechnung zusammen. Der Computationalismus ist nicht nur hier, um zu bleiben, er wird jedes Jahr stärker.;-;-;-;https://link.springer.com/article/10.1007/s11023-018-9468-3 08941d138e88640ef208b97c46f6823e;de;;;1.1.;;;Struktur, Kompetenz und Lernen in einem adaptiven Modell des Unternehmens Organisatorisches Lernen [vgl. B. die bahnbrechende Arbeit von Cyert und March (1963) und Nelson und Winter (1982) für einen groben Überblick über ihre wichtigsten wirtschaftlichen Implikationen ein Thema, das bei der Untersuchung der dynamischen Leistung von Wirtschaftssystemen vorrangige Aufmerksamkeit verdient. Aber organisatorisches Lernen – darauf wird in diesem Kapitel argumentiert – kann innerhalb des bestehenden vorherrschenden analytischen Rahmens der Wirtschaftstheorie nicht angemessen gehandhabt werden. Neuere Versuche, organisatorische Fragen innerhalb der neoklassischen Theorie des Unternehmens unterzubringen, haben deren Tragweite eindrucksvoll erweitert und grundlegende Fragen aufgegriffen, die früher außerhalb des Interesses der Wirtschaftstheorie lagen, konnten jedoch nicht in befriedigender Weise mit den Lernproblem, weil sich die neoklassische Theorie in diesen jüngsten Entwicklungen mit;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-13389-5_6 40bccfea3c8c0f2e5f1abc58dff1f570;de;;;1.1.;;;Eine Netzwerkanalyse der Faktoren, die Jugendliche dazu bringen, sich mit substanzkonsumierenden Gleichaltrigen anzufreunden Unser Interesse gilt den systematischen Netzwerkauswahlprozessen, die Jugendliche in Freundschaften mit substanzkonsumierenden Gleichaltrigen führen. Die Theorie legt nahe, dass Jugendliche mit bestimmten Risikofaktoren (d. h. schwache Bindungen an die konventionelle Gesellschaft und geringe Selbstkontrolle) eher substanzkonsumierende Freunde auswählen. Unser Ziel ist es zu evaluieren, ob Jugendliche mit bestimmten Risikofaktoren ein größeres Risiko haben, sich mit substanzkonsumierenden Gleichaltrigen anzufreunden, während wir gleichzeitig auf gemeinsame Netzwerkauswahlprozesse achten, die das gleiche Freundschaftsmuster erzeugen können. Diese Auswahlprozesse sind wichtig, da sie dazu beitragen, die Voraussetzungen für eine spätere Beeinflussung des Substanzkonsums durch Gleichaltrige zu schaffen.;-;-;-;https://link.springer.com/article/10.1007/s10940-016-9335-4 0041af55d1462ddac46b1a77f0f69a2e;de;;;1.1.;;;Theoretische und empirische Ansätze zur verhaltensorientierten Entscheidungsfindung und ihre Beziehung zu Zeitbeschränkungen Dieses Kapitel bietet einen allgemeinen Hintergrund zu den Studien zur Entscheidungsfindung, die von den anderen Autoren des Buches behandelt wurden. Diese Beiträge stützen sich auf eine Reihe von Ansätzen, die sich nach den im Fokus stehenden Aspekten des Entscheidungsprozesses und den theoretischen und methodischen Ansätzen bei der Konzeptualisierung und Untersuchung des Prozesses unterscheiden. Zum Beispiel haben einige Beiträge das Urteilsvermögen untersucht, andere die Wahlentscheidung, wobei jeder einen Ansatz verfolgt, der sich hauptsächlich auf das Ergebnis dieser Aktivitäten oder die Natur der ihnen zugrunde liegenden kognitiven Prozesse konzentriert. Neben der Identifizierung verschiedener Ansätze zur Untersuchung der Entscheidungsfindung wird das Potenzial jedes Ansatzes für die Entwicklung unseres Verständnisses der Auswirkungen von Zeitbeschränkungen auf Urteils- und Entscheidungsfindung herausgearbeitet. Dies bietet eine breite Abdeckung der Themen und relativiert die verschiedenen Studien zu Urteils- und Entscheidungsfindung, die in diesem Band enthalten sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-6846-6_1 c5cc5bbe2278a4632623b51aecd452df;de;;;1.1.;;;Kontrollierte Teleportation gegen Nichtkooperation eines Teils der Vorgesetzten Wir untersuchen die Teleportation eines unbekannten Quantenzustands von einem Sender (Alice) zu einem Empfänger (Bob) über die Steuerung vieler Supervisoren (Charlie 1, Charlie 2, ...) in einem Netzwerk. Es hat sich gezeigt, dass eine solche Aufgabe gelöst werden kann, indem man einen GHZ-artigen verschränkten Zustand im Voraus unter den Teilnehmern verteilt. Bei den Protokollen mit dem Verschränkungskanal vom GHZ-Typ ist das Erreichen der Teleportation zwischen Alice und Bob von der Zusammenarbeit aller Supervisoren abhängig. Mit anderen Worten, wenn einer der Aufseher nicht kooperiert, schlägt die Teleportation fehl. In diesem Papier stellen wir eine andere Art von kontrolliertem Teleportaton-Protokoll mit anderen Arten von verschränkten Zuständen als Quantenkanal vor, in dem die Teleportation zwischen Alice und Bob mit einem hohen Maß an Ausdauer gegen die mangelnde Kooperation eines Teils der Supervisoren realisiert werden kann.;-;-;-;https://link.springer.com/article/10.1007/s11128-009-0107-z 10dd7baf7b7aa86925771379b490aa8a;de;;;1.1.;;;Gitterbasiertes künstliches endokrines Systemmodell und seine Anwendung in Roboterschwärmen Um das Problem der verteilten Kontrolle von Roboterschwärmen zu lösen, schlagen wir ein neues gitterbasiertes künstliches endokrines System (LAES)-Modell vor, inspiriert von der modernen endokrinologischen Theorie. Basierend auf einer vergitterten Umgebung, die auf Zellintelligenz basiert, durch kumulative Hormone verbunden und von Zielzellen gesteuert wird, kann sich das LAES-Modell endlich an die kontinuierliche Volatilität der äußeren Umgebung anpassen und die relevante Stabilität der internen Dynamik des Systems aufrechterhalten, so die die selbstorganisierenden und selbstreparierenden Eigenschaften des biologischen endokrinen Systems aufweisen. Experimente zeigen, dass das LAES-Modell es einem Roboterschwarm ermöglicht, einen unbekannten Raum zu durchsuchen und mehrere Ziele automatisch zu erfassen, ohne eindeutige globale Identifikatoren oder eine zentralisierte Steuerungsstrategie für die einzelnen Roboter zu verwenden. Dies zeigt, dass das Modell zuverlässig verwendet werden kann, um das Schwarmverhalten in großem Maßstab durch drahtlose Kommunikation zu simulieren.;-;-;-;https://link.springer.com/article/10.1007/s11432-010-4157-8 29dbb0488499b6388b9ec1b09947cd79;de;;;1.1.;;;Modelle, Theorien und Gesetze in der Wissenschaftstheorie und der Wissenschaftspädagogik Modelle, Theorien und Gesetze sind sowohl in der Wissenschaftsphilosophie als auch in der naturwissenschaftlichen Bildung wichtig. Allerdings gibt es unter Wissenschaftsphilosophen eine kontinuierliche Diskussion über diese Konzepte, und es ist schwierig, einen Konsens zu erzielen. Auch im naturwissenschaftlichen Unterricht gibt es eine kontinuierliche Debatte, die zu Kontroversen führt. Angesichts dieser Schwierigkeiten haben einige Gelehrte vorgeschlagen, dass wir „Wissenschaft, wie sie von Wissenschaftlern praktiziert wird“ (Levere,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-26248-2_2 4a2bafbf5f8888ca650b88f3c2e86d6b;de;;;1.1.;;;Abschließende Bemerkungen zu theoretischen Grundlagen und Anforderungen in der Verhaltenstherapie Seit ihren Anfängen hat die Verhaltenstherapie ihre eigenen theoretischen Grundlagen und sich verändernden Orientierungen kontinuierlich untersucht und ihren Bezug zur klinischen Praxis hinterfragt. Im gleichen Sinne wurden die Autoren dieses Buches gebeten, ihre Ansichten zur zeitgenössischen Theorie und ihrer Relevanz für die Verhaltenstherapie darzulegen. Sie repräsentieren ein Spektrum von Forschern, die von der alltäglichen Therapie bis hin zu solchen, die sich vor allem mit grundlegenden Fragen der Theorie beschäftigen, reichen. Daher spiegeln die Kapitel eine Reihe unterschiedlicher Haltungen zur Theorie und eine Reihe unterschiedlicher Perspektiven auf die Anforderungen einer adäquaten Theorie wider. Kapitel 1 bestätigt den Ausgangspunkt der Verhaltenstherapie, wie sie in der Pawlowschen Konditionierungstheorie verwurzelt ist. Es wäre zu erwarten, dass die folgenden Kapitel zeigen würden, wie sich diese Ursprünge entlang der festgelegten Linien entwickelten. Das ist nicht der Fall. Sie verdeutlichen vielmehr die Vielfalt der gegenwärtigen Entwicklungen. Die heutige Konditionierungsforschung bezieht sich auf viele Themen, auf kognitive Repräsentationen, auf die Informationsverarbeitung, auf das Erlernen der kausalen Struktur der Welt sowie auf Emotionen und den Einfluss von Neurohormonen auf Erwerb und Extinktion.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-0827-8_21 78c016abd00943590ec7060a0d67e0b3;de;;;1.1.;;;Mögliche Rolle von extrazellulärem Gewebe in biologischen neuronalen Netzwerken In der vorliegenden Arbeit analysieren wir die Rolle von extrazellulärem Gewebe (ECT) bei der Signalübertragung und Informationsverarbeitung in biologischen neuronalen Netzwerken. Unser spekulativer Ansatz, der hauptsächlich auf Fakten aus der Literatur basiert, wird durch einfache Originalmodelle und quantitative Schätzungen ergänzt. Es wird gezeigt, dass das Vorhandensein von ECT einige grundlegende Parameter des immersierten biologischen neuronalen Netzwerks kontrolliert, die traditionell als intrinsisch für Neuronenmembranen behandelt werden. Wir schlagen dann vor, dass die diffusive Übertragung des Aktionspotentials über die Nervenfaser zusammen mit Prozessen, die in der umgebenden ECT induziert werden, im Gegensatz zum Standardparadigma letztendlich durch die Quantendiffusion;-;-;-;https://link.springer.com/article/10.1140/epjs/s11734-021-00102-3 d2b846d6582985c20ce70d913a889448;de;;;1.1.;;;Implementierung von Zustandstransfer-Hamiltonianen in Spinketten mit Magnetresonanztechniken Kernspinsysteme und Magnetresonanztechniken haben eine fruchtbare Plattform für die experimentelle Untersuchung des Quantenzustandstransfers in Spinketten bereitgestellt. Von der ersten Beobachtung des Polarisationstransfers vor der formalen Definition des Quantenzustandstransfers bis zur Realisierung von Zustandstransfersimulationen in kleinen Molekülen und in größeren Festkörperspinsystemen haben die Experimente auf die Stärken der Kernspinresonanz (NMR) zurückgegriffen. , insbesondere auf seine lange Geschichte gut entwickelter Kontrolltechniken. NMR-Implementierungen waren von unschätzbarem Wert sowohl als Proof-of-Principle-Demonstrationen von Quantenzustandstransferprotokollen als auch zur Erforschung von Dynamiken in realen Systemen, die über das hinausgehen, was analytisch gelöst oder numerisch simuliert werden kann. Darüber hinaus können in diesen Systemen entwickelte Steuerungstechniken zur Entwicklung der für den Transport erforderlichen Hamilton-Operatoren in potenziell skalierbare Quanteninformationsverarbeitungsarchitekturen übernommen werden. In diesem Beitrag beschreiben wir aktuelle Ergebnisse und skizzieren zukünftige Forschungsrichtungen in magnetresonanzbasierten Implementierungen des Quantenzustandstransfers in Spinketten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39937-4_6 1f861f6df19e98c797e35727dcef4928;de;;;1.1.;;;Kulturell invariante Parameter kognitiver Funktionen Function Die beiden Forschungstraditionen, die mit den Begriffen indigene Kognitions- und Informationsverarbeitungsmodelle bezeichnet werden, liegen viel weiter auseinander, als die einfache Konjunktion „und“ vermuten lässt, durch die sie im Titel dieses Workshops miteinander verbunden sind. Studien zur indigenen Kognition konzentrieren sich tendenziell auf Produkte menschlicher kognitiver Funktionen, wobei diejenigen bevorzugt werden, die in westlichen Kulturen nicht leicht zu finden sind. Der Begriff Informationsverarbeitung bezieht sich auf psychologische Funktionen und Mechanismen, die angeblich zwischen Reizeingabe und Reaktionen des Subjekts vermitteln.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-2778-0_3 533bbbd9d8f0f8b74c6bc951f7f481b7;de;;;1.1.;;;Vom Patchwork zur Theorieentwicklung: Erfassung und Weiterentwicklung der Forschung zur Restrukturierung von Geschäftsportfolios Während die Forschung zur Unternehmens- oder Unternehmensportfoliorestrukturierung ein eigenständiger Bestandteil der Unternehmensrestrukturierungsforschung geworden ist, bedarf die einschlägige wissenschaftliche Literatur einer systematischen Überprüfung, die den fundierten Wissensstand identifiziert und zukünftige Forschungsmöglichkeiten in diesem Feld des strategischen Managements aufzeigt. Ziel unserer Studie ist es, diese Lücke zu schließen. Durch die Kombination mehrerer Literaturrecherchemethoden werden 73 Studien identifiziert und analysiert. Als Ergebnis werden aktuelle Mängel in der Theoriebildung und empirischen Portfoliorestrukturierungsforschung unter Anwendung eines Rahmens aufgezeigt, der zwischen Vorläufern, Prozessen und Ergebnissen von Portfoliorestrukturierungsaktivitäten unterscheidet. Der Beitrag dieses Papiers geht über die Auflistung vergangener Errungenschaften und vernachlässigter Probleme hinaus, da es mehrere Richtungen für die zukünftige Forschung vorschlägt. Konkret besteht dringender Bedarf, Restrukturierungsprozesse zu untersuchen und entsprechende Forschungsmethoden zu entwickeln bzw. einzusetzen.;-;-;-;https://link.springer.com/article/10.1007/s11301-014-0103-y bfcae6be068e467a68c4f4969019e722;de;;;1.1.;;;Quantenwanderungen Quantenwanderungen können als verallgemeinerte Version des klassischen Random Walks betrachtet werden. Es gibt zwei Klassen von Quantenwanderungen, nämlich die zeitdiskreten (oder geprägten) und die zeitkontinuierlichen Quantenwanderungen. Dieses Manuskript behandelt den diskreten Fall in Teil I bzw. den kontinuierlichen Fall in Teil II. Die meisten Inhalte basieren auf unseren Ergebnissen. Darüber hinaus sind Artikel zu Quantenwanderungen in Referenzen aufgeführt. Studien zu zeitdiskreten Spaziergängen erschienen ab den späten 1980er Jahren von (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69365-9_7 fd847c622a8e0bf6175ec090c47b4802;de;;;1.1.;;;Reaktions-Diffusionsprozessor: Möglichkeiten und Grenzen Limit Im Zentrum der Informationsverarbeitung durch Reaktions-Diffusions-Systeme steht das Konzept des Reaktions-Diffusions-Prozessors. Eine schematische Darstellung dieser Vorrichtung, die auf einem chemischen oder biochemischen System basiert, ist in Abb. 5.1 dargestellt. Chemische Reaktions-Diffusions-Medien vom Belousov-Zhabotinsky-Typ sind ein geeignetes Ausgangsmaterial für die Herstellung von Geräten zur Informationsverarbeitung. Sie sind stabil und nicht giftig.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-211-99699-7_5 c57f77fc28343686b80b9d5e56e5971f;de;;;1.1.;;;"Gehirn-Fingerabdruck: eine umfassende Tutorial-Überprüfung der Erkennung verborgener Informationen mit ereignisbezogenen Gehirnpotentialen Brain Fingerprinting (BF) erkennt verborgene Informationen, die im Gehirn gespeichert sind, indem es Gehirnwellen misst. Ein spezifisches EEG-Ereignispotential, ein P300-MERMER, wird durch im vorliegenden Kontext bedeutsame Reize ausgelöst. BF erkennt P300-MERMER-Antworten auf Wörter/Bilder, die für einen Tatort, Terrortraining, Bombenbauwissen usw. relevant sind. BF erkennt Informationen durch Messung der kognitiven Informationsverarbeitung. BF erkennt keine Lügen, Stress oder Emotionen. BF berechnet eine Bestimmung von ""Information vorhanden"" oder ""Information fehlt"" und eine statistische Konfidenz für jede einzelne Bestimmung. Labor- und Feldtests beim FBI, CIA, US Navy und anderswo haben zu 0% Fehlern geführt: keine falsch positiven und keine falsch negativen. 100 % der gemachten Bestimmungen waren richtig. 3 % der Ergebnisse waren „unbestimmt“. BF wurde in Strafsachen angewendet und vor Gericht für zulässig erklärt. Wissenschaftliche Standards für BF-Tests werden diskutiert. Die Erfüllung der wissenschaftlichen Standards von BF ist für Genauigkeit und Gültigkeit erforderlich. Alternative Techniken, die die wissenschaftlichen Standards von BF nicht erfüllten, führten zu geringer Genauigkeit und Anfälligkeit für Gegenmaßnahmen. BF ist sehr resistent gegen Gegenmaßnahmen. Niemand hat einen BF-Test mit Gegenmaßnahmen bestanden, trotz einer Belohnung von 100.000 US-Dollar dafür. Prinzipien der Anwendung von BF im Labor und im Feld werden diskutiert.";-;-;-;https://link.springer.com/article/10.1007/s11571-012-9192-2 65bfa1a261a47fbeb4e103dadab20b55;de;;;1.1.;;;Perkolation in der Quantenberechnung und Die Perkolationstheorie befasst sich mit dem Verhalten verbundener Cluster in einem zufälligen Graphen. Ursprünglich entwickelt, um zufällige Medien mathematisch zu beschreiben, hat es sich im Laufe der Jahre zu einem eigenständigen Forschungsgebiet entwickelt. Im Zentrum steht die Vorstellung einer Perkolationsschwelle: Sagen wir auf einem kubischen zweidimensionalen Gitter Z;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85428-9_10 1e2577b4747b29c902156957109e73fd;de;;;1.1.;;;Information und der Informationsansatz: Von der Informatik zur Globalistik Information wird als universelles Attribut der Materie verstanden und allgemein als reflektierte Vielfalt betrachtet. Es wird behauptet, dass Informatik die Wissenschaft der Information und der Gesetze ihrer Existenz, Übertragung und Entwicklung ist. Es wird vermutet, dass der Informationsansatz einen eigenständigen Zweig der Informatik bildet, d.;-;-;-;https://link.springer.com/article/10.3103/S0147688212010066 5dfc778e6b69cd60a0f0f3b12d3738e6;de;;;1.1.;;;IOT-basierte Provenance-Plattform für Gemüse nach Hongkong Ernährungssicherheit ist wichtig, um die Gesundheit und Sicherheit der Menschen zu gewährleisten. Sie steht in engem Zusammenhang mit der koordinierten Entwicklung von Volkswirtschaft und Gesellschaft und hat eine sehr wichtige strategische Bedeutung. In dieser Plattform werden fortschrittliche Technologien im Internet der Dinge verwendet. RFID Elektronische Fahrzeugkarten und RFID-Tags werden verwendet, um nach Hongkong gelieferte Fahrzeuge und Gemüse zu kennzeichnen. Alle Herkunftsinformationen über die Lieferkette von Gemüse vom Anbau über die Ernte, staatliche Überwachung, Prüfung, Transport, Zollabfertigung, Lagerung, Umverpackung, interne Prüfung bis hin zum Supermarkteinzelhandel werden erfasst und können verwendet werden, um die Sicherheit der nach Hongkong gelieferten Lebensmittel zu gewährleisten Kong.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25769-8_83 eae0f471b35bea26cc2e38922dfbaf73;de;;;1.1.;;;Stabilität oder Instabilität: Der Einfluss von Markenkonzepten auf Logodesign-Präferenzen Es ist allgemein anerkannt, dass Logoeigenschaften erhebliche Auswirkungen auf die Markenpräferenzen der Verbraucher haben. Es ist jedoch wenig darüber bekannt, wie die Stabilität und Instabilität von Logos die Einstellung der Verbraucher beeinflussen. Um diese Lücke in der Logo-Literatur zu schließen, greifen die Autoren eine neue Sichtweise von Markenkonzepten auf der Grundlage menschlicher Werte auf und untersuchen, warum und wie diese Logoeigenschaft Einfluss hat. In drei Studien zeigen die Autoren, dass Verbraucher eine stabile Logomarke bevorzugen, wenn sie Konservierungskonzepte verkörpert, während sie eine instabile Logomarke bevorzugen, wenn sie Offenheitskonzepte verkörpert. Der zugrunde liegende Mechanismus für diesen Matching-Effekt ist die Verarbeitungsflüssigkeit. Darüber hinaus wird der Matching-Effekt bei Personen mit geringer (vs. hoher) visueller Informationsverarbeitung abgeschwächt. Insgesamt geben diese Ergebnisse Aufschluss darüber, wann und wie Vermarkter Stabilität/Instabilität im Logodesign anwenden sollten.;-;-;-;https://link.springer.com/article/10.1057/s41262-021-00238-6 91b849e04f489d1885bc15542fcf0f15;de;;;1.1.;;;Die Rolle der Internalisierung beim Transfer mnemonischer Strategien Der Erwerb effizienter Erinnerungstechniken ist eine schwierige und allmähliche Aufgabe. Die effektive Nutzung des Gedächtnisses durch Erwachsene und Jugendliche beinhaltet im Allgemeinen die Manipulation von Materialien, die man sich merken sollte, um sinnvolle Verknüpfungen zwischen den Elementen herzustellen. Zu diesen Verfahren gehören kumulative Proben (Ornstein, Naus & Liberty, 1975), das Organisieren von Materialien in semantisch basierten Gruppen (Worden, 1976, Corsale & Ornstein, 1980) und die Konstruktion von Paaren durch lebendige Bilder (Pressley, 1982). In den ersten Grundschuljahren, bevor diese effektiven Techniken spontan angewendet werden, können Kinder in deren Anwendung unterrichtet werden, aber der Grad des erzielten Erfolgs hängt von der Art des Materials und anderen Merkmalen der Aufgabe , 1985, Ornstein, Baker-Ward & Naus, 1988). In ähnlicher Weise können kleine Kinder unter bestimmten Bedingungen dazu gebracht werden, selbst aktive Gedächtnisstrategien anzuwenden (Cox, Ornstein, Naus, Maxfield & Zimler, 1989, Guttentag, Ornstein & Siemens, 1987, Zembar & Naus, 1985). Im Allgemeinen werden Kinder mit zunehmendem Alter immer leichter in der spontanen und effektiven Anwendung einer Vielzahl von Gedächtnistechniken;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-3132-5_4 70a154293d7ccfbd4092526fa0d5cebc;de;;;1.1.;;;Intelligentes Informationssicherheits-Sharing-Modell in der Fertigung basierend auf Blockchain Die Entwicklung des verarbeitenden Gewerbes spiegelt in gewissem Maße die Produktivität eines Landes oder einer Region wider. Die Informatisierung spielt in der Fertigung eine immer wichtigere Rolle. Derzeit gibt es in der Fertigungsindustrie noch ein Phänomen unzureichender Transparenz und geringer Sicherheitsleistung, das die Weiterentwicklung der Fertigungsindustrie behindert. Dieses Papier schlägt ein intelligentes Modell zum Teilen von Informationssicherheit in der Fertigung vor, das auf der Blockchain-Technologie basiert. Das Blockchain-System kann Produktinformationen und Transaktionsinformationen in den Blöcken speichern, wodurch eine Rückverfolgbarkeit von Produktinformationen erreicht werden kann. Die Informationen werden in Echtzeit verstärkt und der Konsensmechanismus und der Verschlüsselungsalgorithmus werden verwendet, um sicherzustellen, dass das Produkt nicht manipuliert werden kann. Dieser Mechanismus des Informationsaustauschs hat die Entwicklung der intelligenten Fertigung bis zu einem gewissen Grad gefördert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0238-5_21 c84ba9bd47e78cdcc5ab6d9bc0b15ecc;de;;;1.1.;;;OS-Subset-Struktur für AP-Portabilität Allzweck-Betriebssysteme bieten zahlreiche Betriebssystemschnittstellen, enthalten jedoch viele Schnittstellen, die für einzelne Anwendungen unnötig sind. Um dieses Problem zu umgehen, ist es notwendig, Betriebssysteme so zu strukturieren, dass Schnittstellen für unterschiedliche Anwendungen nach Bedarf ausgewählt werden können. Andererseits kann aus Sicht der Software-Portabilität ein AP für ein System nicht auf einem anderen System laufen, wenn die Auswahl der OS-Schnittstellen variiert, was einen Verlust der Portabilität bedeutet. In diesem Papier wird über die OS-Struktur und die Subsetting-Methode von CTRON berichtet, die darauf abzielen, AP-Portabilität zu erreichen und gleichzeitig eine große Auswahl an OS-Schnittstellen bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-68129-8_10 a8846bb9989f67791d3577aefd785b37;de;;;1.1.;;;Gibsonsche Darstellungen und konnektionistische Symbolverarbeitung: Aussichten für die Vereinigung Vor nicht allzu langer Zeit war die Standardansicht in der Kognitionswissenschaft, dass Repräsentationen Symbole in einem internen Repräsentationssystem oder „Gedankensprache“ sind und dass psychologische Prozesse Berechnungen sind, die über solche Repräsentationen definiert werden. Diese Orthodoxie wurde von Anhängern der Funktionsanalyse und von Konnektionisten in Frage gestellt. Die funktionale Analyse, wie sie von Marr praktiziert wird, steht im Einklang mit einer Repräsentationsanalyse, die einem „steht für“-Konzept der Repräsentation den Vorrang einräumt. Auch der Konnektionismus ist mit diesem Repräsentationsbegriff vereinbar, da er in Verbindung mit der Funktionsanalyse ein Mittel zur regel- und darstellungsanalytischen Analyse psychologischer Systeme bietet, ohne sich auf Symbolismus festzulegen. Direkten Theoretikern, die die orthodoxe symbolistische Vorstellung von Repräsentation ablehnten, weil sie ihre Strikturen gegenüber kognitiven Vermittlungsmechanismen verletzte, sollten Regeln und Darstellungen und informationsverarbeitende Analysen der Mechanismen der Informationsaufnahme funktionsanalytisch akzeptiert werden können.;-;-;-;https://link.springer.com/article/10.1007/BF00877533 291704dff7eb47139a760fa0b5dffe44;de;;;1.1.;;;Ziele in Persönlichkeit, Emotion und subjektivem Wohlbefinden Yogi Berra sagte einmal: „Wenn du nicht weißt, wohin du gehst, wirst du woanders landen.“ Der Humor dieser Aussage verbirgt fast ihre Weisheit. Ohne Ziele wäre menschliches Verhalten zufällig und richtungslos, und wir alle würden zweifellos an einem anderen Ort landen, als wir gerne wären. Wie wir bisher gesehen haben, geht die sozialkognitive Psychologie davon aus, dass die wichtigste menschliche Aktivität planmäßig ist und auf das Erreichen erwünschter Ziele und die Vermeidung unerwünschter Ziele ausgerichtet ist. Tatsächlich sind nur wenige Überzeugungen zentraler für unsere Vorstellungen von der menschlichen Natur als diejenigen, die unsere Fähigkeit zur Zielsetzung und Selbstregulierung betreffen. Unsere Fähigkeit, Ziele zu setzen, Pläne oder Strategien zu entwickeln und diese Pläne umzusetzen, beeinflusst unsere emotionalen Zustände, unsere Beziehungen zu anderen Menschen und unsere Anpassung an die Herausforderungen des Lebens. Piaget (1967–1971) stellte fest: „Das Leben ist im Wesentlichen Autoregulation“ (S. 26), und tatsächlich liefert die Erforschung des Lernens bei Tieren Belege für ihre Fähigkeit, zielgerichtetes Verhalten zu zeigen (Rescorla 1987, Tolman 1932/1967). Der Mensch hat jedoch eine Fähigkeit zur Zielsetzung und Selbstregulierung entwickelt, die weit über die anderer Lebensformen hinausgeht. In der Tat kann unsere Fähigkeit, uns mögliche Zukünfte vorzustellen und uns über lange Zeiträume hinweg darauf zu orientieren, als eine einzigartige menschliche Fähigkeit angesehen werden. Auch die unterschiedlichen menschlichen Emotionen werden mit unterschiedlichen, überwiegend sozialen Zielen in Verbindung gebracht (Lazarus, 1991a, Roseman, Wiest & Swartz, 1994, Frijda, 1988).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5843-9_9 9a4caa3ce243d5d238fb29771235dbc4;de;;;1.1.;;;Quantenverschränkung Quanteninterferenz entsteht aus der prinzipiellen Ununterscheidbarkeit alternativer Zustandsfolgen eines Quantensystems, die mit einem gegebenen Anfangszustand beginnen und mit dem entsprechenden Endzustand enden, durch genaue Messung zu einem bestimmten Endzeitpunkt. Sie manifestiert sich beispielsweise in dem Zweispalt-Interferometer und dem Doppel-Mach-Zehnder-Interferometer, die in den Kapiteln 1 bzw. 3 diskutiert wurden. Am wichtigsten, wenn die Ununterscheidbarkeit von Produktionsalternativen;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-36944-0_6 e95bcecb84aca5b223b0c81387461314;de;;;1.1.;;;Theoretische und empirische Beziehungen zwischen Persönlichkeit und Intelligenz Welche theoretischen Zusammenhänge werden zwischen Intelligenz und Persönlichkeit postuliert? Die kurze Antwort ist, dass es im Mainstream der westlichen Persönlichkeitsforschung nur sehr wenige gibt. Sogar Bücher mit dem Titel;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-5571-8_16 2327ce5284914799c62a2962e3fc8873;de;;;1.1.;;;Die Suche nach der optimalen Position beim Vergleich digitalisierter Bilder Das Problem des Vergleichens von digitalisierten (gescannten) Bildern wird beschrieben. Der Beitrag liefert eine theoretische Lösung des Problems der Suche nach dem Paralleltransport eines Standardbildes, bei dem seine Übereinstimmung mit dem getesteten Bild maximal ist. Es werden verschiedene Rechenexperimente beschrieben, die mit der Analyse von Verschiebungen binär digitalisierter Symbole verbunden sind. Eine konstruktiv berechnete Grenze der möglichen Verschiebung eines graphischen Bildes relativ zu einem anderen und der realen Verschiebungen unter Berücksichtigung der Klasse der binär digitalisierten Symbole werden verglichen.;-;-;-;https://link.springer.com/article/10.3103/S0147688214050013 22ddfb68e55e7e65db9242a68eccefec;de;;;1.1.;;;Die kognitiven Loci des Displays und aufgabenrelevante Setgrößeneffekte auf Distraktorinterferenzen: Beweise aus einem Dual-Task-Paradigma Es wurde festgestellt, dass der Kongruenzeffekt eines aufgabenirrelevanten Distraktors durch die aufgabenrelevante Setgröße und die Displaysetgröße moduliert wird. In der vorliegenden Studie wurde ein Paradigma der psychologischen Refraktärzeit (PRP) verwendet, um die kognitiven Loci des Display-Set-Size-Effekts (Verdünnungseffekt) und des aufgabenrelevanten Set-Size-Effekts (perceptual load effect) auf Distraktorinterferenzen zu untersuchen. Einer Tonunterscheidungsaufgabe (Aufgabe 1), bei der auf die Tonhöhe des Zieltons reagiert wurde, folgte eine Buchstabenunterscheidungsaufgabe (Aufgabe 2), bei der verschiedene Arten von visueller Zielanzeige verwendet wurden. Im Experiment;-;-;-;https://link.springer.com/article/10.3758/s13414-017-1442-2 a2803d345384884e534601019db46aa3;de;;;1.1.;;;Eine lokale Netzwerklösung für Informationsbedürfnisse: Die Erfahrung im Moses H. Cone Memorial Hospital In den 1970er Jahren hatte das mittelgroße Krankenhaus die personellen und finanziellen Bedenken eines kleineren Krankenhauses, teilte jedoch den Bedarf an technologiegetriebenen Verfahren mit größeren Einrichtungen. Administratoren mussten Manager und Führungskräfte sein, nicht nur Hausmeister.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-4043-1_28 12a9a13a508ceca554da26acc64ce996;de;;;1.1.;;;Eine neue Methode zur Konstruktion der nicht-dominierten Menge in multi-objektiven genetischen Algorithmen Der Multi Objective Genetic Algorithm (MOGA) hat weit verbreitete Anwendungen für hochkomplizierte Optimierungsaufgaben in diskontinuierlichen, multimodalen und verrauschten Bereichen. Da die Konvergenz von MOGA erreicht werden kann, indem die nicht dominierte Menge die Pareto-Optimal-Front approximiert, ist es sehr wichtig, die nicht dominierte Menge von MOGA effizient zu konstruieren. Dieses Papier schlägt eine neue Methode namens Dealer’s Principle vor, um nicht dominierte Sätze von MOGA zu konstruieren, und die Zeitkomplexität wird analysiert. Dann entwerfen wir ein neues MOGA mit dem Dealer’s Principle und einem Clustering-Algorithmus basierend auf dem Kernabstand von Clustern, um die Vielfalt der Lösungen zu erhalten. Wir zeigen, dass unser Algorithmus effizienter ist als die vorherigen Algorithmen und dass er eine Vielzahl von Lösungen liefert. Wir diskutieren die Konvergenz und die Vielfalt unseres MOGA auch in Experimenten mit Benchmark-Optimierungsproblemen von drei Zielen.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-23152-8_57 ff1febf20a71d898fc98bd5cdcdbfb4d;de;;;1.1.;;;Produktentwicklung und Einordnung des Geschäftsinteresses an wissenschaftlichen Fortschritten Der technologische Wandel wird im wirtschaftlichen Diskurs umfassend untersucht, dominiert von einer „industriellen Perspektive“, in der wissenschaftliche und technische Fortschritte durch industrielle Klassifikationen kategorisiert und im Kontext analysiert werden. Die vorliegende Studie vergleicht diese Perspektive mit dem alternativen Ansatz, die Auswirkungen wissenschaftlicher Fortschritte auf;-;-;-;https://link.springer.com/article/10.1007/BF02912434 5525786d1928b6ed7c4c823bf139cc03;de;;;1.1.;;;Ein neuronales Modell des kognitiven Prozesses In diesem Artikel untersuchten wir ein neues dynamisches Evolutionsmodell zur Phasenkodierung in der Population von neuronalen Oszillatoren unter Bedingungen unterschiedlicher Phasen und untersuchten die neuronale Informationsverarbeitung in der Großhirnrinde und die dynamische Evolution unter Einwirkung verschiedener Stimulationssignale. Es wird erhalten, dass die Entwicklung der durchschnittlichen Zahlendichte zusammen mit der Zeit im Raum von drei Dimensionen in verschiedenen Clustern von neuronalen Oszillatoren beschrieben wird, die Aktionspotentiale in verschiedenen Phasenräumen mit Hilfe der Methode der numerischen Analyse abfeuern. Die Ergebnisse der numerischen Analyse zeigen, dass das in dieser Arbeit vorgeschlagene dynamische Modell verwendet werden kann, um Mechanismen der Neurodynamik auf Aufmerksamkeit und Gedächtnis zu beschreiben.;-;-;-;https://link.springer.com/chapter/10.1007/11759966_8 5237200f83f29daa6afb448f18f7abc1;de;;;1.1.;;;Feinstruktur eines Gamma-Bursts und Suche nach Gamma-Gravitations-Korrelation Für resonante Gravitationsantennen wurde ein asymptotisch optimaler Amplituden-Bayes-Algorithmus zur Suche nach dem Gamma-Gravitations-Korrelationseffekt entwickelt, der die Merkmale der Form eines einzelnen Gamma-Bursts in einem BATSE-Experiment berücksichtigt.;-;-;-;https://link.springer.com/article/10.1023/A%3A1012352216451 38b081c213101098ce2191eb141ed66f;de;;;1.1.;;;Modellierung und Praxis der Qualitätsverbesserung in Baosteel basierend auf KIV-KOV-Analyse Die konventionelle Verbesserung des Herstellungsprozesses ist ein langer Arbeitsprozess, der auf persönlichen Erfahrungen basiert und ein fragwürdiges kosteneffektives Thema bleibt. Es erfordert wirklich ein schnelles und kostengünstiges Design- und Verbesserungsmodell für den Herstellungsprozess. Der Artikel weist darauf hin, dass der Kernprozess der Qualitätsverbesserung darin besteht, das Verhältnis von KIV-KOV zu definieren und zu optimieren. Mit den Data Warehouse- und Data Mining-Techniken bietet dieser Artikel das KIV-KOV-basierte neue Qualitätsverbesserungsmodell, funktionale Struktur und Prozess sowie die praktischen Erfahrungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27772-9_79 9a61079a14f736cbc4254d0e0cb1223b;de;;;1.1.;;;Dynamik von Symbolsystemen Um einen vielfältigen und partiellen Informationsfluss in kognitiven Prozessen zu implementieren, benötigen wir eine Designmethode ohne explizite Festlegung des domänen-/aufgabenabhängigen Informationsflusses sowie ein Kontrollschema, das die Informationsverarbeitung so steuert, dass sie kontextabhängig nur wichtige Informationen betrifft.;-;-;-;https://link.springer.com/article/10.1007/BF03037346 04824b6b65f0dcd09b4f95289504f2ab;de;;;1.1.;;;Informatik und Sozialwissenschaften Sozialwissenschaftler verwenden Computer seit den Tagen der ersten digitalen Computer. Welche Rolle spielt die Berechnung in der zeitgenössischen Theorie und Forschung der Computational Social Science (CSS)? Wie liefert Computing ein tieferes Verständnis der sozialen Komplexität? Dieses Kapitel ist keine Einführung in die Informatik für Sozialwissenschaftler. Es ist vielmehr eine Untersuchung der Berechnung aus einer CSS-Perspektive, ähnlich wie ein Computerastronom oder ein Computerbiologe die Funktion der Berechnung in ihren jeweiligen Disziplinen diskutieren würde. Nach der Untersuchung der wichtigsten Gemeinsamkeiten und Unterschiede zwischen Computern und sozialen Systemen aus der Perspektive der Informationsverarbeitung werden in diesem Kapitel Programmiersprachen und Aspekte der Implementierung näher betrachtet. Klassen, Objekte und Dynamiken werden aus sozialtheoretischer Perspektive untersucht und die Rolle von Recheneinheiten bei der Durchführung der CSS-Forschung untersucht. Die Unified Modeling Language (UML) wird als systematische grafische Notation verwendet, um soziale Entitäten, Beziehungen und Interaktionen darzustellen, basierend auf einer Vielzahl von Beispielen aus allen Bereichen der Sozialwissenschaften. Im Rahmen der CSS-Forschung werden Datenstrukturen und Algorithmen untersucht, die der Berechnung zugrunde liegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-50131-4_2 60efbefbb3b31f26d96809472ca4c787;de;;;1.1.;;;Einschränkung eines Pareto-Sets basierend auf Informationen über die Präferenzen eines Entscheidungsträgers vom Punkt-Multiple-Typ Dieser Beitrag betrachtet ein multikriterielles Auswahlmodell, das mehrere Auswahlmöglichkeiten, ein numerisches Vektorkriterium und eine asymmetrische Präferenzbeziehung des Entscheidungsträgers (DM) umfasst. Die Lösung des multikriteriellen Auswahlproblems ist eine Menge ausgewählter Auswahlmöglichkeiten. Bestimmte „rationale“ Axiome werden als wahr angenommen. Vorausgesetzt, dass die Präferenzbeziehung des DM nur teilweise bekannt ist, kann man keine Auswahl an Auswahlmöglichkeiten finden, dennoch kann aus den verfügbaren Informationen eine Obergrenze geschätzt werden. Die Informationen über die Präferenzen einer DM werden als Punkt-Mehrfach-Informationen angesehen. Dies bedeutet, dass der DM bereit ist, in einigen endlichen Kriteriengruppen Verluste hinzunehmen, um in einer anderen Gruppe zu gewinnen. Die Informationen über die Präferenzen des DM können verwendet werden, um ein neues Vektorkriterium zu entwickeln und eine Einschränkung des Pareto-Sets aufzubauen, die eine genauere Schätzung des unbekannten Sets der ausgewählten Varianten als das ursprüngliche Pareto-Set liefert.;-;-;-;https://link.springer.com/article/10.3103/S0147688210050059 340d3beaccff0dceb5bcf5fa25dc8f60;de;;;1.1.;;;Die Anfälligkeit für Depressionen aus der Perspektive der kognitiven Neurowissenschaften verstehen: Eine Neubewertung von Aufmerksamkeitsfaktoren und ein neuer konzeptioneller Rahmen Wir schlagen einen Rahmen vor, um die Zunahme der Anfälligkeit für Depressionen nach wiederkehrenden Episoden zu verstehen, der Aufmerksamkeitsprozesse und Schemaaktivierung mit negativen Stimmungszuständen verknüpft, indem kognitive und neurobiologische Erkenntnisse integriert werden. Depression ist durch eine stimmungskongruente Aufmerksamkeitsverzerrung in späteren Stadien der Informationsverarbeitung gekennzeichnet. Die Grundidee unseres Frameworks ist, dass eine verringerte Aktivität in präfrontalen Bereichen, die durch den Serotoninstoffwechsel, den die HPA-Achse steuert, vermittelt wird, mit einer beeinträchtigten Dämpfung subkortikaler Regionen verbunden ist, was zu einer verlängerten Aktivierung der Amygdala als Reaktion auf Stressfaktoren in der Umwelt führt. Eine reduzierte präfrontale Kontrolle in Wechselwirkung mit depressogenen Schemata führt zu einer eingeschränkten Fähigkeit, eine aufmerksamkeitshemmende Kontrolle über negative elaborative Prozesse wie Wiederkäuen auszuüben, was wiederum zu einem anhaltenden negativen Affekt führt. Diese elaborativen Prozesse werden durch die Aktivierung negativer Schemata nach Konfrontation mit Stressoren ausgelöst. In unserem Rahmen werden Aufmerksamkeitsstörungen als ein entscheidender Prozess zur Erklärung der zunehmenden Vulnerabilität nach depressiven Episoden postuliert, wobei kognitive und biologische Vulnerabilitätsfaktoren verknüpft werden. Wir überprüfen die empirischen Daten zu den biologischen Faktoren, die mit den Aufmerksamkeitsstörungen verbunden sind, und beschreiben, wie sie mit dem Wiederkäuen und der Stimmungsregulation zusammenhängen. Das Ziel unseres Frameworks ist es, die translationale Forschung anzuregen.;-;-;-;https://link.springer.com/article/10.3758/CABN.10.1.50 bbf3d648326ecf694c817a69a0ad5721;de;;;1.1.;;;Blick in die „Black Box“ Das Gehirn, das das orale sensomotorische Verhalten wie Kauen, Sprechen usw. reguliert, wird traditionell als undurchdringliche Blackbox angesehen, die Eingaben (sensorische Reize) empfängt und motorische Ausgaben (Antworten) abgibt, wobei den Vorgängen im Gehirn wenig Aufmerksamkeit geschenkt wird. Ohne Informationen über die intervenierenden zentralen Mechanismen trugen die meisten frühen Forschungen zum oralen motorischen Verhalten wenig zum Verständnis des normalen und dysfunktionalen motorischen Verhaltens bei.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00396-7_4 5292adf22ac4202d36e1897fbc85364e;de;;;1.1.;;;Begrenzte Rationalität und Organisationen Aus verhaltenstechnischer Sicht ist eine Entscheidung das Ergebnis der Anpassung eines Individuums an die Zwänge sowohl der äußeren Umgebung als auch der Grenzen der Rationalität (innere Umgebung). Dieses Kapitel stellt den theoretischen Rahmen für unsere Verhaltensanalyse rationaler Entscheidungen in Organisationen vor. Dieser Rahmen wird durch zwei verschiedene Analyseebenen skizziert. Erstens die allgemeinen Merkmale der inneren Umgebung einer Entscheidung – d. h. die psychologischen Aspekte der Rationalität im menschlichen Geist. Zweitens die äußere Umgebung einer Entscheidung – d. h. die äußere Form von Mitteln und Zwecken, die allgemein von der Organisation bereitgestellt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-9427-5_3 cdc69f548e4a26f7264206e00fc39283;de;;;1.1.;;;Hochwasserrisiko und Klimawandel im Raum Rotterdam, Niederlande: Verbesserung der Wahrnehmung von Klimarisiken und Präventionsmaßnahmen der Bürger trotz Skepsis Eine effektive Kommunikation über den Klimawandel und die damit verbundenen Risiken wird durch die Polarisierung zwischen „Klimaalarmisten“ und „Skeptikern“ erschwert. Dieses Papier liefert Erkenntnisse für die Gestaltung von Kommunikationsstrategien für Klimarisiken, indem es untersucht, wie sich das Zusammenspiel zwischen Klimawandel und Hochwasserrisikokommunikation auf die Risikowahrnehmung und -reaktionen der Bürger auswirkt. Die Studie befindet sich in einem Deltagebiet mit erheblichen geografischen Variationen in Bezug auf das Auftreten und die potenziellen Auswirkungen von Hochwasserrisiken, was zu Initiativen geführt hat, das Gebiet „klimasicherer“ zu machen. Wir haben ein Forschungsmodell entwickelt, das individuelle Unterschiede bei der Verarbeitung von Informationen über klimawandelbedingte Hochwasserrisiken untersucht, basierend auf dem Postulat, dass Einzelpersonen oft einen impliziten Kompromiss zwischen der Motivation zu wissen, „was real ist“ und der Motivation, frühere Überzeugungen aufrechtzuerhalten, eingehen. Ein Feldexperiment, eingebettet in eine Umfrage (;-;-;-;https://link.springer.com/article/10.1007/s10113-015-0900-4 5363aa57e47e6a43f94636234301815a;de;;;1.1.;;;Eine Untersuchung bilateraler Asymmetrien in der elektrodermalen Aktivität Die Forschung zur zerebralen Lateralität unterstützt die Idee, dass funktionelle Unterschiede zwischen der linken und der rechten Hemisphäre in Bezug auf den kognitiven Stil und die Wahrnehmungsfähigkeit bestehen. Verwandte Forschungen, die Korrelationen des autonomen Nervensystems (ANS) der zerebralen Lateralität untersucht haben, legen nahe, dass eine Komponente des ANS, die elektrodermale Aktivität (EDA), ebenfalls lateralisiert ist. Einige Ergebnisse in der Literatur berichten über das Auftreten bilateraler Asymmetrien bei phasischer und tonischer EDA als Funktion einer Präferenz der linken oder rechten Hemisphäre für die Informationsverarbeitung. Dieses Experiment verwendete normale männliche Probanden, die entweder Links- oder Rechtsbeweger in einem Test der konjugierten lateralen Augenbewegung (CLEM) waren. Dieses Auswahlverfahren diente dazu, die Präferenz eines Probanden für entweder einen rechten oder linken Hemisphärenmodus der Informationsverarbeitung zu maximieren. Bilaterale EDA wurde kontinuierlich aufgezeichnet, während die Probanden eine visuelle Erkennungsaufgabe mit Wort- (linke Hemisphäre) und Form- (rechte Hemisphäre) Stimuli durchführten. Die Daten unterstützen nicht die Behauptung, dass die Leistung eines Verfahrens, das ausgewählt wurde, um eine gegebene Hemisphäre selektiv zu aktivieren, asymmetrische tonische und/oder phasische EDA hervorruft. Die Ergebnisse zeigen keinen signifikanten Unterschied in der Häufigkeit der hervorgerufenen Hautleitfähigkeitsreaktionen unter keiner der experimentellen Bedingungen. Das bilaterale tonische EDA stieg im Laufe der Zeit kontinuierlich an und variierte in keiner Hand als Funktion der Aufgabe. Die vorliegenden Ergebnisse bieten keine Unterstützung für eine der Hypothesen, die für I) vermehrte kontralaterale . sprechen;-;-;-;https://link.springer.com/article/10.1007/BF03003686 3fd4ba31e0cd15c23a0dd45d3165cfcb;de;;;1.1.;;;Benutzerfreundlichkeit und Produktivität der Software Computer spielen eine wichtige Rolle in unserem Leben. Computersysteme führen eine Vielzahl von Aufgaben automatisch aus, die früher manuell erledigt wurden. Sie haben buchstäblich die Art und Weise verändert, wie Menschen Geschäfte machen, ihren Kindern Unterricht geben, sich selbst heilen und sich täglich informieren. Computer kontrollieren Geldflüsse, beschleunigen Gerichtsverfahren, entschlüsseln unsere Vergangenheit und gestalten unsere Zukunft.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-9969-8_2 2876c329dc3d8065040b1d3b36a5647f;de;;;1.1.;;;Eine neue Variante der generalisierten JSM-Methode zur automatischen Unterstützung wissenschaftlicher Forschung Dieser Artikel beschreibt eine neue Variante der generalisierten JSM-Methode zur automatischen Unterstützung wissenschaftlicher Forschung (ASRS). Diese für ASRS angewandte Version der JSM-Methode enthält ternäre Ähnlichkeitsprädikate (Ursache, Bremse, Wirkung), die binäre „Ursache-Wirkungs“-Prädikate und explizite Bremsendefinitionen enthalten. Der Artikel betrachtet eine Möglichkeit der Faktenpartitionierung für die Wahrheitsfälle der generalisierten Methode und einer induktiven Ähnlichkeitsmethode mit einem Verbot von Gegenbeispielprädikaten.;-;-;-;https://link.springer.com/article/10.3103/S0147688217050045 9d8c1071dbb72a6163c995564dc87ef4;de;;;1.1.;;;Verhaltensmechanismus 2: Ladungen, Aufmerksamkeit und Aktionen In diesem Kapitel werden wir die Existenz von Lebenszielen und ihren Mechanismus der idealen Einstellung und Bewertung diskutieren. Der Mechanismus führt zu dynamischen Ladungsstrukturen, die nicht nur unsere Aufmerksamkeitsverteilung der Zeit diktieren, sondern auch die zu ergreifenden Handlungen befehlen. Dieser Teil des Verhaltensmechanismus hängt damit zusammen, wie unser Geist funktioniert. Wir werden vier Hypothesen in vier Abschnitten verwenden, um die wichtigsten Konzepte zusammenzufassen. Am Ende dieses Kapitels fassen wir auch die gesamten acht Hypothesen zusammen und bieten dem Leser einige interessante menschliche Verhaltensweisen an, um den Verhaltensmechanismus zu integrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-61295-4_3 953ef13c42be23e0c670354aa08dda27;de;;;1.1.;;;Die Qualität der Schülerbewertungen des Lehrerverhaltens In einem Forschungsprojekt zur Effektivität des Mathematikunterrichts im ersten Sekundarschuljahr bewerteten externe Beobachter und Studierende das Lehrerverhalten. Die Reliabilität und Validität beider Methoden wurde nachgewiesen. Die Ergebnisse zeigen, dass das Lehrerverhalten gut bewertet wird, wenn die Schülerbewertungen auf Klassenebene aggregiert werden. Die Qualität der aggregierten Schülerbewertungen ist ebenso gut wie die der Daten externer Beobachter. Die prädiktive Validität der aggregierten Schülerbewertungen ist höher als die prädiktive Validität externer Beobachtungen, wenn die Motivmotivation als abhängige Variable verwendet wird.;-;-;-;https://link.springer.com/article/10.1023/A%3A1011402608575 99ca71e4028c7f88e0cc18d2d210184b;de;;;1.1.;;;Ursprüngliche Absicht Die Intentionalität von Emotionen ist ein zentrales Anliegen der Emotionsphilosophie. Für viele ist jedoch unklar, was Intentionalität genau ist, geschweige denn die Intentionalität von Emotionen. Dieses Problem – das Problem der Intentionalität – kann als Antwort auf die folgenden vier Fragen verstanden werden: (1) Was ist das Explanandum der ursprünglichen Intentionalität, (2) was ist die Gattung der ursprünglichen Intentionalität, (3) was sind die Differenzen der ursprünglichen Intentionalität, und (4) wie fügt sich die ursprüngliche Intentionalität in ein natürliches und hoffentlich wissenschaftliches Verständnis der Welt ein? Ich habe meine Antwort auf die vierte Frage in einem früheren Artikel gegeben (Mun, How Emotions Know: Naturalizing Knowledge via Emotions. In;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71194-8_6 718f2dfa0cea7cc1dbaf88a74744829d;de;;;1.1.;;;Kognitive Bewusstseinsmodelle In den folgenden Kapiteln werde ich zunächst einen Blick auf die philosophischen Probleme des Bewusstseins werfen (Kapitel 1). Danach werde ich verschiedene Geist-Körper-Theorien, den Funktionalismus, seine Vorgänger sowie seine aktuellen Konkurrenten und ihre Antworten auf Bewusstseinsfragen überprüfen (Kapitel 2). Ich werde auch die Argumente untersuchen, die für und gegen die Bedeutung des Bewusstseins als respektables wissenschaftliches Konzept und Phänomen angeführt wurden. Schließlich werde ich mich auf die grundlegendste ontologische Frage konzentrieren: Gibt es Bewusstsein überhaupt?;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1141-8_2 69d163b3ddc23968fd5b8967c80ccbc1;de;;;1.1.;;;Kognitive Therapie von Angst und Depression Die letzten zwei Jahrzehnte haben ein Wiederaufleben von Theorie, Forschung und Praxis erlebt, die sich auf die kognitiven Begleiterscheinungen der Psychopathologie konzentriert (Mahoney, 1987). Folglich untersuchen immer mehr Forscher kognitive Dysfunktionen bei psychischen Störungen. Darüber hinaus wurden verschiedene kognitive und kognitiv-behaviorale (CB) Interventionen zur Behandlung psychopathologischer Zustände entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0649-8_10 7f42924768557e8bc48be7d9d0520560;de;;;1.1.;;;Vorbereitungen: Geräteunabhängige Konzepte Das Ziel dieses Kapitels ist es, die grundlegenden Informationen zu vermitteln, die beim Lesen der Arbeit benötigt werden. Es ist keineswegs ein umfassender Überblick zum Thema geräteunabhängige Informationsverarbeitung. Lesern, die mit den Konzepten der Nicht-Lokalität und geräteunabhängigen Protokollen nicht vertraut sind, wird empfohlen, die Umfrage [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-60231-4_3 27bcfc8a4da8fbe2a435c8ecd234d600;de;;;1.1.;;;Motorische Reaktionszeit und Genauigkeit bei Patienten mit Multipler Sklerose: Auswirkungen eines aktiven computergestützten Trainingsprogramms In dieser Studie wollten wir den Unterschied der motorischen Reaktionszeit und Genauigkeit zwischen Patienten mit mittelschwerer Multipler Sklerose (MS) und gesunden Probanden bestimmen und feststellen, ob ein bestimmtes kognitiv-motorisches Training die Geschwindigkeit und Genauigkeit der Informationsverarbeitung bei Patienten verbessern kann mit MS. Insgesamt wurden 205 Patienten (30 % Männer) und 276 alters-/geschlechtsangepasste gesunde Probanden (31 % Männer) in die Studie eingeschlossen. Darüber hinaus wurden Patienten mit MS mittels einer stratifizierten Randomisierungsmethode randomisiert einer von zwei Gruppen zugeordnet: aktives Informationsverarbeitungstraining (AIPT) (;-;-;-;https://link.springer.com/article/10.1007/s10072-019-03892-6 f8969d2bcd17b61863987d06ddc1b38f;de;;;1.1.;;;Intelligente Sensoren: Eine holonische Perspektive Diese Arbeit führt eine neue Perspektive in das Studium der intelligenten Sensortechnologie ein. Letztendlich soll eine neue Methodik entwickelt werden, die die Konzeption, das Design und die Implementierung komplexer sensorbasierter Systeme strukturierter und informationsorientierter unterstützt. Ein intelligenter Sensor kann als ein Hardware-/Software-Wandler betrachtet werden, der die gemessenen physikalischen Signale auf Anwendungsebene bringen kann. Durch die Linse der künstlichen Intelligenz betrachtet, scheint die Sensor-„Smartness“ jedoch zwischen bloßer Transduktion und komplexer Nachbearbeitung zu bleiben, wobei die Grenze absichtlich verschwommen und unbestimmt bleibt. Dank neuerer Literaturergebnisse zu den sogenannten „holonischen Systemen“ wird eine genauere Charakterisierung und Modellierung des Smart Sensors ermöglicht. Ein „Holon“ ist eine bioinspirierte konzeptionelle und rechnerische Einheit, die als Zelle in einem lebenden Organismus gleichzeitig die beiden Rollen eines Teils und eines Ganzen spielt. Um die Vorteile des holonischen Ansatzes richtig zu belegen, wird ein Beispiel für eine intelligente Anwendung und eine zugehörige prototypische Implementierung zur Disambiguierung kostengünstiger Gassensorantworten gezeigt. Der vorgeschlagene Ansatz entwirrt die inhärente Komplexität des Disambiguierungsproblems durch eine skalierbare Architektur, die vollständig auf holonisch inspirierten Kriterien basiert. Darüber hinaus ist der Gesamtaufbau wirtschaftlich konkurrenzfähig zu anderen hochselektiven (daher teuren) sensorbasierten Lösungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24553-4_40 99ede6070763a102de89297df95faa4d;de;;;1.1.;;;Konservierende Übersetzungen zwischen logischen Systemen Dieser Beitrag untersucht eine Unterklasse von Übersetzungen zwischen logischen Systemen, die als konservierende Übersetzungen bezeichnet werden und die die Erfüllbarkeit und die Unerfüllbarkeit von Formeln bewahren. Die Definition der konservierenden Translation wird gegeben und Zusammenhänge zwischen der konservierenden Translation und anderen Definitionen von Translationen in der Literatur werden diskutiert. Einige Eigenschaften logischer Systeme, wie die Kompaktheit und die Entscheidbarkeit, die durch die Existenz konservierender Übersetzungen zwischen logischen Systemen gekennzeichnet sind, werden ebenfalls untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16327-2_10 f89f8e8272fad6016dfb995ebe526e49;de;;;1.1.;;;Reaktive und proaktive Aggression bei Kindern Eine Überprüfung von Theorie, Befunden und der Relevanz für die Kinder- und Jugendpsychiatrie Die klinische Population aggressiver Kinder, bei denen eine oppositionelle Trotzstörung (ODD) oder eine Verhaltensstörung (CD) diagnostiziert wurde, ist sowohl in Bezug auf Verhalten als auch Ätiologie heterogen. Vor kurzem wurde die folgende Unterscheidung vorgeschlagen, die diese Heterogenität weiter verdeutlichen könnte: Reaktive Aggression ist eine aggressive Reaktion auf eine wahrgenommene Bedrohung oder Provokation, während proaktive Aggression als Verhalten definiert wird, das eine Belohnung erwartet. In diesem Artikel untersuchen wir verschiedene Aspekte dieser Unterscheidung. Wir werden [1] die Beweise dafür untersuchen, dass reaktive und proaktive Aggression unterschiedliche Phänomene sind, indem wir die Theorien diskutieren, die der Unterscheidung zwischen den Subtypen beim Menschen zugrunde liegen, und wir kurz die Beweise für eine ähnliche Unterscheidung bei Tieren überprüfen Messung bei Kindern durch Fragebögen und Verhaltensbeobachtungen, weisen wir dann darauf hin, dass die beobachtete Korrelation zwischen den Subtypen darauf zurückzuführen ist, dass viele Kinder beide Arten von Aggression zeigen, [3] wir überprüfen die Literatur zu spezifischen Merkmalen der Subtypen und achten dabei auf soziale Informationsverarbeitung, Peer-Status, biologische Korrelate und Entwicklungsgeschichte, und zeigen, dass es einige Hinweise darauf gibt, dass reaktive und proaktive Aggression unterschiedliche Dimensionen sind, [4] diskutieren wir die Relevanz der Unterscheidung zwischen reaktiver und proaktiver Aggression für Kinder und Jugendliche Psychiatrie.;-;-;-;https://link.springer.com/article/10.1007/s00787-005-0432-4 1eaca4a01c4437afdb498f470ef87924;de;;;1.1.;;;Messung der Fähigkeit zum transitiven Denken unter Verwendung von Produkt- und Strategieinformationen Kognitive Theorien sind sich nicht einig über die Prozesse und die Anzahl der Fähigkeiten, die beim transitiven Denken eine Rolle spielen. Dies führte zu Kontroversen über den Einfluss von Aufgabenmerkmalen auf die Leistung des Einzelnen und die Entwicklung des transitiven Denkens. In dieser Studie wurde ein Computertest mit 16 transitiven Denkaufgaben mit unterschiedlichen Eigenschaften in Bezug auf Präsentationsform, Aufgabenformat und Aufgabeninhalt erstellt. Sowohl Produkt- als auch Strategieinformationen wurden analysiert, um die Leistung von 6- bis 13-jährigen Kindern zu messen. Drei Methoden (MSP, DETECT und Improved DIMTEST) wurden verwendet, um die Anzahl der beteiligten Fähigkeiten zu bestimmen und die Annahmen zu testen, die den Daten durch Item-Response-Modelle auferlegt wurden. Nichtparametrische IRT-Modelle wurden verwendet, um eine Skala für transitives Denken zu konstruieren. Um den Einfluss von Aufgabenmerkmalen auf den Schwierigkeitsgrad der Aufgaben zu bestimmen, wurde die Multiple Regression verwendet. Daraus wurde geschlossen, dass: (1) die von Piagets Theorie vorhergesagten qualitativ unterschiedlichen Fähigkeiten nicht anhand verschiedener Dimensionen in der Datenstruktur unterschieden werden können, (2) transitives Denken durch eine Fähigkeit beschrieben werden kann und einige Aufgabenmerkmale die Schwierigkeit der eine Aufgabe, und (3) Strategieinformationen lieferten eine stärkere Skala als Produktinformationen.;-;-;-;https://link.springer.com/article/10.1007/BF02295843 58e60a8eafae100d4a002610a30ee62b;de;;;1.1.;;;Auf dem Weg zu einem schrittweisen QCL-Modell für Datenbankabfragen Die Qualitative Choice Logic (QCL) ist einer Logik gewidmet, die Präferenzen für boolesche Alternativen ausdrückt. Dieses Papier legt die ersten Grundlagen für die Erweiterung von QCL auf Fuzzy-Alternativen. Insbesondere werden einige Beziehungen zwischen QCL und der bipolaren Ausdruck von Präferenzabfragen hervorgehoben. Im booleschen Kontext wird ein neuer Typ von bipolaren Bedingungen definiert, um QCL-Anweisungen auszudrücken. Diese neue Art von bipolaren Bedingungen wird auf die Gradualität erweitert und es wird gezeigt, dass diese Erweiterung die Grundlage für die Definition eines schrittweisen QCL-Modells sein kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08852-5_14 bc1f66df00872a6b910446781d88995c;de;;;1.1.;;;Modellbasierte Analyse von zwei-alternativen Entscheidungsfehlern in einer Videopanorama-basierten Remote Tower-Arbeitsposition Erste Analyse des Remote Control Tower (RTO)-Feldtests mit einem prototypischen Videopanorama-System unter Quasi-Betriebsbedingungen [Friedrich und Möhlenbrink (Proceedings of the 10th USA/Europe Air Traffic Management Research and Development Seminar (ATM 2013), 2013] hat Leistung gezeigt Defizite quantifiziert durch zwei-alternative Flugzeugmanöver-Diskriminierungsaufgaben [Fürstenau et al (EPCE/HCII 2013, Part II, Lecture Notes in Artificial Intelligence (LNAI) 8020:105–114, 2013)] Hier präsentieren wir die quantitative Analyse dieser Ergebnisse mit den komplementären Methoden der Bayes-Inferenz, der Signaldetektionstheorie (SDT) mit parametrischen und nichtparametrischen Diskriminierbarkeiten;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-28719-5_11 fc34f59b1dcf4e5340aa7bf3cac7a6ef;de;;;1.1.;;;Psychologische Theorien der Intimpartnergewalt Psychologische Theorien, die versuchen, die Ätiologie von Gewalt in Partnerschaften (IPV) zu erklären, stehen seit vielen Jahrzehnten an vorderster Front der IPV-Forschung, Praxis und politischen Bemühungen. In diesem Kapitel geben wir einen Überblick über mehrere spezifische psychologische Theorien der IPV (KVT, Trauma-informierte und Psychopathologie-Stress) sowie neuere Entwicklungen bei der Konstruktion umfassenderer, multifaktorieller Theorien der IPV-Tätigkeit, wie z;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-319-62122-7_137-1 b5331831759eb4ef7125a8ce32ddab6a;de;;;1.1.;;;Markenstärke messen Das starke Interesse an Markenstärke in den letzten Jahren hat fast unendlich viele Möglichkeiten hervorgebracht, das Phänomen zu begreifen. Sattler (1994) behauptet, 512 (!) Varianten zur Messung der Markenstärke identifiziert zu haben. Bisher hat jedoch kein einziger Ansatz den Status der am weitesten verbreiteten Akzeptanz erreicht. Die Gründe für diese Situation sind vielfältig. Am wichtigsten ist, dass es ein Ergebnis des unterschiedlichen Verständnisses des Konzepts ist, wie es in der Diskussion verschiedener Definitionen von Markenstärke gezeigt wurde. Ein weiterer Grund ist in den unterschiedlichen Hintergründen (Marketing, Psychologie, Ökonomie, Konsumverhalten) zu sehen, vor denen Forscher ihre Messmodelle aufbauen. Schließlich führt das unterschiedliche Interesse von Marketingpraktikern und akademischen Forschern dazu, einerseits einfach anzuwendende und kommunizierbare Methoden hervorzubringen, andererseits aber auch ausgereifte Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-81629-0_5 8899a04531c2d1bf549287d46be89f1d;de;;;1.1.;;;Testen der Lebendigkeitseigenschaften Zufriedenheit innerhalb der Fairness begründet einen abstrakten Wahrheitsbegriff unter Fairness in der Verifikation in linearer Zeit. Es kann argumentiert werden, dass die Idee einer Implementierung, die die Schnittmenge von Systemverhalten und Anforderungsspezifikation trifft, eine wünschenswerte Grundlage für das Testen von Systemen bildet. Leider ist diese Schnittmenge des Verhaltens des Systems und der Anforderungsspezifikation nicht direkt zugänglich und praktisch nicht berechenbar. Es ist jedoch möglich, einige Informationen dieser Schnittmenge aus einer übergeordneten (abstrakten) Spezifikation des Systems abzuleiten. In diesem Beitrag werden wir einen abstraktionsbasierten Ansatz vorstellen, der es uns ermöglicht, einige Testfälle, sogar für Lebendigkeitseigenschaften, abzuleiten.;-;-;-;https://link.springer.com/chapter/10.1007/0-306-47003-9_23 e30685c1d272a1ad2abf2d2490f53b02;de;;;1.1.;;;Sozial alarmierte Kognition, hervorgerufen durch die bloße Anwesenheit eines Verbündeten: Analyse von Reaktionszeitverteilungen und Delta-Plots Wir untersuchten Aspekte der sozialen Alarmierung, die durch die Anwesenheit eines aufmerksamen, aber nicht bewertenden Verbündeten in Bezug auf die mentale Effizienz induziert wurden. Zu diesem Zweck wurde den Individuen eine verkettete Kopfrechenaufgabe (Stufen: geringer vs. hoher Bedarf) in zwei Kontextbedingungen (Stufen: allein vs. Anwesenheit) verabreicht. Darüber hinaus untersuchten wir zu Kontrollzwecken Selbstauskunftsmaße des subjektiven Zustands. Als Ergebnis verbesserte die Anwesenheitsbedingung (im Vergleich zu allein) die Verarbeitungsgeschwindigkeit (nicht behindert) (während die Fehlerrate insgesamt niedrig blieb), und dieser Effekt war bei hoher (im Vergleich zu niedriger) Nachfrage unterschiedlich ausgeprägter. Reaktionszeitverteilungsanalysen zeigten, dass Verbesserungen der durchschnittlichen Leistung tatsächlich von einer selektiven Beschleunigung in den langsameren Perzentilen herrührten, was darauf hindeutet, dass Social Alerting die Stabilität des Informationsverarbeitungsdurchsatzes fördert. Diese Ergebnisse stellen die gängigen theoretischen Vorstellungen von bloßen Präsenzeffekten in Frage, da Individuen durchweg schneller und weniger anfällig für Aufmerksamkeitsversagen wurden. Unsere Ergebnisse zeigen, dass soziale Präsenz nicht nur die Verarbeitungsgeschwindigkeit, sondern auch die Willensstabilität fördert.;-;-;-;https://link.springer.com/article/10.1007/s00426-019-01143-z 65ee66c08748220789469d08fd3bf5fd;de;;;1.1.;;;Korrektur der Unzuverlässigkeit in nichtlinearen Modellen der Einstellungsänderung Der Beitrag beginnt mit einer kurzen Diskussion der Probleme beim Testen nichtlinearer Modelle der Einstellungsänderung. Die durch Unzuverlässigkeit erzeugten Regressionsartefakte werden sowohl im linearen als auch im nichtlinearen Fall dargestellt. Klassische Lösungen für den linearen Fall werden schnell überprüft. Eine „neue“ Lösung für den linearen Fall wird vorgestellt und auf den nichtlinearen Fall angewendet. Es hat sich gezeigt, dass es unter einer Vielzahl von Bedingungen gut funktioniert. Anschließend werden Regressionsartefakte in der bivariaten Regression diskutiert. Wenn die Prädiktoren unabhängig sind, kann das univariate Korrekturverfahren auf jeden Prädiktor separat angewendet werden. Wenn die Prädiktoren jedoch korreliert sind, muss ein gemeinsames Korrekturverfahren verwendet werden. Ein solches Verfahren wird definiert und es wird gezeigt, dass es im Fall einer linearen Regression perfekt funktioniert und in einem breiten Spektrum von Bedingungen, in denen die Regression nichtlinear ist, einigermaßen gut funktioniert.;-;-;-;https://link.springer.com/article/10.1007/BF02291668 7ebbbd5daa373b49efcb3b0295ba58e7;de;;;1.1.;;;Optimales Design einer konisch-zylindrischen Untersetzungseinheit mit Fuzzy Physical Programming Das konisch-zylindrische Untersetzungsgetriebe als Hochleistungs-Kraftübertragungsvorrichtung wird häufig zum Bau verschiedener Maschinen verwendet. Es gibt viele Fuzzy-Faktoren im Herstellungsprozess und in der Betriebsumgebung, die im Designprozess berücksichtigt werden sollten. Die Fuzzy-Physikalische Programmierung ist eine effektive Mehrzieloptimierungsmethode, die Fuzziness in ihre Problemformulierung einbezieht. In dieser Arbeit wird das Fuzzy-Physical-Programmiermodell für die optimale Auslegung eines zweistufigen konisch-zylindrischen Untersetzungsgetriebes entwickelt und ein genetischer Algorithmus zur Lösung des Modells verwendet. Es wird ein Beispiel gegeben, um zu veranschaulichen, dass die Fuzzy-Physikalische Programmierung die Unschärfe von Kegel-Zylinder-Untersetzungseinheiten im Wesentlichen berücksichtigen kann und den technischen Gegebenheiten besser entspricht.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-23152-8_25 e10a9ccdc32552d6b6d642395e1d4e23;de;;;1.1.;;;Einführung: Eine neue Sicht auf das Organisationsdesign Aussagen wie diese sind in Werken über die Organisation ziemlich häufig, die reale Fakten basierend auf anekdotischen Geschäftsdaten und Fallstudien mit konzeptionellen und theoretischen Erkenntnissen vermischen. Wir sind der Meinung, dass dieser populäre Ansatz, obwohl er fruchtbar ist, an einer schwerwiegenden methodischen Schwäche leidet, da er keinen verallgemeinerbaren Rahmen für das Studium des Organisationsdesigns bietet. Tatsächlich werden seine Schlussfolgerungen durch einige allgemeine Vorbehalte eingeschränkt.;-;-;-;https://link.springer.com/chapter/10.1057/9780230582200_1 2d9b81bdcc524e2d706634217a079057;de;;;1.1.;;;Erfolgreiche Gesichtserkennung ist mit einer erhöhten präfrontalen Kortexaktivierung bei Autismus-Spektrum-Störung verbunden Diese Studie untersucht, ob Defizite in der visuellen Informationsverarbeitung bei Autismus-Spektrum-Störungen (ASS) durch die Rekrutierung von Hirnstrukturen, die an der selektiven Aufmerksamkeit beteiligt sind, ausgeglichen werden können. Während der funktionellen MRT führten 12 Kinder mit ASS und 19 Kontrollteilnehmer eine Ein-Rücken-Aufgabe mit selektiver Aufmerksamkeit durch, bei der Bilder von Gesichtern und Häusern überlagert wurden. Bei der Behandlung von Gesichtern zeigte die ASD-Gruppe im Vergleich zu den Kontrollteilnehmern eine erhöhte Aktivierung innerhalb mehrerer Bereiche des präfrontalen Kortex, einschließlich des dorsolateralen präfrontalen Kortex (DLPFC). Die DLPFC-Aktivierung bei ASS war mit verlängerten Reaktionszeiten für Gesichter verbunden. Diese Daten legen nahe, dass die präfrontale Kortexaktivierung einen kompensatorischen Mechanismus für die verminderten Fähigkeiten der visuellen Informationsverarbeitung bei ASS darstellen könnte.;-;-;-;https://link.springer.com/article/10.1007/s10803-014-2233-4 31b8878e7647b0c04b3d5522653fc761;de;;;1.1.;;;Klassifizierung der Nachrichtenverbreitung in einem heterogenen sozialen Netzwerk Heutzutage werden soziale Netzwerke wie Twitter, Facebook und LinkedIn immer beliebter. Tatsächlich haben sie neue Gewohnheiten und Kommunikationswege eingeführt und sammeln jeden Tag verschiedene Informationen aus unterschiedlichen Quellen. Die meisten existierenden Forschungsarbeiten konzentrieren sich auf die Analyse homogener sozialer Netzwerke,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08855-6_8 ca6a8b3930cc047e1057427a0d3aa3d4;de;;;1.1.;;;Soziale Identität: Kategorisierung, Kognition und Affekt Ein wichtiger Typ sozialer Identität ist die „kategoriale“ Identität, die In- und Out-Gruppen etabliert. Eine solche Kategorisierung ist komplex und umfasst Einschlusskriterien, Identifizierungskriterien und andere Komponenten. Wir haben mehrere kategoriale Identitäten und hierarchisieren sie anhand von Eigenschaften wie Salienz und Dauerhaftigkeit. Die Kategorisierung der sozialen Identität ist mit anderen Kategorisierungsprozessen verbunden, mit Konsequenzen für die Informationsverarbeitung und Motivation oder Emotion. Bei der kategorialen Identifizierung werden die Informationen jedoch oft verwechselt und die motivationalen Konsequenzen sind oft destruktiv. Unsere Informationsverarbeitung sozialer Identitätskategorien ist an kognitiver Modellierung (einschließlich einer begrenzten Anzahl prominenter Modelle) und Beschäftigung (einschließlich einer begrenzten Anzahl prominenter Erzählstrukturen) beteiligt. Emotional beeinflusst die kategoriale Identität die zwischenmenschliche oder empathische Haltung gegenüber Mitgliedern der Gruppe und der Gruppe außerhalb.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-63303-9_6 ddc465d2198b5c0fb31b9e6e127d2397;de;;;1.1.;;;Zwei Köpfe, drei Wege: Duales System und duale Vorgehensmodelle in der Konsumpsychologie Duale System- und duale Prozessansichten des menschlichen Geistes haben automatisches, schnelles und unbewusstes Denken dem kontrollierten, langsamen und bewussten Denken gegenübergestellt. Dieses Papier integriert Dualitätsmodelle aus konsumpsychologischer Perspektive, indem es drei relevante theoretische Stränge identifiziert: Überzeugungs- und Einstellungsänderung (zB Elaboration Likelihood Model), Urteils- und Entscheidungsfindung (zB Intuitives vs. Reflective Model) sowie Kauf- und Konsumverhalten zB reflexiv-impulsives Modell). In Bezug auf verschiedene Aspekte der Verbraucherentscheidung diskutieren wir die Bedingungen, unter denen verschiedene Arten von Prozessen hervorgerufen werden, wie sie interagieren und wie sie auf die Verarbeitung von Marketingbotschaften durch Verbraucher, die Bewertung produktbezogener Informationen und das Kaufverhalten angewendet werden. Darüber hinaus vergleichen und kontrastieren wir theoretische Stränge und integrieren sie in die Literatur zu Einstellungen, um zu zeigen, wie Dualitätsmodelle uns helfen können, implizite und explizite Einstellungsbildung in der Konsumpsychologie zu verstehen. Schließlich bieten wir zukünftige Forschungsimplikationen für Wissenschaftler in Verbraucherpsychologie und Marketing.;-;-;-;https://link.springer.com/article/10.1007/s13162-012-0030-9 8ad5a09397618001fcb3239a214f4460;de;;;1.1.;;;Untersuchung der Bevölkerungsdrift bei der Bewertung des Verhaltens von Verbraucherkrediten Verhaltensbezogene Kreditbewertungsmodelle sind eine spezielle Art von Kreditbewertungsmodellen, bei denen sich im Laufe der Zeit entwickelnde Daten über das Muster von Zahlungsausfällen, ausstehende Beträge und Kontoaktivitäten verwendet werden. Diese Daten haben einen dynamischen Charakter, da sie sich im Laufe der Zeit entsprechend dem wirtschaftlichen Umfeld entwickeln. Auf der anderen Seite sind Scoring-Modelle in der Regel statisch und gehen implizit davon aus, dass die Beziehung zwischen den Leistungsmerkmalen und der späteren Leistung eines Kunden unter der aktuellen Situation dieselbe ist wie zu der Zeit, als die Informationen, auf denen die Scorecard erstellt wurde, gesammelt wurden unabhängig davon, welche wirtschaftlichen Veränderungen in dieser Zeit eingetreten sind. In dieser Studie untersuchen wir, wie sich diese Annahme auf die Vorhersagekraft von Behavioral Scoring-Modellen auswirkt, indem wir einen großen Datensatz aus Griechenland verwenden, wo die Verbraucherkredite seit 2009 stark von der Wirtschaftskrise betroffen sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-33003-7_7 ef955ba28f72e5da84a0a8ece023e532;de;;;1.1.;;;Underfits versus Overfits in der Kontingenztheorie des Organisationsdesigns: Asymmetrische Auswirkungen von Misfits auf die Leistung Der Ansatz der Kontingenztheorie für das Organisationsdesign behandelt traditionell Unteranpassung so, dass sie gleiche Leistungsverluste wie Überanpassung erzeugt, so dass die Auswirkungen dieser Fehlanpassungen auf die Leistung symmetrisch sind. Vor kurzem wurde eine asymmetrische Ansicht vorgeschlagen, bei der eine Unteranpassung eine geringere Leistung erzeugt als eine Überanpassung. Dieses Kapitel analysiert diese Ansichten. Es werden die Auswirkungen von Underfits und Overfits auf Nutzen und Kosten unterschieden. Die unterschiedlichen Auswirkungen von Underfit und Overfit auf die organisatorische Leistung sind anhand ihrer Auswirkungen auf Nutzen und Kosten zu verstehen. Es werden Implikationen für Organisationstheorie und -design gezogen. Für die zukünftige empirische Forschung wird spezifiziert, wie unterschiedliche Leistungseffekte von Underfits und Overfits korrekt identifiziert werden können. Aus Sicht des Managementdesigns kann Underfit in wachsenden Unternehmen auftreten und ihnen einen Teil ihres Wachstumspotenzials nehmen. Während Unterfitness zu einem akuten Zustand führt, ist Overfit chronischer.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-0627-4_8 913d3afda2a5ac99c25f9586506d5728;de;;;1.1.;;;Einführung in die Quanteninformation Die Theorie der Quanteninformation beschäftigt sich mit der Informationsverarbeitung mit Quantenzuständen. Interessant ist, dass die Quanteninformationsverarbeitung in mehreren Fällen einen großen Vorteil gegenüber der klassischen Informationsverarbeitung haben kann und ihre Eigenschaften oft keine Übereinstimmung mit den klassischen Pendants finden. Die wichtigsten Beispiele für die Quanteninformationsverarbeitung sind der Quantencomputer, die Quantenkommunikation, die Quantenschlüsselverteilung (QKD) und die Quantenteleportation. Quanteninformation weist zwei Formen auf, diskret als Qubit und stetig als kohärente und allgemeiner Gaußsche Zustände. Eine wichtige Bemerkung ist, dass die meisten Operationen in der Quanteninformationsverarbeitung sowohl mit diskreten als auch mit kontinuierlichen Variablen durchgeführt werden können (diese letzte Möglichkeit ist eine relativ neue Entdeckung). Der Vergleich dieser beiden Möglichkeiten sollte nach praktischen Erwägungen erfolgen. Dieses Kapitel gibt eine Einführung in die Quanteninformation, die in den letzten drei Kapiteln entwickelt wird. Einige fortgeschrittene Grundlagen, die zuvor nicht ausreichend entwickelt wurden, wie Verschränkung, partielle Spur, Reinigung, werden in diesem Kapitel eingeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-15600-2_10 a6f83dcd00cb80eff9b2ec7d85c65d58;de;;;1.1.;;;Verschlüsselung von Quantennachrichten blockieren Blockverschlüsselung ist ein grundlegendes kryptografisches Primitiv in der modernen Kryptografie. Es ist jedoch unmöglich, dass die Blockverschlüsselung die gleiche Sicherheit wie One-Time-Pad erreicht. Die Quantenmechanik hat die moderne Kryptographie verändert, und viele Untersuchungen haben gezeigt, dass die Quantenkryptographie die Einschränkungen der traditionellen Kryptographie übertreffen kann. Dieser Artikel schlägt einen neuen konstruktiven Modus für die private Quantenverschlüsselung vor, genannt;-;-;-;https://link.springer.com/article/10.1007/s11128-020-2612-z 992e331c2023f495dba6a14fc6a66034;de;;;1.1.;;;Stochastische Spezifität in der neuronalen Interaktion Wir präsentieren in dieser Mitteilung Ergebnisse eines dynamischen Modells zweier interagierender stochastischer Neuronen, das einfach genug ist, um das Verständnis der grundlegenden Mechanismen zu vermitteln, durch die die stochastische Natur von Einheiten die Informationsverarbeitungsfähigkeiten verbessert. Die aktive Rolle von Rauschen oder Zufälligkeit in stochastischen integrierenden und feuernden Einheiten wird mit einem Markovschen Kettenansatz analysiert. Wir schließen daraus, dass die Zufälligkeit eine robuste Spezifität in der Einheitsantwort ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-2063-6_43 62996a1b5054a366443ebd64ed0878d9;de;;;1.1.;;;Leben am Ende des Universums? Tipler hat in einer kürzlich erschienenen wissenschaftlichen Arbeit [1] behauptet, dass Leben bis zum Ende eines Universums existieren könnte, das in Zukunft zu einem letzten Feuerball zusammenbricht – einschließlich der Planck-Ära, in der die Quantengravitation dominiert. Sein Artikel ist einer von mehreren, die aufgrund einiger starker Behauptungen, die auf der Grundlage dieser Art von Argumenten über das Leben in der Zukunft aufgestellt wurden, allgemeines Interesse geweckt haben (es wurde sogar behauptet [2,3], dass diese Art von mathematisch-physikalischem Argument kann beweisen, dass die Auferstehung der Toten stattfinden wird!). Wir weisen darauf hin, dass die zugrunde liegende Argumentation von Tiplers Arbeit aus zwei ganz unterschiedlichen Gründen auf Probleme stößt. Erstens nimmt es ein Ergebnis der Informationstheorie im flachen Raum an und macht andere technische Annahmen über die Informationsverarbeitung, die das unmittelbare technische Argument ungültig machen. Mindestens ebenso wichtig ist jedoch die Tatsache, dass das Argument nicht haltbar ist, da physikalische Mechanismen, die eine kohärente Informationsverarbeitung ermöglichen, unter den extremen physikalischen Bedingungen, die gegen Ende des Universums auftreten würden, nicht funktionieren könnten.;-;-;-;https://link.springer.com/article/10.1007/BF02116959 2fe8fa01cff2855971e27503cb57785c;de;;;1.1.;;;Auswirkungen von In-Home-Displays auf den Stromverbrauch von Privathaushalten In diesem Kapitel wird untersucht, wie sich die Erfassung von Informationen von In-Home-Displays (IHDs) durch Aufmerksamkeit und Lernen auf den Stromverbrauch auswirkt, indem experimentelle Daten zur Häufigkeit der Nutzung von IHDs durch Verbraucher im Sommer 2012 und Winter 2012/2013 verwendet werden. Haushalte in der Behandlungsgruppe konnten jederzeit während des Experiments einen Graphen ihres halbstündlichen Stromverbrauchs in Echtzeit mit IHDs sehen. Die unmittelbare Wirkung von IHDs besteht darin, dass die Aufmerksamkeit der Haushalte auf Informationen zum Stromverbrauch erhöht wird, und es wird erwartet, dass die wiederholte Aufmerksamkeit die Fähigkeit der Haushalte, Informationen langfristig zu verarbeiten, verbessert. Die Schätzergebnisse des Modells des täglichen Stromverbrauchs zeigen statistisch signifikante und anhaltende Auswirkungen der IHD-Nutzung auf den Stromverbrauch von Privathaushalten. Die Zunahme der Auswirkungen von IHDs zusammen mit der Erfahrung der Haushalte mit der Nutzung von IHDs impliziert, dass die Fähigkeit der Haushalte, Informationen zu verarbeiten, durch die wiederholte Aufmerksamkeit auf Strominformationen verbessert werden könnte. Im Gegensatz zur Energiesparliteratur wurde festgestellt, dass die IHD-Nutzung aufgrund eines Bumerang-Effekts den Stromverbrauch von Privathaushalten kontinuierlich erhöht. Ein interaktiver Effekt der Bereitstellung von IHDs und kritischen Spitzenpreisen impliziert jedoch, dass die Bereitstellung eines IHD zusammen mit pekuniären Anreizsystemen bei der Energieeinsparung wirksam sein könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-1097-2_4 c8d1e70a77d94f127b4eedda89a0dd1e;de;;;1.1.;;;Beziehungen zwischen Methode und Theorie in der Entwicklungsforschung: Eine partielle Isomorphismus-Ansicht In diesem Kapitel wird argumentiert, dass die entwicklungspsychologische Verbindung zwischen Methoden und Theorie (die als breit definierte Standpunkte und Rahmen verstanden werden) eine von „partiellem Isomorphismus“, d. h. von unvollkommener Korrelation, ist. Das Kapitel beginnt mit einer allgemeinen Untersuchung und Kritik aktueller Ansichten zum Verhältnis von Theorie und Methode, wobei zwei konkrete Beispiele vorgestellt werden, eines aus einer früheren Periode der Geschichte der Entwicklungspsychologie, das andere aus neueren Arbeiten auf diesem Gebiet. Das Verhältnis von Theorie und Methode wird dann genauer analysiert, und zwar anhand von zwei prototypischen entwicklungsrelevanten Bereichen: der Stufenfrage und der Kontinuitäts-/Stabilitätsfrage. Es wird argumentiert, dass eine Beziehung des „partiellen Isomorphismus“ nicht nur der Art und Weise, wie Entwicklungsforscher ihre Forschung betreiben, am besten gerecht wird, sondern dass diese Auslegung der Theorie-Methoden-Beziehung auch am geeignetsten ist, den wissenschaftlichen Fortschritt auf unserem Gebiet voranzutreiben. Die in diesem Kapitel betonte flexible, lockere Verknüpfung von Theorie und Methode wird als Gegenkraft zu einem sterilen Streben nach Methodik um ihrer selbst willen, losgelöst und uninformiert von der Theorie, wie es gefördert werden würde, wenn die Methodik als vollständig betrachtet würde, als Gegenkraft dienen unabhängig von der Theorie. Zugleich vermeidet die Konzeption auch die Exzesse des Theoretisierens ohne Rücksicht auf den methodologischen Ansatz oder die völlige Unterordnung der Methode unter die Theorie, was geeignet ist, die Theorie isoliert von konkurrierenden zu erhalten und damit schließlich zu ihrem Aussterben zu führen die Rebe. Der letzte Abschnitt des Beitrags widmet sich einigen spezifischen methodischen Fragestellungen der Entwicklungsforschung, die in einem Entwicklungskonzept impliziert sind, jedoch weitgehend unabhängig von bestimmten entwicklungstheoretischen Positionen sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-3842-4_5 5945206f07adda5fdac2506f85f2e029;de;;;1.1.;;;Ein theoretisch fundiertes Verständnismaß Wie in den vorangegangenen Kapiteln mehrfach erwähnt, ist das Verständnis nicht leicht zu definieren. In manchen Situationen bedeutet Verstehen nichts anderes, als sich an Fakten erinnern zu können, die in einem Text präsentiert werden. In anderen Fällen erfordert das Verstehen das Abstrahieren des Hauptthemas eines Textes, und in anderen Fällen beinhaltet das Verstehen das Ziehen von Schlussfolgerungen aus dem Gelesenen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-0387-7_6 98178610bdace4f8c94053cffac89f7e;de;;;1.1.;;;Mikroalbuminurie: ein Wächter der neurokognitiven Beeinträchtigung bei HIV-infizierten Personen? Populationsbasierten Studien zufolge ist die Mikroalbuminurie aufgrund einer zerebralen Kleingefäßerkrankung (CSVD) mit einem nachfolgenden kognitiven Rückgang über einen Zeitraum von 4–6 Jahren verbunden. Diese prospektive Querschnittsstudie (NCT02852772) wurde entwickelt, um zu untersuchen, ob eine Mikroalbuminurie in der Vorgeschichte mit einem nachfolgenden kognitiven Rückgang bei mit kombinierter antiretroviraler Therapie (cART) behandelten Personen, die mit dem humanen Immunschwächevirus (PLHIVs) leben, verbunden ist.;-;-;-;https://link.springer.com/article/10.1007/s00415-019-09674-6 0afce7e475af08b19ae888835eef5cc0;de;;;1.1.;;;Untersuchung reaktiver und proaktiver Aggression durch narrative Textverarbeitung Die Studie untersuchte die Aufmerksamkeitsverteilung bei Jugendlichen während der Verarbeitung sozialer Situationen, indem sie eine Online-Erzählungsmethodik und ein Widerspruchsparadigma einsetzte. Jugendliche mit unterschiedlichen, selbst eingeschätzten, reaktiven und proaktiven Aggressions- und verbalen Fähigkeiten lesen Kurzgeschichten, die Situationen präsentieren, die sich in Bezug auf ihre Übereinstimmung mit bereits bestehenden feindseligen Schemata und textbasierten Erwartungen unterscheiden. Die Ergebnisse zeigten, dass Jugendliche mit einem höheren reaktiven und kombinierten Aggressionsniveau unabhängig vom Textinhalt dazu neigten, Texte schneller zu lesen als Jugendliche mit einem niedrigen und durchschnittlichen Aggressionsniveau. Während die Reaktionen feindlicher Protagonisten im Allgemeinen schneller gelesen wurden als die Reaktionen milder Protagonisten, lesen Jugendliche mit geringeren verbalen Fähigkeiten und einem durchschnittlichen Aggressionsrisiko Sätze, die die Reaktionen feindlicher Protagonisten beschreiben, langsamer als Beschreibungen von milden Protagonisten. Der erwartete Textwiderspruchseffekt wurde nicht nachgewiesen. Die Implikationen dieser Ergebnisse in Bezug auf die Entwicklung effektiver textbasierter Interventionen, die darauf abzielen, die Verarbeitung zu verlangsamen und falsche Überzeugungen zu ändern, werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s10862-020-09845-0 3a1e186aac254933f2ac5629d8574a62;de;;;1.1.;;;Teams in Multi-Agenten-Systemen Multi-Agenten-Systeme beinhalten Agenten, die miteinander und mit der Umgebung interagieren und daran arbeiten, individuelle und Gruppenziele zu erreichen. Das Erreichen von Gruppenzielen erfordert, dass Agenten in Teams zusammenarbeiten. In diesem Beitrag stellen wir zunächst drei philosophische Ansätze vor, die sich aus unterschiedlichen Antworten auf zwei zentrale Fragen ergeben. Zweitens betrachten wir drei theoretische Rahmen zur Modellierung des Teamverhaltens. Als nächstes betrachten wir zwei Agentenimplementierungsmodelle. Schließlich betrachten wir eines dieser Implementierungsmodelle – JACK Teams – und stellen es in den Kontext der philosophischen Debatte und des theoretischen Rahmens.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-44641-7_1 bb07398592f688f134b0b8d663743a94;de;;;1.1.;;;Preiserwartungen und Kaufentscheidungen: Beweise aus einem Online-Shop-Experiment In diesem Papier untersuchen wir die Rolle der Verbraucherpreiserwartungen bei der Beeinflussung der Kaufentscheidungen von Verbrauchern. Insbesondere untersuchen wir die Treiber der relativen Dominanz von zwei Preiserwartungen – eine wurde vor dem Ladenbesuch gebildet (PRIOR) und die andere über den Preis in anderen Geschäften (POST), die gebildet wurde, nachdem sie dem Fokusgeschäftspreis ausgesetzt war. Wir sammeln die Daten aus einer Online-Shop-Einkaufsumgebung, damit die Teilnehmer echte Kaufentscheidungen treffen können. Wir haben in unseren Daten zwei verschiedene Klassen von Einkaufsverhalten identifiziert:;-;-;-;https://link.springer.com/article/10.1007/s40547-014-0010-3 074406fc7ee1fc04a6ed07e178953bc6;de;;;1.1.;;;Interventionen zur Verbesserung der kognitiven Funktionen nach Schädel-Hirn-Trauma (SHT) Traumatische Verletzungen des Gehirns können den Kern dessen beeinflussen, was uns menschlich macht – unsere Kognition und Emotion. Die Verletzungen sind akut, können aber zu chronischen Belastungen für Einzelpersonen und Familien sowie für die Gesellschaft führen. Es sind wirksame Ansätze zur Verbesserung der Funktionsweise erforderlich, und die Vorteile können weitreichend sein. Wir besprechen einige Grundprinzipien, um die aktuelle Praxis zu leiten, sowie Anweisungen für die kontinuierliche Weiterentwicklung von Möglichkeiten zur Verbesserung der Funktionsfähigkeit nach einer Verletzung. Interventionen sind wahrscheinlicher wirksam, wenn wir mehrere Ebenen der Gehirnfunktion berücksichtigen, von Neuronen über pharmakologische Systeme bis hin zu sozialen Netzwerken. Bedeutende Vorteile können erzielt werden, indem wichtige Modulatoren der Funktion angesprochen werden. Das Potenzial zur Verbesserung der kognitiven Funktionen durch Training ist von besonderer Bedeutung, und die Vorteile können mit pharmakologischen und anderen Ansätzen synergetisch wirken. Die Kombination von physischem und erfahrungsbezogenem Trauma verdient besondere Beachtung, mit Auswirkungen auf Kognition, Emotion und andere Verhaltenssubstrate. Die Ausrichtung weiterer Forschung auf Schlüsselgrenzen, die Neurowissenschaften und Rehabilitation verbinden, wird die Entwicklung klinisch wirksamer Interventionen vorantreiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-22436-3_17 7e64b37d9a126f521a6f9e3d1afefe23;de;;;1.1.;;;Ermittlung von Nutzeranforderungen an E-Collaboration-Systeme: ein Vorschlag für einen multiperspektivischen Modellierungsansatz E-Collaboration-Systeme sind zu einer neuen Art der Geschäftsabwicklung geworden, die die Kommunikation, Koordination und Zusammenarbeit zwischen Menschen in gemeinsamen Projekten usw. unterstützt und ermöglicht. Die Ermittlung der Benutzeranforderungen für E-Collaboration-Systeme hat sich jedoch als große Herausforderung erwiesen, da für viele verschiedene Arten von Interessengruppen unterschiedliche Kenntnisse erfasst werden müssen. Dieses Papier schlägt einen Ansatz vor, um Benutzeranforderungen für E-Collaboration-Systeme zu ermitteln. Dieser Ansatz verwendet eine Szenariobeschreibung von E-Collaboration-Systemen als Eingabe und wandelt sie in einen umfangreichen Satz von Anforderungsmodellen aus vier Perspektiven um, nämlich Koordinationsmodell, Kommunikationsmodell, Verbindungsmodell und Kollaborationsmodell. Diese Modelle repräsentieren jeweils die Koordinations-, Kommunikations-, Verbindungs- und Kollaborationseigenschaften von E-Collaboration-Systemen. Gemeinsam zielen diese Modelle darauf ab, eine vollständigere und genauere Anforderungsspezifikation bereitzustellen. Ein Beispiel aus einem kollaborativen Bürosystem wird verwendet, um die Anwendbarkeit des vorgeschlagenen Ansatzes zu veranschaulichen. In diesem Papier werden auch die praktischen Auswirkungen des vorgeschlagenen Ansatzes erörtert und anschließend eine Bewertung des vorgeschlagenen Ansatzes vorgenommen.;-;-;-;https://link.springer.com/article/10.1007/s00766-017-0285-7 753facc33395455462fc03dfd14a39a1;de;;;1.1.;;;Moralische Urteilskraft und das Gehirn: Ein funktionaler Ansatz zur Frage von Emotion und Kognition in der moralischen Urteilskraft unter Integration von Psychologie, Neurowissenschaften und Evolutionsbiologie Moralisches Urteilsvermögen kann definiert werden als die Bewertung von Handlungen in Bezug auf soziale Normen und Werte, die in einer Gesellschaft etabliert sind (wie z. B. nicht zu stehlen oder ein ehrlicher Bürger zu sein).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-6287-2_6 bdcd3a9655f2fa76485a4e0b9d6acc8e;de;;;1.1.;;;Psychodynamik als „Thermodynamik“ des Geistes 1895 schlug Sigmund Freud sein „Projekt für eine wissenschaftliche Psychologie“ vor, in dem er die Psychodynamik als eine auf thermodynamischen Prinzipien basierende Disziplin vorschlug. Freud konzentrierte seine Aufmerksamkeit auf die „Energie“ und ihre Verteilung im mentalen Apparat und skizzierte, wie die Psychopathologie mit der normalen Psychologie in Beziehung stehen kann. Innerhalb dieser „Thermodynamik“ des Geistes schlug er grundlegende Begriffe der „Psychodynamik“ vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4939-2700-5_1 924d259684b099441fbec084a4ae888a;de;;;1.1.;;;Informationsverteilung In diesem Kapitel wird das Konzept der Informationsverteilung vorgestellt. Durch Informationsverteilung können wir die scharfen Beobachtungen einer gegebenen Stichprobe in Fuzzy-Sets umwandeln. Daher werden Fuzzy-Sätze verwendet, um die Fuzzy-Übergangsinformationen in einer kleinen Stichprobe zu beschreiben. Es ist nützlich, die Schätzung der Wahrscheinlichkeitsverteilung zu verbessern. Basierend auf dieser Schätzung können wir direkt und ohne Annahmen Fuzzy-Beziehungen konstruieren. Im Detail diskutieren wir die Methode der 1-dimensionalen linearen Informationsverteilung. Computersimulationen zeigen, dass die Arbeitseffizienz der neuen Methode um 23% höher ist als die der Histogrammmethode zur Schätzung einer Wahrscheinlichkeitsverteilung. Das Kapitel ist wie folgt gegliedert: In Abschnitt 4.1 führen wir das Konzept der Informationsverteilung ein. In Abschnitt 4.2 geben wir die mathematische Definition der Informationsverteilung. Abschnitt 4.3 beschreibt die Methode der 1-dimensionalen linearen Informationsverteilung. Abschnitt 4.4 zeigt den Nutzen der Informationsverteilung für die Schätzung der Wahrscheinlichkeitsverteilung. In Abschnitt 4.5 konstruieren wir eine Fuzzy-Relationsmatrizen mit der Methode der Informationsverteilung. In Abschnitt 4.6 diskutieren wir ungefähre Inferenz basierend auf der Informationsverteilung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-1785-0_4 83d3100785b679192ba7f4d4fe89c34f;de;;;1.1.;;;Realistisch in Bezug auf Strukturen sein Dieses Kapitel untersucht die Entwicklung des strukturellen Realismus (SR) als eine modifizierte Version des wissenschaftlichen Realismus. Das Problem der Unterbestimmung der Metaphysik durch verschiedene physikalische Theorien verwüstet den wissenschaftlichen Standardrealismus. SR zielt darauf ab, das Problem der metaphysischen Unterbestimmung auf eine Weise zu überwinden, die dem objektorientierten wissenschaftlichen Realismus entzogen ist. Das Kapitel skizziert auch einige wichtige Ansätze für SR, zum Beispiel informationelle SR, und geht auf die Verwendung mathematischer Strukturen durch Strukturrealisten ein, um den Repräsentationsgehalt der Theorien zu reglementieren. Schließlich argumentiere ich, dass, weil die theoretische Vielfalt der Kognitionswissenschaften vom Realismus psychologischer Phänomene ablenkt, die Projektion von SR auf das Gebiet der Kognitionswissenschaften als Strategie zur Stärkung des Realismus über das Selbst angebracht wäre.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-31102-5_2 cdfb4993a70487691730f10d72e22b6d;de;;;1.1.;;;Oxytocin- und Gesichtsemotionserkennung Der Ausdruck von Emotionen in Gesichtern erfüllt zahlreiche sinnvolle Funktionen, wie das Übermitteln von Gefahren- oder Annäherungsbotschaften, die Erleichterung der Kommunikation und die Förderung der Bildung sozialer Bindungen und Beziehungen. Das Studium der Gesichtsausdrücke von Emotionen ist zu einem festen Bestandteil der Forschung in der Sozialpsychologie und den sozialen Neurowissenschaften geworden, insbesondere im Hinblick auf das Neuropeptid Oxytocin. Dieses Kapitel untersucht, wie Oxytocin die Verarbeitung von Emotionen in Gesichtern beeinflusst, indem Studien zur intranasalen Verabreichung von automatischer Verarbeitung, selektiver Aufmerksamkeit und Emotionserkennung untersucht werden. In der Literatur wurden zwei wichtige Trends identifiziert: Exogenes Oxytocin schwächt frühe Aufmerksamkeitsverzerrungen gegenüber negativen Reizen ab und erhöht die selektive Aufmerksamkeit und das Erkennen emotionaler Hinweise in Gesichtern, insbesondere um die Augen. Beide Effekte können auf gut abgegrenzte neuronale Schaltkreise zurückgeführt werden, die Amygdala, frühe visuelle Verarbeitungsbereiche und Belohnungsschaltkreise umfassen, und beide erleichtern angeblich das Annäherungsverhalten, wenn Anschlussmöglichkeiten vorhanden sind. Diese Daten werden in ein konzeptionelles Modell integriert, das kontextuelle Faktoren und moderierende Einflüsse berücksichtigt, da oxytocinerge Wirkungen auf Kognition und Sozialverhalten bei Personen entlang der Indizes der sozialen Kompetenz, zwischenmenschlichen Sensibilität und frühen Widrigkeiten zu variieren scheinen. Einschränkungen dieser Literatur und zukünftige Richtungen für die Forschung werden kurz diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/7854_2017_20 cc7bf53a43e85f17fbd21c2efbf60d36;de;;;1.1.;;;Ein holographisches Modell für assoziative Gedächtnisketten Holographische Gehirnmodelle sind gut geeignet, um bestimmte Gehirnfunktionen zu beschreiben. Zentralnervensysteme und holographische Systeme weisen beide eine parallele Informationsverarbeitung und eine nicht lokalisierte Speicherung auf. Beide Systeme verwenden zur Verarbeitung von Informationen Korrelationsfunktionen, die eine Entwicklung von kybernetischen Gehirnmodellen im Sinne der Holographie nahelegen. Die assoziative holographische Speicherung erfolgt mit zwei gleichzeitig existierenden Mustern. Sie können sich gegenseitig rekonstruieren. Zeitsequentiell existierende Muster werden zu assoziativen Ketten verbunden, wenn jeweils zwei aufeinanderfolgende Muster innerhalb eines gemeinsamen Zeitraums existieren, um paarweise gespeichert zu werden. Das Auslesen (Abrufen) von assoziativen Ketten – die Rekonstruktion gekoppelter Muster, die nicht gleichzeitig existierten – erfordert fortgeschrittene holographische Techniken. Drei verschiedene Methoden werden beschrieben und experimentell getestet. Die zugrunde liegenden Prinzipien sind;-;-;-;https://link.springer.com/article/10.1007/BF00337260 12050065084816010afa343002011e99;de;;;1.1.;;;Zu Fragen der Fairness und Zeitlogik für konfliktfreie Petrinetze In diesem Beitrag untersuchen wir die Komplexität des Fair-Nontermination-Problems für konfliktfreie Petrinetze unter verschiedenen Fairness-Definitionen. Für jede Fairnessdefinition können wir zeigen, dass das Problem entweder für NP, PTIME oder NLOGSPACE vollständig ist. Wir gehen dann der Frage nach, ob sich diese Ergebnisse auf das allgemeinere Model-Checking-Problem in Bezug auf die von Suzuki eingeführte temporale Logik für Petrinetze erstrecken. Da viele der Model-Checking-Probleme bezüglich endlicher Systeme auf eine Version des Fair-Nontermination-Problems reduziert werden können, erscheint es plausibel, dass das Model-Checking-Problem für konfliktfreie Petrinetze entscheidbar wäre. Es stellt sich jedoch heraus, dass Model Checking für konfliktfreie Petrinetze nicht entscheidbar ist, wenn die Logik nicht stark eingeschränkt ist. Insbesondere ist das Problem auch dann unentscheidbar, wenn Formeln die Form Gf (invariant f) haben, wobei f keine temporalen logischen Operatoren enthält. Andererseits zeigen wir, dass die Modellprüfung für konfliktfreie Petrinetze NP-vollständig ist für;-;-;-;https://link.springer.com/chapter/10.1007/3-540-50580-6_30 a3ab2abe07390a32ecde9eaa1a4d48e8;de;;;1.1.;;;Globale Lieferkettenkontrolle Der Betrieb eines globalen Fertigungsnetzwerks ist aufgrund der Komplexität des Produkt- und Informationsflusses, der Vielfalt der Standorte, der Lokalisierung und der Prozesse sowie der für die Steuerung erforderlichen Informationsverarbeitung eine Herausforderung. Daher muss die Informationstechnologie entwickelt werden, um diese Komplexität zu bewältigen und Entscheidungshilfen für die Steuerung des Netzwerks zu entwickeln. In diesem Beitrag wird das Konzept des Globalen Kontrollzentrums für die Herstellungstätigkeit auf der Grundlage von Forschungen zu einem norwegischen Anbieter von Angelhaken entwickelt. Die wichtigsten Elemente des GCC sind das globale Kontrollmodell, das Leistungsmesssystem, die IKT-Lösungen sowie die Organisation und die physische Umgebung. Um den GCC zu verwirklichen, sind die Hauptherausforderungen IKT-Investitionen und Standardisierung sowie das Management von Veränderungen und organisatorischen Widerständen. Die in diesem Papier vorgestellten Ergebnisse sind noch nicht kollektiv umgesetzt und erprobt und sind daher nur als konzeptionelle Vorschläge zu sehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-74157-4_19 c4f9ccf37e59ab6c27d9f2e0835a0f6a;de;;;1.1.;;;Erklärungsformen und warum sie wichtig sein können In den Augen und Händen von Journalisten, Hochschulverwaltungen, Stipendiaten und Forschungsstudenten drohen Erklärungen aus den Neurowissenschaften die aus der Psychologie zu ersetzen. Wenn es zu einer Ersetzung kommt, wird ein Großteil der Psychologie nur als Teil der historischen Aufzeichnungen existieren. Es kann daher hilfreich sein zu verstehen, welche Erklärungsformen von den beiden Feldern verwendet werden. Ein solches Verständnis kann uns helfen zu erklären, wie jedes Feld zum anderen beitragen kann und warum sie unterschiedlich sind. Ich überprüfe mehrere Vorlagen für psychologische und neurowissenschaftliche Erklärungen und kritisiere einige andere. Ich argumentiere, dass Psychologie (und Neurowissenschaften) weiterhin existieren sollten. Neurowissenschaft ist nicht besser als Psychologie und kann Psychologie nicht ersetzen.;-;-;-;https://link.springer.com/article/10.1186/s41235-018-0143-2 8f08dfdfedc00a627f53929e02349190;de;;;1.1.;;;Semantische automatische Fehlererkennung für chinesischen Text basierend auf semantischer Abhängigkeitsbeziehung Die automatische Fehlererkennung für chinesischen Text ist eines der wichtigsten Themen im Bereich der chinesischen Informationsverarbeitung. Die aktuelle Studie zur Textfehlererkennung konzentriert sich auf Wort- und Syntaktikebene, aber die semantische Fehlererkennung hat nicht genug Aufmerksamkeit bekommen. Aus diesem Grund haben wir semantische Kollokationen von Sätzen untersucht und eine Wissensdatenbank zur Wortabhängigkeit aufgebaut. In Kombination mit der Beschreibung des Wortkonzepts in HowNet haben wir eine semantische Fehlererkennungsstrategie für chinesischen Text vorgeschlagen. Experimentelle Ergebnisse zeigen, dass dieses Verfahren eine bessere Leistung bei der Erkennung von semantischen Fehlern aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45185-0_43 67babaf5a74492eb50380009991593d6;de;;;1.1.;;;Entwicklung sozialer Angst: Soziale Interaktionsprädiktoren für implizite und explizite Angst vor negativer Bewertung Es ist wenig darüber bekannt, wie man vorhersagen kann, welche Personen mit bekannten Temperaments-Anfälligkeiten später soziale Angstprobleme entwickeln werden. Jugendliche (;-;-;-;https://link.springer.com/article/10.1007/s10802-006-9084-1 ce78472f33a4875b646a1eab18c6eef9;de;;;1.1.;;;Timing- und Zählpräzision im Blowfly Visual System Wir messen die Zuverlässigkeit von Signalen auf drei Ebenen innerhalb des visuellen Systems der Schmeißfliege und präsentieren einen theoretischen Rahmen zur Analyse der experimentellen Ergebnisse, ausgehend vom Poisson-Prozess. Wir finden, dass Schmeißfliegen-Photorezeptoren bis zu Frequenzen von 50–100 Hz und Photoneneinfangraten von bis zu etwa 3 · 10;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-21703-1_8 872f57ec704920afa3b52ba42ed5fbd1;de;;;1.1.;;;Multi-Agent-Systementwicklungskit Die jüngsten Forschungen im Bereich der Multi-Agent-Technologie haben eine wachsende Aufmerksamkeit sowohl der wissenschaftlichen Gemeinschaft als auch der Industrie auf sich gezogen. Diese Aufmerksamkeit wird durch die leistungsstarken Fähigkeiten der Multi-Agent-Technologie, die es ermöglicht, verteilte intelligente Systeme in großem Maßstab zu schaffen, und andererseits durch den praktischen Bedarf der Industrieunternehmen nach fortschrittlicher und zuverlässiger Technologie zur Lösung praktisch wichtiger Probleme gefordert. Eine der wichtigsten Fragen der Forschung ist derzeit die Entwicklung leistungsfähiger Methoden für das Engineering agentenbasierter Systeme und die Entwicklung effektiverer und effizienterer Werkzeuge, die die Implementierung von angewandten Systemen unterstützen. Der Artikel stellt eines dieser Tools vor, das Multi Agent System Development Kit, das auf der Gaia-Methodik basiert und diese implementiert. Es unterstützt den gesamten Lebenszyklus der Multi-Agent-Systementwicklung und bewahrt die Integrität der Lösungen, die in verschiedenen Phasen des Entwicklungsprozesses produziert werden.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-23152-8_9 12d62b8d68ffc8e4decf43ab76dd2184;de;;;1.1.;;;Psychologische Determinanten der Entscheidungsfindung Entscheidungsfindung wurde in vielen wissenschaftlichen Bereichen untersucht. Es sind jedoch psychologische Studien, die einen bedeutenden Beitrag zum Verständnis der Mechanismen geleistet haben, die der Entscheidungsfindung von Individuen zugrunde liegen. Der Zweck dieses Kapitels ist zunächst die Beschreibung von mentalen Prozessen, auch Entscheidungsaktivitäten genannt, die an verschiedenen Phasen der Entscheidungsfindung beteiligt sind. Der zweite Zweck besteht darin, zwei Systeme der Informationsverarbeitung vorzustellen, die in unterschiedlichem Maße in den Prozess eingebunden sind. Darüber hinaus beschreibt das Kapitel die Strategie der Entscheidungsfindung, d. h. die Heuristiken, die schnelles und wirtschaftliches Handeln ermöglichen. Es definiert auch die Rolle des freien Willens und der Selbstkontrolle in den Entscheidungsprozessen. Von zentraler Bedeutung ist die psychologische Erklärung des Entscheidungsprozesses unter Unsicherheit sowie die Diskussion möglicher negativer Folgen komplexer Entscheidungen von Individuen, Gruppen und Gemeinschaften.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-62938-4_2 2506de0a01725d645461d43b1398af7b;de;;;1.1.;;;Öffentliches Verständnis der Verhaltensgenetik: Integration von heuristischem Denken, motiviertem Denken und Theorien des geplanten sozialen Wandels für bessere Kommunikationsstrategien Der Bereich der Verhaltensgenetik erlebt nach der Entwicklung genomweiter Assoziationsstudien und der Verfügbarkeit großer Datensätze internationaler Konsortien eine Revolution. Dieser rasche Wandel könnte die bestehenden Lücken zwischen Grundlagenforschung, Übersetzung und öffentlichem Verständnis der Wissenschaft vergrößern. In der vorliegenden Arbeit wollen wir zentrale Erklärungen zur Entwicklung des öffentlichen Verständnisses von sozialwissenschaftlichen Fragestellungen zusammenfassen. Wir schlagen vor, dass die Integration von Dualprozess-, motivierten Argumentationstheorien und Change-Management-Theorien das Ausmaß erhöhen wird, in dem wir verstehen und ändern können, wie Menschen auf Erkenntnisse aus der Verhaltensgenetik reagieren.;-;-;-;https://link.springer.com/article/10.1007/s10519-019-09964-9 c2461f7dd67dcf1355592827bf0425e7;de;;;1.1.;;;Ein neues Inferenzsystem für neuronale Netze mit Stützvektoren In diesem Beitrag stellen wir ein neues Support-Vektor-Neural-Network-Inferenzsystem (SVNNIS) für die Regressionsschätzung vor. Die Struktur des vorgeschlagenen SVNNIS kann ähnlich wie bei der Support-Vektor-Regression (SVR) erhalten werden, während die Ausgabe des SVNNIS im Vergleich zum SVR unverzerrt ist und die Gewichte durch die rekursive Methode der kleinsten Quadrate mit Vergessensfaktor aktualisiert werden können. Der Vorteil dieses Systems ist seine gute Generalisierungsfähigkeit. Das Simulationsergebnis veranschaulicht die Wirksamkeit des vorgeschlagenen SVNNIS.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-23152-8_60 f3a40bec1bd8bf25ec60e3d683a3db9d;de;;;1.1.;;;Prozessdesign, Workflow-Entwicklung sowie Wissens- und Informationstransfer Dieses Papier beschreibt einen neuen wissenschaftlichen und industriell bewährten Ansatz für Prozessdesign, Workflow-Entwicklung und -Bereitstellung sowie Wissens-, Informations- und IT-Lösungstransfer. Möglich wird der neue Ansatz durch prozessorientierte Methoden und Denkweisen, die Entwicklung von Active Knowledge Models, die schnell wachsende Verfügbarkeit von Workflow-Methoden und -Werkzeugen im World Wide Web (www) und jüngste Fortschritte in der kollaborativen Vernetzung.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35067-7_11 352fdd3c30a6a0d694447cc650e79e5b;de;;;1.1.;;;Persönlichkeit und Intelligenz in der Arbeits- und Organisationspsychologie Die Disziplin der Arbeits- und Organisationspsychologie (I/O) konzentriert sich auf das Verständnis des menschlichen Verhaltens im Kontext der Arbeit. Seit dem Aufkommen der I/O-Psychologie als wissenschaftliches Forschungsgebiet in den USA um die Jahrhundertwende beschäftigen sich I/O-Psychologen mit einer Vielzahl von Themen, darunter Personalauswahl und -vermittlung, Berufsausbildung, Aufgabengestaltung , Arbeitnehmermotivation, organisatorische Einflüsse auf das Arbeitsverhalten und Verfahren zur Optimierung der Arbeitsleistung und Arbeitnehmereffizienz. (Für Übersichten über diese und andere I/O-Bereiche siehe Dun-nette, 1976, Dunnette & Hough, 1990, 1991, 1992.) Aus der Perspektive individueller Unterschiede können jedoch zwei grundlegende Fragen vorgeschlagen werden, die einem Großteil der I/O O Theorie und Forschung: (a) Welche Rolle spielen kognitive und individuelle Unterschiede bei der Bestimmung der Arbeitsleistung? (b) Wie können individuelle Differenztheorien und Bewertungsmaßstäbe verwendet werden, um Vorhersagen über die Passung zwischen einer Person und einem Arbeitsplatz zu verbessern?;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-5571-8_26 9fb7b443f689b0b80a04bc6eb95b7ac5;de;;;1.1.;;;Starke räumliche Wahrnehmung Die Fähigkeit, räumliche Aufgaben zu erfüllen, ist entscheidend für den Alltag und von großer Bedeutung für kognitive Agenten wie Menschen, Tiere und autonome Roboter. Natürliche verkörperte und situierte Agenten lösen räumliche Aufgaben oft ohne detaillierte Kenntnisse über geometrische, topologische oder mechanische Gesetze. Dementsprechend schlagen wir ein kognitives Verarbeitungsparadigma vor, das das raum-zeitliche Substrat zu einem integralen Bestandteil der Problemlösungsmaschine macht. Wir zeigen, wie räumliche und zeitliche Strukturen in Körper und Umwelt den Denkaufwand in Rechenprozessen unterstützen und ersetzen können: Physische Manipulation und Wahrnehmung in räumlichen Umgebungen ersetzen bei diesem Ansatz formale Berechnungen. Das;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23374-1_4 7fc399dee478abf958562ca1fe51ce0e;de;;;1.1.;;;Anwendung der sozialkognitiven Theorie zur Untersuchung relationaler Aggression in der frühen Adoleszenz: Eine Analyse innerhalb und zwischen den Personen In den letzten zwei Jahrzehnten wurde viel über die relationale Aggression von Kindern geforscht, die mit psychosozialen Problemen in Verbindung gebracht wurde. Längsschnittstudien haben Veränderungen der relationalen Aggression während der frühen Adoleszenz in Bezug auf individuelle Merkmale untersucht, jedoch vergleichen die meisten Studien individuelle Unterschiede zwischen Menschen hinsichtlich der Rate der relationalen Aggression. Ein Manko der aktuellen Literatur ist das Fehlen von Studien, die einen mehrstufigen Ansatz verwenden, um individuelle Unterschiede (zwischen Personen) sowie das Ausmaß, in dem Individuen von ihren eigenen abweichen, zu untersuchen;-;-;-;https://link.springer.com/article/10.1007/s10964-018-0910-x c1d166a70188df16bc2f08e6acc28d83;de;;;1.1.;;;Ein kognitiver Rahmen zur Erklärung von Strategien zur seriellen Verarbeitung und zur Sequenzausführung Die Verhaltensforschung hat viele aufgabenspezifische kognitive Modelle hervorgebracht, die nicht viel über die zugrunde liegende Informationsverarbeitungsarchitektur aussagen. Eine solche Architektur wird dringend benötigt, um besser zu verstehen, wie die kognitive Neurowissenschaft von bestehenden kognitiven Modellen profitieren kann. Dieses Problem ist besonders im Bereich des sequentiellen Verhaltens relevant, wo die Verhaltensforschung eine Vielfalt kognitiver Prozesse, Verarbeitungsmodi und Repräsentationen nahelegt. Inspiriert von jahrzehntelanger Forschung zur Reaktionszeit (RT) mit der additiven Faktorenmethode, dem Paradigma der psychologischen Refraktärzeit und der Aufgabe der diskreten Sequenzproduktion, schlagen wir den kognitiven Rahmen für sequenzielles motorisches Verhalten (C-SMB) vor. Wir argumentieren, dass C-SMB für kognitive Modelle verantwortlich ist, die für eine Reihe von sequentiellen motorischen Aufgaben entwickelt wurden (wie die von Keele et al. vorgeschlagenen,;-;-;-;https://link.springer.com/article/10.3758/s13423-014-0773-4 a8414db32ffdd5c2f3bd3da7c605ed6d;de;;;1.1.;;;Verbindungen und Trennungen zwischen Darstellungs- und Ausdrucksebenen In welchen dieser Fälle ist es angemessen und ratsam, die verbale Herangehensweise an die Bildsprache zu verwenden, und in welchen ist es angemessener, die verschiedenen Aspekte des visuellen Ausdrucks zu verwenden? Wie beeinflusst der Medieneinsatz die verschiedenen Bildebenen?;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-0444-0_6 ff51ec26e311143056153714a3910c68;de;;;1.1.;;;Ein kognitives Hierarchiemodell des Lernens in Netzwerken Dieser Beitrag schlägt eine Methode zur Schätzung eines hierarchischen Modells der begrenzten Rationalität in Lernspielen in Netzwerken vor. Eine kognitive Hierarchie umfasst eine Reihe von kognitiven Typen, deren Verhalten von zufällig bis im Wesentlichen rational reicht. Insbesondere entspricht jeder kognitive Typ im Modell der Anzahl der Perioden, in denen Wirtschaftsakteure neue Informationen verarbeiten. Mit experimentellen Daten schätzen wir Typverteilungen in einer Vielzahl von Aufgabenumgebungen ab und zeigen, wie geschätzte Verteilungen von den strukturellen Eigenschaften der Umgebungen abhängen. Die Schätzergebnisse identifizieren signifikante Niveaus der Verhaltensheterogenität in den experimentellen Daten und bestätigen insgesamt vergleichende statische Vermutungen zu Typverteilungen in Aufgabenumgebungen. Überraschenderweise repliziert das Modell die aggregierten Verhaltensmuster in den Daten recht gut. Schließlich fanden wir heraus, dass der dominante Typ in den Daten eng mit Bayes-rationalem Verhalten zusammenhängt.;-;-;-;https://link.springer.com/article/10.1007/s10058-012-0126-6 4d99659d38dd759556403579817a5a97;de;;;1.1.;;;Drei Katechismen für das soziale Gedächtnis Alle menschliche Existenz ist sozial. Das Leben des Individuums beginnt dyadisch, unabhängig davon, ob der Beginn im Moment der Empfängnis oder zum Zeitpunkt der Geburt markiert ist, und nimmt über den gesamten Lebensverlauf an sozialer Komplexität zu. Körperliche und seelische Bedürfnisse werden seit frühester Zeit durch sozialen Austausch befriedigt. Es ist daher vernünftig anzunehmen, dass sich das menschliche kognitive System entwickelt hat, um dieser sozialen Realität gerecht zu werden. Gedächtnisstrukturen und -mechanismen müssen zusammen mit ihren neurologischen Substraten in der Lage sein, mit den sozialen Agenten in ihrer Umgebung umzugehen (und auch darauf zurückzugreifen).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-3500-2_10 d59125b488d0093aa2dcd5d76b776f87;de;;;1.1.;;;Leistungsinterpretation in einem intelligenten Hilfesystem Intelligente Hilfesysteme müssen die Aktionen des Benutzers verfolgen, um seine Leistung zu überwachen. Das Hilfesystem überwacht die Leistung des Benutzers, um zu erkennen, ob der Benutzer seine Fähigkeiten mit dem Informationsverarbeitungssystem erreicht. Wenn der Benutzer Fehler macht oder ineffizient arbeitet, wird das Hilfesystem die Benutzeraktionen diagnostizieren, um Fehleinschätzungen des Benutzers zu beheben oder effizientere Wege zur Ausführung von Aufgaben im Informationsverarbeitungssystem einzuführen. Das Papier diskutiert die Leistungsinterpretation in Eurohelp (Esprit-Projekt P280).;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-1063-8_20 62b8ff7012e9bb4c429f351e50734da0;de;;;1.1.;;;Vom Entwurf eines einzelnen neuronalen Netzes bis zum Entwurf neuronaler Netzensembles Dieses Papier stellt das Modell des überwachten Lernens vor und stellt die Forschungsarbeit in Zusammenhang mit Umfragen vor. Das Papier ist wie folgt aufgebaut. Zunächst wird ein überwachtes Lernmodell beschrieben. Der Bias-Varianz-Trade-off wird dann für das überwachte Lernmodell diskutiert. Basierend auf dem Bias-Varianz-Trade-off werden sowohl die Ansätze für einzelne neuronale Netze als auch die Ansätze für das Ensemble neuronaler Netze zusammengefasst und Probleme mit den bestehenden Ansätzen aufgezeigt. Schließlich schließt der Beitrag mit der Angabe möglicher zukünftiger Forschungsrichtungen.;-;-;-;https://link.springer.com/article/10.1007/BF02899473 1c88e0b63646f4e06212e47ea34d8447;de;;;1.1.;;;Unbegrenzte Rationalität Der Artikel diskutiert begrenzte und unbegrenzte Rationalität in zweckmäßigen komplexen adaptiven Systemen (PCAS), die durch das Evolutionary Systems Design (ESD) Framework modelliert wurden. Begrenzte Rationalität ist nach Herbert Simon die Rationalität der Erkenntnis. Unbegrenzte Rationalität ist die verallgemeinerte Rationalität der mathematisch repräsentierten Verbundenheit, der Spiritualität und der richtigen Entscheidung/Verhandlung. Es werden operative Verfahren zur Definition/Lösung und Validierung eines Problems in Gruppenentscheidungen und Verhandlungen unter uneingeschränkter Rationalität diskutiert. Mit humanem PCAS als Schwerpunkt betrachtet die Arbeit die Rationalität in Multiagentensystemen mit natürlichen und/oder künstlichen Wirkstoffen allgemeiner.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008708222157 6b35993e87d64ab4a51068821e6e49da;de;;;1.1.;;;Erstellen eines Satzes optimaler Objekte mit partiellen Präferenzinformationen Es wird eine strenge Formulierung des Problems gegeben, eine Menge zu erzeugen, die eine bestimmte Anzahl von bevorzugten Komponenten aus einem vorgegebenen endlichen Aggregat von Objekten enthält, wobei eine partielle Quasiordnung definiert ist. Die Eigenschaften der optimalen und nicht dominierten Mengen, die Objekte beinhalten, werden untersucht.;-;-;-;https://link.springer.com/article/10.3103/S0147688210050047 3a7e1447556162238985a9a91f22ed98;de;;;1.1.;;;Verortung von Fallstudien im Forschungsparadigma Design Science: Eine Instanz für kollaborative Netzwerke Eine rigorose Bewertung eines Artefakts ist einer der grundlegenden Aspekte, die in Design Science Research-Projekten berücksichtigt werden müssen. Dieser Bewertungsteil wird noch schwieriger, wenn für ein Projekt eine Vielzahl von Artefakten entworfen werden müssen. Dies kann eine Herausforderung für den Bereich der kollaborativen Netzwerke sein, der Wissen aus mehreren wissenschaftlichen Disziplinen einbezieht. Fallstudien sind eine der Evaluationsmethoden in der Design Science Research, die für eine;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-45390-3_45 7ae3fa515a9907d5c0d73952febdeeba;de;;;1.1.;;;Was ist Supermentalismus? In diesem Kapitel: Unterscheiden wir die Supermind-Ansicht, die wir manchmal mit „Supermentalismus“ bezeichnen, vom Computationalismus, erklären die zentrale Bedeutung der Persönlichkeit und verwandter Konzepte (z. B. Kognition) für unser Projekt und geben, wie versprochen, eine detailliertere Vorschau der Argumente für den Supermentalismus, die später im Buch kommen. Nebenbei bieten wir eine Einführung in Hypercomputation.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0283-7_1 2050dcdc27703356571b924f65bf9d73;de;;;1.1.;;;Ein Überblick über künstliche Immunsysteme und ihre Anwendungen Das natürliche Immunsystem ist aufgrund seiner leistungsstarken Fähigkeiten zur Informationsverarbeitung ein Thema von großem Forschungsinteresse. Aus der Perspektive der Informationsverarbeitung ist das Immunsystem ein hochgradig paralleles System. Es liefert ein ausgezeichnetes Modell für adaptive Prozesse, die auf lokaler Ebene funktionieren, und für nützliches Verhalten, das auf globaler Ebene entsteht. Darüber hinaus verwendet es Lernen, Gedächtnis und assoziatives Abrufen, um Erkennungs- und Klassifikationsaufgaben zu lösen. Dieses Kapitel veranschaulicht verschiedene immunologische Mechanismen und ihre Beziehung zur Informationsverarbeitung und gibt einen Überblick über das sich schnell entwickelnde Gebiet der künstlichen Immunsysteme. Diese Techniken wurden erfolgreich bei der Mustererkennung, Fehlererkennung und -diagnose, Computersicherheit und einer Vielzahl anderer Anwendungen verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-59901-9_1 71cec0e39fffbe96a3528a8f4411e2ad;de;;;1.1.;;;Veränderungen der neuropsychologischen Funktion mit fortschreitender HIV-1-Infektion: Ergebnisse einer 8-jährigen Langzeituntersuchung Trotz des Aufkommens wirksamerer Behandlungen für die HIV-1-Infektion treten kognitive Beeinträchtigungen immer noch häufig auf und es bleibt die Frage, welche Bereiche der Beeinträchtigung in den verschiedenen Krankheitsstadien häufiger auftreten. Diese Studie untersuchte die kognitive Leistungsfähigkeit über einen Zeitraum von 8 Jahren bei 59 HIV-1-seropositiven (HIV-1;-;-;-;https://link.springer.com/article/10.1023/B%3AAIBE.0000044081.42034.54 d26a80b23a08b34496f51599f9574872;de;;;1.1.;;;Analyse der Auswahlstabilität für die partielle Präferenzrelation Es wird ein Ansatz vorgeschlagen, um zu analysieren, ob ein Satz nicht dominierter Alternativen stabil ist (empfindlich in Bezug auf die Änderungen der Parameterwerte des Modells der Auswahlsituation). Innerhalb des entwickelten Ansatzes haben sich lineare Programmiertechniken als effizient erwiesen, um die Sensitivität der Lösung für ein multikriterielles Auswahlproblem zu analysieren, das durch Methoden der Kriterien-Bedeutungstheorie gewonnen wurde.;-;-;-;https://link.springer.com/article/10.3103/S014768821105008X 611c4c04d7885d3f11adf15bb258060e;de;;;1.1.;;;Eine netzwerktheoretische Sicht auf die thalamo-kortikale Schleife Wir verwendeten einen netzwerktheoretischen Ansatz, der auf der dynamischen Kernhypothese (DCH) basiert, um die thalamo-corticale Schleife (TCL) und ihre Untergruppen hinsichtlich ihrer Rolle im Bewusstsein zu untersuchen. Wir haben die Zusammenstellung von Konnektivitätsdaten auf dem;-;-;-;https://link.springer.com/article/10.1007/s11062-015-9463-8 ead4f46bd9d5edda3b02d804d97c6bda;de;;;1.1.;;;Wut im sozialen Konflikt: Situationsübergreifende Vergleiche und Vorschläge für die Zukunft Dieser Artikel gibt einen Überblick über die Forschung zur Rolle von Wut in Konflikten. Wir unterscheiden zwischen intrapersonalen und interpersonalen Wutauswirkungen, wobei sich erstere auf den Einfluss der Wutgefühle der Parteien auf ihr eigenes Verhalten und letztere auf die Auswirkungen der Wut einer Partei auf das Verhalten der anderen bezieht. Wir vergleichen außerdem die Auswirkungen von Wut in einer Vielzahl von Konfliktsituationen, einschließlich Verhandlungen, Ultimatumverhandlungen, Gefangenendilemma, Ressourcendilemma und Koalitionsbildung. Auf intrapersonaler Ebene ist Wut in allen Konfliktsituationen mit Konkurrenz verbunden. Im Gegensatz dazu unterscheiden sich die zwischenmenschlichen Auswirkungen von Wut in den verschiedenen Situationen, wobei Wut manchmal Kooperation hervorruft, manchmal Konkurrenz hervorruft und manchmal keine Wirkung hat. Basierend auf der untersuchten Forschung kommen wir zu dem Schluss, dass die zwischenmenschlichen Auswirkungen von Wut in Konflikten vom Grad der Interdependenz der Parteien, ihren Tendenzen zur Informationsverarbeitung und der Berechtigung der Wutausdrücke bestimmt werden.;-;-;-;https://link.springer.com/article/10.1007/s10726-007-9092-8 6da0a04662518963cc350ea08eb07b5f;de;;;1.1.;;;Komplexität managen: Von der visuellen Wahrnehmung zu nachhaltigen Übergängen – Beiträge von Brunswiks Theorie des probabilistischen Funktionalismus Die Bewältigung der Vielzahl von Informationen, Beziehungen und Dynamiken der biotischen und abiotischen Umwelt ist eine grundlegende Voraussetzung für das Überleben jedes organismischen Systems. Dieser Beitrag diskutiert, welchen Beitrag die Theorie des probabilistischen Funktionalismus (TPF) von Egon Brunswik (1903–1955), die ursprünglich für die visuelle Wahrnehmung (einschließlich bestimmter kognitiver Prozesse) und später für das Urteilen entwickelt wurde, heute leisten kann. Der vorliegende Beitrag führt aus, dass die Prinzipien von TPF über das übliche auf Gewichtung und Regressionsanalyse basierende Modell der Informationsverarbeitung hinausgehen, das mit dem Brunswikian Lens Model in Verbindung gebracht wurde. Wir argumentieren, dass Brunswiks TPF eher grundlegende Prinzipien dafür liefert, wie Organismen bei der Verarbeitung von Hinweisen mit komplexen Umweltsystemen interagieren (anstelle von Informationen) und somit in der Lage sind, evolutionär stabile Darstellungen und Urteile über die Umwelt zu produzieren. TPF wurde ohne Bezugnahme auf physiologische Prozesse formuliert. Die vorliegende Arbeit soll zeigen, wie gut diese Prinzipien mit aktuellen biophysikalischen und neurophysiologischen Erkenntnissen, Modellen und Empfindungssimulationen korrespondieren. Anschließend diskutieren wir, inwiefern Planungsgruppen als Organismen angesehen werden können und wie Gruppen auf der Ebene des Individuums und darunter (biologischen) Organismen ähneln und sich von diesen unterscheiden. Darauf aufbauend schlagen wir vor, wie die Prinzipien des TPF verwendet werden können, um die Aktivitäten von Planungsgruppen bei der Konstruktion von Planungsvarianten oder Szenarien für einen nachhaltigen Übergang zu beschreiben. Wir veranschaulichen die Art und Weise, in der Planungsgruppen (unter idealen Bedingungen, die in idealen transdisziplinären Prozessen bereitgestellt werden können) Prinzipien wie der stellvertretenden Mediation folgen. Hier reflektieren wir, wie entscheidungstheoretische Werkzeuge (wie Formative Scenario Analysis und Multi-Attribute Decision Analysis) dazu dienen können, robuste (d. h. „evolutionär stabile“) Orientierungen für die Zukunft zu konstruieren. Es ist schwierig, große Theorien wie TPF zu validieren. Ein besonderes Augenmerk wird daher auf die Frage gelegt, wie Validierungsstrategien (nach normalen wissenschaftlichen Prinzipien) für verschiedene Prinzipien und TPF als solche entwickelt werden können. Wir schließen daraus, dass (im Kontext eines nachhaltigen Übergangs) TPF aus einer deskriptiven, präskriptiven und normativen Perspektive genutzt werden kann. Alle drei Perspektiven erfordern unterschiedliche Validierungsstrategien.;-;-;-;https://link.springer.com/article/10.1007/s10669-017-9655-4 46a940cf68e8fb1d2ffbf058ac772baa;de;;;1.1.;;;"Erwin Schroedinger, Francis Crick und epigenetische Stabilität Schrödingers Buch ""Was ist das Leben?"" wird weithin anerkannt, eine entscheidende Rolle bei der Entwicklung der Molekular- und Zellbiologie gespielt zu haben. Mein Aufsatz befasst sich mit den in diesem Buch aufgeworfenen Fragen aus der modernen Perspektive der Epigenetik und Systembiologie. Ich stelle zwei Klassen potenzieller Mechanismen epigenetischer Stabilität gegenüber: „epigenetic temmplating“ und „systembiologisch“ und betrachte sie aus der Sicht von Schrödinger. Ich diskutiere auch, wie die Quantenverschränkung, ein nichtklassisches Merkmal der Quantenmechanik, dazu beitragen kann, das „Problem der kleinen Zahlen“ anzugehen, das Schroedinger dazu veranlasste, die Idee eines molekularen Code-Skripts zur Erklärung der Stabilität biologischer Ordnung zu fördern.";-;-;-;https://link.springer.com/article/10.1186/1745-6150-3-15 a2f0e07b95307f153a9c3eb8305c9158;de;;;1.1.;;;JPEG 2000 Image Coding Standard – Eine Übersicht und Anwendungen Die Joint Photographic Experts Group hat kürzlich einen neuen Bildcodierungsstandard namens JPEG 2000 geschaffen, der in verschiedenen Multimedia-Anwendungen verwendet werden soll. Der JPEG 2000-Standard integriert Funktionen wie gute Qualität bei verlustfreier und verlustbehafteter Komprimierung, eingebettete verlustbehaftete bis verlustfreie Codierung, progressive Übertragung durch Pixelgenauigkeit und Auflösung, Robustheit gegenüber dem Vorhandensein von Bitfehlern und ROI - Kodierung der Region, die nicht vorgestellt wurde in bestehenden Komprimierungsalgorithmen bisher.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-73137-7_27 d9ef16461e23f223bd89029cb8b8b98d;de;;;1.1.;;;Ressourcenschonung: Über Strukturen, Energien, Pools und Aufmerksamkeitsverteilung In der Theorie der menschlichen Leistungsfähigkeit werden Veränderungen der Leistungsqualität oder der Zeit, die eine Person benötigt, um eine Aufgabe zu erledigen, häufig mit Bezug auf einige zugrunde liegende Einschränkungen des menschlichen Verarbeitungs- und Reaktionssystems interpretiert. Defizite und Interferenzen bei der Ausführung gleichzeitiger Aufgaben werden ebenfalls als Ausdruck derselben Einschränkungen angesehen, wobei zusätzlich die Notwendigkeit besteht, gleichzeitige, aber getrennte Aktivitätenreihen zu koordinieren. Typische Beispiele sind die erhöhte Latenz und die verringerte Genauigkeit von Antworten, wenn die Speicherauslastung erhöht wird, oder die Verringerung der Tracking-Genauigkeit, wenn diese Aufgabe zeitlich mit einer Reaktionszeit-Aufgabe geteilt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-4448-0_25 b8d06936d4c5647756c6c97cc9070899;de;;;1.1.;;;Zur fraktalen Natur der Menge aller binären Folgen mit nahezu perfektem linearem Komplexitätsprofil Stromchiffren verwenden normalerweise eine Art von pseudozufällig erzeugten Bitfolgen, die dem Klartext hinzugefügt werden. Die kryptographischen Eigenschaften solcher Binärsequenzen lassen sich in Form des sogenannten linearen Komplexitätsprofils angeben. Diese Arbeit zeigt, dass die Menge aller Sequenzen mit einem nahezu perfekten linearen Komplexitätsprofil auf eine fraktale Teilmenge von [0, 1] abgebildet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34943-5_19 e6b539ad84ec39d9a07ff3c7a808d858;de;;;1.1.;;;Ein Überblick über 326 Kinder mit Entwicklungs- und körperlichen Behinderungen, die nacheinander an der Bewegungsentwicklungsklinik unterrichtet wurden: Prävalenz und Interventionsergebnisse von Kindern mit DCD Die Daten von 326 Kindern, die nacheinander in einer Sportklinik unterrichtet wurden, wurden überprüft. Nur 63 Kinder (39 Männer, 24 Frauen) (19%) erfüllten die diagnostischen Kriterien für Entwicklungskoordinationsstörungen (DCD), die von der American Psychiatric Association (;-;-;-;https://link.springer.com/article/10.1007/s10882-008-9102-z 456ac498f9981600e715a9dc1aca882a;de;;;1.1.;;;Integrationstheorie und optimale Anwendung des Verkehrsunfallmanagementsystems Mit der Entwicklung der Sozialwirtschaft wird der traditionelle Verkehrsträger durch den neuen Verkehrsträger ersetzt, der die Integration und Zusammenarbeit zwischen den Verkehrsträgern betont. Die Automobilisierung in China hat den Druck des Straßenverkehrs weiter erhöht. Der durch Verkehrsunfälle verursachte Staualarm nimmt von Jahr zu Jahr zu. Die kleinen Unfälle, die schnell bewältigt werden können, machen mehr als 70 % der Verkehrsunfälle aus. Traditionell entscheiden sich Autobesitzer bei kleineren Unfällen oft dafür, an Ort und Stelle zu bleiben und darauf zu warten, dass sich die Verkehrspolizei darum kümmert. Es ist leicht, „kleine Unfälle und große Staus“ zu verursachen, die zu einer Überlastung einer Straße, einer Brücke und sogar einer Blockade führen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-15235-2_16 1b15bf85b86c85c5bd44b448a2af34ab;de;;;1.1.;;;Elektronische Neuronenmodelle als Hilfsmittel für die neurophysiologische Forschung Bekanntlich sind die Zeitverläufe vieler physiologischer und elektrischer Phänomene recht ähnlich. Daher können elektrische und elektrochemische Modelle verwendet werden, um physiologische Prozesse zu simulieren [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-94837-4_7 34dfbb29b06ee4d2490f6160982da1fd;de;;;6.2.;;;Persönlichkeitsmerkmale, Arbeitsbedingungen und Gesundheit: eine empirische Analyse auf Basis des Deutschen Linked Personnel Panels, 2013–2017 Wir führen eine umfassende Analyse der Gesundheitsdeterminanten auf individueller und Arbeitsplatzebene durch. Anhand eines neuen deutschen Datensatzes auf individueller Ebene untersuchen wir den Einfluss dieser Determinanten auf die Gesundheit, einschließlich Kollegialität, Persönlichkeitsmerkmale gemessen an den Big Five, Engagement für das Unternehmen und Jobmerkmale, während wir für eine Reihe von Standard-Soziodemographie und Beschäftigung kontrollieren Variablen. Uns interessiert, welche Determinanten wichtig und welche weniger einflussreich sind, ob Interaktionseffekte berücksichtigt werden sollten und ob die Ergebnisse von der verwendeten Modellierungs- und Schätzmethode abhängen. Unter den Big Five Faktoren sind Gewissenhaftigkeit, Verträglichkeit und emotionale Stabilität positiv mit einer guten allgemeinen Gesundheit korreliert. Positiv ist auch der Einfluss von Jobmerkmalen wie hohe Entscheidungskompetenz, keine körperlich anstrengenden Aufgaben, angenehme Umgebungsbedingungen, minimaler Zeitdruck und kein Multitasking erforderlich. Wenn Mitarbeiter im Bedarfsfall häufig Hilfe von ihren Kollegen erhalten und sich von anderen im Unternehmen nicht zu Unrecht kritisiert fühlen, haben sie in der Regel weniger gesundheitliche Probleme. Jedes der Big-Five-Items beeinflusst die psychische Gesundheit, während für diese Items keine statistische Signifikanz mit der Anzahl der Tage, an denen Arbeiter krankheitsbedingt ausgefallen sind, mit Ausnahme von Neurotizismus, gefunden werden konnte. Diese Ergebnisse sind größtenteils robust gegenüber unterschiedlichen Modellierungs- und Schätzmethoden.;-;-;-;https://link.springer.com/article/10.1007/s11846-020-00426-9 9470cbdd5b48547eb61457b935cd47f5;de;;;6.2.;;;Deformationen der Sedimentdecke im äquatorialen Atlantik und ihr Vergleich mit geophysikalischen Feldern Die Verformungen der Sedimentbedeckung an Breitengraden westlich und östlich des Mittelatlantischen Rückens im äquatorialen Teil des Ozeans werden mit potentiellen Feldern und Variationen der of;-;-;-;https://link.springer.com/article/10.1134/S0016852117010071 3345c78b62a5c50045b73ff5ecc52966;de;;;6.2.;;;Informationsaustausch in der Unternehmenskooperation mit Grid-Technologien Mit dem Aufkommen von Service-Provisioning-Umgebungen und neuen Netzwerkfähigkeiten konnten antagonistische Unternehmen sicher zusammenarbeiten, indem sie Informationen austauschen, um ein vorteilhaftes Ergebnis für alle zu erzielen. Diese Zusammenarbeit wurde manchmal durch staatliche Gesetzgebung vorgeschrieben und manchmal von den Firmen selbst gewünscht, um häufig auftretende Anomalien zu beheben. In jedem Fall treten beim Informationsaustausch zwischen antagonistischen Unternehmen Sicherheits- und Datenschutzprobleme auf. Im Rahmen dieses Papiers wurde eine kollaborative Umgebung für Unternehmen analysiert, die im Bankensektor tätig sind. Um die Vorteile der Grid-Infrastruktur zu nutzen, wurde ein Grid-basiertes Anti-Geldwäsche-System (AML) entwickelt, das den sicheren und vertrauensvollen Informationsaustausch zwischen Finanzinstituten unterstützt und die Vertraulichkeit der übertragenen Daten sowie die Authentifizierung Benutzer, denen sie zur Verfügung stehen. Ein besonderer Schwerpunkt liegt auf Sicherheitsmechanismen zur Unterstützung des Identitäts- und Datenschutzmanagements sowie der Durchsetzung von Service Level Agreements (SLA) zur Ermöglichung einer Trust Enforcement Plattform in einem Collaboration-Geschäftsmodell.;-;-;-;https://link.springer.com/article/10.1007/s12394-009-0028-0 b1c150e58e7cfdd21a764fe4829a0186;de;;;6.2.;;;Schnell adaptieren, schnell adaptieren: Adaptive Ansätze im südafrikanischen Kontext Bo, Marwala und Marwala schlagen einen adaptiven Ansatz vor, bei dem sowohl Lehrende als auch Lernende eine Adopt Fast- und Adapt Quick-Strategie für die Hochschulbildung im Kontext der vierten industriellen Revolution anwenden. Ihr Vorschlag präsentiert Beweise aus einem „Smart Mining“-Fall in Südafrika, wie er von der Universität Johannesburg umgesetzt wurde. Die Ergebnisse beschreiben eine adaptive Lösung für neue Anforderungen im Hochschulbereich, die sich mit Fragen der Zugänglichkeit, der digitalen Kompetenz, der Beschleunigung, der übergreifenden Regionalisierung, der Transformation, der Integration, der Vision und des Engagements der Studierenden befasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-0194-0_8 c0c035d1b03b271cc5e3160451c6782c;de;;;6.2.;;;Eine Untersuchung zur guten Krankenhausführung: Ein neuseeländisch-tschechischer Vergleich Dieses Papier trägt zur Forschung in der Literatur zu Gesundheitssystemen bei, indem es die Rolle von Gesundheitsbehörden in der Krankenhausverwaltung untersucht. Das Gesundheitswesen gehört zu den größten öffentlichen Sektoren in den OECD-Ländern. Eine effiziente Führung von Krankenhäusern erfordert einen verantwortungsvollen und effektiven Mitteleinsatz, ein professionelles Management und kompetente Führungsstrukturen. In dieser Studie wird die Praxis der Krankenhausführung in zwei Gesundheitssystemen – Tschechien und Neuseeland – verglichen und kontrastiert. Diese Länder wurden ausgewählt, da beide, obwohl sie geografisch weit voneinander entfernt sind, ein universelles Recht auf „kostenlose“ Gesundheitsversorgung durch den Staat haben und beide Phasen des politischen Wandels und der darauf folgenden wirtschaftlichen Umstrukturierung erlebt haben. Der ständige Wandel hat den Anstoß für politische Reformen in ihren öffentlichen Krankenhausverwaltungssystemen gegeben.;-;-;-;https://link.springer.com/article/10.1186/1478-4505-4-2 3a1b5d852552c8a0986e5495079b9c88;de;;;6.2.;;;Finanzmanagement durch End-to-End-Geschäftsprozesse Bei Huawei spielt das Geschäft eine führende Rolle und das Rechnungswesen eine Aufsichtsrolle. Finance ist so positioniert, dass es dem Geschäft dient und Wert schafft, wobei seine Aufsichtsfunktion in die Prozesse integriert ist. Die Ziele der ersten Phase des Integrated Financial Services (IFS)-Programms sind: genaue Umsatzerfassung, beschleunigte Mittelzuflüsse, Transparenz von Projektgewinnen und -verlusten und Management von Geschäftsrisiken. Diese Ziele werden festgelegt, um Schwachstellen der End-to-End-Geschäftsprozesse des Unternehmens zur Wertschöpfung zu adressieren. Es ist eine langfristige Aufgabe für Huawei, seine prozessbasierten Organisations- und Managementsysteme für wichtige Geschäftsprozesse aufzubauen und kontinuierlich zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-7507-1_8 0470870ff28ff00dda88fecb239a73b1;de;;;6.2.;;;Globalisierung nationaler Operations-, Geburtshilfe- und Anästhesiepläne: die kritische Verbindung zwischen Gesundheitspolitik und Handeln in der globalen Chirurgie Die Bemühungen der Industrieländer zur Verbesserung der chirurgischen, anästhesiologischen und geburtshilflichen Versorgung in Ländern mit niedrigem und mittlerem Einkommen haben sich von einem hauptsächlich freiwilligen Missionsreisemodell zu einem nachhaltigen Ansatz zur Stärkung des Gesundheitssystems entwickelt, da private und öffentliche Akteure die enorme Gesundheitsbelastung und die finanzielle Belastung erkennen der chirurgischen Erkrankung. Der Nationale Plan für Chirurgie, Geburtshilfe und Anästhesie (NSOAP) wurde als politische Strategie für die Länder entwickelt, um die gesundheitliche Belastung durch Krankheiten, die einer chirurgischen Behandlung zugänglich sind, teilweise anzugehen, aber diese Pläne wurden nicht isoliert entwickelt. Der NSOAP ist zu einem Phänomen der Globalisierung geworden, da ein breites Spektrum von Partnern – Einzelpersonen und Institutionen – sowohl bei der Formulierung, Umsetzung und Finanzierung des NSOAP helfen. Als Bindeglied zwischen Politik und Aktion im Bereich der globalen Chirurgie spiegelt der NSOAP ein besonderes Engagement staatlicher Akteure wider, Fortschritte bei globalen Zielen wie der universellen Gesundheitsversorgung und den Zielen der Vereinten Nationen für nachhaltige Entwicklung zu erzielen. Dies erfordert ein kontinuierliches globales Engagement mit echten Partnerschaften, die die kollektiven Stärken sowohl nationaler als auch globaler Akteure einbeziehen, um allen armen, ländlichen und marginalisierten Menschen eine nachhaltige, sichere und erschwingliche chirurgische Versorgung von hoher Qualität zu bieten.;-;-;-;https://link.springer.com/article/10.1186/s12992-019-0531-5 05fff3336678df6dc3cd7673282377a0;de;;;6.2.;;;Forschung zu einer neuen On-Orbit-Steuerungsstrategie der Onboard-Atomuhr eines Navigationssatelliten Die Onboard-Atomuhr wird hauptsächlich zur Erzeugung von Zeit- und Frequenzsignalen von Navigationssatelliten verwendet. Es ist eines der Kerngeräte, die die Serviceleistung von Navigationssatelliten bestimmen. Aufgrund der Begrenzung ihrer Leistung und der Anzahl der Bits in der Navigationsnachricht muss die Borduhr in der Regel in ihrem Lebenszyklus viele Male kontrolliert und angepasst werden. Basierend auf der Analyse der Leistungsmerkmale der Borduhr und der Steuerungsmethoden in aktuellen Satellitennavigationssystemen wird eine neue Regelungsstrategie der Borduhr im Orbit vorgeschlagen, von der erstens die Kontrollperiode maximiert und zweitens Beeinträchtigungen des Dienstes vermieden werden sollen des Satelliten, wenn die Steuerung erforderlich ist. Theoretische Analysen und Simulationsexperimente werden durchgeführt und die Ergebnisse zeigen, dass die Strategie machbar ist. Dieses Papier ist von großer Bedeutung für die wertvolle Betriebs- und Servicefähigkeitsförderung des Satellitennavigationssystems.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3711-0_50 4d8502d33354e4244d4dd3d0830842bc;de;;;6.2.;;;Eine strategische Bewertung der Prävention und Behandlung von Gebärmutterhalskrebs in 3 Distrikten von Uttar Pradesh, Indien Obwohl es sich um eine vermeidbare Krankheit handelt, fordert Gebärmutterhalskrebs jedes Jahr das Leben von fast einer halben Million Frauen weltweit. Indien trägt mit etwa 130.000 Neuerkrankungen pro Jahr ein Fünftel der weltweiten Krankheitslast. Um den Bedarf und das Potenzial zur Verbesserung der Qualität von Gebärmutterhalskrebs-Präventions- und -Behandlungsdiensten in Uttar Pradesh zu bewerten, wurde eine strategische Bewertung in drei Bezirken des Bundesstaates durchgeführt: Agra, Lucknow und Saharanpur.;-;-;-;https://link.springer.com/article/10.1186/1742-4755-2-11 17a5c54141e8148d911adfbc55fe839a;de;;;6.2.;;;Krebsbekämpfungspolitik in Australien Australien hat eine sich entwickelnde nationale Agenda zur Krebsbekämpfung. In diesem Papier geben wir einen Überblick über die Geschichte und Entwicklung der Krebsbekämpfungspolitik in Australien bis Ende 2005 und diskutieren die wichtigsten Veröffentlichungen von Regierungs- und Nichtregierungsgruppen, die Empfehlungen, Ziele und Vorgaben zur Krebsbekämpfung hervorgebracht haben. Diese Krebsbekämpfungspläne wurden als Reaktion auf die Auswirkungen von Krebs auf die australische Gemeinschaft und in Anerkennung der gesundheitlichen Vorteile entwickelt, die durch eine wirksame Krebsbekämpfung erzielt werden können. Sie wurden entweder im Kontext eines breiteren Rahmens der Gesundheitspolitik oder als spezifische Bemühungen in Bezug auf Krebs entwickelt. Die vorgeschlagenen spezifischen Empfehlungen und Strategien konzentrierten sich auf die Verringerung der Auswirkungen von Krebs in der australischen Bevölkerung. Am häufigsten haben Empfehlungen, Ziele und Vorgaben in den Krebskontrollplänen Punkte entlang des Versorgungskontinuums, spezifische Krebsarten sowie Rahmen und Prozesse angesprochen. Die Stärke dieser Berichte liegt in ihrem umfassenden Ansatz bei der Identifizierung vorrangiger Krebsarten und Bereiche, in denen sich spezifische Entwicklungen auf Morbidität und Mortalität auswirken sollten. In Zukunft sollten Krebsbekämpfungspläne besser durch wirtschaftliche Bewertungen unterstützt werden, und es ist eine größere finanzielle Unterstützung für die Umsetzung und regelmäßige Bewertung erforderlich, um Fortschritte bei den Krebsergebnissen zu ermitteln. Die neueren nationalen und bundesstaatlichen Pläne zur Krebsbekämpfung beinhalten die Entwicklung von Rahmenwerken zur Förderung eines koordinierten und kohärenten Ansatzes bei der Erbringung der Krebsbehandlung. Diese Pläne stellen wichtige Reformen in der Krebsbehandlung in Australien dar und haben das Potenzial, die Auswirkungen von Krebs auf die Gemeinschaft zu verringern und die Gesundheitsergebnisse zu verbessern.;-;-;-;https://link.springer.com/article/10.1186/1743-8462-3-12 cc2dd95eb22c7c36965606582e502401;de;;;6.2.;;;Beeinflussen Chief Sustainability Officers und CSR-Ausschüsse CSR-bezogene Ergebnisse? Eine strukturierte Literaturrecherche basierend auf empirisch-quantitativen Forschungsergebnissen Obwohl seit der Finanzkrise 2008/09 zunehmend empirische Forschung mit den Auswirkungen von Managementkontrolle und Governance auf Corporate Social Responsibility (CSR)-Themen in Verbindung gebracht wird, prägen heterogene Ergebnisse dieses Forschungsfeld. In Bezug auf die Corporate Governance auf Konzernebene wurde die Wirksamkeit von Verwaltungsratsausschüssen (z. B. Prüfungs-, Vergütungs- oder CSR-Ausschüsse) in neuere Forschungsdesigns berücksichtigt. Analysen der Corporate Governance auf individueller Ebene beziehen sich jedoch auf die Auswirkungen von Top-Management-Mitgliedern [z. B. Chief Executive Officer (CEO), Chief Financial Officer (CFO) oder Chief Sustainability Officer (CSO)] auf die CSR-Ergebnisse. Ziel dieses Papiers ist es, ein detailliertes Verständnis der Auswirkungen von nachhaltiger Managementkontrolle als CSR-bezogenes Gremiumswissen zu vermitteln. Im Detail konzentrieren wir uns auf den Einfluss von CSR-Gremien und CSOs auf drei CSR-Maßnahmen, die hauptsächlich in der empirisch-quantitativen Forschung analysiert werden: (1) CSR-Berichterstattung, (2) CSR-Assurance (CSRA) und (3) CSR-Performance. Wir motivieren unsere Analyse mit erhöhter Relevanz aus praktischer, regulatorischer und wissenschaftlicher Sicht und verwenden eine systematische Literaturrecherche zu den symbolischen vs. inhaltlichen Auswirkungen einer nachhaltigkeitsbezogenen Vorstandszusammensetzung. Basierend auf unserem theoretischen Modell (Legitimitätstheorie, Stakeholder-Theorie und Upper-Echelons-Theorie) haben wir 48 quantitative, von Experten begutachtete empirische Studien zu diesem Forschungsthema ausgewählt. Unsere Analyse zeigt, dass CSR-Ausschüsse einen positiven Einfluss auf die CSR-Berichterstattung und -Leistung haben. Somit gibt es Hinweise darauf, dass die Umsetzung eines CSR-Komitees kein symbolischer Akt ist, sondern einen wesentlichen Beitrag zu CSR-Aktivitäten leistet. Angesichts nicht schlüssiger empirischer Forschungsergebnisse und fehlender Studien, die CSO-bezogene Effekte analysiert haben, wurde jedoch eine bemerkenswerte Forschungslücke identifiziert. Darüber hinaus weisen wir in diesem Review auf die Haupteinschränkungen der bisherigen Forschung hin und entwickeln eine Agenda mit nützlichen Empfehlungen für zukünftige Studien.;-;-;-;https://link.springer.com/article/10.1007/s00187-020-00308-x 1c1de6ea1b59477eb05ef810f7882906;de;;;6.2.;;;Die Auswirkungen von Stürmen auf finnische Milchviehbetriebe: Statistiken über Stromausfälle und die Auswirkungen auf die Milchproduktion Aufgrund des technologischen Fortschritts ist die landwirtschaftliche Produktion zunehmend auf Strom angewiesen. Gleichzeitig werden Stromlieferinfrastrukturen durch extreme Wetterereignisse herausgefordert. Verluste in der primären Nahrungsmittelproduktion durch Stromausfälle sind noch weitgehend unquantifiziert. Dieses Papier berichtet über die Auswirkungen von sturmbedingten Stromausfällen auf die Milchproduktion in Finnland. In der Studie wurden detaillierte, betriebsbezogene Aufzeichnungen über Stromausfälle von 2010 bis 2015 verwendet, die von zwei Energieversorgern verfügbar waren, und diese den jeweiligen monatlichen Milchproduktionsstatistiken auf Betriebsebene gegenübergestellt. Für jedes größere Sturmereignis wurde für jeden Betrieb eine Abweichung der Milchleistung gegenüber dem Vormonat berechnet. Die Auswirkungen von Stromausfällen auf die Milchproduktion wurden mit linearer gemischter Modellierung geschätzt. Stromausfälle traten hauptsächlich während und nach Sturmereignissen auf, und Milchviehbetriebe erlebten mehr Ausfälle als im Landesdurchschnitt für ländliche Stromkunden. Die Stromausfälle verringerten die monatliche Milchleistung der am stärksten betroffenen Betriebe um 4,6% (Betriebe, die länger als 72 Stunden ausfielen) und die Produktion erholte sich bereits für den Monat nach dem Sturmereignis. Die Ergebnisse deuten darauf hin, dass die Milchproduktion in Finnland auf Stromausfälle von weniger als 3 Tagen vorbereitet und widerstandsfähig ist und dass das derzeitige Ausmaß der Stromausfälle in Milchbetrieben höher ist als bisher bekannt.;-;-;-;https://link.springer.com/article/10.1007/s11069-020-04240-0 c4a4968b174ac61bf6387337ce923e71;de;;;6.2.;;;Diagnostische Genauigkeit bestehender Methoden zur Identifizierung von diabetischen Fußulzera aus stationären und ambulanten Datensätzen Da sich die Zahl der Menschen mit Diabetes in den USA in den nächsten 25 Jahren voraussichtlich verdoppeln wird, wird eine genaue Methode zur Identifizierung von diabetischen Fußgeschwüren in bevölkerungsbezogenen Datenquellen für die Krankheitsüberwachung und die öffentliche Gesundheit immer wichtiger. Ziel dieser Studie ist es, die Genauigkeit bestehender Methoden zu bewerten und eine neue Methode vorzuschlagen.;-;-;-;https://link.springer.com/article/10.1186/1757-1146-3-27 d9b018412c45ade63a26bf7a821642aa;de;;;6.2.;;;Einholen der Ansichten von Interessenträgern zur Organisation von psychiatrischen Diensten für Kinder und Jugendliche: ein System in Schwierigkeiten Trotz einer hohen Prävalenz psychischer Gesundheitsprobleme bei Kindern und Jugendlichen hat Belgien wie viele andere westliche Länder keine klare Strategie für die Organisation von psychiatrischen Diensten für Kinder und Jugendliche (CAMHS).;-;-;-;https://link.springer.com/article/10.1186/1753-2000-7-42 e62ac0309715fe870bdfcf9b725d451b;de;;;6.2.;;;WC3: Analysieren des Stils der Metadatenannotation in Wikipedia-Artikeln mithilfe der Wikipedia-Kategorie und der DBpedia-Metadatendatenbank WC3 (Wikipedia Category Consistency Checker) ist ein System, das die Analyse des Metadaten-Annotationsstils in Wikipedia-Artikeln einer bestimmten Wikipedia-Kategorie (der Unterkategorie von „Kategorien nach Parameter“) mithilfe der DBpedia-Metadatendatenbank unterstützt. Dieses System zielt darauf ab, eine geeignete SPARQL-Abfrage zu erstellen, um die Kategorie darzustellen, und vergleicht die abgerufenen Ergebnisse und Artikel, die zur Kategorie gehören. In diesem Artikel stellen wir WC3 vor und erweitern den Algorithmus, um effizient zusätzliche Varianten der Wikipedia-Kategorie zu analysieren. Wir diskutieren auch die Qualität der Metadaten-Annotation der Wikipedia unter Verwendung von WC3. URL von WC3 ist;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-68723-0_10 bf577d837f9402f4303cc4a15de8040f;de;;;6.2.;;;Eine Längsschnittstudie zum Tabakkonsum unter indigenen College-Studenten der Indianer und Alaskas Amerikanische Indianer (AI) haben die höchsten Raucherquoten aller ethnischen Gruppen in den USA (40,8%), gefolgt von Afroamerikanern (24,3%) und europäischen Amerikanern (23,6%). AI-Raucher haben im Vergleich zu anderen ethnischen Gruppen auch größere Schwierigkeiten, mit dem Rauchen aufzuhören, was durch ihre signifikant niedrigeren Raucherquoten belegt wird, und gehören zu den am wenigsten erfolgreichen bei der Aufrechterhaltung einer langfristigen Abstinenz. Während gesundheitliche Ungleichheiten wie diese bei AI seit Jahren bestehen, wurde die Epidemiologie des Rauchens und der Nikotinabhängigkeit in dieser unterversorgten Bevölkerung nicht optimal beschrieben.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-10-617 9743004a690d7c614d1082f76a3687c3;de;;;6.2.;;;Eine Einführung in die Modellierungsfunktionen von Informationsnetzwerken unter Verwendung von Graphen In diesem Beitrag werden Forschungsarbeiten zur Modellierung von Informationsnetzwerken (IN) mit Graph-Mining vorgestellt. Der theoretische Hintergrund wird zusammen mit einem Überblick über die relevante Literatur vorgestellt, die sich auf die Konzepte von IN-Modelltypen, Netzwerkschemata und Graphenmaßen bezieht. Die laufende Forschung umfasst das Experimentieren und die Bewertung von zweiteiligen und sternförmigen Netzwerkschemata, wobei Testpersonen mithilfe von Social Media-, Energie- oder Gesundheitsdaten generiert werden. Unser Beitrag wird durch zwei Proof-of-Concept-Simulationen demonstriert, die wir ausweiten wollen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71903-6_14 e9f0bb900903a21fb8af076aefeef993;de;;;6.2.;;;Wirksamkeit der präoperativen Betablockade auf die intraoperative Herzfrequenz bei gefäßchirurgischen Fällen, die unter Regional- oder Lokalanästhesie durchgeführt wurden Es wurde postuliert, dass die präoperative β-Blockade zu besseren Ergebnissen für Patienten mit Gefäßchirurgie führt, indem akute hämodynamische Veränderungen, die mit Stress verbunden sind, abgeschwächt werden. Allerdings ist die inkrementelle Wirksamkeit der Verwendung von Betablockern, falls vorhanden, bei der Abschwächung der Herzfrequenzreaktion bei Patienten mit Gefäßchirurgie;-;-;-;https://link.springer.com/article/10.1186/2193-1801-3-227 10757a1664d3ac742eeaa33ed4276b99;de;;;6.2.;;;Sexueller Dimorphismus in Immunreaktionsgenen als Funktion der Pubertät Autoimmunerkrankungen treten bei Frauen häufiger auf als bei Männern, während Männer eine höhere Mortalität im Zusammenhang mit Infektionskrankheiten aufweisen. Um unser Verständnis dieses Sexualdimorphismus im Immunsystem zu verbessern, versuchten wir, inhärente Unterschiede in Immunreaktionsprogrammen in der Milz männlicher und weiblicher Mäuse vor, während und nach der Pubertät zu identifizieren und zu charakterisieren.;-;-;-;https://link.springer.com/article/10.1186/1471-2172-7-2 4813173790e6fecbc10428b4206f2ef2;de;;;6.2.;;;Metabolomische Analysen für Arteriosklerose, Diabetes und Fettleibigkeit Insulinresistenz im Zusammenhang mit Diabetes mellitus Typ 2 (T2DM), Fettleibigkeit und Arteriosklerose ist ein globales Gesundheitsproblem. Ein Portfolio von Anomalien der metabolischen und vaskulären Homöostase begleitet T2DM und Fettleibigkeit, von denen angenommen wird, dass sie zu beschleunigter Atherosklerose und vorzeitigem Tod führen. Die Komplexität metabolischer Veränderungen bei den Krankheiten stellt eine Herausforderung für ein umfassendes Verständnis der molekularen Wege dar, die zur Entstehung dieser Krankheiten beitragen. Das jüngste Aufkommen neuer Technologien in diesem Bereich, die als „Metabolomics“ bezeichnet werden, kann zu einer umfassenden metabolischen Analyse dieser Krankheiten beitragen. Daher wurde die Metabolomik umfassend auf die Metaboliten von T2DM, Fettleibigkeit und Atherosklerose nicht nur zur Beurteilung der Krankheitsentwicklung und -prognose, sondern auch zur Biomarker-Entdeckung der Krankheitsdiagnose angewendet. Hier fassen wir die jüngsten Anwendungen der Metabolomik-Technologie und die generierten Datensätze bei der metabolischen Profilerstellung dieser Krankheiten zusammen, insbesondere die Anwendungen dieser Technologien auf diese Krankheiten auf Zell-, Tiermodell- und menschlicher Krankheitsebene. Darüber hinaus diskutieren wir ausführlich die Mechanismen, die das metabolische Profiling bei Insulinresistenz, T2DM, Fettleibigkeit und Atherosklerose verbinden, mit besonderem Schwerpunkt auf potenzielle Rollen einer erhöhten Produktion von reaktiven Sauerstoffspezies (ROS) und Mitochondriendysfunktionen.;-;-;-;https://link.springer.com/article/10.1186/2050-7771-1-17 876e388bb734fddd2edad791b4256ea0;de;;;6.2.;;;Videoassistierte Thoraxchirurgie (VATS) als sichere Alternative zur Resektion von Lungenmetastasen: eine retrospektive Kohortenstudie VATS hat sich zu einer bevorzugten Methode bei gutartigen chirurgischen Erkrankungen entwickelt, bleibt jedoch bei bösartigen Erkrankungen umstritten. Der Zweck dieser Studie war es, unsere Ergebnisse von Lungenmetastasektomien unter Verwendung sowohl konventioneller offener Thorakotomie- als auch VATS-Techniken zu überprüfen.;-;-;-;https://link.springer.com/article/10.1186/1749-8090-4-13 409de6c43b87fc7b154ec3b12b94fc5b;de;;;6.2.;;;Social Media bei der Erkennung von Bedrohungen, um ein sicheres Leben in einer modernen Stadt zu gewährleisten Der Artikel widmet sich den Problemen der Identifizierung von Sicherheitsbedrohungen für einen Bürger mithilfe von Open Source Intelligence. Um die Suche nach Informationen im Internet über eine Person oder ein Ereignis, die eine potenzielle Sicherheitsbedrohung darstellen, zu verfeinern, wurde vorgeschlagen, eine strukturierte Methode zum Sammeln und Analysieren von Informationen basierend auf der Aufschlüsselung von Daten und Verbindungen zwischen Daten zu verwenden. Es wurde die Methode zum Testen der Alternativhypothese verwendet. Der Artikel enthält eine Klassifizierung von offenen Informationsquellen. Es wurde ein konzeptionelles Modell entwickelt, das es Experten ermöglicht, eine fundierte sequentielle Informationssuche durchzuführen. Der Artikel gibt Beispiele aus der Praxis, die die Effizienz des vorgeschlagenen methodischen Ansatzes für die Suche und Analyse von Informationen bestätigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49700-6_44 535e9e62ddd0bb33048c533115ed7306;de;;;6.2.;;;Gute Gesundheit im Anthropozän: Potenzial für transformative Lösungen Beispiellose Umweltveränderungen drohen die Fortschritte im Gesundheits- und Entwicklungsbereich zunichte zu machen, wenn sie nicht durch entschlossene Maßnahmen angegangen werden. Die Umsetzung von Maßnahmen zur Verringerung der Umweltauswirkungen menschlicher Gesellschaften kann Risiken verringern und auch kurzfristig eine Reihe von gesundheitlichen Vorteilen mit sich bringen – beispielsweise durch geringere Schadstoffemissionen, die zusammen mit Treibhausgasen emittiert werden. In diesem Kapitel werden potenzielle transformative Maßnahmen in Sektoren wie Energie, Verkehr, Stadtentwicklung und Lebensmittelsysteme skizziert, die ihren ökologischen Fußabdruck verringern und die Gesundheit verbessern können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-31125-4_24 9d62633e679b1afbddcdf53a9e782299;de;;;6.2.;;;Eine Mobilfunkdatenbank für Fingerabdruck-Positionierungssysteme Mobilfunknetze sind nicht nur eine grundlegende Infrastruktur für die Kommunikation, sondern werden zunehmend auch für die Positionsbestimmung über Signal-Fingerprinting genutzt. Hier konzentrieren wir uns auf das Fingerprinting von Mobilfunksignalen, bei dem eine genaue und umfassende Kenntnis des Netzwerks von grundlegender Bedeutung ist. Wir schlagen eine originelle mehrstufige Datenbank für Mobilfunknetze vor, die automatisch mit neuen Fingerabdruckmessungen aktualisiert werden kann und eine Reihe aussagekräftiger Analysen ermöglicht. Insbesondere ermöglicht es, die Verteilung von Mobilfunknetzen über Länder zu überwachen, die Zelldichte in verschiedenen Gebieten zu bestimmen und Inkonsistenzen bei Fingerabdruckbeobachtungen zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30278-8_14 6f8f4d495a9fc2e5056e99e7426cb151;de;;;6.2.;;;Entwicklung eines Datenbanksystems zur Kartierung von Insertionsmutationen auf das Mausgenom mit groß angelegten experimentellen Daten Die Insertionsmutagenese ist eine effektive Methode für funktionelle Genomstudien in verschiedenen Organismen. Es kann schnell leicht kontrollierbare Mutationen erzeugen. Eine groß angelegte Insertionsmutagenese mit dem;-;-;-;https://link.springer.com/article/10.1186/1471-2164-10-S3-S7 7500c3921fbf82a2f3d140eef740c97e;de;;;6.2.;;;Geovisualisierung für die Energieplanung Laut Reckien et al. Einstufung a A1 (autonom erstellte Pläne), A2 (entsprechende nationale Vorschriften erstellte Pläne) oder A3 (für internationale Klimanetzwerke entwickelte Pläne) Klimaschutzplan, 26% Anpassungsplan und 17% gemeinsamer Anpassungs- und Klimaschutzplan während etwa 33 % keinen eigenständigen lokalen Klimaplan haben [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58811-3_35 238cd7aceab57ca4e5e42e457b2626e5;de;;;6.2.;;;Schneller und genauer Gesichtsausrichtungsalgorithmus basierend auf Deep Knowledge Destillation Die meisten existierenden Gesichtsschlüsselpunkterkennungsalgorithmen berücksichtigen nur die Verbesserung der Generalisierungsleistung des Modells, während die Modelleffizienz ignoriert wird. Modelle mit guter Generalisierungsleistung enthalten jedoch normalerweise eine große Anzahl von Parametern, die den Einsatz von Gesichtsschlüsselpunkterkennungsalgorithmen auf Geräten mit begrenzten Ressourcen behindert. Um dieses Problem zu überwinden, wird in dieser Arbeit ein schneller und genauer Gesichtsausrichtungsalgorithmus vorgeschlagen. Zuerst wird ein Lehrernetzwerk entworfen, das mehrere Sanduhrmodule stapelt. Seine Modellstruktur ist robust, um die Anforderungen an die Positioniergenauigkeit im tatsächlichen Einsatz zu erfüllen. Dann wird ein leichtgewichtiges Studentennetzwerk entworfen, das weniger Modellparameter und eine schnellere Merkmalsextraktionsgeschwindigkeit aufweist, das den Geschwindigkeitsanforderungen im praktischen Einsatz gerecht wird. Schließlich wird durch die Wissensdestillationsstrategie das Wissen des Lehrernetzwerks auf das Schülernetzwerk übertragen, wodurch das Schülernetzwerk sowohl die Modellschlussgeschwindigkeit als auch die Schlüsselpunktpositionierungsgenauigkeit berücksichtigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6033-4_6 8075a41da461e4daf88c75c6155791bb;de;;;6.2.;;;Diamanda Galás: Eine lange verrückte Szene Jedes Jahr, in dem ich im ersten Studienjahr über nicht-notationale Modelle der Musikanalyse unterrichte, spiele ich einen billigen Streich. In der ersten Woche ihres ersten Semesters starren mich etwa 80 strahlende Studenten erwartungsvoll an und warten darauf, dass ich eine Art Weisheit über die Frage vermittle, wie man Musik analysieren kann, die nicht den üblichen westlichen Notationsmodellen entspricht, oder was? Wenn man die Partitur beiseite legt, um das analytische Projekt zu fördern, oder (für einige) wie man Musik überhaupt analysiert, wenn sie keinen musikalischen Hintergrund haben, spiele ich alle 49 Sekunden von Diamanda Galás' „Cunt“ von ihr;-;-;-;https://link.springer.com/chapter/10.1057/9780230119550_5 c445920170ce0cdd7fc085020ef1b946;de;;;6.2.;;;Extreme Learning Machines-Klassifizierung von Kickgesten Der Induktions-Selbststart-Kofferraum wurde im Automobilbereich angewendet. Die genaue Klassifizierung des Fußsignals ist die primäre Aufgabe der Sensorik des Selbststarters. Mit dem Aufkommen von immer mehr Autobenutzern haben verschiedene Autobesitzer unterschiedliche Trittmodi. Die traditionelle regelbasierte Fußsignalerkennung hat 94% für das schnelle Kick-Fußsignal erreicht, aber die Erkennungsrate für langsamen Kick und Sweep-Kick beträgt weniger als 40%, und die Erkennungsmethode zum genauen Identifizieren verschiedener Kick-Stile wird viel mehr Aufmerksamkeit geschenkt. Dieses Papier stellt einen extrem lernmaschinenbasierten Autohecktür-Induktionsstartalgorithmus vor, extrahiert das effektive Kicksignal aus dem Fußzeitreihensignal, analysiert die Eigenschaften von Standard-Kick, Schnell-Kick, Langsam-Kick, Sweep-Kick, Kniebeuge-Kick und sammelt A Als abnorme Kick-Signale werden verschiedene Störsignale verwendet, und die Proben wurden mit einer Extreme Learning Machine (ELM) klassifiziert. An dem Experiment nahmen fünf Freiwillige an dem Test teil, wobei verschiedene Methoden zum Treten des Kofferraums verwendet wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58989-9_18 4fe8639d8dfb26bd22ad110d6231e074;de;;;6.2.;;;Lockdown oder Unlock bei COVID-19-Krankheit? Ein verstärkender Lernansatz Seit der großen Ankunft von COVID-19 in unserem Leben und seit der Sperrung als Lösung, die wir als organisierte Gesellschaft in den meisten Bevölkerungsgruppen vorgeschlagen haben, um die Epidemie zu kontrollieren, könnte dies in uns eine Reihe von Fragen aufwerfen: Woher wissen wir das? wir haben die beste entscheidung getroffen? Welchen Wert haben unsere Entscheidungen? Woran könnten wir diese Effektivität messen? Dieser Artikel präsentiert die ersten Ergebnisse eines IA-getriebenen Ansatzes, um diese Fragen aus verschiedenen Simulationen zu beantworten, die mit verstärktem Lernen und realen Datenerfahrungen generiert wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-62554-2_15 d88577ec88b1ea6fd672f19b351adde7;de;;;6.2.;;;IKT im Bildungswesen in kleinen Inselentwicklungsstaaten des Pazifiks In diesem Kapitel wird skizziert, wie die Informations- und Kommunikationstechnologie (IKT) im Bildungswesen die Prozesse des E-Government unterstützt und erleichtert. IKT-Bildung, ihr Einsatz beim Lehren und Lernen sowie zur Verbesserung der Bildungsverwaltung und -governance sind zentrale Bestandteile der regionalen und nationalen Entwicklung für die kleinen Inselentwicklungsstaaten des Pazifiks. Die Identifizierung und Diskussion verschiedener Probleme und Herausforderungen, die den effektiven Einsatz von IKT im Bildungswesen im pazifischen Raum behindert haben, bietet einen Realitätscheck. Gleichzeitig schlägt es einen Weg nach vorn für große Initiativen vor, die im Kontext kleiner Inseln begründet sind, wo eine wachsende Abhängigkeit von der Wissenswirtschaft zunehmend durch IKT-Fähigkeiten erleichtert wird. Die Fortschritte in den verschiedenen Ländern des pazifischen Raums und die Gründe für die unterschiedlichen Entwicklungsraten der einzelnen Länder werden ebenfalls zusammen mit externer Unterstützung aus verschiedenen Quellen festgehalten. Eine solide Planung, angemessene Aus- und Weiterbildung sowie befähigende und gut informierte Partner und Strategien können den Fortschritt und die Nachhaltigkeit solcher Entwicklungen entscheidend beeinflussen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-50972-3_12 9688d9c4904de07778dca3670ddfd97a;de;;;6.2.;;;Entwicklung der digitalen Bürgerschaft und des bürgerschaftlichen Engagements durch die Nutzung sozialer Medien in nordischen Schulen In diesem Kapitel untersuchen wir die Faktoren, die bei der Entwicklung der digitalen Bürgerschaft durch die Nutzung sozialer Medien in Schulen für 14-jährige Schüler in vier nordischen Ländern eine Rolle spielen. Der Ruf nach digitaler Staatsbürgerschaft und digitaler Staatsbürgerschaftserziehung ergibt sich aus den neuen und vielfältigen Wegen, wie junge Menschen sich durch die Nutzung sozialer Medien für staatsbürgerliche Themen engagieren und über sie kommunizieren. Schulen könnten eine zentrale Rolle bei der Entwicklung des digitalen bürgerschaftlichen Engagements von Schülern spielen, jedoch werden der Bereich der digitalen Bürgererziehung und die Faktoren, die das Engagement in Schulen ermöglichen, noch zu wenig erforscht. Um dieses Problem anzugehen, haben wir in diesem Kapitel eine Mixed-Methods-Studie durchgeführt, die die nationalen Lehrpläne in den vier nordischen Ländern analysiert und diese durch eine Analyse der Daten von Schulleitern, Lehrern und 14-jährigen Schülern ergänzt, die an der IEA International teilnehmen Civic and Citizenship Education Study (ICCS) 2016. Die Ergebnisse der Analyse zeigen, dass digitale Staatsbürgerschaft und Staatsbürgerschaft im Allgemeinen vorherrschende Ideale in den nationalen Lehrplänen sind und dass die Schulen technisch gut ausgestattet sind. Sowohl Lehrer als auch Schüler sind jedoch ambivalent in der Nutzung sozialer Medien für die Entwicklung der digitalen Bürgerschaft. Daher argumentieren wir, dass digitale Bürgerschaft in der Bildung ein vielfältiges und aufkommendes Phänomen ist und dass Schüler/innen wichtige Leitlinien für ihre weitere Entwicklung in den Schulen sein könnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-66788-7_4 6148a5272df8b21016d8bf09566f4b28;de;;;6.2.;;;Erkennung von Bild-Splicing mit Histogramm mit mehreren Auflösungen In diesem Artikel untersuchen wir die Aussicht auf die Verwendung eines Histogramms mit mehreren Auflösungen eines Bildes als Merkmale zur Erkennung von Bildspleißvorgängen, bei denen ein Teil eines Bildes kopiert und an ein anderes Ziel verschoben wird. Das Histogramm mit mehreren Auflösungen ist eine Art statistisches Merkmal, das die räumlichen Informationen des Bildes enthält. Dann wird Support Vector Machine (SVM) verwendet, um als Klassifikator zu trainieren und zu testen, um zu schätzen, ob ein gegebenes digitales Bild ein Spleißbild oder ein authentisches Bild ist. Das Experiment zeigt, dass die Methode einfach und effizient ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10467-1_76 c9ad12d1c4d326af67472929cd5ada8e;de;;;6.2.;;;Pendeln und Ansteckungen: Simulation der Krankheitsausbreitung in städtischen Verkehrsnetzen Der öffentliche Verkehr spielt eine wichtige Rolle, um Menschen zusammenzubringen. Der internationale Handel und Tourismus ist auf die kommerzielle Luftfahrt angewiesen, und die erfolgreichsten Städte haben Busse, Straßenbahnen oder U-Bahnen, die die Arbeiter mit ihren Arbeitsplätzen verbinden. Die Effizienz und Konnektivität moderner Verkehrsnetze macht uns jedoch anfällig für die Ausbreitung von Krankheiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71214-3_18 e26554e86d7889b20d62aa5235a6632e;de;;;6.2.;;;Divergenz von Sicherheit und Schutz Sicherheit und Schutz haben ähnliche Ziele, um soziales Wohlbefinden durch Risikokontrolle zu gewährleisten. Diese Ähnlichkeit hat zu Ansichten über die berufliche Konvergenz geführt, jedoch unterscheiden sich die Berufe der Sicherheit und des Schutzes. Die Unterscheidung ergibt sich aus Abweichungen in der Konzeptdefinition, den Risikotreibern, dem Wissensbestand und der beruflichen Praxis. In diesem Kapitel wurden die beruflichen Synergien und Spannungen zwischen Sicherheitsfachkräften anhand von aufgabenbezogenen Wissensbeständen untersucht. Die Ergebnisse legen nahe, dass Safety und Security nur auf der übergeordneten abstrakten Ebene Gemeinsamkeiten aufweisen. Bei den Kategorien des Risikomanagements und der Risikokontrolle gibt es gemeinsames Wissen, jedoch sind die Unterschiede deutlich. Im Bereich Sicherheit konzentriert sich das Risikomanagement auf das Gefahrenmanagement, während sich die Sicherheit auf die Risikominderung konzentriert. Sicherheitstheorien berücksichtigen gesundheitliche Auswirkungen und Unfälle, während Sicherheitskriminalität und Kriminalprävention berücksichtigt werden. Daher gehen Sicherheit und Schutz als unterschiedliche Berufe auseinander.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-47229-0_7 986d64a5bc83ab816d01665be83de9cd;de;;;6.2.;;;Kollaboration und erfundene Kollegialität: Revisiting Hargreaves im Zeitalter der Rechenschaftspflicht Andy Hargreaves ist international bekannt für seine Arbeit zu vielen Themen des Bildungswandels. Seine Arbeit darüber, wie der Bildungswandel die Arbeit von Lehrern prägt, insbesondere in Bezug auf die Zusammenarbeit zwischen Lehrern, wird in seinem preisgekrönten Band von 1994 veranschaulicht;-;-;-;https://link.springer.com/article/10.1007/s10833-011-9154-1 8441e3f31487407102dcb45dd6241488;de;;;6.2.;;;Mind the Gap: Überwachung räumlicher Ungleichheiten in der Lebensqualität (Fallstudie zu Rosario) Ungleiche Lebensqualitätsbedingungen sind eine der sichtbarsten Formen ungleichmäßiger und fragmentierter Stadtentwicklung. In mehreren Städten des Globalen Südens und insbesondere in Lateinamerika besteht Besorgnis über die Kluft zwischen Gebieten mit niedriger und hoher Lebensqualität. Dieses Anliegen beinhaltet in der Regel die Absicht, diese räumlichen Ungleichheiten durch gezielte Ausrichtung und Verbesserung von Gebieten mit geringer Lebensqualität zu verringern. In diesem Kapitel wird ein methodischer Ansatz zur Kartierung, Analyse und Überwachung innerstädtischer Lebensqualitätsvariationen vorgestellt. Dieser Ansatz basiert auf einer Perspektive der sozialen Gerechtigkeit, die sich auf (1) die kritische Auswahl von Indikatoren, (2) die Kommunikation und Visualisierung von Lücken und (3) die Vermeidung kartografischer Falschdarstellungen ungerechter Situationen konzentriert. Es basiert auf einer Fallstudie in der Stadt Rosario, Argentinien, wo dieser Ansatz empirisch angewendet wurde, indem mehrere Datenquellen kombiniert wurden, darunter Volkszählungsdaten von 1991, 2001 und 2010 sowie Verwaltungsdaten. Die Kombination von objektiven und subjektiven Indikatoren für die Lebensqualität erwies sich als nützlich, um festzustellen, wo einige kartografische Darstellungen Menschen mit niedrigen Lebensqualitätsbedingungen unterrepräsentiert haben. Kritische und reflektierte Auswahlen von Indikatoren und Datenquellen haben Einfluss auf die Darstellung von Variationen der Lebensqualität. Darüber hinaus zeigen die Ergebnisse, wie wichtig es ist, die unterschiedlichen Skalen zu erkennen, auf denen Ungleichheiten in der Lebensqualität abgebildet werden, um Lücken sichtbar zu machen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-28842-0_6 75779e76222b955ca105076cf338824c;de;;;6.2.;;;Eine grafikbasierte Analyse der Nutzermobilität für ein Smart City-Projekt Informations- und Kommunikationstechnologien (ICT) und Internet of Things (IOT)-Geräte generieren große Datenmengen für alle Smart City-Projekte. Die Datenstruktur zum Speichern multidisziplinärer Großdaten, die aus diesen Datenloggern extrahiert wurden, wird zu einer anspruchsvollen Aufgabe. Die in diesem Papier vorgestellten Forschungsarbeiten konzentrieren sich auf robuste Datenextraktion (Datenstreaming), Datenvorverarbeitung und Integration. Eine grafenbasierte Datenanalyse zu verschiedenen mobilen Bewegungen wird durch verschiedene mobile Tracer (Datenlogger) erzeugt, die an verschiedenen Orten platziert sind. Mit Datenaufnahmetools wie Kafka/Flume/MQTT und Spark-Streaming können Daten in einem verteilten Speicher gespeichert werden, HDFS wird zum Speichern solch großer Datenmengen verwendet. Wie wir aufgrund des Datenvolumens und der Datengenerierungsgeschwindigkeit wissen, wird dieses Problem unter Big Data Analysis (BDA) Problem betrachtet. Eine Heatmap wurde verwendet, um die Bewegung von Kunden mit Mobiltelefonen an verschiedenen Standorten im Geschäft darzustellen. Ein Ping-Signal, das gesammelt wird, wenn sich eine Person aus der Reichweite des Sensorgeräts bewegt. Der PageRank-Algorithmus wird verwendet, um jedem Vertex einen numerischen Rang gemäß den In-Grad-Links zu diesem Vertex zuzuweisen. Es betrachtet eine zufällige Wanderung von jedem ausgewählten Knoten mit den durchlaufenen verbundenen Knoten. Der Rang der Vertices, die mobile Tracer-Sensoren darstellen, zeigt die Bewegung von Kunden während eines bestimmten Zeitraums. Es kann verwendet werden, um Entscheidungen über die Reorganisation eines Ladenlayouts zu treffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1718-1_12 7304cfd6d8b05ec05427d20b9b925043;de;;;6.2.;;;Epidemiologische Merkmale der akuten disseminierten Enzephalomyelitis in Nanchang, China: eine retrospektive Studie Die akute disseminierte Enzephalomyelitis (ADEM) ist eine Autoimmunerkrankung, die typischerweise einen monophasischen Verlauf nimmt und jede Altersgruppe betreffen kann. Die genaue bevölkerungsbezogene Inzidenz von ADEM ist in den meisten Ländern noch unbekannt. In China gibt es kein ADEM-Überwachungssystem. Die genaue Inzidenz von ADEM ist schwer abzuschätzen, und andere epidemiologische Merkmale von ADEM sind nicht bekannt. Ziel dieser Studie ist es, die epidemiologischen Merkmale von ADEM in Nanchang, China, zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-14-111 090c294e88efd47e71acb19157cc0543;de;;;6.2.;;;Extraktion von Beziehungen zur Vervollständigung der Wissensdatenbank: Ein überwachter Ansatz Dieses Papier skizziert unseren Ansatz zur Extraktion vordefinierter Beziehungen aus unstrukturierten Daten (OKE Challenge 2018: Task 3). Unsere Lösung verwendet einen Deep-Learning-Klassifikator, der als Eingabe Rohsätze und ein Paar von Entitäten empfängt. Über die Ausgabe des Klassifikators werden Expertenregeln angewendet, um bekannte fehlerhafte Beziehungen zu löschen. Um das System zu trainieren, haben wir Daten gesammelt, indem wir DBPedia-Beziehungen und Wikipedia-Seiten abgeglichen haben. Dieser Prozess war hauptsächlich automatisch, wobei einige Filter angewendet wurden, um die Trainingsaufzeichnungen unter menschlicher Aufsicht zu verfeinern. Die Endergebnisse zeigen, dass die Kombination eines leistungsstarken Klassifikatormodells mit Expertenwissen positive Auswirkungen auf die endgültige Leistung des Systems hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00072-1_5 0b68132d413fa91df5ac159980d7083e;de;;;6.2.;;;Bewertung von Luftliberalisierungsabkommen: Eine Integration von Nachfrageanalyse und Handelstheorie Das Abkommen zur Gründung der Welthandelsorganisation (WTO) trat am 1. Januar 1995 in Kraft. Die WTO ersetzte das Allgemeine Zoll- und Handelsabkommen (GATT), das seit Ende der 1940er Jahre die Handelsbeziehungen regelte. die WTO verkörpert fünfzig Jahre multilateraler Handelsverhandlungen im GATT, die den Handel liberalisierten und ein bedeutendes Regelwerk für den Handel festlegten. Was der WTO nicht gelang, war ein Abkommen über den Handel mit Dienstleistungen. Es hat zwar einen soliden Rahmen von Handelsregeln und -pflichten geschaffen, aber keine Einigung über deren Anwendung auf den Dienstleistungsverkehr erzielt. Im Februar 1997 wurde eine Einigung über einen freieren Telekommunikationshandel erzielt, bei Finanzdienstleistungen und Seeverkehrsdienstleistungen wurden jedoch keine Einigungen erzielt. Diskussionen über die Luftfahrt wurden nicht einmal berücksichtigt. Dies zu einer Zeit, in der die Nachfrage nach internationalen Luftverkehrsdienstleistungen in vielen Teilen der Welt zweistellig wächst.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5077-8_15 8d44f7f0f2816c4333e7642f37b1febf;de;;;6.2.;;;Konformitätstestfälle für die RDF Mapping Language (RML) Wissensgraphen werden häufig mithilfe von Regeln generiert, die semantische Annotationen auf Datenquellen anwenden. Softwaretools führen diese Regeln dann aus und generieren oder virtualisieren den entsprechenden RDF-basierten Wissensgraphen. RML ist eine Erweiterung der vom W3C empfohlenen R2RML-Sprache, die die Unterstützung von relationalen Datenbanken auf andere Datenquellen ausdehnt, z. B. Daten im CSV-, XML- und JSON-Format. Als Teil des R2RML-Standardisierungsprozesses wurde eine Reihe von Testfällen erstellt, um die Konformität des Tools mit der Spezifikation zu bewerten. In dieser Arbeit haben wir einen ersten Satz wiederverwendbarer Testfälle generiert, um die RML-Konformität zu bewerten. Diese Testfälle basieren auf R2RML-Testfällen und können von jedem Tool unabhängig von der Programmiersprache verwendet werden. Wir haben die Konformität von zwei RML-Prozessoren getestet: dem RMLMapper und CARML. Die Ergebnisse zeigen, dass der RMLMapper alle CSV-, XML- und JSON-Testfälle sowie die meisten Testfälle für relationale Datenbanken besteht. CARML besteht die meisten CSV-, XML- und JSON-Testfälle bzgl. Entwickler können den Konformitätsgrad ihrer Tools bestimmen, und Benutzer können anhand der Konformitätsergebnisse das am besten geeignete Tool für ihre Anwendungsfälle bestimmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-21395-4_12 d088934754a42814d56c85d1c15a2773;de;;;6.2.;;;Ein erfolgreicher Fall einer Notfall-Erdrutschreaktion - der 2. September 2014, Shanshucao-Erdrutsch, Three Gorges Reservoir, China Der Shanshucao-Erdrutsch ist ein Erdrutsch im Drei-Schluchten-Stausee. Dieser Erdrutsch war in der Vergangenheit weder einer offensichtlichen Deformation ausgesetzt, noch wurde er in die Liste der zuvor im Drei-Schluchten-Stausee identifizierten geologischen Gefahren aufgenommen.;-;-;-;https://link.springer.com/article/10.1186/s40677-015-0026-5 037b76c8c04a3ce678dd5eebe0fb38c0;de;;;6.2.;;;Räumliche Verteilungsmerkmale der Emotionen der Bewohner basierend auf Sina Weibo Big Data: Eine Fallstudie aus Nanjing Viele städtebauliche Ansätze haben die Notwendigkeit der Menschenorientierung betont. Mit der rasanten Entwicklung der Städte sollte der Wahrnehmung und dem Raumerlebnis der Bewohner mehr Aufmerksamkeit geschenkt werden. Nach städtebaulichen Theorien und Studien zu Umweltqualität, Infrastrukturallokation und Planung hat die Erforschung der Emotionen der Bewohner zunehmend Aufmerksamkeit in der Forschung erfahren. Nanjing City of China wird als Beispiel für die Anwendung von Sina Weibo Big Data, einer neuen Art von Daten, verwendet, um Echtzeit-Emotionen und die entsprechenden Geo-Standorte der Bewohner zu extrahieren. Diese Studie verwendet die ArcGIS-Software, um die räumlichen Verteilungsmerkmale der Emotionen der Bewohner in der gesamten Stadt und an verschiedenen Orten von Nanjing zu analysieren. Netzstatistiken dienen dem Nachweis zur Optimierung der Stadtraumentwicklung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-51929-6_3 d8255b929f67c446cf2a1ee0d8b49e0d;de;;;6.2.;;;Verknüpfen von Entitäten in Kurztexten basierend auf einer chinesischen semantischen Wissensdatenbank Das Auffüllen der vorhandenen Wissensdatenbank mit neuen Fakten ist wichtig, um die Wissensdatenbank aktuell und auf dem neuesten Stand zu halten. Vor dem Importieren von neuem Wissen in die Wissensdatenbank ist eine Entitätenverknüpfung erforderlich, damit die Entitäten im neuen Wissen mit den Entitäten in der Wissensdatenbank verknüpft werden können. Während dieses Prozesses ist die Begriffsklärung von Entitäten die schwierigste Aufgabe. Es gibt viele Studien zur Nutzung des Namensmehrdeutigkeitsproblems über eine Vielzahl von Algorithmen. In diesem Artikel schlagen wir eine Entity-Linking-Methode vor, die auf chinesischem semantischem Wissen basiert, bei der Entitäten-Disambiguierung durch das Abrufen einer Vielzahl von semantischen Beziehungen und die Analyse der entsprechenden Dokumente mit Ähnlichkeitsmessung behandelt werden kann. Basierend auf der vorgeschlagenen Methode haben wir CASIA_EL entwickelt, ein System zur Verknüpfung von Entitäten mit Wissensdatenbanken. Wir validieren die vorgeschlagene Methode, indem wir 1232 aus Sina Weibo gewonnene Entitäten mit einer chinesischen semantischen Wissensdatenbank verknüpfen, was zu einer Genauigkeit von 88,5% führt. Die Ergebnisse zeigen, dass das CASIA_EL-System und der vorgeschlagene Algorithmus potenziell effektiv sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41644-6_25 19a88ef0990d734a2c58c918dd8ecc80;de;;;6.2.;;;Vorgeschlagene Managementmaßnahmen für Natura 2000-Lebensräume im Körös-Maros-Nationalpark, Ungarn Bei der Entwicklung eines an den Klimawandel angepassten Managements für gefährdete Tiefland-Feuchtgebiete sollten mehrere Faktoren berücksichtigt werden. Diese werden durch die drei Mustergebiete des Körös-Maros Nationalparks (SE Ungarn) dargestellt. Natürliche Lebensräume, wie Feuchtgebiete mittel- und osteuropäischer Länder, sind dem Klimawandel stark ausgesetzt. Die von den Interessenträgern gemeldeten Probleme sowie die von Sensitivitätskarten gelieferten Treiber und Belastungen konzentrieren sich auf Phänomene, die direkt oder indirekt mit dem Klimawandel verbunden sind. Da stichhaltige Beweise zeigen, dass Feuchtlebensräume empfindlicher und anfälliger werden, müssen Landnutzer ihre Ziele, Strategien und Maßnahmen an ein sich änderndes Klima anpassen. Dabei handelt es sich um Prozesse zur Anpassung der Managementmaßnahmen von Schutzgebieten, insbesondere von Feuchtgebieten, an die wahrscheinlichen Auswirkungen des Klimawandels. Die adaptive Managementplanung sollte durch Erhaltungsziele priorisiert werden, indem identifiziert wird, welche Arten oder Lebensräume primär erhalten werden sollen (z. B. Vögel, Schmetterlinge und ihre Nahrungspflanzen, Orchideen, andere geschützte Pflanzenarten, Landschaftsansichten usw.) und sollte durch die Bewertung von Faktoren bestimmt werden auf der festgelegten Planungseinheit (zB Habitattyp- oder Patch- oder Schutzgebietsebene). Aufgrund unterschiedlicher Beweidungs-, Gruppenbildungs- und Tramplinggewohnheiten sollten die Mähtechniken, die Häufigkeit und das genaue Datum sowie die Weidearten und deren Rasse beachtet werden. Daher ist es unerlässlich, die Geschichte der Landschaft und der Landentwicklung in den Managementplanungsprozess von Feuchtgebieten zu integrieren. Alte/historische Karten sind jedoch oft nicht genau. Da die meisten für den militärischen Gebrauch erstellt wurden, erfüllen historische Karten manchmal nicht die Anforderungen der Naturwissenschaften und des Managements, und ihre Legenden können nicht ausreichen, um geeignete Informationen abzuleiten. Die Bewirtschaftungsplanung sollte auf aktuellen, genauen, ökologisch relevanten und gesellschaftlichen Rahmenbedingungen beruhen, die aus der historischen Landnutzung gewonnen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7960-0_13 2f621d4cf35bcf3b2130c4f8d39a9959;de;;;6.2.;;;Vorhersage von Wirkstoff-Target-Interaktionen durch Dimensionsreduktion mit Ensemble Learning Die Interaktion zwischen Wirkstoff-Targets ist eines der wichtigsten Forschungsgebiete für die Wirkstoffforschung. Die Laborexperimente, die durchgeführt werden, um die Wechselwirkungen zwischen den Wirkstoffzielen zu identifizieren, sind mühsam, verzögert und kostspielig. Daher besteht ein dringender Bedarf an der Entwicklung hocheffizienter Computermethoden zur Identifizierung potenzieller Wirkstoff-Target-Interaktionen, die den Suchraum dieser Laborexperimente einschränken können. Die existierenden Computertechniken für die Interaktion mit dem Wirkstoff-Target wurden grob in ähnlichkeitsbasierte Verfahren und merkmalsbasierte Verfahren eingeteilt. In diesem Artikel wurde eine neuartige merkmalsbasierte Technik zur Vorhersage von Wechselwirkungen zwischen Wirkstoff-Targets vorgeschlagen. Die Technik verwendet Ensemble-Lernen, um Wechselwirkungen zwischen Medikamenten-Targets zu bestimmen. Ensemble-Lernen bietet im Vergleich zu herkömmlichen Klassifikatoren eine höhere Genauigkeit. Somit zielt die vorgeschlagene Technik darauf ab, die Genauigkeit unter Verwendung von Ensemble-Lernen zu verbessern. Außerdem wird eine Dimensionsreduktion von Wirkstoffzielmerkmalen unter Verwendung einer Hauptkomponentenanalyse durchgeführt, so dass die Rechenzeit des Verfahrens verringert werden kann. Die Ergebnisse zeigen eine verbesserte Leistung im Vergleich zu den Methoden des Standes der Technik auf dem Gebiet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29407-6_7 349a9d3eb0e59cde3d216df78c74a97f;de;;;6.2.;;;Wie traditionelle Banken in Smart City funktionieren sollten Intelligente und nachhaltige Städte nutzen Informations- und Kommunikationstechnologien, um die Lebensqualität zu verbessern. Smart Economy und Digitalisierung des Bankings sind die Kernthemen dieses Trends. Neue Technologien verändern den strategischen Kontext des Finanzgeschäfts und der Kommunikation grundlegend, indem sie die Einstellung und Erwartungen der Kunden, die Art des Wettbewerbs und das Geschäftsverhalten ändern. Der Fortschritt der IKT-Dienste ist weltweit unterschiedlich und in einigen Ländern und Kontinenten unterentwickelt. Der Beitrag wird Erkenntnisse aus verschiedenen Studien präsentieren und die zukünftige Bankenlandschaft untersuchen. Das Verhalten und die finanziellen Bedürfnisse von Millennials werden untersucht. Die Argumente, die dafür sprechen, dass die digitale Transformation von Banken für das Überleben und Gedeihen in Smart Cities unerlässlich ist, werden vorgestellt. Die ICT-Transformation der Deutschen Bank, Raiffeisen Bank, Hana-Bank und Bank Group „Otkrities“ wird analysiert. Es werden Empfehlungen für die intelligente Transformation der russischen Banken diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49700-6_13 032097050220067f2cacbbcb58bdb54e;de;;;6.2.;;;Wir denken meist gleich: Individuelle Unterschiede in der Einstellung zu KI in Schweden und Japan Die Einstellung zu künstlicher Intelligenz (KI) und sozialen Robotern wird in Japan oft anders dargestellt als in anderen westlichen Ländern wie Schweden. Es wurden verschiedene Gründe für die allgemeinen Unterschiede in den Einstellungen vorgeschlagen. In dieser Studie wurden fünf Hypothesen basierend auf der bisherigen Literatur untersucht. Anstatt zu versuchen, allgemeine Unterschiede zwischen Gruppen festzustellen, wurden Probanden aus den jeweiligen Populationen ausgewählt und Korrelationen zwischen den hypothetischen Störfaktoren und Einstellungen innerhalb der Gruppen zwischen Individuen untersucht. Die Hypothesen in dieser explorativen Studie betrafen: (H1) animistische Überzeugungen in unbelebten Objekten und Phänomenen, (H2) Sorge um Arbeitslosigkeit aufgrund des KI-Einsatzes, (H3) wahrgenommene positive oder negative Darstellung von KI in der Populärkultur, (H4) Vertrautheit mit KI , und (H5) relationale Nähe und Privatsphäre mit KI. Es konnten keine klaren Korrelationen zwischen Einstellungen und animistischem Glauben (H1) oder der Darstellung von KI in der Populärkultur (H3) beobachtet werden. Bei den anderen Attributen Sorge um Arbeitslosigkeit (H2), Vertrautheit mit KI (H4) sowie relationale Nähe und Privatsphäre (H5) waren die Korrelationen bei den Individuen beider Gruppen ähnlich und entsprachen den Hypothesen. Somit ergibt sich nach dieser explorativen Studie das allgemeine Bild, dass die Individuen in den beiden Populationen eher ähnlich als unterschiedlich sind.;-;-;-;https://link.springer.com/article/10.1007/s12626-021-00071-y 59884a1f32f1b98903056a24d7a35cf3;de;;;6.2.;;;Auto-Skalierung in Anwendungen zur Datenstromverarbeitung: Ein modellbasierter Ansatz zum verstärkten Lernen Durch die Nutzung von On-the-Fly-Berechnungen können Data Stream Processing (DSP)-Anwendungen riesige Datenmengen nahezu in Echtzeit verarbeiten. Die Anpassung der Anwendungsparallelität zur Laufzeit ist entscheidend, um angesichts unterschiedlicher Arbeitslasten ein angemessenes QoS-Niveau zu gewährleisten. In diesem Papier betrachten wir auf Reinforcement Learning basierende Techniken, um die Anzahl paralleler Instanzen für einen einzelnen DSP-Operator selbst zu konfigurieren. Konkret schlagen wir zwei modellbasierte Ansätze vor und vergleichen sie mit dem grundlegenden Q-Learning-Algorithmus. Unsere numerischen Untersuchungen zeigen, dass die vorgeschlagenen Lösungen eine bessere Leistung und eine schnellere Konvergenz als die Basislinie bieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-91632-3_8 8b18455348ab1913b83fc5ce87320566;de;;;6.2.;;;Clusteranalyse der Länderungleichheit aufgrund von IT-Entwicklung durch Makroanwendung Industrie 4.0 dürfte ein Weg sein, um sowohl wirtschaftliche Effizienz als auch soziale Gerechtigkeit zu erreichen. Dennoch kann niemand die gesellschaftlichen Auswirkungen von Industrie 4.0 auf die Gesellschaft vorhersagen, die sich in Gesellschaft 4.0 wandelt. Der Zweck dieses Papiers besteht darin, eine Clusteranalyse der Länderungleichheit aufgrund der IT-Entwicklung unter Verwendung von Softwarepaketen und Makroanwendungen vorzubereiten. Wir untersuchten die Auswirkungen von Bruttoinvestitionen, Forschungs- und Entwicklungsausgaben zur Schaffung von Innovationen, geistigem Eigentum und Hochtechnologieexporten auf die Ungleichheit von Ländern mithilfe einer Hauptkomponentenanalyse auf der Grundlage offener Daten 2012–2015. Die Clusteranalyse ermöglicht die Einteilung von Ländern in homogene Gruppen, die die Auswirkungen der IT-Entwicklung auf diese Länder ohne Schulungsstichproben beschreiben. Für die Clusteranalyse wird ein isotonischer oder isomorpher Algorithmus verwendet. Als isotonischer Algorithmus wird die PCA-Methode verwendet. Der isomorphe Algorithmus umfasst in Gruppen Länder, die in ihrer Struktur nahe sind. Wir haben die Vorteile des isomorphen Algorithmus gegenüber dem isotonischen unter Verwendung von Macros Application vorgestellt, die uns die notwendigen Verbindungen zwischen den Ländern geben, um ein Dendritendiagramm für Ländercluster unter Einfluss von IT-Faktoren zu entwickeln. So haben wir 7 Cluster erhalten, die die unterschiedlichen Auswirkungen von IT-Faktoren auf die ungleichmäßige Einkommensverteilung in 45 Ländern beschreiben. Die erste Gruppe von Clustern zeigt, dass IT-Faktoren motivieren, wirtschaftliche Ungleichheit zu verringern. Die zweite Gruppe von Clustern zeigt, dass IT-Faktoren zu Ungleichheit führen. Die dritte Gruppe von Clustern zeigt, dass andere Faktoren (nicht IT-Faktoren) eine Verringerung der Ungleichheit bewirken. Die vierte Gruppe von Clustern beweist, dass andere Faktoren (nicht IT-Faktoren) eine Ausweitung der Ungleichheit bewirken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-39459-2_19 360f5b248e4f6d7b1953cdc3f71908da;de;;;6.2.;;;Akupunktur bei chronischer, stabiler Angina pectoris und Untersuchung der Merkmale der Akupunkturpunktspezifität: Studienprotokoll für eine multizentrische randomisierte kontrollierte Studie Chronisch stabile Angina pectoris (CSAP) ist eine häufige Herz-Kreislauf-Erkrankung, die die Lebensqualität und Langlebigkeit eines Patienten gefährdet. Wie in mehreren klinischen Studien gezeigt wurde, ist Akupunktur bei CSAP wirksam. Aktuelle Studien sind aufgrund des unzureichenden Methodendesigns und der geringen Stichprobengröße nicht ausreichend, um qualitativ hochwertige Evidenz für die klinische Entscheidungsfindung zu liefern. Bemerkenswert ist, dass auch in den klinischen Akupunkturstudien für CSAP starke Kontroversen in Bezug auf die Akupunkturpunktspezifität bestehen. Daher haben wir die vorliegende Studie als randomisierte kontrollierte Studie konzipiert, um in erster Linie die Wirksamkeit der Akupunktur zusätzlich zur Routineversorgung bei Patienten mit CSAP zu untersuchen. In der Zwischenzeit haben wir untersucht, ob der Akupunkturpunkt auf dem krankheitsbetroffenen Meridian (DAM) dem Akupunkturpunkt auf dem nicht betroffenen Meridian (NAM) oder dem Nicht-Akupunkturpunkt (NA) überlegen ist, um die meridianbasierten Merkmale der Akupunkturpunktspezifität weiter zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-15-50 8c58d629f9e31eb62875e1a5039f5705;de;;;6.2.;;;Städte und Katastrophen: Von der Reaktion nach Katastrophen in Indonesien lernen Der Artikel untersucht die Reaktion nach einer Katastrophe auf die jüngsten Katastrophen in den Städten Indonesiens, zieht die gewonnenen Erkenntnisse und identifiziert spezifische Auswirkungen auf die öffentliche Gesundheit. Es werden kurze Hintergrundinformationen zum Tsunami und den Erdbeben in Aceh und Nias im Dezember 2004 sowie zum Erdbeben im Mai 2006 in den Provinzen Yogyakarta und Zentral-Java gegeben. Ein weiterer kurzer Abschnitt fasst die Reaktion auf beide Ereignisse nach der Katastrophe zusammen und behandelt Hilfs- und Wiederaufbaumaßnahmen. Die Lehren, die aus der Reaktion nach der Katastrophe gezogen wurden, werden zusammengefasst, darunter: (a) Lehren, die sich hauptsächlich auf die Hilfsphase beziehen, (b) Lehren für Rehabilitation und Wiederaufbau, (c) Gebote und Verbote, (d) Stadt -spezifische Beobachtungen. Schließlich werden aus den Erfahrungen mehrere Implikationen für die öffentliche Gesundheit in Städten gezogen, um gesundheitliche Ungleichheiten nach Katastrophen zu beseitigen. Eine erste Implikation ist die Bedeutung einer ernsthaften Bewertung der Schäden und des Bedarfs im Gesundheitswesen kurz nach der Katastrophe. Dann muss zwischen verschiedenen Arten von Interventionen und Anliegen während der humanitären (Hilfe-) und Wiederaufbauphase unterschieden werden. Im Verlauf des Wiederaufbaus ist es wichtig, die Katastrophenvorbereitung und -prävention in die gesamten Wiederaufbaubemühungen einzubeziehen. Schließlich müssen sowohl die Hilfs- als auch die Wiederaufbaubemühungen den Bedürfnissen schutzbedürftiger Gruppen besondere Aufmerksamkeit schenken. Zusammenfassend lässt sich sagen, dass diese Lehren mit zunehmender Gefahr städtischer Katastrophen an Bedeutung gewinnen werden.;-;-;-;https://link.springer.com/article/10.1007/s11524-007-9182-6 f288c4edaaad08cd44191bd445f652c2;de;;;6.2.;;;Open Source Intelligence für effiziente Untersuchungen und zuverlässige Websuche E Open Source Intelligence (OSINT) ist die Sammlung und Verarbeitung von Informationen, die von öffentlich zugänglichen oder Open-Source-Webportalen oder -Sites gesammelt werden. OSINT gibt es seit Hunderten von Jahren, unter dem einen oder anderen Namen. Mit dem Aufkommen der sofortigen Kommunikation und des schnellen Wissenstransfers können jetzt viele umsetzbare und analytische Daten aus nicht klassifizierten, öffentlichen Quellen gesammelt werden. Unter Verwendung von OSINT als Basiskonzept haben wir versucht, Lösungen für zwei verschiedene Anwendungsfälle bereitzustellen, z. B. ist der erste eine Untersuchungsplattform, die dazu beitragen würde, die manuelle Erfassung von Informationen zu vermeiden, wodurch Zeit und Ressourcen der Informationssammler gespart werden, die nur die relevanten Daten in einem verständlichen Vorlagenformat bereitstellen anstatt in grafischer Struktur und konzentriert sich auf die Anforderung minimaler Eingabedaten. Die zweite ist eine Business-Intelligence-Lösung, die es Benutzern ermöglicht, Details über eine Person oder sich selbst für das Geschäftswachstum, die Markenbildung und die Kundenverfolgung zu finden, die in dem Papier näher erläutert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6634-9_15 2ae6e2474a38b510963c647b1d49fa5b;de;;;6.2.;;;Bewertung der regionalen Wirtschaftsintegration auf der Grundlage relationaler Daten: Der Fall des Jangtse-Deltas Regionale Wirtschaftsintegration ist ein heißes Thema in der Regional- und Stadtentwicklung. Mit dem Aufstieg der Netzwerkgesellschaft prägt der Raum der Ströme statt des Raums der Räume das regionale Stadtsystem. Dabei repräsentiert der Raum der Flüsse den Fluss von Kapital, Fracht, Information und Mobilität, während der Raum der Räume die Städte im Netzwerk repräsentiert, die als Knoten oder Knoten fungieren. Im regionalen wirtschaftlichen Integrationsprozess bildet die Beziehung zwischen den Städten anstelle des Hierarchiesystems das regionale urbane System. Das wesentliche Merkmal des regionalen Stadtsystems ist daher das relationale Netzwerk. Ansätze zur Bewertung der regionalen Wirtschaftsintegration sind dringend erforderlich, da es keinen einheitlichen Ansatz gibt. Der Hauptgrund ist, dass es schwierig ist, relationale Daten basierend auf traditionellen Ansätzen zu sammeln. Big Relational Data bietet eine neue Möglichkeit, dieses Problem zu untersuchen. In Bezug auf den Prozess der regionalen Wirtschaftsintegration als Kapital-, Fracht-, Informations- und Mobilitätsfluss werden große relationale Daten erhoben, um diese Indikatoren zu charakterisieren. Basierend auf der Datenbank mit Firmenregistrierungsinformationen der chinesischen Staatsverwaltung für Industrie und Handel wird das unternehmensbasierte Netzwerk analysiert, um den Kapital- und Frachtfluss zu charakterisieren. Basierend auf der Datenbank des Baidu Search Index wird das informationsbasierte Netzwerk analysiert, um den Informationsfluss zu charakterisieren. Basierend auf der Eisenbahndatenbank wird das verkehrsbasierte Netz analysiert, um den Mobilitätsfluss zu charakterisieren. Diese drei Städtenetzwerke werden dann mit multivariaten Analysen und ineinandergreifenden Netzwerkansätzen verglichen und kombiniert. Um den Grad der regionalen wirtschaftlichen Integration der wichtigsten Städte zu messen, wird dann der regionale wirtschaftliche Integrationsindex bestimmt. Schließlich werden Vorschläge zur Untersuchung regionaler Probleme bei der Nutzung von Big Relational Data vorgeschlagen. Wie der Prozess der regionalen Wirtschaftsintegration zu bewerten ist, ist eine Frage, die aus mehreren Perspektiven betrachtet werden muss. Big Relational Data zeigt gute Perspektiven in diesem Untersuchungsgebiet und muss in Zukunft fokussiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-51929-6_5 783f4cb13a08e041f668e97433b69e77;de;;;6.2.;;;Die Belange des Datenschutzes bei Anrufen und Nachrichten, Netzwerkanwendungen Die Datenschutz-Grundverordnung (DSGVO) wurde 2018 verabschiedet und hatte als Hauptziel die Einführung des Schutzes personenbezogener Daten als Recht der europäischen Bürger. Die Informationen, die das wertvollste Gut unserer Zeit sind, sind jedoch ein notwendiges Element für die professionelle Tätigkeit der meisten Websites und Anwendungen. Sicheres Design ist von grundlegender Bedeutung, um das Vertrauen zwischen Geräten und Benutzern zu gewährleisten und aufrechtzuerhalten. IoT-Geräte sind die Zukunft der Technologie und Kommunikation. Angesichts der Mehrgeräte-Schnittstellentechnologie müssen wir die Möglichkeit berücksichtigen, den Benutzer vor Lecks auf andere Geräte, Anwendungen und Websites zu schützen. Die Verschlüsselung ist ein wichtiges Werkzeug, das uns dabei helfen kann, sicherzustellen, dass die Benutzer den von ihnen verwendeten Geräten vertrauen. Der Schutz personenbezogener Daten muss daher gewährleistet sein, zumal sie mittlerweile ein geschütztes Recht der Nutzer sind. In dieser Arbeit untersuchen wir die am häufigsten verwendeten Telefon- und Messaging-, Netzwerkanwendungen des täglichen Lebens: Ayoba, Facebook Messenger, Line, Signal, Skype, Slack, Telegram, Whatsapp und Viber. Insbesondere werden die Berechtigungen, die sie von den Benutzern verlangen, der Schutz und die Garantien, die sie gemäß der Datenschutz-Grundverordnung bieten, untersucht. Die zusätzlich angeforderten Berechtigungen oder die freigegebenen Daten werden ermittelt. Die Ergebnisse unserer Untersuchungen haben gezeigt, dass personenbezogene Daten und Informationen von den intelligenten Handheld-Geräten der Benutzer an Websites von Drittanbietern weitergegeben werden. Schließlich werden die Überschneidungen der Websites Dritter und folglich die Weitergabe der Benutzerinformationen an andere Parteien ohne deren sofortige Zustimmung gemeldet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0422-5_20 6687b076ac66779565692cb1e0ee5a7d;de;;;6.2.;;;"Entwicklung eines neuen Virtual-Reality-Kognitionstests: Bewertung der Test-Retest-Reliabilität, Konvergenz und ökologischen Validität von CONVIRT Technologische Fortschritte bieten die Möglichkeit, Instrumente zur Bewertung der Leistung des zentralen Nervensystems zu verfeinern. Diese Studie zielte darauf ab, die Test-Retest-Reliabilität und die konvergente und ökologische Validität eines neu entwickelten Virtual-Reality-Tools zur Bewertung von Gehirnerschütterungen, ""CONVIRT"", zu bewerten, das Eye-Tracking-Technologie verwendet, um die visuelle Verarbeitungsgeschwindigkeit und die manuelle Reaktionszeit (drückend) zu bewerten ein Knopf auf einer Reitgerte), um Aufmerksamkeit und Entscheidungsfindung zu beurteilen. CONVIRT wurde für Pferdejockeys entwickelt, die wie alle Sportler am stärksten von einer Gehirnerschütterung bedroht sind.";-;-;-;https://link.springer.com/article/10.1186/s40359-020-00429-x 3a70937b2b9b211f92662d78d45348c8;de;;;6.2.;;;Intrusion Detection im Internet of Things mit überwachtem maschinellem Lernen basierend auf Anwendungs- und Transportschichtfunktionen unter Verwendung des UNSW-NB15-Datensatzes Geräte des Internets der Dinge (IoT) sind gut verbunden, sie erzeugen und verbrauchen Daten, was die Übertragung von Daten zwischen verschiedenen Geräten beinhaltet. Die Gewährleistung der Datensicherheit ist eine kritische Herausforderung für das IoT. Da IoT-Geräte von Natur aus stromsparend sind und nicht viel Rechenleistung benötigen, wird normalerweise ein Network Intrusion Detection System verwendet, um bösartige Pakete zu erkennen und vom Eindringen in das Netzwerk zu entfernen. Im gleichen Kontext schlagen wir Feature-Cluster in Bezug auf Flow, Message Queuing Telemetry Transport (MQTT) und Transmission Control Protocol (TCP) vor, indem wir Features im UNSW-NB15-Datensatz verwenden. Wir beseitigen Probleme wie Überanpassung, Fluch der Dimensionalität und Ungleichgewicht im Datensatz. Wir wenden überwachte Algorithmen des maschinellen Lernens (ML) an, d. h. Random Forest (RF), Support Vector Machine und künstliche neuronale Netze auf den Clustern. Mit RF erreichen wir eine Genauigkeit von 98,67 % bzw. 97,37 % bei der Binär- und Mehrklassenklassifizierung. Bei Cluster-basierten Techniken erreichten wir 96,96 %, 91,4 % und 97,54 % der Klassifizierungsgenauigkeit durch die Verwendung von RF auf Flow- und MQTT-Funktionen, TCP-Funktionen und Top-Funktionen aus beiden Clustern. Darüber hinaus zeigen wir, dass die vorgeschlagenen Feature-Cluster im Vergleich zu anderen überwachten ML-basierten Ansätzen nach dem neuesten Stand der Technik eine höhere Genauigkeit bieten und weniger Trainingszeit erfordern.;-;-;-;https://link.springer.com/article/10.1186/s13638-021-01893-8 cc6a6a0f7d75465b219d2eb07ea2f311;de;;;6.2.;;;Die Wege zwischen Naturkatastrophen und Gewalt gegen Kinder: eine systematische Übersicht Naturkatastrophen betreffen zunehmend einen größeren Teil der Weltbevölkerung. Diese hochgradig störenden Ereignisse haben das Potenzial, negative Veränderungen in der sozialen Dynamik und in der Umwelt hervorzurufen, die die Gewalt gegen Kinder verstärken. Wir haben derzeit kein umfassendes Verständnis dafür, wie Naturkatastrophen zu Gewalt gegen Kinder führen, trotz der wachsenden Bedrohung der menschlichen Bevölkerung und der Bedeutung von Gewalt als Thema der öffentlichen Gesundheit. Die Kartierung von Gewaltpfaden ist entscheidend für die Gestaltung zielgerichteter und evidenzbasierter Präventionsangebote für Kinder. Wir überprüften systematisch von Experten begutachtete Artikel und graue Literatur, um die Wege zwischen Naturkatastrophen und Gewalt gegen Kinder zu dokumentieren und um Vorschläge zu machen, wie diese Informationen bei der Gestaltung zukünftiger Programme verwendet werden könnten.;-;-;-;https://link.springer.com/article/10.1186/s12889-021-11252-3 ce73dcea00a281cecff3375b5c3e2913;de;;;6.2.;;;Entwicklung und Anwendung von Instrumenten, um die Bereitstellung umweltbezogener Gesundheitsdienste in Gesundheitseinrichtungen zu kosten: eine Finanzanalyse im städtischen Malawi Environmental Health Services (EHS) in Gesundheitseinrichtungen (HCFs) sind entscheidend für die Bereitstellung einer sicheren, funktionalen Gesundheitsumgebung, aber über ihre Kosten ist wenig bekannt. Ein schlechtes Kostenverständnis behindert den Fortschritt in Richtung eines universellen Zugangs zu EHS bei HCF. Wir entwickelten Rahmenpläne für die wesentlichen Ausgaben, die für die Bereitstellung von EHS erforderlich sind, und führten eine Ex-post-Finanzanalyse von EHS in einem Netzwerk medizinischer Forschungs- und Ausbildungseinrichtungen in Lilongwe, Malawi, durch, die jährlich schätzungsweise 42.000 Patienten in sieben ambulanten Gebäuden versorgen.;-;-;-;https://link.springer.com/article/10.1186/s12913-021-06325-3 c6a6a6b5fb57902aee255e5a0969c2e9;de;;;6.2.;;;Robustes IoT-basiertes Pflegeunterstützungssystem mit intelligenten Bio-Objekten Der bedeutende Fortschritt bei den mobilen Sensortechnologien hat großes Interesse an der Anwendungsentwicklung für das Internet der Dinge (IoT) geweckt. Mit den Vorteilen der kontaktlosen Datenabfrage und der effizienten Datenverarbeitung von intelligenten IoT-basierten Objekten wurden zeitnah vielseitige innovative Arten von medizinisch relevanten On-Demand-Diensten entwickelt und eingesetzt. Kritische Merkmale der Datenverarbeitung und des Datenbetriebs müssen sorgfältig berücksichtigt werden. Um die Effizienz des Datenabrufs und die Robustheit der Kommunikation zwischen IoT-basierten Objekten zu erreichen, sind robuste Sicherheitsprimitive erforderlich, um die Vertraulichkeit der Daten und die Entitätsauthentifizierung zu wahren.;-;-;-;https://link.springer.com/article/10.1186/s12938-018-0582-5 2090730ac6f0b620dee496e74307f0d6;de;;;6.2.;;;In metrischen Maßräumen ist die Sobolev-Einbettung gleichbedeutend mit einer unteren Grenze für das Maß Wir untersuchen Sobolev-Ungleichungen auf verdoppelnden metrischen Maßräumen. Wir untersuchen die Beziehung zwischen Sobolev-Einbettungen und der unteren Schranke für das Maß. Insbesondere beweisen wir, dass, wenn die Sobolev-Ungleichung gilt, das Maß;-;-;-;https://link.springer.com/article/10.1007/s11118-016-9605-7 73be264199264c47ebd499034c747539;de;;;6.2.;;;Kann ein klinisches Entscheidungsunterstützungssystem von mhealth die Einhaltung von Behandlungsprotokollen für Neugeborene in einem Umfeld mit geringen Ressourcen verbessern? In dieser Studie wurde die Einhaltung von Gesundheitsprotokollen für Neugeborene durch Gesundheitspersonal vor und während der Implementierung eines klinischen Entscheidungsunterstützungssystems (mCDMSS) für mobile Gesundheit (mHealth) bewertet, mit dem versucht wurde, den Zugang zur Lücke im Gesundheitsprotokoll für Neugeborene in einem ressourcenarmen Umfeld zu überbrücken.;-;-;-;https://link.springer.com/article/10.1186/s12887-020-02378-1 9891bfba8d1718a879a0bfef603c3401;de;;;6.2.;;;Aktive Reibungskontrolle durch Querschwingungen Die vorliegende Arbeit widmet sich einer theoretischen Analyse der Gleitreibung unter dem Einfluss von Schwingungen in der Ebene senkrecht zur Gleitrichtung. Im Gegensatz zu früheren Studien zu diesem Modus der aktiven Reibungskontrolle betrachten wir den Einfluss der Steifigkeit des tribologischen Kontaktes im Detail und zeigen, dass die Kontaktsteifigkeit bei kleinen Schwingungsamplituden eine zentrale Rolle spielt. In der vorliegenden Arbeit betrachten wir den Fall eines weggesteuerten Systems, bei dem die Kontaktsteifigkeit im Vergleich zur Steifigkeit des Messsystems klein ist. Es wird gezeigt, dass in diesem Fall der makroskopische Reibungskoeffizient eine Funktion von zwei dimensionslosen Parametern ist – einer dimensionslosen Gleitgeschwindigkeit und einer dimensionslosen Schwingungsamplitude. Im Grenzbereich sehr großer Schwingungsamplituden werden bekannte Lösungen aus der Literatur reproduziert. Der Bereich kleiner Amplituden wird in dieser Arbeit erstmals beschrieben.;-;-;-;https://link.springer.com/article/10.1007/s40544-018-0202-1 336b342d4d8e94efdeff672cf8bcdfb7;de;;;6.2.;;;Quantenlogik in Dagger-Kernel-Kategorien Dieser Beitrag untersucht die Quantenlogik aus der Perspektive der kategorialen Logik und geht von minimalen Annahmen aus, nämlich der Existenz von Involutionen/Dolchen und Kernen. Es stellt sich heraus, dass die resultierenden Strukturen (1) viele interessante Beispiele umfassen, wie Kategorien von Beziehungen, partielle Injektionen, Hilberträume (auch Modulophase) und Boolesche Algebren, und (2) interessante kategoriale/logische/ordnungstheoretische Eigenschaften haben , in Bezug auf Kernel-Fibrationen, wie das Vorhandensein von Pullbacks, Faktorisierung, Orthomodularität, Atomizität und Vollständigkeit. Zum Beispiel werden der Sasaki-Haken und und-dann-Verbindungen als Adjoints über die existentielle Pullback-Adjunktion zwischen Fasern erhalten.;-;-;-;https://link.springer.com/article/10.1007/s11083-010-9145-5 050904dadf62827363a6af5d64b4ad9f;de;;;6.2.;;;Universelle Codierung für den klassischen Quantenkanal Wir konstruieren einen universellen Code für einen stationären und gedächtnislosen klassischen Quantenkanal als Quantenversion der universellen Codierung von Csiszár und Körner. Unser Code besteht aus einer Kombination irreduzibler Darstellungen, einem Decoder, der durch das Quanteninformationsspektrum eingeführt wird, und dem Packungslemma.;-;-;-;https://link.springer.com/article/10.1007/s00220-009-0825-1 6cbab90f9fcb84a29b3d700231239b9b;de;;;6.2.;;;Statistische Analyse von Tensorfeldern In diesem Papier schlagen wir ein Riemannsches Framework für die statistische Analyse von Tensorfeldern vor. Bestehende Ansätze für dieses Problem waren hauptsächlich Voxel-basiert, die die Korrelation zwischen Tensoren an verschiedenen Voxeln übersehen. In unserem Ansatz werden die Tensorfelder als Punkte in einem hochdimensionalen Riemannschen Produktraum betrachtet und entsprechend erweitern wir die Principal Geodätische Analyse (PGA) auf den Produktraum. Dies liefert uns eine prinzipielle Methode zur Linearisierung des Problems, und gekoppelt mit den üblichen Log-Exp-Karten, die Punkte auf Mannigfaltigkeiten zu Tangentenvektoren in Beziehung setzen, kann die globale Korrelation des Tensorfeldes mit der Hauptkomponentenanalyse in einem Tangentialraum erfasst werden. Mit dem vorgeschlagenen Verfahren lassen sich die Variationsarten von Tensorfeldern effizient bestimmen und auch eine Dimensionsreduktion der Daten ist einfach zu realisieren. In der Arbeit werden experimentelle Ergebnisse zur Charakterisierung der Variation einer großen Menge von Tensorfeldern vorgestellt, und es werden auch Ergebnisse zur Klassifizierung von Tensorfeldern unter Verwendung der vorgeschlagenen Methode berichtet. Diese vorläufigen experimentellen Ergebnisse zeigen die Vorteile unserer Methode gegenüber dem voxelbasierten Ansatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15705-9_83 3d64dc8b0650927c0151b0f920cb7ff1;de;;;6.2.;;;Vielsortierte und einfachsortierte Algebren Dieses Papier spezifiziert eine detaillierte, vollständig typbasierte allgemeine Methode zum Übersetzen der Klasse aller reinen, vielsortierten Algebren eines gegebenen konstantenfreien Typs in eine äquivalente Vielfalt einfach sortierter Algebren eines definierten, konstantenfreien Typs. Die Komplexität der Identitäten, die die Varietät definieren, ist eine lineare Funktion der Anzahl der Sorten und der Anzahl der grundlegenden Operationen.;-;-;-;https://link.springer.com/article/10.1007/s00012-013-0224-5 7beb50cbbc1e78ca84a9e752e3c700ec;de;;;6.2.;;;Die Notwendigkeit einer telemedizinischen Strategie für Botswana? Eine Scoping-Überprüfung und Situationsbewertung Gesundheit, Gesundheitsversorgung und Gesundheitssystemprobleme in den Entwicklungsländern sind allgemein bekannt. eHealth, der Einsatz von Informations- und Kommunikationstechnologien (IKT) für die Gesundheit, wird häufig als Mittel zur Linderung solcher Probleme vorgeschlagen. Um jedoch die am besten geeigneten E-Health-Lösungen zu identifizieren und umzusetzen, ist eine durchdachte und umfassend evidenzbasierte Strategie erforderlich. Die meisten veröffentlichten Strategien konzentrieren sich auf Lösungen der Gesundheitsinformatik und vernachlässigen das Potenzial für andere Aspekte der E-Health (Telemedizin, Telemedizin, E-Learning und E-Commerce). Diese Studie untersuchte das Umfeld in Botswana, um die Notwendigkeit einer telemedizinspezifischen Strategie zu ermitteln.;-;-;-;https://link.springer.com/article/10.1186/s12913-020-05653-0 81ce48bc05d2d2daddd78c977f32d3e3;de;;;6.2.;;;Untersuchung von Innovationen in Krankenhauseinheiten: ein komplexer adaptiver Systemansatz Wir befinden uns in einem Innovationszeitalter für die Gesundheitsversorgung. Einige weisen darauf hin, dass die Komplexität der Gesundheitsversorgung Innovationen in diesem Umfeld erschweren und anpassungsfähigere Lösungen erfordern kann. Das Ziel dieser Studie ist es, die Beziehung zwischen Einheitskomplexität und Innovation unter Verwendung eines komplexen adaptiven Systemansatzes in einem Krankenhausumfeld zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s12913-020-05403-2 72f367c5cea3d3d3930c95fecfb368dc;de;;;6.2.;;;Zoonoseforschung in Ostafrika Die ostafrikanische Region ist endemisch mit mehreren Zoonosekrankheiten und ist einer der Hotspots für neu auftretende ansteckende Zoonosekrankheiten mit gemeldeten mehreren Ausbrüchen epidemischer Krankheiten wie Ebola, Marburg und Rift Valley Fever. Hier präsentieren wir eine systematische Bewertung der veröffentlichten Forschung zu Zoonosen in der Region und der Dissertationsforschung in Kenia, um den regionalen Forschungsschwerpunkt und die Trends bei Publikationen zu verstehen und den Anteil der Thesenforschung zu schätzen, die zu von Experten begutachteten Zeitschriftenpublikationen übergeht.;-;-;-;https://link.springer.com/article/10.1186/s12879-018-3443-8 95352dd655d070ad15d7326f52a72156;de;;;6.2.;;;Transkriptomanalyse von Granulosazellen nach konventioneller vs. langer FSH-induzierter Superstimulation bei Rindern Eine Verlängerung der superstimulatorischen Behandlung scheint mit einer stärkeren superovulatorischen Reaktion und einer stärkeren Eizellreifung bei Rindern verbunden zu sein. Ein genomweites bovines Oligo-Mikroarray wurde verwendet, um die Genexpression von Granulosazellen zu vergleichen, die aus Eierstockfollikeln nach unterschiedlicher Dauer der Wachstumsphase, die durch exogene FSH-Behandlung induziert wurde, gewonnen wurden. Die Kühe erhielten eine konventionelle (4 Tage) oder lange (7 Tage) superstimulierende Behandlung (25 mg FSH im im Abstand von 12 Stunden,;-;-;-;https://link.springer.com/article/10.1186/s12864-018-4642-9 1714255d9755074f964fc89ef71c6534;de;;;6.2.;;;Text Mining erleichtert die Datenbankkuration - Extraktion von Mutations-Krankheits-Assoziationen aus biomedizinischer Literatur Fortschritte in der Sequenzierungstechnologie der nächsten Generation haben das Tempo der individualisierten Medizin (IM) beschleunigt, die darauf abzielt, genetische/genomische Informationen in die Medizin zu integrieren. Eine unmittelbare Notwendigkeit bei der Interpretation von Sequenzierungsdaten ist die Sammlung von Informationen über genetische Varianten und ihre entsprechenden Assoziationen mit anderen Entitäten (z. B. Krankheiten oder Medikamente). Selbst mit engagierten Bemühungen, solche Informationen in biologischen Datenbanken zu erfassen, bleiben viele dieser Informationen im unstrukturierten Text biomedizinischer Publikationen „eingeschlossen“. Zwischen der Veröffentlichung und der anschließenden Abstraktion dieser Informationen in Datenbanken liegt eine erhebliche Verzögerung. Es wurden mehrere Text-Mining-Systeme entwickelt, aber die meisten von ihnen konzentrieren sich auf die Extraktion von Assoziationen auf Satzebene mit Leistungsbewertung basierend auf Goldstandard-Textanmerkungen, die speziell für Text-Mining-Systeme vorbereitet wurden.;-;-;-;https://link.springer.com/article/10.1186/s12859-015-0609-x 288ca496d2f6024a67144831466791a7;de;;;6.2.;;;Auswirkungen der sofortigen Einleitung einer antiretroviralen Therapie bei Männern, die Sex mit HIV-infizierten Männern haben, in Chengdu, Südwestchina: Trendanalyse, 2008–2018 Angesichts der grassierenden HIV-Epidemie unter Männern, die Sex mit Männern (MSM) in Chengdu, Südwestchina, haben, wurde die Richtlinie Treat All, definiert als sofortige Einleitung einer antiretroviralen Therapie (ART) nach der HIV-Diagnose, seit 2014 umgesetzt eine sofortige ART bei HIV-Epidemien ist erforderlich, um die politische Entscheidungsfindung zu optimieren, da nationale und internationale Richtlinien die ART-Berechtigungsschwelle gesenkt haben. Der Zweck dieser Studie besteht darin, die zeitlichen Trends der HIV-Epidemie und die Auswirkungen der Treat All-Politik unter MSM zu bewerten und die Grundlage für eine HIV-bezogene Politikbewertung unter Verwendung von Längsschnitt-Routinedaten aus Gesundheitsinformationssystemen zu legen.;-;-;-;https://link.springer.com/article/10.1186/s12889-021-10580-8 f7455e94170f47733492e1e392cdec93;de;;;6.2.;;;Wirkung eines mehrdimensionalen Fallmanagementmodells auf antiretrovirale Therapieergebnisse bei Menschen, die mit dem humanen Immunschwächevirus in Peking, China, leben Dieses Papier stellt ein umfassendes Fallmanagementmodell vor, das Ärzte, Pflegepersonal und Nichtregierungsorganisationen (NGOs) vereint, um die Zeit von der HIV-Diagnose bis zum Beginn einer antiviralen Therapie zu verkürzen, die Therapietreue der Patienten zu verbessern und die antiretrovirale Behandlung (ART) zu verbessern Ergebnisse.;-;-;-;https://link.springer.com/article/10.1186/s12879-020-05219-9 75d14741fdc7d645f9ee6a2603ed9c36;de;;;6.2.;;;Auswirkungen eines umfassenden Tuberkulose-Kontrollmodells auf die Qualität der klinischen Dienstleistungen und die finanzielle Belastung der Behandlung von Patienten mit arzneimittelresistenter Tuberkulose in China: eine Mixed-Methods-Evaluation Die Phase III des TB-Projekts der Nationalen Gesundheitskommission der China National Health Commission (Gates) implementierte ein umfassendes TB-Kontrollmodell mit mehreren Interventionen, um die Belastung durch arzneimittelresistente TB (DRTB) anzugehen. Diese Studie zielt darauf ab, die Qualität der klinischen DRTB-Leistungen zu bewerten und die finanzielle Belastung von DRTB-Patienten während des Interventionszeitraums zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s40249-021-00832-5 4e8e300da03055c25c855cf772b833a3;de;;;6.2.;;;Lang anhaltende Insektizidnetze und das Sprühen von Rückständen in Innenräumen reichen möglicherweise nicht aus, um Malaria in einem Gebiet mit geringer Malariainzidenz zu beseitigen: Ergebnisse einer randomisierten kontrollierten Cluster-Studie in Äthiopien Es gibt widersprüchliche Ergebnisse zum zusätzlichen Nutzen der Kombination von langlebigen Insektizidnetzen (LLINs) mit Indoor-Restspray (IRS) zur Kontrolle der Malariainfektion. Das Hauptziel der Studie war es zu bewerten, ob die kombinierte Anwendung von LLINs und IRS mit Propoxur einen zusätzlichen Schutz gegen . bietet;-;-;-;https://link.springer.com/article/10.1186/s12936-019-2775-1 bde6c4b7fa29a126738f23aff4366794;de;;;6.2.;;;Prävalenz und Determinanten der Beendigung des ausschließlichen Stillens in der frühen postnatalen Phase in Sydney, Australien Optimales Stillen hat Vorteile für die Mutter-Kind-Dyaden. Diese Studie untersuchte die Prävalenz und die Determinanten der Beendigung des ausschließlichen Stillens (EBF) in der frühen postnatalen Phase in einer kulturell und sprachlich vielfältigen Bevölkerung in Sydney, New South Wales, Australien.;-;-;-;https://link.springer.com/article/10.1186/s13006-017-0110-4 a5ef6222e6d814d44abbf8b194bd6b6b;de;;;6.2.;;;Arzterfahrung mit Spracherkennungssoftware in der Psychiatrie: Anwendung und Perspektive Der Zweck dieser Arbeit ist es, eine frühere Studie durch die Evaluierung des Einsatzes einer Spracherkennungssoftware in einem klinischen Psychiatrie-Milieu zu erweitern. Ärzte (n = 55) einer psychiatrischen Klinik nahmen an einer eingeschränkten Durchführung teil und erhielten Schulungen, Lizenzen und entsprechende Geräte. Nach der Implementierung wurden Nutzungsdaten über die Software gesammelt. Darüber hinaus wurde 5 Monate nach Einführung der Technologie eine Umfrage nach der Implementierung verteilt.;-;-;-;https://link.springer.com/article/10.1186/s13104-018-3790-y 35b92a4fade758e9b691e3939e524a12;de;;;6.2.;;;Extraktion eines Schlaganfall-Phänotyp-Risikofaktors aus klinischen Berichten der Veteran Health Administration: eine Analyse des Informationsgehalts In den Vereinigten Staaten erleiden jedes Jahr 795.000 Menschen Schlaganfälle, 10–15 % dieser Schlaganfälle sind auf eine Stenose zurückzuführen, die durch Plaque in der Halsschlagader verursacht wird, einem Hauptrisikofaktor für den Schlaganfall. Studien zum Vergleich von Behandlungen zur Behandlung einer asymptomatischen Karotisstenose sind aus mindestens zwei Gründen eine Herausforderung: 1) administrative Abrechnungscodes (dh Codes der aktuellen Verfahrensterminologie (CPT)), die Karotisbilder identifizieren, geben nicht an, welche neurovaskulären Arterien betroffen sind und 2) die Die meisten Bildberichte sind negativ für eine Karotisstenose. Studien, die auf einer manuellen Diagrammabstraktion beruhen, können arbeitsintensiv, teuer und zeitaufwendig sein. Natural Language Processing (NLP) kann den Prozess der manuellen Diagrammabstraktion beschleunigen, indem Berichte ohne/unsignifikante Karotisstenosebefunde automatisch gefiltert und Berichte mit signifikanten Karotisstenosebefunden gekennzeichnet werden, wodurch Aufwand, Kosten und Zeit möglicherweise reduziert werden.;-;-;-;https://link.springer.com/article/10.1186/s13326-016-0065-1 b9a07ee3dd09fccbc4bed5e9506714b8;de;;;6.2.;;;Prävention von – und erste Reaktion auf – Verletzungen in Nepal: eine Überprüfung der Politik und Gesetzgebung Verletzungen, die jährlich schätzungsweise 4,5 Millionen Todesfälle und weltweit viele weitere Behinderungen verursachen, sind das vorhersehbare Ergebnis besonderer Umstände. Eine der effektivsten Möglichkeiten, Verletzungen vorzubeugen, sind Richtlinien und Gesetze. Das Ziel dieser Forschungsstudie war es, alle Richtlinien und Gesetze in Nepal zu identifizieren und kritisch zu überprüfen, die das Potenzial haben, Verletzungen zu vermeiden.;-;-;-;https://link.springer.com/article/10.1186/s12961-021-00686-1 6a6dc90c8a3f654ee58d94be665b0978;de;;;6.2.;;;Epidemiologische Merkmale der Lungentuberkulose bei medizinischem Personal in Henan, China von 2010 bis 2017 Pflegekräfte (HCWs) sind eine epidemiologische Gruppe mit erhöhter Exposition gegenüber Tuberkulose (TB), insbesondere in Gesundheitseinrichtungen (HCF) mit schlechter TB-Infektionskontrolle in Umgebungen mit hoher TB-Belastung. China ist ein Land mit hoher TB-Belastung, und die umfassenden Maßnahmen zur Beendigung der TB-Übertragung an einigen HCFs wurden aufgrund begrenzter Ressourcen und anderer Faktoren nicht gut umgesetzt. Der Zweck dieser Studie bestand darin, das Risiko einer berufsbedingten TB-Exposition bei HCW und deren Veränderungstrend zu überprüfen und epidemiologische Merkmale der Lungentuberkulose (PTB) bei HCWs in Henan, Zentralchina, zu identifizieren.;-;-;-;https://link.springer.com/article/10.1186/s12879-020-05163-8 68b761c3928ec27b138a0b8145cdf3f3;de;;;6.2.;;;Kartierung und Aufzählung von Häusern und Haushalten zur Unterstützung von Malariakontrollmaßnahmen auf der Insel Bioko Wohnungskartierung und Haushaltszählung sind für die Planung, Durchführung, Ausrichtung und Überwachung von Malariakontrollmaßnahmen unerlässlich. In vielen Ländern, in denen Malaria endemisch ist, werden Kontrollbemühungen durch unvollständige oder nicht vorhandene Wohnungskartographie und Haushaltszählung behindert. Dieses Papier beschreibt die Entwicklung eines umfassenden Kartierungs- und Zählsystems zur Unterstützung des Bioko Island Malaria Control Project (BIMCP).;-;-;-;https://link.springer.com/article/10.1186/s12936-019-2920-x 1763cf17e3b7748a25a55890b729459d;de;;;6.2.;;;Die Herausforderungen neuer KIS bei der Überbrückung der Kommunikationslücken zwischen Ärzten und Pflegepersonal in China: eine Interviewstudie Untersuchung der aktuellen Situation, bestehender Probleme und möglicher Ursachen dieser Probleme in Bezug auf die Arzt-Pflege-Kommunikation in einem Umfeld zunehmend verbreiteter Nutzung von Krankenhausinformationssystemen und Suche nach neuen potentiellen Strategien in der Informationstechnologie zur Verbesserung der Arzt-Pflege-Kommunikation.;-;-;-;https://link.springer.com/article/10.1186/s12911-017-0473-x c425cad072b384c7b9898115a0f5db23;de;;;6.2.;;;OpenDragon: Software und Toolkit für Programmierer zum Unterrichten von Fernerkundung und Geoinformatik Kontinuierliche Fortschritte in der Geoinformatikforschung und -anwendung hängen von der Ausbildung neuer Generationen von Theoretikern und Praktikern ab. Effektive Aus- und Weiterbildung hängen wiederum von der Verfügbarkeit geeigneter Werkzeuge, einschließlich Software, ab.;-;-;-;https://link.springer.com/article/10.1186/s40965-017-0018-3 20da68162da15c2b1927d1a4dfa22826;de;;;6.2.;;;Einsatz künstlicher Intelligenz zur Reduzierung des diagnostischen Aufwands, ohne die Erkennung von Harnwegsinfektionen zu beeinträchtigen Ein erheblicher Teil des mikrobiologischen Screenings in diagnostischen Labors ist auf den Verdacht auf Harnwegsinfektionen (HWI) zurückzuführen, doch etwa zwei Drittel der Urinproben liefern typischerweise negative Kulturergebnisse. Indem die Anzahl der zu kultivierenden Abfrageproben reduziert wird und sich diagnostische Dienste auf diejenigen konzentrieren können, in denen echte mikrobielle Infektionen vorliegen, ist eine signifikante Effizienzsteigerung des Dienstes möglich.;-;-;-;https://link.springer.com/article/10.1186/s12911-019-0878-9 8c1c74fb1c6109d42af37331c2438ffa;de;;;6.2.;;;Die gesunde Zukunftsstudie der VAE: ein Pilotprojekt für eine prospektive Kohortenstudie mit 20.000 Staatsangehörigen der Vereinigten Arabischen Emirate Die Vereinigten Arabischen Emirate (VAE) sind mit einer schnell steigenden Belastung durch nicht übertragbare Krankheiten wie Fettleibigkeit, Diabetes und Herz-Kreislauf-Erkrankungen konfrontiert. Die Studie Gesunde Zukunft der VAE ist eine prospektive Kohorte, die entwickelt wurde, um Zusammenhänge zwischen Risikofaktoren und diesen Krankheiten bei Emiratis zu identifizieren. An der Studie werden 20.000 VAE-Bürger im Alter von 18 Jahren teilnehmen. Umwelt- und genetische Risikofaktoren werden charakterisiert und die Teilnehmer werden für zukünftige Krankheitsereignisse beobachtet. Da in den VAE erstmals eine prospektive Kohortenstudie geplant war, wurde 2015 eine Pilotstudie mit dem primären Ziel durchgeführt, die Machbarkeit der Studie zu prüfen. Weitere Ziele waren die Evaluierung der Umsetzung der wichtigsten Studienprotokolle und der Aufbau angemessener Kapazitäten für die Durchführung fortgeschrittener klinischer Laboranalysen.;-;-;-;https://link.springer.com/article/10.1186/s12889-017-5012-2 fe7f072abfa3c7364e8585cf26466006;de;;;6.2.;;;Determinanten der Gesundheitskompetenz in der Allgemeinbevölkerung: Ergebnisse der katalanischen Gesundheitserhebung Health Literacy (HL) ist das Wissen und die Kompetenz, auf Gesundheitsinformationen zuzugreifen, sie zu verstehen, zu bewerten und anzuwenden, um die Gesundheit beurteilen zu können. Wir analysieren zum ersten Mal das HL-Niveau der Bevölkerung Kataloniens. Unser Ziel war es, das HL der Bevölkerung in unserer Region zu bewerten und soziale Determinanten des HL zu identifizieren, um die Strategien des Gesundheitsplans zu verbessern, die darauf abzielen, ein personenzentriertes System zu schaffen und soziale Ungleichheiten im Gesundheitswesen zu verringern.;-;-;-;https://link.springer.com/article/10.1186/s12889-019-7381-1 3bb3a85daec9eae252e70c2cbedbcfc8;de;;;6.2.;;;Akzeptanz einer technologiegestützten und lösungsorientierten Intervention (DIALOG+) bei chronischer Depression: Ansichten von Servicenutzern und Klinikern Die Behandlung chronischer Depressionen stellt eine erhebliche Belastung für den NHS dar, dennoch fehlt es an evidenzbasierten Interventionen und Forschung, die sich speziell auf diese Erkrankung konzentriert. DIALOG+, eine technologiegestützte und ressourcenorientierte Intervention, die sich für Menschen mit Psychosen als wirksam erwiesen hat, kann die Versorgung dieser Nutzergruppe verbessern. Das Ziel dieser Studie war es, die Akzeptanz und Relevanz von DIALOG+ für die Behandlung chronischer Depressionen in gemeindenahen Settings zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s12888-021-03256-5 1c2f71741522d82077ed3cfc72ee96aa;de;;;6.2.;;;Fehlender Zusammenhang zwischen intraoperativer Übergabe der Versorgung und postoperativen Komplikationen: eine retrospektive Beobachtungsstudie Die Bedeutung intraoperativer Anästhesieübergaben für die Patientenergebnisse ist unklar. Ein Aspekt, der die unterschiedlichen Ergebnisse unterscheidet, ist die Behandlung von Störfaktoren wie Patientenkomorbiditäten und OP-Tageszeiten. Wir führten diese Studie durch, um die Bedeutung von Störvariablen bei zusammengesetzten unerwünschten Ereignissen während intraoperativer Anästhesieübergaben zu quantifizieren.;-;-;-;https://link.springer.com/article/10.1186/s12871-019-0858-8 8e14c060c326b3f35bf850de2ecb216f;de;;;6.2.;;;Vorstellung einer neuen Mutation bei FMF und Bewertung der Verbreitungshäufigkeit der MEFV-Genmutation in unserer Region mit klinischen Befunden Das familiäre Mittelmeerfieber (FMF), eine autosomal-rezessiv vererbte Erkrankung, die durch rezidivierendes selbstlimitierendes Fieber, Peritonitis, Pleuritis, Arthritis und erysipelähnliche Erytheme gekennzeichnet ist, ist bei ethnischen Gruppen wie Türken, Armeniern, Arabern und Juden weit verbreitet. Die klinische Präsentation wird durch Mutationen im MEFV-Gen verursacht, das für das Pyrin-Protein kodiert. In dieser Studie wollten wir eine neue Mutation präsentieren, die zuvor nicht aus den Mutationen im MEFV-Gen definiert wurde, das für die genetische Pathologie des familiären Mittelmeerfiebers verantwortlich ist, und die Häufigkeit der Verteilung der MEFV-Genmutation unter verschiedenen ethnischen Gruppen, die in unserer Region leben. In der vorliegenden retrospektiven Studie wurden insgesamt 2639 Patienten mit klinischem Verdacht auf FMF erfasst, die zwischen 2010 und 2017 an das Hatay Mustafa Kemal University Hospital überwiesen wurden. MEFV-Genmutationen wurden mittels DNA-Sequenzanalyse beobachtet. MEFV-Mutationen wurden bei 2079 der 2639 Patienten (78,7 %) gefunden. Von diesen Patienten waren 184 (6,97 %) homozygot, während 1365 (51,72 %) heterozygot waren. Die am häufigsten beobachtete Mutation war R202Q (1319, 19,55%), gefolgt von E148Q (n = 476, 7,05%), M694V (n = 439, 6,51%), V726A (n = 146, 2,16%) und M680I (n = 135 .). , 2%). In einem klinisch als FMF diagnostizierten Fall wurde eine neue Mutation namens S145G (S. Ser145Gly, c.433A > G) im Exon 2 des MEFV-Gens identifiziert. Außerdem wurde durch die Aufnahme einer neuen pathogenen MEFV-Variante in die Literatur die Beziehung zwischen der FMF-Klinik und der homozygoten Form von R202Q, die zuvor als Polymorphismus angesehen wurde, hervorgehoben.;-;-;-;https://link.springer.com/article/10.1007/s11033-020-06040-y f800d177e209e92e66f7ba70aa4145ba;de;;;6.2.;;;Untersuchung der Unterschiede in den Erhebungsmerkmalen von ICD- und Krankenhausmorbiditätsdaten in den einzelnen Ländern: eine internationale Umfrage Die Internationale Klassifikation der Krankheiten (ICD) ist der Referenzstandard für die Meldung von Krankheiten und Gesundheitszuständen weltweit. Unterschiede bei der Verwendung von ICDs und der Datenerhebung zwischen den Ländern können aussagekräftige Vergleiche von Morbiditätsdaten verhindern. Unser Ziel war es daher, die Datenerhebungsmerkmale von ICD und Krankenhausmorbidität weltweit zu charakterisieren.;-;-;-;https://link.springer.com/article/10.1186/s12913-021-06302-w 8b22049c3d7c0e554978992d38f9d98e;de;;;6.2.;;;Krankenhauseinweisungen und Sterblichkeit aufgrund von Komplikationen des Drogenkonsums in zwei Krankenhäusern in Regina, Kanada: retrospektive Übersichtsdarstellung Infektiöse Komplikationen des Drogenkonsums (IDU) erfordern oft eine langwierige stationäre Behandlung. Unser Ziel war es, die Anzahl der Einweisungen im Zusammenhang mit IDU in Regina, Kanada, zu ermitteln sowie Patientendemografie und Komorbiditäten, jährliche Mortalität, Wiederaufnahmerate und kumulierte Kosten dieser Krankenhauseinweisungen zwischen dem 1. Januar und 31. Dezember 2018 zu beschreiben versucht, Faktoren zu identifizieren, die das Risiko für Tod oder Wiederaufnahme erhöhen.;-;-;-;https://link.springer.com/article/10.1186/s12954-021-00492-6 0ba25485048530e4d83d8d492cde9ffa;de;;;6.2.;;;Auf dem Weg zur Plug-and-Play-Integration von Archetypen in ältere elektronische Patientenaktensysteme: die ArchiMed-Erfahrung Der duale Modellansatz stellt eine vielversprechende Lösung dar, um einen semantisch interoperablen standardisierten Austausch elektronischer Patientenakten (EHR) zu erreichen. Ihre Akzeptanz hängt jedoch vom Aufwand ab, der für die Integration von Archetypen in ältere EHR-Systeme erforderlich ist.;-;-;-;https://link.springer.com/article/10.1186/1472-6947-13-11 2bfaf4939f33a6f965a407cee51977ab;de;;;6.2.;;;Prospektive absichtsbasierte Lifestyle-Verträge: mHealth-Technologie und Verantwortung im Gesundheitswesen Da die steigenden Kosten von lebensstilbedingten Krankheiten die öffentlichen Gesundheitssysteme zunehmend belasten, kann die Rolle des Einzelnen bei der Krankheit als Rationierungskriterium im Gesundheitswesen vorgeschlagen werden. Die bisherige Literatur hat sich vor allem auf die retrospektive Verantwortung im Gesundheitswesen konzentriert. Das Konzept der künftigen Verantwortung in Form eines Lifestyle-Vertrags bedarf weiterer Untersuchungen. Die Verantwortung in der Gesundheitsdebatte muss auch innovative Entwicklungen in der mobilen Gesundheitstechnologie berücksichtigen, wie tragbare biometrische Geräte und mobile Apps, die die Art und Weise verändern können, wie wir andere für ihren Lebensstil verantwortlich machen. Über die öffentliche Einstellung zu Lifestyle-Verträgen und den Einsatz mobiler Gesundheitstechnologien, um Menschen im Gesundheitswesen verantwortlich zu machen, ist wenig bekannt. Dieses Papier hat zwei Komponenten. Erstens werden empirische Ergebnisse einer Umfrage unter 81 Mitgliedern der britischen Bevölkerung zur öffentlichen Einstellung zur Eigenverantwortung und zur Rationierung der Gesundheitsversorgung, zur prospektiven und retrospektiven Verantwortung sowie zur Akzeptanz von Lifestyle-Verträgen im Kontext mobiler Gesundheitstechnologie erläutert. Zweitens stützen wir uns auf die empirischen Befunde und schlagen ein Modell prospektiver absichtsbasierter Lebensstilverträge vor, das sowohl stärker an öffentlichen Intuitionen ausgerichtet als auch ethisch weniger verwerflich ist als traditionellere retrospektive Modelle von Verantwortung im Gesundheitswesen.;-;-;-;https://link.springer.com/article/10.1007/s10728-020-00424-8 15aec6f16b422de409baaef1d70fcec1;de;;;6.2.;;;Antibakterielle Resistenz bei Augeninfektionen: eine multizentrische Analyse in britischen Pflegeeinrichtungen Bakterielle ophthalmologische Infektionen sind häufig. In schweren Fällen wird eine empirische Behandlung mit topischen Breitbandantibiotika empfohlen. Antibiotikaresistenzen (AMR) gegen Wirkstoffe, die bei bakteriellen Augeninfektionen verwendet werden, machen es immer wichtiger, sich ändernde Resistenzmuster bei der Verschreibung zu berücksichtigen, jedoch fehlen in diesem Bereich Daten aus dem Vereinigten Königreich. Wir bewerten die Epidemiologie und die antimikrobielle Empfindlichkeit von Augenkrankheitserregern in allen Versorgungseinrichtungen und vergleichen diese mit lokalen und nationalen Richtlinien zur Verschreibung von Antibiotika.;-;-;-;https://link.springer.com/article/10.1186/s12879-019-4418-0 b482533ae79fb3705af18e0bf1982be4;de;;;6.2.;;;Nichtinvasive genetische Populationserhebung von Schneeleoparden ( Der vom Aussterben bedrohte Schneeleopard kommt in den großen Gebirgszügen Zentralasiens vor, einschließlich des abgelegenen Himalaya. Aufgrund ihres schwer fassbaren Verhaltens, der spärlichen Verbreitung und des schlechten Zugangs zu ihrem Lebensraum fehlen jedoch insbesondere in Nepal zuverlässige Informationen über ihren Bevölkerungsstatus und ihre Demografie. Daher haben wir nichtinvasive genetische Techniken verwendet, um eine vorläufige Schneeleopardenuntersuchung in zwei Schutzgebieten Nepals durchzuführen.;-;-;-;https://link.springer.com/article/10.1186/1756-0500-4-516 b2c7b4490570ea49ebbb0b891c04b1d0;de;;;6.2.;;;Gewalt in der Partnerschaft durch routinemäßige Vorsorgeuntersuchungen und Ergebnisse der mütterlichen und perinatalen Gesundheit identifiziert Diese Studie untersuchte den Zusammenhang zwischen Gewalt in der Partnerschaft (IPV), der bei routinemäßigen pränatalen Screenings identifiziert wurde, und perinatalen Ergebnissen für Mutter und Kind.;-;-;-;https://link.springer.com/article/10.1186/s12884-019-2527-9 a94bed95b60f5ab462d441eeb5d5a532;de;;;6.2.;;;Metabolomics-Profiling von Xenobiotika bei Spitzensportlern: Relevanz für die Nahrungsergänzung Nahrungsergänzungsmittel werden häufig von Spitzensportlern verwendet, um die Gesundheit zu erhalten und die Leistung zu verbessern. Trotz mehrerer Studien, in denen die Verwendung von Nahrungsergänzungsmitteln durch Sportler untersucht wurde, fehlt noch immer eine umfassende Profilierung der Metaboliten von Serumergänzungsmitteln bei Spitzensportlern. Diese Studie zielt darauf ab, das Vorhandensein verschiedener Xenobiotika in Serumproben von Spitzensportlern verschiedener Sportarten zu analysieren, wobei der Schwerpunkt auf Metaboliten liegt, die möglicherweise aus Nahrungsergänzungsmitteln stammen.;-;-;-;https://link.springer.com/article/10.1186/s12970-018-0254-7 e8759506a137c457b53735efc4803858;de;;;6.2.;;;Erstellung von perfekt kontinuierlichen Aufzeichnungen physikalischer Eigenschaften für Dunkel-Licht-Sedimentsequenzen, die während der Expedition 346 des Integrierten Ozeanbohrprogramms aus dem Japanischen Meer gesammelt wurden, und ihrer potenziellen Nutzen als paläozeanographische Studien Die Bestimmung der Sedimentabfolge ist für die Interpretation der Sedimentaufzeichnungen unerlässlich. Integrated Ocean Drilling Program (IODP) Expedition (Exp.) 346 bohrten hochwertige Sedimentarchive mit jeweils mehr als drei Löchern an neun Standorten, die es uns ermöglichen, durch Spleißtechnik kontinuierliche Sedimentsequenzen zu erstellen. Nach umfangreichen Bemühungen, die gestörten, verpassten oder doppelten Intervalle zu ersetzen, die in gespleißten Sedimentsequenzen gefunden wurden, die an Bord während der IODP Exp. 346 zu den entsprechenden ungestörten Intervallen wurden nahezu perfekt kontinuierliche Sedimentsäulen und Aufzeichnungen über physikalische Eigenschaften für die pleistozänen Intervalle der Standorte U1422-U1427 und U1430 aus dem Japanischen Meer erstellt. Die gleichen Anstrengungen zur Korrektur der Bordspleiße wurden auch für die Plio-Miozän-Intervalle an den Standorten U1425 und U1430 unternommen. Die fortlaufenden Aufzeichnungen, die für diese Standorte erstellt wurden, werden ein viel detaillierteres Verständnis der langfristigen Variabilität im ostasiatischen Paläoklima und der Nordpazifik-Ozeanographie ermöglichen.;-;-;-;https://link.springer.com/article/10.1186/s40645-018-0176-7 c065fae6f24195901803090df4df878c;de;;;6.2.;;;Schwangere Frauen mit COVID-19 und Risiko für ungünstige Geburtsergebnisse und vertikale Übertragung von Mutter und Fötus: eine bevölkerungsbezogene Kohortenstudie in Wuhan, China Der Ausbruch der Coronavirus-Krankheit 2019 (COVID-19) entwickelt sich weltweit rasant. Über den Zusammenhang zwischen schwangeren Frauen mit COVID-19 und dem Risiko unerwünschter Geburtsergebnisse ist jedoch wenig bekannt.;-;-;-;https://link.springer.com/article/10.1186/s12916-020-01798-1 e035b26db6a676f623c919af1f4099b1;de;;;6.2.;;;Eine beschreibende Studie zu orthopädischen Verletzungen durch Fallschirmspringen bei Soldaten Beim Fallschirmspringen können Soldaten an verschiedenen Körperteilen leichte oder lebensgefährliche Verletzungen erleiden. Mehrere Trauma-Scoring-Systeme bewerten die Schwere solcher Verletzungen. Das primäre Ziel dieser Studie war es, die klinischen Merkmale und die Schwere von orthopädischen, muskuloskelettalen und anderen Verletzungen durch Fallschirmspringen im Zusammenhang mit militärischer Ausbildung unter Verwendung von zwei Trauma-Bewertungssystemen (AIS und ISS) zu bewerten. Unser sekundäres Ziel war es zu beurteilen, ob die Verletzungsrate mit dem Alter zunimmt.;-;-;-;https://link.springer.com/article/10.1186/s12873-020-00354-7 cec539b31361ab960e5ecfd06b591ffe;de;;;6.2.;;;Bewertung der Auswirkungen der Einführung elektronischer Patientenakten auf die Leistung malaysischer Gesundheitsdienstleister Das malaysische Gesundheitsministerium hat erhebliche Ressourcen investiert, um ein elektronisches Gesundheitsaktensystem (EHR) zu implementieren, um die vollständige Automatisierung von Krankenhäusern für eine koordinierte Versorgung sicherzustellen. Daher ist es notwendig zu bewerten, ob das System effektiv genutzt wurde, insbesondere im Hinblick darauf, wie es die Leistungsauswirkungen der Primärversorgungsanbieter nach der Implementierung vorhersagt.;-;-;-;https://link.springer.com/article/10.1186/s12911-021-01447-4 6f662b1b05145ed3ee84acb966a74a76;de;;;6.2.;;;Transkriptomweite Studie zur TNF-Inhibitor-Therapie bei rheumatoider Arthritis zeigt frühe Anzeichen einer erfolgreichen Behandlung Trotz des Erfolgs der TNF-Inhibitor-Therapie bei der Behandlung von rheumatoider Arthritis sprechen bis zu 40 % der Patienten nicht ausreichend an. Diese Studie zielte darauf ab, transkriptombasierte Biomarker für das Ansprechen von Adalimumab bei rheumatoider Arthritis (RA) zu identifizieren, um einen rechtzeitigen Wechsel bei Patienten ohne Ansprechen zu unterstützen und ein besseres mechanistisches Verständnis der Signalwege bei Ansprechen/Nichtansprechen zu ermöglichen.;-;-;-;https://link.springer.com/article/10.1186/s13075-021-02451-9 f578ed207ddb732ffac66a72fa61eaa3;de;;;6.2.;;;DNA-Variation und hirnregionspezifische Expressionsprofile zeigen unterschiedliche Beziehungen zwischen Inzucht-Mausstämmen: Implikationen für eQTL-Kartierungsstudien Expression Quantitative Trait Locus (eQTL)-Kartierung wird verwendet, um Loci zu finden, die für die Transkriptionsaktivität eines bestimmten Gens verantwortlich sind. In neueren eQTL-Studien wurden Expressionsprofile entweder von homogenisiertem Gesamthirn oder Sammlungen großer Hirnregionen abgeleitet. Das Gehirn ist jedoch ein sehr heterogenes Organ, und die Expressionsprofile verschiedener Hirnregionen variieren stark. Aufgrund der Bedeutung und potentiellen Stärke von eQTL-Studien bei der Identifizierung regulatorischer Netzwerke haben wir Genexpressionsmuster in verschiedenen Gehirnregionen von mehreren Inzucht-Mausstämmen analysiert und die Auswirkungen auf das Design und die Analyse von eQTL-Studien untersucht.;-;-;-;https://link.springer.com/article/10.1186/gb-2007-8-2-r25 20e271bad3f7e2b6aa852db1126fd03f;de;;;6.2.;;;Die Verringerung der Behinderung bei gebrechlichen älteren Menschen, die in Gemeinschaften leben: Design einer zweiarmigen, randomisierten, kontrollierten Cluster-Studie Gebrechlichkeit bei älteren Menschen steht in Zusammenhang mit einem erhöhten Risiko für negative gesundheitliche Folgen wie akute und chronische Krankheiten, Behinderung und Sterblichkeit. Obwohl über viele Interventionsstudien für gebrechliche ältere Menschen berichtet wurde, haben nur wenige positive Auswirkungen auf die Prävention von Behinderungen gezeigt. Dieser Artikel präsentiert das Design einer zweiarmigen, randomisierten, kontrollierten Cluster-Studie zur Wirksamkeit, Kosteneffizienz und Durchführbarkeit einer hausärztlichen Intervention, die die vielversprechendsten Elemente der Behinderungsprävention bei gebrechlichen älteren Menschen in Gemeinschaftsunterkünften kombiniert.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-10-511 3614b606a17e405a170da795bf2f3978;de;;;6.2.;;;Bewertung des Nutzens einer integrierten Krankheitsüberwachung und Reaktion auf Verdachtsfälle von Ebola in der Region Brong Ahafo, Ghana Diese Studie bewertete die Qualität, Kern- und Unterstützungsfunktionen des integrierten Systems zur Überwachung und Reaktion auf Krankheiten (IDSR) in Bezug auf 18 Verdachtsfälle der Ebola-Virus-Krankheit (EVD) in der Region Brong Ahafo, Ghana.;-;-;-;https://link.springer.com/article/10.1186/s40249-015-0051-3 c075e4e77e761fa5c389ab2a906b4b4f;de;;;6.2.;;;Auswirkungen kognitiv-verhaltensbezogener und psychodynamisch-interpersoneller Behandlungen bei Essstörungen: eine metaanalytische Untersuchung der Rolle von Patientenmerkmalen und Veränderungen in der essstörungsspezifischen und allgemeinen Psychopathologie in der Remission re Kognitive Verhaltenstherapie (CBT) und psychodynamisch-interpersonale Therapien (PIT) sind zwei weit verbreitete und konzeptionell unterschiedliche ambulante Behandlungen für Essstörungen (EDs). Um besser zu verstehen, wie diese Behandlungen wirken, für wen und unter welchen Umständen, ist es notwendig zu wissen, wie die Ergebnisse durch Diagnose, Komorbidität, Veränderungen in der Psychopathologie und Studiendesign beeinflusst werden.;-;-;-;https://link.springer.com/article/10.1186/s40337-021-00430-8 6c8d93d637094474ad2006a59bb14299;de;;;6.2.;;;Vorteile der Anwendung eines stellvertretenden Förderzeitraums bei der Verwendung elektronischer Patientenakten für die Ergebnisforschung: eine Simulationsstudie Elektronische Patientenakten (EHRs) können wertvolle Daten für die Ergebnisforschung liefern. Im Gegensatz zu administrativen Anspruchsdatenbanken fehlen EHRs jedoch Anspruchsberechtigungstabellen oder eine Standardmethode zur Definition des Leistungsdeckungszeitraums, was dazu führen könnte, dass die Inanspruchnahme oder Ergebnisse der Gesundheitsversorgung nicht ausreichend gemeldet werden und zu einer Verzerrung der Überwachung führen könnten. Wir testeten die Wirkung der Verwendung eines Proxy-Berechtigungszeitraums (Berechtigungs-Proxy) bei der Schätzung einer Reihe von Gesundheitsressourcennutzungs- und Ergebnisparametern bei unterschiedlichem Ausmaß fehlender Begegnungsdaten.;-;-;-;https://link.springer.com/article/10.1186/s13104-015-1217-6 033cf0de3e4ebb3c788f4a0238f75b72;de;;;6.2.;;;Vergleich von zwei Formen der täglichen präventiven Zinkergänzung mit der therapeutischen Zinkergänzung bei Durchfall auf das körperliche Wachstum und das Infektionsrisiko von Kleinkindern: Studiendesign und Begründung für eine randomisierte kontrollierte Studie Zink ist ein essentieller Nährstoff, der für das normale Wachstum und die Widerstandsfähigkeit von Kindern gegen Infektionen, einschließlich Durchfall und Lungenentzündung, zwei Hauptursachen für die Kindersterblichkeit, benötigt wird. Es hat sich gezeigt, dass eine tägliche oder wöchentliche präventive Zinkergänzung das Wachstum verbessert und das Infektionsrisiko verringert, während eine therapeutische Zinkergänzung für 10–14 Tage zur Behandlung von Durchfall empfohlen wird. Das übergeordnete Ziel der vorliegenden Studie besteht darin, verschiedene Behandlungsschemata zur Verabreichung von Zink an Kleinkinder zu vergleichen, sowohl zur Vorbeugung von Zinkmangel als auch zur Behandlung von Durchfall.;-;-;-;https://link.springer.com/article/10.1186/s40795-018-0247-6 5ef603c26a20161371f3cffc23050a89;de;;;6.2.;;;Human iPSC Banking: Hindernisse und Chancen Die Einführung von induzierten pluripotenten Stammzellen (iPSCs) hat das Potenzial für personalisierte Zelltherapien erschlossen und neue Möglichkeiten für die regenerative Medizin, Krankheitsmodellierung, iPSC-basierte Wirkstoffforschung und Toxizitätsbewertung eröffnet. In den letzten 10 Jahren wurden mehrere Initiativen gegründet, die darauf abzielen, eine große Menge menschlicher iPSCs für wissenschaftliche Forschungszwecke zu sammeln und zu generieren. In diesem Review vergleichen wir die Bau- und Betriebsstrategie einiger iPSC-Banken sowie deren Weiterentwicklung. Außerdem stellen wir die technischen Herausforderungen vor und bieten Zukunftsperspektiven bei der Gründung und Führung von iPSC-Banken.;-;-;-;https://link.springer.com/article/10.1186/s12929-019-0578-x 9583564da57a2c23c3a91e6d5d646ccc;de;;;6.2.;;;Eine Bewertung der Gerechtigkeit bei der Verteilung nichtfinanzieller Gesundheitsleistungen auf die öffentlichen Einrichtungen der primären Gesundheitsversorgung in Tansania Es liegen nur begrenzte Erkenntnisse darüber vor, wie Gesundheitsleistungen von der subnationalen Ebene bis hinunter zu den Gesundheitseinrichtungen verteilt werden und wie sie die Chancengleichheit im Gesundheitswesen fördern können. Um diese Lücke zu schließen, bewertet dieses Papier die Gerechtigkeit bei der Verteilung von Gesundheitsleistungen auf öffentliche primäre Gesundheitseinrichtungen auf Distriktebene in Tansania.;-;-;-;https://link.springer.com/article/10.1186/s12939-017-0620-0 fb4121df777e2e852530641c2d2d9060;de;;;6.2.;;;Masern-Seroprävalenz nach reaktiven Impfkampagnen während des Masernausbruchs 2015 in vier Gesundheitszonen der ehemaligen Provinz Katanga, Demokratische Republik Kongo In der Demokratischen Republik Kongo zirkulieren weiterhin Masern, und das Land litt in den letzten 5 Jahren unter mehreren wichtigen Ausbrüchen. Trotz eines großen Ausbruchs, der 2010 in der ehemaligen Provinz Katanga begann, und den daraus resultierenden Impfmaßnahmen, kam es 2015 in derselben Region zu einem weiteren Ausbruch. Wir haben in vier Gesundheitszonen (HZ) in der ehemaligen Provinz Katanga Erhebungen zur Masern-Seroprävalenz durchgeführt, um die Immunität gegen Masern bei Kindern 6 Monate bis 14 Jahre nach dem Ausbruch 2015 zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s12889-019-7500-z ce8366923db61b679d2b4007aaa1d4d7;de;;;6.2.;;;Determinanten der pränatalen Depression und postnatalen Depression in Australien Depressionen sind eine der Hauptursachen für Morbidität und Gesundheitsverlust bei australischen Frauen. Diese Studie untersucht die Determinanten pränataler depressiver Symptome und postnataler depressiver Symptome in einer australischen Bevölkerung, einschließlich Menschen mit kulturell und sprachlich unterschiedlichem (CALD) Hintergrund.;-;-;-;https://link.springer.com/article/10.1186/s12888-018-1598-x e6c1356f15aa468f3ce01b9a284b51d4;de;;;6.2.;;;Early Check: Translationale Wissenschaft an der Schnittstelle von Public Health und Neugeborenenscreening Das Neugeborenenscreening (NBS) nimmt einen einzigartigen Platz an der Schnittstelle von translationaler Wissenschaft und öffentlicher Gesundheit ein. Als einziges wirklich bevölkerungsbasiertes öffentliches Gesundheitsprogramm in den Vereinigten Staaten bietet NBS das Versprechen, die Erfolge der translationalen Medizin jedem Säugling mit einer seltenen Erkrankung zugänglich zu machen, die klinisch schwer zu diagnostizieren ist, für die jedoch starke Beweise dafür sprechen, dass eine präsymptomatische Behandlung wird die Ergebnisse erheblich verbessern. Eine realistische NBS-Politik erfordert Daten, aber seltene Erkrankungen stehen vor einer besonderen Herausforderung: Das Screening ist ohne unterstützende Daten nicht möglich, aber ohne groß angelegte Screenings können keine angemessenen Daten gesammelt werden. Umfang und Umfang der Forschung zur Bereitstellung dieser Datenmenge erfordern die Zusammenarbeit mit Programmen der öffentlichen Gesundheit, aber die meisten verfügen nicht über die Ressourcen oder das Mandat, um Forschung durchzuführen.;-;-;-;https://link.springer.com/article/10.1186/s12887-019-1606-4 6b74a7e775b61bb2cd3bd45eb41eb609;de;;;6.2.;;;Frühzeitiger Abbruch der empirischen Antibiotikatherapie bei neutropenischen Patienten mit akuter myeloischer Leukämie und myelodysplastischem Hochrisiko-Syndrom Aktuelle Leitlinien befürworten eine empirische Antibiotikatherapie (EAT) bei hämatologischen Patienten mit febriler Neutropenie. Die optimale Dauer der EAT ist jedoch unbekannt. Im Jahr 2011 haben wir ein Protokoll eingeführt, das das Absetzen von Carbapenemen als EAT nach 3 Tagen bei den meisten Patienten fördert und von der Standardanwendung von Vancomycin abrät. Diese Studie bewertet die Auswirkungen der Einführung dieses Protokolls auf die Anwendung von Carbapenem und Vancomycin bei hämatologischen Hochrisikopatienten und seine Sicherheit.;-;-;-;https://link.springer.com/article/10.1186/s13756-020-00729-2 55832541ede709554bdd38dca2becba7;de;;;6.2.;;;He Tamariki Kokoti Tau-Tackling Preterm: eine Data-Linkage-Methodik zur Untersuchung des klinischen Behandlungspfads bei Frühgeburten Bei den Māori, den Ureinwohnern von Aotearoa Neuseeland, bestehen erhebliche gesundheitliche Ungleichheiten in Bezug auf die Gesundheit von Mutter und Kind – und insbesondere im Hinblick auf eine Frühgeburt. Māori-Babys werden häufiger zu früh geboren (8,1%, verglichen mit einer Gesamtrate von 7,4%) und sie sterben häufiger. Ein wesentlicher Teil der Beseitigung dieser Ungleichheiten besteht darin, den klinischen Behandlungspfad und die Ergebnisse im Zusammenhang mit Frühgeburten zu untersuchen. Dieses Papier beschreibt ein Protokoll, das nationale und lokale Gesundheitssammlungen verwendet, um eine solche Studie zu ermöglichen.;-;-;-;https://link.springer.com/article/10.1186/s12913-018-3179-6 1db852690f59d04db0ac372894dc36d8;de;;;6.2.;;;Verbesserung der Leistung des Spritzpersonals durch Überwachung und Bewertung der Insektizidkonzentrationen von Pirimiphos-Methyl während der Innenraum-Restspritzung zur Malariabekämpfung auf Bioko Island Eine Qualitätskontrolle der Innenraumspritzung (IRS) ist notwendig, um sicherzustellen, dass Spritzenbetreiber (SOs) die korrekte Konzentration des Insektizids auf gespritzten Strukturen aufbringen und gleichzeitig bestätigen, dass Spritzaufzeichnungen nicht gefälscht werden.;-;-;-;https://link.springer.com/article/10.1186/s12936-020-3118-y f71e4951307dc62829134e6de95dfd9d;de;;;6.2.;;;Vergleich der DNA-Quantifizierungsmethodik, die im DNA-Extraktionsprotokoll für die UK-Biobank-Kohorte verwendet wird UK Biobank ist eine große prospektive Kohortenstudie im Vereinigten Königreich, die vom Medical Research Council (MRC) und dem Wellcome Trust erstellt wurde, um zugelassenen Forschern zu ermöglichen, die Rolle genetischer Faktoren, Umweltbelastungen und des Lebensstils bei den Ursachen schwerer Krankheiten der späten und mittleren Jahre zu untersuchen Alter. Bei der Rekrutierung wurde ein breites Spektrum phänotypischer Daten gesammelt und kürzlich durch das UK Biobank Genotyping Project erweitert. Alle Teilnehmer der UK Biobank (500.000) wurden entweder auf dem UK Biobank Axiom® Array oder dem Affymetrix UK BiLEVE Axiom® Array genotypisiert und der Arbeitsablauf zur Vorbereitung von Proben für die Genotypisierung wird beschrieben. Die genetischen Daten sollen weitere Erkenntnisse über die Genetik von Krankheiten liefern. Alle Daten, einschließlich der genetischen Daten, stehen zugelassenen Forschern zur Verfügung.;-;-;-;https://link.springer.com/article/10.1186/s12864-016-3391-x 87e474e5b8a8751d2a9ce43ff33f7c3b;de;;;6.2.;;;Kopf-an-Kopf-Vergleich zwischen dem EQ-5D-5L und dem EQ-5D-3L in Gesundheitsumfragen der Allgemeinbevölkerung Der EQ-5D wurde häufig in nationalen Gesundheitserhebungen verwendet. Diese Studie ist ein Kopf-an-Kopf-Vergleich, um zu beurteilen, wie die Erweiterung der Anzahl der Stufen von drei (EQ-5D-3L) auf fünf in der neuen EQ-5D-5L-Version ihre Verteilung, Unterscheidungskraft und Validität in der neuen Version verbessert hat Durchschnittsbevölkerung.;-;-;-;https://link.springer.com/article/10.1186/s12963-018-0170-8 6d964a02299db4fda8f14c5fdc4f14f9;de;;;6.2.;;;Konstruktion von Unternehmensarchitekturen in Diskursen des öffentlichen Sektors Enterprise Architecture (EA) wurde im öffentlichen Sektor eingesetzt, um die Effizienz und Interoperabilität von Informationssystemen zu verbessern. Trotz ihres täglichen Gebrauchs im öffentlichen Sektor sind die Begriffe Enterprise Architecture und Effizienz mehrdeutig und es fehlen allgemein akzeptierte Definitionen. Die Vorteile und Ergebnisse des Einsatzes von EA im öffentlichen Sektor wurden mit gemischten Ergebnissen untersucht. Diese Studie untersuchte den Einsatz von EA im finnischen Grundbildungssystem mittels Critical Discourse Analysis (CDA). Die Untersuchung ergab, wie die Rolle und das Grundprinzip von EA in der Rede von Beamten des öffentlichen Sektors aufgebaut sind. Es wurden drei Diskursordnungen gefunden, von denen jede ihre eigenen Ansichten zu EA hatte. Während es allgemein akzeptierte Funktionen für EA gab, gab es auch Bereiche, in denen die Konzepte nicht gegenseitig verstanden oder akzeptiert wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-44421-5_23 5c63f865deaab7786eb2dbf74486613b;de;;;6.2.;;;Vernachlässigte Tropenkrankheiten: Erforschung langfristiger praktischer Ansätze, um eine nachhaltige Krankheitsbeseitigung und darüber hinaus zu erreichen Im Kampf gegen vernachlässigte Tropenkrankheiten wurden bemerkenswerte Fortschritte erzielt, aber auch neue Herausforderungen sind entstanden. Innovative Diagnostik, bessere Medikamente und neue Insektizide werden oft als vorrangig eingestuft, jedoch reicht der Zugang zu diesen neuen Instrumenten möglicherweise nicht aus, um die Beseitigung von Krankheiten zu erreichen und aufrechtzuerhalten, wenn bestimmte Herausforderungen und Prioritäten nicht berücksichtigt werden.;-;-;-;https://link.springer.com/article/10.1186/s40249-017-0361-8 ad98199694a4e6a358e19d4601c8fce5;de;;;6.2.;;;Mortalitätstrends bei Menschen mit Hepatitis B und C: eine populationsbasierte Kopplungsstudie, 1993-2012 Diese Studie bewertete ursachenspezifische Mortalitätstrends, einschließlich der leberbedingten Mortalität bei Menschen mit einer Meldung des Hepatitis-B-Virus (HBV) und des Hepatitis-C-Virus (HCV) in New South Wales, Australien.;-;-;-;https://link.springer.com/article/10.1186/s12879-018-3110-0 d26ad58a76fa06555a2c9b35d02d1a66;de;;;6.2.;;;Einfluss des Zeitpunkts einer adjuvanten Chemotherapie auf das Überleben bei Dickdarmkrebs im Stadium III: eine bevölkerungsbezogene Studie Es besteht kein Konsens über den optimalen Zeitpunkt für den Beginn einer adjuvanten Chemotherapie nach einer Operation bei Dickdarmkrebs im Stadium III, und die relevanten postoperativen Komplikationen, die zu einer Verzögerung der adjuvanten Chemotherapie führen, sind unbekannt.;-;-;-;https://link.springer.com/article/10.1186/s12885-018-4138-7 2e9f88f6b6f5bc253f25327ddb5d9896;de;;;6.2.;;;Zeitliche Trends und aktuelle Praxismuster für die intraoperative Beatmung an akademischen medizinischen Zentren in den USA: eine retrospektive Studie Lungenprotektive Beatmungsstrategien, bei denen ein geringeres Tidalvolumen pro vorhergesagtes Körpergewicht (PBW) und ein positiver endexspiratorischer Druck (PEEP) verwendet werden, haben sich bei einer Vielzahl von chirurgischen Populationen als vorteilhaft erwiesen. Kürzlich durchgeführte klinische Studien haben Kontrollgruppen verwendet, die mit hohen Tidalvolumina ohne PEEP beatmet wurden, basierend auf der Annahme, dass dies die aktuelle klinische Praxis widerspiegelt. Wir stellten die Hypothese auf, dass sich die Beatmungsstrategien im Laufe der Zeit geändert haben, dass die meisten Anästhetika in akademischen medizinischen Zentren in den USA derzeit mit niedrigeren Tidalvolumina durchgeführt werden und dass die meisten einen PEEP erhalten.;-;-;-;https://link.springer.com/article/10.1186/s12871-015-0010-3 73084705f6f7909fcc9b9b08337d6e10;de;;;6.2.;;;Einfluss eines innovativen Tuberkulose-Finanzierungs- und Zahlungsmodells auf die Inanspruchnahme von Gesundheitsleistungen durch Tuberkulose-Patienten in China: Geht es den Armen besser als den Reichen? Die Prävalenz von Tuberkulose (TB) steht in China in engem Zusammenhang mit Armut, und arme Patienten sehen sich größeren Behandlungshindernissen gegenüber. Mit einem versicherungsbasierten Ansatz wurde das China-Gates TB-Programm Phase II zwischen 2012 und 2014 in drei Städten in China umgesetzt, um den Zugang zur TB-Behandlung zu verbessern und die finanzielle Belastung der Patienten, insbesondere der Armen, zu reduzieren. Diese Studie zielt darauf ab, die Auswirkungen des Programms auf die Nutzung von Dienstleistungen und seine Auswirkungen auf die Chancengleichheit über verschiedene Einkommensgruppen hinweg zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s40249-019-0559-z 884293f0c38294091544bc0f46efbb4e;de;;;6.2.;;;E-Book-Reader ins Gefängnis bringen: Eine Geschichte von zwei Projekten Dieses Papier berichtet über ein Projekt, das erstmals den Teilnehmern der Weltkonferenz für mobiles und kontextuelles Lernen im Jahr 2012 vorgestellt wurde, das PLEIADES-Projekt (Portable Learning Environments for Incarcerated Adult Distance Education Students) und diskutiert, wie sich dieses Projekt in zwei separate Projekte entwickelt hat, jeweils eines die beiden ursprünglich erprobten Technologien. PLEIADES führte eine Version einer internetunabhängigen Version des Learning Management Systems (LMS) namens Stand Alone Moodle (SAM) und eBook-Reader für inhaftierte Schüler in einem Justizvollzugszentrum in Süd-Queensland ein. Das Triple-E-Projekt (Empowerment, E-Learning und E-Reader) mit eBook-Readern, die denen des PLEIADES-Projekts ähnlich sind, wurde auf vier weitere Justizvollzugsanstalten ausgerollt. In diesem Papier werden die Probleme und Herausforderungen untersucht, die mit der Bereitstellung von eBook-Readern für inhaftierte Schüler durch die Projekte PLEIADES und Triple ‚E‘ verbunden sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13416-1_6 8e096f26d580058ace3d96b84aa1d303;de;;;6.2.;;;Öffentliche Ressourcen zur Erkennung von Erwähnungen medizinischer Daten in russischen sozialen Medien Dieses Papier behandelt die Ergebnisse einer vergleichenden Analyse der Wirksamkeit passiver und aktiver Datenerhebungsmethoden, um Erwähnungen von unerwünschten Arzneimittelwirkungen (UAW) in russischer Sprache zu extrahieren. In Bezug auf ihre Wirksamkeit wurden zwei Systeme der Datenerhebung verglichen: ein Data-Mining-System zum Sammeln von Post- und Kommentartextinhalten aus sozialen Medien und eine experimentelle Chatbot-Konversationsumfrage, die in eine thematische Community integriert und auf das Sammeln von ADR-Berichten ausgerichtet ist. Die Studie wurde auf VK, einem russischen sozialen Netzwerk, in einer Community durchgeführt, die sich der Diskussion von Benutzererfahrungen mit der Einnahme von Medikamenten zur Behandlung von psychischen Erkrankungen widmet. Es wurde eine vergleichende Analyse der Vollständigkeit der durch die passive Methode und den Chatbot gewonnenen Daten durchgeführt. Die Ergebnisse zeigen, dass ein aktives Informationserfassungssystem eine effektivere Durchführung der nachfolgenden Informationsverarbeitung ermöglicht. Basierend auf den Ergebnissen wurden Bereiche für die Weiterentwicklung von Konversationsbefragungen für die medizinische Forschung identifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-65218-0_35 5c0e7174f29d9b4fcd48ce85715683c4;de;;;6.2.;;;WARP-Testumgebungsimplementierung von Verzögerungsreihenfolge und datenlängenoptimiertem AR-Spektrum-Schätzalgorithmus In letzter Zeit ist eine effiziente Spektrumsschätzung zu einer grundlegenden Anforderung für jede drahtlose Kommunikationstechnologie geworden. Eine genaue Erkennung des Spektrums in einer bevölkerten und verrauschten Umgebung reduziert das Problem der Spektrumsknappheit. Obwohl eine theoretische Formulierung ausreichend ist, sind die physikalische Umsetzung und deren Echtzeit-Leistungsanalyse selten herauszufinden. Daher haben wir in dieser Arbeit die autoregressive (AR) Modellierung eines empfangenen Signals mit der Yule-Walker (YW) Methode mit dem Konzept des Konfidenzintervalls (CI) und des Levinson-Durbin-Algorithmus (LDA) gründlich untersucht. Die empfangene Signalstärke wurde ausgiebig mit Variationen verschiedener Funkverstärkungsparameter, Datenlänge und Verzögerungsreihenfolge zusammen mit der;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-8687-9_18 25a9b9b22bd0c62b89d3a4a2b8199907;de;;;6.2.;;;Ein Vergleich fester und variabler Kapazitätserweiterungspolitiken für die ambulante Kapazitätsvergabe Bewohner des chinesischen Festlandes kommen immer in die erstklassigen Krankenhäuser. Angesichts begrenzter medizinischer Ressourcen erwägen Krankenhausmanager, über die normale Tageskapazität hinaus einige potenzielle Kapazitäten hinzuzufügen, um den Bedarf zu decken und den Gewinn zu verbessern. Dieses Papier untersucht systematisch die Kapazitätserweiterungspolitik und vergleicht zwei Arten davon: feste Kapazitätserweiterungspolitik (F-CAP) und variable Kapazitätserweiterungspolitik (V-CAP). Ersteres legt die zusätzliche Kapazität durch einfache Berechnungen nach Erfahrungen oder historischen Statistiken fest. Unter der V-CAP-Politik wird die zusätzliche Kapazität durch das Lösen eines Optimierungsmodells und nicht einer Konstanten bestimmt. Der V-CAP erzielt definitiv den optimalen erwarteten Gewinn, der als Maßstab angesehen werden kann, der zur besten Verbesserung führt. Da die F-CAP in der Praxis in vielen First-Class-Krankenhäusern weit verbreitet ist, versucht dieser Beitrag herauszufinden, in welchen Situationen die F-CAP eine ähnliche Verbesserung der V-CAP erreichen kann und in welchen Umgebungen die zusätzliche Kapazität sinnvoll Variable. Neben der Konzentration auf zusätzliche Kapazitäten weisen beide Richtlinien die reguläre Kapazität zwei Arten von Patienten zu: Routinepatienten und Patienten am selben Tag, die unterschiedliche Wahrscheinlichkeit haben, nicht zu erscheinen. Wir formulieren lineare ganzzahlige Programmiermodelle von F-CAP und V-CAP, um den erwarteten Gewinn zu maximieren. Es wird bewiesen, dass mehrere Aussagen und Folgerungen den Lösungsraum abschneiden und den Suchprozess beschleunigen. Die optimale Zusatzkapazität kann direkt durch diese Eigenschaften bestimmt werden, und der optimale Wert nimmt mit der regulären Kapazität, die Routinepatienten zugewiesen wird, nicht ab. Numerische Experimente zeigen, dass das optimale Gesamtangebot an regulärer Kapazität und zusätzlicher Kapazität immer kleiner ist als die erwartete Gesamtnachfrage. Die F-CAP wird für Umgebungen mit geringen No-Show-Wahrscheinlichkeiten von Routinepatienten und Patienten am selben Tag, moderater erwarteter Gesamtnachfrage, Korrelationskoeffizient der Nachfrage und regulärer Kapazität empfohlen, in der die Reduzierung des erwarteten Gewinns weniger als 5 % beträgt die F-CAP im Vergleich zur V-CAP.;-;-;-;https://link.springer.com/article/10.1007/s10878-017-0217-y 26bb4a6a78cc7b62a5eba2687252456a;de;;;6.2.;;;Ein einfacher, aber effektiver Ansatz zur Störungsminderung in dreidimensionalen zweistufigen Femtozellen-Netzwerken Der dichte Einsatz von Femtozellen in Makrozellensystemen ist eine wichtige Tendenz in zukünftigen zellularen Netzwerken aufgrund der steigenden Nachfrage nach Innenkommunikation, wo die schichtübergreifende Interferenzminderung zwischen der Makrozelle und Femtozellen eines der kritischsten Probleme ist. Die aktuellen Studien konzentrieren sich jedoch hauptsächlich auf die schichtübergreifende Interferenz in zweidimensionalen Szenarien, wobei einige Arbeiten die dreidimensionale Zelle berücksichtigen. In diesem Papier schlagen wir basierend auf der traditionellen Fractional Frequency Reuse (FFR)-Methode eine einfache, aber effektive dreidimensionale Frequenzwiederverwendungsstrategie vor, um die schichtübergreifende Interferenz in zweischichtigen Femtozellennetzwerken abzuschwächen. Wir analysieren die Leistungsfähigkeit der vorgeschlagenen Strategie und präsentieren den theoretischen Ausdruck der Interferenz und der Datenrate. Darüber hinaus vergleichen wir es mit der traditionellen FFR-Methode und der ursprünglichen Co-Channel-Methode. Die Simulationsergebnisse zeigen den enormen Gewinn, der durch unsere vorgeschlagene Strategie erzielt wird, und demonstrieren ihre Wirksamkeit bei der Störabschwächung in der dreidimensionalen Zelle.;-;-;-;https://link.springer.com/article/10.1007/s11277-017-4588-2 c10fc78aefbeef7c6e720ffc85414d22;de;;;6.2.;;;Optimierung der Ernährung, um das Wachstum zu verbessern und neurologische Behinderungen bei Neugeborenen mit dem Risiko einer neurologischen Beeinträchtigung und Kindern mit Verdacht auf oder bestätigter Zerebralparese zu reduzieren Neurologische Beeinträchtigungen sind eine häufige Folge einer perinatalen Hirnschädigung. Die Plastizität des sich entwickelnden Gehirns beruht auf einem reichen Substrat an sich entwickelnden Neuronen, synaptischen Elementen und extrazellulärer Matrix. Interventionen, die diese inhärente Fähigkeit zur Plastizität unterstützen, können das Entwicklungsergebnis von Säuglingen nach einer Hirnverletzung verbessern. Es hat sich gezeigt, dass eine Nahrungsergänzung mit einer Kombination aus Docosahexaensäure, Uridin und Cholin die synaptischen Elemente, die dendritische Dichte und die Freisetzung von Neurotransmittern bei Nagetieren erhöht und die Leistung bei kognitiven Tests verbessert. Es bleibt unklar, ob eine solche spezifische „neurotrophe“ Supplementation die Plastizität und Reparatur des Gehirns nach perinataler Hirnverletzung verbessert.;-;-;-;https://link.springer.com/article/10.1186/s12887-015-0339-2 aacdd47ccbfb68a803efc5d5d86e0012;de;;;6.2.;;;Sicheres Outsourcing der Berechnung großer Matrixdeterminanten Cloud Computing bietet die Möglichkeit, ressourcenbeschränkte Clients mit einem zentralisierten und gemeinsam genutzten Ressourcenpool zu verbinden, z. B. Rechenleistung und Speicher nach Bedarf. Die Berechnung großer Matrixdeterminanten ist in der Informatik fast allgegenwärtig und erfordert eine groß angelegte Datenberechnung. Gegenwärtig sind Techniken zum sicheren Auslagern von Matrixdeterminantenberechnungen auf nicht vertrauenswürdige Server von größter Bedeutung, und sie haben sowohl praktischen Wert als auch theoretische Bedeutung für die wissenschaftliche Gemeinschaft. In dieser Studie schlagen wir eine sichere Outsourcing-Methode für die Berechnung großer Matrixdeterminanten vor. Wir verwenden einige Transformationen für den Datenschutz basierend auf der ursprünglichen Matrix, einschließlich Permutations- und Mix-row/mix-column-Operationen, bevor wir die Zielmatrix an die Cloud senden. Die von der Cloud zurückgegebenen Ergebnisse müssen entschlüsselt und verifiziert werden, um die richtige Determinante zu erhalten. Im Vergleich zu zuvor vorgeschlagenen Algorithmen erreicht unser neuer Algorithmus ein höheres Sicherheitsniveau bei höherer Cloud-Effizienz. Die experimentellen Ergebnisse belegen die Effizienz und Effektivität unseres Algorithmus.;-;-;-;https://link.springer.com/article/10.1007/s11704-019-9189-7 6915332343a10d1d16a5f6e09f5c2a33;de;;;6.2.;;;Machbarkeit und Reichweite der Implementierung einer intermittierenden präventiven Malariabehandlung bei schwangeren Frauen, die private oder öffentliche Kliniken in Tansania kontaktieren: erfahrungsbasierte Standpunkte von Gesundheitsmanagern in den Distrikten Mkuranga und Mufindi Die Erfahrungen von Gesundheitsmanagern mit der operativen Durchführbarkeit der intermittierenden Malaria-Präventionsbehandlung für Malaria während der Schwangerschaft (IPTp) mit Sulfadoxin-Pyrimethamin (SP) in Afrika sind systematisch unzureichend. Dieses Papier erläutert die Perspektiven des Gesundheitsmanagementteams (CHMT) des Bezirksrats in Bezug auf die Durchführbarkeit von IPTp mit der SP-Strategie, einschließlich seiner Akzeptanz und Fähigkeit der Gesundheitssysteme des Bezirks, die gegenwärtigen und potenziellen Herausforderungen zu bewältigen.;-;-;-;https://link.springer.com/article/10.1186/1472-6963-13-372 7a00c5db4b14580851acb37dd4d63964;de;;;6.2.;;;Einfluss sozioökonomischer Faktoren und Lebensstilfaktoren auf Übergewicht und ernährungsbedingte Krankheiten bei tunesischen Migranten im Vergleich zu Nicht-Migranten Tunesiern und Franzosen Migrantenstudien in Frankreich zeigten, dass Migranten im Mittelmeerraum eine geringere Sterblichkeit und Morbidität für nichtübertragbare Krankheiten (NCDs) aufweisen als lokal geborene Bevölkerungen. Wir untersuchten Übergewicht und nichtübertragbare Krankheiten bei tunesischen Migranten im Vergleich zur Bevölkerung des Aufnahmelandes und der Bevölkerung ihres Herkunftslandes. Wir untersuchten auch den möglichen Einfluss sozioökonomischer und Lebensstilfaktoren auf den unterschiedlichen Gesundheitszustand.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-7-265 5ba9d8a407a5e7d7627328bd6b4e6289;de;;;6.2.;;;Zeitliche Aspekte von Chlorophyll – eine Vorhersage der Präsenz auf den Galapagos-Inseln Chlorophyll-a ist eine spezielle Form von Chlorophyll, die bei der sauerstoffhaltigen Photosynthese verwendet wird und mit dem Vorhandensein von Nährstoffen in Meerwasser in Verbindung gebracht wurde Bereiche. In dieser Arbeit betrachten wir Open-Access-Daten aus dem Copernicus-Weltraumprogramm (derzeit in der Europäischen Union zur Erdbeobachtung und -überwachung verwendet), die mehrere physikalische und biochemische Variablen und Messungen des Ozeans um die Galapagos-Inseln (Ecuador) umfassen. Wir verwenden solche Daten in dem Versuch, ein zuverlässiges räumlich-zeitliches Modell zu erstellen, das verwendet werden kann, um das Vorhandensein von Chlorophyll-a mithilfe einer neuartigen Technik namens räumlich-zeitliche Regression vorherzusagen. Unsere ersten Ergebnisse, die eine Wahrscheinlichkeit der Vorhersage von 0,75% (5-Tage-Vorhersage) bis 82% (1-Tage-Vorhersage) zeigen, können verwendet werden, um ein komplexeres, zuverlässigeres und umsetzbares Vorhersagemodell für reale Zeitvorhersage der Chlorophyll-a-Präsenz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-62015-8_8 e2c3349e7b4be618bf33b3677b676a6d;de;;;6.2.;;;Hochperformante Lösung des Zweiklassen-SVM-Problems für Big Data Sets nach der Mean Decision Rule Methode Support Vector Machines (SVM) ist eines der bequemsten und zuverlässigsten Tools zur Lösung des Zweiklassen-Erkennungsproblems. Bei großen Trainingsmengen hat es jedoch eine sehr hohe Rechenkomplexität. In unserem vorherigen Artikel haben wir einen einfachen Ansatz namens Mean Decision Rule (MDR)-Methode vorgeschlagen, der es ermöglicht, schnell genug eine ungefähre (aber sich nicht sehr von der exakten) Lösung des SVM-Problems im linearen Merkmalsraum für einzelne Computer zu finden, selbst für ausreichend große Trainingssets. In diesem Papier schlagen wir eine parallele Version der MDR-Methode vor. Experimente mit realen Datensätzen zeigen, dass es eine quasilineare Beschleunigung der Trainingsphase hat und zusammen mit der vorgeschlagenen optimierten Datenstrategie eine zusätzliche Steigerung der Rechenleistung ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36592-9_48 ef0af9a8bc301d67a694558790c31c5b;de;;;6.2.;;;Untersuchung funktionell verwandter Enzyme unter Verwendung radial verteilter Eigenschaften aktiver Zentren um die Reaktionspunkte gebundener Liganden Ansätze der Strukturgenomik, insbesondere solche, die die 3D-Strukturen vieler Proteine ​​mit unbekannten Funktionen lösen, haben den Wunsch nach strukturbasierten Funktionsvorhersagen verstärkt. Die Vorhersage der Enzymfunktion ist jedoch schwierig, da ein Mitglied einer Superfamilie eine andere Reaktion als andere Mitglieder katalysieren kann, während Mitglieder verschiedener Superfamilien dieselbe Reaktion katalysieren können. Darüber hinaus können Konformationsänderungen, Mutationen oder das Fehlen eines bestimmten katalytischen Rests einen Rückschluss auf den Mechanismus verhindern, durch den katalytische Reste stabilisieren und die Elementarreaktion fördern. Eine große Hürde für auf Ausrichtung basierende Methoden zur Funktionsvorhersage ist das Fehlen (trotz seiner Bedeutung) eines Ähnlichkeitsmaßes der physikalisch-chemischen Eigenschaften der katalytischen Zentren. Um dieses Problem zu lösen, sollten neben Struktur- und Sequenzähnlichkeiten auch die physikalisch-chemischen Merkmale, die radial um die katalytischen Zentren verteilt sind, berücksichtigt werden.;-;-;-;https://link.springer.com/article/10.1186/1472-6807-12-5 2a45a63e118590b81953c1f2cf172557;de;;;6.2.;;;Analyse des Technologieeinsatzes beim Mathematiklernen In ICME12 wurde die Rolle der Technologie im Mathematikunterricht in zwei unterschiedliche Studiengruppen unterteilt: Analyse des Technologieeinsatzes im Lehren (TSG 18) und Lernen (TSG 19) der Mathematik. Natürlich sind diese beiden Aspekte der Mathematikdidaktik eng miteinander verwoben, aber wir haben versucht, die Diskussionen der TSG 19 auf den Aspekt LERNEN mit IKT (Informations- und Kommunikationstechnologie) zu konzentrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12688-3_44 215623ebf51334482460a16284c60d4b;de;;;6.2.;;;Krankenversicherungsschutz, medizinische Ausgaben und Bewältigungsstrategie: Beweise aus Taiwan Das Krankenversicherungssystem in Taiwan besteht aus einer öffentlichen Krankenversicherung und einer privaten Krankenversicherung. Die öffentliche Krankenversicherung mit dem Namen „Universal National Health Insurance“ (NHI) wurde erstmals 1995 gegründet und 2011 geändert. Ziel dieser Studie ist es, eine aktualisierte Beschreibung einiger wichtiger Aspekte der Krankenversicherung in Taiwan bereitzustellen. Von besonderem Interesse sind der Hausratversicherungsschutz, medizinische Ausgaben (sowohl brutto als auch aus eigener Tasche) und Bewältigungsstrategien.;-;-;-;https://link.springer.com/article/10.1186/1472-6963-12-442 b7ef869f335b7d31e91037ea48438e65;de;;;6.2.;;;Stationäre Hypoglykämie: Verstehen, wer gefährdet ist Um die Prävalenz und Verteilung stationärer Hypoglykämien zu verstehen, analysierten wir Daten aus der elektronischen Patientenakte von stationären Patienten mit Diabetes, die in einem großen Universitätskrankenhaus aufgenommen wurden.;-;-;-;https://link.springer.com/article/10.1007/s00125-020-05139-y effb4f99db25c3aab4f7cd15626be867;de;;;6.2.;;;Partnerschaft für die Erforschung der Ebola-Impfung (PREVAC): Protokoll einer randomisierten, doppelblinden, placebokontrollierten klinischen Phase-2-Studie zur Bewertung von drei Impfstoffstrategien gegen Ebola bei gesunden Freiwilligen in vier westafrikanischen Ländern Der Ausbruch der Ebola-Virus-Krankheit (EVD) in den Jahren 2014–2016 in Westafrika war der größte seit Beginn der Aufzeichnungen und bot die Gelegenheit für große klinische Studien und beschleunigte die Bemühungen zur Entwicklung eines wirksamen und sicheren vorbeugenden Impfstoffs. Viele Fragen zur Sicherheit, Immunogenität und Wirksamkeit von EVD-Impfstoffen bleiben unbeantwortet. Um diese Lücken in der Evidenzbasis zu schließen, wurde die Studie „Partnership for Research on Ebola Vaccines“ (PREVAC) konzipiert. Dieses Papier beschreibt Design, Methoden und Ausgangsergebnisse der PREVAC-Studie und diskutiert Herausforderungen, die zu verschiedenen Protokolländerungen geführt haben.;-;-;-;https://link.springer.com/article/10.1186/s13063-021-05035-9 16eaa9b41c7e237d3f8adb1087ba5b80;de;;;6.2.;;;Vergleich von Zeitreihenmodellen zur Überwachung zeitlicher Trends bei der Seroprävalenz von endemischen Krankheiten: Lehren aus dem Reproduktions- und Atemwegssyndrom beim Schwein in dänischen Schweineherden Überwachungssysteme sind unerlässlich, um zu erkennen, ob die Zahl der Fälle einer bestimmten Krankheit steigt. Die im Rahmen freiwilliger Krankheitsüberwachungsprogramme gesammelten Daten sind besonders nützlich, um zu beurteilen, ob Kontroll- und Tilgungsprogramme das Ziel erreichen. Diese Daten sind durch zufälliges Rauschen gekennzeichnet, das die Interpretation zeitlicher Änderungen in den Daten erschwert. Die Überwachung von Trends in den Daten ist ein möglicher Ansatz, um dieses Problem zu lösen.;-;-;-;https://link.springer.com/article/10.1186/s12917-019-1981-y 6295c7d9ee11e1cc8c43da189c40ce85;de;;;6.2.;;;Ist Ghanas Armen-Krankenversicherung wirklich für die Armen gedacht? Beweise aus Nordghana Der Schutz der Armen und Schwachen vor den Kosten unvorhergesehener Krankheiten ist zu einem globalen Anliegen geworden, das in der Resolution der Weltgesundheitsversammlung von 2005 gipfelte, in der die Mitgliedstaaten aufgefordert wurden, allen Bürgern, insbesondere Kindern und Frauen im gebärfähigen Alter, finanziellen Schutz zu gewährleisten. Ghana bietet seinen Bürgern durch das National Health Insurance Scheme (NHIS) finanziellen Schutz. 2004 ins Leben gerufen, behaupten seine Befürworter, dass das NHIS eine finanzielle Verpflichtung zugunsten der Armen ist, die die Resolution der Weltgesundheitsversammlung umsetzt.;-;-;-;https://link.springer.com/article/10.1186/s12913-014-0637-7 4310b9f925be2617e188f6576d7232c0;de;;;6.2.;;;Ugandas Erfahrungen mit der Vorbereitung auf den Ausbruch der Ebola-Viruskrankheit, 2018–2019 Seit der Erklärung des 10. Ausbruchs der Ebola-Virus-Krankheit (EVD) in der Demokratischen Republik Kongo am 1. August 2018 haben mehrere Nachbarländer Vorsorgemaßnahmen entwickelt und umgesetzt, um die grenzüberschreitende Übertragung von EVD zu verhindern, um eine rechtzeitige Erkennung, Untersuchung und Reaktion im Falle eines ein bestätigter EVD-Ausbruch im Land. Wir beschreiben Ugandas Erfahrung in der EVD-Bereitschaft.;-;-;-;https://link.springer.com/article/10.1186/s12992-020-00548-5 1e28d022827d8525955fff960977b51a;de;;;6.2.;;;Spektrum der blutdrucksenkenden Therapie bei Südasiaten in einem Krankenhaus der Tertiärversorgung in Pakistan Trotz der verfügbaren Leitlinien zur Hypertonie (HTN) ist die Verwendung von Antihypertensiva variabel. Diese Studie wurde entwickelt, um die Häufigkeit von Patienten unter Monotherapie und > 1 antihypertensive Therapie sowie den Anteil der Patienten unter Diuretikatherapie zu ermitteln.;-;-;-;https://link.springer.com/article/10.1186/1756-0500-4-318 3c218cfb139cd57a8d66e10733de421d;de;;;6.2.;;;Entwicklung eines Regensensor-Geschwindigkeitsbegrenzers Rain Der Rain Sensing Car Speed ​​Limiter ist ein Systemgerät, das in ein Fahrzeug eingebaut und integriert wird, um den Regenzustand zu bestimmen und die Geschwindigkeit des Fahrzeugs automatisch entsprechend dem Regenzustand zu begrenzen. Es stimmt mit dem automatischen Bremssystem überein, das die Geschwindigkeit des Fahrzeugs verringert, wenn es die zulässige Höchstgeschwindigkeit überschreitet. Die Geschwindigkeit wird mit einem Hall-Effekt-Sensor gemessen, der im Rad des Fahrzeugs installiert ist, während die Regenbedingung mit einem Feuchtigkeitssensor gemessen wird. Der an der Kontrollbox angeschlossene Arduino verarbeitet die Daten und erzeugt eine Antwort, die in drei Kategorien unterteilt ist: (a) Extremer Regen, (b) Starker Regen und (c) Leichter Regen. Das System ist so ausgelegt, dass es die Niederschlagsmenge bestimmt, und eine entsprechende Reaktion auf die Fahrzeuggeschwindigkeit wird vom System basierend auf den codierten Daten veranlasst. Die Funktionalität des getesteten Systems ist voll funktionsfähig. Das Systemgerät wurde entwickelt, um Verkehrsunfälle während der Regenzeit zu minimieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0058-9_48 69baed019ab527ee208228ae8f04ddd4;de;;;6.2.;;;Der geburtshilfliche Notstand in den informellen Siedlungen und Umgebung von Nairobi: Ergebnisse einer Umfrage in einer Entbindungsklinik Die Müttersterblichkeit in Afrika südlich der Sahara bleibt eine Herausforderung, da in einigen Ländern Schätzungen über 1.000 Müttersterblichkeit pro 100.000 Lebendgeburten liegen. Die erfolgreiche Prävention von Müttersterblichkeit hängt von einer angemessenen und qualitativ hochwertigen geburtshilflichen Notfallversorgung ab. Zusätzlich zu qualifiziertem Personal ist ein unterstützendes Umfeld in Bezug auf lebenswichtige Medikamente und Verbrauchsmaterialien, Ausrüstung und ein Überweisungssystem erforderlich. Viele Haushaltsbefragungen zeigen einen relativ hohen Anteil von Frauen, die in Gesundheitseinrichtungen entbinden. Die Qualität und Angemessenheit der Einrichtungen und des Personals werden jedoch häufig nicht bewertet. Das Drei-Verzögerungs-Modell, 1) Verzögerung bei der Entscheidung, eine Behandlung in Anspruch zu nehmen, 2) Verzögerung beim Erreichen einer geeigneten Geburtshilfeeinrichtung und 3) Verzögerung beim Erhalt einer angemessenen Versorgung, sobald sie in der Einrichtung ist, leitete dieses Projekt. In diesem Papier werden Aspekte der dritten Verzögerung untersucht, indem die Qualität der geburtshilflichen Notfallversorgung in Bezug auf Personal, Fähigkeiten, Ausrüstung und Material bewertet wird.;-;-;-;https://link.springer.com/article/10.1186/1472-6963-9-46 07d123050c1ea8c5d2945b3527c59106;de;;;6.2.;;;Räumlich-zeitliche Cluster von HIV/AIDS-Infektionen durch Drogenkonsum und heterosexuellen Kontakt in der Stadt Ruili, China 1989–2016 Ruili ist eine Grenzstadt im Südwesten Chinas entlang der Route des Heroinhandels. In den letzten Jahrzehnten hat die Stadt eine Zunahme der HIV-Übertragung erlebt. Die aktuelle Studie zielt darauf ab, die raumzeitlichen Trends in der HIV-Prävalenz zu untersuchen und die räumliche Variation und die Häufung von Faktoren im Zusammenhang mit der HIV-Übertragung durch Drogenkonsum und heterosexuellen Kontaktübertragungen auf Dorfebene von 1989 bis 2016 zu identifizieren und zu kartieren.;-;-;-;https://link.springer.com/article/10.1186/s12879-019-4568-0 54909f87e5ba2f67cc36875924d4218c;de;;;6.2.;;;Statine bei Schwerkranken Die Anwendung oder der Missbrauch von Statinen bei kritisch kranken Patienten hat kürzlich die Aufmerksamkeit von Intensivmedizinern auf sich gezogen. Tatsächlich sind Statine wahrscheinlich die häufigste chronische Behandlung vor einer kritischen Erkrankung und einige neuere experimentelle und klinische Daten zeigten ihre vorteilhaften Wirkungen bei Sepsis, akutem Lungenschaden (ALI)/akutem Atemnotsyndrom (ARDS) oder nach aneurysmatischer Subarachnoidalblutung (aSAH). . Aufgrund der Heterogenität aktueller Studien und des Fehlens gut angelegter prospektiver Studien können aus der publizierten Evidenz keine definitiven Schlussfolgerungen für einen systematischen und großflächigen Einsatz auf Intensivstationen gezogen werden. Darüber hinaus ist das Ausmaß der Nebenwirkungen von Statinen bei kritisch kranken Patienten noch unbekannt. Für den Intensivmediziner geht es darum, nach aktuellem Stand der Literatur den Patienten individuell zu identifizieren, der von dieser Therapie profitieren kann. Der Zweck dieser Übersichtsarbeit besteht darin, die Wirkmechanismen von Statinen zu beschreiben und die klinischen Daten zusammenzustellen, die die relevanten Wirkungen von Statinen in der besonderen Umgebung der Intensivpflege unterstreichen, um den Kliniker durch seine tägliche Praxis zu führen.;-;-;-;https://link.springer.com/article/10.1186/2110-5820-2-19 f0c36613f650d64bb12b500ddd95c67f;de;;;6.2.;;;Bewertung der sexuellen Dysfunktion und der Indikatoren der weiblichen sexuellen Dysfunktion bei Frauen mit Typ-2-Diabetes: eine systematische Überprüfung und Metaanalyse Typ-2-Diabetes ist eine der häufigsten chronischen Erkrankungen weltweit, und eine der Langzeitkomplikationen dieser Krankheit ist die sexuelle Dysfunktion bei Frauen mit Typ-2-Diabetes, die in weniger Studien untersucht wurde. Ziel dieser Studie ist es, die Gesamtprävalenz sexueller Dysfunktion bei Frauen mit Typ-2-Diabetes und deren Indikatoren mit einem systematischen und metaanalytischen Ansatz zu bestimmen. Die vorliegende Metaanalysestudie überprüfte Artikel, die in ausländischen Zeitschriften veröffentlicht wurden, indem sie zwischen Januar 2000 und Dezember 2018 in den Datenbanken MEDLINE, Cochrane Library, Science direct, Embase, Proquest und Persian, einschließlich Iranmedex, Magiran und SID, recherchiert wurden das i;-;-;-;https://link.springer.com/article/10.1186/s13098-019-0469-z f174c88d302aae881d0208fd95ad9871;de;;;6.2.;;;Die wichtige Unterscheidung zwischen Peer-Reviewed und Predatory Journals: Ein bakterieller Endotoxin-Testfall Die Veröffentlichung nach einem gründlichen Peer-Review war eine der wesentlichen Triebkräfte des wissenschaftlichen Fortschritts. Während das Aufkommen von Open-Access-Zeitschriften das Wissen einem breiteren Publikum zugänglich gemacht hat, haben einige Verlage begonnen, das Modell der spezifischen Bezahlung durch Autoren zu nutzen. Sie haben sogenannte Predatory Journals veröffentlicht, die die wissenschaftliche Kontrolle zugunsten von Einnahmen geopfert haben. Beiträge in solchen Zeitschriften können unzulässige Schlussfolgerungen enthalten und somit den wissenschaftlichen Fortschritt behindern. Dabei haben wir nicht nur räuberische Zeitschriften allgemein erklärt, sondern auch ein Beispiel herausgearbeitet und dabei aufgezeigt, wie genau diese Zeitschriften von wissenschaftlichen Standards abweichen können. Nämlich ein Hersteller von bakteriellen Endotoxintests, der in einer potenziell räuberischen Zeitschrift veröffentlicht wurde und relevante Literatur vernachlässigte, andere Veröffentlichungen schlecht referenzierte und sich einer wertenden, nicht wissenschaftlichen Sprache bediente. Offenbar wollte dieser Hersteller Zweifel an der rekombinanten DNA-Technologie (hier rekombinanter Faktor C) für bakterielle Endotoxintests ausräumen und damit den Marktzugang seiner Wettbewerber einschränken. Dies kann wiederum die Entwicklung genauerer, zuverlässiger, schneller und kostengünstigerer bakterieller Endotoxintests verhindern und wiederum den Fortschritt in der pharmazeutischen Entwicklung und Herstellung behindern.;-;-;-;https://link.springer.com/article/10.1007/s12109-021-09818-5 c0510bd5646e39f4ad4ddf718fc38477;de;;;6.2.;;;Kartierung von Beweisen zur Verbreitung von Krebserkrankungen im Zusammenhang mit humanen Papillomaviren in Afrika südlich der Sahara: Scoping Review Protocol Trotz der Einführung von HPV-Impfstoffen ist die Inzidenz von HPV-bedingten Krebsarten (Gebärmutterhals-, Penis-, Anal-, Vulva-, Vagina-, Kopf- und Halskrebs) in Afrika südlich der Sahara gestiegen. Die zunehmende Inzidenz dieser HPV-bedingten Krebserkrankungen wurde auf Veränderungen der lebensstilbedingten Risikofaktoren, insbesondere des Sexualverhaltens, zurückgeführt. Das Hauptziel dieser Studie ist es, Beweise für die Verbreitung von HIV-assoziierten Krebserkrankungen in Subsahara-Afrika (SSA) zu kartieren.;-;-;-;https://link.springer.com/article/10.1186/s13643-017-0623-3 7157742111a46cc085f8b56a358a57a9;de;;;6.2.;;;Kombinierte Ketamin- und transkranielle Magnetstimulation bei therapieresistenter Depression im Kontext einer chronischen Zwangsstörung: ein Fallbericht Die therapieresistente Depression (TRD) ist ein wichtiges Problem der öffentlichen Gesundheit, wobei komorbide Zwangsstörungen zu den allgemeinen medizinischen Kosten und der Schwere der TRD beitragen. Neuere Forschungen haben die Wirksamkeit der transkraniellen Magnetstimulation (TMS und ihrer Variante rTMS) bei der Linderung der Symptome von Depression und Zwangsstörung untersucht. Die meisten Studien haben TMS verwendet, um die elektromagnetische Stimulation des dorsolateralen präfrontalen Kortex, einer Region, die an Depressionen beteiligt ist, oder des ergänzenden motorischen Bereichs, einer Region, die an Zwangsstörungen beteiligt ist, zu erleichtern. Es ist jedoch schwierig, mit TMS allein eine vollständige Remission zu erreichen. Eine parallele Forschungslinie hat die Auswirkungen von Ketamin untersucht und;-;-;-;https://link.springer.com/article/10.1186/s40810-015-0003-y 383f4a696b081806552c1e10d526446c;de;;;6.2.;;;Erhöhte zirkulierende microRNA-122 ist mit Mortalität und akuter Leberschädigung beim akuten Atemnotsyndrom verbunden Eine akute Leberschädigung bei Patienten mit ARDS verringert das Überleben, aber frühe Stadien können aufgrund des Fehlens ausreichender Biomarker, die den Beginn signalisieren, leicht übersehen werden. Dementsprechend haben wir bei ARDS-Patienten die Hypothesen getestet, dass microRNA-122, die wichtigste leberbezogene microRNA (miR), 1) ein empfindlicher und spezifischer früher Prädiktor für potenzielle Leberschäden ist und 2) ihren Einfluss auf das 30-Tage-Überleben analysiert hat.;-;-;-;https://link.springer.com/article/10.1186/s12871-018-0541-5 bc85e6a746f658cb2e70849656a7620a;de;;;6.2.;;;Verfolgung der Implementierung von NCCLS M100-S12 Expanded Spectrum Cephalosporin-MHK-Grenzwerten für nichtmeningeale Isolate von Die Performance Standards for Antimicrobial Susceptibility Testing, Twelfth Informational Supplement, M100-S12, veröffentlicht vom National Committee for Clinical Laboratory Standards (NCCLS) im Januar 2002, führten eindeutige interpretative Grenzwerte für die minimale Hemmkonzentration (MIC) für Ceftriaxon, Cefotaxim und Cefepim für Nichtmeningeal ein Isolate von;-;-;-;https://link.springer.com/article/10.1186/1476-0711-3-1 0654746e50c32dfae2d1ed250fc95b86;de;;;6.2.;;;Die thorakale Perfusion von Matrine als adjuvante Therapie verbessert die Kontrolle der malignen Pleuraergüsse Viele Studien haben die Wirksamkeit und Sicherheit von Matrine bei der Behandlung eines malignen Pleuraergusses durch Thoraxperfusion untersucht. Diese Studie ist ein analytischer Wert der verfügbaren Evidenz.;-;-;-;https://link.springer.com/article/10.1186/s12957-015-0729-9 70dbf7f098d928237cee13a614574825;de;;;6.2.;;;Stabilität der anterioren offenen Bissbehandlung mit Molarenintrusion mittels Skelettverankerung: eine systematische Übersicht und Metaanalyse Das Ziel dieser systematischen Übersicht und Metaanalyse ist es, den Grad der Stabilität der Behandlung des vorderen offenen Bisses (AOB) zu beurteilen, die mindestens 1 Jahr nach der Behandlung durch die skelettgestützte Intrusion der Molaren durchgeführt wird.;-;-;-;https://link.springer.com/article/10.1186/s40510-020-00328-2 11943f4ae06d12ac56a7a324ff599acf;de;;;6.2.;;;Ein neues gemeinsames und umfassendes Tool zur Bewertung von Sicherheitsrisiken für Cloud-Computing Cloud Computing ist ein neues Trendparadigma, das mehrere Vorteile bietet, indem es seinen Benutzern schnelle und skalierbare Ressourcenbereitstellungsfunktionen bietet. Trotz der Tatsache, dass Cloud Computing ihren Cloud-Benutzern viele Kostenvorteile bietet, treten im Zusammenhang mit der Cloud-Nutzung zahlreiche Sicherheitsrisiken auf, die bewertet werden müssen. Die Risikobewertung in Cloud-Computing-Umgebungen bleibt ein offenes Forschungsthema. Dieses Papier stellt eine umfassende und gemeinsame Risikobewertungsmethode für Cloud Computing vor, die sowohl Cloud-Konsumenten als auch Cloud-Anbietern eine große Hilfe und Unterstützung bietet und auch alle spezifischen Merkmale des Cloud Computing berücksichtigt. Am Ende wird ein experimentelles Ergebnis gezeigt, um die Wirksamkeit dieses neuen Risikobewertungsmodells zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-287-990-5_13 36968915ca0dde0b081a7815ef178524;de;;;6.2.;;;Kontextuelle Keyword-Extraktion durch Satzbildung mit Crowdsourcing Die automatische Schlüsselwortextraktion aus Dokumenten wird seit langem eingesetzt und hat sich in verschiedenen Bereichen als nützlich erwiesen. Crowdsourcing-Tagging für Multimedia-Ressourcen hat sich etabliert und sieht bis zu einem gewissen Grad vielversprechend aus. Automatische Ansätze für unstrukturierte Daten, automatische Schlüsselwortextraktion und Crowdsourcing-Tagging sind effizient, aber sie alle leiden unter dem Mangel an Kontextverständnis. In diesem Beitrag schlagen wir ein neues Modell zur Extraktion von kontextbezogenen Schlüsselbegriffen aus unstrukturierten Daten, insbesondere aus Dokumenten, mit Crowdsourcing vor. Das Modell besteht aus vier sequentiellen Prozessen: (1) Begriffsauswahl nach Häufigkeit, (2) Satzbildung, (3) überarbeitete Begriffsauswahl, die die neu gebildeten Sätze widerspiegelt, und (4) Satzabstimmung. Online-Mitarbeiter lasen nur einen Bruchteil eines Dokuments und nahmen an den Prozessen der Satzbildung und der Satzabstimmung teil, und als Ergebnis wurden Schlüsselsätze generiert. Wir haben die generierten Sätze mit den vom Autor eingegebenen Schlüsselwörtern und mit den Sätzen verglichen, die von Offline-Mitarbeitern generiert wurden, die das gesamte Dokument gelesen haben. Die Ergebnisse unterstützen die Idee, dass der Satzbildungsprozess dabei helfen kann, Begriffe mit kontextueller Bedeutung auszuwählen und die Lücke zwischen Schlüsselwörtern aus automatisierten Ansätzen und dem von Menschen benötigten Kontextverständnis zu schließen.;-;-;-;https://link.springer.com/article/10.1007/s11042-012-1338-z 8120588dc0399e0bd7ae74463e7dd900;de;;;6.2.;;;Implementierung von Informatik zur Integration von Biologie und der Bedside (i2b2)-Plattform als Docker-Container Informatics for Integrating Biology and the Bedside (i2b2) ist eine Open-Source-Plattform für klinische Datenanalyse, die in über 200 Gesundheitseinrichtungen zur Abfrage von Patientendaten verwendet wird. Die i2b2-Plattform verfügt über mehrere Komponenten mit zahlreichen Abhängigkeiten und Konfigurationsparametern, was die Installation oder Aktualisierung von i2b2 zu einer Herausforderung macht. Trotz der Verfügbarkeit umfangreicher Dokumentationen und Tutorials benötigen neue Benutzer oft mehrere Wochen, um eine funktionsfähige i2b2-Plattform korrekt zu installieren. Das Ziel dieser Arbeit ist es, den Installations- und Upgrade-Prozess für i2b2 zu vereinfachen. Konkret haben wir die Kernkomponenten der Plattform containerisiert und die Container im Hinblick auf eine einfache Installation evaluiert.;-;-;-;https://link.springer.com/article/10.1186/s12911-018-0646-2 f8ba957089eeb6757eec3bdf101e65b5;de;;;6.2.;;;Gut informierte Arzt-Patienten-Kommunikation im Beratungsgespräch zu Rückenschmerzen – Studienprotokoll der clusterrandomisierten GAP-Studie Rückenschmerzen sind eine der häufigsten Ursachen für krankheitsbedingte Arbeitsausfälle. In Deutschland leiden mehr als 70 % der Erwachsenen an mindestens einer Rückenschmerzepisode pro Jahr. Sie hat einen starken Einfluss auf die Gesundheitskosten und die Lebensqualität der Patienten. Patienten suchen zunehmend im Internet nach Gesundheitsinformationen. Die Vertrauenswürdigkeit zu beurteilen ist jedoch schwierig. Darüber hinaus erleben Ärzte, die mit dieser Art von Informationen konfrontiert werden, häufig, dass sie die Arzt-Patient-Interaktion erschweren. Ziel der GAP-Studie ist es, ein evidenzbasiertes, leicht verständliches und vertrauenswürdiges Internet-Informationsportal zu Kreuzschmerzen zu entwickeln, zu implementieren und zu evaluieren, das von Hausärzten und Patienten während und nach der Konsultation genutzt werden kann. Die Wirksamkeit der Nutzung des GAP-Portals im Vergleich zur Routinekonsultation zur Verbesserung der Kommunikation und Aufklärung von Ärzten und Patienten wird bewertet. Darüber hinaus werden Auswirkungen auf die Gesundheitskosten und Krankenstandstage der Patienten evaluiert.;-;-;-;https://link.springer.com/article/10.1186/s12875-019-0925-8 3cc8973b3fc5f117ee5c0bb21cf0e12c;de;;;6.2.;;;Vergleich von Beschleunigungsmesser, Schrittzähler und Fragebogen zur Messung der körperlichen Aktivität bei Bronchiektasen: eine Validitäts- und Machbarkeitsstudie Forscher und Kliniker stehen vor Herausforderungen bei der Auswahl des am besten geeigneten Instruments für körperliche Aktivität, und es ist ein Gleichgewicht zwischen Präzision und Durchführbarkeit erforderlich. Derzeit ist unklar, welches Instrument zur körperlichen Aktivität zur Beurteilung der körperlichen Aktivität bei Bronchiektasen verwendet werden sollte. Ziel dieser Forschung ist es, Bewertungsmethoden (Schrittzähler und IPAQ) mit unserer Kriterienmethode (ActiGraph) zur Messung der körperlichen Aktivitätsdimensionen bei Bronchiektasen (BE) zu vergleichen und deren Durchführbarkeit und Akzeptanz zu beurteilen.;-;-;-;https://link.springer.com/article/10.1186/s12931-016-0497-2 ecd6934befedca52478f1dfdd40be027;de;;;6.2.;;;Darmparasiteninfektionen und damit verbundene Risikofaktoren bei Schulkindern in den Distrikten Dolakha und Ramechhap, Nepal: eine Querschnittsstudie Infektionen mit bodenübertragenen Helminthen und pathogenen Darmprotozoen stellen eine erhebliche Belastung für die öffentliche Gesundheit dar, insbesondere in Ländern mit niedrigem und mittlerem Einkommen, einschließlich Nepal. Wir untersuchten das Ausmaß von Darmparasiteninfektionen bei Schulkindern in zwei Distrikten Nepals und ermittelten zugrunde liegende Risikofaktoren.;-;-;-;https://link.springer.com/article/10.1186/s13071-018-3105-0 1e7f1077882738cc36935903c3f92317;de;;;6.2.;;;Skalierbare mehrkörnige modale Ähnlichkeitsabfrage mit Interpretierbarkeit Die modale Ähnlichkeitsabfrage ist zu einem hervorgehobenen Forschungsthema für die Verwaltung multimodaler Datensätze wie Bilder und Texte geworden. Bestehende Forschungen konzentrieren sich im Allgemeinen auf die Abfragegenauigkeit durch den Entwurf komplexer Modelle tiefer neuronaler Netze und berücksichtigen kaum die gleichzeitige Abfrageeffizienz und Interpretierbarkeit, die entscheidende Eigenschaften eines modalen semantischen Abfrageverarbeitungssystems für große Datensätze sind. In dieser Arbeit untersuchen wir mehrkörnige gemeinsame semantische Einbettungsdarstellungen von Bildern und Texten und integrieren interpretierbaren Abfrageindex in das tiefe neuronale Netz, indem wir ein neuartiges mehrkörniges Cross-modal Query with Interpretability (MCQI) Framework entwickeln. Die Hauptbeiträge sind wie folgt: (1) Durch die Integration grobkörniger und feinkörniger semantischer Lernmodelle wird eine mehrkörnige, modale Anfrageverarbeitungsarchitektur vorgeschlagen, um die Anpassungsfähigkeit und Allgemeingültigkeit der Anfrageverarbeitung sicherzustellen. (2) Um die latente semantische Beziehung zwischen Bildern und Texten zu erfassen, kombiniert das Framework LSTM und Aufmerksamkeitsmodus, was die Abfragegenauigkeit für die modale Abfrage erhöht und die Grundlage für eine interpretierbare Abfrageverarbeitung bildet. (3) Es werden eine Indexstruktur und ein entsprechender Abfragealgorithmus für den nächsten Nachbarn vorgeschlagen, um die Effizienz interpretierbarer Abfragen zu steigern. (4) Ein verteilter Abfragealgorithmus wird vorgeschlagen, um die Skalierbarkeit unseres Frameworks zu verbessern. Die experimentellen Ergebnisse zeigen die Effektivität unseres MCQI-Ansatzes im Vergleich mit modernsten Methoden an weit verbreiteten modalen modalen Datensätzen.;-;-;-;https://link.springer.com/article/10.1007/s41019-021-00162-4 126af34f58ccb606eecc743dd9c8f59b;de;;;6.2.;;;Prüfung der Validität und Nützlichkeit von zwei sekundären Quellen für Lebensmittelumweltdaten im Vergleich zu Straßenkontrollen in England Sekundärdaten, die die Standorte von Lebensmittelgeschäften enthalten, werden zunehmend in der Ernährungs- und Adipositasforschung und -politik verwendet. Die Evidenz zur Auswertung dieser Daten ist jedoch begrenzt. Diese Studie validiert zwei Quellen für sekundäre Lebensmittelumgebungsdaten: Points of Interest-Daten (POI) aus der Ordnance Survey und Lebensmittelhygienedaten der Food Standards Agency (FSA) gegen Straßenaudits in England und bewertet den Nutzen dieser Daten.;-;-;-;https://link.springer.com/article/10.1186/s12937-017-0302-1 440eb290d4aa6df5cf23e90449e8dd7a;de;;;6.2.;;;Wissenschaftliche Metaanalysen mit Wissensgraphen fördern: Eine Fallstudie Eine Metaanalyse ist eine Science of Science-Methode, die in den Medizin- und Sozialwissenschaften weit verbreitet ist, um eine Reihe von Studien zu überprüfen, zu aggregieren und quantitativ zu synthetisieren, die dieselbe Forschungsfrage behandeln. Da das Forschungsvolumen jedes Jahr exponentiell wächst, kann die Durchführung von Metaanalysen kostspielig und ineffizient sein, da viel Zeit und menschlicher Aufwand aufgewendet werden muss, um Studien zu finden, die den Forschungskriterien entsprechen, sie zu kommentieren und die statistischen Analysen ordnungsgemäß durchzuführen, um fassen die Erkenntnisse zusammen. In dieser Arbeit zeigen wir, dass diese Probleme mit semantischen Repräsentationen und Technologien angegangen werden können, wobei ein sozialwissenschaftliches Szenario als Fallstudie verwendet wird. Wir zeigen, wie der domänenspezifische Inhalt von Forschungsergebnissen dargestellt und verwendet werden kann, um deren Suche, Analyse und Synthese zu erleichtern. Wir präsentieren die allererste Darstellung des Bereichs der menschlichen Kooperation und die darauf aufbauende Anwendung, die Experten bei der halbautomatischen Durchführung von Metaanalysen unterstützt. Anhand einiger Anwendungsszenarien zeigen wir, wie unser Ansatz die verschiedenen Phasen der Metaanalyse unterstützt und ganz allgemein zur Forschungsreplikation und automatisierten Hypothesengenerierung beiträgt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-49461-2_17 6aaf55ee92775f7a70f0f14c4228f5bd;de;;;6.2.;;;Ein hybrider Algorithmus durch die Kombination von Schwarmintelligenzmethoden und neuronalen Netzwerken für die Goldpreisvorhersage In diesem Beitrag wird versucht, die Lernleistung des radialen Basisfunktions-Neuralnetzwerks (RBFN) durch Schwarmintelligenzmethoden und das neuronale Netz der selbstorganisierenden Karte (SOM) (SOMnet) zu verbessern. Ferner wird die Methode auf der Grundlage der Partikelschwarmoptimierung (PSO) und des genetischen Algorithmus (GA) (d. h. der PG-Ansatz) verwendet, um RBFN zu trainieren. Der vorgeschlagene SOMnet + PG-Ansatz (genannt: SPG)-Algorithmus kombiniert die automatische Clustering-Fähigkeit von SOMnet mit dem PG-Ansatz. Die Simulationsergebnisse zeigten, dass SOMnet-, PSO- und GA-Methoden genial integriert und zu einem hybriden Algorithmus neu entwickelt werden können, der unter anderen Algorithmen in dieser Studie die beste genaue Lernleistung erzielen soll. Andererseits zeigten die Ergebnisse der Methodenbewertung für zwei Benchmark-Probleme und einen Fall der Goldpreisvorhersage, dass der vorgeschlagene SPG-Algorithmus andere Algorithmen und die autoregressiven integrierten gleitenden Durchschnittsmodelle (ARIMA) in der Genauigkeit übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45071-0_33 eadfaabeaf3647d829ef1842104645ad;de;;;6.2.;;;Einbindung des EAS-SGR IT Risk Framework in ein IT GRC Global Framework Im Kontext der IT-Governance nutzen verschiedene Unternehmen ihre Expertise, um eine neue Lösung zu entwickeln, die ihre eigene Governance unterstützt. Tatsächlich haben IT-Manager Schwierigkeiten, die Gesetze und Vorschriften einzuhalten, die von den Ländern ihres Unternehmens angewendet werden. Bei der Vielfalt an Tools und Frameworks müssen sie alle Prozesse kennen, um den einzigen Prozess anwenden zu können, der für ihre Systeme hilfreich ist. In unserem Fall entscheiden wir uns, das IT-Risikomanagement zu diskutieren und zu studieren, das einen wichtigen Bestandteil der IT-GRC-Architektur darstellt. Wir haben mehrere Artikel zu diesem Thema veröffentlicht und verbessern noch immer verschiedene Aspekte der EAS-SGR-Architektur. In diesem Papier werden wir die verschiedenen Verbindungen zwischen IT-GRC-Komponenten demonstrieren. Diese Systeme basieren auf Multiagenten- und Expertensystemen, die ihre integrierte künstliche Intelligenz kennen. Dieses Know-how ist eines unserer Urelemente, das in der wissenschaftlichen Forschung noch nie genutzt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-287-990-5_42 00b1cfabf375d1f3cd2d56d09bb211f5;de;;;6.2.;;;Auswirkungen eines Kaiserschnitts auf die Gesundheit der Mütter bei nulliparen Frauen mit geringem Risiko: eine prospektive abgestimmte Kohortenstudie in Shanghai, China Die Kaiserschnittraten steigen in vielen Teilen der Welt stetig an. Aufgrund psychosozialer Faktoren besteht in China eine zunehmende Tendenz, dass Schwangere ohne begründete medizinische Indikation für einen Kaiserschnitt dieses Verfahren in Anspruch nehmen. Eine kritische Auseinandersetzung mit dieser Frage in Bezug auf mütterliche Outcomes ist wichtig. Derzeit gibt es keine klinischen Studien, um die Risiken und Vorteile eines Kaiserschnitts bei Frauen mit geringem Risiko zu bewerten. Um die Studienlücke zu schließen, wurde diese indikationsangepasste Kohortenstudie durchgeführt, um prospektiv die Ergebnisse eines Kaiserschnitts bei Frauen ohne absolute geburtshilfliche Indikation im Vergleich zu ähnlichen Frauen mit vaginaler Geburt zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/1471-2393-10-78 41717f18436ad65f124a653a14f1555b;de;;;6.2.;;;Rekonstruktion der Phylogenie aus metabolischen Substrat-Produkt-Beziehungen Viele Ansätze verwenden Informationen über Stoffwechselwege, um den Stammbaum vollständig sequenzierter Organismen zu rekonstruieren, aber wie metabolische Netzwerke Informationen zu ursprünglichen genomischen Annotationen hinzufügen können, blieb offen.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-12-S1-S27 35e91d5b627ca0aff99a1d5e356d02d9;de;;;6.2.;;;Potenzielle Kosteneinsparungen durch terrestrische Tollwutbekämpfung Das Kosten-Nutzen-Verhältnis von Strategien zur Bekämpfung der Waschbären-Tollwut wie der oralen Tollwutimpfung (ORV) wird derzeit bewertet. Als erste Quantifizierung der potenziellen Kosteneinsparungen für ein Bekämpfungsprogramm wurde die Erhebung ausgewählter Tollwutkostendaten für fünf Bezirke im Bundesstaat New York (NYS) über einen Zeitraum von drei Jahren in einem Pilotversuch getestet.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-7-47 99094d1eeb853594a94f3bd9ce112611;de;;;6.2.;;;Untersuchung schwedischer Fälle enthüllt einen Ausbruch von Kryptosporidiose in einem norwegischen Hotel mit möglichen Verbindungen zu hauseigenen Wassersystemen Im März 2007 wurde das Norwegische Institut für öffentliche Gesundheit über schwedische Personen informiert, bei denen nach einem Aufenthalt in einem norwegischen Hotel Kryptosporidiose diagnostiziert wurde. In Norwegen ist Kryptosporidiose nicht meldepflichtig, und Infektionen beim Menschen werden selten diagnostiziert.;-;-;-;https://link.springer.com/article/10.1186/1471-2334-8-152 1125bcf9bae99758cd895fcced5ffa61;de;;;6.2.;;;Meiose-spezifische Gen-Entdeckung in Pflanzen: RNA-Seq auf isolierte Die Meiose ist ein kritischer Prozess in der Reproduktion und im Lebenszyklus von Blütenpflanzen, bei dem homologe Chromosomen paaren, synapsen, rekombinieren und segregieren. Das Verständnis der Meiose wird nicht nur unser Wissen über die Mechanismen der genetischen Rekombination verbessern, sondern hat auch wesentliche Anwendungen zur Verbesserung von Nutzpflanzen. Trotz der enormen Fortschritte in den letzten zehn Jahren bei anderen Modellorganismen (z.;-;-;-;https://link.springer.com/article/10.1186/1471-2229-10-280 f9996b8207c7765447bb212ac090ef83;de;;;6.2.;;;Bewertung des pflegerischen Skill-Mix in Mosambik mithilfe einer Aufgabenanalyse-Methodik Die Dichte des Pflegepersonals in Mosambik (0,32/1.000) liegt deutlich unter dem WHO-Mindeststandard von 1 Krankenschwester pro 1000. Sowohl Krankenschwestern als auch Mutter-Kind-Gesundheitsschwestern wurden in zwei Ausbildungsstufen in verschiedenen Programmen 18 bis 30 Monate lang. Zum Personal im Gesundheitswesen in Mosambik gehören auch Medizintechniker und medizinische Agenten, die ebenfalls eine Grund- oder Mittelausbildung haben. Das Gesundheitsministerium stellte fest, dass die Aufgaben, die jeder der sechs Kader in verschiedenen Gesundheitseinrichtungen wahrnimmt, dokumentiert werden müssen, um Lücken und Doppelarbeit zu identifizieren, um Strategien zur Rationalisierung der Arbeitskräfteproduktion unter Beibehaltung höchster Bildungs- und Kompetenzstandards zu identifizieren. Um dieses Ziel zu erreichen, wurde die Methodik der Aufgabenanalyse (TA) verwendet. Dieser Artikel enthält Informationen über die TA-Methodik und ausgewählte Ergebnisse der sehr breit angelegten Studie.;-;-;-;https://link.springer.com/article/10.1186/1478-4491-12-5 433935bdf679a9a7b1c27d72cec5e26d;de;;;6.2.;;;Zeitpunkt der Operation bei Ischias: Subgruppenanalyse neben einer randomisierten Studie Eine Operation beschleunigt die Genesung bei Ischias. Eine längere konservative Behandlung mit Operation bei Patienten mit persistierendem Ischias führt jedoch nach 1 Jahr zu ähnlichen Ergebnissen. Um zu untersuchen, ob Baseline-Variablen den Unterschied in den Erholungsraten zwischen diesen Behandlungsstrategien modifizieren, wurden Baseline-Daten von 283 Patienten, die in eine randomisierte Studie aufgenommen wurden, die eine frühe Operation mit einer verlängerten konservativen Behandlung verglich, verwendet, um die Effektmodifikation der zugewiesenen Behandlungsstrategie zu analysieren. Für Prädiktoren, von denen gezeigt wurde, dass sie die Wirkung der Behandlungsstrategie modifizieren, wurden wiederholte Messanalysen mit dem Roland-Behinderungsfragebogen und der visuellen Analogskala Schmerzen als kontinuierliche Ergebnisse für jede Stufe dieses Prädiktors durchgeführt. Vermutete prädiktive Variablen hatten keine Interaktion mit der Behandlung, während sich „durch Sitzen hervorgerufener Ischias“ als signifikanter Effektmodifikator erwies;-;-;-;https://link.springer.com/article/10.1007/s00586-008-0867-7 83e2d1729e1b2c25c8849bcea716af5c;de;;;6.2.;;;Infektion in Malaysia: Beweise für Übertragungen im Wasser und von Mensch zu Mensch zwischen den Proto-Malay-, Negrito- und Senoi-Stämmen von Orang Asli wurde als der häufigste Darmparasit des Menschen beschrieben und hat einen verstärkten Einfluss auf die öffentliche Gesundheit. Die Übertragung dieses Parasiten ist jedoch nicht abschließend geklärt.;-;-;-;https://link.springer.com/article/10.1186/1756-3305-6-40 ffe8bd86840a6297975032a869979309;de;;;6.2.;;;Räumlich explizite Risikoprofilierung von Es gibt einen erneuerten politischen Willen und finanzielle Unterstützung, um Malaria auszurotten. Dabei wird die räumlich explizite Risikoprofilierung eine wichtige Rolle spielen. Muster von;-;-;-;https://link.springer.com/article/10.1186/1475-2875-7-111 ef6178c2300119b4fa87655b7a59245a;de;;;6.2.;;;Klinische Merkmale und therapeutisches Management von Patienten, die in italienische psychiatrische Akutkliniken aufgenommen wurden: die PERSEO-Umfrage (psychiatrische Notfallstudie und Epidemiologie) Die PERSEO-Studie (Psychiatrische Notfallstudie und Epidemiologie) ist eine naturalistische, klinische Beobachtungsstudie in italienischen psychiatrischen Akutabteilungen, den sogenannten SPDCs (Servizio Psichiatrico Diagnosi e Cura, auf Englisch der psychiatrische Dienst für Diagnose und Management). Die Ziele dieses Papiers sind: (i) die Beschreibung der epidemiologischen und klinischen Merkmale von Patienten, einschließlich soziodemografischer Merkmale, Risikofaktoren, Lebensgewohnheiten und psychiatrischer Diagnosen, und (ii) die Beurteilung des klinischen Managements, des subjektiven Wohlbefindens und der Einstellung zu Medikamenten.;-;-;-;https://link.springer.com/article/10.1186/1744-859X-6-29 e79de38204fe2a6bd43a927685664abd;de;;;6.2.;;;Umstände, die zu Gewalt in der Partnerschaft gegen als Kinder verheiratete Frauen führen: eine qualitative Studie in Urban Slums of Lahore, Pakistan Kinderehen (<18 Jahre) sind in Pakistan weit verbreitet, was mit negativen gesundheitlichen Folgen wie Gewalt in der Partnerschaft (IPV) einhergeht. Unser Ziel ist es, die Arten und Umstände von IPV gegen Frauen zu beschreiben, die als Kinder in städtischen Slums von Lahore, Pakistan, verheiratet wurden.;-;-;-;https://link.springer.com/article/10.1186/s12914-015-0060-0 d869a08ce44a0a55d63c038018895ddb;de;;;6.2.;;;Aufdecken von Abhängigkeiten mit zuverlässigen gegenseitigen Informationen Wir betrachten die Aufgabe, funktionale Abhängigkeiten in Daten für interessierende Zielattribute zu entdecken. Um es zu lösen, müssen wir zwei Fragen beantworten: Wie quantifizieren wir die Abhängigkeit modellunabhängig und interpretierbar sowie zuverlässig gegen Stichprobengrößen- und Dimensionalitätsverzerrungen? Wie können wir effizient das genaue oder;-;-;-;https://link.springer.com/article/10.1007/s10115-020-01494-9 77a914045d829c25c859cb45d3be3053;de;;;6.2.;;;Neuartige Aβ-Peptid-Immunogene modulieren Plaque-Pathologie und Entzündung in einem Mausmodell der Alzheimer-Krankheit Die Alzheimer-Krankheit, eine häufige Demenz bei älteren Menschen, ist durch die Ansammlung von Protein-Amyloid-Ablagerungen im Gehirn gekennzeichnet. Eine Immunisierung zur Verhinderung dieser Akkumulation wurde als therapeutische Möglichkeit vorgeschlagen, obwohl nachteilige Entzündungsreaktionen in Studien am Menschen die Notwendigkeit neuer Impfstrategien anzeigen.;-;-;-;https://link.springer.com/article/10.1186/1742-2094-2-28 95bee7ba8a1506aff0a48df1c3b4483b;de;;;6.2.;;;Das V-Quick-Patch im Vergleich zum Standard-12-Kanal-EKG-System: Zeit ist das A und O In dieser Arbeit wird das V-Quick-Patchschablonensystem mit der standardmäßigen 12-Kanal-Elektrokardiogramm-(EKG)-Erfassungstechnik verglichen. Die Ziele der Studie waren: (a) Untersuchung und Vergleich der Zeit für die Erstellung des gedruckten 12-Kanal-EKGs und (b) Untersuchung des Übereinstimmungsgrades beim Vergleich der EKGs durch zwei verblindete, unabhängige Prüfer.;-;-;-;https://link.springer.com/article/10.1007/s12245-008-0008-4 3816ce654161492ffef8fe06d27dece6;de;;;6.2.;;;Den Preis im Auge behalten: Die Konzentration auf die Elternschaft unterstützt die Beteiligung depressiver Eltern an Hausbesuchsdiensten Die Verbesserung der Familienbindung und des Engagements ist entscheidend für den Erfolg von Hausbesuchsprogrammen. Über die Bindung und Einbindung depressiver Eltern in Dienstleistungen ist wenig bekannt. Ziel der Studie ist es zu untersuchen, wie der Inhalt von Hausbesuchen den Zusammenhang zwischen Depression und Bindung und Engagement moderiert.;-;-;-;https://link.springer.com/article/10.1007/s10995-018-2533-y 3b3b88de3254e5a16d1ec2a2e2f29a2a;de;;;6.2.;;;GenoLink: ein graphenbasiertes Abfrage- und Browsing-System zur Untersuchung der Funktion von Genen und Proteinen Eine große Vielfalt biologischer Daten kann durch Grafiken dargestellt werden. Diese Graphen können aus heterogenen Daten aus genomischen und postgenomischen Technologien erstellt werden, aber es besteht weiterhin Bedarf an Werkzeugen, die darauf abzielen, solche Graphen zu untersuchen und zu analysieren. Dieser Artikel beschreibt GenoLink, eine Softwareplattform für die grafische Abfrage und Untersuchung von Graphen.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-7-21 492194dd01fced93a76558706d1bb0aa;de;;;6.2.;;;Ein neuartiger Sandwich-ELISA auf Basis von polyklonalen Antikörpern zum Nachweis von Immunoassays zum Plasmodium-Nachweis basieren derzeit am häufigsten auf monoklonalen Antikörpern (MAbs), polyklonale Antikörper (PAbs), die billiger zu entwickeln und herzustellen sind, werden viel seltener verwendet. In der vorliegenden Studie beschreiben wir einen Sandwich-ELISA-Test, der in der Lage ist,;-;-;-;https://link.springer.com/article/10.1186/1471-2334-14-49 35e906c4bc5c13ffa0511f982e27fee5;de;;;6.2.;;;Erweiterte Spotqualitätsanalyse in Zweifarben-Microarray-Experimenten Die Bildanalyse von Microarrays und insbesondere die Spot-Quantifizierung und Spot-Qualitätskontrolle ist einer der wichtigsten Schritte bei der statistischen Analyse von Microarray-Daten. Neuere Methoden der Spot-Qualitätskontrolle befinden sich noch in einem frühen Entwicklungsalter, was oft zu einer Unterschätzung echter positiver Microarray-Merkmale und folglich zum Verlust wichtiger biologischer Informationen führt. Daher sind die Verbesserung und Standardisierung der statistischen Ansätze der Spot-Qualitätskontrolle unerlässlich, um die Gesamtanalyse von Microarray-Daten und die anschließende Extraktion biologischer Informationen zu erleichtern.;-;-;-;https://link.springer.com/article/10.1186/1756-0500-1-80 85f7b8f7ecd8b6c0a4070e608698f886;de;;;6.2.;;;Einhaltung der antiretroviralen Therapie und damit verbundene Faktoren bei HIV-infizierten Kindern in Äthiopien: unangekündigte Anzahl von Tabletten zu Hause im Vergleich zum Bericht der Betreuer Die Einführung der antiretroviralen Therapie (ART) hat zu einer bemerkenswerten Verringerung der HIV-bedingten Mortalität und Morbidität sowohl bei Erwachsenen als auch bei Kindern mit HIV/AIDS geführt. Die Einhaltung der ART ist der Schlüssel zur erfolgreichen Behandlung von Patienten sowie zur Eindämmung von Arzneimittelresistenzen. Studien, die auf Berichten von Betreuern basieren, haben gezeigt, dass die Einhaltung von ART bei Kindern im Allgemeinen gut ist. Es ist jedoch bekannt, dass subjektive Methoden wie der Bericht von Pflegekräften den Grad der Adhärenz überschätzen. Diese Studie ermittelte die Adhärenzrate und ihre Prädiktoren anhand der unangekündigten Pillenzählung zu Hause und verglich das Ergebnis mit dem Bericht der Pflegekräfte in einem tertiären Überweisungskrankenhaus in Äthiopien.;-;-;-;https://link.springer.com/article/10.1186/1471-2431-13-132 040dcc931323ee0280bc5a3e029179e7;de;;;6.2.;;;„Es ist in Ordnung, um Hilfe zu bitten“: Ergebnisse einer qualitativen Studie zum Informations- und Unterstützungsbedarf pflegender Angehöriger am Lebensende Pflegende Angehörige spielen eine wesentliche Rolle bei der Versorgung ihrer Angehörigen am Lebensende, aber es wurde festgestellt, dass Unsicherheit und ein Mangel an Vertrauen in die Erfüllung ihrer Pflegeaufgaben bestehen, was in jüngster Zeit dazu führte, dass pädagogische oder informationsbasierte Ressourcen für Pflegende entwickelt werden sollten.;-;-;-;https://link.springer.com/article/10.1186/1472-684X-13-22 0c818f9bd4c7fa1112287c65d3768684;de;;;6.2.;;;Ist unzureichendes Wissen über Epilepsie der Grund für das niedrige Niveau der Gesundheitsversorgung in der Volksrepublik Laos? Die Behandlungslücke bei Epilepsie ist in Ländern mit niedrigem und mittlerem Einkommen beträchtlich. In der DVR Laos wird sie auf über 90% geschätzt. Gesundheitspersonal spielt eine wichtige Rolle bei der Überbrückung der Kluft zwischen Menschen mit Epilepsie (PWE) und dem Zugang zu Epilepsieversorgung. In einer nationalen Umfrage bewerteten wir: 1) das Wissen und die Praktiken des Gesundheitspersonals in der DVR Laos in Bezug auf die Krankheit und 2) die Anwesenheit von Patienten in Gesundheitseinrichtungen.;-;-;-;https://link.springer.com/article/10.1186/1472-6963-13-41 51622d7260aa808acc0035b6c9dfc08f;de;;;6.2.;;;Vergleich des follikulären Protokolls des langwirksamen GnRH-Agonisten mit dem Protokoll des GnRH-Antagonisten bei Frauen, die sich einer In-vitro-Fertilisation unterziehen: Eine systematische Überprüfung und Metaanalyse Bewertung der Wirksamkeit und Sicherheit von follikulären und GnRH-Antagonisten-Protokollen mit langwirksamen GnRH-Agonisten bei Frauen, die sich einer In-vitro-Fertilisation (IVF) unterziehen, unter Verwendung von Daten, die sowohl in englischsprachigen als auch in chinesischen Studien veröffentlicht wurden.;-;-;-;https://link.springer.com/article/10.1007/s12325-020-01612-7 e4ae73855c0e437a8da6ba25061449e2;de;;;6.2.;;;Längsschnittstudie zu urbaner Malaria in einer Kohorte ugandischer Kinder: Beschreibung des Studienortes, Volkszählung und Rekrutierung Studien zu Malaria in wohldefinierten Kohorten bieten wichtige Daten über die Epidemiologie dieser komplexen Krankheit, aber nur wenige wurden in städtischen afrikanischen Bevölkerungen durchgeführt. Um einen Stichprobenrahmen für eine Längsschnittstudie zur Malariainzidenz und -behandlung in Kampala, Uganda, zu erstellen, wurde ein Zensus-, Kartierungs- und Erhebungsprojekt durchgeführt.;-;-;-;https://link.springer.com/article/10.1186/1475-2875-5-18 9e01c214563a522f1c5f0a4503304f6b;de;;;6.2.;;;Systemmikroskopische Ansätze zum Verständnis der Migration und Metastasierung von Krebszellen Die Zellmigration ist bei einer Reihe von Prozessen unerlässlich, einschließlich Wundheilung, Angiogenese und Krebsmetastasierung. Insbesondere das Eindringen von Krebszellen in das umgebende Gewebe ist ein entscheidender Schritt, der eine erhöhte Zellmotilität erfordert. Die Zellmigration ist ein gut koordinierter Prozess, der die kontinuierliche Bildung und Demontage von Matrixadhäsionen beinhaltet. Diese strukturellen Ankerpunkte interagieren mit der extrazellulären Matrix und nehmen auch an der adhäsionsabhängigen Signalübertragung teil. Obwohl diese Prozesse für die Krebsmetastasierung essentiell sind, ist wenig über die molekularen Mechanismen bekannt, die die Adhäsionsdynamik während der Migration von Tumorzellen regulieren. In dieser Übersicht geben wir einen Überblick über die neuesten fortschrittlichen Bildgebungsstrategien zusammen mit quantitativer Bildanalyse, die implementiert werden können, um die Dynamik von Matrixadhäsionen und ihren molekularen Komponenten in Bezug auf die Migration von Tumorzellen zu verstehen. Diese dynamische Zellbildgebung zusammen mit multiparametrischer Bildanalyse wird zum Verständnis der molekularen Mechanismen beitragen, die die Migration von Krebszellen definieren.;-;-;-;https://link.springer.com/article/10.1007/s00018-010-0419-2 30c75647ff9c990ca89ef56772a33fcc;de;;;6.2.;;;Ein Framework zur Überwachung mehrerer Datenbanken in Industrien mit OPC UA Datenbankverwaltung und -überwachung sind ein untrennbarer Bestandteil jeder Branche. Ein einheitliches Schema zur Überwachung relationaler Datenbanken ohne expliziten Benutzerzugriff auf Datenbankserver wird außerhalb der Datenbankumgebung kaum erforscht. In diesem Papier stellen wir ein Informationsverteilungsschema in Bezug auf Datenbanken unter Verwendung von Open Platform Communication Unified Architecture (OPC UA)-Servern an Clients vor, wenn mehrere Datenbanken an einer Fabrik beteiligt sind. Ziel ist es, dass externe, aber relevante Clients dieses Informationsgeflecht unabhängig von expliziten Zugriffen auf Benutzerschemata überwachen können. Eine Methodik zum Ausgeben von Daten sowie zum Überprüfen von Änderungen in Datenbanken mithilfe von SQL-Abfragen und -Ereignissen wird skizziert und mit OPC UA-Servern implementiert. Die Struktur kann als Remote Viewing-Anwendung für mehrere Datenbanken in einem Adressraum eines OPC UA-Servers verwendet werden.;-;-;-;https://link.springer.com/article/10.1007/s12652-020-02850-x cbb1510cae4b086dc4a35f34b1f1c9d5;de;;;6.2.;;;Ernährungs- und Lebensstilinterventionen bei postpartalen Frauen in China: Studiendesign und Begründung einer multizentrischen randomisierten kontrollierten Studie Den Monat oder Sitzmonat zu machen ist eine traditionelle Praxis für Frauen nach der Geburt in China und anderen asiatischen Ländern. Frühere Studien haben gezeigt, dass diese Praxis mit einer höheren Prävalenz von postpartalen Problemen verbunden sein kann. Die aktuelle multizentrische randomisierte kontrollierte Studie (RCT) zielt darauf ab, die Ergebnisse von Ernährungs- und Lebensstilinterventionen bei chinesischen Frauen nach der Geburt zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-10-103 950bb9ed1d7f969d8d016e3f816f64ac;de;;;6.2.;;;Planung für morgen Der weise Kliniker blickt wie der kluge Anführer immer auf morgen – und übermorgen. In der Patientenversorgung bedeutet die Vision von morgen zu versuchen, den Krankheitsverlauf des Patienten und das Ergebnis der empfohlenen Therapie zu antizipieren, wie in Kap. 5 auf;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-5521-0_13 7d67b375d6050d43de9a1c7432c772cd;de;;;6.2.;;;Vergleich des Drei-Platten-Systems für die laterale Malleolar-Fixation Diese Studie sollte die klinischen und röntgenologischen Ergebnisse mit drei verschiedenen Implantaten vergleichen und die Wirksamkeit der minimal-invasiven Plattenosteosynthese (MIPO)-Technik bei distalen Fibulafrakturen bewerten.;-;-;-;https://link.springer.com/article/10.1186/1471-2474-15-360 dd286dba2d0e341a05ea845bc6a5ef9f;de;;;6.2.;;;Phase-III-Studie mit postoperativem Cisplatin, Interferon alpha-2b und 5-FU in Kombination mit externer Strahlenbehandlung im Vergleich zu 5-FU allein für Patienten mit reseziertem Pankreas-Adenokarzinom – CapRI: Studienprotokoll [ISRCTN62866759] Nach chirurgischen Eingriffen mit kurativer Absicht in spezialisierten Zentren beträgt das 5-Jahres-Überleben von Patienten mit Karzinom des exokrinen Pankreas nur noch 15%. Die ESPAC-1-Studie zeigte eine um 21 % erhöhte 5-Jahres-Überlebensrate, die mit einer adjuvanten Chemotherapie erreicht wurde. Ermittler der Virginia Mason Clinic haben eine 5-Jahres-Überlebensrate von 55% in einer Phase-II-Studie zur Bewertung von adjuvanter Chemotherapie, Immuntherapie und externer Bestrahlung berichtet.;-;-;-;https://link.springer.com/article/10.1186/1471-2407-5-37 5df3fcaba23a7bc1bc10a07a5cbe2499;de;;;6.2.;;;Einbeziehung traditioneller Geburtshelferinnen in die geburtshilfliche Notfallversorgung in Tansania: politische Implikationen einer Studie ihres Wissens und ihrer Praktiken im Kigoma Rural District Der Zugang zu hochwertigen Gesundheitsdiensten für Mütter hängt hauptsächlich von den bestehenden Richtlinien, Vorschriften, Fähigkeiten, Kenntnissen, Wahrnehmungen sowie der wirtschaftlichen Macht und Motivation der Leistungserbringer und Zielnutzer ab. Kritiker stellen die Politik in Frage, die die Einbeziehung traditioneller Geburtshelfer (TBAs) in geburtshilfliche Notfalldienste (EmoC) in Entwicklungsländern empfiehlt.;-;-;-;https://link.springer.com/article/10.1186/1475-9276-12-83 1c4cc417b5e551621d037bd80cecaedd;de;;;6.2.;;;U-förmige Beziehung zwischen frühem Blutzucker und Mortalität bei kritisch kranken Kindern Ziel dieser Studie ist es, den Zusammenhang zwischen frühen Blutzuckerkonzentrationen und Mortalität zu evaluieren und einen „sicheren Bereich“ von Blutzuckerkonzentrationen während der ersten 24 Stunden nach Aufnahme auf einer pädiatrischen Intensivstation (PICU) mit dem niedrigsten Mortalitätsrisiko zu definieren. Wir bestimmen weiter, ob Assoziationen zwischen der Sterblichkeit auf der Intensivstation und der frühen Hyperglykämie und Hypoglykämie innerhalb von 24 Stunden nach der Aufnahme auf die Intensivstation bestehen, selbst nach Anpassung an die Schwere der Erkrankung, die durch den pädiatrischen Mortalitätsrisiko III (PRISM III)-Score bewertet wird.;-;-;-;https://link.springer.com/article/10.1186/s12887-015-0403-y 16770b4335af7b7409878664dd87af1e;de;;;6.2.;;;Studie zu vorgeburtlichen Kortikosteroiden bei Frühgeburten zur Erhöhung des neonatalen Überlebens in Entwicklungsländern: Studienprotokoll Frühgeburten sind eine der Hauptursachen für die Sterblichkeit von Neugeborenen, die für 28 % der Gesamttodesfälle bei Neugeborenen verantwortlich sind. Die Verabreichung von vorgeburtlichen Kortikosteroiden an Frauen mit hohem Frühgeburtsrisiko ist eine wirksame perinatale Intervention, um die neonatale Sterblichkeit in ressourcenreichen Umgebungen zu reduzieren. Die Wirkung von pränatalen Steroiden zur Verringerung der Sterblichkeit und Morbidität bei Frühgeborenen in Krankenhäusern in Industrieländern mit hoher Inanspruchnahme ist gut bekannt, doch werden sie in Entwicklungsländern nicht routinemäßig eingesetzt. Die Auswirkungen des zunehmenden Gebrauchs von vorgeburtlichen Steroiden in Krankenhäusern oder Gemeinschaftseinrichtungen mit niedrigen Nutzungsraten und hoher Säuglingssterblichkeit bei Frühgeborenen aufgrund des Mangels an spezialisierten Diensten sind nicht gut erforscht. Es gibt derzeit keine eindeutigen Beweise für die Sicherheit der vorgeburtlichen Anwendung von Kortikosteroiden bei Geburten auf Gemeinschaftsebene.;-;-;-;https://link.springer.com/article/10.1186/1742-4755-9-22 f3a524becafc6dce43a4561b29f5d1bc;de;;;6.2.;;;Lebenszyklusmanagement in der Industrie – Unterstützung von Unternehmen mit lebenszyklusbasierten Bewertungen Nachhaltigkeit wird für zahlreiche Unternehmen immer mehr zum strategischen Wachstumstreiber. In diesem Zusammenhang ist Transparenz über die ökologischen Stärken und Schwächen von Produkten und Prozessen und die damit verbundenen Chancen und Risiken von entscheidender Bedeutung. Dementsprechend gewinnt die Bewertung von Nachhaltigkeitsaspekten für Unternehmen und deren Kunden entlang der Wertschöpfungskette an Bedeutung. Lebenszyklusbasierte Methoden wie Life Cycle Assessment (LCA) aber auch andere Bewertungssysteme werden in Entscheidungsprozessen, Produktentwicklung und Marketingaktivitäten eingesetzt. Viele Unternehmen haben eine öffentliche Unternehmenspolitik zur Nachhaltigkeit, die mit Verpflichtungen in Form von quantitativen Zielen unterlegt ist. Die Ökobilanz-Methodik kann als Instrument zur Unterstützung der Identifizierung von „Hot Spots“ in der Wertschöpfungskette und der Messung des Fortschritts bei der Erreichung von Nachhaltigkeitszielen verwendet werden. In der Praxis stehen jedoch häufige Probleme und Herausforderungen einem vollständigen Einsatz von Ökobilanzmethoden in der Industrie entgegen. Für Unternehmen ist es wichtig, eine gemeinsame Basis zu finden, wie diese Ansätze umgesetzt werden, welche Daten und Folgenabschätzungen verwendet werden und wie die Ergebnisse interpretiert werden sollen. ISO-Regeln bieten eine gute Grundlage für diese Arbeit, obwohl sie für einige Fragen nicht ausreichen. Für den Erfahrungsaustausch, die Aktualisierung oder Übernahme von Methoden sowie die Generierung von Daten wurde 2012 das International Sustainability Practitioners Network (ISPN) gegründet. Das ISPN ist ein Austauschforum für Ökobilanz-Methodik im Kontext der Industrie und umfasst Nachhaltigkeitsexperten aus unterschiedlichen Branchen . Um Erfahrungen aus den verschiedenen Aktivitäten auszutauschen, werden Good-Practice-Beispiele dieser branchenübergreifenden Initiative vorgestellt und Möglichkeiten zur Verbesserung der Nachhaltigkeitsbewertung in den Unternehmen diskutiert. Dieser Artikel beleuchtet Herausforderungen und Lösungen in Bezug auf Datenverfügbarkeit und -unsicherheit, Straffung und Nutzung von Standardisierungsprozessen sowie Kommunikation der Ergebnisse mit Nicht-LCA-Experten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-66981-6_39 cb8ad2c6db23967395876f6a2003288a;de;;;6.2.;;;Eine Steuerungsarchitektur für kontinuierliche Produktionsprozesse basierend auf Industrie 4.0: Wasserversorgungssysteme Anwendung Industrie 4.0 (I4.0) vereint neue disruptive Technologien und steigert die Produktivität zukünftiger Fabriken. Tatsächlich wird die Kontrolle von Produktionsprozessen schnell zu einem Schlüsselfaktor für Fertigungsabläufe. In jüngster Zeit wurden Fertigungssteuerungssysteme für verteilte oder halbheterarchische Architekturen entwickelt, z. B. holonische Systeme, die die globale Effizienz und die Reaktionsfähigkeit von Fertigungsabläufen verbessern. Bisherige Studien und Anwendungen haben sich nicht mit kontinuierlichen Produktionsverfahren beschäftigt, wie beispielsweise Anwendungen für Wasserversorgungssysteme (WSS), Ölraffinerien oder elektrische Kraftwerke. Die Komplexität einer kontinuierlichen Produktion besteht darin, dass ein einzelner Fehler sich stark verschlechtern und sogar zu Betriebsunterbrechungen führen kann. Daher schlägt dieses Papier die Architektur der Holonic Production Unit (HPU) als Lösung zur Steuerung kontinuierlicher Produktionsprozesse vor. Eine HPU wird als Holoneinheit erstellt, die Ressourcen in einem kontinuierlichen Prozess darstellt. Dieses Gerät kann Ereignisse in der Umgebung erkennen, verschiedene Handlungsoptionen bewerten und die Parameter auf eine Mission abgestimmt ändern. Der vorgeschlagene Ansatz wurde mit einem simulierten WSS-Modell getestet. Die in diesem Papier beschriebenen Experimente wurden mit einem traditionellen WSS durchgeführt, bei dem die Kommunikations- und Entscheidungsfunktionen die Anwendung von HPU ermöglichen. Die Ergebnisse legen nahe, dass die Konstruktion einer Holarchie mit verschiedenen Holons die I4.0-Anforderungen für kontinuierliche Produktionsprozesse erfüllen kann.;-;-;-;https://link.springer.com/article/10.1007/s10845-021-01790-3 1bbd48381b20fa5d5102adaf5c9d268b;de;;;6.2.;;;Prädiktoren für Pseudarthrose und Reoperation bei Patienten mit Tibiafrakturen: eine Beobachtungsstudie Tibiaschaftfrakturen sind die häufigste Röhrenknochenfraktur und anfällig für Komplikationen wie Pseudarthrosen, die Reoperationen zur Förderung der Frakturheilung erfordern. Unser Ziel war es, die Frakturmerkmale im Zusammenhang mit einer Pseudarthrose der Tibia zu bestimmen und ihren prädiktiven Wert für die Notwendigkeit einer Reoperation zu bestimmen. Unser Ziel war es außerdem, den prädiktiven Wert eines zuvor entwickelten prognostischen Index von drei Frakturmerkmalen auf die Pseudarthrosen- und Reoperationsrate zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/1471-2474-14-103 6df07b6b36e711d14d22bfec423bba93;de;;;6.2.;;;Behandlung von nicht-kleinzelligem Lungenkrebs mit intensitätsmodulierter Strahlentherapie in Kombination mit Cetuximab: das NEAR-Protokoll (NCT00115518) Auch heute noch stellt die Behandlung von NSCLC im Stadium III eine ernsthafte Herausforderung dar. Bisher ist die chirurgische Resektion die Therapie der Wahl. Patienten, deren Tumor nicht resezierbar oder für eine Operation nicht geeignet ist, werden in der Regel zu einer kombinierten Radiochemotherapie überwiesen. Allerdings ist auch die kombinierte radiochemotherapeutische Behandlung mit teilweise deutlichen Nebenwirkungen verbunden, hat sich jedoch als wirksamer als die alleinige Strahlentherapie erwiesen.;-;-;-;https://link.springer.com/article/10.1186/1471-2407-6-122 a422face51c6ab371054ff30b124e6a8;de;;;6.2.;;;Determinanten der Inanspruchnahme von Gebärmutterhals-Screening-Diensten bei 18-49-jährigen Frauen, die Dienstleistungen im Jaramogi Oginga Odinga Teaching and Referral Hospital, Kisumu, Kenia, suchen Kenianische Frauen im Alter von ≥ 15 Jahren haben ein Risiko, an Gebärmutterhalskrebs zu erkranken. Derzeit reduziert die Zervixzytologie die Inzidenz von Gebärmutterhalskrebs, da sie eine frühe Diagnose und Behandlung ermöglicht. Die Inanspruchnahme von Gebärmutterhals-Screening-Diensten ist ein vorrangiges Forschungsgebiet in Kenia. Zentral für den Erfolg eines jeden Screening-Programms ist seine Fähigkeit, die definierte Zielgruppe zu identifizieren, zu erreichen und zu screenen. Der Anteil der Gebärmutterhals-Screenings in Kenia liegt derzeit bei 3,2 %. Im Jaramogi Oginga Odinga Teaching and Referral Hospital (JOOTRH) in Nyanza ist die Zahl der Screenings auf Gebärmutterhalskrebs gering (durchschnittlich 3/Tag). Daher versuchte die aktuelle Studie, Faktoren zu identifizieren, die die Inanspruchnahme von Gebärmutterhals-Screening-Diensten in der Einrichtung beeinflussen.;-;-;-;https://link.springer.com/article/10.1186/1472-6963-14-335 b5ab474896cf0617d24a0d698554507c;de;;;6.2.;;;Aktiver Transport zwischen Wohnung und Schule mit GPS bewertet: eine Querschnittsstudie bei niederländischen Grundschulkindern Ein aktiver Schultransport ist bei Kindern mit einem höheren Maß an körperlicher Aktivität verbunden. Die Förderung des aktiven Verkehrs hat daher als potenzielles Ziel zur Steigerung der körperlichen Aktivität von Kindern an Aufmerksamkeit gewonnen. Neuere Studien haben erkannt, dass die Entfernung zwischen Wohnort und Schule ein wichtiger Prädiktor für aktives Reisen bei Kindern ist. In diesen Studien wurden die vielversprechenden Methoden des Global Positioning Systems (GPS) noch nicht verwendet, um den aktiven Verkehr objektiv zu bewerten. Diese Studie zielt darauf ab, den aktiven Schulweg in Bezug auf die Entfernung zwischen Wohnort und Schule bei einer Stichprobe niederländischer Grundschulkinder unter Verwendung von GPS zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-14-227 27eb9084b6fc4e9dd8059f1c66a3cf69;de;;;6.2.;;;Gesundheitsversorgung und psychiatrische Diagnosen bei heranwachsenden Mädchen 1 und 2 Jahre nach einem erstmalig registrierten sexuellen Missbrauch von Kindern: eine Kohortenstudie in der Region Stockholm Sexueller Missbrauch von Kindern (CSA) ist ein Verbrechen gegen die Menschenrechte mit schwerwiegenden gesundheitlichen Folgen, und Suizidhandlungen, Stress, Essstörungen und Borderline-Störungen sind bei CSA-Überlebenden häufig. Das Ziel dieser Studie war es zu analysieren, wie sich die Konsummuster der Gesundheitsversorgung bei heranwachsenden Mädchen in der Region Stockholm, Schweden, 1 und 2 Jahre nach der ersten Registrierung von CSA-Erfahrungen in ihrer Krankenakte im Vergleich zu altersgleichen Kontrollen ohne solche entwickelten Anmeldung. In dieser Kohortenstudie wurden die Anzahl der Arztbesuche, Komorbiditäten und verschriebenen Medikamente über die Verwaltungsdatenbank der Region Stockholm (VAL) für Mädchen im Alter von 12 bis 17 Jahren mit Registrierung der CSA-Erfahrung in ihrer Krankenakte erfasst (;-;-;-;https://link.springer.com/article/10.1007/s00787-020-01670-w 7a87664a882d004869243361ebe5f816;de;;;6.2.;;;Kartierung der Humanressourcen für die Augengesundheit in 21 Ländern Subsahara-Afrikas: aktuelle Fortschritte in Richtung VISION 2020 Die Entwicklung der Humanressourcen für Augengesundheit (HReH) ist ein wichtiger Schwerpunkt des Global Action Plan 2014 bis 2019, um die Prävalenz vermeidbarer Sehbehinderungen bis zum Jahr 2019 um 25 % zu reduzieren -Sahara-Afrika als in anderen Regionen der Welt, aber Daten, die dies für die Politikgestaltung unterstützen, sind rar. Wir sammelten Daten zu HReH- und Kataraktoperationen aus 21 Ländern in Subsahara, um den Fortschritt in Richtung auf die wichtigsten vorgeschlagenen bevölkerungsbasierten HReH-Indikatoren von VISION 2020 und die Kataraktoperationsraten (CSR) im Jahr 2011 abzuschätzen.;-;-;-;https://link.springer.com/article/10.1186/1478-4491-12-44 1ddf2f0c8cf18e46ecb1ce356825d232;de;;;6.2.;;;Transaktive Energieanwendungen von eIoT In den vorangegangenen Kapiteln wurde die Entwicklung von eIoT im Rahmen einer laufenden Transformation des Stromnetzes verortet. Als Reaktion auf mehrere Treiber des Energiemanagements wird die Netzperipherie mit einem eIoT aktiviert, das aus netzwerkfähigen physischen Geräten, heterogenen Kommunikationsnetzwerken und verteilten Steuerungs- und Entscheidungsalgorithmen besteht, die durch gut konzipierte Architekturen und Standards organisiert sind. Wenn diese Faktoren zusammen richtig umgesetzt werden, bilden sie einen eIoT-Regelkreis, der die technische und wirtschaftliche Leistungsfähigkeit des Netzes effektiv steuert. Diese Regelschleife stimmt am ehesten mit einem aufkommenden Konzept der transaktiven Energie (TE) überein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-10427-6_4 9cf7b5f6c13b962ef2c1ee053ec377ad;de;;;6.2.;;;Die nigerianische nationale Umfrage zu Blindheit und Sehbehinderung: Begründung, Ziele und detaillierte Methodik Obwohl Nigeria die größte Bevölkerung in Afrika hat, verfügt es über keine genauen bevölkerungsbezogenen Daten, um augenärztliche Leistungen zu planen und zu bewerten. Eine nationale Erhebung wurde durchgeführt, um die Prävalenz abzuschätzen und die Hauptursachen für Blindheit und Sehschwäche zu ermitteln. Dieses Papier stellt die detaillierte Methodik vor, die während der Umfrage verwendet wurde.;-;-;-;https://link.springer.com/article/10.1186/1471-2415-8-17 e2157faaebc24224d8c348d7554359dd;de;;;6.2.;;;Analyse der Quellen und Art des Einflusses: Wie das Avahan-Programm Beweise nutzte, um die HIV/AIDS-Präventionspolitik in Indien zu beeinflussen Große Investitionen von Entwicklungspartnern in Ländern mit niedrigem und mittlerem Einkommen (LMICs) zielen oft darauf ab, ein unterstützendes politisches Umfeld zu entwickeln. Es gibt nur begrenzte Kenntnisse darüber, mit welchen Mechanismen Entwicklungspartner die Regierungspolitik beeinflussen oder welche Mechanismen wirksam sind. Diese Studie untersuchte den Einfluss von Avahan, einem großen HIV/AIDS-Präventionsprogramm in Indien, das von der Bill and Melinda Gates Foundation unterstützt wird, auf die Entwicklung der HIV/AIDS-Politik in Indien, insbesondere des Nationalen AIDS-Kontrollprogramms III (NACP III).;-;-;-;https://link.springer.com/article/10.1186/1748-5908-8-44 cc51f2ff968701f82eb3f87abd03fabf;de;;;6.2.;;;Eine röntgenologische und anthropometrische Untersuchung der Wirkung einer konturierten Sandale und einer Fußorthese auf die Unterstützung des medialen Längsgewölbes Orthesen im Schuh verbessern Zustände wie plantare Fersenschmerzen (Fasziitis), wahrscheinlich aufgrund ihrer Fähigkeit, das mediale Längsgewölbe des Fußes anzuheben und die Belastung des plantaren Gewebes zu verringern. Zunehmend wird die Bogenprofilform der im Schuh befindlichen Fußorthese in Sandalenschuhe integriert und bietet eine alternative Fußbekleidungsoption für diejenigen, die eine Orthese benötigen. Der Zweck dieser Studie war es zu evaluieren, ob eine Sandale, die das Fußgewölbeprofil einer im Schuh eingelassenen Fußorthese enthält, tatsächlich das mediale Längsgewölbe anhebt.;-;-;-;https://link.springer.com/article/10.1186/s13047-014-0038-5 2ae269e0130f9471dd33c496b4578568;de;;;6.2.;;;Beeinflusst die Anerkennung von Berichterstattungsleitlinien durch Zeitschriften die Vollständigkeit der Berichterstattung über die Gesundheitsforschung? Ein systematisches Review-Protokoll Die Berichterstattung über die Gesundheitsforschung ist oft unzureichend und unvollständig. Eine vollständige und transparente Berichterstattung ist unerlässlich, damit die Leser die Gültigkeit von Forschungsergebnissen für die Verwendung im Gesundheitswesen und bei politischen Entscheidungen beurteilen können. Zu diesem Zweck wurden viele Leitlinien zur Verbesserung der Qualität von Gesundheitsforschungsberichten für die Berichterstattung unterschiedlicher Forschungsarten entwickelt. Trotz aller Bemühungen werden viele Richtlinien für die Berichterstattung zu wenig genutzt. Um ihre Akzeptanz zu erhöhen, ist der Nachweis ihrer Wirksamkeit wichtig und wird Autoren, Gutachtern und Herausgebern eine wichtige Ressource für die Verwendung und Umsetzung einschlägiger Leitlinien bieten. Das Ziel dieser Studie war es zu beurteilen, ob die Billigung von Berichterstattungsleitlinien durch Zeitschriften die Vollständigkeit der Berichterstattung von Gesundheitsstudien beeinflusst.;-;-;-;https://link.springer.com/article/10.1186/2046-4053-1-24 205c28a309012c0c8ea86b0d6be1fb7b;de;;;6.2.;;;Eine Analyse der Expressionsmuster von Genen, die für Proteine ​​mit katalytischen Aktivitäten kodieren Hybridisierung (ISH) ist eine leistungsstarke Methode zur Visualisierung von Genexpressionsmustern auf Organismenebene mit zellulärer Auflösung. Automatisiert ist es in der Lage, die Expression einer großen Zahl von Genen zu bestimmen.;-;-;-;https://link.springer.com/article/10.1186/1471-2164-8-232 1b455385b8caa8e07f81ddce929865d2;de;;;6.2.;;;Helmintheninfektion in Südlaos: hohe Prävalenz und geringes Bewusstsein Helminthiasis ist ein Problem der öffentlichen Gesundheit in der Demokratischen Volksrepublik Laos (DDR Laos, Laos). Diese Studie zielte darauf ab, die Helmintheninfektion und die damit verbundenen Risikofaktoren in Bezug auf vorhandene lokale Kenntnisse, Einstellungen und Praktiken bezüglich Wurminfektionen in endemischen Gemeinschaften zu verstehen.;-;-;-;https://link.springer.com/article/10.1186/1756-3305-6-328 bcbe60aad9e8d08eb7651de5fdd7b76d;de;;;6.2.;;;Einfluss elastischer Inhomogenität auf die Oberflächenverschiebungen im Nordosten Japans: Basierend auf dreidimensionaler numerischer Modellierung Bei geodätischen Inversionen wie der Schätzung des koseismischen Gleitens und/oder der Nachgleitverteilung auf Verwerfungen wurden die Verschiebungen auf der Oberfläche, die unter der Annahme eines homogenen elastischen Halbraums berechnet wurden, meistens als Greensche Funktionen (GFs) verwendet. Dies scheint jedoch für eine bessere Abschätzung einer solchen Schlupfverteilung nicht ausreichend zu sein, da die Untergrundstrukturen mehr oder weniger inhomogen sind, insbesondere in und um Japan, wo die Struktur sehr kompliziert sein muss. Um zu untersuchen, wie stark sich die inhomogene Untergrundstruktur auf die Oberflächenverschiebungen auswirkt, führen wir in dieser Studie einige 3-D-Finite-Elemente-Berechnungen mit einem Raster für die Region 1400 km (EW) × 1200 km (NS) × 200 km (Tiefe) ) einschließlich Tohoku und Hokkaido im Nordosten Japans. Unter der Annahme homogener und inhomogener elastischer Modelle mit verschiedenen Werten für den Young-Modul und die Poisson-Zahl berechneten wir die Oberflächenverschiebungen aufgrund einer dip-slip-artigen Verschiebung von 1 m auf vielen zellartigen Subfehlern, die an der Grenzfläche zwischen den Pazifik- und Landseitenplatten angenommen wurden . Beim Vergleich der Ergebnisse finden wir eine große Diskrepanz der Oberflächenverschiebungen zwischen den homogenen und inhomogenen elastischen Modellen und eine geringere Abhängigkeit der Oberflächenverschiebungen von der Poissonzahl. Die Diskrepanz beträgt mehr als 20 % und kann in einigen Fällen bis zu ~40 % betragen. Eine so große Diskrepanz weist darauf hin, dass die berechneten Oberflächenverschiebungen für inhomogenes elastisches Medium mit realistischer Untergrundstruktur anders als in den üblichen Fällen als GF für bessere geodätische Inversionen verwendet werden sollten.;-;-;-;https://link.springer.com/article/10.1186/BF03352051 ffe258a0e5f8b3ce9aaebcd5c7fd4177;de;;;6.2.;;;Standortauswahl für Aquakultur und marine Raumplanung: Die Rolle GIS-basierter Werkzeuge und Modelle Weltweit haben zunehmende menschliche Aktivitäten in Küsten- und Offshore-Gewässern zu komplexen Konflikten zwischen verschiedenen Sektoren, die um den Weltraum konkurrieren, sowie zwischen der Nutzung und Erhaltung der Meeresressourcen geführt. Wie andere Nutzer bewerten Aquakultur-Befürworter potenzielle Offshore-Standorte hauptsächlich auf der Grundlage ihrer biologischen Eignung, technischen Machbarkeit und Kostenüberlegungen. In jüngster Zeit wurde die Meeresraumplanung (MSP) als Ansatz für ein stärker ökosystembasiertes Meeresmanagement gefördert, wobei der Schwerpunkt auf der ganzheitlichen Ausgewogenheit mehrerer Managementziele liegt. Sowohl branchenspezifische als auch Mehrfachnutzungsplaner verlassen sich stark auf raumbezogene Daten, auf Geoinformationssystemen (GIS) basierende Analysewerkzeuge und Entscheidungsunterstützungssysteme (DSS), um eine Reihe von Optionen zu untersuchen und deren Kosten und Nutzen zu bewerten. Obwohl ökologische Faktoren derzeit relativ umfassend bewertet werden können, sind bessere Instrumente erforderlich, um die wirtschaftlichen und sozialen Erwägungen zu bewerten und einzubeziehen, die auch für die Identifizierung potenzieller Standorte und das Erreichen erfolgreicher Meerespläne entscheidend sein werden. In diesem Abschnitt werden die Fortschritte bei GIS-basierten DSS in Bezug auf ihre Fähigkeit zur Auswahl von Aquakulturstandorten und ihre Integration in mehrfach verwendbare MSP hervorgehoben. Ein Sonderfall der Mehrzweckplanung – die potenzielle Zusammenlegung von Offshore-Windenergie und Aquakultur – wird ebenfalls diskutiert, unter anderem in der deutschen AWZ der Nordsee.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-51159-7_6 6f5d2dccac6f2f8b3ed848943bbfca7b;de;;;6.2.;;;Deep Learning-basiertes Ambient Assisted Living für das Selbstmanagement von Herz-Kreislauf-Erkrankungen Laut Weltgesundheitsorganisation tragen Herz-Kreislauf-Erkrankungen zu 17,7 Millionen Todesfällen pro Jahr bei und nehmen mit einer zunehmenden Alterung der Bevölkerung zu. Um diese Herausforderungen zu meistern, entwickeln die entwickelten Länder jetzt praktikable Lösungen auf der Grundlage neuer Kommunikationstechnologien wie dem Ambient Assisted Living. Bei diesen Lösungen sind die bekanntesten Lösungen tragbare Geräte für die Patientenüberwachung, Telemedizin und mHealth-Systeme. Diese systematische Literaturübersicht präsentiert die detaillierte Literatur zu Lösungen für das Ambient Assisted Living und hilft zu verstehen, wie das Ambient Assisted Living Patienten mit Herz-Kreislauf-Erkrankungen hilft und motiviert, sich selbst zu behandeln, um die damit verbundene Morbidität und Mortalität zu reduzieren. Zur Beantwortung der Forschungsfragen werden bevorzugte Berichtselemente für systematische Übersichtsarbeiten und Metaanalysen verwendet. Das Papier ist in vier Hauptthemen unterteilt, darunter selbstüberwachende tragbare Systeme, umgebungsunterstütztes Leben in älteren Bevölkerungsgruppen, klinische Managementsysteme und Deep-Learning-basierte Systeme für die kardiovaskuläre Diagnose. Zu jedem Thema zeigt eine detaillierte Untersuchung, (1) wie diese neuen Technologien heute in Diagnosesysteme integriert werden und (2) wie neue Technologien wie IoT-Sensoren, Cloud-Modelle, Machine- und Deep-Learning-Strategien zur Verbesserung der medizinischen Leistungen genutzt werden können. Diese Studie hilft, die Stärken und Schwächen neuartiger Umgebungen für umgebungsunterstützte Wohnumgebungen für medizinische Anwendungen zu identifizieren. Außerdem trägt diese Überprüfung dazu bei, die Abhängigkeit von Pflegepersonal und den Gesundheitssystemen zu verringern.;-;-;-;https://link.springer.com/article/10.1007/s00521-020-05678-w dc6a630bb49b873b5d4dd25f1c502976;de;;;6.2.;;;Kurzfristige Auswirkungen des Schulungspakets zur Mundhygiene für Anganwadi-Mitarbeiter auf die Verbesserung der Mundhygiene von Vorschulkindern in der nordindischen Stadt Karies wird weltweit in die Liste der Gesundheitsprobleme bei Vorschulkindern aufgenommen. In Indien erhöht die mangelnde Verfügbarkeit und Erschwinglichkeit von Mundgesundheit die Kosten für Behandlung und Pflege. Die Stärkung von Gemeindearbeitern wie Anganwadi-Mitarbeitern (AWWs) in der Mundgesundheit und die Vermittlung eines grundlegenden Bewusstseins für die Mundgesundheit der Mütter durch sie kann ein praktikables Modell sein. Daher wurde die vorliegende Studie durchgeführt, um die kurzfristigen Auswirkungen des Oral Hygiene Training Package (OHTP) auf AWWs auf die Verbesserung der Mundhygiene von Vorschulkindern zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/1472-6831-13-67 99e852c0273e049a8ed6bafa73b80e3b;de;;;6.2.;;;Die anfängliche Raymond-Roy-Okklusionsklassifikation, aber nicht die Packungsdichte definiert das Rezidivrisiko nach Aneurysma-Coiling Nach Coil-Embolisation von intrakraniellen Aneurysmen ist derzeit nicht gut geklärt, ob die initiale Coil-Packungsdichte oder die Art der Aneurysma-Restperfusion, dargestellt durch die modifizierte Raymond-Roy-Verschlussklassifikation, primär die Rezidivrate des Aneurysmas beeinflusst. Wir stellten die Hypothese auf, dass diese Faktoren interagieren und nur einer ein unabhängiger Risikofaktor bleibt.;-;-;-;https://link.springer.com/article/10.1007/s00062-020-00926-x 3e265aef607c16334c8a9be55f533c30;de;;;6.2.;;;Hämoglobinurie bei Kindern mit schwerer Malaria in Ibadan, Nigeria Hämoglobinurie ist eine der Manifestationen schwerer Malaria und resultiert aus einer schweren intravaskulären Hämolyse. Ein Mangel an Glucose-6-Phosphat-Dehydrogenase (G6PD) wurde mit seiner Ätiologie in Verbindung gebracht. Hämoglobinurie kann mit schwerer Anämie und seltener mit akutem Nierenversagen einhergehen.;-;-;-;https://link.springer.com/article/10.1186/1475-2875-11-336 be49739b69b4955fb7e8217c1a3e7ab2;de;;;6.2.;;;Widersprüche und Interventionen im Gesundheitswesen IS Die Studie analysiert Daten, die in zwei Fallstudien in der Gesundheitsbranche gesammelt wurden, die durch eine Vielzahl sozialer und technischer Elemente gekennzeichnet ist, die ein Aktivitätssystem bilden, in dem alle Elemente miteinander interagieren. Die Ergebnisse deuten darauf hin, dass viele Probleme, die bei der Implementierung eines Gesundheitsinformationssystems auftreten, auf Widersprüche zwischen Elementen der Aktivitätssysteme zurückzuführen sind, die durch die neue IS geschaffen oder verstärkt werden. Die Autoren stellen fest, dass einige Widersprüche latent sind und bei der Einführung eines neuen IS deutlich werden, während andere Widersprüche (unbeabsichtigt) neu geschaffen werden. Die Studie zeigt auch, dass Widersprüche komplexer sind als bisher angenommen und oft mehr als zwei Elemente eines Gesundheitssystems betreffen. In ähnlicher Weise wird festgestellt, dass wirksame Interventionen, die diesen Widersprüchen entgegenwirken, für zusätzliche Komplexität verantwortlich sind, aber nicht immer ihr Ziel erreichen. Auf der Grundlage der Aktivitätstheorie entwickeln die Autoren einen Rahmen, um die Ergebnisse kohärent zu synthetisieren. Die Studie kann dazu beitragen, das Verständnis der Rolle des IS in einem Aktivitätssystem zu verbessern und IS-Implementierungsprojekte zur Vermeidung unbeabsichtigter Folgen zu leiten.;-;-;-;https://link.springer.com/article/10.1007/s12599-021-00697-w 4e098745d26343c6cb39557bd959a32b;de;;;6.2.;;;Wirkung der Akupunkturbehandlung auf vaskuläre kognitive Störungen ohne Demenz: Studienprotokoll für eine randomisierte kontrollierte Studie Vaskuläre kognitive Beeinträchtigung, keine Demenz (VCIND) ist eine Risikobedingung für eine zukünftige Demenz und sollte das Ziel präventiver Strategien sein. Vorläufige Beweise deuten darauf hin, dass Akupunktur eine klinisch wirksame Intervention für Menschen mit vaskulärer kognitiver Beeinträchtigung im Frühstadium sein kann. Wir werden eine multizentrische, 6-monatige, medikamentenkontrollierte, nicht verblindete, randomisierte Parallelgruppenstudie durchführen, um festzustellen, ob Akupunktur die kognitive Funktion und Lebensqualität von Patienten mit VCIND wirksam verbessert.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-15-442 aa2932275ff07c755a972093583db573;de;;;6.2.;;;Ein großer, konsistenter Plasma-Proteomik-Datensatz aus prospektiv gesammelten Proben von Brustkrebspatientinnen und gesunden Freiwilligen Die Variabilität der Plasmaprobensammlung und der Proteomik-Technologieplattformen hat sich nachteilig auf die Erzeugung großer proteomischer Profildatensätze aus menschlichen Bioproben ausgewirkt.;-;-;-;https://link.springer.com/article/10.1186/1479-5876-9-80 24ab040f0e48bceaf99d5ef09bee20a0;de;;;6.2.;;;Genexpressions-Profiling zeigt den zugrunde liegenden molekularen Mechanismus der hepatoprotektiven Wirkung von Die Leber spielt eine wesentliche Rolle im Körper, indem sie mehrere wichtige Stoffwechselfunktionen reguliert. Leberschäden sind mit der Verzerrung dieser Funktionen verbunden, die viele gesundheitliche Probleme verursachen. Pharmazeutische Medikamente behandeln Lebererkrankungen, verursachen jedoch weitere Schäden. Daher werden pflanzliche Arzneimittel weltweit verwendet und werden immer beliebter.;-;-;-;https://link.springer.com/article/10.1186/1472-6882-13-160 04b0f37d1f61335d8497a19d4deb3cee;de;;;6.2.;;;Die Verbindung von ehelicher Beziehung und wahrgenommener sozialer Unterstützung mit der psychischen Gesundheit von Frauen in Pakistan Eheliche Umstände gelten als wesentlicher Risikofaktor für eine überproportional hohe Prävalenz von Depressionen und Angstzuständen bei pakistanischen Frauen. Obwohl soziale Unterstützung ein bekannter Puffer für psychische Belastungen ist, gibt es keine klaren Beweise dafür, wie verschiedene Aspekte ehelicher Beziehungen im Leben pakistanischer verheirateter Frauen mit Depressionen und Angstzuständen interagieren und in Verbindung stehen, und die Rolle der sozialen Unterstützung im Kontext ihrer Ehe .;-;-;-;https://link.springer.com/article/10.1186/1471-2458-13-1150 076ef3d6415c6c742514288086e02d50;de;;;6.2.;;;Die technischen Herausforderungen der OOP-Anwendung in der Europäischen Union und der TOOP OOP-Architektur Das Einmaligkeitsprinzip verpflichtet die öffentlichen Verwaltungen sicherzustellen, dass Bürger und Unternehmen der öffentlichen Verwaltung insgesamt nur einmal dieselben Informationen zur Verfügung stellen. Die weit verbreitete Anwendung des Once-Only-Prinzips hat das Potenzial, das Leben der Bürger zu vereinfachen, Unternehmen effizienter zu machen und den Verwaltungsaufwand in der Europäischen Union zu verringern. Das Once-Only-Prinzip-Projekt (TOOP) ist eine vom EU-Programm Horizon 2020 finanzierte Initiative, um die Möglichkeit zu untersuchen, die grenzüberschreitende Anwendung des Once-Only-Prinzips durch die Demonstration in der Praxis durch die Entwicklung ausgewählter Pilotprojekte zu ermöglichen Anwendungen für spezifische Anwendungsfälle aus der Praxis, die die Verbindung verschiedener Register und Architekturen in verschiedenen Ländern für einen besseren Informationsaustausch zwischen öffentlichen Verwaltungen ermöglichen. Diese IKT-Pilotsysteme wurden als Ergebnis einer paneuropäischen Zusammenarbeit entwickelt und folgen einem föderierten Modell, um ein hohes Maß an Unabhängigkeit zwischen den beteiligten Parteien bei der Entwicklung ihrer eigenen Lösungen zu ermöglichen. Die größte Herausforderung bei der Implementierung einer OOP-Lösung ist die Vielfalt der Organisationen, Verfahren, Daten und Dienste auf allen vier Hauptebenen der Interoperabilität: rechtlich, organisatorisch, semantisch und technisch. Um dieser Herausforderung zu begegnen, entwickelt und testet TOOP die TOOP-Referenzarchitektur (TOOPRA), um Organisationen bei der grenzüberschreitenden Implementierung der OOP zu unterstützen. Das Papier skizziert die TOOPRA-Benutzer, -Prinzipien und -Anforderungen, gibt einen Überblick über die Architekturentwicklung, beschreibt die wichtigsten Ansichten von TOOPRA, diskutiert Architekturprofilierung und analysiert die TOOPRA-Nachhaltigkeitsthemen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-79851-2_8 984305cbf0e9c90ac696305d6f3bcf8b;de;;;6.2.;;;Studie zur Verfeinerung von nicht-kleinzelligem Lungenkrebs im Frühstadium. Adjuvante Chemotherapie mit Pemetrexed und Cisplatin versus Vinorelbin und Cisplatin: Das TREAT-Protokoll Die adjuvante Chemotherapie hat sich bei Patienten mit nicht-kleinzelligem Lungenkrebs im Frühstadium als vorteilhaft erwiesen. Allerdings waren Toxizität und unzureichende Dosisabgabe kritische Probleme bei der verwendeten Chemotherapie. Doublet-Therapien mit Pemetrexed, einem Multi-Target-Folat-Inhibitor, und Platin zeigen eine klare Aktivität bei nicht-kleinzelligem Lungenkrebs und werden mit niedrigen Toxizitätsraten und ausgezeichneter Abgabe gut vertragen.;-;-;-;https://link.springer.com/article/10.1186/1471-2407-7-77 adcbaf06c89b604038aee05098504098;de;;;6.2.;;;Klinische Hauptmerkmale bei Patienten bei ihrer ersten psychiatrischen Aufnahme in italienische psychiatrische Akutstationen Die PERSEO-Studie Es liegen nur wenige Daten zu Patienten vor, die sich mit psychotischen Symptomen zum ersten Mal auf einer Akutstation vorstellen. Die Ziele dieses Papiers sind (i) die Beschreibung der epidemiologischen und klinischen Merkmale von Patienten bei ihrer ersten psychiatrischen Aufnahme (FPA), einschließlich soziodemografischer Merkmale, Risikofaktoren, Lebensgewohnheiten, Modalitäten des Beginns, psychiatrische Diagnosen und Behandlungen vor der Aufnahme, (ii) um das aggressive Verhalten und das klinische Management von FPA-Patienten in italienischen psychiatrischen Akutstationen, sogenannten SPDCs (Servizio Psychiatrico Diagnosi e Cura = psychiatrischer Dienst für Diagnose und Management), zu beurteilen.;-;-;-;https://link.springer.com/article/10.1186/1471-244X-7-3 458f0748854042f1c8cd0188b42e618e;de;;;6.2.;;;Teil II, Perspektiven der Anbieter: Sollten Patienten aktiviert werden, um evidenzbasierte Medizin anzufordern? eine qualitative Studie des VA-Projekts zur Implementierung von Diuretika (VAPID) Hypertonie-Leitlinien empfehlen den Einsatz von Thiazid-Diuretika als Erstlinientherapie bei unkomplizierter Hypertonie, jedoch werden Diuretika zu wenig verschrieben und Hypertonie häufig unzureichend behandelt. Diese qualitative Bewertung der Einstellungen des Anbieters folgt einer randomisierten kontrollierten Studie einer Patientenaktivierungsstrategie, bei der hypertonische Patienten Briefe und Anreize erhielten, Thiazide mit ihrem Anbieter zu besprechen. Die Strategie führte zu hohen Diskussionsraten und erhöhten Thiazid-Verschreibungsraten. Unser Ziel war es, Anbieter zu befragen, um die Wirksamkeit und Akzeptanz der Intervention aus ihrer Sicht sowie die Eignung der Patientenaktivierung für eine breitere Leitlinienimplementierung zu verstehen.;-;-;-;https://link.springer.com/article/10.1186/1748-5908-5-24 6c71764336f862a8dd9d95deefcea33a;de;;;6.2.;;;Ein neuartiger Ansatz zur Sequenzvalidierung von Proteinexpressionsklonen mit automatisierter Entscheidungsfindung Während der molekulare Zusammenbau von Proteinexpressionsklonen leicht automatisiert und routinemäßig mit hohem Durchsatz durchgeführt wird, wird die Sequenzverifizierung dieser Klone immer noch größtenteils manuell durchgeführt, ein mühsamer und zeitaufwendiger Prozess. Das ultimative Ziel der Validierung besteht darin, zu bestimmen, ob ein gegebener Plasmidklon ausreichend mit seiner Referenzsequenz übereinstimmt, um für die Verwendung in Proteinexpressionsexperimenten akzeptabel zu sein. Angesichts der immer schneller steigenden Verfügbarkeit von Zehntausenden ungeprüfter Klone besteht eine starke Nachfrage nach schneller, effizienter und genauer Software, die die Klonvalidierung automatisiert.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-8-198 b008f712b404db5a88eaa0e49b56be01;de;;;6.2.;;;Bewertung der Validität der Hornhautstärkeschätzung mit konventioneller Keratometrie zur Berechnung der Intraokularlinsenstärke in Augen mit Fuchs-Dystrophie, die sich einer Descemet-Membran-Endothel-Keratoplastik unterzogen Die vorliegende retrospektive Studie wurde entwickelt, um die Hypothese zu testen, dass das Verhältnis der postoperativen posterioren zu präoperativen Hornhautkrümmungsradien (PPPA) bei Augen mit Fuchs-Dystrophie, die sich einer Descemet-Membran-Endothelkeratoplastik (DMEK) unterzogen, sich signifikant von den posterioren zu anterioren Hornhautkrümmungsradien (PA .) unterscheidet )-Verhältnis bei jungfräulichen Augen und macht daher die konventionelle Keratometrie (K) und die daraus abgeleitete Hornhautstärke für die Brechkraftberechnung der Intraokularlinse (IOL) ungültig.;-;-;-;https://link.springer.com/article/10.1007/s00417-020-04998-w 57686d557fbc6986b19cb361833383a5;de;;;6.2.;;;Selbsteingeschätzte Lebensqualität und Schulleistung in Bezug auf Helmintheninfektionen: Fallstudie aus Yunnan, Volksrepublik China Von Expertenmeinungen abgeleitete Invaliditätsgewichte werden häufig verwendet, um die globale Belastung durch Krankheiten und Verletzungen abzuschätzen. Für chronische Krankheiten wie bodenübertragene Helminthiasis und Schistosomiasis wurde vorgeschlagen, einen patientenbasierten Ansatz zur Lebensqualität (QoL) in Betracht zu ziehen, um eine genauere Einschätzung des Behinderungsgewichts zu ermöglichen.;-;-;-;https://link.springer.com/article/10.1186/1756-3305-3-61 2719cf7b2de8a3f3ab1d106e2724a989;de;;;6.2.;;;Als Computer in der Politik interessant wurden Technischer Fortschritt war in der skandinavischen Linken- und Arbeiterbewegung lange Zeit unstrittig. Weltereignisse wie der amerikanische Vietnamkrieg und ein neuer Zeitgeist änderten dies Ende der sechziger Jahre und politisch bewusste Computerbegeisterte sahen Computer in einem neuen Licht. Drei Themen standen im Mittelpunkt der schwedischen Diskussion: die IBM-Hegemonie, Computer, Privatsphäre und die Bedrohung der demokratischen Entwicklung durch veränderte Machtverhältnisse. Die schwedische Debatte zu dieser Zeit ist von einem persönlichen Standpunkt aus.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-24168-X_37 44f3a9506cdc599052291e273164af9a;de;;;6.2.;;;Akupunktur bei funktioneller Dyspepsie: Studienprotokoll für eine randomisierte kontrollierte Studie mit zwei Zentren Funktionelle Dyspepsie (FD) ist ein weit verbreitetes Gesundheitsproblem, das derzeit keine optimalen Behandlungen bietet. Akupunktur wird traditionell als Behandlung für FD gesucht. Das Ziel dieser Studie ist es zu untersuchen, ob die Akupunkturbehandlung die Symptome der FD verbessert.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-15-89 0b94c07203c33fec04ea755e358cc659;de;;;6.2.;;;Variation der Cochlea-Anatomie und Cochlea-Ductus-Länge: Analyse mit einer neuen Tablet-basierten Software Bei der Cochlea-Implantation hilft eine gründliche präoperative Planung zusammen mit der Messung der Cochlea-Ductus-Länge (CDL) bei der Wahl der richtigen Elektrodenlänge. Zur Messung der CDL wurden im letzten Jahrhundert neben der damals verfügbaren Technologie verschiedene Techniken eingeführt. Eine Tablet-basierte Software bietet eine einfache und intuitive Möglichkeit, die Anatomie des Schläfenbeins, seine Proportionen und die Messung der CDL zu visualisieren und zu analysieren. Daher haben wir retrospektiv die Berechnungstechnik der CDL über eine Tablet-basierte Software an unserer eigenen Kohorte untersucht.;-;-;-;https://link.springer.com/article/10.1007/s00405-021-06889-0 702757c32be4ec6eb7d425dce1859f1e;de;;;6.2.;;;Metaanalyse genbasierter genomweiter Assoziationsstudien zur Knochenmineraldichte bei chinesischen und europäischen Probanden Der genbasierte Assoziationsansatz könnte als eine ergänzende Analyse zur Einzel-SNP-Assoziationsanalyse angesehen werden. Wir haben die Ergebnisse des genbasierten Assoziationsansatzes anhand der Daten von genomweiten Assoziationsstudien (GWAS) von chinesischen und europäischen Probanden meta-analysiert, mehrere gut etablierte Gene für die Knochenmineraldichte (BMD) bestätigt und mehrere neue BMD-Gene vorgeschlagen.;-;-;-;https://link.springer.com/article/10.1007/s00198-011-1779-7 719ab75108717c418a5e9776b3051eb6;de;;;6.2.;;;Patientenzufriedenheit mit der Grundversorgung: eine Beobachtungsstudie zum Vergleich anthroposophischer und konventioneller Versorgung Diese Studie ist Teil einer Querschnittsevaluation von komplementärmedizinischen Anbietern in der Grundversorgung in der Schweiz. Sie vergleicht die Patientenzufriedenheit mit der Anthroposophischen Medizin (AM) und der Schulmedizin (CON).;-;-;-;https://link.springer.com/article/10.1186/1477-7525-6-74 4d48565fd869a885737fd628ae740dd5;de;;;6.2.;;;Die Fer-Tyrosinkinase reguliert eine Axon-Retraktionsreaktion auf Semaphorin 3A in Spinalganglion-Neuronen Fps/Fes und Fer sind die einzigen zwei Mitglieder einer unterschiedlichen Unterklasse von zytoplasmatischen Proteintyrosinkinasen. Fps/Fes war zuvor an der Semaphorin 3A (Sema3A)-induzierten Wachstumskegelkollaps-Signalgebung in Neuronen aus dem Dorsalwurzelganglion (DRG) durch Interaktion mit und Phosphorylierung der Sema3A-Rezeptorkomponente PlexinA1 und Mitgliedern des Collapsin-Response-Mediatorproteins (CRMP .) beteiligt ) Familie von Mikrotubuli-Regulatoren. Die potenzielle Rolle der eng verwandten Fer-Kinase wurde jedoch nicht untersucht.;-;-;-;https://link.springer.com/article/10.1186/1471-213X-7-133 d39486200a77de24957ad993b1973e02;de;;;6.2.;;;Überprüfen der Integrität von Hyperlink-Informationen mithilfe von Linked Data und Smart Contracts Wir präsentieren einen Ansatz zur Überprüfung von Off-Chain-Informationen mithilfe von Linked Data, Smart Contracts und RDF-Graph-Hashes, die in einem Distributed Ledger gespeichert sind. Als Modellierungsgrundlage verwenden wir das Konzept eines Linked Pedigree, d. h. eines dezentralen Datensatzes zur Speicherung von Hyperlink-Informationen. Wir bewerten unseren Ansatz, indem wir verschiedene Möglichkeiten zum Erstellen des Smart Contracts vergleichen. Wir entwickeln ein Kostenmodell und zeigen anhand unserer Implementierung, dass für die Verwaltung mehrerer Linked Pedigree-Instanzen ein einzelner größerer Smart Contract mehreren kleineren Smart Contracts für Lieferketten mit weniger als 50 Teilnehmern überlegen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-33220-4_28 aafee9b46cf397c2ff1251d8aeb33fe9;de;;;6.2.;;;Chancen und Herausforderungen einer registerbasierten Pharmakovigilanz bei Multipler Sklerose: Erkenntnisse aus der Implementierung des multizentrischen REGIMS-Registers Die langfristigen und potentiell seltenen Nebenwirkungen neuer immunmodulierender Medikamente zur Behandlung der Multiplen Sklerose (MS) sind oft nicht gut bekannt. Spontane Fallberichtsysteme zu unerwünschten Arzneimittelwirkungen sind eine wertvolle Quelle für die Pharmakovigilanz, weisen jedoch mehrere Einschränkungen auf. Primärdatensammlungen innerhalb von Registern ermöglichen eine umfassende Analyse möglicher Nebenwirkungen, stehen jedoch vor mehreren Herausforderungen. In diesem Beitrag werden Chancen und Herausforderungen einer registerbasierten Meldung von unerwünschten Ereignissen am Beispiel des deutschen Immuntherapeutikaregisters REGIMS skizziert. REGIMS ist ein multizentrisches Beobachtungsregister, das darauf abzielt, Inzidenz, Art und Folgen von Nebenwirkungen von MS-Immuntherapien zu beurteilen. Patienten, die mit einem zugelassenen MS-Medikament behandelt werden, werden von ihren Ärzten bei Routinebesuchen in Krankenhäusern, Ambulanzen und MS-Spezialpraxen rekrutiert. REGIMS umfasst eine elektronische arztbasierte Dokumentation in jedem Zentrum und eine papierbasierte Patientendokumentation sowohl bei der Erstuntersuchung als auch bei den regelmäßigen Nachuntersuchungen. Bis Ende 2019 rekrutierten 43 REGIMS-Zentren aktiv Patienten und führten Nachkontrollen durch. Die Mehrheit der ersten 1000 REGIMS-Patienten war weiblich (69,3%), hatte rezidivierende MS (89,8%) und wurde mit einer Zweitlinientherapie behandelt. Bei der Implementierung von REGIMS waren mehrere logistische und prozessuale Herausforderungen zu bewältigen, die in diesem Papier skizziert werden. Pharmakovigilanz-Register wie REGIMS liefern qualitativ hochwertige Primärdaten einer bestimmten Patientenpopulation in einem praxisnahen Versorgungsumfeld und ermöglichen Pharmakovigilanz-Forschung, die nicht mit Sekundärdaten durchgeführt werden kann. Trotz der logistischen und prozessualen Herausforderungen beim Aufbau eines multizentrischen Pharmakovigilanz-Registers in Deutschland überwiegen die Vorteile die Nachteile.;-;-;-;https://link.springer.com/article/10.1007/s40264-020-01007-1 db557cbf00cbcab3710ff0dc956fbb82;de;;;6.2.;;;DALI: Vitamin D und Lebensstilintervention zur Prävention von Schwangerschaftsdiabetes (GDM): eine europäische multizentrische, randomisierte Studie – Studienprotokoll trial Schwangerschaftsdiabetes mellitus (GDM) ist weltweit ein zunehmendes Problem. Lebensstilinterventionen und/oder Vitamin-D-Supplementierung können bei einigen Frauen helfen, GDM zu verhindern.;-;-;-;https://link.springer.com/article/10.1186/1471-2393-13-142 18599c7d0e2c1ea89754bf73d6d0f01a;de;;;6.2.;;;Risiko einer latenten Tuberkuloseinfektion bei Kindern, die in Haushalten mit Tuberkulosepatienten leben: eine Querschnittsstudie in der abgelegenen nördlichen Demokratischen Volksrepublik Laos Tuberkulose ist in Laos sehr verbreitet (289 pro 100.000). Wir untersuchten das Risiko einer latenten Tuberkuloseinfektion (LTBI) bei Kindern (0–15 Jahre), die mit Tuberkulosepatienten im ländlichen Norden von Laos leben.;-;-;-;https://link.springer.com/article/10.1186/1471-2334-9-96 fa6ed42ac784137595f489fbb79299c4;de;;;6.2.;;;HACCP-basierter Ansatz für das Qualitätsrisikomanagement bei Eutergesundheitsproblemen in Milchviehbetrieben Vor dem Hintergrund der vorherrschenden Eutergesundheitsprobleme in Milchviehbetrieben wird in diesem Beitrag ein neuer Ansatz zur Mastitisbekämpfung diskutiert. Aktuelle Programme zur Kontrolle der Eutergesundheit, wie der „Fünf-Punkte-Plan“, werden hervorgehoben und ihre Nachteile aufgezeigt. Das Konzept und die Prinzipien der kritischen Kontrollpunkte der Gefahrenanalyse (HACCP) werden eingeführt. Die acht Kernelemente dieses Konzepts werden am Beispiel einer Milchviehherde mit Mastitisproblem durch Staphylococcus aureus behandelt. Die verschiedenen Schritte bei der Entwicklung eines HACCP-basierten Qualitätsrisikomanagementprogramms werden durch die Anwendung von Kernelementen veranschaulicht. Schließlich wird gezeigt, dass die HACCP-Schlüsselwörter Struktur, Organisation, Planung, Kommunikation und Formalisierung, die in konventionellen Herdengesundheits- und Produktionsmanagementprogrammen nicht häufig vorkommen, zu einer besseren Eutergesundheit beitragen können. Die Rolle des Tierarztes kann von größter Bedeutung und von Mehrwert sein, wenn er/sie bereit ist, in neue Kenntnisse und Fähigkeiten zu investieren, wie zum Beispiel das HACCP-Konzept, Betriebswirtschaft, Tierernährung und insbesondere die Rolle des Trainers des Milchviehhalters in die Umsetzung präventiver Maßnahmen in Bezug auf die Eutergesundheit.;-;-;-;https://link.springer.com/article/10.1186/2046-0481-62-S4-S21 5ec827ad310afead1e18efc9d50acff4;de;;;6.2.;;;Entwicklung von Anti-Immunkomplex-spezifischen Antikörpern und nicht-kompetitivem zeitaufgelösten Fluoreszenz-Immunoassay zum Nachweis von Estradiol Der Nachweis von zirkulierendem Estradiol findet in verschiedenen klinischen Anwendungen weit verbreitete Anwendung. Insbesondere die Verwendung von Östradiol-spezifischen Antikörpern in Immunoassays wird routinemäßig verwendet, hauptsächlich aufgrund der Kosteneffizienz und Einfachheit des Probenhandhabungsprozesses. Die Östradiolspiegel im Kreislauf können jedoch unter bestimmten Bedingungen extrem niedrig sein und über der aktuellen Nachweisgrenze bestehender kompetitiver Immunoassays liegen. Wir beschreiben die Erzeugung von Anti-Immunkomplex-spezifischen Antikörpern aus dem synthetischen Antikörperrepertoire und die Entwicklung eines leistungsstarken nicht-kompetitiven Immunoassays zum Nachweis von Östradiol. Phagen-Display-Selektionen wurden verwendet, um neue Antikörper aus einer synthetischen Antikörperbibliothek unter Verwendung eines bestehenden Östradiol-spezifischen Fab-Fragments zu isolieren. Die gefundenen Antikörper wurden nacheinander verwendet, um einen zeitaufgelösten fluoreszenzbasierten Immunoassay (TRFIA) aufzubauen, mit dem Estradiol mit außergewöhnlicher Sensitivität und Spezifität nachgewiesen werden kann. Die Nachweisgrenze und EC50 betrugen 3,0 pg ml;-;-;-;https://link.springer.com/article/10.1007/s00216-019-01952-6 f0b42e845f035d81e563767452d62f0b;de;;;6.2.;;;Erkundung von Pflanzengenomen in der FLAGdb Im Kontext der Genomik, Postgenomik und Systembiologie ist die Datenintegration ein wichtiges Anliegen. Datenbanken bieten entscheidende Lösungen: Sie speichern, organisieren und ermöglichen die Abfrage von Informationen, sie erhöhen die Sichtbarkeit neu produzierter Daten durch den Vergleich mit bereits veröffentlichten Ergebnissen und erleichtern die Untersuchung und Entwicklung sowohl bestehender Hypothesen als auch neuer Ideen.;-;-;-;https://link.springer.com/article/10.1186/1746-4811-7-8 00366701aa116f93f1c76a98951bfcd7;de;;;6.2.;;;Hausarzt verschreibt Einzel- und Kombinations-Nikotinersatztherapie im Vereinigten Königreich: eine retrospektive Datenbankstudie Leitlinien in England und Wales empfehlen, dass zur Unterstützung der Raucherentwöhnung Nikotinersatztherapien (NRTs), Vareniclin oder Bupropion angeboten werden. In der veröffentlichten Literatur fehlt es an Untersuchungen zu den Verschreibungsmustern der NRT durch Hausärzte zur Raucherentwöhnung.;-;-;-;https://link.springer.com/article/10.1186/1471-2296-15-47 9148aeb92c7e4035c7a406600e013be7;de;;;6.2.;;;Klinische Ähnlichkeiten zwischen Bradykinin-vermittelten und Mastzell-vermittelten Subtypen des nicht-hereditären Angioödems: eine retrospektive Studie Das nicht-hereditäre Angioödem (Non-HAE) ist durch eine lokale Schwellung aufgrund einer selbstlimitierenden, subkutanen oder submukosalen Flüssigkeitsextravasation gekennzeichnet und kann in drei Subtypen unterteilt werden. Diese Subtypen haben vermutlich unterschiedliche pathophysiologische Hintergründe und werden in neueren Leitlinien als Bradykinin-vermittelt (z. B. verursacht durch Angiotensin-Converting-Enzym-Inhibitoren), Mastzell-vermittelt (z. B. Angioödem mit Quaddeln) oder idiopathisch (Ursache unbekannt) bezeichnet. Bradykinin-vermittelte Subtypen sind enger mit dem hereditären Angioödem verwandt als die anderen Formen. Da die klinischen Merkmale dieser Nicht-HAE-Subtypen nicht im Detail untersucht wurden, haben wir die klinischen Merkmale der Symptome und potenzielle Unterschiede in der klinischen Präsentation der Bradykinin-vermittelten und Mastzell-vermittelten Angioödem-(AE)-Subtypen untersucht.;-;-;-;https://link.springer.com/article/10.1186/s13601-015-0049-8 8f4a2f72e4e089375d613c1d4539b8cd;de;;;6.2.;;;Eine landesweite Studie zur Langzeitprävalenz von Demenz und ihren Risikofaktoren in der schwedischen Intensivpflegekohorte Die Entwicklung einer Demenz wird von vielen wegen ihrer nachteiligen Auswirkungen auf Kognition und Unabhängigkeit gefürchtet. Experimentelle und klinische Hinweise deuten darauf hin, dass Sepsis ein Risikofaktor für die spätere Entwicklung einer Demenz ist. Wir wollten untersuchen, ob eine intensivmedizinisch behandelte Sepsis ein unabhängiger Risikofaktor für eine spätere Demenzdiagnose in einer großen Kohorte von Intensivpatienten (ICU) ist.;-;-;-;https://link.springer.com/article/10.1186/s13054-020-03203-y b6460c7e6e6c58e8a677c2f3b45f4d28;de;;;6.2.;;;Je schneller desto besser? Zeit bis zum ersten CT-Scan nach Aufnahme bei mittelschwerem bis schwerem Schädel-Hirn-Trauma und deren Zusammenhang mit der Sterblichkeit Eine schnelle Aufnahme einer ersten Computertomographie (CT) nach Schädel-Hirn-Trauma (SHT) wird empfohlen. Diese Studie zielt darauf ab, zu untersuchen, ob die Länge des Zeitraums vor der ersten CT-Untersuchung die Mortalität bei Patienten mit führendem SHT beeinflusst. Es wurde eine retrospektive Kohortenanalyse der im TraumaRegister DGU® registrierten Patienten einschließlich erwachsener Patienten mit SHT durchgeführt, definiert als Abbreviated Injury Scale;-;-;-;https://link.springer.com/article/10.1007/s10143-020-01456-3 aec91f7ebe51e480b6917a482e3f7bf2;de;;;6.2.;;;Einfluss einer Reinigung der Nabelschnur mit 4,0 % Chlorhexidin auf Mortalität und Omphalitis bei Neugeborenen in Sylhet, Bangladesch: Design einer gemeindebasierten, randomisierten Clusterstudie Die Weltgesundheitsorganisation empfiehlt Trockenschnurpflege für Neugeborene, aber diese Empfehlung ist möglicherweise nicht optimal in Umgebungen mit geringen Ressourcen, in denen die meisten Geburten in einer unreinen Umgebung stattfinden und Infektionen bis zu der Hälfte der Todesfälle bei Neugeborenen ausmachen. Eine frühere Studie in Nepal zeigte, dass die Nabelschnurreinigung mit 4,0% Chlorhexidin die Sterblichkeit und das Omphalitis-Risiko erheblich reduzieren könnte, aber Richtlinienänderungen warten auf zusätzliche gemeindebasierte Daten.;-;-;-;https://link.springer.com/article/10.1186/1471-2431-9-67 827fcb4694576f05ea315c4760add5c1;de;;;6.2.;;;Verlustfreie Übertragung visueller Informationen von der Netzhaut zum primären visuellen Kortex im menschlichen Gehirn Kürzlich haben die Experimente an photosynthetischen Systemen mittels „Femtosekunden-Laserspektroskopie“-Methoden gezeigt, dass eine „Quantenkohärenz“ im System einen hocheffizienten Energietransfer zum „Reaktionszentrum“ bewirkt (Wirkungsgrad ist ungefähr gleich 100%). . Ein kürzlich durchgeführtes Experiment an einem einzelnen Neuron hat gezeigt, dass es Licht leiten kann. Außerdem wurde eine Reemission von Licht sowohl von photosynthetischen Systemen als auch von einzelnen Neuronen beobachtet, die als „verzögerte Lumineszenz“ bezeichnet wird. Dies kann als Möglichkeit zur verlustfreien Übertragung visueller Informationen an das menschliche Gehirn angenommen werden. Darüber hinaus kann eine weitreichende Fröhlich-Kohärenz in Mikrotubuli ein Kandidat für eine effiziente Lichtübertragung durch „verrauschte“ und komplexe Strukturen des menschlichen Gehirns sein. Aus informationeller Sicht ist es eine berechtigte Frage zu fragen, wie das menschliche Gehirn subtile externe Quanteninformationen von Photonen intakt empfangen kann, wenn sich Photonen in einer Quantenüberlagerung befinden und sehr verrauschte und komplexe Wege vom Auge zum Gehirn durchlaufen. Hier schlagen wir ein kohärentes Modell vor, in dem Quantenzustände von Photonen im menschlichen Gehirn wieder aufgebaut werden können.;-;-;-;https://link.springer.com/article/10.1007/BF03379582 2007f791ff5578f786d9bf602cdb4c2d;de;;;6.2.;;;Simultane integrierte Boost-Konzepte in der definitiven Strahlentherapie bei Speiseröhrenkrebs: Ergebnisse und Toxizität Strahlentherapie und Radiochemotherapie spielen eine wichtige Rolle bei der endgültigen Behandlung von Speiseröhrenkrebs. Das Überleben bei Patienten mit Speiseröhrenkrebs ist immer noch relativ gering, vor allem aufgrund der hohen Lokalrezidivraten und Fernmetastasen. Es wird vermutet, dass eine Dosiseskalation bei der Strahlentherapie die Ergebnisse verbessern könnte. Ziel dieser retrospektiven Analyse war es daher, die Ergebnisse und Toxizität bei Patienten zu untersuchen, die mit lokaler Dosiseskalation durch gleichzeitige integrierte Boost-Konzepte behandelt wurden.;-;-;-;https://link.springer.com/article/10.1186/s13014-021-01749-x aa5e77e3f5298da9c55d85686541e40c;de;;;6.2.;;;Eine retrospektive Analyse von pegyliertem liposomalem Doxorubicin bei Eierstockkrebs: Brauchen wir es noch? Eierstockkrebs (OC) ist die sechsthäufigste Krebserkrankung bei Frauen. Derzeit ist Carboplatin/Paclitaxel ± Bevacizumab der Eckpfeiler der Erstlinientherapie. Umgekehrt sind die therapeutischen Optionen bei rezidivierenden oder progredienten Erkrankungen nicht klar definiert. Für platinsensitive Patienten ist der beste Therapieansatz nach wie vor eine erneute Herausforderung mit einem platinbasierten Regime. Pegyliertes liposomales Doxorubicin (PLD) gilt als eine der aktivsten Therapieoptionen für rezidivierende oder progressive OC. In dieser retrospektiven monoinstitutionellen Analyse haben wir die Auswirkungen der PLD auf das Outcome von OC-Patienten untersucht.;-;-;-;https://link.springer.com/article/10.1186/1757-2215-6-10 6fd0ae953c2ad2ab2c7232ffe2227363;de;;;6.2.;;;MINER: explorative Analyse von Geninteraktionsnetzwerken durch maschinelles Lernen aus Expressionsdaten Die Rekonstruktion von Genregulationsnetzwerken aus Hochdurchsatz-Omics-Daten ist zu einem wichtigen Ziel bei der Modellierung lebender Systeme geworden. Es wurden zahlreiche Ansätze vorgeschlagen, von denen die meisten nur eine einmalige Rekonstruktion des gesamten Netzwerks ohne Eingriff des Benutzers versuchen oder nur eine einfache Korrelationsanalyse bieten, um auf Genabhängigkeiten zu schließen.;-;-;-;https://link.springer.com/article/10.1186/1471-2164-10-S3-S17 cf4001b89a0488b4419dd0cae2756857;de;;;6.2.;;;CAG-kodierter Polyglutaminlängenpolymorphismus im menschlichen Genom Die Expansion von Polyglutamin-kodierenden CAG-Trinukleotid-Wiederholungen wurde als pathogene Mutation in neun verschiedenen Genen identifiziert, die mit neurodegenerativen Erkrankungen assoziiert sind. Die Mehrheit der Patienten, bei denen eine spinozerebelläre Ataxie klinisch diagnostiziert wurde, weist keine Mutationen in bekannten Krankheitsgenen auf, und es ist wahrscheinlich, dass weitere Ataxien oder Huntington-ähnliche Störungen durch diesen gemeinsamen Mutationsmechanismus verursacht werden. Wir haben uns vorgenommen, die Längenverteilungen der CAG-Polyglutamin-Trakte für das gesamte menschliche Genom in einer Gruppe von gesunden Individuen zu bestimmen, um die Natur der Polyglutamin-Wiederholungslängenvariation über das menschliche Genom zu charakterisieren, um den Hintergrund zu ermitteln, vor dem pathogene Wiederholungserweiterungen nachgewiesen werden, und Kandidatengene für Wiederholungsexpansionsstörungen zu priorisieren.;-;-;-;https://link.springer.com/article/10.1186/1471-2164-8-126 640ccef3dc69c8c4331a8f74ce850a7d;de;;;6.2.;;;HELP@APP: Entwicklung und Evaluation einer Selbsthilfe-App für traumatisierte syrische Flüchtlinge in Deutschland – ein Studienprotokoll einer randomisierten kontrollierten Studie Syrer stellen die größte Gruppe unter den Flüchtlingen in Deutschland. Viele von ihnen waren sequenziellen traumatisierenden Ereignissen wie Krieg, Flucht und Postmigrationsstressoren ausgesetzt, die das Risiko, Symptome von posttraumatischem Stress und anderen psychischen Störungen zu entwickeln, signifikant erhöhen. Allerdings fehlt es in Deutschland an adäquaten Behandlungsmöglichkeiten für traumatisierte Flüchtlinge. Zudem ist ihr Zugang zu psychosozialer Betreuung aufgrund gesetzlicher Regelungen, Sprachbarrieren und unklarer Kostenübernahme oft eingeschränkt. Unser Ziel ist es daher, eine niedrigschwellige unterstützende Selbsthilfe-App für syrische Flüchtlinge mit posttraumatischen Stresssymptomen zu entwickeln. Durch die Durchführung einer randomisierten kontrollierten Studie wollen wir außerdem die Wirksamkeit, Benutzerfreundlichkeit, Akzeptanz und den wirtschaftlichen Nutzen/Kosteneffizienz der Apps evaluieren.;-;-;-;https://link.springer.com/article/10.1186/s12888-019-2110-y 8c610afdf356e38604bba8913ad79569;de;;;6.2.;;;Identifizierung von FISH-Biomarkern zum Nachweis von Chromosomenanomalien im Zusammenhang mit Prostata-Adenokarzinom in Tumor- und Feldeffektumgebung Um Probenentnahmefehler im Zusammenhang mit der Krebserkennung bei Prostatanadelbiopsien zu reduzieren, haben wir die Möglichkeit der Verwendung von Fluoreszenz-in-situ-Hybridisierung (FISH) untersucht, um chromosomale Anomalien im histologisch benignen Prostatagewebe von Patienten mit Adenokarzinom der Prostata zu erkennen.;-;-;-;https://link.springer.com/article/10.1186/1471-2407-14-129 8bfc7054b757ae029b972ebc4c072150;de;;;6.2.;;;Eine Studie zur intermittierenden präventiven Behandlung und häuslichen Behandlung von Malaria in einem ländlichen Gebiet von Gambia Individuelle Malariainterventionen bieten in den meisten epidemiologischen Situationen nur einen teilweisen Schutz. Daher muss untersucht werden, ob die Kombination von Interventionen einen zusätzlichen Nutzen bei der Verringerung der Mortalität und Morbidität durch Malaria bietet. Der potenzielle Nutzen einer Kombination von IPT bei Kindern (IPTc) mit der häuslichen Malariabehandlung (HMM) wurde untersucht.;-;-;-;https://link.springer.com/article/10.1186/1475-2875-10-2 b7b0c6ad48a2358e4bfdd0092a8fd2e4;de;;;6.2.;;;Trends und Determinanten der Sterblichkeit bei Frauen im gebärfähigen Alter im ländlichen Guinea-Bissau, Westafrika – eine Kohortenstudie Es gibt nur wenige Studien, die über die Sterblichkeit von Frauen im gebärfähigen Alter (WRA) in Entwicklungsländern berichten. Der Trend und die Muster ihrer Sterblichkeit können für die Dokumentation des Gesundheitszustands der Bevölkerung im Allgemeinen wichtig sein.;-;-;-;https://link.springer.com/article/10.1186/1472-6874-13-48 51c2cb1e229c701890afd8caab050cce;de;;;6.2.;;;Die kontrastreiche dreidimensionale Bildgebung des Arabidopsis-Blattes ermöglicht die Analyse der Zelldimensionen in Epidermis und Mesophyll Trotz der weit verbreiteten Anwendung der konfokalen und Multiphotonen-Laser-Scanning-Mikroskopie in der Pflanzenbiologie beruht die Blatt-Phänotyp-Bewertung immer noch auf zweidimensionaler Bildgebung mit einer begrenzten Einschätzung des strukturellen Kontexts der Zellen und einer inhärenten Ungenauigkeit der Zellmessungen. Hier wird ein erfolgreiches Verfahren zur dreidimensionalen Abbildung und Analyse von Pflanzenblättern vorgestellt.;-;-;-;https://link.springer.com/article/10.1186/1746-4811-6-17 69f7d09d3c3ee84c61a2c32d5a4e7d39;de;;;6.2.;;;Children’s Healthy Living (CHL)-Programm für abgelegene unterversorgte Minderheiten in der Pazifikregion: Begründung und Design einer randomisierten Community-Studie zur Prävention von frühkindlicher Fettleibigkeit Obwohl die Überwachungsdaten im US-amerikanischen Pazifik, Alaska und Hawaii begrenzt sind, deuten vorhandene Daten darauf hin, dass die Prävalenz von Fettleibigkeit bei Kindern ähnlich wie bei anderen Minderheitengruppen in den angrenzenden USA ist oder diese übersteigt. Strategien zur Bekämpfung der Adipositas-Epidemie bei Kindern in der Region unterstützen den Einsatz von gemeindebasierten, umweltorientierten Interventionen. Das Children’s Healthy Living Program ist eine Partnerschaft zwischen Institutionen im US-amerikanischen Pazifik, Alaska und Hawaii, um eine gemeindenahe randomisierte Umweltinterventionsstudie und eine Prävalenzstudie zu entwickeln, um Fettleibigkeit bei Kindern in der Region durch Auswirkungen auf die Umgebung von Nahrungsmitteln und körperlicher Aktivität zu bekämpfen.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-13-944 a3f322d993e17fa5390ab8864de56bb7;de;;;6.2.;;;Kein schädlicher Einfluss einer positiven Familienanamnese auf das postoperative Upgrade und Upstaging bei Männern mit Prostatakrebs mit niedrigem und günstigem mittlerem Risiko: Implikationen für die aktive Überwachung Um zu beurteilen, ob eine Familienanamnese ersten Grades oder eine tödliche Familienanamnese von Prostatakrebs (PCa) mit einem postoperativen Upgrade und Upstaging bei Männern mit niedrigem Risiko und günstigem Intermediärrisiko (FIR) PCa verbunden ist, und um Leitlinien für die klinische Entscheidungsfindung bereitzustellen für aktive Überwachung (AS) bei dieser Patientenpopulation.;-;-;-;https://link.springer.com/article/10.1007/s00345-020-03485-5 bf22305d782e1007425c4d0181cfbc3b;de;;;6.2.;;;Eine Folgestudie zur Infektion mit Opisthorchis viverrini nach der Umsetzung eines Kontrollprogramms in einer ländlichen Gemeinde in Zentralthailand Die Infektion mit Opisthorchis viverrini ist immer noch eines der Probleme der öffentlichen Gesundheit in Thailand. Unsere aktuelle Kohortenstudie, die in einer ländlichen Gemeinde in Zentralthailand durchgeführt wurde, zeigte, dass die Inzidenzrate der O. viverrini-Infektion in den Jahren 2002–2004 21,6/100 Personenjahre betrug. Es wurden konventionelle Kontrollaktivitäten wie Falldiagnose und -behandlung, hygienische Defäkationsförderung und Gesundheitserziehung mit Schwerpunkt auf der Vermeidung des Verzehrs von rohem Fisch durchgeführt. Ziel dieser Studie war es, den Infektionsstatus nach Durchführung von Interventionsprogrammen in den Jahren 2007–2009 mit quantitativen und qualitativen Methoden neu zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/1756-3305-6-188 6a7b36edd53798ef43447e1a49a7339d;de;;;6.2.;;;Wege für die Zukunftsforschung In diesem Kapitel skizzieren wir Wege für die zukünftige Forschung. Wir bieten einen kurzen Überblick über die Forschung zur Abstimmung von Nachhaltigkeitsleistung und finanzieller Leistung bei der Gestaltung und Innovation von Geschäftsmodellen. Danach skizzieren wir allgemeine Forschungsrichtungen in diesem Bereich, bevor wir eine konkrete Forschungsagenda für die sieben Komponenten des RESTART-Rahmens und die Geschäftsmodellmerkmale, auf die sie sich beziehen, skizzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-91971-3_15 4b1b338ba60c8b2f84710df189cda0aa;de;;;6.2.;;;Die Rolle sozioökonomischer Faktoren beim Absetzen von Insulin während der Schwangerschaft – methodische Herausforderungen einer schwedischen Registerstudie Die kontinuierliche Einnahme von Antidiabetika, insbesondere Insulin, ist für das Diabetesmanagement von entscheidender Bedeutung. In der Schwangerschaft ist die Medikamenteneinnahme im Allgemeinen gering und kann auch mit einem niedrigeren sozioökonomischen Status verbunden sein. Über das Absetzen von Insulin bei Schwangeren und die mögliche Rolle sozioökonomischer Faktoren ist jedoch wenig bekannt. Daher zielt diese Studie darauf ab, den Zusammenhang zwischen sozioökonomischen Faktoren und dem Absetzen von Insulin während der Schwangerschaft bei Frauen zu messen, die vor Beginn der Schwangerschaft in Schweden Insulin einnahmen.;-;-;-;https://link.springer.com/article/10.1007/s10389-020-01307-x 9d41643c179b1a899590b86355f7409a;de;;;6.2.;;;Resorbierbare Schrauben versus Pins für eine optimale Transplantatfixation (SPOT) beim Ersatz des vorderen Kreuzbandes mit autologen Hamstring-Transplantaten: Begründung und Design einer randomisierten, kontrollierten, Patienten- und Prüfer-blinden Studie Rupturen des vorderen Kreuzbandes (VKB) sind häufige Verletzungen des Kniegelenks. Der arthroskopische VKB-Ersatz durch autologe Sehnentransplantate hat sich als Behandlungsstandard etabliert.;-;-;-;https://link.springer.com/article/10.1186/1471-2482-5-1 c9a950787b60d4ee857b83bca9551af9;de;;;6.2.;;;Prognostische Leistung des Rapid Emergency Medicine Score (REMS) und des Worthing Physiological Scoring Systems (WPS) in der Notaufnahme Der Rapid Emergency Medicine Score (REMS) und das Worthing Physiological Scoring System (WPS) wurden zur Vorhersage der Krankenhaussterblichkeit bei Patienten in nicht-chirurgischen Notaufnahmen (ED) entwickelt. Die prognostische Leistung der Scoring-Systeme in unabhängigen Populationen war nicht klar. Ziel der Studie ist es, die prognostische Genauigkeit von REMS- und WPS-Systemen bei der Schätzung des 30-Tage-Mortalitätsrisikos bei medizinischen Patienten in ED zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s12245-015-0066-3 8f228e006313928fd2049f92e7d417bf;de;;;6.2.;;;Soybean Knowledge Base (SoyKB): eine Webressource für translationale Genomik von Sojabohnen Die Soybean Knowledge Base (SoyKB) ist eine umfassende All-Inclusive-Webressource für translationale Genomik von Sojabohnen. SoyKB wurde entwickelt, um das Management und die Integration von Sojabohnen-Genomik, Transkriptomik, Proteomik und Metabolomik-Daten zusammen mit der Annotation der Genfunktion und des biologischen Signalwegs zu handhaben. Es enthält Informationen zu vier Entitäten, nämlich Genen, microRNAs, Metaboliten und Single-Nukleotid-Polymorphismen (SNPs).;-;-;-;https://link.springer.com/article/10.1186/1471-2164-13-S1-S15 c7dc5928336c1a911d0cbaae1dc8d9aa;de;;;6.2.;;;Stammzelltransplantation zur Eradikation von minimalem PAnkreaskarzinom, das nach chirurgischer Exzision persistiert (STEM PACE Trial, ISRCTN47877138): Studienprotokoll für eine Phase-II-Studie Bauchspeicheldrüsenkrebs ist die dritthäufigste krebsbedingte Todesursache. Selbst bei den 15 % der Patienten, die für eine chirurgische Resektion in Frage kommen, sind die Aussichten düster, da weniger als 10 % der Patienten nach 5 Jahren überleben. Die allogene hämatopoetische (Allo-HSCT) Stammzelltransplantation ist eine etablierte Behandlung, die in der Lage ist, eine Vielzahl von hämatopoetischen malignen Erkrankungen zu heilen. Die besten Ergebnisse werden erzielt, wenn das zugrunde liegende Neoplasma durch Chemotherapie in ein Stadium minimaler Erkrankung umgewandelt wurde. Allo-HSCT bei fortgeschrittenen soliden Tumoren, einschließlich Bauchspeicheldrüsenkrebs, waren von begrenztem Erfolg, jedoch wurden nie Studien zu Allo-HSCT bei soliden Tumoren in Situationen mit minimaler Erkrankung durchgeführt. Ziel dieser Studie ist es, den klinischen Wert der allo-HSCT bei Bauchspeicheldrüsenkrebs zu belegen, der durch effektive chirurgische Resektion und adjuvante Standardchemotherapie in einen minimalen Krankheitsstatus versetzt wird.;-;-;-;https://link.springer.com/article/10.1186/1471-2407-14-168 624521710bcc474c3c1868925de24448;de;;;6.2.;;;Immunscreening des extrazellulären Proteoms von Darmkrebszellen Die Freisetzung von Proteinen aus Tumoren kann bei Krebspatienten eine Immunantwort auslösen, an der T-Lymphozyten und B-Lymphozyten beteiligt sind, die zur Bildung von Antikörpern gegen Tumor-abgeleitete Proteine ​​führt. Viele Studien zielen darauf ab, humorale Immunantworten, nämlich Autoantikörperprofile, direkt als klinische Biomarker zu verwenden. Alternativ kann die Antikörper-Immunantwort als Amplifikationssystem für tumorassoziierte Veränderungen verwendet werden, um mutmaßliche Proteinbiomarker mit hoher Sensitivität anzuzeigen. Mit dem Ziel letzterem Ansatz haben wir hier eine Autoantikörper-Profiling-Strategie implementiert, die sich insbesondere auf Proteine ​​konzentriert, die von Tumorzellen in vitro freigesetzt werden: das sogenannte Sekretom.;-;-;-;https://link.springer.com/article/10.1186/1471-2407-10-70 d0d6a1a076d66bffec49df35b4c38e77;de;;;6.2.;;;Die Auswirkungen des Timings von Feinnadelaspirationsbiopsien auf Genexpressionsprofile bei Brustkrebs Die DNA-Mikroarray-Analyse hat großes Potenzial, ein wichtiges klinisches Instrument zur Individualisierung der Prognose und Behandlung von Brustkrebspatientinnen zu werden. Bei jeder aufkommenden Technologie müssen jedoch viele Variablen berücksichtigt werden, bevor die Technologie ans Krankenbett gebracht wird. Es gibt bereits konzertierte Bemühungen, Protokolle zu standardisieren und die Reproduzierbarkeit von DNA-Mikroarrays zu verbessern. Unsere Studie untersucht eine häufig übersehene Variable, den Zeitpunkt der Gewebeakquisition, der einen signifikanten Einfluss auf die Ergebnisse von DNA-Microarray-Analysen haben kann, insbesondere in Studien, die Microarray-Daten basierend auf entnommenen Bioproben vergleichen;-;-;-;https://link.springer.com/article/10.1186/1471-2407-8-277 fbfd5966e16760d39c1ca971389a0bdc;de;;;6.2.;;;Hämophagozytische Lymphohistiozytose bei kritisch kranken Patienten: diagnostische Zuverlässigkeit der HLH-2004-Kriterien und des HScore Die hämophagozytische Lymphohistiozytose (HLH) ist ein seltenes, aber oft tödliches hyperinflammatorisches Syndrom, das eine Sepsis bei kritisch Kranken nachahmt. Die Diagnose stützt sich auf die HLH-2004-Kriterien und den HScore, die beide bei pädiatrischen bzw. erwachsenen nicht kritisch kranken Patienten entwickelt wurden. Daher wollten wir die Sensitivität und Spezifität der HLH-2004-Kriterien und des HScores in einer Kohorte von erwachsenen kritisch kranken Patienten bestimmen.;-;-;-;https://link.springer.com/article/10.1186/s13054-020-02941-3 63c2e594e9aff587b85b93743e0a0d63;de;;;6.2.;;;Überwachung von Darmkrankheiten im Rahmen des AFHSC-GEIS: Aktuelle Bemühungen, Landschaftsanalyse und Zukunftsvision Die Mission des Armed Forces Health Surveillance Center, Division of Global Emerging Infections Surveillance and Response System (AFHSC-GEIS) besteht darin, die globale öffentliche Gesundheit zu unterstützen und Bedrohungen durch Infektionskrankheiten für die Streitkräfte der Vereinigten Staaten zu bekämpfen, einschließlich neu identifizierter oder zunehmender Erreger agents im Vorfall. Darmerkrankungen stellen eine wachsende Bedrohung für die US-Streitkräfte dar, die bereit sein müssen, in kargen Umgebungen eingesetzt zu werden, in denen das Risiko einer Exposition gegenüber Enteropathogenen erheblich sein kann und in denen routinemäßige Präventionsbemühungen nicht praktikabel sind. In diesem Bericht überprüfen die Autoren die jüngsten Aktivitäten der AFHSC-GEIS-Partnerlabore in Bezug auf die Überwachung, Prävention und Reaktion auf Darmerkrankungen. Jeder Partner identifizierte die jüngsten Errungenschaften, einschließlich der Unterstützung regionaler Netzwerke. AFHSC/GEIS-Partner führten außerdem eine SWOT-Umfrage (Stärken, Schwächen, Chancen und Bedrohungen) als Teil einer Landschaftsanalyse der globalen Bemühungen zur Darmüberwachung durch. Zu den aktuellen Stärken dieses Netzwerks zählen eine exzellente Laborinfrastruktur, Ausstattung und Personal, die die Möglichkeit für hochwertige epidemiologische Studien und Testplattformen für die Point-of-Care-Diagnostik bieten. Zu den Schwächen zählen inkonsistente Leitlinien und ein zersplittertes Berichtswesen, das den Vergleich von Daten über Regionen oder Längsschnitte hinweg erschwert. Der neu gegründete Lenkungsausschuss für Enterika-Surveillance (ESSC) soll eine klare Missionsleitung, einen strukturierten Projektüberprüfungsprozess sowie eine zentrale Datenverwaltung und -analyse bieten, um rational ausgerichtete Bemühungen zur Überwachung von Darmerkrankungen zu unterstützen.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-11-S2-S7 926670ced7708829c5a7fb8ed1868cd8;de;;;6.2.;;;Prädiktoren für den Einsatz von Moskitonetzen in Ghana In den letzten zehn Jahren ist es der Malariabekämpfungsgemeinschaft gelungen, die Zahl der Haushalte, die Moskitonetze besitzen, dramatisch zu erhöhen. Allerdings bleibt bis zur Hälfte der bereits in Haushalten befindlichen Netze ungenutzt. Diese Studie untersucht die Faktoren, die mit der Nutzung von Netzen in Ghana verbunden sind.;-;-;-;https://link.springer.com/article/10.1186/1475-2875-10-265 c0e8beffb70cfe854020583e9dd49c0a;de;;;6.2.;;;Eine randomisierte zweiarmige Phase-III-Studie bei Patienten nach radikaler Resektion von Lebermetastasen bei Darmkrebs zur Untersuchung von Bevacizumab in Kombination mit Capecitabin plus Oxaliplatin (CAPOX) vs Etwa 50 % der Patienten mit Dickdarmkrebs entwickeln Lebermetastasen. Die radikale Resektion ist die effektivste Behandlung für Patienten mit kolorektalen Lebermetastasen und bietet 5-Jahres-Überlebensraten zwischen 36-60%. Leider sind zum Zeitpunkt der Präsentation nur 20 % der Patienten resezierbar. Die Radiofrequenzablation ist eine alternative Behandlungsoption für nicht resezierbare kolorektale Lebermetastasen mit berichteten 5-Jahres-Überlebensraten von 18-30%. Die meisten Patienten entwickeln nach der Operation lokale oder Fernrezidive, möglicherweise aufgrund des Auswachsens von Mikrometastasen, die zum Zeitpunkt der Leberoperation vorhanden waren. Diese Studie zielt darauf ab, ein verbessertes krankheitsfreies Überleben für Patienten nach Resektion oder Resektion in Kombination mit RFA von kolorektalen Lebermetastasen zu erreichen, indem der Angiogenese-Inhibitor Bevacizumab zu einer adjuvanten Therapie mit CAPOX hinzugefügt wird.;-;-;-;https://link.springer.com/article/10.1186/1471-2407-10-545 176afb74529edbeeff96101a77371d47;de;;;6.2.;;;Interkulturelle Validität eines Ernährungsfragebogens für Studien zum Kariesrisiko in Japan Die Ernährung ist ein wichtiger modifizierbarer Faktor bei der Ätiologie von Karies. Der Zweck dieser Arbeit besteht darin, die Zuverlässigkeit und interkulturelle Validität der japanischen Version des Food Frequency Questionnaire zu untersuchen, um die Nahrungsaufnahme in Bezug auf das Kariesrisiko auf Japanisch zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/1472-6831-14-1 d3370300cf5c4369fa0a9d2e16c6b6de;de;;;6.2.;;;Alter der Eltern und Geburtsfehler: eine Geschwisterstudie Ein höheres Alter der Eltern bei der Geburt hat als potenzieller Risikofaktor für Geburtsstörungen viel Aufmerksamkeit erregt, jedoch sind die bisherigen Forschungsergebnisse gemischt. Vorhandene Studien haben die Unterschiede im Elternalter zwischen den Familien ausgenutzt, was problematisch ist, da sich Familien nicht nur im Elternalter, sondern auch in genetischen und umweltbedingten Faktoren unterscheiden. Um die Auswirkungen des elterlichen Alters zu isolieren, indem viele genetische und umweltbedingte Faktoren konstant gehalten werden, nutzen wir die Unterschiede im elterlichen Alter innerhalb der Familien und vergleichen die Ergebnisse für Vollgeschwister. Die Studiendaten wurden dem Medical Birth Registry of Norway entnommen, das die gesamte Bevölkerung der Geburten in Norwegen über einen längeren Zeitraum erfasst (insgesamt 1,2 Millionen Geburten). Unter Verwendung der Variation des Alters der Eltern bei der Geburt von Geschwistern finden wir große und konvexe Auswirkungen eines höheren Alters der Eltern auf das erhöhte Risiko von Geburtsstörungen. Um den Vergleich mit der vorhandenen Literatur zu erleichtern, schätzen wir auch die Auswirkungen des Elternalters anhand der Variation des Elternalters zwischen den Familien und stellen fest, dass die Auswirkungen wesentlich schwächer sind. Wir kommen zu dem Schluss, dass die vorhandene Literatur die negativen Auswirkungen des Alterns der Eltern auf nachteilige Ergebnisse der Nachkommen möglicherweise unterschätzt hat.;-;-;-;https://link.springer.com/article/10.1007/s10654-021-00734-8 f387aa560d13222b6e0547929e555f03;de;;;6.2.;;;Methodische Aspekte eines GIS-basierten Umweltgesundheitsinspektionsprogramms, das bei den Olympischen und Paraolympischen Spielen 2004 in Athen verwendet wurde Der Einsatz von Technologien für geografische Informationssysteme (GIS) bei der Überwachung der öffentlichen Gesundheit gewinnt weltweit allmählich an Bedeutung, und in der Literatur wurden bereits viele Anwendungen beschrieben. In dieser Studie wurde die GIS-Technologie verwendet, um die öffentlichen Gesundheitsbehörden des Landkreises bei der Umsetzung der umweltbezogenen Gesundheitsüberwachung für die Olympischen und Paraolympischen Spiele 2004 in Athen zu unterstützen.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-5-93 d39f20229e8fc98dc234246254a36b81;de;;;6.2.;;;Granulat der chinesischen Kräutermedizin (PTQX) für Kinder mit mittelschwerem bis schwerem atopischem Ekzem: Studienprotokoll für eine randomisierte kontrollierte Studie Das atopische Ekzem oder atopische Dermatitis ist eine chronisch-entzündliche Hauterkrankung. Die gegenwärtige konventionelle medizinische Behandlung für mittelschwere und schwere atopische Ekzeme ist nicht zufriedenstellend. Es gibt vielversprechende Beweise aus randomisierten klinischen Studien, die den klinischen Einsatz der chinesischen Kräutermedizin bei der Behandlung von Neurodermitis unterstützen. Die verfügbare Evidenz wird jedoch durch das hohe Verzerrungspotenzial der meisten eingeschlossenen Studien beeinträchtigt. Daher sind gut konzipierte und ausreichend gepowerte randomisierte klinische Studien erforderlich. Das Hauptziel dieser Studie ist es, die Wirksamkeit und Sicherheit der oralen Einnahme einer oralen chinesischen Kräuterformel (Pei Tu Qing Xin Granulat, PTQX) bei Kindern im Alter zwischen 6 und 16 Jahren mit mittelschwerem bis schwerem atopischem Ekzem zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s13063-015-0806-y b6a9f7d996e12a003099fc1d6c48a2f4;de;;;6.2.;;;Bewertung der Kompetenzen von Hebammen in der Geburtshilfe in vier Ländern südlich der Sahara: ein Studienprotokoll mit gemischten Methoden Im Rahmen der Aktion Leveraging Evidence to Reduce wollen wir die Kompetenzen (Wissen, Fähigkeiten und Einstellungen) von Hebammenbetreuern sowie deren Erfahrungen und Wahrnehmungen der Fortbildung in den vier Studienländern Benin, Malawi, Tansania und Uganda erfassen perinatale Mortalität und Morbidität im Projekt Subsahara-Afrika (ALERT). Während heute in Ländern mit niedrigem und mittlerem Einkommen mehr Frauen in Gesundheitseinrichtungen gebären, ist die Mütter- und Neugeborenensterblichkeit geringer als erwartet zurückgegangen. Dieses Paradox kann durch den Standard und die Qualität der intrapartalen Betreuung erklärt werden, die von mehreren Faktoren wie der Kapazität des Gesundheitspersonals und der Bereitschaft des Gesundheitssystems sowie dem Zugang zur Betreuung abhängt.;-;-;-;https://link.springer.com/article/10.1186/s12978-021-01109-8 dc85b9ab77623ddadd800bb701256dc8;de;;;6.2.;;;Von der Forschung zum Handeln und den Zwischenräumen: Erfahrungen aus Friedensförderungsprogrammen für junge Menschen in Kambodscha und Uganda Basierend auf der Beitragsanalyse (Morton, Research Evaluation 24:405–419, 2015) skizziert dieses Kapitel zwei Fallstudien, die verschiedene Bildungs- und Friedensförderungsinitiativen für junge Menschen untersuchen und zeigen, wie ihre Forschungsprozesse zu schrittweisen Veränderungen in Praxis und Politik beigetragen haben. Die Fallstudien spielen in Uganda und Kambodscha und nutzen formale und non-formale Bildungssysteme, um friedlichere Beziehungen zwischen den Teilnehmenden herzustellen und gleichzeitig den gesellschaftspolitischen Kontext, in dem sie leben, zu beeinflussen. Die erste Fallstudie konzentriert sich auf ein Pilotprogramm, das vom Kinderhilfswerk der Vereinten Nationen (UNICEF) in Zusammenarbeit mit dem ugandischen Ministerium für Bildung, Wissenschaft, Technologie und Sport (MoESTS) und anderen lokalen Partnern im Rahmen der Initiative Learning for Peace durchgeführt wurde. Die zweite Fallstudie skizziert eine lokal geführte Friedensförderungsinitiative einer kambodschanischen NGO, die von anderen lokalen und internationalen Akteuren und relevanten Ministerien der Regierung von Kambodscha unterstützt wird. Die Autoren reflektieren die Aufnahme, Nutzung und Wirkung der Forschung und identifizieren das Engagement der wichtigsten Interessengruppen an verschiedenen Punkten des Prozesses als integralen Bestandteil für die Erhöhung des Wissens und der Eigenverantwortung der Ergebnisse. Von Interesse ist die Entstehung einer Reihe von Faktoren sowohl für die Erforschung als auch für die Durchführung von Projekten, die in diesem Prozess auftauchen oder als „die Zwischenräume“ von Forschung und Praxis bezeichnet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-22176-8_19 5da25cbd01bbc7312cfa381a37e3480c;de;;;6.2.;;;Darmkrebsvorsorge, wahrgenommene Diskriminierung, niedriges Einkommen und Vertrauen in Ärzte: eine Umfrage unter Minderheiten Der Abschluss von Darmkrebs-Früherkennungstests ist bei einkommensschwachen Gruppen und Minderheiten geringer als bei der Gesamtbevölkerung. Angesichts der zahlreichen Gesundheitsunterschiede bei der Krebsfrüherkennung, die in den USA bekannt sind, untersuchte diese Studie den Zusammenhang zwischen wahrgenommener Diskriminierung, dem Vertrauen in die meisten Ärzte und der Durchführung von Tests auf okkultes Blut im Stuhl (FOBT) bei einer einkommensschwachen Minderheit der Grundversorgungsbevölkerung in einem städtischen Umfeld.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-9-363 b7dea986eb4bba859bd78112364ccf2a;de;;;6.2.;;;Tautomerie in großen Datenbanken Wir haben die Chemical Structure DataBase (CSDB) der NCI CADD Group verwendet, eine aggregierte Sammlung von über 150 niedermolekularen Datenbanken mit insgesamt 103,5 Millionen Strukturdatensätzen, um Tautomerieanalysen an einem der größten derzeit existierenden realen (dh nicht computergestützten) Datensätze durchzuführen -erzeugten) Verbindungen. Diese Analyse wurde mit berechenbaren chemischen Strukturidentifikatoren durchgeführt, die von der NCI CADD Group entwickelt wurden, basierend auf Hash-Codes, die im Chemoinformatik-Toolkit CACTVS verfügbar sind, und einem neu entwickelten Bewertungsschema, um ein kanonisches Tautomer für jede gefundene Struktur zu definieren. Es wurde die Tautomeriedefinition von CACTVS verwendet, ein Satz von 21 Transformationsregeln, ausgedrückt in SMIRKS-Zeilennotation, die eine umfassende Haltung zu den möglichen Arten der eingeschlossenen tautomeren Interkonversion einnimmt. Es wurde festgestellt, dass bei mehr als 2/3 der einzigartigen Strukturen in der CSDB Tautomerie möglich ist. Aus den ursprünglichen Strukturaufzeichnungen wurden insgesamt 680 Millionen Tautomere berechnet. Überlappung der Tautomerie innerhalb derselben individuellen Datenbank (dh es war mindestens ein anderer Eintrag vorhanden, der wirklich nur eine andere tautomere Darstellung derselben Verbindung war) wurde mit einer durchschnittlichen Rate von 0,3% der ursprünglichen Strukturdatensätze mit Werten von bis zu fast . gefunden 2% für einige der Datenbanken in CSDB. Projiziert auf den Satz eindeutiger Strukturen (nach FICuS-Kennung) trat dies immer noch in etwa 1,5% der Fälle auf. Bei fast 10 % der Datensätze in der Sammlung wurde eine tautomere Überlappung aller Bestandteilsdatenbanken in der CSDB festgestellt.;-;-;-;https://link.springer.com/article/10.1007/s10822-010-9346-4 13e8c83c3a8b55a565b82226a94050d5;de;;;6.2.;;;Ein maritimes Entscheidungsunterstützungssystem zur Risikobewertung bei Umweltunsicherheiten: das REP10-Experiment Das Ziel dieser Arbeit ist es, über eine Aktivität zu berichten, die während des 2010 Recognized Environmental Picture Experiments im Ligurischen Meer im Sommer 2010 durchgeführt wurde. Die Aktivität war der erste Test des kürzlich entwickelten Entscheidungsunterstützungssystems (DSS) für Operationsplanung, die zuvor in einem künstlichen Experiment getestet worden war. Das DSS bewertet die Auswirkungen sowohl von Umweltbedingungen (meteorologisch und ozeanografisch) als auch von nicht umweltbezogenen Bedingungen (wie Verkehrsdichtekarten) auf die am Betrieb beteiligten Personen und Anlagen und hilft bei der Entscheidung über eine Vorgehensweise, die einen sichereren Betrieb ermöglicht. Genauer gesagt sind die vom DSS eingegebenen Umgebungsvariablen (wie Windgeschwindigkeit, aktuelle Geschwindigkeit und signifikante Wellenhöhe) diejenigen, die von einem Super-Ensemble-Modell vorhergesagt werden, das die Vorhersagen mehrerer Vorhersagezentren fusioniert. Die mit den Eingaben des DSS verbundenen Unsicherheiten (im Allgemeinen aufgrund von Unstimmigkeiten zwischen den Vorhersagen) werden durch die Ausgabe des DSS unter Verwendung der unscented-Transformation weitergegeben. Auf diese Weise ist das System nicht nur in der Lage, eine Ampelkarte (;-;-;-;https://link.springer.com/article/10.1007/s10236-011-0512-6 92146518f4e686fc949e710294dfda41;de;;;6.2.;;;Der Einsatz persönlicher digitaler Assistenten zur Dateneingabe am Erfassungsort in einer großen Haushaltsbefragung in Südtansania Erhebungsdaten werden traditionell mit Stift und Papier erhoben, mit doppelter Dateneingabe, Vergleich der Eingaben und Ausgleich von Abweichungen, bevor mit der Datenbereinigung begonnen werden kann. Wir haben Personal Digital Assistants (PDAs) für die Dateneingabe am Erfassungsort verwendet, um Zeit zu sparen und die Datenqualität bei einer Umfrage unter über 21.000 verstreuten ländlichen Haushalten im Süden Tansanias zu verbessern.;-;-;-;https://link.springer.com/article/10.1186/1742-7622-4-5 1577d255d286fd2e4c4fc62b7dca39e2;de;;;6.2.;;;Analyse des Transkriptoms des indonesischen Quastenflossers ist eine Quastenflosserart, die erstmals 1997 in Indonesien in einer Entfernung von 10.000 km von ihrem afrikanischen Artgenossen identifiziert wurde. Bisher wurden nur sechs Exemplare gefangen und es liegen nur sehr begrenzte molekulare Daten vor. In der vorliegenden Arbeit beschreiben wir die;-;-;-;https://link.springer.com/article/10.1186/1471-2164-14-538 871b627be6a4176bfaf57cd1ab2eead6;de;;;6.2.;;;Zentrale Koordination als Alternative zur lokalen Koordination in einer multizentrischen randomisierten kontrollierten Studie: die FAITH-Studienerfahrung Chirurgen aus den Niederlanden, Kanada und den USA nehmen an der FAITH-Studie (Fixation mit alternativen Implantaten zur Behandlung von Hüftfrakturen) teil. Niederländische Studienzentren werden von einem finanzierten zentralen Studienkoordinator verwaltet und besucht, während die meisten kanadischen und US-amerikanischen Studienzentren lokale Studienkoordinatoren haben und eine Zahlung pro Patient erhalten. Ziel dieser Studie war es zu beurteilen, wie sich diese unterschiedlichen Studienmanagementstrategien auf die Studienleistung auswirkten.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-13-5 1cf6b1b17e4f904be0a36268d186a400;de;;;6.2.;;;Soziale Verantwortung im Sinne einer Agenda für das kulturelle Kompetenzlernen: Analysen nationaler bildungspolitischer Dokumentation Die heutige Welt ist von zahlreichen neuen Herausforderungen geprägt: Zunahme der Ungleichheit, Migration, Entwicklung neuer Technologien, Klimawandel. Sie alle führen zu Spannungen zwischen Nationen, sozialen Gruppen oder Kulturen. Angesichts wachsender Multikulturalität und Dialogbedarf wird dem Konzept der sozialen Verantwortung im Bildungsbereich gebührende Aufmerksamkeit geschenkt. Berman (Educational Leadership, November: 75–80, 1990, Children's social awareness and the development of social responsibility, University of New York Press, New York, 1997, Leadership for social Justice and Democratic in our Schools, Corwin Press, Thousand Oaks, CA, S. 123–144, 2011) betonte die Bedeutung von Bildung für die soziale Verantwortung in Schule und Unterricht und definierte sie als persönliche Investition in das Wohlergehen anderer. Vallaeys (GUNI Report of Higher Education in the World 5:88–96, 2014) diskutierte soziale Verantwortung als Aufgabe und Funktion der Universität. Berman (Leadership for social Justice and Democracy in our Schools, Corwin Press, Thousand Oaks, CA, S. 123–144, 2011) verknüpfte das Konzept der sozialen Verantwortung mit der Entwicklung eines sozialen Bewusstseins, das ein Gleichgewicht zwischen persönlicher Selbstverwirklichung und persönlichem bedeutete Leistung mit gleichem Fokus auf sozialer Selbstverwirklichung und kollektiver Leistung. Insbesondere wird einem Menschen bewusst, dass die persönliche Entwicklung (d. h. wie werde ich mein Leben führen?) mit der Entwicklung anderer zusammenhängt (d. In diesem Fall umfasst soziale Verantwortung kulturelle Werte und schafft Ermächtigung, Kooperation, Mitgefühl und Respekt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71778-0_3 30bed1c214490092a4a61eb0fd27d856;de;;;6.2.;;;Begründung, Studiendesign und Analyseplan des Alveolar Recruitment for ARDS Trial (ART): Studienprotokoll für eine randomisierte kontrollierte Studie Das akute Atemnotsyndrom (ARDS) ist mit einer hohen Krankenhausmortalität verbunden. Eine alveoläre Rekrutierung gefolgt von einer Beatmung mit optimal titriertem PEEP kann bei Patienten mit ARDS beatmungsinduzierte Lungenschäden reduzieren und die Oxygenierung verbessern, aber die Auswirkungen auf die Mortalität und andere klinische Ergebnisse sind noch unbekannt. Dieser Artikel berichtet über die Begründung, das Studiendesign und den Analyseplan der Alveolarrekrutierung für die ARDS-Studie (ART).;-;-;-;https://link.springer.com/article/10.1186/1745-6215-13-153 690f721be07670d4b9547d8bc74e8fd5;de;;;6.2.;;;Die St. Louis African American Health-Heart Study: Methodik zur Untersuchung von Herz-Kreislauf-Erkrankungen und Depressionen bei jungen alten Afroamerikanern Die koronare Herzkrankheit (KHK) ist weltweit eine der Hauptursachen für Tod und Behinderung. Depression hat komplexe bidirektionale nachteilige Assoziationen mit CAD, obwohl die Mechanismen, die diese Beziehungen vermitteln, unklar bleiben. Im Vergleich zu europäischen Amerikanern haben Afroamerikaner (AAs) höhere Morbiditäts- und Mortalitätsraten durch KHK. Obwohl Depression bei AAs häufig vorkommt, wurde ihre Rolle bei der Entwicklung und den Merkmalen der KHK in dieser Gruppe nicht gut untersucht. Dieses Projekt stellt die Hypothese auf, dass die Beziehungen zwischen Depression und KHK durch gemeinsame physiologische Signalwege und Gen-Umwelt-Interaktionen erklärt werden können. Die Hauptziele dieses laufenden Projekts sind daher: a) die Bestimmung der Prävalenz von KHK- und Depressions-Phänotypen in einer bevölkerungsbasierten Stichprobe älterer AAs, die in der Gemeinde leben, b) die Beziehungen zwischen KHK- und Depressionsphänotypen in dieser Population zu untersuchen, und c) genetische Varianten von SerotoninP und Entzündungswegen zu bewerten, um potenzielle Gendepressionsinteraktionen zu entdecken, die signifikant zum Vorhandensein von CAD in AAs beitragen.;-;-;-;https://link.springer.com/article/10.1186/1471-2261-13-66 70a7b9286bdb730f0651f98f8fdf72ed;de;;;6.2.;;;IT-Implementierung fachorientierter Geschäftsprozesse Die IT hat in vielen Organisationen eine hohe Durchdringung erreicht. Ohne IT-Unterstützung lassen sich viele Geschäftsprozesse nicht wirtschaftlich abwickeln. Aus diesem Grund ist die sorgfältige und bedarfsgerechte Abbildung von Prozessen auf die Informations- und Kommunikationstechnologie eine wichtige Aufgabe. Dies gilt sowohl für Fälle, in denen Mitarbeiter beteiligt sind, als auch für Vorgänge, bei denen ein hoher Automatisierungsgrad angestrebt wird. Dabei spielt eine geeignete und gut passende Softwareumgebung eine wesentliche Rolle. Die Herausforderung ist jedoch in vielen Fällen eine bestehende heterogene System- und Servicelandschaft, in der jede der Komponenten spezifische Aufgaben erfüllt und für die alle diese Komponenten zur adäquaten Prozessunterstützung in eine Gesamtlösung integriert werden müssen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32392-8_10 4fc23b39ca28f4ac4311888dd2315959;de;;;6.2.;;;Augmented Low-Dye Tape verändert die Fußmobilität und die neuromotorische Gangkontrolle bei Personen mit und ohne belastungsbedingte Beinschmerzen Augmented Low-Dye (ALD) Tape wird häufig bei der Behandlung von Schmerzen und Verletzungen des Bewegungsapparates der unteren Gliedmaßen verwendet, doch unser Wissen über seine Wirkung ist unvollständig, insbesondere in Bezug auf seine neuromotorischen Wirkungen.;-;-;-;https://link.springer.com/article/10.1186/1757-1146-3-5 e426e366f124c3c6fb333f6ea4555a53;de;;;6.2.;;;Open-Label-Studie mit Artemether-Lumefantrin gegen unkomplizierte In der Jimma Zone, Äthiopien, wurde 2006 die Erstlinienbehandlung der unkomplizierten Falciparum-Malaria von Sulfadoxin-Pyrimethamin (SP) auf Artemether-Lumefantrin (AL) umgestellt. Ziel dieser Studie war es, die Wirksamkeit von AL in Jimma Zone zu bewerten zwei bis drei Jahre nach der breiten Einführung.;-;-;-;https://link.springer.com/article/10.1186/1475-2875-11-240 67b2b0c8e0fef58019a6fc109fc6c6b2;de;;;6.2.;;;Erhaltung von Sorafenib nach Kombinationstherapie aus dreidimensionaler konformer Strahlentherapie/intensitätsmodulierter Strahlentherapie und arterieller Transkatheter-Chemoembolisation bei Patienten mit lokal fortgeschrittenem hepatozellulärem Karzinom: eine Phase-I/II-Studie Die dreidimensionale konforme Strahlentherapie (3DCRT)/intensitätsmodulierte Strahlentherapie (IMRT) in Kombination mit oder ohne transkatheterarterielle Chemoembolisation (TACE) bei lokal fortgeschrittenem hepatozellulärem Karzinom (HCC) hat günstige Ergebnisse bei der lokalen Kontrolle und dem Überleben des lokal fortgeschrittenen HCC gezeigt. Jedoch sind intrahepatische Ausbreitung und Metastasierung immer noch die vorherrschenden Muster des Behandlungsversagens. Sorafenib ist ein Multikinasehemmer mit Wirkungen gegen Tumorproliferation und Angiogenese. Erhaltungstherapie Sorafenib würde wahrscheinlich die intrahepatische und extrahepatische Ausbreitung von HCC nach einer Strahlentherapie verhindern oder verzögern, was die Begründung für die Kombination dieser Behandlungsmodalitäten liefert.;-;-;-;https://link.springer.com/article/10.1186/1748-717X-5-12 3b773bd4e3a89de9a4968d3b74c6b084;de;;;6.2.;;;Luftbronchogramm integrierter Lungenultraschall-Score zur Überwachung einer ambulant erworbenen Pneumonie in einer pädiatrischen Pilotpopulation Der Thorax-Ultraschall ist eine nicht-invasive Methode zur Untersuchung von Kindern mit Verdacht auf ambulant erworbene Pneumonie (CAP). Wir bewerteten die prognostische Rolle der Änderung des Ultraschall-(US-)Luftbronchogramms bei der Behandlung von CAP in Bezug auf: Rate komplizierter CAP, Änderung der empirischen Antibiotikatherapie, Beziehung zur Deferveszenzzeit und Dauer des Krankenhausaufenthalts.;-;-;-;https://link.springer.com/article/10.1007/s40477-020-00547-7 57698b794b2499f2292a07f9138101a9;de;;;6.2.;;;Altersunterschied, sexuelle Verbundenheit und HIV-Infektion in benachteiligten Gemeinden rund um Kapstadt, Südafrika: ein Studienprotokoll Entscheidende Zusammenhänge zwischen der sexuellen Netzwerkstruktur und der Verbreitung von HIV sind noch unzureichend verstanden, insbesondere im Hinblick auf die Rolle von Nebenläufigkeit und Altersunterschieden in Beziehungen und wie diese Netzwerkmerkmale miteinander und mit anderen Risikofaktoren korrelieren. Soziale Erwünschtheitsverzerrungen und ungenaue Erinnerungen sind Hindernisse, um gültige, detaillierte Informationen über Sexualverhalten und Beziehungsgeschichten zu erhalten. Daher zielt diese Studie darauf ab, neue Forschungsmethoden zu verwenden, um festzustellen, ob der HIV-Status mit Altersunterschieden und sexueller Verbundenheit verbunden ist, sowie die primären verhaltensbezogenen und soziodemografischen Prädiktoren der egozentrischen und gemeinschaftlichen sexuellen Netzwerkstrukturen zu etablieren.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-11-616 d1d936fa1720d0e020a76396066d7244;de;;;6.2.;;;HLA-C-, DRB1- und DQB1-Allele, die an der genetischen Prädisposition für Psoriasis vulgaris in der slowakischen Bevölkerung beteiligt sind Psoriasis vulgaris ist eine komplexe chronische Hauterkrankung mit immunologischem und genetischem Hintergrund. Die wichtigsten prädisponierenden genetischen Faktoren bei Psoriasis sind Gene der humanen Leukozyten-Antigen-(HLA)-Region. Kumulative Beweise haben gezeigt, dass mehrere HLA-Allele eng mit Psoriasis verbunden sind, jedoch neigen sie dazu, je nach Rasse und ethnischem Hintergrund zu variieren. Einhundertsiebenundvierzig nicht verwandte slowakische Patienten mit Psoriasis vulgaris (durchschnittliches Alter bei Ausbruch 28 ± 14 Jahre) wurden für die HLA-C-, DQB1- und DRB1-Allele durch die Polymerase-Kettenreaktion unter Verwendung sequenzspezifischer Primer genotypisiert. Die Allelfrequenzen, die in der Gruppe der Psoriasis-Patienten beobachtet wurden, wurden mit denen in der ethnisch übereinstimmenden Kontrollgruppe mit 194 Patienten ohne Psoriasis in der Vorgeschichte verglichen. Die Anfälligkeit für Psoriasis vulgaris ist in unserer Studiengruppe signifikant mit HLA-C*06 (Odds Ratio (OR) = 3,85), DRB1*07 (OR = 2,56) bzw. DQB1*02 (OR = 1,09) assoziiert, während DRB* 01 (OR = 0,05) ist negativ assoziiert. Hiermit stellen wir den ersten Bericht über die Assoziation von HLA-C-, DRB1- und DQB1-Allelen mit Psoriasis in der slowakischen Bevölkerung vor. Unsere Ergebnisse bestätigen HLA-C*06 und DRB1*07 als die wichtigsten genetischen Risikofaktoren für Psoriasis. Die ursächliche Rolle von HLA-Genen in der Pathogenese der Krankheit bleibt jedoch unklar. Die Identifizierung genetischer Faktoren, die das Psoriasis-Risiko erhöhen, ist eine Voraussetzung, um die Pathogenese dieser besorgniserregenden Krankheit aufzuklären und Ziele für eine spezifischere und wirksamere Therapie zu identifizieren.;-;-;-;https://link.springer.com/article/10.1007/s12223-012-0213-7 7c47be0b27863d72e8843e6363906ae9;de;;;6.2.;;;The Firegoose: Zwei-Wege-Integration diverser Daten aus verschiedenen Bioinformatik-Webressourcen mit Desktop-Anwendungen Informationsressourcen im World Wide Web spielen in der modernen Biologie eine unverzichtbare Rolle. Die Integration von Daten aus mehreren Quellen wird jedoch häufig durch die Notwendigkeit erschwert, Datendateien neu zu formatieren, zwischen Benennungssystemen zu konvertieren oder die laufende Wartung lokaler Kopien öffentlicher Datenbanken durchzuführen. Durch den zunehmenden Einsatz von Webprotokollen zur Übertragung strukturierter Daten ergeben sich Chancen für neue Wege der Kombination und Wiederverwendung von Daten.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-8-456 fbe45c6dd2788e97385b17765826ac64;de;;;6.2.;;;Klinische Proteomik- und OMICS-Hinweise, die in der translationalen Medizinforschung nützlich sind Seit Beginn der neuen Ära der Proteomik vor mehr als einem Jahrzehnt wurden groß angelegte Studien zur Proteinprofilierung verwendet, um charakteristische molekulare Signaturen in einer Vielzahl biologischer Systeme zu identifizieren, die Bereiche der biologischen Grundlagenforschung, der klinischen Diagnostik und der Entdeckung von Biomarkern umfassen auf therapeutische Anwendungen ausgerichtet. Jüngste Fortschritte bei Proteintrennungs- und -identifizierungstechniken haben proteomische Ansätze deutlich verbessert, was zu einer Verbesserung der Tiefe und Breite der Proteomabdeckung führt.;-;-;-;https://link.springer.com/article/10.1186/1477-5956-10-35 98188574c80ceaa458aa1d8cc846cee8;de;;;6.2.;;;Die Auswirkungen eines multidisziplinären kognitiven Verhaltensschmerzmanagementprogramms auf den Schlaf: eine Pilotstudie Eine verminderte Schlafqualität ist eine häufige Beschwerde bei Patienten mit chronischen Schmerzen, wobei 50-80% der Patienten über Schlafstörungen berichten. Verbesserungen der Schmerz- und Lebensqualitätsmessungen wurden durch ein multidisziplinäres kognitives Verhaltenstherapie-Schmerzmanagementprogramm (CBT-PMP) erreicht, das darauf abzielt, die Einstellung zum Schmerz zu rekonditionieren und das Selbstmanagement der Patienten mit ihrer Erkrankung zu verbessern. Trotz der hohen Prävalenz bei Patienten mit chronischen Schmerzen gibt es nur sehr begrenzte objektive Beweise für die Wirkung dieser Intervention auf die Schlafqualität. Primäres Forschungsziel ist es, den kurzfristigen Effekt einer multidisziplinären CBT-PMP auf die subjektive (gemessen mit dem Pittsburg Sleep Quality Index) und die objektive Schlafqualität (gemessen mit der Aktigraphie) bei Patienten mit chronischen Schmerzen im Vergleich zu einer Kontrollgruppe zu untersuchen. Die sekundären Ziele werden Veränderungen in Funktion und Stimmung untersuchen und dann die Beziehung zwischen objektiver und subjektiver Schlafqualität und physischen und psychologischen Ergebnismessungen untersuchen.;-;-;-;https://link.springer.com/article/10.1186/1471-2474-12-5 d2782a78bed7a0b208f50ffbf731a09f;de;;;6.2.;;;Metabo-Tipp: eine Metabolomics-Plattform zur Überwachung des Lebensstils, die die Entwicklung neuer Strategien in der prädiktiven, präventiven und personalisierten Medizin unterstützt Die Exposition gegenüber bioaktiven Verbindungen aus Ernährung, Arzneimitteln, Umweltschadstoffen oder anderen Lebensgewohnheiten kann den menschlichen Organismus beeinträchtigen. Um Erkenntnisse über die Auswirkungen dieser Einflüsse sowie die zugrunde liegenden biochemischen Mechanismen zu gewinnen, scheint das individuelle molekulare Profiling ein vielversprechendes Instrument zu sein und kann die Weiterentwicklung der prädiktiven, präventiven und personalisierten Medizin unterstützen.;-;-;-;https://link.springer.com/article/10.1007/s13167-021-00241-6 581df5f7e8e21747784470622d612f76;de;;;6.2.;;;Beurteilung der Aufnahme adipöser Nahrungsmittel und Getränke bei Kleinkindern: Vergleich einer einfachen Bevölkerungsbefragung mit einem 24-Stunden-Recall Mit zunehmender Konzentration auf die Adipositasprävention besteht ein Bedarf an einfachen, validen Instrumenten zur Bewertung von Ernährungsindikatoren, die Ziel von Interventionsprogrammen sein können. Ziel dieser Studie war es, die relative Validität der Nahrungsaufnahme am Vortag anhand eines neu entwickelten Eltern-Proxy-Fragebogens (EPAQ) für zwei- bis fünfjährige Kinder zu bestimmen.;-;-;-;https://link.springer.com/article/10.1186/1479-5868-6-71 5b87cf745d998c884d80a86823ff3827;de;;;6.2.;;;Studienprotokoll. ECSSIT – Wahlkaiserschnitt Syntocinon Der Kaiserschnitt ist eine der am häufigsten durchgeführten großen Operationen bei Frauen weltweit. Die Raten steigen, wobei Studien aus den Vereinigten Staaten von Amerika, dem Vereinigten Königreich, China und der Republik Irland Raten zwischen 20 und 25 % melden. Die operative Morbidität umfasst Blutungen, Anämie, Bluttransfusionen und in schweren Fällen den Tod der Mutter.;-;-;-;https://link.springer.com/article/10.1186/1471-2393-9-36 2879b91a2584d806e6e8322c8a6318c7;de;;;6.2.;;;Studienprotokoll. IDUS – Instrumentelle Abgabe & Ultraschall. Eine multizentrische randomisierte kontrollierte Studie zur Ultraschalluntersuchung der fetalen Kopfposition im Vergleich zur Standardversorgung als Ansatz zur Vorbeugung von Morbidität bei der Instrumentengeburt Instrumentelle Entbindungen werden häufig im Vereinigten Königreich und in Irland durchgeführt, mit Raten von 12 – 17 % in den meisten Zentren. Die genaue Position des fetalen Kopfes zu kennen ist eine Voraussetzung für eine sichere Instrumentenabgabe. Traditionell wird die Diagnose der fetalen Kopfposition durch eine transvaginale digitale Untersuchung durch Abgrenzen der Nahtlinien des fetalen Schädels und der Fontanellen gestellt. Die Genauigkeit der transvaginalen digitalen Untersuchung kann jedoch unzuverlässig sein und schwankt zwischen 20 % und 75 %. Wenn die korrekte Kopfposition des Fötus nicht identifiziert wird, erhöht sich die Wahrscheinlichkeit einer fehlgeschlagenen instrumentellen Geburt mit der zusätzlichen Morbidität der sequentiellen Verwendung von Instrumenten oder eines Kaiserschnitts im zweiten Stadium. Die Verwendung von Ultraschall zur Bestimmung der Position des fetalen Kopfes wurde untersucht, ist jedoch nicht Teil der klinischen Routine.;-;-;-;https://link.springer.com/article/10.1186/1471-2393-12-95 7a9dc897dec9d8c4b52a35a013b896ad;de;;;6.2.;;;OntoStudyEdit: ein neuer Ansatz zur ontologiebasierten Darstellung und Verwaltung von Metadaten in der klinischen und epidemiologischen Forschung Die Spezifikation von Metadaten in klinischen und epidemiologischen Studienprojekten verursacht einen erheblichen Aufwand. Die Validität und Qualität der erhobenen Daten hängt stark von der präzisen und semantisch korrekten Darstellung ihrer Metadaten ab.;-;-;-;https://link.springer.com/article/10.1186/s13326-015-0042-0 f2013de950a9a2e201434a1ebfebda77;de;;;6.2.;;;Multitrophe Gemeinschaften etablieren sich mit Blätterdach und Mikroklima in einem subtropischen Waldbiodiversitätsexperiment Die Pflanzenvielfalt beeinflusst multitrophe Gemeinschaften, aber in jungen nachwachsenden Wäldern, in denen sich Waldinsekten im Prozess der Neuansiedlung befinden, könnten andere biotische und auch abiotische Faktoren wichtiger sein. Wir untersuchten höhlenbrütende Bienen, Wespen und ihre natürlichen Feinde entlang eines experimentellen Baumdiversitätsgradienten im subtropischen Südosten Chinas. Wir verglichen Insektengemeinschaften experimenteller Jungwälder mit Gemeinschaften etablierter Naturwälder in der Nähe des Experiments und untersuchten die direkten und indirekten Auswirkungen der Baumvielfalt, der Baumgrundfläche (ein Proxy der Baumbiomasse), der Baumkronenbedeckung und des Mikroklimas auf die Zusammensetzung der Bienen- und Wespengemeinschaft. Fülle und Artenreichtum. Schließlich haben wir getestet, ob die trophischen Ebenen von Bienen, Pflanzenfresser-Jagdwespen, Spinnen-Jagdwespen und ihren natürlichen Feinden ähnlich reagieren. Die Zusammensetzung der Waldbienen- und Wespengemeinschaften hat sich zu den Gemeinschaften des natürlichen Waldes mit zunehmender Baumbiomasse und Baumkronenbedeckung wiederhergestellt. Diese Faktoren erhöhten direkt und indirekt über mikroklimatische Bedingungen den Bestand an Bienen, Wespen und ihren natürlichen Feinden. Während der Artenreichtum von Bienen und Wespen mit der Abundanz zunahm und beide nicht mit der Baumvielfalt zusammenhingen, nahm die Abundanz direkt mit der Baumkronenbedeckung zu, vermittelt durch die Baumbiomasse. Die Häufigkeit natürlicher Feinde nahm mit der Häufigkeit von Wirten (Bienen und Wespen) zu, unabhängig von ihrer trophischen Position. Zusammenfassend lässt sich sagen, dass, obwohl die Maximierung der Baumvielfalt ein wichtiges Ziel der Wiederaufforstung und des Waldschutzes ist, eine schnelle Schließung der Baumkronen auch wichtig ist, um Gemeinschaften von Waldbienen, Wespen und ihren natürlichen Feinden wieder aufzubauen.;-;-;-;https://link.springer.com/article/10.1007/s00442-021-04921-y 32936a9327e08f93c42611b2d85e272e;de;;;6.2.;;;Patientenwahrnehmung von Depressionen und koronaren Herzkrankheiten: eine qualitative UPBEAT-UK-Studie Die Prävalenz von Depressionen bei Menschen mit koronarer Herzkrankheit (KHK) ist hoch, aber über die eigenen Wahrnehmungen und Erfahrungen der Patienten ist wenig bekannt. Diese Studie zielte darauf ab, (i) die Wahrnehmung von Patienten der Primärversorgung (PC) hinsichtlich der Zusammenhänge zwischen ihrer körperlichen Verfassung und ihrer psychischen Gesundheit, (ii) ihren Erfahrungen mit dem Leben mit Depressionen und KHK und (iii) ihren eigenen Selbsthilfestrategien und Einstellungen zu aktuelle PC-Interventionen bei Depressionen.;-;-;-;https://link.springer.com/article/10.1186/1471-2296-14-38 36b429e84fcd89dfcb6aa70024005f27;de;;;6.2.;;;Faktoren, die die Canagliflozin-induzierte vorübergehende Zunahme des Urinvolumens bei Patienten mit Typ-2-Diabetes mellitus beeinflussen Natriumglucose-Cotransporter 2 (SGLT2)-Hemmer zeigen eine diuretische Wirkung, was ein möglicher Mechanismus ist, der dem kardiovaskulären Nutzen dieser Hemmer zugrunde liegt. Die durch osmotische Diurese induzierte Zunahme des Urinvolumens und das Risiko einer Dehydratation gaben jedoch bei der Behandlung mit SGLT2-Inhibitoren Anlass zur Sorge. Diese Studie zielte darauf ab, den Mechanismus zu untersuchen, der der durch den SGLT2-Inhibitor Canagliflozin induzierten Diurese bei Patienten mit japanischem Typ-2-Diabetes mellitus (T2DM) zugrunde liegt.;-;-;-;https://link.springer.com/article/10.1007/s12325-016-0457-8 2759a1627d1f1861049eef642831d585;de;;;6.2.;;;Schadensbegrenzungsstrategie bei perforierter Divertikulitis mit generalisierter Peritonitis Die beste Behandlung der perforierten Kolondivertikulitis mit generalisierter Peritonitis wird noch diskutiert. Parallele Strategien sind die Resektion mit primärer Anastomose (PRA) mit oder ohne divertierende Ileostomie (DI), das Hartmann-Verfahren (HP), die laparoskopische Lavage (LL) und die Damage Control Surgery (DCS). In diesem Review soll die aktuelle Literatur zu DCS systematisch analysiert werden.;-;-;-;https://link.springer.com/article/10.1186/s12893-021-01130-5 8ca046ff755c486e7b395acd4d5141f0;de;;;6.2.;;;Bereitschaft von Angehörigen der Gesundheitsberufe zur Einführung eines elektronischen Patientenaktensystems in drei Krankenhäusern in Äthiopien: eine Querschnittstudie In vielen Ländern werden elektronische Patientenaktensysteme implementiert, um Gesundheitsdienste zu unterstützen. Die Akzeptanzrate bleibt jedoch aufgrund technologischer, finanzieller und organisatorischer Faktoren niedrig, insbesondere in Entwicklungsländern. Es mangelt an solider Evidenz und empirischer Forschung bezüglich der Vorbereitungsbereitschaft von Gesundheitsdienstleistern. Ziel dieser Studie ist es, die Bereitschaft von Angehörigen der Gesundheitsberufe zu bewerten und Faktoren zu identifizieren, die die Akzeptanz und Nutzung elektronischer medizinischer Aufzeichnungssysteme in der Vorimplementierungsphase in Krankenhäusern der Nord-Gondar-Zone in Äthiopien beeinflussen.;-;-;-;https://link.springer.com/article/10.1186/s12911-014-0115-5 2d3dceab81593c0b7bd84d43a00e229c;de;;;6.2.;;;Auswirkungen der Null-Referenzposition auf Blasendruckmessungen: eine Beobachtungsstudie Obwohl die World Society for Abdominal Compartment Syndrome in ihren Leitlinien die Midaxillarlinie (MAL) als Null-Referenzwert bei intraabdominalen Druckmessungen (IAP) empfiehlt, um die Technik zu standardisieren, gibt es kaum Belege für diesen Vorschlag. Das Ziel dieser Studie ist es zu untersuchen, ob die Null-Referenzposition die Blasendruckmessungen als Schätzung für die IAP beeinflusst.;-;-;-;https://link.springer.com/article/10.1186/2110-5820-2-S1-S13 fab4bf38be2dfc8f389c219e3f63020a;de;;;6.2.;;;Eine prospektive, randomisierte, kontrollierte klinische Studie zur Bewertung der Verträglichkeit und der klinischen Wirksamkeit von subkutan verabreichtem Merional (hMG-IBSA) im Vergleich zu intramuskulär verabreichtem Merional bei Frauen, die sich einer multifollikulären Ovarialstimulation im Rahmen eines ART-Programms (IVF) unterziehen. Die multifollikuläre Ovarialstimulation (MOS) ist bei IVF weit verbreitet und die Therapietreue wird stark von der Verträglichkeit der verwendeten Medikamente und der Leichtigkeit der Selbstverabreichung beeinflusst. Diese prospektive, kontrollierte, randomisierte, offene, multizentrische, multizentrische Phase-III-Äquivalenzstudie mit parallelen Gruppen zielte darauf ab, die klinische Wirksamkeit (in Bezug auf gewonnene Eizellen) und die Verträglichkeit von subkutanen (sc) selbst verabreichten und klassischen intramuskulären Injektionen von Merional, einem neuen hochreinen hMG-Präparat.;-;-;-;https://link.springer.com/article/10.1186/1477-7827-5-45 2402dad269069a53ea10d25bc8d31602;de;;;6.2.;;;Prävalenz, Muster und Wahrnehmung von Lippen- und Gaumenspalten bei Kindern, die in zwei Krankenhäusern im Distrikt Kisoro, Uganda, geboren wurden Eine Lippenspalte mit oder ohne Gaumenspalte ist eine der häufigsten angeborenen Anomalien, die den orofazialen Bereich betreffen. Ziel der Studie war es, die Periodenprävalenz, das Muster und die Wahrnehmung von Lippen-Kiefer-Gaumenspalten bei Kindern zu bestimmen, die zwischen 2005 und 2010 in zwei Krankenhäusern im Distrikt Kisoro, Uganda, geboren wurden.;-;-;-;https://link.springer.com/article/10.1186/1472-6831-14-104 05946c533e8d0cf18ddaa2cc28973281;de;;;6.2.;;;Technologieentwicklung der hyperthermen druckbeaufschlagten intraperitonealen Aerosol-Chemotherapie (hPIPAC) Für die intraperitoneale Chemotherapie werden optimierte Drug-Delivery-Systeme benötigt. Das Ziel dieser Studie war die Entwicklung einer Technologie zur Anwendung einer druckbeaufschlagten intraperitonealen Aerosol-Chemotherapie (PIPAC) unter hyperthermischen Bedingungen (hPIPAC).;-;-;-;https://link.springer.com/article/10.1007/s00464-021-08567-y 21ca6f43ca1d2ca753db914e91757782;de;;;6.2.;;;Übertragung in einer kolumbianischen Karibikregion legt nahe, dass sekundäre Vektoren eine wichtige epidemiologische Rolle spielen Kolumbien hat im Rahmen der Andean Countries Initiative Programmen zur Bekämpfung von Triatominen Priorität eingeräumt, um primäre (domizilierte) Vektorarten wie;-;-;-;https://link.springer.com/article/10.1186/1756-3305-7-381 4fc38ccf75b1d05b4cd3da665563ea81;de;;;6.2.;;;Einfluss des Mittagessens auf Anthropometrie, Hämoglobin und Mikronährstoffstatus kambodschanischer Textilarbeiterinnen: explorative randomisierte kontrollierte Studie Es wird erwartet, dass die Versorgung mit Mittagessen den Ernährungszustand der kambodschanischen Textilarbeiterinnen verbessert. Ziel dieser Studie ist es, die Auswirkungen einer modellhaften Mittagsversorgung durch eine Kantine auf Anthropometrie, Hämoglobin und Mikronährstoffstatus bei Textilarbeiterinnen in Kambodscha zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s40795-019-0297-4 af65359aadf256af13d2e5f68df47f7c;de;;;6.2.;;;Das posttraumatische Belastungsstörungsprojekt in Brasilien: neuropsychologische, strukturelle und molekulare Neuroimaging-Studien bei Opfern urbaner Gewalt Lebenstraumata sind in der Allgemeinbevölkerung weit verbreitet und posttraumatische Belastungsstörungen gehören zu den häufigsten psychiatrischen Folgen von Traumata. Brasilien verfügt über ein einzigartiges Umfeld, um translationale Forschung zu psychischen Traumata und posttraumatischen Belastungsstörungen durchzuführen, da städtische Gewalt zu einem brasilianischen Phänomen wurde, was insbesondere mit dem schnellen Bevölkerungswachstum seiner Städte zusammenhängt. Diese Forschung umfasst drei Fall-Kontroll-Studien: eine neuropsychologische, eine strukturelle Neuroimaging- und eine molekulare Neuroimaging-Studie, die sich jeweils auf unterschiedliche Ziele konzentrieren, aber ergänzende Informationen liefern. Erstens zielt es darauf ab, die kognitive Funktion von PTSD-Patienten und ihre Beziehungen zur Symptomatologie zu untersuchen. Das zweite Ziel besteht darin, die neurostrukturelle Integrität des orbitofrontalen Kortex und Hippocampus bei PTSD-Patienten zu bewerten. Das dritte Ziel besteht darin, zu bewerten, ob Patienten mit PTSD eine verringerte Dopamintransporterdichte in den Basalganglien im Vergleich zu widerstandsfähigen Kontrollpersonen aufweisen. Dieses Papier zeigt die Forschungsgründe und das Design für diese drei Fall-Kontroll-Studien.;-;-;-;https://link.springer.com/article/10.1186/1471-244X-9-30 80a958e9ef5bd7976b4bb5bc36367448;de;;;6.2.;;;Führt regelmäßiges Krafttraining bei übergewichtigen inaktiven Frauen zu Harninkontinenz? Eine Randomisierte Kontrollierte Studie Harninkontinenz (UI) tritt häufig bei Frauen auf, die Sport treiben. Unser Ziel war es, neu auftretende UI bei ehemals inaktiven, übergewichtigen oder adipösen Frauen (BMI > 25) zu untersuchen, die an drei verschiedenen Krafttrainingsmodalitäten im Vergleich zu einer nicht trainierenden Kontrollgruppe teilnahmen.;-;-;-;https://link.springer.com/article/10.1007/s00192-021-04739-5 024e93a62e29575a10ec3fed722412e2;de;;;6.2.;;;Verschreibung von Antibiotika bei Frauen während und nach der Entbindung in einem nicht lehrenden Krankenhaus der Tertiärversorgung in Ujjain, Indien: eine prospektive Querschnittsstudie Antibakterielle Medikamente (im Folgenden als Antibiotika bezeichnet) sind entscheidend für die Behandlung von Infektionen während der Geburt und nach der Geburt, um die Müttersterblichkeit zu reduzieren. Institutionelle Entbindungen haben das Potenzial, das Leben vieler Frauen zu retten, aber der umfangreiche Einsatz von Antibiotika trägt zur Entwicklung und Verbreitung von Antibiotikaresistenzen bei. Ziel dieser Studie war es, die Verschreibung von Antibiotika bei stationären Patienten während und nach der Entbindung in einem nicht lehrenden Krankenhaus der tertiären Versorgung in der Stadt Ujjain, Madhya Pradesh, Indien, darzustellen.;-;-;-;https://link.springer.com/article/10.1186/2052-3211-6-9 611a0ee9854152dc775ecb3763a5636f;de;;;6.2.;;;Argatroban versus Heparin bei Patienten ohne Heparin-induzierte Thrombozytopenie während der venovenösen extrakorporalen Membranoxygenierung: eine mit dem Propensity-Score übereinstimmende Studie Während der venovenösen extrakorporalen Membranoxygenierung (vvECMO) werden direkte Thrombininhibitoren von einigen potenziell vorteilhaft gegenüber unfraktioniertem Heparin (UFH) betrachtet. Wir testeten die Hypothese, dass Argatroban UFH hinsichtlich Thrombose und Blutung während der vvECMO nicht unterlegen ist.;-;-;-;https://link.springer.com/article/10.1186/s13054-021-03581-x 25e5a341e14843c11cc24764d6319e22;de;;;6.2.;;;Mütterlicher Beinaheverlust und Qualität der Gesundheitsversorgung von Müttern in Bagdad, Irak Das Mütter-Beinahe-Unfall-Konzept wurde als Instrument zur Unterstützung der Gesundheitssysteme bei der Bewertung und Verbesserung ihrer Versorgungsqualität entwickelt. Unsere Studie zielte darauf ab, die Merkmale und die Qualität der Versorgung von Frauen mit schweren Komplikationen in Bagdad zu untersuchen, indem der Ansatz der Weltgesundheitsorganisation (WHO) für die Müttergesundheit verwendet wurde.;-;-;-;https://link.springer.com/article/10.1186/1471-2393-13-11 2e6bbdae39940a85c6ae5a7d4ba032ca;de;;;6.2.;;;Design und Implementierung von GRIP: ein computergestütztes Glukosekontrollsystem auf einer chirurgischen Intensivstation Eine strenge Glukosekontrolle durch intensive Insulintherapie ist zu einem wichtigen Bestandteil der Intensivmedizin geworden und ein wichtiges Studiengebiet in der Akutversorgung der Koronargefäße. Es muss ein Gleichgewicht zwischen der Häufigkeit der Messungen und dem Risiko einer Hypoglykämie gefunden werden. Gegenwärtige Krankenschwester-gesteuerte Protokolle sind papierbasiert und beruhen daher auf einfachen Regeln. Aus Sicherheits- und Effizienzgründen kann ein Computer-Entscheidungsunterstützungssystem, das eine komplexe Logik verwendet, Papierprotokollen überlegen sein.;-;-;-;https://link.springer.com/article/10.1186/1472-6947-5-38 c2daccf0a94a17ffd671805bc61668fc;de;;;6.2.;;;Belastung und Folge von Geburtsfehlern in Nepal – Evidenz aus prospektiver Kohortenstudie Jedes Jahr werden schätzungsweise 7,9 Millionen Babys mit einem Geburtsfehler geboren. Von diesen Babys sterben mehr als 3 Millionen und 3,2 Millionen haben eine Behinderung. Für eine bessere Ressourcenallokation für Prävention, Management und Rehabilitation ist eine Verbesserung der landesweiten Informationen über die Prävalenz von Geburtsfehlern, Risikofaktoren und Folgen erforderlich. In dieser Studie untersuchen wir die Prävalenz von Geburtsfehlern, die damit verbundenen Risikofaktoren und Folgen in Nepal.;-;-;-;https://link.springer.com/article/10.1186/s12887-021-02525-2 33fcd5c3034ef9809eb70d42c45fbff4;de;;;6.2.;;;Ökonomische Dimensionen der Umweltbürgerschaft In diesem Kapitel werden ökonomische Ansätze, Studien und Beiträge zur globalen Diskussion über das Verhältnis von Ökonomie und Umwelt vorgestellt. Diese Beziehungen werden ständig durch die Aktivität von Individuen und Gemeinschaften beeinflusst. Die soziale Dimension ist offensichtlich und wechselseitige Wechselwirkungen zwischen Gesellschaft und Umwelt werden in vielen Wissenschaftsbereichen untersucht. Menschliche Entscheidungen und Verhaltensweisen haben Konsequenzen für die Umwelt, die sich im Laufe der Zeit ändern, und ihr resultierender Zustand beeinflusst nachfolgende menschliche Einstellungen und Verhaltensweisen. Weit verbreitete Prinzipien der Mainstream-Ökonomie werden von verschiedenen Plattformen kritisiert. Dieses Kapitel konzentriert sich auch auf die Argumentation der Mainstream-Ökonomie, die im Gegensatz zu den eher interdisziplinären ökonomischen Ansätzen zu Umweltfragen steht. Die Hauptwidersprüche in einer solchen Debatte ergeben sich aus einem unterschiedlichen Wertesystem der Individuen. Durch verschiedene Interessengruppen erstreckt sich die wirtschaftliche Dimension von Environmental Citizenship von lokaler bis globaler Ebene. Die Transformation von Wirtschaftssystemen erfordert einen interdisziplinären Ansatz, um politische und gesellschaftliche Barrieren zu überwinden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20249-1_3 8b862a27caaf72ee756ad63eb7cb0473;de;;;6.2.;;;Die Wirksamkeit und Sicherheit von Crizotinib bei der Behandlung von anaplastischem Lymphomkinase-positivem nicht-kleinzelligem Lungenkrebs: eine Metaanalyse klinischer Studien Crizotinib erhielt 2011 von der Food and Drug Administration eine beschleunigte Zulassung zur Behandlung von anaplastischem Lymphomkinase (ALK)-positivem nichtkleinzelligem Lungenkrebs (NSCLC). Um die Wirksamkeit und Sicherheit von Crizotinib zu bewerten, führten wir eine Metaanalyse veröffentlichter klinischer Studien mit dem Random-Effect-Modell durch.;-;-;-;https://link.springer.com/article/10.1186/1471-2407-14-683 8244ecfb4b7847d176db4897b3edfcf2;de;;;6.2.;;;Machbarkeits- und Sicherheitsstudie eines neuen Geräts (Odón-Gerät) für assistierte vaginale Entbindungen: Studienprotokoll Intrapartale Komplikationen sind für etwa die Hälfte aller mütterlichen Todesfälle sowie für zwei Millionen Todesfälle bei Totgeburten und Neugeborenen pro Jahr verantwortlich. Ein verlängertes zweites Stadium der Wehen ist mit potenziell tödlichen mütterlichen Komplikationen wie Blutungen und Infektionen verbunden und ist eine der Hauptursachen für Totgeburten und Neugeborenenmorbidität und -mortalität. Derzeit sind die drei wichtigsten Optionen für die Behandlung eines verlängerten zweiten Geburtsstadiums eine Zange, ein Vakuumextraktor und ein Kaiserschnitt. Alle drei klinischen Praxen erfordern relativ teure Geräte (z. B. einen Operationssaal für einen Kaiserschnitt) und/oder hochqualifiziertes Personal, das oft in einem Umfeld mit geringen Ressourcen nicht verfügbar ist. Das spezifische Ziel der vorgeschlagenen Studie besteht darin, die Sicherheit und Machbarkeit eines neuen Geräts (Odón-Gerät) zu testen, um den Fötus während einer verlängerten zweiten Phase der Wehen effektiv zu entbinden. Das Odón-Gerät ist eine kostengünstige technologische Innovation zur Erleichterung der operativen vaginalen Entbindung und zur Minimierung von Traumata für Mutter und Baby. Diese Eigenschaften zusammen machen es zu einer potenziell revolutionären Entwicklung in der Geburtshilfe, insbesondere zur Verbesserung der intrapartalen Versorgung und zur Verringerung der mütterlichen und perinatalen Morbidität und Mortalität in Umgebungen mit geringen Ressourcen.;-;-;-;https://link.springer.com/article/10.1186/1742-4755-10-33 253d40272d2c27a22e1060cd74ca800a;de;;;6.2.;;;Spannungen in der Diabetesversorgungspraxis: Ethische Herausforderungen mit Fokus auf Pflegekräfte in einem Home-Based-Care-Team Die Betreuung von Patienten mit chronischen Erkrankungen, einschließlich Diabetes, führt zu ethischen Dilemmata und stellt medizinisches Fachpersonal, insbesondere Pflegepersonal, bei ihrer täglichen Arbeit ständig vor Herausforderungen. Diese qualitative Fallstudie konzentriert sich auf die Erfahrungen von Pflegefachpersonen in der Diabetesversorgung, in der komplexe Pflege in einem multiprofessionellen Team stattfindet. Die Forschungsergebnisse zeigen, dass Pflegekräfte in der häuslichen Pflege im Kontext der Diabetesversorgung mit Spannungen konfrontiert sind. Spannungen lassen sich rund um drei Themen ausmachen: Identifizierung von Pflegeempfängern, Durchführung von Pflegemaßnahmen und Grundlagen von Pflegebeziehungen. Das Gesundheitsumfeld zeigte ein Verantwortungsbewusstsein ohne Autorität, während die Verantwortung für die professionelle Pflege nicht explizit gemacht wurde. Pflegekräfte sind in der Diabetesversorgung nachweislich überfordert. Die Forschungsergebnisse können dazu beitragen, die Diabetesversorgungspraxis zu verbessern, indem die Rollen des Pflegepersonals geklärt, das professionelle Bewusstsein und die Pflegekompetenzen des Pflegepersonals intensiviert sowie ein pflegendes Pflegeumfeld geschaffen wird, in dem alle Mitglieder des Pflegeteams Verantwortung und Fürsorge teilen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-61291-1_11 345aff316934cdd4c8af5a292a4831ba;de;;;6.2.;;;Osseointegrierte Prothese für Patienten mit Amputation Dieser Artikel gibt einen Überblick über die Entwicklung der multidisziplinären Osseointegrationsbehandlung in den Niederlanden seit ihrer Einführung im Jahr 2009. Menschen, die aufgrund ihrer Pfannenprothese nach einer Beinamputation eingeschränkt sind, stellen sich im Medizinischen Zentrum der Radboud University Nijmegen für ein Osseointegrationsimplantat oder eine „knochenverankerte“ Prothese vor. In diesem Artikel teilen wir unsere Erfahrungen mit den ersten 100 Patienten in Bezug auf Überweisungsmuster, Auswahlkriterien, verfügbare Osseointegrationssysteme, präoperative Planung, chirurgische Behandlung, Rehabilitationsprotokoll, Ergebnismessung, Revisionschirurgie und zukünftige Entwicklungen.;-;-;-;https://link.springer.com/article/10.1007/s00113-016-0302-1 8e25192f6ed99ab43b2a80588c061e04;de;;;6.2.;;;Evaluation eines Wissensübersetzungsnetzwerks für Gesundheitssysteme für Afrika (KTNET): ein Studienprotokoll Trotz steigender Investitionen in die Gesundheitsforschung in Subsahara-Afrika bleibt eine große Kluft zwischen dem, was in den Gesundheitssystemen bekannt und praktiziert wird. Wissensübersetzungsprogramme zielen darauf ab, sicherzustellen, dass ein breites Spektrum von Interessengruppen sich der Forschungsergebnisse bewusst ist und diese nutzt, um ihre Entscheidungen in Bezug auf Gesundheit und Gesundheitsversorgung zu treffen. Der Zweck dieser Studie ist es, einen Einblick in die Auswirkungen auf den Kapazitätsaufbau für Wissensübersetzung und Wissensübersetzungsaktivitäten durch eine Koalition von acht Forschungsgruppen in Afrika zu geben.;-;-;-;https://link.springer.com/article/10.1186/s13012-014-0170-4 888961bddd3f37ab4f581959597c2115;de;;;6.2.;;;Schutzwirkung des ausschließlichen Stillens gegen Hand-Fuß-Mund-Krankheit Säuglinge, die ausschließlich gestillt werden, erhalten einen natürlichen Schutz gegen einige Infektionserreger. In dieser Studie wurde untersucht, ob ausschließliches Stillen einen schützenden Effekt auf das Auftreten der Hand-Fuß-Mund-Krankheit hat, einer neu auftretenden Infektionskrankheit bei Kindern in China.;-;-;-;https://link.springer.com/article/10.1186/s12879-014-0645-6 4e1e18f5d40360191f9fe34dc9ea3634;de;;;6.2.;;;Alternativen zur freien Lappenplastik für die maxillofaziale Rekonstruktion: Fokus auf den submentalen Insellappen und den myokutanen Pectoralis-major-Lappen Der mikrovaskuläre Gewebetransfer (MTT) hat sich als Goldstandard in der oralen und maxillofazialen Rekonstruktion etabliert. Allerdings kann die freie Lappenoperation bei multimorbiden älteren Patienten und nach Operationen oder Strahlentherapien kritisch sein, die die Mikrochirurgie erschweren. Diese Studie bewertet Indikationen und Ergebnisse des submentalen Insellappens (SMIF) und des Pectoralis major myokutaner Lappens (PMMF) als Alternativen zum freien radialen Unterarmlappen (RFF).;-;-;-;https://link.springer.com/article/10.1186/s12903-021-01563-7 43d8883da258d56e94d7ffcc6e5c7cc9;de;;;6.2.;;;S-BPM-Methode im Vergleich Dieses Buch bietet umfassende Einblicke in die fachorientierte Methodik. Neben der Ableitung und Begründung des Konzepts haben wir ein subjektorientiertes Vorgehensmodell für den Umgang mit Modellen entwickelt. Um das Bild in Bezug auf BPM zu vervollständigen, untersuchen wir, inwieweit auch andere Methoden subjektorientierte Elemente beinhalten. Im Kanon bestehender Ansätze zur Modellierung von Geschäftsprozessen lässt sich an verschiedenen Stellen die thematische Fokussierung bei der Reflexion der Standardsatzsemantik natürlicher Sprache erkennen. Die folgende Übersicht über wesentliche Methoden der schematischen oder formalen Modellierung von Geschäftsprozessen zeigt die unterschiedlichen Verknüpfungen bestehender Ansätze zu den Modellierungskategorien Subjekt, Prädikat und Objekt. Die jeweiligen Ansätze werden vergleichend beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32392-8_14 8c46c57bc01c886aa95a9795da748d60;de;;;6.2.;;;Wirkung von aeroben Übungen und kohlenhydratarmer Ernährung auf die prädiabetische nichtalkoholische Fettlebererkrankung bei postmenopausalen Frauen und Männern mittleren Alters – die Rolle der Zusammensetzung der Darmmikrobiota: Studienprotokoll für die randomisierte kontrollierte Studie AELC Prädiabetes und nichtalkoholische Fettleber (NAFLD) werden mit einem ungesunden Lebensstil in Verbindung gebracht und verursachen extrem hohe Kosten für das Gesundheitssystem. In dieser Studie wollen wir untersuchen, ob individualisierte Aerobic-Übungen (AEx) und kohlenhydratarme Diät (LCh) Interventionen den Leberfettgehalt (HFC) bei Prädiabetes durch Modifikation der Darmmikrobiotazusammensetzung und andere postinterventionelle Effekte beeinflussen.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-14-48 f3d27d5bad00efd0c21eb2597e0a97db;de;;;6.2.;;;Therapietreue bei HIV-positiven Patienten mit Diabetes oder Bluthochdruck: eine Fokusgruppenstudie Menschen mit HIV leben länger mit einer wirksamen antiretroviralen Therapie (ART), und HIV wird zunehmend durch andere chronische medizinische Komorbiditäten kompliziert. Das Ziel dieser Studie war es, die Perspektiven von HIV-positiven Patienten zum Leben mit HIV und Diabetes mellitus (DM) oder Bluthochdruck (HTN) und Faktoren zu untersuchen, die die Medikamenteneinnahme beeinflussen.;-;-;-;https://link.springer.com/article/10.1186/1472-6963-13-488 ea6b3e9c2c78982ad1673b442e5191d1;de;;;6.2.;;;Verbreitung evidenzbasierter Praxis: Können wir Therapeuten aus der Ferne ausbilden? Obwohl das Wissen über die Wirksamkeit von Verhaltensinterventionen bei Kindern mit ASS zunimmt, sind Studien zur Wirksamkeit und Übertragbarkeit in Gemeinschaftseinrichtungen erforderlich. Die aktuelle Studie führte eine Wirksamkeitsstudie durch, um Fernunterricht mit Live-Unterricht zu vergleichen, um gemeindebasierte Therapeuten zu trainieren, um das Denver-Frühstart-Modell umzusetzen. Die Ergebnisse zeigten: (a) Fernunterricht und Live-Unterricht waren gleichermaßen effektiv, um Therapeuten sowohl bei der Umsetzung des Modells als auch bei der Schulung der Eltern zu unterrichten, (b) didaktische Workshops und Teamsupervision waren erforderlich, um die Fähigkeiten der Therapeuten zu verbessern, (c) signifikante Fortschritte bei Kindern trat im Laufe der Zeit und über die Unterrichtsmodalitäten hinweg auf, und (d) die Eltern setzten das Modell nach dem Coaching geschickter um. Implikationen werden in Bezug auf den wirtschaftlichen und klinischen Nutzen des Fernunterrichts diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s10803-009-0796-2 d0c8cff6163e28a6fe055d1bbd3e2ba7;de;;;6.2.;;;Wirbelsäulenschmerzen und Ernährung bei Jugendlichen – eine explorative Querschnittsstudie Wirbelsäulenschmerzen sind ein wichtiges Gesundheitsproblem für Jugendliche, das bei vielen zu Funktionseinschränkungen führt und das Risiko von Wirbelsäulenschmerzen im Erwachsenenalter erhöht. Während Human- und Tierstudien darauf hindeuten, dass die Ernährung Wirbelsäulenschmerzen beeinflussen könnte, wurde dies bei Jugendlichen nicht untersucht. Das Ziel dieser explorativen Querschnittsstudie war es, den Zusammenhang zwischen Ernährung und Wirbelsäulenschmerzen bei Jugendlichen zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/1471-2474-11-138 dbad812aa9e544fe6996c4c694aa0e72;de;;;6.2.;;;Gesundheitssuchendes Verhalten, Erfahrung im Gesundheitssystem und Tuberkulose-Fälle bei Gambiern mit Husten Studien in Afrika, die gesundheitsorientiertes Verhalten durch Befragungen von Tuberkulosepatienten untersuchten, haben Probleme mit dem Patientenwissen und erhebliche Verzögerungen bei der Diagnose aufgezeigt. Unser Ziel war es, das gesundheitsorientierte Verhalten und die Erfahrung von Menschen mit Husten in Gambia zu untersuchen und festzustellen, ob sie Tuberkulose hatten.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-6-143 a09de49e1fbfa8baccddbedbd71c09f8;de;;;6.2.;;;Cloud-Architekturen der nächsten Generation In diesem Kapitel werden die Entwicklung von Cloud-Infrastrukturen und die Auswirkungen des IoT erörtert. Wir diskutieren die Notwendigkeit einer heterogenen Ressourcenintegration bei der Ressourcenbereitstellung und die Notwendigkeit, den goldenen Schnitt zwischen Cloud, Fog und Edge für eine optimale Benutzererfahrung zu finden. Die Komplexität im gesamten Cloud-to-Ding-Kontinuum nimmt rasant zu. Eine Möglichkeit, wie sich Cloud Computing anpassen kann, besteht darin, Selbstverwaltungs- und Selbstorganisationstechniken und -methoden zu integrieren, um die Dienstverfügbarkeit zu erhalten und Verletzungen der Dienstqualität und der Erfahrung der Benutzer zu vermeiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-41110-7_2 e1fa6af61e2afc2ecebad1457de3f98c;de;;;6.2.;;;In-vivo-Verdaulichkeit von sechs ausgewählten Futterarten durch Ziegen in Nordghana Eine in vivo-Verdaulichkeitsstudie wurde durchgeführt, um die Verdaulichkeit von sechs Futtermitteln zu bewerten. Dies waren ausgewählte einheimische Grasarten und Erdnusskraut in den Distrikten Lawra und Jirapa der Upper West Region von Ghana. Als Kontrolle diente Erdnusskraut aufgrund seiner bekannten guten Verdaulichkeit bei kleinen Wiederkäuern. Es wurden 30 junge kastrierte Westafrikanische Zwergziegen (WAD) mit einem Durchschnittsalter von 8 Monaten verwendet. Das durchschnittliche Lebendgewicht betrug 8,9 ± 0,1 kg. Die Tiere wurden zufällig den sechs Behandlungen zugeordnet und fünfmal in einem vollständig randomisierten Design repliziert. Sie wurden in Stoffwechselkäfige eingesperrt. Die Anpassungszeit betrug 3 Wochen, danach wurden die Daten 10 Tage lang erfasst. Die Behandlungen waren die Blätter und winzigen Zweige von T1;-;-;-;https://link.springer.com/article/10.1007/s11250-019-01989-w 1ab484e1f2af87c9bcc755a3302b7c44;de;;;6.2.;;;Kardiorenale Interventionsstudie zu Typ-1-Diabetes bei Jugendlichen (AdDIT) Die Prognose für junge Menschen, bei denen im Kindesalter Diabetes diagnostiziert wurde, ist nach wie vor schlecht und dies hängt hauptsächlich mit dem langfristigen Risiko zusammen, vaskuläre Komplikationen zu entwickeln.;-;-;-;https://link.springer.com/article/10.1186/1471-2431-9-79 f684c4c79c081784fd7bcd53bcdb82ff;de;;;6.2.;;;IVF/ICSI-Ergebnisse nach Kultur menschlicher Embryonen bei niedriger Sauerstoffspannung: eine Metaanalyse Verbesserte Schwangerschafts-, Implantations- und Geburtenraten wurden nach der Verwendung einer reduzierten O2-Konzentration während der Embryokultur berichtet, hauptsächlich aufgrund einer Verringerung der kumulativen schädlichen Wirkungen reaktiver Sauerstoffspezies. Einige Studien haben jedoch keine positiven Auswirkungen berichtet. Das Ziel dieser Metaanalyse war es, die Auswirkungen einer Umgebung mit niedrigem O2-Gehalt auf die Ergebnisse der IVF/intrazytoplasmatischen Spermieninjektion (ICSI) zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/1477-7827-9-143 b46054fe476590ca6872a0fbce9f7b10;de;;;6.2.;;;Sonderbericht 2: Forschung zur Revolution der Energienachfrage in China Internationale Erfahrungen legen nahe, dass sich Chinas nächste Energiewende auf die Energiequalität statt auf die Quantität konzentrieren wird. Chinas rasantes Wirtschaftswachstum seit den 1980er Jahren wurde zum Teil durch einen erheblichen Ausbau des Energiesystems angetrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-40154-2_3 9a7cdb493567314ad76e5d7b9acdb510;de;;;6.2.;;;Test-Bias in klinischen Datenbanken: methodische Überlegungen Labortests in der klinischen Praxis sind nie ein zufälliger Prozess. In dieser Studie haben wir die Testverzerrung für die Neutrophilenzahl in der klinischen Praxis anhand von Ergebnissen aus angeforderten und nicht angeforderten hämatologischen Bluttests untersucht.;-;-;-;https://link.springer.com/article/10.1186/1742-7622-7-2 e64579066331f29c558e1b706563eecb;de;;;6.2.;;;RubiN – kontinuierliche Versorgung in regionalen Netzwerken: ein Studienprotokoll für eine prospektive kontrollierte Studie Die Versorgungssituation geriatrischer Patienten ist oft vielschichtig, komplex und überschneidet sich oft mit den sozialen Lebensbedingungen. Aufgrund der fehlenden sektorübergreifenden und interprofessionellen Gesundheitsversorgung werden geriatrische Patienten häufig unzureichend versorgt. Nur eine ganzheitliche Betrachtung ermöglicht eine umfassende Bewertung der komplexen Gesundheitsrisiken, aber auch des Potenzials zum Erhalt der Gesundheit von geriatrischen Patienten. Die Implementierung eines sektorübergreifenden, multiprofessionellen Case Managements könnte die Versorgungslücken verringern, die Autonomie der geriatrischen Patienten im eigenen Zuhause verbessern und ihnen einen möglichst langen Verbleib ermöglichen.;-;-;-;https://link.springer.com/article/10.1186/s12877-021-02106-z 4e008d7738cbe7661628d4dbaaeb9a50;de;;;6.2.;;;Globales Genexpressionsprofil von Pyronaridin (PN) und Chloroquin (CQ) sind strukturell verwandte Anti-Malaria-Medikamente mit primär der gleichen Wirkungsweise. PN ist jedoch gegen mehrere multiresistente Linien von . wirksam;-;-;-;https://link.springer.com/article/10.1186/1475-2875-10-242 bb9b755e35a57db0d6d8a17b6841db52;de;;;6.2.;;;Demographie, Müttergesundheit und Epidemiologie von Malaria und anderen wichtigen Infektionskrankheiten im ländlichen Departement Tsamba-Magotsi, Provinz Ngounie, im zentralafrikanischen Gabun Subsahara-Afrika durchläuft einen epidemiologischen Übergang von einer Dominanz von Infektionskrankheiten zu nicht übertragbaren und lebensstilbedingten Erkrankungen. Das Tempo dieses Übergangs und das Muster der Krankheitsepidemiologie sind jedoch zwischen wohlhabenden städtischen und ländlichen armen Bevölkerungsgruppen unterschiedlich. Um diese Frage für eine abgelegene ländliche Region in der zentralafrikanischen Regenwaldregion Gabun zu beantworten, wurde diese Studie durchgeführt, um die Gründe für die Inanspruchnahme der Gesundheitsversorgung zu bewerten und die Epidemiologie von Malaria und anderen wichtigen Infektionskrankheiten für das Departement Tsamba Magotsi zu charakterisieren.;-;-;-;https://link.springer.com/article/10.1186/s12889-017-4045-x b0a220f7e64673af59089b356c1c7b1f;de;;;6.2.;;;JinQi-Jiangtang Tablette, ein chinesisches Patentarzneimittel, für Prädiabetes: eine randomisierte kontrollierte Studie Prädiabetes ist ein wachsendes Gesundheitsproblem, bei dem ein großer Prozentsatz dieser Patienten einen vollständigen Typ-2-Diabetes entwickelt. Wirksame Interventionen bei Prädiabetes können das Auftreten oder die Entwicklung von Diabetes verhindern oder verzögern. Pharmakodynamik und präklinische JinQi-Jiangtang-Tabletten (JQJT) deuten darauf hin, dass es für Prädiabetes von Vorteil sein könnte.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-11-27 c8574ac6aae1dce5d60712d6c7911fcb;de;;;6.2.;;;Eine vergleichende Analyse von Chiropraktik- und Allgemeinmedizinerpatienten in Nordamerika: Ergebnisse der gemeinsamen Gesundheitsstudie zwischen Kanada und den USA, 2002–03 Wissenschaftlich rigorose bevölkerungsbasierte Studien zum Vergleich von Chiropraktik mit medizinischen Patienten in der Grundversorgung innerhalb und zwischen Ländern wurden nicht veröffentlicht. Das Ziel dieser Studie ist es, Pflegesuchende von Ärzten der Chiropraktik (DCs) und Allgemeinmedizinern (GPs) in den Vereinigten Staaten und Kanada anhand einer umfassenden Reihe von soziodemografischen, Lebensqualitäts- und gesundheitsbezogenen Variablen zu vergleichen.;-;-;-;https://link.springer.com/article/10.1186/1472-6963-6-49 d8b9f809d54c23bd9df19af3087cbff5;de;;;6.2.;;;Überleben bei Patienten mit schweren HWS-Verletzungen – eine TraumaRegister DGU®-Datenbankstudie Traumata sind eine wesentliche Ursache für Tod und Beeinträchtigung. Die Abbreviated Injury Scale (AIS) differenziert die Schwere des Traumas und ist die Grundlage für verschiedene Trauma-Scores und Vorhersagemodelle. Während die Mehrzahl der Patienten Verletzungen, die mit einem AIS 6 kodiert sind, nicht überlebt, gibt es mehrere Patienten mit einer schweren hochgradig zervikalen Rückenmarksverletzung, die trotz Prognose von Trauma-Scores aus dem Krankenhaus entlassen werden könnten. Wir schätzen, dass die Trauma-Scores und Vorhersagemodelle diese Verletzungen falsch einschätzen. Aus diesem Grund haben wir diese Ergebnisse in einer größeren Kontrollgruppe ausgewertet.;-;-;-;https://link.springer.com/article/10.1186/s13049-020-00820-y d2b3780f2469ea56ec215c215df52e93;de;;;6.2.;;;Semantisch aktiviertes und statistisch unterstütztes Testen biologischer Hypothesen mit Gewebe-Microarray-Datenbanken Obwohl viele biologische Datenbanken semantische Web-Technologien verwenden, können aussagekräftige biologische Hypothesentests nicht einfach durchgeführt werden. Datenbankgesteuerte genomische Hypothesentests mit hohem Durchsatz erfordern sowohl die Fähigkeit, semantisch relevante experimentelle Daten zu erhalten als auch relevante statistische Tests für die abgerufenen Daten durchzuführen. Tissue Microarray (TMA)-Daten sind semantisch reich und enthalten viele biologisch wichtige Hypothesen, die auf Schlussfolgerungen mit hohem Durchsatz warten.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-12-S1-S51 5482f555090e26bdde41d0b13d4d5a26;de;;;6.2.;;;Abgrenzung von Veränderungen in Bodenerosionsrisikozonen mithilfe des RUSLE-Modells basierend auf einer Verwirrungsmatrix für das Einzugsgebiet des Urmodi-Flusses, Maharashtra, Indien Bodenverlust durch Wassererosion ist ein häufiges Problem der Landdegradation in den hügeligen Regionen der Welt. Die vorliegende Studie untersucht das Bodenerosionsrisiko aufgrund der Änderung der Landnutzungsfläche (LULC), die durch den Bau eines Damms in einer hügeligen Wasserscheide des Flusses Urmodi auf dem Kaas-Plateau, einem Weltkulturerbe, entsteht. Das Revised Universal Soil Loss Equation (RUSLE)-Modell wurde mit einer Änderungserkennungsanalyse für die Schätzung der Bodenerosion verwendet. Thematische Schichten, die für die Berechnung der in RUSLE erforderlichen Faktoren erforderlich sind, wurden mithilfe von Techniken der Fernerkundung (RS) und Geographical Information Science gesammelt. Die Veränderungen der LULC wirken sich auf die Bodenerosionsphänomene aus und daher analysiert die vorliegende Studie drastische Veränderungen in der hydrologischen Natur der Wasserscheide, die durch den Bau des Stausees durch das Aufstauen des Flusses Urmodi verursacht wurden. Zur Bewertung der Auswirkungen des Damms haben wir RS-Daten mit einer räumlichen Auflösung von 30 m verwendet, die das digitale Höhenmodell und Landsat TM- und Landsat 8-Bänder umfassen. Mit RUSLE wurde die Bodenrisikozone kartiert und die Änderungserkennung in Zonen berechnet. Die sehr einfache Logik der „Bodenerosionsklasse als Art der Landbedeckung“ wurde erfolgreich angewendet, um den Änderungsübergang für das Einzugsgebiet des Flusses Urmodi durchzuführen. Die Verwechslungsmatrix-Technik, die zur Analyse der Änderung verwendet wird, hat die Fähigkeit, den vorherigen und nächsten Zustand des Zonentyps sehr affektiv mit guter Präzision anzuzeigen. Zusammen mit der Änderungserkennungstechnik wurde auch eine Übergangsoperation der Bodenerosionsklasse durchgeführt, um die Umwandlung von Zonen zu bewerten. Dies lieferte den wichtigen Output bezüglich einer erhöhten Umwandlung von einer sehr geringen in eine sehr starke Risikozone um 70,22 km;-;-;-;https://link.springer.com/article/10.1007/s40808-020-00965-w 76fe6477bd36977f172ed9c539a6d69f;de;;;6.2.;;;Eine auf genetischen Algorithmen basierende gewichtete Ensemblemethode zur Vorhersage von Transposon-abgeleiteten piRNAs Die Vorhersage von piwi-interagierender RNA (piRNA) ist ein wichtiges Thema bei den kleinen nicht-kodierenden RNAs, das Hinweise zum Verständnis des Erzeugungsmechanismus von Gameten liefert. Nach unserem besten Wissen wurden mehrere Ansätze des maschinellen Lernens für die piRNA-Vorhersage vorgeschlagen, aber es gibt noch Raum für Verbesserungen.;-;-;-;https://link.springer.com/article/10.1186/s12859-016-1206-3 1cfecc4e673645c9b92f8d392e0c9630;de;;;6.2.;;;Protokoll für eine randomisierte Studie zur Wirkung von Gruppenschulungen auf das hautschützende Verhalten im Vergleich zur üblichen Behandlung bei Personen mit neu gemeldetem berufsbedingtem Handekzem – die Prävention von Handekzemen (PREVEX) Trial Die Inzidenz des berufsbedingten Handekzems beträgt ca. 0,32 pro 1.000 Personenjahre. Die Krankheitslast ist hoch, da fast 60 % im ersten Jahr nach der Meldung ekzembedingt krankgeschrieben sind und 15 % 12 Jahre nach Krankheitsbeginn vom Erwerbsleben ausgeschlossen sind. Neue Behandlungen und Präventionsstrategien sind erforderlich.;-;-;-;https://link.springer.com/article/10.1186/1471-5945-13-16 62b8f2ad82634cec30aeb5485fa2e34e;de;;;6.2.;;;Eine randomisierte, doppelblinde Phase-III/IV-Studie zur Wirksamkeit und Sicherheit von Avastin® Die Behandlung der neovaskulären altersbedingten Makuladegeneration (nAMD) wurde durch die Einführung von Wirkstoffen, die durch intravitreale Injektion verabreicht werden und die die Wirkung des vaskulären endothelialen Wachstumsfaktors A (Anti-VEGF-Wirkstoffe) blockieren, verändert. Ein weit verbreiteter Wirkstoff ist Bevacizumab, der ursprünglich für den Einsatz in der Onkologie entwickelt wurde. Die meisten Beweise für die Anwendung von Bevacizumab bei nAMD stammen aus interventionellen Fallserien, und diese klinische Studie wurde aufgrund der zunehmenden und weit verbreiteten Verwendung dieses Wirkstoffs bei der Behandlung von nAMD (einer Off-Label-Indikation) trotz fehlender definitiver unvoreingenommene Daten zur Sicherheit und Wirksamkeit.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-9-56 552a619a154010739dc55d28dd3d2729;de;;;6.2.;;;Malaria im ländlichen Mosambik. Teil II: Kinder ins Krankenhaus eingeliefert Die Charakterisierung schwerer Malariafälle bei der Ankunft im Krankenhaus kann zu einer Früherkennung und einer verbesserten Behandlung führen. Die minimalen gemeindebasierten Inzidenzraten (MCBIRs) ergänzen die Krankenhausdaten und beschreiben die Malariabelastung in der Gemeinde.;-;-;-;https://link.springer.com/article/10.1186/1475-2875-7-37 ae2e5951340b685790a2eb68b2bfd9d7;de;;;6.2.;;;Bioinformatische Ansätze zur speziesübergreifenden Leberkrebsanalyse basierend auf Microarray-Genexpressionsprofilen Der Abschluss der Sequenzierung von Human-, Maus- und Rattengenomen und die Kenntnis der speziesübergreifenden Genhomologien ermöglichen Untersuchungen zur differentiellen Genexpression in Tiermodellen. Diese Art von Studien haben das Potenzial, unser Verständnis von Krankheiten wie Leberkrebs beim Menschen erheblich zu verbessern. Gene, die über mehrere Arten koexprimiert werden, haben höchstwahrscheinlich konservierte Funktionen. Wir haben verschiedene bioinformatische Ansätze verwendet, um Mikroarray-Expressionsprofile von Leberneoplasmen zu untersuchen, die in Albumin-SV40-transgenen Ratten auftreten, um Gene, Chromosomenaberrationen und Signalwege aufzuklären, die mit menschlichem Leberkrebs in Verbindung gebracht werden könnten.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-6-S2-S6 2f5105b9b201eda8c82be95404696c20;de;;;6.2.;;;Die Auswirkungen eines staatlichen Gehirnerschütterungsgesetzes auf die Häufigkeit sportbedingter Gehirnerschütterungen in zwei Notaufnahmen Connecticut (CT) verabschiedete 2010 sein ursprüngliches Gesetz zu sportbezogenen Gehirnerschütterungen (SRC) (PA 10-62). Das Gesetz verlangt, dass ein Gesundheitsfachmann High-School-Athleten mit Gehirnerschütterungssymptomen bewertet. Der Zweck dieser Studie bestand darin, zwei Aufzeichnungen der Notfallabteilung des Traumazentrums (ED) der Stufe 1 für SRC vor und nach dem Connecticut Public Act (CT PA) 10-62 auszuwerten, um festzustellen, ob das Gesetz einen Einfluss auf die Vorlage von SRCs.;-;-;-;https://link.springer.com/article/10.1186/s40621-015-0034-7 1786bd5527cc3dca40c56c324ffcb724;de;;;6.2.;;;Intermittierende Präventivbehandlung: Wirksamkeit und Sicherheit von Sulfadoxin-Pyrimethamin- und Sulfadoxin-Pyrimethamin- plus Piperaquin-Therapien bei Schulkindern der Demokratischen Republik Kongo: ein Studienprotokoll für eine randomisierte kontrollierte Studie In Malaria-Endemiegebieten haben Schulkinder meist asymptomatische Malariainfektionen und bleiben folglich unbehandelt. Daher wäre eine intermittierende präventive Behandlung mit Sulfadoxin-Pyrimethamin bei Schulkindern eine plausible Strategie in malariastabilen Übertragungsgebieten, um Anämie und Mangelernährung zu verhindern. Im Gegensatz zum Säuglingsalter und der Schwangerschaft ist die intermittierende Vorbeugung gegen Malaria bei Kindern jedoch kaum erforscht. Da die Durchführung einer intermittierenden präventiven Behandlung durch eine Sulfadoxin-Pyrimethamin-Resistenz in Frage gestellt werden kann, kann Sulfadoxin-Pyrimethamin in Kombination mit Piperaquin eine bessere Alternative zur Sulfadoxin-Pyrimethamin-Monotherapie sein. Eine klinische Studie wird durchgeführt, um die Wirksamkeit und Sicherheit von intermittierenden präventiven Behandlungen im Vergleich zu Kontrollen bei Schulkindern der Demokratischen Republik Kongo (DRKongo) und deren Auswirkungen auf die Sulfadoxin-Pyrimethamin-Resistenz zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-14-311 d33115f87684b3267909a538fa6c1183;de;;;6.2.;;;Ergebnis nach chirurgischer Behandlung von Liquorleckagen bei spontaner intrakranieller Hypotonie – eine Frage der Zeit Austreten von Spinaler Liquor (CSF) führt zu einer spontanen intrakraniellen Hypotonie (SIH). Durch die Mikrochirurgie können Liquorlecks der Wirbelsäule ausreichend verschlossen werden. Einige Patienten leiden jedoch an Restsymptomen. Ziel der Studie war es, Prädiktoren für ein günstiges Ergebnis nach chirurgischer Behandlung von SIH zu bewerten.;-;-;-;https://link.springer.com/article/10.1007/s00415-021-10710-7 d2a51bff815e2f9a0df8b0a85293a28e;de;;;6.2.;;;Wie Daten und digitale Technologien Bildungssysteme verändern können Die digitale Transformation verändert weltweit viele Elemente der Gesellschaft. Wenn neue Technologien auf den Markt kommen, verändern sie grundlegend, wie Menschen Informationen austauschen und Aktivitäten organisieren. Doch trotz dieses Umbruchs leidet die Bildung noch immer unter einer globalen Lernkrise. Digitale Technologien haben das Potenzial, das Lernen in einem Zeitalter des Umbruchs voranzutreiben: Verbesserung der Lernergebnisse und Verbesserung der Systeme für Schüler, Lehrer und Entscheidungsträger. In diesem Kapitel diskutieren wir, wie dies nur möglich ist, wenn Systeme um Daten herum entworfen werden. Masseninvestitionen in digitale Hardware um der Hardware willen haben sich immer wieder als stumpf und ineffektiv erwiesen und bringen nur wenige Gewinne. Nur Computer oder Telefone zu haben, reicht nicht aus, um eine lernende Gesellschaft zu schaffen. Stattdessen müssen Bildungsverantwortliche darüber nachdenken, welche Daten vorhanden sind, wie Daten gesammelt, standardisiert und genutzt werden können. Dies kann eine bessere Ressourcenzuweisung, personalisierte Unterstützung für Studenten, schnellere Lehrplanüberprüfungen und mehr ermöglichen, was zu einer lernenden Gesellschaft für alle führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0983-1_21 515848f18b48fcfdaa428e74ec5e2ce1;de;;;6.2.;;;Beschleunigung der klinischen Entwicklung von HIV-Impfstoffstrategien: methodische Herausforderungen und Überlegungen bei der Konstruktion eines optimierten mehrarmigen Studiendesigns der Phase I/II Viele mögliche Impfstoffstrategien gegen eine Infektion mit dem Humanen Immunschwächevirus (HIV) werden derzeit untersucht, aber ihre klinische Entwicklung ist langwierig und iterativ. Um die Entwicklung von HIV-Impfstoffen zu beschleunigen, sind optimierte Studiendesigns erforderlich. Wir schlagen ein randomisiertes mehrarmiges Phase-I/II-Design für die frühe Entwicklung mehrerer Impfstoffstrategien vor, mit dem Ziel, diejenigen, die unsicher oder nicht immunogen sind, schnell zu verwerfen.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-15-68 47e57068b65bb411b2f0aa9121b5ca6a;de;;;6.2.;;;Welche Daten erhält man in der Hochenergiephysik? Die Konstruktion von Daten am Large Hadron Collider In heutigen Experimenten der Hochenergiephysik müssen Experimentatoren verschiedene Urteile treffen, um automatisierte Datenverarbeitungssysteme innerhalb der bestehenden technischen Grenzen zu entwerfen. In diesem Kapitel betrachte ich als Fallstudie das automatisierte Datenerfassungssystem, das im ATLAS-Experiment am Large Hadron Collider (LHC) am CERN verwendet wird, wo 2012 das Higgs-Boson entdeckt wurde. Ich zeige, dass das Design dieses Systems beinhaltet sowohl theoretische als auch experimentelle Beurteilungen, von denen jede unterschiedliche Funktionen bei der anfänglichen Datenreise hat, durch die verwendbare Daten aus Kollisionsereignissen konstruiert werden, die vom ATLAS-Detektor erfasst werden. Ich untersuche auch, welche Anforderungen die vorstehenden Urteile an die LHC-Daten in Bezug auf Benutzerfreundlichkeit, Mobilität und Wandelbarkeit stellen. Ich argumentiere, dass diese Datenaspekte in heutigen HEP-Experimenten unterschiedlich sind, aber miteinander verbunden sind, da sie einigen gemeinsamen Anforderungen unterliegen, die durch die theoretischen und experimentellen Beurteilungen beim Design von Datenerfassungssystemen auferlegt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37177-7_3 e06b0d37e8866d617e0ed4884a480526;de;;;6.2.;;;Ein Überblick über strukturelle und funktionelle Gehirnnetzwerke: kleine Welt und Atlas Gehirnnetzwerke lassen sich in zwei Kategorien einteilen: strukturelle und funktionale Netzwerke. Viele Studien der Neurowissenschaften haben berichtet, dass die komplexen Gehirnnetzwerke durch kleine Welten oder skalenfreie Eigenschaften gekennzeichnet sind. Die Identifizierung von Knoten ist der Schlüsselfaktor bei der Untersuchung der Eigenschaften von Netzwerken auf der Makro-, Mikro- oder Mesoskala sowohl in strukturellen als auch in funktionalen Netzwerken. Bei der Untersuchung von Gehirnnetzwerken werden Knoten immer durch Atlanten bestimmt. Daher ist die Auswahl von Atlanten kritisch und geeignete Atlanten sind hilfreich, um die Analysen von strukturellen und funktionalen Netzwerken zu kombinieren. Derzeit bestehen noch einige Probleme bei der Erstellung oder Verwendung von Atlanten, die oft durch die Segmentierung oder Parzellierung des Gehirns verursacht werden. Wir vermuten, dass die Quantifizierung von Hirnnetzwerken in hohem Maße durch die Auswahl von Atlanten beeinflusst werden könnte. Bei der Erstellung von Atlanten sollten die Einflüsse einzelner Fächer und Gruppen ausbalanciert werden. In diesem Artikel haben wir uns auf die Auswirkungen von Atlanten auf die Analyse von Gehirnnetzwerken und die verbesserte Aufteilung basierend auf der Traktographie oder Konnektivität bei der Parzellierung von Atlanten konzentriert.;-;-;-;https://link.springer.com/article/10.1007/s40708-015-0009-z 337a61e247df21998ccfde28b7744941;de;;;6.2.;;;Passives Beinheben (PLR) während kardiopulmonaler (CPR) – ein Methodenartikel zu einer randomisierten Überlebensstudie bei außerklinischem Herzstillstand (OHCA) Es wird geschätzt, dass jedes Jahr in Europa etwa 275.000 Einwohner einen Herzstillstand außerhalb des Krankenhauses (OHCA) erleiden. Die Überlebensrate bei einem Herzstillstand außerhalb des Krankenhauses ist relativ gering, im Allgemeinen zwischen fünf und zehn Prozent. In der Lage zu sein, neue Methoden zu erforschen, um die relativ niedrige Überlebensrate zu verbessern, ist für Menschen mit diesen Erkrankungen von entscheidender Bedeutung. Es wurde festgestellt, dass passives Beinheben (PLR) während der Herz-Lungen-Wiederbelebung (HLW) die Vorbelastung des Herzens und den Blutfluss während der Herzdruckmassage verbessert.;-;-;-;https://link.springer.com/article/10.1186/1471-227X-14-15 1d25607ea88ba5bfe8c4dcc9e18df796;de;;;6.2.;;;Adoleszente Depression, frühe psychiatrische Komorbiditäten und Sozialhilfebelastung im Erwachsenenalter: eine 25-jährige Längsschnittstudie Depressionen in jedem Alter werden als weltweites Problem der öffentlichen Gesundheit anerkannt, aber über die soziale Belastung nach einer Depression im frühen Leben ist weniger bekannt. Diese Studie zielte darauf ab, (1) das Ausmaß der Assoziationen zwischen Depressionen in der Adoleszenz und Sozialtransferzahlungen im Erwachsenenalter abzuschätzen und (2) die Auswirkungen der wichtigsten komorbiden Psychopathologie auf diese Assoziationen zu untersuchen.;-;-;-;https://link.springer.com/article/10.1007/s00127-021-02056-2 c0fdccf4b533feb58ab013bf999e7905;de;;;6.2.;;;Zwischenjährliche und dekadische Veränderungen des troposphärischen Ozons in China und die damit verbundenen Wechselwirkungen zwischen Chemie und Klima: Ein Überblick China hat aufgrund der schnellen Industrialisierung und Urbanisierung in den letzten Jahrzehnten eine weit verbreitete Luftverschmutzung erfahren. Die beiden Hauptprobleme der Luftqualität in China sind Feinstaub (PM) und troposphärisches Ozon (O;-;-;-;https://link.springer.com/article/10.1007/s00376-019-8216-9 68c57e10312e7edb7de5c8ca99dddd7f;de;;;6.2.;;;Blutblei ist bei koreanischen Erwachsenen signifikant mit dem metabolischen Syndrom verbunden: eine Analyse basierend auf der Korea National Health and Nutrition Examination Survey (KNHANES), 2008 Obwohl ein Zusammenhang zwischen einer geringen Umweltbelastung durch Schwermetalle und der Inzidenz des metabolischen Syndroms (MS) vermutet wurde, wurde auf bevölkerungsweiter Ebene wenig Forschung zu diesem Thema durchgeführt.;-;-;-;https://link.springer.com/article/10.1186/1475-2840-12-9 d5590c39af2efca47d497a98922eadf0;de;;;6.2.;;;Sicherheit der routinemäßigen Früh-MRT bei Frühgeborenen Die zerebrale MRT bei Frühgeborenen im terminäquivalenten Gestationsalter (GA) von 30 Wochen wird zunehmend als Teil der klinischen Standardversorgung durchgeführt.;-;-;-;https://link.springer.com/article/10.1007/s00247-012-2426-y d60f2578971ce41909124427df870ea9;de;;;6.2.;;;Vollständigkeit und Aktualität der Tuberkulosemeldung in Taiwan Tuberkulose (TB) ist eine meldepflichtige Krankheit nach dem Gesetz zur Kontrolle übertragbarer Krankheiten in Taiwan. Es wurden mehrere Maßnahmen ergriffen, um die Meldung von TB zu verbessern, aber die Vollständigkeit und Rechtzeitigkeit der TB-Meldung in Taiwan wurde noch nicht systematisch bewertet.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-11-915 0811e1cd0aaf35e3e778dbb9edd72c69;de;;;6.2.;;;Akademische Detaillierung von Hausärzten durch einen Atemwegsarzt zur Diagnose und Behandlung von refraktärer Atemnot: eine randomisierte Pilotstudie Academic Detailing (AD, auch als Bildungsbesuch bekannt) erleichtert die Umsetzung von Erkenntnissen in die Praxis und wurde international weithin angenommen, um Praxisänderungen zu erleichtern. Das Potenzial von AD in Verbindung mit einem bestimmten Patienten und einer Übertragung durch einen Facharzt an Allgemeinmediziner wurde nicht bewertet.;-;-;-;https://link.springer.com/article/10.1186/s12913-015-0861-9 255eb3711867a9237926e7805ee2727f;de;;;6.2.;;;Messungen der Quiet-Sun-Level-Helligkeitstemperatur bei 8 mm Die genaue Definition der Sonnenhelligkeitstemperatur im Millimeterwellenlängenbereich war schon immer eine Herausforderung. Einer der Hauptgründe war das Fehlen einer geeigneten Kalibrierquelle. New Moon wurde früher als Kalibrierungsquelle verwendet. Wir haben einen neuen umfangreichen Beobachtungssatz bei 8 mm mit dem Neumond zur Kalibrierung durchgeführt. Die Sonnen- und Mondbeobachtungen wurden mit dem 14-Meter-Radioteleskop des Metsähovi-Radioobservatoriums der Aalto-Universität in Finnland durchgeführt. In diesem Artikel stellen wir unsere Methode zur Bestimmung der Helligkeitstemperatur des Ruhe-Sonnen-Niveaus (QSL) vor. Basierend auf diesen Beobachtungen fanden wir;-;-;-;https://link.springer.com/article/10.1007/s11207-018-1380-8 9d004ea9f08beb02f40f139707d28b4e;de;;;6.2.;;;Die Wirksamkeit von Interventionen zur Behandlung von Fettleibigkeit bei Überlebenden von Hirntumoren im Kindesalter: ein systematisches Review-Protokoll Hirntumore bei Kindern sind die häufigsten soliden Tumoren bei Kindern. Fortschritte im Verständnis der Kennzeichen der Krebsbiologie und neuartige Therapien haben zu einer steigenden Zahl von Überlebenden von Hirntumoren im Kindesalter (SCBT) geführt. Diese Überlebenden haben jedoch ein erhöhtes Risiko für Fettleibigkeit und kardiometabolische Störungen, die ihre Lebensqualität und Lebensdauer beeinträchtigen. Es ist wichtig, wirksame Strategien zur Behandlung und Vorbeugung von Fettleibigkeit in dieser Bevölkerungsgruppe zu definieren. Dieses systematische Review zielt darauf ab, die Wirksamkeit von Lebensstilinterventionen, Pharmakotherapie und bariatrischen Operationen bei der Behandlung von Fettleibigkeit bei SCBT zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s13643-016-0274-9 a048cfd1d18c38fe40c4797e5a237bc9;de;;;6.2.;;;Soziokulturelle und sprachliche Grenzen, die die interkulturelle Kommunikation zwischen Pflegekräften und marokkanischen Patienten in Südspanien beeinflussen: eine fokussierte Ethnographie In den letzten 25 Jahren hat die kulturelle Vielfalt mit der globalen Migration stark zugenommen. Dies hat sich in den letzten Jahren im Süden Spaniens mit seiner stetig wachsenden marokkanischen Bevölkerung deutlich gezeigt. Die damit einhergehenden Unterschiede in den ethnokulturellen Werten und Traditionen zwischen der Aufnahme- und der Neuankömmlingsbevölkerung können sich stark auf die Interaktionen im Gesundheitswesen und damit auch auf eine effektive Versorgung auswirken. Diese Landschaft bietet eine hervorragende Erforschung der interkulturellen Kommunikation im Gesundheitswesen und die Aufklärung möglicher Wege zur Überwindung bestehender Barrieren bei der Bereitstellung kulturell kompetenter Pflege durch Pflegekräfte. Diese Studie zielte darauf ab, herauszufinden, wie Pflegekräfte ihre interkulturelle Kommunikation mit marokkanischen Patienten wahrnehmen und welche Barrieren offensichtlich sind, die eine effektive Kommunikation und Betreuung verhindern können.;-;-;-;https://link.springer.com/article/10.1186/1472-6955-12-14 4c574699a03d68424a5c660f635ed09f;de;;;6.2.;;;HEGPOL: Randomisierte, placebokontrollierte, multizentrische, doppelblinde klinische Studie zur Untersuchung der hepatoprotektiven Wirkung von Glycin in der postoperativen Phase der Lebertransplantation [ISRCTN69350312] Die Kupffer-Zell-abhängige Ischämie/Reperfusion (I/R)-Schädigung nach Lebertransplantation ist nach wie vor von hoher klinischer Relevanz, da sie stark mit primärer Dysfunktion und primärer Nichtfunktion des Transplantats assoziiert ist. Glycin, eine nicht-toxische, nicht-essentielle Aminosäure, wurde in verschiedenen Experimenten schlüssig gezeigt, um sowohl die Aktivierung von Kupffer-Zellen als auch die Reperfusionsschädigung zu verhindern. Basierend auf experimentellen und vorläufigen klinischen Daten wurde dieses Studienprotokoll entwickelt, um die frühe Wirkung von Glycin nach Lebertransplantation weiter zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/1471-2482-5-18 74ed2aefe13f34f149c4e12e0f142419;de;;;6.2.;;;Kulturelle Anpassung internet- und mobilbasierter Interventionen bei psychischen Störungen: ein systematisches Review-Protokoll Internet- und mobilbasierte Interventionen (IMI) sind eine effektive und skalierbare niedrigschwellige Lösung, um Menschen zu erreichen, die durch die derzeitige Gesundheitsversorgung unterversorgt sind. Die Anpassung der Interventionen an den kulturellen und ethnischen Hintergrund der Zielgruppe erhöht deren Akzeptanz und Wirksamkeit. Bisher wurde jedoch kein systematischer Ansatz zur kulturellen Anpassung des IMI etabliert. Daher zielt dieser Review darauf ab, Komponenten und Verfahren zusammenzufassen, die üblicherweise bei der kulturellen Anpassung von IMI bei psychischen Störungen verwendet werden, sowie die aktuelle Evidenzbasis, ob eine solche kulturelle Anpassung zu einer erhöhten Akzeptanz, Adhärenz und Wirksamkeit von IMI bei psychischen Störungen führt .;-;-;-;https://link.springer.com/article/10.1186/s13643-020-01438-y 3165235fb5ac74eb6ba3db1ca74e08e7;de;;;6.2.;;;Die Prävalenz des humanen Papillomavirus und seine Auswirkungen auf die zervikale Dysplasie in Nordkanada Bestimmte Typen des Humanen Papillomavirus (HPV) werden sexuell übertragen und sind stark mit der Entwicklung von zervikaler Dysplasie und Gebärmutterhalskrebs verbunden, aber die Verbreitung der HPV-Infektion im Norden, insbesondere unter den Völkern der First Nations, Metis und Inuit, ist wenig bekannt. Ziel der Studie ist es, die Prävalenz typspezifischer HPV-Infektionen und die Assoziation verschiedener HPV-Typen mit zervikaler Dysplasie bei Frauen in Nordkanada zu identifizieren.;-;-;-;https://link.springer.com/article/10.1186/1750-9378-8-25 0321e0fe3da8c2d1b78731825dba6b32;de;;;6.2.;;;Urbane Energiesysteme: Forschung am Oak Ridge National Laboratory In den kommenden Jahrzehnten wird unser Planet ein beispielloses städtisches Bevölkerungswachstum sowohl in etablierten als auch in aufstrebenden Gemeinden erleben. Der Ausbau und der Erhalt städtischer Infrastrukturen sind sehr energieintensiv. Städtische Gebiete werden durch komplexe Schnittstellen zwischen physischen, technischen und menschlichen Dimensionen bestimmt, die erhebliche Auswirkungen auf Verkehrsstaus, Emissionen und Energieverbrauch haben. In diesem Kapitel heben wir die jüngsten Forschungs- und Entwicklungsbemühungen am Oak Ridge National Laboratory (ORNL) hervor, dem größten wissenschaftlichen Mehrzwecklabor innerhalb des nationalen Laborsystems des US-Energieministeriums (DOE), das die Wechselwirkungen zwischen der menschlichen Dynamik und kritischen Infrastrukturen in in Verbindung mit der Integration von vier verschiedenen Komponenten: Daten, Modelle kritischer Infrastrukturen und skalierbare Berechnung und Visualisierung, alles im Kontext physischer und sozialer Systeme. Die Diskussionen konzentrieren sich auf vier zentrale aktuelle Themen: Bevölkerung und Landnutzung, nachhaltige Mobilität, Energie-Wasser-Nexus und städtische Resilienz, die sich gegenseitig mit der Mission des DOE und den charakteristischen wissenschaftlichen und technologischen Fähigkeiten von ORNL verbinden. Unter Verwendung von skalierbarem Computing, Datenvisualisierung und einzigartigen Datensätzen aus einer Vielzahl von Quellen fördert das Institut innovative interdisziplinäre Forschung, die die Expertise des ORNL in kritischen Infrastrukturen wie Energie, Wasser, Transport und Cyber ​​und deren Interaktionen mit der menschlichen Bevölkerung integriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8983-6_18 7e301612dda4358023a191fb0cdb4c49;de;;;6.2.;;;Vergleich der Selbstberichte von Kindern über depressive Symptome bei verschiedenen Familieninteraktionstypen in Nordtaiwan Frühere Forschungen haben gezeigt, dass familiäre Interaktionen mit depressiven Symptomen bei Kindern verbunden sind. Detaillierte Klassifikationen von Familieninteraktionstypen wurden jedoch nicht gründlich untersucht. Diese Studie zielt darauf ab, die Arten von familiären Interaktionen zu verstehen, die Kinder erleben, und die spezifischen Arten von familiären Interaktionen zu identifizieren, die mit einem höheren Risiko für depressive Symptome bei Kindern verbunden sind.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-7-116 e96a2008f7108d85322f452d94abcabc;de;;;6.2.;;;Verbesserte Entscheidungssicherheit durch artikelbasiertes pharmakometrisches Modell: Illustration mit einer placebokontrollierten Phase-II-Studie Ziel dieser Studie war es zu veranschaulichen, wie eine neue Methodik zur Bewertung der Ergebnismessungen klinischer Studien unter Verwendung eines Longitudinal-Item-Response-Theorie-basierten Modells (IRM) als Alternative zu wiederholten Messungen mit gemischten Modellen (MMRM) dienen könnte. Daten aus dem EXACT-Tool (Exazerbation of Chronic Pulmonary Disease), mit dem Häufigkeit, Schwere und Dauer von Exazerbationen bei COPD erfasst werden, wurden mit einem IRM analysiert. Das IRM beinhaltete ein abgestuftes Antwortmodell, das Itemparameter und Funktionen charakterisiert, die den Symptomzeitverlauf beschreiben. Gesamtscores wurden simuliert (Monat 12) unter Verwendung der Unsicherheit in Parameterschätzungen. Die 50. (2,5., 97,5.) Perzentile der resultierenden simulierten Unterschiede im durchschnittlichen Gesamtscore (Arzneimittel minus Placebo) repräsentierten die geschätzte Arzneimittelwirkung (95 % KI), die mit veröffentlichten MMRM-Ergebnissen verglichen wurde. Darüber hinaus wurden Unterschiede in Stichprobengröße, Sensitivität, Spezifität und Fehlern vom Typ I und II zwischen den Ansätzen untersucht. Die Patienten erhielten entweder zweimal täglich 75 mg Danirixin oral (;-;-;-;https://link.springer.com/article/10.1208/s12248-021-00600-1 66ec6b40e20bbc517468e63595863da4;de;;;6.2.;;;Blutmanagement bei gestufter bilateraler Knietotalendoprothetik in einem einzigen Krankenhausaufenthalt Nur wenige Literaturstellen haben das Blutmanagement bei Patienten untersucht, die mit stufenweiser bilateraler primärer Knietotalendoprothetik (TKA) in einem einzigen Krankenhausaufenthalt behandelt wurden. Daher zielt diese Studie darauf ab, die Wirksamkeit und Sicherheit des neu eingeführten multimodalen Blutmanagements (MBM) bei diesen Patienten zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s13018-014-0116-1 9066155e1286daa7a0fdea5a4d7340ed;de;;;6.2.;;;Rekonstruktionen von Flussabflüssen aus neuartigen spektralen Lumineszenz-Scans von massiven Korallenskeletten Massive Korallen an der Küste zeigen oft helle Lumineszenzlinien, die mit Flussflutfahnen in Küsteneinzugsgebiete in Verbindung gebracht wurden und daher das Potenzial haben, eine langfristige Aufzeichnung der Niederschläge im Hinterland zu liefern. Es wird angenommen, dass die Korallenlumineszenz durch den Einbau von Huminsäuren aus dem Boden entsteht, die während großer Überschwemmungen zum Riff transportiert werden. Korallen, die weit von terrestrischen Quellen entfernt sind, weisen im Allgemeinen nur stumpfe relativ breite Lumineszenzbänder auf, die auf saisonale Veränderungen der Korallendichte zurückgeführt werden. Wir testeten daher die Hypothese, dass eher spektrale Verhältnisse als konventionelle Lumineszenzintensität eine quantitative Proxy-Aufzeichnung des Flussabflusses ohne die verwirrenden Auswirkungen saisonaler Dichteänderungen liefern. Zu diesem Zweck haben wir eine neue, schnelle Spektrallumineszenz-Scanning-(SLS)-Technik entwickelt, die Emissionsintensitäten in rote, grüne und blaue Domänen (RGB) für ganze Kerne mit einer beispiellosen linearen Auflösung von 71,4 µm aufspaltet. Da Huminsäuren eine längere Emissionswellenlänge als das Korallenaragonit aufweisen, sollte die Normalisierung der spektralen Emissionen ein empfindliches optisches Huminsäure/Aragonit-Verhältnis für den Huminsäureabfluss ergeben, d. h. ein G/B-Verhältnis. Tatsächlich korrelieren die G/B-Verhältnisse und nicht die Intensitäten gut mit Ba/Ca, einem geochemischen Korallen-Proxy für den Sedimentabfluss, und mit Niederschlagsdaten, wie beispielsweise für Korallenaufzeichnungen aus Madagaskar. Korallenkerne zeigen auch in jüngster Zeit abnehmende Tendenzen der Lumineszenzintensität, die auch anderswo bei Korallen gemeldet werden. Solche Trends scheinen mit einem modernen Rückgang der Skelettdichte verbunden zu sein. Im Gegensatz dazu kennzeichnen die G/B-Spektralverhältnisse nicht nur die Auswirkungen einzelner Wirbelstürme, sondern implizieren auch, dass der Huminsäureabfluss in Madagaskar in den letzten Jahrzehnten zugenommen hat, während die Dichte der Korallenskeletts abgenommen hat. Folglich entfaltet die SLS-Technik die langfristige Wechselwirkung zwischen Huminsäureeinbau und Korallendichte, die frühere Versuche, Lumineszenzintensitäten als Proxy für den Flussabfluss zu verwenden, durcheinander gebracht hat.;-;-;-;https://link.springer.com/article/10.1007/s00338-010-0629-y a1bd8158481aac1b1a2fb7d3a8d0a958;de;;;6.2.;;;Untersuchung der Auswirkungen von Task-Shifting bei HIV durch eine systemdenkende Linse: der Fall Burkina Faso Während die Auswirkungen der Aufgabenverschiebung auf die Versorgungsqualität und die klinischen Ergebnisse in mehreren Studien nachgewiesen wurden, gibt es nur begrenzte Belege für ihre Auswirkungen auf das Gesundheitssystem als Ganzes. Diese Studie hat zwei Hauptziele. Die erste besteht darin, das breitere Spektrum der Auswirkungen der Aufgabenverschiebung durch eine systemdenkende Linse zu konzeptualisieren. Die zweite besteht darin, diese Effekte anhand einer Fallstudie zu untersuchen, bei der Task Shifting für HIV in Burkina Faso verwendet wird.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-13-997 404cb90d4c315c3d54f476e6534b25d9;de;;;6.2.;;;Forscher-Entscheidungsträger-Partnerschaften in der Versorgungsforschung: Praktische Herausforderungen, Leitbilder In der Versorgungsforschung wächst die Ansicht, dass Partnerschaften zwischen Forschern und Entscheidungsträgern (d. h. kollaborative Forschungsteams) die effektive Umsetzung und Nutzung von Forschungsergebnissen in Politik und Praxis verbessern werden. Aus diesem Grund erwarten die Agenturen zur Förderung der Gesundheitsforschung zunehmend, dass Gesundheitssystemmanager, politische Entscheidungsträger, Praktiker und Kliniker Mitglieder von geförderten Forschungsteams werden. Während diese Sichtweise die Aufnahme von Forschungsergebnissen verbessern kann, müssen die praktischen Herausforderungen des Aufbaus und der Aufrechterhaltung kollaborativer Forschungsteams mit Mitgliedern sowohl innerhalb als auch außerhalb des Forschungsumfelds berücksichtigt werden. In einer kleinen Literatursammlung wurden Probleme diskutiert, die bei der Durchführung von Forschungen im eigenen Umfeld auftreten können, jedoch fehlt es an klaren Leitlinien für den Umgang mit praktischen Herausforderungen, die in Forschungsteams auftreten können, die Teammitglieder umfassen, die Verbindungen zur Organisation/ Gemeinschaft untersucht werden (dh sind „Insider“).;-;-;-;https://link.springer.com/article/10.1186/1472-6963-12-280 19cc654b6463a523ac9b02305c73c69e;de;;;6.2.;;;Körperliche Aktivität, körperliche Selbstwahrnehmung und Depressionssymptome bei Patienten mit Major Depression: eine Mediationsanalyse Bewegungsmangel wird als einer der schädlichsten Einflüsse für lebensstilbedingte medizinische Komplikationen wie Adipositas, Herzerkrankungen, Bluthochdruck, Diabetes und vorzeitige Mortalität bei stationären und ambulanten Patienten mit Major Depression (MDD) diskutiert. Im Gegensatz dazu weisen Interventionsstudien darauf hin, dass mäßige bis starke körperliche Aktivität (MVPA) Komplikationen und Depressionssymptome selbst reduzieren könnte. Selbstberichtete Daten zu Depression [Beck-Depression-Inventory-II (BDI-II)], allgemeinem habituellen Wohlbefinden (FAHW), Selbstwertgefühl und körperlicher Selbstwahrnehmung (FAHW, MSWS) wurden im Querschnitt erhoben Studie mit 76 stationären und ambulanten Patienten mit MDD. MVPA wurde mit ActiGraph wGT3X + ® -Beschleunigungsmessern dokumentiert und die Fitness mit kardiopulmonalen Belastungstests (CPET) gemessen. Untergruppen wurden nach Aktivitätsgrad gebildet (niedriger PA definiert als MVPA < 30 min/Tag, moderater PA definiert als MVPA 30–45 min/Tag, hoher PA definiert als MVPA > 45 min/Tag). Die statistische Analyse wurde mit einem Mann-Whitney .-Gerät durchgeführt;-;-;-;https://link.springer.com/article/10.1007/s00406-021-01299-z fdb0eaa4d3cd5a130117030995fce1bf;de;;;6.2.;;;Spektrum von Herzerkrankungen in einem neuen kardiologischen Dienst in Nigeria: Eine echokardiographische Studie an 1441 Probanden in Abeokuta Die Echokardiographie ist ein nicht-invasives, relativ kostengünstiges und nützliches bildgebendes Verfahren zur Beurteilung von Herzerkrankungen. Das Verfahren hat eine zuverlässige Genauigkeit.;-;-;-;https://link.springer.com/article/10.1186/1756-0500-1-98 389ab4d2de37aeeaf0894b7396e9f8be;de;;;6.2.;;;Deckung des zukünftigen Energiebedarfs im Hindukusch-Himalaya Wie in früheren Kapiteln erwähnt, bilden die HKH-Regionen die Gesamtheit einiger Länder, einen Großteil anderer Länder und einen kleinen Prozentsatz weiterer Länder. Aus diesem Grund müssen wir, wenn wir über die Deckung des Energiebedarfs der HKH-Region sprechen, klarstellen, dass wir nicht unbedingt über die Länder sprechen, die die HKH beherbergen, sondern die klar abgegrenzten Bergregionen, die die HKH innerhalb dieser Länder bilden. Dann wird sofort klar, dass die Energieversorgung in einem Gebirgskontext erfolgen muss, der durch geringe Bevölkerungsdichte, niedrige Einkommen, verstreute Bevölkerungen, stark unterentwickelte Märkte, geringe Fähigkeiten und geringe Skaleneffekte gekennzeichnet ist. Mit anderen Worten, die Energiepolitik und -strategien für die HKH-Region müssen spezifisch für diese Bergkontexte sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-92288-1_6 540ef50b4fd169e5d0a0534f74187bb5;de;;;6.2.;;;Mammographische Dichte und Matrix-Metalloproteinasen im Brustgewebe Die mammographische Dichte ist ein starker Risikofaktor für Brustkrebs, jedoch sind die zugrunde liegenden histopathologischen Korrelate nicht klar. Matrix-Metalloproteinasen (MMPs) und ihre Inhibitoren (TIMPs) spielen in mehreren Stadien der Tumorentstehung eine wichtige Rolle. Diese Studie untersuchte den Zusammenhang zwischen der mammographischen Dichte und der Expression von MMPs 1, 3, 9 und 12 und TIMP3 in gutartigem und bösartigem Brustgewebe von 277 Frauen mit hauptsächlich kaukasischer und japanischer Abstammung. Gewebe-Microarrays mit bis zu 4 benignen und 4 malignen Kernen pro Frau wurden immunhistochemisch gefärbt und ausgewertet. Digitalisierte prädiagnostische Mammographien wurden mit einer computergestützten Methode auf Dichten untersucht. Allgemeine lineare Modelle, die um bekannte Störfaktoren bereinigt wurden, wurden verwendet, um die mittleren Dichten nach Färbungskategorie zu schätzen. Die starke Expression aller MMPs war in malignen Geweben etwa doppelt so häufig wie in benignen Geweben, während die TIMP3-Expression in Stromagewebe in benignen als in malignen Kernen höher war. Bei MMP3 und 9 färbten sich weniger als 10 % der Kerne positiv, daher wurden sie nicht weiter analysiert. Keiner der Marker zeigte einen statistisch signifikanten Zusammenhang mit der Brustdichte in der gesamten Studienpopulation und ethnisch-spezifische Ergebnisse waren widersprüchlich und schwer zu erklären. Obwohl dies nicht statistisch signifikant war, war die mittlere Dichte durchgängig niedriger mit einer umfangreicheren TIMP3-Expression im Stroma- und Epithelgewebe. Diese Ergebnisse deuten darauf hin, dass das höhere Brustkrebsrisiko bei Frauen mit dichter Brust durch eine geringere TIMP3-Expression beeinflusst werden kann. Zukünftige Untersuchungen zu Aktivitäten und Verhältnissen zusätzlicher Proteasen und ihrer Inhibitoren sowie zu anderen Signalwegen wie Entzündungen sind jedoch erforderlich.;-;-;-;https://link.springer.com/article/10.1007/s12307-009-0031-x 05d3074a5f745b9ed53f5bcf4be3dcb2;de;;;6.2.;;;Eine Microarray-Studie von MPP Dieser Artikel beschreibt eine Microarray-Studie einschließlich Datenqualitätskontrolle, Datenanalyse und Analyse des Mechanismus der Toxizität (MOT), die durch 1-Methyl-4-phenylpyridinium (MPP .) induziert wird;-;-;-;https://link.springer.com/article/10.1186/1471-2105-6-S2-S8 bf73ef06db00e415922882458c1eeb60;de;;;6.2.;;;Präklinische Risikofaktoren für Mortalität und Bewusstseinsstörungen nach schweren Schädel-Hirn-Traumata: eine epidemiologische Studie Schweres Schädel-Hirn-Trauma (SHT) ist ein erhebliches Gesundheitsproblem und eine große Belastung für die Gesellschaft. Der Zeitraum zwischen Traumaereignis und Krankenhauseinweisung in eine Notaufnahme (ED) könnte eine Determinante für sekundäre Hirnverletzungen und das frühe Überleben sein. Ziel war es, den Zusammenhang zwischen präklinischen Faktoren im Zusammenhang mit sekundären Hirnschädigungen (arterielle Hypotonie, Hypoxämie, Hypothermie) und den Ergebnissen von Mortalität und Bewusstseinsstörungen der Überlebenden nach 14 Tagen zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/1757-7241-22-1 c17ae1933db007cdd449299191bf71ee;de;;;6.2.;;;Farside Explorer: einzigartige Wissenschaft von einer Mission zur Mondrückseite Farside Explorer ist eine geplante mittelgroße Mission von Cosmic Vision zur Rückseite des Mondes, die aus zwei Landern und einem instrumentierten Relaissatelliten besteht. Die Rückseite des Mondes ist eine einzigartige wissenschaftliche Plattform, da sie von terrestrischen Hochfrequenzstörungen abgeschirmt ist, die primäre Differenzierung und Entwicklung des Mondes aufgezeichnet hat, sie kontinuierlich vom Erde-Mond-L2-Lagrange-Punkt aus überwacht werden kann ein völliger Mangel an reflektierter Sonnenstrahlung von der Erde. Farside Explorer wird diese Eigenschaften ausnutzen und die ersten radioastronomischen Messungen aus der funkstillen Region des erdnahen Weltraums durchführen, die innere Struktur und die thermische Entwicklung des Mondes von der Kruste bis zum Kern bestimmen und die Einschlaggefahren in Erdraum durch die Messung von Blitzen, die durch Aufprallereignisse erzeugt werden. Das Flugsystem Farside Explorer umfasst zwei identische solarbetriebene Lander und einen Wissenschafts-/Telekommunikations-Relaisatelliten, der in einer Halo-Umlaufbahn um den Lagrange-Punkt Erde-Mond L2 platziert werden soll. Ein Lander würde das größte und älteste bekannte Einschlagbecken im Sonnensystem erkunden – das Südpol-Aitken-Becken – und der andere würde die ursprüngliche Hochlandkruste untersuchen. Radioastronomische, geophysikalische und geochemische Instrumente würden an der Oberfläche eingesetzt, und der Relaissatellit würde die Oberfläche kontinuierlich auf Einschlagsereignisse überwachen.;-;-;-;https://link.springer.com/article/10.1007/s10686-011-9252-3 170b740fefa376cd92af5678f116b7b0;de;;;6.2.;;;Behandlungsergebnisse nach unkomplizierten und komplizierten Kronenfrakturen bei bleibenden Zähnen Das Ziel dieser retrospektiven klinischen Studie war es, die Merkmale von Kronenfrakturen bleibender Zähne zu beschreiben und das Überleben der Pulpavitalität und Restaurationen bei unkomplizierten und komplizierten Kronenfrakturen zu untersuchen.;-;-;-;https://link.springer.com/article/10.1007/s00784-020-03344-y 1da511aa2dc3a95e1f1e4f3283ee56ef;de;;;6.2.;;;Schlafqualität bei Chinesen mittleren Alters und älteren Menschen: Verteilung, assoziierte Faktoren und Assoziationen mit kardiometabolischen Risikofaktoren Schlechte Schlafqualität wird mit einem erhöhten Risiko für Herzerkrankungen, Diabetes und Mortalität in Verbindung gebracht. Es gibt jedoch nur begrenzte Informationen über die Verteilung und Determinanten der Schlafqualität und ihre Assoziationen mit kardiometabolischen Risikofaktoren in der chinesischen Bevölkerung. Dies wollten wir in der aktuellen Studie evaluieren.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-9-130 3b457652bd526de5886efa77534fd49c;de;;;6.2.;;;Identifizierung von Schmerzindikatoren für Säuglinge mit einem Risiko für neurologische Beeinträchtigungen: Eine Delphi-Konsensusstudie In den letzten 15 Jahren wurde eine Reihe von Schmerzmessungen bei Säuglingen entwickelt, die Verhaltens- und physiologische Indikatoren einbeziehen, jedoch gibt es keine zuverlässige oder valide Messung für Säuglinge mit einem Risiko für neurologische Beeinträchtigungen (NI). Ziel dieser Studie war es, einen Konsens darüber herzustellen, welche verhaltensbezogenen, physiologischen und kontextuellen Indikatoren Schmerzen bei Säuglingen mit hohem, mittlerem und niedrigem Risiko für NI am besten charakterisieren.;-;-;-;https://link.springer.com/article/10.1186/1471-2431-6-1 9e477d8f268c1d468d2186ae66505a2e;de;;;6.2.;;;Gemeindezentrierte Verletzungsüberwachung der Aborigines: Eine gemeindebasierte partizipative Prozessbewertung Während Verletzungen ein führendes Gesundheitsproblem für die Aborigines darstellen, variieren die Verletzungsraten und -arten erheblich zwischen den Gruppen. Die Einzigartigkeit der Aborigine-Gemeinden unterstreicht die Bedeutung der Sammlung von Verletzungsüberwachungsdaten auf Gemeindeebene, um bei der Identifizierung lokaler Verletzungsmuster, der Festlegung von Prioritäten für Maßnahmen und der Evaluierung von Programmen zu helfen. Die Gemeinden der Secwepemc First Nations in British Columbia, Kanada, haben das Verletzungsüberwachungsprojekt unter Verwendung des Aboriginal Community-Centered Injury Surveillance Systems implementiert. Dieses Papier präsentiert die Ergebnisse einer gemeinschaftsbasierten partizipativen Prozessbewertung des Injury Surveillance Project. Qualitative Datenerhebungsmethoden wurden durch OCAP-Prinzipien (Ownership, Control, Access, and Possession) geprägt und umfassten Fokusgruppen, Interviews und Dokumentenprüfung. Die Ergebnisse konzentrierten sich auf Erkenntnisse aus der Planung, Durchführung und Verwaltung des Verletzungsüberwachungsprojekts, wobei Erkenntnisse in Bezug auf Projektleitung und -personal, Schulung, Projektfinanzierung, erste Projektergebnisse und Bereitschaft der Gemeinschaft ermittelt wurden. Zu den wichtigsten Erkenntnissen gehörten die zentrale Bedeutung eines gemeinschaftsbasierten und zeitgesteuerten Ansatzes, der von den OCAP-Prinzipien geleitet wird, die Schlüsselrolle von Führungskräften und Projektleitern und die stark kooperativen Beziehungen zwischen den Projektgemeinschaften. Die Ergebnisse können bei der erfolgreichen Umsetzung einer gemeindebasierten Gesundheitsüberwachung in anderen Umgebungen und bei anderen Gesundheitsproblemen helfen und einen anderen Weg zur Selbstbestimmung für Aborigine-Gemeinden veranschaulichen. Die Bewertungsmethoden stellen ein Beispiel für einen gemeinschaftlichen, gemeinschaftsorientierten Ansatz dar, der von den OCAP-Prinzipien geleitet wird, die für die Arbeit mit Aborigines-Gemeinschaften erforderlich sind.;-;-;-;https://link.springer.com/article/10.1007/s11121-011-0258-x 12227a786c230d48377c8348ce32d85d;de;;;6.2.;;;Merkmale und Anwendungen eines Chlorophyll-Fluorometers zur Feldbildgebung zur Messung von Stress in landwirtschaftlichen Pflanzen Die meisten zerstörungsfreien Methoden zur Erkennung von Pflanzenstress messen nicht die primäre Stressreaktion, sondern Reaktionen von Prozessen, die primären Ereignissen nachgeschaltet sind. Zum Beispiel das Chlorophyll-Fluoreszenzverhältnis F;-;-;-;https://link.springer.com/article/10.1007/s11119-020-09767-7 454612f5f9a18d94e082f8999fae3496;de;;;6.2.;;;Diskriminative Likelihood-Score-Gewichtung basierend auf akustisch-phonetischer Klassifikation zur Sprecheridentifikation In dieser Arbeit wird eine neue diskriminative Likelihood-Bewertungs-Gewichtungstechnik für die Sprecheridentifikation vorgeschlagen. Das vorgeschlagene Verfahren verwendet eine diskriminative Gewichtung von Log-Likelihood-Scores auf Frame-Ebene mit akustisch-phonetischer Klassifikation in der Sprecheridentifikation auf Basis des Gauß-Mischungsmodells (GMM). Experimente, die mit der Aurora-Noise-Corrupted-TIMIT-Datenbank durchgeführt wurden, zeigten, dass der vorgeschlagene Ansatz eine bedeutende Leistungsverbesserung mit einer relativen Gesamtfehlerreduktion von 15,8% gegenüber dem auf der maximalen Wahrscheinlichkeit basierenden Basislinien-GMM-Ansatz bietet.;-;-;-;https://link.springer.com/article/10.1186/1687-6180-2014-126 a6dfa00b4b93410b6ea37204bc537b45;de;;;6.2.;;;Brustkrebs in Hongkong, Südchina: Die erste bevölkerungsbasierte Analyse von epidemiologischen Merkmalen, stadienspezifischem, krebsspezifischem und krankheitsfreiem Überleben bei Brustkrebspatientinnen: 1997–2001 Weltweit wurden Krebsregister eingerichtet, um Informationen für die Krebsgesundheitsplanung bereitzustellen. Weltweit sind Variationen der Brustkrebsinzidenz und -mortalität bekannt. In asiatischen Ländern wird jedoch noch immer zu wenig über Brustkrebsinzidenz, pathologische Merkmale und Überlebensdaten berichtet. Dies ist die erste umfassende bevölkerungsbezogene Brustkrebsstudie, die unter Verwendung der Bevölkerungsdatenbank des Hongkonger Krebsregisters durchgeführt wurde.;-;-;-;https://link.springer.com/article/10.1245/s10434-011-1960-4 5863bbd127f2fe1478bae15f916920be;de;;;6.2.;;;Lokoregionale Therapie bei luminal-ähnlichen und HER2-angereicherten Patientinnen mit de novo-Brustkrebs im Stadium IV Die lokoregionäre Therapie ist selten der Standard der Behandlung bei Brustkrebs im De-Novo-Stadium IV, wird jedoch normalerweise zur Linderung der Symptome eingesetzt. Diese retrospektive Studie zielte darauf ab, zu bestimmen, ob eine Operation oder Bestrahlung für diese Patientengruppe zum Überlebensvorteil beitragen würde, indem das Überlebensergebnis anhand der molekularen Subtypen der Krankheit untersucht wurde.;-;-;-;https://link.springer.com/article/10.1186/2193-1801-2-589 8f2906afeb5c77745b921edfa1733467;de;;;6.2.;;;Wirksamkeit von Sulfadoxin-Pyrimethamin mit oder ohne Artesunat zur Behandlung unkomplizierter Eine Artemisinin-basierte Kombinationstherapie, Artesunat (AS) plus Sulfadoxin-Pyrimethamin (SP), wurde mit einer SP-Monotherapie verglichen, um weitere Behandlungsoptionen im Süden Mosambiks zu belegen.;-;-;-;https://link.springer.com/article/10.1186/1475-2875-8-141 6f3e208e641120d685c8f886a92bf63c;de;;;6.2.;;;Die Wirkung von „sleep high and train low“ auf die Gewichtsabnahme bei übergewichtigen chinesischen Jugendlichen: Studienprotokoll für eine randomisierte kontrollierte Studie Bewegung und Ernährung sind die Eckpfeiler für die Behandlung von Adipositas bei adipösen Kindern und Jugendlichen. Allerdings erschweren kompensatorische Veränderungen des Appetits und des Energieverbrauchs, die durch Sport und Diäten hervorgerufen werden, eine dauerhafte Gewichtsreduktion. Die magersüchtige Wirkung der Hypoxie kann potenziell genutzt werden, um dieser kompensatorischen Zunahme entgegenzuwirken und so den Erfolg der Gewichtsabnahme zu steigern. Der Zweck der Studie besteht darin, die Wirksamkeit einer vierwöchigen intermittierenden Hypoxie-Exposition zusätzlich zu einer traditionellen Trainings- und Ernährungsintervention zur Induktion einer kurz- und langfristigen Gewichtsabnahme bei adipösen Jugendlichen zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-15-250 d03787abea96e63ce06cbffbb5417b7f;de;;;6.2.;;;Einfluss eines Schulungskurses auf die Qualität der Malariadiagnostik durch Mikroskopie in Angola In Angola ist Malaria eine endemische Krankheit mit großen Auswirkungen auf die Wirtschaft. Die WHO empfiehlt, auf alle Verdachtsfälle von Malaria zu testen, um eine mutmaßliche Behandlung dieser Krankheit zu vermeiden. In Malaria-Endemiegebieten müssen Laboranten mit der Mikroskopie, dem goldenen Standard für die Malaria-Diagnose, sehr vertraut sein, um Fehldiagnosen zu vermeiden. Der unsachgemäße Gebrauch von Medikamenten fördert Arzneimittelresistenzen und unerwünschte Nebenwirkungen. Die vorliegende Studie zielt darauf ab, die Auswirkungen eines dreitägigen Auffrischungskurses auf das Wissen der Techniker, die Qualität der Blutausstriche und die Genauigkeit der mikroskopischen Malariadiagnose unter Verwendung der qPCR als Referenzmethode zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/1475-2875-13-437 f4c548299757c66dff3b8f8cda5eb010;de;;;6.2.;;;Routinemäßige Messung der Ergebnisse in Australiens öffentlichen Diensten für psychische Gesundheit Dieses Papier beschreibt die bisherigen australischen Erfahrungen mit einem nationalen „Roll-out“ der routinemäßigen Ergebnismessung in öffentlichen Diensten für psychische Gesundheit.;-;-;-;https://link.springer.com/article/10.1186/1743-8462-2-8 64cb47fe9605dc627c9d9395f5b2adae;de;;;6.2.;;;Low-Level-Nächtliche Lichttherapie bei altersbedingter Makuladegeneration (ALight): Studienprotokoll für eine randomisierte kontrollierte Studie Die altersbedingte Makuladegeneration (AMD) ist die häufigste Erblindungsursache bei älteren Erwachsenen in den Industrieländern. Die einzigen derzeit verfügbaren Behandlungen wie Ranibizumab-Injektionen sind die neovaskuläre AMD, die nur 10 bis 15 % der Menschen mit dieser Erkrankung ausmacht. Hypoxie wird als eine der Hauptursachen der AMD angesehen und tritt nachts am akutesten auf, wenn die Netzhaut metabolisch am aktivsten ist. Durch die Erhöhung der Lichtintensität in der Nacht wird der Stoffwechselbedarf der Netzhaut und damit die Hypoxie erheblich reduziert. In dieser Studie soll untersucht werden, ob das Tragen einer Lichtmaske, die nachts ein schwaches, grünes Licht aussendet, das Fortschreiten einer frühen AMD verhindern kann.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-15-246 21faeeaed352a4f221e9481eeb638412;de;;;6.2.;;;Bewertung von Forschungsinvestitionen und -wirkung in einem regionalen australischen Krankenhaus und Gesundheitsdienst: eine Programmtheorie und ein konzeptioneller Rahmen Von Gesundheitssystemen in Australien und weltweit wird zunehmend erwartet, dass sie neben der klinischen Versorgung und der Ausbildung von Gesundheitsfachkräften auch Forschungs- und Qualitätsverbesserungsaktivitäten durchführen. Diese Studie zielt darauf ab, eine Forschungswirkungsbewertung in einem regionalen australischen Krankenhaus und Gesundheitsdienst zu unterstützen, indem eine Programmtheorie entwickelt wird, die zeigt, wie sich Forschungsinvestitionen voraussichtlich auswirken werden.;-;-;-;https://link.springer.com/article/10.1186/s12961-020-0542-y c1a1bb6dc0f6df2d6ce6f0b6569c443c;de;;;6.2.;;;Workflow-Modellierung wissenschaftlicher Experimente auf konzeptioneller Ebene mit NMR als Fallstudie Wissenschaftliche Workflows verbessern den Prozess wissenschaftlicher Experimente, indem sie Berechnungen explizit machen, den Datenfluss unterstreichen und die Beteiligung des Menschen am Prozess betonen, wenn Intuition und menschliches Denken erforderlich sind. Arbeitsabläufe für Experimente heben auch Übergänge zwischen experimentellen Phasen hervor, ermöglichen die Überprüfung von Zwischenergebnissen und unterstützen den richtigen Umgang mit semantischen Fehlanpassungen und unterschiedlichen Dateiformaten zwischen den verschiedenen Werkzeugen, die im wissenschaftlichen Prozess verwendet werden. Daher sind wissenschaftliche Arbeitsabläufe wichtig für die Modellierung und anschließende Erfassung bioinformatischer Daten. Während viel Forschung zur Implementierung wissenschaftlicher Workflows betrieben wurde, wurde der anfängliche Prozess der eigentlichen Gestaltung und Generierung des Workflows auf konzeptioneller Ebene wenig berücksichtigt.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-8-31 279d1e8eb3265f2de334662c89d9c181;de;;;6.2.;;;Aufstrebende Gemeinschaften der Kindergesundheitspraxis bei der Behandlung von Langzeiterkrankungen wie chronischer Nierenerkrankung: qualitative Studie der Elternkonten Eltern von Kindern und Jugendlichen mit Langzeiterkrankungen, die ihr Kind zu Hause mit Fernunterstützung durch Krankenhauspersonal klinisch versorgen müssen, suchen häufig im Internet nach Pflegeinformationen. Es gibt jedoch kaum Beweise dafür, dass die online verfügbaren Informationen zusammen mit den Eltern entwickelt und ausgewertet wurden oder dass sie die bestehenden Praxisgemeinschaften anerkennen, da Eltern und medizinisches Fachpersonal die Verantwortung für das Krankheitsmanagement teilen.;-;-;-;https://link.springer.com/article/10.1186/1472-6963-14-292 b89bd28d73324cb621ceaceaa7597254;de;;;6.2.;;;Massenspektrometrie zum Nachweis potenzieller psychiatrischer Biomarker Die Suche nach Molekülen, die als potenzielle Biomarker fungieren können, nimmt in der wissenschaftlichen Gemeinschaft zu, auch im Bereich der Psychiatrie. Das Gebiet der Proteomik entwickelt sich weiter und seine Unentbehrlichkeit für die Identifizierung von Biomarkern ist klar. Unter den proteomischen Werkzeugen ist die Massenspektrometrie die Kerntechnik zur qualitativen und quantitativen Identifizierung von Proteinmarkern. Während beim Verständnis von Biomarkern für neurodegenerative Erkrankungen wie Alzheimer, Multiple Sklerose und Parkinson erhebliche Fortschritte erzielt wurden, wurden psychiatrische Erkrankungen noch nicht so umfassend untersucht. Jüngste und erfolgreiche Anwendungen der auf Massenspektrometrie basierenden Proteomik in Bereichen wie Herz-Kreislauf-Erkrankungen, Krebs, Infektionskrankheiten und neurodegenerativen Erkrankungen legen einen ähnlichen Weg für psychiatrische Erkrankungen nahe. In diesem kurzen Überblick beschreiben wir die Massenspektrometrie und ihre Verwendung in der psychiatrischen Biomarkerforschung und beleuchten einige der möglichen Herausforderungen bei der Durchführung dieser Art von Arbeit. Darüber hinaus werden spezifische Beispiele für Biomarker-Kandidaten hervorgehoben. Ein kurzer Vergleich von proteomischen mit genomischen Methoden für die Biomarker-Forschung wird vorgestellt. Zusammenfassend können massenspektrometrische Techniken die laufenden Bemühungen zum Verständnis der molekularen Mechanismen psychiatrischer Erkrankungen erheblich erleichtern.;-;-;-;https://link.springer.com/article/10.1186/2049-9256-1-8 9ed9753b99949bdedde23742b37c6ecf;de;;;6.2.;;;Ein fortschreitender Rückgang der Malariabelastung im Nordosten Tansanias Die Planung und Bewertung von Malariainterventionen ist aufgrund der zeitlichen Schwankungen der Malariabelastung erschwert. Kürzlich wurde berichtet, dass die Malariabelastung in einigen Teilen Afrikas zurückgegangen ist. Allerdings sind gemeinschaftsbasierte Längsschnittdaten spärlich und die Gründe für den offensichtlichen Rückgang sind nicht gut verstanden.;-;-;-;https://link.springer.com/article/10.1186/1475-2875-9-216 97136ac5158eefc4dbeeab717bf14a78;de;;;6.2.;;;Ursachen und Folgen der Pflanzenfresserbewegung in Landschaftsökosystemen Im letzten Jahrhundert wurden Ökosysteme mit großen Pflanzenfressern zunehmend durch Landumwandlung, Landnutzungsintensivierung, Ressourcenabbau und künstliche Barrieren bedroht. Diese Ökosysteme sind durch diese Veränderungen bedroht, weil viele, wenn nicht die meisten der ausgedehnten und räumlich heterogenen Lebensräume, in denen sich große Pflanzenfresserarten entwickelt haben, zunehmend komprimiert, unterteilt, fragmentiert und homogenisiert wurden, was die Bewegungen dieser Arten stört. Es gibt viele Gründe, warum große Pflanzenfresser daran angepasst sind, sich über Skalen von Metern bis zu Hunderten von Kilometern fortzubewegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-4906-4_3 f922141635f80146fae48dcdbc8a175d;de;;;6.2.;;;Klinische und virologische Merkmale von hospitalisierten COVID-19-Patienten in einem deutschen Pflegezentrum während der ersten Welle der SARS-CoV-2-Pandemie: eine prospektive Beobachtungsstudie Eine adäquate Patientenzuteilung ist entscheidend für ein optimales Ressourcenmanagement in angespannten Gesundheitssystemen und erfordert detaillierte Kenntnisse der klinischen und virologischen Krankheitsverläufe. Ziel dieser Arbeit war es, Risikofaktoren im Zusammenhang mit der Notwendigkeit einer invasiven mechanischen Beatmung (IMV) zu identifizieren, die Viruskinetik bei Patienten mit und ohne IMV zu analysieren und den klinischen Verlauf umfassend zu beschreiben.;-;-;-;https://link.springer.com/article/10.1007/s15010-021-01594-w 624cfb3da365336550d1282a9806ba2d;de;;;6.2.;;;Sankara Nethralaya Diabetische Retinopathie Epidemiologie und molekulargenetische Studie (SN--DREAMS III): Beschreibung der Methodik der Sankara Nethralaya Diabetic Retinopathie Epidemiology and Molecular Genetic Study III, einer laufenden epidemiologischen Studie zur Schätzung der Prävalenz von Diabetes und diabetischer Retinopathie in der ländlichen Bevölkerung der Distrikte Kanchipuram und Thiravallur in Tamil Nadu, Indien, und zur Aufklärung der klinischen , biochemische und genetische Risikofaktoren im Zusammenhang mit diabetischer Retinopathie in dieser ländlichen Bevölkerung.;-;-;-;https://link.springer.com/article/10.1186/1471-2415-11-7 52e0a61c275962ae70f7b60423fabb0a;de;;;6.2.;;;Gleichzeitige Unfallaufnahme – Beeinflussen sie die Behandlung im aufnehmenden Traumazentrum? Gleichzeitige Traumaeinweisungen setzen Mediziner einer erhöhten Arbeitsbelastung aus. Der Einfluss simultaner Traumaeinweisungen auf Krankenhauszuweisung, Therapie und Outcome ist derzeit unklar. Wir stellten die Hypothese auf, dass mehrere Aufnahmeszenarien den diagnostischen Weg und das Ergebnis beeinflussen.;-;-;-;https://link.springer.com/article/10.1007/s00268-021-06074-8 92a5ff6d93a23e7787bfd3e33da0db92;de;;;6.2.;;;Körperlich aktiv werden und bleiben bei Jugendlichen mit Zerebralparese: Protokoll einer qualitativen Studie zu Förderern und Hindernissen für körperliche Aktivität Jugendliche mit Zerebralparese (CP) zeigen eine reduzierte körperliche Aktivität (PA). Derzeit gibt es für Jugendliche mit CP in dieser kritischen Lebensphase keine Interventionen, die die körperliche Aktivität des Einzelnen optimieren und langfristig erhalten. Um ein solches Programm zu entwickeln, ist es wichtig, die Faktoren, die das körperliche Aktivitätsverhalten bei Jugendlichen mit CP beeinflussen, vollständig zu verstehen. Ziel dieser Studie ist es herauszufinden, was es Jugendlichen mit CP leicht oder schwer macht, körperlich aktiv zu sein und zu werden.;-;-;-;https://link.springer.com/article/10.1186/1471-2431-11-1 2594c58313bdce4ba4aaf5ce7570e507;de;;;6.2.;;;Die Verwendung der intensiven Längsschnittmethoden zur Untersuchung des finanziellen Wohlergehens: Eine Überprüfung des Umfangs und eine zukünftige Forschungsagenda Finanzielles Wohlergehen ist eine positive finanzielle Situation, die eine objektive (z. B. Einkommen) und eine subjektive (z. B. finanzielle Zufriedenheit) Seite hat. Viele Forschungen haben das finanzielle Wohlergehen mit Querschnitts- und klassischen Längsschnittdesigns untersucht. In jüngerer Zeit haben Forscher begonnen, das finanzielle Wohlergehen mit intensiven Längsschnittdesigns zu untersuchen, wobei Daten wiederholt (mindestens fünf Messungen) und intensiv (kurze Zeitintervalle zwischen den Messungen) gesammelt werden. Das Ziel der aktuellen Studie war es, alle veröffentlichten Forschungsergebnisse zum finanziellen Wohlergehen mit intensiven Längsschnittmethoden systematisch zu überprüfen, Themen aus dieser Arbeit zusammenzufassen und zukünftige Forschungsrichtungen vorzuschlagen. Bei der Suche in drei Datenbanken (Scopus, PsycINFO, Econpapers) fanden wir neun Artikel, die Ein- und Ausschlusskriterien respektieren. Aus jedem ausgewählten Artikel extrahierten wir Informationen über (1) die Verbreitung von Forschungsfeldern, (2) Datenerhebungsmethoden, (3) Definition und Operationalisierung des finanziellen Wohlergehens, (4) behandelte Forschungsfragen und (5) Datenanalyse. Die Ergebnisse zeigten, dass die meisten Studien ein intervallkontingentes Forschungsdesign verfolgten, das Daten einmal täglich sammelte, dass sowohl die objektive als auch die subjektive Seite des Konstrukts bewertet wurde und dass das Konstrukt meistens als finanzieller Stress konzipiert wurde Mangel an finanziellem Wohlstand). Verschiedene Arten von Forschungsfragen wurden studienübergreifend behandelt und diese wurden oft mit Hilfe von Mehrebenenanalysen analysiert. Im Diskussionsteil werden zukünftige Forschungsrichtungen vorgeschlagen.;-;-;-;https://link.springer.com/article/10.1007/s10902-021-00381-6 48d574c277a27f3544c5fe9993d8cf33;de;;;6.2.;;;Vergleich von Antikoagulationsstrategien zur venovenösen ECMO-Unterstützung bei akutem Atemversagen Die Unterstützung der extrakorporalen Membranoxygenierung (ECMO) bei akutem Atemversagen kann lebensrettend sein, aber Blutungen und thromboembolische Komplikationen sind häufig. Die optimale Antikoagulationsstrategie, die diese Faktoren ausbalanciert, muss noch bestimmt werden. In dieser retrospektiven Studie wurden zwei institutionelle Antikoagulationsmanagementstrategien verglichen, die sich auf Oxygenatorveränderungen und sowohl Blutungen als auch thromboembolische Ereignisse konzentrierten.;-;-;-;https://link.springer.com/article/10.1186/s13054-020-03348-w 953f9b0d5488937498b12fa110456637;de;;;6.2.;;;Folgen der digitalen Mammographie im bevölkerungsbezogenen Brustkrebs-Screening: Erste Veränderungen und langfristige Auswirkungen auf die Überweisungsraten Untersuchung des Überweisungsmusters nach dem Übergang zur digitalen Vollfeld-Mammographie (FFDM) in einem bevölkerungsbasierten Brustkrebs-Screening-Programm.;-;-;-;https://link.springer.com/article/10.1007/s00330-010-1786-7 0bb726e63ee439b178d7717b22f9e356;de;;;6.2.;;;MultiAlign: ein multiples LC-MS-Analysetool für die gezielte Omics-Analyse MultiAlign ist ein kostenloses Softwaretool, das mehrere Flüssigkeitschromatographie-Massenspektrometrie-Datensätze aufeinander abstimmt, indem Massen- und chromatographische Elutionsfunktionen über Datensätze hinweg geclustert werden. Die Software ist sowohl für markierungsfreie Proteomik- als auch für Metabolomik-Vergleichsanalysen anwendbar und kann in mehreren Modi betrieben werden. Zum Beispiel können geclusterte Merkmale mit einer Referenzdatenbank abgeglichen werden, um Analyten zu identifizieren, verwendet werden, um Häufigkeitsprofile zu erzeugen, mit Tandem-Massenspektren basierend auf den Massen der Ausgangsvorläufer verknüpft und für eine gezielte Flüssigkeitschromatographie-Tandem-Massenspektrometrie-Analyse ausgewählt werden. MultiAlign kann auch Tandem-Massenspektral-Clustering durchführen, um die Proteomstruktur zu beschreiben und Ähnlichkeiten in nachfolgenden Probenläufen zu finden.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-14-49 41caa695bc4cc77ed787d4fef060e3ea;de;;;6.2.;;;Die Kluft bei den Unfallsterblichkeitsraten zwischen Stadt- und Landbewohnern der Provinz Hubei, China Verletzungen sind ein wachsendes Problem der öffentlichen Gesundheit in China. Die Sterberaten bei Verletzungen sind in ländlichen Gebieten häufig höher als in städtischen Gebieten im Allgemeinen. Das Ziel dieser Studie ist es, die Sterblichkeitsrate bei Verletzungen bei städtischen und ländlichen Bewohnern der Provinz Hubei in Zentralchina nach Alter, Geschlecht und Verletzungsmechanismus zu vergleichen.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-12-180 f1a34d03050d8b3f488ced4c7e020e37;de;;;6.2.;;;Entwicklung einer integrierten Fernüberwachungstechnik und deren Anwendung auf para-spannende Brückensysteme Das Brückenüberwachungssystem über Informationstechnologie ist in der Lage, genauere Kenntnisse über die Leistungsmerkmale von Brücken zu liefern als herkömmliche Strategien. Dieses Papier beschreibt nicht nur ein integriertes Internet-Überwachungssystem, das aus einem eigenständigen Überwachungssystem (SMS) und einem webbasierten Internet-Überwachungssystem (IMS) für die Brückeninstandhaltung besteht, sondern auch seine Anwendung auf das Para-Stressing-Brückensystem als intelligente Struktur . IMS ist als webbasiertes System in der Lage, die Fernüberwachung zu bewältigen, indem es Messinformationen aus SMS in das System über das Internet oder Intranet einführt, das entweder über PHS oder LAN verbunden ist. Darüber hinaus werden in diesem Papier auch die Schlüsselfunktionen von IMS wie Datenmanagementsystem, Zustandsbewertung und Entscheidungsfindung mit dem vorgeschlagenen System vorgestellt. Ein weiteres Ziel dieser Studie ist es, den Rahmen eines Para-Stressing-Brückensystems zu schaffen, das eine intelligente Brücke ist, indem die Brückenüberwachungsinformationen in das System integriert werden, um die Brückenleistung automatisch zu steuern.;-;-;-;https://link.springer.com/article/10.1186/2008-6695-5-28 b2b057406827edaf4864ace7d182e597;de;;;6.2.;;;Bioprospecting Metagenome: Glykosylhydrolasen zur Umwandlung von Biomasse Im Laufe einer unendlichen Zeit haben sich Mikroorganismen entwickelt und eine bemerkenswerte physiologische und funktionelle Heterogenität angesammelt und bilden heute die Hauptreserve für die genetische Vielfalt auf der Erde. Mittels Metagenomik, also direkt aus Umweltproben gewonnenem genetischem Material, kann diese biogenetische Diversifizierung ohne Zellkultivierung erreicht werden. Dementsprechend sind mikrobielle Gemeinschaften und ihre Metagenome, isoliert aus Biotopen mit hohen Umsatzraten widerständiger Biomasse, wie lignocellulosehaltigen Pflanzenzellwänden, zu einer wichtigen Ressource für die Bioprospektion geworden ) für verschiedene industrielle Prozesse, einschließlich der Herstellung von Biokraftstoffen aus pflanzlichen Rohstoffen. Trotz der Beiträge der Metagenomik-Technologien infolge der Entdeckung neuer Enzyme erfordert dieses relativ neue Unternehmen jedoch erhebliche Verbesserungen. In diesem Review vergleichen wir das funktionsbasierte Metagenom-Screening und das sequenzbasierte Metagenom-Data-Mining und diskutieren die Vorteile und Grenzen beider Methoden. Wir beschreiben auch die ungewöhnlichen Enzyme, die durch Metagenomik-Ansätze entdeckt wurden, und diskutieren die Zukunftsaussichten für Metagenom-Technologien.;-;-;-;https://link.springer.com/article/10.1186/1754-6834-2-10 8dbba5ba70abdb544f2fe4be6915a27c;de;;;6.2.;;;Menschenzentrierte Tuberkuloseversorgung versus direkt beobachtete Standardtherapie: Studienprotokoll für eine randomisierte kontrollierte Clusterstudie Tuberkulose ist ein großes Gesundheitsproblem, das weltweit zu hohen Morbiditäts- und Mortalitätsraten führt, insbesondere in Ländern mit niedrigem und mittlerem Einkommen. Tuberkulose erfordert eine lange und intensive Behandlung. Daher wurden verschiedene Ansätze zur Verbesserung der Therapietreue und des Behandlungsergebnisses vorgeschlagen, einschließlich Patienten-Empowerment, Schulungs- und Beratungssitzungen und Einbeziehung von Familienmitgliedern und Gemeindearbeitern. Die aktuelle randomisierte kontrollierte Studie zielt darauf ab, die Wirksamkeit einer innovativen Mehrkomponenten-Strategie zur menschenzentrierten Tuberkulose-Behandlung in Armenien gegenüber der üblichen Behandlung zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s13063-015-0802-2 c8822164d6f7ce039d0143456daa647d;de;;;6.2.;;;Klinische Bewertung der komplementären Behandlung mit Herzinsuffizienz (HF) ist mit einer verminderten Lebensqualität, einer hohen Wiederaufnahmerate und einer schlechten Prognose verbunden. Insbesondere die ischämische Herzinsuffizienz (IHF) hat eine schlechtere Prognose als die nicht-ischämische HF. Der Einsatz der Traditionellen Chinesischen Medizin (TCM) neben der westlichen Medizin zur Behandlung von HF hat sich in China zu einem integrativen Behandlungsmodell entwickelt. Es gab kleine klinische Studien und experimentelle Studien, um die Wirksamkeit der TCM bei der Behandlung von HF zu belegen, jedoch fehlt es noch an qualitativ hochwertigen Studien.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-14-138 7798dcfd30e6df672ff419bf0ecc06c6;de;;;6.2.;;;Die Rolle der Exposition bei der Behandlung von Angstzuständen bei Kindern und Jugendlichen: Protokoll einer systematischen Überprüfung und Metaanalyse Bei Kindern und Jugendlichen gehören Angststörungen (ADs) zu den häufigsten psychischen Störungen. Obwohl es eine solide empirische Grundlage gibt, um KVT als evidenzbasierte Behandlung von ADs im Kindesalter zu unterstützen, sind die Mechanismen, die der Wirksamkeit von KVT zugrunde liegen, nicht gut erforscht. Es wird angenommen, dass die Exposition für die Wirksamkeit der KVT bei AD von entscheidender Bedeutung ist, aber empirische Beweise (z. Die vorgeschlagene Metaanalyse zielt darauf ab, die Rolle der Exposition bei der Verringerung von Angstsymptomen bei Kindern und Jugendlichen zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s13643-020-01337-2 9690b55b2c1016a054028262d3b028f1;de;;;6.2.;;;Nachfrage nach integrativer Medizin bei Frauen mit Brust- und Frauenkrebs: eine multizentrische Querschnittsstudie in Süd- und Norddeutschland Ziel dieser multizentrischen Querschnittsstudie war es, eine Kohorte von Patientinnen mit Brustkrebs (BC) und gynäkologischen Krebs (GC) hinsichtlich ihres Interesses, ihrer Wahrnehmung und ihres Bedarfs an integrativen therapeutischen Gesundheitsansätzen zu analysieren.;-;-;-;https://link.springer.com/article/10.1007/s00404-020-05880-0 42c77487354333df96bfebcb8fb3fa74;de;;;6.2.;;;Die Prävalenz der atypischen Scrapie bei Schafen aus positiven Herden ist in 11 europäischen Ländern nicht höher als in der allgemeinen Schafpopulation In den letzten zehn Jahren wurde in Europa eine aktive Überwachung auf übertragbare spongiforme Enzephalopathien bei kleinen Wiederkäuern durchgeführt. In vielen Ländern hat dies dazu geführt, dass Fälle von atypischer Scrapie entdeckt wurden, die im Gegensatz zur klassischen Scrapie möglicherweise nicht ansteckend sind. Die EU-Gesetzgebung verlangt, dass nach Feststellung eines Scrapie-Falls Kontrollmaßnahmen einschließlich weiterer Tests in betroffenen Herden durchgeführt werden, einschließlich der Keulung von Genotypen, die für klassische Scrapie anfällig sind. Dies kann zur Erkennung weiterer Fälle führen. Ziel dieser Studie war es, das Auftreten zusätzlicher Fälle in Herden mit atypischer Scrapie anhand von in Europa erhobenen Überwachungsdaten zu untersuchen, um festzustellen, ob atypische Scrapie ansteckend ist.;-;-;-;https://link.springer.com/article/10.1186/1746-6148-6-9 109ad3ff9c2ad9723466d64f2040e386;de;;;6.2.;;;Verbesserung der Datenkommunikation auf Baustellen über LoRaWAN Leicht zugängliche und zuverlässige Datenkommunikation in Bauprozessen sorgt für hohe Gebäudequalität, effiziente Arbeitsabläufe und sichere Arbeitsumgebungen. Der Aufbau einer Netzwerkinfrastruktur auf Baustellen bietet die notwendige Voraussetzung für eine zeitnahe und effektive Datenkommunikation. In diesem Beitrag wird eine Lösung für die Vor-Ort-Vernetzung durch die Implementierung eines IoT-Netzwerks auf einer Referenzbaustelle in Deutschland erforscht. Im Gegensatz zu einer kostenintensiven und breitbandigen Netzwerkinfrastruktur wurde am Standort ein Long Range Wide Area Network – LoRaWAN mit geringen Kosten und geringer Bandbreite eingesetzt. Mit zusätzlichen IoT-Servern und LoRa-fähigen Geräten kann die Referenzbaustelle aus der Ferne mit einem Roboterlabor kommunizieren. Um dieses Konzept von LoRaWAN auf Baustellen zu validieren, wurde ein standortinternes Logistik- und Aufgabenplanungssystem entwickelt, um die Netzwerkleistung zu testen. In diesem Beitrag wird eine Vorstudie zur Anwendung der IoT-Netzwerktechnologie – LoRaWAN in der Logistikautomatisierung im Bauwesen durchgeführt. Die Testergebnisse können als Referenz für andere Automatisierungsanwendungen wie Internet of Robot, intelligentes Prozessmanagement, Entscheidungsfindungssystem usw. verwendet werden.;-;-;-;https://link.springer.com/article/10.1007/s41693-021-00059-8 1140b63f440527ae5ed5fd77e3353b15;de;;;6.2.;;;Geographie weit weg vom Gleichgewicht Die Geographie verwendet den Begriff des Gleichgewichts wenig. Anders als die Wirtschaftswissenschaften basiert die geografische Untersuchung auf der Anerkennung von Unterschieden und Asymmetrien zwischen Regionen und Zivilisationen. Er bezieht sich dabei nicht auf marktäquivalente allgemeine Mechanismen zur Preisfestsetzung und zum Ausgleich von Angebot und Nachfrage. Frühe Geographen suchten nach Erklärungen für die große Vielfalt der Landschaften und Lebensweisen, die auf der ganzen Welt beobachtet wurden. Moderne Geographen untersuchen sowohl die „vertikalen“ Interaktionen zwischen Gesellschaften und ihrem lokalen Milieu als auch die „horizontalen“ Interaktionen zwischen Städten und Regionen. Dabei handelt es sich um zwei gegensätzliche Ursachen für territoriale Ungleichheiten, die räumliche Verbreitung von Innovation und den urbanen Wandel. Während allein die Diffusion von Innovation zu Homogenität führen kann, führt dies in Verbindung mit der Dynamik der Stadtbildung zu zunehmender Heterogenität und Ungleichheit. Das Phänomen steigender Renditen mit der Stadtgröße wird durch höhere Bevölkerungsdichten und Verbindungen, die die Wahrscheinlichkeit produktiver Interaktionen vervielfachen, sowie durch die adaptive Bewertung des angesammelten Vermögens erklärt. Obwohl es großen Reichtum geben mag, werden in einigen großen städtischen Ballungsräumen immer noch große informelle Siedlungen von Slums und Elendsvierteln ausgebreitet. Die globale gesellschaftliche Evolution ist ein offener Prozess ohne festen asymptotischen Punkt in der Zukunft: Es gibt keinen endgültigen Gleichgewichtszustand, den die Welt erreichen kann. Offene Evolution kann die Qualität von Vorhersagen beeinträchtigen, die über die Zukunft gemacht werden können, aber geografische Kenntnisse der vergangenen Dynamiken können dazu beitragen, Vorhersagen sicherer zu machen. In den letzten fünf oder sechs Jahrzehnten wurden leistungsstarke Analysewerkzeuge entwickelt, die die Qualität der geografischen Arbeit und ihre Fähigkeit, Interessengruppen und Entscheidungsträgern klarere Erkenntnisse für die Erkundung möglicher territorialer Zukunftsperspektiven zu liefern, erheblich verbessern. Geografische Informationssysteme werden heute universell in allen Arten von Verwaltungen verwendet, die sich mit lokalisierten Diensten befassen. Detaillierte geografische Informationen aus vielen Datenquellen ermöglichen einen Wechsel von einer makrostatischen Ansicht zu einer mikromakrodynamischen Ansicht, die für Management- und Planungsrichtlinien in einer nichtlinearen Welt erforderlich ist. Als Wissenschaft bleibt die Geographie bewusst weit vom Gleichgewicht entfernt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-42424-8_5 330545ac1f9f1703861bb6179dd57cc6;de;;;6.2.;;;Die Wirkung der primären Lieferung der vorderen im Vergleich zur hinteren Schulter auf das Perinealtrauma: ein Studienprotokoll für eine randomisierte kontrollierte Studie Etwa 85 % der vaginalen Entbindungen werden von einem Dammtrauma begleitet. Das Ziel dieser Studie ist es, die Inzidenz und das Ausmaß von perinealen Traumata nach der primären Entbindung der vorderen im Vergleich zur hinteren Schulter während der vaginalen Geburt zu vergleichen. Die Hypothese ist, dass die primäre Abgabe der posterioren Schulter die Rate und das Ausmaß des perinealen Traumas reduziert.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-15-291 691fb9406a880ee4c00d15bc44d8e2f3;de;;;6.2.;;;Das metabolische Syndrom und seine einzelnen Komponenten bei jordanischen Kindern und Jugendlichen Ziel dieser Studie war es, die Prävalenz des metabolischen Syndroms (MeS) und seiner einzelnen Komponenten bei jordanischen Kindern und Jugendlichen im Alter von 7 bis 18 Jahren zu bestimmen und die Faktoren zu bestimmen, die mit der Häufung von metabolischen Anomalien verbunden sind. MeS wurde anhand der Definition der International Diabetes Federation (IDF) definiert. Die Prävalenz von MeS wurde von 512 Probanden geschätzt, die vollständige Informationen zu allen MeS-Komponenten hatten. Die Prävalenz von MeS betrug nach den IDF-Kriterien 1,4 % bei Personen zwischen 10 und 15,9 Jahren und 3,6 % bei Personen zwischen 16 und 18 Jahren. Bei der Kategorisierung nach dem Body-Mass-Index (BMI) betrug die Prävalenz des MeS 15,1 % bei adipösen Personen, verglichen mit 0,3 % bei Personen mit normalem BMI und 3,0 % bei übergewichtigen Personen. Zusammenfassend zeigen unsere Ergebnisse, dass, obwohl die Prävalenz von MeS bei jordanischen Kindern und Jugendlichen gering ist, ein großer Teil von ihnen eine oder zwei Stoffwechselanomalien aufwies.;-;-;-;https://link.springer.com/article/10.1155/2010/316170 1f63a7501de0ae9876f02d22b0a7fb51;de;;;6.2.;;;Risiko eines ischämischen Schlaganfalls bei Patientinnen mit Eierstockkrebs: eine landesweite bevölkerungsbasierte Studie Krebspatienten haben ein Thromboembolierisiko. Studien, die den Zusammenhang zwischen Eierstockkrebs und ischämischem Schlaganfall untersuchen, fehlen jedoch. Das Ziel dieser Studie war es, den Zusammenhang zwischen Eierstockkrebs und ischämischem Schlaganfall zu beurteilen und die prädiktiven Risikofaktoren zu bestimmen.;-;-;-;https://link.springer.com/article/10.1186/1741-7015-12-53 f9f6104ff04459e048569732a2c64a2f;de;;;6.2.;;;Die Einrichtung einer Bank mit gelagerten klinischen Knochenmarkstromazellprodukten Stromazellen des Knochenmarks (BMSCs) werden verwendet, um eine Vielzahl von Erkrankungen zu behandeln. Für viele Anwendungen wird ein Vorrat an kryokonservierten Produkten benötigt, die für die Akuttherapie verwendet werden können. Die Einrichtung einer Bank mit BMSC-Produkten von gesunden Drittspendern wird beschrieben.;-;-;-;https://link.springer.com/article/10.1186/1479-5876-10-23 72b267b5a0bbc89ec72349f64e381d0e;de;;;6.2.;;;Mobile Multimedia-Sensornetzwerke: Architektur und Routing Jüngste Fortschritte auf dem Gebiet der drahtlosen Technologie und Multimediasysteme haben ein starkes Potenzial und eine starke Tendenz zur Verbesserung des menschlichen Lebens gezeigt, indem intelligente Dienste in allgegenwärtigen Computerumgebungen ermöglicht werden. Dieses Papier untersucht ein mobiles Multimediasystem durch die Kombination verschiedener Technologien, wie drahtlose Sensornetze, eingebettete Multimediasysteme und Knotenmobilität. Insbesondere werden wir einige leistungsstarke Sensorknoten mit Mobilitäts- und Multimedia-Funktionalitäten verwenden, die durch Kontextinformationen gesteuert werden können, die von anderen Systemen gesammelt werden, um interaktive Multimediadienste zu ermöglichen. Die neue Architektur wird in diesem Beitrag Mobile Multimedia Sensor Network (MMSN) genannt. Ein Routing-Schema namens Mobile Multimedia Geographic Routing (MGR) ist speziell dafür ausgelegt, den Energieverbrauch zu minimieren und Einschränkungen bezüglich der durchschnittlichen Ende-zu-Ende-Verzögerung spezifischer Anwendungen in MMSNs zu erfüllen. Simulationen verifizieren die Leistung des MGR, um die QoS-Anforderung zu erfüllen und gleichzeitig Energie für MMSNs zu sparen.;-;-;-;https://link.springer.com/article/10.1186/1687-1499-2011-159 bc84fdc8cf691d64d706f63e3f78c32b;de;;;6.2.;;;Die Entwicklung und Validierung der Virtual Tissue Matrix, einer Softwareanwendung, die die Online-Überprüfung von Gewebe-Mikroarrays erleichtert Das Tissue Microarray (TMA) ermöglicht die Hochdurchsatzanalyse von Hunderten von Gewebeproben gleichzeitig. Allerdings haben sich Engpässe bei der Speicherung und Manipulation der aus TMA-Reviews generierten Daten herauskristallisiert. Es wurden eine Reihe von Softwareanwendungen entwickelt, um das Bild- und Datenmanagement zu unterstützen, jedoch erleichtert derzeit keine Lösung die einfache Online-Überprüfung, Bewertung und anschließende Speicherung von Bildern und Daten im Zusammenhang mit TMA-Experimenten.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-7-256 694d04a27c2ca8256222c5de8fe16b48;de;;;6.2.;;;Zur Verteidigung der Jugendlichen: Sie tragen tatsächlich die vorgeschriebenen Stunden, wenn gute Hilfe geleistet wird. Ergebnisse einer prospektiven Kohorte im Klinikalltag mit Thermobrace Die Wirksamkeit der Stütze hängt von der Qualität der Stütze, der Compliance des Patienten und einigen Krankheitsfaktoren ab. Patienten und Eltern neigen dazu, die Adhärenz zu überschätzen, daher wurde eine objektive Bewertung der Compliance durch den Einsatz von Wärmesensoren entwickelt. Im Jahr 2010 haben wir mit dem klinischen Alltagseinsatz eines Temperatursensors begonnen. Ziel dieser Studie ist es, erste Ergebnisse vorzustellen.;-;-;-;https://link.springer.com/article/10.1186/1748-7161-7-12 46285e1139057e04d5e7f831ba881dac;de;;;6.2.;;;Herausforderungen bei der Versorgungsplanung für Ärzte: der Fall Belgien Die Planung von Human Resources for Health (HRH) ist für politische Entscheidungsträger ein komplexer Prozess, und infolgedessen schwenken viele Länder weltweit von Überschüssen zu Unterversorgungen. Eingehende Fallstudien können dabei helfen, die aufgetretenen Herausforderungen und die umgesetzten Lösungen einzuschätzen. Dieses Papier hat zwei Ziele: die wichtigsten Herausforderungen bei der Personalplanung in Belgien zu identifizieren und Empfehlungen für eine effektive Personalplanung auf der Grundlage der belgischen Fallstudie und der Erkenntnisse aus einem internationalen Benchmarking zu formulieren.;-;-;-;https://link.springer.com/article/10.1186/1478-4491-8-28 411fc061e0a8379f8c49572d267a71ce;de;;;6.2.;;;Kernel und Datenverschiebung planen Wir müssen unsere Rolle als Konzertmeister für unsere Parallelprogramme diskutieren. Die richtige Orchestrierung eines parallelen Programms ist etwas Schönes – Code läuft mit voller Geschwindigkeit, ohne auf Daten warten zu müssen, weil wir dafür gesorgt haben, dass alle Daten zur richtigen Zeit ankommen und abgehen. Code gut zerlegt, um die Hardware maximal zu beschäftigen. Es ist das Ding, aus dem Träume gemacht sind!;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-5574-2_8 9335c4bec36060c2dba28ff75a57df23;de;;;6.2.;;;Patientenzufriedenheit und Nebenwirkungen in der Grundversorgung: Eine Beobachtungsstudie zum Vergleich von Homöopathie und Schulmedizin Diese Studie ist Teil einer landesweiten Evaluation der Komplementärmedizin in der Schweiz (Programm Evaluation Komplementärmedizin PEK) und wurde vom Bundesamt für Gesundheit finanziert. Das Hauptziel dieser Studie ist es, die Patientenzufriedenheit und die Wahrnehmung von Nebenwirkungen in der Homöopathie im Vergleich zur konventionellen Versorgung in einem hausärztlichen Setting zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/1472-6882-8-52 df2bbdfdd36e715938a2abe86469b36b;de;;;6.2.;;;Eine internationale Ärztebefragung zu klinischen Studien: ein Vergleich zwischen dem Kyoto University Hospital und dem Seoul National University Hospital Internationale klinische Studien breiten sich jetzt rasch nach Asien aus. Allerdings ist der Anteil globaler Studien in Südkorea höher als in Japan, obwohl in beiden Ländern eine ähnliche staatliche Unterstützung erfolgt. Der Unterschied in der Umgebung klinischer Studien kann die Einstellung und Erfahrung der jeweiligen Ärzte gegenüber klinischen Studien beeinflussen. Aus diesem Grund haben wir einen Fragebogen entwickelt, um zu untersuchen, wie Ärzte die Probleme im Zusammenhang mit klinischen Studien in beiden Ländern wahrnehmen.;-;-;-;https://link.springer.com/article/10.1186/1471-2288-13-130 e570ceaf15134ca33c6fa4edf2897092;de;;;6.2.;;;Ernährungspraxis und assoziierte Faktoren bei Typ-2-Diabetikern: eine Querschnittstudie auf Krankenhausbasis, Addis Abeba, Äthiopien Das Ernährungsmanagement, das als einer der Eckpfeiler der Diabetesversorgung gilt, basiert auf dem Prinzip der gesunden Ernährung im Kontext sozialer, kultureller und psychologischer Einflüsse auf die Lebensmittelauswahl. In Äthiopien fehlen Daten über die Ernährungspraxis von Diabetikern, wodurch ihre Rolle bei der Behandlung von Diabetes unterschätzt wird. Daher bewertet diese Studie das Niveau der Ernährungspraktiken und die damit verbundenen Faktoren bei Typ-2-Diabetikern in Addis Abeba, Äthiopien.;-;-;-;https://link.springer.com/article/10.1186/s40064-015-0785-1 e4356a870a1d182930c93561e1f07e00;de;;;6.2.;;;Umkehrung des neurologischen Defizits bei akutem Schlaganfall mit Signal-Wirksamkeits-Studie von Auto-BPAP zur Schadensbegrenzung bei Verdacht auf Schlafapnoe (Reverse-STEAL): Studienprotokoll für eine randomisierte kontrollierte Studie Obwohl der negative Einfluss der Schlafapnoe auf den klinischen Verlauf des akuten ischämischen Schlaganfalls (AIS) bekannt ist, gibt es nur wenige Daten zur nicht-invasiven Beatmung bei Akutpatienten. Mehrere Studien haben ihre Verträglichkeit und Sicherheit gezeigt, jedoch existieren keine kontrollierten randomisierten sequentiellen Phasenstudien, die darauf abzielen, die Wirksamkeit einer frühen nicht-invasiven Beatmung bei AIS-Patienten zu belegen.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-14-252 c12d450874bbfae0d605f1ce340bcf54;de;;;6.2.;;;Dengue-Vektormanagement mit insektizidbehandelten Materialien und gezielte Interventionen an produktiven Brutstätten in Guatemala Angesichts der epidemiologischen Ausbreitung von Dengue weltweit und der Verfügbarkeit neuer Instrumente und Strategien insbesondere zur Bekämpfung des primären Dengue-Vektor;-;-;-;https://link.springer.com/article/10.1186/1471-2458-12-931 3173809d4b5694c9d5d78f5f662174e2;de;;;6.2.;;;Kapazitätsherausforderungen bei der Überwachung der Wasserqualität: Verständnis der Rolle der menschlichen Entwicklung Die Überwachung des qualitativen Zustands von Süßwasser ist ein wichtiges Ziel der internationalen Gemeinschaft, wie im Indikator 6.3.2 der Ziele für nachhaltige Entwicklung (SDGs) über eine gute Umgebungswasserqualität dargelegt. In vielen Ländern fehlen jedoch Überwachungsdaten, angeblich aufgrund von Kapazitätsproblemen in weniger entwickelten Ländern. Bisher wurde der Zusammenhang zwischen menschlicher Entwicklung und Kapazitätsherausforderungen für die Überwachung der Wasserqualität jedoch nicht systematisch analysiert. Dies behindert die Umsetzung fein abgestimmter Kapazitätsentwicklungsprogramme für die Überwachung der Wasserqualität. Vor diesem Hintergrund nimmt diese Studie eine globale Perspektive ein, indem sie den Zusammenhang zwischen menschlicher Entwicklung und den Kapazitätsherausforderungen analysiert, mit denen Länder in ihren nationalen Programmen zur Überwachung der Wasserqualität konfrontiert sind. Die Analyse basiert auf aktuellen Daten des Human Development Index und einer internationalen Online-Befragung unter Experten aus Wissenschaft und Praxis. Die Ergebnisse belegen einen negativen Zusammenhang zwischen der menschlichen Entwicklung und den Kapazitätsherausforderungen, um die Überwachungsanforderungen von SDG 6.3.2 zu erfüllen. Dieser negative Zusammenhang nimmt im Verlauf des Monitoring-Prozesses zu, von der Definition der Rahmenbedingungen über die Auswahl der Parameter für die Erhebung von Felddaten bis hin zur Analyse und Analyse von fünf häufig verwendeten Parametern (DO, EC, pH, TP und TN). Unsere Bewertung kann verwendet werden, um Praktiker bei der Verbesserung der technischen Kapazitätsentwicklungsaktivitäten zu unterstützen und Investitionen in den Kapazitätsaufbau für die Überwachung zu identifizieren und gezielt einzusetzen.;-;-;-;https://link.springer.com/article/10.1007/s10661-020-8224-3 6473b27677db7390a8abf5e02fd6af87;de;;;6.2.;;;Blockchain jenseits von Kryptowährungen Es wird behauptet, dass die Blockchain-Technologie das Potenzial hat, die Art und Weise, wie Finanzdienstleistungsunternehmen ihre Geschäfte führen, zu revolutionieren. Dieses Kapitel stellt die Hauptmerkmale der Blockchain-Technologie vor und fasst die vorhandene Forschung zu den potenziellen Auswirkungen der Blockchain-Einführung auf vier Hauptfinanzaktivitäten zusammen: Zahlungen und Überweisungen, Kredite und Kredite, Handel und Abwicklung sowie Compliance. Aktuelle Lücken in der Literatur werden diskutiert, um Wege für zukünftige Forschungen aufzuzeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-02330-0_10 1d47812aeb32b3bc5df21f2e64127edc;de;;;6.2.;;;Extraktion von Tsunami-Quellkoeffizienten durch Inversion von DART Die Fähigkeit, potenzielle Gefahren für Küstengemeinden durch seismisch erzeugte Tsunamis sowohl im Nah- als auch im Fernfeld genau vorherzusagen, erfordert die Kenntnis sogenannter Quellenkoeffizienten, aus denen die Stärke eines Tsunamis abgeleitet werden kann. Nur seismische Informationen können verwendet werden, um die Quellkoeffizienten festzulegen, aber die so abgeleiteten Werte spiegeln die Dynamik der Bewegung am oder unter dem Meeresboden wider und beschreiben daher möglicherweise nicht genau, wie sich diese Bewegung in der überlagernden Wassersäule manifestiert. Wir beschreiben hier eine Methode zur Verfeinerung von Quellenkoeffizientenschätzungen basierend auf seismischen Informationen unter Verwendung von Daten aus Deep-Ocean Assessment and Reporting of Tsunamis (DART .).;-;-;-;https://link.springer.com/article/10.1007/s11069-010-9688-1 1bfe83394671e168c7c6c90ddca02aab;de;;;6.2.;;;Geburt in Brasilien: nationale Erhebung zu Arbeit und Geburt Die Kaiserschnittraten in Brasilien sind stetig gestiegen. Im Jahr 2009 war die Zahl der mit dieser Art von Verfahren geborenen Kinder erstmals höher als die Zahl der vaginalen Geburten. Kaiserschnitt ist mit einer Reihe von negativen Auswirkungen auf Frauen und Neugeborene verbunden, und neuere Erkenntnisse deuten darauf hin, dass die steigenden Raten von Frühgeburten und niedrigem Geburtsgewicht in Brasilien mit den steigenden Raten von Kaiserschnitt und Geburtseinleitung verbunden sind.;-;-;-;https://link.springer.com/article/10.1186/1742-4755-9-15 667967f252dea913790fed3b21fd0c31;de;;;6.2.;;;ISS allein reicht nicht aus, um Patienten post hoc korrekt den Anforderungen des Traumateams zuzuordnen Ein Verletzungsschweregrad (ISS) ≥ 16 allein wird häufig post hoc verwendet, um die korrekte Aktivierung eines Traumateams zu definieren. Abnorme Vitalfunktionen und die Notwendigkeit lebensrettender Maßnahmen können jedoch auch eine Rolle bei der Definition der post-hoc-Anforderungen des Traumateams spielen. Ziel dieser Studie war es, deren Prävalenz und Mortalität bei schwerverletzten Patienten zu beschreiben und ihren potentiellen Mehrwert bei der Definition des Traumateambedarfs gegenüber der alleinigen ISS-Definition abzuschätzen.;-;-;-;https://link.springer.com/article/10.1007/s00068-020-01410-4 abe7dbf5d47ee31710ad4c8cb23f44f9;de;;;6.2.;;;Ultraschalluntersuchung des Abdomens bei HIV/AIDS-Patienten im Südwesten Nigerias Obwohl das Hauptziel des HIV-Virus das Immunsystem ist, wurde berichtet, dass die Häufigkeit von abdominalen Erkrankungen bei HIV/AIDS-Patienten nach Lungenerkrankungen an zweiter Stelle steht. Diese abdominalen Manifestationen können zunehmen, da die Anwendung einer antiretroviralen Therapie die Lebenserwartung und die Lebensqualität erhöht hat. Ultraschall ist eine einfach durchzuführende, nicht-invasive, kostengünstige und sichere Bildgebungstechnik, die in Afrika von unschätzbarem Wert ist, wo AIDS am weitesten verbreitet ist und wo hochentwickelte Diagnosewerkzeuge nicht ohne weiteres verfügbar sind. Zweck: Beschreibung der Ergebnisse und Bewertung des klinischen Nutzens der abdominalen Ultraschalluntersuchung bei HIV/AIDS-Patienten in Ibadan, Nigeria;-;-;-;https://link.springer.com/article/10.1186/1471-2342-8-5 08151f2b49adf2581616a58969dc91b1;de;;;6.2.;;;Diversität aus dem Weltraum messen: eine globale Sicht auf das Freie und Open Source Die Variation der Artenvielfalt über Raum und Zeit wurde weithin als eine der zentralen Herausforderungen in der Ökologie anerkannt. Die Messung der Artenvielfalt über große Gebiete kann jedoch aus logistischen Gründen aufgrund der Zeit- und Kostenersparnis bei der Probenahme sowie der Zugänglichkeit abgelegener Ökosysteme schwierig sein. In diesem Beitrag stellen wir ein neues;-;-;-;https://link.springer.com/article/10.1007/s42974-021-00042-x 3e359b1cc9f6e9562466a7cebcfadd7a;de;;;6.2.;;;Akzeptanz und Bereitschaft von Männern, die Sex mit Männern (MSM) haben, eine Tablet-basierte HIV-Risikobewertung in einer klinischen Umgebung durchzuführen Wir haben eine iPad-basierte Anwendung entwickelt, um ein Instrument zur HIV-Risikobewertung in einem klinischen Umfeld zu verwalten. Wir führten Fokusgruppendiskussionen (FGDs) mit Schwulen, Bisexuellen und anderen Männern durch, die Sex mit Männern haben (MSM), um ihre Meinung zur Verwendung eines solchen Geräts zum Austausch von Risikoverhaltensinformationen in einem klinischen Umfeld zu bewerten. Die Teilnehmer wurden zu ihrer aktuellen Einschätzung ihres Risikos oder zu Risikominderungsstrategien befragt, die sie mit ihren Gesundheitsdienstleistern besprochen hatten. Die Teilnehmer wurden dann gebeten, Feedback zur iPad-basierten Risikobewertung, ihre Meinung zur Verwendung in einer Klinikumgebung und Vorschläge zur Verbesserung der Bewertung zu geben. Die Teilnehmer an REA standen der Idee einer iPad-basierten Risikobewertung bei Arztbesuchen im Allgemeinen aufgeschlossen gegenüber. Basierend auf den Ergebnissen der FGDs ist eine iPad-basierte Risikobewertung eine vielversprechende Methode, um die Patienten mit dem höchsten Risiko für eine HIV-Übertragung zu identifizieren.;-;-;-;https://link.springer.com/article/10.1186/2193-1801-3-708 43d394859a7e5d8ea4866f936ba43275;de;;;6.2.;;;Lösliche ST2-Plasmakonzentrationen sagen die Mortalität bei schwerer Sepsis voraus Patienten mit Sepsis zeigen – nachdem sie die initiale hyperinflammatorische Phase überstanden haben – Merkmale, die mit einer Immunsuppression übereinstimmen, einschließlich einer Hyporeaktivität immunkompetenter Zellen auf bakterielle Erreger. Es wird angenommen, dass die Immunsuppression durch negative Regulatoren von Toll-like-Rezeptoren, einschließlich membrangebundenem ST2, erleichtert wird. Wir untersuchten die Freisetzung von löslichem ST2 (sST2), einem Köderrezeptor, der die membrangebundene ST2-Signalgebung während einer Sepsis hemmt.;-;-;-;https://link.springer.com/article/10.1007/s00134-010-1773-0 b8104b7b744746443171aead46a5e912;de;;;6.2.;;;BPEX Pig Health Scheme: ein nützliches Überwachungssystem für die Kontrolle von Atemwegserkrankungen in Schweinehaltungsbetrieben? Atemwegserkrankungen verursachen erhebliche wirtschaftliche Verluste für die britische Schweineindustrie. Läsionen, die auf eine Atemwegserkrankung in der Schweinelunge beim Schlachten hinweisen, z.B. Lungenentzündung und Pleuritis werden häufig erfasst, um die Gesundheit der Herde zu beurteilen oder Daten für epidemiologische Studien bereitzustellen. Das BPEX Pig Health Scheme (BPHS) ist ein Überwachungssystem, das Erzeuger bei der Schlachtung über schwerwiegende Schäden an den Schlachtkörpern ihrer Schweine informiert und so Entscheidungen auf Betriebsebene ermöglicht. Ziel der Studie war es, zu beurteilen, ob die vom BPHS bereitgestellten Informationen zu Atemwegsläsionen mit Atemwegspathogenen im Betrieb, in der Betriebsführung und untereinander in Zusammenhang stehen.;-;-;-;https://link.springer.com/article/10.1186/1746-6148-7-82 75b5c52f33421e6d6ccb7d882013a435;de;;;6.2.;;;Implementierung einer gemeinsamen Entscheidungsfindung durch Ärzteschulungen zur Optimierung der Hypertoniebehandlung. Studienprotokoll eines Cluster-RCT Bluthochdruck ist einer der Schlüsselfaktoren für Herz-Kreislauf-Erkrankungen, die in den Industrienationen die häufigste Todesursache darstellen. Allerdings erreichen etwa 60 % der mit Antihypertensiva behandelten Bluthochdruckpatienten in Deutschland nicht den empfohlenen Zielblutdruck. Die Einbeziehung des Patienten in die medizinische Entscheidungsfindung erfüllt nicht nur einen ethischen Imperativ, sondern hat darüber hinaus das Potenzial für einen höheren Behandlungserfolg. Ein Konzept zur Stärkung der aktiven Rolle der Patienten ist die gemeinsame Entscheidungsfindung. Bisher gibt es nur wenige Informationen über die Auswirkungen von Schulungen zur gemeinsamen Entscheidungsfindung für Allgemeinmediziner auf die Patientenbeteiligung;-;-;-;https://link.springer.com/article/10.1186/1471-2261-12-73 f1739b922241f3d07d2f8f88d87a36ce;de;;;6.2.;;;Aktivierung des Dialogs zwischen Allgemeinmedizinern und Patienten über ihr Agenda-Studienprotokoll (MultiCare AGENDA) für eine randomisierte kontrollierte Cluster-Studie Diese Studie untersucht die Wirksamkeit einer komplexen, vielschichtigen Intervention, die darauf abzielt, die Versorgungsqualität von Hausärzten für Patienten mit Multimorbidität zu verbessern. Im Kern zielt die Intervention darauf ab, den Arzt-Patient-Dialog zu verbessern und die Agenda und Bedürfnisse des Patienten zu identifizieren. Auch ein Medikationscheck ist eingebettet. Unsere primäre Hypothese ist, dass eine stärker patientenzentrierte Kommunikation die Anzahl der eingenommenen Wirkstoffe reduziert, ohne die Lebensqualität der Patienten zu beeinträchtigen. Sekundärhypothesen sind ein besseres Wissen der Hausärzte über die Medikation ihrer Patienten, eine höhere Patientenzufriedenheit und eine effektivere bzw. effizientere Inanspruchnahme der Gesundheitsversorgung.;-;-;-;https://link.springer.com/article/10.1186/1471-2296-13-118 07483832c0bbcd9cb4f4ee549a0088c5;de;;;6.2.;;;Das ADDITION-Cambridge-Studienprotokoll: ein Cluster – randomisierte kontrollierte Studie zum Screening auf Typ-2-Diabetes und Intensivbehandlung für durch Screening erkannte Patienten Die zunehmende Prävalenz von Typ-2-Diabetes stellt eine große Herausforderung für die öffentliche Gesundheit dar. Bevölkerungsbasiertes Screening und eine frühzeitige Behandlung von Typ-2-Diabetes könnten diese wachsende Belastung reduzieren. Der Nutzen einer solchen Strategie bleibt jedoch ungewiss.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-9-136 f1465af51c0b9959fe76b580cd703084;de;;;6.2.;;;Entwicklung gemeindebasierter Präventivmaßnahmen in Hongkong: eine Beschreibung der ersten Phase des Familienprojekts Dieses Papier beschreibt die Entwicklung von kulturell angemessenen familienbasierten Interventionen und deren entsprechenden Maßnahmen, um die Gesundheit, das Glück und die Harmonie der Familie in Hongkong zu fördern. Programme wurden in der Gemeinde entwickelt, wobei ein kooperativer Ansatz mit Gemeindepartnern verwendet wurde. Der Entwicklungsprozess, die Herausforderungen und die gewonnenen Erkenntnisse werden beschrieben. Diese Erfahrung kann für die wissenschaftliche Gemeinschaft von Interesse sein, da derzeit nur wenige Informationen über die gemeinschaftsbasierte Entwicklung von Kurzinterventionen mit lokaler Gültigkeit in Kulturen außerhalb des Westens vorliegen.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-12-106 3beba07a2b934fd503fc0079b1ce9d4a;de;;;6.2.;;;Ein persistenter Datenverfolgungsmechanismus für benutzerzentrierte Identitätsverwaltung Identity Governance ist ein aufkommendes Konzept für die differenzierte bedingte Offenlegung von Identitätsinformationen und die Durchsetzung entsprechender Datenverarbeitungsrichtlinien. Obwohl zahlreiche Technologien entwickelt wurden, die dem Identitätsmanagement zugrunde liegen, haben die Menschen immer noch Schwierigkeiten, sich ein klares Bild davon zu machen, wie ihre Identitätsinformationen verwaltet, verwendet und weitergegeben werden. Ein Identitätsmanagement-Framework wird beschrieben, um den Verlauf des Umgangs mit Identitätsinformationen einer Person nach der Übertragung über Kontrolldomänen zu verfolgen und um Metarichtlinien im Zusammenhang mit der Verwaltung von über das Internet verteilten Identitätsinformationen durchzusetzen. Mit diesem Framework können Organisationen, die Identitätsinformationen verwalten, die Verantwortlichkeit für ihre Datenpraktiken verbessern und dadurch ihre Vertrauenswürdigkeit erhöhen. Das Framework ermöglicht es Benutzern auch, die Weitergabe ihrer Identitätsinformationen benutzerzentriert zu steuern und zu optimieren.;-;-;-;https://link.springer.com/article/10.1007/s12394-010-0069-4 97ee01b488f90bc10db27b6820973944;de;;;6.2.;;;Der Einsatz von Selbstüberwachung und Technologie zur Steigerung der körperlichen Aktivität: Ein Überblick über die Literatur Die gegenwärtige Fettleibigkeitsepidemie und der inaktive Lebensstil vieler Amerikaner führen zu Gesundheitsproblemen für Millionen von Amerikanern und wiederum zu Arztrechnungen in Millionenhöhe. Ein Aspekt dieses Problems ist der Mangel an körperlicher Aktivität, die Menschen ausüben. In der Vergangenheit wurden Selbstüberwachungstechniken verwendet, um die körperliche Aktivität zu steigern. Eine systematische Literaturrecherche zu dieser Forschung gibt es jedoch bisher nicht. Da Technologien, die benutzerfreundlich sind und die körperliche Aktivität zur Selbstkontrolle unterstützen, der Öffentlichkeit immer mehr zur Verfügung stehen, ist es außerdem wichtig, ihre Verwendung in Verbindung mit der Selbstkontrolle zu untersuchen. Der Zweck dieser Überprüfung bestand darin, festzustellen, wie Selbstüberwachungstechniken und -technologien angewendet wurden, um die körperliche Aktivität in mehreren Bevölkerungsgruppen zu steigern. Eine systematische Literaturübersicht identifizierte 19 Artikel. Die Ergebnisse zeigten, dass in der Mehrzahl der Studien mehr als eine Art von Selbstüberwachungsintervention verwendet wurde;-;-;-;https://link.springer.com/article/10.1007/s40614-020-00260-0 31f53ef2c6fe847e08acc0986467b978;de;;;6.2.;;;Maschinelles Lernen: von Radiomics zu Discovery und Routine Maschinelles Lernen gewinnt in der Radiologie rasant an Bedeutung. Es ermöglicht die Nutzung von Mustern in Bildgebungsdaten und in Patientenakten für eine genauere und präzisere Quantifizierung, Diagnose und Prognose. Hier skizzieren wir die für die Radiologie relevanten Grundlagen des maschinellen Lernens und geben einen Überblick über den aktuellen Stand der Technik, die Grenzen und Herausforderungen, mit denen diese Techniken zu einem wichtigen Baustein der Präzisionsmedizin werden. Darüber hinaus diskutieren wir, welche Rolle maschinelles Lernen im klinischen Alltag und in der Forschung spielen kann und prognostizieren, wie es die Radiologie verändern könnte.;-;-;-;https://link.springer.com/article/10.1007/s00117-018-0407-3 1f14a2aa3560772e8a2309e98ab54b5f;de;;;6.2.;;;Die CoLaus-Studie: eine populationsbasierte Studie zur Untersuchung der Epidemiologie und genetischer Determinanten von kardiovaskulären Risikofaktoren und dem metabolischen Syndrom Herz-Kreislauf-Erkrankungen und die damit verbundenen Risikofaktoren sind nach wie vor die Haupttodesursache in westlichen Gesellschaften. Um die Prävalenz von kardiovaskulären Risikofaktoren (CVRFs) in der kaukasischen Bevölkerung von Lausanne, Schweiz, zu bewerten, haben wir eine bevölkerungsbezogene Studie (Colaus-Studie) durchgeführt. Ein sekundäres Ziel der CoLaus-Studie wird es sein, neue genetische Determinanten im Zusammenhang mit CVRFs zu bestimmen.;-;-;-;https://link.springer.com/article/10.1186/1471-2261-8-6 a0fdb2a49ff29ac53a339a3b52807b0a;de;;;6.2.;;;Der Einsatz der Syndromüberwachung zur Entscheidungsfindung während der H1N1-Pandemie: Eine qualitative Studie Obwohl eine zunehmende Zahl von Studien den Einsatz der Syndromüberwachung durch die öffentliche Gesundheit an vorderster Front dokumentiert, wird der Mehrwert der Verknüpfung von Syndromdaten mit der Entscheidungsfindung im Bereich der öffentlichen Gesundheit nur wenige detailliert beschrieben. Diese Studie versucht zu verstehen, wie Syndromdaten bestimmte Maßnahmen im Bereich der öffentlichen Gesundheit während der H1N1-Pandemie 2009 beeinflusst haben.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-12-929 a81c12f6c16344971fef1df8dae78f19;de;;;6.2.;;;Risikofaktoren für Krankenhaustodesfälle bei schwer unterernährten Kindern in Kampala, Uganda Obwohl über die Risikofaktoren für eine erhöhte Sterblichkeit bei schwer unterernährten Kindern berichtet wurde, bleiben die jüngsten Informationen aus Afrika während einer Zeit der HIV-Pandemie und der eingeschränkten Gesundheitsversorgung lückenhaft. Das Ziel dieser Studie war es, die Risikofaktoren für übermäßige Todesfälle bei schwer unterernährten Kindern unter fünf Jahren im Krankenhaus zu ermitteln.;-;-;-;https://link.springer.com/article/10.1186/1471-2431-6-7 bda5f0dc757ce61a0524030fdf4015ff;de;;;6.2.;;;Malariometrische Indizes aus Iganga, Uganda: Baseline-Charakterisierung in Vorbereitung der GMZ2-Impfstoffstudie Malaria ist nach wie vor die Hauptursache für Morbidität und Mortalität bei Kindern in Uganda. Interventionen wie Malaria-Impfstoffe, die die Malaria-Belastung reduzieren, sind in Malaria-Endemiegemeinschaften erforderlich. Es besteht die Notwendigkeit, Baseline-Eigenschaften in Studienzentren für Impfstoffstudien festzulegen. In dieser Studie wurden die folgenden malariometrischen Basisindizes bestimmt: Milzrate, Bettnetzkonsum, Malariaparasitämie und Malariaepisoden in einer Anfangskohorte von Kindern im Alter von 12 bis 60 Monaten im Bezirk Iganga, Uganda.;-;-;-;https://link.springer.com/article/10.1186/1756-0500-7-793 9039e31e8b5c39ec71e86b9b3473aa46;de;;;6.2.;;;Infektion und Genotyp modellieren das gesamte Sojabohnen-Transkriptom Hochdurchsatzverfahren, wie z. B. hochdichte Oligonukleotid-Mikroarray-Messungen von mRNA-Spiegeln, sind beliebt und entscheidend für die Analyse im Genommaßstab und die Systembiologie. Das Verständnis der Ergebnisse dieser Analysen und insbesondere des sehr breiten Spektrums an beobachteten Transkriptionsänderungen ist jedoch immer noch eine große Herausforderung. Viele Forscher verwenden immer noch einen willkürlichen Cut-off, wie z. B. zweifach, um Veränderungen zu identifizieren, die biologisch bedeutsam sein können. Wir haben ein sehr groß angelegtes Microarray-Experiment mit 72 biologischen Replikaten verwendet, um die Reaktion von Sojabohnenpflanzen auf eine Infektion durch den Erreger zu analysieren;-;-;-;https://link.springer.com/article/10.1186/1471-2164-10-49 dd68ced55d353b522b3417d7e261f886;de;;;6.2.;;;Gültigkeit von zwei Fragebögen zur körperlichen Aktivität (IPAQ und PAQA) für vietnamesische Jugendliche in ländlichen und städtischen Gebieten Obwohl körperliche Aktivität als wichtige Determinante für Gesundheit und Ernährungszustand anerkannt ist, wurden in Entwicklungsländern nur wenige Instrumente entwickelt, um körperliche Aktivität zu bewerten. Ziel dieser Studie war es, die Validität der Kurzform des International Physical Activity Questionnaire (IPAQ) und einer lokal adaptierten Version des Physical Activity Questionnaire for Adolescents (PAQA) für den Einsatz bei schulpflichtigen Jugendlichen in ländlichen und städtischen Gebieten zu vergleichen Vietnam.;-;-;-;https://link.springer.com/article/10.1186/1479-5868-5-37 74e589256b1b1adff1d9da07421602ef;de;;;6.2.;;;Längsschnittstudie zur Malaria-Morbidität über 10 Jahre in Saharevo (Madagaskar): weitere Lehren zur Stärkung der Malariakontrolle Madagaskar ist bekannt für seine biogeo-ökologische Vielfalt, die sich in einer komplexen Malaria-Epidemiologie widerspiegelt, die von hyperendemischen bis zu malariafreien Gebieten reicht. Malariabedingte Anfälle und Infektionen werden sowohl bei Kindern als auch bei Erwachsenen, die in Gebieten mit geringer Malariaübertragung leben, häufig registriert. Um diese Variabilität in die nationale Malaria-Kontrollpolitik zu integrieren, sind umfangreiche epidemiologische Studien erforderlich, um bisherige Aufzeichnungen zu aktualisieren und Strategien anzupassen.;-;-;-;https://link.springer.com/article/10.1186/1475-2875-8-190 a110191b451485fbd5bf98503aa57e66;de;;;6.2.;;;Telekardiologie und Fernüberwachung implantierter elektrischer Geräte: Das Potenzial für neue Perspektiven der klinischen Versorgung Die Telekardiologie kann dazu beitragen, der wachsenden Belastung durch die Überwachung der Zuverlässigkeit implantierbarer Defibrillatoren/Schrittmacher zu begegnen. Hier schlagen wir vor, dass die sich entwickelnden Fähigkeiten implantierter Geräte zur Überwachung des Patientenstatus (Herzrhythmus, Flüssigkeitsüberladung, rechtsventrikulärer Druck, Oximetrie usw.) eine Verschiebung von einer streng gerätezentrierten Nachsorge hin zu einer patientenzentrierten Perspektive bedeuten können (und Patienten-Gerät-Interaktionen). Solche Ansätze könnten zu Verbesserungen bei der Gesundheitsversorgung und den klinischen Ergebnissen führen, insbesondere im Bereich der Herzinsuffizienz. Wichtige fachliche, politische und ethische Probleme müssen überwunden werden, um eine reale Umsetzung zu ermöglichen. Diese Herausforderung kann für die Entwicklung unserer Gesundheitssysteme relevant sein.;-;-;-;https://link.springer.com/article/10.1007/s11606-007-0355-5 62d9357acda4b4e6b89b3a2e0657db0a;de;;;6.2.;;;Vorstellung von W.A.T.E.R.S.: ein Workflow für die Ausrichtung, Taxonomie und Ökologie ribosomaler Sequenzen Seit mehr als zwei Jahrzehnten verwenden Mikrobiologen ein hochkonserviertes mikrobielles Gen als phylogenetischen Marker für Bakterien und Archaeen. Das Gen einer kleinen ribosomalen RNA, auch bekannt als 16 S rRNA, wird von ribosomaler DNA, 16 S rDNA, kodiert und hat mikrobiellen Ökologen ein leistungsfähiges Vergleichsinstrument bereitgestellt. Im Laufe der Zeit hat sich das Gebiet der mikrobiellen Ökologie von kleinen Studien in einer ausgewählten Anzahl von Umgebungen zu massiven Sammlungen von Sequenzdaten entwickelt, die mit Dutzenden von entsprechenden Sammlungsvariablen gepaart sind. Mit zunehmender Komplexität der Daten- und Werkzeugsätze ist der Bedarf an flexibler Automatisierung und Wartung der Kernprozesse der 16 S rDNA-Sequenzanalyse entsprechend gestiegen.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-11-317 417d72d35df47d6c0611d678edcab02e;de;;;6.2.;;;LunarEX – ein Vorschlag zur kosmischen Vision Während die Oberflächenmissionen zum Mond der 1970er Jahre viel erreichten, blieb auch wissenschaftlich vieles ungelöst. Die jüngste Fülle von Mondmissionen (geflogen oder vorgeschlagen) spiegelt ein Wiederaufleben des Interesses am Mond wider, nicht nur an sich, sondern auch als Aufzeichnung des frühen Sonnensystems einschließlich der Entstehung der Erde. Die Ergebnisse jüngster Orbiter-Missionen haben Hinweise auf Eis oder zumindest Wasserstoff in schattigen Kratern an den Mondpolen gezeigt.;-;-;-;https://link.springer.com/article/10.1007/s10686-008-9109-6 af69c58b03c066595dc9225323f9e738;de;;;6.2.;;;Konzept und Methodik der Nationalen Waldbodeninventur Der vorliegende Bericht basiert auf der Nationalen Waldbodeninventur (NFSI) sowie auf Fallstudien aus Intensivwaldmonitoring-Standorten in Deutschland. Die aktuelle sowie die zeitliche Entwicklung der Waldbodenverhältnisse und die größten Bedrohungen für Waldökosysteme werden diskutiert. Nach der Diskussion um den Waldrückgang in den 1980er Jahren wurde ein nationales Waldmonitoring etabliert, bestehend aus dem Forest Condition Survey, dem Intensive Forest Monitoring sowie dem NFSI. 1984 wurden die Standorte für die Forest Condition Survey auf einem 16 × 16 km großen Raster installiert, das Teil des UN/ECE ICP Forests Level I Monitoring sowie des European Soil Monitoring Project (BioSoil) ist. Die NFSI-Plots wurden anschließend basierend auf demselben Raster mit einem 8 × 8 km-Raster erstellt, das an etwa 1800 Probenahmestellen ergab. Die erste NFSI fand zwischen 1987 und 1992 statt. 2006 wurde die zweite NFSI gleichzeitig mit dem BioSoil-Programm durchgeführt. Die NFSI konzentrierte sich auf spezifische Fragestellungen für Waldböden hinsichtlich Stickstoffgehalt und Empfindlichkeit gegenüber Stickstoffeinträgen, auf Kohlenstoffspeicherung und Kohlenstoffbestandsveränderungen, auf Hintergrundbelastungen mit Schwermetallen und organischen Spurenelementen, auf das Zusammenspiel von Bodeneigenschaften und Waldernährung, Kronenzustand und Vegetation, auf das Risiko durch negative Veränderungen wie Nährstoffentzug oder Bodenversauerung sowie auf bodenchemische Wirkungen und Ernährungszustandsmaßnahmen zur Stabilisierung von Waldökosystemen. Um diese Ziele zu erreichen, umfasste die NFSI die Probenahme chemischer und physikalischer Bodenparameter, die Bestimmung der Blattelementkonzentrationen, die Bewertung der Zusammensetzung und Vielfalt der Unterwuchsvegetation sowie eine Bestandsaufnahme der Baumbestände einschließlich Totholz. Um die Datenharmonisierung und eine hohe Qualität der statistischen Auswertungen zu gewährleisten, wurde ein umfassendes Konzept zur Qualitätskontrolle und Qualitätssicherung für Felduntersuchungen, Labore, Datenmanagement und Auswertungen etabliert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-15734-0_1 c73d9691e67bfbc72dc6959f2e73df13;de;;;6.2.;;;Die Bedeutung des Body-Mass-Index bei der forensischen Altersbestimmung lebender Personen: eine altersangepasste lineare Regressionsanalyse unter Verwendung multivariabler fraktionierter Polynome Bei der forensischen Altersbestimmung lebender Individuen werden Entwicklungsstadien der Skelettreifung und Zahnmineralisierung untersucht und mit einer Referenzpopulation verglichen. Es ist von Interesse, welche Faktoren die Entwicklung dieser Merkmale beeinflussen können. Wir untersuchten den Einfluss des Body-Mass-Index (BMI) auf die Entwicklungsstadien der medialen Epiphyse des Schlüsselbeins, der distalen Epiphyse des Radius, der distalen Epiphyse des Femurs, der proximalen Epiphyse der Tibia und des linken unteren dritten Molaren bei insgesamt 581 Freiwilligen, 294 Frauen und 287 Männern im Alter von 12–24 Jahren, mittels 3-T-MRT. BMI-Werte in der Kohorte reichten von 13,71 kg/m²;-;-;-;https://link.springer.com/article/10.1007/s00414-020-02381-2 801a20b85ced6b58230ec1d2c803ab45;de;;;6.2.;;;Thematische Umgliederungen und Emerging Sciences Im Laufe der Zeit wurden verschiedene thematische Klassifikationen vorgeschlagen, um die Wissenschaft in ein kohärentes System spezialisierter Forschungsgebiete zu gliedern. Ausgehend von einer Analyse der historischen Entwicklung der Kriterien, die verwendet werden, um die Wissenschaften voneinander zu unterscheiden, schlage ich in diesem Aufsatz eine vierteilige Typologie für die verschiedenen thematischen Klassifikationssysteme vor, die von Gelehrten im Laufe der Jahrhunderte vorgeschlagen wurden. Grundsätzlich argumentiere ich, dass die Kriterien zur Differenzierung der Wissenschaften abwechselnd aus ihren jeweiligen Themengebieten, Wissensarten, Methoden und Zielen gezogen wurden. Dann zeige ich, dass es in der thematischen Struktur der Wissenschaft mehrere Umklassifizierungen gab. Schließlich argumentiere ich, dass solche Veränderungen in der Lernstruktur die Modalitäten des Kontakts zwischen den Objekten, Kenntnissen, Methoden und Zielen der verschiedenen Wissenschaftszweige verdrängt haben, mit dem Ergebnis, dass neu gestaltete intellektuelle Territorien umrissen werden, die der Entstehung neuer Forschungsbereiche förderlich sind .;-;-;-;https://link.springer.com/article/10.1007/s10838-020-09526-2 e36f382f125bbc94a6b7c624d67217ff;de;;;6.2.;;;Bestandsaufnahme der Fortschritte Myanmars bei den gesundheitsbezogenen Millenniums-Entwicklungszielen: aktuelle Hindernisse, Wege in der Zukunft Myanmar ist ein Entwicklungsland mit erheblichem humanitärem Bedarf, weshalb die Verfolgung der Millenniumsentwicklungsziele (MDGs) einen besonders hohen Stellenwert hat. Dennoch bleiben die bisherigen Fortschritte an den wichtigsten Fronten unterbewertet. Insbesondere innerhalb der drei gesundheitsbezogenen MDGs (MDGs 4, 5 und 6) weisen die begrenzten berichteten Daten auf ein lückenhaftes Leistungsniveau hin. Diese Studie wurde durchgeführt, um einen Überblick und eine Bewertung der Fortschritte Myanmars auf dem Weg zu den gesundheitsbezogenen MDGs zusammen mit möglichen Lösungen zur Beschleunigung der gesundheitsbezogenen Entwicklung bis 2015 und darüber hinaus zu geben. Die Überprüfung hebt die Fortschritte in den Bereichen Mutter- und Kindergesundheit (MDGs 4 und 5) hervor, die nicht auf der Strecke blieben. Es zeigt auch die Erfolge Myanmars bei den Zielen des MDG 6 – in den Bereichen HIV/AIDS, Malaria und Tuberkulose. Diese Errungenschaften sind besonders bemerkenswert, da Myanmar unter allen am wenigsten entwickelten Ländern Asiens das niedrigste Niveau an öffentlicher Entwicklungshilfe erhält. Um jedoch ähnliche Fortschritte bei den MDGs 4 und 5 zu erzielen, benötigt Myanmar verstärkte Investitionen und verstärktes Engagement im Gesundheitsbereich. Um die Entwicklungsagenda für die Zeit nach 2015 voranzutreiben, muss die Regierung Myanmars auch die Führung übernehmen, indem sie die Weltgesundheitsorganisation und ihre globalen Entwicklungspartner auffordert, um die Stagnation der gesundheitsbezogenen Entwicklungsfortschritte im Land anzugehen. Insbesondere sollte die Regierung Myanmars größere Anstrengungen zur Stärkung des Gesundheitssystems unternehmen, um den Weg zu einer universellen Gesundheitsversorgung zu ebnen.;-;-;-;https://link.springer.com/article/10.1186/1475-9276-12-78 243e96f0e658921c7abd3665b47bc553;de;;;6.2.;;;Prävalenz und Determinanten von Campylobacteriose, eine weltweit beobachtete bakterielle Zoonose, wird zur am häufigsten erkannten Ursache für bakterielle Gastroenteritis beim Menschen. Diese Studie wurde durchgeführt, um die Prävalenz und die Determinanten von . zu bestimmen;-;-;-;https://link.springer.com/article/10.1186/2049-3258-72-17 044fbc2a549c49ab412d784156e320cb;de;;;6.2.;;;„Hilfe gegen Heuschnupfen“, eine zielorientierte Intervention für Menschen mit intermittierender allergischer Rhinitis, die in schottischen öffentlichen Apotheken bereitgestellt wird: Studienprotokoll für eine randomisierte kontrollierte Pilot-Cluster-Studie Trotz der Verfügbarkeit evidenzbasierter Leitlinien zur Behandlung der allergischen Rhinitis in der Primärversorgung bleibt die Behandlung der Erkrankung im Vereinigten Königreich (UK) suboptimal. Die hohe Prävalenz und die negativen Auswirkungen auf Lebensqualität, Schulleistung, Produktivität und komorbide Atemwegserkrankungen (insbesondere Asthma) sowie die hohen Gesundheits- und gesellschaftlichen Kosten machen dies zu einer Priorität für die Entwicklung neuartiger Versorgungsmodelle. Jüngste australische Forschungen haben das Potenzial einer „zielorientierten“ Intervention auf Basis einer Gemeinschaftsapotheke gezeigt, um Menschen mit intermittierender allergischer Rhinitis zu helfen, ihre Erkrankung besser selbst zu bewältigen, die Schwere der Symptome zu reduzieren und die Lebensqualität zu verbessern. In dieser Pilotstudie werden wir die Übertragbarkeit der zielorientierten Intervention auf einen britischen Kontext, die Eignung der Interventionsmaterialien, Verfahren und Ergebnismaße bewerten und Daten sammeln, um eine zukünftige definitive randomisierte kontrollierte Studie (RCT) in Großbritannien zu informieren.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-14-217 bf75950588e5bddf087ccacb97b65b66;de;;;6.2.;;;Standards in Gesundheitsdaten Die Interoperabilität klinischer Daten erfordert gemeinsame Bedeutungsspezifikationen. Dies ist der Grund für klinische Datenstandards. Bisher wurden solche Standards unterschiedlich übernommen, obwohl sie zunehmend in einem Bereich befürwortet werden, in dem proprietäre Spezifikationen vorherrschen und semantische Ressourcen auf bestimmte Zwecke ausgerichtet und durch Grenzen von Sprachen und Jurisdiktionen begrenzt sind. Dieses Kapitel beleuchtet die Notwendigkeit von Datenstandards im Kontext des schwierigen und heterogenen Feldes klinischer Daten und der Art und Weise, wie diese durch Terminologien, Ontologien und Informationsmodelle behandelt werden. Es gibt einen Überblick über bestehende Standards und diskutiert Qualitäts- und Umsetzungsfragen. Ein weiterer Schwerpunkt liegt auf der eStandards-Methodik, die den Bedarf an Gesundheitsdatenstandards untersucht, die Erstellung standardisierter Artefakte unterstützt und Maßnahmen zur Umsetzung von Standards definiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99713-1_3 3a4f5a26f124cb79c84bfab5200e650d;de;;;6.2.;;;Prävalenz und Korrelate des Sitzens bei europäischen Erwachsenen – ein Vergleich von 32 Eurobarometer-Teilnehmerländern Längeres Sitzen ist ein aufkommendes Gesundheitsrisiko. Vergleichbare Sitzdaten aus mehreren Ländern sind jedoch spärlich. Dieses Papier berichtet über die Prävalenz und Korrelate der Sitzzeit in 32 europäischen Ländern.;-;-;-;https://link.springer.com/article/10.1186/1479-5868-10-107 9d3a719f8fe73b83a9f6f2ea87fa1f84;de;;;6.2.;;;Der Resolute™ Integrity Zotarolimus-freisetzende Stent bei koronarer Herzkrankheit: Eine Übersicht Die Einführung von Drug-Eluting Stents (DES) der ersten Generation war ein großer Fortschritt in der perkutanen Behandlung der koronaren Herzkrankheit, wobei DES die Häufigkeit von Restenose und schwerwiegenden unerwünschten koronaren Ereignissen im Vergleich zu Bare-Metal-Stents signifikant reduzierte. Die DES der nächsten Generation nutzt jetzt niedrigere Profile, dünnere Streben und andere technologische Fortschritte, um ihre Sicherheit und Wirksamkeit zu erhöhen. Wichtig ist, dass Studien mit Geräten der nächsten Generation inzwischen über kontrollierte klinische Studien mit ausgewählten Populationen hinaus auf Register und Studien mit All-Comer-Populationen übergegangen sind, in denen vielfältigere und komplexere Patientengruppen und Läsionen behandelt wurden. Somit hat sich eine große Menge an Beweisen und vergleichenden Daten über die Sicherheit und Wirksamkeit dieser Produkte angesammelt. Der Resolute™ Zotarolimus-freisetzende Stent (R-ZES, Medtronic Inc., Santa Rosa, CA, USA) ist ein DES der nächsten Generation, der ein neuartiges biokompatibles Polymer auf einer Kobaltlegierungs-Stentplattform verwendet, um die Dauer der Wirkstoffelution zu verlängern und zu verbessern die Wirksamkeit des Stents. Die Integrity™-Plattform (Medtronic, Inc., Santa Rosa, CA, USA), die in der neuesten Iteration des R-ZES-Stents verwendet wurde, verbessert die Flexibilität und Zustellbarkeit des Stents bei komplexen Läsionen durch den Einbau eines kontinuierlichen sinusförmigen Designs weiter. In der folgenden Übersicht werden die klinischen Daten des R-ZES kritisch untersucht und seine Leistungsfähigkeit anhand aktuell verfügbarer Vergleichsdaten für DES der nächsten Generation diskutiert. Es wird der Schluss gezogen, dass die Verwendung von R-ZES bei komplexen Patienten und Läsionen mit dauerhafter Wirksamkeit und Sicherheit verbunden ist und eine weitere Generationsverbesserung der DES-Technologie darstellt, die zweifellos die Patientenergebnisse nach der perkutanen Koronarintervention verbessern wird.;-;-;-;https://link.springer.com/article/10.1007/s40119-012-0010-z 196ab7d5cd13148c3a2bfb083c97ff79;de;;;6.2.;;;Myokardfunktion bei Aortenstenose – Erkenntnisse aus der radialen Multilayer-Doppler-Belastung Die linksventrikuläre (LV) radiale Gewebe-Doppler-Bildgebung (TDI)-Belastung nimmt bei gesunden Personen allmählich von der subepikardialen zur subendokardialen Schicht zu. Eine Speckle-Tracking-Echokardiographie-Studie deutete darauf hin, dass dieser Gradient parallel mit zunehmendem Schweregrad der Aortenstenose (AS) reduziert wird.;-;-;-;https://link.springer.com/article/10.1186/s12947-015-0001-z c088d87e134d5d7bee8243b325c61a2c;de;;;6.2.;;;Wirksamkeit der Beratung bei Angst und Depression bei Müttern von Kindern im Alter von 0-30 Monaten durch Gemeindearbeiter in Karachi, Pakistan: eine quasi experimentelle Studie Die Prävalenz von Angstzuständen/Depressionen ist während der Perinatalphase recht hoch, aber leider waren ihre Erkennung und Behandlung nicht zufriedenstellend. Darüber hinaus zögern viele Frauen, eine Pharmakotherapie einzunehmen, aus Angst, dass Medikamente in die Muttermilch ausgeschieden werden. Diese Studie bewertet die Wirksamkeit der Beratung durch minimal ausgebildete Gemeindegesundheitsmitarbeiter bei der Verringerung von Angstzuständen/Depressionen, der Rezidivrate und der Zeitspanne vor einem Rezidiv bei Frauen in den ersten zweieinhalb Jahren nach der Geburt.;-;-;-;https://link.springer.com/article/10.1186/1471-244X-10-57 44a3b0c7435ac82a4bda94a986fc4e30;de;;;6.2.;;;Anzeichen der Überwachung In diesem Kapitel werden die Herausforderungen der Arbeit mit komplexen digitalen Informationen, visuellen Bildern, Metadaten sowie zeitlichen und räumlichen Informationen als Rohstoffe für den künstlerischen Ausdruck diskutiert. In diesem Kapitel erhält der Leser einen Einblick in den Denkprozess und die Arbeitspraxis, künstlerisch und technisch, Informationen zu einem erkennbaren Werk zu formen und sowohl den Inhalt als auch die Form der Arbeit zu einem emotionalen, reflexiven Erlebnis zu verarbeiten. Dabei werden nicht nur die Herausforderungen der Arbeit mit externen, kommerziellen Software-Frameworks und Webservices und der Umgang mit der Sprödigkeit digitaler Dinge diskutiert, sondern auch die „semantische Affordanz“ von Computersystemen bei der konzeptionellen Arbeit mit Kunstmaterialien. Das Projekt „Signs of Surveillance“ entstand Anfang 2015 als fotografische Beobachtungs- und Kollationsaktivität und hat sich zu einem komplexen digitalen Web- und Installations-Live-Visualisierungsprojekt entwickelt. Seitdem wurden Tausende von Fotos von Überwachungszeichen und Warnzeichen, die darauf hinweisen, dass ein Gebiet oder eine Aktivität von einer Videokamera überwacht wird, in mehr als 15 Ländern aufgenommen, darunter Belgien, Kanada, China, Dänemark, Frankreich, Deutschland, Griechenland, Italien, Japan, Korea, Luxemburg, Niederlande, Portugal, Spanien, Schweden und Großbritannien. In diesem Kapitel wird die Entwicklung eines Aspekts dieser mehrteiligen Arbeit diskutiert, der sich direkt mit der Verwaltung und Manipulation einer großen Menge digitaler Daten befasst und mit komplexen Visualisierungssystemen und digitaler Online- und Offline-Verteilungstechnologie arbeitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-42097-0_10 330f815d2a6f8543e37e5248811d210f;de;;;6.2.;;;Nachbarschaftsunterschiede bei der Schlaganfall- und Myokardinfarktmortalität: ein GIS- und räumlicher Scan-Statistikansatz Schlaganfall und Myokardinfarkt (MI) sind in den USA eine ernsthafte Belastung für die öffentliche Gesundheit. Diese Belastungen variieren je nach geografischem Standort, wobei die höchsten Sterblichkeitsrisiken im Südosten der USA gemeldet werden. Während diese Unterschiede auf Bundesstaats- und Bezirksebene untersucht wurden, ist wenig über Risikounterschiede auf niedrigeren geografischen Ebenen, wie z. B. Nachbarschaften, bekannt. Das Ziel dieser Studie war es daher, räumliche Muster von Schlaganfall- und MI-Sterblichkeitsrisiken in der Ost-Tennessee-Appalachen-Region zu untersuchen, um Nachbarschaften mit den höchsten Risiken zu identifizieren.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-11-644 92cf4b9fde04d1b19b48ba91fad8dc90;de;;;6.2.;;;Verbraucher von natürlichen Gesundheitsprodukten: natürliche Pharmakovigilanten? Natürliche Gesundheitsprodukte (NHPs), wie pflanzliche Arzneimittel und Vitamine, sind im Freiverkehr weit verbreitet und werden von Verbrauchern oft ohne Beratung durch einen Gesundheitsdienstleister gekauft. Diese Studie untersuchte, wie Verbraucher reagieren, wenn sie glauben, NHP-bedingte unerwünschte Arzneimittelwirkungen (UAW) erlebt zu haben, um festzustellen, wie die aktuellen Strategien zur Sicherheitsüberwachung verbessert werden können.;-;-;-;https://link.springer.com/article/10.1186/1472-6882-10-8 957b575de77b2be23fdb58489cb2a11a;de;;;6.2.;;;Prävalenz von Übergewicht und Adipositas bei öffentlichen Bediensteten im Distrikt Nadowli, Ghana, und damit verbundene Risikofaktoren: eine Querschnittsstudie Übergewicht und Fettleibigkeit werden weltweit zu einem wachsenden Problem und wirken sich insbesondere in einkommensschwachen Bevölkerungsgruppen negativ auf die Gesundheit der Bevölkerung aus. In Ghana stehen jedoch nur wenige epidemiologische Informationen zur Verfügung, um Interventionsaktivitäten zu unterstützen. Wir führten eine Studie unter Beamten durch, um die Prävalenz von Übergewicht/Adipositas, Bluthochdruck und Diabetes sowie die damit verbundenen Risikofaktoren abzuschätzen.;-;-;-;https://link.springer.com/article/10.1186/s40608-017-0153-5 da8b327c7fa6039f104ca7e92f1bd3de;de;;;6.2.;;;Ein MCMC-basierter EM-Algorithmus für Mischungen von Gauß'schen Prozessen Die Mischung von Gauß-Prozessen (MGP) ist ein leistungsfähiges statistisches Lernmodell für Regression und Vorhersage und der EM-Algorithmus ist eine effektive Methode zum Lernen oder Schätzen von Parametern. Die möglichen EM-Algorithmen für MGPs sind jedoch gewisse Näherungen des realen EM-Algorithmus, da die Q-Funktion in dieser Situation nicht effizient berechnet werden kann. Um dieses Problem zu lösen, schlagen wir einen MCMC-basierten EM-Algorithmus für MGPs vor, bei dem die Q-Funktion alternativ an einem Satz simulierter Stichproben über die Markov Chain Monte Carlo (MCMC)-Methode geschätzt wird. Durch die Experimente mit synthetischen und realen Datensätzen wird gezeigt, dass unser vorgeschlagener MCMC-basierter EM-Algorithmus effektiver ist als die anderen drei EM-Algorithmen für MGPs.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25393-0_36 a272f848b45b420174861e18dcc54b59;de;;;6.2.;;;BOV – ein webbasiertes BLAST-Ausgabevisualisierungstool Das BLAST-Programm ist eines der am häufigsten verwendeten Werkzeuge zur Suche nach Sequenzähnlichkeiten für die Genomforschung, selbst von Biologen, die keine umfassende bioinformatische Ausbildung haben. Da die Verfügbarkeit von Sequenzdaten zunimmt, laden immer mehr Forscher das BLAST-Programm zur lokalen Installation herunter und führen größere und komplexere Aufgaben durch, einschließlich Batch-Abfragen. Um die Ergebnisse von Batch-Abfragen zu verwalten und zu interpretieren, wurde eine Vielzahl von Softwarepaketen entwickelt, die das Datenmanagement und die Nachbearbeitung unterstützen. Unter diesen Programmen fehlt es fast vollständig an Visualisierungswerkzeugen, um eine grafische Darstellung komplexer paarweiser BLAST-Ausrichtungen bereitzustellen. Wir haben ein webbasiertes Programm entwickelt,;-;-;-;https://link.springer.com/article/10.1186/1471-2164-9-414 0abcb696d7d9bcf5d510da8e762e06f6;de;;;6.2.;;;Die Löschmaschine und ihre Unzufriedenheit Die Löschung war ein zentraler Bestandteil des in diesem Buch untersuchten algorithmischen Systems. Auch das Löschen ist ein zentrales Motiv zeitgemäßen Datenmanagements: Begriffe wie Verhältnismäßigkeit, Erforderlichkeit, Haltbarkeit von Daten, Recht auf Vergessenwerden oder Recht auf Löschung und spezifische Datenschutzbestimmungen beziehen sich auf das Löschen. In diesem Kapitel wird die Berechnungsgrundlage für das Löschen verwendet, um nicht nur einen Einblick in den Inhalt eines Algorithmus, sondern auch über seine alltägliche Zusammensetzung, Auswirkungen und die damit verbundenen Erwartungen zu geben. Das Kapitel weist jedoch darauf hin, dass das Löschen auch ein besonderes Problem darstellt: Die Schaffung von Nichts (dem Gelöschten) muss ständig nachgewiesen werden. Diese Schwerpunkte und die Beweisschwierigkeiten werden genutzt, um den Vorschlägen der zeitgenössischen Forschung Rechnung zu tragen, dass Algorithmen mächtig und handlungsfähig sind und leicht in der Lage sind, Befehle zu erlassen und auszuführen. Stattdessen fordert das Kapitel eine detailliertere Analyse dessen, was algorithmischen Erfolg und Misserfolg ausmacht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00578-8_4 dfaab358771a10fce368ccecebd8c186;de;;;6.2.;;;Herzdysfunktion bei Patienten mit akutem ischämischen Schlaganfall oder TIA sagt keine Gesamtmortalität bei der Langzeitnachuntersuchung voraus Obwohl Herzinsuffizienz ein wesentlicher Risikofaktor für Schlaganfälle ist, haben nur wenige Studien den prädiktiven Wert von Herzfunktionsstörungen für die Gesamtmortalität bei Patienten mit akutem ischämischen Schlaganfall, insbesondere bei älteren Menschen, untersucht. Das Ziel dieser Studie war es zu untersuchen, ob eine eingeschränkte Herzfunktion bei älteren Patienten die Gesamtmortalität nach einem akuten ischämischen Schlaganfall oder einer transitorischen ischämischen Attacke (TIA) vorhersagen kann.;-;-;-;https://link.springer.com/article/10.1186/1471-2377-13-122 9258078c6e721ea0b9e6e44cb06258f5;de;;;6.2.;;;Eine einzige Institution, gefolgt von einer nationalen Implementierung einer systematischen chirurgischen Qualitätskontrolle und Feedback für die radikale Prostatektomie: eine 20-jährige Reise Die Nachfrage nach objektiven und ergebnisorientierten Fakten über Operationsergebnisse nach radikaler Prostatektomie (RP) steigt. Ein systematisches Feedback ist auch für jeden Chirurgen unerlässlich, um seine Leistung zu verbessern.;-;-;-;https://link.springer.com/article/10.1007/s00345-019-02887-4 8df119a8b3e7bcef19077c93c765f431;de;;;6.2.;;;Gesundheitsversorgung bei jugendlichen Mädchen vor der Diagnose sexuellen Missbrauchs, eine Fall-Kontroll-Studie in der Region Stockholm Opfer sexuellen Missbrauchs haben mehr Komorbiditäten als andere Personen gleichen Alters und die am stärksten betroffene Gruppe sind jugendliche Mädchen. Es ist wenig darüber bekannt, wie sich dies vor der registrierten Diagnose in den Konsummustern im Gesundheitswesen widerspiegelt. Das Ziel dieser Untersuchung war es, das Konsumverhalten von Mädchen im Alter von 12 bis 17 Jahren, 1 und 2 Jahre vor der Diagnose sexuellen Missbrauchs, zu untersuchen. Über die Verwaltungsdatenbank der Region Stockholm (VAL) wurden Daten zu Komorbiditäten, Anzahl von Arztbesuchen und verschriebenen Medikamenten für Fälle gesammelt (Mädchen im Alter von 12 bis 17 Jahren mit Diagnose von;-;-;-;https://link.springer.com/article/10.1007/s00787-019-01445-y 715dd9e2a24150028a63a14d9f33a531;de;;;6.2.;;;Kosten der Diabetesversorgung in ambulanten Kliniken von Karachi, Pakistan Diabetes mellitus (DM) ist eine wachsende Epidemie und die Kosten für die Behandlung von Diabetes steigen stark an. Das Ziel dieser Studie war es, die Krankheitskosten von DM bei den Teilnehmern ambulanter Kliniken in Karachi, Pakistan, abzuschätzen. Dies ist die erste Studie, die aus gesellschaftlicher Sicht durchgeführt wurde, um die Kosten für die Behandlung von Diabetes in Pakistan abzuschätzen.;-;-;-;https://link.springer.com/article/10.1186/1472-6963-7-189 2c1c69873efb2ca3e6bf026979a2dea4;de;;;6.2.;;;M-Health: Unterstützung automatisierter Diagnosen und elektronischer Gesundheitsakten Mobile Technologie ist aus unserem Alltag nicht mehr wegzudenken. Mobile Dienste werden in einer Vielzahl von wissenschaftlichen Bereichen einschließlich des Gesundheitswesens eingesetzt. Als Schnittstelle zwischen computergestützter Technologie und Medizin wird von m-Health eine höhere Qualität im Gesundheitswesen erwartet. Ein Mittel, um Menschen davon abzuhalten, ihre Gesundheitsprobleme zu vernachlässigen, ist die Bereitstellung weiterer und gezielter Informationen, während diese Informationen auf den wichtigsten Geräten verfügbar sind, die die meisten Menschen regelmäßig verwenden, nämlich auf jeder mit dem Internet verbundenen Station oder einem Mobiltelefon, das den Zugang zu ihrer Gesundheit ermöglicht enabling Status jederzeit und an jedem Ort.;-;-;-;https://link.springer.com/article/10.1186/2193-1801-2-103 4bb474f752fdd4bbce758668d81eb476;de;;;6.2.;;;Malaria bei nach China zurückkehrenden ausländischen Arbeitern: eine Analyse importierter Malaria in der Provinz Jiangsu, 2001–2011 Während in China große Erfolge bei der Malariabekämpfung erzielt wurden, ist importierte Malaria im Rahmen der Malariaelimination zu einer großen Herausforderung geworden. Diese retrospektive Studie beschreibt das epidemiologische Profil importierter Malaria und identifiziert die Risikopopulation im Zeitraum 2001–2011 in der Provinz Jiangsu.;-;-;-;https://link.springer.com/article/10.1186/1475-2875-13-29 7c7e8515974dccc27bab326ef81506a7;de;;;6.2.;;;LucKi Geburtskohortenstudie: Begründung und Design Säuglings- und Kleinkindalter zeichnen sich durch ein schnelles Wachstum und eine schnelle Entwicklung aus, die den Gesundheitszustand und das Wohlbefinden über die gesamte Lebensspanne maßgeblich bestimmen. Die Identifizierung modifizierbarer Risikofaktoren und prognostischer Faktoren in kritischen Lebensphasen wird zur Entwicklung wirksamer Präventions- und Interventionsstrategien beitragen.;-;-;-;https://link.springer.com/article/10.1186/s12889-015-2255-7 5f2307be9d9a40af8b5a86fdfba14717;de;;;6.2.;;;Faktoren im Zusammenhang mit der Inanspruchnahme von Gebärmutterhalskrebs-Screening bei Inuit-Frauen in Nunavik, Quebec, Kanada Die kanadische zirkumpolare Inuit-Population hat eine höhere Inzidenz von Gebärmutterhalskrebs als die allgemeine Bevölkerung, und die meisten Fälle treten bei untergescreenten Frauen auf. Die Ziele dieser Studie bestanden darin, die Nutzungsraten von Pap-Abstrichen zu bestimmen und Faktoren zu bestimmen, die mit einer zeitlich unangemessenen Anwendung von Gebärmutterhalskrebs-Screening bei einer Kohorte von Inuit-Frauen aus Nunavik, Quebec, Kanada, verbunden sind.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-13-438 ad4a5e576eaf59c5986de8bcbe9a3222;de;;;6.2.;;;Biotransformation von Ginsenosid Rb1 über den Gypenosidweg durch menschliche Darmbakterien Die bakterielle Umwandlung von Ginsenosiden ist entscheidend für die gesundheitsfördernde Wirkung von Ginsenosiden. Frühere Studien zur Biotransformation von Ginsenosid Rb1 (Rb1) durch Darmbakterien konzentrierten sich auf den Ginsenosid Rd (Rd)-Weg (Rb1 → Rd → Ginsenosid F2 (F2) → Verbindung K (Cpd K)). Diese Studie zielt darauf ab, den Gypenosid-Weg in menschlichen Darmbakterien zu untersuchen;-;-;-;https://link.springer.com/article/10.1186/1749-8546-8-22 3145ac90f6d6da24112afd45565dcca3;de;;;6.2.;;;Tuberkulose-Fallfindung basierend auf Symptomscreening bei Einwanderern, Flüchtlingen und Asylsuchenden in Rom In Italien ist der Anteil der Tuberkulosefälle bei Personen aus Ländern mit hoher Prävalenz in den letzten zehn Jahren gestiegen. Wir haben eine Studie entwickelt, um die Einhaltung und den Erfolg eines Tuberkulose-Screening-Programms zu beurteilen, das auf einem Symptom-Screening basiert, das in Primärversorgungszentren für reguläre und irreguläre Einwanderer und Flüchtlinge/Asylsuchende durchgeführt wurde.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-13-872 2a92750143ccdc72de2b17abe06d7899;de;;;6.2.;;;Spezifische Genexpressionsprofile und Chromosomenanomalien sind mit einem disseminierten Neuroblastom bei Säuglingen verbunden Neuroblastom (NB)-Tumoren haben die höchste Inzidenz spontaner Remission, insbesondere in der NB-Untergruppe im Stadium 4s, die Säuglinge betrifft. Die klinische Abgrenzung des Stadiums 4 vom letalen Stadium 4 kann schwierig sein, ist aber für therapeutische Entscheidungen entscheidend. Das Ziel dieser Studie war es, chromosomale Veränderungen und die unterschiedliche Genexpression in den bei Säuglingen disseminierten NB-Untergruppen zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/1471-2407-9-44 aaad1c76a7efd5696462d87b778a52db;de;;;6.2.;;;Unterschiede in den Mustern einer Hochrisiko-Infektion mit humanen Papillomaviren zwischen städtischen und ländlichen Umgebungen mit geringen Ressourcen: Querschnittsergebnisse aus Mali Die Belastung durch Gebärmutterhalskrebs ist in ressourcenarmen Situationen unverhältnismäßig hoch. Angesichts der begrenzten Einführung von Human-Papillomavirus (HPV)-Impfstoffen in den Entwicklungsländern am Horizont sind zuverlässige Daten zur Epidemiologie der Hochrisiko-HPV-Infektion (HR-HPV) in unterschiedlichen geografischen Bevölkerungsgruppen für die Planer von Impfprogrammen unerlässlich. Ziel dieser Studie war es, anhand von Daten aus Mali, Westafrika, festzustellen, ob städtische Muster des Auftretens von HR-HPV auf ländliche Gebiete desselben Entwicklungslandes übertragen werden können.;-;-;-;https://link.springer.com/article/10.1186/1472-6874-13-4 a5896bc2fbaa0ba573abb063ee34e3ca;de;;;6.2.;;;Entwicklung einer Skala zur Messung der Familiendynamik im Zusammenhang mit der Langzeitpflege und Testen dieser Skala in einer multizentrischen Querschnittsstudie Da die Bevölkerung Japans altert, werden immer mehr gebrechliche ältere Menschen von ihren Familienmitgliedern betreut. Die Dynamik innerhalb solcher Familien ist schwer zu untersuchen, zum Teil weil sie schwer zu quantifizieren ist. Wir haben eine Skala zur Erfassung der Familiendynamik im Zusammenhang mit der Langzeitpflege entwickelt. Hier berichten wir über die Entwicklung dieser Waage und stellen die Ergebnisse von Zuverlässigkeitstests und Validierungstests vor.;-;-;-;https://link.springer.com/article/10.1186/1471-2296-15-134 10348e338338748ff90f39486cabdbb4;de;;;6.2.;;;Identifizierung von Symptomdomänen bei Colitis ulcerosa, die häufig während Schübe auftreten und auf Veränderungen der Krankheitsaktivität ansprechen Die Aktivität der Colitis ulcerosa wird durch die Messung von Symptomen und Anzeichen bestimmt. Unser Ziel war es, zu bestimmen, welche Symptomdomänen häufig sind und auf Veränderungen in der Bewertung der Krankheitsaktivität ansprechen, die durch drei Kriterien definiert werden: 1) sie treten häufig während Schübe auf, 2) sie verbessern sich während einer wirksamen Therapie der Colitis ulcerosa und 3 ) lösen sie sich während der Remission auf.;-;-;-;https://link.springer.com/article/10.1186/1477-7525-6-69 e36d0b3e5a11b15f39f9d2cb842f52cb;de;;;6.2.;;;Komorbidität, Alter, Rasse und Diagnosestadium bei Darmkrebs: eine retrospektive, parallele Analyse zweier Gesundheitssysteme Das Stadium bei der Diagnose spielt eine bedeutende Rolle für das Überleben von Darmkrebs (CRC). Es ist wichtig zu verstehen, welche Faktoren zu einem fortgeschritteneren Stadium bei der Diagnose beitragen, um das Gesamtüberleben zu verbessern. Es ist bekannt, dass Komorbidität, ethnische Zugehörigkeit und Alter den Erhalt einer Krebstherapie und das Überleben beeinflussen, aber die Beziehung dieser Faktoren zum Stadium bei der Diagnose von CRC ist weniger klar. Das Ziel dieser Studie ist es zu untersuchen, wie Komorbidität, Rasse und Alter das Stadium der CRC-Diagnose beeinflussen.;-;-;-;https://link.springer.com/article/10.1186/1471-2407-8-345 872f74ff30ad6616a2cc1503fd0b6703;de;;;6.2.;;;Eine vergleichende Untersuchung medizinischer Screening-Programme zur Tuberkulose-Einwanderung aus ausgewählten Ländern mit hoher Einwanderung und niedrigen Tuberkulose-Inzidenzraten Tuberkulose (TB) bei Migranten stellt in mehreren Ländern mit niedriger TB-Inzidenz eine anhaltende Herausforderung dar, da ein großer Teil der TB in diesen Ländern bei Migranten aus Ländern mit hoher TB-Inzidenz auftritt. Um diesen Herausforderungen zu begegnen, setzen mehrere Länder TB-Screening-Programme ein. Die Programme versuchen, diejenigen mit aktiven und/oder infektiösen Stadien der Krankheit zu identifizieren und zu behandeln. Darüber hinaus wird das Screening verwendet, um diejenigen mit latenter oder inaktiver Krankheit nach der Ankunft zu identifizieren und zu behandeln. Zwischen den Nationen bestehen erhebliche Unterschiede bei den Methoden, die beim migrationsassoziierten TB-Screening verwendet werden. Die vorliegende Studie zielte darauf ab, die medizinischen Untersuchungsanforderungen für die TB-Einwanderung in ausgewählten Ländern mit hoher Einwanderung und niedriger TB-Inzidenzrate zu vergleichen.;-;-;-;https://link.springer.com/article/10.1186/1471-2334-11-3 eb3563765b8c280810e947e2496c4e19;de;;;6.2.;;;Bewertung der Compliance und der Ergebnisse eines Behandlungsprotokolls für massive postpartale Blutungen in einem Krankenhaus der tertiären Versorgung in Pakistan Eine massive postpartale Blutung ist ein lebensbedrohlicher geburtshilflicher Notfall. Um die mit dieser Erkrankung verbundenen Komplikationen zu vermeiden, sollte sofort ein organisiertes und schrittweises Behandlungsprotokoll eingeleitet werden.;-;-;-;https://link.springer.com/article/10.1186/1471-2393-11-28 c496edf0c4e4e49af9081de90221eb6c;de;;;6.2.;;;Gesundheitsergebnisse bei COPD-Rauchern, die erhitzte Tabakprodukte verwenden: ein 3-Jahres-Follow-up Da viele Patienten mit chronisch obstruktiver Lungenerkrankung (COPD) trotz ihrer Symptome rauchen, ist es wichtig, die langfristigen gesundheitlichen Auswirkungen einer Zigarettensubstitution durch erhitzte Tabakprodukte (HTPs) zu verstehen. Wir überwachten 3 Jahre lang Gesundheitsparameter bei COPD-Patienten, die nach der Umstellung auf HTPs den Zigarettenkonsum erheblich reduzierten oder aufhörten. Veränderungen des täglichen Zigarettenrauchens, annualisierte Krankheits-Exazerbationen, Lungenfunktionsindizes, von Patienten berichtete Ergebnisse (CAT-Scores) und 6-Minuten-Gehstrecke (6MWD) gegenüber dem Ausgangswert wurden bei COPD-Patienten mit HTPs nach 12, 24 und 36 Monaten gemessen. Diese wurden mit einer Gruppe von alters- und geschlechtsangepassten COPD-Patienten verglichen, die weiter rauchten. Für 38 Patienten (19 in jeder Gruppe) standen vollständige Datensätze zur Verfügung. Patienten, die HTPs einnahmen, hatten eine erhebliche Abnahme der annualisierten COPD-Exazerbationen innerhalb des Gruppenmittels (± SD) von 2,1 (± 0,9) zu Studienbeginn auf 1,4 (± 0,8), 1,2 (± 0,8) und 1,3 (± 0,8) bei 12-, 24 - und 36-Monats-Follow-up (;-;-;-;https://link.springer.com/article/10.1007/s11739-021-02674-3 d893ca646e7093667974d1d088034c89;de;;;6.2.;;;Vorstudienprotokoll MagPEP: eine multizentrische randomisierte kontrollierte Studie mit Magnesiumsulfat zur Vorbeugung von Post-ERCP-Pankreatitis Die akute Pankreatitis ist die häufigste Komplikation der diagnostischen und therapeutischen endoskopischen retrograden Cholangiopankreatikographie (ERCP). Trotz anhaltender Forschung hat kein pharmakologisches Mittel, das in der Lage ist, das Auftreten von ERCP-induzierter Pankreatitis wirksam zu reduzieren, seinen Weg in die klinische Praxis gefunden. Eine Reihe experimenteller Studien legt nahe, dass intrapankreatische Calciumkonzentrationen eine wichtige Rolle bei der Initiierung der intrazellulären Proteaseaktivierung spielen, einem initiierenden Schritt im Verlauf einer akuten Pankreatitis. Magnesium kann als Calcium-Antagonist wirken und wirkt der Calcium-Signalübertragung entgegen. Es kann dadurch die intrazelluläre Aktivierung proteolytischer Verdauungsenzyme in der Bauchspeicheldrüse abschwächen und die Schwere einer experimentellen Pankreatitis verringern, wenn es entweder intravenös oder als Nahrungsergänzungsmittel verabreicht wird.;-;-;-;https://link.springer.com/article/10.1186/1471-230X-13-11 adb0b716e87066c21e416d32b2618196;de;;;6.2.;;;Warum Ärzte und Pflegepersonal nach Partnergewalt fragen (oder nicht): eine qualitative Analyse Gewalt in der Partnerschaft (IPV) gegen Frauen ist ein ernstes Problem der öffentlichen Gesundheit und ist mit erheblichen negativen gesundheitlichen Folgen verbunden. Die aktuelle Studie wurde durchgeführt, um: 1) die beruflichen und persönlichen Erfahrungen von Ärzten und Pflegepersonal bei Fragen zu IPV zu untersuchen, 2) die Unterschiede nach Fachrichtung zu bestimmen und 3) Auswirkungen auf die Praxis, die Arbeitsplatzpolitik und die Lehrplanentwicklung zu identifizieren.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-12-473 df1d185216a16c6d5adc6c7b0f9203ad;de;;;6.2.;;;Gemeindegesundheit und medizinische Versorgung: Auswirkungen auf Neugeborene (die CHAMPION-Studie) Ziel der Studie ist es zu evaluieren, ob die neonatale Sterblichkeit durch systemische Veränderungen der Gesundheitsversorgung und -förderung gesenkt werden kann. Die Sterblichkeitsrate von Neugeborenen in Indien ist im Vergleich zu anderen Ländern mit niedrigem Einkommen hoch, und die Raten variieren zwischen den Regionen stark. Es gibt Hinweise darauf, dass relativ kostengünstige Interventionen bis zu 75 % dieser Todesfälle verhindern können. Ein Gebiet mit einer besonders hohen Rate ist der Bezirk Mahabubnagar in Andhra Pradesh, wo die Neugeborenensterblichkeit auf 4–9 % geschätzt wird. Die Region leidet unter einem Teufelskreis, bei dem sowohl ein geringes Angebot als auch eine geringe Nachfrage nach Gesundheitsdienstleistungen bestehen. Die Studie wird prüfen, ob ein Maßnahmenpaket zur Erleichterung systemischer Veränderungen in der Bereitstellung und Förderung der Gesundheitsversorgung in der Lage sein könnte, die Neugeborenensterblichkeit in diesem Bereich erheblich zu senken und kosteneffektiv zu sein. Im Erfolgsfall ist die Studie so konzipiert, dass es möglich sein sollte, das Projekt in Regionen mit ähnlich hoher Neugeborenensterblichkeit in ganz Andhra Pradesh und anderswo erheblich auszuweiten.;-;-;-;https://link.springer.com/article/10.1186/1471-2431-7-26 55794c960493ac8614bc40f046c4c8c6;de;;;6.2.;;;Unterschiede bei der Verletzungssterblichkeit zwischen Uganda und den Vereinigten Staaten: Vergleichende Analyse einer vernachlässigten Krankheit Die Belastung durch weltweite verletzungsbedingte Todesfälle betrifft überwiegend Entwicklungsländer, die über wenig Infrastruktur verfügen, um diese Unterschiede zu bewerten. Wir beschreiben verletzungsbedingte Mortalitätsmuster in Kampala, Uganda und vergleichen sie mit Daten aus den USA und San Francisco (SF), Kalifornien.;-;-;-;https://link.springer.com/article/10.1007/s00268-010-0871-z 0524ec7174bb4e1a57c9db22f17590c1;de;;;6.2.;;;Hindernisse und Voraussetzungen für die Teilnahme am Allied Health Rural and Remote Training and Support (AHRRTS)-Programm für ländliches und abgelegenes alliiertes Gesundheitspersonal: eine qualitative beschreibende Studie Allied Health Professionals spielen eine entscheidende Rolle bei der Verbesserung der Gesundheitsergebnisse im primären und tertiären Bereich. Die Probleme, die die Anwerbung und Bindung von verbündeten Gesundheitspersonal in ländlichen und abgelegenen Gebieten betreffen, sind multifaktoriell. Der Zugang zu relevanter und effektiver Weiterbildung wird als Anwerbungs- und Bindungsstrategie für Angehörige der Gesundheitsberufe in nicht-städtischen Gebieten angesehen, jedoch ist eine Prüfung der Wirksamkeit von Weiterbildungsprogrammen und die Identifizierung von Voraussetzungen und Hindernissen für die Teilnahme erforderlich. Das Programm Allied Health Rural and Remote Training and Support (AHRRTS) zielte darauf ab, ein integriertes Programm zur Bildung und professionellen Unterstützungsaktivitäten für alliierte Gesundheitsfachkräfte bereitzustellen, die bei Queensland Health in ländlichen und abgelegenen Gebieten tätig sind. Das Ziel dieser Studie war es, die Voraussetzungen und Hindernisse für den Zugang zum AHRRTS-Programm und die effektive Teilnahme am AHRRTS-Programm aus den Perspektiven verschiedener verbundener Gesundheitsakteure zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/1472-6920-14-194 20148eafd21819aefc1c6ddaa7e1274b;de;;;6.2.;;;Transkriptomische Signatur von Bexaroten (Rexinoid LGD1069) auf der Brustdrüse aus drei transgenen Mausmodellen für Brustkrebs Das Rexinoid Bexaroten (LGD1069, Targretin) ist ein hochselektiver Retinoid-×-Rezeptor (RXR)-Agonist, der das Wachstum prämaligner und maligner Brustzellen hemmt. Es wurde gezeigt, dass Bexaroten die Entwicklung von Brustkrebs in transgenen Mausmodellen ohne Nebenwirkungen unterdrückt. Die chemopräventiven Wirkungen von Bexaroten sind auf die transkriptionelle Modulation der Zellproliferation, Differenzierung und Apoptose zurückzuführen. Unser Ziel in der vorliegenden Studie war es, ein Profil der durch Bexaroten modulierten Gene auf der Brustdrüse aus drei transgenen Maus-Brustkrebsmodellen zu erhalten, um den molekularen Wirkmechanismus aufzuklären und Biomarker für die Wirksamkeit zu identifizieren.;-;-;-;https://link.springer.com/article/10.1186/1755-8794-1-40 d6856b333364fa3ae56922de4afb23f3;de;;;6.2.;;;Eine qualitative Analyse eines Konsensprozesses zur Entwicklung von Qualitätsindikatoren der Unfallversorgung Konsensmethoden werden häufig verwendet, um evidenzbasierte Messgrößen der Gesundheitsqualität zu erstellen, da sie sowohl verfügbare Evidenz als auch Expertenmeinungen einbeziehen, um Lücken in der Wissensbasis zu schließen. Es gibt jedoch nur begrenzte Studien zu den Schlüsselbereichen, die während der Podiumsdiskussion bei der Entwicklung von Qualitätsindikatoren berücksichtigt werden.;-;-;-;https://link.springer.com/article/10.1186/1748-5908-8-45 5032568dfade4e90003fe6868d72c95f;de;;;6.2.;;;Eine randomisierte Phase-III-Studie mit Capecitabin plus Bevacizumab (Cape-Bev) im Vergleich zu Capecitabin plus Irinotecan plus Bevacizumab (CAPIRI-Bev) in der Erstlinienbehandlung von metastasierendem Darmkrebs: Die AIO KRK 0110-Studie/ML22011-Studie Mehrere randomisierte Studien haben gezeigt, dass eine kombinierte Chemotherapie bei metastasierendem Kolorektalkarzinom (mCRC) das Gesamtüberleben im Vergleich zur sequentiellen Anwendung von Zytostatika nicht signifikant verbessert (CAIRO, MRC Focus, FFCD 2000-05). Die vorliegende Studie geht der Frage nach, ob diese Aussage auch für eine Bevacizumab-basierte Erstlinientherapie einschließlich Eskalations- und Deeskalationsstrategien zutrifft.;-;-;-;https://link.springer.com/article/10.1186/1471-2407-11-367 6b2bbb974eb62c9951e2256568db9023;de;;;6.2.;;;Ableitung und Validierung des klinischen Vorhersagemodells für COVID-19 Die epidemische Phase der Coronavirus-Krankheit 2019 (COVID-19) führte dazu, dass das weltweite Gesundheitssystem gegen eine schwere interstitielle Pneumonie kämpfte, die eine hochintensive Pflege bei Atemversagen erforderte. Eine Rationalisierung der Ressourcen und ein spezifischer Behandlungspfad waren notwendig. Die Studie schlägt ein Vorhersagemodell vor, das auf klinischen Daten basiert, die von 119 aufeinanderfolgenden Patienten mit laborbestätigtem COVID-19 gesammelt wurden, die in das Krankenhaus Busto Arsizio eingeliefert wurden. Wir haben einen Score abgeleitet, der das Risiko der klinischen Entwicklung und die Krankenhausmortalität identifiziert und die Patienten in vier Gruppen einteilt. Die Studienergebnisse wurden über die Ableitungs- und Validierungsstichproben hinweg verglichen. Die Vorhersageregel basiert auf acht einfachen Patientenmerkmalen, die unabhängig mit Studienergebnissen assoziiert wurden. Es ist in der Lage, COVID-19-Patienten in vier Schweregrade zu stratifizieren, mit Krankenhausmortalitätsraten von 0 % in Gruppe 1, 6–12,5% in Gruppe 2, 7–20 % in Gruppe 3 und 60–86 % in Gruppe 4 über die Ableitungs- und Validierungsstichprobe hinweg. Das in dieser Studie abgeleitete Vorhersagemodell identifiziert COVID-19-Patienten mit einem geringen Risiko für Krankenhaussterblichkeit und Aufnahme auf die Intensivstation. Das von der Studie vorgestellte Vorhersagemodell identifiziert COVID-19-Patienten mit einem geringen Risiko für Krankenhaussterblichkeit und Aufnahme auf die Intensivstation. Darüber hinaus wird ein mittlerer Anteil von Patienten festgelegt, der genau behandelt werden sollte, um eine ungünstige klinische Entwicklung zu vermeiden. Eine weitere Validierung des Modells ist wichtig, bevor es als Entscheidungshilfe für das anfängliche Management von Patienten implementiert wird.;-;-;-;https://link.springer.com/article/10.1007/s11739-020-02480-3 0c25857c34055d5ba25d8d38954db7df;de;;;6.2.;;;BioMart – biologische Abfragen leicht gemacht Biologen müssen komplexe Abfragen durchführen, oft über eine Vielzahl von Datenbanken. Normalerweise stellt jede Datenressource eine erweiterte Abfrageschnittstelle bereit, die der Biologe jeweils erlernen muss, bevor er mit der Abfrage beginnen kann. Häufig wird mehr als eine Datenquelle benötigt und für Hochdurchsatzanalysen ist das Ausschneiden und Einfügen von Ergebnissen zwischen Websites sicherlich sehr zeitaufwändig. Daher verlassen sich viele Gruppen auf lokale Bioinformatik-Unterstützung, um Anfragen zu verarbeiten, indem sie auf die programmatischen Schnittstellen der Ressource zugreifen, falls diese vorhanden sind. Dies ist in Bezug auf Kosten und Zeit keine effiziente Lösung. Stattdessen wäre es besser, wenn der Biologe nur eine generische Schnittstelle lernen müsste. BioMart bietet eine solche Lösung.;-;-;-;https://link.springer.com/article/10.1186/1471-2164-10-22 e970f1f738bfee52f59ef01db0e0ddcf;de;;;6.2.;;;Zusammenhang zwischen Antipsychotika der zweiten Generation und neu diagnostiziertem behandeltem Diabetes mellitus: Unterscheidet sich die Wirkung je nach Dosis? Der Nutzen einiger Antipsychotika der zweiten Generation (SGA) muss gegen das erhöhte Risiko für Diabetes mellitus abgewogen werden. Diese Studie untersucht, ob sich der Zusammenhang zwischen SGAs und Diabetes je nach Dosis unterscheidet.;-;-;-;https://link.springer.com/article/10.1186/1471-244X-11-197 feb1fa921a2d8eede9eb67f9f049c3f8;de;;;6.2.;;;Webservices und Workflow-Management für biologische Ressourcen Der Abschluss des Humangenomprojekts hat zu großen Mengen biologischer Daten geführt, die sich als schwierig zu verwalten und effektiv zu integrieren erweisen. Es besteht ein Bedarf an einem System, das in der Lage ist, den Zugriff auf entfernte Standorte zu automatisieren und die Informationen, die es verwaltet, zu verstehen, um Daten richtig zu verknüpfen. Workflow-Management-Systeme in Kombination mit Web Services sind vielversprechende Werkzeuge der Informations- und Kommunikationstechnologien (IKT). Einige wurden bereits vorgeschlagen und werden zunehmend auf den biomedizinischen Bereich angewendet, insbesondere da jetzt viele biologiebezogene Webdienste verfügbar werden. Informationen zu biologischen Ressourcen und zu Mutationen in genomischen Sequenzen sind zwei Beispiele für sehr spezialisierte Datensätze, die für bestimmte Forschungsbereiche nützlich sind.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-6-S4-S24 68be344f9b95fdfe1be034e2adc62ee7;de;;;6.2.;;;WormGUIDES: ein interaktiver Atlas zur Einzelzellentwicklung und ein Werkzeug für die kollaborative multidimensionale Datenexploration Fortschritte in der Bildgebung und Bildanalyse führen zu immer vollständigen und komplizierteren Aufzeichnungen von zellulären Ereignissen in Geweben und ganzen Embryonen. Die Fähigkeit, Hunderte bis Tausende von Zellen auf individueller Ebene zu verfolgen, erfordert eine raum-zeitliche Dateninfrastruktur: Werkzeuge, um Wissen über die Entwicklung räumlich analog zu geografischen Informationssystemen (GIS) zu sammeln und zu sammeln. So wie GIS Elemente oder Ereignisse basierend auf ihrer räumlich-zeitlichen oder 4D-Position auf der Erde indiziert, würden diese Werkzeuge Wissen basierend auf der Position innerhalb der Gewebe oder Embryonen organisieren. Entwicklungsprozesse sind stark kontextspezifisch, aber die Komplexität der 4D-Umgebung, in der sie sich entfalten, ist ein Hindernis, um ein Verständnis für einen bestimmten Prozess aus verschiedenen Informationsquellen zusammenzustellen. Genauso wie GIS das Verständnis und die Nutzung von geolokalisierten großen Datensätzen unterstützt, kann Software mit einem geeigneten Bezugsrahmen das räumliche Verständnis großer biologischer Datensätze ermöglichen. Intuitive Werkzeuge werden benötigt, um die räumliche Struktur von komplexem Gewebe zu navigieren, große Datensätze und vorhandenes Wissen mit dieser räumlichen Struktur zusammenzuführen und Benutzern zu helfen, Hypothesen über Entwicklungsmechanismen abzuleiten.;-;-;-;https://link.springer.com/article/10.1186/s12859-015-0627-8 e56b18975645fcc521864505b2cf3c20;de;;;6.2.;;;Spielplatz der Informationssysteme – die Zielinfrastruktur Die Target-Infrastruktur wurde speziell als Speicher- und Recheninfrastruktur für die von Astro-WISE abgeleiteten Informationssysteme gebaut. Diese Infrastruktur wird von mehreren Anwendungen genutzt, die im Bereich der Informationssysteme innerhalb des Target-Projekts zusammenarbeiten. Es besteht derzeit aus 10 PB Speicher und Tausenden von Rechenkernen. Die Infrastruktur wurde basierend auf den Anforderungen der Anwendungen aufgebaut. Die Speicherung wird durch das Global Parallel File System von IBM gesteuert. Dieses Dateisystem sorgt für die erforderliche Flexibilität, indem es Speicherhardware mit unterschiedlichen Eigenschaften in einem einzigen Dateisystem kombiniert. Außerdem ist es sehr skalierbar, wodurch das System in die Zukunft erweitert werden kann und gleichzeitig alte Hardware durch neue Technologie ersetzt wird.;-;-;-;https://link.springer.com/article/10.1007/s10686-011-9262-1 121fb093c0fa6d631d7cb26d563e5a6d;de;;;6.2.;;;Digitale Medien, Bücherlesen und Aspekte von Schlaf und schlafbezogenen Ängsten im Vorschulalter: die Ulmer SPATZ Gesundheitsstudie Es wurde festgestellt, dass eine hohe Nutzung digitaler Medien mit bildschirmbasierten Geräten mehrere Aspekte der Gesundheit von Kindern und Jugendlichen bedroht. Der rasante Wandel des Nutzungsverhaltens digitaler Medien in unserer Gesellschaft in den letzten zehn Jahren hat jedoch viele der vorhandenen Erkenntnisse überholt.;-;-;-;https://link.springer.com/article/10.1007/s11818-020-00290-5 e46370d28aefd4698cfa8c35d095251f;de;;;6.2.;;;Angemessenes gesundheitsorientiertes Verhalten und damit verbundene Faktoren bei Menschen, die im Nordwesten Äthiopiens mindestens zwei Wochen lang Husten hatten: eine bevölkerungsbezogene Querschnittsstudie Tuberkulose bleibt das größte schwächende Gesundheitsproblem in Äthiopien. Es gibt jedoch nur wenige Studien im Land, um die Perspektive der Patienten auf die Krankheit und ihr gesundheitsorientiertes Verhalten zu verstehen. In dieser Studie versuchen wir, das Ausmaß angemessenen gesundheitsorientierten Verhaltens und Faktoren im Zusammenhang mit Tuberkulose bei Menschen zu untersuchen, die mindestens zwei Wochen lang Husten hatten.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-13-1222 fcd59b5c516cd8245fe66c998b369e0a;de;;;6.2.;;;Data Mining von Plasma-Peptid-Chromatogrammen für Biomarker von Luftschadstoffbelastungen Die Abfrage chromatographischer Daten zur Entdeckung von Biomarkern wird aufgrund der stochastischen Variabilität der Retentionszeiten aufgrund der Lösungsmittel- und Säulenleistung zu einer mühsamen Aufgabe. Die Schwierigkeit wird noch verschlimmert, wenn die Auswirkungen der Exposition (z. B. durch Umweltschadstoffe) und die biologische Variabilität zu unterschiedlichen Anzahlen und Intensitäten von Peaks in den Chromatogrammen führen.;-;-;-;https://link.springer.com/article/10.1186/1477-5956-6-6 be664b6af7ca4ecd35a294467f1fda47;de;;;6.2.;;;Capacity Mapping der nationalen Ethikkommissionen in der östlichen Mittelmeerregion In den letzten Jahrzehnten sind ethische Fragen in den Bereichen Wissenschaft, Technik und Medizin aufgetaucht. Viele Länder haben darauf reagiert, indem sie auf nationaler Ebene Ethikkommissionen eingerichtet haben. Die Identifizierung nationaler Ethikkommissionen (NECs) in der östlichen Mittelmeerregion (EM) und des Umfangs ihrer Funktionen und Kapazitäten wäre hilfreich bei der Entwicklung von Programmen zum Kapazitätsaufbau, die auf die Bedürfnisse dieser Komitees eingehen. Dementsprechend haben wir eine Umfrage durchgeführt, um die Eigenschaften bestehender NECs in der EM-Region zu bestimmen.;-;-;-;https://link.springer.com/article/10.1186/1472-6939-10-8 0ee76ca82718fde153f74ea9a53ba004;de;;;6.2.;;;Eine prospektive randomisierte, offene Studie zum Vergleich einer sirolimushaltigen mit einer mTOR-Inhibitor-freien Immunsuppression bei Patienten, die sich einer Lebertransplantation wegen eines hepatozellulären Karzinoms unterziehen Die potenziellen krebshemmenden Wirkungen von Rapamycin (mTOR)-Inhibitoren bei Säugetieren werden intensiv untersucht. Bis heute wurden jedoch nur wenige randomisierte klinische Studien (RCT) durchgeführt, um antineoplastische Wirkungen in der reinen Onkologie zu zeigen, und derzeit wurde keine auf den onkologischen Endpunkt gerichtete RCT in der Population mit hohem Malignitätsrisiko von immunsupprimierten Transplantaten berichtet Empfänger. Da mTOR-Inhibitoren sowohl immunsuppressive als auch krebshemmende Wirkungen haben, haben sie interessanterweise das Potenzial, gleichzeitig vor immunologischem Transplantatverlust und Tumorentwicklung zu schützen. Aus diesem Grund haben wir eine prospektive RCT entwickelt, um zu bestimmen, ob der mTOR-Inhibitor Sirolimus das Überleben von Patienten ohne Leberzellkarzinom (HCC) bei Lebertransplantat (LT)-Empfängern mit einer Prätransplantationsdiagnose von HCC verbessern kann.;-;-;-;https://link.springer.com/article/10.1186/1471-2407-10-190 c040c1e3b35d3edee6e324f3a31310a4;de;;;6.2.;;;Design und Durchführung der kanadischen Nierenerkrankungs-Kohortenstudie (CKDCS): Eine prospektive Beobachtungsstudie an Hämodialysepatienten Viele Beobachtungsstudien in der Nephrologie verwenden Nierenregister, die bekannte Einschränkungen aufweisen. Die Canadian Kidney Disease Cohort Study (CKDCS) ist eine große prospektive Beobachtungsstudie an Patienten, die in fünf kanadischen Zentren mit einer Hämodialyse beginnen. Diese Studie konzentriert sich auf die Abgrenzung potenziell reversibler Determinanten von unerwünschten Ergebnissen, die bei Patienten auftreten, die eine Dialyse wegen einer Nierenerkrankung im Endstadium (ESRD) erhalten.;-;-;-;https://link.springer.com/article/10.1186/1471-2369-12-10 900d9e8e9f8df8070f686874802f009d;de;;;6.2.;;;Wirkung des Pringle-Manövers auf das Tumorrezidiv des hepatozellulären Karzinoms nach kurativer Resektion (EPTRH): eine randomisierte, prospektive, kontrollierte Multicenterstudie Die Leberresektion ist derzeit noch die beste Therapieoption beim Leberkrebs, die Langzeitüberlebensrate nach der Operation ist jedoch unbefriedigend. Die meisten Patienten entwickeln ein intra- und/oder extrahepatisches Rezidiv. Die Gründe für diese hohe Rezidivrate sind nicht ganz klar. Jüngste Studien haben gezeigt, dass eine Ischämie-Reperfusionsschädigung der Leber ein signifikanter Faktor sein kann, der das Wiederauftreten von Tumoren und die Metastasierung in Tiermodellen fördert. Wenn dies auch beim Menschen zutrifft, sollten die Auswirkungen des Pringle-Manövers, das in der Hepatektomie seit dem letzten Jahrhundert weit verbreitet ist, untersucht werden. Bis heute gibt es keine gemeldeten Daten oder randomisierten kontrollierten Studien, die den Zusammenhang zwischen der Anwendung des Pringle-Manövers und dem lokalen Tumorrezidiv untersuchen. Wir gehen davon aus, dass die Langzeitprognose von Patienten mit Leberkrebs durch die Anwendung des Pringle-Manövers aufgrund einer erhöhten Tumorrezidivrate in der Restleber verschlechtert werden könnte. Wir haben eine multizentrische, prospektive, randomisierte chirurgische Studie entworfen, um diese Hypothese zu testen.;-;-;-;https://link.springer.com/article/10.1186/1471-2407-12-340 3077f4bef60bcb59b6e5ca619361774a;de;;;6.2.;;;Den notwendigen Dialog zwischen Bildungsleitung und Lehrplanforschung schmieden: Soziale Gerechtigkeit, Demokratie und multikulturelle Perspektiven in die Praxis umsetzen Die Geschichte zeigt, dass die Beziehung zwischen Lehrplanstudien und pädagogischer Führung durch die Konzeptualisierung von Lehrplänen vermittelt wird, die in spezifischen Gemeindekontexten angenommen werden. Zu diesem Zweck identifizieren wir vier Konzeptualisierungen des Curriculums, die in den USA durchgeführt wurden, und untersuchen die unterschiedlichen Beziehungen zwischen unseren beiden Feldern, die jeder Kontext anzeigt. Unsere Analyse zeigt, dass nur dann, wenn beide Studienrichtungen zum Wohle der Gesellschaft und des Gemeinwohls zusammengekommen sind, die entstehende Führung und der Lehrplan zu progressiven Versuchen von Multikulturalismus, Demokratie und sozialer Gerechtigkeit führen werden. Zu diesem Zweck bieten wir einen entwicklungsdialogischen Rahmen für den Übergang von Beziehungen, die auf Schichtung, Homogenisierung, Transformation und der sogenannten Führung für soziale Gerechtigkeit basieren. Dieser progressive Dialog wird immer problematischer, da er mehrere Hindernisse zeitlicher und politischer sowie ideologischer Spaltungen überwinden muss. So gehören die komplizierten Gespräche zu denjenigen, die alte Werte und Normen (z.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-58650-2_8 8c7fe2ac642dab7bc540e81f9ec48f20;de;;;6.2.;;;Protokoll TOP-Studie (Tacrolimus-Organperfusion): eine prospektive randomisierte multizentrische Studie zur Reduzierung von Ischämie-Reperfusionsschäden bei Transplantationen von marginalen Lebertransplantaten mit an Ein kritischer Organmangel führt zur Verwendung von erweiterten Spenderkriterien (EDC) Lebertransplantaten. Diese marginalen Lebertransplantate sind anfällig für eine erhöhte Ischämie-Reperfusionsverletzung (IRI), die zu einer verschlechterten Transplantatfunktion und -überleben beitragen kann. Experimentelle Daten haben gezeigt, dass der Calcineurin-Inhibitor Tacrolimus bei intravenöser oder direkter Anwendung als Leberspülung eine schützende Wirkung auf die Leber-IRI ausübt. Daher ist es das Ziel der vorliegenden Studie, die Auswirkungen einer;-;-;-;https://link.springer.com/article/10.1186/2047-1440-2-3 c2806147cdb2151db6b8d94d370719a6;de;;;6.2.;;;Ausführungsmanagement im GRID, für Sensitivitätsstudien globaler Klimasimulationen Jüngste Trends in der Klimamodellierung finden im GRID-Computing eine leistungsstarke Möglichkeit, Ergebnisse durch die gemeinsame Nutzung von geografisch verteilten Rechen- und Speicherressourcen zu erzielen. Ensemble-Vorhersageexperimente basieren insbesondere auf der Generierung mehrerer Modellsimulationen, um die bestehenden Unsicherheiten in der Wetter- und Klimavorhersage statistisch zu untersuchen. In diesem Papier stellen wir eine GRID-Anwendung vor, die aus einem State-of-the-Art-Klimamodell besteht. Das Hauptziel der Anwendung besteht darin, ein Werkzeug bereitzustellen, mit dem ein Klimaforscher ensemblebasierte Vorhersagen auf dem GRID für Sensitivitätsstudien durchführen kann. Eine der Hauptaufgaben dieses Tools ist die benutzerfreundliche Verwaltung eines Workflows mit Langzeitaufträgen und die Datenverwaltung. In diesem Beitrag zeigen wir, dass dieses Management aufgrund von Schwächen aktueller GRID-Middleware eine komplexe Aufgabe ist. Diese Schwächen machten die Entwicklung eines robusten Workflows erforderlich, der an die Anforderungen der Klimaanwendung angepasst ist. Als illustrative wissenschaftliche Herausforderung wird die Anwendung zur Untersuchung des El-Niño-Phänomens angewendet, indem ein El-Niño-Jahr mit unterschiedlichen Antriebsbedingungen simuliert und die Niederschlagsreaktion über südamerikanischen Ländern mit Hochwasserrisiko analysiert wird.;-;-;-;https://link.springer.com/article/10.1007/s12145-008-0018-z e4e52eff052dce278dbac55290b805d0;de;;;6.2.;;;Beeinflusst akuter mütterlicher Stress in der Schwangerschaft die Gesundheit des Säuglings? Untersuchung einer großen Kohorte von Säuglingen, die nach den Terroranschlägen vom 11. September 2001 geboren wurden Säuglinge im Mutterleib während der Terroranschläge vom 11. September 2001 könnten durch mütterlichen Stress negativ beeinflusst worden sein. Bisherige Studien haben zu widersprüchlichen Ergebnissen geführt.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-9-252 ee8313815d4a1622514f033285cc7aba;de;;;6.2.;;;Protokoll der Kölner Corona Surveillance (CoCoS) Studie – eine prospektive populationsbasierte Kohortenstudie Überwachungsstrategien sind entscheidend, um die aktuelle SARS-CoV-2-Pandemie zu bewältigen und die von der Regierung auferlegten Gegenmaßnahmen zu bewerten und anzupassen. Inzidenzschätzungen basieren weitgehend auf laborbestätigten Fällen, die von Gesundheitsbehörden gemeldet wurden. Prävalenz- und Inzidenzdaten von SARS-CoV-2 sind noch immer rar, ebenso wie demografische und Verhaltensfaktoren, die mit dem Infektionsrisiko verbunden sind.;-;-;-;https://link.springer.com/article/10.1186/s12889-021-11206-9 3c8fa32fd5b7de603dd112e0d1afcd8f;de;;;6.2.;;;Die Auswirkungen der Stimulation des autonomen Nervensystems durch perioperative Ernährung auf postoperativen Ileus und Anastomoseninsuffizienz nach kolorektalen Operationen (SANICS II-Studie): ein Studienprotokoll für eine doppelblinde randomisierte kontrollierte Studie Postoperativer Ileus und Anastomoseninsuffizienz sind wichtige Komplikationen nach kolorektalen Operationen, die mit kurzfristiger Morbidität und Mortalität einhergehen. Frühere experimentelle und präklinische Studien haben gezeigt, dass eine kurze Intervention mit angereicherter enteraler Ernährung durch Stimulation des vegetativen Nervensystems Entzündungen dämpft und dadurch den postoperativen Ileus reduziert. Darüber hinaus reduzierte die frühzeitige Verabreichung einer enteralen Ernährung die Anastomoseninsuffizienz. In dieser Studie wird die Wirkung einer ernährungsbedingten Stimulation des vegetativen Nervensystems kurz vor, während und früh nach kolorektalen Operationen auf Entzündungen, postoperativen Ileus und Anastomoseninsuffizienz untersucht.;-;-;-;https://link.springer.com/article/10.1186/s13063-014-0532-x 53cd4eb218bf20e361f7c977bc558984;de;;;6.2.;;;Das Studium des Muskelumbaus in Die Metamorphose bei Insekten wandelt die Larve in einen erwachsenen Körperplan um und umfasst die Zerstörung und Umgestaltung der Larve sowie die Erzeugung von adultem Gewebe. Die Umwandlung von Larven in erwachsene Muskeln verspricht ein genetisches Modell für die menschliche Atrophie zu sein, da sie mit einer dramatischen Veränderung der Zellgröße verbunden ist. Darüber hinaus ist die Muskelentwicklung einer 3D-in-vivo-Mikroskopie mit hoher zellulärer Auflösung zugänglich. Die mehrdimensionale Bildaufnahme führt jedoch zu beträchtlichen Datenmengen, die neue Ansätze in der Bildverarbeitung und -analyse erfordern.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-13-S17-S14 f453a1addf1bf155f7dc4714ba6af454;de;;;6.2.;;;Anforderungen an die Gestaltung und Umsetzung von Checklisten für chirurgische Prozesse Der Einsatz von Checklisten ist eine vielversprechende Strategie zur Verbesserung der Patientensicherheit bei allen Arten von chirurgischen Prozessen innerhalb und außerhalb des Operationssaals. Ziel dieses Artikels ist es, Anforderungen und Implementierungen von Checklisten für chirurgische Prozesse bereitzustellen.;-;-;-;https://link.springer.com/article/10.1007/s00464-008-0044-4 9620a91910f74e779fca1b008106d39b;de;;;6.2.;;;Evaluation geeigneter Referenzgene für Genexpressionsstudien in bronchoalveolären Lavagezellen von Pferden mit entzündlichen Atemwegserkrankungen Die Stabilität von Referenzgenen hat einen enormen Einfluss auf die Ergebnisse der relativen Quantifizierung der Genexpression durch quantitative Polymerase-Kettenreaktion. Die Equine Inflammatory Airway Disease (IAD) ist eine häufige Erkrankung, die häufig mit Kortikosteroiden behandelt wird. Die Diagnose von IAD basiert auf klinischen Symptomen und der Flüssigkeitszytologie der bronchoalveolären Lavage (BAL). Das Ziel dieser Studie war es, Referenzgene mit der stabilsten mRNA-Expression in den BAL-Zellen von Pferden mit IAD unabhängig von einer Kortikosteroidbehandlung zu identifizieren.;-;-;-;https://link.springer.com/article/10.1186/1471-2199-12-5 4caebd6e4faee024d017fa11f4f6198b;de;;;6.2.;;;Präoperative Kurzzeitbestrahlung versus kombinierte Radiochemotherapie bei lokal fortgeschrittenem Rektumkarzinom: eine multizentrische prospektiv randomisierte Studie der Berliner Krebsgesellschaft Cancer Der zusätzliche Einsatz der Strahlentherapie hat die Behandlung des lokal fortgeschrittenen Rektumkarzinoms (LARC) dramatisch verändert. Ein großer Erfolg war jedoch die Entwicklung der totalen mesorektalen Exzision (TME) als chirurgischer Standard und die Erkenntnis, dass der Chirurg der vorherrschende Prognosefaktor ist. Der Nutzen der präoperativen hypofraktionierten Strahlentherapie (SCRT, fünf Fraktionen zu je 5 Gy), die ursprünglich im Rahmen der schwedischen Rektumkarzinomstudie etabliert wurde, wurde in Verbindung mit TME von der Dutch Colorectal Cancer Group nachgewiesen. Das Konzept der kombinierten neoadjuvanten Radiochemotherapie (konventionelle Bestrahlung von ca. 50 Gy mit Chemotherapie) wurde nicht mit der alleinigen Operation mit TME verglichen. Allerdings zeigte die Deutsche Studiengruppe Rektumkarzinom kürzlich, dass die präoperative Radiochemotherapie (RCT) hinsichtlich der lokalen Kontrolle besser war als die postoperative Radiochemotherapie.;-;-;-;https://link.springer.com/article/10.1186/1471-2407-9-50 2f3515ec95a3b6977b2f26fce35f8270;de;;;6.2.;;;Eine randomisierte kontrollierte Studie mit Teebaumöl (5%) Körperwaschmittel im Vergleich zu Standard-Körperwaschmitteln, um eine Kolonisierung mit Methicillin-resistentem Staphylococcus aureus (MRSA) bei kritisch kranken Erwachsenen zu verhindern: Forschungsprotokoll In den letzten zehn Jahren ist MRSA in Krankenhäusern endemisch geworden und mit erhöhten Gesundheitskosten verbunden. Schwerkranke Patienten sind am stärksten gefährdet, unter anderem wegen der Anzahl der invasiven Therapien, die sie auf der Intensivstation (ICU) benötigen. Das Waschen mit 5% Teebaumöl (TTO) hat sich bei der Entfernung von MRSA auf der Haut als wirksam erwiesen. Bis heute haben jedoch keine Studien das Potenzial von TTO-Körperwaschmitteln zur Verhinderung einer MRSA-Kolonisierung oder -Infektion untersucht. Darüber hinaus ist der Nachweis von MRSA durch übliche Kulturmethoden langsam. Im Labor wurde eine schnellere Methode mit einem PCR-Assay entwickelt, die jedoch bei einer großen Anzahl von Patienten untersucht werden muss.;-;-;-;https://link.springer.com/article/10.1186/1471-2334-8-161 ccee5333e134a4cc39843b8f9524705f;de;;;6.2.;;;Teleseismische Inversion des Bruchprozesses des Sumatra-Andaman-Erdbebens von 2004 unter Verwendung der vollständigen Green-Funktionen Räumliche und zeitliche Variationen der koseismischen Schlupfverteilung werden oft durch Bruchprozessanalysen mit teleseismischen Körperwellen erhalten. Viele Analysen mit teleseismischen Körperwellen basierten auf der Strahlentheorie wegen der sehr effizient berechenbaren direkten P-, S- und großen reflektierten Wellen in der Nähe der Quelle. Das Erdbeben von Sumatra-Andaman im Jahr 2004 war eines der größten Erdbeben in der Geschichte, und die Daten, die für die gesamte Bruchprozessanalyse erforderlich sind, umfassen spätere Phasen wie PP-Wellen und eine sehr lange Periodenphase, die als W-Phase bezeichnet wird. Die Berechnung dieser späteren Phasen unter Verwendung der herkömmlichen strahlentheoretischen Methode ist jedoch schwierig. Hier untersuchen wir den Bruchprozess des Sumatra-Andaman-Erdbebens von 2004 unter Verwendung der vollständigen Greenschen Funktionen, einschließlich aller späteren Phasen wie PP-Wellen und W-Phase. Zur Berechnung der Greenschen Funktionen verwenden wir die Methode der direkten Lösung, die vollständige synthetische Seismogramme bis 2 Hz für transversal isotrope kugelsymmetrische Medien berechnet. Die erhaltenen synthetischen Seismogramme, die erzeugt wurden, passen recht gut zu den beobachteten Seismogrammen von einem kurzen Zeitraum bis zu einem langen Zeitraum. Die geschätzte Schlupfverteilung besteht aus vier großen Schlupfbereichen: Der größte Schlupf trat im flachen Teil vor der Westküste von Sumatra mit einem maximalen Schlupf von etwa 29 m auf, der zweit- und drittgrößte Schlupf trat in den flachen und tiefen Teilen der Nikobarenregion auf mit maximalen Rutschen von ca. 8 m bzw. 7 m, und der vierte Rutsch erfolgte in der mittleren Andamanenregion mit einem maximalen Rutsch von ca. 6 m. Die geschätzte durchschnittliche Bruchgeschwindigkeit beträgt 2,8 km/s, aber der Bruch kann sich zwischen Sumatra und den flachen Nikobaren-Schlupfgebieten sowie zwischen den Nikobaren- und den mittleren Andaman-Schlupfgebieten verlangsamt haben. Die verzögerte Einleitung der flachen Rutschungen in der Nikobarenregion könnte möglicherweise durch die tieferen Rutschungen in der Nikobarenregion ausgelöst worden sein. Es gab keine ausgeprägten tiefenveränderlichen Eigenschaften für die flachen und tiefen Rutschungen in der Nikobaren-Region, wie sie für die Erdbeben von Tohoku-Oki 2011 und Chile 2010 berichtet wurden.;-;-;-;https://link.springer.com/article/10.1186/s40623-014-0152-4 bcb55101fe8f27094623555fab2c6153;de;;;6.2.;;;GORouter: ein RDF-Modell zur Bereitstellung semantischer Abfrage- und Inferenzdienste für die Geneontologie und ihre Assoziationen Die bekannteste biologische Ontologie, Gene Ontology (GO), wird häufig für Annotationen von Genen und Genprodukten verschiedener Organismen verwendet. Die vom GO-Konsortium bereitgestellte Datendatei des Resource Description Framework (RDF) weist jedoch Mängel auf: 1) Fehlen ausreichender semantischer Beziehungen zwischen Begriffspaaren, die aus den drei unabhängigen GO-Subontologien stammen, die die Fähigkeit zur Bereitstellung komplexer Semantik einschränken Abfragen und darauf basierende Inferenzdienste. 2) Die begriffszentrierte Ansicht der GO-Annotationsdaten und die Tatsache, dass alle Informationen in einer einzigen Datei gespeichert sind. Dies macht Versuche, GO-Annotationen basierend auf großen Datasets abzurufen, unüberschaubar. 3) Keine Unterstützung von GOSlim.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-9-S1-S6 f355fd6c391f734875cd145cb3bdeec9;de;;;6.2.;;;Ein effizienter Ansatz zur Überwachung von Umgebungsbedingungen mit einem drahtlosen Sensornetzwerk und NodeMCU In den letzten Jahren haben sich drahtlose Sensornetzwerke (WSNs) als effektive Möglichkeit zur Vernetzung von Sensorgeräten bei gleichzeitiger Kommunikation und Datenverarbeitung etabliert. Da es kostengünstige und stromsparende Sensorgeräte ermöglicht, hat die Verwendung von WSNs in verschiedenen Anwendungsbereichen wie Umweltüberwachung, Smart Cities und Crowdsourcing zugenommen. In diesem Papier werden das funktionale Design und die Implementierung eines Systems zur Überwachung von Umgebungsbedingungen durch die Verwendung eines WSN und einer NodeMCU vorgestellt. Das System wurde für web- und mobilbasierte Anwendungen entwickelt, bei denen vorverarbeitete Daten anschließend über eine Web-API in die Cloud gesendet werden, wo umfassende Datenanalysen durchgeführt werden können, um einen besseren Einblick in die allgemeinen Umgebungsbedingungen zu erhalten und bei Verbesserungen zu helfen. Der Benutzer kann die Messdaten überall über das Internet überwachen, indem er das Web und mobile Anwendungen verwendet. Wenn die von einem Sensorknoten gemessenen Daten den konfigurierten Wertebereich überschreiten, sendet die Webanwendung eine Benachrichtigung an den Benutzer, um die Umgebungsbedingungen zu verbessern.;-;-;-;https://link.springer.com/article/10.1007/s00502-018-0612-9 15f29977da50a753d2fbfb5fedfd200d;de;;;6.2.;;;Individuelle Patientendaten-Metaanalyse zur klinischen Beurteilung der Koronar-Computertomographie-Angiographie: Protokoll der Collaborative Meta-Analysis of Cardiac CT (CoMe-CCT) Die koronare Computertomographie-Angiographie hat sich zur führenden nichtinvasiven Bildgebungsmodalität der Koronararterien entwickelt und wird als Alternative zum Referenzstandard, der konventionellen Koronarangiographie, zur direkten Visualisierung und Erkennung von Koronararterienstenosen bei Patienten mit Verdacht auf koronare Herzkrankheit eingesetzt. Dennoch gibt es erhebliche Diskussionen über die optimale Zielpopulation, um die klinische Leistung und den Patientennutzen zu maximieren. Die naheliegendste Indikation für eine nichtinvasive koronare Computertomographie-Angiographie bei Patienten mit Verdacht auf eine koronare Herzkrankheit wäre der sichere Ausschluss einer signifikanten Stenose und damit die Vermeidung einer unnötigen invasiven konventionellen Koronarangiographie. Dazu sollte ein Test bei klinisch angemessenen Prätest-Wahrscheinlichkeiten minimale falsch-negative Ergebnisse aufweisen, die zu einem hohen negativen Vorhersagewert führen. Über den Einfluss von Patientenmerkmalen auf die klinischen Vorhersagewerte der Koronar-Computertomographie-Angiographie ist jedoch wenig bekannt. Frühere regelmäßige systematische Übersichtsarbeiten und Metaanalysen mussten sich auf begrenzte zusammenfassende Patientenkohortendaten aus Primärstudien stützen. Die Durchführung einer individuellen Patientendaten-Metaanalyse ermöglicht eine wesentlich detailliertere und aussagekräftigere Analyse und erhöht damit die Repräsentativität und Generalisierbarkeit der Ergebnisse. Die individuelle Patientendaten-Metaanalyse wird in der PROSPERO-Datenbank (CoMe-CCT, CRD42012002780) registriert.;-;-;-;https://link.springer.com/article/10.1186/2046-4053-2-13 1c68a533a9be9d564f92176beb0beb4f;de;;;6.2.;;;Internalisierung des neuen nicht-viralen Vektors TAT-Streptavidin in menschliche Zellen Das zellpenetrierende Peptid, das vom Transaktivatorprotein Tat des Humanen Immunschwächevirus-1 abgeleitet ist, besitzt die Fähigkeit, die effektive Aufnahme verschiedener Frachtmoleküle durch die Plasmamembran zu fördern;-;-;-;https://link.springer.com/article/10.1186/1472-6750-7-1 18dc49127923d2f659b587a9a733adab;de;;;6.2.;;;Teilnehmende Studie über Heilpflanzen zur Bekämpfung von Magen-Darm-Parasiten bei Eseln in den östlichen Shewa- und Arsi-Zonen der Region Oromia, Äthiopien Gastrointestinale Nematodeninfektionen stellen weltweit eine Bedrohung für die Gesundheit und das Wohlergehen von Eseln dar. Ihr primäres Mittel zur Kontrolle sind anthelmintische Behandlungen, jedoch unterliegt der Einsatz dieser Medikamente in Entwicklungsländern Einschränkungen, darunter Kosten, begrenzte Verfügbarkeit, Zugang zu billigeren generischen Formen unterschiedlicher Qualität und potenzielle anthelmintische Resistenzen. Als Alternative wurden bioaktive Pflanzen als Option zur Behandlung und Bekämpfung von gastrointestinalen Helminthen bei Eseln vorgeschlagen. Diese Studie zielte darauf ab, eine partizipative Methodik zu verwenden, um das Wissen, die Einstellungen und die Überzeugungen von Eselbesitzern in Bezug auf die Verwendung von pflanzlichen Behandlungen für Magen-Darm-Parasiten von Eseln in Äthiopien zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/1746-6148-9-179 81a754c5b728c233e9cc42147159aa35;de;;;6.2.;;;Wie nehmen Eltern von Kindern mit juveniler idiopathischer Arthritis (JIA) ihre Therapien wahr? Komplementär- und alternativmedizinische (CAM) Therapien werden häufig von pädiatrischen Patienten mit chronischen Erkrankungen eingesetzt. Über die Wahrnehmung dieser Therapien durch die Eltern ist wenig bekannt. Diese Studie beschreibt die Ansichten der Eltern von Patienten mit juveniler idiopathischer Arthritis (JIA) in Bezug auf konventionelle und CAM-Therapien.;-;-;-;https://link.springer.com/article/10.1186/1472-6882-8-25 09709059fa94603555ed42b78d3acb42;de;;;6.2.;;;Intelligentes kontextsensitives Energiemanagement nach der inkrementellen Simultanmethode in zukünftigen drahtlosen Sensornetzwerken und Computersystemen In diesem Artikel stellen wir ein intelligentes kontextbewusstes Energiemanagement vor, um den Energieverbrauch zu Hause durch Aktivitäten des täglichen Lebens zu senken. Um energieverbrauchende Muster zu extrahieren, analysieren wir tägliche Aktivitäten, die von Standortsensoren und elektronischen Geräten erfasst werden. Darüber hinaus konstruieren wir ein Energiemanagementmodell mit der inkrementellen statistischen Methode, das durch das ISM-basierte adaptive Modell mit Hausbau und Ortung von elektronischen Geräten verbessert wird. Darüber hinaus stellen wir einen Simulator zur Verfügung, der die verschiedenen Funktionen anhand der energieverbrauchenden Muster durchführt und die Simulationsergebnisse zur Verifizierung und Effizienz unseres Modells präsentiert.;-;-;-;https://link.springer.com/article/10.1186/1687-1499-2013-10 ad9b2b0054930bc6c5f0b93350524874;de;;;6.2.;;;Zelluläre versus azelluläre Matrixgeräte bei der Behandlung von diabetischen Fußulzera: Studienprotokoll für eine randomisierte kontrollierte Studie zur vergleichenden Wirksamkeit efficacy Diabetische Fußulzera (DFU) stellen eine bedeutende Morbiditätsquelle und eine enorme finanzielle Belastung dar. Die Standardversorgung bei DFUs umfasst die systemische Glukosekontrolle, die Sicherstellung einer angemessenen Durchblutung, das Debridement von nicht lebensfähigem Gewebe, die Entlastung, die Infektionskontrolle, die lokale Wundversorgung und die Patientenaufklärung, alles durch ein multidisziplinäres Team. Leider heilen selbst mit dem besten verfügbaren Standard der Behandlung (SOC) nur 24 % bzw. 30 % der DFUs in der 12. bzw. 20. Woche ab.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-14-8 4a6d6b480ded32fc0eaed65db12ad768;de;;;6.2.;;;Neue Erkenntnisse zur Bildung flüchtiger Verbindungen im Mainstream-Zigarettenrauch Ein Probenahmesystem wurde eingerichtet, um eine Gruppe von flüchtigen Rauchanalyten (Stickoxid, Acetaldehyd, Aceton, Benzol, Toluol, 1,3-Butadien, Isopren und Kohlendioxid) aus dem Hauptstrom-Zigarettenrauch in Zug aufgelöst zu überwachen. Das System war in der Lage, Gasentwicklungsprofile während des Puffens und der Intervalle zwischen den Puffs ohne Unterbrechung aufzuzeichnen (z. Gasphasenrauchanalyten wurden so nah wie möglich am Mundende des Zigarettenfilters entnommen, um jeglichen Totvolumeneffekt zu minimieren. Die Ergebnisse zeigten, dass bei einigen flüchtigen Spezies ein erheblicher Anteil (z. B. bis zu 30% für Benzol) im Zigarettenhauptstrom während der vorangegangenen Glimmperiode erzeugt wurde. Diese Spezies wurden in der Zigarettenstange eingefangen oder absorbiert und anschließend während des Zugs eluiert. Die Identifizierung der beiden Quellen des Hauptstromrauchs, einer schwelenden Quelle und einer puffenden Quelle, wurde bisher nicht berichtet. Die Beobachtung trägt zum grundlegenden Wissen über die Zigarettenrauchbildung bei und kann Auswirkungen auf die allgemeine Rauchchemie und die damit verbundenen Wirkungen haben.;-;-;-;https://link.springer.com/article/10.1007/s00216-010-3457-6 8a4cf3010511309eab5f47265f1b5b01;de;;;6.2.;;;Heilung oder Kontrolle: Einhaltung des biomedizinischen Regimes von Diabetes in Kamerun Ziel der Studie war es, den kulturellen Aspekt der Compliance, die zugrunde liegenden Prinzipien und wie diese kulturellen Aspekte genutzt werden können, um die patientenzentrierte Versorgung von Diabetes in Kamerun zu verbessern.;-;-;-;https://link.springer.com/article/10.1186/1472-6963-8-43 3d5b2fa73493c6e1cca0652115b3387f;de;;;6.2.;;;Implementierung der Glukosekontrolle auf der Intensivstation: eine multizentrische Studie mit statistischer Prozesskontrolle Die Glukosekontrolle (GC) mit Insulin verringert die Morbidität und Mortalität von kritisch kranken Patienten. In dieser Studie untersuchten wir die GC-Leistung im Zeitverlauf während der Implementierung von GC-Strategien auf drei Intensivstationen (ICUs) und in der klinischen Routinepraxis.;-;-;-;https://link.springer.com/article/10.1007/s00134-010-1924-3 771fd6e0edb6588af78004d2986cc027;de;;;6.2.;;;Integration der erweiterten zerstörungsfreien Prüfung in das Lebenszyklusmanagement geklebter Produkte – einige Perspektiven In diesem Kapitel skizzieren wir einige Perspektiven für die Einbeziehung der Datensätze, die mit Extended Non-Destructive Testing (ENDT) während der Herstellungs- oder Reparaturprozessschritte innerhalb des Lebenszyklus von geklebten Produkten gesammelt wurden. Die Sicherstellung, dass die ENDT-Daten und -Metadaten FAIR sind, dh auffindbar, zugänglich, interoperabel und wiederverwendbar sind, wird die relevanten Stakeholder bei der Nutzung der enthaltenen materialbezogenen Informationen weit über eine Stop/Go-Entscheidung hinaus unterstützen, während eine kürzere Zeit bis zur Information wird eine schnellere Entscheidungsfindung im Prozess- und Produktmanagement ermöglichen. Die Nutzung des Wertes von ENDT-(Meta-)Daten trägt zur Leistungssteigerung bei, indem alle definierten, gemessenen, analysierten und kontrollierten Aspekte der Materialtransformation über Prozess- und Unternehmensgrenzen hinweg integriert werden. Dies erleichtert die Optimierung von Fertigungs- und Reparaturvorgängen und steigert deren Energieeffizienz und Produktivität. In diesem Zusammenhang soll im Folgenden auf einige Aspekte eingegangen werden, die derzeit Aktivitäten im Bereich der Pre-Process-, In-Process- und Post-Process-Qualitätsbewertung antreiben. Darüber hinaus werden einige Anforderungen für eine harmonisierte und gemeinsame Datenübertragung in Betracht gezogen, die vom Beginn des Lebenszyklus eines verbundenen Produkts bis zum Ende des Lebenszyklus, der Anpassung eigenständiger oder verknüpfter ENDT-Tools und der Implementierung von Sensorarrays und -netzwerken reicht in Gelenken, Geräten und Strukturteilen, um materialbezogene Daten während der Anwendungsphase eines Produkts zu sammeln und so das Structural Health Monitoring (SHM) zu fördern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-92810-4_6 b00828e713b63696940f8c1a2089a634;de;;;6.2.;;;Auf dem Weg zu KMU 4.0: Der Einfluss von Industrie 4.0-Technologien auf die Geschäftsmodelle von KMU Industrie 4.0 (I4.0) transformiert aktuelle Produktionsparadigmen und führt zu einem inhärenten Bedarf, dies mit der Unternehmensrational der Wertschöpfung, Bereitstellung und Gewinnung, d. Die ressourcenintensive Implementierung der I4.0-Technologie fordert jede Organisation und insbesondere kleine und mittlere Unternehmen (KMU) heraus. Um dies theoretisch und praktisch zu unterstützen, führt unser Kapitel zunächst eine systematische Literaturrecherche zu Geschäftsmodellen und I4.0-Technologien mit einer qualitativen Untersuchung und einer quantitativen Kontingenzanalyse durch. Das Kapitel analysiert dann Sekundärdaten von 30 KMU eines innovativen italienischen Fertigungsclusters, für die Geschäftsmodellelemente modifiziert werden, während spezifische I4.0-Technologien implementiert werden. Um die zukünftige Praxis und Forschung zu leiten, werden 13 Vorschläge und 4 Forschungsrichtungen entwickelt, wie die Implementierung einzelner I4.0-Technologien spezifische Geschäftsmodellelemente für KMU 4.0 verändern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-70516-9_10 f60d32f35b7bf24d609c0792bd7ff3d9;de;;;6.2.;;;Die Verwendung von Mobiltelefonen zur Vorbeugung und Kontrolle von arboviralen Erkrankungen: eine Überprüfung des Umfangs Die rasche Ausbreitung von Dengue-Fieber, Zika und Chikungunya mit großflächigen Ausbrüchen gibt in vielen Ländern ein zunehmendes Problem für die öffentliche Gesundheit. Darüber hinaus machte die jüngste Coronavirus-Pandemie eine Verbindung für einen schnellen Informationstransfer und -austausch erforderlich. Als Reaktion darauf haben Gesundheitsprogramme – neben anderen Interventionen – digitale Instrumente wie Mobiltelefone zur Unterstützung der Kontrolle und Prävention von Infektionskrankheiten integriert. Über die Vorteile der Mobilfunktechnologie in Bezug auf Input-, Prozess- und Outcome-Dimensionen ist jedoch wenig bekannt. Der Zweck dieses Scoping-Reviews besteht darin, die Beweise für die Verwendung von Mobiltelefonen als Interventionsinstrument in Bezug auf Leistung, Akzeptanz, Benutzerfreundlichkeit, Durchführbarkeit, Kosten und Wirksamkeit in Dengue-, Zika- und Chikungunya-Kontrollprogrammen zu analysieren.;-;-;-;https://link.springer.com/article/10.1186/s12889-020-10126-4 5b9ada275fce474277f4f67424633942;de;;;6.2.;;;Soziale und kulturelle Aspekte von „Malaria“ und ihrer Bekämpfung in Zentral-Côte d'Ivoire Ein fundiertes lokales Verständnis von Präventionsmaßnahmen und gesundheitsorientiertem Verhalten ist wichtig für eine wirksame Malariabekämpfung. Der Zweck dieser Studie bestand darin, das Wissen, die Einstellungen, Praktiken und Überzeugungen von „Malaria“ und ihrer Bekämpfung in zwei ländlichen Gemeinden der zentralen Côte d'Ivoire zu bewerten und Zusammenhänge zwischen „Malaria“ und dem sozioökonomischen Status der Haushalte zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/1475-2875-7-224 9801637cc92c6ce250efb9988552fcb9;de;;;6.2.;;;Gemeinsame Entscheidungsfindung für Patienten mit Typ-2-Diabetes: eine randomisierte Studie in der Primärversorgung Eine patientenzentrierte Diabetesversorgung erfordert eine gemeinsame Entscheidungsfindung (SDM). Entscheidungshilfen fördern SDM, ihre Wirksamkeit in nichtakademischen und ländlichen Kliniken der Grundversorgung ist jedoch unklar.;-;-;-;https://link.springer.com/article/10.1186/1472-6963-13-301 0e0277bbf539b9784dbe56edf856883d;de;;;6.2.;;;Frühe funktionelle Ergebnisse nach Hemiarthroplastik bei Schenkelhalsfraktur: ein randomisierter Vergleich zwischen einem minimalinvasiven und einem konventionellen Zugang In unserer Einrichtung wurde in der Vergangenheit ein minimal-invasiver Ansatz für elektive Hüftoperationen implementiert. Es wird allgemein angenommen, dass die minimalinvasive Implantation künstlicher Hüften das chirurgische Trauma verringert und im Rehabilitationsprozess bei elektiven Hüftoperationen hilfreich ist. Dabei könnten auch geriatrische Patienten, die eine Hüft-Notoperation benötigen, theoretisch von einem Verfahren mit weniger Gewebetrauma profitieren.;-;-;-;https://link.springer.com/article/10.1186/1471-2474-13-141 d5743e2d6b3f04c18a70496cf5888f81;de;;;6.2.;;;Die Sterblichkeit nach mechanischer Thrombektomie bei Schlaganfall des vorderen Kreislaufs kann nachts und am Wochenende höher sein Das Ziel dieser Studie war es, die klinischen Ergebnisse und die verfahrenstechnischen Unterschiede der mechanischen Thrombektomie (MT) während der Rufbereitschaft mit den regulären Öffnungszeiten zu vergleichen. Wir haben uns insbesondere auf dosimetrische Daten konzentriert, die als potenzielle Surrogate für das Patientenergebnis dienen können.;-;-;-;https://link.springer.com/article/10.1007/s00330-020-07615-w 2cbe65807b120ec0d82a0e4b19da593f;de;;;6.2.;;;Ontologie-vermittelte Abfragen mit Hornbeschreibungslogiken Eine ontologievermittelte Abfrage (OMQ) besteht aus einer Datenbankabfrage gepaart mit einer Ontologie. Bei der Auswertung auf einer Datenbank liefert eine OMQ nicht nur die Antworten, die bereits in der Datenbank vorhanden sind, sondern auch die Antworten, die durch logisches Denken mit Regeln der Ontologie gewonnen werden können. Es gibt viele offene Fragen bezüglich der Komplexität von Problemen im Zusammenhang mit OMQs. Motiviert durch den Einsatz von Ontologien in der Praxis werden neue Argumentationsprobleme relevant, die im Kontext von Ontologien nie berücksichtigt wurden, da sie die Benutzerfreundlichkeit von ontologieangereicherten Systemen verbessern können. Diese Arbeit beschäftigt sich mit verschiedenen Argumentationsproblemen, die sich aus ontologievermittelten Abfragen ergeben, und untersucht die rechnerische Komplexität dieser Probleme. Wir konzentrieren uns auf Ontologien, die in Horn-Beschreibungslogiken formuliert sind und eine beliebte Wahl für Ontologien in der Praxis sind. Insbesondere liefert die Dissertation Ergebnisse zur Datenkomplexität der OMQ-Auswertung durch eine vollständige Klassifizierung von Komplexitäts- und Wiederbeschreibbarkeitsfragen für OMQs basierend auf einer EL-Ontologie und einer konjunktiven Abfrage. Weiterhin werden das Query-by-Example-Problem sowie das Exprimierbarkeits- und Verifikationsproblem beim ontologiebasierten Datenzugriff vorgestellt und untersucht.;-;-;-;https://link.springer.com/article/10.1007/s13218-020-00674-7 644a7f366f1241f970b40a438ce11b07;de;;;6.2.;;;Erreichen parametrischer Transparenz in der modellbasierten Fabrikplanung Die Planung neuer Fabriken, aber auch die Neuplanung bestehender Fabriken, sind aufgrund der sich zunehmend ändernden Geschäftsanforderungen, wie beispielsweise kürzere Produktlebenszyklen und Industrie 4.0, häufiger geworden. Eine höhere Anzahl beteiligter Planer und die daraus resultierende hohe Menge an Planungsinformationen erfordern dringend eine Abstimmung. In diesem Zusammenhang steigt die Bedeutung des Building Information Modeling (BIM) in der Fabrikplanung als Methode der integrierten Gebäudeplanung und Planungsvalidierung mittels 3D-Software und objektorientierter Modellierung. Trotz des Einsatzes von BIM gibt es jedoch noch große Schnittstellenprobleme in der Fabrikplanung, die durch die noch manuellen Plausibilitätsprüfungen nichtgeometrischer Planungsinformationen nicht gelöst werden können. Um eine automatische Überprüfung der Planungsergebnisse zu ermöglichen und damit den BIM-basierten Fabrikplanungsprozess zu verbessern, ist eine maschinenlesbare Darstellung der parametrischen Abhängigkeiten zwischen verschiedenen Planungsfeldern wie der Produktionsplanung und der Gebäudeplanung erforderlich. Ziel dieser Arbeit ist es, parametrische und damit nicht-geometrische Abhängigkeiten zwischen den Teilmodellen der BIM-basierten Fabrikplanung so aufzuzeigen, dass Softwareagenten diese Entwurfsinformationen automatisch auswerten können. Innerhalb der Planungsschnittstelle zwischen Produktionsplanung und Gebäudeplanung steht der besondere Austausch zwischen der Planung der Fertigungsanlage und der Planung einer Kühlschmierstoffpumpe im Vordergrund. Unter Einbindung von Fachexperten aus Fabrikplanung, Anlagen- und Produktionstechnik ist es uns als Autoren gelungen, ein schlüssiges System aus Blockschaltbildern, Constraint-Diagrammen und parametrischen Diagrammen zu entwickeln, die die fokussierte Schnittstelle maschinenlesbar erläutern. Wir glauben, dass unsere Leistungen ein wesentliches Element für eine vollständig automatisierte Planungsvalidierung in der BIM-basierten Fabrikplanung und der allgemeinen objektorientierten Modellierung der Zukunft sind.;-;-;-;https://link.springer.com/article/10.1007/s11740-020-01010-6 c3cb416649c45ac2353a89c3e02df3de;de;;;6.2.;;;Sterben als Thema von öffentlichem Interesse: Kulturschriften zur Palliativversorgung in Schweden In Schweden war die Palliativversorgung in den letzten Jahrzehnten Gegenstand von Richtlinien und Leitlinien mit dem Schwerpunkt auf der Erreichung einer „guten Palliativversorgung“. Ziel dieser Studie war es, zu analysieren, wie Experten die Entwicklung und den aktuellen Stand der Palliativversorgung verstehen. Ausgehend von diesem Ziel lag der Fokus darauf, herauszufinden, wie persönliche Erfahrungen des „Selbst“ mit kulturell verfügbaren Konzepten der Metaebene verflochten sind und wie Experten dazu beitragen, neue Skripte zur Palliativversorgung zu konstruieren. Es wurden zwölf qualitative Interviews geführt. Nach der Analyse des empirischen Materials wurden vier Skripte identifiziert: 1.;-;-;-;https://link.springer.com/article/10.1007/s11019-021-10022-7 aac772bf4f61da81befdc581d41b1648;de;;;6.2.;;;Vergleich einer pädiatrischen Praxistherapie und einer interdisziplinären ambulanten Behandlung in sozialpädiatrischen Zentren für Migräne bei Kindern: eine bundesweite randomisiert-kontrollierte Studie in Deutschland: „moma – Module zur Migräneaktivität“ Migräne tritt häufig im Kindesalter auf, erreicht ihren Höhepunkt bei Jugendlichen und besteht bei mindestens 40 % der Patienten bis ins Erwachsenenalter. Es bedarf frühzeitiger Interventionen, um die Krankheitslast zu verbessern und, wenn möglich, die Chronifizierung zu reduzieren. Ziel des Projekts ist es, zwei Arten ambulanter Behandlungsstrategien hinsichtlich ihrer Wirkung auf Kopfschmerztage und Lebensqualität bei 6- bis 11-jährigen Kindern mit Migräne zu vergleichen: 1) die Routineversorgung in Kinderarztpraxen (Interventionsgruppe A) und 2 ) eine strukturierte interdisziplinäre multimodale Intervention, die in sozialpädiatrischen Zentren (Interventionsgruppe B) durchgeführt wird.;-;-;-;https://link.springer.com/article/10.1186/s12887-021-02757-2 8ddb784ac6ecca6f40282b4869557aa6;de;;;6.2.;;;Definition, Analyse und Validierung von technischen und geschäftlichen Anforderungen Das Ziel der Manutelligence-Plattform besteht darin, die Fertigungsintelligenz, alle Daten, Informationen und Kenntnisse in Bezug auf den Produktservice (PS) und seinen Lebenszyklus zu verwalten. Die Plattform basiert auf zwei bestehenden Plattformen und einigen Analysetools (zum Beispiel LCA und LCC). Es wurde nach den Bedürfnissen von vier Anwendungsfällen in unterschiedlichen Industriebereichen (Automotive, Schiff, Smart House, 3D-Druck) entwickelt. Das Kapitel beschreibt die Vier-Phasen-Methodik zur Definition der gemeinsamen aggregierten Anforderungen für die Plattform. Die Phasen umfassen Anforderungserhebung, Strukturierung und Organisation, Analyse und Verfeinerung und Validierung. In der Erhebungsphase wurden die Anforderungen aus den Anwendungsfällen identifiziert, in der Strukturierungs- und Verfeinerungsphase wurden sie weiter konsolidiert, kategorisiert und zu aggregierten Anforderungen verarbeitet und in der Validierungsphase wurden die resultierenden aggregierten Anforderungen mit den ursprünglichen Use-Case-Anforderungen verglichen. Das Kapitel zeigt auch die wichtigsten Ergebnisse jeder Phase.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-95849-1_2 a7f238a3341c78f4cf22acb310354a59;de;;;6.2.;;;Das Markieren von SNPs und Haplotypen war mit der Gliomentwicklung verbunden Da Gliome zu den am häufigsten vorkommenden soliden Tumoren im primären Zentralnervensystem zählen, können bestimmte Einzelnukleotid-Polymorphismen (SNPs) mit einem erhöhten Gliomrisiko in Verbindung gebracht werden und Auswirkungen auf die Karzinogenese haben. Die vorliegende Fall-Kontroll-Studie wurde durchgeführt, um aufzuklären, wie häufige Varianten zur Anfälligkeit für Gliome beitragen. Zehn Kandidaten-Tagging-SNPs (tSNPs) wurden aus sieben Genen ausgewählt, deren Polymorphismen durch klassische Literatur und zuverlässige Datenbanken als tendenziell mit Gliomen und mit der Minor Allel Frequency (MAF) > 5% in der asiatischen HapMap-Population in Verbindung gebracht wurden. Die ausgewählten tSNPs wurden bei 629 Gliompatienten und 645 Kontrollen aus einer Han-Chinesen-Population unter Verwendung des kalibrierten Multiplex-SNP-MassEXTEND-Assays genotypisiert. Zwei signifikante tSNPs in;-;-;-;https://link.springer.com/article/10.1186/1746-1596-8-83 6a09d475a3fdbbcc15aa13e8538d1573;de;;;6.2.;;;Faktoren, die die Zeit bis zur Operation nach neoadjuvanter Chemotherapie bei Brustkrebspatientinnen beeinflussen Es wird vermutet, dass eine verzögerte Operation nach neoadjuvanter Chemotherapie (NACT) bei Brustkrebspatientinnen zu einem schlechteren Outcome führt. Daher haben wir mögliche Einflussfaktoren des Zeitintervalls zwischen dem Ende der NACT und der Operation untersucht.;-;-;-;https://link.springer.com/article/10.1007/s00404-020-05494-6 decfc4b53c1a8b29b8147bab97a88200;de;;;6.2.;;;Spironolacton zur Vorbeugung von kardiovaskulären Ereignissen bei chronischer Nierenerkrankung im Frühstadium (STOP-CKD): Studienprotokoll für eine randomisierte kontrollierte Pilotstudie Chronische Nierenerkrankungen sind bereits in den frühen Stadien mit einer erhöhten arteriellen Steifheit verbunden, und dies gilt als wichtiger Mediator in der Pathophysiologie des mit dieser Erkrankung verbundenen erhöhten kardiovaskulären Risikos. Die Verwendung von niedrig dosiertem Spironolacton hat sich im Rahmen einer sorgfältigen Überwachung in einem Universitätsklinikum bereits gezeigt, um die arterielle Steifigkeit zu verbessern und die linksventrikuläre Masse sicher im Frühstadium einer chronischen Nierenerkrankung zu reduzieren. Die meisten Patienten mit chronischer Nierenerkrankung werden jedoch von ihren Hausärzten in der Gemeinde behandelt. Es ist nicht bekannt, ob mit Spironolacton in der Grundversorgung ähnliche positive Wirkungen sicher erzielt werden können. Das Ziel dieser Studie ist es festzustellen, ob niedrig dosiertes Spironolacton die arterielle Steifheit bei Patienten mit chronischer Nierenerkrankung im Stadium 3 in der Grundversorgung sicher senken kann.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-15-158 c4960eb296b280e2bc91686e70ffa5ba;de;;;6.2.;;;Quantitative Genetik, Pleiotropie und morphologische Integration im Gebiss von Variationen im Gebiss von Säugetieren sind sehr aufschlussreich über Anpassungen und evolutionäre Beziehungen und standen daher im Mittelpunkt umfangreicher Forschungen. Ein Großteil der aktuellen Forschung, die die genetischen Grundlagen der Zahnvariation untersucht, kann ihre Wurzeln auf das Buch von Olson und Miller von 1958 zurückführen trace;-;-;-;https://link.springer.com/article/10.1007/s11692-008-9048-1 d276320251899776f1f4a00f9ef4a136;de;;;6.2.;;;Über die Leistung von Spark auf HPC-Systemen: Auf dem Weg zu einem vollständigen Bild Big-Data-Analyse-Frameworks (z. B. Apache Hadoop und Apache Spark) werden von vielen Unternehmen und Forschungslabors zunehmend verwendet, um umfangreiche Datenanalysen zu ermöglichen. Mit den wachsenden Anforderungen der Benutzer und der Größe der Daten wird die rohstoffbasierte Infrastruktur jedoch unter dem hohen Gewicht von Big Data belastet. Andererseits bieten HPC-Systeme eine Fülle von Möglichkeiten für die Big-Data-Verarbeitung. Als erste Schritte zur Big-Data-Verarbeitung auf HPC-Systemen wurden mehrere Forschungsanstrengungen unternommen, um die Leistung von Big-Data-Anwendungen auf diesen Systemen zu verstehen. Die HPC-spezifischen Leistungsüberlegungen wurden jedoch noch nicht vollständig untersucht. In dieser Arbeit führen wir eine experimentelle Kampagne durch, um ein besseres Verständnis der Leistung von Spark, dem;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-69953-0_5 a56ff887e5f309932c79c0a76c5d00ed;de;;;6.2.;;;Hormonelle, follikuläre und endometriale Dynamik bei mit Letrozol behandelten Zyklen im Vergleich zu natürlichen Zyklen bei Patientinnen, die sich einer kontrollierten Eierstockstimulation unterziehen Ziel dieser Studie war es, Letrozol-stimulierte Zyklen mit natürlichen Zyklen bei 208 Patienten zu vergleichen, die sich zwischen Juli 2004 und Januar 2007 einer intrauterinen Insemination (IUI) unterzogen. Gruppe I (n = 47) erhielt nur Zyklusüberwachung (natürliche Gruppe), Gruppe II (n = 125) erhielt an den Zyklustagen drei bis sieben 2,5 mg/Tag Letrozol und Gruppe III (n = 36) erhielt an den Zyklustagen drei bis sieben 5 mg/Tag Letrozol. Es gab keine Unterschiede zwischen den Gruppen in der Endometriumdicke oder P;-;-;-;https://link.springer.com/article/10.1186/1477-7827-9-83 246a97c19266114d3ba86e377316717b;de;;;6.2.;;;Wachstumshemmung und bodenübertragene Helmintheninfektionen bei schulpflichtigen Schülern in ländlichen Gebieten Südchinas Stunting und bodenübertragene Helminthen (STH)-Infektionen, einschließlich Askariasis, Trichuriasis und Hakenwurm, bleiben bei Schülern im Schulalter in Entwicklungsländern ein großes Gesundheitsproblem. Die Ziele dieser Studie bestanden darin, die Prävalenz von Wachstumsverzögerung bei Kindern und ihre Assoziation mit drei großen bodenübertragenen Helminthen (STH) in ländlichen Gebieten Südchinas zu bestimmen. Die Studie zielt auch darauf ab, Risikofaktoren für Wachstumsverzögerung zu bestimmen und Leitlinien zur Prävention und Kontrolle von Wachstumsverzögerungen und STH-Infektionen für zukünftige Studien in diesem Bereich bereitzustellen.;-;-;-;https://link.springer.com/article/10.1186/1756-3305-3-97 0ccf5235924b8cbc08748c85019acac7;de;;;6.2.;;;Eine systematische Überprüfung der Arten von Interventionen zur gesunden Ernährung in Vorschulen Angesichts des weltweiten Ausmaßes an Adipositas sind neue Orte zur Förderung gesunder Essgewohnheiten notwendig. Da die Ernährungsgewohnheiten von Kindern bereits im Vorschulalter begründet sind, sind frühpädagogische Einrichtungen ein vielversprechender Ort für gesundheitsfördernde Maßnahmen.;-;-;-;https://link.springer.com/article/10.1186/1475-2891-13-56 ddc78218a7ab76b0899c0b6891827d98;de;;;6.2.;;;Bodenmanagement und Wiederherstellung Böden speichern Kohlenstoff (C), speichern und regulieren Wasser, zirkulieren Nährstoffe, regulieren Temperaturen, zersetzen und filtern Abfälle und unterstützen das Leben (Dominati et al. 2010). Wir sind und werden auch weiterhin von diesen Ökosystemleistungen des Bodens abhängen, die das Produkt von Interaktionen zwischen und zwischen abiotischen und biotischen Eigenschaften sind und die Grundlage für die Selbsterhaltung in einem Ökosystem sind (SER 2004).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-45216-2_8 d1de2665db45fe297ac8838ecf9163b3;de;;;6.2.;;;Der Fragebogen zur Sicherheitseinstellung: psychometrische Eigenschaften, Benchmarking-Daten und neue Forschung Es besteht ein weit verbreitetes Interesse an der Messung der Einstellungen von Gesundheitsdienstleistern zu Themen, die für die Patientensicherheit relevant sind (oft als Sicherheitsklima oder Sicherheitskultur bezeichnet). Hier berichten wir über die psychometrischen Eigenschaften, erstellen Benchmarking-Daten und diskutieren neue Forschungsbereiche mit dem Fragebogen zu Sicherheitseinstellungen der University of Texas.;-;-;-;https://link.springer.com/article/10.1186/1472-6963-6-44 9c6b59e8f3558b31e8e727b51e711ae2;de;;;6.2.;;;Verzögerungen bei Patienten und Gesundheitssystem bei der Diagnose und Behandlung neuer und erneuter Fälle von Lungentuberkulose in Malawi Die Bekämpfung der Tuberkulose (TB) bleibt in Malawi trotz des nationalen TB-Kontrollprogramms seit 1984 eine Herausforderung. Diese Studie zielte darauf ab, Verzögerungen bei Patienten und Gesundheitssystemen zu messen und mit diesen Verzögerungen verbundene Faktoren zu identifizieren.;-;-;-;https://link.springer.com/article/10.1186/1471-2334-14-132 5bbe93a1f9b9be0272458a920e4ee90f;de;;;6.2.;;;Natriumkanalexpression im ventralen posterolateralen Nucleus des Thalamus nach peripherer Nervenverletzung Es ist bekannt, dass periphere Nervenverletzungen die Expression des schnell reprimierenden Nav1.3-Natriumkanals innerhalb von Spinalganglionneuronen erster Ordnung und nozizeptiven Neuronen des Hinterhorns zweiter Ordnung hochregulieren, aber es ist nicht bekannt, ob Schmerz verarbeitende Neuronen entlang der Neuraxis erfahren auch Veränderungen in der Natriumkanalexpression. In dieser Studie stellten wir die Hypothese auf, dass nach einer peripheren Nervenverletzung Neuronen dritter Ordnung im ventralen posterolateralen (VPL) Nucleus des Thalamus Veränderungen in der Expression von Natriumkanälen erfahren. Um diese Hypothese zu testen, erlitten erwachsene männliche Sprague-Dawley-Ratten eine chronische Verengungsverletzung (CCI) des Ischiasnervs. Zehn Tage nach CCI, als Allodynie und Hyperalgesie offensichtlich waren,;-;-;-;https://link.springer.com/article/10.1186/1744-8069-2-27 16642af5be6cc523e33d3d409c8b7d5c;de;;;6.2.;;;Die Vereinigung für HIV-Beratung und -Tests mit HIV-Risikoverhalten in einer bevölkerungsbasierten Zufallsumfrage in Kisumu, Kenia HIV-Tests wurden als Schlüsselstrategie zur HIV-Prävention in Einrichtungen mit geringen Ressourcen gefördert, obwohl Studien unterschiedliche Auswirkungen auf das Risikoverhalten zeigten. Wir versuchten, die Raten von HIV-Tests und den Zusammenhang zwischen Tests und sexuellem Risikoverhalten in Kisumu, Kenia, zu untersuchen. Die Teilnehmer wurden zu HIV-Tests und sexuellem Risikoverhalten befragt. Anschließend wurden sie einem serologischen HIV-Test unterzogen. Wir fanden heraus, dass 47 % der Frauen und 36 % der Männer über frühere Tests berichteten. Zwei Drittel der Teilnehmer, die in dieser Studie HIV-positiv getestet wurden, gaben an, keinen vorherigen HIV-Test gemacht zu haben. Frauen, die sich kürzlich einem Test unterzogen hatten, berichteten seltener über risikoreiches Verhalten als Frauen, die nie getestet wurden, dies wurde bei Männern nicht beobachtet. Obwohl die Raten der HIV-Tests höher waren als in früheren Studien, war sich die Mehrheit der HIV-Infizierten ihres Status nicht bewusst. Es sollten Anstrengungen unternommen werden, um HIV-Tests in dieser Bevölkerungsgruppe zu erhöhen.;-;-;-;https://link.springer.com/article/10.1007/s10461-009-9649-4 2a7f44c4a27246fa672226b7abc88674;de;;;6.2.;;;Vitamin-D-Status bei nicht ergänzten postmenopausalen taiwanesischen Frauen mit Osteoporose und Fragilitätsfraktur Vitamin D ist wichtig für den Kalziumstoffwechsel, Vitamin D-Mangel kann Osteoporose auslösen, Muskelschwäche verursachen und das Frakturrisiko erhöhen. Das Ziel dieser Studie war es, die Prävalenz von Vitamin-D-Mangel bei postmenopausalen Frauen ohne Supplementierung mit Osteoporose und Fragilitätsfrakturen der Hüfte oder der Wirbel in Taiwan zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/1471-2474-15-257 e69297b93bf6cc3badc9992e359836b9;de;;;6.2.;;;Langfristige Lebensstilintervention senkt die Inzidenz von Schlaganfällen bei japanischen Patienten mit Typ-2-Diabetes: eine landesweite multizentrische randomisierte kontrollierte Studie (Japan Diabetes Complications Study) Ziel der Studie war es zu klären, ob eine therapeutische Intervention mit Fokus auf Lebensstilmodifikation die Inzidenz von Gefäßkomplikationen bei Patienten mit etabliertem Diabetes beeinflusst.;-;-;-;https://link.springer.com/article/10.1007/s00125-009-1622-2 5eb4602edcb9209f52cf72599269984c;de;;;6.2.;;;Approximale Methoden zur Bildverarbeitung In diesem Tutorial zu proximalen Methoden der Bildverarbeitung geben wir einen Überblick über proximale Methoden für ein breites Publikum und veranschaulichen anhand mehrerer Beispiele die Implementierung dieser Methoden auf Datensätze aus dem Sonderforschungsbereich der Universität G;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-34413-9_6 5cae3185f0f1dc7c10842c31c6fad149;de;;;6.2.;;;Reduktion von Wundinfektionen durch eine neuartige Intervention (ROSSINI): Studienprotokoll für eine randomisierte kontrollierte Studie Surgical Site Infection (SSI) ist eine häufige Komplikation nach Bauchoperationen. Sie ist mit beträchtlicher Morbidität und Mortalität verbunden, und ihr Management verursacht erhebliche Kosten für die Gesundheitsdienste sowohl in der Primär- als auch in der Sekundärversorgung. Einige Chirurgen glauben, dass die Verwendung eines Wundrandschutzes das Auftreten von SSI reduzieren kann. Obwohl es einige ermutigende Beweise dafür gibt, dass solche Geräte zu einer Verringerung von SSI führen können, gibt es keine kontrollierten Studien von ausreichender Größe oder Qualität, um ihre routinemäßige Anwendung zu unterstützen.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-12-217 ce59aa0a48d4154a30f19fdcb06cb720;de;;;6.2.;;;Korrektur eines Vitamin-D-Mangels bei kritisch kranken Patienten – VITdAL@ICU-Studienprotokoll einer doppelblinden, placebokontrollierten randomisierten klinischen Studie Ein Vitamin-D-Mangel ist mit mehreren negativen gesundheitlichen Folgen verbunden, einschließlich einer erhöhten Morbidität und Mortalität in der Allgemeinbevölkerung und bei kritisch kranken Patienten. Bisher wurde jedoch in keiner randomisierten kontrollierten Studie untersucht, ob eine Behandlung mit ausreichend hohen Vitamin-D-Dosen das klinische Outcome von Patienten auf der Intensivstation verbessern kann.;-;-;-;https://link.springer.com/article/10.1186/1472-6823-12-27 55f4b7c6eb845e3916a2bfa97ebd7cbd;de;;;6.2.;;;Geoseq: ein Werkzeug zur Analyse von Deep-Sequencing-Datensätzen Auf Deep-Sequencing-Plattformen generierte Datensätze wurden in verschiedenen öffentlichen Repositorien wie dem Gene Expression Omnibus (GEO), dem vom NCBI gehosteten Sequence Read Archive (SRA) oder der DNA Data Bank of Japan (ddbj) hinterlegt. Obwohl es sich um reichhaltige Datenquellen handelt, wurden sie aufgrund der Schwierigkeiten beim Auffinden und Analysieren von interessierenden Datensätzen nicht häufig verwendet.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-11-506 14bc9d09581e75409e8b6601392328c1;de;;;6.2.;;;Nutzungsmuster der chinesischen Medizin und der westlichen Medizin im Rahmen des National Health Insurance Program in Taiwan, einer bevölkerungsbezogenen Studie von 1997 bis 2003 1995 hat Taiwan ein nationales Gesundheitssystem (das National Health Insurance Program, NHI) eingeführt, das sowohl die westliche Medizin (WM) als auch die chinesische Medizin (CM) abdeckt. Diese bevölkerungsbezogene Studie wurde durchgeführt, um die Rolle von CM in diesem dualen Medizinsystem zu verstehen, indem die Nutzungsmuster von CM und KM ermittelt und die demografischen Merkmale und primären Indikationen analysiert werden, die die Wahl der medizinischen Leistungen beeinflussen, um Strategien zur die angemessene Verwendung und reduzieren unnötigen Einsatz von CM.;-;-;-;https://link.springer.com/article/10.1186/1472-6963-8-170 3db12f0902c94ac209ffbc693a383764;de;;;6.2.;;;Zugänglichkeit, Verfügbarkeit und Inanspruchnahme von Malaria-Interventionen bei Frauen im gebärfähigen Alter im Distrikt Kilosa in Zentraltansania Allgemeiner Zugang zu und Inanspruchnahme von Malaria-Präventionsmaßnahmen ist definiert als jede Person mit Malariarisiko, die unter einem hochwertigen, mit Insektiziden behandelten Moskitonetz (ITN) schläft, und jede gefährdete schwangere Frau, die mindestens zwei Dosen Sulfadoxin-Pyrimethamin (SP) erhält. Diese Studie zielte darauf ab, Faktoren zu bestimmen, die die Zugänglichkeit, Verfügbarkeit und Nutzung von Malaria-Interventionen bei Frauen im gebärfähigen Alter im Distrikt Kilosa in Zentraltansania beeinflussen.;-;-;-;https://link.springer.com/article/10.1186/1472-6963-14-452 afa043a5f77c46cc4246fb63c43d09f0;de;;;6.2.;;;Peer Support bei Typ-2-Diabetes: eine randomisierte kontrollierte Studie in der Primärversorgung mit parallelen ökonomischen und qualitativen Analysen: Pilotstudie und Protokoll Diabetes ist eine chronische Erkrankung, bei der der Betroffene selbst die Verantwortung für seine Pflege übernehmen muss, um Glukose- und Blutdruckwerte möglichst normal zu halten. Traditionell wird das Selbstmanagement-Training für Diabetes didaktisch durchgeführt. In jüngster Zeit wurden Alternativen zur traditionellen Diabetesversorgung untersucht, zum Beispiel das Konzept der Peer-Unterstützung, das die Patienten- und nicht die professionelle Dominanz betont. Dieses Papier beschreibt die Pilotstudie und das Protokoll für eine Studie, die darauf abzielt, die Wirksamkeit einer Peer-Support-Intervention für Menschen mit Typ-2-Diabetes in einer hausärztlichen Einrichtung zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/1471-2296-8-45 8a4b5d9c2d449650b1bc682a1a80e9d8;de;;;6.2.;;;Körperliche Aktivität ist umgekehrt mit dem Auftreten von Depressionen bei städtischen Jugendlichen im regionalen China verbunden Eine umgekehrte Beziehung zwischen körperlicher Aktivität (PA) und Depression bei Jugendlichen wurde in entwickelten Gemeinschaften ohne Berücksichtigung von sitzendem Verhalten (SB, einschließlich Sitzen für Kursstudium, Fernsehen und Schlafen) berichtet. Wir untersuchten den Zusammenhang zwischen Freizeit-PA-Zeit (Std./Woche) und Depression nach Anpassung mit SB und anderen möglichen Störfaktoren bei chinesischen Jugendlichen.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-9-148 a8d4100e14f9adc90e429fb7b664e07d;de;;;6.2.;;;Nährstoffschätzung aus einem FFQ, der für eine schwarze simbabwische Bevölkerung entwickelt wurde In der Literatur gibt es nur wenige Informationen über Methoden der Datenbankentwicklung zur Lebensmittelzusammensetzung zur Berechnung der Nährstoffaufnahme aus Daten des Lebensmittelfrequenzfragebogens (FFQ). Das Ziel dieser Studie ist es, die Entwicklung eines FFQ und einer Nahrungszusammensetzungstabelle zur Berechnung der Nährstoffaufnahme in einer schwarzen simbabwischen Bevölkerung zu beschreiben.;-;-;-;https://link.springer.com/article/10.1186/1475-2891-4-37 ea336d1e11a6f311f06b2f45ba260546;de;;;6.2.;;;West End Walkers 65+: Eine randomisierte kontrollierte Studie einer hausärztlichen Gehintervention für ältere Erwachsene: Begründung und Design der Studie In Schottland sind ältere Erwachsene aufgrund des großen Anteils der Nichterwerbstätigen eine wichtige Zielgruppe für Maßnahmen zur Bewegungsförderung. Die gesundheitlichen Vorteile eines aktiven Lebensstils sind gut bekannt, aber es bedarf weiterer Forschung zu den wirksamsten Interventionen zur Steigerung der Aktivität bei älteren Erwachsenen. Die randomisierte, kontrollierte Studie „West End Walkers 65+“ zielt darauf ab, die Machbarkeit der Durchführung einer Schrittzähler-basierten Gehintervention für Erwachsene im Alter von years 65 Jahren durch eine Primärversorgung zu untersuchen und die Wirksamkeit dieses Pilotprojekts zu bestimmen. Die Begründung der Studie, das Protokoll und der Rekrutierungsprozess werden in diesem Papier diskutiert.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-11-120 084dfdc8a2ebbe45f137733a42611aba;de;;;6.2.;;;Entwerfen eines nonformalen offenen Online-Lernprogramms, das die Interaktion zwischen Teilnehmern und Inhalten fördert Frühere Studien haben sich auf die Knappheit von Interaktionen zwischen Menschen beim nicht formalen Online-Lernen konzentriert. Diese Designforschungsstudie untersuchte, wie sich individuelle Faktoren wie Vorkenntnisse und Lernziele auf die Interaktion zwischen Teilnehmern und Inhalten in einem nicht formalen offenen Online-Lernprogramm auswirken. Die Ergebnisse dieser Studie zeigten, dass die Selbsteinschätzung der Vorkenntnisse der Teilnehmer ihre Interaktion mit den Lerninhalten signifikant beeinflusst. Es werden auch Strategien diskutiert, die die Interaktion bei ähnlichem nicht formalem Lernen verbessern können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16504-2_9 a3d5527176a5890687351c4daa06f1e1;de;;;6.2.;;;Big-Data-Analysetechniken zur Behandlung der Polypharmazie bei Patienten – ein Scoping Review Die Polypharmazie ist insbesondere bei älteren und multimorbiden Patienten eine zentrale Herausforderung im Gesundheitswesen. Die Verwendung mehrerer Medikamente erhöht das Potenzial für Arzneimittelinteraktionen und die Verschreibung potenziell ungeeigneter Medikamente. eHealth-Lösungen werden im Gesundheitswesen zunehmend empfohlen, wobei Big-Data-Analysetechniken eine Hauptkomponente darstellen. Im Folgenden verwenden wir den Begriff Analyse von Big Data als Hinweis auf die rechnerische Analyse großer Datensätze, um Muster, Trends und Assoziationen in großen Datensätzen zu finden, die aus einer Vielzahl von Quellen gesammelt wurden, im Gegensatz zu klassischen Statistikprogrammen. Es wird die Hypothese aufgestellt, dass die Big-Data-Analyse in der Lage ist, Muster in Patientendaten aufzudecken, die mit herkömmlichen Methoden der Datenanalyse nicht erkennbar wären. Das Ziel dieser Übersichtsarbeit war zu bewerten, ob es existierende Big-Data-Analysetechniken gibt, die dazu beitragen können, Patienten zu identifizieren, die mehrere Medikamente konsumieren, und zur Verringerung der Polypharmazie bei Patienten beitragen.;-;-;-;https://link.springer.com/article/10.1186/s12875-020-01247-1 a0e4fea2a0a0c5008c0900997c84eac6;de;;;6.2.;;;Einhaltung des ITN-Schutzes von Kleinkindern im ländlichen Burkina Faso Mit Insektiziden behandelte Moskitonetze (ITNs) sind bekannt dafür, dass sie die Morbidität und Mortalität von Malaria sehr effektiv reduzieren. Die Wirksamkeit von ITNs wird weitgehend durch Verhaltensfaktoren beeinflusst und über solche Faktoren unter Programmbedingungen ist nicht viel bekannt.;-;-;-;https://link.springer.com/article/10.1186/1475-2875-5-70 5855a3549db9b5e6f848dc5e378ffe8d;de;;;6.2.;;;„Omics“-Techniken und ihre Verwendung, um festzustellen, wie Sojabohnen auf Überschwemmungen reagieren Verschiedene Umweltbelastungen verringern das Pflanzenwachstum und die Produktivität. Pflanzen reagieren auf Stress durch Veränderungen der Genexpression, des Proteinreichtums und der Akkumulation von Metaboliten. Unter den Werkzeugen der funktionellen Genomik werden „Omics“-Techniken wie Transkriptomik, Proteomik und Metabolomik ausgiebig verwendet, um diese Reaktionen aufzudecken. Die Veränderung des Pflanzen-Phänotyps durch Veränderung von Transkripten, Proteinen und Metaboliten ist eine der Hauptherausforderungen zur Verbesserung der Pflanzenproduktion. Die Anwendung von „Omics“-Techniken kann die Entwicklung stresstoleranter Pflanzen erleichtern. In diesem Review werden „Omics“-Techniken und ihre Verwendung vorgestellt, um zu erkennen, wie Sojabohnen auf Überschwemmungen reagieren.;-;-;-;https://link.springer.com/article/10.1186/s40543-015-0052-7 61175bfcc40a1d33a899efe6614bda05;de;;;6.2.;;;Eine multizentrische, randomisierte, kontrollierte Studie zu Coaching und Telemonitoring bei Patienten mit Mukoviszidose: conneCT CF Das Ausmaß der Lungenerkrankung bleibt der wichtigste prognostische Faktor für das Überleben bei Patienten mit Mukoviszidose (CF), und mangelnde Adhärenz ist der Hauptgrund für das Versagen der Behandlung. Die frühzeitige Erkennung einer Verschlechterung der Lungenfunktion und die Optimierung der Adhärenz sind daher in der CF-Behandlung entscheidend. Wir führen eine randomisierte kontrollierte Studie durch, um die Wirksamkeit des Telemonitorings von Adhärenz, Lungenfunktion und Gesundheitszustand in Kombination mit Verhaltensänderungsinterventionen mit innovativen digitalen Technologien zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s12890-021-01500-y ad55e91a6b9f5b00f83f1a2161182212;de;;;6.2.;;;Pharmakovigilanz-Programm zur Überwachung von Nebenwirkungen von rekombinanter Streptokinase bei akutem Myokardinfarkt Streptokinase (SK) ist ein wirksames Fibrinolytikum zur Behandlung des akuten Myokardinfarkts (AMI). Ziel der vorliegenden Studie war es, die mit intravenös rekombinanter SK bei Patienten mit AMI assoziierten unerwünschten Arzneimittelwirkungen (UAW) in der klinischen Routinepraxis zu beurteilen.;-;-;-;https://link.springer.com/article/10.1186/1472-6904-5-5 56a0e29700a960ffbbe969fbca2ce2c0;de;;;6.2.;;;Wirksamkeit von Vitamin D3-angereichertem Joghurtgetränk auf anthropometrische, metabolische, entzündliche und oxidative Stress-Biomarker gemäß Vitamin-D-Rezeptor-Gen-Polymorphismen bei Typ-2-Diabetikern: ein Studienprotokoll für eine randomisierte kontrollierte klinische Studie Die Entwicklung des Typ-2-Diabetes mellitus (T2DM) wird durch das Zusammenspiel von genetischen und umweltbedingten Faktoren bestimmt. Diese Studie wurde entwickelt, um die mögliche Rolle von VDR-Single-Nukleotid-Polymorphismen (SNPs) bei verschiedenen Aspekten der diabetischen Wirtsreaktion (anthropometrischer, metabolischer, oxidativer Stress und entzündlicher Stress) auf die tägliche Einnahme von Vitamin D durch angereichertes Joghurtgetränk für 12 Wochen zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/1472-6823-11-12 ff3267600c03cc1c8e64da0e2dd85318;de;;;6.2.;;;In ovo serielle Skelettmuskeldiffusions-Traktographie des sich entwickelnden Hühnerembryos mit DTI: Machbarkeit und Korrelation mit der Histologie Die Magnetresonanztomographie ist eine nichtinvasive Methode zur Beurteilung der Embryonalentwicklung. Diffusion Tensor Imaging (DTI), basierend auf der gerichteten Diffusivität von Wassermolekülen, ist eine etablierte Methode zur Bewertung der Gewebestruktur. Dennoch verschlechtert die embryonale Bewegung die in vivo-Erfassung von Langzeit-DTI. Wir verwendeten eine Dual-Cooling-Technik, um Bewegungsartefakte zu vermeiden, und wollten untersuchen, ob DTI verwendet werden kann, um die Entwicklung der Skelettmuskulatur von Hühnerembryonen in ovo zu überwachen, und die Korrelation zwischen quantitativen DTI-Parametern fraktionierte Anisotropie (FA) und Faserlänge und quantitativer histologischer Parameter Faserflächenprozentsatz (FiberArea%) und Gliedmaßenlänge.;-;-;-;https://link.springer.com/article/10.1186/1471-213X-12-38 fe9d3a3f9565f54f279be2eee290011f;de;;;6.2.;;;Form trifft Funktion im Gehirn: Aktivität und Struktur spezifischer neuronaler Verbindungen beobachten Jüngste Fortschritte in den Neurowissenschaften haben immer detailliertere Einblicke in die Aktivität und Struktur von Gehirnschaltkreisen ermöglicht. In früheren Arbeiten haben wir Methoden entwickelt und angewendet, um die Aktivität bestimmter Zellen und Projektionen innerhalb neuronaler Systeme während des Verhaltens präzise zu steuern (Optogenetik). Hier bespreche ich verschiedene komplementäre technologische Ansätze zur Beobachtung natürlicher Aktivitätsmuster in diesen Zellen und Projektionen während des Verhaltens (Faserphotometrie) und um anatomische Einblicke in die Verdrahtung und den molekularen Phänotyp dieser Schaltkreiselemente im intakten Säugetiergehirn zu erhalten (CLARITY-optimierte Lichtblattmikroskopie). . Zusammen können diese Ansätze dazu beitragen, das Verständnis der Schaltungsdynamik und der Verdrahtungsmuster, die dem adaptiven und maladaptiven Verhalten zugrunde liegen, weiter zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27777-6_3 1b8772e19d26f952b460e75ef94d5dc4;de;;;6.2.;;;Intervention des Rehabilitationskoordinators versus Kontrolle in der psychiatrischen Fachversorgung für die Rückkehr an den Arbeitsplatz und die Reduzierung des Krankenstands: Studienprotokoll einer randomisierten kontrollierten Studie Psychische Störungen sind in Schweden der häufigste Grund für Krankmeldungen. Das Wissen über wirksame Methoden zur Unterstützung dieser Personen beim Wiedereinstieg in den Beruf (RTW)/Einstieg in Arbeit oder Studium ist begrenzt. Rehabilitationskoordinatoren (RCs) wurden im Gesundheitswesen mit dem Ziel eingeführt, die Zusammenarbeit zu fördern, den Krankheitsurlaub und den Rehabilitationsprozess zu rationalisieren und die RTW für Patienten auf der Krankenliste zu erleichtern. Die Funktion von RCs hat positive Ergebnisse gezeigt, indem sie den Krankenstand in der primären Gesundheitsversorgung reduziert hat. Die Funktion ist jedoch nicht fachpsychiatrisch evaluiert. Dieses Papier beschreibt das Design einer Studie zur Bewertung der Auswirkungen einer RC-Intervention auf Krankenstand und RTW/Einstieg ins Berufsleben oder Studien bei Patienten mit mittelschweren bis schweren affektiven und/oder mittelschweren bis schweren Angststörungen in der spezialisierten psychiatrischen Versorgung.;-;-;-;https://link.springer.com/article/10.1186/s12889-020-8238-3 339b0c4fa557e24ffbd4531c2f4fbe3f;de;;;6.2.;;;Methanproduktion bei Wiederkäuern Die Landwirtschaft ist weltweit eine bedeutende Quelle von Treibhausgasen, und wiederkäuende Nutztiere sind einer der größten Verursacher dieser Emissionen, die für schätzungsweise 14% der Treibhausgase (CH;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-55396-8_6 bb3bb38c0a1a4711c76526585baee696;de;;;6.2.;;;In Richtung Vor-Ort, modulare robotergesteuerte Kohlefaser-Wicklung für eine integrierte Deckenkonstruktion Unter den aktuellen Anwendungen von Standard-Industrieroboterarmen für die Automatisierung und Massenanpassung in der Bauindustrie ist die Roboterfertigung für die maßgeschneiderte Fertigung und die Weiterentwicklung mobiler und Vor-Ort-Bauprozesse von Interesse. Der Einsatz von Roboterarmen kann insbesondere dort von Bedeutung sein, wo Zugangs- und Standortbedingungen die weitere Konstruktion von Bauelementen zum Einfügen in eine bestehende Bausubstanz einschränken. Dieses Papier stellt die Forschung und Entwicklung der robotergesteuerten Kohlefaserwicklung einer integrierten Deckenstruktur vor, um offene und flexible Arbeitsumgebungsszenarien zu unterstützen. Das Projekt Systems Reef 1.0 untersucht das Potenzial und die Durchführbarkeit einer integrierten Infrastruktur, die Standard-Bürodecken-Rastersysteme erweitert, um flexible Arbeitsplatzszenarien und die Vertretung vernetzter, dynamischer und selbstorganisierender Teams zu unterstützen. Insofern sorgen mehrere lukengehängte, drehbare und versenkbare Datenausleger für Glasfaserdaten, elektrische Verkabelung und integrierte Beleuchtung. Durch geometrisch komplexe, faserverstärkte Bauelemente, die vor Ort robotisch gefertigt werden, kann ein neues Verteilsystem für Daten und Licht bereitgestellt werden, um individuelle und gruppenübergreifende Zusammenarbeit in einem zeitgemäßen Großraumbüro für maximale Flexibilität zu unterstützen. In diesem Papier diskutieren wir die Forschung zur Entwicklung von Roboter-Kohlefaser-Einfädelsequenzen und physikalische Demonstratoren für eine integrierte Deckenstruktur, die lokale Deckenbeschränkungen berücksichtigt. Mithilfe eines KUKA KR10 Industrieroboters und einer mobilen Plattform wurden Prototypen zum Einfädeln von Kohlefasern mit den Bedingungen vor Ort integriert und in vier physischen Demonstratoren synthetisiert, die die Datenbereitstellung für flexibles Schreibtischen in Großraumbüros unterstützen, in denen die Vorfertigung von großformatigen Gebäudemodulen eingeschränkt ist Zugangsbeschränkungen zu erhalten. Das Papier diskutiert Herausforderungen bei der Integration von robotergesteuertem Kohlefasereinfädeln, datengesteuerter Belegung, struktureller Leistung und Ergebnissen für die Arbeitsplatzflexibilität und schließt mit einem Ausblick auf zukünftige Potenziale.;-;-;-;https://link.springer.com/article/10.1007/s41693-019-00019-3 eec5dd0bae9db623d9f5e6f6d38fbafd;de;;;6.2.;;;Umgang mit ethischen Problemen in der KI Dieses Kapitel gibt einen Überblick über die Vorschläge, die zur Behandlung ethischer Fragen der KI unterbreitet wurden. Es unterteilt sie in Vorschläge auf politischer Ebene, organisatorische Antworten und Leitlinien für Einzelpersonen. Es wird diskutiert, wie sich diese Minderungsoptionen in den Fallstudien widerspiegeln, die die soziale Realität der KI-Ethik beispielhaft darstellen. Das Kapitel schließt mit einem Überblick über die von KI betroffenen Interessengruppen, von denen viele eine Rolle bei der Umsetzung der Minderungsstrategien und der Auseinandersetzung mit ethischen Fragen in der KI spielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-69978-9_5 682f4eb3cceab93c23123b27ac3311a9;de;;;6.2.;;;spp. bei europäischen Wildwiederkäuern: Parasitenvielfalt und Risikofaktoren für eine Infektion sind durch Zecken übertragene Parasiten, die zunehmend als Bedrohung für die Gesundheit von Tier und Mensch angesehen werden. Unser Ziel war es, die Rolle freilebender Wildwiederkäuer in Europa als Erhaltungssäugetierwirte für;-;-;-;https://link.springer.com/article/10.1186/1297-9716-45-65 3dd99b1094c7aac745c2b9738a683499;de;;;6.2.;;;Rückenmarkstimulation bei vorherrschenden Kreuzschmerzen bei fehlgeschlagenem Rückenoperationssyndrom: Studienprotokoll für eine internationale multizentrische randomisierte kontrollierte Studie (PROMISE-Studie) Obwohl die Ergebnisse von Fallserien den Einsatz der Rückenmarkstimulation bei Patienten mit einem fehlgeschlagenen Rückenoperationssyndrom mit vorherrschenden Kreuzschmerzen unterstützen, wurde in dieser Patientengruppe bisher keine bestätigende randomisierte kontrollierte Studie durchgeführt. PROMISE ist eine multizentrische, prospektive, randomisierte, offene Parallelgruppenstudie zum Vergleich der klinischen Wirksamkeit der Rückenmarkstimulation plus optimalem medizinischem Management mit optimalem medizinischem Management allein bei Patienten mit fehlgeschlagenem Rückenoperationssyndrom und überwiegenden Kreuzschmerzen.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-14-376 bc9dc8ef608cdffb0ac7b140cf0369c1;de;;;6.2.;;;Auf dem Weg zu einem „4I“-Ansatz für die personalisierte Gesundheitsversorgung Die personalisierte Gesundheitsversorgung verspricht, sicherzustellen, dass jeder Patient eine optimale Gesundheitsförderung und klinische Versorgung erhält, basierend auf seinem einzigartigen und multifaktoriellen Phänotyp, basierend auf den aktuellsten und kontextrelevanten Wissenschaften. Das Erreichen dieser Vision erfordert jedoch die Verwaltung, Analyse und Bereitstellung komplexer Daten, Informationen und Wissen. Während es etablierte Rahmenwerke gibt, die dazu dienen, Grundlagenforschung, klinische und translationale Forschung zu betreiben, um die Operationalisierung des personalisierten Gesundheitsparadigmas zu unterstützen, sind gleichwertige Konstrukte, die eine auf solche Ziele ausgerichtete biomedizinische Informatikinnovation und -praxis ermöglichen könnten, auffallend spärlich . Als Reaktion auf diese Wissenslücke schlagen wir einen solchen Rahmen für die Weiterentwicklung der biomedizinischen Informatik vor, um den grundlegenden Informationsbedarf der personalisierten Gesundheitsdomäne zu adressieren. Dieser Rahmen, den wir als „4I“-Ansatz bezeichnen, betont das Streben nach informationszentrierter, integrativer, interaktiver und innovativer Forschung und Praxis.;-;-;-;https://link.springer.com/article/10.1186/2001-1326-1-14 64ccdb2ca2de16616c3ade34e2a41348;de;;;6.2.;;;Aktive Überwachung der intraläsionalen Verabreichung von humanem rekombinanten epidermalen Wachstumsfaktor bei diabetischen Fußulzera nach Markteinführung Nach mehreren explorativen und bestätigenden klinischen Studien wurde die intraläsionale Verabreichung des humanen rekombinanten epidermalen Wachstumsfaktors (hrEGF) zur Behandlung von fortgeschrittenen diabetischen Fußulzera (DFU) zugelassen. Ziel dieser Arbeit war es, die Wirksamkeit und Sicherheit dieses Verfahrens in der medizinischen Praxis zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/2050-6511-14-44 c0528c764b718f1c6a426ed1bde86c3a;de;;;6.2.;;;Fortschritte bei der Umsetzung des ACT-Malaria-Fallmanagements in öffentlichen Gesundheitseinrichtungen in der Republik Sudan: eine Cluster-Stichprobenerhebung Effektives Malaria-Fallmanagement basierend auf Artemisinin-basierter Kombinationstherapie (ACT) und parasitologischer Diagnose ist eine wichtige Säule des Nationalen Malaria-Strategieplans 2007-2012 im Sudan. Drei Jahre nach Einführung der Strategie wurde eine Umfrage in Gesundheitseinrichtungen durchgeführt, um die Fallmanagementpraktiken und die Bereitschaft der Gesundheitseinrichtungen und des Gesundheitspersonals zur Umsetzung einer neuen Malaria-Fallmanagementstrategie zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-12-11 7a6850cb9b944a9612dd676149941988;de;;;6.2.;;;Patientenzufriedenheit in der Grundversorgung bei Erkrankungen des Bewegungsapparates: Ein Vergleich zwischen Neuraltherapie und Schulmedizin Das Hauptziel dieser Studie war es, die Patientenzufriedenheit mit Neuraltherapie (NT) und konventioneller Medizin (COM) in der Primärversorgung von Erkrankungen des Bewegungsapparates zu bewerten und zu vergleichen.;-;-;-;https://link.springer.com/article/10.1186/1472-6882-8-33 60aa79564bfead6a76319ae4384d9caa;de;;;6.2.;;;MicroRNA-Expressionsklassifizierung zur Identifizierung von Multipler Sklerose bei Kindern MicroRNAs (miRNAs) sind eine Reihe von kurzen nicht-kodierenden RNAs, die in Zellen eine bedeutende regulatorische Rolle spielen. Die Untersuchung von miRNA-Daten, die mit Next-Generation-Sequenzierungstechniken erzeugt wurden, kann eine wertvolle Hilfe bei der Analyse multifaktorieller Erkrankungen wie Multipler Sklerose (MS) sein. Obwohl umfangreiche Studien an jungen Erwachsenen mit MS durchgeführt wurden, wurden die pathogenen Mechanismen bei pädiatrischen Patienten nur sehr wenig und keine aus der Perspektive des maschinellen Lernens untersucht. In dieser Arbeit berichten wir über die experimentellen Ergebnisse einer Klassifikationsstudie, die darauf abzielt, die Wirksamkeit von maschinellen Lernmethoden bei der automatischen Unterscheidung von pädiatrischen MS von gesunden Kindern basierend auf ihren miRNA-Expressionsprofilen zu bewerten. Da das Aufmerksamkeits-Defizit-Hyperaktivitäts-Syndrom (ADHS) einige kognitive Beeinträchtigungen mit der pädiatrischen MS teilt, haben wir auch Patienten mit ADHS in unsere Studie eingeschlossen. Ermutigende Ergebnisse wurden mit einem künstlichen neuronalen Netzmodell erzielt, das auf einem Satz von Merkmalen basiert, die automatisch durch Merkmalsauswahlalgorithmen ausgewählt wurden. Die erhaltenen Ergebnisse zeigen, dass Modelle, die auf automatisch ausgewählten Merkmalen entwickelt wurden, Modelle überwinden, die auf einer Reihe von Merkmalen basieren, die von menschlichen Experten ausgewählt wurden. Die Entwicklung eines automatischen Vorhersagemodells kann Kliniker bei der frühen MS-Diagnose unterstützen und neue Erkenntnisse liefern, die dazu beitragen können, neue molekulare Signalwege zu finden, die an der MS-Erkrankung beteiligt sind.;-;-;-;https://link.springer.com/article/10.1007/s12652-021-03091-2 a0a94dfc51345131d4229b8da1d49768;de;;;6.2.;;;Digital Touch Ethik und Werte In diesem Kapitel werden die wichtigsten ethischen Überlegungen und Herausforderungen bei der Entwicklung und Erforschung von Berührungstechnologien untersucht, wobei der Schwerpunkt auf der Einbeziehung ethischer Berührungsempfindlichkeiten und -werte in die digitale Berührungskommunikation liegt. Wir diskutieren die Schwierigkeit, ethisch zu forschen und zu gestalten im Kontext einer sich entwickelnden technologischen Landschaft, wie sie sich in der breiteren HCI-Ethikdebatte widerspiegelt. Das Kapitel untersucht dann die zentrale Rolle des menschlichen Körpers als Ort für die digitale Berührungskommunikation, bevor es sich auf die zentralen Herausforderungen rund um Vertrauen, Kontrolle, Zustimmung und taktile Daten konzentriert. In Übereinstimmung mit den vorangegangenen Kapiteln argumentieren wir, dass digitale Berührungspraktiken Teil der breiteren sozialen Beziehungen und Kommunikation sind und sich auf diese auswirken. Die Arten von Berührungspraktiken und Beziehungen, die entworfen wurden;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-24564-1_7 5fee1178398703f5f13442a42d1fc3af;de;;;6.2.;;;Einfache und vollständige Hinterlegung von NMR-Daten an das PDBe Wir präsentieren eine Software-Suite für die vollständige und einfache Bereitstellung von NMR-Daten in PDB und BMRB. Diese Suite verwendet das CCPN-Framework und führt eine frei herunterladbare, grafische Desktop-Anwendung namens CcpNmr Entry Completion Interface (ECI) für die sichere Bearbeitung experimenteller Informationen und zugehöriger Datensätze während der gesamten Lebensdauer eines NMR-Projekts ein. CCPN-Projekte können mit der CcpNmr-Analysesoftware oder durch Importieren vorhandener NMR-Datendateien mit dem CcpNmr-Formatkonverter erstellt werden. Nach weiterer Dateneingabe und Prüfung mit der ECI kann das Projekt dann schnell mit AutoDep im PDBe hinterlegt oder als komplette NMR-STAR-Depositionsdatei exportiert werden. In vollständigen CCPN-Projekten, die mit ECI erstellt wurden, ist es einfach, chemische Schichtlisten, Beschränkungsdatensätze, Strukturensembles und alle relevanten zugehörigen experimentellen Sammlungsdetails auszuwählen, die alle bei der Hinterlegung an die PDB obligatorisch sind oder werden. Anweisungen und Download-Informationen für die ECI finden Sie auf der PDBe-Website unter;-;-;-;https://link.springer.com/article/10.1007/s10858-010-9439-3 0cd6f8457371b0759d28381ab5240d1d;de;;;6.2.;;;Die Hemmung des Angiotensin-Converting-Enzyms und die Nahrungsbeschränkung stellen die verzögerte Präkonditionierung bei diabetischen Mäusen wieder her Klassische und verzögerte Präkonditionierung sind starke endogene Schutzmechanismen gegen Ischämie-Reperfusionsschäden. Es ist jedoch noch ungewiss, ob eine verzögerte Präkonditionierung das Myokard bei Patienten mit Begleiterkrankungen wie Diabetes und dem metabolischen Syndrom effektiv retten kann. Wir untersuchten die verzögerte Präkonditionierung in Mausmodellen für Typ-II-Diabetes und das metabolische Syndrom und untersuchten Interventionen zur Optimierung des Präkonditionierungspotentials.;-;-;-;https://link.springer.com/article/10.1186/1475-2840-12-36 bd3c6418d6e3232a586eddad3642ad41;de;;;6.2.;;;Operationen am späten Lebensende im Zusammenhang mit der Creutzfeldt-Jakob-Krankheit: ein methodischer Überblick für evidenzbasierte Leitlinien Es gibt zunehmend epidemiologische Hinweise auf ätiologische Zusammenhänge zwischen Allgemeinchirurgie und sporadischer Creutzfeldt-Jakob-Krankheit (sCJK) mit langen Inkubationszeiten. Der Zweck dieser Studie war es, spezifische chirurgische Verfahren zu identifizieren, die möglicherweise mit sCJK assoziiert sind und als Ziel für die präventive präoperative Interventionsführung dienen.;-;-;-;https://link.springer.com/article/10.1186/1742-7622-10-5 9937828ad6dcd20b17358586913b530e;de;;;6.2.;;;Schwere Leberfunktionsstörung, die den Verlauf von COVID-19 bei kritisch Kranken komplizieren: multifaktorielle Ursache oder direkte virale Wirkung? SARS-CoV-2 verursachte eine Pandemie und eine globale Bedrohung für die menschliche Gesundheit. Bei Patienten mit der Coronavirus-Krankheit 2019 (COVID-19) wurde häufig über das Vorliegen einer Leberschädigung berichtet. Es fehlen jedoch Berichte über schwere Leberfunktionsstörungen (SLD) bei kritisch Erkrankten mit COVID-19. Wir haben das Auftreten, die klinischen Merkmale und das Ergebnis von SLD bei kritisch kranken Patienten mit COVID-19 untersucht.;-;-;-;https://link.springer.com/article/10.1186/s13613-021-00835-3 4837be58959a6a86f598b98815a53633;de;;;6.2.;;;Wie können Familienunternehmen disruptive Branchenveränderungen überstehen? Einblicke aus dem klassischen Versandhandel Die vorliegende Studie untersucht, wie Familienunternehmen auf disruptive Branchenveränderungen reagieren. Wir wollen untersuchen, welche Faktoren die Übernahme disruptiver Innovationen durch Familienunternehmen in ihrer Branche verhindern oder unterstützen und welche Mechanismen zu einer mehr oder weniger erfolgreichen Bewältigung disruptiver Veränderungen führen. Unsere Analyse basiert auf 24 qualitativen Interviews mit Top-Führungskräften und auf Sekundärdaten aus einer Branche, in der disruptive Innovationen die Art und Weise der Geschäftsentwicklung dramatisch verändert haben. Bei der Branche handelt es sich um den Versandhandel, der in seinen Anfängen das Einzelhandelsgeschäft auf den Kopf gestellt hat. Als Ende der 1990er Jahre das Internet und damit der E-Commerce begannen, die Branche zu revolutionieren, zeichnete sich die Branche durch einen hohen Anteil an Familienunternehmen und eine geringe Innovationskraft aus. Obwohl etablierte Unternehmen jahrzehntelang sehr erfolgreich waren, waren die meisten von ihnen mit ernsthaften Turbulenzen konfrontiert, als neue Marktteilnehmer begannen, das Gesicht der Branche zu verändern. Unsere Ergebnisse zeigen, dass unterschiedliche Faktoren die Reaktionen auf disruptive Branchenveränderungen in zwei verschiedenen Phasen beeinflussen, nämlich der Chancenerkennung und der Chancenimplementierung. Während einige der Einflussfaktoren durch Branchenfaktoren bestimmt werden, kann der Einfluss der Familie für etablierte Unternehmen zum Guten oder Schlechten funktionieren. Insbesondere stellen wir fest, dass in Unternehmen mit einem Family Disruptor, einem Familienmitglied in einer einflussreichen Position, das die Einführung der neuen Technologie vorantreibt, Hindernisse überwunden werden können und Unternehmen tendenziell erfolgreichere Strategien zeigen, wenn sie auf den disruptiven Branchenwandel reagieren.;-;-;-;https://link.springer.com/article/10.1007/s11846-020-00424-x a05281f6129a0c7fc7a3d6ba73c52a75;de;;;6.2.;;;Zwischen Leben und Tod: Erforschung des soziokulturellen Kontexts von vorgeburtlicher psychischer Belastung im ländlichen Äthiopien Die hohe Prävalenz von vorgeburtlichen häufigen psychischen Störungen in Subsahara-Afrika im Vergleich zu Ländern mit hohem Einkommen ist kaum bekannt. Diese qualitative Studie untersuchte den soziokulturellen Kontext von vorgeburtlicher psychischer Belastung in einer ländlichen äthiopischen Gemeinde. Fünf Fokusgruppendiskussionen und 25 ausführliche Interviews wurden mit gezielt ausgewählten Interessenvertretern der Gemeinschaft durchgeführt. Induktive Analyse wurde verwendet, um abschließende Themen zu entwickeln. Die Sorge um die bevorstehende Entbindung und die Angst um das Überleben der Frau waren bei allen Teilnehmenden prominente Anliegen, wurden aber nur selten als pathologisch wahrgenommen. Soziokulturelle Praktiken wie fortgesetzte körperliche Arbeit, diätetische Einschränkungen, Gebete und Rituale zum Schutz vor übernatürlichen Angriffen waren auf eine sichere Geburt und den Umgang mit Verletzlichkeit ausgerichtet. Trotz starker kultureller Normen zur Feier von Schwangerschaften betonten die Teilnehmerinnen, dass viele Schwangerschaften ungewollt seien und zusätzlich zu den bereits bestehenden wirtschaftlichen und ehelichen Schwierigkeiten eine zusätzliche Belastung darstellen. Kurze Geburtsintervalle und außereheliche Schwangerschaften wurden beide als beschämende und starke Quellen psychischer Belastung angesehen. Die Vorstellung, dass Schwangerschaft in traditionellen Gesellschaften durchweg eine Zeit der Freude und des Glücks ist, ist fehl am Platze. Obwohl die psychische Belastung vor der Geburt für viele Frauen selbstlimitierend sein kann, kann bei Menschen mit dauerhaften Lebensschwierigkeiten, einschließlich Armut und missbräuchlichen Beziehungen, eine schlechte psychische Gesundheit der Mutter bestehen bleiben.;-;-;-;https://link.springer.com/article/10.1007/s00737-010-0149-3 ef76ae66579ae09238d62ba2ceb1d727;de;;;6.2.;;;Abdeckung, Qualität und Hindernisse für die postnatale Versorgung im ländlichen Hebei, China: eine gemischte Methode Die Wochenbettbetreuung ist ein wichtiges Glied im Kontinuum der Betreuung für die Gesundheit von Mutter und Kind. Allerdings sind Abdeckung und Qualität der postnatalen Versorgung in Ländern mit niedrigem und mittlerem Einkommen schlecht. Im Jahr 2009 hat die chinesische Regierung eine Richtlinie festgelegt, die allen Müttern und ihren Neugeborenen in China kostenlose Betreuungsdienste nach der Geburt zur Verfügung stellt. Unsere Studie zielte darauf ab, den Versicherungsschutz, die Qualität der Versorgung, die Gründe für den Nichtempfang und die Hindernisse für die Bereitstellung einer postnatalen Versorgung nach Einführung dieser neuen Richtlinie zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/1471-2393-14-31 3320b96fd8de0d56e93941fb49a9cd77;de;;;6.2.;;;CareSearch: Suche und Bewertung der fehlenden Palliativversorgungsliteratur in Australien Palliativmedizin ist ein sich entwickelndes Fachgebiet mit einer wachsenden Evidenzbasis. Die Evidenz ist jedoch weniger zugänglich, als dies bei einer unterdurchschnittlichen Umwandlung von Konferenzabstracts in Artikel in begutachteten Zeitschriften und der Notwendigkeit leichter zugänglicher Tools zur Unterstützung der evidenzbasierten Praxis (EBP) in der Palliativversorgung der Fall sein könnte. Das CareSearch-Projekt umfasste das Identifizieren, Sammeln und Auswerten der grauen Palliativpflegeliteratur Australiens und die Identifizierung internationaler veröffentlichter Literatur, die in den elektronischen Indexsystemen fehlt. Die Literatur wurde dann katalogisiert und über die CareSearch-Website öffentlich zugänglich gemacht.;-;-;-;https://link.springer.com/article/10.1186/1472-684X-4-4 01142d6b6caa6e79905d1712348a5723;de;;;6.2.;;;Die Wirkung stationärer Rehabilitationsprogramme auf die Lebensqualität von Patienten mit Mukoviszidose: Eine multizentrische Studie Krankheitsspezifische, multimodale stationäre Rehabilitationsprogramme sollen die körperliche, emotionale und soziale Funktionsfähigkeit von Patienten mit Mukoviszidose (CF) verbessern.;-;-;-;https://link.springer.com/article/10.1186/1477-7525-4-8 a976c1fdf8bb122245ffe99d6df53c83;de;;;6.2.;;;Die Komplexität vaskulärer und nicht-vaskulärer Komplikationen bei Diabetes: Das Diabetesregister in Hongkong Diabetes ist eine komplexe Erkrankung, die durch chronische Hyperglykämie und mehrere Phänotypen gekennzeichnet ist. 1995 verwendeten wir ein Arzt-Krankenschwester-Mitarbeiter-Team und ein strukturiertes Protokoll, um das Hong Kong Diabetes Register in einem Qualitätsverbesserungsprogramm einzurichten. Bis 2009 hatten wir 2616 klinische Ereignisse bei 9588 chinesischen Typ-2-Diabetikern mit einer Nachbeobachtungsdauer von 6 Jahren erfasst. Die detaillierten Phänotypen bei Aufnahme und Nachsorge haben es uns ermöglicht, eine Reihe von Risikogleichungen zu entwickeln, um mehrere Endpunkte mit hoher Sensitivität und Spezifität vorherzusagen. In dieser prospektiven Datenbank konnten wir Erkenntnisse aus klinischen Studien in der Praxis validieren, einen engen Zusammenhang zwischen Herz-Kreislauf- und Nierenerkrankungen bestätigen und die zunehmende Bedeutung von Krebs als Haupttodesursache aufzeigen. Die laufende Datenanalyse des Registers dient nicht nur als Instrument zur Risikostratifizierung und Qualitätssicherung, sondern zeigt auch säkulare Veränderungen von Krankheitsbildern auf und identifiziert unerfüllte Bedürfnisse.;-;-;-;https://link.springer.com/article/10.1007/s12170-011-0172-6 58cd150dabda6c72d81bb395f1eeda12;de;;;6.2.;;;Hindernisse für die Einhaltung von Diabetesmedikamenten in Nordwestäthiopien Die geringe Einhaltung verschriebener Diabetesmedikamente ist einer der Hauptgründe für eine schlechte Blutzuckerkontrolle in Entwicklungsländern. Daher wurde in dieser Studie versucht, das Ausmaß der Medikamentenadhärenz und die damit verbundenen Faktoren bei erwachsenen Personen mit Diabetes im Nordwesten Äthiopiens zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/2193-1801-3-195 9406c2e671b3de59639837cbddeac654;de;;;6.2.;;;Programme zur Behandlung von Herzinsuffizienzerkrankungen in Österreich 2019 Herzinsuffizienz (HF) ist weit verbreitet und geht mit hoher Morbidität, Mortalität und hohen Gesundheitsausgaben einher. Ein multidisziplinärer Krankheitsmanagementplan (DMP) kann Morbidität und Mortalität reduzieren, Kosten sparen und die Lebensqualität verbessern. In Österreich befinden sich derzeit drei HF-spezifische DMPs in einer Projektphase und vier etablierte DMPs sind aktiv. Obwohl Programme hinsichtlich ihres Interventionstyps sehr heterogen sind, verfolgen sie das gleiche interventionelle Ziel, indem sie eine nahtlose Versorgung zwischen stationären und kommunalen Versorgungseinrichtungen mit einem multidisziplinären Team unterstützen. Diese Erhebung präsentiert eine systematische Erhebung der HF-spezifischen DMPs in Österreich. Unterschiede zwischen den Programmen werden hervorgehoben und diskutiert. Die landesweite Etablierung von HF-spezifischen DMPs, die hausärztliche und kardiologische Leistungen integrieren, einschließlich einer Regulierung der Vergütung der Akteure und der Programminfrastruktur, ist erforderlich, um die Belastung des Einzelnen und der Gesellschaft durch HF zu verringern.;-;-;-;https://link.springer.com/article/10.1007/s00508-020-01615-y 5ac93a7a9dce5fdec7e37e64f56eceea;de;;;6.2.;;;Vergleichendes EST-Transkriptprofil von Pfirsichfrüchten unter verschiedenen Nacherntebedingungen zeigt Kandidatengene, die mit der Qualität von Pfirsichfrüchten in Verbindung stehen Kühllagerung wird verwendet, um die Reifung von Pfirsichfrüchten während des Versands zu entfernten Märkten zu verhindern. Diese Kühllagerung kann jedoch die Qualität der Früchte bei der Reifung beeinträchtigen und zu Störungen wie Wolligkeit, Bräunung oder Lederbildung führen. Um die individuellen und kombinierten biologischen Auswirkungen von Faktoren wie Kühllagerung und Reifung auf die Frucht- und Fruchtqualität zu verstehen, haben wir einen vergleichenden EST-Transkript-Profiling-Ansatz gewählt, um Gene zu identifizieren, die als Reaktion auf diese Faktoren unterschiedlich exprimiert werden.;-;-;-;https://link.springer.com/article/10.1186/1471-2164-10-423 59f169c3d8736111e03236caad80388d;de;;;6.2.;;;Konsistente Identifikation und Rückverfolgbarkeit von Objekten als Enabler für die Automatisierung in der stahlverarbeitenden Industrie Die Automatisierung und Digitalisierung von Prozessen erfordert eine umfassende Neugestaltung aller zusammenhängenden Materialfluss- und Informationsflussprozesse. Ein großes Hindernis für ein effektives Logistikmanagement ist das Problem der inkonsistenten Identifizierung und damit der eingeschränkten Rückverfolgbarkeit. Abgeleitet aus einer Fallstudie der Stahlindustrie und basierend auf einer systematischen Literaturrecherche untersuchen die Autoren die mögliche Identifizierung von Technologien zur konsistenten Identifizierung und Rückverfolgbarkeit von Produkten entlang der Lieferkette. Dies beinhaltet eine Analyse bestehender Ansätze der Informations- und Kommunikationstechnologie (IKT) zur Identifizierung in Logistikströmen, die Diskussion von Bewertungskriterien in Bezug auf kleine und mittlere Unternehmen (KMU), die Entwicklung einer Bewertungsmethodik und schließlich die Bewertung große Potenziale und Eignung in der Mittelstandslogistik.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-25425-4_6 96ad49915f7e3ec1bb1a727b56162d5f;de;;;6.2.;;;Was sind die wahrgenommenen Lernbedürfnisse australischer Registrare für Allgemeinmedizin für eine qualitativ hochwertige Verschreibung? Es ist wenig über den wahrgenommenen Lernbedarf australischer Allgemeinmediziner (GP) in Bezug auf die qualitativ hochwertige Verwendung von Arzneimitteln (QUM) oder die Schwierigkeiten beim Erlernen des Verschreibens bekannt. Diese Studie zielte darauf ab, diese Lücke zu schließen.;-;-;-;https://link.springer.com/article/10.1186/1472-6920-10-92 90eff3c47146949a8144e3961ae005f5;de;;;6.2.;;;Zuverlässigkeit von Computertomographie-Messungen bei der Beurteilung der Querschnittsfläche und Dämpfung der Oberschenkelmuskulatur Fortschritte in der Technologie der Computertomographie (CT) und die Einführung neuer medizinischer Bildgebungssoftware ermöglichen eine einfache und schnelle Beurteilung der Muskelquerschnittsfläche (CSA) und der Schwächung. Bevor diese Techniken in klinischen Studien eingesetzt werden, muss die Zuverlässigkeit der Messungen bewertet werden. Der Zweck der Studie war es, die Inter- und Intra-Beobachter-Zuverlässigkeit von ImageJ bei der Messung der CSA der Oberschenkelmuskulatur und der Dämpfung bei Patienten mit einer Verletzung des vorderen Kreuzbandes (VKB) mittels Computertomographie zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/1471-2342-10-18 a3454594476687e1d1a67b558699df77;de;;;6.2.;;;Transfer von manualisierter KVT für soziale Phobie in die klinische Praxis (SOPHO-PRAX): ein Studienprotokoll für eine clusterrandomisierte kontrollierte Studie Die kognitive Verhaltenstherapie (CBT) ist allgemein als wirksam bei der Behandlung von Sozialphobie bekannt, wenn sie in RCTs angewendet wird, nämlich wenn das Behandlungshandbuch auf dem Clark-Wells-Ansatz basiert. Über die Wirksamkeit manualisierter Behandlungen im klinischen Alltag (Phase IV der Psychotherapieforschung) ist jedoch wenig bekannt. Die vorliegende Studie (SOPHO-PRAX) ist die Fortsetzung einer großen multizentrischen randomisierten klinischen Studie (SOPHO-NET) und untersucht, inwieweit eine zusätzliche Ausbildung von Praktikern in manualisierten Verfahren den Behandlungseffekt verbessert.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-13-70 1ac84474c4f9d5f42d14a6cfd04844d6;de;;;6.2.;;;Multi-Krankheits-Big-Data-Analyse mit Käferschwarmoptimierung und einem adaptiven Neuro-Fuzzy-Inferenzsystem Gesundheitsorganisationen und Gesundheitsüberwachungssysteme erzeugen große Mengen komplexer Daten, die die Möglichkeit für innovative Untersuchungen in der medizinischen Entscheidungsfindung bieten. In dieser Arbeit schlagen wir eine Käferschwarmoptimierung und ein adaptives Neuro-Fuzzy-Inferenzsystem (BSO-ANFIS)-Modell für die Diagnose von Herzerkrankungen und Multi-Krankheiten vor. Die Hauptkomponenten unserer Analytics-Pipeline sind der modifizierte Crow-Suchalgorithmus, der zur Merkmalsextraktion verwendet wird, und ein ANFIS-Klassifikationsmodell, dessen Parameter mittels eines BSO-Algorithmus optimiert werden. Die bei der Erkennung von Herzerkrankungen erreichte Genauigkeit beträgt;-;-;-;https://link.springer.com/article/10.1007/s00521-021-05798-x 8e4a0d2b5b4ef31f351481798e889afa;de;;;6.2.;;;Eine vorläufige Taxonomie und eine Standardwissensbasis für Indikatoren des psychischen Gesundheitssystems in Spanien in Es gibt viele Informationsquellen für Indikatoren für psychische Gesundheit, aber uns fehlt eine umfassende Klassifizierung und Hierarchie, um ihre Verwendung bei der Planung der psychischen Gesundheit zu verbessern. Diese Studie zielt darauf ab, eine vorläufige Taxonomie und die dazugehörige Wissensbasis zu Indikatoren für psychische Gesundheit zu entwickeln, die in Spanien verwendbar sind.;-;-;-;https://link.springer.com/article/10.1186/1752-4458-4-29 af922bcdcbc158ed82685b600053f8bc;de;;;6.2.;;;Jenseits der Leitlinien für die Behandlung schwer unterernährter Kinder mit Komplikationen – Einschätzung aus Kambodscha Von 2005 bis 2010 hat der Anteil gefährlich dünner Kinder (auch als verschwendet bezeichnet) die internationale Notfallschwelle der Phasenklassifikation überschritten und ist von 8,4 auf 10,9 % gestiegen. Infolgedessen gehört Kambodscha heute weltweit zu den 20 Ländern mit den schlimmsten Auswirkungen auf die Ausbeutung von Kindern – mit Unterernährung, die jährlich mit mehr als 6400 Todesfällen bei Kindern verbunden ist. Diese Studie wollte daher Informationen über die tatsächliche Behandlung von schwer akut unterernährten Kindern mit Komplikationen in kambodschanischen Krankenhäusern liefern.;-;-;-;https://link.springer.com/article/10.1186/s40795-015-0004-z 4f4ada521217c76e988dd2c389268e73;de;;;6.2.;;;Was uns „Ausreißer“ über verpasste Möglichkeiten zur Tuberkulosekontrolle sagen: eine Querschnittsstudie mit Patienten in Mumbai, Indien Indiens überarbeitetes nationales Tuberkulose-Kontrollprogramm (RNTCP) gilt in Bezug auf die Erkennungs- und Heilungsraten als sehr erfolgreich. Bei einigen Patienten kommt es jedoch zu Verzögerungen beim Zugang zu Diagnose und Behandlung. Patienten zwischen den 96 the;-;-;-;https://link.springer.com/article/10.1186/1471-2458-10-263 a9b2aea7721e13b5904d9204914b8a13;de;;;6.2.;;;Prävalenz und Muster von Multimorbidität bei sozioökonomischen Determinanten: eine Querschnittserhebung Studien zur Prävalenz von Multimorbidität, definiert als zwei oder mehr chronische Erkrankungen, haben sich überwiegend auf ältere Menschen konzentriert. Wir schätzten die Prävalenz und die spezifischen Muster der Multimorbidität in verschiedenen Altersgruppen der Erwachsenen. Darüber hinaus untersuchten wir die Assoziationen von Multimorbidität mit soziodemografischen Faktoren.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-12-201 31e1c84713375c057a17407b0441f2e5;de;;;6.2.;;;mspecLINE: Verknüpfung des Wissens über menschliche Krankheiten mit dem Proteom Öffentliche Proteomics-Datenbanken wie PeptideAtlas enthalten Peptide und Proteine, die in Massenspektrometrie-Experimenten identifiziert wurden. Für Forscher, die krankheitsbezogene Proteine ​​untersuchen, fehlen diesen Datenbanken jedoch Informationen über menschliche Krankheiten. Wir haben mspecLINE entwickelt, ein Tool, das Wissen über menschliche Krankheiten in MEDLINE mit empirischen Daten über das nachweisbare menschliche Proteom in PeptideAtlas kombiniert. mspecLINE verbindet Krankheiten mit Proteinen, indem es den semantischen Abstand zwischen annotierten Begriffen aus einem kontrollierten biomedizinischen Vokabular berechnet. Wir verwendeten ein etabliertes semantisches Distanzmaß, das auf dem gemeinsamen Auftreten von Krankheiten und Proteinbegriffen in der bibliographischen Datenbank MEDLINE basiert.;-;-;-;https://link.springer.com/article/10.1186/1755-8794-3-7 fe7336ef9249896e85372269796b2bbd;de;;;6.2.;;;Rehabilitation und Genesung von Krebsüberlebenden: Protokoll für die Veterans Cancer Rehabilitation Study (Vet-CaRes) Krebsüberlebende sind eine schnell wachsende und alternde Bevölkerung in den USA, aber mit der Überlebenserfahrung sind viele Herausforderungen verbunden, wie funktionelle Behinderungen und psychosoziale Belastungen. Neben der allgemeinen Bevölkerung sind Veteranen für diese Herausforderungen besonders gefährdet, da sie älter sind und eine hohe Inzidenz von Begleiterkrankungen aufweisen. Während das Institute of Medicine (IOM) weitere Forschungen zur Krebsüberlebensforschung gefordert hat, um diese Herausforderungen anzugehen, wissen wir noch wenig über diese Erfahrung aus der Perspektive alternder Veteranen.;-;-;-;https://link.springer.com/article/10.1186/1472-6963-13-93 fb20133ba19a1f07b795123174edb94b;de;;;6.2.;;;Vorhersage der Muskelkraft von Personen mit Hemiparese nach einem Schlaganfall Funktionelle elektrische Stimulation (FES) wurde verwendet, um die Funktion bei Personen mit Hemiparese nach einem Schlaganfall zu verbessern. Ein ideales funktionelles elektrisches Stimulationssystem (FES) benötigt ein genaues mathematisches Modell, das in der Lage ist, themen- und aufgabenspezifische Stimulationsmuster zu entwerfen. Ein solches Modell wurde zuvor in unserem Labor entwickelt und hat gezeigt, dass es die isometrischen Kräfte vorhersagt, die von den Quadrizeps-Femoris-Muskeln von gesunden Personen und Personen mit Rückenmarksverletzungen als Reaktion auf eine Vielzahl klinisch relevanter Stimulationsfrequenzen und -muster erzeugt werden. Das Ziel dieser Studie war es, unser isometrisches Muskelkraftmodell an den Quadrizeps-Femoris-, Knöchel-Dorsalflexor- und Knöchel-Plantarflexor-Muskeln von Personen mit Hemiparese nach einem Schlaganfall zu testen.;-;-;-;https://link.springer.com/article/10.1186/1743-0003-5-7 b6d67d9c3c87ef8c0eea0a2edca0d8c8;de;;;6.2.;;;Schulungsgruppenintervention vor der Konsultation zur Verbesserung der gemeinsamen Entscheidungsfindung bei der Brustrekonstruktion nach Mastektomie: Studienprotokoll für eine randomisierte kontrollierte Pilotstudie Die Pilotstudie Pre-Consultation Educational Group Intervention zielt darauf ab, die Machbarkeit zu bewerten und das optimale Design für eine definitive randomisierte kontrollierte Studie zu bestimmen, die darauf abzielt, die Qualität der Entscheidungsfindung bei Brustrekonstruktionspatientinnen nach einer Mastektomie zu verbessern.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-14-199 e22ceaa1045982c1e34bdf980a01bf5c;de;;;6.2.;;;Progressive Netzhautatrophie beim Border Collie: Ein neues XLPRA Mehrere Formen der progressiven Netzhautatrophie (PRA) segregieren bei mehr als 100 Hunderassen, wobei jede PRA in einer oder wenigen Rassen segregiert. Diese Rassespezifität kann durch Gründereffekte und genetische Drift erklärt werden, die die genetische Heterogenität jeder Rasse reduziert haben, wodurch die Identifizierung ursächlicher Mutationen erleichtert wird. Wir berichten hier über eine neue Form der PRA-Segregation bei der Border Collie-Rasse. Die klinischen Symptome, einschließlich des Verlusts des Nachtsehvermögens und eines fortschreitenden Verlusts des Tagessehens, der zur vollständigen Erblindung führt, treten im Alter von drei bis vier Jahren auf und können durch systematische Augenhintergrunduntersuchung und Elektroretinographie (ERG) früher erkannt werden.;-;-;-;https://link.springer.com/article/10.1186/1746-6148-4-10 ebf600729db83a8b11800781467a52c0;de;;;6.2.;;;Zusammenhang zwischen regelmäßiger sportlicher Betätigung und Freizeitverhalten bei brasilianischen Jugendlichen: Eine Querschnittsstudie Die Überzeugung, dass Jugendliche, die Sport treiben, ihr allgemeines körperliches Aktivitätsniveau steigern und gleichzeitig die körperliche Inaktivität verringern, ist die Grundlage vieler Interventionsprogramme in Entwicklungsländern. Ziel dieser Studie war es, den Zusammenhang zwischen regelmäßiger sportlicher Betätigung und sowohl aktivem Verhalten als auch Fernsehen in der Freizeit zu analysieren.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-8-329 8e3c0b46d2e169b6417108dff7e02f86;de;;;6.2.;;;Eine qualitative Analyse des Informationsaustauschs für Kinder mit medizinischer Komplexität innerhalb und zwischen Gesundheitsorganisationen Kinder mit medizinischer Komplexität (CMC) zeichnen sich durch einen erheblichen familiären Leistungsbedarf, chronische und schwere Erkrankungen, funktionelle Einschränkungen und eine hohe Inanspruchnahme der Gesundheitsversorgung aus. Der Informationsaustausch ist von entscheidender Bedeutung für eine qualitativ hochwertige Versorgung komplexer Patienten mit einem hohen Risiko für eine schlechte Versorgungskoordination. Schriftliche Pflegepläne für CMC sind ein hervorragender Testfall dafür, wie gut der Informationsaustausch derzeit stattfindet. Der Zweck dieser Studie war es, die Hindernisse und Erleichterungen des Informationsaustauschs für CMC zwischen Anbietern, Pflegeeinrichtungen und Familien zu identifizieren.;-;-;-;https://link.springer.com/article/10.1186/1472-6963-14-283 43c2bc0840dc44cd0afbe1bdd4d3c69f;de;;;6.2.;;;Ist schweres exzentrisches Wadentraining einer abwartenden, Schein-Rehabilitation, traditionellen Physiotherapie und anderen Übungsinterventionen für Schmerzen und Funktion bei Achillessehnen-Tendinopathien in mittlerer Portion überlegen? Die Achillessehnen-Tendinopathie (AT) der mittleren Portion ist bei sportlichen und nicht-sportlichen Bevölkerungsgruppen weit verbreitet, wobei typischerweise über Schmerzen, Steifheit und Funktionsstörungen berichtet wird. Obwohl es verschiedene Managementoptionen gibt, bleiben Ladeprotokolle die beste verfügbare Intervention und haben sich bei der Behandlung von AT als effektiv erwiesen. Studien zur Untersuchung der Belastung bei AT haben eine Vielzahl verschiedener Protokolle verwendet, und neuere narrative Reviews deuten darauf hin, dass kein Protokoll einem anderen überlegen ist, wenn es um den Vergleich von Ergebnissen in Bezug auf Schmerz und Funktion geht. Es wurde jedoch keine systematische Überprüfung oder Metaanalyse durchgeführt, um dies zu bestimmen. Darüber hinaus berücksichtigte der narrative Review keine abwartenden oder Scheininterventionen, daher ist ein systematischer Review und eine Met-Analyse, die abwartende oder Scheininterventionen einschließt, gerechtfertigt.;-;-;-;https://link.springer.com/article/10.1186/s13643-018-0725-6 74635f5589ccd211f4e7017816391c99;de;;;6.2.;;;Extended Spectrum Beta-Lactamase (ESBL) produzierende Enterobacterales in Stuhlkontrollkulturen von Frühgeborenen sind kein Risikofaktor für nekrotisierende Enterokolitis: eine retrospektive Fall-Kontroll-Studie über 12 Jahre Bei Frühgeborenen wurde eine mikrobielle Dysbiose vor einer nekrotisierenden Enterokolitis (NEC) festgestellt NEC auf der neonatologischen Intensivstation.;-;-;-;https://link.springer.com/article/10.1007/s15010-020-01453-0 b8db0770225e850477c3b5cec82902f7;de;;;6.2.;;;T-Zell-Aktivierung unterscheidet Unterklassen symptomatischer primärer humoraler Immunschwächeerkrankungen bei Erwachsenen Die symptomatischen primären humoralen Immunschwächekrankheiten (PHID) stellen eine sehr heterogene Gruppe von Krankheiten dar, die durch eine gemeinsame Hypogammaglobulinämie gekennzeichnet sind, was zu einem erhöhten Risiko für rezidivierende oder schwere Infektionen führt. Es wurden Assoziationen mit einer Vielzahl von immunologischen Anomalien beschrieben, die B- und T-Zell-Differenzierung, T-Zell-Aktivierung und angeborene Immunität beinhalten. Die PHID-Diskriminierung basiert jedoch weiterhin auf Anomalien der B-Lymphozyten und andere Komponenten des Immunsystems wurden nicht ausreichend berücksichtigt. Wir führten unbeaufsichtigte und überwachte Verfahren zur Klassifikation in einer Kohorte von 81 symptomatischen PHID-Patienten durch, um die relative Bedeutung von 23 immunologischen Parametern zu bewerten und relevante Marker auszuwählen, die für die Diagnose und Prognose nützlich sein können.;-;-;-;https://link.springer.com/article/10.1186/1471-2172-15-13 021b10d045492caad9fb5086039a30c5;de;;;6.2.;;;Meeresraumplanung: Koordination unterschiedlicher Meeresinteressen Weltweit hat sich die ökosystembasierte Meeresraumplanung zu einem nützlichen Instrument entwickelt, um die Planungen verschiedener Behörden zu koordinieren. Dies, um unterschiedliche Anforderungen bei der Verwaltung von Meeresgebieten und Weltraum auszugleichen. Im Planungsprozess setzt die Ökologie Grenzen, bis zu denen menschliche Aktivitäten für die Gesellschaft akzeptabel sind. Die Nutzung der Meeresumwelt kann ähnlich wie die Landumwelt geplant werden. Wir argumentieren, dass es mehrere Aspekte gibt, die berücksichtigt werden müssen. Meeresaktivitäten werden traditionell sektoral geplant und verwaltet. Heute ist offensichtlich, dass für eine erfolgreiche zukünftige Meeresplanung und -bewirtschaftung ein ganzheitlicher, sektorübergreifender und koordinierter Ansatz erforderlich ist. Das gestiegene Bewusstsein für die Bedeutung der Ozeane und Meere fordert die traditionelle Sektorenteilung und geografischen Grenzen in der Meerespolitik heraus und fordert eine besser koordinierte und kohärente Meerespolitik.;-;-;-;https://link.springer.com/article/10.1007/s13280-020-01471-0 9ca422592d44138f022c4875f4724d96;de;;;6.2.;;;Soziodemografische und geografische Merkmale im Zusammenhang mit Patientenbesuchen bei osteopathischen Ärzten zur Primärversorgung Die Gesundheitsreform verspricht, die Zahl der krankenversicherten Amerikaner dramatisch zu erhöhen. Osteopathische Ärzte (DOs) sind für die Grundversorgung anerkannt, einschließlich eines praktischen Stils mit Schwerpunkt auf patientenzentrierter Versorgung. Daher könnten DOs gut positioniert sein, um in diesem aufstrebenden Umfeld der Gesundheitsversorgung eine Grundversorgung zu leisten.;-;-;-;https://link.springer.com/article/10.1186/1472-6963-11-303 656e768401df53dda784fe89dc8135b8;de;;;6.2.;;;Schwerer Reflux, Schlafstörungen und gesundheitsbezogene Lebensqualität nach einer Speiseröhrenkrebsoperation Die Ösophagektomie bei Krebs ist ein umfangreiches Verfahren, das oft von schweren Komplikationen gefolgt wird. Diese Studie untersuchte, ob Patienten mit schweren Refluxsymptomen nach Ösophagektomie häufiger Schlafstörungen und eine verminderte gesundheitsbezogene Lebensqualität (HRQL) aufweisen.;-;-;-;https://link.springer.com/article/10.1007/s11764-020-00974-9 cd0130b8b7e9ea9cd688a426d3b10bd2;de;;;6.2.;;;Prävalenz und Korrelate von Anämie bei HIV-infizierten Patienten mit hochaktiver antiretroviraler Therapie im Zewditu Memorial Hospital, Äthiopien Äthiopien ist eines der am stärksten von HIV betroffenen Länder in Subsahara-Afrika. Anämie ist ein bekannter Prädiktor für das Fortschreiten der Krankheit und den Tod bei HIV-infizierten Patienten. In dieser Studie untersuchten wir das Ausmaß und die Korrelate der Anämie bei HIV-infizierten Patienten, die HAART in einem Überweisungskrankenhaus in Äthiopien erhielten.;-;-;-;https://link.springer.com/article/10.1186/s12878-015-0024-6 e4e014da9aae853e89484d69c59730b5;de;;;6.2.;;;Individuell integrierter Ansatz der traditionellen chinesischen Medizin bei der Behandlung von Kniearthrose: Studienprotokoll für eine randomisierte kontrollierte Studie Kniearthrose (OA) gilt als ein wichtiges Problem der öffentlichen Gesundheit, das weltweit mit der zunehmenden Zahl alternder Menschen zu chronischen Behinderungen führt. In China und zunehmend weltweit verwenden viele Patienten mit Knie-OA komplementäre und alternative Medizin, einschließlich pflanzlicher Medikamente, Kräuterpflaster, Akupunktur und Tuina usw., um ihre Symptome zu lindern. Evidenz aus systematischen Übersichten oder randomisierten kontrollierten Studien (RCT) hat jedoch nur die Akupunktur für die Behandlung von osteoarthritischen Schmerzen validiert. Darüber hinaus werden die oben genannten Methoden der Traditionellen Chinesischen Medizin (TCM) häufig auf integrative Weise verwendet. Ziel dieser Studie ist es, die Wirksamkeit eines individuell integrierten TCM-Ansatzes bei der Behandlung von Knie-OA mit anderen Einzelbehandlungen als parallel randomisierte Kontrollen zu vergleichen.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-12-160 1fb28dae7dcfe9ea3c605422dc1d00a7;de;;;6.2.;;;Krankenhausmortalität und Komplikationsraten nach Krankenkassendaten bei Patienten mit hyperthermer intraperitonealer Chemotherapie bei oberflächlichen Peritonealkarzinomen in Deutschland Morbidität und Krankenhausmortalität von Patienten, die sich einer zytoreduktiven Operation und einer hyperthermen intraperitonealen Chemotherapie unterziehen, sind in Deutschland nicht bekannt.;-;-;-;https://link.springer.com/article/10.1245/s10434-020-09301-z cb5c5512e1a65da128abf5d3aae386a5;de;;;6.2.;;;Etomidat und Mortalität bei zirrhotischen Patienten mit septischem Schock Klinische Wirkungen und Ergebnisse einer Einzeldosis Etomidat vor der Intubation auf der Intensivstation sind umstritten. Das Ziel dieser Studie ist es, den Zusammenhang einer Einzeldosis-Wirkung von Etomidat vor der Intubation auf die Mortalität von Patienten mit septischer Leberzirrhose und die Auswirkung der nachfolgenden Anwendung von niedrig dosiertem Hydrocortison zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/1472-6904-11-22 b1446705ad56936bea57f33a4a2fdda0;de;;;6.2.;;;Familienmitglied 5a der MMTV-Integrationsstelle vom flügellosen Typ: ein neuer Biomarker, der bei Typ-2-Diabetes und diabetischer Nierenerkrankung reguliert wird kidney Typ-2-Diabetes mellitus (T2DM) wird durch Insulinresistenz (IR) und reduzierte β-Zellmasse aufrechterhalten, die größtenteils auf eine Insulinsekretionsstörung zurückzuführen ist. Das Wnt5a-Protein ist für die Inselbildung und die β-Zellmigration bei der Entwicklung der Bauchspeicheldrüse bei Wirbeltieren essentiell. Die Spiegel des Plasma-sekretierten frizzled-related protein 5 (Sfrp5) des Wnt5a-Proteinantagonisten waren bei Patienten mit T2DM erhöht. Der Zusammenhang zwischen Wnt5a, T2DM-Patienten und diabetischer Nierenerkrankung (DKD) ist jedoch unbekannt. Unser Ziel ist es, die zirkulierenden Wnt5a-Spiegel in verschiedenen klinischen Stadien von T2DM zu untersuchen und seine Korrelation mit der Dauer der chronischen Diabetes mellitus-Komplikation zu bewerten.;-;-;-;https://link.springer.com/article/10.1007/s40200-019-00461-8 3a8b5135b81d0caaaa0e8604d9a77c51;de;;;6.2.;;;AMMO-Prot: Aminsystemprojekt 3D-Modellfinder Amine sind biogene Aminosäurederivate, die pleiotrope und sehr wichtige, aber komplexe Rollen in der Tierphysiologie spielen. Für viele andere relevante Biomoleküle werden biochemische und molekulare Daten gesammelt, die integriert werden müssen, um den biologischen Wissensvorsprung auf diesem Gebiet effektiv voranzutreiben. Zu diesem Zweck hat eine multidisziplinäre Gruppe ein ontologiebasiertes System namens Amine System Project (ASP) gestartet, für das Amin-bezogene Informationen die Validierungsbank bilden.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-9-S4-S5 6c9efeccfa44068a6e859623c6c65f3b;de;;;6.2.;;;Fluid Lavage of Open Wounds (FLOW): Design und Begründung für eine große, multizentrische, kollaborative 2 × 3-faktorielle Studie zu Spüldrücken und -lösungen bei Patienten mit offenen Frakturen Offene Frakturen führen häufig zu schwerwiegenden Komplikationen für Patienten, einschließlich Infektionen, Wundheilungsstörungen und Versagen der Frakturheilung, von denen viele nachfolgende Operationen erforderlich machen. Einer der wichtigsten Schritte bei der Erstversorgung offener Frakturen ist eine gründliche Wundspülung und ein Débridement, um alle Verunreinigungen zu entfernen. Derzeit besteht jedoch kein Konsens über das optimale Vorgehen zur Spülung offener Frakturwunden während des ersten operativen Eingriffs. Die Auswahl sowohl der Art der Spülflüssigkeit als auch des Drucks der Flüssigkeitszufuhr bleibt umstritten. Das primäre Ziel dieser Studie ist es, die Auswirkungen von Spüllösungen (Seife vs. Kochsalzlösung) und Druck (niedrig vs. hoch, Schwerkraftfluss vs. Hoch, Niedrig vs mit offenen Frakturen.;-;-;-;https://link.springer.com/article/10.1186/1471-2474-11-85 1c71df73b19f84ce1e8c530dccfc7be3;de;;;6.2.;;;Clustering von Proteinsequenzen im großen Maßstab mit FORCE – einer layoutbasierten Heuristik für die gewichtete Clusterbearbeitung Der Nachweis von Gruppen funktionell verwandter Proteine ​​allein anhand ihrer Aminosäuresequenz ist eine seit langem bestehende Herausforderung in der computergestützten Genomforschung. Mehrere Clustering-Ansätze mit unterschiedlichen Strategien wurden veröffentlicht, um dieses Problem anzugehen. Heute liefern neue Sequenzierungstechnologien riesige Mengen an Sequenzdaten, die mit konstanter oder erhöhter Genauigkeit und mit erhöhter Geschwindigkeit effizient geclustert werden müssen.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-8-396 9b50fc2c6f628381f892baf59b6ed672;de;;;6.2.;;;Modellierung von Massenunfällen: ein räumliches Werkzeug zur Unterstützung der Triage-Entscheidungsfindung Bei einem Massenunfall ist die Evakuierung der Patienten in die entsprechende Gesundheitseinrichtung überlebenswichtig. Trotzdem liefert kein bestehendes System die Beweise, die erforderlich sind, um fundierte Evakuierungsentscheidungen vom Ort des Vorfalls aus zu treffen. Um dieses Fehlen zu mildern und eine fundiertere Entscheidungsfindung zu ermöglichen, wurde ein webbasiertes räumliches Entscheidungsunterstützungssystem (SDSS) entwickelt. Dieses System unterstützt die Entscheidungsfindung, indem es Entscheidungsträgern am Unfallort Daten über die Nähe des Krankenhauses, die Kapazität und die Behandlungsspezialisierungen zur Verfügung stellt.;-;-;-;https://link.springer.com/article/10.1186/1476-072X-10-40 872794cef65f15392920d4aa62cbd954;de;;;6.2.;;;Randomisierte kontrollierte Phase-I/II-Studie zur Untersuchung der immunstimulierenden Wirkung einer niedrig dosierten Strahlentherapie bei primär operablem Pankreaskarzinom Die Effizienz von T-Zell-basierten Immuntherapien wird durch eine unzureichende Migration und Aktivierung von tumorspezifischen Effektor-T-Zellen im Tumor beeinträchtigt. Es gibt immer mehr Beweise für die Fähigkeit ionisierender Strahlung, die Tumormikroumgebung zu verändern und Entzündungen zu erzeugen. Das Ziel dieser klinischen Phase-I/II-Studie besteht darin, zu untersuchen, ob eine niedrig dosierte Einzelfraktions-Strahlentherapie die T-Zell-assoziierte Antitumor-Immunantwort bei Patienten mit Bauchspeicheldrüsenkrebs verbessern kann.;-;-;-;https://link.springer.com/article/10.1186/1471-2407-11-134 1f5107459e1cfef37793d713ceed66c3;de;;;6.2.;;;Mann neu gestalten? Wenn ich über Ideen an der Schnittstelle von Transhumanismus, fortschrittlicher Robotik und verwandten Gebieten spreche, möchte ich einige theoretische Elemente bereitstellen, die für die Beantwortung von Fragen wie „Sollten wir den Menschen neu gestalten?“ erforderlich sind. Während manche eine solche Frage etwas fehl am Platz finden, denken andere ernsthaft über Alternativen zu ihrer bisherigen Lebensweise nach, auch wenn sie nicht die Absicht haben, aktiv zu werden. Um das Ausmaß der Recherche nach Alternativen zu ergründen, muss man einfach auf die Kraft der menschlichen Vorstellungskraft schauen – die verschiedenen Träume, die sie ermöglicht, sowie unser Flirten mit futuristischen Szenarien in populären Büchern und Filmen. Es scheint, dass einige Spezialisten des menschlichen Gehirns und Körpers Szenarien verschiedener menschlicher Seinsformen zum Leben erwecken wollen. Es kann jedoch schwierig sein, Neuerungen zu akzeptieren, wenn es darum geht, das menschliche Standarderbe zu modifizieren, egal wie ähnlich es unserem gegenwärtigen Zustand sein mag. Mein Ziel ist es hier nicht, ein Panorama technischer Bemühungen zu bieten, sondern die Schlüsselkonzepte (aus der Informatik und verwandten Gebieten) zu aktualisieren, die zur Behandlung solcher Fragen erforderlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-6591-0_16 c5d0842317335497c2e2ecc7768b99f0;de;;;6.2.;;;Entwicklung und Prozessbewertung eines webbasierten Trainingsprogramms für verantwortungsbewussten Getränkeservice Schulungen zum verantwortungsbewussten Getränkeservice (RBS), die darauf abzielen, den angemessenen Service von Alkohol in kommerziellen Einrichtungen zu verbessern, werden in der Regel in Workshops durchgeführt. In letzter Zeit sind webbasierte RBS-Schulungsprogramme entstanden. Dieser Bericht beschreibt die prägende Entwicklung und das anschließende Design eines innovativen über das Internet bereitgestellten RBS-Programms und die Bewertung der Auswirkungen des Programms auf das Wissen, die Einstellungen und die Selbstwirksamkeit der Server.;-;-;-;https://link.springer.com/article/10.1186/1747-597X-7-41 e60077659f43e201af79679c6370ac59;de;;;6.2.;;;Optimierung der reproduktiven und kindlichen Gesundheitsergebnisse durch den Aufbau evidenzbasierter Forschung und Praxis in Südostasien (SEA-ORCHID): Studienprotokoll Schwangerschafts- und Geburtsstörungen sind ein großes Gesundheitsproblem in Südostasien. Sie stellen eines der größten Gesundheitsrisikounterschiede zwischen den Industrieländern und den Entwicklungsländern dar. Unsere allgemeine Forschungsfrage lautet: Kann die Gesundheit von Müttern und Babys in Thailand, Indonesien, den Philippinen und Malaysia verbessert werden, indem die lokale Kapazität für die Synthese von Forschung, die Implementierung effektiver Interventionen und die Identifizierung von Wissenslücken, die weiterer Forschung bedürfen, verbessert wird?;-;-;-;https://link.springer.com/article/10.1186/1471-2288-7-43 e7c321dca9e88a973ed3f9059a70d8db;de;;;6.2.;;;Medikamentenmanagement für Demenzkranke in der Grundversorgung: Beschreibung der Umsetzung in der DelpHi-Studie Mit zunehmendem Alter der Bevölkerung wird die relative und absolute Zahl altersassoziierter Erkrankungen wie Demenz zunehmen. Die Beurteilung der Eignung und Einnahme von Medikamenten und pharmakologischen Behandlungen ist ein wichtiger Aspekt der Versorgung von Menschen mit Demenz, insbesondere wenn sie zu Hause leben. Regelmäßige Medikationsüberprüfungen und eine systematische Zusammenarbeit zwischen Ärzten und Apothekern sind in der Routineversorgung nicht üblich. Das Medikationsmanagement (MM), das auf einer solch umfassenden Überprüfung der Medikation zu Hause basiert, könnte dazu beitragen, arzneimittelbezogene Probleme und Kosten zu reduzieren. Der vorliegende Artikel stellt ein Medikationsmanagement speziell für die Anwendung im ambulanten Setting vor und beschreibt dessen Umsetzung im Rahmen einer größeren Studie.;-;-;-;https://link.springer.com/article/10.1186/1471-2318-13-121 16be63e911fc85bed8252ddc2e888a8d;de;;;6.2.;;;Klimawandelmanagement: eine Resilienzstrategie für Hochwasserrisiken mit Blockchain-Tools Ziel dieser Arbeit ist es, einen Beitrag zur Analyse und zum Management des Hochwasserrisikos aus ökonomischer und finanzieller Sicht zu leisten, erweitert auf das hydrogeologische Risiko aus Sicht einer öffentlichen Verwaltung. Als Hauptakteur für die Eindämmung des Phänomens durch die Erhaltung des Territoriums trägt die öffentliche Verwaltung die Kosten für die Wiederherstellung der durch diese Art von Phänomen beschädigten Dienste. Die Vermögenswerte, deren Wiederherstellung die öffentliche Verwaltung zu gewährleisten hat, sind alle öffentlichen Infrastrukturen (d. h. Verkehr, Energie- und Wasserversorgung, Kommunikation) sowie Schäden an Privateigentum, wenn diese die der Bevölkerung zu gewährleistenden Dienstleistungen betreffen. In dieser Arbeit schlagen die Autoren mögliche Strategien vor, die eine öffentliche Verwaltung im Umgang mit Hochwasserrisiken umsetzen kann. Drei Hauptstrategien werden analysiert: eine absolute Passivität, die die Zahlung des Schadens im Schadensfall vorsieht (d. h. Business-as-usual-Szenario), ein klassisches Versicherungssystem, ein belastbares und innovatives Versicherungssystem. Die in dieser Arbeit vorgeschlagenen ökonomisch-finanziellen Profile dieser Strategien betonen, wie die Annahme eines Zeithorizonts die Zweckmäßigkeit einer Strategie im Vergleich zu anderen verändern kann. Diese Studie beleuchtet die Schlüsselrolle der Quantifizierung von Hochwasserrisikominderungsmaßnahmen aus technischer Sicht und deren mögliche Probleme bei der Verfolgung dieser Ziele in Verbindung mit den ordnungspolitischen Rahmenbedingungen der öffentlichen Verwaltungen. Diese Synergie wird durch den möglichen Einsatz von Blockchain-basierten Tools unterstützt. In dem Papier wird die Schlüsselrolle hervorgehoben, die eine solche Plattform-IT-Datenmanagementplattform innerhalb von Risikoanalyse- und -managementsystemen sowohl als Datenerfassungsinstrument als auch als Zertifizierung der verschiedenen Schritte, die zum Abschluss des Prozesses erforderlich sind, spielen könnte.;-;-;-;https://link.springer.com/article/10.1007/s10203-020-00315-6 c3737c23b2b45e2414718f8605b7a84d;de;;;6.2.;;;Auswirkungen von Haushalts- und Dorfmerkmalen auf finanzielle Katastrophe und Verarmung aufgrund von Gesundheitsausgaben im westlichen und zentralen ländlichen China: Eine Analyse auf mehreren Ebenen Die Studie zielte darauf ab, die Auswirkungen von Haushalts- und Gemeinschaftsmerkmalen auf finanzielle Katastrophen und Verarmung aufgrund von Gesundheitszahlungen in West- und Zentral-Ländchina zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/1478-4505-9-16 ee5061c758e7486722d2f2ef68caf6c7;de;;;6.2.;;;Wiederholte Beurteilung arbeitsbedingter Erschöpfung: die zeitliche Stabilität der Bewertungen in der Checkliste für beginnende Erschöpfung der Universität Lund Screening-Inventare sind wichtige Instrumente im klinischen Umfeld und in der Forschung, können jedoch empfindlich auf vorübergehende Schwankungen reagieren. Daher haben wir die Daten einer Längsschnittstudie mit der Lund University Checklist for Incipient Exhaustion (LUCIE) überprüft, die beruflich aktive Personen (n = 1355, 27–52 Jahre, 57% Frauen) und eine erste Papier- und Bleistiftbefragung und 10 weitere gleichermaßen umfasste verteilte Online-Umfragen. In der vorliegenden Studie untersuchen wir, inwieweit sich die LUCIE-Scores über 3 Jahre veränderten (11 Bewertungen) und ob Episoden von vorübergehend erhöhten LUCIE-Scores (LTE) mit Berichten über negative oder positive Veränderungen im Berufs- oder Privatleben einhergingen.;-;-;-;https://link.springer.com/article/10.1186/s13104-020-05142-x 0a60a48f9d8ba3089fbf4b1cc34d1b9c;de;;;6.2.;;;Lektionen lernen mit Wissensaudits Erkenntnisse aus Evaluationen werden nicht effektiv genutzt, wenn der spezifische organisatorische Kontext, das Wissen und die Beziehungen der Evaluationsagenturen sowie das externe Umfeld, mit dem sie konfrontiert sind, nicht integriert und kohärent behandelt werden. Wissensmanagement kann dies beleuchten und verwandte Initiativen können die Identifizierung, Erstellung, Speicherung, gemeinsame Nutzung und Nutzung von Lektionen katalysieren und erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0983-9_13 affa55e2aa4a35afb10d5958a38bb1e3;de;;;6.2.;;;Bestätigung, dass ein einjähriges Stipendium in minimalinvasiver und bariatrischer Chirurgie die Lernkurve für den laparoskopischen Magenbypass beseitigen kann Das Konzept, dass eine fortgeschrittene chirurgische Ausbildung die Lernkurve für komplexe Eingriffe reduzieren oder eliminieren kann, ist logisch sinnvoll, aber schwer zu überprüfen und wurde nicht für den laparoskopischen Roux-en-Y-Magenbypass (LRYGB) getestet. Wir wollten feststellen, ob Absolventen des Stipendiums für minimal-invasive/bariatrische Chirurgie (FGs) komplikationsbezogene Ergebnisse (CRO) aufweisen würden, die den Ergebnissen entsprechen, die während ihrer Ausbildung unter der Aufsicht erfahrener bariatrischer Chirurgen erzielt wurden.;-;-;-;https://link.springer.com/article/10.1007/s00464-009-0550-z 4f5ec9995fce0f679aa12f0d23aeec02;de;;;6.2.;;;Entkorkte, dezerebrierte und opisthotonische Haltung und Anfälle bei kenianischen Kindern mit zerebraler Malaria Bei Kindern mit zerebraler Malaria wird häufig eine abnorme motorische Haltung beobachtet, aber die Ätiologie und Pathogenese ist kaum bekannt. Diese Studie untersuchte die Risikofaktoren und das Ergebnis der Haltung bei kenianischen Kindern mit zerebraler Malaria.;-;-;-;https://link.springer.com/article/10.1186/1475-2875-4-57 87a9c6fa9b0e93a4997e5ae7716301e0;de;;;6.2.;;;Wohnbedingungen und Die Identifizierung und ein besseres Verständnis potenzieller Risikofaktoren für Malaria sind wichtig für gezielte und kosteneffektive Gesundheitsinterventionen. Wohnbedingungen wurden als einer der potenziellen Risikofaktoren vorgeschlagen. Diese Studie zielt darauf ab, diesen Risikofaktor weiter zu untersuchen und konzentriert sich auf die Auswirkungen der Dachart auf;-;-;-;https://link.springer.com/article/10.1186/1475-2875-5-8 326f80436e979be38d309995ff551865;de;;;6.2.;;;Die Verwendung der Genotypisierung in klinischen Studien zur Malariabekämpfung: eine systematische Überprüfung veröffentlichter Studien von 1995–2005 Die Verwendung der Genotypisierung zur Unterscheidung von rezidivierenden von neuen Infektionen wird derzeit von der Weltgesundheitsorganisation für alle klinischen Antimalaria-Wirksamkeitsstudien empfohlen. Aufgrund der Verwendung unterschiedlicher Genotypisierungsmethoden und der unterschiedlichen Rahmenbedingungen, in denen diese Methoden angewendet werden, können jedoch genotypisierungsbereinigte Schätzungen der Arzneimittelwirksamkeit zwischen den Studien variieren.;-;-;-;https://link.springer.com/article/10.1186/1475-2875-5-122 0b57d2f8584308fd36c7443be2349bb4;de;;;6.2.;;;Fehlender Nutzen des Risikoscores und der gynäkologischen Untersuchung zum Screening auf sexuell übertragbare Infektionen bei sexuell aktiven Jugendlichen Sexuell übertragbare Infektionen stellen das größte Gesundheitsrisiko bei Jugendlichen dar. In Entwicklungsländern basiert die Diagnose und Behandlung von Gebärmutterhalsinfektionen auf dem syndromalen Ansatz. In dieser Studie haben wir die Prävalenz von;-;-;-;https://link.springer.com/article/10.1186/1741-7015-7-8 29dcb52ce9fa4c136eb4b831f0898ff9;de;;;6.2.;;;Ein Datenmodell für Betriebs- und Lageinformationen im Notfalleinsatz Viele Softwaresysteme wurden entwickelt, um die Rettungskräfte bei ihren Aktivitäten auf der ganzen Welt zu unterstützen. Diese Systeme sind normalerweise für eine bestimmte Notfallsituation oder einen Notfallsektor bestimmt. Der Informationsaustausch zwischen den verschiedenen Systemen ist schwierig oder nicht möglich. Während beim Zugriff auf und der gemeinsamen Nutzung vorhandener Daten große Fortschritte zu verzeichnen sind, wird die Verwaltung von Feld- (oder dynamischen) Daten oft übersehen. Viele Informationen aus dem Außendienst werden entweder nicht archiviert oder unstrukturiert gespeichert. Dies macht die Analyse von Daten zu einem schwierigen und langsamen Prozess. In diesem Beitrag wird ein Datenmodell für das Management dynamischer Daten vorgestellt. Das Datenmodell erfasst die situativen Informationen – Ereignis und seine Auswirkungen – und die betrieblichen Informationen – aktivierte Prozesse, beteiligte Personen und Abteilungen. Für zeitliche und raumzeitliche Informationen werden neue Datentypen erstellt: dynamische Zählungen, z.B. die Anzahl der Verletzten oder Vermissten, Bewegungspunkt und Bewegungsregion, z.B. die Position von Fahrzeugen oder Personen und die Gasfahne. Das Modell ist aus dem Notrufverfahren in den Niederlanden abgeleitet. Der aus diesem Verfahren resultierende Informationsbedarf ist zum großen Teil für Notsituationen überall gültig, daher kann das Modell leicht für andere Länder adaptiert werden.;-;-;-;https://link.springer.com/article/10.1007/s12518-011-0060-2 a6737b781b85cb8f1828fa280650ef5c;de;;;6.2.;;;Die Spezifikation für den Gewebe-Microarray-Datenaustausch: Eine Dokumenttypdefinition zur Validierung und Verbesserung von XML-Daten Die im April 2003 vorgeschlagene TMA Data Exchange Specification (TMA DES) der Association for Pathology Informatics (API) Extensible Mark-up Language (XML) bietet ein gemeinschaftsbasiertes Open-Source-Tool zum Austausch von Tissue Microarray (TMA)-Daten in einem gemeinsamen Format. Jeder Gewebekern innerhalb eines Arrays verfügt über separate Daten, einschließlich digitaler Bilder, daher erleichtert ein organisierter, gemeinsamer Ansatz zur Erzeugung, Navigation und Veröffentlichung solcher Daten das Anzeigen, Teilen und Zusammenführen von TMA-Daten aus verschiedenen Labors. Die AIDS and Cancer Specimen Resource (ACSR) ist ein HIV/AIDS-Gewebebankkonsortium, das von der Abteilung für Krebsbehandlung und -diagnose (DCTD) des National Cancer Institute (NCI) gesponsert wird. Das ACSR bietet zugelassenen Forschern HIV-assoziierte Malignome und nicht infiziertes Kontrollgewebe in Microarrays (TMA) zusammen mit anonymisierten klinischen Daten. Der Export unserer TMA-Daten in das vorgeschlagene API-spezifizierte Format bietet die Möglichkeit, die API-Spezifikation in einer angewandten Umgebung zu bewerten und ihre Nützlichkeit zu erkunden.;-;-;-;https://link.springer.com/article/10.1186/1472-6947-5-12 35d975fbf4ae7320be2974f2f91011cc;de;;;6.2.;;;Studie zur renalen sympathischen Denervation im Vergleich zu Antiarrhythmika bei arzneimittelresistenter Hypertonie und symptomatischem Vorhofflimmern (RSDforAF): Studienprotokoll für eine randomisierte kontrollierte Studie Kürzlich wurde nachgewiesen, dass die katheterbasierte renale sympathische Denervation (RSD) sicher verwendet wird, um den Blutdruck, die linksventrikuläre Hypertrophie, den Schweregrad der Schlafapnoe und das Noradrenalin-Spillover erheblich zu senken und die Glukosetoleranz zu verbessern. Alle diese pathologischen Veränderungen werden als unabhängige Risikofaktoren für die Entwicklung und das Wiederauftreten von Vorhofflimmern (VHF) anerkannt. Eine randomisierte, einfach verblindete, multizentrische klinische Studie mit paralleler Kontrolle wird durchgeführt, um RSD mit Antiarrhythmika (AAD) bei Patienten mit arzneimittelresistenter Hypertonie und symptomatischem VHF zu vergleichen (RSDforAF-Studie).;-;-;-;https://link.springer.com/article/10.1186/1745-6215-14-168 fef8e1599d2c93c03646c295b9128e1e;de;;;6.2.;;;Eine randomisierte kontrollierte Studie zur Untersuchung des Einflusses einer niedrig dosierten Strahlentherapie auf die immunstimulierende Wirkung bei Lebermetastasen von Darmkrebs Eine unzureichende Migration und Aktivierung von tumorspezifischen Effektor-T-Zellen im Tumor ist einer der Hauptgründe für eine unzureichende Antitumor-Immunantwort des Wirts. Externe Strahlung scheint Entzündungen zu induzieren und die Immunantwort zu aktivieren. Diese klinische Studie der Phase I/II zielt darauf ab, zu untersuchen, ob eine niedrig dosierte Einzelfraktions-Strahlentherapie die T-Zell-assoziierte Antitumor-Immunantwort bei Patienten mit kolorektalen Lebermetastasen verbessern kann.;-;-;-;https://link.springer.com/article/10.1186/1471-2407-11-419 573e6006c4d872a96595c58e57d55f61;de;;;6.2.;;;SWiss Atorvastatin und Interferon Beta-1b-Studie bei Multipler Sklerose (SWABIMS) – Begründung, Design und Methodik Statine haben zusätzlich zu ihrer lipidsenkenden Wirkung entzündungshemmende und immunmodulatorische Eigenschaften. Derzeit sind die Auswirkungen von Statinen auf Multiple Sklerose noch umstritten. Daher sind randomisierte klinische Studien erforderlich, um das therapeutische Potenzial von Statinen bei Multipler Sklerose besser zu belegen. Die SWiss Atorvastatin and Interferon Beta-1b-Studie bei Multipler Sklerose (SWABIMS) bewertet die Wirksamkeit, Sicherheit und Verträglichkeit von Atorvastatin 40 mg per os täglich und subkutanem Interferon beta-1b jeden zweiten Tag im Vergleich zur Monotherapie mit subkutanem Interferon beta-1b jeden zweiten Tag bei Patienten mit schubförmig remittierender Multipler Sklerose.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-10-115 2d0a7cc62c4eb4abe505d92c855f94a2;de;;;6.2.;;;Colombo Twin and Singleton Study (CoTASS): Eine Beschreibung einer populationsbasierten Zwillingsstudie zu psychischen Störungen in Sri Lanka Das srilankische Zwillingsregister ist eines der ersten, das in einem Entwicklungsland eingerichtet wurde, und sein Design hat die Probenahme unter einer Vielzahl von Umweltbedingungen sichergestellt. Es hat daher ein großes Potenzial, Umwelteinflüsse und genetische Einflüsse auf verschiedene Phänotypen, einschließlich psychiatrischer Erkrankungen, im Kontext einer Vielzahl von Umweltbelastungen zu untersuchen, die in früheren Zwillingsstudien in Industrieländern möglicherweise nicht vollständig untersucht wurden. Dieses Papier stellt die Gründe für die Studie vor, beschreibt ihren Kontext und die Methoden zur Zwillingsermittlung und Datenerhebung.;-;-;-;https://link.springer.com/article/10.1186/1471-244X-8-49 dbcfe5b96c1ece090c2ef68128d82047;de;;;6.2.;;;BarraCUDA - ein schneller Aligner für kurze Lesesequenzen mit Grafikprozessoren Mit der Entwicklung der DNA-Sequenzierungstechnologien (NGS) der nächsten Generation ist der Durchsatz von DNA-Sequenzierungslesevorgängen auf über 600 Gigabasen aus einem einzigen Gerätelauf gestiegen. General Purpose Computing auf Grafikprozessoren (GPGPU), extrahiert die Rechenleistung von Hunderten von parallelen Stream-Prozessoren in Grafikprozessorkernen und bietet eine kostengünstige und energieeffiziente Alternative zu herkömmlichen High-Performance Computing (HPC)-Clustern. In diesem Artikel beschreiben wir die Implementierung von BarraCUDA, einer auf BWA basierenden GPGPU-Sequenz-Alignment-Software, um das Alignment von Sequenzierungs-Reads, die von diesen Instrumenten generiert werden, mit einer Referenz-DNA-Sequenz zu beschleunigen.;-;-;-;https://link.springer.com/article/10.1186/1756-0500-5-27 0c4e1329e236f9948503a310ec0ab3fd;de;;;6.2.;;;Von Pflegekräften wahrgenommenes Behandlungsversagen bei der häuslichen Fieberbehandlung bei ugandischen Kindern unter fünf Jahren Die häusliche Fieberbehandlung (HBMF) könnte den schnellen Zugang zu Malariamedikamenten für afrikanische Kinder verbessern. Die Wahrnehmung des Behandlungsversagens durch das Pflegepersonal wurde jedoch nicht untersucht.;-;-;-;https://link.springer.com/article/10.1186/1475-2875-5-124 5671bd15d1490ccd72c285da7759b5e3;de;;;6.2.;;;Die Perspektiven iranischer Ärzte und Patienten auf Entscheidungshilfen für Patienten: eine qualitative Studie Die Patientenpräferenz ist eine der Hauptkomponenten der klinischen Entscheidungsfindung und führt daher zur Entwicklung von Entscheidungshilfen für Patienten. Das Ziel dieser Studie war es, die Standpunkte von Ärzten und Patienten zu den Barrieren und Grenzen der Verwendung von Patientenentscheidungshilfen im Iran, deren Lösungsvorschläge und die Vorteile der Verwendung dieser Tools zu beschreiben.;-;-;-;https://link.springer.com/article/10.1186/1756-0500-6-379 978bf762d00f406adbecbf88402649c4;de;;;6.2.;;;"Nutzen eines automatisierten thermischen Ansatzes zur Überwachung der Evapotranspiration Ein sehr einfaches auf Fernerkundung basierendes Modell zur Überwachung der Wassernutzung wird vorgestellt. Das Modell-Akronym DATTUTDUT (Deriving Atmosphere Turbulent Transport Useful To Dummies Using Temperature) ist ein niederländisches Wort, das frei übersetzt ""es ist unglaublich, dass es funktioniert"". DATTUTDUT ist vollständig automatisiert und erfordert nur eine Oberflächentemperaturkarte, wodurch es einfach zu verwenden ist und eine schnelle Schätzung von räumlich verteilten Flüssen ermöglicht. Der Algorithmus wird zunächst über eine Reihe von Umwelt- und Landbedeckungsbedingungen anhand von Daten aus vier kurzfristigen Feldversuchen getestet und dann über eine Vegetationsperiode in einer landwirtschaftlich genutzten Region ausgewertet. Die Ergebnisse des Flussmodells stimmen zufriedenstellend mit Beobachtungen und etablierten Fernerkundungsmodellen überein, außer unter trockenen und teilweisen Überdachungsbedingungen. Dies deutet darauf hin, dass DATTUTDUT bei der Identifizierung des relativen Wasserverbrauchs und als operatives Instrument nützlich ist, um erste Schätzungen von";-;-;-;https://link.springer.com/article/10.1515/acgeo-2015-0016 97a739efa167dfe40440ae80ca2784a4;de;;;6.2.;;;Teilnahme an HIV-Präventionsprogrammen unter Männern, die Sex mit Männern in zwei Städten Chinas haben – eine Mixed-Methods-Studie Obwohl in China verschiedene HIV-Präventionsprogramme für Männer laufen, die Sex mit Männern haben (MSM), ist unklar, ob und wie diese Programme genutzt werden. Diese Studie untersucht die Teilnahme an HIV-Präventionsprogrammen und die Einflussfaktoren von MSM in zwei Städten in China.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-12-847 2c957bc4018acea4f99727670b7a2426;de;;;6.2.;;;Zuverlässigkeit und relative Validität eines Fragebogens zur Ernährung von Kindern zur gleichzeitigen Bewertung von Ernährungsmustern im Zusammenhang mit positiver Energiebilanz und Ernährungsverhalten, Einstellungen, Wissen und Umgebungen im Zusammenhang mit gesunder Ernährung Ernährungsverhalten, Einstellungen, Umgebungen und Wissen sind für Fachleute in der Adipositasprävention bei Kindern relevant, ebenso wie Ernährungsmuster, die eine positive Energiebilanz fördern. Es fehlt an validen und zuverlässigen Instrumenten, um diese Parameter zu messen. Das Ziel dieser Studie war es, die Verlässlichkeit und relative Validität eines Kinderernährungsfragebogens zu bestimmen, der alle diese Parameter bewertet und in der Evaluation eines gemeindebasierten Projektes zur Adipositasprävention bei Kindern verwendet wird.;-;-;-;https://link.springer.com/article/10.1186/1479-5868-5-5 7ba4603238e20547c665a6e9e2cda9f9;de;;;6.2.;;;Identifizierung von fünf B-Typ-Reaktionsregulatoren als Mitglieder eines mehrstufigen Phosphorelay-Systems, das mit histidinhaltigen Phosphotransferpartnern von . interagiert In Pflanzen vermittelt der mehrstufige Phosphorelay-Signalweg Reaktionen auf Umweltfaktoren und Pflanzenhormone. Dieses System besteht aus drei aufeinander folgenden Partnern: hybride Histidin-Aspartat-Kinasen (HKs), Histidin-haltige Phosphotransferproteine ​​(HPts) und Response Regulators (RRs). Unter den dritten Partnern sind die Mitglieder der B-Typ-RR-Familie die letzten Ausgangselemente des Signalwegs, sie fungieren als Transkriptionsfaktoren und spielen eindeutig eine entscheidende Rolle bei der frühen Reaktion auf Cytokinin in;-;-;-;https://link.springer.com/article/10.1186/1471-2229-12-241 d55ec7a5371c685d7ba7eaf1f3128d47;de;;;6.2.;;;Chiuro-Labor: Integration von Workflows von der digitalen Vermessung bis hin zu optimierten 3D-Stadtmodellen zur interaktiven Erkundung Die digitale Akquisition von Chiuro (Italien) ist Teil einer Forschungsaktion des noch laufenden Projekts „Le radici di una identità“ („Eine Identität und ihre Wurzeln“), die sich mit der Dokumentation der ursprünglichen Stadtstruktur von Chiuro, einem kleinen Siedlung in Norditalien, deren interessante Überreste mittelalterlicher Türme und Renaissancepaläste noch gut erhalten sind. Der Beitrag konzentriert sich auf den gesamten von der Gruppe entwickelten Workflow, um ein exploratives und umsetzbares digitales 3D-Modell des Stadtzentrums zu erstellen, das aus einem Satz optimierter Netzmodelle konstruiert wird. Von der Akquisitionsphase bis hin zu geometrischen Verarbeitungsmethoden wurden verschiedene Modellierungsstrategien untersucht, um Probleme im Zusammenhang mit der Vermessungsintegration und der Optimierung der digitalen Architekturobjekte zu lösen. Die größte Herausforderung besteht in der Tat darin, die riesigen Datenmengen, die während der vorherigen Vermessungskampagnen gesammelt wurden, zu nutzen und einen spezifischen Workflow bereitzustellen, um ein optimiertes 3D-Modell zu erhalten. Darüber hinaus analysiert der Beitrag einige Ergebnisse: Einer davon ist das Geschichtenerzählen von historischem und kulturellem Erbe auf attraktive Weise, indem Game-Engines verwendet werden, um detaillierte digitale Inhalte zu visualisieren und der breiten Öffentlichkeit zugänglich zu machen.;-;-;-;https://link.springer.com/article/10.1007/s12518-020-00352-1 ac038850751c649a5947211739bab253;de;;;6.2.;;;Die Belastung durch pädiatrische Diarrhoe: eine Querschnittsstudie zu entstandenen Kosten und Kostenwahrnehmung bei bolivianischen Familien Weltweit stellt akute Gastroenteritis eine enorme Bedrohung für die öffentliche Gesundheit von Kindern unter fünf Jahren dar und verursacht jährlich eine Milliarde Episoden und 1,9 bis 3,2 Millionen Todesfälle. In Bolivien, das eines der niedrigsten BIP in Südamerika hat, werden schätzungsweise 15 % der Todesfälle unter fünf Jahren durch Durchfall verursacht. Es wird angenommen, dass die bolivianischen Pflegekosten im Zusammenhang mit Durchfall minimal sind, da die Bürger von einer universellen Krankenversicherung für Kinder unter fünf Jahren profitieren. Die Ziele dieses Berichts bestanden darin, die Gesamtkosten und die Kostenbelastung im Zusammenhang mit Pflegepersonal, das eine Behandlung wegen pädiatrischer Gastroenteritis sucht, zu beschreiben und die Beziehungen zwischen Kosten, Kostenbelastung, Behandlungssetting und Kostenwahrnehmung zu quantifizieren.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-13-708 1ba896612e8781d79e1ac1815922401b;de;;;6.2.;;;Bewertung des Schulungsbedarfs für Kliniker in Kliniken für antiretrovirale Therapie: Evidenz aus einer nationalen Umfrage in Uganda Um den Zugang zu antiretroviraler Therapie in ressourcenbegrenzten Umgebungen zu verbessern, empfehlen mehrere Experten die Verlagerung von Aufgaben von Ärzten auf klinische Offiziere, Krankenschwestern und Hebammen. Diese Studie zielte darauf ab, bereits aufgetretene Aufgabenverschiebungen zu identifizieren und den Schulungsbedarf für die antiretrovirale Therapie bei Klinikern zu bewerten, auf die sich die Aufgaben verlagert haben.;-;-;-;https://link.springer.com/article/10.1186/1478-4491-7-76 119dd7913eca5cbb9357e79cf5f5cf93;de;;;6.2.;;;Quantifizierung der Makulaperfusion mittels optischer Kohärenztomographie-Angiographie: Wiederholbarkeit und Wirkung eines Eye-Tracking-Systems Ziel der Studie war es, den Einfluss der Integration des Eye-Tracking-Systems (ET) auf die Wiederholbarkeit von Flussdichtemessungen mittels optischer Kohärenztomographie (OCT)-Angiographie zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s12886-018-0789-z 9c5620e6b68f5f151af5590ca87513ac;de;;;6.2.;;;Bewertung der Machbarkeit und Abdeckung eines modifizierten universellen Hörscreening-Protokolls zur Anwendung bei Neugeborenen von Wanderarbeitern in Peking Obwohl Wanderarbeiter die Mehrheit der Neugeborenen in Peking ausmachen, werden ihre Kinder seltener einem angemessenen universellen Neugeborenen-Hörscreening/Rescreening (UNHS) unterzogen als Neugeborene von lokalen Nicht-Migranten. Wir vermuteten, dass dies zumindest teilweise auf die Unzulänglichkeit des derzeit für Neugeborene angewendeten UNHS-Protokolls zurückzuführen ist, und wollten daher das Protokoll modifizieren, um speziell den Bedürfnissen der Migrantenbevölkerung Rechnung zu tragen.;-;-;-;https://link.springer.com/article/10.1186/1471-2431-13-116 e7c8223023319798cedaf829d6dad6d8;de;;;6.2.;;;Pathophysiologische Mechanismen der Wurzelresorption nach Zahntrauma: ein systematischer Scoping Review Ziel dieses Scoping-Reviews war es, das aktuelle Wissen über zelluläre und molekulare Prozesse, die die traumaassoziierte Wurzelresorption vorantreiben und kontrollieren, systematisch zu erforschen, Forschungslücken zu identifizieren und eine Grundlage für eine verbesserte Prävention und Therapie zu schaffen.;-;-;-;https://link.springer.com/article/10.1186/s12903-021-01510-6 136d85f68a6d326afb04983533a03dcf;de;;;6.2.;;;Der Zusammenhang zwischen Serumtestosteronspiegel und ventrikulärer Repolarisation Es wird angenommen, dass Testosteron ein wichtiger Regulator geschlechtsspezifischer Unterschiede in der ventrikulären Repolarisation ist. Daher war unser Ziel zu untersuchen, ob die Serumspiegel von Testosteron mit der Variation des QTc-, QT- und RR-Intervalls zusammenhängen. Setting: zwei unabhängige bevölkerungsbezogene Kohortenstudien. Teilnehmer: 445 männliche Teilnehmer (≥55 Jahre) aus der Rotterdamer Studienkohorte und 1.428 männliche Teilnehmer aus der Gesundheitsstudie in Pommern (SHIP) mit einem Elektrokardiogramm, die nach dem Ausschluss von Teilnehmern mit Testosteron zur Bestimmung des Serumtestosterons zu Studienbeginn zufällig ausgewählt wurden verändernde Medikamente, QTc-verlängernde Medikamente oder Dig(it)oxin, linksventrikuläre Hypertrophie und Links- und Rechtsschenkelblock. Endpunkte: Länge der QTc-, QT- und RR-Intervalle. Analyse: lineares Regressionsmodell, adjustiert für die beiden Einzelstudien und eine gepoolte Analyse beider Studien. Die gepoolte Analyse der Rotterdamer Studie und SHIP zeigte, dass das QTc-Intervall zwischen den Tertilen allmählich abnahm (;-;-;-;https://link.springer.com/article/10.1007/s10654-009-9406-z 877b2a694cae963fac0cc9e888436447;de;;;6.2.;;;Eine randomisierte kontrollierte Studie zur präkonzeptionellen Behandlung von Parodontitis zur Verbesserung des Parodontalstatus während der Schwangerschaft und der Geburt Es gibt Hinweise darauf, dass Parodontitis mit einem erhöhten Risiko für verschiedene nachteilige Schwangerschafts- und Geburtsergebnisse verbunden ist. Mehrere große klinische randomisierte kontrollierte Studien konnten jedoch nicht nachweisen, dass eine Parodontaltherapie während der Schwangerschaft das Auftreten von unerwünschten Schwangerschafts- und Geburtsergebnissen reduzierte. Es wurde vorgeschlagen, dass die Zeit vor der Empfängnis eher eine optimale Zeit für die Behandlung von Parodontalerkrankungen als während der Schwangerschaft ist. Bis heute hat keine randomisierte kontrollierte Studie (RCT) untersucht, ob die Behandlung von Parodontitis vor der Schwangerschaft negative Geburtsergebnisse reduziert. Diese Studie zielt darauf ab, zu untersuchen, ob die präkonzeptionelle Behandlung von Parodontitis zu einer Verbesserung des parodontalen Status während der späten Schwangerschaft und der nachfolgenden Geburtsergebnisse führt.;-;-;-;https://link.springer.com/article/10.1186/1471-2393-13-228 b9239dd5f5159db93ad8d883683a89c6;de;;;6.2.;;;KI-gestützte Geschäftsmodelle für digitales Unternehmertum Die Welt der KI bietet Unternehmen neue Möglichkeiten und ist daher für Unternehmer auf potenziell allen Ebenen, die ihr Geschäft beeinflussen, von besonderem Interesse. Der folgende Artikel versucht daher, die Rollen von Anwendungen der Künstlichen Intelligenz (KI) auf strategischer Ebene und deren Einfluss auf Geschäftsmodelle einzuordnen. Anhand von Fallstudien wird die aktuelle Unternehmenspraxis beleuchtet, um Unternehmern und Forschern diese Technologie anhand praktischer Beispiele näher zu bringen, damit sie ihren eigenen KI-Weg beschreiten können. Die Analyse basiert auf Fallstudien, die die Rolle von KI im Geschäftsmodell eines Unternehmens untersuchen, sowohl für neue Marktteilnehmer in Form von Start-ups als auch für etablierte Unternehmen wie die Tech-Giganten. Anhand von Fallstudien werden beide Seiten der Extreme abgedeckt, um ein Bild von der Bandbreite der Anwendungen zu erhalten. Erkenntnisse aus diesen Fallstudien werden verarbeitet, um ein Klassifikationsschema des Einflusses von KI auf Geschäftsmodelle zu entwickeln. Des Weiteren wird das Zusammenspiel der verschiedenen Innovationsmöglichkeiten von KI verglichen und damit die Bedeutung für die Innovationskraft von Unternehmen. Darüber hinaus werden auf Basis des vorgestellten Klassifikationsschemas Strategietypen entwickelt, die Unternehmern aber einen Vorschlag für den eigenen KI-Weg im Hinblick auf zu berücksichtigende KI-Anwendungen geben. Darüber hinaus könnte die Forschung den Einfluss der vorgestellten KI-Rollen auf Geschäftsmodelle untersuchen, insbesondere das KI-getriebene Geschäftsmodell ist hier von Interesse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-53914-6_7 20c29fb133224dce2ef47d6ae31afd16;de;;;6.2.;;;Bekanntheitsgrad der Mammographie bei Frauen, die ambulante Kliniken in einem Lehrkrankenhaus in Ibadan, Südwestnigeria, besuchen Die Mammographie wurde in Industrieländern mit beträchtlichem Erfolg eingesetzt, aber über diese Bildgebungsmodalität in Umgebungen mit geringen Ressourcen ist nur sehr wenig bekannt. In dieser Studie wurde der Bekanntheitsgrad der Mammographie untersucht und Einflussfaktoren auf den Bekanntheitsgrad ermittelt.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-13-40 b0f0177d4e8aa01b7e0965dbf8e66579;de;;;6.2.;;;Twin-Control-Evaluierung im industriellen Umfeld: Automotive Case In diesem Kapitel wird die Bewertung von Twin-Control in einem Automotive-Validierungsszenario vorgestellt, das aus der Produktionslinie einer RENAULT-Elektromotorkomponente besteht, die aus drei COMAU-Werkzeugmaschinen besteht. Die Automobilindustrie erfordert aufgrund großer Chargen und knapper Margenkosten einen sehr optimierten und kontrollierten Bearbeitungsprozess. Darüber hinaus sind Life-Cycle-Features wie Energieverbrauch und Wartungskosten von besonderer Relevanz. Die Bewertung umfasst die verschiedenen Phasen des Produktentwicklungszyklus. In diesem Dokument werden verschiedene erzielte Ergebnisse der Implementierung von Twin-Control-Funktionen und deren Auswirkungen hervorgehoben. Den industriellen Endverbrauchern werden große Vorteile geboten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-02203-7_16 d1a180ebdfdc1839565c40eb91c9c3c1;de;;;6.2.;;;Design Space Exploration zur Flexibilitätsbewertung und Entscheidungsunterstützung bei der integrierten industriellen Gebäudeplanung Industriegebäude spielen eine wichtige Rolle für eine nachhaltige Entwicklung, da sie erhebliche Mengen an Ressourcen, Energie und Abfall produzieren und verbrauchen. Aufgrund der Produktindividualisierung und des sich beschleunigenden technologischen Fortschritts in der Fertigung streben Industriebauten nach hochflexiblen Gebäudestrukturen, um den sich ständig weiterentwickelnden Produktionsprozessen gerecht zu werden. Allerdings berücksichtigen gängige Nachhaltigkeitsbewertungsinstrumente keine Flexibilitätsmetriken und Fertigungs- und Gebäudeplanungsprozesse laufen sequentiell ab, wobei disziplinspezifische Interaktionen vernachlässigt werden, was zu unflexiblen Lösungen führt. Beim integrierten industriellen Gebäudedesign (IIBD), das gleichzeitig Fertigungs- und Baudisziplinen einbezieht, stehen Designteams vor der Wahl mehrerer widersprüchlicher Kriterien und komplexer Designentscheidungen, die einen riesigen Gestaltungsraum eröffnen. Um diese Probleme anzugehen, stellt dieses Papier einen parametrischen Entwurfsprozess für eine effiziente Entwurfsraumerkundung in IIBD vor. Eine hochmoderne Umfrage und mehrere Fallstudien werden durchgeführt, um vier neue Flexibilitätsmetriken zu definieren und einen einheitlichen Designraum zu entwickeln, der sowohl die Gebäude- als auch die Fertigungsanforderungen berücksichtigt. Basierend auf diesen Ergebnissen wird ein parametrischer Entwurfsprozess zur automatisierten Strukturoptimierung und quantitativen Flexibilitätsbewertung entwickelt, der den Entscheidungsprozess in Richtung einer erhöhten Nachhaltigkeit lenkt. Das vorgeschlagene Framework wird in einem Pilotprojekt einer Lebensmittel- und Hygieneproduktion getestet, wobei die Designraumdarstellung bewertet und die Flexibilitätsmetriken validiert werden. Die Ergebnisse bestätigten die Effizienz des Prozesses, dass ein evolutionärer multi-objektiver Optimierungsalgorithmus in die zukünftige Forschung implementiert werden kann, um eine multidisziplinäre Designoptimierung für flexible industrielle Gebäudelösungen zu ermöglichen.;-;-;-;https://link.springer.com/article/10.1007/s11081-021-09614-2 f743f3a2c406df5f4bf510369ec8371a;de;;;6.2.;;;Biologische TNF-Hemmer zur Behandlung entzündlich-rheumatischer Erkrankungen: Dosierungsmuster und damit verbundene Kosten in der Schweiz aus Kostenträgersicht Um detaillierte Praxisdaten zu Kosten und Dosierungsmustern bei der Anwendung der TNF-Inhibitoren Adalimumab, Etanercept und Infliximab bei in der Schweiz behandelten Patienten zu erhalten.;-;-;-;https://link.springer.com/article/10.1186/2191-1991-2-20 b079ae0df0c9e66920767a5a8b4135c9;de;;;6.2.;;;Ein Überblick über Erfolge, Herausforderungen und Zukunftsperspektiven eines nationalen schulbasierten Surveillance-Programms: die CASPIAN-Studie In der Islamischen Republik Iran wird seit 2003 die Childhood and Adolescence Surveillance and Prevention of Adult Non-communicable Disease (CASPIAN)-Studie durchgeführt Überprüfung von Methodik, Protokollen, Datenerhebung und Fragebögen dieser Erhebungen. Informationen wurden aus Artikeln gewonnen und Bücher wurden aus CASPIAN-Studien veröffentlicht. Die CASPIAN-Studien wurden alle zwei Jahre wiederholt, alle vier Jahre wurden Blutproben auf biochemische Faktoren entnommen. Methoden und Fragebögen aller Erhebungen waren auf ihrer Kernebene ähnlich und einige optionale Faktoren wurden in verschiedenen Erhebungen hinzugefügt. Die Ergebnisse der CASPIAN-Studien stellen die öffentliche Gesundheit iranischer Kinder und Jugendlicher dar, die für politische Entscheidungsträger nützlich sind und auf deren Grundlage Interventionsprogramme auf nationaler und subnationaler Ebene festgelegt werden können.;-;-;-;https://link.springer.com/article/10.1186/s40200-014-0120-3 0a9a4521d4745a562ff20feb4bc0f47f;de;;;6.2.;;;Der Einfluss von Föhn auf die Schwerverletztenhäufigkeit in Südbayern – eine Analyse des TraumaRegisters DGU® Föhn beschreibt einen Wind, der in Gebieten mit unmittelbarer Nähe zu Bergen auftritt. Das Vorhandensein von Föhn ist mit einer Verschlechterung des Gesundheitszustands verbunden.;-;-;-;https://link.springer.com/article/10.1186/s12891-020-03572-z 0098d6365445327d149f2b4c36659de7;de;;;6.2.;;;Studienprotokoll – Diabetes und verwandte Erkrankungen bei städtischen Indigenen in der Region Darwin, Australien: Ziele, Methoden und Teilnahme an der DRUID-Studie Diabetes mellitus ist ein ernstes und zunehmendes Gesundheitsproblem in Australien und wird als nationale Gesundheitspriorität ausgewiesen. Diabetes und verwandte Erkrankungen stellen unter indigenen Australiern (Aborigines und Torres Strait Islanders) eine noch größere gesundheitliche Belastung dar, aber es gibt kritische Wissenslücken in Bezug auf die Inzidenz und Prävalenz, die Ätiologie und die Prävention von Diabetes in dieser Gruppe, einschließlich eines Mangels an Informationen zur Krankheitslast der indigenen Bevölkerung in städtischen Gebieten. Die DRUID-Studie (Diabetes and Related Conditions in Urban Indigenous People in the Darwin region) wurde entwickelt, um diese Wissenslücke zu schließen.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-6-8 4e3af8345e05e8f5e3414710c3e7056f;de;;;6.2.;;;Ein einfaches klinisches Modell zur Planung von Transfusionsmengen in der Herzchirurgie Patienten, die sich einer Herzoperation unterziehen, stellen weiterhin den größten Bedarf an Bluttransfusionen. Die Notwendigkeit einer Transfusion basiert auf dem Komplikationsrisiko aufgrund einer schlechten Sauerstoffversorgung der Zellen, jedoch sind große Transfusionen mit einer erhöhten Morbidität und einem erhöhten Mortalitätsrisiko bei herzchirurgischen Patienten verbunden. Ziel dieser Studie war es, prä- und intraoperative Risikofaktoren für eine Transfusion zu identifizieren und ein zuverlässiges Modell für die Planung von Transfusionsmengen bei herzchirurgischen Eingriffen zu erstellen.;-;-;-;https://link.springer.com/article/10.1186/1472-6947-11-44 be09a5bf824d2e0d787ba524325f94d0;de;;;6.2.;;;Automics: eine integrierte Plattform für NMR-basierte Metabonomik-Spektralverarbeitung und Datenanalyse Spektralverarbeitung und postexperimentelle Datenanalyse sind die Hauptaufgaben in NMR-basierten Metabonomik-Studien. Während für diese Aufgaben kommerzielle und kostenlos lizenzierte Softwaretools verfügbar sind, müssen Forscher in der Regel mehrere Softwarepakete für ihre Studien verwenden, da sich Softwarepakete im Allgemeinen auf bestimmte Aufgaben konzentrieren. Von Vorteil wäre eine hochintegrierte Plattform, in der diese Aufgaben in einem Paket erledigt werden können. Darüber hinaus können mit einer Open Source-Architektur neu vorgeschlagene Algorithmen oder Methoden zur Spektralverarbeitung und Datenanalyse viel einfacher implementiert und der Öffentlichkeit frei zugänglich gemacht werden.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-10-83 eb9533a6fdfd831163a1c6f1e1e335fa;de;;;6.2.;;;Korrelationen der Kondomnutzung in einer Stichprobe von MSM in Ecuador In Ecuador beträgt die HIV-Prävalenz in der Allgemeinbevölkerung etwa 0,3%. Bei bestimmten Gruppen homosexueller und bisexueller Männer wurde jedoch eine Prävalenz von bis zu 17% gemeldet. Ziel dieser Studie ist es, die Korrelationen der Kondomnutzung bei Männern, die Sex mit Männern haben (MSM), in acht Städten in Ecuador zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-6-152 62ceb25f3735471f49288985a3609314;de;;;6.2.;;;Gedächtnisverbesserung durch kognitives Multidomänen-Gruppentraining bei Patienten mit Parkinson und leichter kognitiver Beeinträchtigung: Langzeiteffekte einer multizentrischen randomisierten kontrollierten Studie Metaanalysen weisen auf positive Effekte des kognitiven Trainings (CT) bei Patienten mit Parkinson-Krankheit (PD) hin, jedoch hatten die meisten früheren Studien kleine Fallzahlen und bewerteten keine Langzeitnachbeobachtung. Daher wurde eine multizentrische, randomisierte, kontrollierte, einfach verblindete Studie (Train-ParC-Studie) durchgeführt, um die CT-Effekte bei PD-Patienten mit leichter kognitiver Beeinträchtigung (PD-MCI) zu untersuchen. Unmittelbar nach der CT zeigte sich eine Verbesserung der exekutiven Funktionen. Hier präsentieren wir die Langzeitergebnisse 6 und 12 Monate nach CT.;-;-;-;https://link.springer.com/article/10.1007/s00415-021-10568-9 11484f2e06134979eabcad9d80809adb;de;;;6.2.;;;PRALIMAP: Studienprotokoll für eine High-School-basierte, faktoriell geclusterte randomisierte Interventionsstudie mit drei Strategien zur Prävention von Übergewicht und Adipositas Angesichts der Zunahme der Übergewichts- und Adipositasprävalenz bei Jugendlichen in den letzten zehn Jahren sind wirksame Präventionsstrategien für diese Erkrankungen bei Jugendlichen dringend erforderlich. Die PRALIMAP-Studie (Promotion de l'ALImentation et de l'Activité Physique) zielt darauf ab, die Wirksamkeit von 3 Strategien zur Gesundheitsförderung - Bildung, Screening und Umwelt - bei diesen Erkrankungen zu bewerten, die einzeln oder in Kombination an Gymnasien über einen Jahr Interventionszeitraum.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-11-119 2f455f8f776ce150700e077c999b0b7f;de;;;6.2.;;;Faktoren im Zusammenhang mit der Arbeitszufriedenheit unter chinesischen Gesundheitspersonal: eine Querschnittsstudie Mit der Medizinreform hat sich in China in jüngster Zeit die Funktion kommunaler Gesundheitszentren an Bedeutung gewonnen. Die Leistungsfähigkeit des Gesundheitswesens war jedoch zwischen Großstädten und Kleinstädten enorm unterschiedlich. Diese Studie zielt darauf ab, den Grad der Arbeitszufriedenheit von chinesischen Gemeindegesundheitspersonal zwischen einer Metropole (Shenyang) und einer kleinen Stadt (Benxi) in der Provinz Liaoning zu klären und die damit verbundenen Faktoren zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-11-884 3bc21b0b2ad23c5bd63c633653fde1bf;de;;;6.2.;;;Integration und Visualisierung systembiologischer Daten im Kontext des Genoms Kachelarrays mit hoher Dichte und neue Sequenzierungstechnologien erzeugen schnell wachsende Mengen an Transkriptom- und Protein-DNA-Interaktionsdaten. Die Visualisierung und Untersuchung dieser Daten ist entscheidend für das Verständnis der im Genom kodierten regulatorischen Logik, durch die die Zelle dynamisch ihre Physiologie beeinflusst und mit ihrer Umgebung interagiert.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-11-382 e603ceface15637f6ea019b7fb5808d2;de;;;6.2.;;;Die Wirkung von Achtsamkeitstraining vor der Totalendoprothetik auf postoperative Schmerzen und körperliche Funktion: Studienprotokoll für eine randomisierte kontrollierte Studie Arthrose ist eine der Hauptursachen für Behinderungen in den Industrieländern. In Australien sind 16,5% der erwachsenen Bevölkerung davon betroffen. Die Totalendoprothetik gilt als Therapie der Wahl bei Arthrose im Endstadium. Die Zahl der in Australien durchgeführten Gelenkendoprothesen hat sich im letzten Jahrzehnt verdoppelt (mehr als 80.000 Eingriffe im Jahr 2011). Die Inzidenz von präoperativer psychischer Belastung bei dieser Patientengruppe wird zwischen 30 und 60 % angegeben und präoperativer psychischer Stress ist mit schlechteren Schmerzen und schlechteren funktionellen Ergebnissen nach der Operation verbunden. Diese Studie wird eine achtsamkeitsbasierte psychologische Intervention verwenden, um die Ergebnisse bei Menschen zu verbessern, die sich einer totalen Gelenkendoprothetik unterziehen, und darüber hinaus Hypothesen zum Umgang mit chronischen Erkrankungen in einer älteren Bevölkerung testen. Diese Studie ist die erste ihrer Art und wird ein besseres Verständnis der Rolle eines Programms zur Verbesserung der psychischen Gesundheit bei der körperlichen Genesung von Patienten mit totaler Gelenkendoprothetik liefern.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-15-208 e593a1407ffe7265008c5c3d001a804f;de;;;6.2.;;;Mixed-Methods-Evaluation des integrierten Ansatzes der Wissensübersetzung CEBHA+: ein Protokoll Die Collaboration for Evidence-based Healthcare and Public Health in Africa (CEBHA+) ist ein Forschungskonsortium, das sich mit der Prävention, Diagnose und Behandlung nicht übertragbarer Krankheiten beschäftigt. CEBHA+ möchte politische Entscheidungsträger und Praktiker während des gesamten Forschungsprozesses einbeziehen, um dauerhafte Beziehungen aufzubauen, die Evidenzaufnahme zu verbessern und langfristige Kapazitäten zwischen Partnerinstitutionen in Äthiopien, Malawi, Ruanda, Südafrika und Uganda in Zusammenarbeit mit zwei deutschen Universitäten aufzubauen. Dieser Ansatz der integrierten Wissensübersetzung (IKT) umfasst die formale Entwicklung, Umsetzung und Bewertung länderspezifischer IKT-Strategien.;-;-;-;https://link.springer.com/article/10.1186/s12961-020-00675-w baaf71f3d8acb4a9fcf66902721b760d;de;;;6.2.;;;Querschnittsstudie zur Prävalenz von Symptomen einer Aufmerksamkeitsdefizit-Hyperaktivitätsstörung in einer Gesundheitseinrichtung der Tertiärversorgung in Nairobi Die Aufmerksamkeits-Defizit-Hyperaktivitäts-Störung ist die häufigste neurologische Verhaltensstörung im Kindesalter mit gut dokumentierten negativen Folgen im Jugend- und Erwachsenenalter, dennoch werden 60-80% der Fälle nicht diagnostiziert. Routinemäßiges Screening wird in den meisten ambulanten pädiatrischen Diensten nicht praktiziert, und es gibt nur wenige Informationen über Faktoren, die mit der Erkrankung in Entwicklungsländern verbunden sind.;-;-;-;https://link.springer.com/article/10.1186/s13034-015-0033-z cecc4159408d405bcd9a154590c21d1e;de;;;6.2.;;;STW 5 ist wirksam bei Dextransulfat-Natrium-induzierter Kolitis bei Ratten Ein pflanzliches Präparat, STW 5, das klinisch bei funktioneller Dyspepsie und Reizdarmsyndrom verwendet wird, hat nachweislich Eigenschaften, die es bei entzündlichen Darmerkrankungen (IBD) nützlich machen können. Die vorliegende Arbeit wurde durchgeführt, um ihre Wirksamkeit in einem Rattenmodell von CED zu untersuchen.;-;-;-;https://link.springer.com/article/10.1007/s00384-012-1473-z 00b8055f2c7a90c6ce21454c2fca761d;de;;;6.2.;;;REFINE (Rapid Feedback for quality Improvement in Neonatal rEsuscitation): eine Beobachtungsstudie zur Ausbildung und Praxis der Neugeborenen-Wiederbelebung in einem tertiären Krankenhaus in Nepal Simulationsbasiertes Training in der Neugeborenenwiederbelebung ist effektiver, wenn es sowohl durch Praxis als auch durch kontinuierliche Verbesserungsprozesse verstärkt wird. Unser Ziel ist es, die Wirksamkeit eines Qualitätsverbesserungsprogramms in Kombination mit einem innovativen Anbieter-Feedback-Gerät zur Praxis und den Ergebnissen der Neugeborenenwiederbelebung in einem öffentlichen Krankenhaus in Nepal zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s12884-020-03456-z 8d14b1caaa20627f7c8e99323d6a7d76;de;;;6.2.;;;Einführung einer Innovation zur Reparatur von Aortenaneurysmen in einem kanadischen Krankenhaus: eine qualitative Fallstudie und Bewertung Prioritätensetzung im Gesundheitswesen ist eine Herausforderung, da die Nachfrage nach Dienstleistungen die verfügbaren Ressourcen übersteigt. Die steigende Nachfrage nach weniger invasiven chirurgischen Verfahren durch Patienten, Gesundheitseinrichtungen und die Industrie erhöht den Druck auf Chirurgen, die entsprechenden Fähigkeiten für die Einführung innovativer Verfahren zu erwerben. Solche Innovationen werden oft von Chirurgen im Krankenhausumfeld initiiert und eingeführt. Entscheidungsprozesse zur Einführung chirurgischer Innovationen in Krankenhäusern sind nicht gut untersucht und ein Standardprozess für deren Einführung existiert nicht. Der Zweck dieser Studie besteht darin, den Entscheidungsprozess für die Einführung einer neuen Technologie zur Reparatur von Bauchaortenaneurysmen (Endovaskuläre Aneurysmenreparatur [EVAR]) in einem akademischen Zentrum für Gesundheitswissenschaften zu beschreiben und zu bewerten, um besser zu verstehen, wie Entscheidungen für die Einführung chirurgischer Innovationen auf Krankenhausebene.;-;-;-;https://link.springer.com/article/10.1186/1472-6963-7-182 e8b0ef981c05fc60bbdc83d2ac88cd84;de;;;6.2.;;;Kognitives Training und Hirnstimulation bei prodromaler Alzheimer-Krankheit (AD-Stim) – Studienprotokoll für eine doppelblinde randomisierte kontrollierte Phase-IIb-Studie (monozentrisch) Angesichts der weltweit immer älter werdenden Bevölkerung und der damit einhergehenden Zunahme altersbedingter Erkrankungen wie der Alzheimer-Krankheit (AD) ist die Erforschung nicht-invasiver Methoden zur Linderung oder sogar Verhinderung des kognitiven Verfalls der prodromalen AD von hoher Relevanz. Frühere Studien legen nahe, dass die transkranielle Gleichstromstimulation (tDCS) eine wirksame Methode zur Steigerung der kognitiven Leistung ist, insbesondere in Kombination mit kognitivem Training bei gesunden älteren Menschen. Bisher wurden keine Studien durchgeführt, die tDCS gleichzeitig mit einem intensiven kognitiven Training mit mehreren Sitzungen in prodromalen AD-Populationen kombinieren.;-;-;-;https://link.springer.com/article/10.1186/s13195-020-00692-5 9c061480b7ba844ebf644bb37be3b045;de;;;6.2.;;;Technologische Möglichkeiten bei der Betreuung von Fernforschungsstudierenden Studierende, die Remote-Forschungsstudiengänge absolvieren, benötigen besondere Unterstützung durch ihre Betreuer, da ihnen das reiche Umfeld der Studierenden auf dem Campus und der persönliche Kontakt mit Betreuern und Kollegen fehlt. Die Informationstechnologie bietet eine Vielzahl von Kanälen, von denen die meisten schnell und relativ kostengünstig sind, um eine tragfähige Aufsichtskommunikation zu entwickeln und aufrechtzuerhalten. Eine Analyse dieser Optionen entlang der schriftlichen/gesprochenen und synchronen/asynchronen Achsen ermöglicht es uns, eine nützliche Taxonomie der Kommunikation für die Forschungsbegleitung zu entwickeln. Die meisten dieser Optionen werden im Vergleich zu persönlichen Gesprächen mit dem Vorgesetzten in der Regel als zweitbeste angesehen. Viele IT-Medien können jedoch bespielt werden und sind somit abrufbar. Dieses Merkmal stellt sich als zentraler Bestandteil einer wirksamen Aufsicht heraus und wird in der persönlichen Aufsicht nicht oft berücksichtigt. In der Praxis hat sich gezeigt, dass eine Kombination von Medien mit maximaler Unmittelbarkeit und persönlicher Interaktion in Kombination mit einer Aufzeichnung zur späteren Überprüfung die reichhaltigste und flexibelste Überwachung ergibt.;-;-;-;https://link.springer.com/article/10.1007/s10734-006-9038-0 1cc7dc89afed38f378433656ef0976db;de;;;6.2.;;;Formale Agenda-Festlegung (europäische Ebene) Roseet al. Einführung von vier digitalen demokratischen Instrumenten, die dazu dienen oder gedient haben, das formelle Agenda-Setting auf europäischer Ebene zu unterstützen (Europäische Bürgerinitiative, Futurium, Ihre Stimme in Europa und Europäische Bürgerkonsultationen). Die Autoren legen einen starken Fokus auf den partizipativen Prozess und praktische Erfahrungen. Um diese Tools und ihre Anwendung in der Praxis besser zu verstehen, wurden Interviews mit Administratoren und Forschern geführt, die mit den jeweiligen Tools vertraut sind. Stärken und Schwächen werden identifiziert und Verbesserungsmöglichkeiten ausgelotet. Obwohl jedes Instrument auf unterschiedliche Weise positive Ergebnisse zeigt, lässt ihre Wirkung in Bezug auf politische Instrumente zu wünschen übrig. Zu den gewonnenen Erkenntnissen gehört die Notwendigkeit, klar zu kommunizieren, welche Eingaben von den Teilnehmern gewünscht werden, und Transparenz darüber, welche Ergebnisse erwartet werden können und wie die gesammelten Eingaben verwendet werden. Die Werkzeuge müssen auch flexibel genug sein, um sich an das Feedback der Benutzer anzupassen, um einen Lernprozess zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-27184-8_9 972a9a62540962918317dcfd068cb0b6;de;;;6.2.;;;Geschlechtsdysphorie und Transgender-Identität sind mit physiologischer und psychologischer Maskulinisierung verbunden: eine theoretische Integration von Erkenntnissen, unterstützt durch systematische Reviews Geschlechtsdysphorie (GD) ist mit mehreren psychiatrischen Erkrankungen verbunden, aber die kausalen Zusammenhänge sind nicht bekannt. Wir stellen fest, dass einige dieser Zustände mit einer physiologischen Maskulinisierung verbunden sind.;-;-;-;https://link.springer.com/article/10.1007/s13178-020-00489-z 0ccfca2a09d9cd9f390dd550894834c6;de;;;6.2.;;;Kombinieren von EQ-5D-5L-Items zu einem Level-Summary-Score: Nachweis der Durchführbarkeit mit der nicht-parametrischen Item-Response-Theorie unter Verwendung eines internationalen Datensatzes Der EQ-5D-5L ist ein etablierter Gesundheitsfragebogen, der den Nutzen der Gesundheit durch Anwendung präferenzbasierter Gewichte schätzt. Es wurden nur begrenzte Arbeiten durchgeführt, um alternative Bewertungsansätze zu untersuchen, wenn Nutzengewichtungen nicht verfügbar oder nicht anwendbar sind. Wir haben untersucht, ob der Mokken-Skalierungsansatz 1) ob der Level Summary Score für den EQ-5D-5L angemessen ist und 2) eine Interpretation eines solchen Scores aufklären kann.;-;-;-;https://link.springer.com/article/10.1007/s11136-021-02922-1 ece56d33aeae6553f0f9a2d5d27c6fda;de;;;6.2.;;;Ambulante Längsmessungen von Ganganomalien bei Hunden mit Dystrophinmangel Diese Studie zielte darauf ab, die Ganganomalien bei GRMD (Golden Retriever Muskeldystrophie) Hunden während des Wachstums und der Krankheitsprogression zu messen, wobei ein ambulanter Ganganalysator (3D-Beschleunigungsmesser) als mögliches Instrument zur Bewertung der Auswirkungen einer therapeutischen Intervention verwendet wurde.;-;-;-;https://link.springer.com/article/10.1186/1471-2474-12-75 abd957bd7a030fceec080287064e546d;de;;;6.2.;;;Gesundheitsbezogene Lebensqualität bei jungen Erwachsenen mit angeborenem zentralem Hypoventilationssyndrom aufgrund von PHOX2B-Mutationen: eine Querschnittsstudie Das angeborene zentrale Hypoventilationssyndrom (CCHS) ist eine seltene genetische Erkrankung aufgrund von PHOX2B-Mutationen. CCHS-Patienten leiden an vielen autonomen Störungen, die klinisch von defekten Beatmungsautomatismen dominiert werden. Von Geburt an hängt das Leben von CCHS-Patienten von der Beatmungsunterstützung während des Schlafes ab, was einen hohen Pflegeaufwand mit sich bringt. Ob dies die Lebensqualität dieser Patienten im Erwachsenenalter beeinträchtigt, ist unbekannt.;-;-;-;https://link.springer.com/article/10.1186/s12931-015-0241-3 cc1fcc60f5bb0da2dd8fb447c5bbf8b9;de;;;6.2.;;;Räumliche Verteilung von Selbstmorden in Queensland, Australien Die räumliche Verteilung und Häufung von Suiziden in Australien, wo die Bevölkerungsdichte geringer ist als in vielen anderen Ländern und die dramatisch zwischen städtischen, ländlichen und abgelegenen Gebieten schwankt, wurde nicht untersucht. Diese Studie zielt darauf ab, die räumliche Verteilung von Selbstmord auf lokaler Ebene der Gebietskörperschaften (Local Governmental Area, LGA) zu untersuchen und die LGAs mit einem hohen relativen Selbstmordrisiko in Queensland, Australien, unter Verwendung von Techniken des geografischen Informationssystems (GIS) zu identifizieren.;-;-;-;https://link.springer.com/article/10.1186/1471-244X-10-106 c2148977d39a8f47184d26a1447c4118;de;;;6.2.;;;Helminth-Sekretomdatenbank (HSD): eine Sammlung von exkretorischen/sekretorischen Helminth-Proteinen, die anhand von Expressionssequenz-Tags (ESTs) vorhergesagt werden Helminthen sind wichtige sozioökonomische Organismen, die dafür verantwortlich sind, schwere parasitäre Infektionen bei Menschen, anderen Tieren und Pflanzen zu verursachen. Diese Infektionen stellen weltweit eine erhebliche Belastung für die öffentliche Gesundheit und die Wirtschaft dar. Ausnahmsweise einige Helminthenorganismen wie;-;-;-;https://link.springer.com/article/10.1186/1471-2164-13-S7-S8 098fc48810ec8ce378fc1f7aa4aea04a;de;;;6.2.;;;Clustering von Krebs in Familien von Fällen mit Hodgkin-Lymphom (HL), Multiplem Myelom (MM), Non-Hodgkin-Lymphom (NHL), Weichteilsarkom (STS) und Kontrollpersonen Eine positive Familienanamnese von chronischen Krankheiten, einschließlich Krebs, kann als Index für genetische und gemeinsame Umwelteinflüsse verwendet werden. Die untersuchten Tumoren haben mehrere mutmaßliche Risikofaktoren gemeinsam, darunter die berufliche Exposition gegenüber bestimmten Pestiziden und eine positive Familienanamnese von Krebs.;-;-;-;https://link.springer.com/article/10.1186/1471-2407-9-70 2ac622ccd04d7478f719bd2366d3b4e7;de;;;6.2.;;;Auswirkungen von hochvolumigen Kochsalzeinläufen im Vergleich zu keinem Einlauf während der Wehen – Die randomisierte kontrollierte Studie N-Ma [ISRCTN43153145] Einläufe werden während der Geburt in geburtshilflichen Einrichtungen mit der Überzeugung verwendet, dass sie puerperale und neonatale Infektionen reduzieren, die Geburtsdauer verkürzen und die Geburt für das behandelnde Personal sauberer machen. Eine systematische Überprüfung der Literatur ergab jedoch keine ausreichenden Beweise für die Verwendung von Einläufen. Das Ziel dieser RCT war es, eine identifizierte Wissenslücke zu schließen, indem die Auswirkungen von routinemäßigen Einläufen, die während der ersten Phase der Wehen verwendet wurden, auf die Infektionsraten im Wochenbett und bei Neugeborenen untersucht wurden.;-;-;-;https://link.springer.com/article/10.1186/1471-2393-6-8 78985074ef79ec614b531661389f9f97;de;;;6.2.;;;Schnelle Auswahl von miRNA-Kandidaten basierend auf groß angelegten vorberechneten MFE-Sätzen randomisierter Sequenzen Kleine RNAs sind wichtige Regulatoren der Genomfunktion, doch ihre Vorhersage in Genomen ist immer noch eine große Herausforderung für die Berechnung. Statistische Analysen von prä-miRNA-Sequenzen zeigten, dass ihre 2D-Struktur im Gegensatz zu anderen Klassen nicht-kodierender RNA dazu neigt, eine minimale freie Energie (MFE) aufzuweisen, die signifikant niedriger ist als die MFE-Werte von äquivalent randomisierten Sequenzen mit derselben Nukleotidzusammensetzung. Die Berechnung vieler MFEs ist jedoch zu aufwendig, um genomweite Screenings zu ermöglichen.;-;-;-;https://link.springer.com/article/10.1186/1756-0500-7-34 0fdf03e28f592b25c83b735be1fdaa76;de;;;6.2.;;;Akupunktur in der akuten Herpes-Zoster-Schmerztherapie (ACUZoster) – Design und Protokoll einer randomisierten kontrollierten Studie Akuter Herpes Zoster ist eine weit verbreitete Erkrankung. Eines der Hauptsymptome sind Schmerzen, die die Lebensqualität des Patienten stark beeinflussen können. Die Schmerztherapie ist begrenzt. Akupunktur soll neuropathische Schmerzzustände lindern und könnte daher als therapeutische Alternative dienen. Ziel der vorliegenden Studie ist es zu untersuchen, ob eine 4-wöchige semi-standardisierte Akupunktur der Schein-Laserakupunktur und dem Antikonvulsivum Gabapentin bei der Behandlung von Schmerzen bei Herpes Zoster nicht unterlegen ist.;-;-;-;https://link.springer.com/article/10.1186/1472-6882-9-31 f800dfd0c108db499b4fb35225bc3026;de;;;6.2.;;;Community-basierte Studie zum Vergleich der Inzidenz- und Inanspruchnahmepyramide von Gesundheitsdiensten für Magen-Darm-, Atemwegs- und Hautsymptome Gastrointestinale (GI), respiratorische und dermale Symptome sind häufig und verursachen eine erhebliche Morbidität, obwohl die Informationen über ihre genaue Inzidenz und vergleichbare Belastung begrenzt sind. Das Ziel dieser Studie war es, die Epidemiologie zu beschreiben und diese drei Hauptsymptomkomplexe zu bewerten, um unser Verständnis der durch diese Symptome verursachten gesundheitlichen Belastung zu verbessern.;-;-;-;https://link.springer.com/article/10.1186/1472-6963-12-211 c89a571d591b2440d886ca0e7f628f5f;de;;;6.2.;;;Protokoll für die kombinierte Studie zur Immunsuppression und Strahlentherapie bei Schilddrüsen-Augenerkrankungen (CIRTED): Eine multizentrische, doppelblinde, faktoriell randomisierte kontrollierte Studie Die medizinische Behandlung von Schilddrüsen-Augenerkrankungen bleibt aufgrund des Mangels an qualitativ hochwertigen Evidenz zu langfristigen Behandlungsergebnissen umstritten. Es ist bekannt, dass Glukokortikoide anfänglich wirksam sind, aber bei längerer Anwendung erhebliche Nebenwirkungen haben, und bei Beendigung kann es zu Rezidiven kommen. Die aktuelle Evidenz zur Wirksamkeit der Strahlentherapie und der nichtsteroidalen systemischen Immunsuppression ist widersprüchlich, und die meisten früheren Studien waren retrospektiv, unkontrolliert, klein oder schlecht konzipiert.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-9-6 f63c719badbe9a08e428dbe559ad008e;de;;;6.2.;;;RPC4046, ein neuartiger Anti-Interleukin-13-Antikörper, blockiert die IL-13-Bindung an IL-13-α1- und α2-Rezeptoren: Eine randomisierte, doppelblinde, placebokontrollierte, dosiseskalierende First-in-Human-Studie Ein einzigartiger monoklonaler Anti-Interleukin (IL)-13-Antikörper, RPC4046, wurde auf der Grundlage einer differentiellen IL-13-Rezeptor (R)-Blockade erzeugt, wie in einem Maus-Asthmamodell bewertet. Die Sicherheit, Verträglichkeit, Pharmakokinetik und Pharmakodynamik von RPC4046 waren in einer First-in-Human-Studie evaluiert.;-;-;-;https://link.springer.com/article/10.1007/s12325-017-0525-8 467503c3625cfa1548f1fd793c8845fb;de;;;6.2.;;;Ergebnisse und Determinanten des Gesundheitssystems, die der öffentlichen Gesundheit in Industrieländern zugänglich sind: eine gepoolte, querschnittliche Zeitreihenanalyse Nur wenige Studien haben versucht, die kombinierten querschnittlichen und zeitlichen Beiträge eines umfassenderen Satzes zugänglicher Faktoren zu den Ergebnissen der Bevölkerungsgesundheit in wohlhabenden Ländern in den letzten 30 Jahren des 20;-;-;-;https://link.springer.com/article/10.1186/1471-2458-5-81 a984df22d17dbcdecd4338ceece35fc0;de;;;6.2.;;;Qualität der Gesundheitsversorgung von Müttern und Neugeborenen in Gesundheitseinrichtungen in Nepal Nepal hat sich verpflichtet, die Mütter- und Neugeborenensterblichkeit bis 2030 deutlich zu reduzieren. Die Verbesserung der Qualität der intrapartalen Gesundheitsdienste wird von entscheidender Bedeutung sein, um diese Todesfälle zu reduzieren. Dieses Papier untersucht die Qualität der Geburten- und Neugeborenenversorgung in Gesundheitseinrichtungen in Nepal.;-;-;-;https://link.springer.com/article/10.1007/s10995-019-02846-w a9f00efeb13df54d5eb804d90fb13519;de;;;6.2.;;;Verbesserung der Barrierefreiheit von CMS-basierten Websites durch automatisierte Methoden In diesem Artikel werden neue Methoden zum Identifizieren und Beheben von Barrierefreiheitsproblemen auf Websites vorgestellt. Die von der Recherche berücksichtigten Websites werden mit Content-Management-Systemen (wie WordPress oder Joomla!) erstellt. Unser Hauptziel war es, verschiedene Methoden zur Verbesserung der Barrierefreiheit zu entwickeln, die von verschiedenen Benutzergruppen (Website-Ersteller, Betreiber, Inhaltsredakteure) verwendet werden können. Einige unserer Methoden sind einfach anzuwenden, andere erfordern mehr Kenntnisse. Die drei von uns entwickelten Methoden (CSS/SCSS Class Override, MVC-based Extension Override, HTML Output Override) werden im Detail beschrieben. Auch die Verwendung einer bereits existierenden Methode (Data Entry Checking) wird vorgestellt, sowie einige Entwicklungsmöglichkeiten dieser Methode. Jede Methode wird allgemein vorgestellt, außerdem wird auch ein Anwendungsbeispiel vorgestellt. Mit den vorgeschlagenen Methoden können Websites die Empfehlungen der Web Content Accessibility Guidelines (WCAG) erfüllen, um den Inhalt der Websites barrierefreier zu machen.;-;-;-;https://link.springer.com/article/10.1007/s10209-020-00784-x e6f2ab6785d5e1e9bd5125d6df58ed89;de;;;6.2.;;;Medizinische und wirtschaftliche Folgen perioperativer Komplikationen bei älteren Hüftfrakturpatienten Patienten mit Komplikationen während der stationären Behandlung nach Hüftfrakturoperationen sind mit einem schlechteren mittelfristigen Outcome verbunden. Während chirurgisch behandelbare Komplikationen den Heilungsprozess nur verzögern, scheinen interne Komplikationen das Ergebnis langfristig zu verschlechtern. Alle Komplikationen sind mit erheblich erhöhten Kosten während des Krankenhausaufenthaltes verbunden.;-;-;-;https://link.springer.com/article/10.1007/s11657-020-00843-z 32643b8ba6d8640e2fc4a4fe49ed7d36;de;;;6.2.;;;Tabakentwöhnungsintervention für schwangere Frauen in Argentinien und Uruguay: Studienprotokoll Argentinien und Uruguay gehören zu den Ländern mit dem höchsten Anteil schwangerer Frauen, die rauchen. Die Umsetzung einer wirksamen Intervention zur Raucherentwöhnung hätte erhebliche Auswirkungen auf die Gesundheit von Müttern und Säuglingen. Die „5 A’s“ (Ask, Advise, Assess, Assist, Arrange) sind eine Strategie, die aus einer kurzen Beratungssitzung von 5–15 Minuten besteht, die von einem geschulten Anbieter durchgeführt wird. Die „5 A“ gelten weltweit als Versorgungsstandard, werden jedoch in Argentinien und Uruguay zu wenig genutzt.;-;-;-;https://link.springer.com/article/10.1186/1742-4755-10-44 bbff8dd0082ae690423bef6f40e0cfc8;de;;;6.2.;;;Anwendung von Malaria-Präventionsmaßnahmen während Schwangerschaft und Geburt in Ibadan, Nigeria Malaria ist nach wie vor ein großes Problem der öffentlichen Gesundheit in Afrika südlich der Sahara, und der Umfang der Anwendung von Malaria-Präventionsmaßnahmen kann sich auf die Malariabelastung während der Schwangerschaft auswirken. Diese Studie versuchte, den Zusammenhang zwischen Malaria-Präventionsmaßnahmen während der Schwangerschaft und den Geburtsergebnissen des Geburtsgewichts und der Frühgeburt zu bestimmen.;-;-;-;https://link.springer.com/article/10.1186/1471-2393-11-60 5808fdd85fa796724e8c98c7a5c50035;de;;;6.2.;;;Bedenken hinsichtlich verdeckter HIV-Tests sind mit einer verzögerten Präsentation eines Verdachts auf Malaria bei äthiopischen Kindern verbunden: eine Querschnittsstudie Eine frühzeitige Diagnose ist wichtig, um die Sterblichkeit durch Malaria zu verhindern. Die Hypothese, dass die Angst der Erziehungsberechtigten vor verdeckten Tests auf das humane Immunschwächevirus (HIV) die Vorstellung von Kindern mit Verdacht auf Malaria verzögert, wurde getestet.;-;-;-;https://link.springer.com/article/10.1186/1475-2875-13-301 0ac7bc8f2ff794973d6115cdf9a25add;de;;;6.2.;;;Ein Unterhaltungs- und Bildungsansatz zur Verhinderung der Verbreitung von COVID-19: Studienprotokoll für eine randomisierte kontrollierte Studie mit mehreren Standorten Unterhaltungs- und Bildungsmedien (E-E) können die Verhaltensabsicht in Bezug auf gesundheitsbezogene Praktiken verbessern. In Zeiten von COVID-19 sind Millionen von Menschen von E-E-Medien ohne physischen Kontakt erreichbar. Wir haben ein kurzes, wortloses, animiertes Video über präventives COVID-19-Verhalten entworfen, das schnell über Social-Media-Kanäle an ein globales Publikum verbreitet werden kann. Die Wirksamkeit des E-E-Videos bleibt jedoch unklar.;-;-;-;https://link.springer.com/article/10.1186/s13063-020-04942-7 916d8adf64521a4bd8001dc58ab62623;de;;;6.2.;;;SolEST-Datenbank: ein One-Stop-Shop-Ansatz für die Untersuchung von Da noch keine Genomsequenzen von Nachtschattengewächsen vervollständigt wurden, stellen Sammlungen von exprimierten Sequenzmarkierungen (EST) ein zuverlässiges Werkzeug für eine breite Probenahme;-;-;-;https://link.springer.com/article/10.1186/1471-2229-9-142 113e5e1127a202ec0b835fad6ec33879;de;;;6.2.;;;Anwendung der Sequenzierung der nächsten Generation auf CEPH-Zelllinien, um Varianten zu entdecken, die mit von der FDA zugelassenen Chemotherapeutika in Verbindung stehen Das Ziel dieser Studie war es, eine Kandidatengenassoziation mit der Zytotoxizität von Chemotherapeutika in Zelllinienmodellen durch Neusequenzierung und Entdeckung seltener und niederfrequenter Varianten zusammen mit gängigen Variationen durchzuführen. Hier wurde eine Assoziationsstudie zur Zytotoxizitätsreaktion auf 30 von der FDA zugelassene Medikamente durchgeführt und wir wandten die zielgerichtete Sequenzierungstechnologie der nächsten Generation an, um Varianten von 103 Kandidatengenen in 95 lymphoblastoiden Zelllinien aus 14 CEPH-Stammbäumen zu entdecken. In diesem Artikel haben wir Varianten aus 95 Zelllinien aufgerufen und eine Assoziationsanalyse auf zytotoxische Reaktion mit der Family Based Association Testing-Methode und -Software durchgeführt.;-;-;-;https://link.springer.com/article/10.1186/1756-0500-7-360 38de86aac01a33ff978c56ef1eccbd19;de;;;6.2.;;;Geschlechtsspezifische Unterschiede beim Screening auf Glukosestörungen, Management kardiovaskulärer Risikofaktoren und Prognose bei Patienten mit Dysglykämie und koronarer Herzkrankheit: Ergebnisse der ESC-EORP EUROASPIRE-Umfragen Geschlechtsspezifische Unterschiede bei der Behandlung von Dysglykämien, die entweder als gestörte Glukosetoleranz (IGT) oder Typ-2-Diabetes (T2DM) definiert sind, bei Patienten mit koronarer Herzkrankheit (KHK) sind eine medizinische Herausforderung. Jüngste Daten von zwei landesweiten Patientenkohorten deuteten auf keinen Geschlechtsunterschied hinsichtlich des Risikos für diabetesbedingte kardiovaskuläre Komplikationen hin, deuteten jedoch auf eine geschlechtsspezifische Ungleichheit beim Risikofaktorenmanagement hin. Das Ziel dieser Studie war es, geschlechtsspezifische Unterschiede beim Screening auf Dysglykämie, beim Management von kardiovaskulären Risikofaktoren und bei der Prognose bei dysglykämischen KHK-Patienten zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s12933-021-01233-6 106f487ba0956c843fad8e2664d3c167;de;;;6.2.;;;Zusammenhänge zwischen familiären sozialen Verhältnissen und psychischer Belastung bei den Universitätsstudenten von Bangladesch: Inwieweit vermitteln die Lebensstilfaktoren? Es gibt zwar eine wachsende Zahl empirischer Studien, die sich auf die sozialen und verhaltensbezogenen Prädiktoren psychischer Gesundheit konzentrieren, die Mechanismen, die den berichteten Assoziationen möglicherweise zugrunde liegen, wurden jedoch nicht ausreichend untersucht. Diese Studie zielte darauf ab, den Zusammenhang von sozialen und Lebensstilfaktoren mit psychischer Belastung und die potenzielle vermittelnde Rolle der Lebensstilfaktoren bei den geschätzten Zusammenhängen zwischen sozialen Umständen und psychischen Belastungen zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s40359-021-00587-6 33092e9d207013b15c56df2ca38dfb5c;de;;;6.2.;;;Interne Kontrollen und Interne Revision Huawei engagiert sich im Kampf gegen Unterschlagung, Verschwendung, Jobbery und Korruption unter leitenden Angestellten. Sie strebt an, Einnahmen aus einer einzigen Quelle zu erzielen. Huawei delegiert Autorität an Außenstellen, damit diese mehr Autonomie haben und flexibler und effizienter arbeiten können. Die übertragenen Befugnisse müssen mit einer wirksamen Aufsicht ausgeübt werden, und der Zweck der Aufsicht besteht darin, mehr Befugnisse zu übertragen. Für Huawei ist Aufsicht der beste Weg, um seine Manager zu schützen und zu schützen. Das Unternehmen schätzt grundlegende Prozesse und Systeme, insbesondere das interne Kontrollsystem. Beim Aufbau seines internen Kontrollsystems besteht Huawei darauf, „amerikanische Schuhe zu tragen“ und bei Null anzufangen, anstatt ein bestehendes System zu flicken.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-7507-1_15 8fdae5289c7d4d300a5215b10e2b7493;de;;;6.2.;;;Einfluss der perkutanen Koronarintervention auf die Biomarkerspiegel bei Patienten in der subakuten Phase nach Myokardinfarkt: die Biomarker-Zusatzstudie Occluded Artery Trial (OAT) Der Zweck der Biomarker-Unterstudie Occluded Artery Trial (OAT) bestand darin, die Auswirkungen der Revaskularisierung infarktbezogener Arterien (IRA) auf die Reihen von;-;-;-;https://link.springer.com/article/10.1186/1471-2261-13-91 a3c155483eedabe01205469d3f78806c;de;;;6.2.;;;Modellierung der tonalen Anziehung: tonale Hierarchien, Intervallzyklen und Quantenwahrscheinlichkeiten Wie gut passt eine bestimmte Tonhöhe in eine Tonleiter oder Tonart, sei es eine Dur- oder Moll-Tonart? Eine ähnliche Frage kann bezüglich Akkorden und Tonregionen gestellt werden. Strukturelle und probabilistische Ansätze in der Computermusiktheorie haben versucht, systematische Antworten auf das Problem der tonalen Anziehungskraft zu geben. Wir werden zwei frühere Modelle der tonalen Anziehung diskutieren, eines basierend auf tonalen Hierarchien und das andere basierend auf Intervallzyklen. Um die methodischen und empirischen Mängel dieser Modelle zu überwinden, schlage ich eine neue Art von Modellen vor, die auf Erkenntnissen aus dem neuen Forschungsgebiet der Quantenkognition beruhen. Ich werde argumentieren, dass der Quantenansatz die Erkenntnisse aus der Gruppentheorie und der Quantenwahrscheinlichkeitstheorie integriert. Auf diese Weise erreicht sie ein tieferes Verständnis der kognitiven Natur der tonalen Musik, insbesondere der Natur der musikalischen Erwartungen (Leonhard Meyer) und der affektiven Bedeutung von Musik.;-;-;-;https://link.springer.com/article/10.1007/s00500-015-1801-7 71cd3f924a07700fddea61010ab19ee1;de;;;6.2.;;;Eine systematische Überprüfung von Gesundheitsanwendungen für Smartphones Fortschrittliche mobile Kommunikation und tragbare Berechnungen werden jetzt in Handheld-Geräten kombiniert, die als „Smartphones“ bezeichnet werden und auch in der Lage sind, Software von Drittanbietern auszuführen. Die Zahl der Smartphone-Nutzer wächst rasant, auch unter den Angehörigen der Gesundheitsberufe. Ziel dieser Studie war es, Smartphone-basierte Gesundheitstechnologien, wie sie in der akademischen Literatur diskutiert werden, nach ihren Funktionalitäten zu klassifizieren und Artikel in jeder Kategorie zusammenzufassen.;-;-;-;https://link.springer.com/article/10.1186/1472-6947-12-67 68209d58986e47a6622ce5bf48f38a1c;de;;;6.2.;;;Herunterregulierung organischer Kationentransporter OCT1 ( Organische Kationentransporter (OCT) sind für die Aufnahme und intrazelluläre Inaktivierung eines breiten Spektrums endogener Substrate und die Entgiftung von Xenobiotika und Chemotherapeutika verantwortlich. Die Transporter wurden pharmazeutisch interessant, da OCTs Determinanten der Zytotoxizität von Platinderivaten sind und die Transportaktivität mit der Empfindlichkeit von Tumoren gegenüber Tyrosinkinase-Inhibitoren korreliert. Zur Relevanz von OCTs beim hepatozellulären Karzinom (HCC) liegen keine Daten vor.;-;-;-;https://link.springer.com/article/10.1186/1471-2407-12-109 6e310bd57eaf3c5dd83e248bfa1dc1ac;de;;;6.2.;;;Computergestütztes klinisches Entscheidungssystem und mobile Anwendung mit Expertenunterstützung zur Optimierung des Schwindelmanagements in der Primärversorgung: Studienprotokoll für eine pragmatische clusterrandomisierte kontrollierte Studie Schwindel und Schwindel gehören zu den häufigsten Symptomen in der Medizin und haben oft einen großen Einfluss auf die Aktivitäten des täglichen Lebens. Obwohl viele Ursachen für Schwindel und Schwindel leicht zu erkennen sind, erhalten Patienten oft eine unangemessene und unwirksame Behandlung. Die Gründe dafür sind vielfältig. Da Schwindel ein interdisziplinäres Symptom ist und es an standardisierten Diagnoseinstrumenten fehlt, verliert man leicht den Überblick über mögliche Differenzialdiagnosen. Es gibt jedoch Hinweise darauf, dass das Management von Patienten mit Schwindel/Schwindel durch standardisierte Behandlungspfade mit digitaler Unterstützung optimiert werden kann. Die vorliegende Studie (im Rahmen von „PoiSe – Prävention, Online-Feedback und interdisziplinäre Therapie akuter vestibulärer Syndrome durch E-Health“) hat zum Ziel, die Umsetzung eines Programms mit mehreren ineinandergreifenden Komponenten zu evaluieren. Die drei Hauptkomponenten sind ein computergestütztes klinisches Entscheidungssystem, eine mobile Anwendung, ein Beratungs- und interdisziplinäres Bildungsprogramm, das vom Deutschen Zentrum für Schwindel und Gleichgewichtsstörungen (DSGZ) entwickelt wurde. Die Studie ist eine clusterrandomisierte kontrollierte Studie mit Parallelgruppendesign sowie einer detaillierten Prozessbewertung. Cluster umfassen Hausarztpraxen in Bayern, Deutschland. Im Rahmen der Studie werden Effektivität, Akzeptanz und Effizienz der Intervention evaluiert. Es wird erwartet, dass die Intervention die Qualität und Effizienz der Behandlung von Schwindelpatienten verbessern wird. Eine höhere diagnostische Genauigkeit, optimierte Behandlung und Überwachung des Krankheitsverlaufs sollen die patientenrelevanten Ergebnisse verbessern und die Gesundheitskosten senken.;-;-;-;https://link.springer.com/article/10.1007/s00415-020-10078-0 0226c7948a4ff6472d987d95bad2388f;de;;;6.2.;;;„Bei LAM stecken bleiben“: Patientenperspektiven zum Leben mit Lymphangioleiomyomatose Die Lymphangioleiomyomatose (LAM) ist eine seltene, fortschreitende Lungenerkrankung, die fast ausschließlich Frauen betrifft und am häufigsten vor der Menopause diagnostiziert wird. Das Hauptsymptom von LAM ist Kurzatmigkeit. Die Wahrnehmung von LAM-Patienten darüber, wie sich die Krankheit auf ihr Leben auswirkt, ist weitgehend unbekannt, aber solche Informationen könnten nützlich sein, um von Patienten berichtete Ergebnismaße für die Verwendung in Arzneimittelstudien (oder anderen Forschungsstudien) zu erstellen und Interventionen zu formulieren, die darauf abzielen, die Belastungen zu verringern, die LAM auferlegt Patienten.;-;-;-;https://link.springer.com/article/10.1186/1477-7525-12-79 3ed6414e6edd3178139bdbab02f4619e;de;;;6.2.;;;Neuartige Anwendung von Trisiloxan reduziert Spinnmilben- und Blattlausbefall von Fruchtsträuchern und Baumkulturen Die Anwendung von Pestiziden führt zu einer Kontamination der natürlichen Umwelt, was die Notwendigkeit nach sich zieht, Lösungen zu suchen, die Substanzen verwenden, die keine ökologischen Gefahren darstellen. In den vorgestellten Untersuchungen wurde die Wirksamkeit eines Präparats mit organisch modifiziertem Trisiloxan und einem Vernetzungsmittel (Siltac EC) zur Begrenzung der Zahl der Zweifleckigen Spinnmilbe (;-;-;-;https://link.springer.com/article/10.1007/s12633-019-00239-w e40bf4b69ca0dca95fb4f1636a9bea06;de;;;6.2.;;;Überleben und Verbreitung einer definierten Kohorte irischer Rinder Ein Verständnis der Tierbewegungen ist entscheidend für eine wirksame Prävention, Kontrolle und Vorhersage von Krankheiten. Die Tierbewegungen in Irland wurden jedoch noch nicht quantifiziert. In dieser Studie wurde versucht, das Überleben und die Verbreitung einer bestimmten Kohorte von Rindern zu definieren, die im Jahr 2000 in Co. Kerry geboren wurden. Die Kohorte wurde maximal vier Jahre lang beobachtet, vom 1. Januar 2000 bis 31. Dezember 2004. Rinder und Milchtiere bewegte sich im Durchschnitt 1,31- bzw. 0,83-mal. Am Ende der Studie blieben 18,8 % der Rinder in irischen Betrieben am Leben, davon 6,7 % im Geburtsbetrieb, verglichen mit 48,6 % bzw. 27,7 % bei Milchtieren. Rinder wurden in alle irischen Grafschaften verstreut, hauptsächlich jedoch nach Cork, Limerick, Tipperary und Galway. Milchtiere zogen hauptsächlich nach Cork, Limerick und Tipperary, weniger Tiere gingen nach Galway, Meath und Kilkenny. Die Vier-Jahres-Überlebenswahrscheinlichkeit betrug 0,07 (männliche Rinder), 0,25 (männliche Milch), 0,38 (weibliche Rinder) und 0,72 (weibliche Milch). Obwohl es eine beträchtliche Streuung gab, war die Anzahl der Bewegungen pro Tier geringer als erwartet.;-;-;-;https://link.springer.com/article/10.1186/2046-0481-62-1-44 7a298d8a09318c34c58aa686a355882e;de;;;6.2.;;;Die HSCT-Einheit >HSCT ist ein fortschrittlicher therapeutischer Eingriff, der bei einer Reihe von malignen und nichtmalignen Erkrankungen, häufig bei kritisch kranken Patienten, erforderlich ist. Die Einrichtung eines HSCT-Programms erfordert die Bemühungen von erfahrenem und entsprechend geschultem Personal, das das Programm leitet. Dies erfordert natürlich auch finanzielle, rechtliche, ethische und andere institutionelle Unterstützung. Bei neu startenden Programmen wäre es wichtig, Mindestanforderungen für die Einrichtung einer HSCT-Einheit zu identifizieren, um die Ressourcennutzung zu optimieren und eine sichere Patientenversorgung aufrechtzuerhalten. Während diese Mindestanforderungen auch für etablierte Einheiten gelten, hilft ihre Struktur, zusätzliche Schritte für größere Einheiten zu verstehen und umzusetzen, die planen, zusätzliche Transplantationsdienste anzubieten und Zugang zu mehr Ressourcen zu haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-02278-5_4 399440f6b3fcca648e75de80ac27a18e;de;;;6.2.;;;Wirksamkeit eines auf kognitiver Verhaltenstherapie basierenden Rehabilitationsprogramms (Progressive Goal Attainment Program) für Patienten, die aufgrund von Rückenschmerzen arbeitsunfähig sind: Studienprotokoll für eine multizentrische randomisierte kontrollierte Studie Psychologisch fundierte Rehabilitationsprogramme wie das Progressive Goal Attainment Program (PGAP) haben das Potenzial, schmerzbedingte Behinderungen anzugehen, indem sie auf bekannte psychologische Faktoren abzielen, die den Rehabilitationsfortschritt hemmen. Es existieren jedoch keine randomisierten kontrollierten Studien zu dieser Intervention und sie wurde nicht im Kontext des irischen Gesundheitswesens evaluiert. Unser Ziel war es, die klinische Wirksamkeit und Kosteneffizienz des PGAP in einer multizentrischen randomisierten kontrollierten Studie mit Patienten zu untersuchen, die aufgrund von Rückenschmerzen arbeitsunfähig sind.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-14-290 0d3dfb6b2df4d27aaf2b1e498d15779b;de;;;6.2.;;;Die Wirksamkeit und Sicherheit der Pflaumenblüten-Nadeltherapie beim Tourette-Syndrom: Studienprotokoll für eine randomisierte kontrollierte Studie Frühere Studien haben gezeigt, dass Akupunktur die Symptome des Tourette-Syndroms (TS) lindern kann, aber die Beweise sind unzureichend. Bisher gab es keine Berichte über die Pflaumenblüten-Nadeltherapie bei TS. Hier präsentieren wir ein Protokoll für eine randomisierte kontrollierte Studie mit Pflaumenblüten-Nadeltherapie zur Behandlung von TS.;-;-;-;https://link.springer.com/article/10.1186/s13063-015-0873-0 edd97fcbc6469e2fcd0b847f55b722e3;de;;;6.2.;;;Eine evidenzbasierte Querschnittsüberprüfung von Werbebroschüren für Arzneimittel und deren zugrunde liegenden Studien: Ist das, was sie uns sagen, wichtig und wahr? Eine wichtige Marketingmethode, die von Pharmaunternehmen verwendet wird, ist das Direktmarketing an den Arzt. Bei dieser Form des Marketings werden häufig Werbebroschüren verwendet, die auf klinischer Forschung basieren und die die Verschreibung von Medikamenten durch einen Arzt beeinflussen können. Ziel dieser Studie war es zu untersuchen, ob die Informationen in Werbebroschüren, die Ärzten von Pharmavertretern vorgelegt werden, in Bezug auf die tatsächlichen Studien, auf denen die Werbebroschüren basieren, korrekt, konsistent und gültig sind.;-;-;-;https://link.springer.com/article/10.1186/1471-2296-7-13 af79c6fe5d97593381c4521db52843be;de;;;6.2.;;;Privacy-by-Design in Big Data Analytics und Social Mining Der Datenschutz ist in unserer Gesellschaft ein ständig wachsendes Anliegen und wird zu einem grundlegenden Aspekt, der berücksichtigt werden muss, wenn man Daten verwenden, veröffentlichen und analysieren möchte, die persönliche sensible Informationen enthalten. Leider wird es immer schwieriger, die Daten so zu transformieren, dass sie sensible Informationen schützen: Wir leben im Zeitalter von Big Data, das durch beispiellose Möglichkeiten gekennzeichnet ist, soziale Daten zu erfassen, zu speichern und zu analysieren, die menschliche Aktivitäten in großer Detailgenauigkeit und Auflösung beschreiben. Infolgedessen kann die Wahrung der Privatsphäre einfach nicht durch Anonymisierung allein erreicht werden. In diesem Beitrag schlagen wir die;-;-;-;https://link.springer.com/article/10.1140/epjds/s13688-014-0010-4 aa6b2735e6f82ac9cebfeb92e1580386;de;;;6.2.;;;Ein hierarchisches Pachinko-Allokationsmodell für Social Sentiment Mining Bestehende Themenmodelle zum Mining von Stimmungen aus Artikeln ignorieren oft die Tatsache, dass intratopische Korrelationen üblich und nützlich sind, um eine große Anzahl feinkörniger und eng kohärenter Themen aufzudecken. Dieser Beitrag beschäftigt sich mit dem Problem des Social Sentiment Mining durch die Modellierung von Themenzusammenhängen. Unser Ziel ist es, nicht nur die Verbindungen zwischen Gefühlen und Themen zu entdecken, sondern auch die tiefere Beziehung zwischen Themen aufzudecken, bei denen einige Themen häufiger in Artikeln vorkommen als andere. Genauer gesagt verbinden wir Sentiment Mining mit;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25159-2_27 cc8996a580692e2498eaf8f3bfd0ee3a;de;;;6.2.;;;HBIM in der Erhaltung des Kulturerbes: Komponentenbibliothek für Holzarbeiten in historischen Gebäuden in Taiwan Ziel dieser Studie ist es, einen Anwendungsrahmen von HBIM für historische Gebäude in Taiwan vorzuschlagen, wobei der Schwerpunkt auf der Definition der Komponenten historischer Gebäude, der Komponentenattribute und der Beziehung zwischen den Komponenten und Restaurierungsdaten liegt. Die Informationen werden dann in eine Datenbank importiert und in einem visualisierten Modell dargestellt. Zu den untersuchten Themen gehören die Definition von Komponenten und der Prozess der Erstellung einer Komponentenbibliothek für historische Gebäude mit Schwerpunkt auf traditioneller Holzverarbeitung. Die Fallstudie befindet sich auf der Huangxi Academy. Für die Generierung der Bauteilbibliothek müssen Vorschriften zur Definition von Bauteilen historischer Gebäude aufgestellt und die Bauteiltypen kategorisiert werden. Die Struktur der Huangxi Academy ist in 5 Bereiche mit einzelnen Elementen unterteilt und die Komponenten werden in eine der drei Kategorien Familienkomponente mit Parametern, Familienkomponente ohne Parameter und benutzerdefinierte Komponente eingeteilt. Darüber hinaus wird für dieses Projekt das Modell LOD 300 vorgeschlagen, um grundlegende visuelle Effekte für jede Komponente mit Daten zur Renovierung zu erstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-01762-0_32 155dac662c21025b782ebab05a570009;de;;;6.2.;;;Untersuchung, ob Tag und Uhrzeit der Aufnahme mit der durchschnittlichen Verweildauer von stationären Patienten eines tertiären Krankenhauses in Singapur zusammenhängen: eine analytische Studie auf der Grundlage von Routineaufnahmedaten Es wurde postuliert, dass es bei Patienten, die am Wochenende oder außerhalb der Sprechzeiten aufgenommen werden, zu Verzögerungen im klinischen Management und folglich zu einer längeren Aufenthaltsdauer (LOS) kommen kann. Wir untersuchten im Tan Tock Seng Hospital (TTSH), einem 1.400-Betten-Akutkrankenhaus für die zentralen und nördlichen Regionen Singapurs, ob Tag und Uhrzeit der Aufnahme mit LOS in Verbindung stehen.;-;-;-;https://link.springer.com/article/10.1186/1472-6963-6-6 3b0bc4b79dd75f9e1810e17e01103d42;de;;;6.2.;;;Thrombus-Aspiration bei Thrombus-enthaltenden culpRiT-Läsionen bei Myokardinfarkt ohne ST-Hebung (TATORT-NSTEMI): Studienprotokoll für eine randomisierte kontrollierte Studie Aktuelle Leitlinien empfehlen eine Thrombuspunktion bei Patienten mit ST-Hebungsinfarkt (STEMI), jedoch liegen keine ausreichenden Daten vor, um eine Thrombektomie bei Patienten mit Nicht-STEMI (NSTEMI) eindeutig zu unterstützen.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-14-110 267896bfcbdd26fcd882cc2a4dd0a4f5;de;;;6.2.;;;Jüngste Entwicklungen im Biofeedback für die neuromotorische Rehabilitation Die ursprüngliche Anwendung von Biofeedback zum Trainieren einzelner Muskelaktivitäten in statischen Positionen oder Bewegungen ohne Bezug zur Funktion korrelierte nicht gut mit Verbesserungen der motorischen Funktionen bei Patienten mit Verletzungen des zentralen Nervensystems. Das Konzept des aufgabenorientierten repetitiven Trainings legt nahe, dass die Biofeedback-Therapie während der funktionsbezogenen dynamischen Bewegung durchgeführt werden sollte, um die Verbesserung der motorischen Funktion zu optimieren. Aktuelle, fortschrittliche Technologien erleichtern das Design neuartiger Biofeedback-Systeme, die verschiedene Parameter, eine fortschrittliche Cue-Anzeige und ausgeklügelte Kontrollsysteme für den Einsatz im aufgabenorientierten Biofeedback aufweisen. Im Lichte dieser Fortschritte gibt dieser Artikel: (1) einen Überblick über frühe Biofeedback-Studien und ihre Schlussfolgerungen, (2) stellt aktuelle Entwicklungen in Biofeedback-Technologien und ihre Anwendungen für aufgabenorientierte Biofeedback-Interventionen vor und (3) diskutiert Überlegungen zum therapeutischen Systemdesign und die klinische Anwendung der aufgabenorientierten Biofeedback-Therapie. Diese Übersichtsarbeit soll einen Rahmen bieten, um die Anwendung der aufgabenorientierten Biofeedback-Therapie in der neuromotorischen Rehabilitation weiter auszudehnen.;-;-;-;https://link.springer.com/article/10.1186/1743-0003-3-11 72922df6025304b6369bab0db959e4d6;de;;;6.2.;;;Die psychische Bereitschaft steht im Zusammenhang mit der Rückkehr zum Sport nach einer Hüftarthroskopie und kann anhand der Hip-Return to Sport after Injury Scale (Hip-RSI) beurteilt werden Die psychologische Bereitschaft kann eine wichtige Rolle im Prozess der Rückkehr zum Sport (RTS) nach Hüftarthroskopie (HA) spielen, aber es gibt nur begrenzte Instrumente zur Messung dieses Konstrukts. Das Ziel dieser Studie war es, die schwedische Version der Skala für das Anterior Cruciate Ligament-Return to Sport after Injury (ACL-RSI) für den Einsatz bei HA-Patienten zu modifizieren und ihre psychometrischen Eigenschaften zu bewerten.;-;-;-;https://link.springer.com/article/10.1007/s00167-020-06157-4 df83489727cd8974e8975d254bcafb9b;de;;;6.2.;;;Veränderungen in der Transfusions- und Flüssigkeitstherapiepraxis bei schwerverletzten Kindern: eine Analyse von 5118 Kindern aus dem TraumaRegister DGU® Traumata sind die häufigste Todesursache bei Kindern. Bei Erwachsenen änderten sich die Protokolle für Bluttransfusionen und Flüssigkeitsreanimation, was zu einem Rückgang der Morbidität und Mortalität in den letzten 2 Jahrzehnten führte. Hier wurden Transfusions- und Flüssigkeitsreanimationspraktiken bei schwerverletzten Kindern in Deutschland analysiert.;-;-;-;https://link.springer.com/article/10.1007/s00068-020-01423-z 15b38b7be30e14fab070f51cfd131d81;de;;;6.2.;;;Ausbau der familienmedizinischen Ausbildung in Gezira, Sudan – ein 2-jähriges berufsbegleitendes Masterprogramm unter Einsatz moderner Informations- und Kommunikationstechnologie: eine Umfragestudie Im Jahr 2010 wurde das Gezira Family Medicine Project (GFMP) im sudanesischen Bundesstaat Gezira initiiert, das als berufsbegleitendes Ausbildungsmodell konzipiert ist. Das Projekt ist ein Kooperationsprojekt zwischen der Universität Gezira, die einen 2-jährigen Masterstudiengang in Familienmedizin für praktizierende Ärzte anbieten will, und dem Gesundheitsministerium, das die Leistungserbringung erleichtert und das Ausbildungsprogramm finanziert. In diesem Beitrag werden das Programm, die Lehrumgebung und die ersten eingeschriebenen Kandidaten vorgestellt.;-;-;-;https://link.springer.com/article/10.1186/1478-4491-12-3 2907daa85d935ced18ff35e9a3ea43d2;de;;;6.2.;;;Die PSO-Familie: Deduktion, stochastische Analyse und Vergleich Der PSO-Algorithmus kann physikalisch als stochastisch gedämpftes Masse-Feder-System interpretiert werden: das sogenannte kontinuierliche PSO-Modell. Darüber hinaus entspricht PSO einer besonderen Diskretisierung des kontinuierlichen PSO-Modells. In diesem Artikel stellen wir eine verzögerte Version des kontinuierlichen PSO-Modells vor, bei der der Anziehungspunkt in Bezug auf die Partikelflugbahnen verzögert sein könnte. Basierend auf dieser mechanischen Analogie leiten wir eine Familie von PSO-Versionen ab. Für jedes Mitglied dieser Familie leiten wir die Stabilitätsbereiche erster und zweiter Ordnung und den entsprechenden Spektralradius ab. Erwartungsgemäß nähern sich die Algorithmen der PSO-Familie dem kontinuierlichen PSO-Modell (Damped-Mass-Feder-System) an, wenn die Größe des Zeitschritts gegen Null geht. Alle Familienmitglieder sind linear isomorph, wenn sie unter Verwendung desselben Verzögerungsparameters abgeleitet werden. Wenn der Verzögerungsparameter unterschiedlich ist, haben die Algorithmen entsprechende Stabilitätsbereiche beliebiger Ordnung, unterscheiden sich jedoch in ihren jeweiligen Krafttermen. Alle PSO-Versionen arbeiten ziemlich gut in einem sehr breiten Bereich des Parameterraums (Trägheitsgewicht und lokale und globale Beschleunigungen), der nahe der Grenze der Stabilitätsregionen zweiter Ordnung und auch der Mittellinien der Stabilitätsregionen erster Ordnung liegt, wobei keine zeitliche Korrelation zwischen Trajektorien existiert. Darüber hinaus sind diese Regionen für verschiedene Benchmark-Funktionen ziemlich ähnlich. Wenn die Anzahl der Parameter der Kostenfunktion zunimmt, bewegen sich diese Bereiche zu höheren Trägheitsgewichtungswerten (;-;-;-;https://link.springer.com/article/10.1007/s11721-009-0034-8 1753790f9cfce815578914bc3db1ad8f;de;;;6.2.;;;Fragen, die in randomisierten kontrollierten Pilot- und Machbarkeitsstudien gestellt und beantwortet wurden answered In den letzten zehn Jahren haben mehrere Autoren die Merkmale von Pilot- und Machbarkeitsstudien überprüft und zu den Themen beraten, die darin behandelt werden sollten. Wir erweitern diese Literatur, indem wir veröffentlichte Pilot-/Machbarkeitsstudien untersuchen, die eine zufällige Zuteilung beinhalten, ihre erklärten Ziele, präsentierten Ergebnisse und gezogenen Schlussfolgerungen untersuchen und medikamentöse und nicht-medikamentöse Studien vergleichen.;-;-;-;https://link.springer.com/article/10.1186/1471-2288-11-117 0203d4bb266c0a37ed5041aaf1501b91;de;;;6.2.;;;Identifizierung von Vorfällen von Mund- und Rachenkrebs mithilfe von Medicare-Ansprüchen Baseline- und Trenddaten zur Inzidenz von Mund- und Rachenkrebs sind begrenzt. Ein neuer Algorithmus wurde unter Verwendung der verknüpften Datenbank Surveillance, Epidemiology, and End Results (SEER)-Medicare abgeleitet, um einen Algorithmus zur Identifizierung von Vorfällen von Mund- und Rachenkrebs anhand von Medicare-Ansprüchen zu erstellen.;-;-;-;https://link.springer.com/article/10.1186/1472-6831-13-1 a682c3ef578ded427e6a737b9f8e5420;de;;;6.2.;;;Streben nach Konsistenz in der National Wetland Condition Assessment: Entwicklung eines Referenzzustandsansatzes zur Bewertung von Feuchtgebieten auf kontinentaler Ebene Eine der größten Herausforderungen bei der Durchführung einer kontinentalen Bewertung von Feuchtgebieten besteht darin, angemessene Erwartungen an die bewerteten Gebiete zu setzen. Die Herausforderung besteht aus zwei Gründen: (1) innerhalb einer kontinentalen Landschaft besteht eine enorme natürliche Umweltheterogenität und (2) die Qualität der Referenzstandorte variiert sowohl innerhalb als auch innerhalb wichtiger Regionen des Kontinents. Wir beschreiben den Prozess, der verwendet wird, um Referenzerwartungen festzulegen und einen Störungsgradienten für die National Wetland Condition Assessment (NWCA) der US-Umweltschutzbehörde zu definieren. Die NWCA verwendete ein Wahrscheinlichkeitsdesign und beprobte 1138 Feuchtgebietsstandorte in den angrenzenden USA, um eine unvoreingenommene Bewertung des Feuchtgebietszustands vorzunehmen. NWCA-Vegetationsdaten wurden verwendet, um 10 Berichtsgruppen basierend auf Ökoregion und Feuchtgebietstyp zu definieren, die die natürlich vorkommende Variation der Feuchtgebietsvegetation in Verbindung mit kontinentweiten Unterschieden in der Biogeographie reduzierten. Diese Berichtsgruppen dienten als Grundlage für die Definition quantitativer Kriterien für den am wenigsten gestörten und den am meisten gestörten Zustand und die Entwicklung von Indizes und Schwellenwerten für Kategorien des ökologischen Zustands und der Störung. Die NWCA-Vegetationsbewertung basierte auf einem Referenzstandortansatz, bei dem die am wenigsten gestörten Referenzstandorte verwendet wurden, um Benchmarks für die Bewertung des Vegetationszustands an anderen Standorten festzulegen. Referenzstandorte für jede Meldegruppe wurden durch Filtern der NWCA-Probendaten auf Störungen anhand einer Reihe abiotischer Variablen identifiziert. Letztendlich wurden 277 am wenigsten gestörte Standorte verwendet, um Referenzerwartungen für die NWCA festzulegen. Die NWCA bot eine einzigartige Gelegenheit, unser konzeptionelles und technisches Verständnis für die beste Anwendung eines Referenzzustandsansatzes zur Bewertung von Feuchtgebieten in den USA zu verbessern. Diese Ergebnisse werden die technische Qualität künftiger nationaler Bewertungen verbessern.;-;-;-;https://link.springer.com/article/10.1007/s10661-019-7325-3 ba09c50018da7360900f59521d22acd9;de;;;6.2.;;;Siphons in chemischen Reaktionsnetzwerken Siphons in einem chemischen Reaktionssystem sind Teilmengen der Spezies, die das Potenzial haben, in einem stationären Zustand abwesend zu sein. Wir präsentieren eine Charakterisierung minimaler Siphons im Hinblick auf die primäre Zerlegung binomialer Ideale, wir untersuchen die zugrunde liegende Geometrie und demonstrieren die effektive Berechnung von Siphons mit Computeralgebra-Software. Dies führt zu einer neuen Methode zur Bestimmung, ob gegebene Anfangskonzentrationen verschiedene stationäre Grenzzustände zulassen.;-;-;-;https://link.springer.com/article/10.1007/s11538-010-9502-y 99eec48f84e95b8f126731d2008d1687;de;;;6.2.;;;Normminimale Neumann-Randkontrolle der Wellengleichung Wir betrachten das Problem, eine schwingende Saite so zu steuern, dass sie in einer bestimmten endlichen Zeit ruht. Die Saite wird an einem Ende fixiert und am anderen Ende durch Neumann-Grenzkontrolle gesteuert. Wir geben eine explizite Darstellung der;-;-;-;https://link.springer.com/article/10.1007/s40065-014-0110-9 b4eb31aae2f48d8e326cf8a76d604eb5;de;;;6.2.;;;Einhaltung klinischer Leitlinien bei der Integration psychischer Gesundheitsdienste in die medizinische Grundversorgung in Mbarara, Südwest-Uganda: eine Überprüfung der Krankenakten Das ugandische Gesundheitsministerium hat die psychische Gesundheitsversorgung auf Distriktebene dezentralisiert, die Uganda Clinical Guidelines (UCG) entwickelt und Anbieter der primären Gesundheitsversorgung (PHC) in der Identifizierung, Behandlung und Überweisung von Personen mit häufigen psychischen Störungen geschult. Damit sollte die Integration von psychiatrischen Diensten in die PHC des Landes gefördert werden. „Häufige psychische Störungen“ bezieht sich hier auf psychische, neurologische und Substanzgebrauchszustände, wie im UCG angegeben. Das Ausmaß der Integration der psychischen Gesundheit in die allgemeine Gesundheitsversorgung bleibt jedoch unbekannt. Diese Studie zielte darauf ab, den Grad der Einhaltung der UCG von PHC-Anbietern bei der Identifizierung und Behandlung von psychischen Störungen zu ermitteln.;-;-;-;https://link.springer.com/article/10.1186/s13033-021-00488-6 d88698f6f38b0bf5f811e42f2911b400;de;;;6.2.;;;Förderung der integrierten Versorgung bei Prostatakrebs durch eine Online-Prostatakrebs-spezifische ganzheitliche Bedarfsanalyse: eine Machbarkeitsstudie in der Primärversorgung Diese Studie bewertete die Machbarkeit der Implementierung eines neuartigen Modells der integrierten Prostatakrebsversorgung, das eine Online-Prostatakrebs-spezifische ganzheitliche Bedarfsanalyse (sHNA) und eine gemeinsame digitale Kommunikation zwischen Patienten und ihren medizinischen Fachkräften (HCPs) umfasst. Die sHNA erstellt einen halbautomatischen Pflegeplan, der in Absprache zwischen Patient und Praxisschwester finalisiert wird.;-;-;-;https://link.springer.com/article/10.1007/s00520-019-04967-y 6a5841597968d15dc1d30ec93fc0ab65;de;;;6.2.;;;Eine Cover-Technik zur Überprüfung der Zuverlässigkeit eines Modells zur Berechnung von Fuzzy-Wahrscheinlichkeiten Viele Modelle wurden vorgeschlagen, um Fuzzy-Wahrscheinlichkeiten in der Risikoanalyse zu berechnen. Im Allgemeinen wird die Zuverlässigkeit eines Modells durch praktische Effekte demonstriert oder theoretisch bewiesen. In diesem Artikel schlagen wir einen neuen Ansatz namens Cover-Technik vor, um die Zuverlässigkeit des Modells zu überprüfen. Die Technik basiert auf einer Hypothese, dass ein statistisches Ergebnis eine Fuzzy-Wahrscheinlichkeit näherungsweise als eine Fuzzy-Mengen-bewertete Wahrscheinlichkeit bestätigen kann. Eine Überdeckung wird durch viele Biwahrscheinlichkeitsverteilungen konstruiert. Der Konsistenzgrad einer Überdeckung und einer Fuzzy-Wahrscheinlichkeitsverteilung wird verwendet, um die Zuverlässigkeit eines Modells zu überprüfen. Wir präsentieren einen Fall, der zeigt, wie man eine Verteilungsdeckung konstruiert und den Konsistenzgrad der Deckung und eine Möglichkeits-Wahrscheinlichkeits-Verteilung berechnet. Eine Reihe numerischer Experimente mit Zufallsstichproben aus einer Normalverteilung verifizieren die Zuverlässigkeit des Innen-Außen-Mengen-Modells.;-;-;-;https://link.springer.com/article/10.1007/s13753-011-0011-x f19d105e663723b076de95724c8f7931;de;;;6.2.;;;Die nationale Feuchtgebietszustandsbewertung 2011: Überblick und Einladung Die erste National Wetland Condition Assessment (NWCA) wurde 2011 von der US-Umweltschutzbehörde USEPA und ihren Partnern auf Bundes- und Landesebene durchgeführt, wobei ein Umfragedesign verwendet wurde, das Rückschlüsse auf die Ergebnisse auf nationaler und regionaler Skala zuließ. Vegetation, Algen, Boden, Wasserchemie und hydrologische Daten wurden an jedem der 1138 Standorte in den angrenzenden Vereinigten Staaten (USA) gesammelt. Der ökologische Zustand wurde in Bezug auf einen Störungsgradienten bewertet, der durch am wenigsten gestörte (Referenz) und am stärksten gestörte Standorte verankert wurde, die anhand chemischer, physikalischer und biologischer Störungsindizes auf der Grundlage von Daten auf Standortebene identifiziert wurden. Als Zustandsindikator wurde ein Vegetationsmultimetrischer Index (VMMI) entwickelt, der vier Metriken umfasste: einen floristischen Qualitätsbewertungsindex, die relative Bedeutung einheimischer Pflanzen, die Anzahl der störungstoleranten Pflanzenarten und die relative Bedeckung der einheimischen Monokotyledonen. Potenzielle Stressoren für den Zustand von Feuchtgebieten wurden identifiziert und in zwei Indikatoren für Vegetationsveränderungen, vier Indikatoren für hydrologische Veränderungen, einen Bodenschwermetallindex und einen nicht-nativen Pflanzenindikator integriert und zur Quantifizierung des nationalen und regionalen Stressorausmaßes und der damit verbundenen relativen und zurechenbaren Risiko. Etwa 48 ± 6 % der nationalen Feuchtgebietsfläche befanden sich in gutem Zustand und 32 ± 6 % in schlechtem Zustand, wie vom VMMI definiert. In den angrenzenden USA wiesen etwa 20 % der Feuchtgebietsfläche hohe oder sehr hohe Stressfaktoren im Zusammenhang mit nicht einheimischen Pflanzen auf. Stressfaktoren für Vegetationsentfernung, Verhärtung und Grabenbildung hatten die größte Ausdehnung des Feuchtgebiets mit hohem Stressorniveau und betrafen 23–27 % der Feuchtgebietsfläche in der NWCA-Stichprobenpopulation. Die Ergebnisse der NWCA 2016 werden auf denen der Bewertung von 2011 aufbauen und die Möglichkeit eröffnen, neben dem Status auch über Trends zu berichten. Die von der NWCA erstellten Daten und Werkzeuge können von anderen verwendet werden, um unser Wissen über Feuchtgebiete in den angrenzenden USA zu erweitern.;-;-;-;https://link.springer.com/article/10.1007/s10661-019-7316-4 fed78c01596d07a68862bf94250bc2d2;de;;;6.2.;;;Leistungsbewusste, vertrauensbasierte Zugriffskontrolle zum Schutz sensibler Attribute Der vorherrschende Trend der nahtlosen digitalen Sammlung hat nicht nur in der Wissenschaft, sondern auch bei der Mehrheit zu Bedenken hinsichtlich des Datenschutzes geführt. Bei der Durchsetzung der Automatisierung von Datenschutzrichtlinien und -gesetzen war die Zugangskontrolle eines der am meisten engagierten Themen. Trotz der jüngsten Fortschritte bei Zugangskontroll-Frameworks und -Modellen gibt es immer noch Probleme, die die Entwicklung einer effektiven Zugangskontrolle behindern. Dazu gehören die mangelnde Granularität der Bewertung bei der Benutzerautorisierung und das Vertrauen auf identitäts-, rollen- oder zweckbasierte Zugriffskontrollsysteme. In diesem Papier behandeln wir das Problem des Schutzes sensibler Attribute vor unangemessenem Zugriff. Wir schlagen einen Zugriffskontrollmechanismus vor, der zwei Vertrauensmetriken verwendet, nämlich Erfahrung und Verhalten. Wir schlagen auch ein Schema zur Quantifizierung dieser Metriken in einer Enterprise-Computing-Umgebung vor. Schließlich zeigen wir, dass diese Metriken nützlich sind, um die Bewertungsgranularität zu verbessern, indem Benutzern der Zugriff auf sensible Attribute ermöglicht oder verweigert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-51281-5_56 9b6c1eb19d09249afcc2481e5de961de;de;;;6.2.;;;Online-Planung von Jobs mit begrenzter Länge zur Maximierung des Durchsatzes Wir betrachten ein Online-Scheduling-Problem, das durch die Probleme an den Verbindungsstellen von Netzwerken, die ATM und TCP/IP verwenden, motiviert ist. IP-Pakete müssen nämlich in kleine ATM-Zellen zerlegt und vor Ablauf ihrer Fristen ausgesendet werden, aber Zellen, die verschiedenen Paketen entsprechen, können verwoben werden. Formal betrachten wir das Problem der Online-Planung mit Präemptionen, bei denen jeder Job;-;-;-;https://link.springer.com/article/10.1007/s10951-011-0233-1 3a9e3f800d9b6526bcf3e84659db5f29;de;;;6.2.;;;Berechnung von Knoten durch quadratische und kubische Polynomkurven Es wird eine neue Methode vorgestellt, um Parameterwerte (Knoten) für Datenpunkte zur Kurven- und Flächenerzeugung zu bestimmen. Bei vier benachbarten Datenpunkten kann eine quadratische Polynomkurve eindeutig bestimmt werden, wenn die vier Punkte ein konvexes Polygon bilden. Wenn die vier Datenpunkte kein konvexes Polygon bilden, wird eine kubische Polynomkurve mit einem Freiheitsgrad verwendet, um die vier Punkte zu interpolieren, so dass der Interpolant eine bessere Form hat und das durch die vier Datenpunkte gebildete Polygon angenähert wird. Der Freiheitsgrad wird durch Minimieren des kubischen Koeffizienten der kubischen Polynomkurve bestimmt. Die Vorteile des neuen Verfahrens sind erstens, dass die berechneten Knoten eine quadratische polynomiale Genauigkeit haben, d.h. wenn die Datenpunkte von einer quadratischen Polynomkurve abgetastet werden und die Knoten zur Konstruktion eines quadratischen Polynoms verwendet werden, reproduziert es die ursprüngliche quadratische Kurve. Zweitens ist die neue Methode affin invariant, was von Bedeutung ist, da die meisten Parametrisierungsmethoden diese Eigenschaft nicht haben. Drittens berechnet es Knoten unter Verwendung einer lokalen Methode. Experimente zeigen, dass Kurven, die unter Verwendung von mit dem neuen Verfahren berechneten Knoten konstruiert wurden, eine bessere Interpolationsgenauigkeit aufweisen als für bestehende Verfahren.;-;-;-;https://link.springer.com/article/10.1007/s41095-020-0186-4 a569da0e275d0d44047252c1a2cdf165;de;;;6.2.;;;Redheffer-Darstellungen und entspanntes Kommutant-Lifting Es ist bekannt, dass die Lösungen eines (entspannten) Kommutanten-Lifting-Problems durch eine lineare Bruchdarstellung des Redheffer-Typs beschrieben werden können. Die Koeffizienten solcher Redheffer-Darstellungen sind analytische Operator-wertige Funktionen, die auf der Einheitsscheibe definiert sind;-;-;-;https://link.springer.com/article/10.1007/s11785-010-0046-9 1177cec06e734d1ba5551cc9f83dbb06;de;;;6.2.;;;Phänomene in inversen Stackelberg-Spielen, Teil 2: Dynamische Probleme Betrachtet werden dynamische Zweipersonenspiele, bei denen die Rollen der Spieler hierarchisch sind. Ein Spieler verhält sich als Anführer, der andere als Gefolgsmann. Solche Spiele sind nach Stackelberg benannt. In der vorliegenden Arbeit wird eine besondere Art solcher Spiele betrachtet, die in der Literatur als inverse Stackelberg-Spiele bekannt sind. In solchen Spielen verkündet der Anführer seine Strategie als Abbildung vom Entscheidungsraum des Gefolgsmanns in seinen eigenen Entscheidungsraum. Es werden Argumente für die Untersuchung solcher Probleme gegeben. Dieser Beitrag beschäftigt sich speziell mit dynamischen Spielen, d. h. das zugrundeliegende Modell wird durch eine gewöhnliche Differentialgleichung beschrieben. Die Entscheidungen beider Spieler haben eine Zeitkomponente. Wie im statischen Fall ist die routinemäßige Analyse, die zum Studium zusammengesetzter Funktionen führt, nicht sehr fruchtbar. Andere Ansätze werden vorgestellt, hauptsächlich durch das Studium konkreter Beispiele.;-;-;-;https://link.springer.com/article/10.1007/s10957-009-9572-x be76ade8c0c422b977d71a3cfc2ecb82;de;;;6.2.;;;Tools der nächsten Generation für die Generierung, Verteilung und Visualisierung genomischer Daten Mit den schnell sinkenden Kosten und der Verfügbarkeit von Hochdurchsatz-Sequenzierungs- und Microarray-Technologien verlagert sich der Engpass für den effektiven Einsatz der Genomanalyse in Labor und Klinik hin zu einer effektiven Verwaltung, Analyse und gemeinsamen Nutzung von Genomdaten.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-11-455 0c9df1fc7e4a1bc66a8d569255ce75fa;de;;;6.2.;;;Fehlertolerante Formationssteuerung von UAVs, die permanenten und intermittierenden Fehlern ausgesetzt sind Das Papier befasst sich mit der Formationskontrolle von unbemannten Luftfahrzeugen (UAVs) bei Vorhandensein von permanenten und intermittierenden Fehlern in jedem UAV. Ein fehlertolerantes Steuerschema (FTC) wird entwickelt, um den permanenten Fehler zu berücksichtigen. Es zeigt ferner, dass für den intermittierenden Fehler die Formationsstabilität unter einigen Bedingungen des Auftretens und Verschwindens von Fehlern aufrechterhalten werden kann, ohne dass irgendeine FTC-Aktion ergriffen werden muss. Simulationsergebnisse zeigen die Effizienz der vorgeschlagenen Methode.;-;-;-;https://link.springer.com/article/10.1007/s10846-013-9951-2 595e17d61380fd50b2d826014e388a02;de;;;6.2.;;;Interprofessionelle Zusammenarbeit und Hindernisse zwischen Gesundheits- und Sozialarbeitern, die sich um ältere Erwachsene kümmern: eine philippinische Fallstudie Es gibt nur begrenzte Informationen darüber, wie die Hindernisse für die interprofessionelle Zusammenarbeit (IPC) zwischen verschiedenen Fachkräften, Organisationen und Pflegeeinrichtungen die Gesundheit und das Wohlergehen älterer Erwachsener beeinflussen. Diese Studie zielte darauf ab, den Status der IPC-Praktiken bei Gesundheits- und Sozialarbeitern, die ältere Erwachsene auf den Philippinen betreuen, zu beschreiben, die wahrgenommenen Hindernisse bei der Umsetzung und die wahrgenommenen Auswirkungen auf die Altenpflege zu untersuchen und mögliche Lösungen zu identifizieren, um die Hindernisse zu überwinden, die die kollaborative Praxis einschränken.;-;-;-;https://link.springer.com/article/10.1186/s12960-021-00568-1 1a86282c5a13e53be52cc36cfbc583bb;de;;;6.2.;;;Versetzungsfokus-Konstruktion auf Chinesisch Die Verwendung der Dislocation Focus Construction (DFC) (auch bekannt als „Right Dislocation“) im umgangssprachlichen Chinesisch (einschließlich Kantonesisch und Mandarin) führt zu verschiedenen nicht-kanonischen Wortstellungen. In DFCs tritt der Satzpartikel (SP) in einer satzmedialen Position auf. Basierend auf vier diagnostischen Tests, nämlich (i) dem;-;-;-;https://link.springer.com/article/10.1007/s10831-009-9046-z a6f4ef4747bc899c480f7aba2a085e6f;de;;;6.2.;;;Telerehabilitation zur Verbesserung der Ergebnisse bei Schlaganfallpatienten: Studienprotokoll für eine randomisierte kontrollierte Studie In Neuseeland leben etwa 45.000 Menschen mit einem Schlaganfall und viele Studien haben gezeigt, dass die Vorteile, die während der Erstrehabilitation erzielt wurden, nicht nachhaltig sind. Es gibt Hinweise darauf, dass die Teilnahme an körperlichen Interventionen den nach der Entlassung aus der Akutversorgung häufig auftretenden Funktionsverlust verhindern kann. Die laufende Bereitstellung von Schlaganfalldiensten nach der Entlassung aus der Akutversorgung hängt jedoch häufig mit nicht-medizinischen Faktoren wie der Verfügbarkeit von Ressourcen und der geografischen Lage zusammen. Derzeit erhalten die meisten Menschen keine Behandlung länger als drei Monate nach einem Schlaganfall. Die Studie zielt darauf ab, festzustellen, ob die Augmented Community Telerehabilitation Intervention (ACTIV) zu einer besseren körperlichen Funktion von Menschen mit Schlaganfall führt als die übliche Versorgung, gemessen anhand der physischen Unterkomponente der Stroke Impact Scale.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-13-233 02e50f1c2d9ee7721307ae340a643ea7;de;;;6.2.;;;Eine Querschnittsstudie zu asymptomatischen Malaria ist eine wichtige Krankheitsursache im Norden Ugandas. Diese Studie wurde durchgeführt, um Risikofaktoren für asymptomatische individual auf Dorf-, Haushalts- und individueller Ebene zu bewerten;-;-;-;https://link.springer.com/article/10.1186/s12936-018-2379-1 47f366a67642983039892e1950bdd43a;de;;;6.2.;;;Adaptive Senderoptimierung in Mehrbenutzer-Mehrantennensystemen: Theoretische Grenzen, Auswirkung von Verzögerungen und Leistungsverbesserungen Die Fortschritte bei programmierbaren und rekonfigurierbaren Funkgeräten haben machbare Senderoptimierungsschemata ermöglicht, die die Leistung von Mehrantennen-Mehrbenutzersystemen stark verbessern können. Rekonfigurierbare Funkplattformen eignen sich besonders zur Umsetzung der Senderoptimierung an der Basisstation. Wir betrachten den Downlink eines drahtlosen Systems mit mehreren Sendeantennen an der Basisstation und einer Anzahl von mobilen Endgeräten (d. h. Benutzern) mit jeweils einer einzigen Empfangsantenne. Unter einer durchschnittlichen Sendeleistungsbeschränkung betrachten wir die maximal erreichbaren Summendatenraten im Fall von (1) Zero-Forcing (ZF) Spatial Prefilter, (2) Modified Zero-Forcing (MZF) Spatial Prefilter und (3) Triangularization Spatial Vorfilter gekoppelt mit Dirty-Paper Coding (DPC) Übertragungsschema. Wir zeigen, dass sich die Triangularisierung mit DPC für höhere SNRs den MIMO-Raten im geschlossenen Regelkreis (obere Grenze) annähert. Außerdem schneidet die MZF-Lösung bei niedrigeren SNRs sehr gut ab, während bei höheren SNRs die Raten der ZF-Lösung an die MZF-Raten konvergieren. Ein wichtiges Hindernis, das die Leistung solcher Senderoptimierungsschemata verschlechtert, ist die Verzögerung der Kanalzustandsinformationen (CSI). Wir charakterisieren die grundlegenden Leistungsgrenzen in Gegenwart von verzögertem CSI und schlagen dann Leistungsverbesserungen unter Verwendung eines linearen MMSE-Prädiktors des CSI vor, der in Verbindung mit der Senderoptimierung in Mehrantennen-Mehrbenutzersystemen verwendet werden kann.;-;-;-;https://link.springer.com/article/10.1155/WCN.2005.298 b5ff478a6be072ee8f2be7b5b6fc21d7;de;;;6.2.;;;Studienprotokoll der Ätiologiestudie des Center for Oral Health Research in Appalachia (COHRA) Die Menschen in den Appalachen haben eine der schlimmsten Mundgesundheit in den Vereinigten Staaten. Um wirksame Interventions- und Präventionsstrategien in den Appalachen zu entwickeln, müssen wir die komplexen Beziehungen zwischen den beitragenden Faktoren und ihren Einfluss auf die Ätiologie oraler Erkrankungen verstehen. Eine derart umfassende Analyse wurde bisher nicht durchgeführt. Dieser Bericht fasst die Merkmale der Stichprobe zusammen und beschreibt das Protokoll einer Studie, in der der Beitrag individueller, familiärer und gemeinschaftlicher Faktoren zu oralen Erkrankungen bei Kindern in Appalachen und ihren Verwandten bestimmt wird.;-;-;-;https://link.springer.com/article/10.1186/1472-6831-8-18 0a48649d6a81d3b93bcdc80284242832;de;;;6.2.;;;Aktuelle Situation und Gegenmaßnahmen zum rechtlichen Schutz der Privatsphäre von Benutzern digitaler Archive in China Um die Datenschutzinteressen der Benutzer digitaler Archive zu schützen und eine solidere soziale Grundlage und einen breiteren Lebensraum für die Entwicklung der Karriere der digitalen Archive zu gewinnen, beginnt der Artikel mit der Privatsphäre und dem Netzwerk-Privatsphäre und listet die neue Konnotation der Privatsphäre der Benutzer digitaler Archive auf . Es analysiert auch das Datenschutzrecht, wenn digitale Archive die personenbezogenen Daten der Benutzer sammeln, transportieren, speichern und verwenden. Anschließend wird die aktuelle Situation des rechtlichen Schutzes der Privatsphäre der Nutzer digitaler Archive in China beschrieben. In Bezug auf den Schutz der Privatsphäre der Nutzer digitaler Archive in China sind nach Ansicht des Autors drei Schritte erforderlich. Erstens sollte die Privatsphäre als eigenständiges Recht der Menschenwürde direkt geschützt und einheitliche Schutzgesetze für die Privatsphäre geschaffen werden. Zweitens sollten Schutzregelungen für die Privatsphäre der Nutzer digitaler Archive getroffen werden. Drittens sollten die Inhalte zum Schutz der Privatsphäre der Benutzer hinzugefügt werden;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49304-6_3 91a886c1aa7311c07592632888a68f7f;de;;;6.2.;;;Eine numerische Toolbox zum Lösen Wir präsentieren einen Algorithmus und eine entsprechende numerische MATLAB-Toolbox, um jede Form von horizontaffinen linearen quadratischen Open-Loop-Differentialspielen mit unendlicher Planung zu lösen. Durch Umschreiben einer spezifischen Anwendung in das Standard-Framework kann man die Toolbox verwenden, um die Existenz sowohl des nicht-kooperativen Nash-Gleichgewichts (Gleichgewichte) als auch des kooperativen Pareto-Gleichgewichts (Gleichgewichte) zu berechnen und zu überprüfen. Gibt es mehr als ein Gleichgewicht für den nicht kooperativen Fall, bestimmt die Toolbox alle Lösungen, die als Feedbackstrategie implementiert werden können. Alternativ kann die Toolbox eine Reihe von Auswahlmethoden anwenden, um zwischen mehreren Gleichgewichten zu unterscheiden. Der Benutzer kann eine Menge von Koalitionsstrukturen vordefinieren, für die er die nicht kooperative(n) Nash-Lösung(en) berechnen möchte. Es ist auch möglich, die relative Bedeutung jedes Spielers in jeder Koalitionsstruktur anzugeben. Darüber hinaus bietet die Toolbox Möglichkeiten zum Plotten sowie weitere Optionen zur Analyse des Spielergebnisses. Zum Beispiel ist es möglich, den Gesamtverlust jedes Spielers in seine beitragenden Elemente aufzuteilen. Die Toolbox ist als Freeware von den Autoren dieses Artikels erhältlich.;-;-;-;https://link.springer.com/article/10.1007/s10614-011-9257-z 6502cf60659235e37cc059153f3c279a;de;;;6.2.;;;Quantifizierung des Ausmaßes menschlicher Störaktivitäten und anthropogener Stressoren in Feuchtgebieten in den angrenzenden Vereinigten Staaten: Ergebnisse der National Wetland Condition Assessment Im Jahr 2011 führte die US-Umweltschutzbehörde die National Wetland Condition Assessment (NWCA) im Rahmen des National Aquatic Resource Survey (NARS)-Programms durch, um den Zustand von Feuchtgebieten in den 48 zusammenhängenden Bundesstaaten der Vereinigten Staaten (USA) zu bestimmen. Die Standorte wurden unter Verwendung eines generalisierten zufälligen tessellierten geschichteten (GRTS) Wahrscheinlichkeitsdesigns ausgewählt. Wir quantifizierten die Art, das Ausmaß und das Ausmaß menschlicher Aktivitäten als Indikatoren für potentiellen Stress an einer Stichprobe von 1138 Feuchtgebieten, die eine Zielpopulation von 251.546 km² darstellen;-;-;-;https://link.springer.com/article/10.1007/s10661-019-7314-6 b56a3522af1d187e96e12db32ab64619;de;;;6.2.;;;AGDISTIS - Graphbasierte Begriffsklärung benannter Entitäten mit verknüpften Daten In den letzten Jahrzehnten wurden mehrere Milliarden Webseiten im Web verfügbar gemacht. Der fortschreitende Übergang vom aktuellen Web der unstrukturierten Daten zum Web of Data erfordert jedoch skalierbare und genaue Ansätze zur Extraktion strukturierter Daten in RDF (Resource Description Framework) aus diesen Websites. Einer der wichtigsten Schritte zum Extrahieren von RDF aus Text ist die Begriffsklärung benannter Entitäten. Obwohl mehrere Ansätze darauf abzielen, dieses Problem anzugehen, erreichen sie immer noch eine geringe Genauigkeit. Wir adressieren diesen Nachteil, indem wir AGDISTIS vorstellen, einen neuartigen wissensdatenbank-agnostischen Ansatz zur Disambiguierung benannter Entitäten. Unser Ansatz kombiniert den Hypertext-Induced Topic Search (HITS)-Algorithmus mit Label-Expansionsstrategien und String-Ähnlichkeitsmaßen. Auf Grundlage dieser Kombination kann AGDISTIS effizient die richtigen URIs für einen bestimmten Satz benannter Entitäten in einem Eingabetext erkennen. Wir evaluieren unseren Ansatz anhand von acht verschiedenen Datensätzen anhand modernster Disambiguierungs-Frameworks für benannte Entitäten. Unsere Ergebnisse zeigen, dass wir den aktuellen Ansatz um bis zu 29 % F-Maß übertreffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11964-9_29 836746b113ed8fae38ba72aa4de589b3;de;;;6.2.;;;Strategien zum Ausführen föderierter Abfragen in SPARQL1.1 Eine gängige Methode zur Bereitstellung von RDF-Daten im Web sind SPARQL-Endpunkte, die es Endbenutzern und Anwendungen ermöglichen, nur die gewünschten RDF-Daten abzufragen. Server, die SPARQL-Endpunkte hosten, schränken jedoch häufig den Zugriff auf die Daten ein, indem sie die Anzahl der pro Abfrage zurückgegebenen Ergebnisse oder die Anzahl der Abfragen pro Zeit begrenzen, die ein Client ausgeben kann. Da dies die Abfragevollständigkeit bei der Verwendung der föderierten Abfrageerweiterung von SPARQL1.1 beeinträchtigen kann, haben wir verschiedene Strategien zur Implementierung föderierter Abfragen mit dem Ziel analysiert, Endpunktgrenzen zu umgehen. Wir zeigen, dass einige scheinbar intuitive Methoden zum Zerlegen von föderierten Abfragen im allgemeinen Fall unsolide Ergebnisse liefern, und bieten Korrekturen oder diskutieren, unter welchen Einschränkungen diese Rezepte noch anwendbar sind. Abschließend evaluieren wir die vorgeschlagenen Strategien zur Überprüfung ihrer Umsetzbarkeit in der Praxis.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11915-1_25 96c5ba19ce18d0f027c59097a1f5d6e6;de;;;6.2.;;;Erkennen von Fehlern in numerisch verknüpften Daten mithilfe von Cross-Checked Outlier Detection Die Ausreißererkennung, die zum Identifizieren falscher Werte in Daten verwendet wird, wird normalerweise auf einzelne Datensätze angewendet, um sie nach Werten mit unerwartetem Verhalten zu durchsuchen. In dieser Arbeit schlagen wir stattdessen einen Ansatz vor, der die Ergebnisse zweier unabhängiger Ausreißererkennungsläufe kombiniert, um ein zuverlässigeres Ergebnis zu erhalten und auch Probleme durch natürliche Ausreißer zu vermeiden, die außergewöhnliche Werte im Datensatz sind, aber dennoch korrekt sind. Linked Data eignet sich besonders für die Umsetzung einer solchen Idee, da es große Datenmengen angereichert mit hierarchischen Informationen bereitstellt und auch explizite Verknüpfungen zwischen Instanzen enthält. In einem ersten Schritt wenden wir Ausreißererkennungsmethoden auf die aus einem einzigen Repository extrahierten Eigenschaftswerte an, indem wir einen neuartigen Ansatz zur Aufteilung der Daten in relevante Teilmengen verwenden. Für den zweiten Schritt nutzen wir;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11964-9_23 f4eabe04ea72c846eced7242e0677a6a;de;;;6.2.;;;Der Einfluss des Stadtblocktyps auf Wohnungseinbrüche: Mexiko-Stadt als Fallstudie Anhand von Daten auf Blockebene für Mexiko-Stadt als Fallstudie liefert dieser Artikel Beweise dafür, dass der Typ des Stadtblocks mit der Wahrscheinlichkeit eines Wohnungseinbruchs korreliert. Wir haben fünf mehrstufige Random-Intercept-Modelle verwendet, um Einbruchsvorfälle mit Stadtblocktypen in Beziehung zu setzen. Wir haben die 64.282 Stadtblöcke von Mexiko-Stadt innerhalb ihrer entsprechenden 846 lokalen Polizeiquadranten verschachtelt. Unsere Ergebnisse zeigen, dass Container-Städteblockkonfigurationen in stärkerem Maße mit Wohnungseinbrüchen in Verbindung gebracht werden als andere physikalische und soziale Umweltvariablen. Außerdem stellen wir fest, dass die Nähe zu ÖPNV-Standorten nicht mit Einbruchsaktivitäten in Wohngebäuden verbunden ist. Die Gesamtergebnisse dieser Studie beschreiben grundlegende Dynamiken zwischen Stadtform und Einbruch.;-;-;-;https://link.springer.com/article/10.1007/s10611-020-09920-3 1249f73f3a24ef09b7ab145dfbbf73f7;de;;;6.2.;;;Fördern Straßenmessen lokale Unternehmen? Eine quasi-experimentelle Analyse mit Daten aus sozialen Netzwerken Lokale Unternehmen und Einzelhandelsgeschäfte sind ein wesentlicher Bestandteil der lokalen Wirtschaft. Lokale Regierungen entwickeln Richtlinien zur Förderung des Wachstums dieser Unternehmen, die folglich positive externe Effekte auf die lokale Gemeinschaft haben können. Oftmals haben diese Richtlinien jedoch das genaue Gegenteil der erwarteten Ergebnisse (z. B. wurde gezeigt, dass kostenlose Parkplätze am Straßenrand, anstatt Unternehmen zu helfen, ihnen aufgrund des geringen Umsatzes pro Parkplatz tatsächlich schaden). Daher ist es wichtig, die Ergebnisse einer solchen Politik zu bewerten, um fundierte Entscheidungen für die Zukunft treffen zu können. Im Zeitalter von Social und Ubiquitous Computing bilden mobile soziale Medien wie Foursquare eine Plattform, die zu diesem Ziel beitragen kann. Daten von diesen Plattformen erfassen semantische Informationen über die menschliche Mobilität, aus denen wir potenzielle wirtschaftliche Aktivitäten ableiten können. In diesem Papier konzentrieren wir uns auf Straßenfeste (z. B. Kunstfestivals) und bewerten ihre Fähigkeit, wirtschaftliche Aktivitäten in ihrer Umgebung anzukurbeln. Insbesondere haben wir Daten von Foursquare für den Dreimonatszeitraum zwischen Juni 2015 und August 2015 von der Stadt Pittsburgh gesammelt. In dieser Zeit fanden mehrere Straßenfeste statt. Unter Verwendung dieser Ereignisse als Fallstudie analysierten wir die Daten mithilfe von Propensity-Score-Matching und einer quasi-experimentellen Technik, inspiriert von der Differenz-in-Differenzen-Methode. Unsere Ergebnisse zeigen, dass Straßenfeste positive Externalitäten für nahe gelegene Unternehmen bieten. Wir haben die räumliche Reichweite dieser Auswirkungen weiter analysiert und festgestellt, dass sie sich bis zu 1 Meilen (1,6 km) vom Epizentrum des Ereignisses erstrecken können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-46131-1_22 a733112b43327ef6d7881edcc661ead4;de;;;6.2.;;;Gemeinsame Informationsextraktion aus dem Web mit verknüpften Daten Fast alle der großen Webunternehmen arbeiten derzeit an der Erstellung von „Wissensgraphen“ und diese zeigen signifikante Ergebnisse bei der Verbesserung von Suche, E-Mail, Kalender usw vollständig, auch weil so schnell neue Informationen auftauchen. Die meisten der fehlenden Informationen sind auf Webseiten verfügbar. Um auf dieses Wissen zuzugreifen und Wissensdatenbanken zu füllen, sind Methoden zur Informationsextraktion erforderlich. Der Engpass für Informationsextraktionssysteme besteht darin, Trainingsdaten zum Erlernen von Klassifikatoren zu erhalten. In dieser Doktorarbeit untersuchen wir, wie vorhandene Daten in Wissensbasen verwendet werden können, um Trainingsdaten automatisch zu annotieren, um Klassifikatoren zu lernen, um wiederum mehr Daten zu extrahieren, um Wissensbasen zu erweitern. Wir diskutieren unsere Hypothesen, Vorgehensweise, Bewertungsmethoden und präsentieren erste Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11915-1_32 672060869e137d2faa6c1c369ae8f178;de;;;6.2.;;;Modellierung des Einflusses der morphologischen Stadtstruktur und des kognitiven Verhaltens auf Fußgängerströme Ein neuartiges, diskretes Raum-Zeit-Modell des Fußgängerverhaltens in realen städtischen Netzen wird vorgestellt. Ein agentenbasierter Ansatz wird verwendet, um Eigenschaften einzelner Fußgänger zu definieren, basierend auf räumlichen Wahrnehmungs- und Kognitionstheorien, kombiniert mit bevorzugten Entscheidungen verschiedener sozialer Gruppen. Verhaltensmuster werden berücksichtigt, die Bewegungsregeln entlang von Fußgängerwegen und für Zwischenentscheidungs- und Konfliktpunkte einbeziehen. Das Modell verwendet dynamische freiwillige geografische Informationssystemdaten, die eine Analyse beliebiger Stadtnetze und einen Vergleich der Auswirkungen der Gitterstruktur und der Verteilung der Annehmlichkeiten ermöglichen. Als Beispiel werden zwei unterschiedliche soziale Gruppen betrachtet, nämlich „gerichtet“ und „freizeit“, und ihre Interaktion sowie die Art und Weise, wie sich Staus und Veränderungen der Netzmorphologie auf die Routenwahl in zentralen Londoner Gebieten auswirken. Die daraus resultierenden Stress- und Flusseigenschaften der Stadtnetzsimulationen sowie die Auswirkungen auf einzelne Agentenpfade und Reisezeiten werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09147-1_20 30db81b3f16a8fdf4ea03138b89f535d;de;;;6.2.;;;Eine Untersuchung zu einem Ansatz zur Aktualisierung der Governance der Satellitenkommunikation zur Verbesserung der Cybersicherheit Großbritannien ist daran interessiert, Teil des globalen Weltraummarktes zu sein, der die jüngsten Aktivitäten von Virgin Galactic und SpaceX erlebt hat. Diese Forschung wird die Betriebsparameter des Vereinigten Königreichs in Bezug auf internationale Weltraumabkommen berücksichtigen, um zu untersuchen, ob die Governance rund um die Satellitenkommunikation auf die neuen Weltraumhäfen vorbereitet, die entwickelt werden, und die Auswirkungen auf die britischen Regierungsbehörden. Das Forschungsziel von A Qualitative Approach to Update the Governance of Satellite Communications to Enhance Cyber ​​Security besteht darin, eine Reihe von Richtlinien zu erstellen, die für die Governance der Satellitenkommunikation verwendet werden sollen, indem das Governance-Niveau für die Satellitenkommunikation untersucht wird. Die Forschung umfasst die von Satelliten verwendeten Techniken und Technologien, die Auswirkungen der Governance auf die Satellitenkommunikation in Regierungsabteilungen, COBIT 2019 in Satellites, eine Überprüfung der Literatur zur Ermittlung der aktuellen Gesetzesforschung, eine kritische Überprüfung der aktuellen staatlichen Rahmenbedingungen für die Satellitenkommunikation und was and öffentliche Einrichtungen werden berücksichtigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-68534-8_3 3daf69ac831edfa0aaca6b7e4f5736fd;de;;;6.2.;;;Ein Metamodellierungsansatz zur Berücksichtigung von Datendomänenmerkmalen und -beziehungen in Informationsvisualisierungen Visuelle Erklärungen sind ein wirksames Mittel, um Informationen einem großen Publikum zu vermitteln. Das Design von Informationsvisualisierungen ist jedoch eine komplexe Aufgabe, da viele Faktoren eine Rolle spielen (das Zielgruppenprofil, die Datendomäne usw.). Die Komplexität dieser Aufgabe kann zu schlechten Designs führen, die dazu führen können, dass Benutzer aus den visualisierten Daten falsche Schlussfolgerungen ziehen. Diese Arbeit veranschaulicht den Prozess der Identifizierung von Merkmalen, die eine Informationsvisualisierung verwirrend oder sogar irreführend machen könnten, mit dem Ziel, sie in einem Metamodell anzuordnen. Das Metamodell bietet eine leistungsstarke Ressource zur automatischen Generierung von Informationsvisualisierungen und Dashboards, die nicht nur die Eingabedaten, sondern auch die Merkmale des Publikums, das verfügbare Datendomänenwissen und sogar den Datenkontext berücksichtigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72651-5_54 f39dc31f1cfb9773823544bcf3b139cf;de;;;6.2.;;;A Design for Commonsense Knowledge Enhanced High-Frequency Market Analysis System Um die Auswirkungen öffentlicher Nachrichten auf den Sicherheitsmarkt zu identifizieren, schlagen wir eine auf gesundem Menschenverstand beruhende, wissensgestützte Nachrichtenanalysemethode vor und entwerfen eine Systemarchitektur für das in Nachrichten integrierte Marktanalysesystem. Das Graphenmodell des Common-Sense-Wissens wird verwendet, um den Nachrichten-Feature-Satz durch eine Random-Walk-Methode zu erweitern. Nachrichtenindikatoren, einschließlich Nachrichtenstimmung und Nachrichtenrelevanz, werden mit Hilfe von Text-Mining-Techniken mit gesundem Menschenverstand gemessen. Basierend auf diesen Ideen entwickeln wir ein prototypisches System und untersuchen die Intraday-Marktreaktionen auf öffentliche Nachrichten an der Hongkonger Börse. Unsere Ergebnisse haben die Wirksamkeit der Verwendung von gesundem Menschenverstand und Nachrichten im Bereich der Marktanalyse gezeigt. Wir glauben, dass das Marktanalysesystem mit gesundem Menschenverstand für Marktüberwachungsbüros, Händler und Investoren auf dem Wertpapiermarkt sehr hilfreich wäre.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54900-7_62 02c48376c694ea4dafbd0a18b93080d0;de;;;6.2.;;;Erkennung verrauschter Typzusicherungen in semantischen Datensätzen Semantische Datensätze bieten Unterstützung bei der Automatisierung vieler Aufgaben wie der Entscheidungsfindung und der Beantwortung von Fragen. Ihre Leistung wird jedoch immer durch das Rauschen in den Datensätzen verringert, unter denen Assertionen des Rauschtyps eine wichtige Rolle spielen. Dieses Problem wurde hauptsächlich im Bereich des Data Mining untersucht, jedoch nicht in der semantischen Web-Community. In diesem Artikel untersuchen wir das Problem der Erkennung verrauschter Typzusicherungen in semantischen Web-Datensätzen, indem wir in den Datensätzen verborgene Konzept-Disjunktheitsbeziehungen nutzen. Wir transformieren die Erkennung verrauschter Typzusicherungen in eine Mehrklassenklassifizierung von Paaren von Typzusicherungen, die ein Individuum in zwei potenzielle disjunkte Konzepte typisieren. Die Mehrklassenklassifikation wird von Adaboost mit C4.5 als Basisklassifikator gelöst. Darüber hinaus schlagen wir Instanz-Konzept-Kompatibilitätsmetriken basierend auf Instanz-Instanz-Beziehungen und Instanz-Konzept-Zusicherungen vor. Wir evaluieren den Ansatz sowohl auf synthetischen Datensätzen als auch auf DBpedia. Unser Ansatz erkennt effektiv verrauschte Typzusicherungen in DBpedia mit einer hohen Präzision von 95 %.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11964-9_24 677248e571890690b3d2dd322dc0d700;de;;;6.2.;;;Ein Energieminimierungsalgorithmus basierend auf verteiltem dynamischem Clustering für heterogene Netzwerke mit langfristiger Evolution Energieeinsparung ist sowohl aus Umwelt- als auch aus wirtschaftlichen Erwägungen ein wichtiges Thema bei der drahtlosen Kommunikation geworden. In diesem Beitrag wird ein Energieminimierungsalgorithmus basierend auf verteiltem dynamischem Clustering (DDCEM) mit geringerer Komplexität, höherer Leistung und besserer Anpassungsfähigkeit für heterogene Netzwerke (HetNet) vorgeschlagen. Ein HetNet könnte in mehrere Cluster unterteilt werden, die als eine Gruppe aus einem Netzwerkknoten und von dem Knoten bedienten Benutzern definiert sind. Um verbrauchte Energie zu sparen, kann eine energieeffiziente Nutzerassoziation verwendet werden, die sich gemäß der Echtzeit-Energieeffizienzbewertung (EE) mit der Verkehrsbelastung und der Standortverteilung jedes Clusters dynamisch ändert. Dann wird das optimale Schlafrelais wie folgt gefunden. Zuerst werden die Schlafwahrscheinlichkeitskosten jeder Relaisstation (RS) berechnet und basierend auf dem Benutzerverkehr und der Positionsverteilung jedes Clusters geordnet, und das Relais mit minimaler Schlafwahrscheinlichkeit wird zum Abschalten ausgewählt. Daher wird der Schlafknoten unter Berücksichtigung der Verkehrslast und des Standorts des Evolved Node B (eNB) und aller RSs ausgewählt. Die Komplexität des Algorithmus wird stark reduziert, da die Benutzerzuordnungsoperation und die Netzlastauswertung Cluster für Cluster erfüllt werden. Simulationsergebnisse zeigen, dass die vorgeschlagene DDCEM-Strategie einen EE-Gewinn bei geringer Systemkomplexität bietet.;-;-;-;https://link.springer.com/article/10.1007/s11432-014-5261-y 9f8e80f3f61ce2d2bebdf25432ed4163;de;;;6.2.;;;Ein BRPCA-basierter Ansatz zur Anomalieerkennung in Mobilfunknetzen Forscher haben kürzlich zahlreiche ausnutzbare Schwachstellen aufgedeckt, die es böswilligen Personen ermöglichen, Angriffe gegen Benutzer und Dienste von Mobilfunknetzen durchzuführen. Die Erkennung und Zuordnung dieser Bedrohungen ist für die Mobilfunkbetreiber von großer Bedeutung. Daher stellt dieses Papier einen neuartigen Ansatz zur Anomalieerkennung in 3G/4G-Mobilfunknetzen vor, der auf der Bayesian Robust Principal Component Analysis (BRPCA) basiert, die die Erkennung in Mobilfunknetzen durch die Fähigkeit ermöglicht, Bedrohungen wahrzunehmen und zu handeln, um deren Auswirkungen zu mildern. BRPCA wird verwendet, um aggregierte Netzwerkdaten zu modellieren und anschließend abnormale Netzwerkzustände zu identifizieren. Ein wesentlicher Unterschied zu früheren Arbeiten besteht darin, dass diese Methode die räumlich-zeitliche Natur des Mobilfunkverkehrs berücksichtigt, um codierte periodische Eigenschaften aufzudecken, die das Potenzial haben, die Falsch-Positiv-Rate zu reduzieren. Darüber hinaus wird die BRPCA-Methode nicht überwacht und wirft aufgrund der Natur der Rohdaten keine Datenschutzprobleme auf. Die Wirksamkeit des Ansatzes wurde mit drei anderen Methoden an zwei synthetischen Datensätzen für ein großes Mobilfunknetz bewertet, und die Ergebnisse zeigen, dass BRPCA sowohl eine höhere Erkennungsrate als auch einen geringeren Rechenaufwand bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22635-4_10 79b8b8e3e66d4bcb195f1fc8d5cb0aaf;de;;;6.2.;;;Eine Methode zur robusten Kontrolle unsicherer Systeme – Theorie und Praxis Wir präsentieren eine Controller-Design-Methodik für unsichere Systeme, die auf der konstruktiven Anwendung der Lyapunov-Stabilitätstheorie basiert. Die deterministischen Unsicherheiten sind durch bestimmte strukturelle Bedingungen und bekannte sowie unbekannte Grenzen gekennzeichnet. Als Folge des Lyapunov-Ansatzes ist die Methodik nicht auf lineare oder zeitinvariante Systeme beschränkt. Die Robustheit dieser Controller bei singulären Störungen wird berücksichtigt. Die Situation, in der der vollständige Zustand des Systems nicht zur Messung zur Verfügung steht, wird ebenso berücksichtigt wie andere Verallgemeinerungen. Anwendungen der vorgeschlagenen diskutiert in der vollständigen Version des Papiers.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34897-1_6 545b2888b63406d134564f03362c87d9;de;;;6.2.;;;ICIC im Zeitbereich und optimierte Designs für 5G und darüber hinaus: eine Umfrage Die Time-Domain Enhanced Inter-Cell Interference Coordination (eICIC) ist eine effektive Technik, um die Cross-Tier-Inter-Cell-Interferenz (ICI) in auf Langzeitentwicklung (LTE) basierenden heterogenen Kleinzellennetzwerken (HetSCN) zu reduzieren. Dieses Papier klärt zunächst zwei Hauptkommunikationsszenarien in HetSCNs, d. h. Makrozellen, die mit Femtozellen (Makro-Femto) und mit Picozellen (Makro-Pico) eingesetzt werden. Anschließend werden die Hauptherausforderungen in HetSCNs analysiert, insbesondere die schwere schichtübergreifende ICI in Makro-Femto, verursacht durch Femtozellen mit geschlossenem Teilnehmergruppenzugang (CSG) oder in Makro-Piko, verursacht durch Picozellen mit Reichweitenerweiterung. Basierend auf dem herausragenden Merkmal der dominanten Interferenz in HetSCNs werden die Hauptidee der Zeitbereichs-Interferenz-Koordination und zwei grundlegende Schemata in der eICIC-Standardisierung, dh fast leerer Unterrahmen (ABS) und orthogonale Frequenzmultiplex-Symbolverschiebung, mit einer systematischen Einführung in die Interaktionen dieser Techniken mit anderen Netzwerkfunktionen. Anschließend wird anhand von Makro-Femto- und Makro-Pico-HetSCNs ein Überblick über die fortschrittlichen Designs von ABS-basierten eICICs gegeben, einschließlich selbstoptimierter Designs in Bezug auf Schlüsselparameter wie ABS-Muting-Verhältnis und gemeinsam optimierte Designs von ABS-basierten eICIC und andere Techniken zur Verwaltung von Funkressourcen, wie z. B. Benutzerassoziation und Leistungssteuerung. Abschließend werden noch offene Fragen und zukünftige Forschungsrichtungen diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s11432-017-9477-4 10739bd486110e116c6a49f0a44c154f;de;;;6.2.;;;Einfluss der von der Gemeinde initiierten Kangaroo Mother Care auf das Überleben von Säuglingen mit niedrigem Geburtsgewicht: Studienprotokoll für eine randomisierte kontrollierte Studie Bei Babys mit niedrigem Geburtsgewicht (LBW) treten etwa 70 % neonatale Todesfälle auf. Weltweit werden 15 % der Babys mit LBW geboren. Kangaroo Mother Care (KMC) scheint ein wirksames Mittel zu sein, um die Sterblichkeit und Morbidität bei LBW-Babys zu reduzieren. KMC umfasst den frühen und kontinuierlichen Haut-zu-Haut-Kontakt zwischen Mutter und Baby sowie ausschließliches Stillen. Studien aus Krankenhausstudien zeigen, dass KMC zu einer relativen Verringerung der Sterblichkeit um 40 %, einer relativen Verringerung des Risikos nosokomialer Infektionen oder Sepsis um 58 %, einem kürzeren Krankenhausaufenthalt und einem geringeren Risiko für Infektionen der unteren Atemwege bei Säuglingen mit Geburtsgewicht <2000 g. Es besteht großes Interesse an KMC, die außerhalb von Gesundheitseinrichtungen für zu Hause geborene oder früh entlassene LBW-Babys initiiert wurden. Derzeit gibt es nicht genügend Beweise, um die Initiierung von KMC in der Gemeinde (cKMC) zu unterstützen. Formative Forschung in unserer Studienumgebung, in der 24% der Babys mit LBW geboren werden, hat gezeigt, dass KMC machbar und akzeptabel ist, wenn sie zu Hause für LBW-Babys eingeleitet wird. Das Ziel dieser Studie ist es, den Einfluss von cKMC auf das Überleben dieser Babys zu bestimmen.;-;-;-;https://link.springer.com/article/10.1186/s13063-017-1991-7 3b152a5a39f547ca457d90e72ff438b7;de;;;6.2.;;;Scopolaminbutyl zur prophylaktischen Behandlung von Todesrasseln: Studienprotokoll einer randomisierten, doppelblinden, placebokontrollierten Studie an einer gebrechlichen Patientenpopulation (Studie SILENCE) Todesrassel (DR), verursacht durch Schleim in den Atemwegen, tritt bei etwa der Hälfte der Patienten auf, die sich in der Sterbephase befinden. Angehörige empfinden DR oft als belastend. Anticholinergika werden zur Behandlung von DR empfohlen, obwohl es keine Beweise für die Wirkung dieser Medikamente gibt. Anticholinergika verringern die Schleimproduktion, wirken sich aber nicht auf bestehenden Schleim aus. Wir gehen daher davon aus, dass diese Medikamente prophylaktisch wirksamer sind.;-;-;-;https://link.springer.com/article/10.1186/s12904-018-0359-4 9cad21412c731497386d63f428a6bc5e;de;;;6.2.;;;Die sich ändernde Epidemiologie von Hepatitis-B- und -C-Infektionen in Nanoro im ländlichen Burkina Faso: eine Stichprobenerhebung Ziel dieser Studie war es, die aktuelle Seroprävalenz von Hepatitis B (HBV) und C (HCV) im ländlichen Burkina Faso zu ermitteln, Jahrzehnte nachdem der Hepatitis-B-Impfstoff in die für Kinder vorgesehene nationale Impfung eingeführt wurde.;-;-;-;https://link.springer.com/article/10.1186/s12879-019-4731-7 8b816f798ff58848fe64fac19eb34c9b;de;;;6.2.;;;Nichtinvasive Beurteilung des Asthma-Schweregrades mittels Pulsoximeter-Plethysmograph-Schätzung der Pulsus-Paradoxus-Physiologie Pulsus paradoxus, geschätzt durch dynamische Änderung der Fläche unter der Oximeter-Plethysmograph-Wellenform (PEP), könnte ein Maß für die Schwere des akuten Asthmas liefern. Unser primäres Ziel war es zu bestimmen, wie gut die PEP mit dem forcierten Exspirationsvolumen in 1 Sekunde korreliert (%FEV;-;-;-;https://link.springer.com/article/10.1186/1471-2466-10-17 25088169a1749f76251f2d96f6bb0ac2;de;;;6.2.;;;Ursachen und Risikofaktoren für eine posttraumatische Belastungsstörung: die Überzeugungen irakischer und afghanischer Flüchtlinge, die in Australien umgesiedelt wurden Umgesiedelte Flüchtlinge sind eine anfällige Gruppe für psychische Gesundheitsprobleme und insbesondere traumabedingte Störungen. Es gibt Hinweise darauf, dass eine geringe „Mental Health Literacy“ (MHL) ein wesentlicher Faktor für eine geringe oder unangemessene Behandlungssuche bei Personen mit psychischen Problemen ist. Diese Studie versuchte, die Ansichten über die Ursachen und Risikofaktoren für eine posttraumatische Belastungsstörung (PTSD) bei zwei umgesiedelten Flüchtlingsgruppen in Australien zu ermitteln.;-;-;-;https://link.springer.com/article/10.1186/s13033-016-0109-z 3e6edda1793632bed5a0587f03029b07;de;;;6.2.;;;Medizinanwendungspraktiken bei der Behandlung von Symptomen akuter Infektionen der oberen Atemwege bei Kindern (≤12 Jahre) in der Stadt Kampala, Uganda Arzneimittel werden häufig zur Behandlung von Krankheiten bei Kindern ohne Rezept verwendet und verwendet. Dies erhöht möglicherweise das Risiko unerwünschter Behandlungsergebnisse. Wir untersuchten die Anwendung von Medikamenten bei der Behandlung von Symptomen akuter Infektionen der oberen Atemwege bei Kindern (≤12 Jahre) in Haushalten in der Division Nakawa, Stadt Kampala.;-;-;-;https://link.springer.com/article/10.1186/s12889-017-4770-1 fdfa5e043b663b488f533e3ec1ad2dd4;de;;;6.2.;;;Design- und Ausgangsmerkmale der 10-Small-Steps-Studie: eine randomisierte kontrollierte Studie einer Intervention zur Förderung eines gesunden Verhaltens anhand eines Lebensstil-Scores und personalisiertem Feedback Nichtübertragbare Krankheiten (NCDs) sind weltweit die Haupttodesursachen und werden mit einer begrenzten Anzahl allgemeiner, veränderbarer Gesundheitsverhaltensweisen in Verbindung gebracht: Tabakkonsum, Bewegungsmangel, schädlicher Alkoholkonsum und ungesunde Ernährung. Die Allgemeinmedizin bietet einen idealen Weg, um solche Gesundheitsverhalten bevölkerungsweit anzugehen. Dieses Papier beschreibt das Protokoll einer multiplen Intervention zur Änderung des Gesundheitsverhaltens, die für die Umsetzung in der Allgemeinmedizin entwickelt wurde, und fasst die grundlegenden Merkmale der Teilnehmer zusammen.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-12-179 79261e28be7751145b3ce23ed83d449f;de;;;6.2.;;;Prävalenz und Epidemiologie des Meningokokkentransports in Südäthiopien vor der Einführung von MenAfriVac, einem Konjugatimpfstoff besiedelt den Menschen und wird hauptsächlich durch asymptomatische Beförderung übertragen. Vor der Einführung von MenAfriVac, einem Meningokokken-Konjugatimpfstoff der Serogruppe A, wollten wir die Prävalenz und Epidemiologie des Meningokokkentransports in Äthiopien bestimmen.;-;-;-;https://link.springer.com/article/10.1186/s12879-016-1975-3 9d6fda6421d2d7c27b9250ccac5801b3;de;;;6.2.;;;Chinesische Medizin kombiniert mit Calcipotriol Betamethason und Calcipotriol Salbe für Psoriasis vulgaris (CMCBCOP): Studienprotokoll für eine randomisierte kontrollierte Studie Psoriasis verursacht weltweite Besorgnis wegen ihrer hohen Prävalenz sowie ihrer schädlichen und unheilbaren Eigenschaften. Die topische Therapie ist eine konventionelle Behandlung der Psoriasis vulgaris. Chinesische Medizin (CM) wird seit vielen Jahren in integrativer Weise bei Psoriasis-Patienten eingesetzt. Einige CM-Therapien haben therapeutische Wirkungen bei Psoriasis vulgaris (PV) gezeigt, einschließlich einer Linderung der Symptome und einer Verbesserung der Lebensqualität, und können die Rückfallrate verringern. Explizite Beweise liegen jedoch noch nicht vor. Der Zweck der vorliegenden Studie besteht darin, die Wirksamkeit und Sicherheit des YXBCM01-Granulats, einer zusammengesetzten chinesischen Kräutermedizin, mit einer Kombination aus topischer Therapie für PV-Patienten zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-15-294 cac9b5438b17e4c9838937d409f62db9;de;;;6.2.;;;Proaktive Bewertung des Fettleibigkeitsrisikos im Säuglingsalter (ProAsk): eine qualitative Studie der Perspektiven von Eltern und Fachkräften zu einer mHealth-Intervention Die Prävention von Fettleibigkeit bei Kindern ist eine Priorität der öffentlichen Gesundheit. Interventionen, die schon früh im Leben gesunde Wachstumspfade etablieren, versprechen lebenslange Vorteile für Gesundheit und Wohlbefinden. Die proaktive Bewertung des Fettleibigkeitsrisikos im Säuglingsalter (ProAsk) ist eine neuartige mHealth-Intervention, die es medizinischen Fachkräften ermöglicht, das Risiko eines Säuglings für zukünftiges Übergewicht zu bewerten und die elterliche Verhaltensänderung zu motivieren, um Übergewicht und Fettleibigkeit bei Kindern zu verhindern. Das Ziel dieser Studie war es, die Erfahrungen von Eltern und Angehörigen der Gesundheitsberufe mit den Aspekten der Übergewichtsrisikokommunikation und Verhaltensänderung dieser mHealth-Intervention zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s12889-019-6616-5 50bf4669714839e230c04a8196814972;de;;;6.2.;;;Bewertung von Änderungen der Richtlinie für elektronische Glücksspielautomaten in Bezug auf Benutzerverluste in einer australischen Gerichtsbarkeit Elektronische Glücksspielautomaten (EGMs) gibt es in Casinos und Gemeinschaftseinrichtungen (Hotels und Clubs) in allen Gerichtsbarkeiten Australiens, mit Ausnahme von Westaustralien (nur in Casinos). EGMs haben eine Reihe von Funktionen, die sich auf das Glücksspiel auswirken können, was die Verluste der Benutzer beeinflussen kann. Die Regierung des Northern Territory hat vor Kurzem zwei AHV-Richtlinien geändert – die Einführung von Notenakzeptoren für AHVs in Gemeinschaftseinrichtungen und eine Erhöhung der Obergrenze von 10 auf 20 AHVs in Hotels und 45 auf 55 in Clubs. Diese Studie bewertet zwei Änderungen der EGM-Richtlinie zu Nutzerverlusten in Gemeinschaftseinrichtungen und verfolgt die Veränderungen der Nutzerverluste pro Erwachsenem, EGM-Spieler und EGM-Problem/Spieler mit mittlerem Risiko zwischen 2005 und 2015.;-;-;-;https://link.springer.com/article/10.1186/s12889-019-6814-1 fc9a10d96129a31e6115d9a9ced2cffc;de;;;6.2.;;;Wirksamkeit des Granulozyten-Kolonie-stimulierenden Faktors bei Patienten mit schwerer alkoholischer Hepatitis mit partiellem oder null Ansprechen auf Steroide (GRACIAH-Studie): Studienprotokoll für eine randomisierte kontrollierte Studie Die alkoholische Hepatitis (AH) hat die schwerste Form unter den alkoholbedingten Lebererkrankungen. Kortikosteroide sind die am häufigsten empfohlene Behandlung bei schwerer AH. Wegen der hohen Mortalität trotz Kortikosteroidbehandlung sind jedoch innovativere, verfeinerte Behandlungsmaßnahmen erforderlich. Diese Studie zielt darauf ab, festzustellen, ob die Behandlung mit dem Granulozyten-Kolonie-stimulierenden Faktor (G-CSF) das kurzfristige Überleben bei Patienten mit schwerer AH erhöht, die auf eine Kortikosteroidbehandlung refraktär sind.;-;-;-;https://link.springer.com/article/10.1186/s13063-018-3092-7 8c9d6da0cfd26f0bf2976bd96a1afe2b;de;;;6.2.;;;Die Pregnancy and Influenza Multinational Epidemiological (PRIME)-Studie: eine prospektive Kohortenstudie zu den Auswirkungen der Influenza während der Schwangerschaft bei Frauen in Ländern mit mittlerem Einkommen Die Weltgesundheitsorganisation stuft schwangere Frauen als ein hohes Risiko für eine schwere Influenza ein, aber Grippeimpfstoffe werden von schwangeren Frauen zu wenig genutzt. Daten zur Influenzabelastung während der Schwangerschaft sind weitgehend auf Länder mit hohem Einkommen beschränkt, und Daten zu den Auswirkungen der Influenza auf die Geburt und das perinatale Outcome sind rar.;-;-;-;https://link.springer.com/article/10.1186/s12978-018-0600-x fe6244f02c86efcf44feb1274b1f7716;de;;;6.2.;;;Protokoll für eine systematische Überprüfung und individuelle Patientendaten-Metaanalyse von prognostischen Faktoren der Fußulzeration bei Menschen mit Diabetes: die internationale Forschungskooperation zur Vorhersage von diabetischen Fußulzerationen (PODUS) Diabetesbedingte Amputationen der unteren Gliedmaßen sind mit einer erheblichen Morbidität und Mortalität verbunden und gehen in der Regel von Fußulzerationen voraus. Die verfügbaren systematischen Übersichten zu aggregierten Daten sind beeinträchtigt, da die Primärstudien sowohl angepasste als auch unangepasste Schätzungen berichten. Da angepasste Metaanalysen von aggregierten Daten eine Herausforderung darstellen können, ist der beste Weg, den analytischen Ansatz zu standardisieren, die Durchführung einer Metaanalyse basierend auf individuellen Patientendaten (IPD).;-;-;-;https://link.springer.com/article/10.1186/1471-2288-13-22 96c1311e1c834a3327a19afd5acf8ea6;de;;;6.2.;;;Risikofaktoren für die Entwicklung einer Neugeborenensepsis auf einer Neugeborenen-Intensivstation eines tertiären Krankenhauses in Nepal Sepsis ist eine überwältigende und lebensbedrohliche Reaktion auf Bakterien im Blutkreislauf und eine der Hauptursachen für die Morbidität und Mortalität bei Neugeborenen. Das Verständnis der Ätiologie und potenzieller Risikofaktoren für eine neonatale Sepsis ist dringend erforderlich, insbesondere in Ländern mit niedrigem Einkommen, in denen die Infektionslast hoch ist und deren Epidemiologie kaum bekannt ist.;-;-;-;https://link.springer.com/article/10.1186/s12879-021-06261-x 7745118ecbe24e31fc631f143b080f54;de;;;6.2.;;;Asthma-Screening bei kantonesischsprachigen Einwandererkindern Die Asthma-Prävalenz unter chinesischen Immigrantenkindern ist kaum bekannt und Versuche, diese Kinder zu untersuchen, haben zu unterschiedlichen Ergebnissen geführt. Wir wollten lernen, wie das Screening auf Asthma bei chinesischen Einwandererkindern verbessert werden kann.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-5-48 4debc5315f15384abd6bae5ad00a75c5;de;;;6.2.;;;Ein- versus zweischichtiger Verschluss der Kaiserschnittnarbe zur Prävention gynäkologischer Symptome in Bezug auf die Nischenentwicklung – die 2Close-Studie: eine multizentrische randomisierte kontrollierte Studie Ein zweischichtiger im Vergleich zum einschichtigen Verschluss der Gebärmutter nach einem Kaiserschnitt (CS) führt zu einer dickeren Myometriumschicht an der Stelle der CS-Narbe, auch Restmyometriumdicke (RMT) genannt. Es verringert möglicherweise die Entwicklung einer Nische, die eine Unterbrechung des Myometriums an der Stelle der Gebärmutternarbe darstellt. Dünne RMT und eine Nische sind mit gynäkologischen Symptomen, geburtshilflichen Komplikationen bei einer nachfolgenden Schwangerschaft und Geburt und möglicherweise mit Subfertilität verbunden.;-;-;-;https://link.springer.com/article/10.1186/s12884-019-2221-y b55f1afc68e9254d60dd409f2a66b52f;de;;;6.2.;;;Spontane Hypothermie bei Aufnahme auf die Intensivstation ist ein Prädiktor für ein ungünstiges neurologisches Ergebnis bei Patienten nach Reanimation: eine Beobachtungs-Kohortenstudie Viele Patienten, die wegen eines primären Herzstillstands reanimiert wurden, kommen mit einer Körpertemperatur < 35,0 °C auf die Intensivstation (ICU). Das Ziel dieser Beobachtungs-Kohortenstudie war es, den Zusammenhang zwischen der Aufnahmetemperatur auf der Intensivstation und dem neurologischen Ergebnis in dieser Patientengruppe zu bestimmen.;-;-;-;https://link.springer.com/article/10.1186/cc9077 b4968d109e9dc8630c9ea2f514fd2f35;de;;;6.2.;;;Wie entwickelt man einen nachhaltigen telemedizinischen Dienst? 20 Jahre später ein pädiatrischer Telekardiologiedienst - eine explorative Studie Telemedizinische Dienste fördern den Zugang zur Gesundheitsversorgung. Portugal hat die Telemedizin frühzeitig eingesetzt, um sowohl seine geologischen Barrieren als auch den Mangel an medizinischem Fachpersonal zu überwinden. Der Pädiatrische Kardiologiedienst (PCS) des Universitätskrankenhauses Coimbra (CHUC) nutzt seit 1998 Telemedizin, um Zugang und Abdeckung zu verbessern afrikanischen Ländern über eine Telekonsultationsplattform.;-;-;-;https://link.springer.com/article/10.1186/s12913-019-4511-5 51dd796f57e47b3e8b8c16e40668a745;de;;;6.2.;;;Räumliche Kartierung und Vorhersage von In Côte d’Ivoire bleibt Malaria ein wichtiges Problem der öffentlichen Gesundheit und muss daher vorrangig behandelt werden. Ziel dieser Studie war es, räumlich explizite Indikatoren für;-;-;-;https://link.springer.com/article/10.1186/s13071-016-1775-z 37c3c02d768b499555cfaa2e4139057f;de;;;6.2.;;;My Baby’s Movements: eine randomisierte kontrollierte Studie mit Stepp-Wedge-Cluster, um das Bewusstsein der Mütter für fetale Bewegungen während des Schwangerschaftsstudienprotokolls zu schärfen Eine Totgeburt ist ein verheerendes Schwangerschaftsergebnis, das tiefgreifende und nachhaltige Auswirkungen auf Frauen und Familien hat. Weltweit gibt es jährlich über 2,6 Millionen Totgeburten, und die Fortschritte bei der Reduzierung dieser Todesfälle sind langsam. Die mütterliche Wahrnehmung verminderter fetaler Bewegungen (DFM) ist stark mit einer Totgeburt verbunden. Das mütterliche Bewusstsein für DFM und das klinische Management von Frauen, die DFM melden, ist jedoch oft suboptimal. Die Studie My Baby’s Movements zielt darauf ab, ein Interventionspaket für Entbindungsdienste zu evaluieren, das eine Mobiltelefonanwendung für Frauen und eine klinische Ausbildung (MBM-Intervention) umfasst, um die Totgeburtenrate in der späten Schwangerschaft zu senken.;-;-;-;https://link.springer.com/article/10.1186/s12884-019-2575-1 9383915bd51634c9352672827b849b46;de;;;6.2.;;;UK ENTWURF - Eine randomisierte kontrollierte Studie zur perkutanen Fixation mit Kirschner-Drähten im Vergleich zur volaren Fixation mit Verriegelungsplatte bei der Behandlung erwachsener Patienten mit einer dorsalverlagerten Fraktur des distalen Radius Frakturen des distalen Radius sind bei Erwachsenen sehr häufig. Das optimale Management bleibt jedoch umstritten. Im Allgemeinen werden Frakturen des distalen Radius konservativ versorgt, wenn die Knochenfragmente durch einen Gipsverband oder eine Orthese in anatomischer Ausrichtung gehalten werden können. Ist dies jedoch nicht möglich, ist eine operative Fixierung erforderlich. Es gibt mehrere operative Optionen, aber die beiden häufigsten in Großbritannien sind die Kirschner-Draht-Fixation (K-Drähte) und die volare Plattenfixation mit winkelstabilen Schrauben (Verriegelungsplatten). Das primäre Ziel dieser Studie ist es, festzustellen, ob es bei erwachsenen Patienten mit einer dorsalverlagerten Fraktur des distalen Radius einen Unterschied in der vom Patienten berichteten Handgelenksbewertung ein Jahr nach der K-Draht-Fixation gegenüber der Fixierung mit winkelstabiler Platte gibt.;-;-;-;https://link.springer.com/article/10.1186/1471-2474-12-201 26d6cc7ec541a945fdd3eadb918fe93d;de;;;6.2.;;;Die Inzidenz von Tuberkulose bei HIV-positiven Personen mit hohen CD4-Zahlen: Auswirkungen auf die Politik Intensivierte Fallfindung (ICF) und frühere Einleitung einer antiretroviralen Therapie (ART) sind Strategien, um die Belastung durch HIV-assoziierte Tuberkulose (TB) zu reduzieren. Wir beschreiben die Inzidenz und die assoziierten Faktoren für TB bei HIV-positiven Personen mit CD4-Zahlen > 350 Zellen/μl in Südafrika.;-;-;-;https://link.springer.com/article/10.1186/s12879-016-1598-8 44ff8069677a9be4f91ed8f339585d36;de;;;6.2.;;;Kondome verwenden oder nicht: Eine prospektive Kohortenstudie zum Vergleich der Verhütungspraktiken bei HIV-infizierten und HIV-negativen Jugendlichen in Uganda Ungewollte Schwangerschaften und HIV-Infektionen sind für junge Menschen von großer Bedeutung. Es gibt nur begrenzte Daten über die Entscheidungsfindung und Praktiken der Empfängnisverhütung bei HIV-infizierten und HIV-negativen jungen Menschen in Einrichtungen mit geringen Ressourcen und generalisierten HIV-Epidemien.;-;-;-;https://link.springer.com/article/10.1186/1471-2334-11-144 fe951ba00d1ccfa9188b04802d74e951;de;;;6.2.;;;Zerebrale Nahinfrarot-Spektroskopie-Überwachung versus Behandlung wie üblich bei extrem Frühgeborenen: ein Protokoll für die randomisierte klinische Phase-III-Studie SafeBoosC Die Überwachung der zerebralen Oxygenierung kann das Risiko von Todesfällen und neurologischen Komplikationen bei extrem Frühgeborenen verringern, aber solche Effekte wurden bei Frühgeborenen in ausreichend aussagekräftigen randomisierten klinischen Studien noch nicht nachgewiesen. Ziel der SafeBoosC III-Studie ist es, Nutzen und Schaden einer Behandlung auf Basis einer Nahinfrarotspektroskopie (NIRS)-Überwachung im Vergleich zur üblichen Behandlung extremer Frühgeborener zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s13063-019-3955-6 c2a9f98cac48ac98ea9e6e73737615a6;de;;;6.2.;;;Reduzierung des Kortikosteroideinsatzes bei der ambulanten Behandlung einer verschlimmerten COPD – Studienprotokoll für eine randomisierte, doppelblinde Nichtunterlegenheitsstudie (Die RECUT-Studie) Die chronisch obstruktive Lungenerkrankung (COPD) ist ein wichtiges Problem der öffentlichen Gesundheit und betrifft etwa 4% bis 7% der Schweizer Bevölkerung. Nach aktuellen stationären Leitlinien sind systemische Kortikosteroide bei der Behandlung akuter COPD-Exazerbationen wichtig und sollten über 5 bis 7 Tage verabreicht werden. Mehrere Studien legen nahe, dass Kortikosteroide die Erholung von FEV1 (erzwungenes Exspirationsvolumen in 1 Sekunde) beschleunigen, die Sauerstoffversorgung verbessern, die Dauer des Krankenhausaufenthalts verkürzen und die klinischen Ergebnisse verbessern. Der zusätzliche therapeutische Nutzen hinsichtlich der FEV1-Erholung scheint jedoch in den ersten 3 bis 5 Tagen am deutlichsten zu sein. Es liegen keine Daten zur optimalen Dauer der Kortikosteroidbehandlung bei hausärztlichen Patienten mit akuten COPD-Exazerbationen vor. Da viele COPD-Patienten ambulant behandelt werden, besteht ein dringender Bedarf, die Evidenzbasis zum COPD-Management in diesem Setting zu verbessern. Das Ziel dieser Studie ist es, zu untersuchen, ob eine 3-tägige Behandlung mit oral verabreichten Kortikosteroiden einer 5-tägigen Behandlung bei akuten Exazerbationen der COPD in einem hausärztlichen Setting nicht unterlegen ist.;-;-;-;https://link.springer.com/article/10.1186/s13063-019-3856-8 2873a35c149968656e8e45bfc1e562eb;de;;;6.2.;;;Gibt es spezifische klinische Merkmale, die mit den Behandlungsentscheidungen des Arztes bei COPD verbunden sind? Die Zahl der verfügbaren pharmakologischen Wirkstoffe und Leitlinien für COPD hat deutlich zugenommen, aber die Leitlinien werden weiterhin nur unzureichend befolgt. Das Verständnis der zugrunde liegenden klinischen Argumentation ist eine Herausforderung und könnte durch klinische Merkmale im Zusammenhang mit Behandlungsverordnungen beeinflusst werden.;-;-;-;https://link.springer.com/article/10.1186/s12931-019-1156-1 562a474768542781742ee059c836ae64;de;;;6.2.;;;Einfluss der Zeit nach der Extraktion auf die Entwicklung einer gingivalen Invagination: Studienprotokoll für eine multizentrische randomisierte kontrollierte klinische Pilotstudie Gingivainvaginationen sind eine häufige Nebenwirkung der kieferorthopädischen Therapie mit Zahnextraktion und anschließendem Lückenschluss. Folgen von Gingivainvaginationen sind eine gefährdete Stabilität des Lückenschlusses und eine Beeinträchtigung der Mundhygiene. In einer retrospektiven Studie wurde der Faktor Zeit bis zum Beginn eines kieferorthopädischen Lückenschlusses nach Zahnextraktion als potenzieller Risikofaktor für die Entwicklung von Zahnfleischinvaginationen identifiziert. Ziel dieser Pilotstudie ist es, diese Hypothese zu beweisen und eine Fallzahlberechnung für weitere klinische Studien zu ermöglichen. Die Fragestellung lautet: Ist es möglich, durch frühzeitige Einleitung eines kieferorthopädischen Lückenschlusses nach Zahnextraktion die Zahl der sich entwickelnden gingivalen Invaginationen zu reduzieren?;-;-;-;https://link.springer.com/article/10.1186/1745-6215-14-108 a3568af0c3b0df364f9b7a57667b5856;de;;;6.2.;;;Studiendesign und Merkmale des Luxembourg European Health Examination Survey (EHES-LUX) Die European Health Examination Survey in Luxembourg (EHES-LUX) ist eine bevölkerungsbezogene Erhebung, die von 2013 bis 2015 durchgeführt wurde mit dem Ziel, Basisinformationen über den allgemeinen Gesundheitszustand der luxemburgischen Bevölkerung im Alter von 25 bis 64 Jahren zu ermitteln. Der Beitrag stellt das Studiendesign, die Rekrutierungsmethode und die Repräsentativität der Stichprobe vor und fasst die soziodemografischen Merkmale der Teilnehmer und die Prävalenz der wichtigsten Gesundheitsergebnisse zusammen.;-;-;-;https://link.springer.com/article/10.1186/s12889-018-6087-0 87b2656e730a15c489cf65af4af0810e;de;;;6.2.;;;Bewertung der Aktivitäten zur Verhaltensänderungskommunikation und Mobilisierung der Gemeinschaft in den Eindämmungszonen der Artemisinin-Resistenz in Myanmar Behavior Change Communication (BCC) kann das Malaria-Präventions- und Behandlungsverhalten verbessern. Als eine der Aktivitäten im Rahmen des Myanmar Artemisinin Resistance Containment (MARC) Programms hat BCC durchgeführt. Diese Studie zielte darauf ab, die Wirksamkeit der Kommunikations- und Mobilisierungsaktivitäten zur Verhaltensänderung in MARC-Zonen in Myanmar zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s12936-015-1047-y 1781b5a80df7a37d029e57444ca0451d;de;;;6.2.;;;Repetitive transkranielle Magnetstimulation (rTMS) bei behandlungsresistenter Major Depression (TRMD) Veteranen: Studienprotokoll für eine randomisierte kontrollierte Studie Die Bewertung der repetitiven transkraniellen Magnetstimulation (rTMS) bei behandlungsresistenter Major Depression (TRMD) bei Veteranen bietet einzigartige Herausforderungen für klinische Studien. Hier beschreiben wir ein randomisiertes, doppelblindes, Intent-to-Treat, zweiarmiges, paralleles Überlegenheitsdesign, eine multizentrische Studie, die vom Cooperative Studies Program (CSP Nr. 556) des US Department of Veterans Affairs finanziert wird.;-;-;-;https://link.springer.com/article/10.1186/s13063-017-2125-y ee5b5f7eb85bf727cb30d4e5109a6774;de;;;6.2.;;;Fünf-Jahres-Trends bei Portionsgröße, Energie und Natriumgehalt von neuseeländischen Fastfoods: 2012 bis 2016 Die Nährstoffzusammensetzung von Nahrungsmitteln und Getränken, die außer Haus konsumiert werden, hat wichtige Auswirkungen auf die Gesundheit der Bevölkerung. Unser Ziel war es herauszufinden, ob sich die Portionsgröße, der Energie- und der Natriumgehalt von Fastfood, das in Kettenrestaurants in Neuseeland (NZ) verkauft wird, zwischen 2012 und 2016 verändert haben.;-;-;-;https://link.springer.com/article/10.1186/s12937-018-0373-7 cf085861aeb7880170491712c8dddf3f;de;;;6.2.;;;Die Wirksamkeit des Peer-Delivery-Programms Thinking Healthy Plus (THPP+) für mütterliche Depression und sozio-emotionale Entwicklung von Kindern in Pakistan: Studienprotokoll für eine dreijährige randomisierte kontrollierte Clusterstudie Die negativen Auswirkungen einer perinatalen Depression auf Mutter und Kind beginnen früh und bleiben während des gesamten Lebens bestehen (Lancet 369(9556):145–57, 2007, Am J Psychiatry 159(1):43–7, 2002, Arch Dis Child 77( 2):99–101, 1997, J Pak Med Assoc 60(4):329, J Psychosoma Res 49(3):207–16, 2000, Clin Child Fam Psychol Rev 14(1):1–27, 2011 . Angesichts der Tatsache, dass 10–35% der Kinder weltweit in ihrem ersten Lebensjahr einer perinatalen Depression ausgesetzt sind (Int Rev Psychiatry 8(1):37–54, 1996), ist die Eindämmung dieses intergenerationellen Risikos eine globale Priorität der öffentlichen Gesundheit (Perspect Public Health 129(5):221–7, 2009, Trop Med Int Health 13(4):579–83, 2008, Br. Med Bull 101(1):57–79, 2012). Es ist jedoch nicht klar, ob eine Intervention bei depressiven Frauen einen langfristigen Nutzen für die Mutter und/oder ihr Kind haben kann. Wir beschreiben eine Studie über die Wirksamkeit einer Peer-Delivered-Depressionsintervention, die 36 Monate nach der Geburt durchgeführt wird, das Thinking Healthy Program Peer-Delivered PLUS (THPP+) für Frauen und ihre Kinder im ländlichen Pakistan.;-;-;-;https://link.springer.com/article/10.1186/s13063-016-1530-y 6fe07e422871d5eae0f2544154f1f129;de;;;6.2.;;;Die Bedeutung der Viehbeweidung an der Schnittstelle zwischen Wald und Grasland für die Erhaltung reicher Eichenholz-Pflanzengemeinschaften im gemäßigten Europa Die traditionelle Bewirtschaftung förderte reiche halboffene Eichenwaldgemeinschaften, die aus Wald- und Nichtwaldarten bestanden. In der Ostkarpatenregion war der Silvo-Pastoralismus Mitte des 19. Jahrhunderts an der Tagesordnung. Ziel dieser Studie war es, den Zustand der Erhaltung des ökotonalen Charakters von Grünland-Wald-Grenzflächen in ehemals beweideten Kulturlandschaften des südostpolnischen Karpatenvorlandes und der westukrainischen Ziskarpatien im Kontext des Landnutzungswandels zu ermitteln. In der ersten Region hat trotz der langjährigen Geschichte der Waldbeweidung auf hauptsächlich Ackerland, der Zusammenbruch der Viehwirtschaft nach dem Zweiten Weltkrieg und das verhängte Verbot der Waldbeweidung zu einer schnellen Entwicklung von dichtem Unterholz und der Etablierung von undurchlässigen ökologischen Waldgebieten geführt Lebensraum Barriere. Infolgedessen entwickelten ehemalige silvo-pastorale Eichenwälder die Merkmale der features;-;-;-;https://link.springer.com/article/10.1007/s10531-021-02115-9 c42db27a6f60ac745099ef898e64992a;de;;;6.2.;;;Alkoholkonsum und Parkinson-Risiko: eine Fall-Kontroll-Studie in Japan Obwohl einige epidemiologische Studien inverse Assoziationen zwischen Alkoholkonsum und Parkinson-Krankheit (PD) fanden, fanden die meisten Studien keine solchen signifikanten Assoziationen. Darüber hinaus gibt es nur begrenzte Forschung zu möglichen Wechselwirkungen von Alkoholkonsum mit der Aktivität der Aldehyddehydrogenase (ALDH) 2 im Hinblick auf das PD-Risiko. Wir untersuchten die Beziehung zwischen Alkoholkonsum und PD bei japanischen Probanden anhand von Daten aus einer Fall-Kontroll-Studie.;-;-;-;https://link.springer.com/article/10.1186/1471-2377-10-111 3be86b584bd7ef6ef63570d09889f4a7;de;;;6.2.;;;Albuminurie, Serumkreatinin und geschätzte glomeruläre Filtrationsrate als Prädiktoren für kardiorenale Ergebnisse bei Patienten mit Typ-2-Diabetes mellitus und Nierenerkrankungen: eine systematische Literaturübersicht Albuminurie, erhöhtes Serum-Kreatinin und eine niedrige geschätzte glomeruläre Filtrationsrate (eGFR) sind entscheidende Indikatoren für einen Nierenrückgang. Es ist jedoch ungewiss, ob diese und neue Biomarker wie Harnsäure unabhängige Prädiktoren für das Fortschreiten der Nierenerkrankung oder die nachfolgenden Ergebnisse bei Personen mit Typ-2-Diabetes mellitus (T2DM) darstellen. Diese Studie untersuchte systematisch die verfügbare Literatur, die die Rolle von Albuminurie, Serumkreatinin, eGFR und Harnsäure bei der Vorhersage des Fortschreitens der Nierenerkrankung und der kardiorenalen Ergebnisse bei Personen mit T2DM dokumentiert.;-;-;-;https://link.springer.com/article/10.1186/s12882-018-0821-9 3a733ade665e61028b7bc964e5d4395b;de;;;6.2.;;;Vergleich von Ergebnismaßen und Komplikationsraten nach drei verschiedenen Ansätzen für die primäre totale Hüftendoprothetik: eine pragmatische randomisierte kontrollierte Studie Die Hüfttotalendoprothetik ist weltweit einer der am häufigsten durchgeführten chirurgischen Eingriffe. Es gibt eine Reihe von chirurgischen Ansätzen für die totale Hüftendoprothetik und keine hochgradigen Evidenz, die einen Ansatz gegenüber dem anderen stützt. Jeder Ansatz hat seine einzigartigen Vor- und Nachteile. Ziel dieser Studie ist es, die drei gängigsten chirurgischen Ansätze für die totale Hüftendoprothetik direkt zu vergleichen.;-;-;-;https://link.springer.com/article/10.1186/s13063-017-2368-7 c90458db47a3572e3f687e8ea570501b;de;;;6.2.;;;Engstand in der Notaufnahme bei fehlendem Boarding – ein Übergangsregressionsmodell zur Vorhersage von Abflügen und Wartezeiten Überfüllung in der Notaufnahme (ED) ist mit einer erhöhten Sterblichkeit, erhöhten Behandlungskosten und einer verringerten Versorgungsqualität verbunden. Crowding entsteht, wenn die Nachfrage die Ressourcen in der Notaufnahme übersteigt und ein erstes Anzeichen dafür sein kann, dass die Wartezeit verlängert wird. Unser Ziel war es, Prädiktoren für die Abreise aus der Notaufnahme zu quantifizieren und dies mit der Wartezeit in der Notaufnahme vor der Abreise in Beziehung zu setzen.;-;-;-;https://link.springer.com/article/10.1186/s12874-019-0710-3 fb9391672159e07f0dd81adbbfa96a76;de;;;6.2.;;;Persistierende Hinterhauptsposition Posterior – Ergebnisse nach manueller Rotation (POP-OUT): Studienprotokoll für eine randomisierte kontrollierte Studie Hintere Hinterhauptslage ist die häufigste Fehlstellung bei der Wehentätigkeit, trägt zu etwa 18% der Notkaiserschnitte bei und ist mit einem hohen Risiko einer assistierten Entbindung verbunden. Der Kaiserschnitt trägt heute in den Industrieländern wesentlich zur Müttersterblichkeit und -morbidität nach der Geburt bei. Ein geburtshilflicher Eingriff mit einer Zange und einer Entbindung über eine Kammer ist mit Komplikationen am mütterlichen Genitaltrakt bzw. am Neugeborenen verbunden.;-;-;-;https://link.springer.com/article/10.1186/s13063-015-0603-7 f90aae720a4d12d74c8d5594d42d51e6;de;;;6.2.;;;Männliche Beschneidung zur HIV-Prävention – eine Querschnittsstudie zur Sensibilisierung junger Menschen und Erwachsener im ländlichen Uganda Die medizinische Beschneidung von Männern ist heute Teil eines umfassenden Ansatzes zur HIV-Prävention. Es hat sich gezeigt, dass das Bewusstsein für die schützende Wirkung der männlichen Beschneidung zu einer hohen Akzeptanz bei der Einführung medizinischer Dienste der männlichen Beschneidung in den Ländern führt. Das Ziel dieser Umfrage war es, Faktoren zu identifizieren, die das Bewusstsein für die Beschneidung von Männern zur HIV-Prävention bestimmen.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-10-209 0f3348fe1a38b2818b44eb34c541aa0f;de;;;6.2.;;;Wachstum im Mikromaßstab: langfristige Ausdünnungseffekte auf Muster und Zeitpunkt des intra-jährlichen Stammwachstums bei Radiata-Kiefer Das radiale Wachstum der Stängel in Wäldern ist nicht einheitlich. Es ist vielmehr durch Phasen relativ schnellen oder langsamen Wachstums oder manchmal überhaupt kein Wachstum gekennzeichnet. Diese Schwankungen sind im Allgemeinen eine Funktion unterschiedlicher Umweltbedingungen (z. B. Wasserverfügbarkeit) und werden vor allem auch mit Anpassungen der Eigenschaften des gebildeten Holzes verbunden. Die Bedingungen auf der Bestandsebene und die Waldbewirtschaftung, insbesondere die Durchforstung und die Bestandsdichte, haben jedoch auch einen großen Einfluss auf die Wachstumsvariationen. Wir untersuchen, wie unterschiedliche Ausdünnungsgeschichten und/oder Bestandsdichten diese Dynamik des Baumwachstums in den wichtigen kommerziellen Plantagenarten beeinflussen influence;-;-;-;https://link.springer.com/article/10.1186/s40663-018-0153-z 0f5f59d3ce6d9ed00f2170c548b221e6;de;;;6.2.;;;Data Mining der simulierten GAW14-Daten mit grober Mengenlehre und baumbasierten Methoden Grobe Mengenlehre und Entscheidungsbäume sind Data-Mining-Methoden, die zum Umgang mit Vagheit und Unsicherheit verwendet werden. Sie wurden verwendet, um verborgene Muster in komplizierten Datensätzen aufzudecken, die für industrielle Prozesse gesammelt wurden. Der Genetic Analysis Workshop 14 simulierte Daten wurden unter Verwendung eines Systems generiert, das multiple Korrelationen zwischen vier aufeinander folgenden Ebenen genetischer Daten implementierte (krankheitsbezogene Loci, Endophänotypen, Phänotypen und ein Krankheitsmerkmal). Wenn Informationen einer Schicht blockiert wurden und Unsicherheit in den Korrelationen zwischen diesen Schichten entstand, konnte die Korrelation zwischen der ersten und der letzten Schicht (in diesem Fall Anfälligkeitsgene und Krankheitsmerkmal) nicht ohne weiteres direkt nachgewiesen werden. In dieser Studie schlugen wir einen zweistufigen Prozess vor, der eine grobe Settheorie und Entscheidungsbäume anwendete, um Gene zu identifizieren, die für das Krankheitsmerkmal anfällig sind. In der ersten Phase wurden basierend auf den Phänotypen der Probanden und ihrer Eltern Entscheidungsbäume erstellt, um Merkmalswerte vorherzusagen. Die in den Entscheidungsbäumen beibehaltenen Phänotypen wurden dann in die zweite Stufe überführt, in der die Grobsatztheorie angewendet wurde, um die minimalen Untergruppen von Genen zu entdecken, die mit dem Krankheitsmerkmal assoziiert sind. Zum Vergleich wurden auch Entscheidungsbäume konstruiert, um in der zweiten Stufe anfällige Gene zu kartieren. Unsere Ergebnisse zeigten, dass die Entscheidungsbäume der ersten Stufe Genauigkeitsraten von etwa 99% bei der Vorhersage des Krankheitsmerkmals aufwiesen. Die Entscheidungsbäume und die grobe Mengentheorie konnten die wahren krankheitsbezogenen Loci nicht identifizieren.;-;-;-;https://link.springer.com/article/10.1186/1471-2156-6-S1-S133 4849d5b6d8f695b31796beb42aec7f83;de;;;6.2.;;;Erkennung von Lungenkrebs im Frühstadium bei Militärpersonal (DECAMP) Konsortium: Studienprotokolle Lungenkrebs ist die häufigste krebsbedingte Todesursache, zum großen Teil aufgrund unserer Unfähigkeit, ihn in einem frühen und potenziell heilbaren Stadium zu diagnostizieren. Das Screening auf Lungenkrebs mittels Computertomographie mit niedriger Dosis (LDCT) verbessert nachweislich die Mortalität, führt aber auch zu einer hohen Rate falsch positiver Tests. Die Identifizierung und Anwendung nicht-invasiver molekularer Biomarker, die die Leistung der CT-Bildgebung zur Erkennung von Lungenkrebs bei Personen mit hohem Risiko verbessern, würde bei der klinischen Entscheidungsfindung helfen, unnötige LDCT-Nachuntersuchungen überflüssig machen und das Screening weiter verfeinern Kriterien für eine bereits große Hochrisikopopulation.;-;-;-;https://link.springer.com/article/10.1186/s12890-019-0825-7 24e7e2305b4ba8f76b4b51c1ce636a9f;de;;;6.2.;;;Bewertung der Aktualität der Berichterstattung von Überwachungssystemen des öffentlichen Gesundheitswesens für Infektionskrankheiten Die Aktualität ist ein wichtiges Leistungsmaß von Überwachungssystemen im Bereich der öffentlichen Gesundheit. Die Aktualität kann je nach Krankheit, beabsichtigter Verwendung der Daten und Ebene des öffentlichen Gesundheitssystems variieren. Studien wurden überprüft, um Methoden zu beschreiben, die verwendet wurden, um die Aktualität zu bewerten, und die Berichterstattung der Aktualität der Daten des Nationalen meldepflichtigen Krankheitsüberwachungssystems (NNDSS) wurde bewertet, um festzustellen, ob dieses System eine rechtzeitige Benachrichtigung und staatliche Reaktion auf Ausbrüche in mehreren Staaten unterstützen könnte.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-4-29 3999578fa64059cd7e10af607e1ad631;de;;;6.2.;;;Ursachen, Trends und Schwere von Muskel-Skelett-Verletzungen in Ghana Muskel-Skelett-Verletzungen [MSK] sind häufige Ursachen für langfristige Schmerzen und körperliche Behinderungen, von denen viele Menschen weltweit betroffen sind. Die wirtschaftlichen und sozialen Auswirkungen auf den Einzelnen, die Gesellschaft und die nationalen Gesundheitssysteme sind enorm und machen die öffentliche Gesundheit besorgniserregend. Daher untersuchte diese Studie die Ursachen und das Ausmaß von MSK-Verletzungen in einem Überweisungskrankenhaus in Ghana.;-;-;-;https://link.springer.com/article/10.1186/s12891-017-1709-8 c2af652f83e9d5402cf6d6954b4f32c1;de;;;6.2.;;;Sinkende Malariabelastung über zwei Jahrzehnte in einer ländlichen Gemeinde im Distrikt Muheza im Nordosten Tansanias Der kürzlich berichtete Rückgang der Malariabelastung in einigen afrikanischen Ländern wurde auf die Ausweitung verschiedener Interventionen zurückgeführt, obwohl diese Veränderungen in einigen Gebieten vor der Durchführung wichtiger Interventionen begannen. Diese Studie bewertete die langfristigen Trends der Malariabelastung über 20 Jahre (1992–2012) in Magoda und über 15 Jahre im Dorf Mpapayu im Distrikt Muheza im Nordosten Tansanias in Bezug auf verschiedene Interventionen sowie sich ändernde nationale Malariakontrollstrategien .;-;-;-;https://link.springer.com/article/10.1186/1475-2875-12-338 2d00df39d38de24a8782b1643515d190;de;;;6.2.;;;Motive für die Änderung der antiretroviralen Erstlinientherapie bei einer nicht ausgewählten Kohorte von HIV/AIDS-Patienten in einem großen Überweisungszentrum im Südwesten Kameruns Die rasche Ausweitung der Abdeckung durch antiretrovirale Therapien (ART) in Subsahara-Afrika stellt sich der Herausforderung, internationale klinische Standards für den Einsatz von ART und die Änderung von ART-Regimen aufrechtzuerhalten. In Kamerun haben knappe Berichte die Motive für den Wandel von ART dokumentiert. Ziel dieser Studie war es, die Gründe für einen Wechsel der ART durch eine Sekundäranalyse und deskriptive Synthese von Daten aus einer Querschnittsstudie am Regionalkrankenhaus Limbe zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s13104-017-2948-3 c9c161668a2b6c8f1d732af7eaaf5075;de;;;6.2.;;;Der Einsatz automatisierter Pupillometrie zur Beurteilung der zerebralen Autoregulation: eine retrospektive Studie Schwerkranke Patienten haben ein hohes Risiko, neurologische Komplikationen zu entwickeln. Unter allen möglichen Ätiologien wurde die Hypoperfusion des Gehirns als einer der möglichen Mechanismen befürwortet. Eine Beeinträchtigung der zerebralen Autoregulation (CAR) kann zu einer Hypoperfusion des Gehirns führen. Allerdings ist die Beurteilung von CAR am Krankenbett schwierig. Unser Ziel war es zu evaluieren, ob das automatisierte Pupillometer in der Lage sein könnte, eine beeinträchtigte CAR bei kritisch kranken Patienten zu erkennen.;-;-;-;https://link.springer.com/article/10.1186/s40560-020-00474-z 42c973a24164dfca07c45eac842d54fb;de;;;6.2.;;;Entwicklung eines integrierten, bezirksweiten Ansatzes zum Schwangerschaftsmanagement für Frauen mit vorbestehendem Diabetes in einer multiethnischen Bevölkerung Ein schlechtes Diabetes-Management vor der Empfängnis führt zu einer erhöhten Rate an fetalen Missbildungen und anderen unerwünschten Schwangerschaftsergebnissen. Wir beschreiben die Entwicklung einer integrierten Managementstrategie vor der Schwangerschaft zur Verbesserung der Schwangerschaftsergebnisse bei Frauen im gebärfähigen Alter mit Diabetes in einem multiethnischen Bezirk.;-;-;-;https://link.springer.com/article/10.1186/s12884-018-2028-2 159f220e7a8a003e94d0f4052b84e040;de;;;6.2.;;;Radiofrequenzablation und Chemotherapie versus alleinige Chemotherapie bei lokal fortgeschrittenem Pankreaskarzinom (PELICAN): Studienprotokoll für eine randomisierte kontrollierte Studie Etwa 80 % der Patienten mit lokal fortgeschrittenem Bauchspeicheldrüsenkrebs (LAPC) werden mit einer Chemotherapie behandelt, von denen etwa 10 % reseziert werden. Kohortenstudien zur lokalen Tumorablation mit Radiofrequenzablation (RFA) haben ein vielversprechendes Gesamtüberleben von 26–34 Monaten bei multimodaler Anwendung berichtet. Es fehlen jedoch randomisierte kontrollierte Studien (RCTs), die die Wirkung von RFA in Kombination mit Chemotherapie bei Patienten mit LAPC untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s13063-021-05248-y a193a8263f9330228302655ae8607e6d;de;;;6.2.;;;Eine Evaluation eines Kurses zur psychischen Gesundheit für arabischsprachige Religions- und Gemeindeführer in Australien: Auswirkungen auf Wissen, Einstellungen und Hilfesuchende im Zusammenhang mit posttraumatischen Belastungsstörungen Australien ist eine ethnisch vielfältige Nation mit einem der größten Umsiedlungsprogramme für Flüchtlinge weltweit, einschließlich einer hohen Zahl von Flüchtlingen mit arabisch sprechendem Hintergrund. Es gibt Hinweise darauf, dass Flüchtlinge ein hohes Maß an psychischer Belastung aufweisen können und ein höheres Risiko haben, psychische Erkrankungen wie posttraumatische Belastungsstörung (PTSD) und Major Depression (MDD) zu entwickeln. Ungeachtet dessen hat die Forschung auch gezeigt, dass arabischsprachige Flüchtlinge ein geringeres Verhalten bei der Suche nach professioneller Hilfe aufweisen, was postuliert wird, um mit dem Niveau der psychischen Gesundheit zusammenzuhängen.;-;-;-;https://link.springer.com/article/10.1186/s13033-020-00401-7 1f61fcf8ea727eeee0ea341e164b5dd5;de;;;6.2.;;;Der Zusammenhang zwischen langen Arbeitszeiten und Depressionen bei Erstansässigen in Japan In Japan entwickeln einige Bewohner psychische Probleme. In früheren Studien wurde berichtet, dass lange Arbeitszeiten eine Ursache für Stressreaktionen wie Depressionen sein können. Es gab einige Berichte, die Bewohner mit 80 oder mehr Arbeitsstunden mit denen mit weniger als 80 Arbeitsstunden verglichen. Viele Bewohnerinnen und Bewohner werden jedoch praktisch überlange Zeiträume von 100 Stunden oder mehr pro Woche für Arztpraxen, Fortbildungen, Selbststudium usw. inhaftiert. Über überlange Arbeitszeiten liegen nur wenige Berichte vor. Diese Studie evaluierte das Arbeitsumfeld und die Belastungsintensität von Erstsemestern und untersuchte den Zusammenhang zwischen langer Arbeitszeit und Depression, insbesondere in der Gruppe der überlangen Arbeitszeiten.;-;-;-;https://link.springer.com/article/10.1186/s12909-018-1171-9 efcdf77c79002c6387ce540ade465120;de;;;6.2.;;;Evaluation des Helfing Babies Breathing Quality Improvement Cycle (HBB-QIC) zum Erhalt der Reanimationsfähigkeiten für Neugeborene sechs Monate nach dem Training in Nepal Jedes Jahr sterben 700.000 Säuglinge an intrapartalen Komplikationen. Die Implementierung von Helping Babies Breathe (HBB) – ein vereinfachtes Protokoll zur Wiederbelebung von Neugeborenen in ressourcenarmen klinischen Umgebungen – hat gezeigt, dass sich intrapartale Totgeburten und die Neugeborenensterblichkeit am ersten Tag reduzieren lassen. Es fehlt jedoch an Beweisen für die Wirkung verschiedener HBB-Implementierungsstrategien zur Verbesserung und Aufrechterhaltung der klinischen Kompetenz von Gesundheitspersonal bei der Beatmung mit Beutel und Maske. Diese Studie wurde durchgeführt, um die Auswirkungen einer vielschichtigen Implementierungsstrategie für HBB als Qualitätsverbesserungszyklus (HBB-QIC) auf den Erhalt der Fähigkeiten zur Wiederbelebung von Neugeborenen in einem tertiären Krankenhaus in Nepal zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s12887-017-0853-5 329eb0b6e7fb2c19ad12faa05d2c51a3;de;;;6.2.;;;HIV-1-Arzneimittelresistenztests sind für stark behandelte Patienten unerlässlich, die in einem Umfeld mit begrenzten Ressourcen von Erst- auf Zweitlinientherapie umstellen: Beweise aus der klinischen Routinepraxis in Kamerun Mit dem Auslaufen von Stavudin (d4T) könnte die Umstellung auf Erstlinientherapien mit Zidovudin (AZT) oder Tenofovir (TDF) in ressourcenbegrenzten Situationen (RLS) das Risiko einer Kreuzresistenz gegen Nukleos(t)-ide Reverse Transkriptase erhöhen Inhibitoren (NRTI). Dies würde den Umfang der Umstellung auf die von der Weltgesundheitsorganisation (WHO) empfohlenen Standard-Zweitlinienkombinationen (SLC) ohne HIV-Resistenztest (HIVDR) in der klinischen Routinepraxis einschränken.;-;-;-;https://link.springer.com/article/10.1186/s12879-019-3871-0 54908c9354177ac0efb01a749672121f;de;;;6.2.;;;Einige Ergänzungen der Cauchyschen Ungleichung auf Zeitskalen Wir stellen einige Ergänzungen der Cauchyschen Ungleichung auf Zeitskalen her. Diese Ergebnisse erweitern einige Ungleichungen von Cargo, Diaz, Goldman, Greub, Kantorovich, Makai, Metcalf, Pólya, Rheinboldt, Schweitzer und Szegö usw.;-;-;-;https://link.springer.com/article/10.1155/JIA/2006/97430 40e816122fa0e7320b7a589ebe4daaba;de;;;6.2.;;;MYPLAN –Mobiltelefonanwendung zur Krisenbewältigung von suizidgefährdeten Personen: Studienprotokoll für eine randomisierte kontrollierte Studie Personen mit einer vergangenen Episode von Selbstverletzung oder schweren Suizidgedanken haben ein erhöhtes Risiko, sich selbst zu verletzen und durch Suizid zu sterben. Es ist allgemein bekannt, dass Suizidgedanken im Laufe der Zeit schwanken.;-;-;-;https://link.springer.com/article/10.1186/s13063-017-1876-9 66cd5fef7628d8200183ccfbfeede495;de;;;6.2.;;;Maßgeschneiderte Implementierung internetbasierter kognitiver Verhaltenstherapie im multinationalen Kontext des ImpleMentAll-Projekts: ein Studienprotokoll für eine randomisierte Stepped-Wedge-Cluster-Studie Die internetbasierte kognitive Verhaltenstherapie (iCBT) hat sich bei der Behandlung häufiger psychischer Störungen als wirksam erwiesen. Der Einsatz dieser Interventionen in der Routineversorgung ist jedoch begrenzt. Die internationale ImpleMentAll-Studie wird durch das Programm Horizon 2020 der Europäischen Union gefördert. Es befasst sich mit der Untersuchung und Verbesserung von Methoden zur Implementierung evidenzbasierter iCBT-Dienste für häufige psychische Störungen in der psychiatrischen Routineversorgung. Ein digital zugänglicher Implementierungs-Toolkit (;-;-;-;https://link.springer.com/article/10.1186/s13063-020-04686-4 41385ed32a53deed29d98e82338b072a;de;;;6.2.;;;Der Verlust von Frauen auf dem Weg zu einer sicheren Mutterschaft: Warum gibt es eine solche Kluft zwischen der Inanspruchnahme von Schwangerenvorsorge und einer qualifizierten Geburtsbegleitung? Eine Mixed-Methods-Studie in Norduganda Tausende von Frauen und Neugeborenen sterben immer noch an vermeidbaren Todesfällen durch Schwangerschaft und Geburtskomplikationen in armen Verhältnissen. Die Geburt mit einer erfahrenen Geburtshelferin ist eine lebensrettende Maßnahme. Dennoch haben viele Frauen, insbesondere dort, wo die Müttersterblichkeitsrate am höchsten ist, bei der Entbindung keine qualifizierte Geburtshelferin. In Uganda entbinden nur 58 % der Frauen in einer Gesundheitseinrichtung, obwohl etwa 95 % der Frauen eine Schwangerschaftsvorsorge (ANC) besuchen.;-;-;-;https://link.springer.com/article/10.1186/s12884-015-0695-9 e5bcd7dcf304edcaf8742199a9f30bce;de;;;6.2.;;;Prävalenz und Faktoren im Zusammenhang mit Asthma bei Jugendlichen und Erwachsenen in Uganda: eine allgemeine Bevölkerungsstudie In Uganda fehlen aktuelle groß angelegte Bevölkerungsdaten zur Prävalenz von Asthma und seinen Risikofaktoren. Diese Umfrage wurde durchgeführt, um diese Datenlücke zu schließen.;-;-;-;https://link.springer.com/article/10.1186/s12889-019-6562-2 4df495b526d3b11bb5c1ee9ae24a341d;de;;;6.2.;;;Umweltmediziner spielen möglicherweise eine Schlüsselrolle bei der Unterstützung der Gemeinschaften bei der Anpassung an den Klimawandel Schutzbedürftige Bevölkerungsgruppen in Südafrika, insbesondere in Armut lebende Menschen, Kleinkinder, Frauen, ältere Menschen und Menschen mit Vorerkrankungen, sind anfällig für neue oder verschärfte Gesundheitsgefahren durch den Klimawandel. Umwelt-Gesundheitspraktiker (Environmental Health Practitioners, EHPs) können eine wichtige Rolle dabei spielen, Gemeinschaften bei der Anpassung an die gesundheitlichen Auswirkungen des Klimawandels zu unterstützen, jedoch erfordert eine wirksame Koordinierung dieser Maßnahmen ein besseres Verständnis ihrer Rolle bei der Umsetzung von Anpassungsmaßnahmen im Zusammenhang mit dem Klimawandel in den Gemeinschaften.;-;-;-;https://link.springer.com/article/10.1186/s12889-018-6378-5 18e79c30ecf28edea1d0308084f860c5;de;;;6.2.;;;Der Zusammenhang zwischen Lebensqualität und potenziell behebbaren Störungen des circadianen Schlaf-/Aktivitätsrhythmus bei Patienten mit fortgeschrittenem Lungenkrebs lung Krebspatienten entwickeln routinemäßig Symptome, die mit einer tiefgreifenden zirkadianen Störung übereinstimmen, was zu einer verminderten Lebensqualität führt. Diese Studie wurde initiiert, um die Beziehung zwischen dem Schweregrad einer potenziell heilbaren krebsbedingten zirkadianen Störung und der Lebensqualität von Patienten mit fortgeschrittenem Lungenkrebs zu bestimmen.;-;-;-;https://link.springer.com/article/10.1186/1471-2407-11-193 27610c61bfafd68023872dd26a4f9946;de;;;6.2.;;;Depression, Angst und Stresssymptome bei Diabetikern in Malaysia: eine Querschnittsstudie in einer städtischen Grundversorgung primary Diabetes mellitus ist in Malaysia eine weit verbreitete Erkrankung, die von 11,6% im Jahr 2006 auf 15,2% im Jahr 2011 bei Personen ab 18 Jahren zugenommen hat. Komorbide Depressionen bei Diabetikern sind mit Hyperglykämie, diabetischen Komplikationen und erhöhten Gesundheitskosten verbunden. Das Ziel dieser Studie ist es, die Prävalenz und Prädiktoren von Depressionen, Angstzuständen und Stresssymptomen bei Typ-II-Diabetikern zu bestimmen, die staatliche Grundversorgungseinrichtungen im Stadtgebiet Klang Valley, Malaysia, besuchen.;-;-;-;https://link.springer.com/article/10.1186/1471-2296-14-69 f8fe84f2a62127b6ec2e7425ba7fb3ab;de;;;6.2.;;;Gesundheitsökonomische Evaluation in Orthesen und Prothetik: ein systematisches Review-Protokoll Gesundheitsökonomische Evaluationen sind unerlässlich, um Gesundheitspolitik und Investitionsentscheidungen zu unterstützen. Bisher konzentrierten sich gesundheitsökonomische Bewertungen in Orthesen und Prothetik eher auf einzelne Komponenten einer Orthese/Prothese (z. B. ein mikroprozessorgesteuertes Prothesenkniegelenk) als auf den breiteren Service von Orthopädietechnikern/Prothetikern. Daher ist der Beitrag zur orthopädischen/prothetischen Politik und zu Investitionsentscheidungen unklar. Obwohl es Möglichkeiten gibt, aussagekräftigere gesundheitsökonomische Bewertungen durchzuführen, die die Kosten und den Nutzen der orthopädischen/prothetischen Leistung beschreiben, ist es wichtig, dass prospektive Forschung durch eine kritische Überprüfung der Herausforderungen beim Methodendesign und ein Verständnis dafür, wie diese Forschung sein kann, informiert wird verbessert. Das Ziel dieser systematischen Übersichtsarbeit ist es, die vorhandene Literatur zur gesundheitsökonomischen Evaluation von orthopädischen/prothetischen Bewertungen kritisch zu bewerten und somit Evidenzlücken, kritische Fragen der Methodengestaltung und das Ausmaß zu ermitteln, in dem die Literatur orthopädische/prothetische Richtlinien und Investitionsentscheidungen beeinflusst.;-;-;-;https://link.springer.com/article/10.1186/s13643-019-1066-9 fee6f7b236a1d172a69f9bbb9456fbee;de;;;6.2.;;;Die Durchführbarkeit und Akzeptanz von Studienverfahren für eine pragmatische randomisierte kontrollierte Studie einer strukturierten körperlichen Aktivitätsintervention für Menschen mit diagnostiziertem Dickdarmkrebs: Ergebnisse einer Pilotstudie zur kardialen Rehabilitation vs Pilot- und Durchführbarkeitsarbeiten werden durchgeführt, um die operative Durchführbarkeit und Akzeptanz der Intervention selbst sowie die Durchführbarkeit und Akzeptanz des Studienprotokolldesigns zu bewerten. Die Studie zur kardialen Rehabilitation bei Darmkrebs (CRIB) war eine randomisierte kontrollierte Pilotstudie (RCT) zur kardialen Rehabilitation im Vergleich zur üblichen Behandlung (keine Rehabilitation) für postoperative Darmkrebspatienten. Ein Hauptziel der Pilotstudie war es, die Durchführbarkeit und Akzeptanz des Protokolldesigns zu testen.;-;-;-;https://link.springer.com/article/10.1186/s40814-016-0090-y 347b28d914a295ab64253508c03570b2;de;;;6.2.;;;Prozesse und Dynamiken der Verknüpfung mit der Versorgung von mobilen/aufsuchenden und einrichtungsbasierten HIV-Testmodellen in schwer zugänglichen Umgebungen im ländlichen Tansania. Qualitative Ergebnisse einer Mixed-Methods-Studie Wie andere Länder hat Tansania mobile und aufsuchende Testansätze eingeführt, um die niedrigen HIV-Testraten in Gesundheitseinrichtungen zu bekämpfen und die Verbindung zur Versorgung zu verbessern. Verfügbare Beweise aus schwer zugänglichen ländlichen Gebieten der Region Mbeya, Tansania, legen nahe, dass Klienten, die HIV+ an Einrichtungen in Einrichtungen testen, mit größerer Wahrscheinlichkeit und früher eine Verbindung zur Pflege herstellen als diejenigen, die an mobilen Standorten testen. Dieses Papier (1) beschreibt die Bevölkerungen, die Zugang zu HIV-Tests an mobilen/aufsuchenden und einrichtungsbasierten Teststandorten haben, und (2) vergleicht Prozesse und Dynamiken vom Testen bis zur Verknüpfung mit der Versorgung zwischen diesen beiden Testmodellen aus demselben Studienkontext.;-;-;-;https://link.springer.com/article/10.1186/s12981-018-0209-8 c510b76174de9aa34ee258300f9e405f;de;;;6.2.;;;HIV-Tat-Immunisierung induziert clade-neutralisierende Antikörper und CD4 Obwohl die kombinierte antiretrovirale Therapie (cART) Millionen von Leben gerettet hat, ist sie nicht in der Lage, das Immunsystem vollständig zu rekonstruieren und das Virus auszurotten. Der Transaktivator der Transkription (Tat) ist ein wichtiger Virulenzfaktor des humanen Immunschwächevirus (HIV), der für die Virusreplikation und -übertragung erforderlich ist. Tat wird von infizierten Zellen auch unter cART exprimiert und extrazellulär freigesetzt und induziert in dieser Form eine Immundysregulation und fördert die Virusreaktivierung, den Eintritt und die Ausbreitung. Bemerkenswert ist, dass Anti-Tat-Antikörper bei natürlichen Infektionen selten sind und, falls vorhanden, mit einem asymptomatischen Zustand und einem verringerten Krankheitsverlauf korrelieren. Dies deutete darauf hin, dass die Induktion von Anti-Tat-Antikörpern eine Pathogenese-gesteuerte Intervention darstellt, um das Fortschreiten zu blockieren und die cART zu intensivieren. Tatsächlich war die Impfung auf Tat-Basis in einer offenen, randomisierten klinischen Phase-II-Studie, die an 168 mit cART behandelten Freiwilligen in Italien durchgeführt wurde, sicher, immunogen und in der Lage, das Immunsystem wiederherzustellen. Um zu beurteilen, ob eine B-Clade-Tat-Impfung auch bei Patienten mit unterschiedlichem genetischen Hintergrund und infizierendem Virus wirksam wäre, wurde eine Phase-II-Studie in Südafrika durchgeführt.;-;-;-;https://link.springer.com/article/10.1186/s12977-016-0261-1 6d9dec72ff2111ca2fc482d1d8a7e163;de;;;6.2.;;;Untersuchung der Kluft zwischen Wissen und Praktiken beim Händewaschen in Bangladesch: eine vergleichende Querschnittsstudie Händewaschen gilt als eine der wirksamsten Maßnahmen zur Hygieneförderung für die öffentliche Gesundheit in Entwicklungsländern. Diese Studie verglich das Wissen und die Praktiken des Händewaschens in den Programmbereichen Wasser, Sanitär und Hygiene (WASH) von BRAC im Zeitverlauf.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-13-89 bb003da6f783d3fb4ecf0eec60e12383;de;;;6.2.;;;Kombinierte kognitiv-verhaltenstherapeutische und physiotherapeutische Therapie für Patienten mit chronischem Beckenschmerzsyndrom (COMBI-CPPS): Studienprotokoll für eine kontrollierte Machbarkeitsstudie Das chronische Beckenschmerzsyndrom (CPPS) ist ein Schmerzzustand, der im Beckenbereich seit mindestens 6 Monaten wahrgenommen wird. Während die Ätiologie und Aufrechterhaltung des CPPS noch unklar und Therapieoptionen selten sind, gibt es vorläufige Belege für die Wirksamkeit der kognitiven Verhaltenstherapie und Physiotherapie. Eine integrierte Behandlung wurde jedoch noch nicht untersucht. Das primäre Ziel dieser Studie ist es daher, die Machbarkeit einer kombinierten Psychotherapie und Physiotherapie für weibliche und männliche Patienten mit CPPS zu testen. Das sekundäre Ziel besteht darin, Veränderungen der patientenrelevanten und wirtschaftlichen Ergebnisse im Vergleich zu einer Kontrollgruppe zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s13063-017-2387-4 9c0c359aed69c391781c1ba48a53b3c6;de;;;6.2.;;;Beschreibung der Ergebnisse der dysvaskulären Teilfußamputation und deren Vergleich zur Unterschenkelamputation: ein systematisches Review-Protokoll zur Entwicklung gemeinsamer Entscheidungsressourcen Menschen dabei zu helfen, fundierte Entscheidungen über dysvaskuläre Teilfußamputationen zu treffen, wird immer wichtiger, da Verbesserungen in der Diabetesversorgung und Gefäßchirurgie zunehmend distalere Amputationen ermöglichen. Die hohen Komplikations- und Reamputationsraten bei Teilfußamputationen sind besorgniserregend, insbesondere da die Unterschenkelamputation zu ähnlichen Ergebnissen (z. Das Ziel dieser Übersichtsarbeit ist es, die Ergebnisse der dysvaskulären Teilfußamputation zu beschreiben und diese mit der Unterschenkelamputation zu vergleichen. Die Ergebnisse der Überprüfung sollen bei der Entwicklung gemeinsamer Entscheidungsressourcen verwendet werden.;-;-;-;https://link.springer.com/article/10.1186/s13643-015-0161-9 56db34d7e449fb1a21ff79eb879c2808;de;;;6.2.;;;Computergestützte Vorhersage der Entlassung auf der Intensivstation nach Herzoperationen: Entwicklung und Validierung eines Gauss'schen Prozessmodells Die Verweildauer auf der Intensivstation (ICU) von Patienten, die sich einer Herzoperation unterziehen, kann erheblich variieren und ist innerhalb der ersten Stunden nach der Aufnahme oft schwer vorherzusagen. Die frühe klinische Entwicklung eines herzchirurgischen Patienten könnte für seine LOS prädiktiv sein. Der Zweck der vorliegenden Studie bestand darin, ein Vorhersagemodell für die Entlassung auf der Intensivstation nach einer Herzoperation ohne Notfall zu entwickeln, indem die Daten der ersten 4 Stunden in der computerisierten Krankenakte dieser Patienten mit Gauß-Prozessen (GP), einer maschinellen Lerntechnik, analysiert wurden.;-;-;-;https://link.springer.com/article/10.1186/1472-6947-11-64 fea12ef3341e16f602da33db85b14596;de;;;6.2.;;;Ein randomisierter Crossover-Vergleich von Ketamin und Elektrokrampftherapie zur Behandlung schwerer depressiver Episoden: ein kanadisches Biomarker-Integrationsnetzwerk bei Depression (CAN-BIND) Studienprotokoll Jüngste Beweise unterstreichen den Nutzen schnell wirkender antidepressiver Interventionen wie Ketamin bei der Linderung der Symptome von Episoden einer Major Depression (MDE). Bis heute gab es jedoch in großen randomisierten Studien nur begrenzte direkte Vergleiche von intravenösen (IV) Ketamin-Infusionen mit anderen antidepressiven Behandlungsstrategien. Dieses Studienprotokoll beschreibt eine laufende multizentrische, prospektive, randomisierte, Crossover-, Nicht-Unterlegenheitsstudie zum Vergleich der akuten Behandlung von Personen, die die diagnostischen Kriterien für eine schwere depressive Episode (MDE) erfüllen, mit Ketamin und Elektrokrampftherapie (EKT) hinsichtlich Wirksamkeit und Geschwindigkeit der therapeutischen Nebenwirkungen, Nebenwirkungen und Ressourcennutzung im Gesundheitswesen. Ein sekundäres Ziel ist es, eine 6-monatige Erhaltungsstrategie für Ketamin-Responder mit der EKT-Erhaltung nach dem Standard der Behandlung zu vergleichen. Schließlich wollen wir durch die Messung klinischer, kognitiver, bildgebender und molekularer Marker Prädiktoren und Moderatoren des Behandlungsansprechens sowie der behandlungsbedingten Auswirkungen auf diese Ergebnisse ermitteln.;-;-;-;https://link.springer.com/article/10.1186/s12888-020-02672-3 090290128c0c9d158e096eee2486e05a;de;;;6.2.;;;Statine und das Risiko von Typ-2-Diabetes mellitus: Kohortenstudie unter Verwendung des britischen Datenlinks für die klinische Praxis Es gibt starke Hinweise auf eine Verringerung der schwerwiegenden vaskulären Ereignisse durch Statine in allen kardiovaskulären Risikokategorien. Studien zur Statintherapie haben jedoch widersprüchliche Ergebnisse bezüglich der Verwendung von Statinen und Typ-2-Diabetes (T2DM) geliefert. Unser Ziel war es, die Wirkung von Statinen auf die T2DM-Entwicklung zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/1471-2261-14-85 c7a96e935fc0048ca56b64bcdd255ece;de;;;6.2.;;;Inzidenz und soziobiologische Risikofaktoren für spontane Frühgeburten bei HIV-positiven nigerianischen Frauen Jüngste Studien haben HIV als einen der Hauptverursacher von Frühgeburten und der damit verbundenen Morbidität und Mortalität identifiziert. In unserer Unterregion gibt es jedoch nur wenige oder keine Informationen zu diesem Thema. Die Identifizierung der Faktoren, die mit einer Frühgeburt bei HIV-positiven Frauen in unserem Land und unserer Subregion in Verbindung stehen, wird nicht nur die Mutter-Kind-Übertragung des HIV-Virus verhindern, sondern auch die mit Frühgeburtlichkeit und niedrigem Geburtsgewicht verbundene Morbidität und Mortalität reduzieren. Diese Studie wurde entwickelt, um die Inzidenz und die Risikofaktoren für eine Frühgeburt bei HIV-positiven Nigerianern zu bestimmen.;-;-;-;https://link.springer.com/article/10.1186/1471-2393-12-93 97022d75d0c46c99eacf49e30363ab93;de;;;6.2.;;;Inanspruchnahme der reproduktiven Gesundheitsversorgung in städtischen Armensiedlungen von Delhi: Basiserhebung des Projekts ANCHUL (Ante Natal and Child Health Care in Urban Slums) Die Ungleichheit bei der Inanspruchnahme reproduktiver Gesundheitsdienste zwischen den städtischen Armen und den städtischen nicht-armen Haushalten in den Entwicklungsländern ist bekannt. Aber auch innerhalb städtischer ärmerer Haushalte können Ungleichheiten bestehen. Unser Ziel war es, das Ausmaß der Disparität in der reproduktiven Gesundheitsversorgung unter den städtischen Armen zu dokumentieren und die soziodemografischen Determinanten der Unterversorgung zu identifizieren, um diese gefährdete Teilpopulation zu charakterisieren.;-;-;-;https://link.springer.com/article/10.1186/s12884-015-0635-8 a59f5a71379ac8b60240007b4b1c591e;de;;;6.2.;;;Neonatale Sterblichkeit in den zentralen Distrikten Ghanas: Analyse von Gemeinde- und Zusammensetzungsfaktoren Gemeinschaften und ihre Zusammensetzung haben einen Einfluss auf die neonatale Sterblichkeit. Die Betrachtung der kleinsten Gesundheitsverwaltungseinheiten als Gemeinschaften und die Untersuchung der Auswirkungen dieser Gemeinschaften und ihrer Zusammensetzung auf die Neugeborenensterblichkeit in Ghana wurden jedoch nicht untersucht. Daher zielte diese Studie darauf ab, den Einfluss von Faktoren auf Gemeinde-, Haushalts- und individueller Ebene auf das Risiko der Neugeborenensterblichkeit in zwei Distrikten in Ghana zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s12889-021-10156-6 684bbcd08df663ed41e1148648564cae;de;;;6.2.;;;Häm-Oxygenase-1-Promotorregion (GT)n-Polymorphismus ist mit einer erhöhten neuroimmunologischen Aktivierung und dem Risiko einer Enzephalitis bei einer HIV-Infektion verbunden Häm-Oxygenase-1 (HO-1) ist ein kritisches zytoprotektives Enzym, das oxidativen Stress, Entzündungen und Zellschädigungen im Zentralnervensystem (ZNS) und anderen Geweben begrenzt. Wir haben zuvor gezeigt, dass die HO-1-Proteinexpression in den Gehirnen von HIV+-Patienten verringert ist und dass diese HO-1-Reduktion mit der ZNS-Immunaktivierung und neurokognitiven Dysfunktion korreliert. Um eine potenzielle ZNS-schützende Rolle von HO-1 gegen HIV zu definieren, analysierten wir eine gut charakterisierte HIV-Autopsiekohorte auf zwei häufige HO-1-Promotorregion-Polymorphismen, die an der Regulierung der Transkriptionsaktivität des HO-1-Promotors beteiligt sind, ein (GT)n-Dinukleotid Wiederholungspolymorphismus und ein einzelner Nukleotidpolymorphismus (A(-413)T). Kürzere HO-1 (GT)n-Wiederholungen und das „A“-SNP-Allel sind mit einer höheren HO-1-Promotoraktivität verbunden.;-;-;-;https://link.springer.com/article/10.1186/s12974-018-1102-z cb567226e3cf496ec110439eab162029;de;;;6.2.;;;Auswirkungen von fünf Jahren Peer-vermittelter Interventionen auf Sexualverhalten und sexuell übertragbare Infektionen bei Sexarbeiterinnen in Mombasa, Kenia Seit 2000 haben Peer-vermittelte Interventionen bei Sexarbeiterinnen (FSW) in Mombasa, Kenia, Verhaltensänderungen durch Verbesserung des Wissens, der Einstellungen und des Bewusstseins über den HIV-Serostatus gefördert und darauf abzielt, HIV und andere sexuell übertragbare Infektionen (STI) zu verhindern, indem eine frühzeitige STI-Behandlung erleichtert wird . Die Wirkung dieser Interventionen wurde bei den Teilnehmern der Peer-Education und auf der Ebene der FSW-Bevölkerung evaluiert.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-8-143 7c4a15b3dad1f0bae305af62f91d9643;de;;;6.2.;;;Bewertung der Verwendung der EORTC-Patientenberichtsparameter zur Verbesserung der Interrater-Reliabilität der CTCAE-Bewertungen in einer gemischten Population von Krebspatienten: Studienprotokoll für eine randomisierte kontrollierte Studie In der Onkologie haben die Erkennung und Verfolgung unerwünschter Ereignisse höchste Priorität und stützen sich hauptsächlich auf die Common Terminology Criteria for Adverse Events (CTCAE). Darüber hinaus verwenden klinische Studien auch patientenberichtete Ergebnisse (PROs), um unerwünschte Ereignisse zu bewerten, die nur durch Patientenselbstberichte zugänglich sind, wie Müdigkeit, Schmerzen und Schlafstörungen. Gerade von außen nicht sichtbare Themen werden durch bloße Anbieterbewertungen oft fehlinterpretiert und unterschätzt. Diese Studie zielt darauf ab, die Auswirkungen der Bereitstellung von PRO-Daten an Anbieter auf die Genauigkeit der Bewertung von Nebenwirkungen in Bezug auf die Inter-Rater-Reliabilität der CTCAE-Bewertungen zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s13063-020-04745-w 817c38ebd49ff53bf7ebada958604863;de;;;6.2.;;;Effekte interprofessioneller Ausbildung für Medizin- und Pflegestudierende: Enabler, Barrieren und Erwartungen zur Optimierung der zukünftigen interprofessionellen Zusammenarbeit – eine qualitative Studie Um eine qualitativ hochwertige Patientenversorgung zu gewährleisten, ist eine effektive interprofessionelle Zusammenarbeit zwischen medizinischen Fachkräften erforderlich. Interprofessionelle Bildung (IPE) wirkt sich positiv auf die Teamarbeit im Gesundheitswesen aus. Dennoch gibt es verschiedene Herausforderungen für eine nachhaltige Umsetzung von IPE. Um Enabler und Barrieren von IPE für Medizin- und Pflegestudierende zu identifizieren sowie Auswirkungen von IPE für beide Berufe zu spezifizieren, wurde die „Kooperative wissenschaftlich-regionale evidenzbasierte Pflegestudie in Mecklenburg-Vorpommern“ (Care-N-Studie M-V) durchgeführt. Ziel ist es zu untersuchen, wie IPE in medizinischen und pflegerischen Ausbildungsprogrammen konzipiert und implementiert werden muss, um den Einfluss der Studenten auf die IPC zu optimieren.;-;-;-;https://link.springer.com/article/10.1186/s12912-018-0279-x 1834c62f3d430acfc2e02b03e4740c4e;de;;;6.2.;;;Checkpoint-Hemmung in Kombination mit einem Immunboost der externen Strahlentherapie bei soliden Tumoren (CHEERS): Studienprotokoll für eine offene, randomisierte, kontrollierte Phase-2-Studie Während die Einführung von Checkpoint-Inhibitoren (CPI) als Standardtherapie bei verschiedenen Tumorarten zu erheblichen Verbesserungen des klinischen Outcomes geführt hat, spricht die Mehrzahl der Patienten noch immer nicht an. Präklinische Daten deuten darauf hin, dass die stereotaktische Körperbestrahlung (SBRT) synergistisch mit CPIs wirken könnte, indem sie als In-situ-Krebsvakzine wirkt, wodurch möglicherweise die Ansprechraten erhöht und die Krankheitskontrolle verlängert wird. Obwohl sich die gleichzeitig mit CPIs verabreichte SBRT als sicher erwiesen hat, fehlen noch immer Belege für ihre Wirksamkeit aus großen randomisierten Studien. Das Ziel dieser multizentrischen randomisierten Phase-II-Studie ist es zu beurteilen, ob eine gleichzeitig mit CPIs verabreichte SBRT das progressionsfreie Überleben im Vergleich zur Standardbehandlung bei Patienten mit fortgeschrittenen soliden Tumoren verlängern könnte.;-;-;-;https://link.springer.com/article/10.1186/s12885-021-08088-w f170b56761e47b7b32b26485b861ff99;de;;;6.2.;;;Mehrfach-Viktimisierung und Gesundheitsrisikoverhalten, Symptome psychischer Gesundheitsprobleme und Selbstmordgedanken und -pläne bei Jugendlichen in Vietnam Zur Polyviktimisierung (Aussetzung gegenüber mehreren Formen der Viktimisierung) und zur psychischen Gesundheit von Jugendlichen in Ländern mit niedrigem und mittlerem Einkommen liegen nur begrenzte Erkenntnisse vor. Das Ziel dieser Studie war es, die Zusammenhänge zwischen lebenslanger Exposition gegenüber Polyviktimisierung, Gesundheitsrisikoverhalten, Symptomen häufiger psychischer Gesundheitsprobleme und Suizidgedanken im Vorjahr bei Gymnasiasten in Vietnam zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s13033-016-0099-x eb77880e99dda36a37b55c9c97100090;de;;;6.2.;;;Indiens JSY-Geldtransferprogramm für Müttergesundheit: Wer nimmt teil und wer nicht – ein Bericht aus dem Bezirk Ujjain Indien startete 2005 ein nationales bedingtes Geldtransferprogramm, Janani Suraksha Yojana (JSY), das darauf abzielte, die Müttersterblichkeit durch die Förderung der institutionellen Geburt zu senken. Es bietet Frauen, die in öffentlichen Gesundheitseinrichtungen gebären, einen Geldanreiz. In diesem Artikel werden das Ausmaß der Programminanspruchnahme, die Gründe für die Teilnahme/Nichtteilnahme, die mit der Nichtinanspruchnahme des Programms verbundenen Faktoren und die Rolle einer Programmfreiwilligen, akkreditierten Aktivistin für soziale Gesundheit (ASHA), unter Müttern im Bezirk Ujjain in Madhya Pradesh . untersucht , Indien.;-;-;-;https://link.springer.com/article/10.1186/1742-4755-9-2 bc6138426d1add15652307dafb3fb2b2;de;;;6.2.;;;Die Wirkung von Vitamin K auf die Prothrombinzeit bei kritisch kranken Patienten: eine Beobachtungsregisterstudie Frühere Studien haben gezeigt, dass ein Vitamin-K-Mangel bei nicht blutenden kritisch kranken Patienten mit leicht verlängerter Prothrombinzeit-International Normalized Ratio (PT-INR) häufig vorkommt. Es wurde nie gründlich untersucht, ob die Verabreichung von Vitamin K bei diesen Patienten ihren PT-INR beeinflussen könnte. Daher war das Ziel dieser Registerstudie, Veränderungen der PT-INR als Reaktion auf Vitamin K bei kritisch kranken Patienten mit einer PT-INR im Bereich von 1,3–1,9 zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s40560-020-00517-5 91a9559edba487abde1a1c427af59c8c;de;;;6.2.;;;Hohe Akzeptanz von häuslicher HIV-Beratung und -Tests in einem städtischen Umfeld in Uganda HIV-Tests sind eine Schlüsselkomponente der Prävention und ein Einstiegspunkt in die Behandlung und Versorgung von HIV/AIDS, jedoch sind die Abdeckung und der Zugang zu Tests in Uganda nach wie vor gering. Home-Based HIV Counseling and Testing (HBHCT) hat das Potenzial, den Zugang zu und die Früherkennung unbekannter HIV/AIDS-Krankheiten zu verbessern. Diese Studie untersuchte die Akzeptanz von HIV-Beratung und -Tests zu Hause (HBHCT), die HIV-Seroprävalenz und die Faktoren, die mit der Akzeptanz von HBHCT in einem städtischen Umfeld verbunden sind.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-11-730 782f0c439c3f2308a5107f7089da904b;de;;;6.2.;;;Sozioökonomische Ungleichheit und Mortalität – eine regionale dänische Kohortenstudie Sozioökonomische Ungleichheiten bei der Sterblichkeit stellen selbst in hochentwickelten Wohlfahrtsstaaten ein ernsthaftes Hindernis für die Verbesserung der öffentlichen Gesundheit dar. Diese Studie zielte darauf ab, das Verständnis sozioökonomischer Disparitäten bei der Gesamtmortalität zu verbessern, indem ein umfassender Ansatz verwendet wurde, der eine Reihe von Verhaltens-, psychologischen, materiellen und sozialen Determinanten in die Analyse einbezog.;-;-;-;https://link.springer.com/article/10.1186/s12889-015-1813-3 0cf7a3199cd3a3c958166fc389825cfa;de;;;6.2.;;;One size fits all: lokale Determinanten der Masernimpfung in vier Distrikten Pakistans Die Impfraten bei Kindern in Pakistan sind nach wie vor niedrig. Es wird weiterhin über die Rolle von Verbraucher- und Dienstleistungsfaktoren bei der Bestimmung des Impfniveaus in Entwicklungsländern diskutiert.;-;-;-;https://link.springer.com/article/10.1186/1472-698X-9-S1-S4 37fcf367ffc337d8b728d03fdb621b01;de;;;6.2.;;;Posterior Left Perikardiotomie zur Prävention von postoperativem Vorhofflimmern nach Herzchirurgie (PALACS): Studienprotokoll für eine randomisierte kontrollierte Studie Postoperatives Vorhofflimmern (POAF) ist eine häufige Komplikation nach Herzoperationen. POAF ist mit erhöhter Morbidität und Krankenhauskosten verbunden. Wir beschreiben hier das Protokoll für eine randomisierte kontrollierte Studie, um festzustellen, ob die Durchführung einer posterioren linken Perikardiotomie POAF nach einer Herzoperation verhindert.;-;-;-;https://link.springer.com/article/10.1186/s13063-017-2334-4 61bb99fbae274bcb01519868c070a4d1;de;;;6.2.;;;Alkoholkonsum und Mortalität bei Patienten, die sich einer koronaren Bypass-Transplantation (CABG) unterziehen – eine registerbasierte Kohortenstudie Frühere Studien haben gezeigt, dass ein moderater Alkoholkonsum im Vergleich zu Abstinenz und starkem Alkoholkonsum mit einem geringeren Mortalitätsrisiko in der Allgemeinbevölkerung und bei Patienten mit Herzinsuffizienz und Myokardinfarkt verbunden ist. Wir untersuchten den Zusammenhang zwischen Alkoholkonsum und Mortalität bei Patienten mit koronaren Bypass-Transplantaten (CABG).;-;-;-;https://link.springer.com/article/10.1186/s12872-016-0403-3 500da6e99faf076a42ae0574ad4ff3ff;de;;;6.2.;;;Wirksamkeit und Sicherheit von intravenös verabreichtem Paracetamol im Vergleich zu Ibuprofen zur Behandlung des offenen Ductus arteriosus bei Frühgeborenen: Studienprotokoll für eine randomisierte Kontrollstudie Ein offener Ductus arteriosus (PDA) ist eine der häufigsten Komplikationen bei Frühgeborenen. Obwohl Ibuprofen die erste Wahl zum Verschluss von PDA darstellt, kann diese Behandlung schwere gastrointestinale und Nierennebenwirkungen verursachen und die Thrombozytenfunktion verschlechtern. Der erfolgreiche Verschluss der PDA mit Paracetamol wurde kürzlich bei mehreren Frühgeborenen berichtet, und die Sicherheit von Paracetamol für diese Anwendung wurde durch die verfügbaren Daten nahegelegt.;-;-;-;https://link.springer.com/article/10.1186/s13063-016-1294-4 3286ea5aed96c6242b0d2615f338e4dd;de;;;6.2.;;;Eine prospektive, einarmige, offene, nicht randomisierte Phase-IIa-Studie mit einem nicht-avalenten prophylaktischen HPV-Impfstoff zur Bewertung der Immunogenität eines primären und verzögerten Dosierungsschemas bei 9–11-jährigen Mädchen und Jungen – klinisches Protokoll Impfstoffe gegen humane Papillomaviren (HPV) sind zur Vorbeugung von Krebs und Genitalwarzen, die durch durch Impfstoffe abgedeckte HPV-Typen verursacht werden, angezeigt. Obwohl das Standardschema eine Impfserie mit zwei oder drei Dosen erfordert, gibt es neue Daten, die darauf hindeuten, dass eine einzelne Dosis des bivalenten oder quadrivalenten HPV-Impfstoffs anhaltend positive Antikörpertiter erzeugt. Für den nichtavalenten HPV-Impfstoff, den derzeit einzigen in den USA erhältlichen HPV-Impfstoff, liegen noch keine vergleichbaren Daten vor. Das übergeordnete Ziel unserer Studie ist es, die Stabilität und Kinetik der Antikörpertiter für 24 Monate nach einer Einzeldosis des nichtavalenten HPV-Impfstoffs bei Mädchen und Jungen im Teenageralter zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s12885-019-5444-4 6317bb3fdd346e8f3254a214b205b43a;de;;;6.2.;;;Wissen, Einstellungen und Praxis der Hebammen in Bezug auf Alkoholexposition und das Risiko einer fetalen Alkoholspektrumstörung Hebammen sind ein einflussreicher Beruf und eine Schlüsselgruppe bei der Aufklärung von Frauen über den Alkoholkonsum in der Schwangerschaft und dessen Folgen. Es gibt keine aktuellen quantitativen australischen Daten über das Wissen, die Einstellungen und die Praxis von Hebammen in Bezug auf Alkoholkonsum während der Schwangerschaft und fetale Alkoholspektrumstörung. Unser Ziel war es, diese Wissenslücke zu schließen, indem wir die Wahrnehmungen der Hebammen zu ihrer Praxis im Umgang mit Alkoholkonsum während der Schwangerschaft verstehen.;-;-;-;https://link.springer.com/article/10.1186/s12884-014-0377-z 5024b9dcd17923ea643fe899c6ed178d;de;;;6.2.;;;Auswirkungen des Zahlerstatus auf das Überleben bei Brustkrebs: eine retrospektive Studie Die Ergebnisse von Brustkrebs werden von mehreren Faktoren beeinflusst, einschließlich des Zugangs zu medizinischer Versorgung, und der Zahlerstatus ist ein anerkanntes Hindernis für den Zugang zu einer Behandlung. Um den Einfluss des Zahlerstatus auf das Outcome weiter zu definieren, wurden die Daten der National Cancer Data Base von 1998 bis 2006 analysiert.;-;-;-;https://link.springer.com/article/10.1186/s12885-015-1228-7 77c28b7c6626503865fe21ed4f687f25;de;;;6.2.;;;Anhaltende Ungleichheit in der Mundgesundheit bei 12-jährigen Hispanics: eine Querschnittsstudie Karies ist weltweit die häufigste chronische Erkrankung. In den USA wird Karies als „stille Epidemie“ beschrieben, von der 58,2 % der 12- bis 15-Jährigen betroffen sind, insbesondere in Minderheiten- und Einwanderergruppen. Karies wird mit komplexen, aber vermeidbaren biologischen und Verhaltensfaktoren wie Zahnbelag und Ernährung sowie mit sozialen Determinanten der Gesundheit in Verbindung gebracht. In entwickelten Ländern wurde ein höheres Kariesrisiko mit Bevölkerungen mit niedrigem sozioökonomischem Status (SES) in Verbindung gebracht, insbesondere in Gebieten mit größeren Einkommensunterschieden. Eine inselweite Studie, die 1997 in Puerto Rico durchgeführt wurde, ergab eine hohe Prävalenz von Zahnkaries bei 12-Jährigen und ein erhebliches gesundheitliches Gefälle zwischen Kindern, die private und öffentliche Schulen besuchen. Der Zweck der vorliegenden Studie war zweierlei: 1) das Kariesniveau von 12-jährigen Puertoricanern in der Schule im Jahr 2011 zu schätzen und 2) die Ergebnisse mit Daten aus dem Jahr 1997 zu vergleichen, um mögliche Veränderungen der Kariesergebnisse nach einer staatlichen Krankenversicherung zu untersuchen (WHI-)Reform wurde umgesetzt.;-;-;-;https://link.springer.com/article/10.1186/s12903-016-0162-7 f4ca870aa388e97aa26d4e507e4d659f;de;;;6.2.;;;Die Auswirkungen von Werbetechniken auf den Obst- und Gemüsekonsum von Kindern langfristig systematisch testen: eine Protokollstudie einer multizentrischen randomisierten kontrollierten Studie Eine Ernährung mit viel Obst und Gemüse ist wichtig für eine gesunde Entwicklung, schützt vor chronischen Krankheiten und steigert das psychische Wohlbefinden. Zahlreiche Studien haben durchweg gezeigt, dass Kinder vor allem bei Kindern mit niedrigem sozioökonomischem Status zu wenig Obst und Gemüse zu sich nehmen, während Lebensmittel mit hohem Fett-, Zucker- und Salzgehalt übermäßig konsumiert werden. Um das Essverhalten von Kindern zu verbessern, ist es dringend erforderlich, systematisch neuartige und wirksame Methoden zu testen, um Obst und Gemüse attraktiver zu machen und die Aufnahme bei Kindern zu steigern. Daher besteht das Hauptziel des vorgeschlagenen Projekts darin, zu testen, ob Techniken zur Lebensmittelförderung den Obst- und Gemüsekonsum von Kindern sowohl kurz- als auch langfristig erhöhen.;-;-;-;https://link.springer.com/article/10.1186/s12889-019-7952-1 b05ac5f8e5551c81351be62cec556fda;de;;;6.2.;;;HIV-Wissen und damit verbundene Faktoren bei jungen Äthiopiern: Anwendung der mehrstufigen ordnungslogistischen Regression mit dem EDHS 2016 Das Human Immunodeficiency Virus ist nach wie vor ein großes globales Gesundheitsproblem, das seit Beginn der Epidemie 75 Millionen Menschen infiziert und 32 Millionen Menschen tötet. Es hat Subsahara-Afrika schwer getroffen als jedes andere Land der Welt, und Jugendliche tragen die größte Last. Die Studie zielt darauf ab, das Niveau des HIV-Wissens und seiner Determinanten unter äthiopischen Jugendlichen anhand der Daten der Ethiopia Demographic and Health Survey 2016 zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s12879-020-05436-2 db8d6d12c7f2ab2413546b63ba1f5923;de;;;6.2.;;;We Can Quit2 (WCQ2): eine gemeinschaftsbasierte Intervention zur Raucherentwöhnung für Frauen in benachteiligten Gebieten Irlands – Studienprotokoll für eine randomisierte kontrollierte Pilotclusterstudie Tabakkonsum ist die häufigste vermeidbare Todesursache in Irland, wobei jedes Jahr fast 6000 Raucher an rauchbedingten Krankheiten sterben. Die 'We Can Quit2' (WCQ2)-Studie ist eine pragmatische zweiarmige, randomisierte Cluster-Studie mit zwei Armen, die darauf abzielt, die Durchführbarkeit und Akzeptanz von Studienprozessen einschließlich der Rekrutierung zu untersuchen und Parameter zu schätzen, um die für eine Wirksamkeitsprüfung. Diese zukünftige Studie wird die Wirksamkeit einer gemeinschaftsbasierten Intervention zur Raucherentwöhnung für Frauen, die in benachteiligten Gebieten leben, auf kurz- und mittelfristige Raucherentwöhnungsraten untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s40814-019-0511-9 b13b08ea238591c332b054a1da4df4c0;de;;;6.2.;;;Protokoll für eine familienzentrierte Verhaltensintervention zur Reduzierung von frühkindlicher Karies: die Wirksamkeitsstudie des MySmileBuddy-Programms Obwohl die frühkindliche Karies (ECC) durch Diätmanagement und topische Fluoridanwendung weitgehend vermeidbar ist, schreitet sie oft zu einem Schweregrad fort, der eine chirurgische Reparatur erfordert. Doch die Reparatur kann das Fortschreiten der Karies oft nicht eindämmen. Erforderlich ist eine wirksame Verhaltensintervention, um die zugrunde liegenden Verhaltensursachen anzugehen.;-;-;-;https://link.springer.com/article/10.1186/s12903-021-01582-4 fe049e72f063bbab827d097a72995ebb;de;;;6.2.;;;Methylphenidat verbessert exekutive Funktionen bei Patienten mit Schädel-Hirn-Trauma: eine Machbarkeitsstudie über den idiographischen Ansatz Verkehrsunfälle sind bekanntlich die Hauptursache für Schädel-Hirn-Traumata (SHT). SHT ist auch eine der Hauptursachen für Tod und Behinderung. Diese Studie hat mit Hilfe des idiographischen Ansatzes (Einzelfall-Versuchsdesigns mit mehreren Baseline-Designs) untersucht, ob Methylphenidat (MPH - Handelsname Ritalin) bei Patienten mit SHT mit den Folgen akuter und chronische Post-Gehirnerschütterungssyndrome. Auch der Einfluss auf das Geschlecht wurde untersucht.;-;-;-;https://link.springer.com/article/10.1186/s12883-020-01663-x 75b7f1c7db6e7828c125c78e5ff72224;de;;;6.2.;;;Gesundheitsfreiwillige in der Gemeinde Herausforderungen und bevorzugte einkommensgenerierende Aktivitäten für Nachhaltigkeit: eine qualitative Fallstudie über das ländliche Kilifi, Kenia Weltweit liegt der Schwerpunkt auf der Einbindung von Community Health Volunteers (CHVs) in Ländern mit niedrigem bis mittlerem Einkommen (LMICs), um die große unterversorgte Bevölkerung in ländlichen Gebieten zu erreichen. Die Aufbewahrung von CHVs war jedoch in den meisten Ländern schwierig, und es wurde berichtet, dass die Fluktuation in vielen Einrichtungen hoch ist, was schwerwiegende negative Auswirkungen auf die Kontinuität der kommunalen Gesundheitsdienste hat. Im ländlichen Kenia gibt die hohe Fluktuation unter CHVs weiterhin Anlass zur Sorge. Das Verständnis der Herausforderungen, mit denen CHVs in ländlichen Gebieten konfrontiert sind, und wie man die Fluktuationsraten mit nachhaltigen einkommensschaffenden Aktivitäten (IGAs) reduziert, ist der Schlüssel zur Umsetzung kontextbezogener Maßnahmen, die eine hohe Fluktuation minimieren können. Dieses Papier präsentiert Ergebnisse zu den Herausforderungen der Freiwilligenarbeit im Gesundheitswesen und den bevorzugten IGAs im ländlichen Kilifi County, Kenia.;-;-;-;https://link.springer.com/article/10.1186/s12913-021-06693-w 341887f0ac3505cce685d3fa0781f511;de;;;6.2.;;;eine Untersuchung der Aufbewahrungs- und Entsorgungspraktiken von Medikamenten in australischen Haushalten Verbraucher entsorgen unerwünschte Medikamente am häufigsten im Hausmüll oder in der Kanalisation, jedoch gibt es weltweite Bedenken hinsichtlich des Ausmaßes, der Umweltauswirkungen und der Gesundheitsrisiken. Wenn Verbraucher Arzneimittel für den zukünftigen Gebrauch beschaffen oder lagern, kann dies die Qualität der Arzneimittelanwendung und die Verbrauchersicherheit beeinträchtigen. Wir suchten einen besseren Einblick in das Ausmaß dieser Praktiken, indem wir das Volumen und die Arten von Medikamenten in australischen Haushalten untersuchten und selbstberichtete Praktiken im Zusammenhang mit der Ansammlung, Verwendung und Entsorgung von Medikamenten untersuchten. Diese qualitative Studie war Teil eines größeren Projekts, das eine allgemeine Bevölkerungsumfrage zu Entsorgungspraktiken für Hausmittel umfasste.;-;-;-;https://link.springer.com/article/10.1186/s12889-018-5753-6 a1a67e0164209f71690e66329f74e570;de;;;6.2.;;;Verwendung des Multiphase Optimization Strategy (MOST)-Frameworks zum Testen von Interventionsbereitstellungsstrategien: ein Studienprotokoll Die Durchführung von Verhaltensinterventionen ist komplex, da die meisten Interventionen aus mehreren Komponenten bestehen, die entweder gleichzeitig, nacheinander oder beides verwendet werden. Die Bedeutung der klaren Abgrenzung von Umsetzungsstrategien innerhalb dieser komplexen Interventionen – und darüber hinaus das Verständnis der Auswirkungen jeder Strategie auf die Wirksamkeit – hat sich in letzter Zeit als wichtiger Aspekt der Interventionsforschung herausgestellt. Es gibt jedoch nur wenige Methoden, um die Wirksamkeit von Bereitstellungsstrategien und deren Auswirkungen auf die Umsetzung prospektiv zu testen. In der aktuellen Arbeit beschreiben wir ein Studienprotokoll für eine große randomisierte kontrollierte Studie, in der wir die Multiphase Optimization Strategy (MOST) verwenden werden, ein neuartiges Framework, das entwickelt wurde, um Interventionen zu optimieren, d Design. Wir wenden dieses Rahmenwerk auf die Bereitstellung von Family Navigation (FN) an, einer evidenzbasierten Pflegemanagementstrategie, die darauf abzielt, Ungleichheiten zu verringern und den Zugang zu verhaltensbezogenen Gesundheitsdiensten zu verbessern, und testen vier Komponenten im Zusammenhang mit ihrer Umsetzung.;-;-;-;https://link.springer.com/article/10.1186/s13063-019-3853-y 0f5546a3ca31da084d8313ee81c2c946;de;;;6.2.;;;Protokoll für eine gestufte, randomisierte, kontrollierte Clusterstudie der LifeSpan-Suizidpräventionsstudie in vier Gemeinden in New South Wales, Australien Trotz steigender Investitionen in die Suizidprävention sind die Selbstmordraten in Australien im letzten Jahrzehnt stetig gestiegen. Als Reaktion auf die wachsende Evidenz für Mehrkomponenten-Interventionsmodelle zur Reduzierung von Suiziden wurde das LifeSpan-Modell als erster evidenzbasierter, systemweiter Mehrkomponenten-Ansatz zur Suizidprävention in Australien entwickelt. Das LifeSpan-Modell besteht aus neun evidenzbasierten Strategien. Dazu gehören indizierte, selektive und universelle Interventionen, die über einen Zeitraum von zwei Jahren gleichzeitig an Gemeinde- und Gesundheitssysteme geliefert werden. Diese Studie wird die Wirksamkeit des LifeSpan-Modells bei der Reduzierung von Selbstmordversuchen und Selbstmordtoten in vier geografisch definierten Regionen in New South Wales, Australien, bewerten.;-;-;-;https://link.springer.com/article/10.1186/s13063-020-04262-w 3c468eb980d80bf3e7eff6044481b56a;de;;;6.2.;;;Aspirin in venous Beinulkus-Studie (ASPiVLU): Studienprotokoll einer randomisierten kontrollierten Studie Das Ulcus cruris venosum ist ein häufiges und kostspieliges Problem, das sich voraussichtlich mit zunehmendem Alter der Bevölkerung verschlimmern wird. Die derzeitige Behandlung ist die Kompressionstherapie, jedoch bleiben bis zu 50 % der Geschwüre nach 2 Jahren ungeheilt, und ein Wiederauftreten des Geschwürs ist häufig. Neue Behandlungen sind erforderlich, um Wunden zu behandeln, die schwieriger zu heilen sind. Eine mögliche Strategie ist die gezielte Behandlung von entzündlichen Prozessen bei venösen Ulzera. Begrenzte Beweise deuten darauf hin, dass eine tägliche Dosis Aspirin eine wirksame Ergänzung sein kann, um die Heilung von Geschwüren zu unterstützen und das Wiederauftreten zu reduzieren. Die Studie Aspirin in Venous Leg Ulcer (ASPiVLU) wird untersuchen, ob orale Dosen von 300 mg Aspirin die Zeit bis zur Heilung verbessern.;-;-;-;https://link.springer.com/article/10.1186/s13063-016-1314-4 f6fc6fec633271da4e363ab1ac853ae2;de;;;6.2.;;;Wissen, Einstellungen und Praktiken der Gebärmutterhalskrebsprävention und Pap-Abstriche in zwei einkommensschwachen Gemeinden in Lima, Peru Gebärmutterhalskrebs ist eine der häufigsten Todesursachen bei peruanischen Frauen. Barrieren auf mehreren Ebenen wirken sich auf ein wirksames Screening und eine wirksame Behandlung aus, darunter fehlendes Wissen über Gebärmutterhalskrebs und wie regelmäßiges Screening Morbidität und Mortalität durch frühere Erkennung reduzieren kann. Das Ziel dieser Studie ist es, Wissen, Einstellungen und Praktiken in Bezug auf Gebärmutterhalskrebs und seine Prävention in den stadtnahen Gemeinden von Oasis und Pampas im Süden von Lima, Peru, zu bewerten, die verwendet werden können, um zukünftige Kampagnen zur Prävention von Gebärmutterhalskrebs zu informieren.;-;-;-;https://link.springer.com/article/10.1186/s12905-021-01291-8 cbf8b13ce62ce0ab41ea6527bb195204;de;;;6.2.;;;Teriparatid-Einsatz während einer Wirtschaftskrise: Basisdaten der griechischen Kohorte der Extended Forsteo Observational Study (ExFOS) Die Extended Forsteo Observational Study (ExFOS) ist eine multinationale, nicht-interventionelle, prospektive Beobachtungsstudie, die darauf abzielt, reale Daten über Patienten mit Osteoporose zu liefern, die bis zu 24 Monate lang mit Teriparatid behandelt werden. Es umfasst die neuen Indikationen Osteoporose bei Männern und Glukokortikoid-induzierte Osteoporose (GIOP). Wir beschreiben die griechische Subpopulation, die in diese Studie aufgenommen wurde, und vergleichen sie mit einer ähnlichen Kohorte aus der vorherigen europäischen Forsteo-Beobachtungsstudie (EFOS).;-;-;-;https://link.springer.com/article/10.1186/s12891-015-0600-8 e676549b0c2a2b4ee0ffe82cd67337f4;de;;;6.2.;;;Durch Anämie vermittelte Malaria-Erkrankung verringert die kognitive Entwicklung bei jüngeren ugandischen Kindern Asymptomatische Falciparum-Malaria ist mit einer schlechteren kognitiven Leistung bei afrikanischen Schulkindern verbunden und eine intermittierende präventive Behandlung von Malaria verbessert die kognitiven Ergebnisse. Die Entwicklungsvorteile der Chemoprävention in der frühen Kindheit sind jedoch unbekannt. Die frühkindliche Entwicklung wurde in einer offenen, randomisierten klinischen Studie zur Malaria-Chemoprävention in einem Gebiet mit intensiver, ganzjähriger Übertragung in Uganda als wichtiges Ergebnis bewertet.;-;-;-;https://link.springer.com/article/10.1186/s12936-016-1266-x e4e45358db3779a68d224d48447051f8;de;;;6.2.;;;McDonald- versus Shirodkar-Cerclage-Technik bei Frauen, die eine prophylaktische Cerclage benötigen: ein systematisches Review- und Metaanalyseprotokoll Frühgeburt (PTB) ist die häufigste Todesursache bei Kindern unter fünf Jahren. Die spontane Frühgeburt (SPTB) ist die häufigste Ursache für eine Frühgeburt. Die wichtigsten Risikofaktoren für SPTB sind Frauen mit einem kurzen Gebärmutterhals und Frauen, die eine frühere Frühgeburt hatten. Zervikale Cerclage wird seit mehreren Jahrzehnten verwendet und hat gezeigt, dass die Rate der Frühgeburten verringert wird. Die am häufigsten verwendeten Cerclage-Techniken wurden von Shirodkar und McDonald beschrieben, ohne dass derzeit Konsens über die bevorzugte Technik besteht. Das Ziel dieser Überprüfung ist es, die Wirksamkeit beider Techniken zu bestimmen und zu vergleichen.;-;-;-;https://link.springer.com/article/10.1186/s13643-021-01679-5 805feda233aa7ec92f89017ad960f833;de;;;6.2.;;;Merkmale von Verbrennungsverletzungen: Ergebnisse der Pakistan National Emergency Department Surveillance Study Verbrennungsverletzungen sind ein wichtiger, aber noch wenig erforschter Bereich in Pakistan. Das Ziel dieser Studie war es, die Merkmale und die damit verbundenen Ergebnisse von Patienten mit Brandverletzungen zu bestimmen, die sich in großen Notaufnahmen in Pakistan vorstellen.;-;-;-;https://link.springer.com/article/10.1186/1471-227X-15-S2-S5 8382c6d8476144ad8779facc07a8f321;de;;;6.2.;;;Sozialkapital und Vielbesucher in der Allgemeinmedizin: eine registergestützte Kohortenstudie Der häufige Besuch der Grundversorgung bedeutet einen hohen Ressourcenverbrauch für das Gesundheitssystem. Der Zusammenhang zwischen häufiger Anwesenheit und krankheitsbedingten Faktoren wurde in mehreren Studien untersucht, über den Zusammenhang zwischen häufiger Anwesenheit und individuellem Sozialkapital ist jedoch wenig bekannt. Das Ziel dieser Studie ist es, diesen Zusammenhang zu erforschen.;-;-;-;https://link.springer.com/article/10.1186/s12889-018-5230-2 a13738f880cb9802d228268eb443aa49;de;;;6.2.;;;Zur Identifizierung reproduzierbarer Gehirnsignaturen von Zwangsprofilen: Begründung und Methoden für eine neue globale Initiative Zwangsstörungen (OCD) haben eine Lebenszeitprävalenz von 2–3% und sind eine der Hauptursachen für globale Behinderungen. Anomalien des Gehirnkreislaufs bei Personen mit Zwangsstörung wurden identifiziert, aber es bleiben wichtige Wissenslücken. Das Ziel der neuen globalen Initiative, die in diesem Papier beschrieben wird, besteht darin, robuste und reproduzierbare Gehirnsignaturen messbarer Verhaltensweisen und klinischer Symptome zu identifizieren, die bei Personen mit Zwangsstörung häufig sind. Es wurde ein globaler Ansatz gewählt, um die Entdeckung zu beschleunigen, die Genauigkeit und Transparenz zu erhöhen und die Generalisierbarkeit der Ergebnisse sicherzustellen.;-;-;-;https://link.springer.com/article/10.1186/s12888-020-2439-2 c892829750b4b8bf2e85cf0e00783dc9;de;;;6.2.;;;Einbindung von Angehörigen von erwachsenen Patienten mit Diabetes zur Verbesserung klinischer und patientenzentrierter Ergebnisse: Studienprotokoll für eine randomisierte kontrollierte Studie Die meisten Erwachsenen mit Diabetes, die ein hohes Risiko für Komplikationen haben, haben Familie oder Freunde, die an ihrer medizinischen Versorgung und Selbstversorgung beteiligt sind („Familienunterstützer“). Diese Familienunterstützer sind eine wichtige Ressource, die genutzt werden könnte, um das Engagement der Patienten in ihre Versorgung und die Gesundheitsergebnisse der Patienten zu verbessern. Den Gesundheitsteams fehlen jedoch strukturierte und praktikable Ansätze, um Familienunterstützer effektiv in die Unterstützung des Patientenselbstmanagements einzubeziehen. Diese Studie testet eine Strategie, um die Kapazitäten von Familienunterstützern zu stärken, um Erwachsenen mit Hochrisikodiabetes zu helfen, sich in der Gesundheitsversorgung zu engagieren, Pflegepläne erfolgreich umzusetzen und das Risiko von Diabetes-Komplikationen zu senken.;-;-;-;https://link.springer.com/article/10.1186/s13063-018-2785-2 ed71a0c1af459bbcb360344452c3cf9f;de;;;6.2.;;;Reuma.pt/vasculitis – das portugiesische Vaskulitis-Register Die Vaskulitiden sind eine Gruppe seltener Erkrankungen mit unterschiedlichen Manifestationen und Folgen. Neue therapeutische Optionen haben zu der Notwendigkeit von Langzeitregistern geführt. Das portugiesische Register für rheumatische Erkrankungen, Reuma.pt, ist eine 2008 erstellte webbasierte elektronische Krankenakte, die derzeit spezifische Module für 12 Krankheiten und > 20.000 registrierte Patienten aus 79 Rheumatologiezentren umfasst. Im Oktober 2014 wurde im Rahmen des Kooperationsnetzwerks der European Vasculitis Society ein eigenes Modul für Vaskulitis geschaffen, das die prospektive Erfassung und zentrale Speicherung verschlüsselter Daten von Patienten mit dieser Erkrankung ermöglicht. Alle portugiesischen Rheumatologiezentren wurden zur Teilnahme eingeladen. Es wurden Daten zu Demografie, Diagnose, Klassifizierungskriterien, Bewertungsinstrumenten und Behandlung gesammelt. Unser Ziel ist es, die Struktur von Reuma.pt/vasculitis zu beschreiben und die seit seiner Entwicklung registrierten Patienten zu charakterisieren.;-;-;-;https://link.springer.com/article/10.1186/s13023-020-01381-0 10615880795ac42d6edd647a0e8269be;de;;;6.2.;;;Das Malariarisiko bei ghanaischen Säuglingen, die von Frauen geboren wurden, die während der Schwangerschaft mit intermittierendem Screening und Behandlung auf Malaria oder intermittierender vorbeugender Behandlung mit Sulfadoxin/Pyrimethamin behandelt wurden Mehrere Studien haben einen Zusammenhang zwischen einer Malariainfektion der Plazenta und dem Malariarisiko bei Kleinkindern im ersten Lebensjahr berichtet, es ist jedoch nicht bekannt, ob dies ursächlich ist oder durch Malariakontrollmaßnahmen während der Schwangerschaft beeinflusst wird. Diese Arbeit vergleicht die Malaria-Inzidenz bei Säuglingen von Müttern, die während ihrer Schwangerschaft entweder eine intermittierende präventive Behandlung mit Sulfadoxin/Pyrimethamin (IPTp-SP) oder ein Screening mit einem Schnelltest und einer Behandlung mit Artemether-Lumefantrin (ISTp-AL) erhielten.;-;-;-;https://link.springer.com/article/10.1186/s12936-016-1094-z 6b53478c7513cc09ac145b41ffcffe69;de;;;6.2.;;;Übertragung einer Genexpressionssignatur für die Prognose des multiplen Myeloms in einen robusten Hochdurchsatz-Assay für den klinischen Einsatz Die breite Einführung genomischer Technologien bei der Behandlung heterogener Indikationen, einschließlich des Multiplen Myeloms, wurde durch Bedenken hinsichtlich der Variation zwischen veröffentlichten Genexpressionssignaturen, Schwierigkeiten bei der Interpretation durch den Arzt und der Herausforderung, ausreichend genetisches Material aus begrenzten Patientenproben zu erhalten, behindert.;-;-;-;https://link.springer.com/article/10.1186/1755-8794-7-25 0a6e3e0b805c365be2376bdd2eb8b055;de;;;6.2.;;;Die stationäre Teilnahme eines Krankenhausapothekers auf einer niederländischen Intensivstation reduziert Verschreibungsfehler und damit verbundene Patientenschäden: eine Interventionsstudie Patienten, die auf eine Intensivstation (ICU) aufgenommen werden, haben ein hohes Risiko für Verschreibungsfehler und damit verbundene unerwünschte Arzneimittelereignisse (ADEs). Eine wirksame Intervention zur Verringerung dieses Risikos, basierend auf Studien, die hauptsächlich in Nordamerika durchgeführt wurden, ist die Teilnahme eines klinischen Apothekers an einem Intensivteam. Da das niederländische Gesundheitssystem anders organisiert ist und die Rolle der Krankenhausapotheker in den niederländischen Intensivpflegeteams nicht gut etabliert ist, haben wir eine Interventionsstudie durchgeführt, um zu untersuchen, ob die Teilnahme eines Krankenhausapothekers auch ein wirksamer Ansatz zur Reduzierung von Verschreibungsfehlern sein kann damit verbundener Patientenschaden (vermeidbare UAW) in diesem speziellen Setting.;-;-;-;https://link.springer.com/article/10.1186/cc9278 876753187e8bbaae896442a1e4d4f614;de;;;6.2.;;;Gründe für die Verschreibung von Antihistaminika der zweiten Generation zur Behandlung von allergischer Rhinitis unter realen Bedingungen und Reaktion des Patienten H1-Antihistaminika der zweiten Generation (H1A) werden derzeit als Medikamente der ersten Wahl bei allergischer Rhinitis und Rhinokonjunktivitis empfohlen. Es ist jedoch wenig darüber bekannt, was die Wahl der Verschreibung einer zweiten Generation (H1A) im Vergleich zu einer anderen unter realen Bedingungen beeinflusst.;-;-;-;https://link.springer.com/article/10.1186/1710-1492-10-29 79d771a789c16cbb57ec55904f83feb2;de;;;6.2.;;;Wirkung eines Analgosedierungsprotokolls für neurointensive Patienten: eine zweiphasige interventionelle nicht-randomisierte Pilotstudie Sedierungsprotokolle sind für neurointensive Patienten erforderlich. Ziel dieser Pilotstudie war es, die Sedierungspraxis auf einer Neurointensivstation zu beschreiben und die Machbarkeit und Wirksamkeit eines neuen Sedierungsprotokolls zu bewerten. Die primären Endpunkte waren ein Wechsel von einer sedierungsbasierten zu einer analgetischen Sedierung und eine verbesserte Schmerzbehandlung. Die sekundären Endpunkte waren eine Verringerung der ungeplanten Extubationen und die Dauer der Sedierung.;-;-;-;https://link.springer.com/article/10.1186/cc8978 c8ba57f5d2339f7f8d5bbdea3609e0ee;de;;;6.2.;;;Richtigkeit der CAD/CAM-Digitalisierung mit einem Desktop-Scanner – eine In-vitro-Studie Desktop-Scanner sind Geräte zur Digitalisierung konventioneller Abdrücke oder Gipsmodelle durch indirektes Computer-Aided Design/Computer-Assisted Manufacturing (CAD/CAM) in der Zahnmedizin. Der Zweck dieser In-vitro-Studie war: 1. zu untersuchen, ob virtuelle Modelle, die mit dem extraoralen Scanner erstellt wurden, die gleiche Genauigkeit wie geschnittene Abgüsse aufweisen, und 2. zu beurteilen, ob die Digitalisierung mit einem extraoralen Scanner die Oberflächeninformationen beeinflusst.;-;-;-;https://link.springer.com/article/10.1186/s12903-019-0976-1 59c8d016f1e71b96e2823ec2d9a08970;de;;;6.2.;;;Determinanten der Depression bei Krankenpflegestudenten in Kamerun: eine Querschnittsanalyse Krankenpflegestudenten sind angesichts der hohen Arbeitsbelastung und der klinischen Anforderungen des Lehrplans sehr anfällig für Depressionen. Depressionen haben negative Auswirkungen auf ihre Gesundheit und ihre schulischen Leistungen. Diese Studie zielte darauf ab, die Determinanten von Depressionen bei Krankenpflegestudenten in den englischsprachigen Regionen Kameruns zu bestimmen.;-;-;-;https://link.springer.com/article/10.1186/s12912-020-00424-y 1edef4b2b54271db6908446f5210a0c7;de;;;6.2.;;;Ein neues Phototherapie-Schema im Winter als Add-on-Therapie, gekoppelt mit oraler Vitamin-D-Supplementierung, zur langfristigen Kontrolle der atopischen Dermatitis: Studienprotokoll für eine multizentrische, randomisierte, Crossover-, pragmatische Studie – die PRADA-Studie Die atopische Dermatitis ist eine sehr verbreitete, chronische, rezidivierende Erkrankung sowohl bei Erwachsenen als auch bei Kindern. Im Schweregradspektrum profitieren Patienten der unteren Preisklasse von kleinen Mengen topischer entzündungshemmender Behandlungen (TAT), während Patienten der höheren Klasse systemische Immunsuppressiva benötigen, dazwischen werden Patienten mit TAT und Phototherapie behandelt. Die größte therapeutische Herausforderung in dieser Population besteht in der langfristigen Kontrolle der Krankheitsaktivität, und die aktuelle TAT-basierte proaktive Strategie erfüllt nicht alle ihre Bedürfnisse. Immunsuppressiva werden als langfristige Zusatzbehandlungen zur Kontrolle eingesetzt, sind jedoch aus Sicherheitsgründen auf die am schwersten betroffenen Patienten beschränkt. Darüber hinaus wurden weder Immunsuppressiva noch andere Strategien langfristig richtig evaluiert, obwohl die Langzeitkontrolle als einer der wichtigsten Kernzielbereiche anerkannt wurde, die in Studien zur atopischen Dermatitis anvisiert werden sollten. Daher sind sichere Zusatztherapien erforderlich, die streng auf die langfristige Kontrolle der Krankheit untersucht werden. Phototherapie und Vitamin-D-Supplementierung sind beides gute Kandidaten.;-;-;-;https://link.springer.com/article/10.1186/s13063-019-3276-9 ed1f7ca9494c16a53d9c89b58fd3a065;de;;;6.2.;;;Nutzung von Gesundheitseinrichtungen und Prädiktoren für gesundheitsorientiertes Verhalten bei Kindern unter fünf Jahren mit akutem Durchfall in Slums von Addis Abeba, Äthiopien: eine gemeindebasierte Querschnittstudie Informationen über gesundheitsorientiertes Verhalten und die Nutzung von Gesundheitseinrichtungen in Slums von Addis Abeba sind rar, was die Umsetzung wirksamer Interventionen erschwert. Der Zweck dieser Studie besteht darin, den Status der Inanspruchnahme von Gesundheitseinrichtungen und Prädiktoren für das gesundheitsorientierte Verhalten von Müttern/Betreuern von Kindern unter fünf Jahren mit akutem Durchfall in Slums von Addis Abeba, Äthiopien, zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s41043-017-0085-1 2b83d9270ee501387884f8278f21c6ad;de;;;6.2.;;;Überwachung von iCCM-Überweisungssystemen: Bugoye Integrated Community Case Management Initiative (BIMI) in Uganda In Uganda wird über die Hälfte der Kindersterblichkeit unter fünf Jahren auf drei Infektionskrankheiten zurückgeführt: Malaria, Lungenentzündung und Durchfall. Integriertes Community Case Management (iCCM) schult Dorfgesundheitspersonal (VHWs), um diese häufigen Kinderkrankheiten zu Hause zu diagnostizieren und zu behandeln. Bei schwerkranken Kindern setzt iCCM auf ein funktionierendes Überweisungssystem, um eine rechtzeitige Behandlung in einer Gesundheitseinrichtung zu gewährleisten. Allerdings schwanken die Abschlussquoten der Weiterempfehlungen zwischen den iCCM-Programmen stark und sind schwer zu überwachen. Die Bugoye Integrated Community Case Management Initiative (BIMI) ist ein iCCM-Programm, das im Unterbezirk Bugoye in Uganda tätig ist. Diese Fallstudie beschreibt die Erfahrungen von BIMI mit der Überwachung des Überweisungsabschlusses im Bugoye Health Center III (BHC) und skizziert Verbesserungen, die innerhalb der iCCM-Überweisungssysteme vorgenommen werden müssen.;-;-;-;https://link.springer.com/article/10.1186/s12936-016-1300-z df982d81294c85f27478bac4e7d23359;de;;;6.2.;;;Sterblichkeitsrate bei HIV-positiven Kindern mit ART im Nordwesten Äthiopiens: eine historische Kohortenstudie Obwohl eine hochaktive antiretrovirale Therapie (HAART) in Äthiopien seit mehr als einem Jahrzehnt verfügbar ist, gibt es nur sehr wenige Informationen über die Sterblichkeitsraten von HIV-positiven Kindern nach Beginn einer antiretroviralen Therapie. Daher beabsichtigt diese Studie, die Prädiktoren der Sterblichkeit bei HIV-positiven Kindern, die ART in der Region Amhara erhalten, zu bestimmen.;-;-;-;https://link.springer.com/article/10.1186/s12889-020-09418-6 cc85bff770857a937ef7e0a70ba97383;de;;;6.2.;;;Somatische Pflege bei einer psychotischen Störung. Geringere somatische Inanspruchnahme von Patienten mit einer psychotischen Störung im Vergleich zu anderen Patientengruppen und Kontrollen ohne psychiatrische Diagnose Patienten mit nicht-affektiven psychotischen Störungen (NAPD) haben im Vergleich zur Allgemeinbevölkerung ein höheres Risiko für somatische Probleme und einen frühen natürlichen Tod. Daher betonen Behandlungsleitlinien für Schizophrenie und Psychose die Bedeutung der Überwachung somatischer Risikofaktoren. Diese Studie untersuchte die somatische Gesundheitsversorgung (HCu) von Patienten mit NAPD im Vergleich zu nicht-psychiatrischen Kontrollpersonen und Patienten mit Depressionen, Angstzuständen oder bipolaren Störungen unter Verwendung einer großen Krankenversicherungsdatenbank. Die Ergebnisse zeigen eine niedrigere somatische HCU von Patienten mit NAPD im Vergleich zu vergleichbaren Kontrollen und auch niedrigere Prozentsätze für verschriebene somatische Medikamente und Hausarztkonsultationen für Patienten im Alter von ≥ 60 Jahren und nach längerer Krankheitsdauer.;-;-;-;https://link.springer.com/article/10.1007/s10488-015-0679-0 92e1892822a274f0972d149647ca1162;de;;;6.2.;;;Reproduzierbarkeit und Änderungsempfindlichkeit verschiedener Methoden zur Messung der Gelenkspaltbreite bei Hüftarthrose: eine doppelte Ablesung von drei verschiedenen Röntgenaufnahmen, die im Abstand von drei Jahren aufgenommen wurden Messungen der Gelenkspaltbreite (JSW) und Verengung (JSN) auf Röntgenbildern sind derzeit die beste Methode, um den Schweregrad oder das Fortschreiten der Erkrankung bei Hüftarthrose zu beurteilen, jedoch fehlen uns Daten bezüglich der genauesten und empfindlichsten Messtechnik. Diese Studie wurde durchgeführt, um das optimale Röntgenbild und die Anzahl der Lesegeräte für die Messung von JSW und JSN zu bestimmen. Fünfzig Paare von Röntgenbildern im Abstand von drei Jahren wurden von Patienten angefertigt, die an einer Strukturmodifikationsstudie bei Hüftarthrose teilnahmen. Beim stehenden Patienten wurden drei Röntgenaufnahmen gemacht: Becken, Zielhüfte anteroposterior (AP) und schräge Ansichten. Zwei geschulte Leser, die für die Befunde, den zeitlichen Ablauf und die Behandlung des anderen blind waren, lasen jeweils die sechs Röntgenbilder, die für jeden Patienten angefertigt wurden, zweimal (Zeitintervall ≥ 15 Tage) mit einer 0,1 mm graduierten Lupe. Röntgenbilder wurden für jede Ablesung zufällig kodiert. Die Interobserver- und Intraobserver-Querschnitts- (M0 und M36) und Längsschnitt- (M0–M36) Reproduzierbarkeiten wurden mit dem Intraklassen-Koeffizienten (ICC) und der Bland-Altman-Methode für die Leser 1 und 2 und deren Mittelwert bewertet. Die Änderungssensitivität wurde anhand des standardisierten Antwortmittels (SRM = Änderung/Standardabweichung der Änderung) für M0–M36-Änderungen geschätzt. Für die Interobserver-Reliabilität bei M0–M36-Änderungen betrugen die ICCs (95%-Konfidenzintervall [KI]) 0,79 (0,65–0,88) für die Beckenansicht, 0,87 (0,78–0,93) für die Hüft-AP-Ansicht und 0,86 (0,76–0,92) für die schräge Ansicht. Die ICCs der Intraobserver-Reliabilität betrugen 0,81 (0,69–0,89) für Beobachter 1 und 0,97 (0,95–0,98) für Beobachter 2 für die Beckenansicht, 0,87 (0,78–0,92) und 0,97 (0,96–0,99) für die Hüft-AP-Ansicht und 0,73 ( 0,57–0,84) und 0,93 (0,88–0,96) für die Schrägansicht. SRMs betrugen 0,61 (Beobachter 1) und 0,82 (Beobachter 2) für die Beckenansicht, 0,64 und 0,75 für die Hüft-AP-Ansicht und 0,77 und 0,70 für die Schrägansicht. Alle drei Ansichten ergaben genaue JSW und JSN. Laut dem besten Leser schnitt die Beckenansicht etwas besser ab. Beide Leser zeigten eine hohe Präzision mit SRMs von 0,6 oder höher für die Bewertung von JSN über drei Jahre. Die Auswahl eines einzelnen Lesegeräts war mit einer Genauigkeit von 0,3 mm die genaueste Methode. Unter Verwendung dieses Cutoffs wurden 50 % der Patienten als „Progressoren“ klassifiziert.;-;-;-;https://link.springer.com/article/10.1186/ar1831 3c7a42c243c257a22947cfff7a2ae20a;de;;;6.2.;;;Der Ansatz der „Frühbehandlung“ zur Reduzierung des kardiovaskulären Risikos bei Patienten mit Typ-2-Diabetes: Ein Konsens eines Expertengremiums unter Verwendung der Delphi-Technik Es besteht kein Konsens über den optimalen therapeutischen Ansatz bei Patienten mit neu diagnostiziertem Diabetes mellitus Typ 2 (T2DM) zur Vorbeugung von Herz-Kreislauf-Erkrankungen (CVD). Ziel der Studie war es, mithilfe der Delphi-Methodik einen Expertenkonsens über die hypoglykämische Behandlung und das kardiovaskuläre Risikomanagement bei Patienten mit neu diagnostiziertem T2DM zu erzielen.;-;-;-;https://link.springer.com/article/10.1007/s13300-021-01045-7 cb31a99966a9cf88505d916cf503d0da;de;;;6.2.;;;Eine qualitative Studie, die die Perspektiven von Gesundheitsmanagern und Leistungserbringern zur Teilnahme an der Durchführungsforschung der Primärversorgung untersucht Reformen der Primärversorgung sollten durch qualitativ hochwertige Evidenz über den gesamten Lebenszyklus der Forschung unterstützt werden. Gesundheitsdienstleister an vorderster Front spielen in der Umsetzungsforschung eine zunehmende Rolle. Wir haben kürzlich zwei Interventionen für Menschen mit Typ-2-Diabetes (T2D) in Zusammenarbeit mit vier Primary Care Networks (PCNs) in Alberta, Kanada, evaluiert. Hier berichten wir über die Perspektiven von Angehörigen der Gesundheitsberufe zur Teilnahme an der Durchführungsforschung in der Primärversorgung.;-;-;-;https://link.springer.com/article/10.1186/s12913-016-1577-1 3c5556bb82830e68dba299d7f0e8fe94;de;;;6.2.;;;Die ProPrems-Studie: Untersuchung der Auswirkungen von Probiotika auf spät einsetzende Sepsis bei sehr Frühgeborenen Eine spät einsetzende Sepsis ist eine häufige Komplikation der Frühgeborenen, die mit einer erhöhten Mortalität und Morbidität einhergeht. Die kommensalen Bakterien des Magen-Darm-Trakts spielen eine Schlüsselrolle bei der Entwicklung einer gesunden Immunantwort. Gesunde Reifgeborene erwerben diese kommensalen Organismen schnell nach der Geburt. Die Kolonisation bei Frühgeborenen wird jedoch durch den Geburtsmodus, die Antibiotikabehandlung und das intensivmedizinische Umfeld beeinträchtigt. Eine veränderte Zusammensetzung der Mikrobiota kann bei Frühgeborenen zu einer verstärkten Besiedelung mit pathogenen Bakterien, einer schlechten Immunentwicklung und einer Anfälligkeit für Sepsis führen.;-;-;-;https://link.springer.com/article/10.1186/1471-2334-11-210 e840b6cc137073e52826c4a860ecc558;de;;;6.2.;;;Ein zehnjähriger Rückblick auf das Sichelzellenprogramm im Muhimbili National Hospital, Tansania Afrika hat die höchste Belastung durch Sichelzellanämie (SCD), aber es gibt nur wenige große, systematische Studien, die zuverlässige Beschreibungen des Krankheitsspektrums liefern. Tansania, mit 11.000 SCD-Geburten jährlich, hat das Muhimbili Sichelzellen-Programm ins Leben gerufen, um das Verständnis von SCD in Afrika zu verbessern. Wir berichten über das Profil von SCD in den ersten 10 Jahren im Muhimbili National Hospital (MNH).;-;-;-;https://link.springer.com/article/10.1186/s12878-018-0125-0 6d691fb09541ed5e9e628597f31b3f0b;de;;;6.2.;;;Hormonersatztherapie wird mit gastroösophagealer Refluxkrankheit in Verbindung gebracht: eine retrospektive Kohortenstudie Östrogen und Gestagen haben das Potenzial, die gastrointestinale Motilität zu beeinflussen, beide sind Schlüsselkomponenten der Hormonersatztherapie (HRT). Die Ergebnisse von Beobachtungsstudien bei Frauen, die HRT einnehmen, beruhen auf der Selbstanzeige gastroösophagealer Symptome und die Ätiologie der gastroösophagealen Refluxkrankheit (GERD) bleibt unklar. Diese Studie untersuchte den Zusammenhang zwischen HRT und GERD bei Frauen in den Wechseljahren anhand von validierten Aufzeichnungen der Allgemeinmedizin.;-;-;-;https://link.springer.com/article/10.1186/1471-230X-12-56 b67309d763ac8d71d02a5d698fec896f;de;;;6.2.;;;Topische Anwendung von Die atopische Dermatitis (AD) ist eine häufige juckende entzündliche Hauterkrankung mit zunehmender Prävalenz. Es kann sich mit vielen verschiedenen klinischen Phänotypen manifestieren, jedoch sind im chronischen Stadium Hyperpigmentierung, Exkoriation, Lichenifikation und Trockenheit die Hauptsymptome.;-;-;-;https://link.springer.com/article/10.1186/s13063-017-1920-9 a1165dd5e5c74eff5598ff3f3f4b8155;de;;;6.2.;;;Krankheitsprofile von Häftlingen im Kanton Waadt in der Schweiz: Geschlechts- und Altersunterschiede bei Drogenmissbrauch, psychischer Gesundheit und chronischen Erkrankungen Die Literatur zum Krankheitsbild von Häftlingen, die nach Alter und Geschlecht differenziert, ist noch spärlich. Diese Studie zielte darauf ab, den Gesundheitszustand von Justizvollzugsinsassen in Bezug auf Drogenmissbrauch und psychische und somatische Gesundheitszustände zu beschreiben und nach Geschlecht und Alter zu vergleichen.;-;-;-;https://link.springer.com/article/10.1186/s12889-015-2211-6 f9a91c497d9a8f3f0c6c24b2310dd7b9;de;;;6.2.;;;HIV-Prävention und HIV-Versorgung bei Jugendlichen mit Transgender- und Geschlechterdiversität: Entwurf und Umsetzung eines standortübergreifenden Studienprotokolls mit gemischten Methoden in den USA In den USA sind Transgender- und Gender-Diversity-Bevölkerungen (TGD) mit strukturellen, zwischenmenschlichen und individuellen Barrieren bei der Gesundheitsversorgung konfrontiert. Über die HIV-Präventions- und Behandlungserfahrungen von TGD-Jugendlichen in den USA ist jedoch weniger bekannt. Die aktuelle Studie wurde entwickelt, um diese Forschungslücke zu schließen.;-;-;-;https://link.springer.com/article/10.1186/s12889-019-7605-4 aab24e7e8a0826ac5d4058a7b504a0eb;de;;;6.2.;;;Die Prävalenz von nicht-kardialen Brustschmerzen (NCCP) anhand von Daten der Notaufnahme (ED): eine in Nordirland ansässige Studie Das Ziel dieser Studie war es, die Häufigkeit von Brustschmerzvorstellungen und die anschließenden nicht-kardialen Brustschmerzdiagnosen in einer Notaufnahme (ED) über einen Zeitraum von 3 Jahren zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s12913-017-2493-8 50fb78243c026f17fe6653055e8571cd;de;;;6.2.;;;Lungenperfusion mit sauerstoffangereichertem Blut oder Custodiol-HTK-Lösung während Herzoperationen zur postoperativen Lungenfunktion bei COPD-Patienten: ein Studienprotokoll für die randomisierte, klinische Parallelgruppen-, Assessor- und Datenanalytiker-blinde Lungenschutzstudie Fünf bis dreißig Prozent der Patienten, die sich einer Herzoperation unterziehen, weisen eine chronisch-obstruktive Lungenerkrankung (COPD) auf und haben ein 2- bis 10-fach höheres 30-Tage-Sterblichkeitsrisiko. Der kardiopulmonale Bypass (CPB) erzeugt ein systemisches Ganzkörper-Entzündungsreaktionssyndrom (SIRS), das die Lungenfunktion beeinträchtigen könnte. Eine eingeschränkte Lungenfunktion kann jedoch durch Lungenperfusion mit sauerstoffangereichertem Blut oder Custodiol-HTK-Lösung (Histidin-Tryptophan-Ketoglutarat) abgeschwächt werden.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-14-30 39e95df2f2770bd61a3d72072715c17b;de;;;6.2.;;;Protokoll und praktische Herausforderungen für eine randomisierte kontrollierte Studie zum Vergleich der Auswirkungen eines hochintensiven Intervalltrainings mit der Standardbehandlung vor einer großen Bauchoperation: Studienprotokoll für eine randomisierte kontrollierte Studie Risikofaktoren wie die Anzahl der Vorerkrankungen, das Ausmaß der zugrunde liegenden Pathologie und das Ausmaß der erforderlichen Operation können vor der Operation nicht verändert werden. Es kann jedoch möglich sein, die kardiopulmonale Fitness des Patienten durch ein individuelles Trainingsprogramm zu verbessern. Wir führen eine randomisierte kontrollierte Studie (RCT) durch, in der die Auswirkungen von High Intensity Interval Training (HIIT) auf die präoperative kardiopulmonale Fitness und die postoperativen Ergebnisse bei Patienten untersucht werden, die sich einer großen Bauchoperation unterziehen.;-;-;-;https://link.springer.com/article/10.1186/s13063-018-2701-9 7fb3c3402d76758c73e53325c6d655d5;de;;;6.2.;;;Lachgas/Sauerstoff plus Paracetamol versus Morphin bei ST-Hebungs-Myokardinfarkt: offene, clusterrandomisierte Nicht-Unterlegenheitsstudie Studien haben unterschiedliche Ergebnisse zu den Folgen der Verwendung von Morphin beim ST-Strecken-Hebungs-Myokardinfarkt (STEMI) gezeigt. Keine Studie hat alternative Behandlungsmethoden bewertet, die Morphin ohne seine potenziell schädlichen Folgen für die Myokardfunktion und die Thrombozytenreaktivität zumindest nicht unterlegen sein könnten. Das Ziel dieser Studie war es zu bewerten, ob Lachgas/Sauerstoff plus intravenöses Acetaminophen (NOO-A) Morphin bei der Kontrolle von Brustschmerzen bei STEMI-Patienten nicht unterlegen ist.;-;-;-;https://link.springer.com/article/10.1186/s13049-020-00731-y fa6a623668809bd0888a15b7f6749efd;de;;;6.2.;;;Risikofaktoren auf Betriebsebene für Die Prävalenz der Rinderfasziolose in Dänemark nimmt zu, jedoch fehlen derzeit geeignete Leitlinien zur Bekämpfung. Um bei der Entwicklung einer Kontrollstrategie für Leberegel zu helfen, wurde eine Risikofaktorstudie zu Betriebsmanagementfaktoren durchgeführt und der Nutzen von Tankmilch (BTM ELISA) als Diagnoseinstrument in dänischen Milchviehbetrieben bewertet.;-;-;-;https://link.springer.com/article/10.1186/s13071-017-2504-y 353fcfb82d6cb4a7a68c9113e51bdc76;de;;;6.2.;;;Bewertung von Ramucirumab plus Paclitaxel als Switch-Maintenance versus Fortführung der Erstlinien-Chemotherapie bei Patienten mit fortgeschrittenem HER-2-negativem Magen- oder gastroösophagealen Übergang: Phase-III-Studie ARMANI Platin/Fluoropyrimidin-Schemata sind das Rückgrat der Erstlinien-Chemotherapie bei fortgeschrittenem Magenkrebs (AGC). Die Ansprechraten auf die Erstlinien-Chemotherapie reichen jedoch von 30 bis 50 % und die Krankheitsprogression tritt nach 4–6 Zyklen auf. Die optimale Dauer der Erstlinientherapie ist noch unbekannt und ihre Fortsetzung bis zur Krankheitsprogression stellt den Standard dar. Diese Strategie ist jedoch oft mit einer kumulativen Toxizität und einer schnellen Entwicklung von Arzneimittelresistenzen verbunden. Darüber hinaus sind nur etwa 40% der AGC-Pkt. sind für eine Zweitlinienbehandlung geeignet.;-;-;-;https://link.springer.com/article/10.1186/s12885-019-5498-3 7d8ca3463ab3df40b2064561e8e1ff51;de;;;6.2.;;;Akute Nierenschädigung ist eine häufige Komplikation bei kritisch kranken Neugeborenen, die eine extrakorporale Membranoxygenierung erhalten: eine 14-jährige Kohortenstudie Neugeborene, die eine extrakorporale Membranoxygenierung (ECMO) benötigen, haben ein hohes Risiko, eine akute Nierenschädigung (AKI) zu entwickeln. AKI kann als Teil eines Multiorganversagens auftreten und durch Exposition gegenüber Komponenten des extrakorporalen Kreislaufs verschlimmert werden. AKI erfordert eine Dosisanpassung von renal eliminierten Arzneimitteln und die Vermeidung von nephrotoxischen Arzneimitteln. Unser Ziel war es, die Inzidenz und den klinischen Verlauf von AKI bei kritisch kranken Neugeborenen, die ECMO-Unterstützung erhalten, systematisch zu definieren.;-;-;-;https://link.springer.com/article/10.1186/cc12830 84652b4f07bbf04a5d440ab0aae24275;de;;;6.2.;;;Inzidenz und klinische Ergebnisse von Diabetes mellitus bei HIV-infizierten Erwachsenen in Thailand: eine retrospektive Kohortenstudie Seit 2005 hat Thailand eines der größten Programme zur antiretroviralen Behandlung (ART) in Südostasien ausgebaut. Obwohl die Inzidenz von Diabetes mellitus (DM) in Ländern mit niedrigem und mittlerem Einkommen zunimmt, sind seine Belastung und die beitragenden Faktoren in der HIV-infizierten Bevölkerung nicht bekannt.;-;-;-;https://link.springer.com/article/10.1186/s12889-018-5967-7 be738357a45111b8dd7c216b06821354;de;;;6.2.;;;Beeinflusst ein auf Lungenrehabilitation basierendes ERAS-Programm (PREP) die Häufigkeit von Lungenkomplikationen, die Lungenfunktion und die Lebensqualität nach einer Lungenkrebsoperation? Studienprotokoll für eine multizentrische randomisierte kontrollierte Studie Lungenkrebsoperationen sind mit einer hohen Inzidenz von postoperativen Lungenkomplikationen (PPCs) verbunden. Vorläufige Beweise deuten darauf hin, dass ERAS-Prozesse die Gesamtinzidenz von PPC reduzieren können, da die kurz- und langfristige Genesung durch die Unterstützung der Einheiten bei der Einführung einer evidenzbasierten Versorgung verbessert wird. Die Evidenz ist jedoch aufgrund unzureichender hochrangiger Studien in diesem Forschungsfeld nicht schlüssig. Keine gut konzipierten, ausreichend gepowerten, randomisierten kontrollierten Studien (RCTs) haben die Auswirkungen eines auf Lungenrehabilitation basierenden ERAS-Programms (PREP) auf postoperative Lungenkomplikationen, Lungenfunktion und gesundheitsbezogene Lebensqualität nach Lungenkrebsoperationen untersucht.;-;-;-;https://link.springer.com/article/10.1186/s12890-020-1073-6 7d7335e9c8fa35fdfd872fd454f73226;de;;;6.2.;;;Berufliche Risikofaktoren für die Parkinson-Krankheit: eine Fall-Kontroll-Studie in Japan Die Evidenz für Assoziationen zwischen beruflichen Faktoren und dem Risiko für die Parkinson-Krankheit (PD) ist widersprüchlich. Wir bewerteten das Parkinsonrisiko, das mit verschiedenen beruflichen Faktoren in Japan verbunden ist.;-;-;-;https://link.springer.com/article/10.1186/1471-2377-11-83 c1a4b38e3437c708420ac9a61cf7fefc;de;;;6.2.;;;Ein auf das Zentralnervensystem fokussierter Behandlungsansatz für Menschen mit Frozen Shoulder: Protokoll für eine randomisierte klinische Studie Frozen Shoulder (FS) ist eine Erkrankung des Bewegungsapparates mit wenig verstandener Ätiologie, die zu Schulterschmerzen und großen Mobilitätsdefiziten führt. Obwohl einige physiotherapeutische Interventionen wie Gelenkmobilisation und Bewegung einen therapeutischen Nutzen gezeigt haben, gibt es derzeit keine definitive Behandlung. Das Ziel dieser Studie ist es, die Wirksamkeit eines auf das Zentralnervensystem (ZNS) gerichteten Behandlungsprogramms mit einem standardmäßigen medizinischen und physiotherapeutischen Behandlungsprogramm hinsichtlich der Ergebnisse bei Teilnehmern mit FS zu vergleichen.;-;-;-;https://link.springer.com/article/10.1186/s13063-019-3585-z 105a259c78e031fb11dab7d1fc01f516;de;;;6.2.;;;Praktische Anleitung für die Behandlung von Patienten mit Diabetes mit Flash-Glukoseüberwachung: eine Pilotstudie Das Flash-Glukose-Monitoring (FGM) ist ein werkseitig kalibriertes Sensorsystem zur Blutzuckermessung für Patienten mit Diabetes. Unser Ziel war es, die Korrelation zwischen dem mit einem FGM-Gerät erhaltenen Sensorglukosewert (SG) und der traditionellen Selbstüberwachung des Blutglukosewerts (SMBG) zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s13098-018-0364-z 1745d4a753ea0eb40446e268448cd006;de;;;6.2.;;;Ein Instrument zur Messung der gesundheitsbezogenen Lebensqualität bei Patienten mit tiefer Venenthrombose (DVT): Entwicklung und Validierung des Fragebogens zur Lebensqualität der tiefen Venenthrombose (DVTQOL) Nur wenige Studien haben patientenberichtete Endpunkte im Zusammenhang mit einem primären Ereignis einer tiefen Venenthrombose ausgewertet, teilweise aufgrund fehlender krankheitsspezifischer Maßnahmen. Ziel war es, ein krankheitsspezifisches Maß der gesundheitsbezogenen Lebensqualität (HRQL), den Lebensqualitätsfragebogen für tiefe Venenthrombose (DVTQOL), für Patienten mit neuer Exposition und Behandlung einer proximalen tiefen Venenthrombose zu entwickeln.;-;-;-;https://link.springer.com/article/10.1186/1477-7525-2-30 bf7fd5bdf96a04dfccdc879fc2dd6042;de;;;6.2.;;;Bereitstellung von HIV-Behandlung nach den Gewalttaten in Kenia nach den Wahlen aus den Lehren der Ärzte ohne Grenzen von Januar bis März 2008 Kenias Gewalt nach den Wahlen Anfang 2008 hat die Gesundheitsdienste und insbesondere die HIV-Betreuer vor erhebliche Probleme gestellt. Es wurde befürchtet, dass die Unterbrechungen der Dienste zu weit verbreiteten Behandlungsunterbrechungen führen würden. Ärzte ohne Grenzen arbeitete seit 10 Jahren im Slum von Kibera und bot 1800 Patienten antiretrovirale Therapien an, als die Gewalt ausbrach. MSF reagierte auf verschiedene Weise auf die Krise und schaffte es, die HIV-Dienste am Laufen zu halten. Die Behandlungsunterbrechung war geringer als erwartet, und MSF profitierte von einer Reihe von Erkenntnissen, die auf ähnliche Kontexte übertragen werden könnten, in denen sich eine stabile Situation plötzlich verschlechtert.;-;-;-;https://link.springer.com/article/10.1186/1752-1505-2-15 fe741f4d3ba0ce82fe0c26c18e7488ff;de;;;6.2.;;;Eine randomisierte Studie mit Chlorhexidingluconat bei oralen bakteriellen Krankheitserregern bei beatmeten Patienten Zahnbelag-Biofilme werden bei beatmeten Intensivpatienten von Atemwegserregern besiedelt. Somit können Verbesserungen der Mundhygiene bei diesen Patienten eine beatmungsassoziierte Pneumonie verhindern. Ziel dieser Studie war es, bei 175 intubierten Patienten auf einer Trauma-Intensivstation die Mindesthäufigkeit (ein- bis zweimal täglich) für die Gabe von 0,12% Chlorhexidingluconat zu ermitteln, die zur Reduzierung der oralen Besiedlung durch Erreger erforderlich ist.;-;-;-;https://link.springer.com/article/10.1186/cc7967 30418ae8ca3f48b7369bf164677b010d;de;;;6.2.;;;Bizentrische retrospektive Analyse der en-bloc-Resektion und der Erkennungsrate der Muscularis Mucosae bei nicht-muskelinvasiven Blasentumoren: Ein reales Szenario Zur Risikostratifizierung des nicht muskelinvasiven Blasenkarzinoms (NMIBC) kann die Tiefe der Stromainvasion weiter klassifiziert werden, wobei die Lamina Muscularis mucosae (MM) als Referenzstruktur dient. Während die Gesamtidentifizierbarkeit von MM in transurethralen Standardpräparaten gering ist, kann eine En-bloc-Resektion bei der Identifizierung und allgemeinen Orientierung helfen. Das Ziel dieser Studie war es, die Erkennungsrate von MM in en bloc resezierten Blasentumoren (ERBT) zu berichten und reale Informationen über die Gewebestabilität und den Erhalt der en bloc Architektur während der Genesung und Verarbeitung für die histopathologische Bewertung bereitzustellen.;-;-;-;https://link.springer.com/article/10.1007/s12325-020-01529-1 0520f8a99f3f5961034bbfc17a5d7475;de;;;6.2.;;;Ein schulisches Gesundheitsförderungsprogramm zur Steigerung der Hilfesuchenden bei Drogenkonsum und psychischen Problemen: Studienprotokoll für eine randomisierte kontrollierte Studie Die Pubertät ist eine Zeit mit hohem Risiko für die Entwicklung von psychischen Problemen und Drogenkonsum. Allerdings hat weniger als jeder vierte 16- bis 24-Jährige mit einer aktuellen Störung Zugang zu Gesundheitsdiensten, wobei diejenigen, die an einer Substanzmissbrauchsstörung leiden, am seltensten professionelle Hilfe in Anspruch nehmen. Untersuchungen zeigen, dass junge Menschen ihre Probleme für sich behalten oder sich alternativ an Gleichaltrige oder vertrauenswürdige Erwachsene in ihrem Leben wenden, um Hilfe zu erhalten. Diese Präferenzen für die Suche nach Hilfe unterstreichen die Notwendigkeit, die psychische Gesundheit von Jugendlichen aufzubauen, um sicherzustellen, dass sie wissen, wann und wie sie sich selbst und ihren Gleichaltrigen helfen können, Unterstützung zu erhalten. Die MAKINGtheLINK-Intervention zielt darauf ab, diese Fähigkeiten Jugendlichen in einem Klassenzimmer zu vermitteln.;-;-;-;https://link.springer.com/article/10.1186/s13063-016-1510-2 cafc6d8506448cb7a7dfe6fd3ee0cec5;de;;;6.2.;;;Die BeHealthyR-Studie: eine randomisierte Studie einer Mehrkomponenten-Intervention zur Reduzierung von Stress, Rauchen und Verbesserung der finanziellen Gesundheit von Einwohnern mit niedrigem Einkommen in Rotterdam Im Vergleich zu Gruppen mit einem höheren sozioökonomischen Status (SES) sind Personen in Gruppen mit einem niedrigeren SES finanziell angespannt, weisen höhere Raten von rauchbedingter Morbidität auf, sind in einem schlechteren Gesundheitszustand und haben eine geringere Lebenserwartung. Dies gilt insbesondere für die Stadt Rotterdam, wo eine große gesundheitliche Ungleichheit zwischen Gruppen mit niedrigem und hohem SES beobachtet wird. Die BeHealthyR-Studie (Niederländisch: Grip en Gezondheid) ist eine randomisierte kontrollierte Studie (RCT), die die Auswirkungen einer theoriebasierten Mehrkomponenten-Verhaltensintervention untersucht, die darauf abzielt, Stress, Rauchen und die finanzielle Gesundheit durch gruppenbasierten Stress zu reduzieren Managementprogramm, das kognitive und Verhaltenstechniken kombiniert, und Nudges bei Einwohnern mit niedrigem SES, die in Rotterdam leben.;-;-;-;https://link.springer.com/article/10.1186/s12889-018-5728-7 f8e21a472ccb2852ed450e5e203bd206;de;;;6.2.;;;Förderung der psychischen Gesundheit und des Wohlbefindens in Schulen: Untersuchung von Achtsamkeit, Entspannung und Strategien für Sicherheit und Wohlbefinden in englischen Grund- und Sekundarschulen: Studienprotokoll für eine schulübergreifende, randomisierte, kontrollierte Studie (INSPIRE) Bei Kindern und Jugendlichen in England wird immer häufiger von internalisierenden Schwierigkeiten, insbesondere Angstzuständen und Depressionen, berichtet. Schulbasierte, universelle Präventionsprogramme gelten als eine Möglichkeit, solche Schwierigkeiten zu bewältigen. Dieses Protokoll beschreibt eine vierarmige, randomisierte, kontrollierte Cluster-Studie, in der die Wirksamkeit von drei verschiedenen Interventionen im Vergleich zum üblichen Angebot bei englischen Grund- und Sekundarschülern untersucht wird. Das primäre Ergebnis von Achtsamkeits- und Entspannungsinterventionen ist ein Maß für die Internalisierung von Schwierigkeiten, während Strategien für Sicherheit und Wohlbefinden in Bezug auf die beabsichtigte Hilfesuche untersucht werden. Neben der Wirksamkeitsanalyse wird eine Prozess- und Umsetzungsbewertung sowie eine Kosten-Nutzen-Bewertung durchgeführt.;-;-;-;https://link.springer.com/article/10.1186/s13063-019-3762-0 586e027d7d3e2e98696a4cc7a33120bb;de;;;6.2.;;;Krafttraining für Arthritis-Studie (START): Design und Begründung Muskelverlust und Fettzunahme tragen zu Behinderung, Schmerzen und Morbidität bei, die mit Kniearthrose (OA) verbunden sind, und die Schwäche der Oberschenkelmuskulatur ist ein unabhängiger und beeinflussbarer Risikofaktor dafür. Während jedoch alle veröffentlichten Behandlungsrichtlinien Muskelstärkungsübungen empfehlen, um den Verlust von Muskelmasse und Kraft bei Knie-OA-Patienten zu bekämpfen, wurden in früheren Krafttrainingsstudien entweder Intensitäten oder Belastungen verwendet;-;-;-;https://link.springer.com/article/10.1186/1471-2474-14-208 529223c395f503184e83ce0dc14f9609;de;;;6.2.;;;Individuelle und gemeinsame Assoziation von bioverfügbarem Testosteron und Alterung mit dem Neutrophilen-Lymphozyten-Verhältnis bei chinesischen Männern mittleren und höheren Alters Immer mehr Beweise deuten darauf hin, dass chronische systemische Entzündungen (CSI) unabhängig mit einer großen Anzahl wichtiger nichtübertragbarer chronischer Krankheiten (NCDs) assoziiert sind, die von Stoffwechselstörungen bis hin zu Krebs reichen, und das Neutrophilen-Lymphozyten-Verhältnis (NLR) als neuartiges, praktischer Marker für CSI-Antwort. Testosteronmangel bei Männern ist mit einem hohen Risiko für nichtübertragbare Krankheiten verbunden. Diese Querschnittsstudie zielte darauf ab, die individuelle und gemeinsame Assoziation von bioverfügbarem Testosteron (BIOT) und Alterung mit NLR zu untersuchen.;-;-;-;https://link.springer.com/article/10.1007/s40520-019-01333-0 5eba9dd9dec9b73a19bc0ec421a5d61a;de;;;6.2.;;;Eyes in the sky: Verbindung von Satellitenozeanographie und Biotelemetrie, um die Habitatauswahl durch Riesenhaie zu erforschen Satellitengestützte ozeanographische Datenprodukte sind eine wertvolle Informationsquelle über die potenzielle Ressourcenverfügbarkeit für Meeresarten. Ozeanographische Satellitendaten können bei Biotelemetriestudien an Meeresarten, die sich auf niedrigem trophischen Niveau ernähren, wie z. Der Riesenhai,;-;-;-;https://link.springer.com/article/10.1186/2050-3385-2-12 275976cf75f683c799e526c0b91ad877;de;;;6.2.;;;Protokoll für eine multizentrische prospektive Kohortenstudie zur Bewertung der sportlichen Aktivität und der Entwicklung eines femoroazetabulären Impingements in der jugendlichen Hüfte Das femoroazetabuläre Impingement (FAI) ist eine wichtige Ursache für Hüftschmerzen bei jungen und aktiven Menschen und tritt als Folge einer Fehlanpassung von Größe und Form zwischen Hüftkopf und Acetabulum auf. Offene Körper bei Kindern können die Hüften anfälliger für Verletzungen machen, und es wurde vermutet, dass hohe Aufprallkräfte den sich entwickelnden Femur beeinflussen. Die FAI-Diagnose hat in letzter Zeit zugenommen, insbesondere in der jugendlichen Bevölkerung, und es besteht ein zunehmender Trend zur ganzjährigen Teilnahme an Sportarten mit früher Spezialisierung. Die PREVIEW-Studie ist eine internationale Längsschnittstudie, die den Zusammenhang zwischen Sportspezialisierung im Jugendalter und der Entwicklung eines Hüftimpingements ermitteln soll.;-;-;-;https://link.springer.com/article/10.1186/s12891-020-03220-6 7c9634bed679cd89bfd8951bf8ccde27;de;;;6.2.;;;Erfahrungen politischer Entscheidungsträger mit einer Intervention zum Kapazitätsaufbau, die darauf abzielt, ihren Forschungseinsatz zu erhöhen: eine realistische Prozessbewertung Der Erfolg einer Intervention hängt davon ab, wie die Teilnehmerinnen und Teilnehmer damit vor Ort interagieren. Die Prozessbewertung untersucht diese Interaktionen und zeigt auf, warum eine Intervention wirksam war oder nicht und wie sie (und ähnliche Interventionen) für eine bessere kontextuelle Anpassung verbessert werden können. Dies ist besonders wichtig für innovative Studien wie Supporting Policy In health with Research: an Intervention Trial (SPIRIT), bei denen die kausalen Mechanismen nur unzureichend verstanden sind. SPIRIT testete eine Mehrkomponenten-Intervention, die darauf abzielte, die Fähigkeit von Gesundheitspolitikern zur Nutzung von Forschung zu erhöhen.;-;-;-;https://link.springer.com/article/10.1186/s12961-017-0234-4 f9f12d62a48d985b99d08c3a0fdf9334;de;;;6.2.;;;Eine randomisierte kontrollierte Studie zur Thrombozytenaggregationshemmer-Therapie in Kombination mit Rt-PA-Thrombolyse bei ischämischem Schlaganfall: Begründung und Design der ARTIS-Studie Die Thrombolyse mit intravenösem rt-PA ist derzeit die einzige zugelassene Akuttherapie des ischämischen Schlaganfalls. Bei bis zu 34 % der mit rt-PA behandelten Patienten kommt es nach der anfänglichen Rekanalisation zu einem erneuten Verschluss, wahrscheinlich verursacht durch eine Thrombozytenaktivierung. Beim akuten Myokardinfarkt führt die Kombination von Thrombolyse und Thrombozytenaggregationshemmer zu einer stärkeren Reduktion der Mortalität im Vergleich zur alleinigen Thrombolyse. Bei Patienten mit akutem ischämischem Schlaganfall zeigten mehrere Studien, dass Patienten, die bereits vor der Thrombolyse mit Thrombozytenaggregationshemmern behandelt wurden, trotz eines erhöhten Risikos für intrazerebrale Blutungen ein gleiches oder sogar besseres Ergebnis hatten als Patienten ohne vorherige Thrombozytenaggregationshemmung. Aufgrund der Angst vor intrazerebralen Blutungen empfehlen aktuelle internationale Leitlinien, die Thrombozytenaggregationshemmer auf 24 Stunden nach der Thrombolyse zu verschieben. Bemerkenswert ist, dass die vorherige Anwendung einer Thrombozytenaggregationshemmer-Therapie keine Kontraindikation für eine Thrombolyse ist. Wir gehen davon aus, dass die Thrombozytenaggregationshemmer-Therapie in Kombination mit rt-PA-Thrombolyse das Ergebnis verbessern wird, indem sie die Fibrinolyse verbessert und einen erneuten Verschluss verhindert.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-11-51 8d9c9c19cd58e14a48f38737c11d8a2c;de;;;6.2.;;;Randomisierte kontrollierte Pilotstudie mit Schutzsocken gegen die übliche Pflege zur Reduzierung von Hautrissen bei Hochrisikopatienten „STOPCUTS“: Studienprotokoll Hautrisse sind traumatische Verletzungen, die hauptsächlich an den Extremitäten aufgrund von Scher- und Reibungskräften auftreten, die die Epidermis und die Dermis vom darunter liegenden Gewebe trennen. Sie sind häufig und treten vor allem bei älteren Erwachsenen und Personen auf, die Medikamente einnehmen, die die Integrität der Haut beeinträchtigen. Prätibiale Hautrisse können sich zu Beingeschwüren entwickeln, deren Heilung eine langwierige und teure Behandlung erfordert. Traumatische Verletzungen sind nach Dekubitus in Pflegeheimen die zweithäufigste Wundart und sind der häufigste Grund für ältere Erwachsene, die Aufmerksamkeit einer Gemeindeschwester zu benötigen. Häufige Ursachen für Hautrissverletzungen sind das Anstoßen an Möbel und andere Hindernisse, die Verwendung von Mobilitätshilfen, das Umsteigen in/von Rollstühlen, das Ein- und Aussteigen aus dem Bett und Stürze. Gegenwärtig gibt es keine wirksamen Präventionsmaßnahmen, aber knielange Schutzsocken, die schlagfeste Kevlar-Fasern (wie sie in Stichschutzwesten verwendet werden) und darunter liegende Polsterschichten enthalten.;-;-;-;https://link.springer.com/article/10.1186/s40814-015-0005-3 6a4baf429aabc7ca8fdf0e6249089209;de;;;6.2.;;;Kosteneffektivität der mikroendoskopischen Diskektomie im Vergleich zur konventionellen offenen Diskektomie bei der Behandlung des lumbalen Bandscheibenvorfalls: eine prospektive randomisierte kontrollierte Studie [ISRCTN51857546] Die offene Diskektomie ist das chirurgische Standardverfahren bei der Behandlung von Patienten mit lang anhaltendem Ischias, der durch einen Bandscheibenvorfall verursacht wird. Minimalinvasive Verfahren wie die mikroendoskopische Diskektomie haben in den letzten Jahren an Aufmerksamkeit gewonnen. Reduziertes Gewebetrauma ermöglicht eine frühe Gehfähigkeit, einen kurzen Krankenhausaufenthalt und eine schnelle Wiederaufnahme der täglichen Aktivitäten. Eine vergleichende Kosteneffektivitätsstudie wurde noch nicht durchgeführt. Wir präsentieren das Design einer randomisierten kontrollierten Studie zur Kosteneffektivität der mikroendoskopischen Diskektomie im Vergleich zur konventionellen offenen Diskektomie bei Patienten mit lumbalem Bandscheibenvorfall.;-;-;-;https://link.springer.com/article/10.1186/1471-2474-7-42 e64779047a03c9b561a4955963df73b7;de;;;6.2.;;;Einhaltung von Ernährungsstandards an mexikanischen Schulen und deren Wirksamkeit: eine wiederholte Querschnittsstudie Mexiko hat 2011 verbindliche nährstoffbasierte Standards für in Schulen verkaufte Lebensmittel verabschiedet. Ziel dieser Studie war es, den Zusammenhang zwischen der Einhaltung von Ernährungsstandards für in Schulen verkaufte Lebensmittel und Schulsnacks für Kinder zu analysieren.;-;-;-;https://link.springer.com/article/10.1186/s12889-018-6330-8 3ff5b7b071cbea17895ecae257313050;de;;;6.2.;;;Erhöhung der EPI-Impfstoffabdeckung nach Einführung einer intermittierenden präventiven Malariabehandlung bei Säuglingen mit Sulfadoxin-Pyrimethamin im Bezirk Kolokani, Mali: Ergebnisse einer randomisierten Cluster-Kontrollstudie Obwohl die Wirksamkeit der intermittierenden Präventivbehandlung bei Säuglingen (IPTi) mit Sulfadoxin-Pyrimethamin (SP) gegen klinische Erkrankungen und das Fehlen ihrer Wechselwirkung mit Routineimpfstoffen des erweiterten Immunisierungsprogramms (EPI) nachgewiesen wurde, bestehen noch Bedenken hinsichtlich die Hinzufügung von IPTi, die die Arbeitsbelastung erhöhen und die routinemäßigen EPI-Dienste insbesondere in Afrika stören könnte, wo die Zielimpfungsrate noch nicht erreicht werden muss. IPTi kann jedoch auch die Zugehörigkeit der Gemeinschaft zu den EPI-Diensten erhöhen und die EPI-Abdeckung verbessern, sobald der Nutzen der Strategie erkannt wird.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-11-573 25a21dff285975ec0a9f575b93273250;de;;;6.2.;;;Rehabilitations- und Behandlungsergebnisse von Muskel-Skelett-Verletzungen in einem großen Überweisungskrankenhaus in Ghana Die verheerenden Auswirkungen von Muskel-Skelett-Verletzungen (MSI) auf das Leben von Menschen, die Wirtschaft und das Gesundheitswesen können nicht genug betont werden. Dies hat die Diskussion auf internationalen Foren entzündet, da die Länder ermahnt wurden, dem Management von MSI Priorität einzuräumen, um eine gesunde Gesellschaft zu erhalten. Im ghanaischen Kontext ist die Wissensbasis zum Management von MSI sehr gering, was den Anstoß gegeben hat, das Management von MSI und die Rehabilitationssysteme an einem tertiären Krankenhaus in Ghana zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s12891-019-2423-5 1c46fac9aa249baef9df51535eb448a2;de;;;6.2.;;;Studienprotokoll einer randomisierten kontrollierten Studie zum computergestützten Exekutivfunktionstraining zu Hause für Kinder mit Zerebralparese Zerebralparese (CP) ist häufig mit spezifischen kognitiven Beeinträchtigungen verbunden, wie zum Beispiel exekutive Dysfunktion, die mit Partizipation und Lebensqualität (QOL) zusammenhängt. Die vorgeschlagene Studie wird untersuchen, ob ein computergestütztes Trainingsprogramm für exekutive Funktionen (EF) im Vergleich zur üblichen Behandlung überlegene Vorteile für die exekutive Funktion, Teilnahme, Lebensqualität und Gehirnplastizität bieten könnte.;-;-;-;https://link.springer.com/article/10.1186/s12887-019-1904-x 44a83f3b6f6338de7165a451e2e9da15;de;;;6.2.;;;Erwachsene Bevölkerung als potenzielles Reservoir von NTD-Infektionen in ländlichen Dörfern des Kwale-Distrikts, Küstenkenia: Auswirkungen auf die Politik der präventiven Chemotherapie-Interventionen Vernachlässigte Tropenkrankheiten (NTDs) sind große Probleme der öffentlichen Gesundheit in Entwicklungsländern, da sie zum Leiden der Bevölkerung in armen Verhältnissen beitragen. Im Rahmen eines im September 2009 gestarteten Forschungsprojekts im Distrikt Kwale, Coast Region, Kenia, wurde in 5 ländlichen Dörfern eine grundlegende Querschnittserhebung durchgeführt, um Informationen über den Status von NTDs, einschließlich Harn-Bilharziose, ) und lymphatische Filariose. Dieser Beitrag präsentiert die Ergebnisse einer parasitologischen Untersuchung bei Erwachsenen in den Studiendörfern.;-;-;-;https://link.springer.com/article/10.1186/1756-3305-4-175 6f846bff832ad852591e9a5e68877f51;de;;;6.2.;;;Anwendung des Smartphones im Better Border Healthcare Program: Ein Modul für die Mutter-Kind-Betreuung Bewertung der Anwendung von Mobiltelefonen, die in das Gesundheitssystem integriert werden, um die Schwangerschaftsvorsorge (ANC) und das erweiterte Programm für Impfdienste (EPI) für die unterversorgte Bevölkerung im Grenzgebiet zu verbessern;-;-;-;https://link.springer.com/article/10.1186/1472-6947-10-69 70743c8bee16d07135d773a92b92969d;de;;;6.2.;;;Vergleich der Zufriedenheit mit einer partizipativ gesteuerten Webanwendung und einer Standard-Website für Patienten mit Kreuzschmerzen: ein Studienprotokoll für eine randomisierte kontrollierte Studie (Teil der ADVIN Back Trial) Kreuzschmerzen (LBP) sind die häufigste Muskel-Skelett-Erkrankung und eine der häufigsten Ursachen für Behinderungen weltweit. Sie wirkt sich auf das tägliche Leben und die Arbeitsfähigkeit aus und ist der häufigste Grund, einen Hausarzt aufzusuchen. Nach internationalen Leitlinien sind Information, Beruhigung und Beratung Schlüsselkomponenten in der Behandlung von Menschen mit LBP, jedoch ist die für jeden Patienten in der Hausarztpraxis zur Verfügung stehende Konsultationszeit oft begrenzt. Daher werden neue Methoden benötigt, um die Bereitstellung von Informationen und Beratung zu unterstützen, und Online-Technologien bieten neue Möglichkeiten, die Beratung über die Praxis des Hausarztes hinaus auszudehnen. Es ist jedoch nicht bekannt, ob Hausärzte und Personen, die ihren Hausarzt aufgrund von LBP konsultieren, Online-Technologien als Teil der Konsultation akzeptieren. Durch die Einbeziehung von Patienten in die Entwicklung von Online-Informationen können wir benutzerfreundlichere Inhalte und Designs erstellen und die Patientenakzeptanz und -nutzung verbessern, um die Zufriedenheit und die klinischen Ergebnisse zu optimieren. Der Zweck besteht darin, die Zufriedenheit von Personen zu untersuchen, die ihren Hausarzt mit LBP konsultieren, je nachdem, ob sie randomisiert werden, um unterstützende Informationen über eine neue teilnehmergesteuerte Webanwendung oder eine Standard-Referenz-Website mit leitlinienbasierten Informationen zu LBP zu erhalten. Es wird die Hypothese aufgestellt, dass Patienten, denen Informationen in einer neuen Webanwendung angeboten werden, nach 12 Wochen mit den Online-Informationen zufriedener sind als Patienten, die einer Standard-Website zugewiesen wurden.;-;-;-;https://link.springer.com/article/10.1186/s13063-018-2795-0 af6d8348273ed574699e7d064324a9ff;de;;;6.2.;;;Sozioökonomischer Status, Urbanität und Risikoverhalten bei mexikanischen Jugendlichen: eine Analyse von drei Querschnittsbefragungen Der Zusammenhang zwischen Urbanität und jugendlicher Gesundheit ist ein kritisches Thema, für das nur wenige empirische Belege vorliegen. Obwohl eine Assoziation vorgeschlagen wurde, kann ein dichotomer Vergleich zwischen ländlichen und städtischen Gebieten möglicherweise nicht erfolgreich sein, um Unterschiede zwischen jugendlichen Kontexten zu identifizieren. Diese Studie zielt darauf ab, den Einfluss der Ortsgröße auf das Risikoverhalten in einer nationalen Stichprobe junger Mexikaner, die in einkommensschwachen Haushalten leben, unter Berücksichtigung des mäßigenden Effekts des sozioökonomischen Status (SES) zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-11-900 43e3e97cf1602d20f1cd6bec710a00bb;de;;;6.2.;;;Inanspruchnahme von Gesundheitsdiensten bei Lkw-Fahrern in Südafrika: Analyse von Routinedaten aus neun Wellnesscentern am Straßenrand Fernfahrer sind beruflich anfällig für gesundheitliche Beeinträchtigungen. Ihre Muster der Gesundheitsversorgung und die Eignung der ihnen zur Verfügung stehenden Gesundheitsdienste sind nicht gut dokumentiert. Wir berichten über die Gesundheitsversorgung von Lkw-Fahrern in ganz Südafrika und charakterisieren die Kundenpopulation der Kliniken, die sie für die zukünftige Serviceentwicklung bedienen.;-;-;-;https://link.springer.com/article/10.1186/s12913-017-2595-3 d7bd32633a689b6b5c5468d57796f520;de;;;6.2.;;;Der Zusammenhang zwischen selbstberichteter psychischer Gesundheit und eingelösten Verschreibungen von Antidepressiva: eine registerbasierte Kohortenstudie Eine schlechte psychische Gesundheit ist in den meisten westlichen Gesellschaften ein großes Problem, insbesondere bei jungen Erwachsenen. Es sind jedoch keine Assoziationen von selbst angegebener schlechter psychischer Gesundheit mit anschließender psychiatrischer oder medizinischer Behandlung bekannt. Wir untersuchten den Zusammenhang zwischen selbst angegebener psychischer Gesundheit und der Einlösung von Antidepressiva-Verschreibungen in drei Altersgruppen.;-;-;-;https://link.springer.com/article/10.1186/s12888-016-0893-7 081ae37edd4634038583947e2a3372bf;de;;;6.2.;;;Nichttuberkulöse Mykobakterien (NTM) in Sambia: Prävalenz, klinische, radiologische und mikrobiologische Merkmale Eine Infektion mit nichttuberkulösen Mykobakterien (NTM) ist ein aufkommendes Gesundheitsproblem. Wir präsentieren hier die Sambia-spezifischen Daten auf nationaler Ebene zu Prävalenz, symptomatischen, radiologischen und mikrobiologischen Merkmalen von NTM, unter Verwendung der Ergebnisse einer nationalen Tuberkulose (TB)-Prävalenzerhebung.;-;-;-;https://link.springer.com/article/10.1186/s12879-015-1264-6 8f88aad473438e854a6282b6da37fc40;de;;;6.2.;;;Auswirkungen eines unregelmäßigen Schlafenszeitplans auf die Schlafqualität, Tagesmüdigkeit und Müdigkeit bei Universitätsstudenten in Taiwan Ein unregelmäßiger Schlafenszeitplan ist ein weit verbreitetes Problem bei jungen Erwachsenen und könnte ein Faktor sein, der die Schlafqualität beeinträchtigt. Das Ziel der vorliegenden Studie war es, den Zusammenhang zwischen einem unregelmäßigen Schlafenszeitplan und der Schlafqualität, Tagesschläfrigkeit und Müdigkeit bei Studenten in Taiwan zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-9-248 6f33902a21ed6ff9d48303563ec776cc;de;;;6.2.;;;Motivation und Zufriedenheit unter Gemeindegesundheitspersonal in der Region Morogoro, Tansania: differenzierte Bedürfnisse und unterschiedliche Ambitionen Im Jahr 2012 genehmigte das Ministerium für Gesundheit und Soziales (MOHSW), Tansania, nationale Leitlinien und Schulungsmaterialien für Gemeindegesundheitspersonal (CHWs) in der integrierten Mütter-, Neugeborenen- und Kindergesundheit (Integrated MNCH), wobei CHWs in fünf Distrikten ausgebildet und eingesetzt wurden der Region Morogoro kurz darauf. Um eine zukünftige Skalierung zu ermöglichen, bewertete diese Studie Motivation und Zufriedenheit unter diesen CHWs.;-;-;-;https://link.springer.com/article/10.1186/s12960-015-0035-1 b3f804d803b5d5d8b2968ea8b635c6ee;de;;;6.2.;;;Entwicklung einer Skala zur Einschätzung der Ansichten von Hebammen zur Einschätzung des Alkoholkonsums während der Schwangerschaft Die pränatale Alkoholexposition ist eine wichtige beeinflussbare Ursache für nachteilige fetale Outcomes während und nach der Schwangerschaft. Hebammen sind wichtige Anbieter von Schwangerschaftsvorsorge, und es ist wichtig, die Faktoren zu verstehen, die ihre Fähigkeit beeinflussen, Frauen in Bezug auf Alkoholkonsum in der Schwangerschaft angemessen zu beraten und zu unterstützen. Das Hauptziel dieser Studie war es, eine psychometrisch valide Skala zu entwickeln, um die Überzeugungen von Hebammen zur Einschätzung des Alkoholkonsums während der Schwangerschaft zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s12884-015-0779-6 704f99a6c97d7374f8d46c17db965978;de;;;6.2.;;;Kontinuierliche Glukoseüberwachung bei schwangeren Frauen mit Typ-1-Diabetes: eine Beobachtungs-Kohortenstudie mit 186 Schwangerschaften Das Ziel dieser Studie war es, Muster der kontinuierlichen Glukoseüberwachung (CGM)-Daten für Assoziationen mit großen Säuglingen für das Gestationsalter (LGA) und einem ungünstigen neonatalen zusammengesetzten Ergebnis (NCO) bei Schwangerschaften bei Frauen mit Typ-1-Diabetes zu analysieren.;-;-;-;https://link.springer.com/article/10.1007/s00125-019-4850-0 78e6360225c992822006f8e6d5927263;de;;;6.2.;;;Wessen Job? Die Besetzung der Vorsorgeplanungsunterstützung in zwölf internationalen Gesundheitsorganisationen: eine qualitative Interviewstudie ACP mit einem moderierten Gespräch mit einem Gesundheits- oder Pflegepersonal ist effektiver als das alleinige Ausfüllen des Dokuments. In der Politik wird erwartet, dass Angehörige der Gesundheits- und Pflegeberufe AKP-Unterstützung leisten, üblicherweise im Rahmen ihrer bestehenden Aufgaben. Allerdings werden die potenziellen Beiträge verschiedener Fachleute in den Richtlinien und Leitlinien nur grob umrissen. Derzeit mangelt es an Untersuchungen zu Möglichkeiten und Hindernissen für die Einbeziehung verschiedener Fachkräfte in die Bereitstellung von AKP-Unterstützung und zu praktikablen Modellen dafür.;-;-;-;https://link.springer.com/article/10.1186/s12904-018-0333-1 34d68979a5e6d1c83faadb4ce9429963;de;;;6.2.;;;Das gruppenbasierte Sozialkompetenztraining SOSTA-FRA bei Kindern und Jugendlichen mit hochfunktioneller Autismus-Spektrum-Störung – Studienprotokoll der randomisierten, multizentrisch kontrollierten SOSTA – Netzstudie Gruppenbasiertes Training sozialer Fähigkeiten (SST) wurde wiederholt als Behandlung der Wahl bei der hochfunktionellen Autismus-Spektrum-Störung (HFASD) empfohlen. Bis heute wurde keine ausreichend gepowerte randomisierte kontrollierte Studie durchgeführt, um die Wirksamkeit und Sicherheit von SST bei Kindern und Jugendlichen mit HFASD zu belegen. In dieser randomisierten, multizentrischen, kontrollierten Studie mit 220 Kindern und Jugendlichen mit HFASD wird die Hypothese aufgestellt, dass eine zusätzliche gruppenbasierte SST unter Verwendung des manuellen 12-wöchigen SOSTA-FRA-Programms zu einer verbesserten sozialen Reaktionsfähigkeit führt (gemessen durch die von den Eltern bewerteten Social Responsibility Scale, SRS) im Vergleich zur üblichen Behandlung (TAU). Es wird weiterhin erwartet, dass die von Eltern und selbst berichteten Angst- und depressiven Symptome abnehmen und das prosoziale Verhalten in der Behandlungsgruppe zunehmen wird. Eine neurophysiologische Studie in der Frankfurter HFASD-Untergruppe wird vor und nach der Behandlung durchgeführt, um Veränderungen der neuralen Funktion durch SST im Vergleich zu TAU zu beurteilen.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-14-6 71b1214259245199463dc1bc268abe5f;de;;;6.2.;;;Eine prospektive multizentrische Studie zu Blasenkrebs: die COBLAnCE-Kohorte Blasenkrebs ist eine naturgeschichtlich sehr heterogene Erkrankung. Umweltbelastungen, konstitutionelle genetische und/oder epigenetische Hintergründe können nicht nur die Wahrscheinlichkeit des Auftretens von Blasentumoren beeinflussen, sondern auch die histologische Krebsart und ihr Ergebnis. Derzeit sind nur wenige Daten verfügbar, um die prognostische Rolle genetischer und umweltbedingter Faktoren zu untersuchen. Ebenso sind Daten zur wirtschaftlichen Belastung durch Blasenkrebs und zu den Längsauswirkungen der Erkrankung und der Behandlungen auf die Lebensqualität der Patienten rar.;-;-;-;https://link.springer.com/article/10.1186/s12885-016-2877-x 7b691c4ba1867018ccf2decb28572640;de;;;6.2.;;;Wirksamkeit des Wechsels zwischen TNF-Inhibitoren bei Patienten mit axialer Spondyloarthritis: Ist der Grund für den Wechsel relevant? Es sollte untersucht werden, ob der Grund für das Absetzen des ersten TNF-Inhibitors (TNFi) das Ansprechen auf den zweiten TNFi bei axialer Spondyloarthritis (axSpA) beeinflusst.;-;-;-;https://link.springer.com/article/10.1186/s13075-020-02288-8 18c17767022f0e9b30ac087d9124f98c;de;;;6.2.;;;Studienprotokoll - Resilienz von Einzelpersonen und Familien, die mit den Auswirkungen von alkoholbedingten Verletzungen in abgelegenen indigenen Gemeinschaften fertig werden: eine Studie mit gemischten Methoden Alkoholmanagementpläne (AMPs) wurden erstmals vor einem Jahrzehnt (2002-2003) von der Regierung von Queensland eingeführt. 2008 wurden weitere strenge Kontrollen eingeführt und Alkohol wurde in einigen der betroffenen abgelegenen indigenen Gemeinschaften effektiv verboten. Da die Regierung von Queensland derzeit AMPs überprüft, könnten Verbote aufgehoben werden, Alkohol in diesen Gemeinden wieder leicht verfügbar zu machen. Bisher untersucht keine Arbeit die Auswirkungen von alkoholbedingten Verletzungen in Bezug auf die individuelle, familiäre und gemeinschaftliche Widerstandsfähigkeit indigener Australier. Ein Resilienzmodell erkennt Einzelpersonen und Familien eher nach ihren Stärken als nach ihren Defiziten. Durch die Aufdeckung, wie einige Einzelpersonen und Familien überleben und gedeihen, können neue Wege der Zusammenarbeit mit Familien, die Unterstützung benötigen, identifiziert und angenommen werden. Die Forschung wird die langfristigen Auswirkungen dieser Art von Verletzungen auf Einzelpersonen, Familien und Gemeinschaften im Detail untersuchen.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-14-479 8246019d6c941c405f2c99098df55fce;de;;;6.2.;;;Die Beziehung zwischen Serumkalium, Kaliumvariabilität und Krankenhausmortalität bei kritisch kranken Patienten und eine Vorher-Nachher-Analyse zur Auswirkung der computergestützten Kaliumkontrolle Der Zusammenhang zwischen Kaliumregulation und Ergebnis ist nicht bekannt. Unser erstes Ziel in der vorliegenden Studie war es, die Beziehung zwischen dem Kaliumspiegel und der Variabilität des Aufenthalts auf der Intensivstation und des Ergebnisses zu bestimmen. Das zweite Ziel bestand darin, die Auswirkungen eines computergestützten Protokolls zur Kaliumregulation zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s13054-014-0720-9 4f26204b334c11c19b37dd6c3591c2b0;de;;;6.2.;;;Verknüpfung schwedischer Gesundheitsdatenregister, um eine Forschungsdatenbank und ein gemeinsames Entscheidungsfindungsinstrument beim Hüftersatz aufzubauen Schweden bietet Forschern eine einzigartige Gelegenheit, umfassende Datenbanken zu erstellen, die eine Vielzahl von gesundheitsbezogenen Daten umfassen. Statistics Sweden und das National Board of Health and Welfare erheben für alle schwedischen Einwohner Daten auf individueller Ebene, die von medizinischen Diagnosen bis hin zu sozioökonomischen Informationen reichen. Zusätzlich zu den von staatlichen Stellen gesammelten Informationen hat die Ärzteschaft landesweite Qualitätsregister initiiert, die Daten zu bestimmten Diagnosen und Eingriffen sammeln. Die Qualitätsregister analysieren Aktivitäten innerhalb von Gesundheitseinrichtungen mit dem Ziel, die klinische Versorgung zu verbessern und die klinische Forschung zu fördern.;-;-;-;https://link.springer.com/article/10.1186/s12891-016-1262-x 76d7950984bf58448acd6874c7ad5c40;de;;;6.2.;;;Nutzung der Gewinne aus dem African Centre for Integrated Laboratory Training zur Bekämpfung der HIV-Epidemie in Subsahara-Afrika In Afrika südlich der Sahara mangelt es an ausgebildeten Laboratorien und verstärkten Laborsystemen, um angemessene und qualitativ hochwertige Labordienstleistungen für eine verbesserte HIV-Kontrolle bereitzustellen. Als Reaktion auf diese Herausforderung wurde 2007 in Südafrika das African Centre for Integrated Laboratory Training (ACILT) gegründet, um Mitarbeiter aus Ländern mit hoher Krankheitslast in Fähigkeiten auszubilden, die zur Stärkung nachhaltiger Laborsysteme erforderlich sind. Diese Studie wurde durchgeführt, um die Übertragung neu erworbener Kenntnisse und Fähigkeiten auf andere Labormitarbeiter zu bewerten und begünstigende und hinderliche Faktoren für deren Umsetzung zu identifizieren.;-;-;-;https://link.springer.com/article/10.1186/s12913-020-06005-8 9ede40ae33db4c4d976532a627d1d4f7;de;;;6.2.;;;Gewichtszunahme in der Schwangerschaft außerhalb der Empfehlungen des Institute of Medicine von 2009: Neue psychologische und Verhaltensfaktoren im Zusammenhang mit unzureichender oder übermäßiger Gewichtszunahme in einer prospektiven Kohortenstudie Frühere Studien haben traditionelle physische, demografische und geburtshilfliche Prädiktoren für eine unzureichende oder übermäßige Gewichtszunahme in der Schwangerschaft festgestellt, aber die Rolle von psychologischen und Verhaltensfaktoren ist nicht gut etabliert. Nur wenige Interventionen, die auf traditionelle Faktoren der Gewichtszunahme in der Schwangerschaft abzielen, waren erfolgreich und erforderten die Erforschung neuer Bereiche. Das Ziel dieser Studie war es, neue psychologische und Verhaltensfaktoren zusammen mit physischen, demografischen und geburtshilflichen Faktoren zu identifizieren, die mit einer Gewichtszunahme in der Schwangerschaft verbunden sind, die nicht mit den Richtlinien des Institute of Medicine von 2009 übereinstimmt (unzureichende oder übermäßige Zunahme).;-;-;-;https://link.springer.com/article/10.1186/s12884-021-03555-5 beed61fc5460826465a64f9760c4c845;de;;;6.2.;;;Versendete HPV-Selbstprobenahme für das Gebärmutterhalskrebs-Screening bei unterversorgten Frauen einer Minderheit: Studienprotokoll für eine randomisierte kontrollierte Studie Unterversorgte Frauen aus ethnischen Minderheiten weisen erhebliche Unterschiede bei der Inzidenz und Mortalität von Gebärmutterhalskrebs auf, hauptsächlich aufgrund des Fehlens von Gebärmutterhalskrebs-Screening. Hindernisse für das Pap-Abstrich-Screening sind mangelndes Wissen, fehlende Krankenversicherung und Zugang und kulturelle Überzeugungen in Bezug auf die Krankheitsprävention. In unserer vorherigen SUCCESS-Studie haben wir gezeigt, dass die HPV-Selbstprobenahme durch einen Community Health Worker (CHW) bei der Umgehung dieser Hindernisse wirksam ist. Dieser Ansatz erhöhte die Screening-Aufnahme im Vergleich zur Navigation zum Pap-Abstrich-Screening. Die Teilnehmer der SUCCESS-Studie sowie unsere Community-Partner gaben Feedback, dass Frauen den Versand des HPV-Selbstprobengebers per Post bevorzugen könnten, sodass sie keinen Termin mit dem CHW vereinbaren müssten. Daher zielt unsere aktuelle Studie darauf ab, die Wirksamkeit der HPV-Selbstprobenahmemethode bei der Zustellung per Post aufzuklären.;-;-;-;https://link.springer.com/article/10.1186/s13063-016-1721-6 af485018b991a0ab72a7b29558a830d3;de;;;6.2.;;;Das achte MUK-Protokoll: eine randomisierte Phase-II-Studie mit Cyclophosphamid und Dexamethason in Kombination mit Ixazomib bei Patienten mit rezidiviertem oder refraktärem multiplem Myelom (RRMM), die nach Behandlung mit Thalidomid, Lenalidomid und einem Proteasom-Inhibitor einen Rückfall erlitten Das Multiple Myelom ist ein Plasmazelltumor mit etwa 5500 Neuerkrankungen pro Jahr in Großbritannien. Ixazomib ist ein Inhibitor der nächsten Generation des 20S-Proteasoms und gilt als wirksame Behandlung für Patienten, die von Bortezomib einen Rückfall erlitten haben. Die Kombination von Cyclophosphamid und Dexamethason (CD) ist eine anerkannte Behandlungsoption für Patienten mit rezidiviertem refraktärem multiplem Myelom (RRMM), die nach einer Behandlung mit Bortezomib und Lenalidomid einen Rückfall erlitten haben, oft auch in Kombination mit neueren Proteasom-Inhibitoren. Die offensichtlichste Kombination für Ixazomib ist daher mit CD.;-;-;-;https://link.springer.com/article/10.1186/s13063-020-04739-8 7babd53d33b1264a88bbd0ed8e529ae8;de;;;6.2.;;;Klinischer Prüfplan zur Anwendung der interaktiven binokularen Behandlung (I-BiT) zur Behandlung von anisometroper, strabistischer und gemischter Amblyopie bei Kindern im Alter von 3,5–12 Jahren: eine randomisierte kontrollierte Studie Amblyopie (träges Auge) beeinträchtigt das Sehvermögen von etwa 2% aller Kinder. Die traditionelle Behandlung besteht darin, über mehrere Monate hinweg täglich mehrere Stunden lang ein Pflaster über dem „guten“ Auge zu tragen. Diese Behandlung ist unpopulär und die Compliance ist oft gering. Daher können die Ergebnisse schlecht sein. I-BiT ist ein auf Stereotechnologie basierendes System mit Shutterbrillen zur Behandlung von Amblyopie durch dichoptische Stimulation. Diese Studie verwendet ein neu gestaltetes System für den Heimgebrauch und beinhaltet eine Eye-Tracking-Funktion.;-;-;-;https://link.springer.com/article/10.1186/s13063-019-3523-0 458a36c93d55329df44d427c6e0ae090;de;;;6.2.;;;Gemessener Body-Mass-Index, Körpergewichtswahrnehmung, Unzufriedenheit und Kontrollpraktiken bei afroamerikanischen Jugendlichen mit niedrigem Einkommen in der Stadt Das derzeitige Verständnis der Zusammenhänge zwischen dem tatsächlichen Körpergewichtsstatus, der Gewichtswahrnehmung, der Körperunzufriedenheit und den Praktiken der Gewichtskontrolle bei einkommensschwachen afroamerikanischen Jugendlichen in städtischen Gebieten ist begrenzt. Das Wissen kann helfen, zukünftige Interventionsbemühungen zu lenken.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-9-183 1da6c6dd2c4d95218ac6334d9a42e34e;de;;;6.2.;;;Kardiovaskuläre Risikofaktorkartierung und Verteilung unter Erwachsenen in den Distrikten Mukono und Buikwe in Uganda: Kleinflächenanalyse Subsahara-Afrika (SSA) leidet unter einer zunehmenden Belastung durch Herz-Kreislauf-Erkrankungen (CVDs). Modifizierbare Risikofaktoren wie Bluthochdruck, Diabetes, Fettleibigkeit, zentrale Fettleibigkeit, sitzende Verhaltensweisen, Rauchen, schlechte Ernährung (gekennzeichnet durch unzureichenden Gemüse- und Obstkonsum) und psychosozialer Stress sind auf die wachsende Belastung durch Herz-Kreislauf-Erkrankungen zurückzuführen. In den meisten Ländern Afrikas südlich der Sahara fehlen Kartierungen und Analysen dieser Risikofaktoren für Herz-Kreislauf-Erkrankungen in kleinen geografischen Gebieten, und dennoch haben solche Daten das Potenzial, die Überwachung und Erforschung von Morbiditäts-, Gesundheitsversorgungs- und Mortalitätsmustern sowie der Epidemiologie von Risikofaktoren. In der aktuellen Studie kartieren und beschreiben wir die Verteilung der CVD-Risikofaktoren in 20 Gemeinden in zwei benachbarten Distrikten in Uganda.;-;-;-;https://link.springer.com/article/10.1186/s12872-020-01573-3 2589cd33672334947d12777ab8c30e04;de;;;6.2.;;;Eine randomisierte Phase-II-Studie zur strahleninduzierten Immunstärkung bei operablem nicht-kleinzelligem Lungenkrebs (RadImmune-Studie) Lungenkrebs ist weltweit die häufigste Krebstodesursache. Chirurgie, Strahlentherapie mit konventioneller und hoher Dosis und Chemotherapie sind die tragenden Säulen der Lungenkrebsbehandlung. Unzureichende Migration und Aktivierung von tumorspezifischen Effektor-T-Zellen scheinen wichtige Gründe für eine unzureichende Antitumor-Immunantwort des Wirts zu sein. Ionisierende Strahlung kann eine Vielzahl von Immunreaktionen auslösen. Das Ziel dieser randomisierten Studie ist es zu beurteilen, ob eine präoperative Einzelfraktions-Niedrigdosis-Strahlung in der Lage ist, die antitumorale Immunantwort bei operablem Lungenkrebs im Frühstadium zu verbessern.;-;-;-;https://link.springer.com/article/10.1186/s12885-015-2006-2 f6a625b395bb7e0c0d39d8b5d30b7114;de;;;6.2.;;;Echokardiographie in Nigeria: Einsatz, Probleme, Reproduzierbarkeit und Potenziale Obwohl die Echokardiographie eine nützliche und kostengünstige Technik zur Erkennung morphologischer und funktioneller Herzanomalien ist, weist sie eine wesentliche Einschränkung in ihrer Subjektivität auf. Daher war das Ziel der vorliegenden Studie, die Intra-Beobachter-Reproduzierbarkeit und Validität von 2-dimensionalen geführten M-Mode-Echomessungen an einem nigerianischen Metropolitan Hospital;-;-;-;https://link.springer.com/article/10.1186/1476-7120-4-13 6736d01e8f1a6654bfc0d1d99f681c2a;de;;;6.2.;;;Ansichten der Interessenträger der Gemeinschaft zur Verringerung der Gewalt gegen Frauen in Pakistan Fast die Hälfte der Frauen erlebt in allen Provinzen Pakistans im Laufe ihres Lebens mit alarmierender Häufigkeit Gewalt. Trotz Kenntnis der Prävalenz wurden bei der Entwicklung von Strategien zur Bekämpfung von Gewalt auf individueller, familiärer oder gemeinschaftlicher Ebene nur geringe Fortschritte erzielt. Viele in anderen Ländern vorgeschlagene Interventionen wurden in Pilotversuchen getestet, aber die Auswirkungen dieser Interventionen waren begrenzt. Ziel dieser Studie ist es daher, die Stimmen der Interessengruppen zur Reduzierung von Gewalt gegen Frauen (VAW) zu verstehen und mögliche gemeinschaftsbasierte Strategien zu untersuchen, die in Pakistan umgesetzt werden könnten.;-;-;-;https://link.springer.com/article/10.1186/s12905-020-00961-3 e3a87429fd072ac6572651ec73f90515;de;;;6.2.;;;Klinische Bedeutung von hochdosiertem Cytarabin zusätzlich zu Cyclophosphamid/Ganzkörperbestrahlung bei Knochenmark- oder peripheren Blutstammzelltransplantationen bei myeloischer Malignität Die Gabe von hochdosiertem Cytarabin (HDCA) zur konventionellen Therapie mit Cyclophosphamid/Ganzkörperbestrahlung (CY/TBI) verbesserte die Prognose nach Nabelschnurbluttransplantation (CBT) bei akuter myeloischer Leukämie (AML) und myelodysplastischem Syndrom (MDS) bei Erwachsenen signifikant. Die Wirksamkeit von HDCA bei der Knochenmark- oder peripheren Blutstammzelltransplantation (KMT/PBSCT) ist jedoch noch nicht geklärt.;-;-;-;https://link.springer.com/article/10.1186/s13045-015-0201-x 249c918844c1e08c266636d14b1d6c2a;de;;;6.2.;;;Der Wert von Anzeichen, Symptomen und Plasma-Fettsäure-bindendem Protein vom Herztyp (H-FABP) bei der Beurteilung von Patienten mit Symptomen, die möglicherweise mit einem akuten Koronarsyndrom übereinstimmen: Hintergrund und Methoden einer diagnostischen Studie in der Primärversorgung Brustbeschwerden, die einem Hausarzt vorgestellt werden, werden häufig durch Krankheiten verursacht, die vorteilhafte Folgen haben. In einigen Fällen liegt jedoch ein akutes Koronarsyndrom (ACS) vor (1,5-22% der Fälle). Die Anzeichen, Symptome und Elektrokardiographie-Ergebnisse des Patienten sind unzureichende diagnostische Mittel, um eine leichte Erkrankung von einem ACS zu unterscheiden. Daher werden die meisten Patienten mit Brustbeschwerden an Sekundärversorgungseinrichtungen überwiesen, wo ein ACS dann bei der Mehrheit der Patienten (78%) ausgeschlossen wird. Kürzlich wurde ein Point-of-Care-Test für fettsäurebindendes Protein vom Herztyp (H-FABP) mit einem niedrigen Cut-off-Wert zwischen positiv und negativ von 4 ng/ml verfügbar. Unser Ziel ist es, die Rolle dieses Point-of-Care-Geräts bei der Triage von Patienten mit Brustbeschwerden, möglicherweise aufgrund von ACS, in der Primärversorgung zu untersuchen. Unser Forschungsprotokoll wird in diesem Artikel vorgestellt. Ergebnisse werden 2015 erwartet.;-;-;-;https://link.springer.com/article/10.1186/s12875-014-0203-8 3c3ac288bd32d47d36629c2b97546edb;de;;;6.2.;;;Gründe für die schlechte postnatale Adhärenz einer antiretroviralen Therapie bei HIV-1-infizierten Frauen, die zu ihrer eigenen Gesundheit behandelt wurden: Erfahrungen aus der Mitra Plus Studie in Tansania In einer Studie zur Prävention der Mutter-Kind-Übertragung von HIV (PMTCT) durch antiretrovirale Dreifachtherapie (ART) in Dar es Salaam, Tansania (die Mitra-Plus-Studie), ergaben retrospektive Viruslasttests eine hohe und zunehmende Häufigkeit nachweisbarer Belastung während des Follow-up für zwei Jahre postnatal bei Frauen, die eine kontinuierliche ART für ihre eigene Gesundheit erhielten, was auf eine schlechte Adhärenz hindeutet. Diese Studie untersuchte die von Frauen selbst wahrgenommenen Hindernisse für die Adhärenz von ART nach der Entbindung, um Wege zu finden, um eine bessere Adhärenz bei Frauen, die eine ART für ihre eigene Gesundheit benötigen, zu erleichtern.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-13-450 0f1bde78f1a2eb55cf2f0f83fd89b954;de;;;6.2.;;;Vergleich der Effekte zwischen SMR/Delta-Verhältnis und Beta1/Theta-Verhältnis Neurofeedback-Training für ältere Erwachsene mit leichter kognitiver Beeinträchtigung: ein Protokoll für eine randomisierte kontrollierte Studie Ältere Erwachsene mit leichter kognitiver Beeinträchtigung (MCI) haben ein hohes Risiko, an Alzheimer (AD) zu erkranken. Die Verlangsamung der Auswirkungen von Demenz durch die Verbesserung der Plastizität des Gehirns stellt eine der wichtigsten Herausforderungen dar. Neurofeedback (NF) hat vielversprechende Ergebnisse bei der Verbesserung des Arbeitsgedächtnisses gezeigt, wurde jedoch noch nie bei Menschen mit MCI untersucht. Unser Ziel ist es zu untersuchen, ob NF-Training kognitive Störungen verringern kann, indem es Gedächtnis, Aufmerksamkeitsfunktionen und elektrische Gehirnaktivität bei älteren Patienten mit MCI anspricht.;-;-;-;https://link.springer.com/article/10.1186/s13063-018-3170-x 3051bd14a7ae859edee3d941e34d06ef;de;;;6.2.;;;Design der Verbiest-Studie: Kosteneffektivität der Operation versus verlängerte konservative Behandlung bei Patienten mit Lumbalstenose Degenerative Veränderungen der Lendenwirbelsäulen-Anatomie, die zum Vordringen neuraler Strukturen führen, werden oft als fortschreitend angesehen und machen letztendlich eine Dekompressionsoperation erforderlich. Der natürliche Verlauf ist jedoch nicht unbedingt progressiv und die Wirksamkeit einer Vielzahl von nicht-chirurgischen Eingriffen wurde ebenfalls beschrieben. Derzeit liegen keine ausreichenden Daten vor, um chirurgische und nicht-chirurgische Eingriffe hinsichtlich ihres relativen Nutzens und ihrer Sicherheit zu vergleichen. Frühere Versuche konnten weder klare klinische Empfehlungen geben noch Untergruppen unterscheiden, die von einer bestimmten Behandlungsstrategie wesentlich profitieren. Wir präsentieren das Design einer randomisierten kontrollierten Studie zur (Kosten-)Wirksamkeit der chirurgischen Dekompression im Vergleich zu einer verlängerten konservativen Behandlung bei Patienten mit neurogener Claudicatio intermittens aufgrund einer Lumbalstenose.;-;-;-;https://link.springer.com/article/10.1186/1471-2474-12-57 140dbe03bfdf2166fbc6cbe62ed7d7fc;de;;;6.2.;;;Stereotaktische Strahlentherapie bei Hirnmetastasen mit kürzlich aufgetretenem hämorrhagischem Signal: STEREO-HBM, eine zweistufige Phase-2-Studie Hirnmetastasen treten häufig in der Krebsentwicklung auf. Sie sind nicht nur für den Tod verantwortlich, sondern auch für Störungen, die die Lebensqualität und die kognitiven Funktionen beeinträchtigen.;-;-;-;https://link.springer.com/article/10.1186/s12885-020-6569-1 c0b96555336190086d709108ace0f296;de;;;6.2.;;;Ein neuartiger Ansatz zur Durchführung klinischer Studien im öffentlichen Umfeld: Nutzung patientenorientierter Plattformen und sozialer Medien zur Förderung der webbasierten Patientenrekrutierung Die Rekrutierung von Teilnehmern für klinische Forschungsstudien bleibt eine große Herausforderung für Forscher. Neue Ansätze zur Rekrutierung sind notwendig, um sicherzustellen, dass die Bevölkerung leichter zu erreichen ist. Im Zusammenhang mit seltenen Krankheiten bieten soziale Medien eine einzigartige Möglichkeit, mit Patientengruppen in Kontakt zu treten, die im Vergleich zu häufigeren Krankheiten oder Erkrankungen repräsentativ niedrigere Diagnoseraten aufweisen. Wir beschreiben die Implementierung eines patientenzentrierten Ansatzes für das Nachrichtendesign zum Zwecke der Rekrutierung von Patienten für klinische Forschungsstudien für Populationen mit seltenen Krankheiten.;-;-;-;https://link.springer.com/article/10.1186/s12874-020-00926-y 378cca5a1418b67fc7744e1c96aa8706;de;;;6.2.;;;Kosten der Teilnahme an einer verantwortlichen Pflegeorganisation für Primärversorger: Ergebnisse im Frühstadium Über die Auswirkungen des Beitritts zu einer Accountable Care Organization (ACO) auf die Kosten der Primärversorgungsorganisation ist wenig bekannt. Der Zweck dieser Studie bestand darin, festzustellen, ob der Beitritt zu einem ACO mit einer Erhöhung der Kosten pro Besuch einer ländlichen Gesundheitsklinik (RHC) verbunden ist.;-;-;-;https://link.springer.com/article/10.1186/s12913-016-1556-6 a4e1d022bde2d6832fcd03e607bdeb46;de;;;6.2.;;;Erfahrungen des Gesundheitspersonals mit der Umsetzung von Richtlinien für die frühzeitige grundlegende Neugeborenenversorgung in der Gemeinde Da Nang und in der Provinz Quang Nam in Vietnam Die Weltgesundheitsorganisation (WHO) empfiehlt Early Essential Newborn Care (EENC) – The First Embrace – als einfaches lebensrettendes Verfahren für Neugeborene. Die erfolgreiche Implementierung von EENC in großem Maßstab erfordert ein Verständnis der Erfahrungen des Gesundheitspersonals, einschließlich der Moderatoren, Barrieren und lokalen Anpassungen von EENC. Diese Studie zielt darauf ab, Einblicke in die Erfahrungen des Gesundheitspersonals mit der Umsetzung der EENC-Richtlinien nach der Teilnahme an Trainings- und Coaching-Initiativen in der Gemeinde Da Nang und der Provinz Quang Nam in Vietnam zu gewinnen.;-;-;-;https://link.springer.com/article/10.1186/s12913-020-05449-2 9c4f3c430143b826d7a434ad9f394ce3;de;;;6.2.;;;Was treibt die Einführung einer computergestützten, vielseitigen Intervention zur Qualitätsverbesserung für das Management von Herz-Kreislauf-Erkrankungen in der primären Gesundheitsversorgung voran? Eine Mixed-Methods-Analyse unter Verwendung der Normalisierungsprozesstheorie In einer randomisierten, kontrollierten Cluster-Studie wurde eine computergestützte, vielfältige Intervention zur Qualitätsverbesserung (QI) für das Management von Herz-Kreislauf-Erkrankungen (CVD) in der australischen primären Gesundheitsversorgung evaluiert. Die Intervention war mit einem verbesserten Screening auf kardiovaskuläre Risikofaktoren verbunden, aber es gab keine Verbesserung der Verschreibungsraten der von Leitlinien empfohlenen Arzneimittel. Das Ziel dieser Studie war es, eine Prozessbewertung durchzuführen, um die zugrunde liegenden Mechanismen zu identifizieren und zu erklären, durch die die Intervention eine Wirkung hatte und nicht.;-;-;-;https://link.springer.com/article/10.1186/s13012-018-0830-x 8079fb96eeb67fbc4b9cc6c40d368b91;de;;;6.2.;;;Placebo-kontrollierte, doppelblinde Studie mit Empagliflozin (EMPA) und implantierbarem Kardioverter-Defibrillator (EMPA-ICD) bei Patienten mit Typ-2-Diabetes (T2DM): Begründung und Design Typ-2-Diabetes (T2DM) ist mit kardiovaskulärem Tod verbunden, einschließlich plötzlichem Herztod aufgrund von Arrhythmien. Patienten mit einem implantierbaren Kardioverter-Defibrillator (ICD) haben auch ein hohes Risiko, eine klinisch signifikante ventrikuläre Arrhythmie zu entwickeln. Es wurde berichtet, dass Natrium-Glucose-Cotransporter 2 (SGLT2)-Inhibitoren kardiovaskuläre Todesfälle reduzieren können, jedoch sind die physiologischen Mechanismen hierfür unklar. Es ist jedoch allgemein bekannt, dass SGLT2-Inhibitoren die Ketonkörper im Blut erhöhen, denen eine sympathosuppressive Wirkung zugeschrieben wird. Empagliflozin (EMPA) ist ein SGLT2-Hemmer. Die aktuelle klinische Studie mit dem Titel „Placebo-kontrollierte, doppelblinde Studie mit Empagliflozin (EMPA) und implantierbarem Kardioverter-Defibrillator (EMPA-ICD) bei Patienten mit Typ-2-Diabetes (T2DM)“ wurde entwickelt, um die antiarrhythmische Wirkung von EMPA zu untersuchen.;-;-;-;https://link.springer.com/article/10.1007/s13300-020-00924-9 0f6a8a704fb9c2548e43830929430fd3;de;;;6.2.;;;Entwicklung, Validierung und Proof-of-Concept-Implementierung eines zweijährigen Risikovorhersagemodells für nicht diagnostiziertes Vorhofflimmern unter Verwendung allgemeiner elektronischer Gesundheitsdaten (UNAFIED) Viele Patienten mit Vorhofflimmern (VHF) bleiben trotz der Verfügbarkeit von Interventionen zur Verringerung des Schlaganfallrisikos nicht diagnostiziert. Bisherige Vorhersagemodelle sind durch Datenanforderungen und theoretische Nutzung begrenzt. Unser Ziel war es, ein Modell zur Vorhersage der 2-Jahres-Wahrscheinlichkeit der VHF-Diagnose zu entwickeln und als Proof-of-Concept (POC) in einer elektronischen Gesundheitsakte (EHR) zu implementieren.;-;-;-;https://link.springer.com/article/10.1186/s12911-021-01482-1 ab2fd3a6a1c53af6807f7c5dae388cac;de;;;6.2.;;;Determinanten des Burnout-Syndroms bei Pflegekräften in Kamerun Das Burnout-Syndrom ist bei medizinischem Personal weit verbreitet. Das Ziel dieser Studie war es, Determinanten des Burnout-Syndroms bei Pflegekräften in den Nordwest- und Südwestregionen Kameruns zu identifizieren.;-;-;-;https://link.springer.com/article/10.1186/s13104-018-4004-3 9bb54bf7f40bc34fe8d021e0c66117d1;de;;;6.2.;;;Ein Vergleich von 1000 Hz bis 30 Hz Rückenmarkstimulationsstrategien bei Patienten mit einseitigen neuropathischen Beinschmerzen aufgrund eines Failed Back Surgery-Syndroms: Eine multizentrische, randomisierte, doppelblinde, Crossover-Klinische Studie (HALO) Multizentrische, randomisierte, doppelblinde Crossover-Studie. Niederlande (ClinicalTrials.gov NCT02112474). Wir stellten die Hypothese auf, dass die schmerzunterdrückende Wirkung von 1000 Hz und 30 Hz Rückenmarkstimulation (SCS) Strategien bei Patienten mit chronischen, neuropathischen, einseitigen Beinschmerzen nach Rückenoperationen gleichermaßen wirksam sind.;-;-;-;https://link.springer.com/article/10.1007/s40122-021-00268-7 4b7bdc608ccad110bf1a0377b6e922af;de;;;6.2.;;;Protokoll für die Arterielle Revaskularisationsstudie (ART). Eine randomisierte Studie zum Vergleich des Überlebens nach bilateraler vs. einzelner interner Mammatransplantation bei koronaren Revaskularisation Bei der Standardchirurgie mit Koronararterien-Bypass-Transplantat werden eine einzelne innere Brustarterie und zusätzliche Venen- oder Radialarterientransplantate verwendet. Mehrere Beobachtungsstudien haben einen Überlebensvorteil mit zwei internen Brustarterientransplantaten im Vergleich zu einem einzelnen internen Brustarterientransplantat nahegelegt, dies wurde jedoch nicht in einer randomisierten Studie getestet. Die Arterial Revascularisation Trial ist eine vom Medical Research Council und der British Heart Foundation finanzierte, multizentrische internationale Studie zum Vergleich einer einzelnen internen Brustarterientransplantation mit einer bilateralen inneren Brustarterientransplantation.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-7-7 9864ba4e10f2dbf64fea4eb0748c400f;de;;;6.2.;;;Bewertung der Wirksamkeit eines neuen Hybridfusionsgeräts: eine randomisierte, kontrollierte Studie mit zwei Zentren Die 360° Fusion von Lumbalsegmenten ist eine gängige und gut erforschte Therapie zur Behandlung verschiedener Erkrankungen der Wirbelsäule. Aber es verändert die Biomechanik der Wirbelsäule und kann zu Erkrankungen des angrenzenden Segments (ASD) führen. Unter den vielen Techniken, die entwickelt wurden, um diese Komplikation zu vermeiden, scheint eine vielversprechend zu sein. Es kombiniert eine starre Fusion mit einem flexiblen Pedikelschraubensystem (Hybridinstrumentation, „Topping Off“). Die klinische Bedeutung ist jedoch aufgrund fehlender schlüssiger Daten noch ungewiss.;-;-;-;https://link.springer.com/article/10.1186/1471-2474-15-294 f193c126d0bd05479df5dc2851a0b4ee;de;;;6.2.;;;Malariagefährdete ländliche Haushalte besaßen am HDSS-Standort Dabat nicht genügend mit Insektiziden behandelte Netze: Beweise aus einer Querschnittserhebung Malaria ist weltweit die Hauptursache für Krankheitslasten, insbesondere in afrikanischen Ländern. Äthiopien hat einen Fünfjahresplan (2011–2015) entworfen, um 100 % der Haushalte in Malariagebieten mit einem mit Insektiziden behandelten Netz (ITN) für jeweils zwei Personen abzudecken und die konsistente ITN-Nutzung auf mindestens 80 % zu erhöhen. Es gibt jedoch nur wenige Beweise für den Besitz von ITN bei malariakranken ländlichen Haushalten im Nordwesten Äthiopiens. Daher zielte die vorliegende Studie darauf ab, den Besitz von ITN und die damit verbundenen Faktoren unter malariagefährdeten ländlichen Haushalten am Standort Dabat Health and Demographic Surveillance System im Nordwesten Äthiopiens zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s12889-017-4906-3 258d585ebc154b13beffabe554f63c10;de;;;6.2.;;;Dynamische hochsensitive Troponinerhöhungen bei Patienten mit Vorhofflimmern sind möglicherweise nicht mit einer signifikanten koronaren Herzkrankheit verbunden Seit der Einführung hochempfindlicher Troponin-Assays weist ein größerer Anteil von Patienten mit Vorhofflimmern (VHF) dynamische Troponin-Erhöhungen auf. Wir gehen davon aus, dass eine signifikante koronare Herzkrankheit (CAD) eine relative Ischämie bei einer schnellen Herzfrequenz verursacht, die zu einer dynamischen Troponinerhöhung führt. Das Ziel dieser Studie war es, zu untersuchen, ob Patienten ohne bekannte KHK, die sich mit VHF, Tachykardie und dynamischer hochsensibler Troponin T (hsTnT)-Änderung präsentieren, ein erhöhtes Risiko für kardiale Ereignisse haben.;-;-;-;https://link.springer.com/article/10.1186/s12872-017-0601-7 cc0d71e1bbf7aa5cdf42701dc00a592c;de;;;6.2.;;;Die Auswirkungen der Schulung der Kommunikationsfähigkeiten von Angehörigen der Gesundheitsberufe auf die klinische Versorgung von Diabetes und Bluthochdruck: eine systematische Überprüfung und Metaanalyse Die Behandlung von Diabetes und Bluthochdruck erfordert eine effektive Kommunikation zwischen medizinischem Fachpersonal und Patienten. Schulungsprogramme können die Kommunikationsfähigkeiten von Angehörigen der Gesundheitsberufe verbessern, aber keine systematische Überprüfung hat ihre Wirksamkeit bei der Verbesserung der klinischen Ergebnisse und der Patientenerfahrung im Zusammenhang mit der Behandlung von Diabetes und Bluthochdruck untersucht.;-;-;-;https://link.springer.com/article/10.1186/s12875-021-01504-x 898b6d88ded10ae05a376ddabd399320;de;;;6.2.;;;Determinanten der Gebrechlichkeit bei Primärversorgungspatienten mit COPD: die griechische UNLOCK-Studie Gebrechlichkeit ist ein Zustand erhöhter Anfälligkeit, der ein erhebliches Risiko für ungünstige Folgen wie erhöhte Abhängigkeit und/oder Tod birgt. Über Gebrechlichkeit bei Menschen mit chronisch obstruktiver Lungenerkrankung (COPD) ist jedoch wenig bekannt.;-;-;-;https://link.springer.com/article/10.1186/s12890-019-0824-8 16e78572183831c2271b055a12707a36;de;;;6.2.;;;Kein Einfluss eines Rezeptheftes auf den Medikamentenkonsum von Pflegeheimbewohnern von 2011 bis 2014: eine kontrollierte Vorher-Nachher-Studie Ältere Menschen sind besonders Nebenwirkungen durch Medikamente ausgesetzt. Unter den verschiedenen Strategien zur Reduzierung der Polypharmazie haben pädagogische Ansätze vielversprechende Ergebnisse gezeigt. Unser Ziel war es, die Auswirkungen einer Broschüre auf den Medikamentenkonsum zu bewerten, die Ärzten bei der Verschreibung von Rezepten für ältere Pflegeheimbewohner helfen soll.;-;-;-;https://link.springer.com/article/10.1007/s40520-020-01670-5 67f806ba2895f08ffe1a0470a24aaafe;de;;;6.2.;;;Typ-2-Diabetes nimmt zu und Metformin reduziert Gesamt-, Dickdarm-, Leber- und Bauchspeicheldrüsenkrebs-Inzidenz in Taiwan: eine repräsentative prospektive Bevölkerungs-Kohortenstudie mit 800.000 Personen Der Schutz von Metformin gegen das Krebsrisiko bei Orientalen ist ungewiss. Wir untersuchten die mögliche Wirkung von Metformin auf Gesamt-, Speiseröhren-, Magen-, Darm- (CRC), Leberzell- (HCC) und Bauchspeicheldrüsenkrebs in einer taiwanesischen Kohorte.;-;-;-;https://link.springer.com/article/10.1186/1471-2407-11-20 3b1b80557907ada639086d73f5b7b13f;de;;;6.2.;;;STeroids Against Radiculopathy (STAR)-Studie: ein statistischer Analyseplan Transforaminale epidurale Injektionen mit Steroiden (TESI) werden zunehmend bei Patienten mit Ischias verwendet. Ihre Sicherheit, Wirksamkeit und Kosteneffizienz sind jedoch noch umstritten. Dieser a priori statistische Analyseplan beschreibt die Methodik der Analyse für die STAR-Studie, die die (Kosten-)Wirksamkeit von TESI während des akuten Stadiums von Ischias (< 8 Wochen) bewertet.;-;-;-;https://link.springer.com/article/10.1186/s13063-020-05018-2 9a21f92a5100cf9c7c8e8a2d630e14c9;de;;;6.2.;;;Wirksamkeit gemeindebasierter Folat-orientierter tertiärer Interventionen bei der Inzidenz von Fötus und Geburtsfehlern: ein Protokoll für eine randomisierte kontrollierte Single-Blind-Cluster-Studie Geburtsfehler sind weltweit die Hauptursache für fötalen Tod, Kindersterblichkeit und Morbidität. Die Ätiologie von Geburtsfehlern bleibt jedoch weitgehend unbekannt. Der mütterliche Folatstatus während der Perkonzeption spielt eine wichtige Rolle bei der Organogenese und die Folsäureergänzung reduziert das Risiko von Neuralrohrdefekten, angeborenen Herzerkrankungen und mehreren anderen Geburtsfehlern. Diese Studie versucht, die Wirksamkeit von Folat-orientierten Tertiärinterventionen während der Perkonzeption auf das Auftreten von Fötus- und Geburtsfehlern zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s12884-020-03154-w d99822fe635787998ee8b489fc8cd641;de;;;6.2.;;;Ein Antibiotika-Stewardship-Programm zur Reduzierung unangemessener Antibiotikaverschreibungen bei akuten Atemwegsinfektionen in ländlichen chinesischen Primärversorgungseinrichtungen: Studienprotokoll für eine geclusterte randomisierte kontrollierte Studie Die unsachgemäße Verschreibung von Antibiotika bei akuten Atemwegsinfektionen in der Primärversorgung stellt die Hauptursache für den Missbrauch von Antibiotika im Gesundheitswesen dar und ist eine der Hauptursachen für Antibiotikaresistenzen weltweit. In dieser Studie werden wir die Wirksamkeit eines umfassenden Antibiotika-Stewardship-Programms in Chinas Krankenhäusern der Grundversorgung entwickeln, pilotieren und bewerten, um die unangemessene Verschreibung von Antibiotika bei akuten Atemwegsinfektionen bei allen Altersgruppen zu reduzieren.;-;-;-;https://link.springer.com/article/10.1186/s13063-020-04303-4 8f684b7ada9ed9db4877525b13986ce6;de;;;6.2.;;;Kosteneffektivität der Dekompression nach Gill versus instrumentierte Spondylodese bei der Behandlung von Ischias bei niedriggradiger spondylolytischer Spondylolisthese: Eine prospektive randomisierte kontrollierte Studie [NTR1300] Die Nervenwurzeldekompression mit instrumentierter Spondylodese ist das am häufigsten durchgeführte chirurgische Verfahren bei der Behandlung von Patienten mit symptomatischer niedriggradiger spondylolytischer Spondylolisthese. Die Nervenwurzeldekompression ohne instrumentierte Fusion, d. h. das Verfahren nach Gill, ist ein alternativer und weniger invasiver Ansatz. Eine vergleichende Kosteneffektivitätsstudie wurde noch nicht durchgeführt. Wir präsentieren das Design einer randomisierten kontrollierten Studie zur Kosteneffektivität der Dekompression nach Gill versus instrumentierter Spondylodese.;-;-;-;https://link.springer.com/article/10.1186/1471-2474-9-128 f95c8e778b8e0cc0fd0229b1d11f898d;de;;;6.2.;;;Chlorhexidin für die einrichtungsbasierte Nabelschnurversorgung: EN-BIRTH länderübergreifende Validierungsstudie Nabelschnurhygiene verhindert Sepsis, eine der Hauptursachen für die Neugeborenensterblichkeit. Die Weltgesundheitsorganisation empfiehlt die Anwendung von 7,1% Chlorhexidindigluconat (CHX) in der Nabelschnur nach Hausgeburten in Kontexten mit hoher Sterblichkeit. In Bangladesch und Nepal empfehlen die nationalen Richtlinien die Verwendung von CHX für alle Geburten in Einrichtungen. Bevölkerungsbasierte Haushaltsbefragungen beinhalten optionale Fragen zur CHX-Nutzung, aber Studien zur Validierung von Indikatoren fehlen. Das;-;-;-;https://link.springer.com/article/10.1186/s12884-020-03338-4 40089bfb12c28c9936b34773b728196c;de;;;6.2.;;;Der Felix-Prozess. Doppelblind-Randomisierung von interspinalen Implantaten oder knöcherner Dekompression zur Behandlung von Spinalkanalstenose-bedingter intermittierender neurogener Claudicatio Die dekompressive Laminotomie ist das chirurgische Standardverfahren bei der Behandlung von Patienten mit einer kanalstenosebedingten intermittierenden neurogenen Claudicatio. Neue Techniken wie interspinöse Prozessimplantate beanspruchen einen kürzeren Krankenhausaufenthalt, weniger postoperative Schmerzen und ein gleich langes funktionelles Ergebnis. Eine vergleichende (Kosten-)Wirksamkeitsstudie wurde noch nicht durchgeführt. Dieses Protokoll beschreibt das Design einer randomisierten kontrollierten Studie (RCT) zur (Kosten-)Wirksamkeit der Verwendung von interspinalen Prozessimplantaten im Vergleich zu konventioneller Dekompressionschirurgie bei Patienten mit lumbaler Spinalkanalstenose.;-;-;-;https://link.springer.com/article/10.1186/1471-2474-11-100 9a198001da666c7b7b89ae6efa776fc5;de;;;6.2.;;;Design von ProjectRun21: eine 14-wöchige prospektive Kohortenstudie zum Einfluss von Lauferfahrung und Laufgeschwindigkeit auf laufbedingte Verletzungen bei Halbmarathonläufern Die Teilnahme am Halbmarathon hat in den letzten zehn Jahren stark zugenommen. Im Einklang damit ist eine große Anzahl von Halbmarathon-Laufplänen aufgetaucht. Leider hat sich herausgestellt, dass der Anteil der Verletzungshäufigkeit bei Halbmarathonläufern während der 1-jährigen Nachbeobachtung über 30% liegt. Es wird vermutet, dass sich die meisten laufbezogenen Verletzungen als Überlastungsverletzungen entwickeln, die zu Verletzungen führen, wenn die kumulierte Trainingsbelastung über eine oder mehrere Trainingseinheiten die Belastbarkeit der Läufer für die adaptive Gewebereparatur überschreitet. Durch eine Erhöhung der Belastbarkeit in Verbindung mit einem adaptiven Lauftraining können die Lauferfahrung und das Tempo der Läufer als Abschätzung der Belastbarkeit herangezogen werden. Da kein evidenzbasiertes Wissen zur Planung geeigneter Halbmarathon-Laufpläne unter Berücksichtigung der Lauferfahrung und des Lauftempos vorliegt, ist das Ziel von ProjectRun21, den Zusammenhang zwischen Lauferfahrung bzw .;-;-;-;https://link.springer.com/article/10.1186/s40621-017-0124-9 4e6a64af6d9e6c59fb95f873f941faf0;de;;;6.2.;;;Bewertung der Umsetzung eines nationalen klinischen Programms für Diabetes zur Standardisierung und Verbesserung der Dienstleistungen: ein realistisches Bewertungsprotokoll In den letzten drei Jahrzehnten haben Länder weltweit als Reaktion auf die wachsende Belastung durch Diabetes nationale und regionale vielfältige Programme entwickelt, um die Überwachung und das Management von Diabetes zu verbessern und die Koordination der Versorgung innerhalb und zwischen den Einrichtungen zu verbessern. In Irland wurde 2010 vor dem Hintergrund begrenzter gezielter strategischer Planung und tiefgreifender Unterschiede in der Art und dem Niveau der Diabetesversorgung ein nationales Programm zur Standardisierung und Verbesserung der Versorgung von Menschen mit Diabetes in Irland, bekannt als das National Diabetes Program (NDP .), ins Leben gerufen ). Der NDP umfasst eine Reihe von organisatorischen und dienstleistungsbezogenen Änderungen zur Unterstützung evidenzbasierter Praktiken und Richtlinien. Dieses realistische Bewertungsprotokoll legt den Ansatz fest, der verwendet wird, um zu identifizieren und zu erklären, welche Aspekte des Programms funktionieren, für wen und unter welchen Umständen die beabsichtigten Ergebnisse erzielt werden.;-;-;-;https://link.springer.com/article/10.1186/s13012-016-0464-9 df5c91d6de10998e452e0d8e75fd8e26;de;;;6.2.;;;Der Zusammenhang zwischen Laktat, mittlerem arteriellen Druck, zentralvenöser Sauerstoffsättigung und peripherer Temperatur und Mortalität bei schwerer Sepsis: eine retrospektive Kohortenanalyse Bei der Reanimation bei schwerer Sepsis und septischem Schock werden mehrere Ziele gesetzt. Allerdings werden in der Regel nicht alle Ziele gleichermaßen erreicht. Ziel dieser Studie ist es, die relative Bedeutung der verschiedenen Ziele, wie mittlerer arterieller Druck (MAP), Laktat, zentralvenöse Sauerstoffsättigung (ScvO;-;-;-;https://link.springer.com/article/10.1186/s13054-016-1243-3 651ab1b7aef13774dc48df928e31b7e1;de;;;6.2.;;;„Was ist das für ein Leben?“ Diabetesbezogene Vorstellungen vom Wohlbefinden von Erwachsenen in Ostuganda und Auswirkungen auf die Verringerung des zukünftigen Risikos chronischer Krankheiten Eine wirksame Prävention und Behandlung von Typ-2-Diabetes erfordert, dass Menschen gesundes Verhalten mit chronischem krankheitsbedingtem Wohlbefinden in Verbindung bringen. Diese Studie untersuchte, wie Menschen gegenwärtiges und zukünftiges Wohlbefinden wahrnehmen, um so die Lebensstilerziehung zu informieren.;-;-;-;https://link.springer.com/article/10.1186/s12889-018-6249-0 afd0759ccdf413c15027e0f408bf4588;de;;;6.2.;;;Die Auswirkung einer phosphatbalancierten kristalloiden Infusion auf die Säure-Basen-Homöostase (PALANCE-Studie): Studienprotokoll für eine randomisierte kontrollierte Studie Diese Studie zielt darauf ab, die Auswirkungen eines modifizierten, ausgewogenen Kristalloids einschließlich Phosphat in einer perioperativen Umgebung zu untersuchen, um eine stabile Elektrolyt- und Säure-Basen-Homöostase beim Patienten aufrechtzuerhalten.;-;-;-;https://link.springer.com/article/10.1186/s13063-017-2051-z d71b0e9e6a3f76135392c3684ffbe32e;de;;;6.2.;;;DECIDE: eine randomisierte kontrollierte Cluster-Studie zur Reduzierung von nicht medizinisch indizierten Kaiserschnitten in Burkina Faso Seit 2006 bezuschusst Burkina Faso die Kosten für Kaiserschnitte, um deren Zugänglichkeit zu verbessern. Kaiserschnitte werden von Geburtshelfern, Allgemeinmedizinern und in Notoperationen ausgebildeten Krankenschwestern durchgeführt. Während die nationale Kaiserschnittrate noch zu niedrig ist (2010 nur 2 %), sind 12 bis 24 % der im Krankenhaus durchgeführten Kaiserschnitte medizinisch nicht indiziert. Ziel dieser Studie ist es, die Wirksamkeit und Umsetzung einer vielschichtigen Intervention zu analysieren, um die Rate nicht medizinisch indizierter Kaiserschnitte in Burkina Faso zu senken.;-;-;-;https://link.springer.com/article/10.1186/s12884-016-1112-8 5ce36384cbbbc76989fb84d31dfca4a2;de;;;6.2.;;;Wirksamkeit von bioangereichertem Weizen mit hohem Zinkgehalt bei der Verbesserung des Mikronährstoffstatus und der Prävention von Morbidität bei Vorschulkindern und Frauen - eine doppelt maskierte, randomisierte, kontrollierte Studie Die Biofortifizierung von Grundnahrungsmitteln mit Zink (Zn) kann eine der kostengünstigen und nachhaltigen Strategien sein, um Zinkmangel zu bekämpfen und Morbidität in der Zielpopulation zu verhindern. Agronomische Ansätze wie das Aufbringen von Zn-Düngemitteln auf den Boden und/oder das Besprühen der Blätter scheinen ein praktisches Werkzeug für die Zn-Biofortifizierung von Weizen zu sein. Allerdings muss die Wirksamkeit anhand randomisierter kontrollierter Studien evaluiert werden. Diese Studie zielte darauf ab, die Wirksamkeit von mit Zink angereichertem Weizenmehl auf den Zinkstatus und seinen Einfluss auf die Morbidität bei Kindern im Alter von 4–6 Jahren und nicht schwangeren, nicht stillenden Frauen im gebärfähigen Alter (WCBA) in Delhi, Indien, zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s12937-018-0391-5 4185c3e4a921a2ab0e60c99323917691;de;;;6.2.;;;Epidemiologie der Malaria in einem für klinische Studien vorbereiteten Gebiet in Korogwe, Nordost-Tansania Die Vorbereitung des Standorts ist eine Voraussetzung für die Durchführung von Malaria-Impfstoffstudien. Diese Studie wurde in 12 Dörfern durchgeführt, um malariometrische Indizes und damit verbundene Risikofaktoren während langer und kurzer Regenzeiten in einem Gebiet mit unterschiedlicher Malariaübertragungsintensität im Distrikt Korogwe, Tansania, zu bestimmen. Vier Dörfer hatten eine passive Fallerkennung (PCD) des Fiebersystems mit Dorfgesundheitspersonal.;-;-;-;https://link.springer.com/article/10.1186/1475-2875-8-165 854e666ff7c1958e7c1fa0b79f42d99e;de;;;6.2.;;;Dexamethason für erwachsene Patienten mit einem symptomatischen chronischen subduralen Hämatom (Dex-CSDH): Studienprotokoll für eine randomisierte kontrollierte Studie Das chronische subdurale Hämatom (CSDH) ist eine häufige neurochirurgische Erkrankung, die typischerweise mit einer operativen Drainage des Hämatoms behandelt wird. Eine Operation ist jedoch mit Mortalität und Morbidität verbunden, einschließlich bis zu 20 % Wiederauftreten der CSDH. Steroide wie Dexamethason wurden als potenzielle Therapie zur Verringerung des Rezidivrisikos bei chirurgisch behandelten CSDHs identifiziert. Sie wurden auch als konservative Behandlungsoption eingesetzt, wodurch eine Operation vollständig vermieden wurde. Die Hypothese der Dex-CSDH-Studie ist, dass eine zweiwöchige Behandlung mit Dexamethason bei symptomatischen Patienten mit CSDH nach sechs Monaten zu einem besseren funktionellen Ergebnis führt. Dies wird voraussichtlich durch eine reduzierte Anzahl von Krankenhauseinweisungen und chirurgischen Eingriffen erfolgen.;-;-;-;https://link.springer.com/article/10.1186/s13063-018-3050-4 640fbf25f602ec97672f71ac9f37e5d9;de;;;6.2.;;;Ein mehrstufiger Ansatz zur Förderung körperlicher Aktivität in ländlichen Gemeinden: eine randomisierte kontrollierte Clusterstudie Körperliche Aktivität (PA) hat ein verringertes Risiko für verschiedene Krebsarten und andere chronische Krankheiten gezeigt, jedoch erreichen Landbewohner weniger wahrscheinlich die empfohlenen PA-Werte als in Städten und Vororten. Da die Landbewohner 15 % der Bevölkerung der Vereinigten Staaten ausmachen, besteht ein Bedarf an neuen Ansätzen, um die PA in dieser Bevölkerung zu erhöhen. Das Ziel der vorliegenden Studie ist es, die Wirksamkeit einer mehrstufigen Intervention zur Erhöhung der PA-Raten bei ländlichen Bewohnern zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s12889-019-6443-8 61d1464880bcc35501d7d192340592e5;de;;;6.2.;;;Heimbasiertes Bildschirmzeitverhalten bei Jugendlichen und ihren Eltern: familiäre Typologien und ihre modifizierbaren Korrelate Übermäßiges Bildschirmverhalten von Kindern und Eltern zu Hause ist ein großes Problem für die öffentliche Gesundheit. Die Identifizierung, ob das Bildschirmzeitverhalten von Kindern und Eltern gruppiert ist, und das Verständnis der Korrelationen dieser familiären Cluster kann dazu beitragen, Interventionen für die ganze Familie zu unterstützen. Diese Studie charakterisierte familiäre Typologien des Bildschirmzeitverhaltens und identifizierte die wichtigsten modifizierbaren Korrelate dieser Typologien.;-;-;-;https://link.springer.com/article/10.1186/s12889-020-09581-w 1e7203a7be1d8696614ced0a4370f57d;de;;;6.2.;;;Pflegeklinik versus Heimlieferung von evidenzbasierter ambulanter Behandlung von Beingeschwüren: Eine randomisierte Studie im Gesundheitswesen Internationale Studien berichten, dass Pflegekliniken die Heilungsraten für die Bevölkerung von Ulcus cruris verbessern. Diese Studien lieferten jedoch nicht notwendigerweise ähnliche Versorgungsstandards, die auf der Evidenz an den Behandlungsorten (Heim und Klinik) beruhen. Um die Heilungsraten bei gleichwertiger Versorgung zu bestimmen und die Akzeptanz der in der Klinik durchgeführten Versorgung zu ermitteln, ist eine strenge Bewertung der häuslichen und der klinischen Versorgung erforderlich.;-;-;-;https://link.springer.com/article/10.1186/1472-6963-8-243 02528cbb87e219701b52fe5c3b6432fd;de;;;6.2.;;;Muster der Gesamtmortalität und ursachenspezifischen Mortalität in einem Gebiet mit zunehmend abnehmender Malariabelastung im Distrikt Korogwe im Nordosten Tansanias Obwohl Sterberegister für die Planung und Überwachung von Gesundheitsmaßnahmen nützlich sind, sind solche Informationen in den meisten Entwicklungsländern begrenzt. Alternativ werden verbale Autopsie-(VA)-Interviews verwendet, um Todesursachen an Orten ohne oder mit unvollständigen Krankenhausakten zu ermitteln. Diese Studie wurde durchgeführt, um alle Ursachen und ursachenspezifische Mortalität im Korogwe Health and Demographic Surveillance System (HDSS) im Bezirk Korogwe im Nordosten Tansanias zu bestimmen.;-;-;-;https://link.springer.com/article/10.1186/s12936-018-2240-6 9826cf69a5bb34d9642c0a33893c0cb7;de;;;6.2.;;;Enhancing Recruitment Using Teleconference and Commitment Contract (ERUTECC): Studienprotokoll für eine randomisierte Stepp-Wedge-Cluster-Studie innerhalb der EFFECTS-Studie Viele randomisierte kontrollierte Studien (RCTs) erreichen ihre Rekrutierungsziele nicht rechtzeitig. Studienteilnehmern wird empfohlen, Studienrekrutierungsstrategien in ihre Studien aufzunehmen.;-;-;-;https://link.springer.com/article/10.1186/s13063-017-2367-8 cd85f3a0263033110682c3114bf849f9;de;;;6.2.;;;Zusammenhang zwischen Körperbild und Gewichtsstatus in ostasiatischen Ländern: Vergleich zwischen Südkorea und Taiwan Es gibt viele Studien, die den Zusammenhang zwischen Körperbild und Gewichtsstatus untersuchen, die westliche und asiatische Länder vergleichen. Eine Einschränkung dieser bisherigen Studien war die Annahme, dass alle asiatischen Länder eine homogene Gruppe sind. Um die Lücke in der Literatur zu schließen, untersuchte diese Studie die Beziehung zwischen Körperbild und Gewichtsstatus zwischen Teilnehmern aus zwei asiatischen Ländern.;-;-;-;https://link.springer.com/article/10.1186/s12889-018-5738-5 eae886119893a300fb31f323c4878072;de;;;6.2.;;;Eine randomisierte kontrollierte Pilotstudie zur Bewertung der Wirkung einer enteralen Formulierung zur Verbesserung der gastrointestinalen Verträglichkeit bei kritisch kranken Patienten – die SPIRIT-Studie Durchfall tritt bei Patienten auf Intensivstationen (ICU) häufig auf und ist mit Beschwerden und Komplikationen verbunden und kann die Aufenthaltsdauer und den Pflegeaufwand erhöhen.;-;-;-;https://link.springer.com/article/10.1186/s13054-017-1730-1 2a005e396d6e635b17af2d70b096e915;de;;;6.2.;;;Verpasste Fußfrakturen bei Mehrfachtraumapatienten Verpasste oder unterschätzte Verletzungen sind eines der zentralen Probleme in der Traumaversorgung. Fußverletzungen können leicht übersehen werden, da sie außerhalb des regelmäßig untersuchten Bereichs einer Trauma-Computertomographie (CT) liegen. Bei der Primär- und Sekundärerhebung wird eine sorgfältige Untersuchung der Extremitäten beim Schwerverletzten oft von zweitrangiger Bedeutung.;-;-;-;https://link.springer.com/article/10.1186/s12891-019-2501-8 1e572f9649a2bb9ae9c47f7cf9f57197;de;;;6.2.;;;Signifikanter Zusammenhang zwischen ERCC2- und MTHR-Polymorphismen und der Anfälligkeit für Brustkrebs in der marokkanischen Bevölkerung: Genotyp- und Haplotypanalyse in einer Fall-Kontroll-Studie Genetische Determinanten von Brustkrebs (BC) blieben bei der Mehrheit der marokkanischen Patientinnen weitgehend unbekannt. Das Ziel dieser Studie war es, die Assoziation von;-;-;-;https://link.springer.com/article/10.1186/s12885-018-4214-z a298b94134bd2b92e46b5b7937d0703f;de;;;6.2.;;;Sedierungs- und Analgesiepraxen auf italienischen Intensivstationen für Neugeborene: Ergebnisse der EUROPAIN-Studie Unser Ziel war es, aktuelle bettseitige Analgesie/Sedierung (A/S) und Schmerzbeurteilung (PA) auf italienischen Intensivstationen für Neugeborene (NICUs) in Bezug auf die Ergebnisse einer epidemiologischen europäischen Studie und kürzlich eingeführte nationale Leitlinien zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s13052-017-0343-2 9c4a3d01a86eaa72b7217b24b1ebd4f1;de;;;6.2.;;;Coping with Unusual ExperienceS for 12-18 years old (CUES+): eine transdiagnostische randomisierte kontrollierte Studie zur Wirksamkeit kognitiver Therapie bei der Reduzierung von Belastungen im Zusammenhang mit ungewöhnlichen Erfahrungen in psychiatrischen Diensten für Jugendliche: Studienprotokoll für eine randomisierte kontrollierte Studie „Ungewöhnliche Erfahrungen“ in der Kindheit (wie das Hören von Stimmen, die andere nicht hören können, oder der Verdacht, verfolgt zu werden) sind häufig, können aber während der Adoleszenz noch belastender werden, insbesondere für junge Menschen, die Kontakt mit psychiatrischen Diensten für Kinder und Jugendliche (CAMHS) haben. Ungewöhnliche Erfahrungen, die belastend sind oder negative Auswirkungen auf das Leben haben (UEDs) werden mit einer Reihe von aktuellen und zukünftigen emotionalen, Verhaltens- und psychischen Gesundheitsproblemen in Verbindung gebracht. Empfehlungen für psychologische Interventionen basieren auf Evidenz aus Studien mit Erwachsenen, mit einer gewissen Unterstützung durch kleine, pilotenspezifische, kinderspezifische Evaluationen. Forschung ist erforderlich, um sicherzustellen, dass die Empfehlungen sowohl für Kinder als auch für Erwachsene geeignet sind. Die CUES+-Studie (Coping with Unusual ExperienceS for 12-18 years olds) soll herausfinden, ob die kognitive Verhaltenstherapie für UEDs (CBT-UED) eine hilfreiche und kostengünstige Ergänzung zur üblichen ambulanten Versorgung für 12-18-Jährige mit Vereinigtes Königreich National Health Service Kinder- und Jugendpsychiatrische Dienste in vier Londoner Bezirken.;-;-;-;https://link.springer.com/article/10.1186/s13063-017-2326-4 9948de560d60295f53f0eb3c4217c71f;de;;;6.2.;;;Vorhersagemodelle für Selbstmordgedanken und -verhalten bei spanischen Universitätsstudenten: Begründung und Methoden der Suizid ist eine der häufigsten Todesursachen bei jungen Menschen. Während die Suizidprävention als Priorität für Forschung und Intervention gilt, werden Längsschnittdaten benötigt, um Risiko- und Schutzfaktoren zu identifizieren, die mit suizidalen Gedanken und Verhaltensweisen verbunden sind. Hier beschreiben wir die;-;-;-;https://link.springer.com/article/10.1186/s12888-016-0820-y 171dd5925b32247a6eb2e94663444faa;de;;;6.2.;;;Gemeindebasierte Rehabilitationsintervention für Menschen mit Schizophrenie in Äthiopien (RISE): Studienprotokoll für eine randomisierte kontrollierte Clusterstudie Die Versorgung der meisten Menschen mit Schizophrenie erfolgt am besten in der Gemeinde, und evidenzbasierte Leitlinien empfehlen die Kombination von Medikamenten und einer psychosozialen Intervention, wie etwa einer gemeindenahen Rehabilitation. Es gibt immer mehr Belege dafür, dass die gemeindenahe Rehabilitation bei Schizophrenie die Behinderung in Ländern mit mittlerem Einkommen wirksam reduziert, jedoch gibt es keine veröffentlichten Belege für die Wirksamkeit in Einrichtungen mit weniger Ressourcen für psychische Gesundheit. Dieses Papier beschreibt das Protokoll einer Studie, die darauf abzielt, die Wirksamkeit der gemeindenahen Rehabilitation als Ergänzung zur Gesundheitsversorgung im ländlichen Äthiopien zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s13063-016-1427-9 bc8a61caa81cfa6c6adebb7b03ff7629;de;;;6.2.;;;Reduzierung der späten Dysphagie bei Überlebenden von Kopf- und Halskrebs mit oralem Gel: Eine Machbarkeitsstudie Dysphagie ist eine signifikante Spätmorbidität nach einer Strahlentherapie (RT) bei Plattenepithelkarzinomen des Kopf-Hals-Bereichs (HNSCC). Der Zweck dieser Machbarkeitsstudie war es, einen Speichelersatz auf Gelbasis zu testen, um die subjektive Beurteilung von Dysphagie beim Verzehr von Nahrungsmitteln unterschiedlicher Größe und Textur zu reduzieren. Geeignete Studienteilnehmer, die mit einer kurativ beabsichtigten RT behandelt wurden und an Dysphagie und Xerostomie litten, wurden während eines Zeitraums von zwei Monaten aus der Ambulanz rekrutiert. Neunzehn Probanden stimmten der Teilnahme zu und füllten den EORTC QLQ-H&N35-Fragebogen und drei Testmahlzeiten aus. Eine Numeric Rating Scale (NRS) wurde zur subjektiven Beurteilung der Dysphagie während aller Testmahlzeiten verwendet. Alle Daten zu Patienten-, Tumor- und Behandlungsmerkmalen wurden der dänischen Datenbank für Kopf- und Halskrebs (DAHANCA) entnommen. NRS-Daten deuteten auf eine Verringerung der Dysphagie nach Anwendung des oralen Gels hin. Schluckstörungen, Beschwerden beim Schlucken (;-;-;-;https://link.springer.com/article/10.1007/s00455-019-10018-9 39dbbdfe7f6fa74c5c3288e597abcec2;de;;;6.2.;;;Verbesserung der Ganganpassungsfähigkeit bei Patienten mit hereditärer spastischer Paraplegie (Move-HSP): Studienprotokoll für eine randomisierte kontrollierte Studie Menschen mit hereditärer spastischer Paraplegie (HSP) haben Schwierigkeiten, ihren Gang an die Umweltanforderungen anzupassen, eine Fähigkeit, die für sicheres und unabhängiges Gehen erforderlich ist. Auf der C-Mill, einem Laufband, das mit Augmented Reality ausgestattet ist, ist ein Training der Ganganpassung möglich, bei dem visuelle Projektionen als Trittziele oder Hindernisse dienen können. Es ist nicht bekannt, ob die Ganganpassungsfähigkeit bei Menschen mit HSP trainiert werden kann.;-;-;-;https://link.springer.com/article/10.1186/s13063-020-04932-9 63dd3d7d59467ecc1837d5672df2ff04;de;;;6.2.;;;Alle Eiter ist lokal – Epidemiologie und Behandlung von Haut- und Weichteilinfektionen in drei städtischen Notaufnahmen Haut- und Weichteilinfektionen (SSTIs) werden häufig in Notaufnahmen (EDs) behandelt. Während die genaue Rolle von Antibiotika bei der Behandlung von SSTI unklar bleibt, erhalten die meisten SSTI-Patienten empirische Antibiotika, die oft gegen Methicillin-resistente gerichtet sind;-;-;-;https://link.springer.com/article/10.1186/1471-227X-13-26 a566f407c3de8bf919863a0eddea8f45;de;;;6.2.;;;Brennpunkte weiblicher Genitalverstümmelung/-beschneidung und damit verbundene Faktoren bei Mädchen in Äthiopien: eine räumliche und mehrstufige Analyse Die weibliche Genitalverstümmelung/Beschneidung (FGM/C) ist eine schädliche traditionelle Praxis, die die Menschenrechte von Mädchen und Frauen verletzt. Es wird hauptsächlich in Afrika einschließlich Äthiopien praktiziert. Es gibt eine Reihe von Studien zur Prävalenz von FGM/C in Äthiopien. Der räumlichen Epidemiologie und den damit verbundenen Faktoren wurde jedoch wenig gewidmet. Daher zielte diese Studie darauf ab, das räumliche Muster und die Faktoren zu untersuchen, die FGM/C bei Mädchen in Äthiopien beeinflussen.;-;-;-;https://link.springer.com/article/10.1186/s12889-021-10235-8 aa100052c14429a90c29e2f6de638262;de;;;6.2.;;;Häufigkeiten von Einzelnukleotidpolymorphismen in Genen, die Entzündungsreaktionen in einer gemeindebasierten Population regulieren Allelhäufigkeiten, die aus öffentlichen Datenbanken oder Artikeln gemeldet werden, basieren meist auf kleinen Stichprobengrößen. Unterschiede in der Genotyphäufigkeit nach Alter, Rasse und Geschlecht haben Auswirkungen auf Studien zur Untersuchung der genetischen Anfälligkeit für Krankheiten.;-;-;-;https://link.springer.com/article/10.1186/1471-2156-8-7 4f46e915b6e1878cccc8085ca6f3b64d;de;;;6.2.;;;VIA Family – eine familienbasierte Frühintervention versus Behandlung wie üblich bei familiären Hochrisikokindern: ein Studienprotokoll für eine randomisierte klinische Studie Kinder von Eltern mit einer schweren psychischen Erkrankung wie Schizophrenie, bipolarer Störung oder schwerer rezidivierender Depression haben ein erhöhtes Risiko, im Laufe des Lebens selbst eine psychische Erkrankung zu entwickeln. Diese Kinder haben auch häufiger Entwicklungsverzögerungen, kognitive Behinderungen oder soziale Probleme, und sie haben möglicherweise ein höheres Risiko als die Hintergrundpopulation, nachteilige Lebensereignisse zu erleben. Dies ist sowohl auf genetische als auch auf umweltbedingte Faktoren zurückzuführen, aber trotz des gut dokumentierten erhöhten Risikos für Kinder mit einem familiären Hochrisiko wurde keine familienbasierte Frühintervention für sie entwickelt. Diese Studie zielt darauf ab, die Wirkung einer Frühintervention zu untersuchen, die sich auf die Reduzierung von Risiken und die Erhöhung der Resilienz von Kindern in Familien konzentriert, in denen mindestens ein Elternteil eine schwere psychische Erkrankung hat.;-;-;-;https://link.springer.com/article/10.1186/s13063-019-3191-0 280f100aec77fad3ec676352a58b460a;de;;;6.2.;;;Genauigkeit, Zuverlässigkeit, Durchführbarkeit und Akzeptanz durch das Pflegepersonal eines subkutanen kontinuierlichen Glukose-Managementsystems bei kritisch kranken Patienten: eine prospektive klinische Studie Kontinuierliches Glukosemonitoring (CGM) wurde auf der Intensivstation (ICU) noch nicht implementiert. Der Zweck dieser Studie bestand darin, die Zuverlässigkeit, Durchführbarkeit, Akzeptanz und Genauigkeit des Medtronic Sentrino . durch das Pflegepersonal zu bewerten;-;-;-;https://link.springer.com/article/10.1186/s13613-016-0167-z fe9173d6510713555ee15d365b9b1965;de;;;6.2.;;;Eine Querschnittstudie über das Bewusstsein der Eltern für und die Gründe für den Mangel an Krankenversicherung bei Kindern aus Minderheiten und die Auswirkungen auf die Gesundheit, den Zugang zu Pflege und ungedeckte Bedürfnisse Kinder von Minderheiten haben die höchsten Nichtversicherungsraten in den USA, lateinamerikanische und afroamerikanische Kinder machen 53 % der nicht versicherten amerikanischen Kinder aus, obwohl sie nur 48 % der gesamten US-Kinderbevölkerung ausmachen. Ziel der Studie war es, das Bewusstsein der Eltern für und die Gründe für die fehlende Krankenversicherung bei Medicaid/CHIP-berechtigten Minderheitenkindern sowie die Auswirkungen der Nichtversicherung der Kinder auf Gesundheit, Zugang zu Pflege, nicht gedeckten Bedarf und finanzielle Belastung der Familie zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s12939-016-0331-y ff0f5f131922665c8f1a270725757730;de;;;6.2.;;;Jiao-tai-wan für Schlaflosigkeitssymptome, die durch die Disharmonie von Herz und Niere verursacht werden: ein Studienprotokoll für eine randomisierte, doppelblinde, placebokontrollierte Studie Schlaflosigkeit beeinträchtigt das normale Leben und die Arbeit der Menschen ernsthaft. Wirksame Behandlungsstrategien sind jedoch rar. Der Zweck dieser Studie ist es, die Wirksamkeit und Sicherheit von Jiao-tai-wan (JTW) zur Linderung von Schlaflosigkeitssymptomen zu untersuchen, die durch Disharmonie von Herz und Niere verursacht werden.;-;-;-;https://link.springer.com/article/10.1186/s13063-020-04299-x 741b13fc89f37dec41af40bfedbb19f1;de;;;6.2.;;;Die Rolle körperlicher Aktivität bei der Entstehung des ersten kardiovaskulären Erkrankungsereignisses: eine baumstrukturierte Überlebensanalyse der dänischen ADDITION-PRO-Kohorte Es bestehen Unklarheiten in Bezug auf die Rolle von körperlicher Aktivität (PA) für die Risikominderung von Herz-Kreislauf-Erkrankungen (CVD). Wir untersuchten das Zusammenspiel zwischen PA-Dimensionen und konventionelleren CVD-Risikofaktoren, um zu beurteilen, welche PA-Dimensionen mit dem ersten CVD-Ereignis verbunden waren und ob Subgruppenunterschiede bestehen.;-;-;-;https://link.springer.com/article/10.1186/s12933-018-0769-x 21afde749926d7f1da148328a7e2f4fe;de;;;6.2.;;;m-Power Heart Project - ein Koordinator für die Krankenschwesternversorgung, mHealth ermöglichte Interventionen zur Verbesserung des Managements von Bluthochdruck in Indien: Studienprotokoll für eine randomisierte Cluster-Studie Der Anteil der Patienten mit kontrollierter Hypertonie (< 140/90 mmHg) ist in Indien sehr gering. Daher besteht ein Bedarf, das Blutdruckmanagement bei Patienten mit unkontrollierter Hypertonie durch innovative Strategien zur Stärkung des Gesundheitssystems zu verbessern.;-;-;-;https://link.springer.com/article/10.1186/s13063-018-2813-2 0c68d90320873895e847168705cf28f8;de;;;6.2.;;;Einstellungen und Meinungen zu konfirmatorischen adaptiven klinischen Studien: eine Mixed-Methods-Analyse aus dem Projekt Adaptive Designs Accelerating Promising Trials into Treatments (ADAPT-IT) Adaptive Designs werden zunehmend in der Pharma- und Geräteindustrie verwendet, aber die Akzeptanz im akademischen Umfeld ist weniger verbreitet – insbesondere für Bestätigungsphasenstudien. Wir wollten die Wahrnehmungen über das Verständnis, die Akzeptanz und die wissenschaftliche Validität adaptiver klinischer Studien (ACTs) verstehen.;-;-;-;https://link.springer.com/article/10.1186/s13063-016-1493-z 24262f124729903242f21105f00e9fe1;de;;;6.2.;;;Survive and Thrive in Brazil: The Boa Vista Early Childhood Program: Studienprotokoll einer randomisierten, kontrollierten Step-Wedge-Studie Es gibt immer mehr Belege dafür, dass die Gesundheit und die Entwicklungsergebnisse im frühen Leben durch elterliche Unterstützungsprogramme verbessert werden können. Ziel dieses Projekts war es, die Durchführbarkeit, Wirkung und relative Kosteneffizienz eines angepassten Programms „Reach Up and Learn“ zu testen, das durch Hausbesuchsprogramme sowie durch zentrumsbasierte Elterngruppen zur Gesundheit und Entwicklung von Kindern in der Gemeinde Boa Vista, Brasilien.;-;-;-;https://link.springer.com/article/10.1186/s13063-020-4217-3 01cc807971685ec3e3b4997d93e5adaf;de;;;6.2.;;;Wirkung einer patientenkontrollierten intravenösen Analgesie in Kombination mit Flurbiprofenaxetil und Dezocin auf die postoperative Analgesie bei Lobektomie (EPIC-FAD): ein Studienprotokoll Die optimale analgetische Strategie bei chirurgischen Schmerzen nach Lobektomie ist noch nicht definiert. Vergleich der Kombination von Flurbiprofenaxetil und Dezocin mit Flurbiprofenaxetil allein und Dezocin allein bei Patienten nach Lobektomie.;-;-;-;https://link.springer.com/article/10.1186/s13063-021-05108-9 6ca797121ddf6677d95030e1e21bfa94;de;;;6.2.;;;Protokoll einer populationsbasierten prospektiven COVID-19-Kohortenstudie München, Deutschland (KoCo19) Aufgrund der SARS-CoV-2-Pandemie wurden weltweit Maßnahmen des öffentlichen Gesundheitswesens eingeführt, um die Ausbreitung des Virus zu verhindern und eine Überlastung der Gesundheitssysteme, insbesondere für die am schwersten betroffenen Patienten, zu vermeiden. Bisherige wissenschaftliche Studien konzentrierten sich vor allem darauf, den klinischen Verlauf von Patienten zu beschreiben, Behandlungsmöglichkeiten aufzuzeigen und Impfstoffe zu entwickeln. In Deutschland werden, wie in vielen anderen Regionen auch, aktuelle Tests auf SARS-CoV2 nicht repräsentativ und in einem Längsschnittdesign durchgeführt. Außerdem fehlt das Wissen über den Immunstatus der Bevölkerung. Dennoch werden diese Daten benötigt, um die Dynamik der Pandemie zu verstehen und damit Interventionen angemessen zu gestalten und zu bewerten. Zu diesem Zweck haben wir kürzlich eine prospektive bevölkerungsbezogene Kohorte in München gestartet, mit dem Ziel, ein besseres Verständnis des Zustands und der Dynamik der Pandemie zu entwickeln.;-;-;-;https://link.springer.com/article/10.1186/s12889-020-09164-9 f68c65862db3ed9d4d2399268736f3fc;de;;;6.2.;;;Design und Methoden für eine randomisierte klinische Studie einer Diabetes-Selbstmanagement-Intervention für Latinos mit niedrigem Einkommen: US-Latinos haben eine höhere Prävalenz von Typ-2-Diabetes (Diabetes), unkontrolliertem Diabetes und Diabetes-Komorbiditäten im Vergleich zu Nicht-Latino-Weißen. Sie haben auch eine niedrigere Alphabetisierungsrate und leben häufiger in Armut. Es sind Interventionen erforderlich, um die Diabeteskontrolle bei Latinos mit niedrigem Einkommen zu verbessern.;-;-;-;https://link.springer.com/article/10.1186/1471-2288-9-81 7bb85193ec4b8390e4f8b7579a9e97ea;de;;;6.2.;;;Erfahrungen mit einem Erdbeben während der Schwangerschaft, vorgeburtliche psychische Gesundheit und Geburtsgewicht von Säuglingen im Distrikt Bhaktapur, Nepal, 2015: eine bevölkerungsbezogene Kohortenstudie Das Geburtsgewicht von Säuglingen ist ein wichtiger Indikator für die öffentliche Gesundheit, der ein Indikator für die Gesundheit von Mutter und Kind ist. Erdbeben können akute Not verursachen, aber auch durch langfristige Störungen der sozialen, wirtschaftlichen und häuslichen Verhältnisse zu chronischem Stress beitragen. Ziel dieser Studie war es, den direkten Einfluss von Erdbebenerfahrungen auf das Geburtsgewicht von Säuglingen von Frauen zu untersuchen, die die Erdbeben in Nepal 2015 während der Schwangerschaft erlebten, und ob die psychische Gesundheit diesen Zusammenhang vermittelt.;-;-;-;https://link.springer.com/article/10.1186/s12884-020-03086-5 2aa4655187fb906e747e5aeae11211e6;de;;;6.2.;;;Eine hybride quasi-experimentelle Pilotstudie vom Typ II zur Umsetzung und Wirksamkeit einer klinischen Intervention zur Wiedereingliederung von Menschen mit HIV in die Pflege, „Lost & Found“: ein wissenschaftliches Umsetzungsprotokoll Am McGill University Health Center (MUHC) kommen jährlich 10 % der Patienten mit HIV nicht zur Behandlung. Derzeit existiert kein formelles System zur Wiedereingliederung von Out-of-Care (OOC) Patienten. Lost & Found wurde mit einem implementierungswissenschaftlichen Ansatz entwickelt und ist eine Intervention zur Wiedereinbindung von OOC-Patienten. Es basiert auf bestehenden evidenzbasierten Interventionen und wird für den Einsatz durch das Pflegepersonal am MUHC angepasst. Die Ziele dieser Studie sind die gleichzeitige Bewertung der Implementierung und Wirksamkeit von Lost & Found, um die Durchführbarkeit einer zukünftigen randomisierten Multisite-Stepped-Wedge-Cluster-Studie zu bestimmen.;-;-;-;https://link.springer.com/article/10.1186/s40814-020-0559-6 ed96f9320938d7a69440e240892fae38;de;;;6.2.;;;Behandlungskosten von Mundkrebs in Griechenland und die Auswirkungen fortgeschrittener Erkrankungen Der Hauptzweck der Studie bestand darin, die direkten Kosten der Behandlung von Mundkrebs für das griechische Gesundheitssystem zu quantifizieren. Ein weiteres Ziel war es, Faktoren zu identifizieren, die die Kosten beeinflussen und potenzielle Kostensenkungspositionen. Insbesondere untersuchten wir die Beziehung zwischen Krankheitsstadium, Behandlungsmodalität und direkten Gesamtkosten.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-2-12 8889cbaaeb325a9a90ae2aff561e5e55;de;;;6.2.;;;Eine Kohorte von Frauen mit Eileiterschwangerschaft: Herausforderungen bei Diagnose und Management in einem ländlichen Krankenhaus in einem Land mit niedrigem Einkommen Eine Eileiterschwangerschaft (EP) ist eine schwerwiegende Komplikation der Frühschwangerschaft. In Ländern mit niedrigem Einkommen ist die Diagnose von EP schwierig und trägt wesentlich zur Müttersterblichkeit bei. Unser Ziel war es, den diagnostischen Prozess von Frauen mit EP zu beurteilen und zu verbessern.;-;-;-;https://link.springer.com/article/10.1186/s12884-018-1777-2 8098f5d50e1a9b1635e880199ff407b9;de;;;6.2.;;;Modifizierte Diagnostische Strategie zum sicheren Ausschluss einer Lungenembolie In der Notaufnahme: Studienprotokoll für die randomisierte Cross-Over-Studie des Non-Inferiority MODIGLIANI Clusters In der Abklärungsstrategie der Lungenembolie (LE) in der Notaufnahme erlaubt die kürzlich eingeführte YEARS-Regel die Anhebung der D-Dimer-Schwelle auf 1000 ng/ml bei Patienten ohne Anzeichen einer tiefen Venenthrombose und ohne Hämoptyse und bei denen PE ist nicht die wahrscheinlichste Diagnose. Diese Entscheidungsregel wurde jedoch nie prospektiv mit der üblichen Strategie verglichen. Darüber hinaus ist unklar, ob die YEARS-Regel zusätzlich zu den Ausschlusskriterien für Lungenembolien (PERC) verwendet werden kann. Unser Ziel ist es, die Nichtunterlegenheit von YEARS im Vergleich zu den aktuellen Leitlinien zu beurteilen, um eine LE bei PERC-positiven ED-Patienten mit Verdacht auf LE auszuschließen.;-;-;-;https://link.springer.com/article/10.1186/s13063-020-04379-y 6f9bd28f48e63d4852539e8db491a0b2;de;;;6.2.;;;Einfluss von Chlorid und starken Ionenunterschieden auf die Sterblichkeit auf der Intensivstation und im Krankenhaus in einer gemischten Intensivpflegepopulation Bei kritisch kranken Patienten werden häufig abnormale Chloridspiegel beobachtet, ihre klinische Relevanz bleibt jedoch umstritten. Wir untersuchten den Zusammenhang zwischen abnormaler Chlorämie und Intensivstation und Krankenhaussterblichkeit. Um die Ergebnisse weiter zu verfeinern und in die laufende Diskussion über die schädlichen Auswirkungen chloridreicher Lösungen zu integrieren, wurde der Einfluss der starken Ionendifferenz (SID) auf die gleichen Endpunkte bewertet.;-;-;-;https://link.springer.com/article/10.1186/s13613-016-0193-x 982fcb892d66db62820d748cfd841999;de;;;6.2.;;;Prävalenz von Hypertonie und Blutdruckprofil bei Erwachsenen in Städten in Nigeria: eine vergleichende Analyse basierend auf aktuellen Leitlinienempfehlungen Bluthochdruck ist der Hauptrisikofaktor für Herz-Kreislauf-Erkrankungen, und Prävalenzraten sind entscheidend, um die Belastung zu verstehen und den Bedarf an Gesundheitsdiensten und die Ressourcenzuweisung in Betracht zu ziehen. Unser Ziel war es, ein Update der aktuellen Prävalenz von Hypertonie und Blutdruckprofilen von Erwachsenen im städtischen Nigeria bereitzustellen.;-;-;-;https://link.springer.com/article/10.1186/s40885-019-0112-1 c01dcdccdad08400cc43095471386002;de;;;6.2.;;;Datenquellen zur Schwangerschaftsvorsorge und ihre Auswirkungen auf Politik und Planung: ein palästinensisches Beispiel mit dem Lives Saved Tool Die Politikgestaltung im Gesundheitswesen erfordert zuverlässige und lokale Daten. Verschiedene Quellen von Erfassungsdaten für Gesundheitsinterventionen können verwendet werden, um das Lives Saved Tool (LiST) zu füllen, ein häufig verwendetes Instrument zur Politikplanung für die Gesundheit von Frauen und Kindern. Wir haben vier bestehende Quellen von Schwangerschaftsvorsorgedaten in Palästina ausgewertet, um die Auswirkungen ihrer Verwendung in LiST zu diskutieren.;-;-;-;https://link.springer.com/article/10.1186/s12889-019-6427-8 cc1a08c8f0c8aed7578e693ca55b9cf7;de;;;6.2.;;;„Ich will alles wissen“: eine qualitative Studie zu Perspektiven von Patienten mit chronischen Erkrankungen zum Austausch von Gesundheitsinformationen während des Krankenhausaufenthalts Die patientenzentrierte Versorgung fördert die Einbeziehung des prominentesten und wichtigsten Mitglieds des Gesundheitsteams, des Patienten, als aktiven Teilnehmer am Informationsaustausch und der Entscheidungsfindung. Patientenselbstmanagement einer chronischen Krankheit erfordert, dass der Patient die Lücke zwischen mehreren Pflegeeinrichtungen und Anbietern schließt. Krankenhausaufenthalte stören oft etablierte Selbstmanagement-Routinen. Der Zugang zu medizinischen Informationen während des Krankenhausaufenthalts spiegelt das Recht der Patienten auf Partner bei ihrer eigenen Versorgung wider und hat das Potenzial, das Selbstmanagement zu verbessern sowie eine informierte Entscheidungsfindung während und nach dem Krankenhausaufenthalt zu fördern. Ziel dieser Studie war es, die Sichtweise von Patienten mit chronischen Erkrankungen zu den gewünschten medizinischen Informationsinhalten und dem Zugang während des Krankenhausaufenthaltes zu erheben.;-;-;-;https://link.springer.com/article/10.1186/s12913-017-2487-6 17be6b9a2d8116683fa95ebc18b646d5;de;;;6.2.;;;Sonographische Referenzwerte der Querschnittsfläche des Nervus medianus: ein Protokoll für eine systematische Überprüfung und Metaanalyse Mediannerv Querschnittsfläche (CSA) ist die primären sonographische Parameter für die Beurteilung und Diagnose von Mittelhandnerv Pathologie, wie Karpaltunnelsyndrom. Allerdings Variabilität in der Empfindlichkeit von diagnostischen Schwellenwerte gibt, die normativen Referenzwerte auf einen Mangel an standardisierten zurückzuführen sein kann. Aktuelle Schätzungen der normalen CSA Mediannerv stammen großenteils aus kleinen Studien einen lokalen Pool von gesunden Kontrollen verwenden. Eine systematische Überprüfung und Meta-Analyse werden durchgeführt, alle verfügbaren Daten für Mediannerv CSA bei gesunden, asymptomatischen Personen zu identifizieren, eine umfassende Reihe von normativen Referenzwerten zu schaffen.;-;-;-;https://link.springer.com/article/10.1186/s13643-018-0929-9 f7d7ec2c893216eb77856cffd225d0d9;de;;;6.2.;;;Der Einfluss des Schweregrades der Sepsis auf das Hypoglykämierisiko und die glykämische Variabilität Der Zweck dieser Studie war es, die Beziehung zwischen der glykämischen Kontrolle und dem Schweregrad der Sepsis in einer Kohorte von Patienten zu untersuchen, die mit einer intensiven Insulintherapie (IIT) behandelt wurden.;-;-;-;https://link.springer.com/article/10.1186/cc7097 1545432bde51ddd2df05ad6d303dde85;de;;;6.2.;;;Die Auswirkungen von Versicherungsschutz für unversicherte Kinder auf die Gesundheit und das Gesundheitswesen: Eine prospektive Beobachtungsstudie Von den 4,8 Millionen nicht versicherten Kindern in Amerika haben 62–72 % Anspruch auf Medicaid oder CHIP, sind aber nicht eingeschrieben. Über die Auswirkungen der Krankenversicherung auf Outcomes und Kosten für bisher unversicherte Kinder ist jedoch zu wenig bekannt, da diese nie prospektiv untersucht wurden.;-;-;-;https://link.springer.com/article/10.1186/s12889-017-4363-z a9c53588840a27b54696c5c59de27631;de;;;6.2.;;;MAB-MIG: Register der spanischen neurologischen Gesellschaft für Erenumab zur Migräneprävention Erenumab wurde in Europa zur Migräneprävention bei Patienten mit ≥ 4 monatlichen Migränetagen (MMDs) zugelassen. In Spanien startete Novartis ein personalisiertes Managed-Access-Programm, das den kostenlosen Zugang zu Erenumab vor der offiziellen Erstattung ermöglichte. Die Spanische Gesellschaft für Neurologie startete ein prospektives Register zur Bewertung der Wirksamkeit und Verträglichkeit in der Praxis, und alle spanischen Kopfschmerzexperten wurden zur Teilnahme eingeladen. Wir präsentieren ihre ersten Ergebnisse.;-;-;-;https://link.springer.com/article/10.1186/s10194-021-01267-x 60e40e1b3b193f548735f26f7e438416;de;;;6.2.;;;Monitoring-Aktivität von Hüftverletzungspatienten (MoHIP): eine Teilstudie der Beobachtungskohortenstudie World Hip Trauma Evaluation Hüftfrakturen sind häufig und betreffen 20 % der Frauen und 10 % der Männer im Laufe ihres Lebens. Der Verlauf der Genesung von Patienten beim Übergang vom Akutkrankenhaus in ihren üblichen Aufenthaltsort ist kaum bekannt. Kürzlich wurde die Verwendung von Aktivitätstrackern zur Überwachung der körperlichen Aktivität während der Erholung untersucht, um diesen Weg zu erkunden.;-;-;-;https://link.springer.com/article/10.1186/s40814-020-00612-2 bfbdaccbdd4ac891fd662435badc5c79;de;;;6.2.;;;Lokales Staging mit multiparametrischer MRT im klinischen Alltag: diagnostische Genauigkeit und Auswertung einer radiologischen Lernkurve Abschätzung der diagnostischen Genauigkeit der multiparametrischen MRT (mpMRT) zum Nachweis eines lokal fortgeschrittenen Prostatakarzinoms (T-Stadium 3-4) vor einer radikalen Prostatektomie in einer multizentrischen Kohorte, die den klinischen Alltag repräsentiert. Darüber hinaus wird die radiologische Lernkurve zur Erkennung lokal fortgeschrittener Erkrankungen ausgewertet.;-;-;-;https://link.springer.com/article/10.1007/s00345-018-2295-6 6a9b482de5e50854895635bde4266af8;de;;;6.2.;;;Kartierung des Reiseverhaltens von Menschen mit Malaria in Bangladesch Die Ausbreitung von Malaria und Malaria-Resistenz durch menschliche Bewegungen stellt eine große Bedrohung für die gegenwärtigen Ziele zur Eliminierung der Krankheit dar. Angrenzend an die Greater Mekong Subregion, Südost-Bangladesch, ist eine potenziell wichtige Ausbreitungsroute nach Indien und darüber hinaus, aber es fehlen Informationen über Reisemuster in diesem Gebiet.;-;-;-;https://link.springer.com/article/10.1186/s12916-020-1512-5 fb6263f8b0bcff743f7195d20a1f8f39;de;;;6.2.;;;Prioritäten für Interventionen zur Prävention von Durchfall bei Kindern im Alter von 0–23 Monaten im Nordosten Äthiopiens: eine abgestimmte Fall-Kontroll-Studie Das weltweite Problem der öffentlichen Gesundheit von Durchfall ist in Entwicklungsländern, einschließlich Äthiopien, am weitesten verbreitet, insbesondere bei Kindern unter zwei Jahren. Begrenzte Informationen zu den Determinanten von Durchfall bei Kindern im Alter von 0–23 Monaten behindern die Entwicklung und Priorisierung von Interventionsstrategien zur Behandlung von Durchfall bei Kindern in Dessie City im Nordosten Äthiopiens. Daher wurde diese Studie entwickelt, um die Determinanten von Durchfall zu bewerten, um vorrangige Interventionen zu seiner Kontrolle zu identifizieren.;-;-;-;https://link.springer.com/article/10.1186/s12887-021-02592-5 931ed00f20cc534f1b240f82d42a78a3;de;;;6.2.;;;Die Verzögerung der Schweine vom normalen Produktionsfluss ist mit Gesundheitsproblemen und schlechterer Leistung verbunden Das Verzögern des Fortschreitens der Schweine durch die Produktionsstufen könnte sich negativ auf ihre Gesundheit und Leistungsfähigkeit auswirken. Das Ziel dieser Studie war es, die möglichen Auswirkungen einer Verzögerung der Schweine aus dem normalen Produktionsfluss auf die Gesundheit und Leistung von Schweinen in einem kommerziellen Betrieb vom Ferkel bis zum Endmast mit einem selbst erklärten All-In/All-Out-Management (AIAO) zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s40813-017-0061-6 08e20e978b0ffaf8eb01e3057549bdf7;de;;;6.2.;;;Protokoll für eine Matched-Pair-Cluster-Kontrollstudie zu ARCHES (Addressing Reproductive Coercion in Health Settings) bei Frauen und Mädchen, die Verhütungsdienste von kommunalen Kliniken in Nairobi, Kenia, suchen Reproduktiver Zwang (RC) und Gewalt in der Partnerschaft (IPV) sind weit verbreitete Formen geschlechtsspezifischer Gewalt (GBV), die mit einer verminderten weiblichen Kontrolle über den Gebrauch von Verhütungsmitteln und nachfolgenden ungewollten Schwangerschaften einhergehen. Obwohl die Weltgesundheitsorganisation die Identifizierung und Unterstützung von GBV-Überlebenden innerhalb der Gesundheitsdienste empfohlen hat, konnten nur wenige klinikbasierte Modelle IPV oder RC reduzieren, insbesondere in Ländern mit niedrigem oder mittlerem Einkommen (LMICs). Bis heute wurde nicht gezeigt, dass klinikbasierte GBV-Interventionen RC oder ungewollte Schwangerschaften in LMIC-Einstellungen reduzieren.;-;-;-;https://link.springer.com/article/10.1186/s12978-020-00916-9 37822db64384ff70954e08a22c955deb;de;;;6.2.;;;Nationale Influenza-Überwachung auf den Philippinen von 2006 bis 2012: Saisonalität und zirkulierende Belastungen Die Ergebnisse der routinemäßigen Influenza-Surveillance in 13 Regionen auf den Philippinen von 2006 bis 2012 werden vorgestellt, die die jährlichen saisonalen Epidemien einer bestätigten Influenzavirus-Infektion, saisonale und Alarmschwellen, die Epidemiekurve und zirkulierende Influenzastämme beschreiben.;-;-;-;https://link.springer.com/article/10.1186/s12879-016-2087-9 874f82c166629404ec982a6eb4e99ff3;de;;;6.2.;;;Querschnittsanalyse der Exposition von Säuglingen gegenüber giftigen Metallen durch die Muttermilch in einer prospektiven Kohortenstudie von Bergbaugemeinden in Ghana Obwohl das Stillen von Säuglingen weltweit empfohlen wird, bedeutet die Tatsache, dass mütterliche Giftmetallvorräte in die Muttermilch mobilisiert werden, dass Säuglinge, deren Mütter in Bergbaugemeinden leben und arbeiten, einer Mehrfachbelastung durch bergbaubedingte giftige Metalle wie Blei (Pb) ausgesetzt sind , Quecksilber (Hg), Cadmium (Cd) und Arsen (As) über die Muttermilchaufnahme zusätzlich zur In-Utero-Exposition.;-;-;-;https://link.springer.com/article/10.1186/s12889-017-4403-8 b1090e026f14213290bef17a7de20318;de;;;6.2.;;;Die Mahlzeiten optimal nutzen (M3): Protokoll einer multizentrischen Querschnittsstudie zur Nahrungsaufnahme und ihren Determinanten bei älteren Erwachsenen, die in Langzeitpflegeheimen leben Ältere Erwachsene, die in Langzeitpflegeheimen leben, sind ernährungsphysiologisch anfällig und verbrauchen oft nicht genügend Energie, Makro- und Mikronährstoffe, um ihre Gesundheit und Funktion zu erhalten. Es werden mehrere Faktoren vorgeschlagen, die die Nahrungsaufnahme beeinflussen, aber unser Verständnis dieser verschiedenen Faktoren und ihrer Wechselwirkungen ist begrenzt. Der Zweck dieses Papiers ist es, das Protokoll vollständig zu beschreiben, das verwendet wird, um Determinanten der Nahrungs- und Flüssigkeitsaufnahme bei älteren Erwachsenen zu untersuchen, die an der Studie Making the Most of Mealtimes (M3) teilnehmen.;-;-;-;https://link.springer.com/article/10.1186/s12877-016-0401-4 c43f3863bd00e81944d3f06643a02ee0;de;;;6.2.;;;DPARD: Begründung, Design und erste Ergebnisse des niederländischen nationalen Diabetesregisters Die Behandlung von Diabetes mellitus hat sich im letzten Jahrhundert stark verbessert, die Krankheitslast ist jedoch hoch und die Prävalenz nimmt weiter zu. Weitere Erkenntnisse über die Diabetespopulation sind unerlässlich, um die Qualität der Diabetesversorgung durch die Verbesserung wissensbasierter Diabetesmanagementstrategien zu verbessern. Zu diesem Zweck hat ein niederländisches landesweites Konsortium aus Diabetologen, pädiatrischen Endokrinologen und Diabetespatienten 2017 ein nationales Register für die ambulante Diabetesversorgung mit dem Namen Dutch Pediatric and Adult Registry of Diabetes (DPARD) gegründet. Unser Ziel ist es, die Implementierung von DPARD zu beschreiben und einen Überblick über die Merkmale der eingeschlossenen Patienten während der ersten 2 Jahre zu geben.;-;-;-;https://link.springer.com/article/10.1186/s12902-021-00782-x c3bd06da27e929fa227f65b0460140ef;de;;;6.2.;;;Der niedrige Skelettmuskelbereich ist ein Risikofaktor für die Mortalität bei mechanisch beatmeten kritisch kranken Patienten Ein höherer Body-Mass-Index (BMI) ist mit einer geringeren Mortalität bei mechanisch beatmeten kritisch kranken Patienten verbunden. Allerdings ist noch unklar, welche Körperkomponente für diesen Zusammenhang verantwortlich ist.;-;-;-;https://link.springer.com/article/10.1186/cc13189 9d85683d1637dd10010265ae1a4a5f1a;de;;;6.2.;;;Familienzentrierte Depressionsbehandlung für ältere Männer in der Primärversorgung: eine qualitative Studie zu Stakeholder-Perspektiven Familienmitglieder spielen oft eine wichtige Rolle im Leben depressiver älterer Männer und nehmen häufig mit ihren Lieben an Hausarztbesuchen teil, dennoch ist überraschend wenig darüber bekannt, wie Familienmitglieder am effektivsten in die Depressionsbehandlung einbezogen und einbezogen werden können. Die Einbeziehung der Familie in die Depressionsbehandlung kann jedoch aufgrund verschiedener Faktoren, wie Depressionsstigmatisierung und familiärer Konflikte, schwierig sein. Das Ziel dieser Studie war es, die Herausforderungen bei der Einbeziehung von Familienmitgliedern in die Behandlung von Depressionen älterer Männer und mögliche Strategien zur Bewältigung dieser Herausforderungen zu beschreiben.;-;-;-;https://link.springer.com/article/10.1186/s12875-017-0659-4 4b75f469483c8b2b815cdcc906131ea4;de;;;6.2.;;;Der geschlechtsspezifische Ergebnisunterschied hängt mit dem Verlauf der Sepsis auf gemischten Intensivstationen zusammen: eine prospektive klinische Beobachtungsstudie Der Einfluss des Geschlechts auf schwere Infektionen wird sehr kontrovers diskutiert, wobei der natürliche Überlebensvorteil von Weibchen in Tierstudien beschrieben wurde, aber den beschriebenen Daten beim Menschen widerspricht. Ziel dieser Studie ist es, den Einfluss des Geschlechts auf das Outcome auf gemischten Intensivstationen (ICUs) mit besonderem Fokus auf Sepsis zu beschreiben.;-;-;-;https://link.springer.com/article/10.1186/cc10277 02b200e6d764ce6d9a5d37a04f2d30fd;de;;;6.2.;;;Entwicklung und Validierung eines Instruments zur Bewertung der Qualität der Ernährung bei französischsprachigen Erwachsenen aus Quebec Das Ziel dieser Studie war die Entwicklung und Validierung eines kurzen, selbstverabreichten Fragebogens zur Beurteilung der Ernährungsqualität im klinischen Umfeld unter Verwendung des Alternative Healthy Eating Index (AHEI) als Referenz.;-;-;-;https://link.springer.com/article/10.1186/s12966-019-0821-6 318c64008424d2855df2161bdf5a91e0;de;;;6.2.;;;Zusammenhang zwischen dem 12-Kanal-Ruhe-Elektrokardiogramm und dem Gesamttod bei Patienten ohne strukturelle Herzerkrankung: Analyse der Shinken-Datenbank Die 12-Kanal-Ruhe-Elektrokardiographie wird häufig zur Erkennung von Herzerkrankungen eingesetzt. Es wurde berichtet, dass die Elektrokardiogramm-Messwerte durch das Altern beeinflusst werden und daher die Patientensterblichkeit vorhersagen können.;-;-;-;https://link.springer.com/article/10.1186/s12872-021-01864-3 53b5ae162d4c02ff80cd053d8f8d5a2f;de;;;6.2.;;;Wirkung einer multifaktoriellen interdisziplinären Intervention auf mobilitätsbedingte Behinderung bei gebrechlichen älteren Menschen: randomisierte kontrollierte Studie Interventionen, die die Mobilität gebrechlicher älterer Menschen verbessern, sind erforderlich, um Gesundheit und Unabhängigkeit zu erhalten, aber es fehlen eindeutige Beweise für wirksame Interventionen. Unser Ziel war es, die Auswirkungen einer multifaktoriellen Intervention auf mobilitätsbedingte Behinderungen bei gebrechlichen älteren Menschen zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/1741-7015-10-120 225f167806df5188301bf7ed5231df38;de;;;6.2.;;;Die MELFO-Studie: Eine multizentrische, prospektive, randomisierte klinische Studie zu den Auswirkungen eines reduzierten stadienangepassten Nachsorgeplans bei Patienten mit kutanem Melanom IB–IIC – Ergebnisse nach 3 Jahren Diese Studie vergleicht Wohlbefinden, Rezidive und Todesfälle von Patienten mit kutanem Melanom im Frühstadium im Follow-up, wie in der niederländischen Leitlinie empfohlen, mit dem von Patienten in einem stadienangepassten reduzierten Follow-up-Plan 3 Jahre nach der Diagnose. sowie Kosten.;-;-;-;https://link.springer.com/article/10.1245/s10434-019-07825-7 542ae7f1ee22f08f9a5d1034b0a19f30;de;;;6.2.;;;Merkmale und Ergebnisse von Patienten mit Eklampsie und schwerer Präeklampsie in einem ländlichen Krankenhaus in Westtansania: eine retrospektive Krankenaktenstudie Eklampsie und Präeklampsie sind in Ländern mit niedrigem Einkommen anerkannte Ursachen der Mütter- und Neugeborenensterblichkeit, werden jedoch nie in einem Bezirkskrankenhaus untersucht. Um zuverlässige Daten für die geburtshilfliche Prüfung des Krankenhauses zu erhalten, wurde im Ndala Hospital, Tansania, eine retrospektive Krankenaktenstudie durchgeführt.;-;-;-;https://link.springer.com/article/10.1186/s12884-015-0649-2 099a946ed2ada4ddd4650474b9a73118;de;;;6.2.;;;Wahrgenommene berufliche Stressoren bei Rettungsdienstleistern: eine qualitative Studie Anbieter von Rettungsdiensten (EMS) sind ständig beruflichen Stressoren ausgesetzt, die sich negativ auf ihre Gesundheit und Berufspraxis auswirken. Diese Studie untersuchte wahrgenommene berufliche Stressoren bei EMS-Anbietern.;-;-;-;https://link.springer.com/article/10.1186/s12873-021-00430-6 ec9e7468ea78309a32d396206e99f6d4;de;;;6.2.;;;Genexpressionsprofilierung bei muriner Autoimmunarthritis während der Initiierung und des Fortschreitens einer Gelenkentzündung Wir präsentieren hier eine umfangreiche Studie der differentiellen Genexpression in der Initiation, akuten und chronischen Phase der murinen Autoimmunarthritis unter Verwendung von hochdichten Oligonukleotid-Arrays, die das gesamte Mausgenom abfragen. Arthritis wurde in schweren kombinierten immundefizienten Mäusen induziert, indem der adoptive Transfer von Lymphozyten von Proteoglykan-immunisierten arthritischen BALB/c-Mäusen verwendet wurde. In diesem einzigartigen System werden nur proteoglykanspezifische Lymphozyten von arthritischen Mäusen in syngene immundefiziente Empfänger transferiert, denen die adaptive Immunität fehlt, die aber eine intakte angeborene Immunität auf einem identischen (BALB/c) genetischen Hintergrund haben.;-;-;-;https://link.springer.com/article/10.1186/ar1472 127cda2fc6708fa2244275d35870555a;de;;;6.2.;;;Die Wirksamkeit und Stabilität eines auf Informations- und Kommunikationstechnologie basierenden zentralen Überwachungssystems der Adhärenz von immunsuppressiven Medikamenten bei Empfängern von Nierentransplantationen: Studienprotokoll für eine randomisierte kontrollierte Studie Immunsuppressions-Nichtadhärenz bei Nierentransplantatempfängern (KTRs) erhöht nicht nur das Risiko einer medizinischen Intervention aufgrund akuter Abstoßung und Transplantatverlust, sondern belastet das sozioökonomische System in Form erhöhter Gesundheitskosten. Eine aggressive präventive Anstrengung von medizinischem Fachpersonal, die darauf abzielt, die Einhaltung von Immunsuppressiva in KTRs sicherzustellen, ist signifikant und zwingend erforderlich.;-;-;-;https://link.springer.com/article/10.1186/s13063-017-2221-z f0d72c9ca69fb4e44b4e1414307df3b5;de;;;6.2.;;;Barrieren der dauerhaften Nutzung von Insektizidnetzen in Dörfern rund um den Tanasee, Nordwestäthiopien: eine qualitative Studie Malaria ist nach wie vor ein großes Gesundheitsproblem in Äthiopien. Die Verwendung von LLINs ist ein effektiver Ansatz zur Reduzierung der Übertragung. Die anhaltende Nutzung von LLINs wird von zahlreichen Faktoren bestimmt. Quantitative Studien haben den Besitz und die Nutzung von LLIN bewertet, aber die verhaltensbezogenen, soziokulturellen, sozioökonomischen und Nettoverteilungskontexte, die sich auf ihre Nutzung auswirken, wurden nicht eingehend untersucht. Diese Studie zielte darauf ab, Hindernisse für die anhaltende LLIN-Nutzung in Gemeinden rund um den Tana-See zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s12889-019-7692-2 a1e418ad5cabd54ff3e0f63145b059dd;de;;;6.2.;;;Qualitative und quantitative Erforschung von Arzneimittelbewertungen und arzneimittelbezogenen Problemen in ungarischen öffentlichen Apotheken: eine Pilotstudie Pharmazeutische Versorgung ist der Beitrag des Apothekers zur Versorgung des Einzelnen, um die Verwendung von Arzneimitteln zu optimieren und die gesundheitlichen Ergebnisse zu verbessern. Das wichtigste Instrument der pharmazeutischen Versorgung ist die Überprüfung der Medikation. Die Definition und Klassifizierung von Drug-Related Problems (DRPs) ist eine wesentliche Säule der Medikationsüberprüfung. Unsere Ziele waren die Durchführung eines Pilotprojekts zur Medikamentenüberprüfung in ungarischen öffentlichen Apotheken, wobei zum ersten Mal eine DRP-Klassifizierung angewendet wurde. Unser Ziel war auch die qualitative und quantitative Beschreibung der entdeckten DRPs und der Interventionen zu deren Lösung, um die Sicherheitsrelevanz der Dienstleistung nachzuweisen und die Kompetenzgrenzen von Hausärzten und Gemeindeapothekern zur medikamentösen Therapie abzubilden.;-;-;-;https://link.springer.com/article/10.1186/s12913-019-4114-1 2c6641e3e579eda320a1f9bf32f493d0;de;;;6.2.;;;Geografische Variation und Clusterbildung finden sich bei Vorhofflimmern jenseits sozioökonomischer Unterschiede: eine dänische Kohortenstudie, 1987–2015 Die Prävalenz und die Inzidenzrate von Vorhofflimmern (VHF) nehmen weltweit zu und VHF ist ein Risikofaktor für weitere unerwünschte kardiovaskuläre Erkrankungen, einschließlich Schlaganfall. Ungefähr 44 % der VHF-Fälle können nicht durch gemeinsame individuelle Risikofaktoren erklärt werden und das Risiko könnte daher auch mit der Umwelt zusammenhängen. Durch die Untersuchung der geografischen Variation und der Clusterung des Risikos für Vorhofflimmern, angepasst an die sozioökonomische Position auf individueller Ebene, konnten potenzielle Risikofaktoren in der Nachbarschaft aufgedeckt werden.;-;-;-;https://link.springer.com/article/10.1186/s12942-021-00264-2 0567d143a810714c9a799da12dca7292;de;;;6.2.;;;Lieferung zu Hause oder in eine Gesundheitseinrichtung? gesundheitsorientiertes Verhalten von Frauen und die Rolle traditioneller Geburtshelferinnen in Tansania Traditionelle Geburtshelferinnen spielen in Tansania eine wichtige Rolle für die reproduktive und mütterliche Gesundheit. Die tansanische Regierung fördert TBAs, um eine Gesundheitsberatung für Mütter und Neugeborene anzubieten und eine rechtzeitige Überweisung einzuleiten, ihre Rolle umfasst jedoch offiziell keine Geburtsbegleitung. Die Erfahrung zeigt jedoch, dass die meisten TBAs immer noch oft komplizierte Lieferungen handhaben. Daher waren die Ziele dieser Studie, (1) das gesundheitsorientierte Verhalten und die Erfahrungen von Frauen in Bezug auf die Nutzung von Schwangerschafts- (ANC) und postnatalen Betreuung (PNC), (2) ihre Gründe für die Wahl des Ortes und der Entbindung zu beschreiben und Erfahren Sie (3) über die Verwendung traditioneller Praktiken und Ressourcen, die von traditionellen Geburtshelfern (TBAs) angewendet werden, und wie sie mit dem biomedizinischen Gesundheitssystem verbunden werden können.;-;-;-;https://link.springer.com/article/10.1186/1471-2393-13-55 54d9f77d1a80e7a788bd4ed92f4413a4;de;;;6.2.;;;Kohortenstudie mit thailändischen Krankenschwestern: Kohortenprofile und wichtige Ergebnisse Weltweit ist der Pflegeberuf mit Engpässen, hoher Fluktuation und ungerechter Verteilung konfrontiert. Diese Probleme sind in Südostasien besonders akut. Der vorliegende Beitrag beschreibt das Design und die ersten Ergebnisse der Thai Nurse Cohort Study (TNCS).;-;-;-;https://link.springer.com/article/10.1186/s12912-016-0131-0 265d3f298c1ffc48079a6a8ab99fd083;de;;;6.2.;;;Kosten einer Relaparotomie nach Bedarf im Vergleich zu einer geplanten Relaparotomie bei Patienten mit schwerer Peritonitis: eine wirtschaftliche Bewertung im Rahmen einer randomisierten kontrollierten Studie Die Ergebnisse der ersten randomisierten Studie zum Vergleich von On-Demand- und geplanter Relaparotomie-Strategie bei Patienten mit schwerer Peritonitis (RELAP-Studie) zeigten keine klaren Unterschiede in den primären Endpunkten. Wir berichten nun über die vollständige wirtschaftliche Bewertung dieser Studie, einschließlich detaillierter Methoden, nichtmedizinischer Kosten, weiter differenzierter Kostenberechnungen und Robustheit verschiedener Annahmen in Sensitivitätsanalysen.;-;-;-;https://link.springer.com/article/10.1186/cc9032 7f5d132a20165201de4701f7f261836d;de;;;6.2.;;;Die ARASE (ERG) Magnetfelduntersuchung Das Fluxgate-Magnetometer für die Raumsondenmission Arase (ERG) wurde gebaut, um Teilchenbeschleunigungsprozesse in der inneren Magnetosphäre zu untersuchen. Präzise Messungen der Feldstärke und -richtung sind für die Untersuchung der Bewegung von Partikeln, der Eigenschaften von Wellen, die mit den Partikeln wechselwirken, und der durch elektrische Ströme induzierten Magnetfeldänderungen unerlässlich. Durch die Beobachtung zeitlicher Feldvariationen werden wir magnetohydrodynamische und elektromagnetische Ionen-Zyklotron-Wellen im ultraniederen Frequenzbereich besser verstehen, die die Produktion und den Verlust relativistischer Elektronen und Ringstromteilchen verursachen können. Das Hardware- und Softwaredesign des Magnetic Field Experiment (MGF) wurde optimiert, um die Anforderungen zur Untersuchung dieser Phänomene zu erfüllen. Das MGF führt Messungen mit einer Abtastrate von 256 Vektoren/s durch, und die Daten werden an Bord gemittelt, um das Telemetriebudget zu erfüllen. Das Magnetometer schaltet den Dynamikbereich zwischen ± 8000 und ± 60.000 nT, abhängig von der lokalen Magnetfeldstärke. Das Experiment wird durch Preflight-Tests und durch die Analyse von In-Orbit-Daten kalibriert. MGF-Daten werden in Dateien mit einem gemeinsamen Dateiformat aufbereitet, auf einem Datenserver archiviert und der Wissenschaft zur Verfügung gestellt. Die Magnetfeldbeobachtung durch das MGF wird unser Wissen über das Wachstum und den Zerfall von Strahlungsgürteln und Ringströmen sowie die Dynamik von Georaumstürmen erheblich verbessern.;-;-;-;https://link.springer.com/article/10.1186/s40623-018-0800-1 2b7425799769cce3da46bceae56b5aae;de;;;6.2.;;;Genauigkeit von Malaria-Schnelltests in Gemeinschaftsstudien und deren Einfluss auf die Behandlung von Malaria in einem Gebiet mit abnehmender Malariabelastung im Nordosten Tansanias Trotz einiger Probleme im Zusammenhang mit der Genauigkeit und Anwendbarkeit von Malaria-Schnelldiagnostiktests (RDTs) sind sie derzeit die beste Option in Gebieten mit begrenzten Laborleistungen, um das Fallmanagement durch parasitologische Diagnose zu verbessern und Überbehandlungen zu reduzieren. Diese Studie wurde in Gebieten mit abnehmender Malariabelastung durchgeführt, um 1) die Genauigkeit von RDTs bei Verwendung in verschiedenen Gemeindeumgebungen zu bewerten, 2) die Auswirkungen der Verwendung von RDTs auf die Malaria-Verabreichung durch gemeindeeigene Ressourcenpersonen (CORPs) und 3) Einhaltung von CORPs an Behandlungsrichtlinien durch Bereitstellung einer Behandlung basierend auf RDT-Ergebnissen.;-;-;-;https://link.springer.com/article/10.1186/1475-2875-10-176 4f74ae6ff010879582e4260b36a95344;de;;;6.2.;;;Was sagen Leistungserbringer in Südäthiopien zu Barrieren bei der Nutzung jugendfreundlicher sexueller und reproduktiver Gesundheitsdienste für Jugendliche? In Äthiopien lag der Nutzungsgrad jugendfreundlicher Gesundheitsdienste (AFSRHs) nur zwischen 9 und 55 % und war 2016 der niedrigste aller afrikanischen Länder südlich der Sahara Seite der Gesundheitsdienstleister.;-;-;-;https://link.springer.com/article/10.1186/s12978-021-01092-0 b166a015bf7ae661a4f039bd1c6c6fff;de;;;6.2.;;;Eine Querschnittsstudie zur Prävalenz und Korrelate des Tabakkonsums in Chennai, Delhi und Karachi: Daten aus der CARRS-Studie Tabakbelastungen in Indien und Pakistan erfordern kontinuierliche Anstrengungen zur Quantifizierung des Tabakkonsums und seiner Auswirkungen. Wir untersuchten die Prävalenz sowie soziodemografische und gesundheitsbezogene Korrelate des Tabakkonsums in Delhi, Chennai (Indien) und Karachi (Pakistan).;-;-;-;https://link.springer.com/article/10.1186/s12889-015-1817-z 325f95770cfafb25f07e5926f3eae7a6;de;;;6.2.;;;Zeitliche Validierung des CT-PIRP-Prognosemodells für Mortalität und Einleitung einer Nierenersatztherapie bei Patienten mit chronischer Nierenerkrankung kidney Ein Klassifikationsbaummodell (CT-PIRP) wurde 2013 entwickelt, um den jährlichen Rückgang der Nierenfunktion von Patienten mit chronischer Nierenerkrankung (CKD) vorherzusagen, die am PIRP-Projekt (Progetto Insufficienza Renale Progressiva) teilnehmen, an dem dreizehn nephrologische Krankenhauseinheiten in Romagna (Italien). Dieses Modell identifizierte sieben Untergruppen mit spezifischen Kombinationen von Ausgangsmerkmalen, die mit einem unterschiedlichen jährlichen Rückgang der geschätzten glomerulären Filtrationsrate (eGFR) verbunden waren, aber die Fähigkeit des Modells, Mortalität und Nierenersatztherapie (RRT) vorherzusagen, wurde noch nicht nachgewiesen.;-;-;-;https://link.springer.com/article/10.1186/s12882-019-1345-7 4e68db78f2ef13a315d5b79a71bf66e7;de;;;6.2.;;;Netzaugmentierte transvaginale Reparatur von rezidivierenden oder komplexen vorderen Beckenorganvorfällen gemäß SCENIHR-Gutachten Bewertung der Leistung der netzverstärkten Reparatur des vorderen Beckenorganprolaps (POP) mit oder ohne Beteiligung der apikalen Vaginalwand bei Frauen mit rezidivierendem oder komplexem Prolaps.;-;-;-;https://link.springer.com/article/10.1007/s00192-020-04525-9 f634507701a9d148e8488353e0b1f591;de;;;6.2.;;;Wirksamkeit und Sicherheit von Artemether-Lumefantrin zur Behandlung von unkomplizierter Malaria und Prävalenz von Die Weltgesundheitsorganisation empfiehlt regelmäßige therapeutische Wirksamkeitsstudien (TES), um die Leistung von Erst- und Zweitlinien-Malariamitteln zu überwachen. Im Jahr 2016 wurde die Wirksamkeit und Sicherheit von Artemether-Lumefantrin (AL) zur Behandlung der unkomplizierten Falciparum-Malaria durch eine TES bewertet, die zwischen April und Oktober 2016 an vier Wächterstandorten in Kibaha, Mkuzi, Mlimba und Ujiji in Tansania durchgeführt wurde. In der Studie wurden auch molekulare Marker für die Resistenz gegen Artemisinin und Lumefantrin (Partnerarzneimittel) untersucht.;-;-;-;https://link.springer.com/article/10.1186/s12936-019-2730-1 7cbc74b7054d7686a1d4a3b68cdafcf6;de;;;6.2.;;;Zu Fuß und mit dem Fahrrad zur Arbeit zu gehen, obwohl ein nicht unterstützendes Umfeld gemeldet wurde: Erkenntnisse aus einer gemischten Untersuchung von kontraintuitiven Ergebnissen Die Wahrnehmung der Umwelt scheint mit dem Gehen und Radfahren verbunden zu sein. Wir haben die Gründe für das Gehen und Radfahren zur oder von der Arbeit untersucht, obwohl wir bei einer Stichprobe von Pendlern ein nicht unterstützendes Streckenumfeld gemeldet haben.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-13-497 7fba38bfd8e141aa07fa67949afb2914;de;;;6.2.;;;Begründung, Design und Durchführung einer randomisierten kontrollierten Studie zur Bewertung einer hausärztlichen komplexen Intervention zur Verbesserung der Lebensqualität von Herzinsuffizienzpatienten: HICMan (Heidelberg Integrated Case Management) Die chronisch-kongestive Herzinsuffizienz (CHF) ist eine komplexe Erkrankung mit steigender Prävalenz, eingeschränkter Lebensqualität (QoL), ungeplanten Krankenhauseinweisungen, hoher Mortalität und damit hoher Krankheitslast. Die Versorgung dieser Patienten wurde kritisiert, und es wurde gezeigt, dass neue Strategien, die sich auf entscheidende Bereiche der Versorgung beziehen, auf die Gesundheitsergebnisse der Patienten wirksam sind, obwohl diese Studien in der Sekundärversorgung oder in hoch organisierten Gesundheitsorganisationen durchgeführt wurden. Es bleibt unklar, ob ein umfassendes hausärztliches Fallmanagement für den behandelnden Hausarzt die Lebensqualität der Patienten verbessern kann.;-;-;-;https://link.springer.com/article/10.1186/1471-2261-7-25 dccd13ccafaaf1b05637d82e37bc293a;de;;;6.2.;;;Überlebensübersicht bei Patienten mit Hepatitis-C-Virus-assoziiertem hepatozellulärem Karzinom, die mit Peretinoin, einem azyklischen Retinoid, behandelt wurden, nach Abschluss einer randomisierten, placebokontrollierten Studie Diese Studie untersuchte die Auswirkungen von Peretinoin, einem azyklischen Retinoid, auf das Überleben von Patienten mit Hepatitis-C-Virus-assoziiertem hepatozellulärem Karzinom (HCC), die eine kurative Therapie abgeschlossen hatten und an einer randomisierten, placebokontrollierten Studie teilnahmen.;-;-;-;https://link.springer.com/article/10.1007/s00535-014-0996-1 2e63540b941432bc9c8be2d922674a75;de;;;6.2.;;;Rekrutierung und Bindung von Teilnehmern aus sozioökonomisch benachteiligten Gemeinschaften: Lehren aus der randomisierten kontrollierten Studie Awareness and Beliefs About Cancer (ABACus3)us Die Rekrutierung von Forschungsteilnehmern stellt in sozioökonomisch benachteiligten Gebieten eine Herausforderung dar. Die randomisierte Kontrollstudie „Awareness and Beliefs About Cancer“ (ABACus) der Phase 3 rekrutierte erwachsene Teilnehmer aus sozioökonomisch benachteiligten Gebieten unter Verwendung eines kombinierten Modells des Gesundheits- und Gemeindeengagements. Wir berichten über die Strategien zur erfolgreichen Rekrutierung und Bindung unserer Studienteilnehmerstichprobe.;-;-;-;https://link.springer.com/article/10.1186/s12874-020-01149-x 27fa99d8e947dc677924bad205214807;de;;;6.2.;;;Epidemiologie der Malaria bei schwangeren Frauen während ihres ersten Klinikaufenthalts im mittleren Gürtel von Ghana: eine Querschnittsstudie Malaria während der Schwangerschaft kann sowohl bei Müttern als auch bei ihren Föten zu ungünstigen Ergebnissen führen. Ziel dieser Studie war es, die aktuelle Belastung und die Faktoren im Zusammenhang mit Malaria und Anämie bei schwangeren Frauen zu dokumentieren, die ihren ersten Besuch in einer vorgeburtlichen Klinik in einem Gebiet in Ghana mit mehrjähriger Malariaübertragung besuchen.;-;-;-;https://link.springer.com/article/10.1186/s12936-020-03457-5 3ee947441ad92adcbc50b5efb354d282;de;;;6.2.;;;Patienten- und anbieterbezogene Determinanten der generischen und spezifischen gesundheitsbezogenen Lebensqualität von Patienten mit chronischer systolischer Herzinsuffizienz in der Primärversorgung: eine Querschnittsstudie Die Bestimmung der Determinanten der gesundheitsbezogenen Lebensqualität (HRQOL) bei Patienten mit systolischer Herzinsuffizienz (CHF) ist in der Primärversorgung selten, Studien fehlen oft eine definierte Stichprobe, ein umfassendes Variablenset und klare HRQOL-Ergebnisse. Unser Ziel war es, den Einfluss eines solchen Satzes von Variablen auf die generische und krankheitsspezifische HRQOL zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/1477-7525-8-98 d8d6607e8555a217bfb4b17ac1a26da6;de;;;6.2.;;;Wahrnehmung des Bedarfs an psychischer Gesundheit durch die Gemeinschaft: eine qualitative Studie auf den Salomonen Psychosoziale und psychische Gesundheitsbedürfnisse nach Konflikten und Katastrophen haben erhebliche Aufmerksamkeit auf sich gezogen. Auf den Salomonen hat sich die Konzeptualisierung der psychischen Gesundheit, die von politischen Entscheidungsträgern mehrere Jahrzehnte lang in erster Linie als Gesundheitsthema betrachtet wurde, ausgeweitet und in die nationalen entwicklungs- und sozialpolitischen Agenden aufgenommen, was die Anerkennung der Auswirkungen von Konflikten und des schnellen sozialen Wandels auf die das psychosoziale Wohlergehen der gesamten Gemeinschaft Wir versuchten zu verstehen, wie psychische Gesundheit und psychosoziales Wohlbefinden auf Gemeindeebene gesehen wurden, inwieweit diese Probleme mit Perioden von „Spannungen“, Gewalt und Instabilität in Verbindung gebracht wurden, und die Verfügbarkeit traditioneller Ansätze und Dienste des Gesundheitsministeriums um diese Probleme anzugehen.;-;-;-;https://link.springer.com/article/10.1186/1752-4458-3-6 b58bd260cd4d8a294226d09da734d58b;de;;;6.2.;;;Vorgeburtliche Kortikosteroidtherapie zur fetalen Reifung bei Frauen mit Eklampsie und schwerer Präeklampsie in einem ländlichen Krankenhaus in Westtansania Frühgeburten sind eine der Hauptursachen für die Neugeborenensterblichkeit, insbesondere in Ländern mit niedrigem und mittlerem Einkommen. Eine vorgeburtliche Kortikosteroidtherapie zur Reifung des Fötus könnte erhebliche Auswirkungen haben und wird daher oft als wichtige Strategie zur Senkung der Neugeborenensterblichkeit bezeichnet. Eine kürzlich durchgeführte große multinationale Studie hat gezeigt, dass vorgeburtliche Kortikosteroide in Ländern mit niedrigem Einkommen nachteilige Auswirkungen haben können, dies hängt jedoch wahrscheinlich von der spezifischen Umgebung ab. In unserer Klinik wird eine Frühgeburt nur bei schwerer mütterlicher Erkrankung aufgrund einer ärztlich eingeleiteten Entbindung anerkannt. Spontane Frühgeburten werden selten im Krankenhaus beobachtet und finden oft in der Gemeinde oder auf dem Weg zu einer Gesundheitseinrichtung statt.;-;-;-;https://link.springer.com/article/10.1186/s12884-016-1023-8 7ea8aaef816b1a04e3c408421d5dcd95;de;;;6.2.;;;Die Ontario Mother and Infant Study (TOMIS) III: Eine standortübergreifende Kohortenstudie über die Auswirkungen der Entbindungsmethode auf Gesundheit, Servicenutzung und Pflegekosten im ersten Jahr nach der Geburt Die Kaiserschnittrate steigt weltweit weiter an. Ein Kaiserschnitt ist unbestreitbar die bevorzugte Entbindungsmethode, wenn es gute Beweise dafür gibt, dass eine vaginale Entbindung die Gesundheit einer Frau oder ihres Säuglings übermäßig gefährden kann. Alle Entscheidungen über die Entbindungsmethode ohne eindeutige medizinische Indikation sollten auf der Kenntnis der Ergebnisse im Zusammenhang mit verschiedenen Entbindungsmethoden basieren. Es fehlen jedoch verkaufte Beweise für die kurz- und langfristigen Risiken und Vorteile eines geplanten Kaiserschnitts im Vergleich zu einer geplanten vaginalen Entbindung. Es ist auch wichtig, die wirtschaftlichen Aspekte von Kaiserschnitten zu berücksichtigen, aber den Kosten des Gesundheitssystems, die die Leistungen berücksichtigen, die Frauen nach der Entlassung aus dem Krankenhaus für sich selbst und ihre Säuglinge in Anspruch nehmen, wurde nur sehr wenig Aufmerksamkeit geschenkt.;-;-;-;https://link.springer.com/article/10.1186/1471-2393-9-16 2be763da7366e56963a67494eb5eebec;de;;;6.2.;;;Planung und Durchführung einer landesweiten Kampagne zur Lieferung von über 16 Millionen langlebigen Insektizidnetzen in Mosambik In den Jahren 2016/2017 führte Mosambik eine landesweite Universal Coverage Campaign (UCC) mit lang anhaltenden Insektizidnetzen (LLINs) durch. Dieses Papier soll den Planungs- und Umsetzungsprozess der Kampagne in Mosambik beschreiben.;-;-;-;https://link.springer.com/article/10.1186/s12936-018-2406-2 1cf83263a78c74419c0eb4efcc6e668b;de;;;6.2.;;;Auswirkungen der systematischen Tuberkulose-Früherkennung mit Xpert MTB/RIF Ultra bei Kindern mit schwerer Lungenentzündung in Ländern mit hoher Tuberkulosebelastung (TB-Speed-Pneumonie): eine randomisierte Steppkeil-Cluster-Studie In Situationen mit hoher Tuberkulose (TB)-Belastung gibt es zunehmend Hinweise darauf, dass TB bei Kindern mit Lungenentzündung, der weltweit führenden Todesursache bei Kindern unter 5 Jahren, häufig vorkommt. Der aktuelle Behandlungsstandard (SOC) der WHO für Kleinkinder mit Lungenentzündung sieht eine TB-Diagnose nur dann vor, wenn das Kind eine Vorgeschichte mit anhaltenden Symptomen hat oder auf Antibiotikabehandlungen nicht anspricht. Infolgedessen werden derzeit viele Kinder mit TB-assoziierter schwerer Lungenentzündung übersehen oder zu spät diagnostiziert. Wir schlagen daher eine diagnostische Studie vor, um die Auswirkungen auf die Mortalität zu bewerten, wenn die systematische Früherkennung von TB mit Xpert MTB/RIF Ultra (Ultra) an Nasen-Rachen-Aspiraten (NPA) und Stuhlproben zum WHO SOC für Kinder mit schwerer Lungenentzündung hinzugefügt wird durch sofortige Einleitung einer Anti-TB-Behandlung bei Kindern, die bei einer der Proben positiv getestet wurden.;-;-;-;https://link.springer.com/article/10.1186/s12887-021-02576-5 947e43dc698db238ce54a70efe20df38;de;;;6.2.;;;Laienwissen über Gebärmutterhalskrebs im Distrikt Manhiça, Mosambik: eine qualitative Studie Mosambik hat eine der höchsten Inzidenzraten für Gebärmutterhalskrebs weltweit. Gesundheitsinterventionen werden immer noch ausschließlich unter dem Gesichtspunkt nicht übertragbarer Krankheiten konzipiert, obwohl es sich auch um ein Problem der sexuellen und reproduktiven Gesundheit handelt. Das Ziel dieser Studie war es zu beurteilen, inwieweit die Wahrnehmung von Gebärmutterhalskrebs durch Laien mit dem biomedizinischen Wissen vom Standpunkt der sexuellen und reproduktiven Gesundheit übereinstimmt.;-;-;-;https://link.springer.com/article/10.1186/s12978-020-00980-1 73e91eb40002964b93da16041ee899bc;de;;;6.2.;;;Tele-EKG-Beratung und Ergebnisse bei Primärversorgungspatienten in einer Bevölkerung mit niedrigem bis mittlerem Einkommen: die ersten Erfahrungen aus dem Makassar-Telemedizinprogramm, Indonesien Telemedizin ist ein beliebtes Instrument, um den fehlenden Zugang zu Gesundheitseinrichtungen vor allem in benachteiligten Bevölkerungsgruppen zu überwinden. Unser Ziel war es, die Implementierung eines Tele-Elektrokardiographie-Programms (EKG) in der Grundversorgung in Indonesien zu beschreiben und zu bewerten und anschließend die kurz- und mittelfristigen Ergebnisse von Patienten zu untersuchen, die Tele-EKG-Konsultationen erhalten haben.;-;-;-;https://link.springer.com/article/10.1186/s12875-020-01325-4 7c4aef99da4205f409c297e5d35ac227;de;;;6.2.;;;Teilen klinischer Daten in einer Entbindungsstation: Wie vergleichen sich handgehaltene Akten in Papierform und elektronische Patientenakten in Bezug auf Vollständigkeit? In der Vergangenheit wurde der Papier-Hand-Held-Datensatz (PHR) für den Informationsaustausch zwischen Krankenhausärzten, Hausärzten und schwangeren Frauen in einer Umgebung mit geteilter Mutterschaftsversorgung verwendet. Vor kurzem wurde in Übereinstimmung mit einer nationalen E-Health-Agenda eine elektronische Gesundheitsakte (EHR) in einem australischen tertiären Mutterschaftsdienst eingeführt, um die PHR für die Erfassung und Übertragung von Daten zu ersetzen. Ziel dieser Studie war es, die Vollständigkeit der in einer PHR und einer EHR erhobenen klinischen Daten zu überprüfen und zu vergleichen.;-;-;-;https://link.springer.com/article/10.1186/s12913-014-0650-x 14eee692b2ea6f26b52560b0e1ba12ae;de;;;6.2.;;;Evaluation des Fallmanagements von unkomplizierter Malaria in Haiti: eine nationale Umfrage in Gesundheitseinrichtungen, 2012 Malaria ist ein Problem der öffentlichen Gesundheit in Haiti, obwohl es nur begrenzte Daten über ihre Belastung und das Fallmanagement gibt. Die 2012 aktualisierten nationalen Malaria-Richtlinien empfehlen die Behandlung mit Chloroquin und Primaquin. Im Dezember 2012 wurde eine landesweit repräsentative Querschnittsbefragung von Gesundheitseinrichtungen (HFs) durchgeführt, um die Malaria-Prävalenz bei febrilen ambulanten Patienten und die Qualität des Malaria-Fallmanagements zu Beginn vor dem Scale-up der Diagnostik und des Case-Management-Trainings zu bestimmen.;-;-;-;https://link.springer.com/article/10.1186/s12936-015-0901-2 8adcba1808e871720c6feb559e297bf5;de;;;6.2.;;;Eine praxisnahe Studie zur Wirksamkeit der intravitrealen Injektion von Bevacizumab und Ranibizumab zur Behandlung von Netzhauterkrankungen in Thailand Bewertung der Wirksamkeit von intravitrealem Bevacizumab (IVB) und intravitrealem Ranibizumab (IVR) in der Praxis zur Behandlung von Patienten mit Netzhauterkrankungen in Thailand.;-;-;-;https://link.springer.com/article/10.1186/s12886-019-1086-1 30c064d5bf2f1cd592f2dccfdb3dd031;de;;;6.2.;;;Stillmuster und ihre Determinanten bei Müttern, die mit dem Humanen Immunschwächevirus -1 in vier afrikanischen Ländern leben, die an der Studie ANRS 12174 teilnehmen Die HIV-1-Übertragungsraten wurden in den letzten zehn Jahren reduziert, es treten schätzungsweise 2 Millionen Neuinfektionen pro Jahr auf, darunter 220.000 pädiatrische Fälle. Die wichtigste postnatale HIV-Exposition erfolgt durch das Stillen, wobei sowohl die Dauer als auch die Modalitäten (ausschließlich oder nicht) mit einer postnatalen Übertragung in Verbindung stehen. Die Studie ANRS 12174 verglich die postnatale HIV-1-Übertragung von 2 Prophylaxemitteln für Säuglinge während der Stillzeit (Lamivudin und Lopinavir-Ritonavir). Unser Ziel war es, die Ernährungspraktiken und die Determinanten des ausschließlichen/vorherrschenden (EPBF) oder jeglichen Stillens unter den Teilnehmern dieser Studie in Burkina Faso, Südafrika, Uganda und Sambia zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s13006-017-0112-2 7b0c37393a1b194f38e229bdc0322151;de;;;6.2.;;;Führen von Anbietern initiierte HIV-Tests und -Beratungen zu einer höheren Rate von HIV-Tests und HIV-Fällen in ruandischen Kliniken? Anbieter-initiierte HIV-Tests und -Beratung (PITC) werden gefördert, um die Auffindbarkeit von HIV-Fällen zu erhöhen. Wir bewerteten die Wirksamkeit von PITC zur Erhöhung der HIV-Testrate und der HIV-Fallfindung bei ambulanten Patienten in ruandischen Gesundheitseinrichtungen (HF).;-;-;-;https://link.springer.com/article/10.1186/s12879-016-1355-z d3d6476bc2429b674d8acc384aad3aef;de;;;6.2.;;;Early Warning Score: ein dynamischer Marker für Schweregrad und Prognose bei Patienten mit Gram-negativer Bakteriämie und Sepsis Der Early Warning Score (EWS) ist ein physiologischer zusammengesetzter Score aus sechs Vitalparametern am Krankenbett, der routinemäßig in britischen Krankenhäusern verwendet wird. Wir untersuchten die Prognosefähigkeit von EWS bei Gram-negativer Bakteriämie, die Sepsis verursacht.;-;-;-;https://link.springer.com/article/10.1186/s12941-016-0139-z d403b8989a6e7117062695dc85f8c699;de;;;6.2.;;;Protokoll für die Die zunehmende Prävalenz von Typ-2-Diabetes stellt sowohl die klinische als auch die öffentliche Gesundheit vor Herausforderungen. Kostenwirksame Ansätze zur Verhinderung des Fortschreitens der Krankheit in der Primärversorgung sind erforderlich. Es gibt Hinweise darauf, dass intensive multifaktorielle Interventionen, einschließlich Medikation und Verhaltensänderungen, die kardiovaskuläre Morbidität und Mortalität bei Patienten mit etabliertem Typ-2-Diabetes signifikant reduzieren können und dass die Patientenschulung im Selbstmanagement die kurzfristigen Ergebnisse verbessern kann. Bisherige Studien können jedoch die Auswirkungen von Verhaltensinterventionen zur Förderung der Selbstversorgung nicht von anderen Aspekten des intensivmedizinischen Managements isolieren. Das;-;-;-;https://link.springer.com/article/10.1186/1471-2458-11-211 9e43fbd2518267985ae2e77c55f8d053;de;;;6.2.;;;Prävalenz und Korrelate von Depressionen und Angstzuständen bei einer Stichprobe von Diabetikern in Sharjah, Vereinigte Arabische Emirate Typ-2-Diabetes ist in der Golfregion sehr verbreitet, insbesondere in den Vereinigten Arabischen Emiraten (VAE), die weltweit die zweithöchste Prävalenz aufweisen. Zu den Faktoren, die dazu beitragen, gehören eine Ernährungsumstellung, eine sitzende Lebensweise und die daraus resultierende Zunahme der Fettleibigkeit. Diese Veränderungen sind in erster Linie auf die schnelle wirtschaftliche Entwicklung und den Wohlstand zurückzuführen. Ziel dieser Studie war es, die Prävalenz psychischer Belastungen und deren Korrelate bei Diabetikern in den Vereinigten Arabischen Emiraten abzuschätzen.;-;-;-;https://link.springer.com/article/10.1186/1471-2296-11-80 7987c793a0a4bac27189a395ba0de54a;de;;;6.2.;;;Die Akzeptanz von Massenverabreichungen von Malariamedikamenten als Teil der gezielten Malariaelimination in Dörfern entlang der thailändisch-myanmarischen Grenze In Dörfern entlang der Grenze zwischen Thailand und Myanmar wird ein gezieltes Projekt zur Eliminierung von Malaria, einschließlich Massenverabreichung von Arzneimitteln (MDA) von Dihydroartemisinin/Piperaquin sowie einer einzelnen niedrig dosierten Primaquin, durchgeführt. Die Intervention hat mehrere Komponenten, aber der Erfolg des Projekts wird von der Beteiligung der gesamten Gemeinschaften abhängen. Es wurden quantitative Erhebungen durchgeführt, um die Gründe für die Teilnahme oder Nichtteilnahme an der Kampagne zu untersuchen, mit dem Ziel, Faktoren zu identifizieren, die mit der Akzeptanz und Teilnahme an den Massenverabreichungen von Medikamenten verbunden sind.;-;-;-;https://link.springer.com/article/10.1186/s12936-016-1528-7 ebf1d6fdac8bc640b6fed68c41feaa34;de;;;6.2.;;;Phase-I-Studie zur adjuvanten Chemotherapie mit Gemcitabin plus Cisplatin bei Patienten mit Gallenwegskarzinom, die sich einer kurativen Resektion ohne größere Hepatektomie unterziehen (KHBO1004) Wir führten eine Phase-I-Studie durch, um die maximal verträgliche Dosis und die empfohlene Dosis (RD) dieser Kombination von Gemcitabin plus Cisplatin (GC) in der adjuvanten Behandlung bei Gallenwegskrebs (BTC) zu bestimmen. GC hat sich zu einem Standard-Chemotherapieregime für Patienten mit lokal fortgeschrittenem oder metastasiertem BTC entwickelt, jedoch ist der Nutzen einer adjuvanten Therapie für BTC unklar.;-;-;-;https://link.springer.com/article/10.1007/s00280-014-2431-y 537896793ec463ff2b1a3ee52b4e7f55;de;;;6.2.;;;Entwicklung und Validierung eines auf soziodemografischen und Verhaltensmerkmalen basierenden Risiko-Score-Algorithmus zur gezielten HIV-Testung bei Erwachsenen in Kenia Um zielgerichtete HIV-Tests zu unterstützen, haben wir einen Risiko-Score-Algorithmus entwickelt und extern validiert, der Verhaltensmerkmale berücksichtigt. Ambulante Daten von fünf Gesundheitseinrichtungen in Westkenia mit 19.458 Erwachsenen ≥ 15 Jahren, die von September 2017 bis Mai 2018 auf HIV getestet wurden, wurden in uni- und multivariable Analysen zur Algorithmusentwicklung einbezogen. Zur Validierung wurden Daten von 11.330 Erwachsenen verwendet, die eine Einrichtung mit hohem Volumen besuchten. Mit dem endgültigen Algorithmus wurden die Patienten in vier Risiko-Score-Kategorien eingeteilt: ≤ 9, 10–15, 16–29 und ≥ 30, mit steigender HIV-Prävalenz von 0,6 % [95 % Konfidenzintervall (KI) 0,46–0,75], 1,35 % (95 %-KI 0,85–1,84), 2,65 % (95 %-KI 1,8–3,51) bzw. 15,15 % (95 %-KI 9,03–21,27). Die Diskriminationsleistung des Algorithmus war mäßig, mit einer Fläche unter der Receiver-Operating-Kurve von 0,69 (95% CI 0,53–0,84). In Umgebungen, in denen universelle Tests nicht möglich sind, kann ein Risikobewertungsalgorithmus Subpopulationen mit höherem HIV-Risiko identifizieren, die für HIV-Tests priorisiert werden.;-;-;-;https://link.springer.com/article/10.1007/s10461-020-02962-7 ff7c762528bfadea7b301c7d5b6bd385;de;;;6.2.;;;Studie zum Sicherheitsklima in der Primärversorgung (SAP-C): Studienprotokoll für eine randomisierte kontrollierte Machbarkeitsstudie Die Forschung zur Patientensicherheit hat sich weitgehend auf die Sekundärversorgung konzentriert, und es mangelt an Wissen in Bezug auf Sicherheitskultur oder -klima und Strategien zur Verbesserung des Sicherheitsklimas im Kontext der Primärversorgung. Dies ist problematisch angesichts der hohen Inanspruchnahme von Primärversorgungsdiensten und der unzähligen Möglichkeiten für klinische Fehler täglich. Das aktuelle Forschungsprogramm zielte darauf ab, die Wirksamkeit einer Intervention zu bewerten, die aus dem schottischen Patientensicherheitsprogramm in der Primärversorgung abgeleitet wurde. Die Intervention besteht aus einer Sicherheitsklimamessung und -rückmeldung sowie einem Audit der Patientenakte mit der Trigger-Review-Methode. Der Zweck dieses Papiers ist es, den Hintergrund dieser Forschung zu beschreiben und die Methodik dieser Machbarkeitsstudie in Vorbereitung auf eine zukünftige definitive RCT vorzustellen.;-;-;-;https://link.springer.com/article/10.1186/s40814-016-0096-5 306b9d656237b5e4f1bdc3c471c8a77b;de;;;6.2.;;;Untersuchung der Wirkung des Interleukin-1-Rezeptor-Antagonisten (IL-1ra) auf Entzündungsmarker bei akuten Koronarsyndromen ohne ST-Hebung (Die MRC-ILA-HEART-Studie) Akute Koronarsyndrome machen 15 % der Todesfälle im Vereinigten Königreich aus, und die Patienten bleiben einem erheblichen Risiko einer erneuten Aufnahme aufgrund zukünftiger Komplikationen und des Todes ausgesetzt. Pathologisch wird der zugrunde liegende Prozess der Atherosklerose durch entzündliche Mechanismen getrieben, die bei ACS-Patienten aktiviert werden. Frühere Studien haben die Rolle von Entzündungsmarkern in diesem Prozess untersucht, darunter Interleukin 1 (IL-1) und C-reaktives Protein (CRP). Präklinische Studien weisen darauf hin, dass IL-1 ein primärer Auslöser von ACS sein könnte und dass der natürlich vorkommende Interleukin-1-Rezeptor-Antagonist (IL-1ra) den atherosklerotischen Prozess hemmen kann. Diese Studie wird die Auswirkungen von IL-1ra auf Entzündungsmarker beim Menschen untersuchen.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-9-8 c9f762621c138b098a44c6fc57f78ec1;de;;;6.2.;;;Die indirekten und direkten Wege zwischen körperlicher Fitness und schulischer Leistung beim Eintritt in die nachobligatorische Ausbildung in einer historischen Kohorte dänischer Schuljugend Einige Studien haben positive Assoziationen zwischen körperlicher Fitness und akademischen Leistungen gefunden. Die schulischen Leistungen der Schülerinnen und Schüler sollen auf die schulischen Fähigkeiten hinweisen, um eine nachobligatorische Ausbildung zu beginnen. Das Ausmaß der Auswirkung von körperlicher Fitness und akademischen Leistungen auf den Eintritt in die nachobligatorische Ausbildung ist jedoch unbekannt. Wir untersuchten die Verläufe zwischen körperlicher Fitness und schulischer Leistung beim Eintritt der Schüler in die nachobligatorische Bildung.;-;-;-;https://link.springer.com/article/10.1186/s12889-017-4712-y 4b18e9e3f8eb215fe148b86680d03b08;de;;;6.2.;;;Verbesserung der Kontinuität der Patientenversorgung über Sektoren hinweg: Studienprotokoll einer quasi-experimentellen multizentrischen Studie zu einem Aufnahme- und Entlassungsmodell in Deutschland (VESPEERA) Krankenhausaufenthalte sind ein kritisches Ereignis im Pflegeprozess. Mangelnde Kommunikation und unkoordinierte Nachsorge behindern oft den Genesungsprozess des Patienten, was zu einer hohen Zahl von Rehospitalisierungen und erhöhten Gesundheitskosten führt. Das übergeordnete Ziel dieser Studie ist die Entwicklung, Implementierung und Evaluation eines strukturierten Programms (VESPEERA) zur Verbesserung des Aufnahme- und Entlassungsprozesses.;-;-;-;https://link.springer.com/article/10.1186/s12913-019-4022-4 d0c4df2f6673cbc4e7800c13f823b752;de;;;6.2.;;;Kosten von Rotavirus-Durchfall für die programmatische Evaluierung der Impfung in Vietnam Rotavirus ist die häufigste Ätiologie von durchfallbedingten Krankenhausaufenthalten und Klinikbesuchen bei vietnamesischen Kindern unter 5 Jahren. Um die wirtschaftliche Belastung durch Rotavirus-assoziierte formelle Gesundheitskontakte abzuschätzen, wurde eine wirtschaftliche Studie durchgeführt.;-;-;-;https://link.springer.com/article/10.1186/s12889-016-3458-2 623450910dd6acc9632e1bf4a1c955be;de;;;6.2.;;;Prävalenz und Determinanten der Anwendung von Verhütungsmitteln bei verheirateten Frauen am Standort des Dabat Health and Demographic Surveillance System im Nordwesten Äthiopiens Trotz der enormen Vorteile von Familienplanungsdiensten ist der Einsatz von Verhütungsmitteln in Subsahara-Afrika nach wie vor gering. In Äthiopien gibt es regionale Unterschiede in der Anwendung moderner Verhütungsmittel. Daher zielte diese Studie darauf ab, die Prävalenz des Einsatzes moderner Verhütungsmittel und Determinanten am Standort Dabat demografischen und Gesundheitsüberwachungssystem im Nordwesten Äthiopiens zu bestimmen.;-;-;-;https://link.springer.com/article/10.1186/s12905-018-0611-3 9b2841b3a87b128f58159bc3074d82a7;de;;;6.2.;;;Schwerwiegende unerwünschte Arzneimittelwirkungen in zwei Kinderkrankenhäusern in Südafrika Die hohe HIV-Prävalenz in Südafrika kann möglicherweise die lokale Belastung durch unerwünschte Arzneimittelwirkungen (UAW) beeinflussen. Unser Ziel war es, die Prävalenz und die Merkmale von schweren UAW bei der Aufnahme und während der Aufnahme in zwei südafrikanische Kinderkrankenhäuser zu beschreiben.;-;-;-;https://link.springer.com/article/10.1186/s12887-019-1892-x d0ca5453c7c0284af3e9cea79fbb8ed2;de;;;6.2.;;;Einhaltung nationaler Leitlinien zur Diagnose und Behandlung schwerer Malaria: eine landesweite Querschnittsstudie in Malawi, 2012 Schwere Malaria hat eine Sterblichkeitsrate von 10-20 %, jedoch haben sich nur wenige Studien mit der Qualität des Fallmanagements schwerer Malaria befasst. Diese Studie bewertete die Diagnose- und Behandlungspraxis von Malariapatienten, die in stationäre Gesundheitseinrichtungen (HF) in Malawi aufgenommen wurden.;-;-;-;https://link.springer.com/article/10.1186/s12936-016-1423-2 58c71674516eb7ac19e8348f18e251a8;de;;;6.2.;;;Transversale Hinterkopfposition: Manuelle Rotation zur Unterstützung einer normalen Geburt und Verbesserung der Entbindung ERGEBNISSE (TURN-OUT): Ein Studienprotokoll für eine randomisierte kontrollierte Studie Die transversale Position des fetalen Okziputs in Form eines tiefen transversalen Stillstands wird seit langem mit einem Kaiserschnitt und einer instrumentellen vaginalen Entbindung in Verbindung gebracht. Die transversale Hinterkopfposition, die zufällig im zweiten Stadium der Wehen gefunden wird, ist auch mit der operativen Entbindung in Hochrisikokohorten verbunden. Es gibt Hinweise aus Kohortenstudien, dass eine prophylaktische manuelle Rotation die Kaiserschnittrate reduziert. Dies ist ein Protokoll für eine doppelblinde, multizentrische, randomisierte, kontrollierte klinische Studie, um zu bestimmen, ob diese Intervention die operative Entbindungsrate (Kaiserschnitt, Zange oder Vakuumentbindung) verringert.;-;-;-;https://link.springer.com/article/10.1186/s13063-015-0854-3 dfc6a565de3dbfe52bdb403f15935ad2;de;;;6.2.;;;Auswirkungen von Land-Stadt-Aufenthalt und Bildung auf Gewalt in Partnerschaften bei Frauen in Subsahara-Afrika: eine Metaanalyse von Daten aus Gesundheitsumfragen Gewalt in Partnerschaften (IPV) gegen Frauen ist weltweit ein großes Problem im Bereich der öffentlichen Gesundheit und der Menschenrechte. Subsahara-Afrika (SSA) hat eine der höchsten Prävalenzen von IPV gegen Frauen weltweit. In dieser Studie wurde eine Metaanalyse verwendet, um zusammengefasste Unterschiede zwischen Land und Stadt sowie Bildungsabschlüssen in der Prävalenz von IPV bei Frauen mit ständiger Partnerschaft in SSA zu erhalten, und bewertete, ob die Unterschiede in IPV von der SSA-Region oder Periode oder dem Alter der Frauen abhingen.;-;-;-;https://link.springer.com/article/10.1186/s12905-021-01286-5 94fcec9526276e468c1779ed2141f174;de;;;6.2.;;;Strategien zur Veröffentlichung In diesem Kapitel werden kurz verschiedene Aspekte und Strategien diskutiert, die im Publikationsprozess zu berücksichtigen sind. Es werden vorteilhafte Faktoren auf verschiedenen Ebenen gesammelt. Im Kontext der Publikationspyramide wird der gemeinsame Ansatz einer Bottom-up-Strategie, d. Abschließend werden einige Überlegungen zur Zeitschriftenauswahl erarbeitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38646-6_9 a99d609adc4b08d0e723f283b5eaa0d4;de;;;6.2.;;;Ein haitianischer Ökodistrikt: Konzeptentwurf für eine integrierte Basisinfrastruktur für die Gemeinde Léogâne Der Inselstaat Haiti stellt die internationale Entwicklungsgemeinschaft vor eine ständige Herausforderung. Politische Instabilität und ein Mangel an grundlegenden öffentlichen Dienstleistungen in Verbindung mit schwachen technischen und finanziellen Kapazitäten untergraben gemeinsam sowohl die Philanthropie als auch die internationalen Investitionen. Haitis tragische Anfälligkeit für Naturkatastrophen (Erdbeben und Wirbelstürme) und die daraus resultierenden Krisen im Bereich der öffentlichen Gesundheit haben das Ausmaß der Not noch verstärkt. Diese komplexen, miteinander verbundenen Umstände verdammen Single-Thread-Lösungen.;-;-;-;https://link.springer.com/article/10.1186/2194-6434-1-4 298e6c32bf3784dea40aac774d0586c9;de;;;6.2.;;;Genomische Untersuchung, Expressionsprofil und Co-Expressionsnetzwerkanalyse von WD40-Proteine ​​stellen eine große Familie in Eukaryoten dar, die an einem breiten Spektrum wichtiger Funktionen beteiligt sind. Systematische Charakterisierung und Co-Expressionsanalyse von;-;-;-;https://link.springer.com/article/10.1186/1471-2164-13-100 6026d8990019bb630367fda9397d05bd;de;;;6.2.;;;Errungenschaften des Bevölkerungsschutzes und kritische Fragen in der Seismologie und der Erdbebeningenieurforschung Eine große Komplexität kennzeichnet die Beziehungen zwischen Wissenschaft und Bevölkerungsschutz. Die Wissenschaft erzielt Fortschritte, die es Zivilschutzorganisationen ermöglichen, immer effektiver Entscheidungen zu treffen und Maßnahmen zu ergreifen. Sofern diese Fortschritte gefestigt und von einem großen Teil der Wissenschaft getragen werden, muss der Bevölkerungsschutz sie in seinen Arbeitsabläufen und in seinen Entscheidungsprozessen berücksichtigen und dabei mit den wissenschaftlichen Erkenntnissen, um eine späte Verfolgung zu vermeiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16964-4_2 a12e8d9236b3a861893d67012413100e;de;;;6.2.;;;Management von invasiven Die invasive Pflanzenbewirtschaftung (größtenteils mechanisch und chemisch) verbraucht einen immer größeren Teil des Budgets von Landbewirtschaftungsorganisationen, aber Erfolgsmaßstäbe, abgesehen von den behandelten Flächen oder den aufgewendeten Ressourcen, sind selten verfügbar. Hier bewerten wir den Erfolg des Managements von 346 Populationen von invasiven;-;-;-;https://link.springer.com/article/10.1007/s10530-017-1513-2 a01dcf09003f02b94a6ad60fc46f7a5b;de;;;6.2.;;;Kontinuität der Betreuung von Kindern mit besonderem Gesundheitsbedarf: eine qualitative Studie zur Perspektive der Familie Erforschung der Erfahrungen und Wahrnehmungen der Eltern in Bezug auf die Informations-, Management- und Beziehungskontinuität der Betreuung von Kindern mit besonderen Gesundheitsbedürfnissen vom Krankenhausaufenthalt bis zu den ersten Monaten nach der Entlassung aus dem Heim;-;-;-;https://link.springer.com/article/10.1186/s13052-015-0114-x 9a7398c70b479dfa339b1d0f887f1add;de;;;6.2.;;;Genomische multiple Sequenz-Alignments: Verfeinerung mit einem genetischen Algorithmus Genomische Sequenzdaten können isoliert nicht vollständig gewürdigt werden. Die vergleichende Genomik – der Vergleich genomischer Sequenzen verschiedener Arten – spielt eine immer wichtigere Rolle beim Verständnis der genotypischen Unterschiede zwischen Arten, die zu phänotypischen Unterschieden führen, sowie beim Aufdecken von Mustern evolutionärer Beziehungen. Eine der größten Herausforderungen in der vergleichenden Genomik besteht darin, ein qualitativ hochwertiges Alignment zwischen zwei oder mehr verwandten Genomsequenzen herzustellen. In den letzten Jahren wurde eine Reihe von Werkzeugen zum Alignment großer Genomsequenzen entwickelt. Die meisten verwenden heuristische Strategien, um eine Reihe starker Sequenzähnlichkeiten zu identifizieren, die dann als Anker verwendet werden, um die Regionen zwischen den Ankerpunkten auszurichten. Das resultierende Alignment ist global korrekt, aber in vielen Fällen lokal suboptimal. Wir beschreiben ein neues Programm, GenAlignRefine, das die Gesamtqualität globaler multipler Ausrichtungen verbessert, indem ein genetischer Algorithmus verwendet wird, um lokale Ausrichtungsregionen zu verbessern. Regionen mit geringer Qualität werden identifiziert, mit dem Programm T-Coffee neu ausgerichtet und anschließend mit einem genetischen Algorithmus verfeinert. Da ein besserer COFFEE-Score (Consistency Based Objective Function For alignmEnt Evaluation) im Allgemeinen eine höhere Alignment-Qualität widerspiegelt, sucht der Algorithmus nach einem Alignment, das einen besseren COFFEE-Score liefert. Um die intrinsische Langsamkeit des genetischen Algorithmus zu verbessern, wurde GenAlignRefine als paralleles, clusterbasiertes Programm implementiert.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-6-200 682507ca5838cabb8f35a36165af36f0;de;;;6.2.;;;Quellprozesse des Erdbebendubletts von 2009 in Irian Jaya, Indonesien Am 3. Januar 2009 UT ereignete sich ein Erdbebendublett mit Momentenmagnituden von 7,6 und 7,4 entlang des Grabens in Neuguinea nahe der Nordküste von Irian Jaya, Indonesien. Die Ereignisse waren drei Stunden in der Zeit und 60 km im Weltraum voneinander getrennt und hatten ähnliche Schubverwerfungsmechanismen. Die östlich des Quellgebiets liegenden Regionen der Salomonen und der Neuen Britischen Inseln sind aufgrund der komplexen tektonischen Gegebenheiten für das Auftreten von Erdbebendubletts bekannt. Um die Quellprozesse des Erdbebendubletts zu untersuchen, haben wir teleseismische Wellenforminversionen mit durchgeführt;-;-;-;https://link.springer.com/article/10.5047/eps.2010.02.008 7b55bafcf914a53ed854848c5f98e097;de;;;6.2.;;;Bewertung der Kluft zwischen Technologie und ökologischer Nachhaltigkeit europäischer Städte Das Bevölkerungswachstum in Städten hat das Interesse an den Chancen und Herausforderungen der Informations- und Kommunikationstechnologie (IKT) bei der Reduzierung des CO2-Fußabdrucks erhöht, was ihre ökologische Nachhaltigkeit fördert. Mithilfe der Hauptkomponentenanalyse (PCA) wurden sechs IKT-bezogene Variablen aus Städten der Europäischen Union (EU) zu einem einzigen zweidimensionalen IKT-Index kombiniert. Anschließend wurden die Städte durch eine Clusteranalyse in vier Gruppen eingeteilt, basierend auf dem IKT-Index und dem Kohlendioxid (CO;-;-;-;https://link.springer.com/article/10.1007/s10796-019-09903-3 de4e109608c9aa30572da240033fe24e;de;;;6.2.;;;Die Auswirkungen tropischer Stürme auf die Anhäufung und Zusammensetzung der Staatsschulden Dieser Beitrag untersucht die Auswirkungen tropischer Stürme auf die Anhäufung und den Abbau von Staatsschulden. Zu diesem Zweck kombinieren wir vierteljährliche Schuldendaten und Tropensturm-Schadendaten für den Zeitraum 1993–2013 für die östliche Karibik. Unsere ökonometrischen Ergebnisse zeigen, dass schädliche Stürme dazu führen, dass die Schulden bis zu drei Viertel nach dem Ereignis steigen, wobei dieser Anstieg bei ausreichenden Stürmen erheblich sein kann. Ein Großteil dieses Schuldenanstiegs ist auf die Kreditaufnahme der Zentralregierung bei ausländischen Kreditgebern zurückzuführen. Gleichzeitig kommt es auch zu einer gewissen Verlagerung des Schuldenanteils in Richtung öffentlicher Unternehmen, die jedoch tendenziell stärker mit einer Finanzierung aus inländischen Quellen reagieren.;-;-;-;https://link.springer.com/article/10.1007/s10797-020-09622-5 0bde4c209c6c52accb08f0e4bbf8f752;de;;;6.2.;;;Ergebnisse des nationalen Programms zur Prävention der Mutter-Kind-Übertragung des Hepatitis-B-Virus in China, 2016–2017 Zusätzlich zur Bereitstellung kostenloser Hepatitis-B-Impfstoffe (HBvacc) für alle Säuglinge in China seit 2005 hat das nationale Programm zur Prävention der Mutter-Kind-Übertragung (PMTCT) des Hepatitis-B-Virus (HBV) damit begonnen, kostenloses Hepatitis-B-Immunglobulin für alle bereitzustellen Neugeborene von Hepatitis-B-Oberflächenantigen (HBsAg)-positiven Müttern im Jahr 2010. Allerdings haben nur wenige Studien die Wirksamkeit des PMTCT-Programms untersucht. Daher wollten wir die Ergebnisse des Programms untersuchen und die damit verbundenen Faktoren identifizieren.;-;-;-;https://link.springer.com/article/10.1186/s40249-019-0576-y f0e14427d402d754e3c79a3bf1088a24;de;;;6.2.;;;Geschlechtsunterschied in der Assoziation des metabolischen Syndroms mit hochsensiblem C-reaktivem Protein in einer taiwanesischen Bevölkerung Obwohl für Assoziationen zwischen Komponenten des metabolischen Syndroms und Entzündungen über geschlechtsspezifische Unterschiede berichtet wurde, wurde die Frage, ob eine geschlechtsspezifische Effektmodifikation bei der Assoziation zwischen Entzündung und metabolischem Syndrom vorliegt, nicht im Detail untersucht. Daher war das Ziel dieser Studie, die Assoziationen von hochsensiblem C-kreativem Protein (hs-CRP) mit dem metabolischen Syndrom und seinen Komponenten zwischen Männern und Frauen zu vergleichen.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-10-429 7f4173329ac7b8ae7d3774a2c1c0cc1a;de;;;6.2.;;;Kommunikationsanforderungen von vulkanischen Ashfall-Ereignissen Vulkanasche entsteht bei explosiven Vulkanausbrüchen, wird durch die vorherrschenden Winde verteilt und kann auf Gemeinden in Hunderten oder sogar Tausenden Kilometern Entfernung abgelagert werden. Die große geografische Reichweite von Aschefällen macht sie zur vulkanischen Gefahr, von der am wahrscheinlichsten die meisten Menschen betroffen sind. Allerdings ist es eine große Herausforderung, vorherzusagen, wie viel Asche wo und mit welchen Eigenschaften fallen wird. Unterschiedliche soziale Kontexte, Ashfall-Eigenschaften und Eruptionsdauern stellen einzigartige Herausforderungen bei der Bestimmung der Auswirkungen dar, die weitreichend und oft nur unzureichend verstanden sind. Folglich muss eine Reihe von Kommunikationsstrategien in einer Vielzahl unterschiedlicher Umgebungen angewendet werden. Im Großen und Ganzen hängt das Ausmaß der Auswirkungen von der Menge der abgelagerten Asche und ihren Eigenschaften (Gefährdung) sowie der Anzahl und Verteilung von Personen und Vermögenswerten (Exposition) und der Fähigkeit von Personen und Vermögenswerten ab, den Aschefall zu bewältigen (Belastbarkeit und/oder Verletzlichkeit). Ein besseres Wissen über die wahrscheinlichen Auswirkungen kann Minderungsmaßnahmen, Krisenplanung und Notfallmanagementaktivitäten unterstützen. Eine sorgfältige, überlegte und gut geplante Kommunikation vor und während einer Vulkanaschekrise kann die physischen, wirtschaftlichen und psychosozialen Auswirkungen erheblich reduzieren. Wir beschreiben die Faktoren, die zu der komplexen Kommunikationsumgebung im Zusammenhang mit Aschesturzgefahren beitragen, beschreiben derzeit verfügbare Informationsprodukte und -instrumente und reflektieren die Lehren aus einer Reihe von Fallstudien-Aschesturzereignissen. Wir diskutieren derzeit verfügbare Kommunikationsinstrumente für die Schlüsselsektoren öffentliche Gesundheit, Landwirtschaft und kritische Infrastruktur sowie den Informationsbedarf, der durch Aschereinigungsaktionen entsteht. Wir schließen mit Überlegungen zu den besonderen Herausforderungen, die langfristige Eruptionen mit sich bringen, und den Auswirkungen auf die Erholung nach Aschesturz.;-;-;-;https://link.springer.com/chapter/10.1007/11157_2016_19 f0e775c9b57ead0576dd84ad7dd7c23d;de;;;6.2.;;;Ein integriertes Framework für das Management von Videosammlungen Der Abruf von Videodokumenten ist heute ein aktiver Teil des Bereichs des Multimedia-Abrufs. Im Gegensatz zu anderen Medien bringt die Verwaltung einer Sammlung von Videodokumenten jedoch das Problem der effizienten Handhabung einer überwältigenden Menge an Zeitdaten mit sich. Zu den Herausforderungen gehört das Abwägen einer effizienten Inhaltsmodellierung und -speicherung mit einem schnellen Zugriff auf verschiedenen Ebenen. In diesem Whitepaper beschreiben wir detailliert das Framework, das wir für unsere Entwicklungen beim inhaltsbasierten Multimedia-Retrieval entwickelt haben. Wir zeigen, dass unser Framework nicht nur die Entwicklung von Verarbeitungs- und Indexierungsalgorithmen erleichtert, sondern auch den Weg für mehrere andere Möglichkeiten wie Rapid Interface Prototyping oder Benchmarking von Retrieval-Algorithmen öffnet. In dieser Hinsicht diskutieren wir unsere Entwicklungen in Bezug auf breitere Kontexte wie MPEG-7 und The TREC Video Track.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30568-2_9 7a66034a35a13d3dbd14618c727c890e;de;;;6.2.;;;Zur Vorhersage des Malariarisikos in Afghanistan mithilfe von Fernerkundung Malaria ist ein bedeutendes Gesundheitsproblem in Afghanistan. Derzeit leben etwa 60 % der Bevölkerung oder fast 14 Millionen Menschen in einem Malaria-Endemiegebiet. Afghanistans vielfältige Landschaft und Gelände tragen zur heterogenen Malariaprävalenz im ganzen Land bei. Das Verständnis der Rolle von Umweltvariablen bei der Malariaübertragung kann die Bemühungen um ein Malaria-Kontrollprogramm fördern.;-;-;-;https://link.springer.com/article/10.1186/1475-2875-9-125 211fcf330f671bd2ad73ed44884c2bb3;de;;;6.2.;;;Identifizierung von Ovula-Transkripten aus dem Apospory-Specific Genomic Region (ASGR)-Trägerchromosom Apomixis, die asexuelle Samenproduktion in Pflanzen, birgt ein großes Potenzial für die Landwirtschaft als Mittel zur Fixierung der Hybridkraft. Aposporie ist eine Form der Apomixis, bei der sich der Embryo aus einer nicht reduzierten Eizelle entwickelt, die aus einer somatischen Kernzelle, der aposporösen Initiale, über Mitose stammt. Das Verständnis des molekularen Mechanismus, der die aposporöse initiale Spezifikation reguliert, wird ein entscheidender Schritt zur Aufklärung von Apomixis sein und auch Einblicke in die Entwicklungsregulation und nachgelagerte Signalgebung geben, die zu Apomixis führt. Um Kandidatentranskripte zur Regulierung der aposporösen Anfangsspezifikation in . zu entdecken;-;-;-;https://link.springer.com/article/10.1186/1471-2164-12-206 2d1ea2cb14f1713968507bf50d92a9dc;de;;;6.2.;;;Benennung von Reizen bei der Äquivalenzklassenbildung bei Kindern In der vorliegenden Studie wurden zwei sich typischerweise entwickelnde 4-jährige Kinder, Pete und Joe, sechs bedingte Diskriminierungen trainiert und auf die Bildung von drei 3-köpfigen Äquivalenzklassen getestet. Pete und Joe stellten die AC-Beziehung innerhalb von 600 Versuchen nicht her und erhielten zwei Bedingungen für ein vorbereitendes Training, einschließlich der Benennung von Stimuli mit zwei verschiedenen Stimulus-Sets. Pete begann mit einem Vortraining mit der gemeinsamen Benennung von Stimuli, gefolgt von einem Training zur bedingten Diskriminierung und dem Testen auf emergente Beziehungen, und fuhr mit einem Vortraining zur individuellen Benennung von Stimuli fort, gefolgt von dem gleichen Training und Testen wie zuvor beschrieben. Joe erlebte die gleichen Bedingungen, aber in umgekehrter Reihenfolge. Pete reagierte entsprechend der Gleichwertigkeit in der zweiten Runde in der Bedingung mit gemeinsamer Namensgebung. In der ersten Testrunde in der Bedingung mit individueller Benennung reagierte er entsprechend der Gleichwertigkeit. In der Bedingung mit individueller Benennung reagierte Joe nicht nach Stimulusäquivalenz, sondern stellte alle direkt trainierten Beziehungen während des Trainings her. In der Bedingung mit gemeinsamer Benennung reagierte er in der ersten Testrunde entsprechend der Äquivalenz. Die Ergebnisse des Experiments unterstützen frühere Erkenntnisse, dass sowohl gemeinsame als auch individuelle Benennungen die Entstehung von Äquivalenzklassen erleichtern könnten.;-;-;-;https://link.springer.com/article/10.1007/s40616-021-00143-8 847483368df5286327bd3a727e24c532;de;;;6.2.;;;Aktuelle Nutzung und zukünftige Trends in der Bruttodigitalfotografie in Kanada Der Zweck dieser Studie bestand darin, die aktuelle Nutzung, Nutzung und zukünftige Ausrichtung der digitalen Fotografie von groben chirurgischen Präparaten in Pathologielabors in ganz Kanada zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/1472-6920-14-11 1f0d0bb35e253635675f816f4b491368;de;;;6.2.;;;Fischereimanagement in Japan In Japan gibt es nur wenige legale Meeresschutzgebiete und keine Fischereiverbotsgebiete. Fischer suchten keine legalen Fangverbotsgebiete auf, aber sie richteten Fangverbotsgebiete durch autonome Stützpunkte ein. Wir stellen kurz die institutionelle Geschichte und Merkmale des japanischen Küstenfischereimanagements vor, einschließlich der wichtigsten gesetzgeberischen Entwicklungen des letzten Jahrzehnts. Japan verfügt noch immer über ein dezentralisiertes Co-Management-System, an dem Fischer und die Regierung beteiligt sind, und ca. 98% der japanischen Fischer sind handwerklich. Es gibt mehrere erfolgreiche Fälle von Küstenfischereimanagement in Japan. Allerdings hat die Offshore-Industriefischerei in Japan Probleme. Wir vergleichen das gemeinsame Management der Küstenfischerei zwischen Japan und Chile. Schließlich diskutieren wir die Möglichkeit einer Verbesserung für die japanische Fischerei.;-;-;-;https://link.springer.com/article/10.1007/s11284-010-0748-5 a5650af0a6f35263ae320274f4d01aa7;de;;;6.2.;;;Semantikbasierte Informationsextraktion zur Erkennung wirtschaftlicher Ereignisse Da die Finanzmärkte von heute empfindlich auf aktuelle Nachrichten zu Wirtschaftsereignissen reagieren, ist eine genaue und rechtzeitige automatische Identifizierung von Ereignissen in Nachrichten von entscheidender Bedeutung. Unstrukturierte Nachrichten, die aus vielen heterogenen Quellen stammen, müssen gemined werden, um nützliches Wissen für die Entscheidungsfindung zu gewinnen. Daher schlagen wir die Semantics-Based Pipeline for Economic Event Detection (SPEED) vor, die sich darauf konzentriert, Finanzereignisse aus Nachrichtenartikeln zu extrahieren und diese mit Metadaten in einer Geschwindigkeit zu versehen, die eine Echtzeitnutzung ermöglicht. In unserer Implementierung verwenden wir einige Komponenten eines bestehenden Frameworks sowie neue Komponenten, z. B. einen leistungsstarken Ontology Gazetteer, eine Word Group Look-Up-Komponente, einen Word Sense Disambiguator und Komponenten zur Erkennung wirtschaftlicher Ereignisse. Durch ihre Interaktion mit einer domänenspezifischen Ontologie bilden unsere neuartigen, semantisch aktivierten Komponenten eine Rückkopplungsschleife, die die zukünftige Wiederverwendung von erworbenem Wissen im Ereigniserkennungsprozess fördert.;-;-;-;https://link.springer.com/article/10.1007/s11042-012-1122-0 c006bddacdde61494945a55e634f7e15;de;;;6.2.;;;Multizentrisches Fall-Kontroll-Studienprotokoll der Pneumonie-Ätiologie bei Kindern: Globaler Ansatz für biologische Forschung, Infektionskrankheiten und Epidemien in Ländern mit niedrigem Einkommen (GABRIEL-Netzwerk) Die Daten zur Ätiologie der Lungenentzündung bei Kindern sind unzureichend, insbesondere in Entwicklungsländern. Das Hauptziel ist die Durchführung einer multizentrischen Fall-Kontroll-Studie von <5-jährigen Kindern, die mit Lungenentzündung in Entwicklungs- und Schwellenländern ins Krankenhaus eingeliefert wurden, mit dem Ziel, die Erreger der Lungenentzündung zu identifizieren und gleichzeitig individuelle und mikrobielle Faktoren im Zusammenhang mit dem Risiko von schwere Lungenentzündung.;-;-;-;https://link.springer.com/article/10.1186/s12879-014-0635-8 9dcd45405f4741b5dd818f6953ad985e;de;;;6.2.;;;Life Cycle Management: Umsetzung von Nachhaltigkeit in die Geschäftspraxis Life Cycle Management ist ein betriebswirtschaftliches Konzept, das in Industrie- und Dienstleistungssektoren angewendet wird, um Produkte und Dienstleistungen zu verbessern und gleichzeitig die Nachhaltigkeitsleistung des Unternehmens und seiner Wertschöpfungsketten insgesamt zu verbessern. Lebenszyklusdenken und Produktnachhaltigkeit sind für Unternehmen geeignet, die ehrgeizig sind und sich verpflichtet haben, ihre ökologischen und sozioökonomischen Belastungen zu reduzieren und gleichzeitig den wirtschaftlichen und sozialen Wert zu maximieren. Dabei wird Life Cycle Management über den kurzfristigen Geschäftserfolg hinaus eingesetzt und zielt auf langfristige Erfolge ab. Der Begriff „Lebenszyklusmanagement“ wurde mit anderen Verwendungen im Engineering und in der Fertigung (Produktlebenszyklusmanagement) und in der Softwareentwicklung (Anwendungslebenszyklusmanagement), in Gebäuden, Anlagen, Informationsmanagement usw. verwechselt. Dieser Begriff und seine Definition müssen mehr als ein Jahrzehnt seit seiner Einführung geklärt werden. Dieses Kapitel zielt darauf ab, das Konzept und die Definitionen des Lebenszyklusmanagements, wie sie derzeit in der Literatur zu finden sind, zu erarbeiten und es von der Konzentration auf die Implementierung der Ökobilanz der Nachhaltigkeit in die Geschäftspraxis auf die Einbeziehung in nachhaltige Konsum- und Produktionsstrategien und -politiken auszuweiten. Die verwendeten Methoden und Instrumente sowie der allgemeine Rahmen für das Lebenszyklus-Nachhaltigkeitsmanagement, das ökologische, soziale und ökonomische Aspekte in der Geschäftspraxis abdeckt, werden ausführlich diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-7221-1_2 1dc93a366ba4d83069898479cf0969e0;de;;;6.2.;;;Känguru-Mutterpflege: EN-BIRTH Multi-Country-Validierungsstudie Kangaroo Mother Care (KMC) reduziert die Sterblichkeit bei stabilen Neugeborenen 2000 g. Der Mangel an Datenverfolgungsabdeckung und -qualität von KMC sowohl in Umfragen als auch in routinemäßigen Informationssystemen behindert die Erweiterung. Dieses Papier bewertet die KMC-Messung als Teil der;-;-;-;https://link.springer.com/article/10.1186/s12884-020-03423-8 33769ba38babe8d3be49c2a5bac1b0cb;de;;;6.2.;;;Einführung der Arbeitslosenversicherung in Entwicklungsländern Das Papier analysiert die wichtigsten Arbeitsmarkt- und institutionellen Merkmale von Entwicklungsländern, die sich auf das Funktionieren der Arbeitslosenversicherung auswirken: ein großer informeller Sektor, schwache Verwaltungskapazitäten und ein großes politisches Risiko. Darin wird argumentiert, dass diese Länder ein Arbeitslosenversicherungsprogramm nach OECD-Stil an ihre Umstände anpassen sollten, unter anderem indem sie sich auf Selbstversicherung (über Arbeitslosenversicherungs-Sparkonten) verlassen, ergänzt durch Solidaritätsfinanzierung als Hauptfinanzierungsquelle, indem die Überwachung Arbeitssucheverhalten und Arbeitsmarktstatus sowie durch Huckepack-Zugriff auf bestehende Netzwerke zur Verwaltung von Leistungen. Das Papier befasst sich auch mit der Frage, ob Entwicklungsländer eine Arbeitslosenversicherung einführen sollten.;-;-;-;https://link.springer.com/article/10.1186/2193-9004-2-1 794d089947bed14c0063ba02994a0aa7;de;;;6.2.;;;Status des Internationalen Schwerkraftreferenzsystems und -rahmens Die zunehmende Bedeutung der terrestrischen Gravimetrie bei der Überwachung globaler Veränderungsprozesse, als Referenz für Satellitenmessungen und in Anwendungen in der Metrologie erfordert ein stabiles Referenzsystem, das die von modernen Gravimetern erreichbare Messgenauigkeit widerspiegelt. Daher hat die International Association of Geodesy (IAG) in den letzten zehn Jahren ein System entwickelt, um eine genaue, homogene und langfristige globale Aufzeichnung der Erdschwerkraft zu erreichen und gleichzeitig das Potenzial der heutigen absoluten Schwerkraftmessungen zu nutzen. Der aktuelle Stand des International Gravity Reference System and Frame wird dargestellt, wie er von der IAG Joint Working Group 2.1.1 „Establishment of a global absolute Gravity Reference System“ im Zeitraum 2015–2019 erarbeitet wurde. Hier wird das System durch die augenblickliche Beschleunigung des freien Falls, ausgedrückt im Internationalen Einheitensystem (SI) und einer Reihe konventioneller Korrekturen für die zeitunabhängigen Komponenten der Schwerkrafteffekte definiert. Der Rahmen als Systemrealisierung enthält einen Satz herkömmlicher zeitlicher Schwerkraftkorrekturen, die einen einheitlichen Satz von Mindestanforderungen darstellen. Grundlage des Rahmens sind Messungen mit Absolutgravimetern, deren Rückverfolgbarkeit durch Vergleiche und Überwachung an Referenzstationen sichergestellt ist. Ein globaler Satz solcher Stationen, die absolute Schwerkraftwerte auf Mikrogal-Ebene liefern, ist das Rückgrat des Rahmens. Kernstationen mit mindestens einer verfügbaren weltraumgeodätischen Technik stellen eine Verbindung zum terrestrischen Referenzrahmen her. Erweiterte Einrichtungen, die eine instrumentelle Überprüfung sowie wiederholte regionale und zusätzliche Vergleiche ermöglichen, werden wichtige Vergleiche auf der Ebene des Internationalen Komitees für Maß und Gewicht (CIPM) ergänzen und einen gemeinsamen Bezug und die Rückverfolgbarkeit zum SI sicherstellen. Um das Gravitationsreferenzsystem für jeden Benutzer zugänglich zu machen und das bisherige IGSN71-Netzwerk zu ersetzen, muss eine Infrastruktur basierend auf absoluten Gravitationsbeobachtungen aufgebaut werden. Dies erfordert die Unterstützung nationaler Agenturen, die ermutigt werden, kompatible Gravitationsnetzwerke erster Ordnung aufzubauen und Informationen über bestehende Beobachtungen der absoluten Gravitation bereitzustellen.;-;-;-;https://link.springer.com/article/10.1007/s00190-020-01438-9 bb04552daa5031830d0e662b48fdf3e9;de;;;6.2.;;;Rolle des Ernährungszustands bei der Vorhersage der Lebensqualität bei Krebs – eine systematische Überprüfung der epidemiologischen Literatur Mangelernährung ist ein wichtiger Faktor bei der Vorhersage der Lebensqualität von Krebspatienten. Wir überprüften systematisch die Literatur zur Rolle des Ernährungszustands bei der Vorhersage der Lebensqualität bei Krebs. Wir durchsuchten die MEDLINE-Datenbank mit den Begriffen „Ernährungsstatus“ in Kombination mit „Lebensqualität“ zusammen mit „Krebs“. In englischer Sprache veröffentlichte Humanstudien mit dem Ernährungsstatus als einer der Prädiktorvariablen und der Lebensqualität als einem der Ergebnismaße wurden eingeschlossen. Von den 26 eingeschlossenen Studien untersuchten 6 Kopf-Hals-Krebs, 8 Magen-Darm-, 1 Lungen-, 1 gynäkologische und 10 heterogene Krebsarten. 24 Studien kamen zu dem Schluss, dass ein besserer Ernährungszustand mit einer besseren Lebensqualität verbunden war, eine Studie zeigte, dass ein besserer Ernährungszustand nur bei Hochrisikopatienten mit einer besseren Lebensqualität verbunden war, während eine Studie zu dem Schluss kam, dass kein Zusammenhang zwischen Ernährungszustand und Lebensqualität bestand. Der Ernährungsstatus ist ein starker Prädiktor für die Lebensqualität bei Krebspatienten. Wir empfehlen, dass mehr Anbieter die Richtlinien der American Society of Parenteral and Enteral Nutrition (ASPEN) für onkologische Patienten umsetzen, die gegebenenfalls ein Ernährungsscreening, eine Ernährungsbewertung und eine Intervention umfassen. Die Korrektur von Mangelernährung kann die Lebensqualität von Krebspatienten verbessern, ein wichtiges Ergebnis, das für Krebspatienten, ihre Betreuer und Familien von Interesse ist.;-;-;-;https://link.springer.com/article/10.1186/1475-2891-11-27 14e55238bcb6e0789e27b9981b062edc;de;;;6.2.;;;Verfeinern räumlicher Nachbarschaften, um Geländeeffekte zu erfassen Die räumlich explizite ökologische Forschung hat in den letzten 20 Jahren stark zugenommen. Die meisten räumlichen Ansätze erfordern die Definition einer räumlichen Nachbarschaft oder der Region, über die räumliche Beziehungen modelliert oder bewertet werden. Räumliche Nachbarschaftsdefinitionen wirken sich auf Analyseergebnisse aus, und es gibt Vorteile, wenn Nachbarschaftsdefinitionen berücksichtigt werden, die ökologische Prozesse besser erfassen. Das Ziel dieser Forschung ist es, einen einfachen und flexiblen Ansatz zur Beschränkung ökologischer räumlicher Nachbarschaften mithilfe von Geländedaten zu präsentieren.;-;-;-;https://link.springer.com/article/10.1186/2192-1709-1-3 de1bf50981cd972598fa31a6df07cf04;de;;;6.2.;;;Sequenzierung von Genen in silico unter Verwendung von Einzelnukleotid-Polymorphismen Das Aufkommen der Hochdurchsatz-Sequenzierungstechnologie hat es dem 1000 Genome Project Pilot 3 ermöglicht, vollständige Sequenzdaten für mehr als 906 Gene und 8.140 Exons von 697 Probanden zu generieren. Die 1000 Genomes-Datenbank bietet eine entscheidende Gelegenheit zur weiteren Interpretation von Krankheitsassoziationen mit Einzelnukleotidpolymorphismen (SNPs), die in genetischen Assoziationsstudien entdeckt wurden. Derzeit ist die direkte Sequenzierung von Kandidatengenen oder -regionen bei einer großen Anzahl von Probanden sowohl kosten- als auch zeitaufwendig.;-;-;-;https://link.springer.com/article/10.1186/1471-2156-13-6 f4b133f26db3c97543acca967e61c8b9;de;;;6.2.;;;Zur Nutzung von Data Mining zur Abschätzung der Kohlenstoffspeicherung in den Bäumen Wälder tragen zum Klimaschutz bei, indem sie Kohlenstoff in Baumbiomasse speichern. Die in diesem Kohlenstoffpool gespeicherte Kohlenstoffmenge wird entweder mithilfe von allometrischen Gleichungen oder Biomasse-Expansionsfaktoren geschätzt. Beide Methoden liefern eine Schätzung des Kohlenstoffbestands basierend auf den biometrischen Parametern eines Modellbaums. Diese Studie macht auf die potenziellen Vorteile des Data-Mining-Verfahrens der instanzbasierten Klassifikation aufmerksam, das derzeit nicht für diesen Zweck verwendet wird. Die Analyse der Daten zur Kohlenstoffspeicherung in 30 Bäumen der brasilianischen Kiefer (;-;-;-;https://link.springer.com/article/10.1186/1750-0680-8-6 da1c2056baaa535d91f790c708fb2459;de;;;6.2.;;;Interprofessionelle Bildung und kollaborative Praxis im Gesundheits- und Sozialwesen: Die Notwendigkeit transdisziplinärer Denkweisen, Instrumente und Mechanismen Interprofessionelle Bildung und kollaborative Praxis im Gesundheits- und Sozialwesen wurden von der Weltgesundheitsorganisation bei mehreren Gelegenheiten als notwendig für die Verbesserung der Gesundheitsversorgung vorgeschlagen. Die heutige Wissenschaftspolitik verstärkt eine Spezialisierungsdrift innerhalb der Disziplinen. Wenn wir die menschliche Gesundheit und nicht die berufliche Identität in den Mittelpunkt stellen, dann ist ein Umdenken in der Hochschulbildung notwendig, in dem ein dynamisches Zusammenspiel zwischen den Disziplinen möglich sein soll.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11590-0_6 ebc425741f1f822affec53d725a8de3d;de;;;6.2.;;;Eine Inhaltsanalyse der Whistleblowing-Richtlinien führender europäischer Unternehmen Seit der Einführung des US-amerikanischen Sarbanes-Oxley Act im Jahr 2002 und mehrerer anderer nationaler Corporate-Governance-Kodizes wurden in immer mehr Unternehmen Whistleblowing-Richtlinien eingeführt. Vorhandene Forschungsergebnisse deuten darauf hin, dass diese Art von Governance-Kodizes einen begrenzten direkten Einfluss auf ethisches Verhalten oder Whistleblowing-Verhalten haben, während Whistleblowing-Richtlinien auf Unternehmensebene effektiver zu sein scheinen. Daher ist es wichtig, die Auswirkungen (inter)nationaler Corporate Governance-Kodizes auf den Inhalt der Whistleblowing-Richtlinien von Unternehmen zu belegen, um ihre indirekten Auswirkungen auf das Whistleblowing-Verhalten zu verstehen. Diese Studie analysiert den Inhalt von Whistleblowing-Richtlinien sowie Teile von Verhaltens- und Ethikkodizes von Unternehmen und beschreibt diese Richtlinien von 56 führenden europäischen Unternehmen. Durch die Einteilung der Inhalte in sieben Kategorien wurde ein explorativer Rahmen geschaffen. Häufig identifizierte allgemeine Inhalte waren: Anwendbarkeit für alle Mitarbeiter, konzernweiter Geltungsbereich und ein verbindlicher Ton. Die am häufigsten zu meldenden allgemeinen Verstöße waren Verstöße gegen interne Richtlinien und externe Vorschriften oder Gesetze. Als konkretere Verstöße wurden am häufigsten Straftaten und Gefahren für Gesundheit, Sicherheit oder Umwelt genannt. Ansprechpartner waren die direkten oder indirekten Vorgesetzten, ein Compliance Officer oder eine vertrauliche „Hotline“. Eine Vertraulichkeitsgarantie war üblich und anonyme Meldungen waren oft möglich, wenn auch manchmal davon abgeraten. Vergeltungsschutz ist dadurch gegeben, dass Vergeltungsmassnahmen verhindert, verboten oder strafbar gemacht werden. Die Forderung nach Treu und Glauben wurde häufig gestellt. Schließlich wurde die Untersuchung des Berichts oft garantiert. Überraschend wenig Informationen über die Behandlung von Hinweisgebern, die in gutem Glauben eine unbegründete Beschwerde oder einen Verstoß melden, an dem sie beteiligt waren europaweite Standardsetzer.;-;-;-;https://link.springer.com/article/10.1007/s10551-006-9236-9 62cd96f9696767c365f6c4aaf3a492bb;de;;;6.2.;;;Fallstudie: Implementierung eines quelloffenen und intern entwickelten PREMIS Events and Agents Systems Ein Ansatz zur Implementierung von Metadaten für die digitale Langzeitarchivierung besteht darin, den Dienst neben einer bestehenden Plattform aufzubauen. Dies bietet eine modulare Designoption, die die vorhandene Infrastruktur um zusätzliche Erhaltungsfunktionen ergänzt. Durch die lose Kopplung einer PREMIS-Implementierung an das primäre Repository kann sich jedes System im Laufe der Zeit unabhängig vom anderen ändern, solange die Verbindung zwischen den Systemen aufrechterhalten wird, oft unter Verwendung eindeutiger Kennungen. Die Implementierung von PREMIS-Diensten kann auf diese Weise angegangen werden und kann die bestehende Infrastruktur ergänzen, wenn die Metadaten für die Langzeitarchivierung entweder nicht ausreichend dokumentiert sind oder wenn lokale Anforderungen die verfügbaren Repository-Infrastrukturen übersteigen. Dieser Artikel veranschaulicht diesen Ansatz anhand einer Fallstudie zur Implementierung von PREMIS für den besonderen Zweck des Managements von Erhaltungsereignissen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-43763-7_17 fe835f03f66b34e55637a97245a1fcf8;de;;;6.2.;;;Erreichen der strategischen Planungsziele Insgesamt wurden 127 Interventionen mit einem Gesamtinvestitionswert von 4,58 Milliarden US-Dollar bis zum Jahr 2050 identifiziert. Das gesamte Interventionspaket ist in Anhang 1 dargestellt und nach den verschiedenen strategischen Planungszielen gruppiert. Die Interventionen wurden in israelische (ISR), jordanische (JOR), palästinensische (PAL) oder regionale (REG) Interventionen unterschieden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30036-8_4 9387da7c1ca6a1585c64f3fcf12cfa5f;de;;;6.2.;;;Spielt das Geschlecht eine Rolle? Untersuchung der rechtlichen und gesundheitlichen Ergebnisse des Gerichts zur Wiederherstellung der psychischen Gesundheit Basierend auf den Prinzipien der therapeutischen Gerechtigkeit nutzen Gerichte für psychische Gesundheit rechtliche Möglichkeiten, um den Zugang und die Einhaltung der Behandlung für Angeklagte, die psychisch krank sind, zu verbessern. Frauen, die an der Justiz beteiligt sind, haben eine höhere Prävalenz von psychischen Erkrankungen als Männer, und sie spielen eine größere Rolle bei ihrem kriminellen Verhalten. Trotzdem fehlen Studien, die untersuchen, ob Frauen anders auf psychiatrische Gerichte reagieren als Männer. Die Studienziele waren die Untersuchung geschlechtsspezifischer Unterschiede bei der Beteiligung an Gerichten für psychische Gesundheit sowie bei der Strafjustiz, psychiatrischen und gesundheitsbezogenen Ergebnissen.;-;-;-;https://link.springer.com/article/10.1186/s40352-014-0012-0 3abd3c1edc9240ccf33d883d97a13adf;de;;;6.2.;;;Lebensqualität: Ein armes und verletzliches Volk Das Wohlergehen wird durch vier Ressourcen (d. h. die vier Kapitale: natürliches, wirtschaftliches, menschliches und soziales Kapital) erreicht, deren Grundlage das Naturkapital ist. Im vorigen Kapitel wurde das Naturkapital der Niederlande hervorgehoben und wie dieses mit Hilfe der anderen Hauptstädte ausgebeutet wurde. In diesem Kapitel wird gefragt, was das Ergebnis dieser Ausbeutung in Bezug auf das Wohlergehen war. Was waren die wichtigsten Themen rund um das Wohlbefinden in den Niederlanden Mitte des 19. Jahrhunderts? Gemessen an den heutigen Normen für extreme Armut lebten damals rund 21 % der Bevölkerung in extremer Armut. Aus heutiger Sicht gehört extreme Armut um 1850 zu den wichtigsten Themen des Wohlergehens.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-76696-6_4 80819f7236273a73f2f603e5e4979b3b;de;;;6.2.;;;Wissenschaftliche Paradigmen, unternehmerische Chancen und Zyklen des Wirtschaftswachstums In diesem Beitrag präsentiere ich ein Modell des Wirtschaftswachstums, das Erkenntnisse aus der endogenen Wachstumstheorie, dem Feld der Entrepreneurship-Forschung und der Philosophie und Ökonomie der Wissenschaft kombiniert. Das Modell basiert auf drei relativ Standardannahmen und einem Kuhnschen Ansatz zur Akkumulation von wissenschaftlichem Wissen. Ich gehe davon aus, dass Innovation Wirtschaftswachstum generiert, dass chancenorientiertes Unternehmertum eine wichtige Innovationsquelle ist, dass sich unternehmerische Chancen zunehmend aus der wissenschaftlichen Wissensgenerierung ergeben und dass die Wissenschaft dem Kuhnschen Paradigmenwechsel folgt. Das Modell generiert dann chancengesteuerte Zyklen in der unternehmerischen Aktivität, die wiederum Innovationswellen und Zyklen des Wirtschaftswachstums auslösen. Dieses Ergebnis ist hoch relevant und schließt eine Lücke in allen drei Literaturen, da ‚traditionelle' endogene Wachstumsmodelle typischerweise konstante Wachstumsraten im Steady State generieren, die Entrepreneurship-Forschung den Ursprung unternehmerischer Chancen exogen hält und die philosophische und wissenschaftsökonomische Literatur ignoriert die wichtigen nachgelagerten wirtschaftlichen Auswirkungen des nicht gewinnorientierten institutionellen Rahmens, der die Akkumulation wissenschaftlichen Wissens regelt. Dieser Beitrag leistet einen Beitrag, indem er wissenschaftliche Einrichtungen und unternehmerische Aktivität als Voraussetzungen für Wirtschaftswachstum identifiziert und bietet eine vorläufige Erklärung für den Anstieg und Rückgang des wissenschaftlichen, unternehmerischen und wirtschaftlichen Aktivitätsniveaus während des Kondratieff-Zyklus.;-;-;-;https://link.springer.com/article/10.1007/s11187-006-9038-6 c5da07bc23d14fdfbc5d156d2058af2a;de;;;6.2.;;;Bild und Video für hörgeschädigte Menschen Wir präsentieren einen globalen Überblick über bild- und videoverarbeitungsbasierte Methoden zur Unterstützung der Kommunikation hörgeschädigter Menschen. Dabei sind zwei Kommunikationsrichtungen zu berücksichtigen: vom Hörenden zum Hörgeschädigten und umgekehrt. In diesem Beitrag beschreiben wir zunächst die Gebärdensprache (SL) und die Cued Speech (CS) Sprache, die zwei verschiedene Sprachen sind, die von der Gehörlosengemeinschaft verwendet werden. Zweitens stellen wir bestehende Tools vor, die SL- und CS-Videoverarbeitung und -erkennung für die automatische Kommunikation zwischen Gehörlosen und Hörenden einsetzen. Drittens stellen wir die vorhandenen Tools für die umgekehrte Kommunikation vor, von hörenden Menschen bis hin zu Gehörlosen, die SL- und CS-Videosynthese verwenden.;-;-;-;https://link.springer.com/article/10.1155/2007/45641 3dd920c4f3004096d1b9486d4144a381;de;;;6.2.;;;Räumlich-zeitliche Häufung von Malaria anhand routinemäßig erhobener Daten von Gesundheitseinrichtungen an der kenianischen Küste Das überverteilte Muster der Malariaübertragung hat zu Versuchen geführt, Malaria-„Hotspots“ zu definieren, die zum Zwecke der Malariakontrolle in Afrika anvisiert werden könnten. Allerdings haben nur wenige Studien die Verwendung von Routinedaten von Gesundheitseinrichtungen in den stabileren, endemischen Gebieten Afrikas als kostengünstige Strategie zur Identifizierung von Hotspots untersucht. Hier bestand das Ziel darin, die räumliche und zeitliche Dynamik von Malariafällen mit fieberpositivem Schnelldiagnostik (RDT) zu untersuchen, die routinemäßig entlang der kenianischen Küste gesammelt werden.;-;-;-;https://link.springer.com/article/10.1186/s12936-021-03758-3 b03f5391a01bde7469d4cca9f1d570e2;de;;;6.2.;;;Kausale Erklärung des gesunden Menschenverstands in einem Rechtsbereich In diesem Beitrag stellen wir einen Ansatz zur vernünftigen kausalen Erklärung von Geschichten vor, der zur automatischen Bestimmung des Haftpflichtigen in Rechtsfallbeschreibungen verwendet werden kann. Der Ansatz basiert auf;-;-;-;https://link.springer.com/article/10.1007/s10506-007-9033-5 982a6447bff586ae1f077505020300ee;de;;;6.2.;;;Das Outsourcing-Produktivitätsparadoxon: Total Outsourcing, organisatorische Innovation und langfristiges Produktivitätswachstum Eine wachsende Zahl empirischer Studien stellt einen Zusammenhang zwischen der Auslagerung von Aktivitäten und einem langfristigen Verlust des Produktivitätswachstums von Unternehmen fest. Das Papier befasst sich mit diesem Paradoxon der Outsourcing-Produktivität, indem es den Zusammenhang zwischen Total-Outsourcing und organisatorischer Innovation untersucht. Wir präsentieren ein Modell der organisatorischen Innovation, bei dem Manager die Produktivität steigern, indem sie Organisationsarchitekturen identifizieren, die wertschöpfende Aktivitäten und Verwaltungsabläufe effektiver integrieren. Als Teil dieses Prozesses können Manager eine Aktivität intern oder extern beschaffen. Simulationen des Modells zeigen, dass umfangreiches Outsourcing den Spielraum für zukünftige organisatorische Innovationen einschränkt, was zu einem geringeren Produktivitätswachstum führt. Die Ergebnisse stimmen mit den empirischen Daten überein und geben Managern und politischen Entscheidungsträgern eine heilsame Warnung vor den langfristigen Auswirkungen des Total Outsourcing.;-;-;-;https://link.springer.com/article/10.1007/s00191-008-0122-8 f67c7e47e48abd7f76f2b9c13a16fd10;de;;;6.2.;;;Neue Einblicke in die Kontrolle der HIV-1-Transkription: Wenn Tat auf 7SK snRNP und Super Elongation Complex (SEC) trifft Jüngste Studien, die darauf abzielten, den Mechanismus aufzuklären, der die HIV-1-Transkription kontrolliert, führten zur Identifizierung und Charakterisierung von zwei Komplexen mit mehreren Untereinheiten, die beide P-TEFb enthalten, einen menschlichen Transkriptionselongationsfaktor und Cofaktor für die Aktivierung der HIV-1-Genexpression durch das virale Tat-Protein. Der erste Komplex, der als 7SK snRNP bezeichnet wird, fungiert als Reservoir, in dem aktives P-TEFb durch Tat entzogen werden kann, um die HIV-1-Transkription zu stimulieren. Der zweite Komplex, der als Superelongationskomplex (SEC) bezeichnet wird, stellt die Form von P-TEFb dar, die von Tat an die pausierte RNA-Polymerase II an der viralen langen terminalen Wiederholung während der Tat-Transaktivierung abgegeben wird. Neben P-TEFb enthält SEC auch andere Elongationsfaktoren/Co-Aktivatoren, die kooperativ die HIV-1-Transkription stimulieren. Neuere Daten weisen auch darauf hin, dass SEC ein Ziel für das Mixed Lineage Leukemia (MLL)-Protein ist, um die Expression von MLL-Zielgenen und die Leukemogenese zu fördern. Angesichts ihrer Rolle bei HIV-1/AIDS und Krebs wird die weitere Charakterisierung von 7SK snRNP und SEC helfen, Strategien zu entwickeln, um eine durch unkontrollierte P-TEFb-Aktivierung verursachte anomale Transkriptionsverlängerung zu unterdrücken. Da beide Komplexe auch für die normale zelluläre Genexpression wichtig sind, wird das Studium ihrer Strukturen und Funktionen die Mechanismen aufklären, die die Transkriptionsverlängerung von Metazoen im Allgemeinen kontrollieren.;-;-;-;https://link.springer.com/article/10.1007/s11481-011-9267-6 340b049c57f43bde895197a75c74a4f9;de;;;6.2.;;;Strenge kontrollierte Dosisreduktion von Biologika bei Psoriasis-Patienten mit geringer Krankheitsaktivität: eine randomisierte pragmatische Nicht-Unterlegenheitsstudie Psoriasis ist eine immunvermittelte chronisch-entzündliche Hauterkrankung, für die in den letzten 10 Jahren mehrere gezielte biologische Therapien verfügbar wurden. Daten von Patienten mit rheumatoider Arthritis zeigten, dass eine Dosisreduzierung in Kombination mit einer strengen Kontrolle der Krankheitsaktivität erfolgreich ist. Bei Psoriasis-Patienten muss die niedrigste wirksame Dosis von Biologika bestimmt werden.;-;-;-;https://link.springer.com/article/10.1186/s12895-017-0057-6 ce71baed5888aa85005cbb03a8f01900;de;;;6.2.;;;Eine individualisierte versus eine konventionelle Pneumoperitoneum-Druckstrategie während laparoskopischer Kolorektalchirurgie: Begründung und Studienprotokoll für eine multizentrische randomisierte klinische Studie Eine aktuelle Studie zeigt, dass eine vielseitige Strategie mit einer individualisierten intraabdominalen Drucktitrationsstrategie während der laparoskopischen Kolorektalchirurgie bei den meisten Patienten zu einem akzeptablen Arbeitsbereich bei niedrigem intraabdominalem Druck führt. Die vielseitige Strategie, die sich auf niedrigere bis individualisierte intraabdominale Drücke konzentriert, umfasst die Vordehnung der Bauchdecke während der initialen Insufflation, eine tiefe neuromuskuläre Blockade, Beatmungseinstellungen mit niedrigem Tidalvolumen und eine modifizierte Steinschnittposition. Die hier vorgestellte Studie testet die Hypothese, dass diese Strategie die Ergebnisse von Patienten verbessert, die für eine kolorektale laparoskopische Operation vorgesehen sind.;-;-;-;https://link.springer.com/article/10.1186/s13063-019-3255-1 8c42ed4e77374f792828a2086cd61479;de;;;6.2.;;;Intrusion Detection und Big Heterogeneous Data: eine Umfrage Intrusion Detection wurde sowohl in der Industrie als auch in der Wissenschaft intensiv untersucht, aber Cybersicherheitsanalysten wünschen sich immer noch eine viel höhere Alarmgenauigkeit und allgemeine Bedrohungsanalyse, um ihre Systeme im Cyberspace zu schützen. Verbesserungen bei der Intrusion Detection könnten durch einen umfassenderen Ansatz bei der Überwachung von Sicherheitsereignissen aus vielen verschiedenen heterogenen Quellen erreicht werden. Die Korrelation von Sicherheitsereignissen aus heterogenen Quellen kann eine ganzheitlichere Sichtweise und ein größeres Situationsbewusstsein von Cyber-Bedrohungen ermöglichen. Ein Problem bei diesem Ansatz besteht darin, dass derzeit sogar eine einzelne Ereignisquelle (z. B. Netzwerkverkehr) Big-Data-Herausforderungen erfahren kann, wenn sie allein betrachtet wird. Versuche, heterogenere Datenquellen zu nutzen, stellen eine noch größere Herausforderung für Big Data dar. Big-Data-Technologien für die Intrusion Detection können helfen, diese Big Heterogeneous Data-Herausforderungen zu lösen. In diesem Beitrag überprüfen wir den Umfang der Arbeiten, die das Problem heterogener Daten und insbesondere Big Heterogeneous Data berücksichtigen. Wir diskutieren die spezifischen Probleme von Data Fusion, heterogenen Intrusion Detection Architectures und Security Information and Event Management (SIEM)-Systemen und stellen Bereiche vor, in denen mehr Forschungsmöglichkeiten bestehen. Insgesamt könnten sowohl die Cyber-Bedrohungsanalyse als auch die Cyber-Intelligenz durch die Korrelation von Sicherheitsereignissen über viele verschiedene heterogene Quellen hinweg verbessert werden.;-;-;-;https://link.springer.com/article/10.1186/s40537-015-0013-4 255921836284acdb591dfb0d9c3624a0;de;;;6.2.;;;Meiotische Segregation und interchromosomale Wirkung im Sperma eines doppelten Translokationsträgers: ein Fallbericht Unfruchtbarkeit ist ein natürlicher Selektionsmechanismus, der die Geburt eines Kindes mit Fehlbildungen oder geistiger Behinderung verhindern soll. Männliche Unfruchtbarkeit ist eng mit Chromosomenanomalien verbunden. Diese Studie konzentrierte sich auf die Analyse der meiotischen Segregation mit einer Robertsonschen Translokation, 45,XY,der(13,13) [56]/45,XY,der(13,14) [44] und die Bewertung möglicher interchromosomaler Effekte.;-;-;-;https://link.springer.com/article/10.1186/1755-8166-2-24 56ea516a38745c7438465276d9f5284d;de;;;6.2.;;;Magnetresonanztomographie des Knochenmarks in der Onkologie, Teil 1 Die Magnetresonanztomographie spielt eine wesentliche Rolle bei der Erkennung und Charakterisierung von Knochenmarkläsionen, der Planung einer Biopsie oder Operation und der Nachsorge nach der Behandlung. Um Befunde im Knochenmark in der MR-Bildgebung zu bewerten, ist es wichtig, die normale Zusammensetzung und Verteilung des Knochenmarks und die Veränderungen im Knochenmark, die mit dem Alter auftreten, sowie die Grundlage für die MR-Signale aus dem Knochenmark und die Faktoren, die diese beeinflussen Signale. Die normale Verteilung von rotem und gelbem Mark im Skelett verändert sich mit dem Alter in einer vorhersehbaren Reihenfolge. Wichtige Faktoren, die die MR-Signale beeinflussen und die Erkennung von Knochenmarkläsionen ermöglichen, sind Veränderungen der Fett-Wasser-Verteilung, Zerstörung von Knochenbälkchen und Kontrastmittelanreicherung. In diesem zweiteiligen Artikel werden diese Probleme untersucht und veranschaulicht, wobei der Schwerpunkt auf der praktischen Anwendung der MR-Bildgebung liegt, um die Differenzierung von normalen Knochenmark-, Tumor- und behandlungsbedingten Knochenmarkveränderungen bei onkologischen Patienten zu erleichtern.;-;-;-;https://link.springer.com/article/10.1007/s00256-007-0309-3 4e969cf6abac7a9616ac33d362ee7f04;de;;;6.2.;;;Simulation der Laser-Material-Interaktion der Ultrakurzpuls-Laserbearbeitung von Siliziumnitrid-Werkstücken und der Schlüsselfaktoren im Ablationsprozess Das Verständnis des Laserablationsmechanismus ist sehr wichtig, um den Einfluss verschiedener Laserparameter auf die Qualität der Laserablation herauszufinden. In der aktuellen Untersuchung wurde ein mathematisches Modell entwickelt, um die Abtragsrate und die Abtragstiefe zu berechnen. Am Werkstück wurden Laserschnitte mit unterschiedlichen Laserscangeschwindigkeiten von 1 bis 10 mm s . erstellt;-;-;-;https://link.springer.com/article/10.1007/s00170-021-07111-5 49bd8c80915b8e801b4dbccee0ea8ef5;de;;;6.2.;;;Internetfinanzierung mit innovativem Cyber-Kreditmanagement nutzen In den letzten zwei Jahrzehnten haben Internettechnologien wie Cloud Computing, Mobilfunk, Social Media und Big Data Analytics unsere Gesellschaft enorm verändert und das Geschäft in verschiedenen Branchen neu geprägt. Insbesondere die durch Informations- und Kommunikationstechnologien befruchteten Innovationen im Finanzbereich weisen auf den Beginn des Internet-Finanzzeitalters hin. Mit dem explorativen Forschungsansatz untersuchen wir wichtige innovative internetbasierte Finanzdienstleistungen und klassifizieren sie in fünf Kategorien, nämlich E-Commerce, E-Payment, E-Geldmarkt, Online-Kreditdienste und digitale Währungen. Dann schlagen wir eine Marktstruktur der Internetfinanzierung vor, die vom traditionellen Finanzmarkt ausgeht. Wir behaupten, dass das Kreditmanagement das Schlüsselthema auf dem Markt der Internetfinanzierung ist, der durch Big-Data-Analysen gekennzeichnet ist, in denen Cyberkredite als prozessübergreifend, mehrdimensional und holografisch erscheinen. Wir schlagen außerdem vor, Cyber-Kredite in Form von Vektoren darzustellen, um die Grenzen des traditionellen Einzelwertmaßes im Cyber-Kreditmanagement zu überwinden. Basierend auf diesem Rahmen werfen wir zentrale Forschungsfragen zur Internetfinanzierung aus der Perspektive von Theorie, Technologie und Governance auf.;-;-;-;https://link.springer.com/article/10.1186/s40854-015-0004-7 abcb09db45a987989419bf773b899ee7;de;;;6.2.;;;Die Potenziale und Hindernisse für den Einsatz fortschrittlicher Computersysteme in abgelegenen Bauprojekten: Fall des Königreichs Saudi-Arabien Ein umfangreicher Wissensschatz zeigte die positiven Auswirkungen des Advanced Computer Based Management Systems (ACMS) auf verschiedene Aspekte des Projektmanagements und hob gleichzeitig Hindernisse hervor, die die Annahme, Verbreitung und Nutzung des ACMS durch die Bauindustrie auf der ganzen Welt behindern. Remote-Projekte haben ihre einzigartigen Managementprobleme und diese werden hauptsächlich durch die Abgelegenheit des Projekts verursacht. Zu diesem Thema wurden nur wenige Untersuchungen durchgeführt, insbesondere in der Region des Persischen Golfs, und es wurden nur wenige einzigartige Kommunikations- und Managementprobleme wie mangelnde Kontrolle, Mangel an Humanressourcen, Infrastruktur und Erfahrung aufgezeigt.;-;-;-;https://link.springer.com/article/10.1186/2213-7459-2-3 9abde05eca061a463b226342e93bc0b0;de;;;6.2.;;;Europäisierung des nordischen Zivilverfahrens: Passt die Karte zum Gelände? Das EU-Recht hat einen spürbaren Einfluss auf das Zivilprozessrecht in den nordischen Ländern. In diesem Kapitel wird untersucht, wie das EU-Zivilprozessrecht in den nordischen Ländern praktiziert und wahrgenommen wird. Zunächst wird kurz auf die vielfältigen Ebenen und Ausprägungen des EU-Zivilprozessrechts eingegangen. Es wird analysiert, inwieweit nordische Rechtswissenschaftler, Richter und Rechtsberater das EU-Zivilprozessrecht nutzen und diskutieren. Eine zentrale Frage ist, ob Rechtsanwälte über relativ oberflächliche Kenntnisse des EU-Rechts verfügen (d. h. sie identifizieren nur zentrale Sachverhalte) oder ob sie profunde Fähigkeiten erworben haben (d. Drittens wird die Umsetzung des harten EU-Rechts und der Rechtsprechung in das nationale Zivilprozessrecht in den nordischen Ländern untersucht. Die nordischen Länder setzen das harte EU-Recht im Allgemeinen gewissenhaft um, zumindest formal. Dennoch wird argumentiert, dass die Qualität der Umsetzung ausreichend ist und die auf der Rechtsprechung basierenden Regeln oft unzureichend umgesetzt werden. Schließlich werden die Folgen einer oberflächlichen Herangehensweise an das EU-Zivilprozessrecht in den nordischen Ländern diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-74851-7_7 3c678515a7d68132b9153447ff541886;de;;;6.2.;;;Hook2 trägt zur aggressiven Bildung bei Aggresomen sind perizentrosomale Ansammlungen von fehlgefalteten Proteinen, Chaperonen und Proteasomen. Ihre Positionierung in der Nähe des Zentrosoms erfordert wie bei anderen Organellen einen aktiven, mikrotubuliabhängigen Transport. Es wird angenommen, dass Linkerproteine, die mit dem Motorprotein Dynein, Organellen und Mikrotubuli assoziieren können, zur aktiven Aufrechterhaltung der juxtanukleären Lokalisation vieler membrangebundener Organellen und Aggresomen beitragen. Es wurde vorgeschlagen, dass Hook-Proteine ​​als Adapter für die Assoziation von Cargos mit Dynein für den Transport auf Mikrotubuli dienen. Es wurde gezeigt, dass Hook2 am Zentrosom lokalisiert, Zentriolin bindet und zur zentrosomalen Funktion beiträgt.;-;-;-;https://link.springer.com/article/10.1186/1471-2121-8-19 e5cea74ca645a1f4314f755d5fc6854b;de;;;6.2.;;;Bewertung der operativen Wirksamkeit eines Pilotprogramms zur bedingten Geldüberweisung für Mutter und Kind (MCH) in Nigeria Dieses Papier bietet Einblicke in das Design und die Implementierung eines Pilotprogramms für bedingte Geldtransfers (CCT) im Rahmen des Subventionsreinvestitions- und Empowerment-Programms zur Gesundheit von Müttern und Kindern (SURE-P MCH) in Nigeria. Der tägliche Betrieb des CCT wurde unabhängig bewertet, vom Entwurf bis zur Registrierung und Auszahlung, um zukünftige CCT-Designs und -Implementierungen zu informieren.;-;-;-;https://link.springer.com/article/10.1186/s12884-019-2418-0 0effe86a922caa413f920e1c6439354d;de;;;6.2.;;;Vulkanasche und Luftfahrt – die Herausforderungen der globalen Echtzeit-Kommunikation einer Naturgefahr Mehr als 30 Jahre nach den ersten großen Flugzeugbegegnungen mit Vulkanasche über Indonesien im Jahr 1982 bleibt es eine Herausforderung, Flugzeuge im Flug über die genaue Position potenziell gefährlicher Aschewolken auf ihrer Flugbahn zu informieren, insbesondere kurz nach dem Ausbruch. Zu den Schwierigkeiten gehören die zuverlässige Vorhersage und Erkennung des Beginns signifikanter explosiver Eruptionen auf globaler Basis, die Beobachtung der Ausbreitung von Eruptionswolken in Echtzeit, die Erfassung ihrer komplexen Struktur und ihrer Bestandteile in atmosphärischen Transportmodellen, die Beschreibung dieser Beobachtungen und Modellierungsergebnisse in einer für Luftfahrtbenutzer, rechtzeitige Warnmeldungen an das Cockpit, Flugplaner und Flugverkehrsmanagementsysteme sowie die Notwendigkeit einer wissenschaftlichen Entwicklung, um betriebliche Verbesserungen vorzunehmen. Der Rahmen, unter dem diese Probleme behandelt werden, ist die International Airways Volcano Watch (IAVW), die von der Internationalen Zivilluftfahrtorganisation (ICAO) verwaltet wird. Die ICAO skizziert in ihren Standards und empfohlenen Praktiken (International Civil Aviation Organization;-;-;-;https://link.springer.com/chapter/10.1007/11157_2016_49 b237e8781e75270aa7a1bbab264cfad8;de;;;6.2.;;;Design für die Zukunft: Managed Software Evolution Gefragt sind innovative Software-Engineering-Methoden, -Konzepte und -Werkzeuge, die darauf ausgerichtet sind, die Weiterentwicklung komplexer Software zu unterstützen, insbesondere hinsichtlich ihrer kontinuierlichen Anpassung an sich ändernde Funktions- und Qualitätsanforderungen sowie Plattformen über einen langen Zeitraum. Die Unterstützung einer solchen Co-Evolution von Softwaresystemen und ihrer Umgebung stellt ein sehr anspruchsvolles Unterfangen dar, da es eine Kombination oder sogar Integration von Ansätzen und Erkenntnissen aus verschiedenen Software-Engineering-Disziplinen erfordert. Um diesen Herausforderungen zu begegnen, wurde das von der Deutschen Forschungsgemeinschaft geförderte Schwerpunktprogramm 1593 Design for Future – Managed Software Evolution eingerichtet, um grundlegende Methodiken und einen fokussierten Ansatz für langlebige Softwaresysteme zu entwickeln, die hohe Qualität zu erhalten und die Evolution während der ganzen Lebenszyklus. Ziel des Schwerpunktprogramms ist die integrierte und fokussierte Forschung im Software-Engineering zur Entwicklung von Methoden zur kontinuierlichen Weiterentwicklung von Software und Software-/Hardware-Systemen, um Systeme an sich ändernde Anforderungen und Umgebungen anzupassen. Für die Bewertung konzentrieren wir uns auf zwei spezifische Anwendungsdomänen: Informationssysteme und Produktionssysteme in der Automatisierungstechnik. Insbesondere zwei gemeinsame Fallstudien aus diesen Anwendungsbereichen fördern eine enge Zusammenarbeit zwischen den einzelnen Projekten des Schwerpunktprogramms. Wir betrachten mehrere Forschungsthemen, die von gemeinsamem Interesse sind, beispielsweise die Ko-Evolution von Modellen und Implementierungscode, von Modellen und Tests und zwischen verschiedenen Modelltypen. Ein weiteres Forschungsthema von gemeinsamem Interesse sind Laufzeitmodelle, um Softwaresysteme durch kontinuierliche Systemüberwachung automatisch mit ihren abstrakten Modellen zu synchronisieren. Beide Konzepte, Co-Evolution und Laufzeitmodelle, tragen zu unserer Vision bei, die wir als wissenstragende Software bezeichnen. Wir betrachten dies als eine wesentliche Voraussetzung für eine lange Lebensdauer solcher Softwaresysteme.;-;-;-;https://link.springer.com/article/10.1007/s00450-014-0273-9 6bd2d77cb40d8524f49a7ee75d21c7b8;de;;;6.2.;;;Lehren aus dem europäischen Gemeinschaftsprojekt RESTRAIL: REduction of suizids and dreppasses on RAILway property RESTRAIL war ein dreijähriges EU-RP7-Forschungsprojekt, das darauf abzielte, das Auftreten von Selbstmorden und Hausfriedensbruch auf Eisenbahngelände und die durch diese Ereignisse verursachten kostspieligen Betriebsunterbrechungen zu reduzieren. Das Projekt wurde vom Internationalen Eisenbahnverband (UIC) koordiniert und lieferte der Bahnindustrie und Forschern weltweit eine Analyse der kostengünstigsten Präventions- und Minderungsmaßnahmen. Ziel dieses Papiers ist es, die Eisenbahn- und Wissenschaftsgemeinschaft über den erfolgreichen Abschluss des Projekts zu informieren und einen Überblick über die wichtigsten Ergebnisse und Schlüsselinnovationen zu geben.;-;-;-;https://link.springer.com/article/10.1007/s12544-016-0203-y 838a0a920f8313243d3139bc9b3abb3e;de;;;6.2.;;;Taiwans Gesundheitsbericht 2010 Zeiten ändern sich. Taiwan ist eines der reichsten Länder im asiatisch-pazifischen Raum. Sie hat 1995 ihr nationales Krankenversicherungsprogramm für Alleinzahler eingeführt, das nach allen Schätzungen sehr erfolgreich war. Es verfügt über ein starkes Gesundheitssystem und die allgemeine Krankenversicherung stellt sicher, dass alle Bürger ein hohes Maß an Versorgung erwarten. Gesundheitssysteme sind so konzipiert, dass sie den Gesundheitsbedürfnissen der Zielgruppen gerecht werden. Weltweit gibt es eine Vielzahl von Gesundheitssystemen. In einigen Ländern wird die Planung des Gesundheitssystems auf die Marktteilnehmer verteilt, während die Planung in anderen Ländern zentral zwischen Regierungen, Gewerkschaften, Wohltätigkeitsorganisationen, Religionen oder anderen koordinierten Einrichtungen erfolgt, um geplante Gesundheitsdienstleistungen gezielt an die von ihnen versorgte Bevölkerung zu erbringen. Allerdings war die Gesundheitsplanung oft eher evolutionär als revolutionär. Im Gesundheitswesen müssen alle Arbeiten von höchster Qualität sein, und es muss ein viel höherer Anteil der Ressourcen in die Qualität im Gesundheitswesen investiert werden. Ziel dieses Berichts ist es, einen Überblick über die Gesundheitsversorgung in Taiwan zu geben.;-;-;-;https://link.springer.com/article/10.1007/s13167-010-0056-8 b7d9b6dac45cc501ebe80158f5b5ba98;de;;;6.2.;;;Resilienz für Katastrophenmediziner operationalisieren: Kompetenzentwicklung durch Training, Simulation und Reflexion Resilienz wurde in den letzten Jahrzehnten als Begriff eingeführt, der eine neue Perspektive in den Bereichen Katastrophenmanagement und Sicherheitsmanagement beschreibt. Es wurden mehrere theoretische Interpretationen und Definitionen des Wesens von Resilienz vorgeschlagen, aber weniger Arbeit wurde beschrieben, wie Resilienz operationalisiert und das Konzept in Organisationen implementiert werden kann. Diese Fallstudie beschreibt die Umsetzung einer Reihe allgemeiner Richtlinien für das Resilienzmanagement für kritische Infrastrukturen innerhalb eines schwedischen regionalen medizinischen Führungs- und Kontrollteams. Die Fallstudie zeigt, wie domänenunabhängige Leitlinien kontextualisiert und auf operativer Ebene durch ein umfassendes Fähigkeitsentwicklungsprogramm eingeführt werden können. Es zeigt auch, wie eine Reihe von konzeptionellen und reflektierenden Instrumenten, bestehend aus Schulungs-, Trainings- und Übungssitzungen von zunehmender Komplexität und Realismus, verwendet werden kann, um von hochrangigen Leitlinien in die Praxis überzugehen. Die Erfahrung aus der Fallstudie zeigt den Wert der Kombination von (1) entwicklungsorientiertem Lernen kognitiver Fähigkeiten von Praktikern durch resilienzorientierte Reflexion und Interaktion mit dynamischen komplexen offenen Problemen, (2) Kontextualisierung von generischen Leitlinien als Grundlage für operative methodische Unterstützung in der Betriebsumgebung und (3) die Verwendung von simulationsbasiertem Training als Teil eines Fähigkeitsentwicklungsprogramms mit zunehmender Komplexität und Realitätsnähe in gemischten Schulungs-, Trainings- und Übungssitzungen. Als konkretes Beispiel für die Umsetzung von Resilienz in einer Organisation des Katastrophenschutzmanagements trägt die Studie zum Wissensschatz zur Umsetzung des Resilienzkonzepts in der betrieblichen Praxis bei.;-;-;-;https://link.springer.com/article/10.1007/s10111-019-00587-y dcfba4ba1a810b00975ad7cbe6ddb640;de;;;6.2.;;;Nacken-/Schulterschmerzen und Kreuzschmerzen bei Schullehrern in China, Prävalenz und Risikofaktoren Schullehrer stellen eine Berufsgruppe dar, in der Nacken- und/oder Schulterschmerzen (NSP) und Kreuzschmerzen (LBP) sehr häufig auftreten. Epidemiologische Daten zu NSP und LBP bei chinesischen Lehrern sind begrenzt. Das Ziel dieser Studie war es, die Prävalenz und Risikofaktoren für NSP und LBP bei Primar-, Sekundar- und Sekundarschullehrern zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-12-789 66cb3bb5fa4b407635fd28dcbc56db8b;de;;;6.2.;;;Klima und Sicherheit in Asien und im Pazifik (Nahrung, Wasser und Energie) Die Auswirkungen zunehmender Naturkatastrophen bedrohen die Ernährungssicherheit in der Asien-Pazifik-Region. Reis ist das wichtigste Grundnahrungsmittel Asiens. Klimaschwankungen und -änderungen wirken sich direkt auf die Reisproduktion durch Änderungen von Niederschlag, Temperatur und CO . aus;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7338-7_4 be3528427609e917cefae6b5c3200565;de;;;6.2.;;;Deutschland: Stiftungen zur Förderung von Talenten Deutschland verfügt über ein umfangreiches Netzwerk zur Förderung begabter Kinder und Studierender, das vor allem in außerschulischen und individualisierten Förderprogrammen organisiert ist. Im Hochschulbereich funktioniert dies meist über Stipendienprogramme, die zumindest teilweise von privaten Stiftungen finanziert werden. In den letzten Jahren haben sowohl Unternehmen als auch Studenten selbst damit begonnen, Online-Communities und -Organisationen zu bilden, die sich darauf konzentrieren, exzellenten Studenten Möglichkeiten zu bieten. Eine weitere wichtige Entwicklung ist die 2005 gestartete „Exzellenzinitiative“ für die Forschung. Damals viel diskutiert, aber das Programm hat den Exzellenzgedanken ins Hochschulsystem gebracht, viel Aufmerksamkeit erregt, die Forschung angeregt und führte zu einem Kulturwandel an den Universitäten, die nun stärker auf Wettbewerb ausgerichtet sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12919-8_12 9c71c253c8ed582d00db0b536b174cd2;de;;;6.2.;;;Eine neuartige Technik zum Abgleich der Fähigkeiten von Multimedia-Geräten für allgegenwärtige Computerumgebungen In drahtlosen Multimediasensornetzwerken (WMSNs) sind drahtlos miteinander verbundene Geräte in der Lage, Multimediainhalte wie Video- und Audiostreams allgegenwärtig aus der Umgebung abzurufen. Da jedoch WMSN-Anwendungen groß angelegt, dynamisch und hochgradig gleichzeitig sind, wird es zu einem ernsthaften Problem, wie man sowohl ein effektives Multimediagerät-Ressourcenmanagement als auch eine kollaborative Aufgabenplanung gleichzeitig erreicht. In diesem Papier schlagen wir unter Verwendung der hierarchischen Modellierungstechnik zunächst ein Gerätefähigkeitsmodell vor, das räumliche Informationen enthält. Um das Problem der unzureichenden Kapazität einzelner Geräte zu lösen, geben wir dann ein zusammengesetztes Gerätefähigkeitsmodell und entsprechende Berechnungsformeln an. Als nächstes stellen wir eine neuartige Technik zum Abgleichen von Geräteressourcen vor, die auf dem vorgeschlagenen Modell basiert. Im Vergleich zu früheren Arbeiten zeigen experimentelle Ergebnisse, dass unsere Technik eine bessere Erinnerung und Präzision erreicht und die WMSN-Anwendungsanforderungen effektiver erfüllt. Darüber hinaus reduziert unser vorgeschlagener Ansatz die Designkomplexität sowie die Arbeitsbelastung der Anwendungsdesigner erheblich.;-;-;-;https://link.springer.com/article/10.1186/1687-1499-2013-181 863d716905eaac2d14eefab632fa8f44;de;;;6.2.;;;Eine qualitative Studie zur Bewertung der Akzeptanz und Akzeptanz der Umsetzung einer ergebnisorientierten Finanzierungsintervention zur Verbesserung der Gesundheit von Müttern und Neugeborenen in Malawi Interventionen zur ergebnisorientierten Finanzierung (Result Based Financing, RBF) haben in letzter Zeit insbesondere in Subsahara-Afrika deutlich an Bedeutung gewonnen. Der größte Teil der Forschung konzentrierte sich jedoch auf die Bewertung der Auswirkungen dieses Ansatzes und lieferte nur wenige Einblicke in die kontextuellen Umstände der Implementierung, die zu seinem Erfolg oder Misserfolg beigetragen haben. Diese Studie zielt darauf ab, eine Lücke in der aktuellen Literatur zu RBF zu füllen, indem sie sich explizit auf den Prozess der Umsetzung einer RBF-Intervention und nicht auf ihre Auswirkungen konzentriert. Insbesondere konzentriert sich diese Studie auf die Akzeptanz und Akzeptanz der Umsetzung der RBF-Intervention bei lokalen und internationalen Hauptakteuren mit dem Ziel, Informationen über die weitere Umsetzung zu liefern.;-;-;-;https://link.springer.com/article/10.1186/s12913-016-1652-7 22a844fe628414511a2d3585cd424cda;de;;;6.2.;;;Leistungsbewertung von IEEE 802.11p-Transceivern mit mehreren Antennen unter Verwendung eines FPGA-basierten MIMO-Fahrzeugkanalemulators Der Standard IEEE 802.11p wurde für drahtlose Kommunikation mit geringer Verzögerung und geringer Bandbreite optimiert, um Fahrzeugsicherheitsdienste bereitzustellen. Allerdings können IEEE 802.11p-Transceiver ihre Robustheit durch den Einbau von MIMO-Übertragungsverfahren erheblich verbessern. Darüber hinaus können auch mehrere Antennen verwendet werden, um die Datenübertragungsrate von IEEE 802.11p-Transceivern zu erhöhen, eine Voraussetzung, um beispielsweise nicht kritische Sicherheitsanwendungen zu implementieren. In diesem Artikel beschreiben wir das Design und die Entwicklung eines Mehrantennen-IEEE 802.11p-Leistungsbewertungssystems, das aus zwei IEEE 802.11p softwarebasierten Transceivern und zwei verschiedenen, flexiblen, kostengünstigen FPGA-basierten Mehrantennen-Kanalemulatoren besteht. Unsere Kanalemulatoren können sieben Kommunikationsumgebungen für Fahrzeuge nachbilden, darunter Autobahnen, Stadtschluchten und Vororte. Mit unserem Leistungsbewertungssystem haben wir Leistungskurven erhalten, die zeigen, dass IEEE 802.11p seine Leistung durch die Verwendung mehrerer Sende- und Empfangsantennen dramatisch verbessern kann. Darüber hinaus haben unsere Kanalemulatoren die Leistungsbewertungsaufgabe im Vergleich zu herkömmlichen softwarebasierten Simulationsansätzen um das 6- bis 209-fache beschleunigt.;-;-;-;https://link.springer.com/article/10.1186/1687-1499-2012-215 08e59db46bf84ec4c9182cdcb8e9666a;de;;;6.2.;;;Design und Evaluierung eines adaptiven Anreizmechanismus für nachhaltige Online-Bildungsgemeinschaften Die meisten Online-Communitys, wie Diskussionsforen, Filesharing-Communitys, E-Learning-Communities und andere, leiden in der Anfangsphase der Entwicklung unter einer unzureichenden Benutzerbeteiligung. Daher ist es wichtig, Anreize zur Teilnahme zu setzen, bis die Community eine kritische Masse erreicht und „abhebt“. Zu viel Beteiligung, insbesondere von geringer Qualität, kann aber auch für die Community schädlich sein, da sie zu einer Informationsüberflutung führt, die Nutzer dazu bringt, die Community zu verlassen. Um die Qualität und Quantität der Nutzerbeiträge zu regulieren und eine nachhaltige Beteiligung der Nutzer an der Online-Community zu gewährleisten, ist es daher wichtig, die Prämien für bestimmte Beteiligungsformen für einzelne Nutzer entsprechend ihrer Reputation und den aktuellen Bedürfnissen Gemeinschaft. Ein Anreizmechanismus mit diesen Eigenschaften wird vorgeschlagen. Die Hauptidee besteht darin, die wünschenswerten Benutzeraktivitäten zu messen und zu belohnen und ein Benutzerbeteiligungsmaß zu berechnen, dann die Benutzer basierend auf ihrem Beteiligungsmaß in verschiedene Klassen zu gruppieren, die unterschiedliche Status in der Gemeinschaft haben und besondere Privilegien genießen. Für jeden Benutzer wird die Belohnung für jede Art von Aktivität dynamisch basierend auf einem Modell der Community-Bedürfnisse und einem individuellen Benutzermodell berechnet. Das Modell des Community-Bedarfs sagt voraus, welche Arten von Beiträgen (z. B. mehr neue Papiere oder mehr Bewertungen) im Moment für die Community am wertvollsten sind. Das individuelle Modell prognostiziert die Art der Beiträge des Nutzers basierend auf seiner bisherigen Leistung (ob der Nutzer dazu neigt, qualitativ hochwertige Beiträge zu leisten oder nicht, ob er die Beiträge anderer fair bewertet). Die adaptiven Belohnungen werden dem Benutzer zu Beginn jeder Sitzung angezeigt und der Benutzer kann entscheiden, welche Form des Beitrags er unter Berücksichtigung der Belohnungen, die er verdienen wird, leisten soll. Der Mechanismus wurde in einem Online-Klassen-Ressourcen-Sharing-System, Comtella, evaluiert. Die Ergebnisse zeigen, dass der Mechanismus erfolgreich eine stabile und aktive Nutzerbeteiligung fördert, die Informationsflut senkt und somit die Nachhaltigkeit der Gemeinschaft verbessert.;-;-;-;https://link.springer.com/article/10.1007/s11257-006-9013-6 743b09a689d3fd942b4e185da5bf6e99;de;;;6.2.;;;Wiederherstellung der Chancen durch Ausweitung der Ausbildung App Die Wiederherstellung der Chancen erfordert Arbeitsplätze, die Mittelklasse-Einkommen generieren können. Ungeachtet der Besorgnis über den sinkenden Anteil der mittleren Löhne wird in diesem Kapitel argumentiert, dass der Aufbau eines robusten Lehrlingsausbildungssystems in den USA das Einkommen und den Anteil der amerikanischen Arbeitnehmer, die eine lohnende Karriere einschlagen, stark erhöhen kann. Durch die Betonung des „learning by doing“ als bezahlter Arbeitnehmer ist die Lehrlingsausbildung besonders effektiv, um Arbeitnehmer auf einen geschätzten Berufsabschluss vorzubereiten. Sie fördern die Jugendentwicklung, indem sie eine ansprechendere Erfahrung bieten als die Schulbildung und junge Menschen mit Mentoren verbinden. Sie ermutigen Arbeitgeber, Arbeitsplätze zu verbessern und Job-Leitern zu entwickeln. Die Lehrlingsausbildung macht derzeit in den USA einen viel geringeren Anteil der Belegschaft aus als in den meisten anderen Industrieländern. In diesem Kapitel wird behauptet, dass die Ausweitung der Lehrlingsausbildung machbar und eine äußerst kosteneffektive Strategie zur Wiederherstellung von Chancen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25991-8_10 8906b927e16c5b3879760c6f1044d27b;de;;;6.2.;;;Eine qualitative Analyse der Stellenbeschreibungen von Angehörigen der Gesundheitsberufe für die Erbringung chirurgischer Leistungen in Uganda Die ständig steigende Nachfrage nach chirurgischen Dienstleistungen in Subsahara-Afrika macht es notwendig, die Zahl der Gesundheitsfachkräfte zu erhöhen, die in der Lage sind, chirurgische Versorgung zu leisten. Dies erfordert die Optimierung aller verfügbaren Humanressourcen, um einen universellen Zugang zu chirurgischen Grund- und Notfalldiensten zu ermöglichen. Eine Möglichkeit, bereits knappe Humanressourcen für die Gesundheit zu optimieren, besteht darin, die Stellenbeschreibungen zu klären, um den Umfang der Praxis zu lenken, die Belohnungen/Vorteile für das medizinische Personal, das die chirurgische Versorgung leistet, zu messen und die Aus- und Weiterbildung für medizinisches Fachpersonal zu informieren. Ziel dieser Studie war es, den Umfang des Mandats zur Durchführung von chirurgischen Eingriffen in den aktuellen Stellenbeschreibungen von medizinischem Fachpersonal in der chirurgischen Versorgung in Uganda zu bestimmen.;-;-;-;https://link.springer.com/article/10.1186/1478-4491-12-S1-S5 a775e3be1f7bdc15e0a7b713642e6e39;de;;;6.2.;;;Gebührenreformen in verschiedenen Ländern Górka gibt einen globalen Ausblick auf die Beteiligung von Behörden an Interbankenentgelten und Kartenzahlungen in Frankreich, der EU (Wettbewerbsfälle), Mexiko, Kanada, Israel, Indien und China. Anschließend werden drei Länderfälle – Australien, USA und Spanien – gemäß dem Rahmen aus dem vorherigen Kapitel eingehend untersucht. Als nächstes werden alle verglichen. Górka bewertet die Auswirkungen der Reformen der Interbankenentgelte auf: Dienstleistungsgebühren von Händlern, Kartenakzeptanz, Kartennutzung, Preise, Bankeinnahmen und Karteninhabergebühren, Vier-Parteien-Kartensysteme, Wettbewerb und Innovation. Er erörtert auch verschiedene Aspekte der Reformen, einschließlich Transparenzmaßnahmen. Darüber hinaus werden in diesem Kapitel Bestimmungen der jüngsten Interchange Fee Regulation in der Europäischen Union beschrieben, die derzeit als die komplexeste aller derartigen Regelungen weltweit angesehen werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-03041-4_2 1340b0d90d41f215a71f4f999987f78a;de;;;6.2.;;;Cross-Layer Dynamic Spectrum Map Management Framework für White Space-Anwendungen White Space, ungenutztes Fernsehspektrum, wird für die unlizenzierte Nutzung durch drahtlose Kommunikationsgeräte, die sogenannten White Space Applications (WSAs), zugelassen. WSAs rufen eine standortbasierte Spektrumkarte, eine Liste von offenen Leerraumkanälen, von einem Spektrumkartenserver ab und können einen aus der Liste als ihren Betriebskanal für den Breitband-Internetzugang auswählen. Da jedoch nicht nur Primärnutzer wie TV-Rundfunkdienste Weißraum kurz oder lang nutzen, sondern auch benachbarte WSAs, müssen WSAs eine Spektrumserkennung durchführen, die den Belegungsstatus (besetzt oder nicht belegt) von Weißraumkanälen bestimmt und einen der nicht belegte Kanäle gemäß den Ergebnissen der Spektrumsabtastung. Bei einer herkömmlichen Spektrumserfassung können sie unnötige Spektrumserfassung auf den bereits belegten Kanälen durchführen. Dieses Papier schlägt einen dynamischen Verwaltungsrahmen für Weißraum vor, der eine Spektrumskarte mit Hilfe von WSAs erweitert, um Belegungsinformationen zu enthalten. Unser Framework ermöglicht es WSAs, unnötige Spektrumserfassung auf den Kanälen zu vermeiden, die gemäß der erweiterten Spektrumskarte als belegt markiert sind. Als Gegenleistung für die Bereitstellung der Spektrumskarte erhält ein Spektrumskartenserver die Spektrumserfassungsergebnisse der zugehörigen WSAs, um die erweiterte Spektrumskarte über den Kanalbelegungsstatus zu aktualisieren. Die theoretische Analyse zeigt, dass der vorgeschlagene Rahmen dazu beitragen kann, die gesamte Spektrumserfassungszeit von WSAs um bis zu 50 % zu verkürzen.;-;-;-;https://link.springer.com/article/10.1155/2010/870976 a2581eaf6925fb1b40cf5dd9bd588f7b;de;;;6.2.;;;Eine kurze stromaufwärts gelegene Promotorregion vermittelt die Transkriptionsregulation der Maus Doublecortin (Dcx), ein MAP (Microtubule-Associated Protein), wird vorübergehend in wandernden und differenzierenden Neuronen exprimiert und charakterisiert dadurch neuronale Vorläufer und Neurogenese in der sich entwickelnden und adulten Neurogenese. Außerdem reduziert;-;-;-;https://link.springer.com/article/10.1186/1471-2202-11-64 aa4b492f95baa99ba06d3f7c311fff45;de;;;6.2.;;;Public-Health-Forschung Eine wissenschaftliche Grundlage für die Praxis der öffentlichen Gesundheit ist von entscheidender Bedeutung. Forschung führt zu Erkenntnissen und Innovationen, die Gesundheitsprobleme lösen und ist daher weltweit von zentraler Bedeutung für die öffentliche Gesundheit. In den Vereinigten Staaten ist die Forschung beispielsweise einer der zehn wesentlichen öffentlichen Gesundheitsdienste (Public Health Functions Steering Committee 1994). Das;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23847-0_9 921caae0dd7e69fdd19ed4dec7fa22ce;de;;;6.2.;;;Zelltherapie bei Lungenerkrankungen: Aktueller Stand und Zukunftsaussichten Mesenchymale Stromazellen (MSC)-basierte Therapien bieten eine Plattform für neue therapeutische Strategien bei Lungenerkrankungen. Diese Übersicht bietet einen Überblick über den aktuellen Stand auf diesem Gebiet sowie einige der bevorstehenden Herausforderungen, darunter ein besseres Verständnis der MSC-Wirkungen bei verschiedenen Lungenerkrankungen, personalisierte Ansätze zur Auswahl der Patienten, die am wahrscheinlichsten profitieren, und das wachsende Problem des Stammzelltourismus.;-;-;-;https://link.springer.com/article/10.1007/s40778-020-00171-5 3e8b8a5be46d8c3ac8b7d5ecbb4d8d75;de;;;6.2.;;;Angebotsseitige Strukturreform und exogene Variablen (Angebot neuer Institutionen, Angebot neuer Strukturen und Angebot neuer Politiken) Die Mainstream-Ökonomie hat die Existenz institutioneller und struktureller Faktoren lange ignoriert, und Wirtschaftswachstum wird immer als ein Prozess von Input und Output betrachtet, bei dem die Ressourcenallokation automatisch durch Marktmechanismen optimiert wird, um ein kontinuierliches Wachstum und eine allgemeine Verbesserung des Wohlstands zu erreichen . Mit dem Aufkommen der neuen institutionellen Ökonomie und des neuen Strukturalismus haben jedoch die Auswirkungen institutioneller Innovation und struktureller Anpassung an das Wirtschaftswachstum immer mehr Aufmerksamkeit erregt. Gerade für China, dessen System sich seit langem im Übergangsprozess von der Planwirtschaft zur Marktwirtschaft befindet, ergeben sich durch die Preisverzerrungen im Rahmen des „Plans“ eine Reihe struktureller Probleme, weshalb die Institutionen und Strukturen in der Ökonomie wichtig geworden sind Variablen, die nicht ignoriert werden können. Die in China durchgeführte Strukturreform auf der Angebotsseite zielt darauf ab, die Qualität und den Nutzen des Versorgungssystems zu verbessern, die Flexibilität und Anpassungsfähigkeit der Angebotsstruktur an die Veränderungen der Nachfrage zu erhöhen und die nachhaltige Wirtschaftswachstumsdynamik zu erhöhen. Dazu ist es erforderlich, die Faktorenaufwertung zu beschleunigen, das institutionelle und strukturelle Angebot umfassend zu erhöhen, die totale Faktorproduktivität zu verbessern und die Angebotspolitik durch die Entwicklung wirksamer Maßnahmen entsprechend den wachstumshemmenden Problemen zu optimieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-4639-1_7 ff56b4797301585497064657357ccbe9;de;;;6.2.;;;Die wissenschaftliche Wirkung des Structural Genomics Consortium: ein proteinfamilien- und ligandenzentrierter Ansatz für medizinisch relevante menschliche Proteine Da viele der Zentren für Strukturgenomik ihre erste Betriebsphase beendet haben, ist es sinnvoll, die wissenschaftlichen Auswirkungen dieser Bemühungen zu bewerten. Das Structural Genomics Consortium (SGC), das von drei Zentren auf der anderen Seite des Atlantiks operiert, untersucht menschliche Proteine, die an Krankheitsprozessen beteiligt sind, und Proteine ​​aus;-;-;-;https://link.springer.com/article/10.1007/s10969-007-9027-2 244a19ed5fe521827dee9c898aa9e702;de;;;6.2.;;;Industrieökologie und Portugals nationale Abfallpläne In diesem Kapitel wird untersucht, wie industrielle Ökologiekonzepte und -instrumente verwendet wurden, um die Gestaltung von Abfallwirtschaftssystemen und -richtlinien in Portugal zu unterstützen. Der Schwerpunkt liegt auf einer Reihe von Fallstudien, die die Ergebnisse einer erfolgreichen Zusammenarbeit zwischen Regierung, privaten Institutionen und Wissenschaft illustrieren, um Abfall in eine nützliche Ressource für die sozioökonomische Entwicklung umzuwandeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-20571-7_14 5b6cdb005fbe00dd98dc0c550fb9aab0;de;;;6.2.;;;Optimieren der Beurteilung des diastolischen Druckgradienten Der diastolische Druckgradient (DPG) wurde als Marker für Lungengefäßerkrankungen bei Linksherzinsuffizienz (HF) vorgeschlagen. Sein diagnostischer Nutzen wird jedoch durch die hohe Prävalenz physiologisch inkompatibler negativer Werte (DPG .) beeinträchtigt;-;-;-;https://link.springer.com/article/10.1007/s00392-020-01641-w 1401175e00f1d39508c7a5028c2fe8ec;de;;;6.2.;;;Das Glücksspielkonsum-Mediationsmodell (GCMM): Ein multipler Mediationsansatz zur Einschätzung der Assoziation bestimmter Spielarten mit problematischem Glücksspiel Bivariate Assoziationen von problematischem Glücksspiel mit der Teilnahme an bestimmten Spielarten nehmen häufig ab, wenn man sich an die Demografie oder das Konsumverhalten (z. B. Anzahl der gespielten Spielarten) anpasst. Eine Zusammenfassung von 14 begutachteten Studien zeigte Inkonsistenzen sowie konzeptionelle und methodische Herausforderungen. Das Ziel dieser Studie war es, die bisherige Forschung durch eine Kombination aus (1) ausgeklügeltem Feature-Engineering zu erweitern, das die Spielintensität in Facetten zerlegt;-;-;-;https://link.springer.com/article/10.1007/s10899-020-09928-3 d24d0bb7ec760b6bf70066bc2c1900e5;de;;;6.2.;;;Häufigkeit von Labormessungen und Hyperkaliämie bei hospitalisierten Patienten, die Medikamente zur Erhöhung der Serumkaliumkonzentration verwenden Obwohl Arzneimittelwechselwirkungen (DDI) zwischen kaliumerhöhenden Arzneimitteln (PIDs) bekannte Risikofaktoren für die Entwicklung einer Hyperkaliämie sind, ist nicht viel über deren Risiko- und Behandlungsstrategien während eines Krankenhausaufenthalts bekannt. Diese Studie untersucht die Häufigkeit von Serumkaliummessungen und Hyperkaliämie bei hospitalisierten Patienten, basierend auf der Verwendung eines oder mehrerer PIDs, und deren Determinanten.;-;-;-;https://link.springer.com/article/10.1007/s00228-011-1028-1 7469d499acc406d36a241ee83125e196;de;;;6.2.;;;Die Rolle der Notch1-Expression bei der Migration von intrahepatischen Cholangiokarzinomen Der Notch-Signalweg, ein wichtiger Signalweg für die Gewebeentwicklung, trägt in vielen Geweben zur Tumorentstehung bei, die Rolle des Notch-Signalwegs beim intrahepatischen Cholangiokarzinom (ICC) bleibt jedoch unklar. In dieser Studie haben wir die Expression und Auswirkungen von Notch1 auf die Zellmigration bei ICC untersucht.;-;-;-;https://link.springer.com/article/10.1186/1471-2407-13-244 9707cb48bdf13e313825251c19d46d81;de;;;6.2.;;;Bewertung der antibakteriellen In-vitro-Aktivität einiger ätherischer Öle und ihrer Mischungen gegen und Koagulase-negative Staphylokokken gehören zu den Hauptursachen für Mastitis bei Schafen. Das Hauptziel dieser Forschung war es, die antibakterielle In-vitro-Aktivität verschiedener ätherischer Öle (EOs,;-;-;-;https://link.springer.com/article/10.1007/s12210-021-00991-5 78f579b19310bff5f7bf6062deaa18cd;de;;;6.2.;;;Die sozialen und wirtschaftlichen Determinanten von Selbstmord in kanadischen Provinzen In diesem Beitrag untersuchen wir den kausalen Zusammenhang zwischen Suizid und einer Vielzahl sozioökonomischer Variablen. Wir verwenden einen Paneldatensatz der kanadischen Provinzen, 2000 – 2008, und eine Reihe neuer ökonometrischer Paneltechniken, um eine Vielzahl von statistischen Spezifikationsproblemen zu berücksichtigen.;-;-;-;https://link.springer.com/article/10.1186/s13561-015-0041-y e6535b399c3a77668092714a4c88cebb;de;;;6.2.;;;Thermodynamische, kinetische und Mikrostrukturdaten zur Modellierung der Erstarrung von Fe-Al-Mn-Si-C-Legierungen In dieser Studie wird ein Satz thermodynamischer, kinetischer und mikrostruktureller Daten präsentiert, um die Nichtgleichgewichtserstarrung von Fe-Al-Mn-Si-C-Legierungen zu simulieren. Die Daten wurden mit experimentellen Messungen weiter validiert und dann in einer thermodynamisch-kinetischen Software, IDS, verwendet, um den Einfluss der Legierungs- und Abkühlgeschwindigkeit auf das Erstarrungsverhalten von hoch-AlMnSi (Al ≥ 0,5 Gew.-Teile, Mn ≥ 2 Gew.- pct, Si ≥ 1 Gew.-%) Stähle. Die Modellierungsergebnisse wurden zusätzlich durch die Durchführung von Elektronensonden-Mikroanalyse (EPMA)-Messungen validiert. Die Ergebnisse zeigen, dass (1) die Erstarrung in Stählen mit hohem AlMnSi-Gehalt bei viel niedrigeren Temperaturen als in Kohlenstoffstählen stattfindet, (2) eine Erhöhung der Abkühlgeschwindigkeit den Solidus geringfügig senkt, (3) die Mikroseigerung von Mn in Austenit viel stärker ist als die von Si und Al aufgrund der Tendenz von Al und Si, sich aus der flüssigen Phase zu verarmen, (4) der Restgehalt an Delta-Ferrit kann durch eine geeignete Wärmebehandlung beeinflusst werden, jedoch nicht in dem Ausmaß, das allein aus thermodynamischen Berechnungen erwartet werden könnte (5 ) bei Stählen mit hohem AlMnSi-Gehalt, die weniger als 0,2 Gew.-% Kohlenstoff enthalten, kann die Rissbildungsneigung in Bezug auf die Verstärkung oberhalb des Solidus und das Schalenwachstum unterhalb des Solidus viel geringer sein als bei Kohlenstoffstählen.;-;-;-;https://link.springer.com/article/10.1007/s11663-020-01973-y 3eeea0325253f9bd966a1eb332140bdc;de;;;6.2.;;;SPM: Quelldatenschutz für mobile Ad-hoc-Netzwerke Der Datenschutz an der Quelle spielt eine Schlüsselrolle beim Schutz der Kommunikationsinfrastruktur. Dies ist eine kritische Sicherheitsanforderung für viele geschäftskritische Kommunikationen. Dies gilt insbesondere für mobile Ad-hoc-Netzwerke (MANETs) aufgrund der Knotenmobilität und des Mangels an physischem Schutz. Bestehende kryptografische Verfahren und rundfunkbasierte Verfahren können wegen ihrer umfangreichen kryptographischen Berechnung und/oder ihres großen Kommunikationsaufwands nicht leicht an MANET angepasst werden. In diesem Papier schlagen wir zunächst ein neuartiges bedingungslos sicheres Schema zur anonymen Nachrichtenauthentifizierung (SAMAS) vor. Dieses Schema ermöglicht es dem Nachrichtensender, Nachrichten zu übertragen, ohne sich auf vertrauenswürdige Dritte zu verlassen. Während das vorgeschlagene Schema die Privatsphäre der Quelle bereitstellt, kann es auch die Authentizität des Nachrichteninhalts bereitstellen. Wir schlagen dann ein neuartiges Kommunikationsprotokoll für MANET vor, das die Vertraulichkeit der Kommunikation sowohl für den Nachrichtensender als auch für den Nachrichtenempfänger gewährleisten kann. Dieses Protokoll kann auch die End-to-End-Routing-Privatsphäre schützen. Unsere Sicherheitsanalyse zeigt, dass das vorgeschlagene Protokoll gegen verschiedene Angriffe sicher ist. Die theoretische Analyse und Simulation zeigen, dass das vorgeschlagene Schema effizient ist und ein hohes Nachrichtenübermittlungsverhältnis bereitstellen kann. Das vorgeschlagene Protokoll kann für den Schutz kritischer Infrastrukturen und den sicheren Dateiaustausch in mobilen Ad-hoc-Netzwerken verwendet werden, in denen dynamische Gruppen gebildet werden können.;-;-;-;https://link.springer.com/article/10.1155/2010/534712 16e7ab9399c9b13e03ae1146d0868be8;de;;;6.2.;;;Was macht Informatik zu einer Wissenschaft? Von Anfang an war Informatik ein umstrittenes Thema, wobei sich die Praktiker nicht einig waren, ob Computer und Informatik Gegenstand einer Wissenschaft sein könnten (oder sollten) und wenn ja, welche Art von Wissenschaft es sein sollte. Im Laufe der Entwicklung des Fachs hat es das Computing auf ein fundiertes und elegantes mathematisches Wissen gestützt, das abstrakte Maschinen mit Rechenprozessen in Beziehung setzt, wodurch das Gebiet der „angewandten abstrakten Algebra“ geschaffen und die fortschrittlichste Mathematik des 20 die bestimmende Technologie unserer Zeit. Diese Theorie hat die Entwicklung leistungsfähiger Werkzeuge zum Programmieren und Überwachen des Computerbetriebs angeführt, wodurch die Leistungsfähigkeit des Computers in die Hände von professionellen und nicht-professionellen Benutzern gelegt wird. Software-Engineering hat im Allgemeinen nachgezogen und hat als (noch unerfülltes) Ziel die Automatisierung der Prozesse des Entwurfs und der Produktion der Softwaresysteme, die Prozesse in der Welt automatisieren, verfolgt. Tatsächlich erinnert ein Großteil seiner Literatur an die Sprache der maschinellen Produktion. Neben diesem Mainstream der Entwicklung hat sich eine aktuelle Kritik an der Fokussierung auf den Computer entwickelt, die auf einen breiteren Blick auf das Thema und den Menschen sowohl als Agenten als auch als Subjekte der Automatisierung zielt. Diese Kritiker argumentieren, dass, richtig ausgelegt, Informatik (;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-9051-5_23 6b3a24c3fd5b4b55205100a7ce046d8e;de;;;6.2.;;;Risikofaktoren der Gesundheitsversorgung-assoziierten Infektion bei älteren Patienten: eine retrospektive Kohortenstudie, die an einem tertiären Krankenhaus in China durchgeführt wurde Bei älteren stationären Patienten besteht ein hohes Risiko, an einer gesundheitsbedingten Infektion (HAI) zu erkranken. Die Studie zielte darauf ab, die Risikofaktoren einer therapieassoziierten Infektion (HAI) bei älteren Krankenhauspatienten zu analysieren, um diese zu verhindern und die Genesungsrate älterer Patienten zu verbessern.;-;-;-;https://link.springer.com/article/10.1186/s12877-019-1208-x 9f84b065dcecf3747517c07701f153ac;de;;;6.2.;;;Qualitätssicherung in der Psychiatrie: Qualitätsindikatoren und Leitlinienimplementierung In vielen Fällen entspricht die routinemäßige psychiatrische Versorgung nicht den Standards, die die Ärzteschaft selbst vorgibt. Es besteht die Hoffnung, den Ausgang schwerer psychischer Erkrankungen zu verbessern, indem die Qualität der psychischen Gesundheitsversorgung verbessert und evidenzbasierte Konsensrichtlinien umgesetzt werden. Die Einhaltung der Leitlinienempfehlungen sollte kostspielige Komplikationen und unnötige Verfahren reduzieren. Um die Qualität der psychiatrischen Versorgung und den Krankheitsverlauf zuverlässig und valide zu messen, müssen Qualitätsindikatoren verfügbar sein. Diese Indikatoren der Prozess- und Ergebnisqualität sollten mit Routinedaten leicht messbar sein, eine starke Evidenz aufweisen und Qualitätsaspekte über alle Sektoren hinweg über den gesamten Krankheitsverlauf beschreiben können. Eine messbasierte Qualitätsverbesserung wird nicht erfolgreich sein, wenn sie zu einer überwältigenden Dokumentation führt, die den Klinikern die Zeit für aktive Behandlungsinterventionen verkürzt. Zur Überwindung von Schwierigkeiten in der Umsetzungsleitlinie und zur Reduzierung der Leitlinien-Nichteinhaltung sollten Leitlinienimplementierung und Qualitätssicherung in ein komplexes Programm aus vielschichtigen Interventionen mit spezifischen psychologischen Methoden zur Umsetzung, Beratung durch Experten und Erstattung des Dokumentationsaufwandes eingebettet werden. Es gibt eine Reihe von Herausforderungen bei der Auswahl geeigneter Qualitätsindikatoren, um einen fairen Vergleich zwischen verschiedenen Versorgungsansätzen zu ermöglichen. Bei sorgfältiger Anwendung können die Verwendung von Qualitätsindikatoren und eine verbesserte Einhaltung der Leitlinien suboptimale klinische Ergebnisse angehen, Praxisvariationen reduzieren und die Lücke zwischen optimaler und routinemäßiger Versorgung schließen.;-;-;-;https://link.springer.com/article/10.1007/s00406-009-0072-7 1db1d46b2cff8348895b5e83e2816129;de;;;6.2.;;;Restorative Justice in Uruguay: Ein Linsenwechsel bei einer Reform der Strafjustiz? In den letzten Jahrzehnten haben mehrere Länder Restorative Justice als Mittel zur Konfliktlösung eingeführt. Während diese Tradition in englischsprachigen und europäischen Ländern tiefe Wurzeln hat, war der Einsatz von Restorative Justice in Lateinamerika begrenzt. In einer innovativen Anstrengung entwickelte das uruguayische Innenministerium im Rahmen einer umfassenden Reform des Strafrechtssystems ein Programm zur restaurativen Justiz, das erhebliche Veränderungen mit sich brachte, hauptsächlich im Rechtssystem (von einem inquisitorischen zu einem kontradiktorischen) und dem uruguayischen National Polizei. Dieser Artikel untersucht diese Restorative Justice-Initiative im Detail und beschreibt den Kontext ihrer Umsetzung, ihre Auswirkungen auf die Reform des Strafrechtssystems, ihre vorläufigen Ergebnisse und zukünftigen Herausforderungen, die vor uns liegen.;-;-;-;https://link.springer.com/article/10.1007/s41125-018-0036-x 1840398b1daf39fbe6d7f4aa39fb275b;de;;;6.2.;;;Ghanas Programm zur Sicherstellung des regelmäßigen Zugangs von Müttern und Babys zur Versorgung (EMBRACE): Studienprotokoll für eine randomisierte kontrollierte Cluster-Studie Die Millenniumsentwicklungsziele der Vereinten Nationen fordern eine Verbesserung des Gesundheitszustands von Müttern und Kindern. Ihre Fortschritte waren jedoch minimal und in den einzelnen Ländern ungleichmäßig. Das Kontinuum der Pflege ist ein Schlüssel zur Stärkung der Gesundheit von Müttern, Neugeborenen und Kindern. In diesem Zusammenhang hat die japanische Regierung in Zusammenarbeit mit der ghanaischen Regierung das Implementierungsforschungsprojekt „Ghana Secure Mothers and Babies Regular Access to Care“ (EMBRACE) gestartet. Diese Studie zielt darauf ab, den Implementierungsprozess und die Auswirkungen einer Intervention zu bewerten, um die Kontinuität der Versorgung des Gesundheitszustands von Müttern, Neugeborenen und Kindern in Ghana zu verbessern.;-;-;-;https://link.springer.com/article/10.1186/s13063-014-0539-3 94f499ca3e80ccac5712ba1b8922dbed;de;;;6.2.;;;Wohnungsbaufinanzierung in Afrika Die Wohnungsbaufinanzierung spielt eine wichtige Rolle in der Wertschöpfungskette der Wohnungslieferung. Dies liegt daran, dass sowohl die Nachfrage als auch das Angebot an Wohnraum finanziert werden müssen. Auf der Nachfrageseite ist die Verfügbarkeit und der Zugang zu Wohnbaufinanzierungen ein wesentlicher Faktor für die Entscheidung eines Haushalts, ein Haus zu kaufen, zu bauen oder zu mieten. Auf der Angebotsseite benötigen Bauträger ebenfalls eine Finanzierung, um die Massenwohnungsprojekte zu bauen, die erforderlich sind, um das Wohnungsdefizit des Kontinents zu beheben.;-;-;-;https://link.springer.com/chapter/10.1057/978-1-137-59792-2_3 b891204b64789172156016ec83ef8b90;de;;;6.2.;;;InCHlib – interaktive Cluster-Heatmap für Webanwendungen Hierarchisches Clustering ist eine explorative Datenanalysemethode, die die Gruppen (Cluster) ähnlicher Objekte aufdeckt. Das Ergebnis der hierarchischen Clusterbildung ist eine Baumstruktur namens Dendrogramm, die die Anordnung einzelner Cluster zeigt. Um die hierarchische Reihen-/Spalten-Clusterstruktur einer Datenmatrix zu untersuchen, wird üblicherweise ein Visualisierungstool namens „Cluster-Heatmap“ verwendet. In der Cluster-Heatmap wird die Datenmatrix als Heatmap dargestellt, ein 2-dimensionales Array, in dem die Farbe jedes Elements seinem Wert entspricht. Die Reihen/Spalten der Matrix sind so geordnet, dass ähnliche Reihen/Spalten nahe beieinander liegen. Die Reihenfolge ergibt sich aus dem Dendrogramm, das seitlich auf der Heatmap angezeigt wird.;-;-;-;https://link.springer.com/article/10.1186/s13321-014-0044-4 dc1e24c743d59862cd885a1292c0338e;de;;;6.2.;;;Die Wirksamkeit von Wirtschaftsordnungen: Eine kritische Auseinandersetzung mit bestehenden Studien und die Entwicklung eines integrierten Forschungsmodells Business Codes sind ein weit verbreitetes Managementinstrument. Die Forschung zur Wirksamkeit von Business Codes hat jedoch zu widersprüchlichen Ergebnissen geführt. Die Hauptgründe für die abweichenden Ergebnisse sind: unterschiedliche Definitionen von Schlüsselbegriffen, Defizite in den empirischen Daten und verwendeten Methoden sowie fehlende Theorie. In diesem Beitrag schlagen wir ein integriertes Forschungsmodell vor und schlagen Richtungen für die zukünftige Forschung vor.;-;-;-;https://link.springer.com/article/10.1007/s10551-006-9305-0 6079d3c5d3e5646ee7d27e480016383f;de;;;6.2.;;;Etablierung seines philosophischen Systems Als Wang Yang-ming von den Revolten von Zhu Chen-hao hörte, stellte er als Beamter, der die Provinz Jiangxi durchquerte, innerhalb seiner begrenzten Macht eine Armee von Dorfmilizen auf und unterdrückte die Rebellion in kurzer Zeit, indem er sie zu einer Meisterleistung machte, „ein starker Feind von 100.000 Soldaten mit einem Mob von 10.000 Milizen“ und rettete das politische Schicksal der Ming-Dynastie. Aber eine so klare Tatsache erwies sich aufgrund der Absurdität des Kaisers und der falschen Anschuldigungen einiger Schurken als zweideutig.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3036-4_6 37dc11dd2dae033dcb8439b362264dd1;de;;;6.2.;;;Zusammenhang zwischen Fernsehkonsum und dem Risiko eines metabolischen Syndroms in einer gemeindebasierten Bevölkerung Da das metabolische Syndrom in den letzten Jahrzehnten zu einem wichtigen Thema wurde, haben viele Studien die Risikofaktoren untersucht, die zu seiner Entwicklung beitragen. Allerdings wurde dem Risiko im Zusammenhang mit sitzendem Verhalten, insbesondere beim Fernsehen, weniger Aufmerksamkeit geschenkt. Diese Studie untersuchte den Zusammenhang zwischen der Fernsehdauer und dem Risiko, ein metabolisches Syndrom bei einer Population von taiwanesischen Probanden zu haben.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-8-193 dfaebcface2daa77b14a8813e93568e4;de;;;6.2.;;;Aufbau einer OMICS- und Biobank-Klinikfähigkeit für das maligne Melanom in Südschweden Die Ziele und Ziele des Südschwedischen Malignen Melanoms (SSMM) sind die Entwicklung, der Aufbau und die Nutzung modernster Biobanken und OMICS-Plattformen, um Krankheitspathologie und Arzneimittelmechanismen besser zu verstehen. Das SSMM-Forschungsteam ist eine wirklich funktionsübergreifende Gruppe mit Mitgliedern aus Onkologie, Chirurgie, Bioinformatik, Proteomik und Genomik-Initiativen. Innerhalb des Forschungsteams gibt es Mitglieder, die täglich Patienten mit verdächtigen Melanomen diagnostizieren, Nachuntersuchungen bei Patienten mit malignem Melanom durchführen und primäre oder metastasierte Läsionen chirurgisch entfernen. Diese interdisziplinäre klinische Patientenversorgung gewährleistet einen Kompetenzaufbau sowie ein Best-Practice-Verfahren, von dem der Patient profitiert.;-;-;-;https://link.springer.com/article/10.1186/2001-1326-2-7 9788946dc9484a6afdbe0b886da5d541;de;;;6.2.;;;Konsistente Praktiken in der Artefakt-vermittelten Zusammenarbeit Das Design kollaborativer Repräsentationen steht vor der Herausforderung, theoretische Kommunikationsmodelle mit den kontextsensitiven und kreativen Praktiken menschlicher Interaktion zu integrieren. Dieses Papier präsentiert Ergebnisse einer Studie, die multiple, unveränderliche kommunikative Praktiken bei der Aneignung flexibler, papierbasierter Medien durch Dyaden in Diskussionen über böse Probleme identifiziert. Diese medien-, teilnehmer- und themenübergreifend identifizierten Invarianten sind ein vielversprechender erster Schritt hin zu einem abstrakten Gestaltungsmodell, das Repräsentationsangebote und kommunikative Funktionen verbindet. Die Autoren identifizieren Bereiche, in denen dieses Modell konventionelle Design-Weisheiten in Frage stellen könnte, und diskutieren Richtungen für weitere Forschungen.;-;-;-;https://link.springer.com/article/10.1007/s11412-006-9001-1 014672e7c72a65fedf79776b8ab94b9a;de;;;6.2.;;;Eine Untersuchung der zukünftigen Fähigkeiten des Geschäftsprozessmanagements im Hinblick auf die Digitalisierung Business Process Management (BPM) ist eine ausgereifte Disziplin, die den Unternehmenserfolg durch effektive und effiziente Geschäftsprozesse vorantreibt. BPM wird üblicherweise über Capability Frameworks strukturiert, die für die Umsetzung der Prozessorientierung in Organisationen relevante Capability-Bereiche beschreiben und bündeln. Trotz ihrer umfassenden Nutzung werden bestehende BPM-Fähigkeits-Frameworks durch sozio-technische Veränderungen, wie sie beispielsweise durch die Digitalisierung hervorgerufen werden, herausgefordert. Im Einklang mit der Einführung neuartiger Technologien verändert die Digitalisierung bestehende und ermöglicht neue Prozesse aufgrund ihrer Auswirkungen auf individuelles Verhalten und Bedürfnisse, inner- und zwischenbetriebliche Zusammenarbeit und neue Formen der Automatisierung. Diese Entwicklung ließ die Autoren vermuten, dass die Digitalisierung neue Kompetenzfelder erfordert und bestehende Frameworks aktualisiert werden müssen. Daher wurde in dieser Studie durch eine Delphi-Studie mit internationalen Experten aus Industrie und Wissenschaft untersucht, welche BPM-Fähigkeitsbereiche im Hinblick auf die Digitalisierung relevant werden. Die Studie führte zu einem aktualisierten BPM-Fähigkeitsrahmen, begleitet von Einblicken in die Herausforderungen und Chancen von BPM. Die Ergebnisse zeigen, dass trotz einer starken Verbindung zwischen aktuellen und zukünftigen Leistungsbereichen eine Reihe völlig neuer und verbesserter Fähigkeiten erforderlich sind, damit BPM angesichts der Digitalisierung den Unternehmenserfolg steigern kann.;-;-;-;https://link.springer.com/article/10.1007/s12599-020-00637-0 59162675661a2588e38fc5d82cf21e9a;de;;;6.2.;;;PAK1 reguliert die kortikale Entwicklung, indem es die neuronale Migration und Progenitorzellproliferation fördert p21-aktivierte Kinase 1 (PAK1) ist eine Serin/Threonin-Kinase, von der bekannt ist, dass sie durch die kleinen GTPasen der Rho-Familie aktiviert wird und eine Schlüsselrolle bei der Reorganisation des Zytoskeletts, der Wirbelsäulenmorphologie und der synaptischen Plastizität spielt. PAK1 ist auch an einer Reihe von neurologischen und neurodegenerativen Erkrankungen beteiligt, darunter Autismus, geistige Behinderung und Alzheimer. Die Rolle von PAK1 in der frühen Gehirnentwicklung bleibt jedoch unbekannt.;-;-;-;https://link.springer.com/article/10.1186/s13041-015-0124-z 785a50ad92c547b92541ceb7a86a9015;de;;;6.2.;;;Die beratende Rolle von familienfremden Vorstandsmitgliedern: eine Fallstudie eines Familienunternehmens Das Ziel dieser Fallstudie ist es, Einblicke in die beratende Rolle von familienfremden Vorstandsmitgliedern in einem Familienunternehmen zu geben, das eine strategische Erneuerung versucht. Durch die Untersuchung der familienfremden Vorstandsmitglieder eines Familienunternehmens in einem nordischen Land legen wir nahe, dass sich die beratende Rolle von familienfremden Vorstandsmitgliedern dynamisch entwickelt. Wir zeigen auf der Mikroebene, wie sich Rolle, Inhalt, Intensität und Ort der Beratung verändern und wie sie sowohl trägheits- als auch stressinduzierend sein kann. Dies erleichtert die Erneuerung und damit die Fähigkeit eines Unternehmens, seine Anpassung an sich ändernde externe Anforderungen zu verbessern. Wir betonen den kollaborativen Charakter der beratenden Rolle und die Bedeutung des Vorsitzenden, der kein Familienmitglied ist, um effektive Vorstandsprozesse zu gewährleisten. Durch unsere Forschung tragen wir zum Verständnis der kontextuellen Natur der Vorstandsrollen und -aufgaben sowie zur Erneuerung von Familienunternehmen bei. Wir geben Einblicke, wie die Familienunternehmensinhaber und der Vorstandsvorsitzende die Aussichten verbessern können, dass die familienfremden Vorstandsmitglieder durch ihre beratende Rolle Wert schaffen.;-;-;-;https://link.springer.com/article/10.1007/s10997-019-09496-8 66ad227e75a751b3a1b198857c5cf323;de;;;6.2.;;;Welches ist das beste postoperative Chemotherapieregime bei Patienten mit Rektumkarzinom nach neoadjuvanter Therapie? Es besteht keine allgemeine Einigkeit darüber, ob Patienten, die bereits eine neoadjuvante Radiochemotherapie erhalten haben, eine weitere postoperative Chemotherapie auf Basis von 5-Fluorouracil (5-FU) oder 5-FU plus Oxaliplatin benötigen.;-;-;-;https://link.springer.com/article/10.1186/1471-2407-14-888 85bf0f8b1b0481b45b96d9dafac367c7;de;;;6.2.;;;Validierung der Pflegedokumentation zu Stürzen im Krankenhaus: eine Kohortenstudie Stürze im Krankenhaus sind häufig und pflegebedürftig. Daher ist es wichtig, einen einfachen Zugang zu validen Patientendaten für die Auswertung und Nachsorge der Pflege zu haben. Ziel der Studie war die Validierung der Pflegedokumentation unter Verwendung eines spezifischen Begriffs im Entlassungsschein der examinierten Krankenpfleger (RNs) zu stationären Stürzen anhand des Ergebnisses eines digitalisierten Datenextraktionstools und des Entlassungsscheins selbst.;-;-;-;https://link.springer.com/article/10.1186/s12912-021-00577-4 ca74ca0585e613a9b0cc5fb759127ab0;de;;;6.2.;;;Messen und Visualisieren der Qualität von Cyber ​​Threat Intelligence Die eigentliche Daseinsberechtigung von Cyber ​​Threat Intelligence (CTI) besteht darin, aussagekräftiges Wissen über Cyber-Sicherheitsbedrohungen bereitzustellen. Als wichtiger Aspekt der praktischen Anwendung hat sich der Austausch und die kollaborative Generierung von KTI durch Sharing-Plattformen erwiesen. Daraus lässt sich schließen, dass ungenaue, unvollständige oder veraltete Bedrohungsinformationen ein großes Problem darstellen, da nur qualitativ hochwertige CTI hilfreich sein können, um Cyberangriffe zu erkennen und abzuwehren. Auch wenn die Menge der verfügbaren CTI zunimmt, ist nicht gewährleistet, dass die Qualität unverändert bleibt. In Verbindung mit der steigenden Zahl verfügbarer KTI ist es daher im besten Interesse jedes Stakeholders, sich der Qualität eines KTI-Artefakts bewusst zu sein. Dies ermöglicht fundierte Entscheidungen und ermöglicht detaillierte Analysen. Unsere Arbeit leistet einen doppelten Beitrag zur Herausforderung, die Qualität von Threat Intelligence zu beurteilen. Wir schlagen zunächst eine Reihe relevanter Qualitätsdimensionen vor und konfigurieren Metriken, um die jeweiligen Dimensionen im Kontext von KTI zu bewerten. In einem zweiten Schritt zeigen wir die Erweiterung eines bestehenden CTI-Analysetools, um die Qualitätsbewertung für Sicherheitsanalysten transparent zu machen. Darüber hinaus fließen die subjektiven Wahrnehmungen der Analysten bei Bedarf in das Qualitätsbewertungskonzept ein.;-;-;-;https://link.springer.com/article/10.1007/s10207-020-00490-y 4a5cd0005a3eb41b470592dc64d3b178;de;;;6.2.;;;Eine Analyse der Ausgabe von vulkanischen Alarmstufen während Vulkankrisen Volcano Alert Levels (VALs) werden von Vulkanologen verwendet, um die lokale Bevölkerung und Regierungsbehörden schnell und einfach über das Ausmaß vulkanischer Unruhen und Ausbruchswahrscheinlichkeiten zu informieren. Die meisten VALs prognostizieren vulkanische Aktivitäten nicht explizit, spielen jedoch in vielen Fällen eine wichtige Rolle bei der Entscheidungsfindung: Definition von Sperrzonen und Ausgabe von Evakuierungswarnungen. Wir haben eine Analyse von VALs (194 Eruptionen, 60 Vulkane) durchgeführt, um zu beurteilen, wie gut sie die Unruhen vor dem Ausbruch widerspiegeln und welche anderen Variablen sie kontrollieren könnten. Wir haben uns auch VALs in Fällen angesehen, in denen eine Erhöhung der Alarmstufe, aber keine Eruption auftrat, diese nennen wir „Unruhe ohne Eruption“ (UwE). Wir haben unsere Ergebnisse im Zusammenhang mit Eruption und Vulkantyp, Instrumentierung, Eruptionswiederholung und Bevölkerung im Umkreis von 30 km analysiert.;-;-;-;https://link.springer.com/article/10.1186/s13617-014-0014-6 205806b09811cb9bfd8a5a2aaef2b29d;de;;;6.2.;;;Die nationale Waldinventur in China: Geschichte - Ergebnisse - internationaler Kontext Nationale Waldressourcenbewertungen und -überwachungen, allgemein bekannt als National Forest Inventories (LFIs), bilden in vielen Ländern eine wichtige nationale Informationsinfrastruktur.;-;-;-;https://link.springer.com/article/10.1186/s40663-015-0047-2 1ecf070f62fb0fe7ecf6ac459a0a9a17;de;;;6.2.;;;Darmdysbiose und reduzierte Immunglobulin-beschichtete Bakterien im Zusammenhang mit Zöliakie bei Kindern Zöliakie ist eine chronisch entzündliche Darmerkrankung, die auf eine abweichende Immunantwort auf Glutenproteine ​​in der Nahrung bei genetisch prädisponierten Personen zurückzuführen ist. Die mukosale Immunantwort durch IgA-Sekretion stellt eine erste Verteidigungslinie dar, die für die Neutralisierung schädlicher Antigene und Pathogene verantwortlich ist. Das Ziel dieser Studie war die Charakterisierung der Beziehungen zwischen Immunglobulin-beschichteten Bakterien und der bakteriellen Zusammensetzung von Patienten mit Kot von Zöliakie (CD) unbehandelt und mit einer glutenfreien Diät (GFD) und gesunden Kontrollen behandelt.;-;-;-;https://link.springer.com/article/10.1186/1471-2180-10-63 6df01661c7485179de39c25cd1755455;de;;;6.2.;;;Daten zur Entscheidungsfindung nutzen: Von Beobachtungen zu Indikatoren und anderen politischen Instrumenten Die vorherigen Kapitel in diesem Handbuch haben sich hauptsächlich auf die Entwicklung von Beobachtungssystemen und die Generierung von Biodiversitätsbeobachtungen konzentriert. Ausgehend von diesen Grundlagen untersucht dieses Kapitel die Verwendung solcher Daten in Entscheidungsprozessen. Es reflektiert, wofür Daten verwendet werden könnten, wie sie verpackt werden, was die Herausforderungen sind und was zu beachten ist, um sie richtig zu machen. Es soll ein zum Nachdenken anregender Blick auf die Erkenntnisse sein, die in den letzten Jahren bei der Kommunikation der Biodiversitätswissenschaft für politische Zwecke gewonnen wurden. Mit besonderem Fokus auf Indikatoren, einer der häufigsten Formen, in denen Beobachtungen von Entscheidungsträgern verwendet werden, betrachtet das Kapitel den Kontext, in dem Indikatoren verwendet werden und wie sie entwickelt werden. Es untersucht die Realitäten der Entwicklung und Verwendung von Indikatoren, einschließlich einiger der wichtigsten Herausforderungen und Möglichkeiten, diese zu umgehen. Außerdem werden Bewertungen und Bewertungsverfahren als ein weiteres wichtiges Instrument zur Verbindung von Wissenschaft und Politik angesprochen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27288-7_12 204641c7eca586c082345673eb5dd876;de;;;6.2.;;;Die UMTS-AKA-Protokolle für intelligente Verkehrssysteme Die Integration von Kommunikationsprotokollen in Transportsysteme ist heute ein vielbeachtetes Forschungsgebiet. In den letzten Jahren wurde über viele bahnbrechende Arbeiten zum Thema Intelligent Transportation Systems (ITS) berichtet. Viele fortschrittliche Techniken wurden entwickelt, um die Online-Kommunikation zu verbessern und die Sicherheit, den Komfort und die Effizienz von ITS zu fördern. Von größter Bedeutung für die effektive Anwendung von ITS ist das verwendete Kommunikationsprotokoll. Eine faszinierende Entwicklung ist, dass das gestrige Global System for Mobile Communication-Protokoll durch das Universal Mobile Telecommunication System-Protokoll, die Mobilfunktechnologie der dritten Generation, ersetzt wird. In diesem Artikel wird versucht, ein geeignetes Kommunikationssystem für ITS-Anwendungen zu identifizieren. Es ist undurchführbar, das ursprüngliche UMTS-IMS-AKA-Protokoll, das in der Praxis ist, wesentlich zu modifizieren, da es den Betrieb des aktuellen Systems stören kann, und daher erkunden wir durch diese Forschung andere Möglichkeiten. Wir untersuchen ein neuartiges Protokoll, um das ursprüngliche UMTS-IMS-AKA-Protokoll sowohl ITS-kompatibel als auch an das aktuelle UMTS-Protokoll anzupassen.;-;-;-;https://link.springer.com/article/10.1155/2009/267283 58efe089305ce07b3a8af5aa2888dc5b;de;;;6.2.;;;Lehre mit und über Informations- und Kommunikationstechnologien Dieses Kapitel konzentriert sich nicht nur darauf, inwieweit die Lehrkräfte, die an ICILS 2013 teilnahmen, Informations- und Kommunikationstechnologie (IKT) in ihren Klassenzimmern einsetzten, sondern auch auf die Unterrichtskontexte für den Erwerb von Computer- und Informationskompetenz (CIL). Der Inhalt des Kapitels bezieht sich auf die ICILS-Forschungsfrage 2:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-14222-7_8 aed78c42feb2869b1764a448bfa32499;de;;;6.2.;;;Komplexitätsbewältigung im Operationssaal: eine Gruppeninterviewstudie Klinische Arbeit im Operationssaal (OR) gilt als anspruchsvoll, da sie komplex, dynamisch und oft zeit- und ressourcenschonend ist. Wichtige Merkmale für ein erfolgreiches Komplexitätsmanagement sind Anpassungen und adaptive Koordination beim Umgang mit erwarteten und unerwarteten Ereignissen. Es fehlt jedoch an explorativer Forschung, die sich damit befasst, was gut läuft und wie das OP-Personal es beschreibt, auf Herausforderungen zu reagieren und Einschränkungen zu kompensieren. Das Ziel dieser Studie war es daher zu untersuchen, wie mit Komplexität umgegangen wird, wie sie von OP-Schwestern, registrierten Anästhesisten und Chirurgen ausgedrückt wird, und wie sich diese Fachleute anpassen, um eine sichere Versorgung im OP zu gewährleisten.;-;-;-;https://link.springer.com/article/10.1186/s12913-020-05192-8 0282e0ec1eaffc8afffdbea8fa85cef5;de;;;6.2.;;;Versagensmuster nach multimodalen Behandlungen von hochgradigen Gliomen: Wirksamkeit des MIB-1-Markierungsindex Der Zweck der vorliegenden Studie war es, das Rezidivmuster von hochgradigen Gliomen zu analysieren, die mit einem multimodalen Behandlungsansatz behandelt wurden, und zu bewerten, ob der MIB-1-Markierungsindex (LI) ein nützlicher Marker für die Vorhersage des Versagensmusters bei Glioblastomen sein könnte ( GB).;-;-;-;https://link.springer.com/article/10.1186/1748-717X-7-104 df740549ea62b0e36baf6e57e4355038;de;;;6.2.;;;Asymptotische Stabilität von Wanderwellenlösungen für nichtlokale viskose Erhaltungssätze mit expliziten Zerfallsraten Wir betrachten skalare Erhaltungssätze mit nichtlokaler Diffusion vom Riesz-Feller-Typ wie die fraktale Burgers-Gleichung. Die Existenz von Wanderwellenlösungen mit monoton abnehmendem Profil wurde kürzlich (in speziellen Fällen) festgestellt. Wir zeigen die lokale asymptotische Stabilität dieser Wanderwellenlösungen in einem Sobolev-Raum, indem wir ein Lyapunov-Funktional konstruieren. Am wichtigsten ist, dass wir den algebraischen zeitlichen Abfall der Norm solcher Störungen mit expliziten algebraischen zeitlichen Abfallraten herleiten.;-;-;-;https://link.springer.com/article/10.1007/s00028-018-0426-6 26be3ea6c6e01dd8ee6e078e417b78db;de;;;6.2.;;;Multiresistent Die Bekämpfung der Tuberkulose (TB) ist eine der wichtigsten globalen Gesundheitsprioritäten, aber das Ziel, die TB zu eliminieren, wird durch die Zunahme der Inzidenz von multiresistenter Tuberkulose (MDR-TB) gefährdet. Mit dieser Serie von sieben MDR-TB-Fällen bei Migrantenpatienten mit identischem;-;-;-;https://link.springer.com/article/10.1186/s12879-020-05381-0 01f3a2b94c4fea2571a32aae6c5f2fd2;de;;;6.2.;;;Steigende Tendenzen bei Einweisungen aufgrund nicht übertragbarer Krankheiten von 2012 bis 2017: Ergebnisse aus drei Großstädten in Myanmar Weltweit sind Herz-Kreislauf-Erkrankungen, chronische Atemwegserkrankungen, Krebs und Diabetes die vier wichtigsten nicht übertragbaren Krankheiten (NCDs), die zu mehr als 80 % der Mortalität und Morbidität aufgrund von NCDs beitragen. In Myanmar stieg die proportionale Sterblichkeitsrate aufgrund von nichtübertragbaren Krankheiten von 46,9 % im Jahr 2000 auf 68 % im Jahr 2017. Die Trends und Muster von vier großen nichtübertragbaren Krankheiten oder deren Krankenhauseinweisungen sind jedoch nicht bekannt. In diesem Zusammenhang zielten wir darauf ab, die Trends und das Profil der Einweisungen bei vier großen nichtübertragbaren Krankheiten anhand der endgültigen Diagnose zu bewerten, die in der Version der Internationalen Klassifikation der Krankheiten-2010 (ICD-10) aus den Krankenakten der großen tertiären Krankenhäuser in verschiedenen Regionen Myanmars kodiert ist.;-;-;-;https://link.springer.com/article/10.1186/s41182-020-00209-8 c5d6e975be019da524aea1e71b2ed492;de;;;6.2.;;;Rechenschaftspflicht im Übergang zur Demokratie In vielen aufstrebenden Demokratien, insbesondere solchen, die durch weit verbreitete und allgegenwärtige Armut gekennzeichnet sind, wird ein großer Teil der Bevölkerung tendenziell vom politischen Prozess sowie von den Vorteilen des Wirtschaftswachstums ausgeschlossen (Kapitel 4 und 5). Nur eine Minderheit wird Interessenvertreter des neuen demokratischen Systems. Verstärkt wird diese grundsätzliche Gefahr für die demokratische Lebensfähigkeit durch mangelnde Breitenrepräsentanz aufgrund der schrumpfenden Parteienbasis (Kapitel 8), des fehlenden Vertrauens in die Rechtsordnung (Kapitel 10) und der dysfunktionalen Regierung. Um diese Schwachstellen zu beheben und die informierte Zustimmung der Regierten zu erleichtern, ist eine verantwortliche Regierung in einer offenen Gesellschaft unerlässlich.;-;-;-;https://link.springer.com/chapter/10.1057/9781403905246_11 614903fbe299509489546348aa7a66c6;de;;;6.2.;;;Expositionen von Wasserorganismen gegenüber dem Organophosphor-Insektizid Chlorpyrifos infolge der Verwendung in den Vereinigten Staaten Chlorpyrifos (O,O-Diethyl O-(3,5,6-trichlor-2-pyridinyl) phosphorothioate) ist ein phosphororganisches Insektizid, das in Oberflächengewässern der Vereinigten Staaten nachgewiesen wurde (CDPR 2012a, Martin et al. 2011, NCWQR 2012, WDOE 2012). Das Potenzial von Chlorpyrifos (CPY) in Oberflächengewässern wird durch komplexe Wechselwirkungen von Faktoren in Bezug auf die Anwendung, agronomische Praktiken, klimatologische Bedingungen während und nach der Anwendung, Bodenpedologie und -chemie, hydrologische Reaktionen von Entwässerungssystemen und seine physikalisch-chemischen Eigenschaften bestimmt Mobilität und Beständigkeit unter diesen Umgebungsbedingungen. Diese Bedingungen variieren je nach Verwendungsmuster, wie z. B. der Kultur, auf die es in den verschiedenen Regionen des Landes mit unterschiedlichen Bodentypen und Klimazonen angewendet wird. Die Verwendung und Registrierung von CPY haben sich im Laufe der Zeit aufgrund der Marktkräfte und der Produktverantwortung verändert, einschließlich des Verbots der Verwendung im Einzelhandel und der Umsetzung anderer Labeländerungen für die Umweltverantwortung, die 2001 eingeführt wurden von Wasserorganismen auf CPY in den USA durch Auswertung von Nutzungsmustern, Umweltchemie, verfügbaren Überwachungsdaten und durch Simulationsmodellierung. Die Ergebnisse der Datenanalysen und Simulationsmodellierung sind ein wesentlicher Bestandteil der in einem Begleitpapier beschriebenen CPY-Risikobewertung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03865-0_4 7f2179a4cf0e3046f98e23520fa7d241;de;;;6.2.;;;Empirisches Software-Engineering-Experiment mit Human Computation (ESE) konzentriert sich auf die Sammlung von Beweisen durch Messungen und Experimente mit Menschen und Softwaresystemen (Softwareprodukte, Prozesse und Ressourcen). Während empirische Studien oft einen erheblichen menschlichen Aufwand für Studienplanung, -durchführung und Datenanalyse beinhalten,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-32489-6_7 8a426e901956dde35c67f3714821f2f6;de;;;6.2.;;;Herkunft von Stickstoff in den Ökosystemen Ärmelkanal und Südliche Bucht der Nordsee In den letzten Jahrzehnten hat die Nährstoffbelastung des Meeres aufgrund des zunehmenden anthropogenen Drucks in den Flusseinzugsgebieten deutlich zugenommen. Einige Gebiete des Ärmelkanals und der Südlichen Bucht der Nordsee sind von den daraus resultierenden Eutrophierungsbelastungen besonders betroffen. Um den Zusammenhang zwischen diesen Belästigungen und anthropogenen Aktivitäten herzustellen, müssen (1) die wichtigsten Nährstoffquellen identifiziert und (2) die Reaktion des Ökosystems auf diese Nährstoffveränderungen bewertet werden. Im marinen ökologischen Modell MIRO&CO wurde ein Ansatz zur Nährstoffverfolgung implementiert, um die Rückverfolgung von marinem Stickstoff bis zu seinen kontinentalen Quellen im Zeitraum 2000–2010 zu ermöglichen. Im Durchschnitt trägt die atmosphärische Stickstoffdeposition zwischen 1 und 10 mmol N/m . bei;-;-;-;https://link.springer.com/article/10.1007/s10750-017-3419-5 74735c5d7a036405fdfc055c63104f1c;de;;;6.2.;;;Vertrauenswürdiger Algorithmus zur Erstellung von Gruppen in verteilten Systemen Informationssysteme werden auf skalierbare Architekturen wie Cloud- und Peer-to-Peer (P2P)-Modelle verlagert. In diesem Papier betrachten wir das P2P-Modell als ein vollständig verteiltes, skalierbares System, das sich von zentralisierten koordinierten Systemen in Cloud- und Grid-Systemen unterscheidet. Ein P2P-System besteht aus Peer-Prozessen (Peers). Hier werden Anwendungen durch Aktivitäten von Peers und Kooperationen mehrerer Peers realisiert. Da es in P2P-Systemen keine zentrale Koordination gibt, muss sich jeder Peer selbst Informationen über andere Peers beschaffen. Bei der Gruppenkooperation muss jeder Peer des Gruppenmitglieds vertrauenswürdig sein, damit böswilliges Verhalten eines Mitglieds Peers das Gesamtergebnis der gesamten Gruppe nicht beeinflussen kann. Dabei ist es wichtig, die Vertrauenswürdigkeit jedes Gruppenmitglieds als Grundlage eines Einigungsverfahrens im verteilten Umfeld zu berücksichtigen. Das Ziel einer Gruppe und die Art und Weise, wie das Ziel archiviert wird, werden von den Gruppenmitgliedern festgelegt. Während des Einigungsverfahrens müssen Meinungen von Mitgliedskollegen in einer Gruppe gesammelt werden. Böswilliges und unerwartetes Verhalten von Mitgliedskollegen kann sich negativ auf die Leistung einer Gruppe auswirken. Daher ist es wichtig zu diskutieren, wie man eine Gruppe zusammenstellt, indem man nur vertrauenswürdigere Peers einbezieht. In diesem Papier schlagen wir unter Ausnutzung des Vertrauenswürdigkeitskonzepts jedes Peers einen neuartigen Ansatz vor, um eine vertrauenswürdige Gruppe in den verteilten Vereinbarungsprotokollen zu bilden.;-;-;-;https://link.springer.com/article/10.1186/2192-1962-1-6 e0e0065790b7e1b7b28564fb8f41e0b2;de;;;6.2.;;;Problemdomänenanalyse von IoT-getriebenen sicheren Datenmärkten Das Internet der Dinge (IoT) liefert uns Tag für Tag eine Unmenge neuer Daten, die jedoch derzeit meist nur gespeichert werden, ohne ihr volles Potenzial auszuschöpfen. Das attraktive Konzept von Datenmärkten kann diese Situation in naher Zukunft ändern und daher initiieren wir die Untersuchung von Sicherheitsaspekten solcher Systeme. In dieser Arbeit analysieren wir in einem ersten Schritt die Datenmärkte anhand der möglichen Sicherheitsanforderungen der verschiedenen Teilnehmer. Wir identifizieren über 30 mögliche Szenarien und verbinden diese mit den relevanten Bereichen der Kryptographie. Unsere Analyse hebt auch mehrere offene Probleme hervor, die weitere Forschungen zu bestimmten kryptografischen Primitiven motivieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-95189-8_6 766c2e385cdbdd54f0ed91662b2da30a;de;;;6.2.;;;Untersuchung der Mechanismen, die der Abbildung von Zahl zu Zahl zugrunde liegen, und ihrer Beziehung zur mathematischen Kompetenz Die Leistung der Zahlenschätzung (z. B. wie genau, konsistent oder proportional beabstandete (lineare) Zahlen-Zahl-Abbildungen sind) wurde früher mit mathematischer Kompetenz in Verbindung gebracht. Die spezifischen Mechanismen, die einer solchen Beziehung zugrunde liegen, sind jedoch unbekannt. Ein möglicher Mechanismus ist der Abbildungsprozess zwischen numerischen Mengen und symbolischen Zahlen (z. B. arabischen Ziffern). Die aktuelle Studie untersuchte zwei hypothetische Mechanismen von Numerosität-Zahlen-Mappings (itembasiertes „assoziatives“ und holistisches „strukturelles“ Mapping) und ihre Rolle in der Schätz- und Mathematik-Beziehung. Insbesondere wird angenommen, dass Abbildungen für kleine Zahlen (z. B. 1–10) assoziativ und kalibrierungsresistent sind (z. B. Feedback zur Genauigkeit von Schätzungen), während eine ganzheitliche „strukturelle“ Abbildung für größere Zahlen (z. B. über 10) unterstützt werden kann durch flexibles Ausrichten eines numerischen „Antwortrasters“ (ähnlich einem Lineal) bei der Kalibrierung an einem analogen „mentalen Zahlenstrahl“. Bei 57 Erwachsenen verwendeten wir Schätzungen vor und nach der Kalibrierung, um den Bereich kontinuierlicher assoziativer Zuordnungen bei kleinen Zahlen (z Strategieberichte. In Übereinstimmung mit früheren Forschungen korrelierte die unkalibrierte Schätzleistung mit der Rechenkompetenz, der Kontrolle der Leseflüssigkeit und des Arbeitsgedächtnisses. Ein höherer Basisbereich assoziativer Mappings stand jedoch in keinem Zusammenhang mit der Schätzleistung oder irgendwelchen mathematischen Kompetenzmaßen. Kritisch ist, dass die Diskontinuität der Kalibrierungseffekte auf individueller Ebene typisch war, was die Natur der „ganzheitlichen Strukturabbildung“ in Frage stellt. Eine sparsame Erklärung für die Integration früherer und aktueller Erkenntnisse besteht darin, dass die Schätzleistung wahrscheinlich durch dynamisches Konstruieren von Zahlen-Zahl-Mappings durch die Verwendung mehrerer Strategien von Versuch zu Versuch optimiert wird.;-;-;-;https://link.springer.com/article/10.1007/s00426-020-01299-z f220e2b269c006184294b558c1ced024;de;;;6.2.;;;Signalisierungsangriffe im Mobilfunk Viele aufkommende Internet-of-Things-Geräte, Gateways und Netzwerke verlassen sich entweder auf mobile Netzwerke oder auf Internetprotokolle, um ihre Konnektivität zu unterstützen. Es ist jedoch bekannt, dass beide Arten von Netzwerken anfällig für verschiedene Arten von Angriffen sind, die ihren Betrieb erheblich stören können. Insbesondere Mobilfunknetze der 3. und 4. Generation erleben signalisierungsbezogene Angriffe wie Signalstürme, die in den letzten zehn Jahren ein häufiges Problem waren. Dieses Papier stellt ein generisches Modell eines Mobilfunknetzes vor, das verschiedene Verhaltensweisen von Endbenutzern umfasst, einschließlich möglicher Angriffe auf das Signalisierungssystem. Anschließend schlagen wir zwei Angriffserkennungsmechanismen vor und bewerten diese durch Analyse und Simulation auf Basis des generischen Mobilfunkmodells. Unsere Ergebnisse legen nahe, dass Mobilfunknetze so modifiziert werden können, dass sie Angriffe automatisch erkennen können. Unsere Ergebnisse legen zudem nahe, dass Angriffsabwehr sowohl über das Signalisierungssystem als auch „pro mobiles Endgerät“ erfolgen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-95189-8_12 069bdae9cac397f7faf51b9d5912126e;de;;;6.2.;;;Geografisch gewichtete Evidenzkombinationsansätze zur Kombination von widersprüchlichen und inkonsistenten freiwilligen geografischen Informationen Es besteht großes Interesse, Crowdsourcing-Daten kombinieren zu können. Eine der kritischen Fragen in den Informationswissenschaften ist die Kombination von Daten oder Informationen, die in irgendeiner Weise widersprüchlich oder inkonsistent sind. Viele frühere Ansätze haben einen Mehrheitsregelansatz unter der Annahme verfolgt, dass die meisten Menschen die meiste Zeit Recht haben. Dieses Papier analysiert durch die Geo-Wiki-Initiative generierte Crowdsourcing-Daten zur Landbedeckung, um die an Standorten in einem 50-km-Raster vorhandene Landbedeckung abzuleiten. Es vergleicht vier Evidenzkombinationsansätze (Dempster-Shafer, Bayes, Fuzzy Sets und Possibility), die unter einem geografisch gewichteten Kernel angewendet werden, mit dem geografisch gewichteten Durchschnittsansatz, der in vielen aktuellen Geo-Wiki-Analysen verwendet wird. Ein geografisch gewichteter Ansatz verwendet einen Moving Kernel, unter dem lokale Analysen durchgeführt werden. Der Beitrag (oder Salienz) jedes Datenpunkts zur Analyse wird nach seiner Entfernung zum Kernelzentrum gewichtet, was Toblers;-;-;-;https://link.springer.com/article/10.1007/s10707-016-0248-z febd705e954e5b463daf464c1ada78a0;de;;;6.2.;;;Meereswissenschaftliche Forschung: Bestandsaufnahme und Ausblick Dieses Kapitel untersucht kritisch das internationale Rechtssystem, das zur Regulierung der wissenschaftlichen Meeresforschung dient. Es adressiert aktuelle und zukünftige Herausforderungen. Der erste Teil skizziert insbesondere die allgemeinen Merkmale dieses Regimes. Es beginnt mit einer kurzen Gesetzgebungsgeschichte, um die Faktoren zu veranschaulichen, die die Form des aktuellen Rechtsrahmens beeinflusst haben. Anschließend gibt es einen Überblick über den aktuellen Rechtsrahmen. Der zweite Teil befasst sich mit Umsetzungsproblemen sowie einigen ungeklärten Fragen, die bei der Auslegung und Anwendung des wissenschaftlichen Meeresforschungsregimes zu potenzieller Verwirrung führen könnten. Es schließt mit einigen allgemeinen Bemerkungen darüber, wie die wissenschaftliche Meeresforschung effektiver sein kann, ein Faktor von großer Bedeutung bei der Bekämpfung der globalen Meeresbedrohungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-51274-7_5 605c9852f953af07dd6390963c991d44;de;;;6.2.;;;Ein GIS-basiertes Anwendungssystem zur Berechnung, Bewertung und Analyse kommunaler Wasserressourcen Um den Bau der Wasserwirtschaftsmodernisierung voranzutreiben, wird eine Architektur des kommunalen Wasserressourcen-Anwendungssystems auf der Grundlage von GIS zusammen mit dem Berechnungsmodell und der funktionalen Struktur des Oberflächenwasserressourcenmanagement-Subsystems und des Grundwasserressourcenmanagement-Subsystems, die die Kernkomponenten innerhalb der Anwendungssystem, wurden in diesem Beitrag diskutiert. Das Antragssystem wurde in mehreren kleinen bis mittelgroßen Städten in der Provinz Shandong eingesetzt und hat gute wirtschaftliche und soziale Vorteile erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-49155-3_86 16150b7b561259d087806cb09499bf2d;de;;;6.2.;;;Analyse der biomedizinischen Datenbanken MIDAS und OASIS zur Anwendung multimodaler Bildverarbeitung In den letzten zwei Jahrzehnten gab es bedeutende Fortschritte in Bezug auf medizinische Bildgebungsmodalitäten und Bildverarbeitungstechniken. In der biomedizinischen Bildgebung kann die Genauigkeit eines diagnostizierten interessierenden Bereichs mithilfe eines multimodalen Patientendatensatzes erhöht werden. Für die Verarbeitung und Analyse der multimodalen Bildgebung werden zahlreiche Forschungsarbeiten und Techniken vorgeschlagen, die Datensätze für das Benchmarking und die Validierung ihrer Leistungen erfordern. In diesem Zusammenhang werden zwei wichtige Datenbanken: MIDAS und OASIS ausgewählt und ausgewertet, um die Forscher bei der Durchführung ihrer Ergebnisse im Bereich der multimodalen Bildgebung anzuleiten. Auch die mit diesen Datensätzen assoziierten Erkrankungen und offene Fragen im Bereich der multimodalen Bildgebung werden diskutiert. Das Hauptziel dieses Artikels ist es, das aktuelle Interesse des Forschers und offene Plattformen für zukünftige Forschungen in der multimodalen medizinischen Bildgebung zu diskutieren. Wir erstellen einige statistische Ergebnisse von Grafiken und Diagrammen mit dem Online-Webanalyse-Tool „SIMILIARWEB“, um das öffentliche Interesse an diesen Datenbanken zu zeigen, und haben diese Datensätze auch nach verschiedenen Modalitäten, Körperscanbereichen, krankheitsbasiert und Klassifizierung von Bildern geordnet, um die Forscher zu motivieren in multimodalen medizinischen Bereichen. Die Bedeutung dieser Datenbanken im Bereich der multimodalen Bildverarbeitung wird durch grafische Diagramme und statistische Ergebnisse verdeutlicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5232-8_50 5f6b661584c5da9c7f4a57ca53827c84;de;;;6.2.;;;Traffic-Optimierung und mehrseitige Preisgestaltung in überlasteten Netzwerken In der Arbeit betrachten wir das Verkehrsoptimierungsproblem für ein Modell mit mehrseitiger dynamischer Preisbildung im Telekommunikationsmarkt mit unvollständigem Wettbewerb und unter Berücksichtigung überlasteter Netze. Das Modell besteht aus der Anwendung mathematischer Modellierungsmethoden, Spieltheorie und Warteschlangentheorie. Es wird davon ausgegangen, dass Telekommunikationsunternehmen die Regeln für die Gebühren für eingehenden und ausgehenden Verkehr paarweise vereinbaren, und diese Gebühren richten sich nach den Tarifen, die Unternehmen ihren Abonnenten für den Service anbieten. Unternehmen beschränkt die Vereinbarung auf gegenseitige Regeln der gegenseitigen proportionalen Verrechnung des Zugangsverkehrs zunächst, die anschließend die Tarife für die Netznutzer festlegen. Die Gegenseitigkeit der Regeln bedeutet, dass Unternehmen während der gesamten Laufzeit des Abkommens denselben Regeln unterliegen. Unter Berücksichtigung des unvollkommenen Wettbewerbs auf dem Telekommunikationsmarkt und unter Verwendung der Verkehrs- und Gewinnoptimierungsmethode für jedes Unternehmen werden die Gleichgewichtstarife und das Leistungsvolumen mit Überlastung in Multi-Service-Netzen gefunden. Zur Veranschaulichung der Ergebnisse wird eine numerische Berechnung durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-97595-5_29 1b5a7e529cf2140b99c336817b1476db;de;;;6.2.;;;Einphotonentransistoren basierend auf der Wechselwirkung von Emitter und Oberflächenplasmonen Ein symmetrischer Ansatz wird vorgeschlagen (Chang DE et al. Nat Phys 3:807, 2007), um einen Einzelphotonentransistor zu realisieren, bei dem die Anwesenheit (oder Abwesenheit) eines einzelnen einfallenden Photons in einem 'Gate'-Feld ausreicht verhindern) die Ausbreitung eines nachfolgenden „Signal“-Photons entlang des Nanodrahts, unter der Bedingung, dass das „Gate“-Feld symmetrisch von beiden Seiten eines Emitters gleichzeitig einfällt. Wir präsentieren ein Schema für Einzelphotonentransistoren basierend auf der starken Emitter-Oberfläche-Plasmon-Wechselwirkung. In diesem Schema führt die kohärente Absorption eines einfallenden „Gate“-Photons, das entlang einer Nanospitze einfällt, durch einen Emitter, der sich in der Nähe der Spitze der Nanospitze befindet, zu einem Zustandswechsel im Emitter, der die anschließende Ausbreitung eines „Signal“-Photons in einem Nanodraht steuert senkrecht zur Achse der Nanospitze.;-;-;-;https://link.springer.com/article/10.1007/s11671-008-9166-9 caa01ea7bb5112e637c7b6ed65345411;de;;;6.2.;;;Forschung zur Modellierung komplexer systemintegrierter Entwicklungsplattformen Die Hauptmerkmale und Mängel der gegenwärtigen Entwicklung komplexer Großsystemintegration werden analysiert. Das Rahmenmodell der Entwicklungsplattform für komplexe Großsysteme basiert auf dem System Engineering V-Modell und dem Hall-Modell. Dieses Modell nimmt das integrierte Design als Hauptbestandteil, den F&E-Prozess als Hauptlinie, das Wissens-Engineering und das Qualitätsmanagement als wichtige Hilfsmittel. Die Hauptteile des Rahmenmodells werden untersucht und beschrieben. Die Anwendung zeigt, dass dieses Modell effektiv ist, um den Aufbau einer Entwicklungsplattform zu leiten, und die F&E-Fähigkeiten von Unternehmen werden schnell und umfassend verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-2663-8_36 a0c663eb50e248a0fda7c7d277057aeb;de;;;6.2.;;;Variographie und Morphometrie zur Klassifizierung von Gebäudeschwerpunkten: Protokoll, Daten und Skript Es existieren unterschiedliche räumliche Muster des Stadtwachstums wie Infill, Edge-Expansion und Leapfrog Development. Dieser Beitrag stellt eine Methodik und ein entsprechendes Skript vor, die neue Wohngebäude als Muster urbanen Wachstums klassifizieren. Das Skript führt eine Kombination aus Variographie und Morphometrie über Gebäudeschwerpunkte an zwei verschiedenen Daten durch. Die Testdaten stammen aus den Gebäudeschwerpunkten der Jahre 2002 und 2017 für Centre-Var, eine Region in Südfrankreich. Die unterschiedlichen Grenzregionen, die sich aus einer Reihe morphologischer Schließungen ergeben, erlauben es, die zwischen 2002 und 2017 entstandenen Gebäudeschwerpunkte in verschiedene Kategorien räumlicher Muster des Stadtwachstums einzuordnen. Die endgültige Klassifizierung erfolgt nach dem Grad der Clusterung/Streuung neuer Schwerpunkte und ihrer Lage in bestehenden Stadtgebieten. Vorläufige Ergebnisse zeigen, dass dieses Protokoll nützliche Erkenntnisse über den Beitrag jedes neuen Wohngebäudes zu den folgenden Mustern des Stadtwachstums liefern kann: Clustered Infill, Scattered Infill, Clustered Edge Expansion, Scattered Edge Expansion, Clustered Leapfrog und Scattered überspringen. Es wird ein offener Zugriff auf das Skript und die Testregionsdaten bereitgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58811-3_30 c72a105a7ee590468cdbd6c2261ef84d;de;;;6.2.;;;Unterstützung der Hybrid-CPU-GPU-Ausführung im Rahmenprogramm SkePU In diesem Whitepaper stellen wir ein hybrides Ausführungs-Backend für das Skeleton-Programmierframework SkePU vor. Das Backend ist in der Lage, die Arbeitslast automatisch aufzuteilen und die Berechnung gleichzeitig auf einer Multi-Core-CPU und einer beliebigen Anzahl von Beschleunigern wie GPUs auszuführen. Wir zeigen, wie man die Arbeitslast von Skeletten wie Map, MapReduce und Scan effizient partitioniert, um eine hybride Ausführung auf heterogenen Computersystemen zu ermöglichen. Wir zeigen auch eine einheitliche Methode zur Vorhersage, wie die Arbeitslast basierend auf der Leistungsmodellierung aufgeteilt werden sollte. Mit Experimenten an typischen Skelett-Instanzen zeigen wir die Beschleunigung für alle Skelette bei Verwendung des neuen Hybrid-Backends. Wir bewerten auch die Leistung einiger realer Anwendungen. Schließlich zeigen wir, dass die neue Implementierung im Vergleich zu einer alten hybriden Ausführungsimplementierung auf Basis dynamischer Planung eine höhere und zuverlässigere Leistung bietet.;-;-;-;https://link.springer.com/article/10.1007/s11227-019-02824-7 28649ddfee9232f61be6b40f753bb718;de;;;6.2.;;;Vorschlag und Bewertung eines zukünftigen Mobilnetz-Management-Mechanismus mit Attraktor-Auswahl Mehrere Arbeitsgruppen arbeiten derzeit an der Gestaltung des Internets der Zukunft und es ist höchste Zeit, dass die Forschungsarbeiten auch im großen Stil einen Schritt in Richtung zukünftiger Mobilfunknetze gehen. In diesem Artikel schlagen wir eine zukünftige mobile Netzwerkmanagementmethode vor, die auf einer Kombination von OpenFlow und der biologisch inspirierten Attraktorauswahlmethode basiert, um Skalierbarkeit und Energieeffizienz zu erreichen. Mit anderen Worten, wir schlagen neue Ansätze für das drahtlose Netzwerkmanagement vor, indem wir den Attraktorauswahlmechanismus im Pfad- und Clustermanagement erweitern, um die Signalisierungskosten zu reduzieren. Zuerst etablieren wir beim Pfadmanagement ein Steuerverfahren, bei dem jeder mobile Knoten die am besten geeigneten Schnittstellen in Übereinstimmung mit dem momentanen Live-Verkehrsvolumen auswählt. Dann entwickeln wir beim Cluster-Management eine Netzwerk-Management-Methode, bei der Netzwerkgeräte den besten OpenFlow-Cluster auswählen, um sich anzuschließen, um die Kosten für die Übergabesignalisierung zu reduzieren. Durch autonome Entscheidungen jedes mobilen Knotens und Netzwerkgeräts kann das gesamte drahtlose Netzwerk auf autonome, energieeffiziente und robuste Weise verwaltet werden.;-;-;-;https://link.springer.com/article/10.1186/1687-1499-2012-259 ddaede09fb3ed5317b3f9de760d2a8e2;de;;;6.2.;;;Automatische Trennung von zusammengesetzten Figuren in wissenschaftlichen Artikeln: Eine Studie zur Kantenkarte und ihrer Rolle bei der Erkennung von genähten Plattengrenzen Wir präsentieren eine Technik, die Kantenkarten verwendet, um Panels von genähten zusammengesetzten Figuren zu trennen, die in biomedizinischen wissenschaftlichen Forschungsartikeln erscheinen. Da solche Abbildungen Bilder von verschiedenen Bildgebungsmodalitäten umfassen können, ist ihre Trennung ein kritischer erster Schritt für eine effektive biomedizinische inhaltsbasierte Bildwiederherstellung (CBIR). Wir untersuchen hochmoderne Kantenerkennungsalgorithmen, um Graustufen-Pixeländerungen zu erkennen. Es wendet dann einen Linienvektorisierungsprozess an, der markante unterbrochene Linien entlang der Panelgrenzen verbindet, während unbedeutende Liniensegmente innerhalb der Panels eliminiert werden. Wir haben unsere vollautomatische Technik an einer Teilmenge von zusammengefügten biomedizinischen Multipanel-Zahlen validiert, die aus Artikeln innerhalb der Open-Access-Teilmenge des PubMed Central-Repository extrahiert wurden, und haben eine Präzision und einen Wiedererkennungswert von 74,20 % bzw. 71,86 % in weniger als 0,272 s pro Bild erreicht , im Durchschnitt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-4859-3_29 227f64195d4610acc4f057dbb8f1bceb;de;;;6.2.;;;Integration mehrerer Datenquellen für Lernanalysen – Literaturübersicht Learning Analytics (LA) verspricht das Verständnis und die Optimierung von Lern- und Lernumgebungen. Um umfassendere Einblicke in Fragen des Lernens und der Bildung zu ermöglichen, sollten LA-Lösungen in der Lage sein, Daten aus vielen verschiedenen Datenquellen zu integrieren, die in verschiedenen Formaten und unterschiedlichen Strukturebenen gespeichert sein können. Auch für die Skalierbarkeit von LA spielt die Datenintegration eine Rolle, eine wichtige Herausforderung an sich. Ziel dieser Überprüfung ist es, den aktuellen Stand von LA im Hinblick auf die Datenintegration im Hochschulkontext zu beurteilen. Die anfängliche Suche in sechs wissenschaftlichen Datenbanken und gemeinsamen Orten für die Veröffentlichung von LA-Forschung führte zu 115 Veröffentlichungen, von denen 20 in die endgültige Analyse einbezogen wurden. Die Ergebnisse zeigen, dass einige wenige Datenquellen (z Low-hanging fruit in Bezug auf technische Herausforderungen), in der Forschungsliteratur fehlen tendenziell Details zur Datenintegration in die implementierten Systeme, und obwohl sie ein guter Ausgangspunkt für die Datenintegration sind, scheinen Bildungsdatenspezifikationen (z. B. xAPI) selten zu sein Gebraucht. Darüber hinaus weisen die Ergebnisse auf eine mangelnde Beteiligung von Interessengruppen (z. B. Lehrer/Ausbilder, Technologieanbieter) an den Forschungsstudien hin. Der Review schließt mit Empfehlungen, um Einschränkungen und Lücken in der in der Literatur berichteten Forschung zu schließen.;-;-;-;https://link.springer.com/article/10.1186/s41039-019-0105-4 7c17bbba8be30969725e57e9fe5b6d6a;de;;;6.2.;;;Störungsminimierung in heterogenen 5G-Netzen In diesem Papier konzentrieren wir uns auf eines der repräsentativen 5G-Netzwerkszenarien, nämlich mehrschichtige heterogene Mobilfunknetze. Die Benutzerassoziation wird untersucht, um die Abwärtsstrecken-Gleichkanalinterferenz zu reduzieren. Um zunächst mehrschichtige heterogene Mobilfunknetze zu analysieren, bei denen die Basisstationen in verschiedenen Schichten normalerweise unterschiedliche Sendeleistungen annehmen, schlagen wir ein Transmission Power Normalization Model (TPNM) vor, das in der Lage ist, ein mehrschichtiges Mobilfunknetz in ein Single-Tier-Netzwerk, so dass alle Basisstationen die gleiche normalisierte Sendeleistung haben. Mithilfe von TPNM können dann das Signal und die Interferenz, die an jedem Punkt in der komplexen mehrschichtigen Umgebung empfangen werden, analysiert werden, indem derselbe Punkt im äquivalenten einschichtigen Mobilfunknetzmodell berücksichtigt wird, wodurch die Analyse erheblich vereinfacht wird. Auf dieser Grundlage schlagen wir ein neues Benutzerassoziierungsschema in heterogenen zellularen Netzwerken vor, bei dem die Basisstation, die zu den kleinsten Störungen anderer Gleichkanal-Mobilstationen führt, aus einer Menge von Kandidatenbasisstationen ausgewählt wird, die die Dienstgüte (QoS)-Einschränkung für eine beabsichtigte Mobilstation. Numerische Ergebnisse zeigen, dass das vorgeschlagene Benutzervereinigungsschema in der Lage ist, die Downlink-Interferenz im Vergleich zu existierenden Schemata signifikant zu reduzieren, während eine einigermaßen gute QoS aufrechterhalten wird.;-;-;-;https://link.springer.com/article/10.1007/s11036-014-0564-1 3b213627b3411f15805f5097c5e89e4a;de;;;6.2.;;;Auktion–Stackelberg-Spiel-Framework für Zugangsberechtigungen in Femtozellen-Netzen mit mehreren Netzbetreibern Mit dem explosionsartigen Wachstum des Indoor-Datenverkehrs in den kommenden Mobilfunknetzen der fünften Generation ist es für Mobilfunknetzbetreiber unabdingbar, die Netzabdeckung und -kapazität zu verbessern. Femtozellen gelten weithin als vielversprechende Technologie, um diesen Anforderungen gerecht zu werden. Da Femtozellen von einem Mobilfunknetzbetreiber (MNO) an seine Privat- oder Unternehmenskunden verkauft oder ausgeliehen werden, verwenden MNOs normalerweise ein Rückerstattungssystem, um die Femtozelleninhaber (FHs) zu entschädigen, die anderen Teilnehmern den Indoor-Zugang bieten, indem sie die Femtozelle für den offenen oder hybriden Betrieb konfigurieren Zugriffsmodus. Aufgrund des egoistischen Charakters macht es der Wettbewerb zwischen Netzbetreibern und Femtozellen-Inhabern für die Betreiber schwierig, geeignete FHs für den Handel mit Zugangsressourcen auszuwählen. Dies inspiriert uns, einen effektiven Rückerstattungsrahmen zu entwickeln, mit dem Ziel, die Nutzung von Netzwerkressourcen insgesamt zu verbessern, indem FHs gefördert werden, um angemessene Zugriffsberechtigungen für gut angepasste Makrobenutzer zu erteilen. In diesem Papier entwickeln wir ein zweistufiges Auktions-Stackelberg-Spiel (ASGF)-Framework für die Zugangsberechtigung in Femtozellen-Netzwerken, bei dem MNO und mobile virtuelle Netzbetreiber Zugangsressourcen von mehreren FHs leasen. Wir entwerfen zunächst einen Auktionsmechanismus, um die Gewinner-Femtozelle zu ermitteln, die die Zugriffsanfrage von Makrobenutzern erfüllt. Als nächstes formulieren wir das Zugangsberechtigungsproblem zwischen der Gewinner-Femtozelle und den Operatoren als Stackelberg-Spiel und beweisen theoretisch die Existenz eines eindeutigen Gleichgewichts. Da durch die Verbesserung der Auszahlung der einzelnen Spieler im Spiel ein höherer Systemgewinn erzielt werden kann, kann jeder Spieler die beste Reaktion auf die Aktionen anderer auswählen, indem er Zugriffsberechtigungen implementiert, während ein kompliziertes Optimierungsproblem vermieden wird. Numerische Ergebnisse bestätigen die Wirksamkeit unseres vorgeschlagenen ASGF-basierten Erstattungsrahmens und die Gesamteffizienz des Netzwerks kann erheblich verbessert werden.;-;-;-;https://link.springer.com/article/10.1007/s11276-016-1406-9 2cb0e261f65d55fe1f30ad5285a14855;de;;;6.2.;;;Anwendung von terrestrischem Laserscanning zur Erkennung von Bodenoberflächendeformationen in einem kleinen Schlammvulkan (Murono, Japan) Wir führen terrestrisches Laserscanning (TLS) durch, um Veränderungen in der Oberflächenmorphologie eines Schlammvulkans in Murono, Nord-Zentraljapan, zu erkennen. Das Untersuchungsgebiet wurde durch ein starkes Erdbeben im Jahr 2011 erheblich verformt, und die Oberflächenverformung hat sich in den folgenden Jahren fortgesetzt. Die Punktwolken-Datensätze wurden von TLS zu drei verschiedenen Zeitpunkten in den Jahren 2011, 2013 und 2014 erhalten. Diese Punktwolken wurden durch eine wolkenbasierte Registrierung ausgerichtet, die den engsten Punktabstand von Punktwolken unveränderter Bodenmerkmale und den TLS-basierten Punkt minimiert Wolkendaten scheinen geeignet zu sein, um Deformationen in der zentralen Domäne des Schlammvulkans in der Größenordnung von Zentimetern zu erkennen, sowie für Messungen topographischer Merkmale, einschließlich Rissen der befestigten Bodenoberfläche. Die von TLS erfassten räumlichen Muster und das kumulative Ausmaß der vertikalen Verformung in den Jahren 2011–2014 stimmen gut mit denen überein, die zuvor auf der Grundlage punktbasierter Nivellierungsmessungen gemeldet wurden, was die Gültigkeit der TLS-Messung unterstützt.;-;-;-;https://link.springer.com/article/10.1186/s40623-016-0495-0 3843f73623495fd344f4923d4ac9a43c;de;;;6.2.;;;Analyse und Visualisierung großer Netzwerke mit dem Programmpaket Pajek Pajek ist ein Programmpaket zur Analyse und Visualisierung von großen Netzwerken (Netzwerke mit bis zu einer Milliarde Knoten, es gibt keine Begrenzung – außer der Speichergröße – der Zeilenanzahl). Es ist seit 20 Jahren erhältlich. Das Programm, die Dokumentation und das unterstützende Material können von ihrer Webseite für den nichtkommerziellen Gebrauch heruntergeladen und kostenlos verwendet werden:;-;-;-;https://link.springer.com/article/10.1186/s40294-016-0017-8 21dade082dc7ffeeb970eb8c433b8abe;de;;;6.2.;;;Ein Überblick über die Chancen und Herausforderungen von Big Data Dieses Jahrzehnt hat eine massive Explosion von Informationen und Daten erlebt, umfangreiche Daten bringen viele Herausforderungen mit sich – Datenspeicherung, Datenanalyse, Rauschansammlung, Datenschutz, Sicherheit und Heterogenität der Daten. Mit dem Aufkommen dieser umfangreichen Daten, die auch als Big Data bekannt sind, ist eine Datenexplosion in allen Bereichen der Wissenschaft und Technik zu beobachten. Im aktuellen Szenario bezieht sich dieser Begriff häufig auf Datensätze mit extremer Größe (Exabyte). In diesem Artikel geben wir einen Überblick über den Bedarf von Big Data, seine Anwendungen und Herausforderungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-3433-6_83 c7899863d562bed94d7d6233b84b9efa;de;;;6.2.;;;Strukturierte Zusammenfassung wissenschaftlicher Publikationen Wir schlagen SUSIE vor, eine neuartige Zusammenfassungsmethode, die mit modernsten Zusammenfassungsmodellen arbeiten kann, um strukturierte wissenschaftliche Zusammenfassungen für wissenschaftliche Artikel zu erstellen. Wir haben auch PMC-SA erstellt, einen neuen Datensatz wissenschaftlicher Publikationen, der sich für die Aufgabe der strukturierten Zusammenfassung mit neuronalen Netzen eignet. Wir wenden SUSIE in Kombination mit drei verschiedenen Zusammenfassungsmodellen auf den neuen PMC-SA-Datensatz an und zeigen, dass die vorgeschlagene Methode die Leistung aller Modelle um bis zu 4 ROUGE-Punkte verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-43887-6_57 b24c567719f50473deeb487abc88086f;de;;;6.2.;;;Elektronische Designautomatisierung für Millimeterwellenforschung und -design Forschung, Design und Innovation von elektronischen und mikroelektronischen Schaltungen, einschließlich Millimeterwellen-Mikroelektronik- und Nanoschaltungen, wurden durch die Einführung von EDA-Tools ermöglicht. Ohne EDA wäre die Skalierung großer Schaltungen unmöglich, das Mooresche Gesetz wäre nicht entdeckt worden und die Menschheit wäre nie in das moderne Computerzeitalter eingetreten (Lavagno et al. in Electronic Design Automation for IC System Design, Verification and Testing. CRC Press, Boca Raton, 2017 [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-44398-6_2 e15cbb37dd095a1c1fb38bca26836493;de;;;6.2.;;;Aktuelles Szenario der Solarenergie und verschiedene Programme zur Stimulierung und Expansion des Solarenergiesektors in Indien Der Parameter zur Bewertung der sozioökonomischen Entwicklung eines Landes wird durch den Pro-Kopf-Energieverbrauch bewertet. Eine der schwierigsten Aufgaben und auch die Bewertung der Leistung der Regierung eines Landes auf der ganzen Welt ist die Verfügbarkeit von Energie- und Stromquellen zu angemessenen Kosten, um den Bedarf der Gesellschaft zu decken. Die Erschöpfung der fossilen Brennstoffreserven in den letzten 50 Jahren für die Notwendigkeit, die Entwicklung früher zu beschleunigen, und jetzt der Übergang zu einer nachhaltigen Entwicklung sowohl in städtischen als auch in ländlichen Gebieten hat dazu geführt, dass erneuerbare Energien an Bedeutung gewonnen haben. Zu den frei verfügbaren umweltfreundlichen erneuerbaren Energiequellen (RES), die in Indien im Überfluss zur Verfügung stehen, gehören Sonnen- und Windenergie. In der jüngsten Vergangenheit haben technologische Fortschritte diese beiden Quellen zu den wichtigsten erneuerbaren Quellen in Indien gemacht. Insbesondere die Solarenergie birgt großes Potenzial, um die seit langem bestehende Lücke zwischen Stromnachfrage und -angebot zu lösen. Diese Kluft wird mit der Entwicklung des Landkreises immer größer. In diesem Papier wurden Anstrengungen unternommen, die verfügbaren Daten zu Planung, Förderprogrammen, Zielvorgaben für die Stromerzeugung und deren Erreichung durch Solarenergie in Indien zu analysieren und zusammenzufassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1186-5_30 a13ba6aa387fcd56f62dc3578f1ed1c5;de;;;6.2.;;;Unterstützungsmodell der Gemeinschaft zu Still- und Ergänzungsernährungspraktiken in abgelegenen Gebieten in Vietnam: Umsetzung, Kosten und Wirksamkeit Der schlechte Zugang zu Gesundheitseinrichtungen und folglich zu Ernährungsberatungsdiensten behindert die Annahme der empfohlenen Praktiken zur Säuglings- und Kleinkindernährung (IYCF). Um diese Hindernisse zu überwinden und die IYCF-Praktiken zu verbessern, initiierte Alive & Thrive (A&T) Gemeinde-Selbsthilfegruppen in abgelegenen Dörfern in neun Provinzen in Vietnam.;-;-;-;https://link.springer.com/article/10.1186/s12939-021-01451-0 b3d5a9dd7a23551bd09e2d9b97a97c6c;de;;;6.2.;;;Von regulatorischen Verpflichtungen zu durchsetzbaren Rechenschaftspflichten in der Cloud Die weit verbreitete Einführung des Cloud-Modells für die Servicebereitstellung führte zu mehreren Datenschutzproblemen. Tatsächlich beinhaltet die ordnungsgemäße Erbringung dieser Dienste typischerweise die gemeinsame Nutzung persönlicher/geschäftlicher Daten zwischen den verschiedenen Parteien, die an der Bereitstellung der Dienste beteiligt sind. Um das Vertrauen der Cloud-Konsumenten zu stärken, muss die faire Verwendung ihrer Daten gewährleistet sein. Die Rechenschaftspflicht bietet den verschiedenen Stakeholdern, die an einer Cloud-Service-Kette beteiligt sind, die notwendige Gewissheit über die Data-Governance-Praktiken. In diesem Zusammenhang schlagen wir einen Rahmen für die Darstellung von Rechenschaftspflichten vor. Solche Richtlinien bieten Endnutzern einen klaren Überblick über die Datenschutz- und Rechenschaftspflichtklauseln, die von den Unternehmen, mit denen sie interagieren, geltend gemacht werden, sowie Mittel zur Darstellung ihrer Präferenzen. Unser Framework bietet zwei Sprachen für die Verantwortlichkeitspolitik: (i) eine abstrakte Sprache namens AAL, die der Darstellung von Präferenzen/Klauseln in einer für Menschen lesbaren Weise gewidmet ist, und (ii) eine konkrete Sprache für die Umsetzung durchsetzbarer Richtlinien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25414-2_9 6eda458b70a91838c7b2b5333816bbf4;de;;;6.2.;;;Harmony Search zur Selbstkonfiguration fehlertoleranter und intelligenter Netze In diesem Beitrag wurden Harmoniesuchalgorithmen zur Selbstkonfiguration intelligenter Gitter für die Big-Data-Verarbeitung vorgeschlagen. Die Selbstkonfiguration von Computergrids besteht darin, dass neue Computerknoten automatisch von Softwareagenten konfiguriert und dann in das Grid integriert werden. Ein Basisknoten funktioniert aufgrund mehrerer Konfigurationsparameter, die einige Aspekte der Datenkommunikation und des Energieverbrauchs definieren. Wir schlagen einige Optimierungsagenten vor, die auf der Harmoniesuche basieren, um eine suboptimale Konfiguration von fehlertoleranten Grids zu finden, die Big Data verarbeiten. Dabei werden Kriterien wie die Wahrscheinlichkeit, dass alle Aufgaben ihre Termine einhalten, sowie die Zuverlässigkeit des Netzes berücksichtigt. Schließlich wurden einige experimentelle Ergebnisse berücksichtigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-45378-1_50 d757e183deb49cb65cfd9f441295d939;de;;;6.2.;;;Gemeinsamer kognitiver Zugriff und Leistungssteuerung in zweigeteilten Femtozellen-Netzwerken In diesem Beitrag wird ein gemeinsamer kognitiver Zugriffs- und Leistungssteuerungsalgorithmus in Makrozellen- und Femtozellennetzwerken betrachtet. Die schichtübergreifende Interferenz beeinträchtigt die Leistung sowohl der Makrozellenbenutzer als auch der Femtozellenbenutzer stark. Um die Störung zu mildern, wird die Femtozellen-Basisstation, die für zellulare Benutzer schreckliche Störungen verursacht, normalerweise im geschlossenen Zugriffsmodus eingeschränkt oder die zellularen Benutzer werden im offenen Zugriffsmodus als autorisierte Benutzer betrachtet. Im Gegensatz dazu nehmen wir die zellularen Benutzer von Makrozellen nahe der Grenze der Femtozellen-Basisstation als kognitive Benutzer, um Zugang zur nächsten Femtozellen-Basisstation zu erhalten. Da die Femtozellen-Basisstation maximale Störungen bei den zellularen Benutzern verursacht und sie davon abhält, mit der Makrozellen-Basisstation (MBS) zu kommunizieren. Andere Beiträge dieses Papiers umfassen den Vorschlag einer einfachen, aber effektiven Methode zur Verbesserung des durchschnittlichen Durchsatzes der Netzwerke für das adaptive System sowie die Etablierung eines verteilten Leistungssteuerungsspielmodells für alle Benutzer.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35795-4_35 e90cfbd68b26be7771db513c60481e50;de;;;6.2.;;;Digitaler Skript-Konkordanztest für Clinical Reasoning Das Master of Advanced Nursing Practice (MANP)-Programm in den Niederlanden ist die Berufsausbildung für den Pflegefachmann. Das Feld der MANP ist im Wandel, eigenständiges ärztliches Handeln und die Verschreibung von Medikamenten gehören dabei zu den wesentlichen Aspekten. Daher ist Clinical Reasoning ein wichtiger Bestandteil des Curriculums und stellt hohe Anforderungen an das medizinische und pflegerische Wissen. Derzeit werden die Clinical Reasoning-Fähigkeiten der Studierenden mit zwei Methoden (Assessment, Case-History-Papers) getestet, die für die Lehrenden sowohl in der Fragestellung als auch in der Evaluation häufig sehr arbeitsintensiv sind. Die Fallberichtspapiere haben zudem eine geringe Inter-Assessor-Validität, was unerwünscht ist. Der digitale Test ist für diese Prüfungsmethode nicht geeignet. Zudem ist das Arbeitsfeld weder an der Entwicklung der Fragen noch an deren Validierung beteiligt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08657-6_13 4d4b9ed0dc74319a8fb57b6ac7e775b9;de;;;6.2.;;;High-Flow-Nasentherapie versus nicht-invasive Beatmung bei COPD-Patienten mit leichter bis mittelschwerer hyperkapnischer akuter Ateminsuffizienz: Studienprotokoll für eine randomisierte klinische Nichtunterlegenheitsstudie Nichtinvasive Beatmung (NIV) ist indiziert zur Behandlung einer respiratorischen Azidose aufgrund einer Exazerbation einer chronisch obstruktiven Lungenerkrankung (COPD). Jüngste nichtrandomisierte Studien zeigten auch einige physiologische Wirkungen der High-Flow-Nasentherapie (HFNT) bei COPD-Patienten. Wir entwarfen eine prospektive, nicht verblindete, multizentrische, randomisierte kontrollierte Studie, um die Nichtunterlegenheit von HFNT gegenüber NIV in Bezug auf die Reduzierung des arteriellen Kohlendioxidpartialdrucks;-;-;-;https://link.springer.com/article/10.1186/s13063-019-3514-1 6b7dfb1358f4790f12d259650015a225;de;;;6.2.;;;Vorhersage und Analyse metagenomischer Operons über MetaRon: eine Pipeline zur Vorhersage von Eine effiziente Regulation bakterieller Gene als Reaktion auf den Umweltreiz führt zu einzigartigen Genclustern, die als Operons bekannt sind. Der Mangel an vollständiger operonischer Referenz und funktioneller Information macht die Vorhersage von metagenomischen Operonen zu einer anspruchsvollen Aufgabe und eröffnet somit neue Perspektiven auf die Interpretation der Wirt-Mikroben-Interaktionen.;-;-;-;https://link.springer.com/article/10.1186/s12864-020-07357-5 3c5597e5b2cc2c1f74d44361d7b9f934;de;;;6.2.;;;Realistische Interpretation der Quantenmechanik und Encounter-Delayed-Choice-Experiment In diesem Beitrag wird kurz eine realistische Interpretation (REIN) der Wellenfunktion in der Quantenmechanik vorgestellt. Wir zeigen, dass die Wellenfunktion eines mikroskopischen Objekts im REIN eher seine reale Existenz als eine bloße mathematische Beschreibung ist. Insbesondere kann das Quantenobjekt in unzusammenhängenden Regionen des Raums existieren, genauso wie die Wellenfunktion verteilt ist, sich mit endlicher Geschwindigkeit fortbewegt und bei einer Messung sofort zusammenbricht. Darüber hinaus analysieren wir die Einzelphotoneninterferenz in einem Mach-Zehnder-Interferometer (MZI) mit dem REIN. Darauf aufbauend schlagen wir ein generalisiertes Delayed-Choice-Experiment, das sogenannte Encounter-Delayed-Choice-Experiment, vor und implementieren es experimentell, bei dem entschieden wird, ob der zweite Strahlteiler beim Zusammentreffen von zwei Teilwellen entlang der Arme MZI. In einem solchen Experiment zeigen die Teile der Teilwellen, die nicht durch den Strahlteiler laufen, Teilchencharakter, während die restlichen Teile interferieren und somit Wellencharakter aufweisen. Das vorhergesagte Phänomen wird im Experiment anschaulich demonstriert und unterstützt damit die REIN-Idee.;-;-;-;https://link.springer.com/article/10.1007/s11433-017-9122-2 ec3f09c1b139cb2751a1a33cbc653066;de;;;6.2.;;;Euler-Box-Diagramme zur Darstellung unabhängiger und nicht unabhängiger Ereignisse Venn- und Euler-Diagramme sind wertvolle Werkzeuge zur Darstellung der logischen Mengenbeziehungen zwischen Ereignissen. Proportionale Euler-Diagramme fügen die Einschränkung hinzu, dass die Bereiche von Diagrammbereichen, die verschiedene zusammengesetzte und einfache Ereignisse bezeichnen, proportional zu den tatsächlichen Wahrscheinlichkeiten dieser Ereignisse sein müssen. Solche proportionalen Euler-Diagramme ermöglichen es menschlichen Benutzern, die probabilistischen Abhängigkeiten zwischen den dargestellten Ereignissen visuell abzuschätzen und zu begründen. Der vorliegende Beitrag konzentriert sich auf die Verwendung proportionaler Euler-Diagramme, die aus rechteckigen Bereichen bestehen, und schlägt ein verbessertes Anzeigeformat für solche Diagramme vor, die als „Euler-Boxen“ bezeichnet werden und eine schnelle visuelle Bestimmung der Unabhängigkeit oder Nicht-Unabhängigkeit zweier Ereignisse und ihrer Komplemente ermöglichen. Es wird vorgeschlagen, nützliche Anwendungen in der explorativen Datenanalyse und im Statistikunterricht zu haben, wo es das intuitive Verständnis des Begriffs der Unabhängigkeit erleichtern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-91376-6_70 51a3e9768842254736775273c1ace5fe;de;;;6.2.;;;CosinorPy: ein Python-Paket für die Cosinor-basierte Rhythmometrie Obwohl in den letzten Jahren mehrere Computermethoden zur Rhythmizitätserkennung und -analyse biologischer Daten vorgeschlagen wurden, hat die klassische trigonometrische Regression auf der Grundlage des Kosinus immer noch einige Vorteile gegenüber diesen Methoden und wird immer noch weit verbreitet verwendet. Es gibt verschiedene Softwarepakete für die kosinorbasierte Rhythmometrie, denen jedoch bestimmte Funktionalitäten fehlen und Daten in verschiedenen, nicht einheitlichen Eingabeformaten erforderlich sind.;-;-;-;https://link.springer.com/article/10.1186/s12859-020-03830-w b95ae32c122c17f6317ffa8ffb34eb2e;de;;;6.2.;;;Forschung zur parallelen großräumigen Geländemodellierung zur Visualisierung Eine der Herausforderungen bei der großmaßstäblichen Geländevisualisierung besteht darin, schnell zahlreiche 3D-Geländemodelle mit entscheidenden geomorphischen Merkmalen und angemessener Einfachheit zu erstellen. Dieses Papier schlägt eine Lösung vor, die eine auf paralleler Programmierung basierende Terrain-Pyramiden-Modellierungsmethode umfasst, die die Modellierungsgeschwindigkeit von DEM/Texturpyramide erhöht, und einen effektiven Ansatz zur Generierung von Netzen aus DEM durch Kombination des VIP-Algorithmus mit regelmäßigen quadratischen Gittern. Beim Pyramidenmodellierungsverfahren werden verschiedene Eingabedaten von mehreren Prozessen gleichzeitig in einen gemeinsam genutzten Speicher geladen, so dass der Elternprozess in der Lage ist, anschließend einen parallelen Aggregationsalgorithmus in der GPU auszuführen. Darüber hinaus wird eine Beschleunigungsstrategie angewendet, um die Laufzeit des VIP-Algorithmus zu reduzieren, indem seine Eingabe auf Zentren von regulären Gittern begrenzt wird, die das Eingabe-DEM partitionieren. Experimentelle Ergebnisse validieren erfolgreich die beiden in der Arbeit vorgestellten Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-2663-8_41 4f895c145f473879dab40a3797edd897;de;;;6.2.;;;Automatisches Bewertungssystem des Ankerbetriebs im Navigationssimulator Um die Bewertung des Ankerbetriebs der Besatzung effizienter, objektiver und wissenschaftlicher zu gestalten. Im Navigationssimulator ist ein automatisches Bewertungssystem des Ankerbetriebs eingerichtet. Die relevanten Bewertungsindizes für Ankeroperationen, ihre Gewichte und Standardwerte werden durch das Expertenbewertungsverfahren erhalten. Ein automatisches Bewertungsmodell der Verankerungsoperation wird durch ein umfassendes Fuzzy-Bewertungsverfahren erstellt. Die objektorientierte Sprache Visual C++ wird verwendet, um ein automatisches Bewertungssystem der Verankerungsoperation zu entwickeln. Das Auswertungssystem verfügt über viele Funktionsbausteine, um Fragen zu stellen, die Fragen zu beantworten und auszuwerten sowie Daten zu verwalten. Das System wurde im V_Dragon 3000-Navigationssimulator getestet, der unabhängig von der Dalian Maritime University entwickelt wurde. Das Testergebnis zeigt, dass das Bewertungsergebnis des Systems mit dem Trainerbewertungsergebnis übereinstimmt. Das System kann eine objektive und genaue automatische Bewertung des Ankerbetriebs der Besatzung durchführen und die Anforderung der automatischen Bewertung erfüllen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-2663-8_35 648990f829666e0025f770111506cb22;de;;;6.2.;;;Energieeffiziente Uplink-Ressourcenallokation basierend auf der Spieltheorie in kognitiven Small Cell Networks In diesem Beitrag wird die Ressourcenallokation für energieeffiziente Uplink-Kommunikation in kognitiven Small Cell Networks untersucht. Wir formulieren das gesamte Netzwerk-Energieeffizienz-(EE)-Maximierungsproblem für die gemeinsame Zuweisung von Small Cell Base Stations (SCBSs), Spektrumsressourcen und Sendeleistung in einem Open-Access-Modus. Da das Master-Optimierungsproblem zu einem ganzzahligen kombinatorischen fraktionalen Programm gehört und im Wesentlichen NP-hart ist, entwickeln wir eine Alternative mit geringer Komplexität als suboptimale Lösung, indem wir das Master-Optimierungsproblem in zwei Teilprobleme zerlegen: Auswahl von SCBSs und Spektrumressourcen und Leistung Zuweisung. Das Auswahl-Teilproblem von SCBSs und Spektrum-Ressourcen für Cognitive Small Cell User (CSCUs) wird unter den Gesichtspunkten der Reduzierung von Systeminterferenzen und der Verbesserung der empfangenen Signalstärke als potentielles Spiel modelliert. Wir formulieren das Teilproblem der Leistungsverteilung als nicht-kooperatives Spiel, das verteilt gelöst werden kann. Aber es ist auch ein nicht-konvexes Optimierungsproblem in gebrochener Form, um die optimalen Leistungsstrategien basierend auf der Maximierung der EE auf einem bestimmten Kanal zu lösen. Wir transformieren das Problem der nichtlinearen fraktionalen Programmierung in eine äquivalente parametrische Programmierung in subtraktiver Form. Um ein sozialoptimales Nash-Gleichgewicht (NE) zu erhalten, schlagen wir einen neuartigen preisbasierten Doppelschleifen-Iterationsalgorithmus vor, um die Sendeleistungsstrategien zu erhalten, die die Form einer Wasserfüllungsstruktur zwischen verschiedenen CSCUs über einen gleichen Kanal annehmen. Simulationsergebnisse zeigen, dass die vorgeschlagenen Algorithmen zu NE konvergieren und die EE des Gesamtsystems deutlich aufpolieren können.;-;-;-;https://link.springer.com/article/10.1007/s11277-016-3927-z 41a14925963c243f77346342213acdb2;de;;;6.2.;;;Eine optimale Medienzugangskontrolle mit Teilbeobachtungen für Sensornetzwerke Wir betrachten die Medium Access Control (MAC) in Multihop-Sensornetzwerken, bei denen dem Sender nur Teilinformationen über das geteilte Medium zur Verfügung stehen. Wir modellieren unsere Einstellung als Warteschlangenproblem, bei dem die Servicerate einer Warteschlange eine Funktion einer teilweise beobachteten Markov-Kette ist, die die verfügbare Bandbreite repräsentiert, und bei dem die Ankünfte basierend auf den teilweisen Beobachtungen gesteuert werden, um das System in a . zu halten wünschenswertes, leicht instabiles Regime. Der optimale Controller für dieses Problem erfüllt eine Trennungseigenschaft: Wir berechnen zunächst ein Wahrscheinlichkeitsmaß auf dem Zustandsraum der Kette, nämlich den Informationszustand, und verwenden dieses Maß dann als neuen Zustand, auf dem die Steuerungsentscheidungen basieren. Wir geben eine formale Beschreibung des betrachteten Systems und seiner Dynamik, formalisieren und lösen ein optimales Regelungsproblem und zeigen numerische Simulationen, um die Eigenschaften des optimalen Regelungsgesetzes an konkreten Beispielen zu veranschaulichen. Wir zeigen, wie das ergodische Verhalten unseres Warteschlangenmodells durch ein invariantes Maß über alle möglichen Informationszustände gekennzeichnet ist, und konstruieren dieses Maß. Unsere Ergebnisse können gezielt für den Entwurf effizienter und stabiler Algorithmen für die Medienzugriffskontrolle in Mehrfachzugriffssystemen, insbesondere für Sensornetzwerke, verwendet werden.;-;-;-;https://link.springer.com/article/10.1155/WCN.2005.505 fef0ba2a92755724d962b869c1cea101;de;;;6.2.;;;Auswirkung von Kanalschätzungsfehlern auf die Mehrbenutzererkennung über die Replikatmethode Für praktische drahtlose DS-CDMA-Systeme ist die Kanalschätzung aufgrund von Rauschen und Interferenz unvollkommen. In diesem Beitrag wird der Einfluss von Kanalschätzungsfehlern auf die Mehrbenutzererkennung (MUD) im Rahmen des Replikatverfahrens analysiert. Die Systemleistung wird in der großen Systemgrenze für optimales MUD, lineares MUD und Turbo-MUD erhalten und durch numerische Ergebnisse für endliche Systeme validiert.;-;-;-;https://link.springer.com/article/10.1155/WCN.2005.175 2eb7213442792fb147ebaec89711d59f;de;;;6.2.;;;Neue Erkenntnisse zur Finanzierung von Eigenkapital bei der Gesundheitsreform Chinas – Eine Fallstudie zur Provinz Gansu, China Beim Übergang von einer Planwirtschaft zu einer marktorientierten Wirtschaft gingen Chinas staatliche Mittel für das Gesundheitswesen zurück und traditionelle Deckungspläne brachen zusammen, wodurch Chinas Arme potenziell ruinösen Gesundheitskosten ausgesetzt waren. Bei der Reform des Gesundheitswesens für das 21. Jahrhundert ist Gerechtigkeit bei der Finanzierung des Gesundheitswesens zu einem wichtigen politischen Ziel geworden. Um den Fortschritt in Richtung dieses Ziels zu bewerten, untersucht dieser Beitrag die Chancengleichheitsmerkmale der Gesundheitsfinanzierung in einer Provinz im Nordwesten Chinas und vergleicht die Chancengleichheitsleistung zwischen städtischen und ländlichen Gebieten zu zwei verschiedenen Zeitpunkten.;-;-;-;https://link.springer.com/article/10.1186/1472-6963-12-466 7afd1caad974b89aead39cc7a5d51524;de;;;6.2.;;;Nachweislich sichere attributbasierte Verschlüsselung mit Attributsperr- und Gewährungsfunktion unter Verwendung von Proxy-Neuverschlüsselung und Attributschlüssel zur Aktualisierung Ciphertext-Policy Attribute-Based Encryption (CP-ABE) eignet sich für die Datenzugriffskontrolle auf einem Cloud-Speichersystem. In CP-ABE verschlüsselt der Dateneigentümer Daten unter der Zugriffsstruktur über Attribute und ein Satz von Benutzern zugewiesener Attribute wird in den geheimen Schlüssel des Benutzers eingebettet. Ein Benutzer kann entschlüsseln, wenn seine Attribute die Zugriffsstruktur des Geheimtexts erfüllen. In CP-ABE konzentrieren sich die Prozesse des Widerrufs und der Erteilung von Benutzerattributen auf die Behörde und den Dateneigentümer. In diesem Whitepaper schlagen wir ein attributbasiertes Chiffriertext-Policy-Verschlüsselungsschema vor, das Attributwiderrufprozesse durch Proxy-Neuverschlüsselung an Cloud Server delegiert. Das vorgeschlagene Schema erfordert keine Generationen von neuen geheimen Schlüsseln, wenn einem Benutzer Attribute gewährt werden, und unterstützt jede Zugriffsstruktur von Linear Secret Sharing Schemes (LSSS). Wir beweisen, dass das vorgeschlagene Schema gegen Angriffe durch nicht autorisierte Benutzer und Cloud-Server sicher ist.;-;-;-;https://link.springer.com/article/10.1186/s13673-015-0027-0 ae80bf52a6b8c37115eadc873882aed0;de;;;6.2.;;;Wirksamkeit der Frühintervention bei Darmschäden und Darmoperationen bei Morbus Crohn, basierend auf dem Lémann-Index Kliniker wollen das Fortschreiten des Morbus Crohn (MC) verhindern, viele Patienten benötigen jedoch eine chirurgische Resektion wegen kumulativer Darmschäden. Ziel dieser Studie war es, den Einfluss einer Frühintervention auf Darmschäden bei Patienten mit CD anhand des Lémann-Index zu bewerten und Prädiktoren für die Darmresektion zu identifizieren.;-;-;-;https://link.springer.com/article/10.1186/s12876-020-01575-7 be1fc07dfa8d6e5b14473dba6e1ffc55;de;;;6.2.;;;Optimal kontrollierte Teleportation über verschiedene Arten von Drei-Qubit-Zuständen Die Wahrscheinlichkeit einer erfolgreichen kontrollierten Teleportation eines unbekannten Qubits unter Verwendung eines allgemeinen Drei-Teilchen-Zustands wird untersucht. Die analytischen Ausdrücke maximaler Wahrscheinlichkeiten über verschiedene Arten von dreigliedrigen Zuständen werden angegeben, einschließlich eines dreigliedrigen Greenberger-Horne-Zeilinger-Zustands und eines dreigliedrigen W-Zustands.;-;-;-;https://link.springer.com/article/10.1007/s11433-008-0165-8 faad379af067106338933ab7f0d78572;de;;;6.2.;;;Constraint-Tarifmodell zur Reduzierung der Quersubventionierung im Stromtarif durch iterative Optimierungstechnik Die indischen Stromtarife entsprechen nicht den tatsächlichen Servicekosten. Die Industriekunden zahlen im Vergleich zu den quersubventionierten Kategorien eine Reise in Richtung Open Access viel höhere Gebühren, und diese Reise verringert die Einnahmen der Versorgungsunternehmen. Daher ist das Versorgungsunternehmen mit finanzieller Knappheit konfrontiert. Um diese Situation zu überwinden, versucht dieses Papier, ein Modell vorzuschlagen, bei dem versucht wird, die Lücke zwischen dem tatsächlichen Tarif und den Servicekosten zu verringern und dem Versorgungsunternehmen am Ende jedes Jahres während der Vertragslaufzeit ein gewisser Gewinn zu zugute kommt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0214-9_14 f5f48f7ab62d2efd5f1f70d331dda34e;de;;;6.2.;;;Natürliche Gentechnik: Intelligenz & Design in der Evolution? Es gibt viele Dinge, die ich an James Shapiros neuem Buch Evolution: A View from the 21st Century (FT Press Science, 2011) mag. Er beginnt das Buch mit der Aussage, dass in der Geschichte des Lebens die Schaffung von Neuheit und nicht die Auswahl wichtig ist. Bei unterschiedlichen erblichen Merkmalen führt die Selektion zur Entwicklung einer Population hin zu einer optimalen Zusammensetzung dieser Merkmale. Aber Selektion kann nur auf Veränderungen wirken – und woher kommt diese Variation? Historisch wurde angenommen, dass die Schaffung von Neuheit das Ergebnis eines zufälligen Zufalls oder Zufalls ist. Und doch scheinen Organismen „gestaltet“ zu sein. Wenn man die Daten von sequenzierten Genomen untersucht, scheinen die Veränderungen NICHT zufällig oder zufällig zu sein, sondern man beobachtet, dass ganze Teile des Genoms kommen und gehen. Diese „Chunks“ enthalten oft funktionelle Einheiten, die für Gensätze kodieren, die zusammen eine bestimmte Funktion erfüllen können. Shapiro argumentiert, dass das, was wir in Genomen sehen, „Natural Genetic Engineering“ oder entworfene Evolution ist: Wenn man Genome aus der Perspektive der Informatik betrachtet, ist es offensichtlich, dass Systems Engineering eine bessere Metapher für den Evolutionsprozess ist als die konventionelle Ansicht der Evolution als Auslese -voreingenommener Random Walk durch den grenzenlosen Raum möglicher DNA-Konfigurationen (Seite 6).;-;-;-;https://link.springer.com/article/10.1186/2042-5783-1-11 9720e3bdf17a31795064640fddbcbf44;de;;;6.2.;;;Tools zur Erkennung von Plagiaten für die Veröffentlichung von wissenschaftlichen E-Journals Die Arbeit beschäftigt sich mit dem Konzept des Plagiats, des Selbstplagiats und deren Grundtypen. Der offene Zugang zu wissenschaftlicher Welterfahrung im Internet und die Vorteile des elektronischen Formats führten zu einer Vielzahl von Werken, die sich gegenseitig duplizieren. Mit dem exponentiellen Wachstum der wissenschaftlichen Produktion ist Plagiat für Redakteure wissenschaftlicher E-Journals zu einem großen Problem geworden, da es zu schwierig ist, sein Vorhandensein im Manuskript sofort zu erkennen. Gegenstand des Artikels sind die Tools zur automatischen Erkennung von Plagiaten für Textdokumente. Der Zweck der vorgestellten Forschung ist es, diese populären Software- und Online-Ressourcen und ihre Möglichkeit zu betrachten, Textähnlichkeiten zu überprüfen, ihren detaillierten Analysetest durchzuführen und sie gemäß definierter Softwarespezifikationen, Produktivität der Funktionsweise und erhaltenen Ergebnisse während der Überprüfung zu bewerten. Als Ergebnis werden Empfehlungen für Tools präsentiert, die den Bedürfnissen der Wissenschaftler entsprechen und von den Herausgebern wissenschaftlicher Zeitschriften verwendet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13206-8_18 3fd4c581999d1f54845f9e5b4c8e3d49;de;;;6.2.;;;Kanaleigenschaften und Leistung von MIMO E-SDM-Systemen in einer Indoor-Umgebung mit zeitvariierendem Fading Systeme mit mehreren Eingängen und mehreren Ausgängen (MIMO) verwenden fortschrittliche Signalverarbeitungstechniken. Die Leistung wird jedoch durch Ausbreitungsumgebungen und Antenneneigenschaften beeinflusst. Die Hauptbeiträge des Papiers sind die Untersuchung des Dopplerspektrums basierend auf gemessenen Daten in einem typischen Besprechungsraum und die Bewertung der Leistung von MIMO-Systemen basierend auf einer Eigenbeam-Space Division Multiplexing (E-SDM)-Technik in einer Indoor-Zeit-variierenden Fading-Umgebung , das verschiedene Streuerverteilungen, das Vorhandensein von Sichtlinienwellen und einen gegenseitigen Kopplungseffekt zwischen Antennen aufweist. Wir bestätigen, dass aufgrund der gegenseitigen Kopplung zwischen Antennen die Muster von Antennenelementen geändert werden und sich von einem Rundstrahl einer einzelnen Antenne unterscheiden. Ergebnisse basierend auf den gemessenen Kanaldaten in unseren Messkampagnen zeigen, dass Empfangsleistung, Kanalautokorrelation und Dopplerspektrum nicht nur von der Richtung der Endgerätebewegung, sondern auch von der Antennenkonfiguration abhängen. Selbst in der Umgebung mit eingeschränkter Sichtlinie unterscheidet sich das beobachtete Doppler-Spektrum erheblich von dem theoretischen U-förmigen Jakes-Spektrum. Darüber hinaus hat sich auch gezeigt, dass ein Kanalwechsel während des Zeitintervalls zwischen der Ermittlung der Sendegewichtsmatrix und der eigentlichen Datenübertragung die Leistungsfähigkeit von MIMO E-SDM-Systemen verschlechtern kann.;-;-;-;https://link.springer.com/article/10.1155/2010/736962 95d646eb3755e70409348ab0c693cad0;de;;;6.2.;;;Vernebelte Antikoagulanzien bei akuter Lungenschädigung – eine systematische Übersicht über präklinische und klinische Untersuchungen Daten aus interventionellen Studien zur systemischen Antikoagulation bei Sepsis deuten widersprüchlich auf positive Effekte bei akuter Lungenschädigung (ALI) hin. Schwere systemische Blutungen aufgrund einer Antikoagulation können die möglichen positiven Effekte ausgeglichen haben. Die Vernebelung von Antikoagulanzien kann eine verbesserte lokale biologische Verfügbarkeit ermöglichen und als solche die Wirksamkeit in der Lunge verbessern und das Risiko systemischer Blutungskomplikationen senken.;-;-;-;https://link.springer.com/article/10.1186/cc11325 18e29eb334b424a67b9d9d4cb5d2147c;de;;;6.2.;;;Die Rolle der Einkommensungleichheit und der Sozialpolitik bei einkommensbezogenen gesundheitlichen Ungleichheiten in Europa Ziel des Papiers ist es, die Rolle von Einkommensungleichheit und Umverteilung für einkommensbezogene gesundheitliche Ungleichheiten in Europa zu untersuchen. Dieser Beitrag leistet in zweierlei Hinsicht einen Beitrag zur Literatur über Makrodeterminanten sozioökonomischer Ungleichheiten in der Gesundheit. Erstens erweitert es den ausgeprägten Fokus des Forschungsfeldes auf wohlfahrtsstaatliche Regime auf quantifizierbare Maßnahmen wie sozialpolitische Indikatoren. Zweitens vervollständigt die Untersuchung der Einkommensunterschiede Studien zu sozioökonomischen gesundheitlichen Ungleichheiten, die häufig gesundheitliche Ungleichheiten basierend auf Bildungsunterschieden analysieren.;-;-;-;https://link.springer.com/article/10.1186/s12939-015-0247-y 4c22d0241cc0c49e9f86933c8badad5f;de;;;6.2.;;;PeanutMap: eine Online-Genomdatenbank für vergleichende molekulare Karten von Erdnüssen Molekulare Karten wurden für viele Arten entwickelt und sind von besonderer Bedeutung für die Sortenentwicklung und vergleichende Genomik. Trotz des Vorhandenseins mehrerer Sätze von Verknüpfungskarten fehlen jedoch für viele Arten, einschließlich Erdnuss, Datenbanken mit diesen Daten.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-7-375 314a7d7a0a17f171eac0bc6bec6df75c;de;;;6.2.;;;Warum werden Artikel in Kunst und Geisteswissenschaften zurückgezogen? Dieser Artikel beschreibt einige der Merkmale von zurückgezogenen Artikeln in den Geisteswissenschaften. Mit Retraction Watch und Scopus wurden insgesamt 129 zurückgezogene Artikel in geisteswissenschaftlichen Zeitschriften identifiziert und analysiert. Die Analyse zeigt, dass Recycling und Plagiate die Hauptgründe für das Zurückziehen von geisteswissenschaftlichen Artikeln sind. Die Analyse zeigt auch, dass zurückgezogene Artikel weiterhin gelesen, heruntergeladen und zitiert sowie in Social-Media-Kanälen erwähnt werden.;-;-;-;https://link.springer.com/article/10.1007/s12109-019-09699-9 3791f16cd472a49ffad61aca06a3a405;de;;;6.2.;;;Genetik, Molekularbiologie und Phänotypen der X-chromosomalen Epilepsie Epilepsie ist eine häufige und vielfältige Gruppe chronischer neurologischer Erkrankungen, die durch spontane, unprovozierte und wiederkehrende epileptische Anfälle gekennzeichnet sind. Es wird vermutet, dass Umweltfaktoren und erworbene Disposition eine Rolle bei der Pathogenese der Epilepsie spielen. Auch genetische Faktoren spielen eine wichtige Rolle. Im Vergleich zum Phänotyp der Epilepsie, die durch die Mutation eines einzelnen Gens auf einem Autosom verursacht wird, ist der Phänotyp der X-chromosomalen Epilepsie komplexer. X-chromosomale Epilepsie manifestiert sich normalerweise als Teil eines Syndroms oder einer epileptischen Enzephalopathie, und die Variabilität der klinischen Manifestationen der X-chromosomalen Epilepsie kann mehreren Faktoren zugeschrieben werden, einschließlich der Art der genetischen Mutation, Methylierung, zufälliger X-Chromosom-Inaktivierung und Mosaikverteilung. Infolgedessen ist es schwierig, die Genotyp-Phänotyp-Korrelation, diagnostische Tests und genetische Beratung herzustellen. In diesem Review geben wir einen Überblick über die X-chromosomale Epilepsie einschließlich verantwortlicher Loci und Gene, der Molekularbiologie, der damit verbundenen komplexen Phänotypen und der Interferenzfaktoren. Diese Informationen können uns ein besseres Verständnis der Pathogenese der X-chromosomalen Epilepsie ermöglichen und zur klinischen Diagnose und Therapie der Epilepsie beitragen.;-;-;-;https://link.springer.com/article/10.1007/s12035-013-8589-1 00854ccd24ccd651fa19505d83a94071;de;;;6.2.;;;Antibiogramme von Intensivstationen eines ägyptischen Krankenhauses der Tertiärversorgung Das Infektionsmanagement auf der Intensivstation (ICU) stellt eine wachsende Herausforderung dar, und Ärzte sollten regelmäßig aktualisierte Antibiogramme haben. Ziel dieser Studie war es, die Prävalenz von Krankheitserregern und deren Antibiotikaempfindlichkeit auf verschiedenen Intensivstationen eines ägyptischen Krankenhauses der Tertiärversorgung zu ermitteln. Diese retrospektive datensatzbasierte Querschnittsstudie wurde vom 1. Januar bis zum letzten Dezember 2019 mit insgesamt 45.221 diagnostischen Erstisolationskulturen/Patienten von verschiedenen Intensivstationen der Universitätskliniken Zagazig durchgeführt. Die Erstellung des Antibiogramms erfolgte gemäß den Anweisungen des Clinical and Laboratory Standards Institute und einem webbasierten Antibiogramm der Stanford University.;-;-;-;https://link.springer.com/article/10.1186/s43168-021-00059-w c4519f57e42dd24ea8394858ff54735c;de;;;6.2.;;;Pho interagiert dynamisch mit Spt5, um Transkriptionsschalter an der Zahlreiche Zielgene der Polycomb-Gruppe (PcG) werden durch einen Stimulus vorübergehend aktiviert und anschließend unterdrückt. Mechanismen, durch die PcG-Proteine ​​solche Zielgene regulieren, bleiben jedoch schwer fassbar.;-;-;-;https://link.springer.com/article/10.1186/s13072-017-0166-9 76bd8af9a131ae871aa44fe9a0482e96;de;;;6.2.;;;Eine retrospektive, abgestimmte Kohortenstudie zur potenziellen Prävalenz von Arzneimittelwechselwirkungen und Opioidkonsum in einer Population mit diabetischer peripherer Neuropathie, die mit Pregabalin oder Duloxetin begonnen wurde Die Antizipation und Kontrolle von Arzneimittelinteraktionen (DDIs) bei älteren Patienten mit schmerzhafter diabetischer peripherer Neuropathie (pDPN) stellt die Anbieter vor eine große Herausforderung. Der Zweck dieser Studie bestand darin, die Auswirkungen einer neu eingeleiteten Pregabalin- oder Duloxetin-Behandlung auf die Begegnungen von pDPN-Patienten mit potenziellen Arzneimittelwechselwirkungen bei Medicare Advantage Prescription Drug (MAPD) ​​zu untersuchen, die Gesundheitskosten und die Folgen dieser Wechselwirkungen für die Nutzung sowie die Opioidnutzung .;-;-;-;https://link.springer.com/article/10.1186/s12913-015-0829-9 279fee8cc3ccc5d544b77a23be09fea1;de;;;6.2.;;;Die Schutzwirkung von Tetrachlorkohlenstoff (CCL4) wird als Lösungsmittel für Öle und Fette, als Kältemittel und als chemische Reinigung verwendet. Das Einatmen seiner Dämpfe kann die Aktivität des Zentralnervensystems beeinträchtigen und eine Degeneration von Leber und Nieren verursachen.;-;-;-;https://link.springer.com/article/10.1186/s41936-018-0022-x fce66ab8f7b3f46fec1af7d92d065cf3;de;;;6.2.;;;Verwendung des Probiotikums Beatmungsassoziierte Pneumonie (VAP) wird in der Regel durch Aspiration pathogener Bakterien aus dem Oropharynx verursacht. Als Prophylaxe gegen diese Komplikation wurde die orale Dekontamination mit Antiseptika wie Chlorhexidin (CHX) oder Antibiotika eingesetzt. Wir nahmen an, dass die probiotischen Bakterien;-;-;-;https://link.springer.com/article/10.1186/cc7109 5ee5519125b242023dafb8ede79d5e5d;de;;;6.2.;;;Strukturelle, spektroskopische und Zytotoxizitätsstudien von TbF Terbiumfluorid-Nanokristalle, bedeckt von einer Hülle, bestehend aus Cerfluorid, wurden durch eine Copräzipitationsmethode synthetisiert. Ihre komplexe Struktur wurde während der Synthese spontan gebildet. Die Oberfläche dieser Kern/Schale-Nanokristalle wurde zusätzlich durch Siliciumdioxid modifiziert. Die Eigenschaften von TbF;-;-;-;https://link.springer.com/article/10.1007/s11051-013-1958-x b621c2ded5348264ecfe8fdc48ad8877;de;;;6.2.;;;Können Probiotika eine Alternative zu Chlorhexidin für die Mundpflege bei beatmeten Patienten sein? Eine multizentrische, prospektive, randomisierte kontrollierte offene Studie Aus dem Oropharynx aspirierte pathogene enterische Bakterien sind die Hauptursache für die beatmungsassoziierte Pneumonie (VAP). Es hat sich gezeigt, dass die orale Verwendung von Chlorhexidin (CHX) oder die selektive Dekontamination VAP reduziert. In einer Pilotstudie fanden wir heraus, dass die Mundpflege mit dem probiotischen Bakterium;-;-;-;https://link.springer.com/article/10.1186/s13054-018-2209-4 cc86298bf7c95ef96facb531e3cae13a;de;;;6.2.;;;Prävalenz von Malariarezidiven und hämatologischen Veränderungen nach der anfänglichen Medikamentengabe: eine retrospektive Studie in Westthailand Die hämatologischen Veränderungen nach der anfänglichen Medikamentengabe sind in Thailand nur unzureichend verstanden. Diese Studie wurde entwickelt, um die Prävalenz des Wiederauftretens von Malariaparasiten und der hämatologischen Veränderungen von Patienten während der anfänglichen Medikamentenbehandlung zu bestimmen.;-;-;-;https://link.springer.com/article/10.1186/s12889-019-7624-1 d707055e8c2151ed0c7ef75417c553ef;de;;;6.2.;;;Vergleich des ambulant erworbenen, im Krankenhaus erworbenen und auf der Intensivstation erworbenen akuten Atemnotsyndroms: eine prospektive Beobachtungs-Kohortenstudie Das akute Atemnotsyndrom (ARDS) ist ein Syndrom, das durch ein diffuses Lungenödem und eine schwere Hypoxämie gekennzeichnet ist, die normalerweise nach einer Verletzung wie Sepsis, Aspiration und Lungenentzündung auftritt. Über den Zusammenhang zwischen dem Setting, in dem sich das Syndrom entwickelt hat, und den Ergebnissen bei ARDS-Patienten ist wenig bekannt.;-;-;-;https://link.springer.com/article/10.1186/s13054-015-1096-1 8a82e363dba5a8c88d3e78cca6f62b8f;de;;;6.2.;;;Risikofaktoren für die Wiederaufnahme einer Phototherapie aufgrund von Gelbsucht bei gesunden Neugeborenen: eine retrospektive Beobachtungsstudie Die Leitlinien der American Academy of Pediatrics (AAP) zur Überwachung des Neugeborenen-Ikterus empfehlen ein universelles postnatales Screening auf Hyperbilirubinämie innerhalb von 48 Stunden nach Entlassung. Wir beobachteten, dass Neugeborene mit Niedrigrisiko-Ikterus häufiger zur Phototherapie ins Krankenhaus eingewiesen wurden als Neugeborene mit Hochrisiko-Ikterus. Das Ziel dieser Studie war es, zusätzliche Faktoren zu identifizieren, die das Risiko für eine Gelbsucht-bedingte Wiederaufnahme erhöhen.;-;-;-;https://link.springer.com/article/10.1186/s12887-020-02157-y abe31408a19d1ce60414ba5474704d62;de;;;6.2.;;;Supramolekulare Assoziationen zwischen atypischen oxidativen Phosphorylierungskomplexen von In-vivo-Assoziationen von Atmungskomplexen, die höhere supramolekulare Strukturen bilden, werden heute allgemein akzeptiert. Superkomplexe (SC) aus den Komplexen I, III und IV und dem sogenannten Respirasom (I/III;-;-;-;https://link.springer.com/article/10.1007/s10863-021-09882-8 bb617d1d92738463b83bbfea610c9ee3;de;;;6.2.;;;Holzdichte und Kohlenstoffkonzentration von groben Holzabfällen in einheimischen Wäldern, Brasilien Mit dem Ziel, das Wissen über Biomasse und Kohlenstoffvorräte zu erweitern und damit die Genauigkeit der veröffentlichten Schätzungen zu verbessern, untersuchte die vorliegende Studie die Holzdichte und Kohlenstoffkonzentration von grobem Holzschutt (Durchmesser ≥ 10 SSF)-Gebiet im Atlantischen Regenwald und in einem Cerrado;-;-;-;https://link.springer.com/article/10.1186/s40663-019-0177-z 6b2651447039d0fa5a3e07cef233527e;de;;;6.2.;;;Genotypen des Hepatitis-C-Virus in Saudi-Arabien: eine zukünftige Vorhersage und ein Laborprofil Die Genotypen und Subtypen des Hepatitis-C-Virus (HCV) gelten als wichtiges Instrument für epidemiologische und klinische Studien und als wertvolle Marker für den Krankheitsverlauf und das Ansprechen auf eine antivirale Therapie. Ziel dieser Studie war es, die Prävalenz von HCV-Genotypen und ihre Beziehung zu soziodemografischen Faktoren, insbesondere Alter und Geschlecht, verschiedenen biochemischen Profilen und Viruslast, zu identifizieren.;-;-;-;https://link.springer.com/article/10.1186/s12985-017-0873-7 3c5cd933ec5a41a9ad59b40e5db5af27;de;;;6.2.;;;Ambulanter Ballonkatheter vs. stationäres Prostaglandin zur Geburtseinleitung (OBLIGE): eine randomisierte kontrollierte Studie Etwa jede vierte schwangere Frau unterzieht sich einer Geburtseinleitung. Der Zweck dieser Studie besteht darin, die klinische Wirksamkeit, Sicherheit und Kosteneffizienz von zwei Methoden der Gebärmutterhalsreifung für Mütter und Babys zu untersuchen – stationäre Behandlung von Frauen, die die Induktion mit vaginalen Prostaglandin-E2-Hormonen beginnen oder Frauen erlauben, für 18 bis nach Hause zu gehen 24 h nach Beginn der Induktion mit einem Einzelballonkatheter.;-;-;-;https://link.springer.com/article/10.1186/s13063-020-4061-5 204871b496f7293d5540e7ac6e9c81e6;de;;;6.2.;;;Haushaltsfaktoren im Zusammenhang mit dem Zugang zu mit Insektiziden behandelten Netzen und Hausmodifikationen in den Distrikten Bagamoyo und Ulanga, Tansania Mit Insektiziden behandelte Netze (ITNs) und Hausmodifikationen sind bewährte Werkzeuge zur Vektorkontrolle, doch in den meisten Regionen wurde keine vollständige Abdeckung erreicht. Diese Studie untersucht Haushaltsfaktoren, die mit dem Zugang zu ITNs und Wohnungsumbau in Tansania zusammenhängen.;-;-;-;https://link.springer.com/article/10.1186/s12936-020-03303-8 aba9303bffdced1cefd786563483d4bb;de;;;6.2.;;;Protokoll für eine systematische Überprüfung, Metaanalyse und sequenzielle Studienanalyse der klinischen Ergebnisse nach beschleunigter gegenüber konventioneller Hornhautkollagenvernetzung bei Hornhautektasie Collagen Crosslinking (CXL) ist ein sich entwickelndes Verfahren, das die biomechanische Steifigkeit der Hornhaut verbessert und ektatische Erkrankungen verlangsamen oder stoppen kann. CXL erfordert eine Abgabe von 5,4 J/cm;-;-;-;https://link.springer.com/article/10.1186/s13643-019-1004-x ae29221bfd3ad34f369f6283ada465ac;de;;;6.2.;;;Erfassung kognitiver und Verhaltensvariabilität bei Personen mit Down-Syndrom: eine latente Profilanalyse Innerhalb des Phänotyps des Down-Syndroms wird ein hohes Maß an inter- und intraindividueller Variabilität beobachtet. Das Down-Syndrom-Kognitionsprojekt wurde gegründet, um diese Variabilität zu erfassen, indem eine große landesweite Datenbank mit kognitiven, Verhaltens-, Gesundheits- und genetischen Informationen über Personen mit Down-Syndrom im Alter von 6 bis 25 Jahren entwickelt wurde. In der aktuellen Studie wurde die Datenbank des Down Syndrome Cognition Project verwendet, um die kognitive und Verhaltensvariabilität bei Personen mit Down-Syndrom zu charakterisieren.;-;-;-;https://link.springer.com/article/10.1186/s11689-021-09365-2 49bca16005bc18619698bc59202ebe13;de;;;6.2.;;;Vorteile multidisziplinärer Übungen zu Hause und unterstützender Behandlung bei inoperablem nicht-kleinzelligem Lungenkrebs – Protokoll für eine randomisierte kontrollierte Phase-II-Studie Lungenkrebs gehört zu den am häufigsten diagnostizierten Krebsarten und ist weltweit eine der Hauptursachen für die Krebssterblichkeit. Aufgrund des Fehlens früher spezifischer Symptome stellt sich die Mehrheit der Patienten mit fortgeschrittener, inoperabler Erkrankung und einem relativen Fünf-Jahres-Überleben über alle Stadien des nicht-kleinzelligen Lungenkarzinoms (NSCLC) bei 14%. Menschen mit Lungenkrebs berichten auch über eine höhere Symptombelastung als Menschen mit anderen Krebsarten. Mehrere Vorteile für das Überleben und von Patienten berichtete Ergebnisse werden von körperlicher Aktivität und Bewegung bei anderen Tumorgruppen berichtet. Wir berichten über das Protokoll für eine Studie, die den Nutzen von Bewegung, Verhaltensänderung und Symptom-Selbstmanagement für Patienten mit kürzlich diagnostiziertem, inoperablem NSCLC untersucht.;-;-;-;https://link.springer.com/article/10.1186/s12885-017-3651-4 cd91cfa03bb646fd9593cfe2fd183ba1;de;;;6.2.;;;Entwicklung einer Forschungsdatenbank zum primären Aldosteronismus: Begründung und grundlegende Merkmale Das Management des primären Aldosteronismus (PA) hat sich zu einem Forschungsschwerpunkt im Bereich der Endokrinologie entwickelt. Um verlässliche Forschungsevidenz zu erhalten, ist es notwendig, eine qualitativ hochwertige PA-Forschungsdatenbank aufzubauen.;-;-;-;https://link.springer.com/article/10.1186/s12902-021-00794-7 247965a3e619d9bad7a8a23601607141;de;;;6.2.;;;Zusammenhang zwischen der Annahme eines neuen oralen Antidiabetikums durch Ärzte und den Ausgaben für Medicare- und Medicaid-Medikamente In den Vereinigten Staaten gibt es gut dokumentierte regionale Unterschiede bei den Ausgaben für verschreibungspflichtige Medikamente. Die spezifische Rolle der Akzeptanz von Markenarzneimitteln durch Ärzte für die Variation der Ausgaben für verschreibungspflichtige Medikamente auf Patientenebene wird jedoch noch in einer Vielzahl von Medikamentenklassen untersucht. Unsere Studie zielt darauf ab, die Literatur zu ergänzen, indem sie den Zusammenhang zwischen der Annahme eines erstklassigen Antidiabetikums (AD) durch Ärzte, Sitagliptin, und den Ausgaben für AD-Medikamente in der Medicare- und Medicaid-Population in Pennsylvania ermittelt.;-;-;-;https://link.springer.com/article/10.1186/s12913-019-4520-4 3440dc03ee90fd99b8a540995a587cc8;de;;;6.2.;;;Unausgewogene Zielvorhersage mit Mustererkennung in klinischen Datenspeichern Clinical Data Repositories (CDR) haben großes Potenzial zur Verbesserung der Ergebnisvorhersage und Risikomodellierung. Die meisten klinischen Studien erfordern jedoch ein sorgfältiges Studiendesign, dedizierte Datenerhebungsbemühungen und ausgeklügelte Modellierungstechniken, bevor eine Hypothese getestet werden kann. Unser Ziel ist es, diese Lücke zu schließen, sodass Benutzer aus klinischen Bereichen ohne komplizierte Handhabung Vorhersagen aus erster Hand zu bestehenden Repository-Daten durchführen und aufschlussreiche Muster unausgewogener Ziele für eine formale Studie erhalten können, bevor sie durchgeführt wird. Wir zielen speziell auf die Interpretierbarkeit für Domänenbenutzer ab, wo das Modell bequem erklärt und in der klinischen Praxis angewendet werden kann.;-;-;-;https://link.springer.com/article/10.1186/s12911-017-0443-3 55cae6a3dda84f561a483b45d07a5fa3;de;;;6.2.;;;Influenzavirusinfektion bei pädiatrischen Patienten, die über Durchfall und grippeähnliche Erkrankungen berichten Grippe ist eine der Hauptursachen für Morbidität und Krankenhausaufenthalte bei Kindern. Während bei Erwachsenen seltener berichtet wurde, wurden Magen-Darm-Symptome bei Kindern mit Influenza in Verbindung gebracht, einschließlich Bauchschmerzen, Übelkeit, Erbrechen und Durchfall.;-;-;-;https://link.springer.com/article/10.1186/1471-2334-10-3 9b0ea701ac8440f9c6120369131e791c;de;;;6.2.;;;Auswirkung auf die Beantwortungsrate der Umfrage durch handschriftliche vs. gedruckte Unterschrift auf einem Anschreiben: randomisierte kontrollierte Studie [ISRCTN67566265] Es ist wichtig, dass die Rücklaufquoten bei postalischen Umfragen so hoch wie möglich sind, um die Repräsentativität der Ergebnisse zu gewährleisten und die statistische Aussagekraft zu maximieren. Frühere Untersuchungen haben gezeigt, dass jede Personalisierung des Ansatzes dazu beiträgt, die Rücklaufquote zu verbessern. In diesem Experiment wurde getestet, ob die Personalisierung von Fragebögen durch handschriftliche Unterzeichnung des Anschreibens die Rücklaufquote im Vergleich zu einer nicht personalisierten Gruppe verbesserte, bei der die Unterschrift des Untersuchers auf dem Anschreiben in das Dokument eingescannt und gedruckt wurde.;-;-;-;https://link.springer.com/article/10.1186/1472-6963-5-52 ea0363c13c7b783938de1fcb883f8d3b;de;;;6.2.;;;Retroösophageale A. subclavia rechts in Verbindung mit einem Truncus bicarotis und einem ektopen Ursprung der Wirbelarterien Es wird über ein seltenes Verzweigungsmuster des Aortenbogens bei einer weiblichen Leiche berichtet. Eine abweichende A. subclavia rechts entstand aus dem distalen Teil des Aortenbogens und folgte einem retroösophagealen Verlauf. Daneben wurden von links nach rechts die linke A. subclavia und ein kurzer Truncus bicarotis, der von der linken und der rechten A. carotis communis ausgeht, erkannt. Ein ungewöhnlicher Ursprung der Wirbelarterien wurde ebenfalls identifiziert. Die linke A. vertebralis entspringt direkt aus dem Aortenbogen, während die rechte A. vertebralis direkt aus der rechten A. carotis communis stammt. Die retroösophageale A. subclavia rechts in Verbindung mit einem Truncus bicarotis und einem ektopischen Ursprung der Wirbelarterien stellt einen außergewöhnlichen und bemerkenswerten Fall dar.;-;-;-;https://link.springer.com/article/10.1007/s00276-021-02746-1 9cb91ea7f0f8fa3e4b46f098e8b629cb;de;;;6.2.;;;Virtuelle Realitäten der Vergangenheit, Gegenwart und Zukunft Allgemeine Klimazirkulationsmodelle bieten die Möglichkeit, Klimastatistiken unter einer Vielzahl von realen oder imaginären Bedingungen zu simulieren. Der Vergleich von Simulationen und Beobachtungen des gegenwärtigen Klimas gibt einen Hinweis auf die Glaubwürdigkeit des Modells. Eine weitere Überprüfung kann durch die Simulation vergangener Klimata erfolgen, sofern wir ihre Ursache verstehen. Modelle werden zunehmend verwendet, um zukünftige Klimaänderungen als Folge menschlicher Aktivitäten, insbesondere aufgrund des Anstiegs der Treibhausgase, vorherzusagen. Sie können auch verwendet werden, um Gedankenexperimente zu beantworten (zum Beispiel, was mit dem Klima passieren würde, wenn wir alle Berge der Welt entfernen würden), was uns weitere Einblicke in die Prozesse ermöglicht, die das Klima und den Klimawandel steuern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19016-2_27 cf149999abda37c24c38b217d36ed1ba;de;;;6.2.;;;Zu lange redaktionelle Entscheidungen und zu lange Veröffentlichungszeiten von Zeitschriften: Ursachen, Risiken, Konsequenzen und Lösungsvorschläge Redakteure haben sehr komplexe Aufgaben und hohe Verantwortung. Im Allgemeinen sind sie ausgewählte Führungskräfte und Experten in einem Studienbereich. Daher wird von ihnen erwartet, dass sie einen Sektor dieser wissenschaftlichen Gemeinschaft anführen, und ihre Funktion besteht darin, aufgrund ihres ethischen und professionellen Images und ihres positiven und offenen Engagements als Torwächter für die Qualität der Einreichungen bei Zeitschriften zu dienen, deren Editorial Boards sie dienen ihre Altersgenossen. Eine wissenschaftliche Arbeit zu veröffentlichen kann eine mühsame und in manchen Fällen langwierige Aufgabe sein. Eine Verzögerung dieses Prozesses bedeutet jedoch nicht nur Stress für die Autoren, sondern kann sie auch benachteiligen, indem sie ihrer Konkurrenz einen unfairen Vorteil mit einem Vorsprung im Verlagsrennen verschafft. Folglich sollten Redakteure, die einen Prozess überwachen, der übermäßig oder unangemessen viel Zeit in Anspruch nimmt, zur Rechenschaft gezogen werden. In diesem Papier schlagen wir einige vorgeschlagene Fristen für jede Phase des Veröffentlichungsprozesses vor. Diese sollten von der Redaktion in enger Zusammenarbeit mit dem Verlag sorgfältig überwacht werden, um einen fairen und zeitnahen, realistischen und angemessenen Prozess zu gewährleisten. Mit klareren Richtlinien können Autoren so ihren Stress reduzieren, indem sie wissen, wann Entscheidungen zu erwarten sind, und so ihre Zeitschriftenauswahl unter Berücksichtigung solcher Faktoren treffen und so ihre Risiken absichern und ihre Zeit besser einteilen. Autoren, die fast unbegrenzt oder zu lange warten, sind Opfer mangelnder Professionalität. Darüber hinaus sollten Redakteure, die Verzögerungen nicht oder nicht effektiv kommunizieren oder sich nicht ausreichend oder aufrichtig entschuldigen, als berufliche Fahrlässigkeit, wenn nicht als Fehlverhalten, bezeichnet werden. Nur wenn die Regeln des Engagements fair, streng, klar und klar definiert sind, können Autoren erwarten, dass das Verlagssystem reibungslos und professionell voranschreitet.;-;-;-;https://link.springer.com/article/10.1007/s12109-016-9489-9 69e753d72c684c3d7fd871a4cbd42a14;de;;;6.2.;;;Kein Einfluss der Liegedauer auf das Auftreten von Kopfschmerzen nach einer Lumbalpunktion mit einer 22G-Schneidnadel Rückenlage wird häufig durchgeführt, um Kopfschmerzen nach einer Lumbalpunktion (PLPH) zu verhindern. Die optimale Dauer der Rückenlage ist jedoch umstritten. Ziel der Studie ist es, das Auftreten von PLPH entsprechend der Liegedauer bei Patienten mit neurologischen Erkrankungen zu vergleichen.;-;-;-;https://link.springer.com/article/10.1186/1471-2377-12-1 86b48ddc083129f45ca9a55f37e6c09f;de;;;6.2.;;;3D-Dokumentation und Visualisierung des Forum Romanum: Die Dokumentation großer Stätten wie dem Forum Romanum in Rom, Italien, kann zu einer Mammutaufgabe werden. Während es für die traditionelle Dokumentation großer Stätten eine festgelegte Methodik gibt, wie sie Anfang des 20. Jahrhunderts von Giacomo Boni entwickelt wurde, gibt es im Bereich der digitalen Dokumentation und Katalogisierung oder der benutzerfreundlichen Gestaltung digitaler Daten für verschiedene Konservierungszwecke sehr wenig Standardisierung der großen Website. Dieses Papier stellt die Methodik und Techniken vor, die das DHARMA-Team der University of Notre Dame School of Architecture verwendet hat, um das Forum Romanum, Rom, Italien zwischen 2010 und 2015 zum ersten Mal digital zu dokumentieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-01762-0_24 19530906f8562204375ccbbdbf46ecc9;de;;;6.2.;;;Alignment Aware Linked Data Compression Der Erfolg von Linked Data hat dazu geführt, dass eine große Datenmenge in einem Standard-RDF-Format generiert wird. Es wurden verschiedene Techniken untersucht, um eine komprimierte Version von RDF-Datensätzen für Archivierungs- und Übertragungszwecke zu erzeugen. Diese Komprimierungstechniken sind jedoch darauf ausgelegt, einen bestimmten Datensatz zu komprimieren, ohne externes Wissen zu verwenden, entweder durch eine kompakte Darstellung oder durch das Entfernen semantischer Redundanzen im Datensatz. In diesem Papier stellen wir einen neuartigen Ansatz zur Komprimierung von RDF-Datensätzen vor, indem wir Alignments ausnutzen, die in verschiedenen Datensätzen sowohl auf Instanz- als auch auf Schemaebene vorhanden sind. Unser System erzeugt eine verlustbehaftete Komprimierung basierend auf dem Vertrauenswert der Beziehung zwischen den Termen. Wir präsentieren auch eine umfassende Bewertung des Ansatzes unter Verwendung der Referenzausrichtung des OAEI.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-31676-5_5 c71b9df8991d026d665ec792138f6397;de;;;6.2.;;;Linked Data und Multimedia: der Stand der Dinge Linked Data ist eine Möglichkeit, Daten als Ressourcen im Web bereitzustellen und zu teilen und sie mit semantisch verwandten Ressourcen zu verknüpfen. In den letzten drei Jahren wurden erhebliche Datenmengen generiert, die zunehmend einen global vernetzten, verteilten Datenraum bilden. Bei Multimediainhalten sind Metadaten ein Schlüsselfaktor für eine effiziente Verwaltung, Organisation und Wiederauffindbarkeit. Die Beziehung zwischen Multimedia und Linked Data wurde jedoch kaum untersucht, was zu einem Mangel an gegenseitigem Bewusstsein und als Folge davon zu technologischen Mängeln führte. In diesem Artikel werden die grundlegenden Konzepte von Linked Data im Kontext von Multimedia-Metadaten vorgestellt und Techniken zum Generieren, Verfügbarmachen, Entdecken und Konsumieren von Linked Data erläutert. Es zeigt, dass eine große Menge an Datenquellen existiert, die bereit sind, von Multimedia-Anwendungen genutzt zu werden. Der Nutzen von Linked Data in zwei multimedialen Anwendungen wird diskutiert und offene Forschungsfragen skizziert mit dem Ziel, die Forschungsfelder Multimedia und Linked Data näher zusammenzubringen, um einen gegenseitigen Nutzen zu ermöglichen.;-;-;-;https://link.springer.com/article/10.1007/s11042-011-0762-9 7417d5dd0dc16aaa9055eef637fe7d15;de;;;6.2.;;;3-D-Vermessung und Strukturmodellierung: Der Fall des Baptisteriums San Giovanni in Florenz Im Jahr 2013 umfassten die interdisziplinären Vorstudien zur Instandhaltung der Fassaden des Baptisteriums von Florenz eine Gesamtaufnahme des Gebäudes. Wie bei den letzten jüngsten Erhebungen wurde seine Geometrie mit den neuesten verfügbaren Technologien untersucht. Das 3D-Modell, integriert mit den Beiträgen der anderen Forschungsgruppen, erlaubte neue Hypothesen zu seiner Konstruktion und insbesondere eine genauere Abstimmung der Strukturmodelle.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-01762-0_23 7e31c415c8f7ffedc2fc758b6029b073;de;;;6.2.;;;Skalierbare interaktive Plattform zur geografischen Bewertung der Auswirkungen des Meeresspiegelanstiegs durch Kombination von Hochleistungs-Computing und WebGIS-Client Da sich das Klima ändert, sind mehr angewandte Informationen über die resultierenden Auswirkungen erforderlich, um die Anpassungsplanung zu unterstützen. In den letzten zehn Jahren hat die Menge an Informationen, die für die Folgenabschätzung des Klimawandels relevant sind, drastisch zugenommen. Dies kann insbesondere in Küstengebieten veranschaulicht werden, die durch den Anstieg des Meeresspiegels aufgrund des Klimawandels bedroht sind , dh große bzw. kleine Skalen. Die kontextbezogene Verwendung solch großer, komplexer und heterogener Küstendatensätze ist jedoch alles andere als einfach. Dies ist der Grund, warum diese Entwicklungen bisher nicht zu einer einfacheren Bewertung der Auswirkungen des Klimawandels an der Küste geführt haben. In diesem Kapitel gehen wir diese Herausforderung der Interoperabilität an, indem wir einen Prototyp eines Webdienstes entwickeln und beschreiben, der Li-DAR-, Gezeiten- und Meeresspiegelanstiegsdaten kombiniert, um schnell räumliche Informationen über die Exposition gegenüber zukünftigen Küstenüberschwemmungen entlang der französischen Küstenzonen zu übermitteln. Wir diskutieren verschiedene Fragen im Zusammenhang mit Datenarchitektur, On-the-Fly (Geo)-Verarbeitungsfähigkeiten, Management asynchroner Workflows und Datendiffusionsstrategien im Kontext internationaler Standards wie Infrastructure for Spatial Information in Europe (INSPIRE). Wir glauben, dass unsere flexible Architektur, die hauptsächlich Standardkomponenten wiederverwendet, sowohl die Analyse komplexer Szenarien für Experten als auch die Verbreitung dieser zukünftigen Küstenänderungen in der Öffentlichkeit verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-74669-2_12 73e2654d4233da33fc0c79e55a032cdf;de;;;6.2.;;;Erhaltung und Verwaltung griechischer Dialektdatenlect Griechische Dialekte Kleinasiens gelten aufgrund ihres langjährigen Kontakts mit der türkischen Sprache und ihrer relativen Isolation von den anderen griechischen Dialekten als ideale Fallstudien zur Aufklärung der Entwicklung der griechischen Sprache sowie zu verschiedenen Phänomenen des Sprachkontakts. Tatsächlich stellen die fraglichen Dialekte ein reiches kulturelles und sprachliches Erbe dar, das vom Aussterben bedroht ist. Daher ist es dringend erforderlich, dieses unschätzbare Erbe zu beschreiben und zu bewahren. In diesem Beitrag wird ein innovatives System zur Archivierung und Verwaltung digitalisierter schriftlicher und mündlicher Daten aus drei griechischen Dialekten Kleinasiens (Pontisch, Kappadokisch, Aivaliot) vorgestellt. Das System enthält auch eine Such- und Abrufkomponente, die Folgendes ermöglicht: (a) eine kombinierte Suche auf verschiedenen Ebenen der sprachlichen Darstellung, (b) eine kombinierte Suche in schriftlichen und mündlichen Daten und (c) den Zugriff auf Metadaten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-01762-0_67 032288a13c9c7cfcee9156f299a22ad3;de;;;6.2.;;;Auf dem Weg zu einem mobilen Crowdsourcing-System für kollektives Speichermanagement Das kollektive Gedächtnis charakterisiert das Verhalten bestimmter Personengruppen, die innerhalb einer urbanen Umgebung Gemeinschaften bilden. Lebensqualität als Smart City-Ziel sollte das Verständnis von Vielfalt, die Verringerung der Entfremdung und den Erhalt des immateriellen Kulturerbes der Menschen betreffen. In diesem Beitrag versuchen wir eine erste Antwort auf solche Probleme zu geben, indem wir ein vertrauenswürdiges mobiles Crowdsourcing-System für ein kollektives Speichermanagement basierend auf den Bedürfnissen von Benutzern, Spezialisten oder nicht, vorschlagen und implementieren. Wir zeigen ein grundlegendes Nutzungsszenario, um die Stärke der implementierten Dienste aufzuzeigen, sowie eine erste Systembewertung mit positiven Ergebnissen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-01762-0_50 ebaeed99c8b46abf40e304e3d8e694bd;de;;;6.2.;;;Das Orion Pottery Repository – Eine öffentlich verfügbare Benchmark-Datenbank für 3D-Objekte mit Texturinformationen Leistungsbewertung ist eines der Hauptforschungsthemen in der Informationsbeschaffung. Bewertungsmetriken in Kombination mit Benchmark-Datensätzen (Groundtruth) werden verwendet, um verschiedene Leistungsaspekte eines Retrieval-Algorithmus zu quantifizieren. In diesem Beitrag stellen wir das Orion Pottery Repository vor, eine öffentlich zugängliche und domänenspezifische Benchmark-Datenbank. Es basiert auf Open-Source-Technologien und enthält insgesamt 160 texturierte digitale 3D-Repliken antiker griechischer Keramik. Der über das Repository angebotene Datensatz kann für Leistungsbewertungsexperimente von 3D-Datenabrufalgorithmen verwendet werden. Der Inhalt von Orion wurde nach einer Kategorisierung der Keramikformen klassifiziert, die von einem intern entwickelten Thesaurus definiert wurde. Das Repository bietet Mechanismen, die eine breite Palette von Metadaten-Handling ermöglichen, die auf dem CARARE-Metadatenschema basieren, das unter anderem die Möglichkeit bietet, Informationen zu Digitalisierungsverfahren und deren Eigenschaften aufzunehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-01762-0_15 76c5233bae45bd51055f94429f9e4f83;de;;;6.2.;;;Betreuung von Masterarbeiten auf Basis von Scrum: Eine Fallstudie Die Erfolgsquote eines Masterstudiengangs in Information Systems and Computer Engineering (MEIC) an einer portugiesischen Universität ist sehr unbefriedigend, da weniger als die Hälfte der Studierenden die gestellten Arbeiten im ersten Semester abschließen. Allerdings war die Erfolgsquote einer Gruppe von Studierenden, die nach dem Scrum-Framework betreut wurden, deutlich höher. Daher bewerten wir in dieser Studie die aktuelle Situation und identifizieren die Vorteile des Einsatzes von Scrum zur Verwaltung von Masterarbeiten. Es gibt Hinweise darauf, dass dieser Ansatz die Zahl der Studierenden erhöht, die ihre Projekte erfolgreich abschließen. Daher diskutiert dieses Papier die auf dem Spiel stehenden Probleme und berichtet über eine qualitative Studie mit Fokus auf die tatsächlichen Praktiken und Vorteile, die von den Studierenden im Masterstudiengang berichtet werden. Wir haben festgestellt, dass einige Methoden des Scrum-Frameworks bestehende Probleme bei der Entwicklung von Abschlussarbeiten mit sehr positiven Ergebnissen angehen können.;-;-;-;https://link.springer.com/article/10.1007/s10639-021-10433-2 2ca494f0119e7efea763d229851f1ccb;de;;;6.2.;;;Verallgemeinerung von Ereignissen und Regeln zur Unterstützung fortgeschrittener Anwendungen Event-Condition-Action (ECA)-Regeln überwachen Anwendungen und Systeme und reagieren auf Änderungen. In diesem Kapitel besprechen wir verschiedene Erweiterungen der ECA-Regeln zur Unterstützung fortgeschrittener Anwendungen. Wir verwenden insbesondere die Zugriffskontrolldomäne, um die für die Aussagekraft, Spezifikation und Ausführung von Richtlinien erforderlichen Erweiterungen nach dem ECA-Paradigma zu steuern. Wir diskutieren alternative Aktionen, generalisierte Ereignisspezifikation und -erkennung sowie Ereigniserkennungsmodi. Wir besprechen auch die Erweiterungen der Ereigniserkennungsgraphen, um die vorgeschlagenen ECA-Regelerweiterungen zu implementieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19724-6_8 b80b1d619371ae2049026e8df9911576;de;;;6.2.;;;Die vergessenen Vorzüge von GIC-Restaurationen: eine systematische Übersicht Neubewertung der nachgewiesenen Stärken und Schwächen von Glasionomerzementen (GICs) und Identifizierung von übereinstimmenden und widersprüchlichen Beweisen in früheren Berichten bezüglich des Übergangs zwischen GIC und dem Zahn und der Existenz einer „Interphase“.;-;-;-;https://link.springer.com/article/10.1007/s00784-020-03334-0 5391b064e8aca472709d427f6c9cdc04;de;;;6.2.;;;Proteingestützte Kupfer-Nanocluster zur fluorimetrischen Bestimmung von Humanserumalbumin Kupfer-Nanocluster (CuNCs) zeichnen sich durch ihre einzigartigen optischen Eigenschaften aus, die eine empfindliche Fluoreszenzdetektion verschiedener Arten von Zielen selbst in komplexen Matrices ermöglichen. Ihre Fähigkeit, auf geeigneten Protein- und Nukleinsäure-Templaten zu wachsen, machen CuNCs zu effizienten optischen Reportern, die in der Bioanalytik genutzt werden können. In dieser Arbeit berichten wir über die spezifische und sensitive Bestimmung von Humanserumalbumin (HSA) in Humanserum (HS) und Urin mittels CuNCs Fluoreszenz. HSA ist das am häufigsten vorkommende Protein im Plasma und spielt eine Schlüsselrolle bei der Früherkennung schwerer pathologischer Zustände wie Albuminurie und Albuminämie. In letzter Zeit ist HSA auch als Biomarker zur Beurteilung des Schweregrads, der Progression und der Prognose verschiedener Krebsarten klinisch zentral geworden. Wir berichten über das kontrollierte und reproduzierbare Wachstum von CuNCs direkt auf dem Zielanalyten HSA, was zu einer feinen dosisabhängigen Fluoreszenzemission bei 405 nm führt. Das Protokoll wird in Wasser optimiert und dann ohne Matrixvorbehandlung auf Serum- und Urinproben angewendet. Die Methode reagiert linear innerhalb der gesamten Konzentration von klinischem Interesse mit einer Sensitivität von 1,8 ± 0,1 × 10;-;-;-;https://link.springer.com/article/10.1007/s00604-021-04764-7 964e243041b70794d1ea167fb5cb4468;de;;;6.2.;;;Beachten Sie die Lücke: Strenge und Relevanz in der gemeinsamen Forschung zum Erbe In diesem Beitrag wird untersucht, ob es in der kollaborativen Forschung im Bereich des Erbes eine „Rigour-Relevance-Lücke“ gibt und was eine effektive Zusammenarbeit zwischen akademischen Forschern und Nutzern von Forschungsdaten in der Praxis ermöglicht und behindert. Ein Fragebogen zu quantitativen Einstellungen wurde an die Kulturerbe-Wissenschaftler verteilt: 210 Antworten gingen ein. Die Befragten antworteten in Bezug auf ein Projekt, an dem sie in den letzten fünf Jahren im Vereinigten Königreich gearbeitet hatten. Sie wurden nach ihren persönlichen Zielen in Bezug auf das Projekt gefragt und ob diese erreicht wurden, Zufriedenheit in Bezug auf Projektergebnisse und -wirkung, Grad der Zustimmung zu einer Reihe von Einstellungsaussagen, um festzustellen, was Projekte unterstützt und behindert, persönliche Merkmale und Projektmerkmale . Der Fragebogen wurde mit einem faktorenanalytischen, Segmentierungs- und Profilierungsansatz analysiert.;-;-;-;https://link.springer.com/article/10.1186/2050-7445-2-11 5adbe866fc72f1145a9ddda182e32d74;de;;;6.2.;;;Datenzentrierte Modelle aus Geschäftsprozessmodellen synthetisieren Datenzentrierte Geschäftsprozessmodelle koppeln Daten- und Kontrollfluss, um flexible Geschäftsprozesse zu spezifizieren. Allerdings kann es schwierig sein, das tatsächliche Verhalten eines datenzentrischen Modells vorherzusagen, da der globale Prozess typischerweise auf mehrere Datenelemente verteilt und möglicherweise deklarativ spezifiziert ist. Wir stellen uns daher einen datenzentrischen Prozessmodellierungsansatz vor, bei dem das Standardverhalten des Prozesses zunächst in einer klassischen, zwingenden Prozessnotation spezifiziert wird, die dann in ein deklaratives, datenzentrisches Prozessmodell überführt und zu einem vollständigen Modell. Um diese Vision zu unterstützen, definieren wir einen halbautomatischen Ansatz zur Synthese eines objektzentrierten Designs aus einem Geschäftsprozessmodell, das den Fluss mehrerer zustandsbehafteter Objekte zwischen Aktivitäten spezifiziert. Das objektzentrierte Design spezifiziert in zwingender Weise die Lebenszyklen der Objekte und die Objektinteraktionen. Als nächstes definieren wir ein Mapping von einem objektzentrierten Design zu einem deklarativen Guard-Stage-Milestone-Schema, das zu einer vollständigen Spezifikation eines datenzentrierten BPM-Systems verfeinert werden kann. Der Syntheseansatz wurde mit einem Graphentransformationstool implementiert und getestet.;-;-;-;https://link.springer.com/article/10.1007/s00607-015-0442-0 95dcb87cbf0d3eff702cfe2a9f168bac;de;;;6.2.;;;Smart Cities: die Herausforderung für State-of-the-Art und Governance In Bezug auf die Governance von Smart Cities bietet der in diesem Papier vorgestellte State-of-the-Art eine Kritik an den jüngsten Städterankings und zukünftigen Internetberichten über ihre Entwicklung. Ausgestattet mit diesen kritischen Erkenntnissen werden Smart Cities im Hinblick auf soziale Netzwerke, kulturelle Eigenschaften und Umweltkapazitäten, im Hinblick auf vitale Ökologien des intellektuellen Kapitals, die Schaffung von Wohlstand und Standards partizipativer Governance, die ihre Entwicklung regulieren, erklärt. Das Triple-Helix-Modell, das der Artikel zur Erklärung dieser Leistungen vorstellt, legt wiederum nahe, dass Städte intelligent sind, wenn die IKT zukünftiger Internetentwicklungen erfolgreich die Netzwerke einbetten, die die Gesellschaft benötigt, um nicht nur intellektuelles Kapital oder Wohlstand zu schaffen, sondern auch die Umwelt zu kultivieren Kapazität, Ökologie und Vitalität jener Räume, die die direkte Demokratie ihrer partizipativen Regierungsführung erschließt, aufwertet und baut.;-;-;-;https://link.springer.com/article/10.1186/s40604-014-0007-9 1e2e50f18fe648893445cc6cd470a547;de;;;6.2.;;;RNA-Seq versus Oligonukleotid-Array-Beurteilung der dosisabhängigen TCDD-hervorgerufenen hepatischen Genexpression bei Mäusen Die dosisabhängige differentielle Genexpression liefert kritische Informationen, die für die regulatorische Entscheidungsfindung erforderlich sind. Die geringeren Kosten im Zusammenhang mit RNA-Seq haben es zur bevorzugten Technologie für die transkriptomische Analyse gemacht. Die Übereinstimmung zwischen RNA-Seq- und Microarray-Analysen in Dosis-Wirkungs-Studien wurde jedoch nicht ausreichend überprüft.;-;-;-;https://link.springer.com/article/10.1186/s12864-015-1527-z 577b4f503f667471ed3cfb8ba63c748c;de;;;6.2.;;;Prävalenz und assoziierte Faktoren der DSM-5-Schlafstörung in der Allgemeinbevölkerung von Katar Epidemiologische Studien zu Schlaflosigkeit im Nahen Osten sind nach wie vor rar. Die vorliegende Studie zielte darauf ab, die Prävalenz von Schlaflosigkeit abzuschätzen und ihre Assoziationen in der allgemeinen Bevölkerung von Katar zu untersuchen. Mit fast 100 Nationalitäten ist Katar eines der kulturell vielfältigsten, reichsten und sich am schnellsten entwickelnden Länder der Arabischen Halbinsel.;-;-;-;https://link.springer.com/article/10.1186/s12888-020-03035-8 aff3bc419109df127b057f7de1d7a0c9;de;;;6.2.;;;Wirksamkeit einer Smartphone-App zur Verbesserung der Immunisierung von Kindern in der ländlichen Provinz Sichuan, China: Studienprotokoll für eine randomisierte kontrollierte Studie mit gepaarten Clustern Obwohl bei der Ausweitung der Impfung von Kindern in China gute Fortschritte erzielt wurden, bestehen zwischen den einzelnen Provinzen Unterschiede. Informationslücken sowohl auf der Angebots- als auch auf der Nachfrageseite behindern eine rechtzeitige Impfung von Kindern in ländlichen Gebieten. Die rasante Entwicklung der mobilen Gesundheitstechnologie (mHealth) bietet beispiellose Möglichkeiten zur Verbesserung der Gesundheitsdienste und zur Erreichung unterversorgter Bevölkerungsgruppen. Es fehlt jedoch an Literatur, die die Auswirkungen von mHealth-Interventionen auf die Durchimpfungsrate sowie die Benutzerfreundlichkeit und Machbarkeit von Smartphone-Anwendungen (Apps) rigoros bewertet. Diese Studie zielt darauf ab, die Wirksamkeit einer Smartphone-basierten App (Expanded Program on Immunization App oder EPI-App) zur Verbesserung der Impfrate von Kindern zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-14-262 4c5262c3ee8bb6f00fe109a783db2c34;de;;;6.2.;;;Interventionen zur Optimierung der psychischen Gesundheit während der COVID-19-Pandemie: Eine Überprüfung des Umfangs Die psychische Gesundheit ist eine der Hauptfolgen der COVID-19-Pandemie. Dieser Review untersucht Interventionen zur Verbesserung der psychischen Gesundheit und des Wohlbefindens der Bevölkerung während COVID-19. Vier elektronische Datenbanken (MEDLINE, PsycINFO, Embase und CINAHL) wurden nach dem sechsstufigen Scoping-Review-Prozess von Arskey und O’Malley durchsucht. Zwanzig Studien wurden in die Überprüfung eingeschlossen. Verschiedene Studienpopulationen wurden eingeschlossen, um eine bessere Generalisierbarkeit der Ergebnisse zu gewährleisten. Interventionen, die über die Behandlung psychischer Gesundheitsprobleme während COVID-19 informierten, wurden eingeschlossen und in (a) Prävention einer schlechten psychischen Gesundheit, (b) therapeutische Interventionen und (c) andere Interventionen eingeteilt. Präventive Strategien (n = 16) umfassten Aufklärung über das öffentliche Gesundheitswesen, modifizierte Nutzung sozialer Medien, technologiebasierte Interventionen, körperliche Aktivität, politische Anpassungen und therapeutische Interventionen. Zu den Behandlungsstrategien (n = 7) gehörten die Anpassung bestehender Behandlungen und die Schaffung neuer Behandlungsprogramme und -plattformen. Während die aktuellen Erkenntnisse vielversprechend sind, sollte sich die zukünftige Forschung auf neuartige wirksame Interventionen konzentrieren, um psychische Gesundheitsprobleme während der Pandemie anzugehen.;-;-;-;https://link.springer.com/article/10.1007/s11469-021-00558-3 f0d54b202ee5f871f3f99bde65f87c97;de;;;6.2.;;;Wissen, Einstellung und Praktiken in Bezug auf HIV/AIDS unter erwachsenen Fischern in den Küstengebieten von Karachi Migrantenpopulationen haben ein hohes Risiko einer Infektion mit dem Humanen Immunschwächevirus (HIV) und dem erworbenen Immunschwächesyndrom (AIDS). Studien über HIV/AIDS-Wissen, -Einstellungen und -Praktiken unter Fischern in Entwicklungsländern haben Wissenslücken und Angst vor einer Ansteckung mit ambivalenten Einstellungen gegenüber HIV/AIDS und inkonsistenter universeller Vorsichtsmaßnahmen gezeigt. Das Ziel dieser Studie war es, das Wissen, die Einstellung und die Praktiken in Bezug auf HIV/AIDS unter erwachsenen Fischern in einem Küstengebiet von Karachi, Pakistan, zu ermitteln.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-14-437 0eb01591ff945676838384ce62900276;de;;;6.2.;;;eHealth-gestütztes Case Management für Patienten mit Panikstörung oder Depression in der Hausarztpraxis: Studienprotokoll für ein cRCT (PREMA) Panikstörung (PD), häufig bei Agoraphobie (AG) auftretend, und Depression sind häufige psychische Störungen in der Grundversorgung und mit erheblichen individuellen und gesellschaftlichen Kosten verbunden. Die Früherkennung und wirksame Behandlung von Depressionen und PD/AG sind von großer Bedeutung. Kognitive Verhaltensübungen haben sich als wirksam bei der Verringerung von Angstzuständen und depressiven Symptomen erwiesen. Praxisteambasiertes Fallmanagement kann die klinischen Ergebnisse für Patienten mit chronischen Erkrankungen in der Primärversorgung verbessern. Ziel der vorliegenden Studie ist es, die Effekte und Kosteneffizienz einer hausärztlichen teambasierten Intervention mit verhaltenstherapeutischen Elementen und Case Management unterstützt durch eHealth-Komponenten bei Patienten mit PD/AG oder Depression im Vergleich zur üblichen Behandlung zu evaluieren.;-;-;-;https://link.springer.com/article/10.1186/s13063-019-3751-3 9657ea9292e3996f088beee0d9fd36b0;de;;;6.2.;;;Der Optimierungsprozess von HEalth LIterAcy (Ophelia): Studienprotokoll zur Nutzung von Gesundheitskompetenzprofilen und gemeinschaftlichem Engagement zur Erstellung und Umsetzung einer Gesundheitsreform Gesundheitskompetenz ist ein mehrdimensionales Konzept, das eine Reihe kognitiver, affektiver, sozialer und persönlicher Fähigkeiten und Eigenschaften umfasst. Dieses Papier beschreibt das Forschungs- und Entwicklungsprotokoll für ein großes Gemeinschaftsprojekt in Victoria, Australien, das darauf abzielt, Gesundheitskompetenzprobleme für Menschen mit chronischen Erkrankungen zu identifizieren und darauf zu reagieren. Das Projekt mit dem Namen Ophelia (OPtimising HEalth LIterAcy) Victoria ist eine Partnerschaft zwischen zwei Universitäten, acht Dienstleistungsorganisationen und der viktorianischen Regierung. Auf der Grundlage der identifizierten Probleme werden Interventionen zur Gesundheitskompetenz in acht unterschiedlichen Gesundheitsdiensten entwickelt und erprobt, um die Schaffung eines Reaktionsrahmens für die Gesundheitskompetenz zur Verbesserung der Gesundheitsergebnisse und zum Abbau gesundheitlicher Ungleichheiten zu unterstützen.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-14-694 625203397cb00079086bfc990ae0894f;de;;;6.2.;;;Kapsel- und Streuformulierungen von Lubiproston sind bei Patienten mit funktioneller Verstopfung biologisch nicht ähnlich Lubiproston-Kapseln sind für die Behandlung von drei verschiedenen chronischen Verstopfungszuständen zugelassen. Eine „Streusel“-Formulierung kann die Anwendung bei Personen mit Schwierigkeiten beim Schlucken von Kapseln erleichtern. Unser Ziel war es, die Bioäquivalenz, Pharmakokinetik (PK) und Bioverfügbarkeit von Lubiproston-Sprinkles im Vergleich zu Lubiproston-Kapseln im Vergleich zu Placebo zu bewerten.;-;-;-;https://link.springer.com/article/10.1007/s12325-021-01707-9 370deca9331a3e56aec712467e46a7ee;de;;;6.2.;;;Einfluss der Intervalltrainingsintensität auf Fettoxidation, Blutlaktat und die wahrgenommene Anstrengungsrate bei adipösen Männern Die Ziele dieser Studie bestanden darin, die Wirkung eines 4-wöchigen Intervalltrainings mit mittlerer und hoher Intensität (MIIT und HIIT) auf die Fettoxidation und die Reaktion von Blutlaktat (BLa) und die Bewertung der wahrgenommenen Anstrengung (RPE) zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/2193-1801-2-532 329a4535f122d5d5a408103812bf692a;de;;;6.2.;;;Modellbasiertes probabilistisches häufiges Itemset-Mining Datenunsicherheit ist bei neuen Anwendungen wie standortbasierten Diensten, Sensorüberwachungssystemen und Datenintegration inhärent. Um eine große Menge ungenauer Informationen zu handhaben, wurden in letzter Zeit unsichere Datenbanken entwickelt. In diesem Artikel untersuchen wir, wie häufige Itemsets aus großen unsicheren Datenbanken effizient entdeckt werden können, interpretiert unter dem;-;-;-;https://link.springer.com/article/10.1007/s10115-012-0561-2 c09286a54534eee957dd72c05cbd26f7;de;;;6.2.;;;Effektive Verarbeitung medizinischer Begriffsabfragen im UMLS-Metathesaurus durch geschichtete dynamische Programmierung Die Abbildung medizinischer Begriffe auf standardisierte UMLS-Konzepte ist ein grundlegender Schritt, um biomedizinische Texte in der Datenverwaltung und -analyse zu nutzen. Verfügbare Methoden und Tools weisen jedoch erhebliche Einschränkungen bei der Verarbeitung von Abfragen über den UMLS-Metathesaurus auf, die ungenaue Abfragebegriffe enthalten, die häufig in realen Anwendungen vorkommen.;-;-;-;https://link.springer.com/article/10.1186/1755-8794-7-S1-S11 f7552d3f056841265085bda29421fbe3;de;;;6.2.;;;Welche Funktionen bevorzugen niederländische Universitätsstudenten in einer Smartphone-Anwendung zur Förderung der körperlichen Aktivität? Ein qualitativer Ansatz Der Übergang von der Adoleszenz zum frühen Erwachsenenalter ist eine kritische Phase, in der die körperliche Aktivität (PA) abnimmt. Ein Großteil dieser Altersgruppe stellen Studenten und Studenten. Smartphones können verwendet werden, um PA zu fördern und zu unterstützen. Der Zweck dieser qualitativen Studie war es, die Präferenzen niederländischer Studierender in Bezug auf eine PA-Anwendung (PA-App) für Smartphones zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s12966-015-0189-1 1cb8364b84ab4af791365895a9e30f90;de;;;6.2.;;;Einsatz und Kosten der Koronarangiographie für Patienten mit koronaren Bypass-Operationen in der Türkei Bewertung des übermäßigen Einsatzes der Koronarangiographie vor einer Koronararterien-Bypass-Operation und ihres Zusammenhangs mit Mortalität, Gesundheitskosten und Krankenhausqualität in der Türkei.;-;-;-;https://link.springer.com/article/10.1007/s40119-013-0018-z 1254b945138f1f01bd8d796d17ea9cac;de;;;6.2.;;;Biologische TNF-Hemmer zur Behandlung der rheumatoiden Arthritis: Persistenz und Dosierungsmuster in Deutschland Um detaillierte Praxisdaten zu Persistenz und Dosierungsmustern bei der Anwendung der TNF-Inhibitoren Adalimumab, Etanercept und Infliximab bei in Deutschland behandelten Patienten mit rheumatoider Arthritis (RA) zu erhalten.;-;-;-;https://link.springer.com/article/10.1186/s13561-014-0032-4 35c7d7c4943cf38de114d80c9a1b9b6d;de;;;6.2.;;;Stimmungsanalyse für das Kundenbeziehungsmanagement: ein inkrementeller Lernansatz In den letzten Jahren hat ein deutliches Umdenken in der Unternehmensführung stattgefunden, die zunehmend auf Prinzipien der Kundenorientierung ausgerichtet ist. Tatsächlich werden Customer-Relationship-Management-Prozesse und -Systeme immer beliebter und sind entscheidend für die Bewältigung der heutigen geschäftlichen Herausforderungen. Die große Anzahl verfügbarer Kundenkommunikationsreize aus verschiedenen (direkten und indirekten) Kanälen erfordert jedoch automatische Sprachverarbeitungstechniken, um solche Reize zu filtern und zu qualifizieren, Prioritäten zu bestimmen, die Weiterleitung von Anfragen zu erleichtern und die Antwortzeiten zu verkürzen. In diesem Szenario spielt die Stimmungsanalyse eine wichtige Rolle bei der Messung der Kundenzufriedenheit, der Verfolgung der Verbrauchermeinung, der Interaktion mit Verbrauchern und der Kundenbindung. Die in diesem Papier beschriebene Forschung schlägt einen Ansatz vor, der auf hierarchischen Aufmerksamkeitsnetzwerken basiert, um die Stimmungspolarität der Kundenkommunikation zu erkennen. Im Gegensatz zu anderen bestehenden Ansätzen kann das definierte Modell nach einer anfänglichen Schulung während des Systembetriebs mithilfe des Feedbacks der CRM-Bediener dank eines integrierten inkrementellen Lernmechanismus im Laufe der Zeit verbessert werden. Das Papier beschreibt auch den entwickelten Prototyp sowie den Datensatz, der zum Trainieren des Modells verwendet wird, das über 30.000 annotierte Elemente enthält. Die Ergebnisse zweier Experimente zur Messung der Klassifikatorleistung und zur Validierung des Umschulungsmechanismus werden ebenfalls vorgestellt und diskutiert. Insbesondere erwies sich die Klassifikatorgenauigkeit für die unterstützten Sprachen als besser als die anderer Algorithmen (makrogemittelter f1-Score von 0,89 bzw Proben, ohne die Gesamtsystemleistung zu verschlechtern.;-;-;-;https://link.springer.com/article/10.1007/s10489-020-01984-x 745d9cab207137494702878c3004aa98;de;;;6.2.;;;Professionelles Management des Treue-Anpassungs-Dilemmas beim Einsatz evidenzbasierter Interventionen – eine Interventionsstudie Evidenzbasierte Interventionen (EBIs) können wirksame Instrumente zur Krankheitsprävention und Gesundheitsförderung sein. Ihre Umsetzung erfordert jedoch häufig ein empfindliches Gleichgewicht zwischen der Notwendigkeit, die Intervention an den Kontext anzupassen, in dem sie durchgeführt wird, und der Notwendigkeit, die Kernkomponenten beizubehalten, die die Intervention wirksam machen. Dieses sogenannte Dilemma zwischen Treue und Anpassung wird von Angehörigen der Gesundheitsberufe oft in der Erhaltungsphase einer Implementierung (dh nachdem die Intervention in einer Organisation angenommen und institutionalisiert wurde) behandelt, aber es ist nicht viel darüber bekannt, wie und inwieweit Gesundheit Berufstätige sind von diesem Dilemma betroffen. Dieses Projekt konzentriert sich auf die Erhaltungsphase und zielt darauf ab, (1) zu untersuchen, wie Treue und Anpassung von Fachleuten mithilfe eines EBI verwaltet werden, (2) wie sich das Treue-Anpassungs-Dilemma auf die psychosozialen Arbeitsbedingungen von Fachleuten auswirkt und (3) wie eine strukturierte Entscheidung Unterstützung beeinflusst den Umgang der Fachkräfte mit dem Dilemma und ihre psychosozialen Arbeitsbedingungen.;-;-;-;https://link.springer.com/article/10.1186/s43058-021-00131-y 369316a865413151dca3cc39c98a7362;de;;;6.2.;;;The Beyond Aging Project Phase 2 – eine doppelblinde, randomisierte, placebokontrollierte Studie zur selektiven Prävention von Omega-3-Fettsäuren und Sertralin in einer Alterskohorte mit Depressionsrisiko: Studienprotokoll für eine randomisierte kontrollierte Studie Depressionen im späten Lebensalter sind mit hohen Morbiditätsraten, vorzeitiger Sterblichkeit, Behinderung, Funktionseinbußen, Belastung durch das Pflegepersonal und erhöhten Gesundheitskosten verbunden. Während klinische und öffentliche Gesundheitsansätze auf Präventions- oder Frühinterventionsstrategien ausgerichtet sind, bleibt die ideale Interventionsmethode unklar. Keine Studie hat sich vorgenommen, die Rolle neurobiologischer Wirkstoffe bei der Prävention von depressiven Symptomen bei älteren Bevölkerungsgruppen mit Depressionsrisiko zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s13063-015-0762-6 2de65375f4d079ddb0a53e774d38dad7;de;;;6.2.;;;Schistosomiasis bei Kindern im Vorschulalter und ihren Müttern im Distrikt Chikhwawa, Malawi mit Hinweisen zur Charakterisierung von Schistosomen und Schnecken Zur Ergänzung der laufenden Bilharziose-Bekämpfung im Rahmen nationaler Kontrollprogramme (NKS), die Praziquantel an Kinder im Schulalter verabreichen, ist die Bewertung des Risikos und des Ausmaßes der Bilharziose bei Kindern im Vorschulalter (PSAC) wichtig.;-;-;-;https://link.springer.com/article/10.1186/1756-3305-7-153 dd48a005f04aca6b06d8c3d935b4819e;de;;;6.2.;;;Prävention episodischer Migräne mit Topiramat: Ergebnisse einer nicht-interventionellen Studie in einer Allgemeinpraxis Die Mehrheit der Patienten mit Migränekopfschmerzen wird in nicht spezialisierten Einrichtungen behandelt, obwohl die Daten zu den Behandlungsergebnissen größtenteils aus tertiären Versorgungszentren stammen. Die aktuelle nicht-interventionelle Studie untersucht die Wirksamkeit und Verträglichkeit von Patienten mit episodischer Migräne, die Topiramat als Präventivmittel in einer Allgemeinpraxis erhalten. Insgesamt 366 Patienten (87 % weiblich, mittleres Alter 41,8 ± 11,6 Jahre) kamen für eine Migräneprävention in Frage und wurden 6 Monate (Kernphase) und optional insgesamt 12 Monate (Nachbeobachtungsphase) mit flexibler Topiramat-Dosis behandelt. . Insgesamt schlossen 261 Patienten (77,7 % des Sicherheitsanalyse-Sets, SAF) die Kernphase ab. Gründe für den Abbruch waren unerwünschte Ereignisse (2,1%), verlorene Nachbeobachtung (1,8%), andere Gründe (1,5%) und das Ende der Therapie (0,3%), obwohl bei der Mehrheit der Patienten, die die Behandlung abbrachen, keine Gründe angegeben wurden. Die mediane Tagesdosis am Endpunkt betrug 50 mg/Tag (Bereich 25–187,5 mg/Tag). Die medianen Tage mit Migräne-Kopfschmerzen verringerten sich von 6,0 auf 1,2 Tage (;-;-;-;https://link.springer.com/article/10.1007/s10194-009-0163-x e64e0483e2bf3543273c3ee4f81ea7db;de;;;6.2.;;;Zur Identität(en) des Mathematikunterrichts Diese kritische Mitteilung gibt einen Überblick über Abschnitte von drei kürzlich veröffentlichten Handbüchern, die für die Gemeinschaft der Forscher in den Bereichen Pädagogische Psychologie, Kognitionswissenschaft und Mathematik relevant sind. Sie untersucht insbesondere (a) die Überschneidung der historischen Grundlagen der Kognition, der Mathematikdidaktik und der Pädagogischen Psychologie, (b) das gemeinsame Identitätsproblem, (c) Konsonanz- und Dissonanzbereiche, insbesondere die Notwendigkeit, gesellschaftspolitische und (d) die Komplexität des Verstehens und Modellierens der menschlichen Kognition.;-;-;-;https://link.springer.com/article/10.1007/s10780-008-9084-x 515c1b890ebdf1bacb018bcf0ba825f9;de;;;6.2.;;;Häufigkeit von Pneumothorax und Hämothorax nach primärer offener versus geschlossener Implantationsstrategie zur Insertion eines vollständig implantierbaren Venenzugangsports bei onkologischen Patienten: Studienprotokoll für eine randomisierte kontrollierte Studie Bei Patienten, die einen sicheren und dauerhaften venösen Zugang benötigen, ist das Einsetzen von zentralvenösen Zugangssystemen, wie beispielsweise vollständig implantierbaren venösen Zugangsports (TIVAPs), Routine. Die Zahl der Portimplantationen nimmt aufgrund der Entwicklung innovativer adjuvanter und neoadjuvanter Therapien zu. Derzeit werden zwei unterschiedliche Strategien routinemäßig angewendet: die chirurgische Durchtrennung der V. cephalica (Vena-Abschnitt) und die direkte Punktion der V. subclavia. Ziel dieser Studie ist es, die Strategie für die Implantation von TIVAPs mit dem geringsten Risiko für Pneumothorax und Hämothorax zu identifizieren.;-;-;-;https://link.springer.com/article/10.1186/s13063-015-0643-z 3e6fc9895ea8de0f37c22e3af3b95956;de;;;6.2.;;;Eine prägende Evaluation des SWITCH® Adipositas-Präventionsprogramms: Print versus Online-Programmierung SWITCH® ist ein evidenzbasiertes Programm zur Prävention von Fettleibigkeit bei Kindern, das über Schulen arbeitet, um die elterlichen Praktiken zu beeinflussen. Die vorliegende Studie wurde als formative Evaluation konzipiert, um zu testen, ob eine Online-Version von SWITCH® gleichwertig mit der etablierten Printversion funktioniert.;-;-;-;https://link.springer.com/article/10.1186/s40608-015-0049-1 da06b0dc1c33f747fb6b0d1f0ca75a14;de;;;6.2.;;;eTOXlab, ein Open-Source-Modellierungs-Framework zur Implementierung von Vorhersagemodellen in Produktionsumgebungen Computermodelle, die auf Methoden der quantitativen Struktur-Aktivitäts-Beziehung (QSAR) basieren, sind weit verbreitete Werkzeuge zur Vorhersage der biologischen Eigenschaften neuer Verbindungen. In vielen Fällen werden solche Modelle routinemäßig in der Industrie (z. B. Lebensmittel-, Kosmetik- oder Pharmaindustrie) zur frühzeitigen Bewertung der biologischen Eigenschaften neuer Verbindungen verwendet. Allerdings sind die meisten der derzeit verfügbaren Werkzeuge für die Entwicklung von QSAR-Modellen nicht gut geeignet, um den gesamten Lebenszyklus von QSAR-Modellen in Produktionsumgebungen zu unterstützen.;-;-;-;https://link.springer.com/article/10.1186/s13321-015-0058-6 abf03df4e327fc70b808c622bb4dad3d;de;;;6.2.;;;WikiPathways für Pflanzen: ein Portal zur Kuration von Community Pathways und eine Fallstudie in Netzwerken zur Entwicklung von Reis- und Arabidopsis-Samen Sequenzierungs- und „Omics“-Plattformen der nächsten Generation werden in der pflanzenbiologischen Forschung umfassend eingesetzt, um neue Genome zu entschlüsseln und ihre Wechselwirkungen mit abiotischen und biotischen Wirkstoffen in der Wachstumsumgebung zu untersuchen. Trotz der Verfügbarkeit einer großen und wachsenden Zahl von Genomdatensätzen gibt es nur begrenzte Ressourcen, die hochkuratierte und aktuelle metabolische und regulatorische Netzwerke für Pflanzenwege bereitstellen.;-;-;-;https://link.springer.com/article/10.1186/1939-8433-6-14 40a50007d14788f5a21be92140521a29;de;;;6.2.;;;Flandern: Regionale Organisation für Wasser und Dürre und Nutzung von Daten als Triebfeder des Wandels Dieses Kapitel enthält eine Zusammenfassung der Analyseergebnisse zur Steuerung von Dürreproblemen in der belgischen Region Flandern. Im Rahmen des Interreg IV-B-Projekts DROP besuchte ein Forscherteam von vier Universitäten und Wissensinstituten zweimal Flandern, um Interviews mit Behörden und Interessengruppen durchzuführen (Oktober 2013 und Mai 2014). Der Besuch wurde von Kollegen der flämischen Umweltbehörde (Vlaamse Milieumaatschappij, VMM) unterstützt. Der Austausch fand in Form von Einzel- und Gruppeninterviews sowie Workshops mit Stakeholdern unter Einbeziehung von Vertretern unterschiedlicher Institutionen und Sektoren, z.B. von der Trinkwassergesellschaft, nationalen und lokalen Naturschutzorganisationen, lokalen Bauern und lokalen und nationalen Bauernorganisationen, der Flämischen Umweltbehörde, verschiedenen Provinzen, z.B. Provinz Vlaams-Brabant und lokale Gemeinden, z.B. Gemeinde Kortemark. Die Analyse wurde durch das für das Projekt entwickelte dürrebezogene Governance Assessment Tool (GAT) geleitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-29671-5_7 15ab680bf7e026e784199c033336e942;de;;;6.2.;;;UV-Diagramm: ein Voronoi-Diagramm für unsichere räumliche Datenbanken Das Voronoi-Diagramm ist eine wichtige Technik zum Beantworten von Nächst-Nachbar-Anfragen für räumliche Datenbanken. Wir untersuchen, wie das Voronoi-Diagramm für unsichere räumliche Daten verwendet werden kann, die in wissenschaftlichen und geschäftlichen Anwendungen inhärent sind. Konkret schlagen wir die;-;-;-;https://link.springer.com/article/10.1007/s00778-012-0290-x e9383ab9b32bcfe4b4303ec53224d10b;de;;;6.2.;;;Atraumatische restaurative Behandlung im Vergleich zur Hall-Technik für okkluso-proximale Kavitäten in Milchmolaren: Studienprotokoll für eine randomisierte kontrollierte Studie In vielen Teilen der Welt haben Kinder im Schulalter einen hohen zahnärztlichen Behandlungsbedarf, jedoch gibt es oft nur geringe oder gar keine zahnärztliche Versorgung. Obwohl die atraumatische restaurative Behandlung (ART) entwickelt wurde, um dieses Problem zu beheben, ist ihre Überlebensrate bei okkluso-proximalen Läsionen gering. Eine Alternative, die Hall-Technik (HT), hat bessere relative Ergebnisse für okkluso-proximale Läsionen gezeigt, wurde jedoch nicht direkt mit ART verglichen oder im Feld getestet. In dieser Studie werden ART und HT verglichen, um die klinisch und kosteneffektivste Strategie zur Behandlung von okkluso-proximalen Läsionen bei primären Molaren in einer Schulumgebung unter Verwendung von Low-Tech- und kinderfreundlichen Zahntechniken zu finden.;-;-;-;https://link.springer.com/article/10.1186/s13063-016-1270-z 5588a2b12ad02ef5dc7fc93cf340eda0;de;;;6.2.;;;Definition von Urban Science Dieses einführende Kapitel bietet einen kurzen Überblick über die Theorien und Modelle, die das ausmachen, was heute als Urban Science bezeichnet wird. Die räumliche Struktur der Stadt in ihrer Form und Funktion zu erklären und zu vermessen, ist eines der Hauptziele dieser Wissenschaft. Es stellt Verbindungen zwischen der Art und Weise her, wie verschiedene Theorien über die Entstehung der Stadt in Bezug auf ihre wirtschaftliche und soziale Struktur und wie diese Theorien in Modelle umgewandelt werden könnten, die die operativen Werkzeuge der Stadtinformatik darstellen. Zuerst wird die Idee der Stadt als System vorgestellt, dann werden verschiedene Modelle zu den Kräften präsentiert, die bestimmen, was sich wo in der Stadt befindet. Anschließend wird vorgestellt, wie diese Aktivitäten durch Flüsse und Netzwerke miteinander verbunden sind. Diese Modelle beziehen sich auf formale Modelle der räumlichen Interaktion, die Verteilung der Größen verschiedener Städte und die qualitativen Veränderungen, die stattfinden, wenn Städte wachsen und sich auf verschiedene Ebenen entwickeln. Skalierung ist eines der Hauptthemen, das diese verschiedenen Elemente vereint, die diese Wissenschaft innerhalb des aufkommenden Gebiets der Komplexität begründen. Anschließend veranschaulichen wir, wie wir diese Ideen in Betriebsmodelle übersetzen können, die an der Spitze der neuen Werkzeuge stehen, die in der Stadtinformatik entwickelt werden und die in verschiedenen Kapiteln zu Modellierung und Mobilität in diesem Buch ausgearbeitet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8983-6_3 b1f486290a8e5164b858c3a270348f77;de;;;6.2.;;;Frühe Ergebnisse der Nierentransplantation von älteren Spendern nach Kreislauftod (GEODAS-Studie) Spanien hat die Zahl der Spender mit kontrolliertem Kreislauftod (cDCD) dramatisch erhöht. Die anfänglichen Auswahlkriterien für die Berücksichtigung von cDCD für die Nierentransplantation (KT) wurden schrittweise erweitert, wobei das Spenderalter in den letzten Jahren praktisch unbegrenzt war. Unser Ziel war es, die frühen klinischen Ergebnisse unter Verwendung von erweiterten (> 65 Jahre) cDCD im Vergleich zu Standardverfahren zu analysieren.;-;-;-;https://link.springer.com/article/10.1186/s12882-019-1412-0 b836a63dd273c8163c5e45415fc3fe3f;de;;;6.2.;;;Einführung: Studium der Bestattungen unter der Erde in Finnland––Herausforderungen im Umgang mit der Vergangenheit für die Zukunft Zwei laufende Projekte an der Universität Oulu, Finnland, untersuchen Bestattungen, die sich unter den Fußbodenbrettern finnischer Kirchen befinden. Die Projekte untersuchen Mortalität und Materialität in Finnland anhand einer außergewöhnlich gut erhaltenen Ansammlung mumifizierter menschlicher Überreste. Multidisziplinäre Forschungsmethoden, darunter CT-Scans, μCT-Scans, Probennahmen für DNA- und Isotopenanalysen sowie Insekten- und Pflanzenproben, liefern vielfältige Informationen über vergangene Gesellschaften. Die Proben geben einen reichen Einblick in die materiellen Dimensionen der Sterblichkeit in Nordeuropa im 18. und 19. Jahrhundert. Da sich das untersuchte Material unter den Böden von Kirchengebäuden befindet, die noch von Gemeinden genutzt werden, erforderte die Einholung von Genehmigungen für Forschung und Probenahme die Verwaltung von Beziehungen zu einzelnen Gemeinden. Dieser Artikel skizziert die Projekte und untersucht die ethische und rechtliche Dimension der Forschung an menschlichen Überresten, die in Partnerschaft mit einzelnen Kirchengemeinden durchgeführt wird.;-;-;-;https://link.springer.com/article/10.1007/s41636-020-00267-z e370a18ebf635cf4bcf6c0b2f99b37f6;de;;;6.2.;;;Ein Fertigungsrahmen für das fähigkeitsbasierte Produkt-Service-Systemdesign Hersteller zielen darauf ab, Produkt-Service-Systeme (PSS) zu entwickeln, die Dienstleistungen mit Produkten integrieren, um einen nachhaltigen Wettbewerbsvorteil aus einer Lebenszyklusperspektive zu erzielen. PSS-Design sollte maßgeschneiderte Lösungen sein, die auf die Fähigkeiten integrierter Interessengruppen ausgerichtet sind, ein Thema, das in der vorhandenen Literatur nicht ausreichend behandelt wurde. Dieses Papier schlägt dem PSS-Lösungsanbieter einen systematischen Rahmen vor, um dieses Ziel zu erreichen, und operationalisiert dies durch eine für das PSS-Design entwickelte Software, die die individuellen Aktivitäten der Stakeholder modelliert und deren Auftreten in Abhängigkeit von ihren Beziehungen simuliert. Der Rahmen betont, dass die Fähigkeiten integrierter Interessengruppen die kontinuierliche Fähigkeit definieren, ein gewünschtes Betriebsergebnis für die Kunden zu erzielen. Das Papier berichtet über einen PSS-Designfall für einen Lasersystemhersteller und wendet dann das Framework darauf an. Die Ansichten der Industrieexperten zu diesem Framework zeigen, dass es hilft, PSS-Design aus einem ganzheitlichen Systemansatz heraus zu entwickeln, der einen Wandel der Denkweise des Designers von einer produktzentrierten zu einer systemzentrierten Denkweise ermöglicht. Es wird argumentiert, dass das für diesen Rahmen erforderliche Maß an Vertrauen und Transparenz in den meisten Industriesektoren fehlt, was eine der größten Einschränkungen bei der Umsetzung von PSS darstellt.;-;-;-;https://link.springer.com/article/10.1186/2210-4690-3-8 496caf09a67506137dd9f4e3c30a990d;de;;;6.2.;;;Entwicklung der Kuhzahlen und Keulungsrate in der irischen Rinderpopulation, 2003 bis 2006 Kühe sind die wichtigsten wirtschaftlichen Produktionseinheiten der irischen Rinderindustrie. Daher sind demografische Informationen, einschließlich Gesamtzahlen und Überlebensraten, für die irische Agrarindustrie relevant. Trotz der jüngsten Entwicklung umfassender nationaler Rinderdatenbanken in vielen EU-Mitgliedstaaten sind jedoch nur wenige Daten zur Demografie von Kühen innerhalb einer nationalen Population verfügbar, weder in Irland noch anderswo. Ziel dieser Studie war es: die Keulungsrate von Kühen aus der nationalen Herde zu bestimmen, die Keulungsrate nach Art (Milch, Rind), Alter, Austrittsmethode, Austrittsdatum und Intervall zwischen dem letzten Kalben und Austritt zu berechnen die nationale Sterblichkeitsrate von Kühen in landwirtschaftlichen Betrieben und die irischen Raten mit veröffentlichten Daten aus anderen Ländern zu vergleichen. Diese Arbeit wurde anhand von Daten durchgeführt, die im nationalen Cattle Movement Monitoring System (CMMS) aufgezeichnet wurden. Das Keulen bezieht sich auf den Austritt von Kühen aus der nationalen Herde infolge des Todes, aber unabhängig von der Ursache, und die Kuhkeulungsrate wurde als die Anzahl der Kuhausgänge (wie oben definiert) pro Jahr geteilt durch die Anzahl der Kälbergeburten in das selbe Jahr. Die Keulungsrate wurde nach Art (Milch- oder Rindfleisch), Geburtsdatum, Ausstiegsmethode (Schlachten oder Tod im Betrieb), Ausstiegsmonat und Intervall zwischen letzter Kalbung und Ausstieg bestimmt. Die durchschnittliche Keulungsrate von Kühen lag zwischen 2003 und 2006 bei 19,6% (21,3% bei Milchprodukten, 18% bei Rindfleisch). Während Vergleiche mit Vorsicht zu genießen sind, kam es zu dem Schluss, dass die Gesamtrate der Keulungen in Irland innerhalb der veröffentlichten international anerkannten Normen lag. Die Sterblichkeitsrate im Betrieb war mit 3,2-4,1 % ähnlich der in vergleichbaren Studien berichteten.;-;-;-;https://link.springer.com/article/10.1186/2046-0481-61-7-455 3a229ca5ef9aeaaa482fb0b3cf3955d7;de;;;6.2.;;;Planen von Paritätsprüfungen für erhöhten Durchsatz bei früher Beendigung, geschichtete Dekodierung von QC-LDPC-Codes auf einem Stream-Prozessor Ein Stream-Prozessor ist eine energieeffiziente, in Hochsprachen programmierbare Option für eingebettete Anwendungen, die rechenintensiv sind und ein hohes Maß an Datenparallelität zulassen. Viele Signalverarbeitungsalgorithmen für die Kommunikation sind gut auf Stromprozessorarchitekturen abgestimmt, einschließlich teilweise paralleler Implementierungen von geschichteten Decodieralgorithmen wie dem Turbo-Decodierungs-Nachrichtenweiterleitungsalgorithmus (TDMP). Die Kommunikation zwischen Clustern von Funktionseinheiten im Stream-Prozessor verursacht sowohl während der Message-Passing-Phase als auch während der Parity-Check-Phase des TDMP-Algorithmus mit frühzeitiger Beendigung Latenzkosten der Decoder. Wir betrachten zwei Modifikationen des Zeitplans für den TDMP-Algorithmus mit früher Beendigung, jede halbiert die erforderliche Kommunikation zwischen Funktionseinheiten-Clustern des Stream-Prozessors in jeder Iteration. Wir zeigen, dass diese den Informationsdurchsatz des Decoders erheblich steigern können, ohne die Fehlerwahrscheinlichkeit zu erhöhen.;-;-;-;https://link.springer.com/article/10.1186/1687-1499-2012-141 83579a2fcf5fbc4fa3f6a028799a928e;de;;;6.2.;;;Die Epidemiologie von primären Kopfschmerzerkrankungen in Sambia: eine bevölkerungsbasierte Tür-zu-Tür-Umfrage Über die Epidemiologie primärer Kopfschmerzerkrankungen in Subsahara-Afrika ist wenig bekannt. Wir haben eine bevölkerungsbezogene Umfrage in Sambia mit Methoden durchgeführt, die zuvor in mehreren anderen Ländern getestet wurden.;-;-;-;https://link.springer.com/article/10.1186/s10194-015-0515-7 21cf30e0108f20e1873924a4838fc284;de;;;6.2.;;;Die REFLO-STEMI-Studie zum Vergleich von intrakoronarem Adenosin, Natriumnitroprussid und Standardtherapie zur Abschwächung der Infarktgröße und mikrovaskulären Obstruktion während der primären perkutanen Koronarintervention: Studienprotokoll für eine randomisierte kontrollierte Studie Mikrovaskuläre Obstruktion (MVO) als Folge einer ischämischen Reperfusionsverletzung ist eine wichtige, aber unterschätzte Determinante für das kurz- und längerfristige Outcome nach einer perkutanen Koronarintervention (PCI) bei der ST-Hebungsinfarkt (STEMI). Mehrere kleine Studien haben eine Verringerung des MVO-Grades unter Verwendung einer Vielzahl von vasoaktiven Wirkstoffen gezeigt, wobei Adenosin und Natriumnitroprussid (SNP) am meisten bewertet wurden. Die Evidenzbasis bleibt jedoch schwach, da die Studien unterschiedliche Endpunkte, unterschiedliche Arzneimitteldosen und -abgaben hatten. Daher sind die Ergebnisse zum Nutzen widersprüchlich.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-15-371 d5e32160102089df4e9d25bcc3908601;de;;;6.2.;;;Die globale Belastung durch Migräne: Messung der Behinderung bei Kopfschmerzerkrankungen mit der Klassifikation der Funktionsfähigkeit, Behinderung und Gesundheit der WHO Dieser Überblick über die veröffentlichten epidemiologischen Beweise für Migräne hilft, das Ausmaß des Problems der öffentlichen Gesundheit, das Migräne darstellt, zu identifizieren. Es unterstreicht auch die Notwendigkeit weiterer epidemiologischer Studien in vielen Teilen der Welt, um das Ausmaß der damit verbundenen klinischen, wirtschaftlichen und humanistischen Belastungen vollständig zu verstehen. In diesem Beitrag werden einige der Arbeiten der Weltgesundheitsorganisation (WHO) zu Migräne vorgestellt, die im Jahr 2000 in der Global Burden of Disease-Studie durchgeführt und in der;-;-;-;https://link.springer.com/article/10.1007/s10194-005-0252-4 1d7ccd15f08b3dcfc0b21634a84aa187;de;;;6.2.;;;Nachhaltige Produktion von Fenchel und Dill durch Mischkultur Der Mischkulturanbau gilt als eine der bedeutendsten Anbautechniken in der nachhaltigen Landwirtschaft, und viele Forschungen und viele Übersichten schreiben seiner Nutzung eine Reihe von Umweltvorteilen zu, von der Förderung der biologischen Vielfalt an Land bis hin zur Diversifizierung der landwirtschaftlichen Ergebnisse. In diesem Sinne wird der Mischkulturanbau als nützliches Mittel zur Minimierung der Risiken der landwirtschaftlichen Produktion in vielen Umgebungen angesehen, einschließlich derjenigen, die typisch für unterentwickelte oder marginale Gebiete sind. Um diese Hypothese in einem repräsentativen Gebiet der semiariden Mittelmeerumgebung zu validieren, haben wir die Möglichkeit des Anbaus von Dill und Fenchel, die beide zur Familie der Apiaceae gehören, in temporären Mischkulturen untersucht. Unser Versuch wurde 2000/01 und 2001/02 in Sizilien durchgeführt, im ersten Jahr wurden Fenchel und Dill in einer Mischung nach einem Substitutionsschema angebaut, während wir 2001/02 die bio-agronomischen und chemischen Eigenschaften von Fenchel allein untersuchten . Die biologische Effizienz des Mischkultursystems wurde unter Verwendung des Landäquivalent-Verhältnisses und des Wettbewerbsverhältnisses bewertet, und eine Schätzung der Interaktionseffekte beider Kulturen wurde durch Analyse der wichtigsten vegetativen und Ertragsmerkmale von Pflanzen zusammen mit dem chemischen Profil der flüchtigen Bestandteile durchgeführt der Früchte. Sowohl beim Kornertrag als auch beim Biomasseertrag war das Zwischenfruchtverhältnis mit höherem Fenchelanteil das effizienteste Anbausystem, bei dem die berechneten Wettbewerbsverhältniswerte für Dill 1,90 für Getreide und 2,59 für Biomasse erreichten. Unsere Ergebnisse zeigen auch, dass die Anwesenheit von Dill einen deutlich stabilisierenden Effekt auf den Fenchelsaatertrag des Folgejahres ausübte: Während auf den zuvor angebauten Parzellen von Jahr zu Jahr kein Unterschied im Fenchelsaatgutertrag festgestellt werden konnte, wurde im wiederholten Reinbestand a Es wurde eine Ausbeuteverringerung von 50 % verzeichnet. Im Versuchsumfeld zeigte die Technik ein gutes Potenzial zur Verbesserung der Effizienz der Ressourcennutzung, weitere Langzeitversuche werden notwendig sein, um die Anwendung einer solchen Technik auf andere Arznei- und Gewürzpflanzenmischungen zu demonstrieren.;-;-;-;https://link.springer.com/article/10.1051/agro%3A2007040 90b03163900261705c0f3d35480f9ba5;de;;;6.2.;;;Erweitern von Würfeln mit Modellen zur Beschreibung mehrdimensionaler Daten Das Intentional Analytics Model (IAM) wurde vor kurzem als neues Paradigma zur Kopplung von OLAP und Analytics ins Auge gefasst. Es basiert auf zwei Grundideen: (i) den Benutzer zu ermöglichen, Daten zu erkunden, indem er seine Analyseabsichten ausdrückt, anstatt die Daten, die er benötigt, und (ii) erweiterte Cubes zurückzugeben, dh mehrdimensionale Daten, die mit Wissenseinblicken in Form interessanter Modellkomponenten annotiert sind (zB Cluster). In diesem Papier tragen wir dazu bei, einen Machbarkeitsnachweis für die IAM-Vision zu erbringen, indem wir eine End-to-End-Implementierung von;-;-;-;https://link.springer.com/article/10.1007/s10796-021-10147-3 4eecf45733448f04cce97d9c4cf0649c;de;;;6.2.;;;Markov-Zufallsfeldmodellierung zur Kartierung von Geofluidverteilungen aus seismischen Geschwindigkeitsstrukturen Wir haben das Markov-Zufallsfeldmodell, eine Art Bayes'sche Wahrscheinlichkeitsmethode, auf die räumliche Inversion der Porosität und Porenform in Gesteinen aus einer beobachteten seismischen Struktur angewendet. Gaußsche Markov-Ketten wurden verwendet, um die räumliche Kontinuität der Porosität und das Aspektverhältnis der Porenform zu berücksichtigen. Synthetische Inversionstests konnten die Wirksamkeit und Gültigkeit des vorgeschlagenen Modells zeigen, indem das statistische Rauschen der Beobachtungen entsprechend reduziert wurde. Das vorgeschlagene Modell wurde auch auf natürliche Datensätze der seismischen Geschwindigkeitsstrukturen im Mantelkeil unter dem Nordosten Japans angewendet, unter der Annahme, dass die Flüssigkeit geschmolzen war und die Temperatur und die Erdölstrukturen gleichmäßig verteilt waren. Das Ergebnis zeigt einen signifikanten Unterschied zwischen der Vulkanfront und den Forearc-Regionen in einer Tiefe von 40 km. Obwohl die Parameter und Materialeigenschaften genauer bestimmt werden müssen, kann das hier vorgestellte Markov-Zufallsfeldmodell als grundlegendes Inversionsgerüst für die Kartierung von Geofluiden dienen.;-;-;-;https://link.springer.com/article/10.1186/1880-5981-66-5 060b2f00c0de6e64f565358afe082608;de;;;6.2.;;;Den Schatten verlassen: Ein Konfigurationsansatz zur Erklärung der Ergebnisse von Schatten-IT-Systemen nach der Identifizierung Mit dem Aufkommen von Endbenutzer- und Cloud-Computing können Geschäftsanwender eigenständig Informationssysteme für Arbeitspraktiken implementieren – entweder von Grund auf oder als Erweiterung bestehender Systeme. Die daraus resultierenden Informationssysteme bleiben jedoch häufig vor Managern und behördlichen IT-Einheiten verborgen und werden daher als „Schatten-IT-Systeme“ bezeichnet. Wenn ein Schatten-IT-System identifiziert wird, muss die Organisation über die Zukunft dieses Systems entscheiden. Die Studie verwendet eine konfigurative Perspektive, um die Ergebnisse der Identifizierung von Schatten-IT-Systemen sowie die Mechanismen und Kontextbedingungen zu erklären, die sie bewirken. Dazu wurden 27 Profile von Schatten-IT-Systemen erstellt, indem 35 Interviews mit Befragten aus unterschiedlichen Positionen und Branchen geführt wurden. Die Analyse gibt Einblick in sechs verschiedene Kontext-Mechanismus-Ergebnis-Konfigurationen und erklärt vier Ergebnisse, die nach der Identifizierung von Schatten-IT-Systemen auftreten, nämlich Auslauf, Ersatz, Fortführung als IT-verwaltetes System und Fortführung als unternehmensverwaltetes System. Diese Ergebnisse tragen zur Schatten-IT-Literatur und allgemeiner zu IS-Architektur und Governance-Strömen der IS-Literatur bei. Sie informieren IT-Manager, wenn diese Entscheidungsoptionen für identifizierte Schatten-IT-Systeme unter verschiedenen Kontextbedingungen abwägen.;-;-;-;https://link.springer.com/article/10.1007/s12599-020-00635-2 324a9ab257fa9984711d30cc8e699ae4;de;;;6.2.;;;Diagramme der stereophysikochemischen Variabilität heben konservierte antigene Bereiche in Flaviviren hervor Flaviviren, zu denen Dengue (DV) und West Nile (WN) gehören, mutieren als Reaktion auf den Druck des Immunsystems. Die Identifizierung von Escape-Mutanten, varianten Nachkommen, die in Gegenwart neutralisierender Antikörper replizieren, ist ein üblicher Weg, um funktionell wichtige Reste viraler Proteine ​​zu identifizieren. Die Mutationen treten jedoch typischerweise an variablen Positionen auf der Virusoberfläche auf, die für die Virusreplikation nicht essentiell sind. Es werden Methoden benötigt, um die wahren Ziele der neutralisierenden Antikörper zu bestimmen.;-;-;-;https://link.springer.com/article/10.1186/1743-422X-2-40 b9ce6c6c59dd13d41957aa0e668e5bc9;de;;;6.2.;;;Antimicrobial Stewardship in stationären Altenpflegeeinrichtungen: Bedarfs- und Bereitschaftsbewertung Informationen über die Durchführbarkeit, Hindernisse und Erleichterungen der antimikrobiellen Verwaltung (AMS) in stationären Altenpflegeeinrichtungen (RACFs) waren spärlich. Die Untersuchung der vorherrschenden Wahrnehmungen und Einstellungen wichtiger Gesundheitsdienstleister in Bezug auf das Verschreibungsverhalten von Antibiotika, Antibiotikaresistenzen und AMS in der RACF-Umgebung ist unerlässlich, um AMS-Interventionen zu leiten.;-;-;-;https://link.springer.com/article/10.1186/1471-2334-14-410 de411cfa1889dab95ccc71521543843d;de;;;6.2.;;;Design und Begründung der randomisierten, doppelblinden, placebokontrollierten Liraglutide zur Verbesserung der korONaren Hämodynamik während der Crossover-Studie LIONESS (Übungsstress) Glucagon-like peptide-1 ist ein Inkretinhormon, das für die normale menschliche Glukosehomöostase essentiell ist. Die Expression des Glucagon-ähnlichen Peptid-1-Rezeptors im Myokard hat ein wachsendes Interesse an den direkten und indirekten kardiovaskulären Wirkungen des nativen Glucagon-ähnlichen Peptids-1, seines Abbauprodukts Glucagon-ähnliches Peptid-1(9-36) und der synthetische Glucagon-ähnliche Peptid-1-Rezeptor-Agonisten. Präklinische Studien haben kardioprotektive Wirkungen aller drei Verbindungen bei experimentellem Myokardinfarkt und linksventrikulärer systolischer Dysfunktion gezeigt. Dies hat zu Phase-2-Studien mit nativen glukagonähnlichen Peptid-1- und Inkretin-basierten Therapien bei Menschen mit und ohne Typ-2-Diabetes mellitus geführt. Diese Studien haben die Fähigkeit von Glucagon-ähnlichem Peptid-1 gezeigt, unabhängig von der glykämischen Kontrolle, die metabolischen und hämodynamischen Parameter von Personen mit koronarer Herzkrankheit und linksventrikulärer systolischer Dysfunktion positiv zu modulieren. Unser Ziel ist es, diese wachsende Evidenz zu ergänzen, indem wir die Wirkung der chronischen Aktivierung des Glucagon-ähnlichen Peptid-1-Rezeptors auf die durch körperliche Anstrengung induzierte Ischämie bei Patienten mit chronischer stabiler Angina pectoris untersuchen, die konservativ behandelt werden oder auf eine Revaskularisierung warten. Die Hypothese lautet, dass Liraglutid, ein subkutan injizierbarer Glucagon-ähnlicher Peptid-1-Rezeptor-Agonist, in der Lage ist, die Hämodynamik bei Belastung bei Patienten mit obstruktiver koronarer Herzkrankheit im Vergleich zu Kochsalzlösung zu verbessern.;-;-;-;https://link.springer.com/article/10.1186/s12933-015-0193-4 226a2f356b58480ed96a7b5010d5ad0e;de;;;6.2.;;;Die Anwendung von Metformin bei Patienten mit Typ-2-Diabetes mellitus ist mit einem verringerten Risiko einer tiefen Venenthrombose verbunden: eine nicht randomisierte, paarweise abgestimmte Kohortenstudie Metformin, ein Insulin-Sensibilisator, kann bei Patienten mit Typ-2-Diabetes mellitus (DM) verschiedene physiologische Anomalien aufgrund einer Insulinresistenz korrigieren. Die Auswirkungen von Metformin auf die Venenthrombose bei Patienten mit Typ-2-DM wurden nicht berichtet. Unsere Studie zielte darauf ab, den Zusammenhang zwischen der Metformintherapie und der nachfolgenden Entwicklung einer tiefen Venenthrombose (TVT) mithilfe einer landesweiten, bevölkerungsbasierten Datenbank zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/1471-2261-14-187 a1d891cfe4b0bed9a271200b577743eb;de;;;6.2.;;;Sofortige Leistungsbeurteilung von medizinischen Laborwissenschaftlern nach einem 10-tägigen Malaria-Mikroskopie-Trainingsprogramm in Nigeria Eine schnelle und präzise Diagnose von Malaria ist ein wesentliches Element für ein effektives Fallmanagement und die Kontrolle von Malaria. Die Malaria-Mikroskopie wird als Goldstandard für die Malaria-Diagnose verwendet, jedoch bleiben die Ergebnisse schlecht, da die Positivitätsrate in Nigeria durchweg über 90% liegt. Die Malaria Initiative (PMI) des Präsidenten der Vereinigten Staaten unterstützte über das Malaria Action Program for States (MAPS) ausgewählte Bundesstaaten in Nigeria beim Aufbau von Kapazitäten für die Malariamikroskopie. Diese Studie zeigt die Wirksamkeit von Fortbildungen zur Malaria-Mikroskopie unter medizinischen Laborwissenschaftlern.;-;-;-;https://link.springer.com/article/10.1186/s41256-017-0051-x ca004e856453b71cfccb3930cf61aea5;de;;;6.2.;;;Randomisierte kontrollierte multizentrische Studie zur Albuminersatztherapie bei septischem Schock (ARISS): Protokoll für eine randomisierte kontrollierte Studie Albumin ist ein wichtiger Regulator der Flüssigkeitsverteilung im extrazellulären Raum und hat über seine onkotische Aktivität hinaus mehrere Eigenschaften. Die sich häufenden Beweise deuten darauf hin, dass die Supplementierung von Albumin nur dann Überlebensvorteile bringen kann, wenn die Verletzung schwerwiegend ist, wie bei Patienten mit septischem Schock.;-;-;-;https://link.springer.com/article/10.1186/s13063-020-04921-y 0dfa5520ec003d65277901eae6410cb5;de;;;6.2.;;;Reaktion auf erfahrene und antizipierte Diskriminierung (READ): Anti-Stigma-Training für Medizinstudenten gegenüber Patienten mit psychischen Erkrankungen – Studienprotokoll für eine internationale, nicht randomisierte, kontrollierte Studie mit mehreren Standorten Stigmatisierung und Diskriminierung stellen ein erhebliches Problem für die öffentliche Gesundheit dar und verursachen Menschen mit psychischen Erkrankungen großes Leid. Angehörige der Gesundheitsberufe wurden als eine Quelle dieser Diskriminierung identifiziert. In diesem Artikel beschreiben wir das Protokoll einer internationalen, an mehreren Standorten kontrollierten Studie, in der die Wirksamkeit von READ, einem Anti-Stigma-Training für Medizinstudenten gegenüber Patienten mit psychischen Erkrankungen, bewertet wird. READ zielt darauf ab, die Fähigkeit der Studenten zu verbessern, wahrgenommenes diskriminierendes Verhalten zu minimieren und die Chancen für Patienten zu erhöhen, um so die Fähigkeit zukünftiger Ärzte zu entwickeln, Diskriminierung im Zusammenhang mit psychischen Erkrankungen anzugehen und zu bekämpfen. READ enthält Komponenten, von denen die medizinische Ausbildungsforschung gezeigt hat, dass sie bei der Verbesserung von Einstellungen, Überzeugungen und Verständnis wirksam sind.;-;-;-;https://link.springer.com/article/10.1186/s12909-019-1472-7 ad0a14f6ac731c6e4beb23381ac58fd4;de;;;6.2.;;;Längsschnittbestimmung der Resilienz beim Menschen, um Mechanismen der Resilienz gegenüber Stressoren des modernen Lebens zu identifizieren: die longitudinale Resilienzbewertung (LORA) Resilienz ist die Aufrechterhaltung und/oder schnelle Wiederherstellung der psychischen Gesundheit während und nach Phasen von Widrigkeiten. Sie ist als Ergebnis eines dynamischen Prozesses erfolgreicher Anpassung an Stressoren konzipiert. Bisher wurde eine Vielzahl von Resilienzfaktoren vorgeschlagen, die zugrunde liegenden Mechanismen der Resilienz sind jedoch noch nicht verstanden. Um die komplexen und zeitlich veränderlichen Prozesse der Resilienz zu beleuchten, die bei Widrigkeiten zu einem positiven Langzeitergebnis führen, wurde die Studie Longitudinal Resilience Assessment (LORA) etabliert. In dieser Studie werden 1191 gesunde Teilnehmer im Abstand von 3 und 18 Monaten über einen Zeitraum von 4,5 Jahren an zwei Studienzentren in Deutschland nachbeobachtet. Basisuntersuchungen und 18-monatige Besuche beinhalten eine multimodale Phänotypisierung, einschließlich der Bewertung des psychischen Gesundheitszustands, soziodemografischer und Lebensstilvariablen, Resilienzfaktoren, Lebensgeschichte, neuropsychologischer Bewertungen (der vorgeschlagenen Resilienzmechanismen) und Biomaterialien (Blut für genetische und epigenetische, Stuhl für Mikrobiom) und Haare für die Cortisol-Analyse). Bei 3-monatigen Online-Assessments werden die Probanden auf eine nachfolgende Belastung durch Stressoren sowie auf Maßnahmen zur psychischen Gesundheit überwacht, was eine quantitative Bewertung stressorabhängiger Veränderungen der psychischen Gesundheit als Hauptergebnis ermöglicht. Deskriptive Analysen der psychischen Gesundheit, der Anzahl der Stressoren einschließlich wichtiger Lebensereignisse, alltäglicher Probleme, wahrgenommener Stress und der Fähigkeit, sich von Stress zu erholen, werden hier für die Basisstichprobe präsentiert. Die LORA-Studie ist in ihrem Design einzigartig und wird den Weg ebnen für ein besseres Verständnis der Resilienzmechanismen des Menschen und für die Weiterentwicklung von Interventionen zur erfolgreichen Prävention stressbedingter Störungen.;-;-;-;https://link.springer.com/article/10.1007/s00406-020-01159-2 af5aa983822582200626882331de565a;de;;;6.2.;;;Wirksamkeit eines digital unterstützten Pflegemanagementprogramms zur Reduzierung unerfüllter Bedürfnisse von pflegenden Angehörigen von Menschen mit Demenz: Studienprotokoll für eine randomisierte kontrollierte Clusterstudie (GAIN) Bis zu zwei Drittel der Demenzpflege werden von pflegenden Angehörigen erbracht, die oft unter hoher Belastung, geringer Unterstützung und negativen gesundheitlichen Folgen leiden. Die Befähigung und Unterstützung pflegender Angehöriger bei der häuslichen Pflege verhindert eine frühzeitige Institutionalisierung des Demenzkranken und entlastet langfristig die wirtschaftliche Belastung durch Demenz. Allgemeinmediziner (GPs) spielen als erste Anlaufstelle eine Schlüsselrolle bei der Ermittlung und Bewältigung von Belastungen und Pflegebedürfnissen pflegender Angehöriger. In der Regelpflege ist diese Möglichkeit jedoch oft durch Zeitdruck begrenzt und selbst bei erkanntem Pflegebedarf fehlen oft detaillierte Informationen über regional verfügbare Unterstützungs- und Beratungsangebote zu Gesundheitsleistungen.;-;-;-;https://link.springer.com/article/10.1186/s13063-021-05290-w 1f24ccf72dfae6a292a9e8c08fe80810;de;;;6.2.;;;Mittlere quadratische Containment-Steuerungsprobleme von Multi-Agent-Systemen unter Markov-Schalttopologien Der Artikel untersucht die Containment-Steuerung für Multi-Agent-Systeme unter Markov-Switching-Topologien. Unter Verwendung der Graphentheorie und der Werkzeuge der stochastischen Analyse werden hinreichende Bedingungen für das mittlere quadratische Containment-Kontrollproblem für die Multiagentensysteme zweiter Ordnung abgeleitet. Anschließend werden die erhaltenen Ergebnisse auf Multiagentensysteme höherer Ordnung erweitert.;-;-;-;https://link.springer.com/article/10.1186/s13662-015-0437-3 2e52f3d1ebfd8dd5273dcb47a6285759;de;;;6.2.;;;Machbarkeits- und Pilotstudie zu den Auswirkungen von Mikrofinanzierung auf Sterblichkeit und Ernährung bei Kindern unter fünf Jahren unter den sehr armen Menschen in Indien: Studienprotokoll für eine randomisierte kontrollierte Clusterstudie Die Millenniumsentwicklungsziele der Vereinten Nationen beinhalten Ziele für die Gesundheit von Kindern unter fünf Jahren. Schlechte Gesundheit ist mit Armut verbunden, und Mikrofinanzinitiativen sind wirtschaftliche Interventionen, die die Gesundheit verbessern können, indem sie den Armutskreislauf durchbrechen. Es fehlt jedoch an zuverlässigen Beweisen, die dies belegen. Darüber hinaus können Mikrofinanzprogramme negative Auswirkungen auf die Gesundheit haben, beispielsweise durch eine erhöhte Verschuldung. Rojiroti UK und das Centre for Promoting Sustainable Livelihood betreiben ein innovatives Mikrofinanzprogramm, das Mikrokredite über Frauenselbsthilfegruppen (SHGs) vergibt. Diese Pilotstudie, die im ländlichen Bihar (Indien) durchgeführt wurde, wird feststellen, ob es möglich ist, anthropometrische und Mortalitätsdaten von Kindern unter fünf Jahren zu sammeln und eine begrenzte randomisierte Cluster-Studie der Rojiroti-Intervention durchzuführen.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-15-298 3982eaf752812c744125a15433b8fdb7;de;;;6.2.;;;Metagenomische Ansätze unterstreichen die Organisation und Dynamik von Plankton auf Speziesebene Plankton besteht aus allen Organismen, die entlang von Strömungen treiben. Das planktonische Ökosystem ist ein komplexes System, das Organismen zusammenfasst, die miteinander und mit ihrer Umwelt interagieren. Dieses Ökosystem spielt eine wichtige Rolle bei den elementaren Prozessen, die zur Aufrechterhaltung des Lebens auf der Erde notwendig sind, wie der Photosynthese, jedoch sind die evolutionären und organisatorischen Mechanismen, die es steuern, noch wenig bekannt. Mit dem Fortschritt der Hochdurchsatzsequenzierung im letzten Jahrzehnt ist es möglich, fast alle genomischen Sequenzen der in einer Umweltprobe vorhandenen Mikroorganismen, einschließlich unkultivierter Organismen, zu erhalten. Mit den Reads, die sich aus dieser metagenomischen Sequenzierung in Kombination mit kontextuellen Umweltbedingungen ergeben, haben wir heute Zugang zu Informationen über die Zusammensetzung der Gene, die Diversität und die Biogeographie planktonischer Organismen bis auf Artebene. Diese Übersicht hebt die ökologischen und evolutionären Erkenntnisse hervor, die aus metagenomischen Sequenzierungsprojekten gewonnen wurden, die auf groß angelegte Umweltstudien angewendet wurden. Die Umweltgenomikdaten, die von der;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-95954-2_14 0f830fae935d7f7731bc64ff70a977b4;de;;;6.2.;;;Verwendung aggregierter Daten aus schwedischen nationalen Qualitätsregistern als Instrument zur Beschreibung des Gesundheitszustands älterer Erwachsener mit komplexen Bedürfnissen Die Kombination von Nationalen Qualitätsregistern (NQRs) mit bestehenden Nationalen Gesundheitsregistern (NHRs) könnte es ermöglichen, ein umfassenderes Bild der Gesundheitssituation älterer Erwachsener zu erhalten. Ziel war es, die Machbarkeit der Aggregation von Daten aus verschiedenen NQRs und bestehenden NHRs zu untersuchen, um die Möglichkeit zu erkunden, Verläufe und Muster von Krankheit und Pflege speziell für die am schwersten erkrankten älteren Erwachsenen zu untersuchen.;-;-;-;https://link.springer.com/article/10.1007/s40520-020-01629-6 82b76b8e583ab2de80a036733e26e0ad;de;;;6.2.;;;Geospatial Artificial Intelligence: Potenziale des maschinellen Lernens für 3D-Punktwolken und Geospatial Digital Twins Künstliche Intelligenz (KI) verändert grundlegend die Art und Weise, wie IT-Lösungen in allen Anwendungsdomänen implementiert und betrieben werden, einschließlich des Geodatenbereichs. Dieser Beitrag skizziert KI-basierte Techniken für 3D-Punktwolken und raumbezogene digitale Zwillinge als generische Komponenten der raumbezogenen KI. Zunächst reflektieren wir kurz den Begriff „KI“ und skizzieren technologische Entwicklungen, die für die Anwendung von KI auf IT-Lösungen aus Software-Engineering-Perspektive erforderlich sind. Als nächstes charakterisieren wir 3D-Punktwolken als Schlüsselkategorie von Geodaten und ihre Rolle bei der Schaffung der Grundlage für raumbezogene digitale Zwillinge, wir erklären die Machbarkeit von Machine Learning (ML) und Deep Learning (DL) Ansätzen für 3D-Punktwolken. Insbesondere argumentieren wir, dass 3D-Punktwolken als Korpus mit ähnlichen Eigenschaften wie natürlichsprachliche Korpora angesehen werden können und formulieren eine „Natürlichkeitshypothese“ für 3D-Punktwolken. Im Hauptteil stellen wir einen Workflow zur Interpretation von 3D-Punktwolken basierend auf ML/DL-Ansätzen vor, die domänenspezifische und anwendungsspezifische Semantik für 3D-Punktwolken ableiten, ohne explizit räumliche 3D-Modelle oder explizite Regelsätze erstellen zu müssen. Schließlich werden Beispiele gezeigt, wie wir mit ML/DL Basisdaten für raumbezogene digitale Zwillinge wie virtuelle 3D-Stadtmodelle, Indoor-Modelle oder Gebäudeinformationsmodelle effizient erstellen und pflegen können.;-;-;-;https://link.springer.com/article/10.1007/s41064-020-00102-3 9b419bbcdbeeb8187ff9043e0ad857fa;de;;;6.2.;;;Zur Implementierung verteilter asynchroner nichtlinearer Kernelverfahren über drahtlose Sensornetzwerke In diesem Beitrag beschäftigen wir uns mit der Implementierung einer nichtlinearen Kernel-Methode zur Regression in einem drahtlosen Sensornetzwerk (WSN) basierend auf MICAz-Motes. Als Betriebssystem wird TinyOS 2.1.1 verwendet. Der Algorithmus schätzt den Wert einer gewissen Größenordnung aus den Messungen der Partikel in einem verteilten Ansatz, bei dem Informationen und Berechnungen asynchron durchgeführt werden. Dieser Vorschlag umfasst eine Untersuchung der potenziellen Probleme, die zusammen mit den entwickelten Lösungen auftreten. Nämlich Matrix- und Floating-Berechnungen, Bestätigungsmechanismen und Datenverlust.;-;-;-;https://link.springer.com/article/10.1186/s13638-015-0382-6 3d47b061c558979a1e92e98289c2925e;de;;;6.2.;;;Neun Jahre Mückenmonitoring in Deutschland, 2011–2019, mit einem aktualisierten Inventar der deutschen Culiciden-Arten Vor dem Hintergrund immer häufigerer Ausbrüche und Fälle von durch Stechmücken übertragenen Krankheiten in verschiedenen europäischen Ländern hat Deutschland kürzlich die Notwendigkeit erkannt, jahrzehntealte Daten zum Vorkommen und zur raumzeitlichen Verbreitung von Culiciden-Arten zu aktualisieren. Ab 2011 wurde daher ein Mückenmonitoring-Programm gestartet, bei dem an zahlreichen Standorten in ganz Deutschland sowohl erwachsene als auch unreife Mückenstadien aktiv durch Fangen, Netzen, Absaugen und Tauchen sowie passiv durch das Citizen Science Projekt „Mückenatlas“ gesammelt werden. Bis Ende 2019 wurden etwa 516.000 Mückenexemplare analysiert, wobei 52 (wahrscheinlich 53) Arten aus sieben Gattungen gefunden wurden, darunter mehrere Arten, die aufgrund ihrer extremen Seltenheit seit Jahrzehnten nicht mehr gemeldet wurden (;-;-;-;https://link.springer.com/article/10.1007/s00436-020-06775-4 63285f257d3ad7047dbdbadd4f96f9a1;de;;;6.2.;;;Content-on-Demand-Videoadaption basierend auf MPEG-21 Digital Item Adaption Eines der Hauptziele in der Multimediaforschung ist der umfassende Zugang und die personalisierte Nutzung von Multimediainformationen. Der umfassende Zugriff auf Videodaten impliziert den Zugriff auf kognitive und affektive Aspekte von Videoinhalten. Die personalisierte Nutzung erfordert, dass die Dienste die Bedürfnisse der einzelnen Benutzer an Videoinhalten erfüllen. In diesem Artikel wird versucht, eine Content-on-Demand (CoD)-Videoanpassungslösung bereitzustellen, indem die Präferenzen der Benutzer für kognitive Inhalte und affektive Inhalte für Videomedien im Allgemeinen, Sportvideos und Filme im Besonderen, berücksichtigt werden. In diesem Artikel wird ein CoD-Videoanpassungssystem entwickelt, um die Entscheidung der Benutzer bei der Auswahl ihres interessanten Inhalts zu unterstützen und eine Videoquelle adaptiv bereitzustellen, indem relevante Inhalte ausgewählt und Frames unter Berücksichtigung der Netzwerkbedingungen fallengelassen werden. Zuerst werden Videoinhalte durch die Beschreibungsschemata (DSs) kommentiert, die von MPEG-7-Multimedia-Beschreibungsschemata (MDSs) bereitgestellt werden. Um dann eine generische Anpassungslösung zu erreichen, wird die Anpassung gemäß dem MPEG-21 Digital Item Adaptation (DIA) Framework entwickelt. Wir untersuchen die MPEG-21-Referenzsoftware zur XML-Generierung und entwickeln unser eigenes System zur CoD-Videoadaption in drei Schritten: (1) Die Inhaltsinformationen werden aus der MPEG-7-Annotations-XML-Datei zusammen mit dem Bitstream geparst, um eine generische Bitstream-Syntaxbeschreibung (gBSD ), (2) Benutzerpräferenzen, Netzwerkeigenschaften und Anpassungs-QoS (AQoS) werden berücksichtigt, um eine Anpassungsentscheidung zu treffen, (3) die Anpassungsmaschine analysiert automatisch Anpassungsentscheidungen und gBSD, um eine Anpassung zu erreichen. Im Gegensatz zu den meisten bestehenden Anpassungsarbeiten passt das System den interessierenden Inhalt des Videostroms gemäß den Präferenzen des Benutzers an. Wir implementieren die oben genannten MPEG-7- und MPEG-21-Standards und bieten eine generische Videoanpassungslösung. Die auf gBSD basierende Adaption vermeidet aufwendige Videoberechnungen. Dreißig Studenten verschiedener Fakultäten wurden eingeladen, das System zu bewerten, und ihre Reaktionen waren positiv.;-;-;-;https://link.springer.com/article/10.1186/1687-1499-2012-104 e84ebdc47a9b1e01270245b16dbefb3e;de;;;6.2.;;;Visuell geführtes Gangtraining bei paretischen Patienten in der ersten Rehabilitationsphase: Studienprotokoll für eine randomisierte kontrollierte Studie Nach einer Läsion des zentralen Nervensystems leiden viele Patienten an einer eingeschränkten Gehfähigkeit. In der ersten Rehabilitationsphase fördern wiederholte Gehübungen die Muskelkraft und stimulieren die Plastizität des Gehirns und das motorische Wiedererlernen. Allerdings können ein ausgeprägtes Hinken, ein unsicherer Gang und eine schlechte Hindernisbeseitigung bestehen bleiben, was das Sturzrisiko des Patienten erhöht. Zur Verbesserung der Gangkoordination wurde ein Gangtraining mit Augmented Reality empfohlen. Ziel dieser Studie ist es zu testen, ob ein Gangrehabilitationsprogramm mit Augmented Reality einem herkömmlichen Laufbandtraining gleicher Intensität überlegen ist.;-;-;-;https://link.springer.com/article/10.1186/s13063-016-1630-8 1a8acade3626ecf249c38adfefd81c89;de;;;6.2.;;;Entwicklung eines Tools zur Erkennung von Dysfunktionen der kleinen Atemwege bei Asthma (SADT) Small Airways Dysfunktion (SAD) trägt zum klinischen Ausdruck von Asthma bei. Die Identifizierung von Patienten mit SAD ist aus klinischer Sicht wichtig, da eine gezielte Therapie das Wohlbefinden der Patienten und die Wirksamkeit der Behandlung verbessern kann.;-;-;-;https://link.springer.com/article/10.1186/s12955-014-0155-7 450301a317242fea3f43a5ecf6e1dbf5;de;;;6.2.;;;Faktoren im Zusammenhang mit Kaiserschnittgeburten bei gebärfähigen Frauen in Pakistan: Sekundäranalyse von Daten aus dem Demographic and Health Survey, 2012–13 Die steigende Rate von Kaiserschnittgeburten ist für Experten des öffentlichen Gesundheitswesens weltweit zu einer ernsthaften Besorgnis geworden. Für diesen Anstieg werden verschiedene medizinische und nicht-medizinische Faktoren wie die Soziodemografie der Mütter verantwortlich gemacht. Wie in anderen Ländern ist auch in Pakistan die Zahl der Kaiserschnitte gestiegen. Daher ist es notwendig, die Faktoren hinter diesem Anstieg zu untersuchen. Diese Studie zielt darauf ab, die Determinanten von Kaiserschnittgeburten bei gebärfähigen Frauen im Alter von 15 bis 49 Jahren in Pakistan zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s12884-018-1743-z 17bb67a49d9e5f4e6eab3f07e4d7f883;de;;;6.2.;;;Die gallertartige Makroplankton-Gemeinschaft am Hatoma Knoll Hydrothermal Vent Eine Reihe von Tauchgängen rund um den Hatoma Knoll, Okinawa Trough, hat eine vielfältige Gemeinschaft von gallertartigen Tieren des Mittelwassers enthüllt. Viele dieser Tiere sind potenzielle Räuber der Larven hydrothermaler Schlot-assoziierter Organismen. Aufgrund des Mangels an veröffentlichten Informationen über die Mittelwasserfauna des Okinawa-Trogs versucht dieser Artikel, eine Zusammenfassung der makroplanktonischen gallertartigen Faunenelemente zu präsentieren, die in und um die Schlotstelle in allen Tiefen vorhanden sind, in denen Schlotlarven vorkommen können – von der Oberfläche bis zum Benthopelagische Schicht. Drei pelagische Manteltiere, acht Ctenophoren, sieben Siphonophoren, acht Hydrozoen-Medusen und zwei Syphozoen-Medusen wurden erkannt. Taxonomische Behandlungen und Kommentare zu Verbreitung und Ökologie werden bereitgestellt, wenn solche Informationen vorhanden sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-54865-2_51 2939a8c75ece919dfb6172748678374e;de;;;6.2.;;;Die Bedeutung von Business Intelligence im Risikomanagement: eine Fallstudie in der Agrarversicherung Die zunehmenden Datenmengen in den heutigen Geschäftsbereichen gepaart mit der Notwendigkeit des Risikomanagements erhöhen die Bedeutung von Business Intelligence Tools als integrierte Lösung für die Versicherungsbranche. Diese Instrumente wurden meist verwendet, um ein effektives Risikomanagement zu erreichen. Obwohl Methoden des Risikomanagements in der Versicherungswirtschaft schon vor vielen Jahren vorgeschlagen wurden, konzentrierten sich die Forschungsanstrengungen hauptsächlich auf prädiktive Analysen. Ziel dieser Studie war es, die Rolle von Business Intelligence als Lösungsansatz zu untersuchen, um ihr Potenzial im Risikomanagement insbesondere für Entscheidungsträger in der Agrarversicherung aufzuzeigen. Wir nahmen an, dass dies unter unsicheren Bedingungen eine vorzuziehende Entscheidung treffen würde. Beispieldaten aus dem Online-Transaktionsprozesssystem des iranischen Agrarversicherungsfonds wurden im SQL-Server vorverarbeitet. Die multidimensionale Online-Analyseverarbeitungsarchitektur wurde mit dem Business-Intelligence-Tool von Targit analysiert. Unsere Ergebnisse identifizierten finanzielle Risiken, die zu einem auf Business Intelligence basierenden Rahmen der Risikosteuerung im Agrarversicherungsfonds führen.;-;-;-;https://link.springer.com/article/10.1007/s42488-021-00050-6 c80893cd8ee5ffe6a68b9f3577237b67;de;;;6.2.;;;Kontinuierliche Aufzeichnung von Vitalparametern mit einem tragbaren Gerät bei pädiatrischen Patienten, die sich einer Chemotherapie gegen Krebs unterziehen – eine operative Machbarkeitsstudie Pädiatrische Patienten mit Krebs haben ein hohes Risiko für schwere Infektionen. Infektionen können Veränderungen der Vitalfunktionen auslösen, lange bevor klinische Symptome auftreten. Eine kontinuierliche Aufzeichnung kann solche Änderungen früher erkennen als diskrete Messungen. Unser Ziel war es, die Machbarkeit der kontinuierlichen Aufzeichnung von Vitalparametern durch ein tragbares Gerät (WD) bei pädiatrischen Patienten zu untersuchen, die sich einer Chemotherapie gegen Krebs unterziehen.;-;-;-;https://link.springer.com/article/10.1007/s00520-021-06099-8 47a39b71954a1e697453733efe3bcd32;de;;;6.2.;;;Die Sleep Or Mood Novel Adjunctive Therapy (SOMNA)-Studie: ein Studienprotokoll für eine randomisierte kontrollierte Studie zur Bewertung eines über das Internet bereitgestellten kognitiven Verhaltenstherapieprogramms für Schlaflosigkeit in Bezug auf die Ergebnisse einer Standardbehandlung von Depressionen bei Männern Schlaflosigkeit ist ein bedeutender Risikofaktor für das Auftreten von Depressionen, kann zu einer stärker beeinträchtigenden depressiven Erkrankung führen und ist ein häufiges Restsymptom nach Beendigung der Behandlung, das das Rückfallrisiko erhöhen kann. Die internetbasierte kognitive Verhaltenstherapie bei Schlaflosigkeit hat sich bei Männern als wirksam und akzeptiert erwiesen, die weniger wahrscheinlich als Frauen Hilfe in der Standardversorgung suchen. Unser Ziel ist es zu evaluieren, ob eine über das Internet angebotene kognitive Verhaltenstherapie für Schlaflosigkeit als Ergänzung zu einem Standard-Therapieplan für Depressionen zu einer Verbesserung der Stimmung führen kann.;-;-;-;https://link.springer.com/article/10.1186/s12888-015-0397-x 2e746cfbb1e33424ae444ce8d033366e;de;;;6.2.;;;Normothermie nach Dekompressionsoperation bei raumforderndem Mittelhirnarterieninfarkt: ein protokollbasierter Ansatz Eine moderate Hypothermie nach Dekompressionsoperationen kann für Schlaganfallpatienten nicht von Vorteil sein. Die Normothermie kann sich jedoch als wirksame Methode zur Verbesserung der neurologischen Ergebnisse erweisen. Ziel der Studie war es, die Anwendung eines vordefinierten Normothermie-Protokolls bei Schlaganfallpatienten nach Dekompressionsoperationen und ihre Auswirkungen auf die Temperaturbelastung zu bewerten und das funktionelle Ergebnis der Patienten 12 Monate nach der Behandlung zu beschreiben.;-;-;-;https://link.springer.com/article/10.1186/s12883-017-0988-x eded65a9f933888364e405bdc6e7fd50;de;;;6.2.;;;Ein Kernergebnissatz für lokalisierte Wirksamkeitsstudien zu Prostatakrebs: Protokoll für eine systematische Überprüfung der Literatur und Einbeziehung von Interessengruppen durch Interviews und eine Delphi-Umfrage Prostatakrebs ist weltweit ein wachsendes Gesundheitsproblem. Die Behandlung des lokalisierten Prostatakarzinoms ist umstritten. Es ist unklar, welche von mehreren chirurgischen, strahlentherapeutischen, ablativen und Überwachungsbehandlungen die wirksamste ist. Alle haben Auswirkungen auf Kosten, Prozesse und Erholung sowie Morbidität, die die Behandlungsentscheidungskomplexität für Patienten und medizinisches Fachpersonal erhöhen. Die Evidenz aus randomisierten kontrollierten Studien (RCTs) ist aufgrund der Unsicherheit darüber, was wichtige Endpunkte sind, nicht optimal. Ein weiteres Problem, das die Evidenzsynthese behindert, ist die Heterogenität der Ergebnisdefinition, Messung und Berichterstattung. Dieses Projekt zielt darauf ab, zu bestimmen, welche Ergebnisse für Patienten und medizinisches Fachpersonal am wichtigsten sind, und diese Ergebnisse zu verwenden, um ein standardisiertes Kernergebnissatz für vergleichende Wirksamkeitsstudien von Behandlungen von lokalisiertem Prostatakrebs zu empfehlen, um die Entscheidungsfindung zu optimieren.;-;-;-;https://link.springer.com/article/10.1186/s13063-015-0598-0 2ee5d59efe1229756c362e5808b5273d;de;;;6.2.;;;Die PREEMPT-Studie – Evaluierung von Smartphone-gestützten n-of-1-Studien bei Patienten mit chronischen Schmerzen: Studienprotokoll für eine randomisierte kontrollierte Studie Chronische Schmerzen sind weit verbreitet, kostspielig und klinisch ärgerlich. Kliniker verwenden in der Regel einen Trial-and-Error-Ansatz bei der Behandlungsauswahl. Wiederholte Crossover-Studien bei einem einzelnen Patienten (n-von-1-Studien) können eine größere therapeutische Präzision bieten. N-von-1-Studien sind der direkteste Weg, um individuelle Behandlungseffekte abzuschätzen, und sind nützlich, um die Wirksamkeit und Toxizität verschiedener Analgetika zu vergleichen. Ziel der PREEMPT-Studie ist es, die mobile Gesundheits-Smartphone-App „Trialist“ zu testen, die entwickelt wurde, um die Durchführung von n-of-1-Studien zu erleichtern und Patienten und Klinikern Werkzeuge zur Individualisierung der Behandlung chronischer Schmerzen an die Hand zu geben.;-;-;-;https://link.springer.com/article/10.1186/s13063-015-0590-8 f691cdcf1a34254d34cbd6378fd3479e;de;;;6.2.;;;Umgang mit kompromittierten Komponenten in einer IaaS-Cloud-Installation Dieser Artikel stellt einen Ansatz zum Umgang mit kompromittierten Komponenten in der OpenStack Infrastructure-as-a-Service-Cloud-Umgebung vor. Wir stellen zwei spezifische Anwendungsfälle vor, einen kompromittierten Serviceprozess und die Einführung einer gefälschten Komponente, und wir beschreiben verschiedene Ansätze zur Eindämmung, Beseitigung und Wiederherstellung nach einem Vorfall. Unsere Experimente zeigen, dass traditionelle Verfahren zur Behandlung von Vorfällen auf Cloud Computing anwendbar sind, jedoch einige Modifikationen benötigen, um optimal zu funktionieren.;-;-;-;https://link.springer.com/article/10.1186/2192-113X-1-16 8cc786dab9411cab83d52ab456057129;de;;;6.2.;;;Eine wirtschaftliche Perspektive der personalisierten Medizin Das Konzept der personalisierten Medizin verspricht nicht nur, das Leben der Patienten zu verbessern und die Qualität der klinischen Praxis und der gezielten Behandlungspfade zu erhöhen, sondern auch die Gesamtkosten der Gesundheitsversorgung durch Früherkennung, Prävention, genaue Risikobewertung und Effizienz in der Versorgung zu senken. Die derzeitigen Ineffizienzen werden weithin als erheblich genug angesehen, um erhebliche Auswirkungen auf die Volkswirtschaften großer Nationen wie den USA und China und damit auf die Weltwirtschaft zu haben. Ein kürzlich veröffentlichter OECD-Bericht schätzt die Gesundheitsausgaben für einige der entwickelten westlichen und östlichen Länder auf 10 bis 18 % und wächst (mit den USA am höchsten). Die personalisierte Medizin zielt darauf ab, modernste genomische Technologien, umfangreiche medizinische Daten, Gewebe- und Blutbanken und klinisches Wissen zu nutzen, die es Ärzten und Kostenträgern ermöglichen, Behandlungen individuell anzupassen und dadurch die Kosten ineffektiver Therapien, die durch aktuelles klinisches Trial-and-Error-Paradigma. Von zentraler Bedeutung für das Feld sind Medikamente, die entwickelt wurden, um auf einen bestimmten molekularen Signalweg abzuzielen, der fehlgeschlagen ist und zu einer Erkrankung führt, und die diagnostischen Tests, die es Klinikern ermöglichen, Responder von Non-Respondern zu unterscheiden. Der wirklich personalisierte Ansatz in der Medizin steht jedoch vor zwei großen Problemen: Komplexe Biologie und komplexe Ökonomie, die Krankheitswege werden oft nicht gut verstanden und die meisten zielgerichteten Medikamente sind sehr teuer. Als Ergebnis aller aktuellen Bemühungen, die Konzepte der personalisierten Gesundheitsversorgung in die Klinik zu übertragen, wird die personalisierte Medizin partizipativ und impliziert die Entscheidungen des Patienten über seine eigene Gesundheit. Ein solches neues Paradigma erfordert leistungsstarke Werkzeuge, um mit dem Ansatz, der als „P4-Medizin“ bekannt ist, erhebliche Mengen an personenbezogenen Daten zu verarbeiten, d;-;-;-;https://link.springer.com/article/10.1186/1877-6566-7-1 b35499e6737be43f3af02c0277f7c9f5;de;;;6.2.;;;Sicherheit und Wirksamkeit des Bupivacain-HCl-Kollagen-Matrix-Implantats (INL-001) bei der offenen Leistenhernienreparatur: Ergebnisse aus zwei randomisierten kontrollierten Studien Die Infiltration mit Bupivacain an der Operationsstelle führt zu einer kurzlebigen Analgesie. Die Studien MATRIX-1 und MATRIX-2 untersuchten die Wirksamkeit und Sicherheit des bioresorbierbaren Bupivacain-HCl-Kollagenmatriximplantats (INL-001) bei postoperativen Schmerzen nach offener Leistenhernienreparatur. INL-001 wurde entwickelt, um eine frühe und verlängerte Abgabe von Bupivacain zu ermöglichen, und bietet eine verlängerte Dauer der perioperativen Analgesie.;-;-;-;https://link.springer.com/article/10.1007/s12325-018-0836-4 cb13b66a102c8610634c2167c4937292;de;;;6.2.;;;Die Auswirkungen digitaler Technologien auf die Gesundheit von Bevölkerungsgruppen, die von humanitären Krisen betroffen sind: Jüngste Innovationen und aktuelle Lücken Digitale Technologien werden zunehmend bei humanitären Maßnahmen eingesetzt und versprechen, die Gesundheit und das soziale Wohlergehen der von akuten und lang anhaltenden Krisen betroffenen Bevölkerungsgruppen zu verbessern. Wir haben uns zum Ziel gesetzt, (1) die aktuelle Landschaft der digitalen Technologien, die von humanitären Akteuren und betroffenen Bevölkerungsgruppen verwendet werden, zu überprüfen, (2) ihre Auswirkungen auf die Gesundheit und das Wohlergehen der betroffenen Bevölkerungsgruppen zu untersuchen und (3) die Chancen und Herausforderungen für Nutzer dieser Technologien. Durch eine systematische Suche in akademischen Datenbanken und Berichten haben wir 50 digitale Technologien identifiziert, die von humanitären Akteuren und/oder von Krisen betroffenen Bevölkerungsgruppen eingesetzt werden. Wir organisierten sie nach der Phase des humanitären Zyklus, in der sie eingesetzt wurden, und den gesundheitlichen Ergebnissen oder Gesundheitsdeterminanten, die sie beeinflussten. Es wurde festgestellt, dass digitale Technologien die Kommunikation, Koordination sowie Sammlung und Analyse von Daten erleichtern und rechtzeitige Reaktionen in humanitären Kontexten ermöglichen. Eine fehlende Bewertung dieser Technologien, ein paternalistischer Ansatz bei ihrer Entwicklung sowie Fragen des Datenschutzes und der Gerechtigkeit stellten große Herausforderungen dar. Wir betonen die Notwendigkeit, einen Raum für den Dialog zwischen Technologiedesignern und von humanitären Krisen betroffenen Bevölkerungsgruppen zu schaffen.;-;-;-;https://link.springer.com/article/10.1057/s41271-016-0040-1 0e6eb085de5810422631ae3a1c14802c;de;;;6.2.;;;Technologien für die Zukunft des Lernens: State of the Art Die Studierenden müssen Kompetenzen erwerben, die es ihnen ermöglichen, selbstständig zu lernen und für eine unsichere und sich verändernde Welt gerüstet zu sein. Technologie kann nützlich sein, um Lernenden zu helfen, mit den aktuellen und zukünftigen Bedürfnissen der Gesellschaft umzugehen. In diesem Überblick über den Stand der Technik berichten wir über Technologien, die die Ingenieurausbildung verändern, insbesondere;-;-;-;https://link.springer.com/article/10.1007/s12008-019-00640-0 e7c73c414fd6a977f15f03913420d886;de;;;6.2.;;;Kombination von Curcumin (C3-Komplex, Sabinsa) mit der Standardtherapie FOLFOX-Chemotherapie bei Patienten mit inoperablem Dickdarmkrebs (CUFOX): Studienprotokoll für eine randomisierte Kontrollstudie Der Bedarf an Zusatzstoffen mit geringer Toxizität zur Standardbehandlung der Chemotherapie bei inoperablem Kolorektalkarzinom mit dem Potenzial, die Ergebnisse zu verbessern und die Belastung durch Nebenwirkungen zu verringern, ist allgemein anerkannt. In zahlreichen präklinischen Studien hat sich die Zugabe des von der Ernährung abgeleiteten Wirkstoffs mit geringer Toxizität, Curcumin (der Wirkstoff von Kurkuma), zu einer auf Oxaliplatin basierenden Standardtherapie als vielversprechend erwiesen.;-;-;-;https://link.springer.com/article/10.1186/s13063-015-0641-1 80242a06590f8bc8989847975acf1066;de;;;6.2.;;;Preconditioning Shields Against Vascular Events in Surgery (SAVES), eine multizentrische Machbarkeitsstudie zur Vorkonditionierung gegen unerwünschte Ereignisse bei größeren Gefäßoperationen: Studienprotokoll für eine randomisierte Kontrollstudie Patienten, die sich gefäßchirurgischen Eingriffen unterziehen, stellen eine „Hochrisikogruppe“ dar. Tödliche und behindernde perioperative Komplikationen sind häufig. Komplikationen entstehen über mehrere ätiologische Wege. Diese mechanistische Redundanz schränkt Techniken ein, um Komplikationen zu reduzieren, die auf einzelne Mechanismen abzielen, beispielsweise Thrombozytenaggregationshemmer. Remote ischämische Präkonditionierung (RIPC) induziert einen protektiven Phänotyp in Risikogewebe, der unabhängig vom Auslöser Schutz vor Ischämie-Reperfusionsschäden bietet. RIPC wird durch wiederholte Ischämie-Reperfusionsphasen der oberen Extremitäten ausgelöst, die unter Verwendung einer Blutdruckmanschette erzeugt werden. RIPC bietet einen gewissen Schutz vor Herz- und Nierenschäden bei größeren Gefäßoperationen in Machbarkeitsstudien. Ähnliche Studien deuten auf einen Nutzen bei Herzoperationen hin. Vor einer groß angelegten Studie zur Bewertung der klinischen Wirksamkeit bleiben noch einige Unsicherheiten. Wir schlagen eine Machbarkeitsstudie vor, um die Fähigkeit von arminduziertem RIPC, Schutz bei größeren Gefäßoperationen zu verleihen, vollständig zu bewerten, die Inzidenz eines vorgeschlagenen zusammengesetzten primären Wirksamkeitsendpunkts zu bewerten und die Akzeptanz der Intervention für Patienten und Personal zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s13063-015-0678-1 a237f544eab8a6cdf58ac36184789cd2;de;;;6.2.;;;HIV-Testpräferenzen in Tansania: eine qualitative Untersuchung der Bedeutung von Vertraulichkeit, Zugänglichkeit und Servicequalität HIV-Beratung und -Tests (HCT), eine wirksame Präventionsstrategie und ein Einstiegspunkt für die Versorgung, wird in Tansania nach wie vor zu wenig genutzt. Die begrenzte Aufnahme von HCT trotz der weit verbreiteten Verfügbarkeit verschiedener Testoptionen deutet darauf hin, dass die bestehenden Optionen möglicherweise nicht gut mit den Präferenzen der Bevölkerung für Tests übereinstimmen.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-14-838 c35118b94823c1906aeeedc72fd1ac4c;de;;;6.2.;;;Netzwerkerstellung: Übersicht Obwohl Netzwerke eine sehr natürliche und unkomplizierte Möglichkeit darstellen, heterogene Daten zu organisieren, wie in den einleitenden Kapiteln dargelegt, liegen nur wenige Datenquellen in dieser Form vor. Vielmehr finden wir die Daten, die wir fusionieren, verbinden, analysieren und so für kreative Entdeckungen nutzen wollen, gespeichert in Flatfiles, (relationalen) Datenbanken, Textdokumentsammlungen und dergleichen. Als Konsequenz benötigen wir in einem ersten Schritt Methoden, die eine Netzwerkdarstellung durch die Analyse von Tabellen- und Textdaten konstruieren, um Entitäten zu identifizieren, die als Knoten dienen können, und um relevante Beziehungen zu extrahieren, die durch Kanten dargestellt werden sollen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31830-6_4 f0edcbc80b0f97fda8a3f287adc548e9;de;;;6.2.;;;Eine neue Methode zur Verbesserung des Azimuts in bergigem Gelände durch Skyline-Matching Augmented Reality (AR)-Anwendungen haben ein ernsthaftes Problem mit der Genauigkeit des von Mobilgeräten bereitgestellten Azimutwinkels. Die Fusion von digitalem Magnetkompass (DMC), Beschleunigungsmesser und Gyroskop ermöglicht die Translation und Rotation des Beobachters im 3D-Raum. Allerdings ist die Präzision nicht immer angemessen, da DMC in der Nähe von Metallgegenständen oder elektrischen Strömen störanfällig ist. Die Silhouette der Bergkämme trennt den Himmel vom Gelände und bildet die Skyline oder Horizontlinie in einer bergigen Landschaft. Dieses markante Merkmal kann zur Orientierung verwendet werden. Mit der Kamera des Gerätes und einem digitalen Höhenmodell (DEM) konnte der korrekte Azimutwinkel bestimmt werden. Diese Studie schlägt eine effektive Methode zur Anpassung des Azimuts vor, indem die Skyline aus einem Bild identifiziert und mit der Skyline des DEM abgeglichen wird. Dieser Ansatz erfordert keine manuelle Interaktion. Der Algorithmus wurde auch in einer realen Umgebung validiert.;-;-;-;https://link.springer.com/article/10.1007/s41064-020-00093-1 ec1812ea18d1c2b4fa1b4baec45786b2;de;;;6.2.;;;MEMS-basiertes Lidar für autonomes Fahren Lidar, die Abkürzung für Light Detection and Ranging, hat in der Automobilindustrie als Schlüsselkomponente für hochrangige automatisierte Fahrsysteme aufgrund ihrer hohen Auflösung und hochpräzisen 3D-Abbildung der Umgebung unter verschiedenen Wetterbedingungen viel Aufmerksamkeit erhalten. Allerdings entsprechen Preis und Auflösung von Lidar-Sensoren noch nicht den Zielwerten für den Automobilmarkt, um als Basissensor für sicheres autonomes Fahren akzeptiert zu werden. Jüngste Arbeiten haben sich auf MEMS-Scanspiegel als potenzielle Lösung für erschwingliche Lidar-Systeme mit großer Reichweite konzentriert. In diesem Beitrag werden aktuelle Entwicklungen und Forschungen zu MEMS-basierten Lidars diskutiert. Das LiDcAR-Projekt wird eingeführt, um präzise und zuverlässige MEMS-basierte Lidars bereitzustellen, um sicheres und zuverlässiges autonomes Fahren zu ermöglichen. Als Teil der Entwicklung in diesem Projekt wird ein Prüfstand zur Charakterisierung und Leistungsbewertung von MEMS-Spiegeln eingeführt. Ein kürzlich entwickeltes MEMS-basiertes Lidar wird durch verschiedene Teststufen einschließlich Feldtests anhand realistischer Szenarien evaluiert, um sicheres und zuverlässiges autonomes Fahren in der zukünftigen Automobilindustrie zu ermöglichen.;-;-;-;https://link.springer.com/article/10.1007/s00502-018-0635-2 7d649109e91b61c88c94c299598cf46a;de;;;6.2.;;;Alkohol- und sexuelles Risikoverhalten von weiblichen und männlichen Wanderarbeitnehmern in Distrikten mit hoher Einwanderung aus vier Staaten mit hoher HIV-Prävalenz in Indien Dieses Papier untersucht den Zusammenhang zwischen Alkoholkonsum und sexuellem Risiko bei zwei kritischen Migrantenpopulationen, die in denselben geografischen Gebieten leben – männliche Migranten und Sexarbeiterinnen (FSWs). Die Daten stammen aus zwei unabhängigen Umfragen unter Migranten-FSWs und männlichen Arbeitern in 14 Distrikten von vier indischen Bundesstaaten mit hoher HIV-Prävalenz. In der Arbeit haben wir die unabhängigen Auswirkungen von Mobilitätsgrad und Alkoholkonsum vor dem Sex auf das HIV-Risikoverhalten untersucht. Fast zwei Drittel der FSW und ein ähnlicher Anteil der männlichen Wanderarbeiter sowie neun von zehn Klienten der FSW konsumieren Alkohol. Mehr als die Hälfte der FSWs und deren Klienten konsumierten vor dem Sex Alkohol. Die Praxis des Alkoholkonsums vor dem Sex sowohl bei FSWs als auch bei ihren Kunden hat einen signifikanten Zusammenhang mit der inkonsistenten Verwendung von Kondomen sowohl beim bezahlten als auch beim unbezahlten Sex, und diese Auswirkungen sind unabhängig vom Grad der Mobilität. Die Ergebnisse legen nahe, dass ein tiefgreifendes Verständnis der Rolle von Alkohol bei der Erhöhung des HIV-Risikos insbesondere bei Migrantengruppen erforderlich ist, die häufig von einem Ort zum anderen ziehen.;-;-;-;https://link.springer.com/article/10.1007/s10461-010-9731-y 64437ddee636a912d67f8cb945d6fe2c;de;;;6.2.;;;Durchführung einer Mehrkomponentenintervention zur Verhinderung von Bewegungseinschränkungen bei Pflegeheimbewohnern (IMPRINT): Studienprotokoll für eine clusterrandomisierte kontrollierte Studie Körperliche Fixierungen wie Bettgitter und Gurte werden in deutschen Pflegeheimen trotz eindeutiger Hinweise auf mangelnde Wirksamkeit und Sicherheit regelmäßig angewendet. In einer clusterrandomisierten kontrollierten Studie wurde die Wirksamkeit und Sicherheit eines leitlinienbasierten Mehrkomponenten-Interventionsprogramms nachgewiesen. Ziel der vorliegenden Studie ist es, die Wirksamkeit zweier verschiedener Versionen der ursprünglichen Intervention bei Pflegeheimbewohnern in vier verschiedenen Regionen in ganz Deutschland zu evaluieren.;-;-;-;https://link.springer.com/article/10.1186/s12877-015-0086-0 a74fef430ddd0f28be49e927c29159d2;de;;;6.2.;;;Gebrechlich-indizierte Klassifikation der physio-psychosozialen Gesundheit älterer Erwachsener in Bangladesch und der damit verbundenen Risikofaktoren – eine Querschnittstudie Gebrechlichkeit wird mit gesundem Altern in Verbindung gebracht und wurde als Mittel zur Messung der physio-psychosozialen Gesundheit älterer Erwachsener identifiziert. Wir wissen um die Alterungstrends und häufige Krankheiten älterer Erwachsener, die in Südasien leben, aber die bisherige Literatur behandelt ihren Gesundheitszustand aufgrund von Gebrechlichkeit nicht umfassend, insbesondere in Bangladesch. Diese Studie zielt darauf ab, die Prävalenz von Gebrechlichkeit bei älteren Erwachsenen in Bangladesch zu verstehen, ihren Gesundheitszustand zu klassifizieren und die damit verbundenen Risikofaktoren zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s12877-020-01970-5 2bb3ad36597c1c3e780a411a2c9d96dd;de;;;6.2.;;;Greg, ML – Maschinelles Lernen für das Gesundheitswesen in großem Maßstab Dieses Papier stellt die Greg, ML-Plattform, eine Maschine für maschinelles Lernen und ein Toolset vor, die entwickelt wurden, um automatische Diagnosevorschläge basierend auf Patientenprofilen zu generieren. Greg, ML unterscheidet sich von vielen anderen Erfahrungen mit maschinellem Lernen für das Gesundheitswesen dadurch, dass es für die Behandlung einer großen Anzahl verschiedener Diagnosen in der Größenordnung von Hunderten entwickelt wurde. Wir diskutieren die Architektur, die das Herzstück von Greg, ML, darstellt, um die komplexen Herausforderungen dieses ehrgeizigen Ziels zu bewältigen, und bestätigen ihre Wirksamkeit mit experimentellen Ergebnissen auf der Grundlage des von uns entwickelten Arbeitsprototyps. Schließlich diskutieren wir Herausforderungen und Chancen im Zusammenhang mit der Verwendung dieser Art von Instrumenten in der Medizin und einige wichtige Erkenntnisse aus der Entwicklung des Instruments. In diesem Zusammenhang betonen wir, dass Greg, ML in erster Linie als Unterstützung für fachkundige Ärzte bei ihren diagnostischen Entscheidungen zu verstehen ist und den Menschen in seiner Beurteilung kaum ersetzen kann.;-;-;-;https://link.springer.com/article/10.1007/s12553-020-00468-9 d22184cef8963a7067da037190b4a02d;de;;;6.2.;;;Ein Überblick über Empfehlungssysteme im Internet der Dinge Das Internet der Dinge (IoT) ist ein aufkommendes Paradigma, das eine vernetzte Infrastruktur vorsieht, die es ermöglicht, verschiedene Arten von Geräten miteinander zu verbinden. Es erstellt verschiedene Arten von Artefakten (z. B. Dienste und Anwendungen) in verschiedenen Anwendungsbereichen wie Gesundheitsüberwachung, Sportüberwachung, Tierüberwachung, erweiterte Einzelhandelsdienste und Smart Home. Empfehlungstechnologien können helfen, relevante Artefakte leichter zu identifizieren und werden damit zu einer der Schlüsseltechnologien zukünftiger IoT-Lösungen. In diesem Artikel geben wir einen Überblick über bestehende Anwendungen von Empfehlungstechnologien im IoT-Kontext und stellen neue Empfehlungstechniken auf Basis realer IoT-Szenarien vor.;-;-;-;https://link.springer.com/article/10.1007/s10844-018-0530-7 f29df22cfc38490e0b009433dad88acd;de;;;6.2.;;;Zugänglichkeit, Benutzerfreundlichkeit und Sicherheitsbewertung von Websites der ungarischen Regierung Öffentliche Stellen setzen zunehmend auf das Internet. Auf diesem Kanal werden unentbehrliche Informationen an die Öffentlichkeit übermittelt und ein breites Angebot an Diensten steht bereits zur Verfügung. Daher sind die Benutzerfreundlichkeit, Zugänglichkeit und Sicherheit dieser Websites sehr wichtig. Barrierefreiheit ist für Menschen mit Behinderungen besonders wichtig. Die Barrierefreiheit öffentlich-rechtlicher Websites wird durch eine Reihe von Gesetzen geregelt, unter anderem durch die 2016 vom Europäischen Parlament verabschiedete Richtlinie „Über die Barrierefreiheit von Websites und mobilen Anwendungen öffentlicher Stellen“. alle Websites und mobilen Anwendungen des öffentlichen Sektors bis zum 23. September 2021 zugänglich zu machen. In der Praxis bedeutet dies, dass Websites die Empfehlungen der Stufe AA in WCAG 2.1 erfüllen müssen. In unserer Studie wird eine Website-Bewertungsmethode durch den Vergleich verschiedener Analysetools entwickelt. Mit dieser Methode haben wir analysiert, wie ungarische Websites öffentlicher Stellen die Anforderungen der Richtlinie erfüllen. Wir haben auch untersucht, wie gut sie den Usability- und Sicherheitsrichtlinien entsprechen. Die Ergebnisse zeigten, dass keine der 25 Websites der untersuchten ungarischen öffentlichen Stellen die Empfehlungen der Web Content Accessibility Guidelines (WCAG) vollständig erfüllen konnte und dass die Hälfte der Websites nur die geringste Übereinstimmung bei Usability-Tests aufwies. Aus Sicherheitssicht verwendet fast die Hälfte der Websites veraltete Serverversionen und Programmiersprachen, was sehr kritisch ist. Wir haben mehrere Vorschläge zur Lösung der Hauptprobleme vorgeschlagen, damit Website-Entwickler und -Administratoren die Zugänglichkeit, Benutzerfreundlichkeit und Sicherheitsaspekte dieser Websites verbessern können.;-;-;-;https://link.springer.com/article/10.1007/s10209-020-00716-9 27f965b1d6407ec03f0871bd5f0e05ab;de;;;6.2.;;;Respiratorisches epitheliales adenomatoides Hamartom der vorderen Nasenscheidewand eine seltene Lokalisation eines ungewöhnlichen Tumors bei einem Kind: ein Fallbericht Hamartome sind nicht-neoplastische Läsionen, die aus einer Mischung von Geweben bestehen, die in der Region heimisch sind. Respiratorische epitheliale adenomatoide Hamartome sind durch eine Drüsenproliferation gekennzeichnet, die von einem Flimmerepithel der Atemwege ausgekleidet ist. Ihre Lokalisation in der Nasenhöhle ist selten und die häufigsten bisher beschriebenen Fälle waren mit der hinteren Nasenscheidewand assoziiert.;-;-;-;https://link.springer.com/article/10.4076/1757-1626-2-8151 c037abd4a3e7e83bd6dbf32507a76b21;de;;;6.2.;;;Wirksamkeit und Kosteneffektivität von zwei Online-Interventionen für depressive Kinder und Jugendliche (E.motion-Studie): Studienprotokoll für eine randomisierte kontrollierte Studie innerhalb des ProHEAD-Konsortiums Depressionen sind ein ernstes psychisches Problem und treten häufig bei Kindern und Jugendlichen auf. Online-Interventionen sind vielversprechend, um die weit verbreitete Unterbehandlung von Depressionen zu überwinden und das Hilfesuchverhalten bei Kindern und Jugendlichen zu verbessern.;-;-;-;https://link.springer.com/article/10.1186/s13063-018-3156-8 4b5449100c03a83fa2fe1a62f49db241;de;;;6.2.;;;(NZ)CH...O Kontakte unterstützen die Kristallisation einer ParB-ähnlichen Nuklease Der größte Engpass bei der Bestimmung von 3D-Strukturen von Proteinen mit Röntgenstrahlen ist die Herstellung von Kristallen mit Beugungsqualität. Proteine ​​werden häufig chemisch modifiziert, um die Kristallisationschancen zu verbessern;-;-;-;https://link.springer.com/article/10.1186/1472-6807-7-46 6cc38a74c30cc7af1edd42c759b48375;de;;;6.2.;;;Middleware für den effizienten und vertraulichen Verbund von Zugriffskontrollrichtlinien Software-as-a-Service (SaaS) ist eine Art von Cloud Computing, bei der ein Mieter den Zugriff auf eine gemeinsam genutzte, normalerweise webbasierte Anwendung mietet, die von einem Anbieter gehostet wird. Die Zugriffssteuerung für SaaS sollte es dem Mandanten ermöglichen, den Zugriff auf Daten, die sich auf der Anbieterseite befinden, basierend auf mandantenspezifischen Zugriffssteuerungsrichtlinien zu steuern. Darüber hinaus muss die Zugriffskontrolle für SaaS mit der zunehmenden Akzeptanz von SaaS durch große Unternehmen in lokale Anwendungen integriert werden, was von Natur aus zu einem föderierten Setup führt. Nach dem Stand der Technik bewertet der Anbieter jedoch alle Policen, einschließlich der Mieterpolicen, vollständig. Dies (i) zwingt den Mieter, sensible Zugangskontrolldaten offenzulegen, und (ii) schränkt die Leistung der Richtlinienbewertung ein, indem er diese richtlinienspezifischen Daten abrufen muss. Um diesen Herausforderungen zu begegnen, schlagen wir vor, die Mandantenrichtlinien zu zerlegen und die resultierenden Teile in der Nähe der benötigten Daten so weit wie möglich zu bewerten, während sensible Mandantendaten lokal in der Mandantenumgebung aufbewahrt werden. Wir nennen dieses Konzept;-;-;-;https://link.springer.com/article/10.1186/1869-0238-5-1 b3a3503c9c1cc7a3a8ddffcae14fa979;de;;;6.2.;;;Point-of-Care-Tests auf Harnwegsinfektionen in der Primärversorgung (POETIC): Protokoll für eine randomisierte kontrollierte Studie zur klinischen und Kosteneffizienz von FLEXICULT™ informiertes Management unkomplizierter Harnwegsinfektionen in der Primärversorgung Harnwegsinfektionen (HWI) sind die häufigste bakterielle Infektion bei Frauen und machen etwa 15 % der in der Primärversorgung verschriebenen Antibiotika aus. Einigen Frauen mit einer HWI werden jedoch keine Antibiotika oder die falschen Antibiotika verschrieben, während vielen Frauen, die keine mikrobiologisch bestätigte HWI haben, Antibiotika verschrieben werden. Eine unsachgemäße Antibiotika-Verschreibung erhöht unnötig das Risiko von Nebenwirkungen und der Entwicklung von Antibiotikaresistenzen und verschwendet Ressourcen.;-;-;-;https://link.springer.com/article/10.1186/s12875-014-0187-4 21bdb9e893f0c53718149bc303a66bc2;de;;;6.2.;;;Wirksamkeit und Sicherheit von Shenyankangfu-Tabletten bei primärer Glomerulonephritis: Studienprotokoll für eine randomisierte kontrollierte Studie Chronische Nierenerkrankungen sind eine häufige Erkrankung. Die meisten chronischen Nierenerkrankungen gehen auf eine primäre Glomerulonephritis zurück. Proteinurie ist ein unabhängiger Risikofaktor für das Fortschreiten einer chronischen Nierenerkrankung. Allgemeiner Konsens ist, dass die zur Verringerung der Proteinurie verabreichte Therapie Steroide und/oder Immunsuppressiva, Angiotensin-Converting-Enzym-Inhibitoren und Angiotensin-II-Rezeptorblocker umfassen sollte. Die Nebenwirkungen und Nebenwirkungen dieser Wirkstoffe verringern jedoch den Nutzen für die Patienten. Außerdem sind die Kosten für diese Medikamente relativ hoch. Daher ist die Identifizierung kostengünstiger und wirksamer Medikamente zur Verringerung der Proteinurie dringend erforderlich. Shenyankangfu-Tabletten sind seit vielen Jahren ein weit verbreitetes chinesisches Patentmedikament zur Verringerung der Proteinurie. Es fehlen jedoch forschungsbasierte Daten zur klinischen Anwendung. Daher haben wir die vorliegende randomisierte kontrollierte klinische Studie entworfen, um die Wirksamkeit und Sicherheit von Shenyankangfu-Tabletten mit Losartan-Kalium zur Kontrolle der Proteinurie bei Patienten mit primärer Glomerulonephritis zu vergleichen.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-15-479 128b496c5cc09e2e27adeac060984696;de;;;6.2.;;;Berichterstattung und Umgang mit fehlenden Daten in der prädiktiven Forschung für den häufig nicht diagnostizierten Typ-2-Diabetes mellitus: eine systematische Übersicht Fehlende Werte sind in der Gesundheitsforschung weit verbreitet und das Auslassen von Teilnehmern mit fehlenden Daten führt oft zu einem Verlust an statistischer Aussagekraft, verzerrten Schätzungen und folglich zu ungenauen Schlussfolgerungen. Wir haben die Herausforderungen, die fehlende Daten in der medizinischen Forschung mit sich bringen, und Lösungsansätze kritisch hinterfragt. Um dies effizienter zu erreichen, wurden diese Probleme durch eine systematische Übersicht über die Meldung fehlender Daten und Imputationsmethoden (Vorhersage fehlender Werte durch Beziehungen innerhalb und zwischen Variablen) analysiert und illustriert, die in Risikovorhersagestudien von nicht diagnostiziertem Diabetes durchgeführt wurden. Prävalente Diabetes-Risikomodelle wurden auf der Grundlage einer kürzlich durchgeführten umfassenden systematischen Überprüfung ausgewählt, die durch eine aktualisierte Suche in englischsprachigen Studien ergänzt wurde, die zwischen 1997 und 2014 veröffentlicht wurden. Die Berichterstattung über fehlende Daten war in Studien zur Prävalenz von Diabetes nur begrenzt möglich. Von den 48 identifizierten Artikeln waren 62,5% (;-;-;-;https://link.springer.com/article/10.1186/s13167-015-0028-0 67f674727b89139f1551e86621adcdad;de;;;6.2.;;;Erste Ergebnisse der „Lean European Open Survey on SARS-CoV-2-Infected Patients (LEOSS)“ Das Wissen über den klinischen Zustand von Patienten beim Nachweis des schweren akuten respiratorischen Syndroms Coronavirus 2 (SARS-CoV-2) ist spärlich. Die Daten der internationalen, multizentrischen Lean European Open Survey on SARS-CoV-2-Infected Patients (LEOSS)-Kohortenstudie können das Verständnis von COVID-19 verbessern.;-;-;-;https://link.springer.com/article/10.1007/s15010-020-01499-0 89cba5bb2d13284295e796a455560168;de;;;6.2.;;;Design und Wirkungsbewertung eines digitalen reproduktiven Gesundheitsprogramms in Ruanda unter Verwendung eines randomisierten Clusterdesigns: Studienprotokoll Jugendliche in Ruanda haben nur begrenzten Zugang zu hochwertigen Informationen zur Familienplanung und reproduktiven Gesundheit (FP/RH) und zur Versorgung, um ungeplante Schwangerschaften und HIV/STIs zu verhindern. Neben den unmittelbaren Auswirkungen auf Gesundheit und Wohlbefinden ist die Teenagerschwangerschaft eine wesentliche Ursache für Schulabbrüche, die das zukünftige Potenzial und die Beschäftigungschancen von Mädchen begrenzt. Diese Studie stellt ein digitales Bildungsprogramm direkt für den Verbraucher vor, das Storytelling verwendet, um Jugendlichen altersgerechte FP/RH-Informationen und Schulungen zur wirtschaftlichen Stärkung bereitzustellen. Es erleichtert auch den Zugang zu hochwertigen, jugendfreundlichen FP/RH-Pflegeprodukten und -Produkten. Wir evaluieren zwei verschiedene schulbasierte Modelle ihrer Implementierung, um zu verstehen, wie die Akzeptanz von Verhütung und HIV-Tests bei Jugendlichen optimiert werden kann.;-;-;-;https://link.springer.com/article/10.1186/s12889-020-09746-7 a5cc0d133f355750d77e57c68733a77f;de;;;6.2.;;;Die Blockchain im IoT -das . Dieses Kapitel behandelt Blockchain im IoT. Es stellt kurz die Geburt der Blockchain-Technologie und ihre Verwendung in Bitcoin vor. Darüber hinaus beschreibt es Bitcoin als eine Anwendung von Blockchain und unterscheidet Blockchain als eine Schlüsseltechnologie, die verschiedene Anwendungsfälle außerhalb von Bitcoin hat. Als nächstes taucht es in die Funktionsweise von Blockchains ein und skizziert die Funktionen der Technologie. Zu diesen Funktionen gehören Konsensalgorithmen, Kryptographie, Dezentralisierung, Transparenz, Vertrauen und intelligente Verträge. Das Kapitel stellt dann vor, wie sich Blockchain auf bemerkenswerte Anwendungsfälle im IoT auswirken kann, einschließlich Gesundheitswesen, Energiemanagement und Lieferkettenmanagement. Es überprüft die Vor- und Nachteile der Blockchain-Technologie und beleuchtet Sicherheitsüberlegungen innerhalb von Blockchain und IoT.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99516-8_10 80e1ee7710626b1db6c9b207e54fe506;de;;;6.2.;;;Soziokulturelle Determinanten einer rechtzeitigen und verzögerten Behandlung des Buruli-Ulkus: Auswirkungen auf die Krankheitskontrolle disease Programme des öffentlichen Gesundheitswesens empfehlen eine rechtzeitige medizinische Behandlung der Buruli-Infektion (BU), um zu verhindern, dass sich Vorerkrankungen zu Geschwüren entwickeln, um Operationen, Behinderungen und die sozioökonomischen Auswirkungen von BU zu minimieren. Die Klärung der Rolle soziokultureller Determinanten einer rechtzeitigen medizinischen Behandlung kann dabei helfen, Programme der öffentlichen Gesundheit zur Verbesserung der Behandlungsergebnisse zu leiten. Diese Studie verdeutlichte die Rolle soziokultureller Determinanten und Faktoren des Gesundheitssystems, die eine rechtzeitige medizinische Behandlung von BU in einem Endemiegebiet in Ghana beeinflussen.;-;-;-;https://link.springer.com/article/10.1186/2049-9957-1-6 f759c0a59b45ba6c3fb1113ea1aca8c8;de;;;6.2.;;;Einsatz und Akzeptanz von langlebigen insektiziden Netzen zur Dengue-Prävention in Acapulco, Guerrero, Mexiko Dengue, von der WHO als die wichtigste durch Mücken übertragene Viruserkrankung der Welt anerkannt, ist ein wachsendes Problem. Derzeit ist die Vektorkontrolle der einzige wirksame Weg, Dengue-Fieber zu verhindern. Standardmethoden haben eine begrenzte Wirkung gezeigt, und es wurden Forderungen nach der Entwicklung neuer integrierter Vektormanagement-Ansätze laut. Ein neuartiges Instrument zum Schutz von Häusern mit langlebigen Insektenschutzgittern an Türen und Fenstern wird in einer randomisierten kontrollierten Cluster-Studie von einer gemeinsamen UADY/WHO-TDR/IDRC-Studie in verschiedenen Distrikten von Acapulco, Mexiko, mit außergewöhnlich hohen Kriminalitätsraten und Unsicherheit.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-14-846 9b4f1c620136f559d971fbfe3fd2d4a7;de;;;6.2.;;;Thoraxstrahlentherapie plus Durvalumab bei älteren und/oder gebrechlichen NSCLC-Stadium-III-Patienten, die für eine Chemotherapie nicht geeignet sind – mit optimierter (hypofraktionierter) Strahlentherapie zur Förderung der Durvalumab-Wirksamkeit: Studienprotokoll der TRADE-Hypo-Studie Nicht-kleinzelliger Lungenkrebs ist weltweit die häufigste Krebstodesursache, was den Bedarf an neuartigen Therapiekonzepten unterstreicht. Insbesondere für die Gruppe der älteren und gebrechlichen Patienten, die häufig nicht in der Lage sind, Standardtherapieschemata zu erhalten, fehlen noch Behandlungsstrategien. Obwohl diese Gruppe die Mehrheit der Lungenkrebspatienten umfasst, ist sie in klinischen Studien unterrepräsentiert. Dies gilt auch für ältere und gebrechliche Patienten mit inoperablem NSCLC im Stadium III, die für eine Chemotherapie nicht geeignet sind und daher die Standardtherapie bestehend aus Radiochemotherapie und der kürzlich zugelassenen anschließenden Durvalumab-Konsolidierungstherapie nicht erhalten können. Diese Patienten erhalten oft nur eine Strahlentherapie, was die Besorgnis einer Unterbehandlung aufkommen lässt. Die TRADE-Hypo-Studie zielt darauf ab, die Behandlung dieser Patientengruppe zu optimieren, indem die Strahlentherapie mit gleichzeitiger Durvalumab-Gabe kombiniert wird, wodurch die immunfördernde Wirkung der Strahlentherapie genutzt und die Sicherheit, Durchführbarkeit und Wirksamkeit dieser Behandlung bestimmt werden.;-;-;-;https://link.springer.com/article/10.1186/s12885-020-07264-8 ca138cafd34601686399b00d42c0c265;de;;;6.2.;;;Qualitativer Vergleich des Unterstützungsbedarfs von Menschen mit Krebs aufgrund ihrer Angst-/Depressionsgeschichte Die Forschung berücksichtigt selten den Ursprung oder die Vorgeschichte der Angst und/oder Depression eines Krebspatienten, sondern geht stattdessen davon aus, dass diese Krankheiten mit der Krebserfahrung zusammenhängen. Das Ziel dieser Studie war es, Unterschiede in den Unterstützungsbedürfnissen von Menschen, die Angst/Depression als Teil der Krebserfahrung erlebt haben und Menschen, die dies nicht hatten, sowie zwischen Menschen, die episodische Angst/Depression erlebt haben, und Menschen, die erlebt haben, zu vergleichen langfristige Angst/Depression.;-;-;-;https://link.springer.com/article/10.1007/s40487-017-0045-3 e4d7e56b1fbea83abd75fcbd82ac6c35;de;;;6.2.;;;Ökologische Ansätze in der Veterinärepidemiologie: Kartierung des Risikos der von Fledermäusen übertragenen Tollwut anhand von Vegetationsindizes und Nachtlicht-Satellitenbildern Tollwut ist nach wie vor eine Krankheit mit erheblicher Besorgnis für die öffentliche Gesundheit. In Amerika sind Fledermäuse eine wichtige Quelle von Tollwut für Haustiere, Vieh und Menschen. Für eine wirksame Tollwutkontrolle und -prävention ist die Identifizierung potenzieller Bereiche für das Auftreten von Krankheiten entscheidend, um zukünftige Forschungen zu leiten, die öffentliche Gesundheitspolitik zu informieren und Interventionen zu entwerfen. Um die Verbreitung zoonotischer Infektionskrankheiten im groben Maßstab zu antizipieren, muss die Veterinärepidemiologie durch die Erforschung aktueller geographischer Ökologieinstrumente und -daten mit einem biologischen Ansatz vorankommen. Wir haben Berichte über Fledermaus-Tollwut in Chile von 2002 bis 2012 analysiert, um Zusammenhänge zwischen dem Auftreten von Tollwut und Umweltfaktoren herzustellen, um ein ökologisches Nischenmodell (ENM) zu erstellen. Das wichtigste Tollwutreservoir in Chile ist die Fledermausart;-;-;-;https://link.springer.com/article/10.1186/s13567-015-0235-7 a93776ad0f4eacd77c762b03b1ace81a;de;;;6.2.;;;Rupatadin in etablierten Behandlungsschemata verbessert die Symptome der chronischen spontanen Urtikaria und die Lebensqualität der Patienten: eine prospektive, nicht-interventionelle Studie Chronische spontane Urtikaria (CSU) ist eine häufige und schwer zu behandelnde Erkrankung, die mit erheblichen negativen Auswirkungen auf die Lebensqualität der Patienten (QoL) einhergeht. Klinische Studien haben gezeigt, dass Rupatadin bei der Behandlung von CSU wirksam und sicher ist, aber Daten aus der klinischen Routineversorgung sind rar. Daher haben wir die Wirksamkeit und Verträglichkeit von Rupatadin in etablierten Dosierungen auf die CSU-Aktivität und die Lebensqualität der Patienten in einer täglichen Routinepraxis untersucht.;-;-;-;https://link.springer.com/article/10.1007/s13555-015-0089-y 7a89f5a85b92c8067ca441598c587126;de;;;6.2.;;;Diagnostische Krebscodes im Gesundheitsregister von Skåne: eine Validierungsstudie mit personenbezogenen Daten in Südschweden Das schwedische Gesundheitswesen ist in 21 Regionen dezentralisiert. Detaillierte Informationen über alle erbrachten Leistungen in der südlichsten Region Skåne werden voraussichtlich im Skåne Healthcare Register (SHR) gesammelt. Die Daten werden täglich aktualisiert und sind daher eine gute Quelle für epidemiologische Studien. Allerdings sind die diagnostischen Codes zur Identifizierung von Krebspatienten bei SHR noch nicht validiert.;-;-;-;https://link.springer.com/article/10.1186/s12885-021-08481-5 1504bfd9c869b5427679340cf42e5a6c;de;;;6.2.;;;Greifbare Mixed Reality für Remote Design Review: eine Studie zum Verständnis der Benutzerwahrnehmung und -akzeptanz Der Design-Review-Prozess ist oft teuer, da persönliche Treffen zwischen den beteiligten Parteien erforderlich sind. Verteilte Design-Zusammenarbeit wird durch Fortschritte bei Netzwerktechniken ermöglicht. Ein greifbarer Mixed Reality (MR)-basierter virtueller Designprototyp wurde als verteilte virtuelle Umgebung (DVE) erstellt, um die Zusammenarbeit bei der Remote-Designprüfung zu verbessern. Dieses greifbare MR-System wurde so weit entwickelt, dass eine experimentelle Bewertung erforderlich ist, um die Stärken und Schwächen verschiedener Funktionen des Systems zu verstehen.;-;-;-;https://link.springer.com/article/10.1186/2213-7459-1-8 1d5e77cf166eb27c3cc6aa13badf7a10;de;;;6.2.;;;Evaluation der Wirkungen eines Medikaments mit fiskalisierter Substanzabgabe, Gesundheitserziehung und Pharmakovigilanz-Weiterbildungsprogramm in Kolumbien Drogerien und Drogerien/Apotheken: Studienprotokoll einer multizentrischen, clusterrandomisierten kontrollierten Studie Gesundheitsstörungen aufgrund des Konsums von Medikamenten mit fiskalisierten Substanzen, einschließlich kontrollierter Substanzen, sind in Kolumbien zu einem häufigen Problem geworden. Mehrere Gründe können dazu beitragen, dieses Problem zu erklären, einschließlich der Selbstmedikation, da der Zugang zu diesen Medikamenten möglicherweise einfacher ist. Außerdem fehlt das Wissen, dass diese Drogen sicherer sind als illegale Drogen. Die Einnahme dieser Medikamente ohne gültige ärztliche Verschreibung und Nachsorge kann negative Folgen wie Drogenmissbrauch, Sucht und Überdosierung haben und schließlich negative gesundheitliche Folgen haben. Das Apothekenpersonal ist von entscheidender Bedeutung, um sowohl die korrekte Arzneimittelanwendung sicherzustellen als auch Verschreibungsfehler zu minimieren, um ambulanten Patienten zu helfen, ihre Pharmakotherapie besser zu verwalten. Aus diesem Grund ist es notwendig, Schlüsselkompetenzen wie Kenntnisse, Fähigkeiten und Einstellungen beim Apothekenpersonal ambulanter (ambulanter) Apotheken zu erhöhen.;-;-;-;https://link.springer.com/article/10.1186/s13063-020-04481-1 18c2d5124f93249ee3a8463dfc366e5b;de;;;6.2.;;;Soziodemografische Faktoren, die den Besitz und die Nutzung von mit Insektiziden behandelten Moskitonetzen bei malariagefährdeten Gruppen im Gesundheitsbezirk Buea, Kamerun, beeinflussen Malaria ist nach wie vor ein Problem der öffentlichen Gesundheit, und in Kamerun wird der Einsatz von mit Insektiziden behandelten Moskitonetzen (ITN) bei gefährdeten Gruppen (Schwangere und Kinder <5 Jahre) empfohlen. Diese Studie zielte darauf ab, die soziodemografischen Faktoren zu bewerten, die den Besitz und die Nutzung von ITNs bei gefährdeten Gruppen im Buea Health District (BHD) beeinflussen.;-;-;-;https://link.springer.com/article/10.1186/1756-0500-7-624 49284acfd06a2be1a062579c966fc8d4;de;;;6.2.;;;Rolle der vorgeburtlichen Plasma-Cytomegalovirus-DNA-Spiegel auf den Schwangerschaftsausgang und die vertikale HIV-1-Übertragung bei Müttern in der Geburtskohortenstudie der Universität von Simbabwe (UZBCS) Obwohl es sich um eine weltweit führende infektiöse Ursache für Behinderungen im Kindesalter handelt, werden Tests auf Cytomegalovirus (CMV)-Infektionen in der Schwangerschaft in Subsahara-Afrika (SSA), wo die Stillpraxis fast universell ist, im Allgemeinen nicht durchgeführt. Während CMV und das humane Immunschwächevirus (HIV) beide bei SSA endemisch sind, bleibt der Zusammenhang zwischen vorgeburtlicher Plasma-CMV-DNA, HIV-1-RNA-Spiegel und HIV-1-Mutter-Kind-Übertragung (MTCT) einschließlich Schwangerschaftsausgängen unzureichend beschrieben.;-;-;-;https://link.springer.com/article/10.1186/s12985-021-01494-3 3812b00d4295e946c4da20cde44788f5;de;;;6.2.;;;Eine qualitative Studie zum Rauchverhalten chinesisch-kanadischer Väter: Schnittmengen zwischen Kulturen und Männlichkeiten In China leben die meisten Raucher weltweit, mehr als die Hälfte der männlichen Bevölkerung raucht. Angesichts der hohen chinesischen Einwanderungsraten nach Kanada und in die USA haben Forscher die Auswirkungen der Einwanderung auf chinesische Raucher untersucht. In den Vereinigten Staaten wurde über einen verringerten Tabakkonsum unter chinesischen Einwanderern berichtet, jedoch ist wenig über die sozialen Faktoren bekannt, die den Rauchpraktiken von Männern in Umgebungen, in denen Tabakkontrollmaßnahmen das Rauchen denormalisiert haben, und im Kontext der Vaterschaft zugrunde liegen. Der Zweck dieser in Kanada ansässigen Studie war es, die rauchbezogenen Erfahrungen chinesischer Einwandererväter zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s12889-015-1646-0 9d8e5f54f89cafe7df75d8aa96bc0909;de;;;6.2.;;;Zusammenhänge zwischen echokardiographischen Manifestationen und Bakterienarten bei Patienten mit infektiöser Endokarditis: eine Kohortenstudie Die Diagnose der infektiösen Endokarditis (IE) basiert auf mikrobiologischen Analysen und bildgebenden Verfahren kardialer Manifestationen. Die Echokardiographie (ECHO) wird zur Visualisierung von IE-induzierten kardialen Manifestationen bevorzugt. Wir untersuchten Assoziationen zwischen bakteriellen Infektionen und IE-Manifestationen, die von ECHO diagnostiziert wurden.;-;-;-;https://link.springer.com/article/10.1186/s12879-019-4682-z a2c09bd1a719ed14a87b03b5d5ea1252;de;;;6.2.;;;Soziokulturelle Besonderheiten und hilfesuchende Präferenzen für Lepra und Tuberkulose: eine kulturepidemiologische Studie in einem Stammesbezirk von Maharashtra, Indien Indien trägt maßgeblich zur weltweiten Belastung durch Lepra und Tuberkulose (TB) bei, die die ärmsten indigenen Gemeinschaften beeinträchtigt. Trotz Priorisierung durch Krankheitsbekämpfungsprogramme bleibt die Programmleistung für Lepra und TB in Stammesgemeinschaften eine Herausforderung. Neben dem Zugang zu Dienstleistungen und infrastrukturellen Einschränkungen müssen soziokulturelle Konzepte der Krankheitsverursachung und der damit verbundenen Hilfesuchenden (HS) angegangen werden, die in unterschiedlichen Merkmalen der Stammeskultur verwurzelt sind, um die Programmergebnisse zu verbessern.;-;-;-;https://link.springer.com/article/10.1186/s40249-015-0064-y 981dcb215ce2aa1bedf5ed1c547d75b9;de;;;6.2.;;;Akzeptanz- und Commitment-Therapie bei chronischen Schmerzen: Protokoll eines systematischen Reviews und individuelle Teilnehmerdaten-Metaanalyse Die Akzeptanz- und Commitment-Therapie (ACT) kann bei der Behandlung chronischer Schmerzen wirksam sein. Trotz der Evidenz, die die Wirksamkeit der zweckmäßigen Vergleichstherapie belegen, bleiben Unsicherheiten darüber, welche Untergruppen in der Bevölkerung mit chronischen Schmerzen wahrscheinlich am meisten und am wenigsten profitieren werden. Dieses Protokoll beschreibt die Anwendung für zwei metaanalytische Ansätze, einen auf der Ebene einzelner Teilnehmerdaten und den anderen auf der Ebene aggregierter Daten, aus randomisierten kontrollierten Studien zur ACT bei chronischen Schmerzen (ACT-CP-MA).;-;-;-;https://link.springer.com/article/10.1186/s13643-019-1044-2 327009f0c4d93ceeeda926170334e0f8;de;;;6.2.;;;Frühe Ergebnisse der integrierten Malariakontrolle und Auswirkungen auf das Fiebermanagement bei Kindern unter fünf Jahren in einer peripheren Gesundheitseinrichtung: eine Fallstudie des ländlichen Gesundheitszentrums Chongwe in Sambia Sambia hat die Führung bei der Umsetzung einer integrierten Malariakontrolle übernommen, um das Ziel des National Health Strategic Plan zu erreichen, die Malariainzidenz um 75 % und die Malariasterblichkeit unter fünf Jahren um 20 % bis zum Jahr 2010 zu - dauerhafte mit Insektiziden behandelte Netze und Restsprühung in Innenräumen, Anwendung von Artemisinin-basierten Kombinationstherapien (ACT) zur Behandlung von unkomplizierter Malaria, Verbesserung der diagnostischen Kapazität (sowohl Mikroskopie als auch schnelle diagnostische Tests), Anwendung der intermittierenden präsumtiven Behandlung bei schwangeren Frauen Forschung, Überwachung und Bewertung sowie Kommunikation über Verhaltensänderungen. Finanzielle Zugangsbarrieren wurden durch die Bereitstellung kostenloser Dienste zur Malariaprävention und -behandlung beseitigt.;-;-;-;https://link.springer.com/article/10.1186/1475-2875-8-49 d95bec13bc10024d68a78317a34608ef;de;;;6.2.;;;Integration des Wohlbefindens des Personals in das primäre Gesundheitssystem: eine Fallstudie im Kosovo nach dem Konflikt Das Wohlbefinden des Personals, einschließlich Stressbewusstsein und Stressmanagementfähigkeiten, hat in der (psychischen) Gesundheitspolitik normalerweise keine Priorität. Im Kosovo ist der Stress unter den Fachkräften der primären Gesundheitsversorgung (PHC) hoch, da Angehörige der Gesundheitsberufe Teil der von Konflikten stark betroffenen Bevölkerung sind. Die Notwendigkeit, das Personal zu unterstützen und für sein Wohlergehen zu sorgen, wurde vom Direktor des Zentrums für Entwicklung der Familienmedizin, Leiter der Primärversorgung, erkannt. Als Reaktion darauf führten die Antares Foundation und das Kosovo Rehabilitation Center for Torture Victims (KRCT) in enger Zusammenarbeit mit den Centers for Disease Control and Prevention ein integriertes Programm zum Aufbau psychosozialer Kapazitäten für PHC-Fachkräfte durch.;-;-;-;https://link.springer.com/article/10.1186/s13031-015-0048-3 96de0953a855f557abd1464cacbd3d9c;de;;;6.2.;;;Auf Geburtenregistrierung zählen: Mixed-Methods-Forschung in zwei EN-BIRTH-Studienkrankenhäusern in Tansania Die Geburtenregistrierung markiert das Recht eines Kindes auf Identität und ist der erste Schritt zur Begründung der Staatsbürgerschaft und des Zugangs zu Dienstleistungen. Auf Bevölkerungsebene können Geburtenregistrierungsdaten zu einer effektiven Programmierung und Planung beitragen. In Tansania finden fast zwei Drittel der Geburten in Gesundheitseinrichtungen statt, doch nur 26 % der Kinder unter 5 Jahren lassen ihre Geburten registrieren. Unsere Mixed-Methods-Forschung untersucht die Lücke zwischen Krankenhausgeburt und Geburtsregistrierung in Dar es Salaam, Tansania.;-;-;-;https://link.springer.com/article/10.1186/s12884-020-03357-1 0fefc57b671a4d268c1cc09a43550311;de;;;6.2.;;;HALT-IT - Tranexamsäure zur Behandlung von Magen-Darm-Blutungen: Studienprotokoll für eine randomisierte kontrollierte Studie Magen-Darm-Blutungen sind ein häufiger Notfall, der weltweit eine erhebliche Sterblichkeit verursacht. Akute obere und untere Magen-Darm-Blutungen machen jedes Jahr in Großbritannien etwa 75.000 Krankenhauseinweisungen aus und verursachen den Tod von etwa 10 % dieser Patienten.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-15-450 7f84803d473e8ecce93eb3dfb06c5338;de;;;6.2.;;;Verhaltenssymptome einer psychischen Störung wie Depression bei jungen Menschen, die Instagram nutzen: eine systematische Überprüfung Es gibt eine wachsende Debatte über den Zusammenhang zwischen sozialen Netzwerkplattformen und psychischen Störungen wie depressivem Verhalten oder Depressionen. Der Zusammenhang zwischen Instagram-Nutzung und Depression bzw. depressivem Verhalten wurde jedoch nicht erschöpfend untersucht. Diese Überprüfung zielt darauf ab, diese beiden Variablen zu untersuchen. In zentralen und Zeitschriftendatenbanken wurden nur peer-reviewed Zeitschriftenartikel gesucht, die zwischen Oktober 2010 und Dezember 2018 veröffentlicht wurden. Die Studien wurden anhand vordefinierter Kriterien ausgewählt und anhand von GRADE hinsichtlich des Verzerrungspotenzials und der Qualität der Evidenz bewertet. Das Ergebnis der Suche waren eintausendachthundertsechsundfünfzig Studien, von denen 9 alle in Frage kommenden Kriterien erfüllen. Von den 9 Studien wurden drei Viertel zwischen 2017 und 2018 auf fünf Kontinenten veröffentlicht: (Nordamerika: 3, Asien: 2, Australien: 2, Südamerika: 1, Europa: 1). Die abschließende Studie umfasste Studien, die junge Instagram-Nutzer im Alter zwischen 19 und 35 Jahren untersuchten. Die Synthese bestätigte einen Zusammenhang zwischen Instagram und Symptomen von Depressionen oder depressivem Verhalten. Variablen, die diese Beziehung moderieren, sind sozialer Vergleich, Selbstwertgefühl, das auf Bestätigung und Zustimmung anderer basiert, Abhängigkeit von sozialen Medien, Geschlecht, negatives oder unzureichendes Feedback, schlechte Selbsteinschätzung, Instagram-Übertragung und Einsamkeit, jüngere Benutzer und Angstrisiko und, die Anzahl der Fremden, denen Benutzer folgen. Es gibt einen starken Zusammenhang zwischen Instagram-Nutzung und psychischen Störungen wie Depressionen oder depressivem Verhalten, jedoch ist noch keine tiefgreifende direkte Kausalität nachgewiesen. Weitere Studien sind erforderlich, um die Rätsel der direkten Kausalität zu lösen.;-;-;-;https://link.springer.com/article/10.1186/s41231-021-00092-3 158ca65ed3a39f987575d23572d3a03b;de;;;6.2.;;;Die Analyse panafrikanischer Exzellenzzentren für Gesundheitsinnovation zeigt Chancen und Herausforderungen für lokale Innovation und Finanzierung auf dem Kontinent auf Ein Pool von 38 panafrikanischen Exzellenzzentren (CoEs) für Gesundheitsinnovationen wurde vom Afrikanischen Netzwerk für Arzneimittel- und Diagnostikinnovation (ANDI) in einem wettbewerbsorientierten Verfahren ausgewählt und anerkannt. Der Prozess identifizierte eine Reihe von Chancen und Herausforderungen für F&E und Innovation im Gesundheitswesen auf dem Kontinent: i) er liefert einen direkten Beweis für die Existenz von Innovationsfähigkeit, die genutzt werden kann, um spezifische Lücken auf dem Kontinent zu schließen, ii) er offenbarte eine Forschung und Finanzierungsmuster, das weitgehend fragmentiert und unkoordiniert ist, und iii) es zeigt die häufigsten Geldgeber der Gesundheitsforschung auf dem Kontinent auf. Die CoEs sind als innovatives Netzwerk öffentlicher und privater Institutionen mit einer kritischen Masse an Fachwissen und Ressourcen gedacht, um Projekte und eine Vielzahl von Aktivitäten für den Kapazitätsaufbau und den wissenschaftlichen Austausch zu unterstützen, einschließlich der Aufnahme von Stipendiaten, Praktikanten, Wissenschaftlern in Sabbaticals und dem Austausch mit anderen afrikanischen und nichtafrikanische Institutionen.;-;-;-;https://link.springer.com/article/10.1186/1472-698X-12-11 5f67cbfa96971b74647153921841dc91;de;;;6.2.;;;Erweiterung der Genontologie im Kontext extrazellulärer RNA- und Vesikelkommunikation Um den Mangel an Standardterminologie zur Beschreibung von extrazellulären RNA (exRNA)-Daten/-Metadaten zu beheben, haben wir eine interkommunale Anstrengung gestartet, die Gene Ontology (GO) um subzelluläre Strukturkonzepte zu erweitern, die für die exRNA-Domäne relevant sind. Durch diese Erweiterung von GO werden die exRNA-Daten/-Metadaten einfacher annotiert und abgefragt, da sie auf einem gemeinsamen Satz von Begriffen und Beziehungen basieren, die für die extrazelluläre Forschung relevant sind.;-;-;-;https://link.springer.com/article/10.1186/s13326-016-0061-5 9366ecdb4b91d30172c441f042ff519c;de;;;6.2.;;;Entwicklung der Rolle von Peer-Support-Mitarbeitern in psychiatrischen Krankenhäusern: Eine qualitative Langzeitbeobachtung Peer Support Worker (PSWs) nutzen ihr Erfahrungswissen und ihre spezifischen Fähigkeiten, um Patienten in ihrem Genesungsprozess zu unterstützen. Ziel unserer Studie war es, den Integrations- und Rollenfindungsprozess von PSWs in psychiatrischen Kliniken für Erwachsene in Deutschland zu untersuchen. Wir führten über einen Zeitraum von sechs Monaten offene nicht teilnehmende Beobachtungen von 25 multiprofessionellen Teamsitzungen und 5 transregionalen Peer-Support-Sitzungen durch. Die Daten wurden mittels qualitativer Inhaltsanalyse analysiert. Hinsichtlich der Integration von PSWs in multiprofessionelle Teams haben wir drei Unterkategorien identifiziert: „Erfolgsmerkmale“, „Herausforderungen“ und „Positionierung zwischen Team und Patienten“. Bezüglich der Rollen der PSWs haben wir zwei Unterkategorien entwickelt: „Angebote“ und „Selbstwahrnehmung“. Die spezifischen Rollen der PSWs innerhalb eines multiprofessionellen psychiatrischen Teams entwickeln sich in einem Prozess über einen längeren Zeitraum. Dieser Rollenfindungsprozess sollte durch eine Rahmenrollenbeschreibung unterstützt werden, die genügend Freiraum für die individuelle Entwicklung lässt. Regelmäßige Gelegenheiten zum gegenseitigen Austausch zwischen PSWs können dabei helfen, zu unterschiedlichen Zeitpunkten auf konkrete Unterstützungsbedarfe einzugehen.;-;-;-;https://link.springer.com/article/10.1007/s10597-020-00741-1 14b99a003fbd6fa0045db1345c342aef;de;;;6.2.;;;ILC-OPI: Impulsive Lebensstilberatung versus kognitive Verhaltenstherapie zur Verbesserung der Retention von Patienten mit Opioidkonsumstörungen und externalisierendem Verhalten: Studienprotokoll für eine multizentrische, randomisierte, kontrollierte Überlegenheitsstudie Substanzmissbrauchsstörungen zeigen eine hohe Komorbidität mit externalisierenden Verhaltensschwierigkeiten, die zu Behandlungsherausforderungen führen, einschließlich Schwierigkeiten bei der Compliance, einem hohen Konfliktrisiko und einer hohen Rate an Straftaten nach der Behandlung. Im Vergleich zu Menschen mit anderen Substanzstörungen haben solche mit Opioidkonsumstörungen das höchste Risiko für kriminelle Aktivitäten, Studien zur Evidenzbasis für psychosoziale Behandlung in der Opioidagonistenbehandlung (OAT) sind jedoch rar. Das Impulsive Lifestyle Counseling (ILC)-Programm kann bei schwer zu behandelnden Patienten mit dieser Komorbidität mit einer besseren Retention und besseren Ergebnissen in Verbindung gebracht werden.;-;-;-;https://link.springer.com/article/10.1186/s12888-021-03182-6 25abaa9e0cbc40565551e791dc9231ea;de;;;6.2.;;;Brennweite und Mechanismen von Tohoku-Oki-Nachbeben aus der teleseismischen P-Wellen-Modellierung Die Nachbeben des großen Erdbebens von Tohoku-Oki von 2011 haben eine breite Palette von Brennweiten und Verwerfungsebenenmechanismen. Wir beschränken die Fokustiefen und Fokusmechanismen von 69 Nachbeben mit;-;-;-;https://link.springer.com/article/10.1007/s11589-013-0036-x 67140d7708f1d7f43c318d94eaa91366;de;;;6.2.;;;Morbidität und Mortalität bei kritisch kranken Patienten mit invasiver Streptokokkeninfektion der Gruppe A: eine Beobachtungsstudie Es ist bekannt, dass Streptokokken der Gruppe A (GAS) schwere invasive Infektionen verursachen, aber es ist wenig über die Ergebnisse bekannt, wenn Patienten mit diesen Infektionen auf die Intensivstation aufgenommen werden. Wir wollten schwerkranke Patienten mit schwerer Sepsis oder septischem Schock durch invasives GAS (iGAS) beschreiben und mit anderen Patienten mit schwerer Sepsis oder septischem Schock vergleichen.;-;-;-;https://link.springer.com/article/10.1186/s13054-020-03008-z aa1f08d9a499d4ceeb1b4d07c3cd7dae;de;;;6.2.;;;„Leben gestalten lernen“ – eine qualitative Studie zu den Herausforderungen der Diagnose Diabetes mellitus Typ 2 Diabetes mellitus Typ 2 ist eine zentrale Herausforderung für die Gesundheitspolitik und das Gesundheitswesen in allen Industrieländern. Für die Betroffenen ist das Leben mit der Diagnose Typ-2-Diabetes schwierig, da die Krankheit und ihre Behandlung einen erheblichen Einfluss auf das tägliche Leben haben. Ziel dieser Studie war es, die Herausforderungen einer Typ-2-Diabetes-Diagnose für Betroffene sowie die Breite, Tiefe und Komplexität der subjektiven Perspektiven der Patienten unter den Bedingungen des deutschen Gesundheitssystems zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s12939-019-0924-3 91620088a324f425eede409100ae0437;de;;;6.2.;;;„Ich muss jetzt Dinge anders machen, aber ich bringe es zum Laufen“ – Erfahrungen von jungen Krebsüberlebenden in der Kindheit mit Selbstmanagement im Alltag everyday Das Leben mit Spätfolgen kann die Selbstmanagementfähigkeiten (SM) junger Krebsüberlebender (CCS) beeinträchtigen. In dieser Studie haben wir verschiedene Herangehensweisen an den SM-Alltag von jungen CCS untersucht.;-;-;-;https://link.springer.com/article/10.1007/s11764-021-01066-y 4f63e2d5f8385e1beb67bbfd7d658aa3;de;;;6.2.;;;Die Belastung durch Kopfschmerzerkrankungen in Pakistan: Methodik einer bevölkerungsbezogenen landesweiten Studie und Fragebogenvalidierung Große geografische Lücken in unserem Wissen über die Prävalenz und Belastung von Kopfschmerzerkrankungen schließen Pakistan ein, ein Land mit großen Problemen von Armut, Analphabetismus und Sicherheit. Wir berichten über die Implementierung von Standardmethoden in diesem Land, die von . entwickelt wurden;-;-;-;https://link.springer.com/article/10.1186/1129-2377-14-73 d356e1a8237a292017ffe0486abedb06;de;;;6.2.;;;Implementierung eines integrierten Versorgungsprogramms zur Vermeidung von Fragilitätsfrakturen der Hüfte bei älteren Erwachsenen in 18 bayerischen Kliniken – Studienprotokoll für den clusterrandomisierten kontrollierten Fraktur-Liaison-Service FLS-CARE Die wirtschaftliche und gesundheitliche Belastung durch Fragilitätsfrakturen der Hüfte in Deutschland ist hoch. Die Wahrscheinlichkeit einer Pflegebedürftigkeit und das Risiko, eine Folgefraktur zu erleiden, steigt nach einer Erstfraktur deutlich an. Im deutschen Gesundheitssystem wird routinemäßig weder eine angemessene Bestätigungsdiagnostik des zugrunde liegenden Osteoporoseverdachts noch eine Therapie als anerkannte Ansätze zur Reduzierung der Belastung durch Fragilitätsfrakturen eingeleitet. Ziel der Studie FLS-CARE ist daher zu evaluieren, ob ein koordiniertes Versorgungsprogramm die Präventionslücke für Patienten mit fragiler Hüftfraktur durch die Implementierung einer systematischen Diagnostik, eines Sturzpräventionsprogramms und leitliniengerechter Interventionen auf Basis der Fracture Liaison Services-Modell.;-;-;-;https://link.springer.com/article/10.1186/s12877-020-01966-1 8a72045654765a9bb8e9c3ce7267c4ff;de;;;6.2.;;;Eine komplexe Intervention des Gesundheitswesens zur Verbesserung der medizinischen Versorgung in Pflegeheimen: Studienprotokoll der kontrollierten koordinierten medizinischen Versorgung (CoCare)-Studie Defizite in der allgemeinen und fachärztlichen Vor-Ort-Versorgung sind ein häufiges Problem in Pflegeheimen und können für die Bewohner zu unnötigen, kostspieligen und belastenden Krankenhausaufenthalten führen. Gründe hierfür sind oft organisatorische Hindernisse (wie fehlende Infrastruktur oder Kommunikationswege) und ungünstige Vergütungsstrukturen, die die Umsetzung einer adäquaten medizinischen Versorgung erschweren. Ziel dieser Studie ist es, eine komplexe Intervention zu evaluieren, die darauf abzielt, die Koordination der medizinischen Versorgung in Pflegeheimen in Deutschland zu verbessern. Ziel des Projekts ist es, die Zusammenarbeit von Pflegepersonal und Ärzten zu optimieren, um vermeidbare Krankenhauseinweisungen und Krankenwagentransporte zu reduzieren.;-;-;-;https://link.springer.com/article/10.1186/s12913-019-4156-4 606c394631aa5793c08abc59a60cff23;de;;;6.2.;;;Die Lebensbedingungen und Entbehrungen in informellen Siedlungen von Kisumu, Kenia verstehen In Entwicklungsländern sind informelle Siedlungen weit verbreitet. Jede Siedlung hat jedoch einzigartige Lebensbedingungen, die speziell auf die Siedlung zugeschnittene Verbesserungsanstrengungen erfordern. Diese Studie, die in den informellen Siedlungen von Kisumu durchgeführt wurde, hatte zwei Ziele: die Lebensbedingungen zu beschreiben und Verbesserungsbereiche innerhalb der Siedlungen vorzuschlagen. Die Studie verfolgte zwei Ansätze: den Rahmen für die Lebensbedingungen und den mehrdimensionalen Armutsindex. Die Ergebnisse zeigen, dass Benachteiligung auf der Ebene der einzelnen Personen und der Wohneinheiten weit verbreitet ist, die Siedlungen jedoch mit öffentlichen Dienstleistungen wie Schulen und Gesundheitszentren versorgt werden, auf die die Bewohner zugreifen können. Auf Compound-Ebene fehlen den Compounds infrastrukturelle Dienste wie Wasserversorgung, Abwasserentsorgung und Abfallentsorgung, und wo sie verfügbar sind, werden diese Dienste gemeinsam genutzt. Diese Studie unterstreicht die Bedeutung der Grundversorgung, der Aufwertung des Wohnraums und der Unterstützung bestehender Einkommensmöglichkeiten in den Siedlungen. Die Entwicklungsbemühungen sollten alle Interessengruppen einbeziehen, einschließlich Vermieter, Mieter, Gemeindegruppen sowie Regierungs- und Nichtregierungsorganisationen.;-;-;-;https://link.springer.com/article/10.1007/s12132-018-9346-3 e2aed13926e57f13c170461fc98867a0;de;;;6.2.;;;Das Erbe der großen Rezession in Italien: Ein größerer geografischer, geschlechtsspezifischer und Generationenunterschied in der Lebenserwartung Unter dem Druck der Bevölkerungsalterung wurde das italienische Rentensystem reformiert, um die Erwerbsbeteiligung und das Rentenalter und damit die Länge des Erwerbslebens zu erhöhen. Wie sich die Dauer des Erwerbslebens in den letzten Jahren entwickelt hat, ist jedoch nicht gut verstanden. Dieses Papier analysiert erstmals Trends bei der Lebenserwartung im Arbeitsleben in Italien. Wir verwenden Daten einer national repräsentativen Längsschnittstichprobe von 880.000 Personen aus den Jahren 2003 bis 2013 und schätzen die Lebenserwartung nach Geschlecht, Berufskategorie und Wohnregion mithilfe eines Markov-Ketten-Ansatzes. Wir dokumentieren eine große und zunehmende Heterogenität in der Länge des Erwerbslebens. Von 2003–2004 bis 2012–2013 sank die Lebenserwartung der Männer von 35,2 auf 27,2 Jahre und der Frauen von 34,7 auf 23,7 Jahre, wodurch sich der Geschlechterunterschied auf 3,5 Jahre vergrößerte. Sowohl Jung als auch Alt waren betroffen, denn etwa die Hälfte des Rückgangs war auf die Altersgruppe unter 40, die Hälfte über 40 Jahre zurückzuführen. Frauen). Das wirtschaftliche Nord-Süd-Gefälle weitete sich so aus, dass von Männern im Norden erwartet wurde, dass sie 8 Jahre länger arbeiten als Frauen im Süden. Der Anteil des Erwerbslebens an der Gesamtlebenserwartung im Alter von 15 Jahren sank von 2012 bis 2013 mit 40 % bei Männern und 34 % bei Frauen auf ein Rekordtief. Politiken, die auf eine Erhöhung der Erwerbslebenserwartung der Gesamtbevölkerung abzielen, müssen die in unseren Ergebnissen hervorgehobenen soziodemografischen Unterschiede berücksichtigen.;-;-;-;https://link.springer.com/article/10.1007/s11205-018-1910-7 3ad5c39ef5915a5034f111ef1dac97fe;de;;;6.2.;;;Hochdimensionale Optimierung des Abrufs biologischer Daten mit NoSQL-Technologie Transkriptomische Hochdurchsatzdaten, die durch Microarray-Experimente generiert werden, sind die am häufigsten und am häufigsten gespeicherte Art von Daten, die derzeit in Studien der translationalen Medizin verwendet werden. Obwohl Microarray-Daten in Data Warehouses wie tranSMART unterstützt werden, sind die Abfragen relationaler Datenbanken für Hunderte verschiedener Genexpressionsdatensätze von Patienten aufgrund der schlechten Leistung langsam. Nicht-relationale Datenmodelle, wie das in NoSQL-Datenbanken implementierte Schlüsselwertmodell, versprechen leistungsfähigere Lösungen. Unsere Motivation ist es, die Leistung des tranSMART Data Warehouse im Hinblick auf die Unterstützung von Next Generation Sequencing-Daten zu verbessern.;-;-;-;https://link.springer.com/article/10.1186/1471-2164-15-S8-S3 94b4a7a1b620b27e9b07ed5f37a43032;de;;;6.2.;;;IVSPlat 1.0: eine integrierte virtuelle Screening-Plattform mit einer molekularen grafischen Oberfläche Das virtuelle Screening (VS) von Leitsubstanzen mittels molekularem Docking und Pharmakophor-Nachweis ist heute ein wichtiges Werkzeug in der Wirkstoffforschung. VS-Aufgaben erfordern typischerweise eine Kombination aus mehreren Softwaretools und einem molekularen Grafiksystem. Somit könnte die Integration aller erforderlichen Tools in einer einzigen Betriebsumgebung die Komplexität der Durchführung von VS-Experimenten reduzieren. Es wurden jedoch nur wenige frei verfügbare integrierte Softwareplattformen entwickelt.;-;-;-;https://link.springer.com/article/10.1186/1752-153X-6-2 59e1b8b95fd3eb1cea53034734a4582a;de;;;6.2.;;;Das Spektrum der Wirkungsbewertungen Dieses Kapitel unterstreicht die Bedeutung der Kausalzuordnung und führt den Leser durch verschiedene Methoden der Wirkungsbewertung, die es Evaluatoren ermöglichen, die kausalen Auswirkungen von Politiken zu messen. Anhand von Fallstudien werden wichtige Annahmen, Vor- und Nachteile jeder Methodik hervorgehoben, um den Lesern ein Gefühl dafür zu geben, wie diese Techniken auf Fragen der nachhaltigen Entwicklung angewendet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6389-4_2 8cc99784f2ef4fb3d30929a4451cb0b3;de;;;6.2.;;;Forschung zu integrierter Katastrophenrisiko-Governance im Kontext globaler Umweltveränderungen Um eine nachhaltige Entwicklung zu erreichen, sollte das Verständnis der Auswirkungen globaler Umweltveränderungen auf natürliche Ressourcen sowie der Häufigkeit, Intensität und räumlich-zeitlichen Muster aller Arten von Gefahren verbessert werden. In den letzten Jahren wurden durch sehr großflächige Naturgefahren auf der ganzen Welt schwere Verluste an Menschenleben und Sachwerten verursacht, wie beispielsweise die Eisregen- und Schneesturmkatastrophe in China 2008, der Taifun Sidr in Bangladesch 2007 und der Hurrikan Katrina in den Vereinigten Staaten im Jahr 2005. Die Stärkung der Studie zur integrierten Katastrophenvorsorge ist zu einem dringenden Thema der nachhaltigen Entwicklung geworden. Unterstützt vom Chinesischen Nationalkomitee für das International Human Dimensions Program on Global Environmental Change (CNC-IHDP), schlug seine Arbeitsgruppe für Risk Governance dem IHDP im Jahr 2006 vor, ein neues internationales Forschungsprojekt zu Integrated Risk Governance (IRG) in der Kontext des globalen Umweltwandels. Das IRG-Projekt wurde 2008 vom Wissenschaftlichen Ausschuss des IHDP als wissenschaftliches Pilotprojekt angenommen und 2010 als vollständiges IHDP-Kernwissenschaftsprojekt im Rahmen des Strategischen Plans 2007–2015 genehmigt. Die Forschungsschwerpunkte dieses internationalen Wissenschaftsprojekts liegen auf den Themen Wissenschaft, Technologie und Management integrierter Katastrophenrisiko-Governance basierend auf weltweiten Fallvergleichen, um die Theorien und Methoden der integrierten Katastrophenrisiko-Governance voranzutreiben und die Praktiken der integrierten Katastrophenvorsorge in der realen Welt.;-;-;-;https://link.springer.com/article/10.3974/j.issn.2095-0055.2010.01.004 3c0cf30443a8429680f70856e3593fab;de;;;6.2.;;;Aushandlung von Machtverhältnissen, Geschlechtergleichstellung und kollektiver Handlungsfähigkeit: Sind Dorfgesundheitskomitees transformative soziale Räume in Nordindien? Partizipative Gesundheitsinitiativen unterstützen idealerweise progressiven sozialen Wandel und stärkere kollektive Handlungsfähigkeit für marginalisierte Gruppen. Dieses ermächtigende Potenzial wird jedoch oft durch Ungleichheiten innerhalb von Gemeinschaften sowie zwischen Gemeinschaften und externen Akteuren (z. B. Regierungsbeamten, politischen Entscheidungsträgern) begrenzt. Wir haben untersucht, wie die partizipative Initiative der Village Health, Sanitation, and Nutrition Committees (VHSNCs) die Neuverhandlung der Macht im ländlichen Nordindien ermöglichen und behindern kann.;-;-;-;https://link.springer.com/article/10.1186/s12939-017-0580-4 64b006e692c16b270c4f505ca3b0b5bd;de;;;6.2.;;;Synergien zwischen partikelbasiertem Multiplexing und Mikrofluidik-Technologien können die Diagnostik näher an den Patienten bringen Auf dem Gebiet der medizinischen Diagnostik besteht ein wachsender Bedarf an kostengünstigen, genauen und schnellen Hochdurchsatz-Assays. Einerseits wird erwartet, dass die jüngsten Fortschritte in der Mikrofluidik-Technologie die Entwicklung miniaturisierter Analysegeräte stark unterstützen, die (bio)analytische Assays beschleunigen werden. Andererseits kann durch das gleichzeitige Screening einer Probe auf mehrere Targets (Multiplexing) mittels kodierter partikelbasierter Assays ein höherer Durchsatz erreicht werden. Multiplexing auf Makroebene ist heute in Forschungslabors üblich und soll Teil der klinischen Diagnostik werden. Dieser Aufsatz zielt darauf ab, den „Mehrwert“ zu diskutieren, den wir von der (Bio-)Analyse mit Partikeln in mikrofluidischen Geräten erwarten können. Es werden Technologien zum (a) Decodieren, (b) Analysieren und (c) Manipulieren der Partikel beschrieben. Besonderes Augenmerk wird auf die Herausforderungen der Integration derzeit existierender Detektionsplattformen für kodierte Mikropartikel in Mikrogeräte und auf vielversprechende Mikrotechnologien gelegt, die verwendet werden könnten, um die Detektionseinheiten zu verkleinern, um kompakte miniaturisierte partikelbasierte Multiplexing-Plattformen zu erhalten.;-;-;-;https://link.springer.com/article/10.1007/s00216-008-2062-4 03739f1f86c5a022affb034846cc134b;de;;;6.2.;;;Gesundheitsmonitoring von Mastschweinen durch Sekundärdatennutzung – eine Längsschnittanalyse In Deutschland ist der Tierschutz zu einem immer wichtigeren Thema geworden. Die deutsche Gesetzgebung fordert seit 2006 eine Eigenkontrolle des Tierschutzes durch die Landwirte, es fehlen jedoch vorgeschriebene Indikatoren für die staatliche Kontrolle. Da die Erfassung des Gesundheitszustandes durch Untersuchungen in den einzelnen Betrieben viele Ressourcen erfordert, liegt eine sekundäre Datennutzung nahe. Daher beschäftigt sich diese Studie mit der Gesamtauswertung und Nutzung vorhandener Produktionsdaten aus der deutschen Schweinefleischproduktion. Leistungsdaten und Informationen zum Antibiotikaeinsatz und zur Fleischbeschau wurden für ein Benchmarking-System der Tiergesundheit bei Mastschweinen verwendet.;-;-;-;https://link.springer.com/article/10.1186/s40813-021-00197-z bc0b7b32f7573f63b722fd5b94b03f08;de;;;6.2.;;;Die AvecNet-Studie zur Bewertung, ob die Zugabe von Pyriproxyfen, einem Nachahmer des Insektenjuvenilhormons, zu langlebigen insektiziden Moskitonetzen einen zusätzlichen Schutz vor klinischer Malaria bietet, im Vergleich zu aktuellen Best Practices in einem Gebiet mit Pyrethroid-resistenten Vektoren im ländlichen Burkina Faso: Studienprotokoll für a randomisierte kontrollierte Studie Der jüngste Rückgang der Malaria in Subsahara-Afrika wurde mit einer erhöhten Abdeckung durch langlebige insektizide Netze (LLINs) in Verbindung gebracht. Pyrethroide sind derzeit die einzige Insektizidklasse, die zur Behandlung von Netzen verwendet wird, und die rasche Zunahme der Resistenz gegen Pyrethroide bei Vektormücken könnte die zukünftige Vektorkontrolle gefährden. Netze, die eine neuartige Kombination aus Permethrin, einem Pyrethroid, und Pyriproxyfen, einem Nachahmer des Insektenjuvenilhormons (PPF-LLIN), enthalten, können die Malariakontrolle verbessern und die Ausbreitung von Pyrethroid-resistenten Mücken reduzieren. Diese Studie wird feststellen, ob PPF-LLINs einen schrittweisen Schutz vor Malaria bieten, im Vergleich zu den derzeitigen bewährten Verfahren von LLINs und einer sofortigen Behandlung in einem Gebiet mit pyrethroidresistenten Vektoren.;-;-;-;https://link.springer.com/article/10.1186/s13063-015-0606-4 5f8fc27756c6793438f14dee234bd2f4;de;;;6.2.;;;Validität des von den Eltern angegebenen Gewichts und der Größe von Vorschulkindern, gemessen zu Hause oder geschätzt ohne Messung zu Hause: eine Validierungsstudie Elternberichte werden häufig in groß angelegten Umfragen verwendet, um den Body-Mass-Index (BMI) von Kindern zu bestimmen. Daher ist es wichtig zu wissen, inwieweit diese Elternberichte valide sind und ob es einen Unterschied macht, ob die Eltern das Gewicht und die Größe ihrer Kinder zu Hause gemessen oder diese Werte einfach geschätzt haben. Das Ziel dieser Studie ist es, die Validität der von Eltern angegebenen Größen-, Gewichts- und BMI-Werte von Vorschulkindern (3-7 Jahre alt) zu vergleichen, wenn sie zu Hause gemessen oder von den Eltern ohne tatsächliche Messung geschätzt werden.;-;-;-;https://link.springer.com/article/10.1186/1471-2431-11-63 d83c995bed3af95e42d920fcf14620a2;de;;;6.2.;;;Pränatale Kortikosteroide zur Behandlung von Frühgeburten: eine länderübergreifende Analyse von Engpässen im Gesundheitssystem und potenzieller Lösungen Komplikationen bei der Frühgeburt sind die häufigste Todesursache bei Kindern unter fünf Jahren. Antenatale Kortikosteroide (ACS) sind wirksam bei der Verringerung der Mortalität und der schweren Morbidität bei Säuglingen, die in der Schwangerschaft < 34. Die WHO-Leitlinien empfehlen dringend die Anwendung von ACS bei Frauen, bei denen das Risiko einer bevorstehenden Frühgeburt besteht, wenn das Gestationsalter, die bevorstehende Frühgeburt und das Risiko einer mütterlichen Infektion beurteilt werden können und eine angemessene mütterliche/neugeborene Betreuung bereitgestellt werden kann. In Ländern mit hoher Belastung bleibt die Abdeckung jedoch aus Gründen, die zuvor nicht systematisch untersucht wurden, gering.;-;-;-;https://link.springer.com/article/10.1186/1471-2393-15-S2-S3 4fd3a1b374aeb534bb29d6c5d11adeff;de;;;6.2.;;;Konzeptualisierung des Lernens im Unternehmertum von Minderheiten Dieses Kapitel schlägt einen vereinheitlichenden Ansatz für das Unternehmertum von Minderheiten vor, der seine theoretischen und praktischen Fortschritte als Studienbereich unterstützt und vorantreibt. Dadurch wird frühere Arbeit integriert und der charakteristische Beitrag des unternehmerischen Lernens zum Unternehmertum von Minderheiten hinzugefügt, der zuvor nicht vorhanden war. Sein Beitrag zum Buch ist ein konzeptioneller „Schlussstein“ in den vorangegangenen Kapiteln, die sich mit Unternehmertum innerhalb bestimmter Minderheitengruppen befassen. Es zielt auch darauf ab, eine Reihe von Konzepten und Dimensionen bereitzustellen, die die Entwicklung des Bereichs sowohl für die Forschung als auch potenziell für Politik, Bildung und Praxis beeinflussen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-66603-3_19 2b14f8b799b67b0c08f964827f5408a9;de;;;6.2.;;;Auswirkungen von Laparoskopie, Laparotomie und Atemphase auf das Lebervolumen in einem lebenden Schweinemodell zur Leberresektion Hepatektomie, Lebertransplantationen lebender Spender und andere wichtige Lebereingriffe beruhen auf einer genauen Berechnung des Gesamt-, Rest- und Transplantatlebervolumens. Das Lebervolumen kann jedoch zwischen der prä- und intraoperativen Situation unterschiedlich sein. Um Veränderungen des Lebervolumens zu modellieren und solche prä- und intraoperativen Assistenzsysteme zu entwickeln und zu validieren, sind genaue Informationen über den Einfluss von Lungenventilation und intraoperativem Operationszustand auf das Lebervolumen unerlässlich.;-;-;-;https://link.springer.com/article/10.1007/s00464-020-08220-0 ab56d82ee01657e29c77b47ed71093b8;de;;;6.2.;;;Die Säugetier-Phänotyp-Ontologie als vereinheitlichender Standard für experimentelle und Hochdurchsatz-Phänotypisierungsdaten Die Mammalian Phenotype Ontology (MP) ist ein strukturiertes Vokabular zur Beschreibung von Säugetier-Phänotypen und dient als wichtiges Werkzeug für die effiziente Annotation und den umfassenden Abruf von Phänotypdaten. Wichtig ist, dass die Ontologie breite und spezifische Begriffe enthält, die die Annotation von Daten aus anfänglichen Beobachtungen oder Bildschirmen und detaillierten Daten aus nachfolgenden experimentellen Forschungen erleichtern. Unter Verwendung der Ontologiestruktur werden Daten inklusiv abgerufen, d. h. Daten, die zu ausgewählten Begriffen und zu in der Hierarchie untergeordneten Begriffen annotiert sind. Die Suche nach „abnormaler kraniofazialer Morphologie“ liefert daher auch Annotationen zu „Megazephalie“ und „Mikrozephalie“, genaueren Begriffen im Hierarchiepfad. Die Entwicklung und Verfeinerung des MP ist im Gange, wobei neue Begriffe und Modifikationen seiner Organisation einer ständigen Bewertung unterzogen werden, während Benutzer und Fachgutachter Erweiterungen und Überarbeitungen vorschlagen. Eine Fülle von Phänotypdaten zu Mausmutationen und -varianten, die dem MP annotiert sind, existiert bereits in der Mouse Genome Informatics-Datenbank. Diese Daten, zusammen mit Daten, die von vielen Maus-Mutagenese-Programmen und Maus-Repositories an das MP kuratiert wurden, bieten eine Plattform für vergleichende Analysen und korrelative Entdeckungen. Das MP bietet eine Standarduntermauerung für Maus-Phänotypbeschreibungen für bestehende und zukünftige experimentelle und groß angelegte Phänotypisierungsprojekte. In diesem Review beschreiben wir das MP, wie es derzeit existiert, seine Anwendung auf Phänotyp-Annotationen, die Beziehung des MP zu anderen Ontologien und die Integration des MP in groß angelegte Phänotypisierungsprojekte. Schließlich diskutieren wir die zukünftige Anwendung des MP bei der Bereitstellung von Standarddeskriptoren der Phänotyp-Pipeline-Testergebnisse aus den Projekten des International Mouse Phenotype Consortium.;-;-;-;https://link.springer.com/article/10.1007/s00335-012-9421-3 7169caddb347f2dffbf8d305507a5d52;de;;;6.2.;;;Transkriptomisches Porträt menschlicher mesenchymaler Stroma-/Stammzellen, die aus Knochenmark und Plazenta isoliert wurden Humane mesenchymale Stroma-/Stammzellen (MSCs) sind adulte multipotente Zellen, die sich hochplastisch verhalten und das Stroma mehrerer Gewebe bewohnen. Der potenzielle Nutzen von MSCs wird heute im Bereich der regenerativen Medizin und der Zelltherapie intensiv untersucht, obwohl viele Fragen zu ihrer molekularen Identität noch ungewiss sind.;-;-;-;https://link.springer.com/article/10.1186/1471-2164-15-910 76121fdd73ed71b2656bcadec850baa0;de;;;6.2.;;;Überlegungen zum Anwendungsdesign In den Kapiteln 5 bis 7 haben wir die Methoden, Werkzeuge und Techniken zur Anwendungsoptimierung untersucht und anhand von Beispielen von HPC-Anwendungen und Benchmarks erläutert. Der gesamte Prozess folgte dem in Kapitel 3 erläuterten Top-Down-Softwareoptimierungs-Framework. Der allgemeine Ansatz für den Optimierungsprozess basiert auf einer quantitativen Analyse der von einer Anwendung benötigten Ausführungsressourcen und deren Übereinstimmung mit den Fähigkeiten der Plattform, auf der die Anwendung ausgeführt wird . Die Blueprint-Analyse der Plattformfähigkeiten und Überlegungen zur Optimierung auf Systemebene wurden in Kapitel 4 auf der Grundlage mehrerer in Kapitel 2 erörterter Systemarchitekturmetriken bereitgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-6497-2_8 db4f76fc19c1258ba8fda74acb4b70fe;de;;;6.2.;;;Lernen und statistische Modellprüfung der Systemantwortzeiten Da Computer immer leistungsfähiger geworden sind, sind Benutzer weniger bereit, langsame Reaktionen von Systemen zu akzeptieren. Daher ist die Leistungsprüfung für interaktive Systeme wichtig. Es ist jedoch immer noch schwierig zu testen, ob ein System eine akzeptable Leistung bietet oder bestimmte Reaktionszeitgrenzen erfüllen kann, insbesondere für verschiedene Nutzungsszenarien. Einerseits gibt es Leistungstestverfahren, die zahlreiche kostspielige Tests des Systems erfordern. Auf der anderen Seite weisen modellbasierte Methoden der Leistungsanalyse eine zweifelhafte Modellqualität auf. Daher schlagen wir eine kombinierte Methode vor, um diese Probleme zu mildern. Aus Testdaten lernen wir Reaktionszeitverteilungen, um bestehende Verhaltensmodelle um Timing-Aspekte zu erweitern. Dann führen wir eine statistische Modellprüfung mit dem resultierenden Modell für eine Leistungsvorhersage durch. Schließlich testen wir die Genauigkeit unserer Vorhersage mit Hypothesentests des realen Systems. Unsere Methode wird mit einem eigenschaftsbasierten Testwerkzeug mit integrierten statistischen Modellprüfalgorithmen implementiert. Wir demonstrieren die Machbarkeit unserer Techniken in einer industriellen Fallstudie mit einer Web-Service-Anwendung.;-;-;-;https://link.springer.com/article/10.1007/s11219-018-9432-8 b56904a3104d226d87a363a934e875cd;de;;;6.2.;;;Quantifizierung des Haushaltswasserbedarfs: Ein Überblick über Theorie und Praxis in Großbritannien Der sozioökonomische Wandel, schwere Dürren und Umweltbedenken lenken die Aufmerksamkeit auf die Nachhaltigkeit der Wasserversorgung und die Fähigkeit der Wasserversorgungsunternehmen, das Serviceniveau zu erfüllen. Traditionell wurde die Wasserwirtschaft von der Angebotsseite dominiert und die langfristige Nachfrageprognose wurde relativ wenig beachtet. Es wird jedoch zunehmend anerkannt, dass das Wasserbedarfsmanagement angesichts der großen Unsicherheiten über zukünftige nicht klimatische und klimatische Belastungen eine Anpassungsmaßnahme mit „geringem Reue“ (sowohl finanziell als auch ökologisch) sein könnte. Dieses Papier beginnt mit einer kurzen Geschichte des Haushaltswasserbedarfsmanagements in Großbritannien. Anschließend überprüfen wir Ansätze zur Schätzung und Vorhersage des Wasserbedarfs über kurz- (täglich bis saisonal) und langfristig (Jahre bis Jahrzehnt) und stellen fest, dass Studien zu Wetter und Klima mangelhaft sind. Wir diskutieren das Spitzenverhalten des Wasserverbrauchs in Haushalten, das aus Messversuchen, tagebuchbasierten Studien auf Mikrokomponentenbasis und statistischen Techniken für die langfristige Bedarfsprognose ermittelt wurde. Wir verweisen auf die „Golden 100“-Daten der Anglian Water Services (AWS), um die bedeutenden praktischen und konzeptionellen Probleme zu veranschaulichen, die beim Abbau von Haushaltswassernutzungsdaten für Wettersignale auftreten, insbesondere wenn die Daten verrauscht sind und ursprünglich für andere Anwendungen gedacht waren. Die Zusammenhänge zwischen Klimavariablen und dem Wasserverbrauch von Mikrokomponenten in Haushalten, insbesondere bei Spitzenbedarf, müssen weiter erforscht werden.;-;-;-;https://link.springer.com/article/10.1007/s11269-012-0190-2 54024136c5133ba3c85317355705ab36;de;;;6.2.;;;Auswirkung der täglichen Migräneprävention auf die Inanspruchnahme der Gesundheitsversorgung in einer versicherten Patientenpopulation Die wirtschaftlichen Vorteile der täglichen Migräneprävention werden ständig diskutiert. Diese Studie wurde durchgeführt, um festzustellen, ob der Beginn der Prävention einen beobachtbaren Effekt auf die Inanspruchnahme der ambulanten Gesundheitsversorgung im Vergleich zur alleinigen akuten Migränebehandlung hatte. Daten aus administrativen Ansprüchen des Militärischen Gesundheitssystems wurden verwendet, um eine retrospektive Längsschnittstudie mit 3762 Migränepatienten durchzuführen. Neue Benutzer der täglichen Migräneprävention wurden einer Referenzgruppe von Nichtbenutzern unter Verwendung von Propensity-Score-Methoden zugeordnet. Diese angepasste Stichprobe wurde dann verwendet, um die Wirkung der Prävention auf die Ausgaben für die ambulante Gesundheitsversorgung zu bewerten. Die Studienergebnisse zeigten, dass die Exposition gegenüber der täglichen Migräneprävention zu geringeren Nutzungsraten im Vergleich zu dem führte, was neue Patienten ohne Behandlung konsumiert hätten. Die Ergebnisse legen nahe, dass zusätzliche wirtschaftliche Vorteile durch die Erhöhung des angemessenen Einsatzes der täglichen Migräneprävention erzielt werden könnten.;-;-;-;https://link.springer.com/article/10.1007/s10194-007-0369-8 9df9cf87882fb78e210ed45e0a9c78fb;de;;;6.2.;;;Dicken-, Porositäts- und Permeabilitätsvorhersage: vergleichende Studien und Anwendung der geostatistischen Modellierung in einem Ölfeld In dieser Studie haben wir die geostatistische Modellierung angewendet, um ein Ölfeld zu analysieren. Die Lagerstätteneigenschaften, Dicke, Porosität und Permeabilität wurden untersucht. Datenanalysetools wie Histogramm, Streudiagramm, Variogramm und Kreuzvariogrammmodellierung wurden verwendet, um die interpretierbare räumliche Struktur zu erfassen und die gewünschten Eingabeparameter für die weitere Schätzung bereitzustellen. Zur Schätzung der Lagerstätteneigenschaften wurden die Methoden SK (einfaches Kriging), OK (gewöhnliches Kriging), Sgism (sequentielle Gaußsche Simulation), SC (einfaches Cokriging), OC (gewöhnliches Cokriging) und MM2 (Markov Modell 2) angewendet. Es wurden Schätzdifferenzkarten erstellt, um die Ergebnisse jeder Methode zu vergleichen und auf visuelle Weise einfachere Realisierungen zu ermöglichen.;-;-;-;https://link.springer.com/article/10.1186/2193-2697-3-7 eecd918b8bd33bb7eb0073e8d0b0ffbc;de;;;6.2.;;;Eine Überprüfung der Fälle von Rindern, die in den Jahren 2006 bis 2008 mit Veterinärbescheinigung zur Not- und Unfallschlachtung in Irland transportiert wurden Die Not- und Unfallschlachtung von Rindern für den menschlichen Verzehr (in Fällen, in denen Tiere wahrscheinlich an akuten bzw. Farm durch den privaten Tierarzt (PVP) des Eigentümers. In Irland sind derzeit keine veröffentlichten Daten verfügbar, die auf den in diesen VCs enthaltenen Informationen basieren. In diesem Papier präsentieren wir einen Überblick über Fälle von Rindern, die in den Jahren 2006 bis 2008 mit Veterinärbescheinigung zur Not- und Unfallschlachtung in Irland verbracht wurden. Alle VCs der Jahre 2006 (sofern verfügbar), 2007 und 2008 wurden von vier großen irischen Schlachthöfen gesammelt. Die Daten wurden computerisiert und mit deskriptiven und räumlichen Methoden analysiert. Insgesamt wurden 1.255 VCs in die Studie aufgenommen (1.255 Studientiere, 1.072 Studienherden), 798 (63,6%) und 457 (36,4%) Tiere wurden zur Not- bzw. Unfallschlachtung gebracht. VCs wurden das ganze Jahr über abgeschlossen, wobei die gelieferten Tiere eine durchschnittliche Entfernung von 27,2 km vom Betrieb bis zur Schlachtung zurücklegten. Die Zeitspanne zwischen tierärztlicher Bescheinigung und Schlachtung betrug bei 18,2 % aller Versuchstiere mehr als drei Tage. Bei 965 (76,9%) Tieren bestand der zertifizierte Verdacht auf Behinderung im Zusammenhang mit dem Bewegungsapparat, am häufigsten infolge von Frakturen. Von den Tieren, für die Daten verfügbar waren, wurden 11,9% bei der Obduktion vollständig verurteilt. Der Transport von Tieren mit gebrochenen Gliedmaßen und/oder anderen schmerzhaften Erkrankungen ist ein erhebliches Tierschutzproblem.;-;-;-;https://link.springer.com/article/10.1186/2046-0481-63-9-568 a13798d8047516bcae1ff772e9ee84a4;de;;;6.2.;;;Eine kompromisslose Architektur für die digitale Dokumentenarchivierung Das multivalente Dokumentenmodell bietet eine praktische, bewährte, kompromisslose Architektur zum Aufbewahren digitaler Dokumente potenziell jedes Datenformats. Wir haben so komplexe und derzeit wichtige Formate wie PDF und HTML sowie ältere Formate wie gescanntes Papier, UNIX-Handbuchseiten, TeX DVI und Apple II AppleWorks Textverarbeitung von Grund auf neu implementiert. Die Architektur, die seit ihrer Definition im Jahr 1997 stabil ist, lässt sich problemlos auf zusätzliche Dokumentformate ausdehnen, definiert eine formatübergreifende Dokumentenbaum-Datenstruktur, die Semantik und Layout vollständig erfasst, unterstützt den vollständigen Ausdruck der oft idiosynkratischen Konzepte und des Verhaltens eines Formats, ermöglicht die gemeinsame Nutzung von Funktionen über mehrere Formate reduzieren so den Implementierungsaufwand, können neue Funktionen wie Hyperlinks und Anmerkungen zu älteren Formaten einführen, die sie nicht ausdrücken können, und bietet eine einzige Schnittstelle (API) für alle Formate. Multivalent steht in scharfem Kontrast zu Emulation und Konvertierung und erweitert Lories Universal Virtual Computer mit einer High-Level-Architektur und einer umfassenden Implementierung.;-;-;-;https://link.springer.com/chapter/10.1007/11551362_24 060cb5f87f6e996f59919cfe3fc8e2e6;de;;;6.2.;;;Genauigkeit und Grenzen der kontinuierlichen Glukoseüberwachung mittels Spektroskopie bei kritisch kranken Patienten OptiScanner-Geräte, kontinuierliche Glukoseüberwachungsgeräte, die automatisierte Blutentnahmen über einen zentralen Venenkatheter durchführen und Plasma durch Zentrifugation erzeugen, messen den Plasmaglukosespiegel durch Spektroskopie im mittleren Infrarot am Krankenbett. Das Ziel dieser Studie war es, die Genauigkeit und Praktikabilität der Geräte bei kritisch kranken Patienten, die versuchen, den Blutzucker zu kontrollieren, zu bestimmen.;-;-;-;https://link.springer.com/article/10.1186/2110-5820-4-8 93144739ecda65a51bbb78d2a3d59aaf;de;;;6.2.;;;Interdisziplinäre Kooperationen bei der Entstehung von digitalem Tanz und Performance: Eine kritische Prüfung In diesem Kapitel wird die Konvergenz zwischen leistungsbasiertem Kulturerbe und neuen Technologien untersucht, wobei der Schwerpunkt auf interdisziplinären Kooperationen bei Gestaltungs- und Herstellungsprozessen liegt. Diese interdisziplinären Arbeitsräume bergen ein enormes Potenzial für innovatives Kunstschaffen, da sie tiefe Kenntnisse der Künste und künstlerische Sensibilität mit einem fundierten Verständnis von Technologiesprachen und -möglichkeiten verbinden. Gleichzeitig konzipieren interdisziplinäre Kooperationen am Zusammenfluss unterschiedlicher Praxis- und Forschungsfelder mit unterschiedlichen Epistemologien und Ansätzen nicht nur neue Wege des Kunstmachens: Sie tragen zu Synergien zwischen Kunst- und Technologiefeldern bei und markieren Orte der Kreuzung -Befruchtung, Verwischen von Grenzen und Beeinflussung ihrer Entwicklung. Durch eine genaue Analyse interdisziplinärer Vorhaben zur Herstellung digitaler Performance zeigen wir, wie die kreative Arbeit in gemischten Teams aus Performancekünstlern, Forschern und Praktikern einerseits und Forschern aus technologie- und designorientierten Disziplinen andererseits maßgeblich zur Entwicklung beiträgt von dem, was wir 'interdisziplinäre Kunstlandschaften' und 'interdisziplinäre Wissenslandschaften' nennen. Diese Räume bieten einen fruchtbaren Boden für kreative Initiativen und Wissensfortschritte, die sich auf integrierte Perspektiven, Theorien, Methoden und Ansätze aus den Bereichen Kunst und Technologie stützen. Gemeinsam tragen interdisziplinäre Kunstlandschaften und interdisziplinäre Wissenslandschaften dazu bei, die Grenzen des Denkens und Kunstschaffens zu öffnen und zu verschieben, selbstverständliche Annahmen zu überdenken und radikal neue Kunstformen zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-29544-2_2 9717224fcac348c6458d7ba2b25dfe1b;de;;;6.2.;;;Urin-Interleukin-18 und Cystatin-C als Biomarker einer akuten Nierenschädigung bei kritisch kranken Neugeborenen Interleukin-18 und Cystatin-C im Urin werden als Biomarker für die Vorhersage einer akuten Nierenschädigung (AKI) vorgeschlagen. Das Ziel dieser Studie besteht darin, zu untersuchen, ob die Urinkonzentrationen von Interleukin-18 und Cystatin-C mit dem Gestationsalter und anderen Faktoren bei Nicht-AKI-Kontrollneugeborenen variieren, und zu bestimmen, ob Interleukin-18 und Cystatin-C im Urin die Entwicklung von AKI vorhersagen können bei nicht-septischen kritisch kranken Neugeborenen, unabhängig von möglichen Störfaktoren.;-;-;-;https://link.springer.com/article/10.1007/s00467-011-2072-x ed0c41fbd043b6e73dd743437f5eb0d3;de;;;6.2.;;;Kleine zeitliche Unterschiede in der Wasseraufnahme zwischen Perlhirsesorten ( Intuitiv ist der Zugang zu Wasser aus dem Boden in phänologischen Schlüsselstadien wichtig für die Anpassung an Trockenheit. Diese Studie zielte darauf ab, das zeitliche Muster der Wasserentnahme unter terminalem Trockenstress zu bewerten.;-;-;-;https://link.springer.com/article/10.1007/s11104-013-1706-0 ef251923c22a75e0fbde60377794e84d;de;;;6.2.;;;Vor der Pandemie 2020: eine Beobachtungsstudie zur Untersuchung des öffentlichen Wissens, der Einstellungen, Pläne und Präferenzen in Bezug auf Sterbefälle und Sterbebegleitung in Wales Das Verständnis der öffentlichen Einstellungen zu Tod und Sterben ist wichtig, um die öffentliche Politik rund um die End of Life Care (EoLC) zu informieren. Wir haben die öffentliche Einstellung zu Tod und Sterben in Wales untersucht.;-;-;-;https://link.springer.com/article/10.1186/s12904-021-00806-2 4aee199544953ac570ef8f576d131413;de;;;6.2.;;;SOMMER-Studie: Netz- versus Nahtreparatur bei kleinen Nabelhernien bei Erwachsenen – ein Studienprotokoll für eine prospektive randomisierte, doppelblinde, multizentrische klinische Studie Die Reparatur kleiner Nabelhernien ist eine der häufigsten chirurgischen Leistungen in der Allgemeinchirurgie. Ein Goldstandard-Verfahren für die Reparatur fehlt jedoch bis heute. Es gibt zunehmend Hinweise darauf, dass Netze im Vergleich zur Nahtreparatur vorteilhaft sein könnten, um die Rezidivrate zu senken. Eine weitere wichtige Frage bleibt hinsichtlich der optimalen anatomischen Positionierung des Netzes. Wir gehen davon aus, dass die Verwendung eines Onlay-Netzes bei kleinen Nabelherniendefekten die Rezidivrate reduzieren kann, ohne die Komplikationen im Vergleich zu einer einfachen Nahtreparatur zu erhöhen.;-;-;-;https://link.springer.com/article/10.1186/s13063-021-05366-7 7135e79cff3e63eed553b4e765916a1f;de;;;6.2.;;;Die Rolle der Wirkungsbewertung bei der evidenzbasierten Hochschulpolitik: Der Beitrag von Transparenzinstrumenten In diesem Artikel analysieren wir die im rumänischen Hochschulsektor eingeleiteten und erprobten politischen Maßnahmen, um die Informationsasymmetrie zwischen den Bildungsanbietern und den übrigen Interessengruppen zu verringern. Die Notwendigkeit einer Hochschulpolitik wird durch den öffentlichen Charakter der Bildung und auch durch die Informationsunterschiede und -lücken ausgelöst, die angesichts des langfristigen Investitionscharakters der angebotenen Dienstleistungen inhärent sind. In diesem Zusammenhang stehen mehrere Transparenzinstrumente zur Verfügung, die von staatlichen Eingriffen bis hin zur sektoralen Selbstregulierung reichen. Der Artikel bewertet die potenziellen Ex-ante-Auswirkungen verschiedener politischer Optionen und der Umsetzung von U-Multirank insbesondere in Rumänien und argumentiert, dass eine sektorale Selbstregulierung durch freiwillige Teilnahme an U-Multirank, ergänzt durch die Entwicklung eines Benchmarking-Systems, die machbarste politische Option zur Verbesserung der Transparenz und der sozialen Verantwortung der Hochschuleinrichtungen in Rumänien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08054-3_2 90c86847126a593d77efc25079a2aecc;de;;;6.2.;;;Umsetzung umfassender Prävention der Mutter-Kind-Übertragung und HIV-Prävention für südafrikanische Paare: Studienprotokoll für eine randomisierte kontrollierte Studie Im ländlichen Südafrika nutzten 2010 nur zwei Drittel der HIV-positiven schwangeren Frauen, die eine Schwangerschaftsvorsorge in kommunalen Gesundheitszentren suchten, die Dienste zur Prävention der Mutter-Kind-Übertragung (PMTCT). PMTCT, aber die Art und die Auswirkungen dieser Beteiligung sind unklar und ungetestet. Darüber hinaus stellen Stigmatisierung, Offenlegung und Gewalt in der Partnerschaft erhebliche Hindernisse für die Aufnahme und Beibehaltung von PMTCT in der Pflege dar, was darauf hindeutet, dass die Beteiligung von Männern „notwendig, aber nicht ausreichend“ ist, um die HIV-Inzidenz bei Säuglingen zu reduzieren. Diese Studie baut auf einer erfolgreichen PMTCT-Paarinterventions-Pilotstudie des US-Präsidenten mit Unterstützung des Emergency Plan for AIDS Relief (PEPFAR) auf, die in der Provinz Mpumalanga durchgeführt wurde und sich an HIV-positive schwangere Frauen und ihre Partner richtet und eine Verhaltensintervention wird die HIV-Inzidenz bei Säuglingen signifikant reduzieren.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-15-417 2b17cac3603fb2ea2a9573450a5fce15;de;;;6.2.;;;Evaluation einer gemeindebasierten Intervention zur gesundheitlichen und wirtschaftlichen Stärkung von marginalisierten Frauen in Indien Befähigte Frauen haben eine verbesserte Entscheidungsfähigkeit und können einen gleichberechtigten Zugang zu Gesundheitsdiensten fordern. Gemeinschaftliche Interventionen, die auf dem Aufbau von Frauengruppen zur Sensibilisierung für die Gesundheit von Müttern und Kindern (MCH) basieren, sind die besten und kostengünstigsten Ansätze, um ihren Zugang zu Gesundheitsdiensten zu verbessern. Die vorliegende Studie evaluierte eine gemeinschaftsbasierte Intervention, die darauf abzielte, das Bewusstsein und die Nutzung von MCH-Diensten durch marginalisierte Frauen sowie den Zugang zu Lebensunterhalt und Ersparnissen zu verbessern, wobei der Peer-led-Ansatz aus zwei indischen Distrikten verwendet wurde.;-;-;-;https://link.springer.com/article/10.1186/s12889-020-09884-y 3106ad40ccd4deadb7dca2446c71b255;de;;;6.2.;;;Die Rolle des Tabak- und Alkoholkonsums im Zusammenspiel sozialer Determinanten nichtübertragbarer Krankheiten in Nepal: eine Systemperspektive Tabak- und Alkoholkonsum sind wichtige Verhaltensrisiken in Entwicklungsländern wie Nepal, die zu einem schnellen Anstieg nicht übertragbarer Krankheiten (NCDs) beitragen. Dieser kausale Zusammenhang wird durch die mehrstufigen sozialen Determinanten wie den soziopolitischen Kontext, sozioökonomische Faktoren und Gesundheitssysteme noch komplizierter. Der systemische Ansatz hat das Potenzial, das Verständnis solch komplexer Kausalmechanismen zu erleichtern. Ziel dieser Arbeit ist es, die Rolle des Tabak- und Alkoholkonsums in der Interaktion sozialer Determinanten von nichtübertragbaren Krankheiten in Nepal zu beschreiben.;-;-;-;https://link.springer.com/article/10.1186/s12889-020-09446-2 3ee9072803226a433dadfc1f59823bab;de;;;6.2.;;;Bestimmung von Treibhausgasemissionen und -entfernungen im Zusammenhang mit Landnutzung und Landbedeckungsänderung In diesem Kapitel werden Methoden und Überlegungen zur Quantifizierung der Treibhausgasemissionen (THG) und des Abbaus im Zusammenhang mit Änderungen der Landnutzung und Landbedeckung (LULC) im Kontext der kleinbäuerlichen Landwirtschaft erläutert. Die LULC-Änderung trägt einen beträchtlichen Teil zu den globalen anthropogenen Treibhausgasemissionen bei, die 12,5 % der Kohlenstoffemissionen von 1990 bis 2010 ausmachten (Biogeosciences 9:5125–5142, 2012). Die Quantifizierung der Emissionen von LULC-Änderungen bleibt jedoch eine der unsichersten Komponenten bei der Kohlenstoffbilanzierung, insbesondere in Landschaften, die von kleinbäuerlicher Landwirtschaft dominiert werden (Mitig Adapt Strateg Glob Chang 12:1001–1026, 2007, Biogeosciences 9:5125–5142, 2012, Glob Chang 18:2089–2101, 2012). Die derzeitigen LULC-Überwachungsmethoden sind für die Größe des Landbesitzes und die schnellen Veränderungen von einer Landnutzung zu einer anderen, die typischerweise in kleinbäuerlichen Landschaften zu finden sind, nicht gut geeignet. In diesem Kapitel schlagen wir eine Reihe von Methoden zur Schätzung der Nettoveränderungen der Treibhausgasemissionen vor, die speziell auf die Bedingungen der kleinbäuerlichen Landwirtschaft eingehen. Wir stellen Methoden vor, die eine Reihe von Ressourcenanforderungen und Genauigkeit umfassen, und die Kompromisse zwischen Kosten und Genauigkeit werden speziell diskutiert. Das Kapitel beginnt mit einer Einführung in bestehende Protokolle, Standards und internationale Berichtsrichtlinien und wie sie sich auf die Quantifizierung, Analyse und Berichterstattung von Treibhausgasemissionen und -entfernungen aus LULC-Änderungen beziehen. Wir stellen allgemeine Überlegungen und Methoden vor, die für kleinbäuerliche Agrarlandschaften spezifisch sind, um Aktivitätsdaten zu generieren, diese mit THG-Emissionsfaktoren zu verknüpfen und Unsicherheiten zu bewerten. Anschließend stellen wir methodische Optionen, zusätzliche Überlegungen und Mindestdatensätze zur Verfügung, die erforderlich sind, um die unterschiedlichen Ebenen der Berichtsgenauigkeit zu erfüllen, die von kostengünstigen Ansätzen mit hoher Unsicherheit bis hin zu kostenintensiven Ansätzen mit geringer Unsicherheit reichen. Technische Schritt-für-Schritt-Details zu vorgeschlagenen Ansätzen finden Sie auf der zugehörigen Website.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-29794-1_3 c81063c04362676140e2f9ee252ea2cf;de;;;6.2.;;;Indikatoren für Mobilität, sozioökonomische Schwachstellen und HIV-Risikoverhalten mobiler Sexarbeiterinnen in Indien Dieses Papier untersucht den Zusammenhang zwischen Mobilitätsindikatoren, sozioökonomischer Vulnerabilität und HIV-Risikoverhalten bei 5.498 mobilen Sexarbeiterinnen (FSWs), die in den vier Bundesstaaten mit hoher HIV-Prävalenz in Indien leben. Sexarbeiterinnen mit höherer Mobilität gaben signifikant häufiger an als die FSWs mit geringerer Mobilität, dass sie körperliche Gewalt erfahren und vor dem Sex Alkohol konsumiert haben. Darüber hinaus berichteten FSWs mit einem höheren Mobilitätsgrad signifikant häufiger als die FSWs mit einem geringeren Mobilitätsgrad, dass sie beim Sex mit Kunden inkonsistente Kondome verwenden, selbst nachdem mehrere demografische Merkmale und sozioökonomische Anfälligkeiten einschließlich Gewalterfahrungen kontrolliert wurden. Zusätzlich Kurzbesuche und Besuch der;-;-;-;https://link.springer.com/article/10.1007/s10461-011-9937-7 cfe2367d1a76ad114905385d5900aec6;de;;;6.2.;;;Neugeborenenuntersuchung im Kreißsaal – Versuch zur Bewertung eines bestimmten Apgar-Typs (TEST-Apgar) Da eine objektive Beschreibung wichtig ist, um den postnatalen Zustand des Säuglings und die Wirksamkeit von Interventionen zu bestimmen, wurden in der Vergangenheit zwei Scores vorgeschlagen, die jedoch noch nicht getestet wurden: Der Specified-Apgar verwendet die 5 Elemente des konventionellen Apgar-Scores, beschreibt jedoch den Zustand unabhängig Schwangerschaftsalter (GA) oder Wiederbelebungsmaßnahmen. Das Expanded-Apgar misst Interventionen, die erforderlich sind, um diesen Zustand zu erreichen. Wir stellten die Hypothese auf, dass die Kombination von beiden (Combined-Apgar) den postnatalen Zustand von Frühgeborenen besser beschreibt als einer der Scores allein.;-;-;-;https://link.springer.com/article/10.1186/s12887-015-0334-7 4a2ed41cb35103fec6a29cd94e1d3930;de;;;6.2.;;;Wissen über Bluthochdruck und Therapietreue bei Bluthochdruckpatienten im Gesundheitsdistrikt Bamenda in Kamerun: Eine Querschnittsstudie Die Prävalenz von Bluthochdruck hat weiter zugenommen und stellt heute eine große Belastung für die Gesundheitsdienstleister dar. Daher ist es wichtig, Informationen über die Faktoren zu erhalten, die die Compliance von Antihypertensiva beeinflussen. Das Ziel dieser Studie war es, das Wissen über Bluthochdruck zu bewerten und Faktoren zu bestimmen, die die Compliance von Bluthochdruckpatienten gegenüber ihren blutdrucksenkenden Medikamenten beeinflussen.;-;-;-;https://link.springer.com/article/10.1007/s40119-016-0079-x f682387d53e5ae89dafacabf1a1f3a93;de;;;6.2.;;;Gene, die die Initiation und das Wachstum der Kartoffelknollen antreiben: Identifizierung anhand von Transkriptionsänderungen mit dem POCI-Array Die zunehmende Menge an verfügbaren exprimierten Gensequenzdaten ermöglicht die Analyse des gesamten Transkriptoms bestimmter Pflanzenarten. Kartoffel hat derzeit die zweitgrößte Anzahl öffentlich verfügbarer Expressions-Sequenz-Tag-(EST)-Sequenzen unter den Solanaceae. Die meisten dieser ESTs sowie andere proprietäre Sequenzen wurden kombiniert und verwendet, um eine unigene Anordnung zu erzeugen. Der Satz von 246.182 Sequenzen produzierte 46.345 Unigene, die verwendet wurden, um ein 44K 60-mer Oligo-Array (Potato Oligo Chip Initiative: POCI) zu entwerfen. In dieser Studie versuchen wir, Gene zu identifizieren, die den Prozess der Knolleninitiierung und des Wachstums steuern, indem wir groß angelegte Transkriptionsänderungen mit dem neu entwickelten POCI-Array implementieren. Es konnten wichtige Genexpressionsprofile identifiziert werden, die eine unterschiedliche Expression in Schlüsselstadien der Entwicklung aufweisen. Diese Profile wurden mit funktionellen Rollen bei der Zellteilung und dem Wachstum in Verbindung gebracht. Eine Untergruppe von Genen, die an der Regulierung des Zellzyklus beteiligt sind, zeigt basierend auf ihrer Gene-Ontologie-Klassifikation eine klare vorübergehende Hochregulierung zu Beginn der Knollen, was auf eine erhöhte Zellteilung während dieser Stadien hindeutet. Das POCI-Array ermöglicht die Untersuchung der Kartoffelgenexpression auf einem viel breiteren Niveau als bisher möglich und wird die Analyse von transkriptionalen Kontrollmechanismen in einem breiten Spektrum von Kartoffelforschungsbereichen erheblich verbessern. POCI-Sequenz- und Anmerkungsdaten sind über die POCI-Datenbank öffentlich verfügbar (;-;-;-;https://link.springer.com/article/10.1007/s10142-008-0083-x fd16973f7a2eaea823fb9b78cfd7f542;de;;;6.2.;;;Prävalenz, Symptomatik, Risikofaktoren und Inanspruchnahme von Gesundheitsleistungen bezüglich väterlicher Depression in Deutschland: Studienprotokoll einer kontrollierten epidemiologischen Querschnittstudie Während die Wochenbettdepression eine gut erforschte Störung bei Müttern ist, gibt es immer mehr Hinweise darauf, dass einige Väter auch depressive Symptome entwickeln (paternale Wochenbettdepression, PPD). Eine kürzlich durchgeführte Metaanalyse ergab eine Gesamtprävalenz väterlicher Depressionen während der Schwangerschaft und bis zu einem Jahr nach der Geburt von 8,4 %, wobei eine signifikante Heterogenität der Prävalenzraten beobachtet wurde. Internationale Studien legen nahe, dass PPD durch zusätzliche Symptome im Vergleich zur mütterlichen Wochenbettdepression gekennzeichnet ist. Darüber hinaus wurden verschiedene Risikofaktoren für PPD identifiziert. Die Prävalenz, Symptomatik, Risikofaktoren und Gesundheitssituation der von PPD betroffenen Väter in Deutschland sind jedoch unbekannt.;-;-;-;https://link.springer.com/article/10.1186/s12888-019-2280-7 d7bb74cb31a5537321b0e96d93415673;de;;;6.2.;;;Eins plus eins gleich zwei – geht das? Ein Studienprotokoll für eine schwedische multizentrische randomisierte kontrollierte Studie zur Evaluierung einer klinischen Praxis zur Reduzierung schwerer Perinealtraumata Ein schweres perineales Trauma während der Geburt ist eine schwerwiegende Komplikation, da es für Frauen sowohl kurz- als auch langfristige Folgen haben kann. Einige der Methoden zur Vorbeugung von Dammverletzungen wurden in klinischen Studien evaluiert, aber es gibt noch Lücken in der Evidenz. Eine neue klinische Praxis wurde eingeführt, die von mehr als der Hälfte der Entbindungsstationen in Schweden übernommen wurde, um schwere Dammtraumata zu reduzieren. Bei diesem Verfahren unterstützen zwei Hebammen die Frau in der zweiten Phase der Wehentätigkeit.;-;-;-;https://link.springer.com/article/10.1186/s13063-020-04837-7 15ca15eb4a6e72b072c9296a584f7902;de;;;6.2.;;;dbVOR: ein Datenbanksystem zum Importieren von Stammbaum-, Phänotyp- und Genotypdaten und Exportieren ausgewählter Teilmengen Wenn wir die Genetik eines menschlichen Merkmals untersuchen, müssen wir normalerweise sowohl genomweite als auch gezielte Genotypdaten verwalten. Es kann zu Überschneidungen sowohl von Personen als auch von Markern aus verschiedenen Genotypisierungsexperimenten kommen, die Überschneidung kann verschiedene Arten von Problemen mit sich bringen. Meistens sind die überlappenden Genotypen gleich, aber manchmal sind sie unterschiedlich. Gelegentlich gibt das Labor Genotypen mit einem anderen Allel-Kennzeichnungsschema zurück (z. B. 1/2 vs. A/C). Manchmal ist der Genotyp für einen Personen-/Marker-Index unzuverlässig oder fehlt. Darüber hinaus werden im Laufe der Zeit einige Marker zusammengeführt und fehlerhafte Proben werden unter einem anderen Probennamen erneut ausgeführt. Wir benötigen ein konsistentes Bild der Teilmenge der Daten, mit denen wir arbeiten möchten, auch wenn möglicherweise widersprüchliche Messungen aus mehreren Datenquellen vorliegen.;-;-;-;https://link.springer.com/article/10.1186/s12859-015-0505-4 cffa3509e4246af15d17195ed25820f1;de;;;6.2.;;;Der Einfluss von HIV/AIDS auf die Compliance mit Antidepressiva bei schweren depressiven Störungen: Eine prospektive Studie in einer südafrikanischen privaten Gesundheitskohorte MDD und HIV/AIDS haben weltweit eine hohe Prävalenz mit schwerwiegenden Folgen für die Patienten. Bei beiden Erkrankungen ist die Einhaltung der Behandlung der Schlüssel zur erfolgreichen Behandlung dieser Störungen. In der aktuellen Studie untersuchen wir die Wirkung von MDD auf die Compliance mit ADs bei Patienten mit diagnostizierter komorbider HIV/AIDS und wie verschiedene Klassen von ADs die Compliance in dieser Patientengruppe beeinflussen.;-;-;-;https://link.springer.com/article/10.1186/s12981-015-0050-2 58269ab703208810742f5cabc808ba64;de;;;6.2.;;;Wie stabil ist die Lungenfunktion bei Patienten mit stabiler chronisch-obstruktiver Lungenerkrankung bei Überwachung mit einem Telemedizinsystem? Eine Längsschnitt- und Heimstudie Viele Telemedizinsysteme wurden entwickelt, um Anzeichen von Exazerbationen bei Patienten mit chronisch obstruktiver Lungenerkrankung (COPD) zu erkennen, aber nur wenige frühere Studien haben die Art der aufgezeichneten Lungenfunktionsdaten und die zu erwartenden Variationen bei dieser Personengruppe berichtet. Ziel der Studie war es, die Art der individuellen Tages-, Tages- und Langzeitvariation wichtiger prognostischer Marker von COPD-Exazerbationen durch den Einsatz eines selbst entwickelten Telemedizinsystems zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s12911-020-1103-6 059cb86fb71a9cfa812ab700dbb3bd55;de;;;6.2.;;;Gewaltkriminalität väterlicherseits und Frühgeburt: eine schwedische nationale Kohortenstudie Väter können die alltägliche Lebenssituation der werdenden Mütter beeinflussen, was wiederum die Schwangerschaftsergebnisse beeinflussen kann. Wir untersuchten den Zusammenhang zwischen väterlicher Gewaltkriminalität und dem Risiko einer Frühgeburt (≤36 Wochen).;-;-;-;https://link.springer.com/article/10.1186/s12884-020-02964-2 eea19224de046f7351a1505f86e9161d;de;;;6.2.;;;Epidemiologie der Demenz in Zentralafrika (EPIDEMCA): Protokoll für eine multizentrische bevölkerungsbasierte Studie in ländlichen und städtischen Gebieten der Zentralafrikanischen Republik und der Republik Kongo Die Weltbevölkerung altert und der Anteil der älteren Menschen über 60 wird in den Ländern mit niedrigem und mittlerem Einkommen (LMIC) voraussichtlich dramatisch ansteigen. Die Demenz-Epidemie wird auch jene Länder nicht verschonen, in denen der größte Anstieg der Zahl der Betroffenen geschätzt wird. Außerdem wird Demenz in Subsahara-Afrika (SSA) im Vergleich zu anderen Regionen noch wenig erforscht. Dieses Papier beschreibt das Protokoll der bevölkerungsbasierten Studie „Epidemiology of Demenz in Central Africa“, die darauf abzielt, die Prävalenz von Demenz in zwei Ländern Zentralafrikas abzuschätzen und mögliche Risikofaktoren zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/2193-1801-3-338 32868e51f6cfdbd5d264d96f7ee923d8;de;;;6.2.;;;Der intelligente Zähler und ein intelligenter Verbraucher: Quantifizierung der Vorteile der Einführung von intelligenten Zählern in den Vereinigten Staaten Das Stromnetz in den Vereinigten Staaten leidet seit Jahren unter Unterinvestitionen und steht nun vor drängenden Herausforderungen durch steigende Nachfrage und sich verschlechternde Infrastruktur. Hohe Engpässe in den Übertragungsleitungen verringern die Effizienz der Stromerzeugung und -verteilung erheblich. In diesem Papier bewerten wir die Fehler des aktuellen Stromnetzes und quantifizieren die Kosten für die Aufrechterhaltung des aktuellen Systems in der Zukunft. Während das vorgeschlagene „Smart Grid“ viele Vorschläge zur Modernisierung der maroden Infrastruktur des Stromnetzes enthält, argumentieren wir, dass die Installation von Smart Meter in jedem US-Haushalt eine erhebliche Reduzierung der Spitzennachfrage des aktuellen Systems bieten wird. Ein Smart Meter ist ein Gerät, das den Stromverbrauch eines Haushalts in Echtzeit überwacht und die Echtzeit-Preise in jedem Haushalt anzeigen kann. Wir kommen zu dem Schluss, dass diese Geräte Versorgern und Verbrauchern kurz- und langfristige Vorteile bieten werden. Der Smart Meter wird es Versorgungsunternehmen ermöglichen, den Stromverbrauch in Echtzeit genau zu überwachen, während Haushalte gleichzeitig den Stromverbrauch als Reaktion auf Preisanpassungen in Echtzeit anpassen können.;-;-;-;https://link.springer.com/article/10.1186/1752-153X-6-S1-S5 b2770a54a83c0c677cd4450b60f58e5c;de;;;6.2.;;;AGN bei sehr hohen Energien: Kosmische Beschleuniger und Raumzeitsonden Während des letzten Jahrzehnts entstand die sehr hochenergetische Astrophysik als ein neuer Zweig der Astronomie mit wichtigen Entdeckungen, die von den heutigen bodengestützten Gammastrahlen-Tscherenkow-Teleskopen erzielt wurden. Die Stichprobe kosmischer Quellen, die bei sehr hoher Energie (VHE) fest nachgewiesen wurden, umfasst jetzt mehr als zweihundert Objekte, darunter aktive galaktische Kerne (AGN), Pulsarwindnebel und mehrere andere Arten von Quellen, von denen eine beträchtliche Anzahl nicht identifiziert ist. Die wissenschaftlichen Ergebnisse der jüngsten VHE-Daten sind für die AGN-Wissenschaft besonders interessant, da sie neues Licht auf Teilchenbeschleunigungs- und Emissionsprozesse um supermassereiche Schwarze Löcher werfen und den intergalaktischen Raum durch die Analyse von VHE-Photonen untersuchen, die sich von hellen entfernten Quellen zur Erde ausbreiten. Die Perspektiven dieses Forschungsfeldes sind vielversprechend mit VHE-Instrumenten der neuen Generation wie CTA, einem Projekt eines offenen Observatoriums bei extremen Energien am Horizont 2023, das eine tiefe Analyse des Himmels im höchsten Teil des elektromagnetischen Spektrums von 20 GeV bis . ermöglicht 300 TeV.;-;-;-;https://link.springer.com/article/10.1007/s12036-018-9547-0 e8362c5c8a8fae1c9d93dad31c97b0d9;de;;;6.2.;;;Die gelebte Erfahrung somalischer Frauen bei der Geburt in Schweden: eine interpretative phänomenologische Studie Das Verhalten somalischer Frauen in Bezug auf Gesundheitsversorgung unterscheidet sich vom Verhalten schwedischer Frauen, und dies kann Konsequenzen für die Geburt haben. Ziel der Studie war es, die Lebenserfahrung somalischer Frauen bei der Geburt in Schweden zu identifizieren und zu beschreiben.;-;-;-;https://link.springer.com/article/10.1186/s12884-020-02933-9 f14d56f9ec0e8cc69a51f1cf8e195bc7;de;;;6.2.;;;Aktuelle Erkenntnisse zu renalen Ziliopathien: Was kann uns die Genetik lehren? Ziliopathien sind eine Gruppe klinisch und genetisch überlappender Erkrankungen, deren Ätiologie in defekten Zilien liegt. Dies sind antennenartige Organellen auf der apikalen Oberfläche zahlreicher Zelltypen in einer Vielzahl von Geweben und Organen, einschließlich der Niere. Zilien spielen eine wesentliche Rolle während der Entwicklung und der Gewebehomöostase, und ihre Dysfunktion in der Niere wurde mit der Bildung von Nierenzysten und Nierenversagen in Verbindung gebracht. Kürzlich wurde der Begriff „renale Ziliopathien“ für jene humangenetischen Erkrankungen geprägt, die durch Nephronophthise, zystische Nieren oder renale zystische Dysplasie gekennzeichnet sind. Dieser Review konzentriert sich auf renale Ziliopathien aus humangenetischer Sicht. Wir erheben die neuesten Erkenntnisse in Bezug auf Genidentifikation und Genotyp-Phänotyp-Korrelationen und reflektieren mögliche Ziliopathien. Darüber hinaus werden die Chancen und Herausforderungen des Next-Generation-Sequencing (NGS) für die genetische Nierenforschung und die klinische DNA-Diagnostik erörtert und der Beitrag von NGS zur Entwicklung einer personalisierten Therapie für Patienten mit renalen Ziliopathien diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s00467-012-2259-9 049ec66c650d4a0d09c6d4f605617d57;de;;;6.2.;;;Wahrgenommene Hindernisse und Erleichterungen bei der Verwendung von Ernährungsumstellungen zur CNE-Prävention bei Afroamerikanern mit niedrigem sozioökonomischem Status: eine qualitative Studie Faktoren, die den Einsatz von diätetischen Interventionen zur Veränderung des CNE-Risikos bei Afroamerikanern beeinflussen, sind nicht gut erforscht. Wir untersuchten wahrgenommene Barrieren und Förderer der CNE-Prävention durch Ernährungsumstellungen bei Afroamerikanern mit niedrigem sozioökonomischem Status (SES) und hohem Risiko für CNE.;-;-;-;https://link.springer.com/article/10.1186/1471-2369-15-194 5a3583bcef46c6d59f7a3c71ffa920e2;de;;;6.2.;;;Verfügbarkeit und Abdeckung hydrologischer Daten im US-amerikanischen geologischen Gutachten National Water Information System (NWIS) und US-Umweltschutzbehörde Storage and Retrieval System (STORET) Der Bedarf an einem einheitlichen und verbesserten Datenzugriffssystem für die riesigen hydrologischen Datenbestände des Landes ist in den letzten Jahren gestiegen, da Forscher bestrebt sind, die menschlichen Auswirkungen auf den Wasserkreislauf des Landes besser zu verstehen. Große missionsorientierte Datenspeicher wie das National Water Information System (NWIS) der USGS und das Storage and Retrieval System (EPA STORET) der EPA spielen eine entscheidende Rolle bei der Bereitstellung eines erheblichen Teils der landesweiten Abdeckung, unterscheiden sich jedoch regional in Bezug auf die Abdeckung (Parameter) und Geodatendichte. Neben den Unterschieden in der geografischen Verteilung unterliegen Repositorien in der Regel Änderungen der Leitbilder und haben daher unterschiedliche Schwerpunkte in ihren Datenerhebungsaktivitäten, die sich im Laufe der Zeit ändern. In diesem Beitrag werden die beiden Wasserinformationssysteme nebeneinander gestellt, um die Unterschiede in Bezug auf Reichweite und Inhalt herauszuarbeiten und wie sie sich in Überlagerung ergänzen. Dies geschieht durch den Einsatz einer Reihe von CUAHSI Hydrologic Information Systems-Komponenten, nämlich einer Webservice-Suite namens WaterOneFlow, die die Abfrage des verfügbaren Dateninhalts eines nationalen Wassermetadatenkatalogs ermöglicht, in den diese beiden Informationssysteme integriert wurden.;-;-;-;https://link.springer.com/article/10.1007/s12145-008-0015-2 d24ee50d605b77398b30bddc34e8d5e8;de;;;6.2.;;;Interkultureller Vergleich der fertilitätsspezifischen Lebensqualität bei deutschen, ungarischen und jordanischen Paaren, die ein Kinderwunschzentrum besuchen Nur wenige Studien berichten von interkulturellen Vergleichen zu psychosozialen Folgen von Unfruchtbarkeit. Unterschiede zwischen Gesellschaften mit unterschiedlichen kulturellen Hintergründen wurden aufgedeckt und schienen auf der Bedeutung des Pronatalismus zu beruhen. Unser Ziel war es, interkulturelle Unterschiede in der fertilitätsspezifischen Lebensqualität von infertilen Paaren in Deutschland, Ungarn und Jordanien, die ein Fertilitätszentrum besuchen, in einer Querschnittsstudie zu messen.;-;-;-;https://link.springer.com/article/10.1186/s12955-016-0429-3 1bd7d70583184e58a904eb92df17ad27;de;;;6.2.;;;Eine Bewertung irischer Rinderherden mit nicht eindeutigen serologischen Nachweisen von Rinderbrucellose Seit 1998 ist in Irland ein stetiger Rückgang der Herdenbeschränkungen und der Entvölkerung aufgrund von Rinderbrucellose zu verzeichnen. Es besteht die Sorge, dass die Interpretation von Laborergebnissen zunehmend problematisch werden könnte, da die Brucellose-Prävalenz in Irland sinkt. Daher war der Zweck der aktuellen Studie, den Infektionsstatus irischer Herden und Tiere mit nicht eindeutigen serologischen Nachweisen von Rinderbrucellose zu bewerten. Während 12 Monaten ab dem 1. September 2004 wurden epidemiologische Labor- und Beobachtungsdaten von allen irischen Herden gesammelt, in denen Tierversuche bei mindestens einem Tier mit einem Komplementfixierungstest (CFT) von mehr als Null und/oder einem positiven Ergebnis für das indirekte Enzym festgestellt wurden -linked Immunosorbent Assay (iELISA). Aufgrund des Beobachtungscharakters der Studie liegen uns robuste Schätzungen der relativen, aber nicht der absoluten Leistung des CFT, des iELISA und des Brucelin-Hauttests (BST) vor. Die Herden wurden auf der Grundlage der Testergebnisse bei der Erstbewertung in drei Kategorien (Gruppe A, B oder C) eingeteilt. Insgesamt wurden 639 Herden in die Studie aufgenommen und nach der Aufnahme mindestens zwei Jahre lang beobachtet. Ein steigender CFT-Titer mit einem CFT-Wert von 111 Internationalen CFT-Einheiten (I.E.) oder höher bei der anschließenden Blutuntersuchung wurde im Allgemeinen mit Herden in Verbindung gebracht, bei denen auch andere Anzeichen einer Infektion vorlagen. Die Kenntnis der CFT-Messwerte bei der ersten und einer nachfolgenden Blutuntersuchung erwies sich als nützlich, um falsch-positive und richtig-positive Brucellose-Ergebnisse zu unterscheiden. Es gab eine schlechte Korrelation zwischen den CFT- und iELISA-Ergebnissen sowie zwischen den CFT- und BST-Ergebnissen. Als Ergebnis dieser Studie wurde die nationale Richtlinie dahingehend geändert, dass bei allen Tieren mit CFT-Werten von 20 IE oder mehr erneut Proben entnommen werden. Dieses Projekt hat auch zu einer Verringerung der Anzahl der eingeschränkten Herden sowie der Dauer der Einschränkung geführt. Es hat auch zu einer Verringerung der Anzahl von Herden beigetragen, die für zusammenhängende Tests aufgeführt sind, und daher die Möglichkeit von Kontiguitätstests mit falsch positiven Ergebnissen.;-;-;-;https://link.springer.com/article/10.1186/2046-0481-62-3-182 3e08e3fcb5202783be9f31a1b4f9d9d6;de;;;6.2.;;;Modellierung von Hitzestress unter ökologischen Milchviehhaltungsbedingungen in warm-gemäßigten Klimazonen im Mittelmeerraum Wir haben die Auswirkungen von Hitzestress auf die Milchqualität in spanischen Bio-Milchviehbetrieben anhand von veröffentlichten Gleichungen zur Milchproduktivität untersucht. Wir haben Daten von 23 Wetterstationen und 14.424 Milchtesttagen zu Milchleistung und Milchfett- und Proteingehalt für den Zeitraum Juli 2011 bis Juni 2013 gesammelt. ab 2 Tage vor dem Milchtesttermin. Wir haben die Daten mit hierarchischen Regressionsmodellen angepasst, die nach Betrieb, Kuhparität und monatlichen Milchdatensätzen am Testtag geschichtet sind. Die Wirkung von THI auf die biologischen Kosten durch die Milchleistung wurde als gering eingeschätzt. Allerdings wurde der bekannte negative Zusammenhang zwischen Milchleistung und Milchqualität (Eiweiß- und Fettgehalt) mit steigendem THI noch steiler, was auf eine signifikant negative Korrelation zwischen Hitzestress und Milchqualität schließen lässt. Obwohl die Milchleistung der Kühe in den analysierten ökologischen Landbausystemen gegenüber Hitzestressbedingungen widerstandsfähig erschien, wurde die Milchqualität, ein wichtiges Verkaufsargument für biologische Milchprodukte, negativ beeinflusst. Das hier vorgestellte Modell könnte verwendet werden, um die potenziellen Auswirkungen verschiedener Klimawandelszenarien auf die Milchviehhaltung vorherzusagen und Anpassungsstrategien innerhalb ökologischer Systeme abzuleiten.;-;-;-;https://link.springer.com/article/10.1007/s10584-020-02818-y ea0415424afc590f49a585c6f33ff446;de;;;6.2.;;;Eine leise NICU für verbesserte Gesundheit, Entwicklung und Wohlbefinden von Säuglingen: ein Systemansatz zur Reduzierung von Lärm und akustischen Alarmen Lärm ist eine direkte Ursache für gesundheitliche Probleme, lang anhaltende Hörprobleme und Entwicklungsstörungen. Frühgeborene sind besonders gefährdet für die auditive und neurokognitive Entwicklung. Die Geräuschpegel auf der Neugeborenen-Intensivstation (NICU) sind sehr hoch und können zu den häufig beobachteten negativen Folgen von Frühgeborenen beitragen. Trotz Bemühungen, den Lärmpegel auf der neonatologischen Intensivstation zu reduzieren, haben sich diese in den letzten Jahren nicht geändert. Obwohl viele Autoren darauf hinweisen, dass ein systemischer Ansatz solche zusammenhängenden Probleme lösen könnte, fehlen in der Regel Methoden dafür für die komplizierte Situation in einer Intensivstation. Ein neuer Ansatz wurde entwickelt, nämlich die Kombination von Fuzzy Front End Early Stage Product Development und Human Factors Methoden mit Fokus auf alle Human-Tech Ebenen und deren Interaktion. Es wurde ein Konzept aus mehreren neuen Technologien entwickelt, darunter taktile Alarme, künstliche Intelligenz für die Medizin, multimodale Alarmsysteme und mobile Kommunikation in der Intensivmedizin. Aktuelle und geplante Pflegearbeit wurde modelliert. Ergebnis der Studie ist eine Übersicht über Untersuchungen zur Entwicklung der Maßnahmen.;-;-;-;https://link.springer.com/article/10.1007/s10111-012-0235-6 d08ceb3a8d17370ecaf4a613822ae157;de;;;6.2.;;;Wertsteigerung inmitten ständiger globaler Umstrukturierungen? IT-gestützte Dienste in Indien, auf den Philippinen und in Kenia Informationstechnologiegestützte Dienstleistungen (ITES) sind zu einem vielversprechenden Sektor für viele Volkswirtschaften mit niedrigem und mittlerem Einkommen geworden, die versuchen, die Industrialisierung zu überspringen und wissensintensive Volkswirtschaften aufzubauen. Als ein Sektor, der von sich beschleunigenden Prozessen der Kommodifizierung und des Abbaus von Fähigkeiten definiert wird, muss sein langfristiges Entwicklungsversprechen jedoch sorgfältig geprüft werden. Die Analyse der Entwicklung des Sektors in Indien, den Philippinen und Kenia zeigt sowohl den kontextuellen Charakter vergangener erfolgreicher ITES-Politiken als auch ihre entwicklungspolitischen Schwachstellen. Ausgehend von der Literatur zu Industriepolitik und globalen Wertschöpfungsketten und Produktionsnetzwerken kritisiert der Beitrag die bestehenden Politikansätze, indem er argumentiert, dass diese weitgehend auf die Ermöglichung von Wertschöpfung und die Schaffung von Arbeitsplätzen ausgerichtet sind und Fragen der Wertschöpfung und langfristigen sozialen -Wirtschaftliche Transformation.;-;-;-;https://link.springer.com/article/10.1057/s41287-020-00256-1 375abe1478cf3bf597d560834baf84f7;de;;;6.2.;;;Gutes Kontinuum der HIV-Versorgung in Belgien trotz Schwächen bei der Bindung und Verknüpfung mit der Betreuung unter Migranten care Die belgische HIV-Epidemie konzentriert sich hauptsächlich auf Männer, die Sex mit Männern haben, und auf Afrikaner südlich der Sahara. Wir haben das Kontinuum der HIV-Behandlung der in Belgien lebenden HIV-Diagnose und die damit verbundenen Faktoren untersucht.;-;-;-;https://link.springer.com/article/10.1186/s12879-015-1230-3 3dc591b37965c690a0dc6ceb9382aabb;de;;;6.2.;;;Thermische Spritzanwendungen in Elektronik und Sensorik: Vergangenheit, Gegenwart und Zukunft Thermisches Spritzen hat ein beispielloses Wachstum erfahren und sich als innovative und vielseitige Abscheidungstechnologie entwickelt. Thermische Spritzbeschichtungen sind entscheidend für die verbesserte Nutzung verschiedener technischer Systeme. Die Industrie hat die Vielseitigkeit und Wirtschaftlichkeit des thermischen Spritzens erkannt und es in Fertigungsumgebungen eingeführt. Die meisten modernen thermischen Spritzanwendungen sind „passive“ Schutzschichten, die selten eine elektronische Funktion erfüllen. Die Fähigkeit, Multilayer aus unähnlichem Material ohne thermische Belastung des Substrats zu konsolidieren, gilt seit langem als Vorzug der Dickschichtelektronik. Die Komplexität des Verständnisses/der Kontrolle von Materialfunktionen, insbesondere derjenigen, die sich aus der schnellen Erstarrung und dem Schichtaufbau ergeben, hat jedoch die Expansion in die Elektronik verhindert. Diese Situation ändert sich: Verbesserungen in der Prozess-/Materialwissenschaft ermöglichen eine Überlegung für neue elektronische/sensorische Geräte. Diese Überprüfung untersucht kritisch vergangene Bemühungen in Bezug auf die Materialfunktionalität aus der Sicht des Geräts sowie laufende/zukünftige Konzepte zur Behebung der oben genannten Mängel. Die Analyse weist auf faszinierende zukünftige Möglichkeiten der thermischen Spritztechnologie in der Welt der Dickschichtsensoren hin.;-;-;-;https://link.springer.com/article/10.1007/s11666-010-9475-2 2a27d5f2fa93fa6ee520555e4b719924;de;;;6.2.;;;Wahrnehmungen von Täuschung: Reaktionen auf Mitarbeiterbetrug verstehen In dieser Studie untersuchen wir die Auswirkungen, die die Kundenwahrnehmung von Mitarbeitertäuschung auf die Einstellung der Kunden gegenüber einer Organisation hat. Basierend auf Interview-, Archiv- und Beobachtungsdaten innerhalb der internationalen Luftfahrtindustrie entwickeln wir ein Modell, um die komplexen Auswirkungen wahrgenommener Unehrlichkeit auf die Einstellungen und Absichten der Beobachter gegenüber der Fluggesellschaft zu erklären. Die Daten zeigten drei Arten von wahrgenommener Täuschung (über Überzeugungen, Absichten und Emotionen) und drei zusätzliche Faktoren, die die Absichten und Einstellungen der Kunden beeinflussen: die beteiligten Akteure, die Nutznießer der Täuschung und der durch die wahrgenommene Lüge verursachte Schaden. Wir entwickeln ein Modell mit konkreten Vorschlägen, um Organisationen im Hinblick auf scheinbar betrügerisches Verhalten ihrer Mitarbeiter zu leiten. Es werden Implikationen und Richtungen für zukünftige Forschungen gegeben, die sich auf die Frage konzentrieren, ob Unternehmen Ehrlichkeit konsequent fördern oder ihre Mitarbeiter zu effektiven Lügnern ausbilden sollten.;-;-;-;https://link.springer.com/article/10.1007/s10551-007-9423-3 0df6e3ad10a33bc4e6582549c206b4eb;de;;;6.2.;;;Schulhygiene und Entwurmung sind wichtige Schutzfaktoren, um die Übertragung von bodenübertragenen Helminthen bei Schulkindern in Honduras zu reduzieren Unter vielen vernachlässigten Tropenkrankheiten, die in Honduras endemisch sind, sind Infektionen mit bodenübertragenen Helminthen (STH) von besonderer Bedeutung. Allerdings bleiben Wissenslücken in Bezug auf Risikofaktoren bei der Infektionsübertragung. Ziel dieser Studie war es, Risikofaktoren im Zusammenhang mit STH-Infektionen bei Schulkindern im ländlichen Honduras zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/1756-3305-7-354 3f5f31ae50ad99af742b91e810c1ed74;de;;;6.2.;;;Wirtschaftliche Verluste im Zusammenhang mit der Peste des petits Wiederkäuer in Turkana County Kenia Die Peste des petits ruminants ist eine bedeutende wirtschaftliche Krankheit, von der die Hirten in Kenia betroffen sind. Ausbrüche im Kreis Turkana haben verheerende Auswirkungen auf die Lebensgrundlagen der Turkana. Turkana County ist eine Region, die mit Naturkatastrophen und vom Menschen verursachten Katastrophen, schlechter Infrastruktur und Unsicherheit verbunden ist. Es gibt nur begrenzte wesentliche Daten über Viehkrankheiten und wirtschaftliche Analysen. Diese Studie hat versucht, die direkten wirtschaftlichen Verluste, die durch Ausbrüche der Peste des petits ruminants (PPR) verursacht werden, basierend auf dem wahrgenommenen Verlust von Vorteilen zu schätzen, den die Turkana-Bevölkerung erlitten hat. Parameter für das analytische Modell wurden aus Sekundärdaten, informellen Interviews und fokussierten Gruppendiskussionen mit Methoden der partizipativen Epidemiologie abgeleitet. Die Ergebnisse zeigen, dass die Verluste aufgrund von PPR auf 19,1 Mio. USD geschätzt wurden und die Sterblichkeit kleiner Bestände aufgrund von PPR den größten wirtschaftlichen Verlust darstellte, der mit 16,8 Mio. USD bewertet wurde und 88 % der Gesamtverluste ausmacht. Andere Verluste aufgrund von Milch- und Gewichtsverlust machen etwa 12% der Gesamtverluste aus. PPR hat schwerwiegende wirtschaftliche Auswirkungen auf den Lebensunterhalt der Hirten, und frühere Schätzungen der PPR-Verluste in Kenia waren stark unterbewertet. Diese Studie stärkt die Grundlage für die Entwicklung eines Systems zur ökonomischen Bewertung von Nutztierkrankheiten in Gebieten mit spärlichen Daten auf der Grundlage von Parametern, die aus partizipativen epidemiologischen Ansätzen für die Anwendung im mathematischen Modell abgeleitet werden.;-;-;-;https://link.springer.com/article/10.1186/s13570-015-0029-6 86cae81a695549401a42347d39fb6640;de;;;6.2.;;;Clusterrandomisierte Studie zur intermittierenden präventiven Behandlung von Malaria bei Säuglingen (IPTi) in Südtansania: Bewertung der Auswirkungen auf das Überleben Die intermittierende Präventivbehandlung zur Malariakontrolle bei Säuglingen (IPTi) besteht in der Verabreichung einer Behandlungsdosis eines Malariamedikaments, normalerweise Sulfadoxin-Pyrimethamin, in festgelegten Intervallen, unabhängig vom Vorliegen einer Plasmodium falciparum-Infektion. Eine gepoolte Analyse individuell randomisierter Studien ergab, dass IPTi die klinischen Episoden um 30 % reduzierte. Diese Studie untersuchte die Wirkung von IPTi auf das Überleben von Kindern im Rahmen eines Implementierungsprojekts in fünf Distrikten im Süden Tansanias. [Studienregistrierung: klinische Studien.gov NCT00152204].;-;-;-;https://link.springer.com/article/10.1186/1475-2875-10-387 7aa04eded5f6f814c1cf6767860d2bc0;de;;;6.2.;;;Pflegebereitschaft und -bereitschaft: Interviews mit Personen unterschiedlichen Alters und mit unterschiedlichen Pflegeerfahrungen Die informelle Pflege älterer Angehöriger ist derzeit eine wesentliche Säule des Pflegesystems in Deutschland. Die Auswirkungen des demografischen und sozialen Wandels auf die informelle Pflege bleiben jedoch unklar.;-;-;-;https://link.springer.com/article/10.1186/s12877-021-02149-2 4fdeec621e092d1e7d3188194692276b;de;;;6.2.;;;Digitale Technologien, Big Data und landwirtschaftliche Innovation Innovationen in den landwirtschaftlichen Praktiken und der Leistungsfähigkeit des Lebensmittelsystems sind dringend erforderlich, um effektiv auf die gesellschaftlichen Herausforderungen von heute und morgen reagieren zu können. Die wachsende Bevölkerung, ein sich änderndes Klima, Umweltprobleme und der Bedarf an nahrhafteren und sichereren Nahrungsmitteln sind nur einige dieser Herausforderungen. Als Reaktion darauf werden neue Werkzeuge entwickelt und in landwirtschaftlichen Produktionssystemen eingesetzt, die digitale Technologien und Big Data verwenden. In diesem Kapitel werden das Potenzial für die effektive Implementierung solcher Instrumente und ihre voraussichtlichen Auswirkungen untersucht. Obwohl diese Instrumente die Möglichkeit bieten, die landwirtschaftlichen Produktionsaktivitäten zu messen, ist es wichtig zu betonen, dass die Einführung sowohl von technologischen als auch von wirtschaftlichen Faktoren abhängt. Die Werkzeuge digitaler Technologien und Big Data sind faszinierend, weil ihre Umsetzung eine Schlüsselform der Innovation ist und weil der Einsatz dieser Technologien zusätzliche Innovationen fördern kann, indem bestehende Innovationssysteme noch effektiver gemacht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-50991-0_8 18c2a216bc04b3bafef8b3ad8864fe7b;de;;;6.2.;;;Berichtete Säuglingsernährungspraktiken und kontextuelle Einflüsse auf das Stillen: qualitative Interviews mit bei MomConnect registrierten Frauen in drei südafrikanischen Provinzen Globale Richtlinien empfehlen in den ersten 6 Lebensmonaten ausschließliches Stillen (EBF). Die südafrikanischen EBF-Raten sind stetig gestiegen, aber immer noch durchschnittlich nur 32% für Säuglinge unter 6 Monaten. Unterernährung und Entwicklungsverzögerungen tragen weiterhin erheblich zur Morbidität und Mortalität südafrikanischer Kinder bei. MomConnect, ein nationales mHealth-Nachrichtensystem zum Versenden von Gesundheitsnachrichten für Säuglinge und Mütter während und nach der Schwangerschaft, konzentriert sich insbesondere auf die Verbesserung der Stillraten und hat eine hohe Bevölkerungsabdeckung erreicht.;-;-;-;https://link.springer.com/article/10.1186/s13006-020-00315-7 4cd1601fcdd2857bdfabec100a3f0f97;de;;;6.2.;;;Verbesserung der Widerstandsfähigkeit des Speicherbetriebs im Rahmen der Gewässerregulierung in Finnland Das Resilienzmanagement zielt darauf ab, die Fähigkeit des Systems zu erhöhen, auf unerwünschte Ereignisse zu reagieren. In dieser Studie entwickeln und wenden wir einen strukturierten Rahmen zur Bewertung der Resilienz des Entscheidungsprozesses in Bezug auf die Regulierung von Reservoirs (oder Seen) mit dem Resilienz-Matrix-Ansatz an. Unser Untersuchungsgebiet ist Finnland, wo die Initiativen für die Regulierung typischerweise Wasserkrafterzeugung oder Hochwasserschutz waren, aber heutzutage werden auch Freizeit- und Umweltfragen zunehmend berücksichtigt. Die Hauptziele dieser Studie sind zweierlei. Erstens soll es die Betreiber von Talsperren und die Aufsichtsbehörden von Gewässerregulierungsprojekten bei ihrer Arbeit zur Identifizierung möglicher Bedrohungen und Maßnahmen zur Minderung ihrer Folgen unterstützen. Zweitens wird die Anwendbarkeit des Resilienzmatrix-Ansatzes in einem ziemlich genau definierten Operationsprozess untersucht, da sich die meisten früheren Anwendungen auf einen allgemeineren Kontext konzentriert haben. Unsere Resilienzmatrix wurde in enger Zusammenarbeit mit Lagerstättenbetreibern und Aufsichtsbehörden mittels zweier Workshops und einer Befragung entwickelt. Für die praktische Anwendung der Matrix haben wir ein Bewertungsformular erstellt, um die Widerstandsfähigkeit eines einzelnen Dammbetriebsprozesses und die Kosteneffizienz der identifizierten Maßnahmen zur Verbesserung der Widerstandsfähigkeit zu bewerten. Der Ansatz wurde an einem Staudamm getestet, der den Wasserstand eines mittelgroßen Sees kontrolliert, wo er sich als kompetenter Weg zur systematischen Bewertung der Widerstandsfähigkeit erwiesen hat.;-;-;-;https://link.springer.com/article/10.1007/s40070-019-00099-0 ffc575231fcc1590f9b4751a5e24c661;de;;;6.2.;;;Randomisierte Nichtunterlegenheits- und Sicherheitsstudie mit Dihydroartemisin-Piperaquin und Artesunat-Amodiaquinquin Artemether-Lumefantrin und Artesunat-Amodiaquin sind in Kamerun die Erstlinientherapie der unkomplizierten Malaria. Noch keine Studie hat die Wirksamkeit dieser Medikamente nach der von der WHO empfohlenen Nachbeobachtungszeit von 42 Tagen verglichen. Das Ziel dieser Studie war es, die klinische Wirksamkeit, Verträglichkeit und Sicherheit von Artesunat-Amodiaquin (ASAQ), Artemether-Lumefantrin (AL) und Dihydroartemisinin-Piperaquin (DHAP) bei Kindern unter zehn Jahren in zwei malariaendemischen ökologischen Regionen von Kamerun.;-;-;-;https://link.springer.com/article/10.1186/s12936-014-0521-2 b58c6cd7c23d8601ac2529e4e6184718;de;;;6.2.;;;Zuverlässigkeit und Validität eines neuartigen Kinect-basierten Softwareprogramms zur Messung einer einbeinigen Kniebeuge Die Single Leg Squat (SLS) ist ein Bewegungs-Screening-Test, der in klinischen Einrichtungen weit verbreitet ist. Der SLS ist in seiner Natur sehr subjektiv. Objektive Maßnahmen wie 3D-Bewegungsanalysen werden im klinischen Alltag selten eingesetzt. Ein interaktives, auf Kinect basierendes 3D-Bewegungsanalysesystem, das Qinematic™, wird vorgeschlagen, um in klinischen Umgebungen leicht zur Beurteilung des SLS verwendet zu werden. Ziel dieser Studie war es, die Test-Retest-Reliabilität und Konstruktvalidität von Qinematic™ zur Beurteilung des SLS zu ermitteln. Ein weiteres Ziel war es, Winkel der medialen Knieverschiebung zu identifizieren, um die von Qinematic™ gemessene Unterscheidungsfähigkeit des SLS zusammenzufassen.;-;-;-;https://link.springer.com/article/10.1186/s13102-020-00179-8 d8ea2b564d12d9063f926c9955129a15;de;;;6.2.;;;Fußhaltung als Risikofaktor für Überlastungsverletzungen der unteren Extremitäten: eine systematische Überprüfung und Metaanalyse meta Statische Messungen der Fußhaltung werden regelmäßig im Rahmen einer klinischen Untersuchung verwendet, um die Notwendigkeit von Interventionen auf Fußebene festzustellen. Dies basiert auf der Prämisse, dass pronierte und supinierte Fußhaltungen Risikofaktoren für oder in Verbindung mit Verletzungen der unteren Extremitäten sein können. Diese systematische Übersicht und Metaanalyse untersucht die Fußhaltung (statisch gemessen) als potentiellen Risikofaktor für Verletzungen der unteren Extremität.;-;-;-;https://link.springer.com/article/10.1186/s13047-014-0055-4 9df1e01dc06a818465d801735a301063;de;;;6.2.;;;Vom Desktop ins Grid: Skalierbare Bioinformatik durch Workflow-Konvertierung Reproduzierbarkeit ist einer der Grundsätze der wissenschaftlichen Methode. Wissenschaftliche Experimente umfassen oft komplexe Datenflüsse, die Auswahl geeigneter Parameter sowie die Analyse und Visualisierung von Zwischen- und Endergebnissen. Die Aufteilung der Komplexität solcher Experimente in die gemeinsame Zusammenarbeit kleiner, wiederholbarer, gut definierter Aufgaben mit jeweils genau definierten Eingaben, Parametern und Ausgaben bietet den unmittelbaren Vorteil, Engpässe zu identifizieren und Abschnitte zu identifizieren, die unter anderem von einer Parallelisierung profitieren könnten. Workflows beruhen auf dem Gedanken, komplexe Arbeit in die gemeinsame Anstrengung mehrerer überschaubarer Aufgaben aufzuteilen.;-;-;-;https://link.springer.com/article/10.1186/s12859-016-0978-9 61f4d0e0f6f32187650b5ee3e897d65d;de;;;6.2.;;;Erdbebengefährdung und seismischer Entwurf und Sicherheitsaspekte von großen Staudammprojekten Erdbeben können große Staudammprojekte auf vielfältige Weise beeinträchtigen. Normalerweise konzentrieren sich Konstrukteure auf das Erschüttern des Bodens und vernachlässigen die anderen Aspekte. Das Erdbeben in Wenchuan vom 12. Mai 2008 hat 1803 Dämme und Stauseen beschädigt. Die weit verbreiteten Massenbewegungen haben in der chinesischen Provinz Sichuan erhebliche Schäden an Dämmen und Überwasserkraftwerken verursacht. Die verschiedenen Merkmale der Erdbebengefahr werden vorgestellt, die wichtigsten sind Bodenerschütterungen, Verwerfungen und Massenbewegungen. Die Grundvoraussetzung für jeden großen Damm ist die Sicherheit. Heute wird ein integrales Dammsicherungskonzept verwendet, das (i) Bauwerkssicherheit, (ii) Dammsicherheitsüberwachung, (iii) Betriebssicherheit und Instandhaltung und (iv) Notfallplanung umfasst. Die Bedeutung dieser vier Sicherheitselemente wird diskutiert. Die Langzeitsicherheit umfasst zum einen die Analyse aller das Projekt betreffenden Gefahren, d. h. Gefahren aus der natürlichen Umwelt, Gefahren aus der vom Menschen verursachten Umwelt sowie projekt- und standortspezifische Gefahren. Die Rolle der Erdbebengefährdung für die Erdbebenbemessung und die Erdbebensicherheit von großen Staudammprojekten wird diskutiert, da die Tragsicherheit großer Staudämme heute oft vom Lastfall Erdbeben bestimmt wird. Die vom seismischen Komitee der Internationalen Kommission für Großstaudämme empfohlenen seismischen Auslegungs- und Leistungskriterien von Dämmen und sicherheitsrelevanten Elementen wie Überlauf- und Bodenabflüssen werden vorgestellt. Es werden die konzeptionellen und konstruktiven Anforderungen an die Erdbebenbemessung von Beton- und Staudämmen vorgegeben, die oft wichtiger sind als die Erdbebenbemessungskriterien, die dynamischen Analysen zugrunde liegen. Schließlich wird die Notwendigkeit und Bedeutung regelmäßiger Überprüfungen der seismischen Sicherheit bestehender Dämme erörtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07118-3_20 c1d3952012972392ed29c237cf929c4b;de;;;6.2.;;;Populationspharmakokinetische Modellierung zur Quantifizierung des Ausmaßes von Arzneimittelwechselwirkungen zwischen Amlodipin und antiretroviralen Arzneimitteln Arzneimittelwechselwirkungen (DDIs) mit antiretroviralen Arzneimitteln (ARVs) sind ein wichtiges Problem bei älteren Menschen, die mit HIV (PLWH) leben. Amlodipin ist ein häufig verschriebenes blutdrucksenkendes Medikament, das über CYP3A4 metabolisiert wird und daher für ein DDI-Risiko prädisponiert ist. Leitlinien zur Behandlung von DDIs basieren größtenteils auf theoretischen Überlegungen, die aus der gleichzeitigen Verabreichung mit anderen CYP3A4-Inhibitoren abgeleitet wurden. Diese Studie zielte darauf ab, das Ausmaß der DDIs zwischen Amlodipin und ARV-Medikamenten zu charakterisieren, um Dosierungsempfehlungen zu erstellen.;-;-;-;https://link.springer.com/article/10.1007/s00228-020-03060-2 837b1eb4fc5def26d211e1952296ffa9;de;;;6.2.;;;Um zu beurteilen, ob die Zugabe von Pyriproxyfen zu langlebigen insektiziden Moskitonetzen deren Haltbarkeit im Vergleich zu langlebigen insektiziden Standardmoskitonetzen erhöht: Studienprotokoll für eine randomisierte kontrollierte Studie Die Wirksamkeit von Pyrethroid-behandelten Moskitonetzen zur Malariabekämpfung in Subsahara-Afrika ist aufgrund der hohen Resistenz der Vektoren gegen Pyrethroid-Insektizide gefährdet. Hier bewerten wir die Haltbarkeit von Polyethylennetzen mit einer neuartigen Kombination von Permethrin, einem Pyrethroid, mit Pyriproxyfen, einem juvenilen Insektenmimetikum (PPF-LLIN), im Vergleich zu einem typischen Permethrin-behandelten langlebigen Insektizidnetz (LLIN).;-;-;-;https://link.springer.com/article/10.1186/s13063-015-0700-7 b48eff8493f1b1467f3f51b4cd98a74d;de;;;6.2.;;;Risikofaktoren der Brucellose-Seropositivität bei Trampeltieren der Mongolei Weitere Informationen zur Brucellose-Epidemiologie bei Trampeltieren sind aufgrund ihrer wachsenden wirtschaftlichen Bedeutung und der Existenzgrundlage für Hirten und der erneuten Bemühungen in der Mongolei erforderlich, die Brucellose durch Massenimpfung von Wiederkäuern mit Ausnahme von Kamelen zu beseitigen. Die Brucellose-Prävalenz bei Kamelen hat in den letzten zwei Jahrzehnten zugenommen. Zufällige mehrstufige Clustererhebungen wurden in den östlichen Provinzen Dornod und Sukhbaatar in den Jahren 2013 und 2014 und in den südlichen und westlichen Provinzen Dornogobi, Umnogobi und Khovd in den Jahren 2014 und 2015 durchgeführt. Insgesamt 1822 Kamele, 1155 Rinder und 3023 kleine Wiederkäuerseren wurden gesammelt und mit dem Rose Bengal Test getestet. Außerdem wurden 195 Vaginalabstriche und 250 Milchproben für die bakteriologische Kultur von Tieren mit Aborten in der Vorgeschichte genommen.;-;-;-;https://link.springer.com/article/10.1186/s12917-018-1664-0 1e4d52a74f31ebc376ae9dc22ded907a;de;;;6.2.;;;Die endogene CCL2-Neutralisierung schränkt die HIV-1-Replikation in primären menschlichen Makrophagen ein, indem sie die Ansammlung viraler DNA hemmt Makrophagen sind wichtige Ziele der HIV-1-Infektion. Wir haben zuvor beschrieben, dass die Expression des CC-Chemokinliganden 2 (CCL2) während der Monozytendifferenzierung zu Makrophagen zunimmt und durch HIV-1-Exposition weiter hochmoduliert wird. Darüber hinaus wirkt CCL2 als autokriner Faktor, der die Virusreplikation in infizierten Makrophagen fördert. In dieser Studie analysierten wir die molekularen Mechanismen, durch die die CCL2-Neutralisierung die HIV-1-Replikation in Monozyten-abgeleiteten Makrophagen (MDM) hemmt, und die potenzielle Beteiligung des angeborenen Restriktionsfaktors Protein Steriles Alpha-Motiv (SAM) Histidin/Asparaginsäure (HD). Domäne, die 1 (SAMHD1) und Apolipoprotein B mRNA-editierende, enzymkatalytische, polypeptidähnliche 3 (APOBEC3) Familienmitglieder enthält.;-;-;-;https://link.springer.com/article/10.1186/s12977-014-0132-6 44481ce01c40dc9972381c5cf0b25683;de;;;6.2.;;;Die Prime-Boost-Impfstrategie verbessert die Immunogenität im Vergleich zur Einzelimpfung mit Pneumokokken-Konjugat bei Patienten, die konventionelle DMARDs erhalten, in gewissem Umfang bei Abatacept, jedoch nicht bei mit Rituximab behandelten Patienten Es sollte untersucht werden, ob eine Prime-Boost-Impfstrategie, dh eine Dosis Pneumokokken-Konjugatimpfstoff (PCV) und eine Dosis 23-valenter Polysaccharid-Impfstoff (PPV23), die Antikörperreaktion im Vergleich zu einer einzelnen PCV-Dosis bei Patienten mit entzündlichen rheumatischen Erkrankungen, die mit verschiedene Immunsuppressiva und Kontrollen.;-;-;-;https://link.springer.com/article/10.1186/s13075-020-2124-3 be0a2a673a596a2f4117e1d3f543fa1a;de;;;6.2.;;;Untersuchung der wirtschaftlichen und sozialen Auswirkungen der Pflegeabhängigkeit im späteren Leben: Protokoll für die INDEP-Studie der 10/66-Forschungsgruppe In Ländern mit niedrigem oder mittlerem Einkommen werden chronische Krankheiten schnell zur Hauptursache der Krankheitslast. Das Hauptaugenmerk der Gesundheitspolitik lag jedoch auf der Prävention von Todesfällen durch Krebs und Herzkrankheiten, wobei dem wachsenden Problem der langfristigen Pflegebedürftigkeit (Abhängigkeit) kaum Beachtung geschenkt wurde. Die Zahl der abhängigen älteren Menschen soll sich bis 2050 vervierfachen. Die wirtschaftlichen Auswirkungen der Langzeitpflege dürften erheblich sein.;-;-;-;https://link.springer.com/article/10.1186/2193-1801-3-379 b03af49b9871cdef8581e9d070f48f86;de;;;6.2.;;;Algorithmen zum Erlernen sparsamer Kontextbäume Sparsame Kontextbäume, PCTs, stellen eine spärliche Parametrisierung von bedingten Wahrscheinlichkeitsverteilungen bereit. Sie sind besonders leistungsfähig, um kontextspezifische Unabhängigkeiten in sequentiellen diskreten Daten zu modellieren. Das Erlernen von PCTs aus Daten ist aufgrund der kombinatorischen Explosion des Raums der Modellstrukturen mit zunehmender Anzahl von Prädiktorvariablen rechnerisch schwierig. Unter dem Score-and-Search-Paradigma basiert der schnellste Algorithmus zum Finden eines optimalen PCT vor der vorliegenden Arbeit auf dynamischer Programmierung. Während der Algorithmus kleine Instanzen schnell verarbeiten kann, wird er bereits bei einem halben Dutzend Prädiktorvariablen mit vier Zuständen undurchführbar. Hier zeigen wir, dass gängige Bewertungsfunktionen die Verwendung neuer algorithmischer Ideen ermöglichen, die den dynamischen Programmieralgorithmus für typische Daten erheblich beschleunigen können. Konkret führen wir eine Memoisierungstechnik ein, die Regelmäßigkeiten innerhalb der Prädiktorvariablen ausnutzt, indem verschiedene Kontexte, die mit derselben Datenteilmenge verknüpft sind, gleichgesetzt werden, und eine Bound-and-Prune-Technik, die Regelmäßigkeiten innerhalb der Antwortvariablen ausnutzt, indem Teile des Suchraums bereinigt werden auf die Obergrenze der Partitur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Anhand von realen Daten aus neueren Anwendungen von PCTs in der Computerbiologie wird gezeigt, dass die Ideen den durchlaufenen Suchraum und die Rechenzeit in typischen Fällen um mehrere Größenordnungen reduzieren.;-;-;-;https://link.springer.com/article/10.1007/s10994-018-5770-9 f20e357bda2d900a35b5930b8b014f47;de;;;6.2.;;;Ein methodischer Rahmen für ein an den Klimawandel angepasstes Management in Schutzgebieten Schutzgebiete müssen ihr Management an die aktuellen und zu erwartenden zukünftigen Auswirkungen des Klimawandels anpassen, um ihre Aufgaben zu erfüllen. In diesem Kapitel stellen wir sieben Arbeitsschritte vor, die es Managern in Schutzgebieten ermöglichen, einen an den Klimawandel angepassten Managementplan (CAMP) zu entwickeln. Die Schritte sind in ein Leitbild zur Anpassung eingebettet. Sie umfassen die Definition von Anpassungszielen, die Analyse vorhandener Pläne und verfügbarer Daten, die Bewertung des Klimawandels und seiner Auswirkungen und die Entwicklung eines Monitoringkonzepts sowie die Identifizierung geeigneter Anpassungsstrategien und -maßnahmen. Die Einbeziehung der Interessengruppen und die Sensibilisierung müssen all diese Bemühungen begleiten. Die Anwendung von Adaptive Management bietet erhebliche Vorteile in Bezug auf die Verringerung von Wissenslücken und die Verbesserung der Managementeffektivität. Der Rahmen für an den Klimawandel angepasste Managementpläne wurde in Zusammenarbeit mit Schutzgebietsmanagern entwickelt und im Projekt HABIT-CHANGE getestet. Es bietet ein flexibles Verfahren, das in mehreren Situationen angewendet werden kann und hilft, den Erfolg von Naturschutzaktivitäten unter dem Klimawandel sicherzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7960-0_10 3aaeb03179858a4149057f4fd5339ddd;de;;;6.2.;;;Das Ergebnisdatenbankprojekt der medizinischen Fakultäten: Merkmale australischer Medizinstudenten Der weltweite Bedarf an medizinischem Personal unterstreicht die Notwendigkeit einer effektiven Personalplanung mit dem übergeordneten Ziel, den Ärztemangel zu lindern und Fehlverteilungen zu verhindern. Das Projekt „Outcomes Database and Longitudinal Tracking“ (MSOD) der Medizinischen Fakultäten bietet eine Grundlage für die Bewertung der Ergebnisse von medizinischen Bildungsprogrammen im Hinblick auf spezifische Personalziele (einschließlich ländlicher und Gebiete mit Personalbedarf), die Unterstützung bei der Planung des medizinischen Personals und die Bereitstellung einer nationalen Forschungsressource. Dieses Papier beschreibt die Methodik und Basisergebnisse für das MSOD-Projekt.;-;-;-;https://link.springer.com/article/10.1186/1472-6920-14-180 168458761b01801fa257cdbb8c57f8cc;de;;;6.2.;;;Auswirkungen von Strategien zur Verbesserung der Zusammenarbeit und Kommunikation zwischen Hausarzt und Pflegepersonal bei Krankenhauseinweisungen von Pflegeheimbewohnern ( In Deutschland werden bis zu 50 % der Pflegeheimbewohner mindestens einmal im Jahr in ein Krankenhaus eingeliefert. Ob dies förderlich oder gar schädlich ist, ist oft unklar. Eine erfolgreiche interprofessionelle Zusammenarbeit und Kommunikation zwischen Hausärzten und Pflegepersonal kann die medizinische Versorgung von Pflegeheimbewohnern verbessern. In der vorherigen;-;-;-;https://link.springer.com/article/10.1186/s13063-020-04736-x b6efb792662653602796b33c2708636a;de;;;6.2.;;;ThinkHome Energieeffizienz in zukünftigen Smart Homes Smart Homes wurden in den letzten Jahren sowohl von Hausbesitzern als auch von der Forschungsgemeinschaft mit zunehmendem Interesse betrachtet. Ein Grund für diese Entwicklung ist, dass der Einsatz moderner Automatisierungstechnik im Haus oder Gebäude erhebliche Energieeinsparungen verspricht und somit gleichzeitig die Betriebskosten des Gebäudes über den gesamten Lebenszyklus senkt. Das volle Potenzial von Smart Homes liegt jedoch aufgrund der Komplexität und Vielfalt der Systeme, schlecht konstruierter und konfigurierter Installationen sowie des häufigen Problems suboptimaler Regelstrategien noch brach. Zusammengefasst konvergieren diese Probleme zu zwei unerwünschten Zuständen im weniger smarten Zuhause: Der Energieverbrauch ist immer noch höher als eigentlich nötig und der Nutzer kann seinen Komfort in seinem automatisierten Zuhause nicht erreichen. Im Fokus dieser Arbeit steht die Linderung der aktuellen Probleme durch ein umfassendes Systemkonzept, das sicherstellen soll, dass Smart Homes auch in Zukunft halten, was sie versprechen. Das System basiert auf einer umfangreichen Wissensdatenbank, die alle notwendigen Informationen speichert, um die Ziele der Energieeffizienz und des Benutzerkomforts zu erreichen. Seine Intelligenz ist als und innerhalb eines Multiagenten-Systems implementiert, das auch der Offenheit des Systems nach außen Rechnung trägt. Als erste Bewertung wird eine profilbasierte Regelungsstrategie für die thermische Behaglichkeit entwickelt und mittels Simulation verifiziert.;-;-;-;https://link.springer.com/article/10.1155/2011/104617 381dd932f67f52284b34f4114ec7ce89;de;;;6.2.;;;„Is Ash Falling?“, ein Online-Tool zur Aschefall-Berichterstellung zur Unterstützung von verbesserten Aschefall-Warnungen und Untersuchungen von Aschefall-Prozessen Die wichtigste Vulkangefahr in Alaska ist Asche in der Luft, die Flugzeuge auf den stark frequentierten Flugrouten im Nordpazifik gefährdet und folglich den weltweiten Handel beeinträchtigt. Ascheregen in Windrichtung ist auch eine erhebliche Bedrohung für Handel, Transport und alltägliche Aktivitäten in den nahe gelegenen Gemeinden Alaskas. Eine webfähige Datenbank, Is Ash Falling? wurde entwickelt, um während Eruptionen Aschesturzbeobachtungen zu sammeln und Probensammlungen aus der Öffentlichkeit zu fördern, damit sich die Mitarbeiter des Vulkanobservatoriums auf die Reaktion auf Eruptionen konzentrieren können. Die Kenntnis der Standorte von eingereichten Aschefallberichten verbessert öffentliche Aschefallwarnungen und -vorhersagen, indem vor Ort Kontrollen für Ascheausbreitung und Fallout-Computermodelle und die Interpretation von Satellitenbildern bereitgestellt werden. Berichte über Aschefälle werden mit Notfallmanagement-Agenturen und der breiteren Öffentlichkeit geteilt. Diese Berichte geben den Wissenschaftlern auch eine vollständigere Aufzeichnung der Menge, Dauer und anderer Bedingungen des Aschesturzes.;-;-;-;https://link.springer.com/article/10.1186/s13617-014-0022-6 db8b899f1bfe831fc0e3b070e28c9676;de;;;6.2.;;;Erhaltungsflüssigkeitstherapie und Flüssigkeitskriechen verursachen bei kritisch kranken Patienten eine größere Belastung mit Flüssigkeit, Natrium und Chlorid als Reanimationsflüssigkeiten: eine retrospektive Studie in einer tertiären gemischten Intensivpopulation Die Forschung zur intravenösen Flüssigkeitstherapie und ihren Nebenwirkungen, Volumen-, Natrium- und Chloridüberladung, hat sich fast ausschließlich auf die Reanimationsumgebung konzentriert. Unser Ziel war es, alle Flüssigkeitsquellen auf der Intensivstation zu quantifizieren und das Flüssigkeitskriechen, das versteckte und unbeabsichtigte Volumen, das als Vehikel für Medikamente oder Elektrolyte verabreicht wird, zu bewerten.;-;-;-;https://link.springer.com/article/10.1007/s00134-018-5147-3 c950386613ebd4db9bd8924439757cf0;de;;;6.2.;;;Patientenbeteiligung bei der Erstellung von Peer-Review-Publikationen oder Ergebniszusammenfassungen in der Gesundheitsforschung: eine systematische Überprüfung und evidenzbasierte Empfehlungen Es werden zunehmend Forderungen nach einer Beteiligung der Patienten am Austausch von Ergebnissen der Gesundheitsforschung laut, aber es gibt keine evidenzbasierten Empfehlungen für eine solche Beteiligung. Unsere Ziele waren: (1) eine systematische Überprüfung der Evidenz zur Patientenbeteiligung am Ergebnisaustausch, (2) evidenzbasierte Empfehlungen vorzuschlagen, um den Nutzen zu maximieren und die Risiken einer solchen Beteiligung zu minimieren, und (3) dieses Projekt mit Patientenautoren durchzuführen .;-;-;-;https://link.springer.com/article/10.1186/s40900-020-00190-w 6ef504542215aa18cbaec130f3d324fb;de;;;6.2.;;;Sicherheit, Verträglichkeit, Pharmakokinetik und Pharmakodynamik von Alirocumab bei gesunden chinesischen Probanden: Eine randomisierte, doppelblinde, placebokontrollierte, aufsteigende Einzeldosisstudie Die Zugabe von Alirocumab (ein vollständig humaner monoklonaler Antikörper gegen Proproteinkonvertase Subtilisin/Kexin Typ 9 [PCSK9]) zur Hintergrundtherapie mit Statinen führt zu einer signifikanten schrittweisen Senkung des Lipoproteincholesterins niedriger Dichte (LDL-C) und einer Verringerung des kardiovaskulären Ereignisrisikos.;-;-;-;https://link.springer.com/article/10.1007/s40256-020-00394-1 251abf08bcfc0db419005b8f761ff585;de;;;6.2.;;;Synthese und Übersetzung von Forschung und Innovationen aus der Polio-Eradikation (STRIPE): Erste Ergebnisse einer globalen Mixed-Methods-Studie Die Erkenntnisse aus den Bemühungen zur Ausrottung der Kinderlähmung und der Global Polio Eradication Initiative (GPEI) sind nützlich, um die Erbringung und Ergebnisse von Gesundheitsdienstleistungen weltweit zu verbessern. Die Synthese und Übersetzung von Forschung und Innovationen aus der Polio-Ausrottung (STRIPE) ist ein mehrphasiges Projekt, das darauf abzielt, Wissen aus Initiativen zur Ausrottung der Polio als akademische und Ausbildungsprogramme zu erfassen, zu bündeln und zu verbreiten. In diesem Papier werden erste Ergebnisse aus der Wissenskartierung zu Aktivitäten zur Ausrottung von Polio in einem länderübergreifenden Kontext erörtert.;-;-;-;https://link.springer.com/article/10.1186/s12889-020-09156-9 8d51d2c8de67cc06f554f5ef3303cb5d;de;;;6.2.;;;Periodenprävalenz selbstberichteter Kopfschmerzen in der Allgemeinbevölkerung in Deutschland 1995–2005 und 2009: Ergebnisse aus jährlichen bundesweiten bevölkerungsbezogenen Querschnittsbefragungen Obwohl der primäre Kopfschmerz die häufigste neurologische Erkrankung ist und einige Hinweise auf einen Anstieg der Prävalenzraten in den letzten Jahren vorliegen, liegen für Deutschland keine Langzeitdaten zur Jahresprävalenz von Kopfschmerzen vor. Ziel der Studie war es daher, mittels bevölkerungsbezogener jährlicher Querschnittserhebungen (1995–2005 und 2009) Langzeitdaten zur Periodenprävalenz von Kopfschmerzen in der Allgemeinbevölkerung in Deutschland zu gewinnen.;-;-;-;https://link.springer.com/article/10.1186/1129-2377-14-11 9d9696193096462d37392599e8070c18;de;;;6.2.;;;Geografische Untersuchung von Lithium im Trinkwasser und Selbstmordsterblichkeit Lithium als natürlich in Lebensmitteln und Trinkwasser vorkommender Stoff kann positive Auswirkungen auf die psychische Gesundheit haben. In therapeutischen Dosen, die mehr als 100-mal höher sind als die natürliche Tagesdosis, hat sich Lithium als Stimmungsstabilisator und Suizidprävention erwiesen. In dieser Studie wurde untersucht, ob der natürliche Lithiumgehalt im Trinkwasser regional mit geringeren Suizidraten verbunden ist.;-;-;-;https://link.springer.com/article/10.1186/1476-072X-11-19 0246027a01dbb5a6d88e3ae59eb1f87a;de;;;6.2.;;;Datenschutzerhaltende kollaborative Filterung für SaaS, die PaaS Clouds ermöglicht Empfehlungssysteme verwenden unter anderem einen Mechanismus namens Collaborative Filtering (CF), um die Bewertung vorherzusagen, die ein Benutzer einem Artikel aufgrund der Bewertungen anderer von anderen Benutzern bereitgestellter Artikel gibt. Während mit verschiedenen wohlbekannten Techniken eine einigermaßen genaue CF erreicht werden kann, stellt die Wahrung der Privatsphäre von Bewertungsdaten von einzelnen Benutzern eine erhebliche Herausforderung dar. In früheren Arbeiten wurden bisher mehrere Schemata zum Schutz der Privatsphäre vorgeschlagen. Obwohl diese Schemata theoretisch machbar sind, gibt es jedoch viele praktische Implementierungsschwierigkeiten auf realen öffentlichen Cloud-Computing-Plattformen. In diesem Whitepaper stellen wir unsere Implementierungserfahrungen und experimentellen Ergebnisse für zwei öffentliche Software-as-a-Service (SaaS)-Clouds vor, die Platform-as-a-Service (PaaS)-Clouds ermöglichen: die Google App Engine für Java (GAE/J) und der Amazon Web Services Elastic Beanstalk (AWS EBS).;-;-;-;https://link.springer.com/article/10.1186/2192-113X-1-8 ed9f0e4e9aabd0e71bcc78159e32910a;de;;;6.2.;;;Yoga versus Bildung für Veteranen mit chronischen Kreuzschmerzen: Studienprotokoll für eine randomisierte kontrollierte Studie Chronische Kreuzschmerzen sind die häufigste Schmerzerkrankung bei Veteranen und verursachen erhebliches Leiden, eine verminderte Funktionsfähigkeit und eine geringere Lebensqualität. Symptome von posttraumatischem Stress, Depressionen und leichten traumatischen Hirnverletzungen sind bei Veteranen mit Rückenschmerzen weit verbreitet. Yoga gegen Rückenschmerzen hat sich in randomisierten kontrollierten Studien als wirksam für Zivilisten erwiesen. Es ist jedoch nicht bekannt, ob die Ergebnisse aus zuvor veröffentlichten Studien auf die Militärbevölkerung übertragbar sind.;-;-;-;https://link.springer.com/article/10.1186/s13063-016-1321-5 0bbb2168cb528a23f7bee8b67d712eaf;de;;;6.2.;;;Helmintheninfektionen und Typ-2-Diabetes: eine clusterrandomisierte, placebokontrollierte SUGARSPIN-Studie in Nangapanda, Flores, Indonesien Insulinresistenz ist ein starker Prädiktor für die Entwicklung von Typ-2-Diabetes mellitus. Chronische Helmintheninfektionen könnten über einen kalorischen Restriktionszustand und indirekt über die T-Helfer-2-Polarisierung des Immunsystems vor einer Insulinresistenz schützen. Daher könnte die Eliminierung von Helminthen diese positive Wirkung auf die Insulinresistenz beseitigen.;-;-;-;https://link.springer.com/article/10.1186/s12879-015-0873-4 291377724d8ca2332601f43d04f761ad;de;;;6.2.;;;Weinende Babys, müde Mütter - Herausforderungen des postnatalen Krankenhausaufenthaltes: eine interpretative phänomenologische Studie Nach einem alten Schweizer Sprichwort ist eine frischgebackene Mutter, die im Kindbett faulenzt, ein Segen für ihre Familie. Heutzutage genießen Mütter selten erholsame Tage nach der Geburt, sondern stellen sich direkt der Herausforderung, Baby- und Selbstfürsorge zu kombinieren. Sie sind oft mit einer Kombination aus Säuglingsweinen und persönlicher Müdigkeit konfrontiert. Der routinemäßigen Nachsorge nach der Geburt fehlen jedoch häufig wirksame Strategien, um diese Herausforderungen zu lindern, die sich nachteilig auf die Gesundheit der Familie auswirken können. Wir haben untersucht, wie frischgebackene Mütter das Weinen nach der Geburt und ihre eigene Müdigkeit im Kontext der sich ändernden Krankenhauspraxis in der Schweiz erleben und damit umgehen.;-;-;-;https://link.springer.com/article/10.1186/1471-2393-10-21 25d7f7e84637e6cdad327e4933421f16;de;;;6.2.;;;Die französische Glioblastom-Biobank (FGB): eine nationale klinisch-biologische Datenbank Glioblastome (GB) sind die häufigsten und tödlichsten primären Hirntumore. Bei der Identifizierung potenzieller Risikofaktoren für GB und diagnostischer und prognostischer Biomarker wurden erhebliche Fortschritte erzielt. Der aktuelle Behandlungsstandard für neu diagnostizierte GB, das Stupp-Protokoll, ist jedoch seit über einem Jahrzehnt unverändert. Um unser Verständnis der Biologie von GB zu verbessern, sind groß angelegte translationale Programme erforderlich, die auf einer großen klinisch-biologischen Datenbank basieren und möglicherweise die Entwicklung personalisierter und spezifisch zielgerichteter Therapien erleichtern. Mit diesem Ziel vor Augen wurde in Frankreich eine gut kommentierte klinisch-biologische Datenbank mit Daten und Proben von GB-Patienten eingerichtet: die französische GB-Biobank (FGB).;-;-;-;https://link.springer.com/article/10.1186/s12967-019-1859-6 4e18165fa69baf12c663e0d19d4b2922;de;;;6.2.;;;Phase-I/IIa-Studie zur gleichzeitigen Strahlentherapie mit Olaparib und Temozolomid bei inoperablem oder teilresezierbarem Glioblastom: OLA-TMZ-RTE-01 Studienprotokoll Trotz multimodaler Behandlungen, einschließlich Neurochirurgie, Strahlentherapie und Chemotherapie, bleibt die Prognose des Glioblastoms (GBM) schlecht. GBM wird aufgrund seiner hohen Lokalrezidivrate im Bestrahlungsfeld klassischerweise als strahlenresistenter Tumor angesehen. Die Entwicklung neuer Radiosensibilisatoren ist entscheidend, um die Patientenergebnisse zu verbessern. Präklinische Daten zeigten, dass Poly(ADP-Ribose)-Polymerase-Inhibitoren (PARPi) als vielversprechende Klasse von Radiosensibilisatoren angesehen werden könnten.;-;-;-;https://link.springer.com/article/10.1186/s12885-019-5413-y 113e6c0952052d4de9b21e32466adc6a;de;;;6.2.;;;Ein auf optischem Verfahren basierendes Fernüberwachungssystem für Unterbausiedlungen Die Überwachung von Planumssetzungen in Bahnen und Autobahnen trägt zur Aufrechterhaltung der Verkehrssicherheit und zur Reduzierung von Infrastrukturverlusten bei. Wenn eine übermäßige Setzung des Planums festgestellt wird, werden Instandhaltungsarbeiten des nicht qualifizierten Planums rechtzeitig bearbeitet und eine Frühwarnung von Bauarbeiten wird verarbeitet, um das Auftreten von Sicherheitsunfällen zu verhindern. In diesem Artikel wird ein berührungsloses Echtzeit- und unbeaufsichtigtes System auf Basis optischer Verfahren zur Fernüberwachung der Baugrundsetzung vorgestellt. Auf dem Untergrund sind mehrere Hochleistungs-Infrarot-LED-Ziele montiert, die sich bewegen, wenn der Untergrund absinkt. Die Bewegungen der LED-Targets werden von einer optischen Erfassungseinrichtung nach dem Prinzip der optischen Abbildung erfasst. Die Verschiebungsdaten werden zur Analyse über GPRS aus der Ferne an einen Server übertragen. Das Fernüberwachungssystem wurde 2014 bei der Überwachung der Unterbausetzung der Zhensheng-Autobahn in der chinesischen Provinz Guizhou eingesetzt. Diese Technologie half dabei, die Unterbausetzung zu erkennen, die durch den Bau des Beiyinpo-Eisenbahntunnels verursacht wurde. Vier Testpunkte auf der Straßenoberfläche wurden mit einer Abtastrate alle 20 Minuten überwacht. Die Wirksamkeit des Systems wurde durch die praktische Anwendung nachgewiesen.;-;-;-;https://link.springer.com/article/10.1007/s40864-019-00110-6 8c8f60cd43be67032a3deb23df6052a8;de;;;6.2.;;;Vorbereitung auf die Forschung Forschung jeglicher Art erfordert viel Vorbereitung. Wenn Sie mit Ihrer Untersuchung beginnen, müssen Sie sich auf eine Verfolgung vorbereiten, die Monate oder in einigen Fällen Jahre dauern wird. Gateway-Anfragen unterscheiden sich in dieser Hinsicht nicht von anderen Methoden, denn gute Forschung erfordert Planung, Überlegung und den Aufbau von Kapazitäten, um den Forschungszweck zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1057/9780230623774_5 87bf7eed2b307083a52e3fb33579f884;de;;;6.2.;;;Jenseits der Teilnahme! Soziale Innovationen, die den Übergang vom autoritären Staat zu einer partizipativen Forstverwaltung in der Ukraine erleichtern Die Abstimmung partizipativer Prozesse ist aufgrund der institutionellen Trägheit und der mangelnden Bereitschaft, die Entscheidungsbefugnis wirklich zu dezentralisieren, oft unzureichend, um den Übergang von einem autoritären Staat zu einer demokratischen und partizipativen Forstverwaltung zu erreichen. Soziale Innovationen als Neugestaltung der Beziehungen zwischen Staat, Marktakteuren, Zivilgesellschaft und Wissenschaft können dazu beitragen, den Anliegen der lokalen Bevölkerung gegenüber Wald-Ökosystem-Dienstleistungen (ÖWS) Rechnung zu tragen. In der Ukraine initiierte das Pilotprojekt Schweiz-Ukrainische Waldentwicklung (FORZA) einen sozialen Innovationsprozess, der die regionale Waldplanung mit lokalen partizipativen Gemeindeentwicklungsplänen in den Unterkarpaten ergänzt. In diesem Beitrag wird untersucht, welche Veränderungen die Abfolge partizipativer Praktiken in Transformationsprozessen von einem autoritären Staat zu einer demokratischen Forstverwaltung begleiten müssen und welche Lehren für soziale Innovationen anhand der ukrainischen Fallstudie gezogen werden können. Dieses Papier synthetisiert das Wissen über den Fall FORZA, das durch induktive Inhaltsanalyse analysiert wurde, und integriert diese Ergebnisse auf lokaler Ebene mit einer nationalen Erhebung (N = 244) zur ukrainischen Forstverwaltung. Übergangsprozesse müssen „über die Partizipation“ hinausgehen durch (i) rechtliche Reformen, um die Bedeutung von ÖSD für die lokale Bevölkerung besser anzuerkennen, (ii) einen Wechsel von einem ausschließlichen Fokus auf Holz hin zur Anerkennung mehrerer ÖSD, (iii) veränderte räumliche und zeitliche Begründungen des Staates -basierte Regierungsführung und (iv) Anerkennung der lokalen Bevölkerung als glaubwürdige Experten. Soziale Innovationen können während der politischen Experimente wichtige Hindernisse für den Übergang erkennen und müssen der Frage, wie die neuartigen Praktiken nach dem Pilotprojekt aufrechterhalten, an anderer Stelle repliziert und hochskaliert werden können, große Aufmerksamkeit schenken. Ohne solche Überlegungen bleiben soziale Innovationsprojekte möglicherweise nur eine marginale Kuriosität.;-;-;-;https://link.springer.com/article/10.1007/s10980-019-00787-x 56e575067433bee8404a882e22983eb4;de;;;6.2.;;;Kohärenzgefühl, psychisches Wohlbefinden und wahrgenommener präoperativer Krankenhaus- und Operationsstress bei chirurgischen Patienten mit bösartigen, gutartigen und ohne Neoplasien Diese prospektive Querschnitts-Beobachtungsstudie untersuchte den Zusammenhang zwischen dem Kohärenzgefühl (SOC), dem psychischen Wohlbefinden und dem wahrgenommenen präoperativen Krankenhaus- und Operationsstress bei chirurgischen Patienten mit bösartigen, gutartigen und keinen Neoplasien. Ziel war es, einen mutmaßlichen Zusammenhang zwischen SOC und präoperativem Stress zu bewerten und eine statistische Mediation durch das psychische Wohlbefinden zu testen.;-;-;-;https://link.springer.com/article/10.1186/s12888-020-02953-x 30b21d193800eab3e935d3687a6efada;de;;;6.2.;;;Eine Hepatitis A-, B-, C- und HIV-Prävalenz- und Risikofaktorstudie bei injizierenden und nicht injizierenden Drogenkonsumenten in Luxemburg im Zusammenhang mit HAV- und HBV-Impfungen In Luxemburg basieren die Daten zu Virushepatitis und HIV-Infektionen bei problematischen Drogenkonsumenten (PDUs) hauptsächlich auf Selbstauskünften. Unsere Studie zielte darauf ab, die Prävalenz von HAV-, HBV-, HCV- und HIV-Infektionen bei jemals injizierenden (IDUs) und nicht-injizierenden Drogenkonsumenten (nIDUs) zu bestimmen, einschließlich der Analyse der inhärenten Risikofaktoren für IDUs. Sekundäre Ziele waren die Impfung gegen HAV und HBV, die Überweisung in Pflege- und Behandlungseinrichtungen sowie die Reduzierung des Risikoverhaltens.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-11-351 87cb46c70fa69f9123a39d6b0a779b32;de;;;6.2.;;;Jährliche medizinische Kosten schwedischer Patienten mit Typ-2-Diabetes vor und nach der Insulininitiierung Obwohl Insulin eine der wirksamsten Interventionen zur Behandlung von Typ-2-Diabetes ist, verursachen seine Nachteile erhebliche medizinische Kosten. Diese Studie wurde entwickelt, um die medizinischen Kosten von schwedischen Typ-2-Diabetikern zu bewerten, die Insulin zusätzlich zu Metformin und/oder Sulfonylharnstoff (SU) einleiten, und um zu bewerten, ob sich die Kosten vor und nach der Insulineinleitung bei Patienten unterscheiden, bei denen Insulin über oder unter empfohlener Gehalt an glykosyliertem Hämoglobin (HbA1c) (7,5%).;-;-;-;https://link.springer.com/article/10.1007/s13300-013-0035-x 0d4cf4ff5d1081d4641970210db32ac5;de;;;6.2.;;;Infinitesimalrechnung lehren und lernen Die Vielfältigkeit der Forschung im Bereich der Infinitesimalrechnung macht es schwierig, eine erschöpfende Zusammenfassung des Standes der Technik zu erstellen. Wir konzentrieren uns daher auf die wichtigsten Trends in diesem Bereich, um rechtzeitig Entwicklungen zu erkennen, die es uns ermöglichen, über diese Umfrage hinauszugehen und neue Forschungsfragen zu stellen. Die Forschungsergebnisse zeigten trotz ihrer Vielfalt ein Eckpfeilerproblem, das stark mit dem Formalismus der Calculus-Konzepte und den damit verbundenen Schwierigkeiten im Lern- und Lehrprozess verbunden ist. Dieser Formalismus unterstützt die mathematische Existenz von Infinitesimalkonzepten. Der erste Schritt in der Lehre der Infinitesimalrechnung besteht darin, diese Existenz zu kontextualisieren. In diesem Sinne hebt die Forschung die Komplexität hervor, die erforderlich ist, um zwei problematische Situationen zu bewältigen: (1) die tatsächliche Kluft zwischen dem Vorwissen der Schüler und der mathematischen Grundlage der Infinitesimalkonzepte, (2) die letztendliche Abhängigkeit der Infinitesimalrechnung von formalen Definitionen und Beweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-32975-8_1 f71574206e7153119d4f66a67d7424cb;de;;;6.2.;;;Resilienz und Wachstum: Die Antwort einer Universität für zukunftsfähige Absolventen und Karrieren Die Förderung einer lernenden Gesellschaft erfordert neue und innovative Wege, um sich an die sich ändernden Entwicklungsnarrative eines Landes anzupassen. Für ein Land wie Singapur, dessen Entwicklung sich vom verarbeitenden Gewerbe zu einer globalen Wissensökonomie entwickelt hat, erfordern Investitionen in Bildung, um widerstandsfähige und zukunftsfähige Arbeitskräfte zu schaffen, ein Umdenken in der Art und Weise, wie Universitäten arbeiten und zur Gesellschaft beitragen. Dieses Kapitel beleuchtet die verschiedenen Ansätze der National University of Singapore (NUS), der führenden Hochschule des Landes, um auf die Herausforderung der Förderung einer lernenden Gesellschaft zu reagieren. NUS fördert die interdisziplinäre Ausbildung, hat solide Initiativen für lebenslanges Lernen ergriffen und konzentriert sich auf die Umsetzung akademischer Forschung in praktische Anwendungen und Lösungen. Dieses Kapitel untersucht auch, inwieweit Universitäten mit verschiedenen Interessengruppen zusammenarbeiten können, und hinterfragt die Zukunft solcher Kooperationen in einer Welt, die von Störungen, schnellen wirtschaftlichen Veränderungen und sich ändernden Lernanforderungen und -mustern gekennzeichnet ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0983-1_7 cd94450b6a824af0a4a8fc3ae582f3c8;de;;;6.2.;;;Verbesserung der psychischen Gesundheitsversorgung für unbegleitete junge Flüchtlinge durch einen schrittweisen Behandlungsansatz im Vergleich zu normaler Versorgung+: Studienprotokoll einer clusterrandomisierten kontrollierten hybriden Wirksamkeitsimplementierungsstudie Mehr als die Hälfte der in Europa neu angesiedelten unbegleiteten jungen Flüchtlinge (UYRs) berichten von erhöhten posttraumatischen Stresssymptomen (PTSS) und komorbiden Symptomen. Frühere Studien haben die Wirksamkeit der traumafokussierten präventiven Gruppenintervention „Mein Weg“ und die Machbarkeit der traumafokussierten kognitiven Verhaltenstherapie (TF-CBT) für UYRs hervorgehoben. Beide Interventionen gelten als empirisch unterstützte Behandlungen (ESTs). UYRs erhalten jedoch selten ESTs oder überhaupt eine Behandlung. Aufgrund des hohen Bedarfs und der begrenzten Behandlungsressourcen ist ein gestufter Behandlungsansatz indiziert, aber bisher nicht evaluiert. Der Zweck dieser Studie besteht darin, den stufenweisen Behandlungsansatz BETTER CARE mit der durch Screening und Indikationsstellung erweiterten üblichen Versorgung (übliche Versorgung+) zu vergleichen.;-;-;-;https://link.springer.com/article/10.1186/s13063-020-04922-x d329e4995d5bf3f0e7f263256a880e86;de;;;6.2.;;;Gerüstbau Kollaboratives fallbasiertes Lernen während des Forschungsethiktrainings Da die Entwicklung forschungsethischer Kompetenzen im Fokus der Hochschulen steht, ist es von entscheidender Bedeutung zu verstehen, wie der Lernprozess während einer solchen Ausbildung unterstützt werden kann. Während es zahlreiche Forschungsarbeiten gibt, wie das Erlernen kognitiver Fähigkeiten von Kindern gefördert werden kann, gibt es nur begrenzte Kenntnisse darüber, wie das kollaborative, fallbasierte Lernen von forschungsethischen Kompetenzen in Hochschulkontexten verbessert werden kann. Unser Ziel war es herauszufinden, ob, wie und wann Gerüste mit unterschiedlichen Expertisen benötigt werden, um die Entwicklung von Ethikkompetenzen zu unterstützen. Um Gerüste während des kooperativen fallbasierten Ethiktrainings zu identifizieren und zu bewerten, haben wir ein Gerüstgerüst synthetisiert, das aus drei Ebenen besteht: Techniken, Mechanismen und Prozess. Wir organisierten 5 Trainingseinheiten, an denen 46 Teilnehmer (darunter Bachelor-, Master- und Doktoranden sowie Nachwuchs- und Seniorwissenschaftler) teilnahmen. Die Daten wurden im Rahmen der Aktionsforschung aus Gruppenarbeitsaufzeichnungen erhoben und wörtlich transkribiert. Die deduktive qualitative Analyse wurde auf Transkripten basierend auf dem Scaffolding-Framework implementiert. Unsere Analyse ergab, dass ein alleiniges Baugerüst (Lernmaterial) bei Bachelorstudierenden nicht immer effizient ist, sondern bei Bedarf auch ein mündliches Gerüst benötigt. Masterstudierende profitierten am meisten von der Formulierung der Themen, auf die sie sich konzentrieren mussten. Doktoranden und Hochschullehrer brauchten ein Gerüst, um die Zielorientierung aufrechtzuerhalten. Wir beenden unseren Artikel mit einigen Empfehlungen für Moderatoren der Ethikausbildung und ermutigen dazu, das Gerüstgerüst auch bei der komplexen Problemlösung über das Ethiktraining hinaus zu verwenden.;-;-;-;https://link.springer.com/article/10.1007/s10805-020-09378-x 04e72e5d4d7fab416189d6ad33cd54c8;de;;;6.2.;;;Exponential Replica Broadcasting-Mechanismus zur adaptiven Bandbreitenzuweisung in Mobilfunknetzen Dieses Papier schlägt einen Exponential Replicate Broadcasting (ERB)-Algorithmus für die Datenverbreitung vor, um die Effizienz des Datenzugriffs zu verbessern. Der vorgeschlagene ERB-Algorithmus konstruiert zuerst einen Sendebaum, um die Sendefrequenz jeder Daten zu bestimmen, und teilt den Sendebaum in einige Sendehölzer auf, um das Sendeprogramm zu erzeugen. Darüber hinaus entwickelt dieser Beitrag ein analytisches Modell zur Ableitung der mittleren Zugriffslatenz des generierten Rundfunkprogramms. Angesichts der abgeleiteten Ergebnisse können sowohl die Bandbreite des Indexkanals als auch die Bandbreite des Datenkanals optimal zugewiesen werden, um die Bandbreitennutzung zu maximieren. In diesem Beitrag werden Experimente vorgestellt, mit denen die Wirksamkeit der vorgeschlagenen Strategie bewertet werden kann. Aus den experimentellen Ergebnissen ist ersichtlich, dass der vorgeschlagene Mechanismus in der Praxis durchführbar ist.;-;-;-;https://link.springer.com/article/10.1186/1687-1499-2014-136 1f258acb71acbc8dc8e910ce3c420344;de;;;6.2.;;;Der AdHOC-Score (Alter, Kopfverletzung, Oxygenierung, Zirkulation): ein einfaches Bewertungsinstrument zur frühzeitigen Beurteilung von schwerverletzten Patienten mit schweren Frakturen Unser Ziel war es, ein einfaches, effektives und genaues Bewertungsinstrument zu entwickeln, das bekannte prognostische Parameter verwendet, um Mortalität und Morbidität bei schwer verletzten Patienten mit schweren Frakturen im Stadium der Traumabucht vorherzusagen.;-;-;-;https://link.springer.com/article/10.1007/s00068-020-01448-4 b30ee5ee65dd46e1e06dadc4b98c8daa;de;;;6.2.;;;Sicherheitsfragen und -lösungen für das Cloud-Identitätsmanagement: eine Taxonomie Cloud-Computing-Systeme stellen eines der komplexesten Computersysteme dar, die derzeit existieren. Aktuelle Anwendungen der Cloud beinhalten die umfassende Nutzung verteilter Systeme mit unterschiedlichem Grad an Konnektivität und Nutzung. Mit einem aktuellen Fokus auf die groß angelegte Verbreitung von Cloud Computing ist das Identitätsmanagement in Cloud-basierten Systemen ein kritischer Punkt für die Nachhaltigkeit jedes Cloud-basierten Dienstes. Dieser Bereich hat auch von der Forschungsgemeinschaft sowie der IT-Branche große Aufmerksamkeit erfahren. Bisher wurden zahlreiche Cloud Identity Management Systeme (IDMS) vorgeschlagen, jedoch werden die meisten dieser Systeme aufgrund ihrer Einschränkungen in Bezug auf Umfang, Anwendbarkeit und Sicherheit weder allgemein akzeptiert noch als sehr zuverlässig angesehen. Um Zuverlässigkeit und Effektivität von IDMs für die Cloud zu erreichen, müssen weitere umfangreiche Forschungen durchgeführt werden, um Cloud-basierte IDMS und ihr Sicherheitsniveau kritisch zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s40294-014-0005-9 6643d5ebda144bfce1652cbca7ec692f;de;;;6.2.;;;Verbesserung der Patientenflexibilität bei der subkutanen Dosierung von Immunglobulin G: Pharmakokinetische Ergebnisse verschiedener Erhaltungs- und Belastungsschemata bei der Behandlung von primärer Immunschwäche Die Standardbehandlung für Patienten mit primärer Immunschwäche (PID) ist eine monatliche intravenöse Immunglobulin- (IVIG) oder wöchentliche/zweiwöchentliche subkutane Immunglobulin-(SCIG)-Infusion. Wir verwendeten pharmakokinetische Populationsmodellierung, um die Immunglobulin-G (IgG)-Exposition nach einer breiten Palette von SCIG-Dosierungsschemata zur Einleitung und Erhaltungstherapie bei Patienten mit PID vorherzusagen.;-;-;-;https://link.springer.com/article/10.1007/s13554-014-0018-0 fbdc20ace0ab4c678c202a8fa0a47993;de;;;6.2.;;;Überleben von Patienten mit Speiseröhren- und Magenkrebs mit adjuvanter und palliativer Chemotherapie – eine retrospektive Analyse einer registerbasierten Patientenkohorte Das Überleben von Patienten mit Ösophagus- und Magenkrebs, die mit Chemotherapie behandelt werden, wird selten außerhalb klinischer Studien untersucht. Daher verglichen wir die Wirksamkeit verschiedener kurativer oder palliativer Chemotherapien auf das Überleben von Patienten mit Speiseröhren- und Magenkrebs in einer „realen“ klinischen Umgebung.;-;-;-;https://link.springer.com/article/10.1007/s00228-020-02883-3 622d83930e3f1b9703e3baf5acfd0b2f;de;;;6.2.;;;Strategien von Lehramtsstudierenden für Naturwissenschaften im wissenschaftlichen Denken: der Fall der Modellierung Die Entwicklung wissenschaftlicher Argumentationskompetenzen ist ein zentrales Ziel der naturwissenschaftlichen Ausbildung. Um das komplexe Konstrukt des wissenschaftlichen Denkens, zu dem auch das Modellieren als eine Art des Denkens gehört, besser zu verstehen, sind gründliche Untersuchungen der zugrunde liegenden Prozesse erforderlich. Daher wurde in dieser Studie eine Typologie der Modellierungsstrategien von Lehramtsstudierenden in Naturwissenschaften entwickelt. Zweiunddreißig Lehramtsstudenten für Naturwissenschaften wurden auf Video aufgenommen, während sie sich mit der Modellierungsaufgabe der Untersuchung einer Blackbox beschäftigten. Nach einer qualitativen Inhaltsanalyse wurden Sequenzen von Modellierungsaktivitäten identifiziert. Durch die Transformation dieser Sequenzen von Modellierungsaktivitäten in Zustandsübergangsgraphen wurden sechs Typen von Modellierungsstrategien abgeleitet, die sich in der Homogenität und Komplexität ihrer Modellierungsprozesse unterscheiden. Die naturwissenschaftlichen Lehramtsvorbereitenden beschäftigten sich mit (1) ausschließlich Exploration, (2a) Exploration und Entwicklung mit Fokus auf Entwicklung, (2b) Exploration und Entwicklung mit Fokus auf Exploration, (2c) Exploration und Entwicklung, ausgewogen, (3a) einmalige Exploration, Entwicklung und Zeichnen von Vorhersagen aus einem Modell oder (3b) Exploration, Entwicklung und wiederholtes Zeichnen von Vorhersagen aus einem Modell. Abschließend wird diese Typologie hinsichtlich ihres Entwicklungsprozesses und ihres Potenzials diskutiert, die weitere Forschung sowie die Entwicklung von Interventionen zur Förderung von Kompetenzen in der wissenschaftlichen Modellierung zu informieren und zu leiten.;-;-;-;https://link.springer.com/article/10.1007/s11165-020-09945-7 6f350219a8d72c3098e1786476532c64;de;;;6.2.;;;Krampfanfälle zu Beginn einer aneurysmatischen SAH: Epiphänomen oder wertvoller Prädiktor? Krampfanfälle zu Beginn (SAO) einer aneurysmatischen Subarachnoidalblutung (aSAH) treten in bis zu einem von fünf Fällen auf. Bis heute besteht kein Konsens über den kausalen Hintergrund und den klinischen Wert dieser frühen blutungsbedingten Anfälle. Diese Studie zielte darauf ab, die Prädiktoren und die Auswirkungen von SAO bei aSAH zu analysieren.;-;-;-;https://link.springer.com/article/10.1007/s00415-020-10173-2 c547b77b84b2e3a059dc0a303a9af51e;de;;;6.2.;;;Haushaltspraktiken im Zusammenhang mit der Übertragung von Krankheiten zwischen Tieren und Menschen im ländlichen Kambodscha Zoonotische Krankheiten betreffen überproportional arme Gesellschaften in Ländern mit niedrigem Einkommen und stellen eine wachsende Bedrohung für die öffentliche Gesundheit und die globale Ernährungssicherheit dar. Ländliche kambodschanische Haushalte sind möglicherweise einer erhöhten Wahrscheinlichkeit ausgesetzt, Zoonosekrankheiten ausgesetzt zu sein, da die Menschen dort in enger Verbindung mit Vieh leben. Ziel der Studie war es, Praktiken zu identifizieren, von denen bekannt ist, dass sie die Übertragung von Zoonose in ländlichen kambodschanischen Haushalten beeinflussen, und die Praktiken in Bezug auf die agroökologische Region, die sozioökonomische Position, Demografie, die Tierhaltung und das Zoonosebewusstsein zu setzen.;-;-;-;https://link.springer.com/article/10.1186/s12889-015-1811-5 6262454c1e070d345c4b3c2d33c02752;de;;;6.2.;;;Patient-Oriented Research Competencies in Health (PORCH) für Patienten, Gesundheitsdienstleister, Entscheidungsträger und Forscher: Protokoll einer Scoping-Überprüfung Patient-Oriented Research (POR) ist eine kanadische Initiative für Gesundheitsforschung, die sich auf Forschungsprozesse bezieht, die von einer vollständigen und aktiven Beteiligung der Patienten an allen Aspekten der Forschung geprägt sind. Idealerweise führt POR zu einer breiten Verbreitung der Forschungsergebnisse und deren Aufnahme in die klinische Praxis und die Gesundheitspolitik. Das Canadian Institute for Health Research (CIHR) identifiziert vier an POR beteiligte Interessengruppen, die bei der Umsetzung dieses Forschungsansatzes eine kollaborative Rolle übernehmen sollen. Diese Interessengruppen sind Patienten, Forscher, Gesundheitsdienstleister und Entscheidungsträger im Gesundheitswesen. Um eine Zusammenarbeit zwischen den Interessengruppen in POR zu erreichen, sind für jede an dieser Arbeit beteiligte Interessengruppe Instrumente, Ressourcen, Aus- und Weiterbildung und Kapazitätsaufbau erforderlich. Daher konzentriert sich diese Überprüfung auf das Verständnis und die Artikulation von Kompetenzen, die die Teilnehmer benötigen, um sich an POR zu beteiligen. Ziel ist es, vorhandenes Wissen über einzelne POR-Kompetenzen für die vier Interessengruppen zusammenzufassen, die Zusammenarbeit zwischen ihnen zur Aufnahme und Stärkung von POR zu unterstützen und Politik, Bildung und zukünftige Forschung zu informieren. Dementsprechend lautet unsere Forschungsfrage „Was sind die POR-Kernkompetenzen, die von Patienten, Forschern, Gesundheitsdienstleistern und Entscheidungsträgern benötigt werden?“ Die Hauptziele sind (1) die systematische Erforschung der akademischen und grauen Literatur zu Kompetenzen, die für diese Interessengruppen erforderlich sind an POR zu beteiligen, (2) die in Frage kommenden Publikationen und Forschungslücken in diesem Bereich abzubilden, (3) Wissen zu gewinnen, um die Zusammenarbeit zwischen den Interessengruppen zu unterstützen, und (4) Empfehlungen für weitere Forschung zu geben, um Kompetenzen zu nutzen, die bei der Entwicklung der Bereitschaft von Interessengruppen entstehen POR durchzuführen.;-;-;-;https://link.springer.com/article/10.1186/s13643-018-0762-1 491960f2535b7a32c24736bc4bd8bbf9;de;;;6.2.;;;Diacylglycerin-Kinase- und Phospholipase-D-Hemmer verändern das zelluläre Lipidom und die endosomale Sortierung zum Golgi-Apparat Die Membranlipide Diacylglycerol (DAG) und Phosphatidsäure (PA) sind wichtige sekundäre Botenstoffe, die den Membrantransport regulieren können, indem sie Proteine ​​an die Membran rekrutieren und biophysikalische Membraneigenschaften verändern. DAG und PA sind am Transport vom Golgi-Apparat zu den Endosomen beteiligt, und wir haben hier untersucht, ob Veränderungen dieser Lipide für die Regulierung des Transports zum Golgi unter Verwendung des Proteintoxins Ricin wichtig sein könnten. Die Modulation von DAG- und PA-Spiegeln unter Verwendung von DAG-Kinase (DGK) und Phospholipase D (PLD)-Inhibitoren ergab eine starke Zunahme des retrograden Ricintransports, hatte jedoch nur geringe Auswirkungen auf das Ricin-Recycling oder den -Abbau. Die Behandlung mit Inhibitoren beeinflusste die Morphologie des Endosoms stark und erhöhte die endosomale Tubulation und Größe. Darüber hinaus war Ricin in diesen röhrenförmigen Strukturen zusammen mit Proteinen vorhanden, von denen bekannt ist, dass sie den retrograden Transport regulieren. Unter Verwendung von siRNA zum Abbau verschiedener Isoformen von PLD und DGK fanden wir heraus, dass mehrere Isoformen von PLD und DGK an der Regulierung des Ricintransports zum Golgi beteiligt sind. Schließlich haben wir durch die Durchführung einer Lipidomanalyse festgestellt, dass der DGK-Inhibitor einen schwachen, aber erwarteten Anstieg der DAG-Spiegel ergab, während der PLD-Inhibitor einen starken und unerwarteten Anstieg der DAG-Spiegel ergab, was zeigt, dass es wichtig ist, bei der Verwendung von Inhibitoren eine Lipidomanalyse durchzuführen des Fettstoffwechsels.;-;-;-;https://link.springer.com/article/10.1007/s00018-020-03551-6 ebc778e8ee1d9f366e6958d6a0a08506;de;;;6.2.;;;Ernährungsstrategien im Norden Ghanas. Eine sozialräumliche Analyse entlang des Stadt-Land-Kontinuums Die Ernährungsunsicherheit ist weltweit eine besorgniserregende Herausforderung, wobei Subsahara-Afrika am stärksten betroffen ist. Die Literatur zeigt, dass Ernährungsunsicherheit in Entwicklungsländern ein weitgehend „gemanagter Prozess“ ist, d. h. die Menschen sind aktiv an der Reaktion auf die Risiken beteiligt, denen sie im Leben ausgesetzt sind. Dieses Papier konzentriert sich darauf, wie Haushalte mit Nahrungsmittelknappheit umgehen und wie diese Nahrungsmittelbewältigungsstrategien entlang des Stadt-Land-Kontinuums variieren. Ein Transekt-Ansatz wurde verwendet, um die Datensammlung in und um die Stadt Tamale im Norden Ghanas zu leiten. Zwischen März und Mai 2014 wurden insgesamt 19 Fokusgruppendiskussionen mit jeweils acht Teilnehmenden (vier Frauen, vier Männer) durchgeführt. Zusätzlich wurden drei qualitative Tiefeninterviews, je eines im städtischen, periurbanen und ländlichen Raum, durchgeführt .;-;-;-;https://link.springer.com/article/10.1186/s40066-016-0052-x 94b2192061ce77d167129cc027883f40;de;;;6.2.;;;Sicherheit und patientenberichtete Ergebnisse bei der Indexablation versus Wiederholungsablation bei Vorhofflimmern: Erkenntnisse aus dem Deutschen Ablationsregister Die Pulmonalvenenisolation ist eine etablierte Strategie zur Katheterablation bei Vorhofflimmern (VHF). Bei einer signifikanten Anzahl von Patienten ist jedoch aufgrund des Wiederauftretens der Arrhythmie eine Wiederholung des Verfahrens erforderlich. In dieser Studie berichten wir Sicherheitsdaten und Verfahrensdetails von Patienten, die sich einer Indexablation im Vergleich zu einer wiederholten Ablation in einer registerbasierten Praxis unterziehen.;-;-;-;https://link.springer.com/article/10.1007/s00392-020-01763-1 75ff0ae4d8b2b400b50bd98b108eeb2a;de;;;6.2.;;;Gleichzeitige Anwendung von Arzneimitteln, von denen bekannt ist, dass sie Wechselwirkungen mit oralen Thrombozytenaggregationshemmern verursachen – Polypharmazie bei ambulanten Patienten mit akutem Koronarsyndrom in Finnland Die Verwendung von oralen Thrombozytenaggregationshemmern (OAPs) ist wichtig, um thrombotische Ereignisse bei Patienten mit akutem Koronarsyndrom (ACS) zu verhindern. Die Wirkungen von Clopidogrel, Prasugrel und Ticagrelor können aufgrund pharmakodynamischer Wechselwirkungen verstärkt werden, aber als CYP-Substrate neigen sie auch zu pharmakokinetischen Wechselwirkungen. Ziel war es, Polypharmazie bei ACS-Patienten nach Krankenhausentlassung zu untersuchen.;-;-;-;https://link.springer.com/article/10.1007/s00228-019-02777-z 0770e17ffae161fbe39540e26887f176;de;;;6.2.;;;Zusammenhang zwischen Kaliumkonzentrationen, Variabilität und Supplementierung und Krankenhausmortalität bei Intensivpatienten: eine retrospektive Analyse Die Serumkaliumkonzentrationen liegen üblicherweise zwischen 3,5 und 5,0 mmol/l. Standardisierte Protokolle für den Kaliumbereich und die Supplementation auf der Intensivstation fehlen. Der Zweck dieser retrospektiven Analyse von Intensivpatienten war es, Kaliumkonzentrationen, Variabilität und Supplementierung sowie ihren Zusammenhang mit der Krankenhausmortalität zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s13613-019-0573-0 cfbdff0f8c45f26c257803cba48335ca;de;;;6.2.;;;Unbeabsichtigte Schwangerschaft bei Sexarbeiterinnen in der Stadt Mekelle, Nordäthiopien: eine Querschnittsstudie Ungewollte Schwangerschaften sind weltweit ein bedeutendes Problem der öffentlichen Gesundheit. Insbesondere Sexarbeiterinnen sind dem Risiko ungewollter Schwangerschaften, Abtreibungen und deren Folgen ausgesetzt. Das Ziel dieser Studie war es daher, ungewollte Schwangerschaften und damit verbundene Faktoren bei weiblichen Sexarbeiterinnen in der Stadt Mekelle im Norden Äthiopiens zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s12889-015-1366-5 eebcc15c91aa0a3616bc95dbe29577f7;de;;;6.2.;;;Prognose von Drogenkonsum und -ausgaben: zehn Jahre Erfahrung in Stockholm Mit knappen Budgets stehen Zahler und Anbieter weltweit vor Herausforderungen, einen angemessenen und nachhaltigen Zugang zu neuen Medikamenten zu ermöglichen. Unter den Initiativen der Kostenträger, die darauf abzielen, die Bereitschaft der Gesundheitssysteme für die Einführung neuer Medikamente zu verbessern, spielen die Arzneimittelverwendung und die Ausgabenprognose eine immer wichtigere Rolle. Diese Studie zielt darauf ab, das in der Region Stockholm verwendete Vorhersagemodell zu beschreiben und die Genauigkeit der in den letzten zehn Jahren erstellten Vorhersagen zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s12913-020-05170-0 2675139295e7f71a3c6b33139bff3fbc;de;;;6.2.;;;Eine kohärente Datenfilterungsmethode für groß angelegte HF-Fingerabdruck-Wi-Fi-Positionierungssysteme Das schnelle Wachstum der mobilen Kommunikation und die Verbreitung von Smartphones haben den Location Based Services (LBS) große Aufmerksamkeit geschenkt. Das Wi-Fi Positioning System (WPS) ist eine neue attraktive Methode als breit anwendbare Ortungstechnik in LBS. Bei WPS werden die Daten der empfangenen Signalstärke (RSSI) aller Wi-Fi-Zugangspunkte (APs) gemessen und in einer riesigen Datenbank als eine Form einer Funk-Fingerabdruckkarte gespeichert. Aufgrund der Millionen von APs in städtischen Gebieten sind die Fingerabdruckdaten von Funkgeräten stark verseucht. Daher präsentieren wir ein kohärentes Filterverfahren für Funk-Fingerabdruckdaten. Alle Fingerabdrücke, die in der entwickelten Testumgebung verwendet werden, stammen aus tatsächlichen Funk-Fingerabdruckmessungen, die in ganz Seoul, Korea, durchgeführt wurden. Dies zeigt den praktischen Nutzen der vorgeschlagenen Methodik.;-;-;-;https://link.springer.com/article/10.1186/1687-1499-2014-13 d307494798f0006fc81f0cc7cda8b855;de;;;6.2.;;;Pflanzen-Endophyten-Partnerschaften zur Unterstützung der Erdölkohlenwasserstoffsanierung Erdölkohlenwasserstoffe (PHs) sind weltweit die am weitesten verbreiteten organischen Schadstoffe in Böden und Grundwasser. Die finanziellen, ökologischen und gesundheitlichen Auswirkungen der Schadstoffe sind beträchtlich. Vorschriften verlangen die Sanierung von Altlasten und fördern den Einsatz biologischer Methoden wie der Phytoremediation, bei der Pflanzen und die dazugehörigen Mikroorganismen eingesetzt werden. Obwohl es billig und nachhaltig ist, gibt es nur wenige Elemente wie die Effizienz und Vorhersehbarkeit, die seine Implementierung in kommerzielle Anwendungen verzögert haben. Endophytische Bakterien, die im Pflanzengewebe leben, sind von grundlegender Bedeutung für die Pflanzengesundheit und viele von ihnen können vom Wirt aufgenommene Verunreinigungen abbauen und so die Phytotoxizität verringern. Die Sequenzierung genomischer DNA reiner Stämme und endophytischer mikrobieller Gemeinschaften bietet entscheidende neue Möglichkeiten für Phytoremediationsanwendungen zur Wiederherstellung von PH-kontaminierten Böden. In diesem Kapitel diskutieren wir eine Reihe positiver Auswirkungen von Pflanzen-Endophyten-Partnerschaften und zeigen auf, wie neue Erkenntnisse aus der Genomik und Metagenomik die Bodensanierung unterstützen können, um das Pflanzenwachstum und die Ökosystemleistungen von rekultiviertem Boden zu verbessern.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-319-44535-9_9-1 f49913f24992f9eb8b7796f08a4d16c9;de;;;6.2.;;;Fernerfasster, nächtlicher Taupunkt korreliert mit Malariaübertragung in der Südprovinz, Sambia: eine Zeitreihenstudie Die Übertragung ist in Sambia in den letzten zehn Jahren deutlich zurückgegangen. Die Malariaübertragung wird durch Umweltvariablen beeinflusst. Die Einbeziehung von Umweltvariablen in Modelle der Malariaübertragung verbessert wahrscheinlich die Modellanpassung und sagt wahrscheinliche Trends bei Malariaerkrankungen voraus. Diese Arbeit basiert auf der Hypothese, dass fernerfasste Umweltfaktoren, einschließlich des nächtlichen Taupunkts, mit der Malariaübertragung in Verbindung stehen und die Übertragungsherde während der niedrigen Übertragungssaison in der südlichen Provinz Sambias aufrechterhalten.;-;-;-;https://link.springer.com/article/10.1186/1475-2875-13-231 c738240a32a6991ea6a3c18d921578c9;de;;;6.2.;;;Modulare Change Impact Analyse in Fabriksystemen Kürzere Produktinnovationszyklen, variantenreiche Produkte und Nachfrageschwankungen sowie Gerätelebenszyklen und Technologielebenszyklen zwingen produzierende Unternehmen dazu, ihr Fertigungssystem regelmäßig zu ändern. Um dieser Herausforderung zu begegnen, bedarf es eines effizienten und strukturierten Change Managements. Da Änderungsursachen und Fabrikelemente über ein komplexes Netz von Beziehungen und Flüssen verbunden sind, ist ein wesentlicher Schritt im Änderungsmanagement die Bewertung der überlegten Anpassungen hinsichtlich ihrer Auswirkungen auf das aktuelle Produktionssystem. Je nach Anwendungskontext muss die Change Impact Analyse spezifische Inputs verarbeiten und unterschiedliche Ergebnisse liefern. Aktuelle Ansätze konzentrieren sich jedoch jeweils nur auf ausgewählte Aspekte der Vielseitigkeit von Veränderungseffekten. Um dieser Herausforderung zu begegnen, präsentiert dieses Papier einen modularen Ansatz zur individuellen Gestaltung von Change Impact Analyse.;-;-;-;https://link.springer.com/article/10.1007/s11740-020-00979-4 4be0cdca8b8f09e7cde3d52549df1509;de;;;6.2.;;;Isochrone Funktion projektive Synchronisation zwischen chaotischen und zeitverzögerten chaotischen Systemen In diesem Artikel wird die projektive Synchronisation der isochronen Funktion zwischen chaotischen und zeitverzögerten chaotischen Systemen mit unbekannten Parametern untersucht. Basierend auf der Stabilitätstheorie von Lyapunov wurden adaptive Regler und Parameteraktualisierungsgesetze entwickelt, um die projektive Synchronisation der isochronen Funktion zwischen chaotischen und zeitverzögerten chaotischen Systemen zu erreichen. Das Schema wird angewendet, um die Synchronisation zwischen zeitverzögerten Lorenz-Systemen bzw. zeitverzögerten hyperchaotischen Chen-Systemen zu realisieren. Numerische Simulationen werden ebenfalls vorgestellt, um die Wirksamkeit der vorgeschlagenen Methode zu zeigen.;-;-;-;https://link.springer.com/article/10.1186/1687-1847-2012-37 a9614f853a1587592accbefe0afc4047;de;;;6.2.;;;Quanteneffekte in kalter und kontrollierter Molekulardynamik In diesem Kapitel werden drei Beispiele für Quanteneffekte diskutiert, die in modernsten Experimenten mit Molekularstrahlen beobachtet werden können – Streuresonanzen als Sonde für interpartikuläre Wechselwirkungen bei kalten Kollisionen, der Schutz von Fano-Feshbach-Resonanzen gegen Zerfall trotz ein Streukontinuum und ein Zirkulardichroismus in den Winkelverteilungen der Photoelektronen, die bei der Photoionisation zufällig orientierter chiraler Moleküle entstehen. Der Molekularstrahlaufbau liefert Moleküle in wohldefinierten Quantenzuständen. Dies, zusammen mit einer theoretischen Beschreibung basierend auf ersten Prinzipien, ermöglicht eine hervorragende Übereinstimmung zwischen theoretischer Vorhersage und experimenteller Beobachtung und damit ein rigoroses Verständnis der beobachteten Quanteneffekte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63963-1_21 4ba5806bd11c754b37c909bd1b60ee49;de;;;6.2.;;;Patientenselbstmanagement bei Primärversorgungspatienten mit leichter COPD – Protokoll einer randomisierten kontrollierten Studie zum telefonischen Gesundheitscoaching Die Prävalenz der diagnostizierten chronisch obstruktiven Lungenerkrankung (COPD) im Vereinigten Königreich beträgt 1,8 %, obwohl dies schätzungsweise weniger als die Hälfte der Gesamterkrankung in der Bevölkerung ausmacht, da viel nicht diagnostiziert wird. Fallfindungsinitiativen in der Primärversorgung werden Menschen mit leichten Erkrankungen und Symptomen identifizieren. In den meisten Selbstmanagementstudien wurden Patienten aus Kliniken der Sekundärversorgung oder nach einer Krankenhauseinweisung wegen einer Verschlimmerung ihres Zustands identifiziert. Diese Studie wird eine Grundversorgungspopulation mit leichten COPD-Symptomen rekrutieren und ein telefonisches Gesundheitscoaching nutzen, um das Selbstmanagement zu fördern.;-;-;-;https://link.springer.com/article/10.1186/s12890-015-0011-5 7c39485969750228dbf624c29d0bbe24;de;;;6.2.;;;Bewertung des Solarenergiepotenzials auf Dächern auf Gemeinschaftsebene mit meteorologischen, Atlas- und GIS-Daten: eine Fallstudie aus Guelph, Ontario (Kanada) Vorausschauende Regierungen erkennen an, dass die Nutzung lokaler erneuerbarer Ressourcen für die Widerstandsfähigkeit der Gemeinden von entscheidender Bedeutung ist, und entwickeln und implementieren kommunale Energiepläne (CEPs). Guelph, Ontario, (Kanada) nahm Solarenergie in seine KEP auf, aber die Frage des Ressourcenpotenzials blieb bestehen. Das Hauptziel dieser Arbeit war die Bewertung des Solarenergiepotenzials von Guelph mit Arrays von netzgebundenen, auf dem Dach montierten Photovoltaik- (PV) und Warmwasser-(HW)-Modulen.;-;-;-;https://link.springer.com/article/10.1186/2192-0567-2-23 d0b15804104e2b21826f82dbcf98f3e4;de;;;6.2.;;;Einfluss von Renin-Angiotensin-System-Hemmern und Betablockern auf die Stabilität von Zahnimplantaten Aktuelle experimentelle Untersuchungen deuten darauf hin, dass blutdrucksenkende Medikamente das Versagensrisiko von Zahnimplantaten aufgrund eines verbesserten Knochenumbaus verringern. Es fehlen jedoch Beweise aus klinischen Studien, in denen die Auswirkungen von blutdrucksenkenden Medikamenten auf die Implantatstabilität untersucht wurden.;-;-;-;https://link.springer.com/article/10.1186/s40729-021-00309-y 08cdef4aa0e11354a6860c6ce591e60b;de;;;6.2.;;;Studienprotokoll medizinische Rehabilitation nach COVID-19-Erkrankung: eine Beobachtungsstudie mit einer Vergleichsgruppe mit obstruktiver Atemwegserkrankung / Re_Co Die neuartige Coronavirus-Krankheit 2019 (COVID-19) war im vergangenen Jahr Gegenstand zahlreicher Forschungsprojekte. Bei schwerem Krankheitsverlauf oder drohender Langzeitbeeinträchtigung durch Krankheit bietet das deutsche Gesundheitssystem Versicherten die Möglichkeit einer medizinischen Rehabilitation. Im Gegensatz zu dem, was zu Beginn der Pandemie beobachtet und erwartet wurde, sind COVID-19-Patienten mit unterschiedlichen Schweregraden der Erkrankung in der Rehabilitation vertreten. Bisher gibt es weder einen gemeinsamen Konsens über Inhalt und Nachsorge der Rehabilitation noch Wissen über die kurz- und langfristigen Auswirkungen einer solchen Rehabilitation. Zudem wurden diese Aspekte im Hinblick auf den unterschiedlichen Schweregrad des Krankheitsverlaufs nicht berücksichtigt. Dieser Frage geht das vorliegende Forschungsprojekt nach.;-;-;-;https://link.springer.com/article/10.1186/s12913-021-06378-4 5ed1685b8d07c520fe4f7f6646f17a1d;de;;;6.2.;;;Chiropraktische Behandlungsansätze für Wirbelsäulen-Muskel-Skelett-Erkrankungen: eine Querschnittsübersicht Es gibt mehrere chiropraktische Wirbelsäulen-Manipulationstechniken. Es gibt jedoch nur begrenzte Untersuchungen, die die Wirksamkeit dieser Techniken differenzieren. Darüber hinaus können Chiropraktiker bei der Behandlung von Muskel-Skelett-Schmerzen zusätzliche Verfahren anwenden, eine Variable, die auch bei der Messung der Wirksamkeit einer chiropraktischen Therapie berücksichtigt werden muss. Zur Häufigkeit des Einsatzes chiropraktischer Techniksysteme oder ergänzender Verfahren zur Behandlung bestimmter Erkrankungen des Bewegungsapparates liegen derzeit keine Daten vor. Zu wissen, welche technischen Systeme und Hilfsverfahren am häufigsten verwendet werden, kann für zukünftige Forschungen hilfreich sein. Ziel dieser Forschung war es, Erkenntnisse darüber zu gewinnen, welche Behandlungsansätze von australischen Chiropraktikern am häufigsten zur Behandlung von Wirbelsäulen-Muskel-Skelett-Erkrankungen verwendet werden.;-;-;-;https://link.springer.com/article/10.1186/s12998-014-0033-8 9d65a9941c0eb97d6217ea5620e0334f;de;;;6.2.;;;Wirksamkeit von Dia Die weltweite Prävalenz von Diabetes mellitus (DM) hat in den letzten Jahrzehnten zugenommen. In Deutschland wird die Prävalenz für DM Typ 1 und Typ 2 bei Erwachsenen auf etwa 7,7 % geschätzt. Daher muss Diabetes als ernstes Problem der öffentlichen Gesundheit eingestuft werden. Die Diagnose DM und mögliche Folgeschäden können sich negativ auf das psychische und körperliche Wohlbefinden der Patienten auswirken. Diabetes betrifft jedoch nicht nur die Patienten selbst, sondern auch ihre nahen Angehörigen. Um die Lebensqualität von Patienten und Angehörigen gleichermaßen zu verbessern, hat der Verband der Diabetes-Krankenschwestern und -Experten (VDBD) erstmals ein maßgeschneidertes Fortbildungsprogramm für Angehörige von Diabetes-Patienten entwickelt. Dieser Artikel beschreibt das Konzept und das Design der Studie, die die Wirksamkeit dieses Schulungsprogramms namens „Dia . bewertet;-;-;-;https://link.springer.com/article/10.1186/s13063-019-3600-4 b5873b4c059a98cc2b1e85d6ea4c05aa;de;;;6.2.;;;Eine randomisierte Studie zur Behandlung von Myomen entweder mit Embolisation oder Myomektomie, um die Auswirkungen auf die Lebensqualität bei Frauen zu messen, die eine Hysterektomie vermeiden möchten (die FEMME-Studie): Studienprotokoll für eine randomisierte kontrollierte Studie Uterusmyome sind der häufigste Tumor bei Frauen im gebärfähigen Alter. Bis sie 50 Jahre alt sind, haben etwa 80 % der Frauen eine solche entwickelt. Bei etwa der Hälfte von ihnen treten Symptome auf, die sich negativ auf ihre Lebensqualität auswirken. Die Hysterektomie ist die traditionelle Behandlung von Frauen mit symptomatischen Myomen. Für Frauen, die sich keiner Hysterektomie unterziehen möchten, stehen üblicherweise zwei invasive Behandlungen zur Verfügung: Myomektomie oder Uterusarterienembolisation (UAE).;-;-;-;https://link.springer.com/article/10.1186/1745-6215-15-468 eceecddc7d2b60530edc3ae746d687fa;de;;;6.2.;;;Stabilität und Periodizität für impulsive neuronale Netze mit Verzögerungen Durch Konstruktion eines geeigneten Lyapunov-Funktionals und unter Verwendung einiger Ungleichungen untersuchen wir die Existenz, Eindeutigkeit und globale exponentielle Stabilität periodischer Lösungen für eine Klasse generalisierter zellulärer neuronaler Netze mit Impulsen und zeitvariablen Verzögerungen. Schließlich werden ein anschauliches Beispiel und Simulationen gegeben, um die Wirksamkeit der wichtigsten Ergebnisse zu zeigen.;-;-;-;https://link.springer.com/article/10.1186/1687-1847-2013-352 f0e249d6e46158e4574c9caca916dd5b;de;;;6.2.;;;HIV-1 gp120 beeinflusst die Expression von microRNAs in humanen von Monozyten abgeleiteten dendritischen Zellen über die STAT3-Aktivierung MicroRNAs (miRs) sind eine reichlich vorhandene Klasse kleiner nicht-kodierender RNAs (~22 nt), die die Genexpression umprogrammieren, indem sie auf den mRNA-Abbau und die Translationsstörung abzielen. Ein aufkommendes Konzept impliziert die miR-Kopplung mit Transkriptionsfaktoren bei der Entwicklung und Funktion myeloischer Zellen und trägt so zur Abwehr und Entzündung des Wirts bei. Die wichtige Rolle, die diese Moleküle bei der Pathogenese von HIV-1 spielen, zeichnet sich erst jetzt ab.;-;-;-;https://link.springer.com/article/10.1186/s12864-015-1673-3 18f2db66ba4bfd2d178443538c1ea2d4;de;;;6.2.;;;Prävalenz und Korrelate für Durchfall in den bergigen informellen Siedlungen der Stadt Huye, Ruanda Von Bewohnern urbaner informeller Siedlungen in Entwicklungsländern wird regelmäßig berichtet, dass sie Opfer einer hohen Durchfallprävalenz sind. Studien haben häufig über den Zusammenhang zwischen einer hohen Durchfallprävalenz und anderen Faktoren wie schlechten Lebensbedingungen, unzureichender Hygiene und sanitären Einrichtungen in diesen Einrichtungen berichtet. Über die Dynamik der Durchfallprävalenz in bergigen städtischen informellen Siedlungen, ähnlich dem ruandischen Kontext, ist jedoch wenig bekannt. Diese Studie wurde in der Matyazo-Zelle der Stadt Huye durchgeführt, um die Prävalenz und die Korrelate von Durchfall zu untersuchen. Während der Regen- und Trockenzeit wurde eine Befragung von 214 Haushalten und Transektwanderungen in den Nachbarschaften durchgeführt. Zur Analyse der Umfragedaten wurde eine logistische Regression verwendet, während zur Analyse qualitativer Daten die thematische Analysetechnik verwendet wurde. Die Ergebnisse zeigten eine erhebliche Verringerung der Durchfallprävalenz von der Regen- bis zur Trockenzeit. Es zeigte sich auch, dass die Prävalenz in den Wohnvierteln nach Wohnort ungleich verteilt war. Nach Kontrolle anderer Haushaltsmerkmale und sanitärer Bedingungen in der Umgebung von Häusern zeigte die Studie, dass Haushalte mit einer Höhe von 1800 Metern oder mehr über dem Meeresspiegel während beider Regenzeiten vor Durchfall geschützt waren (Adjusted Odds Ratio_ AOR: 0,42, 95% Konfidenzintervall_ CI: .13-.81) und Trockenzeiten (AOR: .58, CI: .12-.90), während Haushalte, die weiter von der Straße entfernt waren, während der Regenzeit wahrscheinlich an Durchfall litten (AOR: 3.32, CI: 1.47-7.48) sowie in Trockenzeiten (AOR: 1,60, CI: 1,26-4,10). Es wurde auch festgestellt, dass schlechte Hygiene in und um Häuser mit der Zunahme von Durchfall in jeder Jahreszeit in Verbindung steht. Die Evidenz reichte jedoch nicht aus, um einen signifikanten Zusammenhang zwischen der Durchfallprävalenz und anderen Haushaltsmerkmalen zu bestätigen. Wir glauben, dass dies auf die Stärke der Umweltfaktoren in Berggebieten zurückzuführen ist.;-;-;-;https://link.springer.com/article/10.1186/2193-1801-3-745 b90d7a0fb3efe38998c4099092ab5532;de;;;6.2.;;;Qualitätsfaktor-Verfeinerung der SSU-rRNA-Gen-Pyrosequenzierung unterscheidet sich in der Genregion für Umweltproben Aufgrund potenzieller Sequenzierungsfehler in Pyrosequenzierungsdaten können Artenreichtums- und Diversitätsindizes mikrobieller Systeme falsch berechnet werden. Die „traditionelle“ Methode der Sequenzverfeinerung reicht nicht aus, um Überschätzungen (z. B. Länge, Primerfehler, mehrdeutige Nukleotide) zu berücksichtigen. Jüngste In-silico- und Einzelorganismus-Studien haben die Bedeutung von Sequenzqualitätswerten bei der Schätzung ökologischer Indizes gezeigt. Dies ist jedoch die erste Studie, die die Stringenzen der Qualitätsscores über vier Regionen der SSU-rRNA-Gensequenz (V1V2, V3, V4 und V6) mit tatsächlichen Umgebungsproben direkt mit entsprechenden Klonbibliotheken verglichen, die aus denselben Primersätzen hergestellt wurden. Die mittels Pyrosequenzierung bestimmten Nukleinsäuresequenzen wurden unterschiedlichen Qualitätsscore-Cutoffs unterzogen, die von 25 bis 32 reichten, und bei jedem Quality-Score-Cutoff durften entweder 10 oder 15 % der Nukleotide unter dem Cutoff liegen. Wenn die Schätzungen des Artenreichtums für die getesteten Proben verglichen wurden, wurden die Cutoff-Werte von Q27;-;-;-;https://link.springer.com/article/10.1007/s00248-012-0043-9 60af6b981e5a7e712caacce9020fddde;de;;;6.2.;;;Die Rolle bereits vorhandener kreuzreaktiver Antikörper bei der Bestimmung der Wirksamkeit von Impfungen beim Menschen: Studienprotokoll für eine randomisierte kontrollierte Studie Epidemische Viruserkrankungen sind häufiger geworden. Unter den verschiedenen Strategien zur Vorbeugung solcher Epidemien ist die Impfung die kostengünstigste. Allerdings sind Populationen, die immunisiert sind, typischerweise bereits mehreren früheren Impfungen oder natürlichen Infektionen ausgesetzt. Studien aus diesem und anderen Labors haben gezeigt, dass vorbestehende Dengue-Antikörper eine nachfolgende Dengue-Infektion abhängig von den bereits bestehenden Antikörperspiegeln entweder hemmen oder verstärken können. Während kreuzreaktive Antikörper bei Dengue potenziell pathogen sind, ist unklar, wie sie die Immunantwort auf die Impfung beeinflussen. An der Impfstelle und den entsprechenden drainierenden Lymphknoten sind antigenpräsentierende und immunregulatorische Zellen aggregiert, die Fc-Rezeptoren exprimieren und eine entscheidende Rolle bei der Bestimmung der Stärke und Polarität der Immunantwort spielen. Die Impfstoffaufnahme durch diese Antigen-präsentierenden Zellen kann somit entweder gehemmt oder verstärkt werden, wenn Impfstoffe mit kreuzreaktiven Antikörpern opsonisiert werden.;-;-;-;https://link.springer.com/article/10.1186/s13063-015-0651-z 4b0dfdaa73a535915afd823edc9a15d1;de;;;6.2.;;;Internet der Dinge: Wo man sein muss, ist Vertrauen Die Schaffung von Netzwerken wird immer und überall erforderlich. Geräte, die an diesen Netzwerken teilnehmen können, können sehr unterschiedlich sein. Sensoren, Mobiltelefone, Haushaltsgeräte oder andere Arten von Geräten müssen zusammenarbeiten, um die den Kunden bereitgestellten Dienste zu verbessern und zu verbessern. Ebenso müssen die Netzwerkkonfiguration, die Einrichtung von Sicherheitsmechanismen und die optimale Leistungskontrolle von ihnen durchgeführt werden. Einige dieser Geräte haben möglicherweise begrenzte Ressourcen zum Arbeiten, manchmal sogar keine Ressourcenbeschränkung, sie müssen arbeiten, um den Netzwerkverkehr zu optimieren. In diesem Artikel konzentrieren wir unsere Forschung auf spontane Netzwerke. Wir schlagen ein sicheres spontanes Ad-hoc-Netzwerk vor, das auf direkter Peer-to-Peer-Interaktion und Community-Erstellung basiert, um Benutzern einen schnellen, einfachen und sicheren Zugang zum Surfen im Internet zu gewähren. Jedes Gerät hat eine Identität im Netzwerk. Jede Gemeinschaft wird auch eine Identität haben und als Einheit in einer Welt agieren, die auf einer Internetverbindung basiert. Die Sicherheit wird in dem Moment hergestellt, in dem sie auf das Netzwerk zugreifen, indem die von den Knoten generierte Vertrauenskette verwendet wird. Vertrauen wird von jedem Knoten auf der Grundlage des Knotenverhaltens modifiziert.;-;-;-;https://link.springer.com/article/10.1186/1687-1499-2012-203 e19a0d86d8b19743eec627088985b03e;de;;;6.2.;;;Außenluftverschmutzung durch Industriechemikalien, die ein neues Auftreten von Asthma oder COPD verursachen: ein systematisches Überprüfungsprotokoll Bis heute tragen industrielle Quellen zur vielfältigen Belastung der Umgebungsluft bei. Die Exposition gegenüber Luftschadstoffen hat das Potenzial, Asthma und chronisch obstruktive Lungenerkrankungen (COPD) auszulösen und zu fördern. Auf globaler Ebene verursachen beide Entitäten die Mehrheit der jährlich etwa 4 Millionen Todesfälle durch Atemwegserkrankungen. Wir haben jedoch industrielle Kontamination als Untergruppe der Luftverschmutzung identifiziert, die mit dieser Belastung in Verbindung stehen kann und in der Forschung zu wenig untersucht wird. Ziel dieser Studie ist es daher, Zusammenhänge zwischen industriell in die Umgebungsluft freigesetzten Stoffen und dem Auftreten von Asthma und COPD in der menschlichen Bevölkerung zu untersuchen. Hier präsentieren wir das Protokoll für unsere systematische Überprüfung der aktuellen Evidenz.;-;-;-;https://link.springer.com/article/10.1186/s12995-020-00289-6 c2518b42b0550181e86ed035089a580a;de;;;6.2.;;;Auswahl der richtigen NoSQL-Datenbank für den Job: eine Bewertung der Qualitätsmerkmale Seit über vierzig Jahren sind relationale Datenbanken das führende Modell für Datenspeicherung, -abruf und -verwaltung. Aufgrund des steigenden Bedarfs an Skalierbarkeit und Leistung sind jedoch alternative Systeme entstanden, nämlich die NoSQL-Technologie. Das steigende Interesse an der NoSQL-Technologie sowie die Zunahme an Anwendungsszenarien in den letzten Jahren führten zu immer mehr Bewertungen und Vergleichen zwischen konkurrierenden NoSQL-Technologien. Während sich die meisten Forschungsarbeiten hauptsächlich auf die Leistungsbewertung anhand von Standard-Benchmarks konzentrieren, ist es wichtig zu beachten, dass die Architektur von realen Systemen nicht nur von Leistungsanforderungen bestimmt wird, sondern viele andere Anforderungen an Qualitätsmerkmale umfassend umfassen muss. Software-Qualitätsattribute bilden die Grundlage, auf der Software-Ingenieure und -Architekten Software entwickeln und Designentscheidungen treffen. Es gab jedoch keine auf Qualitätsmerkmale fokussierte Erhebung oder Klassifizierung von NoSQL-Datenbanken, bei der Datenbanken hinsichtlich ihrer Eignung für Qualitätsmerkmale verglichen werden, die beim Design von Unternehmenssystemen üblich sind. Um diese Lücke zu schließen und Software-Ingenieuren und -Architekten zu helfen, untersuchen und erstellen wir in diesem Artikel einen kompakten und aktuellen Vergleich von NoSQL-Engines und identifizieren ihre vorteilhaftesten Anwendungsszenarien aus Sicht der Software-Ingenieure und der Qualität Attribute, für die jeder von ihnen am besten geeignet ist.;-;-;-;https://link.springer.com/article/10.1186/s40537-015-0025-0 f8468cd43ff1470b823333d56aea3e42;de;;;6.2.;;;Ein Ausbruch einer Pneumokokken-Meningitis bei älteren Kindern (≥5 Jahre) und Erwachsenen nach der Durchführung eines Säuglingsimpfungsprogramms mit dem 13-valenten Pneumokokken-Konjugatimpfstoff in Ghana Zwischen Dezember 2015 und April 2016 kam es in der Region Brong-Ahafo in Ghana zu einem Ausbruch einer Pneumokokken-Meningitis bei nicht Säuglingskindern und Erwachsenen, obwohl kürzlich ein Impfprogramm für Säuglinge mit dem 13-valenten Pneumokokken-Konjugatimpfstoff (PCV13) landesweit durchgeführt wurde.;-;-;-;https://link.springer.com/article/10.1186/s12879-016-1914-3 16f11921b7a224d84c6586070e3e3995;de;;;6.2.;;;Identifizierung von Ansatzpunkten zur Förderung von Gesundheit und Wohlbefinden auf Gemeindeebene – eine qualitative Studie Da die Gesundheit von den sozialen, wirtschaftlichen und ökologischen Bedingungen beeinflusst wird, unter denen der Einzelne lebt, sind lokale Gemeinschaften ein ideales Umfeld, um Gesundheit und Wohlbefinden zu fördern. Bisher waren jedoch verschiedene Maßnahmen zur Gesundheitsförderung auf Gemeindeebene nur begrenzt erfolgreich, was möglicherweise auf ein unvollständiges Verständnis der lokalen Kontexte und Prioritäten zurückzuführen ist. Unser Ziel war es daher, ein breiteres und tieferes Verständnis der Themen oder Probleme zu entwickeln, die für die Bewohner einer südwestdeutschen Gemeinde am wichtigsten waren, indem wir ihre Wahrnehmung von Bedürfnissen, Herausforderungen, Hindernissen und vorhandenen Ressourcen in Bezug auf Gesundheit und Wohlbefinden untersuchten.;-;-;-;https://link.springer.com/article/10.1186/s12889-019-6425-x dcb2f4da13c9416b0d8c3ab96dfad736;de;;;6.2.;;;Vorbereitung der Belegschaft: das Biohealth-Computing-Modell für Master- und Doktoranden Der Artikel befasst sich mit der strategischen Rolle der Personalvorbereitung im Prozess der Einführung der Systemmedizin als Triebfeder der biomedizinischen Forschung im neuen Gesundheitsparadigma. Es berichtet über einschlägige Initiativen wie CASyM zur Förderung der Systemmedizin auf EU-Ebene. Das Kapitel konzentriert sich auf das BioHealth Computing Program als Referenz für die multidisziplinäre Ausbildung zukünftiger systemorientierter Forscher und beschreibt die produktiven Interaktionen mit dem Synergy-COPD-Projekt.;-;-;-;https://link.springer.com/article/10.1186/1479-5876-12-S2-S11 d77d721b0a0e98d4f82b1ff76f6802c2;de;;;6.2.;;;Ansichten von Gesundheitsdienstleistern zur Akzeptanz finanzieller Anreize für das Stillen: eine qualitative Studie Trotz eines allmählichen Anstiegs der Stillraten gibt es im Vereinigten Königreich insgesamt große Unterschiede, wobei ein Trend zu Stillraten in der 6.–8. Während finanzielle Anreize mit unterschiedlichem Erfolg eingesetzt wurden, um positive gesundheitsbezogene Verhaltensänderungen zu fördern, gibt es nur wenige Untersuchungen zu ihrem Einsatz zur Förderung des Stillens. In diesem Papier berichten wir über die Ansichten von Gesundheitsdienstleistern, ob der Einsatz finanzieller Anreize in Gebieten mit niedrigen Stillraten grundsätzlich akzeptabel wäre. Diese Forschung war Teil eines größeren Projekts, das die Entwicklung und Durchführbarkeitsprüfung eines finanziellen Anreizsystems für das Stillen in Vorbereitung auf eine randomisierte kontrollierte Clusterstudie untersuchte.;-;-;-;https://link.springer.com/article/10.1186/1471-2393-14-355 382a1b2b92a96a67d877929b78da9950;de;;;6.2.;;;Erzeugung rekombinanter virusähnlicher Partikel des porcinen Circovirus Typ 2 Kapsidproteins in Hefe und ihre Verwendung für einen serologischen Assay und die Entwicklung monoklonaler Antikörper Das Porcine Circovirus Typ 2 (PCV2) gilt als wichtiger neu auftretender Erreger, der mit einer Reihe verschiedener Syndrome und Erkrankungen bei Schweinen, den sogenannten PCV2-assoziierten Erkrankungen, in Verbindung steht. Es ist für eine erhebliche Sterblichkeit bei Schweinen verantwortlich und bleibt ein ernstes wirtschaftliches Problem für die Schweineindustrie weltweit, was zu erheblichen negativen Auswirkungen auf die Rentabilität der Schweineproduktion führt.;-;-;-;https://link.springer.com/article/10.1186/s12896-014-0100-1 ae4b9a19a12a83e224ad6363c4fcd0a7;de;;;6.2.;;;Eine Querschnittsanalyse der Auswirkungen von Wohngrün auf den Blutdruck bei 10-jährigen Kindern: Ergebnisse der Studien GINIplus und LISAplus Nach Ulrichs psychoevolutionärer Theorie mildert der Kontakt mit grüner Umgebung Stress durch Aktivierung des parasympathischen Systems (insbesondere durch Senkung des Blutdrucks (BP)). Experimentelle Studien haben diese biologische Wirkung bestätigt. Allerdings wurden die Greenness-Effekte auf den Blutdruck noch nicht mit einem Beobachtungsstudiendesign untersucht. Wir untersuchten, ob die umgebende Wohnbegrünung bei 10-jährigen deutschen Kindern mit BP assoziiert ist.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-14-477 a6f1e844458d599ad2da202bab904d33;de;;;6.2.;;;Sichere und wirksame Artemisinin-basierte Kombinationsbehandlungen für afrikanische schwangere Frauen mit Malaria: eine multizentrische randomisierte Kontrollstudie Asymptomatische und symptomatische Malaria während der Schwangerschaft hat Folgen sowohl für die Mutter als auch für ihre Nachkommen. Leider liegen keine ausreichenden Informationen über die Sicherheit und Wirksamkeit der meisten Antimalariamittel in der Schwangerschaft vor. Tatsächlich schließen klinische Studien zur Bewertung von Malariabehandlungen eine Schwangerschaft aus Angst vor Teratogenität und Embryotoxizität systematisch aus. Die wenigen verfügbaren Informationen stammen aus Südostasien, während diese in Subsahara-Afrika noch begrenzt sind und bereitgestellt werden müssen.;-;-;-;https://link.springer.com/article/10.1186/1742-4755-12-5 ab351956ca69f41a05b59151157f01ca;de;;;6.2.;;;Die Auswirkungen einer anthelmintischen Behandlung auf Malariainfektion und Anämie bei Schul- und Vorschulkindern im Distrikt Magu, Tansania: eine offene randomisierte Interventionsstudie Einige Studien haben gezeigt, dass Helmintheninfektionen das Risiko einer Malariainfektion erhöhen und mit einer erhöhten Anzahl von Malariaanfällen und Anämie verbunden sind. Somit können Interventionen zur Kontrolle von Helmintheninfektionen einen Einfluss auf das Auftreten von klinischer Malaria und Anämie haben. In der aktuellen Studie wurden die Auswirkungen zweier anthelmintischer Behandlungsansätze auf Malariainfektionen und Anämie bei Schul- und Vorschulkindern im Distrikt Magu, Tansania, untersucht.;-;-;-;https://link.springer.com/article/10.1186/s12879-015-0864-5 d8ecd3f8f9212afd50719848fc553f61;de;;;6.2.;;;Umfassende Analyse der Assoziation von zirkulierenden Adipokinen und hsCRP mit Risikofaktoren für Herz-Kreislauf-Erkrankungen und metabolischem Syndrom bei Arabern Herz-Kreislauf-Erkrankungen (CVD) sind weltweit eine der häufigsten Todesursachen, auch im Nahen Osten. Dies wird teilweise durch die Fehlregulation des Fettgewebes verursacht, was zu einer erhöhten Produktion von entzündungsfördernden Adipokinen und einer Verringerung von kardioprotektiven Adipokinen wie Adiponektin führt. Ethnische Zugehörigkeit wurde als wichtiger Faktor in der Assoziation zwischen CVD-Risikofaktoren und den verschiedenen zirkulierenden Adipokinen erkannt. In dieser Studie wurde zum ersten Mal der Zusammenhang zwischen traditionellen kardiovaskulären Risikofaktoren, dem metabolischen Syndrom (MetS) und dem zirkulierenden Adipokinspiegel bei arabischer Ethnie untersucht.;-;-;-;https://link.springer.com/article/10.1186/1475-2840-13-76 2487720d0d22ff17b743798251852be1;de;;;6.2.;;;Genetische Polymorphismen von VIP-Varianten in der tadschikischen Volksgruppe im Nordwesten Chinas Das individuelle Ansprechen auf Medikamente variiert zwischen verschiedenen Bevölkerungsgruppen erheblich, und in den letzten 50 Jahren wurden große Fortschritte beim Verständnis der molekularen Grundlagen der Arzneimittelwirkung erzielt. Das Gebiet der Pharmakogenomik versucht, vererbte Unterschiede in der Disposition und Wirkung von Arzneimitteln aufzuklären. Obwohl wir wissen, dass verschiedene Bevölkerungsgruppen und ethnische Gruppen genetisch heterogen sind, haben wir keine pharmakogenomischen Informationen zu Minderheitengruppen wie der tadschikischen Volksgruppe im Nordwesten Chinas gefunden.;-;-;-;https://link.springer.com/article/10.1186/s12863-014-0102-y bdbfa85e01f0123d41010c9f63fc23a2;de;;;6.2.;;;Eine Schaukel und ein Kind: Wie wissenschaftliche Phänomene für die aufstrebenden wissenschaftlichen Identitäten von Vorschulkindern wichtig werden können Im Mittelpunkt dieser Studie stehen das Zusammenwirken eines 5-jährigen Mädchens, eine Schaukel und physikalische Phänomene. Die Studie untersucht, wie der Schwung und die körperlichen Phänomene als Mitgestalter der wissenschaftlichen Erkundungen des Mädchens sowie ihrer körperlichen Fähigkeiten und Identitätskonstruktion wirkten. Empirisch verwendet die Studie eine Videosequenz, die während einer Feldstudie in einer schwedischen Vorschule mit 5-jährigen Kindern erstellt wurde. Die Feldstudie konzentrierte sich auf das Spielen und Erkunden der Kinder zusammen mit der Vorschulumgebung bei Aktivitäten, die nicht speziell von Lehrern geleitet wurden. Um das aufkommende wissenschaftliche Lernen von Kindern als wechselseitig mit ihrer Identitätskonstruktion und als gemeinsam mit nichtmenschlichen Akteuren geschaffen zu konzeptualisieren, kombiniert die Studie Perspektiven aus dem neuen Materialismus, der aufkommenden Wissenschaft, der Physik und der Geschlechtertheorie. Als theoretische und methodische Grundlage wurde eine neue materialistische Perspektive verwendet, die sich auf Karen Barads (Meeting the Universe halfway. Quantum physics of the verschränkung von Materie und Bedeutung, Duke University Press, London, 2007) stützte, Theorie des agentiellen Realismus und diffraktiver Methodik, sowie Elizabeth de Freitas und Anna Palmer (Cult Stud Sci Educ 11(4):1201–1222, 2016.;-;-;-;https://link.springer.com/article/10.1007/s11422-020-09980-w cf08bdb070d590bd3fc2462efa2f88ff;de;;;6.2.;;;Säkulare Trends bei kardiovaskulären Risikofaktoren bei Frauen im Alter von 45–54 Jahren in Göteborg, Schweden, von 1980 bis 2014 In den einkommensstarken westlichen Ländern wurde in den letzten Jahrzehnten ein rückläufiger Trend beim mittleren Cholesterinspiegel und beim Rauchen beobachtet, während die Fettleibigkeitsraten zugenommen haben. Gleichzeitig ist die Sterblichkeit durch koronare Herzkrankheiten zurückgegangen. Ziel der vorliegenden Studie war es, festzustellen, ob sich die Trends der kardiovaskulären Risikofaktoren in aufeinanderfolgenden Kohorten von Frauen mittleren Alters über einen Zeitraum von 34 Jahren fortgesetzt haben.;-;-;-;https://link.springer.com/article/10.1186/s12889-020-09098-2 e179e89530822bc2eddd5ad493c536c3;de;;;6.2.;;;Erweiterung des Zugangs zu Verwaltungsdaten: der Fall der Steuerbehörden in Finnland und im Vereinigten Königreich Wir diskutieren typische Probleme beim Zugang zu und der Nutzung hochwertiger administrativer Steuerdaten für Forschungszwecke. Wir besprechen Forschungen, die sowohl Quasi- als auch Feldversuche umfassen, die gemeinsam mit der Steuerbehörde durchgeführt werden. Basierend auf unseren Erfahrungen aus der Zusammenarbeit mit den Steuerbehörden in Finnland und Großbritannien denken wir über praktische Lösungen nach, die die gemeinsame Schaffung von Wissen fördern und Informationsasymmetrien zwischen Forschern und Praktikern reduzieren. Wir stellen Beispiele zur Verbesserung der allgemeinen Forschungsumgebung vor, wobei wir uns auf zwei erfolgreiche Fallstudien konzentrieren: das HMRC Datalab in Großbritannien und den Fernzugriff auf Daten von Statistics Finland. Wir schlagen zwei Hauptargumente vor, um politische Entscheidungsträger anderswo davon zu überzeugen, ähnlichen Praktiken zu folgen: verbesserte Datensicherheit und gleicher Zugang für alle Forscher.;-;-;-;https://link.springer.com/article/10.1007/s10797-018-9525-0 d58fcaf8c7267e1e8fd81a966d320103;de;;;6.2.;;;Validierung einer Blutproteinsignatur bei nicht-kleinzelligem Lungenkrebs Das CT-Screening auf Lungenkrebs ist wirksam bei der Senkung der Sterblichkeit, aber es gibt Bereiche, die Anlass zur Sorge geben, darunter ein positiver Vorhersagewert von 4% und die Entwicklung von Intervallkrebs. Ein Bluttest, der diese Einschränkungen bewältigen könnte, wäre nützlich, aber die Entwicklung solcher Tests wurde durch Variationen bei der Blutentnahme beeinträchtigt, die zu einer schlechten Reproduzierbarkeit in allen Populationen führen können.;-;-;-;https://link.springer.com/article/10.1186/1559-0275-11-32 2f332aa204b8e607834b4a709b4bbf39;de;;;6.2.;;;Entmystifizierung der SAP-Sicherheit Dieser Artikel versucht, die funktionsreichen SAP-Sicherheitsfunktionen zu entmystifizieren, zu zeigen, wie sie zusammenarbeiten können, um eine starke Sicherheitsposition aufzubauen, und wie man einige klassische Fallstricke vermeidet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-8348-9363-5_3 7b3155885ddaef19b04bfab1ef287790;de;;;6.2.;;;Expression von epithelial-mesenchymalen übergangsbezogenen Markern und Phänotypen während der Brustkrebsprogression Die Studie zielte darauf ab, die Expression von epithelial-to-mesenchymal Transition (EMT)-verwandten Proteinen und Phänotypen während der Brustkrebsprogression zu untersuchen und diese mit dem Patienten-Outcome in Verbindung zu bringen.;-;-;-;https://link.springer.com/article/10.1007/s10549-020-05627-0 677ea41d1a3389ae5234b6f96a305402;de;;;6.2.;;;Pilotierung einer Nachsorgeklinik auf der Intensivstation zur Verbesserung der gesundheitsbezogenen Lebensqualität von Überlebenden auf der Intensivstation nach einem verlängerten Intensivaufenthalt (PINA): Studienprotokoll für eine randomisierte kontrollierte Pilotstudie Überlebende von Intensivstationen (ICU) leiden häufig an kognitiven, körperlichen und geistigen Beeinträchtigungen, dem sogenannten Post-Intensiv-Care-Syndrom (PICS). Nachsorgekliniken auf der Intensivstation können die Nachsorge dieser Patienten verbessern. Es fehlt an Evidenz, ob bzw. welches Konzept einer Intensiv-Folgeklinik wirksam ist. Im Rahmen der PINA-Studie wurde ein Konzept für eine Intensivstations-Follow-up-Klinik entwickelt und in einer randomisierten kontrollierten Pilotstudie (RCT) getestet, um vor allem die Machbarkeit und zusätzlich das Wirksamkeitspotenzial zu evaluieren.;-;-;-;https://link.springer.com/article/10.1186/s40814-021-00796-1 06abb5b9ef4b016181cea6752b629775;de;;;6.2.;;;Therapeutische Wirksamkeit und Sicherheit von Artemether-Lumefantrin zur Behandlung der unkomplizierten Falciparum-Malaria im Nordosten Tansanias Die Weltgesundheitsorganisation empfiehlt, dass alle Länder mit endemischer Malaria, die die Artemisinin-Kombinationstherapie (ACT) eingesetzt haben, eine regelmäßige Wirksamkeitsüberwachung durchführen sollten. Obwohl ACT bei der Behandlung von unkomplizierter Malaria immer noch wirksam ist, wurde in Südostasien über Artemisininresistenz berichtet, was darauf hindeutet, dass die Überwachung in allen Ländern mit endemischer Malaria intensiviert werden muss. Diese Studie bewertete die Wirksamkeit und Sicherheit von Artemether-Lumefantrin (AL) zur Behandlung der unkomplizierten Falciparum-Malaria im Distrikt Muheza im Nordosten Tansanias, einem Gebiet, in dem die Übertragung in den letzten Jahren deutlich zurückgegangen ist.;-;-;-;https://link.springer.com/article/10.1186/1475-2875-13-376 1972062d97c311039357e342db3a16dc;de;;;6.2.;;;Audiosignalverarbeitung mit Zeit-Frequenz-Ansätzen: Codierung, Klassifizierung, Fingerabdruck und Wasserzeichen Audiosignale sind informationsreiche nichtstationäre Signale, die eine wichtige Rolle in unserer täglichen Kommunikation, Wahrnehmung der Umgebung und Unterhaltung spielen. Aufgrund seiner instationären Natur sind Zeit- oder Frequenz-Nur-Ansätze für die Analyse dieser Signale ungeeignet. Ein gemeinsamer Zeit-Frequenz-(TF)-Ansatz wäre eine bessere Wahl, um diese Signale effizient zu verarbeiten. In diesem digitalen Zeitalter sind Komprimierung, intelligente Indexierung für inhaltsbasiertes Wiederauffinden, Klassifizieren und Schützen von digitalen Audioinhalten nur einige der Bereiche, die die Mehrheit der Audiosignalverarbeitungsanwendungen umfassen. In diesem Papier stellen wir eine umfassende Palette von TF-Methoden vor, die erfolgreich Anwendungen in allen oben genannten Bereichen adressieren. Ein TF-basiertes Audiocodierungsschema mit neuartigem Psychoakustikmodell, Musikklassifizierung, Audioklassifizierung von Umgebungsgeräuschen, Audiofingerabdruck und Audiowasserzeichen wird vorgestellt, um die Vorteile der Verwendung von Zeit-Frequenz-Ansätzen bei der Analyse und Extraktion von Informationen aus Audiosignalen zu demonstrieren.;-;-;-;https://link.springer.com/article/10.1155/2010/451695 3d38122e0fc203394b1a831fccdd74c0;de;;;6.2.;;;DRAPA-Studie – Geschlossene Saugdrainagen versus geschlossene Schwerkraftdrainagen in der Pankreaschirurgie: Studienprotokoll für eine randomisierte kontrollierte Studie Die Morbidität der Pankreasresektion bleibt hoch, wobei die Pankreasfistel die häufigste Ursache ist. Die wichtige Frage ist, ob eine postoperative Anpassung der Behandlung die Entwicklung klinisch signifikanter postoperativer Pankreasfisteln verhindern kann. Neuere Studien haben gezeigt, dass intraabdominale Drainagen und deren Manipulation von großer Bedeutung sind. Obwohl die Autoren einiger retrospektiver Berichte gute Ergebnisse der Pankreasresektion ohne Verwendung intraabdominaler Drainagen beschrieben haben, zeigte eine aktuelle prospektive randomisierte Studie, dass die routinemäßige Eliminierung von Drainagen bei der Pankreatikoduodenektomie mit einem schlechten Ergebnis verbunden ist. Eine wichtige Frage stellt sich, welche Art von Drainage für die Pankreasresektion am besten geeignet ist. Es gibt zwei Arten von chirurgischen Drainagen: offene Drainagen und geschlossene Drainagen. Offene Drainagen gelten heute wegen der häufigen retrograden Infektion als obsolet. Geschlossene Abflüsse umfassen zwei Arten: passive Schwerkraftdrainagen und geschlossene Saugdrainagen. Geschlossene Absaugdrainagen sind effektiver, da sie unter leichtem Druck Flüssigkeit aus der Bauchhöhle entfernen. Einige Chirurgen glauben jedoch, dass geschlossene Absaugdrainagen eine potenzielle Gefahr für Patienten darstellen und dass ein Unterdruck das Risiko von Pankreasfisteln erhöhen könnte. Niemand hat sich bisher konkret mit der Frage beschäftigt, welche Art der Drainage in der Pankreaschirurgie am besten geeignet ist.;-;-;-;https://link.springer.com/article/10.1186/s13063-015-0706-1 77796ef495cc6b67cd6c5ae293f0d67e;de;;;6.2.;;;Studienprotokoll einer randomisierten kontrollierten Studie zum Vergleich der perioperativen intravenösen Insulin-, GIK- oder GLP-1-Behandlung bei Diabetes – PILGRIM-Studie Diabetes mellitus (DM) ist mit einem schlechten Ergebnis nach der Operation verbunden. Die Prävalenz von DM bei hospitalisierten Patienten beträgt bis zu 40%, was bedeutet, dass der Anästhesist täglich einem Patienten mit DM im Operationssaal begegnet. Trotz einer Fülle veröffentlichter Protokolle zur Blutzuckersenkung und der bekannten negativen Ergebnisse im Zusammenhang mit einer perioperativen Hyperglykämie bei DM gibt es keine Hinweise auf die optimale intraoperative Behandlung zur Blutzuckersenkung. Darüber hinaus ist die Protokolltreue in der Regel gering und die Protokollziele werden nicht einfach erreicht.;-;-;-;https://link.springer.com/article/10.1186/1471-2253-14-91 32ab8e4d27c554174965d050937f4de8;de;;;6.2.;;;Integration genotypischer, hyperspektraler und phänotypischer Daten zur Verbesserung der Vorhersage des Biomasseertrags in Hybridroggen Hyperspektrale und genomische Daten sind wirksame Prädiktoren für den Biomasseertrag in Winterroggen. Variable Auswahlverfahren können die Aussagekraft von Reflexionsdaten verbessern.;-;-;-;https://link.springer.com/article/10.1007/s00122-020-03651-8 80c70de7329333890c20deecc60ee4a4;de;;;6.2.;;;Dynamische Fußfunktion als Risikofaktor für Überlastungsverletzungen der unteren Extremitäten: eine systematische Überprüfung Die dynamische Fußfunktion gilt als Risikofaktor für Überlastungsverletzungen der unteren Extremitäten, einschließlich Achillessehnen-Tendinopathie, Schienbeinschmerzen, patellofemoralen Schmerzen und Stressfrakturen. Allerdings hat keine einzige Quelle die Literatur systematisch bewertet und zusammengefasst, um diese vorgeschlagene Beziehung zu bewerten. Das Ziel dieses systematischen Reviews war es, die dynamische Fußfunktion als Risikofaktor für eine Verletzung der unteren Extremitäten zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s13047-014-0053-6 f6f14c4a1661eaa64da8caf13e95fe31;de;;;6.2.;;;Auswirkungen der Rotavirus-Gastroenteritis auf die Familie in Taiwan und Vietnam: eine ethnografische Studie Vor der Einführung von Rotavirus-Impfstoffen war Rotavirus die Hauptursache für schwere Gastroenteritis bei Säuglingen und Kleinkindern und ist in Ländern ohne Impfprogramme weiterhin die Hauptursache. Die Rotavirus-Gastroenteritis führt zu erheblichen wirtschaftlichen Belastungen und hat starke Auswirkungen auf die Familie der Erkrankten. Sowohl in Taiwan als auch in Vietnam wird die Rotavirus-Erkrankung als eine vorrangige Krankheit angesehen. Diese Studie untersuchte in Taiwan und Vietnam die Auswirkungen der Rotavirus-Gastroenteritis auf die Familie einer Gruppe von Eltern, deren Kinder kürzlich wegen dieser Krankheit ins Krankenhaus eingeliefert wurden.;-;-;-;https://link.springer.com/article/10.1186/s12879-015-0968-y 37ea6686b9409cd46027ef950c4ddba3;de;;;6.2.;;;Durchführung von freiwilligen HIV-Beratungs- und Testangeboten für Paare in Durban, Südafrika Die freiwillige HIV-Beratung und -Testung (CVCT) von Paaren ist eine evidenzbasierte Intervention, die die HIV-Inzidenz bei Paaren signifikant reduziert. Trotz der hohen Prävalenz von HIV und HIV-Paarserodiskordanz in Südafrika gibt es nur wenige CVCT-Dienste.;-;-;-;https://link.springer.com/article/10.1186/s12889-015-1959-z fbfb40f98474157087cd9dbcf5b0692c;de;;;6.2.;;;Ketogene Diät und Fastendiät als Ernährungsansätze bei Multipler Sklerose (NAMS): Protokoll einer randomisierten kontrollierten Studie Multiple Sklerose (MS) ist die häufigste entzündliche Erkrankung des zentralen Nervensystems bei jungen Erwachsenen, die zu fortschreitender Behinderung führen kann. Da pharmakologische Behandlungen erhebliche Nebenwirkungen haben können, besteht ein Bedarf an ergänzenden Behandlungsoptionen, wie beispielsweise spezifischen Ernährungskonzepten. Ketonkörper, die bei Fastendiäten (FDs) und ketogenen Diäten (KDs) gebildet werden, sind eine alternative und vermutlich effizientere Energiequelle für das Gehirn. Studien an Mäusen mit experimenteller autoimmuner Enzephalomyelitis zeigten positive Auswirkungen von KDs und FDs auf Krankheitsverlauf, Behinderung, Kognition und Entzündungsmarker. Klinische Beweise für diese Diäten sind jedoch rar. In dem hier vorgestellten klinischen Studienprotokoll untersuchen wir, ob eine KD und eine FD einer Standarddiät (SD) hinsichtlich therapeutischer Wirkung und Krankheitsverlauf überlegen sind.;-;-;-;https://link.springer.com/article/10.1186/s13063-019-3928-9 fac39da3524b5d98912d8ad9be20e03e;de;;;6.2.;;;Sammlungsbasierte Bildung nach Distanz und Face-to-Face: Lernergebnisse und akademische Unehrlichkeit Das Zusammenstellen und Kuratieren von Probensammlungen ist eine wertvolle pädagogische Übung, die fachspezifische Fähigkeiten wie Feldsammlung, Kuratieren, Identifizierung, Organisation und Interpretation von Beziehungen integriert. Sammlungsprojekte wurden hauptsächlich im Präsenzunterricht eingesetzt, können jedoch leicht für den Fernunterricht angepasst werden. Die Hauptherausforderungen bei der Nutzung von Sammelprojekten in Fernunterrichtszentren bestehen in zweierlei Hinsicht: (1) ob Fernstudenten genauso viel lernen wie ihre Kollegen von Angesicht zu Angesicht und (2) ob akademische Unehrlichkeit im Fernunterricht häufiger vorkommt als im persönlichen Gespräch. Diese Studie ging auf beide Bedenken ein, indem sie die Lernergebnisse in zwei Entomologiekursen mit Präsenz- und Fernunterricht bewertet und die Häufigkeit von probenbasierten Plagiaten (Einreichen von Proben, die von jemand anderem gesammelt wurden) bewertet. Eine unbenotete Umfrage, bei der das Wissen der Schüler zur Insektenidentifizierung getestet wurde, ergab gleichwertige Lernergebnisse in Präsenz- und Fernunterricht. Insektensammlungen wurden in einer 5-jährigen „Mark-Release-Recapture“-Untersuchung auf plagiierte (wieder eingereichte oder gekaufte) Exemplare überwacht. Akademische Unehrlichkeit wurde in weniger als 2% der Sammlungen festgestellt, Betrug war in der Ferne mehr als 12-mal wahrscheinlicher als im Präsenzunterricht. Die Ergebnisse dieser Studie werfen die Möglichkeit auf, dass die Bewertungen des Fernunterrichts durch Betrug künstlich aufgebläht werden können, was darauf hindeutet, dass Bewertungen von Fernunterricht im Lichte der akademischen Unehrlichkeit in Betracht gezogen werden sollten. Diese Ergebnisse heben die Vorteile und Herausforderungen von Sammlungen als Lehrmittel im Fernunterricht hervor und unterstreichen die Notwendigkeit, dass Lehrende wachsam hinsichtlich der akademischen Integrität sein müssen.;-;-;-;https://link.springer.com/article/10.1007/s10956-019-9770-8 c73010c5df17a90b1a7f5da483824335;de;;;6.2.;;;Wie negative Kindheitserfahrungen mit einzelnen und multiplen Gesundheitsrisikoverhalten bei deutschen Studenten an öffentlichen Universitäten zusammenhängen: eine Querschnittsanalyse Unerwünschte Kindheitserfahrungen (ACEs) wurden mit Gesundheitsrisikoverhalten (HRBs) in Verbindung gebracht. Diese Studie zielt darauf ab, Risikofaktoren für ACEs zu identifizieren und den Zusammenhang zwischen ACEs und einzelnen und mehreren HRBs in einer Stichprobe von Universitätsstudenten in Deutschland zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s12889-018-5926-3 94d6098efec938dc90b767e6431037c0;de;;;6.2.;;;Einfluss des Krankenversicherungstyps auf die Inanspruchnahme der Gesundheitsversorgung bei Patienten mit Bluthochdruck: eine Studie einer nationalen Krankenversicherungsdatenbank in Korea In vielen Ländern wurde eine höhere Inanspruchnahme von Gesundheitsdiensten bei Personen, die öffentliche Hilfe erhalten, im Vergleich zu Personen beobachtet, die keine öffentliche Hilfe erhalten. Es wurden jedoch keine systematischen Untersuchungen untersucht, ob dieses Muster einer höheren Nutzung nach Korrektur einer Reihe von Faktoren in Korea fortbesteht. In dieser Studie wurde untersucht, ob sich die Art der Krankenversicherung, der lohnabhängigen Beitragsversicherung (Health Insurance, HI) oder der staatlich subventionierten öffentlichen Hilfe (Medical Aid, MA) auf die Inanspruchnahme stationärer Leistungen nach Kontrolle des Ausgangspatienten auswirkt und institutionelle Besonderheiten bei Patienten mit Bluthochdruck in Korea.;-;-;-;https://link.springer.com/article/10.1186/s12913-014-0570-9 b8b4880ec793bbb855b180cc5174d0e6;de;;;6.2.;;;Nabelschnur-Pilotstudie – sofortiges versus verzögertes Abklemmen der Schnur bei sehr Frühgeburten (vor der 32. Schwangerschaftswoche): Studienprotokoll für eine randomisierte kontrollierte Studie Frühgeburten sind im Vereinigten Königreich der wichtigste Einzelfaktor für unerwünschten Ausgang. Jedes 70. Baby (1,4%) wird vor 32 Wochen geboren (sehr früh), aber diese Geburten machen über die Hälfte der Säuglingssterblichkeit aus.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-15-258 99c925a9b9717fbacbefcad612e17167;de;;;6.2.;;;Wachstumsverzögerung bei unter 5-Jährigen in Nepal: Trends und Risikofaktoren Der Ernährungszustand in den ersten 5 Lebensjahren hat lebenslange und generationsübergreifende Auswirkungen auf das Potenzial und die Entwicklung des Einzelnen. Diese Studie beschrieb den Trend zum Stunting und seine Risikofaktoren bei Kindern unter 5 Jahren zwischen 2001 und 2016 in Nepal.;-;-;-;https://link.springer.com/article/10.1007/s10995-019-02817-1 bbe498b14610d7f3c90c82c895fca4a5;de;;;6.2.;;;Zugang zu und Angemessenheit psychologischer Dienste für erwachsene Patienten in britischen Hospizen: eine nationale Querschnittserhebung, Die psychologische Betreuung von Menschen mit unheilbaren Erkrankungen ist ein wesentlicher Bestandteil der Hospizversorgung. Die neuere Forschung über die Erbringung psychologischer Dienste in Hospizen im Vereinigten Königreich (UK) auf nationaler Ebene, einschließlich Ungleichheiten oder Unterschiede in der Praxis, ist begrenzt. Eine landesweite Umfrage wird alle Unterschiede im Angebot hervorheben und so dazu beitragen, die zukünftige Forschung zu fokussieren und bewährte Verfahren sowohl innerhalb des Vereinigten Königreichs als auch international zu informieren. Die spezifischen Ziele dieser Umfrage bestehen darin, (1) die Arten der psychologischen Unterstützung aufzuzeigen, die erwachsenen Patienten in Hospizen im Vereinigten Königreich gemäß dem Modell des National Institute for Health and Care Excellence zur Verfügung steht, (2) zu untersuchen, wie die Dienste organisiert sind 3) Sammeln von Service-Perspektiven zur Angemessenheit der Pflege sowie Vermittler und Hindernisse für eine angemessene Praxis.;-;-;-;https://link.springer.com/article/10.1186/s12904-021-00724-3 51bebc4eb3671dcf4ddf5d391b3c7ac7;de;;;6.2.;;;Nordic Walking und chronische Kreuzschmerzen: Design einer randomisierten klinischen Studie Schmerzen im unteren Rücken sind ein großes Problem der öffentlichen Gesundheit in der ganzen westlichen Welt. Aktive Ansätze, einschließlich Bewegung bei der Behandlung von Kreuzschmerzen, führen zu besseren Ergebnissen für die Patienten, aber es ist nicht genau bekannt, welche Arten von Rückenübungen am vorteilhaftesten sind oder ob allgemeine körperliche Aktivität ähnliche Vorteile bietet.;-;-;-;https://link.springer.com/article/10.1186/1471-2474-7-77 c2d5c7747b34c9f0ff4cea555d936ebf;de;;;6.2.;;;Eine Mixed-Methods-Studie zu HIV-bezogenen Dienstleistungen in der Buprenorphin-Behandlung Die Opioidkonsumstörung (OUD) ist ein wichtiger Risikofaktor für die Ansteckung und Übertragung von HIV. Leitlinien für die klinische Praxis fordern die Integration von HIV-Diensten in die OUD-Behandlung. Diese Mixed-Methods-Studie beschreibt die Integration von HIV-Diensten in die Buprenorphin-Behandlung und untersucht, ob sich die HIV-Dienste je nach medizinischem Fachgebiet des verschreibenden Arztes und zwischen verschiedenen Praxisumgebungen unterscheiden.;-;-;-;https://link.springer.com/article/10.1186/s13011-017-0122-5 15da933f6eec7d449af064cc1a1c8006;de;;;6.2.;;;Herausforderungen und gewonnene Erkenntnisse bei der Umsetzung der 1-3-7 Malaria-Überwachungs- und Reaktionsstrategie in China: eine qualitative Studie China hat im letzten Jahrhundert große Fortschritte bei der Malariakontrolle gemacht und will nun die Malaria bis 2020 beseitigen. Im Jahr 2012 startete das Land seine 1-3-7-Überwachungs- und Reaktionsstrategie zur Eliminierung der Malaria. Die Strategie umfasst eine Fallberichterstattung innerhalb von 1 Tag, eine Falluntersuchung innerhalb von 3 Tagen und eine Fokussierung auf Untersuchungen und Maßnahmen im Bereich der öffentlichen Gesundheit innerhalb von 7 Tagen. Ziel dieser Studie war es, die Herausforderungen und Erfahrungen bei der bisherigen Umsetzung der 1-3-7-Strategie in China zu evaluieren.;-;-;-;https://link.springer.com/article/10.1186/s40249-016-0188-8 7d868166a8b1bd0dc798bec552270666;de;;;6.2.;;;Clustering-basiertes Routing für Top-k-Abfragen in drahtlosen Sensornetzwerken Für Top-k-Abfrageanwendungen können große drahtlose Sensornetzwerke (WSNs) bereitgestellt werden. Es gibt viele Top-k-Abfragealgorithmen, die auf traditionellen Routing-Ansätzen basieren. In diesem Artikel haben wir ein clusterbasiertes Routing für Top-k-Abfragen (CRTQ) in WSNs vorgeschlagen, um den Energieverbrauch zu senken und die Netzwerklebensdauer zu verlängern. Das vorgeschlagene Schema besteht aus zwei Teilen: einem ist der Clusterbildungsalgorithmus, ein anderer Teil ist der Inter-Cluster, der den Relaisclusterkopfalgorithmus wählt. Darüber hinaus verwenden wir einen entsprechenden dynamischen Clustering-Algorithmus. Unser experimentelles Ergebnis zeigt, dass CRTQ die bestehenden baumbasierten Ansätze und Cluster-basierten Ansätze sowohl in Bezug auf Energieverbrauch als auch Netzlebensdauer deutlich übertrifft.;-;-;-;https://link.springer.com/article/10.1186/1687-1499-2011-73 4037f7a249ba7e3407356eee78b43565;de;;;6.2.;;;Identifizierung und funktionelle Charakterisierung von Kopienzahlvariationen bei verschiedenen Hühnerrassen Der Nachweis und die funktionelle Charakterisierung genomischer Strukturvariationen sind wichtig für das Verständnis der genetischen Variationslandschaft beim Huhn. Ein kürzlich erkannter Aspekt der genomischen Strukturvariation, die sogenannte Kopienzahlvariation (CNV), gewinnt an Interesse an Hühnergenomstudien. Das Ziel der vorliegenden Studie war es, das Muster und die funktionelle Charakterisierung von CNVs in fünf charakteristischen Hühnerrassen zu untersuchen, was für zukünftige Studien zur Verbindung des Phänotyps mit der Hühnergenomarchitektur wichtig sein wird.;-;-;-;https://link.springer.com/article/10.1186/1471-2164-15-934 0c89e470f6d2a4e5429c898d5ce72d37;de;;;6.2.;;;Herausforderungen und zukünftige Richtungen bei der Entwicklung von LC-MS-basierten Mehrklassenmethoden zur Quantifizierung von Lebensmittelkontaminanten Die Überwachung von Lebensmittelkontaminanten und -rückständen hat sich in den letzten Jahren deutlich verbessert und wird nun intensiv betrieben. Erfolge auf dem Gebiet der Chromatographie-Massenspektrometrie-Kopplungstechniken ermöglichten die Entwicklung quantitativer Multi-Target-Ansätze, die mehrere hundert Analyten abdecken. Obwohl sich die meisten Methoden auf die Analyse einer bestimmten Substanzgruppe, wie beispielsweise Pestizide, Mykotoxine oder Tierarzneimittel, konzentrieren, geht der aktuelle Trend zur gleichzeitigen Bestimmung von Mehrklassenverbindungen aus mehreren Schadstoff- und Rückstandsfamilien. Diese Arbeit gibt einen Überblick über relevante Mehrklassenkonzepte basierend auf LC-MS/MS- und LC-HRMS-Instrumenten. Vorzüge und Mängel werden anhand aktueller Leistungsmerkmale des EU-Rechtssystems kritisch diskutiert. Darüber hinaus wird die Diskussion eines kürzlich entwickelten Mehrklassenansatzes für >1000 Stoffe als Fallstudie vorgestellt, um die aktuellen Entwicklungen in diesem Bereich zu veranschaulichen.;-;-;-;https://link.springer.com/article/10.1007/s00216-020-03015-7 cfebcb6bb8bb30d0ca14efc5f6118b64;de;;;6.2.;;;Konflikt mit Eltern bei jugendlicher Depression: Assoziationen mit zwischenmenschlichen Problemen der Eltern und depressiven Symptomen Konflikte mit den Eltern sind bei depressiven Jugendlichen häufig, beeinträchtigen die Behandlung und können das Rezidivrisiko erhöhen. Es wurde gezeigt, dass elterliche depressive Symptome Konflikte mit jugendlichen Kindern vorhersagen, aber auch eine wichtige Rolle für verschiedene Arten von elterlichen zwischenmenschlichen Problemen, wie sie durch den interpersonellen Zirkumplex beschrieben werden, ist plausibel. Diese Studie verglich elterliche zwischenmenschliche Probleme mit elterlichen depressiven Symptomen als Prädiktoren für einen Eltern-Jugend-Konflikt, der von einem depressiven jugendlichen Kind berichtet wurde Väter, von 60 verschiedenen Jugendlichen). Kreuzvalidierung und Modellstapelung zeigten, dass die Einbeziehung von zwischenmenschlichen Problemen der Eltern zu genauen Vorhersagen beiträgt. Eltern, die über mehr zwischenmenschliche Probleme im Zusammenhang mit übermäßiger Dominanz oder Unterwürfigkeit berichteten, waren mit erhöhten bzw. verringerten Konflikten verbunden. Es wurde festgestellt, dass depressive Symptome der Eltern nur in Vater-Jugend-Beziehungen negativ mit einem Eltern-Jugend-Konflikt assoziiert sind.;-;-;-;https://link.springer.com/article/10.1007/s10578-020-00955-0 20dff45185dcb5834cab601843bf5b20;de;;;6.2.;;;Überlappende Volumina bei der Wiederbestrahlung bei Kopf-Hals-Tumoren – ein wichtiger Faktor für die Patientenselektion Es besteht kein Konsens über die Definition von Re-Bestrahlung und Re-Bestrahlungsvolumen bei Kopf-Hals-Tumoren (HNC). Ziel der vorliegenden Studie ist es, eine strengere Definition des erneut bestrahlten Volumens einzuführen, die das Risiko schwerwiegender Nebenwirkungen der Behandlung besser vorhersagen könnte.;-;-;-;https://link.springer.com/article/10.1186/s13014-020-01587-3 1620ebbd9b524ec83804c2b2bfa3221b;de;;;6.2.;;;Zielerreichung in der Mobilität nach akuter Rehabilitation bewegungseinschränkender Lähmungssyndrome im Hinblick auf die ambulante therapeutische Beteiligung Ein zentrales Ziel der Rehabilitation bei Patienten mit Lähmungssyndromen nach Schlaganfall oder Rückenmarksverletzung (SCI) ist die Wiederherstellung der selbstständigen Mobilität als Fußgänger oder Rollstuhlfahrer. Nach einer Akutrehabilitation verschlechtert sich die Mobilität im ambulanten Setting jedoch häufig trotz der Durchführung rehabilitativer Interventionen wie Physiotherapie oder der Verordnung von Hilfsmitteln. Ziel der NeuroMoves-Studie ist es, Faktoren zu identifizieren, die mit Veränderungen der Mobilität im ambulanten Setting nach akutstationärer Rehabilitation assoziiert sind, mit besonderem Fokus auf Partizipation nach ICF (International Classification of Functioning, Disability and Health).;-;-;-;https://link.springer.com/article/10.1186/s12883-021-02167-y 549e8b03f01d8fd90d07573aa5385130;de;;;6.2.;;;Organisieren von Erdbeobachtungsdaten innerhalb einer Geodateninfrastruktur Wissenschaftler und öffentliche Einrichtungen, die sich mit Geodaten befassen, arbeiten oft mit einer großen Menge heterogener Daten aus unterschiedlichen Quellen. Ohne eine gut definierte, organisierte Struktur haben sie Probleme beim Auffinden und Wiederverwenden vorhandener Daten, was zu Dateninkonsistenz und Speicherproblemen führen kann. Ein auf Metadaten von Geodaten basierendes Katalogsystem erleichtert die Verwaltung großer Datenmengen und bietet die Möglichkeit, Geodaten schnell und einfach abzurufen, zu entdecken und auszutauschen. Derzeit konzentrieren sich die meisten Online-Kataloge mehr auf die geografischen Daten und es gab nur wenige Interesse an der Katalogisierung von Erdbeobachtungsdaten, bei denen zusätzlich die Erfassungsinformationen von Bedeutung sind. Dieser Artikel stellt einen automatischen Metadatenextraktionsansatz vor, der aus verschiedenen optischen Daten von verschiedenen Satellitenmissionen von wissenschaftlichem Interesse (dh MODIS, LANDSAT, RapidEye, Suomi-NPP VIIRS, Sentinel-1A, Sentinel-2A) Metadateninformationen erstellt, basierend auf einem erweiterten Modell des Standards ISO 19115. Das in ISO 19115-2 definierte XML-Schema ISO 19139-2 mit Unterstützung von Raster- und Bildinformationen wurde untersucht und basierend auf den Anforderungen von Experten aus dem Forschungsbereich der Erdbeobachtung das Schema erweitert . Das XML-Schema ISO 19139-2 und dessen Erweiterung wurde als neues Schema-Plugin im Geonetz Open Source Geonetwork eingesetzt, um alle relevanten Metadaten-Informationen zu Satellitendaten und die dazugehörigen Erfassungs- und Verarbeitungsinformationen in einem Online-Katalog abzulegen. Ein reales Szenario, das im EURAC-Forschungsgruppeninstitut für Angewandte Fernerkundung produktiv eingesetzt wird, veranschaulicht ein Workflow-Management für Erdbeobachtungsdaten einschließlich Datenverarbeitung, Metadatenextraktion, Generierung und Verteilung.;-;-;-;https://link.springer.com/article/10.1007/s12145-016-0276-0 e3678481d67dd030f47874988d128056;de;;;6.2.;;;Penetrierende Verletzungen in Deutschland – Epidemiologie, Management und Ergebnisanalyse auf Basis des TraumaRegisters DGU® Die Versorgung penetrierender Wunden ist für Unfallchirurgen in Deutschland und Mitteleuropa aufgrund der geringen Inzidenz dieser Art von Traumata eine seltene Herausforderung. Penetrierende Verletzungen werden in Deutschland bei 4–5 % der im TraumaRegister DGU® (Traumaregister der Deutschen Gesellschaft für Unfallchirurgie) eingetragenen Schwerverletzten berichtet. Dazu gehören Schussverletzungen, Messerstichverletzungen, die weitaus häufiger vorkommen, und penetrierende Verletzungen anderer Herkunft, beispielsweise durch Unfallverletzungen. Ziel dieser Studie war es, die Epidemiologie und das Outcome penetrierender Verletzungen in Deutschland zu erfassen, mit besonderem Fokus auf den Versorgungsgrad des behandelnden Traumazentrums, um diesen Traumamechanismus besser zu verstehen und die notwendigen Schritte in der Erstversorgung zu antizipieren Behandlung.;-;-;-;https://link.springer.com/article/10.1186/s13049-021-00895-1 d059bdad8253a952ad3f48720febd36e;de;;;6.2.;;;Genomik und der innere Wert von Pflanzen In Diskussionen um Gentechnik und Pflanzenzüchtung wird die Werthaltigkeit von Pflanzen und Nutzpflanzen als Argument gegen diese Technologie angeführt. Dieser Artikel konzentriert sich auf das neue Gebiet der Pflanzengenomik, das nach Ansicht einiger fast dasselbe ist wie die Gentechnik. Dies wirft die Frage auf, ob der intrinsische Wert von Pflanzen auch als Argument gegen die Pflanzengenomik herangezogen werden könnte. Wir diskutieren drei Gründe, warum Pflanzengenomik den inneren Wert von Pflanzen verletzen könnte: 1. Genomik ist Teil der Biotechnologie, 2. Genomik ist Gentechnik, 3. Pflanzengenomik kann Trends verstärken, die zur Instrumentalisierung von Pflanzen führen. Wir kommen zu dem Schluss, dass aus biotischer Sicht der intrinsische Wert von Pflanzen durch die Pflanzengenomik nur im Fall „Genomik gleich Gentechnik“ verletzt wird.;-;-;-;https://link.springer.com/article/10.1186/1746-5354-1-3-1 03fd62da59d130c5ec4ad5ae3001c129;de;;;6.2.;;;Eine Rechenplattform zur Pflege und Migration manueller funktionaler Anmerkungen für BioCyc-Datenbanken BioCyc-Datenbanken sind eine wichtige Quelle für Informationen über biologische Pfade und genomische Daten. Solche Datenbanken stellen die Ansammlung biologischer Daten dar, von denen einige manuell aus der Literatur kuratiert wurden. Ein wesentliches Merkmal dieser Datenbanken ist die kontinuierliche Datenintegration, wenn neues Wissen entdeckt wird. Da funktionale Annotationen verbessert werden, werden skalierbare Methoden für Kuratoren benötigt, um Annotationen ohne detaillierte Kenntnisse des spezifischen Designs der BioCyc-Datenbank zu verwalten.;-;-;-;https://link.springer.com/article/10.1186/s12918-014-0115-1 4bc70acf87a5fa026766548b27dc36b3;de;;;6.2.;;;Stark anisotrope Lebensdauer-Orientierungsverteilungen eines zweistufigen Quantenemitters um einen plasmonischen Nanostab Die Orientierungsverteilungen der spontanen Emissionslebensdauer eines Zwei-Niveau-Quantenemitters in metallischen Nanostäbchenstrukturen werden theoretisch mit der rigorosen elektromagnetischen Green-Funktionsmethode untersucht. Es wurde festgestellt, dass die Lebensdauer der spontanen Emission stark von der Übergangsdipolorientierung und der Position des Emitters abhängt. Der Anisotropiefaktor, definiert als das Verhältnis zwischen den maximalen und minimalen Werten der Lebensdauer entlang verschiedener Dipolorientierungen, kann bis zu 10 . betragen;-;-;-;https://link.springer.com/article/10.1186/1556-276X-9-194 2a38ea814b62b11fa4b367b4d29310d6;de;;;6.2.;;;Trends und Auswirkungen auf die Erreichung der VISION 2020-Ziele im Bereich Humanressourcen für die Augengesundheit in 16 Ländern Subsahara-Afrikas bis zum Jahr 2020 Die Entwicklung der Humanressourcen für Augengesundheit (HReH) ist eine wichtige globale Strategie für die Augengesundheit, um die Prävalenz vermeidbarer Sehbehinderungen bis zum Jahr 2020 zu reduzieren. Aufbauend auf unserer vorherigen Analyse der aktuellen Fortschritte bei den wichtigsten HReH-Indikatoren und Kataraktoperationsraten (CSR) Wir prognostizierten die zukünftige Erreichung der Indikatoren in 16 Ländern Subsahara-Afrikas bis 2020.;-;-;-;https://link.springer.com/article/10.1186/1478-4491-12-45 0471f07529ff2b01497a29c0cfa87796;de;;;6.2.;;;Klinische Lernumgebungsmessung für Medizinstudierende an Übergängen: Beziehungen zu soziokulturellen Faktoren und psychischer Belastung Die Messung der klinischen Lernumgebung ist entscheidend für die Qualitätsverbesserung der medizinischen Ausbildung, insbesondere für medizinische Auszubildende in Übergangsphasen. Die medizinische Ausbildung in Taiwan ist von vielfältigen soziokulturellen Einflüssen geprägt. Die Ziele dieser Studie bestanden darin, ein Instrument zur Messung der klinischen Lernumgebung in Übereinstimmung mit den lokalen soziokulturellen Faktoren und medizinischen Ausbildungssettings zu konstruieren und den Zusammenhang zwischen der Qualität der klinischen Lernumgebung und dem Status der psychischen Belastung unter Medizinern weiter zu untersuchen Auszubildende.;-;-;-;https://link.springer.com/article/10.1186/1472-6920-14-226 4c64ce1fc0612f968b004097cb7f5c4f;de;;;6.2.;;;Identifizierung eines neuartigen Intron-Enhancers, der für die Transkriptionsregulation von . verantwortlich ist Die spezifische genetische Regulation der neuronalen Urzellbestimmung ist von großem Interesse in der Stammzellbiologie. Das Protein Musashi1 (Msi1), das zu einer evolutionär konservierten Familie von RNA-bindenden Proteinen gehört, ist ein Marker für neurale Stamm-/Vorläuferzellen (NS/PCs) im embryonalen und postnatalen Zentralnervensystem (ZNS). Msi1 reguliert die Translation seiner nachgelagerten Ziele, einschließlich;-;-;-;https://link.springer.com/article/10.1186/1756-6606-4-14 d830f1f398c949f6e97a0e17edf1e9d0;de;;;6.2.;;;Patientenzufriedenheit mit Arzt-Patient-Interaktionen: eine Mixed-Methods-Studie bei Diabetes mellitus-Patienten in Pakistan Die Patientenzufriedenheit mit der Arzt-Patient-Interaktion ist ein Indikator für die Kompetenz des Arztes. Die Zufriedenheit von Diabetespatienten wird in öffentlichen Diabeteskliniken Pakistans selten untersucht. Ziel dieser Studie ist es daher, den Zusammenhang zwischen Patientenzufriedenheit und fünf Dimensionen der medizinischen Interaktion zu analysieren: technische Expertise, zwischenmenschliche Aspekte, Kommunikation, Sprechzeit und Zugang/Verfügbarkeit.;-;-;-;https://link.springer.com/article/10.1186/s12913-017-2094-6 134d36c3de476914da4da4e3e169ca5c;de;;;6.2.;;;Entwicklung und Usability-Test einer webbasierten Entscheidungshilfe für Familien von Patienten mit längerer mechanischer Beatmung Webbasierte Entscheidungshilfen werden in der medizinischen Forschung und klinischen Versorgung immer wichtiger. Allerdings wurden nur wenige auf einer Intensivstation untersucht. Ziel dieser Studie war es, eine webbasierte Entscheidungshilfe für Angehörige von Patienten mit längerer mechanischer Beatmung zu entwickeln und deren Nutzbarkeit und Akzeptanz zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s13613-015-0045-0 b21d0d79520b33b60b89d406a9573521;de;;;6.2.;;;Self-Service-Infrastrukturcontainer für datenintensive Anwendungen Cloud-basiertes wissenschaftliches Datenmanagement – ​​Speicherung, Übertragung, Analyse und Extraktion von Inferenzen – stößt auf Interesse. In diesem Whitepaper schlagen wir ein Cloud-Bereitstellungsmodell der nächsten Generation vor, das für datenintensive Anwendungen geeignet ist. Unser Modell ist eine flexible Container-basierte Self-Service-Infrastruktur, die Netzwerk-, Rechen- und Speicherressourcen zusammen mit der Logik zur dynamischen Verwaltung der Komponenten auf ganzheitliche Weise liefert. Die Stärke unseres Modells demonstrieren wir mit einer Bioinformatik-Anwendung. Dynamische Algorithmen für die Ressourcenbereitstellung und Jobzuweisung, die für den ausgewählten Datensatz geeignet sind, werden als Teil des Containers in einer privilegierten virtuellen Maschine verpackt und bereitgestellt. Wir haben das Modell in unserer privaten internen experimentellen Cloud getestet, die auf kostengünstiger Standardhardware basiert. Wir demonstrieren die Fähigkeit unseres Modells, die erforderlichen Netzwerk- und Computerressourcen zu erstellen und übermittelte Jobs zuzuweisen. Die erhaltenen Ergebnisse zeigen die Vorteile einer verstärkten Automatisierung sowohl in Bezug auf eine deutliche Verbesserung der Zeit bis zum Abschluss einer Datenanalyse als auch eine Reduzierung der Analysekosten. Die vorgeschlagenen Algorithmen reduzierten die Kosten für die Durchführung der Analyse um 50 % bei 15;-;-;-;https://link.springer.com/article/10.1186/2192-113X-3-5 b2a7991ae566ddd333208325a4af7fb2;de;;;6.2.;;;Orale antibiotische Darmdekontamination bei offenen und laparoskopischen Sigmaresektionen bei Divertikulose Die Frage, ob eine orale antibiotische Darmdekontamination in der kolorektalen Chirurgie eingesetzt werden sollte, wird trotz der zahlreichen unterschiedlichen Therapieschemata in Bezug auf antibiotische Wirkstoffe und Anwendungsdauer immer wieder diskutiert. Da wir routinemäßig orale antibiotische Darmdekontamination (selektive Dekontamination des Verdauungstrakts (SDD) und seit 2016 SDD-Regime plus Vancomycin) in der Divertikelchirurgie einsetzen, war es unser Ziel, das perioperative Outcome retrospektiv in zwei unabhängigen Zentren zu analysieren.;-;-;-;https://link.springer.com/article/10.1007/s00384-021-03890-1 9a965c4b038d9946fa7a75d36a8629fc;de;;;6.2.;;;Unterstützung des Gesundheitssystems und Stärkung des Gesundheitssystems: zwei wichtige Vermittler bei der Umsetzung der ambulanten Tuberkulosebehandlung in Usbekistan Usbekistan erbte ein Krankenhaus-basiertes Gesundheitssystem von der Sowjetunion. Wir untersuchen die gesundheitssystembezogenen Herausforderungen bei der Ausweitung der ambulanten (ambulanten) Behandlung von arzneimittelanfälliger und arzneimittelresistenter Tuberkulose (TB) in Karakalpakstan in Usbekistan. Mit wichtigen Informanten der TB-Dienste, der Gesundheits- und Finanzministerien und deren TB-Kontrollpartnern wurden teilstrukturierte Interviews durchgeführt. Als Hindernisse für die Ausweitung der ambulanten TB-Behandlung wurden strukturelle Herausforderungen und Ressourcenbedarf diskutiert. Die Befragten gaben an, dass die Finanzierungsmechanismen der TB-Dienste überarbeitet werden müssen, um Anreize für die Überweisung zu einer ambulanten TB-Behandlung zu schaffen. Auch ein erhöhter Arbeitsaufwand und Transportbedarf in der ambulanten TB-Versorgung wurde von den Befragten angesichts der schnell steigenden ambulanten Zahl, aber der Pro-Kopf-Finanzierung der ambulanten Versorgung, auch genannt. Politische Entscheidungsträger zeigten großes Interesse an guten Praxisbeispielen für die Finanzierung des ambulanten Managements von TB in vergleichbaren Kontexten und an Leitlinien für die Überarbeitung der Finanzierung der TB-Dienste, um die ambulante TB-Behandlung zu stärken. Um die Änderung des Versorgungsmodells zu erleichtern, sollten TB-Kontrollstrategien, die die ambulante Versorgung in krankenhausorientierten Gesundheitssystemen betonen, die Unterstützung des Gesundheitssystems und die Stärkung des Bedarfs antizipieren und einen Aktionsplan vorlegen, um beides zu lösen. Um beiden Arten von Bedürfnissen gerecht zu werden, müssen möglicherweise nicht nur Akteure der TB-Kontrolle und der Gesundheitsfinanzierung einbezogen werden, sondern auch mehr Wissen über tragfähige und erprobte Finanzierungsmechanismen, die Anreize für die Einführung neuer Behandlungsmodelle für TB bieten.;-;-;-;https://link.springer.com/article/10.1186/s13561-016-0100-z 87e63d98df2cc47b5f423cbaa57391dc;de;;;6.2.;;;Fortschrittliche Materialien ermöglichen Energieerzeugung aus fossilen Brennstoffen Die Entwicklung fortschrittlicher Materialien und Verfahren ist entscheidend für eine höhere Produktionseffizienz und wirtschaftlichere und umweltverträglichere fossile Energiesysteme. Es besteht ein Bedarf an der Entdeckung neuer Materialien, die höheren Temperaturen und stark korrosiven Umgebungen der fortschrittlichen fossil befeuerten Stromerzeugungstechnologien wie Kohlevergaser, Turbinen, Brennkammern und kohlebasierten Brennstoffzellen standhalten können. Unabhängig davon, ob der Brennstoff in einer Gas-Kombiturbine oder einem Kessel-Dampfturbinen-System in Strom umgewandelt wird, erzielen beide Systeme höhere Wirkungsgrade, wenn sie bei höheren Temperaturen betrieben werden. Bedeutende Anstrengungen haben zu fortschrittlichen Materialien zur Verwendung sowohl in Gasturbinen als auch in Kessel-/Dampfturbinenausrüstung geführt. Beschichtungen auf heiße Komponenten in Gasturbinen haben höhere Betriebstemperaturen ermöglicht, was zu Effizienzverbesserungen führte. Fortschritte bei den Materialien haben auch zu erheblichen Verbesserungen der Gesamteffizienz der Umwandlung der Energie des Brennstoffs in Elektrizität geführt. Durch die Entwicklung fortschrittlicher Beschichtungen und neuer Verfahren zum Auftragen der Beschichtungen sowie neuer Materialien wurden signifikante Reduzierungen des Kraftstoffverbrauchs mit einer damit verbundenen Reduzierung der Treibhausgas- und anderen Schadstoffemissionen realisiert. Dieses Kapitel konzentriert sich auf die Bewältigung von Materialherausforderungen, die aktiv verfolgt werden, um nachhaltige fossile Energiesysteme zu erreichen, einschließlich ultra-überkritischer Materialien, Beschichtungen und Schutzmaterialien, hochfester und korrosionsbeständiger Legierungen, Funktionsmaterialien sowie Sensormaterialien sensing in rauen Umgebungen verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98002-7_3 99f7d09bbd15ef37bc6501f43df99949;de;;;6.2.;;;MALDI-Bildgebungs-Massenspektrometrie für die direkte Gewebeanalyse: eine neue Grenze für die molekulare Histologie Matrix-assisted Laser Desorption/Ionization (MALDI) Imaging Massenspektrometrie (IMS) ist ein leistungsstarkes Werkzeug zur Untersuchung der Verteilung von Proteinen und kleinen Molekülen in biologischen Systemen durch die In-situ-Analyse von Gewebeschnitten. MALDI-IMS kann die Verteilung von Hunderten unbekannter Verbindungen in einer einzigen Messung bestimmen und ermöglicht die Erfassung zellulärer Expressionsprofile unter Beibehaltung der zellulären und molekularen Integrität. In den letzten Jahren wurden viele Fortschritte in der Praxis der bildgebenden Massenspektrometrie gemacht, die die Technik empfindlicher, robuster und letztendlich nützlicher machten. In diesem Review konzentrieren wir uns auf den aktuellen Stand der Technik von MALDI-IMS, beschreiben grundlegende technologische Entwicklungen für MALDI-IMS von tierischem und menschlichem Gewebe und diskutieren einige neuere Anwendungen in der Grundlagenforschung und im klinischen Umfeld.;-;-;-;https://link.springer.com/article/10.1007/s00418-008-0469-9 9ba68457a5fc5e369f9e7f3136ffafd5;de;;;6.2.;;;Pertussis-Impfstatus und Impfakzeptanz bei Medizinstudierenden: Multizentrische Studie in Deutschland und Ungarn Medizinstudenten sind gefährdet, ansteckende Krankheiten wie Keuchhusten zu bekommen und zu übertragen. Der vollständige Impfstatus ist wichtig, um die eigene Gesundheit, die des Patienten und die öffentliche Gesundheit zu schützen. Die Kenntnis des eigenen Impfstatus ist elementar für die Befolgung aktueller Impfempfehlungen inklusive Auffrischimpfung. Unser Ziel war es, den Pertussis-Impfstatus und die Impfakzeptanz bei Medizinstudenten verschiedener Nationalitäten zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s12889-019-6516-8 40c2b8f2d59f737794da419c6d91903f;de;;;6.2.;;;Femtozellen-Interferenzanalyse basierend auf der Entwicklung eines LTE-Simulators auf Systemebene Obwohl Femtozellen sowohl Betreibern als auch Benutzern verschiedene Vorteile bieten können, müssen viele technische Aspekte wie Interferenzkoordination, Netzwerksynchronisation, Selbstkonfiguration und Selbstoptimierung berücksichtigt werden, um Femtozellen in realen Umgebungen effektiv einzusetzen. In diesem Artikel entwickeln wir einen Simulator auf Systemebene, um die Leistung von Long-Term Evolution (LTE)-Femtozellensystemen zu bewerten. Der Simulator besteht aus fünf Funktionsmodulen, die Paketplanungs- und Anrufzugangssteuerungsfunktionen realisieren und verschiedene Funkkanaleffekte, Echtzeit- und Nicht-Echtzeitverkehr und Benutzermobilität modellieren. Diese Module werden von Betriebsmodulen verwaltet, die einer ereignisgesteuerten Programmierung folgen. Darüber hinaus verwendet der Simulator eine grafische Benutzeroberfläche (GUI), die die Konfiguration, Verwaltung und Beobachtung von Simulationen in Echtzeit erleichtert. Basierend auf dem Simulator analysieren wir die Auswirkungen von Signalinterferenzen zwischen Makro- und Femtozellen in vier Szenarien. Aus den Ergebnissen bestätigen wir, dass der entwickelte LTE-Femtozellen-Simulator die Leistungsbewertung und -analyse verschiedener Femtozellen-Einsatzszenarien effektiv unterstützen kann.;-;-;-;https://link.springer.com/article/10.1186/1687-1499-2012-287 e2df7bcc20f979bd2841baae47714cf6;de;;;6.2.;;;Bestimmung der Ausbrüche der französischen Influenza zwischen 1985 und 2011 durch eine webbasierte Delphi-Methode Die Bewertung der Genauigkeit von Influenza-Epidemieperioden, die durch statistische Modelle bestimmt werden, ist wichtig, um die Leistung von Algorithmen zu verbessern, die in Echtzeit-Syndromüberwachungssystemen verwendet werden. Dies ist in Ermangelung eines zuverlässigen Goldstandards ein schwierig zu lösendes Problem. Ziel dieser Studie ist es, eine gutachterliche Bestimmung des Beginns und des Endes von Influenza-Epidemien in Frankreich zu etablieren.;-;-;-;https://link.springer.com/article/10.1186/1472-6947-13-138 0f8f3a812c85246fe672bd7f7287fc30;de;;;6.2.;;;Aufbau organisatorischer Fähigkeiten für das Lebenszyklusmanagement Unternehmen werden unter Druck gesetzt, Lebenszyklus-Denken und -Praktiken über globale Lieferketten hinweg zu integrieren. Die UNEP/SETAC Life Cycle Initiative hat ein Life Cycle Management Capability Maturity Model (LCM CMM) entwickelt, um die allgemeine Lebenszyklusbewertung (LCA) und das Lebenszyklusmanagement (LCM) zu unterstützen. Pilotprojekte in kleinen und mittleren Unternehmen (KMU) zur Anwendung des Modells zeigten, dass die Unternehmen in der Lage waren, Projekte zu identifizieren und umzusetzen, die sowohl einen kurzfristigen Geschäftswert lieferten als auch die organisatorischen Fähigkeiten für LCM entwickelten. Ein wesentlicher Vorteil des Lebenszyklusansatzes war die verbesserte funktionsübergreifende Integration und Zusammenarbeit mit Lieferanten und Kunden. Die Projekte stellten fest, dass mehr Leitlinien zur Interpretation der geschäftlichen Auswirkungen von Umweltbelangen und zur Ausrichtung der LCM-Bemühungen an der Geschäftsstrategie des Unternehmens erforderlich sind. Kooperationsnetzwerke, in denen fortschrittlichere Unternehmen ihr Wissen teilen können, sind ein Schlüsselfaktor, insbesondere in Entwicklungsländern.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-7221-1_17 5ae27ef3a5dbba33f4f30b49a2d41b81;de;;;6.2.;;;Patientenpräferenz für Triptane und andere Medikamente als Instrument zur Beurteilung der Wirksamkeit von Akutbehandlungen bei Migräne Orale Triptane sind wirksame und gut verträgliche Akutbehandlungen für Migräne, aber die klinischen Unterschiede zwischen ihnen sind gering und in konventionellen klinischen Studien schwer zu messen. Die Patientenpräferenz bewertet ein globales Maß für Wirksamkeit und Verträglichkeit und kann ein empfindlicheres Mittel zur Unterscheidung zwischen diesen Arzneimitteln sein. In einer Reihe von Studien äußerten Patienten durchweg eine klare Präferenz für Triptane gegenüber ihren üblichen Nicht-Triptan-Akutmedikamenten, z. B. Analgetika und Ergotamin. Direkte Vergleichsstudien zur Patientenpräferenz mit oralen Triptanen zeigten, dass Patienten zwischen verschiedenen Triptanen und zwischen verschiedenen Formulierungen desselben Triptans unterscheiden konnten. Die Patienten konnten sogar zwischen den drei oralen Dosen von Sumatriptan unterscheiden. Die am häufigsten angegebenen Gründe für die Präferenz waren Reaktionsgeschwindigkeit und Gesamteffektivität. Die Patientenpräferenz ist ein sensibler Endpunkt für klinische Studien, und Ärzte sollten dies bei der Überprüfung der Wirksamkeit von Medikamenten gegen akute Migräne in Betracht ziehen.;-;-;-;https://link.springer.com/article/10.1007/s10194-005-0164-3 cf7e503b2d1a7d0b344c3322746d4be7;de;;;6.2.;;;Die Komplexität einfacher Technologien: Neuinterpretation der Rolle von Schnelltests bei der Malariakontrolle Malaria-Schnelldiagnosetests (RDTs) gelten als einfach zu bedienende und mobile Technologien, die in der Lage sind, die parasitologische Diagnose von Malaria in einer Vielzahl von klinischen Situationen zu standardisieren. Um diese Tests zu evaluieren, ist es wichtig zu berücksichtigen, wie sich solche Annahmen in der Praxis im Alltag von Kliniken, Gesundheitszentren, Drogerien und freiwilligen Helfern im Gesundheitswesen auswirken.;-;-;-;https://link.springer.com/article/10.1186/s12936-016-1083-2 0113945ed8bd65c4e1c3161945991070;de;;;6.2.;;;Information über den Ausbau des Pflegepersonals in Kenia: eine Mixed-Methods-Studie zu Faktoren, die sich auf die Kapazitäten und die Produktion von Ausbildungsmaßnahmen vor dem Dienst auswirken Angesichts des weltweiten Mangels an Pflegekräften und der Investitionen zur Erhöhung der Belegschaft wurden in dieser Studie Trends bei der jährlichen Einschreibung von Krankenpflegeschülern, der Fluktuation vor dem Dienst zwischen Einschreibung und Registrierung sowie Faktoren untersucht, die die Produktion von Krankenpflegekräften in Kenia beeinflussen.;-;-;-;https://link.springer.com/article/10.1186/1478-4491-12-47 e0f3c954faeeecf0fbeda6a809d8a2b5;de;;;6.2.;;;Wie von der Theorie vorhergesagt: Auswahl und Wettbewerb in einem öffentlich finanzierten und regulierten regionalen Gesundheitssystem führen zu einem verbesserten Zugang und einer besseren Kostenkontrolle New Public Management (NPM) ist weit verbreitet, um Wettbewerb in das öffentliche Gesundheitswesen einzuführen. Die Ergebnisse waren gemischt, und es gab viele Kontroversen über die Angemessenheit eines dem Privatsektor nachempfundenen Governance-Modells in einem öffentlichen Dienst. Eine Stimme in der Debatte schlug vor, statt zu diskutieren, ob Wettbewerb „gut“ oder „schlecht“ ist, sollte der Schwerpunkt auf der Untersuchung der Bedingungen für eine erfolgreiche Umsetzung liegen.;-;-;-;https://link.springer.com/article/10.1186/s12913-021-06392-6 017a035a278768537aeb685f463a31de;de;;;6.2.;;;Top-Down-Softwareoptimierung Das Tuning einer bisher nicht optimierten Hardware/Software-Kombination ist eine schwierige Aufgabe, mit der selbst Experten zu kämpfen haben. Hier kann alles schief gehen, vom richtigen Setup bis hin zur Zusammenstellung und Ausführung individueller Maschinenanweisungen. Es ist daher von größter Bedeutung, einen logischen und systematischen Ansatz zu verfolgen, um die Leistung inkrementell zu verbessern und kontinuierlich den nächsten zu behebenden Engpass aufzudecken.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-6497-2_3 ed7b446e8228e5b9a2911c10d894d31f;de;;;6.2.;;;Gesundheitsbezogene Kosten im Zusammenhang mit der Umstellung des subkutanen Tumornekrosefaktor-α-Inhibitors bei der Behandlung von entzündlicher Arthritis: eine retrospektive Studie Nachfolgende Behandlungslinien des subkutanen Tumornekrosefaktor-Alpha-Inhibitors (SC-TNFi) können bei der Behandlung von rheumatoider Arthritis (RA), ankylosierender Spondylitis (AS) und Psoriasis-Arthritis (PsA) – zusammenfassend als entzündliche Arthritis (IA) bezeichnet – gut motiviert sein. Die mit dem Wechseln von SC-TNFs verbundenen Kosten sind jedoch weitgehend unbekannt. Das Ziel dieser retrospektiven Beobachtungsstudie war es, die Kosten der Ressourcennutzung im Gesundheitswesen (HCRU) im Zusammenhang mit der Umstellung der SC-TNFi-Behandlung bei biologisch-naiven schwedischen Patienten mit IA zu untersuchen.;-;-;-;https://link.springer.com/article/10.1007/s12325-020-01425-8 d0129270bb4e10e9e0839b9b312ad7a7;de;;;6.2.;;;Telefonische Gesundheitsdienste im Bereich Seltene Erkrankungen: Eine qualitative Interviewstudie untersucht die Bedürfnisse von Patienten, Angehörigen und Angehörigen der Gesundheitsberufe in Deutschland Seltene Erkrankungen sind per Definition sehr schwere und chronische Erkrankungen mit hohen negativen Auswirkungen auf die Lebensqualität. Weltweit leben etwa 350 Millionen Menschen mit seltenen Krankheiten. Die daraus resultierende hohe Krankheitslast löst die Suche nach Gesundheitsinformationen aus, aber hilfreiche, qualitativ hochwertige und aktuelle Informationen sind oft schwer zu finden. Daher wurde die Verbesserung der Bereitstellung von Gesundheitsinformationen in viele nationale Pläne für seltene Krankheiten integriert, wobei das Telefon als eine Zugangsmöglichkeit diskutiert wird. In diesem Zusammenhang untersucht diese Studie die Notwendigkeit eines telefonischen Informationsdienstes für Menschen mit seltenen Krankheiten, deren Angehörige und Ärzte.;-;-;-;https://link.springer.com/article/10.1186/s12913-018-2872-9 1044624fed90cc479dca6e5c3fb51fee;de;;;6.2.;;;Ein neuer Modellierungsansatz für einen verallgemeinerbaren Photo-Fenton-basierten Abbau organischer Verbindungen Diese Arbeit zielt darauf ab, ein Modell vorzuschlagen und zu validieren, das für die zukünftige Entwicklung industrieller Anwendungen (z. B. Prozessdesign und -steuerung) von Fenton- und Photo-Fenton-Prozessen genutzt werden kann. Daher wurde eine Kompromissmodellierungslösung zwischen der nicht verallgemeinerbaren Genauigkeit der First-Principles-Modelle (FPMs) und der übermäßigen Vereinfachung der empirischen Modelle (EMs) entwickelt. Die Arbeit präsentiert ein neuartiges Modell mittlerer Komplexität, das so vereinfacht ist, dass es generalisierbar und rechnerisch erschwinglich ist, während es die physikalische Bedeutung beibehält. Die Methodik basiert auf einem allgemeinen Abbaumechanismus, der algorithmisch aus der Kohlenstoffzahl der Zielverbindung sowie aus der Kenntnis zweier kinetischer Parameter generiert werden kann, einer für die schnellere Anfangsgeschwindigkeit und der andere für die nachfolgenden Abbauschritte. Der Schadstoffabbaumechanismus wurde mit einer entsprechend vereinfachten Implementierung der bekannten Fenton- und Photo-Fenton-Kinetik kombiniert. Dieses Modell beschreibt den Abbau nicht nur der Zielverbindung und des Oxidationsmittels, sondern auch des gesamten organischen Kohlenstoffs (TOC), der zur Definition der Gesamtqualität des Wassers verwendet wird. Experimentelle Entwurfstechniken wurden zusammen mit einer nicht-konventionellen Modellierungsmethodik von programmierbaren Prozessstrukturen (PPS) verwendet. Dieser neuartige Modellierungsansatz wurde auf den Abbau von drei Modellverbindungen angewendet und validiert. Eine erfolgreiche Vorhersage der Entwicklung der Schadstoffe H;-;-;-;https://link.springer.com/article/10.1007/s11356-020-08616-4 fdb1521c364f50c295da6d207e30c1f7;de;;;6.2.;;;Akupunktur bei diabetischer peripherer Neuropathie – Protokoll für die randomisierte, multizentrische ACUDPN-Studie Akupunktur wird verwendet, um Patienten mit diabetischer peripherer Neuropathie zu behandeln, die Beweise sind jedoch unklar. Wir präsentieren das Design und die Methodik der Studie ACUDPN (ACUpuncture in Diabetic Peripheral Neuropathie), die die Wirksamkeit der Akupunktur zur Behandlung von Symptomen der diabetischen peripheren Neuropathie (DPN) untersucht. Das Ziel dieser Studie ist es zu untersuchen, ob Akupunktur zur Behandlung von DPN-Symptomen wirksam ist.;-;-;-;https://link.springer.com/article/10.1186/s13063-021-05110-1 bd56388697ddb5d441e56e1d342c8323;de;;;6.2.;;;Muster der zwischenbetrieblichen Kontakte über Fachkräfte in Schweden Infektionskrankheiten von Nutztieren haben negative Folgen für die Tierproduktion sowie die Tiergesundheit und den Tierschutz und können sowohl über direkte (Verbringung lebender Tiere) als auch indirekt (über physische Vektoren wie Personen, Transportfahrzeuge und Feinde) zwischen den Betrieben übertragen werden. Ziel der Studie war es, die Reisegewohnheiten von Fachleuten zu untersuchen, die schwedische landwirtschaftliche Betriebe besuchen (Tierärzte, Milchtankwagenfahrer, künstliche Besamungstechniker, Wartungstechniker und Viehtransporteure). Dazu wurden Aufzeichnungen über die Betriebe erhoben, die von einer Stichprobe von Fachleuten in den oben genannten Kategorien in einer Woche im Januar, einer Woche im April, einer Woche im Juli und einer Woche im Oktober in den schwedischen Landkreisen Västerbotten, Södermanland, Västergötland und Skåne obtaining besucht wurden .;-;-;-;https://link.springer.com/article/10.1186/s13028-014-0070-2 3d5cb20f1733e62d110bd07d71045e0f;de;;;6.2.;;;Zeitpunkt und Todesursachen bei septischem Schock Die meisten Studien zum septischen Schock berichten von einer groben Sterblichkeitsrate, die weder zwischen frühen und späten Todesfällen unterscheidet noch die direkten Todesursachen anspricht. Wir wollten hier die Modalitäten des Todes bei septischem Schock bestimmen.;-;-;-;https://link.springer.com/article/10.1186/s13613-015-0058-8 f55404bd97e34edccdfe64219507d945;de;;;6.2.;;;Ernährungsgewohnheiten im Zusammenhang mit der Wachstumsentwicklung von Kindern unter 5 Jahren im Nouna Health and Demographic Surveillance System, Burkina Faso Zu wissen, welche Ernährungsgewohnheiten mit dem Wachstum von Kindern verbunden sind, könnte zu besseren langfristigen Gesundheitsergebnissen führen und das Design ernährungsbasierter Interventionen verbessern. Unser Ziel war es, Ernährungsgewohnheiten zu identifizieren, die mit der Wachstumsentwicklung von Kindern unter 5 Jahren im ländlichen Burkina Faso in Verbindung stehen.;-;-;-;https://link.springer.com/article/10.1186/s12937-020-00591-3 2f863e10ae9d1764fa76ed6f80872340;de;;;6.2.;;;Schwere des thorakalen Traumas trägt zu Unterschieden in der Intensivtherapie und Sterblichkeit schwerverletzter Patienten bei: Analyse auf Basis des TraumaRegisters DGU® Das Thoraxtrauma ist eine relevante Komorbiditätsquelle in der gesamten Versorgung von Patienten mit Mehrfachverletzungen. Unser Ziel ist es, einen messbaren Einfluss der Schwere des Thoraxtraumas auf Frühreanimation, Intensivtherapie und Mortalität bei Schwerverletzten zu ermitteln.;-;-;-;https://link.springer.com/article/10.1186/s13017-017-0154-1 e6f5162ee6e54e7aa81d7b35a52452e1;de;;;6.2.;;;Ergebnis und Prädiktoren für eine erfolgreiche Reanimation in der Notaufnahme erwachsener Patienten mit traumatischem Herz-Kreislauf-Stillstand Daten des TraumaRegisters DGU® wurden analysiert, um Überlebensraten, neurologisches Outcome und prognostische Faktoren von Patienten abzuleiten, die in der frühen Behandlungsphase einen traumatischen Herzstillstand erlitten hatten.;-;-;-;https://link.springer.com/article/10.1186/s13054-016-1463-6 e59c7b80be7864a0839b1e0ef3131588;de;;;6.2.;;;Rechenzentren in zukünftigen europäischen Energiesystemen – Energieeffizienz, Integration und Politik Endnutzungseffizienz, Demand Response und Kopplung verschiedener Energievektoren sind wichtige Aspekte zukünftiger erneuerbarer Energiesysteme. Die wachsende Zahl von Rechenzentren führt zu einem steigenden Strombedarf und der Entstehung einer neuen stromintensiven Industrie. Studien zu Rechenzentren und zum Energieverbrauch konzentrierten sich bisher hauptsächlich auf die Energieeffizienz. Dieses Papier trägt mit einer Bewertung des Potenzials der Energiesystemintegration von Rechenzentren über Demand Response und Abwärmenutzung sowie mit einem Überblick über die diesbezüglichen EU-Politiken bei. Die Abwärmenutzung ist vor allem für Rechenzentren in der Nähe von Fernwärmenetzen eine Option. Durch zeitliche und räumliche Planung des Rechenzentrumsbetriebs kann ein flexibler Strombedarf erreicht werden. Dadurch könnten im Jahr 2030 mehr als 10 GW an Demand Response im europäischen Stromsystem bereitgestellt werden. Die meisten Rechenzentren verfügen auch über Hilfsstromsysteme mit Batterien und Reservedieselgeneratoren, die potenziell für den Netzausgleich verwendet werden könnten. Diese Potenziale wurden bisher wenig beachtet und in der Energie- oder Rechenzentrumspolitik noch nicht berücksichtigt. Es sind Richtlinien erforderlich, um den potenziellen gesellschaftlichen Nutzen der Energiesystemintegration von Rechenzentren zu erfassen. In der EU befinden sich solche Politiken in der Entstehungsphase und konzentrieren sich hauptsächlich auf Energieeffizienz durch den freiwilligen Verhaltenskodex und die Kriterien der EU-Ökodesign-Richtlinie. Ein Teil der Forschung und Entwicklung im Bereich Energieeffizienz und Integration wird auch durch das EU-Programm Horizont 2020 unterstützt. Unsere Analyse zeigt, dass erhebliches Potenzial für Demand Response und Energiesystemintegration besteht. Dies motiviert zu größeren Anstrengungen bei der Entwicklung künftiger Politiken, der Politikkoordinierung und bei Änderungen der Regulierung, Besteuerung und des Strommarktdesigns.;-;-;-;https://link.springer.com/article/10.1007/s12053-019-09833-8 08534ee5dd2eb9f8c1c45cfa50d8b0be;de;;;6.2.;;;Vergleich von qSOFA-Score, SOFA-Score und SIRS-Kriterien zur Vorhersage von Infektionen und Mortalität bei chirurgischen Intermediate- und Intensivpatienten Es ist entscheidend, eine Sepsis schnell zu erkennen, damit eine angemessene Behandlung eingeleitet werden kann. Dementsprechend werden das Sequential Organ Failure Assessment (SOFA) und das Quick SOFA (qSOFA) Scores verwendet, um Intensivpatienten (ICU) bzw. Nicht-ICU-Patienten zu bewerten. Mit steigender Nachfrage nach Intensivbetten kommt der Intermediate Care Unit (IMCU) als Brücke zwischen der Intensivstation und der Regelstation eine immer größere Bedeutung zu. Diese Studie zielte darauf ab, die Fähigkeit von SOFA- und qSOFA-Scores zu untersuchen, vermutete Infektionen und Mortalität bei IMCU-Patienten vorherzusagen.;-;-;-;https://link.springer.com/article/10.1186/s13017-020-00343-y a2a69219aa01effc5746192ae75e9c8e;de;;;6.2.;;;Bewertung der Aktivität des Lektinwegs und der Mannanbindungs-Lektinspiegel im Verlauf einer Schwangerschaft mit Diabetes Typ 1 aufgrund des genetischen Hintergrunds Es gibt zahlreiche Hinweise darauf, dass entweder ein Mangel an Mannan-bindendem Lektin (MBL) oder seine übermäßige Aktivität mit ungünstigen Schwangerschaftsergebnissen verbunden sind. Hohe MBL-Konzentrationen und entsprechende;-;-;-;https://link.springer.com/article/10.1007/s00005-009-0029-6 28dc28369c80774941c0a035ca637940;de;;;6.2.;;;Protokoll für Webbasierte Interventionen für körperliche Aktivität bieten mehrere Vorteile gegenüber Präsenz-, Print- und Telefoninterventionen und sind skalierbar und potenziell kosteneffektiv. Jüngste Übersichtsarbeiten über webbasierte Interventionen bei Erwachsenen zeigen, dass sie positive, aber geringe Auswirkungen auf die körperliche Aktivität haben, identifizieren jedoch eine Reihe von Einschränkungen, einschließlich der Abhängigkeit von Selbstberichten zum Ergebnis. In dieser Studie wurde eine objektive Messung der körperlichen Aktivität verwendet, um die Wirksamkeit von drei minimalen Kontaktinterventionen zu bewerten: 1) Eine webbasierte Mehrkomponenten-Intervention mit objektiver Überwachung und grafischem Feedback der körperlichen Aktivität, 2) Eine Version der ersten Intervention, die nur aus der objektiven Überwachung plus webbasiertem grafischem Feedback und 3) Selbstüberwachung der körperlichen Aktivität mit einem Papiertagebuch.;-;-;-;https://link.springer.com/article/10.1186/s12889-015-1654-0 c098b86ac5a376d54fa656530e53e4cc;de;;;6.2.;;;Arzneimittelresistenz bei Bakterien, die von Patienten mit Wunden in einem gemeinnützigen chirurgischen Zentrum in Phnom Penh, Kambodscha von 2011 bis 2013 isoliert wurden Die Entstehung von Antibiotikaresistenzen bei klinisch bedeutsamen Bakterien ist weltweit ein Thema der öffentlichen Gesundheit mit zunehmender Bedeutung, ist jedoch in Kambodscha relativ unbekannt. In dieser Studie führten wir Standardbakterienkulturen an Proben von Wunden in einem Krankenhaus einer Nichtregierungsorganisation (NGO) in Phnom Penh, Kambodscha, durch. Es wurden Tests durchgeführt, um pathogene Bakterien, die Wundinfektionen verursachen, und die Antibiotikaresistenzprofile von Bakterienisolaten aufzuklären. Alle Tests wurden im Naval Medical Research Unit, No.2 (NAMRU-2) Hauptlabor in Phnom Penh, Kambodscha, durchgeführt.;-;-;-;https://link.springer.com/article/10.1186/s40794-015-0006-5 3e3308c4775a52e96a7009275cf68b0d;de;;;6.2.;;;Equine-assisted biographical work (EABW) mit Personen in der zweiten Lebenshälfte: Studienprotokoll einer multizentrischen randomisierten kontrollierten Studie Pferdegestützte Therapie wird bei Kindern und Jugendlichen häufiger praktiziert als bei älteren Menschen, obwohl auch Personen in der zweiten Lebenshälfte davon profitieren könnten. Diese Gruppe ab dem 50. Lebensjahr zeichnet sich durch zunehmende emotionale, soziale, gesundheitliche und kognitive Veränderungen aus, ein kritisches Lebensereignis wie eine neurologische Erkrankung oder der Verlust eines Familienmitglieds kann die Wahrscheinlichkeit einer subklinischen Depression erhöhen. Personen mit depressiven Symptomen, bei denen nicht unbedingt eine Major Depression diagnostiziert wurde, können unter relevanten Einbußen an Lebensqualität leiden (z. B. Schlafstörungen, Gedächtnisstörungen, Schuldgefühle, Hoffnungslosigkeit). Obwohl die verschiedenen Gesundheitssysteme im Allgemeinen häufiger in Anspruch genommen werden, erhalten diese Personen häufig keine adäquate Therapie. Die Verarbeitung der eigenen Biografie (Reminiszenz) ist ein elementarer Bestandteil der meisten Psychotherapieansätze und kann nachweislich die Entstehung einer Major Depression behandeln und verhindern. In dieser Studie wird Equine-Assisted Biographical Work (EABW), eine Kombination aus pferdegestützter Therapie und biografischer Arbeit, bei Personen mit subklinischer Depression in der zweiten Lebenshälfte angewendet.;-;-;-;https://link.springer.com/article/10.1186/s13063-020-04784-3 c4067332641038b6d99d8f616dd177bf;de;;;6.2.;;;Validierung der spanischen Version des Oral Health Impact Profile (OHIP-14Sp) bei älteren Chilenen Das OHIP-49 wird häufig zur Beurteilung der mundgesundheitsbezogenen Lebensqualität verwendet, aber seine Länge macht es zeitaufwändig und schwierig zu verwenden. Eine gekürzte Version des OHIP-49 mit vierzehn Items wurde für ältere Erwachsene validiert, jedoch nicht in Chile. Ziel war es, die spanische Version des OHIP-14 bei einer älteren chilenischen Bevölkerung zu entwickeln und zu validieren.;-;-;-;https://link.springer.com/article/10.1186/1472-6831-14-95 99cfdbf80955719180a1bd5bfdeb1c56;de;;;6.2.;;;Pneumonitis nach Strahlentherapie bei Lungenkrebs (PARALUC): eine Interventionsstudie zur Erstellung eines symptombasierten Bewertungssystems zur Identifizierung von Patienten, die eine Strahlenpneumonitis entwickeln Pneumonitis ist eine mögliche Nebenwirkung der Strahlentherapie bei Lungenkrebs. Da sie bis zu mehreren Monaten nach der Behandlung auftreten kann, sind die Symptome möglicherweise nicht mit einer vorherigen Strahlentherapie verbunden, und eine Pneumonitis kann vor der Diagnose schwerwiegend werden. Ziel dieser Studie war es, ein symptombasiertes Scoring-System zu entwickeln, um zur Früherkennung einer Strahlenpneumonitis, die eine medizinische Intervention erfordert (Grad ≥ 2), beizutragen.;-;-;-;https://link.springer.com/article/10.1186/s12885-020-07291-5 a5a375a2e0e861d04c8d41de88fb4c89;de;;;6.2.;;;Vergleich zweier Modelle der ambulanten spezialisierten Palliativversorgung Patienten mit lebensbedrohlichen Erkrankungen, die an multiplen Symptomen und eingeschränkter Lebensqualität leiden, sollten idealerweise eine auf ihre spezifischen Bedürfnisse abgestimmte Palliativversorgung erhalten. Die vielen gut definierten klinischen Pfade lassen möglicherweise nicht immer Raum für einen personenzentrierten und individuellen Ansatz in Bezug auf Symptomkontrolle, psychosoziale und spirituelle Unterstützung und praktische Fragen. Bei der Gestaltung der ambulanten fachärztlichen Palliativversorgung (SPZ) ist es wichtig, sowohl die Perspektive der Patienten als auch der Angehörigen einzubeziehen. Ziel dieser Studie war es daher, zwei Modelle für die ambulante SPC zu vergleichen: Erstkontakt zwischen Patient, Angehöriger und Arzt/Pflegepersonal in Form eines Hausbesuchs und Erstbesuch im Krankenhaus.;-;-;-;https://link.springer.com/article/10.1186/s12904-021-00727-0 260c5f0a8e2d89e88318939d1d61037e;de;;;6.2.;;;Kreuzvalidierung von zwei prognostischen Trauma-Scores bei Schwerverletzten Trauma-Scoring-Systeme sind wichtige Werkzeuge für die Ergebnisvorhersage und die Anpassung des Schweregrads, die in die Bewertung und Forschung der Traumaqualität einfließen. Diskriminierung und Präzision solcher Systeme werden in Validierungsstudien getestet. Das Deutsche TraumaRegister DGU;-;-;-;https://link.springer.com/article/10.1007/s00068-020-01373-6 afadbd1a3192dc0fcec25b1bf8fa505c;de;;;6.2.;;;Implementierung von Lehrplänen für sexuelle und geschlechtsspezifische Minderheiten in Gesundheitsberufen: eine qualitative Studie Lesben, Schwule, Bisexuelle, Transgender, Queer und Intersexuelle – auch als „sexuelle und geschlechtliche Minderheiten“ bezeichnet – haben einzigartige Gesundheits- und Gesundheitsbedürfnisse, die von den meisten Gesundheitsdienstleistern aufgrund mangelnder Ausbildung in Gesundheitsfachschulen nicht erfüllt werden. Der Zweck dieser qualitativen Studie war es, Implementierungsfaktoren für die Weiterentwicklung der Curricula für Studenten im Gesundheitswesen sexueller und geschlechtsspezifischer Minderheiten im akademischen Umfeld zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s12909-020-02045-0 54c5351e301227e93b97e71e95d215f6;de;;;6.2.;;;Mikrobielle Belastung und Sicherheit von Papierwährungen von einigen Lebensmittelhändlern in Jimma Town, Südwest-Äthiopien Papiergeld wird für jede Art von Handel verwendet und spielt eine wichtige Rolle im Leben der Menschen. Die Kombination aus seiner weit verbreiteten Verwendung und dem ständigen Umtausch macht Papiergeld jedoch zu einem wahrscheinlichen Erreger der Krankheitsübertragung. Das Ziel dieser Studie war es daher, die mikrobielle Belastung und Sicherheit von äthiopischen Papierwährungen zu bewerten, die von einigen Lebensmittelverkäufern in Jimma Town gesammelt wurden.;-;-;-;https://link.springer.com/article/10.1186/1756-0500-7-843 f00f1be5fdb74671ed1038a4bf63cb41;de;;;6.2.;;;Community Care Koordination für Schlaganfallüberlebende: Ergebnisse einer komplexen Interventionsstudie Die ambulante Nachsorge von Schlaganfallüberlebenden ist oft unzureichend und wird von den Patienten meist selbst organisiert. Im deutschen Gesundheitssystem gibt es keine Standardversorgungsprogramme für Patienten nach der Entlassung aus dem Krankenhaus, um sie bei ihren vielfältigen und heterogenen Versorgungsbedürfnissen zu unterstützen. Das Ziel dieser komplexen Interventionsstudie war es, die Wirksamkeit eines Koordinationsprogramms nach Schlaganfall im Vergleich zur Standardversorgung im ersten Jahr nach einem Schlaganfall zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s12913-020-05993-x aaef9185ad7bbce92cddd24fda2ee25a;de;;;6.2.;;;Gültigkeit des Global Physical Activity Questionnaire (GPAQ) bei der Beurteilung des Niveaus und der Veränderung von mäßiger bis starker körperlicher Aktivität und sitzendem Verhalten Zur Überwachung von moderater bis starker körperlicher Aktivität (MVPA) und sitzendem Verhalten (SB) sowie zur Bewertung der Wirkung von Interventionen sind praktikable und kostengünstige Instrumente erforderlich. Die Evidenzbasis für die Validität und Zuverlässigkeit des von der Weltgesundheitsorganisation empfohlenen Global Physical Activity Questionnaire (GPAQ) ist jedoch begrenzt. Unser Ziel war es, die Validität des GPAQ im Vergleich zu Beschleunigungsmesserdaten bei der Messung und Bewertung von Veränderungen von MVPA und SB zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-14-1255 33a5590eb52484a74fbe1a0561f26f22;de;;;6.2.;;;Visuelle Hinweise, Erwartungen und sensomotorische Erinnerungen bei der Vorhersage und Wahrnehmung der Objektdynamik während der Manipulation man Wenn wir neuartige Objekte greifen und heben, verlassen wir uns auf visuelle Hinweise und sensomotorische Erinnerungen, um unsere Fingerkräfte vorhersagend zu skalieren und kompensierende Drehmomente entsprechend den Objekteigenschaften auszuüben. Kürzlich wurde gezeigt, dass das Aussehen von Objekten, frühere Kraftskalierungsfehler und frühere Drehmomentkompensationsfehler unsere Wahrnehmung stark beeinflussen. Der Einfluss visueller geometrischer Hinweise auf die Wahrnehmung von Objektdrehmomenten und -gewichten bei einer Greif-zu-Hebe-Aufgabe ist jedoch kaum verstanden. Darüber hinaus ist wenig darüber bekannt, wie visuelle Hinweise, vorherige Erwartungen, sensorisches Feedback und sensomotorische Erinnerungen für die vorausschauende Drehmomentsteuerung und Objektwahrnehmung integriert werden. Hier griffen 12 junge und 12 ältere Teilnehmer wiederholt einen Gegenstand und hoben ihn an, während sie versuchten, das Kippen des Gegenstands zu verhindern. Vor jedem Versuch haben wir sowohl den Objektgriff nach dem Zufallsprinzip neu positioniert, um einen geometrischen Hinweis auf das bevorstehende Drehmoment als auch ein verstecktes Gewicht zu geben, das eine unvorhersehbare Drehmomentvariation hinzufügte. Vor dem Heben gaben die Probanden ihre Drehmomenterwartungen sowie ihre Erfahrungen mit Drehmoment und Gewicht nach jedem Heben an. Multiple Regressionsmodelle mit gemischten Effekten zeigten, dass visuelle Formsignale die antizipatorische Drehmomentkompensation steuerten, während sensomotorische Erinnerungen eine geringere Rolle spielten. Im Gegensatz dazu bestimmten das externe Drehmoment und begangene Kompensationsfehler beim Abheben hauptsächlich, wie Drehmomente und Gewicht des Objekts wahrgenommen wurden. Der bescheidene Effekt der Griffposition unterschied sich für die Drehmoment- und Gewichtswahrnehmung. Explizite Drehmomenterwartungen wurden auch mit einer vorausschauenden Drehmomentkompensation und Drehmomentwahrnehmung korreliert. Unsere wichtigsten Ergebnisse verallgemeinert über beide Altersgruppen. Unsere Ergebnisse legen eine deutliche Gewichtung der Inputs für Handlung und Wahrnehmung nach Reliabilität nahe.;-;-;-;https://link.springer.com/article/10.1007/s00221-019-05711-y e0cd2082c6272d6a51855fec3f8f9321;de;;;6.2.;;;Ein globales Patienten-Outcome-Register: Cochlear-Beobachtungsstudie mit implantierten Empfängern (Cochlear® Derzeit gibt es nur wenige Daten zu den Langzeitergebnissen, der Bildungsplatzierung und der Lebensqualität von Kindern mit implantierten Hörgeräten aus großen und repräsentativen Bevölkerungsgruppen. Um diese Bedenken auszuräumen, wurde ein großes, prospektives, multizentrisches, multinationales Patientenergebnisregister für pädiatrische Empfänger von implantierbaren Hörgeräten entwickelt. Die Vorteile dieses Registers, sein Ansatz und seine Methodik werden beschrieben.;-;-;-;https://link.springer.com/article/10.1186/1472-6815-14-10 152ddf7bd1fe9c5a36e6a94a3b643ce1;de;;;6.2.;;;Klinisch durchführbare halbautomatische Arbeitsabläufe zur Messung des metabolisch aktiven Tumorvolumens bei metastasiertem Melanom Das metabolisch aktive Tumorvolumen (MATV) ist ein potenzieller Biomarker für die quantitative Positronen-Emissions-Tomographie (PET) für die Bildgebung beim Melanom. Die zunehmenden Daten weisen darauf hin, dass ein niedriges MATV eine erhöhte Chance auf ein Ansprechen auf die Immuntherapie und das Gesamtüberleben vorhersagen kann. Metastasierte Melanome können jedoch zahlreiche (kleine) Tumorläsionen aufweisen, was die manuelle Tumorsegmentierung zeitaufwändig macht. Das Ziel dieser Studie war es, mehrere halbautomatische Segmentierungsworkflows zu evaluieren, um die Zuverlässigkeit und Reproduzierbarkeit von MATV-Messungen bei Patienten mit metastasierendem Melanom zu bestimmen.;-;-;-;https://link.springer.com/article/10.1007/s00259-020-05068-3 87e85169919c3508471abb2f0a2ed6df;de;;;6.2.;;;Verknüpfung sozialer und baulicher Umweltfaktoren mit der Gesundheit der Bewohner von Sozialwohnungen: eine Fokusgruppenstudie Bewohner von Sozialwohnungen haben ein hohes Risiko für chronische Krankheiten, die mit Umweltfaktoren in der Nachbarschaft zusammenhängen können. Unser Ziel war es zu verstehen, wie Bewohner von Sozialwohnungen den Einfluss der sozialen und baulichen Umgebung auf ihre Gesundheit und ihr Wohlbefinden wahrnehmen.;-;-;-;https://link.springer.com/article/10.1186/s12889-015-1710-9 2bc61a826cf4f653bae84545cdb99f92;de;;;6.2.;;;Schulterverletzungen bei polytraumatisierten Patienten: eine Analyse des TraumaRegisters DGU® Ziel der vorliegenden Studie war es, Prävalenz, Epidemiologie und Relevanz von Schulterverletzungen bei polytraumatisierten Patienten in einer großen nationalen Traumadatenbank zu analysieren.;-;-;-;https://link.springer.com/article/10.1007/s00068-020-01340-1 8ad4aa819efa26a1bad25eae3976e78d;de;;;6.2.;;;Kosten der Blutzuckerselbstkontrolle in Kanada bei Patienten mit Insulintherapie wegen Diabetes Menschen mit Diabetes haben ein höheres Risiko, eine Vielzahl von Erkrankungen zu entwickeln als Menschen ohne Diabetes, was zu erhöhten Gesundheitskosten führt. Die Selbstkontrolle des Blutzuckers (SMBG) wird als empfohlenes Element eines wirksamen Diabetes-Selbstmanagements akzeptiert. Es ist jedoch wenig über die tatsächliche Häufigkeit und die tatsächlichen Ausgaben im Zusammenhang mit SMBG sowie über die Auswirkungen der SMBG-Kosten im Verhältnis zu den Kosten von Diabetesbehandlungen bekannt. Das Hauptziel besteht darin, die reale Nutzung und die Kosten von SMBG-Tests in Kanada bei insulinbehandelten Diabetespatienten während einer 12-monatigen Nachbeobachtungszeit zu bewerten.;-;-;-;https://link.springer.com/article/10.1007/s13300-012-0007-6 84058436cc1335bcff216cdd9df951c5;de;;;6.2.;;;Einfluss einer multimedialen Website mit Patientenerfahrungen von Multipler Sklerose (PExMS) auf die Entscheidungsfindung in der Immuntherapie: Studienprotokoll für eine randomisierte kontrollierte Pilotstudie im Mixed-Methods-Design Für Menschen mit schubförmig remittierender Multipler Sklerose (RRMS) stehen eine Vielzahl von Behandlungsoptionen (z. B. Immuntherapien, Lebensstilinterventionen und Rehabilitation) zur Verfügung. Menschen mit MS (pwMS) müssen neben der Diagnosebewältigung komplexe Entscheidungen treffen, beispielsweise über Immuntherapien. Neben Sachinformationen können Erfahrungsberichte (PEx) Patienten bei der Entscheidungsfindung unterstützen. Der Mehrwert von PEx bei der Entscheidungsfindung ist nicht klar und kontrollierte Studien sind selten. Daher sind systematische Methoden erforderlich, um PEx zu entwickeln und zu analysieren. Da es in Deutschland keine evaluierten PEx für MS gibt, erstellen wir derzeit eine Website, die PEx thematisch strukturiert und mit Video-, Audio- und Textdateien illustriert darstellt. Unser Ziel ist es, die Machbarkeit einer Intervention mit PEx zu ermitteln und zu evaluieren, ob PEx als Ergänzung zu evidenzbasierten Informationen PwMS in ihren Immuntherapie-Entscheidungsprozessen unterstützen kann.;-;-;-;https://link.springer.com/article/10.1186/s40814-020-00749-0 d3c003ce5d4c43ab7ff67b435045bac2;de;;;6.2.;;;Die Bedeutung der Sondenposition für die Interpretation zerebraler Mikrodialysedaten bei Patienten mit Subarachnoidalblutung Es gibt keine einheitliche Definition für die Lokalisation der cerebralen Mikrodialyse (CMD)-Sonde in Bezug auf fokale Hirnläsionen, und der Einfluss der CMD-Sonde auf die gemessenen Molekülkonzentrationen ist unklar.;-;-;-;https://link.springer.com/article/10.1007/s12028-019-00713-8 f3853230de942258c87e3b206c297005;de;;;6.2.;;;TargetCOPD: eine pragmatische randomisierte kontrollierte Studie zur gezielten Fallfindung bei COPD Viele Menschen mit klinisch signifikanter chronisch obstruktiver Lungenerkrankung (COPD) bleiben weltweit undiagnostiziert. Es gibt eine Reihe kleinerer Studien, die mögliche Methoden der Fallfindung durch die Primärversorgung untersucht haben, aber keine großen RCTs, die den kostengünstigsten Ansatz angemessen bewertet haben.;-;-;-;https://link.springer.com/article/10.1186/1471-2466-14-157 f8e5ffabd5fcd45b9049de91c774801d;de;;;6.2.;;;Streben nach einer stärker personenzentrierten Psychoseversorgung: Ergebnisse einer klinikbasierten multiprofessionellen pädagogischen Intervention Die Zurückhaltung seitens der Psychiater stellt ein wichtiges Hindernis für die Teilnahme von Patienten an der Versorgung dar. Um die Personenzentrierung in der stationären Versorgung von Personen mit psychotischen Erkrankungen zu fördern, haben wir auf allen vier Stationen der Psychosis Clinic, Sahlgrenska University Hospital in Göteborg, Schweden, eine pädagogische Intervention für Krankenhauspersonal (einschließlich Psychiater) entwickelt und getestet. Die Intervention wurde von Fachleuten, Patienten und Forschern mit einem partizipativen Ansatz gemeinsam entwickelt. Neben Vorträgen und Workshops konzipierten und realisierten die MitarbeiterInnen kleine Projekte zur Steigerung der Personenzentrierung auf den eigenen Stationen. Ein Hauptaugenmerk lag darauf, eine Partnerschaft zwischen Patient und Personal aufzubauen, indem die Erzählung des Patienten erfasst und genutzt wurde, um ein aktives Engagement im Pflegeprozess zu unterstützen. Dazu gehörte die Entwicklung eines personenzentrierten Pflegeplans. Wir stellten die Hypothese auf, dass die Intervention mit einer erhöhten Patientenbefähigung (primärer Endpunkt) und Zufriedenheit mit der Versorgung (sekundärer Endpunkt) verbunden wäre.;-;-;-;https://link.springer.com/article/10.1186/s12888-020-02871-y 9fde0d9bfe70202a1475844709be30f4;de;;;6.2.;;;Entwicklung eines Fragebogens zur Gesundheitskompetenz für taiwanesische Hämodialysepatienten Die Dialyse ist seit langem ein kritisches Thema in der Nephrologie, obwohl die Belastung der Gesellschaft durch diese lebensrettende Technologie immens sein kann. Eine effektive Verbesserung der Gesundheitskompetenz von Hämodialysepatienten kann für deren Gesundheitsergebnisse und Selbstversorgungsfähigkeiten von Vorteil sein. Die Ziele dieser Studie sind daher: (1) ein Instrument zur Bewertung der Gesundheitskompetenz in chinesischer Sprache für Patienten in Hämodialysebehandlung zu entwickeln, (2) das Niveau der Gesundheitskompetenz der taiwanesischen Hämodialysebevölkerung mit dem entwickelten Instrument zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s12882-016-0266-y 56acdf336a325e341142fe68cccd7719;de;;;6.2.;;;Teilbilddatenverarbeitung in Astro-WISE Am häufigsten interessieren sich Astronomen für eine Quelle (z. B. bewegt, variabel oder extrem in einem Farbindex), die auf einigen Pixeln eines Bildes liegt. Der klassische Ansatz in der astronomischen Datenverarbeitung ist jedoch die Verarbeitung des gesamten Bildes oder der Bildermenge, selbst wenn die einzige interessierende Quelle nur auf einigen wenigen Pixeln eines oder einiger weniger Bilder existiert. Dies liegt daran, dass Pipelines für Instrumente mit festen Detektoreigenschaften (z. B. Bildgröße, Kalibrierungsrahmen, Overscan-Regionen usw.) geschrieben und entworfen wurden. Darüber hinaus basieren alle Metadaten und Verarbeitungsparameter auf einem Instrument oder einem Detektor. Dementsprechend kann dies bei vielen Tausend Bildern für eine Umfrage zu einer unnötigen Verarbeitung von Daten führen, die sowohl zeitaufwendig als auch verschwenderisch ist. Wir beschreiben die Architektur und eine Implementierung der Teilbildverarbeitung in;-;-;-;https://link.springer.com/article/10.1007/s10686-012-9295-0 f63b13f36655b43290fc6a76668f8316;de;;;6.2.;;;Verwirrende Komplexität Human Modeling und Primat der Gruppe als Essenz der Komplexität Dieser Beitrag beschreibt die Entstehung von Komplexität als duplizierten evolutionären Prozess. Die erste prozedurale Komplexitätsquelle ist der Quantensprung der Evolution der menschlichen Spezies, als sie anfing, bestimmte hirninterne Modelle ihrer Umwelt aufrechtzuerhalten. Der zweite – parallele – prozedurale Ursprung ist die Entwicklung einer Kommunikationsstruktur, einer Sprache, mit der eine bereits existierende Gruppe von Primaten ihre internen Modelle gestalten könnte. Im Gegensatz zu Komplexitätsdefinitionen, die den Begriff im Kontext der theoretischen Physik verwenden, offenbart dieser Ansatz einige verblüffende Eigenschaften der Modellbildung für einen speziellen Untersuchungsgegenstand, nämlich die Spezies Mensch. Alle adäquaten Modelle der politischen Ökonomie (Wirtschaft ist nur die Teildisziplin, die die politische Dynamik einfriert) müssen komplex sein. Da die heutige Mainstream-Wirtschaftstheorie ihren formalen Apparat aus der Mathematik der Newtonschen Physik bezieht, verfehlt sie die wesentlichsten Merkmale, die die menschliche soziale Dynamik charakterisieren, nämlich ihre Komplexität. Eine formale Definition von Komplexität durch Mathematiker, z.B. die von Princeton Companion to Mathematics bereitgestellte Vorlage bleibt manchmal hinter den Inspirationen zurück, die durch genaue Beobachtungen biologischer Systeme gewonnen werden. Gefragt ist daher transdisziplinäre Forschung. Der erste Teil des Beitrags nimmt Erwin Schrödingers Buch „What is Life?“ als Ausgangspunkt für diese Ausgabe. In diesem Teil werden mehrere – zum Teil sehr spekulative – Vorschläge zur weiteren Vorgehensweise präsentiert. Der folgende zweite Teil identifiziert dann zwei zentrale Hindernisse, die sich als überwunden herausstellen:;-;-;-;https://link.springer.com/article/10.1007/s43253-020-00028-x fc8afc8c7156d957baae94be9338e2fa;de;;;6.2.;;;Eine clusterrandomisierte kontrollierte Studie zur Bewertung der Auswirkungen eines vereinfachten kardiovaskulären Managementprogramms in Tibet, China und Haryana, Indien: Studiendesign und Begründung In ressourcenarmen Gebieten Chinas und Indiens ist die Belastung durch Herz-Kreislauf-Erkrankungen hoch, aber die Verfügbarkeit und der Zugang zu einer qualitativ hochwertigen Gesundheitsversorgung sind begrenzt. Die Einrichtung eines Managementsystems, das die lokale Infrastruktur nutzt und die Gesundheitskapazitäten aufbaut, ist für die Prävention und das Management von Herz-Kreislauf-Erkrankungen von wesentlicher Bedeutung. Die Studie zielt darauf ab, die Durchführbarkeit und Wirksamkeit eines vereinfachten, evidenzbasierten kardiovaskulären Managementprogramms zu entwickeln, umzusetzen und zu bewerten, das von kommunalen Gesundheitspersonal in ressourcenbeschränkten Gebieten in Tibet, China und Haryana, Indien, durchgeführt wird.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-14-924 f8e2a9fb7ba4a7535d98531e5ac618c1;de;;;6.2.;;;Über Middleware für neue Gesundheitsdienste Die Belange der Gesundheitsversorgung sind vielfältig geworden und reichen von akuten und chronischen Erkrankungen bis hin zu Lebensstil, Wohlbefinden und Krankheitsprävention. Zunehmend übernehmen Einzelpersonen die Verantwortung für die Überwachung ihrer eigenen Bedingungen. Gesundheitstechnologien werden zunehmend nicht nur für die Verwaltung, sondern auch für fachärztliche Behandlungen und viele Formen der Überwachung verwendet, auch wenn eine Person mobil ist. Neben formellen Interaktionen mit professionellen Pflegekräften und Ergebnissen von Fachverfahren kann die Pflege auch Ad-hoc-Interaktionen mit der Gemeinschaft einer Person umfassen. Zusammen ergeben diese eine Fülle von Daten, die in unterschiedlichen Kontexten relevant sind. Leider sind viele bestehende Gesundheitssysteme unflexibel, einseitig ausgerichtet und in sich geschlossen, sodass wir ihr Potenzial nicht voll ausschöpfen können. Wir glauben, dass ein Rahmen für die flexible Interoperabilität von gesundheitsrelevanten Komponenten in einer Zeit des steigenden Bedarfs einer alternden Bevölkerung von entscheidender Bedeutung ist.;-;-;-;https://link.springer.com/article/10.1186/1869-0238-5-6 fb124bb5de22c3dc75ef24faa8bac4a3;de;;;6.2.;;;Ein Vergleich von emotionsfokussierter Therapie und kognitiver Verhaltenstherapie bei der Behandlung der generalisierten Angststörung: Studienprotokoll für eine randomisierte kontrollierte Studie Die generalisierte Angststörung (GAD) ist eine chronische und schwächende Erkrankung, die durch eine hohe Komorbidität gekennzeichnet ist. Neben der pharmakologischen Behandlung ist die kognitive Verhaltenstherapie (CBT) eine etablierte psychologische Therapie der GAD. Seine Wirksamkeit ist jedoch begrenzt, da nur schätzungsweise 50% der Kunden nach einer Behandlung im nichtklinischen Bereich vorstellig werden. Darüber hinaus bevorzugen nicht alle Klienten CBT als psychologische Therapie. Vor kurzem wurde die Emotionsfokussierte Therapie (EFT) für GAD entwickelt und in einer offenen Studie mit vielversprechenden Ergebnissen getestet.;-;-;-;https://link.springer.com/article/10.1186/s13063-018-2892-0 3f0a98b28ba4711bc77cddd2a7b1e62c;de;;;6.2.;;;Cloud Computing und sein Interesse am Energiesparen: der Anwendungsfall einer Private Cloud Cloud-Computing-Rechenzentren sind aufgrund ihrer Behausung mit leistungsstarken IKT-Geräten hohe Energieverbraucher und daher für große Mengen an Emissionen verantwortlich. Daher sind Energiesparstrategien, die auf solche Rechenzentren anwendbar sind, sowohl aus ökonomischer als auch aus ökologischer Sicht eine sehr vielversprechende Forschungsrichtung.;-;-;-;https://link.springer.com/article/10.1186/2192-113X-1-5 c9341f139e054ffe6515d9fcc67c8121;de;;;6.2.;;;Managementprioritäten von Start-ups für digitale Gesundheitsdienste in Kalifornien Die Digitalisierung hat die Gesundheitsversorgung revolutioniert und Start-ups, die sich auf digitale Innovationen spezialisiert haben, globale Geschäftsmöglichkeiten eröffnet. Solche Start-ups fordern die traditionelle Gesundheitsdienstleistungsbranche heraus, indem sie radikale und nachhaltige Innovationen in den agilen Produktentwicklungszyklus einführen und innerhalb ihrer Netzwerke kreative Ressourcen akquirieren. Die Gründung ist die kritischste Phase bei der Gründung eines neuen digitalen Gesundheitsdienstleistungsunternehmens. Über die kritischen frühen Wachstumsprozesse neu gegründeter digitaler Gesundheitsdienstleistungsunternehmen ist jedoch wenig bekannt. Ziel dieser Studie ist es, die erfahrungsbasierten Prioritäten von Führungskräften digitaler Gesundheitsunternehmen in Kalifornien in der kritischen Gründungsphase zu klären. Basierend auf dieser multiplen Fallstudie wurden die qualitativen und kontextuellen Merkmale des Wachstums von kalifornischen Startups für digitale Gesundheitsdienste geklärt und ein Rahmen für Managementprioritäten gebildet. Das Netzwerkmanagement hat bei Start-ups digitaler Dienste, die darauf ausgerichtet sind, radikale Innovationen in den komplexen und schwer zugänglichen Markt zu bringen, in dem Fundraising ein wesentlicher Bestandteil des Erfolgs ist, eine hohe Priorität.;-;-;-;https://link.springer.com/article/10.1007/s11365-018-0546-z 66b704208d1d2638ec56b3b454281fd0;de;;;6.2.;;;Erwartungen an Reiseerlebnisse mit tragbaren Computergeräten Basierend auf einer Inhaltsanalyse von Textdaten, die die Ideen der Menschen zur Verwendung von tragbaren Computergeräten enthalten, identifizierte dieses Papier fünf Muster persönlicher Motivationen, tragbare Geräte für Reise- und Tourismuserlebnisse zu verwenden. Sie sind Exploration, Abenteuertourismus, Reisedokumentation, Reiseberichterstattung und positive Transformation. Diese Muster deuten auf eine potenzielle Veränderung des Verhaltens von Touristen aufgrund wahrgenommener neuer Arten der Interaktion mit Technologie und der näheren Umgebung hin. Die verschiedenen Merkmale und Funktionalitäten, die der Wearable-Technologie eigen sind, lösen Veränderungen in drei Bereichen aus: die Verlagerung von Touristen zu Entdeckern, eine Explosion visueller Reiseerzählungen aus der ersten Person und mehr soziales Reisen, das durch Echtzeit-Konnektivität unterstützt wird. Darüber hinaus weisen die Ergebnisse auch auf eine mögliche Verschiebung hin, wie die persönliche Technologie in der menschlichen Erfahrung angesiedelt ist, von der Vermittlung hin zur Verkörperung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03973-2_39 ad6499cd58746a641e4beca3948c5fed;de;;;6.2.;;;Ohrakupressur als komplementäre Therapie bei Psoriasis vulgaris: Studienprotokoll für eine multizentrische randomisierte kontrollierte Studie Psoriasis vulgaris ist eine häufige Hauterkrankung, die durch anhaltende lokalisierte erythematöse schuppige Plaques gekennzeichnet ist, typischerweise an Ellbogen, Knien und Kopfhaut. Es handelt sich um eine immunabnorme Erkrankung, die über einen langen Zeitraum langsam fortschreitet und häufig wiederkehrt. Aktuelle Studien haben gezeigt, dass Akupunktur eine wirksame Therapie bei Psoriasis ist. Die wissenschaftliche Evidenz für die Wirksamkeit der Ohrakupressurbehandlung bei Patienten mit Psoriasis ist jedoch noch unzureichend. Aus diesem Grund haben wir eine randomisierte kontrollierte klinische Studie entworfen, um die Wirkung, Sicherheit und Kosteneffizienz der Ohrakupressur zusätzlich zur Medikation bei Patienten mit Psoriasis zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s13063-019-3475-4 555aa5b51e88088195ea17f8ca291ccd;de;;;6.2.;;;Schweregradabhängige Unterschiede in der Frühbehandlung des Thoraxtraumas bei Schwerverletzten - Auswertung auf Basis des TraumaRegisters DGU® Schwere Traumata sind bei fast 50 % der Mehrfachverletzungen mit Brustverletzungen verbunden. Ein Thoraxtrauma ist eine relevante Komorbiditätsquelle während der gesamten Dauer der Versorgung von mehrfach verletzten Patienten und kann schnelle und gut durchdachte Interventionen erfordern, um ein schädliches Ergebnis zu vermeiden. In dieser epidemiologischen Studie wollen wir Gruppen unterschiedlicher Schwere von thorakalen Traumata bei schwerverletzten Patienten charakterisieren und damit verbundene Unterschiede im präklinischen und frühen klinischen Management identifizieren. Dies kann helfen, die notwendige Behandlung von Brustverletzungen vorherzusehen.;-;-;-;https://link.springer.com/article/10.1186/s13049-017-0354-4 e52d776071202ff8cd4df76a94a63e8b;de;;;6.2.;;;Indirekte Klassifizierung des Schneidwerkzeugverschleißes durch Deep Learning und Spanfarbanalyse Im wachsenden Industrie 4.0-Markt besteht ein starker Bedarf, automatische Prüfmethoden zur Unterstützung von Fertigungsprozessen zu implementieren. Der Werkzeugverschleiß beim Drehen ist eines der größten Bedenken, auf das die meisten erfahrenen Bediener indirekt durch die Analyse der entfernten Späne schließen können. Die Automatisierung dieses Vorgangs würde die Entwicklung effizienterer Schneidprozesse ermöglichen, die zu einer einfacheren Prozessplanungsverwaltung in Richtung des Zero-Defect-Manufacturing-Paradigmas führen. Dieses Papier stellt einen Deep-Learning-Ansatz vor, der auf der Bildverarbeitung basiert, die auf Drehspäne angewendet wird, um den Werkzeugverschleiß indirekt zu identifizieren. Das Verfahren extrahiert verschiedene Indikatoren aus den RGB- und HSV-Bildkanälen und weist ein neuronales Netzwerk an, die Chips basierend auf den Werkzeugzustandsbedingungen zu klassifizieren. Bilder wurden mit einer hochauflösenden Digitalkamera während einer experimentellen Schneidkampagne mit Werkzeugverschleißanalyse mit direkter Mikroskopaufnahme aufgenommen. Die Sensitivitätsanalyse bestätigte, dass die empfindlichsten Bildkanäle der Farbtonwert sind;-;-;-;https://link.springer.com/article/10.1007/s00170-020-06055-6 cff37754defcfc4500d5a9bfec97de07;de;;;6.2.;;;Die Wirkung professionell geführter Leitlinien-Workshops auf die klinische Praxis zur Behandlung des offenen Ductus arteriosus bei Frühgeborenen in Japan: eine kontrollierte Vorher-Nachher-Studie Klinische Leitlinien helfen Ärzten, Entscheidungen über eine geeignete Gesundheitsversorgung zu treffen. Wir führten eine kontrollierte Vorher-Nachher-Studie durch, um die Auswirkungen von professionell geleiteten Leitlinien-Workshops für das Management des offenen Ductus arteriosus (PDA) auf die klinische Praxis von Ärzten, die Entlassungsmortalität und die damit verbundenen morbiden Zustände bei Frühgeborenen zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s13012-015-0258-5 0eb0bf1ab51a4dcce3ed7645e4f0bbca;de;;;6.2.;;;Evaluation eines erweiterten Rehabilitationsangebots für Schlaganfallpatienten (EXTRAS): Studienprotokoll für eine randomisierte kontrollierte Studie Die Entwicklung von längerfristigen Rehabilitationsdiensten nach Schlaganfall wird durch den Mangel an Wirksamkeitsnachweisen für spezifische Interventionen und Leistungsmodelle eingeschränkt. Wir beschreiben das Protokoll für eine multizentrische randomisierte kontrollierte Studie, die eine erweiterte Schlaganfallrehabilitation evaluiert. Der erweiterte Dienst beginnt mit dem Ende der routinemäßigen „organisierten Schlaganfallversorgung“ (Stroke Unit und Early Supported Discharge (ESD)).;-;-;-;https://link.springer.com/article/10.1186/s13063-015-0704-3 0e4b3f109a2ec5d883191729fee2c6f3;de;;;6.2.;;;Ein exploratives Lehrprogramm in Big Data-Analyse für Studierende im Grundstudium Viele der weltweit größten Entdeckungen und Entscheidungen in Wissenschaft, Technologie, Wirtschaft, Medizin, Politik und Gesellschaft insgesamt werden heute auf der Grundlage der Analyse riesiger Datensätze gemacht. In diesem Beitrag wird ein exploratives Lehrprogramm vorgeschlagen. Es bietet eine breite und praktische Einführung in die Big-Data-Analyse. Dieses explorative Lehrprogramm wurde im Frühjahrssemester 2018–2019 am Department of Computer Engineering der Kocaeli University konzipiert und durchgeführt. Um die Auswirkungen des Bildungsprogramms auf den Lernprozess zu beurteilen und die Akzeptanz und Zufriedenheit der Schüler zu bewerten, beantworteten sie nach Abschluss des Programms einen Fragebogen. Laut Feedback der Studierenden ist das explorative Lehrprogramm nützlich, um zu lernen, wie man große Datensätze analysiert und Muster identifiziert, die den Entscheidungsprozess von Unternehmen und Organisationen verbessern.;-;-;-;https://link.springer.com/article/10.1007/s12652-020-02447-4 897e0452aaa687be3bae2906ff71bd19;de;;;6.2.;;;Beratung von Five A zum Gewichtsmanagement adipöser Patienten in der Primärversorgung: eine clusterrandomisierte kontrollierte Studie (INTERACT) Fettleibigkeit ist eines der häufigsten Gesundheitsprobleme in den westlichen Gesellschaften. Es scheint jedoch derzeit im Gesundheitswesen nicht effektiv gehandhabt zu werden. Ausgehend von der Raucherentwöhnung wurde vom Canadian Obesity Network (CON) ein Instrument namens 5As für das Adipositas-Management entworfen und angepasst, um die Gewichtsberatung und die Arzt-Patienten-Interaktion zu verbessern. Dieses Papier beschreibt die Begründung und das Design der INTERACT-Studie. Das Ziel der INTERACT-Studie besteht darin, die Wirksamkeit und die Interventionskosten eines 5As-eLearning-Programms für das Adipositas-Management zu bewerten, das sich speziell an Hausärzte richtet.;-;-;-;https://link.springer.com/article/10.1186/s12875-018-0785-7 d74a47b0e219bc26f8dcb726f26950ed;de;;;6.2.;;;Randomisierte klinische Studie zum Vergleich der Wirksamkeit und Sicherheit wiederholter Rituximab-Behandlungen mit Rituximab-Einzelbehandlungen mit anschließender Erhaltungstherapie mit Mycophenolat-Mofetil bei Kindern mit steroidabhängigem nephrotischem Syndrom Etwa 30% der Kinder mit idiopathischem nephrotischem Syndrom entwickeln einen komplizierten Verlauf mit häufigen Rückfällen oder Steroidabhängigkeit. Rituximab, ein B-Zell-depletierender monoklonaler Antikörper, ist eine sichere und wirksame Alternative zu Steroiden oder anderen Immunsuppressiva, um in dieser Population kurzfristig eine Remission zu erreichen und aufrechtzuerhalten. Trotz des guten initialen Ansprechens kommt es nach Regeneration der B-Lymphozyten unweigerlich zu Rezidiven, die entweder eine Wiederholung der Rituximab-Behandlung oder die Zugabe eines anderen steroidsparenden Immunsuppressivums erforderlich machen.;-;-;-;https://link.springer.com/article/10.1186/s12882-020-02153-5 2f876021efe2f60e2a44dbea7b0f74c8;de;;;6.2.;;;Online-Selbstmitgefühlstraining zur Verbesserung des Wohlbefindens von Jugendlichen mit chronischen Erkrankungen: Protokoll für eine randomisierte Kontrollstudie Chronische Erkrankungen (CMCs) betreffen bis zu 35 % der Kinder und Jugendlichen. Jugendliche mit chronischen Erkrankungen haben ein erhöhtes Risiko für psychische Belastungen und eine verminderte gesundheitsbezogene Lebensqualität und berichten von psychischen Erkrankungen, die doppelt so hoch sind wie die ihrer körperlich gesunden Altersgenossen. Zugängliche, evidenzbasierte Interventionen für junge Menschen mit chronischen Erkrankungen sind dringend erforderlich, um ihre psychische Gesundheit und ihr Alltagsleben zu verbessern. Selbstmitgefühl beinhaltet einen achtsamen, akzeptierenden Umgang mit schwierigen Erfahrungen, das Bewusstsein, dass man mit seinem Leiden nicht allein ist, und in schwierigen Zeiten freundlich und verständnisvoll mit sich selbst umzugehen. Selbstmitgefühl weist bei jungen Menschen starke Assoziationen mit psychischen Gesundheitsergebnissen auf, und Vorarbeiten deuten darauf hin, dass Interventionen, die Selbstmitgefühl aufbauen, das Potenzial haben, die psychische Gesundheit junger Menschen erheblich zu verbessern. Selbstmitgefühl ist auch mit besseren körperlichen und psychischen Gesundheitsergebnissen bei Personen verbunden, die mit CMCs leben. Obwohl ein persönliches Selbstmitgefühlstraining angeboten wird, gibt es für Jugendliche mit CMCs mehrere Barrieren beim Zugang. Online-Selbstmitgefühlstraining bietet potenziell eine zugängliche Alternative für diese Hochrisikogruppe.;-;-;-;https://link.springer.com/article/10.1186/s12889-020-8226-7 ef94a234503f8237a14cbdb6dc52a83e;de;;;6.2.;;;Single-Center-Erfahrungen mit telemetrischen Hirndruckmessungen bei Patienten mit Liquorkreislaufstörungen Hydrozephalus kann mit heterogenen Anzeichen und Symptomen auftreten. Die Indikation zur Behandlung und die optimale Drainage in komplexen Fällen kann eine Herausforderung darstellen. Telemetrische Hirndruckmessungen (TICPM) können unter diesen Umständen neue Perspektiven eröffnen. Wir berichten über unsere Erfahrungen mit dem Neurovent-P-tel und dem Sensor Reservoir in einer retrospektiven Studie.;-;-;-;https://link.springer.com/article/10.1007/s00701-020-04421-7 38d941f9a7efb083ac6cc5ae9d3c88b4;de;;;6.2.;;;Praxisnetzwerkbasiertes Versorgungsmanagement für Patienten mit Typ-2-Diabetes und multiplen Komorbiditäten (GEDIMAplus): Studienprotokoll für eine randomisierte kontrollierte Studie Versorgungsmanagementinterventionen im deutschen Gesundheitssystem wurden mit vielversprechenden Ergebnissen evaluiert, aber es sind weitere Forschungen erforderlich, um ihr volles Potenzial im Kontext der Multimorbidität auszuschöpfen. Unser Ziel in dieser Studie ist es, die Wirksamkeit einer netzwerkbasierten Pflegemanagement-Intervention in der Hausarztpraxis zur Verbesserung des Selbstversorgungsverhaltens bei Patienten mit Typ-2-Diabetes mellitus und mehreren gleichzeitig auftretenden chronischen Erkrankungen zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-15-243 64150d859a42e53c0b43383df51794da;de;;;6.2.;;;Wie misst man die Offenlegung von Bankkreditrisiken? Testen eines neuen methodischen Ansatzes basierend auf dem Content Analysis Framework Die Offenlegung von Risiken ist ein entscheidender Faktor, um die Effizienz der Finanzmärkte zu steigern und die Finanzstabilität zu fördern. Dieses Papier schlägt ein methodisches Instrument zur Analyse der Offenlegung von Kreditrisiken in Bankfinanzberichten vor, basierend auf dem Inhaltsanalyserahmen. Die Autoren verwenden diese Methodik auch, um eine empirische Studie an einer kleinen Stichprobe großer italienischer Banken durchzuführen. Das Papier liefert vorläufige empirische Belege dafür, dass sich Banken in der Offenlegung von Kreditrisiken unterscheiden, obwohl sie homogenen regulatorischen und bilanziellen Anforderungen unterliegen. Darüber hinaus liefert das Papier durch eine korrelationsbasierte Netzwerkanalyse erste Hinweise auf die Existenz eines Zusammenhangs zwischen Kreditrisikooffenlegung, Bankgröße und Geschäftsmodell. Die vorhandene Literatur bietet kein methodisches Instrument zur Analyse qualitativer und quantitativer Profile der Offenlegung von Kreditrisiken bei Banken. Um diese Lücke zu schließen, schlagen wir eine originelle Forschungsmethodik vor, um die Kreditrisikoberichterstattung von Banken zu untersuchen. Während frühere Beiträge verwandte Aspekte der Einführung automatisierter Inhaltsanalysetechniken untersucht haben, schlägt dieses Papier einen originellen und nicht automatisierten Ansatz zur Inhaltsanalyse vor. Unsere Forschung hat mehrere regulatorische und strategische Implikationen und bildet die Grundlage für weitere Forschungen im Bank-, Finanz- und Rechnungswesen.;-;-;-;https://link.springer.com/article/10.1057/s41261-020-00129-x a893ba79e70b436d83587b2ffa4a0b05;de;;;6.2.;;;Einschätzung und Struktur der persönlichen Bedeutung von Sekundarschülern in Bezug auf Mathematik Schülerinnen und Schüler brauchen Bedeutung im Umgang mit Mathematik im schulischen Kontext. Um Bedeutung zu beschreiben, müssen objektive und persönliche Facetten unterschieden werden. Diese Arbeit konzentriert sich auf die Perspektiven der Schüler bei der Beschreibung des Konzepts der persönlichen Bedeutung als persönliche Relevanz eines mathematischen Konzepts oder einer mathematischen Handlung. Um die persönliche Bedeutung für quantitative Studien zu konzeptualisieren, wurde eine Umfrage entwickelt, die 16 verschiedene persönliche Bedeutungen mit zuverlässigen Skalen bewertbar macht. Ergebnisse aus Cluster- und Korrelationsanalysen unterstützen im Allgemeinen die zugrunde liegende Theorie der persönlichen Bedeutung. Explorative Faktorenanalysen legen zwei Metafaktoren nahe, die die unterschiedlichen persönlichen Bedeutungen in mathematische bzw. soziale Inklusionsorientierung strukturieren. Zukünftige Forschung soll die Beziehung zwischen persönlicher Bedeutung und affektiven psychologischen Konstrukten wie Motivation und Interesse untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-13761-8_7 f11978ec5b2df5fe6dcdcb2c675c56d2;de;;;6.2.;;;Cyclin D1- und D3-Expression in melanozytären Hautläsionen Cycline, cyclinabhängige Kinasen sowie mit ihnen kooperierende Proteine ​​sind für die Zellzyklusregulation verantwortlich, die für die normale Entwicklung, die Reparatur von Verletzungen und die Tumorentstehung entscheidend ist. Cycline vom D-Typ regulieren die Progression des G1-Zellzyklus, indem sie die Aktivitäten von Cyclin-abhängigen Kinasen verstärken, und ihre Expression wird in Tumoren häufig verändert. Störungen der Cyclin-Expression wurden auch bei melanozytären Hautläsionen berichtet. Ziel der Studie war es, die Expression von Cyclinen D1 und D3 in häufigen, dysplastischen und malignen melanozytären Hautläsionen zu bewerten. Achtundvierzig melanozytäre Hautläsionen, darunter gemeinsame Nävi (10), dysplastische Nävi (24) und Melanome (14), wurden dermatoskopieartig diagnostiziert und exzidiert. Die Expression von Cyclin D1 und D3 wurde durch Immunhistochemie nachgewiesen und als Prozentsatz der immungefärbten Zellkerne in jeder Probe quantifiziert. In normaler Haut wurde keine Expression der Cycline D1 und D3 nachgewiesen. Der durchschnittliche Prozentsatz von Cyclin D1-positiven Kernen betrug 7,75 % für Melanomproben, 5 % für dysplastische Näviproben und 0,34 % für gemeinsame Näviproben. Für Cyclin D3 betrugen die entsprechenden Werte 17,8, 6,4 und 1,8 %. Statistisch signifikante Unterschiede in der Cyclin D1-Expression wurden zwischen Melanomen und häufigen Nävi sowie zwischen dysplastischen und häufigen Nävi beobachtet (;-;-;-;https://link.springer.com/article/10.1007/s00403-010-1054-3 0e2a72f2e57b63ee3f4d35db28f692e7;de;;;6.2.;;;Studienprotokoll: eine klinische Studie zur Verbesserung des Screenings zur psychischen Gesundheit von schwangeren Frauen der Aborigines und Torres Strait Islander und Müttern von kleinen Kindern unter Verwendung der Kimberley Mum's Mood Scale Die Verbesserung der Raten und der verwendeten Instrumente beim Screening auf perinatale Depression und Angst bei Frauen der Aborigines und der Torres Strait Islander sind wichtige Prioritäten der öffentlichen Gesundheit. Die Kimberley Mum’s Mood Scale (KMMS) wurde entwickelt und später als wirksames und akzeptables Screening-Tool für perinatale Depressionen und Angstzustände für die Kimberley-Region unter Forschungsbedingungen validiert. Andere Regionen haben Interesse bekundet, das KMMS bei perinatalen Aborigines und Torres Strait Islander-Frauen einzusetzen. Es ist jedoch wichtig, das KMMS in einer größeren Kimberley-Stichprobe durch eine reale Implementierungsstudie neu zu bewerten und die Anwendbarkeit in anderen abgelegenen und regionalen Umgebungen zu testen, bevor Empfehlungen für eine breitere Verwendung abgegeben werden können. Dieses Papier skizziert das Protokoll zur Bewertung des Implementierungsprozesses und zur Feststellung der Gültigkeit und Akzeptanz des KMMS in Kimberley, Pilbara und Far North Queensland in Nordaustralien.;-;-;-;https://link.springer.com/article/10.1186/s12889-019-7845-3 720cb90bc39dd22c7e490c78b3c8a97f;de;;;6.2.;;;Verständnis des Könnens von Geigenspielern basierend auf Motion Capture: eine datengesteuerte Perspektive Das Erlernen des Spielens und Spielens eines Musikinstruments ist eine komplexe kognitive Aufgabe, die eine hohe bewusste Kontrolle und Koordination einer beeindruckenden Anzahl kognitiver und sensomotorischer Fähigkeiten erfordert. Für professionelle Geiger besteht eine physische Verbindung zum Instrument, die es dem Spieler ermöglicht, den Klang durch ausgeklügelte Bogentechniken und feine Handbewegungen kontinuierlich zu steuern. Daher ist es nicht verwunderlich, dass in der Geigenausbildung den Techniken der rechten Hand große Bedeutung beigemessen wird, die für den größten Teil des erzeugten Klangs verantwortlich sind. In diesem Beitrag ist unser Ziel zu verstehen, welche Bewegungsmerkmale verwendet werden können, um eine professionelle Leistung effizient und effektiv von der eines Schülers zu unterscheiden, ohne klangbasierte Merkmale auszunutzen. Wir haben einen Datensatz gesammelt und frei zugänglich gemacht, der aus Motion-Capture-Aufnahmen verschiedener Geiger mit unterschiedlichen Fähigkeiten besteht, die verschiedene Übungen zu verschiedenen pädagogischen und technischen Aspekten ausführen. Wir haben dann besondere Merkmale entwickelt und einen datengesteuerten Klassifikator trainiert, um zwischen zwei verschiedenen Erfahrungsstufen für Geiger zu unterscheiden, nämlich Anfänger und Experten. Entsprechend der im Datensatz vorhandenen Hierarchie untersuchen wir zwei verschiedene Szenarien: Extrapolation in Bezug auf verschiedene Übungen und Geiger. Darüber hinaus untersuchen wir, welche Merkmale die Qualität eines Geigers am ehesten vorhersagen, um die Bedeutung der Ergebnisse zu untermauern. Die Ergebnisse, sowohl in Bezug auf die Genauigkeit als auch auf die Einsicht in das kognitive Problem, unterstützen den Vorschlag und unterstützen die Verwendung der vorgeschlagenen Technik als Hilfsmittel für die Schüler, um ihr Heimstudium und ihre Praxis zu überwachen und zu verbessern.;-;-;-;https://link.springer.com/article/10.1007/s12559-020-09768-8 575ae3200a8e94bfd0fd0e590ec67426;de;;;6.2.;;;Bewertung der Wirkung und des Mechanismus der Wiederherstellung der motorischen Funktion der oberen Gliedmaßen durch immersive Virtual-Reality-basierte Rehabilitation bei Patienten mit subakutem Schlaganfall: Studienprotokoll für eine randomisierte kontrollierte Studie Es gibt überzeugende Beweise für die positiven Auswirkungen von nicht immersiven Virtual Reality (VR)-basierten Interventionen bei der Rehabilitation von Patienten mit Schlaganfall, bei denen Patienten sowohl die reale Welt als auch die virtuelle Umgebung erleben. Bis heute ist die Forschung zur immersiven VR-basierten Rehabilitation jedoch minimal. Diese Studie zielt darauf ab, eine randomisierte kontrollierte Studie zu entwerfen, um die Wirksamkeit der immersiven VR-basierten Rehabilitation der oberen Extremitäten bei Patienten mit subakutem Schlaganfall zu bewerten und die zugrunde liegenden Gehirnmechanismen der immersiven VR-basierten Rehabilitation zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s13063-019-3177-y 2920cccfb511d015863eb83bf06b4fea;de;;;6.2.;;;Altersstratifizierte klinische Leistung und Überlebensrate von Patienten mit IDH-Wildtyp-Glioblastom, die homogen durch Strahlentherapie mit gleichzeitiger und Erhaltungstherapie Temozolomid behandelt wurden Isocitrat-Dehydrogenase (IDH)-Wildtyp-Glioblastome sind die bösartigsten Gliatumoren. Die mediane Überlebenszeit beträgt nur 14–16 Monate nach der Diagnose, wobei Patienten im Alter von ≥ 65 Jahren Berichten zufolge ein schlechteres Outcome zeigen. Diese Studie zielte darauf ab, die prognostische Rolle des Alters in einer homogen behandelten Patientenkohorte weiter zu bewerten.;-;-;-;https://link.springer.com/article/10.1007/s00432-020-03334-3 29f44ffc18b362f73aaf8313eb7f284b;de;;;6.2.;;;Metaanalyse und Metamodellierung für diagnostische Probleme Ein proportionales Hazard-Maß wird im Zusammenhang mit der Analyse von SROC-Kurven vorgeschlagen, die in der Metaanalyse diagnostischer Studien entstehen. Die Maßnahme lässt sich als Sondermodell motivieren: das Lehmann-Modell für ROC-Kurven. Das Lehmann-Modell beinhaltet studienspezifische Sensitivitäten und Spezifitäten und einen diagnostischen Genauigkeitsparameter, der die beiden verbindet.;-;-;-;https://link.springer.com/article/10.1186/1471-2288-14-56 83f8f455bf1579ac9e09a24ea7f3b04e;de;;;6.2.;;;Geringe Inanspruchnahme von Malariatests innerhalb von 24 Stunden nach Fieber trotz angemessener Gesundheitsvorsorge bei Migranten in Myanmar: eine Studie mit gemischten Methoden Es gibt nur begrenzte Informationen über die Inanspruchnahme von Malariatests bei Migranten, die eine „Hochrisikogruppe“ für Malaria darstellen. Dies war eine erklärende Mixed-Methods-Studie. Die quantitative Komponente (eine querschnittsanalytische, landesweite Umfrage zu Malaria bei Migranten im Jahr 2016) bewertete das Wissen, die Suche nach Gesundheit und das Testen innerhalb von 24 Stunden nach Fieber und die damit verbundenen Faktoren. Die qualitative Komponente (deskriptives Design) untersuchte die Perspektiven von Migranten und Gesundheitsdienstleistern [einschließlich Village Health Volunteers (VHV)] auf die Barrieren und schlug Lösungen vor, um die Tests innerhalb von 24 Stunden zu erhöhen. Die quantitative Datenanalyse wurde für das dreistufige Stichprobendesign der Erhebung gewichtet. Die qualitative Datenanalyse umfasste eine manuelle deskriptive thematische Analyse.;-;-;-;https://link.springer.com/article/10.1186/s12936-018-2546-4 535f0afe414370a411552ffaf4e79bcb;de;;;6.2.;;;Methylphenidathydrochlorid mit modifizierter Freisetzung bei Erwachsenen mit Aufmerksamkeitsdefizit-Hyperaktivitätsstörung: Eine randomisierte, doppelblinde, placebokontrollierte Studie Die Behandlungsmöglichkeiten für Erwachsene mit Aufmerksamkeits-Defizit-Hyperaktivitäts-Störung (ADHS) sind begrenzt. Die Studie wurde durchgeführt, um die klinisch wirksame und sichere Dosis von Methylphenidathydrochlorid mit veränderter Wirkstofffreisetzung (MPH-LA) bei Erwachsenen mit ADHS zu bestätigen und die Aufrechterhaltung der Wirkung von MPH-LA zu bewerten.;-;-;-;https://link.springer.com/article/10.1007/s12325-013-0085-5 90a47ba1a94a26e3ccdbd7e350307187;de;;;6.2.;;;Veränderungen in der Gesundheit alleinerziehender Mütter: Eine Längsschnittanalyse Internationale Untersuchungen haben gezeigt, dass alleinerziehende Mütter eine sozial und wirtschaftlich benachteiligte Gruppe sind. Sie sind häufig einem höheren Armuts- und Arbeitslosigkeitsrisiko ausgesetzt. Interdisziplinäre Forschungen legen nahe, dass alleinerziehende Mütter häufiger an körperlichen und psychischen Erkrankungen leiden als Mütter mit Partnern. Das Ziel dieser Arbeit ist es, sich auf die gesundheitliche Zufriedenheit und das Wohlbefinden von alleinerziehenden Müttern während ihrer Lebensspanne zu konzentrieren. Die Analyse erfolgt anhand eines großen Datensatzes des Deutschen Sozioökonomischen Panels (SOEP). Die Stichprobe besteht aus Frauen, die zu irgendeinem Zeitpunkt im Panelzeitraum zwischen 1984 und 2011 alleinerziehend waren (N = 2006). Das SOEP stellt für den gesamten Erhebungszeitraum Maßnahmen zur Gesundheitszufriedenheit und zum Wohlbefinden bereit. Longitudinale Fixed-Effects (FE) lineare Regressionsmodelle werden verwendet, um Veränderungen in der Gesundheit von alleinerziehenden Müttern während des Übergangs zur alleinerziehenden Mutterschaft zu identifizieren. Die Ergebnisse zeigen, dass neben der Trennung auch der Übergang in die Alleinerziehende Mutterschaft und die Alleinerziehende-Episode signifikante negative Auswirkungen auf die gesundheitliche Zufriedenheit und das Wohlbefinden von Alleinerziehenden haben. Andere Faktoren wie die Dauer der Alleinerziehenden-Episode, das Leben in einer Beziehung (ohne mit dem Partner im selben Haushalt zu leben) oder die Anzahl minderjähriger Kinder haben gegenläufige Auswirkungen auf die gesundheitliche Zufriedenheit und das Wohlbefinden. Die Ergebnisse zeigen, dass sozioökonomische Umstände wie Einkommensänderungen und Erwerbsstatus das Wohlergehen alleinerziehender Mütter während des Übergangs zur alleinerziehenden Mutterschaft beeinflussen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-63295-7_15 d5393abd9cf76e16df1d382712743869;de;;;6.2.;;;Vollständig adaptive Clutter-Unterdrückung für luftgestütztes Mehrkanal-Phasen-Array-Radar mit einem einzigen A/D-Wandler Diese Studie betrachtet ein luftgestütztes Mehrkanal-Phasenarray-Radar, das aus einem analogen Phasenschieber auf jedem Kanal besteht, wobei der Summenkanal (Ausgang) mit einem einzigen A/D-Wandler digitalisiert wird. Im Allgemeinen sind für eine solche Konfiguration die Array-Gewichtungen für jede Sende-/Empfangsrichtung vorbestimmt und sind nicht an die Störechos angepasst. Um eine Anpassungsfähigkeit an die Umgebung zu erreichen, besteht die Konvention darin, das Array in mindestens zwei Untergruppen aufzuteilen und zwei Analog-Digital-Umsetzer zu implementieren. Eine einzige A/D-basierte Softwarelösung (numerisch stabil, robust) wird vorgeschlagen, um die vollständige Anpassung der Nebenkeulen an Störechos zu erreichen. Der vorgeschlagene Algorithmus vermeidet diese technischen Komplikationen, die mit der Implementierung mehrerer A/Ds für Radaranwendungen verbunden sind, während die gleiche gewünschte Leistung beibehalten wird. Da weltweit bereits eine große Anzahl von luftgestützten Radarplattformen existiert, können die Anwendungsmöglichkeiten dieses vorgeschlagenen vollständig adaptiven Upgrades als Softwarelösung enorm sein.;-;-;-;https://link.springer.com/article/10.1155/2010/209761 7de03a6ac93b387972b882cc0527a406;de;;;6.2.;;;Metabolomische Studie chilenischer Biomining-Bakterien In dieser Studie präsentieren wir die ersten metabolischen Profile für zwei bioleaching Bakterien mittels Kapillarelektrophorese gekoppelt mit Massenspektrometrie. Die Bakterien,;-;-;-;https://link.springer.com/article/10.1007/s11306-012-0443-3 947c1e6efbafbd37cc61aee690564b1e;de;;;6.2.;;;Privatsphäre in den Wolken Die informationelle Selbstbestimmung bezieht sich auf das Recht oder die Fähigkeit einer Person, die persönliche Kontrolle über die Erhebung, Verwendung und Weitergabe ihrer personenbezogenen Daten durch andere auszuüben. Als Grundlage moderner Datenschutzgesetze und -praktiken auf der ganzen Welt ist der informationelle Datenschutz zu einem anspruchsvollen Konzept geworden, das in einer Welt des allgegenwärtigen und unbegrenzten Datenaustauschs und -speichers zwischen Unternehmen geschützt und gefördert werden muss. Das Papier befürwortet einen „benutzerzentrierten“ Ansatz für die Online-Verwaltung personenbezogener Daten. Die Nutzerzentrierung kann jedoch problematisch sein, wenn der Nutzer – die betroffene Person – nicht direkt an Transaktionen beteiligt ist, die die Offenlegung, Erhebung, Verarbeitung und Speicherung seiner personenbezogenen Daten beinhalten. Identitätsdaten werden zunehmend vollständig in der vernetzten „Cloud“ generiert, genutzt und gespeichert, wo sie von Dritten kontrolliert werden. Das Papier untersucht mögliche Technologielösungen, um sicherzustellen, dass Einzelpersonen in einer Ära von Network Grid Computing, exponentieller Datenerzeugung, allgegenwärtiger Überwachung und grassierendem Online-Betrug informationelle Selbstbestimmung ausüben können. Das Papier beschreibt typische Nutzungsszenarien des „Web 2.0“, schlägt einige Technologiebausteine ​​zum Schutz und zur Förderung der informationellen Privatsphäre im Internet vor und schließt mit einem Aufruf zur Entwicklung eines datenschutzgerechten Informationstechnologie-Ökosystems für Identitätsmanagement. Im Einzelnen skizziert das Papier vier grundlegende technologische Ansätze, die dazu beitragen sollen, eine breite und dauerhafte Online-Beteiligung, Vertrauen und Vertrauen in die Informationsgesellschaft sicherzustellen.;-;-;-;https://link.springer.com/article/10.1007/s12394-008-0005-z d8825e1d13beef88158545fa12f82714;de;;;6.2.;;;Hinweise aus der Informationstheorie zur Analyse dynamischer und hochdimensionaler biologischer Daten Fortschritte in den biologischen Wissenschaften führten zu einer Datenflut, insbesondere in Bezug auf die Expression von Genen, Proteinen und Metaboliten. Die Frage der Rechenleistung, die für die Analyse solch riesiger Datensätze benötigt wird, ist viel weniger kritisch als die Aufgabe der Ergebnisinterpretation. Diese Arbeit befasst sich mit letzterem und schlägt einen weichen, datengetriebenen Ansatz vor, der auf einfachen informationstheoretischen Konzepten basiert und auf klassische mehrdimensionale statistische Methoden angewendet wird. Der vorgeschlagene Ansatz ermöglicht eine starke Interaktion zwischen den interpretativen und rechnerischen Aspekten des Problems, was die Interdisziplinarität fördert. Die Anwendung dieser Methoden auf Transkriptomdaten in Bezug auf Immunantwort und Zellentwicklung offenbart aufschlussreiche Regulierungen, nicht nur für die wichtigsten instruktiven lokalen Prozesse, sondern auch für das subtile, aber robuste Verhalten auf globaler Ebene. Darüber hinaus sind diese Techniken schnell anwendbar, da keine detaillierten a-priori-Kenntnisse des untersuchten biologischen Systems erforderlich sind, und vermeiden „voreingenommene“ Expressionsgrenzwerte, die normalerweise für traditionelle/reduktionistische Ansätze erforderlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-92967-5_16 821cdd788a386adaee6cfcca33f846f5;de;;;6.2.;;;Integrative Taxonomie löst Artenidentitäten innerhalb der Die Taxonomie vieler Gruppen der Meiofauna ist aufgrund ihrer geringen Anzahl diagnostischer morphologischer Merkmale und ihrer geringen Körpergröße eine Herausforderung. Daher wurden mit dem Aufkommen molekularer Techniken, die eine neue Quelle von Merkmalen bieten, viele kryptische Arten entdeckt. Bärtierchen sind keine Ausnahme, und viele, die einst als kosmopolitische Taxa galten, sind Komplexe phänotypisch ähnlicher Arten.;-;-;-;https://link.springer.com/article/10.1186/s40851-021-00176-w 5e8859554a0bc6300db7019484ba5d2b;de;;;6.2.;;;Eine gezielte Analyse identifiziert eine hohe Häufigkeit von BRCA1- und BRCA2-Mutationsträgern bei Frauen mit Eierstockkrebs aus einer Gründerpopulation Die Häufigkeit von BRCA1- und BRCA2-Mutationen bei Patientinnen mit Eierstockkrebs variiert je nach histologischem Subtyp und untersuchter Population. Die sechs am häufigsten wiederkehrenden BRCA1- und BRCA2-Mutationen, die zuvor in einer französisch-kanadischen Gründungspopulation identifiziert wurden, wurden in 439 histologisch definierten Fällen von Eierstock-, Eileiter- und primärem Peritonealkrebs untersucht, die in einem Krankenhaus für französische Kanadier festgestellt wurden. Um die Häufigkeit von BRCA1/BRCA2-Mutationen weiter zu beurteilen, wurde eine definierte Untergruppe von 116 Fällen für alle zuvor in dieser Population gemeldeten Mutationen untersucht.;-;-;-;https://link.springer.com/article/10.1186/s13048-015-0124-8 18a55e9c3aeff5ffdf5b885582ecc807;de;;;6.2.;;;Ein auf einem voreingestellten Schwellenwert basierender Cross-Tier-Handover-Algorithmus zur Minderung von Uplink-Gleichkanal-Interferenzen in zweistufigen Femtozellennetzwerken Dieses Papier betrachtet das Problem der Gleichkanalstörungsabschwächung und schlägt einen auf einem voreingestellten Schwellenwert basierenden Cross-Tier-Handover-Algorithmus für die Uplink-Gleichkanalstörungsabschwächung in zweistufigen Femtozellennetzwerken vor. Der vorgeschlagene Cross-Tier-Handover-Algorithmus führt eine voreingestellte Schwellenwert-Cross-Tier-Handover-Policy ein, die sowohl die Time-to-Stay (TTS) einer Macrocell User Equipment (MUE)/Femtocell User Equipment (FUE) in einer Femtozelle/ die Makrozelle und das empfangene Signal-zu-Interferenz-Plus-Rausch-Verhältnis (SINR) an einem Femtozellen-Zugangspunkt (FAP)/der Makrozellen-Basisstation (MBS) beim Treffen einer schichtübergreifenden Übergabeentscheidung für eine MUE/FUE. Eine schichtübergreifende Übergabeentscheidung wird durch Vergleichen der TTS einer MUE/FUE in einer Femtozelle/der Makrozelle und des SINR an einem FAP/der MBS mit einem voreingestellten TTS-Schwellenwert und unterschiedlichen SINR-Schwellenwerten getroffen. Das Ziel des auf voreingestellten Schwellenwerten basierenden schichtübergreifenden Übergabealgorithmus besteht darin, das empfangene SINR an den MBS/FAPs zu erhöhen und somit die Netzwerkleistung zu verbessern. Die Leistung des vorgeschlagenen Cross-Tier-Handover-Algorithmus mit der minimalen Leistungsübertragung bzw. der optimalen Leistungsübertragung wird analysiert. Numerische Ergebnisse zeigen, dass der vorgeschlagene, auf voreingestellten Schwellenwerten basierende schichtübergreifende Übergabealgorithmus die Netzwerkleistung in Bezug auf Ausfallwahrscheinlichkeit, Benutzersummenrate und Netzwerkkapazität erheblich verbessern kann.;-;-;-;https://link.springer.com/article/10.1007/s11276-015-1066-1 909e900e18a04faa5677cf8a527befd1;de;;;6.2.;;;Stärkung der Einhaltung der Überwachung und Unterstützung der antiretroviralen Therapie (ART): Operationsforschung zur Identifizierung von Barrieren und Vermittlern in Nepal Die antiretrovirale Therapie (ART) ist der Eckpfeiler für eine umfassende Reaktion des Gesundheitssektors auf die Behandlung, Pflege und Unterstützung des Humanen Immunschwächevirus (HIV). Gemäß den Richtlinien der Weltgesundheitsorganisation (WHO) ist eine Einhaltung von mindestens 95% erforderlich, um HIV unter Kontrolle zu halten. Diese Studie zielte darauf ab, das allgemeine Adhärenzniveau sowie Hindernisse und Erleichterungen für die Adhärenz von Patienten, die ART in verschiedenen Kliniken in allen fünf Entwicklungsregionen Nepals einnehmen, zu identifizieren.;-;-;-;https://link.springer.com/article/10.1186/s12913-015-0846-8 b4cb69f6568c4d2e7b99a91f67c94aee;de;;;6.2.;;;Eine Methodik zur Entscheidungsunterstützung für integrierte Bearbeitungsverfahren und Betriebspläne zur Bewertung der Nachhaltigkeit und Produktivität Dieses Papier stellt eine systematische Methodik vor, um eine Bewertung der Umweltverträglichkeit und der Produktivitätsleistung für integrierte Prozess- und Betriebspläne auf Maschinenzellenebene eines Fertigungssystems zu ermöglichen. Dieser Ansatz bestimmt optimale Prozess- und Betriebspläne aus einer Reihe möglicher Alternativen, die die Ziele und Randbedingungen erfüllen. Die Methodik bietet ein systematisches Verfahren, um Parameter hervorzuheben, die einen signifikanten Einfluss sowohl auf die Nachhaltigkeits- als auch auf die Produktivitätsleistungskennzahlen haben. Wir entwickelten Modelle und wendeten sie an, um Lebenszyklusszenarien für die Herstellung zu analysieren, um Schlüsselkonzepte für den Aufbau eines Materialinformationsmodells für Nachhaltigkeit zu sammeln und zu kategorisieren. Die Integration von Prozess- und Betriebsplänen ermöglicht eine globalisierte Bewertung von Nachhaltigkeit und Produktivität, während die Entwicklung einer multikriteriellen Entscheidungsmethode zu einer Optimierung der Prozessplanungsaktivitäten auf der Grundlage der Auswirkungen widersprüchlicher Nachhaltigkeits- und Produktivitätskennzahlen führt. Eine Fallstudie wird detailliert, um die auf Nachhaltigkeit ausgerichtete Methodik zu demonstrieren, bei der integrierte Simulations- und Optimierungstechniken verwendet werden, um die Analyse von Kandidatenszenarien und die Auswahl bevorzugter Alternativen aus einem endlichen Satz alternativer Prozess- und Betriebspläne zu unterstützen. Ein Simulationstool für diskrete Ereignisse wird verwendet, um die Entwicklung von Nachhaltigkeitskennzahlen (z. B. Energieverbrauch) und Produktivitätskennzahlen (z. B. Produktionszeit, Kosten) einer Produktionsstätte zu modellieren. Zu den Ergebnissen dieser Arbeit gehört die Bestimmung von optimierten Feature-Sequenzplänen, die verschiedene Key Performance Indicators in Abhängigkeit von Stakeholder-Interessen basierend auf Zeit, Nachhaltigkeit und Produktionskosten optimieren.;-;-;-;https://link.springer.com/article/10.1007/s00170-019-04268-y 04bfc879631f52efddc83373d07e58fa;de;;;6.2.;;;Hohe Abwanderung von Patienten mit mutmaßlicher MDR-TB vor der Diagnose: eine operative Studie aus dem Distrikt Bhopal, Indien Die Abwanderung vor der Diagnose muss dringend angegangen werden, wenn wir Fortschritte bei der Verbesserung der MDR-TB-Fallerkennung und einen universellen Zugang zur MDR-TB-Behandlung erzielen wollen. Wir berichten über die Abwanderung vor der Diagnose, zusammen mit den damit verbundenen Faktoren und den Bearbeitungszeiten im Zusammenhang mit dem Diagnosepfad bei Patienten mit mutmaßlicher MDR-TB im Distrikt Bhopal, Zentralindien (2014).;-;-;-;https://link.springer.com/article/10.1186/s12913-017-2191-6 6eba845e30f1be3f77d32b5cd8c19d47;de;;;6.2.;;;Studienprotokoll für die multizentrischen Kohorten der Zika-Virusinfektion bei Schwangeren, Säuglingen und akuten klinischen Fällen in Lateinamerika und der Karibik: das ZIKLalliance-Konsortium Das von der Europäischen Kommission (EC) Horizon 2020 (H2020) finanzierte ZIKLalliance-Konsortium hat eine multizentrische Studie mit Kohorten von Schwangeren (PW), Kindern (CH) und Naturgeschichte (NH) entworfen. Unter Berücksichtigung des dynamischen Verlaufs der ZIKV-Epidemie wurden klinische Standorte aus einem weiten geografischen Bereich innerhalb Lateinamerikas und der Karibik ausgewählt.;-;-;-;https://link.springer.com/article/10.1186/s12879-019-4685-9 59d0495c3c3349ff756c0544d061fb61;de;;;6.2.;;;Einfluss des Leberfibrose-Scores auf die Prognose nach gängigen Therapien des intrahepatischen Cholangiokarzinoms: eine Propensity Score Matching-Analyse Leberfibrose oder Leberzirrhose ist mit der düsteren Prognose des hepatozellulären Karzinoms (HCC) verbunden und könnte auch beim intrahepatischen Cholangiokarzinom (ICC) eine Rolle spielen. Der Einfluss der Leberfibrose auf das Überleben von ICC-Patienten ist noch unklar. Diese Studie zielt darauf ab, zu untersuchen, ob Leberfibrose das Gesamtüberleben (OS) und das krankheitsspezifische Überleben (DSS) von ICC-Patienten beeinflusst.;-;-;-;https://link.springer.com/article/10.1186/s12885-020-07051-5 09eba49ba9d2fc68cdaa23beff1679f2;de;;;6.2.;;;„Übervertrauen“ versus „Hilflosigkeit“: Eine qualitative Studie zur Abstinenz-Selbstwirksamkeit von Drogenkonsumenten in einer männlichen Zwangsdrogenhaftanstalt in China Die Zwangsverhaftung von Drogen ist die häufigste Methode zur Kontrolle des Drogenkonsums in China, wurde jedoch oft kritisiert. Ziel dieser qualitativen Studie war es, die Abstinenz-Selbstwirksamkeit und ihre Quellen von Drogenkonsumenten in einer Zwangshaftanstalt für männliche Drogen in Shanghai, China, sowie die Einstellung der Drogenkonsumenten zu dieser Form der Rehabilitation zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s13011-016-0073-2 8a8cf5db2e1a4f5ab120003e2cbe9519;de;;;6.2.;;;Verwirrende und fehlende Daten in der Wirtschaftlichkeitsanalyse: Vergleich verschiedener Methoden Gängige Ansätze in Kosten-Nutzen-Analysen berücksichtigen keine Störfaktoren. In nicht randomisierten Studien kann dies zu verzerrten Ergebnissen führen. Parametrische Modelle wie Regressionsmodelle werden häufig verwendet, um Verwechslungen auszugleichen, aber es gibt mehrere Probleme, die berücksichtigt werden müssen. Die Kostenverteilung ist oft schief und es kann einen erheblichen Anteil an Nullkosten-Beobachtungen geben, die mit einfachen linearen Modellen nicht gut zu handhaben sind. Zusammenhänge zwischen Kosten und Effektivität lassen sich meist nicht allein mit beobachteten Hintergrundinformationen erklären, was auch bei der parametrischen Modellierung besondere Aufmerksamkeit erfordert. Darüber hinaus sind fehlende Beobachtungen in Längsschnittdaten auch bei nichtparametrischen Methoden ein zunehmendes Problem, wenn kumulative Ergebnismaße verwendet werden.;-;-;-;https://link.springer.com/article/10.1186/2191-1991-3-8 282672a6a7fc15100ba9c34de449c25d;de;;;6.2.;;;Charakterisierung der Ernährungsunsicherheit in pastoralen und agropastoralen Gemeinschaften in Uganda anhand eines Index der Konsumbewältigungsstrategie Wir untersuchen den Nutzen eines Index der Konsumbewältigungsstrategie (CSI) bei der Charakterisierung und Bewertung der Faktoren, die die Ernährungsunsicherheit von Haushalten beeinflussen. Wir untersuchten 53 pastorale und 197 agropastorale Haushalte in den Distrikten Nakasongola und Nakaseke in Uganda und untersuchten die Anwendung von 27 Konsumbewältigungsstrategien über einen Rückrufzeitraum von zwei 30-Tage-Zeiträumen, einen zu Beginn einer Trockenzeit im Jahr 2012 und einen zu der Beginn einer Regenzeit im Jahr 2013.;-;-;-;https://link.springer.com/article/10.1186/s13570-015-0031-z 7f905cac740516a87c460e9988988718;de;;;6.2.;;;Automatische Erkennung von Cyber-Rekrutierung durch gewaltbereite Extremisten Die zunehmende Nutzung des Internets als wichtiges Kommunikationsmittel hat zur Bildung von Cyber-Gemeinschaften geführt, die aufgrund der unregulierten Natur der Internetkommunikation immer attraktiver für terroristische Gruppen geworden sind. Online-Communities ermöglichen es gewalttätigen Extremisten, die Rekrutierung zu erhöhen, indem sie persönliche Beziehungen zu einem weltweiten Publikum aufbauen, das Zugang zu unzensierten Inhalten hat. In diesem Artikel werden Methoden zur Identifizierung der Rekrutierungsaktivitäten gewalttätiger Gruppen auf extremistischen Social-Media-Websites vorgestellt. Insbesondere wenden diese Verfahren bekannte Techniken innerhalb des überwachten Lernens und der Verarbeitung natürlicher Sprache auf die ungetestete Aufgabe der automatischen Identifizierung von Forenbeiträgen an, die dazu bestimmt sind, neue gewalttätige extremistische Mitglieder zu rekrutieren. Wir haben Daten von der westlichen Dschihadisten-Website verwendet;-;-;-;https://link.springer.com/article/10.1186/s13388-014-0005-5 c927db0af1da82b369f069c1118b3b1d;de;;;6.2.;;;Datensicherungen und Cloud-Computing Datensicherungen und Cloud Computing können in einem Kontext als zwei separate Themen behandelt und in einem anderen Kontext als komplementär betrachtet werden. Datensicherungen sind seit der Einführung von Computern üblich. Cloud Computing hingegen ist ein relativ junges Phänomen. Die Cloud-Infrastruktur hilft mit effektiven Datensicherungen und kostengünstiger Disaster-Recovery-Option. Datensicherungen tragen dazu bei, die Wiederherstellung von Daten bei Datenverlust, Datenbeschädigung und Problemen mit der Datenintegrität sicherzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-6383-8_13 9bd67be1dbe0d626a8a1133e47367156;de;;;6.2.;;;PACSY, ein relationales Datenbankmanagementsystem für Proteinstruktur- und chemische Verschiebungsanalyse PACSY (Proteinstruktur- und chemische Verschiebungs-NMR-Spektroskopie) ist ein relationales Datenbankverwaltungssystem, das Informationen aus der Proteindatenbank, der Datenbank für biologische Magnetresonanz und der Datenbank zur strukturellen Klassifizierung von Proteinen integriert. PACSY liefert dreidimensionale Koordinaten und chemische Verschiebungen von Atomen zusammen mit abgeleiteten Informationen wie Torsionswinkeln, lösungsmittelzugänglichen Oberflächen und Hydrophobieskalen. PACSY besteht aus sechs relationalen Tabellentypen, die zur Kohärenz durch Schlüsselidentifikationsnummern miteinander verbunden sind. Datenbankabfragen werden durch erweiterte Suchfunktionen ermöglicht, die von einem RDBMS-Server wie MySQL oder PostgreSQL unterstützt werden. PACSY ermöglicht es Benutzern, zur Unterstützung ihrer Recherche nach Kombinationen von Informationen aus verschiedenen Datenbankquellen zu suchen. Zwei Softwarepakete, PACSY Maker zur Datenbankerstellung und PACSY Analyzer zur Datenbankanalyse, sind erhältlich bei;-;-;-;https://link.springer.com/article/10.1007/s10858-012-9660-3 b8350f13e0bb3ed746a5b2d231321c7c;de;;;6.2.;;;Auswirkungen eines gemeindebasierten Pakets zur Perinatal- und Neugeborenenprävention auf die perinatale und neonatale Mortalität in einem abgelegenen Berggebiet im Norden Pakistans Es gibt nur begrenzte Evidenz aus gemeindenahen Interventionen, um die Entwicklung wirksamer Praktiken und Dienste für die Mütter-, Perinatal- und Neugeborenenversorgung in Entwicklungsländern zu leiten. Wir bewerteten die Auswirkungen eines kostengünstigen Pakets von gemeindenahen Interventionen, das von Gesundheitspersonal (LHWs) des Regierungssektors und Community Health Workers (CHWs) einer NGO, nämlich Aga Khan Health Services, auf perinatale und neonatale Ergebnisse in einer Teilpopulation durchgeführt wurde des abgelegenen Bergbezirks Gilgit, Nordpakistan.;-;-;-;https://link.springer.com/article/10.1186/s12884-015-0538-8 d73c63e0b6b8afa51967b8a4345e1cf5;de;;;6.2.;;;Bewertung der Wirkung eines evidenzbasierten Online-Schulungstools für Patienten mit Multipler Sklerose namens UMIMS – Verständnis der Magnetresonanztomographie bei Multipler Sklerose: Studienprotokoll für eine doppelblinde, randomisierte kontrollierte Studie Während die Magnetresonanztomographie (MRT) im Leben von Menschen mit Multipler Sklerose (pwMS) eine große Rolle spielt, haben Studien gezeigt, dass das MRT-spezifische Wissen bei pwMS begrenzt ist. Darüber hinaus war schlechtes Wissen mit negativen Gefühlen gegenüber der MRT verbunden (z. B. Angst vor der MRT-Untersuchung). Da keine Informationsquellen über MRT bei MS für pwMS verfügbar sind, haben wir eine evidenzbasierte Online-Bildungsplattform zum Thema MRT bei MS namens „Understanding MRI in MS“ (UMIMS) entwickelt und evaluiert. Basierend auf einer Pilotstudie in;-;-;-;https://link.springer.com/article/10.1186/s13063-020-04855-5 4d6fc3055f3bfc808f8b41e46a260071;de;;;6.2.;;;Eine neuartige dynamische Bewegungsinitiative für ältere Menschen zur Verbesserung von Gesundheit und Wohlbefinden: Studienprotokoll für eine randomisierte kontrollierte Studie Bewegung ist ein wichtiger und wirksamer Ansatz zur Vorbeugung von Stürzen bei älteren Menschen, aber die Einhaltung der Sportbeteiligung bleibt ein anhaltendes Problem. Ein einzigartiger, speziell gebauter Übungspark wurde entworfen, um eine unterhaltsame, aber körperlich herausfordernde Umgebung zu bieten, um das Training in einer gemeinschaftlichen Umgebung zu unterstützen. Bei diesem Projekt handelt es sich um eine randomisierte kontrollierte Studie, die darauf abzielt, die Wirksamkeit einer Übungsintervention unter Verwendung eines speziell für ältere Menschen entwickelten Übungsparks zur Verringerung des Sturzrisikos zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s12877-015-0057-5 e0260c341c7049d2fb40bfb12a9fc818;de;;;6.2.;;;Eine schlechte glykämische Kontrolle ist mit einem erhöhten Risiko für neurologische Entwicklungsstörungen bei Typ-1-Diabetes im Kindesalter verbunden: eine bevölkerungsbezogene Kohortenstudie Das Ziel dieser Studie war es, den Einfluss von Typ-1-Diabetes im Kindesalter auf das Risiko für spätere neurologische Entwicklungsstörungen und die Rolle der glykämischen Kontrolle in diesem Zusammenhang zu untersuchen. Wir stellten die Hypothese auf, dass Personen mit schlechter glykämischer Kontrolle ein höheres Risiko für neurologische Entwicklungsstörungen haben könnten, verglichen mit der Allgemeinbevölkerung sowie im Vergleich zu Personen mit Typ-1-Diabetes mit ausreichender glykämischer Kontrolle.;-;-;-;https://link.springer.com/article/10.1007/s00125-020-05372-5 07fdb8f169f2ce149bb2e15b3b122377;de;;;6.2.;;;Erkundung: Übersicht In den vorangegangenen Kapiteln dieses Buches wurden ganz unterschiedliche Ansätze zur Bildung von Netzwerken auf der Grundlage bestehender Datensammlungen (Teil II) diskutiert und diverse Methoden zur Netzwerkanalyse vorgeschlagen (Teil III). All diese Methoden bieten leistungsfähige Mittel, um unterschiedliche Einblicke in die Eigenschaften riesiger Informationsnetze oder Graphen zu gewinnen. Ein Nachteil dieser einzelnen Ansätze besteht jedoch darin, dass jeder Ansatz dem Endbenutzer nur bestimmte Facetten von Informationen zur Verfügung stellt. Integrierte Explorationswerkzeuge, die die interaktive Exploration riesiger Grafiken und Datensammlungen mithilfe von Datenvisualisierungs-, Aggregations- und Mining-Methoden ermöglichen, könnten für die (interaktive) Aufgabe des Auffindens von Bisoziationen viel vorteilhafter sein. Daher präsentieren und diskutieren wir in diesem Teil des Buches Methoden zur interaktiven Erkundung, die diese Felder zusammenbringen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31830-6_19 872c30906eed2c2558e5351a5e398000;de;;;6.2.;;;Cardiovascular Health in Anxiety or Mood Problems Study (CHAMPS): Studienprotokoll für eine randomisierte kontrollierte Studie Frühere psychologische und pharmakologische Interventionen haben sich in erster Linie auf Depressionserkrankungen bei Bevölkerungen mit Herz-Kreislauf-Erkrankungen (CVDs) konzentriert, und die Wirksamkeit von Interventionen bei Angststörungen wird erst kürzlich untersucht. Transdiagnostische Interventionen behandeln häufige emotionale Prozesse und das gesamte Spektrum von Angst- und Depressionsstörungen, die häufig in Populationen mit Herz-Kreislauf-Erkrankungen beobachtet werden. Das Ziel von CHAMPS ist es, die Machbarkeit eines einheitlichen Protokolls (UP) für die transdiagnostische Behandlung von emotionalen Störungen bei Patienten zu bewerten, die kürzlich wegen Herz-Kreislauf-Erkrankungen ins Krankenhaus eingeliefert wurden. Die aktuelle Studie berichtet über das Protokoll einer randomisierten kontrollierten Machbarkeitsstudie, um zukünftige Studien zu informieren.;-;-;-;https://link.springer.com/article/10.1186/s13063-015-1109-z d0a46f1be434e4019d80f9305c6da990;de;;;6.2.;;;Definition von Behandlungszielen bei mittelschwerer bis schwerer Psoriasis: ein europäischer Konsens Patienten mit mittelschwerer bis schwerer Psoriasis werden unterbehandelt. Um dieses anhaltende Problem zu lösen, wurde das Konsensusprogramm durchgeführt, um Ziele für die systemische Therapie der Plaque-Psoriasis zu definieren und die Patientenversorgung zu verbessern. Es wurden ein Expertenkonsensustreffen und ein kollaboratives Delphi-Verfahren durchgeführt. Neunzehn Dermatologen aus verschiedenen europäischen Ländern trafen sich zu einem persönlichen Gespräch und legten in einem vierstufigen Delphi-Prozess Themen fest. Der Schweregrad der Plaque-Psoriasis wurde in eine leichte und eine mittelschwere bis schwere Erkrankung eingeteilt. Leichte Erkrankung wurde definiert als Körperoberfläche (BSA) ≤ 10 und Psoriasis Area and Severity Index (PASI) ≤ 10 und Dermatology Life Quality Index (DLQI) ≤ 10 und mittelschwere bis schwere Psoriasis als (BSA > 10 oder PASI > 10) und DLQI > 10. Besondere klinische Situationen können eine leichte Psoriasis in eine mittelschwere bis schwere Psoriasis verwandeln, einschließlich der Beteiligung sichtbarer Bereiche oder einer schweren Nagelbeteiligung. Für die systemische Therapie der Plaque-Psoriasis wurden zwei Behandlungsphasen definiert: (1) Induktionsphase als Behandlungszeitraum bis Woche 16, jedoch kann diese Phase je nach verwendetem Arzneimittel und Dosierungsschema bis Woche 24 verlängert werden und Die Erhaltungsphase für alle Medikamente wurde als die Behandlungsphase nach der Induktionsphase definiert. Zur Definition der Behandlungsziele bei Plaque-Psoriasis wurden die Veränderung des PASI vom Ausgangswert bis zum Zeitpunkt der Auswertung (ΔPASI) und der absolute DLQI herangezogen. Nach der Einleitung und während der Erhaltungstherapie kann die Behandlung fortgesetzt werden, wenn die PASI-Reduktion ≥ 75 % beträgt. Das Behandlungsschema sollte geändert werden, wenn die Verbesserung des PASI <50% beträgt. In einer Situation, in der sich das therapeutische Ansprechen gemäß PASI-Beurteilung um ≥ 50 % aber < 75 % verbesserte, sollte die Therapie modifiziert werden, wenn der DLQI > 5 ist, kann jedoch fortgesetzt werden, wenn der DLQI ≤ 5 beträgt. Dieses Programm definiert erstmals den Schweregrad der Plaque-Psoriasis anhand eines formalen Konsenses von 19 europäischen Experten. Darüber hinaus wurden Behandlungsziele für mittelschwere bis schwere Erkrankungen festgelegt. Die Umsetzung von Behandlungszielen in die tägliche Behandlung der Psoriasis wird die Patientenversorgung verbessern und das Problem der Unterbehandlung mildern. Es ist geplant, die Umsetzung dieser Behandlungsziele in einem Folgeprogramm mit Patienten und Ärzten zu evaluieren.;-;-;-;https://link.springer.com/article/10.1007/s00403-010-1080-1 edb52a34b261ccfb2794377debfe0f04;de;;;6.2.;;;Erstellung von Input-Output-Tabellen für Unternehmen – eine Fallstudie zu Milchprodukten aus Neuseeland Wir beschreiben eine effiziente Methode zur Schätzung von Input-Output-Tabellen von Unternehmen für Fälle, in denen nur Informationen über Grenzsummen verfügbar sind. Um die Produktionsstruktur von Unternehmen abzuschätzen, verwenden wir technisches Wissen, um einen qualitativen Prior zu konstruieren, der 1 enthält, wo immer ein Output einen Input erfordert, und ansonsten 0. Dieser qualitative Prior wird dann mit dem Gesamtumsatz des Unternehmens skaliert und anschließend mit der RAS-Methode abgeglichen, um die Rechnungslegungsvorschriften zu erfüllen. Wir demonstrieren die Nützlichkeit dieser Methode in einer Anwendung auf die Milchproduktherstellung in Neuseeland, wo wir die Input-Output-Tabellen für 22 Produktionsstandorte schätzen. Unsere Analyse wird in Masseneinheiten durchgeführt, und daher sind die Rechnungslegungsvorschriften Massenbilanzanforderungen.;-;-;-;https://link.springer.com/article/10.1186/2193-2409-1-6 5fd085e9fa17a2db8dc4a7b9b36548f2;de;;;6.2.;;;Psychometrische Eigenschaften und kontextuelle Angemessenheit der deutschen Version des Early Development Instruments Die Bewertung der frühen Entwicklung von Kindern auf Bevölkerungsebene in Bildungseinrichtungen kann für die öffentliche Gesundheit und die politische Entscheidungsfindung nützlich sein. In dieser Studie haben wir die psychometrischen Eigenschaften und die kontextuelle Angemessenheit einer deutschsprachigen Version des Early Development Instrument (EDI) evaluiert, einem ursprünglich in Kanada entwickelten umfragebasierten Instrument, das die entwicklungsbezogene Vulnerabilität von Kindern im Vorschulalter erfasst.;-;-;-;https://link.springer.com/article/10.1186/s12887-020-02191-w a74534d8f08c86f8126fd30a043b844c;de;;;6.2.;;;Model-Based Feature Information Network (MFIN): Ein Digital Twin Framework zur Integration von ortsspezifischem Materialverhalten in Komponentenkonstruktion, Fertigung und Leistungsanalyse Die digitale Transformation der Fertigung erfordert eine Digitalisierung, einschließlich eines automatischen und effizienten Datenaustauschs. Modellbasierte Definitionen (MBDs) erfassen digitale Produktdefinitionen, um den fehleranfälligen Informationsaustausch im Zusammenhang mit traditionellen papierbasierten Zeichnungen zu eliminieren und kontextbezogene Informationen durch zusätzliche Metadaten bereitzustellen. Der Fluss von MBDs erstreckt sich über den gesamten Produktlebenszyklus (einschließlich der Phasen Konstruktion, Analyse, Fertigung, Lebensdauer und Ausmusterung) und kann über die typischen Geometrie- und Toleranzinformationen innerhalb einer computergestützten Konstruktion hinaus erweitert werden. In diesem Papier werden die MBDs über dynamische Verknüpfungen um Materialinformationen erweitert. Zu diesem Zweck wird ein modellbasiertes Feature Information Network (MFIN) erstellt, um ein umfassendes Framework bereitzustellen, das das Speichern, Aktualisieren, Suchen und Abrufen relevanter Informationen über den gesamten Lebenszyklus eines Produkts hinweg erleichtert. Der Anwendungsfall einer schadenstoleranten Analyse für eine Verdichterschaufelscheibe (Bliske) wird in Ti-6Al-4V-Schaufel(n) mit linearer Reibung an die Ti-6Al-4V-Scheibe geschweißt, wodurch wohldefinierte Bereiche mit Kornverfeinerung erzeugt werden und hohe Restspannungen. Durch die Erfassung der ortsspezifischen Mikrostruktur- und Eigenspannungswerte an den Schweißbereichen werden diese Informationen innerhalb des MFIN abgerufen und für nachgelagerte schadenstolerante Analysen verwendet. Die Einführung des MFIN-Frameworks erleichtert den Zugriff auf sich dynamisch entwickelnde Daten zur Verwendung in physikbasierten Modellen (was zu der Möglichkeit führt, die Unsicherheit bei nachfolgenden Prognoseanalysen zu reduzieren) und ermöglicht so eine digitale Zwillingsbeschreibung der Komponente oder des Systems.;-;-;-;https://link.springer.com/article/10.1007/s40192-020-00190-4 64c8a9dd1d4286f9a0cec5ef142e6695;de;;;6.2.;;;Follow-up nach chirurgischer Behandlung bei Claudicatio intermittens (FASTIC): ein Studienprotokoll für eine multizentrische randomisierte kontrollierte klinische Studie Claudicatio intermittens (IC) ist ein klassisches Symptom der peripheren arteriellen Verschlusskrankheit und stark mit koronaren Herzkrankheiten und zerebrovaskulären Erkrankungen assoziiert. Die Behandlung von IC und die Sekundärprävention von vaskulären Ereignissen umfassen die beste medizinische Behandlung (BMT), eine Änderung des Lebensstils, vor allem die Raucherentwöhnung und mehr körperliche Bewegung sowie in geeigneten Fällen eine Operation. Ein personenzentrierter und gesundheitsfördernder Ansatz könnte es erleichtern, Barrieren für Veränderungen des Lebensstils zu überwinden und die Einhaltung der Sekundärpräventionstherapie zu erhöhen. Die FASTIC-Studie zielt darauf ab, ein von Pflegekräften geleitetes, personenzentriertes, gesundheitsförderndes Nachsorgeprogramm im Vergleich zu einer Standardnachsorge durch einen Gefäßchirurgen nach einer chirurgischen Behandlung von IC zu evaluieren.;-;-;-;https://link.springer.com/article/10.1186/s12912-020-00437-7 8d56a7bbe3d67deb9fca1724d0bbf57d;de;;;6.2.;;;Mögliche Vorteile einer frühzeitigen Stabilisierung von Wirbelsäulenfrakturen bei polytraumatisierten Patienten mit führendem Thoraxtrauma - Auswertung auf Basis des TraumaRegisters DGU® Ein schweres Trauma umfasst häufig Frakturen der thorakolumbalen Wirbelsäule, die oft von einem relevanten Thoraxtrauma begleitet werden. Schwerwiegende Komplikationen können auf ein erhebliches gleichzeitiges Trauma des Brustkorbs und eine gleichzeitige Ruhigstellung aufgrund von Wirbelsäuleninstabilität, Schmerzen oder neurologischer Dysfunktion zurückgeführt werden, die das Atmungssystem einzeln und zusammen beeinträchtigen. Daher schlugen wir vor, dass eine frühzeitige Stabilisierung von thorakolumbalen Wirbelsäulenfrakturen zu signifikanten Vorteilen in Bezug auf die Funktion der Atmungsorgane, Multiorganversagen und die Dauer des Intensiv-/Krankenhausaufenthalts führen wird.;-;-;-;https://link.springer.com/article/10.1186/s13049-020-00737-6 81db610360c7ed370653113d4904faa1;de;;;6.2.;;;Wartungsoptimierung für ein Mehrkomponentensystem mit Digital Twin Simulation Die Optimierung von Betrieb und Wartung (O&M) in der Industrie ist ein Thema, das in der Literatur weitgehend untersucht wurde. Viele Autoren konzentrierten sich auf zuverlässigkeitsbasierte Ansätze zur Optimierung von O&M, aber der Untersuchung des Einflusses makroökonomischer Variablen auf die langfristige Wartungspolitik wurde wenig Aufmerksamkeit geschenkt. Diese Arbeit zielt darauf ab, die zeitbasierte Instandhaltungspolitik (TBM) in der Bergbauindustrie zu optimieren. Die Minenumgebung wird mithilfe eines virtuellen Modells nachgebildet, das einem digitalen Zwilling (DT) des Systems ähnelt. Die Auswirkung von Instandhaltungsentscheidungen wird durch eine diskrete Ereignissimulation (DES) nachgebildet, während ein Modell der finanziellen Funktionsfähigkeit der Mine durch System Dynamics (SD) realisiert wird. Die gleichzeitige Verwendung von DES und SD ermöglicht es uns, die Umgebung mit hoher Genauigkeit zu reproduzieren und die Kosten für O&M zu minimieren. Das ausgewählte anschauliche Fallbeispiel zeigt, dass der vorgeschlagene Ansatz machbar ist. Die Probleme der Verwendung hochdimensionaler Simulationsdaten aus DT-Modellen bei der Entscheidungsfindung im Management werden identifiziert und diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s10845-021-01740-z 95e7e9d8fde9cb16cc58067cc7760aed;de;;;6.2.;;;Plasmonenvermittelter Resonanzenergietransfer durch metallische Nanostäbe Wir untersuchen die Erhöhung der Resonanzenergietransferrate zwischen Donor und Akzeptor durch die Oberflächenplasmonen der Ag-Nanostäbchen auf einem SiO;-;-;-;https://link.springer.com/article/10.1186/1556-276X-8-209 06fa86fe669b0543f94258640a91908c;de;;;6.2.;;;SOLiD-Sequenzierung von vier ist die häufigste Todesursache durch den Verzehr von Meeresfrüchten in den Vereinigten Staaten. Trotz jahrzehntelanger Forschung zur molekularen Pathogenese bleibt noch viel über die Virulenzmechanismen dieses opportunistischen bakteriellen Pathogens zu lernen. Die beiden vollständigen und annotierten genomischen DNA-Sequenzen von;-;-;-;https://link.springer.com/article/10.1186/1471-2164-11-512 56c9d6ac2aa86647719f343a395b0aa7;de;;;6.2.;;;DECIDER: prospektive randomisierte multizentrische Phase-II-Studie mit niedrig dosiertem Decitabin (DAC) allein oder in Kombination mit dem Histon-Deacetylase-Inhibitor Valproinsäure (VPA) und All- Die akute myeloische Leukämie (AML) ist überwiegend eine Erkrankung älterer Patienten mit einem schlechten Langzeitüberleben. Die Zulassung von Decitabin (DAC) in der Europäischen Union (EU) im Jahr 2012 zur Behandlung von Patienten mit AML ≥ 65 Jahren markiert das Potenzial für Hypomethylierungsmittel bei der älteren AML. Dennoch ist die Situation unbefriedigend und die Suche nach neuen Behandlungsansätzen, einschließlich der epigenetischen Kombinationstherapie, wird aktiv fortgesetzt. Die vorliegende randomisierte Studie sollte bei der Untersuchung der Frage hilfreich sein, ob Kombinationen von DAC mit dem Histondeacetylase (HDAC)-Inhibitor Valproinsäure (VPA) und/oder All-;-;-;-;https://link.springer.com/article/10.1186/s12885-015-1432-5 50b9a191e865cc8a8da9440ef4b63ed3;de;;;6.2.;;;Behandlungsbedingte Gesundheitskosten des metastasierten kastrationsresistenten Prostatakarzinoms in Deutschland: Eine Claims Data-Studie Behandlungen für Patienten mit metastasiertem kastrationsresistentem Prostatakrebs (mCRPC) haben sich schnell ausgeweitet. Dazu gehören die Chemotherapien Docetaxel und Cabazitaxel, die Hormonpräparate Abirateron und Enzalutamid sowie Best Supportive Care (BSC). Cabazitaxel hat sich als die letzte lebensverlängernde Option erwiesen, die mit einem erheblichen Risiko für schwerwiegende unerwünschte Ereignisse verbunden ist. Angesichts des Mangels an realen Beweisen wollten wir die Ressourcennutzung im Gesundheitswesen (HRU) und die Kosten bei Patienten mit mCRPC vergleichen, die mit Cabazitaxel, Docetaxel, Abirateron, Enzalutamid und BSC behandelt wurden.;-;-;-;https://link.springer.com/article/10.1007/s41669-020-00219-6 0ddf4d185a731d323a658dce0ae0a59e;de;;;6.2.;;;Ein ereignisbasiertes Verifikationsschema für das Echtzeit-Flare-Erkennungssystem am Observatorium Kanzelhöhe Im Rahmen des Space Situational Awareness Programms der European Space Agency (ESA/SSA) wurde am Observatorium Kanzelhöhe (KSO) ein automatisches Flare Detection System entwickelt. Das System ist seit Mitte 2013 in Betrieb. Der Ereigniserkennungsalgorithmus wurde im September 2017 aktualisiert. Alle Daten bis 2014 wurden mit dem neuen Algorithmus erneut verarbeitet. Um beide Algorithmen zu evaluieren, wenden wir Verifikationsmaßnahmen an, die üblicherweise für die Prognosevalidierung verwendet werden. Um das Problem seltener Ereignisse zu überwinden, das die Verifikationsmaßnahmen verzerrt, führen wir eine neue ereignisbasierte Methode ein. Wir teilen die Zeitleiste des H;-;-;-;https://link.springer.com/article/10.1007/s11207-018-1312-7 83245aed82075551d58f7066eefc54bf;de;;;6.2.;;;Krankheitskartierung von Krebs im Früh- und Spätstadium zur Überwachung von Ungleichheiten bei der Früherkennung: eine Studie zum malignen Melanom der Haut Wir betrachten die Kartierung von Krebserkrankungen im Früh- und Spätstadium, um Ungleichheiten bei der Früherkennung zu erkennen und zu überwachen. Unsere Methode wird durch Kartierung der Krebsinzidenz mit hoher geografischer Auflösung anhand von Daten zu 10.302 Fällen von kutanem malignem Melanom (CMM) innerhalb der 3,7 Millionen Einwohner Südwestschwedens demonstriert. Die Fälle wurden in kleine Gebiete mit jeweils einer Bevölkerungsgröße zwischen 600 und 2600 und zugänglichen soziodemografischen Daten geokodiert. Mit der Anwendung Rapid Inquiry Facility (RIF) 4.0 zur Krankheitskartierung haben wir regionale Karten erstellt, um räumliche Variationen in den Stadien I, II und III–IV von CMM-Inzidenzen zu visualisieren, ergänzt durch lokale Karten, um die Variationen in zwei städtischen Gebieten zu untersuchen. Ausgeprägte räumliche Unterschiede bei der Inzidenz von CMM im Stadium I wurden durch die regionalen und lokalen Karten aufgezeigt. Die Inzidenz von CMM im Stadium I war in wohlhabenderen kleinen Gebieten, insbesondere in jedem städtischen Gebiet, deutlich höher. In den wohlhabendsten Kleingebieten (oberes Quintil) wurde im Durchschnitt eine zweifach höhere Inzidenz der Stufe I beobachtet als in den ärmsten Kleingebieten (unteres Quintil). Wir identifizierten in der regionalen Karte von CMM der Stadien III–IV zwei Cluster mit höheren oder niedrigeren als erwarteten Inzidenzen im Spätstadium, die sich deutlich von denen für Stadium I unterschieden. Zusammenfassend unterstützte unsere Analyse der CMM-Inzidenzen den Einsatz dieser Methode von Kartierung der Krebsstadien, um geografische und soziodemografische Unterschiede bei der Krebserkennung aufzudecken.;-;-;-;https://link.springer.com/article/10.1007/s10654-020-00637-0 097051faa953285cb2b5d6566642bf64;de;;;6.2.;;;Methoden zur Verwaltung des nichtflüchtigen Hauptspeichers basierend auf einem Dateisystem Es gibt kommende nichtflüchtige (NV) Speichertechnologien, die Byte-Adressierbarkeit und hohe Leistung bieten. PCM, MRAM und STT-RAM sind solche Beispiele. Ein solcher NV-Speicher kann aufgrund seiner Datenbeständigkeit ohne Stromversorgung als Speicher verwendet werden, während er aufgrund seiner hohen Leistung, die dem DRAM entspricht, als Hauptspeicher verwendet werden kann. Es gibt eine Reihe von Untersuchungen, die seine Verwendung für Hauptspeicher und Speicher untersucht haben. Sie wurden jedoch unabhängig durchgeführt. In diesem Beitrag werden die Methoden vorgestellt, die die Integration des Hauptspeichers und der Dateisystemverwaltung für NV-Speicher ermöglichen. Durch eine solche Integration wird der NV-Speicher gleichzeitig sowohl als Hauptspeicher als auch als Speicher verwendet. Die vorgestellten Verfahren verwenden ein Dateisystem als Basis für die NV-Speicherverwaltung. Wir haben die vorgeschlagenen Methoden in den Linux-Kernel implementiert und die Evaluierung auf dem QEMU-Systememulator durchgeführt. Die Evaluierungsergebnisse zeigen, dass 1) die vorgeschlagenen Verfahren vergleichbar mit dem bestehenden DRAM-Speicherzuordner und deutlich besser als das Page Swapping sind, 2) ihre Leistung durch die internen Datenstrukturen eines Dateisystems beeinflusst wird und 3) die Datenstrukturen angemessen sind für herkömmliche Festplattenlaufwerke funktionieren nicht immer effektiv für byteadressierbaren NV-Speicher. Die Bewertung der Auswirkungen durch die längere Zugriffslatenz des NV-Speichers haben wir auch durch eine zyklusgenaue Gesamtsystemsimulation durchgeführt. Die Ergebnisse zeigen, dass die Auswirkung auf die Kosten für die Seitenzuordnung begrenzt ist, wenn die Latenzzeit moderat ansteigt.;-;-;-;https://link.springer.com/article/10.1186/2193-1801-3-494 cba1111cb51c24bea7a1e0d731f9aa08;de;;;6.2.;;;Das STIX-Aspektsystem (SAS): Das optische Aspektsystem des Spektrometers/Teleskops zur Abbildung von Röntgenstrahlen (STIX) auf dem Sonnenorbiter Das Spectrometer/Telescope for Imaging X-rays (STIX) ist ein Fernerkundungsinstrument auf dem Solar Orbiter, das die harte Röntgenbremsstrahlung von Sonneneruptionen beobachtet. Dieser Artikel beschreibt das STIX Aspect System (SAS), eine Untereinheit, die die Ausrichtung von STIX relativ zur Sonne mit einer Genauigkeit von . misst;-;-;-;https://link.springer.com/article/10.1007/s11207-020-01660-w 61c754f22b9107b3cca604f64e24b7d0;de;;;6.2.;;;Beiträge des Seegangs zur Variabilität des Meeresspiegels in den europäischen Meeren Der Beitrag von seegangsinduzierten Prozessen zur Variabilität des Meeresspiegels wird durch ozeanwellengekoppelte Simulationen untersucht. Diese Experimente werden mit einer hochauflösenden Konfiguration des Geestacht COAstal Model SysTem (GCOAST) durchgeführt, das im Nordostatlantik, der Nordsee und der Ostsee, die als verbundene Becken betrachtet werden, implementiert ist. Das GCOAST-System berücksichtigt Wellen-Ozean-Wechselwirkungen und die Ozeanzirkulation basiert auf dem NEMO (Nucleus for European Modeling of the Ocean) Ozeanmodell, während Ozeanwellensimulationen mit dem Spektralwellenmodell WAM durchgeführt werden. Ziel ist es, den Beitrag welleninduzierter Prozesse zum Meeresspiegel auf verschiedenen zeitlichen und räumlichen Variabilitätsskalen zu demonstrieren. Beim Vergleich des Ozeanwellen-gekoppelten Experiments mit In-situ-Daten konnte eine signifikante Reduzierung der Fehler (bis zu 40;-;-;-;https://link.springer.com/article/10.1007/s10236-020-01404-1 aa4954ac6c824fac6a49545cdfc5576d;de;;;6.2.;;;Von den neurobiologischen Grundlagen komorbider Alkoholabhängigkeit und Depression zu psychologischen Behandlungsstrategien: Studienprotokoll einer randomisierten kontrollierten Studie Alkoholmissbrauch und Depressionen treten häufig in der Gemeinschaft auf. Obwohl diese Komorbidität mit hoher Prävalenz mit schlechteren Nachbehandlungsergebnissen und einer stärkeren Inanspruchnahme kostspieliger Behandlungsangebote verbunden ist, schließen bestehende Behandlungsstudien Patienten mit komorbiden depressiven und alkoholischen Störungen häufig aus. Frühere Forschungen legen nahe, dass Symptome wie Verlangen und Anhedonie mit Veränderungen innerhalb des Belohnungskreislaufs verbunden sein könnten, während Defizite bei der Emotionsregulation mit Störungen innerhalb des Standardmodus-Netzwerks zusammenhängen. Das Ziel dieser klinischen Neuroimaging-Studie ist es, frühere Forschungen über den Belohnungskreislauf und das Standardmodus-Netzwerk zu übertragen, die Alkoholkonsumstörungen und Depressionen zugrunde liegen, um ein besseres Verständnis der neuronalen Signaturen zu erreichen, die ihre Komorbidität charakterisieren. Darüber hinaus soll anhand der neurobiologischen Ergebnisse getestet werden, ob zwei psychotherapeutische Interventionsprogramme, das Achtsamkeitstraining und das Verhaltensaktivierungstraining, die identifizierten Pathomechanismen positiv beeinflussen.;-;-;-;https://link.springer.com/article/10.1186/s12888-017-1324-0 b9ec812670a153d9b684589012c3111a;de;;;6.2.;;;Dynamisches Haltungsmodell für Gaia Das Dynamical Attitude Model (DAM) ist ein Simulationspaket, das entwickelt wurde, um ein detailliertes Verständnis der Fluglage der Gaia-Raumsonde zu erlangen. Es berücksichtigt externe physikalische Effekte und berücksichtigt interne Hardwarekomponenten, die den Satelliten steuern. Das Hauptziel der Gaia-Mission besteht darin, eine äußerst genaue Astrometrie zu erhalten, und dies erfordert eine gute Kenntnis des Verhaltens von Gaia als rotierender starrer Körper unter dem Einfluss verschiedener Störungen. Dieses Papier beschreibt diese Störungen und wie sie in DAM modelliert werden.;-;-;-;https://link.springer.com/article/10.1007/s10686-012-9310-5 41d83c0a02b4201ee33f42077c5d62cd;de;;;6.2.;;;Globale Systemwissenschaft und -politik Die Vision von Global Systems Science (GSS) besteht darin, wissenschaftliche Erkenntnisse und Mittel bereitzustellen, um in einen reflektierten Dialog einzutreten, um politische Entscheidungen und öffentliches Handeln zu unterstützen und die Zivilgesellschaft in die Lage zu versetzen, gesellschaftliche Maßnahmen als Reaktion auf globale Herausforderungen wie Klimawandel Urbanisierung oder soziale Inklusion. GSS hat vier Elemente: Politik und ihre Umsetzung, die Wissenschaft komplexer Systeme, Politikinformatik und Bürgerbeteiligung. Es soll politischen Entscheidungsträgern und Bürgern ein besseres Verständnis der möglichen Verhaltensweisen komplexer sozialer Systeme vermitteln. Die Politikinformatik hilft mit computergestützten Werkzeugen und der Fülle an heute verfügbaren Daten, Politikoptionen zu generieren und zu bewerten. Die Ergebnisse, die sie generieren, werden durch intuitive Benutzeroberflächen, Animationen, visuelle Analysen, Spiele, soziale Medien usw. für alle zugänglich gemacht – politische Entscheidungsträger, Bürger. Beispiele für globale Systeme sind Epidemien, Finanzen, Städte, das Internet, Handelssysteme und mehr. GSS befasst sich mit der Frage, ob politische Maßnahmen wünschenswerte Ergebnisse haben, nicht unbedingt optimale Ergebnisse. Die zugrunde liegende Idee von GSS ist nicht die genaue Vorhersage, sondern die Feststellung möglicher und wünschenswerter Zukünfte und ihrer Wahrscheinlichkeit. Die Lösung politischer Probleme ist ein Prozess, bei dem häufig die Anforderungen, Einschränkungen und Aktionslinien überprüft und modifiziert werden müssen, bis das Problem „befriedigt“ ist, d. h. ein akzeptabler Kompromiss zwischen konkurrierenden Zielen und Einschränkungen gefunden wurde. So entstehen politische Probleme und ihre Lösungen ähnlich wie in einem Designprozess. Bei politischen und gesellschaftlichen Maßnahmen geht es ebenso sehr um Versuche, objektive Fakten zu verstehen, als auch um die Narrative, die unser Handeln leiten. GSS versucht, diese scheinbar widersprüchlichen Arbeitsweisen in Einklang zu bringen. GSS bietet politischen Entscheidungsträgern und der Gesellschaft somit Orientierungshilfen für ihr Vorgehen, anstatt (illusorische) optimale Lösungen vorzuschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-42424-8_14 6384ac88c52c5c1c9d4cdfb3a6f266f2;de;;;6.2.;;;Interaktionsbasierte Erstellung und Pflege von durchgängig nutzbaren Trace-Links zwischen Anforderungen und Quellcode Trace-Links zwischen Anforderungen und Code sind für viele Software-Engineering-Aufgaben wie Wartung, Programmverständnis und Re-Engineering von Vorteil. Wenn Trace-Links während eines Projekts erstellt und kontinuierlich verwendet werden, müssen sie eine hohe Präzision und einen hohen Wiedererkennungswert aufweisen, um nützlich zu sein. Die manuelle Erstellung von Trace-Links ist jedoch umständlich und bestehende Methoden zur automatischen Trace-Link-Erstellung werden typischerweise nur rückwirkend und auf strukturierte Anforderungen angewendet. Daher konzentrieren sie sich auf den Rückruf und akzeptieren manuelle Anstrengungen, um mit geringer Präzision fertig zu werden. Ein solcher manueller Aufwand ist nicht dauerhaft akzeptabel. Darüber hinaus wird die Pflege bestehender Links zusammen mit sich ändernden Artefakten in einem Projekt in den meisten Ansätzen zur automatischen Erstellung von Trace-Links vernachlässigt. Daher haben wir einen auf Interaktionsprotokollen basierenden Ansatz zur Erstellung von Trace-Links entwickelt und evaluiert;-;-;-;https://link.springer.com/article/10.1007/s10664-020-09831-w ee8e886e044f7da73743ae4c33641c28;de;;;6.2.;;;Thorakotomie zur Notfallversorgung einer iatrogenen Trachealruptur: Single-Center-Analyse des perioperativen Managements und der Ergebnisse Iatrogene Trachealrupturen sind seltene, aber lebensbedrohliche Atemwegskomplikationen, die oft chirurgisch repariert werden müssen. Daten zu perioperativen Vitalfunktionen und Anästhesieregimes sind rar. Das Ziel dieser Studie war es, Komorbidität, perioperatives Management, Komplikationen und Ergebnisse von Patienten zu untersuchen, die sich einer Thorakotomie zur chirurgischen Reparatur unterziehen.;-;-;-;https://link.springer.com/article/10.1186/s12871-019-0869-5 7efe35f286ef18bcfc260c64ad9843fe;de;;;6.2.;;;Eine multimodale Virtual-Reality-Schnittstelle für die 3D-Interaktion mit VTK Das objektorientierte Visualisierungs-Toolkit (VTK) wird häufig für die wissenschaftliche Visualisierung verwendet. VTK ist eine Visualisierungsbibliothek, die eine Vielzahl von Funktionen zur Darstellung dreidimensionaler Daten bereitstellt. Die Interaktion mit den visualisierten Daten wird mit zweidimensionalen Eingabegeräten wie Maus und Tastatur gesteuert. Eine Unterstützung für echte dreidimensionale und multimodale Eingaben ist nicht vorhanden. Dieses Papier beschreibt VR-VTK: eine multimodale Schnittstelle zu VTK in einer virtuellen Umgebung. Für die räumliche 3D-Interaktion werden Eingabegeräte mit sechs Freiheitsgraden verwendet. Sie steuern die 3D-Widgets, die zur Interaktion mit den visualisierten Daten verwendet werden. Headtracking wird zur Kamerasteuerung verwendet. Zum Kuppeln werden Pedale verwendet. Die Spracheingabe wird für Anwendungsbefehle und Systemsteuerung verwendet. Um verschiedene Probleme anzugehen, die für die räumliche 3D-Interaktion spezifisch sind, werden eine Reihe zusätzlicher Funktionen, wie komplexere Interaktionsmethoden und eine verbesserte Tiefenwahrnehmung, diskutiert. Darüber hinaus wird die Notwendigkeit multimodaler Eingaben zur Unterstützung der Interaktion mit der Visualisierung aufgezeigt. Zwei bestehende VTK-Anwendungen werden mit VR-VTK portiert, um in einem Desktop-Virtual-Reality-System ausgeführt zu werden. Informelle Benutzererfahrungen werden präsentiert.;-;-;-;https://link.springer.com/article/10.1007/s10115-007-0066-6 afad0246fb6986ed617bb95dc38a7ad8;de;;;6.2.;;;Okuläre Verträglichkeit und Wirksamkeit von intravitrealen und subkonjunktivalen Injektionen von Sirolimus bei Patienten mit nicht-infektiöser Uveitis: primäre 6-Monats-Ergebnisse der SAVE-Studie Der Zweck dieser Studie besteht darin, die okuläre Verträglichkeit und Wirksamkeit von Sirolimus zu untersuchen, der als subkonjunktivale oder intravitreale Injektion bei Patienten mit nicht infektiöser Uveitis verabreicht wird. Sirolimus als therapeutischer Ansatz für Uveitis (SAVE) ist eine prospektive, randomisierte, offene, interventionelle Studie. Dreißig Patienten wurden eingeschlossen und im Verhältnis 1:1 randomisiert, um entweder intravitreale Injektionen von 352 µg Sirolimus oder subkonjunktivale Injektionen von 1.320 µg an den Tagen 0, 60 und 120 zu erhalten, mit primärem Endpunkt in Monat 6.;-;-;-;https://link.springer.com/article/10.1186/1869-5760-3-32 0712940a520e0e8a8ecdc2883b40813b;de;;;6.2.;;;In-vivo-Analyse der Bruchzähigkeit von Schilddrüsentumoren Menschliche solide Tumoren, die bei physischer Palpation hart oder fest sind, sind wahrscheinlich krebsartig, eine klinische Maxime, die erfolgreich bei Krebsvorsorgeprogrammen wie der Selbstuntersuchung der Brust angewendet wurde. Die biologische Relevanz oder prognostische Bedeutung der Tumorhärte ist jedoch noch wenig verstanden. Hier präsentieren wir eine Bruchmechanik basierend;-;-;-;https://link.springer.com/article/10.1186/1754-1611-2-12 f59c0f2c33534a2210d3e67591d421e8;de;;;6.2.;;;Analyse der assoziierten Faktoren unkontrollierter Hypertonie bei älteren Hypertonikern in Südchina: eine gemeindebasierte Querschnittsstudie Die Prävalenz von Bluthochdruck in China ist in den letzten Jahrzehnten dramatisch angestiegen, aber es ist nicht gut verstanden, ob der Bluthochdruck bei der älteren Bevölkerung in Südchina angemessen kontrolliert wird. Eine provinzielle Erhebung wurde durchgeführt, um die Prävalenz der Hypertoniekontrolle und die damit verbundenen Faktoren in der älteren Bevölkerung abzuschätzen.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-14-903 6b7044e56716d6277a7da9031fe1d371;de;;;6.2.;;;Auswirkungen verbesserter Information und freiwilliger Unterstützung auf die Trennung von festem Abfall auf Haushaltsebene in städtischen Umgebungen in Madhya Pradesh, Indien (I-MISS): Protokoll einer randomisierten kontrollierten Cluster-Studie Die Trennung von Hausmüll an der Quelle ist eine wirksame und nachhaltige Strategie für die Entsorgung von Siedlungsabfällen. Die Segregation der Haushalte ist jedoch nach wie vor unzureichend, da die Abfallbewirtschaftungsansätze meist von oben nach unten erfolgen und es an lokaler Unterstützung mangelt. Die Verwirklichung und Anerkennung einer wirksamen, verbesserten und angemessenen Abfallbewirtschaftung kann einer der entscheidenden Antriebe für die Erreichung des Umweltschutzes und der Verbesserung von Gesundheit und Wohlbefinden sein. Das Vorhandensein eines Motivators auf lokaler Ebene kann die Trennung von Haushaltsabfällen und letztendlich ein umweltfreundliches Verhalten fördern. Die vorliegende randomisierte Cluster-Kontrollstudie zielt darauf ab, zu verstehen, ob freiwillige Informationen zur Abfalltrennung (I-MISS) im Vergleich zu bestehenden routinemäßigen Abfalltrennungsinformationen in einem städtischen indischen Umfeld verstärkte Abfalltrennungspraktiken auf Haushaltsebene fördern können.;-;-;-;https://link.springer.com/article/10.1186/s12889-021-10693-0 839e4ed309df5797620a447c15cdfbf1;de;;;6.2.;;;Wissen über Malaria und Präventionspraktiken in vier Stadtteilen in und um Mumbai, Indien: eine Querschnittsstudie Indien ist für die meisten Malariafälle außerhalb Afrikas verantwortlich. Achtzig Prozent der indischen Bevölkerung leben in Malaria-Risikogebieten, wobei die Fälle in städtischen Gebieten zunehmen. Mumbai, Indien, eine der bevölkerungsreichsten Städte der Welt, hat einen solchen Anstieg erlebt. Um erfolgreich zu sein, erfordern viele Bemühungen zur Bekämpfung der Malaria die Beteiligung der Gemeinschaft, die wiederum vom Wissen und dem Bewusstsein des Einzelnen über die Krankheit abhängt. Diese Studie bewertete das Wissen und die Präventionspraktiken in Bezug auf Malaria bei Einwohnern von vier verschiedenen Gebieten von Mumbai, Indien, um die Zeit eines Malaria-Ausbruchs und den Beginn einer weit verbreiteten Sensibilisierungskampagne.;-;-;-;https://link.springer.com/article/10.1186/1475-2875-13-303 0dde52d9a68a559e0fe953462dacaf2e;de;;;6.2.;;;Forstbuchhalterische Datennetze als Mittel zur Untersuchung der kleinteiligen Forstwirtschaft: Eine europäische Perspektive Per Die Untersuchung der Sozioökonomie der kleinbäuerlichen Forstwirtschaft ist ein wichtiges Thema, da kleine Waldbetriebe einen erheblichen Anteil am europäischen Forstsektor ausmachen. Private Forstbetriebe mit weniger als 200 ha repräsentieren 34,6% der Waldfläche in Deutschland und 50,4% in Österreich. Die große Zahl kleiner Einheiten stellt die empirische Forschung vor besondere Herausforderungen. Dieses Papier identifiziert die damit verbundenen Probleme und zeigt das Potenzial sowie die aktuellen Grenzen von buchhalterischen Datennetzen bei der Überwachung der Wirtschaftlichkeit der landwirtschaftlichen Forstwirtschaft in Deutschland und Österreich auf. Obwohl wenig Hoffnung auf die Etablierung eines international harmonisierten oder gar europaweiten Monitorings besteht, besteht Potenzial zur Verbesserung der internationalen Vergleichbarkeit bestehender Erfassungssysteme und Datenanalysen. Nationale oder subnationale Initiativen sollten so gestaltet werden, dass die Kompatibilität mit anderen Netzwerkaktivitäten das Analysepotenzial erhöht. Einige der drängendsten Forschungsfragen zur kleinbäuerlichen Forstwirtschaft sind auch auf internationaler Ebene bedeutsam und bedürfen eindeutig einer Abstimmung. Etablierte Forstbuchhaltungsdatennetze sollten als eine Art von Forschungsinfrastruktur betrachtet werden, die zur Harmonisierung von Untersuchungen genutzt werden kann.;-;-;-;https://link.springer.com/article/10.1007/s11842-017-9371-4 92e7171cde250c47ec3889f777533453;de;;;6.2.;;;Frakturrisiko bei Thiazolidindione: Krankheit oder Medikamente? Die Anwendung von Thiazolidindione (TZDs) wurde mit einem erhöhten Frakturrisiko in Verbindung gebracht. Darüber hinaus wurde Diabetes mellitus Typ 2 (T2DM) mit Frakturen in Verbindung gebracht. Wir haben untersucht, inwieweit der Zusammenhang zwischen der Anwendung von TZD und dem Frakturrisiko mit dem Medikament oder der Grunderkrankung zusammenhängt. Wir führten eine bevölkerungsbezogene Kohortenstudie mit den dänischen Gesundheitsregistern (1996–2007) durch, die Apothekendaten mit dem nationalen Krankenhausregister verknüpfen. Benutzer oraler Antidiabetika (;-;-;-;https://link.springer.com/article/10.1007/s00223-012-9591-8 271f69c59dbbe0234b89896ea37eeec5;de;;;6.2.;;;Geburtsfisteln im Süden Mosambiks: eine qualitative Studie zu den Erfahrungen von Frauen in der Betreuung von Schwangerschaft, Geburt und Wochenbett Geburtsfisteln sind in Ländern mit niedrigem und mittlerem Einkommen (LMIC) immer noch üblich, trotz der anhaltenden Umstellung auf mehr Geburten in Einrichtungen in den gleichen Einstellungen. Die sozialen Verhaltensumstände, unter denen Fisteln noch immer auftreten, sowie deren Folgen sind, insbesondere aus der Perspektive der Erfahrungen von Frauen mit Geburtsfisteln, schlecht dokumentiert. Ziel dieser Studie war es, die Erfahrungen von Frauen mit Schwangerschafts-, Geburts- und Wochenbettbetreuung im Süden Mosambiks zu beschreiben und diejenigen Erfahrungen herauszuarbeiten, die nur Frauen mit Fisteln eigen sind, um die Umstände der Pflege und Betreuung zu verstehen, die geändert worden sein könnten den Beginn oder die Folgen einer Fistel vermeiden oder mildern.;-;-;-;https://link.springer.com/article/10.1186/s12978-020-0860-0 1d8434e6b0c458706c44af24306b8eb9;de;;;6.2.;;;Geografische Verzerrung im Zusammenhang mit der Geokodierung in epidemiologischen Studien Dieser Artikel beschreibt geografische Verzerrungen in GIS-Analysen mit nicht repräsentativen Daten aufgrund fehlender Geocodes am Beispiel einer räumlichen Analyse der Prostatakrebsinzidenz bei Weißen und Afroamerikanern in Virginia, 1990–1999. Statistische Tests zur Clusterbildung wurden durchgeführt und solche Cluster kartiert. Die Muster der fehlenden Identifikatoren des Zählbezirks für die Fälle wurden durch generalisierte lineare Regressionsmodelle untersucht.;-;-;-;https://link.springer.com/article/10.1186/1476-072X-4-29 ec2efa9db42ad1c7a7c9004e9c69d394;de;;;6.2.;;;Hier draußen ist es anders Das Aufkommen des Internets der Dinge (IoT) zerstört jeden Präzedenzfall und jede vorgefasste Meinung von Netzwerkarchitektur. Bis heute wurden Netzwerke von Ingenieuren erfunden, die sich mit Protokollen und Routing-Theorie auskennen. Aber die Architektur des Internets der Dinge wird sich viel mehr auf Lehren aus der Natur verlassen als auf traditionelle (und meiner Meinung nach erstarrte) Netzwerkschemata. In diesem Kapitel werden die Gründe betrachtet, warum die Architektur für das Internet der Dinge eine grundlegend andere Architektur als das traditionelle Internet enthalten muss, die technischen und wirtschaftlichen Grundlagen dieser neuen Architektur untersucht und schließlich eine Lösung des Problems skizziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-5741-7_1 32faec8b2a7786a9d215c165827332ee;de;;;6.2.;;;Chronische Alkoholexposition, Infektionen, ausgedehnte zirkulierende weiße Blutkörperchen, differenziert durch Durchflusszytometrie und neutrophile CD64-Expression: eine prospektive, deskriptive Studie an schwerkranken medizinischen Patienten Ein längerer und übermäßiger Alkoholkonsum in der Vorgeschichte erhöht das Infektionsrisiko. Das Ziel dieser Studie war es, zirkulierende weiße Blutkörperchen (WBC) zu untersuchen, die durch Durchflusszytometrie und neutrophile CD64-Expression bei übermäßigen Alkoholtrinkern gegenüber abstinenten oder mäßigen Trinkern und bei Patienten mit oder ohne Infektion bei medizinischen Patienten, die auf der Intensivstation aufgenommen wurden, differenziert wurden (Intensivstation).;-;-;-;https://link.springer.com/article/10.1186/2110-5820-2-50 0f2c7a2574f9da7f9162662fda72cacc;de;;;6.2.;;;Urbanisierung und Gesundheit in China, Denken auf nationaler, lokaler und individueller Ebene China hat die größte Bevölkerung der Welt und erlebt die größte Migration in der Geschichte, und seine schnelle Urbanisierung hat tiefgreifende und dauerhafte Auswirkungen auf die lokale und nationale öffentliche Gesundheit. Unter diesen Bedingungen ist ein Systemverständnis über den Zusammenhang zwischen Urbanisierung, Umweltveränderungen und öffentlicher Gesundheit und die Entwicklung von Lösungen auf nationaler, lokaler und individueller Ebene dringend erforderlich.;-;-;-;https://link.springer.com/article/10.1186/s12940-016-0104-5 8a93adff79354510a7fe208f1da4cb41;de;;;6.2.;;;Umsetzung des schwedischen Angesichts der heutigen hohen Prävalenz häufiger psychischer Störungen und der damit verbundenen Krankheitsausfälle bei Lehrkräften besteht ein dringender Bedarf an einem systematischeren Ansatz für den Umgang mit sozialen und organisatorischen Risikofaktoren in Schulen. 2015 haben wir die erste schwedische Arbeitsschutzrichtlinie eingeführt, um eine strukturierte Prävention dieser Risiken am Arbeitsplatz zu unterstützen. Die Existenz von Leitlinien garantiert jedoch nicht deren Anwendung, da Studien zeigen, dass Leitlinien häufig zu wenig genutzt werden. Daher sind Kenntnisse über wirksame Umsetzungsstrategien erforderlich, die die Umsetzung von Leitlinien in die Praxis erleichtern können. Das primäre Ziel der in diesem Studienprotokoll beschriebenen randomisierten, wartelistenkontrollierten Studie ist der Vergleich der Wirksamkeit einer vielseitigen Implementierungsstrategie mit einer einzelnen Implementierungsstrategie zur Implementierung der;-;-;-;https://link.springer.com/article/10.1186/s12889-019-7976-6 02f28e5192ccd92cfb13c7c54a317877;de;;;6.2.;;;Inzidenz und Prognose der intraabdominalen Hypertonie bei kritisch kranken medizinischen Patienten: eine prospektive epidemiologische Studie Das Ziel dieser Studie war es, die Inzidenz von intraabdominaler Hypertonie (IAH) bei Patienten mit zwei oder mehr kategorisierten Risikofaktoren (CRF) für IAH sowie deren Morbidität und Mortalität während ihres Aufenthalts auf der Intensivstation (ICU) zu bestimmen.;-;-;-;https://link.springer.com/article/10.1186/2110-5820-2-S1-S3 580330202f0feee29a334ddcd288cafc;de;;;6.2.;;;Einführung in das Sonderheft zur französisch-polnischen Zusammenarbeit bei mathematischen Modellen von Computersystemen, Netzwerken und Bioinformatik Anlässlich der Feierlichkeiten zum 100. Jahrestag der offiziellen französisch-polnischen wissenschaftlichen Zusammenarbeit im Jahr 2019 untersucht dieser Beitrag die Ursprünge und Ergebnisse einer wissenschaftlichen Zusammenarbeit, die wir in den 1980er Jahren zusammen mit dem verstorbenen Professor Stefan Wȩgrzyn von der Polytechnischen Universität Schlesien ins Leben gerufen haben in Gliwice, Polen, Gründungsdirektor des Instituts für Theoretische und Angewandte Informatik der Polnischen Akademie der Wissenschaften und Fellow der Polnischen Akademie der Wissenschaften. Wir beleuchten die Themen dieser langjährigen Zusammenarbeit, skizzieren die geleistete Arbeit und die Gründe, warum diese Themen im Mittelpunkt stehen. Wir skizzieren die wichtigsten wissenschaftlichen Ergebnisse und diskutieren die aktuellen Arbeiten und Projekte, die sich auf diese beispielhafte französisch-polnische Zusammenarbeit beziehen. Abschließend stellen wir die Beiträge dieser Sonderausgabe im Lichte dieser fortlaufenden Themen vor.;-;-;-;https://link.springer.com/article/10.1007/s42979-019-0044-6 1ce7baaf03f711f123722c584976f4e6;de;;;6.2.;;;Operatoren zur Verarbeitung von Befehlssequenzen In der Praxis ist die Instruktionsfolge ein Schlüsselbegriff, der in theoretischen Kreisen jedoch noch nicht in den Vordergrund gerückt ist. Dieses Papier befasst sich mit Befehlssequenzen, den von ihnen bei der Ausführung erzeugten Verhaltensweisen, der Interaktion zwischen diesen Verhaltensweisen und Komponenten der Ausführungsumgebung und zwei Fragen im Zusammenhang mit der Berechenbarkeitstheorie. Indem wir Turings Ergebnis bezüglich der Unentscheidbarkeit des Halteproblems aufgrund von Programmen statt Maschinen positionieren und Befehlsfolgen als Programme nehmen, analysieren wir die Autosolvabilitätsanforderung, dass ein Programm einer bestimmten Art das Halteproblem für alle Programme dieser Art lösen muss. Wir präsentieren neue Ergebnisse zu dieser Anforderung der Autosolvabilität. Die Analyse wird durch den Begriff einer funktionalen Einheit rationalisiert, die ein abstraktes zustandsbasiertes Modell einer Maschine ist. In dem Fall, in dem das Verhalten einer Komponente einer Ausführungsumgebung als das Verhalten einer Maschine in ihren verschiedenen Zuständen angesehen werden kann, werden die betreffenden Verhaltensweisen vollständig von einer Funktionseinheit bestimmt. Bei der oben erwähnten Analyse handelt es sich um Funktionseinheiten, deren mögliche Zustände die möglichen Inhalte der Bänder von Turing-Maschinen mit einem bestimmten Bandalphabet darstellen. Wir untersuchen auch funktionale Einheiten, deren mögliche Zustände die natürlichen Zahlen sind. Diese Untersuchung liefert ein neues Ergebnis der Berechenbarkeit, d.h. die Existenz einer universellen berechenbaren Funktionseinheit für natürliche Zahlen.;-;-;-;https://link.springer.com/article/10.1007/s00236-012-0154-2 ad09de4e5ead0eddc330697896933d49;de;;;6.2.;;;Innovatives OER-Modell für technologiegestütztes akademisches und unternehmerisches Lernen In der heutigen globalisierten, vernetzten und sich schnell verändernden Umgebung wurde Wissen zu einem unschätzbaren Wert für alle – Studenten, Arbeitnehmer und Organisationen. Lebenslanges Lernen wurde entscheidend für die Zukunft unserer Gesellschaft. Um ein effektiveres und kollaborativeres Lernen und den Wissensaustausch zu fördern, ist es notwendig, moderne Informationstechnologien und -dienste zu nutzen. Bei richtiger Anwendung kann Informationstechnologie den Bildungsprozess verändern und anregen, das Lernen überall und jederzeit anregen, kreatives Denken fördern und vorhandene individuelle und organisatorische Ressourcen besser nutzen. Obwohl moderne Webtechnologien und Open Educational Resources (OER) ein großes Potenzial haben, neue Möglichkeiten für das Lernen und den Wissensaustausch zu eröffnen, ist die Entwicklung erfolgreicher OER-Systeme gleichzeitig eine große Herausforderung. Die Gestaltung einer innovativen und offenen Lernsoftwareumgebung erfordert einen ganzheitlichen Ansatz, der eine spezifische Methodik, Softwarearchitektur und verschiedene Dienste, Anwendungen und Werkzeuge umfasst. Der Grundgedanke dieses Kapitels besteht darin, das innovative offene Bildungsmodell und das unterstützende Softwaresystem vorzustellen, das in der Lage ist, die großen Herausforderungen der modernen Bildung zu beantworten. Das vorgeschlagene OER-Modell und die Softwareplattform ermöglichen die Schaffung eines agilen und anpassungsfähigen Bildungsökosystems, das die Lernerfahrung transformieren und Einzelpersonen, Bildungseinrichtungen und Unternehmen verbinden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-52925-6_17 d0450975c91ad2f4806b07b8c838fe6f;de;;;6.2.;;;Rechnerische Komplexitätsanalyse der FEC-Decodierung auf SDR-Plattformen Die Berechnung der Berechnungskomplexität ist für softwaredefinierte Forward Error Correction (FEC)-Decoder erforderlich. Derzeit gibt es jedoch nur eine begrenzte Anzahl von Literatur zur FEC-Komplexitätsbewertung mit analytischen Methoden. In diesem Beitrag werden drei hocheffiziente Codierungsschemata einschließlich Turbo, QC-LDPC und Faltungscode (CC) untersucht. Die hardwarefreundlichen Decodierungs-Pseudocodes sind mit expliziter paralleler Ausführung und Speicherzugriffsprozedur versehen. Für jeden Schritt der Pseudocodes sind die Parallelität und die Operationen in jedem Verarbeitungselement angegeben. Daraus wird der Gesamtbetrag der Operationen abgeleitet. Der Vergleich der Decodierungskomplexität zwischen diesen FEC-Algorithmen wird präsentiert und der Prozentsatz jedes Berechnungsschritts wird veranschaulicht. Die Voraussetzungen zur Erzielung der ausgewerteten Ergebnisse und Referenzhardwareplattformen werden bereitgestellt. Die Benchmarks moderner SDR-Plattformen werden mit den vorgeschlagenen Evaluationen verglichen. Die Ergebnisse der analytischen FEC-Komplexität sind vorteilhaft für den Entwurf und die Optimierung von softwaredefinierten FEC-Decodierplattformen mit hohem Durchsatz.;-;-;-;https://link.springer.com/article/10.1007/s11265-016-1184-8 56f4d7f4bfe798299e015374a2a99de9;de;;;6.2.;;;Aufgabenplanung für kooperierende selbstrekonfigurierbare mobile Geräte Die Arbeit löst das Problem der Aufgaben- und Bewegungsplanung eines selbstrekonfigurierbaren Vorrichtungssystems. Eine praktikable Lösung ist eine wesentliche Voraussetzung für die Lebensfähigkeit solcher Systeme, die Hoffnungen aufkommen lassen, die Mängel zu überwinden, die traditionellere Vorrichtungen unter den dynamischen Bedingungen der modernen Fertigung mit zunehmender Betonung von Flexibilität, Anpassungsfähigkeit und Automatisierung aufweisen. Der Beitrag schlägt einen anwendungsunabhängigen Ansatz zur Generierung eines zeitrelevanten Aktionsplans für die Fortbewegung, Rekonfiguration und Positionierung von zwei oder mehr mobilen robotischen Vorrichtungen vor. Die Spannmittel müssen ein großes Werkstück während der Bearbeitung lokal unterstützen. Das Pfadplanungsproblem wird in ein Constraint Satisfaction Problem (CSP) umgewandelt. Der vorgeschlagene Ansatz wird Triple-CSP genannt, da er eine inkrementelle Zustandssuche anwendet, um drei hierarchische Pfadplanungsaufgaben für die drei Komponenten jedes mobilen Fixture-Agenten zu lösen: einen tragenden Kopf, eine mobile Basis und einen parallelen Manipulator. Es wird eine endgültige zeitbezogene Trajektorie (Zeitskalierung von Aktionen) für die gesamte Aufgabenausführung der Agenten erhalten. Damit berücksichtigt der Planer alle relevanten physikalischen, geometrischen und zeitlichen Randbedingungen.;-;-;-;https://link.springer.com/article/10.1007/s00170-013-5185-5 60c557be42244c9afb8ecc9713567048;de;;;6.2.;;;Echtzeit-Stereo-Matching auf CUDA mit Fourier-Deskriptoren und dynamischer Programmierung Die Berechnung der stereoskopischen Tiefe und die Extraktion von Disparitätskarten sind dynamische Forschungsthemen. Es wurde eine Vielzahl von Algorithmen entwickelt, darunter Feature Matching, Moment Extraction und Image Representation unter Verwendung von Deskriptoren, um eine Disparitätskarte zu bestimmen. Dieser Artikel schlägt eine neue Methode für die Stereoanpassung vor, die auf Fourier-Deskriptoren basiert. Die Robustheit dieser Deskriptoren gegenüber photometrischen und geometrischen Transformationen bietet eine bessere Darstellung einer Vorlage oder eines lokalen Bereichs im Bild. In unserer Arbeit verwenden wir speziell verallgemeinerte Fourier-Deskriptoren, um eine robuste Kostenfunktion zu berechnen. Dann wird ein Boxfilter für die Kostenaggregation angewendet, um eine Glättebeschränkung zwischen benachbarten Pixeln zu erzwingen. Optimierung und Disparitätsberechnung werden unter Verwendung dynamischer Programmierung durchgeführt, wobei die Kosten auf Ähnlichkeit zwischen verallgemeinerten Fourier-Deskriptoren unter Verwendung der euklidischen Distanz basieren. Diese lokale Kostenfunktion wird verwendet, um Korrespondenzen zu optimieren. Unser Stereo-Matching-Algorithmus wird mit dem Middlebury-Stereo-Benchmark bewertet, unser Ansatz wurde auf paralleler Hochleistungs-Grafikhardware mit CUDA implementiert, um unseren Algorithmus zu beschleunigen und eine Echtzeit-Implementierung zu ermöglichen.;-;-;-;https://link.springer.com/article/10.1007/s41095-019-0133-4 f5c4dae54b185ced146c30ed431238fa;de;;;6.2.;;;Über die schnellen BSS-Übergangsalgorithmen in den lokalen drahtlosen IEEE 802.11r-Netzwerken Die Übergabeleistung ist entscheidend, um Multimediadienste zu unterstützen, die zunehmend über drahtlose Geräte verfügbar werden. Die hohe Übergangsverzögerung kann für solche Dienste nicht akzeptiert werden oder eine Quelle für eine Unterbrechung der Sitzung sein. Auf der anderen Seite wird der Standard IEEE 802.11 um neue Funktionalitäten erweitert. Sicherheits- und QoS-Funktionen, die im aktuellen IEEE 802.11-2007-Standard enthalten sind, fügen Management-Frames hinzu, die während des Übergangsvorgangs ausgetauscht werden. Folglich wird die Übergabeverzögerung erhöht. Die Ergänzung IEEE 802.11r-2008 führt Fast BSS Transition (FT) ein, das den Übergabeprozess vereinfacht. Die Autoren schlagen die neuen Handover-Algorithmen basierend auf dem FT-Protokoll vor und vergleichen sie mit bestehenden Lösungen. Darüber hinaus werden Simulationsexperimente durchgeführt, um die Frage zu beantworten, ob Multimediadienste in IEEE 802.11r-Netzwerken richtig unterstützt werden können. Die Autoren weisen nach, dass die Übergabeverzögerung im durchschnittlichen Fall auf 13 ms reduziert werden kann.;-;-;-;https://link.springer.com/article/10.1007/s11235-011-9590-5 c55c17097e526de55ad1385b73a740b1;de;;;6.2.;;;Der Handel zwischen Virtual Mobile Operator und Wireless Service Provider im Two-Tier Femtocell Network In diesem Papier wird das Problem betrachtet, dass der virtuelle Mobilfunkbetreiber (VMO) Dienste vom Mobilfunkanbieter (WSP) kauft, um seine Benutzer zu bedienen. Bei schlechter Abdeckung in Innenräumen oder am Rande von Marcocell würde die WSP nahegelegene Femto-Basisstationen (FBSs) bitten, dem VMO zu helfen. Wir konzentrieren uns auf die interessanten Fragen, wenn der WSP es vorzieht, FBSs um Hilfe zu bitten und wie WSP, VMO und FBSs ihre Strategien anpassen, um ihre Gewinne zu maximieren. Ein zweistufiges Stackelberg-Spiel wird für die Situation entwickelt, in der die WSP dem VMO selbst dient, und ein vierstufiges Stackelberg-Spiel wird in Betracht gezogen, wenn die WSP FBSs mietet, indem sie den FBSs Frequenzbänder anbietet. Wir definieren zuerst die Nutzenfunktionen von VMO, WSP und FBSs, um ihre Zufriedenheit und Kosten bei der Teilnahme am Spiel widerzuspiegeln und geben dann die Analyse basierend auf der Rückwärtsinduktionsmethode. In der Zwischenzeit wird der Wettbewerb zwischen FBSs, wenn die WSP Spektrumbänder für die Hilfe von FBSs zuweist, als nicht kooperatives Spektrumswettbewerbsspiel (NSCG) formuliert und die Existenz und Einzigartigkeit des Nash-Gleichgewichts in NSCG wird bewiesen. Simulationsergebnisse der beiden Servicemodi zeigen, dass der WSP durch das Mieten von FBSs in Gebieten mit geringer Abdeckung mehr Gewinne erzielen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39701-1_41 19bd7cd5a5a55d0a7a94a4d6885b9cc3;de;;;6.2.;;;Webs und Posen Der nicht-abelsche Exponentiationssatz wurde kürzlich auf Korrelatoren mehrerer Wilson-Linienoperatoren verallgemeinert. Die störungsbedingten Erweiterungen dieser Korrelatoren potenzieren sich in Form von Diagrammmengen, die als Netze bezeichnet werden und die zusammen Farbfaktoren ergeben, die verbundenen Graphen entsprechen. Die farblichen und kinematischen Freiheitsgrade einzelner Diagramme in einem Web werden durch das Mischen von Matrizen rein kombinatorischen Ursprungs verschränkt. In diesem Artikel beziehen wir die kombinatorische Untersuchung dieser Matrizen auf Eigenschaften von teilweise geordneten Mengen (Posets) und erhalten daher explizite Lösungen für bestimmte Familien von Netzmischmatrix in beliebiger Reihenfolge in der Störungstheorie. Wir liefern auch einen allgemeinen Ausdruck für den Rang einer allgemeinen Klasse von Mischmatrizen, der die Anzahl der unabhängigen Farbfaktoren bestimmt, die sich aus solchen Bahnen ergeben. Schließlich verwenden wir die Poset-Sprache, um eine zuvor vermutete Summenregel für die Spalten von Netzmischmatrizen zu untersuchen, die die Aufhebung der führenden Unterdivergenzen zwischen Diagrammen im Netz regelt. Unsere Ergebnisse bieten in Kombination mit parallelen Entwicklungen bei der Bewertung kinematischer Integrale neue Einblicke in die Struktur aller Ordnungen von Infrarotsingularitäten in nicht-abelschen Eichtheorien.;-;-;-;https://link.springer.com/article/10.1007/JHEP01%282014%29024 8f0f0ee7959ed21beaff0520964482e7;de;;;6.2.;;;Operationen auf endlichen Einstellungen: von Dreiecksnormen zu Copulas Operationen, die auf endlichen Ketten definiert sind, normalerweise als diskrete Operationen bekannt, sind aufgrund ihrer Anwendungen in vielen Bereichen zu einem Thema von zunehmendem Interesse geworden. In diesem Artikel erinnern wir uns an zwei der Hauptfamilien diskreter Operationen: diskrete t-Normen mit Anwendungen in Fuzzy-Logik, Näherungsschluss und Rechnen mit Wörtern und diskrete Copulas mit Anwendungen in Wahrscheinlichkeit, Statistik und Wirtschaft. Für beide Arten von Operationen betonen wir ihre Haupteigenschaften, ihre Struktur und Charakterisierung. Wir widmen auch einen Teil der Arbeit der Hervorhebung der Bedeutung dieser diskreten Operationen und ihrer Auswirkungen in den genannten Bereichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-64221-5_10 c1ad94dbafbb614d5bdfbf11383b5a5d;de;;;6.2.;;;Anticholinerge Belastung und Frakturen: Eine systematische Überprüfung mit methodischer Bewertung Medikamente mit anticholinerger Wirkung (MACs) werden zur Behandlung von Erkrankungen eingesetzt, die bei älteren Erwachsenen häufig sind. Die Evidenz für den Zusammenhang zwischen anticholinerger Belastung (AB) und erhöhtem Risiko für Frakturen und Osteoporose oder verringerte Knochenmineraldichte (BMD) ist nicht einheitlich. Unser Ziel war es, eine systematische Überprüfung von Beobachtungsstudien zu AB mit Frakturen und Osteoporose oder reduzierter BMD durchzuführen und eine methodische Bewertung der eingeschlossenen Studien bereitzustellen.;-;-;-;https://link.springer.com/article/10.1007/s40266-020-00806-6 b944bd942f2567272cdc9603edde31b2;de;;;6.2.;;;Adaptive Gewichtung Clustering von Forschungsarbeiten Das JEL-Klassifikationssystem ist eine Standardmethode, um Wirtschaftsartikeln Schlüsselthemen zuzuordnen, um sie in der Masse der heutigen umfangreichen Literatur leichter auffindbar zu machen. Normalerweise wird das JEL (Journal of Economic Literature) von den Autoren ausgewählt, die das Risiko einer suboptimalen Zuordnung tragen. Mithilfe der Datenbank des Sonderforschungsbereichs der Humboldt-Universität zu Berlin setzen wir eine neue adaptive Clustering-Technik ein, um interpretierbare JEL-(Sub)Cluster zu identifizieren. Das vorgeschlagene Adaptive Weights Clustering (AWC) ist verfügbar auf;-;-;-;https://link.springer.com/article/10.1007/s42521-020-00017-z df72d127d6e6521cebfc05c799896518;de;;;6.2.;;;Eine DMN-basierte Methode zur kontextsensitiven Geschäftsprozessmodellierung hin zu Prozessvariabilität Die Geschäftsprozessmodellierung hat den interaktiven Funktionen traditionell wenig Aufmerksamkeit gewidmet, wenn man die Dynamik der Umgebung berücksichtigt, in die ein Geschäftsprozess eingebettet ist. Da Kontextbewusstsein in der Geschäftsprozessmodellierung berücksichtigt wird, werden Entscheidungen noch auf traditionelle Weise innerhalb von Geschäftsprozessen berücksichtigt. Darüber hinaus ist die kontextbewusste Geschäftsprozessmodellierung zu stark auf Expertenwissen angewiesen, da eine methodische Anleitung zur Steuerung des gesamten Verfahrens fehlt. In letzter Zeit bewegt sich BPM (Business Process Management) in Richtung des Paradigmas der Separation of Concerns, indem die Entscheidungen aus dem Prozessfluss ausgelagert werden. Vor allem bietet die Einführung des DMN-Standards (Decision Model and Notation) eine Lösung und Technik, um Entscheidungen und den Prozess getrennt, aber konsequent integriert zu modellieren. Die DMN-Technik unterstützt die Fähigkeit, Werte aus der Datenanalyse zu extrahieren und zu operationalisieren, da der Wert der Datenanalyse in der Verbesserung der Entscheidungsfindung liegt. In diesem Beitrag wird eine DMN-basierte Methode zur getrennten Betrachtung von Entscheidungen und Geschäftsprozessen vorgeschlagen, die es erlaubt, Kontext in Entscheidungen als kontextbewusste Geschäftsprozessmodelle zu modellieren, um Geschäftsprozessvariabilität zu erreichen. Mit dieser Methode kann die Rolle von Analytics bei der Verbesserung eines Teils der Entscheidungsfindung auch in die kontextbewusste Geschäftsprozessmodellierung integriert werden, was das Potenzial für den Einsatz von Big Data und Analytics zur Verbesserung der Entscheidungsfindung erhöht. Darüber hinaus wird eine formale Darstellung von DMN um das Kontextkonzept erweitert, um die theoretische Grundlage für die vorgeschlagene DMN-basierte Methode zu schaffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20485-3_14 2c0215ba6268d8003db0ff8fb50e36a3;de;;;6.2.;;;Systematische Literaturrecherche zu E-Learning-Fähigkeiten zur Verbesserung des organisatorischen Lernens E-Learning-Systeme finden in Wissenschaft, Wirtschaft und öffentlicher Verwaltung immer mehr Beachtung. Große Krisen wie die Pandemie verdeutlichen die enorme Bedeutung einer angemessenen Entwicklung von E-Learning-Systemen und deren Einführung und Prozessen in Organisationen. Führungskräfte und Mitarbeiter, die effiziente Formen der Schulung und des Lernflusses innerhalb von Organisationen benötigen, müssen sich nicht gleichzeitig an einem Ort versammeln oder weit reisen, um an Kursen teilzunehmen. Moderne Angebote von E-Learning-Systemen ermöglichen es den Benutzern, verschiedene Jobs oder Aufgaben für Schulungen nach ihrem eigenen Zeitplan auszuführen sowie zusammenzuarbeiten und Wissen und Erfahrungen auszutauschen, was zu einem reichen Lernfluss innerhalb von Organisationen führt. Der Zweck dieses Artikels ist es, einen systematischen Überblick über empirische Studien an der Schnittstelle von E-Learning und organisationalem Lernen zu geben, um die aktuellen Ergebnisse zusammenzufassen und als Leitfaden für zukünftige Forschungen zu dienen. 47 Peer-Review-Artikel wurden aus einer systematischen Literaturrecherche gesammelt und anhand einer Kategorisierung ihrer Hauptelemente analysiert. Diese Umfrage identifiziert fünf Hauptrichtungen der Forschung zum Zusammenfluss von E-Learning und organisatorischem Lernen während des letzten Jahrzehnts. Zukünftige Forschung sollte Big Data aus den Plattformen nutzen und untersuchen, wie die Einbeziehung fortschrittlicher Lerntechnologien (z. B. Learning Analytics, personalisiertes Lernen) dazu beitragen kann, den Unternehmenswert zu steigern.;-;-;-;https://link.springer.com/article/10.1007/s10796-020-10097-2 97a2e48ce59a42a6d6f9610f8d2bba91;de;;;6.2.;;;Beitrag der Frauenfischerei in Timor-Leste . erheblich, aber übersehen Ein besseres Verständnis der geschlechtsspezifischen Rollen in der Fischerei ist notwendig, um die oft verborgene Rolle von Frauen in der Fischerei und in Haushalten zu bewerten. Wir untersuchen den Beitrag von Frauen zur Ernährung und zum Einkommen von Haushalten anhand von Fokusgruppendiskussionen, Marktstudien und Landungsdaten in sechs Gemeinden in Timor-Leste. Frauen fischten mehr Tage pro Monat aktiv als Männer. Nachlese war die häufigste Aktivität und 100 % der Reisen kehrten mit Fang für Nahrung und/oder Einkommen zurück. Weichtier- und Krabbenfänge waren weit verbreitet, und die Nutzung schien auf eine dynamische Neubewertung sich ändernder Lebensmittelwerte und sich ändernder Schätzungen des Gruppenbedarfs ausgerichtet zu sein. Da bis zu 80 % der Haushalte in Küstengebieten an der Fischerei beteiligt sind und mindestens 50 % der Frauen fischen, unterstreicht dies den derzeitigen Mangel an Engagement von Frauen als kritische Lücke in den Ansätzen des Fischereimanagements. Der gegenwärtige androzentrische Dialog schränkt das sozial-ökologische Verständnis dieser Systeme und das Potenzial ihrer effektiven Verwaltung ein.;-;-;-;https://link.springer.com/article/10.1007/s13280-020-01335-7 be5d5c08d6fc1b493b83cb18027d7a29;de;;;6.2.;;;SAR-Bewertung an einem dreischichtigen kugelförmigen menschlichen Kopfmodell, das von einer Mobiltelefonantenne bestrahlt wird Mit der zunehmenden Anwendung von drahtlosen Kommunikationsgeräten werden Mobiltelefone von Menschen verschiedener Altersgruppen verwendet. Dieses Papier versucht, die Auswirkungen der Handy-Strahlung auf 4-jährige, 8-jährige Kinder und ein erwachsenes Kopfmodell zu bewerten. Hier wird der menschliche Kopf als dreischichtige Kugel aus Haut, Schädel und Gehirn modelliert. Handgerätmodell (mit und ohne Widerstandsfolie) mit Dipolantenne, die von einer Kunststoffabdeckung umgeben ist, wird für die menschliche Interaktion verwendet. Die von General Electro Magnetic Simulator durchgeführte Softwaresimulation basierend auf der Finite Difference Time Domain-Technik liefert eine spezifische Absorptionsrate und eine 3D-Wärmeverteilung auf einem kugelförmigen menschlichen Kopf. Der Vergleich von 1 g SAR-, 10 g SAR-Werten für den Kopf von Erwachsenen und Kindern zeigt, dass der Kopf von Kindern mehr Energie absorbiert als der von Erwachsenen. Darüber hinaus zeigt die Anwendung von Widerstandsfolie auf dem Handgerät eine effektive Abnahme der gekoppelten Leistung.;-;-;-;https://link.springer.com/article/10.1186/s13673-014-0010-1 c662f18290f5ad8ff9ff3aae61a721ff;de;;;6.2.;;;Leistungsbewertung des WMN-GA-Systems für verschiedene Einstellungen von Populationsgröße und Generationenzahl generation Drahtlose Mesh-Netzwerke (WMNs) zeichnen sich durch ihre geringen Kosten aus, was sie sehr attraktiv für die Bereitstellung von drahtloser Internet-Konnektivität macht. Solche Infrastrukturen können verwendet werden, um Community-Netzwerke, Metropolitan Area Networks, kommunale und Unternehmensnetzwerke bereitzustellen und Anwendungen für städtische Gebiete, Medizin-, Verkehrs- und Überwachungssysteme zu unterstützen. Die Hauptprobleme in WMNs sind das Erreichen von Netzwerkkonnektivität und -stabilität sowie QoS in Bezug auf die Benutzerabdeckung. In diesem Papier beschäftigen wir uns mit den Auswirkungen von Änderungen der Populationsgröße und der Anzahl von Generationen für das Knotenplatzierungsproblem in WMNs für die Normalverteilung von Mesh-Clients. Wir betrachten zwei Populationsgrößen 8 und 512 und für jede Populationsgröße beträgt die Anzahl der Generationen 200 und 20.000. Als Bewertungsmetriken haben wir die Größe der riesigen Komponente und die Anzahl der abgedeckten Benutzer verwendet. Die Simulationsergebnisse haben gezeigt, dass die Zunahme der Populationsgröße zu einer besseren Leistung führt. Die besten Ergebnisse werden für die Generationszahl 20.000 erzielt. Wenn jedoch die Generationsanzahl erhöht wird, wird auch die Rechenzeit erhöht.;-;-;-;https://link.springer.com/article/10.1186/s13673-014-0005-y c7044ebeb435208ba2f9f9d5759dbf4d;de;;;6.2.;;;Gewalt am Arbeitsplatz in finnischen Notaufnahmen Gewalttätiges Verhalten gegenüber Pflegekräften hat weltweit zugenommen, insbesondere gegenüber Pflegekräften in Notaufnahmen, die mehr Gewalt erfahren als andere Pflegekräfte. Frühere Studien haben geschätzt, dass 60 bis 90 % der Pflegekräfte am Arbeitsplatz mit Gewalt konfrontiert sind. Ziel dieser Studie ist es, die aktuelle Situation arbeitsbedingter Gewalt in finnischen Notaufnahmen aufzuzeigen. An der Studie nahmen sechs finnische öffentliche Notaufnahmen teil, und die Daten für dieses Papier wurden durch halbstrukturierte Interviews und Fragebogen erhoben. Den Fragebogenergebnissen zufolge gaben 40 % der Pflegekräfte an, monatlich oder häufiger körperlicher Gewalt bei der Arbeit ausgesetzt zu sein, und 50 % der Pflegekräfte werden monatlich oder häufiger beschimpft. Gewalt am Arbeitsplatz ist in finnischen Notaufnahmen alltäglich geworden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-02053-8_122 c9382d68d8e9dc8f4bc17a1bfb41f0a1;de;;;6.2.;;;WordBricks: ein virtuelles Sprachlabor, inspiriert von der Scratch-Umgebung und Abhängigkeitsgrammatiken inspired In diesem Artikel werden Designentscheidungen erläutert, die die Grundlage von WordBricks bilden – einer intelligenten computergestützten Sprachlernumgebung, die kürzlich an unserer Institution eingeführt wurde. WordBricks soll als „virtuelles Sprachlabor“ dienen, das offene Experimente mit natürlichen Sprachkonstruktionen unterstützt. Basierend auf Abhängigkeitsgrammatiken veranschaulicht dieses Instrument den Einsatz moderner natürlicher Sprachverarbeitungstechnologien beim Sprachenlernen. Die neuesten Prototypen von WordBricks zeigen auch, wie abhängigkeitsorientierte Konstruktionen in einer natürlicheren sequenziellen Form dargestellt werden können, die eine einfachere Benutzerinteraktion ermöglicht.;-;-;-;https://link.springer.com/article/10.1186/2192-1962-3-5 7925ef3ae6932c54fb1d5323fa903a17;de;;;6.2.;;;Implementierung einer hybriden Bildfusionstechnik zur Merkmalsverbesserung in der medizinischen Diagnostik Die Bildfusion wird verwendet, um die Qualität von Bildern zu verbessern, indem zwei Bilder derselben Szene kombiniert werden, die mit unterschiedlichen Techniken erhalten wurden. In der medizinischen Diagnose erhalten wir durch die Kombination der Bilder aus Computertomographie (CT) und Magnetresonanztomographie (MRT) mehr Informationen und zusätzliche Daten aus dem fusionierten Bild. Dieser Artikel stellt eine Hybridtechnik vor, die Curvelet- und Wavelet-Transformation verwendet, die in der medizinischen Diagnose verwendet werden. Bei dieser Technik wird das Bild unter Verwendung einer Wavelet-Transformation in Bänder segmentiert, das segmentierte Bild wird dann unter Verwendung einer Curvelet-Transformation in Unterbänder fusioniert, die die Bänder in überlappende Kacheln aufbricht und die Kurven in Bildern unter Verwendung gerader Linien effizient umwandelt. Diese Kacheln werden unter Verwendung einer inversen Wavelet-Transformation miteinander integriert, um ein sehr informatives fusioniertes Bild zu erzeugen. Wavelet-basierte Fusion extrahiert räumliche Details aus hochauflösenden Bändern, ihre Einschränkung liegt jedoch in der Fusion von gekrümmten Formen. Aus diesem Grund mischen wir für bessere Informationen und eine höhere Auflösung bei gekrümmten Formen die Wavelet-Transformation mit der Curvelet-Transformation, da wir wissen, dass die Curvelet-Transformation Kurvenbereiche, Ecken und Profile effektiv behandelt. Diese beiden Fusionstechniken werden extrahiert und dann fusioniert, indem ein hybrider Bildfusionsalgorithmus implementiert wird. Die Ergebnisse zeigen, dass das fusionierte Bild minimale Fehler aufweist und bessere Ergebnisse liefert. Der Spitzenwert des Signal-Rausch-Verhältnisses für das Hybridverfahren war im Vergleich zu dem von Wavelet- und Curvelet-Transformations-Fusionsbildern höher. Außerdem erhalten wir verbesserte Statistikergebnisse in Bezug auf Entropie, Spitzensignal-Rausch-Verhältnis, Korrelationskoeffizient, gegenseitige Informationen und Kantenzuordnung. Dies zeigt, dass die Qualität des fusionierten Bildes im Fall des Hybridverfahrens besser war.;-;-;-;https://link.springer.com/article/10.1186/s13673-014-0020-z 145a1c0a6caafdd21c480842b39448ae;de;;;6.2.;;;Adaptive Auflösungs-Upkonvertierung für komprimiertes Video mit Pixelklassifizierung Es wird ein neuartiger Upconversion-Algorithmus mit adaptiver Auflösung vorgeschlagen, der robust gegenüber Kompressionsartefakten ist. Dieses Verfahren basiert auf der Klassifizierung lokaler Bildmuster unter Verwendung von sowohl Strukturinformationen als auch Aktivitätsmaßen, um Pixel explizit in Inhalt oder Codierungsartefakte zu unterscheiden. Die Strukturinformationen werden durch adaptive Dynamikbereichskodierung dargestellt und das Aktivitätsmaß ist die Kombination aus lokaler Entropie und Dynamikbereich. Für jede Musterklasse werden die Gewichtungskoeffizienten der Hochskalierung durch eine Least-Mean-Square-(LMS)-Trainingstechnik optimiert, die an der Kombination der Originalbilder und der komprimierten heruntergetasteten Versionen der Originalbilder trainiert. Experimentelle Ergebnisse zeigen, dass unser vorgeschlagener Aufwärtskonversionsansatz andere klassifikationsbasierte Aufwärtskonversions- und Artefaktreduktionstechniken bei der Verkettung übertrifft.;-;-;-;https://link.springer.com/article/10.1155/2007/71432 9ceb39992b3e8e35fea79cea91bc591c;de;;;6.2.;;;Eine Untersuchung von Sicherheitstrends in persönlichen drahtlosen Netzwerken Drahtlose Netzwerke sind für viele Menschen ein fester Bestandteil des täglichen Lebens, auf die sich Unternehmen und Privatanwender für Konnektivität und Kommunikation verlassen. In diesem Beitrag werden die Probleme rund um das Thema Wireless Security und die Hintergrundliteratur untersucht. Im Anschluss daran wurde primäre Forschung durchgeführt, die sich auf den aktuellen Trend der drahtlosen Sicherheit konzentriert. Frühere Arbeiten werden verwendet, um eine Zeitleiste der Verschlüsselungsverwendung zu erstellen und helfen, die Unterschiede zwischen 2009 und 2012 aufzuzeigen. Darüber hinaus wurde ein neuartiges 802.11-Denial-of-Service-Gerät entwickelt, um zu demonstrieren, wie eine neue Bedrohung entworfen werden kann basierend auf aktuellen Technologien und Geräten, die frei verfügbar sind. Die Ergebnisse werden dann verwendet, um Empfehlungen zu erstellen, die die am besten geeigneten Gegenmaßnahmen gegen die gefundenen Bedrohungen darstellen.;-;-;-;https://link.springer.com/article/10.1007/s11277-013-1386-3 6a22ec27c85e824b7c85e4295ba3196b;de;;;6.2.;;;Übersetzung und Validierung der deutschen Version des Bournemouth Questionnaire for Neck Pain Klinische Ergebnismessungen sind wichtige Instrumente zur Überwachung der Patientenverbesserung während der Behandlung sowie zur Dokumentation von Veränderungen für Forschungszwecke. Der Kurzform-Bournemouth-Fragebogen für Nackenschmerzpatienten (BQN) wurde aus dem biopsychosozialen Modell entwickelt und misst Schmerzen, Behinderung, kognitive und affektive Domänen. Er hat sich in Englisch, Französisch und Niederländisch als valide und zuverlässige Ergebnismessung erwiesen und ist im Vergleich zu anderen Fragebögen anfälliger für Veränderungen. Ziel dieser Studie war es, eine deutsche Version des Bournemouth-Fragebogens für Nackenschmerzpatienten zu übersetzen und zu validieren.;-;-;-;https://link.springer.com/article/10.1186/2045-709X-20-2 c2023eabe76b0d7d62017ee4165de3b1;de;;;6.2.;;;Eine App für mobile Geräte, um präklinische Medikationsfehler und die Zeit bis zur Medikamentenvorbereitung und -abgabe durch Rettungsdienste während einer simulierten Herz-Lungen-Wiederbelebung bei Kindern zu reduzieren: Studienprotokoll einer multizentrischen, prospektiven, randomisierten kontrollierten Studie Die Vorbereitung und Verabreichung von Notfallmedikamenten bei Kindern ist sowohl komplex als auch zeitaufwendig und birgt für diese Bevölkerung ein höheres Risiko für Medikationsfehler als Erwachsene. Darüber hinaus korrelieren das Überleben und ein günstiges neurologisches Ergebnis einer Herz-Lungen-Wiederbelebung umgekehrt mit der Vorbereitungszeit des Medikaments. Wir haben eine App für Mobilgeräte (die App „Pädiatrische Accurate Medication IN Emergency Situations“ (PedAMINES)) als Schritt-für-Schritt-Anleitung für die Vorbereitung der Verabreichung von Medikamenten entwickelt, die eine intravenöse Injektion erfordern. In einer früheren multizentrischen randomisierten Studie berichteten wir über die Fähigkeit dieser App, die Fehlerrate der Dauerinfusionsmedikation im Krankenhaus und die Medikamentenvorbereitungszeit im Vergleich zu herkömmlichen Vorbereitungsmethoden bei simulationsbasierten pädiatrischen Reanimationen signifikant zu reduzieren. Diese Studie zielt darauf ab, die Wirksamkeit dieser App während der pädiatrischen außerklinischen Herz-Lungen-Wiederbelebung zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s13063-019-3726-4 08df75dc80931b368ded8463f6a91966;de;;;6.2.;;;Hör-Stimm-Kopplung beim Nacktmull, einem Säugetier mit schlechten Hörschwellen Nacktmulle sind äußerst soziale und äußerst lautstarke Nagetiere, die eine breite Palette funktionell unterschiedlicher Ruftypen zeigen und fast ununterbrochen vokalisieren. Ihre Lautäußerungen sind niederfrequent, und ein Verhaltensaudiogramm hat gezeigt, dass Nacktmulle wie andere unterirdische Säugetiere nur tiefe Frequenzen hören. Daher scheint der Frequenzbereich ihres Gehörs und ihrer Lautäußerungen gut aufeinander abgestimmt zu sein. Aber selbst bei niedrigen Frequenzen zeigen Nacktmulle sehr schlechte Hörschwellen, was darauf hindeutet, dass die stimmliche Kommunikation nur über kurze Distanzen effektiv ist. In einer Tunnelumgebung, in der sich niederfrequente Geräusche gut ausbreiten und Hintergrundgeräusche gering sind, kann es jedoch sein, dass Lautäußerungen bei überschwelligen Intensitäten beträchtliche Entfernungen zurücklegen. Hier haben wir die Hörempfindlichkeit anhand der auditiven Hirnstammreaktion bestätigt, wir haben Signatur- und Alarmrufe im Intensitäts- und Frequenzbereich charakterisiert und die Auswirkungen der Ausbreitung durch Röhren mit dem Durchmesser von Nacktmull-Tunneln gemessen. Signaturrufe – die für die intime Kommunikation verwendet werden – konnten bei überschwelliger Intensität 3–8 m und Alarmrufe (niedrigere Frequenz und höhere Intensität) bis zu 15 m zurücklegen. Trotz der schlechten Hörempfindlichkeit dieser Art zeigt der Nacktmull ein funktionelles, gekoppeltes Hör-Stimm-Kommunikationssystem – ein charakteristisches Prinzip akustischer Kommunikationssysteme bei allen Taxa.;-;-;-;https://link.springer.com/article/10.1007/s00359-018-1287-8 d94843d97bed432bb5aa1cfbcc740a6c;de;;;6.2.;;;Korrelationen der Tabakentwöhnungsberatung unter hispanischen Ärzten in den USA: Eine Querschnittstudie Der Rat eines Arztes ist ein wichtiger Motivator für den Versuch, mit dem Rauchen aufzuhören. Allerdings hat sich die mangelnde Intervention der Ärzte bei Rauchern in den letzten zehn Jahren nur geringfügig verbessert. Obwohl die Literatur umfangreiche Forschungen im Bereich der Raucherinterventionspraktiken von Klinikern enthält, haben sich nur wenige Studien auf hispanische Ärzte konzentriert. Der Zweck dieser Studie war es, die Korrelationen der Beratungspraktiken zur Tabakentwöhnung unter hispanischen Ärzten in den USA zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-8-5 e58437ca3021c3aab2015ef93657ec45;de;;;6.2.;;;Individuelle Patientendaten-Metaanalyse von Betablockern bei Herzinsuffizienz: Begründung und Design Die Betablockers in Heart Failure Collaborative Group (BB-HF) wurde gegründet, um individuelle Patientendaten aus den wichtigsten randomisierten kontrollierten Studien zu Betablockern bei Herzinsuffizienz zu sammeln und zu analysieren. Obwohl Betablocker eine etablierte Behandlung der Herzinsuffizienz sind, ist die Einnahme noch nicht optimal. Darüber hinaus bleibt die Ausgewogenheit von Wirksamkeit und Sicherheit für allgemeine Gruppen, einschließlich älterer Personen, Frauen, Personen mit eingeschränkter Nierenfunktion und Diabetes, ungewiss. Unser Ziel ist es, Klinikern eine gründliche und definitive evidenzbasierte Bewertung dieser Wirkstoffe zu ermöglichen. Wir haben 11 große randomisierte Studien mit Betablockern im Vergleich zu Placebo bei Herzinsuffizienz identifiziert und planen eine Metaanalyse der Daten auf individueller Patientenebene. Insgesamt nahmen an diesen Studien 18.630 Patienten teil. Einzigartig ist, dass die BB-HF-Gruppe den Zugang zu den individuellen Daten für all diese Studien unter Beteiligung wichtiger Prüfärzte und Pharmaunternehmen gesichert hat.;-;-;-;https://link.springer.com/article/10.1186/2046-4053-2-7 9b8a8e7fa71bd5edecccfc5b55b57c06;de;;;6.2.;;;Wir helfen Ihnen, mit Ethik in der Forschung voranzukommen: eine Einführung in ethische Governance und Antragsverfahren Ethik und ethisches Verhalten sind die Grundpfeiler einer zivilisierten Gesellschaft. Der Fokus auf ethisches Verhalten ist in bestimmten Bereichen wie Medizin, Finanzen oder Recht unabdingbar. Tatsächlich hat Ethik Vorrang vor allem, was Einzelpersonen, Gemeinschaften oder Lebewesen einschließen, beeinflussen, verändern oder beeinflussen würde. Viele Institutionen in Europa haben ihre eigenen Ausschüsse eingerichtet, um sich auf Aktivitäten mit ethischen Auswirkungen zu konzentrieren oder diese zu genehmigen. Im Gegensatz dazu versuchen weniger entwickelte Länder (weltweit), diese Ausschüsse einzurichten, um ihre Wissenschaft und Forschung zu regeln. Als erstes europäisches Konsortium, das zur Unterstützung der akademischen Integrität gegründet wurde, das European Network for Academic Integrity (ENAI), waren wir der Meinung, dass es wichtig ist, Institutionen und Gemeinschaften zu unterstützen, die versuchen, Forschung nach ethischen Prinzipien durchzuführen. Wir haben innerhalb des ENAI eine ethische Beratungsarbeitsgruppe mit dem Ziel gegründet, Ethik in Lehrplänen, Forschung und institutionellen Richtlinien zu fördern. Wir recherchieren ständig verfügbare Daten zu diesem Thema und setzen uns dafür ein, der Wissenschaft zu helfen, ethisches Verhalten zu vermitteln und zu praktizieren. Nach einer vorläufigen Überprüfung und Diskussion stellte die Gruppe eine Ungleichheit im Verständnis, in der Praxis und in der Lehre von Ansätzen zur ethischen Anwendung von Forschungsprojekten unter Gleichaltrigen fest. Daher zielt dieser kurze Beitrag zunächst darauf ab, die verfügbaren Informationen zur Ethik, die Geschichte der Einführung ethischer Prinzipien und ihre internationalen Richtlinien für die Forschung kritisch zu überprüfen.;-;-;-;https://link.springer.com/article/10.1007/s40979-021-00078-6 6272ffc0d5692029f52f3c8f499b2db5;de;;;6.2.;;;Analyse der Proteinphosphorylierung und ihres funktionellen Einflusses auf Protein-Protein-Wechselwirkungen durch Text Mining der wissenschaftlichen Literatur Posttranslationale Modifikationen (PTMs) tragen wesentlich zur Vielfalt der Proteoformen in der proteomischen Landschaft bei. Insbesondere die Proteinphosphorylierung stellt einen wesentlichen Regulationsmechanismus dar, der in vielen biologischen Prozessen eine Rolle spielt. Proteinkinasen, die Enzyme, die diese Reaktion katalysieren, sind wichtige Teilnehmer an Stoffwechsel- und Signalwegen. Ihre Aktivierung oder Inaktivierung diktiert nachgeschaltete Ereignisse: Welche Substrate werden modifiziert und ihre nachfolgenden Auswirkungen (z. Die biomedizinische Literatur ist nach wie vor die wichtigste Quelle für experimentelle Informationen zur Proteinphosphorylierung. Automatische Methoden zur Zusammenführung von Phosphorylierungsereignissen und phosphorylierungsabhängigen PPIs können helfen, den aktuellen Wissensstand zusammenzufassen und verborgene Zusammenhänge aufzudecken. In diesem Kapitel zeigen wir zwei Text-Mining-Tools, RLIMS-P und eFIP, zum Abrufen und Extrahieren von Kinase-Substrat-Site-Daten und phosphorylierungsabhängigen PPIs aus der Literatur. Diese Tools bieten gegenüber einer Literatursuche in PubMed mehrere Vorteile, da ihre Ergebnisse spezifisch für die Phosphorylierung sind. RLIMS-P- und eFIP-Ergebnisse können sortiert, organisiert und auf verschiedene Weise angezeigt werden, um relevante biologische Fragen zu beantworten, und die Proteinnennungen sind mit UniProt-Identifikatoren verknüpft.;-;-;-;https://link.springer.com/protocol/10.1007/978-1-4939-6783-4_10 552ba4a5026702836c7ded794a7199dd;de;;;6.2.;;;Eine neue inverse Halbtonmethode mit reversibler Datenausblendung für Halbtonbilder In diesem Beitrag wird ein neuer inverser Halbtonalgorithmus vorgeschlagen, der auf reversiblen Datenverbergungstechniken für Halbtonbilder basiert. Das vorgeschlagene Schema hat die Vorteile zweier allgemein verwendeter Verfahren, der Nachschlagetabelle (LUT) und der Gaußschen Filterverfahren. Wir betten einen Teil wichtiger LUT-Vorlagen in ein Halbtonbild ein und stellen das verlustfreie Bild wieder her, nachdem diese Vorlagen extrahiert wurden. Dann wird ein Hybridverfahren durchgeführt, um ein Graustufenbild aus dem Halbtonbild zu rekonstruieren. Beim Bildrekonstruktionsprozess wird das Halbtonbild Pixel für Pixel abgetastet. Wenn das abgetastete Muster, das ein Pixel umgibt, in den LUT-Schablonen auftauchte, wird ein Grauwert unter Verwendung des LUT-Werts direkt vorhergesagt, andernfalls wird er unter Verwendung einer Gaußschen Filterung vorhergesagt. Experimentelle Ergebnisse zeigen, dass die rekonstruierten Graustufenbilder unter Verwendung des vorgeschlagenen Schemas eine bessere Qualität aufweisen als sowohl die LUT- als auch die Gauß-Filterverfahren.;-;-;-;https://link.springer.com/article/10.1155/2010/430235 c6cf2613c27befe73b3ba96cec44cd0b;de;;;6.2.;;;Wirkungen von Metallnanopartikeln auf Tight-Junction-assoziierte Proteine ​​über den HIF-1α/miR-29b/MMPs-Weg in humanen epidermalen Keratinozyten Der zunehmende Einsatz von Metall-Nanopartikeln in Industrie und Biomedizin erhöht das Risiko einer unbeabsichtigten Exposition. Die Fähigkeit von Metallnanopartikeln, die Haut zu durchdringen, reicht vom Stoppen am Stratum corneum bis zum Passieren unter der Dermis und dem Eintritt in den systemischen Kreislauf. Trotz der potenziellen Gesundheitsrisiken, die mit der Exposition der Haut gegenüber Metallnanopartikeln verbunden sind, bleiben die Mechanismen, die der Toxizität von Metallnanopartikeln auf Hautkeratinozyten zugrunde liegen, unklar. In dieser Studie schlugen wir vor, dass die Exposition menschlicher epidermaler Keratinozyten (HaCaT) gegenüber Metallnanopartikeln wie Nickelnanopartikeln Tight-Junction-assoziierte Proteine ​​durch Interaktion mit der HIF-1α/miR-29b/MMPs-Achse dysreguliert.;-;-;-;https://link.springer.com/article/10.1186/s12989-021-00405-2 596523f2fd76680fbf5dac41692de8a1;de;;;6.2.;;;Alternde Gesellschaften und technologische Innovation Die demografische Alterung wurde von Politikern, Journalisten, Industrie und Wissenschaft gleichermaßen zu einer der größten Herausforderungen für die Länder des globalen Nordens erklärt. Viele betrachten das Altern als ein Problem, das einer technologischen Lösung bedarf, und die meisten digitalen Technologien, die für ältere Erwachsene entwickelt wurden, geben Bilder über das Alter wieder, das durch Krankheit, Defizite und Einschränkungen definiert ist. Digitale öffentliche Dienste sind nicht anders. Wissenschaftler der kritischen und sozialen Gerontologie argumentieren jedoch, dass die meisten alarmistischen Rhetoriken über die demografische Alterung und projizierte soziale Auswirkungen auf fehlerhaften Annahmen über ältere Menschen (z. B. ihre Fähigkeit, zu ihren Gemeinschaften beizutragen) und den Alterungsprozess (z Krankheitsverlauf und Pflegebedürftigkeit). In diesem Kapitel werden vorherrschende Konzepte zu alternden Gesellschaften, älteren Erwachsenen und technologischen Innovationen untersucht. Es wird argumentiert, dass die Einbeziehung älterer Erwachsener in Designprozesse alternative Messgrößen und Attribute des „Erfolgs“ im späteren Leben ermöglicht und dass partizipative Ansätze neu konfigurieren können, wie und welche Imaginationen und sozialen Praktiken in Technologien eingeschrieben werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-52873-7_2 2bdae558c2900f329c70dd1413f7f6ae;de;;;6.2.;;;Unterschiede in Überzeugungen und Wohnumgebungen bezüglich des Energiebilanzverhaltens nach elterlicher Bildung und ethnischer Zugehörigkeit bei Schulkindern in Europa: die ENERGY-Querschnittsstudie Untersuchung von Unterschieden in persönlichen und häuslichen Umweltfaktoren, die als Determinanten für energiebilanzbezogenes Verhalten (EBRBs) je nach elterlicher Bildung und ethnischem Hintergrund bei 10- bis 12-jährigen Schulkindern in ganz Europa gelten.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-14-610 81a09ad802bb6858b5df1222d3b379f8;de;;;6.2.;;;Hinterfragung von Rassen- und Geschlechtervoreingenommenheit in KI-basierten Empfehlungen: Sind die vertretenen nationalen kulturellen Werte von Bedeutung? Ein Bereich der KI, Empfehlungssysteme, haben aufgrund von Bedenken hinsichtlich ihrer verheerenden Auswirkungen auf die am stärksten gefährdeten und marginalisierten Gemeinschaften der Gesellschaft erhebliche Aufmerksamkeit in der Forschung auf sich gezogen. Sowohl die Medienpresse als auch die wissenschaftliche Literatur liefern überzeugende Beweise dafür, dass KI-basierte Empfehlungen dazu beitragen, rassistische und geschlechtsspezifische Vorurteile aufrechtzuerhalten und zu verstärken. Es gibt jedoch nur begrenzte Kenntnisse darüber, inwieweit Einzelpersonen KI-basierte Empfehlungen in Frage stellen könnten, wenn sie als voreingenommen wahrgenommen werden. Um diese Wissenslücke zu schließen, untersuchen wir die Auswirkungen nationaler kultureller Werte auf die Fragwürdigkeit von KI, indem wir untersuchen, wie Einzelpersonen KI-basierte Empfehlungen aufgrund wahrgenommener Rassen- oder Geschlechtervoreingenommenheit in Frage stellen könnten. Daten, die von 387 Umfrageteilnehmern in den Vereinigten Staaten gesammelt wurden, zeigen, dass Personen mit nationalen kulturellen Werten, die mit Kollektivismus, Männlichkeit und Vermeidung von Unsicherheit verbunden sind, eher voreingenommene KI-basierte Empfehlungen in Frage stellen. Diese Studie fördert das Verständnis, wie kulturelle Werte die Fragwürdigkeit von KI aufgrund wahrgenommener Voreingenommenheit beeinflussen und trägt zum aktuellen akademischen Diskurs über die Notwendigkeit bei, KI zur Rechenschaft zu ziehen.;-;-;-;https://link.springer.com/article/10.1007/s10796-021-10156-2 7eee1e8745589c676e011f5c8f70da6c;de;;;6.2.;;;Leistungszuweisungsschemata in OFDM-basierten Femtozellen-Netzwerken In diesem Beitrag werden orthogonale Femtozellennetzwerke auf Frequenzmultiplex-Basis im Downlink mit zweistufiger Interferenz betrachtet. Um die Dienstqualität von Makrozellenbenutzern zu erfüllen, wird ein Kapazitätsmaximierungsproblem mit den Gesamt- und den oberen Leistungsbeschränkungen durch Zuweisen von Leistung an Unterträger für einen Benutzer in Femtozellensystemen wichtig. In diesem Beitrag wird die optimale Leistungszuweisung unter Verwendung der Lagrange-Technik abgeleitet. Basierend auf der Analyse der Karush-Kuhn-Tucker-Bedingungen können Unterträger gemäß der oberen Leistungsbeschränkung in zwei Sätze mit unterschiedlichen Leistungsverteilungsstrategien eingeteilt werden. Einem Satz von Unterträgern wird eine höhere Leistung zugewiesen, und der andere Satz von Unterträgern wird unter Verwendung des Wasserfüllansatzes verarbeitet. Es wird ein direktes lineares Suchschema präsentiert, um die optimale Leistung zu erreichen, indem der Schwellenwert über die Kanalzustände aller Unterträger gefunden wird, um die beiden Sätze zu bestimmen. Um die Rechenlast zu reduzieren, wird ein Schema mit reduzierter Komplexität für die optimale Lösung entworfen, indem die Beziehung der zugewiesenen Leistung in den beiden Sätzen von Unterträgern verwendet wird. Im Gegensatz zu den Schemata auf iterative Weise wird auch ein schnelles Leistungszuweisungsschema mit einer nahezu optimalen Leistung entwickelt. Simulationsergebnisse zeigen, dass die vorgeschlagenen Schemata das bestehende Schema übertreffen. Die Wirksamkeit der vorgeschlagenen Schemata wird in den Simulationen demonstriert.;-;-;-;https://link.springer.com/article/10.1007/s11277-012-0626-2 6b75132e26fe79bd6cdccb60272f99f7;de;;;6.2.;;;BioDEAL: Community-Generierung von biologischen Anmerkungen Publikationsdatenbanken in der Biomedizin (z. B. PubMed, MEDLINE) wachsen jedes Jahr rasant, ebenso öffentliche Datenbanken mit experimentellen biologischen Daten und aus den Daten abgeleiteten Anmerkungen. Veröffentlichungen enthalten oft Beweise, die Annotationen bestätigen oder widerlegen, wie etwa mutmaßliche Proteinfunktionen, jedoch wird es für Biologen aufgrund der Menge an Veröffentlichungen und des Fehlens eines systematischen Ansatzes, veröffentlichte Beweise mit experimentellen Daten zu verknüpfen, zunehmend schwieriger, veröffentlichte Beweise zu identifizieren und zu verarbeiten und Anmerkungen. Tools zur Verarbeitung natürlicher Sprache (NLP) können dazu beitragen, die wachsende Kluft zu überwinden, indem sie eine automatische Hochdurchsatzerkennung einfacher Begriffe im Publikationstext bieten. NLP-Tools sind jedoch nicht ausgereift genug, um komplexe Begriffe, Beziehungen oder Ereignisse zu identifizieren.;-;-;-;https://link.springer.com/article/10.1186/1472-6947-9-S1-S5 1093bc93f49c577c2831dc8405c4cb82;de;;;6.2.;;;VDM-Semantik von Programmiersprachen: Kombinatoren und Monaden Die Wiener Entwicklungsmethode (VDM) wurde Anfang der 1970er Jahre als Variante der denotationalen Semantik entwickelt. VDM-Beschreibungen von Programmiersprachen unterscheiden sich vom ursprünglichen Scott-Strachey-Stil durch die umfassende Verwendung von Kombinatoren, die eine feste;-;-;-;https://link.springer.com/article/10.1007/s00165-009-0145-4 53ac6f0b8ee3f6b62dbcbaa3287f6a7d;de;;;6.2.;;;jMAF - Dominanz-basiertes Rough Set Data Analysis Framework Wir präsentieren eine grobe Datenanalyse-Software jMAF. Es verwendet Java Rough Set (jRS) Bibliothek, in der Datenanalysemethoden implementiert sind, die durch den (variable Konsistenz) Dominanz-basierten Rough Set Approach (DRSA) bereitgestellt werden. Das Kapitel enthält auch einige Grundlagen des DRSA und seiner Erweiterung der variablen Konsistenz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30344-9_5 1d22c9e640f41135de4ba06acac70bb6;de;;;6.2.;;;Mütterliche Outcomes bei Nachgeburten nach vorangegangener geburtshilflicher Analsphinkterverletzung (OASI): eine multizentrische retrospektive Kohortenstudie Frauen mit einer geburtshilflichen Analsphinkterverletzung (OASI) in der Vorgeschichte haben ein erhöhtes Rezidivrisiko (rOASI) bei der Nachgeburt, jedoch ist die Evidenz bezüglich der Faktoren, die dieses Risiko beeinflussen, begrenzt. Darüber hinaus ist wenig darüber bekannt, welche Faktoren die Entscheidung für eine alternative Entbindung durch einen elektiven Kaiserschnitt (ELLSCS) beeinflussen.;-;-;-;https://link.springer.com/article/10.1007/s00192-019-03983-0 46300ca9533624beb24dc200bb99ab2b;de;;;6.2.;;;Rechtsventrikulo-arterielle Entkopplung und eingeschränkte Kontraktionsreserve bei adipösen Patienten mit ungeklärter Belastungsintoleranz Rechtsventrikuläre (RV) Dysfunktion und Herzinsuffizienz mit erhaltener Auswurffraktion können zu einer Belastungsintoleranz bei Fettleibigkeit beitragen. Um die RV-Belastungsreaktionen weiter zu definieren, untersuchten wir die RV-arterielle Kopplung bei Adipositas mit und ohne Entwicklung einer pulmonalen venösen Hypertonie (ePVH) bei Belastung.;-;-;-;https://link.springer.com/article/10.1007/s00421-018-3873-4 1b3d5b213d76b3138c55b3ed9602f97e;de;;;6.2.;;;Kontext, Mechanismen und Ergebnisse der integrierten Versorgung bei Diabetes mellitus Typ 2: ein systematischer Review Integrierte Versorgungsinterventionen für chronische Erkrankungen können zu verbesserten Ergebnissen führen, aber es ist nicht klar, wann und warum dies der Fall ist. Diese Studie zielt darauf ab, die folgenden zwei Forschungsfragen zu beantworten: Erstens, was sind der Kontext, die Mechanismen und die Ergebnisse einer integrierten Versorgung von Menschen mit Typ-2-Diabetes? Zweitens, welche Zusammenhänge bestehen zwischen Kontext, Mechanismen und Ergebnissen der integrierten Versorgung von Menschen mit Typ-2-Diabetes?;-;-;-;https://link.springer.com/article/10.1186/s12913-015-1231-3 c9e948e73e1f827440fea8832672daf4;de;;;6.2.;;;Kreismuster und Critical Ising-Modelle Ein Kreismuster ist eine Einbettung eines planaren Graphen, in dem jede Fläche in einen Kreis eingeschrieben ist. Wir definieren und beweisen die magnetische Kritikalität einer großen Familie von Ising-Modellen auf planaren Graphen, deren Dual ein Kreismuster ist. Unsere Konstruktion umfasst als Sonderfall die kritischen isoradialen Ising-Modelle von Baxter.;-;-;-;https://link.springer.com/article/10.1007/s00220-019-03541-1 ba044633cd1cf1469dc31842bb407d86;de;;;6.2.;;;Matataki: eine ultraschnelle mRNA-Quantifizierungsmethode für die groß angelegte Reanalyse von RNA-Seq-Daten Daten, die durch RNA-Sequenzierung (RNA-Seq) generiert werden, sammeln sich jetzt in großen Mengen in öffentlichen Repositorien an, insbesondere für Human- und Mausgenome. Die erneute Analyse dieser Daten hat sich als vielversprechender Ansatz zur Identifizierung von Genmodulen oder Signalwegen herausgestellt. Obwohl Metaanalysen von Genexpressionsdaten häufig mit Microarray-Daten durchgeführt werden, sind Metaanalysen mit RNA-Seq-Daten noch selten. Diese Verzögerung ist teilweise auf die Einschränkungen bei der Reanalyse von RNA-Seq-Daten zurückzuführen, die umfangreiche Rechenressourcen erfordert. Darüber hinaus ist es nahezu unmöglich, die Genexpressionsniveaus aller Proben in einem öffentlichen Endlager mit den derzeit verfügbaren Methoden zu berechnen. Hier schlagen wir eine neue Methode, Matataki, zur schnellen Schätzung der Genexpressionsniveaus aus RNA-Seq-Daten vor.;-;-;-;https://link.springer.com/article/10.1186/s12859-018-2279-y 68cc75e09af2bb49d6c7d75d75f11d14;de;;;6.2.;;;Beteiligung der Öffentlichkeit an den Prioritätensetzungsaktivitäten einer Initiative zum Wartezeitmanagement: eine qualitative Fallstudie Da es sich kein Gesundheitssystem leisten kann, den Menschen, denen es dient, alle möglichen Leistungen und Behandlungen anzubieten, muss jedes System Prioritäten setzen. Entscheidungsträger, die Prioritäten setzen, beziehen die Öffentlichkeit zunehmend in die Politikgestaltung ein. Diese Studie konzentriert sich auf das öffentliche Engagement in einem wichtigen Kontext der Prioritätensetzung, der jedes Gesundheitssystem auf der ganzen Welt quält: das Wartelistenmanagement. Der Zweck dieser Studie besteht darin, die Prioritätensetzung für die Ontario Wait Time Strategy unter besonderer Berücksichtigung des öffentlichen Engagements zu beschreiben und zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/1472-6963-7-186 ba4ae9f73977be8ef6dc903174047c0a;de;;;6.2.;;;Retrieval mit Genabfragen Die Genauigkeit des Dokumentenabrufs von MEDLINE für Genabfragen ist für viele Anwendungen in der Bioinformatik von entscheidender Bedeutung. Wir untersuchen fünf auf Information Retrieval basierende Methoden, um Dokumente zu ordnen, die durch PubMed-Genabfragen für das menschliche Genom abgerufen wurden. Ziel ist es, relevante Dokumente in der gefundenen Liste höher einzustufen. Wir adressieren die besonderen Herausforderungen, denen sich die Mehrdeutigkeit in der Gennomenklatur gegenübersieht: Genbegriffe, die sich auf mehrere Gene beziehen, Genbegriffe, die auch englische Wörter sind, und Genbegriffe mit anderen biologischen Bedeutungen.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-7-220 c7022aa22a72c60a068e372ff2fc3e48;de;;;6.2.;;;Zufriedenheit der Verbraucher mit der Wahl des Hausarztes und das damit verbundene Vertrauen Es wird angenommen, dass die Entwicklung von Managed Care, die durch eine begrenzte Auswahl an Anbietern gekennzeichnet ist, das Vertrauen untergräbt. Es wurde festgestellt, dass die Wahl des Anbieters stark mit dem Vertrauen des Arztes verbunden ist. Stakeholder in einem wettbewerbsorientierten Gesundheitsmarkt haben konkurrierende Agenden in Bezug auf Wahlmöglichkeiten. Der Zweck dieser Studie besteht darin, Variablen zu analysieren, die mit der Zufriedenheit der Verbraucher verbunden sind, dass sie bei der Auswahl ihres Hausarztes (PCP) genügend Auswahl haben, und die Bedeutung dieser Variablen für das Vertrauen der Anbieter zu analysieren.;-;-;-;https://link.springer.com/article/10.1186/1472-6963-6-139 d6f30a082f4598c5d532c26df1f9fa93;de;;;6.2.;;;Übersetzung und Validierung der deutschen Version des Bournemouth-Fragebogens für Kreuzschmerzen Es ist von entscheidender Bedeutung, die besten Ergebnismaße für Forschungs- und Qualitätssicherungszwecke in Bezug auf Validität, Änderungsempfindlichkeit, Dauer und einfache Durchführung zu finden. Der Bournemouth-Fragebogen für Nackenschmerzpatienten wurde kürzlich ins Deutsche übersetzt und validiert und erwies sich als sensibler für Veränderungen als andere häufig verwendete Fragebögen. Die Version für Kreuzschmerzen ist jedoch noch nicht auf Deutsch verfügbar. Ziel dieser Studie war es daher, den Bournemouth-Fragebogen (BQ) für Kreuzschmerzen (LBP) ins Deutsche zu übersetzen und zu validieren.;-;-;-;https://link.springer.com/article/10.1186/2045-709X-21-32 0f123472434c4958d6d5eb6747b4697e;de;;;6.2.;;;Ernährungsmuster von Erwachsenen, die in Ouagadougou leben, und ihr Zusammenhang mit Übergewicht Die Urbanisierung in Entwicklungsländern geht einher mit veränderten Ernährungsgewohnheiten und Lebensbedingungen sowie mit einer Zunahme von Übergewicht und den damit verbundenen Gesundheitsrisiken. Das Ziel der Studie war es, Ernährungsmuster von Erwachsenen in Ouagadougou zu beschreiben und ihre Beziehung zum anthropometrischen Status der Probanden zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/1475-2891-9-13 acb2d836edf5374135873ce7d318fa7f;de;;;6.2.;;;Schaffung einer Basis für die Literaturanalyse menschlicher genetischer Varianten und ihrer Beziehungen zu Krankheitskohorten Das Variome-Korpus, eine kleine Sammlung veröffentlichter Artikel über erblichen Darmkrebs, enthält Anmerkungen zu 11 Entitätstypen und 13 Beziehungstypen, die sich auf die Kuratierung der Beziehung zwischen genetischer Variation und Krankheit beziehen. Aufgrund des Reichtums dieser Anmerkungen bietet das Korpus eine gute Testumgebung für die Bewertung von Systemen zur Extraktion von biomedizinischen Literaturinformationen.;-;-;-;https://link.springer.com/article/10.1186/s12911-016-0294-3 383421de64b273323cac9bfa06d97493;de;;;6.2.;;;Das Ausmaß der Neurodegeneration bei mittelschweren bis schweren Schädel-Hirn-Traumata: ein systematisches Review-Protokoll Unser Verständnis der Genesung nach mittelschweren bis schweren Schädel-Hirn-Traumata (SHT) hat sich verändert. Bis vor kurzem ging man davon aus, dass das Gehirn nach einer Phase akuter neurologischer Vulnerabilität in den chronischen Stadien der Verletzung stabil blieb. Jüngste Untersuchungen haben jedoch gezeigt;-;-;-;https://link.springer.com/article/10.1186/s13643-019-1208-0 8d265648d356859f2fe2c74e26359d51;de;;;6.2.;;;Ein neuer Algorithmus zur Ermüdungserkennung beim Autofahren Die Verfolgung des Augenzustands beim Fahren ist das Hauptproblem bei der Ermüdungserkennung und hat sich als effektive und beliebte Methode beim Ermüdungsfahren erwiesen. In diesem Beitrag stellen wir ein neues Algorithmus-Framework für das Ermüdungsfahren vor. Wir erkennen zuerst menschliche Augen mit dem AdaBoost-Algorithmus, dann wird ein verbesserter Otsu-Algorithmus modifiziert, um sich automatisch an unterschiedliche Umgebungen anzupassen. Darüber hinaus schlagen wir einen effektiven Algorithmus vor, der auf einem dynamischen Schiebefenster basiert, um den richtigen Schwellenwert zwischen dem geöffneten und geschlossenen Augenfenster zu berechnen. Schließlich schätzen wir das unterschiedliche Ausmaß der Ermüdung beim Fahren mit einem verbesserten Prozentsatz der Augenlidschließzeit (PERCLOS)-Algorithmus. Die Bilder des menschlichen Auges werden in Echtzeit mit der Kamera aufgenommen und unsere Methode wird auf einem PC simuliert. Die vergleichenden Experimente zeigen, dass das vorgeschlagene Algorithmus-Framework den Ermüdungszustand beim Fahren effektiv unterscheiden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54924-3_98 62760d351cc7d5a508b22ea8bafeb113;de;;;6.2.;;;Ein Prozess zur Entwicklung einer Implementierungsintervention: QUERI Series Dieser Artikel beschreibt den Prozess, den die Autoren bei der Entwicklung einer Implementierungsintervention verwendet haben, um Kliniken für VA-Störungsstörungen bei der Einführung leitlinienbasierter Praktiken zur Behandlung von Depressionen zu unterstützen. Dieser Artikel ist einer in a;-;-;-;https://link.springer.com/article/10.1186/1748-5908-3-17 13c3b4e5adfef3cbde314a3cc8591477;de;;;6.2.;;;Daten zur Hundetollwut an multinationale Organisationen aus Ländern Süd- und Ostafrikas gemeldet Tollwut ist eine der Viruserkrankungen mit der höchsten Todesrate beim Menschen. Der Hauptübertragungsweg auf den Menschen ist der Biss, insbesondere von infizierten Hunden. Entscheidungen über die Zuweisung von Ressourcen zur Kontrolle und Verringerung der sozioökonomischen Auswirkungen der Tollwut erfordern zuverlässige Daten. Mehrere nationale, regionale und internationale Organisationen sammeln seit mehr als einem Jahrzehnt Daten zur Tollwut. Das Ziel dieses Papiers war es, die Konsistenz der Anzahl von Hunden-Tollwut-Fällen zu untersuchen, die von süd- und ostafrikanischen Ländern an verschiedene multinationale Organisationen gemeldet wurden, und das Vorhandensein von Zeittrends unter den gemeldeten Tollwutdaten zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s13104-017-2527-7 631e21f143f8c639c55177d1b1f7be20;de;;;6.2.;;;Gesetzliche und behördliche Standards der Provinz für die Beurteilung und Behandlung von Schmerzen in Langzeitpflegeheimen: eine Überprüfung des Umfangs und eine eingehende Fallanalyse Bei kanadischen Einwohnern, die in Langzeitpflegeeinrichtungen (LTC) leben, und insbesondere bei denen mit eingeschränkter Kommunikationsfähigkeit aufgrund von Demenz, werden Schmerzen weiterhin unterschätzt und unterversorgt. Obwohl es evidenzbasierte klinische Leitlinien für die Beurteilung und Behandlung von Schmerzen gibt, werden diese klinischen Leitlinien in LTC-Einrichtungen nicht weit verbreitet. Ein relativ unerforschter Weg für Veränderungen ist der Einfluss, den Gesetze und Vorschriften auf die Schmerzpraxis innerhalb von LTC ausüben könnten. Diese Überprüfung zielt daher darauf ab, die aktuelle Landschaft der in Kanada verwendeten politischen Hebel zur Beurteilung und Behandlung von Schmerzen bei Pflegebedürftigen zu identifizieren und zu bewerten, inwieweit sie mit den evidenzbasierten klinischen Leitlinien einer internationalen Konsensusgruppe übereinstimmen, die sowohl aus Geriatrie- als auch aus Altersmedizinern besteht Schmerz- und Politikexperten.;-;-;-;https://link.springer.com/article/10.1186/s12877-020-01758-7 ac4da128ba3b9a4a70d0addd9e24c8d3;de;;;6.2.;;;Der Anpassungsprozess in der Hafenverwaltung: der Fall der lateinamerikanischen Länder in Südamerika und Europa Die besondere Lage der Hafeninfrastruktur weist Merkmale auf, die die Aktivität des Hafens sowohl in Bezug auf den Verkehr als auch in Bezug auf die Umsetzung von Wettbewerbsstrategien bestimmen, und die Effizienz und Wirksamkeit der Infrastruktur hängen von den Governance-Systemen ab, die die Häfen regulieren. Ebenso spiegelt sich die Entwicklung der Hafenaktivitäten auch in der regionalen Wirtschaft wider, daher wird Governance zu einem wesentlichen Bestandteil der Maximierung der Auswirkungen der Häfen auf die wirtschaftliche Entwicklung ihrer Region. Die Tätigkeit eines Hafens überschreitet jedoch die nationalen/regionalen Grenzen, solange der Hafen beabsichtigt, an einer globalen Lieferkette teilzunehmen. Dieses Ziel zu erreichen stellt eine Herausforderung für die Behörden dar, die die Hafenaktivitäten regeln, und diese Herausforderung gilt es zu meistern, wenn es darum geht, die Governance an externe und interne Ziele anzupassen.;-;-;-;https://link.springer.com/article/10.1186/s41072-016-0018-y 264808ed5c25080909fac154b20cc085;de;;;6.2.;;;Lieferkettenmanagement für HIV/AIDS-bezogene Rohstoffe in öffentlichen Gesundheitseinrichtungen von Addis Abeba, Äthiopien: eine Querschnittsstudie Zur Diagnose, Behandlung und Vorbeugung von HIV/AIDS wird eine breite Palette pharmazeutischer Produkte benötigt. Versorgungsunterbrechungen und Fehlbestände sind jedoch die größten Herausforderungen in der Lieferkette von ARV-Medikamenten und verwandten Rohstoffen. Das Ziel dieser Studie war es, das Lieferkettenmanagement von HIV/AIDS-bezogenen Waren in öffentlichen Gesundheitseinrichtungen von Addis Abeba, Äthiopien, zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s40545-016-0060-z d05072f306cb2f074ec37376cf5780f3;de;;;6.2.;;;Die Zukunft des Virushepatitis-Tests: Innovationen bei Testtechnologien und -ansätzen Eine große Last nicht diagnostizierter Hepatitis-Virus-Fälle bleibt weltweit bestehen. Trotz der 257 Millionen Menschen, die mit einer chronischen Hepatitis-B-Virusinfektion leben, und 71 Millionen Menschen mit einer chronischen virämischen HCV-Infektion, wissen die meisten Menschen mit Hepatitis nichts von ihrer Infektion. Fortschritte in der Schnellerkennungstechnologie haben neue Möglichkeiten zur Verbesserung des Zugangs zu Tests und Versorgung sowie zur Überwachung der Behandlung geschaffen. Dieser Artikel untersucht eine Reihe anderer technologischer Innovationen, die genutzt werden können, um kostengünstigere und einfachere Ansätze für die Untersuchung auf HBV- und HCV-Infektionen und die Überwachung des Behandlungserfolgs bereitzustellen. Dazu gehören ein verbesserter Zugang zu Tests durch alternative Probenahmemethoden (Verwendung von getrockneten Blutflecken, Mundflüssigkeit, Selbsttest) und kombinierte Schnelltests zum Nachweis einer HIV-, HBV- und HCV-Infektion, kostengünstigere Möglichkeiten zum Nachweis einer virologischen Infektion (HBV-DNA und HCV-RNA) wie Point-of-Care-Molekularassays, HCV-Core-Antigen und polyvalente molekulare Plattformen für mehrere Krankheiten, die vorhandene zentralisierte laborbasierte oder dezentralisierte TB- und HIV-Instrumente für Virushepatitis-Tests nutzen, und schließlich Verbesserungen des Gesundheitssystems wie Integration von Labordienstleistungen für Beschaffung und Probentransport und verbesserte Datenkonnektivität zur Unterstützung der Qualitätssicherung und des Lieferkettenmanagements.;-;-;-;https://link.springer.com/article/10.1186/s12879-017-2775-0 e2269c2d13e8fbd3d30077521b06f584;de;;;6.2.;;;Genexpressionsprofil des intramuskulären Muskels bei Nellore-Rindern mit extremen Fettsäurewerten Der Fettsäuretyp in Rindfleisch kann schädlich für die menschliche Gesundheit sein und hat in den letzten Jahren beträchtliche Aufmerksamkeit erregt. Das Ziel dieser Studie war es, differenziell exprimierte Gene in;-;-;-;https://link.springer.com/article/10.1186/s12864-016-3232-y fbd0df9aedc80529be605fe69a322a86;de;;;6.2.;;;Umfassende Entwicklung und Erprobung des ASIST-GBV, eines Screening-Instruments zur Reaktion auf geschlechtsspezifische Gewalt unter Frauen in humanitären Einrichtungen Von Konflikten betroffene Flüchtlinge und Binnenvertriebene (IDPs) sind einer erhöhten Anfälligkeit für geschlechtsspezifische Gewalt (GBV) ausgesetzt. Gesundheits-, psychosoziale und Schutzdienste wurden in humanitären Einrichtungen eingeführt, aber geschlechtsspezifische Gewalt wird nach wie vor zu wenig gemeldet und verfügbare Dienste werden zu wenig genutzt. Um den Zugang zu bestehenden GBV-Diensten zu verbessern und die Meldung zu erleichtern, wurde das ASIST-GBV-Screening-Tool für den Einsatz in humanitären Umgebungen entwickelt und getestet. Dieser Prozess wurde in vier Phasen abgeschlossen: 1) systematische Literaturrecherche, 2) qualitative Forschung, die Einzelinterviews und Fokusgruppen mit geschlechtsspezifischen Opfern bzw. Dienstleistern umfasste, 3) Pilottests des entwickelten Screening-Tools und 4) 3 Monate Implementierungstests des Screening-Tools. Es wurden Untersuchungen an weiblichen Flüchtlingen im Alter von 15 Jahren in Äthiopien und weiblichen Binnenvertriebenen im Alter von ≥ 18 Jahren in Kolumbien durchgeführt.;-;-;-;https://link.springer.com/article/10.1186/s13031-016-0071-z e74c7ce5e191730b5f5ea72246474bd4;de;;;6.2.;;;Asthmafrüherkennung bei Kleinkindern durch nicht-invasive Biomarker der Atemwegsentzündung und frühe Lungenfunktionsmessungen: Studienprotokoll einer Fall-Kontroll-Studie Asthma ist die häufigste chronische Erkrankung im Kindesalter, die durch eine chronische Atemwegsentzündung gekennzeichnet ist. Es gibt Probleme mit der Asthmadiagnose bei Kleinkindern, da die Mehrheit der Kinder mit wiederkehrenden asthmaähnlichen Symptomen mit 6 Jahren symptomfrei ist und kein Asthma hat. Eine Unterscheidung zwischen Vorschulkindern mit vorübergehenden Symptomen und Kindern mit Asthma ist mit den herkömmlichen diagnostischen Mitteln nicht möglich. Die Analyse von Biomarkern für Atemwegsentzündungen in der Ausatemluft ist eine nicht-invasive und vielversprechende Technik zur Asthmadiagnose und Entzündungsüberwachung bei Kleinkindern. Darüber hinaus stehen für Kleinkinder relativ neue Lungenfunktionstests (Atemwegswiderstand mittels Unterbrechertechnik) zur Verfügung. Das primäre Ziel der ADEM-Studie (Asthma DEtection and Monitoring study) ist die Entwicklung eines nicht-invasiven Instruments zur Asthma-Frühdiagnose bei Kleinkindern unter Verwendung ausgeatmeter Entzündungsmarker und früher Lungenfunktionsmessungen. Darüber hinaus werden ätiologische Faktoren, einschließlich Genpolymorphismen und Genexpressionsprofile, in Bezug auf die Entwicklung von Asthma untersucht.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-9-210 ba388773a429332f5f67800ac4fc1620;de;;;6.2.;;;Frauenkrebs in China: eine räumlich-zeitliche epidemiologische Analyse Frauenkrebs, vertreten durch Brust- und gynäkologischen Krebs, stellt sich als eine bedeutende Bedrohung für die Gesundheit von Frauen heraus, während frühere Studien der räumlichen Verteilung von Krebserkrankungen bei Frauen wenig Aufmerksamkeit gewidmet haben. Diese Studie zielt darauf ab, eine räumlich-zeitliche epidemiologische Analyse von Brust-, Gebärmutterhals- und Eierstockkrebs in China durchzuführen, um so ihre epidemiologischen Trends und raum-zeitlichen Veränderungsmuster zu visualisieren und zu vergleichen.;-;-;-;https://link.springer.com/article/10.1186/s12905-021-01260-1 667b5b224d5db78f538aa19138e5dcf6;de;;;6.2.;;;Nachverfolgung der humanitären Finanzierung für reproduktive Gesundheit: eine systematische Analyse der Gesundheits- und Schutzvorschläge von 2002-2013 Die interinstitutionelle Arbeitsgruppe für reproduktive Gesundheit in Krisen führte eine zehnjährige globale Evaluierung der reproduktiven Gesundheit in humanitären Umgebungen durch. Dieses Papier untersucht Vorschläge für Aktivitäten im Bereich der reproduktiven Gesundheit im Rahmen der Finanzierungsmechanismen für humanitäre Gesundheit und Schutz für den Zeitraum 2002-2013 und die Höhe, auf der diese Vorschläge zur reproduktiven Gesundheit finanziert wurden.;-;-;-;https://link.springer.com/article/10.1186/1752-1505-9-S1-S2 330888d63ec95bd1141740ecd3be5da2;de;;;6.2.;;;Auswirkungen gemischter Anbieter-Zahlungssysteme und abgestimmter Kostenteilungspraktiken auf das Ausgabenwachstumsmanagement, die Effizienz und die Gerechtigkeit: eine strukturierte Überprüfung der Literatur Der strategische Einkauf von Gesundheitsdiensten ist zu einer zentralen politischen Maßnahme auf dem Weg zur Verwirklichung einer universellen Gesundheitsversorgung geworden. Nationale Anbieter-Zahlungssysteme für Gesundheitsdienste sind typischerweise durch eine Mischung von Anbieter-Zahlungsmethoden gekennzeichnet, wobei jede Methode mit unterschiedlichen Anreizen für das Anbieterverhalten verbunden ist. Eine methodenübergreifende Anreizausrichtung ist entscheidend für die Steigerung der Effektivität des strategischen Einkaufs.;-;-;-;https://link.springer.com/article/10.1186/s12913-018-3779-1 b3c4bd7c6649ca22b254d96844f0c7df;de;;;6.2.;;;Sollten wir randomisierte kontrollierte Studien in Aktionsforschung einbetten: Argumentation aus einer Fallstudie zum Telemonitoring Aktionsforschung (AR) und randomisierte kontrollierte Studien (RCTs) gelten in der Regel als theoretisch und praktisch unvereinbar. Wir argumentieren jedoch, dass sich ihre jeweiligen Stärken und Schwächen ergänzen können. Wir illustrieren unsere Argumentation aus einer aktuellen Studie, in der die Auswirkungen von Telemonitoring auf die gesundheitsbezogene Lebensqualität, Selbstversorgung, Krankenhausnutzung, Kosten und Erfahrungen von Patienten, informellen Pflegekräften und Angehörigen der Gesundheitsberufe in zwei städtischen Krankenhausdiensten und einem abgelegenen ländlichen Gebiet untersucht wurden Grundversorgung in Neuseeland.;-;-;-;https://link.springer.com/article/10.1186/s12874-016-0175-6 7a7eb8d892c890e06bfcea45f87f0d2b;de;;;6.2.;;;Eine Studie zum dynamischen Vergleich der Korrelationseffekte der Logistikbranche in China In der Mitte und Ende der 1990er Jahre hat die Logistikbranche ihr rasantes Wachstum zusammen mit Chinas kontinuierlich steigendem Wirtschaftsniveau beibehalten. Als grundlegende und strategische Branche ist die Logistikbranche eng mit anderen Branchen verbunden und beeinflusst von diesen und beeinflusst diese. Sie spielt eine unersetzliche Rolle bei der Gewährleistung des reibungslosen Funktionierens der Volkswirtschaft und der Befriedigung der Nachfrage der Verbraucher. Sein Entwicklungsstand wirkt sich direkt auf den der Volkswirtschaft aus.;-;-;-;https://link.springer.com/article/10.1186/s40589-017-0059-x 0eb1bfe66b045d2d0f312cfaf83b8f5b;de;;;6.2.;;;Extrahieren von semantisch angereicherten Ereignissen aus der biomedizinischen Literatur Die Erforschung von ereignisbasiertem Text-Mining aus der biomedizinischen Literatur wird immer beliebter, um die Entwicklung fortschrittlicher biomedizinischer Text-Mining-Systeme zu erleichtern. Diese Technologie ermöglicht eine erweiterte Suche, die über die dokument- oder satzbasierte Suche hinausgeht. Bestehende ereignisbasierte Systeme ignorieren jedoch typischerweise zusätzliche Informationen im textuellen Kontext von Ereignissen, die unter anderem bestimmen können, ob ein Ereignis eine Tatsache, eine Hypothese, ein experimentelles Ergebnis oder eine Ergebnisanalyse darstellt, ob es neues oder zuvor berichtetes Wissen beschreibt und ob es spekuliert oder negiert wird. Wir beziehen uns auf solche Kontextinformationen wie;-;-;-;https://link.springer.com/article/10.1186/1471-2105-13-108 a7d221e0c515c0baf3113c48cef2a8c6;de;;;6.2.;;;Malariakontrolle und Prävention bis hin zur Eliminierung: Daten aus einer elfjährigen Überwachung in der Provinz Shandong, China Die Provinz Shandong verzeichnete einen rückläufigen Malariatrend der lokal erworbenen Übertragung, aber die zunehmende importierte Malaria bleibt eine Herausforderung. Daher ist das Verständnis der epidemiologischen Merkmale der Malaria sowie der Kontroll- und Eliminierungsstrategie und Interventionen für eine bessere Planung erforderlich, um das Gesamtziel der Eliminierung in der Provinz Shandong zu erreichen.;-;-;-;https://link.springer.com/article/10.1186/s12936-017-1708-0 1ceeb0dfbf80eedf6b5ed3aeee6b5c12;de;;;6.2.;;;Einstellungen von Gesundheitsdienstleistern zur Problemliste in einer elektronischen Patientenakte: eine qualitative Mixed-Methods-Studie Die Problemliste ist ein wichtiger Bestandteil der elektronischen Gesundheitsakte (EHR), die es Ärzten ermöglicht, die Diagnosen und Gesundheitsprobleme eines Patienten einzusehen. Da der Inhalt der Problemliste jedoch weitgehend die subjektiven Entscheidungen derjenigen darstellt, die sie bearbeiten, sind die Problemlisten der Patienten oft unzuverlässig, wenn sie von Ärzten geteilt werden. Das Fehlen von Standards für die Zusammenstellung der Problemliste in der EHR schränkt ihre Wirksamkeit bei der Verbesserung der Patientenversorgung ein, insbesondere als Ressource für klinische Entscheidungsunterstützung und Instrumente zum Bevölkerungsmanagement. Der Zweck dieser Studie besteht darin, die Meinungen von Ärzten zur Problemliste und die Logik hinter ihren Entscheidungen in klinischen Situationen zu ermitteln.;-;-;-;https://link.springer.com/article/10.1186/1472-6947-12-127 de96dadcc2ad4d4e9ec637834b26f55f;de;;;6.2.;;;Kostenloser und universeller Zugang zur medizinischen Grundversorgung in der Mongolei: die Bewertung der Verfügbarkeit und Bereitschaft der Dienste Die Regierung der Mongolei schreibt ihren Bürgern den freien Zugang zur primären Gesundheitsversorgung (PHC) vor. Es gibt jedoch keine Beweise für das physische Vorhandensein von PHC-Diensten in Gesundheitseinrichtungen. Daher wurde in der vorliegenden Studie anhand eines standardisierten Bewertungsinstruments der Weltgesundheitsorganisation (WHO) die Fähigkeit von Gesundheitseinrichtungen bewertet, grundlegende Leistungen zu Mindeststandards bereitzustellen.;-;-;-;https://link.springer.com/article/10.1186/s12913-019-3932-5 f0d1b325874d5306a8121760cb4678ce;de;;;6.2.;;;Der Einfluss der Regional Coordinating Unit des Abidjan-Übereinkommens: Umsetzung multilateraler Umweltabkommen zur Vermeidung von Schiffsverschmutzung in West- und Zentralafrika Die regionale Koordinierungsstelle des Übereinkommens für die Zusammenarbeit beim Schutz und der Entwicklung der Meeres- und Küstenumwelt für West- und Zentralafrika (Abidjan-Übereinkommen) hat mehrere multilaterale Umweltabkommen unter seinen Fittichen, darunter auch solche, die sich mit der Verschmutzung der Seeschifffahrt befassen. Die Schifffahrt hat potenziell negative Auswirkungen auf die Meeresfauna und -flora und die Luftqualität mit Auswirkungen auf die öffentliche Gesundheit. Die Regionale Koordinierungsstelle versucht, die Umsetzung der Abidjan-Konvention durch die Parteienstaaten durch die Zusammenarbeit mit staatlichen Akteuren zu stärken, wobei verschiedene Wege auf der Grundlage ihrer internen Ressourcen und Kompetenzen genutzt werden, aber die Abteilung beginnt auch, die Zusammenarbeit mit potenziellen nichtstaatlichen Akteuren zu untersuchen. Die Einflussmöglichkeiten der Einheit auf die Umsetzung werden durch die inländischen politisch-administrativen Institutionen eingeschränkt. Dieses Papier versucht, den Einfluss der regionalen Koordinierungsstelle auf die Umsetzung der Abidjan-Konvention im Bereich der Schiffsverschmutzung zu verstehen. Es verwendet drei theoretische Perspektiven für die Analyse: den Einfluss internationaler Umweltbürokratien, nationale Regulierungspolitik und transnationale Governance. Das Papier zeigt, wie sich diese Theorien ergänzen, da der Einfluss internationaler Bürokratien wie der Regional Coordinating Unit nicht allein durch organisationsinterne Faktoren angemessen verstanden werden kann, sondern auch in Bezug auf externe Faktoren analysiert werden muss, sowohl inländische politisch-institutionelle in stellt fest, dass internationale Bürokratien mit und die Rolle relevanter nichtstaatlicher Akteure bei der Umsetzung multilateraler Umweltabkommen. Es wird der Schluss gezogen, dass, obwohl der Einfluss nicht direkt gemessen werden kann, es wahrscheinlich ist, dass der Einfluss der regionalen Koordinierungsstelle durch ihre auf Autonomie ausgerichteten Bemühungen ziemlich stark ist, aber durch die traditionelle staatszentrierte Verantwortung für die Umsetzung internationaler Rechtsinstrumente, bei denen die nationale Regulierungspolitik es mangelt an ausreichendem politischen Willen und an Unterstützung durch und Engagement mit nichtstaatlichen Akteuren.;-;-;-;https://link.springer.com/article/10.1007/s10784-018-9399-8 be9c02033900668cb4b8975ee80559dc;de;;;6.2.;;;Dichtebasierte parallele Erkennung von Hautläsionsgrenzen mit webCL Die Dermatoskopie ist ein hochwirksames und nichtinvasives bildgebendes Verfahren zur Diagnose von Melanomen und anderen pigmentierten Hautläsionen. Viele Aspekte der betrachteten Läsion werden in Bezug auf die Läsionsgrenze definiert. Damit ist die Grenzerkennung einer der wichtigsten Schritte in der dermatoskopischen Bildanalyse. In der gegenwärtigen Praxis ziehen Dermatologen Grenzen oft durch eine handgezeichnete Darstellung basierend auf einer visuellen Inspektion. Aufgrund der subjektiven Natur dieser Technik sind Variationen innerhalb und zwischen Beobachtern üblich. Aus diesem Grund ist die automatisierte Beurteilung von Läsionsgrenzen in dermatoskopischen Bildern zu einem wichtigen Forschungsgebiet geworden.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-16-S13-S5 abfc6c69d461483102575ae27a32e62e;de;;;6.2.;;;Der Zusammenhang zwischen Luftverschmutzung und Geburtsfehlern bei fünf großen ethnischen Gruppen in Liuzhou, China Studien deuten darauf hin, dass die Exposition gegenüber Luftverschmutzung während der Schwangerschaft mit einem erhöhten Risiko für Geburtsfehler (BDs) verbunden sein kann, aber die Schlussfolgerungen waren widersprüchlich. Diese Studie beschreibt die ethnische Verteilung der wichtigsten BDs und untersucht die Beziehung zwischen Luftverschmutzung und BDs zwischen verschiedenen ethnischen Gruppen in der Stadt Liuzhou, China.;-;-;-;https://link.springer.com/article/10.1186/s12887-021-02687-z d16c21356abde53b3d680a3ce3b4e852;de;;;6.2.;;;Eine Interventionsentwicklung zur Beendigung des Shisha-Rauchens bei iranischen Frauen: Studienprotokoll für einen systematischen und theoriebasierten Ansatz zum Interventionsdesign Das Rauchen von Wasserpfeifen ist ein aufstrebendes globales Gesundheitsproblem, insbesondere im östlichen Mittelmeerraum, und dementsprechend stehen Frauen im Mittelpunkt dieses Problems, da sie eine positivere Einstellung zum Wasserpfeifenrauchen haben. Außerdem steigt die Rate des Shisha-Rauchens bei Frauen schneller als bei Männern. Ziel der vorliegenden Studie ist die systematische Konzeption und Umsetzung eines pädagogischen Interventionsprogramms zur Raucherentwöhnung bei Frauen ab 15 Jahren in der südiranischen Stadt Bandar Abbas.;-;-;-;https://link.springer.com/article/10.1186/s13722-020-0184-y b02a7c34f36dc21f29667081dfa78662;de;;;6.2.;;;Subsistenz vor Symbolik: Die Rolle transnationaler kommunaler Netzwerke für die Innovation und Akzeptanz von Städten in der Klimapolitik Städtische Gebiete sind für den Großteil der globalen Treibhausgasemissionen verantwortlich, und zunehmend sind es die Stadtregierungen, die Maßnahmen zum Klimaschutz verabschieden und umsetzen. Viele Kommunalverwaltungen haben sich zwei verschiedenen globalen Städtenetzwerken angeschlossen, die darauf abzielen, die Entwicklung der Klimapolitik auf urbaner Ebene zu fördern, und es gibt qualitative Hinweise darauf, dass solche Netzwerke eine wichtige Rolle dabei spielen, Städte zu motivieren, Klimapolitik zu übernehmen und sie bei der Umsetzung zu unterstützen. Unser Studienziel ist es, diese These quantitativ zu überprüfen, indem wir eine globale Datenbank zur Umweltpolitik der Städte nutzen und auch eine Vielzahl anderer Faktoren berücksichtigen, die bei der Annahme der Klimapolitik eine Rolle spielen könnten. Unter Berücksichtigung dieser anderen Faktoren stellen wir fest, dass die Mitgliedschaft im Netzwerk einen signifikanten Unterschied in der Anzahl der verschiedenen Maßnahmen ausmacht, die Stadtregierungen ergreifen. Wir stellen auch fest, dass zwischen den beiden verschiedenen Netzwerken erhebliche Unterschiede bestehen, was darauf hindeutet, dass die Art der Dienste, die diese Netzwerke ihren Mitgliedern anbieten, eine wichtige Rolle spielen kann. Unsere Ergebnisse führen zu einer Reihe von globalen Klimaschutzstrategien: Erstens kann der Beitritt zu den Stadtnetzwerken zu einer Generierung globaler Strategien führen, die zu einem Nutzen für den Klimaschutz führen können. Die Städte müssen jedoch das Netzwerk auswählen, das geeignete maßgeschneiderte Richtlinien bietet. Zweitens legen Städtenetzwerke in Ermangelung konkreter internationaler Verpflichtungen auf lokaler Ebene die Grundlage für eine globale Regierungsführung und ermöglichen es Städten, unabhängig und proaktiv politische Maßnahmen zu ergreifen. Drittens kann die Berücksichtigung des Nebennutzens der Klimapolitik die Entwicklung globaler Strategien optimieren.;-;-;-;https://link.springer.com/article/10.1007/s11027-017-9747-y 79ea264aa2ee137a057ac38a4c511721;de;;;6.2.;;;Ergebnisse parasitologischer Untersuchungen von Kotproben von Katzen und Hunden in Deutschland in den Jahren 2003 bis 2010 In einer retrospektiven Studie wurden die Ergebnisse parasitologischer Untersuchungen von Kotproben von 8.560 Katzen und 24.677 Hunden zwischen Januar 2003 und Dezember 2010 in Deutschland ausgewertet. 30,4 % der untersuchten Hunde und 22,8 % der Katzen waren mit Endoparasiten infiziert. Die Untersuchung der Kotproben von Hunden ergab Stadien von;-;-;-;https://link.springer.com/article/10.1007/s00436-011-2402-8 6d1fab8966b7bf5c4044162b7ac96056;de;;;6.2.;;;Änderung der Praxis in der Pflege chronischer Erkrankungen: eine Bewertung von Theorien Die Behandlung chronischer Erkrankungen kann für die Patienten komplex und mühsam und für die Gesundheitssysteme komplex und kostspielig sein. Die Ergebnisse könnten verbessert und die Kosten gesenkt werden, wenn bewährte klinische Interventionen besser umgesetzt würden, aber die Komplexität chronischer Pflegedienste scheint den klinischen Wandel besonders schwierig zu machen. Die explizite Verwendung von Theorien kann den Erfolg des klinischen Wandels in diesem Versorgungsbereich verbessern. Während Theorien zur Unterstützung der Umsetzung des Praxiswandels im weiten Bereich des Gesundheitswesens offensichtlich sind, wurden die am besten anwendbaren Theorien für die Komplexität des Praxiswandels in der chronischen Versorgung noch nicht identifiziert.;-;-;-;https://link.springer.com/article/10.1186/s12913-017-2102-x d03967d5157c34fcda997cfa9483cdbc;de;;;6.2.;;;Indivo: eine persönlich kontrollierte Gesundheitsakte für den Austausch und die Kommunikation von Gesundheitsinformationen Persönlich kontrollierte Gesundheitsakten (PCHRs), eine Untermenge von persönlichen Gesundheitsakten (PHRs), ermöglichen es einem Patienten, eine sichere Kopie seiner medizinischen Daten zusammenzustellen, zu verwalten und zu verwalten. Indivo (ehemals PING) ist ein Open-Source-PCHR mit offenen Standards und einer offenen Anwendungsprogrammierschnittstelle (API).;-;-;-;https://link.springer.com/article/10.1186/1472-6947-7-25 79600388c9b39998a102f7a7b17819d9;de;;;6.2.;;;Die Wirksamkeit und Sicherheit einer Induktionschemotherapie in Kombination mit einer gleichzeitigen Radiochemotherapie im Vergleich zu einer gleichzeitigen Radiochemotherapie allein bei Patienten mit Nasopharynxkarzinom: eine systematische Überprüfung und Metaanalyse Eine Induktionschemotherapie (IC) in Kombination mit einer gleichzeitigen Radiochemotherapie (CCRT) wurde als Erstlinientherapie für das lokoregionäre Nasopharynxkarzinom (NPC) empfohlen. Aufgrund der unterschiedlichen Chemotherapeutika, die in der IC und CCRT verwendet werden, bleiben die Ergebnisse umstritten.;-;-;-;https://link.springer.com/article/10.1186/s12885-020-06912-3 7c45253b0c72dc6c481238288d6eeac3;de;;;6.2.;;;Häufige genetische Varianten erklären den Großteil der Korrelation zwischen Körpergröße und Intelligenz: Die Generation Scotland-Studie Größere Körpergröße und höhere Intelligenztestergebnisse sind Prädiktoren für bessere Gesundheitsergebnisse. Hier haben wir molekulare Daten (Single-Nukleotid-Polymorphismus) verwendet, um die genetische Korrelation zwischen Körpergröße und allgemeiner Intelligenz (g) bei 6.815 nicht verwandten Probanden (mittleres Alter 57, IQR 49–63) aus der Kohorte Generation Scotland: Scottish Family Health Study zu schätzen. Die phänotypische Korrelation zwischen Körpergröße und g betrug 0,16 (SE 0,01). Die genetische Korrelation zwischen Körpergröße und g betrug 0,28 (SE 0,09) mit einer bivariaten Heritabilitätsschätzung von 0,71. Das Verständnis der molekularen Grundlage der Korrelation zwischen Körpergröße und Intelligenz kann helfen, jede gemeinsame Rolle bei der Bestimmung von Gesundheitsergebnissen zu erklären. Diese Studie identifizierte eine bescheidene genetische Korrelation zwischen Größe und Intelligenz, wobei der Großteil der phänotypischen Korrelation durch gemeinsame genetische Einflüsse erklärt wird.;-;-;-;https://link.springer.com/article/10.1007/s10519-014-9644-z 54e77ef13d840378e043e4ca1db7f3dd;de;;;6.2.;;;Hybride Modellierung von Intelligenz und sprachlichen Faktoren als Prädiktoren für die L2-Schreibqualität: Ein SEM-Ansatz Das Ziel dieser Arbeit war es, die Rolle von sprachlichen und Intelligenzfaktoren beim L2-Schreiben zu untersuchen. Die Stichprobe umfasste 347 iranische Englischlerner. Sechs Tests wurden durchgeführt, um die Grammatikkenntnisse, die Tiefe des Wortschatzes, den Wortschatz, die verbale Intelligenz, die narrative Intelligenz und die Schreibfähigkeit der Teilnehmer zu messen. Zwei REM-Modelle wurden miteinander verglichen. Modell 1 umfasste nur Grammatikkenntnisse, Tiefe und Breite des Wortschatzes als sprachliche Faktoren des Schreibens. Das von den Forschern vorgeschlagene Modell 2 umfasste auch verbale und narrative Intelligenzen. Die Modelle wurden dann mit den Daten verknüpft, um zu sehen, welches besser passt. Die Ergebnisse der Strukturgleichungsmodellierung zeigen, dass Modell 2 bessere Anpassungsindizes aufweist, die bessere Parameterschätzungen ermöglichen. Abschließend werden die Anwendungen und Implikationen der Ergebnisse für die L2-Schreibpädagogik und -bewertung diskutiert.;-;-;-;https://link.springer.com/article/10.1186/2229-0443-2-3-53 a03b0f0a21806556f308b880c93de336;de;;;6.2.;;;Sozio-ökologische Dynamiken und Herausforderungen für die Governance der Kontrolle vernachlässigter Tropenkrankheiten Die aktuellen weltweiten Versuche, die sogenannten „Vernachlässigten Tropenkrankheiten (NTDs)“ zu kontrollieren, haben das Potenzial, die Morbidität einiger der ärmsten Gemeinschaften der Welt deutlich zu reduzieren. Die Steuerung dieser Kontrollprogramme wird jedoch von einer Managementrationalität bestimmt, die die Vorhersehbarkeit der vorgeschlagenen Interventionen voraussetzt und daher in erster Linie darauf abzielt, die Kostenwirksamkeit der Umsetzung durch Messung der Leistung in Bezug auf vorbestimmte Ergebnisse zu verbessern. Hier argumentieren wir, dass dieser Ansatz das enge, normalwissenschaftliche Modell zur Kontrolle parasitärer Erkrankungen verstärkt hat und dabei die komplexe Dynamik, Unsicherheit und sozioökologische Kontextspezifität, die ausnahmslos der Übertragung von Parasiten zugrunde liegen, nicht berücksichtigt. Wir schlagen vor, dass ein neuer Governance-Ansatz erforderlich ist, der auf einer Kombination von Nicht-Gleichgewichts-Denken über die Funktionsweise komplexer, adaptiver Systeme aus den Naturwissenschaften und konstruktivistischen sozialwissenschaftlichen Perspektiven beruht, die die Akkumulation wissenschaftlichen Wissens als abhängig von historischen Interessen betrachten und Normen, wenn wirksamere Kontrollansätze entwickelt, angewendet und verwaltet werden sollen, die für den lokalen Krankheitskontext ausreichend sensibel sind. Im Zentrum dieses Ansatzes steht die Betonung der Notwendigkeit eines Prozesses, der die Einbeziehung unterschiedlicher Perspektiven, des sozialen Lernens und der Deliberation unterstützt, sowie ein reflexiver Ansatz zum Umgang mit Systemkomplexität und Unsicherheit, während diese Flexibilität mit stabilitätsorientierten Strukturen in Einklang gebracht wird. Wir leiten einen möglichen Governance-Rahmen ab und diskutieren diesen und skizzieren eine Organisationsstruktur, die verwendet werden könnte, um effektiv mit der Komplexität einer globalen NTD-Kontrolle umzugehen. Wir weisen auch auf Beispiele für komplexitätsbasierte Managementstrukturen hin, die zuvor in der Parasitenkontrolle verwendet wurden, die als praktische Vorlagen für die Entwicklung ähnlicher Governance-Strukturen dienen könnten, um die globale NTD-Kontrolle besser zu verwalten. Unsere Ergebnisse haben wichtige weiterreichende Auswirkungen auf die globale Gesundheitspolitik, die darauf abzielt, parasitäre Krankheiten auf der ganzen Welt effektiv zu kontrollieren und auszurotten.;-;-;-;https://link.springer.com/article/10.1186/s40249-016-0235-5 446a1e3c90c8fc5d4d17f1870beca780;de;;;6.2.;;;Innovation in der Erbringung von Gesundheitsdiensten: Integration von Gemeindegesundheitsassistenten in das Gesundheitssystem auf Bezirksebene in Sambia Um die enormen personellen Ressourcen für die Gesundheitslücke in Sambia zu schließen, hat das Gesundheitsministerium 2010 die National Community Health Assistant Strategy ins Leben gerufen Gesundheitsassistenten (CHA). Die Literatur deutet jedoch darauf hin, dass der Integrationsprozess nationaler gemeindebasierter Gesundheitspersonalprogramme in die Gesundheitssysteme nicht optimal war. Konzeptionell geprägt durch die Verbreitung der Innovationstheorie, zielte dieses Papier qualitativ darauf ab, die Faktoren zu untersuchen, die die Akzeptanz und Einführung von CHAs in das Gesundheitssystem auf Distriktebene in Sambia während der Pilotphase geprägt haben.;-;-;-;https://link.springer.com/article/10.1186/s12913-015-0696-4 26ac4bbe135be8b8a7c599f207e0be59;de;;;6.2.;;;Elektrolyte für Hochenergie-Lithiumbatterien Von wässrigen Flüssigelektrolyten für Lithium-Luft-Zellen bis hin zu ionischen Flüssigelektrolyten, die ein kontinuierliches Hochraten von Sekundärbatterien mit metallischen Lithiumanoden ermöglichen, zeigen wir, dass viele der wichtigsten Hindernisse für den Fortschritt bei der Entwicklung von Batterien der nächsten Generation mit hohen spezifischen Energienenergie mit Cleaver-Designs des Elektrolyten überwunden werden. Kombiniert man diese Designs mit ausgeklügelten Elektrodenkonfigurationen, die chemische Wechselwirkungen zwischen Elektrolyt und Elektrode kontrollieren, oder mit einfachen auf Additiven basierenden Schemata zur Manipulation des physikalischen Kontakts zwischen Elektrolyt und Elektrode, zeigen wir weiter, dass wiederaufladbare Batteriekonfigurationen leicht entworfen werden können wünschenswerte Sicherheit, Energiedichte und Fahrleistung.;-;-;-;https://link.springer.com/article/10.1007/s13204-011-0044-x a266c92cefb02de48fa3412e19ede5e9;de;;;6.2.;;;Korpus-Refactoring: eine Machbarkeitsstudie Die meisten biomedizinischen Korpora wurden nicht außerhalb des Labors verwendet, das sie erstellt hat, obwohl die Verfügbarkeit der von ihnen bereitgestellten Goldstandard-Bewertungsdaten einer der geschwindigkeitsbegrenzenden Faktoren für den Fortschritt des biomedizinischen Text-Mining ist. Die Daten legen nahe, dass ein Hauptfaktor, der die Verwendung eines Korpus außerhalb seines Heimlabors beeinflusst, das Format ist, in dem es verteilt wird. Dieses Papier testet die Hypothese, dass;-;-;-;https://link.springer.com/article/10.1186/1747-5333-2-4 58850249de5ed5595a281ad4bfeb41fd;de;;;6.2.;;;Entwicklung und Evaluation der Teamfähigkeit im universitären Kontext. Sind virtuelle Umgebungen effektiv? Soft Skills beziehen sich auf die persönlichen Kompetenzen, die die Art und Weise, wie wir mit Menschen interagieren, beeinflussen und sie umfassen Aspekte wie Kommunikation, Zuhören, Verhandeln, Teamarbeit, Führung, Ethik, Engagement usw. (Computerworld 35:24, 2001, Dubrin, Coaching and Mentoring Skills (NetEffect Series), 2004, J Soc Work Pract 14:149-158, 2000, InfoWorld 20:104, 1998, J Coll Teach Learn 2:1-6, 2005, Comput Can 24:21-22, 1998, Waller , Soft Skills für Juristen, 2007). Die Rolle von Soft Skills in Bezug auf persönliches Wachstum, Beschäftigungsfähigkeit, soziale Entwicklung, soziale Teilhabe, Anpassung an Veränderungen usw. ist weithin anerkannt, obwohl keine Einigkeit über die unterschiedliche Bedeutung einiger Soft Skills gegenüber anderen besteht. Letzterer Punkt ist jedoch relativ, da er vom Referenzbereich abhängt. Trotz der Tatsache, dass diese Kompetenzen auf dem Arbeitsmarkt sehr geschätzt werden, scheinen Universitäten diese Nachfrage während des gesamten Ausbildungsprozesses der Studierenden zu übersehen, und der Entwicklung und Bewertung dieser Kompetenzen wurde nur wenig Aufmerksamkeit geschenkt. Darüber hinaus haben die zunehmende Betonung des Einsatzes von IKT in der Hochschulbildung und ein allmählicher Trend zu gemischten Lernumgebungen und virtuellen Umgebungen die Entwicklung dieser Kompetenzen verhindert, da angenommen wird, dass sie die persönliche Interaktion zwischen Klassenkameraden und zwischen Schülern und Lehrern erfordern . Diese Studie präsentiert die Ergebnisse eines innovativen Vorschlags, der darauf abzielt, diese Barrieren zu überwinden, indem er sich auf die Förderung des Lernens und der Bewertung von Teamfähigkeiten in virtuellen Umgebungen konzentriert. Diese Ergebnisse belegen die Eignung des Programms, diese Fähigkeiten in einer B-Learning-Umgebung zu entwickeln und zu evaluieren.;-;-;-;https://link.springer.com/article/10.1186/s41239-016-0014-1 d740155dfe58dea9bd09326ddbd8cf1e;de;;;6.2.;;;Verkürzung der Zeit bis zur Einheit bei Patienten, die an eine ambulante Schlaganfall-Beurteilungseinheit überwiesen wurden, mit einem neuartigen Triage-Verfahren: eine prospektive Kohortenstudie Bewertung der Leistung eines neuartigen Triage-Systems für Einheiten mit vorübergehender ischämischer Attacke (TIA), das auf einer bestehenden klinischen Vorhersageregel (HLW) basiert, um die Zeit bis zum Eintreffen der Einheit relativ zum Zeitpunkt des Auftretens der Symptome bei Patienten mit echter TIA und leichten Schlaganfällen zu verkürzen. Die Unterscheidung zwischen echten und falschen Fällen von TIA/kleiner Schlaganfall (Mimics) ist für eine effektive Triage notwendig, da medizinische Interventionen bei echter TIA/kleiner Schlaganfall zeitkritisch sind und TIA-Einheiten eine begrenzte Ressource sind.;-;-;-;https://link.springer.com/article/10.1186/s12913-018-2952-x 105c12e225342a4189cbda817a9c51af;de;;;6.2.;;;Regionale Ansätze zur Verbesserung der Bildung im Pazifik und die Rolle der University of the South Pacific Regionale Zusammenarbeit kann viel bei der Bewältigung der Herausforderungen bei der Verbesserung des Humankapitals bieten, insbesondere für Länder wie kleine verstreute Inselwirtschaften im Pazifik. Beispielsweise nutzte die Region Südpazifik die University of the South Pacific (USP), um den Zugang zur Hochschulbildung durch verbesserte regionale Campusse zu erweitern. Als eine von weltweit nur zwei Universitäten dieser Art befindet sich die USP im gemeinsamen Besitz der Regierungen von 12 pazifischen Inselstaaten. Unter dem Dach einer einzigen Universität sind die regionale Zusammenarbeit und der Austausch von Lehren und bewährten Praktiken auf Landesebene wertvoll für die Verbesserung der Qualität der Hochschulbildung in der gesamten Region. Das regionale Modell der Universität ermöglicht auch eine höhere Effizienz in kleinen, eingeschränkten Volkswirtschaften, in denen Ressourcen effektiver für andere Prioritäten wie die Grundbildung verwendet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7018-6_21 b56636f605966e9c1670077ef97ab224;de;;;6.2.;;;Faktoren, die die RFID-Einführung in der Vertriebsbranche für landwirtschaftliche Produkte beeinflussen: empirische Beweise aus China Wir führten eine explorative Untersuchung der Faktoren durch, die die Einführung von Methoden der Radiofrequenz-Identifikation (RFID) in der Vertriebsindustrie für landwirtschaftliche Produkte beeinflussen. Durch eine Literaturrecherche und Feldforschung und basierend auf dem theoretischen Rahmen für Technologie-Organisation-Umwelt (TOE) analysiert dieses Papier Faktoren, die die RFID-Einführung in der Agrarproduktvertriebsbranche in Bezug auf drei Kontexte beeinflussen: technologische, organisatorische und ökologische Kontexte. Eine empirische Analyse des EVG-Rahmens wurde durch Anwendung von Strukturgleichungsmodellen basierend auf tatsächlichen Daten aus einer Fragebogenerhebung über die Vertriebsindustrie für landwirtschaftliche Produkte in China durchgeführt. Die Ergebnisse zeigen, dass Widerstand und Unsicherheit der Mitarbeiter durch das Modell nicht unterstützt werden. Technologische Kompatibilität, wahrgenommene Effektivität, Organisationsgröße, Unterstützung durch das obere Management, Vertrauen zwischen Unternehmen, technisches Wissen, Wettbewerbsdruck und Unterstützung durch die chinesische Regierung, die durch das Modell unterstützt werden, haben signifikant positive Auswirkungen auf die Einführung von RFID. Währenddessen hat die Unternehmensgröße den stärksten positiven Effekt, während der Wettbewerbsdruck den geringsten Effekt hat. Technologische Komplexität und Kosten haben deutlich negative Auswirkungen auf die RFID-Einführung, wobei die Kosten der stärkste negative Einflussfaktor sind. Diese Forschungsergebnisse werden Unternehmen in der Lieferkette für landwirtschaftliche Produkte ein besseres Verständnis der Faktoren ermöglichen, die die Einführung von RFID in der Vertriebsbranche für landwirtschaftliche Produkte beeinflussen. Darüber hinaus werden diese Ergebnisse Unternehmen dabei helfen, sich der Auswirkungen dieser Faktoren auf die RFID-Einführung bewusst zu bleiben, und helfen Unternehmen somit, genauere und rationalere Entscheidungen zu treffen, indem sie die RFID-Anwendung in der Vertriebsbranche für landwirtschaftliche Produkte fördern.;-;-;-;https://link.springer.com/article/10.1186/s40064-016-3708-x e51a8cdb4dc95d6e40ae1c7b595c238b;de;;;6.2.;;;Chemische und umweltbedingte Vektorkontrolle als Beitrag zur Eliminierung der viszeralen Leishmaniose auf dem indischen Subkontinent: Clusterrandomisierte kontrollierte Studien in Bangladesch, Indien und Nepal Bangladesch, Indien und Nepal arbeiten auf die Eliminierung der viszeralen Leishmaniose (VL) bis 2015 hin Nepal. Das Programm wird in verschiedenen Phasen durchgeführt, vom Proof-of-Concept bis zur Skalierung der Intervention. Diese Studie wurde entwickelt, um die Wirksamkeit der drei verschiedenen Interventionen für das Management von VL-Vektoren zu bewerten: Indoor-Restspritzung (IRS), langlebige mit Insektiziden behandelte Netze (LLIN) und Umweltmodifikation (EVM) durch Verputzen von Wänden mit Kalk oder Dreck.;-;-;-;https://link.springer.com/article/10.1186/1741-7015-7-54 635e64a76b065ed927325393d28223fd;de;;;6.2.;;;Integration erleben: eine qualitative Pilotstudie zu Erfahrungen von Verbrauchern und Anbietern mit integrierter primärer Gesundheitsversorgung in Australien Die Begriffe Integration und integrierte Versorgung beschreiben die komplexen, patientenzentrierten Strategien zur Verbesserung der Koordination von Gesundheitsleistungen. Es gibt Frameworks, um diese Begriffe zu konzeptualisieren, aber diese wurden aus professioneller Sicht entwickelt.;-;-;-;https://link.springer.com/article/10.1186/s12875-016-0575-z cbce7947a36e9ad6999f587f13ebf546;de;;;6.2.;;;Auswirkung einer Hyperextension des Halses (Roseposition) auf die zerebrale Blutoxygenierung bei Patienten, die sich einer rekonstruktiven Operation der Gaumenspalte unterzogen: prospektive Kohortenstudie mit Nahinfrarot-Spektroskopie Um den besten Zugang während einer Gaumenspaltenoperation zu ermöglichen, werden Kinder mit Hyperextension des Halses gelagert. Eine ausgedehnte Kopfstreckung kann bei unzureichendem Kollateralfluss eine intraoperative zerebrale Ischämie induzieren. Um die Wirkung des zerebralen Blutflusses auf die Sauerstoffversorgung des Hirngewebes zu bewerten und zu überwachen, hat sich die Nahinfrarotspektroskopie als wertvolle Methode erwiesen. Das Ziel dieser Studie war es zu evaluieren und zu quantifizieren, ob eine Hyperextension die Sauerstoffversorgung des Hirngewebes bei Kindern während einer Gaumenspaltenoperation beeinflusst.;-;-;-;https://link.springer.com/article/10.1007/s00784-019-03157-8 c56c63a9089bcc6b18319d01eebd4f58;de;;;6.2.;;;„Sie würden es nicht eilig haben, nach Hause zurückzukehren“: Bereitschaft von Patienten, an klinischen HIV/AIDS-Studien in einer klinischen und Forschungseinrichtung in Kampala, Uganda, teilzunehmen Nur wenige Studien haben Faktoren untersucht, die mit der Bereitschaft von Menschen mit HIV (PLHIV) zusammenhängen, an klinischen Studien zur HIV-Behandlung in Afrika südlich der Sahara teilzunehmen. Wir untersuchten die Faktoren, die mit der Teilnahme von Menschen mit HIV an klinischen Studien zur HIV-Behandlung in einer großen städtischen klinischen und Forschungseinrichtung in Uganda verbunden sind.;-;-;-;https://link.springer.com/article/10.1186/s12910-020-00516-z 2d4f952e15a45c9a022b7c3758c878b7;de;;;6.2.;;;Semantische Ähnlichkeit im biomedizinischen Bereich: eine Bewertung über Wissensquellen hinweg Semantische Ähnlichkeitsmaße schätzen die Ähnlichkeit zwischen Konzepten und spielen bei vielen Textverarbeitungsaufgaben eine wichtige Rolle. Ansätze zur semantischen Ähnlichkeit im biomedizinischen Bereich lassen sich grob in wissensbasierte und verteilungsbasierte Methoden unterteilen. Wissensbasierte Ansätze nutzen Wissensquellen wie Wörterbücher, Taxonomien und semantische Netzwerke und umfassen Wegfindungsmaße und intrinsische Informationsgehaltsmaße (IC). Verteilungsmaße nutzen zusätzlich zu einer Wissensquelle die Verteilung von Konzepten innerhalb eines Korpus, um Ähnlichkeiten zu berechnen, dazu gehören Korpus-IC und Kontextvektorverfahren. Frühere Bewertungen dieser Messgrößen im biomedizinischen Bereich zeigten, dass Verteilungsmaße wissensbasierte Pfadfindungsmethoden übertreffen, aber neuere Studien legten nahe, dass intrinsische IC-basierte Messgrößen die Genauigkeit von Verteilungsansätzen übertreffen. Zu den Einschränkungen früherer Bewertungen von Ähnlichkeitsmaßen im biomedizinischen Bereich zählen ihr Fokus auf die SNOMED CT-Ontologie und ihre Abhängigkeit von kleinen Benchmarks, die keine signifikanten Unterschiede zwischen der Messgenauigkeit erkennen können. Es gab nur wenige Bewertungen der relativen Leistung dieser Maßnahmen zu anderen biomedizinischen Wissensquellen wie der UMLS und zu größeren, kürzlich entwickelten semantischen Ähnlichkeits-Benchmarks.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-13-261 04675addcf98566897c000af14003399;de;;;6.2.;;;Paris am Mekong: Nutzen der Aid-Effectiveness-Agenda zur Unterstützung der Humanressourcen für Gesundheit in der Demokratischen Volksrepublik Laos Diese Studie untersucht das Potenzial der Wirksamkeit der Entwicklungshilfe zur positiven Beeinflussung der Humanressourcen für die Gesundheit in Entwicklungsländern auf der Grundlage von Forschungen, die in der Demokratischen Volksrepublik Laos (DDR Laos) durchgeführt wurden. Bemühungen um eine wirksamere Hilfeleistung – wie in der Pariser Erklärung von 2005 formuliert und kürzlich im Aktionsplan von Accra von 2008 bekräftigt – werden zu einem immer wichtigeren Bestandteil der Entwicklungsagenda. Eine allgemeine Kritik ist jedoch, dass diese Diskussionen auf Sektorebene nur begrenzte Auswirkungen haben. Humanressourcen für Gesundheit zeichnen sich durch ein reiches und komplexes Netzwerk von Interaktionen und Einflüssen aus – sowohl in der Regierung als auch in der Gebergemeinschaft. Diese Komplexität bietet ein gutes Prisma, um das Potenzial der Aid-Effectiveness-Agenda zur Unterstützung der Gesundheitsentwicklung zu bewerten und umgekehrt Möglichkeiten, die Wirkung von Aid-Effective-Ansätzen auf die Sektorebene auszudehnen.;-;-;-;https://link.springer.com/article/10.1186/1478-4491-7-16 171480c7e93d16ce0b3e2f9caa2b3ebb;de;;;6.2.;;;Die Informationspflicht: den Einfluss von Informationsdiskontinuität auf die klinische Entscheidungsfindung von Ärzten zu untersuchen Informationsdiskontinuität kann weitreichende Folgen wie medizinische Fehler, erhöhte Rehospitalisierungsraten und unerwünschte Ereignisse haben. Daher war der heilige Gral der nahtlosen Informationskontinuität im Gesundheitswesen ein Rätsel, da einige Nationen den digitalen Weg einschlagen.;-;-;-;https://link.springer.com/article/10.1186/s12911-020-01190-2 6423908e5eea6bb7a9218ba59eb2dd81;de;;;6.2.;;;Sozioökonomische Lage in der Nachbarschaft und Tuberkuloseübertragung: eine retrospektive Kohortenstudie Das derzeitige Verständnis der Genotyp-Clusterbildung bei Tuberkulose (TB) in den USA basiert auf individuellen Risikofaktoren. Diese Studie versuchte herauszufinden, ob ein gebietsbezogener sozioökonomischer Status (SES) mit einer genotypischen Clusterbildung bei kulturbestätigten TB-Fällen in Verbindung steht.;-;-;-;https://link.springer.com/article/10.1186/1471-2334-14-227 e926c8ae6424a9c75a08f9d93a3a9504;de;;;6.2.;;;Die Auswirkungen der Integration von Gesundheitsdiensten auf die Gesundheitsversorgung bei Patienten mit Typ-2-Diabetes in Nordkarelien, Finnland Die Notwendigkeit, die Pflege von Menschen mit komplexen Pflegebedürfnissen zu verbessern, hat die Reformen zur Integration von Pflegeprozessen vorangetrieben. Diese Studie untersucht die Auswirkungen der Integration von Gesundheitsdiensten auf die Gesundheitsversorgung und die Prozesse und Ergebnisse der Versorgung von Patienten mit Typ-2-Diabetes.;-;-;-;https://link.springer.com/article/10.1186/s12913-021-06059-2 41b04209c99f24763b848c26a580acc6;de;;;6.2.;;;Epidemisches Muster der Hand-Fuß-Mund-Krankheit in Xi’an, China von 2008 bis 2015 Die Hand-Fuß-Mund-Krankheit (HFMD) ist eine durch Enteroviren verursachte Infektionskrankheit, die für Länder mit hoher Inzidenz wie China eine schwere Beeinträchtigung darstellt. Die aktuelle Studie zielte darauf ab, das epidemische Muster von HFMD nach Zeit und Region im Nordwesten Chinas zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s12879-018-3624-5 5bc59b235a954fa2affbadce6b5653ab;de;;;6.2.;;;Klassifikation fortgeschrittener Stadien der Parkinson-Krankheit: Übertragung in stratifizierte Behandlungen Fortgeschrittene Stadien der Parkinson-Krankheit (advPD) stellen noch immer eine Herausforderung hinsichtlich der Klassifikation und der damit verbundenen stadienadaptierten Behandlungsempfehlungen dar. Frühere Konzepte, die advPD durch bestimmte Meilensteine ​​der motorischen Behinderung definieren, gehen offensichtlich nicht darauf ein, die zunehmend erkannte Komplexität motorischer und nicht-motorischer Symptome zu berücksichtigen und ermöglichen es nicht, der klinischen Heterogenität Rechnung zu tragen, die personalisiertere Ansätze erfordert. Daher sind tiefgreifende Phänotypisierungsansätze erforderlich, um das breite, kontinuierliche und mehrdimensionale Spektrum krankheitsbedingter motorischer und nichtmotorischer Symptome und deren Progression unter realen Bedingungen zu charakterisieren. Dies wird auch die Begründung von klinischen Versorgungs- und Therapieentscheidungen erleichtern, da Neurologen derzeit auf klinische Studien verweisen müssen, die eine Orientierung auf Gruppenebene geben, dies jedoch nicht immer den individuellen Bedürfnissen der Patienten Rechnung trägt. Hier geben wir einen Überblick über verschiedene Klassifikationen für advPD, die sich in kritischen phänotypischen Mustern niederschlagen, die differenzielle therapeutische Anpassungen erfordern. Neue Konzepte beziehen sich auch bei PD auf präzisionsmedizinische Ansätze und erste Studien zur genetischen Stratifizierung für Therapieergebnisse bieten Potenzial für objektivere Behandlungsempfehlungen. Wir definieren neuartige Behandlungsziele, die diesem Konzept entsprechen, und nutzen neue gerätebasierte Bewertungen realer Informationen zu Parkinson-Symptomen. Da diese Ansätze die Befähigung der Patienten und die Integration in Behandlungsentscheidungen erfordern, präsentieren wir Kommunikationsstrategien und Entscheidungsunterstützung auf der Grundlage neuer Technologien, um die Behandlung der advPD an die Patientenbedürfnisse und -sicherheit anzupassen.;-;-;-;https://link.springer.com/article/10.1007/s00702-017-1707-x b29d0e9b5358cc3012b679547174c9ec;de;;;6.2.;;;Unter Verbraucherkontrolle – eine Untersuchung der Einstellungen und Bedenken der Verbraucher bezüglich Nudging im Bereich des Gesundheitsverhaltens Nudging-Strategien haben in letzter Zeit die Aufmerksamkeit von Wissenschaftlern und politischen Entscheidungsträgern auf sich gezogen, weil sie das Verhalten von Menschen in großem Umfang beeinflussen können. Aber reicht die Tatsache, dass Nudges keine Wahlmöglichkeiten verbieten oder die wirtschaftlichen Anreize der Menschen signifikant verändern, aus, um zu dem Schluss zu kommen, dass Nudges implementiert werden sollten? Während dies unter Wissenschaftlern verschiedener Disziplinen diskutiert wird, bleiben die Stimmen der Verbraucher, der Zielgruppe der Nudges, ungehört. Da für die Bewertung der moralischen Angemessenheit von Nudging das Verständnis ihres Nudging-Wissens und ihre Meinung zum Nudging entscheidend sind, untersucht die aktuelle Studie das Wissen und die Einstellung der Konsumenten zu Nudging im Allgemeinen und dem Bereich des Gesundheitsverhaltens.;-;-;-;https://link.springer.com/article/10.1186/s12889-015-1691-8 159b8157de0f50fa82c7cf657a2d4ffe;de;;;6.2.;;;Perspektiven zur Optimierung der Patientenversorgung in multidisziplinären Kliniken für chronische Nierenerkrankungen Zusammenfassung eines gemeinsam veranstalteten Symposiums der Canadian Society of Nephrology (CSN), der Canadian Association of Nephrology Administrators (CANA) und des Canadian Kidney Knowledge Translation and Generation Network (CANN-NET) mit dem Titel „Perspectives on Optimizing Care of Patients in Multidisziplinary“. Clinics für chronische Nierenerkrankungen (CKD)“, die am 24.;-;-;-;https://link.springer.com/article/10.1186/s40697-016-0122-9 2d5488db938a9cbfd8cf367aaa3de71a;de;;;6.2.;;;Anwendung der Systembiologie auf die biomedizinische Forschung und das Gesundheitswesen: eine präzise Definition von Systemmedizin Systemmedizin ist zu einem Schlüsselwort in der biomedizinischen Forschung geworden. Obwohl sie oft als P4-(prädiktive, präventive, personalisierte und partizipative) Medizin bezeichnet wird, fehlt es noch an einer klaren Definition und ist offen für Interpretation. Diese konzeptionelle Unklarheit erschwert den wissenschaftlichen und öffentlichen Diskurs über Chancen, Risiken und Grenzen der Systemmedizin und kann zu unbegründeten Hoffnungen führen. Vor diesem Hintergrund war es unser Ziel, eine hinreichend genaue und allgemein akzeptable Definition der Systemmedizin zu entwickeln.;-;-;-;https://link.springer.com/article/10.1186/s12913-017-2688-z b6e3b9206cc0d47a1c2cf6055780b6c8;de;;;6.2.;;;Untersuchung der Imputation des Haplotyp-Forschungskonsortiums für genomweite Assoziationsstudien bei 20.032 Teilnehmern der Generation Scotland Die Generation Scotland: Scottish Family Health Study (GS:SFHS) ist eine familienbasierte Bevölkerungskohorte mit DNA, biologischen Proben, soziodemografischen, psychologischen und klinischen Daten von etwa 24.000 erwachsenen Freiwilligen in ganz Schottland. Obwohl die Datenerhebung querschnittlich war, wurde GS:SFHS aufgrund der Möglichkeit, mit routinemäßigen elektronischen Gesundheitsdaten (EHR) zu verknüpfen, zu einer prospektiven Kohorte. Über 20.000 Teilnehmer wurden für die Genotypisierung unter Verwendung eines großen genomweiten Arrays ausgewählt.;-;-;-;https://link.springer.com/article/10.1186/s13073-017-0414-4 c0e35273ebffe725302131a89ade8d1e;de;;;6.2.;;;Energieplanung für eine Öko-Stadt auf Basis eines dezentralen Energienetzes In China ist die traditionelle Energieplanung der Stadtplanung untergeordnet, mit dem primären Ziel, den Energiebedarf in städtischen Gebieten durch Planung und Gestaltung eines Energiesystems zu decken. Der Großteil der aktuellen Energieplanung in China bezieht sich jedoch auf ein wenig effizientes System und erweist sich als umweltunfreundlich, was für die zukünftige Entwicklung moderner Industrieparks und Städte nicht mehr angemessen ist.;-;-;-;https://link.springer.com/article/10.1186/s13705-021-00285-6 7d175092b2d5bda42f413ecfec83a98a;de;;;6.2.;;;Weibliches Geschlecht ist mit einem geringeren Risiko für Knochenmetastasen und einer günstigen Prognose bei nicht geschlechtsspezifischen Krebsarten verbunden Ziel war es, die unterschiedliche Prävalenz von Knochenmetastasen (BM) zwischen den Geschlechtern zu untersuchen und den Einfluss des weiblichen Geschlechts auf die Entwicklung und Prognose von BM zu beurteilen.;-;-;-;https://link.springer.com/article/10.1186/s12885-019-6168-1 cdf6f7f7b23dc8f40f1786052f82a7d0;de;;;6.2.;;;Ermittlung der Angemessenheit der Versorgung auf dem Weg des Patienten von der Akutversorgung bis zur Rehabilitation Die Auswahl von Patienten für die Rehabilitation und der Zeitpunkt der Verlegung aus der Akutversorgung sind wichtige klinische Entscheidungen, die sich auf die Versorgungsqualität und den Patientenfluss auswirken. Dieses Papier berichtet über Nutzungsbewertungsdaten von stationären Patienten in der Akutversorgung mit Schlaganfall, Hüftfraktur oder elektivem Gelenkersatz und anderen stationären Patienten, die zur Rehabilitation überwiesen werden. Es untersucht die Gründe, warum die Akutversorgungskriterien nicht erfüllt sind, und untersucht Unterschiede in der Entscheidungsfindung zwischen Akutversorgungs- und Rehabilitationsteams in Bezug auf die Angemessenheit des Patienten und die Bereitschaft zur Verlegung.;-;-;-;https://link.springer.com/article/10.1186/1472-6963-11-291 c0f41d689f2f090c0b609850b7af3f10;de;;;6.2.;;;VICO: Ontologiebasierte Darstellung und integrative Analyse von Impferklärungen Obwohl die Unterzeichnung einer Einverständniserklärung zur Impfung (oder Impfung) in den USA und Kanada keine Bundesvorschrift ist, wird eine solche Praxis von vielen Bundesstaaten und Apotheken verlangt. Inhalt und Struktur dieser Einwilligungserklärungen sind unterschiedlich, was einen Vergleich und eine Analyse ohne Standardisierung erschwert. Um die Standardisierung und Integration von Impfinformationsdaten zu erleichtern, ist es wichtig, verschiedene Formulare für Impfinformationen, Patientenantworten und Zustimmungsergebnisse zu untersuchen. In dieser Studie berichten wir über eine Impfinformierte Einwilligungs-Ontologie (VICO), die die Informierte Einwilligungs-Ontologie erweitert und verwandte OBO-Foundry-Ontologien wie die Vaccine-Ontologie integriert, mit einem Fokus auf Impf-Screening-Fragebögen im Bereich der Impf-Informed Consent-Domäne.;-;-;-;https://link.springer.com/article/10.1186/s13326-016-0062-4 68015f73296f2a705a417bed6f23b876;de;;;6.2.;;;Lernen durch Vergleich mit Wikipedia: der Wert für das Lernen der Schüler Der Hauptzweck dieser Forschungsarbeit besteht darin, eine Lerntechnik zu beschreiben und zu evaluieren, die Wikipedia in einem Online-Masterstudiengang Statistik aktiv nutzt. Es basiert auf dem Vergleich zwischen Wikipedia-Inhalten und akademischen Standard-Lernmaterialien. Wir definieren diese Technik als „Lernen durch Vergleichen“. Um die Leistungsfähigkeit dieser Lerntechnik zu evaluieren, wurden Daten aus verschiedenen Studiensemestern erhoben. Durch verschiedene Hypothesentests wird die schulische Leistung der Studierenden, die einer Learning-by-Comparing-Strategie folgen, mit dem Fall verglichen, in dem Wikipedia nicht verwendet wird.;-;-;-;https://link.springer.com/article/10.7238/rusc.v11i2.2042 d59d2bec2e5ff5a6c45543d6ea08fc38;de;;;6.2.;;;Überprüfung der Genauigkeit von Cochrane-Diagnosetests Im Jahr 1996, kurz nach der Gründung der Cochrane Collaboration, gründeten führende Persönlichkeiten der Testbewertungsforschung eine Methods Group, um sich auf die relativ neuen und sich schnell entwickelnden Methoden zur systematischen Überprüfung von Studien zu diagnostischen Tests zu konzentrieren. Sieben Jahre später entschied die Kollaboration, dass es an der Zeit sei, ein Publikationsformat und eine Methodik für Diagnostic Test Accuracy (DTA)-Reviews sowie die Software zu entwickeln, die für die Implementierung dieser Reviews in The Cochrane Library erforderlich ist. Ein vom Deutschen Cochrane-Zentrum im Jahr 2004 veranstaltetes Treffen brachte wichtige Methodiker der Region zusammen, von denen viele eng in die spätere Entwicklung des methodischen Rahmens für DTA-Reviews eingebunden waren. DTA-Rezensionen erschienen erstmals 2008 in der Cochrane Library und sind heute fester Bestandteil der Arbeit der Kollaboration.;-;-;-;https://link.springer.com/article/10.1186/2046-4053-2-82 9d260d1cf526e32f95b7bdad2e054fbe;de;;;6.2.;;;Zusammenarbeit mit der Leitung des Gesundheitssystems, um eine kontrollierte Implementierungsstudie zu entwickeln Die Ergebnisse bei psychischen Erkrankungen sind suboptimal und die Versorgung ist fragmentiert. Beweise aus kontrollierten Studien deuten darauf hin, dass kollaborative chronische Pflegemodelle (CCMs) die Ergebnisse bei einer Vielzahl von psychischen Erkrankungen verbessern können. Die Führung des US Department of Veterans Affairs startete eine landesweite Initiative zur Einrichtung multidisziplinärer Teams in allgemeinen psychiatrischen Kliniken in allen medizinischen Zentren. Als Teil dieser Bemühungen hat sich die Führung mit Implementierungsforschern zusammengetan, um ein Programmbewertungsprotokoll zu entwickeln, das strenge wissenschaftliche Daten liefert, um zwei Implementierungsfragen zu beantworten: (1) Können evidenzbasierte CCMs erfolgreich implementiert werden, indem vorhandenes Personal in allgemeinen psychiatrischen Kliniken unterstützt wird und externe Umsetzungserleichterung? (2) Welche Auswirkungen haben die Bemühungen um die CCM-Implementierung auf den Gesundheitszustand der Patienten und die Wahrnehmung der Pflege?;-;-;-;https://link.springer.com/article/10.1186/s13012-016-0385-7 dc07e53be7c5fc9bc567d0c3bcc168cd;de;;;6.2.;;;Ein konzeptioneller Ansatz für Dienstleistungsinnovationen in privaten Bildungseinrichtungen Diese Studie schlägt ein effizientes Dienstleistungserbringungssystem vor, das einen Blaupausen-Ansatz für Dienstleistungsinnovationen in privaten Bildungseinrichtungen verwendet. Diese Fallstudie präsentiert ein Flussdiagramm, das auf dem Verwaltungsentwurf einer privaten Vorbereitungsschule für die Hochschulaufnahmeprüfung in Südkorea basiert, um Prozesskriterien basierend auf Verwaltungsverfahren für Schüler und ihre Eltern zu rationalisieren. Die Ergebnisse der Fallstudie liefern nützliche Planungshinweise für die erfolgreiche Umsetzung von Service Blueprinting in privaten Bildungseinrichtungen. Die Studienergebnisse sollen dazu beitragen, die Kundenbegegnung zu verbessern, da der Dienstleister effektive Prozesse einsetzen kann. Die Studie beleuchtet auch neue operative Managementstrategien für Service-Innovationen. Durch die kontinuierliche Verbesserung des Informationsaustauschs wird erwartet, dass Service-Begegnungen die Kundenzufriedenheit erhöhen. Die Blueprinting-Technik kann die Abfolge von Kundenaktivitäten in einem Serviceprozess optimieren, um die Erwartungen und Bedürfnisse der Kunden zu erfüllen. Somit könnte der Ansatz Forschern und Administratoren dabei helfen, sicher zu sein, wie sie das System implementieren können, um Fehlerpunkte zu korrigieren und Schwierigkeiten erfolgreich zu lösen.;-;-;-;https://link.springer.com/article/10.1186/s40887-017-0011-z 46320cb6866f1b09e81ee06f94ff0f92;de;;;6.2.;;;Faktoren, die die Einhaltung der Leitlinien zur chirurgischen antimikrobiellen Prophylaxe (SAP) beeinflussen: eine systematische Übersicht Trotz der umfangreichen Forschung, die bisher durchgeführt wurde, weicht die Praxis oft von etablierten Richtlinien ab und wird zwischen Einzelpersonen und Organisationen variieren. Es wurde festgestellt, dass die globale Akzeptanz lokaler und internationaler Richtlinien zur chirurgischen antimikrobiellen Prophylaxe (SAP) gering ist, da nur begrenzte Forschungen zu Faktoren, die die Einhaltung der Leitlinien beeinflussen, untersucht werden. Der Zweck dieser systematischen Überprüfung bestand darin, die gemeldeten Hindernisse und Voraussetzungen für die Einhaltung der SAP-Richtlinien zu ermitteln.;-;-;-;https://link.springer.com/article/10.1186/s13643-021-01577-w d8d96a2c2b10d6e6f0338ac676d300db;de;;;6.2.;;;Determinanten der Absicht, sich an Sustainability Accounting & Reporting (SAR) zu beteiligen: die Perspektive professioneller Buchhalter Diese Studie untersucht die Wahrnehmung professioneller Buchhalter und die Absicht, sich im Bereich Sustainability Accounting & Reporting (SAR) zu engagieren. In Anlehnung an die Theory of Planned Behavior (TPB) untersucht die Studie, ob Einstellungen, subjektive Normen und wahrgenommene Verhaltenssteuerung einen Einfluss auf die Absicht eines Unternehmens haben, sich an SAR zu beteiligen. Es wurde eine Erhebungsmethode für die Forschung angewendet, und eine Reihe von Fragebögen wurde entwickelt (basierend auf bestehenden Studien) und an professionelle Buchhalter – die Befragtengruppe – verteilt. Insgesamt 86 professionelle Buchhalter in Ghana nahmen freiwillig an der Studie teil. Zur Analyse der erhaltenen Daten wurde die Partial Least Square-SEM (PLS-SEM)-Technik verwendet. Die Ergebnisse der Strukturanalyse zeigen, dass nur die subjektive Norm und die wahrgenommene Verhaltenskontrolle die Absicht eines Unternehmens, SAR zu engagieren, signifikant beeinflussen. Implizit hat die Einstellung eines Buchhalters gegenüber SAR keinen Einfluss auf die Absicht, sich an der Praxis zu beteiligen, und dass die Bereitschaft, sich an SAR zu beteiligen, in erster Linie durch die Verfügbarkeit von Ressourcen und den Druck der wichtigsten Interessengruppen bestimmt wird.;-;-;-;https://link.springer.com/article/10.1186/s40991-018-0035-2 e5e551f4bc6d45e89d66521e96741cc6;de;;;6.2.;;;Auswirkungen der katastrophenbedingten Sterblichkeit auf das Bruttoinlandsprodukt in der Afrikanischen Region der WHO Die katastrophenbedingte Sterblichkeit ist ein wachsendes Problem der öffentlichen Gesundheit in der afrikanischen Region. Es wird angenommen, dass diese Todesfälle einen signifikant negativen Einfluss auf das Bruttoinlandsprodukt (BIP) pro Kopf haben. Ziel dieser Studie war es, den BIP-Verlust zu schätzen, der auf die Sterblichkeit im Zusammenhang mit Natur- und Technologiekatastrophen in der Afrikanischen Region der WHO zurückzuführen ist.;-;-;-;https://link.springer.com/article/10.1186/1471-227X-4-1 58578b32f4cce100b49285baf0337d32;de;;;6.2.;;;Ressourcengeladene Planung der Rohrspulenfertigung: materialversorgungsgesteuerte Optimierung Da die Vorfertigung außerhalb des Standorts und das modulare Bauen in Zukunft weiter an Dynamik gewinnen, wird die Materiallieferkette für moderne Bauprojekte immer komplexer. Die vorgefertigte Materialversorgung stellt sich als Treiber für die Planung von Montageeinsätzen vor Ort dar, an denen Facharbeiter und schweres Gerät beteiligt sind.;-;-;-;https://link.springer.com/article/10.1186/s40327-017-0044-3 0e1d470a5cdccf63e5192f8d0b4f4889;de;;;6.2.;;;Was funktioniert, warum und wie? Eine Überprüfung des Umfangs und ein logisches Modell für klinische Praktika in ländlichen Gebieten für verbundene Gesundheitsstudenten Alliierte Gesundheitsdienste sind von zentraler Bedeutung für die Verbesserung der Gesundheitsergebnisse für abgelegene und ländliche Bewohner. Es wurde eine beträchtliche Infrastruktur geschaffen, um berufsbereite verbündete Gesundheitspraktiker in ländlichen Gebieten zu erleichtern, doch es ist schwer zu verstehen oder zu messen, wie erfolgreich dies ist und wie es erleichtert wird.;-;-;-;https://link.springer.com/article/10.1186/s12913-020-05669-6 15233a4920c9e5345967b53468c11a5d;de;;;6.2.;;;„Es ist kompliziert“ – über Gichtmedikamente in der Hausarztsprechstunde sprechen: eine qualitative Studie Gicht ist die häufigste Form der entzündlichen Arthritis. Sie ist mit erheblichen Komorbiditäten verbunden und wird häufig in der Primärversorgung behandelt. Ein besseres Verständnis des Kommunikationsprozesses zwischen Patienten und medizinischem Fachpersonal bietet eine Möglichkeit, das Management dieser Erkrankung zu verbessern. Dieses Papier beschreibt die Kommunikation über Gichtmedikamente und die Behandlung zwischen Patienten und medizinischem Fachpersonal der Primärversorgung während Routinekonsultationen.;-;-;-;https://link.springer.com/article/10.1186/s12875-016-0515-y 7d5baccdec83953a70fd3828c50d9ee1;de;;;6.2.;;;Quantitative Analyse der Organisationskultur in der betrieblichen Gesundheitsforschung: eine theoriebasierte Validierung des Instruments Organisationskulturprofil an 30 Arbeitsplätzen Diese Studie entwickelt einen Messansatz zur Untersuchung der Organisationskultur in der bevölkerungsbasierten Arbeitsmedizinforschung und testet, wie verschiedene Organisationskulturtypen mit psychischer Belastung, Depression, emotionaler Erschöpfung und Wohlbefinden in Verbindung gebracht werden.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-13-443 fb5b55aba18101a61450ff22cdc7aa35;de;;;6.2.;;;Humanressourcen für Gesundheitspolitik: eine kritische Komponente in der Gesundheitspolitik In den letzten Jahren wurde der Entwicklung von Gesundheitspolitiken zunehmend Aufmerksamkeit geschenkt. Aber neben den vermuteten Vorteilen der Politik teilen viele Analysten die Meinung, dass ein wesentlicher Nachteil der Gesundheitspolitik darin besteht, dass sie keinen Platz für Personalfragen schaffen. Aktuelle Ansätze im Personalbereich weisen auf eine Reihe von Schwächen hin: eine reaktive, ad-hoc-Einstellung gegenüber Personalproblemen, Streuung der Rechenschaftspflicht innerhalb des Personalmanagements (HRM), eine begrenzte Vorstellung von;-;-;-;https://link.springer.com/article/10.1186/1478-4491-1-1 9710a8243d9e9748193fbf087609a831;de;;;6.2.;;;Validierung einer Falldefinition für Depression in Verwaltungsdaten gegen Primärdiagrammdaten als Referenzstandard Da die Erhebung von Informationen zur psychischen Gesundheit durch Interviews teuer und zeitaufwändig ist, ist das Interesse an der Verwendung von bevölkerungsbezogenen administrativen Gesundheitsdaten für die Forschung zu Depressionen gestiegen. Es besteht jedoch die Besorgnis, dass eine Fehlklassifizierung der Krankheitsdiagnose in den zugrunde liegenden Daten die Ergebnisse verzerren könnte. Unser Ziel war es, die Gültigkeit der Falldefinitionen der Internationalen Klassifikation der Krankheiten (ICD)-9 und ICD-10 für Depressionen zu bestimmen, wobei die Überprüfung von Hausarzt-(FP)-Tabellen als Referenzstandard diente.;-;-;-;https://link.springer.com/article/10.1186/s12888-018-1990-6 d8a4ad02d45c474f4fc4082f2f54036c;de;;;6.2.;;;Auf dem Weg zu einem nachhaltigen dezentralen Energiesystem in China: Entscheidungsfindung für Strategien und politische Implikationen Der Konflikt zwischen der auf fossilen Brennstoffen basierenden chinesischen Wirtschaft und sich verschlechternden Umweltbedingungen erfordert weitere Forschung. Aufgrund ihrer sauberen, hocheffizienten und flexiblen Eigenschaften sind verteilte Energiesysteme (DES) zu einem globalen Forschungsschwerpunkt im Bereich der Energieeinsparung geworden. China als größter Kohleverbraucher und größter Stromverbraucher der Welt muss weitere Forschungen betreiben und die DESs anwenden, um den Konflikt zu lösen. Ziel dieser Studie ist es, einen umfassenden Überblick über die DES-Entwicklung in China sowie Verbesserungsvorschläge für die Entwicklung von DESs durch den Einsatz wissenschaftlicher Analysen zu geben.;-;-;-;https://link.springer.com/article/10.1186/s13705-019-0237-9 a7e3f27a804d9127f411d95db7ea0d65;de;;;6.2.;;;Wissensvermittlung für gesundes Altern: ein Scoping-Review möglicher Ansätze Die Entwicklung eines Gesundheitsversorgungssystems, das besser auf die zukünftigen Herausforderungen einer alternden Bevölkerung reagiert, hat in Kanada Priorität. Die Weltgesundheitsorganisation erkennt den Bedarf an Rahmen für die Wissensübersetzung im Bereich Altern und Gesundheit an. Knowledge Brokering (KB) ist ein spezifischer Ansatz zur Wissensübersetzung, der das Herstellen von Verbindungen zwischen Menschen beinhaltet, um die Verwendung von Beweisen zu erleichtern. Es bestehen Wissenslücken in Bezug auf KB-Rollen, Ansätze und Leitlinien. Das Ziel der Scoping-Überprüfung besteht darin, KB-Ansätze und die zugrunde liegenden konzeptionellen Rahmen (Modelle, Theorien) zu identifizieren und zu beschreiben, die verwendet werden, um die Ansätze zu leiten, die ein gesundes Altern unterstützen könnten.;-;-;-;https://link.springer.com/article/10.1186/s13012-016-0504-5 163eb0e45c80b34d00788bd0b52377ca;de;;;6.2.;;;Nichtkonventionelle humanitäre Interventionen bei der Ebola-Ausbruchskrise in Westafrika: Gesundheit, Ethik und rechtliche Auswirkungen Aufgrund des Fehlens von Frühwarn-, Bereitschafts-, Überwachungs- und Reaktionssystemen für den Ebola-Ausbruch hat der tödlichste, komplexeste und größte jemals gesehene Ebola-Krieg westafrikanische Gemeinden verwüstet. Der beispiellose Ebola-Tsunami hat zu Vernehmungen und Unsicherheiten hinsichtlich der Wirksamkeit und Effizienz der Katastrophenreaktionen der nationalen, regionalen und internationalen Gemeinschaft mit konventionellen humanitären Kontroll- und Eindämmungsansätzen und -methoden geführt. Die späten Notfallmaßnahmen und Herausforderungen der humanitären und lokalen Nichtregierungsorganisationen, die Übertragungsdynamik einzudämmen und die anhaltende Ausbreitung des Ebola-Ausbruchs in Westafrika zu stoppen, haben seit Beginn des Ausbruchs zu einer beispiellosen Zahl von 14.413 gemeldeten Ebola-Fällen in acht Ländern geführt, mit 5.177 gemeldete Todesfälle, darunter 571 Beschäftigte im Gesundheitswesen und 325 Verstorbene am 14. November 2014. Dies deutet darauf hin, dass ein wesentlicher Anteil der Infektionen außerhalb des Kontexts von Ebola-Epizentren, der Behandlung und Pflege von Ebola-Gesundheitszentren, der Infektionsprävention und der Qualitätssicherung der Kontrolle weiter evaluiert werden muss Kontrollen in diesen Ländern. Gleichzeitig sollten umfassende Anstrengungen unternommen werden, um eine ausreichende Versorgung aller Ebola-Behandlungseinrichtungen mit optimaler persönlicher Schutzausrüstung (PSA) zu gewährleisten sowie Schulungen und entsprechende Richtlinien bereitzustellen, um das Risiko auf ein möglichst geringes Maß zu begrenzen. Der Kontinent beherbergt einen großen Teil des weltweiten Reichtums, doch seine Menschen leben in bitterer Armut, mit Regierungen, die sie nicht effektiv ernähren und regieren können, und die dazu verdammt sind, mit dem Ebola-Ausbruch in Westafrika noch dunklere Momente zu ertragen. Die Institutionalisierung praktischer und operativer nicht-konventioneller Notfallreaktionsmodelle, effiziente Gesundheitssysteme und maßgeschneiderte Programme können die Verhütung, Kontrolle und schließliche Ausrottung der Ebola-Geoverteilung zusätzlich zu den psychosozialen Diensten der Bevölkerung, die erforderlich sind, um die enorme Bandbreite der gesundheitliche, sozialpsychologische und wirtschaftliche Folgen während und nach Ebola-assoziierten Krisen. Es besteht ein dringender Bedarf an einem pragmatischeren und robusteren wissenschaftlichen Ansatz, um das enorme natürliche und menschliche Ressourcenpotenzial zu transformieren und neu auszurichten, um eine universelle Abdeckung, die Millenniumsentwicklungsziele (MDGs) 2015–2030, nachhaltiges Wachstum und Entwicklung in Afrika zu erreichen.;-;-;-;https://link.springer.com/article/10.1186/2049-9957-3-42 773cebf794846eb6b88b29032cb8917d;de;;;6.2.;;;Eine Bewertung der mobiltelefonbasierten Verbreitung von Wetter- und Marktinformationen in der Upper West Region von Ghana Das schnelle Wachstum von Mobiltelefonen in Ghana hat die Möglichkeit eröffnet, Landwirten zeitnahe und nützliche Wetter- und Marktinformationen zu Kosten zu liefern, die unter denen herkömmlicher landwirtschaftlicher Beratungsdienste liegen. In diesem Papier bewerten wir die Nützlichkeit, Einschränkungen und Faktoren, die wahrscheinlich die Entscheidungen der Landwirte beeinflussen, mobiltelefonbasierte Wetter- und Marktinformationen zu nutzen.;-;-;-;https://link.springer.com/article/10.1186/s40066-016-0088-y d85660580c199a47cc212633441f7615;de;;;6.2.;;;Determinanten des F&E-Offshoring: Evidenz auf Unternehmensebene aus einer kleinen offenen Volkswirtschaft Wir analysieren Determinanten der Entscheidung eines Unternehmens für Offshore-F&E-Aktivitäten anhand eines neuartigen Datensatzes für Unternehmen in Irland im Zeitraum 2001–2006. Unsere Ergebnisse legen nahe, dass Unternehmen, die in internationale Produktions- und Innovationsnetzwerke integriert sind, sowie Unternehmen, die Informations- und Kommunikationstechnologien intensiver nutzen, im Durchschnitt bei ansonsten gleichen Bedingungen eher Offshore-FuE betreiben. Darüber hinaus hatten die Merkmale der Importquellenregion einen wichtigen Einfluss auf das Offshoring-Verhalten von Unternehmen, wobei eine Verlagerung in Regionen außerhalb der fortgeschrittenen Volkswirtschaften der Europäischen Union weniger wahrscheinlich ist.;-;-;-;https://link.springer.com/article/10.1007/s40888-018-0107-5 c0e6c5a3d1e015a5c56039e831f187dc;de;;;6.2.;;;Wirkung von Hyperchlorämie auf akute Nierenschädigung bei kritisch kranken septischen Patienten: eine retrospektive Kohortenstudie Hyperchlorämie ist bei kritisch kranken septischen Patienten häufig. Der Einfluss einer Hyperchlorämie auf die Inzidenz von akutem Nierenversagen (AKI) ist nicht gut untersucht. Wir untersuchten den Zusammenhang zwischen Hyperchlorämie und AKI innerhalb der ersten 72 Stunden nach Aufnahme auf die Intensivstation (ICU).;-;-;-;https://link.springer.com/article/10.1186/s12882-017-0750-z 3478541456b5effda8cc3fda074ab4fe;de;;;6.2.;;;Chirurgie allein, adjuvante Tegafur/Gimeracil/Octeracil (S-1) oder platinbasierte Chemotherapien bei resektablem Magenkrebs: Praxiserfahrungen und eine Analyse des Neigungs-Score-Matching Die adjuvante Chemotherapie hat das Paradigma beim resektablen Magenkrebs verändert. S-1 ist ein orales Chemotherapeutikum mit vielversprechender Wirksamkeit in Asien. Vergleiche mit genauen Beobachtungen oder platinbasierten Dubletten nach D2-Gastrektomie wurden jedoch weniger berichtet, insbesondere bei realen Erfahrungen.;-;-;-;https://link.springer.com/article/10.1186/s12885-021-08487-z 17d684976148190b4dd49273f1f7521c;de;;;6.2.;;;Verbesserung der Nützlichkeit und des Verständnisses von evidenzbasierter Praxis durch eine Krankenschwesterausbildung im Grundstudium Das Konzept der evidenzbasierten Praxis ist im aktuellen Klima der Gesundheitsversorgung weltweit relevant. Schüler und Lehrer haben jedoch Schwierigkeiten, evidenzbasierte Praxis effektiv in einen Lehrplan zu integrieren. Dies hat Auswirkungen auf die Ausbildung von Pflegekräften und insbesondere auf die Art und Weise, wie Forschung präsentiert und an Studierende weitergegeben wird.;-;-;-;https://link.springer.com/article/10.1186/s12912-017-0251-1 a9ee1948b92ef9240d99cd3e5106faaf;de;;;6.2.;;;Begründung und Design des Forschungsprojekts des South Florida Center for the Reduction of Cancer Health Disparities (SUCCESS): Studienprotokoll für eine randomisierte kontrollierte Studie In den Vereinigten Staaten werden bestimmte Minderheitengruppen, wie rassische/ethnische Einwandererfrauen, mit geringerer Wahrscheinlichkeit auf Gebärmutterhalskrebs untersucht als nicht-hispanische weiße Frauen. Zu den Hindernissen für eine solche Betreuung gehören Krankenversicherung, Kosten, Wissen, Einstellungen, Gesundheitskompetenz sowie kulturelle Normen und Praktiken. Zu den vielversprechendsten Ansätzen zur Verbesserung des Screenings in diesen Gruppen gehören Patientennavigatoren, die Frauen mit geeigneten Versorgungsquellen verbinden können. Ein weiterer vielversprechender Ansatz ist die Verwendung von Human-Papilloma-Virus (HPV)-Selbstproben. In diesem Manuskript beschreiben wir unsere vom National Cancer Institute gesponserte Studie, die solche Ansätze bei Frauen mit Migrationshintergrund testet.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-15-299 4de960d740737c4f97886305fcae2c12;de;;;6.2.;;;Überarbeitung der Arbeitsorganisation im Krankenhaus unter Verwendung von Arbeitsbelastungsindikatoren für Krankenpfleger und Gesundheitsassistenten als Entscheidungshilfen Historisch gesehen bestand die staatliche Krankenhausorganisation aus einer heterogenen Verteilung des Personals und einer fragmentierten logistischen Organisation ohne funktionsübergreifende oder gemeinsame Ressourcennutzung zwischen Abteilungen. Diese Organisation konnte in einem sich entwickelnden Umfeld des Gesundheitswesens, sich ändernden Patientenprofilen und Einschränkungen bei den Krankenhausausgaben nicht bestehen. Eine kosteneffiziente Personalregulierung für eine optimale Patientenversorgungsqualität war dringend erforderlich. Ziel der Studie war es, die Reorganisation zu beschreiben, die dazu führte, dass das Ressourcenmanagement nicht mehr nach dem Erreichten, sondern nach einer täglich gemessenen Arbeitsbelastung geführt wurde.;-;-;-;https://link.springer.com/article/10.1186/s12913-019-4376-7 022c1f1d98c999bddff1ce9d0f68da90;de;;;6.2.;;;Eine traditionell verwurzelte indische Führung für die digitale Führung gewinnen: Herausforderungen und Wege in Bezug auf LMX Führung war im Laufe der Jahre ein Thema von großem Interesse für Forscher, Geschäftsleute, Pädagogen und Regierungsbeamte. Führung als theoretisches Konstrukt hat sich durch Veränderungen wie Modernisierung, Globalisierung und zuletzt Digitalisierung stark verändert. Unter Berücksichtigung der verschiedenen Veränderungen, die das Internet und Cloud Computing in den Organisationssystemen und -prozessen auf der ganzen Welt mit sich gebracht haben, ist es ratsam, die Beziehung zwischen Führung und Digitalisierung zu verstehen, um vorherzusehen, wie sich Führungskräfte auf die Herausforderungen der Zukunft vorbereiten sollten . Führung ist in der Tat ein sich ständig weiterentwickelndes Konzept, ebenso wie Technologie, deren Ergebnis die Digitalisierung ist. Die meisten Anfragen zu einer solchen Beziehung werden von den westlichen Kulturen gut durchgeführt. Die Erforschung des Zusammenhangs zwischen Führung und Digitalisierung in den östlichen Kulturen, insbesondere in Indien, gewinnt an Bedeutung, da die Technologie boomt und die täglichen Aktivitäten als Einfluss der Digitalisierung drastisch verändert. Mit über 40% der indischen Bevölkerung, die das Internet abonniert haben, und durch die Bemühungen des öffentlichen und privaten Sektors ist Indien auf dem Weg, ein technologisch fortschrittliches Land zu werden. Indien ist auch die größte Basis digitaler Verbraucher. Führungskräfte haben es schwer, in solch herausfordernden Situationen, die immer volatiler werden, zu führen. Es gilt zu prüfen, welche Kapazitäten, Fähigkeiten und Kompetenzen Führungskräfte bereits haben und was sie noch verbessern müssen, um in der digitalen Welt effektiv zu führen. Um den Gesamtkontext der traditionellen indischen Führung zu untersuchen, wird der Führer-Mitglieder-Austausch als eine relevante Theorie angesehen. Zuletzt werden Herausforderungen und Lücken diskutiert und indischen Führungskräften der Begriff der „kreativen Persönlichkeit“ empfohlen, um den digitalen Veränderungen gerecht zu werden.;-;-;-;https://link.springer.com/article/10.1365/s42681-020-00013-2 fb1cfca7b6d92bb4d592df64d695a493;de;;;6.2.;;;Hypotension Prediction Index-Software zum Management von Hypotonie bei nicht-kardialen Eingriffen mit mittlerem bis hohem Risiko: Protokoll für eine randomisierte Studie Hypotonie ist mit schwerwiegenden Komplikationen verbunden, einschließlich Myokardinfarkt, akuter Nierenschädigung und Mortalität. Folglich kann die Vorhersage und Prävention von Hypotonie die Ergebnisse verbessern. Wir werden daher feststellen, ob die Verwendung eines neuartigen Instruments zur Vorhersage von Hypotonie die Dauer und Schwere der Hypotonie bei Patienten mit nicht-kardialen Operationen reduziert.;-;-;-;https://link.springer.com/article/10.1186/s13063-019-3329-0 7f014a7167bfc00a6b10ab6d98123b97;de;;;6.2.;;;Bewertung der Bevölkerungsabdeckung von Bluthochdruck-Screening in Thailand basierend auf dem effektiven Abdeckungsrahmen Hypertonie (HT) ist ein wichtiger Risikofaktor, und zugängliche und effektive HT-Screening-Dienste sind notwendig. Der effektive Deckungsrahmen ist ein Bewertungsinstrument, das verwendet werden kann, um die Leistung des Gesundheitswesens zu bewerten, indem die Zielgruppe berücksichtigt wird, die qualitativ hochwertige Dienste benötigt und erhält. Das Ziel dieser Studie ist es, die effektive Abdeckung von Bluthochdruck-Screening-Diensten auf Provinzebene in Thailand zu messen.;-;-;-;https://link.springer.com/article/10.1186/s12913-018-2996-y 37ebdac41c5a75a93dd6648dd669a297;de;;;6.2.;;;Diagnostische Leistung des kombinierten Nasen- und Rachenabstrichs bei Patienten, die mit Verdacht auf COVID-19 ins Krankenhaus eingeliefert werden Eine genaue Diagnose bei Patienten mit Verdacht auf eine Coronavirus-Krankheit 2019 (COVID-19) ist unerlässlich, um die Behandlung zu leiten und die Ausbreitung des Virus zu begrenzen. Der kombinierte Nasen- und Rachenabstrich ist weit verbreitet, aber seine diagnostische Leistung ist ungewiss.;-;-;-;https://link.springer.com/article/10.1186/s12879-021-05976-1 890614c00d4557496de18004611e8a3a;de;;;6.2.;;;Nutzung und Kosten elektronischer Ressourcen im Krebszentrum für Erwachsene Diese Studie zielt darauf ab, das Wissen von Gesundheitsdienstleistern und die Kosten der aktuellen institutionellen E-Ressourcen in einem onkologischen Umfeld für Erwachsene zu bewerten. Um die Bekanntheit, Zugänglichkeit und Nutzung der verfügbaren Intranet-E-Ressourcen zu beurteilen, wurde ein Fragebogen an alle onkologischen Gesundheitsberufe (Ärzte, Krankenschwestern und Apotheker) in einem onkologischen Zentrum für Erwachsene verteilt. Die E-Ressourcen wurden in zwei Hauptkategorien unterteilt: im Voraus bezahlte und institutsspezifische. Die Kosten für die im Voraus bezahlten E-Ressourcen wurden bei der zuständigen Abteilung erfragt. Die Kosten der institutsspezifischen E-Ressourcen wurden auf der Grundlage des Personalaufwands für die Entwicklung dieser E-Ressourcen berechnet, die Kosten der Informationstechnologie (IT) und der organisatorische Aufwand wurden ebenfalls berücksichtigt.;-;-;-;https://link.springer.com/article/10.1186/s13104-018-3637-6 eebe02e4ee21de4724f534846a793b42;de;;;6.2.;;;Dispositionsentscheidungen der Notaufnahme und damit verbundene Mortalität und Kosten bei Intensivpatienten mit Verdacht auf eine Infektion Nach der Beurteilung der Notaufnahme (ED) können Patienten mit Infektion direkt auf die Intensivstation (ICU) oder alternativ auf Krankenhausstationen oder nach Hause geschickt werden. Diejenigen, die auf Krankenhausstationen aufgenommen oder nach Hause geschickt werden, können eine zukünftige Verschlechterung erfahren, die eine Aufnahme auf die Intensivstation erforderlich macht.;-;-;-;https://link.springer.com/article/10.1186/s13054-018-2096-8 1c57ae692beca3849b5a4efa093ac018;de;;;6.2.;;;Follow-up der gesunden Kohorte der Mangan-exponierten Arbeiter (MEWHC) und des Biobankmanagements von 2011 bis 2017 in China Eine langfristige übermäßige Exposition gegenüber Umweltmangan (Mn) kann zu Multisystemschäden führen, insbesondere in Berufsgruppen. Daher haben wir eine Mangan-exponierte Arbeiter-Gesunde-Kohorte (MEWHC) erstellt, die sich auf die systemischen Gesundheitseffekte im Zusammenhang mit Mn-Exposition konzentriert. Hier wollten wir die Follow-up-Aktivität der MEWHC-Studie beschreiben und eine standardisierte biologische Probenbank für das wissenschaftliche Management hochwertiger Bioproben und der beigefügten Daten von 2011 bis 2017 etablieren.;-;-;-;https://link.springer.com/article/10.1186/s12889-018-5880-0 37df5088fbf62b8c8b6e8a75d7a239e6;de;;;6.2.;;;Digitale Kompetenz und Hochschulcurricula. Auf der Suche nach dem fehlenden Link In diesem Beitrag werden einige Ergebnisse des Forschungsprojekts „Universität und Wissensgesellschaft: Der Platz der IKT in curricularen Entscheidungsprozessen“ vorgestellt. Die von AECID geförderte und im Rahmen des UNISIC-Netzwerks durchgeführte fünfjährige Studie untersucht Lehrveränderungen, die sich an iberoamerikanischen Universitäten als Folge der Anforderungen der heutigen Gesellschaft abzeichnen.;-;-;-;https://link.springer.com/article/10.7238/rusc.v8i2.1070 45aac16a39fdc12d91bc5160f7254286;de;;;6.2.;;;Grippeimpfung während der Schwangerschaft: eine qualitative Studie zu Wissen, Einstellungen, Überzeugungen und Praktiken von Hausärzten in Zentral- und Südwest-Sydney Schwangere haben ein erhöhtes Risiko für Influenza-Komplikationen. Die Influenza-Impfung während der Schwangerschaft ist sicher und wirksam, in Australien beträgt die Impfrate jedoch weniger als 40%. Schwangere Frauen, die von einem Gesundheitsdienstleister eine Empfehlung zur Grippeimpfung erhalten, erhalten diese mit höherer Wahrscheinlichkeit, jedoch wurde die Perspektive australischer Hausärzte bisher nicht berichtet. Ziel der Studie war es, das Wissen, die Einstellungen, Überzeugungen und Praktiken von Allgemeinmedizinern, die im Südwesten von Sydney, Australien, in Bezug auf die Grippeimpfung während der Schwangerschaft praktizieren, zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/1471-2296-15-102 8496e3796aefc97aa33c72c24638c68b;de;;;6.2.;;;Ein Ausbruch von Gastroenteritis im Zusammenhang mit GII.17 Im Mai 2017 ereignete sich an einer Universität in Wuhan, China, ein Gastroenteritis-Ausbruch. Die epidemiologische Untersuchung und die Erregeranalyse wurden durchgeführt, um den Erreger zu identifizieren und diesen Ausbruch zu kontrollieren. Kot oder Analabstriche von Individuen, Wasser und Abstriche von Leitungsoberflächen des sekundären Wasserversorgungssystems (SWSS) und Lebensmitteln wurden zum Nachweis von Viren und pathogenen Darmbakterien durch Echtzeit-RT-PCR bzw. Kultur gesammelt. Nukleotidsequenzen wurden durch RT-PCR und direkte Sequenzierung bestimmt. Genotypisierungs-, phylogenetische und Rekombinationsanalysen wurden mit einem webbasierten Genotypisierungstool, MEGA- bzw. RDP4-Programmen durchgeführt. Von 144 eingeschriebenen Personen erfüllten 75 die Falldefinitionen. Die Epidemiekurve zeigte einen Inzidenzgipfel, was auf die wahrscheinlichste Ausbreitung einer einzigen gemeinsamen Quelle hindeutet. Insgesamt wurden 33 Proben vor der Desinfektion des SWSS entnommen. Von diesen,;-;-;-;https://link.springer.com/article/10.1007/s12560-019-09371-7 d3c94207e6db7d04768f756767d064d0;de;;;6.2.;;;Partnerschaft für klinische Studien in Europa und Entwicklungsländern (EDCTP): der Weg zu einer echten Partnerschaft European and Developing Countries Clinical Trials Partnership (EDCTP) wurde 2003 vom Europäischen Parlament und dem Rat gegründet. Es ist eine Partnerschaft von 14 Mitgliedstaaten der Europäischen Union (EU), Norwegen, der Schweiz und Entwicklungsländern, die zur Förderung der Beschleunigung neuer Interventionen in klinischen Studien zur Bekämpfung des Humanen Immunschwächevirus und des erworbenen Immunschwächesyndroms (HIV/AIDS), Malaria und), Tuberkulose (TB) in der Region Subsahara-Afrika. EDCTP strebt eine Synergie mit anderen Fördereinrichtungen an, die die Erforschung dieser Krankheiten unterstützen.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-9-249 ed3385eb902dcc7c6f5e524dd1d650e0;de;;;6.2.;;;Fokusgruppendiskussionen zur Berichterstattung über die Krise der südlichen Separatistenbewegung in jemenitischen Zeitungen In dieser Studie wurde eine qualitative Methode unter Verwendung von Fokusgruppendiskussionen (FGDs) angewendet, um die Wahrnehmung der Menschen zur Zeitungsberichterstattung über die Southern Separatist Movement (SSM) durch verschiedene jemenitische Zeitungen zu ermitteln. Dieses Papier untersuchte auch die Haltung gegenüber der Bewegung und die Popularität des Themas der jemenitischen Vereinigung. Fünf REA-Gruppen mit insgesamt 30 Teilnehmern diskutierten das Thema und einige andere damit verbundene Aspekte. Die Ergebnisse der Fokusgruppen zeigten, dass die Südkrise und der SSM das Vertrauen der Bevölkerung in die aktuelle Form der Einheit erschüttert hatten. Die Diskussion mit den Gruppen ergab, dass die Medien im Allgemeinen und die ausgewählten vier Papiere aus verschiedenen politischen Richtungen keine Glaubwürdigkeit und Objektivität haben, aber diese Papiere versuchen, demokratische Werte zu vermitteln, die ihrer Ideologie entsprechen, die einen ernsthaften Einfluss auf den Wert von liberale Demokratie. Die Teilnehmer versicherten, dass die Berichterstattung über die Sache des Südens und den SSM auf das Fehlen von professionellem Journalismus in den Medien und im politischen Diskurs im Allgemeinen hinweist.;-;-;-;https://link.springer.com/article/10.1186/s40064-015-1000-0 27b970fd287ef0e4d3ea175646f78595;de;;;6.2.;;;Familienplanung in Flüchtlingssettings: Erkenntnisse und Maßnahmen einer Mehrländerstudie Um die Familienplanung für krisengeschüttelte Gemeinschaften anzugehen, führten das Hohe Flüchtlingskommissariat der Vereinten Nationen und die Flüchtlingskommission der Vereinten Nationen in den Jahren 2011 und 2012 eine länderübergreifende Bewertung durch, um das Wissen über Familienplanung, die Überzeugungen und Praktiken von Flüchtlingen sowie den Zustand von Flüchtlingen zu dokumentieren Bereitstellung von Dienstleistungen in ausgewählten Flüchtlingsumgebungen von Cox's Bazar, Bangladesch, Ali Addeh, Dschibuti, Amman, Jordanien, Eastleigh, Kenia, Kuala Lumpur, Malaysia, und Nakivale, Uganda.;-;-;-;https://link.springer.com/article/10.1186/s13031-017-0112-2 4613f97fff535d42192aec641b405b28;de;;;6.2.;;;Bewertung der Auswirkungen des klinischen Entscheidungsunterstützungssystems ICNET® für die antimikrobielle Verwaltung Antimikrobielle Resistenz (AMR) ist eine ökologische und wirtschaftliche Krise, und die Verwaltung der verfügbaren Antibiotika ist erforderlich. Die elektronische Verschreibung ermöglicht, sofern verfügbar, die Prüfung der Praxis, doch um effizient und wirksam gegen unangemessene antimikrobielle Verschreibungen vorzugehen, ist eine bessere Nutzung aktueller und neuer technologischer Maßnahmen erforderlich. Diese retrospektive Beobachtungsbewertung untersuchte die Auswirkungen eines kommerziellen klinischen Entscheidungsunterstützungssystems (CDSS) auf den Arbeitsablauf eines etablierten antimikrobiellen Stewardship-Teams (AMS).;-;-;-;https://link.springer.com/article/10.1186/s13756-019-0496-4 510ce99ab28fcca0628e5af1221dace4;de;;;6.2.;;;Ambit-SMIRKS: ein Softwaremodul zur Reaktionsdarstellung, Reaktionssuche und Strukturtransformation Ambit-SMIRKS ist eine Open-Source-Software, die eine Strukturtransformation über die SMIRKS-Sprache ermöglicht und als Erweiterung von Ambit-SMARTS implementiert ist. Als Teil des Ambit-Projekts baut es auf The Chemistry Development Kit (The CDK) auf. Ambit-SMIRKS bietet die folgenden Funktionalitäten: Parsen von SMIRKS-Linearnotationen in interne Reaktions-(Transformations-)Repräsentationen basierend auf den CDK-Objekten, Anwendung der gespeicherten Reaktionen gegen Ziel-(Reaktanten-)Moleküle zur tatsächlichen Transformation der chemischen Zielobjekte, Reaktionssuche, Stereo Informationshandhabung, Produktnachbearbeitung usw. Die Transformationen können auf verschiedene Stellen des Reaktantenmoleküls auf verschiedene Weise angewendet werden: einzelne, nicht überlappende, nicht identische, nicht homomorphe oder extern spezifizierte Liste von Stellen unter Verwendung eines effizienten Substruktursuchalgorithmus . Ambit-SMIRKS verarbeitet die Stereoinformationen der Moleküle und unterstützt grundlegende chemische Stereoelemente, die in der CDK-Bibliothek implementiert sind. Die vollständige SMARTS-Syntax für logische Ausdrücke für die Reaktionsspezifikation wird unterstützt, einschließlich rekursiver SMARTS-Ausdrücke sowie zusätzlicher Syntaxerweiterungen. Seit seiner anfänglichen Entwicklung zum Zweck der Metabolitengenerierung innerhalb von Toxtree wurde das Ambit-SMIRKS-Modul in verschiedenen Chemoinformatik-Projekten verwendet, die sowohl von den Autoren des Pakets als auch von externen Teams entwickelt wurden. Wir zeigen mehrere Anwendungsfälle der Ambit-SMIRKS-Software, einschließlich der Standardisierung großer chemischer Datenbanken und der Datenbank für die Transformation von Stoffwechselwegen und deren Vorhersage. Ambit-SMIRKS wird als Java-Bibliothek unter LGPL-Lizenz vertrieben. Weitere Informationen zu Anwendungsfällen und Anwendungen, einschließlich Download-Links, finden Sie unter;-;-;-;https://link.springer.com/article/10.1186/s13321-018-0295-6 81d1c1bd93636388c5f042b357058766;de;;;6.2.;;;Das Image der Hyperstadt Seit dem 19. und 20. Jahrhundert ist Information sowohl in der kulturellen als auch in der wirtschaftlichen Tradition von zentraler Bedeutung. Während das Wirtschaftsmodell des Fordismus und seine Spezialisierungsanforderungen einen vereinfachten Zonierungs- und Einwegentwicklungsansatz für die Gestaltung einer Stadt hervorbrachten. Es stellte jedoch ein fragmentiertes Wachstum der Städte fest. Zwangsläufig beeinflusste die Zonierung als städtebauliche Strategie den architektonischen Maßstab. Dennoch ermöglichte die Idee von Informationen, Handelsgütern und damit Menschen, die sich frei durch die Stadt bewegen konnten, Architekten und Stadtplanern neuartige urbane Infrastrukturen zu konzipieren. Zum Beispiel Züge, die nach dem Vorbild urbaner „Arterien und Venen“ gestaltet wurden. Im Laufe der Zeit hat die anhaltende städtebauliche und architektonische Segmentierung die sozialen und wirtschaftlichen Ungleichheiten in der Stadtgesellschaft verstärkt. Darüber hinaus haben Informationen in diesem Stärkungsprozess eine wichtigere Rolle gespielt. Die technologischen Errungenschaften des 21. Jahrhunderts wie die Informationstechnologien haben die Städte erheblich beeinflusst. Die neuen Informationsmuster haben neue Wege der Gestaltung und damit auch der Art und Weise eröffnet, wie Gesellschaften Städte erleben. Diese „quantifizierten Städte“ bestehen aus digitalen Daten, die dynamisch mit „quantifizierten Menschen“ interagieren. Folglich wird eine erneuerte urbane Semiotik etabliert, die um ein alternatives soziologisches Verständnis aufbaut. Ist diese neue urbane Semiotik in der Lage, einen kranken und gespaltenen städtischen Körper zu heilen? Der Beitrag untersucht ein neues Konzept der „quantifizierten Stadt“, das auf dem Konzept der „Hyper-Realität“ basiert, und ihrer Bewohner, die in einen „posthumanen“ Zustand eintreten, während sie in einer dynamischen städtischen Umgebung leben. Insbesondere wird die kritische Analyse als „Werkzeug“ verwendet, um die Wahrnehmung der Stadt (dh das Bild der Hyperstadt) durch technologisch vermittelte Beziehungsmuster der Bewohner (Post-Menschen) neu zu definieren (zB Google Karten, Uber, Instagram usw.). Der eher traditionelle Begriff der Urbanisierung wird hinterfragt mit einem Fokus auf die Einbettung einer urbanen Gesellschaft in den digitalen Zustand und das Konzept einer Stadt.;-;-;-;https://link.springer.com/article/10.1007/s11196-018-9583-8 fee5e6d49a98e8ec69ce98dbc43b06ae;de;;;6.2.;;;Gestaltprinzipien zur Erstellung lernender Business-Ontologien für die Wissenskodierung In diesem Beitrag wird ein Ansatz vorgestellt, der darauf abzielt, Business-Ontologien für die Wissenskodifizierung in Unternehmen zu erstellen. Es basiert auf den Prinzipien des ontologischen Ingenieurwesens und der kognitiven Psychologie. Ontologien, die die wichtigsten Wissenskonzepte beschreiben, werden sowohl für die Wissenserzeugung als auch für die Kodifizierung verwendet. Der vorgeschlagene Rahmen zielt auf die Entwicklung von Methoden ab, die den Prozess der Wissensstrukturierung und -orchestrierung für ein besseres Verständnis und einen besseren Wissensaustausch unterstützen können. Das Orchestrierungsverfahren ist der Kern der Ontologieentwicklung. Der Schwerpunkt liegt auf der Anwendung visueller Techniken des Mindmappings. Kognitive Voreingenommenheit und einige Ergebnisse der Gestaltpsychologie werden als allgemeine Richtlinie hervorgehoben. Die Ideen von Ausgewogenheit, Klarheit und Schönheit werden auf die Verfahren zur Orchestrierung der Ontologie angewendet. Die Beispiele stammen hauptsächlich aus der Projektmanagement-Praxis. Das Papier trägt zur Managementpraxis bei, indem es die praktischen Empfehlungen für ein effektives Wissensmanagement basierend auf Ontologie-Engineering und Wissensstrukturierungstechniken beschreibt.;-;-;-;https://link.springer.com/article/10.1057/kmrp.2013.60 3aadea64bba0f55cc2c4918815dce4cf;de;;;6.2.;;;Entwicklung eines Demenzforschungsregisters: eine beschreibende Fallstudie von North Thames DeNDRoN und dem EVIDEM-Programm Die Entwicklung eines Demenzforschungsregisters zu beschreiben, die konzeptionellen, praktischen und ethischen Herausforderungen zu skizzieren und über erste Erfahrungen bei der Rekrutierung von Demenzkranken aus der Primär- und Sekundärversorgung zu berichten.;-;-;-;https://link.springer.com/article/10.1186/1471-2288-11-9 e0909e42f01163687f3f75d8095b51d7;de;;;6.2.;;;Merkmale molekularer HIV-1-Übertragungsnetzwerke und Medikamentenresistenz bei Männern, die Sex mit Männern in Tianjin, China (2014–2018) In Tianjin, China, gibt es eine relativ hohe HIV-Prävalenz bei Männern, die Sex mit Männern haben (MSM). Auch die Zahl der HIV-Fälle in Tianjin nimmt zu. Wir untersuchten das molekulare Übertragungsnetzwerk von HIV, genetische Tropismen und Arzneimittelresistenzmutationen in Tianjin.;-;-;-;https://link.springer.com/article/10.1186/s12985-020-01441-8 739f21a1ce6b6d461a73e96458ecdad0;de;;;6.2.;;;Die Rolle der Mizar Mathematical Library für die interaktive Proof-Entwicklung in Mizar Das Mizar-System ist eines der bahnbrechenden Systeme zur Unterstützung der mathematischen Beweisentwicklung auf einem Computer, das den Grundstein für moderne interaktive Beweisassistenten gelegt und sich schließlich zu diesen entwickelt hat. Wir behaupten, dass ein wichtiger Meilenstein in der Entwicklung dieser Systeme die Schaffung organisierter Bibliotheken war, die alles zuvor verfügbare formalisierte Wissen so ansammeln, dass neue Werke alle zuvor gesammelten Begriffe effektiv wiederverwenden können. Im Fall von Mizar war der Wendepunkt seiner Entwicklung die Entscheidung, mit dem Aufbau der Mizar Mathematical Library als einer zentral verwalteten Wissensdatenbank zu beginnen, die zusammen mit der Formalisierungssprache und dem Verifikationssystem gepflegt wird. In diesem Artikel zeigen wir den Prozess der Bildung dieser Bibliothek, die Entwicklung ihrer Designprinzipien und präsentieren auch einige Daten, die ihre aktuelle Verwendung mit der modernen Version des Mizar-Proof-Checkers zeigen, aber auch als reiches Korpus semantisch verknüpfter mathematischer Daten in verschiedene Bereiche, einschließlich webbasierter und natürlicher Sprachbeweispräsentation, Mathematikunterricht und auf maschinellem Lernen basierender automatisierter Theorembeweis.;-;-;-;https://link.springer.com/article/10.1007/s10817-017-9440-6 d7c7873ffafddee64d3bdcac7f30e941;de;;;6.2.;;;Familienplanungsberatung und ihre Assoziationen mit der Anwendung moderner Verhütungsmittel, Initiierung und Fortsetzung im ländlichen Uttar Pradesh, Indien Wir untersuchen den Zusammenhang zwischen der Qualität der in den letzten 24 Monaten erhaltenen Beratung zur Familienplanung (FP) und dem aktuellen Gebrauch, der Einführung und der Fortsetzung moderner Verhütungsmittel bei einer Stichprobe von Frauen im ländlichen Uttar Pradesh, Indien.;-;-;-;https://link.springer.com/article/10.1186/s12978-019-0844-0 0975b6f6824852a834ea956dbe59271b;de;;;6.2.;;;Ernährung, Fettleibigkeit und das Darmmikrobiom als Determinanten, die die Stoffwechselergebnisse in einem nicht-menschlichen Primatenmodell modulieren Das Ziel dieser Studie war es, das Verständnis der komplexen Wechselwirkungen zwischen Ernährung, Fettleibigkeit und dem Darmmikrobiom erwachsener weiblicher nicht-menschlicher Primaten (NHPs) zu verbessern. Die Probanden konsumierten entweder einen Western (;-;-;-;https://link.springer.com/article/10.1186/s40168-021-01069-y 8fd192a8bd8c896a6b798ef4e35e1598;de;;;6.2.;;;Das UP-TECH-Projekt, eine Intervention zur Unterstützung der Pflegekräfte von Alzheimer-Patienten in Italien: Studienprotokoll für eine randomisierte kontrollierte Studie Die Epidemie der Alzheimer-Krankheit (AD) stellt eine bedeutende Herausforderung für die Gesundheits- und Sozialsysteme vieler Industrieländer dar. AD betrifft sowohl Patienten als auch pflegende Angehörige, bei denen die Hauptlast der Pflege liegt, wodurch sie einem höheren Risiko für Stress, Angst, Sterblichkeit und eine geringere Lebensqualität ausgesetzt sind. Die Evidenz bezüglich der Wirksamkeit der Unterstützung von Pflegepersonal von AD-Patienten durch Fallmanagement, Beratung, Schulung, technische Geräte und die Integration bestehender Pflegedienste bleibt umstritten. Die Hauptziele des UP-TECH-Projekts sind: 1) die Pflegelast der pflegenden Angehörigen von AD-Patienten zu reduzieren und 2) die AD-Patienten zu Hause zu halten.;-;-;-;https://link.springer.com/article/10.1186/1745-6215-14-155 bb421ce450a13f9ecbb039d7083c72f9;de;;;6.2.;;;Einsatz eines Total-Quality-Management-Ansatzes zur Verbesserung der Patientensicherheit durch Vermeidung von Medikationsfehlern Während eine der vorherrschenden Ursachen für Medikationsfehler ein Medikamentenverabreichungsfehler ist, schätzte eine frühere Studie im Zusammenhang mit unseren Untersuchungen und Reviews, dass die Häufigkeit von Medikationsfehlern 6,7 von 100 verabreichten Medikamentendosen ausmachte. Daher haben wir uns zum Ziel gesetzt, mithilfe des Six-Sigma-Ansatzes einen Weg vorzuschlagen, mit dem diese Fehler auf weniger als 1 von 100 verabreichten Medikamentendosen reduziert werden, indem die Ausbildung von medizinischem Fachpersonal und klarere handschriftliche Rezepte verbessert werden.;-;-;-;https://link.springer.com/article/10.1186/s12913-017-2531-6 c292b915fdb5bb57288f621bf407e0c1;de;;;6.2.;;;Entwicklung eines manuell kommentierten klinischen Dokumentenkorpus, um phänotypische Informationen für entzündliche Darmerkrankungen zu identifizieren Systeme zur Verarbeitung natürlicher Sprache (NLP) können für bestimmte Aufgaben der Informationsextraktion (IE) verwendet werden, wie zum Beispiel das Extrahieren phänotypischer Daten aus der elektronischen Krankenakte (EMR). Diese Daten sind für die translationale Forschung nützlich und finden sich oft nur in klinischen Freitextnotizen. Ein wichtiger erforderlicher Schritt für IE ist die manuelle Annotation klinischer Korpora und die Erstellung eines Referenzstandards für (1) Schulungs- und Validierungsaufgaben und (2) zur Fokussierung und Klärung der NLP-Systemanforderungen. Diese Aufgaben sind zeitaufwändig, teuer und erfordern einen erheblichen Aufwand der menschlichen Prüfer.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-10-S9-S12 68d8b32ee0d882271b32e6e80819d8ff;de;;;6.2.;;;Hochdurchsatz-Sequenzierung und Analyse des Kiemengewebe-Transkriptoms aus der Tiefsee-Hydrothermal-Schlotmuschel ist eine hydrothermale Tiefsee-Schlotmuschel, die in Verbindung mit großen Faunengemeinschaften in chemosynthetischen Umgebungen am Meeresboden in der Nähe der Azoren gefunden wird. Die Untersuchung der außergewöhnlichen physiologischen Reaktionen, die Muscheln in ihrem Lebensraum angenommen haben, einschließlich der Reaktionen auf Umweltmikroben, bleibt eine schwierige Herausforderung für Tiefseebiologen. Um Gene aufzudecken, die möglicherweise an der angeborenen Immunität der Tiefseemuschel beteiligt sind, haben wir eine Hochdurchsatz-Sequenzanalyse frisch gesammelter;-;-;-;https://link.springer.com/article/10.1186/1471-2164-11-559 1aa05911ab497dfd91831c028ed20144;de;;;6.2.;;;Zur Nachhaltigkeit von Gesundheitsinterventionen in Subsahara-Afrika: eine systematische Überprüfung und ein konzeptioneller Rahmen Subsahara-Afrika (SSA) sieht sich einer doppelten Krankheitslast mit einer steigenden Prävalenz nicht übertragbarer Krankheiten (NCDs) gegenüber, während die Last übertragbarer Krankheiten (CDs) weiterhin hoch ist. Trotz dieser Herausforderungen besteht weiterhin ein erheblicher Bedarf zu verstehen, wie oder unter welchen Bedingungen Gesundheitsinterventionen in Subsahara-Afrika durchgeführt werden. Der Zweck dieser Studie war es, eine systematische Überprüfung der empirischen Literatur durchzuführen, um zu untersuchen, wie Gesundheitsinterventionen bei SSA aufrechterhalten werden.;-;-;-;https://link.springer.com/article/10.1186/s13012-016-0392-8 d735355f6da44080a4578b22ced7d992;de;;;6.2.;;;Konservatives versus operatives Management bei Patienten mit Rotatorenmanschettenrissen: eine systematische Übersicht und META-Analyse Diese Studie zielt darauf ab, die konservative mit der chirurgischen Behandlung von Patienten mit RC-Risse in voller Dicke in Bezug auf die klinischen und strukturellen Ergebnisse nach 1 und 2 Jahren Nachbeobachtung zu vergleichen.;-;-;-;https://link.springer.com/article/10.1186/s12891-020-03872-4 c36488513f5e641021e0db2abcd455dd;de;;;6.2.;;;Die Wirksamkeit von ENAR Die aktuelle Evidenz zu Elektrotherapien zur Behandlung chronischer Nackenschmerzen ist entweder nicht vorhanden oder widersprüchlich. Neue therapeutische Geräte, die auf den Markt gebracht werden, sollten auf ihre Wirksamkeit und Wirksamkeit untersucht werden. Die ENAR;-;-;-;https://link.springer.com/article/10.1186/1746-1340-15-9 bfd3836d1fe49f9be53d333dd8ce21b4;de;;;6.2.;;;Echtzeit-optimiertes Biofeedback unter Verwendung von Sporttechniken (ROBUST): ein Studienprotokoll für eine randomisierte kontrollierte Studie Verletzungen des vorderen Kreuzbandes (VKB) bei Sportlerinnen haben eine Vielzahl von kurz- und langfristigen körperlichen, finanziellen und psychosozialen Auswirkungen. Während sich spezielle Trainingsprogramme zur Verletzungsprävention als vielversprechend erwiesen haben, bleiben die VKB-Verletzungsraten hoch, da die Umsetzung noch nicht weit verbreitet ist. Herkömmliche Präventionsprogramme verwenden eine Kombination aus Widerstands-, Plyometrie-, Gleichgewichts- und Beweglichkeitstraining, um die Biomechanik mit hohem Risiko zu verbessern und das Verletzungsrisiko zu reduzieren. Während sich viele dieser Programme auf die Reduzierung der Knieabduktionsbelastung und -haltung bei dynamischer Aktivität konzentrieren, kann die gezielte Ausrichtung der Hüftstreckerkraft und -nutzung wirksamer sein, da dies theoretisch ein zugrunde liegender Verletzungsmechanismus bei jugendlichen Sportlerinnen ist. Biofeedback-Training kann das traditionelle präventive Training ergänzen, wurde jedoch im Zusammenhang mit VKB-Verletzungen nicht umfassend untersucht. Wir gehen davon aus, dass Biofeedback erforderlich sein könnte, um die Wirksamkeit neuromuskulärer prophylaktischer Interventionen zu maximieren, und dass hüftfokussiertes Biofeedback die Biomechanik der unteren Extremitäten stärker verbessern wird als kniefokussiertes Biofeedback bei dynamischen sportspezifischen Aufgaben und langfristigen Bewegungsstrategien.;-;-;-;https://link.springer.com/article/10.1186/s12891-017-1436-1 f85603826f975e7e92611e656f3d60ba;de;;;6.2.;;;Implementierung von Zeit-Temperatur-Indikatoren zur Verbesserung der Temperaturüberwachung und Unterstützung der dynamischen Haltbarkeit in Fleischlieferketten Basierend auf der gut untersuchten OnVu™ TTI-Kinetik wurden Modelle entwickelt, um das Etikett an verschiedene Lebensmittelprodukte anzupassen und den Verfärbungsprozess unter dynamischen Temperaturbedingungen vorherzusagen. Nach erfolgreicher Validierung unter Laborbedingungen wurde die Anwendbarkeit des Zeit-Temperatur-Indikators (TTI) als Haltbarkeitsindikator in einer nationalen Geflügelkette getestet. Der TTI spiegelte die unter realen Kettenbedingungen auftretenden Temperaturschwankungen genau wider. Haltbarkeitsprognosen basierend auf der Verfärbung der TTIs stimmten mit der mikrobiellen Haltbarkeit des Produkts überein. Die Modelle wurden in ein Online-Softwaretool integriert, um die Einhaltung der Kühlkette zu überprüfen und die verbleibende Haltbarkeit des Produkts vorherzusagen. Durch die Implementierung von TTI und der Software entsteht ein wertvolles Werkzeug zur Unterstützung des Entscheidungsprozesses in der Kühlkette. Die Anwendung einer flexiblen Haltbarkeit ermöglicht die Reduzierung von Lebensmittelabfällen in der Fleischlieferkette.;-;-;-;https://link.springer.com/article/10.1007/s41783-019-00080-x cd2640fbf98ea016ed8fc5e1aa16c099;de;;;6.2.;;;Assoziation von Depression und Resilienz mit der Lebensqualität der Fruchtbarkeit bei Patienten, die sich zur Behandlung im Unfruchtbarkeitszentrum in Karachi, Pakistan, vorstellen In Pakistan besteht ein dringender Bedarf, die Lebensqualität von unfruchtbaren Männern und Frauen und ihre unerwünschten psychologischen Folgen zu erforschen. Diese Studie zielte darauf ab, die Lebensqualität (QoL) von Männern und Frauen zu vergleichen, die ein Unfruchtbarkeitszentrum zur Behandlung besuchen, und ihren Zusammenhang mit Resilienz, Depression und anderen soziodemografischen Faktoren zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s12889-020-09706-1 f11757f70bb0c6ea14db7a6fe1605cb6;de;;;6.2.;;;Implementierung und Evaluation eines pflegerzentrierten computergestützten Kaliumregulationsprotokolls auf der Intensivstation - eine Vorher-Nachher-Analyse Kaliumstörungen können schwerwiegende Komplikationen verursachen und müssen bei kritisch kranken Patienten vermieden werden. Die Kaliumregulierung auf der Intensivstation (ICU) erfordert eine Kaliumgabe mit häufigen Blutkaliummessungen und anschließender Anpassung der verabreichten Kaliummenge. Die Verwendung eines Kaliumersatzprotokolls kann die Kaliumregulation verbessern. In Bezug auf Sicherheit und Effizienz scheinen computergestützte Protokolle Papierprotokollen überlegen zu sein. Das Ziel dieser Studie war es zu evaluieren, ob ein computergestütztes Kaliumregulationsprotokoll auf der Intensivstation die Kaliumregulation verbessert.;-;-;-;https://link.springer.com/article/10.1186/1472-6947-10-5 387ee6975c38c8964107ffe06dbaae0b;de;;;6.2.;;;Wirkung der forcierten Lufterwärmung durch eine Unterbodendecke auf die Hypothermie am Ende der Operation: eine Propensity-Score-matched-Analyse von 5063 Patienten Unterbodendecken wurden kürzlich auf den Markt gebracht und werden von Anästhesisten für chirurgische Patienten verwendet. Die forcierte wärmende Wirkung von Unterbodendecken ist jedoch noch umstritten. Das Ziel dieser Studie war es, den Einfluss einer forcierten Lufterwärmung durch eine Unterbodendecke auf die Körpertemperatur bei narkotisierten Patienten zu bestimmen.;-;-;-;https://link.springer.com/article/10.1186/s12871-019-0724-8 7bffa6d469c349411aff91081a7533ce;de;;;6.2.;;;Automatische Annotation der Proteinmotivfunktion mit Gen-Ontologie-Begriffen Konservierte Proteinsequenzmotive sind kurze Abschnitte von Aminosäuresequenzmustern, die möglicherweise die Funktion von Proteinen kodieren. Es existieren mehrere Sequenzmustersuchalgorithmen und -programme zum Identifizieren von Kandidatenproteinmotiven auf der gesamten Genomebene. Eine dringend benötigte und wichtige Aufgabe besteht jedoch darin, die Funktionen der neu identifizierten Proteinmotive zu bestimmen. Das Projekt Gene Ontology (GO) ist ein Bestreben, die Funktion von Genen oder Proteinsequenzen mit Begriffen aus einem dynamischen, kontrollierten Vokabular zu kommentieren und diese Annotationen dienen als Wissensbasis.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-5-122 ada013e5bb960756237f008048c39d6a;de;;;6.2.;;;Chinas Strukturwandel: Erreichen des potenziellen BIP im Finanzdienstleistungssektor Chinas Wirtschaft steht vor der gewaltigen Herausforderung, von einer produktionsbasierten zu einer dienstleistungsbasierten Wirtschaft zu wechseln. Reformen im Dienstleistungssektor sollen auch in den kommenden Jahren fortgesetzt werden, auch im Finanzsektor. In diesem Papier untersuchen wir Chinas Erfolge und Herausforderungen beim Strukturwandel und werfen dann einen genaueren Blick auf den Finanzdienstleistungssektor, um herauszufinden, wo Reformen stattgefunden haben, wo Potenziale liegen und was die Zukunft bringen wird. Wir beschreiben zunächst den Strukturwandel hinsichtlich Wachstum und TFP (Total Factor Productivity), dann wie er für China gilt. Wir untersuchen Chinas Finanzdienstleistungssektor. Als nächstes berechnen wir das potenzielle BIP des Finanzdienstleistungssektors jetzt und mit der Umsetzung der erwarteten Reformen. Wir stellen fest, dass sich die Wertschöpfung des Finanzvermittlungssektors selbst bei konservativen Schätzungen verdoppeln könnte, da Arbeit, Kapital, Technologie und Elastizität auf die Liberalisierungspolitik reagieren. Ob das potenzielle BIP im Rahmen von Reformen erreicht wird, ist eine andere Frage, daher empfehlen wir China, das Umsetzungstempo zu erhöhen und sich insbesondere auf den Abbau des Oligopols im Bankensektor, die Erhöhung der Investitionsmöglichkeiten durch die Reform seiner Anleihen- und Aktienmärkte sowie die Förderung von Innovationen zu konzentrieren im Finanzbereich bei gleichzeitiger Risikokontrolle.;-;-;-;https://link.springer.com/article/10.1186/s40589-016-0027-x ab23dd7387ecd24f17dd4bde9bfbed2b;de;;;6.2.;;;Was haben wir aus der Vorbereitung auf die grenzüberschreitende Übertragung der Ebola-Virus-Krankheit in ein komplexes humanitäres Umfeld – die Republik Südsudan – gelernt? Nach dem Ausbruch der Ebola-Virus-Krankheit (EVD) in Westafrika (2013–2016) hat die WHO eine Vorsorge-Checkliste für ihre Mitgliedstaaten entwickelt. Diese Checkliste wird derzeit zum ersten Mal in großem und systematischem Umfang angewendet, um den grenzüberschreitenden Import des anhaltenden EVD-Ausbruchs in der Demokratischen Republik Kongo vorzubereiten, daher ist es erforderlich, die aus diesen Erfahrungen gezogenen Lehren zu dokumentieren. Dies ist angesichts des komplexen humanitären Kontexts und des schwachen Gesundheitssystems, in dem einige der Länder wie die Republik Südsudan ihre Vorsorgemaßnahmen gegen EVE durchführen, relevanter.;-;-;-;https://link.springer.com/article/10.1186/s40249-020-00657-8 88245b2584c20c6d8b0fac2bf7235e44;de;;;6.2.;;;Eine Bewertung der Mammographie-Erfahrungen von indianischen Frauen Die Sterblichkeit durch Brustkrebs hat bei den indianischen/alaskanischen (AI/AN) Frauen zugenommen. Trotz dieser alarmierenden Realität haben AI/AN-Frauen einige der niedrigsten Brustkrebs-Screening-Raten. Nur 37 % der berechtigten AI/AN-Frauen geben eine Mammographie innerhalb des letzten Jahres an und 52 % geben eine Mammographie innerhalb der letzten zwei Jahre an, verglichen mit 57 % und 72 % für weiße Frauen. Die Erfahrungen und die Zufriedenheit mit der Mammographie für AI/AN-Frauen unterscheiden sich wahrscheinlich von denen von Frauen anderer ethnischer Gruppen, aufgrund kultureller Unterschiede und begrenztem Zugang zu vom indischen Gesundheitsdienst gesponserten Mammographie-Einheiten. Die übergeordneten Ziele dieser Studie bestehen darin, die Mammographie-Erfahrungen und -Erfahrungselemente zu identifizieren und zu verstehen, die sich auf die Zufriedenheit oder Unzufriedenheit mit Mammographie-Diensten in einer KI/AN-Population beziehen, und eine kulturell zugeschnittene Umfrage zur KI/AN-Mammographie-Zufriedenheit zu entwickeln.;-;-;-;https://link.springer.com/article/10.1186/1472-6874-10-34 bf9d449fa490b6255224bc003d4dfe9c;de;;;6.2.;;;Soziale Netzwerke als Instrument des Kompetenzerwerbs an der Hochschule: QR-Codes über Facebook Eingebettet in ein akademisches System, in dem der Lehrplan den Studierenden spezifische Fähigkeiten vermittelt, um einen zukünftigen Beruf zu entwickeln, bereiten soziale Netzwerke als spezialisierte Umgebungen hauptsächlich in informellen Bildungsumgebungen sie darauf vor, innovative und aufkommende Kompetenzen zu erwerben, die im Lehrplan nicht zu finden sind. Hier präsentieren wir die Ergebnisse einer innovativen Studie, die vom Institut für Bildungswissenschaften der Universität Sevilla (USA), Spanien, und der Fakultät für Wirtschafts- und Sozialwissenschaften der Universität Carabobo (UC), Venezuela, finanziert wurde und eine gemeinsame Erfahrung umfasst von Best Practices. Für die Studie wurde eine Stichprobe von 175 Studenten verwendet, von denen 55 einen Abschluss in Betriebswirtschaftslehre an der UC und 120 an der Fakultät für Erziehungswissenschaften der USA studierten. Unter den wichtigsten Ergebnissen bestätigen wir, dass Facebook als Lernumgebung zum Lernen und Teilen von Quick Response (QR)-Codes ein Tool ist, das die Schüler als nah, zuverlässig und einfach zu verwenden definieren und das viele Vorteile gegenüber anderen Einstellungen hat. da es zu einem Ort wird, an dem sich Menschen verschiedener Orte treffen und gemeinsame Bildungserfahrungen austauschen. Darüber hinaus betont diese Studie, dass die Nutzung von Facebook es Studierenden ermöglicht, instrumentelle, zwischenmenschliche und systemische Kompetenzen zu erwerben bzw.;-;-;-;https://link.springer.com/article/10.7238/rusc.v11i2.2050 66804903d06844b01c1acb879af5df86;de;;;6.2.;;;Entwicklung des Instruments PRE-HIT: Patientenbereitschaft für die Gesundheitsinformationstechnologie Technologiebasierte Hilfsmittel zur Änderung des Lebensstils werden bei chronischen Erkrankungen immer häufiger. Wichtige „digitale Kluften“ bleiben ebenso bestehen wie Bedenken hinsichtlich Datenschutz, Datensicherheit und mangelnde Motivation. Forscher brauchen eine Möglichkeit, die Bereitschaft der Teilnehmer, Gesundheitstechnologien zu nutzen, zu charakterisieren. Um diesem Bedarf gerecht zu werden, haben wir ein Instrument entwickelt, um die Bereitschaft von Patienten zu messen, sich mit Gesundheitstechnologien bei erwachsenen Patienten mit chronischen Erkrankungen zu beschäftigen.;-;-;-;https://link.springer.com/article/10.1186/1471-2296-15-18 b2c413fe44f7dc732c3945036bec5469;de;;;6.2.;;;Verknüpfen Sie Vorhersagen in Wissensgraphen mit Konzepten von Nearest Neighbors Der offene Charakter von Knowledge Graphs (KG) impliziert oft, dass sie unvollständig sind. Die Linkvorhersage besteht darin, auf Basis bestehender Links auf neue Links zwischen den Einheiten einer KG zu schließen. Die meisten existierenden Ansätze beruhen auf dem Lernen von latenten Merkmalsvektoren zum Codieren von Entitäten und Beziehungen. Im Allgemeinen sind latente Merkmale jedoch nicht leicht zu interpretieren. Regelbasierte Ansätze bieten Interpretierbarkeit, aber für jede Beziehung muss ein eigener Regelsatz erlernt werden, und die Rechenzeit ist schwer zu kontrollieren. Wir schlagen einen neuen Ansatz vor, der keine Trainingsphase benötigt und interpretierbare Erklärungen für jede Schlussfolgerung liefern kann. Es basiert auf der Berechnung von Konzepten der nächsten Nachbarn (CNN), um ähnliche Entitäten basierend auf gemeinsamen Diagrammmustern zu identifizieren. Die Dempster-Shafer-Theorie wird dann verwendet, um Schlussfolgerungen aus CNNs zu ziehen. Wir evaluieren unseren Ansatz auf FB15k-237, einem anspruchsvollen Benchmark für die Linkvorhersage, wo er im Vergleich zu bestehenden Ansätzen eine wettbewerbsfähige Leistung erhält.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-21348-0_6 16edcde25bbf965103022e91d27af90c;de;;;6.2.;;;Öffnen der Büchse der Pandora: Der potenzielle Nutzen der erweiterten FAST-Prüfung wird teilweise durch die Unbekannten bezüglich der Bedeutung des okkulten Pneumothorax widerlegt Point-of-Care-(POC)-Ultraschall bringt eine weitere leistungsstarke Dimension in die körperliche Untersuchung von Schwerkranken. Eine aktuelle Herausforderung für alle Leistungserbringer besteht jedoch darin, Ultraschall am besten in zeitgemäße Pflegealgorithmen zu integrieren. Wenn POC-Ultraschall den klinischen Verdacht vor der Untersuchung bestätigt, ist die Einbeziehung der Ergebnisse in die Entscheidungsfindung einfacher. Wenn POC-Ultraschall neue oder unerwartete Befunde liefert, kann die Entscheidungsfindung schwieriger sein, insbesondere bei Erkrankungen, die zuvor mit älteren Diagnosetechnologien nicht anerkannt wurden. Ein solches Beispiel sind Pneumothoraces (PTXs), die bisher nur in der Computertomographie und nicht in Rücken-Thorax-Röntgenaufnahmen gesehen wurden, die als okkulte Pneumothoraces (OPTXs) bekannt sind und jetzt zunehmend im POC-Ultraschall geschätzt werden.;-;-;-;https://link.springer.com/article/10.1007/s13089-010-0024-5 1d810530f40b968e633f36b0d756c222;de;;;6.2.;;;Verbessert die staatliche Unterstützung die Beziehung zwischen der Netzwerkstruktur und der nachhaltigen Wettbewerbsleistung von KMU? Das Hauptziel der unterstreichenden Studie besteht darin, zu untersuchen, wie sich die Netzwerkstruktur (Dichte und Zentralität) auf die nachhaltige Wettbewerbsleistung pakistanischer KMU auswirkt.;-;-;-;https://link.springer.com/article/10.1186/s13731-020-00127-3 92023a28f76e5811ee1f6fe68d10456a;de;;;6.2.;;;Ein skalierbarer, vollautomatisierter Prozess zur Konstruktion sequenzfertiger Bibliotheken zum gezielten Einfangen von humanen Exomen Genom-Targeting-Methoden ermöglichen die kostengünstige Erfassung bestimmter Teilmengen des Genoms für die Sequenzierung. Wir präsentieren hier eine automatisierte, hoch skalierbare Methode zur Durchführung des Lösungs-Hybrid-Selektions-Capture-Ansatzes, die eine dramatische Steigerung des Umfangs und des Durchsatzes von produzierten sequenzfertigen Bibliotheken bietet. Erhebliche Prozessverbesserungen und eine Reihe von prozessinternen Kontrollpunkten für die Qualitätskontrolle werden ebenfalls hinzugefügt. Diese Prozessverbesserungen können auch in einer manuellen Version des Protokolls verwendet werden.;-;-;-;https://link.springer.com/article/10.1186/gb-2011-12-1-r1 b1f56df3f4bbcd7236a2149e80165a71;de;;;6.2.;;;Algorithmusbasierte Entscheidungsunterstützung für das Symptom-Selbstmanagement bei Erwachsenen mit Krebs: Ergebnisse von Usability-Tests Es ist wichtig, dass Krebspatienten die erwarteten Symptome verstehen, wie sie diese Symptome selbst behandeln und wann sie ihren Arzt anrufen müssen. Patienten sind jedoch oft schlecht darauf vorbereitet, die Symptome zu Hause zu behandeln. Clinical Decision Support (CDS) ist eine potenziell innovative Möglichkeit, Patienten Informationen bereitzustellen, wo und wann sie diese benötigen. Ziel dieses Projekts war es, ein simuliertes Modell eines algorithmusbasierten CDS-Programms zur Selbstbehandlung von Krebssymptomen zu entwerfen und zu evaluieren.;-;-;-;https://link.springer.com/article/10.1186/s12911-018-0608-8 31bbba36fc7420c81a39a15e348568b5;de;;;6.2.;;;Folgemaßnahmen zu den Verpflichtungen beim Dritten Globalen Forum für Humanressourcen für Gesundheit: Indonesien, Sudan, Tansania Diese Studie zielte darauf ab, die Maßnahmen zu bewerten, die Indonesien, Sudan und Tansania ergriffen haben, um die Verpflichtungen des Gesundheitspersonals umzusetzen, die sie beim dritten globalen Forum für Humanressourcen für Gesundheit (HRH) im November 2013 eingegangen sind. Die Studie wurde anhand einer Umfrage unter veröffentlichten und grauen Literatur in englischer Sprache und Feldforschung, bestehend aus direkten Kontakten mit relevanten Ministerien und Agenturen. Die Ergebnisse zeigen, dass die drei Länder Interventionen durchgeführt haben, um ihre Verpflichtungen in Maßnahmen umzusetzen. Die drei Länder konzentrierten ihre Verpflichtungen auf die Verbesserung der Verfügbarkeit, der geografischen Erreichbarkeit, der Qualität der Bildung und der Leistung des Gesundheitspersonals. Die Umsetzung der Recife-Verpflichtungen erforderte in erster Linie Initiativen auf zentraler Ebene, wie die Verabschiedung neuer Rechtsvorschriften oder die Entwicklung von Akkreditierungsmechanismen. Diese Studie zeigt, dass Maßnahmen mit größerer Wahrscheinlichkeit ergriffen werden, wenn in Policy-Dokumenten HRH-Probleme explizit erkannt und dokumentiert werden, wenn Stakeholder an der Formulierung und Umsetzung von Policy-Änderungen beteiligt sind und wenn externe Unterstützung verfügbar ist. Das Recife-Forum scheint eine Gelegenheit geschaffen zu haben, die HRH-Politikagenda voranzubringen, und Befürworter der Personalentwicklung im Gesundheitswesen in diesen drei Ländern nutzten diese Gelegenheit.;-;-;-;https://link.springer.com/article/10.1186/s12960-016-0112-0 db20a02dfb3a1c4a964026762cbe6f94;de;;;6.2.;;;Anwendung semantischer Technologie auf die Filmproduktion Die Filmproduktion ist ein informations- und wissensintensiver industrieller Prozess, der als Reaktion auf die sich entwickelnde digitale Technologie dramatischen Veränderungen unterliegt. Das Deep Film Access Project (DFAP) erforscht die potenzielle Rolle semantischer Technologie in der Filmproduktion und konzentriert sich darauf, wie eine semantische Infrastruktur zur Integration der während des Filmproduktionslebenszyklus generierten Daten und Metadaten beitragen könnte. Dieser Beitrag berichtet über die vorläufige Entwicklung eines Wissensrahmens zur Unterstützung der automatischen Verwaltung digitaler Spielfilm-Assets, basierend auf einer Workflow-Analyse, die von einer OWL-Ontologie unterstützt wird. Wir diskutieren die Herausforderungen des Aufbaus auf früheren Arbeiten und präsentieren Beispiele für die ontologische Modellierung wichtiger Filmproduktionskonzepte in einem semantisch reichen hybriden ontologischen Rahmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25639-9_55 ec7173f7994bfe5326eb2e3dae4a4b5e;de;;;6.2.;;;Generierung und Auswertung synthetischer Patientendaten Maschinelles Lernen (ML) hat einen erheblichen Einfluss auf die Medizin und die Krebsforschung gehabt, jedoch waren seine Auswirkungen in diesen Bereichen unbestreitbar langsamer und begrenzter als in anderen Anwendungsbereichen. Ein Hauptgrund dafür war die mangelnde Verfügbarkeit von Patientendaten für die breitere ML-Forschungsgemeinschaft, zum großen Teil aufgrund von Bedenken hinsichtlich des Datenschutzes der Patienten. Hochwertige, realistische, synthetische Datensätze können genutzt werden, um methodische Entwicklungen in der Medizin zu beschleunigen. Im Großen und Ganzen sind medizinische Daten hochdimensional und oft kategorisch. Diese Eigenschaften stellen mehrere Modellierungsherausforderungen.;-;-;-;https://link.springer.com/article/10.1186/s12874-020-00977-1 7345a6a4e075629f9ffc29e9875bd4f4;de;;;6.2.;;;Wissensgestützte biomedizinische Erkennung und Normalisierung benannter Entitäten: Anwendung auf Proteine ​​und Gene Die automatisierte biomedizinische Erkennung und Normalisierung von benannten Entitäten dient als Grundlage für viele nachgelagerte Anwendungen im Informationsmanagement. Diese Aufgabe ist jedoch aufgrund der Namensvariationen und der Mehrdeutigkeit der Entitäten eine Herausforderung. Eine biomedizinische Entität kann mehrere Varianten aufweisen und eine Variante könnte mehrere unterschiedliche Entitätskennungen bezeichnen.;-;-;-;https://link.springer.com/article/10.1186/s12859-020-3375-3 048858b9ea8c26c70593ab96964a3fd6;de;;;6.2.;;;Fortschritte beim Verständnis und der Überwindung der Widerspenstigkeit von Biomasse: eine Perspektive des BioEnergy Science Center (BESC) Das DOE BioEnergy Science Center arbeitet seit einem Jahrzehnt mit mehreren Partnern als virtuelles Zentrum mit dem Ziel, die Widerspenstigkeit von Biomasse zu überwinden. BESC hat die Widerspenstigkeit von Biomasse von einem beobachtbaren Phänotyp zu einer besser verstandenen und manipulierbaren fundamentalen und betrieblichen Eigenschaft neu definiert. Diese Manipulationen sind das Ergebnis eines tieferen biologischen Verständnisses und können mit anderen fortschrittlichen biotechnologischen Verbesserungen bei der Umwandlung von Biomasse kombiniert werden, um Bioenergieprozesse und -märkte zu verbessern. Dieser Artikel bietet einen Überblick über die wichtigsten Errungenschaften bei der Überwindung von Widerspenstigkeit durch bessere Pflanzen, bessere Mikroben und bessere Werkzeuge und Kombinationen. Es wird eine Perspektive auf die Aspekte eines erfolgreichen Zentrumsbetriebs vorgestellt.;-;-;-;https://link.springer.com/article/10.1186/s13068-017-0971-1 46f1db50f784abd71b8a7badfdc5d1e7;de;;;6.2.;;;Klinische Ergebnisse der Fortsetzung der Metformin-Titrationsanweisungen mit elektronischer Verschreibung Anekdotische Hinweise deuten darauf hin, dass die Titrationsanweisungen für Metformin nicht aktualisiert werden und Nachfüllanforderungen ohne Änderung der Titrationsanweisungen genehmigt werden, sodass die Titrationsanweisungen für Patienten, die neu mit Metformin begonnen wurden, fortgesetzt werden.;-;-;-;https://link.springer.com/article/10.1007/s40801-015-0027-4 5eee131fb9ac6777ba11f99cfae9cf91;de;;;6.2.;;;Konzeptualisierung der Bevölkerungsgesundheit: vom mechanistischen Denken zur Komplexitätswissenschaft Die mechanistische Interpretation der Realität lässt sich auf die einflussreichen Arbeiten von René Descartes und Sir Isaac Newton zurückführen. Ihre Theorien waren in der Lage, die meisten physikalischen Phänomene in Bezug auf Bewegung, Optik und Schwerkraft genau vorherzusagen. Dieses Paradigma hatte mindestens drei Prinzipien und Ansätze: Reduktionismus, Linearität und Hierarchie. Diese Ideen scheinen Sozialwissenschaftler und den Diskurs über die Gesundheit der Bevölkerung beeinflusst zu haben. Im Gegensatz dazu nimmt die Komplexitätswissenschaft eine ganzheitlichere Sicht auf Systeme ein. Es betrachtet natürliche Systeme als „offen“, mit verschwommenen Grenzen, die sich ständig an den Druck der Umwelt anpassen. Diese werden komplexe adaptive Systeme (CAS) genannt. Den darin enthaltenen Subsystemen fehlen stabile Hierarchien, und die Rollen der Agentur ändern sich ständig. Die Wechselwirkungen mit der Umwelt und zwischen Subsystemen sind nichtlineare Wechselwirkungen und führen zu Selbstorganisation und emergenten Eigenschaften. Theoretische Rahmenbedingungen wie Epi+Demos+Cracy und der ökosoziale Gesundheitsansatz haben implizit einige dieser Konzepte interagierender dynamischer Subsysteme verwendet. Mithilfe der Komplexitätswissenschaft können wir die Ergebnisse der Bevölkerungsgesundheit als eine emergente Eigenschaft von CAS betrachten, das zahlreiche dynamische nichtlineare Wechselwirkungen zwischen seinen miteinander verbundenen Subsystemen oder Agenten aufweist. Um diese Teilsysteme und Determinanten würdigen zu können, sollte man sich Grundkenntnisse verschiedener Disziplinen aneignen und mit Experten unterschiedlicher Disziplinen interagieren. Strategien zur Verbesserung der Gesundheit sollten mehrgleisig sein und die Vielfalt der Akteure, Determinanten und Kontexte berücksichtigen. Die dynamische Natur des Systems erfordert, dass die Eingriffe ständig überwacht werden, um frühzeitig Feedback an ein flexibles System zu geben, das schnelle Korrekturen vornimmt.;-;-;-;https://link.springer.com/article/10.1186/1742-7622-8-2 cc0327b9b64c83164770c374935ce1be;de;;;6.2.;;;Ein klinisch-radiomisches Nomogramm zur Vorhersage funktioneller Ergebnisse bei ischämischem Schlaganfall Der Schlaganfall ist weltweit nach wie vor eine der häufigsten Todes- und Invaliditätsursachen. Eine effektive und zeitnahe prognostische Bewertung ist entscheidend für die Bestimmung der geeigneten Managementstrategie. Radiomics ist eine neue nichtinvasive Methode, die verwendet wird, um die quantitativen Bildgebungsindikatoren für die Vorhersage wichtiger klinischer Ergebnisse zu identifizieren. Diese Studie wurde durchgeführt, um ein Radiomics-Nomogramm zur Vorhersage der Prognose eines ischämischen Schlaganfalls unter Verwendung der modifizierten Rankin-Skala (mRS) zu untersuchen und zu validieren.;-;-;-;https://link.springer.com/article/10.1007/s40120-021-00263-2 7db517023d7a2b7266c336e5f49a75b5;de;;;6.2.;;;Umweltfaktoren, die die Motivation zur Innovation beeinflussen: eine systematische Überprüfung Die Umgebungen, in denen Innovation stattfindet, sind oft so vielfältig wie die Tätigkeitsbereiche, die angehende Innovatoren verfolgen könnten. Diese systematische Überprüfung folgte den Richtlinien der Campbell Collaboration und PRISMA, um die Ergebnisse von 74 Studien zum theoretischen Rahmen der Erwartungs-Wert-Kosten-Motivation zu konsolidieren, um für Entscheidungsträger die Umweltfaktoren, die die Motivation zur Innovation beeinflussen, nützlich zu isolieren. Die Ergebnisse dieser Überprüfung zeigen, dass eine zusätzliche Untersuchung interdisziplinärer Stichproben erforderlich ist, um fundierte erzählerische und fallbezogene Daten zu sammeln, die die Erfahrungen von Innovatoren zusätzlich zu Organisationen berücksichtigen. Führungskräfte, einschließlich Entscheidungsträgern, Lehrern und Vorgesetzten, können einen Präzedenzfall für ihre Lernenden und Mitarbeiter schaffen, um ihre Erfahrungen aus der Vergangenheit zu nutzen und sich sicher zu fühlen, intelligente Risiken einzugehen und vernünftige Fehler bei der Suche nach Innovationen zu machen. Sicherzustellen, dass Projektteams über eine Mischung aus Erfahrungen und Hintergründen verfügen, kann zu einer produktiveren Zusammenarbeit führen. Eine proaktive Kostenbekämpfung kann die psychologische Sicherheit und Stabilität des Arbeitsplatzes erhöhen, sodass sich Arbeitnehmer und Lernende besser auf die anstehenden Aufgaben konzentrieren können. Die Bewertung der Artikel zeigt, dass die Diskussion über Innovationsförderung von der Wirtschaft dominiert wird, was die Chance verringert, von anderen innovationsgetriebenen Disziplinen zu lernen oder wirklich interdisziplinäre Ansätze zu verfolgen.;-;-;-;https://link.springer.com/article/10.1186/s13731-021-00153-9 2e21fcfe1953ddda3da8266a278f3f16;de;;;6.2.;;;Die Wirksamkeit der permanenten Jod-125-Brachytherapie im Vergleich zu intensitätsmodulierter Bestrahlung bei inoperablen Speicheldrüsenmalignomen: Studienprotokoll einer randomisierten kontrollierten Studie Die Strahlentherapie ist die Methode der Wahl bei Patienten mit inoperablen Speicheldrüsenmalignomen. Die I-125-Brachytherapie, bei der ein Tumor mit einer hohen Strahlendosis bestrahlt wird, aber das umgebende normale Gewebe geschont wird, gilt als ideale Methode zur Behandlung von Speicheldrüsenmalignomen. Wir entwarfen eine randomisierte kontrollierte klinische Studie, um die Wirksamkeit der permanenten Brachytherapie (PBT) mit I-125 gegenüber der intensitätsmodulierten Strahlentherapie (IMRT) bei inoperablen Speicheldrüsenmalignomen zu vergleichen.;-;-;-;https://link.springer.com/article/10.1186/s12885-016-2248-7 599977eecefe1dba43c5d1cb1bdd27e1;de;;;6.2.;;;Wirksamkeit eines Überweisungszentrums für die patientenzentrierte Versorgung beim Multiplen Myelom: eine Kohortenstudie Innerhalb des brasilianischen einheitlichen Gesundheitssystems (SUS) sind Überweisungszentren (RCs) Pflegeeinrichtungen, die spezialisierte Dienste anbieten. Ziel dieser Studie war es, die Wirksamkeit der Versorgung von Patienten mit multiplem Myelom (MM) in einem spezialisierten RC (Hospital de Clínicas de Porto Alegre Referral Center for Multiple Myeloma, CRMM-HCPA) zu bewerten und die Lebensqualität der Patienten zu vergleichen mit MM, die bei CRMM-HCPA behandelt wurden, und solchen, die in Nicht-RC-Einrichtungen behandelt wurden.;-;-;-;https://link.springer.com/article/10.1186/s12913-015-1123-6 8df027b5fa5cb6365cefd0e636771259;de;;;6.2.;;;Faktoren, die die Aufnahme und den Abschluss der präventiven Isoniazid-Therapie bei HIV-infizierten Kindern in einem nationalen Überweisungskrankenhaus in Kenia beeinflussen: eine gemischte quantitative und qualitative Studie Tuberkulose (TB) ist die häufigste opportunistische Infektion und die häufigste Todesursache bei Menschen mit HIV (PLHIV). HIV-infizierte Kinder haben ein höheres Risiko für eine TB-Infektion und -Erkrankung als Kinder ohne HIV. Die präventive Therapie mit Isoniazid (IPT) ist eine wirksame Intervention zur Verhinderung des Fortschreitens einer latenten TB-Infektion zu einer aktiven TB. Die Weltgesundheitsorganisation (WHO) empfiehlt derzeit, dass alle Kinder > 12 Monate und Erwachsene mit HIV, bei denen eine aktive TB ausgeschlossen wurde, im Rahmen einer umfassenden HIV-Versorgung eine 6-monatige IPT erhalten. Trotz dieser Empfehlung war die Aufnahme von IPT bei Menschen mit HIV weltweit suboptimal. Diese Studie versuchte, die Faktoren zu bestimmen, die die Aufnahme und den Abschluss von IPT bei HIV-infizierten Kindern in einem großen HIV-Betreuungszentrum in Nairobi, Kenia, beeinflussen.;-;-;-;https://link.springer.com/article/10.1186/s12879-020-05011-9 07488bd28cbbe498992625ad6790dfec;de;;;6.2.;;;Normenentwicklungsorganisationen Standards Standards sind Dokumente, die im Konsens erstellt und von einer anerkannten Stelle genehmigt wurden. ISO ist die internationale Normungsorganisation mit Mitgliedschaft in nationalen Normungsgremien. In den USA ansässige Standardentwickler (SDOs) wie HL7 und DICOM werden von ANSI vertreten. HL7 International ist das führende SDO für die Interoperabilität im Gesundheitswesen und wird detaillierter beschrieben als die anderen. DICOM ist führend in der medizinischen Bildgebung, IHTSDO für SNOMED CT. IHE entwickelt Standardprofile für spezifische Zwecke, Continua arbeitet an Consumer Medical Devices und CDISC an Daten aus klinischen Studien. OpenEHR entwickelt klinische Modelle.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30370-3_6 3e8058b33ce75c9f5466b2cafc73ba2f;de;;;6.2.;;;CMDX©-basiertes Single-Source-Informationssystem für vereinfachtes Qualitätsmanagement und klinische Forschung bei Prostatakrebs Die histopathologische Bewertung von Prostatektomieproben ist entscheidend für die Entscheidungsfindung und die Vorhersage von Patientenergebnissen bei Prostatakrebs (PCa). Topografische Informationen zur PCa-Erweiterung und positiven chirurgischen Rändern (PSM) sind für die klinische Routine, Qualitätsbewertung und Forschung unerlässlich. Lokale Krankenhausinformationssysteme (KIS) unterstützen jedoch häufig die Dokumentation solcher Informationen nicht. Daher haben wir die Möglichkeit untersucht, einen cMDX-basierten Pathologiebericht einschließlich topografischer Informationen in den klinischen Alltag zu integrieren, um Daten zu erhalten, Analysen durchzuführen und Heatmaps zeitnah zu erstellen und dabei Datenredundanzen zu vermeiden.;-;-;-;https://link.springer.com/article/10.1186/1472-6947-12-141 ec82e70190642c80699296d3a6edbac4;de;;;6.2.;;;Übergang radikaler, präventiver und präsumtiver Behandlungsschemata für Malaria in China: eine systematische Überprüfung Weltweit ist Malaria immer noch eine große Herausforderung für die öffentliche Gesundheit. Die medikamentöse Behandlung ist die primäre Intervention bei der Kontrolle und Eliminierung der Malaria. Der optimale Einsatz von Massen- oder gezielten Behandlungen bleibt jedoch unklar. In China wurde eine Vielzahl radikaler, präventiver und präsumtiver Behandlungsschemata durchgeführt, und es wurde eine systematische Überprüfung durchgeführt, um die Wirksamkeit zu bewerten und Erfahrungen, Einschränkungen und gewonnene Erkenntnisse in Bezug auf die Anwendung dieser Schemata zu diskutieren.;-;-;-;https://link.springer.com/article/10.1186/s12936-020-03535-8 5fe09fadbafb79ec0f379a487f6869eb;de;;;6.2.;;;Verschmelzung von passivem RFID und BIM für mehr Genauigkeit bei der Lokalisierung in Innenräumen Den aktuellen Standort eines bestimmten Versorgungsunternehmens oder sich selbst in einer unbekannten Einrichtung zu finden, kann schwierig und zeitaufwändig sein. Die in diesem Papier getestete Hypothese lautet, dass die Verwendung der in Building Information Models (BIM) enthaltenen Informationen die Genauigkeit von Indoor-Positionierungsalgorithmen mit kontextsensitiver Sensortechnologie erhöhen kann. Die vorgestellte Arbeit zeigt, wie die Integration von passiver Radio Frequency Identification (RFID) Tracking-Technologie und Building Information Modeling (BIM) die Indoor-Lokalisierung für potenzielle Anwendungen im Facility Management für proaktive vorbeugende Instandhaltung unterstützen kann.;-;-;-;https://link.springer.com/article/10.1186/s40327-015-0030-6 7c9e5f6df3d817eaf26465bf7779f59a;de;;;6.2.;;;Zusammenhang zwischen wirtschaftlichem Entwicklungsstand und registrierter Tuberkulose-Inzidenz in Shandong, China Tuberkulose (TB) ist eine der wichtigsten Infektionskrankheiten, die die Gesundheit der Menschen ernsthaft gefährden kann. In der Provinz Shandong wurde der Zusammenhang zwischen dem Stand der wirtschaftlichen Entwicklung und der TB-Inzidenz nicht untersucht. Diese Studie soll der Regierung mehr Forschungsgrundlagen zur Prävention und Kontrolle von TB bieten, indem sie die Auswirkungen verschiedener wirtschaftlicher Faktoren auf die TB-Inzidenz untersucht.;-;-;-;https://link.springer.com/article/10.1186/s12889-020-09627-z 175fbc209d4569188ff5468d8ca52028;de;;;6.2.;;;Leistungsprobleme in drahtlosen Body Area Networks für die Gesundheitsanwendung: eine Übersicht und Zukunftsaussichten Diese Studie gibt einen Überblick über die aktuellen Fragestellungen, Anwendungsbereiche, Erkenntnisse und Leistungsherausforderungen in drahtlosen Body Area Networks (WBAN). Die Umfrage diskutiert ausgewählte Bereiche der WBAN-Signalverarbeitung, der Netzwerkzuverlässigkeit, des Spektrummanagements, der Sicherheit und der WBAN-Integration mit anderen Technologien für hocheffiziente zukünftige Gesundheitsanwendungen. Die Grundlage der Studie basiert auf den jüngsten wachsenden Fortschritten in der mikroelektronischen Technologie und Kommerzialisierung, die die Geräteverfügbarkeit, Miniaturisierung und Kommunikation erleichtern. Die Umfrage berücksichtigt eine systemische Überprüfung, die anhand von Berichten, Standarddokumenten und von Experten begutachteten Artikeln durchgeführt wird. Basierend auf der umfassenden Überprüfung stellen wir fest, dass WBANs mit mehreren Betriebs-, Standardisierungs- und Sicherheitsproblemen konfrontiert sind, die sich auf die Leistung und Aufrechterhaltung der Benutzersicherheit und des Datenschutzes auswirken. Wir stellen uns die zunehmende Abhängigkeit der zukünftigen Gesundheitsversorgung von WBAN für medizinische und nicht-medizinische Anwendungen aufgrund der Fortschritte bei der Internetkonnektivität vor. Aus dieser Sicht müssen trotz der WBAN-Vorteile bei der Fernüberwachung des Gesundheitszustands weitere Studien zur Leistungsoptimierung durchgeführt werden. Daher schließen wir unsere Studie ab, indem wir verschiedene aktuelle und zukünftige Forschungsrichtungen und offene Fragen zur Leistungssteigerung von WBAN vorschlagen.;-;-;-;https://link.springer.com/article/10.1007/s42452-020-04058-2 22db1db1a962c4a6549dfb4ecf2be66e;de;;;6.2.;;;Beschreibung eines integrierten Managementsystems für invasive Mücken an Ein- und Ausgangshäfen in Zhejiang, China Da Mücken eine der schädlichsten Kreaturen der Welt sind, haben die jüngsten hochfrequenten Abfangen invasiver Mückenarten die Notwendigkeit unterstrichen, die biologische Sicherheit der Provinz Zhejiang in China zu verbessern. Daher sollte ein integriertes Managementsystem implementiert werden, um die Vektoren von durch Mücken übertragenen Krankheiten während der Datendigitalisierung und der Verarbeitung von dauerhaften elektronischen Formularen zu überwachen und einen Online-Identifizierungsdienst aus einer Hand bereitzustellen.;-;-;-;https://link.springer.com/article/10.1186/s13071-019-3709-z 4d31745e72b302963653dc17b73ae5d7;de;;;6.2.;;;Neues chirurgisches Scoring-System zur Vorhersage der postoperativen Mortalität Es gibt immer noch keine einfache und sehr nützliche Methode, um sowohl den präoperativen als auch den intraoperativen Patientenstatus umfassend zu beurteilen, um postoperative Ergebnisse vorherzusagen. Wir versuchten, ein neues Scoring-System zu entwickeln, das eine umfassende Bewertung des prä- und intraoperativen Patientenstatus unmittelbar am Ende der Anästhesie ermöglicht und die postoperative Mortalität vorhersagt.;-;-;-;https://link.springer.com/article/10.1007/s00540-016-2290-2 3a20162b043c3abe98f47b0b3ac1a5c4;de;;;6.2.;;;Räumliche und saisonale Muster von MKS-Primärausbrüchen bei Rindern in Simbabwe zwischen 1931 und 2016 Die Maul- und Klauenseuche (MKS) ist eine bedeutende Tierkrankheit, die hauptsächlich intensive Produktionssysteme befällt. Im südlichen Afrika wird das MKS-Virus in Wildtieren gehalten und seine Bekämpfung ist daher kompliziert. Die MKS-Bekämpfung ist jedoch eine wichtige Aufgabe, um Ländern den Zugang zu einem lukrativen ausländischen Fleischmarkt zu ermöglichen, und Veterinärdienste führen drastische Kontrollmaßnahmen gegen Viehbestände in der Peripherie von Schutzgebieten durch, die sich negativ auf lokale Kleintierproduzenten auswirken. Diese Studie untersuchte Daten zu primären MKS-Ausbrüchen in Simbabwe von 1931 bis 2016, um die räumlich-zeitliche Verteilung von MKS-Ausbrüchen und ihre potenziellen Treiber zu beschreiben. Die Ergebnisse legen nahe, dass: (i) MKS-Ausbrüche nicht zufällig im Weltraum über Simbabwe verteilt waren, sondern im Südosten des Lowveld (SEL) gehäuft sind, (ii) die Nähe von Schutzgebieten mit afrikanischen Büffeln potenziell für primäre MKS-Ausbrüche bei Rindern verantwortlich war, (iii) Regen an sich war nicht mit MKS-Ausbrüchen verbunden, aber Jahreszeiten beeinflussten das zeitliche Auftreten von MKS-Ausbrüchen in allen Regionen, (iv) die Häufigkeit von MKS-Ausbrüchen nahm in Zeiten schwerer sozioökonomischer und politischer Krisen zu. Die Unterschiede zwischen den räumlichen Clustern und anderen Gebieten in Simbabwe, die ähnliche Büffel-Rinder-Schnittstellen aufweisen, aber mit weniger MKS-Ausbrüchen, können im Lichte des neueren besseren Verständnisses der Wildtier-Vieh-Interaktionen in diesen Gebieten interpretiert werden. Es wird angenommen, dass die Arten der Schnittstellen zwischen Wildtieren und Nutztieren die wichtigsten Triebkräfte für die Kontakte zwischen Wildtieren und Nutztieren sind, die das Risiko eines Übergreifens von MKS zwischen den Arten auslösen. Das Management der Schnittstellen Wildtiere/Viehbestände ist daher für die Bekämpfung von MKS im südlichen Afrika von entscheidender Bedeutung.;-;-;-;https://link.springer.com/article/10.1186/s13567-019-0690-7 61cdca1c1271577ce03661d5762931eb;de;;;6.2.;;;Zoom auf afrikanischer Länderebene: potenzielle klimabedingte Veränderungen in Gebieten, die für das Überleben von Malaria-Vektoren geeignet sind Die Vorhersage der Bevölkerungsdichte und der Grenzverschiebungen von Anopheles-Vektoren ist entscheidend, um sich auf Malariarisiken und unerwartete Ausbrüche vorzubereiten. Obwohl sich die Verteilung und die Grenzen der wichtigsten Malariavektoren (;-;-;-;https://link.springer.com/article/10.1186/1476-072X-13-12 e0cdac25f99c67bd6db33e7442156e8f;de;;;6.2.;;;Untersuchung der Umsetzung des Programms „Community for Successive Aging“ (ComSA) in Singapur: Erfahrungen aus der Programmdurchführung zur Verbesserung der biopsychosozialen Gesundheit Das Programm der Community für erfolgreiches Altern (ComSA) hat überlappende BioPsychoSocial (BPS)-Komponenten als Teil einer Community Development (CD) basis- und ehrenamtlich geführten Initiative implementiert. Die Implementierung einer solchen Mehrkomponentenprogrammierung wird durch bekannte Programmeigenschaften beeinflusst, einschließlich;-;-;-;https://link.springer.com/article/10.1186/s12877-019-1271-3 022e1aae00a7dd5570bdff39463516a0;de;;;6.2.;;;Zusammenfassung und Häufigkeit von Hindernissen für die Einführung von CPOE in den USA Medizinische Fehler sind häufig, kostspielig und können für Patienten potenziell lebensbedrohlich sein. Jüngste Studien haben gezeigt, dass Systeme zur Auftragserfassung durch Computeranbieter (CPOE) medizinische Fehler reduzieren und die Sicherheit, Qualität und den Wert der Patientenversorgung verbessern. Die Forschung zu Akzeptanzfaktoren im Zusammenhang mit CPOE-Systemen ist jedoch begrenzt. Daher war der Zweck dieses Reviews, Akzeptanzfaktoren zu bestimmen, indem die Häufigkeit von Barrieren durch die Analyse von Literatur und Forschung identifiziert wurde. Eine systematische Literaturrecherche wurde von EBSCO Host und Google Scholar durchgeführt. Die Suchkriterien konzentrierten sich auf Veröffentlichungsdatum, Schlüsselwörter und von Experten begutachtete Artikel. Der endgültige Satz, der für die Bewertung erstellt wurde, umfasste zehn Artikel. Die Autoren fassten jeden Artikel zusammen und identifizierten dann gemeinsame Barrieren. In den zehn Artikeln wurden 31 Barrieren identifiziert, von denen 15 einzigartig waren. Die drei am häufigsten identifizierten Barrieren waren: Prozessänderungen (23 %), Schulung (13 %) und Wirksamkeit (10 %). Die Ergebnisse dieser Überprüfung zeigen politischen Entscheidungsträgern Möglichkeiten auf, um Anreize für die Akzeptanz zu schaffen. Die Ergebnisse veranschaulichen den Anbietern auch die Bedeutung von Faktoren, die sowohl in das Marketing als auch in die Entwicklung einbezogen werden müssen. Die Führung von Gesundheitsorganisationen sollte ermutigt werden, solche Ergebnisse zu sehen und zu wissen, dass ihre Bedenken gehört werden. Wenn politische Entscheidungsträger und Anbieter Gesundheitsorganisationen dabei helfen, Akzeptanzbarrieren zu überwinden, hat die Organisation bessere Chancen auf eine erfolgreiche CPOE-Implementierung. Bei erfolgreicher Implementierung kann ein CPOE-System den Pflegeprozess, die Pflegequalität und die Patientenergebnisse verbessern, die alle Fragen des sinnvollen Nutzens ansprechen.;-;-;-;https://link.springer.com/article/10.1007/s10916-015-0198-2 a1c3555941e0d13cac91480d45040e5c;de;;;6.2.;;;Ernährungstherapie bei fortgeschrittener CNI: zwanzig Konsensus-Statements Die italienische Nephrologie hat eine lange Tradition und Erfahrung auf dem Gebiet der Diätetisch-Ernährungstherapie (DNT), die ein wichtiger Bestandteil in der konservativen Behandlung von Patienten mit chronischer Nierenerkrankung ist, die den pharmakologischen Therapien vorangeht und diese integriert. Zu den Zielen der DNT gehören die Aufrechterhaltung eines optimalen Ernährungszustands, die Vorbeugung und/oder Korrektur von Anzeichen, Symptomen und Komplikationen des chronischen Nierenversagens und möglicherweise die Verzögerung des Dialysebeginns. Das DNT umfasst die Modulation der Proteinzufuhr, die angemessene Kalorienzufuhr, die Kontrolle der Natrium- und Kaliumzufuhr und die Reduzierung der Phosphorzufuhr. Bei allen diätetischen und ernährungsphysiologischen Therapien, insbesondere bei Patienten mit chronischer Niereninsuffizienz, ist das Problem der Patientenadhärenz des diätetisch-ernährungsphysiologischen Schemas ein Schlüsselelement für Erfolg und Sicherheit der DNT und kann durch interdisziplinärer und multiprofessioneller Ansatz für Information, Aufklärung, diätetische Verordnung und Nachsorge. Dieses Konsensusdokument, das zwanzig wesentliche Punkte des Ernährungsansatzes bei Patienten mit fortgeschrittenem chronischem Nierenversagen definiert, wurde von den italienischen Nephrologen zusammen mit Vertretern von Ernährungsberatern (ANDID) und Patienten (ANED) verfasst, diskutiert und geteilt.;-;-;-;https://link.springer.com/article/10.1007/s40620-018-0497-z 1d032bb7960ee5e1b4548af0a4c8bf7a;de;;;6.2.;;;Twitter-Nutzung bei der Konferenz über die Wissenschaft der Verbreitung und Umsetzung im Gesundheitswesen 2016: Analyse von #DIScience16 Eine schlechte Verbreitung von Forschungsergebnissen kann die Reichweite und Wirkung wissenschaftlicher Entdeckungen beeinträchtigen. Eine wichtige neue Plattform für die Verbreitung von Forschungsergebnissen sind soziale Medien, einschließlich Twitter. Während Twitter und andere soziale Medien zunehmend genutzt werden, um auf wissenschaftlichen Konferenzen präsentierte Forschungsinhalte zu verbreiten, haben nur wenige Studien untersucht, inwieweit diese Tools auf Konferenzen eingesetzt werden und wie sie verwendet werden. Ziel dieser Studie war es, die Nutzung von Twitter während der Jahreskonferenz 2016 zur Wissenschaft der Verbreitung und Umsetzung im Gesundheitswesen (D&I-Konferenz) besser zu verstehen.;-;-;-;https://link.springer.com/article/10.1186/s13012-018-0723-z 94734d7b47f57bce839a348311af1a5f;de;;;6.2.;;;Ressourcenknappheit und Ungleichheit beim Zugang werden international häufig als ethische Probleme für Physiotherapeuten gemeldet: eine Beobachtungsstudie Über die ethischen Situationen, denen Physiotherapeuten international begegnen, ist wenig bekannt. Dieser Mangel an Wissen behindert die Fähigkeit des Berufsstandes, Physiotherapeuten in allen Weltregionen in ihrer ethischen Praxis vorzubereiten und zu unterstützen. Ziel der Studie war es, die folgenden Forschungsfragen zu beantworten: Welche Arten von ethischen Problemen erleben Physiotherapeuten international? Wie häufig treten bei Physiotherapeuten international ethische Probleme auf? Können Häufigkeit und Art ethischer Probleme von Physiotherapeuten anhand soziodemografischer, bildungs- oder berufsbezogener Variablen vorhergesagt werden?;-;-;-;https://link.springer.com/article/10.1186/s12910-021-00663-x bf928fa07f154dd8461f7d237b717fcc;de;;;6.2.;;;Analyse dringender/notwendiger Umstellungen von der überwachten Anästhesieversorgung zur Vollnarkose mit Atemwegsinstrumentierung Monitored Anesthesia Care (MAC) ist ein Anästhesiedienst, der die Titration von Sedativa/Analgetika umfasst, um unterschiedliche Sedierungsgrade zu erreichen und gleichzeitig eine Vollnarkose (GA) und Atemwegsinstrumente zu vermeiden. Das Ziel unserer Studie war es, die Gesamtinzidenz der Konversion von MAC zur Vollnarkose mit Atemwegsinstrumentierung zu bestimmen und Gründe und Risikofaktoren für eine Konversion aufzuklären.;-;-;-;https://link.springer.com/article/10.1186/s12871-021-01403-9 669c1054980c70edf4ebec7f40e8df1d;de;;;6.2.;;;Integration einer LCZ-basierten Klassifikation in WRF zur Bewertung des innerstädtischen Temperaturverlaufs während einer Hitzeperiode in Szeged, Ungarn Bei der Simulation des Phänomens der urbanen Wärmeinseln ist die genaue Abbildung der urbanen Geometrie in numerischen Modellen entscheidend. In dieser Studie wurde das lokale Klimazonensystem (LCZ) in das Wetterforschungs- und Vorhersagemodell (WRF) integriert, um geeignete Landoberflächeninformationen für die Modellintegrationen zu ermöglichen. Nach der Berechnung der notwendigen Eingabeparameter der Überdachung, basierend auf lokalen statischen Datensätzen, wurden Simulationen durchgeführt, um die Leistung des Modells bei der Vorhersage der oberflächennahen Lufttemperatur zu testen (;-;-;-;https://link.springer.com/article/10.1007/s00704-019-02881-1 b58f23313cbc947e3edc312fb3dfb62a;de;;;6.2.;;;Investitionen in HIV/AIDS-Programme: Tragen sie zur Stärkung der Gesundheitssysteme in Entwicklungsländern bei? Es wird zunehmend darüber diskutiert, ob die verstärkten Investitionen in HIV/AIDS-Programme die fragilen Gesundheitssysteme vieler Entwicklungsländer stärken oder schwächen. Dieser Artikel untersucht und bewertet die Evidenz und schlägt Wege vor.;-;-;-;https://link.springer.com/article/10.1186/1744-8603-4-8 1976edbba7d7bbc823b2555202faf3cf;de;;;6.2.;;;Modelle der nächsten Generation zur Speicherung und Darstellung von mikrobiellen biologischen Annotationen Herkömmliche Genom-Annotationssysteme wurden in einer ganz anderen Computer-Ära entwickelt, in der das World Wide Web gerade erst entstand. Folglich sind diese Systeme als zentralisierte Blackboxen aufgebaut, die sich darauf konzentrieren, qualitativ hochwertige Anmerkungs-Einreichungen an GenBank/EMBL zu generieren, unterstützt durch manuelle Kuration durch Experten. Das exponentielle Wachstum von Sequenzdaten führt zu einem wachsenden Bedarf an immer hochwertigeren und automatisch generierten Annotationen.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-11-S6-S15 d11f2894a7399af97c8a6e927af74051;de;;;6.2.;;;Fortschritte hin zu universellen HIV-Tests bei TB-Patienten in Vietnam: eine retrospektive Kohortenbewertung der TB/HIV-Überwachung, 2011–2017 Tuberkulose (TB) und HIV bleiben weltweit eine der Hauptursachen für Morbidität und Mortalität. Wir führten eine Analyse der TB/HIV-Überwachungsdaten durch, um die Trends bei der HIV-Testabdeckung und der HIV-Positivitätsrate bei TB-Patienten in Vietnam von 2011 bis 2017 zu beschreiben.;-;-;-;https://link.springer.com/article/10.1186/s40249-019-0536-6 71e19e3947f2cd8a4289209610c71a38;de;;;6.2.;;;Differentielle Epidemiologie und Antibiotikaresistenz von laktosefermentierenden und nichtfermentierenden Harnwegsinfektionen (HWI) gehören weltweit zu den häufigsten Infektionen beim Menschen. Auftreten atypischer, lactosefreier, biochemisch „inaktiver“ Stämme von”;-;-;-;https://link.springer.com/article/10.1007/s42977-020-00016-6 5e47373c2d9e95f265e4ff308bd9e8eb;de;;;6.2.;;;Geschäfts- und IT-Ausrichtung in einem turbulenten Geschäftsumfeld Business- und IT-Alignment wird derzeit als wichtigstes Anliegen von Unternehmen bezeichnet, da es als Schlüsselkonzept zur Sicherstellung der Anforderungen eines sich schnell ändernden Geschäfts gilt. Das Ziel der Ausrichtung unter solchen Umständen kann als Anpassung der Geschwindigkeit der Unternehmensveränderung an die Geschwindigkeit der Umweltveränderung definiert werden. Hier wird ein Ausrichtungsmodell für Unternehmen vorgeschlagen, die in einem turbulenten Geschäftsumfeld tätig sind. Dieses Modell geht von der Koexistenz zweier Änderungsströme aus: dem „Top-Down“-Flow vom Geschäftsmodell zur operativen Ebene und dem „Bottom-Up“-Flow, der die Organisation an kleinere Veränderungen anpasst. Es wird ein Änderungsmodell entwickelt, das drei Phasen (Änderungserkennung, Modellierung und Lösungsimplementierung) umfasst, und es werden Schlüsselfaktoren diskutiert, die den Zeitpunkt der Änderung bestimmen. Es werden auch quantitative Parameter vorgeschlagen, die helfen können, Veränderungen zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-26762-3_10 d32bb9cbe5d85f94065cd475e7c2c309;de;;;6.2.;;;Bericht über klinisch-pathologische Merkmale von Brustkrebs bei HIV-infizierten und nicht infizierten Frauen in Botswana Charakterisierung der klinisch-pathologischen Merkmale einschließlich Östrogenrezeptor (ER), Progesteronrezeptor (PR) und Her-2/neu (HER2) Expression bei Brustkrebs in Botswana und deren Vergleich nach HIV-Status.;-;-;-;https://link.springer.com/article/10.1186/s13027-019-0245-6 74fc400dabb515884783d0b3e272eb28;de;;;6.2.;;;Vergleiche zwischen leichten und schweren Fällen von Hand-Fuß-Mund-Krankheit in zeitlichen Trends: eine vergleichende Zeitreihenstudie aus dem chinesischen Festland In den letzten Jahrzehnten hat sich die Hand-Fuß-Mund-Krankheit (HFMD) aufgrund ihrer hohen Komplikationsraten zu einer ernsthaften Bedrohung für die öffentliche Gesundheit im asiatisch-pazifischen Raum entwickelt. Das Verständnis der Unterschiede und Ähnlichkeiten zwischen leichten und schweren Fällen kann bei der Kontrolle von HFMD hilfreich sein. In dieser Studie haben wir die beiden Arten von HFMD-Fällen in ihren zeitlichen Trends verglichen.;-;-;-;https://link.springer.com/article/10.1186/s12889-016-3762-x 58cf3e76849f6ad29f5addb021c24177;de;;;6.2.;;;Eine Überprüfung der Faktoren, die den Transfer von Schulungen im Bereich der sexuellen und reproduktiven Gesundheit in die Praxis in humanitären Umgebungen von Ländern mit niedrigem und mittlerem Einkommen beeinflussen income Der fehlende Zugang zu sexueller und reproduktiver Gesundheit (SRH) ist die Hauptursache für Morbidität und Mortalität bei vertriebenen Frauen und Mädchen im gebärfähigen Alter. Zu den Bemühungen, diesem Notfall im Bereich der öffentlichen Gesundheit in humanitären Einrichtungen zu begegnen, gehört die weit verbreitete Bereitstellung von Schulungsprogrammen, um Lücken in der Kapazität des Gesundheitspersonals für SRH zu schließen. Es fehlt weiterhin an Daten zu den Faktoren, die die Fähigkeit von Gesundheitspersonal beeinflussen können, SRH-Wissen und -Fähigkeiten anzuwenden, die durch Schulungsprogramme im humanitären Kontext erworben wurden.;-;-;-;https://link.springer.com/article/10.1186/s13031-017-0118-9 cdaaa70e4dec6e8a295063706f3cb30c;de;;;6.2.;;;Entwicklung und Modernisierung öffentlicher Einrichtungen der primären Gesundheitsversorgung mit grundlegender Infrastruktur für chirurgische Dienste: eine Strategie zur Erreichung einer universellen Gesundheitsversorgung in Tansania Die Entwicklung und Modernisierung der Infrastruktur zur Unterstützung sicherer chirurgischer Dienste in Einrichtungen der primären Gesundheitsversorgung ist ein wichtiger Schritt auf dem Weg zur Erreichung einer universellen Gesundheitsversorgung (UHC). Eine qualitativ hochwertige Gesundheitsversorgung zusammen mit einem gerechten geografischen Zugang und der Bereitstellung von Diensten sind wichtige Bestandteile der UHC. Tansania hat in die Entwicklung der Infrastruktur investiert, um wichtige sichere Operationen in der Nähe der Gemeinden zu erschwinglichen Kosten anzubieten und gleichzeitig bessere Ergebnisse zu erzielen. Diese Studie zielte darauf ab, die Bemühungen des öffentlichen Sektors zur Verbesserung der Infrastruktur von primären Gesundheitseinrichtungen zwischen 2005 und 2019 zu verstehen. Wir bewerteten die Bauraten, die geografische Abdeckung und den physischen Zustand jeder Einrichtung, die chirurgische Sicherheit und die in öffentlichen primären Gesundheitseinrichtungen erbrachten Leistungen.;-;-;-;https://link.springer.com/article/10.1186/s12913-020-5057-2 da0cefb19a4ca0586d2a25a400a7896c;de;;;6.2.;;;Übergänge zu digitalen Ressourcen: Veränderung, Invarianz und Orchestrierung Dieses Kapitel berichtet über die Arbeit der Arbeitsgruppe 4 und konzentriert sich auf die Integration digitaler Ressourcen in die Lehr- und Lernpraxis der Mathematik. Es gibt fünf zentrale Abschnitte mit den Schwerpunkten Instrumentale Genese, Instrumentale Orchestrierung, dokumentarischer Zugang zur Didaktik, digitale Ressourcen und Lehrerbildung sowie die Gestaltung von Lernumgebungen unter Nutzung digitaler Ressourcen. In diesen fünf Abschnitten wird eine Reihe von Konstrukten und theoretischen Ansätzen behandelt, und der einleitende Abschnitt kommentiert die Konstruktvalidität und Fragen in „vernetzenden“ theoretischen Rahmen. Das Kapitel kann als Literaturübersicht betrachtet werden, die die bisherige und gegenwärtige (zum Zeitpunkt der Erstellung) wissenschaftliche Forschung im Hinblick auf mögliche zukünftige Forschungen untersucht. Das Kapitel ist in mehreren Dimensionen umfangreich: Es wird eine große Bandbreite an digitalen Ressourcen und Anwendungen betrachtet, die Fächer, die digitale Ressourcen nutzen, sind nicht nur Lehrende, sondern auch Studierende, Lehramtsstudierende und Lehramtsstudierende. Zu den in den Abschnitten aufgeworfenen Themen gehören die individuelle und kollektive Nutzung von Ressourcen, die Anpassung dieser Ressourcen an spezifische Lernziele und die Vorbereitung von (vor- und berufsbegleitenden) Lehrkräften auf die Nutzung digitaler Ressourcen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20393-1_12 b2050283dac3431eaad976589c829818;de;;;6.2.;;;Vermittlung von physiotherapeutischen Fähigkeiten in kulturell vielfältigen Klassen Kulturelle Kompetenz, die Fähigkeit, in interkulturellen Situationen zu arbeiten, wurde als Kernkompetenz von Physiotherapeuten und anderen Gesundheitsberufen anerkannt. Die Literatur in diesem Bereich konzentriert sich auf die Gründe für Physiotherapeuten, eine kulturell kompetente Betreuung anzubieten, und die Wirksamkeit verschiedener Bildungsstrategien, um den Erwerb von Wissen über kulturelle Kompetenz durch Physiotherapeuten und Physiotherapiestudenten zu erleichtern. Es gibt jedoch nur wenige Forschungsergebnisse darüber, wie Studierende mit unterschiedlichen kulturellen Bedürfnissen, die eine Hochschulklasse besuchen, im Rahmen des Erlernens von physiotherapeutischen Kernkompetenzen untergebracht werden können, um professionelle Standards zu erreichen.;-;-;-;https://link.springer.com/article/10.1186/1472-6920-11-34 f54eb04bb3f163b24b2494d47b92086d;de;;;6.2.;;;Implementierung computergestützter Gesundheitschecks der Aborigines und der Torres Strait Islander in der Primärversorgung für klinische Versorgung und Forschung: eine Prozessbewertung Papierbasierte Gesundheitschecks der Aborigines und der Torres Strait Islander haben einen präventiven Ansatz in der Grundversorgung gefördert und Daten zur Unterstützung der Forschung des Inala Indigenous Health Service im Südwesten von Brisbane, Australien, bereitgestellt. Bedenken hinsichtlich der Einschränkungen von papierbasierten Gesundheitsprüfungen veranlassten uns, auf ein computergestütztes System umzusteigen, um potenzielle Vorteile für klinische Dienstleistungen und Forschungskapazitäten zu realisieren. Wir beschreiben die Gründe, die Implementierung und den erwarteten Nutzen von computergestützten Gesundheitschecks der Aborigines und der Torres Strait Islander in einer primären Gesundheitsversorgung.;-;-;-;https://link.springer.com/article/10.1186/1472-6947-13-108 5b653e98da4060e1ea480fa455eca336;de;;;6.2.;;;PDM-ProValue erfüllt kardiovaskuläre Outcome-Studien bei Diabetes Neue Studien haben unser Wissen über optimale Behandlungsmöglichkeiten bei Diabetes erweitert. Wichtige Studien, die unser Wissen über optimale Behandlungsmöglichkeiten bei Diabetes in den letzten Jahren erweitert haben, sind kardiovaskuläre Outcome Trials (CVOTs) und Studien zu Aspekten der Digitalisierung und des Glukosemonitorings (z. B. PDM-ProValue). Unser Ziel war es, Gemeinsamkeiten zwischen den beiden wichtigen Säulen für ein erfolgreiches Diabetes-Management aufzuzeigen. Wir betonen die Notwendigkeit, beide Ansätze in zukünftigen Designs und Protokollen klinischer Studien zu berücksichtigen.;-;-;-;https://link.springer.com/article/10.1186/s12933-019-0815-3 56210869f6da266f552a43458d443615;de;;;6.2.;;;Verständnis der Risiko- und Schutzfaktoren im Zusammenhang mit Fettleibigkeit bei libyschen Erwachsenen – eine qualitative Studie Es gibt eine Reihe vielfältiger Verhaltens- und gesellschaftlicher Faktoren, die zusammen zu den Ursachen von Fettleibigkeit beitragen. Es ist jedoch noch nicht bekannt, wie insbesondere die kulturellen Normen der Länder zur globalen Adipositas-Epidemie beitragen. Obwohl die Fettleibigkeit in Libyen epidemische Ausmaße annimmt, fehlen seit der Entdeckung des Öls im Jahr 1959 Informationen über Fettleibigkeit bei libyschen Erwachsenen. Diese Studie versuchte, die Ansichten wichtiger Informanten über die Risiko- und Schutzfaktoren im Zusammenhang mit Fettleibigkeit bei libyschen Männern und Frauen zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s12889-018-5411-z f772ccc64e794eeb709262d7d8738ee9;de;;;6.2.;;;Kampf gegen den gemeinsamen Feind von COVID-19: eine Praxis des Aufbaus einer Gemeinschaft mit einer gemeinsamen Zukunft für die Menschheit Der Ausbruch der Coronavirus-Krankheit 2019 (COVID-19) hat seit Mitte Dezember 2019 mehr als 80 813 bestätigte Fälle in allen Provinzen Chinas und 21 110 gemeldete Fälle in 93 Ländern auf sechs Kontinenten seit Mitte Dezember 2019 verursacht des neuartigen Coronavirus, das als schweres akutes respiratorisches Syndrom Coronavirus 2 (SARS-CoV-2) mit schnellerer Ausbreitung und unbekanntem Übertragungsmuster bezeichnet wird, bringt uns in die schwierige Lage, die Übertragung der Krankheit weltweit einzudämmen. Bis heute haben wir festgestellt, dass es eine der größten Herausforderungen für den Menschen im Kampf gegen COVID-19 in der Geschichte ist, da sich SARS-CoV-2 in Bezug auf biologische Merkmale und Übertragbarkeit von SARS-CoV und MERS-CoV unterscheidet. und stellte auch fest, dass die in China umgesetzten Eindämmungsstrategien einschließlich der nicht-pharmazeutischen Maßnahmen im Bereich der öffentlichen Gesundheit wirksam und erfolgreich sind. Um einen möglichen Ausbruch von COVID-19 auf pandemischer Ebene zu verhindern, empfehlen wir als Gemeinschaft der gemeinsamen Zukunft der Menschheit allen internationalen Führern, die Bereitschaft insbesondere in Ländern mit niedrigem und mittlerem Einkommen zu unterstützen, starke globale Interventionen zu ergreifen, indem alte Ansätze verwendet werden oder neue Instrumente, weltweite Ressourcen mobilisieren, um Krankenhauseinrichtungen und -bedarf zum Schutz vor schädlichen Infektionen auszustatten und der allgemeinen Bevölkerung persönliche Schutzinstrumente wie Gesichtsmasken zur Verfügung zu stellen und rasch Forschungsprojekte zur Arzneimittel- und Impfstoffentwicklung zu initiieren. Wir empfehlen der internationalen Gemeinschaft auch, eine bessere Koordinierung, Zusammenarbeit und starke Solidarität bei den gemeinsamen Bemühungen zur Bekämpfung der Verbreitung von COVID-19 zu entwickeln, die im gemeinsamen Missionsbericht der Experten der WHO und China empfohlen werden, gegen die Internationale 2005) und gegen Stigmatisierung, um schließlich den Kampf gegen unseren gemeinsamen Feind – COVID-19 – zu gewinnen.;-;-;-;https://link.springer.com/article/10.1186/s40249-020-00650-1 48d8f4bbc85d64f81f2a1f638b94fe52;de;;;6.2.;;;Maximierung der Schadensminimierung in der frühen Facharztausbildung für Allgemeinmedizin: Validierung einer Sicherheitscheckliste Die sicherere Gesundheitsversorgung ist weltweit eine der wichtigsten politischen Prioritäten. In der Facharztausbildung können medizinische Ausbilder unbeabsichtigt Auswirkungen auf die Patientensicherheit haben, z. durch Versagen der Supervision, begrenztes Feedback zur Leistung und unkontrolliertes Fortbestehen von schlecht entwickelten Verhaltensweisen. Ärzte in Ausbildung sind auch dafür bekannt, anfällig für medizinische Fehler zu sein. Es ist angesichts des Umfangs der zu bewältigenden Aufgaben problematisch, sicherzustellen, dass alle wesentlichen pädagogischen Fragen während der Ausbildung behandelt werden. Menschliches Versagen und die Zuverlässigkeit lokaler Systeme können das Risiko erhöhen, dass sicherheitskritische Themen nicht ausreichend abgedeckt werden. Die Einhaltung einer Checklisten-Erinnerung kann jedoch die Zuverlässigkeit der Aufgabenerfüllung verbessern und die Schadensminimierung maximieren. Unser Ziel war es, die sicherheitskritischsten Themen zu priorisieren, die in den ersten 12 Wochen der Facharztausbildung in der Allgemeinpraxis zu behandeln sind, und eine entsprechende Checkliste zur Erinnerung zu validieren.;-;-;-;https://link.springer.com/article/10.1186/1471-2296-13-62 97d41421f68cc99cf93556888daa27eb;de;;;6.2.;;;Anwendbarkeit und Leistungsfähigkeit des EUCAST Rapid Antimicrobial Susceptibility Test (RAST) an primär sterilen Körperflüssigkeiten in Blutkulturflaschen in der Laborroutine mit vollständiger Laborautomatisierung Eine Optimierung der mikrobiologischen Diagnostik in überwiegend sterilen Körperflüssigkeiten ist erforderlich. Unser Ziel war es, den RAST von EUCAST auf primär sterile Körperflüssigkeiten in Blutkulturflaschen mit Total Lab Automation (TLA) anzuwenden und die Ergebnisse mit unserer Referenzmethode Vitek2 zu vergleichen, um Anfälligkeitsergebnisse früher zu melden. Positive Blutkulturflaschen (BACTEC™ Aerobic/Anaerobic/PEDS), die mit primär sterilen Körperflüssigkeiten beimpft waren, wurden halbautomatisch auf Columbia 5% SB-Agar, Schokoladenagar, MacConkey-Agar, Schaedler/KV-Agar und Mueller-Hinton-Agar subkultiviert. Zu letzteren wurden Cefoxitin, Ampicillin, Vancomycin, Piperacillin/Tazobactam, Meropenem und Ciprofloxacin hinzugefügt. Nach 6 h wurden Subkulturen und RAST abgebildet und MALDI-TOF MS durchgeführt. Die Zonengrößen wurden digital gemessen und nach RAST-Grenzwerten für Blutkulturen interpretiert. Die MHK-Werte wurden mit Vitek2-Panels bestimmt. Während eines 1-Jahres-Zeitraums 197;-;-;-;https://link.springer.com/article/10.1007/s10096-020-04146-6 e723b3835627a6c83dcb24b18cec8ad5;de;;;6.2.;;;Für Geld oder Service? eine Querschnittsstudie zur Präferenz von ghanaischen Medizinstudenten für finanzielle versus nichtfinanzielle Merkmale der ländlichen Praxis Der Mangel an Gesundheitspersonal und die Fehlverteilung gehören zu den größten Bedrohungen für die Gesundheitssysteme in Afrika. Neue medizinische Absolventen sind die Hauptziele für die Anwerbung in benachteiligten ländlichen Gebieten. Es wurden jedoch nur wenige Untersuchungen durchgeführt, um den Einfluss des Hintergrunds und der Zukunftspläne der Arbeitnehmer auf ihre Präferenz für Anreize und Merkmale der ländlichen Praxis zu bestimmen. Der Zweck dieser Studie war es, Determinanten der Präferenz für ländliche Berufsmerkmale unter Medizinstudenten im vierten Jahr in Ghana zu identifizieren.;-;-;-;https://link.springer.com/article/10.1186/1472-6963-11-300 b6b729e213f22b3f3f5c3aa80de84f23;de;;;6.2.;;;Aufbau von Kapazitäten ohne Unterbrechung der Gesundheitsversorgung: öffentliche Gesundheitserziehung für Afrika durch Fernunterricht Die Personalkrise in Afrika ist im Bereich der öffentlichen Gesundheit besonders akut. Durch Fernstudien hat die School of Public Health der University of the Western Cape, Südafrika, Gesundheitsfachkräften aus mehr als 20 afrikanischen Ländern Zugang zu einer Master-Ausbildung im Bereich Public Health ermöglicht, während sie im Amt bleiben. Seit 2000 ist das Interesse so stark gestiegen, dass viermal mehr Bewerbungen eingehen, als berücksichtigt werden können. Dieses selbst entwickelte Programm bleibt sensibel für die Bedürfnisse der Ziellernenden und bindet sie gleichzeitig in ein qualitativ hochwertiges Lernen ein, das in ihrem eigenen Arbeitskontext angewendet wird.;-;-;-;https://link.springer.com/article/10.1186/1478-4491-7-28 a1845487a5f07a4adeb02bbf9f76efce;de;;;6.2.;;;Verhinderung der Mutter-Kind-Übertragung von HIV: Lehren aus China Das Programm zur Prävention der Mutter-Kind-Übertragung (PMTCT) des Humanen Immunschwächevirus (HIV) wurde 2003 in China gestartet, aber es wurden nur wenige Studien durchgeführt, um das Panorama von PMTCT zu beschreiben. Wir untersuchten die Rate und die damit verbundenen Faktoren der Mutter-Kind-Übertragung (MTCT) in China von 2004 bis 2018.;-;-;-;https://link.springer.com/article/10.1186/s12879-020-05516-3 4bb80293d33644141bb5258e4b823b6b;de;;;6.2.;;;Komplexitätsabsorption: ein prozessualer strategischer Ansatz für die Unternehmensstrategie des Unternehmertums Im Gegensatz zu traditionellen strategischen Ansätzen, die auf Komplexitätsreduktion basieren, zielt dieser Beitrag darauf ab, einen alternativen Weg zu entwickeln, um unternehmerische Strategie und Komplexität aus einer prozessualen Perspektive zu verstehen. Die neue Perspektive wird aus einer prozessualen Perspektive entwickelt, die Erkenntnisse aus einem Verständnis von Komplexität integriert, um sich mit philosophischen Darstellungen des chinesischen prozessualen Denkens zu beschäftigen, insbesondere in Bezug auf die Anwendung auf unternehmerische Strategien. Der neue theoretische Rahmen wird empirisch anhand von Fallstudien von 30 Unternehmerorganisationen in China untersucht. Die Ergebnisse bestätigen, dass Timing und Aktion, Kontext/Situation und Wirksamkeit die drei Schlüsselkomponenten der Komplexitätsabsorption als bevorzugte unternehmerische strategische Ansätze sind.;-;-;-;https://link.springer.com/article/10.1186/s11782-017-0015-5 b31da782d938720382bde29f7d7a96ba;de;;;6.2.;;;Auswertung von Online-Gesundheitsinformationen für Patienten mit Polymyalgia rheumatica: eine beschreibende Studie Das Internet wird zunehmend für den Zugriff auf Gesundheitsinformationen verwendet, obwohl die Qualität der Informationen variiert. Ziel dieser Studie war es, die Lesbarkeit und Qualität von Websites zum Thema Polymyalgia rheumatica (PMR) zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s12891-017-1416-5 2a482d8692e856971ae450f2d3c56718;de;;;6.2.;;;Psychologische Auswirkungen, Unterstützungs- und Informationsbedarf für Frauen mit einem auffälligen Pap-Abstrich: Vergleichsergebnisse eines Fragebogens in drei europäischen Ländern Derzeit liegen umfangreiche Informationen zum Thema Gebärmutterhalskrebs vor. Seine Wirksamkeit bei der Verringerung der Angst bei Frauen, die abnormale Pap-Tests erhalten, ist nicht klar. Wir untersuchten aktuelle Praktiken der Kommunikation von abnormalen Pap-Ergebnissen, um die Reaktionen von Frauen zu bewerten und die Informationsquellen zu bestimmen, die sie anschließend verwenden.;-;-;-;https://link.springer.com/article/10.1186/1472-6874-11-18 707d8f6b4d84da6a169e4ec16eb86fa7;de;;;6.2.;;;Evaluation der hausärztlichen Versorgung chronischer Erkrankungen im Hochdeckungskontext der Family Health Strategy Diese Querschnittsstudie evaluierte die Angemessenheit der Familiengesundheitsstrategie für das Modell der Grundversorgung für chronische nichtübertragbare Krankheiten und die Veränderungen, die zwischen den beiden Zyklen der externen Evaluierungen des Nationalen Programms zur Verbesserung des Zugangs und der Qualität der Grundversorgung stattgefunden haben in den Jahren 2012 und 2014 im Rahmen der höheren Abdeckung der Familiengesundheitsstrategie Brasiliens im Bundesstaat Tocantins, Brasilien.;-;-;-;https://link.springer.com/article/10.1186/s12913-019-4737-2 b8ed1a5c1b8821d985bb027b3e469b37;de;;;6.2.;;;Trends und Determinanten des Besuchs privater Gesundheitseinrichtungen zur Gesundheitsversorgung von Müttern und Kindern in Nepal: Vergleich dreier nepalesischer demografischer Gesundheitserhebungen, 2006, 2011 und 2016 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gesundheitsdienste für Mütter und Kinder sind sowohl in öffentlichen als auch in privaten Einrichtungen in Nepal verfügbar. Studien haben sich noch nicht mit den Trends bei der Inanspruchnahme von Gesundheitsdiensten für Mütter und Kinder im Zeitverlauf in Nepal befasst. Dieses Papier bewertet Trends und Determinanten des Besuchs privater Gesundheitseinrichtungen für die Gesundheit von Müttern und Kindern unter Verwendung national repräsentativer Daten aus den letzten drei aufeinanderfolgenden Nepal Demographic Health Surveys (NDHS).;-;-;-;https://link.springer.com/article/10.1186/s12884-020-03485-8 d465cd0fd18af6ab07d5d3d5e16b3727;de;;;6.2.;;;"G6PD-Tests zur Unterstützung der Behandlung und Elimination von Malaria: Empfehlungen zur Bewertung von G6PD-Tests Die Eliminierung der Malaria wird nur durch ernsthafte Versuche möglich sein, asymptomatische Infektionen und chronische Infektionen sowohl durch Plasmodium falciparum als auch durch Plasmodium vivax zu bekämpfen. Derzeit verfügbare Medikamente, die einen Menschen vollständig von P. vivax befreien können (bekannt als ""radikale Heilung"") und die die Übertragung von Malariaparasiten reduzieren können, sind diejenigen aus der 8-Aminochinolin-Medikamentenfamilie, wie Primaquin. Leider riskieren Menschen mit Glucose-6-Phosphat-Dehydrogenase (G6PD)-Mangel schwere Nebenwirkungen, wenn sie diesen Medikamenten in bestimmten Dosen ausgesetzt sind. G6PD-Mangel ist der häufigste menschliche Enzymdefekt, von dem weltweit etwa 400 Millionen Menschen betroffen sind.";-;-;-;https://link.springer.com/article/10.1186/1475-2875-12-391 4db1b34ee597496ac2b8a77b513a7c0f;de;;;6.2.;;;Komorbiditätsmuster und sozioökonomische Ungleichheiten bei Kindern unter 15 Jahren mit medizinischer Komplexität: eine bevölkerungsbezogene Studie Kinder mit medizinischer Komplexität (CMC) bezeichnet das Profil eines Kindes mit vielfältigen akuten und chronischen Erkrankungen, das die Gesundheitsleistungen intensiv in Anspruch nimmt und besondere gesundheitliche und soziale Bedürfnisse hat. Frühere Studien zeigen, dass CMC auch von der sozioökonomischen Position (SEP) ihrer Familie betroffen sind. Das Ziel dieser Studie ist es, die pathologischen Muster von CMC und ihre sozioökonomischen Ungleichheiten zu beschreiben, um ihre Bedürfnisse besser zu bewältigen, Gesundheitsdienstleistungen entsprechend zu planen und die vorhandenen Versorgungsmodelle zu verbessern.;-;-;-;https://link.springer.com/article/10.1186/s12887-020-02253-z bf5fc2614245a2ca33ae5ea8363b4134;de;;;6.2.;;;Die sechs wichtigsten Fragen in der psychiatrischen Diagnostik: ein Plural Teil 1: Begriffs- und Definitionsfragen in der psychiatrischen Diagnostik Angesichts der vielfachen Kontroversen um den DSM-Prozess im Allgemeinen und die Entwicklung von DSM-5 im Besonderen haben wir eine Diskussion über sechs wesentliche Fragen organisiert, die wir für die weitere Arbeit am DSM halten. Die sechs Fragen beinhalten: 1) die Natur einer psychischen Störung, 2) die Definition einer psychischen Störung, 3) die Frage, ob DSM-5 nach dem aktuellen Stand der psychiatrischen Wissenschaft eine vorsichtige, konservative Haltung oder eine durchsetzungsfähige Haltung einnehmen sollte , transformative Haltung, 4) die Rolle pragmatischer Überlegungen bei der Konstruktion von DSM-5, 5) die Frage des Nutzens des DSM – ob DSM-III und IV eher für Kliniker oder Forscher konzipiert wurden und wie dieser Konflikt aussehen sollte die im neuen Handbuch behandelt werden, und 6) die Möglichkeit und Zweckmäßigkeit, angesichts aller Probleme mit DSM-III und IV, ein anderes Diagnosesystem zu konzipieren. Teil I dieses Artikels wird die ersten beiden Fragen aufgreifen. Mit der ersten Frage äußern eingeladene Kommentatoren eine Reihe von Meinungen über die Natur psychiatrischer Störungen, lose unterteilt in eine realistische Position, dass die diagnostischen Kategorien reale Krankheiten darstellen, die wir mit unseren Wahrnehmungsfähigkeiten genau benennen und erkennen können, eine mittlere, nominalistische Position, psychiatrische Störungen in der realen Welt existieren, aber dass unsere diagnostischen Kategorien Konstrukte sind, die die Störungen da draußen genau darstellen können oder nicht, und schließlich eine rein konstruktivistische Position, dass die diagnostischen Kategorien einfach Konstrukte ohne Beweise für psychiatrische Störungen in der realen Welt sind . Die zweite Frage bietet wiederum eine Reihe von Meinungen darüber, wie wir eine psychische oder psychiatrische Störung definieren sollten, einschließlich der Möglichkeit, dass wir nicht versuchen sollten, eine Definition zu formulieren. Die allgemeine Einführung sowie die Einführungen und Schlussfolgerungen zu den spezifischen Fragen wurden von James Phillips verfasst, und die Antworten auf die Kommentare wurden von Allen Frances verfasst.;-;-;-;https://link.springer.com/article/10.1186/1747-5341-7-3 b787023c241dd68a43d1eb358f8e1f4a;de;;;6.2.;;;Räumlich-zeitliche Analyse von . auf Haushaltsebene Der weltweite Rückgang der Malariabelastung und die Eliminierungsziele haben zu einem erhöhten Interesse an der Epidemiologie der Malaria im Detail geführt. Die mikrogeografische Heterogenität der Malariainfektion könnte Auswirkungen auf die Entwicklung gezielter kleinräumiger Interventionen haben.;-;-;-;https://link.springer.com/article/10.1186/s13071-017-2124-6 77c740c4ef03f33f10ff834e120e60dd;de;;;6.2.;;;Große Aussichten für die Erforschung vektorübertragener Hundekrankheiten und neuartiger Interventionsmethoden unter Verwendung von „Omic-Technologien“ Canine Vektor-borne Diseases (CVBDs) sind weltweit von großer sozioökonomischer Bedeutung. Obwohl viele Studien Einblicke in CVBDs geliefert haben, wurden grundlegende molekulare Aspekte der meisten Krankheitserreger, ihrer Vektoren, Krankheitserreger-Wirt-Beziehungen sowie Krankheits- und Arzneimittelresistenzen unter Verwendung fortschrittlicher Omic-Technologien nur begrenzt erforscht. Ziel des vorliegenden Artikels ist es, einen prospektiven Blick auf die Auswirkungen zu werfen, die Omics-Technologien der nächsten Generation haben könnten, wobei der Schwerpunkt auf der Beschreibung der Prinzipien der transkriptomischen/genomischen Sequenzierung sowie bioinformatischer Technologien und ihrer Auswirkungen auf grundlegende Anwendungsgebiete der CVBD-Forschung. Die Behandlung wichtiger biologischer Fragen unter Verwendung dieser Technologien wird einen „systembiologischen“ Kontext bieten und könnte zu radikal neuen Interventions- und Managementstrategien gegen CVBDs führen.;-;-;-;https://link.springer.com/article/10.1186/1756-3305-4-53 f5c161bada3b85bc3abae0539abdd13d;de;;;6.2.;;;Korrelationen und Determinanten der Ergebnisse der Frühgeborenendiagnose in Nord-Zentral-Nigeria Ein negativer Status nach konfirmatorischer Früherkennung (EID) ist das gewünschte pädiatrische Ergebnis der Prävention von Mutter-Kind-Übertragungsprogrammen (PMTCT). EID wirkt sich auf die Epidemiekontrolle aus, indem es nicht infizierte HIV-exponierte Säuglinge (HEIs) bestätigt und eine rechtzeitige Einleitung einer ART bei HIV-infizierten Babys veranlasst, was die Behandlungsergebnisse verbessert.;-;-;-;https://link.springer.com/article/10.1186/s12981-019-0245-z 272158153f780cdbe15380da20271b92;de;;;6.2.;;;Vergleich der Ergebnisse bei Patienten in der Notaufnahme mit Verdacht auf kardiale Brustschmerzen: zweizentrische prospektive Beobachtungsstudie in Südchina Hongkong (HK) und Guangzhou (GZ) sind Städte in China mit unterschiedlichen Gesundheitssystemen. Ziel dieser Studie war es, die 30-Tage- und 6-Monats-Mortalität und die Merkmale von Patienten mit Verdacht auf kardiale Brustschmerzen zu vergleichen, die in zwei Notaufnahmen (ED) in HK und GZ aufgenommen wurden.;-;-;-;https://link.springer.com/article/10.1186/s12872-018-0814-4 8d3dfe5340408c4a03c0b086fe3a3246;de;;;6.2.;;;Gerechtigkeitsorientiertes Toolkit für die Bewertung von Gesundheitstechnologien und die Wissensübersetzung: Anwendung auf die Ausweitung der Aus- und Weiterbildung für Gesundheitspersonal Die Humanressourcen für das Gesundheitswesen befinden sich weltweit in einer Krise, insbesondere in wirtschaftlich benachteiligten Gebieten und Gebieten mit hohen HIV/AIDS-Raten sowohl bei Gesundheitspersonal als auch bei Patienten. Zur Bewältigung dieser Krise wurden internationale Organisationen wie die Global Health Workforce Alliance gegründet. Eine technische Arbeitsgruppe innerhalb der Global Health Workforce Alliance entwickelte Empfehlungen für die Ausweitung der Aus- und Weiterbildung von Gesundheitspersonal. Das Papier wird veranschaulichen, wie Entscheidungsträger Evidenz und Instrumente aus einem auf Chancengleichheit ausgerichteten Toolkit nutzen können, um die Ausbildung und Ausbildung von Gesundheitspersonal zu erweitern, wobei fünf Empfehlungen der Facharbeitsgruppe folgen. Das Equity-Oriented Toolkit, das vom World Health Organization Collaborating Center for Knowledge Translation and Health Technology Assessment in Health Equity entwickelt wurde, umfasst vier Hauptschritte: (1) Krankheitslast, (2) Effektivität der Gemeinschaft, (3) wirtschaftliche Bewertung und (4) Wissensübersetzung/-implementierung. Relevante Tools aus jedem dieser Schritte werden mit der entsprechenden Empfehlung der technischen Arbeitsgruppe abgeglichen.;-;-;-;https://link.springer.com/article/10.1186/1478-4491-7-67 783a21385441d60c2185f2dedca72340;de;;;6.2.;;;Treiber einer verbesserten Leistung des Gesundheitssektors in Ruanda: eine qualitative Sicht von innen Ruanda hat bei mehreren wichtigen Gesundheitsindikatoren, einschließlich der Müttersterblichkeit und anderer gesundheitlicher Ergebnisse, große Verbesserungen erzielt. Da stellt sich die Frage: Was hat dies möglich gemacht und was macht Ruanda so einzigartig?;-;-;-;https://link.springer.com/article/10.1186/s12913-016-1351-4 079a47e3048bb789bd314d113d7b9aa8;de;;;6.2.;;;Werden die vom NHMRC empfohlenen Prozesse zur Verbesserung der kardialen Rehabilitation (CR) für Aborigines und Bewohner der Torres Strait Islander umgesetzt?: eine Bewertung der CR-Dienste in Westaustralien Herz-Kreislauf-Erkrankungen sind die Hauptursache für den vorzeitigen Tod indigener Australier, und trotz der Beweise, dass kardiale Rehabilitation (CR) und Sekundärprävention wiederkehrende Erkrankungen und Todesfälle reduzieren können, ist die CR-Aufnahme suboptimal. Die Richtlinien des National Health and Medical Research Council (NHMRC);-;-;-;https://link.springer.com/article/10.1186/1743-8462-6-29 81a8f4360d88c7f38f9256e8e935cf93;de;;;6.2.;;;Risikofaktoren für pädiatrische Wundinfektionen nach neurochirurgischen Eingriffen bei Hydrozephalus: eine retrospektive monozentrische Kohortenstudie Eine Infektion ist eine der Hauptkomplikationen nach Ableitungsverfahren der Hirnspinalflüssigkeit (CSF) bei Hydrozephalus. Allerdings sind die pädiatrischen Risikofaktoren für eine chirurgische Wundinfektion (SSI) derzeit nicht gut definiert. Da ein SSI-Präventionspaket zunehmend eingeführt wird, war der Zweck dieser Studie die Bewertung von Risikofaktoren im Zusammenhang mit SSIs nach Liquorableitungsoperationen nach einem SSI-Paket in einem einzigen quartären Kinderkrankenhaus.;-;-;-;https://link.springer.com/article/10.1186/s12871-021-01342-5 52feb24df423c1cbf60e745912c19395;de;;;6.2.;;;Lehrerausbildung: Technologie hilft bei der Entwicklung eines innovativen und reflektierenden Berufsprofils Die Gesellschaft des frühen 21. Jahrhunderts wird als Wissensgesellschaft bezeichnet. Die Schulen können es sich nicht leisten, sich von den schnelllebigen Veränderungen abzukoppeln, und haben deshalb Innovation zu einer ihrer Hauptprioritäten gemacht. Eine der tiefgreifendsten Veränderungen und Innovationen der letzten Jahre betrifft die digitalen Technologien. Während das Wissen und die Beherrschung digitaler Werkzeuge und Prozesse Garanten für Gerechtigkeit im Bildungssystem sind, müssen sich Schulen auch der Herausforderung stellen, allen Schülerinnen und Schülern digitale Werkzeuge und Anwendungen zur Verfügung zu stellen, ohne dabei einen Aspekt ihrer Bildungsfunktion zu vernachlässigen. Gleichzeitig müssen sich Lehrkräfte auch in die digitalen Kompetenzen einbringen, die die unvermeidlichen Meilensteine ​​der Bildung von heute und morgen sind. Wie bei anderen Berufen in anderen Branchen gehört es heute zum Lehrberuf, diese digitalen Werkzeuge und Prozesse zu kennen, zu beherrschen und ständig zu aktualisieren.;-;-;-;https://link.springer.com/article/10.7238/rusc.v12i2.2458 2132c118f9961675203c1420952647ca;de;;;6.2.;;;Metabolomik und Stoffwechselwegenetzwerke von humanem Dickdarmkrebs, angrenzender Schleimhaut und Stuhl Kolorektale Karzinome (CRC) sind mit Störungen in zellulären Aminosäuren, Nukleotiden, Kohlenhydraten im Pentose-Phosphat-Weg und glykolytischen, glukoneogenen und Tricarbonsäure-Zwischenprodukten verbunden. Ein nicht zielgerichteter globaler Metabolom-Ansatz wurde zur Untersuchung von humanem CRC, angrenzender Schleimhaut und Stuhl verwendet. In dieser Pilotstudie identifizierten wir Unterschiede im Metabolitprofil zwischen CRC und angrenzender Schleimhaut von Patienten, die sich einer Kolonresektion unterzogen. Metabolische Pfadanalysen zeigten außerdem Beziehungen zwischen komplexen Netzwerken von Metaboliten.;-;-;-;https://link.springer.com/article/10.1186/s40170-016-0151-y 27d0624e5de77588902c980fb0a38949;de;;;6.2.;;;Die Erfahrungen mit dem Zusammenschluss von Krankenkassen in Südkorea, der Türkei, Thailand und Indonesien: eine länderübergreifende Vergleichsstudie Die Fragmentierung des Krankenversicherungssystems kann zu Ungleichheiten beim finanziellen Zugang zu und der Nutzung von Gesundheitsdiensten führen. Eine Möglichkeit, dieser Herausforderung zu begegnen, ist die Zusammenlegung der bestehenden Krankenkassen. In diesem Artikel sollen die Erfahrungen Südkoreas, der Türkei, Thailands und Indonesiens bei der Zusammenlegung ihrer Krankenkassen überprüft und verglichen werden.;-;-;-;https://link.springer.com/article/10.1186/s12939-021-01382-w 16c4480f1c06992fda35fff74485fe82;de;;;6.2.;;;Industrie 4.0 und Umweltbilanzierung: eine neue Revolution? Das Papier versucht zu untersuchen, wie durch die Umweltbilanzierung der breitere Kontext der unternehmerischen Nachhaltigkeit in die sich entwickelnde Vision für Industrie 4.0, die vierte industrielle Revolution, einbezogen werden könnte. Es wird argumentiert, dass durch die Einbeziehung des Berufsstandes die Umweltbilanzierung verbessert werden könnte und mit geringen zusätzlichen Kosten auf große tatsächliche und potenzielle Investitionen in eine Industrie 4.0-Infrastruktur, die auf die Digitalisierung von Unternehmen ausgerichtet ist, getätigt werden könnte. Industrie 4.0 könnte erfolgreich als Basis genutzt werden, um sowohl die externe Umweltrechnungslegung als auch die Umweltmanagementrechnung zu nutzen. Es wird ein neues akademisches Forschungsprogramm vorgeschlagen, das darauf abzielt, herauszufinden, wie Industrie 4.0 eine genauere, qualitativ hochwertigere Echtzeit-Umweltbilanzierung und externe Umweltberichterstattung in relevanten Sektoren, Unternehmensgrößen, über verschiedene Managementrollen und kollaborative Einstellungen hinweg sowie in der Versorgung ermöglichen könnte facilitate und Wertschöpfungsketten. Es werden Wege aufgezeigt, wie Wirtschaftsprüfer, Berufsverbände und Behörden dazu beitragen können, die Vorteile von Industrie 4.0 für die Umweltbilanzierung zu nutzen. Dazu gehören Aus- und Weiterbildungsmöglichkeiten sowie der Aufbau von Effizienz- und Kostensenkungskonzepten, die ein wesentlicher Bestandteil von Industrie 4.0 sind. Dieses innovative Papier untersucht erstmals das Potenzial aktueller und erwarteter Großinvestitionen weltweit in Industrie 4.0, um eine Grundlage für Verbesserungen der unternehmerischen Nachhaltigkeit durch eine stärkere Berücksichtigung der Umweltbilanzierung zu schaffen.;-;-;-;https://link.springer.com/article/10.1186/s41180-016-0007-y 10542f886258e756d1111600f6940cae;de;;;6.2.;;;Dokumentation bewährter Verfahren: Ausbau des jugendfreundlichen Gesundheitsmodells in Kolumbien Junge Menschen machen 24,5 % der Bevölkerung Lateinamerikas aus. Ein unzureichendes Angebot an spezifischen und rechtzeitigen Angeboten zur sexuellen und reproduktiven Gesundheit (SRH) und zur Sexualaufklärung für junge Menschen erhöht ihr Risiko für sexuelle und reproduktive Erkrankungen. Kolumbien ist eines der wenigen Länder in Lateinamerika, das spezifische und differenzierte Gesundheits- und SRH-Dienste eingeführt und ausgebaut hat, die als Youth Friendly Health Services (YFHS)-Modell bezeichnet werden.;-;-;-;https://link.springer.com/article/10.1186/s12978-015-0079-7 2e686909adfb47233770330f63b709ee;de;;;6.2.;;;Das Pharmazeutische Leistungssystem 2003–2004 Das Pharmaceutical Benefits Scheme (PBS) wuchs 2003-04 um 8 %, eine langsamere Rate als das durchschnittliche Wachstum von 12,0 % pa im letzten Jahrzehnt. Dennoch blieb die Nachhaltigkeit des Programms angesichts einer alternden Bevölkerung und der anhaltenden Einführung nützlicher (aber immer teurer werdender) neuer Medikamente ein anhaltendes Problem. Es gab auch Bedenken, dass das Freihandelsabkommen zwischen Australien und den Vereinigten Staaten weiteren Druck auf das Programm ausüben könnte. Im Jahr 2003 wie im Jahr 2002 schlug die Regierung eine 27 %ige Erhöhung der PBS-Patientenzuzahlungen und der Schwellenwerte für das Sicherheitsnetz vor, um einen größeren Teil der PBS-Kosten von der Regierung auf die Verbraucher zu übertragen. Während diese Maßnahme zunächst vom Senat blockiert wurde, führte die bevorstehende Wahl dazu, dass die Labour Party diese Politik schließlich unterstützte. Empfehlungen des Beratungsausschusses für pharmazeutische Vorteile, ein Arzneimittel in die PBS aufzunehmen, nicht aufzulisten oder aufzuschieben, wurden zum ersten Mal öffentlich zugänglich gemacht und die vollen Kosten von PBS-Arzneimitteln wurden auf den Arzneimitteletiketten aufgeführt, wenn der Preis höher war als der co -Zahlung. Pharmazeutische Reformen in viktorianischen öffentlichen Krankenhäusern, die darauf abzielen, Kostenverschiebungen bei PBS zu minimieren, wurden evaluiert und auf andere Bundesstaaten und Territorien ausgeweitet. Programme zur Förderung der qualitativ hochwertigen Verwendung von Arzneimitteln wurden weiterentwickelt, koordiniert vom National Prescribing Service, den Australian Divisions of General Practice und der Pharmacy Guild of Australia. Die umfassende Einführung computergestützter Verschreibungssoftware durch Hausärzte brachte Vorteile, aber auch Probleme mit sich. Letzteres beinhaltete die pharmazeutische Werbung, die zum Zeitpunkt der Verschreibung erfolgte, das Versäumnis, wichtige Quellen objektiver therapeutischer Informationen in die Software zu integrieren, und die starken Schwankungen in der Fähigkeit verschiedener Programme, wichtige Arzneimittelwechselwirkungen zu erkennen. Diese Probleme müssen noch angegangen werden.;-;-;-;https://link.springer.com/article/10.1186/1743-8462-2-2 87768ca7bb52b4d38934b39fa25f74f5;de;;;6.2.;;;Präferenzen für aktive und aggressive Intervention bei Patienten mit fortgeschrittenem Krebs Ein wesentlicher Bestandteil der patientenzentrierten Versorgung ist es, respektvoll und auf individuelle Patientenpräferenzen, geäußerte Bedürfnisse und persönliche Werte einzugehen. Die Festlegung der Präferenzen eines Patienten für aktive und aggressive Interventionen ist unerlässlich und grundlegend für die Entwicklung einer vorausschauenden Versorgungsplanung. Mit zunehmendem Bewusstsein und zunehmender Akzeptanz palliativer Behandlungsphilosophien wechseln Patienten mit fortgeschrittenem Krebs zunehmend von einer aktiven und aggressiven medizinischen Behandlung (AAMM) zu einer konservativen palliativen Behandlung (CPM).;-;-;-;https://link.springer.com/article/10.1186/1471-2407-10-592 41f5c6ecf9f6a94b2b76fe9ef6a5dd54;de;;;6.2.;;;Ein konzeptioneller Rahmen und ein Protokoll zur Definition klinischer Entscheidungsunterstützungsziele für medizinische Fachgebiete Die US-amerikanischen Zentren für Medicare und Medicaid-Dienste haben 2009 das Anreizprogramm für elektronische Gesundheitsakte (EHR) eingeführt, um die Einführung von EHRs zu fördern. Eine Komponente des Programms verlangt von berechtigten Anbietern, Interventionen zur klinischen Entscheidungsunterstützung (CDS) zu implementieren, die die Leistung bei einem oder mehreren für jedes Fachgebiet vorab ausgewählten Qualitätsmaßstäben verbessern können. Da die einzigartigen Herausforderungen bei der Entscheidungsfindung und die vorhandenen HIT-Fähigkeiten je nach Fachgebiet stark variieren, muss die Entwicklung sinnvoller Ziele für CDS innerhalb solcher Programme durch deliberative Analysen unterstützt werden.;-;-;-;https://link.springer.com/article/10.1186/1472-6947-12-93 962901abefd11b24e106ec028f3679dd;de;;;6.2.;;;Die Scottish Early Rheumatoid Arthritis (SERA)-Studie: eine Anfangskohorte und Biobank Die Scottish Early Rheumatoid Arthritis (SERA)-Studie ist eine Anfangskohorte von Patienten mit rheumatoider (RA) und undifferenzierter Arthritis (UA) mit dem Ziel, eine zeitgemäße Beschreibung des Phänotyps und der Ergebnisse zu liefern und die Entdeckung phänotypischer und prognostischer Biomarker zu erleichtern;-;-;-;https://link.springer.com/article/10.1186/s12891-016-1318-y 08cb880d63ef9b0ad2f913bcdb2e6c5e;de;;;6.2.;;;Nachhaltigkeit im Gesundheitswesen durch effektive Ressourcenallokation (SHARE) 5: Entwicklung eines Modells für eine evidenzbasierte Ressourcenallokation in einem lokalen Gesundheitsumfeld Dies ist der fünfte in einer Reihe von Papieren, die über Nachhaltigkeit im Gesundheitswesen durch effektive Ressourcenallokation (SHARE) in einer lokalen Gesundheitsversorgung berichten. Dieses Papier fasst die Erkenntnisse aus Phase Eins des SHARE-Programms zusammen und stellt ein Modell vor, das in Phase Zwei implementiert und evaluiert werden soll. Monash Health, ein großes Gesundheitsnetzwerk in Melbourne, Australien, bemühte sich um die Einrichtung eines organisationsweiten systematischen evidenzbasierten Programms zur Desinvestition. In Ermangelung einer Anleitung aus der Literatur wurde das Center for Clinical Effectiveness, eine interne „Evidence Based Practice Support Unit“, gebeten, Konzepte und Praktiken im Zusammenhang mit Desinvestition zu untersuchen, die Auswirkungen auf einen lokalen Gesundheitsdienst zu prüfen und mögliche Einstellungen zu identifizieren und Methoden zur Entscheidungsfindung.;-;-;-;https://link.springer.com/article/10.1186/s12913-017-2208-1 aca3472bb179f18583e1f3124c47cbff;de;;;6.2.;;;Erfolgreiche Strategien für eine hohe Beteiligung an drei regionalen Gesundheitsumfragen: eine Beobachtungsstudie Umfragen in regionalen Gesundheitseinrichtungen zur quantitativen Erfassung der nosokomialen Infektionsraten sind wichtig, um die standardisierte Datenerhebung und die Bewertung der Gesundheitsergebnisse im Zeitalter der Meldepflicht zu bestätigen. Dies ist besonders wichtig für die Bewertung der Infektionskontrollpolitik und der mit der Gesundheitsversorgung verbundenen Infektionsraten in Krankenhäusern. Der Erfolg solcher Umfragen hängt jedoch von einer hohen Beteiligung und Repräsentativität der Befragten ab.;-;-;-;https://link.springer.com/article/10.1186/1471-2288-11-176 da035cb97ad41801ce5376dfa8a72c48;de;;;6.2.;;;Eine pragmatische Cluster-randomisierte Studie zur Bewertung von drei Implementierungsinterventionen evaluating Die Umsetzungsforschung beschäftigt sich mit der Überbrückung der Kluft zwischen Evidenz und Praxis durch das Studium von Methoden, um die Übernahme der Forschung in die Routinepraxis zu fördern. Evidenz von guter Qualität wurde in Leitlinienempfehlungen zusammengefasst, um zu zeigen, dass die perioperativen Fastenzeiten erheblich kürzer sein könnten, als dies bei Patienten derzeit der Fall ist. Ziel dieser Studie war es, die Wirksamkeit von drei Strategien zur Umsetzung von Empfehlungen zum perioperativen Fasten zu evaluieren.;-;-;-;https://link.springer.com/article/10.1186/1748-5908-7-80 91f886e4323076a624f61315ea069f3b;de;;;6.2.;;;Integriertes Vektormanagement: Die sambische Erfahrung Das sambische Malaria-Kontrollprogramm mit den Roll Back Malaria (RBM)-Partnern hat den aktuellen Nationalen Malaria-Strategieplan (NMSP 2006–2011) entwickelt, der sich auf die Prävention basierend auf der Strategie des Integrierten Vektormanagements (IVM) konzentriert. Die Einführung und Umsetzung einer IVM-Strategie wurde in Übereinstimmung mit den Schritten der Weltgesundheitsorganisation (WHO) zur IVM-Implementierung geplant, nämlich Einführungsphase, Konsolidierungsphase und Expansionsphase.;-;-;-;https://link.springer.com/article/10.1186/1475-2875-7-164 fa340fe4daf09bd7229ed36a4839c90c;de;;;6.2.;;;Governance des Gesundheitssystems zur Unterstützung einer integrierten psychischen Gesundheitsversorgung in Südafrika: Herausforderungen und Chancen Südafrika verfügt zwar über einen neuen politischen Rahmen, der die Integration der psychischen Gesundheitsversorgung in die primäre Gesundheitsversorgung unterstützt, dies reicht jedoch nicht aus, um die Transformation des Gesundheitssystems hin zu einer integrierten primären psychischen Gesundheitsversorgung sicherzustellen. Die Stärkung der Gesundheitssysteme ist erforderlich, indem;-;-;-;https://link.springer.com/article/10.1186/s13033-015-0004-z 20f5a0895f1f72da58619c9e836b0b22;de;;;6.2.;;;Zugangsbarrieren zur Versorgung in einem verwalteten Wettbewerbsmodell: Lehren aus Kolumbien Die Reform des Gesundheitssektors in Kolumbien, die durch Gesetz 100 (1993) eingeleitet wurde, das ein Modell des gesteuerten Wettbewerbs einführte, wird im Allgemeinen als erfolgreiche Erfahrung bei der Verbesserung des Zugangs zur Gesundheitsversorgung durch einen regulierten Krankenversicherungsmarkt dargestellt. Ziel der Studie ist es, unser Verständnis der Faktoren zu verbessern, die den Zugang zum Versorgungskontinuum im kolumbianischen Managed-Competition-Modell aus Sicht der sozialen Akteure beeinflussen.;-;-;-;https://link.springer.com/article/10.1186/1472-6963-10-297 c19c9315d93b0018170a22b2ea8e199b;de;;;6.2.;;;Bewertung alternativer Kriterien zur Bestimmung des optimalen Standorts von RWIS-Stationen Dieser Artikel stellt einen umfassenden Rahmen zur Bestimmung des Standorts von Stationen des Straßenwetterinformationssystems (RWIS) über ein regionales Straßennetz vor. In der vorgeschlagenen Methodik wird die Region in ein Raster von gleich großen Zonen unterteilt, die als minimale räumliche Einheit für die Zuweisung eines Kandidatensatzes von RWIS-Stationen betrachtet werden. Diese Zonen werden nach einer Reihe von vordefinierten Kriterien geordnet, die den Bedarf an und den potenziellen Nutzen von Echtzeit-Straßenwetterinformationen widerspiegeln, einschließlich der Variabilität der Straßenoberflächentemperatur, Niederschlag, Netzwerkverkehr und Kollisionsmuster. Eine Fallstudie basierend auf dem bestehenden RWIS-Netzwerk in der Provinz Ontario wurde durchgeführt, um die Hauptmerkmale der vorgeschlagenen Methode zu veranschaulichen und die Auswirkungen alternativer Standortauswahlkriterien zu bewerten. Die Ergebnisse der Studie legen nahe, dass es möglich ist, einen systematischen Prozess zur Lokalisierung von RWIS-Stationen zu entwickeln, der ein integriertes Standortkriterium verwendet, um mehrere in der Praxis berücksichtigte Faktoren zu erfassen. Die Studie hat auch die Notwendigkeit aufgezeigt, quantitative Modelle zur Schätzung des Nutzens von Echtzeitinformationen von RWIS-Stationen zu erstellen, die die Grundlage eines kosten-nutzen-basierten RWIS-Standortoptimierungsmodells bilden.;-;-;-;https://link.springer.com/article/10.1007/s40534-013-0008-9 e55b0240b62dd82c32718ad84f861518;de;;;6.2.;;;Adaptive Techniken in fortschrittlichen 4G-Mobilfunknetzen Die Kapazität von 4G-Mobilfunknetzen wie Long Term Evolution Advanced kann durch eine größere Bandbreite für den Mehrträgerbetrieb, eine höhere Anzahl von Antennen für mehr räumliches Multiplexing, eine engere Wiederverwendung von Funkzellen mit demselben Frequenzspektrum und eine Optimierung der Netzwerkkonfiguration im Allgemeinen erhöht werden. Die potenziell höhere Kapazität wird nur erreicht, wenn das gesamte Funknetz jederzeit mehr oder weniger perfekt an die vorhandene reale Umgebung angepasst werden kann. Diese reale Umgebung, die beispielsweise den Funkkanal, den Nutzverkehr, die Geräteleistung und die Netzkonfiguration umfasst, kann sich jedoch innerhalb einer Zeitskala in einem weiten Bereich von unter 1 ms bis über 100 s ändern. Geeignete lineare oder nichtlineare adaptive Techniken, die in der Lage sind, diese Veränderungen zu verfolgen, werden für breitbandige lineare Leistungsverstärker, Antennensysteme mit mehreren Eingängen und mehreren Ausgängen, heterogene Netzwerke und selbstorganisierende Netzwerke einschließlich der entsprechenden Realisierungs- und Leistungsaspekte beschrieben.;-;-;-;https://link.springer.com/article/10.1186/s13634-016-0310-x 9935c4aaeb9982ad1b17d7aec5042f34;de;;;6.2.;;;Einfluss sozioökonomischer Deprivation auf Rate und Todesursache bei schweren psychischen Erkrankungen Der sozioökonomische Status hat einen wichtigen Zusammenhang mit der krankheitsspezifischen Mortalität in der Allgemeinbevölkerung. Obwohl Personen mit schweren psychischen Erkrankungen (SMI) eine signifikante vorzeitige Sterblichkeit aufweisen, wird der Zusammenhang zwischen sozioökonomischem Status und Mortalität in dieser Gruppe noch nicht untersucht. Unser Ziel war es, den Einfluss des sozioökonomischen Status auf Rate und Todesursache bei Personen mit SMI (Schizophrenie und bipolare Störung) im Vergleich zur lokalen (Glasgow) und breiteren (schottischen) Bevölkerung zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s12888-014-0261-4 04d0e12b4785c4ded3f4fffeef883e90;de;;;6.2.;;;HL7-Version 2 Hl7 v2 ist das am weitesten verbreitete Austauschformat im Gesundheitswesen. Nachrichten werden als Reaktion auf Triggerereignisse gesendet. Nachrichten umfassen einen Satz von Segmenten, die unter Verwendung einer abstrakten Nachrichtensyntaxtabelle definiert sind. Segmente enthalten Felder und Felder enthalten Komponenten, Komponenten können Unterkomponenten enthalten, die durch Trennzeichen getrennt sind. Segmente werden in Segmentdefinitionstabellen angegeben. Z-Segmente sind lokal definiert. Datentypen sind die grundlegenden Bausteine ​​in jedem Element. Manche sind einfach, andere komplex. Codes werden mithilfe von Tabellen definiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30370-3_12 fdaca952807652a9a92810fe3023078e;de;;;6.2.;;;Implementierung einer vernetzten Gesundheitsintervention zur Fernüberwachung von Patienten in Saudi-Arabien und Pakistan: Erklären des „Was“ und „Wie“ Die jüngsten Entwicklungen in der vernetzten Gesundheitstechnologie bieten die Möglichkeit, Patienten, die eine langfristige medizinische Versorgung benötigen, aus der Ferne zu überwachen und die Gesundheitsversorgung bereitzustellen. Informationen darüber, wie verbundene Gesundheitsinterventionen für die Patientenfernüberwachung implementiert werden sollten und wie Patienten aufgeklärt und für eine aktive Teilnahme an der Behandlung befähigt werden sollten, sind jedoch noch nicht in ausreichendem Maße verfügbar.;-;-;-;https://link.springer.com/article/10.1186/s12992-019-0462-1 2e4bc1798d84028fc4d619bfff40e69a;de;;;6.2.;;;Wandlung zum Bösen? Auf der Suche nach einer (weicheren) Systemsicht der Sicherheitsergonomie Eine Reihe von Terroranschlägen Ende 2014 und Anfang 2015 veranlasste den Leiter des britischen Sicherheitsdienstes, die Notwendigkeit zu kommentieren, die dem Dienst zur Verfügung stehenden Informationsflüsse zu verbessern, um die neuen Aufgaben zu bewältigen, mit denen er konfrontiert ist. Die Kommentare hoben die Spannungen hervor, die in den Post-Snowden-Enthüllungen rund um die inländische Überwachung und das Sammeln von Informationen entstanden sind, und diese Bedenken betreffen sowohl Organisationen des öffentlichen als auch des privaten Sektors. Die Intervention des Leiters von MI5 wirft eine Reihe von Fragen zur Gestaltung von Sicherheitsorganisationen und ihrer Funktion auf, und zwar in einem größeren Systemkontext, wo Veränderungen in der Umgebung entsprechende Veränderungen in den Kernprozessen und Funktionen der Organisation erfordern. Dies ist ein zentraler Bereich der Sicherheitsergonomie und die Art und Weise, wie eine Organisation ihre Reaktion auf eine immer komplexer werdende Bedrohungsmatrix gestalten kann, ist der Hauptzweck dieses Artikels. Es stellt sich die Frage, wie man eine so leistungsstarke Organisation „gestalten“ kann und insbesondere eine, die das von der Sicherheitsfunktion häufig geforderte Null-Ausfall-Mandat erfüllen kann. Das hier vorgebrachte Argument ist, dass Organisationen, die Sicherheit als eine „Anfangsfunktion“ für bestehende Organisationsaktivitäten betrachten, ausnahmslos die breitere strategische Dynamik von Bedrohungs-Reaktions-Interaktionen und vor allem die Rolle, die andere Organisationsaktivitäten spielen können, nicht erfassen werden bei der Gestaltung dieses Prozesses. Dieser Artikel nähert sich der Frage aus der Perspektive zweier verwandter Forschungseinrichtungen – Soft Systems Methodology und Ergonomie/Human Factors.;-;-;-;https://link.springer.com/article/10.1057/sj.2015.41 e6ee7114e11f3d9808c028b3330f3f97;de;;;6.2.;;;Freischaltung von Echokardiogramm-Messungen für die Erforschung von Herzerkrankungen durch Verarbeitung natürlicher Sprache Um die Mechanismen kardiovaskulärer Erkrankungen bei HIV-infizierten und nicht infizierten Patienten zu untersuchen, ist eine Analyse der Echokardiogrammberichte für eine große multizentrische Längsschnittstudie erforderlich.;-;-;-;https://link.springer.com/article/10.1186/s12872-017-0580-8 4294322011d7efaaff6d93d964409af8;de;;;6.2.;;;Eine Untersuchung der Prostatakrebs-Trends in Australien, England, Kanada und den USA: Ist die australische Sterberate zu hoch? Vergleich der Inzidenz- und Sterblichkeitsraten von Prostatakrebs in Australien, den USA, Kanada und England und Quantifizierung der Lücke zwischen den beobachteten Todesfällen durch Prostatakrebs in Australien und den erwarteten Todesfällen unter Verwendung der US-Sterblichkeitsraten.;-;-;-;https://link.springer.com/article/10.1007/s00345-015-1514-7 912e17e9a9b10bbb7a28f691cf870b76;de;;;6.2.;;;Einheitskosten der Gesundheitsdienstleistungen in öffentlichen 200-Betten-Krankenhäusern in Myanmar: Welche Rolle spielt die Krankenhausbudgetierung? Kosteninformationen sind wichtig für die effiziente Zuweisung von Gesundheitsausgaben, die Schätzung der zukünftigen Budgetzuweisung und die Festlegung von Benutzergebühren zum Start neuer Finanzierungssysteme. Myanmar befindet sich im politischen Übergang und versucht, bis 2030 eine universelle Gesundheitsversorgung zu erreichen. In dieser Studie wurden die Einheitskosten der Gesundheitsdienste in zwei öffentlichen Krankenhäusern des Landes aus Sicht der Anbieter bewertet. Die Studie analysierte auch die Kostenstruktur der Krankenhäuser, um die Budgets angemessen zu verteilen und zu verwalten.;-;-;-;https://link.springer.com/article/10.1186/s12913-017-2619-z a360f911065fbad5c7938c2a4b9ea110;de;;;6.2.;;;Trends in der Schwangerschaftsvorsorge und der Bereitstellung von Gesundheitseinrichtungen nach den Systemen der Gemeinden und Gesundheitseinrichtungen zur Stärkung der Interventionen in Norduganda Mütterliche Morbidität und Mortalität sind in Uganda nach wie vor hoch, was hauptsächlich auf unzureichende Schwangerschaftsvorsorge (ANC), gering qualifizierte Geburten und schlechte Qualität anderer Gesundheitsdienste für Mütter zurückzuführen ist. Um sowohl der Nachfrage als auch der Qualität von ANC und qualifizierten Lieferungen gerecht zu werden, haben wir Maßnahmen zur Mobilisierung der Gemeinde und zur Stärkung der Kapazitäten von Gesundheitseinrichtungen eingeführt.;-;-;-;https://link.springer.com/article/10.1186/1471-2393-13-189 155e21e7ce1a7d0e92acac41158985a8;de;;;6.2.;;;"Wie verwaltet man einen Markt? Auftragsarten in England und Deutschland In Quasi-Märkten wird die Kontrolle über Gesundheitsdienstleister durch Kommissare vermittelt. Verschiedene Kommissare wenden unterschiedliche Kombinationen von sechs Kontrollmethoden (""Medien der Macht"") zur Ausübung von Governance an: Managementleistung, Verhandlung, diskursive Kontrolle, Anreize, Wettbewerb und rechtliche Kontrolle. Dieses Papier vergleicht die Vorgehensweise von englischen und deutschen Gesundheitsbeauftragten.";-;-;-;https://link.springer.com/article/10.1186/1472-6963-13-S1-S8 79233b3f4bdfbdc8ce7623101af62b72;de;;;6.2.;;;Multimedia-Analyseplattform für Kriminalprävention und -ermittlung Heutzutage fördert der Einsatz digitaler Technologien drei Hauptmerkmale von Informationen, nämlich die Menge, die Modalität und die Häufigkeit. Aufgrund der Menge an Informationen, die von Tools und Einzelpersonen generiert werden, wurde festgestellt, dass die Strafverfolgungsbehörden diese Informationen unbedingt nutzen und strafrechtliche Ermittlungen effektiv durchführen müssen. Als Antwort auf die zunehmenden Herausforderungen bei der Verwaltung riesiger Mengen heterogener Daten, die mit hoher Frequenz generiert werden, skizziert das Papier einen modularen Ansatz für die Verarbeitung von Informationen aus verschiedenen Informationsquellen und die Extraktion von Wissen zur Unterstützung der strafrechtlichen Ermittlungen. Die vorgeschlagene Plattform bietet neuartige Technologien und effiziente Komponenten für die skalierbare und verteilte Verarbeitung multimedialer Informationen, die es den Strafverfolgungsbehörden ermöglichen, die Analyse und mehrdimensionale Visualisierung krimineller Informationen an einem einzigen und sicheren Punkt durchzuführen.;-;-;-;https://link.springer.com/article/10.1007/s11042-020-10206-y 25d11e3d1b70adc85e40daf5ae80b146;de;;;6.2.;;;Ultraschallgesteuerter Erector-Spinae-Plane-Block versus thorakaler paravertebraler Block bei postoperativer Analgesie nach laparoskopischer Nephroureterektomie: Studienprotokoll einer randomisierten, doppelblinden, nicht unterlegenen Designstudie design Der Erector Spinae Plane Block (ESPB) ist ein neuartiger Interfascial Plane Block, der zunehmend in der postoperativen Schmerzkontrolle, insbesondere in der Brustchirurgie, eingesetzt wird. Eine regionale Blockade wird befürwortet, um den Opioidkonsum zu verringern und die Analgesie in der urologischen Chirurgie zu verbessern. Daher wollten wir untersuchen, ob ESPB eine ähnliche Analgesie wie eine thorakale paravertebrale Blockade (TPVB) bei der laparoskopischen Nephroureterektomie haben würde.;-;-;-;https://link.springer.com/article/10.1186/s13063-021-05173-0 8adae2611f8a68ac90e88096fa669c6f;de;;;6.2.;;;Hohe Inzidenz und niedrige Fallerkennungsrate bei Kontaktpersonen von Tuberkulosefällen in Shanghai, China Bewertung der Wirkung einer Kontaktuntersuchungsstrategie durch Bewertung der Tuberkuloseinzidenz und der Fallerkennungsrate bei Kontaktpersonen von Tuberkulosepatienten.;-;-;-;https://link.springer.com/article/10.1186/s12879-019-3942-2 1b7700d2d09ac9fcbba764df3a1132a8;de;;;6.2.;;;Differentielle Ansammlungen des menschlichen Darmmikrobioms während bodenübertragener Helmintheninfektionen in Indonesien und Liberia Der menschliche Darm und seine Mikrobiota sind der häufigste Infektionsort für bodenübertragene Helminthen (STH), die das Wohlbefinden von ~ 1,5 Milliarden Menschen weltweit beeinträchtigen. Die komplexen länderübergreifenden Interaktionen sind nicht gut verstanden.;-;-;-;https://link.springer.com/article/10.1186/s40168-018-0416-5 7b90f46363e757ba64a2143b84b1dbda;de;;;6.2.;;;Metabolische Veränderungen im Zusammenhang mit Methionin-Stressempfindlichkeit in MDA-MB-468-Brustkrebszellen Die Mehrheit der Krebszellen hat einen einzigartigen metabolischen Bedarf an Methionin, der in normalen, nicht tumorigenen Zellen nicht beobachtet wird. Dieser Phänotyp wird als „Methionin-Abhängigkeit“ oder „Methionin-Stress-Sensitivität“ beschrieben, bei der Krebszellen nicht in der Lage sind, sich zu vermehren, wenn Methionin durch seinen metabolischen Vorläufer Homocystein in Zellkultur-Wachstumsmedien ersetzt wurde. Wir konzentrieren uns auf die metabolische Reaktion auf Methionin-Stress in der dreifach negativen Brustkrebszelllinie MDA-MB-468 und ihrer Methionin-unempfindlichen Derivat-Zelllinie MDA-MB-468res-R8.;-;-;-;https://link.springer.com/article/10.1186/s40170-016-0148-6 febd4eb1b79004b7c7eba3de8e66bb29;de;;;6.2.;;;Übereinstimmung zwischen Selbstauskunft und Krankenakten der präventiven Gesundheitsversorgung bei einer Stichprobe benachteiligter Patienten aus vier von der Gemeinde kontrollierten Gesundheitsdiensten der Ureinwohner Diese Querschnittsstudie zielte darauf ab, anhand einer Stichprobe von Patienten, die einen von vier Gesundheitsdiensten der Aborigines (ACCHS) besuchten, den Grad der Übereinstimmung zwischen Selbstauskunft und Krankenakten zu untersuchen, ob jemals ein Screening auf wichtige Gesundheitsaspekte durchgeführt wurde oder innerhalb des empfohlenen Zeitrahmens durchgeführt wurde.;-;-;-;https://link.springer.com/article/10.1186/s12913-019-3930-7 ee4ebd3e3b9f29c3eb0bcbe973b77f6f;de;;;6.2.;;;Das Nationale Anti-Vivisektions-Krankenhaus, 1902-1935 Das Nationale Anti-Vivisektions-Krankenhaus war eines der bekanntesten Stücke der Anti-Vivisektions-Propaganda des frühen 20. Das Krankenhaus sollte zeigen, dass tierversuchsfreie Medizin für Patienten und Spender attraktiv ist und ohne staatliche Unterstützung betrieben werden kann worauf die Medizin ihre Autorität zunehmend begründete. Das Krankenhaus scheiterte, weil es von Mainstream-Wohltätigkeitsorganisationen boykottiert wurde, weil sie ihre Anti-Vivisektions-Prinzipien hochhielten, und von Anti-Vivisektionisten, weil sie diese Prinzipien kompromittiert hatten.;-;-;-;https://link.springer.com/chapter/10.1057/978-1-137-55697-4_5 f262d5dd347aa9c35d51342f6dbdc811;de;;;6.2.;;;Tasmanische Aborigines stärken ihre Gesundheit: Evaluierung eines kardiopulmonalen Rehabilitations- und Sekundärpräventionsprogramms Obwohl die Belastung durch Herz-Lungen-Erkrankungen in der Aborigine-Gemeinde hoch ist, war die Inanspruchnahme der Rehabilitationsdienste schlecht. Wir haben die Akzeptanz und Wirksamkeit eines kardiovaskulären und pulmonalen Rehabilitationsprogramms untersucht, das vom Tasmanian Aboriginal Centre speziell für die Aborigine-Gemeinde entwickelt und bereitgestellt wurde, für Menschen mit diagnostizierter chronischer Herz- oder Atemwegserkrankung und für Menschen mit einem hohen Risiko, solche Erkrankungen zu entwickeln.;-;-;-;https://link.springer.com/article/10.1186/1472-6963-14-349 b2a2e12dc900ef3dc4ad1f158ea3151d;de;;;6.2.;;;Verbesserung der Versorgungsqualität und der langfristigen Gesundheitsergebnisse durch Kontinuität der Versorgung durch Verwendung einer tragbaren Patientenakte in elektronischer oder Papierform (COMMUNICATE): Studienprotokoll für eine randomisierte kontrollierte Studie Die Vorteile von tragbaren Patientenakten (PHF) und persönlichen Gesundheitsakten (PHR) in Papierform oder elektronisch sollen eine verbesserte Kontinuität der Versorgung der Gesundheitsdienstleister und die Stärkung der Patienten bei der Aufrechterhaltung der Gesundheit umfassen. Top-down-Ansätze werden von Regierungen des öffentlichen Sektors und Gesundheitsmanagern bevorzugt. Bottom-up-Ansätze umfassen Systeme, die direkt von Gesundheitsdienstleistern, Verbrauchern und der Industrie entwickelt, lokal auf Geräten implementiert werden, die von Patienten und Verbrauchern mitgeführt oder über webbasierte Portale geteilt werden. Diese ermöglichen es Einzelpersonen, in einer privaten, sicheren und vertraulichen Umgebung auf ihre Gesundheitsdaten und die anderer, für die sie autorisiert sind, zuzugreifen, sie zu verwalten und zu teilen. Nur wenige Technologien zur Krankenakte wurden in randomisierten Studien evaluiert, um festzustellen, ob diese Interventionen einen wichtigen klinischen Nutzen haben. Die COMMUNICATE-Studie wird die Akzeptanz und die langfristigen klinischen Ergebnisse einer elektronischen und gedruckten PHF in Papierform bewerten.;-;-;-;https://link.springer.com/article/10.1186/s13063-015-0760-8 8d96ea11ad40ab58c2f149ebd8ba1384;de;;;6.2.;;;Halten Tuberkulosepatienten in China die vorgeschriebenen Behandlungen ein? Ergebnisse einer prospektiven Kohortenstudie Tuberkulose (TB)-Patienten sehen sich zahlreichen Schwierigkeiten gegenüber, sich an das langfristige, strenge TB-Behandlungsschema zu halten. Die Ergebnisse zur Therapieadhärenz von TB-Patienten variieren je nach vorhandener Literatur und offiziellen Berichten. In der vorliegenden Studie wurde versucht, die tatsächliche Therapieadhärenz neuer TB-Patienten zu bestimmen und Faktoren zu identifizieren, die zu einer Nichtadhärenz führen.;-;-;-;https://link.springer.com/article/10.1186/s40249-016-0134-9 aa6030d84d88560c0c478f40caa118ca;de;;;6.2.;;;Forschungstrends und wissenschaftliche Analyse von Publikationen zu Burnout und Mitgefühlsmüdigkeit bei Gesundheitsdienstleistern Burnout und Mitgefühlsmüdigkeit sind eng miteinander verbundene Konzepte. Es wird angenommen, dass sich Burnout aus beruflichem Stress entwickelt, während Mitgefühlsmüdigkeit aus der Rolle einer Pflegeperson resultiert, was zu einer Unfähigkeit führt, sich auf eine fürsorgliche Beziehung einzulassen. Ziel der aktuellen Studie war es, Forschungstrends, Themen, Zitationen und Hauptakteure von Publikationen zu Burnout und Mitgefühlsmüdigkeit bei Gesundheitsdienstleistern zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s12995-020-00274-z cdd2a310051a55b1f49c6302fe683ba6;de;;;6.2.;;;Sicherheitsmaßnahmen zur Prävention von Gewalt am Arbeitsplatz in Notaufnahmezentren – eine Querschnittsstudie Mitarbeiter in Emergency Primary Care Center (EPCC) haben die persönliche Sicherheit als Thema angesprochen. Trotz eines hohen Risikos, in EPCCs in Norwegen Gewalt am Arbeitsplatz zu erleben, sind die Kenntnisse über angewandte Präventivmaßnahmen begrenzt. Die Beschreibung bestehender Sicherheitsmaßnahmen ist eine wichtige Voraussetzung, um auf nationaler Ebene Leitlinien zur Verbesserung von Präventionspraktiken zu bewerten und zu erstellen. Ziel dieser Studie war es, zu untersuchen, inwieweit Hausärzte allein in EPCCs in Norwegen arbeiten, und die Prävalenz anderer präventiver Maßnahmen gegen Gewalt am Arbeitsplatz abzuschätzen.;-;-;-;https://link.springer.com/article/10.1186/1472-6963-13-384 bd41d2ec595fb6a3b642774905737866;de;;;6.2.;;;Mixed Method Assessment für die BIM-Implementierung im AEC-Curriculum Ziel dieser Arbeit ist es, eine Mixed-Methods-Evaluationsstudie zu entwerfen. Ziel dieser Studie ist es, die Implementierung der Building Information Modeling/Management-Technologie im Curriculum Architekturingenieurwesen zu analysieren. Wir werden den Mixed-Methods-Evaluationsprozess basierend auf quantitativen und qualitativen Ansätzen verwenden, um den Grad der Motivation, Zufriedenheit und Leistung der Studenten mit der Building Information Modeling/Management (BIM)-Technologie zu messen und das richtige Feedback zu erhalten, um die Implementierung von BIM zu optimieren das Curriculum für Architektur, Ingenieurwesen und Baumanagement (AEC).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-39483-1_20 0364ec21c284747f793f7577ee64a11c;de;;;6.2.;;;Anwendung von openEHR-Archetypen zur Automatisierung von Datenqualitätsregeln für elektronische Patientenakten: eine Fallstudie Die Sicherstellung einer angemessenen Datenqualität ist für die sekundäre Verwendung elektronischer Patientenakten (EHRs) in der Forschung und klinischen Entscheidungsunterstützung unerlässlich. Eine effektive Methode der Datenqualitätsbewertung (DQA) ist die Automatisierung von Datenqualitätsregeln (DQRs), um den zeit- und arbeitsintensiven manuellen Prozess der Erstellung von DQRs zu ersetzen, der nur schwer standardisierte und vergleichbare DQA-Ergebnisse garantieren kann. Dieses Papier präsentiert eine Fallstudie zur automatischen Erstellung von DQRs basierend auf openEHR-Archetypen in einem chinesischen Krankenhaus, um die Durchführbarkeit und die Herausforderungen der Automatisierung von DQA für EHR-Daten zu untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s12911-021-01481-2 a47eb8d0ae299743e78bcec783410a0d;de;;;6.2.;;;Machbarkeit eines kodierungsbasierten Charlson-Komorbiditätsindex für Krankenhauspatienten in China, einem repräsentativen Entwicklungsland Der Charlson Comorbidity Index (CCI) kann automatisch aus dem Code der Internationalen Klassifikation der Krankheiten (ICD) berechnet werden. Die Machbarkeit dieser Transformation wurde jedoch insbesondere in Krankenhäusern ohne qualifiziertes ICD-Kodiersystem nicht anerkannt. Hier haben wir den Nutzen von codierungsbasierter CCI in China untersucht.;-;-;-;https://link.springer.com/article/10.1186/s12913-020-05273-8 58a5f86d2595f3f1ccb82ef1692674a3;de;;;6.2.;;;Beweise für tragbare elektronische Krankenakten zur Verbesserung der Versorgung: eine systematische Überprüfung Es wird erwartet, dass tragbare elektronische Krankenakten die Leistung des Arztes und die Patientenversorgung verbessern. Um dies zu bestätigen, haben wir eine systematische Überprüfung der Evidenz durchgeführt, die die Auswirkungen von tragbaren elektronischen Patientenakten auf die klinische Versorgung bewertet.;-;-;-;https://link.springer.com/article/10.1186/1472-6947-6-26 41d1c74c6c30b89dd3260e0398b00a15;de;;;6.2.;;;Merkmale der Arbeitnehmer, die mit der Art des Gesundheitsdienstleisters verbunden sind, der zuerst bei berufsbedingten Rückenschmerzen gesehen wurde seen Nur wenige Studien haben die Faktoren verglichen, die die Entscheidung von Patienten beeinflussen, einen Chiropraktiker, Arzt oder Physiotherapeuten als ihren ersten Gesundheitsdienstleister für berufsbedingte Rückenschmerzen zu wählen. Ziel dieser Studie ist es, Merkmale zu identifizieren, die mit der Wahl des ersten Gesundheitsdienstleisters bei akuten unkomplizierten berufsbedingten Rückenschmerzen zusammenhängen.;-;-;-;https://link.springer.com/article/10.1186/s12891-016-1298-y c0b1d0f4715c1aa2656fda92985d1fc0;de;;;6.2.;;;Umgang mit widerspenstigen Technologien im Triebwerkskontrollraum: vom Problempatching bis hin zu architektonischem Denken und Standardisierung In den letzten Jahren wird die Arbeit in den Maschinenkontrollräumen (ECRs) an Bord von Schiffen aufgrund der zunehmenden Präsenz von modernen, problempatchierend eingeführten Anwendungen der Informationstechnologie (IT) immer anspruchsvoller und komplexer. Frühere Studien zu ECRs diskutierten die Designprobleme im Zusammenhang mit der physischen und kognitiven Ergonomie und dem Mangel an regulatorischer Unterstützung. Dieses Papier hat einen Entwurfsfall in einem ECR auf einem Handelsschiff erneut untersucht und das Potenzial eines serviceorientierten Architekturansatzes diskutiert, um aufkommende widerspenstige Technologien zu verwalten und verteilte Ressourcen in das maritime Mensch-Technik-System zu integrieren. Ein EU-Projekt wurde vorgestellt, um den Wert dieses Designansatzes zu veranschaulichen. Angesichts der Komplexitätsprobleme eines soziotechnischen Systems wie der ECR schlägt dieses konzeptionelle Papier eine Schwerpunktverlagerung von der lokalen Lösung einzelner Probleme hin zu einer ganzheitlichen Systemperspektive auf die maritime Ökosystementwicklung vor, was wahrscheinlich mehr gemeinsame Anstrengungen verschiedener maritimer Beteiligten in der Praxis. Ein gewisses Maß an verbindlicher Standardisierung für die Bereitstellung und Verwaltung von Informationssystemen wird bei diesen gemeinschaftlichen Bemühungen als kritisch angesehen.;-;-;-;https://link.springer.com/article/10.1007/s13437-018-0159-y 35e4c9ecc319e05b64d3060d85c6272d;de;;;6.2.;;;Eine Beschreibung einer Rolle als Wissensvermittler, die im Rahmen einer randomisierten kontrollierten Studie zur Bewertung von drei Strategien zur Wissensübersetzung implementiert wurde Ein Wissensbroker (KB) ist eine populäre Strategie für Wissensübersetzung und -austausch (KTE), die in Kanada auftaucht, um die Interaktion zwischen Forschern und Endnutzern zu fördern und Kapazitäten für eine evidenzbasierte Entscheidungsfindung zu entwickeln. Ein KB stellt eine Verbindung zwischen Forschungsproduzenten und Endnutzern her, indem es ein gegenseitiges Verständnis von Zielen und Kulturen entwickelt, arbeitet mit Endnutzern zusammen, um Probleme und Probleme zu identifizieren, für die Lösungen erforderlich sind, und erleichtert die Identifizierung, den Zugang, die Bewertung, die Interpretation und die Übersetzung von Forschungsergebnisse zu lokaler Politik und Praxis. Wissensvermittlung kann von Einzelpersonen, Gruppen und/oder Organisationen sowie ganzen Ländern durchgeführt werden. In jedem Fall ist die KB mit einer Gruppe von Endnutzern verbunden und konzentriert sich darauf, die Integration der besten verfügbaren Evidenz in politische und praxisbezogene Entscheidungen zu fördern.;-;-;-;https://link.springer.com/article/10.1186/1748-5908-4-23 6325392312218430025cb385c45f2d18;de;;;6.2.;;;Beziehungen zwischen den Arbeitsaktivitäten von Pflegemanagern, der Arbeitszufriedenheit der Pflegekräfte, der Patientenzufriedenheit und Medikationsfehlern auf Stationsebene: eine Korrelationsstudie Pflegemanager spielen eine entscheidende Rolle bei der Verbesserung der Pflege- und Patientenergebnisse. Die Arbeit von Pflegemanagern, die man als mittlere Führungskräfte in Gesundheitseinrichtungen bezeichnen kann, ist komplex und ändert sich täglich. Nur wenige Studien haben geklärt, wie Pflegemanager ihre Zeit auf verschiedene Arbeitsaktivitäten aufteilen. Diese Studie zielte darauf ab, die Beziehungen zwischen den Arbeitsaktivitäten von Pflegefachkräften, der Arbeitszufriedenheit der Pflegekräfte, der Patientenzufriedenheit und Medikationsfehlern auf Krankenhausebene zu beschreiben.;-;-;-;https://link.springer.com/article/10.1186/s12913-021-06288-5 03bb980036ca2beb7139019192911d8a;de;;;6.2.;;;Auswirkungen des Konflikts auf die Durchimpfungsrate von Säuglingen in Afghanistan: eine landesweite Studie 2000–2003 Die Impfung von Säuglingen ist eine wirksame Intervention im Bereich der öffentlichen Gesundheit, um die Morbidität und Mortalität von durch Impfung vermeidbaren Krankheiten zu reduzieren. Einige Entwicklungsländer erreichen jedoch keine wünschenswerte Durchimpfungsrate, Afghanistan ist ein solches Land. Die vorliegende Studie wurde durchgeführt, um den Fortschritt und die Unterschiede bei der Durchimpfungsrate von Säuglingen nach Distrikten und Regionen in Afghanistan zu bewerten und die Auswirkungen von Konflikten und Ressourcenverfügbarkeit auf die Durchimpfungsrate zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/1476-072X-6-23 08d442c0ed94c131eee34668bab2068e;de;;;6.2.;;;Eine räumliche und zeitliche Analyse meldepflichtiger Magen-Darm-Erkrankungen in den Northwest Territories, Kanada, 1991-2008 Dies ist die erste Studie, die die geografische und zeitliche Verteilung meldepflichtiger Magen-Darm-Erkrankungen (NGI) in den Northwest Territories (NWT), Kanada, beschreibt. Das Verständnis der Verteilung von NGI in Raum und Zeit ist wichtig, um Gemeinschaften mit hohem Risiko zu identifizieren. Unter Verwendung von Daten aus dem Northwest Territories Communicable Disease Registry (NWT CDR) wurden eine Reihe von räumlichen und zeitlichen Techniken verwendet, um die NGI-Inzidenz von 1991 bis 2008 zu untersuchen und zu analysieren. Relative Risikokartierung wurde verwendet, um die Variation des Krankheitsrisikos zu untersuchen. Scan-Teststatistiken wurden angewendet, um die Clusteridentifikation in Raum, Zeit und Raum-Zeit durchzuführen. Die saisonale Zerlegung der Zeitreihen wurde verwendet, um saisonale Schwankungen und Trends in den Daten zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/1476-072X-11-17 c1edad5ef832d1bd8efdddc56efd7c13;de;;;6.2.;;;Arzneimittelinformationsressourcen, die von Pflegepersonal und zusammenarbeitenden Ärzten am Point-of-Care in Nova Scotia, Kanada, verwendet werden: eine Übersicht und Überprüfung der Literatur Für medizinisches Fachpersonal ist es eine Herausforderung, mit Informationen zu Arzneimitteltherapien auf dem Laufenden zu bleiben. Oft werden Technologien eingesetzt, um den Zugang zu aktuellen und glaubwürdigen Informationsquellen zu Arzneimitteln zu erleichtern. In der kanadischen Provinz Nova Scotia wurde 2002 ein Gesetz verabschiedet, das es Nurse Practitioners (NPs) ermöglicht, mit Partnerärzten zusammenzuarbeiten. Ziel dieser Studie war es, die aktuellen Nutzungsmuster von Informationstechnologien durch diese Praktikergruppen zu ermitteln.;-;-;-;https://link.springer.com/article/10.1186/1472-6955-5-5 b5de9687ac02fe0ba787fd2baa0cce4a;de;;;6.2.;;;Lebensfähigkeit von Karezes (alte Wasserversorgungssysteme in Afghanistan) in einer sich verändernden Welt Die afghanische Bevölkerung, die abseits von Flüssen lebt, ist auf Grundwasser angewiesen, das aus Karezes (subhorizontalen Tunneln) geliefert wird. Karezes nutzen unbegrenztes Grundwasser in alluvialen Fächern, die größtenteils durch Schneeschmelze vom Hindukusch, dem zentralen Gebirge des Landes, aufgeladen werden. Seit der mehrjährigen Dürre, die 1998 begann, haben viele Karezes aufgehört zu fließen. Diese Studie charakterisiert die Hydraulik eines Kariz, das Potenzial für eine reduzierte Grundwasserneubildung aufgrund des Klimawandels und die Auswirkungen einer wachsenden Bevölkerung auf die Wasserproduktion von Kariz. Ein typischer Kariz in Afghanistan ist 1–2 km lang mit einem Querschnitt von 1–2 m;-;-;-;https://link.springer.com/article/10.1007/s13201-015-0336-5 101722dea2525b20b5729d8ba7f2eca1;de;;;6.2.;;;Verringerung des Übertragungsrisikos von Tuberkulose für HCW in Situationen mit hoher Inzidenz Weltweit ist Tuberkulose (TB) eine der häufigsten Todesursachen durch einen einzigen Infektionserreger. Beschäftigte im Gesundheitswesen (HCWs) haben aufgrund der anhaltenden Exposition gegenüber ein erhöhtes Risiko einer im Krankenhaus erworbenen TB-Infektion;-;-;-;https://link.springer.com/article/10.1186/s13756-021-00975-y 372a773e3c063625d8ad53d9bb8660c8;de;;;6.2.;;;Metalladditiv-Fertigungsprozess und Eigenspannungsmodellierung Additive Manufacturing (AM), allgemein als 3D-Druck bekannt, ist ein direkter digitaler Fertigungsprozess, bei dem ein Bauteil Schicht für Schicht aus digitalen 3D-Daten ohne oder mit minimalem Einsatz von maschineller Bearbeitung, Spritzguss oder Guss hergestellt werden kann. AM hat sich in den letzten 10 Jahren rasant entwickelt und ein erhebliches Potenzial zur Kostensenkung von leistungskritischen Komponenten aufgezeigt. Dies kann durch verbesserte Designfreiheit, reduzierten Materialabfall und reduzierte Nachbearbeitungsschritte realisiert werden. Die Modellierung von AM-Prozessen bietet nicht nur wichtige Einblicke in konkurrierende physikalische Phänomene, die zu endgültigen Materialeigenschaften und Produktqualität führen, sondern bietet auch die Möglichkeit, den Designraum für funktionale Produkte und Materialien zu nutzen. Die zur Modellierung von AM-Prozessen und zur Vorhersage der endgültigen Werkstückeigenschaften erforderlichen Längen- und Zeitskalen sind sehr anspruchsvoll. Modelle müssen Längenskalen überspannen, die den Durchmesser der Pulverpartikel, die Abmessungen der Baukammer und mehrere hundert oder tausend Meter von Wärmequellen-Trajektorien auflösen. Abhängig von der Scangeschwindigkeit kann die Wechselwirkungszeit der Wärmequelle mit dem Ausgangsmaterial nur wenige Mikrosekunden betragen, während die Bauzeit je nach Größe des Werkstücks und des verwendeten AM-Verfahrens mehrere Stunden oder Tage betragen kann. Modelle müssen auch mehrere physikalische Aspekte wie Wärmeübertragung und Phasenänderungen sowie die Entwicklung der Materialeigenschaften und Eigenspannungen während der Bauzeit berücksichtigen. Die Modellierungsaufgabe ist daher ein mehrskaliges, multiphysikalisches Unterfangen, das ein komplexes Zusammenspiel mehrerer Algorithmen erfordert. In diesem Papier werden Modelle diskutiert, die erforderlich sind, um den Anwendungsbereich von AM-Prozessen abzudecken, mit besonderem Fokus auf die Vorhersage von Materialeigenschaften im Bauzustand und Eigenspannungen des endgültigen Baus. Es werden Verifikations- und Validierungsbeispiele vorgestellt, das übergreifende Ziel ist es, einen Überblick über derzeit verfügbare Modellierungswerkzeuge und deren Beitrag zur Reife der additiven Fertigung zu geben.;-;-;-;https://link.springer.com/article/10.1186/s40192-016-0047-2 95b6ecb97bf3e08418005927c024cc6b;de;;;6.2.;;;Konzeptualisierung von Änderungen der Tabak- und Alkoholpolitik als Auswirkungen auf ein einziges vernetztes System Um die Entwicklung eines koordinierten Ansatzes für nichtübertragbare Krankheiten in der öffentlichen Gesundheitspolitik zu unterstützen, ist es wichtig, Änderungen in der Tabak- und Alkoholpolitik so zu konzipieren, dass sie ein einziges miteinander verbundenes System betreffen. Damit gesundheitsökonomische Modelle die Politik effektiv beeinflussen können, sollte der erste Schritt bei ihrer Entwicklung darin bestehen, ein konzeptionelles Verständnis der Systemkomplexität zu entwickeln, die sich wahrscheinlich auf die Ergebnisse von Politikänderungen auswirkt. Unser Ziel in dieser Studie war es, die Entwicklung und Interpretation gesundheitsökonomischer Modelle der Auswirkungen von Veränderungen in der Tabak- und Alkoholpolitik zu unterstützen, indem wir ein konzeptionelles Verständnis der Hauptkomponenten und Mechanismen des Systems entwickeln, das politische Veränderungen mit Ergebnissen verknüpft.;-;-;-;https://link.springer.com/article/10.1186/s12889-020-10000-3 6a45310691c53377038bd0fcd03afdfc;de;;;6.2.;;;Beitrag der Rückverfolgbarkeit zur Erreichung der Nachhaltigkeit im Textilbereich Nachhaltigkeit ist ein weithin anerkanntes Anliegen und eine Priorität für ein gesundes Wachstum der Gesellschaft und für den Erhalt des Planeten. Diesbezüglich hat die Textilbranche eine beispiellose Nachfrage nach nachhaltigen Produkten seitens der Verbraucher erlebt, auf die Organisationen verschiedene Initiativen ergriffen haben. Eines der Hauptanliegen im Textilsektor sind seine komplexen Lieferkettennetzwerke und die Beteiligung zahlreicher Akteure, die sich mit unterschiedlichen Rohstoffen und Operationen befassen. Die wirksame Umsetzung von Nachhaltigkeit im industriellen Maßstab erfordert die Beteiligung aller Akteure der Lieferkette sowie ein effizientes Rückverfolgbarkeitssystem zur Überwachung und Analyse verschiedener Nachhaltigkeitsaspekte. Darüber hinaus ist die Rückverfolgbarkeit ein integraler Bestandteil des Recyclingprozesses, der zur Nachhaltigkeit beiträgt. Daher konzentriert sich der vorliegende Artikel auf den Beitrag nachvollziehbarer Informationen zur Erreichung der Nachhaltigkeit im Textilsektor. Die drei Säulen der Nachhaltigkeit, nämlich ökologisch, gesellschaftlich und ökonomisch, werden in ihrer Beziehung und Abhängigkeit von der Rückverfolgbarkeit diskutiert, gefolgt von einem Überblick über die Herausforderungen bei der erfolgreichen Umsetzung des Rückverfolgbarkeitssystems, das die zukünftigen Forschungsfragen prägen wird.;-;-;-;https://link.springer.com/article/10.1186/s40689-017-0027-8 c34f2aad686b0e1753ddfd8c9cfda190;de;;;6.2.;;;Räumliche Ungleichheit, Merkmale der Binnenmigration und Lungentuberkulose in China, 2011–2017: eine räumliche Analyse Die Migration des Menschen erleichtert die Verbreitung von Tuberkulose (TB). Migranten sind einem erhöhten Risiko einer TB-Infektion ausgesetzt. In dieser Studie wollen wir die räumliche Ungleichheit von Sputum-Abstrich-positiver Lungen-TB (SS + PTB) in China und die räumliche Heterogenität zwischen SS + PTB und Binnenmigration untersuchen.;-;-;-;https://link.springer.com/article/10.1186/s40249-020-00778-0 55b3867ec0a76faecbec67c2f6bb00ed;de;;;6.2.;;;Prävalenz und Mortalität aufgrund von COVID-19 in einer HIV-koinfizierten Bevölkerung: Eine systematische Überprüfung und Metaanalyse Die Coronavirus-Krankheit 2019 (COVID-19) wurde als eine Spezies des Beta-Coronavirus definiert, die beim Menschen atypische Atemwegserkrankungen verursacht. Die COVID-19-Pandemie hat weltweit zu einer beispiellosen Gesundheits- und Wirtschaftskrise geführt. Über die spezifischen Auswirkungen auf Menschen, die mit dem Humanen Immunschwächevirus (HIV)/dem erworbenen Immunschwächesyndrom (AIDS) (PLWHA) leben, ist wenig bekannt. In dieser Studie wollen wir die Prävalenz und Mortalität bei mit COVID-19 koinfizierter PLWHA untersuchen.;-;-;-;https://link.springer.com/article/10.1007/s40121-021-00447-1 ab44cdc5fad514623f20610778213c3c;de;;;6.2.;;;Technisch-finanzielle Analyse und Entwurf eines intelligenten Assistenzsystems an Bord für ein hybrides Solar-DEG-angetriebenes Boot In diesem Beitrag präsentieren wir eine finanzielle Machbarkeitsanalyse und das Design eines Bord-Unterstützungssystems für ein hybrides solar-dieselbetriebenes Boot. Die Hauptkomponenten dieses Bootes sind Solarpanel, Batteriebank, Geschwindigkeits- und Richtungsregler für Gleichstrommotor, bürstenloser Gleichstrommotor, Dieselmotor-Generator (DEG) und intelligentes Unterstützungssystem (IAS), um den Segler zu unterstützen. Es wird davon ausgegangen, dass ein DEG die Fähigkeit aufrechterhält, das System auch während der Nacht, bewölkten und teilweise bewölkten Tagen zu betreiben. Der vom elektrischen System gestellte Energiebedarf erfordert die Aufrechterhaltung eines angemessenen Gleichgewichts zwischen den Energiequellen – dies erfolgt durch ein On-Board-Verarbeitungselement, das den automatischen Betrieb des Systems ermöglicht. Die Kapazität der Batteriebank wird als groß genug angesehen, um den elektrischen Leistungsbedarf des Systems für einen ganzen Tag während Nichtladeperioden zu decken. Die optimale Konfiguration für das Hybridsystem wird aus den HOMER-Simulationsergebnissen ausgewählt, während eine finanzielle Machbarkeitsanalyse des vorgeschlagenen hybriden Solar- und DEG-angetriebenen Bootes mit einer sauberen Energiemanagementsoftware namens RETScreen durchgeführt wird. Das IAS bietet auch Lösungen für die üblichen Seegefahren wie Übergewicht und schlechtes Wetter durch den Einsatz von Eintauchtiefendetektoren und GSM-Netzwerkschnittstellen. Die Finanzanalyse zeigt, dass das vorgeschlagene System finanziell machbar ist, während Tests gezeigt haben, dass IAS den Seglern erfolgreich Navigationsunterstützung bietet.;-;-;-;https://link.springer.com/article/10.1007/s40095-016-0218-0 69f21dee3077fba87bd3b3315dfc5c4c;de;;;6.2.;;;Bewertung der klinischen Immunogenität von Inotuzumab Ozogamicin bei Patienten mit Non-Hodgkin-Lymphom und akuter lymphatischer Leukämie Inotuzumab Ozogamicin (InO) ist ein Antikörper-Wirkstoff-Konjugat, das aus einem rekombinanten, humanisierten Immunglobulin Typ G, Subtyp 4 (IgG4)-Antikörper besteht, der über einen säurelabilen Linker kovalent an ein halbsynthetisches Calicheamicin-Derivat gebunden ist. Es wurde zur Behandlung von rezidiviertem oder refraktärem Non-Hodgkin-Lymphom (NHL) und akuter lymphatischer Leukämie (ALL) entwickelt. Aufgrund des wahrgenommenen relativ geringen Immunogenitätsrisikos für dieses Produkt wurde während der klinischen Studien ein Standardansatz für Immunogenitätstests verwendet. Dieses Manuskript beschreibt die analytischen Aspekte der Antikörpermessung und beleuchtet die Immunogenitätsdaten aus klinischen Studien bei Patienten mit hämatologischen Malignomen.;-;-;-;https://link.springer.com/article/10.1186/s41120-018-0021-5 4ea0d0d03f40458c9d5edcb5a71a3a8e;de;;;6.2.;;;Eine auf Umfragen basierende Studie zu Faktoren, die Pflegekräfte motivieren, die Privatsphäre elektronischer Krankenakten zu schützen Der Zweck dieser Studie besteht darin, Faktoren zu untersuchen, die Pflegepersonal dazu motivieren, die Privatsphäre in elektronischen Krankenakten zu schützen, basierend auf der Decomposed Theory of Planned Behavior.;-;-;-;https://link.springer.com/article/10.1186/s12911-016-0254-y 2f3d714c9586e08e706eb5135ac4d849;de;;;6.2.;;;Können mobile Gesundheits-Apps Hausärzte ersetzen? Eine umfassende Überprüfung von Vergleichen zwischen mobilen Apps und Hausarztaufgaben Mobile Gesundheitsanwendungen (mHealth-Apps) werden zunehmend für Aufgaben eingesetzt, die konventionell von Hausärzten (Hausärzten) durchgeführt werden, wie etwa Gesundheitsförderung, Krankheitsprävention, Diagnose, Behandlung, Überwachung und Unterstützung von Gesundheitsdiensten. Dies wirft eine wichtige Frage auf: Können mobile Apps den Hausarzt ersetzen? Diese Studie zielte darauf ab, systematisch nach mobilen Apps zu suchen und zu identifizieren, die Hausarztaufgaben ausführen können.;-;-;-;https://link.springer.com/article/10.1186/s12911-019-1016-4 d6c72dde14d6fd1d8424a3074b5f5d13;de;;;6.2.;;;Open-Source-Herausforderungen für Krankenhausinformationssysteme (KIS) in Entwicklungsländern: ein Pilotprojekt in Mali Wir beobachten derzeit eine deutliche Zunahme der Nutzung von Open Source-Tools im Gesundheitsbereich. Ziel unserer Studie ist es, das Potenzial dieser Softwarepakete für Entwicklungsländer zu erforschen. Unser Experiment wurde im Centre Hospitalier Mere Enfant in Mali durchgeführt.;-;-;-;https://link.springer.com/article/10.1186/1472-6947-10-22 33d016508b82de792086af4e125b1370;de;;;6.2.;;;Ausbau des Entlastungsplanungssystems in Japan: Vergleich der Ergebnisse einer landesweiten Erhebung zwischen 2001 und 2010 Als Reaktion auf die rasche Alterung der Bevölkerung in Japan wurden in kurzer Folge viele Pflegesysteme geschaffen. Die Einrichtung von Entlassungsplanungsabteilungen (DPDs) in Krankenhäusern ist eine davon. In dieser Studie haben wir die Verteilung und Merkmale von DPDs und die Merkmale der Krankenhäuser mit DPDs zwischen 2001 und 2010 in Japan verglichen.;-;-;-;https://link.springer.com/article/10.1186/1472-6963-12-237 aaa386f7cf1f27116b1abd1142012df2;de;;;6.2.;;;Lessons Learned Implementierung und Management der DIVERT-CARE-Studie: Praxisempfehlungen für ein gemeindebasiertes Selbstmanagementmodell für chronische Krankheiten Pflegemodelle für das Management chronischer Krankheiten bieten eine Möglichkeit, Klienten in der häuslichen Pflege dabei zu unterstützen, ihre Krankheitslast zu bewältigen. Allerdings sind pragmatische Versuchsmanagementpraktiken und Lehren aus solchen Modellen in der Literatur kaum dargestellt.;-;-;-;https://link.springer.com/article/10.1186/s12877-021-02248-0 29e551cd3ae4b88ac52f8ff56f2375e6;de;;;6.2.;;;Wissensbasierte Extraktion unerwünschter Arzneimittelereignisse aus biomedizinischen Texten Viele biomedizinische Beziehungsextraktionssysteme basieren auf maschinellem Lernen und müssen auf großen annotierten Korpora trainiert werden, deren Konstruktion teuer und mühsam ist. Wir haben ein wissensbasiertes Beziehungsextraktionssystem entwickelt, das minimale Trainingsdaten erfordert, und das System zur Extraktion unerwünschter Arzneimittelereignisse aus biomedizinischen Texten angewendet. Das System besteht aus einem Konzepterkennungsmodul, das Medikamente und Nebenwirkungen in Sätzen identifiziert, und einem Wissensbasismodul, das feststellt, ob eine Beziehung zwischen den erkannten Konzepten besteht. Die Wissensdatenbank wurde mit Informationen aus dem Unified Medical Language System gefüllt. Die Leistung des Systems wurde anhand des ADE-Korpus bewertet, der aus 1644 Abstracts mit manuell annotierten unerwünschten Arzneimittelereignissen besteht. Fünfzig Abstracts wurden für das Training verwendet, die restlichen Abstracts wurden zum Testen verwendet.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-15-64 cd08bf60951faa230718179a74570cab;de;;;6.2.;;;Entwicklung und Validierung einer ergänzenden Karte zur Verbesserung der bestehenden Karte der abgekürzten Verletzungsskala von 1998 bis 2008 Viele Traumaregister haben die Abkürzung der Verletzungsskala 1990 Revision Update 98 (AIS98) verwendet, um Verletzungen zu klassifizieren. In der aktuellen AIS-Version (Abbreviated Injury Scale 2005 Update 2008 - AIS08) unterscheiden sich Verletzungsklassifizierung und Spezifität erheblich von AIS98, und die im AIS08-Wörterbuch bereitgestellten Mapping-Tools sind unvollständig. Daher können Daten aus verschiedenen AIS-Versionen derzeit nicht verglichen werden. Das Ziel dieser Studie war es, ein zusätzliches AIS98-bis-AIS08-Mapping-Tool zu entwickeln, um die aktuelle AIS-Wörterbuchkarte zu ergänzen, und dann die fertige Karte (die durch die Kombination dieser beiden Karten erstellt wurde) mit doppelt codierten Daten zu bewerten. Der Wert zusätzlicher Informationen durch Freitextbeschreibungen zu den zugewiesenen Codes wurde ebenfalls bewertet.;-;-;-;https://link.springer.com/article/10.1186/1757-7241-19-29 4894af7403285faef343054b3554cd36;de;;;6.2.;;;Medienpräferenz, Informationsbedarf und Sprachkenntnisse von Ausländern in Japan nach dem großen Erdbeben in Ostjapan 2011 Nach dem Großen Erdbeben in Ostjapan 2011 identifizierte die japanische Regierung mangelnde Kenntnisse der japanischen Sprache als ein Merkmal von Ausländern, das bei der Planung der Katastrophenvorsorge berücksichtigt werden sollte. Dieser Artikel versucht zu verstehen, wie sich die Beherrschung einer Landessprache auf das Sammelverhalten von Katastropheninformationen auswirkt, indem die Ergebnisse einer Fragebogenerhebung verwendet werden, die nach dem Großen Erdbeben in Ostjapan 2011 durchgeführt wurde. Die Befragten wurden nach ihren japanischen und englischen Sprachkenntnissen kategorisiert. Ihr Medienmodus, Sprachpräferenzen, Informationsbedeutung und Schwierigkeiten beim Sammeln von Informationen wurden ebenfalls untersucht. Es wurde festgestellt, dass Ausländer mit Japanischkenntnissen ein ähnliches Informationssammelverhalten zeigten wie japanische Befragte, aber Ausländer ohne Japanischkenntnisse nutzten die japanischsprachigen Medien kaum. Auch diese Gruppe stieß auf Schwierigkeiten aufgrund mangelnder Japanischkenntnisse, aber viele Mitglieder konnten sich durch internetbasierte Methoden ein gewisses Maß an japanischsprachigen Informationen aneignen. Um die Sprachkenntnisse in der Katastrophenschutzplanung zu verbessern, sollte die Bereitstellung von Informationen in anderen Sprachen als Japanisch verbessert werden, und japanische Informationen sollten so weitergegeben werden, dass die Übersetzung erleichtert wird. Obwohl diese Umfrage in ihrem Umfang signifikant war, sollten die Ergebnisse innerhalb der Grenzen der internetbasierten Antwortsammlung betrachtet werden und sich nur auf den weniger betroffenen Bereich Japans konzentrieren.;-;-;-;https://link.springer.com/article/10.1007/s13753-018-0159-8 b324f71c2009ffce63100a3020f5e3f5;de;;;6.2.;;;Auswirkungen von Konflikten auf die Gesundheitsversorgung von Müttern und Kindern: eine Länderfallstudie zu Afghanistan Seit Jahrzehnten ist das Gesundheitssystem Afghanistans aufgrund anhaltender Konflikte in Unordnung geraten. Unser Ziel war es, die direkten Auswirkungen von Konflikten auf die Bereitstellung von reproduktiven, mütterlichen, Neugeborenen-, Kinder- und Jugendgesundheits- und -ernährungsdiensten (RMNCAH&N) zu untersuchen und die kontextuellen Faktoren zu beschreiben, die diese Dienste beeinflussen.;-;-;-;https://link.springer.com/article/10.1186/s13031-020-00285-x 243f949aeff0923641b4ea1d28f7ff37;de;;;6.2.;;;Es ist an der Zeit, über Menschen zu sprechen: ein menschenzentriertes Gesundheitssystem Bei der Untersuchung von Schwachstellen in unserem aktuellen Gesundheitssystem schlagen wir vor, zwei Instrumente aus den Bereichen Ingenieurwesen und Design zu verwenden: a) Der Systemansatz von Reason [;-;-;-;https://link.springer.com/article/10.1186/1478-4505-8-35 354a5843e1bee7c8de7ce732d4d652ec;de;;;6.2.;;;Mineralische Komponenten in einer Torflagerstätte: Suche nach Anzeichen früher Bergbau- und Verhüttungsaktivitäten in der Region Schlesien-Krakau (Südpolen) Dargestellt sind die Ergebnisse von Untersuchungen (REM/EDS und AAS) einer Torflagerstätte, die 13.000 Jahre Torfakkumulation umfasst. Die Torflagerstätte befindet sich in einem Gebiet mit flachen Vorkommen von Zn-Pb-Erzen in der Nähe der Stadt Tarnowskie Góry im Bezirk Krakau-Schlesien (Südpolen). Der Abbau von Blei, Silber und Eisen im Mittelalter (zwölftes und dreizehntes Jahrhundert) wurde durch historische Dokumente bestätigt, während es keine eindeutigen Daten gibt, die belegen, dass in der Region während der rumänischen oder früheren Zeit Metallbergbau betrieben wurde. Die Torflagerstätte befindet sich unter dem Einfluss atmosphärischer Pb- und Zn-Emissionen einer nahegelegenen Zn-Pb-Hütte. Es wurden zwei vertikale Torfprofile untersucht (120 und 140 cm Profiltiefe), die unterschiedliche Konzentrationen von Zn bis zu 713 mg kg . zeigten;-;-;-;https://link.springer.com/article/10.1007/s12665-012-2080-6 57bdbca40448b1019cd3f25a91f5fc32;de;;;6.2.;;;Virtuell-Reality-integrierter Workflow in der BIM-fähigen Projektzusammenarbeit und Entwurfsprüfung: eine Fallstudie Eine erfolgreiche Projektabwicklung auf Basis von Building Information Modeling (BIM)-Methoden hängt von einer effizienten Zusammenarbeit ab. Dies beruht hauptsächlich auf der Visualisierung eines BIM-Modells, das auf verschiedenen Medien erscheinen kann. Bei der Visualisierung auf Medien wie Computerbildschirmen fehlt ein gewisses Maß an Immersion, was die vollständige Nutzung des Modells verhindern kann. Ein weiteres Problem bei herkömmlichen Kollaborationsmethoden wie BIM-Big Room ist die Notwendigkeit der physischen Präsenz der Teilnehmer in einem Raum. Virtual Reality als immersivstes Medium zur Visualisierung eines Modells hat das Versprechen, fester Bestandteil der Baubranche zu werden. Die virtuelle Präsenz von Mitarbeitern in einer VR-Umgebung macht ihre physische Präsenz überflüssig. Die Simulation von Aufgaben vor Ort kann eine Reihe von Problemen während des Baus lösen, wie z. Da in letzter Zeit VR-Tools für Verbraucher auf dem Markt erhältlich sind, wurde ihre tatsächliche Verwendung in Architektur-, Ingenieur- und Baupraktiken (AEC) wenig erforscht.;-;-;-;https://link.springer.com/article/10.1186/s40327-018-0065-6 ed11b00189a4364cc09fe2a1acdcbcea;de;;;6.2.;;;Ein quasi-experimentelles Interventionsprotokoll zur Charakterisierung der Faktoren, die die Akzeptanz neuer Nahrungsmittel bei Säuglingen beeinflussen: Ernährung der Mütter und Entwöhnungsmethode. Dastatuz-Projekt Kinder weigern sich normalerweise, Obst und Gemüse zu essen und zu probieren, und die Umstellung ungesunder Essgewohnheiten ist in den Industrieländern eine wichtige soziale Herausforderung. Das;-;-;-;https://link.springer.com/article/10.1186/s12889-021-10967-7 8209ac1be9da2cd14eb881539c8c094d;de;;;6.2.;;;Die Orthologie-Ontologie: Entwicklung und Anwendungen Die computergestützte vergleichende Analyse mehrerer Genome bietet wertvolle Möglichkeiten für die biomedizinische Forschung. Insbesondere in der vergleichenden Genomik kann die Orthologieanalyse eine zentrale Rolle spielen, sie führt dazu, evolutionäre Beziehungen zwischen den Genen von Organismen herzustellen und ermöglicht den funktionellen Rückschluss auf Genprodukte. Die großen Variationen in aktuellen Orthologiedatenbanken erfordern jedoch die Erforschung der gemeinsamen Nutzung von Inhalten, die von verschiedenen Tools generiert und in verschiedenen Strukturen gespeichert werden. Der Austausch der Inhalte mit anderen Forschungsgemeinschaften erfordert, die Bedeutung der Inhalte explizit zu machen.;-;-;-;https://link.springer.com/article/10.1186/s13326-016-0077-x c46538330a3ea483fbd7e1d22fd42682;de;;;6.2.;;;Ermittlung der Hindernisse und Voraussetzungen bei der Umsetzung der neuseeländischen und australischen Leitlinien für die klinische Praxis von vorgeburtlichen Kortikosteroiden Die ineffektive Umsetzung evidenzbasierter Praxisleitlinien kann dazu führen, dass nicht die besten gesundheitlichen Ergebnisse erzielt werden. Diese Studie untersuchte die Hindernisse und Voraussetzungen für die Einführung und Umsetzung der neuen binationalen (Australien und Neuseeland) Leitlinien für die klinische Praxis von vorgeburtlichen Kortikosteroiden bei Angehörigen der Gesundheitsberufe unter Verwendung des Theoretical Domains Framework.;-;-;-;https://link.springer.com/article/10.1186/s12913-016-1858-8 d6577ce28ac41d0330bf7ba7bd983f63;de;;;6.2.;;;Eine randomisiert-kontrollierte Studie zu zwei Ausbildungsformen für das evidenzbasierte Medizinstudium im Grundstudium in Asien Da die allgemeine Evidenz für die Wirksamkeit des Unterrichts in evidenzbasierter Medizin (EBM) nicht stark ist und der Einfluss kultureller und gesellschaftlicher Einflüsse auf die Unterrichtsmethode wenig verstanden ist, haben wir eine randomisiert-kontrollierte Studie durchgeführt, um die Wirksamkeit und Lernzufriedenheit mit zwei verschiedene EBM-Lehrmethoden (übliche Lehre vs. problembasiertes Lernen (PBL)) für Medizinstudenten;-;-;-;https://link.springer.com/article/10.1186/1472-6920-9-63 c3f8e54e5b731a0f1cba8a63818fd3c5;de;;;6.2.;;;Raum, Zeit und Erinnerung: Geschichten von einem langen Weg Punkte, Linien und Flächen sind die Grundelemente der euklidischen Geometrie. In diesem Paper, das eine Keynote auf der ICSC 2018 begleitet, werden wir untersuchen, wie es in Physik, Kognition und unserer gelebten Erfahrung oft besser ist, in miteinander verbundenen Fäden zu denken als in einem sich entwickelnden Zustand der Welt jetzt. In der Physik ist „jetzt“ eine Illusion, lediglich eine bequeme Konstruktion, jedes Teilchen und jede Person ist eher wie ein unabhängiger Strang in der Raum-Zeit, und ähnlich fließen in unseren Köpfen Erinnerungsstränge aus verschiedenen Rollen und Kontexten fast unabhängig voneinander. Pfade bilden Linien auf der Karte und können als Zeichen in die Landschaft eingeschrieben werden, aber unsere Reisen auf Pfaden erzeugen zeitliche Fäden, die sich verweben, wenn wir uns auf dem Weg begegnen. Dieses Papier stützt sich auf meine langjährige Forschung zu Zeit und Benutzerinteraktion sowie auf meine persönlichen Erfahrungen während eines Tausend-Meilen-Spaziergangs um die Peripherie von Wales im Jahr 2013.;-;-;-;https://link.springer.com/article/10.1007/s10339-018-0879-0 6adbd0a18daf1400d877b519af75729d;de;;;6.2.;;;Modell zur Bewertung der Arbeitsbelastung von Dorfärzten im Nationalen Programm für grundlegende öffentliche Gesundheitsdienste in sechs Provinzen Chinas Es wurden keine Studien, insbesondere quantitative Analysen, zur Arbeitsbelastung von Dorfärzten im Programm National Essential Public Health Services (NEPHS) und zu Unterschieden in der Leistungserbringung durch Dorfärzte nach Region und Diensten durchgeführt. In dieser Studie haben wir einen quantitativen Analyseansatz entwickelt, um die Arbeitsbelastung von NEPHS durch Dorfärzte in sechs Provinzen Chinas im Jahr 2016 zu messen. Unser Ziel war es, Bereiche und Dienstleistungen des NEPHS zu identifizieren, die verbessert werden müssen, um durch gezielte Maßnahmen eine angemessene Bereitstellung von NEPHS in ländlichen abgelegenen unterversorgten Gebieten.;-;-;-;https://link.springer.com/article/10.1186/s12913-020-05992-y 47883269190a0bca267e3770900470df;de;;;6.2.;;;Integration der Versorgung von Bluthochdruck und Diabetes: ein Scoping-Review, das die Evidenz aus systematischen Reviews bewertet und die Berichterstattung bewertet Angesichts des Anstiegs der vorzeitigen Sterblichkeitsrate durch nichtübertragbare Krankheiten (NCD) besteht ein Bedarf an evidenzbasierten Interventionen. Wir evaluierten bestehende systematische Übersichtsarbeiten zur Wirksamkeit der Integration von Gesundheitsdiensten, insbesondere mit dem Schwerpunkt auf die Bereitstellung einer Versorgung zur Verbesserung der Gesundheit und der Behandlungsergebnisse bei Menschen mit Multimorbidität, bei denen mindestens eine der Erkrankungen Diabetes oder Bluthochdruck war.;-;-;-;https://link.springer.com/article/10.1186/s12913-018-3290-8 62a5daf4ef1485d9ac5e265568aec347;de;;;6.2.;;;Risikomanagement für das 21. Jahrhundert: Aktueller Stand und zukünftige Bedürfnisse Die weltweite Übernahme der Risikomanagementprinzipien, die in der E2E-Leitlinie der International Conference on Harmonization (ICH) und den Leitlinien der Arbeitsgruppe VI des Council for International Organizations of Medical Sciences (CIOMS) beschrieben sind, führte zu mehr Proaktivität und Konsistenz in der Praxis der Pharmakovigilanz und des Nutzen-Risiko-Managements der Lebenszyklus eines Arzneimittels. Nach der Veröffentlichung dieser Leitlinien gab es jedoch wichtige Fortschritte in Wissenschaft und Praxis der Risikominimierung selbst, insbesondere im Hinblick darauf, wie Maßnahmen zur Risikominimierung (RMMs) entworfen, umgesetzt, verbreitet und auf ihre Wirksamkeit in realen Gesundheitsumgebungen bewertet werden . In diesem Artikel beschreiben wir, wie sich der Bereich Design, Implementierung, Verbreitung und Evaluierung von RMMs in den letzten Jahren entwickelt hat und zeigen aktuelle Herausforderungen und mögliche Lösungen auf. Wo möglich zitieren wir globale Beispiele, um zu zeigen, wie evidenzbasierte Ansätze die Entwicklung von RMMs beeinflusst haben. In diesem Zusammenhang schließen wir unter Berücksichtigung der Richtlinien des lokalen Gesundheitssystems und der nationalen Gesetzgebungen zu einer globalen Anstrengung zur Harmonisierung bestimmter Bereiche ab, die sich auf die Standardisierung bestimmter Begriffe und Definitionen, die konsequente Anwendung robuster Methoden konzentrieren, aber nicht darauf beschränkt sind und einen Überblick über bewährte Verfahren für das Design, die Implementierung und die Verbreitung von Risikominimierung.;-;-;-;https://link.springer.com/article/10.1007/s40264-020-01033-z 2fcb008fa7ea01675a9583056a065846;de;;;6.2.;;;Follow-up von Patienten, die eine Behandlung mit Antidepressiva beginnen: Behandlungszufriedenheit, Behandlungscompliance, Wirksamkeit und Sicherheit Die Messung der Behandlungszufriedenheit hat sich als hilfreich erwiesen, um die für die Patienten wichtigsten Behandlungsmerkmale zu ermitteln und eine erhöhte Therapiecompliance zu erklären. Es gibt jedoch nur wenige Studien, die die Zufriedenheit mit anderen klinischen oder selbst wahrgenommenen Gesundheitszustandsindikatoren in Verbindung bringen. Jüngste Studien haben den engen Zusammenhang zwischen der Zufriedenheit mit der Behandlung, der Therapietreue und der Wirksamkeit gezeigt. Diese Studie versucht, eine Skala zu entwerfen und zu validieren, um die Zufriedenheit mit einer antidepressiven Arzneimitteltherapie zu bewerten, die Behandlungs-Compliance (selbstberichteter, validierter Fragebogen, Arzneimittelverantwortung und elektronisches Überwachungssystem) zu bewerten, die Wirksamkeit bei der Reduzierung depressiver Symptome und die Sicherheit bei Patienten zu bewerten, die ein Antidepressivum einnehmen Therapie sowie zur Ermittlung von Prädiktoren für Zufriedenheit, Compliance und Wirksamkeit mit diesen Medikamenten.;-;-;-;https://link.springer.com/article/10.1186/1471-244X-13-65 7cb189a064fb7ce25ad066745065e0ae;de;;;6.2.;;;Medizinisches Fernüberwachungssystem basierend auf dem Internet der Dinge Um es Ärzten zu ermöglichen, die physikalischen Parameter des Körpers des Patienten in Echtzeit zu überwachen und die Veränderungen des Zustands des Patienten rechtzeitig zu verstehen, wurde das auf dem Internet der Dinge basierende medizinische Fernüberwachungssystem untersucht. Aus Sicht der praktischen Anwendung auf Krankenhausstationen wurde ein medizinisches Gesundheitsüberwachungssystem mit Hilfe des CC2430-Mikrocontrollers, des menschlichen Informationssensors sowie mikroelektronischer und moderner drahtloser Kommunikationstechnologie entwickelt. Außerdem wurden eine Sensorknotenschaltung und eine Koordinatorknotenschaltung zum Sammeln medizinischer Signale entworfen. Inzwischen wurde die Software des drahtlosen Sensornetzwerks entwickelt. Schließlich wurde das Online-Debugging jedes Systemmoduls mit Hard- und Software kombiniert. Das experimentelle Ergebnis bewies, dass der Netzwerkknoten zuverlässig war und die Datenübertragung korrekt war. Es wird geschlussfolgert, dass das medizinische Überwachungssystem grundsätzlich die Designanforderungen dieses Papiers erfüllt.;-;-;-;https://link.springer.com/article/10.1186/s13638-018-1178-2 8384573be7fdf126afbba351d5deeb2f;de;;;6.2.;;;Schutz der Privatsphäre von Informationsrechten junger Erwachsener mit Entwicklungsbehinderungen Der Schutz der Privatsphäre von Informationen für junge Erwachsene mit Entwicklungsbehinderungen und ihre Familien ist von wesentlicher Bedeutung, um Lebensqualität, Wohlbefinden, Selbstbestimmung und Inklusion zu fördern. Trotzdem sind die Datenschutzrechte junger Erwachsener zunehmend gefährdet. Dieses Papier bietet einen Überblick über den Umfang unter Anwendung der von Arksey und O’Malley (;-;-;-;https://link.springer.com/article/10.1007/s11469-018-9904-x 1fa7a09ce2c5b11fd3ec8024db8f4a68;de;;;6.2.;;;Histopathologie: Schluss mit den Dias, denn Digital und 3D sind zu sehen Aufgrund des wachsenden Gebiets der digitalen Pathologie werden immer mehr digitale Histologie-Objektträger verfügbar. Dies verbessert die Zugänglichkeit, ermöglicht Telekonsultationen durch spezialisierte Pathologen, verbessert die Ausbildung und gibt Urologen möglicherweise die Möglichkeit, die Objektträger in Patientenverwaltungssystemen zu überprüfen. Darüber hinaus können durch Stapeln mehrerer zweidimensionaler (2D) digitaler Objektträger dreidimensionale Volumina erstellt werden, die einen besseren Einblick in das Wachstumsmuster eines Tumors ermöglichen. Durch das Hinzufügen computergestützter Diagnosesysteme kann der Pathologe zu interessanten Regionen geführt werden, was möglicherweise die Arbeitsbelastung und die Variation zwischen den Beobachtern reduziert. Die digitale (3D) Pathologie hat das Potenzial, den Dialog zwischen Pathologen und Urologen zu verbessern und führt somit zu einer besseren Behandlungsauswahl für urologische Patienten.;-;-;-;https://link.springer.com/article/10.1007/s00345-018-2202-1 d97d0aea50e20a155343386a03727b85;de;;;6.2.;;;Sektorbasierte Erkennung zur Verbesserung der Freisprechfunktion in Autos Die Anpassungssteuerung von Beamforming-Interferenzunterdrückungstechniken wird für die Spracherfassung im Auto untersucht. Es werden zwei effiziente Anpassungssteuerverfahren vorgeschlagen, die eine Zielauslöschung vermeiden. Das implizite Verfahren variiert die Schrittweite kontinuierlich basierend auf dem gefilterten Ausgangssignal. Das explizite Verfahren entscheidet auf binäre Weise, ob angepasst wird oder nicht, basierend auf einer neuen Schätzung von Ziel- und Störenergien. Es schätzt die durchschnittliche Verzögerungssummenleistung innerhalb eines Raumvolumens zu den gleichen Kosten wie die klassische Verzögerungssumme. Experimente mit realen In-Car-Daten validieren beide Methoden, einschließlich eines Falls mit;-;-;-;https://link.springer.com/article/10.1155/ASP/2006/20683 93baffade587baa5e21bd19679b8f265;de;;;6.2.;;;Wirksamkeit konfrontativer Beratung zur Raucherentwöhnung bei Rauchern mit zuvor nicht diagnostizierter leichter bis mittelschwerer Atemwegslimitierung: Studienprotokoll einer randomisierten kontrollierten Studie Der Einsatz der Spirometrie zur Früherkennung von chronisch obstruktiver Lungenerkrankung (COPD) ist noch immer umstritten, insbesondere weil überzeugende Beweise für einen zusätzlichen positiven Effekt der Spirometrie auf die Raucherentwöhnung fehlen. Wir gehen davon aus, dass die Früherkennung von COPD und die Konfrontation mit Spirometrie zur Raucherentwöhnung effektiv sein können, wenn wir einen Ansatz anwenden, den wir als Konfrontationsberatung bezeichnet haben, einen patientenzentrierten Ansatz, der spezifische Kommunikationsfähigkeiten und Elemente der kognitiven Therapie beinhaltet. Ein wichtiger Aspekt ist es, den Raucher während der Beratungsgespräche mit seiner Luftstrombegrenzung zu konfrontieren. Das Hauptziel dieser Studie ist es, die Wirksamkeit konfrontativer Beratung im Vergleich zu regelmäßiger Gesundheitserziehung und Förderung zur Raucherentwöhnung durch spezialisierte Atemwegskrankenschwestern bei aktuellen Rauchern mit zuvor nicht diagnostizierter leichter bis mittelschwerer Atemwegsbeschränkung zu testen.;-;-;-;https://link.springer.com/article/10.1186/1471-2458-7-332 04e3286ce0a39c5e3aaf0eaf2b1d5dc5;de;;;6.2.;;;Faktoren, die die Entscheidung von Hausärzten zur einfachen Röntgenaufnahme bei Rückenschmerzen beeinflussen: Implikationen für die Klassifizierung von Leitlinienbarrieren – eine qualitative Studie Allgemeinmediziner weichen häufig von den klinischen Leitlinien zur Wirbelsäulenradiographie ab. Diese Studie zielte darauf ab, A) Faktoren zu identifizieren und zu beschreiben, die Hausärzte in Betracht ziehen, ihre Entscheidungen über die Anordnung von Röntgenaufnahmen bei Rückenschmerzen zu beeinflussen, und B) Hindernisse für die Einhaltung der Leitlinien, die durch solche Faktoren nahegelegt werden.;-;-;-;https://link.springer.com/article/10.1186/1472-6963-3-8 50d98dd43c3167e6f365206557f8c6e7;de;;;6.2.;;;Integration von HIV-Tests in die Gebärmutterhalskrebsvorsorge in Tansania: eine Analyse der Statistiken zur routinemäßigen Leistungserbringung Obwohl das lebenslange Risiko, an Gebärmutterhalskrebs (CaCx) zu erkranken und sich mit HIV zu infizieren, für Frauen in Tansania hoch ist, wurden die meisten Frauen im vergangenen Jahr nicht auf HIV getestet und die meisten wurden noch nie auf CaCx untersucht. Ein gutes Management beider Krankheiten, die eine synergistische Beziehung aufweisen, erfordert integrierte Vorsorge-, Präventions- und Behandlungsdienste. Ziel dieser Analyse ist es, die Akzeptanz, Durchführbarkeit und Wirksamkeit der Integration von HIV-Tests in CaCx-Präventionsdienste in Tansania zu bewerten, um Scale-up-Strategien zu unterstützen.;-;-;-;https://link.springer.com/article/10.1186/1472-6874-14-120 44a21e106f20c87dc9fbf44f02850c05;de;;;6.2.;;;Rasche Bewertung der Infrastruktur von Einrichtungen der primären Gesundheitsversorgung – ein relevantes Instrument für das Management von Gesundheitssystemen Die Gesundheitsinfrastruktur ist ein wesentlicher Bestandteil der strukturellen Qualität eines Gesundheitssystems. In Literatur und Forschung wird über Infrastrukturmängel von Gesundheitsdiensten berichtet. Für die Bewertung von Infrastrukturen gibt es eine Reihe von Instrumenten. Es stehen jedoch keine einfach zu handhabenden Instrumente zur Bewertung der Infrastruktur von Gesundheitseinrichtungen in Entwicklungsländern zur Verfügung. Die gegenwärtigen Instrumente sind für eine schnelle Beurteilung durch das Personal von Gesundheitseinrichtungen nicht geeignet. Daher fehlen den Gesundheitsinformationssystemen Daten über die Infrastruktur der Einrichtungen.;-;-;-;https://link.springer.com/article/10.1186/s12913-015-0838-8 8b208abc8aaf57d7d86dbfa6b5a43051;de;;;6.2.;;;Effiziente Verifizierung von Bahninfrastrukturkonzepten gegen Standardvorschriften Bei der Gestaltung sicherheitskritischer Infrastrukturen s.a. Bahnsystemen müssen sich Ingenieure oft mit komplexen und großflächigen Konstruktionen auseinandersetzen. Formale Methoden können eine wichtige Rolle bei der Automatisierung verschiedener Aufgaben spielen. Für Bahnentwürfe wurden formale Methoden hauptsächlich verwendet, um die Sicherheit sogenannter Stellwerke durch Modellprüfungen zu überprüfen, die sich mit Zustandsänderungen und ziemlich komplexen Eigenschaften beschäftigen, die normalerweise einen erheblichen Rechenaufwand verursachen (z. B. das Zustandsraum-Explosionsproblem). Im Gegensatz dazu fokussieren wir uns auf statische Infrastrukturmodelle und interessieren uns für die Überprüfung von Anforderungen aus Gestaltungsrichtlinien und Vorschriften, wie sie in der Regel von Eisenbahnbehörden oder Sicherheitszertifizierungsstellen vorgegeben werden. Unser Ziel ist es, die mühsame manuelle Arbeit, die Eisenbahningenieure bei der Sicherstellung der Einhaltung der Vorschriften leisten, zu automatisieren, indem wir eine Software verwenden, die schnell genug ist, um die Verifikation on-the-fly durchzuführen und so in die Eisenbahnplanungstools integriert werden zu können, ähnlich wie a Compiler in einer IDE. Infolgedessen beschreibt dieser Beitrag die Integration formaler Methoden zur automatischen Extraktion von Eisenbahnmodellen aus den CAD-Bahnentwürfen und zur Beschreibung relevanter technischer Regelwerke und Expertenwissen als zu überprüfende Eigenschaften an den Modellen in den Eisenbahnentwurfsprozess. Wir setzen eine Variante von Datalog ein und verwenden die standardisierte „Railway Markup Language“ railML als Basis und Austauschformat für die Formalisierung. Wir haben ein Prototypen-Tool entwickelt und in die Industriebahn-CAD-Software integriert, die unter dem Namen RailCOMPLETE entwickelt wurde;-;-;-;https://link.springer.com/article/10.1007/s10703-017-0281-z 9bed20131f5bc31d5ed72dd083c35b27;de;;;6.2.;;;„Unter dieser Maske steckt mehr als Fleisch, unter dieser Maske steckt eine Idee“: Anonym als (Super-)Helden des Internets? Wer ist anonym? Was hat die Gruppe mit Hacktivismus zu tun? Können wir von einer Internetgruppe sprechen, die aus neuen „e-Robin Hoods“ besteht? Gibt es moderne Helden noch als Inspirationsquelle? Die Antworten auf diese Fragen sind nicht unproblematisch. Viele würden sagen, dass die Gruppe Anonymous in die Kategorie der zeitgenössischen Helden fällt. Wenn ja, könnten seine Mitglieder, Anons, als „Reinkarnationen“ des mythischen Robin Hood betrachtet werden, jedoch in digitaler Form, da sie wie er Korruption, Unterdrückung und Ungerechtigkeit bekämpfen. Andere werden dieser Ansicht widersprechen. Die einzige sichere Aussage ist, dass Anonymous eine globale, internetbasierte soziale Bewegung von meist jungen und unzufriedenen Menschen darstellt, die sich entschieden haben, ihre eigene Strategie zu verfolgen, um sich der etablierten globalen Governance und Ordnung zu widersetzen. Dieses Papier beleuchtet die neuesten Hacker-Aktivitäten von Anonymous gegen mehrere staatliche Websites in Griechenland. Laut Anonymous versuchte sie, die unter der Finanzkrise leidenden griechischen Bürger zu schützen/zu verteidigen und den gewählten Politikern eine „starke Lektion“ zu erteilen. Anhand von Videomaterial (auf YouTube hochgeladen), Online-Artikeln griechischer Zeitungen und einigen Online-Artikeln internationaler Medien versuchen wir zu verstehen, ob Anonymous der langen Tradition von Robin Hood folgt, indem er als heroische Figur/Ikone auftritt. Dieses Papier trägt zur Semiotik des Hacktivismus bei, aber auch zur weiteren Untersuchung der Identität von Anonymous als „neue Robin-Hoods“ basierend auf seiner inszenierten Identität und seinen Handlungen.;-;-;-;https://link.springer.com/article/10.1007/s11196-019-09615-6 99dde5eb337b959bdc1064900c2cde58;de;;;6.2.;;;Politische Ansätze zur Verbesserung der Verfügbarkeit und Erschwinglichkeit von Arzneimitteln in Mexiko – ein Beispiel für ein Land mit mittlerem Einkommen Die Weltgesundheitsorganisation empfiehlt, eine nationale Arzneimittelpolitik (NPP) einzurichten und umzusetzen, um einen wirksamen und gerechten Zugang zu Arzneimitteln zu gewährleisten. Mexiko hat mehrere politische Ansätze zur Regulierung des Pharmasektors umgesetzt, es gibt jedoch kein formelles KKW. Dieser Artikel beschreibt den Ansatz, den die mexikanische Regierung verfolgt hat, um die Verfügbarkeit und Erschwinglichkeit unentbehrlicher Medikamente zu verbessern.;-;-;-;https://link.springer.com/article/10.1186/s12992-017-0281-1 52b29e1324be42023812107cce0d25ad;de;;;6.2.;;;Merkmale indigener Erwachsener mit schlecht eingestelltem Diabetes in Nord-Queensland: Auswirkungen auf die Dienstleistungen Indigene australische Erwachsene mit Diabetes weisen im Vergleich zu nicht indigenen Menschen weiterhin eine suboptimale klinische Kontrolle und schlechtere Ergebnisse auf, obwohl es nur wenige Daten gibt, die den detaillierten Gesundheitszustand der indigenen Bevölkerung in Australien dokumentieren. Um die Merkmale indigener australischer Erwachsener mit schlecht eingestelltem Diabetes weiter zu untersuchen, analysierten wir die Basisdaten einer randomisierten Cluster-Studie mit dem Ziel, ein integriertes gemeindebasiertes intensives chronisches Krankheitsmanagement für indigene Völker in abgelegenen Gemeinden im hohen Norden von Queensland, Australien, bereitzustellen.;-;-;-;https://link.springer.com/article/10.1186/s12889-015-1660-2 8e18859906b3ae6363a9549f2f57c1ec;de;;;6.2.;;;Zählung jeder Totgeburt und jedes Neugeborenentodes durch Mortalitätsaudit zur Verbesserung der Versorgungsqualität für jede schwangere Frau und ihr Baby Während die Notwendigkeit einer verbesserten Qualität und Quantität von Informationen über Geburten und Sterbefälle weithin anerkannt wird, sind die Ursachen und vermeidbaren Faktoren im Zusammenhang mit Sterbefällen systematisch erfasst und überprüft worden, um Veränderungen herbeizuführen. Dies gilt insbesondere für Totgeburten und neonatale Todesfälle, die zwischen verschiedenen Gesundheitsdienstleistern und Abteilungen liegen können. Die Prüfung der Mütter- und Perinatalsterblichkeit gilt für zwei der fünf Ziele des Aktionsplans „Every Newborn“ (Every Newborn Action Plan).;-;-;-;https://link.springer.com/article/10.1186/1471-2393-15-S2-S9 682ff33e4569057b0a46b126c27cc487;de;;;6.2.;;;Rettung von Müttern und Neugeborenen in Gemeinden: Stärkung der Gemeindehebammen, um in Baluchistan, Pakistan, auf finanziell nachhaltige Weise eine qualitativ hochwertige, grundlegende Neugeborenen- und Mütterversorgung zu gewährleisten Um der anhaltend hohen Müttersterblichkeitsrate von 276/100.000 Lebendgeburten entgegenzuwirken, hat die pakistanische Regierung einen neuen Kader von gemeindenahen Hebammen (CMW) geschaffen. Eine Erwartung ist, dass CMWs den Zugang zu Müttergesundheitsdiensten für unterversorgte Frauen verbessern werden. Jüngste Forschungen zeigen, dass es den CMWs weitgehend gescheitert ist, Hebammenpraxen zu etablieren, da CMW sowohl klinische als auch unternehmerische Fähigkeiten und die notwendigen Mittel für die Entwicklung ihrer Praxisinfrastruktur und Logistik fehlen. Gemeinschaften haben auch kein Vertrauen in ihre Kompetenz, sichere Geburten durchzuführen. Um diese Probleme anzugehen,;-;-;-;https://link.springer.com/article/10.1186/1471-2393-14-131 902f88ccb7a8ed1d75b9667d6040ea7a;de;;;6.2.;;;Bewertung der Wirkungen der Danhong-Injektion bei der Behandlung des akuten ischämischen Schlaganfalls: Studienprotokoll für eine multizentrische randomisierte kontrollierte Studie Die Danhong-Injektion (DHI) wurde Patienten mit akutem ischämischen Schlaganfall (AIS) häufig verschrieben. Aufgrund methodischer Mängel hat die bisherige Forschung jedoch noch keine strengen Beweise für die Verwendung von DHI bei der Behandlung von AIS geliefert. Daher haben wir diese multizentrische, randomisierte, kontrollierte und doppelblinde Studie entworfen, um die Wirksamkeit und Sicherheit von DHI bei AIS zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s13063-015-1076-4 b46f9df91fccba21585922906d70b0e8;de;;;3.2.;;;SA-EF Cube: Ein Evaluierungsframework zur Bewertung intelligenter kontextsensitiver Lösungen zum Schutz kritischer Informationsinfrastrukturen Fortschritte bei Technologien wie Cloud Computing und Bring Your Own Technology (BYOT)-Umgebungen haben die Art und Weise, wie Unternehmen Geschäfte tätigen, dramatisch verändert. Die kritische Informationsinfrastruktur (CII) ist das Herzstück dieser Revolution, aber es ist zu einer fast unmöglichen Aufgabe geworden, CII effektiv vor allen möglichen Bedrohungen zu schützen. Multi Agent Systems (MASs) und haben sich auf einzigartige Weise mit dem Schutz kritischer Informationsinfrastrukturen (CIIP) befasst, jedoch fehlt diesen Ansätzen oft eine ausreichende Kontextualisierung der Umgebung und ihrer Dynamik. Ohne eine ausreichende Kontextualisierung einer Umgebung und die damit verbundene Dynamik wird ein automatisierter CIIP-Mechanismus nie wirklich effektiv sein. Um dieses Kontextualisierungsproblem anzugehen, mit dem autonome CIIP-Mechanismen konfrontiert sind, wird das SA-EF-Cube-Modell vorgeschlagen. Das Modell kann als „Checkliste“ verwendet werden, um zu beurteilen, ob eine autonome CIIP-Lösung die grundlegenden Anforderungen zur Kontextualisierung des Problembereichs von CIIP abdeckt. Das SA-EF Cube-Modell ist keineswegs erschöpfend, sondern dient als solide Grundlage für eine Implementierungs-Checkliste, bevor ein CIIP-Mechanismus kontextualisiert und entwickelt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-11407-7_9 296778700f17d6afbe76062d76d99b7f;de;;;7.4.;;;Gesichtserkennung und -erkennung basierend auf Deep Learning in der Überwachungsumgebung Beim Bau von Smart Cities und der öffentlichen Sicherheit hat die Anzahl der Kameras dramatisch zugenommen, das künstliche Videomanagement kann die Anforderungen des Städtebaus nicht erfüllen. Daher hat sich die intelligente Videoüberwachungstechnologie zu einem Forschungs-Hotspot entwickelt. Bei der eigentlichen Videoüberwachung ist die Überwachungsumgebung sehr komplex, die Gesichtserkennung im Video ist oft schwierig. Dieser Artikel untersucht das Problem der Gesichtserkennung bei der Videoüberwachung in der Stadt und schlägt eine auf Deep Learning basierende Mottenerkennungs- und Erkennungsmethode vor. Der Erkennungsteil verwendet den schnellen YOLO2-Algorithmus, der Erkennungsteil den hochpräzisen ResNet-Algorithmus. Verwenden der WIDERFACE-Gesichtserkennungsdatenbank als Trainingsdatensatz, Verwenden Sie die CASIA_Webface-Datenbank für Validierungsexperimente. Die experimentellen Daten zeigen, dass der mothod YOLO2-Algorithmus und der ResNet-Algorithmus die Erkennung und Erkennung des menschlichen Gesichts bei der Videoüberwachung abschließen können. das ergebnis ist besser. Um den Wiedererkennungseffekt weiter zu verifizieren, wurde der von der eigentlichen Kamera erfasste Datensatz getestet. Die Testergebnisse zeigen, dass die Echtzeit und Genauigkeit des Systems die Anforderungen der praktischen Ingenieuranwendung erfüllen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2203-7_58 8810ea095ab794e8d9b1a901e8dbbf73;de;;;7.4.;;;Data Mining für die industrielle Systemidentifikation: ein drehender Prozess Die Modellierung eines industriellen Prozesses ist immer eine Herausforderung und hat einen erheblichen Einfluss auf die Leistungsfähigkeit der Industrie. In dieser Studie wird einer der wichtigsten industriellen Prozesse, ein Drehprozess, als Black-Box-System betrachtet. Da es sich auch um ein dynamisches System handelt, d. h. seine Eigenschaften sich mit der Zeit ändern, wurde das Systemidentifikationsverfahren auf die Messdaten angewendet, um ein empirisches Modell zur Erklärung einer Systemausgabe, der Oberflächenrauheit, zu erhalten. Die Eingaben des Systems sind Vorschub, Schnittgeschwindigkeit und Schneidenradius. Laut der Studie werden drei nicht-parametrische Modelle, Box-Jenkins, autoregressiver gleitender Durchschnitt mit exogenen Eingaben (ARMAX) und Ausgabefehler (OE), empfohlen, um mathematische Modelle basierend auf Data-Mining aus dem Herstellungsprozess zu erstellen. Diese Systemidentifikationsmodelle sind geeignet, den dynamischen Drehprozess zu modellieren, da sie die Fähigkeit haben, sowohl dynamische als auch Geräuschparameter separat zu konstruieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46578-3_68 6ae3fa01ddbdb8a1848f3ebe26bd1e5d;de;;;7.4.;;;CodeScan: Ein überwachter maschineller Lernansatz zur Erkennung von Open-Source-Code-Bots Die Steigerung der Softwareproduktivität würde Unternehmen helfen, ihre Kosten zu senken und ihre Gewinne zu steigern. Softwaremetriken hängen stark von den persönlichen Erfahrungen und Fähigkeiten von Managern in Bezug auf Mustererkennung und Belohnungen ab. Die Unterscheidung zwischen tatsächlicher menschlicher Anstrengung und maschinell generiertem Code kann dazu beitragen, den Entscheidungsprozess eines Unternehmens voranzutreiben, der seine Mitarbeiter belohnt, und den Managern ein unterstützendes Werkzeug zur Verfügung stellen, das eine effektive Überwachung ohne Mikromanagement ermöglicht, das eine breite Anwendung bei der Verwaltung von Heimarbeit und anderen virtuellen Anwendungen findet Umgebungen. Der Artikel untersucht die Einsichten in die Qualität von maschinell generiertem Bot-Code im Vergleich zu tatsächlichen menschlichen Codierungsbemühungen. Es verwendet Techniken des maschinellen Lernens, um Muster zu erkennen, und liefert intelligente Erkenntnisse, die als Leistungskennzahl für Versionierungssysteme und Business Intelligence verwendet werden können. Wir haben mit der Light Gradient Boosting Methode erfolgreich zwischen einem Bot und einem von Menschen geschriebenen Code mit einem F1-Score von 0,945 unterschieden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-2008-9_37 d7e1e69af6dcab306caeba61832da445;de;;;7.4.;;;Ein hybrider fallbasierter neuronaler Netzansatz für die wissenschaftliche und technische Datenanalyse Die Extraktion von Wissen aus Datenbanken kann durch die Anwendung verschiedener Methoden des maschinellen Lernens und der künstlichen Intelligenz erfolgen. Es wird ein hybrider Ansatz vorgestellt, der eine Kombination aus fallbasiertem Denken und künstlichen neuronalen Netzen verwendet. Der Ansatz wird durch seine Anwendung auf unterschiedliche Weise auf zwei verschiedene praktische Bereiche veranschaulicht: (i) das Design von Mauerwerksplatten und (ii) die Echtzeitvorhersage von physikalischen Parameterwerten des Ozeans. Die bisherigen Ergebnisse werden vorgestellt und die weitere Fortführung des Ansatzes im Bereich der Ingenieurbauplanung diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0575-6_18 d77a99ec9ed30e459ce58d50c7762d78;de;;;7.4.;;;Themenspezifische Empfehlung für Open Education Resources Die meisten offenen Bildungsressourcen sind über das Web verstreut und nicht gut beschrieben und strukturiert, was große Probleme bei ihrer Verwendung, Suche, Organisation und Verwaltung verursacht. Wir präsentieren ein System, das domänenspezifische Inhalte aus umfangreichen Online-Lernmaterialien und -Publikationen sammeln und analysieren, domänenspezifische Wissensbegriffe automatisch identifizieren und zu gut organisierten Themen zusammenfassen kann. Das System hilft Lernenden, die neueste Technologie erlernen möchten, anhand themenspezifischer Empfehlungen effektiv und effizient geeignete Online-Kurse und Lernmaterialien zu finden. Wir untersuchen das System weiter mit realen Daten und Anwendungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25515-6_7 8cb3d0d7f4a29219f3705f368f6f0b70;de;;;7.4.;;;Eine neue Support Vector Machine für Data Mining Dieses Papier schlägt eine neue Support Vector Machine (SVM) mit einer robusten Verlustfunktion für das Data Mining vor. Seine duale optimale Formation ist ebenfalls konstruiert. Für die schnelle und einfache Implementierung der neuen Support Vector Machine wurde ein gradientenbasierter Algorithmus entwickelt. Gleichzeitig analysiert es die Konvergenzbedingung des Algorithmus und gibt eine Formel zur Auswahl der Lernschrittgröße. Numerische Simulationsergebnisse zeigen, dass die neue Support Vector Machine deutlich besser abschneidet als eine Standard Support Vector Machine.;-;-;-;https://link.springer.com/chapter/10.1007/11527503_31 0c8470e2c2445fdd00cd413de5de3820;de;;;7.4.;;;Dynamisches Modell für den pH in einem Raceway-Reaktor mit Deep-Learning-Techniken In diesem Beitrag wird ein dynamisches Black-Box-Modell für die Mikroalgenproduktion in Raceway-Reaktoren vorgestellt. Das mit Deep-Learning-Techniken entwickelte Black-Box-Modell ermöglicht die Schätzung des pH-Werts in einem 100 m;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58653-9_18 e16fa33bd6a56f243d2c783eabe1947a;de;;;7.4.;;;Einführung: Die Herausforderung der allgegenwärtigen Wissensentdeckung In der Vergangenheit war die Entwicklung von Machine-Learning-Ansätzen teilweise durch die Verfügbarkeit von Daten und erhöhte Rechenleistung motiviert. Ubiquitous Computing verspricht einen ähnlichen Sprung nach vorne. Kleine Geräte können mittlerweile an vielen Orten installiert werden, mobile und tragbare Geräte ermöglichen die Erfassung großer Informationsmengen und erzeugen so eine Vielzahl neuer Datentypen, für die neue Lern- und Entdeckungsmethoden benötigt werden, weit über die bestehenden hinaus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16392-0_1 4018250c19117e39eb589f0ec4fe5b89;de;;;7.4.;;;Quanten-Lyapunov-Steuerung mit maschinellem Lernen Quantum State Engineering ist eine zentrale Aufgabe der Lyapunov-basierten Quantenkontrolle. Bei unterschiedlichen Anfangszuständen kann eine bessere Leistung erzielt werden, wenn die Steuerparameter, wie beispielsweise die Lyapunov-Funktion, jedoch auf Kosten von Rechenressourcen für jeden Anfangszustand individuell optimiert werden. Um dieses Problem anzugehen, schlagen wir eine anfangszustandsadaptive Lyapunov-Steuerungsstrategie mit maschinellem Lernen vor. Insbesondere werden künstliche neuronale Netze verwendet, um die Beziehung zwischen den optimalen Steuerparametern und den Anfangszuständen durch überwachtes Lernen mit Stichproben zu lernen. Es werden zwei Designs vorgestellt, bei denen das neuronale Feedforward-Netzwerk und das neuronale Netzwerk der allgemeinen Regression verwendet werden, um Steuerungsschemata auszuwählen bzw. Lyapunov-Funktionen zu entwerfen. Wir demonstrieren die Leistungsfähigkeit der Designs mit einem Drei-Niveau-Quantensystem für ein Eigenzustandskontrollproblem. Da die Probengenerierung und das Training neuronaler Netze im Voraus durchgeführt werden, kann die anfangszustandsadaptive Lyapunov-Steuerung für neue Anfangszustände ohne großen Anstieg der Rechenressourcen implementiert werden.;-;-;-;https://link.springer.com/article/10.1007/s11128-019-2470-8 e6f9a5931247ab586f42fe0c3e8e8758;de;;;7.4.;;;Anwendung von Data-Mining-Techniken zur Fehlererkennung und -klassifizierung Um die Herausforderungen der Softwareentwicklung wie die pünktliche Lieferung eines Projekts, die Entwicklung hochwertiger Softwareprodukte und die Reduzierung der Entwicklungskosten zu bewältigen, verwendet die Softwareindustrie häufig Softwaretools zur Fehlererkennung, um die Qualität von Softwareprodukten zu verwalten. Fehler werden erkannt und nach Schweregrad klassifiziert, dies kann automatisiert werden, um Entwicklungszeit und -kosten zu reduzieren. Heutzutage verwenden Ingenieure und Forscher Data-Mining-Techniken, um nützliches Wissen aus großen Software-Repositorys zu extrahieren. In diesem Beitrag werden Methoden zur Erkennung und Klassifizierung von Softwarefehlern vorgeschlagen und Data-Mining-Techniken integriert, um die Fehler aus einem großen Software-Repository zu identifizieren und zu klassifizieren. Basierend auf der Schwere der Fehler konzentriert sich die vorgeschlagene Methode, die in diesem Papier diskutiert wird, auf drei Schichten: Kern-, Abstraktions- und Anwendungsschicht. Die entworfene Methode wird anhand der Parameter Präzision und Recall bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11933-5_42 87dc20ebceabc4f1a25d55cd47218cd4;de;;;7.4.;;;Wissen ist am Rande! So suchen Sie in verteilten Machine-Learning-Modellen Mit dem Aufkommen des Internets der Dinge und der Industrie 4.0 werden am Rand des Netzwerks enorme Datenmengen produziert. Aufgrund fehlender Rechenleistung werden diese Daten derzeit in die Cloud gesendet, wo zentralisierte Machine-Learning-Modelle trainiert werden, um höheres Wissen abzuleiten. Mit der jüngsten Entwicklung spezialisierter Hardware für maschinelles Lernen für mobile Geräte beginnt eine neue Ära des verteilten Lernens, die eine neue Forschungsfrage aufwirft: Wie können wir in verteilten maschinellen Lernmodellen suchen? Maschinelles Lernen am Rand des Netzwerks hat viele Vorteile, wie z. B. Inferenz mit geringer Latenz und mehr Privatsphäre. Solche verteilten maschinellen Lernmodelle können auch für einen menschlichen Benutzer, einen bestimmten Kontext oder ein Anwendungsszenario personalisiert lernen. Da die Trainingsdaten auf den Geräten verbleiben, bleibt die Kontrolle über möglicherweise sensible Daten erhalten, da sie nicht an Dritte weitergegeben werden. Diese neue Form des verteilten Lernens führt zu einer Aufteilung des Wissens auf viele Geräte, was den Zugang erschwert. In diesem Papier gehen wir das Problem an, spezifisches Wissen zu finden, indem wir eine Suchanfrage (Abfrage) an ein Gerät weiterleiten, das sie am besten beantworten kann. Dazu verwenden wir eine entropiebasierte Qualitätsmetrik, die den Kontext einer Anfrage und die Lernqualität eines Geräts berücksichtigt. Wir zeigen, dass unsere Weiterleitungsstrategie in einem urbanen Mobilitätsszenario eine Genauigkeit von über 95 % erreichen kann, in der wir Daten von 30 000 Pendlern in der Stadt Trient, Italien, verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-69462-7_27 3b902950344d37f6da3eacb505740744;de;;;7.4.;;;Ein auf mehreren Zeitreihen basierendes rekurrentes neuronales Netz zur kurzfristigen Lastprognose Strom, eine unverzichtbare Ressource im täglichen Leben und in der industriellen Produktion, ist schwer zu speichern, daher spielt eine genaue kurzfristige Lastprognose (STLF) eine entscheidende Rolle bei der Ressourcenallokation, der Kapitalplanung von Energieunternehmen, dem Energieeinsatz und der staatlichen Kontrolle. In den letzten Jahrzehnten wurden die starken Abhängigkeitsbeziehungen von Zeitreihen in vielen Forschungen berücksichtigt, aber die diskreten Informationen haben sich in ihren Experimenten nicht als sehr nützlich erwiesen. Im Allgemeinen sind diskrete Informationen zwar schwach, können aber im Vergleich zu den Mikrotrends kontinuierlicher Informationen Makrotrends liefern. In dieser Forschung wollen wir Makro- und Mikroinformationen durch kontinuierliche und diskrete Zeitreihen kombinieren, um mehrere Zeitreihen (MTS) zu generieren. Die MTS umfassen vier Informationssequenzen: Kurzfristig, Zyklus, Lang Kurzfristig und Kreuz Lang Kurzfristig. Diese MTS werden verwendet, um ein STLF-System unter Verwendung eines rekurrenten neuronalen Netzmodells (RNN) aufzubauen, das sequenzielle Informationen zwischen kontinuierlichen und diskreten Reihen lernen kann. Daher kann das RNN-Modell mit MTS-Informationen die Vorhersageleistung für die kurzfristige Lastvorhersage verbessern. Die experimentellen Ergebnisse zeigen, dass unser vorgeschlagenes Vorhersagesystem den Stand der Technik übertrifft.;-;-;-;https://link.springer.com/article/10.1007/s00500-017-2624-5 a2e9b406d919a3b824dc99fd5c64b4af;de;;;7.4.;;;Verwendung von Deep-Learning-Worteinbettungen für Ähnlichkeiten von Zitaten in akademischen Arbeiten Die Aufgabe der Zitierähnlichkeitsmessung ist definiert als die Bestimmung, wie ähnlich die Bedeutungen zweier Zitate sind. Diese Aufgabe spielt eine bedeutende Rolle in Anwendungen der Natural Language Processing, insbesondere bei der akademischen Plagiatserkennung. Die Berechnung der Ähnlichkeit von Zitaten ist jedoch keine triviale Aufgabe, da in wissenschaftlichen Arbeiten unvollständige und mehrdeutige Informationen enthalten sind, die es erforderlich machen, zusätzliches Wissen zu nutzen, um sie zu verstehen, sowie die meisten Ähnlichkeitsmessungen basierend auf den syntaktischen Merkmalen und anderen basierend auf der semantische Teil hat noch viele Nachteile. In diesem Artikel schlagen wir einen korpusbasierten Ansatz vor, der Deep-Learning-Worteinbettungen verwendet, um eine effektivere Zitierähnlichkeit zu berechnen. Unsere Studie untersucht die bisherigen Arbeiten zur Textähnlichkeit, nämlich string-basiert, wissensbasiert und korpusbasiert. Dann definieren wir unsere neue Basis und experimentieren mit einem großen Datensatz wissenschaftlicher Arbeiten. Die Endergebnisse zeigen, dass ein auf Deep Learning basierender Ansatz die Effektivität der Zitationsähnlichkeit verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-96292-4_15 d17ed3b8a8618385b3700522de072e21;de;;;7.4.;;;Ein Modell des maschinellen Lernens zur Vorhersage der akademischen Leistung von Schülern durch die Internetnutzung Das Internet ist eine leistungsstarke Plattform für Studenten, um die Interessengebiete zu entwickeln und vorhandene Fähigkeiten zu verbessern. Schüler der Altersgruppe 18–25 sind die häufigsten Nutzer. Menschen im Allgemeinen, insbesondere Studenten, nutzen das Internet hauptsächlich zu Forschungs- und Bildungszwecken. Die Art und Weise, wie Menschen das Internet nutzen, dh die besuchten Websites, zeigt die Perspektive der Verhaltenssuche. Der Ausbruch des Internets hat den Schülern in vielerlei Hinsicht geholfen, hat aber auch negative Auswirkungen auf die akademischen Leistungen. Studien über Menschen haben auch gezeigt, dass das Gleichgewicht zwischen Studenten mit Studium und Internet auch einen guten Einfluss auf ihre akademischen Leistungen hat. Die vorgeschlagene Arbeit verwendet Algorithmen des maschinellen Lernens, um die Beziehung zwischen der Leistung in der Wissenschaft und den Verhaltensperspektiven eines Schülers bei der Nutzung des Internets zu quantifizieren und neue Merkmale mit verallgemeinertem Wert hervorzubringen. Die Schüler werden nach akademischen Leistungen und Noten gruppiert, die sie mit der weiteren Verarbeitung durch Entscheidungsbäume, Support-Vektor-Maschinen (SVM) und neuronale Netzalgorithmen erhalten. Die Internetprotokolle der Schüler könnten abgerufen werden und reiche Informationen über das Verhalten der Schüler enthalten. Die vorgeschlagene Arbeit hat einen starken praktischen Wert für die Verbesserung der Managementfähigkeiten von Studenten im Bildungsbereich mit dem Universitäts- und Hochschulsektor.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8752-8_32 f4ecc0d0387eda84330b0c1a87cbd6d6;de;;;7.4.;;;Hylo: Hybrid Layer-basierte Optimierung zur Reduzierung der Kommunikation bei verteiltem Deep Learning Beim verteilten Deep-Learning-Training bringt die Synchronisation von Gradienten normalerweise einen enormen Overhead für die Netzwerkkommunikation. Obwohl viele Verfahren zur Lösung des Problems vorgeschlagen wurden, wurde eine begrenzte Wirksamkeit erzielt, da diese Verfahren die Unterschiede verschiedener Schichten nicht vollständig berücksichtigen. Wir schlagen einen neuartigen Hybrid-Layer-basierten Optimierungsansatz namens Hylo vor, um den Kommunikationsaufwand zu reduzieren. Für die Gradientenkompression von zwei Arten von Schichten (Faltungsschicht und vollständig verbundene Schicht) wurden zwei verschiedene Strategien entwickelt. Für Faltungsschichten werden nur einige wichtige Faltungskerne für die Gradientenübertragung gewählt. Für vollständig verbundene Schichten werden alle Gradienten mit einem adaptiven Gradientenschwellenwert auf 2 Bit quantisiert. Die experimentellen Ergebnisse zeigen, dass Hylo offensichtliche Beschleunigungen für verteilte Deep-Learning-Systeme mit geringem Genauigkeitsverlust bringt. Es erreicht Trainingsgeschwindigkeiten von bis zu 1,31;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-60259-8_50 d7ffe418024dffd36c28cb5f35f7d453;de;;;7.4.;;;Chatbots für CRM und Dialogmanagement In diesem Kapitel lernen wir, wie man einen Dialog auf der Grundlage des Diskurses seiner Äußerungen führt. Wir zeigen, wie aus einer ersten Äußerung eine Dialogstruktur aufgebaut werden kann. Danach führen wir einen imaginären Diskursbaum ein, um das Problem der Einbeziehung von Hintergrundwissen auf Abruf zu lösen und Fragen zu beantworten. Ein Ansatz zum Dialogmanagement basierend auf einem Gitterweg wird beschrieben. Wir schlagen auch vor;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-61641-0_1 24da0b68dbd7617b5af91e0b5ac6a714;de;;;7.4.;;;Eine Evaluierung maschineller Lernmethoden zur Erkennung von Phishing-Sites In diesem Papier stellen wir die Leistungsfähigkeit von auf maschinellem Lernen basierenden Methoden zur Erkennung von Phishing-Sites vor. Wir setzen 9 maschinelle Lerntechniken ein, darunter AdaBoost, Bagging, Support Vector Machines, Klassifizierungs- und Regressionsbäume, logistische Regression, Random Forests, neuronale Netze, Naive Bayes und Bayesian Additive Regression Trees. Wir lassen diese Techniken des maschinellen Lernens Heuristiken kombinieren und lassen auch auf maschinellem Lernen basierende Erkennungsmethoden Phishing-Sites von anderen unterscheiden. Wir analysieren unseren Datensatz, der sich aus 1.500 Phishing-Seiten und 1.500 legitimen Seiten zusammensetzt, klassifizieren diese mithilfe der auf maschinellem Lernen basierenden Erkennungsmethoden und messen die Leistung. In unserer Auswertung haben wir verwendet;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02490-0_66 752c62a69d027a6b62b19ac9499fedc4;de;;;7.4.;;;Techniken des maschinellen Lernens zur Klassifizierung des Verhaltens von Nutztieren Die Erkennung von Tieraktivitäten liegt im Interesse landwirtschaftlicher Gemeinschaften, Tierbehavioristen und Naturschützern, da sie zusätzlich zur Nahrungsaufnahme als Indikator für die Gesundheit der Tiere dient, wenn die Beobachtung während des zirkadianen Kreises durchgeführt wird. Techniken und Werkzeuge des maschinellen Lernens werden verwendet, um die Aktivitäten von Nutztieren zu identifizieren. Diese Techniken sind hilfreich, um zwischen komplexen Mustern für die Klassifizierung von Tierverhalten während des Tages zu unterscheiden, allein die menschliche Beobachtung ist arbeits- und zeitaufwendig. Diese Studie schlägt eine robuste Methode des maschinellen Lernens vor, um fünf Aktivitäten von Nutztieren zu klassifizieren. Um das Konzept zu beweisen, wurde ein Datensatz verwendet, der auf der Beobachtung von zwei Schafen und vier Ziegen basiert. Eine Merkmalsauswahltechnik, nämlich Boruta, wurde getestet mit;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-04212-7_26 34fbc39a6bb5453506786f12f85eb86b;de;;;7.4.;;;Kontinuierliche Benutzerauthentifizierung mit Machine Learning auf Touch Dynamics Im Kontext der sich ständig weiterentwickelnden Handgepäcktechnologie und ihrer zunehmenden Zugänglichkeit, nämlich Smartphones und Tablets, wird ein größerer Bedarf an zuverlässigen Authentifizierungsmitteln in Sicht. Die aktuelle Studie bietet eine alternative Lösung des ununterbrochenen Testens zur Überprüfung der Benutzerlegitimität. Ein kontinuierlich gesammelter Datensatz mit 41 Touchscreen-Eingaben von Benutzern bietet einen guten Ausgangspunkt, um das Verhalten jedes Benutzers zu modellieren und später zwischen Benutzern zu unterscheiden. Wir stellen ein System vor, das Funktionen basierend auf Rohdaten verarbeiten kann, die aus Benutzer-Bildschirm-Interaktionen extrahiert wurden, und versucht, jede Geste ihrem Urheber zuzuordnen. Mit einer Genauigkeit von über 83 % beweisen wir, dass diese Art von Authentifizierungssystem machbar ist und als kontinuierliche Methode zur Offenlegung von Eindringlingen in bestimmte mobile Anwendungen weiter integriert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-26532-2_65 add1b22cdf5f92b0a6ab6efe1380b317;de;;;7.4.;;;Ein Überblick über die Anwendung maschineller Lerntechniken zur Kreditbewertung: Bestehende Modelle und offene Fragen Model In den letzten Jahren wurden Techniken des maschinellen Lernens in großem Umfang für die Kreditbewertung eingesetzt. Um einen rationalen Leistungsvergleich verschiedener lernbasierter Kreditratingmodelle anzustellen, haben wir uns auf die Modelle konzentriert, die auf den beiden am häufigsten verwendeten australischen und deutschen Kreditgenehmigungsdatensätzen erstellt und validiert wurden. Basierend auf einer systematischen Literaturübersicht vergleichen und diskutieren wir die Leistungsfähigkeit bestehender Modelle. Darüber hinaus identifizierten und illustrierten wir die Grenzen bestehender Arbeiten und diskutierten einige offene Fragen, die der zukünftigen Forschung in diesem Bereich zugute kommen könnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-26535-3_15 d8d49e39c3bd6c3166a551e287c7cd49;de;;;7.4.;;;Robustes Design und Betrieb von Cyber ​​Physical Systems mit Schwerpunkt auf unbemannten autonomen Systemen Autonomie und autonome Systeme nehmen in der Forschungsgemeinschaft eine zentrale Stellung ein, da sich autonome Fahrzeuge verbreiten und ihr Nutzen in allen Bereichen des militärischen und zivilen Bereichs von Jahr zu Jahr exponentiell steigt. Die Entwicklung und Anwendung von Resilienz- und Sicherheitstechnologien auf autonome Systeme hält leider nicht mit deren Wachstumsrate Schritt. Mehrere Faktoren behindern den Einsatz und die Einführung autonomer Systeme. Dazu gehören das Fehlen einer ausreichend hohen Autonomie, auf die man sich verlassen kann, erhebliche Herausforderungen im Bereich der Mensch-Maschine-Schnittstelle, die erhebliche menschliche Eingriffe zur Bedienung und Interpretation von Sensordaten erfordern, der Bedarf an neuen Technologien für maschinelles Lernen und vor allem , dem robusten Design und Betrieb komplexer Systeme, um deren Sicherheit, Zuverlässigkeit und Verfügbarkeit bei der Ausführung von Missionen in unstrukturierten und überladenen Umgebungen zu gewährleisten. Jüngste Fortschritte bei der Widerstandsfähigkeit und Sicherheit komplexer technischer Systeme haben sich auf Methoden/Werkzeuge konzentriert, um die Systemleistung gegen eine längere Zeit bis zum Ausfall zu kompensieren, mit dem Ziel, die Mission abzuschließen, oder Trial-and-Error-Methoden, um zu einer suboptimalen Strategie für die Systemselbstorganisation in Gegenwart von a . zu gelangen Fehlermodus. Dieses Papier stellt einen neuartigen Rahmen für das belastbare Design und den Betrieb solch komplexer Systeme über Selbstorganisations- und Steuerungsrekonfigurationsstrategien vor, die empirische Versuchs- und Fehlertechniken vermeiden und in Echtzeit auf der Plattform implementiert und ausgeführt werden können. Das Hauptthema lässt sich wie folgt zusammenfassen: „Ein gesundes und belastbares System ist ein sicheres System“. Um dieses Ziel zu erreichen, führen wir einen integrierten und rigorosen Ansatz für ein widerstandsfähiges Design ein, während Sicherheitsüberlegungen sicherstellen, dass das Zielsystem in einem sicheren Bereich eingeschlossen ist. Ein belastbares System überwacht robust und flexibel seine interne und externe Umgebung, kann Störungen erkennen und antizipieren, die seine Betriebsintegrität beeinträchtigen können, und geeignete Maßnahmen ergreifen, um die Störung zu kompensieren. Belastbarkeit erhöht die Sicherheit, verbessert gleichzeitig die Risikofaktoren und stellt sicher, dass Fahrzeuge, die extremen Störungen ausgesetzt sind, innerhalb ihres sicheren Bereichs bleiben. Die Grundlagentechnologien beginnen mit Werkzeugen zur Modellierung von Graphspektral- und Epidemieausbreitung, um das Systemverhalten unter normalen und fehlerhaften Bedingungen darzustellen. Ein Markov-Entscheidungsprozess ist das grundlegende Selbstorganisationsmodul. Wir führen einen neuartigen Ansatz zur Fehlertoleranz ein, indem wir die Auswirkungen schwerwiegender Fehlermodi auf die Systemleistung als Input für eine Reinforcement Learning (RL)-Strategie betrachten, die die Systemleistung mit der Kontrollaktivität abwägt, um die verbleibende Nutzungsdauer (RUL) zu verlängern. des unbemannten Systems. Leistungskennzahlen werden definiert und helfen bei der algorithmischen Entwicklung und deren Validierung. Wir verfolgen eine integrierte und überprüfbare Methodik zur Sicherheitsabsicherung, die die Bewertung der Wirksamkeit von Risikomanagementstrategien ermöglicht. Zu Demonstrationszwecken werden mehrere unbemannte autonome Systeme verwendet.;-;-;-;https://link.springer.com/article/10.1007/s10846-018-0881-x 756d84d606e97703dff42fccea051807;de;;;7.4.;;;Piano-Multipitch-Schätzung mit Sparse Coding Embedded Deep Learning Als Grundlage vieler Anwendungen war das Mehrtonhöhen-Schätzungsproblem immer der Fokus der akustischen Musikverarbeitung, jedoch funktionieren existierende Algorithmen aufgrund ihrer Komplexität mangelhaft. In diesem Artikel wenden wir Deep Learning an, um das Problem der Klaviermehrtonabschätzung zu lösen, indem;-;-;-;https://link.springer.com/article/10.1186/s13636-018-0132-x 8772bae9e19ba440fa2e7cdc13a31c33;de;;;7.4.;;;Intelligente Erkennungsmethode für maximalen Farbunterschied von Bildern basierend auf maschinellem Lernen Es gibt Farbunterschiede im Bild, das unter dem Hintergrund des Nachtlichts gesammelt wurde. Maschinelles Lernen und Fusionsverfolgungskompensationsverfahren werden verwendet, um den maximalen Farbunterschied des Bildes zu erkennen und zu verarbeiten, um die Bildqualität des Bildes zu verbessern. Ein Algorithmus zur Erkennung maximaler Farbunterschiede für ein Nachtlicht-Hintergrundfarbunterschiedsbild basierend auf maschinellem Lernen und Fusionsverfolgungskompensation wird vorgeschlagen. Zuerst werden eine Bildmerkmalserfassung und eine Vorverarbeitung zum Mischen von Farbdifferenzmerkmalen ausgeführt, ein maschinelles Bildlernen und eine Fusionsverfolgungskompensation werden ausgeführt, und ein Bildfarbdifferenz-Erfassungsalgorithmus wird für die Bildfarbdifferenzglättung und die adaptive Mischung verwendet. Das Hintergrundfarbdifferenzbild des Nachtlichts wird durch Merkmalsclusterbildung automatisch in den Zielraum unterteilt, und die maximale Farbdifferenzdetektion der Detailmerkmale des Bildes wird im größtmöglichen Umfang durchgeführt. Die Simulationsergebnisse zeigen, dass der Algorithmus eine hohe Genauigkeit und eine gute Farbdifferenzauflösung aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36405-2_18 ce83c362edd586e9254cee8059a203fd;de;;;7.4.;;;Entwurf eines Systems zur Identifizierung struktureller Schäden an Hochgeschwindigkeitsbahnweichen basierend auf maschinellem Lernen Um die Schadenserkennungs- und -erkennungsfähigkeit von Hochgeschwindigkeits-Eisenbahn-Weichenstrukturen zu verbessern, wird ein auf maschinellem Lernen basierendes Schadenserkennungsverfahren für Hochgeschwindigkeits-Eisenbahn-Weichenstrukturen vorgeschlagen, und das Computer-Vision-Bildanalyseverfahren wird verwendet, um den Schaden von Hochgeschwindigkeitsbahn-Weichenbauwerk. Die superlineare Segmentierung und Merkmalserkennung der Schadteile von Hochgeschwindigkeits-Weichenbauwerken wird mittels aktiver Konturerkennung realisiert und die Merkmalssegmentierung und Lokalisierung von Hochgeschwindigkeits-Eisenbahn-Weichenbauwerken in den Schadstellen durchgeführt. Entsprechend dem Ergebnis des Merkmalsabgleichs wird der maschinelle Lernalgorithmus verwendet, um die Beschädigung der Weichenstruktur von Hochgeschwindigkeitszügen zu erkennen. Die Simulationsergebnisse zeigen, dass die Genauigkeit der vorgeschlagenen Methode zur Schadenserkennung von Hochgeschwindigkeits-Eisenbahn-Weichenstrukturen hoch ist und die Fähigkeit zur Schadenserkennung und Identifizierung von Hochgeschwindigkeits-Eisenbahn-Weichenstrukturen besser ist als die von Hochgeschwindigkeits-Eisenbahn-Weichenstrukturen .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36405-2_16 56a9e387c592c0e259709c768fd14394;de;;;7.4.;;;Data Warehousing und Data Mining Techniken für Intrusion Detection Systeme In diesem Whitepaper werden Data Mining- und Data Warehousing-Techniken beschrieben, die die Leistung und Benutzerfreundlichkeit von Intrusion Detection Systemen (IDS) verbessern können. Aktuelle IDS bieten keine Unterstützung für die Analyse historischer Daten und die Datenzusammenfassung. In diesem Papier werden Techniken zur Modellierung von Netzwerkverkehr und Warnungen unter Verwendung eines mehrdimensionalen Datenmodells vorgestellt und presents;-;-;-;https://link.springer.com/article/10.1007/s10619-006-9496-5 348fde435770af8b4bfa2a0499bd8f9a;de;;;7.4.;;;Bidirektionale LSTM-RNN-basierte Hybrid-Deep-Learning-Frameworks für die univariate Zeitreihenklassifizierung Die Zeitreihenklassifikation (TSC) ist in den letzten Jahrzehnten ein bedeutendes Forschungsproblem sowohl für Praktiker in der Industrie als auch für akademische Forscher. Aufgrund der rasanten Zunahme zeitlicher Daten in einer Vielzahl von Disziplinen wurden unglaublich viele Algorithmen vorgeschlagen. Dieses Papier schlägt robuste Ansätze vor, die auf modernsten Techniken, bidirektionalem Langzeit-Kurzzeitgedächtnis (BiLSTM), vollständig gefaltetem Netzwerk (FCN) und Aufmerksamkeitsmechanismen basieren. Ein BiLSTM berücksichtigt sowohl Vorwärts- als auch Rückwärtsabhängigkeiten, und FCN hat sich bei der Merkmalsextraktion als TSC-Basislinie als gut erwiesen. Daher ergänzen wir BiLSTM und FCN in einer hybriden Deep-Learning-Architektur, BiLSTM-FCN. Darüber hinaus untersuchen wir in ähnlicher Weise die Verwendung des Aufmerksamkeitsmechanismus, um seine Effizienz auf BiLSTM-FCN zu überprüfen und schlagen ein weiteres Modell ABiLSTM-FCN vor. Wir validieren die Leistung an 85 Datensätzen aus dem univariaten Zeitreihenarchiv der University of California Riverside (UCR). Die vorgeschlagenen Modelle werden im Hinblick auf Klassifikationstestfehler und f1-Score bewertet und bieten auch einen Leistungsvergleich mit verschiedenen bestehenden Techniken des Standes der Technik. Die experimentellen Ergebnisse zeigen, dass unsere vorgeschlagenen Modelle umfassend besser abschneiden als die bestehenden Methoden und Baselines nach dem Stand der Technik.;-;-;-;https://link.springer.com/article/10.1007/s11227-020-03560-z e6d5ada00c945734999c8470a057582d;de;;;7.4.;;;Kombination mehrerer Funktionen für die automatische Textzusammenfassung durch maschinelles Lernen In diesem Papier untersuchen wir mehrere Funktionen für die extraktive automatische Zusammenfassung mithilfe von maschinellem Lernen. Sie berücksichtigen SuPor-2-Funktionen, einen überwachten Zusammenfasser für brasilianisches Portugiesisch und grafikbasierte Funktionen, die komplexe Netzwerkmessungen widerspiegeln. Es werden vier verschiedene Klassifikatoren und die automatische Merkmalsauswahl untersucht. ROUGE wird zur Bewertung von Einzeldokumentzusammenfassungen von Nachrichtentexten verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85980-2_13 763e6be4db42f4105c1659f4d8442947;de;;;7.4.;;;Verbesserung der e-Invoicing-Systeme durch Effizienzsteigerung von Arbeitsabläufen durch disruptive Technologien E-Invoicing ist ein schnell wachsender E-Service in Europa und weltweit. Sie wird als ein wesentliches Element bei der Verwirklichung der Ziele der „Digitalen Wirtschaft“ in der Europäischen Union identifiziert. Dieses Papier konzentriert sich auf die Identifizierung von Ineffizienzen in derzeit verwendeten E-Rechnungssystemen und die Möglichkeiten, neue Technologien wie künstliche Intelligenz und robotergesteuerte Prozessautomatisierung anzuwenden, um die Effizienz und den Automatisierungsgrad zu erhöhen. Die Studie berücksichtigt Expertenmeinungen und Nutzerwahrnehmungen in E-Rechnungssystemen zum Status Quo und den Notwendigkeiten einer höheren Automatisierung. Wir konzentrieren uns auf E-Invoicing-Systeme im Baltikum bestehend aus den Ländern Estland, Lettland und Litauen. Basierend auf den durchgeführten Untersuchungen wurden die Nachteile von E-Invoicing-Systemen in Bezug auf die betriebliche, technologische und Informationssicherheit identifiziert. Darüber hinaus wurden die Automatisierungsmöglichkeiten und allgemeine Anforderungen an die Automatisierung identifiziert. Die Funktionalitäten, die verbessert werden können, werden in diesem Papier ebenfalls diskutiert und die Vorteile der Verwendung neuer Technologien im Kontext erläutert. Basierend auf den Forschungsergebnissen schlagen wir ein konzeptionelles E-Invoicing-Ökosystem vor und präsentieren Empfehlungen für seine Anwendung entlang der zukünftigen Arbeiten in diesem Bereich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-67238-6_5 e586fc144ed6a313b50c203cae212587;de;;;7.4.;;;Stratifiziertes Sampling für Data Mining im Deep Web In den letzten Jahren ist das Deep Web extrem populär geworden. Wie jede andere Datenquelle kann Data Mining im Deep Web wichtige Erkenntnisse oder Zusammenfassungen der Ergebnisse liefern. Data Mining im Deep Web ist jedoch eine Herausforderung, da auf die Datenbanken nicht direkt zugegriffen werden kann und daher Data Mining durch Stichproben der Datensätze durchgeführt werden muss. Die Beispiele wiederum können nur durch Abfragen von Deep-Web-Datenbanken mit bestimmten Eingaben abgerufen werden. In diesem Papier zielen wir auf zwei verwandte Data-Mining-Probleme ab, das Assoziations-Mining und das Differential Rulemining. Diese werden vorgeschlagen, um allgemeine Zusammenfassungen der Unterschiede in den Daten zu extrahieren, die von verschiedenen Deep-Web-Datenquellen in derselben Domäne bereitgestellt werden. Wir entwickeln geschichtete Sampling-Methoden, um diese Mining-Aufgaben auf einer Deep-Web-Quelle durchzuführen. Zu unseren Beiträgen gehört ein neuartiger Greedy-Stratification-Ansatz, der den Abfrageraum einer Deep-Web-Datenquelle rekursiv verarbeitet und sowohl den Schätzfehler als auch die Sampling-Kosten berücksichtigt. Wir haben auch eine optimierte Stichprobenzuweisungsmethode entwickelt, die Schätzfehler und Stichprobenkosten integriert. Unsere experimentellen Ergebnisse zeigen, dass unsere Algorithmen die Stichprobenkosten im Vergleich zu einer geschichteten Stichprobenmethode, die nur Schätzfehler berücksichtigt, effektiv und konsequent reduzieren. Darüber hinaus weist unser Algorithmus im Vergleich zur einfachen Zufallsstichprobe eine höhere Stichprobengenauigkeit und niedrigere Stichprobenkosten auf.;-;-;-;https://link.springer.com/article/10.1007/s11704-012-2859-3 ced5357d57bd8bb6f3b7588577d19d7b;de;;;7.4.;;;Data Mining in Life Sciences: Eine Fallstudie zu SAPs In-Memory Computing Engine Während spaltenorientierte In-Memory-Datenbanken in erster Linie für die Unterstützung schneller OLAP-Abfragen und Business-Intelligence-Anwendungen entwickelt wurden, macht sie ihre Analyseleistung zu einer vielversprechenden Plattform für Data-Mining-Aufgaben in den Biowissenschaften. Ein solches System ist die HANA-Datenbank, die In-Memory-Datenmanagementlösung von SAP. In diesem Beitrag zeigen wir, wie HANA einige inhärente Anforderungen des Data Mining in Life Sciences erfüllt. Darüber hinaus haben wir eine Fallstudie im Bereich der Proteomikforschung durchgeführt. Im Rahmen dieser Studie haben wir eine Proteomik-Analysepipeline in HANA implementiert. Außerdem haben wir eine flexible Toolbox zur Datenanalyse implementiert, mit der Forscher der Biowissenschaften ihre Analysemodelle einfach entwerfen und bewerten können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39872-8_2 ec6d210f166e1657163b582e3fd51662;de;;;7.4.;;;Kernelbasierte Lernmethoden zur Präferenzaggregation Die mathematische Darstellung menschlicher Präferenzen ist Gegenstand von Studien für Forscher in verschiedenen Bereichen. Bei der multikriteriellen Entscheidungsfindung (MCDM) und der Fuzzy-Modellierung werden Präferenzmodelle typischerweise durch Interaktion mit dem menschlichen Entscheidungsträger (DM) konstruiert. Es ist jedoch bekannt, dass ein DM oft Schwierigkeiten hat, genaue Werte für bestimmte Parameter des Modells anzugeben. Er/sie fühlt sich stattdessen wohler, ganzheitliche Urteile für einige der Alternativen abzugeben. Inferenz- und Ermittlungsverfahren helfen dem DM dann, ein zufriedenstellendes Modell zu finden und unbeurteilte Alternativen zu bewerten. Auf ähnliche, aber statistischere Weise können maschinelle Lernalgorithmen auch Präferenzmodelle mit ähnlichen Setups und Zwecken ableiten, aber hier ist weniger Interaktion mit dem DM erforderlich/erlaubt. In diesem Artikel diskutieren wir die Hauptunterschiede zwischen beiden Inferenzarten und stellen insbesondere einen hybriden Ansatz vor, der das Beste aus beiden Welten vereint. Dieser Ansatz besteht aus einem sehr allgemeinen Kernel-basierten Framework zum Konstruieren und Ableiten von Präferenzmodellen. Als Sonderfälle kommen additive Modelle, bei denen die Interpretierbarkeit gewahrt bleibt, und Gebrauchsmuster in Betracht. Wichtige Vorteile dieses Ansatzes sind neben der Allgemeinheit seine Robustheit gegenüber Rauschen und seine gute Skalierbarkeit. Wir zeigen im Detail, wie dieses Framework verwendet werden kann, um Outranking-Beziehungen mit einem einzigen Kriterium zu aggregieren, was zu einer flexiblen Klasse von Präferenzmodellen führt, für die Domänenwissen durch einen DM spezifiziert werden kann.;-;-;-;https://link.springer.com/article/10.1007/s10288-008-0085-5 1efbf260d24a40c4814f9b3a21a170ec;de;;;7.4.;;;Big-Data-Verarbeitung für den Kontext von Intrusion Detection-Systemen: Ein Rückblick Das schnelle Datenwachstum, die zunehmende Zahl netzwerkbasierter Anwendungen und das Aufkommen der Allgegenwart von Internet und verbundenen Geräten haben die Bedeutung der Informationssicherheit beeinflusst. Daher wird ein Sicherheitssystem wie ein Intrusion Detection System (IDS) zu einer grundlegenden Anforderung. Die Komplexität der generierten Daten und ihre enorme Größe sowie die Variation von Cyber-Angriffen auf: Netzwerkverkehr, drahtloser Netzwerkverkehr, weltweiter Netzwerkverkehr, verbundene Geräte und 5G-Kommunikationsmedien führen jedoch dazu, die Effizienz des IDS zu beeinträchtigen. Der Umgang mit diesem enormen Datenverkehr ist eine Herausforderung und erfordert den Einsatz neuer Big Data-Sicherheitslösungen. Dieser Artikel bietet einen Überblick über die Erkennung von Eindringversuchen, der einen Überblick über IDS bietet, die Big-Data-Technologien einsetzen, und interessante Empfehlungen für weitere Studien bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-49342-4_12 ee27ad7fc439a3b0d60ea1dd5fc7d06e;de;;;7.4.;;;Deep Transfer Learning durch minimale einschließende Bälle Das Training von Deep-Learning-Algorithmen wie CNN, LSTM oder GRU erfordert oft große Datenmengen. In realen Anwendungen ist jedoch die Datenmenge, insbesondere gekennzeichnete Daten, begrenzt. Um dieser Herausforderung zu begegnen, untersuchen wir Deep Transfer Learning (DTL) im Kontext von Multitasking Learning (MTL), um gemeinsam nutzbares Wissen aus Aufgaben zu extrahieren und für verwandte Aufgaben zu verwenden. In diesem Papier verwenden wir Minimum Closed Ball (MEB) als flexible Wissensrepräsentationsmethode, um beim Multitasking-Lernen geteiltes Domänenwissen von der Primäraufgabe auf die Sekundäraufgabe abzubilden. Die Experimente liefern sowohl analytische als auch empirische Ergebnisse, um die Wirksamkeit und Robustheit des vorgeschlagenen MEB-basierten Deep-Transfer-Learning zu zeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-04182-3_18 600debf26582ba23ac262d54771d082e;de;;;7.4.;;;Superclouds: Skalierbare Hochleistungs-Nonstop-Infrastruktur für KI und intelligente Gesellschaften Wir beschreiben einen neuen Ansatz zum Aufbau einer leistungsstarken Nonstop-Infrastruktur für skalierbare KI und Cloud Computing. Mit KI als technologischer Motor für zukünftige Smart Cities und Smart Societys brauchen wir leistungsstarke neue Nonstop-KI-Infrastrukturen sowohl auf Cloud-Ebene als auch am Edge.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94180-6_1 f47c5078e4940a06eed90cd2b2edaf90;de;;;7.4.;;;Ontologiebasiertes Lernen von Benutzerprofilen Persönliche Agenten sammeln Informationen über Benutzer in einem Benutzerprofil. In dieser Arbeit schlagen wir ein neuartiges ontologiebasiertes Benutzerprofillernen vor. Unser Ziel ist es insbesondere, kontextangereicherte Benutzerprofile mithilfe von Data-Mining-Techniken und Ontologien zu lernen. Uns interessiert, inwieweit Data-Mining-Techniken zur Erstellung von Benutzerprofilen verwendet werden können und wie Ontologien zur Verbesserung von Benutzerprofilen verwendet werden können. Ziel ist die semantische Anreicherung eines Benutzerprofils mit kontextbezogenen Informationen unter Verwendung von Assoziationsregeln, Bayesschen Netzen und Ontologien, um die Agentenleistung zu verbessern. Zur Laufzeit erfahren wir, welche für den Nutzer relevanten Kontexte auf der Verhaltensbeobachtung des Nutzers beruhen. Dann repräsentieren wir die relevanten gelernten Kontexte als Ontologiesegmente. Die ermutigenden experimentellen Ergebnisse zeigen die Nützlichkeit der Einbeziehung von Semantik in ein Benutzerprofil sowie die Vorteile der Integration von Agenten und Data Mining mithilfe von Ontologien.;-;-;-;https://link.springer.com/article/10.1007/s10489-011-0301-4 f6702ccb717b4436917331d22b79ad4d;de;;;7.4.;;;Data Mining-basierte Modellierung und Anwendung von Mobile Video Service Awareness Mit der Popularität der 4G-Mobilfunknetze wird der mobile Videodienst zum Schlüsseldienst im 4G-Zeitalter. Um das Bewusstsein der Benutzer zu verbessern und die Effizienz der Netzwerkoptimierung zu erhöhen, ist es wichtig, ein wissenschaftliches und genaues Modell zu erstellen, um den Videodienst aus der Wahrnehmung des Benutzers zu bewerten. In diesem Papier konzentrieren wir uns auf den Videostreaming-Verkehr und schlagen einen Modellierungsansatz vor, um die Leistung des Videodienstes zu bewerten. Dabei werden die wesentlichen Merkmale des Videoverkehrs berücksichtigt. Basierend auf dem hierarchischen Clustering und dem Korrelationskoeffizientenverfahren nach Pearson werden Schlüsselfaktoren der Videodienst-Wahrnehmung bestimmt. Darüber hinaus werden die Schwellenwerte von Schlüsselfaktoren durch umfangreiche Nutzerbefragungen und Simulationstests ermittelt. Die Ergebnisse der Anwendung im realitätsnahen Netz belegen die Wirksamkeit des vorgeschlagenen Modells. Darüber hinaus zeigen die Ergebnisse, dass das vorgeschlagene Modell es dem Telekommunikationsbetreiber ermöglicht, die Videodienstqualität jedes Benutzers oder jeder Benutzergruppe zu bewerten, was die Effizienz der Netzwerkoptimierung verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7521-6_47 afa09a837a533c9f850b8192a4ce688b;de;;;7.4.;;;Eine robuste Bedeutungsextraktionsmethodik mit überwachten neuronalen Netzen Eine große Menge an Informationen, die in Intranets und Internetdatenbanken gespeichert sind und über das World Wide Web zugänglich sind, sind in Form von Volltextdokumenten organisiert. Der effiziente Abruf dieser Informationen hinsichtlich ihrer Bedeutung und ihres Inhalts ist ein wichtiges Problem in Data-Mining-Systemen zur Erstellung, Verwaltung und Abfrage sehr großer solcher Informationsbasen. In diesem Beitrag beschäftigen wir uns mit dem Hauptaspekt des Problems der Bedeutungsextraktion aus Dokumenten, nämlich mit dem Problem der Textkategorisierung, und skizzieren einen neuartigen und systematischen Lösungsansatz. Wir präsentieren ein Textkategorisierungssystem für nicht-domänenspezifische Volltextdokumente basierend auf den Lern- und Generalisierungsfähigkeiten neuronaler Netze. Der Hauptbeitrag dieses Papiers liegt in der Merkmalsextraktionsmethodik, die erstens semantische Wortkategorien und nicht Rohwörter wie andere konkurrierende Ansätze umfasst. Als Konsequenz aus der Bewältigung des Problems der Dimensionsreduktion führt der vorgeschlagene Ansatz einen neuartigen Ansatz zweiter Ordnung für die Extraktion von Textkategorisierungsmerkmalen ein, indem die Koauftretensanalyse wortsemantischer Kategorien berücksichtigt wird. Die vorgeschlagene Methodik ist im Vergleich zu weithin akzeptierten, auf der Rohwortfrequenz basierenden Techniken in einer Sammlung von Dokumenten zum Dewey-Dezimalklassifikationssystem (DDC) günstig. An diesen Vergleichen sind verschiedene Multilayer Perceptrons (MLP)-Algorithmen sowie die Support Vector Machine (SVM), die LVQ und die konventionelle k-NN-Technik beteiligt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36187-1_44 89d2c91224812f233405c03360ffdd48;de;;;7.4.;;;Analyse der Brustkrebsdiagnose und -prognose mit maschinellen Lernalgorithmen Dieses Papier beschreibt eine Analyse von Datensätzen für diagnostischen Brustkrebs in Wisconsin (WDBC) und prognostischen Brustkrebs in Wisconsin (WPBC) unter Verwendung von maschinellen Lernalgorithmen (MLA). Die Datensätze enthalten Zellkernattribute, die durch Feinnadelaspiration (FNA) der verdächtigen Brustgewebeprobe gesammelt wurden. Merkmale wurden durch digitale Bildverarbeitung der von der FNA gesammelten Probe extrahiert. Die Datensätze wurden mithilfe einer Hauptkomponentenanalyse in eine niedrigere Dimension transformiert, gefolgt von einem Training von MLA, wie z , und Gaussian Naive Bayes. Der Genauigkeitsvergleich zwischen Machine-Learning-Klassifikatoren für verschiedene Aufteilungen von Zug-/Testdaten für WDBC und WPBC sowie die Kreuzvalidierung wurden durchgeführt, um genauere Ergebnisse zu gewährleisten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8221-9_298 be2d60a38db647534b7856bdb9de6e00;de;;;7.4.;;;Parameterschätzung des Lorenz-Attraktors: Ein kombinierter Ansatz für das Deep Neural Network und K-Means-Clustering Diese Forschung zielt hauptsächlich auf die Einführung eines Deep-Learning-Ansatzes zur Lösung chaotischer Systemparameterschätzungen wie dem Lorenz-System ab. Der Grund für die Studie ist, dass der Parameter des chaotischen Systems aufgrund seiner dynamischen Instabilität nicht ohne weiteres geschätzt werden kann. Darüber hinaus können aufgrund der Komplexität chaotischer Systeme basierend auf bestehenden Ansätzen einige Parameter im Voraus schwer zu bestimmen sein. Daher ist es von entscheidender Bedeutung, die Parameter chaotischer Systeme zu bewerten. Um das Problem der Parameterschätzung für ein chaotisches System zu lösen, wird Deep Learning verwendet. Danach wurde vorgeschlagen, die Effizienz im Deep Neural Network (DNN)-Modell zu verbessern, indem das DNN mit einem unüberwachten maschinellen Lernalgorithmus, dem K-Means-Clustering-Algorithmus, kombiniert wird. Diese Studie konstruiert den Fluss der DNN-basierten Methode mit dem K-Means-Algorithmus. DNN-Techniken eignen sich zur Lösung nichtlinearer und komplexer Probleme. Die beliebteste Methode zum Lösen von Parameterschätzungsproblemen ist die Verwendung eines Optimierungsalgorithmus, der leicht lokale Minima einfängt und schlecht ausnutzt, um die guten Lösungen zu finden. Aufgrund des Flows werden 80 % der Trainings- und 20 % der Testsätze für jede Klasse auf die Lorenz-Datensätze aufgeteilt. Die Genauigkeit durch die Verwendung des 80:20-Verhältnisses von Trainings- und Testdaten ergibt 98% der genauen Trainingsdaten, und 73% der Testdaten werden mit dem vorgeschlagenen Algorithmus vorhergesagt, während 91 und 40% der DNN-Modelle in Trainings- und Testdaten vorhergesagt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4597-3_30 f3af144d0126a76128c336d304a677ed;de;;;7.4.;;;User Perception Aware Telecom Data Mining und Netzwerkmanagement für LTE/LTE-Advanced-Netzwerke Die Wahrnehmung der Benutzer ist der Schlüssel für Telekommunikationsbetreiber. Um eine gute Benutzerwahrnehmung aufrechtzuerhalten, setzen Telekommunikationsbetreiber Netzoptimierung und -aufbau ein. In diesem Artikel wird ein neuartiger Algorithmus zur benutzerwahrnehmungsbewussten Netzwerkverwaltung (UPNM) für LTE/LTE-Advanced-Mobilfunknetze entwickelt. Zunächst integriert der UPNM-Algorithmus eine Reihe von Telekommunikationsdaten, die sich auf Benutzer und Mobilfunknetze beziehen. Auf der Grundlage von Daten wird die Benutzerwahrnehmung analysiert, um die Zellen mit niedriger Dienstgüte (QoS) zu finden. Dann analysiert der UPNM-Algorithmus die Netzinterferenz und -abdeckung und verwendet Methoden, um das Interferenz- und Abdeckungsproblem zu lösen. Schließlich werden sowohl der Gesamtdienst der Zelle als auch die Kapazität analysiert, um die Netzwerkkapazität zu verwalten. Wir implementieren den vorgeschlagenen UPNM-Algorithmus in realistische Mobilfunksysteme in einer chinesischen Stadt. Der UPNM-Algorithmus kann Telekommunikationsbetreibern bei der Verwaltung der Mobilfunknetze helfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1733-0_29 a0bce0f8427d6c31ea0596c2ae68487f;de;;;7.4.;;;Data Mining zur Evaluierung von Basisstationen in LTE-Mobilfunksystemen Eine effektive Basisstations-(BS)-Bewertung kann Telekommunikationsbetreibern helfen, problematische Zellen zu finden und die Systemleistung zu optimieren. Dieses Papier schlägt einen auf Data Mining basierenden gemeinsamen BS-Bewertungsalgorithmus (JBSE) in LTE-Mobilfunksystemen vor. Anfänglich berücksichtigt der JBSE-Algorithmus vier Schlüsselfaktoren, einschließlich des Zellenenergieverbrauchs, des Zellenumsatzes, der durch die Zellenverteilung induzierten Interferenz, die hohe BS-induzierte grenzüberschreitende Abdeckung. Dann wird die Expertenbeurteilungsmatrix verwendet, um das Niveau jedes Faktors einzustufen. Schließlich wertet der JBSE-Algorithmus jede Zelle umfassend aus. Der JBSE-Algorithmus wird bei der LTE-Systembewertung einer Stadt in China verwendet. Es kann problematische Zellen effektiv finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7521-6_43 33e017a0b57953a44e071844b38bc01c;de;;;7.4.;;;Modellierung eines Deep-Learning-Frameworks zur Erkennung menschlicher Handlungen auf Video Bei der Erkennung von menschlichen Handlungen ist die Identifizierung von Handlungen ein System, das menschliche Aktivitäten erkennen kann. Die Arten menschlicher Aktivität werden in vier verschiedene Kategorien eingeteilt, abhängig von der Komplexität der Schritte und der Anzahl der an der Handlung beteiligten Körperteile, nämlich Gesten, Handlungen, Interaktionen und Aktivitäten;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72657-7_10 f01a25dcc7a421b98f3093167345f855;de;;;7.4.;;;Vorhersage versus Verstehen in der computergestützten Neurowissenschaft Der Einsatz von maschinellem Lernen anstelle traditioneller Modelle in den Neurowissenschaften wirft erhebliche Fragen zum epistemischen Nutzen der neueren Methoden auf. Ich greife auf die Literatur zum Modell zurück;-;-;-;https://link.springer.com/article/10.1007/s11229-020-02713-0 c3ae01d345368dba485cad41718afe3c;de;;;7.4.;;;Tradeoff-Suchmethoden zwischen Interpretierbarkeit und Genauigkeit der auf Regeln basierenden Fuzzy-Identifikation Dieses Papier beginnt mit einem kurzen historischen Überblick über das Auftreten und die Entwicklung von Fuzzy-Systemen und ihren Anwendungen. Es werden Integrationsmethoden vorgeschlagen, um ein Fuzzy-System unter Verwendung anderer KI-Methoden zu konstruieren, um einen Synergieeffekt zu erzielen. Genauigkeit und Interpretierbarkeit werden als Haupteigenschaften von regelbasierten Fuzzy-Systemen ausgewählt. Der Kompromiss zwischen Interpretierbarkeit und Genauigkeit wird als das eigentliche Problem angesehen. Der Zweck dieses Papiers ist die eingehende Untersuchung der Methoden und Werkzeuge, um einen Kompromiss zwischen Genauigkeit und Interpretierbarkeit in regelbasierten Fuzzy-Systemen zu erzielen und unsere Interpretierbarkeitsindizes zu beschreiben. Es wurde ein Vergleich der bestehenden Methoden der Interpretierbarkeitsschätzung vorgenommen. Wir schlagen auch die neue Methode vor, heuristische Interpretierbarkeitsindizes als quantitatives Maß der Interpretierbarkeit zu konstruieren. Im Hauptteil dieses Papiers beschreiben wir früher verwendete Ansätze, den aktuellen Stand und die Methoden der ursprünglichen Autoren, um einen Kompromiss zwischen Genauigkeit und Komplexität zu erzielen.;-;-;-;https://link.springer.com/article/10.1134/S1054661817020134 8960e8d11782be01273a305947557cd4;de;;;7.4.;;;Hybriddeskriptoren und gewichtetes PCA-EFMNet für die Gesichtsverifizierung in freier Wildbahn Die uneingeschränkte Gesichtserkennung ist aufgrund der zahlreichen klasseninternen Veränderungen durch Beleuchtung, Okklusion, Mimik und Posenänderungen eine komplexe Aufgabe. Solche Variationen beeinträchtigen die Leistung von Gesichtserkennungssystemen erheblich, insbesondere von solchen, die auf 2D-Informationen basieren. In dieser Forschungsarbeit wird eine effiziente Methode zur Merkmalsextraktion namens Gabor Local Binarized Statistical Image Features vorgestellt. Außerdem wird ein neues Deep-Learning-Netzwerk entwickelt, um Funktionen zu extrahieren, die auf Datenverarbeitungskomponenten basieren: (1) Kaskadierte gewichtete Hauptkomponentenanalyse (WPCA) mit Enhanced Fisher Model (WPCA-EFM), (2) binäres Hashing und (3) Block- kluge Histogramme. Die vorgeschlagene Architektur (Weighted PCA-EFM) wird verwendet, um mehrstufige Filterbänke zu lernen. Einfaches Blockhistogramm und binäres Hashing werden für die Indizierung und das Pooling verwendet, was das Design und das Erlernen unserer Architektur für die Face Verification in the Wild erleichtert. Die Klassifizierung wird schließlich unter Verwendung des Entfernungsmaß-Cosinus und einer Support-Vektor-Maschine durchgeführt. Unsere Experimente werden im realen Datensatz durchgeführt: Labeled Faces in the Wild. Experimentelle Ergebnisse zeigen, dass die entwickelte Technik eine hohe Genauigkeit von 95 % erreicht.;-;-;-;https://link.springer.com/article/10.1007/s13735-019-00175-w 117d680493c9323af251f5f8368e5c3e;de;;;7.4.;;;Vergleich von Data Mining-Modellen Ziel dieses Beitrags ist es, die Rolle statistischer Modelle und allgemeiner der Statistik bei der Auswahl eines Data-Mining-Modells aufzuzeigen. Nach einer einleitenden Einführung in die Unterscheidung zwischen Data Mining und Statistik konzentrieren wir uns auf die Frage der Auswahl einer Data Mining-Methode. Dies veranschaulicht gut, wie statistisches Denken einen echten Mehrwert für eine Data-Mining-Analyse bringen kann, da es sonst ziemlich schwierig wird, eine begründete Wahl zu treffen. Im dritten Teil des Beitrags stellen wir anhand einer Fallstudie im Kreditrisikomanagement vor, wie Data Mining und Statistik gewinnbringend zusammenwirken können.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09823-4_32 fd44b35964e3ec34bc3bedff11a0e807;de;;;7.4.;;;Extraktion und Anwendung von Multi-Wissen Die Grobmengentheorie bietet Ansätze zum Finden einer Reduktion (informell eine identifizierende Menge von Attributen) aus einem Entscheidungssystem oder einer Trainingsmenge. In dieser Arbeit wird ein Algorithmus zum Finden von Mehrfachreduktionen entwickelt. Der Algorithmus wurde verwendet, um die Multiredukte in Datensätzen aus dem UCI Machine Learning Repository zu finden. Die Experimente zeigen, dass viele Datenbanken in der realen Welt;-;-;-;https://link.springer.com/chapter/10.1007/3-540-39205-X_37 d76c3448052dbae6f986c2c0c955d5fa;de;;;7.4.;;;GfKl Data-Mining-Wettbewerb 2005: Liquiditätskrisen von Unternehmen vorhersagen Die Datenvorverarbeitung und eine sorgfältige Auswahl der Trainings- und Klassifikationsmethode sind wichtige Schritte zum Aufbau eines Vorhersage- oder Klassifikationsmodells mit hoher Leistung. Hier stellen wir die Gewinneransätze des GfKl Data Mining Wettbewerbs 2005 vor. Die zu lösende Aufgabe für den Wettbewerb war die Vorhersage einer möglichen Liquiditätskrise eines Unternehmens. Die binäre Klassifizierung sollte auf einem Set von 26 Variablen basieren, die Attribute der Unternehmen mit unbekannter Semantik beschreiben.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-31314-1_92 35811d8804fabd983188e456361458af;de;;;7.4.;;;Heterogene Transferlerntechniken für maschinelles Lernen Die Hauptannahme beim maschinellen Lernen und Data Mining besteht darin, die Daten zu trainieren, und die zukünftigen Daten haben dieselbe Verteilung und dieselben Funktionen. Bei vielen Anwendungen in der realen Welt werden solche Annahmen jedoch möglicherweise nicht beibehalten. Manchmal haben wir zum Beispiel die Aufgabe der Klassifikation in einem interessierenden Bereich, aber wenn die gleichen Daten in einem anderen Bereich verwendet werden, brauchte es genügend Training, um in dem anderen interessierenden Bereich zu arbeiten. Trainieren Sie im Bereich des heterogenen Transferlernens die Daten in einer Domäne und testen Sie sie mit einer anderen Domäne. In diesem Fall ist Wissen ein Transfer, wenn es einen erfolgreichen Transfer gibt, kann er die Leistung erheblich verbessern, indem das kostspieligere Lernen in den Label-Informationen vermieden wird. In den letzten Jahren hat sich das Transferlernen zu einem neuen Lernrahmen entwickelt, um dieses Thema anzugehen, und heterogenes Transferlernen ist der aktivste Forschungsbereich der letzten Jahre. In dieser Studie diskutieren wir die Beziehung zwischen heterogenem Transferlernen und den anderen maschinellen Lernmethoden, einschließlich des Bereichs Adaption, Lernen und Multitasking-Lernen und Stichprobenauswahl-Bias sowie die Assoziationen von Variablen. Wir erkunden auch einige zentrale Herausforderungen für das Zukunftsthema des heterogenen Transferlernens.;-;-;-;https://link.springer.com/article/10.1007/s42044-017-0004-z f682a30c121ac078f08b1bb069127602;de;;;7.4.;;;Clustering-Techniken für Big Data Mining In diesem Papier wird die Clustering-Methode als unüberwachtes maschinelles Lernen vorgestellt, bei dem die Eingabe- und Ausgabedaten nicht gekennzeichnet sind. Viele Algorithmen wurden entwickelt, um Clustering-Probleme zu lösen, und viele Ansätze wurden entwickelt, um Defizite zu verstärken oder um Effizienz und Effektivität zu erreichen. Diese Ansätze sind partitionierungsbasiert, hierarchischbasiert, dichtebasiert, gitterbasiert und modellbasiert. Mit der Entwicklung der Datenmengen in jeder Sekunde werden wir mit sogenannten Big Data konfrontiert, die Forscher dazu zwangen, die auf diesen Ansätzen basierenden Algorithmen zu entwickeln, um sie an die Verwaltung von Lagerhäusern anzupassen. Unser Hauptzweck ist der Vergleich repräsentativer Algorithmen jedes Ansatzes, die die meisten Big-Data-Kriterien, die als 4Vs bezeichnet werden, berücksichtigen. Der Vergleich zielt darauf ab, herauszufinden, welche Algorithmen effizient Informationen durch Clustering von Big Data gewinnen könnten. Die untersuchten Algorithmen sind FCM, CURE, OPTICS, BANG bzw. EM von jedem der oben genannten Ansätze. Die Bewertung dieser Algorithmen basierend auf den Big-Data-Kriterien von 4Vs, die Volumen, Vielfalt, Geschwindigkeit und Wert sind, zeigt bei einigen von ihnen einige Mängel. Alle trainierten Algorithmen bündeln gut große Datensätze, aber ausschließlich FCM- und OPTIK-Algorithmen leiden unter dem Fluch der Dimensionalität. FCM- und EM-Algorithmen reagieren sehr empfindlich auf Ausreißer, die sich negativ auf die Ergebnisse auswirken. FCM-, CURE- und EM-Algorithmen erfordern die Anzahl der Cluster als Eingabe, die einen Mangel darstellt, wenn nicht der optimale ausgewählt wurde. FCM- und EM-Algorithmen liefern Kugelformen von Clustern im Gegensatz zu CURE-, OPTICS- und BANG-Algorithmen, die willkürliche Formen ergeben, die einen Vorteil für die Clusterqualität darstellen. Der FCM-Algorithmus ist der schnellste bei der Durchführung von Big Data, im Gegensatz zum EM-Algorithmus, der die längste Trainingszeit benötigt. Für die Vielfalt der Datentypen trainiert der CURE-Algorithmus sowohl numerische als auch kategoriale Datentypen. Folglich führt die Analyse zu dem Schluss, dass sowohl CURE als auch BANG beim Clustern von Big Data effizient sind, aber wir haben festgestellt, dass CURE bei der Datenzuordnung ein wenig an Genauigkeit mangelt. Daher folgern wir, den BANG-Algorithmus als geeignet zu qualifizieren, um einen großen Datensatz mit hoher Dimensionalität und Rauschen darin zu clustern. Der BANG-Algorithmus basiert auf einer Gitterstruktur, umfasst jedoch implizite Partitionierung, hierarchische und Dichteansätze, der Grund für seine Effizienz bei der Erzielung guter genauer Ergebnisse. Trotzdem ist die ultimative Genauigkeit beim Clustering noch nicht erreicht, aber fast nahe. Die Schlussfolgerung, die wir aus dem BANG-Algorithmus beobachten, sollte auf weitere Algorithmen angewendet werden, indem Ansätze gemischt werden, um die ultimative Genauigkeit und Effektivität zu erreichen, die folglich zu genauen zukünftigen Entscheidungen führen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-76508-8_14 cbb6686300bec4440c02a817288ce042;de;;;7.4.;;;Anwendung der Web-Data-Mining-Technologie in der englischen Übersetzungsplattform Die globale wirtschaftliche Integration macht den Handel zwischen China und anderen Ländern der Welt immer häufiger. Englische Übersetzungen werden natürlich die von allen Ländern verwendete Hauptsprache. Gleichzeitig werden mit der kontinuierlichen Weiterentwicklung der modernen Informationstechnologien die Wege und Mittel unseres Englischlernens vielfältiger. Vor allem mit dem Aufkommen der englischen elektronischen Wörterbücher ist das Englischlernen immer einfacher geworden. Mit den Veränderungen der Benutzergewohnheiten und der Entwicklung der mobilen Smartphones ist die auf der Web-Data-Mining-Technologie basierende englische Übersetzungsplattform jedoch zum Schwerpunkt der aktuellen Anwendungen geworden und hat die Aufmerksamkeit der Menschen auf sich gezogen, so dass Englischliebhaber können ihren Englischunterricht über ihr Mobiltelefon abschließen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-15740-1_8 b2d972e22f9e38c23bfe7352c1b57c39;de;;;7.4.;;;Semantisch verbesserte sequentielle Modellierung zur Erkennung von Persönlichkeitsmerkmalen aus Texten Die automatische Erkennung von Persönlichkeitsmerkmalen aus Texten hat große Aufmerksamkeit erregt. Bestehende Studien kombinieren in der Regel linguistisches Feature Engineering mit traditionellen Modellen, verwenden fünf verschiedene neuronale Netze, um Persönlichkeitsmerkmale mit mehreren Labels vorherzusagen, und erzielen nicht die beste Leistung bei jedem Label. Zu diesem Zweck schlagen wir in diesem Artikel ein neues Semantic-Enhanced Personality Recognition Neural Network (SEPRNN)-Modell vor, das darauf abzielt, die Abhängigkeit von Feature Engineering zu vermeiden und es dem gleichen Modell ermöglicht, sich an die Erkennung von fünf verschiedenen Persönlichkeitsmerkmalen ohne Modifikation anzupassen auf das Modell selbst und die Verwendung von Deep-Learning-basierten Methoden und atomaren Textmerkmalen, um eine vektorielle Darstellung auf Wortebene für die Erkennung von Persönlichkeitsmerkmalen zu erstellen. Um speziell mehrfach beschriftete Persönlichkeitsmerkmale präzise zu erkennen, schlagen wir zunächst eine semantische Repräsentation auf Wortebene für Texte vor, die auf Kontextlernen basiert. Dann wird eine vollständig verbundene Ebene verwendet, um eine höhere Semantik von Texten zu erhalten. Schließlich zeigen die experimentellen Ergebnisse, dass der vorgeschlagene Ansatz eine signifikante Leistungsverbesserung für mehrfach beschriftete Persönlichkeitsmerkmale im Vergleich zu mehreren Baselines erreicht.;-;-;-;https://link.springer.com/article/10.1007/s10489-021-02277-7 b13bba3fa1357f49d58ee38e207fe65e;de;;;7.4.;;;Maschinelles Lernen: Der Geist in der lernenden Maschine Seit der Antike spielt das Lernen eine bedeutende Rolle beim Aufbau der Grundlage der menschlichen Intelligenz. Die Tendenz zum Lernen mit der zunehmenden Dynamik und Komplexität der Weltwirtschaft wächst. Konzentrierte sich in der Vergangenheit der größte Teil der Lernbemühungen auf die Hochschul- und Hochschuljahre, wird Lernen im 21. Jahrhundert zu einem kontinuierlichen Prozess während der gesamten Berufslaufbahn. Angewandte Computerintelligenz kann durch ihre einzigartige Fähigkeit, neue Muster und Abhängigkeiten zu entdecken, eine bedeutende Rolle bei der Verbesserung der Lernfähigkeit des Menschen spielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69913-2_4 bc58e32d577d89107527d4b6d629f34b;de;;;7.4.;;;Data Mining für den Service In den letzten Jahren gewinnt der Dienstleistungssektor im Zuge der fortschreitenden Globalisierung der Weltwirtschaft in Industrie- und Entwicklungsländern in verschiedenen Bereichen zunehmend an Bedeutung;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45252-9_1 684ba7f47ae238aa37714d9f93e60d93;de;;;7.4.;;;Vergleichende Leistungsuntersuchung und Vorhersage von Fibrose, bösartiger Lymphe, Metastasen, normalem Lymphogramm mit maschineller Lernmethode Das Hauptaugenmerk dieser Arbeit liegt auf der Vorhersage von Clustern von Patientenakten wie Fibrose, bösartige Lymphe, Metastasen, normales Lymphogramm, die über verschiedene Klassifikationstechniken erhalten wurden, und den Vergleich der Präsentation von Klassifikationsalgorithmen basierend auf einigen Parametern wie Präzision, Erinnerung, F1 -Measure), Klassifizierungsgenauigkeit (CA) und Fläche unter der Kurve (AUC). Der lymphographische Datensatz besteht aus 18 Prädiktorattributen. Experimentelle Ergebnisse zeigen, dass das neuronale Netzwerk die höchste Klassifizierungsgenauigkeit und -präzision sowie den F1-Wert unter den anderen vier Klassifizierungsalgorithmen bietet, die KNN, SVM (Support Vector Machine)-Lerner, Random Forest-Lerner und Ada-Boost sind. Es ermöglicht dem Klassifikator, eine Klassifizierung medizinischer Daten mit mehreren Klassen präzise durchzuführen. Die Confusion Matrix wurde auch für den oben genannten Klassifikator unter Verwendung des lymphographischen Datensatzes beschrieben. Dieses Papier visualisiert auch die Rangfolge des Lymphogramm-Datensatzes unter Verwendung der Bewertungsmethode und der Analyse von Streudiagramm, Boxdiagramm und Verteilungsdiagramm.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-49339-4_8 f4cbe94e007247ec49c6b90f20385474;de;;;7.4.;;;Die kommende Singularität Wenn Menschen in diesem Jahrhundert mit Maschinen verschmelzen, wird die kommende Singularität viel dazu zu sagen haben. Was ist die Singularität? Die Singularität ist der Zeitpunkt oder die Entwicklung, an dem künstlich intelligente Maschinen den Menschen an Intelligenz gleichkommen oder diesen übertreffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25050-2_2 49fc54cd086a1dc624bd67234f48af6e;de;;;7.4.;;;Lernen, Kriminalitätsmuster zu erkennen Unser Ziel ist es, Kriminalitätsmuster automatisch zu erkennen. Unter einer Vielzahl von Straftaten, die jedes Jahr in einer Großstadt passieren, ist es für Kriminalitätsanalysten eine Herausforderung, Zeit- und Arbeitsintensiv, festzustellen, welche von derselben Person(en) begangen wurden. Wenn automatisierte, datengesteuerte Tools zur Erkennung von Kriminalitätsmustern zur Verfügung gestellt werden, um Analysten zu unterstützen, könnten diese Tools der Polizei helfen, Kriminalitätsmuster besser zu verstehen, was zu einer genaueren Zuordnung früherer Straftaten und zur Festnahme von Verdächtigen führen würde. Dazu schlagen wir einen Mustererkennungsalgorithmus namens . vor;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40994-3_33 c42d6f94a743ca44d9a312ce60e1f675;de;;;7.4.;;;Klassifikatorbasierte Akronymextraktion für Geschäftsdokumente Die Akronymextraktion für Geschäftsdokumente wurde zugunsten der Akronymextraktion für biomedizinische Dokumente vernachlässigt. Obwohl sich die Herausforderungen überschneiden, behindert die halbstrukturierte und nicht prädiktive Natur von Geschäftsdokumenten die Effektivität der Extraktionsmethoden, die bei biomedizinischen Dokumenten verwendet werden, und liefern nicht die erwartete Leistung. Im Rahmen des umfassenderen Projekts Binocle wird ein auf Klassifikatoren basierendes Extraktionssubsystem zur Analyse französischer Unternehmenskorpora vorgestellt. Explizite und implizite Akronymdarstellungsfälle werden anhand von textlichen und syntaktischen Hinweisen identifiziert. Unter den 7 aus jeder Kandidateninstanz extrahierten Merkmalen führen wir „Ähnlichkeitsmerkmale“ ein, die die Merkmale eines Kandidaten mit durchschnittlichen längenbezogenen Werten vergleichen, die aus einem generischen Akronym-Repository berechnet wurden. Häufig verwendete Regeln zur Bewertung des Kandidaten (übereinstimmende Anfangsbuchstaben, geordnete Instanzen usw.) werden bewertet und in einem einzigen zusammengesetzten Merkmal zusammengefasst, das eine flexible Klassifizierung ermöglicht. Einhundertachtunddreißig französische Geschäftsdokumente von 14 öffentlichen Organisationen wurden für die Schulungs- und Bewertungskorpora verwendet, was eine Wiedererkennung von 90,9 % bei einem Genauigkeitsgrad von 89,1 % für eine Suchraumgröße von 3 Sätzen ergab.;-;-;-;https://link.springer.com/article/10.1007/s10115-010-0341-9 446f6550e05d58de585027c10ac7f892;de;;;7.4.;;;Effiziente Datenreduktion bei Multimediadaten Da die Menge an Multimediadaten dank billigerer Speichermedien und immer mehr Informationsquellen von Tag zu Tag wächst, werden die Algorithmen des maschinellen Lernens mit großen Datensätzen konfrontiert. Wenn die Originaldaten sehr groß sind, werden kleine Stichprobengrößen für verschiedene Anwendungen bevorzugt. Dies ist typischerweise bei Multimedia-Anwendungen der Fall. Die Verwendung einer einfachen Zufallsstichprobe kann jedoch keine zufriedenstellenden Ergebnisse erzielen, da eine solche Stichprobe aufgrund zufälliger Schwankungen im Stichprobenverfahren möglicherweise nicht den gesamten Datensatz angemessen darstellt. Die Schwierigkeit wird besonders deutlich, wenn kleine Stichprobengrößen benötigt werden. Glücklicherweise kann die Verwendung eines guten Probensatzes für das Training die Endergebnisse erheblich verbessern. In;-;-;-;https://link.springer.com/article/10.1007/s10489-006-0112-1 710248df5b820c7319d7de41f7574a20;de;;;7.4.;;;Anti-Data-Mining auf Datenschutzinformationen von Gruppen Im Big Data-Zeitalter ist die Wahrung der Privatsphäre eine wichtige Sicherheitsherausforderung für das Data Mining. Ein gemeinsames Ziel der Wahrung der Privatsphäre ist die Privatsphäre, die beim Data Mining von Gruppeninformationen nicht offengelegt werden sollte. Bei einigen wenigen sensiblen Gruppen, die beispielsweise an einer bestimmten Krankheit leiden, eine besondere Beschäftigung ausüben oder ein besonderes Hobby haben, kann jedoch die Gruppenspezifität immer noch offengelegt werden, selbst wenn alle personenbezogenen Daten zum Schutz der Privatsphäre verarbeitet werden. Daher schlagen wir das Konzept und die Methode des Anti-Data-Mining für Gruppendatenschutzinformationen vor. Durch das Hinzufügen und Austauschen von Daten gemäß unseren Regeln werden die abbaubaren Merkmale und die Gruppenspezifität der Originaldaten zerstört und eliminiert, um den Datenschutz der Gruppe durch Data Mining zu verhindern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-74521-3_51 3d1f6c5efdb9cdd2b969139ba6ab4472;de;;;7.4.;;;Eine auf Data-Mining-Technologie basierende Qualitätskontrollmethode Denn erhöht die Effizienz der Kontrollmethode in der Qualitätskontrolle, die bewirkt, dass der Produktionsprozess so weit wie möglich im Kontrollbereich liegt, erhöht die Qualität des Produkts. Dieser Artikel schlug eine auf Data Mining basierende Qualitätskontrollmethode vor, und schlug vor, dass der Hauptkörper beim Data Mining kooperiert, die Data Mining-Theorie, den Ausgrabungsprozess und die Ausgrabungsmethode eingeführt, schließlich durch das Experiment bestätigt, verglichen mit der Data Mining-Qualitätskontrollmethode Die traditionelle statistische Qualitätskontrolle zur Verbesserung des Bogenschießens erhöhte die Effizienz, die das Unternehmen produzierte, in hohem Maße.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19712-3_65 7872f5559aa95b3274f27d5216278940;de;;;7.4.;;;Vorhersagetechniken für koronare Herzkrankheiten: Eine Umfrage Maschinelles Lernen ist heutzutage ein wichtiger Bestandteil unseres Lebens geworden. Es hat auch einen signifikanten Einfluss auf das medizinische Entscheidungsunterstützungssystem. Im Gesundheitswesen ist es von Vorteil, die Krankheit vorherzusagen und Analysen durchzuführen, um nützliche Muster aus den elektronischen Patientenakten abzuleiten, um die Maut zu reduzieren. Die häufigste Todesursache weltweit ist die koronare Herzkrankheit (KHK), auch Arteriosklerose genannt. Es tritt auf, wenn eine der Arterien blockiert wird, was zu einer schwachen oder fehlenden Durchblutung von Teilen des Herzens führt, was zu einem Herzinfarkt führt. Die Vorhersage von CAD in einem frühen Stadium ist mit Hilfe von Machine-Learning-Techniken wie Support Vector Machine, künstliches neuronales Netzwerk, k-nächste Nachbarn, Entscheidungsbäume, logistische Regression, Fuzzy-Regelbasierte Methoden und viele mehr möglich. Dieser Artikel gibt Einblicke in die Forschung zur Vorhersage dieser Krankheit. Wir überprüften eingehendes Wissen über die Krankheit, verschiedene Diagnosetechniken und verfügbare Datensätze. Schließlich diskutierten und schlossen wir, wie die Technik des maschinellen Lernens einen Einfluss auf die Vorhersage dieser Krankheit hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0733-2_42 c10337457efc6ed69c4ad21dd0fcc278;de;;;7.4.;;;Anwendung der Data-Mining-Technologie im Schmuckdesign Dieses Papier beschreibt kurz den Status des Schmuckdesigns und zeigt die Beziehung zwischen dem Schmuckdesign und den von Unternehmen gesammelten Daten auf und schlägt dann das Projekt vor, das die Data Mining-Technologie in das Schmuckdesign einbringt. Die Prognose des zukünftigen Verkaufs des Unternehmens mit dem Microsoft Time Series-Modell validiert außerdem das Mining-Modell durch die Analyse von historischen Daten und vorhandenen Daten. Es bietet einen neuen Weg für die Entscheidungsfindung von Schmuckunternehmen, der der Führung hilft, eine genauere Marktpositionierung vorzunehmen und den zukünftigen Entwicklungstrend von Schmuck zu erfassen, hat einen gewissen praktischen Wert.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-1839-5_146 1546bf064fc4a63508fbc80c14b94bb6;de;;;7.4.;;;NTE 4.0: Neues Paradigma für das NTE-Inspektionspersonal Die zerstörungsfreie Bewertung (NDE) tritt in eine Ära der vierten industriellen Revolution ein und wird einen großen Wandel erfahren. ZfP ist ein wesentlicher Bestandteil der Industrie und ein erfolgreicher Übergang zu ZfP 4.0. Es erfordert nicht nur die Entwicklung und Einführung neuer Technologien, sondern auch die Entwicklung und Einführung neuer Arbeitsweisen und die Integration in die gesamte Industrie 4.0. Dies stellt das Prüfpersonal vor neue Herausforderungen. Um die erwarteten Vorteile von NDE 4.0 sicherzustellen, müssen die Inspektoren die Verantwortung für die sich ändernden Inspektionen behalten. Die versprochene Autonomie und Vernetzung von ZfP 4.0 wird den Großteil der traditionellen Inspektoraufgaben ablösen und ihrerseits andere Fähigkeiten erfordern und unterschiedliche Anforderungen und Herausforderungen an das Inspektionspersonal stellen und somit im Widerspruch zum aktuellen „Procedure-following“-„Level I . stehen -III“-Paradigma. Die neuen Industrie-4.0-Technologien lassen sich in die bestehenden Rahmenbedingungen integrieren, doch um ihr volles Potenzial auszuschöpfen, bedarf es einer veränderten Rolle der Inspektoren. Die Inspektoren werden von den mühsamen und fehleranfälligen Aspekten des derzeitigen Systems entlastet. Gleichzeitig müssen sie Verantwortung für immer komplexer werdende automatisierte Systeme übernehmen und enger mit anderen Experten zusammenarbeiten. Wir schlagen vor, die traditionellen Inspektorrollen in die des Systementwicklers, des Hausmeisters und des Problemlösers umzuwandeln, die jeweils spezifische Fähigkeiten erfordern und unterschiedliche Verantwortlichkeiten übernehmen. Für eine vollständige NTE 4.0 muss die NTE ihre traditionelle Rolle als in sich geschlossene Einheit mit klar definierten Grenzen aufgeben und ihre Rolle im umfassenderen System der Industrie 4.0 einnehmen.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-030-48200-8_9-1 8e2ad594746109ad9e04b24776c32b39;de;;;7.4.;;;Frauen und die vierte industrielle Revolution: Eine Untersuchung der nationalen KI-Strategie der VAE Regierungen auf der ganzen Welt kämpfen um die Macht in der Vierten Industriellen Revolution (4IR), indem sie nationale Strategien für künstliche Intelligenz (KI) entwickeln. Bisher haben jedoch nur 27 Länder plus die Europäische Union Union;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0771-4_10 240f550f677fed91941ef56e654050b6;de;;;7.4.;;;Ein Rahmen für Mitarbeiterbeurteilungen basierend auf induktiver Logikprogrammierung und Data-Mining-Methoden Dieses Papier entwickelt ein neues semantisches Framework, das die Leistungsbeurteilung von Mitarbeitern unterstützt, basierend auf induktiver Logikprogrammierung und Data-Mining-Techniken. Das Framework wird angewendet, um eine Grammatik zum Schreiben von SMART-Zielen zu lernen und Feedback zu geben. Der Beitrag schließt mit einer empirischen Evaluation des Frameworks, die vielversprechende Ergebnisse zeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38824-8_49 92435fd7edc34df5263ee1cce1db2893;de;;;7.4.;;;Auf maschinellem Lernen basierendes adaptives drahtloses Intervalltraining-Leitsystem Es hat sich gezeigt, dass Intervalltraining die körperliche und psychische Leistung der Benutzer in Bezug auf Müdigkeit, Herz-Kreislauf-Aufbau, Hämoglobinkonzentration und Selbstwertgefühl verbessert. Trotz der Vorteile gibt es kein bekanntes automatisiertes Verfahren zum Formulieren und Anpassen eines optimierten Intervalltrainingsprotokolls für eine bestimmte Person, das die verbrannte Kalorienmenge maximiert und gleichzeitig die Ermüdung begrenzt. Darüber hinaus muss eine Anwendung, die das oben erwähnte optimale Trainingsprotokoll bietet, auch Motivation für sich wiederholende und langwierige Übungen bieten, die notwendig sind, um die Adhärenz eines Patienten zu verbessern. Dieses Papier stellt ein System vor, das effizient eine optimierte Intervalltrainingsmethode für jedes Individuum formuliert, indem es Data-Mining-Schemata zu Attributen, Bedingungen und Daten verwendet, die aus individuellen Trainingseinheiten gesammelt wurden. Dieses System verwendet Beschleunigungsmesser, die in iPhones eingebettet sind, ein Bluetooth-Pulsoximeter und das Data-Mining-Tool von Weka, um optimierte Intervalltrainingsprotokolle zu formulieren, und erhöht nachweislich den Kalorienverbrauch um 29,54% im Vergleich zum modifizierten Tabata-Intervalltrainingsprotokoll. Wir haben auch ein Verhaltens-Cueing-System entwickelt, das Musik und Leistungsfeedback verwendet, um während Intervalltrainingsübungen Motivation zu liefern. Durch die Messung der Leistung eines Benutzers durch Sensorwerte können wir Songs abspielen, die dem Trainingsplan des Benutzers entsprechen. Ein hybrider kollaborativer, inhalts- und kontextsensitiver Filteralgorithmus berücksichtigt die Musikpräferenzen des Benutzers und die Trainingsgeschwindigkeit, um die Leistung zu verbessern.;-;-;-;https://link.springer.com/article/10.1007/s11036-011-0331-5 7bcbe6bd46562bca52b2d784371fbfb8;de;;;7.4.;;;Ein Entscheidungsunterstützungssystem für die multimodale Klassifikation von Hirntumoren mit Deep Learning Die Mehrklassenklassifikation von Hirntumoren ist ein wichtiger Forschungsbereich im Bereich der medizinischen Bildgebung. Da die Genauigkeit bei der Klassifizierung von entscheidender Bedeutung ist, werden von Computer Vision-Forschern eine Reihe von Techniken eingeführt, die jedoch immer noch mit dem Problem der geringen Genauigkeit konfrontiert sind. In diesem Artikel wird eine neue automatisierte Deep-Learning-Methode zur Klassifizierung von Multiklassen-Hirntumoren vorgeschlagen. Um die vorgeschlagene Methode zu realisieren, wird das Densenet201 Pre-Trained Deep Learning Modell verfeinert und später unter Verwendung eines tiefen Transfers von unausgewogenem Datenlernen trainiert. Die Merkmale des trainierten Modells werden aus der durchschnittlichen Poolschicht extrahiert, die die sehr tiefen Informationen jedes Tumortyps darstellt. Die Eigenschaften dieser Schicht reichen jedoch für eine genaue Klassifizierung nicht aus, daher werden zwei Techniken zur Auswahl von Merkmalen vorgeschlagen. Die erste Technik sind Entropie-Kurtose-basierte High Feature Values ​​(EKbHFV) und die zweite Technik ist ein modifizierter genetischer Algorithmus (MGA) basierend auf Metaheuristik. Die ausgewählten Merkmale des GA werden durch die vorgeschlagene neue Schwellenwertfunktion weiter verfeinert. Schließlich werden sowohl EKbHFV- als auch MGA-basierte Merkmale mit einem nicht-redundanten seriellen Ansatz fusioniert und mit einem kubischen SVM-Klassifikator mit mehreren Klassen klassifiziert. Für den experimentellen Prozess werden zwei Datensätze, darunter BRATS2018 und BRATS2019, unverändert verwendet und haben eine Genauigkeit von mehr als 95 % erreicht. Der genaue Vergleich der vorgeschlagenen Methode mit anderen neuronalen Netzen zeigt die Bedeutung dieser Arbeit.;-;-;-;https://link.springer.com/article/10.1007/s40747-021-00321-0 4597a5806163d4aa5f091a81f5a2a2fb;de;;;7.4.;;;Robuste indische Währungserkennung mit Deep Learning Die Anwendungen des Währungszählens in Echtzeit sind enorm. Vom Geldautomaten bis hin zu Geschäftsanwendungen für Kleinunternehmer umfasst die Währungserkennung. Im Gegensatz dazu ist die Währungserkennung eine der HCI-Anwendungen, die für jede Mensch-Computer-Anwendung verwendet werden kann. Diese Technologie schränkt die Arbeitskraft und die menschliche Überwachung ein. Die aufkommenden Technologien wie KI und Machine Learning waren mittlerweile Bestandteil jeder Anwendung. In dieser Hinsicht ist die vorgeschlagene Methodik eine robuste Methodik, die auf einer Deep-Learning-Technik basiert, die eine geringere Anzahl von Bildern in der Datenbank mit hohem Rauschen verwendet, einschließlich gedrehter Notizen, geneigter Notizen, gehalten von Handnotizbildern. Die vorgeschlagene Methode extrahiert die Denomination in 90 s. Es verwendet ein Convolution Neural Network (Inception mit Transfer Learning), um die Währungsbezeichnung zu extrahieren. Wir haben die Genauigkeit von 83 % bei der Vorhersage der Denomination erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-3660-8_45 d9bdacae14f91397c48a67625187ec2d;de;;;7.4.;;;Erkennung von seniler Demenz durch MRT des Gehirns mit Ra-DenseNet Mit der rasanten Entwicklung der Medizinindustrie steigt die Nachfrage nach Krankheitsdiagnosen mit maschinellen Lerntechnologien. Der jüngste Erfolg von Deep Learning bringt es auf eine neue Höhe. Dieser Artikel konzentriert sich auf die Anwendung von Deep Learning, um senile Demenz aus Daten der Magnetresonanztomographie (MRT) des Gehirns zu entdecken. In dieser Arbeit schlagen wir ein neuartiges Deep-Learning-Modell vor, das auf dem Dense Convolutional Network (DenseNet) basiert, bezeichnet als;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-16142-2_35 988d1678b085b19b28a84f297612394d;de;;;7.4.;;;Anwendungen des maschinellen Lernens in der Finanzforschung Die Anwendungen des maschinellen Lernens in der Finanzforschung haben in den letzten Jahren deutlich zugenommen. Dieses Kapitel gibt einen Überblick über maschinelle Lernmethoden und untersucht ihre Verwendung in der Finanzliteratur. Frühere Untersuchungen haben gezeigt, dass maschinelles Lernen besonders hilfreich ist, wenn es darum geht, die Risikoprämie bei der Preisgestaltung von Vermögenswerten abzuschätzen, Marktteilnehmer bei finanzwirtschaftlichen Entscheidungen zu unterstützen und unstrukturierte Daten für Analysen zugänglich zu machen. Das Problem der Fehlmessung wird als Herausforderung des maschinellen Lernens diskutiert. Obwohl maschinelles Lernen in der Finanzforschung noch vorläufig ist, ist der Pool potenzieller Prädiktoren weitaus umfangreicher als der der konventionellen Ökonometrie, was Flexibilität ermöglicht, die Grenzen der Finanzforschung zu erweitern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6137-9_9 74280f8b521d0978ef00aa51b02dffee;de;;;7.4.;;;Experimentelle Analyse von Methoden des maschinellen Lernens zur Klassifizierung der Kreditwürdigkeit Bedenken hinsichtlich der Kreditwürdigkeitsprüfung im Hinblick auf ein aufkommendes empirisches Modell zur Unterstützung der Finanzinstitute bei finanziellen Entscheidungsfindungsprozessen Die Kreditrisikoanalyse spielt eine entscheidende Rolle für den Entscheidungsprozess, statistische und maschinelle Lernansätze werden verwendet, um das mit einem Kreditantragsteller verbundene Risiko abzuschätzen. Die Verbesserung der Leistung des Kreditbewertungsmodells, insbesondere gegenüber nicht vertrauenswürdigen „oder nicht kreditwürdigen“ Gruppen, kann für Finanzinstitute unglaubliche Auswirkungen haben. Kreditbewertungsdaten können jedoch überzählige und unwichtige Daten und Merkmale enthalten, die die Leistung des Modells beeinträchtigen. Daher kann die Auswahl wichtiger Merkmale (oder die Reduzierung irrelevanter und redundanter Merkmale) die Schlüsselrolle zur Verbesserung der Effektivität und Verringerung der Komplexität des Modells spielen. Diese Studie präsentiert eine experimentelle Ergebnisanalyse verschiedener Kombinationen von Merkmalsauswahlansätzen mit verschiedenen Klassifikationsansätzen und Auswirkungen von Merkmalsauswahlansätzen. Für die experimentelle Ergebnisanalyse wurden neun Merkmalsauswahl- und sechzehn Klassifikations-State-of-the-Art-Ansätze auf sieben Bench-marked-Credit-Scoring-Datensätzen angewendet.;-;-;-;https://link.springer.com/article/10.1007/s13748-021-00238-2 d91affcdd90ef0ef09cc2264a5a65798;de;;;7.4.;;;Implementierungsbeispiele für entscheidende Funktionskomponenten der kognitiven Automatisierung Bezugnehmend auf den in Kapitel 3.2.4 dargestellten funktionalen Rahmen für die menschliche Kognition in Abbildung 30 und den in Kapitel 4.2.1 beschriebenen Prozess der künstlichen Kognition in einer ACU werden einige Implementierungsbeispiele für entscheidende funktionale Komponenten der kognitiven Automatisierung in der folgenden. Die Auswahl dieser Implementierungsbeispiele erfolgt so, dass;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03135-9_6 8ac3b11b603f4ba262494ec48f180ca1;de;;;7.4.;;;Ein bestärkender Lernansatz für die hostbasierte Erkennung von Eindringlingen mithilfe von Sequenzen von Systemaufrufen Intrusion Detection hat sich zu einer wichtigen Technik für die Netzwerksicherheit entwickelt. Aufgrund der komplexen und dynamischen Eigenschaften des Einbruchsverhaltens wurden Methoden des maschinellen Lernens und des Data Mining weit verbreitet eingesetzt, um die Leistung von Intrusion Detection Systemen (IDS) zu optimieren. Die Ergebnisse bestehender Arbeiten müssen jedoch sowohl hinsichtlich der Genauigkeit als auch der Recheneffizienz noch verbessert werden. In diesem Beitrag wird ein neuartiger Reinforcement-Learning-Ansatz für die hostbasierte Intrusion Detection unter Verwendung von Sequenzen von Systemaufrufen vorgestellt. Ein Markov-Belohnungsprozessmodell wird eingeführt, um das Verhalten von Systemaufrufsequenzen zu modellieren, und das Problem der Einbrucherkennung wird in die Vorhersage der Wertfunktionen des Markov-Belohnungsprozesses umgewandelt. Für die Wertfunktionsvorhersage wird ein zeitlich unterschiedlicher Lernalgorithmus verwendet, der lineare Basisfunktionen verwendet, so dass abnormales zeitliches Verhalten von Hostprozessen genau und effizient vorhergesagt werden kann. Das vorgeschlagene Verfahren hat Vorteile gegenüber früheren Algorithmen dahingehend, dass die zeitliche Eigenschaft von Systemaufrufdaten auf natürliche und einfache Weise gut erfasst wird und eine bessere Einbruchserkennungsleistung erzielt werden kann. Experimentelle Ergebnisse zu den Anrufdaten des MIT-Systems zeigen, dass das vorgeschlagene Verfahren im Vergleich zu früheren Arbeiten eine bessere Erkennungsgenauigkeit bei geringen Schulungskosten aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/11538059_103 39458316d09b4a97563dd9a184228425;de;;;7.4.;;;Innovation beim maschinellen Lernen im Gesundheitswesen – eine Einführung Die Gesundheitsangebote an gewachsenen und sich entwickelnden internationalen Standorten sind von großer Bedeutung. Der Einsatz maschineller Erkenntnisse über Strategien in Gesundheitsunternehmen hat eine entscheidende Bedeutung und nimmt rasant zu. In den letzten Jahren gab es weit verbreitete Merkmale, wie systemerzeugendes Wissen in verschiedenen Industrien und Forschungen genutzt werden kann. Die Organisationen im Gesundheitswesen müssen die Systemstudientechniken nutzen, um wertvolle Statistiken zu erhalten, die später verwendet werden könnten, um Krankheiten in hohem Maße im Voraus zu diagnostizieren. Moderne elektronische Gesundheitsakten (EHRs) bieten Realitäten, um klinisch bemerkenswerte Anfragen zu beantworten. Die sich entwickelnden Messungen in EHRs machen menschliche Dienste für die Verwendung der Gadget-Erfassung bereit. In jedem Fall bietet der Erwerb in einer logischen Anordnung exakte Anforderungsumstände, die die Verwendung einer gewöhnlichen Maschine durch das Kennenlernen von Methoden verwirren. Diese Liquidation dient als Grundlage, um diese Schwierigkeiten aufzuklären und bietet Möglichkeiten für Mitwirkende des Device-Learning-Netzwerks und diskutiert auch das Potenzial der Nutzung von Gadget-Mastering-Technologie im Gesundheitswesen und beschreibt zahlreiche Industrieprojekte die Nutzung von Systemstudieninitiativen, um Beiträge zum Gesundheitswesen zu leisten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4698-7_1 e1a4c35dba3cbcb7e3d2200c04ce496f;de;;;7.4.;;;Klassifizierung von bösartigem Datenverkehr mithilfe des Long Short-Term Memory (LSTM)-Modells Die Klassifizierung bösartiger Datenverkehr ist der erste und wichtigste Schritt für alle netzwerkbasierten Sicherheitssysteme. Diese Verkehrsklassifizierungssysteme umfassen ein verhaltensbasiertes Anomalieerkennungssystem und ein Intrusion Detection System. Bestehende Verfahren verlassen sich immer auf die herkömmlichen Techniken und verarbeiten die Daten in der festen Reihenfolge, was zu Leistungsproblemen führen kann. Darüber hinaus erfordern herkömmliche Techniken eine geeignete Annotation, um die volumetrischen Daten zu verarbeiten. Das Verlassen auf die Datenanmerkung für eine effiziente Verkehrsklassifizierung kann zu Netzwerkschleifen und Bandbreitenproblemen innerhalb des Netzwerks führen. Um die oben genannten Probleme anzugehen, präsentiert dieses Papier eine neuartige Lösung basierend auf der Perspektive der künstlichen Intelligenz. Die Kernidee dieses Papiers besteht darin, ein neues bösartiges Klassifizierungssystem vorzuschlagen, das das Modell des Long Short-Term Memory (LSTM) verwendet. Um die Effizienz des vorgeschlagenen Modells zu validieren, wird ein experimenteller Aufbau zusammen mit experimenteller Validierung durchgeführt. Aus den experimentellen Ergebnissen wird bewiesen, dass das vorgeschlagene Modell in Bezug auf Genauigkeit und Durchsatz im Vergleich zu den Modellen nach dem Stand der Technik besser ist. Darüber hinaus übertrifft die Genauigkeit des vorgeschlagenen Modells die bestehenden Modelle nach dem Stand der Technik mit einer Zunahme von 5 % und einer Genauigkeit von insgesamt 99,5 %.;-;-;-;https://link.springer.com/article/10.1007/s11277-021-08359-6 43f57e05269b6f44a4cd535e4514a5b7;de;;;7.4.;;;Data Mining in unvollständigen Informationssystemen aus grober Sicht Mining-Regeln sind bei Rough Sets-Anwendungen von besonderem Interesse. Inkonsistenz- und Unvollständigkeitsprobleme im Informationssystem werden berücksichtigt. Es werden Algorithmen vorgestellt, die in sehr großen unvollständigen Informationssystemen nach bestimmten, möglichen und verallgemeinerten Entscheidungsregeln suchen. Die Algorithmen basieren auf effizienten Data-Mining-Techniken, die zur Erzeugung von Assoziationsregeln aus großen Datenbanken entwickelt wurden. Die Algorithmen sind in der Lage, sowohl vom System direkt unterstützte als auch;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-1840-6_12 4ac6ef27ae3687ce13e3adbcaec43f2c;de;;;7.4.;;;Assoziationsregeln aus Daten durch Domänenwissen und Automatisierung lernen Ein Ansatz für automatisiertes Data Mining mit Assoziationsregeln basierend auf Domänenwissen wird vorgestellt. Assoziationsregeln werden als interessante Paare von allgemeinen booleschen Attributen verstanden. Elemente des Domänenwissens, die verschiedenen Beziehungen von nicht-booleschen Attributen entsprechen, werden verwendet, um vernünftige analytische Fragen zu formulieren. Bestimmte Wissenseinheiten werden auf Assoziationsregeln abgebildet, die als Konsequenzen betrachtet werden können. Die Folgensätze werden dann verwendet, um Sätze von Assoziationsregeln zu interpretieren, die sich aus einem Data Mining-Verfahren ergeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09870-8_20 b6b0606bfdea9a26ec31b212ae49ce3c;de;;;7.4.;;;Untersuchung zur Kreditgenehmigung basierend auf Convolutional Neural Network Mit der wirtschaftlichen Entwicklung hat sich das Kreditgeschäft in China rasant entwickelt. Das Risiko, dass Kunden ihre Kredite nicht rechtzeitig zurückzahlen können, ist gestiegen. Daher ist es für Finanzorganisationen ein wichtiges Problem, den Kreditantrag der Kunden zu genehmigen oder nicht. Typische maschinelle Lernmethoden zur Klassifizierung können verwendet werden, um die Finanzinformationen von Kunden zu ermitteln und wertvolle Urteile zu geben. Diese Lernmethoden beruhen jedoch auf flachen Merkmalen, und die Beziehungen zwischen diesen Merkmalen sind nicht gut untersucht. Wir untersuchen in dieser Arbeit die Funktion des Convolutional Neural Network (CNN), wie es im Bereich der Bilderkennung, Spracherkennung und Verarbeitung natürlicher Sprache erfolgreich ist. Wir untersuchen vier verschiedene CNN-Modelle. Experimente zeigen, dass das vierte Modell mit stochastischem Gradientenabstiegsalgorithmus und Impuls die beste Leistung erzielt. Seine Genauigkeit und sein Wiederaufruf sind 0,95 bzw. 0,26.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-78615-1_18 ffcbdcf4cb1069750281766a163d1412;de;;;7.4.;;;Fortschritte bei der Unterstützung intelligenter Entscheidungsfindungstechnologien Eine Reihe von Datenbanken, Advanced Information Processing (AIP) und Intelligent Decision-Making Technologies (IDT) haben sich in den letzten fünf Jahrzehnten rasant entwickelt. Diese kumulative Entwicklung intelligenter Entscheidungsunterstützungssysteme (IDSSs) hat dazu gedient, industrielle Aktivitäten anzuregen und das Leben der meisten Menschen in der modernen Welt zu verbessern. Diese Publikation beleuchtet eine Reihe aktueller Beiträge zur Erweiterung des kollektiven Wissens. Techniken der Künstlichen Intelligenz (KI) und Computational Intelligence (CI) werden weiterhin erfolgreich eingesetzt, um menschenähnliche Entscheidungen zu treffen und gleichzeitig einen besseren Zugang zu Informationen zur Lösung datenintensiver Probleme zu ermöglichen. Dieses Buch dokumentiert innovative Beiträge, die Fortschritte in wissensbasierten und intelligenten Informations- und Ingenieursystemen darstellen. Neue Forschungen erkennen an, dass die Gesellschaft mit modernen AIP vertraut ist und zunehmend reichere IDT-Systeme erwartet. Heutzutage besteht ein wachsendes Vertrauen in die automatische Verarbeitung von Informationen in Wissen mit weniger menschlichen Eingaben. Die Gesellschaft hat ihre Vergangenheit bereits digitalisiert und wird das Wissensmanagement für die Zukunft immer weiter automatisieren und erwartet zunehmend, auf diese Informationen über mobile Geräte zuzugreifen. Dieses Buch soll Informationen über die Forschung zu intelligenten Systemen und Intelligenztechnologien liefern und verbessern, die neuartige und zukunftsweisende Techniken zur Verbesserung der Entscheidungsfindung verwenden. Jedes Kapitel konzentriert sich auf die Theorie, das Design, die Entwicklung, die Implementierung, das Testen oder die Bewertung von IDT-Techniken oder -Anwendungen. Diese Ansätze haben das Potenzial, die Entscheidungsfindung in den Bereichen Management, internationales Geschäft, Finanzen, Rechnungswesen, Marketing, Gesundheitswesen, Produktion, Netzwerke, Verkehrsmanagement, Krisenreaktion, Human Interfaces und militärische Anwendungen zu unterstützen. Alle vierzehn Kapitel repräsentieren ein breites Themenspektrum innerhalb der Domäne und zeigen auf, wie Forschung zum Nutzen der Gesellschaft umgesetzt wird. Studierende, Fachleute und interessierte Beobachter im Bereich des wissensbasierten und intelligenten Informationsmanagements werden von der Vielfalt und dem Reichtum der Inhalte profitieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-21209-8_1 d3a330943369cd483853de4f4d8fd71d;de;;;7.4.;;;Data-Mining-Paradigmen Bei der Suche nach neuen Mustern sind Algorithmen zum Mining großer Datensätze mit einer Reihe von Problemen konfrontiert. Wir diskutieren die Fragen der Effizienz im Data Mining. Wir erarbeiten einige wichtige Data-Mining-Aufgaben wie Clustering, Klassifizierung und Assoziationsregel-Mining, die für den Inhalt des Buches relevant sind. Wir diskutieren gängige und repräsentative Algorithmen des partitionierten und hierarchischen Datenclusters. Bei der Klassifikation diskutieren wir den Nearest-Neighbor-Klassifikator und die Support Vector Machine. Wir verwenden diese beiden Algorithmen ausgiebig in dem Buch. Wir bieten eine ausführliche Diskussion über Probleme beim Mining großer Datensätze und mögliche Lösungen. Wir besprechen jede mögliche Richtung im Detail. Die Diskussion über Clustering umfasst Themen wie inkrementelles Clustering mit Schwerpunkt auf Leader- und BIRCH-Clustering-Algorithmen, Divide-and-Conquer-Clustering-Algorithmen und Clustering basierend auf Zwischenrepräsentation. Die Diskussion über die Klassifikation umfasst Themen wie die inkrementelle Klassifikation und die Klassifikation basierend auf Zwischenabstraktion. Wir besprechen außerdem das häufige Itemset-Mining mit zwei Richtungen wie das Teile-und-Herrsche-Itemset-Mining und die Zwischenabstraktion für das häufige Itemset-Mining. Bibliographische Anmerkungen enthalten eine kurze Diskussion über den bedeutenden Forschungsbeitrag in jeder der in diesem Kapitel diskutierten Richtungen und Literatur für weitere Studien.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-5607-9_2 3133a5193b72b7c8742a0ce2d1df90fe;de;;;7.4.;;;Automatisiertes maschinelles Lernen: Perspektiven und Herausforderungen Der State of the Art des jungen Feldes des Automated Machine Learning (AutoML) wird vom konnektionistischen Ansatz gehalten. Mehrere Techniken einer solchen Inspiration haben kürzlich vielversprechende Ergebnisse beim automatischen Entwurf neuronaler Netzwerkarchitekturen gezeigt. Abgesehen von der Backpropagation werden jedoch nur wenige Anwendungen anderer Lerntechniken für diese Zwecke verwendet. Der Backpropagation-Prozess nutzt spezifische Optimierungstechniken, die für bestimmte Anwendungsdomänen am besten geeignet sind (z. B. Computer Vision und Natural Language Processing). Daher besteht die Notwendigkeit eines allgemeineren Lernansatzes, nämlich eines grundlegenden Algorithmus, der in der Lage ist, in verschiedenen Kontexten mit unterschiedlichen Eigenschaften Rückschlüsse zu ziehen. In diesem Beitrag behandeln wir das Problem aus wissenschaftlicher und erkenntnistheoretischer Sicht. Wir glauben, dass dies notwendig ist, um die Mechanismen und Dynamiken des menschlichen Lernens vollständig zu verstehen. Zu diesem Zweck definieren wir einige elementare Inferenzoperationen und zeigen, wie moderne Architekturen durch eine Kombination dieser elementaren Methoden aufgebaut werden können. Wir analysieren jede Methode in unterschiedlichen Settings und finden für jeden Lernalgorithmus den passenden Anwendungskontext. Darüber hinaus diskutieren wir experimentelle Erkenntnisse und vergleichen sie mit menschlichem Lernen. Besonders deutlich wird die Diskrepanz zwischen überwachtem und unüberwachtem Lernen. Dann bestimmen wir, welche elementaren Lernregeln für unbeaufsichtigte Systeme am besten geeignet sind, und schlagen schließlich einige Verbesserungen in Architekturen des Reinforcement Learning vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58811-3_9 86aa3ebb34ac08738664990385a41044;de;;;7.4.;;;Künstliche Intelligenz in Mensch-Maschine-Systemen und Automatisierung Es hat sich gezeigt, dass Künstliche Intelligenz das Potenzial bietet, die wissensbasierten Funktionen eines menschlichen Bedieners auf die Maschine zu übertragen. In Systemen – wie Flugzeugen, Flugsicherungen und bemannten Raumstationen –, in denen die menschliche Fähigkeit zur Sicherung aller Kontrollfunktionen erhalten bleiben soll, ist es wichtig, das Mensch-Maschine-System so zu gestalten, dass der Betrieb auf verschiedenen Automatisierung (von manuell bis autonom). Dadurch bleibt der Mensch „in der Schleife“ und kann im Notfall oder Systemausfall sofort „übernehmen“. Ein interessanter Aspekt des Systemlayouts ist, dass es verschiedene Positionen des Meta-Controllers zulässt. Das ist die Intelligenz über dem Mensch-Maschine-System, die über die Ziele, über die Kompetenzverteilung zwischen Mensch und Maschine entscheidet und die umfassendste Kenntnis der Welt hat, in der das Mensch-Maschine-System agiert. Die Meta-Steuerung kann einem Menschen oder einem Computer zugewiesen werden, sie kann mit der Maschine oder Fernbedienung (z.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0006956 25be88e874913457b8788d74af6ed909;de;;;7.4.;;;Eine semantische Strategie für die automatische Spracherkennung unter Einbeziehung von Deep-Learning-Modellen Automatische Spracherkennung (ASR) ist im Zeitalter des Internets der Dinge und der maschinellen Intelligenz im Trend. Es spielt in mehreren Anwendungen eine zentrale Rolle. Herkömmliche Modelle zur automatischen Spracherkennung liefern insbesondere im Kontext indischer Muttersprachen keine hohe Genauigkeit. Dieses Papier schlägt eine neuartige Strategie zur Modellierung eines ASR- und Sprechererkennungssystems für die Sprache Hindi vor. Eine semantikbewusste Strategie mit akustischer Modellierung wird zusammen mit Deep-Learning-Techniken wie Long Short-Term Memory (LSTM) und Recurrent Neural Networks (RNN) umfasst. MFCC wird weiterhin strategisch in das Modell für die Merkmalsextraktion und das RNN für den Mustervergleich und die Dekodierung aufgenommen. Die vorgeschlagene Strategie hat eine vielversprechende Leistung gezeigt, wobei das Sprechererkennungssystem eine Genauigkeit von 97% und das Spracherkennungssystem mit einer sehr geringen Wortfehlerrate von 2,9 im Vergleich zu anderen bestehenden Lösungen erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5400-1_25 a20634e9f1364c66cab747669a58c80e;de;;;7.4.;;;Boosting-SVM: effektives Lernen mit reduzierter Datendimension Lernprobleme bei hochdimensionalen Daten sind in realen Anwendungen üblich. In dieser Studie wird eine anspruchsvolle, große und lebensechte Datenbank, die deutschen Verkehrszeichen-Benchmark-Daten, die 43 Klassen und 51840 Bilder enthält, verwendet, um die Stärke unserer vorgeschlagenen Boosted Support Vector Machine mit Deep-Learning-Architektur zu demonstrieren. Die Erkennung von Verkehrszeichen ist schwierig und umfasst mehrere Kategorien, enthält Untergruppen von Klassen, die einander sehr ähnlich erscheinen können, und neigt dazu, aufgrund von Beleuchtungsänderungen, partiellen Okklusionen, Rotationen und Wetterbedingungen innerhalb einer Klasse große Unterschiede in der visuellen Erscheinung zu haben. Durch Kombinieren eines Fehlerverstärkungsalgorithmus mit niedriger Varianz, einer Unterstützungsvektormaschine mit niedrigem Bias-Fehler und einer Deep-Learning-Architektur wird ein effizientes und effektives Verstärkungsunterstützungsvektormaschinenverfahren präsentiert. Es hat sich gezeigt, dass es die Datendimension stark reduziert und Klassifizierungsmodelle mit höherer Vorhersagegenauigkeit erstellt, während weniger Funktionen und Trainingsinstanzen verwendet werden. Bei der Bewertung übertrifft die vorgeschlagene Methode Adaboost.M1, cw-Boost und Support Vector Machine und erreicht eine ultraschnelle Verarbeitungszeit (0,0038 pro Vorhersage) und eine hohe Genauigkeit (93,5 %) bei der Vorhersage einzelner Testdaten verwendet weniger als 35 der Ausbildungsinstanzen. Darüber hinaus ist das Verfahren auf einen Standard-Standalone-PC anwendbar, ohne dass Supercomputer mit enormen Speicherplätzen benötigt werden.;-;-;-;https://link.springer.com/article/10.1007/s10489-013-0425-9 8c2248674d9729a63e16eb74fb4f6d68;de;;;7.4.;;;Schlüsselwortextraktion mit Convolutional Neural Tensor Networks auf Zeichenebene Die Schlüsselwortextraktion ist eine kritische Technik bei der Verarbeitung natürlicher Sprache. Für diese wesentliche Aufgabe präsentieren wir eine einfache, aber effiziente Architektur mit Faltungs-Neural-Tensor-Netzwerken auf Zeichenebene. Die vorgeschlagene Architektur lernt die Beziehungen zwischen einem Dokument und jedem Wort innerhalb des Dokuments und behandelt die Schlüsselwortextraktion als überwachtes binäres Klassifizierungsproblem. Im Gegensatz zu herkömmlichen überwachten Ansätzen lernt unser Modell die Verteilungsvektordarstellungen sowohl für Dokumente als auch für Wörter, die semantische Informationen und Hintergrundwissen direkt einbetten, ohne dass handgefertigte Funktionen erforderlich sind. Am wichtigsten ist, dass wir die Semantik bis auf die Zeichenebene modellieren, um morphologische Informationen über Wörter zu erfassen, die, obwohl sie in der einschlägigen Literatur ignoriert werden, das Problem unbekannter Wörter in überwachten Lernansätzen zur Schlüsselwortextraktion effektiv mildern. In den Experimenten vergleichen wir das vorgeschlagene Modell mit mehreren aktuellen überwachten und unüberwachten Ansätzen zur Schlüsselwortextraktion. Experimente, die an zwei Datensätzen durchgeführt wurden, bestätigen die Wirksamkeit des vorgeschlagenen Deep-Learning-Frameworks, indem es mehrere Basismethoden deutlich übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-16148-4_31 acca792ab3a9a1bf2c1b5dc7a4695657;de;;;7.4.;;;Eine Evaluierung von Sampling-Methoden für Data Mining mit Fuzzy C-Means Unter Verwendung von Fuzzy-C-Means als Data-Mining-Tool bewertet diese Studie die Effektivität von Stichprobenverfahren bei der Gewinnung des interessierenden Wissens. Die Effektivität wird in Bezug auf die Repräsentativität von Abtastdaten und sowohl die Genauigkeit als auch die Fehler der abgetasteten Datensätze gezeigt, wenn sie dem Fuzzy-Clustering-Algorithmus unterzogen werden. Für die Auswertung wurden zwei Populationsdaten im Bereich der Schweißnahtprüfung verwendet. Basierend auf den erhaltenen Ergebnissen werden eine Reihe von Beobachtungen gemacht.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-4911-3_15 20bffc90bcda485c031656868de30916;de;;;7.4.;;;Extraktion von Dokument-Cluster-Beschreibungen und ihre Anwendung Die Dokument-Clustering-Beschreibung ist ein Problem der Kennzeichnung der Clustering-Ergebnisse des Dokumentensammlungs-Clusters. Es kann Benutzern dabei helfen, festzustellen, ob einer der Cluster für ihre Informationsanforderungen relevant ist oder nicht. Um das Problem der schwachen Lesbarkeit von Dokumentenclustering-Ergebnissen zu lösen, wird ein Verfahren zur automatischen Kennzeichnung von Dokumentenclustern basierend auf maschinellem Lernen vorgeschlagen. Zunächst wird die Extraktion von Cluster-Beschreibungen in der Anwendung auf den Aufbau digitaler Bibliotheken vorgestellt. Dann werden die deskriptiven Ergebnisse von fünf Modellen jeweils analysiert und ihre Leistungen werden verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00831-3_37 328d939c68f745a60acb3612d396a8e5;de;;;7.4.;;;Skalierung von Kernel-basierten Systemen auf große Datensätze Kernelbasierte Systeme sind derzeit in Form der Support Vector Machine und Gaussian-Prozesse sehr beliebte Ansätze für überwachtes Lernen. Leider nimmt die Rechenlast für das Training von Kernel-basierten Systemen mit der Größe des Trainingsdatensatzes drastisch zu, so dass diese Systeme keine idealen Kandidaten für Anwendungen mit großen Datensätzen sind. Dennoch ist die Forschung in diese Richtung sehr aktiv. In diesem Artikel bespreche ich einige der aktuellen Ansätze zur Skalierung von kernelbasierten Systemen auf große Datensätze.;-;-;-;https://link.springer.com/article/10.1023/A%3A1011425201219 4ab2379fdfb6e9a4e43d0ac7e57b67f0;de;;;7.4.;;;Logik und Wahrscheinlichkeit vereinen: Ein neuer Morgen für die KI? Logik und Wahrscheinlichkeitstheorie sind zwei der wichtigsten Zweige der Mathematik und jeder hat eine bedeutende Rolle in der Forschung zu künstlicher Intelligenz (KI) gespielt. Beginnend mit Leibniz haben Wissenschaftler versucht, Logik und Wahrscheinlichkeit zu vereinen. Bei der „klassischen“ KI, die weitgehend auf Logik erster Ordnung basiert, besteht der Zweck einer solchen Vereinheitlichung darin, mit Unsicherheit umzugehen und das Lernen aus realen Daten zu erleichtern, bei der „modernen“ KI, die weitgehend auf der Wahrscheinlichkeitstheorie basiert, ist der Zweck der Erwerb formaler Sprachen mit ausreichender Ausdruckskraft, um mit komplexen Domänen umzugehen und Vorwissen einzubeziehen. Dieses Papier bietet eine kurze Zusammenfassung eines eingeladenen Vortrags, in dem die Bemühungen in diese Richtung beschrieben werden, wobei insbesondere auf;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08795-5_2 655e58a79c4dba35e657c383851b8a36;de;;;7.4.;;;Bidirektionales halbüberwachtes Lernen mit Graphen Wir stellen eine maschinelle Lernaufgabe vor, die wir bidirektionales semi-überwachtes Lernen nennen, bei der nur Label-Samples sowie gekennzeichnete und nicht gekennzeichnete Samples gegeben werden. Ein reines Label-Sample enthält die Label-Informationen des Samples, aber nicht die Merkmalsinformationen. Dann schlagen wir eine einfache und effektive graphenbasierte Methode für bidirektionales semi-überwachtes Lernen in der Multi-Label-Klassifikation vor. Das vorgeschlagene Verfahren geht davon aus, dass korrelierte Klassen wahrscheinlich die gleichen Labels unter den ähnlichen Stichproben haben. Zuerst konstruieren wir einen Graphen, der Ähnlichkeiten zwischen Stichproben unter Verwendung von markierten und unmarkierten Stichproben auf die gleiche Weise mit grafenbasierten halbüberwachten Methoden darstellt. Zweitens konstruieren wir einen weiteren Graphen mit beschrifteten und nur mit Beschriftungen versehenen Stichproben, indem wir Klassen verbinden, die wahrscheinlich gemeinsam auftreten, was Korrelationen zwischen Klassen darstellt. Dann schätzen wir Labels von unmarkierten Samples, indem wir Labels über diese beiden Graphen propagieren. Wir können eine geschlossene globale Lösung für die Labelpropagation finden, indem wir die Matrixalgebra verwenden. Wir demonstrieren die Wirksamkeit der vorgeschlagenen Methode gegenüber überwachten und halbüberwachten Lernmethoden mit Experimenten mit synthetischen und Multi-Label-Textdatensätzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33486-3_19 53e9d2fe498d8075a98b413960d1e85f;de;;;7.4.;;;Ein hybrides Machine-Learning-Modell zur Vorhersage der Kundenabwanderung in der Telekommunikationsbranche Die Churn-Rate ist heute ein wichtiges Thema in der Telekommunikationsbranche, da sie den Grad beschreibt, in dem Kunden ein Unternehmen verlassen und seine Dienste auf die eine oder andere Weise verwerfen. In den letzten Jahren haben sich in der Telekommunikationsbranche verschiedene Veränderungen wie die Liberalisierung des Marktes entwickelt, die zu einem ernsthaften Wettbewerb und damit zur Entwicklung neuer Technologien und Möglichkeiten geführt haben, die sich direkt und indirekt auf die Wahl und Präferenz der Kunden für die Dienste eines bestimmten Telekommunikationsunternehmens auswirken. In dieser Studie wurde ein generalisiertes K_LoRD-Hybridmodell zur Vorhersage der Kundenabwanderung in der Telekommunikationsbranche unter Verwendung von K Nearest Neighbor, Logistic Regression, Random Forest und Decision Tree entwickelt. Es wurde ein öffentlich zugänglicher Datensatz eines Telekommunikationsunternehmens gesammelt, der über Kundeninformationen und deren Abwanderung verfügt. Das K_LoRD-Hybridmodell wird basierend auf den folgenden Leistungsmetriken bewertet: Genauigkeit und Empfängerbetriebskurve. Die Ergebnisse zeigten, dass das Hybridmodell die Kundenabwanderung mit 91,85 % Vorhersagegenauigkeit und 95,9 % Area Under Curve effizient vorhersagt. Die Experimente haben gezeigt, dass unser hybrides Vorhersagemodell dem gewöhnlichen K-nächsten Nachbarn, der logistischen Regression, dem Random Forest und den Entscheidungsbäumen überlegen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-73603-3_43 d8cc03aa0868723a1bd6293505a30b2b;de;;;7.4.;;;Vorschau: Data Warehousing/Mining Für viele, die sich für Themen rund um Data Mining interessieren, stellt sich häufig die Frage „Was genau ist Data Mining? In der Statistikgemeinschaft kann Data Mining als Untersuchung und Anwendung statistischer Techniken für die EDA – Exploratory Data Analysis [Tukey 1977] verstanden werden. In der Gemeinschaft des maschinellen Lernens oder der künstlichen Intelligenz kann es sich beim Data Mining um rechnerisch praktikable Algorithmen zum „Lernen von Mustern“ aus großen Datensätzen handeln [Weiss 1991]. In der Gemeinschaft der wissenschaftlichen Visualisierung könnte es beim Data Mining darum gehen, hochdimensionale Daten zu gruppieren und zu komprimieren und die Daten in eine visuelle Form zu transformieren, um „nützliche“ Informationen in Daten zu vermitteln [Santos 2002]. In der Community der Datenbanktechnologie könnte es um OLAP (On-Line Analytical Processing) [Harinarayan 1996], Warehouse-Modell, Data Mart und Entscheidungsunterstützung gehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-9001-3_1 f43e1cbc3f6a02b87ed8ca2a583f26a2;de;;;7.4.;;;Genau und zuverlässig Daten aus dem Web extrahieren: Ein Ansatz des maschinellen Lernens Ein kritisches Problem bei der Entwicklung von Informationsagenten für das Web ist der Zugriff auf Daten, die für den menschlichen Gebrauch formatiert sind. Wir haben eine Reihe von Tools entwickelt, um Daten aus Websites zu extrahieren und in ein strukturiertes Datenformat wie XML umzuwandeln. Die resultierenden Daten können dann verwendet werden, um neue Anwendungen zu erstellen, ohne sich mit unstrukturierten Daten befassen zu müssen. Die Vorteile unserer Wrapping-Technologie gegenüber früheren Arbeiten sind die Fähigkeit, hochpräzise Extraktionsregeln zu lernen, den Wrapper zu überprüfen, um sicherzustellen, dass weiterhin die richtigen Daten extrahiert werden, und sich automatisch an Änderungen an den Standorten anzupassen, von denen die Daten stammen extrahiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-1772-0_17 7063a72f1b9e691f4c7b7a16b340664f;de;;;7.4.;;;Emotionserkennung von Sprache in Hindi mit Dimensionsreduktion und maschinellen Lerntechniken Diese Studie konzentriert sich hauptsächlich auf die Integration verschiedener Arten von Sprachmerkmalen und verschiedener statistischer Techniken, um die Daten in allen Dimensionen zu reduzieren. Um Menschen vorherzusagen, wurden die vorhandenen Algorithmen des maschinellen Lernens angewendet, um den verfügbaren Datensatz zu trainieren, um bessere Ergebnisse zu erzielen. Dies führt zu einer viel besseren Reaktion von Maschinen durch die Verarbeitung der menschlichen Anweisungen und der damit verbundenen Emotionen. Durch maschinelle Lerntechniken kann das Emotionserkennungssystem effektiv arbeiten und die Ergebnisse werden durch den Code der Python-Sprache vergleichbar. Zur Verbesserung der Leistung statistischer Techniken zur Emotionserkennung (ER) der Hauptkomponentenanalyse (PCA) und der linearen Diskriminanzanalyse (LDA), um die wesentlichen Informationen aus dem Datensatz abzurufen. Nach Anwendung der Naive Bayes-Klassifizierung (NBC) auf den Sprachkorpus, der von nicht dramatischen Schauspielern gesammelt wurde, zeigen die Ergebnisse, dass NBC bessere Ergebnisse liefert als die bestehenden Klassifikationstechniken des maschinellen Lernens (ML), wie z Vektormaschine (SVM) & Entscheidungsbaum (DT). Dieses Papier präsentiert die Ergebnisse verschiedener ML-Techniken, die verwendet werden, um ER herauszufinden. Durch SVM erreichte die Vorhersagerate 39 % und die Entscheidungsbaum-Erkennungsrate nur 29 % und bei Anwendung der NBC-Ergebnisse 72,77 %. Diese Studie zeigt die Änderung der Vorhersagerate während der Änderung des Datensatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-69143-1_10 23dd205634f2d78a407641ad725325b1;de;;;7.4.;;;Deep-Learning-basierte Basketball-Videoanalyse für intelligente Arena-Anwendungen Angesichts des enormen Zuwachses an Sportfans wird die „Intelligente Arena“, die den Spaß am traditionellen Sport deutlich steigern kann, zu einem der neuen Anwendungs- und Forschungsthemen. Die Entwicklung von Multimedia-Computing- und Künstliche-Intelligenz-Technologien unterstützt die intelligente Sportvideoanalyse, um den intelligenten Arena-Anwendungen Live-Videoübertragung, Spielstanderkennung, Highlight-Videogenerierung und Online-Sharing-Funktionen hinzuzufügen. In diesem Artikel haben wir ein auf Deep Learning basierendes Videoanalyseschema für intelligente Basketball-Arena-Anwendungen vorgeschlagen. Mit mehreren Kameras oder Mobilgeräten, die die Aktivitäten in der Arena aufzeichnen, kann das vorgeschlagene Schema zunächst automatisch die Kamera auswählen, um eine qualitativ hochwertige Übertragung in Echtzeit zu ermöglichen. Darüber hinaus können wir mit dem auf Basketball-Energiebildern basierenden tiefen konventionellen neuronalen Netzwerk die Scoring-Clips als Highlight-Videorollen erkennen, um die wunderbaren Funktionen zur Wiedergabe von Aktionen und Online-Sharing zu unterstützen. Schließlich zeigen Auswertungen eines aufgebauten realen Basketballspiel-Datensatzes, dass das vorgeschlagene System 94,59 . erreichen kann;-;-;-;https://link.springer.com/article/10.1007/s11042-017-5002-5 1d7f169e7f38fc1e79a039e38a2ddfce;de;;;7.4.;;;Grobe Mengenalgorithmen im Klassifikationsproblem Wir präsentieren einige Algorithmen, die auf der Grobmengentheorie basieren und für das Problem der Klassifikation neuer Fälle verwendet werden können. Die meisten Algorithmen wurden implementiert und in das Rosetta-System aufgenommen [43]. Wir präsentieren verschiedene Methoden zur Berechnung von Entscheidungsregeln basierend auf Reduktionen. Wir diskutieren das Problem der Diskretisierung von Realwertattributen zur Steigerung der Leistung von Algorithmen und der Qualität von Entscheidungsregeln. Schließlich behandeln wir ein Problem der Auflösung von Konflikten zwischen Entscheidungsregeln, die einen neuen Fall in verschiedene Kategorien (Klassen) einteilen. Schlüsselwörter: Wissensentdeckung, grobe Sets, Klassifikationsalgorithmen, Reduktionen, Entscheidungsregeln, Diskretisierung von Realwertattributen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-1840-6_3 b86bd1eac790c2c5b69a936de323d1c0;de;;;7.4.;;;Überprüfung von Fahrzeugerkennungssystemen in Fahrerassistenzsystemen Fahrerlose Autos und autonome Fahrzeuge haben das Verkehrswesen dieser Tage grundlegend verändert. Der effiziente Einsatz von Vision-Systemen in der jüngsten Entwicklung fortschrittlicher Fahrerassistenzsysteme hat seit den letzten zwei Jahrzehnten Autos und leichte Fahrzeuge ausgestattet, um Unfälle, Staus, Unfälle und Umweltverschmutzung zu reduzieren. Die robuste Leistung der Fahrerassistenzsysteme hängt unbedingt von der einwandfreien Erkennung der Fahrzeuge aus den Bildern ab. Die Entwicklung leistungsstarker Computer-Vision-Techniken auf der Grundlage verschiedener Funktionen auf Bildebene hat es intelligenten Transportsystemen ermöglicht, einige der Kernherausforderungen bei der Fahrzeugerkennung zu lösen. Eine detaillierte Untersuchung der Fahrzeugerkennung unter dynamischen Bedingungen wird in diesem Beitrag vorgestellt. Die Komplexität der Fahrzeugerkennung bei variablen Fahrbedingungen auf der Straße zeigt sich in den vielfältigen Herausforderungen, die in diesem Beitrag dargestellt werden. Der dynamische Fahrzeugerkennungsmechanismus hat offensichtlich zahlreiche Ansätze wie merkmalbasierte Techniken und modellbasierte Techniken angezogen. Zur Erkennung der Fahrzeuge werden verschiedene visuelle Informationsdarstellungen wie Kanten, Schatten und Licht verwendet. Von allen Merkmalen auf niedriger Ebene wird die Formdarstellung für die Fahrzeugerkennung effizienter beobachtet. Die Notwendigkeit, massive visuelle Daten für die Verarbeitung zu verarbeiten, wird unter Verwendung einer neuartigen Merkmalsdarstellung angesprochen, wie Objektvorschlagsverfahren ausführlicher diskutiert wird. Die Wirksamkeit der laufenden Forschung zu autonomen Fahrzeugen wird mit Deep-Learning-Techniken zur Luftbildanalyse validiert.;-;-;-;https://link.springer.com/article/10.1007/s11831-019-09321-3 60c2a85ad1610be6a9d009be13795539;de;;;7.4.;;;Die Kunst der menschlichen Intelligenz und die Technologie der künstlichen Intelligenz: Künstliche Intelligenz Visual Art Research Dieser Artikel soll herausfinden, wie sich menschliche Intelligenz und künstliche Intelligenz durch den Vergleich von Kunst und Technik besser ergänzen können. Hier ist ein Beispiel für die Kunstforschung mit künstlicher Intelligenz. Die Methode lautet: Aus den Merkmalen der künstlerischen Sprache zunächst den Reiz der menschlichen Intelligenz erforschen. Darüber hinaus können wir an den Merkmalen der Fachsprache die Macht der künstlichen Intelligenz spüren. Schließlich können wir anhand der Merkmale der Mensch-Computer-Interaktion und typischer Beispiele untersuchen, wie sich Geisteswissenschaften und Ingenieurwissenschaften ergänzen. In diesem Papier diskutieren wir die Kreativität, künstlerische Standards und Probleme der künstlichen Rezeption in der Kunst der künstlichen Intelligenz, indem wir die neuesten Kunstprogramme für künstliche Intelligenz wie „Creative Adversarial Networks“ (CAN) und Google Deep Dream analysieren. Wir argumentieren, dass Kreativität nicht nur Neuheit wie „Stil-Ambiguität“ und andere Techniken ist, sondern auch Originalität. Das Ergebnis ist die Erkenntnis, dass der Kunststandard nicht auf die Suche in früheren Kunstwerken beschränkt werden kann. Der Kunststandard selbst ist historisch und veränderlich und ist der „wahre Inhalt“. Sowohl Kreativität als auch Kunststandard erfordern, dass wir die allgemeinen Gesetze und Paradigmen der gesamten Kunst verstehen und überdenken. Aus der Perspektive der Kunstrezeption hat die Kunst der künstlichen Intelligenz jedoch ihren eigenen einzigartigen Wert. Seine Bedeutung liegt darin: Es hat der nachrichtendienstlichen Kunsterziehung eine riesige neue Welt eröffnet. Darüber hinaus können wir auch die Denkgewohnheiten von Künstlern und Naturwissenschaftlern bzw. Ingenieurstechnikern anhand der sprachlichen Kognition vergleichen. Als nächstes werden wir untersuchen, dass das kooperative Forschungsthema digitales und textuelles Schachbrett in Kombination mit Mensch-Computer nicht nur Lehrern und Schülern im Kunstvermittlungsprozess helfen wird, ihre eigenen personalisierten Wissensgrundlagen aufzubauen. Es wäre ein besseres Verständnis der Vorteile der Kombination von menschlichem Gehirn und Computer.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-01313-4_15 05564a31a48fb40ee682a7daa293387a;de;;;7.4.;;;Vermeidung von Kollisionen zwischen Tier und Fahrzeug durch Deep Learning in Fahrerassistenzsystemen Die in den letzten Jahren deutlich gestiegene Rate von Tier-Fahrzeug-Kollisionen auf indischen Straßen unterstreicht den dringenden Bedarf an effektiven technologischen Interventionen, die dazu beitragen, Tier-Fahrzeug-Kollisionen in Echtzeit abzuschwächen. Dieses Papier schlägt einen Deep-Learning-Ansatz für die Implementierung des Echtzeit-Kollisionsminderungssystems für Tierfahrzeuge vor. Der Artikel führt eine vergleichende Studie von drei Deep-Learning-basierten Objekterkennungs-Frameworks durch: (1) Mask R-CNN, (2) You Only Look Once (YOLOv3) und (3) MobileNet-SSD. Diese Objektdetektoren werden anhand ihrer mittleren mittleren Präzision (mAP) und Bearbeitungszeiten implementiert, ausgewertet und miteinander verglichen. Die Ergebnisse zeigen, dass die MobileNet-SSD-Architektur den besten Kompromiss zwischen mAP und Verarbeitungszeit bietet und sich unter den drei betrachteten Ansätzen am besten für die Echtzeit-Tiererkennung eignet. Unter Verwendung des trainierten Modells des MobileNet-SSD-basierten Objekterkennungs-Frameworks wird ein Tierfahrzeug-Kollisionsminderungssystem implementiert und gezeigt, dass es in mehreren realen Testszenarien gut funktioniert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9939-8_26 637f55062fd843e55fcff70a0bfedcb9;de;;;7.4.;;;Ein automatischer Deep-Learning-Ansatz für die Kalziumsegmentierung der Koronararterie Koronararterienkalzium (CAC) ist ein signifikanter Marker für Arteriosklerose und kardiovaskuläre Ereignisse. In dieser Arbeit präsentieren wir ein System zur automatischen Quantifizierung des Calcium-Scores in EKG-getriggerten nicht-kontrastverstärkten kardialen Computertomographie (CT) Bildern. Das vorgeschlagene System verwendet einen überwachten Deep-Learning-Algorithmus, d. h. ein Convolutional Neural Network (CNN) zur Segmentierung und Klassifizierung von Kandidatenläsionen als koronare oder nicht, die zuvor mit einem Herzatlas in der Herzregion extrahiert wurden. Wir haben unser Netzwerk mit 45 CT-Bänden trainiert, 18 Bände wurden verwendet, um das Modell zu validieren und 56, um es zu testen. Einzelne Läsionen wurden mit einer Sensitivität von 91,24 %, einer Spezifität von 95,37 % und einem positiven vorhergesagten Wert (PPV) von 90,5% erkannt, wobei der vom System erhaltene Kalziumwert mit dem von einem erfahrenen Bediener manuell bewerteten Kalziumwert verglichen wurde, ein Pearson-Koeffizient von 0,983 wurde erhalten. Eine hohe Übereinstimmung (Cohens;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-5122-7_94 1408a4846c3753799575658e4451359b;de;;;7.4.;;;Eine auf Deep Learning basierende Methode zur Erkennung von Einwänden für hochauflösende Fernerkundungsbilder Die automatische Gebäudeerkennung aus Fernerkundungsbildern spielt in einer Vielzahl von Anwendungen eine wichtige Rolle. In diesem Papier verwenden wir verbesserte U-NET und HF-FCN als Hauptmodelle, um kleine Gebäude zu erkennen, die schwieriger sind als große Gebäude. MUL-Pan Sharpen und PAN-Daten werden als Trainingsdaten verwendet. Als Hauptmodelle wurden verbessertes U-NET und HF-FCN ausgewählt. Um kleine Gebäude zu erkennen, werden kleine Gebäudebereiche überabgetastet und große Gebäudebereiche unterabgetastet. Wir passen morphologische Methoden an, um die Ausgabe des Modells zu erweitern und zu erodieren. Mit der Optimierung der Modellausgaben können wir den abgetrennten Bereich füllen, aber auch einen Teil des falschen Erkennungsrauschens beseitigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9987-0_5 a1747a9487539a5fb3bb9791fb065554;de;;;7.4.;;;Myokardinfarkterkennung mit Deep Learning und Ensemble-Technik aus EKG-Signalen Die automatische und genaue Prognose von Myokardinfarkten (MI) aus Elektrokardiogramm-(EKG)-Signalen ist eine sehr anspruchsvolle Aufgabe für die Diagnose und Behandlung von Herzerkrankungen. Daher haben wir ein Hybrid-Convolutional Neural Network – Long Short-Term Memory Network (CNN-LSTM) Deep-Learning-Modell für die genaue und automatische Vorhersage von Myokardinfarkten unter Verwendung von EKG-Daten vorgeschlagen. Zur Validierung der Modellleistung werden die insgesamt 14552 EKG-Schläge aus der „PTB-Diagnosedatenbank“ verwendet. Das EKG-Schlagzeitintervall und seine Gradientenwert-ID werden direkt als Merkmal betrachtet und als Eingabe für das vorgeschlagene Modell angegeben. Die verwendeten Daten sind unausgeglichene Klassendaten, daher werden synthetische Minoritätsüberabtasttechniken (SMOTE) und Tomek-Verbindungsdatenabtasttechniken verwendet, um die Datenklassen auszugleichen. Die Modellleistung wurde anhand von sechs Arten von Bewertungsmetriken verifiziert und das Ergebnis mit modernsten Methoden verglichen. Die Experimente wurden unter Verwendung des CNN- und CNN + LSTM-Modells sowohl an Unwucht- als auch an Unwuchtdatenproben durchgeführt, und die höchste erreichte Genauigkeit beträgt 99,8 % unter Verwendung der Ensemble-Technik für ausgeglichene Datensätze.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0733-2_51 d7644d13209aa56c789c360da1def67e;de;;;7.4.;;;Adaptiver Fehlalarmfilter mit maschinellem Lernen bei der Intrusion Detection Intrusion-Detection-Systeme (IDSs) werden heutzutage in Unternehmen häufig als letzte Verteidigungsmaßnahme für die Netzwerksicherheit eingesetzt. Eines der großen Probleme dieser Systeme besteht jedoch darin, dass während des Erkennungsprozesses eine große Anzahl von Alarmen, insbesondere Fehlalarmen, erzeugt wird, was den Analyseaufwand erheblich erschwert und die Effektivität der Erkennung verringert. Um dieses Problem zu mildern, plädieren wir dafür, dass die Konstruktion eines Fehlalarmfilters unter Verwendung von maschinellen Lernverfahren eine effektive Lösung ist. In diesem Artikel schlagen wir einen adaptiven Fehlalarmfilter vor, der darauf abzielt, Fehlalarme mit dem besten maschinellen Lernalgorithmus basierend auf unterschiedlichen Netzwerkkontexten herauszufiltern. Insbesondere vergleichen wir zunächst sechs spezifische Schemata für maschinelles Lernen, um ihre instabile Leistung zu veranschaulichen. Anschließend demonstrieren wir die Architektur unseres adaptiven Fehlalarmfilters. Die Evaluationsergebnisse zeigen, dass unser Ansatz in realen Szenarien effektiv und ermutigend ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25658-5_68 a625cf07f3cbc8a62788f7076408a9f8;de;;;7.4.;;;Aktive Lernstrategien: Eine Fallstudie zur Erkennung von Emotionen in der Sprache Machine Learning bezeichnet Methoden und Algorithmen, die es einem Modell ermöglichen, anhand von Beispielen ein Verhalten zu lernen. Aktives Lernen sammelt Methoden, die Beispiele auswählen, die verwendet werden, um einen Trainingssatz für das Vorhersagemodell zu erstellen. Alle Strategien zielen darauf ab, möglichst wenige Beispiele zu verwenden und die informativsten Beispiele auszuwählen. Nachdem das Problem des aktiven Lernens formalisiert und in der Literatur lokalisiert wurde, synthetisiert dieser Artikel im ersten Teil die wichtigsten Ansätze des aktiven Lernens. Die Berücksichtigung von Emotionen in der Mensch-Maschine-Interaktion kann für die intelligente Systemgestaltung hilfreich sein. Die Hauptschwierigkeit bei der Konzeption des automatischen Rangiersystems von Call Centern sind die Kosten für die Datenkennzeichnung. Der letzte Abschnitt dieses Papiers schlägt vor, diese Kosten dank zweier aktiver Lernstrategien zu reduzieren. Die Studie basiert auf realen Daten aus der Nutzung eines Vocal-Börsenservers.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73435-2_18 34f00621df7b6d4ca5e39293abc24ad4;de;;;7.4.;;;Aufmerksamkeits-Payload-Anomalie-Detektor für Webanwendungen Heutzutage beeinflussen Webanwendungen Menschen tief und werden zu beliebten Zielen von Angreifern. Die Erkennung von Nutzlastanomalien ist eine effektive Methode, um die Sicherheit von Webanwendungen zu gewährleisten, erfordert jedoch geeignete Funktionen, deren Entwicklung Experten und Forscher viel Zeit und Mühe kosten. Die Verwendung der Deep-Learning-Techniken für die Erkennung ist eine Lösung für das Feature-Design-Problem, da Deep-Learning-Modelle Features während des Trainingsprozesses lernen und hervorragende Leistungen erzielen können. Aktuelle Deep-Learning-Nutzlasterkennungsmodelle haben jedoch ihre Grenzen bei der Verarbeitung langer Sequenzen, was die Erkennungsleistung reduziert. Und aufgrund der aufwendigen Datenverarbeitung sind die Ergebnisse der Modelle nicht überzeugend. In diesem Artikel haben wir ein Aufmerksamkeitsrekurrentes neuronales Netz (RNN)-Modell für die Nutzlasterkennung vorgeschlagen, das ATPAD genannt wird. Mit dem Aufmerksamkeitsmechanismus generiert ATPAD effektive Funktionen für die Erkennungsaufgaben und bietet eine visualisierte Möglichkeit, Erkennungsergebnisse zu überprüfen. Die Versuchsergebnisse zeigen, dass unser vorgeschlagenes Modell nicht nur hohe Erkennungsraten und niedrige Fehlalarmraten erreicht, sondern auch verständliche Ergebnisse liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-04212-7_52 66501e4ab878f9c92278b2e3aec32374;de;;;7.4.;;;Neue Anwendungen von Klassifikator-Ensembles Die Kombination (Ensembles) von Klassifikatoren ist heute eine gut etablierte Forschungslinie. Es wurde beobachtet, dass die Vorhersagegenauigkeit einer Kombination unabhängiger Klassifikatoren die des einzelnen besten Klassifikators übertrifft. Während zur Erzielung einer höheren Erkennungsgenauigkeit meist Ensembles von Klassifikatoren eingesetzt wurden, konzentriert sich dieser Beitrag auf die Verwendung von Kombinationen einzelner Klassifikatoren zur Behandlung verschiedener Probleme aus der Praxis im Bereich Machine Learning, Mustererkennung und Data Mining. Die vorgestellte Studie konzentriert sich insbesondere auf das Management des Problems der unausgeglichenen Trainingsstichprobe, das Hochskalieren einiger Vorverarbeitungsalgorithmen und das Filtern des Trainingssatzes. Hier werden all diese Situationen hauptsächlich im Zusammenhang mit dem nächstgelegenen Nachbarklassifikator untersucht. Experimentelle Ergebnisse zeigen das Potenzial von Mehrfachklassifikatorsystemen, wenn sie auf diese Situationen angewendet werden.;-;-;-;https://link.springer.com/article/10.1007/s10044-003-0192-z f0207fff097c71a8f81c478d14392a04;de;;;7.4.;;;Terminal Security Protection System des Power Internet of Things basierend auf maschinellem Lernen Das Power IoT Terminal Security System ist ein Schlüsselsystem zum Verständnis des Betriebs und der Steuerung von Niederspannungs- und Mittelspannungsverteilungsnetzen. Das Verteilungsnetz hat die Funktion, Informationen zu überwachen und zu kontrollieren. Die technischen Eigenschaften des Internet of Things sind sowohl in der Fehlerbehandlung als auch in der Implementierung der Struktur der Anwendung verankert. Die Entwicklung der Power-Internet-of-Things-Terminal-Sicherheitssystemtechnologie ist ein unvermeidlicher Trend bei der Modernisierung von Stromversorgungssystemen, und der Power-Internet-of-Things-Terminal-Sicherheitsschutz ist das wichtigste Mittel zur Gewährleistung der Zuverlässigkeit. Mit der Jahr für Jahr angespannten Situation der Netzsicherheit in unserem Land und der zweiten Überholungsrunde des nationalen Stromnetzes hat die Netzsicherheit von verteilten Netzautomatisierungssystemen jedoch immer mehr Aufmerksamkeit auf sich gezogen. Dieser Artikel beginnt mit dem Sicherheitsschutzsystem für das Internet der Dinge und konzentriert sich auf das Stromterminal für das Internet der Dinge, um die Analyse und Forschung des Sicherheitsschutzsystems zu diskutieren. In diesem Artikel werden hauptsächlich die Entscheidungsbaummethode und die Reinforcement-Learning-Methode vorgestellt. Dieses Papier verwendet die Entscheidungsbaummethode und die Reinforcement-Learning-Methode, um das Terminal-Sicherheitsschutzsystem des Power Internet of Things zu analysieren und zu erforschen und ein potenzielles mathematisches Modell zu erstellen. Das Modell wird durch das Reinforcement-Learning-Verfahren gelöst, der Analysestatus bewertet und das Modell mit historischen Daten überarbeitet, um die Genauigkeit der Analyse und Erkennung zu verbessern. Die experimentellen Ergebnisse dieses Papiers zeigen, dass die Methode des Reinforcement Learning die Analyseeffizienz des Sicherheitsschutzsystems für Strom-IoT-Terminals um 13% verbessert. Schließlich wird durch den Vergleich des Sicherheitsschutzsystems und der Effizienz vor und nach dem Schutz der Einfluss des maschinellen Lernens auf die Analyse des Terminalsicherheitsschutzsystems des Power Internet of Things analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-79197-1_8 64b21115d81ddc961874c9c73eb3aa4e;de;;;7.4.;;;Prädiktive Big-Data-Analysen für die Prognose der Lieferkette: Methoden, Anwendungen und Forschungsmöglichkeiten Big Data Analytics (BDA) im Supply Chain Management (SCM) findet zunehmend Beachtung. Dies liegt daran, dass BDA ein breites Anwendungsspektrum im SCM hat, einschließlich Kundenverhaltensanalyse, Trendanalyse und Nachfrageprognose. In dieser Umfrage untersuchen wir die prädiktiven BDA-Anwendungen in der Lieferketten-Nachfrageprognose, um eine Klassifizierung dieser Anwendungen vorzuschlagen, die Lücken zu identifizieren und Erkenntnisse für zukünftige Forschungen bereitzustellen. Wir klassifizieren diese Algorithmen und ihre Anwendungen im Supply Chain Management in Zeitreihenprognose, Clustering, K-nächste Nachbarn, neuronale Netze, Regressionsanalyse, Support Vector Machines und Support Vector Regression. Diese Umfrage weist auch darauf hin, dass die Literatur insbesondere zu den Anwendungen von BDA zur Bedarfsprognose bei Closed-Loop-Supply Chains (CLSCs) fehlt und zeigt dementsprechend Wege für zukünftige Forschung auf.;-;-;-;https://link.springer.com/article/10.1186/s40537-020-00329-2 04ece81979ca592db8e31deacb9dd592;de;;;7.4.;;;Untersuchung von Techniken des maschinellen Lernens an Unfalldaten Verkehrsunfälle sind eines der brennendsten Probleme für Bangladesch. Es gibt mehrere Faktoren, die für das Auftreten von Verkehrsunfällen verantwortlich sind. Wenn wir die Ursachen verstehen und die Schwere einer bestimmten Unfallart im Voraus vorhersagen können, können wir rechtzeitig die notwendigen Schritte einleiten, um den Schaden zu mindern. In dieser Studie haben wir mithilfe von Methoden des maschinellen Lernens einige Vorhersagemodelle für verschiedene homogene Verkehrsunfallgruppen in Bangladesch erstellt, die den jeweiligen Schweregrad eines Verkehrsunfalls basierend auf den Umweltfaktoren und Straßenbedingungen vorhersagen können. Wir haben Agglomerative Hierarchical Clustering angewendet, um verschiedene Cluster von Verkehrsunfällen zu finden, und dann die Random-Forest-Technik angewendet, um die signifikanten Prädiktoren jedes Clusters zu extrahieren und dann C5.0 angewendet, um Vorhersagemodelle für jeden Cluster zu erstellen. Schließlich haben wir die Muster der tödlichen und nicht-tödlichen Unfälle in Bangladesch durch die Technik der Regelgenerierung diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63119-2_3 c6310188517a43b0fee48353ef4cdfb2;de;;;7.4.;;;Bewertung der priorisierten Deep System Identification bei einer Path-following-Aufgabe Dieses Papier befasst sich mit der Systemidentifikation und zeigt, wie neue Paradigmen aus dem maschinellen Lernen verwendet werden können, um sie im Fall nichtlinearer Systemmodellierung aus verrauschten und unausgeglichenen Datensätzen zu verbessern. Wir zeigen, dass die Verwendung von Wichtigkeitsstichprobenschemata bei der Systemidentifikation eine signifikante Leistungssteigerung bei der Modellierung bewirken kann, was für einen prädiktiven Controller hilfreich ist. Die Leistungsfähigkeit des Ansatzes wird zunächst anhand simulierter Daten eines unbemannten Oberflächenfahrzeugs (Unmanned Surface Vehicle, USV) bewertet. Unser Ansatz übertrifft bei diesem Datensatz durchweg die Basisansätze. Darüber hinaus demonstrieren wir die Vorteile dieser Identifizierungsmethodik in einer Kontrollumgebung. Wir verwenden das Modell des unbemannten Oberflächenfahrzeugs (USV) in einem Model Predictive Path Integral (MPPI) Controller, um eine Spurverfolgungsaufgabe durchzuführen. Wir diskutieren den Einfluss der Reglerparameter und zeigen, dass das priorisierte Modell Standardmethoden übertrifft. Schließlich wenden wir das Model Predictive Path Integral (MPPI) mit dem hier entwickelten Know-how auf ein reales System an.;-;-;-;https://link.springer.com/article/10.1007/s10846-021-01341-1 89e7bdf2306b26044477c4035ec67c21;de;;;7.4.;;;Präzise natürliche Sprache und Protoformen für konsistentes Data Mining durch den Menschen Wir zeigen, wie Zadehs Konzepte einer präzisierten natürlichen Sprache (PNL) und Protoformen zu einer neuen Richtung in der Verwendung natürlicher Sprache im Data Mining, linguistischen Datenbankzusammenfassungen führen können. Wir zeigen, dass verschiedene Typen von linguistischen Datenzusammenfassungen als Elemente in einer Hierarchie von Prototypen von Zusammenfassungen angesehen werden können. Wir stellen kurz eine Implementierung für eine Verkaufsdatenbank eines Computerhändlers vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45240-9_15 2b865b99f58839293ac44ea497636055;de;;;7.4.;;;Anomalieerkennung in der Cloud: Sicherheitsvorfälle durch maschinelles Lernen erkennen Cloud Computing steht nun kurz davor, als ernsthaftes Nutzungsmodell angenommen zu werden. Während die Auslagerung von Services und Workflows in die Cloud unbestreitbare Vorteile in Bezug auf Kostenflexibilität und Skalierbarkeit bietet, gibt es jedoch kaum Fortschritte bei der Sicherheit (die die Zuverlässigkeit beeinflussen kann), Transparenz und Incident-Handling. Das Problem der Anwendung der bestehenden Sicherheitstools in der Cloud ist zweifach. Erstens berücksichtigen diese Tools nicht die spezifischen Angriffe und Herausforderungen von Cloud-Umgebungen, z. B. Cross-VM-Seitenkanalangriffe. Zweitens konzentrieren sich diese Tools auf Angriffe und Bedrohungen auf nur einer Abstraktionsebene, z. B. dem Netzwerk, dem Dienst oder den Workflow-Ebenen. Daher ist die semantische Lücke zwischen Ereignissen und Warnungen auf verschiedenen Ebenen noch ein offenes Thema. Ziel dieses Papiers ist es, die laufenden Arbeiten zu einem Monitoring-as-a-Service-Anomalieerkennungs-Framework in einer Hybrid- oder Public Cloud vorzustellen. Das Ziel unseres Frameworks ist zweierlei. Erstens schließt es die Lücke zwischen Vorfällen auf verschiedenen Ebenen von Cloud-basierten Workflows, dh wir konzentrieren uns sowohl auf die Workflow- als auch auf die Infrastrukturebenen. Zweitens bewältigt unser Framework Herausforderungen, die sich aus der Cloud-Nutzung ergeben, wie beispielsweise die Mandantenfähigkeit. Unser Framework verwendet komplexe Regeln zur Ereignisverarbeitung und maschinelles Lernen, um benutzerspezifische Metriken zu erkennen, die zur Bewertung des Sicherheitsstatus des überwachten Systems verwendet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45260-4_8 34ee62af96d4754e776fe07f2a6070d5;de;;;7.4.;;;Informationsfusion und maschinelles Lernen in der räumlichen Vorhersage für lokale Agrarmärkte Diese Forschung untersucht Informationsfusions- und Data-Mining-Techniken und schlägt eine Methodik vor, um Vorhersagen basierend auf starken Assoziationen zwischen landwirtschaftlichen Produkten zu verbessern, die Vorhersagen für den zukünftigen Verbrauch auf lokalen Märkten in der Andenregion Ecuadors mithilfe räumlicher Vorhersagetechniken ermöglicht. Diese kommerzielle Aktivität wird über Alternative Marketing Circuits (CIALCO) durchgeführt, um eine direkte Beziehung zwischen Erzeuger- und Verbraucherpreisen herzustellen und den Kauf und Verkauf zwischen Familiengruppen zu fördern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94779-2_21 71f218a1506776db62a7e4051373533b;de;;;7.4.;;;Datenanalyse für die Kursanmeldung Data Mining ist ein Wissensentdeckungsprozess, um die interessanten, zuvor unbekannten, potenziell nützlichen und nicht trivialen Muster aus großen Datenbeständen zu extrahieren. Das Interesse an Data Mining in Bildungssystemen steigt derzeit und macht es zu einer wachsenden neuen Forschungsgemeinschaft. In diesem Beitrag wird ein Ansatz zur Extraktion von häufigen Mustern verwendet, um die Verteilung von Lehrveranstaltungen an Universitäten zu analysieren, an denen es Kern- und Wahlfächer gibt. Das System analysiert die Daten, die in der Datenbank der Abteilung gespeichert sind. Ziel ist es zu prüfen, ob die Zuordnung von Lehrveranstaltungen angemessen ist, wenn sie von den meisten Studierenden eher im selben Semester belegt werden. Es wird ein Workflow vorgeschlagen, bei dem davon ausgegangen wird, dass die Daten für bereits promovierte Studierende über viele Semester hinweg gesammelt werden. Eine Fallstudie wird vorgestellt und die Ergebnisse werden zusammengefasst. Die Ergebnisse zeigen die Bedeutung des vorgeschlagenen Systems zur Analyse der Kursanmeldung in einem bestimmten Fachbereich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-21024-7_24 7fc4c8fdb59d98ef636350c30a884944;de;;;7.4.;;;Ein Deep-Learning-Ansatz zur Spracherkennung von Ziffern Eine der Technologien, die in den letzten Jahren an Popularität gewonnen hat, ist die Spracherkennung. Diese Technologie hat eine breite Benutzerbasis, die von Organisationen bis hin zu Einzelpersonen reicht, um die verschiedenen Vorteile zu nutzen, die sie bietet. Heute gibt es viele virtuelle Sprachassistenten auf dem Markt – Siri, Cortana und Alexa, um nur einige zu nennen. Sie alle erfordern jedoch eine aktive Internetverbindung und werden nicht auf allen Geräten unterstützt. Wir haben ein Ziffernerkennungssystem entwickelt, das offline auf Desktop- und Mobilgeräten funktioniert. Dieses Sprach-zu-Text-System kann eine zwischen 0 und 9 gesprochene Ziffernfolge erkennen und Variationen wie „doppelt zwei“ und „dreifach sechs“ unterscheiden. Unser Ansatz besteht darin, ein Digit-Sequenz-Audio als Eingabe aufzuzeichnen und es vorzuverarbeiten, indem die Spitzenamplituden extrahiert werden, gefolgt von der Merkmalsextraktion der Mel Frequency Cepstral Coefficients (MFCC) und schließlich der Einspeisung des Merkmalsvektors in ein künstliches neuronales Netzwerk, das die wahrscheinlichste Klasse ausgibt. Anschließend haben wir das Modell in eine minimierte Konfiguration exportiert, die auf einer mobilen Plattform einfach zu verwenden ist. Wir haben eine Genauigkeit von 87% für das Validierungsset und 86% für das Testset erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9939-8_11 ede86f451acc923bff1f1c80415c7aaa;de;;;7.4.;;;Big Data Analytics in Social Media: Eine Triple-T-Studie (Typen, Techniken und Taxonomie) Society 2.0 macht die Social-Media-basierte Plattform mit Hilfe der jüngsten Fortschritte im Internet und der Web 2.0-Technologie zur beliebtesten Quelle für Big-Data-Forschung. Big Data Analytics trägt dazu bei, indem es aufschlussreiche Empfehlungen aus dieser riesigen Quelle lauter und meist unstrukturierter „Big Social Data“ anpasst, analysiert und prognostiziert. Wir stellen 10 am häufigsten verwendete Big-Data-Analysen im Arbeitsbereich von Social-Media-basierten Plattformen vor. In dieser Studie werden auch verschiedene gängige Techniken oder Algorithmen in Bezug auf jede Big-Data-Analyse aufgeführt. Wir zeigen, dass „Text Analytics“ die beliebteste Big Data Analytics in der Social Media Datenanalyse ist. Durch diese Forschung versuchen wir die 10 Bigs von Big Data zu erklären und stellen das „Sonnenblumenmodell von Big Data“ vor. Wir erklären auch, warum die Social-Media-basierte Plattform eine so bedeutende und beliebte Quelle für Big Data ist, indem wir die neuesten Statistiken analysieren. Diese Studie wird eine Handvoll für alle anderen Forschenden sein, die mit Big Data in Social Media arbeiten und sich im Vorfeld die Arbeit erleichtern wollen, um die für ihre Forschungsarbeit am besten geeignete Big-Data-Analytics-Methode auszuwählen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-70416-2_62 0971487a616beecdff5255d7db1b799b;de;;;7.4.;;;Untersuchung des Zusammenhangs von Spannungskopfschmerz und Diabetes: IoT-Perspektive im Gesundheitswesen Die digitale Technologie hat das Gesundheitswesen heute verändert. Viele Daten beziehen sich auf Big Data, die durch die Digitalisierung von allem gesammelt werden. Informationen, die aus einer Vielzahl von Quellen gesammelt wurden, konzentrieren sich darauf, die Art und Weise, wie sich die Gesundheitsversorgung mithilfe von Technologie entwickelt hat, zu verändern. Die Gesundheitsanalyse ist die Fähigkeit, Möglichkeiten zur Kostensenkung, Verbesserung der Patientenergebnisse und zur Vorbeugung vermeidbarer Krankheiten zu erkennen und vorzuschlagen. Künstliche Intelligenz, auch künstliche Intelligenz genannt, sind Informationen, die von einer Maschine im Vergleich zu den natürlichen Informationen von Menschen und anderen Tieren angezeigt werden. KI-Technologien sind heute in den verschiedenen Branchen der Welt verbreiteter: Energie und Gesundheitsvorsorge. Das Erlernen der Maschine ist ein weiterentwickeltes technologisches Werkzeug, das künstliche Intelligenz nutzt, um unsichere Bereiche von Geschäftsmodellen zu erfassen. Diabetes ist eine der wichtigsten chronischen Erkrankungen. Die Krankheit wird durch Blutzucker (Glukose) verursacht, der durch die Unfähigkeit verursacht wird, Energie aus der Nahrung aufzunehmen, insbesondere Glukose. Im Laufe der Zeit neigen Menschen mit Diabetes dazu, langfristige Probleme mit Bluthochdruck, koronaren Herzkrankheiten, Augenerkrankungen usw. zu haben. Der Zweck dieser Studie war es, die Diabetesanalyse von koronaren Herzkrankheiten und anderen Krankheiten mit den neuesten Technologien zu untersuchen zu analysieren und den Zusammenhang zwischen Big Data und Belastungen für die menschliche Gesundheit. Im Allgemeinen haben Menschen mit Spannungskopfschmerz im Allgemeinen hohen Blutdruck. Bei sechs von acht Probanden wurde Hypertonie mit Kopfschmerz vom Spannungstyp und 75 % Kopfschmerz vom Spannungstyp berichtet. Diese Zahlen zeigen deutlich, dass Bluthochdruck mit Kopfschmerz vom Spannungstyp verbunden ist. Wenn eine Person an einem Tag Diabetes oder Bluthochdruck entwickelt oder Diabetes entwickelt, tritt TTH am wahrscheinlichsten auf und ist eher männlich.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4112-4_4 412e2c77294176884d894a34de99d20f;de;;;7.4.;;;Klassifikation von Hautläsionen mit Deep Learning Hautkrebs ist eine Volkskrankheit und gilt als eine der häufigsten Krebsarten beim Menschen. Im Laufe der Jahre haben verschiedene bildgebende Verfahren eine Verbesserung und Zuverlässigkeit im Diagnoseprozess von Hautkrebs gezeigt. Es gibt jedoch einige Herausforderungen, zuverlässige und rechtzeitige Ergebnisse zu erzielen, da die Einführung klinischer computergestützter Systeme noch begrenzt ist. Mit dem jüngsten Aufkommen von Lernalgorithmen und ihrer Anwendung in der Computer Vision ergibt sich die Notwendigkeit einer Kombination aus ausreichend klinischer Expertise und Systemen, um bessere Ergebnisse zu erzielen. Hier versuchen wir, die Lücke zu schließen, indem wir das in aktuellen Deep Learning-Techniken enthaltene kollektive Wissen auswerten, um die zugrunde liegenden Prinzipien für den Entwurf eines neuronalen Netzwerks zur Klassifizierung von Hautkrankheiten zu entdecken. Die Lösung basiert auf der Zusammenführung von Top-N-Leistungsmodellen, die als Merkmalsextrahierer und einer SVM verwendet werden, um die Klassifizierung von Krankheiten zu erleichtern. Das endgültige Modell ergab eine Genauigkeit von 86 % im ISIC 2019-Datensatz sowie eine hohe Präzision und Rückrufwerte von 0,8 bzw. 0,6.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8391-9_42 7400d1b0bd06acde802e6246dde4ecb3;de;;;7.4.;;;Management in der Gefühlsökonomie Auf dem Weg von der Thinking Economy zur Feeling Economy muss sich das Management ändern. Der Schlüssel zu dieser neuen Ära liegt darin, dass KI nicht länger als dem Menschen untergeordnet betrachtet wird. Stattdessen werden Mensch und KI Teamkollegen sein, die zusammenarbeiten, um die Arbeit zu erledigen. KI wird als gleichberechtigtes Mitglied des Teams gesehen und wird zunehmend mehr Denkaufgaben des Teams übernehmen. Diese Teamarbeit wird mehr Zusammenarbeit als Erweiterung sein, wobei KI zunehmend als gleichberechtigtes Mitglied des Teams angesehen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-52977-2_11 c57006ba8fd9975f3a2bca51a5cdc63e;de;;;7.4.;;;Betrugserkennung für die Stellenvermittlung mit hierarchischen Cluster-basierten tiefen neuronalen Netzen Fraud Detection wird zu einem integralen Bestandteil von Business Intelligence, da die Erkennung von Betrug in den Arbeitsprozessen eines Unternehmens von großem Wert ist. Betrug ist ein Hemmfaktor für eine genaue Bewertung bei der Bewertung eines Unternehmens und ist wirtschaftlich ein Verlustfaktor für Unternehmen. Frühere Studien zur Betrugserkennung haben die Leistungssteigerung eingeschränkt, da sie das Betrugsmuster der gesamten Daten gelernt haben. Dieses Papier schlägt eine neuartige Methode vor, die hierarchische Cluster basierend auf tiefen neuronalen Netzen verwendet, um detailliertere Betrugsfälle sowie Betrug ganzer Daten in den Arbeitsprozessen der Arbeitsvermittlung aufzudecken. Die vorgeschlagene Methode, Hierarchical Clusters-based Deep Neural Networks (;-;-;-;https://link.springer.com/article/10.1007/s10489-019-01419-2 9900add9345f79cc747ae74ca32de107;de;;;7.4.;;;Erkennung und Identifizierung von Krankheiten mithilfe von Sequenzdaten- und Informationsabrufmethoden Gegenwärtige klinische Methoden stützen die Erkennung und Identifizierung von Krankheiten stark auf die Beschreibung der Symptome durch den Patienten. Dies führt zu Ungenauigkeiten aufgrund von Fehlern, die bei der Quantifizierung der Symptome auftreten können, und gibt auch keine vollständige Vorstellung über das Vorliegen einer bestimmten Krankheit. Die Vorhersage von Zellkrankheiten ist noch schwieriger, denn wir haben kein Maß für die genaue Quantität, Qualität und Extremität. Die typischen Symptome dieser Erkrankungen werden erst in einem späteren Stadium sichtbar, so dass die Krankheit leise fortschreitet. Dieses Papier bietet einen effizienten und neuartigen Weg zur Erkennung und Identifizierung von Pankreatitis und Brustkrebs unter Verwendung einer Kombination von Sequenzdaten und Informationsabrufalgorithmen, um die genauesten Ergebnisse zu liefern. Das entwickelte System unterhält eine Wissensdatenbank über die Mutationen der Erkrankungen, die Brustkrebs und Pankreatitis verursachen, und verwendet daher Techniken der Proteinsequenzbewertung und des Informationsabrufs, um die beste Übereinstimmung der Proteinsequenz des Patienten mit den gespeicherten Mutationen bereitzustellen. Das System wurde mit online verfügbaren Mutationen getestet und liefert zu 98 % genaue Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-81-322-2538-6_58 0f8c1656f9551d961ec327b8fdc63d53;de;;;7.4.;;;Eine Methode zur Vorhersage des Agentenverhaltens durch den Einsatz von Data-Mining-Techniken Eines der interessantesten Themen in der Agententechnologie war schon immer die Modellierung und Verbesserung des Agentenverhaltens. Es gibt zahlreiche Ansätze, die versuchen, sowohl die inneren Zustände als auch die wahrgenommene Umgebung eines Agenten optimal abzubilden, um ihm entweder Reaktivität oder Proaktivität zu verleihen. Im Rahmen dieser Arbeit wird eine alternative Methode zur Verbesserung des Agentenverhaltens vorgestellt. Das Kernmerkmal dieser Methodik besteht darin, dass sie Wissen nutzt, das durch den Einsatz von Data-Mining-Techniken für historische Daten gewonnen wird, Daten, die die Aktionen von Agenten innerhalb des MAS beschreiben, in dem sie sich befinden. Die Hauptprobleme im Zusammenhang mit dem Design, der Entwicklung und der Bewertung einer solchen Methodik zur Vorhersage von Agentenaktionen werden diskutiert, während die grundlegenden Zugeständnisse, die gemacht wurden, um Agentenkooperation zu ermöglichen, umrissen werden. Wir präsentieren auch;-;-;-;https://link.springer.com/chapter/10.1007/11492870_13 12b36e935a9bc7d24a4deaf1c7a7e5f0;de;;;7.4.;;;Modell des überwachten maschinellen Lernens, um Controller bei der Lösung von Flugzeugkonflikten zu unterstützen Wenn sich zwei oder mehr Flugzeuge auf ihrer Flugbahn weniger als einen Mindestabstand voneinander befinden, spricht man von einer Konfliktsituation. Um einen Konflikt zu lösen, verwenden Fluglotsen verschiedene Arten von Informationen und entscheiden spontan über Maßnahmen, die Piloten anwenden müssen. Mit der Zunahme des Flugverkehrs steigt die Arbeitsbelastung der Lotsen, schnelle und genaue Entscheidungen werden für den Menschen immer komplexer. Unsere Forschungsarbeit zielt darauf ab, die Arbeitsbelastung der Controller zu reduzieren und ihnen zu helfen, die am besten geeigneten Entscheidungen zu treffen. Genauer gesagt ist es unser Ziel, ein Modell zu entwickeln, das die bestmöglichen Maßnahmen zur Lösung von Flugzeugkonflikten basierend auf vergangenen Entscheidungen oder Beispielen lernt. Als erste Schritte in dieser Arbeit stellen wir ein Conflict Resolution Deep Neural Network (CR-DNN)-Modell sowie den Bewertungsrahmen vor, dem wir zur Bewertung unseres Modells folgen werden, und einen von uns entwickelten Datensatz zur Bewertung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-55814-7_31 d5e336f6b2ca83b397cc65baa0ed32d6;de;;;7.4.;;;GAN-basiertes System zur Erkennung von unausgewogenen Datenintrusion Entsprechend der Entwicklung von Deep-Learning-Technologien wird eine Vielzahl von Forschungen durchgeführt, um Einbruchsdaten unter Verwendung großer Datenmengen zu erkennen. Obwohl Deep Learning beim Lernen großer Datenmengen genauer abschneidet als maschinelle Lernalgorithmen, nimmt die Leistung beim Lernen aus unausgewogenen Daten deutlich ab. Und obwohl es viele Studien zu unausgewogenen Daten gibt, haben die meisten Schwächen, die zu Datenverlust oder Überanpassung führen können. Der Zweck dieser Studie besteht darin, Datenungleichgewichte mithilfe des Generative Adversarial Networks (GAN)-Modells zu lösen, einer unüberwachten Lernmethode des Deep Learning, die neue virtuelle Daten ähnlich den vorhandenen Daten generiert. Es schlug auch ein Modell vor, das als Random Forest klassifiziert wird, um die Erkennungsleistung zu identifizieren, nachdem Datenungleichgewichte basierend auf einem GAN behoben wurden. Die Ergebnisse des Experiments zeigten, dass die Leistung des in diesem Papier vorgeschlagenen Modells besser war als das Modell, das ohne Berücksichtigung des Ungleichgewichts der Daten klassifiziert wurde. Darüber hinaus wurde festgestellt, dass die Leistung des in diesem Papier vorgeschlagenen Modells im Vergleich zu anderen Modellen, die zuvor häufig für das Problem des Datenungleichgewichts verwendet wurden, hervorragend war.;-;-;-;https://link.springer.com/article/10.1007/s00779-019-01332-y 95e4fc38a7469633f204eeb45e6ced50;de;;;7.4.;;;Eine auf Wortvektordarstellung basierende Methode zur Entdeckung neuer Wörter in massivem Text Die Entdeckung neuer Wörter ist für die chinesische Sprache von großer Bedeutung für die Verarbeitung natürlicher Sprache. In den letzten Jahren hat das Trainieren von Wörtern in einem Korpus in eine neue Wortvektordarstellung mit einem neuronalen Netzmodell eine gute Leistung bei der Darstellung der ursprünglichen semantischen Beziehung zwischen Wörtern gezeigt. Dementsprechend wird die Wortvektordarstellung dann in die Entdeckung neuer Wörter im chinesischen Text eingeführt. In dieser Arbeit schlagen wir eine neue unüberwachte Methode zur Entdeckung neuer Wörter basierend auf der n-Gramm-Methode vor. Zu diesem Zweck trainieren wir zuerst die Wörter im Korpus in einen Wortvektorraum und kombinieren dann einige Elemente im Korpus als Kandidaten für neue Wörter. Schließlich werden die Rauschkandidaten basierend auf der Ähnlichkeit zwischen zwei Elementen im neuen Wortvektorraum weggelassen. Durch den Vergleich mit einigen klassischen unüberwachten Methoden wie gegenseitiger Information und angrenzender Entropie zeigen die Versuchsergebnisse, dass die vorgeschlagene Methode einen großen Leistungsvorteil bei der Entdeckung neuer Wörter hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-50496-4_7 1dc6beb59ef56c77dedbc901f6c45ecb;de;;;7.4.;;;Algorithmen für lebenslanges Lernen Machine Learning ist es noch nicht gelungen, robuste Lernalgorithmen zu entwickeln, die aus sehr kleinen Datensätzen gut generalisieren. Im Gegensatz dazu verallgemeinern Menschen oft nur aus einem einzigen Trainingsbeispiel richtig, selbst wenn die Anzahl potenziell relevanter Merkmale groß ist. Dazu nutzen sie erfolgreich das in früheren Lernaufgaben erworbene Wissen, um nachfolgendes Lernen zu verzerren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5529-2_8 c7085c6eb31473ad5404901a26446992;de;;;7.4.;;;Gemüsebewertung mit taktiler Sensorik und maschinellem Lernen Mit dem Aufkommen des E-Commerce hat die automatisierte Online-Einstufung von Obst und Gemüse in letzter Zeit bedeutende Forschungsinteressen erlangt. Um eine Vorstellung von der Frische von Obst und Gemüse zu bekommen, ist die Weichheits- bzw. Dieses Papier schlägt und implementiert ein grundlegendes berührungsempfindliches Robotersystem zur Reifeklassifizierung von zwei Gemüsesorten unter Verwendung von Ansätzen des maschinellen Lernens. Zwei piezoresistive Kraftsensoren, die an einem Robotergreifer montiert sind und von einem PIC32-Mikrocontroller gesteuert werden, werden verwendet, um taktiles Feedback zu einer vordefinierten Tastsequenz eines Objekts zu erhalten. Acht statistische Parameter werden aus den Kraftwerten jeder Instanz des Datensatzes während der taktilen Palpation generiert. Diese Parameter dienen als Eingabe für Support Vector Machine (SVM)- und K-Nearest Neighbor (KNN)-Ansätze. Eine Studie und Analyse dieser Machine Learning-Methoden wurde in diesem Papier durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07353-8_10 51107a2ee29e71bbbacd2480130eef66;de;;;7.4.;;;Hybride SDN-Bereitstellung mit maschinellem Lernen Software-Defined Networking (SDN) hat in den letzten Jahren als zukünftige Kommunikationsnetzwerkarchitektur enorme Aufmerksamkeit auf sich gezogen. Die SDN-Bereitstellung in Legacy-Netzwerken wird jedoch nach und nach über einen bestimmten Zeitraum hinweg schrittweise erfolgen, insbesondere für größere Netzwerke, die aus hundert oder mehr Knoten bestehen. Jede Migration (d. h. Ersetzen oder Aufrüsten) von SDN-fähigen Knoten erfordert erhebliche Optimierungsanstrengungen in Bezug auf Investitionskosten, Netzwerkstabilität und Leistungssteigerungen. Bisher hat die Literatur verschiedene statische heuristische Algorithmen vorgeschlagen, um die Migrationssequenz von SDN-aktivierten Knoten für eine SDN-Bereitstellung mit mehreren Perioden in einem Legacy-Netzwerk zu berechnen. Das Ziel jeder berechneten Migrationssequenz besteht darin, die Netzleistungsgewinne in Bezug auf verschiedene Einschränkungen zu verbessern. Die Dynamik eines einzigartigen Netzwerks, wie Verkehrswachstum oder Topologieänderung, kann jedoch nicht umfassend mit einem statischen heuristischen Algorithmus über die Bereitstellungsdauer hinweg berücksichtigt werden. Maschinelles Lernen (ML) hingegen hat sich bei verschiedenen dynamischen und nichtlinearen Problemen in verschiedenen Domänen erfolgreich bewährt. In diesem Artikel fassen wir zunächst den generischen Workflow für ML im Netzwerkbereich zusammen. Anschließend untersuchten wir das Problem der SDN-Bereitstellung in Legacy-Netzwerken aus der Perspektive von ML. Wir haben ein SDN-Bereitstellungsproblem vorgeschlagen, das als Markov-Entscheidungsprozess formuliert ist, und Verstärkungslerntechniken wie Qlearning und SARSA können zur Modellierung des Problems verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4069-5_19 0a71e74ab843ab33ee582c8bf61da7d5;de;;;7.4.;;;Ethische Aspekte der Auswirkungen von KI: Der Status des Menschen im Zeitalter der künstlichen Intelligenz Einerseits ist KI ein funktionales Werkzeug, um Menschen von alltäglichen Arbeitsaufgaben zu emanzipieren und so die Möglichkeiten ihrer Selbstverwirklichung und der Nutzung individueller Interessen und Wünsche durch sinnvolleren Zeitaufwand zu erweitern. Andererseits bestehen unbestreitbare Risiken im Zusammenhang mit übermäßiger Maschinenautonomie und eingeschränkter menschlicher Kontrolle aufgrund der unzureichenden Fähigkeit, die Leistung dieser Systeme zu überwachen und Fehler oder Schäden zu vermeiden (Floridi et al.;-;-;-;https://link.springer.com/article/10.1007/s12115-021-00586-8 c3172f7baaedd28991c62db9253613ee;de;;;7.4.;;;Algorithmusauswahl und Modellbewertung im Anwendungsdesign mit maschinellem Lernen KI ist zu einem zentralen Bestandteil unseres Lebens geworden – als Käufer, Kunde und idealerweise als Wissenschaftler und Fachleute! Unabhängig davon, ob wir vorausschauende Anzeigesysteme für unsere Prüfung oder geschäftliche Fragestellungen anwenden, akzeptieren wir, dass wir es genauso machen: Wir müssen „große“ Prognosen machen! Wenn man ein Modell an unsere Präparationsinformationen anpasst, würde man sagen, dass es eine Sache ist, aber wie würden wir erkennen, dass es gut zu versteckten Informationen passt? Wie würden wir erkennen, dass es nicht nur die Informationen behält, die wir es unterstützt haben, und es versäumt, hohe Prognosen zu zukünftigen Beispielen und Tests zu machen, die es zuvor nicht gesehen hat? Außerdem, wie würden wir in jedem Fall ein geeignetes Modell auswählen? Vielleicht könnte eine alternative Lernberechnung für das aktuelle Thema besser geeignet sein? Der richtige Einsatz von Modellbewertungs-, Modellwahl- und Berechnungswahlsystemen ist in der wissenschaftlichen KI-Untersuchung ebenso wie in zahlreichen mechanischen Einstellungen unverzichtbar. In diesem Artikel werden verschiedene Systeme geprüft, die für jede dieser drei Teilaufgaben eingesetzt werden können, und die Hauptschwerpunkte und Nachteile jeder Methode mit Bezug auf theoretische und beobachtende Untersuchungen erörtert. Darüber hinaus werden Vorschläge gemacht, um die besten und dennoch plausiblen Praktiken in der Forschung und Nutzung von KI zu stärken. In diesem Artikel haben wir Anwendungen wie Müdigkeitserkennung, Ölpreisvorhersage, Wahlergebnisbewertung als Beispiele verwendet, um die Algorithmusauswahl und die Modellbewertung zu erklären.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-45778-5_12 6eb78239885473dadebfa9009883c4e0;de;;;7.4.;;;Vergleich der Leistung von FCBF-, Chi-Quadrat- und Relief-F-Filtermerkmalsauswahlalgorithmen im Educational Data Mining Educational Data Mining (EDM) ist ein sehr wichtiger Bereich des Data Mining und hilft bei der Vorhersage der Leistung von Schülern. Diese Arbeit ist ein Schritt zur Identifizierung der Faktoren, die die akademische Leistung der Studierenden beeinflussen. Es ist sehr wichtig, die Qualität des Datensatzes zu erhöhen, um bessere Vorhersageergebnisse zu erhalten. Es gibt viele Merkmalsauswahlalgorithmen, jedoch werden drei Filtermerkmalsauswahlalgorithmen FCBF, Chi-Square und ReliefF aufgrund ihrer besseren Leistung ausgewählt und auf drei verschiedene Schülerdatensätze angewendet. Die Ergebnisse von drei Filtermerkmalsauswahlalgorithmen werden ausgewertet. Das Ergebnis der Arbeit ergab, dass Chi-Square und ReliefF bei einem Datensatz mit einer größeren Anzahl von Merkmalen besser abschneiden als FCBF, jedoch wird die Leistung von drei ausgewählten Algorithmen bei einem Schülerdatensatz mit weniger Instanzen am schlechtesten gefunden. Die Analyse der Ergebnisse der Algorithmen zeigt, dass die Reisezeit von der Heimat zur Einrichtung (Schule/Hochschule) eines der wichtigsten Merkmale ist, die die Leistung der Schüler beeinflussen. Der bisherige akademische Hintergrund der Studierenden und sozioökonomische Faktoren schienen ebenfalls wichtige Faktoren für die Vorhersage der akademischen Leistung der Studierenden zu sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99007-1_15 cacc684c5a45f9931ba5c7a50141510e;de;;;7.4.;;;Inhaltsbasierte Empfehlungssysteme In diesem Kapitel werden inhaltsbasierte Empfehlungssysteme diskutiert, d. h. Systeme, die einem Benutzer einen Artikel auf der Grundlage einer Beschreibung des Artikels und eines Interessenprofils des Benutzers empfehlen. Inhaltsbasierte Empfehlungssysteme können in einer Vielzahl von Domänen verwendet werden, die von der Empfehlung von Webseiten, Nachrichtenartikeln, Restaurants, Fernsehprogrammen und Artikeln zum Verkauf reichen. Obwohl sich die Details der verschiedenen Systeme unterscheiden, teilen sich inhaltsbasierte Empfehlungssysteme ein Mittel zum Beschreiben der zu empfehlenden Artikel, ein Mittel zum Erstellen eines Profils des Benutzers, das die Typen von Artikeln beschreibt, die der Benutzer mag, und ein Mittel, um Vergleichen von Elementen mit dem Benutzerprofil, um zu bestimmen, was empfohlen wird. Das Profil wird häufig automatisch als Reaktion auf Feedback über die Erwünschtheit von Elementen, die dem Benutzer präsentiert wurden, erstellt und aktualisiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72079-9_10 3310d2fd46ddbdab92b7bbd09d8cd046;de;;;7.4.;;;Fallbasiertes Denken und benutzergenerierte künstliche Intelligenz für Echtzeit-Strategiespiele Künstliche Intelligenz (KI) für komplexe Computerspiele zu schaffen, erfordert ein hohes Maß an technischem Wissen sowie Engineering-Aufwand von Spieleentwicklern. Dieses Kapitel konzentriert sich auf Techniken, die es Endbenutzern ermöglichen, KI für Spiele zu erstellen, ohne dass technisches Wissen erforderlich ist, indem Techniken des fallbasierten Denkens (CBR) verwendet werden. Die KI-Erstellung für Computerspiele umfasst typischerweise zwei Schritte: (a) Generieren einer ersten Version der KI und (b) Debuggen und Anpassen dieser durch Experimente. Wir werden die Domäne der Echtzeit-Strategiespiele verwenden, um zu zeigen, wie CBR beide Schritte angehen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-8188-2_5 951ea2f90366a66e5658680b91b8461e;de;;;7.4.;;;Künstliche Intelligenz basierte Lastoptimierung im kognitiven Internet der Dinge Das Internet der Dinge (IoT) umfasst intelligente Objekte, die anwendungsspezifische Daten erfassen, verarbeiten und übertragen können. Diese Objekte sammeln und übertragen eine riesige Menge korrelierter und redundanter Daten aufgrund überlappender Erfassungsbereiche, was eine unnötige Ausnutzung von Spektralbändern und Lastausgleichsprobleme im Netzwerk verursacht. Infolgedessen erfahren zeitkritische und verzögerungsempfindliche Daten eine höhere Verzögerung, einen geringeren Durchsatz und eine Verschlechterung der Dienstqualität. Um diese Probleme zu umgehen, schlagen wir in diesem Papier ein Modell vor, das energieeffizient ist und in der Lage ist, die Frequenznutzung mit;-;-;-;https://link.springer.com/article/10.1007/s00521-020-04814-w 2707bed04984999b18bcba74512fded8;de;;;7.4.;;;Deep-Learning-Methode zur Erkennung von Knochenanomalien mithilfe von Röntgenbildern mit mehreren Ansichten In diesem Artikel wird die automatische, zuverlässige Erkennung von Knochenanomalien mithilfe von Multi-View-Röntgenaufnahmen vorgestellt. Die vorgestellte Methode berücksichtigt die sieben oberen Knochen der Extremitäten: Schulter, Humerus, Unterarm, Ellbogen, Handgelenk, Hand und Finger. Dazu werden drei verschiedene CNN-Modelle untersucht. Die Bilder werden zuerst verbessert, indem eine adaptive Histogrammentzerrung verwendet wird. Danach werden die verbesserten Mehrfachansichten in MobileNet [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-76346-6_5 ab414bd55d63b697509e2825fd496bcc;de;;;7.4.;;;Einstufige vs. zweistufige Deep-Learning-Methode zur Erkennung von Knochenanomalien Dieses Papier stellt eine automatische zuverlässige Erkennung von Knochenanomalien vor, die zwei verschiedene Klassifikationsansätze verwendet. Die vorgestellte Methode berücksichtigt die sieben oberen Knochen der Extremitäten, nämlich Schulter, Humerus, Unterarm, Ellbogen, Handgelenk, Hand und Finger. Zu diesem Zweck werden zwei verschiedene Klassifikationsansätze berücksichtigt, indem das vortrainierte Modell von Inception verwendet wird. Die Bilder werden zuerst verbessert, indem eine adaptive Histogrammentzerrung verwendet wird. Danach werden die verbesserten Bilder dem Klassifizierungsschritt zugeführt. Der erste Klassifizierungsansatz ist ein einstufiger Ansatz, bei dem das Modell Röntgenbilder als Eingabe verwendet und sowohl den Knochentyp als auch dessen Normalzustand ausgibt. Während der zweite Ansatz ein zweistufiger hierarchischer Ansatz ist, bei dem die Röntgenbilder der ersten Stufe zugeführt werden, um den Knochentyp zu klassifizieren, und dann der zweiten Stufe zugeführt werden, um die Knochenanomalie zu erkennen. Die durchschnittliche erreichte Sensitivität beträgt 61,53 % bzw. 70,04 % und die durchschnittliche Spezifität 84,22 % bzw. 74,76 % für ein- bzw. zweistufige hierarchische Ansätze. Alle Experimente wurden unter Verwendung des MURA-Datensatzes durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-76346-6_12 b80fc995b9a0c76fa9e55dd717ab64fc;de;;;7.4.;;;Eine flexible intelligente Wissenskapsel für effizientes Data Mining/Reactive Level Extraction Der Aufbau des Speichers und seiner Mechanismen ist sehr wichtig, um ein effizientes intelligentes System zu entwickeln. Wir haben eine flexible intelligente Kapsel für effizientes Data Mining entwickelt. Der Episodenspeicher und seine Zuordnung sind speziell ausgelegt. Die vorgeschlagene Wissenskapsel hat eine hierarchische Struktur und viele Funktionen der Auswahl, des Lernens, der Speicherung und der Datenextraktion. Basierend auf dieser Wissensstruktur verfügt es über einen flexiblen Speicher- und reaktiven Extraktionsmechanismus. Wir konstruierten ereignisorientiertes virtuelles Gedächtnis und testeten die Lern- und assoziative Wissensabruffunktion mit virtuellem Gedächtnis.;-;-;-;https://link.springer.com/chapter/10.1007/11573548_112 722725e6fd16daa81e48098a8de36d62;de;;;7.4.;;;Ein Mustererkennungsmodell für effektives Text-Mining Die Qualität der extrahierten Merkmale ist aufgrund der großen Anzahl von Begriffen, Phrasen und Rauschen das Schlüsselproblem beim Text-Mining. Die meisten existierenden Text-Mining-Methoden basieren auf begriffsbasierten Ansätzen, die Begriffe aus einem Trainingsset extrahieren, um relevante Informationen zu beschreiben. Die Qualität der extrahierten Begriffe in Textdokumenten kann jedoch aufgrund des starken Rauschens im Text nicht hoch sein. Seit vielen Jahren verwenden einige Forscher verschiedene Phrasen, die mehr Semantik als einzelne Wörter haben, um die Relevanz zu verbessern, aber viele Experimente unterstützen die effektive Verwendung von Phrasen nicht, da sie eine geringe Häufigkeit haben und viele redundante und rauschende Phrasen enthalten. In diesem Beitrag schlagen wir einen neuartigen Ansatz zur Mustererkennung für das Textmining vor. Dieser Ansatz entdeckt zuerst geschlossene sequentielle Muster in Textdokumenten, um die informativsten Inhalte der Dokumente zu identifizieren, und verwendet dann die identifizierten Inhalte, um nützliche Merkmale für das Text-Mining zu extrahieren. Wir entwickeln eine neuartige Fusionsmethode basierend auf der Beweisführung von Dempster-Shafer, die es ermöglicht, die Dokumentteile zu kombinieren, um das Wissen (Merkmale) zu entdecken. Um den vorgeschlagenen Ansatz zu evaluieren, verwenden wir die Methode der Merkmalsextraktion für Informationsfilterung (IF). Die experimentellen Ergebnisse zu Reuters Corpus Volume 1 und TREC-Themen bestätigen, dass der vorgeschlagene Ansatz eine hervorragende Leistung erzielen könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31537-4_42 c1d2dd2805efeb1a751034ea7da5c67e;de;;;7.4.;;;Die Korrekturmethode von Sichtbarkeitsprognosen basierend auf dem maschinellen Lernen Die vom GRAPES-CUACE-Modell vorhergesagte Sichtweite und die objektive Sichtbarkeitsprognose werden für diese Studie korrigiert. Ein verbessertes Korrekturverfahren unter Verwendung des maschinellen Lernens für Sichtbarkeitsvorhersagen wird etabliert. Zeitliche und räumliche Variationsmerkmale der Sichtbarkeit vor und nach der Korrektur werden analysiert, wobei die Anwendbarkeit und der Verbesserungseffekt des maschinellen Lernens fokussiert werden. Der Fehlerstatistik- und TS-Kerntest zeigt, dass unabhängig vom CUACE-Modell oder der objektiven Methode die Sichtbarkeit im Allgemeinen niedriger ist als die Beobachtung und der Korrelationskoeffizient zwischen der CUACE-Modellvorhersage und der Beobachtung niedrig ist. Der Sichtbarkeitsvorhersageeffekt von Nordchina ist in anderen Regionen besser, der korrigierte Wert liegt näher am gemessenen Wert und der Korrelationskoeffizient ist deutlich verbessert. Das Korrekturverfahren kann den Vorhersageeffekt der Sichtbarkeit verbessern, hauptsächlich weil die gemessenen Werte und meteorologischen Sichtbedingungen eingeführt werden und die Unterschiede der meteorologischen Bedingungen in verschiedenen Regionen berücksichtigt werden und die Sichtbarkeit jeder Modellvorhersage in Echtzeit dynamisch korrigiert wird. Allerdings gibt es nach wie vor regionale Unterschiede in den Korrektureffekten verschiedener Regionen. In der zukünftigen Forschung werden bessere Entwurfsschemata verwendet und meteorologische Datenassimilationsmethoden verwendet, um Wettervorhersagefehler zu reduzieren und den Korrektureffekt zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4163-6_96 2cf6c44b510f03f77d2a45d6ed9e2d77;de;;;7.4.;;;Vergleich von Imputationstechniken für statistisches und maschinelles Lernen bei der Brustkrebsklassifikation Die Imputation fehlender Daten ist eine wichtige Aufgabe beim Umgang mit wichtigen Daten, die nicht verworfen werden können, wie z. B. medizinischen Daten. Diese Studie bewertet und vergleicht die Auswirkungen von zwei statistischen und zwei maschinellen Imputationstechniken bei der Klassifizierung von Brustkrebspatientinnen unter Verwendung mehrerer Bewertungsmetriken. Mittelwert, Erwartungsmaximierung (EM), Support Vector Regression (SVR) und K-Nearest Neighbor (KNN) wurden angewendet, um 18 % der fehlenden Daten in den beiden Wisconsin-Datensätzen völlig zufällig zu übersehen. Danach haben wir diese vier Imputationstechniken empirisch bewertet, indem wir fünf Klassifikatoren verwendet haben: Entscheidungsbaum (C4.5), Case Based Reasoning (CBR), Random Forest (RF), Support Vector Machine (SVM) und Multi-Layer Perceptron (MLP). Insgesamt wurden 1380 Experimente durchgeführt und die Ergebnisse bestätigten, dass die Klassifikation mit imputationsbasiertem maschinellem Lernen die Klassifikation mit statistischer Imputation übertraf. Darüber hinaus zeigte unser Experiment, dass SVR die beste Imputationsmethode für die Klassifikation von Brustkrebs ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58811-3_5 f305c08eb36382ad8ddb76faf4e5f7e7;de;;;7.4.;;;Dynamische Merkmalsauswahl in der Textklassifizierung Wir untersuchen das Problem der Merkmalsauswahl in der Textklassifikation. Frühere Forschungen verwenden nur eine Messung wie Informationsgewinn, gegenseitige Information, Chi-Quadrat zur Auswahl guter Merkmale. In diesem Papier schlagen wir einen neuen Ansatz zur Merkmalsauswahl vor - die dynamische Merkmalsauswahl. Ein neuer Algorithmus zur Merkmalsauswahl wird vorgeschlagen. In diesem Algorithmus werden durch Kombinieren verschiedener Messungen für Merkmale und Abstimmungsparameter mehrere Merkmalsuntermengen erzeugt, von denen die beste Merkmalsmenge erhalten wird, die die beste Leistung von einem Klassifizierer erreicht. Experimente, die sich mit dem realen Datensatz befassen, zeigen, dass die vorgeschlagene dynamische Merkmalsauswahl traditionelle Merkmalsauswahlverfahren übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-37256-1_83 47b5d38e62f78a3c3d353e2befd97d5e;de;;;7.4.;;;Katarakterkennungs- und -klassifizierungssysteme mit computergestützter Intelligenz: Eine Umfrage Eines der mächtigsten Werkzeuge in der Bildverarbeitung zur Lösung komplexer Probleme ist Computational Intelligence. Es gibt mehrere Methoden zur Bildklassifizierung, es ist jedoch unklar, welche Methoden für die Analyse und Klassifizierung von Bildern wie Augenoptik am hilfreichsten sind. Insbesondere im Bereich des Grauen Stars als einer der führenden Erblindungsursachen weltweit haben nur wenige umfassende Übersichtsarbeiten die laufenden Bemühungen der Computational Intelligence zur Erkennung und Einstufung des Grauen Stars zusammengefasst. Durch rechtzeitige Erkennung ist es möglich, eine Kataraktoperation im Anfangsstadium zu verhindern. In dieser Arbeit vergleichen wir die Hauptmerkmale verschiedener Algorithmen zur Einstufung und Klassifikation, von den klassischen medizinischen Methoden bis hin zu den tatsächlichen auf Computerintelligenz basierenden Methoden. Diese Methoden werden auf einfache Weise erklärt, um ein Mittel zum Verständnis der Funktionsprinzipien zu bieten und ihre relevanten Anwendungen zusammenzufassen. Diese Übersicht kann als nützlicher Leitfaden für Forscher und Mediziner bei der Auswahl einer geeigneten Methode zur Verbesserung der Katarakterkennung und -einstufung angesehen werden und ihnen bei der Diagnose dieser Augenkrankheit helfen.;-;-;-;https://link.springer.com/article/10.1007/s11831-020-09440-2 a061e41105984c060fafeb1f3bf3daec;de;;;7.4.;;;Anwendungen von Künstlicher Intelligenz und Techniken der Kognitionswissenschaft im Bankwesen In diesem Beitrag schlagen wir vor, einige kognitionswissenschaftliche Techniken zu entwickeln, die für verschiedene Bereiche des Bankwesens nützlich sein könnten. Eines unserer Hauptthemen werden Entscheidungsunterstützungssysteme und wissensbasierte Entscheidungsunterstützungssysteme sein. Daher müssen wir die Phase des Wissenserwerbs berücksichtigen, die als Engpass beim Aufbau dieser Systeme bekannt ist. Wir präsentieren ein Modell für Lernstrategien, das von einem Entscheidungsträger für eine Merkmalsaufgabe der kategorialen Beurteilung von Objekten, die durch mehrere Attribute beschrieben werden, erstellt wurde. Es wurde für mehrere Domänen verbessert und wir zeigen eine Anwendung, um zu verstehen, wie Einzelpersonen Sparpläne kategorisieren. Dieses Wissen wird dem Bankberater nützlich sein, um genau beraten zu können, was seine Kundschaft haben möchte. Abschließend werden noch einige Anwendungen im Kreditbereich, Ausbildungssysteme und Portfoliomanagement kurz diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-1427-1_6 e8d50663b2a067c07a77e04d1cd9a929;de;;;7.4.;;;Eine Übersicht über dichtebasierte Clustering-Algorithmen Dichtebasierte Clustering-Algorithmen (DBCLAs) beruhen auf dem Dichtebegriff, um Cluster beliebiger Formen und Größen mit unterschiedlichen Dichten zu identifizieren. Bestehende Erhebungen zu DBCLAs decken nur einen ausgewählten Satz von Algorithmen ab. Diese Umfragen liefern keine umfassenden Informationen über eine Vielzahl von bisher vorgeschlagenen DBCLAs einschließlich einer Taxonomie der Algorithmen. In diesem Artikel präsentieren wir einen umfassenden Überblick über verschiedene DBCLAs der letzten zwei Jahrzehnte zusammen mit ihrer Klassifizierung. Wir gruppieren die DBCLAs in jede der vier Kategorien:;-;-;-;https://link.springer.com/article/10.1007/s11704-019-9059-3 ae4334f1cb11f632a478c9293811a9f4;de;;;7.4.;;;Adaptive Fuzzy-Learning-Vektorquantisierung (AFLVQ) für die Zeitreihenklassifizierung In den letzten zehn Jahren wurden in einer Vielzahl von Forschungsbereichen hochdimensionale zeitliche Daten zur Mustererkennung, Signalverarbeitung, Fehlererkennung und anderen Zwecken untersucht. Das Data Mining von Zeitreihen wurde in der Literatur ständig untersucht, und neuere Forschungen zeigen, dass auf diesem Gebiet noch wichtige Probleme zu lösen sind. Gegenwärtig werden häufig auf neuronalen Netzwerken basierende Algorithmen zur Lösung von Klassifikationsproblemen verwendet. Diese Techniken nutzen jedoch im Allgemeinen kein Expertenwissen über die verarbeiteten Daten. Im Gegensatz dazu verwenden Fuzzy-basierte Techniken Expertenwissen für die Data-Mining-Klassifizierung, aber es fehlt ihnen an adaptivem Verhalten. In diesem Zusammenhang wurden Hybrid Intelligent Systems (HIS) basierend auf dem Konzept entwickelt, die adaptiven Eigenschaften neuronaler Netze mit dem informativen Wissen der Fuzzy-Logik zu kombinieren. Basierend auf HIS stellen wir einen neuartigen Ansatz für die Learning Vector Quantization (LVQ) vor, der Adaptive Fuzzy LVQ (AFLVQ) genannt wird und darin besteht, ein Fuzzy-LVQ neuronales Netzwerk mit adaptiven Eigenschaften zu kombinieren. In diesem Artikel haben wir Experimente mit einem Zeitreihen-Klassifizierungsproblem, bekannt als Human Activity Recognition (HAR), unter Verwendung von Signalen von einem dreiachsigen Beschleunigungsmesser und einem Gyroskop durchgeführt. Wir haben mehrere Experimente mit verschiedenen LVQ-basierten Algorithmen durchgeführt, um die vorgestellte Methode zu evaluieren. Wir führten Simulationen zum Vergleich von drei Ansätzen des neuronalen LVQ-Netzwerks durch: Kohonens LVQ, Adaptive LVQ und das vorgeschlagene AFLVQ. Aus den Ergebnissen schließen wir, dass der vorgeschlagene hybride Adaptive-Fuzzy-LVQ-Algorithmus mehrere andere Methoden in Bezug auf Klassifikationsgenauigkeit und Glätte bei der Lernkonvergenz übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-95312-0_33 3b1929a5d8501d0a9ee52f6710237b01;de;;;7.4.;;;Internet of Things (IoT)-basierte bioinspirierte künstliche intelligente Technik zur Bekämpfung von Cyberkriminalität: Eine Übersicht Die Natur hat einen großen Einfluss auf das tägliche Leben der Menschen, indem sie Lösungen für komplexe Probleme findet. Die Mehrheit der Menschen profitiert von den fortschrittlichen Technologien. Ohne die Hilfe von Computern ist es schwer, die Problemlösungstechniken zu imitieren, die von der Natur implementiert werden. Bio-Mimikry ist eine solche Studie, die es den Forschern ermöglicht, menschliche Probleme durch Nachahmung und Nachahmung der Natur zu lösen. Diese aufstrebende Technologie bezieht ihre Quellen aus der bioinspirierten Technik auf verschiedenen Ebenen. BIC, kurz für Bio-Inspired Computing oder Biologically Inspired Computing, ist ein weit gefasster Begriff, der verschiedene Bereiche wie Informatik, Mathematik und Biologie umfasst. Mix and Match verschiedener biologischer und computergestützter Verfahren ist in dieser Hinsicht das zuverlässige Mittel für Forscher und führt zur Konvergenz zweier Bereiche: Informatik und Biologie. In der jüngsten Vergangenheit sind die bioinspirierten Optimierungsalgorithmen sehr überzeugend, um die besten Darstellungen für komplizierte Haken zu erzielen, indem sie sich mit maschinellem Lernen verbinden. Neben dem BIC gewinnt auch die Schwarmintelligenz (SI) an Bedeutung. Bioinspirierende Algorithmen wie Ameisenkoloniealgorithmen, Fledermausalgorithmen, Kuckuckssuche, Glühwürmchenalgorithmen und Partikelschwarmoptimierung haben umfangreiche Anwendungen in fast allen Bereichen der Wissenschaft und Technik. Schwarmintelligenz ist das kollektive Verhalten dezentraler, selbstorganisierter Systeme, obgleich sie natürlich oder künstlich sind und auf einem metaheuristischen Ansatz basiert, der in der Regel unabhängig von den Problemen in kürzerer Zeit eine ungefähr optimale Lösung herausholt. Heutzutage führen die Fortschritte in der Informationstechnologie dazu, dass Schwerverbrecher zahlreiche Cyberkriminalität unter Nutzung des Cyberspace begehen. Im Wesentlichen müssen ausgefeiltere Cyber-Abwehrsysteme entwickelt werden, da (1) Cyber-Infrastrukturen extrem offen und anfällig für Verstöße und andere Einschüchterungen sind und (2) menschliche Eingriffe und physische Geräte nicht ausreichen, um die Cyber-Infrastrukturen zu überwachen und zu verstärken. Die Fähigkeit, eine Vielzahl von Bedrohungen zu erkennen und die Anpassungsfähigkeit für schnelle Echtzeitentscheidungen, Flexibilität und Robustheit sind die wichtigsten Eigenschaften, die von diesen Systemen erwartet werden. Zahlreiche BIC-Ansätze mit künstlicher Intelligenz (KI) unter Verwendung von IOT spielen eine entscheidende Rolle bei der Erkennung und Prävention von Cyberkriminalität. Lassen Sie uns einige wenige KI-Techniken im Zusammenhang mit bioinspiriertem Computing und seiner futuristischen Reichweite über die menschliche Gemeinschaft zur Bekämpfung von Cyberkriminalität weiden, und diese Überprüfung würde den Weg für bevorstehende Studien ebnen, um Algorithmen basierend auf der Ausstattung auszuwählen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-34328-6_9 d8f8a82de75ce6d6cd49d9bc8c2d6716;de;;;7.4.;;;Künstliche Intelligenz in der schwedischen Politik: Werte, Vorteile, Überlegungen und Risiken Künstliche Intelligenz (KI) gilt als die nächste große Phase der Digitalisierung. Es gibt einen weltweiten Wettlauf um die Entwicklung, Implementierung und Nutzung von KI sowohl im privaten als auch im öffentlichen Sektor. Die vielen Verantwortlichkeiten der Regierungen in diesem Wettlauf sind kompliziert und erstrecken sich über eine Reihe von Bereichen. Daher ist es wichtig, dass der Einsatz von KI diese vielfältigen Aspekte staatlicher Verpflichtungen und Werte unterstützt. Ziel dieses Papiers ist es zu analysieren, wie KI in schwedischen Politikdokumenten dargestellt wird und welche Werte dem Einsatz von KI zugeschrieben werden. Wir analysieren schwedische Politikdokumente und ordnen Vorteile, Überlegungen und Risiken mit KI auf der Grundlage eines etablierten E-Government-Werterahmens in verschiedene Werteideale ein. Wir kommen zu dem Schluss, dass es eine Diskrepanz im Diskurs auf politischer Ebene über den Einsatz von KI zwischen verschiedenen Wertidealen gibt. Unsere Ergebnisse zeigen, dass KI im Einklang mit früheren Studien zur E-Government-Politik stark mit der Verbesserung von Effizienz und Servicequalität verbunden ist. Interessanterweise werden nur wenige Vorteile in Bezug auf die Einbeziehung der Bürger in die Politikgestaltung hervorgehoben. Eine differenziertere Sicht auf KI ist erforderlich, um realistische Erwartungen zu wecken, wie diese Technologie der Gesellschaft nützen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-27325-5_23 cf161c7db3260ececeeda3e08e0f9d88;de;;;7.4.;;;Deep Forest basierte intelligente Fehlerdiagnose von hydraulischen Turbinen Tiefe neuronale Netze (DNNs) für die Fehlerdiagnose intelligenter Maschinen erfordern eine große Menge an Trainingsdaten, leistungsstarke Rechenfunktionen und viele Hyperparameter, die sorgfältig abgestimmt werden müssen, um eine maximale Leistung zu gewährleisten. Deep Forest als neuartige Alternative zum Deep Learning Framework hat das Potenzial, diese Mängel zu überwinden. In dieser Studie wird ein tiefes Wald-basiertes, durchgängiges intelligentes Fehlerdiagnoseverfahren für hydraulische Turbinen vorgeschlagen, bei dem zuerst mehrkörniges Scannen verwendet wird, um Fehlermerkmaldarstellungen aus Rohdaten zu transformieren und die Lernfähigkeit von Fehlermerkmalen zu verbessern, und dann Die Kaskadenstruktur wird mit verschiedenen Arten von Random Forests erstellt, um Fehlermerkmale Ebene für Ebene zu lernen und Fehler zu klassifizieren. Die Wirksamkeit der vorgeschlagenen Methode wird anhand des experimentellen Datensatzes unter zwölf Bedingungen validiert, und ihre Praktikabilität wird anhand eines simulierten Datensatzes validiert, der durch Hinzufügen von weißem Gauß-Rauschen zu experimentellen Rohsignalen erzeugt wird. Die Ergebnisse zeigen, dass das vorgeschlagene Verfahren in der Lage ist, verfügbare Fehlermerkmale aus gemessenen Signalen adaptiv zu ermitteln, und seine Diagnosegenauigkeit ist besser als die, die mit bestehenden Verfahren erreicht wird. Noch wichtiger ist, dass das vorgeschlagene Verfahren eine bessere Robustheit gegenüber Rauschen aufweist und weniger auf die Anzahl der Trainingsdaten beschränkt ist.;-;-;-;https://link.springer.com/article/10.1007/s12206-019-0408-9 1088a131fefe0aa420c153105c6f7ac6;de;;;7.4.;;;Teilüberwachtes Lernen aus unterschiedlichen Informationsquellen Dieser Artikel untersucht die Verwendung eines semiüberwachten Lernalgorithmus aus verschiedenen Informationsquellen. Wir bieten zunächst eine theoretische Erklärung, warum die Minimierung der Diskrepanz zwischen einzelnen Modellen zu einer Leistungsverbesserung führen könnte. Basierend auf dieser Beobachtung schlägt dieses Papier einen semiüberwachten Lernansatz vor, der versucht, diese Meinungsverschiedenheit zu minimieren, indem eine Co-Aktualisierungsmethode verwendet und sowohl gekennzeichnete als auch nicht gekennzeichnete Daten verwendet werden. In diesem Papier werden drei Experimente vorgestellt, um die Wirksamkeit des Ansatzes zu testen: (i) Webseitenklassifizierung anhand von Inhalten und Hyperlinks, (ii) funktionelle Klassifizierung von Genen anhand von Genexpressionsdaten und phylogenetischen Daten und (iii) Maschinenselbstpflege von beiden Sensorik und Bilddaten. Die Ergebnisse zeigen die Effektivität und Effizienz unseres Ansatzes und weisen auf seine Anwendungspotenziale hin.;-;-;-;https://link.springer.com/article/10.1007/s10115-004-0155-8 66ec8132c57d81814b5cbd1231c589ab;de;;;7.4.;;;Grid Data Mining zur Ergebnisvorhersage in der Intensivmedizin Dieses Papier stellt einen verteilten Data-Mining-Ansatz vor, der für Grid-Computing-Umgebungen geeignet ist, basierend auf einem Klassifiziersystem mit überwachtem Lernen. Spezifische Classifier- und Majority Voting-Methoden für Distributed Data Mining (DDM) werden untersucht und mit dem Centralized Data Mining (CDM) Ansatz verglichen. Experimentelle Tests wurden unter Berücksichtigung eines realen Datensatzes aus der Intensivmedizin durchgeführt, um das Ergebnis der Patienten vorherzusagen. Die Ergebnisse zeigen, dass die Leistung der DDM-Methoden besser ist als die der CDM-Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24352-3_26 7d3782561c5a8d631240cb91b2f2438b;de;;;7.4.;;;Demenzmonitoring mit künstlicher Intelligenz Eine beginnende Demenz ist eine der Hauptursachen für das Verlassen der gewohnten häuslichen Umgebung und den Einzug in ein Altersheim. Dies bedeutet den Verlust der Selbständigkeit des Einzelnen und führt zu steigenden Ausgaben für das Gesundheitssystem. Während viele Lösungen für Ambient Assisted Living (AAL) die Überwachung unterstützen und Demenzpatienten ermöglichen, länger im häuslichen Umfeld zu bleiben, bleibt der tatsächliche Einsatz von AAL-Lösungen hinter den Erwartungen zurück. Eine große Herausforderung besteht darin, die Informationsbedürfnisse verschiedener Akteure im Demenzversorgungsprozess zu befriedigen und gleichzeitig den Datenschutzbedenken Rechnung zu tragen. In diesem Kapitel wird ein Konzept vorgestellt, um gesammelte Daten in der häuslichen Umgebung autonom zu verarbeiten und zu analysieren. Das Konzept ist Teil des von der Bundesregierung geförderten Projekts „SAKI“. Durch den Einsatz von Data Mining und Künstlicher Intelligenz können die enormen Datenmengen im Haus analysiert und erst bei erkannten kritischen Situationen nach draußen geschickt werden. Daher werden bestehende AAL-Lösungen kombiniert, um signifikante Muster zu erkennen, bei denen externe Hilfe oder Informationen erforderlich sind. Drei Arten von Akteuren in der Demenzversorgung können von dieser Entwicklung profitieren: Der Patient selbst erhält ein Echtzeit-Feedback seiner kognitiven und verhaltensbezogenen Leistungen. Familienmitglieder erhalten zusammengefasste und abstrahierte Informationen, um das Wohlbefinden des Patienten und seinen Grad an Autonomie zu überwachen. Professionellen Pflegekräften werden detaillierte Informationen zu täglichen Aktivitäten und medizinische Informationen zur Verfügung gestellt, die in das informationstechnische System der Pflegeperson integriert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25973-4_3 615e6136e3466784c29bcbde87f3f999;de;;;7.4.;;;Wissen und Lernen Wissen ist das Ergebnis eines bisherigen menschlichen Verständnisses der objektiven Welt und einer Zusammenfassung von Erfahrungen (Witten 2005). Es kann das aktuelle Verständnis der neuen Veränderungen in der objektiven Welt leiten (Jähne und Hausbecker 2000). Die Interpretation von Szenen muss auf vorhandenem Wissen und Lernen basieren (Forsyth und Ponce 2012, Goodfellow et al. 2016, Hartley und Zisserman 2004, Prince 2012, Sonka et al. 2014).;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5873-3_40 e46754b308eef58e2f47ca4131392cb1;de;;;7.4.;;;Evolutionäre Induktion beschreibender Regeln in einem Marktproblem Auch heute noch ist der persönliche Kontakt mit dem Kunden von grundlegender Bedeutung für die Entwicklung von Marketingmaßnahmen. Messen sind in diesem Sinne ein grundlegendes Instrument der Unternehmensmarketingpolitik, insbesondere im Industriemarketing. Aufgrund des hohen Zeit- und Geldaufwands ist die automatische Extraktion relevanter und interessanter Informationen erforderlich, um eine faire Planung zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/11004011_14 2724c2a50943504c666d808a3edd70ce;de;;;7.4.;;;Inhaltsbasierter Bildabruf mithilfe von Convolutional Neural Networks Content Based Image Retrieval (CBIR) ist eine weit verbreitete Technik zum Abrufen von Bildern aus riesigen und nicht gekennzeichneten Bilddatenbanken. Die Benutzer sind jedoch mit den herkömmlichen Techniken zum Abrufen von Informationen nicht zufrieden. Darüber hinaus nimmt das Aufkommen von Webentwicklungs- und Übertragungsnetzen sowie die Menge an Bildern, die den Benutzern zur Verfügung stehen, weiter zu. Daher findet in vielen Bereichen eine permanente und erhebliche digitale Bildproduktion statt. Daher stellt der schnelle Zugriff auf diese riesigen Bildsammlungen und das Abrufen ähnlicher Bilder eines bestimmten Bildes (Abfrage) aus dieser großen Bildsammlung große Herausforderungen dar und erfordert effiziente Techniken. Die Leistungsfähigkeit eines inhaltsbasierten Bildsuchsystems hängt entscheidend von der Merkmalsdarstellung und Ähnlichkeitsmessung ab. Aus diesem Grund präsentieren wir in diesem Beitrag ein einfaches, aber effektives Deep-Learning-Framework basierend auf Convolutional Neural Networks (CNN) und Support Vector Machine (SVM) für die schnelle Bildgewinnung bestehend aus Merkmalsextraktion und -klassifizierung. Aus mehreren umfangreichen empirischen Studien für eine Vielzahl von CBIR-Aufgaben unter Verwendung von Bilddatenbanken erhalten wir einige ermutigende Ergebnisse, die einige wichtige Erkenntnisse zur Verbesserung der CBIR-Leistung offenbaren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-91337-7_41 5cb3e6fccb31de9a5909b432123958cd;de;;;7.4.;;;Modellierung von Social Media-Inhalten mit Wortvektoren für Empfehlungen In den sozialen Medien gewinnen Empfehlungssysteme immer mehr an Bedeutung. Es wurden unterschiedliche Techniken für Empfehlungen in verschiedenen Szenarien entwickelt, aber viele von ihnen verwenden keine nutzergenerierten Inhalte, die möglicherweise die Meinungen und Interessen der Nutzer widerspiegeln. Obwohl einige Studien versucht haben, nutzergenerierte Inhalte mit Bewertungs- oder Annahmedaten zu kombinieren, antworten sie meistens auf lexikalische Ähnlichkeit, um die Textähnlichkeit zu berechnen. In den sozialen Medien wird jedoch eine Vielzahl von Wörtern verwendet. Dies macht die traditionellen Methoden zur Berechnung der Textähnlichkeit wirkungslos. In dieser Arbeit wenden wir die Vektordarstellung von Wörtern an, um die semantische Ähnlichkeit zwischen Texten zu messen. Wir entwerfen ein Modell, das Wortvektoren nahtlos in ein gemeinsames Modell von Benutzerfeedback und Textinhalten integriert. Umfangreiche Experimente mit Datensätzen aus verschiedenen Domänen beweisen, dass unser Modell sowohl bei der Empfehlung als auch bei der Themenfindung in sozialen Medien effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-27433-1_19 7c391fb404b487af87fbb38fcd06b7e2;de;;;7.4.;;;Modelle für maschinelles Lernen: Kombination von Ähnlichkeitsnachweisen für den XML-Schemaabgleich Matching-Schemata auf Elementebene oder struktureller Ebene werden im Allgemeinen als entweder hybrid kategorisiert, das einen Algorithmus verwendet, oder zusammengesetzt, das Beweise aus mehreren verschiedenen Matching-Algorithmen für das endgültige Ähnlichkeitsmaß kombiniert. Wir präsentieren einen Ansatz zur Kombination von Ähnlichkeitsnachweisen auf Elementebene zum Abgleichen von XML-Schemata mit einem zusammengesetzten Ansatz. Durch die Kombination von High-Recall-Algorithmen in einem zusammengesetzten System reduzieren wir die Anzahl der verpassten echten Spiele. Durch die Durchführung von Experimenten an einer Reihe von Machine-Learning-Modellen zur Kombination von Evidenz in einem zusammengesetzten Ansatz und die Auswahl des SMO für die hohe Präzision und Erinnerung erhöhen wir die Zuverlässigkeit der endgültigen Matching-Ergebnisse. Die Präzision wird daher verbessert (z. B. mit Datensätzen, die von Cupid verwendet und vom Autor von LSD vorgeschlagen werden, ist unsere Präzision im Durchschnitt 13,05 % bzw. 31,55 % höher als bei COMA und Cupid).;-;-;-;https://link.springer.com/chapter/10.1007/11730262_7 3d973337605514c7b0b2c0ab9eb590be;de;;;7.4.;;;Eine fortschrittliche webbasierte zweisprachige domänenunabhängige Schnittstelle zur Datenbank mit maschinellem Lernansatz Interface to Database ist im Grunde ein System, das auf Basis natürlicher Sprachen entwickelt wurde. Diese Art von Schnittstellen zur Datenbank bildet ein Sprungbrett in den Bereichen Intelligenz, Medizinwissenschaft, Datenbank-Mining, Suchmaschinen usw. Der Artikel schlägt ein System vor, nämlich eine fortschrittliche webbasierte zweisprachige, domänenunabhängige Schnittstelle zur Datenbank, die einen Ansatz des maschinellen Lernens verwendet, der Punjabi . verwendet und Hindi-Sprache als Eingabe. Einige der Hauptmerkmale, die in das entwickelte System integriert wurden, sind Domänenunabhängigkeit, zweisprachiger Ansatz und eine benutzerfreundliche Weboberfläche. Auch wichtige Features wie das Akzeptieren von Abfragen mit Rechtschreibfehlern, Multiword-Keywords sowie weitere Funktionen wie die Autovervollständigungsfunktion wurden eingeführt. Daher besteht das Hauptziel darin, das System benutzerfreundlicher und effizienter zu machen und seinen Umfang zu erhöhen, ohne Kompromisse bei der Komplexität einzugehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-2750-5_60 e76453567365b58bb728cc0a3d200b39;de;;;7.4.;;;Design eines Enterprise Human Resource Management Systems basierend auf der Oracle Data Mining Technologie Im Zeitalter der Wissensökonomie ist der Wettbewerb um Talente besonders ausgeprägt, und die vernünftige Entwicklung und Verwaltung von Talentressourcen ist für Unternehmen besonders wichtig. Der Einsatz moderner Informationstechnologie zum Aufbau eines effizienten und komfortablen Personalmanagement-Informationssystems ist ein notwendiges Mittel für ein wissenschaftliches Personalmanagement. Dieser Artikel beschreibt die Implementierung des Enterprise Human Resource Management Systems basierend auf den Merkmalen des Unternehmens, Fusion Data Mining-Technologie, veranschaulicht die Anwendung der Oracle Data Mining-Technologie im Enterprise Human Resource Management System.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-51556-0_65 f780ad66c7ad84b5c71eec5499ad9a2f;de;;;7.4.;;;"Maschinelles Lernen zur Erkennung von Spam in Twitter-Netzwerken Die schnell wachsenden sozialen Online-Networking-Sites wurden von einer großen Menge Spam infiltriert. In diesem Artikel konzentriere ich mich auf eine der beliebtesten Websites Twitter als Beispiel, um das Spam-Verhalten zu untersuchen. Um die Spam-Erkennung zu erleichtern, wird ein gerichtetes Social-Graph-Modell vorgeschlagen, um die ""Follower""- und ""Friend""-Beziehungen zwischen den Benutzern zu untersuchen. Basierend auf der Spam-Richtlinie von Twitter werden auch neuartige inhaltsbasierte und grafikbasierte Funktionen vorgeschlagen. Ein Webcrawler wird basierend auf den API-Methoden von Twitter entwickelt. Ein Prototypsystem zur Spam-Erkennung wird vorgeschlagen, um verdächtige Benutzer auf Twitter zu identifizieren. Ich analysiere den Datensatz und bewerte die Leistung des Erkennungssystems. Klassische Bewertungsmetriken werden verwendet, um die Leistung verschiedener traditioneller Klassifizierungsmethoden zu vergleichen. Die Versuchsergebnisse zeigen, dass der Bayes-Klassifikator die beste Gesamtleistung in Bezug auf";-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25206-8_21 5a373ab1a8a7c08f47bc26258288c6e9;de;;;7.4.;;;Auf dem Weg zum effektiven Wissenserwerb mit logischer Induktion erster Ordnung Wissenserwerb mit Techniken des maschinellen Lernens ist eine grundlegende Voraussetzung für die Wissensentdeckung aus Datenbanken und Data-Mining-Systemen. Zu diesem Zweck wurden insbesondere zwei Techniken verwendet – induktives Lernen und Theorierevision. Es wird eine Methode vorgestellt, die beide Ansätze kombiniert, um Theorien (Regularität) aus einer Reihe von Trainingsbeispielen effektiv zu erwerben. Durch induktives Lernen wird aus den Trainingsbeispielen eine neue Regelmäßigkeit gewonnen und durch Theorierevision eine erste Theorie verbessert. Darüber hinaus wurde ein Theoriepräferenzkriterium, das eine Kombination aus der MDL-basierten Heuristik und der Laplace-Schätzung ist, erfolgreich bei der Auswahl der vielversprechenden Theorie verwendet. Der resultierende Algorithmus, der durch die Integration von induktivem Lernen und Theorierevision und Verwendung des Kriteriums entwickelt wurde, ist in der Lage, mit komplexen Problemen umzugehen und nützliche Theorien in Bezug auf seine Vorhersagegenauigkeit zu erhalten.;-;-;-;https://link.springer.com/article/10.1007/BF02948825 e883fd3c8d7b9ed30108f5354ba9a205;de;;;7.4.;;;Intelligente Überprüfung grundlegender Engineering-Parameter basierend auf Online Machine Learning Dieses Papier erstellt ein benutzerdefiniertes Indexanalysesystem für Big Data des Mobilfunknetzes und grundlegende Netzwerkinformationen, um das Problem zu lösen, dass die grundlegenden Informationen nicht quantifiziert werden können Um das Problem zu lösen, dass die Basisinformationen großer Netzwerke nicht schnell verifiziert werden können, erstellen wir auch eine intelligente Vorhersage für Basisinformationen und ein maschinelles Lernmodell des Füllalgorithmus, um das Fehlen und die Aktualisierung von Basisinformationen zu beheben und einen neuen Weg für das Basisinformationsmanagement bereitzustellen des Servicenetzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4163-6_87 dd1d40552a93c8e429ee920c46e61991;de;;;7.4.;;;Hybride Methode zur Textzusammenfassung basierend auf statistischer und semantischer Behandlung Die Textzusammenfassung stellt mehrere Herausforderungen dar, wie die Berücksichtigung semantischer Beziehungen zwischen Wörtern, der Umgang mit Redundanz- und Informationsdiversitätsproblemen. Um diese Probleme zu überwinden, schlagen wir in diesem Artikel ein neues graphenbasiertes arabisches Zusammenfassungssystem vor, das statistische und semantische Analysen kombiniert. Der vorgeschlagene Ansatz verwendet hierarchische Strukturen und Beziehungen der Ontologie, um eine genauere Ähnlichkeitsmessung zwischen Begriffen bereitzustellen, um die Qualität der Zusammenfassung zu verbessern. Das vorgeschlagene Verfahren basiert auf einem zweidimensionalen Graphenmodell, das statistische und semantische Ähnlichkeiten nutzt. Die statistische Ähnlichkeit basiert auf der inhaltlichen Überlappung zwischen zwei Sätzen, während die semantische Ähnlichkeit unter Verwendung der semantischen Informationen berechnet wird, die aus einer lexikalischen Datenbank extrahiert wurden, deren Verwendung es unserem System ermöglicht, durch Messung der semantischen Distanz zwischen realen menschlichen Konzepten Argumente anzuwenden. Der gewichtete Rangordnungsalgorithmus PageRank wird auf dem Diagramm ausgeführt, um eine signifikante Bewertung für alle Dokumentsätze zu erzeugen. Die Bewertung jedes Satzes wird durch Hinzufügen anderer statistischer Merkmale durchgeführt. Darüber hinaus gehen wir Redundanz- und Informationsdiversitätsprobleme an, indem wir eine angepasste Version der Methode der maximalen Marginalrelevanz verwenden. Experimentelle Ergebnisse zu EASC und unseren eigenen Datensätzen zeigten die Wirksamkeit unseres vorgeschlagenen Ansatzes gegenüber bestehenden Zusammenfassungssystemen.;-;-;-;https://link.springer.com/article/10.1007/s11042-021-10613-9 1adba8a2d2b326ea895e834309484cdc;de;;;7.4.;;;Schutz von Stromversorgungssystemen mit Machine Learning-Technik Dieses Kapitel stellt einen neuen Ansatz für die Distanzweiterleitung von Übertragungsleitungen unter Verwendung von maschinellen Intelligenztechniken wie Support Vector Machine (SVM) vor. SVM ist ein relativ neues computergestütztes Lernverfahren, das auf der statistischen Lerntheorie basiert. Die vorgeschlagene Technik wird zur Entwicklung von Schutzschemata für eine thyristorgesteuerte serienkompensierte (TCSC) Leitung verwendet, die Stromabtastungen nach dem Fehler für einen Halbzyklus (10 Abtastungen) ab dem Beginn des Fehlers und den Zündwinkel als Eingaben zum SVM verwendet. Drei SVMs werden trainiert, um Fehlerklassifizierung, Erdungserkennung bzw. Abschnittserkennung für die TCSC-Leitung bereitzustellen. SVM wird auch zur fehlerhaften Phasenauswahl und Erdungserkennung in großen Stromübertragungssystemen ohne TCSC verwendet. Die Methode verwendet Nachfehlerstrom- und Spannungsproben für 1/4;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14013-6_7 c67564bc4d577bb3ba64a8002d6efc9e;de;;;7.4.;;;Ein C4.5-Algorithmus für die englische emotionale Klassifizierung Die Lösungen zur Verarbeitung der Stimmungsanalyse sind für viele Forscher, viele Anwendungen usw. sehr wichtig und sehr hilfreich. Dieses neue Modell wurde in diesem Papier vorgeschlagen und in der englischen Stimmungsklassifizierung auf Dokumentebene verwendet. In dieser Forschung schlagen wir ein neues Modell vor, das den C4.5-Algorithmus eines Entscheidungsbaums verwendet, um die Semantik (positiv, negativ, neutral) für englische Dokumente zu klassifizieren. Unser Englisch-Trainingsdatensatz umfasst 140.000 englische Sätze, davon 70.000 englische positive Sätze und 70.000 englische negative Sätze. Wir verwenden den C4.5-Algorithmus für die 70.000 englischen positiven Sätze, um einen Entscheidungsbaum zu generieren und viele Assoziationsregeln der positiven Polarität werden durch den Entscheidungsbaum erstellt. Wir verwenden auch den C4.5-Algorithmus für die 70.000 englischen negativen Sätze, um einen Entscheidungsbaum zu generieren, und viele Assoziationsregeln der negativen Polarität werden durch den Entscheidungsbaum erstellt. Klassifizierende Gefühle eines englischen Dokuments werden basierend auf den Assoziationsregeln der positiven Polarität und der negativen Polarität identifiziert. Unser englischer Testdatensatz umfasst 25.000 englische Dokumente, darunter 12.500 positive englische Rezensionen und 12.500 negative englische Rezensionen. Wir haben unser neues Modell mit unserem Testdatensatz getestet und bei diesem englischen Testdatensatz eine Genauigkeit der Stimmungsklassifizierung von 60,3 % erreicht.;-;-;-;https://link.springer.com/article/10.1007/s12530-017-9180-1 76697bbf6ed73d7935fc244d243e0744;de;;;7.4.;;;Textklassifizierung und Machine Learning-Unterstützung für die Anforderungsanalyse mithilfe von Blogs Es werden Textklassifizierungs- und maschinelle Lerntechnologien untersucht, um die Anforderungen an das Wissensmanagement in militärischen Kommandozentralen zu unterstützen. Militärische Interessengemeinschaften beginnen, Blogs und verwandte Tools für den Informationsaustausch zu verwenden, was eine vergleichbare Umgebung wie die Verwendung von Blogs für Diskussionen über Systemanforderungen bietet. Dieses Papier beschreibt die Arbeit in diesem Bereich, die im Rahmen des von der Defense Advanced Research Projects Agency gesponserten Programms „Personalized Assistant that Learns“ (PAL) durchgeführt wird. Anschließend werden Vergleiche angestellt, wie die Technologie ähnliche Fähigkeiten für eine Anforderungsanalyseumgebung bereitstellen könnte. Eine zusätzliche Diskussion darüber, wie die Aufgabenlernfähigkeiten von PAL auch der Anforderungsanalyse in einem Rapid Prototyping-Prozess zugute kommen könnten, wird bereitgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89778-1_14 dd389da77b453c2ad6f2d66d0f35e93f;de;;;7.4.;;;Abbau von Struktur-Aktivitäts-Beziehungen in biologischen neuronalen Netzen mit NeuronRank Da es zu schwierig ist, die Struktur eines kortikalen neuronalen Netzes analytisch mit seiner dynamischen Aktivität in Beziehung zu setzen, verwenden wir maschinelles Lernen und Data Mining, um Struktur-Aktivitäts-Beziehungen aus zufälligen rekurrenten kortikalen Netzen und entsprechenden Simulationen zu lernen. Inspiriert von der;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73954-8_3 38e893e120d4ee042a9255ed8ef77cf5;de;;;7.4.;;;Schätzung des Softwareaufwands mit Techniken des maschinellen Lernens Die Produkt-/Softwareaufwand-/Kostenschätzungstechniken werden angewendet, um den Aufwand vorherzusagen, der erforderlich ist, um das Projekt abzuschließen. Eine falsche Schätzung führt zu einer Erhöhung der Frist und des Budgets des Projekts, was wiederum zum Scheitern des Projekts führen kann. Die Schätzmodelle und -techniken werden in verschiedenen Phasen des Software-Engineerings wie Budgetierung, Risikoanalyse, Planung usw. verwendet. Die Aufwandsschätzung muss in SDLC akribisch durchgeführt werden, um Zeitverschiebungen und Überbudgetierungsprobleme zu vermeiden. Techniken der Aufwandsschätzung können in zwei Kategorien eingeteilt werden, d. h. parametrische/algorithmische und nicht-parametrische/nicht-algorithmische Modelle. Um die Beschränkungen algorithmischer Modelle zu überwinden, wurden nicht-algorithmische Methoden erforscht, die auf Soft-Computing-Verfahren basieren. Nicht-algorithmische Techniken umfassen Parkinson, Expertenurteil, maschinelles Lernen (ML) und Preis zu gewinnen. Die ML-Modelle wurden eingeführt, um die Fehler parametrischer Schätzmodelle zu behandeln. Diese Modelle ergänzen auch die moderne Projektentwicklung und -steuerung. Neuronale Netze, Fuzzy-Logik, genetische Algorithmen, fallbasiertes Denken usw. sind Teil der nicht-algorithmischen Modelle. Dieses Übersichtspapier konzentriert sich auf Techniken zur Schätzung des Softwareaufwands, die auf Techniken des maschinellen Lernens basieren, deren Anwendungsbereich, Methode zur Berechnung der Softwarekostenschätzung und Analyse vorhandener ML-Techniken, um mögliche Bereiche für weitere Forschung zu erkunden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5421-6_8 368dc7da4ce693c0f4ea139af01d29f6;de;;;7.4.;;;Funktionsauswahlfilter basierend auf dem Permutationstest Wir untersuchen das Problem der überwachten Merkmalsauswahl innerhalb des Filterrahmens. In unserem auf Zweiklassenprobleme anwendbaren Ansatz ist die Merkmalsstärke umgekehrt proportional zu;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30115-8_32 3c5d447de4b5e02814cb0e258426b196;de;;;7.4.;;;Einfache und effiziente Machine-Learning-Frameworks zur Identifizierung von relevanten Artikeln zur Protein-Protein-Interaktion und experimentelle Methoden zur Untersuchung der Wechselwirkungen interaction Protein-Protein-Interaktion (PPI) ist ein wichtiges biomedizinisches Phänomen. Das automatische Erkennen von PPI-relevanten Artikeln und das Identifizieren von Methoden, die zur Untersuchung von PPI verwendet werden, sind wichtige Text-Mining-Aufgaben. In dieser Studie haben wir domänenunabhängige Funktionen untersucht, um zwei Open-Source-Frameworks für maschinelles Lernen zu entwickeln. Einer führt eine binäre Klassifizierung durch, um zu bestimmen, ob der gegebene Artikel PPI-relevant ist oder nicht, genannt „Simple Classifier“, und der andere bildet die PPI-relevanten Artikel mit entsprechenden Interaktionsmethodenknoten in einem standardisierten PSI-MI (Proteomics Standards Initiative-Molecular Interactions) ab. Ontologie mit dem Namen „OntoNorm“.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-12-S8-S10 9a153cd670cba1ea447bb94462f363be;de;;;7.4.;;;Identifizierung von Sängern in Audiosongs mit Convolutional Neural Network Es gibt Millionen von Liedern auf der Welt. Manuell ist es eine umständliche Aufgabe, Songs nach Sänger zu klassifizieren. Andererseits können Suchalgorithmen ein Lied effizient erkennen, aber diese Algorithmen verwenden eine Mustervergleichstechnik in einer Datenbank und können daher nicht über bekannte Lieder verallgemeinert werden. Musikunternehmen stehen oft vor solchen Herausforderungen bei der Automatisierung der Songklassifizierung. Daher besteht ein Bedarf an einem Verfahren mit künstlicher Intelligenz, um Lieder basierend auf Sängern zu klassifizieren, die auch für unbekannte Lieder generalisiert werden können. Dieses Papier stellt eine Deep-Learning-Architektur vor, um das Ziel zu erreichen, Sänger in Audio-Songs zu identifizieren. Zu diesem Zweck wird ein neuartiger Bollywood-Song-Dataset (BSdataset) erstellt. Die Vorverarbeitung des Datensatzes beinhaltet die Umwandlung einer Audiodatei in ein Spektrogramm, dh visuelle Darstellung der Frequenzen des Audiosignals, wie sie sich mit der Zeit ändern, und verwendet diese Spektrogramme dann als Bild, um ein Convolutional Neural Network (CNN) zur Klassifizierung von Sänger in einem Audio-Song.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6881-1_9 83d8cfffd9392bd5b6d9980948c48f0c;de;;;7.4.;;;Einbindung der japanischen Methode zum Abrufen von Informationen, die eine Abhängigkeitsbeziehung verwendet, in den probabilistischen Abruf Unsere japanische Methode zum Abrufen von Informationen, die sowohl Abhängigkeitsbeziehungen zwischen Wörtern als auch ihre semantischen Informationen verwendet, die wir DRB-Methode nennen, behandelt einen Rahmen, der aus einem Nomen und einem das Nomen bestimmenden Verb besteht, als Schlüssel, um zu beurteilen, ob ein Dokument relevant ist oder nicht auf eine Anfrage. Diese Methode bewies, dass die Verwendung von Abhängigkeitsbeziehungen beim Informationsabruf in Bezug auf die Präzision sehr effektiv ist. Andererseits ist es oft zu anspruchsvoll, eine angemessene Anzahl von Dokumenten abzurufen, was Recall zum Einsturz bringt. Um dieses Problem zu lösen, integrieren wir die DRB-Methode in eine probabilistische Methode, damit Dokumente mit statistischen Informationen bewertet und eingestuft werden. In den Experimenten vergleichen wir die Leistung der eingebauten Methoden, (A) jeweiliger Frame-Matching mit 2-Poisson-Modell und (B) Frame-Matching mit 2-Poisson-Modell, mit anderen vier Information Retrieval-Methoden, (C) 2-Poisson-Modell, ( D) NEAR-Matching, (E) AND-Matching und (F) Frame-Matching unter Verwendung von BMIR-J2;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44533-1_114 ad663e265bcd63af581766cd06553a43;de;;;7.4.;;;Eigenverbindungen zur Intrusion Detection Die meisten aktuellen Intrusion Detection-Systeme sind signaturbasierte oder maschinelle Lernmethoden. Trotz der Vielzahl von Algorithmen für maschinelles Lernen, die auf KDD 99 cup angewendet wurden, hat keiner von ihnen ein Vormodell eingeführt, um die riesige Informationsmenge zu reduzieren, die in den verschiedenen KDD 99-Datensätzen vorhanden ist. Wir stellen eine Methode vor, die auf die verschiedenen Datensätze angewendet wird, bevor wir einen der verschiedenen Algorithmen für maschinelles Lernen ausführen, die auf den KDD 99 Intrusion Detection Cup angewendet werden. Diese Methode ermöglicht es uns, die Informationsmenge in den unterschiedlichen Datensätzen ohne Informationsverlust deutlich zu reduzieren. Unsere Methode basiert auf der Hauptkomponentenanalyse (PCA). Es funktioniert durch die Projektion von Datenelementen auf einen Merkmalsraum, der eigentlich ein Vektorraum ist;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-8143-X_16 50af86fb5ba6f58d84e98cf0c313e07f;de;;;7.4.;;;Nicht ablenkendes Feedback im durch künstliche Intelligenz unterstützten Lernen Durch die Einführung sensorischer Informationen in das computergestützte Lernen entsteht eine Vielzahl von verfügbaren Daten, die gesammelt werden müssen. In dieser Publikation untersuchen wir, wie dieses „Mehr an Daten“ nicht zwangsläufig zu einem „Mehr an Ablenkung“ an der Schnittstelle führt. Möglich wird dies durch die Analyse beabsichtigter und unbeabsichtigter Handlungen des Benutzers oder der Umgebungsbedingungen, um – mit künstlicher Intelligenz – zu erkennen, ob der Lernende beispielsweise unkonzentriert, müde oder überfordert ist. Ausgehend von dieser Analyse innerhalb einer Lernsitzung kann somit ein Benutzermodell dynamisch aktualisiert werden. Dies bietet die Möglichkeit einer direkten Feedbackschleife, um den Status, den Fortschritt usw. des Lernenden widerzuspiegeln, wirft aber auch neue Herausforderungen auf, die angegangen werden müssen, nämlich wann eingegriffen werden muss, wie viel Feedback gegeben werden muss und wie die Anforderungen dargestellt werden müssen Informationen, um die Ablenkung zu reduzieren und so den Lernerfolg zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-41099-5_2 aee56072fa41e2d6961bb07c0d51dc59;de;;;7.4.;;;Wie rationalisiert man die KI-Anwendung in der Regierung? Eine Fallstudie zur Bürgerbeteiligung in Deutschland Künstliche Intelligenz (KI)-Technologien sind in fast allen Bereichen der Gesellschaft, Wirtschaft und Regierung auf dem Vormarsch. Gerade in der Regierung ist interessant, wie der Einsatz von KI rationalisiert werden kann: zumindest in einem kontrollierten Umfeld, um potenzielle (positive und negative) Auswirkungen bewerten zu können. Leider fehlt es der Wiederverwendung bei der Entwicklung von KI-Anwendungen und deren Bewertungsergebnissen an Interoperabilität und Übertragbarkeit. Eine mögliche Lösung für diese Herausforderung wäre die Anwendung standardisierter Artefakte: nicht nur auf technischer, sondern auch auf organisatorischer oder semantischer Ebene. In diesem Beitrag werden Erkenntnisse aus einer qualitativ explorativen Fallstudie zur Online-Bürgerbeteiligung in Deutschland vorgestellt, die Erkenntnisse zum aktuellen Standardisierungsgrad von KI-Anwendungen aufzeigen. Um eine eingehende Analyse zu ermöglichen, umfasst die Forschung die Bewertung zweier besonderer KI-Ansätze zur Verarbeitung natürlicher Sprache. Unsere Ergebnisse legen nahe, dass Standardisierungsartefakte zur Rationalisierung der KI-Anwendung überwiegend auf technischer Ebene existieren und noch begrenzt sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-27325-5_18 4205ef92220cddd59bc5f33eee4bb52c;de;;;7.4.;;;Integration von Spectral Kernel Learning und Constraints in die halbüberwachte Klassifizierung In letzter Zeit wurde die Integration neuer Wissensquellen wie paarweise Einschränkungen in verschiedene Klassifikationsaufgaben mit unzureichenden Trainingsdaten im maschinellen Lernen aktiv untersucht. In diesem Papier schlagen wir einen neuartigen semi-überwachten Klassifikationsansatz vor, genannt semi-überwachte Klassifizierung mit erweitertem Spektralkern, der gleichzeitig sowohl spärlich markierte Daten als auch zusätzliche paarweise Einschränkungen zusammen mit unmarkierten Daten verarbeiten kann. Insbesondere entwerfen wir zuerst ein nicht-parameter-spektrales Kernel-Lernmodell basierend auf der quadrierten Verlustfunktion. Dann entwickeln wir einen effizienten halbüberwachten Klassifikationsalgorithmus, der sich die Laplace-Spektralregularisierung zunutze macht: halbüberwachte Klassifizierung mit verbessertem Spektralkernel unter quadratischem Verlust (ESKS). Schließlich führen wir viele Experimente mit einer Vielzahl von synthetischen und realen Datensätzen durch, um die Wirksamkeit des vorgeschlagenen ESKS-Algorithmus zu demonstrieren.;-;-;-;https://link.springer.com/article/10.1007/s11063-012-9224-2 fadb5902d6f4d44854755176d9b71c8e;de;;;7.4.;;;Ein Vergleich zweier Ansätze zum Data Mining aus unausgeglichenen Daten Unser Ziel ist ein Vergleich zweier Data-Mining-Ansätze zum Umgang mit unausgewogenen Datensätzen. Der erste Ansatz basiert auf dem Speichern des ursprünglichen Regelsatzes, induziert durch den LEM2-Algorithmus (Learning from Example Module) und dem Ändern der Regelstärke für alle Regeln für die kleinere Klasse (Konzept) während der Klassifizierung. Beim zweiten Ansatz wird die Regelinduktion aufgeteilt: Der Regelsatz für die größere Klasse wird von LEM2 induziert, während der Regelsatz für die kleinere Klasse von EXPLORE, einem weiteren Data-Mining-Algorithmus, induziert wird. Ergebnisse unserer Experimente zeigen, dass beide Ansätze die Empfindlichkeit im Vergleich zum ursprünglichen LEM2 erhöhen. Der Leistungsunterschied beider Ansätze ist jedoch statistisch nicht signifikant. Daher sollte der geeignete Ansatz zum Umgang mit unausgewogenen Datensätzen individuell für einen bestimmten Datensatz ausgewählt werden.;-;-;-;https://link.springer.com/article/10.1007/s10845-005-4362-2 10fdcdf597d223a554751e00f4dfaee9;de;;;7.4.;;;Schritt zur Vorhersage der Aufenthaltsdauer von Patienten auf Intensivstationen Krankenhäuser sammeln zunehmend riesige Datenmengen durch neue Speichermethoden. Diese Daten können verwendet werden, um verborgenes Wissen zu extrahieren, das für die Schätzung der Aufenthaltsdauer von aufgenommenen Patienten entscheidend sein kann, um das Management der Krankenhausressourcen zu verbessern. Daher schildert dieser Artikel die Leistungsanalyse verschiedener Data-Mining-Techniken durch die Anwendung von Lernalgorithmen, um die Verweildauer von Patienten bei Aufnahme auf einer Intensivstation vorherzusagen. Die in dieser Studie verwendeten Daten enthalten etwa 60.000 Datensätze und 28 Merkmale mit persönlichen und medizinischen Informationen. Eine vollständige Analyse der mit verschiedenen Machine-Learning-Algorithmen erzielten Ergebnisse zeigte, dass das Modell, das mit dem Gradient Boosted Trees-Algorithmus trainiert wurde und nur die Funktionen verwendet, die stark mit der Verweildauer des Patienten korrelierten, mit einer Genauigkeit von 99,19% die beste Leistung erzielte . In diesem Sinne wurde ein genaues Verständnis der Faktoren erreicht, die mit der Verweildauer auf Intensivstationen zusammenhängen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72654-6_28 6bbef2339a9e3d4b1600c13033b3f33c;de;;;7.4.;;;Lokale und globale Symmetriebrechung beim Itemset-Mining Das Konzept der Symmetrie wurde im Bereich der Constraint-Programmierung und der propositionalen Erfüllbarkeit eingehend untersucht. Es wurden mehrere Verfahren zum Erkennen und Entfernen dieser Symmetrien entwickelt, und ihre Verwendung in bekannten Lösern dieser Domänen verbesserte ihre Wirksamkeit bei einer großen Vielfalt von Problemen, die als schwierig zu lösen gelten, dramatisch. Das Konzept der Symmetrie kann auf andere Bereiche übertragen werden, in denen einige Strukturen effektiv genutzt werden können. Insbesondere im Bereich Data Mining, wo einige Aufgaben als Einschränkungen oder logische Formeln ausgedrückt werden können. Uns interessiert hier die Erkennung und Beseitigung von;-;-;-;https://link.springer.com/article/10.1007/s10472-016-9528-4 27897186e7a1132d43240eac0e26dc7b;de;;;7.4.;;;Auswirkungen von Noisy Labels in Lerntechniken: Eine Umfrage Verrauschte Daten sind das Hauptproblem bei der Klassifizierung. Die möglichen Quellen für Rauschetiketten können unzureichende Verfügbarkeit von Informationen oder Kodierungs-/Kommunikationsprobleme oder Dateneingabefehler durch Experten/Laien usw. sein, die die Leistung und Genauigkeit des Modells beeinträchtigen können. In einem realen Datensatz wie Flickr ist die Wahrscheinlichkeit jedoch hoch, dass das verrauschte Label enthalten ist. Anfänglich wurden wenige Methoden wie die Identifizierung, Korrektur und Eliminierung verrauschter Daten verwendet, um die Leistung zu verbessern. Verschiedene Algorithmen des maschinellen Lernens werden verwendet, um die laute Umgebung zu verringern, aber in den jüngsten Studien lösen Deep-Learning-Modelle dieses Problem. In dieser Übersicht wird eine kurze Einführung in die Lösung für das Noisy Label gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0694-9_38 69b86e423c171979ef31f97e659016d3;de;;;7.4.;;;Zweistufige vSLAM-Schleifenschlusserkennung basierend auf Sequenzknotenanpassung und semi-semantischem Autoencoder Das visuelle Szenenverständnis und die Ortserkennung sind die schwierigsten Probleme, die mobile Roboter lösen müssen, um eine autonome Navigation zu erreichen. Um die hohe Rechenkomplexität vieler globaler optimaler Suchstrategien zu reduzieren, wird in diesem Beitrag eine neue zweistufige Loop Closure Detection (LCD)-Strategie entwickelt. Der Front-End Sequence Node Level Matching (FSNLM)-Algorithmus basiert auf der lokalen Kontinuitätsbeschränkung des Bewegungsprozesses, der die blinde Suche nach der globalen optimalen Übereinstimmung vermeidet und die Bildknoten über ein Schiebefenster abgleicht, um das lokale Optimale genau zu finden passende Kandidaten-Knotenmengen. Darüber hinaus verwendet der Back-End Image Level Matching (BILM)-Algorithmus in Kombination mit einem verbesserten semantischen Modell, DeepLab_AE, ein Convolutional Neural Network (CNN) als Merkmalsdetektor, um visuelle Deskriptoren zu extrahieren. Es ersetzt traditionelle Merkmalsdetektoren, die von Forschern im Bereich Computer Vision manuell entwickelt wurden und nicht auf alle Umgebungen angewendet werden können. Schließlich wird die Leistung des zweistufigen LCD-Algorithmus anhand von fünf öffentlichen Datensätzen bewertet und mit der Leistung anderer moderner Algorithmen verglichen. Die Evaluierungsergebnisse belegen, dass die vorgeschlagene Methode im Vergleich zu anderen Algorithmen günstig abschneidet.;-;-;-;https://link.springer.com/article/10.1007/s10846-020-01302-0 627ce74a0f1f051044269c7c79b0f03b;de;;;7.4.;;;Teilüberwachtes Lernen zur Erkennung unbekannter Malware Malware ist jede Art von Computersoftware, die sowohl für Computer als auch für Netzwerke potenziell schädlich ist. Die Menge an Malware steigt jedes Jahr und stellt eine ernsthafte globale Sicherheitsbedrohung dar. Die signaturbasierte Erkennung ist die am weitesten verbreitete kommerzielle Antivirenmethode, sie erkennt jedoch ständig keine neue Malware. Modelle des überwachten maschinellen Lernens wurden verwendet, um dieses Problem zu lösen, aber der Nutzen des überwachten Lernens ist bei weitem nicht perfekt, da es erfordert, dass eine beträchtliche Menge an bösartigem Code und harmloser Software im Voraus identifiziert und gekennzeichnet werden. In diesem Whitepaper schlagen wir eine neue Methode zum Schutz vor Malware vor, die einen halbüberwachten Lernansatz verfolgt, um unbekannte Malware zu erkennen. Diese Methode wurde entwickelt, um einen Klassifikator für maschinelles Lernen unter Verwendung einer Reihe von gekennzeichneten (Malware und legitime Software) und nicht gekennzeichneten Instanzen aufzubauen .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19934-9_53 53d9ae4e55129da8af6e48393553e668;de;;;7.4.;;;Ein prädiktiver Ansatz zur Auswahl geeigneter Rechenknoten in einer Grid-Umgebung mithilfe von Data Mining Grid Computing ist eine neue Technologie zur Entwicklung der gemeinsamen Nutzung von Ressourcen wie Rechenressourcen, Daten usw. zwischen vielen Organisationen an verschiedenen geografischen Standorten. Daher ist die Ressourcenverwaltung zum Suchen, Auswählen und Planen im Grid wichtiger. Dieses Papier hat sich auf die Auswahl von Knoten konzentriert, um die richtigen Jobs zuzuweisen. Es gibt viele Methoden, um diese Arbeit zu erledigen, aber jede von ihnen hat Schwächen. In diesem Papier schlagen wir einen neuen Ansatz für Fair Grid Resource Broker (GRB) vor, um optimale Knoten auszuwählen, und vergleichen ihn dann mit anderen bestehenden Methoden. Unser vorgeschlagener Ansatz verwendet den Fuzzy-Entscheidungsbaum als Evolutionsmethode, um geeignete Ressourcen in einem vorhandenen Ressourcenpool im Grid zu finden. Wenn unser Ansatz nicht auf Ressourcenmangel stößt, funktioniert er außerdem in bester Form und weist jeder Aufgabe genügend Rechenleistung zu, damit sie innerhalb der Frist abgeschlossen werden kann. Die Rolle dieses Ressourcenbrokerdienstes besteht darin, den Fuzzy-Entscheidungsbaum-Algorithmus auszuführen, um die besten Knoten gemäß den Anforderungen und Bedingungen des Jobs im Grid zu finden. Die Ergebnisse der Experimente zeigen einen starken Effekt bei der Verbesserung des Ressourcenfindungszyklus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10238-7_16 59f8a1b3aab2f0c2244c60ac8816ed03;de;;;7.4.;;;Ein neuartiger Diskretisierer für die Wissensermittlung basierend auf Multiknowledge-Ansätzen Da viele Ansätze zur Wissensermittlung gut mit diskreten Werten umgehen können, ist eine Diskretisierung kontinuierlicher Attribute erforderlich, wenn die Ansätze auf ein Instanzinformationssystem mit kontinuierlichen Attributen angewendet werden. In diesem Beitrag wird ein neuartiger adaptiver Diskretisierer basierend auf einer dichotomischen Entropie und einem statistischen Verteilungsindex vorgeschlagen, um die kontinuierlichen Attribute im Instanzinformationssystem vorzuverarbeiten, und dann wird ein Multi-Knowledge-Ansatz angewendet, um Entscheidungen zu treffen. Die experimentellen Ergebnisse an Benchmark-Datensätzen zeigen, dass der adaptive Diskretisierer die Entscheidungsgenauigkeit verbessern kann. Die Entscheidungsgenauigkeiten für die Kombination dieses Diskretisierungs- und Multi-Knowledge-Ansatzes sind besser als bei anderen Ansätzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-37256-1_96 27e06cfefd74cf01cfb0b463b3e75303;de;;;7.4.;;;Vorhersage des Hyperurikämierisikos basierend auf der Analyse des medizinischen Untersuchungsberichts Diese Studie hofft, durch die Analyse eines medizinischen Untersuchungsdatensatzes mit 123.968 Proben zur Krankheitserkennung beizutragen. Basierend auf Association Rules Mining und entsprechendem medizinischen Wissen wurden hier 6 Modelle zur Vorhersage der Hyperurikämieprävalenz konstruiert und deren Risikofaktoren untersucht. Beim Vergleich verschiedener Modelle sind die Vorhersageleistungen der logistischen Lasso-Regression, der traditionellen logistischen Regression und des Random Forest hervorragend, und die Ergebnisse können interpretiert werden. Das logistische Regressionsmodell von PCA funktioniert ebenfalls gut, ist jedoch nicht analytisch. Die Vorhersageleistung von KNN ist relativ schlecht, während die Reduzierung der Datendimensionalität die AUC erheblich verbessern kann. SVC hat die schlechteste Leistung und seine Effizienz bei der Verarbeitung von hochdimensionalen großen Datensätzen ist extrem niedrig. Die Risikofaktoren der Hyperurikämie gehören hauptsächlich in 4 Kategorien, nämlich Adipositas-Faktoren, Nierenfunktionsfaktoren, Leberfunktionsfaktoren und myeloproliferative Erkrankungen. Random Forest, Lasso-Regression und logistische Regression behandeln alle Serumkreatinin, BMI, Triglyceride, Fettleber und Alter als wichtige prädiktive Variablen. Modelle zeigen auch, dass Serumharnstoff, Serum-Alanin-Aminotransferase, negatives Urobilinogen, Erythrozytenzahl, Leukozytenzahl und der pH-Wert signifikant mit dem Risiko korrelieren.;-;-;-;https://link.springer.com/article/10.1007/s11518-020-5462-4 25588c44a5b4da5ec3c0bee2369bd5c2;de;;;7.4.;;;Ein neuartiger Ansatz zur Analyse von Daten aus der „realen Welt“: Eine Data-Mining-Engine zur Identifizierung der Einreichung von Studentendokumenten durch mehrere Autoren In diesem Artikel beschreiben wir eine Data-Mining-Engine, die einen neuen Ansatz zur Plagiatserkennung nutzt. Der neue Ansatz, den wir gewählt haben, identifiziert studentische Einreichungen, die von mehr als einem Autor erstellt wurden, und bietet somit einen Ausgangspunkt für die Untersuchung einer studentischen Einreichung, die möglicherweise Plagiate enthält. Der Ansatz, den diese Engine verwendet, hat ein großes Potenzial für die Bewertung von Einreichungen von zwei Arten von Studentenschaften. Nämlich eine große Klassengröße, mit deren Schreibstil sie möglicherweise nicht vertraut sind, und Studenten, die Online-Kursen folgen, die sie möglicherweise nie treffen. Der von uns gewählte Ansatz ist insofern neu, als andere Ansätze versuchen, das eingereichte Material mit anderweitig vorhandenem Material abzugleichen, während unser Ansatz versucht, mehrere Autorenstile in der Einreichung zu bestimmen und somit einen Hinweis darauf zu geben, dass die Einreichung Informationen aus mehr als einer Quelle enthält. Die Implikationen der Verwendung von Autorenstilen für die Identifizierung zukünftiger verdächtiger Einreichungen und für den Vergleich mit zukünftigen Einreichungen desselben Studenten werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07812-0_11 bfae2788d711c44a85b4348af2702e9f;de;;;7.4.;;;Datenassoziation und Lokalisierung von klassifizierten Objekten in Visual SLAM Karten, die von vielen visuellen simultanen Lokalisierungs- und Kartenalgorithmen erzeugt werden, bestehen aus geometrischen Grundelementen wie Punkten, Linien oder Ebenen. Diese Karten bieten eine topografische Darstellung der Umgebung, enthalten jedoch keine semantischen Informationen über die Umgebungen. Objektklassifizierer, die Fortschritte beim maschinellen Lernen nutzen, sind hochgenau und zuverlässig und können Tausende von Objekten erkennen und klassifizieren. Klassifizierer können in eine SLAM-Pipeline integriert werden, um einer Szene semantische Informationen hinzuzufügen. Häufig werden diese semantischen Informationen für jeden Frame des Bildes durchgeführt, aber die semantische Kennzeichnung ist über die Zeit nicht beständig. In dieser Arbeit stellen wir einen nichtparametrischen statistischen Ansatz vor, um einen Vergleich/eine Zuordnung von Objekten durchzuführen, die über aufeinanderfolgende Bildframes erfasst wurden. Diese zugeordneten klassifizierten Objekte werden dann in der aufgelaufenen Karte unter Verwendung eines unüberwachten Clustering-Verfahrens lokalisiert. Wir testen unseren Ansatz an mehreren Datensätzen und er zeigt eine starke Leistung in Bezug auf Objekte, die von Frame zu Frame korrekt zugeordnet sind. Wir haben unseren Algorithmus auch an drei Datensätzen in unserer Laborumgebung mit Tag-Markern getestet, um die Genauigkeit des Lokalisierungsprozesses klassifizierter Objekte zu demonstrieren.;-;-;-;https://link.springer.com/article/10.1007/s10846-020-01189-x d8edf50cb435d5dd8ab9738f7eb7eec8;de;;;7.4.;;;Ein vollautomatisches Hybrid-Human-Sperma-Detektions- und Klassifikationssystem basierend auf Mobile-Net und dem Leistungsvergleich mit herkömmlichen Methoden Die Spermienmorphologie als Indikator für die Fruchtbarkeit ist ein entscheidendes Instrument bei der Samenanalyse. In dieser Studie wird ein Smartphone-basiertes Hybridsystem vorgestellt, das die morphologische Analyse der Spermien vollständig automatisiert, mit dem Ziel, unerwünschte menschliche Faktoren zu beseitigen. Das vorgeschlagene Hybridsystem besteht aus zwei progressiven Schritten: automatische Segmentierung möglicher Spermienformen und Klassifizierung von normalen/abnormalen Spermien. Im Segmentierungsschritt wurden Clustering-Techniken mit/ohne Gruppensparsity-Ansatz getestet, um Interessenbereiche aus den Bildern zu extrahieren. Anschließend wurde ein neuartiger öffentlich zugänglicher morphologischer Bilddatensatz von Spermien erstellt, dessen Labels von Experten als Nicht-Spermien, normale und abnormale Spermien identifiziert wurden, als Grundlage für den Klassifizierungsschritt. Im Klassifikationsschritt wurden konventionelle und Ensemble-Machine-Learning-Methoden auf domänenspezifische Merkmale angewendet, die mithilfe von Wavelet-Transformation und Deskriptoren extrahiert wurden. Darüber hinaus wurden als Alternative zu herkömmlichen Funktionen drei tiefe neuronale Netzwerkarchitekturen eingesetzt, die nach Verwendung von statistischem Lernen High-Level-Funktionen aus Rohbildern extrahieren können, um die Leistung der vorgeschlagenen Methode zu erhöhen. Die Ergebnisse zeigen, dass für die konventionellen Merkmale die höchsten Klassifikationsgenauigkeiten mit 80,5 % und 83,8 % unter Verwendung der Wavelet- und Deskriptor-basierten Merkmale, die den Support Vector Machines zugeführt wurden, erreicht wurden. Auf der anderen Seite erreichte das Mobile-Net, ein sehr komfortables Netzwerk für Smartphones, eine Genauigkeit von 87%. Im Lichte der erzielten Ergebnisse zeigt sich, dass ein vollautomatisches Hybridsystem, das die Gruppensparsität verwendet, um die Segmentierungsleistung zu verbessern, und das Mobile-Net, um robuste Funktionen auf hohem Niveau zu erhalten, eine effektive mobile Lösung für die Spermienmorphologieanalyse sein kann Problem.;-;-;-;https://link.springer.com/article/10.1007/s11517-019-02101-y 65f6856077cba3da3e26411e173202fb;de;;;7.4.;;;Ein Wrapper zum Neugewichten von Trainingsinstanzen für den Umgang mit unausgeglichenen Datensätzen Ein aus einem unausgeglichenen Datensatz induzierter Klassifikator hat eine niedrige Fehlerrate für die Majoritätsklasse und eine unerwünschte Fehlerrate für die Minoritätsklasse. Dieser Beitrag bietet zunächst eine systematische Untersuchung der verschiedenen Methoden, die versucht haben, dieses Problem zu lösen. Schließlich präsentiert sie eine experimentelle Studie dieser Methoden mit einem vorgeschlagenen Wrapper zur Neugewichtung von Trainingsinstanzen und kommt zu dem Schluss, dass ein solcher Rahmen eine wertvollere Lösung für das Problem sein kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-74161-1_4 f8f0478a4fc2a31418caa1ca58c179c1;de;;;7.4.;;;Ein automatisiertes Computer-Vision-System zur Extraktion von Metadaten von Lebensmittelprodukten im Einzelhandel Mit dem rasanten Wachstum der E-Commerce-Branche im Einzelhandel konzentrieren sich die meisten traditionellen Ladenhändler mehr auf Online- und mobile Kanäle. Um wettbewerbsfähig zu bleiben, benötigen Einzelhändler hochwertige Metadaten und leistungsstarke Suchplattformen, die Kunden dazu verleiten, effektive Kaufentscheidungen zu treffen. Viele Einzelhändler haben unvollständige und ungenaue Produktinformationen auf ihren Websites und verwenden mehrere manuelle Methoden, um Produktinformationen von Lieferanten und Drittanbietern zu erhalten. Es gibt keinen bewährten Kanal, über den Einzelhändler hochwertige Metadaten erhalten können. Unsere Studie schlägt eine Automatisierungsmethode vor, um die Extraktion unstrukturierter Produktmetadaten aus Bildern von Lebensmitteletiketten mithilfe von Computer Vision (CV), maschinellem Lernen (ML), optischer Zeichenerkennung (OCR) und natürlicher Sprachverarbeitung (NLP) zu verbessern. Wir schlagen ein automatisches Klassifizierungssystem für die Bildqualität vor, um Bilder zu identifizieren, die ein hohes Maß an Genauigkeit der Metadatenextraktion bieten, und wir schlagen eine Technik vor, um die Qualität von Bildern unter Verwendung traditioneller Computer-Vision-Algorithmen zu verbessern, um die Texterkennung und die OCR- und NLP-basierte Metadatenextraktion zu verbessern Richtigkeit. Unsere Ergebnisse zeigen eine Genauigkeit von 95 % für die Attributextraktion aus hochwertigen Produktbildern mit maschinengedruckten Zeichen mit kontrastierendem Hintergrund.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1580-0_20 d6015c83b07fa48ce202e48de7c4e5f0;de;;;7.4.;;;Dokumentenklassifizierung Dokumentenklassifizierung analog zur allgemeinen Klassifikation von Instanzen, befasst sich mit der Zuweisung von Labels zu Dokumenten. Die Dokumente können in verschiedenen natürlichen Sprachen verfasst sein, können von unterschiedlicher Länge und Struktur sein, können von verschiedenen Autoren mit unterschiedlichen Schreibstilen verfasst werden. Darüber hinaus können die zu klassifizierenden Dokumente aus verschiedenen Quellen bezogen werden, darunter offizielle Nachrichten, interne Unternehmensdokumente sowie öffentliche Webseiten und Texte aus sozialen Medien. Bei der Dokumentenklassifizierung ist neben dem Algorithmus, den wir zum Konstruieren eines Klassifikators verwenden, die Datenrepräsentation entscheidend. Üblicherweise wird die Wortvektordarstellung verwendet, bei der entweder Rohdaten in Form von Wörtern und Phrasen verwendet werden oder eine abstraktere Form erstellt wird. Deep Learning hat sich beim Erlernen der Textdarstellung mit verschiedenen Deep-Learning-Architekturen als sehr effektiv erwiesen.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-1-4899-7687-1_75 ad869f186afd923371756ff3a6f7bd09;de;;;7.4.;;;Auswahl der Stichprobengröße bei Optimierungsmethoden für maschinelles Lernen In diesem Papier wird eine Methodik zur Verwendung unterschiedlicher Stichprobengrößen in Batch-Optimierungsmethoden für groß angelegte maschinelle Lernprobleme vorgestellt. Der erste Teil des Beitrags befasst sich mit dem heiklen Thema der dynamischen Probenauswahl bei der Bewertung von Funktion und Gradient. Wir schlagen ein Kriterium zur Erhöhung der Stichprobengröße vor, das auf Varianzschätzungen basiert, die während der Berechnung eines Chargengradienten erhalten wurden. Wir etablieren eine;-;-;-;https://link.springer.com/article/10.1007/s10107-012-0572-5 30dc082e30a76802e399f235c4749a37;de;;;7.4.;;;Vertrauenswürdige Künstliche Intelligenz: Zur Nutzung privater Daten Künstliche Intelligenz ist im Kontext der Digitalisierung und des globalen Wettbewerbs neu in den Fokus gerückt. Ebenso die Spannung zwischen menschlicher Ethik, Regulierung und den potenziellen Gewinnen, die dieses Technologiefeld für den wirtschaftlichen und gesellschaftlichen Fortschritt bietet. Dieses Papier soll einen Beitrag zur laufenden Debatte über Chancen und Unsicherheiten insbesondere im Hinblick auf die Nutzung privater Daten in der KI leisten. Wir diskutieren den Status von KI-Ergebnissen hinsichtlich ihrer Validität und des KI-Inputs hinsichtlich der Datenqualität. In einem Ansatz erster Ordnung unterscheiden wir zwischen den kommerziellen, öffentlichen, industriellen und wissenschaftlichen Datensphären von KI-Systemen. Wir nehmen die ethischen und regulativen Ansätze zur Nutzung und zum Schutz massiver privater Daten für KI wieder auf. Hinsichtlich der derzeit favorisierten Organisationsformen der Datenerhebung und des Datenschutzes verweisen wir auf entsprechende Regelungen und bezeichnen als Funktionsmittel Distributed Ledger Systems und Open Data Spaces. Abschließend argumentieren wir, dass die Regulierung des Datenschutzes und der Qualität durch die Unterscheidung verschiedener KI-Datenbereiche ein angemessenes Gleichgewicht dieser beiden Aspekte ermöglichen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-62807-9_52 a00e02bc581dc79fe33761c06ccc4dd5;de;;;7.4.;;;Verteilte Lastenausgleichsstrategie für maschinelles Lernen in Cloud-Computing-Diensten Mobile Service Computing ist ein neues Cloud-Computing-Modell, das verschiedene Cloud-Dienste für Benutzer mobiler intelligenter Endgeräte über einen mobilen Internetzugang bereitstellt. Die Dienstqualität ist ein wesentliches Problem, dem sich das Mobile Service Computing gegenübersieht. In diesem Artikel zeigen wir eine Reihe von Forschungsstudien zur Beschleunigung des Trainings eines Modells für verteiltes maschinelles Lernen (ML) auf Basis von Cloud-Diensten. Verteiltes ML ist zum Mainstream des heutigen ML-Modelltrainings geworden. Bei herkömmlicher verteilter ML basierend auf Bulk-Synchron-Parallel verzögert die vorübergehende Verlangsamung eines Knotens im Cluster die Berechnung anderer Knoten aufgrund des häufigen Auftretens von synchronen Barrieren, was zu einer Verschlechterung der Gesamtleistung führt. Unser Paper schlägt eine Load-Balancing-Strategie namens Adaptive Fast Reassignment (AdaptFR) vor. Darauf aufbauend haben wir ein verteiltes paralleles Rechenmodell namens adaptiv-dynamic synchron parallel (A-DSP) entwickelt. A-DSP verwendet ein entspannteres Synchronisationsmodell, um den durch synchrone Operationen verursachten Leistungsverbrauch zu reduzieren und gleichzeitig die Konsistenz des Modells sicherzustellen. Gleichzeitig implementiert A-DSP auch die AdaptFR-Load-Balancing-Strategie, die das Nachzüglerproblem durch den Leistungsunterschied zwischen den Knoten angeht, unter der Prämisse, die Genauigkeit des Modells sicherzustellen. Die Experimente zeigen, dass A-DSP die Trainingsgeschwindigkeit effektiv verbessern kann, während die Genauigkeit des Modells im verteilten ML-Modelltraining sichergestellt wird.;-;-;-;https://link.springer.com/article/10.1007/s11276-019-02042-2 e46e30b4ac17f4d2fbcdcd8dc19fee02;de;;;7.4.;;;Überwachtes maschinelles Lernen zur diagnostischen Klassifikation aus umfangreichen Neuroimaging-Datensätzen Es gibt wachsende Bedenken hinsichtlich der Generalisierbarkeit von Klassifikatoren des maschinellen Lernens in der Neurobildgebung. Um diesen Aspekt in relativ großen heterogenen Populationen zu bewerten, haben wir vier Störungen untersucht: Autismus-Spektrum-Störung (;-;-;-;https://link.springer.com/article/10.1007/s11682-019-00191-8 1d4d6e7f09ae01ad5a11fc55b500237d;de;;;7.4.;;;Kombination von maschinellem Lernen und semantischen Merkmalen bei der Klassifizierung von Unternehmensangaben Wir untersuchen einen Ansatz zur Verbesserung der statistischen Textklassifikation durch die Kombination von maschinellem Lernen mit einer ontologiebasierten Identifizierung domänenspezifischer Themenkategorien. Wir wenden diesen Ansatz bei Ad-hoc-Mitteilungen von börsennotierten Unternehmen an. Diese Form der Pflichtpublikation betrifft alle Informationen, die den Aktienkurs beeinflussen können, relevante Themenkategorien unterliegen strengen Vorschriften. Unser Ziel ist es, Offenlegungen nach ihrer Auswirkung auf die Aktienkurse zu klassifizieren (negativ, neutral, positiv). In der hier berichteten Studie kombinieren wir das Parsing natürlicher Sprache mit einer formalen Hintergrundontologie, um Offenlegungen zu bestimmten Themen aus einer vorgegebenen Liste zu erkennen. Die semantische Analyse identifiziert einige dieser Themen mit angemessener Genauigkeit. Wir zeigen dann, dass maschinelle Lernende von den zusätzlichen ontologiebasierten Informationen profitieren, wenn sie die kumulative abnormale Rendite vorhersagen, die der vorliegenden Offenlegung zugeschrieben wird.;-;-;-;https://link.springer.com/article/10.1007/s10849-019-09283-6 26f0509d5ca7a9082d4078f7033e82b6;de;;;7.4.;;;Eine kurze Einführung in das Intrusion Detection System Intrusion Detection System (IDS) ist ein Sicherheitssystem, das als Schutzschicht für die Infrastruktur fungiert. Im Laufe der Jahre ist die IDS-Technologie enorm gewachsen, um mit der Entwicklung der Computerkriminalität mitzuhalten. Seit den Anfängen der Technologie Mitte der 80er Jahre wurden Forschungen durchgeführt, um die Fähigkeit zur Erkennung von Angriffen zu verbessern, ohne die Netzwerkleistung zu gefährden. In diesem Papier hoffen wir, einen kritischen Überblick über die IDS-Technologie, Probleme, die während ihrer Implementierung auftreten, und die Grenzen der IDS-Forschungsbemühungen zu geben. Schließlich werden wir zukünftige Arbeiten vorschlagen, während wir den Reifegrad des Themas, das Ausmaß der Diskussion, den Wert und Beitrag jeder Forschung zu dem diskutierten Bereich untersuchen. Am Ende dieses Papiers wären die Leser in der Lage, die Kluft zwischen den einzelnen Teilbereichen der Forschung klar zu unterscheiden und die Bedeutung dieser Forschungsbereiche für die Industrie zu schätzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35197-6_29 41b25431ef12da0145deb1558844efb8;de;;;7.4.;;;Anwendung des Apriori-Algorithmus auf Prüfungsergebnisse Als interdisziplinäre Disziplin ist Data Mining im Bildungsbereich beliebt, insbesondere bei der Bewertung der Lernleistung von Studierenden. Es konzentriert sich auf die Analyse von Bildungsbewertungsdaten, um Modelle zur Verbesserung der Lernerfahrung der Schüler und zur Verbesserung der institutionellen Effektivität zu entwickeln. Daher ist Data Mining hilfreich für akademische Einrichtungen, die ihren Lernenden eine qualitativ hochwertige Ausbildung vermitteln. Die Anwendung von Data Mining im Bildungsbereich ermöglicht ein besseres Verständnis der Fortschritte eines Schülers. Dies könnte auch verwendet werden, um Wege zu finden, wie man die Bildungsergebnisse verbessern kann. In diesem Papier wurde ein konkretes Beispiel für;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5243-4_24 f98fab69b7c9b885da01929ef5849205;de;;;7.4.;;;Ein ontologiebasiertes hybrides E-Learning-Content-Recommender-System zur Linderung des Kaltstartproblems Ein E-Learning-Empfehlungssystem (RS) zielt darauf ab, personalisierte Empfehlungen basierend auf den Präferenzen und Zielen der Lernenden zu generieren. Die bestehenden RS im E-Learning-Bereich weisen immer noch Nachteile auf, da sie die Lernermerkmale im Empfehlungsprozess nicht berücksichtigen können. In diesem Papier befassen wir uns mit dem Kaltstartproblem neuer Benutzer, das einen großen Nachteil bei E-Learning-Inhalts-RS darstellt. Dieses Problem kann durch die Einbeziehung zusätzlicher Lernerdaten in den Empfehlungsprozess gemildert werden. Dieses Papier schlägt ein ontologiebasiertes (OB) Inhaltsempfehlungssystem vor, um das Kaltstartproblem des neuen Benutzers anzugehen. Im vorgeschlagenen Empfehlungsmodell wird Ontologie verwendet, um den Lernenden und die Lernobjekte mit ihren Eigenschaften zu modellieren. Im Empfehlungsmodell werden kollaborative und inhaltsbasierte Filtertechniken verwendet, um die Top N Empfehlungen basierend auf den Bewertungen der Lernenden zu generieren. Es wurden Experimente durchgeführt, um die Leistung und Vorhersagegenauigkeit des vorgeschlagenen Modells unter Kaltstartbedingungen unter Verwendung der Bewertungsmetriken mittlerer absoluter Fehler, Präzision und Wiedererkennungswert zu bewerten. Das vorgeschlagene Modell bietet zuverlässigere und personalisierte Empfehlungen, indem es ontologisches Domänenwissen nutzt.;-;-;-;https://link.springer.com/article/10.1007/s10639-021-10508-0 f25ca68513a7cdfaf9b05934edacffc2;de;;;7.4.;;;Zweiphasiger aktiver Support Kernel Machine Learning Da SVMs in zahlreichen realen Lernprozessen großen Erfolg hatten, wurde SVM-basiertes aktives Lernen im Kontext des aktiven Lernens vorgeschlagen und erfolgreich in Bereichen wie der Dokumentenklassifizierung angewendet, in denen SVMs mit linearem Kernel bekanntermaßen effektiv für die Aufgabe. Es ist jedoch schwierig, SVM-basiertes aktives Lernen auf allgemeine Domänen anzuwenden, da der in SVMs verwendete Kernel vor dem aktiven Lernprozess richtig ausgewählt werden sollte, aber gute Kernel für die Zielaufgabe normalerweise unbekannt sind. Wenn der vorgewählte Kernel für die Zieldaten nicht ausreicht, haben sowohl der aktive Lernprozess als auch die gelernte SVM eine schlechte Leistung. Daher werden neue aktive Lernverfahren benötigt, die effektiv einen adäquaten Kernel für die Zieldaten sowie die Labels unbekannter Proben im aktiven Lernprozess finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00399-8_14 f1cc6ff0f4f773f0ccb327b9ed9d30cf;de;;;7.4.;;;Ein syntaktisches, pfadbasiertes hybrides neuronales Netzwerk für die Negationsbereichserkennung Die automatische Erkennung von Negationen ist eine entscheidende Aufgabe in einer Vielzahl von Anwendungen der natürlichen Sprachverarbeitung (NLP), darunter medizinisches Data Mining, Relation Extraction, Question Answering und Sentiment Analysis. In diesem Beitrag präsentieren wir eine syntaktische pfadbasierte hybride neuronale Netzwerkarchitektur, einen neuartigen Ansatz, um den Umfang der Negation in einem Satz zu identifizieren. Unsere hybride Architektur hat die Besonderheit, wichtige Informationen zu erfassen, um festzustellen, ob ein Token in den Geltungsbereich fällt oder nicht, ohne sich auf menschliche Eingriffe verlassen zu müssen. Dieser Ansatz kombiniert ein bidirektionales Long Short-Term Memory (Bi-LSTM)-Netzwerk und ein Convolutional Neural Network (CNN). Das CNN-Modell erfasst relevante syntaktische Merkmale zwischen dem Token und dem Cue innerhalb des kürzesten syntaktischen Pfads sowohl in Wähler- als auch in Abhängigkeitsanalysebäumen. Das Bi-LSTM lernt die Kontextdarstellung entlang des Satzes sowohl in Vorwärts- als auch in Rückwärtsrichtung. Wir evaluieren unser Modell auf dem Bioscope-Korpus und erhalten 90,82% F-Score (78,31 % PCS) auf dem abstrakten Unterkorpus, was merkmalsabhängige Ansätze übertrifft.;-;-;-;https://link.springer.com/article/10.1007/s11704-018-7368-6 1c6e4e84742501f8d09929b0f8e849c8;de;;;7.4.;;;Deep Learning-basierte Darstellung für die Gesichtserkennung Die Gesichtserkennung ist aufgrund der riesigen Menge wilder Datensätze einer der anspruchsvollsten Prozesse. Deep Learning hat sich in Bezug auf die Erkennungsleistung als gute Lösung erwiesen, da dies Tag für Tag den Bereich der Biometrie dominiert. In diesem Artikel ist es unser Ziel, auf Deep Learning basierende Gesichtsdarstellungen unter verschiedenen Bedingungen wie Okklusionen des unteren und oberen Gesichts, Fehlausrichtung, verschiedene Winkel der Kopfhaltungen, wechselnde Beleuchtungen, fehlerhafte Lokalisierung von Gesichtsmerkmalen mit Deep-Learning-Ansätzen zu untersuchen. Zur Extraktion der Gesichtsrepräsentation wurden zwei unterschiedliche populäre Modelle des Deep Learning genannt Lightened CNN und VGG-Face genannt und in diesem Beitrag reflektiert. Beide Modelle zeigen, dass das Deep-Learning-Modell robust gegenüber verschiedenen Arten von Fehlausrichtungen ist und Lokalisierungsfehler des Augenabstands tolerieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-8715-9_50 46f9f5de525c35cf55b08b70ce9427b7;de;;;7.4.;;;Verbesserung der Verpackungsleistung durch Multi-Algorithmus-Ensembles Als Ensemble-Methode, die zuerst ein Komitee von Klassifikatoren einrichtet und dann ihre Ergebnisse durch Mehrheitsabstimmung aggregiert, hat das Bagging erhebliches Forschungsinteresse auf sich gezogen und in verschiedenen Anwendungsbereichen angewendet. Es hat mehrere Vorteile gezeigt, aber in seiner gegenwärtigen Form hat sich das Einsacken als weniger genau herausgestellt als einige andere Gesamtverfahren. Um seine Leistungsfähigkeit freizusetzen und seine Benutzerbasis zu erweitern, schlagen wir einen Ansatz vor, der das Bagging durch die Verwendung von Multi-Algorithmus-Ensembles verbessert. In einem Ensemble mit mehreren Algorithmen werden mehrere Klassifizierungsalgorithmen verwendet. Ausgehend von einer Studie zur Natur der Diversität zeigen wir, dass die Verwendung heterogener Algorithmen zusammen mit verschiedenen Trainingssätzen im Vergleich zur alleinigen Verwendung verschiedener Trainingssätze die Diversität in Ensembles erhöht, und liefern damit eine grundlegende Erklärung für die Forschung mit heterogenen Algorithmen. Darüber hinaus gehen wir das Problem der Beziehung zwischen Diversität und Genauigkeit teilweise an, indem wir eine nichtlineare Funktion bereitstellen, die die Beziehung zwischen Diversität und Korrelation beschreibt. Nachdem wir erkannt haben, dass das Bootstrap-Verfahren die ausschließliche Quelle der Diversität beim Bagging ist, verwenden wir Heterogenität als eine weitere Quelle der Diversität und schlagen einen Ansatz vor, der heterogene Algorithmen beim Bagging verwendet. Zur Auswertung betrachten wir mehrere Benchmark-Datensätze aus verschiedenen Anwendungsdomänen. Die Ergebnisse zeigen, dass unser Ansatz in Bezug auf das F1-Maß die meisten anderen in Experimenten betrachteten modernen Ensemble-Methoden übertrifft und dass unser Ansatz in Bezug auf die mittlere Spanne allen anderen in Experimenten betrachteten Verfahren überlegen ist .;-;-;-;https://link.springer.com/article/10.1007/s11704-012-1163-6 094afd426e5f31c627026a82cc447bd8;de;;;7.4.;;;Sprach- und gesichtsbasierte Emotionserkennung mit Deep-Learning-Ansätzen Deep-Learning-Modelle, die von einem statischen Hervorhebungsvektor abhängen, ebenso wie ein standardisierter flüchtiger Hervorhebungsvektor, wurden verwendet, um den Gefühlszustand aus dem Diskurs wahrzunehmen. Auch relative Höhepunkte, die durch die Registrierung der Verläufe akustischer Höhepunkte des leidenschaftlichen Diskurses im Vergleich zu denen des überparteilichen Diskurses erzielt wurden, wurden berücksichtigt, um die Wirkung des einzigartigen Kontrasts zu schwächen. Die Strategien zur Relativierung statischer Glanzlichter und flüchtiger Glanzlichter wurden separat vorgestellt und Tests auf Basis der Datenbank Deutschland auch, Datenbank Mandarin durchgeführt. Die Ergebnisse zeigen, dass die Ausstellung relativer Höhepunkte die Erwartungen der höchsten Höhepunkte übertrifft, um Anerkennung als Ganzes zu fühlen. An dem Punkt, an dem der Sprecher frei ist, erzielen die Hälfte und die Hälfte des statischen relativen Glanzlichtervektors und des relativen flüchtigen Glanzlichter-standardisierten Vektors die besten Ergebnisse. Die Hauptmotivation hinter dieser Diskussion besteht darin, einige Präsentationen über die Notwendigkeiten und Anwendungen der Anerkennung der Gesichtsartikulation zu halten. Die nonverbale Art der Korrespondenz ist das Äußere. Es kommuniziert die Gemütsverfassung des Menschen und nimmt darüber hinaus seinen psychologischen Zustand wahr. Im Laufe der letzten Jahrzehnte wurden zahlreiche Forschungsarbeiten zur Verbesserung der menschlichen PC-Anbindung durchgeführt. Dieses Papier enthält einige Daten über die Anerkennung des äußeren Erscheinungsbilds, die Anwendung und die damit verbundene Untersuchung von Systemen und Schritten zur Anerkennung von Gesichtsbenehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7961-5_75 db099323dfb453f5a4a8af2a21bae1b7;de;;;7.4.;;;Methoden zur Bildunterschrift mit Deep Learning: Ein Rückblick Die Bildunterschrift umfasst Kenntnisse sowohl in „Computer Vision“ als auch in „Natural Language Processing“, um eine Beschriftung für digitale Bilder zu erstellen. Es wurden verschiedene Ansätze verwendet, um Bildunterschriften für Bilder zu erzeugen. Unter anderem haben Deep-Learning-basierte Ansätze beeindruckende Ergebnisse bei der Bildunterschrift gezeigt. Dieses Papier bietet einen kurzen Überblick über aktuelle Bildunterschriftenmethoden basierend auf Deep Learning zur automatischen Generierung von Bildunterschriften und diskutiert die Datensätze und die Bewertungsmetriken, die verwendet werden, um verschiedene Methoden der Bildunterschrift zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7031-5_48 ef51357f60d7496d8c6483b1e29adfa1;de;;;7.4.;;;2DPCANet: Dayside Aurora-Klassifizierung basierend auf Deep Learning Das mysteriöse und schöne Polarlicht repräsentiert verschiedene physikalische Bedeutungen, daher hat die Klassifizierung von Polarlichtbildern einen erheblichen wissenschaftlichen Wert für den Menschen. Das Hauptkomponentenanalysenetzwerk (PCANet) hat gute Ergebnisse bei der Klassifizierung erzielt. Wenn PCANet jedoch zum Extrahieren der Bildmerkmale verwendet wird, wird das Originalbild in einen Vektor umgewandelt, sodass die Strukturinformationen des Bildes fehlen. Im Vergleich zu PCA basiert 2DPCA auf 2D-Bildmatrizen anstelle von 1D-Vektoren, sodass 2DPCA die Strukturinformationen des Originalbilds effizienter nutzen und die Rechenkomplexität reduzieren kann. Basierend auf PCANet entwickeln wir eine Klassifikationsmethode von Polarlichtbildern, 2-dimensional PCANet (2DPCANet). Um die Leistung von 2DPCANet zu bewerten, wurde eine Reihe von Experimenten mit zwei verschiedenen Aurora-Datenbanken durchgeführt. Die Klassifikationsrate über alle Experimente war mit 2DPCANet höher als mit PCANet. Die Versuchsergebnisse zeigten auch, dass die Klassifizierungszeit bei Verwendung von 2DPCANet kürzer ist als bei PCANet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-48570-5_32 61c365ac88d6d5665b35b0e3c3dbcbe8;de;;;7.4.;;;SmartPaint: ein co-kreatives Zeichensystem basierend auf generativen gegnerischen Netzwerken Künstliche Intelligenz (KI) hat eine bedeutende Rolle bei der Nachahmung und Produktion von großformatigen Designs wie E-Commerce-Bannern gespielt. Bei kreativen und kollaborativen Designergebnissen ist es jedoch weniger erfolgreich. Die meisten Menschen drücken ihre Ideen als grobe Skizzen aus und es fehlt ihnen an professionellen Fähigkeiten, um ansprechende Gemälde zu vervollständigen. Bestehende KI-Ansätze haben es versäumt, unterschiedliche Benutzerskizzen in künstlerisch schöne Gemälde umzuwandeln und gleichzeitig ihre semantischen Konzepte zu bewahren. Um diese Lücke zu schließen, haben wir SmartPaint entwickelt, ein ko-kreatives Zeichensystem basierend auf Generative Adversarial Networks (GANs), das es einer Maschine und einem Menschen ermöglicht, in der Cartoon-Landschaftsmalerei zusammenzuarbeiten. SmartPaint trainiert ein GAN mithilfe von Triples von Cartoon-Bildern, ihren entsprechenden semantischen Label-Maps und Kantenerkennungs-Maps. Die Maschine kann dann gleichzeitig den Cartoon-Stil und die Semantik sowie die räumlichen Beziehungen zwischen den Objekten in den Landschaftsbildern verstehen. Das trainierte System empfängt eine Skizze als semantische Label-Map-Eingabe und synthetisiert automatisch seine Edge-Map für eine stabile Handhabung verschiedener Skizzen. Es gibt dann ein kreatives und feines Gemälde mit dem entsprechenden Stil aus, der der Skizze des Menschen entspricht. Experimente bestätigten, dass das vorgeschlagene SmartPaint-System erfolgreich hochwertige Cartoon-Gemälde erzeugt.;-;-;-;https://link.springer.com/article/10.1631/FITEE.1900386 5535c12cfd077b4e5b0378bfba4d717a;de;;;7.4.;;;Die Pose-Schätzung eines Deep-Learning-basierten Arbeiters Die Arbeit in einer Fabrik ist körperlich anstrengend. Es erfordert, dass Arbeiter Aufgaben in verschiedenen unangenehmen Positionen ausführen. Daher können lange Arbeitsschichten anhaltende Auswirkungen auf die körperliche Gesundheit der Arbeitnehmer haben. Um die Risiken zu minimieren, führen wir ein automatisches System zur Einschätzung der Haltung ein, das den Körperwinkel eines Arbeiters berechnet und anzeigt, welche Winkel für die Ausführung von Aufgaben an verschiedenen Arbeitsplätzen sicher oder nicht sicher sind. Durch die Kombination von CMU OpenPose mit Körperbewertungstools wie Rapid Entire Body Assessment (REBA) und Rapid Upper Limb Assessment (RULA) bestimmt das vorgeschlagene System automatisch die Risikopose eines Arbeiters. Diese Methode, die eine manuelle Analyse der Arbeitshaltung ersetzen soll, wird dazu beitragen, sicherere Umgebungen für die Arbeiter zu schaffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4818-5_10 35bedd31e115298c754c52225f51679e;de;;;7.4.;;;Deep-Learning-basierte Community-Erkennung in komplexen Netzwerken mit Netzwerkpartitionierung und Reduzierung trainierbarer Parameter Community Detection in komplexen Netzwerken ist ein wichtiges multidisziplinäres Forschungsgebiet und wird als entscheidend für das Verständnis der Struktur komplexer Netzwerke angesehen. Für das Problem der Community-Erkennung wurden erfolgreich unüberwachte Deep-Learning-Modelle (z. Trotz ihrer Effektivität sind diese Methoden nicht sehr effizient, insbesondere wenn große Netzwerke beteiligt sind. Darüber hinaus behandeln bestehende Modelle das Netzwerk in der Regel als einzelnes Objekt, was bedeutet, dass während des Trainings massive trainierbare Parameter erforderlich sind (die in normalen komplexen Netzwerken oft Millionen von Parametern erreichen, von großen Netzwerken ganz zu schweigen), wodurch die Komplexität des Modells erhöht wird. Um diese Probleme zu überwinden, schlägt dieses Papier eine Deep-Autoencoder-Methode zur Erkennung von Netzwerkgemeinschaften vor, die auf drei Techniken basiert: Netzwerkdatenpartitionierung, Reduzierung und gemeinsame Nutzung von trainierbaren Parametern, die erheblich zur Effizienzsteigerung der Methode beitragen. Komplexen Netzwerken wird auf verschiedenen Ebenen eine neue Partitionierungsstrategie aufgezwungen. Das Papier schlägt auch ein paralleles Design für das vorgeschlagene Verfahren vor. Darüber hinaus wird eine neue Ähnlichkeitsbeschränkungsfunktion vorgeschlagen, um die Leistung der Gemeinschaftserkennungsaufgabe zu verbessern und zu erhalten. Wir haben umfangreiche Experimente für verschiedene Partitionierungsebenen eines Netzwerk-Datasets durchgeführt, um die Methode mit CPU- und GPU-Geräten zu evaluieren. Die Ergebnisse zeigten, dass die vorgeschlagene Methode die Trainingsgeschwindigkeit und -effizienz bei gleichbleibender Leistung signifikant verbesserte. Die Ergebnisse zeigten auch, dass die Effizienz der Methode zunimmt, wenn wir zu einer tieferen Partitionierungsebene übergehen.;-;-;-;https://link.springer.com/article/10.1007/s12652-020-02389-x ed6ca549f495d6cbecaa924d82ab7b60;de;;;7.4.;;;Eine neuartige Aktivierungsfunktion im Convolutional Neural Network zur Bildklassifizierung beim Deep Learning Beim Deep Learning gibt es verschiedene Parameter, die helfen, optimale Ergebnisse zu erzielen. Einer dieser Parameter ist die Verwendung der richtigen Aktivierungsfunktion. Die Aktivierungsfunktion muss ideale statistische Eigenschaften aufweisen. In diesem Beitrag wurde eine neuartige Deep-Learning-Aktivierungsfunktion vorgeschlagen. Sigmoid-Aktivierungsfunktion, die im Allgemeinen in der Ausgabeschicht für Doppelklassifizierungsprobleme verwendet wird. Kürzlich verwendete die Swish-Aktivierung die Sigmoidfunktion mit versteckten Schichten. Aus diesem Grund wird eine neue Aktivierungsfunktion vorgeschlagen als (relu (x) + x;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5827-6_10 c75e4205a92dcfbb767d01a58c6754c7;de;;;7.4.;;;Ein Sudoku-Problem mit Deep Learning und Bildverarbeitungstechnik Sudoku war für viele Menschen ein herausforderndes Rätsel, tatsächlich gilt es als Brainstorming. Vielen fällt es schwer, das Rätsel zu lösen. Wir wenden im Allgemeinen verschiedene mathematische Techniken an, um das Rätsel zu lösen. Es wäre toll, wenn ein Computer Sudoku lösen könnte. Wir haben Deep-Learning-Konzepte verwendet, um das Sudoku-Rätsel optimal zu lösen. Außerdem werden Bildverarbeitungs- und Objektlokalisierungsalgorithmen verwendet, um das Sudoku-Puzzle zu erkennen. Zunächst wird ein aus Sudoku bestehendes Bild bereitgestellt, durch die Verwendung von Objektlokalisierung & CNN-Algorithmen erkennen wir die Sudoku-Quadratbox. Eine quadratische 9 × 9-Box wird erkannt. Durch die Verwendung von ANN erkennen wir die Zahlen und Leerstellen, später wird der Backtracking-Algorithmus verwendet, um das Rätsel effizienter zu lösen. Das Rätsel wird erkannt und Ziffern erkannt, die digital oder handgeschrieben sein können und schließlich ist das Rätsel gelöst. Wir haben eine Genauigkeit von bis zu 99% bei der Erkennung des Puzzles erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7961-5_128 2c04c07e6074b16d362d716f072afda5;de;;;7.4.;;;Eine Umfrage zum Einsatz von P2P-Technologie für das Netzwerkmanagement Das Netzwerkmanagement hat sich in den letzten Jahren stetig weiterentwickelt. Zusammen mit dem wachsenden Bedarf an erweiterten Funktionen in Netzwerkmanagementlösungen wurden mehrere Verteilungsmodelle untersucht, die von zentralisierten bis hin zu vollständig verteilten Modellen reichen. Trotz der allgemeinen Übereinstimmung, dass wirklich irgendeine Art von Verteilung erforderlich ist, um Verwaltungsaufgaben auszuführen, scheint es eine permanente Suche nach dem nächsten verteilten Netzwerkmanagementmodell zu geben. Unter den verteilten Modellen ist eine interessante und aufkommende Möglichkeit der Einsatz der P2P-Technologie im Netzwerkmanagement, auch bekannt als P2P-Based Network Management (P2PBNM). Mehrere Untersuchungen haben gezeigt, dass P2PBNM als Enabler für erweiterte Netzwerkverwaltungsfunktionen angesehen werden kann. Aufgrund der unterschiedlichen Konzepte und Merkmale dieser Untersuchungen ist es jedoch schwierig, ein umfassendes Bild des P2PBNM-Bereichs zu zeichnen. Der Zweck dieses Artikels besteht darin, die Literatur zu P2PBNM zu betrachten und Initiativen zum Einsatz der P2P-Technologie im Netzwerkmanagement hervorzuheben. Darüber hinaus werden solche Initiativen in Bezug auf vorgeschlagene Überprüfungsfragen klassifiziert. Schließlich werden zukünftige Trends diskutiert, um vorherzusagen, was die Zukunft für P2PBNM bereithält.;-;-;-;https://link.springer.com/article/10.1007/s10922-017-9413-4 5d642fdaf6c465dd5cb1ff983391cb0a;de;;;7.4.;;;Tiefe und modulare neuronale Netze In diesem Kapitel konzentrieren wir uns auf zwei wichtige Bereiche der neuronalen Berechnung, d. B. tiefe und modulare neuronale Netze, da sowohl tiefe als auch modulare neuronale Netze zu den leistungsfähigsten Techniken des maschinellen Lernens und der Mustererkennung für;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-43505-2_28 7085b007cdaaedbd874b9d015ac2f4a8;de;;;7.4.;;;Vergleichende Analyse von Data-Mining-Techniken zur Vorhersage von Herzerkrankungen bei Diabetikern Die Gesundheitssektoren haben viele Schwierigkeiten und Herausforderungen, Krankheiten zu finden. Gesundheitsorganisationen sammeln große Mengen an Patientendaten. Die Data-Mining-Methoden werden verwendet, um abgedeckte Daten zu bestimmen, die für Gesundheitsspezialisten mit einer effektiven analytischen Entscheidungsfindung wertvoll sind. Data-Mining-Strategien werden im Gesundheitsbereich zu unterschiedlichen Zwecken eingesetzt. Das Ziel dieses Papiers ist die Bewertung und Analyse mit drei einzigartigen Data-Mining-Anordnungsmethoden, z Patienten abhängig von ihrer Vorhersagegenauigkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6634-9_46 598ebbd8d1866c95c5a6f0ed1d4b30b5;de;;;7.4.;;;Eine integrierte induktive Multitask-Datenbank VINLEN: Erste Implementierung und frühe Ergebnisse Es wird ein kurzer Überblick über die aktuelle Forschung zur Entwicklung des induktiven Datenbank- und Entscheidungsunterstützungssystems VINLEN Multitask gegeben. Das Ziel dieser Forschung ist es, eine Vielzahl von Wissensgenerierungsoperatoren in einem System zu integrieren, das aus gegebenen Eingabedaten und relevantem Domänenwissen neues Wissen entsprechend dem Ziel des Benutzers generiert. Der zentrale VINLEN-Operator ist;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75549-4_8 23808f6e52be0e7dc29cb07ce98bb630;de;;;7.4.;;;Lernen, durch paarweise Vergleiche zu bewerten In diesem Beitrag stellen wir einen Algorithmus zum Erlernen einer Funktion vor, die in der Lage ist, Objekte zu bewerten. Wir gehen davon aus, dass unsere Lehrer eine Sammlung von paarweisen Vergleichen liefern können, stoßen jedoch auf gewisse Schwierigkeiten, den Qualitäten der betrachteten Objekte eine Zahl zuzuordnen. Dies ist eine typische Situation im Umgang mit Lebensmitteln, wo es sehr interessant ist, über wiederholbare, zuverlässige und möglichst objektive Mechanismen zur Qualitätsbewertung zu verfügen, um den Märkten Produkte mit einheitlicher Qualität anzubieten. Das gleiche Problem tritt auf, wenn wir versuchen, Benutzerpräferenzen in einem Informationsabrufsystem zu erfahren oder ein komplexes Gerät zu konfigurieren. Der Algorithmus wird mit einer wachsenden Variante von Kohonens Self-Organizing Maps (wachsendes neuronales Gas) implementiert und mit einer Vielzahl von Datensätzen getestet, um die Fähigkeiten unseres Ansatzes zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36131-6_49 6595d74a4dc788676ff9370622899986;de;;;7.4.;;;Spieltheorie und ihre Anwendungen im maschinellen Lernen Machine Learning ist eine Disziplin, die sich mit dem Studium von Algorithmen beschäftigt, die aus den Daten lernen können. Typischerweise werden diese Algorithmen ausgeführt, indem sie ein aus den beobachteten Daten erstelltes Modell generieren und dann das generierte Modell verwenden, um Vorhersagen zu treffen und Entscheidungen zu treffen. Die meisten Probleme des maschinellen Lernens könnten in Optimierungsprobleme mit mehreren Zielen übersetzt werden, bei denen mehrere Ziele gleichzeitig optimiert werden müssen, wenn zwei oder mehr widersprüchliche Ziele vorliegen. Die Abbildung von Multioptimierungsproblemen auf die Spieltheorie kann stabile Lösungen liefern. Dieser Artikel stellt eine Einführung in die Spieltheorie vor und sammelt eine Übersicht darüber, wie die Spieltheorie auf einige der Probleme des maschinellen Lernens angewendet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-81-322-2757-1_21 287a708f31005933d94eaea85f96f896;de;;;7.4.;;;Automatisierung der grenzüberschreitenden Zollanmeldung: Potenziale und Herausforderungen In diesem Papier werden Herausforderungen und Hindernisse der estnischen Zollbehörde bei der Umsetzung der neuen EU-Mehrwertsteuerrichtlinie erörtert, die darauf abzielt, die Effizienz im Lebenszyklus der Mehrwertsteuererklärung zu steigern. Das allgemeine Ziel der Richtlinie besteht darin, grenzüberschreitenden Betrug zu reduzieren, Einnahmen zu erzielen und das System für Regierungen und Unternehmen zu modernisieren. Da die Auswirkungen der neuen Mehrwertsteuerrichtlinie enorm sind, verändert sie auch die AS-IS Arbeitsabläufe der Zollbehörden radikal. Das vorliegende Papier stellt die estnischen Erfahrungen bei der Umsetzung der neuen Arbeitsverfahren dar, indem es Daten zu neuen technologischen Entwicklungen bereitstellt und Hauptanliegen im Hinblick auf laufende Entwicklungsaktivitäten herausstellt. Die Transformation alter IKT-Systeme auf neuere Plattformen im Hinblick auf die neue Richtlinie verändert auch bestehende Arbeitsabläufe, was auch Anpassungen in der Organisation erfordert. Zentraler Grund für die Automatisierung sind die dramatisch steigenden Sendungsmengen, die eine Zollabfertigung erfordern. Aufgrund unterschiedlicher oder nicht abgestimmter Datensätze, die in den bestehenden Systemen von verschiedenen Akteuren geteilt werden, sowie einer geringen Datenqualität ist dies jedoch ein komplexer Prozess. Folglich sollen die Ergebnisse des Papiers dazu beitragen, die Änderungen in verschiedenen anderen Zollbehörden in der EU umzusetzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-57599-1_8 5ff7a9083b96b45220acec39d08c5709;de;;;7.4.;;;Lernen, Pseudolabels auszuwählen: eine halbüberwachte Methode zur Erkennung benannter Entitäten Deep-Learning-Modelle haben bei der Named-Entity-Erkennung (NER) State-of-the-Art-Leistung erreicht, die gute Leistung hängt jedoch stark von erheblichen Mengen an gekennzeichneten Daten ab. In einigen speziellen Bereichen wie Medizin, Finanzen und Militär sind gekennzeichnete Daten sehr selten, während nicht gekennzeichnete Daten leicht verfügbar sind. In früheren Studien wurden nicht gekennzeichnete Daten verwendet, um Wortdarstellungen anzureichern, aber eine große Menge an Entitätsinformationen in nicht gekennzeichneten Daten wird vernachlässigt, was für die NER-Aufgabe von Vorteil sein kann. In dieser Studie schlagen wir eine semi-überwachte Methode für NER-Aufgaben vor, die lernt, qualitativ hochwertige markierte Daten zu erstellen, indem ein vortrainiertes Modul angewendet wird, um fehlerhafte Pseudo-Labels herauszufiltern. Pseudolabels werden automatisch für Daten ohne Label generiert und verwendet, als ob es sich um echte Labels handelte. Unser semi-überwachtes Framework umfasst drei Schritte: Konstruieren eines optimalen einzelnen neuronalen Modells für eine bestimmte NER-Aufgabe, Erlernen eines Moduls, das Pseudolabels bewertet, und Erstellen neuer gekennzeichneter Daten und iterative Verbesserung des NER-Modells. Experimentelle Ergebnisse an zwei englischen NER-Aufgaben und einer chinesischen klinischen NER-Aufgabe zeigen, dass unsere Methode die Leistung des besten einzelnen neuronalen Modells weiter verbessert. Selbst wenn wir nur vortrainierte statische Worteinbettungen verwenden und nicht auf externes Wissen angewiesen sind, erreicht unsere Methode eine vergleichbare Leistung wie diese State-of-the-Art-Modelle für die NER-Aufgaben von ConLL-2003 und OntoNotes 5.0 English.;-;-;-;https://link.springer.com/article/10.1631/FITEE.1800743 8f8635bb549d1f994640e7cf64f583e5;de;;;7.4.;;;Audiobasierte Musikklassifizierung mit DenseNet und Datenerweiterung In den letzten Jahren hat die Deep-Learning-Technik aufgrund ihres großen Erfolgs in der Bilderkennung große Aufmerksamkeit erhalten. Es hat sich eine Tendenz zur Adaption von Deep Learning in verschiedenen Bereichen der Informationsverarbeitung herausgebildet, einschließlich Music Information Retrieval (MIR). In diesem Artikel führen wir eine umfassende Studie zur Klassifizierung von Musik-Audio mit verbesserten Convolutional Neural Networks (CNNs) durch. Nach unserem besten Wissen ist dies die erste Arbeit, die Densely Connected Convolutional Networks (DenseNet) auf das Musik-Audio-Tagging anwendet, die nachweislich besser funktionieren als Residual Neural Network (ResNet). Außerdem wurden zwei spezifische Ansätze zur Datenvermehrung von Zeitüberlappung und Tonhöhenverschiebung vorgeschlagen, um den Mangel an markierten Daten in der MIR zu beheben. Darüber hinaus wird ein Ensemble-Lernen des Stapelns basierend auf SVM verwendet. Wir glauben, dass die vorgeschlagene Kombination aus starker Darstellung von DenseNet und Datenerweiterung an andere Audioverarbeitungsaufgaben angepasst werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29894-4_5 ab23e0461b9a7f86b2cc5ba05e87f574;de;;;7.4.;;;Teilüberwachte Autoencoder: Bessere Fokussierungsmodellkapazität während der Merkmalsextraktion Frühere Arbeiten haben gezeigt, dass ein unüberwachtes schichtweises Vortraining verwendet werden kann, um die Schwierigkeit des Trainierens einer tiefen Architektur zu überwinden. In diesem Papier behandeln wir eine der Einschränkungen bei der Verwendung unüberwachter Modelle wie regularisierte Autoencoder, um Funktionen zu lernen, von denen wir hoffen, dass sie für eine nachfolgende überwachte Aufgabe nützlich sind, nämlich ihre Blindheit gegenüber dieser spezifischen Aufgabe. Wir schlagen vor, die Kostenfunktion zu ändern, um sich auf die genaue Rekonstruktion von Eingabemerkmalen zu konzentrieren, die für die überwachte Aufgabe nützlicher erscheinen. Dies wird erreicht, indem die A-Norm im minimierten Rekonstruktionsfehler anstelle der Euklidischen Norm verwendet wird. Durch die Wahl einer geeigneten A-Matrix kann die Kapazität des Modells auf die Modellierung relevanter Informationen für die Klassifikationsaufgabe gelenkt werden. Vergleichsexperimente mit der vorgeschlagenen Entrauschungs-Autoencoder-Variante zeigen, dass diese Vorgehensweise extrahierte Merkmale liefert, die eine bessere Klassifikationsleistung auf mehreren Datensätzen erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-42054-2_41 ac3c09cb29a7b09a86574c4ae4ba0755;de;;;7.4.;;;Multinomial Event Model Based Abstraction für Sequenz- und Textklassifizierung In vielen maschinellen Lernanwendungen, die mit Sequenzen umgehen, besteht ein Bedarf an Lernalgorithmen, die die hierarchische Gruppierung von Wörtern effektiv nutzen können. Wir stellen Word Taxonomy Guided Naive Bayes Learner für das Multinomial Event Model (WTNBL-MN) vor, das Worttaxonomie nutzt, um kompakte Klassifikatoren zu generieren, und Word Taxonomy Learner (WTL) für die automatisierte Konstruktion von Worttaxonomien aus Sequenzdaten. WTNBL-MN ist eine Verallgemeinerung des Naive Bayes-Lerners für das Multinomial Event Model zum Lernen von Klassifikatoren aus Daten unter Verwendung von Worttaxonomie. WTL verwendet hierarchisches agglomeratives Clustering, um Wörter basierend auf der Verteilung von Klassenbezeichnungen zu gruppieren, die zusammen mit den Wörtern vorkommen. Unsere experimentellen Ergebnisse zu Proteinlokalisierungssequenzen und Reuters-Text zeigen, dass die vorgeschlagenen Algorithmen Naive-Bayes-Klassifikatoren erzeugen können, die kompakter und oft genauer sind als die, die von standardmäßigen Naive-Bayes-Lernern für das Multinomial Model erzeugt werden.;-;-;-;https://link.springer.com/chapter/10.1007/11527862_10 a75a44e85b45380fc9d58bad355708fb;de;;;7.4.;;;Vergleich von Data-Mining-Methoden mit logistischer Regression bei der Vorhersage von Fettleibigkeit bei Kindern Die epidemiologische Frage, die hier Anlass zur Sorge gibt, lautet: „Können kleine Kinder mit einem Risiko für Fettleibigkeit anhand ihrer frühen Wachstumsdaten identifiziert werden? Pilotarbeiten mit logistischen Regressionen zur Vorhersage von übergewichtigen und adipösen Kindern zeigten einen relativ begrenzten Erfolg. Daher untersuchen wir die Einbeziehung nichtlinearer Wechselwirkungen, um die Genauigkeit der Vorhersage zu verbessern, indem wir das Ergebnis der logistischen Regression mit denen von sechs ausgereiften Data-Mining-Verfahren vergleichen.;-;-;-;https://link.springer.com/article/10.1007/s10796-009-9157-0 ca8f4dcda2237165d9c3a8fb8783156b;de;;;7.4.;;;Vorhersage der Überlebensfähigkeit von Brustkrebs basierend auf maschinellem Lernen und Auswahlalgorithmen: eine vergleichende Studie Brustkrebs (BC) gilt als die häufigste Krebstodesursache bei Frauen. Diese Studie zielt darauf ab, BC basierend auf maschinellen Lernalgorithmen und Methoden zur Auswahl von Funktionen frühzeitig zu identifizieren. Die Gesamtmethodik dieser Arbeit wurde basierend auf dem Knowledge Data Discovery (KDD)-Prozess modifiziert, der vier Datensätze umfasst, die Vorverarbeitungsphase (Datenbereinigung, Datenaufteilung in Trainings- und Testsätze), die Verarbeitungsphase (Funktionsauswahl, k-fache Validierung und Klassifizierung) und schließlich die Modellbewertung. Dieses Papier präsentiert einen Vergleich zwischen verschiedenen Klassifikatoren wie Entscheidungsbaum (DT), Random Forest (RF), Logistische Regression (LR), Naive Bayes (NB), K-nächster Nachbar (KNN) und Support Vector Machine (SVM). In den Experimenten werden vier verschiedene Brustkrebs-Datensätze (Wisconsin-Prognose-Brustkrebs (WPBC), Wisconsin-Diagnose-Brustkrebs (WDBC), Wisconsin-Brustkrebs (WBC) und Mammographic Mass Dataset (MM-Dataset) basierend auf BI-RADS-Ergebnissen) durchgeführt . Die vorgeschlagenen Modelle wurden unter Verwendung der Klassifizierungsgenauigkeit und der Verwirrungsmatrix bewertet. Die experimentellen Ergebnisse zeigen, dass die Klassifikation basierend auf der RF-Technik mit dem genetischen Algorithmus (GA) als Merkmalsauswahlmethode besser ist als die anderen Klassifikatoren mit einem Genauigkeitswert von 96,82 % mit WBC-Datensätzen. Im WDBC-Datensatz zeigen die Ergebnisse, dass die Klassifizierung unter Verwendung der C-SVM-Technik mit der angewendeten Kernelfunktion RBF (Radial Basis Function) den anderen Klassifikatoren mit einem Genauigkeitswert von 99,04 % überlegen ist. Im WPBC-Datensatz zeigen die Ergebnisse, dass die Klassifizierung unter Verwendung der RF-Technik mit rekursiver Merkmalselimierung (RFE) als Merkmalsauswahlmethode mit einem Genauigkeitswert von 74,13 % besser ist als die anderen Klassifikatoren. Im MM-Dataset zeigen die Ergebnisse, dass die Klassifikation mit DT-Technik mit einem Genauigkeitswert von 83,74 % besser ist als die anderen Klassifikatoren. Die Ergebnisse zeigen, dass die vorgeschlagenen Modelle durch den Vergleich mit anderen bestehenden Modellen effektiv sind.;-;-;-;https://link.springer.com/article/10.1007/s12652-020-02590-y 463e9e722f4e257874c96d054ba88a7b;de;;;7.4.;;;Geodaten-Mining und -Analyse für Immobilienanwendungen Marktinformationen zum Thema Wohnen sind sowohl für die Entscheidungsfindung von Haushalten als auch für die Immobilienwirtschaft relevant und auch von systemischem Interesse. Die amtliche Statistik liefert oft nur jährliche Indizes auf nationaler Ebene auf der Grundlage der Transaktionen des Vorjahres. Die Interessenvertreter der Immobilienmärkte verlangen jedoch eine Analyse der höheren räumlichen Auflösung auf lokaler Ebene basierend auf jüngsten Transaktionen. Dieser Beitrag konzentriert sich auf die Methodik der automatisierten Datenerfassung, Analyse und Visualisierung von Daten aus dem Wohnungsmarkt. Daten aus der Beobachtung von Immobilienmärkten (zum Mieten/Kaufen) werden zur statistischen Modellierung wertbeschreibender Parameter verwendet, um die Fundamentaldaten des Immobilienmarktes zu schätzen und zu prognostizieren, die auch Marktrisiken aufdecken können. In diesem Beitrag werden Methoden der automatisierten Datenerfassung basierend auf Web-Mining erarbeitet, Methoden der ökonometrischen räumlichen Modellierung mit Wirkung aus der Nähe besprochen, um Effizienzparameter innerhalb verschiedener Kategorien abzuleiten. Die Analyse und die daraus resultierende Visualisierung bei unterschiedlicher Granularität von räumlichen, zeitlichen und typologischen Effekten liefert relevante Informationen für die Entscheidungsfindung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-72434-8_11 e5c6cd67421a55e49c4c6b841700c090;de;;;7.4.;;;Unerwartete Informationen für Technology Watch entdecken Der Zweck von Technology Watch besteht darin, wissenschaftliche und technische Informationen zu sammeln, zu verarbeiten und zu integrieren, die für Wirtschaftsakteure nützlich sind. In diesem Artikel schlagen wir vor, Text-Mining-Techniken zu verwenden, um die Verarbeitung von Daten aus wissenschaftlichen Textdatenbanken zu automatisieren. Die Watch-Aktivität bringt eine im Vergleich zu herkömmlichen Anwendungsgebieten von Text-Mining-Techniken ungewöhnliche Schwierigkeit mit sich, da nicht nach häufig in den Texten verborgenem Wissen gesucht wird, sondern unerwartetes Wissen angestrebt wird. Infolgedessen müssen die üblichen Maßnahmen zur Wissensfindung überarbeitet werden. Zu diesem Zweck haben wir das UnexpectedMiner-System entwickelt, das neue Maßnahmen zur Einschätzung der Unerwartetheit eines Dokuments verwendet. Unser System wird anhand einer Basis evaluiert, die Artikel zum Thema Machine Learning enthält.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30116-5_22 662f06a09ff4c0fe3f6fe99309a9c032;de;;;7.4.;;;Mathematische Programmierung im maschinellen Lernen Wir beschreiben in dieser Arbeit eine Reihe zentraler Probleme des maschinellen Lernens und zeigen, wie sie als mathematische Programme unterschiedlicher Komplexität modelliert und gelöst werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-0289-4_20 4c6b1170b5bf2f3fb001d6eba3188dbc;de;;;7.4.;;;Automatische Extraktion von Dokument-Metadaten basierend auf tiefen Netzwerken Die Extraktion von Metadateninformationen aus wissenschaftlichen Arbeiten ist für viele Anwendungen wie die Suche nach Wissenschaftlern, die digitale Bibliothek usw. von großem Wert. Diese Aufgabe hat in den letzten Jahrzehnten viel Aufmerksamkeit von Forschern auf sich gezogen, und es wurden viele Schablonen-basierte oder statistische maschinelle Lernverfahren (z. B. SVM, CRF usw.) und Komplexität des Seitenlayouts. Um dieser Herausforderung zu begegnen, versuchen wir in diesem Papier, die Deep-Learning-Netzwerke in diese Aufgabe einzuführen, da Deep Learning in vielen Bereichen wie Computer Vision (CV) und Natural Language Processing (NLP) große Leistung gezeigt hat. Erstens verwenden wir die Deep-Learning-Netzwerke, um die Bildinformationen bzw. die Textinformationen von Papierkopfzeilen zu modellieren, was es unserem Ansatz ermöglicht, die Metadatenextraktion mit geringem Informationsverlust durchzuführen. Dann formulieren wir das Problem, die Metadatenextraktion aus einem Papierkopf, als zwei typische Aufgaben unterschiedlicher Bereiche: Objekterkennung im Bereich CV und Sequenzkennzeichnung im Bereich NLP. Schließlich werden die beiden tiefen Netzwerke, die aus den obigen beiden Aufgaben generiert wurden, miteinander kombiniert, um Extraktionsergebnisse zu erhalten. Die ersten Experimente zeigen, dass unser Ansatz bei mehreren offenen Datensätzen eine Leistung nach dem neuesten Stand der Technik erreicht. Gleichzeitig kann dieser Ansatz sowohl Bilddaten als auch Textdaten verarbeiten und muss kein Klassifizierungsmerkmal entwerfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-73618-1_26 e0f9529673d1db35585459e63dda5d8b;de;;;7.4.;;;AC-Betriebshardware, die neuronale Schaltung mit V-F-Wandlersystem lernt Im Bereich der künstlichen Intelligenz, des maschinellen Lernens und der neuronalen Netze wurden viele praktische Anwendungsmodelle vorgeschlagen. Diese Modelle basieren jedoch auf dem Computer eines digitalen Von-Neumann-Modells. Im Bereich der analog lernenden neuronalen Netze gibt es Minderheitsstudien. Frühe analoge neuronale Hardware-Netzwerkmodelle wurden mit dem Operationsverstärker und dem Widerstandselement konfiguriert. Es ist schwierig, den Wert des soliden Widerstands für den Lernprozess zu ändern. In der vorliegenden Arbeit wird ein lernendes neuronales Netzwerk vorgeschlagen, das elektronische Wechselstrom-(AC)-Schaltungen verwendet, die einen Spannungs-Frequenz-(V-F)-Wandler umfassen. Diese Schaltungen bestehen aus einem Verstärker, einer zusätzlichen Schaltung, einem Wechselrichter, einer Subtraktionsschaltung, einer Gleichrichterschaltung und einem V-F-Wandler. Der Eingangsspannungswert wurde als Eingangssignal beschrieben und die Eingangsfrequenz als Anschlussgewichte betrachtet. Mit einem V-F-Wandler können die Anschlussgewichte einfach geändert werden. Schließlich konvergiert die Eingangsfrequenz nach nur mehreren Lernvorgängen auf einen konstanten Wert. Die Lernzählzeit ist extrem klein. Die Lernzeit ist in dieser Wechselstromübertragungsschaltung recht schnell. Das Modell arbeitet mit rein analogen elektronischen Schaltungen. Die Lernzeit ist im Vergleich zu einem digitalen Prozessrechner recht kurz.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4917-5_23 cf2aa18cc0935ca23b3a36f80eef2fea;de;;;7.4.;;;SOMDROID: Android-Malware-Erkennung durch künstliches neuronales Netzwerk, trainiert mit unüberwachtem Lernen Android hat seine Popularität aufgrund seiner Open Source und der Anzahl frei verfügbarer Apps in seinem offiziellen Play Store gewonnen. Das angemessene Funktionieren von Android-Apps hängt von der Berechtigung oder dem Satz von Berechtigungen ab, die eine App zum Zeitpunkt der Installation und Laufzeit erfordert. Durch die Nutzung dieser Berechtigungen oder Berechtigungen entwickeln Cyberkriminelle täglich mit Malware infizierte Apps. In dieser Studie haben wir ein Framework namens „SOMDROID“ vorgeschlagen, das auf dem Prinzip des unüberwachten maschinellen Lernalgorithmus arbeitet. Um ein effektives und effizientes Android-Malware-Erkennungsmodell zu entwickeln, sammeln wir 5.00.000 verschiedene Android-Apps aus versprochenen Repositorys und extrahieren 1844 einzigartige Funktionen. Um signifikante Features oder Feature-Sets auszuwählen, haben wir in dieser Studie sechs verschiedene Feature-Ranking-Ansätze angewendet. Mit dem ausgewählten Feature oder den ausgewählten Feature-Sets implementieren wir den Self-Organizing Map (SOM)-Algorithmus von Kohonen und messen vier verschiedene Leistungsparameter, d. Empirische Ergebnisse zeigen, dass unser vorgeschlagenes Framework in der Lage ist, 98,7% Malware zu erkennen, die zu unbekannten Familien gehört, und außerdem ist die Erkennungsrate um 2% höher als in der Literatur vorgeschlagene kommerzielle Antivirenscanner und Frameworks.;-;-;-;https://link.springer.com/article/10.1007/s12065-020-00518-1 86343db1a4d908344b55d5ef985e4567;de;;;7.4.;;;Upgrade der Automatisierung für das Kernbrennstoff-In-Core-Management: Von der symbolischen Generierung von Konfigurationen bis zur neuronalen Anpassung von Heuristiken FUELCON ist ein Expertensystem in der Nukleartechnik. Seine Aufgabe ist ein optimiertes Betankungsdesign, das entscheidend ist, um die Betriebskosten einer Anlage niedrig zu halten. FUELCON schlägt Sätze alternativer Konfigurationen der Brennstoffzuordnung vor, wobei der Brennstoff in einem Gitter positioniert wird, das den Kern eines Reaktors darstellt. Der Praktiker des In-Core-Kraftstoffmanagements verwendet FUELCON, um eine einigermaßen gute Konfiguration für die vorliegende Situation zu generieren. Der Domänenexperte hingegen greift für die oben beschriebene Aufgabe auf das System zurück, um Heuristiken zu testen und neue zu entdecken. Die Verwendung durch Experten beinhaltet eine manuelle Phase der Überarbeitung des Regelsatzes basierend auf der Leistung während früherer Iterationen in derselben Sitzung. Dieser Beitrag befasst sich mit einer neuen Phase: dem Entwurf einer neuronalen Komponente, um die Revision automatisch durchzuführen. Eine solche automatisierte Überarbeitung berücksichtigt die bisherige Leistung des Systems und verwendet sie zur Anpassung und zum Erlernen besserer Regeln. Die neuronale Komponente basiert auf einem speziellen Schema für eine symbolisch-rekurrent-analoge Brücke, genannt NIPPL, und auf dem Reinforcement Learning neuronaler Netze zur Adaption.;-;-;-;https://link.springer.com/article/10.1007/BF01201857 59d8f923e7f58d751da8862829100dbf;de;;;7.4.;;;Identifizierung krankheitsspezifischer komplexer Biomarkermuster durch unüberwachtes maschinelles Lernen mit einer interaktiven R-Toolbox (Umatrix) Es hat sich gezeigt, dass die unüberwachte maschinell gelernte Analyse von Clusterstrukturen, die unter Verwendung der emergenten selbstorganisierenden Merkmalskarten (ESOM) in Kombination mit der Unified Distance Matrix (U-Matrix) angewendet wird, eine unverzerrte Methode zur Identifizierung echter Cluster bietet. Es übertrifft klassische hierarchische Clustering-Algorithmen, die eine erhebliche Tendenz zu fehlerhaften Ergebnissen aufweisen. Um die Anwendung der ESOM/U-Matrix-Methode in der biomedizinischen Forschung zu erleichtern, stellen wir das interaktive R-basierte Bioinformatik-Tool „Umatrix“ vor, das eine valide Identifizierung einer biologisch sinnvollen Clusterstruktur in den Daten durch Training eines Kohonen-Typ-Selbst- Organisieren der Karte gefolgt von schnittstellengeführtem interaktivem Clustering auf der entstehenden U-Matrix-Karte.;-;-;-;https://link.springer.com/article/10.1186/s41044-018-0032-1 462af16be7456883940846095c1f22c9;de;;;7.4.;;;Mittelgroße Wettervorhersage basierend auf Big-Data-Anwendung Das Nationale Meteorologische Zentrum schloss 2018 den Bau des Betriebssystems für die mittlere Wettervorhersage (MERWF) ab. Das System verwendet eine Browser-/Server-Systemarchitektur, um den gleichzeitigen Betrieb von Hunderten von Terabyte-Echtzeit- und historischen Daten über Einführung großer Datenkerntechnologien wie verteilter Speicher und verteilter Datenverarbeitung. Das zentrale technische Problem von MERWF, die Verschmelzung von Echtzeitdaten und historischen Daten, ist gelöst. Es verbessert die Effizienz des Datenzugriffs und der Datenanzeige erheblich und realisiert die Entwicklung von MERWF-Technologieprodukten basierend auf der Big-Data-Analyse und der effektiven Extraktion vorhersehbarer Informationen. Auf Basis von Big-Data-Analysen wird dann erstmals ein anwendungstechnisches System der MERWF im nationalen Geschäftsbereich etabliert, um den objektiven und intelligenten Anforderungen moderner meteorologischer Unternehmen gerecht zu werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-7123-3_61 602714ec069c7f2ee8755428519e239b;de;;;7.4.;;;Wir werden nicht nur die Zukunft der sozialen Netzwerke überleben Im Social Web werden mittlerweile Netzwerke sozialer Interaktionen und persönlicher Beziehungen digitalisiert. Es induziert neue gesellschaftliche Nutzungen und neue Analyseprozesse wie virales Marketing, aber auch die Überwachung könnte in der Zukunft sozialer Netzwerke eine große Rolle spielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-78256-0_6 f4a7b6c380f8ea36e30b9b9718d7fd61;de;;;7.4.;;;Nichtlineare Dimensionsreduktion für die Visualisierung Die visuelle Interpretation von Daten ist ein wesentlicher Schritt für die weitere Verarbeitung oder Entscheidungsfindung. Tools zur Dimensionsreduktion (oder Manifold Learning) können zur Visualisierung verwendet werden, wenn die resultierende Dimension auf 2 oder 3 beschränkt ist. Das Gebiet des maschinellen Lernens hat in den letzten Jahrzehnten zahlreiche Tools zur nichtlinearen Dimensionsreduktion entwickelt. Die Vielfalt der Methoden spiegelt jedoch die Vielfalt der Qualitätskriterien wider, die sowohl zur Optimierung der Algorithmen als auch zur Bewertung ihrer Leistung verwendet werden. Außerdem sind diese Kriterien nicht immer mit der subjektiven Sehqualität vereinbar. Schließlich besitzen die Dimensionsreduktionsverfahren selbst nicht immer Recheneigenschaften, die mit der interaktiven Datenvisualisierung kompatibel sind. In diesem Beitrag werden aktuelle und zukünftige Entwicklungen zur Verwendung von Dimensionsreduktionsverfahren zur Datenvisualisierung vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-42054-2_77 4976f1406e024b9d3390d19df407684f;de;;;7.4.;;;Jenseits des Wortschatzes: Eine Textdarstellung zur Satzauswahl Die Satzauswahl weist einige, aber nicht alle Merkmale der automatischen Textkategorisierung auf. Daher sollten einige, aber nicht alle die gleichen Techniken verwendet werden. In dieser Arbeit untersuchen wir eine syntaktisch und semantisch angereicherte Textdarstellung für die Satzauswahlaufgabe in einem Genomikkorpus. Wir zeigen, dass die Verwendung von technischen Wörterbüchern und syntaktischen Beziehungen für unser Problem von Vorteil ist, wenn modernste maschinelle Lernalgorithmen verwendet werden. Außerdem können die syntaktischen Beziehungen von einem Regellerner erster Ordnung verwendet werden, um noch bessere Leistungen zu erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/11766247_28 41ab2d1956562b315ebf945a8700f58f;de;;;7.4.;;;Mining erklärbarer lokaler und globaler Subgraph-Muster mit überraschenden Dichten Die Konnektivitätsstruktur von Graphen hängt typischerweise mit den Attributen der Scheitelpunkte zusammen. In sozialen Netzwerken beispielsweise hängt die Wahrscheinlichkeit einer Freundschaft zwischen einem Personenpaar von einer Reihe von Attributen wie Alter, Wohnort, Arbeitsplatz und Hobbys ab. Die übergeordnete Struktur eines Graphen lässt sich daher möglicherweise gut durch Muster der Form 'die Untergruppe aller Individuen mit bestimmten Eigenschaften X ist oft (oder selten) befreundet mit Individuen einer anderen durch die Eigenschaften Y definierten Untergruppe' beschreiben, ideal relativ zu ihrer erwarteten Konnektivität. Solche Regeln bieten potenziell umsetzbare und verallgemeinerbare Einblicke in den Graphen. In früheren Arbeiten wurde bereits die Suche nach dichten Teilgraphen („Communities“) mit homogenen Attributen berücksichtigt. Der erste Beitrag in dieser Arbeit besteht darin, diesen Mustertyp auf Dichten zwischen a;-;-;-;https://link.springer.com/article/10.1007/s10618-020-00721-9 8d5aba0a9d3defb39494d2ba6d43b627;de;;;7.4.;;;Kombination von kommissionsbasiertem teilüberwachtem Lernen und aktivem Lernen Viele Data-Mining-Anwendungen haben eine große Datenmenge, aber die Kennzeichnung von Daten ist normalerweise schwierig, teuer oder zeitaufwändig, da menschliche Experten für die Annotation erforderlich sind.;-;-;-;https://link.springer.com/article/10.1007/s11390-010-9357-6 de26920a38e34caed3ee24f59b606edc;de;;;7.4.;;;Intelligent Speech Features Mining für eine robuste Synthesesystembewertung Die Bewertung der Sprachsynthese beinhaltet die analytische Beschreibung nützlicher Merkmale, die ausreichen, um die Leistung eines Sprachsynthesesystems zu beurteilen. Sein Hauptaugenmerk liegt darauf, den Ähnlichkeitsgrad einer synthetischen Stimme mit einer natürlichen oder menschlichen Stimme zu bestimmen. Die Evaluationsaufgabe wird in der Regel durch zwei Methoden angetrieben: die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-93782-3_1 86c1b72a2bdbbfabc20cb65e670c0840;de;;;7.4.;;;Vorhersage von Hyperglykämie durch maschinelles Lernen: ein probabilistischer Ansatz Die Inzidenz von Diabetes nimmt weltweit zu. Daher ist ein geeigneter Ansatz erforderlich, um die diabetischen Patienten so früh wie möglich zu identifizieren und eine angemessene Lebensstilintervention bereitzustellen, um den Ausbruch von Diabetes zu verhindern oder zu verschieben. Hyperglykämie und Hypoglykämie sind zwei wichtige Folgen von Diabetes, die anhand des Blutzuckerspiegels berechnet werden. In diesem Artikel schlagen wir einen Ansatz des maschinellen Lernens vor, um die Wahrscheinlichkeit des Auftretens von Hyperglykämie mit den Auswirkungen körperlicher Aktivität (Übung) zu identifizieren. Diese Vorhersage wird hilfreich sein, um den Risikofaktor einer Hyperglykämie durch rechtzeitige präventive Schritte und eine Änderung des Lebensstils zu reduzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9942-8_29 19d2123f4212f426262ba8f226a3cf32;de;;;7.4.;;;Grobe Sets und ihre Anwendungen im Data Mining Das Hauptziel von Data Mining ist es, Wissen aus großen Datensätzen zu gewinnen. Und die Hauptanforderung des Data Mining ist eine prägnante Darstellung, die mit dem Konzept der minimalen Reduzierung von Rough Sets übereinstimmt. In diesem Papier wird RS als ein solches Instrument zur Umsetzung der Schlüsselanforderung betrachtet. Zuerst werden wir das Grundproblem der Grobmengentheorie vorstellen – die Attributreduktion. Zweitens wird die Datenanreicherung für das UCI-Repository mit den Maßen analysiert, die als Verdampfungsrate von Attribut, Objekt bzw. Daten bezeichnet werden. Drittens wird ein Regel+Ausnahme-Modell angegeben, um den Satz von Lerndaten zu erklären. Schließlich werden einige kompliziertere Probleme diskutiert und die Schlussfolgerungen gezogen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5261-1_12 a7b2a189850e78d3711e5f03861f19df;de;;;7.4.;;;Auswirkungen von Modellen des maschinellen Lernens auf die Analyse der Rückzahlungsrate von Bildungskrediten Der Bildungskredit ist ein wesentlicher Faktor bei der Entscheidung für ein Studium. Studenten zögern jetzt nicht, das Risiko einzugehen, Tausende von Dollar zu verschulden. Sie glauben daran, zuerst die höchste Qualität der akademischen Qualifikation zu erlangen, ohne zu wissen, wie riskant es sein kann, so hohe Schulden zu haben. Banken sind heutzutage auch bei der Kreditvergabe zurückhaltend, weil sie Schwierigkeiten haben, die Glaubwürdigkeit des Kreditnehmers zu analysieren. Dies macht den gesamten Prozess sehr mühsam und zeitaufwendig und erweist sich oft als ineffektiv. Die Vorhersage der Rückzahlungsrate von Bildungskrediten kann die Arbeit sowohl für Banken als auch für Antragsteller erleichtern. Dieses Forschungspapier zielt darauf ab, die Rückzahlungsrate von Bildungskrediten durch den Einsatz von maschinellen Lernalgorithmen zu analysieren. Maschinelles Lernen wird heute umfassend eingesetzt und findet in fast allen Bereichen Anwendung. Vorhersagen und Analysen, die mit ML durchgeführt werden, helfen, eine fundierte Entscheidung zu treffen und geben eine Vorstellung davon, wie zukünftige Trends aussehen werden. In dieser Forschung werden verschiedene Funktionen durch den Einsatz der Python-Sprache analysiert und gründlich erforscht. Sein umfangreiches Set an Bibliotheken ermöglicht eine einfache Manipulation und Visualisierung der Daten. Das Papier enthält eine Beschreibung der Analyse und umfangreiche Visualisierungen, um ein klareres Bild des Datensatzes zu erzeugen. Es werden verschiedene Modelle implementiert, deren Genauigkeit mit dem R2-Score gemessen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0733-2_29 b5505b46e57a6295e89a884a719ab3cc;de;;;7.4.;;;Kernel-Methoden in Quantum Machine Learning Quantum Machine Learning hat sich als eine der vielversprechendsten Anwendungen von Quantencomputern und Noisy Intermediate Scale Quantum (NISQ) Geräten etabliert. In diesem Artikel besprechen wir die neuesten Entwicklungen in Bezug auf die Verwendung von Quantencomputing für eine bestimmte Klasse von Algorithmen des maschinellen Lernens, die als Kernelmethoden bekannt sind.;-;-;-;https://link.springer.com/article/10.1007/s42484-019-00007-4 05d0da2075e9b6d4a8d1e9af4f9b31b9;de;;;7.4.;;;Schätzung fehlender Preise in agentenbasierten Simulationen des Immobilienmarktes mit Methoden des maschinellen Lernens und der Dimensionsreduktion Die Undurchsichtigkeit des Immobilienmarktes bringt einige Herausforderungen in ihrer agentenbasierten Simulation mit sich. Während einige Immobilien-Websites die Preise für eine große Anzahl von Häusern öffentlich anbieten, sind die Preise für den Rest nicht verfügbar. Die Schätzung dieser Preise ist notwendig, um ihre Entwicklung ausgehend von einer vollständigen Anfangsgruppe von Häusern zu simulieren. Darüber hinaus könnte diese Schätzung auch für andere Zwecke nützlich sein, z. B. für die Bewertung von Häusern, die Information der Käufer über die besten angebotenen Preise (d. Diese Arbeit schlägt vor, Dimensionsreduktionsmethoden mit maschinellen Lerntechniken zu kombinieren, um die geschätzten Preise zu erhalten. Insbesondere analysiert diese Arbeit die Verwendung von nichtnegativer Faktorisierung, rekursiver Merkmalselimierung und Merkmalsselektion mit einer Varianzschwelle als Dimensionsreduktionsmethoden. Es vergleicht die Anwendung der linearen Regression, der Support-Vektor-Regression, der;-;-;-;https://link.springer.com/article/10.1007/s00521-018-3938-7 0762e53485fdb03dee41f56c8fe62d9c;de;;;7.4.;;;Blockbasiertes Compressed Sensing von MR-Bildern mit Multi-Rate-Deep-Learning-Ansatz Deep Learning (DL)-Modelle sind in den jüngsten Studien ein stark forschungsorientiertes Feld der Bildkompressionssensorik. In der Kompressionssensortheorie wird ein Signal aus einer sehr kleinen und begrenzten Anzahl von Messungen effizient rekonstruiert. Blockbasiertes Compression-Sensing ist der vielversprechendste und mildeste Compressive-Sensing-(CS)-Ansatz, der hauptsächlich zur Verarbeitung großer Videos und Bilder verwendet wird: nutzt eine geringe Rechenkomplexität und benötigt weniger Speicher. Bei der blockbasierten Kompressionsmessung wird eine Reihe von Tiefenmodellen benötigt, um mit jeweils unterschiedlichen Abtastraten zu trainieren. Die Kompressionserfassungsleistung wird stark beeinträchtigt, wenn verschiedenen Blöcken innerhalb desselben Bild- oder Videoframes niedrige Abtastraten zugewiesen werden. In dieser Arbeit haben wir eine Multi-Rate-Methode vorgeschlagen, die tiefe neuronale Netze für die blockbasierte Kompressionsmessung von Magnetresonanzbildern verwendet, deren Leistung die bestehenden Methoden weit übertrifft. Der vorgeschlagene Ansatz ist in der Lage, basierend auf den Bildinformationen eine exklusive Abtastrate für jeden Block innerhalb des Bildes intelligent zuzuordnen und blockierende Artefakte in rekonstruierten MRT-Bildern zu entfernen. Jeder Bildblock wird separat abgetastet und mit unterschiedlicher Abtastrate rekonstruiert und basierend auf der Interkorrelation zwischen den Blöcken zu einem einzigen Bild wieder zusammengesetzt, um Blockartefakte zu entfernen. Das vorgeschlagene Verfahren übertrifft den aktuellen Stand der Technik in Bezug auf Rekonstruktionsgeschwindigkeit, Rekonstruktionsfehler, geringe Rechenkomplexität und bestimmte Bewertungsmetriken wie Peak-Signal-Rausch-Verhältnis (PSNR), strukturelle Ähnlichkeit (SSIM), Merkmal Ähnlichkeit (FSIM) und relativ;-;-;-;https://link.springer.com/article/10.1007/s40747-021-00426-6 5a56d0faa544e843ae5c536b892dfe0c;de;;;7.4.;;;DLI: Deep-Learning-Inferenz-Benchmark Wir untersuchen das Problem der Leistungsbewertung für tiefe neuronale Netze. Wir entwickeln eine Software, die sich im Gegensatz zu den bestehenden auf die Bewertung der Leistung der Inferenz tiefer Modelle auf CPUs, integrierte Grafiken und eingebettete Geräte konzentriert. Die Implementierung ist Open Source und kostenlos auf GitHub verfügbar:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36592-9_44 3dab165538ca30f37eab3c3976b05c4f;de;;;7.4.;;;Identifizierung von Emotionen aus Sätzen mit Natural Language Processing für kleine Datensätze Emotionen sind ein wesentlicher Bestandteil der menschlichen Natur. Die Untersuchung von Emotionen kann die Forschung automatisch dazu bringen, das Gefühl eines Satzes oder eines Menschen zu analysieren. Mehrere Forscher haben im Bereich Natural Language Processing (NLP) und speziell Sentimentanalyse geforscht. Aber es gibt eine Möglichkeit, es effizienter zu studieren, wenn die im Satz formulierte Emotion identifiziert werden kann und auch die neuen Symbole wie Emojis berücksichtigt werden. Die meisten Studien werden mit einer praktikablen Datenmenge durchgeführt. Wenn jedoch ein Problem auftritt, stehen zunächst weniger Datensätze zur Verfügung. Eine hohe Genauigkeit mit weniger Daten zu erreichen ist also eine Herkulesaufgabe. In diesem Kapitel wird also die in mehreren Sätzen formulierte Emotion mit weniger Datenmenge berechnet, die auch einige Symbole enthält, die in der Neuzeit für die Kommunikation von Informationen verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6919-1_3 9d97b87da4e5ab00c3f5aace3099f7f2;de;;;7.4.;;;Das AI4Media-Projekt: Einsatz von Technologien der nächsten Generation künstlicher Intelligenz für Anwendungen im Mediensektor Künstliche Intelligenz bringt spannende Innovationen in allen Lebensbereichen und schafft neue Möglichkeiten branchenübergreifend. Gleichzeitig wirft es wichtige Fragen in Bezug auf Vertrauen, Ethik und Rechenschaftspflicht auf. Dieses Papier bietet eine Einführung in das AI4Media-Projekt, das darauf abzielt, auf den jüngsten Fortschritten der KI aufzubauen, um dem Mediensektor innovative Werkzeuge anzubieten. AI4Media vereint die fragmentierte Landschaft medienbezogener KI-Technologien, indem es neue Lernparadigmen und verteilte KI untersucht, Fragen der Erklärbarkeit, Robustheit und Privatsphäre von KI untersucht, KI-Techniken für die Inhaltsanalyse untersucht und KI nutzt, um große gesellschaftliche Herausforderungen anzugehen. In diesem Beitrag konzentrieren wir uns auf unsere Vision, wie solche KI-Technologien den Mediensektor verändern können, indem wir sieben industrielle Anwendungsfälle diskutieren, die von der Bekämpfung von Desinformation in sozialen Medien und der Unterstützung von Journalisten bei der Erstellung von Nachrichtenberichten bis hin zu hochwertiger Videoproduktion und Spieldesign reichen und künstlerische Mitgestaltung. Für jeden dieser Anwendungsfälle beleuchten wir die aktuellen Herausforderungen und Bedürfnisse und erläutern, wie diese durch den Einsatz innovativer KI-getriebener Lösungen effizient angegangen werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-79150-6_7 69951d87ded0bd7b3d3c39779f13aa15;de;;;7.4.;;;Jüngste Fortschritte beim Lernen mit hierarchischer Verstärkung Reinforcement Learning wird vom Fluch der Dimensionalität heimgesucht: Die Zahl der zu lernenden Parameter wächst exponentiell mit der Größe jeder kompakten Codierung eines Zustands. Jüngste Versuche, den Fluch der Dimensionalität zu bekämpfen, haben sich prinzipientreuen Methoden zur Ausnutzung der zeitlichen Abstraktion zugewandt, bei denen Entscheidungen nicht bei jedem Schritt erforderlich sind, sondern sich eher auf die Ausführung zeitlich ausgedehnter Aktivitäten berufen, die ihren eigenen Richtlinien bis zur Beendigung folgen. Dies führt natürlich zu hierarchischen Steuerungsarchitekturen und zugehörigen Lernalgorithmen. Wir überprüfen mehrere Ansätze zur zeitlichen Abstraktion und hierarchischen Organisation, die Forscher des maschinellen Lernens kürzlich entwickelt haben. Gemeinsam ist diesen Ansätzen ein Vertrauen auf die Theorie der Semi-Markov-Entscheidungsprozesse, die wir in unserer Übersicht betonen. Anschließend diskutieren wir Erweiterungen dieser Ideen auf gleichzeitige Aktivitäten, Multiagenten-Koordination und hierarchisches Gedächtnis, um die partielle Beobachtbarkeit anzugehen. Abschließende Bemerkungen adressieren offene Herausforderungen für die Weiterentwicklung des Reinforcement Learning in einem hierarchischen Setting.;-;-;-;https://link.springer.com/article/10.1023/A%3A1025696116075 a106f3198544ae1b0a76e0af18198098;de;;;7.4.;;;Erkennen von anormalen speicherprogrammierbaren Controller-Ereignissen mit maschinellem Lernen Ausfälle industrieller Steuerungssysteme können Menschenleben und Umwelt gefährden. Speicherprogrammierbare Steuerungen sind wichtige Komponenten industrieller Steuerungssysteme, die in der kritischen Infrastruktur eingesetzt werden. Angriffs- und Unfalluntersuchungen mit speicherprogrammierbaren Steuerungen beruhen auf forensischen Techniken, um die Grundursachen zu ermitteln und Abwehrstrategien zu entwickeln. Die Forensik von speicherprogrammierbaren Steuerungen ist jedoch eine anspruchsvolle Aufgabe, vor allem aufgrund des Fehlens von Systemprotokollen. Dieses Kapitel schlägt eine neuartige Methodik vor, die die Werte relevanter Speicheradressen, die von einem speicherprogrammierbaren Steuerungsprogramm verwendet werden, zusammen mit ihren Zeitstempeln protokolliert. Auf die protokollierten Daten werden Techniken des maschinellen Lernens angewendet, um anomale oder anormale Operationen der speicherprogrammierbaren Steuerung zu identifizieren. Eine Anwendung der Methodik auf ein simuliertes Ampelsteuerungssystem demonstriert ihre Wirksamkeit bei der Durchführung forensischer Untersuchungen von speicherprogrammierbaren Steuerungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67208-3_5 beb0814968cf409fdd36fb93b62133a5;de;;;7.4.;;;Organisatorische Einführung von Künstlicher Intelligenz im Supply Chain Risk Management Angesichts der zunehmenden Komplexität globaler Lieferketten, geopolitischer Ereignisse, Pandemien und Just-in-Time-Prozesse können Unternehmen durch den Einsatz künstlicher Intelligenz (KI) beim Management von Lieferkettenrisiken enorm profitieren. Aufbauend auf früheren Forschungen zur Technologieeinführung untersuchen wir Faktoren, die die Einführungsabsicht von KI in SCRM in Unternehmen in Indien beeinflussen. Basierend auf einer qualitativen Studie diskutieren wir die Anwendungen und die Einzigartigkeit der KI-Einführung im Bereich des Supply Chain Risk Management (SCRM) und schlagen ein Forschungsmodell zur Einführung, Implementierung und Routinisierungsabsicht von KI in SCRM auf organisatorischer Ebene vor. Zweitens diskutieren wir die Implikationen der Studie und den Nutzen für Entscheidungsträger und Supply-Chain-Planer bei der Entwicklung effektiver Strategien bei der Einführung von KI in SCRM.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-64849-7_2 f3ad2dcd841b05a148c9e24453ecf924;de;;;7.4.;;;Propositionalisierung von Multi-Instanz-Daten mit Random Forests Multi-Instanz-Lernen ist eine Verallgemeinerung des Attribut-Wert-Lernens, wobei Beispiele für das Lernen aus gekennzeichneten Taschen (d. h. Multi-Sets) von Instanzen bestehen. Diese Lernumgebung ist rechentechnisch anspruchsvoller als das Attributwert-Lernen und passt auf natürliche Weise zu wichtigen Anwendungsbereichen des maschinellen Lernens wie der Klassifizierung von Molekülen und der Bildklassifizierung. Ein Ansatz zur Lösung von Lernproblemen mit mehreren Instanzen besteht darin, die Aussagekraft anzuwenden, bei der Datensäcke in Vektoren von Attribut-Wert-Paaren umgewandelt werden, so dass ein standardmäßiger Aussage- (d. h. Attribut-Wert-)Lernalgorithmus angewendet werden kann. Dieser Ansatz ist attraktiv wegen der großen Anzahl von propositionalen Lernalgorithmen, die entwickelt wurden und somit auf die propositionalisierten Daten angewendet werden können. In diesem Beitrag untersuchen wir empirisch eine Variante einer existierenden Propositionalisierungsmethode namens TLC. TLC verwendet einen einzigen Entscheidungsbaum, um propositionalisierte Daten zu erhalten. Unsere Variante wendet stattdessen einen Random Forest an und ist durch die potenzielle Erhöhung der Robustheit motiviert, die dies mit sich bringen kann. Wir präsentieren Ergebnisse zu synthetischen und realen Daten aus den beiden oben genannten Anwendungsdomänen, die zeigen, dass es tatsächlich zu einer erhöhten Klassifizierungsgenauigkeit kommt, wenn Boosting- und Support-Vektor-Maschinen zur Klassifizierung der propositionalisierten Daten angewendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03680-9_37 a3a6ca364ed7d2a4821995bd55fa18aa;de;;;7.4.;;;Ähnlichkeitsbasierte grobe Sets und ihre Anwendungen im Data Mining Pawlaksche Räume beruhen auf einer Äquivalenzrelation, die Ununterscheidbarkeit darstellen. Als Verallgemeinerung dieser Räume sind einige Näherungsräume erschienen, die nicht auf einer Äquivalenzrelation, sondern auf einer Toleranzrelation beruhen, die Ähnlichkeit repräsentiert. Diese Räume bewahren die Eigenschaft des Pawlakschen Raums, dass die Vereinigung der Basismengen das Universum ergibt. Sie geben jedoch die Forderung auf, dass die Basismengen paarweise disjunkt sind. Die Basismengen werden so generiert, dass für jedes Objekt die dem gegebenen Objekt ähnlichen Objekte genommen werden. Dies bedeutet, dass die Ähnlichkeit zu einem bestimmten Objekt berücksichtigt wird. Im schlimmsten Fall kann es passieren, dass die Anzahl der Basismengen der von Objekten im Universum entspricht. Dies erhöht den Bedarf an Rechenressourcen des Set-Approximationsprozesses erheblich und schränkt deren effiziente Verwendung in großen Datenbanken ein. Um dieses Problem zu überwinden, wird in dieser Dissertation eine mögliche Lösung vorgestellt. Der Raum wird als ähnlichkeitsbasierte grobe Mengen bezeichnet, wobei das System der Basismengen durch das Korrelationsclustering erzeugt wird. Daher wird die tatsächliche Ähnlichkeit berücksichtigt, nicht die Ähnlichkeit mit einem ausgezeichneten Objekt. Der so erzeugte Raum stellt einerseits die interpretierte Ähnlichkeit richtig dar und reduziert andererseits die Anzahl der Basismengen auf eine überschaubare Größe. Diese Arbeit beschäftigt sich mit den Eigenschaften und der Anwendbarkeit dieses Raumes und präsentiert alle Vorteile, die aus der Korrelationsclusterbildung gewonnen werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-62798-3_5 b5db44c5b2afcc388bcb9c91da9c748f;de;;;7.4.;;;Trajektorienmodellierung in Shared Spaces: Expertenbasierter vs. Deep-Learning-Ansatz? Eine realistische Modellierung des Verhaltens und der Interaktion heterogener Verkehrsteilnehmer (Fußgänger und Fahrzeuge) in Mischverkehrszonen (auch Shared Spaces genannt) ist eine Herausforderung. Die dynamische Natur der Umgebung, die Heterogenität der Verkehrsträger und das Fehlen klassischer Verkehrsregeln machen realistische mikroskopische Verkehrssimulationen zu schweren Problemen. Bestehende Multi-Agenten-basierte Simulationen von Shared Spaces verwenden weitgehend einen Experten-basierten Ansatz, der ein symbolisches (zB regelbasiertes) Modellierungs- und Argumentationsparadigma (zB unter Verwendung von BDI-Repräsentationen von Überzeugungen und Plänen) mit der handgefertigten Kodierung des Ist- Entscheidungslogik. In jüngerer Zeit werden Deep-Learning-Modelle (DL) hauptsächlich verwendet, um Trajektorien basierend auf z.B. Videodaten. Eingehende Studien, die diese beiden Arten von Ansätzen vergleichen, fehlen. In dieser Arbeit schlagen wir ein Experten-basiertes Modell namens . vor;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-66888-4_2 9d38d76168308c2acc575d00429ce104;de;;;7.4.;;;Plant Multiscale Networks: Darstellung der Anlagenkonnektivität durch mehrstufige Analyse- und Bildgebungsverfahren In vielzelligen und sogar einzelligen Organismen sind einzelne Komponenten auf mehreren Ebenen miteinander verbunden, um enorm komplexe biologische Netzwerke zu erzeugen, die diesen Systemen helfen, die Homöostase für Entwicklung und Umweltanpassung aufrechtzuerhalten. Systembiologische Studien wandten zunächst die Netzwerkanalyse an, um zu untersuchen, wie Beziehungen zwischen einzelnen Komponenten zu komplexen biologischen Prozessen führen. Im Human Brain Project wurde eine Netzwerkanalyse angewendet, um die komplexe Konnektivität von Säugetiergehirnen über verschiedene Zeit- und Raumskalen hinweg zu analysieren. In der Pflanzenwissenschaft wurde die Netzwerkanalyse ähnlich angewendet, um die Konnektivität von Pflanzenkomponenten auf molekularer, subzellulärer, zellulärer, organischer und Organismenebene zu untersuchen. Die Analyse dieser Multiskalen-Netzwerke trägt zu unserem Verständnis davon bei, wie der Genotyp den Phänotyp bestimmt. In diesem Aufsatz haben wir den theoretischen Rahmen von Multiskalennetzwerken von Pflanzen zusammengefasst und Studien vorgestellt, die Pflanzennetzwerke mit verschiedenen experimentellen und rechnerischen Modalitäten untersuchen. Als nächstes diskutierten wir die derzeit verfügbaren analytischen Methoden und mehrstufigen Bildgebungstechniken, die verwendet werden, um mehrskalige Netzwerke in Pflanzen abzubilden. Schließlich haben wir einige der technischen Herausforderungen und Schlüsselfragen hervorgehoben, die in diesem aufstrebenden Bereich noch anzugehen sind.;-;-;-;https://link.springer.com/article/10.1007/s11427-020-1910-1 fd6d2a9ca4103ee89cd27fcdc53eae4b;de;;;7.4.;;;Deep-Learning-basierte Erkennung von Lungenknoten aus Computertomographiebildern Lungenkrebs gehört zu den häufigsten Todesursachen durch Krebs. Das Überleben von Lungenkrebs hängt weitgehend von dem Stadium ab, in dem es diagnostiziert wird. Die Früherkennung verbessert die Überlebensrate der Patienten erheblich. Der Radiologe diagnostiziert die Computertomographie-Bilder, indem er Lungenknötchen aus den Bildern erkennt. Die Erkennung von Lungenkrebs im Anfangsstadium ist sehr schwierig, da die Größe der Lungenknoten sehr klein und schwer zu lokalisieren ist. Viele computergestützte Erkennungssysteme zum Erkennen von Lungenknötchen wurden vorgeschlagen, um Radiologen zu unterstützen. Vor kurzem hat das neuronale Deep-Learning-Netzwerk seinen Weg in das Lungenknötchen-Erkennungssystem gefunden, nachdem es bei Computer-Vision-Aufgaben erfolgreich war. In diesem Artikel schlagen wir ein neuartiges System auf der Grundlage eines tiefen Faltungsneuralnetzwerks zur Erkennung und Lokalisierung von Lungenknoten vor. Unser Ziel ist es, Radiologen mit einem Werkzeug zur korrekten Diagnose von Computertomographie (CT)-Scans von Patienten zu versorgen. Das entwickelte System konnte mit einer Sensitivität von 92,9 % detektieren und lokalisieren. Für diese Forschung wurde LIDC-IDRI die weltweit größte öffentlich zugängliche Datenbank für Computertomographie-Scans der menschlichen Lunge verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0493-5_11 798a0c32344972815e9778c65cc1567a;de;;;7.4.;;;Leistungskennzahlen in der Klassifikation der menschlichen Kommunikation Diese Studie unterstreicht die Bedeutung der Verwendung geeigneter Maßnahmen in bestimmten Textklassifikationseinstellungen. Wir konzentrieren uns auf Methoden, die die Leistung eines Klassifikators bewerten. Die Auswirkungen von Transformationen auf die Konfusionsmatrix werden für elf bekannte und kürzlich eingeführte Klassifikationsmaße betrachtet. In einer Konfusionsmatrix analysieren wir die Werthaltigkeit der Maßnahme bei Veränderungen. Wir diskutieren Vorteile aus der Verwendung der invarianten und nicht-invarianten Maße in Bezug auf Eigenschaften von Datenklassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72665-4_14 282d7212560f67be8da2d59d353e2345;de;;;7.4.;;;Blockchain-basiertes sicheres und intelligentes Sensorsystem für die Aktivitätsverfolgung autonomer Fahrzeuge jenseits von 5G-Netzwerken Die Automatisierung des Verkehrs ist in den letzten Jahren ein heißes Forschungsthema für Smart Cities. Das Intelligent Transportation System (ITS) zielt auf die Verwaltung und Optimierung von Verkehrsstaus, Verkehrsunfällen und der Parkplatzzuweisung mithilfe eines autonomen Fahrzeugsystems (AV) ab, bei dem die AVs intern für die Nachrichtenweitergabe und kritische Entscheidungsfindung in zeitkritischen Anwendungen verbunden sind. Die Datensicherheit in solchen Anwendungen kann durch die Blockchain (BC) Technologie geboten werden. Laut der vorhandenen Literatur gibt es jedoch kein System, das AVs automatisch je nach Situation rufen kann, dh bei einem Unfall einen Krankenwagen rufen, bei einer Heimverlegung den Logistikdienst rufen und bei einem Unfall die Verkehrsabteilung anrufen Stau. Aus den oben genannten Gründen schlagen wir in diesem Artikel eine BC-basierte sichere und intelligente Sensor- und Tracking-Architektur für AV-Systeme vor, die über das 5G-Kommunikationsnetzwerk hinausgehen. In letzter Zeit haben AVs Probleme mit der Sensor- und Tracking-Technologie sowie dem Datendiebstahl. AV-System enthält sensible Informationen und überträgt sie über einen Kommunikationskanal an Connected AVs (CAVs), wo die beschädigten Informationen oder eine Verzögerung von Bruchteilen einer Sekunde zu einer kritischen Situation führen können. Daher präsentieren wir hier mögliche Angriffe und Sicherheitsmaßnahmen mit BC-Technologie zum Schutz des AV-Systems. Die vorgeschlagene Architektur gewährleistet die sichere Erfassung und Verfolgung eines Objekts durch BC durch den Einsatz von KI-Algorithmen auf den Edge-Servern. Darüber hinaus ermöglicht das Beyond 5G-Netzwerk eine Kommunikation mit geringer Latenz und hoher Zuverlässigkeit, um die Wünsche der oben genannten zeitkritischen Anwendungen zu erfüllen. Das vorgeschlagene System wird unter Berücksichtigung der Parameter Mobilität und Datenübertragungszeit gegenüber den traditionellen LTE-A- und 5G-Kommunikationsnetzen bewertet. Das vorgeschlagene System übertrifft herkömmliche Systeme und kann für verschiedene Anwendungen geeignet sein, bei denen Latenz, Zuverlässigkeit und Sicherheit im Vordergrund stehen.;-;-;-;https://link.springer.com/article/10.1007/s12083-021-01073-x 7a5ac0bcccb1f4d088f7a1f5ece77d9b;de;;;7.4.;;;Einschätzungen des Bedarfs der Wirtschaftssektoren an digitalen Technologien Es wurde eine Bewertung des Bedarfs der Wirtschaftssektoren an Lösungen basierend auf End-to-End-Technologien (E2ET) unter Verwendung der Metriken Technology Readiness Level (TRL) und Manufacture Readiness Level (MRL) durchgeführt. Die erstellte Matrix „E2ET-Bedarfslandkarte“ zeigt die Bedürfnisse von neun Wirtschaftssektoren in neun Blöcken von E2ET. Es spiegelt die Prioritäten der erforderlichen staatlichen Unterstützung für die Entwicklung von E2ET in den verschiedenen Wirtschaftssektoren wider. Es wurde davon ausgegangen, dass jeder E2ET-Block Dutzende von Untertechnologien umfasst. Es wurde ein 3-stufiger Baum mit etwa 30 Kriterien zur Bedarfsermittlung erstellt. Angesichts des Vorhandenseins vieler nicht-quantitativer Faktoren, die den E2ET-Bedarf charakterisieren, wurde der konvergente Ansatz des Autors einschließlich der kognitiven Modellierungs- und Netzwerkexpertise-Technologie (e-Expertise) angewendet. Der Ansatz basiert auf der Kombination von Methoden der inversen Problemlösung auf topologischen Räumen, kontrollierbarer Thermodynamik und Kategorientheorie. Zur Synthese und Überprüfung kognitiver Modelle und der Verlässlichkeit der Expertenarbeit wurde die Big-Data-Analyse genutzt. Als Verifikationsarrays wurden inländische Datenbanken mit Medienpublikationen verwendet. Der Ansatz gewährleistet die Schaffung der notwendigen Voraussetzungen zur Erreichung der strategischen Ziele der Entwicklung der digitalen Wirtschaft in Russland mit Hilfe des E2ET. Die Regulierungsregeln für die jährliche Überwachung des zu prüfenden E2ET-Bedarfs wurden vorgeschlagen.;-;-;-;https://link.springer.com/article/10.1134/S1995080219110246 a3e58d2712820980dd4f64f46710e5ab;de;;;7.4.;;;COVID-19-Ausbruchslernvorhersage basierend auf dem Schwarmintelligenzmodell „Chaotischer Fruchtfliegen-Algorithmus gefolgt von Aktivierungsfunktion“ Die Coronavirus-Krankheit (COVID-19) wurde zur Pandemie erklärt. In letzter Zeit gilt diese Pandemie als einer der Hauptpunkte der Forschung. Viele Forscher führen viele Methoden ein, um die Ausbrüche einer gefährlichen Pandemie vorherzusagen. In diesem Artikel wird eine neue Technik zur Vorhersage der täglichen Berichte für die nächsten Monate vorgestellt, die auf einer der modernen Optimierungstechniken namens Chaotic Fruit Fly basiert. Wir werden auf diese Techniken angewendet. Dann folgen wir der lernenden Übertragungsfunktion „Sigmoidfunktion“. Darüber hinaus werden wir unseren Algorithmus mit den vorherigen Vorhersagen vergleichen. Die in dieser Arbeit vorgestellte Methode ist viel genauer als die anderen Methoden. Die Methode wurde auf den ägyptischen Bericht über Tages- und Todesfälle angewendet. Das Ergebnis zeigt die Genauigkeit der Vorhersage für die nächsten drei Monate. Außerdem zeigen die Ergebnisse den Effekt der Algorithmusgenauigkeit. In diesem Papier vergleichen wir die Genauigkeit mit den anderen Vorhersagen, die auf COVID-19-Fälle angewendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-69717-4_6 db32177f2b20275d9f407708618a9c87;de;;;7.4.;;;Entscheidungsbaumalgorithmen: Integration von Domänenwissen für Data Mining Der Beitrag befasst sich mit der Integration von Unternehmens-(Domänen-)Wissen mit Data-Mining-Techniken. Die Entscheidungsbaumalgorithmen CART, ID3, C4.5, CHAID werden unter dem Aspekt der Beziehungen zu Unternehmensmodellattributen (d. h. Domänenwissen) analysiert. Es wird erwartet, dass die Integration einer Unternehmens-Wissensdatenbank in Data-Mining-Techniken den Datenanalyseprozess verbessern wird. Die detaillierte Analyse des modifizierten Entscheidungsbaumalgorithmus C4.5, integriert mit Domänenwissen, wird beschrieben. Die Ausrichtung der in den Entscheidungsbaumalgorithmen verwendeten Geschäftsdomänenattribute mit den Attributen von EM-Komponenten wird definiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34228-8_2 dca641fa42a23d27043510affc81b6ae;de;;;7.4.;;;Klassifizierung und Visualisierung von Webangriffen mithilfe von HTTP-Headern und Techniken des maschinellen Lernens In diesem Whitepaper wird eine Methodik zur Identifizierung von Webangriffen wie XSS, CRLF und SQL-Injection anhand eines Datensatzes vorgestellt, der normale und anomale Elemente enthält. Die vorgeschlagene Methodik verwendet dimensionale Reduktionstechniken für die Visualisierung (PCA, t-SNE) und maschinelle Lernalgorithmen (SVM, Naive Bayes, Random Forest, logistische Regression), um eine Klassifizierung von URLs durchzuführen, die in HTTP-Headern enthalten sind. Die Ergebnisse zeigten, dass die Visualisierung nützlich ist, um einen allgemeinen Überblick über Angriffe zu geben, und Klassifizierungsexperimente zeigten eine Genauigkeit von 83%, um Angriffe zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-46785-2_20 0a927d0ee71921f74efc57b0686b3893;de;;;7.4.;;;Cyber-Physical-Social Semantic Link Network Gibt es einen Ursache-Wirkungs-Zusammenhang zwischen Denken, Erleben und Wissen? Dieses Problem hat Philosophen und Wissenschaftler seit Jahrhunderten herausgefordert. Die Realität zu verstehen und darzustellen ist ein wichtiger Schritt, um die Verbindung zu finden. Semantikmodellierung ist ein Ansatz zum Verstehen und Darstellen der Realität.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-7311-4_3 34b964962ce5481d5ca2130698dd2a21;de;;;7.4.;;;Genexpressions-Data-Mining und -Analyse Mithilfe von Microarrays können wir eine Tabelle mit Genexpressionsprofilen erstellen, die die dynamische Funktion jedes Gens im Genom charakterisieren, indem wir die Gentranskriptionsniveaus in verschiedenen Entwicklungsstadien, in verschiedenen Geweben und unter verschiedenen Bedingungen messen. Zeilen in dieser Tabelle repräsentieren Gene, Spalten repräsentieren Proben, wie beispielsweise verschiedene Gewebe, Entwicklungsstadien und Behandlungen, und jede Position in der Tabelle enthält Werte, die das Expressionsniveau dieses bestimmten Gens in einer bestimmten Probe charakterisieren. Wir nennen diese Tabelle a;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-56517-5_6 d935c0592fc788e46b27dec2990b2c80;de;;;7.4.;;;Boltzmann-Maschinen zur Bildentrauschung Bildrauschen basierend auf einem probabilistischen Modell lokaler Bildfelder wurde von verschiedenen Forschern verwendet, und kürzlich wurde in [2] und [17] ein Autoencoder mit tiefer Rauschunterdrückung als gutes Modell dafür vorgeschlagen. In diesem Beitrag schlagen wir vor, dass eine weitere beliebte Modellfamilie im Bereich der;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40728-4_76 ff66cca917994c0bfcc2b6db2b503edd;de;;;7.4.;;;Forschung zu Data Mining im Customer Relationship Management Nach dem Konzept von Data Mining und Customer Relationship Management (CRM) haben wir zunächst die Konnotation von CRM auf Basis von Data Mining geklärt. Basierend auf der Kernideologie von CRM-Lösungen und typischen Mining-Methoden des Data Mining haben wir die Systemstruktur von CRM basierend auf Data Mining aus vier Aspekten aufgebaut, nämlich Kundenkontakt, Datenspeicherung, Data Mining und Geschäftsanwendung. Darunter spielt das Data Mining die Kernrolle. Als nächstes wurden in Kombination mit den Eigenschaften von CRM und Data Mining der Realisierungsprozess und die Implementierungsschritte von Data Mining in CRM aufgezeigt. Später diskutierten wir unter anderem die Neukundengewinnung, Kundenunterteilung, Crossmarketing, Kundenbindung und Kundenrentabilitätsanalyse über die Anwendungsrichtung des Data Mining im CRM. Abschließend schlossen wir den Anwendungswert und die Bedeutung von CRM basierend auf Data Mining.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35567-7_20 4a6f13707e8affdd6ec4af727cdcb46a;de;;;7.4.;;;Bildästhetische Bewertung: Ein Deep-Learning-Ansatz mit Klassenaktivierungskarte Ästhetik beschäftigt sich mit der Schönheit und Kunst der Dinge in der Welt. Die Ästhetik von Bildern zu beurteilen ist eine höchst subjektive Aufgabe. In letzter Zeit haben auf Deep Learning basierende Ansätze große Erfolge bei der bildästhetischen Beurteilung erzielt. In diesem Artikel haben wir verschiedene Mehrkanal-Convolution Neural Network (CNN)-Architekturen implementiert, um Bilder in hoher und niedriger ästhetischer Qualität zu klassifizieren. Klassenaktivierungskarten von Bildern werden zusammen mit Variationen von Rohbildern in der vorgeschlagenen Zweikanal-Deep-Network-Architektur als Eingabe für einen Kanal verwendet. In der vorgeschlagenen Mehrkanal-CNN-Architektur wurden verschiedene vortrainierte Deep-Learning-Modelle wie VGG19, InceptionV3, Resnet50 implementiert. Über Experimente wird auf dem AVA-Datensatz berichtet, der eine Verbesserung der bildästhetischen Bewertungsaufgabe gegenüber bestehenden Ansätzen zeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1092-9_8 6f2fb67e5f3e7e06517e4b4ed9a8b299;de;;;7.4.;;;Maschinelles Lernen zur Analyse des Gangs bei Parkinson-Patienten mit tragbaren Kraftsensoren Gangstörungen sind die Voraussetzung für die Diagnose der Parkinson-Krankheit (PD). Der einzige Zweck dieser Studie besteht darin, objektiv und automatisch zwischen gesunden Probanden und Parkinson-Patienten zu klassifizieren. In dieser Forschungssumme wurden 16 unterschiedlich positionierte Kraftsensoren an den Schuhen von Probanden angebracht, die die Multisignal Vertical Ground Reaction Force (VGRF) erfassten. Aus allen Sensorsignalen mit einer Fenstergröße von 1024 über den Rohsignalen wurden unter Verwendung der Paket-Wavelet-Transformation (PWT) fünf verschiedene Merkmale, nämlich Entropie, Energie, Varianz, Standardabweichung und Wellenformlänge extrahiert, und eine Support-Vektor-Maschine (SVM) wird angewendet, um zwischen zu unterscheiden Parkinsonpatienten und gesunde Probanden. SVM wird mit 85 % des Datensatzes trainiert und mit 15 % des Datensatzes validiert. Die Trainingskohorte basiert auf 93 Patienten mit idiopathischer PD (mittleres Alter: 66,3 Jahre, 63 % Männer und 37 % Frauen) und 73 gesunden Kontrollpersonen (mittleres Alter: 66,3 Jahre, 55 % Männer und 45 % Frauen). Von 16 Sensoren wurden 8 Kraftsensoren am linken Fuß des Probanden und die restlichen 8 am rechten Fuß angebracht. Die Ergebnisse zeigen, dass der 5. Sensor, der auf einem medialen Aspekt des rechten Fußrückens getragen wird, dargestellt durch R5, eine Genauigkeit von 90,3 % bietet. Daher gibt diese Forschung die Erkenntnis, nur einen einzigen tragbaren Kraftsensor zu verwenden. Daher kommt diese Studie zu dem Schluss, dass ein einzelner Sensor zur Identifizierung zwischen Parkinsonpatienten und gesunden Probanden dienen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6052-7_47 e33905d4ec3f7b5caf26baeec1d84fc1;de;;;7.4.;;;Zwei-Bild-Ansatz zur Reflexionsentfernung mit Deep Learning Eine Spiegelung in einem Bild ist aufgrund des Informationsverlustes nicht immer erwünscht. Herkömmliche Verfahren zum Entfernen von Reflexionen basieren auf Priors, die die Erfüllung bestimmter Bedingungen erfordern. Die jüngsten Fortschritte beim Deep Learning in vielen Bereichen haben diese traditionellen Ansätze revolutioniert. Die Verwendung von mehr als einem Eingabebild reduziert die Unschicklichkeit der Problemstellung. Die Standardannahme bei zahlreichen Verfahren geht davon aus, dass der Hintergrund stationär ist und nur die Reflexionsschicht variiert. Bilder in unterschiedlichen Winkeln haben jedoch leicht unterschiedliche Hintergründe. In Anbetracht dessen wird ein neues Dataset erstellt, bei dem sowohl die Reflexions- als auch die Hintergrundebene variieren. In diesem Beitrag wird eine auf zwei Bildern basierende Methode mit einer End-to-End-Abbildung zwischen den beobachteten Bildern und dem Hintergrund vorgestellt. Das entscheidende Merkmal ist die Praktikabilität des Verfahrens, wobei mit modernen Dual-Kamera-Mobilgeräten eine Bildfolge mit leicht unterschiedlichen Winkeln problemlos aufgenommen werden kann. Eine Kombination von Merkmalsverlust mit MSE behält den Inhalt und die Qualität des resultierenden Bildes bei.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1092-9_6 d22fa781eeadae3993dc66058ca96e31;de;;;7.4.;;;Verbesserte Vorhersage des Intraday-Aktienmarktes durch metaheuristische Optimierung im RNN-LSTM-Netzwerk Deep Learning liefert nützliche Erkenntnisse durch die Analyse von Informationen insbesondere im Finanzbereich mit fortschrittlicher Computertechnologie. Obwohl das RNN-LSTM-Netzwerk mit dem Vorteil des sequentiellen Lernens in der Vergangenheit große Erfolge bei der Zeitreihenvorhersage erzielt hat. Umgekehrt ist die Entwicklung und Auswahl des besten rechnerisch optimierten RNN-LSTM-Netzwerks für die Intraday-Börsenmarktprognose eine echte Herausforderung für einen Forscher. Da es die flüchtigsten Daten analysiert, müssen zwei große Faktoren wie die Zeitverzögerung und die große Anzahl von architektonischen Hyperparametern, die das Lernen des Modells beeinflussen, berücksichtigt werden. Darüber hinaus verwenden mehrere frühere Studien zusätzlich zum Design dieses Netzwerks eine Trial-and-Error-basierte Heuristik, um diese Faktoren zu schätzen, die möglicherweise nicht das optimalste Netzwerk garantieren. Dieses Papier definiert die Lösung zur Lösung der oben genannten herausfordernden Probleme unter Verwendung des Hybridmechanismus des RNN-LSTM-Netzwerks, das mit einer metaheuristischen Optimierungstechnik integriert ist. Dazu wurde ein Zwei-Hybrid-Ansatz, nämlich RNN-LSTM mit Blütenbestäubungsalgorithmus und RNN-LSTM mit Partikelschwarmoptimierung eingeführt, um ein optimales Deep-Learning-Modell zur Verbesserung der Intraday-Börsenmarktprognose zu entwickeln. Dieses Modell schlägt eine systematische Methode vor, die uns bei der automatischen Generierung eines optimierten Netzwerks hilft. Da das erhaltene Netzwerk mit abgestimmten hyperparametrischen Werten zu einem genaueren Lernprozess mit minimierter Fehlerrate und Genauigkeitsverbesserung führte. Darüber hinaus spiegeln die vergleichenden Ergebnisse, die über sechs verschiedene Börsendatensätze ausgewertet wurden, die Wirksamkeit eines optimierten RNN-LSTM-Netzwerks wider, indem mit dem metaheuristischen Ansatz eine maximale Vorhersagegenauigkeit von ungefähr 4–6% erreicht wird.;-;-;-;https://link.springer.com/article/10.1007/s00354-020-00104-0 9d8f5d5456b43a0642cb9d486d58d4fb;de;;;7.4.;;;Aufmerksamkeitsmechanismus-basierter feindlicher Angriff gegen Deep Reinforcement Learning Deep Reinforcement Learning (DRL) zielt darauf ab, langfristige zukünftige Belohnungen zu maximieren, um bestimmte Ziele durch Lernstrategien auf der Grundlage von Deep-Learning-Modellen zu erreichen. Vorhandene Untersuchungen haben jedoch ergeben, dass Modelle für maschinelles Lernen anfällig für böswillig erstellte gegnerische Beispiele sind, ebenso wie die DRL, da sie ein Deep-Modell zum Erlernen von Richtlinien verwendet. Gewöhnlich werden Gradienteninformationen verwendet, um bei den sauberen Beobachtungszuständen eine gegnerische Störung zu erzeugen, um DRL zu versagen. Um eine neuartige Angriffsmethode zur weiteren Fehlererkennung von DRL zu entwickeln, schlagen wir einen neuartigen Aufmerksamkeitsmechanismus basierend auf einem gegnerischen Angriff vor. Anstelle von Gradienteninformationen nutzen wir die versteckten Merkmale, die in der DRL durch Aufmerksamkeitsoperationen extrahiert wurden, um effektivere gegnerische Beispiele zu generieren. Sowohl Kanalaufmerksamkeit als auch Pixelaufmerksamkeit werden angewendet, um das Merkmal zu extrahieren, um den sauberen Zustand in einen gegnerischen Zustand zu ändern. Deep Q-Learing Network (DQN), eines der modernsten DRL-Modelle, wird als Zielmodell verwendet, um die Spielumgebung von Flappybird zu trainieren, um einen kontinuierlichen Betrieb und eine hohe Erfolgsrate zu gewährleisten. Umfangreiche Angriffsexperimente werden auf DQN durchgeführt, um die Angriffsleistung in Bezug auf Belohnungs- und Verlustkonvergenz zu belegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-68851-6_2 17e670dbeedd5b66f551af749d662957;de;;;7.4.;;;Imputation von Fertigungsmaterial im Data Mining Daten spielen als Informationsquelle für Unternehmen eine wichtige Rolle, insbesondere in Zeiten von Information und Technologie. Man trifft auf eine nicht ganz so perfekte Datenbank, aus der Daten fehlen, und die aus einer solchen Datenbank erhaltenen Ergebnisse können voreingenommene oder irreführende Lösungen liefern. Daher wurde das Imputieren fehlender Daten in eine Datenbank als einer der wichtigsten Schritte beim Data Mining angesehen. In der vorliegenden Forschung wurden verschiedene Methoden des Data Mining verwendet, um imputative Modelle in Übereinstimmung mit verschiedenen Arten von fehlenden Daten zu erstellen. Wenn die fehlenden Daten kontinuierlich sind, werden Regressionsmodelle und neuronale Netze verwendet, um imputative Modelle zu erstellen. Für die kategorial fehlenden Daten werden das logistische Regressionsmodell, das neuronale Netz, C5.0 und CART verwendet, um imputative Modelle zu konstruieren. Die Ergebnisse zeigten, dass das Regressionsmodell die beste Schätzung kontinuierlicher fehlender Daten lieferte, aber für kategorisch fehlende Daten erwies sich das C5.0-Modell als die beste Methode.;-;-;-;https://link.springer.com/article/10.1007/s10845-007-0067-z 4780176133fdf36678b2b5268bf13433;de;;;7.4.;;;Machine-Learning-Techniken für die selbstorganisierende Verbrennungssteuerung In diesem Beitrag wird das Gesamtsystem eines lernenden, selbstorganisierenden und adaptiven Reglers zur Optimierung des Verbrennungsprozesses in einem Steinkohlekraftwerk vorgestellt. Das System selbst identifiziert relevante Kanäle aus den verfügbaren Messungen, klassischen Prozessdaten und Flammenbildinformationen und wählt die am besten geeigneten aus, um basierend auf den beobachteten Daten eine Regelstrategie zu erlernen. Aufgrund der wechselnden Natur des Prozesses ist die Fähigkeit zur automatischen Neuanpassung des gesamten Systems unerlässlich. Der Betrieb in einem realen Kraftwerk demonstriert die Wirkung dieses intelligenten Steuerungssystems mit seiner Fähigkeit, die Effizienz zu steigern und den Ausstoß von Treibhausgasen viel besser als jedes bisherige Steuerungssystem zu reduzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04617-9_50 bb5fe98d6086a30fb7ac88fa3d6920f6;de;;;7.4.;;;Anwendungen der künstlichen Intelligenz in der Verteidigung Künstliche Intelligenz (KI) ist ein schnell wachsendes Gebiet der Informatik, das Computerprogrammierung umfasst und enorme Vorteile im militärischen Expertensystem, der Entwicklung menschlicher Intelligenz und im Support bietet. Dieser Beitrag beschreibt den Einsatz künstlicher Intelligenz im militärischen Bereich. Es zeigt, wie die natürliche Sprache der Verarbeitung, Ontologie und ein auf Wissen basierendes System verwendet werden, um ein einheitliches militärisches System zu schaffen. Es gibt auch einen Einblick in den Einsatz von KI im militärischen Bereich für autonome Waffen, Landanalysen und die Landung von Flugzeugträgern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0146-3_68 39f16aaea5f6db9f2ea3af733856b6e4;de;;;7.4.;;;Automatische Analyse von Social-Media-Bildern, um den Katastrophentyp zu identifizieren und geeignete Notfallmaßnahmen abzuleiten Social-Media-Postings werden im modernen Katastrophenmanagement zunehmend eingesetzt. Neben den Textinformationen spielen die Kontexte und Hinweise, die in den in sozialen Medien veröffentlichten Bildern enthalten sind, eine wichtige Rolle bei der Identifizierung geeigneter Notfallmaßnahmen für eine bestimmte Katastrophe. In diesem Papier haben wir eine Katastrophentaxonomie der Notfallreaktion vorgeschlagen und dieselbe Taxonomie mit einer Notfallpipeline zusammen mit Deep-Learning-basierten Bildklassifizierungs- und Objektidentifizierungsalgorithmen verwendet, um den Entscheidungsprozess für Notfallmaßnahmen zu automatisieren. Wir haben die Card Sorting-Methode verwendet, um die Vollständigkeit und Richtigkeit der Katastrophentaxonomie zu überprüfen. Wir haben auch die Algorithmen VGG-16 und You Only Look Once (YOLO) verwendet, um katastrophenbezogene Bilder zu analysieren und Katastrophenarten und relevante Hinweise (wie Objekte, die in diesen Bildern erschienen) zu identifizieren. Darüber hinaus haben wir mithilfe von Entscheidungstabellen und angewandten analytischen Hierarchieprozessen (AHP) die Zwischenergebnisse ausgerichtet, um ein katastrophenbezogenes Bild in die Katastrophentaxonomie abzubilden und eine geeignete Art von Notfallreaktion für eine bestimmte Katastrophe zu bestimmen. Der vorgeschlagene Ansatz wurde anhand von Erdbeben, Hurrikan und Taifun als Anwendungsfälle validiert. Die Ergebnisse zeigen, dass 96 % der Bilder mithilfe von YOLOv4 korrekt nach der Katastrophentaxonomie kategorisiert wurden. Die Genauigkeit kann durch einen inkrementellen Trainingsansatz weiter verbessert werden. Durch den Einsatz von Cloud-basierten Deep-Learning-Algorithmen in der Bildanalyse kann unser Ansatz potenziell für das Echtzeit-Krisenmanagement nützlich sein. Die Algorithmen können zusammen mit der vorgeschlagenen Notfallreaktionspipeline mit anderen raumzeitlichen Merkmalen, die aus in sozialen Medien veröffentlichten Multimedia-Informationen extrahiert wurden, weiter verbessert werden.;-;-;-;https://link.springer.com/article/10.1186/s40537-021-00471-5 dd2b41fc282f86c353fde56a6acf302b;de;;;7.4.;;;Agentenbasiertes Meta-Mining mit häufigem Set: Einführung von EMADS In diesem Whitepaper stellen wir EMADS vor, das erweiterbare Multi-Agent-Data-Mining-System, um die dynamische Erstellung von Communities von Data-Mining-Agenten zu unterstützen, untersuchen die Fähigkeiten solcher Agenten und demonstrieren (durch Experiment) ihre Anwendung auf Data-Mining auf verteilten Daten. Obwohl EMADS nicht auf eine Data-Mining-Aufgabe beschränkt ist, konzentriert sich die hier beschriebene Studie der Kürze halber auf das agentenbasierte Association Rule Mining (ARM), insbesondere das, was wir als Frequent Set Meta Mining (oder Meta ARM) bezeichnen . Eine vollständige Beschreibung unseres vorgeschlagenen Meta-ARM-Modells wird vorgestellt, in der wir das Konzept von Meta-ARM beschreiben und eine Reihe potenzieller Lösungen im Kontext von EMADS beschreiben und analysieren. Experimentelle Ergebnisse werden berücksichtigt in Bezug auf: die Anzahl der Datenquellen, die Anzahl der Datensätze in den Datensätzen und die Anzahl der dargestellten Attribute.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09695-7_3 45354eb98657f82865fb8fe3b1ee82f7;de;;;7.4.;;;Einzelbild-Crowd-Counting: eine vergleichende Umfrage zu Deep-Learning-basierten Ansätzen Crowd Counting ist ein anziehendes Computer Vision Problem. Lösungen für das Zählen von Menschenmengen bieten eine hohe Anpassungsfähigkeit an andere Zählprobleme wie Verkehrszählung und Zellzählung. Für dieses Problem wurden zahlreiche Verfahren vorgeschlagen. Deep-Learning-basierte Methoden spielen eine bedeutende Rolle in der jüngsten Weiterentwicklung. Allerdings erfassen keine existierenden Literaturübersichten ihre anspruchsvolle Entwicklung durch Herausforderungen. In diesem Whitepaper diskutieren und kategorisieren wir aktuelle Deep-Learning-Arbeiten im Bereich Crowd Counting, indem wir uns überlegen, wie sie den Herausforderungen begegnen.;-;-;-;https://link.springer.com/article/10.1007/s13735-019-00181-y cc09ebb453c58bd047eff90f29ef3625;de;;;7.4.;;;Intelligentes System zur visuellen Unterstützung der Kalorienaufnahme von Lebensmitteln bei Bewohnern einer Smart City mit einem Deep Learning Modell Ein wiederkehrendes Problem in den Smart Cities ganz Lateinamerikas werden heutzutage die degenerativen Erkrankungen im Zusammenhang mit Lebensmitteln sein, einer der Hauptgründe für die mangelnde Organisation jedes Bürgers ist die unzureichende Bestimmung der Kalorienzufuhr, a Lösungsvorschlag, ist die Entwicklung einer Anwendung, die in der Lage ist, mittels Mustererkennung und einem Deep-Learning-Modell angeben zu können, welcher Prozentsatz des Nährwerts jeder Mahlzeit durch die zugehörigen Mengen ist einer der Vorteile der Verwendung eines Lebensmittellagers, dass Lösungen, die auf Deep Learning basieren, keine vorgefertigten Lösungen sind. Ein Entwicklungsprozess ist notwendig, um eine adäquate Menge an Instanzen zu beschaffen und das intelligente System anzupassen. Letzteres umfasst die Anpassung der Benutzeroberfläche sowie die Art und Weise, wie das System die Fütterungsszenarien später abruft und verarbeitet. Die resultierenden Szenarien können dem Benutzer auf unterschiedliche Weise angezeigt und/oder abgerufene Fälle können für die spätere Wiederverwendung angepasst werden. In dieser Forschung geht es um ein intelligentes Modell zur Entscheidungsfindung auf Basis von Deep Learning zur Lösung des bestehenden Problems bei der Planung der Nahrungsmittelverteilung in der Bevölkerung einer Smart City. machen, wo sie aufgrund der Einschränkungen, die mit konventionellen menschlichen Entscheidungsprozessen verbunden sind, notwendig sind, unter anderem: Die menschliche Erfahrung ist sehr knapp, um den Kalorienwert der Nahrungsaufnahme richtig berechnen zu können, und wir müssen dies berücksichtigen Die Bürger einer Smart City sind der Last körperlicher oder geistiger Arbeit überdrüssig, außerdem vergessen die Menschen die entscheidenden Details eines Problems und sind oft in ihren täglichen Entscheidungen inkonsistent. Komplexität und Zeitaufwand für Lebensmittelentscheidungen sind für die Gesundheit tendenziell komplex, ebenso wie die hohe Häufigkeit der Entscheidungsfindung bei der Verteilung an Supermärkte, die meistens die Lebensmittel einer Bevölkerung mit Tendenz zur Zunahme von Individuen des Groutiers liefern Typ, wenn sie ihr Essen spät in der Nacht essen. Für unsere Recherche verwenden wir ein Bildarchiv von DataWorld (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-40977-7_19 e7b2af81534019ec09081df06d4078c0;de;;;7.4.;;;TCPModel: Ein Modell zur Vorhersage kurzfristiger Verkehrsstaus basierend auf Deep Learning Mit der fortschreitenden Urbanisierung ist eine Reihe von Verkehrsproblemen aufgrund der wachsenden städtischen Bevölkerung und der weitaus geringeren Wachstumsrate der Straßen als die der Autos aufgetreten. Eines der prominentesten Probleme ist das Verkehrsstauproblem. Die Vorhersage von Verkehrsstaus ist der Schlüssel zur Verringerung von Verkehrsstaus. Um die Echtzeitleistung und Genauigkeit der Verkehrsstauvorhersage zu gewährleisten, schlagen wir ein kurzfristiges Verkehrsstauvorhersagemodell namens . vor;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9298-7_6 fdd0a77564cc2b23d6ace3829992348d;de;;;7.4.;;;Verwendung visueller Funktionen basierend auf MPEG-7 und Deep Learning zur Filmempfehlung Artikelmerkmale spielen eine wichtige Rolle in Filmempfehlungssystemen, in denen Empfehlungen generiert werden können, indem explizite oder implizite Präferenzen von Benutzern für traditionelle Merkmale (Attribute) wie Tag, Genre und Besetzung verwendet werden. Typischerweise werden Filmfeatures von Menschen erstellt, entweder redaktionell (z. B. Genre und Besetzung) oder durch Nutzung der Weisheit der Menge (z. B. Tags), und als solche sind sie anfällig für Rauschen und teuer in der Sammlung. Darüber hinaus sind diese Funktionen bei neuen Artikeln oft selten oder fehlen, was es schwierig oder sogar unmöglich macht, qualitativ hochwertige Empfehlungen zu geben. In diesem Beitrag zeigen wir, dass die Filmvorlieben der Nutzer gut oder sogar besser beschrieben werden können;-;-;-;https://link.springer.com/article/10.1007/s13735-018-0155-1 f78dba14bad85f4bea4a2161dd40f89e;de;;;7.4.;;;Vorhersage und Prävention von Social Media-Sucht durch maschinelles Lernen In der heutigen Welt sind Social-Media-Websites zu einem großen Teil des Lebens der Menschen geworden. Obwohl soziale Medien die Macht der Kommunikation und des Teilens von Inhalten bieten, haben sie das Potenzial, ihren Benutzern mehr zu schaden, als ihren Benutzern zu nützen. Die negativen Auswirkungen von Social Media sind immer häufiger geworden und es scheint keine Art von Vorsichtsmaßnahmen von den Machern von Social Media Plattformen zu geben. Diese Social-Media-Plattformen haben ein großes Potenzial, Schaden anzurichten, und das auf eine Weise, die nicht ganz offensichtlich ist. Sie neigen dazu, dem Geist einer Person zu schaden, indem sie sich aufgrund des Missbrauchs der persönlichen Daten des Benutzers unsicher, ausgesetzt und sogar ausgebeutet fühlen. Das Hauptziel dieses Papiers ist es herauszufinden, wie Social-Media-Nutzer in der Altersgruppe von 17 bis 23 Jahren von diesen Plattformen betroffen sind. Zu diesem Zweck wurden Daten erhoben, indem Personen der oben genannten Altersgruppe angesprochen und ihnen Fragen zu ihrer Nutzung von Social Media gestellt wurden. Dieses Papier versucht auch, Strategien zur Minderung der negativen Auswirkungen von Social Media vorzuschlagen, denen jemand ausgesetzt ist, indem eine Anwendung erstellt wird, die seine aktuelle Social Media-Nutzung auswertet und Antworten basierend auf den Nutzungsdaten anderer Benutzer zurückgibt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4859-2_31 e94dffb1b53c6fd2937ee59e687d511d;de;;;7.4.;;;Datenschutzerhaltendes Data Mining In diesem Beitrag befassen wir uns mit dem Thema datenschutzerhaltendes Data Mining. Insbesondere betrachten wir ein Szenario, in dem zwei Parteien, die vertrauliche Datenbanken besitzen, einen Data-Mining-Algorithmus für die Vereinigung ihrer Datenbanken ausführen möchten, ohne unnötige Informationen preiszugeben. Unsere Arbeit ist von der Notwendigkeit motiviert, sowohl privilegierte Informationen zu schützen als auch ihre Nutzung für Forschungs- oder andere Zwecke zu ermöglichen.;-;-;-;https://link.springer.com/article/10.1007/s00145-001-0019-2 dfe53ef0c0008e80209a7d623b4b85cf;de;;;7.4.;;;Diversitätsmechanismen in evolutionären Klassifiziersystemen vom Pitt-Typ In diesem Kapitel untersuchen wir die Anwendung diversitätserhaltender Mechanismen in evolutionären Klassifikatorsystemen vom Pitt-Stil. Insbesondere analysieren wir die Auswirkungen von implizitem Fitness-Sharing, räumlich verteilten Subpopulationen und Kombinationen aus beiden, indem wir eine Reihe von Standardaufgaben zur Wissensermittlung verwenden. Die vorgeschlagenen Modelle werden basierend auf (a) ihrer Fähigkeit zur Förderung und/oder Aufrechterhaltung der Vielfalt in der sich entwickelnden Bevölkerung, (b) der Fähigkeit des Algorithmus, Regelsätze zu entwickeln, die Daten genau klassifizieren, und (c) der relativen Einfachheit parallele Implementierung der Modelle. Es werden Schlussfolgerungen hinsichtlich der Eignung der Ansätze in sequentiellen und parallelen Umgebungen gezogen.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-34296-6_13 acf6986dee1335ea33cc2bff9a89e537;de;;;7.4.;;;Schnappschüsse zu Neuroinformatik und neuronaler Informationsverarbeitung in Singapur Dieser Artikel fasst einige der wichtigsten Forschungsbereiche der Neuroinformatik und neuronalen Netze zusammen, die kürzlich in Singapur durchgeführt wurden oder werden. Forscher in Singapur haben neue Algorithmen für verschiedene neuronale Netze vorgeschlagen, d. Neuronale Netze wurden zur Lösung einer Vielzahl schwieriger Probleme in Bioinformatik, Multimedia, Data Mining und Kommunikation eingesetzt. Forscher in Singapur arbeiten auch mit Neurophysiologen an der funktionellen Bildgebung des Gehirns, Hirnatlanten und der Analyse von Hirnerkrankungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30499-9_134 92d38315ff4f4474638c1daccee1d8df;de;;;7.4.;;;Multi-Label-Gebührenvorhersagen, die das gleichzeitige Auftreten von Labels in einem Szenario mit unausgewogenen Daten nutzen Die Gebührenvorhersage dient der Vorhersage der damit verbundenen Gebühren auf der Grundlage von Faktenbeschreibungen und spielt eine bedeutende Rolle in Prozesskostenhilfesystemen. Es ist eine grundlegende und herausfordernde Aufgabe, Ladungen im Multi-Label-Klassifizierungsparadigma automatisch vorherzusagen, das für reale Anwendungen geeignet ist. Bestehende Arbeiten konzentrieren sich entweder auf ein ausgewogenes Datenszenario und mehrere Ladungen oder auf wenige Ladungen mit einem einzigen Etikett. Darüber hinaus verwenden frühere Modelle eine spezielle Initialisierung mit Labelmustern, um die Leistung der Multilabel-Klassifizierungsaufgabe zu verbessern, die nur anwendbar ist, wenn weniger Trainingsdaten vorhanden sind, was zu einer geringen Robustheit führt. Zu diesem Zweck wird ein neuronales Multitask-Faltungsnetzwerk in Kombination mit einem bidirektionalen Long-Kurzzeit-Speicher, der ein Label-Co-Occurrence-Framework namens CBLLC nutzt, eingeführt, um mehrere Ladungen mit Artikelinformationen bei unausgeglichenen Datenereignissen vorherzusagen. Wir entwickeln einen neuen Lernmechanismus, um den Rahmen von Gebühren- und Artikelmustern bei vielen Trainingsdaten zu trainieren und seine Robustheit zu erhöhen. In CBLLC dient der Datenvorverarbeitungsprozess dazu, das Training verallgemeinert zu unterstützen und Überanpassungen zu reduzieren. Eine hervorstechende Wortanmerkung wird eingeführt, um mit wenigen Schüssen umzugehen. Mit verarbeiteten Daten wird ein besseres Klassifizierungsergebnis erzielt und die Allgemeingültigkeit des Modells verbessert. Experimentelle Ergebnisse des chinesischen KI- und Law-Challenge-Testsets zeigen die Überlegenheit unserer vorgeschlagenen Methode im Vergleich zu den modernsten Methoden. Insbesondere ein Makro-;-;-;-;https://link.springer.com/article/10.1007/s00500-020-05029-w 4344d2c0804cbd7099a9d6b8a7174ce1;de;;;7.4.;;;Konsolidierung mit Sweep Task Rehearsal: Überwindung des Stabilitäts-Plastizitäts-Problems Dieses Papier erweitert bisherige Arbeiten zur Wissenskonsolidierung und zum Stabilitäts-Plastizitätsproblem im Kontext eines lebenslangen maschinellen Lernens (LML). EIN;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-18356-5_27 1f9539802a26332ebb5766c7073989fc;de;;;7.4.;;;Vorhersage geschlossener Fragen auf Community-Frage-Antwort-Sites mithilfe von Convolutional Neural Network Die Beantwortungsseiten für Community-Fragen erhalten täglich eine große Anzahl von Fragen und Antworten. Es wurde beobachtet, dass eine Reihe von Fragen unter ihnen als;-;-;-;https://link.springer.com/article/10.1007/s00521-019-04592-0 08bb946a31e9f3482d9b26f709aff368;de;;;7.4.;;;Deep Multiple Classifier Fusion für die Verkehrsszenenerkennung Die Erkennung des Verkehrsgeschehens in Standbildern ist eine wichtige, aber schwierige Aufgabe in einem intelligenten Verkehrssystem. Die Hauptschwierigkeit besteht darin, die Bildverarbeitungsalgorithmen für verschiedene Verkehrsteilnehmer und die verschiedenen Straßenführungen zu verbessern und gleichzeitig die verschiedenen Verkehrsszenen zu unterscheiden. In diesem Beitrag versuchen wir, das Problem der Verkehrsszenenerkennung mit drei unterschiedlichen Beiträgen zu lösen. Zunächst schlagen wir eine tiefe Multi-Classifier-Fusion-Methode im Rahmen des Granular Computing vor. Insbesondere das tiefe Multi-Klassifizierer-Fusionsverfahren, das eine lokale tief gelernte Merkmalsextraktion an einem Ende beinhaltet, die mit dem anderen Ende zur Klassifizierung durch einen Multi-Klassifizierer-Fusionsansatz verbunden ist. Am Ende der lokalen, tief gelernten Merkmalsextraktion ist die Faltungsoperation zum Extrahieren von Merkmalskarten aus den lokalen Ausschnitten eines Bildes im Wesentlichen eine Form der Informationsgranulation, während die Fusion von Klassifizierern am Klassifikationsende im Wesentlichen eine Form der Organisation ist. Der zweite Beitrag ist die Erstellung eines neuen Verkehrsszenendatensatzes namens „WZ-Verkehr“. Der WZ-Verkehrsdatensatz besteht aus 6035 gekennzeichneten Bildern, die zu 20 Kategorien gehören, die sowohl von einer Bildsuchmaschine als auch von persönlichen Fotos gesammelt wurden. Drittens führen wir umfangreiche Vergleiche mit modernsten Methoden zu den WZ-Verkehrs- und FM2-Datensätzen durch. Die Versuchsergebnisse zeigen, dass unsere Methode die Erkennung von Verkehrsszenen dramatisch verbessert und potenzielle Vorteile für viele andere reale Anwendungen bietet.;-;-;-;https://link.springer.com/article/10.1007/s41066-019-00182-6 9c9535e226d62e4e263614894880091e;de;;;7.4.;;;Datenschutzerhaltendes Data Mining: Ein spieltheoretischer Ansatz Data Mining zur Wahrung der Privatsphäre war in den letzten Jahren aufgrund von Datenschutzbedenken in vielen verteilten Data Mining-Umgebungen ein aktives Forschungsgebiet. Protokolle für das datenschutzerhaltende Data Mining haben in kryptografischen Umgebungen halbehrliche, bösartige und verdeckte Gegnermodelle berücksichtigt, wobei angenommen wird, dass ein Gegner dem Protokoll folgt, willkürlich vom Protokoll abweicht oder sich irgendwo dazwischen verhält. Semi-ehrliche Modelle bieten schwache Sicherheit, die einen geringen Rechenaufwand erfordert, andererseits bieten bösartige und verdeckte Modelle starke Sicherheit, die teure Berechnungen wie homomorphe Verschlüsselungen erfordert. Die Spieltheorie erlaubt uns jedoch, Protokolle zu entwerfen, bei denen Parteien weder ehrlich noch böswillig sind, sondern als rational betrachtet werden und (nur) in ihrem eigenen Interesse handeln. In diesem Papier bauen wir ein effizientes und sicheres Set-Intersection-Protokoll im spieltheoretischen Setting mit kryptografischen Primitiven auf. Unsere Konstruktion vermeidet den Einsatz teurer Tools wie homomorpher Verschlüsselung und unbewusster Übertragung. Wir zeigen auch, dass unser Protokoll Berechnungsversionen des strengen Nash-Gleichgewichts und der Stabilität in Bezug auf Zittern erfüllt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22348-8_15 b1e42dbdb3e7e28674984f7605f49e37;de;;;7.4.;;;Bestimmung von Fehlergrenzen für spektralfilterbasierte Rekonstruktionsverfahren beim Datenschutz wahrend Data Mining Die additive Randomisierung ist ein Hauptinstrument zum Verbergen sensibler privater Informationen. Frühere Arbeiten haben empirisch gezeigt, dass einzelne Datenwerte unter Verwendung von Spektralfiltertechniken näherungsweise aus den gestörten Werten rekonstruiert werden können. Dies stellt eine ernsthafte Gefahr von Datenschutzverletzungen dar. In diesem Papier führen wir eine theoretische Studie durch, wie sich der Rekonstruktionsfehler für verschiedene Arten von additivem Rauschen ändert. Insbesondere leiten wir zunächst eine obere Schranke für den Rekonstruktionsfehler unter Verwendung der Matrixstörungstheorie ab. Angreifer, die Spektralfiltertechniken verwenden, um die wahren Datenwerte zu schätzen, können diese Grenze nutzen, um zu bestimmen, wie nahe ihre Schätzungen an den Originaldaten liegen. Wir leiten dann eine untere Grenze für den Rekonstruktionsfehler ab, die Datenbesitzern bei der Entscheidung helfen kann, wie viel Rauschen hinzugefügt werden sollte, um einen bestimmten Schwellenwert der tolerierten Datenschutzverletzung zu erfüllen.;-;-;-;https://link.springer.com/article/10.1007/s10115-008-0123-9 9c4d256c939065c6aaeb8950fafef69d;de;;;7.4.;;;Eine tiefe Sequenz-zu-Sequenz-Methode zur Vorhersage der Landegeschwindigkeit von Flugzeugen basierend auf QAR-Daten Das Überlaufen der Start- und Landebahn ist einer der typischsten Zwischenfälle bei der Landung, die von Fluggesellschaften in der Luftfahrtindustrie sehr beunruhigt sind. Frühere Studien haben gezeigt, dass eine hohe Landegeschwindigkeit in engem Zusammenhang mit dem Überlaufrisiko der Landebahn steht. Daher hat die Untersuchung der Landegeschwindigkeitsprognose auf der Grundlage von Flugdaten in den letzten Jahren die Aufmerksamkeit vieler Wissenschaftler auf sich gezogen. Bestehende Methoden basieren jedoch hauptsächlich auf traditionellen Machine-Learning-Modellen und handgefertigten Features, die nicht nur stark auf dem Priori-Wissen der Flugexperten beruhen, sondern auch eine unbefriedigende Vorhersagegenauigkeit bieten. Um dieses Problem zu lösen, schlagen wir in diesem Artikel ein innovatives Deep-Encoder-Decoder-Modell für die Vorhersage der Landegeschwindigkeit von Flugzeugen basierend auf Quick Access Recorder (QAR)-Daten vor. Konkret verarbeiten wir zunächst den QAR-Datensatz durch eine Datenbereinigung, Lagrange-Interpolation und Normalisierung. Zweitens verwenden wir basierend auf dem vorverarbeiteten QAR-Datensatz Gradienten-Boosting-Entscheidungsbäume, um Merkmale auszuwählen, die am engsten mit der Landegeschwindigkeit zusammenhängen. Schließlich verwenden wir die LSTM-Encoder-Decoder-Architektur, bei der der Encoder das Muster erfasst, das den vergangenen Sequenzen zugrunde liegt, während der Decoder Vorhersagen für die zukünftigen Geschwindigkeitssequenzen erzeugt. Wir evaluieren unsere Methode an einem Datensatz von 44.176 A321-Flugproben. Die experimentellen Ergebnisse zeigen, dass die Vorhersagegenauigkeit des vorgeschlagenen Verfahrens deutlich höher ist als bei herkömmlichen Verfahren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-62008-0_36 ef7ebb769b732f6f33dc2aa6752b8210;de;;;7.4.;;;epsilon-Support-Vektor- und Data-Mining-Probleme im großen Maßstab Data Mining und Knowledge Discovery hat in den letzten fünfzehn Jahren große Fortschritte gemacht. Als eine der Hauptaufgaben des Data Mining hat die Klassifizierung breite geschäftliche und wissenschaftliche Anwendungen. Unter einer Vielzahl von vorgeschlagenen Methoden haben sich mathematische programmierungsbasierte Ansätze in Bezug auf Klassifikationsgenauigkeit, Robustheit und Effizienz als hervorragend erwiesen. Es gibt jedoch einige schwierige Probleme. Zwei dieser Fragen sind von besonderem Interesse dieser Forschung. Das erste Problem besteht darin, dass es aufgrund der Rechenkomplexität schwierig ist, eine optimale Lösung für große Datensätze in mathematischen Programmierproblemen zu finden. Das zweite Problem ist, dass viele mathematische Programmierprobleme spezielle Codes oder Programme wie CPLEX oder LINGO erfordern. Ziel dieser Studie ist es, Lösungen für diese beiden Probleme vorzuschlagen. Dieses Papier schlug ein mathematisches Programmiermodell vor und wendete es auf Klassifikationsprobleme an, um zwei Aspekte des Data-Mining-Algorithmus anzugehen: Geschwindigkeit und Skalierbarkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72588-6_139 ae9c48978ec703714b1b4d3668184c82;de;;;7.4.;;;Erweiterung einiger Konzepte von CBR – Grundlagen von Fallrückgewinnungsnetzen Auf der Grundlage gut verstandener verwandter Gebiete entwickeln sich neue Forschungsfelder. Es ist wie beim fallbasierten Denken: Alte Erfahrungen werden für neue Probleme wiederverwendet. Das hat den Vorteil solider Ausgangspunkte, aber den Nachteil, an alten Ideen festzuhalten. Einige der übernommenen Ideen müssen im Laufe der Zeit durch neue ersetzt werden (denken Sie an die Entwicklung moderner Autos, die mit einer motorbetriebenen Postkutsche beginnt).;-;-;-;https://link.springer.com/chapter/10.1007/3-540-69351-3_2 34c507bf3416147c79bfa56f607cf1ab;de;;;7.4.;;;Auf dem Weg zu Open Domain Chatbots – Eine GRU-Architektur für datengesteuerte Gespräche Das Verständnis von Textinhalten, wie Themen- und Absichtserkennung, ist ein wichtiger Bestandteil von Chatbots, damit der Chatbot relevante Antworten geben kann. Obwohl in mehreren engen Domänen erfolgreich, macht die potenzielle Vielfalt von Inhalten in breiteren und offeneren Domänen traditionelle Mustererkennungstechniken ungenau. In diesem Beitrag schlagen wir eine neuartige Deep-Learning-Architektur zur Inhaltserkennung vor, die aus mehreren Ebenen von Gated Recurrent Units (GRUs) besteht. Die Architektur wurde entwickelt, um komplexe Satzstrukturen auf mehreren Abstraktionsebenen zu erfassen und die Inhaltserkennung für sehr weite Domänen durch eine verteilte skalierbare Darstellung von Inhalten zu suchen. Zur Bewertung unserer Architektur haben wir 10 Jahre Fragen und Antworten eines Jugendinformationsdienstes zusammengestellt,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-77547-0_16 78f045bfe1a1ab6d0ebbd8d9bae3bb30;de;;;7.4.;;;Cloud-Modell – Ein bidirektionales Kognitionsmodell zwischen Konzepterweiterung und Intension Das Ausdrücken und Verarbeiten unsicherer Konzepte ist ein grundlegendes Problem der Künstlichen Intelligenz. Zur Lösung dieses Problems wurden mehrere theoretische Modelle vorgeschlagen, wie z. B. Wahrscheinlichkeitstheorie, Fuzzy Sets, Rough Sets, Cloud Model, et al. Leider arbeitet der Mensch mit unsicheren Konzepten, die auf Wörtern basieren (Konzeptintension), während der Computer auf Stichproben basiert (Konzepterweiterung). In den letzten Jahren wurden viele Data-Mining- und Machine-Learning-Methoden entwickelt, um Wissen aus Datensätzen zu extrahieren. Bei diesen Methoden handelt es sich um unidirektionale Cognitive Computing-Modelle von der Extension bis zur Intension. In diesem Beitrag wird ein bidirektionales kognitives Computing-Modell, das Cloud-Modell, vorgestellt. Im Cloud-Modell sind Forward-Cloud-Generator und Rückwärts-Cloud-Generator für die bidirektionalen Transformationen zwischen Intension und Erweiterung des Konzepts ausgelegt. Einige Experimentergebnisse werden diskutiert, um die Gültigkeit und Effizienz des Cloud-Modells für bidirektionales kognitives Computing zu zeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35326-0_39 d8ccb7113c35931658281aaba4014dfc;de;;;7.4.;;;WISSENSENTDECKUNG AUS RECHTLICHEN DATENBANKEN – NUTZUNG VON NEURALEN NETZWERKEN UND DATA-MINING ZUM AUFBAU VON SYSTEMEN ZUR UNTERSTÜTZUNG RECHTLICHER ENTSCHEIDUNGEN Daten werden heute in einer Vielzahl von kommerziellen und wissenschaftlichen Bereichen in solchen Mengen gesammelt, dass das Problem der Automatisierung der Gewinnung sinnvollen Wissens aus Daten drängend geworden ist. Beispielsweise wurden Datensätze aus astronomischen Beobachtungen einst manuell von Experten auf der Suche nach Anomalien oder interessanten Mustern gescannt. Als Fayyad;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-4146-2_4 a6cba8458f2d07076a0aed855d830801;de;;;7.4.;;;Künstliche Intelligenz in der öffentlichen Verwaltung Die stetige Zunahme der technischen Möglichkeiten macht die Automatisierung von Prozessen für die öffentliche Verwaltung immer attraktiver. Durch die Fortschritte in der Künstlichen Intelligenz lassen sich heute Prozesse automatisieren, die noch vor wenigen Jahren von Menschen ausgeführt werden mussten. Doch nicht alle administrativen Prozesse lassen sich technisch automatisieren. Entscheider müssen aus der Vielzahl von mehreren Tausend Verwaltungsverfahren diejenigen Prozesse auswählen, die für eine Teil- oder Vollautomatisierung geeignet sind. Dieses Papier versucht, einen möglichen Rahmen zur Bewertung von Möglichkeiten zur Automatisierung durch die Zerlegung von Verwaltungsverfahren zu präsentieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-27325-5_19 f1fecab020430b0209e0a721379816c8;de;;;7.4.;;;Vorhersage der Softwarequalität mithilfe einer Anwendung für maschinelles Lernen Machine Learning ist eine der Anwendungen von KI, die die Analyse riesiger Datenmengen ermöglicht. Es liefert zwar in der Regel schnellere und genauere Ergebnisse, um gewinnbringende Chancen oder gefährliche Risiken zu erkennen, kann aber auch zusätzlichen Zeit- und Ressourcenaufwand erfordern, um es entsprechend zu schulen. In diesem Beitrag wird der Überblick über die Anwendung des maschinellen Lernens in der Entwicklung von Softwarequalität präsentiert. Die Entwicklung der Softwarequalität wird in realen Szenarien wichtiger, aber dafür wird viel Arbeit von verschiedenen Autoren geleistet. In diesem diskutieren wir verschiedene Techniken des maschinellen Lernens wie Bayesian Classifier, Neural Network, Decision Tree und Genetic Algorithm usw.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9690-9_32 b34e1b750e7f1deae63b26d93c181ea9;de;;;7.4.;;;Grobe Partikelschwarmoptimierung und ihre Anwendungen im Data Mining Dieses Papier schlägt einen neuartigen Partikelschwarm-Optimierungsalgorithmus vor, den groben Partikelschwarm-Optimierungsalgorithmus (RPSOA), der auf dem Konzept von groben Mustern basiert, die grobe Werte verwenden, die mit oberen und unteren Intervallen definiert sind, die einen Bereich oder eine Reihe von Werten darstellen. In diesem Papier wurden verschiedene Operatoren und Bewertungsmaßnahmen, die in RPSOA verwendet werden können, beschrieben und in Data-Mining-Anwendungen effizient eingesetzt, insbesondere beim automatischen Mining von numerischen Assoziationsregeln, was ein schwieriges Problem ist.;-;-;-;https://link.springer.com/article/10.1007/s00500-008-0284-1 4fb1d6d4f14a55426286cc62d866ef6a;de;;;7.4.;;;Data Mining von virtuellen Campus-Daten Wie an anderer Stelle in diesem Buch erwähnt, bietet E-Learning „einen neuen Kontext für die Bildung, in dem große Mengen an Informationen, die das Kontinuum der Lehr-Lern-Interaktionen beschreiben, endlos generiert und allgegenwärtig verfügbar sind“. Aber Rohinformationen allein können keinem E-Learning-Akteur helfen. Der Einsatz von Data-Mining-Methoden zur Extraktion von Wissen aus diesen Informationen kann daher ein angemessener Ansatz sein, um das erlangte Wissen zu nutzen, um das Bildungsangebot an die Bedürfnisse und Anforderungen der Schüler anzupassen. Dieses Kapitel bietet eine Fallstudie, in der mehrere fortgeschrittene Data-Mining-Techniken verwendet werden, um verschiedene Arten von Wissen aus virtuellen Campusdaten über das Systemnutzungsverhalten der Studenten zu extrahieren. Die vielfältige Palette von Data Mining-Problemen, die hier behandelt werden, umfasst Datenclustering und -visualisierung, Ausreißererkennung, Klassifizierung, Merkmalsauswahl und Regelextraktion. Sie betreffen verschiedene E-Learning-Probleme, wie die Charakterisierung von atypischem Schülerverhalten und die Vorhersage von Schülerleistungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71974-8_9 d124917ca203d614e1b21c7eddb3669f;de;;;7.4.;;;Über die Hermite Series-basierten Generalized Regression Neural Networks für Stream Data Mining In der Arbeit entwickeln wir den mathematisch begründeten Stream-Data-Mining-Algorithmus zur Lösung von Regressionsproblemen. Der Algorithmus basiert auf den Hermite-Entwicklungen von driftenden Regressionsfunktionen. Die globale Konvergenz, in der;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36718-3_37 6e88f04aedfe8aeeef26132950eea9ac;de;;;7.4.;;;Design und Implementierung eines Flight Data Mining Systems In diesem Kapitel wird ein flugdatenbasiertes Prototypsystem des Data Mining entworfen und vorgeschlagen, das ein Beispiel für die praktische Anwendung der Forschungsergebnisse der vorliegenden Studie in diesem Buch darstellt. Das Prototypsystem nutzt die aktuellen Flugdatenverarbeitungssysteme und deren technische Anwendungen, indem es anwendbare Data-Mining-Systeme, beispielsweise DBMiner, effektiv nutzt. Es ist in der Lage, Datenabfragen und Statistiken durchzuführen sowie Muster von Zeitreihen „herauszusuchen“. Auszulesende Datenmuster umfassen solche von Betriebsbedingungen von Flugzeugteilen und -einheiten und Flugzeugmanövern. Neben der Fähigkeit zur Zustandsüberwachung und -vorhersage funktioniert es insbesondere sehr gut in der Motorzustands- und Trendvorhersage und verspricht daher ein breites Anwendungsspektrum.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-53430-4_6 eed8e4fb0be89541ae255fdfb15f5ac1;de;;;7.4.;;;Die GUHA-Methode und Grundlagen des (relationalen) Data Mining Die GUHA-Methode der automatischen Hypothesengenerierung und die ihr zugrunde liegende logische und statistische Theorie wird untersucht. Verbindungen zur Theorie der Informationsbeziehungen und zum relationalen Data Mining werden diskutiert. Logische Grundlagen stellen einen originellen Ansatz zur endlichen Modelltheorie mit verallgemeinerten Quantoren dar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24615-2_2 ae65baba3229be06b15f3de5f5221619;de;;;7.4.;;;Forschung zum Data-Mining-Algorithmus für die regionale Photovoltaik-Erzeugung Herkömmliche Data-Mining-Algorithmen haben Probleme wie schlechte Anwendbarkeit, hohe Falsch-Positiv-Rate oder hohe Falsch-Positiv-Rate, was zu geringer Sicherheit und Stabilität des Stromversorgungssystems führt. Aus diesem Grund wird der Data-Mining-Algorithmus der regionalen Photovoltaik-Stromerzeugung untersucht. Die Klassifizierung von Datenquellen erleichtert Korrelationsberechnungen, und Matrixbeziehungen werden verwendet, um Datenassoziationen zu berechnen. Kombiniert mit der Datenrelevanz werden die Assoziationsregeln ausgegeben, und die Ausgabeergebnisse erben die Clustering-Verarbeitung und Zeitreihenverteilung der impliziten Daten, wodurch die Extraktion versteckter Daten realisiert und das Data Mining der regionalen Photovoltaik-Stromerzeugung abgeschlossen wird. Die experimentellen Ergebnisse zeigen, dass der Data-Mining-Algorithmus der regionalen PV-Stromerzeugung eine hohe Stabilität aufweist und das Systemsicherheitsproblem effektiv lösen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36402-1_46 647eb37ff16fbe6dca26d94a5c4ac3c5;de;;;7.4.;;;Data-Mining-Ansatz zur Klassifizierung von archäologischen Luftbildern Die Luftbildarchäologie spielt eine wichtige Rolle bei der Auffindung und Dokumentation archäologischer Stätten, die vom Boden aus oft nicht ohne weiteres einsehbar sind. Es ist eine schnelle Möglichkeit, große Bereiche zu vermessen, erfordert jedoch viel fehleranfällige menschliche Arbeit, um sie anschließend zu analysieren. In diesem Papier verwenden wir einige der leistungsfähigsten Bildverarbeitungs- und Data-Mining-Methoden, um ein System zu entwickeln, das eine genaue automatisierte Klassifizierung solcher Luftbilder ermöglicht. Das System besteht aus Phasen der Bildindizierung, der groben Bildsegmentierung, der Merkmalsextraktion, der Merkmalgruppierung und der Erstellung des Klassifikators. Wir präsentieren die Ergebnisse von Experimenten, die an einem realen Set von archäologischen und nicht-archäologischen Luftbildern durchgeführt wurden, und schließen mit Perspektiven für zukünftige Arbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-33521-8_52 0c253a3b2af8dcb45d97e72256b99f9d;de;;;7.4.;;;Die Rolle von Data Mining im Wasserressourcenmanagement Der Umgang mit Wasserressourcen in der Vergangenheit war ein Anliegen von Managern und Entscheidungsträgern in verschiedenen Gesellschaften. Mit der Entwicklung verschiedener Sektoren der Industrie und Landwirtschaft und der wachsenden Bevölkerung, die den Bedarf an Wasserressourcen erhöht hat, wurde die traditionelle Bewirtschaftung von Wasserressourcen in Frage gestellt. Manager und Entscheidungsträger in diesem Sektor sehen sich mit einer großen Datenmenge mit unterschiedlichsten Merkmalen und komplexen Zusammenhängen konfrontiert, deren Analyse und Verwaltung in einigen Becken durch traditionelle Analysen schwierig ist. Data Mining ist eine leistungsstarke Technologie für die Verwaltung und Organisation von umfangreichen Informationen. In diesem Kapitel werden verschiedene Data-Mining-Methoden und ihre verwandten Begriffe und Konzepte vorgestellt und die Bedeutung und Notwendigkeit des Einsatzes von Data-Mining-Methoden in Wasserressourcen, ihre Anwendung bei der Vorhersage von Wasserqualitätsparametern und der Vorhersage des Oberflächenabflusses in der Hydrologie beschrieben dieses Problem besser verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4295-8_4 bd1da5b4d059b89e5f68fc0c800757ae;de;;;7.4.;;;GNSS-Spoofing-Jamming-Erkennung basierend auf maschinellem Lernen Während eine große Anzahl von Anwendungen und Diensten auf dem Global Navigation Satellite System (GNSS) basiert, muss GNSS mit Jamming umgehen, und wie man Spoofing-Jamming-Erkennung durchführt, ist der Schlüssel zum Erreichen einer hohen Genauigkeitsleistung. In diesem Whitepaper wenden wir maschinelle Lernansätze zur Erkennung von GNSS-Spoofing-Störungen an. Insbesondere untersuchen wir zunächst das Schema, indem wir das klassische isometrische Mapping (ISOMAP) und den Laplace-Eigen-Mapping-Algorithmus (LE) verwenden, um den intrinsischen Merkmalsvektor zur Klassifizierungserkennung aus den ursprünglichen hochdimensionalen Daten zu extrahieren. Als nächstes vergleichen wir dieses Schema mit zwei weiteren Merkmalsvektorextraktionsalgorithmen, die aus der Hauptkomponentenanalyse (PCA), der Wavelet-Transformation und der Singulärwertzerlegung (WT-SVD) entwickelt wurden. Schließlich betrachten wir die Erkennungsraten der vier Algorithmen basierend auf dem Klassifikator der Support Vector Machine (SVM) und die Wirksamkeit und Robustheit unseres Schemas werden durch Simulationen verifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7521-6_27 393e7ed130839345600b1a2657b2afa9;de;;;7.4.;;;Fähigkeitsstudie des Näherungsmaßes für den Big-Data-Mining-Kontext bei Clustering Das Näherungsmaß wird für Data Mining wie Klassifizierung, Clusterkonstruktion, Regression, statistische Analyse, Analyse und Validierung der Minenergebnisse usw. verwendet. Aufgrund der Clusterbildung basiert das Proximity-Maß auf Clusterkonstruktion und Clustervalidierung. Heutzutage verändert das Wachstum der Digital- und Kommunikationstechnologie die Natur von traditionellen Daten zu Big Data. Wenn jede herkömmliche Taxonomie für Big Data Mining verwendet wird, leidet sie aufgrund der Big-Data-Dimensionen unter verschiedenen Herausforderungen. Die Näherungsmessung ist eine der Herausforderungen des Clusterings unter Big-Data-Kriterien wie Volumen, Vielfalt und Geschwindigkeit. Aus theoretischer, praktischer und bisheriger Forschungsperspektive werden in diesem Beitrag verschiedene Näherungsmaße nach Minkowski untersucht,;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5077-5_1 5c5f44f1da08e3c8cf61e0605f947e2d;de;;;7.4.;;;Maschinelles Lernen für die intelligente Dokumentenverarbeitung: Das WISDOM-System WISDOM ist ein intelligentes Dokumentenverarbeitungssystem, das gedruckte Informationen in eine symbolische Darstellung umwandelt. Sein Unterscheidungsmerkmal ist die Verwendung einer Regelbasis, die automatisch aus einem Satz von Trainingsdokumenten mit zwei induktiven Lerntechniken aufgebaut wird: Entscheidungsbaumlernen für die Blockklassifizierung und Regelinduktion erster Ordnung für die Dokumentenklassifizierung und das Verständnis. In dem Beitrag werden Fortschritte gegenüber früheren Studien zu diesem Anwendungsbereich dargestellt und eine vollständige Reihe experimenteller Ergebnisse berichtet.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0095095 b64ed28b39f70af67138b1984333313e;de;;;7.4.;;;Die Vorhersage des Grundwasserspiegels des Grundwasserleiters basierend auf einem räumlichen Clustering-Ansatz mit maschinellem Lernen Die Bewirtschaftung der Wasserressourcen erfordert ein angemessenes Verständnis des Zustands des verfügbaren und nutzbaren Wassers. Eines der nützlichen Managementinstrumente ist der Einsatz von Simulationsmodellen, die trotz der komplexen Probleme im Grundwasserbereich hocheffizient sind. In der vorliegenden Studie wurden drei datenbasierte Modelle, nämlich die Gruppenmethode des Datenhandlings (GMDH), das Bayessche Netz (BN) und das künstliche neuronale Netz (ANN), untersucht, um die Grundwasserstände zu simulieren und den quantitativen Zustand von Grundwasserleiter. Im Birjand-Aquifer wurden fünf Beobachtungsbrunnen mithilfe von räumlichen Clustern ausgewählt, um den Aquifer zu analysieren und zu bewerten. Um die effektiven Variablen bei der Vorhersage des Grundwasserspiegels zu bestimmen, wurden 10 Szenarien entwickelt, indem mehrere Variablen kombiniert wurden, einschließlich des Grundwasserspiegels im Vormonat, Aquifernutzung, Oberflächenneubildung, Niederschlag, Temperatur und Verdunstung. Die Ergebnisse zeigten, dass das GMDH-Modell mit drei Eingangsvariablen, d. h. Grundwasserstand im Vormonat, Aquifernutzung und Niederschlag, die höchste Vorhersageleistung aufwies, RMSE, NASH, MAPE und;-;-;-;https://link.springer.com/article/10.1007/s10661-021-08961-y 020afbaca10438cb7d34be3f78552891;de;;;7.4.;;;Analyse verschiedener beaufsichtigter Techniken zur Anerkennung benannter Entitäten Die enorme Zunahme der im Internet verfügbaren Informationen stellt eine große Herausforderung für die Aufgaben der Informationsextraktion dar. Die Erkennung benannter Entitäten ist eine solche Informationsextraktionsaufgabe, die daran arbeitet, das Vorhandensein von Entitäten zu lokalisieren, die zu einigen vordefinierten Kategorien gehören. Es ist ein wichtiges Vorverarbeitungswerkzeug, das bei verschiedenen Anwendungen der natürlichen Sprachverarbeitung wie der automatischen Textzusammenfassung, der maschinellen Übersetzung usw. hilft. In diesem Artikel analysieren wir die Leistung verschiedener überwachter maschineller Lernalgorithmen, die für die Aufgabe zur Erkennung benannter Entitäten verwendet werden. Dazu verwenden wir fünf verschiedene Lernalgorithmen, nämlich Conditional Random Field (CRF), Naive Bayes (NB), Support Vector Machine (SVM), Decision Tree (DT) und Multilayer Perceptron (MLP), um verschiedene Modelle, die auf mehreren Kombinationen verschiedener Merkmale basieren, die unabhängig von domänenspezifischen Kenntnissen sind. Diese Algorithmen werden hauptsächlich für die Sprache Hindi evaluiert. Die Auswertung experimenteller Ergebnisse zeigt, dass der auf dem Multilayer Perceptron basierende neuronale Netzwerkansatz besser abschneidet als andere überwachte Lernmethoden, die bei dieser Aufgabe verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0108-1_18 17e0ba88ce0d85fa4bd0c5da917997e4;de;;;7.4.;;;Klassifizierung von Proteinmodifikationsstellen mit maschinellem Lernen Die Lysinmalonylierung ist eine neu entdeckte Art der posttranslationalen Proteinmodifikation, die bei vielen biologischen Aktivitäten eine wesentliche Rolle spielt. Eine gute Kenntnis der Malonylierungsstellen kann als Orientierungshilfe bei der Lösung einer Vielzahl biologischer Probleme dienen, wie z. B. bei der Diagnose von Krankheiten und der Entdeckung von Arzneimitteln. Es gab bereits mehrere experimentelle Ansätze zur Identifizierung von Modifikationsstellen, die jedoch relativ teuer sind. In dieser Arbeit schlagen wir drei neuartige Modelle des maschinellen Lernens vor und verwenden mehrere effektive Methoden zur Merkmalsbeschreibung. Das Modell wird basierend auf der Kreuzvalidierungsmethode namens Split to Equal Validation (SEV) trainiert. Die Experimente zeigen, dass unser Modell die anderen deutlich übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-60802-6_38 419e177ab0b4ac061ca80ac2526668e1;de;;;7.4.;;;Erweitertes maschinelles Lernen zur Leukämie-Erkennung basierend auf der Segmentierung der weißen Blutkörperchen Krebs ist derzeit ein weltweites Problem. Es wird aus Blutzellen hergestellt. Tatsächlich wird die Krankheit durch eine Veränderung der WBC-Zellen verbreitet, die zu einem unbestimmten Wachstum der Anzahl abnormaler Zellen führen kann. Diese unreifen Zellen beginnen, die Funktion normaler Zellen zu stören. Die Verarbeitung medizinischer Blutbilder in ML folgt einem schrittweisen Verfahren von der Vorverarbeitung der Blutkomponenten bis hin zur Subtypklassifizierung. Die Unterscheidung von Blutbestandteilen, die Identifizierung von WBC-Zellen, die Rauschunterdrückung und die Zellzählung werden durch die Wahl der Methodik für die Segmentierung durchgeführt. Seine genaue Implementierung ist aufgrund der unterschiedlichen Parameter (Größe, Exzentrizität, Hauptbogen, Nebenbogen und Parameter) der verschiedenen WBC-Typen schwierig. Normalerweise erfolgt die Segmentierung durch Extraktion des Kerns der Leukozyten. Unsere Forschung ist die erste, die einige neue Probleme im Zusammenhang mit den ML-Methoden gefunden hat, die Zellzytoplasma mit andere Blutbestandteile (RBC, Thrombozyten und Hintergrund) während des Kernextraktionsprozesses der WBC-Zelle. Parallel dazu haben wir Ursachen für die genannten Probleme gefunden, um eine generische Methodik vorzuschlagen, die belastbare Ergebnisse liefert. Experimentelle Ergebnisse haben gezeigt, dass Methoden zur Extraktion des Kerns der WBC-Zelle nur mit einer bestimmten Art von Blutbildern funktionieren. Wenn wir versuchen, die Methodik für verschiedene Arten von Blutzellbildern zu verallgemeinern, bekommen wir die oben genannten Probleme. Die Ergebnisse wurden durch die in MATLAB durchgeführten Experimente berechnet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9671-1_17 87c04bf5c2acfc565afb09cc8a2c3b5d;de;;;7.4.;;;Künstliche Intelligenz und Virtual Reality-basierte Kansei, Emotional und Cognitive Science and Engineering In der modernen japanischen Gesellschaft ist das Management einer überalterten Gesellschaft eine dringende Aufgabe, und es werden hohe Anforderungen an Sicherheit und Komfort gestellt. Daher ist die Aufklärung des menschlichen Erkennens, Urteilens und Verhaltens wichtig. Dieses Papier stellt einen neuen Trend von Ansätzen vor, einschließlich des Engineering-Ansatzes für Kansei und Kognition. Verschiedene Technologien wie die nicht-invasive Messung der Information lebender Körper, künstliche Intelligenz, Internet der Dinge, virtuelle Realität und Mensch-Maschine-Schnittstelle wurden integriert, und die neue Kansei, emotionale und kognitive Wissenschaft und Technik wurden zu einer Basistechnologie zur Verbesserung der Qualität von Leben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-38360-2_14 fd7519a273d8328c58f617b541319cbe;de;;;7.4.;;;Deep Feature Learning zur Erkennung von Coversongs Die Identifizierung eines Coversongs, der eine alternative Version eines zuvor aufgenommenen Songs ist, für den Musikabruf hat zunehmende Aufmerksamkeit erfahren. Verfahren zum Identifizieren eines Cover-Songs beinhalten typischerweise das Vergleichen der Ähnlichkeit der Chroma-Merkmale zwischen einem Abfrage-Song und einem anderen Song im Datensatz. Für paarweise Vergleiche ist jedoch viel Zeit erforderlich. In dieser Studie wurden Chroma-Merkmale gepatcht, um die Melodie zu erhalten. Eine Zwischendarstellung wurde trainiert, um die Dimension jedes Patches von Chroma-Merkmalen zu reduzieren. Das Training wurde mit einem Autoencoder durchgeführt, der üblicherweise im Deep Learning zur Dimensionsreduktion verwendet wird. Experimentelle Ergebnisse zeigten, dass die vorgeschlagene Methode im Vergleich zu herkömmlichen Ansätzen eine bessere Genauigkeit bei der Identifizierung erreichte und weniger Zeit für den Ähnlichkeitsvergleich sowohl im cover80-Datensatz als auch im Millionen-Song-Datensatz benötigte.;-;-;-;https://link.springer.com/article/10.1007/s11042-016-4107-6 ff798815fb0fc055ef2a7d43338610a8;de;;;7.4.;;;Erklärbare künstliche Intelligenz für die Sturzvorhersage Bei einer schnell alternden Bevölkerung ist es wahrscheinlich, dass ein älterer Erwachsener stürzt. Stürze können Tod, schwere Verletzungen oder Schäden, Vertrauensverlust und Verlust der Unabhängigkeit zur Folge haben. Ein Sturz kann jedem von uns passieren, jedoch können Personen über 65 als eine Gruppe von Erwachsenen eingestuft werden, die anfälliger sind und ein erhöhtes Sturzrisiko haben. Dieser Artikel konzentriert sich darauf, erklärbare Techniken der künstlichen Intelligenz in Form von Entscheidungsbäumen auf Gesundheitsdaten anzuwenden, um das Sturzrisiko bei älteren Erwachsenen vorherzusagen. Diese Entscheidungsbäume könnten möglicherweise für Fachkräfte im Gesundheits- und Sozialwesen eingeführt werden, um ihnen bei der Entscheidungsfindung zu helfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6634-9_8 633e4ab7568f1b9a202c9661ddec85fb;de;;;7.4.;;;Ein Ereignisanalysesystem NICTER und seine Analyse-Engines basierend auf Data Mining-Techniken Malware wird im gesamten Cyberspace verbreitet und führt oft zu schwerwiegenden Sicherheitsvorfällen. Um die aktuellen Trends bei Malware-Aktivitäten zu erfassen, gibt es eine Reihe von laufenden Netzwerküberwachungsprojekten, die große Datenmengen wie Netzwerkverkehr und IDS-Protokolle sammeln. Diese Daten müssen eingehend analysiert werden, da sie potenziell kritische Symptome wie den Ausbruch neuer Malware, eine heimliche Aktivität von Botnets und eine neue Art von Angriff auf unbekannte Schwachstellen usw. enthalten. Wir haben das Network Incident Analysis Center für . entwickelt Tactical Emergency Response (NICTER), die eine Vielzahl von Netzwerken in Echtzeit überwacht. Der NICTER verwendet mehrere Analyse-Engines, die Data-Mining-Techniken nutzen, um den überwachten Verkehr zu analysieren. Dieses Papier beschreibt einen kurzen Überblick über den NICTER und seine Data-Mining-basierten Analyse-Engines, wie Change Point Detector (CPD), Self-Organizing Map Analyzer (SOM-Analyzer) und Incident Forecast Engine (IF).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02490-0_71 efc68e5c9323541740a3757ad846a2e9;de;;;7.4.;;;Verbesserter Waloptimierungsalgorithmus für die Merkmalsauswahl in der arabischen Stimmungsanalyse Um Einzelpersonen oder Unternehmen zu helfen, systematische und genauere Entscheidungen zu treffen, wird die Stimmungsanalyse (SA) verwendet, um die Polarität von Bewertungen zu bewerten. In SA ist die Merkmalsauswahlphase eine wichtige Phase für Klassifikatoren für maschinelles Lernen, insbesondere wenn die im Training verwendeten Datensätze sehr groß sind. Der Whale Optimization Algorithm (WOA) ist einer der jüngsten metaheuristischen Optimierungsalgorithmen, der den Waljagdmechanismus nachahmt. WOA leidet jedoch unter dem gleichen Problem, mit dem viele andere Optimierungsalgorithmen konfrontiert sind, und neigt dazu, in lokale Optima zu fallen. Um diese Probleme zu überwinden, werden in diesem Papier zwei Verbesserungen für den WOA-Algorithmus vorgeschlagen. Die erste Verbesserung umfasst die Verwendung von Elite Opposition-Based Learning (EOBL) in der Initialisierungsphase von WOA. Die zweite Verbesserung beinhaltet die Einbeziehung evolutionärer Operatoren aus dem Differential Evolution-Algorithmus am Ende jeder WOA-Iteration, einschließlich Mutations-, Crossover- und Selektionsoperatoren. Darüber hinaus haben wir auch Information Gain (IG) als Auswahltechnik für Filtermerkmale mit WOA mit dem Klassifikator Support Vector Machine (SVM) verwendet, um den von WOA untersuchten Suchraum zu reduzieren. Um unseren vorgeschlagenen Ansatz zu überprüfen, werden vier arabische Benchmark-Datensätze für die Stimmungsanalyse verwendet, da es nur wenige Studien zur Stimmungsanalyse gibt, die für arabische Sprache im Vergleich zu Englisch durchgeführt wurden. Der vorgeschlagene Algorithmus wird mit sechs bekannten Optimierungsalgorithmen und zwei Deep-Learning-Algorithmen verglichen. Die umfangreichen Versuchsergebnisse zeigen, dass der vorgeschlagene Algorithmus alle anderen Algorithmen in Bezug auf die Klassifikationsgenauigkeit der Sentimentanalyse übertrifft, indem er die besten Lösungen findet und gleichzeitig die Anzahl der ausgewählten Merkmale minimiert.;-;-;-;https://link.springer.com/article/10.1007/s10489-018-1334-8 51828137f1e52fb0723444018d563eea;de;;;7.4.;;;Mapless Motion Planning System für ein autonomes Unterwasserfahrzeug mit Policy-Gradient-basiertem Deep Reinforcement Learning Diese Forschung befasst sich mit dem Problem der Bewegungsplanung, auf das unterbetätigte autonome Unterwasserfahrzeuge (AUVs) in einer kartenlosen Umgebung stoßen. Es wird ein Bewegungsplanungssystem vorgeschlagen, das auf Deep Reinforcement Learning basiert. Dieses System, das die Police direkt optimiert, ist ein End-to-End-Bewegungsplanungssystem. Es verwendet Sensorinformationen als Eingabe und kontinuierliche Stoßkraft und Giermoment als Ausgabe. Er kann mehrere Zielpunkte hintereinander erreichen und gleichzeitig Hindernissen ausweichen. Darüber hinaus schlägt diese Studie eine Belohnungscurriculum-Trainingsmethode vor, um das Problem zu lösen, bei dem die Anzahl der für die zufällige Exploration erforderlichen Stichproben exponentiell mit der Anzahl der Schritte steigt, die zum Erhalten einer Belohnung erforderlich sind. Gleichzeitig können die negativen Auswirkungen von Zwischenprämien vermieden werden. Das vorgeschlagene System zeigt eine gute Planungsfähigkeit für eine kartenlose Umgebung und eine ausgezeichnete Fähigkeit, in andere unbekannte Umgebungen zu migrieren. Das System ist auch gegen Stromstörungen beständig. Die Simulationsergebnisse zeigen, dass das vorgeschlagene kartenlose Bewegungsplanungssystem ein unterbetätigtes AUV bei der Navigation zu seinen gewünschten Zielen führen kann, ohne mit Hindernissen zu kollidieren.;-;-;-;https://link.springer.com/article/10.1007/s10846-019-01004-2 3612257461a510c3bc7a402a7f616c60;de;;;7.4.;;;Maschinelles Lernen trifft auf Datenbanken Maschinelles Lernen ist aufgrund mehrerer Erfolgsgeschichten bei datengesteuerten Anwendungen sehr beliebt geworden. Prominente Beispiele sind Objekterkennung in Bildern, Spracherkennung und Textübersetzung. Laut Gartners Hype Cycle for Emerging Technologies 2016 befindet sich das Machine Learning derzeit auf dem Höhepunkt überhöhter Erwartungen, wobei mehrere andere Anwendungsdomänen versuchen, den Einsatz der Machine Learning-Technologie auszunutzen. Da datengesteuerte Anwendungen auch ein grundlegender Eckpfeiler der Datenbank-Community sind, ist es naheliegend, sich zu fragen, wie diese Felder zueinander in Beziehung stehen. In diesem Artikel geben wir daher eine kurze Einführung in das Gebiet des maschinellen Lernens, diskutieren dessen Zusammenspiel mit anderen Bereichen wie Data Mining und Datenbanken und geben einen Überblick über aktuelle Datenmanagementsysteme, die Funktionen des maschinellen Lernens integrieren.;-;-;-;https://link.springer.com/article/10.1007/s13222-017-0247-8 cfeaae58b667b8bc1b58f16f63bd6fbc;de;;;7.4.;;;Vorhersage der Popularität in sozialen Medien geplanter Ereignisse mithilfe von Deep Learning Die frühzeitige Vorhersage der Popularität ist entscheidend für die Empfehlung geplanter Veranstaltungen wie Konzerte, Konferenzen, Sportveranstaltungen, darstellende Künste usw;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72240-1_31 7e7488cc48491971a69dd24bb2b4d71a;de;;;7.4.;;;Überwachungsdatenanalyse In der Überwachung bezieht sich Objektanalyse auf die Behandlung eines Objekts als Ganzes, während Objektanalyse bedeutet, jedes Objekt in mehrere Teile zu zerlegen und die Komponenten unter verschiedenen Aspekten zu analysieren. In diesem Kapitel besprechen wir hauptsächlich diese berechenbaren Merkmale eines visuellen Objekts und wie man sie für die visuelle Objektanalyse verwendet, die Objektsegmentierung, Erkennung und Erkennung, Klassifizierung, Verfolgung umfasst (Murray und Basu, IEEE Trans Pattern Anal Mach Intell 16(5) : 449–459, 1994), Annotation, Labeling and Ontology , Search or Retrieval usw. (Bimbo, Visual information retrieval. Morgan Kaufmann Publishers, San Francisco, 1999, Hampapur et al., IEEE Signal Process 22(2):38 –51, 2005). Wir werden in diesem Kapitel auch die Deep-Learning-basierte visuelle Objektanalyse vorstellen (LeCun und Bengio, Convolutional networks for images, Speech, and time series. In: Arbib MA (ed) The handbook of Brain Theory and neuronal networks. MIT Press, Cambridge /London, 1995, LeCun et al., Nature 521: 436–444, 2015, Goodfellow et al., Deep Learning, MIT Press, Boston, 2016).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-60228-8_4 cb5129ebe235f6c2b6d99912f2d003d3;de;;;7.4.;;;Anwendung intelligentes Such- und Empfehlungssystem basierend auf Spracherkennungstechnologie Mit dem Fortschritt von Wissenschaft und Technologie ist künstliche Intelligenz als das neue Werkzeug tief in unser Leben eingedrungen. Der Einsatz moderner intelligenter Geräte wird immer umfangreicher und auch untrennbar mit unserem Leben verbunden. Das durch ein Smartphone repräsentierte mobile intelligente Endgerät ist ein leistungsstarkes intelligentes Rechen- und Netzwerkgerät, das mehr Wahrnehmungs- und Interaktionsfähigkeiten hat. Aufgrund des Aufkommens einer großen Anzahl von Anwendungssoftware ist es nicht einfach, die App zu finden und zu bekommen, die Sie wirklich brauchen. Daher verwendet dieses Papier Spracherkennungstechnologie, um ein intelligentes Such- und Empfehlungssystem für Apps zu erstellen. Wir haben das System aus den Ebenen der Sprachinformationsextraktion, -analyse und endgültigen Empfehlung entwickelt. Experimentelle Ergebnisse zeigen, dass die vorgeschlagene Methode effizienter und intelligenter ist.;-;-;-;https://link.springer.com/article/10.1007/s10772-020-09703-0 683edb43d9fde0dd177295fa5cad44da;de;;;7.4.;;;Eine Einführung in die Schwarmintelligenz für Probleme mit mehreren Zielen Dieses Kapitel befasst sich mit den Grundlagen der Schwarmintelligenz, wobei der Schwerpunkt hauptsächlich auf der Partikelschwarmoptimierung und der Optimierung von Ameisenkolonien zur Lösung von Mehrzielproblemen beim Data Mining und Wissensentdeckung in Datenbanken liegt. Neben einem allgemeinen Überblick über das Gebiet identifizieren wir einige der mehreren Kriterien, die in verschiedenen Schritten der Wissensentdeckung und des Data Mining eng/los miteinander verbunden sind, um die Aufmerksamkeit der Forscher in naher Zukunft darauf zu lenken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03625-5_1 738f59ff9f7defd00e001c9e6cfb4910;de;;;7.4.;;;Deep Reinforcement Learning Techniques in diversified domains: Eine Umfrage Es gab enorme Verbesserungen bei den Techniken des Deep Learning und des Reinforcement Learning. Die vollständige Automatisierung von Lernen und Intelligenz bleibt eine Herausforderung. Die Verschmelzung von Reinforcement Learning und Deep Learning hat im letzten Jahrzehnt zu Durchbrüchen in Spielen und Robotik geführt. Deep Reinforcement Learning (DRL) beinhaltet das Training des Agenten mit Roheingaben und das Lernen durch Interaktion mit der Umgebung. Motiviert durch die jüngsten Erfolge von DRL haben wir seine Anpassungsfähigkeit an verschiedene Domänen und Anwendungsbereiche untersucht. Dieses Papier bietet auch einen umfassenden Überblick über die Arbeit der letzten Jahre und die Simulationswerkzeuge, die für DRL verwendet werden. Der aktuelle Fokus der Forscher liegt darauf, die Erfahrungen besser zu erfassen und die Politik für futuristische Bewegungen zu verfeinern. Es zeigt sich, dass selbst nach dem Erzielen guter Ergebnisse in Atari-, Go-, Robotik- und Multi-Agent-Szenarien Herausforderungen wie Generalisierung, Erfüllung mehrerer Ziele, Divergenz, Erlernen robuster Richtlinien bestehen. Darüber hinaus stellen die komplexe Umgebung und die vielfältigen Agenten neue Herausforderungen, was ein offenes Forschungsgebiet ist.;-;-;-;https://link.springer.com/article/10.1007/s11831-021-09552-3 c9277defa98a11c4c2dd9d363eff2356;de;;;7.4.;;;Diagnose- und Klassifikations-Vorhersagemodell von Hypophysentumoren basierend auf maschinellem Lernen Um die Diagnose- und Klassifikationswirkung von Hypophysentumoren zu verbessern, kombiniert dieser Artikel die derzeit gängigen maschinellen Lernmethoden und Klassifikationsvorhersagemethoden, um die traditionellen Machine-Learning-Algorithmen zu verbessern. Darüber hinaus analysiert diese Arbeit den Merkmalsalgorithmus basierend auf den Merkmalsextraktionsanforderungen von Hypophysentumorbildern und vergleicht eine Vielzahl häufig verwendeter Algorithmen, um durch Vergleichsmethoden einen für das Modell dieser Arbeit geeigneten Klassifikationsalgorithmus auszuwählen. Darüber hinaus führt diese Arbeit die Berechnung des Vorhersagealgorithmus durch und verifiziert den Algorithmus entsprechend der tatsächlichen Situation. Basierend auf dem neuronalen Netzwerkalgorithmus entwirft und konstruiert dieses Papier schließlich das Algorithmusfunktionsmodul und kombiniert die tatsächlichen Bedürfnisse von Hypophysentumoren, um das Modell aufzubauen und die Leistung des Modells zu überprüfen. Die Forschungsergebnisse zeigen, dass das in dieser Arbeit konstruierte Modellsystem die erwartete Nachfrage erfüllt.;-;-;-;https://link.springer.com/article/10.1007/s00521-021-06277-z 97ea3fb0e1708c46203248d814f6b3b6;de;;;7.4.;;;Optimieren von Machine Learning-basierter groß angelegter Android-Malware-Erkennung durch die Beseitigung von Funktionen Als günstige Eröffnungsplattform für mobile Endgeräte zieht die Android-Plattform die Aufmerksamkeit einer großen Anzahl von Hackern auf sich. Das große Potenzial an Sicherheitsrisiken macht die Anforderung zur Erkennung von Schadsoftware effektiv, schnell und vielfältig. In den letzten Jahren wurden viele auf maschinellem Lernen basierende Methoden vorgeschlagen. Die meisten Schwerpunkte liegen jedoch auf der Suche nach effektiveren Feature-Informationen. In diesem Whitepaper schlagen wir eine Optimierungsmethode für die Machine-Learning-basierte Malware-Erkennung vor, indem wir uns auf die Entsorgung der Feature-Informationen konzentrieren. Wir extrahieren Berechtigungs- und Absichtsinformationen von Malware und beseitigen sie mit einer Reihe effektiver Methoden. Nach der Entsorgung verwenden wir mehrere Machine-Learning-Algorithmen, um ihre Wirksamkeit zu überprüfen und eine Vergleichsliste abzuschließen. Nach dem Vergleich schlagen wir einen Optimierungsalgorithmus vor, indem wir mehrere effektive Verarbeitungen kombinieren. Die Wirksamkeit unseres Vorschlags wird in umfangreichen Versuchsergebnissen veranschaulicht und begründet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49109-7_25 0c0b7adc706b416cd1ebc67cbb9de07c;de;;;7.4.;;;Reinforcement Learning angewendet auf Machine Vision: Stand der Technik Reinforcement Learning (RL) hält Einzug in die auf künstlicher Intelligenz basierende Forschungswissenschaft. Immer mehr Anwendungen rücken in den Vordergrund, bei denen RL auf neuartige und erfolgreiche Weise angewendet wird. Da die Anwendungsgebiete vielfältig sind, ist die Bildverarbeitung ein wichtiger Bereich von industrieller und Forschungsbedeutung mit hoher Tragweite. In diesem Übersichtspapier werden zunächst die Grundlagen von RL besprochen, um dem Leser einen Überblick über die Technologie zu geben. Anschließend werden die wichtigen, neuartigen und kommenden State-of-the-Art-Anwendungen im Bereich RL diskutiert. Die diskutierten Forschungsbereiche umfassen Bildsegmentierung, Objekterkennung, Objektverfolgung, Robotic Vision, autonomes Fahren und Bildklassifizierung/-abruf. Es werden verschiedene State-of-the-Art-Arbeiten diskutiert und ein Eindruck über das Potenzial und die Auswirkungen von RL im Bereich Machine Vision gewonnen.;-;-;-;https://link.springer.com/article/10.1007/s13735-021-00209-2 c2c36c0cdf4fafc7819b126d7a8e6533;de;;;7.4.;;;Anomaliebasierte Intrusion Detection durch zeitliche Klassifizierung Viele Techniken des maschinellen Lernens wurden verwendet, um anomaliebasierte Netzwerkeinbruchsdaten zu klassifizieren, von einzelnen Klassifikatoren bis hin zu Hybrid- oder Ensemble-Klassifikatoren. In dieser Arbeit wird eine nichtlineare zeitliche Datenklassifizierung vorgeschlagen, nämlich Temporal-J48, bei der die historischen Verbindungsaufzeichnungen verwendet werden, um den Angriff zu klassifizieren oder den unsichtbaren Angriff vorherzusagen. Mit seiner baumbasierten Architektur ist die Implementierung relativ einfach. Die Klassifizierungsinformationen sind durch die generierten zeitlichen Regeln lesbar. Der vorgeschlagene Klassifikator wird mit dem KDD Cup Intrusion Detection-Datensatz von 1999 aus dem UCI Machine Learning Repository getestet. Vielversprechende Ergebnisse werden für Denial-of-Service (DOS) und Sonding-Angriffstypen gemeldet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12643-2_74 7b8a5eee557ad9a18252c66ca4335ffd;de;;;7.4.;;;Automatische Point-of-Interest-Erkennung mit räumlich-zeitlichen Data-Mining-Techniken über anonyme Trajektorien Location Based Services (LBS) entwickeln sich sehr schnell, befinden sich aber trotzdem noch in einer frühen Phase ihrer Entwicklung. Die künftigen LBS-Dienste werden den Bedürfnissen der Benutzer vorausschauend sein und ein breiteres Spektrum an Benutzerinformationen nutzen. Um die Bedürfnisse der Nutzer zu antizipieren, sollten LBS-Anbieter in der Lage sein, das Verhalten, die Präferenzen und die Interessen der Nutzer automatisch und ohne Aufforderung des Nutzers zu verstehen, diese anzugeben. Anhand der aktuellen Situation des Benutzers und zuvor extrahierten Verhaltensweisen, Interessen und Abneigungen können dann die Bedürfnisse des Benutzers im relevanten Moment vorhergesagt und die am besten geeigneten Dienste bereitgestellt werden. Dieses Papier zeigt die Anwendung von Data-Mining-Techniken über anonyme Tracking-Datensätze, um Mobilitätsverhalten und Präferenzen von Benutzern wie Point of Interest (PoI) zu erkennen. Tracking-Daten werden zunächst anonymisiert und dann in einer räumlich-zeitlichen Datenbank gespeichert. Dann werden mithilfe von Data-Mining-Techniken Regeln, Modelle und Muster erkannt. Solche Erkenntnisse, Muster und Modelle werden anschließend für intelligente Navigationsdienste als Eingabevorschläge verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09147-1_14 ad07f11a4b19edc64c383dffae1f053f;de;;;7.4.;;;Rolle der robotergesteuerten Prozessautomatisierung in der pharmazeutischen Industrie Robotic Process Automation (RPA) ist eine technologische Revolution im Anmarsch und zielt darauf ab, die alltäglichen und sich wiederholenden Aufgaben aus dem Arbeitsalltag der Menschen zu übernehmen. Es eröffnet der Forschungsgemeinschaft eine neue Perspektive der Forschung und viele verschiedene Arten von Forschung werden in diesem Bereich betrieben. Es ist keine Robotik, sondern eine ganz andere Technologie. RPA ist eine junge und schnell wachsende Unterdomäne der Robotik. Der Gesundheits- und Pharmabereich generiert viele Daten oder wir können es medizinische Big Data nennen, und es ist umso wichtiger, solche Daten aus unterschiedlichen Quellen zu analysieren und auszuwerten. Neue Wirkstoffforschung, Wirkstoffformulierungsprozess, Wirkstoffabgabemechanismen oder stationäre und ambulante Aktivitäten sind einige der Schlüsselprozesse in der Gesundheits- und Pharmaindustrie, die enorme Datenmengen erzeugen. Daher bieten Data Science und RPA praktische Tools, um mit solch riesigen Datenmengen zu arbeiten. In diesem Papier heben die Autoren die Schlüsselaspekte von RPA hervor und überprüfen seine Verwendung im wichtigen Gesundheits- und Pharmabereich. RPA erweist sich als die Technologie der Zukunft und ihr Ziel ist es, eine nachhaltige Lösung anzubieten, die Kosten und Lieferzeiten reduziert, die Qualität, Geschwindigkeit und betriebliche Effizienz eines Geschäftsprozesses verbessert. Die Anwendung von Machine Learning (ML)-Technologien im Gesundheitswesen erweist sich als vorteilhaft und effektiv, um neue Erkenntnisse zu gewinnen. Der Autor schlägt auch einen generischen RPA/ML-basierten Rahmen vor, um die Standardisierung und Qualität von Bhasma zu gewährleisten – einem Endprodukt, das nach mehreren Aktivitäten im traditionellen indischen Medizinsystem – Ayurveda – gewonnen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-14118-9_50 334eaf43b68263bf3f2870e14a7d3e6c;de;;;7.4.;;;Balanced Quantization: Ein effektiver und effizienter Ansatz für quantisierte neuronale Netze Quantisierte neuronale Netze (QNNs), die niedrige Bitbreitenzahlen zum Darstellen von Parametern und zum Durchführen von Berechnungen verwenden, wurden vorgeschlagen, um die Berechnungskomplexität, Speichergröße und Speichernutzung zu reduzieren. In QNNs werden Parameter und Aktivierungen einheitlich quantisiert, so dass die Multiplikationen und Additionen durch bitweise Operationen beschleunigt werden können. Jedoch sind Verteilungen von Parametern in neuronalen Netzen oft unausgeglichen, so dass die aus Extremwerten bestimmte gleichförmige Quantisierung die verfügbare Bitbreite möglicherweise nicht ausreichend nutzt. In diesem Papier schlagen wir eine neuartige Quantisierungsmethode vor, die den Ausgleich von Verteilungen quantisierter Werte sicherstellen kann. Unsere Methode unterteilt die Parameter zuerst rekursiv nach Perzentilen in ausgeglichene Bins und wendet dann eine gleichmäßige Quantisierung an. Wir führen auch rechnerisch günstigere Approximationen von Perzentilen ein, um den eingeführten Rechenaufwand zu reduzieren. Insgesamt verbessert unsere Methode die Vorhersagegenauigkeit von QNNs, ohne zusätzliche Berechnungen während der Inferenz einzuführen, hat einen vernachlässigbaren Einfluss auf die Trainingsgeschwindigkeit und ist sowohl auf konvolutionelle neuronale Netze als auch auf rekurrente neuronale Netze anwendbar. Experimente mit Standarddatensätzen wie ImageNet und Penn Treebank bestätigen die Wirksamkeit unserer Methode. Auf ImageNet beträgt die Top-5-Fehlerrate unseres 4-Bit-quantisierten GoogLeNet-Modells 12,7%, was dem Stand der Technik von QNNs überlegen ist.;-;-;-;https://link.springer.com/article/10.1007/s11390-017-1750-y 50b866d429e99856fa49bfb03e5a332f;de;;;7.4.;;;Klassifizierung und Vorhersageanalyse von Krankheiten und anderen Datensätzen mit maschinellem Lernen Klassifikation ist eine der am häufigsten verwendeten maschinellen Lerntechniken, insbesondere bei der Vorhersage von Dingen des täglichen Lebens. Der erste Schritt besteht darin, Datensätze basierend auf zukünftigen Vektoren zu gruppieren, zu unterteilen, zu kategorisieren und zu trennen. Das Klassifizierungsverfahren hat viele Algorithmen, einige davon sind Random Forest, Naive Bayes, Decision Tree und Support Vector Machine. Vor der Implementierung jeder Technik wird das Modell erstellt und dann wurde der Datensatz an diesem Modell trainiert. Das Erlernen des vom Algorithmus generierten Modells muss sowohl für den Eingabedatensatz als auch für die Vorhersage der Datensätze der Klassenbezeichnung geeignet sein. Für die Vorhersage einer Klassenbezeichnung aus unbekannten Datensätzen stehen viele Modelle zur Verfügung. In diesem Papier wurden verschiedene Klassifikatoren wie Linear SVM, Ensemble, der Entscheidungsbaum angewendet und ihre Genauigkeit und Zeit auf verschiedenen Datensätzen analysiert. Die Datensätze Leberpatient, Weinqualität, Brustkrebs und Bupa-Leberstörung werden zur Berechnung der Leistung und Genauigkeit unter Verwendung einer 10-fach-Kreuzvalidierungstechnik verwendet. Am Ende wurden alle Ergebnisse des angewandten Algorithmus berechnet und hinsichtlich Genauigkeit und Ausführungszeit verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5232-8_37 c58a6d8d8fcec99bb98867f7dc27815f;de;;;7.4.;;;Parallele Implementierung von Klassifikationsalgorithmen basierend auf MapReduce Data Mining hat seit mehreren Jahrzehnten umfangreiche Forschungen angezogen. Als wichtige Aufgabe des Data Mining spielt die Klassifikation eine wichtige Rolle bei der Informationsbeschaffung, Websuche, CRM usw. Die meisten der gegenwärtigen Klassifikationstechniken sind seriell, was für große Datenmengen unpraktisch wird. Die Rechenressource wird nicht ausgelastet und die Ausführungszeit kann nicht abgewartet werden. Vorausgesetzt der Programmmodus von MapReduce, schlagen wir die parallelen Implementierungsmethoden mehrerer Klassifikationsalgorithmen vor, wie z;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16248-0_89 dfe43235844b027140099d4bd89292c5;de;;;7.4.;;;Verallgemeinerte Abfragen an mehrdeutiges Oracle stellen Das Stellen generalisierter Fragen (indem einige Funktionen als egal angesehen werden) beim aktiven Lernen wurde in letzter Zeit vorgeschlagen und untersucht. Da jede verallgemeinerte Abfrage einer Reihe von spezifischen entspricht, können die Antworten des Orakels normalerweise mehr Informationen liefern und so das Lernen effektiv beschleunigen. Da die Antworten auf die verallgemeinerten Fragen jedoch ungewiss sein können, gehen bisherige Studien oft davon aus, dass das Orakel in der Lage ist, (genaue) wahrscheinlichkeitstheoretische Antworten zu liefern. Diese Annahme ist jedoch in realen Situationen oft zu streng. In diesem Papier machen wir eine realistischere Annahme, dass das Orakel nur (nicht probabilistische) mehrdeutige Antworten liefern kann, ähnlich wie in der Einstellung in;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15880-3_30 b0141ae4aaea06b04463890b233417c5;de;;;7.4.;;;Eine Big-Data-Anwendung eines auf maschinellem Lernen basierenden Rahmens zur Identifizierung von Typ-2-Diabetes durch elektronische Patientenakten Studien der Genotyp-Phänotyp-Assoziationen für Krankheiten wie Diabetes mellitus Typ 2 (T2DM) werden in den letzten Jahren immer beliebter. Häufig verwendete Methoden sind die genomweite Assoziationsstudie (GWAS) und die phenomeweite Assoziationsstudie (PheWAS). Um die obige Analyse durchzuführen, ist es notwendig, die Fälle und Kontrollen von T2DM-Patienten auf der Grundlage von elektronischen Gesundheitsakten (EHR) zu identifizieren. Die existierenden, auf Experten basierenden Identifizierungsalgorithmen haben jedoch oft einen geringen Wiedererkennungswert und verpassen eine große Anzahl der wertvollen Proben unter konservativen Filterstandards. Als Pilotstudie schlug dieses Papier ein halbautomatisches Framework vor, das auf maschinellem Lernen basiert. Unser Ziel ist es, die Filterkriterien zu optimieren, um die Erinnerung zu verbessern und gleichzeitig die falsch-positive Rate niedrig zu halten. Wir validieren den vorgeschlagenen Rahmen mithilfe einer EHR-Datenbank mit Aufzeichnungen aus zehn Jahren und zeigen die Wirksamkeit des vorgeschlagenen Rahmens.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-62698-7_37 4a6b90d54c99ace069955cdf347519f5;de;;;7.4.;;;Eine auf maschinellem Lernen basierende Website-Defacement-Erkennungsmethode Website-Defacement-Angriffe sind eine der größten Bedrohungen für Websites und Webportale privater und öffentlicher Organisationen. Die Angriffe können für Website-Betreiber schwerwiegende Folgen haben, einschließlich der Unterbrechung des Website-Betriebs und der Rufschädigung des Inhabers, was zu großen finanziellen Verlusten führen kann. Für die Überwachung und Erkennung von Website-Defacement wurden eine Reihe von Techniken vorgeschlagen, wie beispielsweise Prüfsummenvergleich, Differenzvergleich, DOM-Baumanalyse und komplexe Algorithmen. Einige von ihnen funktionieren jedoch nur auf statischen Webseiten und andere erfordern umfangreiche Rechenressourcen. In diesem Artikel schlagen wir eine auf maschinellem Lernen basierende Methode zur Erkennung von Website-Defacement vor. In unserer Methode werden Techniken des maschinellen Lernens verwendet, um Klassifikatoren (Erkennungsprofile) für die Seitenklassifizierung in die Klasse Normal oder Angegriffen zu erstellen. Da das Erkennungsprofil aus Trainingsdaten gelernt werden kann, kann unsere Methode sowohl für statische als auch für dynamische Webseiten gut funktionieren. Experimentelle Ergebnisse zeigen, dass unser Ansatz eine hohe Erkennungsgenauigkeit von über 93% und eine niedrige Falsch-Positiv-Rate von weniger als 1% erreicht. Darüber hinaus erfordert unsere Methode keine umfangreichen Rechenressourcen, sodass sie für den Online-Einsatz praktisch ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-04792-4_17 02f41193c780d30bd68a2eed8140c842;de;;;7.4.;;;Auf dem Weg zu einem Rahmen für die Wissensentdeckung Wir diskutieren, wie Data Mining, Patternbases und Datenbanken in induktive Datenbanken integriert werden können, die Data Mining zu einem induktiven Abfrageprozess machen. Wir schlagen eine Softwarearchitektur für solche induktiven Datenbanken vor und erweitern diese Architektur, um das Clustering von induktiven Datenbanken zu unterstützen und sie für das Data Mining im Grid geeignet zu machen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34749-3_23 cdfc886e2b8208412059278958d0526f;de;;;7.4.;;;Filtern von Überwachungsbildstreams durch interaktives maschinelles Lernen Da Überwachungskameras weit verbreitet sind, werden Filter benötigt, um große Bilddatenströme zu verarbeiten und interessante Ereignisse zu erkennen. Programmierte Bildfilter führen im Allgemeinen zu Lösungen mit geringer bis mittlerer Leistung. Aus Daten abgeleitete Filter sind insofern besser, als sie auf ausgewählte Bildmerkmale tippen, erfordern jedoch einen pro Sensorik-Ansatz eines Analysten oder Experten für maschinelles Lernen. Dieser Beitrag befasst sich mit der Filterformung als einem datengesteuerten Prozess, der „in die Hände vieler Endnutzer gelegt“ wird, die über umfassendes Domänenwissen, aber keine Erfahrung in maschinellem Lernen verfügen. Der Fokus liegt auf interaktiven maschinellen Lerntechnologien als Mittel zur Selbstprogrammierung und Spezialisierung von Bildfiltern, die lernen, Bilder anhand ihres Inhalts, ihrer Reihenfolge und ihrer zeitlichen Attribute zu durchsuchen. Wir beschreiben und bewerten die Leistungsfähigkeit von zwei interaktiven Algorithmen, die für eine reale Fallstudie in der Prozessüberwachung für nukleare Sicherungen entwickelt und implementiert wurden. Experimente zeigen, dass interaktives maschinelles Lernen hilft, sicherheitsrelevante Ereignisse zu erkennen und gleichzeitig die Anzahl falsch positiver Ergebnisse erheblich zu reduzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19551-8_10 d290e5e4456e03e7392c1cf7a639f051;de;;;7.4.;;;Einbettungen medizinischer Anbieter für die Betrugserkennung im Gesundheitswesen Fortschritte in Data Mining und maschinellem Lernen verändern weiterhin die Gesundheitsbranche und bieten Medizinern und Patienten einen Mehrwert. In dieser Studie adressieren wir das Problem der Kodierung von medizinischen Leistungserbringern und stellen vier Techniken zum Erlernen dichter, semantischer Einbettungen vor, die Ähnlichkeiten in den Fachgebieten der Leistungserbringer erfassen. Die ersten beiden Methoden (GloVe und Med-W2V) verwenden vortrainierte Worteinbettungen, um spezielle Beschreibungen von Anbietern in Phraseneinbettungen umzuwandeln. Als nächstes werden HcpsVec- und RxVec-Einbettungen aus öffentlich verfügbaren Big Data unter Verwendung von Spezialverfahrens- bzw. Spezialarzneistoff-Vorkommensmatrizen konstruiert. Wir evaluieren die Einbettungen des gelernten Anbietertyps auf zwei reale Probleme bei der Klassifizierung von Medicare-Betrug unter Verwendung von logistischen Regression (LR), Random Forest (RF), Gradient Boosted Tree (GBT) und Multilayer Perceptron (MLP)-Lernern. Durch Wiederholung, statistische Analyse und Merkmalswichtigkeitsmessungen bestätigen wir, dass semantische Einbettungen für Anbietertypen die Ergebnisse der Betrugsklassifizierung erheblich verbessern. Schließlich werden t-SNE-Visualisierungen verwendet, um zu zeigen, dass die gelernten Anbietertyp-Einbettungen sinnvolle Spezialmerkmale und Anbietertyp-Ähnlichkeiten erfassen. Unsere Hauptbeiträge sind zwei neuartige Methoden zur Kodierung medizinischer Fachgebiete unter Verwendung von Statistiken auf Verfahrensebene und die Bewertung von vier Kodierungstechniken bei zwei groß angelegten Klassifikationsaufgaben für Betrug im Gesundheitswesen. Da alle Datenquellen öffentlich zugänglich sind, können diese Kodierungstechniken ohne weiteres in zukünftigen Anwendungen des maschinellen Lernens im Gesundheitswesen übernommen und angewendet werden.;-;-;-;https://link.springer.com/article/10.1007/s42979-021-00656-y 6c17b3ed4eb41aece730cdc0167a2c9a;de;;;7.4.;;;Industrial IoT Gateway mit Machine Learning für Smart Manufacturing Die Zusammenarbeit ist ein wichtiger Aspekt der zukünftigen Industrie. Daher führen Technologien wie Internet of Things (IoT), Cloud Computing, SOA zu einer weiteren industriellen Revolution. Wir schlagen hier eine Konzeptdefinition vor, die sich auf Datenerfassung, Integration und prädiktive Steuerung in der Industrie konzentriert. Das Konzept besteht aus Industrial IoT Gateway, Cloud Services und Machine Learning Services. Wir haben maschinelles Lernen verwendet, um unsere Datenerfassungslösung zu verifizieren, und wir haben die Vorhersagekontrolle als Cloud-Dienst implementiert. Schließlich wird die vorgeschlagene Lösung die Grenzen innerhalb des ICS (Informations- und Kontrollsystem) überschreiten, die Flexibilität, Interoperabilität und die Kontrolle der Prüfanlagenvorhersage in der intelligenten Fertigung verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-51133-7_89 8cf5062998961b2d57f4133d1055d9a6;de;;;7.4.;;;Unüberwachtes Lernen und Clustering Unüberwachtes Lernen ist bei der Verarbeitung von Multimediainhalten sehr wichtig, da das Clustern oder Partitionieren von Daten ohne Klassenbezeichnungen oft erforderlich ist. Dieses Kapitel beginnt mit einem Überblick über die klassischen Clustering-Techniken von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75171-7_3 c79cfab4a48d1de22968a0c945088f61;de;;;7.4.;;;Aspektbasierte Sentiment-Analyse-Suchmaschine für Social-Media-Daten Die Gewinnung positiver oder negativer Meinungen aus Online-Inhalten wurde in den letzten zehn Jahren von Forschern stärker berücksichtigt, da die Zahl der Internetnutzer, die aktiv Online-Bewertungsseiten, soziale Netzwerke und persönliche Blogs nutzen, um ihre Meinung zu äußern, zugenommen hat. Die Stimmungsanalyse ist die Untersuchung automatisierter Techniken zum Extrahieren von Stimmungen aus geschriebenen Sprachen unter Verwendung natürlicher Sprachverarbeitungsaufgaben, um die Daten gründlich vorzuverarbeiten und Polarität aus den Daten zu extrahieren. Kunden, die Produkte oder Dienstleistungen kaufen möchten, sowie Unternehmensorganisationen verlassen sich häufig auf Online-Bewertungen, um die allgemeine Benutzerstimmung zu kennen. Basierend auf der Stimmung können Kunden wählen, ob sie ein Produkt kaufen oder nicht, während sich die Unternehmen ein Gesamtbild ihres Produkts verschaffen. Die aspektbasierte Sentimentanalyse hilft bei der Extraktion wichtiger Merkmale, die als Aspekte bezeichnet werden, da es nicht ausreicht, nur die Polarität zu kennen. Das vorgeschlagene aspektbasierte Sentimentanalysemodell verwendet Polaritätsklassifizierung und Sentimentextraktion bei Bewertungen und extrahiert die interessantesten Polaritätsaspekte, die von den Kunden bevorzugt werden, automatisch mithilfe von Machine Learning und Deep Learning Algorithmen. Eine Suchmaschine zum Herausziehen von Tweets und Bewertungen, die für das vom Benutzer angegebene Schlüsselwort relevant sind, wird entwickelt und entsprechende interessante Aspekte werden angezeigt.;-;-;-;https://link.springer.com/article/10.1007/s40012-020-00295-3 61a8e049629d250180588ded0cd7958e;de;;;7.4.;;;Intuition als instinktiver Dialog Ein multimodales Dialogsystem, das Benutzerfragen in natürlicher Sprache beantwortet, stellt eine der wichtigsten Errungenschaften der modernen interaktionsbasierten KI-Technologie dar. Um einen intuitiven, multimodalen, aufgabenbasierten Dialog zu ermöglichen, müssen mehr als explizite Modelle des Interaktionsdiskurses, das verfügbare Informationsmaterial, der Interessenbereich, die Aufgabe und/oder Modelle eines Benutzers verwendet werden oder Benutzergruppe. Die Tatsache, dass der Mensch sein Dialogverhalten im Laufe der Zeit dem Wissen, der Einstellung und der Kompetenz seiner Gesprächspartner anpasst, stellt für uns die Frage, welchen Einfluss die Intuition auf dieses natürliche menschliche Kommunikationsverhalten haben könnte. Eine konkrete Umgebung, in der ein Intuitionsmodell eine sensorische Modellierung von Instinkten erweitert, kann verwendet werden und soll uns helfen, die Bedeutung der Intuition im multimodalen Dialog einzuschätzen. Wir erläutern die relevanten Konzepte und Hinweise zum Selbststudium und bieten einen konkreten Denkansatz;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19757-4_6 04201e6e5f60f0dbd8576ce718ebdf9d;de;;;7.4.;;;deepGTTM-I&II: Local Boundary and Metrical Structure Analyzer basierend auf Deep-Learning-Technik Dieser Artikel beschreibt einen Analysator zur Erkennung lokaler Gruppierungsgrenzen und zur Erzeugung metrischer Strukturen von Musikstücken basierend auf einer generativen Theorie der tonalen Musik (GTTM). Obwohl Systeme zum automatischen Erfassen lokaler Gruppierungsgrenzen und zum Erzeugen metrischer Strukturen vorgeschlagen wurden, wie beispielsweise der vollautomatische Zeitspannenbaum-Analysator, müssen Musikwissenschaftler die Grenzen oder starken Schwebungspositionen aufgrund zahlreicher Fehler korrigieren. Vor diesem Hintergrund verwenden wir eine Deep-Learning-Technik, um lokale Grenzen zu erkennen und metrische Strukturen von Musikstücken basierend auf einem GTTM zu generieren. Da wir nur 300 Musikstücke mit den von Musikwissenschaftlern analysierten lokalen Gruppierungsgrenzen und metrischen Strukturen haben, ist das direkte Erlernen der Beziehung zwischen den Partituren und metrischen Strukturen aufgrund fehlender Trainingsdaten schwierig. Um dieses Problem zu lösen, schlagen wir einen Multitask-Lernanalysator namens deepGTM-I&II vor, der auf der obigen Deep-Learning-Technik basiert, um die Beziehung zwischen Scores und metrischen Strukturen in den folgenden drei Schritten zu lernen. Zuerst führen wir ein unbeaufsichtigtes Vortraining eines Netzwerks mit 15.000 Musikstücken in einem nicht gekennzeichneten Datensatz durch. Nach dem Vortraining beinhaltet das Netzwerk eine überwachte Feinabstimmung durch Backpropagation von Ausgabe- zu Eingabeschichten unter Verwendung eines halb beschrifteten Datensatzes, der aus 15.000 Musikstücken besteht, die mit einem zuvor erstellten automatischen Analysator beschriftet wurden. Schließlich beinhaltet das Netzwerk eine überwachte Feinabstimmung unter Verwendung eines gekennzeichneten Datensatzes. Die experimentellen Ergebnisse zeigen, dass deepGTTM-I&II bisherige Analysatoren für einen GTTM in Bezug auf das F-Maß zur Erzeugung metrischer Strukturen übertraf.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67738-5_1 9011df526c82dddbffd604387f12ebe9;de;;;7.4.;;;Datenschutzschonendes maschinelles Lernen Die Popularisierung von Cloud-Computing und maschinellen Lernalgorithmen ermöglicht eine Reihe komplexer analytischer Dienstleistungen wie medizinische oder finanzielle Bewertungen. Dies ermöglicht es einem rechnerisch eingeschränkten Client, Vorhersagen oder Klassifizierungsergebnisse zu erhalten, indem er für die Analysedienste bezahlt. Diese Dienste beinhalten oft sensible Daten, die geheim gehalten werden sollten. Im Idealfall hoffen wir auf datenschutzwahrende Machine-Learning-Dienste. Die Kunden können die Ergebnisse des Modells von einem Dienstleister erfahren, ohne ihre Eingaben und Ergebnisse preiszugeben. In der Zwischenzeit wird das trainierte Modell mit so minimaler Leckage wie möglich vor den Kunden geheim gehalten. Diese Keynote konzentriert sich darauf, wie Kryptographie datenschutzwahrende maschinelle Lerndienste ermöglichen kann, insbesondere die Bewertung von Entscheidungsbäumen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3095-7_1 1b0e9f004b76d05ab5dbb853549ff90e;de;;;7.4.;;;Kombination von Information Fusion mit String Pattern Analysis: Eine neue Methode zur Vorhersage des zukünftigen Kaufverhaltens Wir entwickeln eine neue Methode, um nützliches Wissen aus der individuellen Kaufhistorie von Kunden zu extrahieren, indem wir Informationsfusionstechniken mit einem Data-Mining-Tool kombinieren – der Stringmusteranalyse. Wir demonstrieren anhand mehrerer Fallstudien, wie die Methode Unternehmen dabei hilft, vorherzusagen, wie und wann ein Kunde wahrscheinlich von einer Marke zu einer anderen wechseln wird, wer am ehesten einer Marke treu bleibt und wann ein Kunde wahrscheinlich zu einem Wettbewerber übergeht. Das Verfahren umfasst mehrere Phasen von Datenfusionsprozessen. Als Vorverarbeitung wandelt es zunächst die Kaufhistorie einzelner Kunden in eine Reihe von Symbolen um, von denen jedes eine gekaufte Marke repräsentiert, und dann bildet es einen Satz von Symbolen in einen viel kleineren Satz neuer Symbole ab, um die Vorhersagbarkeit der Methode. Zweitens erzeugt das Verfahren einfache und effektive Regeln, die durch regelmäßige Muster über dem Satz von Symbolen beschrieben werden, die effektiv gegebene positive und negative Sätze von Zeichenfolgen unterscheiden. Die Stringmusteranalyse behält zeitliche Informationen in einer Kaufsequenz bei, ein Vorteil, den andere Datenanalysemethoden normalerweise nicht genießen. Schließlich entwickeln wir einen Entscheidungsbaumalgorithmus und einen gewichteten Mehrheitswahlalgorithmus basierend auf zweidimensionalen Regionsregeln, um Prädiktoren zu aggregieren und interpretierbare Regeln zu generieren. Dies ist auch ein Datenfusionsprozess. Die Methode wird durch mehrere Anwendungen veranschaulicht: Management von Markenwechseln, Management von Kundenabwanderung und Management von Treueprogrammen. Die erfolgreichen Anwendungen demonstrieren die effektive Kombination von Informationsfusion und String-Pattern-Analysen bei der Bewältigung realer Geschäftsprobleme.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36519-8_10 40dcc27f27b127168d268a4c5388b8e2;de;;;7.4.;;;Teilweise entwirrte latente Beziehungen für Multi-Label Deep Learning Für das Lernen mit mehreren Labels werden die spezifischen Merkmale aus den Instanzen unter dem überwachten Klassenlabel sinnvoll extrahiert, und die gereinigte Merkmalsdarstellung kann auch während des Lernprozesses mit anderen Merkmalen geteilt werden. Außerdem ist es wichtig, die Inter-Instanz-Beziehungen im Eingaberaum und die Inter-Label-Korrelationsbeziehungen im Ausgaberaum auf den Multi-Label-Datensätzen zu unterscheiden, was der Verbesserung der Leistung des Multi-Label-Algorithmus förderlich ist. Die meisten aktuellen Multi-Label-Algorithmen zielen jedoch darauf ab, die Zuordnung zwischen Instanzen und Labels zu erfassen, während die Informationen über Instanzbeziehungen und Label-Korrelationen in der Multi-Label-Datenstruktur ignoriert werden. Von diesen Problemen motiviert, nutzen wir das Deep Network, um die speziellen Feature-Repräsentationen für Multi-Label-Komponenten zu lernen, ohne überlappende Features aufzugeben, die möglicherweise zu anderen Multi-Label-Komponenten gehören. In der Zwischenzeit werden die euklidischen Matrizen genutzt, um die Diagonalmatrix für die Diffusionsfunktion zu konstruieren, wodurch die neue latente Klassendarstellung durch ein graphenbasiertes Diffusionsverfahren erhalten wird, die Beziehungen zwischen Instanzen erhalten bleiben, es stellt sicher, dass ähnliche Merkmale ähnliche Label-Sets haben. Da die Beiträge dieser Feature-Repräsentationen unterschiedlich sind und einen deutlichen Einfluss auf die endgültigen Multi-Label-Vorhersageergebnisse haben, wird der Selbstaufmerksamkeitsmechanismus eingeführt, um die anderen Label-spezifischen Instanz-Features zu fusionieren, um die neue gemeinsame Feature-Repräsentation zu erstellen leitet dynamische Gewichtungen für die Multi-Label-Vorhersage ab. Schließlich zeigen experimentelle Ergebnisse an den realen Datensätzen eine vielversprechende breite Verfügbarkeit für unseren Ansatz.;-;-;-;https://link.springer.com/article/10.1007/s00521-020-05381-w 09b6642e31e965c2ed1d969ba73a0ead;de;;;7.4.;;;Untersuchung von Flugzustands- und Steuersystemparametern zur Vorhersage von Hubschrauberlasten mittels Gamma-Test und Techniken des maschinellen Lernens Eine genaue Schätzung der Belastungen von Hubschrauberkomponenten ist ein wichtiges Ziel für das Lebenszyklusmanagement und die Bemühungen zur Verlängerung der Lebensdauer. In dieser Forschung wurden Schätzungen der dynamischen Helikopterlasten durch eine Kombination von statistischen und maschinellen Lernverfahren (Computational Intelligence) erzielt. Schätzungen für die normale Biegung des Hauptrotors (MRNBX) auf den Sikorsky S-70A-9 Black Hawk-Hubschrauber während zwei Flugbedingungen (Vollgeschwindigkeits-Vorwärtsflug und rollender linker Auszug bei 1,5;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07812-0_18 87158a6b6b59abaf4e89e289fc3fa729;de;;;7.4.;;;Lernen, einen oder mehrere Ränge in ordinalen Regressionsaufgaben vorherzusagen Wir präsentieren nichtdeterministische Hypothesen, die aus einer ordinalen Regressionsaufgabe gelernt wurden. Sie versuchen, den wahren Rang für einen Eintrag vorherzusagen, aber wenn die Klassifizierung unsicher ist, sagen die Hypothesen eine Reihe aufeinanderfolgender Ränge (ein Intervall) voraus. Ziel ist es, die Anzahl der Ränge so klein wie möglich zu halten, aber dennoch den wahren Rang zu enthalten. Die Rechtfertigung für das Erlernen einer solchen Hypothese basiert auf einem realen Problem, das bei der Zucht von Fleischrindern aufgetreten ist. Nachdem wir eine Familie von Verlustfunktionen definiert haben, die von Information Retrieval inspiriert wurde, leiten wir einen Algorithmus ab, um sie zu minimieren. Der Algorithmus basiert auf Posterior-Wahrscheinlichkeiten von Rängen, die einem Eintrag gegeben sind. Einige Implementierungen werden verglichen: eine basierend auf einer Multiclass;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87479-9_21 26c0529bd8aaacf6a087be2adf25afe8;de;;;7.4.;;;Ein neues System zur Verarbeitung des Gesichtsausdrucks für einen affektiven Roboter Dieser Artikel stellt ein Emotionserkennungssystem für einen affektbewussten Krankenhausroboter für Kinder und ein Datenkennzeichnungs- und -verarbeitungstool namens LabelFace für die Gesichtsausdruckserkennung (FER) vor, das innerhalb des vorgestellten Systems verwendet wird. Das Tool bietet eine Schnittstelle zur automatischen/manuellen Kennzeichnung und visuellen Informationsverarbeitung für die Erkennung von Emotionen und Gesichtsaktionen (AU) mit den auf Deep Learning basierenden Assistentenmodellen. Das Tool wurde in erster Linie entwickelt, um die affektive Intelligenz eines sozial unterstützenden Roboters zur Unterstützung der Gesundheitsversorgung von Kindern mit Hörbehinderung zu unterstützen. In dem vorgeschlagenen Ansatz werden zu diesem Zweck Multi-Label-AU-Detektionsmodelle verwendet. Nach unserem besten Wissen ist das vorgeschlagene Kinder-AU-Detektormodell das erste Modell, das auf 5- bis 9-jährige Kinder abzielt. Das Modell wird mit bekannten gestellten Datensätzen trainiert und mit einem realen, nicht gestellten Datensatz getestet, der von hörgeschädigten Kindern gesammelt wurde. Unser Tool LabelFace wird in Bezug auf Datenverarbeitungs- und Datenkennzeichnungsfunktionen für Benchmarking mit einem weit verbreiteten Mimik-Tool verglichen und schneidet mit seinen AU-Detektormodellen für Kinder sowohl bei gestellten Daten als auch bei nicht gestellten Datentests besser ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-68790-8_4 bdd9bc80c7b4c3dfdcd85052a0388b4c;de;;;7.4.;;;Sentimentanalyse von Tweets in Malayalam mit langen Kurzzeitgedächtniseinheiten und Convolutional Neural Nets Die Stimmungsanalyse in der Verarbeitung natürlicher Sprache (NLP) ist eine wichtige Aufgabe, da der Textinhalt mehrere Meinungen zu Ereignissen, Produkt- und Filmrezensionen, Handel, Marketing usw. enthält. In den letzten zehn Jahren haben Forscher die Stimmungsanalyse mit handgefertigten Funktionen durchgeführt und Machine Learning Methoden wie Support Vector Machines, naive Bayes, Conditional Random Field, Maximum Entropie Method etc. Die Sentimentanalyse von Social Media Texten erfreut sich großer Beliebtheit, da sie Empfehlungen und Vorschläge enthält. Im Vergleich zu ressourcenarmen Sprachen wie Englisch, Chinesisch, Französisch usw. leidet die Sentimentanalyse in ressourcenarmen Sprachen unter (1) dem Fehlen eines annotierten Korpus, (2) Tools zum Extrahieren von Merkmalen. Das vorliegende Papier leitet seine Motivation ab und befasst sich mit der Sentimentanalyse für Tweets in Malayalam, einer ressourcenarmen Sprache. Aufgrund des Fehlens von Datensätzen werden 12922 Tweets in Malayalam-Sprache gesammelt und in eine von drei Stimmungskategorien, nämlich positiv, negativ und neutral, kommentiert. In letzter Zeit haben Deep-Learning-Methoden wie Long Short-Term Memory (LSTM) und Convolution Neural Network (CNN) an Popularität gewonnen, indem sie vielversprechende Ergebnisse für die Probleme in der Sprach- und Bildverarbeitung zeigen, Aufgaben im NLP über das Lernen von funktionsreichen tiefen Darstellungen der Daten automatisch . Das aktuelle Papier ist der erste Versuch, eine Sentimentanalyse von Tweets in Malayalam-Sprache mit LSTM und CNN durchzuführen. Das Papier präsentiert 10-fache Kreuzvalidierungsergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-71928-3_31 2557c2cdd684b966e0e782814a67b900;de;;;7.4.;;;Forschung zur Tunneltechnik-Überwachungstechnologie basierend auf dem neuronalen Netz BPNN und dem Regressionsalgorithmus des maschinellen Lernens MARS Der Tunnelbau wird durch eine Vielzahl von Faktoren beeinflusst, was zu großen Erkennungsfehlern im Tunnelbau führt. Um die Überwachungswirkung des Tunnelbaus zu verbessern, baut diese Forschung auf der Grundlage des BPNN- und MARS-Regressionsalgorithmus für das maschinelle Lernen ein Tunnelbau-Überwachungs- und Vorhersagemodell auf. Darüber hinaus verwendet das in dieser Studie entwickelte neuronale BP-Netz mit grauen Resten eine Reihenkombination, und die aus dem grauen Modell erhaltenen Residuen werden als Eingabedaten des neuronalen BP-Netzes verwendet, und die Ausgabe des kombinierten Modells wird als Vorhersageergebnis verwendet . Durch die Anwendung der Überwachungsdaten der Konvergenz der oberen Umgebung des Tunneloberflächenabschnitts und der Verformung der Bogensenkung wird bestätigt, dass das vorgeschlagene Verfahren basierend auf dem kombinierten Modell von BPNN und MASR die Tunnelverformungsüberwachungsdaten sehr vorhersagen und analysieren kann Gut.;-;-;-;https://link.springer.com/article/10.1007/s00521-020-04988-3 e9dfe76378bc4294f309db52e726e1bf;de;;;7.4.;;;3D-Fingerabdruck-Geschlechtsklassifizierung mit Deep Learning Die optische Kohärenztomographie (OCT) ist eine hochauflösende Bildgebungstechnologie, die eine 3D-Darstellung der Fingerkuppenhaut liefert. Dieses Papier untersucht zum ersten Mal die Geschlechterklassifizierung anhand dieser 3D-Fingerabdrücke. Anders als bei den derzeitigen Methoden zur Klassifizierung von Fingerabdrücken für Geschlechter, die rohen multiplen Längsschnitte (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-31456-9_5 124ef80fe7a87830858665f2b5be9eae;de;;;7.4.;;;On-Board-Mining von Datenströmen in Sensornetzwerken Datenströme werden in großen Mengen und mit hoher Geschwindigkeit von Sensornetzwerken erzeugt, die typischerweise unter anderem Umgebungsbedingungen, Verkehrsbedingungen und Wetterbedingungen überwachen. Eine große Herausforderung in Sensornetzwerken ist die Analyse der riesigen Datenmengen, die durch Sensorik schnell erzeugt und übertragen werden. Da eine kabelgebundene Kommunikation in den zuvor beschriebenen Umgebungssituationen nicht möglich ist, werden diese Daten zur Analyse derzeit über Satellitenkanäle übermittelt. Satellitenkommunikation ist exorbitant teuer. Um dieses Problem anzugehen, schlagen wir eine Strategie für das On-Board-Mining von Datenströmen in einer Umgebung mit eingeschränkten Ressourcen vor. Wir haben einen neuartigen Ansatz entwickelt, der den Data-Stream-Mining-Prozess auf Basis der verfügbaren Speicherressourcen dynamisch anpasst. Diese Anpassung ist algorithmusunabhängig und ermöglicht es Data-Stream-Mining-Algorithmen, angesichts endlicher Rechenressourcen mit hohen Datenraten fertig zu werden. Wir haben auch leichtgewichtige Data-Stream-Mining-Algorithmen entwickelt, die unseren adaptiven Mining-Ansatz für Umgebungen mit eingeschränkten Ressourcen beinhalten.;-;-;-;https://link.springer.com/chapter/10.1007/1-84628-284-5_12 97bdaab9fd0e556cc640da6f59ea0411;de;;;7.4.;;;Aktienkursvorhersage aus Finanznachrichtenartikeln mit LSTM und XAI Der Aktienmarkt ist sehr komplex und volatil. Es wird von positiven und negativen Stimmungen beeinflusst, die auf Medienmitteilungen basieren. Der Umfang der Aktienkursanalyse hängt von der Fähigkeit ab, die Aktienbewegungen zu erkennen. Es basiert auf technischen Grundlagen und dem Verständnis der versteckten Trends, denen der Markt folgt. Aktienkursvorhersage (Vachhani et al. in Mach Learn-Based Stock Market Anal Short Surv (2020) [;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0733-2_11 f8ae24d8c7621b8618887c592156468d;de;;;7.4.;;;Statistikalgorithmus für Buspassagiere basierend auf Deep Learning Statistiken über den Fahrgastfluss von Bussen können verwendet werden, um das Reiseerlebnis der Fahrgäste zu verbessern und Reiseverzögerungen zu reduzieren. In diesem Beitrag wird ein Algorithmus für die Fahrgastflussstatistik basierend auf SSD (Single Shot MultiBox Detector) und Kalman-Filter vorgeschlagen, um Fahrgastflussstatistiken von Überwachungskameras in den Bussen zu erhalten. Das Verfahren modifiziert das SSD-Modell in ein Zwei-Klassen-Modell und trainiert das Zwei-Klassen-SSD-Modell zuerst unter Verwendung des Busdatensatzes, dann wird das Modell verwendet, um die Position der Passagiere in jedem Frame zu erkennen und mit dem Kalman-Filter verfolgt. Schließlich werden entsprechend der Fahrgastbahn die Verkehrsstatistiken des Ein- und Aussteigens von Fahrgästen erstellt. Die Ergebnisse einiger durchgeführter Experimente zeigen, dass der vorgeschlagene Algorithmus für die Fahrgastflussstatistik genauer und robuster ist als herkömmliche Methoden.;-;-;-;https://link.springer.com/article/10.1007/s11042-020-09487-0 193230902b51b04f7c38c400ec811c4d;de;;;7.4.;;;Verwendung neuronaler Netze zur Extraktion von Beziehungen aus biomedizinischer Literatur Die Verwendung verschiedener Informationsquellen zur Unterstützung der automatisierten Extraktion von Beziehungen zwischen biomedizinischen Konzepten trägt zur Entwicklung unseres Verständnisses biologischer Systeme bei. Die wichtigste umfassende Quelle dieser Beziehungen ist die biomedizinische Literatur. Es wurden mehrere Ansätze zur Extraktion von Beziehungen vorgeschlagen, um Beziehungen zwischen Konzepten in der biomedizinischen Literatur zu identifizieren, nämlich die Verwendung von neuronalen Netzwerkalgorithmen. Die Verwendung von Mehrkanalarchitekturen, die aus mehreren Datenrepräsentationen zusammengesetzt sind, wie in tiefen neuronalen Netzen, führt zu Ergebnissen auf dem neuesten Stand der Technik. Die richtige Kombination von Datenrepräsentationen kann uns schließlich zu noch höheren Bewertungswerten bei Relationsextraktionsaufgaben führen. Somit spielen biomedizinische Ontologien eine grundlegende Rolle, indem sie semantische und Abstammungsinformationen über eine Entität bereitstellen. Die Einbindung biomedizinischer Ontologien hat sich bereits als Verbesserung der bisherigen Ergebnisse erwiesen.;-;-;-;https://link.springer.com/protocol/10.1007/978-1-0716-0826-5_14 9613ef2749a90cf7df0838ecf88d47fa;de;;;7.4.;;;Verwendung von Bayes'schen Netzwerken und maschinellem Lernen zur Vorhersage des Informatikerfolgs Bayessche Netzwerke und Techniken des maschinellen Lernens wurden evaluiert und verglichen, um die akademische Leistung von Informatikstudenten an der Universität von Kapstadt vorherzusagen. Bayesian Networks funktionierten ähnlich wie andere Klassifikationsmodelle. Die kausalen Verbindungen, die Bayesschen Netzwerken innewohnen, ermöglichen ein Verständnis der Faktoren, die zum akademischen Erfolg in diesem Bereich beitragen. Zu den effektivsten Erfolgsindikatoren in den „Kern“-Studiengängen der Informatik im ersten Jahr zählten die Noten der Studierenden in Mathematik und Physik sowie ihre Lernfähigkeit und ihre Arbeitsmoral. Es wurde festgestellt, dass erfolglose Schüler identifiziert werden konnten mit;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-05813-5_14 57a0dae4fb387d04ed0a2d59d263d35c;de;;;7.4.;;;Erklärbare und übertragbare Textkategorisierung Die automatische Erkennung von Argumenten (Pro/Contra) ist ein anspruchsvolles Textkategorisierungsproblem, insbesondere wenn diese Argumente für neue Themen erkannt werden sollen. In früheren Forschungen haben wir einen erklärbaren, auf maschinellem Lernen basierenden Klassifikator entworfen und evaluiert. Es war in der Lage, 96 % F1 für die Erkennung von Argumenten innerhalb desselben Themas und 60 % F1 für zuvor nicht gesehene Themen zu erreichen, was unsere Hypothese beeinflusste, dass es bei der Erkennung von Argumenten zwei Merkmale gibt: Allgemeine Merkmale und themenspezifische Merkmale. Ein Vorteil des beschriebenen Systems ist seine schnelle Übertragbarkeit auf neue Problemstellungen. Neben weiteren Details zum entwickelten C3 TFIDF-SVM-Klassifikator untersuchen wir die Effektivität der Klassifikatoren für verschiedene Textkategorisierungsprobleme in zwei natürlichen Sprachen. Neben der schnellen Übertragbarkeit ist die Generierung von menschenlesbaren Erklärungen, warum bestimmte Ergebnisse erzielt wurden, ein wesentliches Merkmal des beschriebenen Ansatzes. Wir untersuchen weiter die generierte Erklärungsverständlichkeit und führen eine Umfrage durch, wie verständlich die Erklärungen des Klassifikators sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-54595-6_1 461e904e3d63bccf4acb8a0d00fc8385;de;;;7.4.;;;Zwanzig Jahre nach dem Turing-Test: Auch über die menschlichen Richter hinausgehen In den letzten 20 Jahren wurde der Turing-Test durch neue Entwicklungen in der Künstlichen Intelligenz weiter hinter sich gelassen. Gleichzeitig haben diese Entwicklungen jedoch einige Schlüsselelemente des Turing-Tests wiederbelebt: Nachahmung und Gegnerschaft. Einerseits bauen viele generative Modelle wie Generative Adversarial Networks (GAN) Nachahmer unter einem kontradiktorischen Setting auf, das stark dem Turing-Test ähnelt (wobei der Richter ein erlerntes diskriminatives Modell ist). Für diese Art der Einstellung wurde der Begriff „Turing-Lernen“ verwendet. Auf der anderen Seite leiden auch KI-Benchmarks unter einer konträren Situation mit einer Bewertungsdynamik „Herausfordern-lösen-und-ersetzen“, wenn menschliche Leistung „nachgeahmt“ wird. Die spezielle KI-Community beeilt sich, den alten Benchmark durch einen anspruchsvolleren Benchmark zu ersetzen, für den die menschliche Leistung immer noch über KI hinausgehen würde. Diese beiden Phänomene im Zusammenhang mit dem Turing-Test sind für eine detaillierte Analyse ausreichend ausgeprägt, wichtig und allgemein. Dies ist das Hauptziel dieses Papiers. Nachdem wir den Abgrund erkannt haben, der jenseits der übermenschlichen Leistung erscheint, bauen wir auf dem Turing-Lernen auf, um zwei verschiedene Bewertungsschemata zu identifizieren: Turing-Tests und kontradiktorische Tests. Wir greifen einige der Schlüsselfragen rund um den Turing-Test auf, wie beispielsweise „Verstehen“, vernünftiges Denken und das Extrahieren von Bedeutung aus der Welt, und untersuchen, wie die neuen Testparadigmen funktionieren sollten, um die Grenzen der aktuellen und zukünftigen KI aufzudecken. Schließlich diskutieren wir, wie Verhaltensähnlichkeitsmetriken verwendet werden könnten, um Taxonomien für künstliche und natürliche Intelligenz zu erstellen. Beide Testschemata sollten einen Übergang vollziehen, in dem Menschen Maschinen weichen sollten – nicht nur als nachzuahmende Referenzen, sondern auch als Richter – bei der Verfolgung und Messung von maschineller Intelligenz.;-;-;-;https://link.springer.com/article/10.1007/s11023-020-09549-0 5ef102fdd3a840650323778921f6a63f;de;;;7.4.;;;Visuelles Data Mining und Discovery in multivariaten Daten mit monotoner n-D-Struktur Visual Data Mining (VDM) ist ein aufstrebendes Forschungsgebiet von Data Mining und Visual Analytics, das ein tiefes visuelles Verständnis von Daten gewinnt. Eine Grenze zwischen Mustern kann visuell erkennbar sein, ihre analytische Form kann jedoch recht komplex und schwer zu entdecken sein. VDM-Methoden haben in vielen Bereichen Vorteile gezeigt, aber diese Methoden scheitern oft daran, stark überlappende mehrdimensionale Daten und Daten mit geringer Variabilität zu visualisieren. Wir gehen dieses Problem an, indem wir visuelle Techniken mit der Theorie der monotonen Booleschen Funktionen und der Datenmonotonisierung kombinieren. Die Hauptneuheit liegt in der visuellen Darstellung struktureller Beziehungen zwischen n-dimensionalen Objekten anstelle der traditionellen Versuche, jeden Attributwert von n-dimensionalen Objekten zu visualisieren. Das Verfahren beruht auf monotonen strukturellen n-D-Beziehungen zwischen Vektoren. Experimente mit realen Daten zeigen die Vorteile dieses Ansatzes, um eine visuelle Grenze zwischen malignen und benignen Klassen aufzudecken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22140-8_20 aaac8a1de19df85e47f6804aeca69d73;de;;;7.4.;;;Data Mining mit granularen linguistischen Zusammenfassungen Das Konzept der linguistischen Zusammenfassungen wird als benutzerfreundliche Möglichkeit zur Präsentation von Informationen aus einer Datenbank eingeführt. Wir diskutieren Methoden zur Messung der Informationsmenge einer linguistischen Zusammenfassung. Die Frage der Vermutung, wie man entscheidet, welche Zusammenfassungen vielleicht aufschlussreich sind, wird diskutiert. Zwei Ansätze, die uns helfen, uns auf relevante Zusammenfassungen zu konzentrieren, werden diskutiert. Die erste, Template-Methode genannt, verwendet verfügbare linguistische Konzepte, die sich auf die Domäne der beteiligten Attribute beziehen. Der zweite Ansatz verwendet die Bergclustering-Methode, um unsere Zusammenfassungen zu fokussieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36519-8_12 d30282a87cadee5ff0a674a9ffd274a3;de;;;7.4.;;;ASV Monitor: Vergleichbarkeit von Machine-Learning-Methoden für die Inhaltsanalyse schaffen In diesem Demonstrationspapier präsentieren wir eine Anwendung zum Vergleich und zur Bewertung von maschinellen Lernmethoden, die für die Verarbeitung natürlicher Sprache in einem Inhaltsanalyse-Framework verwendet werden. Unser Ziel ist es, einen beispielhaften Satz möglicher Ergebnisse des maschinellen Lernens für verschiedene Eingaben bereitzustellen, um die Akzeptanz des Einsatzes von maschinellem Lernen in Umgebungen zu erhöhen, die ursprünglich auf manuelle Behandlung angewiesen sind. Wir werden die Möglichkeit demonstrieren, maschinelle Lernalgorithmen hinsichtlich der Ergebnisse der implementierten Ansätze zu vergleichen. Die Anwendung ermöglicht es dem Benutzer, den Nutzen des Einsatzes von maschinellen Lernalgorithmen für die Inhaltsanalyse durch einen visuellen Vergleich ihrer Ergebnisse zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33486-3_53 94b92b4f6445c73d68006f8f2bc3ee64;de;;;7.4.;;;Lernen aus positiven und nicht gekennzeichneten Beispielen mit Maximum-Margin-Clustering Das Lernen aus positiven und nicht gekennzeichneten Beispielen (LPU) hat sich als ein wichtiges Problem bei Data Mining- und Information Retrieval-Anwendungen herausgestellt. Bestehende Techniken sind nicht ideal für reale Szenarien geeignet, in denen die Datensätze linear untrennbar sind, da sie entweder lineare Klassifikatoren aufbauen oder die nichtlinearen Klassifikatoren nicht die gewünschte Leistung erzielen. In dieser Arbeit schlagen wir vor, die Ideen für das Clustering mit maximaler Marge zu erweitern und ein iteratives Verfahren vorzustellen, um einen nichtlinearen Klassifikator für LPU zu entwerfen. Insbesondere bauen wir einen Kleinste-Quadrate-Unterstützungsvektor-Klassifikator, der aufgrund der Symmetrie seiner Verlustfunktion für die Behandlung dieses Problems geeignet ist. Weiterhin präsentieren wir Techniken zum geeigneten Initialisieren der Markierungen von unmarkierten Beispielen und zum Erzwingen des Verhältnisses von positiven zu negativen Beispielen, während diese Markierungen erhalten werden. Experimente mit realen Datensätzen zeigen, dass der mit dem vorgeschlagenen Ansatz entworfene nichtlineare Klassifikator eine deutlich bessere Generalisierungsleistung bietet als die bestehenden relevanten Ansätze für LPU.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34487-9_56 de865b9d82601cb57805256bed972e1c;de;;;7.4.;;;OPEM: Ein statisch-dynamischer Ansatz für Machine-Learning-basierte Malware-Erkennung Malware ist jede Computersoftware, die potenziell sowohl für Computer als auch für Netzwerke schädlich ist. Die Menge an Malware wächst jedes Jahr und stellt eine ernsthafte globale Sicherheitsbedrohung dar. Die signaturbasierte Erkennung ist die am weitesten verbreitete Methode in kommerzieller Antivirensoftware, erkennt jedoch ständig neue Malware. Überwachtes maschinelles Lernen wurde eingeführt, um dieses Problem zu lösen. Es gibt zwei Arten von Funktionen, die überwachte Malware-Detektoren verwenden: (i) statische Funktionen und (ii) dynamische Funktionen. Statische Features werden extrahiert, ohne das Beispiel auszuführen, während dynamische Features eine Ausführung erfordern. Beide Ansätze haben ihre Vor- und Nachteile. In diesem Papier schlagen wir zum ersten Mal OPEM vor, einen hybriden Detektor für unbekannte Malware, der die Häufigkeit des Auftretens von Betriebscodes (statisch erhalten) mit den Informationen der Ausführungsverfolgung einer ausführbaren Datei (dynamisch erhalten) kombiniert. Wir zeigen, dass dieser hybride Ansatz die Leistung beider Ansätze verbessert, wenn er getrennt ausgeführt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33018-6_28 dbc7e0f464a231b83df53dca720f7e75;de;;;7.4.;;;Die Rolle der Künstlichen Intelligenz in der Robo-Advisory Die Vorhersage des Verbraucherverhaltens und der Finanzmärkte sind zwei der spannendsten Felder im Finanzgeschäft für den Einsatz künstlicher Intelligenz. Beide spannenden Themen finden Sie gleichzeitig im Robo-Advisory. Einerseits ist es für einen Robo-Advisory-Service wichtig, Verbraucher zu verstehen und ihnen individuell optimierte datengetriebene Interaktionen zu ermöglichen. Andererseits müssen die auf den Finanzmärkten verfügbaren Informationen mit modernster Technologie verarbeitet und komprimiert werden, um erstklassige Vermögensverwaltungsdienstleistungen anzubieten. Beide Aspekte werden an praktischen Beispielen der Künstlichen Intelligenz untersucht und Chancen sowie Grenzen der Anwendung dieser Technologie diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-40818-3_11 dc2d6620236414c1106e0dd5287eb7be;de;;;7.4.;;;Auf dem Weg zu einer effektiven Identifizierung von Tweets im Zusammenhang mit Meningitis basierend auf überwachtem maschinellem Lernen Die Epidemieüberwachung erfordert eine schnelle Erfassung und Integration von Daten und Ereignissen im Zusammenhang mit der Krankheit. Angemessene Maßnahmen, einschließlich Aufklärung und Sensibilisierung, müssen rasch ergriffen werden, um die katastrophalen Folgen der Krankheit zu verringern. Entwicklungsländer, insbesondere in Westafrika, haben jedoch mit einem Mangel an Echtzeit-Datenerfassungs- und -analysesystemen zu kämpfen. Diese Situation verzögert die Risikoanalyse und Entscheidungsfindung. Ziel dieser Forschung ist es, einen Beitrag zur Überwachung der Meningitis-Epidemie auf Basis von Twitter-Datensätzen zu leisten. Der Ansatz, den wir in dieser Untersuchung gewählt haben, gliedert sich in zwei Teile. Der erste Teil bestand darin, verschiedene Methoden zu untersuchen, um die Tweet-Daten in numerische Daten umzuwandeln, die in maschinellen Lernalgorithmen für die Klassifikationsaufgaben verwendet werden. Der zweite Schritt besteht darin, diese Ansätze mit verschiedenen Algorithmen zu bewerten und ihre Leistung in Bezug auf Trainingszeit, Genauigkeit, F1-Score und Recall zu vergleichen. Als Ergebnis stellten wir fest, dass der SVM-Maschinenalgorithmus mit einer Genauigkeit von 0,98 unter Verwendung des TF-IDF-Einbettungsansatzes gut abschneidet, während der ANN-Algorithmus mit einer Genauigkeit von 0,95 unter Verwendung des Skip-Gram-Einbettungsmodells gut abschneidet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9343-4_23 062249382f2bafd2ee18f6432971b6b6;de;;;7.4.;;;Erfahrungen in der Modellierung von Information Retrieval mit strukturierten Formalismen und Modallogik Im Jahr 1978 begannen wir mit der Arbeit an Information Retrieval (IR) mit dem PIAF-Prototyp und dem MISTRAL-Projekt. PIAF war ein französischer Analysator für natürliche Sprache, der auf morphologischen Techniken basiert. Ziel war die Integration des PIAF-Systems in das MISTRAL IR-System. Das CONCERTO-Projekt im Jahr 1980 war ein Indexierungsprojekt französischer technischer Dokumente. Wir erkannten damals, dass einige Verbesserungen erforderlich waren, um bessere Ergebnisse in Bezug auf Erinnerung und Präzision zu erzielen, eine effektivere Analyse der natürlichen Sprache und die Verwendung von Thesauri und Benutzerprofilen wurden weiterentwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5617-6_3 62a32630cd5f6a3a84d0647b41a8dd20;de;;;7.4.;;;Zweischichtige Bayes-Klassifikator-Ensembles basierend auf häufigen Itemsets Zahlreiche Modelle wurden vorgeschlagen, um den Klassifikationsfehler von Naive Bayes durch Schwächung der Annahme der Attributunabhängigkeit zu reduzieren, und einige haben eine bemerkenswerte Fehlerleistung gezeigt. In Anbetracht der Tatsache, dass Ensemble-Lernen eine effektive Methode zur Reduzierung des Klassifikationsfehlers des Klassifikators ist, schlägt dieses Papier einen doppelschichtigen Bayes-Klassifikator-Ensemble-Algorithmus (DLBCE) basierend auf häufigen Itemsets vor. DLBCE konstruiert einen zweischichtigen Bayes-Klassifikator (DLBC) für jede häufige Itemmenge, die die neue Instanz enthält, und stellt schließlich alle Klassifikatoren zusammen, indem verschiedenen Klassifikatoren gemäß der bedingten gegenseitigen Information unterschiedliche Gewichtung zugewiesen wird. Die experimentellen Ergebnisse zeigen, dass der vorgeschlagene Algorithmus andere herausragende Algorithmen übertrifft.;-;-;-;https://link.springer.com/article/10.1007/s11633-012-0636-2 eae88902dc3a72fb8f6b42a9261cc48d;de;;;7.4.;;;Ein gemeinsames Tiefenmodell von Entitäten und Dokumenten für kumulative Zitationsempfehlungen Wissensdatenbanken (wie Wikipedia) sind wertvolle Ressourcen menschlichen Wissens, die zu verschiedenen Anwendungen beigetragen haben. Ihre manuelle Pflege verursacht jedoch eine große Verzögerung zwischen ihrem Inhalt und den aktuellen Informationen der Entitäten. Die kumulative Zitationsempfehlung (CCR) konzentriert sich auf die Identifizierung von zitierbaren Dokumenten aus einer großen Menge von Stream-Daten für eine bestimmte Zieleinheit in Wissensdatenbanken. Die meisten früheren Ansätze extrahieren zuerst sorgfältig von Menschen entworfene Funktionen aus Entitäten und Dokumenten und nutzen dann Methoden des maschinellen Lernens wie SVM und Random Forests, um zitierbare Dokumente nach Zielentitäten zu filtern. Es gibt einige Probleme bei handwerklichen Merkmalen für Entitäten und Dokumente: (1) Es handelt sich um einen empirischen Prozess, der Expertenwissen erfordert und daher nicht leicht verallgemeinert werden kann, (2) die Wirksamkeit von menschlich entworfenen Merkmalen hat einen großen Einfluss auf die Leistung, (3) Die Implementierung des Merkmalsextraktionsprozesses ist ressourcenabhängig und zeitaufwendig. In diesem Artikel präsentieren wir ein gemeinsames Deep Neural Network Model of Entities and Documents for CCR, das als DeepJoED bezeichnet wird, um stark verwandte Dokumente für bestimmte Entitäten mit mehreren Neuronenschichten zu identifizieren, indem die Merkmalsextraktion der Entitäten und Dokumente automatisch gelernt und trainiert wird die Netzwerke in einer End-to-End-Weise. Eine umfangreiche Reihe von Experimenten wurde mit dem Benchmark-Datensatz durchgeführt, der im Rahmen der Task Knowledge Base Acceleration (KBA) der Text REtrieval Conference (TREC) im Jahr 2012 bereitgestellt wurde. Die Ergebnisse zeigen, dass das Modell eine deutliche Verbesserung im Vergleich zu den aktuellen Ergebnissen dieses Datensatzes in CCR.;-;-;-;https://link.springer.com/article/10.1007/s10586-017-1273-x 5700d616bd1d7c8871291ae24ab97fd5;de;;;7.4.;;;Visuelles Szenenverständnis für autonomes Fahren mit semantischer Segmentierung Tiefe neuronale Netze sind eine immer wichtigere Technik für das autonome Fahren, insbesondere als visuelle Wahrnehmungskomponente. Der Einsatz in einer realen Umgebung erfordert die Erklärbarkeit und Überprüfbarkeit der das Fahrzeug steuernden Algorithmen. Solche aufschlussreichen Erläuterungen sind nicht nur für Rechts- und Versicherungsfragen relevant, sondern auch für Ingenieure und Entwickler, um nachweisbare funktionale Qualitätsgarantien zu erreichen. Dies gilt für alle Szenarien, in denen die Ergebnisse tiefer Netzwerke potenziell lebensbedrohliche Maschinen kontrollieren. Wir schlagen die Verwendung eines mehrstufigen Ansatzes vor, dessen Hauptbestandteil ein semantisches Segmentierungsmodell ist, gegenüber einem End-to-End-Ansatz für ein autonomes Fahrsystem. Damit ein System sinnvolle Erklärungen für seine Entscheidungen liefern kann, ist es notwendig, die Semantik zu erklären, die es den komplexen sensorischen Inputs, die es wahrnimmt, zuschreibt. Im Kontext hochdimensionaler visueller Eingaben erfolgt diese Zuordnung als pixelweises Klassifizierungsverfahren, das jedem Pixel im Bild eine Objektklasse zuordnet. Dieser Vorgang wird als semantische Segmentierung bezeichnet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-28954-6_15 1cc8ec41154311fe4c30dec21cf3fe34;de;;;7.4.;;;Identifizierung des Ventilzustands mithilfe von Sensoren und Methoden des maschinellen Lernens Prädiktive Wartungsmodelle versuchen, sich entwickelnde Probleme mit Industrieanlagen zu erkennen, bevor sie kritisch werden. In diesem Papier beschreiben wir sowohl überwachte als auch unüberwachte Ansätze zur vorausschauenden Wartung von Unterwasserventilen in der Öl- und Gasindustrie. Der überwachte Ansatz ist für Ventile geeignet, für die eine lange Betriebsgeschichte zusammen mit manuellen Bewertungen des Zustands der Ventile vorhanden ist, während der unüberwachte Ansatz geeignet ist, das Kaltstartproblem bei neuen Ventilen anzugehen, für die wir keine betriebsfähige Geschichte, komm online.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-66770-2_4 c4d724cc1cd25aee49f04cd1de67f4e2;de;;;7.4.;;;Eine Studie über Merkmalsextraktionstechniken für die Stimmungsanalyse Die Sentimentanalyse bezieht sich auf das Studium der systematischen Extraktion der Bedeutung von subjektivem Text. Bei der Analyse von Gefühlen aus dem subjektiven Text mit Techniken des maschinellen Lernens kommt der Merkmalsextraktion eine wichtige Rolle zu. Wir führen eine Studie zur Leistung von Merkmalsextraktionstechniken, TF-IDF (Term Frequency-Inverse Document Frequency) und Doc2vec (Document to Vector) durch, unter Verwendung von Cornell-Filmrezensionsdatensätzen, UCI-Sentiment-Label-Datensätzen, Stanford-Filmrezensionsdatensätzen, um effektiv zu klassifizieren Text in positive und negative Polaritäten um, indem verschiedene Vorverarbeitungsmethoden wie das Eliminieren von Stoppwörtern und die Tokenisierung verwendet werden, was die Leistung der Stimmungsanalyse in Bezug auf Genauigkeit und Zeitaufwand des Klassifikators erhöht. Die nach Anwendung von Merkmalsextraktionstechniken auf die Textsätze erhaltenen Merkmale werden unter Verwendung der Klassifikatoren logistische Regression, Support Vector Machines, K-nächste Nachbarn, Entscheidungsbaum und Bernoulli Naive Bayes trainiert und getestet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1501-5_41 c4a10d6a353a3e702b7a2b5a0420e9a6;de;;;7.4.;;;Integrieren von Positionsinformationen in Deep Belief Networks zur Klassifizierung von Gefühlen Sen Deep Belief Networks (DBNs) haben sich in vielen Bereichen als leistungsfähig erwiesen, einschließlich der Verarbeitung natürlicher Sprache (NLP). Die Klassifikation von Gefühlen hat sowohl in den Ingenieurs- als auch in den akademischen Bereichen viel Aufmerksamkeit erregt. Neben der traditionellen Wortsackdarstellung für jeden Satz werden die Wortpositionsinformationen bei der Eingabe berücksichtigt. Wir schlagen eine neue Wortpositionsbeitragsform und eine neuartige Wort-zu-Segment-Matrixdarstellung vor, um die Positionsinformationen in DBNs zur Sentimentklassifizierung aufzunehmen. Anschließend bewerten wir die Leistung über die Gesamtgenauigkeit. Folglich zeigen unsere experimentellen Ergebnisse, dass die Einbeziehung von Positionsinformationen bei zehn kurzen Textdatensätzen besser abschneidet und auch die Matrixdarstellung effektiver ist als die lineare Positionsbeitragsform, was weiter beweist, dass die Positionsinformationen für Stimmungsanalysen oder andere berücksichtigt werden sollten NLP-Aufgaben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-62701-4_1 d11fb6ab34df3e4fd181d035d3f4193f;de;;;7.4.;;;Ein Vergleich von drei Algorithmen des maschinellen Lernens bei der Klassifizierung von Netzwerkangriffen Intrusion Detection Systems (IDS) bemühen sich, Angriffe auf Computersysteme zu erkennen und zu missbrauchen, indem sie Daten von Computernetzwerken zusammenstellen und untersuchen. Das IDS untersucht normalerweise riesige Verkehrsdaten basierend auf Algorithmen des maschinellen Lernens (ML), um schädliche Änderungen oder Angriffe zu identifizieren. Welcher Algorithmus die beste Leistung zeigen kann, muss jedoch untersucht werden. ML-IDS erfordert eine Verringerung von Fehlalarmen und eine Erhöhung der tatsächlichen Alarmraten. In dieser Arbeit wurden die drei baumbasierten ML-Algorithmen Decision Tree (DT), Decision Jungle (DJ) und Decision Forest (DF) in einem IDS-Modell getestet und evaluiert. Das Hauptziel dieser Arbeit ist es, die Leistung der drei Algorithmen auf der Grundlage von Genauigkeits-, Präzisions- und Erinnerungsbewertungskriterien zu vergleichen. Bei den Tests werden die Knowledge Discovery in Databases (KDD)-Methodik und der Kaggle Intrusion Detection-Datensatz verwendet. Die Ergebnisse zeigen, dass der DF die höchste Gesamtgenauigkeit von 99,83 % erreicht, der DJ die zweithöchste Gesamtgenauigkeit von 99,74 % und der DT die niedrigste Gesamtgenauigkeit von 95,59 %. Die erhaltenen Ergebnisse können als Benchmark bei der Evaluation von fortgeschrittenen IDS dienen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6835-4_21 2b224317895c4aba9b84d85a1a3cee19;de;;;7.4.;;;Systembiologie Seit der Wende zum einundzwanzigsten Jahrhundert hat ein Trend namens „Systembiologie“ seine Entstehung erlebt und beinhaltet die Zusammenführung einer Vielzahl von Disziplinen aus den traditionellen Biowissenschaften, der Informatik und anderen nicht-traditionellen(?) Bereichen, um zu untersuchen, ob oder nicht Modelle können es uns ermöglichen, aufkommende Verhaltensweisen von Systemen zu identifizieren – das Ganze ist mehr als die Summe der Teile – und als Alternative zu reduktionistischeren Studienbereichen. In diesem Kapitel gehen wir kurz auf den Kontext und die Zusammensetzung der Systembiologie ein und hoffen, einen Einblick in diesen spannenden Forschungsschwerpunkt zu geben und wie er uns bei weiteren Entdeckungen in den Lebenswissenschaften helfen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-59745-290-8_11 1d3fd90881b6e72746f7c3f59f8448f5;de;;;7.4.;;;Auto-Encoder-basiertes Wavelet und Extreme Learning Machine für die Gesichtserkennung Gesichtserkennung ist ein beliebtes Thema in der Biometrie. Es hat zunehmendes Interesse gefunden. Gesichtserkennung ist in vielen Anwendungen weit verbreitet. Wie Überwachung, Identifikation im Login-System und personalisierte Technologie. Das Erkennen mehrerer Gesichter in Echtzeit auf dem eingebetteten System ist aufgrund der komplexen Berechnung der Verarbeitung sehr schwierig. Extreme Learning Machine (ELM) hat aufgrund ihrer guten Generalisierungsleistung bei verschiedenen Problemen wie der Gesichtserkennung enormen Erfolg und Aufmerksamkeit als effizienter Lernalgorithmus erlangt. In diesem Beitrag stellen wir eine neue Methode zur Gesichtserkennung vor, die eine Wavelet-Analyse auf Auto-Encoder-Basis und eine extreme Lernmaschine verwendet. Für weitere Details haben wir eine zusammengesetzte Wavelet-Aktivierungsfunktion an den versteckten Knoten von ELM verwendet und der Lernschritt wird durch das Deep ELM durchgeführt. Für die Datenerhebung haben wir die Datenbank Face Recognition Grand Challenge (FRGC) v.2 verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-73050-5_2 4e1555800f225b6788548c8c915bb702;de;;;7.4.;;;Wie kognitive Prozesse uns schlauer machen Cognitive Computing beschreibt die Lerneffekte, die Computersysteme durch Training und durch Interaktion mit Menschen erzielen können. Die Entwicklung solcher Fähigkeiten erfordert große Datensätze, Benutzeroberflächen mit kognitiven Funktionen sowie Schnittstellen zu anderen Systemen, damit Informationen ausgetauscht und sinnvoll verknüpft werden können. In letzter Zeit wurde Cognitive Computing im Business Process Management (BPM) eingesetzt, was die Frage aufwirft, wie Cognitive Computing BPM verändern und sogar einige neue kognitive Ressourcen nutzen kann. Wir glauben, dass die Antwort auf diese Frage mit den versprochenen Lerneffekten verbunden ist, für die wir untersuchen müssen, wie kognitive Prozesse Lerneffekte in BPM ermöglichen. Dazu sammeln und analysieren wir Publikationen zum kognitiven BPM aus Forschung und Praxis. Basierend auf diesen Informationen beschreiben wir das Prinzip der kognitiven Prozessautomatisierung und diskutieren dessen praktische Implikationen mit Fokus auf technische Synergien. Die Ergebnisse werden verwendet, um eine visuelle Forschungslandkarte für kognitives BPM zu erstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37453-2_5 72bc9d92be26c89e05c4e540369bbe26;de;;;7.4.;;;Verwendung des Rotationswaldes für das Proteinfalten-Vorhersageproblem: Eine empirische Studie Jüngste Fortschritte auf dem Gebiet der Mustererkennung haben dazu geführt, dass viele Klassifikationsalgorithmen implementiert wurden, um das Problem der Vorhersage der Proteinfaltung anzugehen. In diesem Beitrag wird eine neu eingeführte Methode namens Rotation Forest zum Aufbau eines Ensembles von Klassifikatoren basierend auf Bootstrap-Sampling und Merkmalsextraktion implementiert und angewendet, um dieses Problem zu lösen. Der Rotationswald ist eine unkomplizierte Erweiterung von Bagging-Algorithmen, die darauf abzielt, die Vielfalt innerhalb des Ensembles durch Merkmalsextraktion mithilfe von Principle Component Analysis (PCA) zu fördern. Wir vergleichen die Leistung der verwendeten Methode mit anderen Meta-Klassifikatoren, die auf Boosting- und Bagging-Algorithmen basieren, wie zum Beispiel: AdaBoost.M1, LogitBoost, Bagging und Random Forest. Experimentelle Ergebnisse zeigen, dass der Rotationswald die Vorhersagegenauigkeit der Proteinfaltung besser verbesserte als die anderen angewendeten Meta-Klassifikatoren sowie die in der Literatur gefundenen früheren Arbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12211-8_19 ba975f0dad34f692de05f7ee13f85ea9;de;;;7.4.;;;Smart Grid State Assessment Methode basierend auf dem historischen Data Mining Mit der Entwicklung des Smart Grids und dem rasanten Wachstum des Netzmaßstabes steht es vor großen Problemen und Herausforderungen, den Betriebszustand der Energieanlagen zeitnah und genau zu beherrschen. In den letzten Jahren verbessert sich die Energieinformatisierung von Tag zu Tag. Die Daten wie die Zustandsüberwachung der Energieanlagen, das Produktionsmanagement, die Betriebsdisposition und die Umweltmeteorologie werden sukzessive integriert und gemeinsam genutzt. Die Big-Data-Technologie bietet eine neue Denkweise und technische Mittel für die Zustandsbewertung von Energieanlagen und die Fehlerdiagnose. Kombiniert mit dem Anwendungsstand der Big-Data-Technologie und der Data-Mining-Analysemethode in der Betriebsmittelzustandsbewertung werden die Bedeutung, der Zweck, die Dateneigenschaften und die Grundstruktur der Big-Data-Analyse des Betriebsmittelzustands erläutert. Die Schlüsseltechnologien der Big-Data-Integration, -Konvertierung, -Reinigung, verteilten Speicherung und Verarbeitung, des effizienten Minings und des datengetriebenen Modells der Gerätezustandsanalyse werden erläutert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3250-4_202 0aca91f822fa0e235396fc6155c4c683;de;;;7.4.;;;Unerwünschte Arzneimittelwirkung erwähnt Extraktion aus Arzneimitteletiketten: eine experimentelle Studie Unerwünschte Arzneimittelwirkungen (UAW), unbeabsichtigte und manchmal gefährliche Wirkungen eines Arzneimittels, sind ein ernstes Gesundheitsproblem und eine der häufigsten Todesursachen. Daher ist es von entscheidender Bedeutung, UAW richtig und rechtzeitig anhand der Arzneimitteletiketten zu identifizieren. In diesem Artikel untersuchen wir sowohl maschinelle Lern- als auch Deep-Learning-Ansätze, um die Erwähnung von Nebenwirkungen und Modifikatorbegriffe wie Negation, Schweregrad und Arzneimittelklasse aus Arzneimitteletiketten zu extrahieren. Wir untersuchten Conditional Random Fields (CRF) als Methode des maschinellen Lernens und sowohl das Recurrent Neural Network (RNN) als auch das Bidirektionale Recurrent Neural Network (Bi-RNN) als Deep-Learning-Methoden. Diese Verfahren werden häufig in der biomedizinischen Erkennung benannter Entitäten verwendet. Experimentelle Auswertungen, die an den öffentlich zugänglichen Datensätzen SPL-ADR-200db durchgeführt wurden, die von der TAC 2017 ADRs Challenge bereitgestellt wurden, zeigen, dass Bi-RNN im Vergleich zu RNN und CRF gute Leistungen erzielt. Bi-RNN übertrifft RNN und CRF um durchschnittlich 4% bzw. 4,7% in Bezug auf den F1-Score.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-11884-6_21 727feb5a29e0aa02556bd3e2dc6e567d;de;;;7.4.;;;Computational Awareness für Smart Grid: ein Rückblick Smart Grid war in den letzten Jahren ein aktives Forschungsgebiet, da fast alle Technologien, die zum Aufbau von Smart Grids erforderlich sind, ausgereift genug sind. Es wird erwartet, dass Smart Grid nicht nur den Stromverbrauch senken kann, sondern auch einen zuverlässigeren und vielseitigeren Service bieten kann als das herkömmliche Stromnetz. Obwohl die Infrastruktur von Smart Grids weltweit noch lange nicht fertig ist, besteht kein Zweifel daran, dass unser tägliches Leben stark von Smart Grid profitieren wird. Daher zielen viele Forschungen darauf ab, die Herausforderungen und Bedürfnisse des zukünftigen Smart Grids aufzuzeigen. Die Frage ist, wie wir die riesigen Datenmengen, die von Smart Metern erfasst werden, nutzen, um möglichst „smarte“ Dienste bereitzustellen, anstatt nur Informationen aus den Zählern automatisch auszulesen. Dieses Papier beginnt mit einer Diskussion über das Smart Grid, bevor wir uns dem grundlegenden Rechenverständnis für Smart Grid zuwenden. Anschließend wird ein kurzer Überblick über Data-Mining- und Machine-Learning-Technologien für Smart Grid gegeben, die häufig für Computational Awareness verwendet werden, um deren Potenziale weiter zu erläutern. Abschließend werden Herausforderungen, Potenziale, offene Fragen und Zukunftstrends des Smart Grid angesprochen.;-;-;-;https://link.springer.com/article/10.1007/s13042-013-0185-1 c81a952adcbdc9de02c3ac08640b38ef;de;;;7.4.;;;Auto-Classifier: Ein robuster Defektdetektor basierend auf einem AutoML-Kopf Der vorherrschende Ansatz zur Erkennung von Oberflächendefekten ist die Verwendung von handgefertigten merkmalsbasierten Methoden. Dies ist jedoch zu kurz, wenn die Bedingungen variieren, die sich auf die extrahierten Bilder auswirken. Daher haben wir in diesem Artikel versucht zu bestimmen, wie gut mehrere moderne Convolutional Neural Networks bei der Erkennung von Oberflächendefekten abschneiden. Darüber hinaus schlagen wir zwei Methoden vor: CNN-Fusion, das die Vorhersage aller Netzwerke zu einer endgültigen zusammenführt, und Auto-Classifier, ein neuartiger Vorschlag, der ein Convolutional Neural Network verbessert, indem seine Klassifikationskomponente mit AutoML modifiziert wird. Wir haben Experimente durchgeführt, um die vorgeschlagenen Methoden in der Aufgabe der Oberflächendefektdetektion mit verschiedenen Datensätzen aus DAGM2007 zu evaluieren. Wir zeigen, dass die Verwendung von Convolutional Neural Networks bessere Ergebnisse erzielt als herkömmliche Methoden und auch, dass Auto-Classifier alle anderen Methoden übertrifft, indem 100 % Genauigkeit und 100 % AUC-Ergebnisse in allen Datensätzen erreicht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63830-6_12 134bcaa0538e19a21b390bb964e9e7f5;de;;;7.4.;;;Unterstützen Sie die Vektormaschinelle Klassifizierung von Proteinsequenzen in funktionelle Familien basierend auf der Motivauswahl In dieser Studie werden Proteinsequenzen mithilfe von maschinellen Lernverfahren funktionellen Familien zugeordnet. Die Zuweisung basiert auf der Klassifikation von binären Merkmalsvektoren, die das Vorhandensein oder Fehlen von hochkonservierten Sequenzen von Aminosäuren, den Motiven genannt, im Protein durch Support-Vektor-Maschinen klassifizieren. Da die Eingangsvektoren des Klassifikators aus einer großen Anzahl von Motiven bestehen, werden Merkmalsauswahlalgorithmen angewendet, um die diskriminierendsten auszuwählen. Es wurden drei Auswahlalgorithmen berücksichtigt, die in die Support-Vektor-Maschinenarchitektur eingebettet sind. Die eingebetteten Algorithmen ermöglichten neben der Darstellung der Recheneffizienz eine Rangordnung der ausgewählten Merkmale. Die experimentelle Auswertung zeigte die Nützlichkeit des oben genannten Ansatzes, während das individuelle Ranking für die drei Auswahlalgorithmen eine signifikante Übereinstimmung zeigte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33409-2_4 a7db5b2796473de7b7d7f445ae60da47;de;;;7.4.;;;Reduzierung des Bedarfs an manuell annotierten Datensätzen bei der Aspekt-Sentiment-Klassifizierung durch Transferlernen und schwache Supervision Die Meinungen der Benutzer können bei der Entwicklung und Bereitstellung von Produkten und Dienstleistungen sowie bei der Verbesserung von Marketingtechniken zur Kundenempfehlung und -bindung von großem Nutzen sein. Aus diesem Grund erhalten Sentiment-Analysealgorithmen, die automatisch Sentiment-Informationen aus Kundenbewertungen extrahieren, zunehmende Aufmerksamkeit in der Informatik-Community. Die aspektbasierte Sentimentanalyse (ABSA) ermöglicht ein detaillierteres Verständnis der Kundenmeinungen, da sie es ermöglicht, Sentimentpolaritäten zusammen mit dem Sentimentziel aus Sätzen zu extrahieren. ABSA besteht aus zwei Schritten: Aspect Extraction (AE), die das Erkennen des Zielsentiments ermöglicht, Aspect Sentiment Classification (ASC), die es ermöglicht, die Stimmungspolarität zu klassifizieren. Derzeit basieren die meisten verbreiteten Sentiment-Analysealgorithmen auf Deep Learning. Solche Algorithmen erfordern große beschriftete Datensätze, deren Erstellung extrem teuer und zeitaufwändig ist. In diesem Beitrag stellen wir zwei Ansätze vor, die auf Transferlernen bzw. schwacher Supervision basieren. Beide haben das Ziel, den manuellen Aufwand zum Erstellen annotierter Datensätze für das ASC-Problem zu reduzieren. In der Arbeit beschreiben wir die beiden Ansätze und vergleichen sie experimentell.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71158-0_21 48243d9568f98af39fb1232c3b350644;de;;;7.4.;;;Neuartiger Ansatz zur Vorhersage des Wiedergewinnungsfaktors der Wasserwechselgasinjektion Das Wasser-Wechselgas-(WAG)-Injektionsverfahren ist eine bewährte EOR-Technologie, die weltweit in vielen Bereichen erfolgreich eingesetzt wird. Die Leistung des WAG-Prozesses wird durch seinen inkrementellen Recovery-Faktor gegenüber dem sekundären Recovery-Faktor gemessen. Die Anwendung dieser Technologie bleibt aufgrund der Komplexität des WAG-Injektionsverfahrens begrenzt, das zeitaufwändige eingehende technische Studien erfordert. Diese Forschung wurde mit dem Ziel durchgeführt, ein Vorhersagemodell für den inkrementellen Gewinnungsfaktor von WAG basierend auf einem integrierten Ansatz zu entwickeln, der Lagerstättensimulation und Data Mining umfasst. Tausend Reservoir-Simulationsmodelle wurden entwickelt, um die WAG-Injektionsleistung über Wasserfluten zu bewerten. Die Parameter des Reservoirmodells, die in dieser Forschungsstudie bewertet wurden, waren horizontale und vertikale Permeabilitäten, Fluideigenschaften, WAG-Injektionsschema, Fluidmobilität, eingeschlossene Gassättigung, Lagerstättendruck, Restölsättigung zu Gas und injiziertes Gasvolumen. Das Ergebnis der WAG-Simulationsmodelle wurde in die zwei ausgewählten Data-Mining-Techniken, Regression und Gruppenmethode der Datenverarbeitung (GMDH), eingespeist, um das Vorhersagemodell des WAG-Inkrementellen Wiederherstellungsfaktors zu erstellen. Die Eingabedaten für die maschinelle Lerntechnik wurden in zwei Sätze aufgeteilt: 70 % für das Training des Modells und 30 % für die Modellvalidierung. Es wurden Vorhersagemodelle entwickelt, die den inkrementellen WAG-Wiederherstellungsfaktor als Funktion der Eingabeparameter berechnen. Der Korrelationskoeffizient der Vorhersagemodelle von 0,766 und 0,853 und der quadratische Fehler von 3,571 und 2,893 wurden mit Regressions- bzw. GMDH-Methoden erreicht. Die GMDH-Technik demonstrierte ihre Stärke und Fähigkeit bei der Auswahl effektiver Prädiktoren, der Optimierung der Netzwerkstruktur und der Erzielung genauerer Vorhersagemodelle. Die erzielten Vorhersagemodelle für den inkrementellen Gewinnungsfaktor von WAG sollen den Lagerstätteningenieuren dabei helfen, eine schnelle Bewertung der WAG-Leistung durchzuführen und ein WAG-Projektrisiko zu bewerten, bevor detaillierte zeitaufwändige und kostspielige technische Studien eingeleitet werden.;-;-;-;https://link.springer.com/article/10.1007/s13202-019-0673-2 4d6fa9c54dc92c8c7e4d9f6d49824ed1;de;;;7.4.;;;Beobachtungslogik integriert Data Mining basierend auf Statistiken und neuronalen Netzen Network Im Data Mining sind künstliche neuronale Netze zu einem wichtigen Konkurrenten traditioneller statistischer Verfahren geworden. Sie erhöhen das Potenzial, nützliches Wissen in Daten zu entdecken, aber nur, wenn die Unterschiede zwischen beiden Arten von Methoden gut verstanden werden. Daher sind integrative Rahmenbedingungen dringend erforderlich. In diesem Beitrag wird ein auf dem Kalkül der Beobachtungslogik basierender Rahmen vorgestellt. Es werden grundlegende Konzepte dieses Rahmens skizziert und erklärt, wie verallgemeinerte Quantifizierer in einem Beobachtungskalkül definiert werden können, um Data Mining mit statistischen und KNN-basierten Methoden zu erfassen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45372-5_48 270baa9f738022c5944ce444a3dcbea4;de;;;7.4.;;;Die Entwicklung des induktiven Datenbanksystems VINLEN: Ein Überblick über die aktuelle Forschung Aktuelle Forschungen zum induktiven Datenbanksystem VINLEN werden kurz zusammengefasst und durch ausgewählte Ergebnisse illustriert. Ziel der Forschung zu VINLEN ist die Entwicklung einer Methodik zur tiefen Integration einer Vielzahl von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36562-4_28 4500b835f57e38e5be157f732340a912;de;;;7.4.;;;Bildzugriff und Data Mining: Ein Ansatz In diesem Beitrag schlagen wir einen Ansatz vor, der automatisch visuelle Beziehungen entdeckt, um den Bildzugriff leistungsfähiger zu machen. Die Blickbeziehungen werden automatisch aus Bildern ermittelt. Sie sind statistische Regeln in Form von a a-b, was bedeutet: Wenn das visuelle Merkmal „a“ in einem Bild wahr ist, dann ist das visuelle Merkmal „b“ im selben Bild mit einem Genauigkeitswert wahr. Die Regeln betreffen Symbole, die aus numerischen Bildmerkmalen extrahiert werden. Die Transformation von numerischen Bildmerkmalen in symbolische Bildmerkmale erfordert ein visuelles Merkmalsbuch, in dem jedes Buchmerkmal der Schwerpunkt ähnlicher Merkmale ist. Der Ansatz präsentiert den Clustering-Algorithmus, der das Feature-Book erstellt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45372-5_39 d466f041f7881ad239dbe8a8260f0418;de;;;7.4.;;;Video Intelligence als Komponente eines globalen Sicherheitssystems Dieses Papier beschreibt die Entwicklung unserer Forschung von der Videoanalyse zu einem globalen Sicherheitssystem mit Schwerpunkt auf der Videoüberwachungskomponente. Tatsächlich hat sich die Videoüberwachung von einem Standard-Sicherheitstool zur effizientesten Methode zur Verfolgung von Tätern entwickelt, wenn der Terrorismus unsere modernen urbanen Zentren trifft. Da die Zahl der Kameras steigt, könnte man erwarten, dass das System die riesige Datenmenge, die durch die Videostreams übertragen wird, nutzt, um einen schnellen Zugriff auf Videobeweise, umsetzbare Intelligenz zur Überwachung von Echtzeitereignissen und Vorhersagekapazitäten zur Unterstützung der Bediener bei ihren Überwachungsaufgaben zu ermöglichen . Diese Forschung untersucht eine hybride Plattform für die Erfassung von Videointelligenz, automatisierte Datenextraktion, überwachtes maschinelles Lernen für intelligent unterstützte städtische Videoüberwachung. Die Erweiterung auf andere Komponenten eines globalen Sicherheitssystems wird diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29904-0_10 d1ee95122962699e1524278493ceb01f;de;;;7.4.;;;Algorithmische Kultur und Kulturvermittlung Dieses Kapitel befasst sich mit automatisierten Mediensystemen und untersucht die Rolle der kulturellen Vermittlung auf Algorithmen als eine Form der digitalen Vermittlung. Zu Beginn bietet dieses Kapitel einen Einblick in automatisierte Medien- und Kultursysteme und die Art der Auswirkungen, die mit dieser Arena der künstlichen Intelligenz und Algorithmen verbunden sind. Dieses Kapitel bietet einen umfassenden Überblick über Netzwerke und die Analyse sozialer Netzwerke als Methode, um zu verstehen, wie menschliche und nicht-menschliche Agenten in großen sozialen Medienräumen agieren. Anschließend geht es in Richtung einer praktischeren Erklärung, wie Daten erfasst und analysiert werden können, um Muster und Interessengebiete innerhalb der Social-Media-Kommunikation aufzudecken. Schließlich geht dieses Kapitel darauf ein, die digitale Vermittlung als eine Kombination aus kultureller Vermittlung und groß angelegter Datenwissenschaft als Ansatz zu verstehen, um auf modernen Social-Media-Plattformen für eine ethische Kommunikation über zukünftige Medienökologien hinweg effizient und effektiv zu arbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-66287-9_9 b95e62a298b66ab4cc26596af2003c49;de;;;7.4.;;;Zuweisen von Polaritätsbewertungen zu Bewertungen mithilfe von Techniken des maschinellen Lernens Wir schlagen eine neuartige Art von Dokumentenklassifizierungsaufgabe vor, die quantifiziert, wie sehr ein gegebenes Dokument (Rezension) das Zielobjekt schätzt, indem nicht binäre Polarität verwendet wird (;-;-;-;https://link.springer.com/chapter/10.1007/11562214_28 a0bdd7ddde408c2e313a2b27d5e8a8f8;de;;;7.4.;;;Auf maschinellem Lernen basierende Erkennung von urbanen Veränderungen durch Fusion von hochauflösenden Luftbildern und Lidar-Daten Kartendatenbanken leiden in der Regel unter veralteten Szenendetails aufgrund häufig auftretender Änderungen, daher ist eine automatische Änderungserkennung unerlässlich geworden. Im Allgemeinen erfolgt die Änderungserkennung durch Spektralanalyse von mehrzeitlichen Bildern, ohne Höheninformationen einzubeziehen. In diesem Artikel beschreiben wir eine Methode zur Erkennung von urbanen Veränderungen durch die Fusion von hochauflösenden Luftbildern mit luftgestützten Lidar-Daten, die Höheninformationen liefern. Um mit radiometrischen Unterschieden umzugehen, werden drei überwachte Lernalgorithmen eingeführt, die den Bedarf an radiometrischen Korrekturen reduzieren. Für jeden Algorithmus werden drei Experimente mit unterschiedlichen Trainingssätzen durchgeführt, um ihre Leistung bei der Erkennung von Änderungen und ihre Empfindlichkeit gegenüber unausgeglichenen und verrauschten Datensätzen zu bewerten. Alle Algorithmen werden auch mit der Standard-PCA-Methode verglichen. Experimentelle Ergebnisse demonstrieren die Leistungsfähigkeit dieser Methoden und eine detaillierte theoretische Analyse der erzielten Ergebnisse wird ebenfalls vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45025-9_51 a9dbb25dd62ca39eaa8681d94b3f05c4;de;;;7.4.;;;Verteiltes Data Mining in Sensornetzwerken Drahtlose Sensornetzwerke (WSNs) bestehen aus einer Sammlung von kostengünstigen und stromsparenden Sensorgeräten, die über ein drahtloses Ad-hoc-Netzwerk miteinander kommunizieren können. Aufgrund ihrer schnellen Verbreitung werden Sensornetzwerke derzeit in einer Vielzahl von Anwendungen wie Geowissenschaften, Systemgesundheit, militärische Anwendungen usw. eingesetzt. Diese Sensoren sammeln die Daten über die Umwelt und diese Daten können für eine Vielzahl von Analysen gewonnen werden. Leider verursacht die Nachanalyse der aus dem WSN extrahierten Daten hohe Sensorkommunikationskosten für das Senden der Rohdaten an die Basisstation und birgt gleichzeitig das Risiko einer verzögerten Analyse. Um dies zu überwinden, haben Forscher mehrere verteilte Algorithmen vorgeschlagen, die mit den Daten in situ umgehen können – diese Data-Mining-Algorithmen nutzen die Rechenleistung an jedem Knoten, um zuerst einige lokale Berechnungen durchzuführen und dann Nachrichten mit seinen Nachbarn auszutauschen, um einen Konsens über a globales Modell. Diese Algorithmen reduzieren die Kommunikationskosten erheblich und sind zudem äußerst effizient in Bezug auf Modellberechnung und Ereigniserkennung. In diesem Kapitel konzentrieren wir uns auf solche verteilten Data-Mining-Algorithmen für Datenclustering, Klassifizierung und Ausreißererkennung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-6309-2_8 39d6acd0bff50babe26f4413aa0b7faa;de;;;7.4.;;;Ein verbesserter EDV-Algorithmus für den Datenschutz beim Data Mining In diesem Papier schlagen wir einen verbesserten Pruning-Algorithmus mit Speicher vor, den wir als verbesserten EDP-Algorithmus bezeichnen. Diese Methode bietet den besseren Kompromiss zwischen Datenqualität und Datenschutz gegen Klassifizierungsangriffe. Der vorgeschlagene Algorithmus reduziert den Zeitkomplexitätsgrad erheblich, insbesondere im Fall des vollständigen Binärbaums, dessen Zeitkomplexität im ungünstigsten Fall der Ordnung O(;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23605-1_27 d978ce5dd7d69edcf89f3154c1d1bfbe;de;;;7.4.;;;Erkennung von Spam-Verhalten basierend auf Session Layer Data Mining Zur Lösung des wachsenden Spam-Problems werden verschiedene Ansätze vorgestellt. Die meisten dieser Ansätze sind jedoch unflexibel, um sich dynamisch an Spam anzupassen. Dieses Papier schlägt einen neuartigen Ansatz zur Spambekämpfung vor, der auf der Erkennung des Spam-Verhaltens basiert, wobei der Entscheidungsbaum verwendet wird, der aus den während der Übertragungssitzungen gepflegten Daten gelernt wird. Es wird eine Klassifizierung nach E-Mail-Übertragungsmustern erstellt, die es normalen Servern ermöglicht, bösartige Verbindungen vor der Zustellung des E-Mail-Textes zu erkennen, was viel dazu beiträgt, durch Spam verschwendete Netzwerkbandbreite zu sparen. Es entsteht ein integriertes Anti-Spam-Framework, das die Verhaltensklassifikation mit einer Bayesschen Klassifikation kombiniert. Experimente zeigen, dass die Verhaltensklassifizierung eine hohe Präzisionsrate mit einer akzeptablen Rückrufrate unter Berücksichtigung ihrer Bandbreiteneinsparungsfunktion aufweist. Der integrierte Filter hat eine höhere Recall-Rate als jedes der Submodule, und die Präzisionsrate bleibt ziemlich nahe an der Bayes-Klassifikation.;-;-;-;https://link.springer.com/chapter/10.1007/11881599_160 5f57116dfdc0bbe809ce9a341d44fcd2;de;;;7.4.;;;Die Forschung zu Fuzzy Data Mining, das auf Browserdatensätze angewendet wird Mit dem technologischen Fortschritt ist das Internet ein wichtiger Bestandteil des täglichen Lebens geworden. Staatliche Institutionen und Unternehmen neigen dazu, über das Internet zu werben und zu vermarkten. Mit den Reiseaufzeichnungen von Browsern kann man die Präferenzen von Webseiten analysieren, die Anforderungen der Verbraucher besser verstehen und Werbung und Marketing fördern. In dieser Studie verwenden wir den Maximum Forward Reference (MFR)-Algorithmus, um das Reisemuster von Browsern aus Weblogs zu finden. Gleichzeitig werden Experten gebeten, die Fuzzy-Bedeutungsgewichtungen für verschiedene Webs zu bewerten. Schließlich verwenden wir eine Fuzzy-Data-Mining-Technik, die einen Apriori-Algorithmus mit Fuzzy-Gewichten kombiniert, um die Assoziationsregeln zu bestimmen. Aus den gewonnenen Assoziationsregeln kann man genau erkennen, welche Informationen die Verbraucher benötigen und welche Webs sie bevorzugen. Dies ist für staatliche Institutionen und Unternehmen wichtig. Mit dieser Studie können Unternehmen die kommerziellen Möglichkeiten finden und das Design von Webs verbessern. Staatliche Institutionen können die Bedürfnisse der Menschen aus den erhaltenen Vereinsregeln erkennen, die Politikförderung effizienter gestalten und bessere Dienstleistungen erbringen.;-;-;-;https://link.springer.com/chapter/10.1007/11527503_63 bb8b60b65d91399c3997201e54b00c28;de;;;7.4.;;;Gehirn-inspirierte Hardware für künstliche Intelligenz: Beschleunigtes Lernen in einem physikalisch modellierten neuronalen Netzwerk Zukünftige Entwicklungen in der künstlichen Intelligenz werden von der Existenz neuartiger, nicht-traditioneller Substrate für gehirninspiriertes Computing profitieren. Neuromorphe Computer zielen darauf ab, ein solches Substrat bereitzustellen, das die Fähigkeiten des Gehirns in Bezug auf die adaptive, energiesparende Informationsverarbeitung reproduziert. Wir präsentieren Ergebnisse eines Prototyp-Chips des BrainScaleS-2 gemischt-signal-neuromorphen Systems, das einen physikalischen Modellansatz mit einer 1000-fachen Beschleunigung der Spiking-Dynamik neuronaler Netze relativ zur biologischen Echtzeit verfolgt. Mit dem eingebetteten Plastizitätsprozessor simulieren wir sowohl das Pong-Arcade-Videospiel als auch eine lokale Plastizitätsregel, die Reinforcement Learning ermöglicht, sodass das neuronale Netzwerk auf dem Chip lernen kann, das Spiel zu spielen. Das Experiment demonstriert Schlüsselaspekte des verwendeten Ansatzes, wie beschleunigtes und flexibles Lernen, hohe Energieeffizienz und Widerstandsfähigkeit gegenüber Lärm.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30487-4_10 2e4b7d5d58cd29e2d5ade8cc2ee77cac;de;;;7.4.;;;Auf dem Weg zum Wissen In diesem Kapitel beschreiben wir unsere Erfahrungen mit dem Durchsuchen einer großen multirelationalen Datenbank von Verkehrsunfallberichten. Wir haben eine Reihe von Data-Mining-Techniken auf diesen Datensatz angewendet, darunter Text-Mining, Clustering von Zeitreihen, Subgruppen-Erkennung, multirelationales Data-Mining und Assoziationsregel-Lernen. Wir beschreiben auch eine kollaborative Data-Mining-Herausforderung für einen Teil des Datensatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-0286-9_12 ed505f1cebb6fed69854d2c9226eecb2;de;;;7.4.;;;Strukturelle Schadenserkennung mit Deep Convolutional Neural Network und Transfer Learning Während des langfristigen Betriebs von Hydro-Junction-Infrastrukturen führt die Wasserströmungserosion dazu, dass Betonoberflächen reißen, was zu Versickerung, Abplatzungen und Bewehrungsfreilegung führt. Um die Sicherheit der Infrastruktur zu gewährleisten, ist die Erkennung solcher Schäden von entscheidender Bedeutung. Wir schlagen eine hochpräzise Schadenserkennungsmethode vor, die ein tief gefaltetes neuronales Netzwerk mit Transferlernen verwendet. Zuerst haben wir mit einer hochauflösenden Kamera Bilder von der Hydro-Junction-Infrastruktur gesammelt. Zweitens haben wir die Bilder mit einer Bilderweiterungsmethode vorverarbeitet. Schließlich haben wir die Struktur von Inception-v3 modifiziert und das Netzwerk mithilfe von Transfer-Learning trainiert, um Schäden zu erkennen. Die Experimente zeigen, dass die Genauigkeit des vorgeschlagenen Schadenserkennungsverfahrens mit 96,8 % deutlich höher ist als die Genauigkeit einer Support Vector Machine. Die Ergebnisse zeigen, dass unsere Schadenserkennungsmethode eine bessere Schadenserkennungsleistung erzielt.;-;-;-;https://link.springer.com/article/10.1007/s12205-019-0437-z bfa1a93c215c771752428d10e232e96f;de;;;7.4.;;;Vergleichende Leistung von Machine-Learning-Algorithmen zur Fake-News-Erkennung Die automatische Erkennung von Fake News, die sich negativ auf Einzelpersonen und die Gesellschaft auswirken könnten, ist ein aufstrebendes Forschungsgebiet, das weltweite Aufmerksamkeit erregt. Das Problem wurde in diesem Beitrag aus der Perspektive der natürlichen Sprachverarbeitung und des maschinellen Lernens angegangen. Die Auswertung erfolgt für drei Standarddatensätze mit neuartigen Merkmalen aus den Schlagzeilen und den Inhalten. Die Leistungen von sieben maschinellen Lernalgorithmen in Bezug auf Genauigkeiten und F1-Werte werden verglichen. Gradient Boosting übertraf andere Klassifikatoren mit einer mittleren Genauigkeit von 88 % und einem F1-Score von 0,91.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9942-8_40 353f52d66f4469a98257d94a3c0795ac;de;;;7.4.;;;Machine-Learning-Algorithmen für die systematische Überprüfung: Reduzierung des Arbeitsaufwands bei einer präklinischen Überprüfung von Tierstudien und Reduzierung von Screening-Fehlern beim Menschen Hier skizzieren wir eine Methode zur Anwendung bestehender Ansätze des maschinellen Lernens (ML) zur Unterstützung des Zitationsscreenings in einer fortlaufenden breiten und flachen systematischen Überprüfung präklinischer Tierstudien. Ziel ist es, einen dem Humanscreening vergleichbaren, leistungsfähigen Algorithmus zu erreichen, der den Personalaufwand für diesen Schritt eines systematischen Reviews reduzieren kann.;-;-;-;https://link.springer.com/article/10.1186/s13643-019-0942-7 bdaa87ae204386939d9fe2be00912c83;de;;;7.4.;;;Verbesserung der ModSecurity WAF mit Methoden des maschinellen Lernens Web Application Firewall (WAF) ist eine Sicherheitstechnologie, die dazu beiträgt, häufige Angriffe in Webanwendungen abzuschwächen und zu verhindern. Als Barriere zwischen dem Webserver und dem Benutzer (möglicherweise einem Angreifer) konzipiert, analysiert, erkennt und warnt die WAF frühzeitig vor möglichen Angriffen. Die aktuellen Techniken zur Erkennung von Webanwendungsangriffen basieren jedoch noch immer hauptsächlich auf verfügbaren Angriffssignaturen. Diese Methode hat den Vorteil, dass sie in den meisten Fällen einfach und leicht anzuwenden ist, eine typische Implementierung dieser Methode ist ModSecurity (;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4370-2_7 9fbc5e76afee73aa4a3b26de7ed41f12;de;;;7.4.;;;Analyse des UNSW-NB15-Datensatzes mit Klassifikatoren für maschinelles Lernen Benchmark-Datensätze sind das unverzichtbare Werkzeug, um Schwachstellen und Tools in der Netzwerksicherheit zu untersuchen. Aktuellen Datensätzen fehlt die Korrelation zwischen normalem und Echtzeit-Netzwerkverkehr. Hinter jeder Auswertung und Etablierung der Angriffserkennung sind solche Datensätze der Eckpfeiler der Forschungsgemeinschaft. Einen eigenen Datensatz zu erstellen ist eine Herkulesaufgabe. Daher hilft die Analyse der vorhandenen Datensätze, um eine gründliche Klarheit über die Wirksamkeit beim Einsatz in Echtzeitumgebungen zu schaffen. Diese Papierarbeit konzentriert sich auf die Analyse und den Vergleich von UNSW-NB15 mit NSL-KDD-Datensätzen basierend auf Leistungsanalyse und Genauigkeit unter Verwendung von Klassifikatoren für maschinelles Lernen. Durchführbarkeit, Zuverlässigkeit und Verlässlichkeit des Datensatzes werden überprüft und diskutiert, indem verschiedene Leistungsmaße wie Präzision, Rückruf, F-Score, Spezifität mit verschiedenen maschinellen Lernklassifikatoren Nave Bayes, Logistic Regression, SMO, J48 und Random Forest berücksichtigt werden. Experimentelle Ergebnisse zeigen seine bemerkenswerte Klassifikationsgenauigkeit von 0,99, wobei der Random Forest-Klassifikator 0,998 Recall bzw. Spezifität 0,999 aufweist. Forschungsstudien zeigen, dass die Bedrohungsdiagnose mit herkömmlichen Datensätzen und ausgefeilten Technologien nur 25 % der Bedrohungstaxonomie abdeckt und damit die schlechte Leistung bestehender Intrusion Detection-Systeme. Eine gründliche Analyse und Erkundung des Datensatzes wird den Weg für die herausragende Leistung des intelligenten Intrusion Detection Systems ebnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0419-5_16 5a864d3681f0da9b460635ae67da307d;de;;;7.4.;;;Vorhersage der Diabeteserkrankung mithilfe des Modells des maschinellen Lernens Laut den Statistiken der Weltgesundheitsorganisation leiden weltweit vierhundertzweiundzwanzig Millionen Menschen an Diabetes, was die Zahl der Todesopfer auf 1,6 Millionen pro Jahr erhöht hat. Dieser beispiellose Anstieg der Fallzahlen und der Verletzten hat zu einer alarmierenden Situation geführt, da die Datenstatistik einen signifikanten Anstieg der Diabetesfälle bei der jungen Bevölkerung im Alter von 18 Jahren darstellt. Diabetes führt zu verschiedenen Gesundheitsrisiken wie Nierenfunktionsstörungen, Herz-Kreislauf-Problemen, Zerstückelung der unteren Gliedmaßen und Retinopathie. In diesem Artikel wird ein Modell zur Vorhersage von Diabetes mithilfe von maschinellem Lernen aufgebaut. Die überwachten maschinellen Lernalgorithmen, die für Vorhersagemodelle wie Entscheidungsbaum, Naive Bayes, künstliches neuronales Netzwerk und logistische Regression verwendet werden. Darüber hinaus wurde der Vergleich dieser Methoden basierend auf verschiedenen Leistungsparametern wie Genauigkeit, Erinnerung, Präzision und F-Score durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4909-4_53 869532c7ef33209dc67d5ac818bf38bc;de;;;7.4.;;;Spurhalteassistent für ein autonomes Fahrzeug mit Unterstützungsvektor-Maschinenlernalgorithmus Autonome selbstfahrende Fahrzeuge gewinnen zunehmend an Aufmerksamkeit und dies wäre die zukünftige Anforderung im Automobilbereich. Ausfallsicheres Fahren ist jedoch die einzige Lösung, um die Unfallrate zu senken, und das macht die fahrerlosen Fahrzeuge zu einem möglichen. Bei von Menschenhand bedienten Fahrzeugen kann durch den Einsatz des Advance Driver Authorization System (ADAS) ein unfallfreies Fahren gewährleistet werden. Dieser Beitrag konzentriert sich auf eine der Möglichkeiten, durch den Einsatz eines neuartigen Lane Keep Assist (LKA)-Systems zum unfallfreien Fahren autonomer Fahrzeuge beizutragen. Im vorgeschlagenen LKA-System wurde ein Algorithmus für maschinelles Lernen verwendet, um die Fahrspur der autonomen Fahrzeuge zu verfolgen, indem die erforderlichen Eingaben bereitgestellt werden. Das vorgeschlagene LKA-System wurde in der Matlab/Simulink-Plattform demonstriert und die Ergebnisse wurden in diesem Papier vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-38040-3_11 9bb53528d3d686d79fa7b19794f32602;de;;;7.4.;;;Entdeckung kommunizierbarer Modelle aus geowissenschaftlichen Daten Dieses Kapitel beschreibt, wie wir Regressionsregeln verwendet haben, um Ergebnisse zu verbessern, die zuvor in der erdwissenschaftlichen Literatur veröffentlicht wurden. Bei einer solchen wissenschaftlichen Anwendung des maschinellen Lernens ist es von entscheidender Bedeutung, dass die erlernten Modelle;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73920-3_7 e26fee05de784a7c7a44d2c0fef85d35;de;;;7.4.;;;Echtzeit-Emotionserkennung und Song-Empfehlung mit CNN-Architektur Gesundheit ist Reichtum, heißt es. Gesundheit bezieht sich hier sowohl auf die körperliche als auch auf die psychische Gesundheit. Menschen ergreifen verschiedene Maßnahmen, um für ihre körperliche Gesundheit zu sorgen, ignorieren jedoch ihre psychische Gesundheit, was zu Depressionen und sogar Krankheiten wie Diabetes mellitus und so weiter führen kann. Emotionserkennung kann uns helfen, unseren psychischen Gesundheitszustand zu diagnostizieren. Daher schlägt dieses Papier eine Theorie zur Emotionserkennung und dann eine Empfehlung für ein Lied vor, um die Stimmung des Benutzers durch Nutzung der Funktionen von Deep Learning und Bildverarbeitung zu verbessern. Hier wurde eine auf einem Convolutional Neural Network (CNN) basierende LeNet-Architektur zur Emotionserkennung verwendet. Der KDEF-Datensatz wird verwendet, um Eingaben in das CNN-Modell einzuspeisen und es dann zu trainieren. Das Modell wurde darauf trainiert, die Emotion zu erkennen. Nach dem Training des Modells wurde eine Trainingsgenauigkeit von 98,03 % und eine Validierungsgenauigkeit von 97,96 % erreicht, um die sieben verschiedenen Emotionen, also traurig, angewidert, glücklich, ängstlich, neutral, wütend und überrascht durch Mimik richtig zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4859-2_37 9e602654cbe39109ec309fc436b25d1d;de;;;7.4.;;;Vorhersage der Enhancer-Promoter-Interaktion aus der genomischen Sequenz mit tiefen neuronalen Netzwerken Im menschlichen Genom sind distale Enhancer an der Regulierung von Zielgenen durch proximale Promotoren beteiligt, indem sie Enhancer-Promotor-Wechselwirkungen bilden. Obwohl kürzlich entwickelte experimentelle Hochdurchsatzansätze es uns ermöglicht haben, potenzielle Enhancer-Promotor-Interaktionen genomweit zu erkennen, ist es noch weitgehend unklar, inwieweit die in unserem Genom kodierten Informationen auf Sequenzebene solche Interaktionen steuern.;-;-;-;https://link.springer.com/article/10.1007/s40484-019-0154-0 c020e1ffb3e53b94b2c477fee96ba625;de;;;7.4.;;;Tikhonov-Typ Regularisierung für eingeschränkte Boltzmann-Maschinen In diesem Artikel untersuchen wir eine Regularisierung vom Tikhonov-Typ für eingeschränkte Boltzmann-Maschinen (RBM). Wir präsentieren zwei alternative Formulierungen der Regularisierung vom Tikhonov-Typ, die ein RBM ermutigen, eine glattere Wahrscheinlichkeitsverteilung zu lernen. Beide Formulierungen erweisen sich als Kombinationen der weit verbreiteten Weight-Decay- und Sparsity-Regularisierung. Wir evaluieren empirisch die Wirkung der vorgeschlagenen Regularisierungsschemata und zeigen, dass ihre Verwendung dazu beitragen könnte, bessere diskriminative Merkmale mit geringeren versteckten Aktivierungswahrscheinlichkeiten zu extrahieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33269-2_11 929979b5983508d523204919b6991617;de;;;7.4.;;;Aus Fehlern lernen Aus Fehlern zu lernen ist die wohl bekannteste Form des Lernens für jeden Menschen. Jedes Mal, wenn wir einen Fehler machen, d.h. durch unser Verhalten eine Unannehmlichkeit erleiden, versuchen wir unser Wissen über die Welt zu modifizieren, um in Zukunft aus demselben Grund nicht noch einmal leiden zu müssen. Das menschliche Lernen ist jedoch sehr komplex und noch wenig verstanden, sodass es schwer zu sagen ist, welche Mechanismen durch die Erkennung eines Fehlers ausgelöst werden. Noch schwieriger ist es, diese Lernform mit anderen humantypischen Lernformen, wie dem Lernen aus Lehrbüchern, in Beziehung zu setzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-1361-2_7 d9797a8c236d46edaabfbd81257a5cd0;de;;;7.4.;;;Leistungsbewertung des Nvidia Jetson Nano durch eine Echtzeitanwendung für maschinelles Lernen Die Nutzung von Anwendungen mit Machine Learning (ML) wird immer häufiger und ihre tägliche Nutzung erfordert mehr Kapazitäten für die Verarbeitung von Informationen in Echtzeit. Viele Geräte stellen ihre Infrastruktur in Cloud-Computing-Umgebungen bereit, in denen Latenz und Netzwerkpartitionen die größten Herausforderungen sind, denen sie sich stellen müssen. In Umgebungen wie Dew Computing werden diese Probleme jedoch gemildert, da die Informationsverarbeitung direkt an der Datenquelle erfolgt, sodass keine Internetverbindung erforderlich ist. Dieser Artikel bewertet die Leistung der Nvidia Jetson Nano-Plattform unter einem Dew Computing-Ansatz mit einer Anwendung, die ML verwendet, um ein Problem der Identifizierung und Zählung von Landfahrzeugen in Echtzeit in der Stadt Quito, Ecuador, zu lösen. Es wurden zwei Arten von Experimenten durchgeführt, wobei das erste Experiment darauf abzielte, die Nutzung von Verarbeitungsressourcen (CPU und GPU), die Gerätetemperatur, den Stromverbrauch und die Menge des in der ML-Aufgabe verwendeten RAM zu bewerten. Das zweite Experiment zielte darauf ab, die Wirksamkeit der Plattform in Kombination mit OpenDataCam zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-68017-6_51 37f6ee2ff273213a70d5c51e409001ae;de;;;7.4.;;;Eine Umfrage zur Beantwortung von Fragen über die Wissensdatenbank Question Answering over Knowledge Base (KBQA) ist ein Problem, bei dem eine Frage in natürlicher Sprache in Wissensdatenbanken genau und prägnant beantwortet werden kann. Die Kernaufgabe von KBQA besteht darin, die echte Semantik einer natürlichsprachlichen Frage zu verstehen und sie passend in die gesamte Semantik einer Wissensdatenbank zu extrahieren. Dies ist jedoch aufgrund der variablen Semantik natürlichsprachlicher Fragen in einer realen Welt genau eine große Herausforderung. In letzter Zeit gibt es in vielen Anwendungen immer mehr Out-of-Shelf-Ansätze von KBQA. Es wird interessant, sie zu vergleichen und zu analysieren, damit die Benutzer eine gute Auswahl treffen können. In diesem Beitrag geben wir einen Überblick über KBQA-Ansätze, indem wir sie in zwei Kategorien einteilen. Im Anschluss an die beiden Kategorien stellen wir aktuelle Mainstream-Techniken in KBQA vor und diskutieren Gemeinsamkeiten und Unterschiede zwischen ihnen. Auf der Grundlage dieser Diskussion werfen wir schließlich einen Ausblick auf einige interessante offene Probleme.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1956-7_8 6636c5cf833bed403c62881751c63a90;de;;;7.4.;;;Wertschöpfung aus Regierungsdaten mithilfe von KI: Eine explorative Studie Open-Government-Data-Initiativen haben weltweit an Popularität gewonnen. Künstliche Intelligenz (KI) hat das Potenzial, Daten besser zu nutzen. Die Kombination von OGD und KI ist entscheidend, um mehr Wert aus Daten zu generieren. In diesem Papier untersuchen wir, welche Art von Wert durch KI generiert wurde und wie. Ein Kontext-Input-Prozess-Output/Outcome (CIPO) Framework wird entwickelt, um drei Fälle zu beschreiben und zu vergleichen. Die Fallübersicht zeigt das enorme Potenzial von KI, legt aber auch nahe, dass KI von der Öffentlichkeit kaum genutzt wird, um aus Open Data Werte zu schaffen. Die Ziele der drei Fälle sind Effizienz, Innovation und Kriminalprävention, während gemeinsame Open-Government-Ziele wie Transparenz, Rechenschaftspflicht und Partizipation weniger Beachtung finden. Durch den Einsatz von KI werden die Risiken des Datenschutzes und das Ziehen von voreingenommenen oder falschen Schlussfolgerungen deutlicher. Mit dem Aufkommen der Datenerfassung aus dem Internet der Dinge wird die Einhaltung der 5-Sterne von Berners-Lee immer wichtiger. Wir empfehlen politischen Entscheidungsträgern, KI-Projekte zu fördern, die zu den Open-Government-Zielen beitragen, und sicherzustellen, dass Open Data die 5-Sterne-Anforderungen erfüllt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-57599-1_24 a38798a944460e4cf65a3609faa2fc18;de;;;7.4.;;;Weltwissensvertretung Die Weltwissensrepräsentation zielt darauf ab, Entitäten und Beziehungen im Wissensgraphen im niederdimensionalen semantischen Raum darzustellen, die in großen wissensgetriebenen Aufgaben weit verbreitet sind. In diesem Kapitel stellen wir zunächst das Konzept des Wissensgraphen vor. Als nächstes stellen wir die Motivationen vor und geben einen Überblick über die bestehenden Ansätze zur Darstellung von Wissensgraphen. Darüber hinaus diskutieren wir mehrere fortgeschrittene Ansätze, die darauf abzielen, die aktuellen Herausforderungen der Wissensgraphendarstellung zu bewältigen. Wir überprüfen auch die realen Anwendungen der Wissensgraphendarstellung, wie z. B. Sprachmodellierung, Fragenbeantwortung, Informationsabruf und Empfehlungssysteme.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5573-2_7 cad0f82b78624997f14b7258a3e31e8d;de;;;7.4.;;;Optimieren der Datenplatzierung in einer hierarchischen Speicherarchitektur durch maschinelles Lernen Da die Speicherhierarchien auf modernen Hochleistungscomputersystemen immer tiefer werden, sind intelligente Datenplatzierungsstrategien, die die optimale Speicherschicht dynamisch auswählen können, der Schlüssel zur Ausschöpfung des Potenzials der hierarchischen Speicherarchitektur. Es ist jedoch eine Herausforderung, eine allgemeine Lösung bereitzustellen, die in verschiedenen Speicherarchitekturen und diversen Anwendungen eingesetzt werden kann. In diesem Beitrag schlagen wir Adaptive Storage Learner (ASL) vor, die die Idee der Verwendung von maschinellen Lerntechniken untersuchen, um die Beziehung zwischen Datenplatzierungsstrategien und E/A-Leistung unter verschiedenen Workflow-Eigenschaften und Systemstatus zu ermitteln, und das erlernte Modell zur Auswahl verwendet intelligent die optimale Speicherebene. Wir implementieren einen Prototypen und integrieren ihn in ein bestehendes Datenmanagementsystem. Empirische Vergleiche basierend auf realen wissenschaftlichen Workflow-Tests zeigen, dass ASL in der Lage ist, Workflow-Eigenschaften und Echtzeit-Systemstatus zu kombinieren, um optimale Entscheidungen über die Datenplatzierung zu treffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30709-7_23 e328ab1cecf10bbdcbfe4e17abeebedb;de;;;7.4.;;;Vorhersage von Kundenbesuchen mithilfe von maschinellem Lernen und Merkmalsanalyse mit Tagen mit geringer Vorhersagegenauigkeit In diesem Papier wird die Anzahl der Kunden, die Restaurants besuchen, mithilfe von maschinellem Lernen und statistischer Analyse prognostiziert. Es gibt einige Untersuchungen zur Vorhersage der Anzahl der Kunden, die Restaurants besuchen, indem Daten aus der Vergangenheit zur Anzahl der Besucher verwendet werden. In dieser Forschung wurden zusätzlich zu den oben genannten Daten externe Daten wie Wetterdaten und Ereignisse, die in ubiquitär vorhanden sind, für die Vorhersage verwendet. Bayesian Linear Regression, Boosted Decision Tree Regression, Decision Forest Regression und Random Forest Regression werden für maschinelles Lernen verwendet, Stepwise wird für die statistische Analyse verwendet. Von den oben genannten fünf Methoden war die Vorhersagegenauigkeit mit Bayesian Linear Regression am höchsten. Die Vorhersagegenauigkeit verbesserte sich tendenziell nicht, selbst wenn der Trainingsdatenzeitraum verlängert wurde. Basierend auf diesen Prognoseergebnissen werden die Eigenschaften von Tagen mit geringer Prognosegenauigkeit analysiert. Es wurde festgestellt, dass die menschliche Psychologie rund um den Zahltag und die Reservierungskunden die Besucherzahl beeinflusst. Dagegen beeinflussten die Wetterdaten wie Temperatur, Niederschlag und Windgeschwindigkeit die Genauigkeit nicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-57997-5_77 3117c9f600c98190db7fa7be556f05e3;de;;;7.4.;;;Ein neuartiges, auf PCA-Waloptimierung basierendes tiefes neuronales Netzwerkmodell zur Klassifizierung von Tomatenpflanzenkrankheiten mit GPU Die menschliche Bevölkerung wächst sehr schnell. Bei diesem fortschreitenden Wachstum ist es äußerst wichtig sicherzustellen, dass gesunde Nahrung für das Überleben der Bewohner dieses Planeten zur Verfügung steht. Auch die Wirtschaft der Entwicklungsländer ist stark von der landwirtschaftlichen Produktion abhängig. Das gesamtwirtschaftliche Gleichgewicht wird beeinträchtigt, wenn Nachfrage und Angebot an Nahrungsmitteln oder landwirtschaftlichen Produkten unterschiedlich sind. Pflanzenkrankheiten sind eine große Bedrohung für die Ernteerträge und verursachen Hungersnöte und eine Verlangsamung der Wirtschaft. Unsere vorliegende Studie konzentriert sich auf die Anwendung eines maschinellen Lernmodells zur Klassifizierung von Bilddatensätzen von Tomatenkrankheiten, um proaktiv die notwendigen Schritte zur Bekämpfung einer solchen landwirtschaftlichen Krise zu unternehmen. In dieser Arbeit wird der Datensatz aus öffentlich zugänglichen Pflanzen-Dorf-Datensätzen erhoben. Die signifikanten Merkmale werden mit dem Hybrid-Hauptkomponenten-Analyse-Wal-Optimierungsalgorithmus aus dem Datensatz extrahiert. Weiterhin werden die extrahierten Daten in ein tiefes neuronales Netz zur Klassifikation von Tomatenkrankheiten eingespeist. Das vorgeschlagene Modell wird dann mit den klassischen Techniken des maschinellen Lernens bewertet, um die Überlegenheit in Bezug auf Genauigkeit und Verlustratenmetriken zu ermitteln.;-;-;-;https://link.springer.com/article/10.1007/s11554-020-00987-8 5a7e9a231fe1ae0c2fcaab1279204c80;de;;;7.4.;;;Virtuelle Konversation mit Echtzeit-Vorhersage von Körpermomenten/Gesten in Video-Streaming-Daten Das vorhandene Konversationssystem, bei dem der Benutzer mit dem virtuellen System mit Sprache interagiert und das virtuelle System dem Benutzer antwortet, basierend darauf, was der Benutzer spricht. Wann immer der Benutzer in diesem Zusammenhang einige Gesten macht, um mit dem virtuellen System zu kommunizieren, wird das virtuelle System diese Kommunikationen verpassen. Anstatt zu sprechen, kann der Benutzer beispielsweise auf „Ja“ oder „Nein“ nicken und der Benutzer kann auch Handzeichen verwenden, um auf das virtuelle System zu reagieren. Wenn diese Ereignisse nicht angesprochen werden, ist das Gespräch nicht sehr interaktiv und die natürliche, menschenähnliche Interaktion beginnt, wichtige Informationen zu verlieren. Das Papier beschreibt, wie die Körpermomente/Gesten des Benutzers zu einer effektiven Konversation mit dem virtuellen System beitragen und das virtuelle Konversationssystem das falsch geschriebene Gespräch des Benutzers und das verpasste Gespräch mit Benutzergesten/Körperbewegungen effektiv verstehen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1884-3_11 dc67a405182f3c161578070b6bd62768;de;;;7.4.;;;Funktionsauswahl für Gehirn-Computer-Schnittstellen In diesem Beitrag evaluieren wir empirisch Merkmalsauswahlmethoden zur Klassifizierung von Brain-Computer Interface (BCI) Daten. Wir haben fünf hochmoderne Methoden ausgewählt, die für die verrauschten, korrelierten und hochdimensionalen BCI-Daten geeignet sind, nämlich: Informationsgewinn-Ranking, korrelationsbasierte Merkmalsauswahl, ReliefF, konsistenzbasierte Merkmalsauswahl und 1R-Ranking. Wir haben sie mit zehn Klassifikationsalgorithmen, die verschiedene Lernparadigmen repräsentieren, an einem Benchmark-BCI-Wettbewerbsdatensatz getestet. Die Ergebnisse zeigen, dass alle Merkmalsselektoren die Anzahl der Merkmale deutlich reduzierten und auch die Genauigkeit verbesserten, wenn sie mit geeigneten Klassifikationsalgorithmen verwendet wurden. Die drei wichtigsten Merkmalsselektoren in Bezug auf die Klassifizierungsgenauigkeit waren korrelationsbasierte Merkmalsauswahl, Informationsgewinn und 1R-Ranking, wobei korrelationsbasierte Merkmalsauswahl die kleinste Anzahl von Merkmalen wählte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14640-4_8 49b18ccd4d96985ce04a91d2633ab9e2;de;;;7.4.;;;Hochleistungsrechnen im Bankwesen Längst wird zwischen ingenieur- und naturwissenschaftlichen Anwendungen mit ihren rechenintensiven Anforderungen und kommerziellen Anwendungen mit ihren datenintensiven Anforderungen unterschieden. Ingenieur- und naturwissenschaftliche Anwendungen sind gekennzeichnet durch den Begriff;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4873-7_51 4820ee8082f6eea26dd4a67f70b65e72;de;;;7.4.;;;Eine effektive Methode zur Klassifikation unausgeglichener Zeitreihen: Hybrid Sampling Die meisten traditionellen überwachten Klassifikationslernalgorithmen sind für eine stark unausgeglichene Zeitreihenklassifizierung unwirksam, die in der Data-Mining- und maschinellen Lernforschung erheblich weniger Beachtung gefunden hat als unausgewogene Datenprobleme. Bagging ist eine der effektivsten Ensemble-Lernmethoden, hat jedoch Nachteile bei stark unausgeglichenen Daten. Stichprobenverfahren werden als wirksam angesehen, um ein stark unausgeglichenes Datenproblem anzugehen, aber sowohl eine Über- als auch eine Unterabtastung haben Nachteile. Daher ist unklar, welches Stichprobenschema die Leistung des Bagging-Prädiktors zur Lösung stark unausgewogener Zeitreihenklassifizierungsprobleme verbessert. Dieses Papier hat sich mit den Beschränkungen bestehender Techniken der Über- und Unterabtastung befasst und schlägt einen neuen Ansatz vor, eine hybride Probenahmetechnik, um das Absacken zu verbessern, um diese herausfordernden Probleme zu lösen. Vergleicht man diesen neuen Ansatz mit früheren Ansätzen, Oversampling, SPO und Undersampling mit verschiedenen Lernalgorithmen an Benchmark-Datensätzen, zeigen die experimentellen Ergebnisse, dass dieser vorgeschlagene neue Ansatz die Leistung früherer Ansätze dramatisch verbessern kann. Statistische Tests, Friedman-Test und Post-hoc-Nemenyi-Test werden verwendet, um valide Schlussfolgerungen zu ziehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03680-9_38 8be351e6deb2c4da151fc782d0f235cc;de;;;7.4.;;;Techniken der künstlichen Intelligenz zur Verringerung von Unsicherheit in der Entscheidungsanalyse durch Lernen Die meisten Entscheidungen in der realen Welt finden unter Unsicherheitsbedingungen statt, da die Wahrscheinlichkeitsgesetze, die die Entscheidungssituation charakterisieren, in der Regel zunächst unbekannt sind. Die formale Behandlung solcher Situationen erfordert ein programmiertes Urteilsvermögen oder Intelligenz. Somit präsentiert dieser Beitrag einen computerorientierten konzeptionellen Rahmen für die Entscheidungsanalyse unter Unsicherheitsbedingungen, der die Anwendung von Techniken der künstlichen Intelligenz ermöglicht.;-;-;-;https://link.springer.com/article/10.1057/jors.1975.129 094a42e2e1a312e6d295478a18ab7295;de;;;7.4.;;;Agent Reasoning in KI-gestützten Verhandlungen Verhandlung, ein sich schnell entwickelndes Anwendungsgebiet der künstlichen Intelligenz, wurde von Sozialwissenschaftlern und Mathematikern mit ganz anderen Zielen untersucht. Während Sozialwissenschaftler versucht haben, verschiedene Faktoren und Denkprozesse zu verstehen, die dem menschlichen Verhandlungsverhalten zugrunde liegen, haben Mathematiker theoretische Modelle entwickelt, die verschiedene Elemente der Verhandlung formalisieren. Der Schwerpunkt dieses Kapitels liegt auf mathematischen Modellen der Argumentation von Agenten in einer Verhandlung, die ihrer Natur nach entweder analytisch oder rechnerisch sein können: Analytische Modelle bieten strukturelle Vorhersagen des Agentenverhaltens und geben Managementeinblicke in die Verhandlungsstrategie, während Computermodelle Optimierungsalgorithmen und Heuristiken bieten als Bausteine ​​von Verhandlungswerkzeugen zu fungieren, die auf künstlicher Intelligenz (KI) basieren. Gemeinsam lassen sich mathematische Verhandlungsmodelle oft in autonomen Prozessen, sogenannten Verhandlungsagenten, umsetzen, die realistische Verhandlungsfaktoren einbeziehen und dezentral verhandeln können. Solche Agentenmodelle versprechen einen Beitrag zu unserem Verständnis der menschlichen Informationsverarbeitung in Verhandlungen und können zur Entscheidungsunterstützung menschlicher Entscheidungsträger eingesetzt werden. Auf lange Sicht können sie sogar zu einem Ersatz für menschliche Unterhändler werden. Dieses Kapitel gibt einen Überblick über die analytische und computergestützte Verhandlungsliteratur, zeigt Unterschiede und Synergien auf und gibt Hinweise auf offene Fragen und zukünftige Forschung.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-030-49629-6_26 ff23f1a3f2e3358508720aeff2d743d6;de;;;7.4.;;;Merkmalsreduzierung für die Multi-Label-Klassifizierung diskreter Daten Wir beschreiben einen neuartigen Multi-Label-Klassifikationsalgorithmus, der für diskrete Daten funktioniert. Eine Matrix, die den Zugehörigkeitswert jedes diskreten Wertes jedes Attributs für jede Klasse angibt. Bei einem Testmuster finden wir unter Betrachtung der Werte jedes Attributs die Untermenge der Klassen, zu denen das Muster gehört. Wenn die Anzahl der Klassen groß ist oder die Anzahl der Features groß ist, wird die räumliche und zeitliche Komplexität dieses Algorithmus steigen. Um diese Probleme zu mildern, haben wir vor der Klassifizierung eine Merkmalsauswahl durchgeführt. Wir haben zwei Techniken zur Merkmalsreduzierung verglichen, um gute Ergebnisse zu erzielen. Die Ergebnisse wurden mit dem Algorithmus Multi-Label-KNN oder ML-KNN verglichen und ergaben gute Ergebnisse. Durch die Feature-Reduktion werden unsere Klassifizierungsgenauigkeit und die Laufzeit des Algorithmus verbessert. Die Leistung des obigen Algorithmus wird anhand einiger Benchmark-Datensätze bewertet und die Ergebnisse wurden mit dem Algorithmus Multi-Label-KNN oder ML-KNN verglichen und ergeben gute Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-41920-6_49 42f11a68b8bd5bcfd142b772c7ed1308;de;;;7.4.;;;Kundensegmentierung im Customer Relationship Management basierend auf Data Mining Customer Relationship Management (CRM) ist das neue Managementprinzip, das den Wandel der Unternehmensstrategie von produktzentriert zu kundenzentriert anpasst. Die Kundensegmentierung ist eine der Kernfunktionen des Customer-Relationship-Managements (CRM). In diesem Artikel wird ein auf Data Mining basierendes Kundensegmentierungs-Funktionsmodell erstellt und die Vorteile des auf Data Mining basierenden Kundensegmentierungs-Funktionsmodells im Customer Relationship Management (CRM) zusammengefasst.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-34403-9_40 84d59b13595d5880e93d5642a7260a99;de;;;7.4.;;;Take-Home-Nachrichten für Linguisten und Designer der künstlichen Intelligenz Betrachtet man KI-Ingenieure auf der einen und Linguisten auf der anderen Seite, kann man leicht annehmen, dass sie nichts gemeinsam haben. Diese Forschergruppen sind jedoch nicht wie zwei parallel lebende und arbeitende Stämme, sondern haben mehrere gemeinsame Wurzeln, wie in diesem Kapitel beschrieben wird. In diesem Kapitel werden Entwicklungen in Bereichen der Sprachforschung untersucht, die bisher in KI-Anwendungen nicht beobachtet wurden. Umgekehrt kann die Tatsache, dass eine Vielzahl digitaler Werkzeuge Sprache mittlerweile einigermaßen gut verstehen, verarbeiten und sogar produzieren können, Linguisten wichtige Impulse für ihre Forschung geben: Bestimmte Modelle funktionieren bei der Beschreibung von Sprache sehr gut, andere hingegen , weniger gut.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-90719-2_4 742fa41d0a844d4c5d25b617f3635027;de;;;7.4.;;;Der Einfluss der Künstlichen Intelligenz auf den Militärberuf Der technologische Wandel hat den Militärberuf schon immer beeinflusst. Dieses Kapitel untersucht die Auswirkungen der künstlichen Intelligenz, die das Militär als Berufsstand tiefgreifend zu beeinflussen scheint. Insbesondere überprüfen wir das Konstrukt der militärischen Professionalität, der künstlichen Intelligenz einschließlich ihres möglichen Einflusses auf das Militär und bieten eine Zusammenfassung des von Snider und Watkins entwickelten analytischen Rahmens (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-45570-5_13 e80694f7e6d75740d49e01cfba85bcbe;de;;;7.4.;;;Zentralisiertes intelligentes Authentifizierungssystem mit Deep Learning mit Deep Dream Image Algorithm Das multi-biometrische System ist eine fortschrittliche Technologie, die eine umfassende Anwendung im Bereich der Informationssicherheit findet. Die vorgeschlagene Arbeit entwirft ein Personenidentifikationssystem, das auf einer Kombination biometrischer Eingaben wie Fingervene und Iris basiert. In der Bildverarbeitungsstufe wird ein Convolutional Neural Network (CNN) mit verschiedenen Optimierern verwendet, um die Bildtextur steil anzuheben und charakteristische High-Definition-Merkmale der Eingabebilder zu extrahieren. Der Deep Dream Image Algorithmus unterstützt CNN, indem er die Netzwerkschichten stark aktiviert, indem er die Eingabebilder synthetisiert. Dieses Netzwerk erreicht eine hohe Erkennungsrate, die sich als leistungsfähiger als herkömmliche Algorithmen erweist. An das biometrische System wurde ein Warnsystem angeschlossen, um vor der Sicherheitsverletzung zu warnen. Dadurch wurde festgestellt, dass das gesamte System mit besserer Genauigkeit effizient ist und Stabilität erhalten wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7504-4_18 558851714608652934061c654634db54;de;;;7.4.;;;Klassifikation von Schilddrüsenknoten unter Verwendung eines hierarchischen rekurrenten neuronalen Netzes mit mehreren Ultraschallberichten Die genaue Klassifikation von Schilddrüsenknoten ist ein Schlüsselproblem im Bereich der endokrinen Klinik, das die Überlebenschancen eines Patienten erhöhen kann. Die Berichte der Typ-B-Ultraschalluntersuchung sind eine wichtige Datenquelle für die Klassifizierung von Schilddrüsenknoten, und Patienten mit Schilddrüsenknoten werden normalerweise während des Diagnose- und Behandlungsprozesses mehreren periodischen Ultraschalluntersuchungen unterzogen. Die meisten der bestehenden Methoden beruhen jedoch auf dem Feature Engineering einzelner Ultraschallberichte und berücksichtigten nicht die historischen Aufzeichnungen der Patienten. In diesem Artikel schlagen wir ein Hierarchical Recurrent Neural Network (HRNN) zur Klassifikation von Schilddrüsenknoten unter Verwendung historischer Ultraschallberichte vor. HRNN besteht aus drei Schichten von neuronalen Netzen mit langem Kurzzeitgedächtnis (LSTM). Jede LSTM-Schicht wird trainiert, um die Darstellungen höherer Ebene zu erzeugen. Wir werten die HRNN anhand von Ultraschallberichten von Schilddrüsenknoten aus der realen Welt aus. Die Experimentergebnisse zeigen, dass HRNN die Basismodelle mit Ultraschallberichten übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-70139-4_77 dd25cb8b19c2cdce7f9ba29dcf75f953;de;;;7.4.;;;Ein tragbarer Fingersprachübersetzer basierend auf Deep Learning mit Leap Motion Hörgeschädigte Menschen sind weniger in der Lage zu kommunizieren als normale Menschen und erleben viele Unannehmlichkeiten im Alltag, in Krankenhäusern und Behörden. Um dieses Problem zu lösen, werden verschiedene geophysikalische Übersetzer und Gebärdensprachübersetzer entwickelt. Die meisten tragbaren Übersetzer haben jedoch den Nachteil, dass die Genauigkeit der Ausgabedaten gering ist. Daher versuchen wir, dieses Problem zu lösen, indem wir anstelle eines tragbaren Übersetzers Sprungbewegungen mit Smartphones verwenden, bei denen es sich um Handbewegungsgeräte handelt. Insbesondere haben wir versucht, die Erkennungsrate von geografischen Dolmetschern durch die Anwendung eines Deep-Learning-Modells mit mehreren Perzeptronen zu erhöhen. Experimentelle Ergebnisse zeigen, dass die durchschnittliche Erkennungsrate separat fast 94,9 % beträgt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9341-9_75 5b6a77b1cc4bdc246a83ab00e32e6ff2;de;;;7.4.;;;Forschung und Realisierung eines Commodity Image Retrieval Systems basierend auf Deep Learning In diesem Artikel wurde ein System zum Abrufen von Warenbildern vorgeschlagen, das auf der CNN- und ListNet-Sortierungslernmethode basiert. CNN enthielt zwei Faltungsschichten, zwei Pooling-Schichten und zwei innere Produktschichten. Die ReLu-Funktion wurde als Aktivierungsfunktion nach der Faltungsschicht verwendet, um die Sparsity zu erreichen und das Verschwinden des Gradienten zu verhindern. Die Pooling-Schicht verwendete die stochastische Pooling-Methode und verbesserte die Generalisierungsfähigkeit des Modells. Zusätzlich wurde die Softmax-Regression zur Klassifikation verwendet. Innerproduct Layer hat die Dropconnect-Methode übernommen, die leistungsfähiger ist als die Verallgemeinerung von Dropouts und kann das Auftreten der Überanpassung effektiv verhindern. Darüber hinaus wurde die Merkmalsextraktion des Netzwerks durch den stochastischen Gradientenabstieg (SGD)-Algorithmus optimiert. Und wir kombinierten den Learn to Rank-Algorithmus der Text-Retrieval-Domäne. Wir haben den ListNet-Algorithmus verwendet, um eine Vielzahl von Merkmalsvektoren zu kombinieren und das Problem des Bildabrufs zu lösen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-6442-5_34 2d51d940f1c983f67cd7a6ffa85de029;de;;;7.4.;;;Deep Learning-basierte Sprachmodellierung für domänenspezifische Spracherkennung Rekurrentes neuronales Netz (RNN) als Sprachmodell der automatischen Spracherkennung (ASR) kann die gesamte Vorgeschichte von Wortfolgen erfassen und ist dem theoretisch überlegen;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-4211-9_24 75342d95f3364b01e64f37a89828dbf0;de;;;7.4.;;;Automatische Erkennung von Umgebungsänderungen im Übertragungskanal basierend auf Satellitenfernerkundung und Deep Learning Die Erkennung von Umweltveränderungen im Übertragungskanal basierend auf hochauflösender Satellitenfernerkundung ist der aufkommende Trend beim Betrieb und der Wartung von Stromnetzen. Um die Präzision zu verbessern, wurde in diesem Beitrag ein auf Deep Learning basierendes Änderungserkennungsverfahren vorgestellt. Zunächst wurden durch den verbesserten Änderungsvektor-Analysealgorithmus und die Graustufen-Ko-Auftritts-Matrix unter Berücksichtigung der Nachbarschaftsinformationen die Spektral- und Texturänderungen von Bildern zu unterschiedlichen Zeiten berechnet. Darüber hinaus wurden die am wahrscheinlichsten geänderten und unveränderten Zonenabtastungen durch Einstellen des adaptiven Abtastintervalls extrahiert. Zusätzlich wurde das modifizierte Deep Convolutional Neural Network Modell Inception-v3 konstruiert und trainiert. Die detaillierten Merkmale in geänderter und unveränderter Zone wurden extrahiert und die geänderte Zone wurde effektiv unterschieden. Die Ergebnisse zeigten, dass das vorgeschlagene Verfahren die Umgebungsänderung im Übertragungskanal effektiv extrahieren konnte und die Genauigkeit über 92,5 % erreichte, was den Kontrastverfahren offensichtlich überlegen war.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9783-7_76 420f5c73dc95de181ab615a67d24be05;de;;;7.4.;;;Mustertaxonomie-Mining für die Informationsfilterung In diesem Artikel wird ein neuer Ansatz zur Informationsfilterung unter Verwendung von Data-Mining-Methoden untersucht. Dieses neue Modell besteht aus zwei Komponenten, nämlich Themenfilterung und Mustertaxonomie-Mining. Ziel der Themenfilterung ist es, anhand der Nutzerprofile schnell irrelevante Informationen herauszufiltern. Das Ziel der Anwendung von Mustertaxonomie-Mining-Techniken besteht darin, die Datenrelevanz des reduzierten Datensatzes zu rationalisieren. Unsere Experimente zur Datensammlung von Reuters RCV1 (Reuters Corpus Volume 1) zeigen, dass durch die Kombination der Stärke von Informationsfilterung und Data-Mining-Methode ein effektiverer und effizienterer Informationszugriff erreicht wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89378-3_42 cee5497e34a710bedf82d8125d4ea03f;de;;;7.4.;;;Shruti-Erkennung mit maschinellem Lernen und Sargam-Identifikation für instrumentelles Audio Im heutigen Szenario werden die meisten Dinge digitalisiert. Musik ist eine der berühmtesten Kunstarten, die von verschiedenen Menschen erlernt und von mehreren Musikern unterrichtet wird. Daher zielt dieses Papier darauf ab, ihnen mit der fortschrittlichen Technologie zu helfen, die wir heute haben. Um ein Musikinstrument zu spielen, ist es sehr wichtig, die Shruti und Sargam (Begriffe, die sich auf Ton bzw. Noten in der klassischen indischen Musik beziehen) der gespielten Musik zu kennen. Geschulte Musiker können die Shruti und Sargam durch das Hören der Musik identifizieren, Anfänger jedoch nicht. Damit Anfänger jedes Instrument spielen können, sollten Shruti und Sargam vorher bekannt sein. Dieses Papier befasst sich mit der Erkennung des Shruti mithilfe des maschinellen Lernansatzes und der Identifizierung des Sargam des polyphonen Audios, das den Musikern auf vielfältige Weise helfen wird. Es hat auch eine große Bedeutung im Bereich der Musikinformationsabfrage.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6881-1_13 a4ab9fffd63352096d3b437bcef4c09f;de;;;7.4.;;;Brücken zwischen Diagnosetheorien aus Kontroll- und KI-Perspektive Diagnose ist der Prozess der Identifizierung oder Bestimmung der Art und Ursache eines Fehlers, Problems oder einer Krankheit anhand der Symptome, die sich aus ausgewählten Messungen, Prüfungen oder Tests ergeben. Die unterschiedlichen Facetten des Diagnoseproblems und das breite Spektrum an Systemklassen machen dieses Problem für mehrere Gemeinschaften interessant und verlangen nach Brückentheorien. Dieses Papier stellt Diagnosetheorien vor, die von der Control- und der KI-Community vorgeschlagen wurden, und zeigt beispielhaft, wie sie synergetisch integriert werden können, um bessere Diagnoselösungen bereitzustellen und interaktiv zu Fehlermanagementarchitekturen beizutragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39881-0_1 a1d19685ea5eb33fbb82c688baccfc54;de;;;7.4.;;;Kostensensitives unterstütztes Vektorlernen zur Einstufung eines unausgeglichenen Datensatzes In den letzten Jahren wurden die Algorithmen zum Erlernen von Ranglisten von Forschern vorgeschlagen. Die meisten dieser Algorithmen sind paarweise Ansatz. In vielen Anwendungen in der realen Welt sind Instanzen von Rängen unausgewogen. Nachdem die Ranginstanzen zu Paaren zusammengesetzt sind, sind auch die Rangpaare unausgeglichen. In diesem Papier wird ein kostensensitives Risikominimummodell des paarweisen Lernens vorgeschlagen, um Ungleichgewichtsdatensätze einzustufen. Diesem Modell folgend wird der Algorithmus des kostensensitiven unterstützten Vektorlernens zum Rangieren untersucht. Im Experiment wird die Konvention Ranking SVM als Basislinie verwendet. Der Datensatz zum Abrufen von Dokumenten wird im Experiment verwendet. Die experimentellen Ergebnisse zeigen, dass die Leistung des kostensensitiven unterstützten Vektorlernens zum Rangieren besser ist als das Ranking von SVM auf dem Datensatz zum Dokumentenabruf.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04020-7_33 cacf5513ed2b9ef941329950062a7666;de;;;7.4.;;;Diagnose einer chronischen Nierenerkrankung mit Random Forest Chronische Nierenerkrankungen (CKD) sind ein globales Problem der öffentlichen Gesundheit, von dem etwa 10 % der Bevölkerung weltweit betroffen sind. Es gibt jedoch wenig direkte Evidenz dafür, wie CKD systematisch und automatisch diagnostiziert werden kann. In diesem Artikel wird untersucht, wie CKD mithilfe von Techniken des maschinellen Lernens (ML) diagnostiziert werden kann. ML-Algorithmen waren eine treibende Kraft bei der Erkennung von Anomalien in verschiedenen physiologischen Daten und werden mit großem Erfolg bei verschiedenen Klassifikationsaufgaben eingesetzt. In der vorliegenden Studie werden eine Reihe verschiedener ML-Klassifikatoren experimentell an einem realen Datensatz validiert, der dem UCI Machine Learning Repository entnommen wurde, und unsere Ergebnisse werden mit den Ergebnissen aus der neueren Literatur verglichen. Die Ergebnisse werden quantitativ und qualitativ diskutiert und unsere Ergebnisse zeigen, dass der Random Forest (RF)-Klassifikator nahezu optimale Leistungen bei der Identifizierung von CNE-Patienten erzielt. Daher zeigen wir, dass ML-Algorithmen mit zufriedenstellender Robustheit eine wichtige Funktion bei der Diagnose von CKD erfüllen, und unsere Ergebnisse legen nahe, dass RF auch für die Diagnose ähnlicher Krankheiten verwendet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-4166-2_89 c743eea4cc2b5201ad9e623db4828ca0;de;;;7.4.;;;Automatisierte Erkennung von Lebertumoren mit Deep Learning Krebs wurde von der Weltgesundheitsorganisation als die zweithäufigste Todesursache weltweit anerkannt. Mit der Zunahme der Bevölkerung haben die Fälle von hepatozellulärem Karzinom (HCC) aufgrund eines Mangels an frühzeitiger Diagnose und Behandlung zugenommen. Herkömmlicherweise werden CT- oder MRT-Scans betroffener Lebern einer manuellen Untersuchung durch geschultes Fachpersonal unterzogen, was in der Regel einen erheblichen Zeit- und Arbeitsaufwand erfordert. Aufgrund der steigenden Fallzahlen muss dieser Prozess beschleunigt werden. Als effektive Methode hat sich der Einsatz von Deep-Learning-Modellen zur Segmentierung medizinischer Bilder erwiesen. Der vorgeschlagene Ansatz des Deep-Learning-Modells verwendet eine 2D-U-Net-Architektur, die auf einem vollständig gefalteten Netzwerk (FCN) aufgebaut ist. Die U-Net-Architektur besteht aus drei Schichten, der Kontraktion/Down-Sampling, der Expansion/Up-Sampling und der Engpassschicht, die als Median zwischen den beiden anderen Schichten fungiert. Der Datensatz besteht aus Computertomographie-Bildern für das Training bzw. das Testen, wobei jeder Scan in einem 3D-Bildformat namens NIfTI (.nii) vorliegt und von variabler Größe ist. Unser vorgeschlagenes Modell ist von Anwendungssoftware umgeben, bei der das Frontend eine minimalistische und intuitive Benutzererfahrung bietet. Mit diesem Ansatz erhielten wir eine Genauigkeit von 0,71 unter Verwendung der Würfelähnlichkeitsmetrik. Der Hauptvorteil eines Anwendungssoftwareansatzes ist die einfache Einführung an Orten, an denen eine solche Lösung erforderlich ist, um wertvolle Zeit und Mühe zu sparen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6987-0_35 740370952b2736a2391900f81bce7400;de;;;7.4.;;;Eine vergleichende Studie zur Leistung von Deep-Learning-Algorithmen zur Erkennung der in modernen Slangs ausgedrückten Gefühle Sen Die Stimmungsanalyse ist eine Textuntersuchungstechnik, die Extremitäten innerhalb des Textes unterscheidet, unabhängig davon, ob es sich um ein ganzes Dokument, einen Satz usw. handelt. Das Verständnis der Gefühle von Einzelpersonen ist für Unternehmen von grundlegender Bedeutung, da Kunden ihre Überlegungen und Emotionen transparenter kommunizieren können als je zuvor in der jüngsten Vergangenheit . Das in diesem Papier vorgeschlagene Modell ist die sentimentale Analyse von Twitter-Slangs, d. h. Tweets, die Wörter enthalten, die keine orthodoxen englischen Wörter sind, sondern durch die Entwicklung der Zeit abgeleitet wurden. Dazu findet das vorgeschlagene Modell die Wurzelwörter der Slangs unter Verwendung eines Schneeball-Stemmers, vektorisiert die Wurzelwörter und leitet sie dann durch ein neuronales Netzwerk zum Aufbau des Modells. Außerdem würden die Tweets sechs Vorverarbeitungsstufen durchlaufen, um wesentliche Funktionen zu extrahieren. Die Tweets werden dann als positiv, neutral oder negativ klassifiziert. Die Stimmungsanalyse von Slangs, die in 1.600.000 Tweets verwendet werden, wird unter Verwendung von Algorithmen des Long Short-Term Memory (LSTM)-Netzwerks, der logistischen Regression (LR) und des Convolution Neural Network (CNN) zur Klassifizierung vorgeschlagen. Unter diesen Algorithmen bietet das LSTM-Netzwerk die höchste Genauigkeit von 78,99 %.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4909-4_33 77858682192af16d85e704d8ac0075c9;de;;;7.4.;;;Ein Überblick über die semantische Segmentierung biomedizinischer Bilder mit Deep Learning Diese Übersicht gibt einen Überblick über die jüngsten Versuche zur semantischen Segmentierung biomedizinischer Bilder mit Deep-Learning-Techniken. Deep Learning ist eine revolutionäre Technologie und jüngste Fortschritte haben es ermöglicht, die Leistung semantischer Segmentierungsmethoden zu verbessern, die in der medizinischen Bildgebung üblich sind. In letzter Zeit ist die semantische Segmentierung ein Durchbruch in der biomedizinischen Bildsegmentierung. Semantische Segmentierung ist der Prozess der Klassifizierung jedes einzelnen Pixels eines Bildes in eine Klasse. Dieser Beitrag befasst sich explizit mit verschiedenen semantischen Segmentierungsmethoden, die auf verschiedene biomedizinische Bilder angewendet werden. Weiterhin werden verschiedene Architekturen von tiefen neuronalen Netzen für die semantische Segmentierung von Bildern wie U-Net, Full Convolution Network (FCN) und SegNet untersucht. Kurz gesagt werden die Datensätze Dristhi-GS, ALL-IDB1, H & E-gefärbte Bilder, Flair-MRI Brats 2015 und die japanische Gesellschaft für radiologische Technologie (JSRT) untersucht. In diesem Beitrag wird eine vollständige Taxonomie verschiedener Methoden der semantischen Segmentierung für medizinische Bilder gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6840-4_27 916eb6da3bc4fae708dffa0b1af7d300;de;;;7.4.;;;N-Crop-basierte Bildteilung beim Deep Learning mit medizinischem Bild In diesem Artikel schlagen wir eine Bildteilungstechnik vor, die das Problem der Auflösungsreduktion aufgrund der Modellstruktur und des Mangels an Daten aufgrund der Eigenschaften medizinischer Bilder lösen kann. Um diese Technik zu verifizieren, haben wir die Leistung des traditionellen Vollbildlernens und des geteilten Bildlernens verglichen. Als Ergebnis wird bestätigt, dass die Bildteilungstechnik das Röntgenbild-Deep-Learning stabiler ablaufen kann und bei der Vorhersage der Tuberkulose-Erkennung mit höherer Genauigkeit effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9244-4_30 bff99b485a3eae2d5042ff1d97e64b51;de;;;7.4.;;;Data-Mining-Technologie zur Erkennung und Identifizierung fehlerhafter Daten im Stromnetz Herkömmliche Methoden zur Erkennung fehlerhafter Daten sind geschätzte Algorithmen, die wiederholte Zustandsschätzungen erfordern. Eine Vielzahl von Berechnungen kann auch zu Phänomenen der „Restflut“ oder der „Restverschmutzung“ führen, was der Idealzustand ist. Die schlechten Daten können vor der Schätzung erkannt und identifiziert werden, und das in diesem Papier untersuchte Verfahren zur Erkennung und Identifizierung von schlechten Daten basierend auf Assoziationsregel-Mining kann diese Probleme bis zu einem gewissen Grad lösen. Dieses Papier analysiert zunächst die traditionellen Methoden zur Erkennung und Identifizierung von schlechten Daten und führt dann zur Data-Mining-Technologie. Zweitens befasst es sich mit dem klassischen Algorithmus Apriori und der Verbesserung von Assoziationsregeln und untersucht den grundlegenden Algorithmus und die Verbesserung des periodischen Mining von Assoziationsregeln. Anwendung eines verbesserten Algorithmus. Als Beispieldaten wurden die Strom-, Wirk- und Blindleistungsdaten einer bestimmten Leitung ausgewählt, die im SCADA-System einer Leitstelle von Mai bis September und fünf Monaten gesammelt wurden, um die Machbarkeit und Wirksamkeit des Verfahrens abschließend zu überprüfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4601-7_6 30755165c6c3c73994705cc7c156f173;de;;;7.4.;;;Eine Umfrage zu traditioneller, kaskadierter Regression und Deep Learning-basierter Gesichtsausrichtung Die Aufgabe der Gesichtsausrichtung besteht darin, wichtige Gesichtsmerkmalspunkte wie Augen, Nasenspitzen und Mundwinkel automatisch zu lokalisieren. Es gibt viele Methoden, um die Probleme der Gesichtsausrichtung zu lösen. Diese Methoden werden in drei Kategorien eingeteilt: traditionelle Algorithmen, auf Regressionsalgorithmen basierende Kaskade und auf Deep Learning basierender Algorithmus. Es bestehen noch einige Probleme, die die Verarbeitung von großen Posen und kleinen Posen, die Verarbeitung unterschiedlicher Winkel und die Gesichtsokklusion betreffen. Die experimentellen Ergebnisse von drei Kategorien von Algorithmen sind in diesem Papier zusammengefasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5199-4_14 2ac0bac74f17ae4b43d5ef90414acdce;de;;;7.4.;;;Semitransparenzeffekt in einem Video mit Deep-Learning-Ansatz Online-Lernplattformen liefern eine große Menge an Inhalten durch Videovorträge. In akademischen Videos werden Inhalte, die auf der Oberfläche geschrieben sind, oft vom Dozenten verdeckt. Dieses Problem wird unter Verwendung von entweder Stiftdigitalisierern oder einem Rahmenmittelungsverfahren angegangen. Jedoch erfordert ein Verfahren, das einen Stiftdigitalisierer verwendet, eine kostspielige Einrichtung, während ein Verfahren, das Rahmenmittelwerte verwendet, bestimmte Anwendungsfallbeschränkungen hat. Dieses Papier verwendet einen Deep-Learning-Ansatz, um einen halbtransparenten Effekt mit besserer Qualität zu erzielen und beseitigt auch die Nachteile früherer Arbeiten. Die experimentellen Ergebnisse zeigten, dass die vorgeschlagene Methode bei verschiedenen Arten von Videos gut funktioniert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1813-9_56 6f2c474529f6d1eeea1a0f7afa130812;de;;;7.4.;;;Reinforcement Learning zur Verbesserung der Kohärenz von Multi-Turn-Antworten in Deep-Learning-basierten Chatbots Chatbots sind in ihrer Fähigkeit, sinnvolle Gespräche zu führen, noch weit zurück. Ziel der Arbeit ist es, die Multi-Turn-Reaktionen von Deep-Learning-basierten Chatbots zu implementieren und zu verbessern. Multi-Turn-Antwort ist die Fähigkeit eines Chatbots, in aufeinanderfolgenden Turns kohärente und sinnvolle Antworten zu geben. Zunächst wurde ein Sequenz-zu-Sequenz-Modell (Seq2Seq) erstellt und seine Antworten durch unterschiedliche Trainingsparameter analysiert. Zweitens wurde die Methode des Reinforcement Learning (RL) unter Verwendung des Seq2Seq-Modells implementiert, und es wurde gezeigt, dass dies die Kohärenz in Multi-Turn-Gesprächen verbessert. Das RL-Modell schnitt mit einem Wert von 0,3334 im Vergleich zu 0,2336 des Seq2Seq-Modells im Hinblick auf den BiLingual Evaluation Understudy (BLEU)-Score besser als das Seq2Seq-Modell ab. Es wurde festgestellt, dass die durchschnittliche Gesprächslänge mit RL mit 3,75 Umdrehungen im Vergleich zu 3,05 Umdrehungen mit Seq2Seq zunimmt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4866-0_34 bddd3277137be5c512710a1cdb45ee4a;de;;;7.4.;;;Deep-Learning-basierte Erkennung von Hindernissen im Transit in Straßenbahnen Aufgrund des allgegenwärtigen Einsatzes von Straßenbahnen sind die Maßnahmen zur Sicherung des Straßenbahnverkehrs notwendig und dringend. In diesem Sinne haben wir ein auf dem Convolutional Neural Network basierendes Neuronales Netz vorgeschlagen, bei dem wir einige Anpassungen vorgenommen haben, um es flexibler zu machen. Wie zum Beispiel Passthrough-Layer, um sicherzustellen, dass einige kleine Objekte erkennbar sind, Ankerboxen, um eine Hochgeschwindigkeitserkennung zu gewährleisten, und Batch-Normalisierungsebenen, um das Netzwerk für Objekte mit unterschiedlichen Verteilungen verformbar zu machen. Mit diesem Netzwerk können wir mögliche Hindernisse wie Fußgänger, Autos und einige andere Einwände, die die Straßenbahnen gefährden können, effizient erkennen. Wir testen das Netzwerk in mehreren Datenbanken mit 5000 Samples, und die durchschnittliche Genauigkeitsrate beträgt 94,12%, die durchschnittliche Erkennungsgeschwindigkeit beträgt 30 FPS, die Größe des kleinsten erkennbaren Objekts beträgt 20 × 20 Pixel, all dies zeigt ein bemerkenswertes Ergebnis.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0644-4_82 a2a2a88ffaff6b5c45f2a65f0d3a3ea6;de;;;7.4.;;;Gesichtsfotoerkennung mit Deep Learning im Archival Record Management System Im Archivverwaltungssystem (Archiv) werden viele Informationen gespeichert, darunter Fotos und Bilder. Es ist wichtig, Fotos im Archiv intelligent zu organisieren. Aktuelle Ansätze verwenden Gesichtserkennungstechnologie, die auf Deep Learning basiert, um Fotos zu verwalten. Aufgrund des rasanten Wachstums der Fotomenge im Archiv nehmen Gesichtserkennungsprozesse auf großen Fotoset jedoch viel Verarbeitungszeit in Anspruch. Außerdem sind Fotos mit niedriger Auflösung und kleinen Gesichtern im Archiv schwer zu identifizieren und zu erkennen. In diesem Papier schlagen wir eine Methode vor, um Gesichtsfotos aus dem Archiv zu identifizieren und abzurufen. In unserem Ansatz werden Fotometadaten zum Durchsuchen von Fotos im Archiv verwendet, und ein Auflösungsverbesserungsschritt basierend auf dem DCSCN-Modell wird verwendet, um Fotos mit niedriger Auflösung zu hoher Auflösung zu rekonstruieren. Das Experiment zeigt, dass der vorgeschlagene Ansatz Gesichtsfotos schnell von großen Fotosets suchen und abrufen kann und effizient ist, um kleine Gesichter von Fotos mit niedriger Auflösung zu identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9341-9_64 fbd439557858eab946618965b4b56d86;de;;;7.4.;;;Ultraschallbild-Vorverarbeitungsmethode für die Deep-Learning-basierte Fettleberdiagnose Ein iteratives Bildverarbeitungsverfahren wird vorgeschlagen, um die Leistung des Convolutional Neural Network (CNN)-Modells zur Diagnose von Fettleber zu verbessern. In dieser Arbeit wird ein Datensatz verwendet, der 17.400 Ultraschallbilder der Leber enthält. Diese Leberbildproben werden zunächst zur Rauschreduzierung und Texturverbesserung vorverarbeitet. Dann werden die verarbeiteten Bildproben zum Trainieren des CNN-Modells LeNet-5 verwendet. Entsprechend der Genauigkeit des trainierten LeNet-5 wird die optimale Kombination aus Rauschunterdrückung und -verstärkung erreicht. Die experimentellen Ergebnisse zeigen, dass die Genauigkeit des LeNet-5-Modells basierend auf dem ursprünglichen Datensatz 80,58 % beträgt und die Fläche unter dem Receiver Operation Characteristic (ROC) Curve-Wert (AUC) 0,574 beträgt. Und die optimale Bildverarbeitungskombination ist Butterworth-Tiefpass (BLP) und belichtungsbasierter Sub Image Histogram Equalization (ESIHE). Die Modellgenauigkeit ist 10,01 % höher als die des Originaldatensatzes und erreicht 90,59 %. Der AUC-Wert des optimalen Modells hat 0,845 erreicht, was 0,271 höher ist als der AUC-Wert des Originalmodells. Daher ist die iterative Bildverarbeitung eine praktikable Methode, um die Leistung des CNN-Modells bei der Diagnose einer Fettleber zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0503-1_31 fbb9b4bdbe3506b1867b3eb8e47a7d5e;de;;;7.4.;;;Künstliche Intelligenz oder Mechanisierung der Arbeit KI soll ein wissenschaftliches Forschungsprogramm zur Entwicklung und Analyse computerbasierter Systeme sein, die natürliche psychologische Prozesse nachahmen. Ich behaupte, dass dies eine bloße Fiktion ist, ein bequemer Mythos. In Wirklichkeit ist KI eine Technologie zur Neuordnung der Produktionsverhältnisse am Arbeitsplatz und insbesondere zur Erhöhung der Managementkontrolle. Die Anziehungskraft des KI-Mythos dient somit als ideologische Begründung für die zunehmende Vorherrschaft der Manager. Durch die Konzentration auf den KI-Mythos lenken sich KI-Kritiker von der sehr wichtigen Aufgabe ab, diese immer gefährlichere Bedrohung der Entqualifizierung und Entmenschlichung großer Teile der Belegschaft zu verhindern.;-;-;-;https://link.springer.com/article/10.1007/BF01891277 55e56a5d494605c8addd134cfb073404;de;;;7.4.;;;Schnelle Etiketteneinbettung durch randomisierte lineare Algebra Viele moderne Mehrklassen- und Mehretikettenprobleme sind durch immer größere Ausgabeflächen gekennzeichnet. Für diese Probleme haben sich Label-Einbettungen als nützliches Grundelement erwiesen, das die rechnerische und statistische Effizienz verbessern kann. In dieser Arbeit verwenden wir eine Entsprechung zwischen rangbeschränkter Schätzung und niederdimensionalen Label-Einbettungen, die einen schnellen Label-Einbettungsalgorithmus aufdecken, der sowohl in Multiklassen- als auch in Multilabel-Einstellungen funktioniert. Das Ergebnis ist ein randomisierter Algorithmus, dessen Laufzeit exponentiell schneller ist als bei naiven Algorithmen. Wir demonstrieren unsere Techniken an zwei großen öffentlichen Datensätzen, aus der Large Scale Hierarchical Text Challenge und dem Open Directory Project, bei denen wir hochmoderne Ergebnisse erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23528-8_3 c0a77452e30ef79a932de1ae178de2e5;de;;;7.4.;;;Kreditrisikovorhersage in Geschäftsbanken mit Chi-Quadrat mit SVM-RBF Das Management der finanziellen Kreditrisikoanalyse hat bei vielen Herausforderungen einen entscheidenden Einfluss gehabt, insbesondere für Banken, die ihren Kapitalverlust reduzieren. In dieser Studie ist die Technik des maschinellen Lernens ein vielversprechender Bereich für das Kredit-Scoring zur Analyse von Risiken in Banken. Es ist wichtig geworden, nützliches Wissen für eine große Anzahl komplexer Datensätze zu extrahieren. In dieser Studie wurde ein maschineller Lernansatz unter Verwendung von Chi-Square mit SVM-RBF-Klassifikator für Bankkreditdaten von Taiwan analysiert. Das Modell liefert wichtige Informationen mit erhöhter Genauigkeit, die bei der Vorhersage des Kreditstatus helfen. Das Experiment erreicht eine Genauigkeit von 93% im Vergleich zum Stand der Technik.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-69143-1_13 8ac11f7e4b758f9a9e311ba194249b21;de;;;7.4.;;;Erlernen von Rankings aus konzeptverändernden Netzwerkdatenströmen Vernetzte Daten werden heute in verschiedenen Anwendungsdomänen wie sozialen Netzwerken, biologischen Netzwerken, Sensornetzwerken, räumlichen Netzwerken, Peer-to-Peer-Netzwerken usw Entwicklung im Laufe der Zeit, findet in der Forschungsgemeinschaft zunehmende Beachtung. Diesem Hauptstrom der Forschung folgend, schlagen wir einen Algorithmus zum Mining von Rankingmodellen aus vernetzten Daten vor, die sich im Laufe der Zeit entwickeln können. Um das Konzeptdriftproblem richtig zu behandeln, nutzt der Algorithmus einen Ensemble-Learning-Ansatz, der es uns ermöglicht, die Bedeutung gelernter Rankingmodelle aus vergangenen Daten beim Ranking neuer Daten zu gewichten. Gelernte Modelle sind in der Lage, die Netzautokorrelation zu berücksichtigen, dh die statistische Abhängigkeit zwischen den Werten desselben Attributs von verwandten Knoten. Empirische Ergebnisse belegen die Wirksamkeit des vorgeschlagenen Algorithmus und zeigen, dass er besser abschneidet als andere in der Literatur vorgeschlagene Ansätze.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32600-4_28 f2665ce3af101501e222a4b2aa3b1c70;de;;;7.4.;;;Protostellare Klassifizierung mithilfe von überwachten maschinellen Lernalgorithmen Die Einteilung junger Sternobjekte (YSOs) in verschiedene Entwicklungsstadien hilft uns, den Entstehungsprozess neuer Sterne und Planetensysteme zu verstehen. Eine solche Klassifizierung basiert traditionell auf der Analyse der spektralen Energieverteilung (SED). Einen alternativen Ansatz bieten überwachte maschinelle Lernalgorithmen, die trainiert werden können, um große Stichproben von YSOs viel schneller als durch SED-Analyse zu klassifizieren. Wir versuchen, eine Stichprobe von Orion-YSOs (die Stammstichprobe beträgt 330) in verschiedene Klassen zu klassifizieren, wobei jede Quelle bereits mithilfe der Multiwellenlängen-SED-Analyse klassifiziert wurde. Wir haben acht verschiedene Lernalgorithmen verwendet, um die Ziel-YSOs zu klassifizieren, nämlich einen Entscheidungsbaum, einen Random Forest, eine Gradient Boosting Machine (GBM), eine logistische Regression, einen naiven Bayes-Klassifikator,;-;-;-;https://link.springer.com/article/10.1007/s10509-018-3418-7 8915a3aae38e27bb617320421d920340;de;;;7.4.;;;Analyse tiefer neuronaler Netze zur Vorhersage von Kfz-Versicherungsansprüchen Die Schadensvorhersage ist ein wichtiger Prozess in der Automobilversicherungsbranche, um die richtige Versicherungsart für jeden potenziellen Versicherungsnehmer vorzubereiten. Die Menge der verfügbaren Daten zur Erstellung des Modells der Schadenvorhersage ist in der Regel groß. Heutzutage werden Deep Neural Networks (DNN) im Bereich des maschinellen Lernens immer beliebter, insbesondere für unstrukturierte Daten wie Bilder, Texte oder Signale. Das DNN-Modell integriert die Merkmalsauswahl in Form einiger zusätzlicher verdeckter Schichten in das Modell. Darüber hinaus ist DNN aufgrund seines inkrementellen Lernens für die großen Datenmengen geeignet. In diesem Papier wenden wir die Genauigkeit von DNN für das Problem der Schadensvorhersage mit strukturierten Daten an und analysieren sie. Zuerst zeigen wir die Sensitivität der Hyperparameter auf die Genauigkeit von DNN und vergleichen die Leistung von DNN mit standardmäßigen neuronalen Netzen. Unsere Simulation zeigt, dass die Genauigkeit von DNN in Bezug auf normalisiertes Gini etwas besser ist als die der standardmäßigen neuronalen Netze.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9563-6_12 b841960b34847539ce04449c27437a98;de;;;7.4.;;;Verwendung von maschinellem Lernen zum Abrufen von Service-Kandidaten-Sets in der Service-Zusammensetzung der Cloud-basierten Fertigung Cloud Manufacturing (CMfg) ist ein serviceorientiertes Fertigungsparadigma, das darauf abzielt, durch die gemeinsame Nutzung von Ressourcen mehrerer Fertigungsanbieter hochgradig maßgeschneiderte Produkte herzustellen. Die verteilte Natur dieses Paradigmas erfordert, das Service-Composition-Problem anzugehen, um einen optimalen Status in Bezug auf eine solche Zusammenarbeit zu erreichen. In den meisten Forschungsstudien zur Dienstleistungszusammensetzung in CMfg wird jedoch davon ausgegangen, dass die Sets von Kandidatendiensten, für die die optimale Zusammensetzung durchgeführt werden soll, vordefiniert sind. Dies ist eine extreme Vereinfachung und wird den tatsächlichen Anforderungen der Cloud-Fertigung nicht gerecht. Diese Studie zielt darauf ab, einen neuartigen Ansatz vorzuschlagen, der zunächst TF-IDF-Vektoren (Term Frequency-Inverse Document Frequency) verwendet, die aus den Fertigungsfähigkeitsdaten und maschinellen Lernalgorithmen extrahiert wurden, um Kandidatensätze für jede entsprechende Teilaufgabe abzurufen. Dann wird der optimale zusammengesetzte Dienst für jedes Szenario unter Verwendung metaheuristischer Algorithmen erhalten. Die Ergebnisse belegen die Wirksamkeit dieser Methode, die zu einem umfassenderen Ansatz zur Lösung des Service-Composition-Problems im Cloud-Herstellungsparadigma führt.;-;-;-;https://link.springer.com/article/10.1007/s00170-020-06381-9 efaffe5d43a1b999f15814762c48602d;de;;;7.4.;;;Mining-Feedback zur positiven Relevanz, um den Bedarf an Benutzerinformationen zu ermitteln Aufgrund der Vielzahl von Begriffen, Mustern und Rauschen ist es eine große Herausforderung, die Qualität der entdeckten Relevanzmerkmale in Textdokumenten zur Beschreibung von Benutzerpräferenzen zu gewährleisten. Begriffsbasierte Ansätze werden verwendet, um eine große Anzahl von Merkmalen zu extrahieren, von denen die meisten bedeutungsloses Rauschen sind und unter Polysemie und Synonymie leiden. Die gängigsten Text-Mining-Techniken berücksichtigen die Verteilung von Begriffen in Dokumenten und Datensätzen bei der Berechnung der Gewichtung der Begriffe. Die innovative Technik, die in diesem Artikel vorgestellt wird, heißt Specific Feature Discovery und verwendet positives Feedback nur, um positive Muster als High-Level-Merkmale zu entdecken, um die Beziehung zwischen Termen zu berücksichtigen, und dann High-Level-Muster auf Low-Level-Terms angewendet, um die Beschränkung von Mustern zu überwinden . Um die Qualität der extrahierten Merkmale zu verbessern, werden High-Level-Muster aus Feedback-Dokumenten extrahiert. Im Anschluss daran werden Terme auf niedriger Ebene aus Mustern auf hoher Ebene extrahiert. Die Bestimmung der Gewichtung der Begriffe auf niedriger Ebene basiert auf der Verteilung der Begriffe in den Mustern auf hoher Ebene und der Spezifität der Begriffe in einer positiven Gruppe von Dokumenten. Die Spezifität der Terme auf niedriger Ebene wird anhand der Häufigkeit der Terme in den Dokumenten und der Häufigkeit der Terme in extrahierten Mustern berechnet. Es gab umfangreiche Experimente, in denen diese Technik unter Verwendung des Datensatzes Reuters Corpus Volume 1 und der Themen der Text REtrieval Conference getestet wurde. Die Ergebnisse zeigen, dass die vorgeschlagene Methode in allen Maßnahmen eine erfreuliche Leistung erbringt.;-;-;-;https://link.springer.com/article/10.1007/s13369-014-1463-2 474d209dba2fa624c0eaeb77d4ac6528;de;;;7.4.;;;Eine strukturelle Lernmethode der eingeschränkten Boltzmann-Maschine durch Neuron Generation and Annihilation Algorithm Restricted Boltzmann Machine (RBM) ist ein generatives stochastisches energiebasiertes Modell eines künstlichen neuronalen Netzes für unüberwachtes Lernen. Das adaptive Lernverfahren, das die optimale Anzahl versteckter Neuronen gemäß dem Eingaberaum entdecken kann, ist ein wichtiges Verfahren in Bezug auf die Stabilität der Energie sowie den Rechenaufwand, obwohl ein traditionelles RBM-Modell seine Netzwerkstruktur während der Lernphase nicht ändern kann. Darüber hinaus sollten wir die Regelmäßigkeiten im spärlichen Netzwerk berücksichtigen, um explizites Wissen aus dem Netzwerk zu extrahieren, da das trainierte Netzwerk oft eine Blackbox ist. In diesem Beitrag schlagen wir die Kombinationsmethode aus adaptiver und struktureller Lernmethode von RBM mit Vergessen vor, die die Regelmäßigkeiten im trainierten Netzwerk entdecken kann. Wir haben unser vorgeschlagenes Modell anhand von MNIST- und CIFAR-10-Datensätzen evaluiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-46681-1_45 8e869b5be96fa8adf6b29667087e55cb;de;;;7.4.;;;Eine auf Data Mining basierende Methode zur Entdeckung von Webdiensten und deren Zusammensetzungen Aufgrund der Verfügbarkeit einer Vielzahl von Webservices ist es nach wie vor eine Herausforderung, einen geeigneten Webservice gemäß den Anforderungen eines Servicekonsumenten zu finden. Darüber hinaus kann ein einzelner Webdienst manchmal die Anforderungen des Dienstnutzers nicht vollständig erfüllen. In solchen Fällen können Kombinationen mehrerer miteinander verbundener Webdienste verwendet werden. Dieses Papier schlägt eine Methode vor, die zuerst ein semantisches Kernel-Modell verwendet, um verwandte Dienste zu finden, und dann diese verwandten Webdienste als Knoten eines Graphen modelliert. Ein All-Paar-Kürzeste-Pfad-Algorithmus wird angewendet, um die besten Zusammensetzungen von Webdiensten zu finden, die semantisch mit der Dienstkonsumentenanforderung verbunden sind. Abschließend erfolgt die Empfehlung der individuellen und zusammengesetzten Webservice-Komposition für eine Serviceanfrage. Empirische Auswertungen bestätigen, dass das vorgeschlagene Verfahren die Genauigkeit der Service-Discovery im Vergleich zu herkömmlichen schlüsselwortbasierten Discovery-Verfahren signifikant verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07812-0_16 f954dbe48f4b9bce34e77b04f9692cde;de;;;7.4.;;;Messung des Einflusses von Experten auf das Erlernen eines Brettspiels Wir untersuchen systematisch den Einfluss menschlicher Eingriffe auf das Training von Computerspielern in einem Strategie-Brettspiel. In diesem Spiel verwenden Computerspieler Verstärkungslernen mit neuronalen Netzen, um ihre Spielstrategien zu entwickeln und eine langsame Lerngeschwindigkeit zu demonstrieren. Menschliche Eingriffe können die Lernleistung erheblich verbessern, aber ihre systematische Durchführung scheint eher ein Problem einer integrierten Spieleentwicklungsumgebung zu sein als des automatischen evolutionären Lernens.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-74161-1_12 ba0a6f41464d088358f85aab4fa92895;de;;;7.4.;;;Nutzung sozialer Interaktionen auf Twitter für intelligenten Transport mit maschinellem Lernen Twitter generiert eine große Menge an Echtzeitdaten in Form von Microblogs, die potenzielles Wissen für verschiedene Anwendungen wie Verkehrsunfallanalyse und Stadtplanung enthalten. Social-Media-Daten stellen die unvoreingenommenen tatsächlichen Erkenntnisse über die Anliegen der Bürger dar, die bei der Verbesserung der Städte intelligenter werden können. In dieser Studie wurde ein Rechenrahmen vorgeschlagen, der die Worteinbettung und das Modell des maschinellen Lernens verwendet, um Verkehrsereignisse mithilfe von Social-Media-Daten zu erkennen. Die Studie umfasst die Möglichkeit, maschinelle Lernalgorithmen mit verschiedenen Merkmalsextraktions- und Darstellungsmodellen zur Identifizierung von Verkehrsereignissen aus den Twitter-Interaktionen zu verwenden. Der umfassende vorgeschlagene Ansatz ist die Kombination der folgenden vier Schritte. In der ersten Phase wird ein Wörterbuch mit verkehrsbezogenen Schlüsselwörtern erstellt. Zweitens wurden Echtzeit-Twitter-Daten mithilfe des Wörterbuchs identifizierter verkehrsbezogener Schlüsselwörter gesammelt. Im dritten Schritt wurden gesammelte Tweets vorverarbeitet und das Feature-Generierungsmodell wird angewendet, um den Datensatz zu konvertieren, der für einen Machine Learning-Klassifikator geeignet ist. Darüber hinaus wird ein Modell für maschinelles Lernen trainiert und getestet, um die Tweets mit Verkehrsvorfällen zu identifizieren. Die Ergebnisse der Studie zeigen, dass maschinelle Lernmodelle, die auf der richtigen Feature-Extraktionsstrategie aufbauen, sehr vielversprechend sind, um Tweets mit Verkehrsvorfällen aus Mikroblogs zu identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-49186-4_24 51c289437853389e8c648ca9ef928ef1;de;;;7.4.;;;Maschinelles Lernen zur Klassifikation der kognitiven Belastung – Eine Fallstudie zum kontaktlosen Ansatz Die gebräuchlichste Methode zur Messung der kognitiven Belastung (CL) ist die Verwendung physiologischer Sensorsignale, z. B. Elektroenzephalographie (EEG) oder Elektrokardiogramm (EKG). Diese Signale sind jedoch in Situationen problematisch, z. B. in dynamischen Bewegungsumgebungen, in denen sich der Benutzer mit allen am Körper angebrachten Sensoren nicht entspannen kann und die Signale erhebliche Geräusche erzeugen. Dieses Papier präsentiert eine Fallstudie mit einem kontaktlosen Ansatz für die CL-Klassifizierung basierend auf der Herzfrequenzvariabilität (HRV), die aus dem EKG-Signal erfasst wird. Hier wird ein kontaktloser Ansatz, d. h. ein kamerabasiertes System, mit einem kontaktbasierten Ansatz, d. h. ein Shimmer GSR+-System, bei der Erkennung von CL verglichen. Um CL zu klassifizieren, wurden zwei verschiedene Algorithmen des maschinellen Lernens (ML) angewendet, hauptsächlich Support Vector Machine (SVM) und k-Nearest-Neighbor (k-NN). Basierend auf den gesammelten Inter-Beat-Interval (IBI)-Werten beider Systeme wurden 13 verschiedene HRV-Merkmale in einer kontrollierten Studie extrahiert, um drei CL-Level zu bestimmen, dh S0: niedrige CL, S1: normale CL und S2: hohe CL . Um mit den ML-Algorithmen die beste Klassifikationsgenauigkeit zu erzielen, wurden verschiedene Optimierungen wie Kernelfunktionen mit unterschiedlichen Merkmalsmatrizen sowohl für binäre als auch für kombinierte Klassenklassifikationen gewählt. Den Ergebnissen zufolge wurde die höchste durchschnittliche Klassifikationsgenauigkeit mit 84% bei der binären Klassifikation erreicht, d. h. S0 vs. S2 mit k-NN. Das höchste;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-49161-1_3 0994453d8980d7a8b19ee495d6514893;de;;;7.4.;;;Eine Umfrage zur Extraktion von statistischen Mustermerkmalen Das Ziel der statistischen Mustermerkmalsextraktion (SPFE) ist die „Verringerung der Dimension mit geringem Verlust“. Als zentrales Glied der Mustererkennung ist die Dimensionsreduktion zum Brennpunkt und Schwierigkeit der Forschung in den Bereichen Mustererkennung, maschinelles Lernen, Data Mining und so weiter geworden. Die Extraktion von Mustermerkmalen ist eines der anspruchsvollsten Forschungsgebiete und hat die Aufmerksamkeit vieler Wissenschaftler auf sich gezogen. Dieses Papier stellt zusammenfassend das Grundprinzip von SPFE vor und diskutiert die neuesten Fortschritte von SPFE unter Aspekten wie klassische statistische Theorien und ihre Modifikationen, Kernel-basierte Methoden, Wavelet-Analyse und ihre Modifikationen, Algorithmenintegration und so weiter. Schließlich diskutieren wir den Entwicklungstrend von SPFE.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85984-0_84 f9ba66dd9a223791bb81ea4601720fae;de;;;7.4.;;;Ein neuer Ansatz für intelligente Techniken – Soft Computing und seine Anwendung In den letzten zehn Jahren ist künstliche Intelligenz (KI) in High-Tech-Labors aufgetaucht und die Menschen verwenden sie täglich, ohne sie zu fühlen. Zum Beispiel aktuelle Berechnungen von Energietechnologien und flexiblem Computing in anderen Bereichen im Zusammenhang mit digitalen Produkten, viele Anwendungen, die den Beitrag künstlicher Intelligenz erhöhen, sind flexible Computertechnologien, die auf diesen Problemen basieren, Medizin, Biologie, Industrie, Fertigung als Sicherheit Bildung, virtuelle Umgebung. Wir wurden besonders ermutigt. Unterstützung bei der Bereitstellung neuer Ideen und/oder theoretischer Studien zur Soft-Computing-Technologie, interdisziplinäre Forschung, reale experimentelle Anwendungsprobleme und Beschreibungen flexibler Computersystemdesigns, die sich in der Entwicklung ihrer neuen analytischen Struktur unterscheiden Das Dokument vorstellen Eine Soft-Computing-Technologie fördern, die besonders praktisch. Es gibt einen Überblick über die Disziplinen der Künstlichen Intelligenz in Bezug auf Soft Computing und präsentiert die Vorteile von Soft Computing gegenüber traditionellen Hard-Computer-Technologien und deren Nachteile.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-39119-5_13 7ec0938f59ca72e800ddd104d46c61c4;de;;;7.4.;;;Nichtlineare Trends in der modernen künstlichen Intelligenz: Eine neue Perspektive Künstliche intelligente Systeme, die ohne externe Hilfe lernen, Ziele setzen, Probleme lösen, neue Lösungen und unvorhergesehene Verhaltensszenarien finden können, existieren in einer Vielzahl von seltsamen Modellen, die jeweils unterschiedliche Annahmen verwenden und jeweils ihre eigenen Grenzen haben. Der Autor argumentiert, ob die modernen künstlichen intelligenten Systeme wirklich intelligent genannt werden können, um die enormen Fähigkeiten des menschlichen Gehirns zu realisieren. Um Kernthemen der wichtigsten Domänen der künstlichen Intelligenz wie Fuzzy-Logik, probabilistisches Denken, bioinspirierte Techniken, neuronale Netze und Fortschritte der Neurowissenschaften zusammen mit den neuen Gebieten der Chaostheorie und der nichtlinearen Dynamik zu verallgemeinern, wurde eine multidisziplinäre Analyse eingesetzt Auf der Arbeit. Bei der Analyse wird die Entwicklung eines bestimmten mathematischen Apparats berücksichtigt, um die Anwendung dynamischer Modelle mit instabiler Dynamik zu rechtfertigen, die zur Lösung intelligenter Probleme der nächsten Generation verwendet werden. Die Schlussfolgerung basiert auf der Idee, dass die Zukunft der künstlichen Intelligenz im Bereich der nichtlinearen Dynamik und des Chaos liegt, der für das Verständnis und die Modellierung von Kognitionsprozessen absolut entscheidend ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34422-0_8 06b26ae2ea2ab79ed7c57183d6c97ee8;de;;;7.4.;;;METEOR-S Web Service Annotation Framework mit Machine Learning Klassifizierung Forscher haben den Bedarf an aussagekräftigeren Beschreibungen von Webdiensten erkannt. Die meisten Ansätze haben vorgeschlagen, Ontologien zu verwenden, um entweder die Webdienste zu beschreiben oder syntaktische Beschreibungen von Webdiensten mit Anmerkungen zu versehen. Frühere Ansätze sind in der Regel manuell, und es wird die Fähigkeit benötigt, automatische oder halbautomatische Anmerkungen zu unterstützen. Das im LSDIS Lab der University of Georgia entwickelte METEOR-S Web Service Annotation Framework (MWSAF) nutzt Schema-Matching-Techniken für halbautomatische Annotationen. In diesem Papier stellen wir eine verbesserte Version von MWSAF vor. Unsere vorläufige Untersuchung zeigt, dass wir Webservices schneller und genauer mit Ontologien abgleichen können, indem wir die derzeit für die Kategorisierung verwendete Schema-Matching-Technik durch einen naiven Bayes-Klassifikator ersetzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30581-1_12 8f6286059893e54e60eddbbd29b0e2d3;de;;;7.4.;;;Ein selbstorganisierendes Ensemble tiefer neuronaler Netze zur Klassifizierung von Daten aus komplexen Prozessen Wir präsentieren einen neuen selbstorganisierenden Algorithmus zur Klassifizierung von Daten, der die Stärken mehrerer gängiger Algorithmen des maschinellen Lernens kombiniert und erweitert, wie Algorithmen in selbstorganisierenden neuronalen Netzen, Ensemble-Methoden und tiefen neuronalen Netzen. Die gesteigerte Ausdruckskraft wird mit der Erklärungskraft selbstorganisierender Netzwerke kombiniert. Unser Algorithmus übertrifft sowohl tiefe neuronale Netze als auch Ensembles von tiefen neuronalen Netzen. Für unseren Bewertungsfall verwenden wir Produktionsüberwachungsdaten aus einem komplexen Stahlherstellungsprozess, bei dem die Daten sowohl hochdimensional sind als auch viele nichtlineare Abhängigkeiten aufweisen. Neben dem verbesserten Vorhersagewert bietet der Algorithmus einen neuen Deep-Learning-basierten Ansatz, wie Rechenressourcen bei der Datenexploration fokussiert werden können, da der Algorithmus Bereiche des Eingaberaums aufzeigt, die schwieriger zu erlernen sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-91479-4_21 7b049b7892bbbca722d62e04bd603aff;de;;;7.4.;;;Experimente mit Hybridisierung und Optimierung der Regelwissensdatenbank zur Klassifizierung von MMPI-Profilen In der Arbeit untersuchen wir ein Problem der Hybridisierung und Optimierung der Wissensbasis für das Copernicus-System. Copernicus ist ein Werkzeug zur computergestützten Diagnostik psychischer Störungen auf Basis von Persönlichkeitsinventaren. Derzeit wird Copernicus verwendet, um Patientenprofile aus dem Minnesota Multiphasic Personality Inventory (MMPI)-Test zu analysieren und zu klassifizieren. Die im Copernicus-System verkörperte Wissensbasis besteht unter anderem aus Klassifikationsfunktionen, Klassifikationsregelsätzen sowie nosologischen Kategorienmustern. Ein besonderes Augenmerk wird auf die Auswahl eines geeigneten Regelwerks zur Klassifizierung neuer Fälle gelegt. In Experimenten wurden Regelsätze von verschiedenen Data-Mining-Tools generiert und durch generische Operationen, die im RuleSEEKER-System implementiert sind, optimiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23184-1_10 5c91c3582db605ebe915bdc25c34dfe5;de;;;7.4.;;;Neue klinische Technologie: Anwendung des maschinellen Lernens zur Beurteilung chronischer Schmerzen auf der Grundlage von Emotional Body Maps Depressionen und Angstzustände treten zusammen mit chronischen Schmerzen auf, und es wird angenommen, dass alle drei durch eine Fehlregulation gemeinsamer Gehirnsysteme im Zusammenhang mit der emotionalen Verarbeitung im Zusammenhang mit Körperempfindungen verursacht werden. Das Verständnis des Zusammenhangs zwischen emotionalen Zuständen, Schmerzen und Körperempfindungen kann helfen, chronische Schmerzzustände zu verstehen. Wir haben eine mobile Plattform entwickelt, um Schmerzen, Emotionen und damit verbundene Körpergefühle bei chronischen Schmerzpatienten im Alltag zu messen. 65 Patienten mit chronischen Rückenschmerzen berichteten über die Intensität ihrer Schmerzen, 11 emotionale Zustände und die entsprechenden Körperstellen. Diese Variablen wurden verwendet, um 2 Wochen später Schmerzen vorherzusagen. Durch Anwendung von maschinellem Lernen haben wir zwei Vorhersagemodelle für zukünftige Schmerzen entwickelt, die die Interpretierbarkeit betonen. Ein Modell schloss schmerzbezogene Merkmale als Prädiktoren für zukünftige Schmerzen aus, das andere schloss schmerzbezogene Prädiktoren ein. Die besten Prädiktoren für zukünftige Schmerzen waren interaktive Effekte von (a) Körperkarten von Müdigkeit mit negativem Affekt und (b) positivem Affekt mit vergangenem Schmerz. Unsere Ergebnisse betonen den Beitrag von Emotionen, insbesondere emotionalen Erfahrungen im Körper, zum Verständnis chronischer Schmerzen über die bloße Verfolgung von Schmerzniveaus hinaus. Die Ergebnisse können zur Entwicklung eines neuartigen Rahmens für künstliche Intelligenz beitragen, um bei der Entwicklung besserer diagnostischer und therapeutischer Ansätze für chronische Schmerzen zu helfen.;-;-;-;https://link.springer.com/article/10.1007/s13311-020-00886-7 cc1e2f1a479676a149e9fcfdff38d885;de;;;7.4.;;;Clusterbasierte Instanzauswahl zur Maschinenklassifizierung Die Instanzauswahl im überwachten maschinellen Lernen, oft auch als Datenreduktion bezeichnet, zielt darauf ab, zu entscheiden, welche Instanzen aus dem Trainingsset für die weitere Verwendung während des Lernprozesses erhalten bleiben sollen. Die Instanzauswahl kann zu verbesserten Fähigkeiten und Generalisierungseigenschaften des Lernmodells, einer kürzeren Zeit des Lernprozesses oder zur Skalierung auf große Datenquellen beitragen. Das Papier schlägt einen clusterbasierten Instanzauswahlansatz vor, bei dem der Lernprozess durch das Agententeam durchgeführt wird, und diskutiert seine vier Varianten. Die Grundannahme ist, dass die Instanzauswahl durchgeführt wird, nachdem die Trainingsdaten in Cluster gruppiert wurden. Um den vorgeschlagenen Ansatz zu validieren und den Einfluss der verwendeten Clustering-Methode auf die Qualität der Klassifikation zu untersuchen, wurde das Computerexperiment durchgeführt.;-;-;-;https://link.springer.com/article/10.1007/s10115-010-0375-z a36ea1fe4457a91b2c7ca56e22ab3c34;de;;;7.4.;;;Data Mining, Management und Visualisierung in großen wissenschaftlichen Korpussen Die Organisation wissenschaftlicher Arbeiten trägt dazu bei, aussagekräftige Erkenntnisse aus den veröffentlichten wissenschaftlichen Ressourcen effizient abzuleiten, ermöglicht es Forschern, den schnellen technologischen Wandel zu erfassen und unterstützt somit neue wissenschaftliche Erkenntnisse. In diesem Artikel experimentieren wir mit Text Mining und Datenmanagement wissenschaftlicher Publikationen, um nützliche Informationen zur Unterstützung der Forschung zu sammeln und zu präsentieren. Für ein effizientes Datenmanagement und einen schnellen Informationsabruf werden vier Datenspeicher eingesetzt: ein semantisches Repository, ein Index- und Such-Repository, ein Dokumenten-Repository und ein Graph-Repository, die ihre Funktionen und Stärken voll ausschöpfen. Die Ergebnisse zeigen, dass die Kombination dieser vier Repositorien die Publikationsdaten zuverlässig und effizient speichern und indexieren und somit aussagekräftige Informationen zur Unterstützung der wissenschaftlichen Forschung liefern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-40259-8_32 2499d7a07c014a33583467fda0665b7e;de;;;7.4.;;;Wahrscheinlichkeitsmodell für die strukturierte Dokumentenzuordnung Wir adressieren das Problem des automatischen Lernens, heterogene semi-strukturierte Dokumente auf ein vermitteltes XML-Zielschema abzubilden. Wir verfolgen einen maschinellen Lernansatz, bei dem die Zuordnung zwischen Eingabe- und Zieldokumenten aus einem Trainingskorpus von Dokumenten gelernt wird. Wir stellen zunächst ein allgemeines stochastisches Modell der Erzeugung und Transformation von semistrukturierten Dokumenten vor. Dieses Modell basiert auf dem Konzept des Metadokuments, das eine latente Variable ist, die eine Verbindung zwischen Eingabe- und Zieldokumenten herstellt. Es ermöglicht uns, die Entsprechungen zu lernen, wenn die Eingabedokumente in einer großen Vielfalt von Schemata ausgedrückt werden. Anschließend beschreiben wir eine Instanz des allgemeinen Modells für die spezielle Aufgabe der HTML-zu-XML-Konvertierung. Diese Instanz wird auf drei verschiedenen Korpora getestet, wobei zwei verschiedene Inferenzmethoden verwendet werden: eine dynamische Programmiermethode und eine ungefähre LaSO-basierte Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73499-4_64 18d3fb92941d16ccc2a756c5140caa60;de;;;7.4.;;;Objekterkennung und -verfolgung mit UAV-Daten mit Deep Learning UAVs wurden in verschiedenen Objektverfolgungsanwendungen wie Katastrophenmanagement, Verkehrsüberwachung, Wildtierüberwachung und Crowd Management eingesetzt. In letzter Zeit haben verschiedene Deep-Learning-Methoden einen tiefgreifenden Einfluss auf die Objekterkennung und -verfolgung. Deep-Learning-basierte Objektdetektoren basieren auf vortrainierten Netzwerken. Probleme treten auf, wenn eine Diskrepanz zwischen der vortrainierten Netzwerkdomäne und der Zieldomäne besteht. UAV-Bilder besitzen aufgrund von Kameraansichtsvariationen, Höhenbereichen und Kamerabewegungen andere Eigenschaften als Bilder, die in vortrainierten Netzwerken verwendet werden. In diesem Papier schlagen wir eine neuartige Methodik vor, um Objekte aus UAV-Daten zu erkennen und zu verfolgen. Ein tief überwachter Objektdetektor (DSOD) wird vollständig auf UAV-Bildern trainiert. Eine gründliche Überwachung und eine dichte schichtweise Verbindung bereichern das Lernen von DSOD und führen eine bessere Objekterkennung durch als vortrainierte Detektoren. Das Long–Short-Term Memory (LSTM) wird zum Verfolgen des erkannten Objekts verwendet. LSTM merkt sich die Eingaben aus der Vergangenheit und sagt das Objekt im nächsten Frame voraus, wodurch die Lücke unerkannter Objekte überbrückt wird, was die Verfolgung verbessert. Die vorgeschlagene Methodik wird mit vortrainierten Modellen verglichen und übertrifft die Leistung.;-;-;-;https://link.springer.com/article/10.1007/s12524-020-01229-x 970c48337bac1e04fc9d248bd71fb5ac;de;;;7.4.;;;Beschleunigung der Bildverarbeitung durch die Optimierungsstrategie für den Deep-Learning-Algorithmus DBN In den letzten Jahren hat sich die Bildverarbeitung insbesondere für die Fernerkundungstechnik rasant entwickelt. Im Bereich der Fernerkundung ist die Effizienz der Verarbeitung von Fernerkundungsbildern ein Forschungsschwerpunkt auf diesem Gebiet. Die Fernerkundungsdaten weisen jedoch einige Probleme bei der Verarbeitung durch ein verteiltes Framework wie Spark auf, und die Hauptprobleme zur Verbesserung der Ausführungseffizienz sind Datenverzerrung und Datenwiederverwendung. Daher wird in diesem Papier eine parallele Beschleunigungsstrategie basierend auf einem typischen Deep-Learning-Algorithmus, dem Deep-Belief-Network (DBN), vorgeschlagen, um die Ausführungseffizienz des DBN-Algorithmus in Spark zu verbessern. Zuerst wird der Neupartitionierungsalgorithmus basierend auf dem Tag-Satz für das Reliefdaten-Versatzproblem vorgeschlagen. Zweitens wird der Cache-Ersetzungsalgorithmus auf Basis von Merkmalen vorgeschlagen, um den häufig verwendeten Resilient Distributed Dataset (RDD) automatisch zwischenzuspeichern. Durch das Zwischenspeichern von RDD wird die Neuberechnungszeit häufig wiederverwendeter RDD reduziert, was zu einer Verringerung der Gesamtberechnungszeit des Jobs führt. Die Zahlen und Analysen bestätigen die Wirksamkeit der Strategie.;-;-;-;https://link.springer.com/article/10.1186/s13638-018-1255-6 83e0bd694ad408733f682c77903df696;de;;;7.4.;;;Pflanzenklassifizierung aus UAV-basierten multispektralen Bildern mit Deep Learning Diese Arbeit untersucht die Eignung verschiedener Deep Convolutional Neural Network (CNN)-Architekturen für die semantische Segmentierung von landwirtschaftlichen Nutzpflanzen wie Baumwolle, Mais usw. aus multispektralen UAV-Daten (Unmanned Aerial Vehicle). Anfänglich wurden die UAV-Daten vorverarbeitet und Trainingsproben für jeden Pflanzentyp wurden manuell aus mehreren UAV-Szenen kommentiert. Verschiedene CNN-Architekturen wie U-Net, SegNet und PSPNet (Pyramid Scene Parsing Network) wurden mit verschiedenen Kombinationen von Eingangsspektralbändern zusammen mit aus ausgewählten Bändern abgeleiteten Indizes wie NDVI (Normalized Difference Vegetation Index) und EVI (Enhanced Vegetation Index) trainiert Zusatzfunktionen. Die experimentellen Ergebnisse zeigten, dass die Einbeziehung der NIR-Bande (nahes Infrarot) und NDVI in die Eingabedaten eine hohe Segmentierungsgenauigkeit von mehr als 90% ergab. U-Net erwies sich mit einer Gesamtgenauigkeit von 97 % als die beste unter den drei Architekturen, während das Problem der Trennung von drei Klassen gelöst wurde. Diese Studie demonstrierte den Umfang der auf tiefen neuronalen Netzwerken basierenden semantischen Segmentierungstechniken bei der Pflanzenklassifizierung aus multispektralen UAV-Daten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1086-8_42 df052da24b0b49ef96d7d9605ede0849;de;;;7.4.;;;Die Verwendung von Rough Sets und Fuzzy Sets in MCDM Die Theorie der groben Mengen wurde von Z. Pawlak in den frühen 80er Jahren vorgeschlagen, um Inkonsistenzprobleme infolge von Informationsgranulation zu behandeln. Es arbeitet mit einer Informationstabelle, die aus einer Menge U von Objekten (Aktionen) besteht, die durch eine Menge Q von Attributen beschrieben werden. Seine Grundbegriffe sind: Ununterscheidbarkeitsrelation auf U, untere und obere Approximation einer Teilmenge oder einer Partition von U, Abhängigkeit und Reduktion von Attributen von Q und Entscheidungsregeln abgeleitet von unteren Approximationen und Grenzen von Teilmengen, die mit Entscheidungsklassen identifiziert werden. Bei der Analyse von Multiattribute-Klassifikationsproblemen hat sich die ursprüngliche Grobsatz-Idee als besonders nützlich erwiesen, scheiterte jedoch daran, dass eine bevorzugte Ordnung von Attributen (Kriterien) berücksichtigt werden musste Um Probleme der Multikriteriumsentscheidungsfindung (MCDM ), wie Sortierung, Auswahl oder Rangfolge, waren eine Reihe methodischer Änderungen gegenüber der ursprünglichen Theorie der groben Mengen erforderlich. Die wesentliche Änderung ist die Substitution der Ununterscheidbarkeitsrelation durch eine Dominanzrelation (crisp oder fuzzy), die eine Approximation geordneter Mengen beim Multikriteriumsortieren erlaubt Informationstabelle durch eine paarweise Vergleichstabelle, wobei jede Zeile einem Paar von Objekten entspricht, die durch binäre Beziehungen nach bestimmten Kriterien beschrieben werden. Bei all diesen MCDM-Problemen endet der neue Grobsatzansatz mit einem Satz von Entscheidungsregeln, die die Rolle eines umfassenden Präferenzmodells spielen. Es ist allgemeiner als das klassische funktionale oder relationale Modell und aufgrund seiner natürlichen Syntax für die Benutzer verständlicher. Um eine Empfehlung in einem der MCDM-Probleme auszuarbeiten, schlagen wir Ausnutzungsverfahren des Satzes von Entscheidungsregeln vor. Abschließend werden noch einige weitere kürzlich gewonnene Ergebnisse angeführt: grobe Approximationen mittels Ähnlichkeitsrelationen (Crisp oder Fuzzy) und die Äquivalenz eines Entscheidungsregelpräferenzmodells mit einem Conjoint-Measurement-Modell, das weder additiv noch transitiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5025-9_14 fc5701fb658494256a3bea4703e58335;de;;;7.4.;;;Ein effizienter Ansatz zur Segmentierung von Hautläsionen mithilfe dermatoskopischer Bilder: Ein Ansatz des Deep Learning Die Segmentierung ist ein Prozess zum Erfassen von Grenzen eines Objekts, um das interessierende Objekt innerhalb eines gegebenen Bildes zu extrahieren. Es gibt verschiedene Techniken wie CT-Scan, MRT-Scan, Röntgenscan usw., die verwendet werden können, um diese medizinischen Bilder zu erhalten. Die Verarbeitung dieser medizinischen Bilder ist aufgrund von Variationen in Größe und Form und Kontrast mühsam. Daher wurde die Segmentierung von Hautläsionen zu einer herausfordernden Aufgabe für Forscher und Dermatologen. Die Segmentierung medizinischer Bilder spielt eine wichtige Rolle in der medizinischen Diagnostik und Weiterbehandlung. Obwohl es viele vorgeschlagene Bildsegmentierungstechniken gibt, gibt es keine perfekte Segmentierungsmethode, die verschiedene Datensätze unterstützt. Dieses Papier präsentiert ein effizientes Hautläsionssegmentierungsmodell unter Verwendung eines Convolutional Deconvolutional Neural Networks (CDNN). Das vorgeschlagene Framework wird basierend auf Convolutional Neural Networks (CNN) entwickelt, indem das Klassifizierungsnetzwerk durch ein Segmentierungsnetzwerk ersetzt wird. Das vorgeschlagene Modell verwendet den anspruchsvollen Datensatz der International Skin Imaging Collaboration (ISIC) 2017 und den PH2-Datensatz, und die Ergebnisse werden mit den State-of-Art-Modellen U-Net und SegNet verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1086-8_38 fafd0c4cc6477280e9a8b5173fc09089;de;;;7.4.;;;Digitale Grenzen: Design eines Systems zur Erkennung von Tierversuchen basierend auf Deep Learning Tiere, die sich auf der Suche nach Nahrung in menschliche Siedlungen verirren, verursachen Konflikte, die Menschen, Tiere oder beides verletzen. Der Einsatz von Technologie kann dazu beitragen, Konflikte zwischen Mensch und Tier zu reduzieren, und eine solche Lösung ist der Einsatz eines vollautomatischen Überwachungssystems zur Erkennung von Tierverstößen. Dieses Papier beschreibt ein neuartiges End-to-End-Design eines auf Computer Vision und Deep Learning basierenden, verteilten, kostengünstigen, skalierbaren und robusten kameraübergreifenden Tracking-Systems zur Erkennung von Eindringlingen von Tieren, das entlang der Grenzen gefährdeter Gebiete installiert werden soll ( daher der Name,;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1103-2_17 6431898ff9ea7a39f4c83d6bc04cd3d9;de;;;7.4.;;;Überblick über die monokulare Tiefenschätzung basierend auf Deep Learning Die monokulare Tiefenschätzung zielt darauf ab, Tiefeninformationen aus einem einzelnen Bild zu schätzen. Es spielt eine wichtige Rolle in verschiedenen Anwendungen, darunter SLAM, Robotik und autonomes Fahren und so weiter. Die monokulare Tiefenschätzung wird oft als schlecht gestelltes Problem beschrieben. Mit dem Aufkommen tiefer neuronaler Netze hat sich auch die auf Deep Learning basierende monokulare Tiefenschätzung stark entwickelt. In diesem Artikel besprechen wir einige repräsentative monokulare Tiefenschätzungsmethoden, die auf Deep Learning basierend auf verschiedenen Trainingsmethoden basieren: überwacht, selbstüberwacht und schwach überwacht. Anschließend vergleichen wir diese drei Methodentypen und veranschaulichen ihre Anwendungsszenarien. Abschließend analysieren wir getrennt die Verbesserungspotenziale der drei Methodentypen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-2336-3_47 292aed59d1df9e0191b0a16ef94892f0;de;;;7.4.;;;Machine-Learning-Ansätze für Link-Based Clustering In diesem Kapitel haben wir mehrere hochmoderne Machine-Learning-Ansätze für verschiedene Arten von Link-basiertem Clustering untersucht. Insbesondere haben wir das spektrale Clustering für heterogene relationale Daten, die symmetrische konvexe Codierung für homogene relationale Daten, das Zitationsmodell zum Clustern der speziellen, aber beliebten homogenen relationalen Daten – die Textdokumente mit Zitaten, das probabilistische Clustering-Framework für gemischte Mitgliedschaft für allgemeine relationale Daten und das statistische grafische Modell für dynamisches relationales Clustering. Die Wirksamkeit dieser Machine-Learning-Ansätze haben wir durch empirische Evaluationen nachgewiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-6515-8_1 cdc8a62823e6f122b004d934f1cda181;de;;;7.4.;;;Deep Learning-basierte Fragengenerierung mit T5 Transformer Die manuelle Erstellung von Fragen ist ein langwieriger und komplizierter Prozess. Methoden der automatischen Fragengenerierung (AQG) arbeiten daran, diese Kosten zu senken und die Anforderung nach einem permanenten Angebot an neuen Fragen zu erfüllen. Aktuelle AQG-Techniken verwenden komplizierte Architekturen, die intensive Rechenressourcen sowie ein tieferes Verständnis des Themas erfordern. In diesem Beitrag schlagen wir ein End-to-End-AQG-System vor, das die Leistung eines kürzlich eingeführten Transformators nutzt, des Text-to-Text Transfer Transformer (T5). Wir verwenden das vortrainierte T5-Modell und verfeinern es für unsere nachgelagerte Aufgabe der Fragengenerierung. Unser Modell funktioniert sehr gut bei unsichtbaren Daten und generiert wohlgeformte und grammatikalisch korrekte Fragen. Diese Fragen können direkt von Schülern verwendet werden, um ihr eigenes Verständnisniveau zu überprüfen, und Lehrern, um Schlüsselkonzepte bei Bedarf schnell zu vertiefen. Das Modell wurde auch in Form einer Webanwendung für den öffentlichen Zugriff bereitgestellt. Diese Anwendung dient als pädagogisches Instrument, mit dem jeder sein Wissen bewerten und Verbesserungspotenziale identifizieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0401-0_18 7709fd53eb2e6e62b3240f6654ca8019;de;;;7.4.;;;Eine verbesserte Optimierungstechnik mit Deep Neural Networks zur Ziffernerkennung In der Welt des Information Retrieval ist das Erkennen handgeschriebener Ziffern eine interessante Anwendung des maschinellen Lernens (Deep Learning). Obwohl dies bereits ein ausgereiftes Gebiet ist, ist eine Methode zur Erkennung von Ziffern mithilfe einer effektiven Optimierung mit Soft-Computing-Technik eine herausfordernde Aufgabe. Das Training eines solchen Systems mit größeren Daten scheitert oft an der höheren Rechen- und Speicherkapazität. In diesem Papier dient ein rekurrentes tiefes neuronales Netzwerk mit hybridem Mini-Batch und stochastischer hessischer Optimierung (MBSHF) für eine genaue und schnellere Konvergenz von Vorhersagen als Ausgabe. Eine Näherung zweiter Ordnung wird verwendet, um eine bessere Leistung beim Lösen quadratischer Gleichungen zu erzielen, die stark von der Berechnung und Speicherung abhängt. Außerdem verwendet die vorgeschlagene Technik einen iterativen Minimierungsalgorithmus für eine schnellere Konvergenz unter Verwendung einer zufälligen Initialisierung, obwohl riesige zusätzliche Parameter beteiligt sind. Als Lösung wird eine konvexe Annäherung der MBSHF-Optimierung formuliert und ihre Leistung beim Experimentieren mit dem Standard-MNIST-Datensatz diskutiert. Ein rekurrentes tiefes neuronales Netz bis zu einer Tiefe von 20 Schichten wird erfolgreich unter Verwendung der vorgeschlagenen MBSHF-Optimierung trainiert, was zu einer besseren Leistung bei der Berechnung und Speicherung führt. Die Ergebnisse werden mit anderen Standardoptimierungstechniken wie Minibatch stochastischer Gradientenabstieg (MBSGD), stochastischer Gradientenabstieg (SGD), stochastische hessische Optimierung (SHF), hessische Optimierung (HF), nichtlinearer konjugierter Gradient (NCG) verglichen. . Die vorgeschlagene Technik ergab eine höhere Erkennungsgenauigkeit von 12,2 % besser als MBSGD, 27,2 % besser als SHF, 35,4% besser als HF, 40,2 % besser als NCG und 32 % besser als SGD im Durchschnitt bei Anwendung auf eine Stichprobengröße von 50.000.;-;-;-;https://link.springer.com/article/10.1007/s00500-020-05262-3 8972f7a8a5c7430a149474d4ba1cd6d1;de;;;7.4.;;;Weiches spektrales Clustering-Ensemble, angewendet auf die Bildsegmentierung In diesem Beitrag wird ein unüberwachter Lernalgorithmus namens Soft Spectral Clustering Ensemble (SSCE) vorgeschlagen. Bis jetzt können viele vorgeschlagene Ensemblealgorithmen nicht auf Bilddaten angewendet werden, selbst Bilder mit nur 256 × 256 Pixeln sind zu teuer in Bezug auf Rechenkosten und Speicher. Das vorgeschlagene Verfahren ist zum Durchführen einer Bildsegmentierung geeignet und kann bis zu einem gewissen Grad einige offene Probleme der spektralen Clusterbildung (SC) lösen. In diesem Papier werden ein zufälliger Skalierungsparameter und eine Nyström-Approximation angewendet, um die einzelnen Spektralcluster für das Ensemble-Lernen zu generieren. Wir modifizieren den Standard-SC-Algorithmus leicht, um eine weiche Partition zu erhalten, und bilden ihn dann über eine zentralisierte Logkontrast-Transformation ab, um die Beschränkung der Wahrscheinlichkeitsdaten zu lockern, deren Summe eins ist. Alle zugeordneten Daten werden verkettet, um die neuen Features für jede Instanz zu bilden. Die Hauptkomponentenanalyse (PCA) wird verwendet, um die Dimension der neuen Funktionen zu reduzieren. Das endgültige aggregierte Ergebnis kann durch das Clustern dimensionsreduzierter Daten erreicht werden. Experimentelle Ergebnisse zu UCI-Daten und verschiedenen Bildtypen zeigen, dass der vorgeschlagene Algorithmus im Vergleich zu einigen bestehenden Konsensfunktionen effizienter ist.;-;-;-;https://link.springer.com/article/10.1007/s11704-010-0161-9 e13ccf5bb6f9ee45f62f90143b0f594f;de;;;7.4.;;;Automatisches Zählen von Bahnwerkzeugen basierend auf Deep Learning Der tägliche Eisenbahnbetrieb und die Wartung leiden unter dem schwerwiegenden Problem des Verlustes von Eisenbahnwerkzeugen. Um das Problem zu lösen, wird ein automatisches Zählverfahren von Eisenbahnwerkzeugen basierend auf Deep Learning vorgeschlagen. Unsere Methode basiert auf Toolkit-Images, die erhalten werden, bevor ein Toolkit an einen Mitarbeiter geliefert wird und nachdem es zurückgegeben wird. Durch das Erkennen und Vergleichen von Eisenbahnwerkzeugen in Toolkit-Bildern kann unser Ansatz fehlende Werkzeuge automatisch erkennen. Unsere Arbeit dehnt die Forschung der Objekterkennung auf die praktische Anwendung im Bahnbetrieb und in der Instandhaltung aus. Um das Sparsity-Problem von Bildabtastwerten zu lösen, wird ein Bilddatensatz-Erweiterungsalgorithmus zum Oversampling verwendet. In Kombination mit der Transfer-Lernstrategie ist unser Ansatz in der Lage, Bahnwerkzeuge anhand von Bildern in komplexen Außenumgebungen automatisch und genau zu zählen. Die Experimente wurden basierend auf realen Datensätzen durchgeführt. Die Ergebnisse zeigen, dass unsere Methode Bahnwerkzeuge mit einem mAP von 83% genau erkennen kann, was den Anforderungen praktischer Anwendungen genügt. Unsere Arbeit bietet vor allem eine starke technische Basis für einen intelligenten Bahnbetrieb und -instandhaltung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9031-3_31 13adc47d688657676580e5dd7039e266;de;;;7.4.;;;Ein Deep-Learning-Modell für die Multi-Label-Klassifizierung mit Capsule Networks In den letzten Jahren wurde die Single-Label-Klassifizierung intensiv untersucht. In öffentlichen Datensätzen ist die Anzahl der mehrfach gekennzeichneten Bilder jedoch viel größer als die Anzahl der einfach gekennzeichneten Bilder, was bedeutet, dass die Untersuchung der Bildklassifizierung mit mehreren Kennzeichnungen wichtiger ist. Der Großteil des veröffentlichten Netzwerks für die Multi-Label-Bildklassifizierung verwendet ein CNN mit einer Sigmoid-Schicht, das sich von dem Single-Label-Klassifizierungsnetzwerk unterscheidet, das ein CNN mit einer Softmax-Schicht verwendet. Die binäre Kreuzentropie wird häufig als Verlustfunktion für die Multilabel-Bildklassifizierung verwendet. Aufgrund des komplexen zugrunde liegenden Objektlayouts und der durch mehrere Tags verursachten Merkmalsverwirrung ist die Wirkung von CNN mit einer Sigmoid-Schicht auf die Klassifizierung von Bildern mit mehreren Labels jedoch nicht zufriedenstellend. Kürzlich wurde das Konzept von Kapselnetzwerken vorgeschlagen, um einige Beschränkungen von CNN zu durchbrechen. In diesem Artikel wurde eine Kapselnetzwerkschicht verwendet, um die herkömmliche vollständig verbundene Schicht und die Sigmoidschicht im CNN-Netzwerk zu ersetzen, um die Wirkung der Bildklassifizierung mit mehreren Etiketten zu verbessern. Um das Konvergenzproblem des tiefen Netzwerks aufgrund unzureichender Trainingsdaten zu lösen, wurden Techniken zur Feinabstimmung von DCNNs auf die Kapselnetzwerkarchitektur angewendet. In den Experimenten wurden drei Datensätze verwendet, PASCAL VOC 2007, PASCAL VOC 2012 und NUS-WIDE. Die vorgeschlagene CNN+Capsule-Architektur wurde mit der traditionellen CNN+FullyConnected-Architektur verglichen. Es hat sich gezeigt, dass die vorgeschlagene CNN+Capsule-Architektur mit unterschiedlichen Parametereinstellungen durchweg eine bessere Leistung erzielen kann als die CNN+FullyConnected-Architektur.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-26763-6_14 d77cb656d427c6105bac6562db89bf82;de;;;7.4.;;;Multispektrale Objekterkennung mit Deep Learning Die Objekterkennung in natürlichen Szenen kann eine herausfordernde Aufgabe sein. In vielen realen Situationen ist das sichtbare Spektrum für traditionelle Computer-Vision-Aufgaben nicht geeignet. Das Bewegen außerhalb des sichtbaren Spektrums, wie etwa des thermischen Spektrums oder der Nahinfrarot(NIR)-Bilder, ist bei schlechten Sichtverhältnissen viel vorteilhafter. NIR-Bilder sind sehr hilfreich, um die Materialqualität des Objekts zu verstehen. In dieser Arbeit haben wir Bilder sowohl mit dem Thermal- als auch mit dem NIR-Spektrum für die Objekterkennungsaufgabe aufgenommen. Da multispektrale Daten sowohl mit Thermal als auch mit NIR für die Detektionsaufgabe nicht verfügbar sind, mussten wir selbst Daten sammeln. Die Datenerhebung ist ein zeitaufwändiger Prozess und wir waren mit vielen Hindernissen konfrontiert, die wir überwinden mussten. Wir trainieren das YOLO v3-Netzwerk von Grund auf neu, um ein Objekt aus multispektralen Bildern zu erkennen. Um eine Überanpassung zu vermeiden, haben wir außerdem eine Datenerweiterung durchgeführt und Hyperparameter angepasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-75529-4_9 73031cce5cd193c1700f3df4a7876b78;de;;;7.4.;;;Deep-Learning-basierte Erkennung von Stichverletzungen in Geldautomaten-Kiosken für intelligente Videoüberwachungsanwendungen Die Rolle von Computer-Vision-Algorithmen für die Analyse menschlicher Handlungen sowie ihres Verhaltens gewinnt zunehmend an Bedeutung, da sie sogar dazu verwendet werden könnten, die komplexe Aktion eines Menschen zu erkennen, der andere ersticht. Die instinktive Aufdeckung solcher Gewalttaten schränkt die Straftaten ein und gewährleistet den Schutz der Öffentlichkeit. Um dieser sozialen Bedrohung zu begegnen, stellt dieses Papier eine intelligente Videoanalyse zur Erkennung der Stichaktion von ATM-Überwachungsanwendungen vor, indem eine statische Kameraumgebung angenommen wird. Die Datensatzsammlung ist der wesentliche Beitrag zu diesem komplexen Aktionserkennungs-Framework. Mittels MAMR (Motion Assisted Matrix Restoration) wurden Vordergrundextraktionen und -markierungen durchgeführt, und dann wurde der hierarchische You Look Only Once (YOLO) v3-Detektor zur weiteren Erkennung des „Messer-in-Hand“ des Verdächtigen eingesetzt. Darüber hinaus wird in dieser Videoanalyse eine auf Lucas Kannade (LK) und Weber Local Descriptor (WLD) basierende Bewegungserkennung unter Verwendung des Hybridnetzwerks YOLO v3 (Darknet-53) ausgeführt. Schließlich werden in der vorgeschlagenen hybridbasierten hierarchischen Struktur die Ergebnisse dieser Two Stream (TS)-Erkennungsergebnisse verkettet, indem der Durchschnitt ihrer Klassifizierungsbewertungen gebildet wird, um die Stichaktion zu bestätigen, und sie wurden mit der Metric Average Precision (mAP)-Metrik auf ATM und . validiert Nicht-ATM-Überwachungsvideos.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1103-2_30 ac2857d099fe57122a5f9e17d60902d9;de;;;7.4.;;;Machine-Learning-basierte Bildkategorisierung In diesem Beitrag wird ein neuartiges und effizientes automatisches Bildkategorisierungssystem vorgeschlagen. Dieses System integriert die MIL-basierten und Global-Feature-basierten SVMs zur Kategorisierung. Die IPs (Instance Prototypes) werden aus den segmentierten Regionen abgeleitet, indem MIL auf die Trainingsbilder aus verschiedenen Kategorien angewendet wird. Die IPs-basierten Bildmerkmale werden ferner als Eingaben für einen Satz von SVMs verwendet, um die optimalen Hyperebenen zum Kategorisieren von Trainingsbildern zu finden. In ähnlicher Weise werden globale Bildmerkmale, einschließlich Farbhistogramm und Kantenhistogramm, in einen anderen Satz von SVMs eingespeist. Für jedes Testbild werden zwei Sätze von Bildmerkmalen konstruiert und an die beiden jeweiligen Sätze von SVMs gesendet. Die Entscheidungswerte aus zwei Sätzen von SVMs werden schließlich eingearbeitet, um die endgültigen Kategorisierungsergebnisse zu erhalten. Die empirischen Ergebnisse zeigen, dass das vorgeschlagene System die Peer-Systeme sowohl in Bezug auf Effizienz als auch Genauigkeit übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/11559573_72 83d06b9ab0c9e35a0977f7a2e487a0e2;de;;;7.4.;;;Erkennung von Haushaltsgeräten mit Edge Intelligence Umgebungen mit Ambient Assisted Living (AAL) sind ein Schlüsselkonzept für den Umgang mit dem unvermeidlichen Problem der Bevölkerungsalterung. Bis vor kurzem war der Einsatz rechenintensiver Techniken wie Machine Learning (ML) oder Computer Vision (CV) aufgrund der begrenzten Ressourcen für IoT-Endknoten nicht geeignet. Die jüngsten Fortschritte in der Edge-Intelligenz haben diese Landschaft für intelligente Umgebungen jedoch irgendwie verändert. Dieses Papier stellt ein AAL-Szenario vor, in dem die Verwendung von ML bei der Erkennung von Küchengeräten mit CV getestet wird. Ziel ist es, Benutzern bei der Arbeit mit diesen Geräten durch Augmented Reality (AR) auf einem mobilen Gerät zu helfen. Sieben Arten von Küchengeräten wurden ausgewählt: Mixer, Kaffeemaschine, Kühlschrank, Wasserkocher, Mikrowelle, Herd und Toaster. Ein Datensatz mit fast 4900 Bildern wurde organisiert. Es wurden drei verschiedene Deep-Learning-Modelle (DL) aus der Literatur ausgewählt, jedes mit einer Gesamtzahl von Parametern und Architektur, die mit ihrer Ausführung auf mobilen Geräten kompatibel sind. Die beim Training dieser Modelle erhaltenen Ergebnisse zeigen eine Genauigkeit im Testsatz von über 95 % für das Modell mit besseren Ergebnissen. Die Kombination von Edge-KI und ML eröffnet die Anwendung von CV in Smart Homes und AAL, ohne zwingende Anforderungen wie Systemdatenschutz oder Latenz zu beeinträchtigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72660-7_59 96433ee554051be5a010ddb15b1161f3;de;;;7.4.;;;Anwendungen künstlicher Intelligenz in der US-amerikanischen Nuklearindustrie In den Vereinigten Staaten wird die Einführung künstlicher Intelligenz (KI) im Bereich der Kernenergie von einem breiten Spektrum von Organisationen durchgeführt (dh Hersteller von Nuklearausrüstung, Architektur- und Ingenieurbüros, Universitäten, nationale Labors, die Elektrizitätsversorgungsindustrie und kleine Unternehmensgruppen). Die kohärenteste dieser Bemühungen ist ein Programm des Electric Power Research Institute, um die Nützlichkeit von KI in Kernkraftwerken zu demonstrieren (einschließlich der Erweiterung der Anlagenautomatisierung) und eine Vereinbarung mit der NASA, die Technologie ihrer mehrjährigen KI „Kerntechnologie in der Systemautonomie“ “ an die Atomindustrie. Einige Anbieter bieten kommerzielle KI-Produkte an, die die Reaktorbetreiber sowohl im normalen als auch im anormalen Betrieb entlasten. Mehrere KI-Programme an Universitäten und nationalen Labors haben den Schwerpunkt auf Automatisierung, und im Rahmen des Small Business Innovative Research Program wurden einzelne KI-Projekte initiiert. Die grundlegende und synergistische Beziehung zwischen Ausbildungs- und Expertensystemen unterstützt den Einsatz von KI bei der Ausbildung von Nuklearpersonal. Langfristig dürfte der bedeutendste Beitrag der KI die Einführung von KI-Programmiertechniken sein. Bei Computercodes mit mehreren Millionen Zeilen, die für die Verwendung in automatisierten Kernkraftwerken in Betracht gezogen werden, würde die Fähigkeit, Programme ohne weiteres zu modifizieren und verifizierte und validierte Code-Bausteine ​​zu verwenden, außerordentliche Vorteile bieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-1009-9_2 05f4ad80cc0ac9ceea82c3ab6ea3c0b4;de;;;7.4.;;;Herausforderung zur Kollisionsvermeidung von Raumfahrzeugen: Design und Ergebnisse eines Wettbewerbs für maschinelles Lernen Verfahren zur Kollisionsvermeidung von Raumfahrzeugen sind zu einem wesentlichen Bestandteil des Satellitenbetriebs geworden. Komplexe und ständig aktualisierte Schätzungen des Kollisionsrisikos zwischen umkreisenden Objekten informieren verschiedene Betreiber, die dann Maßnahmen zur Risikominderung planen können. Solche Maßnahmen können durch die Entwicklung geeigneter Modelle des maschinellen Lernens (ML) unterstützt werden, die beispielsweise die zeitliche Entwicklung des Kollisionsrisikos vorhersagen. Im Oktober 2019 veröffentlichte die Europäische Weltraumorganisation (ESA) einen großen kuratierten Datensatz mit Informationen über Nahanflugereignisse in Form von Konjunktionsdatennachrichten (CDMs), die von 2015 bis 2019 gesammelt wurden in der Spacecraft Collision Avoidance Challenge, einem ML-Wettbewerb, bei dem die Teilnehmer Modelle bauen mussten, um das endgültige Kollisionsrisiko zwischen umkreisenden Objekten vorherzusagen. Dieses Papier beschreibt das Design und die Ergebnisse des Wettbewerbs und diskutiert die Herausforderungen und gewonnenen Erkenntnisse bei der Anwendung von ML-Methoden auf diese Problemdomäne.;-;-;-;https://link.springer.com/article/10.1007/s42064-021-0101-5 628b58bd18abae21df6e3dbe656a940b;de;;;7.4.;;;Eine Agenda für die Zukunft Wie wir in diesem Buch gesehen haben, ist die Theorie der Glaubensfunktionen eine Modellierungssprache zur Darstellung und Kombination elementarer Beweismittel, die nicht unbedingt in Form von scharfen Aussagen vorliegen, mit dem Ziel, eine mathematische Darstellung der Überzeugungen eines Agenten aufrechtzuerhalten über die Aspekte der Welt, die der Agent nicht mit hinreichender Sicherheit vorhersagen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63153-6_17 f92123f606c7d2147058358aeb5dafec;de;;;7.4.;;;Deep Learning-basierte umgekehrte Methode des Binärprotokolls Mit dem Wachstum der Netzwerkausrüstung wird die Sicherheit der Netzwerkzugangsumgebung besonders wichtig. Viele Netzwerksicherheitstechnologien wie Vulnerability Mining, Fuzzy Testing und Intrusion Detection haben immer mehr Aufmerksamkeit auf sich gezogen. Die Effektivität dieser Sicherheitstechnologien wird jedoch angesichts unbekannter Protokolle stark eingeschränkt sein. Durch automatisches Extrahieren der Formatinformationen unbekannter Protokolle durch die Protokollumkehrtechnologie kann die Verarbeitungsfähigkeit der obigen Sicherheitstechnologien angesichts unbekannter Protokolle verbessert werden. In dieser Arbeit wird durch die Analyse der sich ändernden Eigenschaften von Protokollfeldern ein Feldsequenzcodierverfahren vorgeschlagen, das geeignet ist, die Feldsequenzeigenschaften verschiedener Protokolle widerzuspiegeln und die Verallgemeinerungsfähigkeit des Modells verbessern kann. Unter Verwendung des obigen Feldsequenzcodierverfahrens wird ein Feldklassifizierungsmodell für unbekannte Protokolle basierend auf dem LSTM-FCN-Netzwerk implementiert, das bei Zeitreihenklassifizierungsaufgaben weit verbreitet ist. Schließlich wird ein auf Deep Learning basierendes Binärprotokoll-Reverse-Verfahren vorgeschlagen. Das Verfahren basiert auf dem Feldklassifikationsmodell und realisiert die Aufteilung und Typidentifikation von unbekannten Protokollfeldern entsprechend den Klassifikationsergebnissen. Im Experiment weist das Feldklassifizierungsmodell eine hohe Genauigkeit und Erinnerung in verschiedenen Protokollen auf, was zeigt, dass das Modell die Fähigkeit besitzt, den Feldtyp entsprechend den sich ändernden Eigenschaften des Feldes zu identifizieren. Das vorgeschlagene Protokollumkehrverfahren identifiziert auch das Feld und seinen Typ genau und schnell, was die Umkehrfähigkeit des Verfahrens zu unbekannten binären Protokollen beweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9129-7_42 488746bc5b85828f0c7548ad7db92a7e;de;;;7.4.;;;Deep Learning lokal geschulte Wildtiererkennung in einer echten akustischen Feuchtgebietsumgebung Wir beschreiben „Tidzam“, eine Anwendung von Deep Learning, die ein dichtes, multimodales Sensornetzwerk nutzt, das bei einer großen Feuchtgebietsanierung in Tidmarsh, einer 600 Hektar großen ehemaligen Cranberry-Farm im industriellen Maßstab im Süden von Massachusetts, installiert wurde. Die akustische Überwachung von Wildtieren ist eine entscheidende Kennzahl bei der Bewertung der Prozesse nach der Restaurierung sowie eine Herausforderung in einer so lauten Umgebung im Freien. Dieser Artikel stellt das gesamte Tidzam-System vor, das entwickelt wurde, um in Echtzeit die Umgebungsgeräusche von Wetterbedingungen sowie Schallereignisse wie Insekten, Kleintiere und lokale Vogelarten von auf dem Gelände eingesetzten Mikrofonen zu erkennen. Dieses Experiment bietet Einblicke in die Verwendung von Deep-Learning-Technologie in einer realen Bereitstellung. Die Originalität dieser Arbeit betrifft die Fähigkeit des Systems, eine eigene Datenbank aus lokalen Audiosamplings unter der Aufsicht von menschlichen Besuchern und Vogelexperten aufzubauen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-5758-9_1 6aec9081ddcb7eeab226e2f5f09a6a83;de;;;7.4.;;;Deep Learning-Techniken für die visuelle Lebensmittelerkennung in einer mobilen App Das Papier bietet eine effiziente Lösung zur Implementierung einer mobilen Anwendung zur Lebensmittelerkennung mithilfe von Convolutional Neural Networks (CNNs). Verschiedene CNN-Architekturen wurden an zwei in der Literatur verfügbaren Datensätzen trainiert und getestet, und der beste in Bezug auf die Genauigkeit wurde ausgewählt. Da unser CNN auf einem Mobiltelefon läuft, wurden auch Effizienzmessungen sowohl in Bezug auf Speicher- als auch Rechenanforderungen berücksichtigt. Die mobile Anwendung wurde basierend auf RenderScript implementiert und die Gewichtungen jeder Schicht wurden in verschiedenen Dateien im Mobiltelefonspeicher serialisiert. Umfangreiche Experimente wurden durchgeführt, um die optimale Konfiguration und Abstimmungsparameter zu wählen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98678-4_31 eaf2e8df2bf8da18627fd1815bda161c;de;;;7.4.;;;Ein kurzer Überblick über die jüngsten Fortschritte bei der Objekterkennung mit Deep Learning Objekterkennung wird innovativ mit Deep Learning kombiniert und macht in den letzten Jahren deutliche Fortschritte. In diesem Papier fassen wir zunächst einige bedeutende Errungenschaften der Objekterkennung in den letzten Jahren zusammen, stellen dann zwei Mainstream-Detection-Frameworks vor, integrieren fünf bedeutende Herausforderungen bei der Objekterkennung und entsprechende Lösungen, listen dann vier bekannte Objekterkennungs-Datensätze und Bewertungsmetriken auf, und einige Anwendungen im Zusammenhang mit der Objekterkennung aufzählen. Abschließend stellen wir einige unserer Ansichten und zukünftigen Forschungsrichtungen entsprechend dem Status Quo dieser Domäne vor, um die Forschung zur Objekterkennung basierend auf Deep Learning zu erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6420-2_43 c1e4e9b120cef9a12f957eb47d6b2382;de;;;7.4.;;;Deep Point Cloud Odometrie: Eine auf Deep Learning basierende Odometrie mit 3D-Laserpunktwolken Deep-Learning-basierte Methoden haben der Posenschätzungsforschung, die eine entscheidende Rolle bei der Ortung und Navigation spielt, mehr Aufmerksamkeit geschenkt. Wie die Pose direkt aus der Punktwolke datengetrieben vorhergesagt werden kann, bleibt eine offene Frage. In diesem Artikel stellen wir ein auf Deep Learning basierendes Laser-Odometrie-System vor, das aus einer Netzwerkposeschätzung und einer lokalen Kartenposenoptimierung besteht. Das Netzwerk verwendet die ursprünglichen 3D-Punktwolken direkt und sagt die relative Pose aus aufeinanderfolgenden Laserscans voraus. Eine Scan-to-Map-Optimierung wird verwendet, um die Robustheit und Genauigkeit der vom Netzwerk vorhergesagten Posen zu verbessern. Wir haben unser System anhand des KITTI-Odometrie-Datensatzes bewertet und die Wirksamkeit des vorgeschlagenen Systems überprüft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-64221-1_14 0b5c0be6a88d1af55d370d5aca9a6870;de;;;7.4.;;;Vergleichende Untersuchung von Reifungsprofilen neuronaler Zellen verschiedener Spezies mit Hilfe von Computer Vision und Deep Learning Eine vergleichende Analyse der neuronalen Zusammensetzung in miteinander verbundenen Spezies kann sich auf ihre neuronalen Unterschiede während der Metamorphose konzentrieren und kann verwendet werden, um die Variation der „neuronalen Grundlagen der Kognition“ und die Anfälligkeit für neuronale Indisposition zu analysieren. In diesem Artikel haben wir Neuroblasten-Vorläuferzellen (NPC) von Menschen und Schimpansen (und Bonobos) verglichen, um zu beobachten, ob der Verlust des Amyloid-Vorläuferproteins während der Evolution die NPC-Migration aufgrund unterschiedlicher Migrationskurven von NPC zwischen menschlichen und nicht-menschlichen Primaten beeinflussen kann kann vorschlagen, wie sich chronische phänotypische Veränderungen menschlicher Neuronen von denen nichtmenschlicher Primaten unterscheiden können. Durch die Bewertung der Vergleichsstudie zwischen den Arten der mittleren Geschwindigkeit jeder Zelle und der Halbwertszeit des Lückenschlusses im Wundheilungsassay können unterschiedliche dendritische Reifungszeiten zwischen den Arten erhalten werden. Eine schnellere NPC-Migration kann auf andere zellautonome Eigenschaften hinweisen. Daher haben wir die In-vitro-Technologie für pluripotente Stammzellen analysiert, um die Reife und Entwicklung von NPC herauszufinden. Wir haben Deep-Learning-Algorithmen zur Segmentierung des Zellkörpers aus dem Hintergrund und zur Verfolgung der Zellmigration aus mikroskopischen Videos aus dem Versuchsaufbau verwendet. Unsere Ergebnisse zeigen unterschiedliche Migrationsmuster zwischen den Spezies, was auf unterschiedliche Reifungsprofile sowie unterschiedliche Reifungsraten von Neuroblastenzellen in verschiedenen Spezies hindeutet. Die Arbeit legte den Grundstein für weitere Analysen in diesem Bereich.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0425-6_26 729a9b8ec7363862cc5bbc29ae24bc5a;de;;;7.4.;;;Überprüfung von Deep-Learning-Techniken zur Objekterkennung und -klassifizierung Objekterkennung und -klassifizierung ist ein sehr wichtiger Bestandteil der Computer Vision-Domäne. Es hat seine Rolle in verschiedenen Lebensbereichen wie Sicherheit, Sicherheit, Spaß, Gesundheit und Komfort usw. Unter Schutz und Sicherheit ist die Überwachung ein kritischer Anwendungsbereich, in dem die Objekterkennung zunehmend an Bedeutung gewonnen hat. Das Objekt kann in diesem Fall ein Mensch und andere verdächtige und sensible Objekte sein. Die korrekte Erkennung und Klassifizierung von Genauigkeitsmaßen ist bei diesen Problemen immer eine Herausforderung. Heutzutage werden Deep-Learning-Techniken als effektives und effizientes Werkzeug für verschiedene Klassifizierungsprobleme eingesetzt. Mit Blick auf diese Fakten wurde in diesem Papier eine Übersicht über verfügbare Deep-Learning-Architekturen für das Problem der Objekterkennung und -klassifizierung vorgestellt. Die zur Überprüfung in Betracht gezogenen Klassifizierungsmodelle sind AlexNet, VGG Net, GoogLeNet, ResNet. Der für die Experimente verwendete Datensatz ist der Caltech-101-Datensatz und die für die Bewertung verwendeten Standardleistungsmaße sind True Positive Rate (TPR), False Positive Rate (FPR) und Accuracy.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2372-0_37 b60a878fa9635b61fb95ffff33a3ea22;de;;;7.4.;;;Erkennung von abnormalem Verhalten in Videos mit Deep Learning Eine neue Methode zur Erkennung von abnormalem Verhalten wird vorgeschlagen, die Deep Learning verwendet. Zwei SDAEs werden verwendet, um automatisch Erscheinungsmerkmale bzw. Bewegungsmerkmale zu lernen, die im Raum-Zeit-Volumen entlang dichter Trajektorien eingeschränkt sind, die reichhaltige Bewegungsinformationen enthalten, um die Rechenkomplexität zu reduzieren. Die Visionswörter werden ausgenutzt, um das Verhalten durch den Wortschatz zu beschreiben, und um die Merkmalsdimensionen zu reduzieren, wird der Ansatz des agglomerativen Informationsengpasses für die Vokabularkomprimierung verwendet. Ein adaptives Merkmalsfusionsverfahren wird verwendet, um die Unterscheidungskraft dieser Merkmale zu verbessern. Eine spärliche Darstellung wird zur Erkennung von abnormalem Verhalten ausgenutzt, wodurch die Erkennungsgenauigkeit verbessert wird. Die vorgeschlagene Methode wird anhand des öffentlichen Datensatzes BEHAVE und BOSS verifiziert und die Ergebnisse zeigen die Wirksamkeit der vorgeschlagenen Methode.;-;-;-;https://link.springer.com/article/10.1007/s10586-018-2114-2 12a1bf12d8de68bce43e319b172986d3;de;;;7.4.;;;Ähnlichkeitsmessung zwischen rekonstruiertem 3D-Gesicht und 2D-Gesicht basierend auf Deep Learning Die kraniofaziale Rekonstruktionstechnologie ist im Bereich der strafrechtlichen Ermittlungen von großer Bedeutung. Aber die Rekonstruktion eines Gesichts aus dem Schädel ist nicht das Ende der Arbeit. Die Schlüsseltechnologie ist die Ähnlichkeitsmessung zwischen rekonstruiertem 3D-Gesicht und 2D-Gesichtsbild. Es kann nicht nur verwendet werden, um das ähnlichste Gesichtsbild aus einer fehlenden Bevölkerungsdatenbank abzurufen, sondern kann auch verwendet werden, um die Rekonstruktionsmethoden zu bewerten. Wir haben einen rekonstruierten 3D-Gesichtsdatensatz erstellt, ein Modell zur Extraktion von Tiefenmerkmalen trainiert und ein neuronales Netzwerk zur Ähnlichkeitsmessung aufgebaut. Zunächst müssen das rekonstruierte 3D-Gesicht und das 2D-Gesichtsbild vorverarbeitet werden. Zweitens ist das tiefe Netzwerk für die Ähnlichkeitsmessung ausgelegt. Schließlich haben wir das vorgeschlagene Modell getestet. Die Genauigkeit der Ähnlichkeit zwischen zwei Arten von Gesichtsbildern betrug 96,67 %. Experimente zeigen, dass das vorgeschlagene neuronale Netzwerkmodell die Ähnlichkeit zwischen zwei Arten von Gesichtsbildern effektiv messen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-31456-9_28 0f267646d220d5781acb74f6650d77d9;de;;;7.4.;;;Die Übertragbarkeit von drei Arten von Text-Mining-Techniken in das Patenttext-Genre In diesem Buchkapitel haben wir die Portabilität verschiedener bekannter Text-Mining-Techniken für Patenttexte untersucht. Wir testen die Techniken, indem wir drei verschiedene Anwendungen zur Extraktion von Relationen ansprechen: Akronym-Extraktion, Hyponymie-Extraktion und Extraktion von Faktoid-Entity-Relationen. Diese Anwendungen erfordern unterschiedliche Arten von Tools zur Verarbeitung natürlicher Sprache, von der einfachen Übereinstimmung mit regulären Ausdrücken (Akronymextraktion) über das Chunking von Wortarten und Phrasen (Hyponymieextraktion) bis hin zu einem ausgewachsenen Abhängigkeitsparser (Faktoidextraktion). Mit den in diesem Kapitel vorgestellten Anwendungen zur Relationsextraktion möchten wir die Anforderungen an allgemeine Tools zur Verarbeitung natürlicher Sprache verdeutlichen, wenn diese für Patenttexte für eine bestimmte Extraktionsaufgabe eingesetzt werden. Andererseits stellen wir auch sprachtechnologische Verfahren vor, die bereits auf das Patentgenre portabel sind, ohne oder nur mäßige Anpassungen an das Textgenre.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-53817-3_9 9f641a94f90bbce323f66d0e0353a11e;de;;;7.4.;;;Von der linguistischen Wende zur kognitiven Wende und wieder zurück Die Entwicklungen im Bereich der künstlichen Intelligenz weisen auf die Komplexität der Intelligenz hin. Das Ziel dieses Kapitels ist es zu zeigen, dass wir für ein tieferes Verständnis von Intelligenz, das auch die Hauptaufgabe von Walter Pitts und Warren McCulloch ist, künstliche Intelligenz brauchen, aber wir brauchen Psychologie, Neurowissenschaften und wir brauchen auch Philosophie. Die komplexe Natur der Intelligenz weist auf die Notwendigkeit hin, zur Evolution des Verständnisses von Intelligenz zurückzukehren, die wir in den Definitionen finden, mit denen wir operieren, und zur Geschichte des Begriffs selbst. Darüber hinaus scheint die Geschichte der Versuche, Intelligenz zu definieren, darauf hinzuweisen, dass ihr Wesen über viele Bereiche verstreut ist. Die Hinwendung zur Geschichte der Bedeutung des Begriffs selbst kann jedoch das Wesen der Intelligenz enträtseln. Dazu brauchen wir Philosophie. Vielleicht können wir sagen, dass wir das Wesen der Intelligenz aus der Vermischung von Linguistischem und Kognitivem erfassen können. Dafür brauchen wir KI, Psychologie, Neurowissenschaften und Philosophie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37591-1_3 a80f865f88fa7f34ae82a739baf9f71a;de;;;7.4.;;;Multimodale Ansätze bei der Analyse und Interpretation von Big Social Media Data Der allgemeine Konsens zur Definition von Big Data ist, dass die Daten zu groß sind, um sie mit herkömmlichen Methoden zu verwalten. Die heutigen Big-Data-Ansätze werden jedoch irgendwann konventionell werden, bei denen Nicht-Spezialisten ihre Aufgaben ohne Beratungsleistungen erledigen können, ähnlich wie es heute Standard-Computerplattformen sind. In diesem Kapitel nähern wir uns dem Thema aus einer multimodalen Perspektive, konzentrieren uns jedoch strategisch darauf, Daten aus einer einzigen Quelle unter Verwendung mehrerer Modi sinnvoll zu machen, wobei Technologien und Daten für jedermann zugänglich sind. Wir haben Social Media, insbesondere Twitter, aufmerksam gemacht, um den gesamten Prozess unserer multimodalen Analyse von der Datenerfassung bis hin zu den Mixed-Reality-Ansätzen bei der Visualisierung von Daten in nahezu Echtzeit für die Zukunft der Interpretation zu demonstrieren. Unser Argument ist, dass Big-Data-Forschung, die in der Vergangenheit nur für Unternehmen mit großen Investitionsmodellen und akademischen Einrichtungen mit großen Förderströmen zugänglich war, kein Hindernis mehr sein sollte. Stattdessen sollte das größere Thema die Entwicklung multimodaler Ansätze zur Kontextualisierung von Daten sein, um sinnvolle Interpretationen zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-97598-6_15 d9a8158ecfa3958647c7a52a9cc1c69e;de;;;7.4.;;;Mikroskopische Analyse von Blutzellen zur Erkennung von Krankheiten: Ein Rückblick Jede Kontamination im menschlichen Körper kann Veränderungen der Morphologie der Blutzellen und verschiedener Parameter von Zellen hervorrufen. Die winzigen Bilder von Blutzellen werden untersucht, um die Kontamination im Körper mit der Erwartung von Krankheiten und Abweichungen von der Norm zu erkennen. Eine geeignete Segmentierung dieser Zellen macht den Nachweis einer Krankheit immer genauer und energischer. Die mikroskopische Blutzellanalyse ist eine kritische Aktivität bei der pathologischen Analyse. Es hebt die Untersuchung der entsprechenden Krankheit nach exakter Lokalisation, gefolgt von einer Auffälligkeitsordnung, hervor, die eine wesentliche Aufgabe bei der Analyse verschiedener Erkrankungen, der Behandlungsplanung und der Bewertung der Behandlungsergebnisse einnimmt. Ein Überblick über verschiedene Bereiche, in denen die mikroskopische Bildgebung von Blutzellen zur Erkennung von Krankheiten verwendet wird, wird in diesem Beitrag vorgestellt. Es wird ein kleiner Hinweis zur Blutzusammensetzung gegeben, dem eine verallgemeinerte Methodik für die mikroskopische Blutbildanalyse für bestimmte Anwendungen der medizinischen Bildgebung folgt. In diesem Beitrag wird ein Vergleich bestehender Methoden diskutiert, die von Forschern zur Krankheitserkennung mittels mikroskopischer Blutbildanalyse vorgeschlagen wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-76732-7_6 952fd83f9c1106e90ee7887f02984a49;de;;;7.4.;;;Naive Bayessche Klassifikation strukturierter Daten In diesem Artikel stellen wir 1BC und 1BC2 vor, zwei Systeme, die eine naive Bayessche Klassifikation strukturierter Individuen durchführen. Der Ansatz von 1BC besteht darin, die Individuen entlang von Merkmalen erster Ordnung zu projizieren. Diese Merkmale werden aus dem Individuum aufgebaut, indem strukturelle Prädikate verwendet werden, die sich auf verwandte Objekte (z. B. Atome innerhalb von Molekülen) beziehen, und Eigenschaften, die auf das Individuum oder eines oder mehrere seiner verwandten Objekte (z. B. eine Bindung zwischen zwei Atomen) zutreffen. Wir beschreiben ein Individuum durch elementare Merkmale bestehend aus null oder mehr strukturellen Prädikaten und einer Eigenschaft, diese Merkmale werden im Sinne der naiven Bayes-Annahme als bedingt unabhängig behandelt. 1BC2 stellt eine alternative Aufwertung erster Ordnung zum naiven Bayes-Klassifikator dar, indem Wahrscheinlichkeitsverteilungen über strukturierte Objekte (z. . Wir präsentieren eine vereinheitlichende Sicht auf beide Systeme, in denen 1BC im Sprachraum und 1BC2 im individuellen Raum arbeitet. Wir präsentieren auch einen neuen, effizienten rekursiven Algorithmus, der den ursprünglichen Propositionalisierungsansatz von 1BC verbessert. Beide Systeme wurden im Kontext des deskriptiven Lerners erster Ordnung Tertius implementiert, und wir untersuchen die Unterschiede zwischen den beiden Systemen sowohl in rechnerischer Hinsicht als auch an künstlich erzeugten Daten. Schließlich beschreiben wir eine Reihe von Experimenten mit ILP-Benchmark-Datensätzen, die die Durchführbarkeit unseres Ansatzes demonstrieren.;-;-;-;https://link.springer.com/article/10.1023/B%3AMACH.0000039778.69032.ab e51346e3ebbe435fee91339946d3491a;de;;;7.4.;;;Statistische Ensemble-Methode (SEM): Ein neuer Ansatz des meta-maschinellen Lernens basierend auf statistischen Techniken Das Ziel der Kombination der Ausgaben mehrerer Modelle besteht darin, ein verbessertes Metamodell mit höherer Generalisierungsfähigkeit als das beste isolierte Einzelmodell zu bilden. Die meisten gängigen Ensemble-Methoden geben weder die Anzahl der Komponentenmodelle noch deren Komplexität an. Diese Parameter beeinflussen jedoch stark die Verallgemeinerungsfähigkeit des Metamodells. In diesem Beitrag schlagen wir eine Ensemble-Methode vor, die ein Metamodell mit optimalen Werten für diese Parameter generiert. Das vorgeschlagene Verfahren schlägt vor, Resampling-Techniken zu verwenden, um mehrere Schätzungen des Generalisierungsfehlers und mehrere Vergleichsverfahren zu erzeugen, um die Modelle auszuwählen, die kombiniert werden, um das Metamodell zu bilden. Experimentelle Ergebnisse zeigen die Leistungsfähigkeit des Modells bei Regressions- und Klassifikationsaufgaben unter Verwendung künstlicher und realer Datenbanken.;-;-;-;https://link.springer.com/chapter/10.1007/11494669_24 d5df6abb597d10c1c7772eb29853e013;de;;;7.4.;;;Data Mining-basierte Analyse zum Zusammenhang zwischen akademischen Leistungen und Lernmethoden im Urlaub In diesem Beitrag analysieren wir systematisch die Wirkung von Lernmethoden und Lebensweise von Studierenden während der Ferien mit Hilfe von Data-Mining-Techniken. Um dieses Ziel zu erreichen, identifizieren wir zunächst verschiedene Lernmethoden und Lebensweisen, die sich auf die schulischen Leistungen auswirken können. Die Schüler werden zu diesen Punkten über eine Internet-Online-Site befragt und die von den Schülern gesammelten Daten werden in Datenbanken gespeichert. Anschließend stellen wir Datenfiltermethoden dieser gesammelten Daten vor, um Data-Mining-Techniken anzuwenden. Wir schlagen auch die Methoden zur Generierung von Entscheidungsbäumen und Assoziationsregeln aus den gesammelten Daten von Studierenden vor. Schließlich wenden wir die vorgeschlagenen Methoden auf Mittelschüler in einer Stadt in Korea an und analysieren die Wirkung von Lernmethoden während der Ferien auf ihre schulischen Leistungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-37256-1_109 a1821c2ce0e525c7b16450662f3b7bf8;de;;;7.4.;;;Traditionelle vs. maschinelle Lerntechniken: Kundenorientierung: In der heutigen Welt werden schnelle Tools und Techniken benötigt, um Big Data in Informationen umzuwandeln. Herkömmliche Techniken sind robust, können jedoch inhärente Verzerrungen der Modellierungsfähigkeiten von Datenwissenschaftlern aufweisen. Modelle des maschinellen Lernens (ML) lassen die Maschine aus den Daten lernen und leiden möglicherweise nicht unter menschlicher Voreingenommenheit. Einige Forscher argumentieren, dass ML-Techniken das Modell für Big Data schneller umdrehen können, während andere argumentieren, dass traditionelle Techniken immer noch übertreffen würden, wenn die Datenmenge nicht so groß ist. In diesem Papier werden die oben in der Öl- und Gasindustrie (ONG) vorgebrachten Argumente für eine umsetzbare Wissensextraktion anhand von nicht so großen Beispielkundendaten getestet, um die Kampagnenreaktion des Kunden vorherzusagen. Unser Experiment zeigt, dass ML bei unseren Daten die traditionelle Modellierung nicht übertrifft, aber in Bezug auf die Modellgenauigkeit, d. h. den Prozentsatz der korrekt klassifizierten Instanzen, entweder etwas besser oder gleichauf ist. Es stellt auch fest, dass ML-Ergebnisse die Genauigkeit zwar nicht wesentlich verbessern, aber einige von ihnen viel schneller entwickelt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-54430-4_63 c251bf03439f6dc7a31de691c90c02e3;de;;;7.4.;;;Identifizierung der drahtlosen Benutzerwahrnehmung basierend auf unüberwachtem maschinellem Lernen Die drahtlose Benutzerwahrnehmung (WiUP) spielt eine wichtige Rolle bei der Entwicklung von drahtlosen Kommunikationssystemen der nächsten Generation. Benutzer sind sehr sensibel mit der Qualität von WiUP. Die schlechte Qualität von WiUP lässt sich jedoch mit herkömmlichen Methoden nicht erkennen. In diesem Beitrag schlagen wir eine intelligente Identifikationsmethode vor, die unüberwachtes maschinelles Lernen verwendet. Genauer gesagt erstellen wir ein Algorithmusmodell basierend auf historischen Daten, um die Merkmalsextraktion und das Clustering zu realisieren. Der Cluster, der jenen Zellen mit schlechtem WiUP am ähnlichsten ist, wird anhand der euklidischen Distanz identifiziert. Das Experiment wird auf der Grundlage einer großen Menge historischer Daten durchgeführt. Mit mehreren Kontrastexperimenten zeigen die Simulationsergebnisse, dass die vorgeschlagene Methode eine Genauigkeit der Identifizierung von schlechtem WiUP von über 93% erreicht. Die Studie zeigt, dass unüberwachtes maschinelles Lernen effektiv ist, um schlechtes WiUP in drahtlosen Netzwerken zu identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36402-1_54 990746e9eb563563236083356d72161a;de;;;7.4.;;;Big-Data-Algorithmen jenseits des maschinellen Lernens Die Verfügbarkeit von Big Data Sets in Forschung, Wirtschaft und Gesellschaft im Allgemeinen hat viele Möglichkeiten der Nutzung dieser Daten eröffnet. In vielen Anwendungen sind jedoch nicht die Daten selbst von Interesse, sondern wir wollen einige Fragen dazu beantworten. Diese Antworten können manchmal als Lösungen für ein Optimierungsproblem formuliert werden. Wir untersuchen einige algorithmische Methoden, die über große Datensätze hinweg optimieren, über den Bereich des maschinellen Lernens hinaus.;-;-;-;https://link.springer.com/article/10.1007/s13218-017-0517-5 07be9793e1babb0fe918fa027440a8d2;de;;;7.4.;;;Digitale Gesteinsmodellierung eines riesigen Öl- und Gasvorkommens zur Vorhersage der Gesteinsdurchlässigkeit mit ihrer Anpassung durch maschinelles Lernen Bei der mathematischen Modellierung der makroskopischen Eigenschaften poröser Medien wurde das Problem der 3D-Rekonstruktion der Kernmikrostruktur mit maschinellen Lerngeräten berücksichtigt. Die Arbeit entwickelt den Prozess der Modellierung des Porenraums des Kerns und der Bewertung seiner Permeabilität. Der Einsatz des Molekulardynamik-Simulationspakets LAMMPS auf einer hybriden Rechenplattform zur Lösung von Problemen der digitalen Gesteinssimulation wird erwogen. Es wurde eine Methode zur Vorhersage der Gesteinspermeabilität basierend auf den Methoden der Smoothed-Particle-Hydrodynamik entwickelt. Zur Bestimmung der Gesamtporosität des Gesteins wurde eine Technik entwickelt, die auf der Analyse von Bildern lithologisch-petrographischer Dünnschliffe basiert. Convolutional Autoencoder wurden trainiert, um Merkmale von Gesteinsbildern zu extrahieren, die angewendet werden können, um Gestein zu klassifizieren, um das digitale Gesteinsmodell an die verfügbaren Gesteinseigenschaften anzupassen. Die Ergebnisse der numerischen Berechnungen und deren Vergleich mit den Ergebnissen der Laboruntersuchungen des Bohrkerns werden angegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36592-9_17 1b193a6f7fb39a45a21e13422ce2cf4b;de;;;7.4.;;;Aktives Transferlernen von übereinstimmenden Abfrageergebnissen über mehrere Quellen hinweg Entitätsauflösung (ER) ist das Problem der Identifizierung und Gruppierung verschiedener Manifestationen desselben Objekts der realen Welt. Es wurden algorithmische Ansätze entwickelt, bei denen die meisten Aufgaben beim überwachten Lernen eine überlegene Leistung bieten. Die unerschwinglichen Kosten für die Kennzeichnung von Trainingsdaten sind jedoch immer noch ein großes Hindernis, um doppelte Abfragedatensätze aus Online-Quellen zu erkennen. Darüber hinaus erschweren die einzigartigen Kombinationen von verrauschten Daten mit fehlenden Elementen ER-Aufgaben. Um dies anzugehen, wurde Transferlernen eingeführt, um gelernte gemeinsame Strukturen von Ähnlichkeitsbewertungsproblemen zwischen mehreren Quellen adaptiv zu teilen. Obwohl solche Techniken die Kennzeichnungskosten reduzieren, so dass sie in Bezug auf die Anzahl der Quellen linear sind, ist ihre Zufallsstichprobenstrategie nicht erfolgreich genug, um das gewöhnliche Stichprobenungleichgewichtsproblem zu handhaben. In diesem Papier stellen wir ein neuartiges Multi-Source-Active-Transfer-Learning-Framework vor, um gemeinsam weniger Dateninstanzen aus allen Quellen auszuwählen, um Klassifikatoren mit konstanter Präzision/Recall zu trainieren. Die Intuition hinter unserem Ansatz besteht darin, die informativsten Proben aktiv zu kennzeichnen und gleichzeitig kollektives Wissen zwischen Quellen zu übertragen. Auf diese Weise können die erlernten Klassifikatoren auch für unausgewogene oder qualitativ unterschiedliche Quellen sowohl etikettensparend als auch flexibel sein. Wir vergleichen unsere Methode mit den modernsten Ansätzen an Real-Word-Datensätzen. Unsere experimentellen Ergebnisse zeigen, dass unser Algorithmus für aktives Transferlernen eine beeindruckende Leistung mit weit weniger markierten Samples für den Datensatzabgleich mit zahlreichen und unterschiedlichen Quellen erzielen kann.;-;-;-;https://link.springer.com/article/10.1007/s11704-015-4068-3 1b61d49d7c3c342bef31a1a46c73f99e;de;;;7.4.;;;Die forensischen Disziplinen: Einige Bereiche aktueller oder potenzieller Anwendung Wir beginnen zunächst mit einem Ansatz mit künstlicher Intelligenz zur Modellierung von Kriminalitätsszenarien, sobald eine Leiche gefunden wurde. Dann wenden wir uns einer Reihe von Kontexten und Ansätzen zur Verarbeitung menschlicher Gesichter zu: Gesichtserkennungsmethoden und Werkzeuge zur Identifizierung, Vorhersage der Auswirkungen des Alterns auf ein Gesicht (z (mit bearbeiteten Fotografien), Gesichtsrekonstruktion aus Skelettresten und Faktoren der Porträtmalerei, die im TIMUR episodischen Formelmodell analysiert wurden. Ausgehend von diesen beiden Hauptbereichen (Modellierung von Kriminalitätsszenarien und Gesichtsverarbeitung) werfen wir einen breiten Blick auf die forensischen Disziplinen der Expertenmeinung und die manchmal umstrittene Rolle der Statistik in ihnen. Anschließend betrachten wir den Beitrag zur forensischen Wissenschaft der Anthropologie und Archäologie sowie Softwaretools für die menschliche Anatomie. Als nächstes wenden wir uns der forensischen Geologie und Techniken aus der Geophysik, Geruchserkennung und elektronischen Nasen, der forensischen Palynologie und ihren Datenbanken, der Datenverarbeitung in der Umweltforensik und der Forensik zu. Zwei große Abschnitte, die intern jeweils in neun Einheiten unterteilt sind, schließen dieses Kapitel ab: „Individual Identification“ und „Bloodstain Pattern Analysis and the Use of Software for Determining the Impact Angle of Blood Drops“. Ersteres beginnt mit einer Geschichte der Identifizierungsmethoden und setzt sich mit DNA-Beweis und einer Kontroverse unter Statistikern darüber fort, dann diskutieren wir menschliche Fingerabdrücke und die wachsende Skepsis gegenüber der Zuverlässigkeit der Identifizierung durch Fingerabdrücke. Wir wenden uns dann Computertechniken zur Fingerabdruckerkennung zu, und nachdem wir diese untersucht haben, fahren wir fort, zwei solcher Techniken im Detail zu beschreiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-8990-8_8 fbc930a16c9d636686dc5e7dad035cb4;de;;;7.4.;;;Interaktive Datenexploration mit Pattern Mining Wir leben im Datenzeitalter und brauchen Werkzeuge, um in großen Datenmengen wertvolle Informationen zu entdecken. Das Ziel des explorativen Data Mining ist es, so viele Einblicke wie möglich in die gegebenen Daten zu geben. In diesem Bereich zielt das Pattern Set Mining darauf ab, Strukturen in Form von Mustersätzen aufzudecken. Obwohl sich das Pattern Set Mining als wirksame Lösung für die berüchtigte Musterexplosion erwiesen hat, bleiben wichtige Herausforderungen bestehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-43968-5_9 16cfd6cc67543571a8e1f4f19fa8a0fb;de;;;7.4.;;;Vorhersage des Ackerlandes für die Landwirtschaft aus den Bodenmerkmalen mit Data Mining Die Landwirtschaft ist eines der bedeutendsten und einkommensschaffenden Segmente in Indien. Verschiedene Jahreszeiten und organische Muster wirken sich auf die Ernteerzeugung aus, aber da deren Änderung den Viehzüchtern ein phänomenales Unglück bringen kann. Diese Elemente können begrenzt werden, indem eine geeignete Methode verwendet wird, die mit den Informationen über Bodenart, Stärke, angemessenes Klima und Art der Kultur identifiziert wird. Unser Ziel von Bodenmerkmalen soll diese Grundvoraussetzungen erfüllen, dh herauszufinden, ob ein bestimmtes Land vielseitig für die Landwirtschaft ist, mit den idealen Bedingungen für die Landwirtschaft, und die Genauigkeit der Berechnungen und des Kontrasts zu verbessern, um die besten unter den drei zu lokalisieren . Dies ermutigt uns zu arrangieren, welches Land für die Landwirtschaft und welches für das Nicht-Landwirtschaften ist. Dies ermutigt uns, Pflanzen zu entwickeln und Gartenbau zu betreiben. Das Framework ist mit Bodeninformationen wie Region, verfügbarem Gebiet, Schmutzoberfläche, Skalierung des Wassersystems, Drehpunkt, Ertrag, Bodenzerfall, Windzerfall, Neigung, Evakuierung usw. gestapelt. Die Chi-Quadrat-Elementberechnung wird für die Merkmalsextraktion, -auswahl und -skalierung verwendet. Es verringert die lauten Hervorhebungen des Datensatzes und verbessert die Hervorhebungen für die Verarbeitung durch das Framework. Die Genauigkeit wird mit Hilfe von Berechnungen wie DNN, Random Forest und Linear Discriminant Analysis erstellt und erweitert. Die Ergebnisse zeigen, dass die vorgeschlagene Verschwörung nicht nur machbar ist, sondern auch Viehzüchtern hilft, ihre ökologische Liste von Gehöften zu verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8685-9_61 7f505ba309c718b463c759968807dbcb;de;;;7.4.;;;ESPClust: Eine effektive Methode zur Vermeidung von Verzerrungen für modellbasiertes Dokumenten-Clustering Dokumentenclustering ist für den Informationsabruf, das Web-Data-Mining und das Web-Datenmanagement erforderlich. Um eine sehr hohe Dimensionalität und die geringe Anzahl von Dokumentenmerkmalen zu unterstützen, hat sich das modellbasierte Clustering als intuitive Wahl für das Dokumentenclustering erwiesen. Die aktuellen modellbasierten Algorithmen neigen jedoch dazu, schiefe Cluster zu erzeugen, die die Qualität der Clusterbildung stark beeinflussen. In diesem Beitrag werden die Gründe für die Skew-Generierung untersucht und als ungeeignetes Ausgangsmodell sowie die Wechselwirkung zwischen der Dezentralisierung von Schätzproben und dem übergeneralisierten Clustermodell bestimmt. Eine wirksame Methode zur Verhinderung von Clustering-Skew (ESPClust) wird vorgeschlagen, um sich auf den letzten Grund zu konzentrieren. Um diese Interaktion zu unterbrechen, wählt ESPClust für jeden Cluster automatisch einen Teil der Dokumente aus, der für die entsprechende Klasse am relevantesten ist, als Schätzbeispiele, um das Clustermodell neu zu schätzen. Basierend auf dem ESPClust werden zwei Algorithmen bezüglich Qualität und Effizienz für unterschiedliche Anwendungen bereitgestellt. Im Vergleich zu ausgewogenen modellbasierten Algorithmen weist das ESPClust-Verfahren weniger Einschränkungen und mehr Anwendbarkeit auf. Die Experimente zeigen, dass ESPClust den Clustering-Skew weitgehend vermeiden kann und sein Macro-F1-Maß das Maß der vorherigen Methoden übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30586-6_82 189c4ae70be2f48089d37564c037952f;de;;;7.4.;;;e-Health: Datenintegration, Data Mining und Wissensmanagement in der Gesundheitsinformatik In den letzten Jahrzehnten, mit dem Aufkommen von Datenbanksystemen und Vernetzungstechnologien, waren riesige Mengen an Gesundheitsdaten und wertvollem medizinischem Wissen elektronisch verfügbar, zugänglich und verarbeitbar, insbesondere über den virtuellen Cyberspace – das Web, sogar aus einer entfernten Ecke in der Welt Welt. Heutzutage ermöglicht der breite Einsatz von Krankenhaus-Informations-Management-Systemen (HIMS) und webbasierten klinischen oder medizinischen Systemen, zum Beispiel der Medical Director, ein generisches hausärztliches klinisches System, die einfache Erfassung, Verbreitung und Implementierung von Gesundheitsinformationen und klinischen Praktiken und weltweit. Und das Gesundheitswesen und der medizinische Dienst werden datenintensiver und evidenzbasierter, da elektronische Patientenakten verwendet werden, um Gesundheitsinformationen von Einzelpersonen und Gemeinschaften (insbesondere Änderungen) zu verfolgen. Diese motivieren und fördern maßgeblich die Entstehung und den Fortschritt der datenzentrierten Gesundheitsdaten- und Wissensmanagementforschung und -praxis, z.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16283-1_1 fa04f4dc89eb3e9fcad966e4bc7a3f62;de;;;7.4.;;;Überprüfung chirurgischer Robotersysteme für Schlüsselloch- und endoskopische Verfahren: Stand der Technik und Perspektiven Minimalinvasive Chirurgie, einschließlich laparoskopischer und thorakoskopischer Verfahren, kommt den Patienten in Bezug auf verbesserte postoperative Ergebnisse und kurze Genesungszeiten zugute. Die Herausforderungen bei der Hand-Auge-Koordination und der Fingerfertigkeit während der oben genannten Verfahren haben in den letzten Jahrzehnten eine enorme Welle von Entwicklungen bei chirurgischen Robotersystemen zur Unterstützung von Schlüsselloch- und endoskopischen Verfahren ausgelöst. Dieses Papier präsentiert einen systematischen Überblick über die hochmodernen Systeme und zeigt eine detaillierte Landschaft der Systemkonfigurationen, Betätigungsschemata und Steuerungsansätze der bestehenden chirurgischen Robotersysteme für Schlüsselloch- und endoskopische Verfahren. Die Entwicklungsherausforderungen und Zukunftsperspektiven werden eingehend diskutiert, um den Bedarf an neuen Basistechnologien aufzuzeigen und zukünftige Forschungen zu inspirieren.;-;-;-;https://link.springer.com/article/10.1007/s11684-020-0781-x 938cde022ea02b91d32071cc362711b1;de;;;7.4.;;;Deep Kernel Learning in Core Vector Machines In der Literatur zum maschinellen Lernen haben sich Deep-Learning-Methoden zu größeren Höhen entwickelt, indem sie sowohl der Datendarstellung als auch den Klassifizierungsmethoden die gebührende Bedeutung beigemessen haben. Der kürzlich entwickelte mehrschichtige Arc-Cosinus-Kernel nutzt die Möglichkeiten, Deep-Learning-Funktionen auf die Kernel-Maschinen auszudehnen. Obwohl dieser Kernel in Verbindung mit Support Vector Machines (SVM) bei kleinen Datensätzen weit verbreitet ist, scheint er keine praktikable Lösung für die modernen realen Anwendungen zu sein, die sehr große Datensätze beinhalten. Es gibt viele Wege, auf denen die Skalierbarkeitsaspekte von Deep-Kernel-Maschinen beim Umgang mit großen Datenmengen bewertet werden müssen. In der Literatur zum maschinellen Lernen wird Core Vector Machine (CVM) als Skalierungsmechanismus für traditionelle SVMs verwendet. In CVM wird das quadratische Programmierproblem, das in SVM involviert ist, in ein äquivalentes Minimum-Enclosure-Ball-Problem umformuliert und dann unter Verwendung einer Teilmenge der Trainingsstichprobe (Core Set) gelöst, die durch eine schnellere;-;-;-;https://link.springer.com/article/10.1007/s10044-017-0600-4 03be60ddae359489744f34c1c5045775;de;;;7.4.;;;Wassermanagement mit genetischem Algorithmus-basiertem maschinellem Lernen Wasserknappheit ist derzeit weltweit das größte Problem und muss effizient bewältigt werden. Das Wassermanagementverfahren ist eine der Techniken, um notwendiges Wasser zu kondensieren. Das Ziel des Wassermanagementsystems ist es, dass die Wasserversorgungsbehörde qualitativ hochwertiges Wasser ohne Verzögerung und Knappheit sammelt und verteilt. Für eine effiziente Produktion, Sammlung und Verteilung ist ein intelligentes System notwendig. Das vorgeschlagene intelligente System besteht aus genetischen Operationen mit Fitnesswert und neuronalen Netzen für das Training. Die Fitnessfunktion wird verwendet, um neue intelligente Mitglieder aus bestehenden Wasserressourcen für die Wassersammlung und -verteilung zu gewinnen. Das System ist anwendbar für Vorhersagen über den Wasserverbrauch, Verteilung unter Verwendung von Entscheidungsalgorithmen, um die Optimierungsleistung durch Berechnung der Zielfunktion verschiedener Bevölkerungstypen zu erhöhen. Die Regressionsleistung des vorgeschlagenen intelligenten Systems wird berechnet und mit anderen Algorithmen verglichen.;-;-;-;https://link.springer.com/article/10.1007/s00500-020-05009-0 484edbb503b7d13efd9005e18a469d05;de;;;7.4.;;;Entscheidungsunterstützung durch Subgroup Discovery: Drei Fallstudien und die gewonnenen Erkenntnisse In diesem Papier werden Möglichkeiten vorgestellt, mit der Untergruppenerkennung umsetzbares Wissen zur Entscheidungsunterstützung zu generieren. Umsetzbares Wissen ist explizites symbolisches Wissen, das typischerweise in Form von Regeln dargestellt wird und es dem Entscheidungsträger ermöglicht, einige wichtige Zusammenhänge zu erkennen und eine geeignete Aktion durchzuführen, z mit hohem Krankheitsrisiko. Es werden verschiedene Ansätze zur Erkennung von Untergruppen skizziert und ihre Vorteile gegenüber dem Lernen von Standardklassifikationsregeln diskutiert. Drei Fallstudien, eine medizinische und zwei Marketingstudien, werden verwendet, um die gewonnenen Erkenntnisse bei der Lösung von Problemen zu präsentieren, die eine umsetzbare Wissensgenerierung zur Entscheidungsunterstützung erfordern.;-;-;-;https://link.springer.com/article/10.1023/B%3AMACH.0000035474.48771.cd dedd376e10f1b82105713cbda10d3248;de;;;7.4.;;;Dynamisches distanzbasiertes aktives Lernen mit SVM In diesem Beitrag stellen wir eine neuartige aktive Lernstrategie namens dynamisches aktives Lernen mit SVM vor, um die Effektivität der Auswahl von Lernproben beim aktiven Lernen zu verbessern. Der Algorithmus ist in zwei Schritte unterteilt. Der erste Schritt ähnelt dem standardmäßigen entfernungsbasierten aktiven Lernen mit SVM [1], bei dem die Stichprobe ausgewählt wird, die der Entscheidungsgrenze am nächsten ist, um eine Hyperebene zu induzieren, die den aktuellen Versionsraum halbieren kann. Um die Lerneffizienz und die Konvergenzraten zu verbessern, schlagen wir im zweiten Schritt eine dynamische Stichprobenauswahlstrategie vor, die in der Nähe der „Standard“-Stichprobe operiert. Es wird eine theoretische Analyse gegeben, um zu zeigen, dass unser Algorithmus schneller konvergiert als die entfernungsbasierte Standardtechnik und eine geringere Anzahl von Abtastwerten verwendet, während er die gleiche Klassifizierungspräzisionsrate beibehält. Wir demonstrieren auch die Durchführbarkeit des dynamischen Auswahlstrategieansatzes durch die Durchführung von Experimenten an mehreren Benchmark-Datensätzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73499-4_23 5358dfa4724c908ec448c12e991c68b3;de;;;7.4.;;;Offene Informationsextraktion aus Texten: Teil II. Extraktion semantischer Beziehungen mit unüberwachtem maschinellem Lernen In diesem Beitrag diskutieren wir die offene Informationsextraktion aus natürlichsprachlichen Texten. Wir präsentieren einen Ansatz zur Extraktion semantischer Beziehungen mit unüberwachtem maschinellem Lernen. Der vorgestellte Ansatz basiert auf Deep-Clustering-Verfahren, bei denen der Clusterisierungsalgorithmus in ein mehrschichtiges neuronales Auto-Encoder-Netzwerk integriert ist. Diese Methode erlaubt es, Oberflächenbeziehungen (Tripletts) in semantische Beziehungen zu verallgemeinern. Dieses Papier stellt auch eine Methode zur Extraktion von Oberflächenbeziehungen bereit.;-;-;-;https://link.springer.com/article/10.3103/S0147688220060076 0beb5ff5b5133ff3bcd111045691d60e;de;;;7.4.;;;Verteilter Lernalgorithmus für verteilten PV-Großzugang zum Stromnetz basierend auf maschinellem Lernen Aufgrund der langen Vorhersagezeit und des großen Bereichs der Datenfilterung weist der traditionelle Algorithmus eine geringe Systembetriebseffizienz auf. Aus diesem Grund wird verteiltes Lernen basierend auf maschinellem Lernen häufig verwendet, um die Leistung des Stromnetzes vorherzusagen. Erstellen Sie zunächst ein Vorhersagemodell für die Netzleistung, um die Leitungsverluste und die Transformatorverluste des Systems zu begrenzen. Zweitens werden basierend auf dem Vorhersagemodell der verteilten photovoltaischen Stromerzeugung das Vektormomentverfahren und das Informationsverfahren verwendet, um den Suchraum einzugrenzen. Basierend auf den Datenkonzentrations- und Fitnessfunktionswerten wird die Berechnungsformel der Spannungsausgangsvorhersage von Verteilnetzknoten mit verteilter Photovoltaik abgeleitet, um den Stromnetzausgangsvorhersagealgorithmus zu realisieren. Schließlich wird durch Experimente bewiesen, dass der Vorhersagealgorithmus für verteilte PV im großen Maßstab zum Vorhersagealgorithmus des Stromnetzes die Effizienz des Systembetriebs effektiv verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36402-1_47 866f63cb514ea4b5b0e8fac71bfbd52a;de;;;7.4.;;;Vergleichende Bewertung von Regressionsmethoden des maschinellen Lernens für die Schätzung des Energiesystemzustands Mit der zunehmenden Verbreitung von Elektrofahrzeugen (EV) und verteilten Energieressourcen mit geringer Trägheit (DER) wie Wind- und Solaranlagen ist das Stromsystem bei zufälligen Last-/Erzeugungsänderungen oder Fehlern im Netz häufig Spannungs- und Leistungsschwankungen ausgesetzt. Für den sicheren und sicheren Betrieb des Netzes ist es sehr wichtig, eine genaue Schätzung der Zustände im Stromversorgungssystem wie Spannungshöhe und Phasenwinkel an jedem Bus zu erhalten. Im Vergleich zu herkömmlichen SCADA-basierten Messungen enthalten moderne Netze eine Phasor Measurement Unit (PMU) und eine Advanced Metering Infrastructure (AMI), um systemweite Informationen zu erhalten, um eine bessere und genaue Beobachtbarkeit verschiedener Zustände im System zu erhalten. Das Anordnen einer PMU an jedem Bus ist jedoch wirtschaftlich keine praktikable Lösung. Daher wird daran geforscht, optimale Standorte für die PMU-Platzierung zu finden und die Netzzustände anhand der begrenzten PMU-Messungen abzuschätzen. Der Ansatz des maschinellen Lernens (ML) zur Lösung des späteren Problems ist eine praktikable Option, erfordert jedoch im Gegensatz zu den herkömmlichen ML-Techniken, die mehrere Eingaben haben, um eine einzelne Ausgabe vorherzusagen, mehrere Ausgabevorhersagen. Lineare Regression (LR), k-nächste Nachbarn (kNN), Entscheidungsbaum und Random Forest (RF) sind einige der weit verbreiteten Multi-Target-Regressionstechniken im ML-Bereich. Daher vergleichen wir in diesem Papier die Anwendung dieser vier Multi-Target-Regressionsmodelle auf die Stromsystemzustandsschätzung (PSE), die PMU-Messungen verwendet, um die Stromsystemzustandsvariablen zu schätzen, und die Ergebnisse werden auf einer 3-Maschine demonstriert 9- Bussystem.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1978-6_34 e6817c7eac6075b70fdb42f49a5a1518;de;;;7.4.;;;Vergleich von Strukturen unter Verwendung eines neuronalen Netzes vom Hopfield-Stil Beschriftete Graphen sind in vielen Bereichen eine geeignete und beliebte Darstellung von strukturierten Objekten. Wenn die Labels die Eigenschaften von Objekten der realen Welt und ihre Beziehungen beschreiben, stellt sich die Suche nach der besten Übereinstimmung zwischen zwei Graphen als die schwach definierte, NP-vollständige Aufgabe heraus, eine Abbildung zwischen ihnen zu erstellen, die ähnliche Teile unter Beibehaltung von ihrer strukturellen Gesamtkorrespondenz möglich. In diesem Beitrag werden bisherige Ansätze des strukturellen Matchings und der Constraint-Relaxation durch Spreizen der Aktivierung in neuronalen Netzen und die Methode zur Lösung von Optimierungsaufgaben mit Hopfield-artigen Netzen kombiniert. Die approximative Matching-Aufgabe wird als Minimierung einer quadratischen Energiefunktion umformuliert. Das Design des Ansatzes ermöglicht es dem Nutzer, die Parameter und die Dynamik des Netzes so zu verändern, dass das Wissen über Matching-Präferenzen einfach und transparent miteinbezogen wird. Im letzten Abschnitt zeigen einige Beispiele die erfolgreiche Anwendung dieses Ansatzes beim Klassifizieren und Lernen im Bereich der organischen Chemie.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008320413168 ce9a94396bfda76254fe28727d621dfe;de;;;7.4.;;;Unterstützung von Vector Machine Learning zur Musikdiskriminierung In diesem Papier schlagen wir einen effektiven Algorithmus vor, um Musikinhalte automatisch zu identifizieren und zu unterscheiden. Lineare Prädiktionskoeffizienten, Nulldurchgangsraten und Mel-Frequenz-Cepstralkoeffizienten werden berechnet, um den Musikinhalt zu charakterisieren. Basierend auf berechneten Merkmalen werden Support Vector Machines angewendet, um die optimalen Klassengrenzen zwischen Vokalmusik und reiner Musik durch Lernen aus Trainingsdaten zu erhalten. Experimentelle Ergebnisse des maschinellen Lernens mit Unterstützungsvektoren zeigen eine gute Leistung bei der Musikunterscheidung und sind vorteilhafter als die traditionelle euklidische Entfernungsmethode.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36228-2_115 8817887be4c0458bc865928b87e1a2be;de;;;7.4.;;;Deep Parser für kostenlose englische Texte basierend auf maschinellem Lernen mit begrenzten Ressourcen Der Beitrag stellt einen Versuch zur Konstruktion eines breit angelegten Parsers für Englisch vor, der auf induktivem Lernen und begrenzten Ressourcen basiert. Der Parser behält die;-;-;-;https://link.springer.com/chapter/10.1007/3-540-32392-9_61 8ab25a968d6f7df0ba25747b7f2bbf5d;de;;;7.4.;;;Die Anwendung und Verbesserung des ID3-Algorithmus im WEB Log Data Mining Data Mining entsteht als neues Forschungsgebiet, die WEB Data Mining Technologie gilt als eine der wichtigsten Informationsverarbeitungstechnologien der Zukunft. Der ID3-Algorithmus ist ein häufig verwendeter klassischer Algorithmus in der Data-Mining-Technologie, der hauptsächlich auf die Implementierung von Data-Mining angewendet wird. Es erzeugt immer die kleinste Baumstruktur und es ist bewiesen, dass das Systemdesign durch Proofing-Instanzen eine gute Wirkung auf die Transaktionsanalyse von Protokolldateien hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-1536-6_75 f1ce0dbd6b4ec7dbcdd5b88820b55702;de;;;7.4.;;;Vorhersage von Xerostomie nach IMRT-Behandlungen: ein Data-Mining-Ansatz Xerostomie ist eine der häufigsten Langzeitnebenwirkungen bei Patienten mit Kopf-Hals-Krebs, die sich einer Strahlentherapie unterziehen, und verringert die Lebensqualität der Patienten drastisch. In der vorliegenden Studie wird ein Vorhersagemodell für Xerostomie nach Strahlentherapie vorgeschlagen. Die Modellkonstruktion basierte auf einem Datensatz von 138 Patienten mit Kopf-Hals-Krebs, die am portugiesischen Institut für Onkologie von Coimbra (IPOCFG) mit intensitätsmodulierter Strahlentherapie behandelt wurden, wobei verschiedene Data-Mining-Prädiktoren verwendet wurden. Die Modelle berücksichtigten vor der Behandlung bekannte dosimetrische Informationen und patientenspezifische Merkmale, um abzuschätzen, bei welchen Patienten eine Xerostomie auftreten wird (G0 vs. Die Qualität der Klassifikatoren wurde durch die Anwendung von Kreuzvalidierungsverfahren bewertet und durch verschiedene Datensätze validiert. ROC/AUC, Präzision und Recall waren die Maße, die verwendet wurden, um die Leistung der Modelle zu bewerten. Als relevante Prädiktoren für eine Xerostomie erwiesen sich Alter, Geschlecht, Schwere der Xerostomie vor Strahlentherapie und die geplante mittlere (physikalische) Dosis in beiden Parotis. Das beste Modell war das auf Random Forests basierende Modell. Die Methode ergab eine AUC von 0,73, eine Präzision von 72 % und einen Recall von 83 % unter Berücksichtigung des Schwellenwerts von 0,5. Die Fähigkeit, Patienten nach ihren Merkmalen zu unterscheiden, hilft, personalisierte Strahlentherapiebehandlungen zu erreichen. Random Forests erwiesen sich als gute Klassifikationsmethode zur Vorhersage der binären Reaktion „Risiko für durch Strahlentherapie induzierte Xerostomie nach 12 Monaten“, die eine hohe Unterscheidungsfähigkeit aufweist.;-;-;-;https://link.springer.com/article/10.1007/s12553-017-0204-4 19bb80a22eab2e81abe2b293163f3ca0;de;;;7.4.;;;Ein inkrementeller klassengrenzenerhaltender Hypersphären-Klassifikator Die jüngsten Fortschritte in den Bereichen Sensorik, Vernetzung und Datenmanagement haben zu einer Fülle wertvoller Informationen geführt. Die Herausforderung besteht darin, aus solchen Daten, die in erstaunlicher Geschwindigkeit produziert werden, sinnvolles Wissen zu extrahieren. Im Gegensatz zu Batch-Learning-Algorithmen, die unter der Annahme entwickelt wurden, dass Daten statisch und ihr Volumen klein (und überschaubar) ist, können inkrementelle Algorithmen ihre Modelle schnell aktualisieren, um neue Informationen (auf Stichprobenbasis) zu integrieren. In diesem Beitrag schlagen wir einen neuen inkrementellen instanzbasierten Lernalgorithmus vor, der gute Eigenschaften in Bezug auf Mehrklassenunterstützung, Komplexität, Skalierbarkeit und Interpretierbarkeit aufweist. Der Incremental Hypersphere Classifier (IHC) wird in bekannten Benchmarks getestet und liefert gute Klassifikationsergebnisse. Darüber hinaus kann es als Instanzauswahlverfahren verwendet werden, da es Klassengrenzenmuster beibehält.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24958-7_80 f832f94b6eb3faa733cc1f2601fefdea;de;;;7.4.;;;Wahlfach Zukunft: Der Einflussfaktor-Mining der Abschlussentwicklung von Studierenden basierend auf dem hierarchischen Aufmerksamkeitsmodell mit neuronalen Netzen mit Graph Die Studienabschlussentwicklung wie Beschäftigung und Graduiertenschulung von Hochschulstudenten sind wichtige Aufgaben. Es bleibt jedoch eine Herausforderung, die Faktoren zu ermitteln, die die Entwicklung des Abschlusses beeinflussen können, da der wichtigste Faktor „Verlauf“ nicht die Unabhängigkeit und die Ungleichheit ist, die von früheren Forschern immer ignoriert werden. Darüber hinaus können traditionelle strukturierte Methoden die komplexen Zusammenhänge zwischen Lehrveranstaltungen nicht bewältigen, und Aufmerksamkeitsnetzwerke können die Gewichte von Pflicht- und Wahlfächern mit unterschiedlicher Verteilung nicht unterscheiden. Daher präsentieren wir a;-;-;-;https://link.springer.com/article/10.1007/s10489-020-01692-6 60a7a1cd46b4f3ebce96271491d6ceb3;de;;;7.4.;;;Eine neue Methode zur Schätzung fehlender Daten basierend auf Sampling-Methoden für das Data Mining Heute sammeln wir große Datenmengen und erhalten mehr, als wir verarbeiten können. Die gesammelten Daten sind oft roh und alles andere als von guter Qualität, sie enthalten fehlende Werte und Rauschen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-00951-3_9 ffc440163e45d22cb6d01c649e78e6e4;de;;;7.4.;;;Schnelleres Dual-Tree-Traversal für die Suche nach dem nächsten Nachbarn Die Suche nach dem nächsten Nachbarn ist ein fast allgegenwärtiges Problem in der Informatik. Wenn nächste Nachbarn für einen Abfragesatz anstelle eines einzelnen Abfragepunkts gewünscht werden, bieten Dual-Tree-Algorithmen oft die schnellste Lösung, insbesondere bei niedrigen bis mittleren Dimensionen (dh bis zu etwa hundert) und können genaue Ergebnisse liefern oder absolute Näherungsgarantien im Gegensatz zu Hashing-Techniken. Unter Verwendung einer neueren Zerlegung von Dual-Tree-Algorithmen in modulare Teile schlagen wir ein neues Teil vor: eine verbesserte Traversierungsstrategie, die auf jeden Dual-Tree-Algorithmus anwendbar ist. Angewandt auf die Suche nach dem nächsten Nachbarn unter Verwendung von sowohl kd-trees als auch ball trees, übertrifft die neue Strategie nachweislich die bisherigen schnellsten Ansätze. Andere Probleme, bei denen die Durchquerung leicht angewendet werden kann, umfassen die Schätzung der Kerneldichte und die Suche nach max.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25087-8_7 afa93b737976be53f9b4eca92aae32ba;de;;;7.4.;;;Faltungsmodell zur Vorhersage von SNP-Interaktionen Single-Nukleotid-Polymorphismen (SNPs) sind genetische Marker, die es Forschern ermöglichen, nach Genen zu suchen, die mit komplexen Krankheiten in Verbindung stehen. Forscher haben mehrere Anstrengungen unternommen, um die Interaktionseffekte zwischen Multilocus-SNPs zu untersuchen, um den Status komplexer Krankheiten zu erkennen. Die aktuellen konventionellen Techniken des maschinellen Lernens weisen jedoch noch einige Vorbehalte auf. Deep Learning ist eine neue Art von maschineller Lerntechnik, die die verborgene Struktur der Rohdaten aufklärt, indem sie diese in mehrere hohe Abstraktionsebenen umwandelt, wobei die Leistung von parallelem und verteiltem Computing genutzt wird. Es verspricht empirischen Erfolg in der Zahl der Anwendungen, einschließlich der Bioinformatik, um Erkenntnisse über biologische Komplexitäten zu gewinnen. Der Deep-Learning-Ansatz in den Multi-Locus-Interaktionsstudien muss noch seine potenziellen Errungenschaften erreichen. In diesem Artikel wird ein neuronales Faltungsnetzwerk trainiert, um echte kausative SNP-Interaktionen mit zwei Lokus zu identifizieren. Die Leistung der Methode wird anhand von Bluthochdruckdaten bewertet. Hochrangige Zwei-Lokus-SNP-Interaktionen werden für die Manifestation von Hypertonie identifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-04221-9_12 964c9738153ff64ed91f85b0d2db5e4d;de;;;7.4.;;;Verwendung moderner neuronaler Netze, um die Entscheidungen des Obersten Gerichtshofs der Vereinigten Staaten mit State-of-the-Art-Genauigkeit vorherzusagen Tiefe neuronale Netze sind eine Familie statistischer Lernmodelle, die von biologischen neuronalen Netzen inspiriert sind und zur Schätzung von Funktionen verwendet werden, die von einer großen Anzahl von Eingaben abhängen können und im Allgemeinen unbekannt sind. In diesem Beitrag bauen wir auf den Arbeiten von Katz, Bommarito und Blackman auf;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-26535-3_54 a64938c651e2a7b80d16dc4963145df0;de;;;7.4.;;;Intent-Erkennung im Smart Living durch tiefe rekurrente neuronale Netze Die signalbasierte Absichtserkennung der Elektroenzephalographie (EEG) hat in letzter Zeit sowohl in der Wissenschaft als auch in der Industrie viel Aufmerksamkeit auf sich gezogen, da sie älteren oder motorisch behinderten Menschen hilft, intelligente Geräte bei der Kommunikation mit der Außenwelt zu steuern. Die Verwendung von EEG-Signalen wird jedoch durch die geringe Genauigkeit, die mühsame und zeitaufwändige Merkmalsextraktion herausgefordert. Dieses Papier schlägt ein 7-schichtiges Deep-Learning-Modell vor, um rohe EEG-Signale zu klassifizieren, um die Absichten der Probanden zu erkennen, um den Zeitaufwand für die Vorverarbeitung und Merkmalsextraktion zu vermeiden. Die Hyperparameter werden aus Effizienzgründen durch ein Orthogonal-Array-Experimentverfahren ausgewählt. Unser Modell wird auf einen offenen EEG-Datensatz von PhysioNet angewendet und erreicht eine Genauigkeit von 0,9553 bei der Intent-Erkennung. Die Anwendbarkeit unseres vorgeschlagenen Modells wird durch zwei Anwendungsfälle von Smart Living (unterstütztes Wohnen mit Robotik und Heimautomatisierung) weiter demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-70096-0_76 552d5ae1ba4f4f767e9812455118f03c;de;;;7.4.;;;Kategorisiertes Zählen, vermittelt durch Blotting-Membransysteme für partikelbasiertes Data Mining und numerische Algorithmen Blotting stellt sich als ein recht verbreiteter und effektiver Ansatz in der molekularen Informationsverarbeitung heraus. Ein anfänglicher Pool von Molekülen, die als Sätze individueller Daten betrachtet werden, wird entsprechend dem Vorhandensein oder Fehlen bestimmter Attribute wie Gewichtsindex oder chemischer Gruppen und Markierungen räumlich getrennt. Moleküle mit ähnlichen Eigenschaften bilden dabei einen Spot oder Blot. Schließlich kann jeder Blot visualisiert oder analysiert werden, wobei ein entsprechender Score-Index oder eine Zählung aus der Anzahl der akkumulierten Moleküle sichtbar wird. Die ganze Vielfalt der im Laufe der Zeit entstehenden Blots liefert entscheidende und verdichtete Informationen über das untersuchte molekulare System. Inspiriert von der Idee, eine signifikante Datenreduktion zu erreichen und gleichzeitig die wesentlichen Eigenschaften des molekularen Systems als Ausgabe beizubehalten, stellen wir Blotting-Membransysteme als Modellierungsrahmen vor, der für zahlreiche Anwendungen im Data Mining offen ist. Anhand von drei dedizierten Fallstudien demonstrieren wir die deskriptive Fähigkeit aus explorativer Sicht. Unsere Fallstudien befassen sich mit der partikelbasierten numerischen Integration, die ein Modell für den synchronisierten 17-jährigen Lebenszyklus von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-14370-5_15 23f12b2ffa22569d49320160dbc7b389;de;;;7.4.;;;Aus unausgeglichenen Daten lernen: Evaluation Matters Datensätze mit stark unausgewogener Klassenverteilung stellen eine grundlegende Herausforderung im maschinellen Lernen dar, nicht nur für das Training eines Klassifikators, sondern auch für die Auswertung. Es gibt auch mehrere verschiedene Bewertungsmaße, die in der Literatur zu Klassenungleichgewichten verwendet werden, jede mit ihrer eigenen Verzerrung. Hinzu kommen verschiedene Kreuzvalidierungsstrategien. Das Verhalten verschiedener Bewertungsmaße und ihre relativen Sensitivitäten – nicht nur auf den Klassifikator, sondern auch auf die Stichprobengröße und die gewählte Kreuzvalidierungsmethode – sind jedoch nicht gut verstanden. Papiere wählen in der Regel ein Bewertungsmaß und zeigen die Dominanz einer Methode gegenüber einer anderen. Wir gehen davon aus, dass diese gängige Methodik kurzsichtig ist, insbesondere bei unausgeglichenen Daten. Ein weiterer grundlegender Aspekt, der nicht ausreichend berücksichtigt wird, ist die Empfindlichkeit von Klassifikatoren sowohl für Klassenungleichgewichte als auch für nur geringe;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23166-7_12 80481ea67fa71e2b31b58bf370aa3b24;de;;;7.4.;;;Unterschiede zwischen natürlichen und künstlichen kognitiven Systemen Dieses Kapitel identifiziert die Unterschiede zwischen natürlichen und künstlichen kognitiven Systemen. Das Benchmarking von Robotern mit Gehirnen kann darauf hindeuten, dass Organismen und Roboter sowohl ein internes Modell der eingeschränkten Umgebung, in der sie agieren, besitzen als auch ihre Handlungen an die Bedingungen der jeweiligen Umgebung anpassen müssen, um ihre Aufgaben zu erfüllen. Die Rechenstrategien zur Bewältigung dieser Herausforderungen unterscheiden sich jedoch für natürliche und künstliche Systeme. Viele der spezifischen menschlichen Eigenschaften lassen sich nicht allein aus den neuronalen Funktionen einzelner Gehirne ableiten, sondern verdanken ihre Existenz der kulturellen Evolution. Soziale Interaktionen zwischen Agenten, die mit den kognitiven Fähigkeiten des Menschen ausgestattet sind, erzeugen immaterielle Realitäten, die als soziale oder kulturelle Realitäten angesprochen werden. Intentionalität, Moral, Verantwortung und bestimmte Aspekte des Bewusstseins wie die Qualia des subjektiven Erlebens gehören zur immateriellen Dimension gesellschaftlicher Realitäten. Es ist verfrüht, darüber zu diskutieren, ob künstliche Systeme Funktionen erwerben können, die wir als beabsichtigt und bewusst betrachten, oder ob künstliche Akteure als moralische Akteure mit Verantwortung für ihre Handlungen betrachtet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-54173-6_2 90126d08a17cd6d75ee51d785005cfe9;de;;;7.4.;;;Naive Bayes für die Wertdifferenzmetrik Die Wertdifferenzmetrik (VDM) ist eine der bekanntesten und am häufigsten verwendeten Distanzfunktionen für nominale Attribute. Diese Arbeit wendet die Instanzgewichtungstechnik an, um VDM zu verbessern. Hier wird eine instanzgewichtete Wertdifferenzmetrik (IWVDM) vorgeschlagen. Im Gegensatz zu früheren Arbeiten verwendet IWVDM naive Bayes (NB), um Gewichte für Trainingsinstanzen zu finden. Da frühe Arbeiten gezeigt haben, dass zwischen VDM und NB eine enge Beziehung besteht, können einige Arbeiten zu NB auf VDM übertragen werden. Das Gewicht einer Trainingsinstanz;-;-;-;https://link.springer.com/article/10.1007/s11704-014-3038-5 a1209edb0fd0ffea5eda18b6ad5c743a;de;;;7.4.;;;Deep Convolutional Neural Networks für die Klassifikation von Elektrokardiogrammen Mit der Entwicklung der KI werden immer mehr Deep-Learning-Methoden auf medizinische Daten für die computergestützte Diagnose übernommen. In diesem Artikel wird ein 50-Schichten-Convolutional Neural Network (CNN) für die Klassifikation eines normalen und anormalen Kurzzeit-Elektrokardiogramms (EKG) trainiert. Dazu verwenden wir ein vorwärts gerichtetes neuronales Netzwerk mit einer oder mehreren Schichten von Schnellverbindungen. Dieses Netzwerk ist tiefer als das zuvor verwendete einfache Netzwerk und löst das berüchtigte Problem der Netzwerkverschlechterung der Trainingsgenauigkeit und kann die Tiefe erheblich erhöhen, um die Genauigkeit zu verbessern. Das Erkennen von Referenzpunkten und das Kombinieren von Funktionen sind nicht erforderlich, und das Klassifizierungsmodell kann die traditionellen vordefinierten und zeitraubenden manuellen Auswahlfunktionen des Benutzers effektiv ersetzen. Die Methode wurde an über 150.000 aufgezeichneten klinischen Kurzzeit-EKG-Datensätzen getestet und erreicht eine Genauigkeit von 89,43 %, eine Sensitivität von 87,73 % und eine Spezifität von 91,63 %. Die Experimente zeigen, dass unsere Methode in der klinischen Anwendung effizient und leistungsstark ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6837-0_5 842fab6820e848121e624b64d5e30e85;de;;;7.4.;;;It AIn’t Nuttin’ New – Interaktionsdesign-Praxis nach dem KI-Hype Das Jahr 2018 war der Moment, in dem das Bewusstsein für künstliche Intelligenz (KI) in allen erdenklichen Bereichen gestiegen ist. Dieser Artikel untersucht die Frage, ob KI-Technologien und der damit verbundene Hype bereits die Interaktionsdesign-Praxis in der westlichen Industrie beeinflusst haben. Es untersucht die möglichen Auswirkungen auf Werkzeuge, Prozesse und Produkte des Interaktionsdesigns. Es beleuchtet drei potenziell bedeutende Themen, die aus dem Hype herausstechen: 1) KI-Nutzung als Technologieschub 2) generative KI und 3) die Ethik der KI. Jedes Thema wird analysiert, um die Behauptung abzuleiten, dass KI derzeit nur geringe Auswirkungen auf das Interaktionsdesign hat. Bei genauerer Betrachtung ist generative KI eines der Themen, das langfristig die größte Veränderung verspricht, aber gleichzeitig eine schwer fassbare Hoffnung ist, die möglicherweise nie zu etwas anderem führt als KI-verstärkte Kreativitätsunterstützungstools, von denen einige bereits existieren. Der Artikel beschreibt den KI-Hype teils positiv, teils problematisch für die Weiterentwicklung von Designzielen. Der Hype trägt positiv dazu bei, gesunde ethische Debatten an die Oberfläche zu bringen, die den langfristigen Bemühungen von Designern, nutzerzentriert und ethisch zu sein, mehr Glaubwürdigkeit verleihen. In dieser ethischen Diskussion wird tendenziell vernachlässigt, dass die ethische Belastung von Algorithmen nicht neu ist, sondern schon lange vor dem Big-Data-Fuzz bestand. Offensichtlich ist es heute kritischer denn je. Die Absicht dieses Artikels ist es, die akademischen Forscher, die an Mensch-Computer-Interaktion und Interaktionsdesign arbeiten, über die Notwendigkeit zu informieren, menschzentrierte KI sowohl für ein allgemeines Publikum als auch speziell für Interaktionsdesigner weiterzuentwickeln. Es gibt bereits vielversprechende Beispiele der HCI-Forschung, die Potenzial für die Gestaltungspraxis zeigen. Allen gemeinsam ist, dass sie nicht versuchen, eine vollständige generative KI-Lösung einzuführen, sondern menschliche Designer bei iterativen und etwas eingeschränkten Aufgaben unterstützen. Insgesamt scheint es, dass Interaktionsdesigner bis 2020 zunehmend an Technologien arbeiten werden, die KI-Elemente beinhalten, aber diese Elemente selbst werden noch nicht der Kern ihrer Arbeit sein. Das Bewusstsein für die ethischen Herausforderungen und technischen Voraussetzungen im Zusammenhang mit der KI-Technologie und deren Nutzung wird kurzfristig wichtiger als die Integration von KI in den Interaktionsdesignprozess. Bis Ende der 2020er Jahre blicken wir vielleicht noch in eine ganz andere Realität als jetzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29390-1_45 98cf51ff4409d158cb2c193f606743dd;de;;;7.4.;;;W-Metagraph2Vec: eine neuartige Zulassung für die Einbettung von angereicherten schematischen themengetriebenen heterogenen Informationsnetzwerken In letzter Zeit wird die Einbettung von heterogenen Informationsnetzwerken (HIN) aufgrund ihrer verschiedenen Anwendungen umfassend untersucht. Im Allgemeinen ist die Netzwerkeinbettung eine Möglichkeit, die Knoten eines Netzwerks in einem niedrigdimensionalen Raum darzustellen. Die meisten bisherigen Einbettungstechniken konzentrieren sich nur auf homogene Netzwerke, in denen alle Knoten als ein einziger Typ betrachtet werden. Die heterogene Netzwerkeinbettung ist aufgrund der Komplexität der verschiedenen Knotentypen und Linktypen ein herausforderndes Problem. Neuere heterogene Netzwerkeinbettungsstudien basieren auf Metapfaden und Metagraphen, um die Random Walks über die Netzwerke zu leiten. Diese heterogenen Netzwerkeinbettungsansätze übertreffen moderne homogene Einbettungsmodelle bei mehreren heterogenen Netzwerk-Mining-Aufgaben. Allerdings sind neuere, auf Metagraphen basierende Ansätze bei der Erfassung von Themenähnlichkeiten zwischen Knoten ineffektiv. Es besteht kein Zweifel, dass die meisten gängigen HINs (DBLP, Facebook usw.) Rich-Text sind, die viele textbasierte Knoten wie Papier, Kommentar, Post usw. enthalten. In diesem Papier schlagen wir einen neuartigen Einbettungsansatz vor, nämlich W-MetaGraph2Vec. Der W-MetaGraph2Vec verwendet den themengesteuerten metagraphbasierten Random-Walk-Mechanismus in gewichtetem HIN, um die Erzeugung einer heterogenen Nachbarschaft eines Knotens zu steuern. Umfangreiche Experimente mit realen Datensätzen zeigen, dass unser vorgeschlagenes Modell nicht nur HIN-Mining-Aufgaben wie Knotenähnlichkeitssuche, Clustering, Klassifizierung usw. in Bezug auf die Leistungsgenauigkeit nutzt, sondern auch die Probleme der Themenrelevanz zwischen textbasierten Knoten erkennt.;-;-;-;https://link.springer.com/article/10.1007/s13042-020-01076-9 86de1405747f89e9fb84d82a61b5402d;de;;;7.4.;;;Ein tiefgreifendes multimodales Modell zur Fehlerlokalisierung Die Fehlerlokalisierung verwendet die gesammelten Fehlerberichte, um die fehlerhaften Quelldateien zu lokalisieren. Der Stand der Technik ist bei der Behandlung der folgenden drei Aspekte nicht ausreichend, darunter (L1) der feine Unterschied zwischen natürlicher Sprache und Programmiersprache, (L2) das Rauschen in den Fehlerberichten und (L3) die vielschichtige Natur der Programmiersprache. Um diese Einschränkungen zu überwinden, schlagen wir ein neues tiefes multimodales Modell mit dem Namen;-;-;-;https://link.springer.com/article/10.1007/s10618-021-00755-7 c08f46f6316aff0dccd96848f66849ce;de;;;7.4.;;;Social Media Analytics, Typen und Methodik Das schnelle Wachstum von Social Media Networks (SMN) leitete eine neue Ära der Datenanalyse ein. Wir verwenden verschiedene Data-Mining- und Machine-Learning-Algorithmen, um verschiedene Arten von Daten zu analysieren, die in diesen komplexen Netzwerken generiert werden, und versuchen, nutzbares Wissen zu erzeugen. Beim Engagement;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-15628-2_12 4b15802e8837c4415c33d87106601f1d;de;;;7.4.;;;Regelbasierte Systeme: eine granulare Computerperspektive Ein regelbasiertes System ist eine spezielle Art von Expertensystem, das typischerweise aus einem Satz von Wenn-Dann-Regeln besteht. Solche Regeln können in der realen Welt sowohl für akademische als auch für praktische Zwecke verwendet werden. Im Allgemeinen sind regelbasierte Systeme sowohl für Aufgaben der Wissensermittlung als auch für Aufgaben der Vorhersagemodellierung für den letzteren Zweck involviert. Im Kontext des Granular Computing kann jede der Regeln, aus denen ein regelbasiertes System besteht, als Granula betrachtet werden. Dies liegt daran, dass Granulation im Allgemeinen die Zerlegung eines Ganzen in mehrere Teile bedeutet. Ebenso besteht jede Regel aus einer Reihe von Regelbegriffen. Unter diesem Gesichtspunkt kann jeder Regelbegriff auch als Granula betrachtet werden. Wie oben erwähnt, können regelbasierte Systeme zum Zweck der Wissensentdeckung verwendet werden, das heißt, Informationen oder gewonnenes Wissen aus Daten zu extrahieren. Daher werden Regeln und Regelbegriffe, die ein regelbasiertes System bilden, als Informationsgranulate betrachtet. Dieser Beitrag positioniert die Erforschung regelbasierter Systeme im Kontext des Granular Computing, der Wege untersucht, um Fortschritte im ersteren Bereich durch den neuartigen Einsatz von Theorien und Techniken im letzteren Bereich zu erzielen. Insbesondere gibt dieses Papier eine bestimmte Perspektive auf die Verwendung der Mengentheorie für das Management von Informationsgranulaten für Regeln/Regelbegriffe und verschiedene Arten von Rechenlogik zur Reduzierung von Lernverzerrungen. Die Wirksamkeit wird kritisch analysiert und diskutiert. Weitere Richtungen dieses Forschungsbereichs werden empfohlen, um Fortschritte bei regelbasierten Systemen durch den Einsatz granularer Computertheorien und -techniken zu erzielen.;-;-;-;https://link.springer.com/article/10.1007/s41066-016-0021-6 9a320ff9d5b59dcd61375702384c9d8f;de;;;7.4.;;;Eine spärliche Pyramiden-Pooling-Strategie In diesem Papier stellen wir eine prinzipientreuere Pooling-Strategie für die Convolutional Restricted Boltzmann Machine vor. Um das Informationsverlustproblem des Pooling-Vorgangs zu lösen und inspiriert von der Idee der räumlichen Pyramide, ersetzen wir das probabilistische Max-Pooling durch unser spärliches Pyramiden-Pooling, das Ausgaben unterschiedlicher Größe für verschiedene Pyramidenebenen erzeugt. Und dann verwenden wir die Sparse-Coding-Methode, um die Multi-Level-Feature-Maps zu aggregieren. Die experimentellen Ergebnisse des KTH-Aktionsdatensatzes und des Maryland-Datensatzes für dynamische Szenen zeigen, dass das spärliche Pyramiden-Pooling eine bessere Leistung als das herkömmliche probabilistische Max-Pooling erzielt. Darüber hinaus kann unsere Pooling-Strategie die Leistung des tiefen neuronalen Netzwerks bei der Videoklassifizierung effektiv verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-48570-5_39 921ff654450c297e1f7cee6e880bcd6b;de;;;7.4.;;;Einsatz von Data-Mining-Methoden im Bildungsbereich zur Bewertung komplexer Problemlösungen von feldabhängigen und feldunabhängigen Lernenden Die vorliegende Studie untersuchte die Problemlösungsleistung von 101 Universitätsstudenten und ihre Interaktionen mit einem Computermodellierungswerkzeug, um ein komplexes Problem zu lösen. Basierend auf ihrer Leistung beim Hidden-Figure-Test wurden die Schüler in drei Gruppen von feldabhängigen (FD), feldgemischten (FM) und feldunabhängigen (FI) Lernenden eingeteilt und angewiesen, Materialien im integrierten Format zu verwenden Modell-It;-;-;-;https://link.springer.com/article/10.1007/s11423-013-9298-1 a48e53060ca6005a240992335596b19e;de;;;7.4.;;;Lernende Klassifikatorsysteme: Rückblick und Ausblick In den letzten Jahren wurde die Forschung zu Learning Classifier Systems (LCS) immer ausgeprägter und vielfältiger. Es gab bedeutende Fortschritte auf dem Gebiet der LCS an verschiedenen Fronten, einschließlich Systemverständnis, Darstellungen, Rechenmodelle und erfolgreiche Anwendungen. Im Vergleich zu anderen maschinellen Lerntechniken sind die Vorteile von LCSs deutlicher geworden: (1) Regelverständlichkeit und damit Wissensextraktion ist unkompliziert, (2) Online-Lernen möglich, (3) lokale Minima werden durch das evolutionäre Lernen vermieden Komponente, (4) es entwickeln sich verteilte Lösungsdarstellungen oder (5) größere Problemdomänen können gehandhabt werden. Nach der zehnten Ausgabe des Internationalen Workshops zu LCSs blicken wir mehr denn je in eine spannende Zukunft. Vielfältigere und anspruchsvollere Anwendungen, Effizienzsteigerungen, Studien dynamischer Systeme und Anwendungen kognitiver Steuerungsansätze stehen unmittelbar bevor. Das Ziel dieses Papiers ist es, einen Rückblick auf das LCS-Feld zu geben, wobei wir unseren Schwerpunkt auf die jüngsten Fortschritte legen. Darüber hinaus werfen wir einen Blick in die Zukunft, indem wir zukünftige Herausforderungen und Chancen für erfolgreiche Systemanwendungen in verschiedenen Domänen diskutieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88138-4_1 a2be40b8ae00308617f2c72b95c601ba;de;;;7.4.;;;Merkmalsauswahl in der Bildanalyse: eine Umfrage Die Bildanalyse ist ein produktives Forschungsgebiet, das in den letzten Jahrzehnten umfassend untersucht und erfolgreich auf eine Vielzahl von Disziplinen angewendet wurde. Seit dem Aufkommen von Big Data wächst die Zahl der digitalen Bilder explosionsartig, und eine große Menge an Multimediadaten ist öffentlich verfügbar. Es ist nicht nur notwendig, mit dieser steigenden Anzahl von Bildern umzugehen, sondern auch zu wissen, welche Merkmale daraus extrahiert werden, und die Merkmalsauswahl kann in diesem Szenario helfen. Das Ziel dieses Beitrags ist es, die neuesten entwickelten und/oder auf die Bildanalyse angewendeten Merkmalsauswahlmethoden zu untersuchen, die die beliebtesten Bereiche wie Bildklassifizierung, Bildsegmentierung usw. Es werden bekannte Methoden zur Merkmalsauswahl vorgestellt, wobei zu berücksichtigen ist, dass das Ziel nicht darin besteht, die beste Methode zur Merkmalsauswahl bereitzustellen, sondern vergleichende Studien für die Forschungsgemeinschaft zu erleichtern.;-;-;-;https://link.springer.com/article/10.1007/s10462-019-09750-3 4c2c38c898f4130b880bd48d491cdfe7;de;;;7.4.;;;Robustes und tiefes Netzwerk für die Erkennung von Malware im Internet der Dinge (IoT) Heutzutage machen digitale Geräte und das Internet unser Leben bemerkenswert einfach, da eine Vielzahl von täglichen Aktivitäten einfach über das Internet ausgeführt werden können. Geräte für das Internet der Dinge (IoT) werden zunehmend in verschiedenen Branchen mit einer Vielzahl von Zwecken wie der Erfassung oder Erfassung von Umweltdaten eingesetzt. Die Entwicklung des IoT bringt viele Chancen, aber auch viele Sicherheitsherausforderungen mit sich. In letzter Zeit machen die Präsenz von IoT in einer Vielzahl von Anwendungen und ihre verbesserten Rechen- und Verarbeitungsfähigkeiten sie zu einem anfälligen Angriffsziel. Daher ist die Entwicklung einer Methode, die Malware im IoT proaktiv erkennen und verhindern kann, ein ständiger Bedarf. In den letzten Jahren wurden Techniken des maschinellen Lernens im Bereich der Malware-Erkennung angewendet und akzeptable Ergebnisse erzielt. Diese Ansätze haben jedoch von Natur aus einen herausfordernden Schritt namens Feature Extraction. Daher benötigen wir eine Methode, die in der Lage ist, Merkmale automatisch zu extrahieren, was einen erheblich zeitaufwendigen und fehleranfälligen Prozess darstellt. Die Einführung von Deep Learning, einem neuen Bereich der künstlichen Intelligenz, hilft bei der Malware-Erkennung durch die Automatisierung der Feature-Extraktion aufgrund seines mehrschichtigen Trainings. Dieses Papier schlägt eine neuartige Architektur des Convolutional Neural Network (CNN) vor, die Rohbytes als Eingabe verwendet und die Notwendigkeit beseitigt, High-Level-Features manuell zu extrahieren. Darüber hinaus profitieren wir von den renommierten Einbettungstechniken, um numerische Bytevektoren zu generieren, da tiefe Netzwerke nur numerische Vektoren als Eingabe akzeptieren. Unsere Ergebnisse deuten darauf hin, dass der vorgeschlagene Ansatz eine hohe Erkennungsrate von Malware auf IoT-Geräten erreichen kann und herkömmliche Methoden auf der Grundlage von maschinellem Lernen übertrifft, was die Vorzüge von Deep-Learning-Techniken bei der Erkennung von IoT-Malware zeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1960-4_13 5142f59c889c14444d1baa6580fff816;de;;;7.4.;;;Computational Management – ​​Ein Überblick Heutzutage stehen fast alle Unternehmen, ob klein, mittel oder groß, unter dem enormen Druck des globalen Wettbewerbs. Mit dem Aufkommen von Internet und E-Commerce wurden geografische Barrieren fast beseitigt, wodurch die Kunden anspruchsvoller wurden. Bei globalen Wettbewerben werden Kunden mit alternativen Optionen selbst für das kleinste Produkt überschüttet. Sie können nicht mehr durch den Take it or Leave it-Ansatz kontrolliert werden. Sie verlangen höchste Produktqualität zum niedrigsten Preis und sogar innerhalb kürzester Zeit. Agilität und Flexibilität sind die einzigen Überlebensstrategien geworden. In solchen Szenarien setzen Unternehmensleiter alles daran, marktbedingte Probleme zu lösen, indem sie sie identifizieren und rechtzeitig reagieren, um sie in Chancen zu verwandeln. Inmitten dieser Wettbewerbe und Nachfrageunsicherheiten kann es je nach intuitionsbasiertem Entscheidungsfindungsansatz zur Bewältigung neuer Herausforderungen zu zerstörerischen Konsequenzen führen. Aus diesem Grund müssen Manager im daten- und technologiegetriebenen Zeitalter ihren Fokus auf Fakten und Beweise richten, um schnellere und lohnendere Entscheidungen zu treffen. In einem solchen Szenario bietet der Einsatz von Computational Intelligence-Techniken vielversprechende Erkenntnisse, um Unternehmensmanager bei einer besseren Entscheidungsfindung zu unterstützen und so Wettbewerbsvorteile gegenüber anderen zu erzielen. Erfolgreiche Unternehmen unternehmen jetzt geplante Anstrengungen bei der Einführung von Computational Intelligence-Techniken, um komplexe Geschäftsprobleme in der Praxis zu lösen. Zu den komplexen Anwendungsbereichen, in denen der Einsatz von Computational Intelligence bereits erfolgreich war, gehören das Kundenbeziehungsmanagement, die Identifizierung von Up- und Cross-Selling-Möglichkeiten, die Erhöhung der Konversionsrate durch gezielte Ansprache potenzieller Kunden, Social-Media-Analyse, Risikominderung, Betrugserkennung, gezielte Marketingkampagnen, Produktpreise, Personalrekrutierung, Mitarbeiterbindung und Finanzplanung usw. In der heutigen, sich schnell ändernden, unsicheren Geschäftsumgebung bleibt kaum ein Aspekt des Geschäfts von Computational Intelligence unberührt. Daher wird in diesem Kapitel versucht, die Anwendung von Computational Intelligence-Techniken in der Unternehmensführung zu diskutieren. Es werden verschiedene zugrundeliegende Prinzipien der Computerintelligenz diskutiert, gefolgt von den rechnerischen Aspekten und ausgewählten Anwendungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72929-5_1 9127c3d1ebc86e48d3eef3779b67fa33;de;;;7.4.;;;"Bessere Informationsbeschaffung durch sprachliche Raffinesse Es wird ein Algorithmus zum Erlernen skizzenhafter Skripte für einen Skimming-Parser vorgeschlagen. Der Parser soll Teil eines wissensbasierten Information-Retrieval-Systems sein. Ein Case-Frame-Matcher gleicht eine Zusammenfassung der Suchanfrage des Benutzers mit Zusammenfassungen der Texte ab und sollte einen deutlich besseren ""Erinnerung"" bieten als schlüsselwortbasierte IR-Systeme.";-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2279-5_41 6ed66a6cc7b76f8cd1857cb71dd0e6a1;de;;;7.4.;;;Lernmaschinen Das Lernen aus Daten kann eine sehr komplexe Aufgabe sein. Um eine Vielzahl von Problemen zufriedenstellend zu lösen, müssen möglicherweise viele verschiedene Arten von Algorithmen kombiniert werden. Merkmalsextraktionsalgorithmen sind wertvolle Werkzeuge, die Daten für andere Lernmethoden aufbereiten. Um ihre Nützlichkeit einzuschätzen, muss man die gesamten komplexen Prozesse untersuchen, von denen sie Teil sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-35488-8_2 dd6c727de173e982c3603955bdd7c931;de;;;7.4.;;;Forschung zur Datenanalyse zur Verbesserung der Lernleistung des englischen Wortschatzes Da die Datenanalysetechnologie ausgereifter wird und die Datenanwendungen immer umfangreicher werden, haben die Menschen eine große Datenmenge angesammelt. Die Datenanalysetechnologie hat sich im Bildungsbereich positiv ausgewirkt. Beim Englischlernen ist der englische Wortschatz der Schlüssel zum Englischlernen und die Grundlage für das Englischlernen. Aber das Haupthindernis beim Englischlernen ist das Gedächtnis an englische Wörter. Daher versucht diese Forschung, die zehntägige Rezitationsmethode mit der Vergessenskurve von Ebbing Haus zu kombinieren, um das Gedächtnis englischer Wörter zu unterstützen. Durch die graue relationale Analyse der Datenanalyse wird die Machbarkeit und Wirksamkeit dieser Methode untersucht. Die verwendeten Daten sind aufgezeichnete Daten im Gedächtnisworttest, Wortvertrautheitsrate, Fuzzy-Rate, Vergessensrate, Testwortbewertungsdaten und Endwortlernbewertungsdaten. Speichern Sie Lernaufzeichnungen von englischen Wörtern in einer Datenbank oder einem Data Warehouse in Form von Daten. Die Verwendung dieser Daten zur vernünftigen Analyse der Zehn-Tage-Rezitationsmethode ist sehr hilfreich, um die Lernleistung des englischen Wortschatzes zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-78618-2_20 fbddec80af89f04a00c6370ae6d610b3;de;;;7.4.;;;Rangfolge und Auswahl von unbeaufsichtigten Funktionen Die Reduzierung der Dimensionalität ist ein wichtiges Thema für den effizienten Umgang mit großen Datensätzen. Die Merkmalsauswahl ist bei der Dimensionsreduktion wirksam. Es gibt viele überwachte Merkmalsauswahlverfahren. Für das unbeaufsichtigte Feature-Ranking und die Auswahl, bei denen keine Klasseninformationen verfügbar sind, wurde wenig Arbeit geleistet. In diesem Kapitel beschäftigen wir uns mit dem Problem der Bestimmung und Auswahl der wichtigen Originalmerkmale für;-;-;-;https://link.springer.com/chapter/10.1007/0-306-46991-X_3 83e267c66085dc6e52c097e363e12e73;de;;;7.4.;;;Bewertung der inhaltsbasierten Spamfilterung mit einem Data-Mining-Ansatz, der auf Text- und Bildkorpus angewendet wird Mit dem kontinuierlichen Wachstum der E-Mail-Nutzer nimmt die Zahl der unerwünschten E-Mails, auch Spam genannt, stark zu. Gegenwärtig werden server- und clientseitige Anti-Spam-Filter entwickelt, um verschiedene Merkmale von Spam-E-Mails zu erkennen. Allerdings haben Spammer in letzter Zeit einige neue Tricks eingeführt, die darin bestehen, Spam-Inhalte als Anhänge in digitale Bild-, PDF- und Doc-Dateien einzubetten, die alle gängigen Techniken, die auf der Analyse von digitalem Text im Body- und Betrefffeld von E-Mails basieren, wirkungslos machen können. In diesem Papier haben wir einen Anti-Spam-Filtering-Ansatz vorgeschlagen, der auf Data-Mining-Techniken basiert, die Spam- und Ham-E-Mails klassifizieren. Die Wirksamkeit des vorgeschlagenen Ansatzes wird experimentell an einem großen Korpus einfacher Textdatensätze sowie in Text eingebetteter Bilddatensätze bewertet und Vergleiche zwischen einigen Klassifikatoren wie Random Forest und Naive Bayes durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-81-322-1771-8_50 f962aaf035bfabfb9c000258f9d4bb82;de;;;7.4.;;;Ist Sampling beim Data Mining sinnvoll? Ein Fall bei der Aufrechterhaltung von Regeln für entdeckte Assoziationen Sampling ist von Natur aus eine reizvolle Technik für das Data Mining, da Näherungslösungen in den meisten Fällen bereits die Bedürfnisse der Nutzer befriedigen können. Wir versuchen, Sampling-Techniken zu verwenden, um das Problem der Aufrechterhaltung entdeckter Assoziationsregeln anzugehen. Es wurden einige Studien zu dem Problem durchgeführt, die entdeckten Assoziationsregeln beizubehalten, wenn Aktualisierungen an der Datenbank vorgenommen werden. Alle vorgeschlagenen Verfahren müssen nicht nur den geänderten Teil, sondern auch den unveränderten Teil in der sehr großen Originaldatenbank untersuchen und nehmen daher viel Zeit in Anspruch. Schlimmer noch, wenn die Aktualisierungen der Regeln häufig in der Datenbank durchgeführt werden, sich jedoch der zugrunde liegende Regelsatz nicht wesentlich geändert hat, könnte der Aufwand größtenteils verschwendet werden. In diesem Artikel entwickeln wir einen Algorithmus, der Stichprobentechniken verwendet, um den Unterschied zwischen den Assoziationsregeln in einer Datenbank vor und nach der Aktualisierung der Datenbank zu schätzen. Die geschätzte Differenz kann verwendet werden, um zu bestimmen, ob wir die abgebauten Assoziationsregeln aktualisieren sollten oder nicht. Wenn die geschätzte Differenz klein ist, sind die Regeln in der ursprünglichen Datenbank immer noch eine gute Annäherung an die in der aktualisierten Datenbank. Daher müssen wir keine Ressourcen aufwenden, um die Regeln zu aktualisieren. Wir können mehr Aktualisierungen ansammeln, bevor die Regeln tatsächlich aktualisiert werden, wodurch der Aufwand für eine zu häufige Aktualisierung der Regeln vermieden wird. Experimentelle Ergebnisse zeigen, dass unser Algorithmus sehr effizient und hochgenau ist.;-;-;-;https://link.springer.com/article/10.1023/A%3A1009703019684 8f1df2b5477cb12f08b6df6e95db63f8;de;;;7.4.;;;Social Media Analytics mit Data Mining-Algorithmen Social-Media-Sites wie Facebook, Twitter, LinkedIn und Google + enthalten eine übergroße Menge an unverarbeiteten Informationen. Durch die Analyse dieses Wissens werden neue Informationen gewonnen. Die traditionellen Datenverarbeitungstechniken werden für die Verarbeitung der zunehmenden Anzahl dynamischer und unstrukturierter Daten nicht anwendbar sein. In diesem Papier neigen wir dazu, Datenverarbeitung, Social-Media-Wissen und Datenverarbeitungstechniken, die in Social-Media-Anwendungen angewendet werden, zu diskutieren. Es wurde eine detaillierte Untersuchung der Arbeiten durchgeführt, die den Sektor der Analyse der Datenverarbeitung in sozialen Netzwerken und der Techniken zur Durchführung des Mining von {das Wissen, die Informationen} der Daten der sozialen Netzwerke entwässert haben. Die Ergebnisse dieser Umfrage werden als Grundlage für die zukünftigen Datenverarbeitungstechnologien dienen. Data Mining entwickelt sich als Verfahren zur Untersuchung bereits vorhandener Datenbanken, um neue hilfreiche Informationen zu erhalten. Die Social-Networking-Sites gewinnen ein erhöhtes Forschungspotenzial für Forscher, da die meisten Menschen für Nachrichten und Meinungen anderer Benutzer vom sozialen Netzwerk abhängig sind [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-34515-0_2 45503f8d2d8619a066e3e69bf7e655cb;de;;;7.4.;;;Ein effektiver Rahmen zur Charakterisierung seltener Kategorien Seltene Kategorien werden immer häufiger und ihre Charakterisierung wurde bisher wenig beachtet. Betrügerische Banktransaktionen, Netzwerkeinbrüche und seltene Krankheiten sind Beispiele für seltene Klassen, deren Erkennung und Charakterisierung von hohem Wert sind. Eine genaue Charakterisierung ist jedoch aufgrund der hohen Schiefe und Nichttrennbarkeit von Mehrheitsklassen schwierig, z. B. betrügerische Transaktionen, die sich als legitim ausgeben. Dieses Papier schlägt den RACH-Algorithmus vor, indem es die Kompaktheitseigenschaft der seltenen Kategorien untersucht. Dieser Algorithmus ist von Natur aus halbüberwacht, da er sowohl gekennzeichnete als auch nicht gekennzeichnete Daten verwendet. Es basiert auf einem Optimierungs-Framework, das die seltenen Beispiele durch einen Hyperball mit minimalem Radius umschließt. Das Gerüst wird dann in ein konvexes Optimierungsproblem überführt, das wiederum in seiner dualen Form durch das projizierte Subgradientenverfahren effektiv gelöst wird. RACH kann natürlich Kernelisiert werden. Experimentelle Ergebnisse bestätigen die Wirksamkeit von RACH.;-;-;-;https://link.springer.com/article/10.1007/s11704-012-2861-9 e5d6d59ace3ff53817586a70349111df;de;;;7.4.;;;Evolutionäre Berechnung zur Lösung suchbasierter Datenanalyseprobleme Die automatische Gewinnung von Wissen aus massiven Datenstichproben, d. h. Big Data Analytics (BDA), hat sich in fast allen wissenschaftlichen Forschungsfeldern zu einer lebenswichtigen Aufgabe entwickelt. Die BDA-Probleme sind aufgrund ihrer großräumigen, hochdimensionalen und dynamischen Eigenschaften eher schwer zu lösen, während die Probleme mit kleinen Daten aufgrund unzureichender Datenproben und unvollständiger Informationen in der Regel schwer zu handhaben sind. Solche Schwierigkeiten führen zum suchbasierten Datenanalyseproblem, bei dem eine Datenanalyseaufgabe als komplexes, dynamisches und rechenintensives Optimierungsproblem modelliert und dann mit einem iterativen Algorithmus gelöst wird. In diesem Beitrag beabsichtigen wir, eine umfassende und eingehende Diskussion über den Einsatz von Optimierungsmethoden auf der Grundlage von evolutionären Berechnungen (EC) [einschließlich evolutionärer Algorithmen (EAs) und Schwarmintelligenz (SI)] zur Lösung suchbasierter Datenanalyseprobleme zu präsentieren. Anschließend geben wir als Beispiel zur Veranschaulichung einen umfassenden Überblick über die Anwendungen modernster EC-Methoden für verschiedene Arten von Data-Mining-Problemen in der Bioinformatik. Hier werden die detaillierte Analyse und Diskussion an drei Arten von Datenproben durchgeführt, die Sequenzdaten, Netzwerkdaten und Bilddaten umfassen. Schließlich befassen wir uns mit den Herausforderungen, denen sich EC-Methoden gegenübersehen, und dem Trend für zukünftige Richtungen. Basierend auf der Anwendung von EC-Methoden für suchbasierte Datenanalyseprobleme mit ungenauen und unsicheren Informationen können die Erkenntnisse der Datenanalyse besser verstanden und effizientere Algorithmen entwickelt werden, um komplexe BDA-Probleme in der Praxis zu lösen.;-;-;-;https://link.springer.com/article/10.1007/s10462-020-09882-x 0387615d008cf3e7b1fc40d7333dc774;de;;;7.4.;;;Methoden des maschinellen Lernens in der automatischen Bildanmerkung Methoden des maschinellen Lernens werden in vielen Bereichen der Informatik erfolgreich eingesetzt. Einer dieser Zweige ist die Bildanalyse, und genauer gesagt –;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05179-1_18 9bb01cf93ed403deab8f4312f3a6aa50;de;;;7.4.;;;Abstimmen von Machine-Learning-Algorithmen für batteriebetriebene tragbare Geräte Algorithmen des maschinellen Lernens in verschiedenen Formen werden heute zunehmend auf einer Vielzahl von tragbaren Geräten verwendet, angefangen vom Mobiltelefon bis hin zu PDAs. Sie sind oft Bestandteil von Standardanwendungen (z. B. zur Grammatikprüfung in E-Mail-Clients), die auf diesen Geräten laufen und einen erheblichen Teil der Prozessor- und Speicherbandbreite belegen. Der Großteil der Forschung innerhalb der Community für maschinelles Lernen hat jedoch Probleme wie die Speichernutzung und den Stromverbrauch von Prozessoren, die diese Algorithmen ausführen, ignoriert. In diesem Beitrag untersuchen wir, wie maschinell gelernte Modelle leistungsbewusst für den Einsatz auf ressourcenbeschränkten tragbaren Geräten entwickelt werden können. Wir zeigen, dass es durch das Tolerieren eines kleinen Genauigkeitsverlusts möglich ist, den Energieverbrauch und das Datencache-Verhalten dieser Algorithmen drastisch zu verbessern. Genauer gesagt untersuchen wir ein typisches sequenzielles Markierungsproblem von problem;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17187-1_48 86b2f17658030227b9ae148cc562727f;de;;;7.4.;;;Anwendung von Machine-Learning-Algorithmen in netzwerkbasierten Intrusion-Detection-Systemen Die Zunahme der Nutzung von Computernetzwerken mit zunehmender Anzahl von Anwendungen, die darauf ausgeführt werden, hat die Bedenken hinsichtlich der Netzwerksicherheit erhöht. Daher wird die Rolle von Intrusion Detection Systemen (IDSs) als Spezialgeräten zur Erkennung von Anomalien und Angriffen im Netzwerk immer wichtiger. Eine der Techniken sind Network Intrusion Detection Systeme, die eine Reihe von Methoden bereitstellen, um Computersysteme gegen netzwerkbasierte Angriffe zu schützen. In diesem Papier versuchen wir, Vorhersagen über das Auftreten von Angriffen auf ein Netzwerk durch die Analyse verschiedener Fehlerraten bei der Übertragung von Daten von der Quelle zum Ziel zu präsentieren. Wir verwenden verschiedene Modelle des maschinellen Lernens, um die Genauigkeit und Vorhersage der Algorithmen zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6393-9_24 4fbc2e97b6f61243ec479b8b845b6dab;de;;;7.4.;;;Relationales Lernen und Boosten Es hat sich herausgestellt, dass Boosting, eine Methodik zum Konstruieren und Kombinieren mehrerer Klassifikatoren, zu erheblichen Verbesserungen der Vorhersagegenauigkeit führt. Obwohl Boosting in einem propositionalen Lernkontext formuliert wurde, können die gleichen Ideen auf das Lernen erster Ordnung (auch bekannt als induktive logische Programmierung) angewendet werden. Boosting wird hier mit einem System verwendet, das relationale Definitionen von Funktionen lernt. Die Ergebnisse zeigen, dass das Ausmaß der Verbesserung, der zusätzliche Rechenaufwand und die gelegentlichen negativen Auswirkungen des Boostings alle den entsprechenden Beobachtungen für das propositionale Lernen ähneln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-04599-2_12 c2f91445545e4fc1bcf51ae22b86498d;de;;;7.4.;;;Malware-Erkennung mit maschinellem Lernen Die Entscheidungsfindung mit maschinellem Lernen kann effizient auf die Sicherheit angewendet werden. Malware ist in der heutigen Zeit zu einem großen Risiko geworden. Um diese zu schützen, präsentieren wir eine auf maschinellem Lernen basierende Technik zur Vorhersage von Windows PE-Dateien als gutartig oder bösartig basierend auf 57 ihrer Attribute. Wir haben den brasilianischen Malware-Datensatz verwendet, der rund 100.000 Samples und 57 Labels umfasst. Wir haben sieben Modelle erstellt und eine Genauigkeit von 99,7 % für das Random Forest-Modell erreicht, was im Vergleich zu anderen bestehenden Systemen sehr hoch ist. So kann mit dem Random Forest-Modell entschieden werden, ob eine bestimmte Datei Malware oder harmlos ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-65384-2_5 f9e266c641ade3d1eb92578476e7ad88;de;;;7.4.;;;Erkennung von Aktienkursmanipulationen basierend auf maschineller Lerntechnologie: Beweise in China Die Manipulation von Aktienkursen ist an den Aktienmärkten zu einem großen Problem geworden, insbesondere in Schwellenländern wie China. Dieses Papier zielt darauf ab, Methoden des maschinellen Lernens einzusetzen, um die Aktienkursmanipulation in China zu erkennen, um die Fairness und Transparenz des Marktes zu erhöhen. Basierend auf den Informationen der China Securities Regulatory Commission haben wir die Differenz von Aktien zwischen manipulierter Zeit und normaler Zeit basierend auf ihrer täglichen Rendite, ihrem Handelsvolumen, der Aktienkursvolatilität und dem Marktwert ermittelt. Wir haben sie als erklärende Variablen verwendet. Dann verwendeten wir ein Einzelmodell, Support Vector Machine (SVM), und ein Ensemble-Modell, Random Forest (RF) zur Erkennung. Die Testleistung der Klassifizierungsgenauigkeit, Sensitivität und Spezifitätsstatistik für SVM wurde mit den Ergebnissen von RF verglichen. Als Ergebnis haben wir festgestellt, dass beide eine sinnvolle Genauigkeit aufweisen, während RF SVM übertrifft. Wir haben auch festgestellt, dass die Tagesrendite und der Marktwert einen größeren Einfluss auf die Erkennung haben als andere erklärende Variablen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-3966-9_16 133022aee89991fc9d1314ee0f054d0d;de;;;7.4.;;;Ein neuartiges berechtigungsbasiertes Android-Malware-Erkennungssystem mit Funktionsauswahl basierend auf linearer Regression Mit den Entwicklungen in der Mobil- und Drahtlostechnologie sind mobile Geräte zu einem wichtigen Bestandteil unseres Lebens geworden. Während Android das führende Betriebssystem in Bezug auf den Marktanteil ist, ist es die Plattform, die von Angreifern am meisten angegriffen wird. Obwohl in der Literatur viele Lösungen für die Erkennung von Android-Malware vorgeschlagen wurden, besteht immer noch ein Bedarf an Verfahren zur Attributauswahl, die in Android-Malware-Erkennungssystemen verwendet werden. In dieser Studie wird ein auf maschinellem Lernen basierendes Malware-Erkennungssystem vorgeschlagen, um Android-Malware von harmlosen Anwendungen zu unterscheiden. In der Merkmalsauswahlphase des vorgeschlagenen Malware-Erkennungssystems wird angestrebt, unnötige Merkmale durch Verwendung eines auf linearer Regression basierenden Merkmalsauswahlansatzes zu entfernen. Auf diese Weise wird die Dimension des Merkmalsvektors reduziert, die Trainingszeit verkürzt und das Klassifizierungsmodell kann in Echtzeit-Malware-Erkennungssystemen verwendet werden. Wenn die Ergebnisse der Studie untersucht werden, wird die höchste 0,961 gemäß der F-Maß-Metrik unter Verwendung von mindestens 27 Merkmalen erhalten.;-;-;-;https://link.springer.com/article/10.1007/s00521-021-05875-1 ba2559b3f08494b261b207a50e87c747;de;;;7.4.;;;Ein auf neuronalen Netzen basierender Ansatz für Fast-Mining-Charakteristikregeln Beim Data Mining geht es um das Extrahieren versteckter Informationen aus einem großen Datensatz. Eine Aufgabe des Data Mining besteht darin, die Eigenschaften des Datensatzes durch Attribute in Form von Regeln zu beschreiben. Dieses Papier zielt darauf ab, ein auf neuronalen Netzwerken basierendes Framework für das schnelle Mining von charakteristischen Regeln zu entwickeln. Die Idee ist, zuerst die Kohonen-Karte zu verwenden, um den Datensatz in Gruppen mit ähnlichen Merkmalen zu gruppieren. Verwenden Sie dann einen Satz einschichtiger überwachter neuronaler Netze, um jede der Gruppen zu modellieren, sodass die signifikanten Attribute, die den Datensatz charakterisieren, extrahiert werden können. Ein inkrementeller Algorithmus, der diese beiden Schritte kombiniert, wird vorgeschlagen, um die charakteristischen Regeln für den Datensatz mit nichtlinearen Beziehungen abzuleiten. Das Framework wird unter Verwendung eines umfangreichen Problems forensischer Daten von Herzpatienten getestet. Seine Wirksamkeit ist nachgewiesen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-46695-9_4 4631020bdfe5ef511abe68c2874a582f;de;;;7.4.;;;Arabische Sentimentanalyse: Studien, Ressourcen und Tools Um zu bestimmen, ob ein Dokument oder ein Satz eine positive oder negative Stimmung ausdrückt, werden im Allgemeinen drei Hauptansätze verwendet: der lexikonbasierte Ansatz, der korpusbasierte Ansatz und ein hybrider Ansatz. Das Studium der Sentimentanalyse in Englisch weist die höchste Anzahl von Sentimentanalysestudien auf, während die Forschung für andere Sprachen, einschließlich Arabisch und seine Dialekte, begrenzter ist. Lexikonbasierte Ansätze benötigen kommentierte Stimmungslexika (die die Wertigkeit und Intensität ihrer Begriffe und Ausdrücke enthalten). Die korpusbasierte Stimmungsanalyse erfordert kommentierte Sätze. Eines der wesentlichen Probleme im Zusammenhang mit der Behandlung des Arabischen und seiner Dialekte ist der Mangel an diesen Ressourcen. In dieser Umfrage stellen wir die neuesten Ressourcen und Fortschritte vor, die für die arabische Stimmungsanalyse durchgeführt wurden. Diese Umfrage stellt aktuelle Arbeiten vor (wobei die Mehrheit dieser Arbeiten zwischen 2015 und 2019 entstanden ist). Diese Arbeiten sind nach Kategorien (Erhebungsarbeiten oder Beitragsarbeiten) geordnet. Bei der Beitragsarbeit konzentrieren wir uns auf die Konstruktion von Stimmungslexikon und Korpus. Wir beschreiben auch aufkommende Trends im Zusammenhang mit der arabischen Stimmungsanalyse, die hauptsächlich mit dem Einsatz von Deep-Learning-Techniken verbunden sind.;-;-;-;https://link.springer.com/article/10.1007/s13278-019-0602-x e74cacefde454b96dffdf3f9ece804a0;de;;;7.4.;;;Einfluss von WSD auf den mehrsprachigen Informationsabruf Die Mehrdeutigkeit der Übersetzung ist ein Hauptproblem bei der wörterbuchbasierten, sprachübergreifenden Informationssuche. Dieses Papier schlägt einen statistischen Ansatz zur Begriffsklärung des Wortsinns (WSD) zur Auflösung von Übersetzungsmehrdeutigkeiten vor. Im Hinblick auf die CLIR-Effektivität wird dann die reine Wirkung eines Begriffsklärungsmoduls auf die folgenden Aspekte untersucht: Beitrag der Begriffsklärungsgewichtung zur Gewichtung der Zielbegriffe, Einflüsse der WSD-Leistung auf die CLIR-Abrufeffektivität. In unserer Untersuchung verwenden wir keine Vorübersetzungs- oder Nachübersetzungsmethoden, um jegliche Vermischungseffekte auf CLIR auszuschließen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30211-7_38 9625c5f6c76d6133445842432b84cd9f;de;;;7.4.;;;Folk the Algorithms: Künstliche Intelligenz auf Volksmusik (falsch) anwenden Dieses Kapitel motiviert die Anwendung von Künstlicher Intelligenz (KI) zur Modellierung von Volksmusikstilen. In diesem Zusammenhang fokussieren wir uns insbesondere auf Fragen zur sinnvollen Bewertung solcher KI und argumentieren, dass Musikpraktiker ein integraler Bestandteil der Forschungsarbeit sein sollten. Wir begründen unsere Diskussion mit spezifischer Musik-KI, die symbolische Transkriptionen traditioneller Tanzmusik aus Irland und Skandinavien modelliert. Schließlich diskutieren wir mehrere ethische Dimensionen solcher Arbeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72116-9_16 097cc020e67da462fecfec2061e12686;de;;;7.4.;;;Entitätsmengenerweiterung im Wissensgraphen: eine heterogene Informationsnetzwerkperspektive Entity Set Expansion (ESE) zielt darauf ab, ein Entity-Seed-Set zu erweitern, um mehr Entitäten mit gemeinsamen Eigenschaften zu erhalten. ESE ist für viele Anwendungen wichtig, z. B. für die Wörterbuchkonstruktion und Abfragevorschläge. Traditionelle ESE-Methoden stützten sich stark auf Text- und Webinformationen von Entitäten. In letzter Zeit haben einige ESE-Methoden Wissensgraphen (KGs) verwendet, um Entitäten zu erweitern. Sie versäumten es jedoch, die in einem KG enthaltene reichhaltige Semantik effektiv und effizient zu nutzen und ignorierten die Textinformationen von Entitäten in Wikipedia. In diesem Papier modellieren wir eine KG als heterogenes Informationsnetzwerk (HIN), das mehrere Arten von Objekten und Beziehungen enthält. Es werden feinkörnige Multityp-Metapfade vorgeschlagen, um die verborgene Beziehung zwischen Seed-Entitäten in einem KG zu erfassen und somit Kandidatenentitäten abzurufen. Dann ordnen wir die Entitäten gemäß der auf Metapfaden basierenden strukturellen Ähnlichkeit ein. Um die Textbeschreibung von Entitäten in Wikipedia zu nutzen, schlagen wir außerdem ein erweitertes Modell CoMeSE++ vor, das sowohl strukturelle Informationen, die von einem KG offengelegt werden, als auch Textinformationen in Wikipedia für ESE kombiniert. Umfangreiche Experimente mit realen Datensätzen zeigen, dass unser Modell eine bessere Leistung erzielt, indem es strukturelle und textuelle Informationen von Entitäten kombiniert.;-;-;-;https://link.springer.com/article/10.1007/s11704-020-9240-8 93c95b29820f1a791d8d1eaa38c65b31;de;;;7.4.;;;Mining für Multiziel-Klassifikationsregeln In diesem Kapitel diskutieren wir die Anwendung der evolutionären Mehrzieloptimierung (EMO) auf das Mining von Assoziationsregeln. Wir konzentrieren unsere Aufmerksamkeit insbesondere auf das Mining von Klassifizierungsregeln in einem kontinuierlichen Merkmalsraum, in dem der vorausgehende und der folgende Teil jeder Regel ein Intervallvektor bzw. Zuerst erklären wir evolutionäre multiobjektive Klassifikationsregel-Mining-Techniken. Diese Techniken werden grob in zwei Ansätze eingeteilt. Bei einem Ansatz wird jede Klassifikationsregel individuell behandelt. Ein EMO-Algorithmus wird verwendet, um nach Pareto-optimalen Regeln in Bezug auf einige Regelbewertungskriterien wie Unterstützung und Vertrauen zu suchen. Beim anderen Ansatz wird jeder Regelsatz als Individuum behandelt. Ein EMO-Algorithmus wird verwendet, um nach Pareto-optimalen Regelsätzen in Bezug auf einige Regelsatz-Bewertungskriterien wie Genauigkeit und Komplexität zu suchen. Als nächstes erklären wir die evolutionäre multiobjektive Regelauswahl als Nachbearbeitungsverfahren beim Klassifikationsregel-Mining. Pareto-optimale Regelsätze werden aus einer großen Anzahl von Kandidatenklassifizierungsregeln gefunden, die unter Verwendung einer Assoziationsregel-Mining-Technik aus einer Datenbank extrahiert werden. Dann untersuchen wir die Effektivität der evolutionären multiobjektiven Regelauswahl durch Computerexperimente an einigen Benchmark-Klassifikationsproblemen. Schließlich untersuchen wir die Verwendung von Pareto-optimalen und nahezu Pareto-optimalen Regeln als Kandidatenregeln in der evolutionären multiobjektiven Regelauswahl.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72964-8_11 4ae146a0098e6fabe4ea2000c87b61a2;de;;;7.4.;;;Evolutionäre Mehrziel-Regelauswahl für das Mining von Klassifikationsregeln In diesem Kapitel wird die Anwendung der evolutionären Mehrzieloptimierung (EMO) auf das Mining von Klassifikationsregeln diskutiert. Im Bereich des Classification Rule Mining werden Klassifikatoren durch die folgenden zwei Phasen entworfen: Regelerkennung und Regelauswahl. In der Regelfindungsphase wird eine große Anzahl von Klassifikationsregeln aus Trainingsdaten extrahiert. Diese Phase basiert auf zwei Regelbewertungskriterien: Unterstützung und Vertrauen. Eine Assoziationsregel-Mining-Technik wie Apriori wird normalerweise verwendet, um Klassifikationsregeln zu extrahieren, die im Voraus spezifizierte Schwellenwerte der minimalen Unterstützung und des Vertrauens erfüllen. In einigen Studien wurden EMO-Algorithmen verwendet, um nach Pareto-optimalen Regeln in Bezug auf Unterstützung und Vertrauen zu suchen. Andererseits wird eine kleine Anzahl von Regeln aus den extrahierten Regeln ausgewählt, um in der Regelauswahlphase einen genauen und kompakten Klassifikator zu entwerfen. Für die Regelauswahl wird üblicherweise ein heuristisches Regelsortierkriterium verwendet. In einigen Studien wurden EMO-Algorithmen für die Regelauswahl mit mehreren Zielen verwendet, um die Genauigkeit von Regelsätzen zu maximieren und ihre Komplexität zu minimieren. In diesem Kapitel erläutern wir zunächst die beiden oben genannten Phasen des Classification Rule Mining. Als nächstes erklären wir die Suche nach Pareto-optimalen Regeln und die Suche nach Pareto-optimalen Regelsätzen. Dann erklären wir die evolutionäre Mehrziel-Regelauswahl als Nachbearbeitungsverfahren in der zweiten Phase des Klassifikationsregel-Mining. Aus einer Vielzahl von Kandidatenregeln, die in der ersten Phase aus Trainingsdaten extrahiert werden, werden eine Reihe von Pareto-optimalen Regelsätzen gefunden. Schließlich zeigen wir experimentelle Ergebnisse zu einigen Datensätzen aus dem UCI-Repository für maschinelles Lernen. Durch Computerexperimente zeigen wir, dass die evolutionäre Regelauswahl die Anzahl der extrahierten Regeln drastisch verringern kann, ohne ihre Klassifikationsgenauigkeit ernsthaft zu verschlechtern. Wir untersuchen auch die Beziehung zwischen paretooptimalen Regeln und paretooptimalen Regelsätzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77467-9_3 8e61e7662ff7740a1e87a4ef9058a8c4;de;;;7.4.;;;Lernen mehrerer Metriken für das Ranking Die direkte Optimierung einer Information Retrieval (IR) Metrik ist zu einem heißen Thema im Bereich des Erlernens von Rankings geworden. Herkömmliche Weisheit glaubt, dass es besser ist, für die Verlustfunktion zu trainieren, die für die Bewertung verwendet wird. Aber in der Realität beobachten wir oft unterschiedliche Ergebnisse. Beispielsweise erreicht die direkte Optimierung der gemittelten Präzision eine höhere Leistung als die direkte Optimierung der Präzision@3, wenn die Ranking-Ergebnisse in Bezug auf die Genauigkeit@3 ausgewertet werden. Dies motiviert uns, mehrere Metriken im Prozess der Optimierung von IR-Metriken zu kombinieren. Der Einfachheit halber untersuchen wir das Lernen mit zwei Metriken. Da wir den Lernprozess in der Regel in einem eingeschränkten Hypothesenraum, z. B. dem linearen Hypothesenraum, durchführen, ist es meist schwierig, beide Metriken gleichzeitig zu maximieren. Um dieses Problem anzugehen, schlagen wir in diesem Beitrag einen entspannten Ansatz vor. Insbesondere integrieren wir eine Metrik in die Einschränkung, während wir die andere maximieren. Durch die Einschränkung des zulässigen Hypothesenraums können wir ein robusteres Ranking-Modell erhalten. Empirische Ergebnisse zum Benchmark-Datensatz LETOR zeigen, dass der relaxierte Ansatz dem direkten Linearkombinationsansatz überlegen ist und auch andere Baselines übertrifft.;-;-;-;https://link.springer.com/article/10.1007/s11704-011-0152-5 176aa21864150426df45ec7b8cddeaa0;de;;;7.4.;;;Umgehung des zentralen Engpasses nach Single-Task-Praxis im psychologischen Refraktärzeit-Paradigma: Belege für Aufgabenautomatisierung und gierige Ressourcenrekrutierung In dieser Arbeit wurde der kontroversen Frage nachgegangen, ob der zentrale Engpass durch Aufgabenautomatisierung umgangen werden kann. Um dieses Problem zu untersuchen, erhielten die Teilnehmer sechs Einzelaufgaben-Übungssitzungen mit einer auditiv-vokalen Aufgabe (tiefe vs. hohe Tonlage). Anschließend beurteilten wir die Dual-Task-Leistung nach dem analytisch beherrschbaren psychologischen Refraktärzeit-Paradigma (PRP), bei dem die stark geübte Hör-Gesang-Aufgabe als Aufgabe 2 zusammen mit einer ungeübten visuell-manuellen Aufgabe 1 präsentiert wurde. Die Ergebnisse belegen den Engpass Bypass für praktisch alle Teilnehmer (17 von 20). Mehrere konvergierende Tests legen nahe, dass der Engpass jedoch in einem Folgeexperiment mit Aufgaben in umgekehrter Reihenfolge (auditiv-vokal Aufgabe 1 und visuell-manuell Aufgabe 2) wieder auftauchte. Eine mögliche Erklärung ist, dass Aufgaben gierig zentrale Ressourcen rekrutieren, wenn sie verfügbar sind, obwohl sie ohne zentrale Ressourcen arbeiten können, wenn sie nicht verfügbar sind.;-;-;-;https://link.springer.com/article/10.3758/MC.36.7.1262 86cb30adfeb4c2ec026bf102e0cca09f;de;;;7.4.;;;Quantenadiabatisches maschinelles Lernen Wir entwickeln einen Ansatz für maschinelles Lernen und Anomalieerkennung durch quantenadiabatische Evolution. Dieser Ansatz besteht aus zwei Quantenphasen mit einem gewissen Maß an klassischer Vorverarbeitung, um die Quantenprobleme aufzustellen. In der Trainingsphase identifizieren wir einen optimalen Satz schwacher Klassifikatoren, um einen einzigen starken Klassifikator zu bilden. In der Testphase entwickeln wir adiabatisch einen oder mehrere starke Klassifikatoren auf einer Überlagerung von Eingaben, um bestimmte anomale Elemente im Klassifikationsraum zu finden. Sowohl die Trainings- als auch die Testphase werden über quantenadiabatische Evolution durchgeführt. Die gesamte Quantenverarbeitung ist streng auf Zwei-Qubit-Wechselwirkungen beschränkt, um die physikalische Machbarkeit zu gewährleisten. Wir wenden diesen Ansatz im Detail auf das Problem der Softwareverifikation und -validierung an und veranschaulichen ihn anhand eines spezifischen Beispiels der Lernphase, die auf ein Problem von Interesse in Flugsteuerungssystemen angewendet wird. Über dieses Beispiel hinaus kann der Algorithmus verwendet werden, um eine breite Klasse von Problemen bei der Erkennung von Anomalie zu bekämpfen.;-;-;-;https://link.springer.com/article/10.1007/s11128-012-0506-4 4893bb9c559ef644f6115026789b59a6;de;;;7.4.;;;Multimodales Merkmalslernen für die auf Gangbiometrie basierende Erkennung der menschlichen Identität In diesem Artikel schlagen wir eine neuartige multimodale Feature-Learning-Technik vor, die auf Deep Learning für ein gangbiometrisches menschliches Identifizierungsschema aus Überwachungsvideos basiert. Experimentelle Bewertung vorgeschlagener Lernfunktionen basierend auf neuartigen Deep-Learning- und Standard-(PCA/LDA)-Funktionen in Kombination mit Klassifikatortechniken (NN/MLP/SVM/SMO) an verschiedenen Datensätzen aus zwei Gangdatenbanken (der öffentlich verfügbaren CASIA multiview multispectral database und die UCMG Multiview-Datenbank) zeigen eine signifikante Verbesserung der Erkennungsgenauigkeit mit den vorgeschlagenen Funktionen für das fusionierte Deep Learning.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-42042-9_89 621ac6834dbcbbc1f9380fdfd8a08eda;de;;;7.4.;;;Die Rolle der Aufmerksamkeit bei der Automatisierung: Funktioniert Aufmerksamkeit bei der Codierung oder beim Abrufen oder beidem? In dieser Studie haben wir untersucht, ob Aufmerksamkeit bei der Kodierung automatisierter Informationen, beim Abruf automatisierter Informationen oder in beiden Fällen funktioniert. Die Probanden durchsuchten Zwei-Wort-Anzeigen nach Mitgliedern einer Zielkategorie in Bedingungen mit fokussierter oder geteilter Aufmerksamkeit, die mit Block (Training vs. Transfer) gekreuzt wurden. Um zu sehen, ob Probanden alle verfügbaren Items oder nur besuchte Items kodierten, verglichen wir die Leistung von Probanden in unterschiedlichen Trainingsbedingungen, aber in derselben Transferbedingung. Probanden kodierten besuchte Elemente. Um zu sehen, ob die Probanden alle Items abrufen, die sie im Gedächtnis hatten, oder nur Items, die mit dem verknüpft waren, an dem sie beim Abruf teilgenommen hatten, verglichen wir die Leistung von Probanden unter den gleichen Trainingsbedingungen, aber unter verschiedenen Transferbedingungen. Probanden holten besuchte Elemente ab. Es wurde festgestellt, dass Aufmerksamkeit sowohl beim Codieren als auch beim Abrufen wirksam ist. Diese Ergebnisse stützen die Instanztheorie der Automatik, die die Rolle der Aufmerksamkeit beim Kodieren und Abrufen vorhersagt;-;-;-;https://link.springer.com/article/10.3758/BF03197283 2ce353170def0644a640e564b2e1cad0;de;;;7.4.;;;Ein hybrider klassischer Quantenansatz für die Mehrklassenklassifikation Quantenmaschinelles Lernen hat in letzter Zeit aufgrund der Rechenfähigkeit von Quantencomputern bei der Lösung von Problemen des maschinellen Lernens an Bedeutung gewonnen, die auf einem klassischen Computer unlösbar sind. Einen Quantenvorteil auf heutigen Quantencomputern zu erzielen, bleibt jedoch eine offene Herausforderung. In dieser Arbeit konzentrieren wir uns hauptsächlich darauf, Probleme des maschinellen Lernens zu lösen, indem wir ein Hybridmodell basierend auf Quanten- und klassischen Computern zusammen für die Klassifikationsaufgabe verwenden. Wir schlagen den Quanten-Multi-Class-Classifier (QMCC) als Variationsschaltung mit einem hybriden klassischen Quanten-Ansatz vor, der quantenmechanische Eigenschaften wie Superposition und Verschränkung nutzt. Eine unitäre Operation auf einem einzelnen Qubit zur Zustandsvorbereitung wird entworfen und auch unter Verwendung eines echten Quantencomputers auf der IBMQX-Plattform demonstriert. Die gesamte Variationsschaltung für die Klassifikationsaufgabe wird auf einem Quantensimulator implementiert. Wir haben unsere Quantensimulationen an drei Benchmark-Datensätzen durchgeführt:;-;-;-;https://link.springer.com/article/10.1007/s11128-021-03029-9 a9ec7b06a4614c77fa647603d0647635;de;;;7.4.;;;Ein generisches Modell eines selbstinkrementierenden wissensbasierten Entscheidungsunterstützungssystems unter Verwendung der Bolzmann-Maschine Wissensgesteuerte Entscheidungsunterstützungssysteme (DSS) verlassen sich erheblich auf die Aktualität ihrer Back-End-Wissensdatenbank, um eine verbesserte Unterstützungsqualität für den Entscheidungsprozess zu bieten. In diesem Papier wurde ein Modell entwickelt und vorgestellt, um diesen Zweck zu unterstützen, d. h. die Wissensbasis eines wissensgetriebenen DSS als selbstinkrementierend zu gestalten. Zunächst wird die Notwendigkeit eines solchen Modells zur Aufrechterhaltung des Wissensstandes und die Bedeutung des Wissensstandes im Kontext von DSS zur Unterstützung betrieblicher Entscheidungsprozesse diskutiert. Dann wird ein generisches Modell unter Verwendung von Kunden-E-Mail als Eingabe-Wissensquellen, Frames als Wissensrepräsentationsschema und Bolzmann-Maschine als Selbstinkrementierungsmechanismus präsentiert. Das Modell kann sowohl hinsichtlich der Eingabemöglichkeiten als auch der Prozessmöglichkeiten weiter erweitert oder verfeinert werden. Die Eingabeoptionen können andere Arten von Wissenseingaben mit unterschiedlichem Strukturierungsgrad umfassen. Die Prozessoptionen können andere Algorithmen und maschinelle Lernprozesse umfassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-48137-1_16 f843f5b4136c4829ae76e9de504cd2f5;de;;;7.4.;;;Klassifizierung von histopathologischen Neuroblastom-Bildern mit maschinellem Lernen Das Neuroblastom ist die häufigste Krebserkrankung bei Kleinkindern und macht mehr als 15 % der krebsbedingten Todesfälle bei Kindern aus. Die Identifizierung der Neuroblastomklasse ist abhängig von der histopathologischen Klassifizierung durch Pathologen, die als Goldstandard gilt. Aufgrund der heterogenen Natur von Neuroblastentumoren kann das menschliche Auge jedoch kritische visuelle Merkmale in der Histopathologie übersehen. Daher kann die Verwendung computerbasierter Modelle Pathologen bei der Klassifizierung durch mathematische Analyse unterstützen. Es gibt keinen öffentlich zugänglichen Datensatz mit histopathologischen Bildern des Neuroblastoms. Diese Studie verwendet also Datensätze, die von The Tumor Bank at Kids Research at The Children’s Hospital at Westmead gesammelt wurden und in früheren Forschungen verwendet wurden. Frühere Arbeiten an diesem Datensatz haben eine maximale Genauigkeit von 84 % gezeigt. Ein Hauptproblem, das in der bisherigen Forschung nicht angegangen wurde, ist das im Datensatz vorhandene Klassenungleichgewichtsproblem, da eine Klasse über 50% der Stichproben ausmacht. Diese Studie untersucht eine Reihe von Merkmalsextraktions- und Daten-Undersampling- und Oversampling-Techniken, um die Klassifikationsgenauigkeit zu verbessern. Mit diesen Methoden konnte diese Studie eine Genauigkeit von über 90% im Datensatz erreichen. Darüber hinaus wurden in dieser Studie signifikante Verbesserungen in den Minderheitenklassen beobachtet, bei denen frühere Arbeiten keine hohe Klassifikationsgenauigkeit erreichten. Dabei zeigt diese Studie, wie wichtig ein effektives Management verfügbarer Daten für jede Anwendung des maschinellen Lernens ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63836-8_1 7c0034d2859b5b5ff7d1737c6fc7c928;de;;;7.4.;;;Intelligentes Computing für die Überwachung der Luftverschmutzung mit GIS, Fernerkundung und maschinellem Lernen Mit einem alarmierenden Anstieg der Schadstoffbelastung in verschiedenen Teilen der Welt hat sich das Studium der Luftverschmutzungsüberwachung zu einem der anspruchsvollsten Bereiche auf nationaler und internationaler Ebene entwickelt. Der Beitrag versucht, als prägnanter Leitfaden zu dienen, um grundlegende Kenntnisse über Arten der Fernerkundung, Quellen von Satellitendaten, Geodatenanalyse und optische Aerosoltiefe für die Überwachung der Luftverschmutzung zu vermitteln. Das Papier gibt wichtige Hinweise zu den Datensätzen und verfügbaren Formaten, die für die Verarbeitung und Analyse der Daten erforderliche Werkzeuge sind. Die futuristischen Erkenntnisse diskutieren schließlich die Rolle des maschinellen Lernens bei der Korrektur von AOD-Werten sowie beim Füllen von Lücken für fehlende Aerosolwerte im Vergleich zu bodengestützten Sensoren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-8942-9_12 940e18771694153c64325a3fe05f4c0e;de;;;7.4.;;;Entwicklung eines Informationssicherheits-Data-Mining-Systems für ein Lagezentrum Die Informationssicherheit eines Lagezentrums wird besprochen. Es zeigt sich, dass moderne Data-Mining-Technologien erforderlich sind, um die Wirksamkeit des Datenschutzes zu verbessern. Es wird eine Methodik zur Entwicklung von Data-Mining-Systemen für die Informationssicherheit beschrieben. Der Umgang mit Fragen der Informationssicherheit wird analysiert und Merkmale ihrer Umsetzung identifiziert. Ein Beispiel wird für die Implementierung der Methodik beschrieben. Die Architektur eines Neuro-Fuzzy-Systems wird zum Schutz vor Eindringlingen in ein Unternehmensnetzwerk vorgeschlagen.;-;-;-;https://link.springer.com/article/10.3103/S0005105514020071 a67b28c907afe8a23e4344ebf27937a5;de;;;7.4.;;;Mechatronische Konstruktionsautomatisierung: Ein kurzer Rückblick Dieser Artikel gibt einen kurzen Überblick über die mechatronische Designautomatisierung (MDA), deren Optimierungsverfahren hauptsächlich auf evolutionären Berechnungstechniken basiert. Die jüngsten Fortschritte und Forschungsergebnisse der MDA werden systematisch zusammengefasst und die Herausforderungen und zukünftigen Forschungsrichtungen der MDA diskutiert. Zunächst wird das Konzept der MDA vorgestellt, Forschungsergebnisse und mögliche Herausforderungen von MDA analysiert. Anschließend werden zukünftige Forschungsrichtungen mit den Schwerpunkten Constrained Multi Objective Optimization, Surrogat-assisted Constrained Multi Objective Optimization und Design Automation durch Integration von Constrained Multi-Objective Evolutionary Computing und Wissensextraktion diskutiert. Schließlich weisen wir darauf hin, dass MDA ein großes Potenzial hat und die nächste große Technologiewelle nach der Electronic Design Automation (EDA) sein könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-39831-6_30 2289b23f4b9b2b83b96c6159b2df495c;de;;;7.4.;;;Integration mehrerer Lernstrategien in Logik erster Ordnung Dieses Papier beschreibt ein Repräsentations-Framework, das eine vereinheitlichende Plattform für alternative Systeme bietet, die Konzepte der Logik erster Ordnung lernen. Die wichtigsten Aspekte dieses Rahmens werden diskutiert. Zunächst wird die Trennung zwischen der hypothesenlogischen Sprache (eine Version der VL21-Sprache) und der Repräsentation von Daten mittels einer relationalen Datenbank motiviert. Anschließend wird die funktionale Schicht zwischen Daten und Hypothesen beschrieben, die die Daten durch eine Reihe von abstrakten Eigenschaften auf der logischen Ebene zugänglich macht. Eine Neuheit in der Hypothesen-Repräsentationssprache ist die Einführung des Konstrukts der internen Disjunktion, ein solches Konstrukt, das zuerst von den AQ- und Induce-Systemen verwendet wurde, wird hier durch eine Reihe von Algorithmen, die es lernen können, sowohl für diskreter und stetiger Attributfall. Diese Algorithmen sind in Lernsysteme (SMART+, REGAL, SNAP, WHY, RTL) unter Verwendung verschiedener Paradigmen (symbolisch, genetisch oder konnektionistisch) eingebettet, wodurch eine effektive Integration zwischen ihnen realisiert wird. Tatsächlich können kategoriale und numerische Attribute einheitlich gehandhabt werden Weg. Um die Wirksamkeit des Repräsentationsrahmens und der Multistrategie-Integration zu veranschaulichen, werden die Ergebnisse der oben genannten Systeme in einigen Anwendungsbereichen zusammengefasst.;-;-;-;https://link.springer.com/article/10.1023/A%3A1007361708126 ed14971e9bfeb2721122ff5aa8dcb3e3;de;;;7.4.;;;Intelligentes Bewässerungssystem mit maschinellen Lerntechnologien und Internet der Dinge (IoT) Knappe Wasserressourcen erfordern eine technologische Beteiligung an der Bewässerungsplanung, die dazu beitragen kann, das Wasser gemäß den Wetterbedingungen verschiedener Jahreszeiten, dem Wachstumsstadium der Pflanzen und den Landschaftsinformationen zu verwalten. Die vorgeschlagene Methode berechnet den tatsächlichen Wasserbedarf mithilfe eines maschinellen Lernmodells und der Evapotranspiration. Das Modell wird mit Echtzeit-Wetterdaten trainiert, um den tatsächlichen Wasserbedarf vorherzusagen. Die Referenz-Evapotranspiration wird mit Hilfe der Penman-Monteith-Methode berechnet. Bevor mit diesem Echtzeitsystem begonnen wird, wird das vorgeschlagene Modell mit Hilfe von Web-Scraping-Wetterdaten der letzten 10 Jahre implementiert. Vorgeschlagene Algorithmen für den Wasserbedarf und die Bewässerungsplanung werden auf verschrotteten Daten ausgeführt. Nach erfolgreichen Ergebnissen wird das System für den Echtzeiteinsatz implementiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0493-5_23 f507bde343c26791e1834065d3cc1e5a;de;;;7.4.;;;Methodenspezifische Wissenszusammenstellung Allgemeingültigkeit und Umfang sind wichtige, aber schwierige Themen im Knowledge Engineering. An der Wurzel der Schwierigkeit liegen zwei herausfordernde Fragen: wie man riesige Wissensmengen anhäuft und wie man heterogenes Wissen und die Verarbeitung unterstützt. Ein Ansatz für das erste Problem besteht darin, Legacy-Wissenssysteme wiederzuverwenden, Wissenssysteme mit Legacy-Datenbanken zu integrieren und die gemeinsame Nutzung der Datenbanken durch mehrere Wissenssysteme zu ermöglichen. Zur Realisierung dieses Ansatzes präsentieren wir eine Architektur namens HIPED. HIPED wandelt das zweite obige Problem in eine neue Form um: wie man Daten, auf die aus einer Legacy-Datenbank zugegriffen wird, in eine Form umwandelt, die für die Verarbeitungsmethode geeignet ist, die in einem Legacy-Wissenssystem verwendet wird. Ein Ansatz zu dieser reformierten Fragestellung ist die methodenspezifische Zusammenführung von Daten zu Wissen. Wir beschreiben ein Experiment, bei dem ein Legacy-Wissenssystem namens;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-4911-3_19 7babb42e7f06bd7548fde61d74dd8a2e;de;;;7.4.;;;Attribut Grid Computer basierend auf qualitativer Abbildung für künstliche Intelligenz Eine neue Art von Computer, Attribut Grid Computer basierend auf Qualitativer Abbildung und der gegenseitigen Umwandlungsbeziehung zwischen Wahrscheinlichkeit und Umwandlungsgradfunktion, wird in diesem Artikel diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00828-4_14 d8549b6af91262031e9301936b0a57dd;de;;;7.4.;;;Wahrscheinlichkeitsmodelle für Text Mining Zur probabilistischen Analyse von Textdaten sind in den letzten Jahren eine Reihe probabilistischer Verfahren wie LDA, Hidden-Markov-Modelle, Markov-Zufallsfelder entstanden. Dieses Kapitel bietet einen Überblick über eine Vielzahl von Wahrscheinlichkeitsmodellen für das Text-Mining. Das Kapitel konzentriert sich mehr auf die grundlegenden probabilistischen Techniken und behandelt auch ihre verschiedenen Anwendungen auf verschiedene Text-Mining-Probleme. Einige Beispiele solcher Anwendungen umfassen Themenmodellierung, Sprachmodellierung, Dokumentenklassifizierung, Dokumentenclusterbildung und Informationsextraktion.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-3223-4_8 831a947bd30b37452fc6f3acb142fff2;de;;;7.4.;;;Analyse des maschinellen Lernens auf Mainstream-Mikrocontrollern Maschinelles Lernen in eingebetteten Systemen ist Realität geworden, wobei den ARM-Mikrocontroller-Entwicklern bereits die ersten Tools zur Firmware-Entwicklung für neuronale Netzwerke zur Verfügung gestellt werden. Dieses Papier untersucht die Verwendung eines dieser Tools, nämlich der STM X-Cube-AI, auf Mainstream-ARM-Cortex-M-Mikrocontrollern, analysiert deren Leistung und vergleicht die Unterstützung und Leistung anderer zweier gängiger überwachter ML-Algorithmen, nämlich Support Vector Machines ( SVM) und k-nächste Nachbarn (k-NN). Die Ergebnisse von drei Datensätzen zeigen, dass X-Cube-AI selbst mit den Einschränkungen der eingebetteten Plattform eine recht konstant gute Leistung bietet. Der Workflow ist gut in Mainstream-Desktop-Tools wie Tensorflow und Keras integriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37277-4_12 f9bf5061f844ca4907d80eafe5ec4c48;de;;;7.4.;;;Die Grundlagen der Ökonomie des Produktlebenszyklus In dem gegenwärtigen globalen Wirtschaftssystem, das von Globalisierung und einem hochvolatilen Umfeld für die funktionierenden Wirtschaftseinheiten gekennzeichnet ist, ist wettbewerbsfähiges Wachstum ein Schlüsselelement für stabilen Fortschritt für Organisationen, Branchen und die Volkswirtschaft im Allgemeinen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37814-1_1 ee60b1e2f39c1a0844b4a0570538689a;de;;;7.4.;;;Data Mining von mehrfach kategorisierten Daten Im Projekt des International Research and Educational Institute for Integrated Medical Sciences (IREIIMS) erheben wir komplette medizinische Datensätze, um Zusammenhänge zwischen medizinischen Daten und dem Gesundheitszustand zu ermitteln. Da die Daten viele Elemente enthalten, die unterschiedlich kategorisiert werden, ist es nicht einfach, nützliche Regelsätze zu generieren. Manchmal werden seltene Regelkombinationen ignoriert und somit können wir den Gesundheitszustand nicht korrekt bestimmen. In diesem Beitrag analysieren wir die Merkmale solch komplexer Daten, weisen auf die Vorteile von kategorisiertem Data Mining hin und schlagen eine kategorisierte Regelgenerierung und Gesundheitszustandsbestimmung unter Verwendung kombinierter Regelsätze vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68416-9_15 8df886471eae92b3e38992c01d3ba28e;de;;;7.4.;;;Ein neuartiges vergleichendes Deep-Learning-Framework zur Schätzung des Gesichtsalters Die Entwicklung automatischer Algorithmen zur Altersbestimmung von Gesichtern, die den menschlichen Fähigkeiten in der Altersschätzung vergleichbar oder sogar überlegen sind, ist in den letzten Jahren zu einem attraktiven, aber auch herausfordernden Thema geworden. Die herkömmlichen Methoden schätzen das Alter einer Person direkt aus dem gegebenen Gesichtsbild. Im Gegensatz dazu schlugen wir, motiviert durch menschliche kognitive Prozesse, ein vergleichendes Deep-Learning-Framework namens Comparative Region Convolutional Neural Network (CRCNN) vor, indem wir zuerst das Eingabegesicht mit Referenzgesichtern bekannten Alters vergleichen, um eine Reihe von Hinweisen zu generieren (vergleichende Beziehungen, d , das Eingabegesicht ist jünger oder älter als jede Referenz). Dann aggregiert eine Schätzungsphase alle Hinweise, um das Alter der Person zu schätzen. Unser Ansatz hat mehrere Vorteile: Erstens ist die Aufgabe der Altersschätzung in mehrere Vergleichsstufen unterteilt, was einfacher ist als die direkte Berechnung des Alters der Person, zweitens können neben dem Eingabegesicht selbst explizit Nebeninformationen (Vergleichsbeziehungen) einbezogen werden der Schätzungsaufgabe zugute kommen, schließlich beeinflussen wenige falsche Vergleiche die Genauigkeit des Ergebnisses nicht wesentlich, was diesen Ansatz robuster macht als den herkömmlichen Ansatz. Nach unserem besten Wissen ist der vorgeschlagene Ansatz das erste vergleichende Deep-Learning-Framework zur Schätzung des Gesichtsalters. Darüber hinaus schlugen wir vor, die Methode der Hilfskoordinaten (MAC) in das Training einzubeziehen, die das Problem der schlechten Konditionierung des tiefen Netzwerks reduziert und eine effiziente und verteilte Optimierung ermöglicht. Im Vergleich zu den besten Ergebnissen der modernsten Methoden zeigte der CRCNN bei allen Benchmarks eine deutliche Outperformance mit einer relativen Verbesserung von 13,24% (auf FG-NET), 23.20% (auf MORPH) 4,74% (IoG).;-;-;-;https://link.springer.com/article/10.1186/s13640-016-0151-4 e323203d6d28611b15614d7ea8667574;de;;;7.4.;;;Das Rahmenproblem: Ein KI-Märchen Ich analysiere das Rahmenproblem und seine Beziehung zu anderen erkenntnistheoretischen Problemen der Künstlichen Intelligenz, wie dem Induktionsproblem, dem Qualifikationsproblem und dem allgemeinen KI-Problem. Ich bestreite die Behauptung, dass Erweiterungen der Logik (Standardlogik und umschreibende Logik) jemals einen gangbaren Ausweg aus dem Problem bieten werden. In der Diskussion wird deutlich, dass das ursprüngliche Rahmenproblem eigentlich ein Märchen ist: So wie es ursprünglich vorgestellt und Werkzeuge zu seiner Lösung von Pat Hayes umschrieben wurde, ist das Problem zwar unterhaltsam, aber unlösbar. Die Lösung des Rahmenproblems wird verfügbar und sogar offensichtlich, wenn wir künstliche Beschränkungen seiner Behandlung beseitigen und die Wechselbeziehung zwischen dem Rahmenproblem und den vielen anderen Problemen der künstlichen Erkenntnistheorie verstehen. Ich präsentiere die Lösung des Rahmenproblems: eine adäquate Theorie und Methode zur maschinellen Induktion von Kausalstrukturen. Während diese Lösung im Prinzip eindeutig zufriedenstellend ist und in der Praxis in den letzten Jahren echte Fortschritte in ihrer Anwendung erzielt wurden, ist ihre endgültige Umsetzung nur für zukünftige Generationen von KI-Forschern in Aussicht.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008286921835 533eac581d52a25719345b5659a60001;de;;;7.4.;;;Funktionale Verhaltensbewertung mit dem LERS Data Mining System – Strategien zum Verständnis komplexer physiologischer und Verhaltensmuster Pattern Viele Menschen mit geistiger Behinderung, Autismus und anderen damit verbundenen Behinderungen führen ein Leben, das aufgrund problematischer Verhaltensweisen wie Selbstverletzung und Aggression erheblich eingeschränkt ist. Wir verarbeiteten zwei Datensätze, von denen einer die Herzfrequenzmuster und der andere die Verhaltensereignisse einer Person mit schwerer geistiger Behinderung, Sehbehinderung und schwerwiegendem Problemverhalten beschreibt. Aus diesen Datensätzen leitete das Data-Mining-System LERS bestimmte und mögliche Regelwerke ab. In unserer Forschung wurden diese Regelwerke erfolgreich zur Interpretation verwendet, genauer gesagt, um Mechanismen zur Auslösung spezifischer physiologischer und Verhaltensmuster zu entdecken.;-;-;-;https://link.springer.com/article/10.1023/A%3A1024762516786 458bea426c9d7e39f98c3a4290fb36b7;de;;;7.4.;;;Die funktionelle Neuroanatomie der Gesichtsverarbeitung: Erkenntnisse aus Neuroimaging und Implikationen für Deep Learning Die Gesichtswahrnehmung ist entscheidend für das normale soziale Funktionieren und wird durch ein kortikales Netzwerk von Regionen im ventralen Sehstrom vermittelt. Für die Entwicklung künstlicher Systeme mit menschlichen Fähigkeiten ist eine vergleichende Analyse zwischen gegenwärtigen tiefen neuronalen Netzwerkarchitekturen für Biometrie und neuronalen Architekturen im menschlichen Gehirn erforderlich. Die Neuroimaging-Forschung hat unser Verständnis der funktionellen Architektur des menschlichen ventralen Gesichtsnetzwerks verbessert. Hier beschreiben wir die jüngsten Erkenntnisse der Neuroimaging in drei Bereichen: (1) die makro- und mikroskopischen anatomischen Merkmale des ventralen Gesichtsnetzwerks im menschlichen Gehirn, (2) die Eigenschaften der Verbindungen der weißen Substanz und (3) die grundlegenden Berechnungen von Bevölkerungsaufnahmefelder innerhalb gesichtsselektiver Regionen, die dieses Netzwerk bilden. Anschließend betrachten wir, wie empirische Erkenntnisse die Entwicklung genauer rechnergestützter tiefer neuronaler Netze für die Gesichtserkennung unterstützen und die rechnerischen Vorteile spezifischer neuronaler Implementierungsfunktionen beleuchten können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-61657-5_1 4c200662765700b5be9e55e043ecd40e;de;;;7.4.;;;CNN-basierte Bildwiederherstellung Diese Arbeit schlägt ein künstliches neuronales Netzmodell vor, um Bilder wiederherzustellen, die zum Zeitpunkt der Aufnahme durch unzureichende Sensorbelichtung, Sättigung und Unterbelichtung beschädigt wurden. Das Problem ist bei Computer- und Robotik-Vision-Anwendungen von erheblicher Bedeutung, insbesondere beim Erhalten von Bildern von Szenen mit nicht-Lambertschen Oberflächen sowie von natürlichen Bildern, bei denen die Sensorbegrenzung oder optische Anordnung verhindert, dass die Szenendetails im aufgenommenen Bild angemessen dargestellt werden. Wir haben uns entschieden, eine Alternative basierend auf tiefen neuronalen Netzen zu modellieren, was angesichts der Variabilität der Ausrüstung und der Fotografietechniken sowie mehrerer unkontrollierter Variablen, die den Prozess beeinflussen, angemessen ist. Bei einem gegebenen Satz synthetischer und reeller Bildpaare kann die Darstellungsstruktur zu einem robusten Bildverbesserungsmodell konvergieren. Der Vorschlag berücksichtigt die jüngsten Fortschritte von Faltungsnetzwerken zu Themen wie semantische Segmentierung und Klassifikation in Bildern. Die Entwicklung und Bewertung der Forschungsergebnisse erfolgt primär quantitativ, gegebenenfalls durch qualitative Analysen. Ergebnisse, die anhand verschiedener Indikatoren für die Bildqualität gemessen wurden, zeigen, dass das vorgeschlagene neuronale Netzmodell Bilder mit einem Schaden von 3 . verbessern kann;-;-;-;https://link.springer.com/article/10.1007/s10846-019-01124-9 7a06cbb60024f0bd35e611f23c253f87;de;;;7.4.;;;Jüngste Fortschritte im Bereich Social Multimedia Big Data Mining und Anwendungen In den letzten zehn Jahren haben soziale Medien maßgeblich zum Aufkommen des Big-Data-Zeitalters beigetragen. Big Data hat nicht nur neue Lösungen für Social Media Mining und Anwendungen bereitgestellt, sondern auch einen Paradigmenwechsel in vielen Bereichen der Datenanalyse bewirkt. Diese Sonderausgabe wirbt für die jüngsten diesbezüglichen Versuche in der Multimedia-Gemeinde. Wir glauben, dass die beiliegenden Beiträge in dieser Sonderausgabe eine einzigartige Gelegenheit für multidisziplinäre Arbeiten bieten, die sowohl die sozialen Medien als auch Big-Data-Kontexte mit Multimedia-Computing verbinden.;-;-;-;https://link.springer.com/article/10.1007/s00530-015-0482-5 633f2fe483746d15ee3c768f86ca7afc;de;;;7.4.;;;MvInf: Vorhersage des sozialen Einflusses mit Multi-View-Graph-Aufmerksamkeitslernen Die potenziellen Auswirkungen der Vorhersage des sozialen Einflusses sind im aktuellen Bereich des Graph-Data-Mining zu einem heißen Thema geworden. Dieses Papier schlägt ein Deep-Learning-Framework namens Multi-View Influence Prediction Network (MvInf) vor, das Multi-View-Learning und neuronales Graphen-Aufmerksamkeitsnetzwerk kombiniert, um das Problem der Vorhersage von sozialem Einfluss anzugehen. MvInf verwendet verschiedene Attributmerkmale von Benutzern als Eingabe des Graph-Aufmerksamkeitsnetzwerks und nutzt die Komplementarität und Konsistenz zwischen verschiedenen Ansichten, um die Lernleistung zu verbessern und somit das Benutzerverhalten besser vorherzusagen. Experimente, die an vier Standard-Datensätzen (Open Academic Graph, Twitter, Weibo und Digg) durchgeführt wurden, zeigen, dass das vorgeschlagene MvInf-Modell eine bessere Leistung als der bisherige auf Einzelansichten basierende Ansatz erzielen kann.;-;-;-;https://link.springer.com/article/10.1007/s12559-021-09822-z 5235b817fb5304eda174817015c8b316;de;;;7.4.;;;Entwerfen von erklärbaren Textklassifizierungspipelines: Erkenntnisse aus der Fallstudie zur Vorhersage der IT-Ticketkomplexität Heutzutage müssen Unternehmen mit einer ständig wachsenden Menge an Textdaten umgehen, die intern von ihren Mitarbeitern und extern von aktuellen oder potenziellen Kunden generiert werden. Dementsprechend verlagert sich die Aufmerksamkeit der Manager auf eine effiziente Nutzung dieser Daten, um damit verbundene geschäftliche Herausforderungen zu bewältigen. Es ist jedoch in der Regel schwierig, die Bedeutung aus unstrukturierten Textdaten automatisch zu extrahieren. Zur Gestaltung von Textklassifikationsaufgaben, insbesondere zur Wahl von Textdarstellungstechniken und Klassifikationsalgorithmen, gibt es zahlreiche Diskussionen und keine allgemeine Meinung in der Forschung und in der Praxis. Ein wesentlicher Punkt in dieser Diskussion ist es, Lösungen zu entwickeln, die sowohl genau als auch für den Menschen verständlich sind. Die Bewertung der Klassifizierungsentscheidung ist ein kritischer Erfolgsfaktor für eine Textklassifizierungsaufgabe in einem Unternehmen, sei es juristische Dokumente, Krankenakten oder IT-Tickets. Daher zielt unsere Studie darauf ab, die zentralen Designelemente einer typischen Textklassifikationspipeline und ihren Beitrag zur Gesamtleistung des Systems zu untersuchen. Insbesondere betrachten wir Textdarstellungstechniken und Klassifikationsalgorithmen im Zusammenhang mit ihrer Erklärbarkeit, die ultimative Erkenntnisse aus unserer Fallstudie zur Vorhersage der Komplexität von IT-Tickets liefern. Wir vergleichen die Leistung einer hochgradig erklärbaren Textdarstellungstechnik basierend auf der Fallstudie maßgeschneiderter linguistischer Merkmale mit einem gemeinsamen TF-IDF-Ansatz. Wir wenden interpretierbare maschinelle Lernalgorithmen wie kNN, seine erweiterten Versionen, Entscheidungsbäume, naive Bayes, logistische Regression sowie halbüberwachte Techniken an, um das Ticketklassenlabel niedriger, mittlerer oder hoher Komplexität vorherzusagen. Wie unsere Studie zeigt, zeigen einfache, erklärbare Algorithmen wie Entscheidungsbäume und naive Bayes bemerkenswerte Leistungsergebnisse, wenn sie mit unserer auf linguistischen Merkmalen basierenden Textdarstellung angewendet werden. Darüber hinaus stellen wir fest, dass die Textklassifizierung von Natur aus mit Granular Computing zusammenhängt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-64949-4_10 0a418d7c2a3947126496080657cd3095;de;;;7.4.;;;Diabetes-Vorhersage mit maschinellem Lernen Diabetes ist wahrscheinlich die tödlichste Krankheit auf dem Planeten. Es ist nicht nur eine Krankheit, sondern trägt auch zu x-ten Arten von Krankheiten wie Sehbehinderung, Nierenversagen und koronaren Episoden bei. Die schwierigste Aufgabe für einen Arzt ist die frühzeitige Vorhersage von Diabetes bei einem Patienten, unabhängig davon, ob der Patient Diabetiker ist oder nicht. Darüber hinaus führt die frühzeitige Antizipation der Krankheit dazu, dass die Patienten behandelt werden, bevor sie fortschreitet und ernst wird. Ziel dieser Arbeit war es, ein Expertensystem vorzuschlagen, das mit hoher Genauigkeit vorhersagen kann, ob der Patient Diabetes hat oder nicht. Data Mining kann versteckte Informationen aus dem riesigen Meer an verfügbaren Diabetes-Informationen trennen und bietet daher eine große Hilfe bei der Diabetes-Untersuchung. Der Sinn dieses Unterfangens bestand darin, einen Rahmen aufzubauen, der das Diabetes-Risikoniveau eines Patienten mit höherer Präzision durch strategische Rückfälle vorhersehen kann. Das mit künstlichen neuronalen Netzen entwickelte Modell besteht aus insgesamt sechs dichten Schichten. Jede dieser Schichten ist für die effiziente Arbeit des Modells verantwortlich. Das Modell macht die Vorhersage mit einer Genauigkeit von 77 %, was ziemlich gut und zuverlässig ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6081-5_34 9dd88ff3f9a7fe2514d9b2e4b695a845;de;;;7.4.;;;Kurzfristige Stromlastprognosen durch maschinelles Lernen Im Wesentlichen ist die Stromlastprognose eine Annäherung an bevorstehende aktive Lasten von einer Vielzahl von Lastbussen, bevor die aktiven Lasten auftreten. Außerdem ist es ein wichtiger Faktor für das Energiemanagement des Stromsystems. Eine genaue und präzise Lastvorhersage kann dazu beitragen, die Kapazität des Stromsystems zu reduzieren, Entscheidungen zu Einheitenzuweisungen zu treffen und die Zuverlässigkeit von Stromsystemen zu erhöhen. Daher präsentiert dieses Papier einen generalisierten Regression Neural Network (GRNN)-basierten Ansatz für die kurzfristige Lastprognose (STLF). Die Ergebnisse zeigten, dass die Leistung von GRNN mit 30 Neuronen im Vergleich zu 10 Neuronen bei der kurzfristigen Lastvorhersage besser ist. Für 10 Neuronen betrug der mittlere absolute prozentuale Fehler (MAPE) 2,10 % und der mittlere absolute Fehler (MAE) 306,21 MWh. Für 30 Neuronen wurde jedoch beobachtet, dass MAPE 1,81% und MAE 268,48 MWh beträgt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-44289-7_40 b3e0e173c3df9d4091c96d9c936f258e;de;;;7.4.;;;Ein neuartiges Kurztext-Clustering-Modell basierend auf der Gray-System-Theorie Das Kurztext-Clustering stellt aus strukturellen Gründen große Herausforderungen, insbesondere wenn es auf kleine Datensätze angewendet wird. Eine begrenzte Anzahl von Wörtern führt zu einem Merkmalsvektor von schlechter Qualität, einer geringen Clustering-Genauigkeit und einem Analysefehler. Obwohl in der einschlägigen Literatur einige Ansätze beobachtet wurden, besteht noch keine Einigkeit über eine effiziente Lösung. Andererseits wurde die Theorie des Gray-Systems, die bei numerischen Analysen mit unzureichenden Daten bessere Ergebnisse liefert, noch nicht auf das Clustering von Kurztexten angewendet. Der Zweck unserer Studie ist die Entwicklung eines Kurztext-Clustering-Modells basierend auf der Gray-Systemtheorie, das auf kleine Datensätze anwendbar ist. Um die Effizienz unserer Methode zu messen, wurden als negativ oder positiv gekennzeichnete Buchrezensionen aus Amazon.com-Datensatzsammlungen abgerufen und kleine Datensätze erstellt. Das Gray-relationale Clustering sowie hierarchische und partitionale Algorithmen wurden separat auf die kleinen Datensätze angewendet. Den Ergebnissen zufolge hat unser Modell bessere Genauigkeitswerte als die anderen Algorithmen beim Clustering von kleinen Datensätzen mit kurzem Text. Folglich haben wir gezeigt, dass das relationale Gray-Clustering auf das Kurztext-Clustering angewendet werden sollte, um viel bessere Ergebnisse zu erzielen.;-;-;-;https://link.springer.com/article/10.1007/s13369-019-04191-0 7e47015809c833b938ff3b876f6c1f47;de;;;7.4.;;;Vorhersage des Wasserverbrauchs mit maschinellem Lernalgorithmus Machine Learning wurde erfolgreich in realen Problemen implementiert, seine Verwendung in realen Problemen besteht darin, wertvolles und neues Wissen aus den gegebenen Daten zu extrahieren und zu identifizieren. In dieser Arbeit wird ein Modell entwickelt, das den Wasserverbrauch einer Person jährlich vorhersagen kann. Heutzutage ist Wasserknappheit ein großes Problem in Metropolen, daher besteht das Hauptziel darin, den Wasserverbrauch für die kommenden Jahre vorherzusagen. Die Vorhersage des Wasserverbrauchs pro Jahr ist entscheidend für die Erhaltung des Wassers für zukünftige Generationen. In diesem Zusammenhang werden regelmäßig wichtige Daten und Informationen gesammelt und zur Aufrechterhaltung der Qualitätsvorgaben bei entsprechenden Behörden und Standards berücksichtigt. Wir erheben die Daten des Wasserverbrauchs einer Person in den letzten Jahren, integrieren die Daten und nutzen sie. Die Befriedigung der Analyse des Wasserverbrauchs wird durch die Umwandlung dieser Daten in Wissen erreicht. Die überwachten Algorithmen werden verwendet, um die verbrauchte Wassermenge vorherzusagen und basierend auf ihrer Genauigkeit vorhergesagter, benutzerfreundlicher Eigenschaften und leichter Erlernbarkeit wurde die Leistung der Lernmethoden bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7961-5_84 61be042aa54f15fbca995e3b0837a360;de;;;7.4.;;;Funktionen zum Erlernen lokaler Muster in zeitgestempelten Daten Zeitgestempelte Daten treten häufig in realen Datenbanken auf. Das Ziel der Analyse von zeitgestempelten Daten ist sehr oft, eine kleine Gruppe von Objekten (Kunden, Maschinenteile,...) zu finden, die für das jeweilige Geschäft wichtig sind. Im Gegensatz dazu gehorchen die meisten Objekte bekannten Regeln und sind für die Analyse nicht von Interesse. In Bezug auf eine Klassifikationsaufgabe bedeutet die Kleingruppe, dass es sehr wenige positive Beispiele gibt und innerhalb dieser eine Art Struktur besteht, die die Kleingruppe deutlich von der Mehrheit unterscheidet. Wir können eine solche Lernaufgabe das Lernen eines lokalen Musters betrachten.;-;-;-;https://link.springer.com/chapter/10.1007/11504245_7 72e4495c414433cf72dd8efc492aff81;de;;;7.4.;;;Harte Beispiele Mining für gegnerische Angriffe Dieses Whitepaper konzentriert sich auf feindliche Angriffe und die Sicherheit von Machine Learning- und Deep-Learning-Modellen. Wir wenden verschiedene Methoden der Störung auf Bilder in ImageNet an und erfassen die Erfolgsrate von Beispielen, die erfolgreich angegriffen und falsch erkannt wurden, und schließen dann eine Grafik, um den Zusammenhang zwischen der Intensität des Angriffs und der Genauigkeit der Erkennung zu beschreiben. Dann finden wir den Grund von schwer angreifbaren Beispielen heraus, der durch Modelle oder durch Beispiele selbst bestimmt wird. Außerdem analysieren wir die Bilder, die extrem defensiv gegen die Angriffe sind und finden einige visuelle Charaktere, die sie unterstützen, stark zu bleiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8411-4_112 e152da567768941255861a814d58e024;de;;;7.4.;;;Diagnose von Brusttumoren und Bewertung des prognostischen Risikos durch den Einsatz von Machine-Learning-Ansätzen Machine-Learning-Ansätze wurden für die Diagnose von malignen Brusttumoren und die Bewertung des prognostischen Risikos von Rekrudeszenzen und Metastasen unter Verwendung von Alter und zehn zellulären Attributen von Fine Needle Aspirate of Breast (FNAB) bzw. Gen-Microarray-Daten der Brustkrebspatientin verwendet. Die Feature-Ranking-Methode wurde eingeführt, um die herausragenden Elemente für die Krebserkennung zu untersuchen und gleichzeitig die Klassifizierungsgenauigkeit zu verbessern. In diesem Beitrag wurden Support Vector Machine (SVM), K-Nearest Neighbor (K-NN) und Probabilistic Neural Network (PNN) in Kombination mit dem Signal-Rausch-Verhältnis (SNR) für Feature-Ranking und Filterung angewendet, um zwischen den gutartigen und bösartige Tumoren der Brust und bewerten das prognostische Risiko von Rezidiven und Metastasen. Die Ergebnisse zeigen, dass die Feature-Ranking-Methode SNR die informativen und wichtigen Merkmale, die für die klinische Assistentendiagnostik von Bedeutung waren und zur Verbesserung der Bewertungsleistung nützlich sind, effektiv herausfiltern kann. Die beste Gesamtgenauigkeit für die Brustkrebsdiagnose und die Bewertung des prognostischen Risikos für Rekrudeszenzen und Metastasen erreichte 96,24 % bzw. 88,81 %, wenn SVM-Sigmoid und SVM-RBF kombiniert mit SNR unter 5-facher Kreuzvalidierung verwendet wurden. Diese Studie legt nahe, dass SVM weiterentwickelt werden könnte, um eine praktische Methode für klinische Assistenten zu sein, die zwischen gutartigen und bösartigen Tumoren unterscheidet und unerfahrenen Ärzten helfen kann, Fehldiagnosen zu vermeiden. Es hat auch Vorteile für die geheilten Patientinnen, denen vorhergesagt wird, dass Rezidive und Metastasen ihren Krankheiten mehr Aufmerksamkeit schenken und dann die Sterblichkeitsrate von Brustkrebs senken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74282-1_141 36335578ec6942a4745c9390e23d332a;de;;;7.4.;;;Ein Überblick über künstlich-intelligente Anwendungen im Finanzbereich Eines der Hauptprobleme im Finanzbereich sind die unsicheren und nichtlinearen Datenänderungen im Zeitverlauf. Solche zeitabhängigen Unsicherheiten müssen dringend angegangen werden. Herkömmliche Modelle haben Schwierigkeiten, diese Probleme zu lösen. Zeitgenössische Modelle, die Techniken der künstlichen Intelligenz verwenden, haben sich als bessere Lösung erwiesen. Techniken der künstlichen Intelligenz wie künstliche neuronale Netze (KNN), Expertensysteme (ES) und hybride Intelligenzsysteme (HIS) werden auf viele Aspekte des Finanzbereichs angewendet, einschließlich Portfoliomanagement, Betrugserkennung, Insolvenz, Bestandsmanagement und Risikomanagement.;-;-;-;https://link.springer.com/chapter/10.1057/978-1-137-48880-0_1 7122f8277b7c06165520cd780cfe5330;de;;;7.4.;;;Prototypbasierte Schwellenwertregeln Das Verstehen von Daten erfolgt normalerweise durch das Extrahieren von unscharfen oder klaren logischen Regeln unter Verwendung von Neurofuzzy-Systemen, Entscheidungsbäumen und anderen Ansätzen. Eine interessante Alternative sind prototypbasierte Regeln, die in vielen Fällen eine einfachere, genauere und verständlichere Beschreibung der Daten ermöglichen. Es werden Algorithmen zur Generierung von Schwellenwert-Prototyp-basierten Regeln beschrieben und ein Vergleich mit Neurofuzzy-Systemen an einer Reihe von Datensätzen bereitgestellt. Die Ergebnisse zeigen, dass Systeme für das Datenverständnis, die Prototypen generieren, mindestens die gleiche Aufmerksamkeit verdienen wie die Neurofuzzy-Systeme.;-;-;-;https://link.springer.com/chapter/10.1007/11893295_113 35d4d5fc5fb5d0050a68430bccfe0244;de;;;7.4.;;;Verschiedene Ansätze zur Sarkasmus-Erkennung: Eine Umfrage Sarkasmus ist ein unerwünschter Einfluss oder ein sprachlicher Umstand, um theatralische und bittere Meinungen auszudrücken. Bei Sarkasmus kann ein einzelnes Wort in einem Satz die Polarität der positiven oder negativen Aussage vollständig umkehren. Daher entsteht Sarkasmus, wenn ein Ungleichgewicht zwischen Text und Kontext besteht. In diesem Artikel werden verschiedene Ansätze und Datensätze zur Sarkasmus-Erkennung untersucht. Verschiedene untersuchte Ansätze sind statistischer Ansatz, regelbasierter Ansatz, Klassifikationsansatz und Deep-Learning-Ansatz. Es gibt auch Einblick in verschiedene Methoden, die in der Vergangenheit zur Sarkasmus-Erkennung verwendet wurden. Nach einer Umfrage haben wir festgestellt, dass Deep Learning im Vergleich zu anderen Ansätzen ein gutes Ergebnis liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-34080-3_48 91b2612e65c03e0c0811487625a43c87;de;;;7.4.;;;Features zur Erklärung von Unterernährung in Indien: Ein Ansatz des maschinellen Lernens für Daten aus demografischen und Gesundheitsumfragen Indien ist eines der stark unterernährten Länder der Welt. Unterernährung ist die Todesursache bei zwei Dritteln der 1,04 Millionen Todesfälle bei Kindern unter fünf Jahren im Jahr 2019. Die indische Regierung und die Regierungen der Bundesstaaten haben verschiedene Strategien verabschiedet, um die Fälle von Unterernährung zu minimieren. Für eine wirksame Politik ist es jedoch wichtig, die Hauptmerkmale der Unterernährung zu verstehen. Durch die Analyse der Indian Demographic Health Survey Data (IDHS) des Jahres 2015–2016 versucht dieses Papier, die Ursachen für vier Dimensionen der Unterernährung zu identifizieren, nämlich Körpergröße Alter Z-Score (HAZ), Gewichtsalter Z-Score (WAZ), Gewichtsgröße Z-Score (WHZ) und Body-Mass-Index (BMI). Unter Verwendung des maschinellen Lernansatzes der Merkmalsreduktion identifiziert das Papier die zehn wichtigsten Merkmale der verfügbaren 1341 Merkmale in der Datenbank für jeden der vier anthropometrischen Parameter der Mangelernährung. Die Funktionen werden mit dem WEKA-Tool reduziert und gerankt. Die Ergebnisse und Erkenntnisse dieser Forschung würden wichtige politische Inputs liefern, um Unterernährung und die damit verbundene Sterblichkeit bei Kindern unter fünf Jahren zu bekämpfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0401-0_7 1597f14a7a20bea1a532961ed86e2837;de;;;7.4.;;;Ein Frage-Ansatz zur Beantwortung von Fragen question Eine der Herausforderungen beim groß angelegten Information Retrieval (IR) ist die Entwicklung feinkörniger und domänenspezifischer Methoden zur Beantwortung natürlicher Sprachfragen. Trotz der Verfügbarkeit zahlreicher Quellen und Datensätze zum Abrufen von Antworten bleibt Question Answering (QA) aufgrund der Schwierigkeit der Aufgaben zum Verstehen von Fragen und zur Extraktion von Antworten ein herausforderndes Problem. Einer der vielversprechenden Wege, die in der QA untersucht werden, ist die Zuordnung neuer Fragen zu früher beantworteten Fragen, die „ähnlich“ sind.;-;-;-;https://link.springer.com/article/10.1186/s12859-019-3119-4 cf75b2271d9a882f14526d977d63cf86;de;;;7.4.;;;Natural Language Processing beim Mining unstrukturierter Daten aus Software-Repositorys: eine Übersicht Mit der zunehmenden Popularität von Open-Source-Plattformen sind Softwaredaten leicht von verschiedenen Open-Source-Tools wie GitHub, CVS, SVN usw. verfügbar. Mehr als 80 Prozent der darin enthaltenen Daten sind unstrukturiert. Das Mining von Daten aus diesen Repositories hilft Projektmanagern, Entwicklern und Unternehmen, interessante Einblicke zu gewinnen. Die meisten der in diesen Repositorys enthaltenen Software-Artefakte liegen in natürlicher Sprache vor, was die Verarbeitung natürlicher Sprache (NLP) zu einem wichtigen Bestandteil des Minings macht, um nützliche Ergebnisse zu erzielen. Das Papier gibt einen Überblick über die Anwendung von NLP-Techniken im Bereich der Mining Software Repositories (MSR). Der Artikel konzentriert sich hauptsächlich auf Sentiment-Analyse, Zusammenfassung, Rückverfolgbarkeit, Norm-Mining und Mobile Analytics. Der Artikel stellt die wichtigsten NLP-Arbeiten in diesem Bereich vor, indem er die Forschungsarbeiten von 2000 bis 2018 untersucht. Der Artikel beschreibt zunächst die wichtigsten Artefakte in den Software-Repositorys, in denen die NLP-Techniken angewendet wurden. Als Nächstes stellt das Papier einige beliebte Open-Source-NLP-Tools vor, die verwendet wurden, um NLP-Aufgaben auszuführen. Später diskutiert das Papier kurz den Forschungsstand von NLP im MSR-Bereich. Das Papier listet auch die verschiedenen Herausforderungen auf, sowie Hinweise für die zukünftige Arbeit in diesem Forschungsfeld und schließlich das Fazit.;-;-;-;https://link.springer.com/article/10.1007/s12046-019-1223-9 7867c83e9f804551cf2c6c96e07186df;de;;;7.4.;;;Verteilte Optimierung über General Directed Networks mit Random Sleep Scheme Die verteilte Optimierung zielt darauf ab, eine globale Zielfunktion zu optimieren, die durch eine Summe lokaler Zielfunktionen durch lokale Informationsverarbeitung und gemeinsame Nutzung beschrieben wird. Dieser Artikel untersucht das Problem der verteilten Optimierung über ein Netzwerk, in dem der zugrunde liegende Graph im Allgemeinen stark verbunden gerichtet ist. Die meisten existierenden verteilten Algorithmen erfordern, dass jeder Agent den Gradienten der lokalen Zielfunktion pro Iteration beobachtet, was zu hohen Rechenkosten führt. Ein recheneffizienter verteilter Optimierungsalgorithmus, der ein Zufallsschlafschema enthält, wird vorgeschlagen, indem eine Neuskalierungsgradiententechnik eingebaut wird, um die Unausgeglichenheit des gerichteten Graphen anzugehen. Die Implementierung des vorgeschlagenen Algorithmus ermöglicht es Agenten, die Gewichte der empfangenen Informationen nicht nur lokal zuzuweisen, sondern auch unabhängig zu entscheiden, ob eine Gradientenbeobachtung bei jeder Iteration ausgeführt wird. Die theoretische Analyse verifiziert, dass der vorgeschlagene Algorithmus in der Lage ist, die optimale Lösung mit Wahrscheinlichkeit eins zu finden. Simulationen werden gezeigt, um die Wirksamkeit des vorgeschlagenen Algorithmus zu demonstrieren, die Richtigkeit der theoretischen Analyse zu zeigen und die Kompromisse zwischen Konvergenzleistung und Berechnungskosten zu untersuchen.;-;-;-;https://link.springer.com/article/10.1007/s12555-018-9543-9 29671d650b39aface9c1862066fd201d;de;;;7.4.;;;Eine robuste Segmentierungsmethode basierend auf verbessertem U-Net Das genaue Ablesen von Wirbelsäulen-CT-Bildern ist in der Klinik sehr wichtig, kostet jedoch normalerweise einige Minuten und hängt stark von den individuellen Erfahrungen des Arztes ab. In diesem Artikel konstruieren wir ein Schema für die Segmentierung von Wirbelsäulenfrakturläsionen basierend auf dem U-Net, indem wir das Aufmerksamkeitsmodul einführen, das dilatierte Faltung und U-Net kombiniert, um eine genaue Läsionssegmentierung zu erhalten. Zuerst präsentieren wir vier Netzwerkschemata, um im selben Datensatz zu konkurrieren, und erhalten dann das beste, DU-net (dilatated convolution), das die ursprüngliche Faltungsschicht durch eine erweiterte Faltung sowohl im Kontraktionspfad als auch im Expansionspfad des U-Netzes ersetzt Aufnahmefeld für weitere Informationen zu Läsionen. Zweitens führen wir das Aufmerksamkeitsmodul in DU-net für eine genaue Läsionssegmentierung ein, indem wir uns auf bestimmte Regionen konzentrieren, um die Läsionserkennung des Trainingsmodells zu verbessern. Schließlich erhalten wir Vorhersageergebnisse durch ein trainiertes Modell der Läsionssegmentierung beim Testdatentest. Die experimentellen Ergebnisse zeigen, dass unser vorgestelltes Netzwerk eine bessere Leistung bei der Segmentierung von Läsionen aufweist als U-net, was Zeit sparen und das klinische Leiden der Patienten reduzieren kann.;-;-;-;https://link.springer.com/article/10.1007/s11063-021-10531-9 a91d9e97a99e5283eff980d0e2e71bdf;de;;;7.4.;;;Klassifizierung und Clustering emotionaler Microblogs auf Albanisch: Zwei nutzerorientierte Aufgaben Die Analyse menschlicher Emotionen hat kontinuierlich Studien in verschiedenen Disziplinen angeregt und stößt auch bei Informatikern auf Interesse. Insbesondere die wachsende Popularität von Microblogging-Plattformen hat große Datenmengen erzeugt, die wiederum eine attraktive Quelle für die Untersuchung von Social-Media-Nutzern darstellen, insbesondere in der nutzergenerierten Inhaltsanalyse wie Meinungsforschung und Stimmungsanalyse. In diesem Beitrag schlagen wir vor, Microblogging-Inhalte zu analysieren, um die Nutzer beim Schreiben von Beiträgen mit emotionalem Inhalt individuell zu charakterisieren. Die Analyse ist zweifach und betrachtet den emotionalen Inhalt auf verschiedenen Granularitätsebenen, eine bezieht sich auf die Texteinheiten und ermöglicht es uns, den vom Benutzer ausgedrückten emotionalen Zustand zu erfassen, die andere bezieht sich auf die Sammlungen von Texteinheiten und ermöglicht eine Zusammenfassung das vom Benutzer verwendete Lexikon. Im ersten Fall konzentrieren wir uns insbesondere auf ein satzbasiertes Emotionserkennungsproblem, das darauf abzielt, die Texteinheiten in eine Reihe vordefinierter Emotionskategorien zu klassifizieren. Die zweite Analyse wird durch einen Schlüsselwortextraktionsansatz durchgeführt, der darauf abzielt, repräsentative generische Wortmengen in Form von Prototypen von Texteinheitsclustern zu finden. Umfangreiche Experimente, die unter verschiedenen Perspektiven durchgeführt wurden, aber immer auf den Benutzer ausgerichtet waren, zeigen interessante Erkenntnisse in Bezug auf Klassifikationsgenauigkeit, Clustering von Inkohärenz vs. Klassifikationsperspektiven und wertvolle Bemühungen beim User Emotion Profiling.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36617-9_10 850612c888b6aa67003379557d8c95b6;de;;;7.4.;;;Brustkrebsfrüherkennung mittels Hybrid aus Seriennetzwerk und VGG-16 Brustkrebs wird heutzutage zu einem ernsthaften Problem und ist eine der Hauptursachen für den Tod von Frauen auf der ganzen Welt. Daher werden verschiedene Geräte verwendet, um Brustkrebs in einem früheren Stadium zu erkennen, und eine Diagnose in einem früheren Stadium könnte sogar zu einer vollständigen Heilung der Krankheit führen. Unter der breiten Palette an verfügbaren Geräten ist die Mammographie einer der am häufigsten verwendeten und effektivsten Ansätze zur Erkennung von Brustkrebs. Es zeichnet den betroffenen Bereich in Form von Mammogramm-Bildern auf und diese Bilder werden durch Bildverarbeitungstechniken zur Erkennung von krebsbefallenen Regionen verarbeitet. In diesem Papier wurden Neuerungen in allen Aspekten der Bildverarbeitung wie Filterung, Segmentierung, Merkmalsextraktion und Klassifizierung gegeben. Die Salz- und Pfeffergeräusche in den Mammogrammbildern werden durch die Verwendung eines neuartigen entscheidungsbasierten partiellen Medianfilters eliminiert. Dann werden die gefilterten Bilder basierend auf einer neuartigen Technik segmentiert, die auf der Integration der Deep-Learning-Techniken von VGG-16 und Seriennetzwerken gebildet wird. Merkmale der segmentierten Bilder wurden durch BAT-SURF-Merkmalsextraktion extrahiert, wobei die Orientierung der interessierenden Punkte unter Verwendung des Bat-Optimierungsalgorithmus zusammen mit SURF (d. h. beschleunigten robusten Merkmalen) extrahiert wird. Es extrahiert die wichtigsten Schlüsselpunkte aus SURF-Features und dann wird das extrahierte Bild mit dem neuartigen Gradientenabstiegs-Entscheidungsbaum-Klassifizierer klassifiziert, bei dem ein stabiler Lernpfad für eine einfache Konvergenz sorgt. Dann wurde die Leistung des vorgeschlagenen Systems basierend auf den Leistungsmetriken wie Genauigkeit, Spezifität, Sensitivität, Erinnerung, Präzision, Jaccard-Koeffizient, F-Score und verpasste Klassifizierung analysiert. Basierend auf den erhaltenen Ergebnissen hat der Abschluss der vorgeschlagenen Arbeit verbesserte Ergebnisse im Vergleich zu anderen Ansätzen des Standes der Technik erzielt. Der Genauigkeitswert der vorgeschlagenen hybriden VGG-16- und seriellen Netzwerksegmentierungstechnik wurde zu 96,45 bestimmt und in ähnlicher Weise hat der Genauigkeitswert der vorgeschlagenen Gradientenabstiegs-Entscheidungsbaumklassifizierungstechnik einen Wert von 95,15.;-;-;-;https://link.springer.com/article/10.1007/s11042-020-09914-2 0b8c2f3693f323ee843a55c9c30bf6bd;de;;;7.4.;;;Data Mining Lernen von Verhaltensmustern von Internetnutzerschülern Diese Studie konzentriert sich auf die Internetnutzung der Schüler in ihrem persönlichen Leben. Verschiedene Aspekte wurden mit Hilfe der Data-Mining-Technik angenommen und versucht, einige versteckte Ergebnisse des Internetverhaltens der Schüler zu erhalten. Der besondere Fokus liegt darauf, die Bedeutung anhand der geschlechts-, standort- und einkommensgruppenbezogenen Perspektive zu testen, um Verhaltensmuster zu diskriminieren. Hier wird eine Online-Umfrage durchgeführt und 217 Studenteninformationen gesammelt. Die Zufallsstichprobe wird zum Sammeln von Daten durchgeführt. Die unüberwachte und überwachte Lernanalyse wurde mit dem Softwarepaket SPSS 22.0v durchgeführt. Das erhaltene Ergebnis hilft bei der zukünftigen Planung der Richtung einer angemessenen Nutzung des Internets durch die Studierenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9187-3_48 813af5b241b99e897cdf20409b302197;de;;;7.4.;;;Differenzielle Evolution mit mehreren Zielen von sich entwickelnden neuronalen Spiking-Netzen für Klassifikationsprobleme Spiking Neural Network (SNN) spielt eine wesentliche Rolle bei Klassifikationsproblemen. Obwohl es viele SNN-Modelle gibt, wird das Evolving Spiking Neural Network (ESNN) in vielen neueren Forschungsarbeiten häufig verwendet. Evolutionäre Algorithmen, hauptsächlich differenzielle Evolution (DE), wurden verwendet, um den ESNN-Algorithmus zu verbessern. Viele Optimierungsprobleme in der realen Welt beinhalten jedoch mehrere widersprüchliche Ziele. Anstelle einer einzelnen Optimierung kann die Multi-Objective-Optimierung (MOO) als eine Reihe optimaler Lösungen zur Lösung dieser Probleme verwendet werden. In diesem Artikel wird MOO in einem hybriden Lernen von ESNN verwendet, um gleichzeitig die optimalen präsynaptischen Neuronen (Netzwerkstruktur) und die Genauigkeitsleistung für Klassifikationsprobleme zu bestimmen. Zur Bewertung der Leistung dieses multiobjektiven Hybridmodells werden Standarddatensätze des UCI Machine Learning verwendet. Die experimentellen Ergebnisse haben bewiesen, dass der multiobjektive Hybrid aus Differential Evolution mit Evolving Spiking Neural Network (MODE-ESNN) bessere Ergebnisse in Bezug auf Genauigkeit und Netzwerkstruktur liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23868-5_25 9c28c28c2dfc6be6e46936c84fe66e3b;de;;;7.4.;;;Semantisch bestätigende neuronale Aufmerksamkeit für die Beantwortung biomedizinischer Fragen Die Beantwortung biomedizinischer Fragen stellt im NLP aufgrund des komplexen wissenschaftlichen Vokabulars und des Fehlens massiver annotierter Korpora eine große Herausforderung dar, birgt aber gleichzeitig Potenzial zur kritischen Optimierung der biomedizinischen Praxis. Dieses Papier beschreibt die im Rahmen der BioASQ-Herausforderung (Aufgabe-7B Phase-B) durchgeführten Arbeiten und zielt auf einen integralen Schritt im Frageantwortprozess ab: die extraktive Antwortauswahl. Dabei geht es um die Identifizierung der genauen Antwort (Wörter, Phrasen oder Sätze) aus gegebenen Artikelschnipseln, die sich auf die vorliegende Frage beziehen. Wir adressieren dieses Problem im Kontext von faktoiden und zusammenfassenden Fragetypen, indem wir eine Vielzahl von Deep-Learning- und semantischen Methoden verwenden, einschließlich verschiedener Architekturen (z Beweis. Oben im Modul zur Auswahl von Kandidatenantworten wird auch die Antwortvorhersage auf Ja/Nein-Fragetypen durch die Einbeziehung eines Sentimentanalyseansatzes behandelt. Die Auswertung in Bezug auf Rouge-, MRR- und F1-Werte in Bezug auf die Art der betrachteten Frageantwortaufgabe zeigt das Potenzial dieser hybriden Methode, die richtige Antwort auf eine Frage zu extrahieren. Darüber hinaus kann das vorgeschlagene bestätigende Semantikmodul über die typische QS-Pipeline hinzugefügt werden, um eine gemessene Verbesserung von 5 % bei der Identifizierung der genauen Antwort in Bezug auf den Goldstandard zu erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-43887-6_60 ba009e6d1534163ee0ef0602d7f2a09c;de;;;7.4.;;;Datenanalyse und Anwendungsherausforderungen im Kinderbekleidungsmarkt – Eine Fallstudie in Griechenland Die Integration von Technologielösungen wie PLM, 3D-Prototyping, Digitaldruck, automatischem Schneiden, AR & VR in den Modeproduktentwicklungsprozess kann zu einer kontinuierlichen Verbesserung im täglichen Geschäft führen und Modeunternehmen befähigen, die Herausforderungen und Chancen der Industrie 4.0 zu meistern. Die Nutzung leistungsstarker Fähigkeiten der künstlichen Intelligenz, die die Entdeckung von Modeproduktdesigns der nächsten Generation - an Popularität - leiten, kann die Innovation und die Erforschung konzeptioneller Designs für Bekleidungsunternehmen verbessern. Diese Studie konzentriert sich auf den Markt der Kinderbekleidung, der am schnellsten wächst und einer der lukrativsten Märkte in der Bekleidungsindustrie ist, ein Wachstum, das sowohl die Herren- als auch die Damenbekleidung überholt hatte. Gleichzeitig sind die Verbraucher von Kinderbekleidungsprodukten modebewusst und verlangen nach modischerer Designerkleidung. Die Vorhersage des am besten ansprechenden und verkaufsstarken Produkts mag die jüngste Nachfrage nach dem Einsatz von KI-Tools in der Designgenerierungsphase oder im Entscheidungsprozess sein, aber vor allem Komfort, Spielbarkeit, Ruhe und Sicherheit sind Anforderungen, die Kinderbekleidung erfüllen muss. Dieses Papier zielt darauf ab, die Herausforderungen zu identifizieren, denen KI-Technologieanwendungen in Bezug auf Kinderbekleidung aufgrund von Sicherheitsbeschränkungen und -standards ausgesetzt sind, unter Berücksichtigung eines griechischen Herstellers und Einzelhändlers für Kinderbekleidung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-62807-9_51 2ce73d81eb92764757928dde55618f1f;de;;;7.4.;;;Diskriminative vs. generative Klassifikatoren für kostensensitives Lernen Dieses Papier vergleicht experimentell die Leistung von diskriminativen und generativen Klassifikatoren für kostensensitives Lernen. Es gibt einige Hinweise darauf, dass das Erlernen eines diskriminativen Klassifikators für eine traditionelle Klassifikationsaufgabe effektiver ist. In diesem Papier werden die Vor- und Nachteile der Verwendung eines generativen Klassifikators untersucht, wenn die Kosten für die Fehlklassifizierung und die Klassenhäufigkeit nicht festgelegt sind. Der Artikel beschreibt Experimente, die auf häufig verwendeten Algorithmen basieren, die so modifiziert wurden, dass sie kostensensibel sind. Dies ermöglicht einen klaren Vergleich mit demselben Algorithmus, der verwendet wird, um einen diskriminativen Klassifikator zu erzeugen. Das Papier vergleicht die Leistung dieser verschiedenen Varianten über mehrere Datensätze und für den gesamten Bereich der Fehlklassifizierungskosten und Klassenhäufigkeiten. Es kommt zu dem Schluss, dass, obwohl einige dieser Varianten besser sind als ein einzelner diskriminativer Klassifikator, die richtige Wahl der Trainingssatzverteilung sowie eine sorgfältige Kalibrierung erforderlich sind, um sie mit mehreren diskriminativen Klassifikatoren wettbewerbsfähig zu machen.;-;-;-;https://link.springer.com/chapter/10.1007/11766247_41 08cfde0df8f5ec471d2a27dcaebe8ec1;de;;;7.4.;;;Messung der Wirksamkeit von Kommentaren zur Softwarecodeüberprüfung Code-Review wird zu einer immer beliebter werdenden Technik, um frühe Fehler im Quellcode zu entdecken. Heutzutage gehen Praktiker zum Peer Review ihrer Codes durch ihre Co-Entwickler, um den Quellcode sauber zu machen. Wenn Sie in einem verteilten oder verteilten Team arbeiten, ist eine Codeüberprüfung obligatorisch, um die zusammenzuführenden Patches zu überprüfen. Code-Review kann auch eine Form der Validierung von funktionalen und nicht-funktionalen Anforderungen sein. Manchmal geben Gutachter keine strukturierten Kommentare ab, was für Entwickler zu einem Flaschenhals bei der Lösung der von den Gutachtern kommentierten Ergebnisse oder Vorschläge wird. Um die Teilnahme am Code Review effektiver zu gestalten, sind strukturierte und effiziente Review-Kommentare obligatorisch. Durch das Mining der Repositories von fünf kommerzialisierten Projekten haben wir 15223 Rezensionskommentare extrahiert und sie gekennzeichnet. Wir haben 8 verschiedene Klassifikatoren für maschinelles Lernen und Deep Learning verwendet, um unser Modell zu trainieren. Unter diesen erreicht die stochastische Gradientenabstiegstechnik (SGD) eine höhere Genauigkeit von 80,32 %. Diese Studie wird den Praktikern helfen, eine strukturierte und effektive Code-Review-Kultur bei globalen Softwareentwicklern aufzubauen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6634-9_23 ef6d419e375cbd0c6d62ecc75f6fc295;de;;;7.4.;;;Tensorfaktorisierung mit Hilfsinformationen Die meisten der existierenden Analyseverfahren für Tensoren (oder Mehrwege-Arrays) gehen nur davon aus, dass zu vervollständigende Tensoren von niedrigem Rang sind. Wenn sie jedoch beispielsweise auf Tensorvervollständigungsprobleme angewendet werden, neigt ihre Vorhersagegenauigkeit dazu, signifikant schlechter zu sein, wenn nur begrenzte Einträge beobachtet werden. In diesem Papier schlagen wir vor, Beziehungen zwischen Daten als Hilfsinformationen zusätzlich zu der Annahme niedriger Rangs zu verwenden, um die Qualität der Tensorzerlegung zu verbessern. Wir führen zwei Regularisierungsansätze ein, die aus den Beziehungen induzierte Laplace-Graphen verwenden, und entwerfen iterative Algorithmen für Näherungslösungen. Numerische Experimente zur Tensorvervollständigung unter Verwendung von synthetischen und Benchmark-Datensätzen zeigen, dass die Verwendung von Hilfsinformationen die Vervollständigungsgenauigkeit gegenüber den bestehenden Methoden verbessert, die nur auf der Annahme mit niedrigem Rang basieren, insbesondere wenn die Beobachtungen spärlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23783-6_32 f462352337024f59ca8c9caf351af553;de;;;7.4.;;;Identifizierung diachroner themenbasierter Forschungsgemeinschaften durch Clustering gemeinsamer Forschungsverläufe Gemeinschaften wissenschaftlicher Autorinnen und Autoren werden in der Regel mit Hilfe von Standard-Community-Detection-Algorithmen identifiziert, die „statische“ Beziehungen ausnutzen, wie etwa Co-Autorenschaft oder Zitationsnetzwerke. Im Gegensatz zu diesen Ansätzen konzentrieren wir uns hier auf;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07443-6_9 730caae4b9124379ae815ffd8a0e649b;de;;;7.4.;;;Neue Rolle intelligenter Techniken zur effektiven Erkennung und Vorhersage psychischer Störungen Es ist erwiesen und anerkannt, dass psychische Störungen weltweit eine der wichtigsten Gesundheitsherausforderungen darstellen. Das Abrufen von Informationen aus psychischen Gesundheitsdaten, die in elektronischen Gesundheitsakten und klinischen Notizen oder implizit in Social-Media-Postings enthalten sein können, hat ein enormes Potenzial, den Status der psychischen Gesundheit von Einzelpersonen zu erkennen, zu unterscheiden und zu diagnostizieren und bei der Bewältigung dieses Problems zu helfen. Dieser Artikel fasst einige neuere Studien zusammen, die die modernsten Techniken der künstlichen Intelligenz (KI) auf Daten zur psychischen Gesundheit anwenden. Das Papier fasst zusammen, dass neu aufkommende KI-Technologien vielversprechend sind und zur Vorhersage, Diagnose und Behandlung psychischer Störungen eingesetzt werden können. Die Rolle der KI in diesem Bereich wird besonders in einem Szenario wichtig, in dem es weltweit an qualifizierten Fachkräften mangelt, die mit psychischen Erkrankungen umgehen können, die Kosten für diese Dienste hoch sind und die Menschen, die an diesen Problemen leiden, oft davon absehen, diese in Anspruch zu nehmen Dienstleistungen aufgrund der damit verbundenen sozialen Stigmatisierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9509-7_16 3950e3baeaa59edd5fc4f8d44adb622f;de;;;7.4.;;;Auf dem Weg zum Edge-Computing-basierten verteilten Datenanalyse-Framework in Smart Grids Edge Computing, als ein aufstrebendes Paradigma, das Netzwerk-Edge-Geräte mit Intelligenz ausstattet, ist zu einer bedeutenden und vielversprechenden Zukunft für das Internet der Dinge geworden. Inzwischen haben maschinelle Lernverfahren, insbesondere Deep-Learning-Verfahren, in letzter Zeit in vielen Anwendungsszenarien enorme Erfolge erlebt. In letzter Zeit wird auch die Deep-Learning-Methode, die im IoT-Szenario angewendet wird, in vielen Literaturstellen untersucht. Wie jedoch Edge-Computing und Deep-Learning-Methoden kombiniert werden können, um die Datenanalyse in Smart Grids voranzubringen, wurde noch nicht vollständig untersucht. Zu diesem Zweck schlagen wir in diesem Papier ECNN (Edge-deployed Convolution Neural Network) in Edge-Computing-unterstützten Smart Grids vor, um die Fähigkeit zur Datenaggregation und -analyse erheblich zu verbessern. Wir diskutieren auch, wie ein solches Netzwerk im Edge-Computing verteilt trainiert werden kann. Experimente zeigen den Vorteil unseres Paradigmas.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-24274-9_25 efd5b897e30fe0d19a52a75cd22a8193;de;;;7.4.;;;Techniken zur Vorhersage von Softwarefehlern unter Verwendung von Metriken, die auf dem Klassifikator neuronaler Netze basieren Die Softwareindustrie strebt eine Verbesserung der Softwarequalität durch konsistente Fehlervorhersage, Fehlerbeseitigung und Vorhersage fehleranfälliger Module an. Dieser Bereich hat aufgrund seiner bedeutenden Beteiligung an der Softwareindustrie Forscher angezogen. Für die Vorhersage von Softwarefehlern wurden verschiedene Techniken vorgestellt. Neuere Forschungen haben Data-Mining mit maschinellem Lernen als wichtiges Paradigma für die Vorhersage von Softwarefehlern empfohlen. Softwarefehlervorhersageaufgaben nach dem Stand der Technik leiden unter verschiedenen Problemen wie der Klassifikationsgenauigkeit. Softwarefehlerdatensätze sind jedoch von Natur aus unausgewogen und aufgrund ihrer riesigen Dimensionen bekanntermaßen fehleranfällig. Um dieses Problem anzugehen, präsentieren wir hier einen kombinierten Ansatz für die Vorhersage von Softwarefehlern und die Vorhersage von Softwarefehlern. Der vorgeschlagene Ansatz liefert ein Konzept der Merkmalsreduktion und künstlicher Intelligenz, bei dem die Merkmalsreduktion durch ein bekanntes Hauptkomponentenanalyse-(PCA)-Schema durchgeführt wird, das weiter verbessert wird, indem eine Maximum-Likelihood-Schätzung zur Fehlerreduktion in die PCA-Datenrekonstruktion integriert wird. Schließlich wird eine auf neuronalen Netzwerken basierende Klassifikationstechnik angewendet, die Vorhersageergebnisse zeigt. Ein Framework wird auf einem NASA-Softwaredatensatz formuliert und implementiert, in dem vier Datensätze, d. Es wird eine umfangreiche experimentelle Studie durchgeführt, bei der Parameter für Verwirrung, Präzision, Erinnerung, Klassifikationsgenauigkeit usw. berechnet und mit bestehenden Softwarefehlervorhersagetechniken verglichen werden. Experimentelle Studien zeigen, dass der vorgeschlagene Ansatz eine bessere Leistung für die Vorhersage von Softwarefehlern bieten kann.;-;-;-;https://link.springer.com/article/10.1007/s10586-018-1730-1 4cc805e13ec61f2b0e9402f6e0fa6fe2;de;;;7.4.;;;Die Prävention und Analyse der psychologischen Krise von College-Studenten basierend auf Data-Mining-Technologie Vor dem Hintergrund einer qualitätsorientierten Ausbildung haben viele Schulen zur Förderung der körperlichen und geistigen Gesundheit der Schüler nicht nur psychologische Kulturkurse eingerichtet, sondern auch spezielle Einrichtungen zur psychologischen Beratung und Beratung eingerichtet. Professionelle Psychologen können die psychischen Probleme der Studierenden lösen und ihnen helfen, aus dem „psychologischen Schatten“ herauszuwachsen. Die Anwendung von Data Mining zur Prävention der psychischen Krise von College-Studenten ist in den letzten Jahren eine neue Art der psychologischen Beratung. Darauf aufbauend nimmt dieser Beitrag den effektiven Einsatz von Data Mining in der Prävention der psychischen Krise von College-Studenten als Forschungsthema auf und erläutert und untersucht systematisch.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4572-0_218 fa66c45ec0c8a3410276d47d927bf52c;de;;;7.4.;;;Lernen, kognitive Zustände aus Gehirnbildern zu entschlüsseln In den letzten zehn Jahren hat sich die funktionelle Magnetresonanztomographie (fMRT) zu einem leistungsstarken neuen Instrument entwickelt, um riesige Datenmengen über die Aktivität im menschlichen Gehirn zu sammeln. Ein typisches fMRT-Experiment kann jede halbe Sekunde ein dreidimensionales Bild der Gehirnaktivität des Menschen mit einer räumlichen Auflösung von wenigen Millimetern erzeugen. Wie in anderen modernen empirischen Wissenschaften hat diese neue Instrumentierung zu einer Flut neuer Daten und einem entsprechenden Bedarf an neuen Datenanalysemethoden geführt. Wir beschreiben neuere Forschungen, die maschinelle Lernmethoden auf das Problem der Klassifizierung des kognitiven Zustands eines Menschen basierend auf fRMI-Daten anwenden, die über ein einzelnes Zeitintervall beobachtet wurden. Insbesondere präsentieren wir Fallstudien, in denen wir erfolgreich Klassifikatoren trainiert haben, um kognitive Zustände zu unterscheiden, wie zum Beispiel (1) ob die Person ein Bild oder einen Satz betrachtet, (2) ob die Person eine mehrdeutige oder nicht mehrdeutige . liest Satz, und (3) ob das Wort, das die Versuchsperson betrachtet, ein Wort ist, das Lebensmittel, Menschen, Gebäude usw. beschreibt. Dieses Lernproblem bietet eine interessante Fallstudie über das Lernen von Klassifikatoren aus extrem hochdimensionalen (10;-;-;-;https://link.springer.com/article/10.1023/B%3AMACH.0000035475.85309.1b 6021361d5d08e1f0fb363d80d349d9a9;de;;;7.4.;;;Fortgeschrittene Techniken des maschinellen Lernens in der Verarbeitung natürlicher Sprache für indische Sprachen Das Papier stellt die fortgeschrittenen NLP-Lernressourcen im Kontext der indischen Sprachen dar: Hindi und Urdu. Die Forschung basiert auf domänenspezifischen Plattformen, die Gesundheits-, Tourismus- und Landwirtschaftskorpora mit 60.000 Sätzen umfassen. Mit diesen Korpora wurden einige NLP-basierte Lernressourcen wie Stemmer, Lemmatizer, POS-Tagger und MWE-Identifier entwickelt. Alle diese Ressourcen sind in sequentieller Form verbunden und sie sind nützlich beim Abrufen von Informationen, bei der Sprachübersetzung, beim Umgang mit der Begriffsklärung des Wortsinns und bei vielen anderen nützlichen Anwendungen. Stemming ist in erster Linie ein Prozess der Wurzelextraktion aus einem gegebenen Eingabewort, aber manchmal erzeugt es kein gültiges Wurzelwort. Das Problem des Stemming wurde also durch die Entwicklung von Lemmatizer gelöst, der die exakte Wurzel durch Hinzufügen einiger Regeln in der gestammten Ausgabe erzeugt. Schließlich wurde der statistische POS-Tagger mit Hilfe des Tagsets der indischen Regierung (TDIL) (Indian Govt. Tagset, [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-03131-2_7 b260f725cb0c5f809c8e0e4b806fbc5d;de;;;7.4.;;;Datenschutzprobleme beim Edge-Computing Während Edge Computing die Rechenleistung auf den Rand von Netzwerken ausdehnt, hilft es, Engpässe bei der Bandbreitenbeschränkung und Netzwerklatenzprobleme beim Cloud Computing zu beheben. Allerdings stellen mehr Edge-Server und die Kommunikation zwischen Edge-Servern und Endgeräten größere Herausforderungen an die Privatsphäre der Benutzer. Da Edge-Computing im Gegensatz zum Cloud-Computing einen enormen Austausch von Benutzerdaten, Identität und Standort mit Edge-Servern verursacht, werden private Informationen leicht durchgesickert, was die Datenschutzbedenken schwerwiegender denn je macht. In diesem Kapitel erklären wir, warum Datenschutzprobleme schwerwiegender werden als beim Cloud-Computing, fassen die aktuellen Datenschutzherausforderungen und Techniken gegen diese Datenschutzbedrohungen zusammen und diskutieren einige zukünftige Arbeiten zu Datenschutzproblemen im Edge-Computing.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-57328-7_6 42916404041d1ad4e101a4a95b3f7725;de;;;7.4.;;;Techniken zur Darstellung von Zeitreihendaten und zur Reduzierung der Dimensionalität Die Generierung von Zeitreihendaten ist ein ständiges Problem in fast allen Bereichen, wie Wissenschaft, Wirtschaft, Medizin, Industrie oder sogar Unterhaltung. Infolgedessen besteht eine wachsende Nachfrage nach einer effizienten Analyse dieser Daten, um nützliche Informationen abzuschätzen. Die Zeitreihendaten weisen intrinsische Merkmale wie Rauschen, mehrdimensionale und große Volumen auf. Wenn wir über Data Mining sprechen, erfordert dies ein breites Spektrum der Suche nach ähnlichen Mustern, z. B. Abfragen nach Inhalt, Clustering oder Klassifizierung. Diese Data-Mining-Aufgaben können von einer guten und robusten Zeitreihendarstellung sehr hilfreich sein. Es hilft bei der Reduzierung von Abmessungen und Geräuschanpassung sowie bei der Erreichung von Schlüsselaspekten, Effektivität und Effizienz der Datenverarbeitung. Dieses Kapitel zielt darauf ab, die grundlegenden sowie neueren Ansätze für Repräsentationen zusammen mit der Dimensionsreduktion für Zeitreihendaten zu überprüfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3357-0_18 582146b13a56a7eb89fa9aca65e6fd9d;de;;;7.4.;;;Untersuchung der Auswirkungen von Vorverarbeitungstechniken und vortrainierten Worteinbettungen bei der Erkennung arabischer Gesundheitsinformationen in sozialen Medien Dieser Beitrag präsentiert eine umfassende Bewertung von Techniken der Datenvorverarbeitung und der Worteinbettung im Kontext der arabischen Dokumentenklassifikation im Bereich der gesundheitsbezogenen Kommunikation in sozialen Medien. Wir evaluieren 26 Textvorverarbeitungen, die auf arabische Tweets angewendet werden, während wir einen Klassifikator trainieren, um gesundheitsbezogene Tweets zu identifizieren. Für diese Aufgabe verwenden wir die (traditionellen) Machine-Learning-Klassifikatoren KNN, SVM, Multinomial NB und Logistic Regression. Darüber hinaus berichten wir über experimentelle Ergebnisse mit den Deep-Learning-Architekturen BLSTM und CNN für das gleiche Textklassifikationsproblem. Da Worteinbettungen eher als Eingabeschicht in tiefen Netzwerken verwendet werden, evaluieren wir in den Deep-Learning-Experimenten mehrere hochmoderne vortrainierte Worteinbettungen mit derselben Textvorverarbeitung. Um diese Ziele zu erreichen, verwenden wir zwei Datensätze: einen sowohl für das Training als auch für das Testen und einen anderen, um nur die Allgemeingültigkeit unserer Modelle zu testen. Unsere Ergebnisse lassen den Schluss zu, dass nur vier der 26 Vorverarbeitungen die Klassifikationsgenauigkeit signifikant verbessern. Für den ersten Datensatz arabischer Tweets fanden wir, dass Mazajak CBOW vortrainierte Worteinbettungen als Eingabe in ein BLSTM Deep Network zum genauesten Klassifikator mit F . führten;-;-;-;https://link.springer.com/article/10.1186/s40537-021-00488-w 6034bb884641ad62db7823998ce80e9b;de;;;7.4.;;;Kollaborative Entscheidungsfindung durch regelbasierte Klassifikationssysteme des Ensembles Regelbasierte Klassifikation ist ein beliebter Ansatz für die Entscheidungsfindung. Es ist auch möglich, dass mehrere regelbasierte Klassifikatoren zusammenarbeiten, um Gruppenentscheidungen zu treffen, indem ein Ensemble-Lernansatz verwendet wird. Diese Art von Expertensystem wird als ensembleregelbasiertes Klassifizierungssystem mittels eines Systems von Systemen bezeichnet. Beim maschinellen Lernen wird normalerweise ein Ensemble-Learning-Ansatz verwendet, um die Vorhersagegenauigkeit insgesamt zu verbessern, d. h. um sehr vertrauenswürdige Entscheidungen zu treffen. Dieses Kapitel stellt grundlegende Konzepte des Ensemble-Lernens vor und gibt einen Überblick über Random Prism, um seine Leistung zu analysieren. Dieses Kapitel stellt auch einen erweiterten Rahmen des Ensemble-Lernens vor, der als Collaborative and Competitive Random Decision Rules (CCRDR) bezeichnet wird und neben PrismTCS als Basisklassifizierer Information Entropy Based Rule Generation (IEBRG) und das ursprüngliche Prism enthält. Dies dient dazu, die identifizierten Einschränkungen von Random Prism zu überwinden. Jeder der oben erwähnten Basisklassifikatoren wird auch in Bezug auf sein Wesen und seine Anwendungen eingeführt. Zur vergleichenden Validierung zwischen CCRDR und Random Prism wird eine experimentelle Studie durchgeführt. Beiträge und laufende und zukünftige Arbeiten werden ebenfalls hervorgehoben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16829-6_10 1cb6186504ace88bff13e79cb846bfe6;de;;;7.4.;;;Überprüfung der auf Datenmerkmalen basierenden Methoden zur Erkennung von Musikgefühlen Die Fähigkeit der Musik, Emotionen hervorzurufen oder zu vermitteln, sichert die Bedeutung ihrer Rolle im menschlichen Leben. Folglich hat die Forschung zu Methoden zum Identifizieren der hochrangigen Emotionszustände eines Musiksegments aus seinen niederwertigen Merkmalen Aufmerksamkeit erregt. Dieses Papier bietet neue Erkenntnisse zu Methoden der Musikemotionserkennung basierend auf verschiedenen Kombinationen von Datenmerkmalen, die sie während der Modellierungsphase verwenden, unter drei Aspekten, nur Musikmerkmale, nur Ground-Truth-Daten und deren Kombination, und bietet einen umfassenden Überblick darüber. Dann konzentrieren wir uns auf die relativ populären Methoden, bei denen die beiden Datentypen Musikmerkmale und Ground-Truth-Daten kombiniert werden, und unterteilen die Methoden in der Literatur weiter nach den Ground-Truth-Daten vom Label- und numerischen Typ und analysieren die Entwicklung der Musikemotionserkennung anhand von Modellierungsmethoden und Zeitabläufen. Anschließend werden drei aktuelle wichtige Forschungsrichtungen zusammengefasst. Obwohl im Bereich der Musikemotionserkennung viel erreicht wurde, bleiben viele Probleme bestehen. Wir prüfen diese Fragen und unterbreiten einige Vorschläge für die zukünftige Arbeit.;-;-;-;https://link.springer.com/article/10.1007/s00530-017-0559-4 e9e1254214f944c99ba460d09ba562c7;de;;;7.4.;;;Verbesserung des Cyber-Situationsbewusstseins durch Data Mining und prädiktive Analysetechniken Technique Aufgrund der weit verbreiteten Nutzung von Computerressourcen im täglichen Leben wurde die Cybersicherheit als eines der Hauptanliegen von Regierungen und Behörden hervorgehoben. Data-Mining-Technologie kann auf unterschiedliche Weise zur Prävention von Cyber-Angriffen eingesetzt werden und Cyber ​​Situational Awareness (CSA) kann basierend auf der Analyse früherer Erfahrungen in Bezug auf Cyber-Angriffe verbessert werden. Dieses Papier zielt darauf ab, den aktuellen Stand der CSA-Verbesserung durch Data-Mining-Techniken und prädiktive Analytik zu untersuchen und zu überprüfen und bietet eine mögliche Methodik basierend auf Data-Mining-Techniken, die von Cyber-Unternehmen verwendet werden können, um sich gegen zukünftige Cyber-Bedrohungen abzusichern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23276-8_3 1b3a318333a97aa678b4737acca45cc5;de;;;7.4.;;;Raumzerlegung beim Data Mining: Ein Clustering-Ansatz Data-Mining-Algorithmen zielen darauf ab, interessante Muster in großen Datenmengen in überschaubarer Komplexität und guter Genauigkeit zu suchen. Zerlegungsmethoden werden verwendet, um beide Kriterien zu verbessern. Im Gegensatz zu den meisten Dekompositionsmethoden, die den Datensatz über Sampling partitionieren, stellt dieses Papier eine genauigkeitsorientierte Methode vor, die den Instanzraum mithilfe des K-Means-Clustering-Algorithmus in sich gegenseitig ausschließende Teilmengen aufteilt. Nach Anwendung der grundlegenden Divide-and-Induce-Methode auf mehrere Datensätze mit unterschiedlichen Klassifikatoren wird ihre Fehlerrate mit der des grundlegenden Lernalgorithmus verglichen. Eine Analyse der Ergebnisse zeigt, dass die vorgeschlagene Methode für Datensätze mit numerischen Eingabeattributen gut geeignet ist und ihre Leistung von der Datensatzgröße und ihrer Homogenität beeinflusst wird. Schließlich wird eine Homogenitätsschwelle entwickelt, anhand derer entschieden werden kann, ob der Datensatz zerlegt wird oder nicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39592-8_5 35f621879677195ddbbb91c8ef4a3271;de;;;7.4.;;;Verbesserte Over_Sampling-Techniken für die unausgewogene Klassifizierung von Big Data Sets Angesichts von Hunderten von Gigabyte an Daten müssen die Datenverwaltungsoptionen überdacht werden. Es besteht ein enormer Bedarf, Datensätze zu untersuchen, die über die Fähigkeit gängiger Softwaretools hinausgehen, innerhalb einer tolerierbaren verstrichenen Zeit zu erfassen, zu kuratieren und zu verwalten und auch über die Verarbeitungsmöglichkeit der Einzelmaschinenarchitektur hinaus. Zusätzlich zu den traditionellen strukturierten Daten hat der neue Weg von NoSQL Big Data einen Aufruf zu experimentellen Techniken und Technologien gedrängt, deren Wiedereingliederung Ventures erfordert. Es hilft, große versteckte Werte aus riesigen Datensätzen zu entdecken, die komplex, vielfältig und von großem Umfang sind. In vielen realen Anwendungen ist die Klassifizierung von unausgeglichenen Datensätzen der vorrangige Punkt. Die Standard-Klassifizierer-Lernalgorithmen gehen von einer ausgeglichenen Klassenverteilung und gleichen Fehlklassifizierungskosten aus, als Ergebnis hat die Klassifizierung von Datensätzen mit einer unausgeglichenen Klassenverteilung einen bemerkenswerten Nachteil in der Leistung erzeugt, die von den meisten Standard-Klassifizierer-Lernalgorithmen erhalten wird. Die meisten Klassifikationsverfahren konzentrieren sich auf das Zweiklassen-Ungleichgewichtsproblem trotz des Mehrklassen-Ungleichgewichtsproblems, die in realen Bereichen existieren. Es wird eine Methodik für unausgeglichene Einzelklassen-/Mehrklassen-Datensätze (Niedrigste vs. Höchste – LVH) mit verbesserten Over_sampling (OS)-Techniken eingeführt (MEre Mean Minority Over_Sampling Technique – MEMMOT, Majority Minority Mix mean – MMMm, Nearest Farthest Neighbor_Mid – NFN-M, Clustering Minority Beispiele – CME, Majority Minority Cluster Based Under_Over Sampling Technique – MMCBUOS, Updated Class Purity Maximization – UCPM) zur Verbesserung der Klassifizierung. Die Studie basiert im Wesentlichen auf zwei Ansichten: entweder um die verbesserten Nicht-Cluster-Techniken mit früheren Arbeiten zu vergleichen oder um einen Cluster-basierten Ansatz für fortgeschrittene O.S. Techniken. Schließlich sollen diese ausgewogenen Daten verwendet werden, um einen Random Forest (R.F.)-Baum für die Klassifizierung zu bilden. OS Es werden Techniken für die Anwendung auf unausgewogene Big Data mit der Mapreduce-Umgebung projiziert. Es wird empfohlen, Experimente mit Apache Hadoop und Apache Spark durchzuführen, wobei verschiedene Datensätze aus dem UCI/KEEL-Repository verwendet werden. Geometrischer Mittelwert, F-Maße, Fläche unter Kurve (AUC), durchschnittliche Genauigkeit, Brier-Werte werden verwendet, um die Leistung dieser Klassifikation zu messen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-53474-9_3 9cb7cfbb9ed2a2426ff31d1687db5295;de;;;7.4.;;;Diskretisierungsmethoden Data-Mining-Anwendungen beinhalten oft quantitative Daten. Das Lernen aus quantitativen Daten ist jedoch oft weniger effektiv und weniger effizient als das Lernen aus qualitativen Daten. Die Diskretisierung adressiert dieses Problem, indem quantitative Daten in qualitative Daten umgewandelt werden. Dieses Kapitel bietet eine umfassende Einführung in die Diskretisierung. Es klärt die Definition der Diskretisierung. Es bietet eine Taxonomie von Diskretisierungsmethoden zusammen mit einem Überblick über die wichtigsten Diskretisierungsmethoden. Es werden auch Fragen erörtert, die das Design und die Anwendung von Diskretisierungsmethoden beeinflussen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09823-4_6 e02df1b88f22693244e719f687e2e0f7;de;;;7.4.;;;Quasi anomales Wissen: Suche nach neuer Physik mit eingebettetem Wissen Entdeckungen neuer Phänomene erfordern oft eine gezielte Suche nach einer hypothetischen physikalischen Signatur. Kürzlich wurden neuartige Deep-Learning-Techniken zur Anomalieerkennung in Abwesenheit eines vorherigen Signals entwickelt. Durch das Ignorieren von Signalprioritäten wird jedoch die Empfindlichkeit dieser Ansätze erheblich verringert. Wir präsentieren eine neue Strategie namens Quasi Anomalous Knowledge (QUAK), bei der wir alternative Signal-Prioritäten einführen, die einige der hervorstechenden Merkmale neuer physikalischer Signaturen erfassen und die Wiederherstellung der Empfindlichkeit selbst dann ermöglichen, wenn das alternative Signal falsch ist. Dieser Ansatz kann auf eine breite Palette von Physikmodellen und neuronalen Netzwerkarchitekturen angewendet werden. In diesem Artikel wenden wir QUAK auf die Anomalieerkennung neuer physikalischer Ereignisse am CERN Large Hadron Collider unter Verwendung von Variations-Autoencodern mit normalisierendem Fluss an.;-;-;-;https://link.springer.com/article/10.1007/JHEP06%282021%29030 379c0e3b118fda59af7a128a9f50b73f;de;;;7.4.;;;CovidSens: eine Vision für eine zuverlässige soziale Wahrnehmung von COVID-19 Angesichts der sich entwickelnden Pandemie der Coronavirus-Krankheit 2019 (COVID-19) ist es von Natur aus wichtig geworden, genaue und zeitnahe Informationen über die Krankheit zu verbreiten. Aufgrund der Allgegenwart von Internetkonnektivität und intelligenten Geräten entwickelt sich Social Sensing zu einem dynamischen KI-gesteuerten Sensorparadigma, um Echtzeitbeobachtungen von Online-Benutzern zu extrahieren. In diesem Papier schlagen wir CovidSens vor, eine Vision von auf Social Sensing basierenden Risikowarnsystemen, um spontan soziale Daten zu erhalten und zu analysieren, um den Zustand der COVID-19-Ausbreitung abzuleiten. CovidSens kann aktiv dazu beitragen, die breite Öffentlichkeit über die Verbreitung von COVID-19 zu informieren und risikobehaftete Gebiete zu identifizieren, indem auf zukünftige Ausbreitungsmuster geschlossen wird. Das CovidSens-Konzept wird durch drei Beobachtungen motiviert: (1) Menschen teilen ihren Gesundheitszustand und ihre Erfahrungen mit COVID-19 aktiv über soziale Online-Medien, (2) offizielle Warnkanäle und Nachrichtenagenturen sind relativ langsamer als Menschen, die ihre Beobachtungen melden und Erfahrungen mit COVID-19 in sozialen Medien, und (3) Online-Benutzer sind häufig mit im Wesentlichen leistungsfähigen Mobilgeräten ausgestattet, die in der Lage sind, nicht triviale Berechnungen auf dem Gerät für die Datenverarbeitung und -analyse durchzuführen. Wir stellen uns eine beispiellose Gelegenheit vor, die von den einfachen Leuten generierten Beiträge zu nutzen, um ein Echtzeit-Erfassungs- und -Analysesystem zum Sammeln und Verbreiten wichtiger Informationen über die Ausbreitung von COVID-19 aufzubauen. Konkret versucht die Vision von CovidSens, Antworten auf die Fragen zu geben: Wie kann man bei der Koexistenz vorherrschender Gerüchte und Fehlinformationen in den sozialen Medien verlässliche Informationen über das COVID-19 destillieren? Wie informiert man die Öffentlichkeit rechtzeitig und effektiv über den aktuellen Stand der Verbreitung und macht sie darauf aufmerksam, vorbereitet zu bleiben? Wie kann die Rechenleistung der Edge-Geräte (z. B. Smartphones, IoT-Geräte, UAVs) genutzt werden, um vollständig integrierte Edge-basierte Social-Sensing-Plattformen zur schnellen Erkennung der Ausbreitung von COVID-19 zu konstruieren? In diesem Visionspapier diskutieren wir die Rollen von CovidSens und identifizieren die potenziellen Herausforderungen bei der Entwicklung zuverlässiger, auf sozialer Wahrnehmung basierender Risikowarnsysteme. Wir stellen uns vor, dass Ansätze aus mehreren Disziplinen (z. B. KI, Schätztheorie, maschinelles Lernen, eingeschränkte Optimierung) bei der Bewältigung der Herausforderungen effektiv sein können. Schließlich skizzieren wir einige Forschungsrichtungen für die zukünftige Arbeit in CovidSens.;-;-;-;https://link.springer.com/article/10.1007/s10462-020-09852-3 b3718d17c335a42d34f88585f173856e;de;;;7.4.;;;Intelligente Rechentechniken für multimodale Daten Dieses Gast-Editorial stellt das Sonderheft zum Thema „Intelligent Computational Techniques for Multimodal Data“ vor. Das Ziel dieser Sonderausgabe war es, eine Vielzahl von realen Problemen zu lösen, die Unsicherheit, Ungenauigkeit und Unklarheit aufweisen, was zu Hochleistungsanwendungen oder Prototypen für Echtzeitsysteme führt. Die Sonderausgabe behandelte verschiedene heiße Themen in Bezug auf Computer Vision, Computerbiologie, Multimedia Data Mining, Hochdimensionale Multimediadaten, Deep Convolution Network, Deep Semantic Preserving Hashing, Hochdimensionale Multimediaklassifikation, Deep CNN und erweiterte Resteinheiten, Partikelschwarmoptimierung , Cybermobbing-Erkennung in sozialen Medien, Multimedia-Erkennungsalgorithmus bösartiger Knoten, Multimedia-basierte schnelle Gesichtserkennung, Diversifizierung personalisierter mobiler Multimedia-Anwendungen, Multimedia-Bildkantenextraktionsalgorithmus, Gerüchte-Wahrheitserkennung.;-;-;-;https://link.springer.com/article/10.1007/s11042-019-07936-z 55ea6deaf37ce156387d00b010f6704e;de;;;7.4.;;;Aufbau des Evaluationssystems Plattform der Hochschularbeit in Data Mining Technologie Als wichtiger Aspekt der Gesamtevaluation von Bildung ist die Evaluation der Lehrqualität an Hochschulen und Universitäten nicht nur das zentrale Organ und Fundament der Bildungsevaluation, sondern auch ein unverzichtbarer Bestandteil der Lehrtätigkeit. Die Entwicklung der Informationstechnologie im Internet hat viele Daten für Lehre und Verwaltung angesammelt und eine Voraussetzung für den Bau geschaffen. Noch im Primärstadium der Datensicherung, Abfrage und einfachen Statistik, sowie das Mining und die Analyse von Auswertungsdaten befindet sich noch im Stadium der manuellen Verarbeitung, wodurch diese Daten nicht ihren vollen Wert entfalten können. „Survival by Quality“ ist heute die unumgängliche Wahl jeder Universität. Ob die Unterrichtsqualität gewährleistet werden kann oder nicht, hängt von der Unterrichtsqualität und dem Unterrichtsniveau der Lehrkräfte ab. Daher brauchen wir ein wissenschaftliches Evaluationssystem, um die Unterrichtsqualität der Lehrkräfte zu überwachen. In diesem Beitrag wird eingehend untersucht, wie der wissenschaftliche und vernünftige Einsatz rationaler Analysen und Anleitungen für den Lehrerunterricht erfolgen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-69999-4_104 98ba4eba6fc50037ebe054fbb33028ee;de;;;7.4.;;;Psychopathisches Verhalten: Eine Perspektive der Informationsverarbeitung Im Gegensatz zu Syndromen wie Schizophrenie, Depression und den verschiedenen Angststörungen, bei denen der Beitrag eines gestörten psychologischen Prozesses als selbstverständlich angesehen wird, besteht eine beträchtliche Skepsis gegenüber der Existenz von Psychopathologie bei Psychopathen. Wenn eine Person Schwierigkeiten hat, Gedanken oder Gefühle zu regulieren, halten wir es für natürlich, das Problem der Psychopathologie zuzuschreiben, aber wenn das Verhalten einer Person schlecht reguliert ist, neigen wir eher dazu, das Problem auf eine unzureichende Motivation oder Böswilligkeit zurückzuführen. Mit anderen Worten, wir finden es plausibel, dass Gedanken und Gefühle sich der freiwilligen Kontrolle entziehen können, aber wir scheinen Schwierigkeiten zu haben, auf die gleiche Weise über Verhalten nachzudenken.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-3965-6_5 737aa923bcb93f4826e454cb2097dc1e;de;;;7.4.;;;Maschinelles Lernen durch kryptografische Brillen: Abwehr feindlicher Angriffe durch schlüsselbasierte diversifizierte Aggregation In den letzten Jahren wurden Klassifikationstechniken basierend auf tiefen neuronalen Netzen (DNN) in vielen Bereichen wie Computer Vision, Verarbeitung natürlicher Sprache und selbstfahrende Autos weit verbreitet. Die Anfälligkeit der DNN-basierten Klassifizierungssysteme für feindliche Angriffe stellt jedoch ihre Verwendung in vielen kritischen Anwendungen in Frage. Daher ist die Entwicklung robuster DNN-basierter Klassifikatoren ein kritischer Punkt für den zukünftigen Einsatz dieser Methoden. Ein nicht weniger wichtiges Thema ist das Verständnis der Mechanismen hinter dieser Schwachstelle. Darüber hinaus ist nicht ganz klar, wie maschinelles Lernen mit Kryptographie verknüpft werden kann, um einen Informationsvorteil des Verteidigers gegenüber dem Angreifer zu erzielen. In diesem Papier schlagen wir einen schlüsselbasierten Diversified Aggregation (KDA)-Mechanismus als Verteidigungsstrategie in einem Gray- und Black-Box-Szenario vor. KDA geht davon aus, dass der Angreifer (i) die Architektur des Klassifikators und die verwendete Abwehrstrategie kennt, (ii) Zugriff auf den Trainingsdatensatz hat, aber (iii) keinen geheimen Schlüssel kennt und keinen Zugriff auf die internen Zustände hat vom System. Die Robustheit des Systems wird durch eine speziell entwickelte schlüsselbasierte Randomisierung erreicht. Die vorgeschlagene Randomisierung verhindert die Backpropagation der Gradienten und schränkt den Angreifer ein, ein „Bypass“-System zu erstellen. Die Randomisierung erfolgt gleichzeitig in mehreren Kanälen. Jeder Kanal führt seine eigene Randomisierung in einem speziellen Transformationsbereich ein. Die gemeinsame Nutzung eines geheimen Schlüssels zwischen der Trainings- und der Testphase verschafft dem Verteidiger einen Informationsvorsprung. Schließlich stabilisiert die Aggregation von Soft Outputs von jedem Kanal die Ergebnisse und erhöht die Zuverlässigkeit der Endbewertung. Die durchgeführte experimentelle Auswertung zeigt eine hohe Robustheit und Universalität des KDA gegen hochmoderne gradientenbasierte Gray-Box-Übertragbarkeitsangriffe und die nicht-gradientenbasierten Blackbox-Angriffe (Die in diesem Papier berichteten Ergebnisse wurden teilweise präsentiert in CVPR 2019 (Taran et al., Defending against adversarial attack by randomized diversification, 2019) & ICIP 2019 (Taran et al., Robustification of deep net classifiers by key-based diversified aggregation with pre-filtering, 2019)).;-;-;-;https://link.springer.com/article/10.1186/s13635-020-00106-x 61a6d7335dc2b33ae5a2c2f6af1b37f6;de;;;7.4.;;;DeepMal: Bösartigkeit – Erhalten von gegnerischem Instruktionslernen gegen statische Malware-Erkennung Außerhalb der explosiven erfolgreichen Anwendungen von Deep Learning (DL) in der Verarbeitung natürlicher Sprache, Computer Vision und Information Retrieval gab es zahlreiche auf Deep Neural Networks (DNNs) basierende Alternativen für gängige sicherheitsbezogene Szenarien, wobei Malware-Erkennung immer beliebter ist. In letzter Zeit hat das kontradiktorische Lernen stark an Bedeutung gewonnen. Im Gegensatz zu Computer Vision-Anwendungen wird jedoch erwartet, dass Malware-Angriffe die ursprüngliche Bösartigkeitssemantik der Malware garantieren. In diesem Artikel wird eine neuartige Methode zum Lernen von kontradiktorischen Instruktionen, DeepMal, vorgeschlagen, die auf einem kontradiktorischen Instruktionslernansatz für die Erkennung statischer Malware basiert. Soweit wir wissen, ist DeepMal die erste praktische und systematische Methode des gegnerischen Lernens, die direkt gegnerische Samples erzeugen und statische Malware-Detektoren, die auf DL- und Machine-Learning-Modellen (ML) basieren, effektiv umgehen und gleichzeitig die Angriffsfunktionalität in der realen Welt erhalten können. Darüber hinaus führt unsere Methode kleine Angriffe durch, die sich der Analyse typischer Malware-Varianten (z. Wir evaluieren DeepMal anhand von zwei realen Datensätzen, sechs typischen DL-Modellen und drei typischen ML-Modellen. Experimentelle Ergebnisse zeigen, dass DeepMal bei beiden Datensätzen typische Malware-Detektoren mit dem Mittel angreifen kann;-;-;-;https://link.springer.com/article/10.1186/s42400-021-00079-5 0d00dab0ffd19164da74cc5bd4fa5210;de;;;7.4.;;;Zuverlässiges Ticket-Routing in Expertennetzwerken Die Lösung von Problemtickets ist ein wichtiger Aspekt bei der Bereitstellung von IT-Services. Ein großer Dienstleister muss täglich Tausende von Tickets bearbeiten, die verschiedene Arten von Problemen melden. Viele dieser Tickets werden zwischen mehreren Expertengruppen verteilt, bevor sie an die Gruppe mit dem Fachwissen zur Lösung des Problems weitergeleitet werden. Die Suche nach einer Methodik, die automatisch zuverlässige Ticket-Routing-Entscheidungen treffen kann und die ein solches Bouncen reduziert und somit die Ticket-Lösungszeit verkürzt, ist seit langem eine Herausforderung. Zuverlässiges Ticket-Routing leitet das Ticket an einen Experten weiter, der entweder das im Ticket gemeldete Problem lösen kann oder einen Experten erreichen kann, der das Ticket lösen kann. In diesem Kapitel stellen wir ein einheitliches generatives Modell vor, das Optimized Network Model (ONM), das den Lebenszyklus eines Tickets anhand des Inhalts und der Routingsequenz des Tickets charakterisiert. ONM verwendet die Maximum-Likelihood-Schätzung, um zuverlässige Ticketübertragungsprofile an jedem Rand eines Expertennetzwerks zu erfassen. Diese Transferprofile spiegeln wider, wie die in einem Ticket enthaltenen Informationen von menschlichen Experten verwendet werden, um Ticket-Routing-Entscheidungen zu treffen. Basierend auf ONM entwickeln wir einen probabilistischen Algorithmus, um in einem Netzwerk von Expertengruppen zuverlässige Ticket-Routing-Empfehlungen für neue Tickets zu generieren. Unser Algorithmus berechnet alle möglichen Routen zu potenziellen Resolvern und gibt global optimale Empfehlungen ab, im Gegensatz zu bestehenden Klassifikationsverfahren, die statisch und lokal optimal machen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-1903-7_7 dc78ce88497a19816a07e7ea1638c4cb;de;;;7.4.;;;Cluster Computing Data Mining basierend auf massiven Eindringungsinterferenzbeschränkungen in hybriden Netzwerken Um das Problem zu lösen, dass massive Intrusion-Daten in hybriden Netzwerken die Erkennung von Netzwerk-Einbrüchen stark beeinträchtigen und aufgrund ihrer Frequenzdiskontinuität relativ große Schwierigkeiten bei der Erkennung verursachen, wurde ein Mining-Algorithmus von massiven Intrusion-Cluster-Computing-Daten in hybriden Netzwerken basierend auf der spektralen Merkmalsextraktion unter festen Bedingungen von Zeit-Frequenz-Fenster wird in diesem Papier vorgeschlagen. Die Mehrkomponenten-Cross-Detection-Methode wird verwendet, um massive Einbruchsinformationen in hybriden Netzwerken zu sammeln und ein Modell des massiven Einbruchssignals in hybriden Netzwerken zu konstruieren. Die kaskadierende Notch-Methode wird verwendet, um Eindringinterferenzen unter Beschränkungen eines festen Zeit-Frequenz-Fensters zu unterdrücken und die Fundamentalgröße und Primärfunktion mit Lokalität in massiven Interferenzinformationen zu extrahieren und ein vollständiges Energieverteilungsspektrum auf der Zeit-Frequenz-Ebene zu erhalten. Das Energieverteilungsspektrum wird als Führungsfunktion verwendet, um Cluster-Berechnungs-Data-Mining mit massiven Intrusion-Interferenz-Beschränkungen zu realisieren. Simulationsergebnisse zeigen, dass die Erkennungsgenauigkeit der in diesem Beitrag vorgeschlagenen Methode bei der Erkennung von Eindringversuchen des Signal-Rausch-Verhältnisses von – 15 bis – 5 dB immer besser ist als die anderer. Bei einem Signal-Rausch-Verhältnis von -9 dB liegt die Erkennungsgenauigkeit dieser Methode bei über 90 %. Wenn das Signal-Rausch-Verhältnis –9 dB beträgt, kann die Erkennungsgenauigkeit dieses Verfahrens 100 % erreichen. Über die Erkennungszeit, insbesondere wenn das Datum der Anzahl der Einbrüche 2000 beträgt, wird die Erkennungszeitdifferenz zwischen den drei Methoden erhöht, und die Erkennungszeit anderer Methoden beträgt das 2-3-fache der Papiermethode. Die vorgeschlagene Methode kann Masseneinbruchsverteilungsquellen in Hybridnetzwerken unter der großen Frequenzoszillation von Einbruchsdaten in den Hybridnetzwerken genau lokalisieren, Netzwerkeinbruchserkennung und Interferenzunterdrückung realisieren und Interferenzinformationen gut filtern, so dass diese Methode die Einbruchserkennungswahrscheinlichkeit in Hybridnetzwerken verbessert .;-;-;-;https://link.springer.com/article/10.1007/s10586-018-1780-4 36e0b92dc230cbadf741d5f8eb545069;de;;;7.4.;;;Transfer Learning für die Prognose von Finanzzeitreihen Zeitreihen werden häufig zur Darstellung nicht stationärer Daten wie Wetterinformationen, gesundheitsbezogene Daten, Wirtschafts- und Börsenindizes verwendet. Viele statistische Methoden und traditionelle maschinelle Lerntechniken werden häufig für die Vorhersage von Zeitreihen verwendet. Mit der Entwicklung von Deep Learning in der künstlichen Intelligenz haben viele Forscher neue Modelle aus künstlichen neuronalen Netzen für die Vorhersage von Zeitreihen übernommen. Eine schlechte Leistung bei der Anwendung von Deep-Learning-Modellen in kurzen Zeitreihen behindert jedoch die Genauigkeit der Zeitreihenprognose. In diesem Beitrag schlagen wir einen neuartigen Ansatz vor, um dieses Problem basierend auf Transferlernen zu lindern. Bestehende Arbeiten zum Transferlernen verwenden extrahierte Features aus einem Quell-Dataset für Vorhersageaufgaben in einem Ziel-Dataset. In diesem Papier schlagen wir eine neue Trainingsstrategie für Zeitreihentransferlernen mit zwei Quelldatensätzen vor, die bestehende Ansätze übertreffen. Die Wirksamkeit unseres Ansatzes wird anhand von Finanzzeitreihen bewertet, die aus den Aktienmärkten extrahiert wurden. Die Versuchsergebnisse zeigen, dass Transferlernen basierend auf 2 Datensätzen anderen Basismethoden überlegen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29911-8_3 83eebafceedf3586a4088d41c542b676;de;;;7.4.;;;Überwachter Machine-Learning-Ansatz zur Identifizierung bösartiger URLs Bösartige URLs sind ein normales und nachweisbares Risiko für die Cybersicherheit. Eine bösartige URL enthält eine Gruppierung von uneingeschränkten Substanzen wie Phishing und Spam, um Angriffe abzuwehren. Schuldlose Kunden besuchen solche Websites, um sich durch verschiedene Tricks, einschließlich Steuerunglück und Einbruch privater Daten (Identität, Kreditkarten usw.) Es ist von grundlegender Bedeutung, solche Gefahren optimal zu erkennen und nachzuholen. In diesem Papier hatten wir zwei Verfahren zur Unterscheidung bösartiger URLs mit zwei außergewöhnlichen Datensätzen angewendet und bei der Ausführung von Naive Bayes und Support Vector Machines (SVM) anhand von zwei Datensätzen verifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3338-9_23 406f0152272ddf37b8fa0d9194538b2c;de;;;7.4.;;;Maximierung des Wertes von Schülerbewertungen durch Data Mining Studentenbewertungen des Unterrichts sind ein wichtiges Bewertungsinstrument innerhalb der Universitäten und standen in den letzten 50 Jahren im Mittelpunkt zahlreicher Studien. Bis vor kurzem war es schwierig, aussagekräftige Analysen von Kommentaren von Studierenden durchzuführen, da die meisten Universitäten diese als handschriftliche Notizen sammelten. Diese Arbeit verwendet statistische und Text-Mining-Techniken, um einen Datensatz zu analysieren, der aus über 1 Million Schülerkommentaren besteht, die mit einem Online-Verfahren gesammelt wurden. Die Methodik verwendet positive und negative „Kategorievektoren“, die die Ausbildereigenschaften und ein domänenspezifisches Lexikon darstellen. Die Stimmungsanalyse wird verwendet, um in Kommentaren zu jeder Kategorie eingebettete Einstellungen zu erkennen und zu bewerten. Die Methodik wird anhand von drei Ansätzen validiert, zwei quantitativen und einem qualitativen. Auch wenn dies für einzelne Dozenten und Administratoren nützlich ist, kann nur durch Data Mining die Wahrnehmung des Unterrichts durch die Schüler massenhaft analysiert werden, um den Bildungsprozess zu informieren und zu beeinflussen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-02738-8_14 2ce7e5f02f80c0ad69a88b297b606f4c;de;;;7.4.;;;Bewertung Unvollständigkeit des Wissens im Data Mining In diesem Beitrag beweisen wir, dass die Verwendung des groben Grads des groben Sets in klassischen groben Sets zur Messung der Wissensunsicherheit nicht umfassend ist. Dann definieren wir ein neues Maß namens grobe Entropie des groben Sets und beweisen, dass es ein umfassenderes Maß für die Unvollständigkeit des Wissens über das grobe Set X ist. Gleichzeitig schlägt die Forschung den groben Grad des groben Sets vor;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30483-8_33 e00173374d6504c58a1b7777ad9eb69c;de;;;7.4.;;;Zum intelligenten maschinellen Lernen im dreidimensionalen Raum und in Anwendungen Die technischen Anwendungen von hochdimensionalen neuronalen Netzen werden in fast jedem Intelligenzsystemdesign sehr beliebt. Um nur einige zu nennen, sind Computer Vision, Robotik, biometrische Identifizierung, Steuerung, Kommunikationssystem und Vorhersage einige der wissenschaftlichen Gebiete, die künstliche neuronale Netze (KNN) nutzen, um intelligentes Verhalten zu emulieren. In der Computer Vision sind die Interpretation von 3D-Bewegungen, 3D-Transformationen und 3D-Gesichts- oder Objekterkennung wichtige Aufgaben. Es gab viele Methoden, um sie zu lösen, aber diese Methoden sind zeitaufwendig und rauscharm. Der Vorteil der Verwendung neuronaler Netze zur Objekterkennung ist die Möglichkeit eines Trainingssystems, die komplexe klassenbedingte Dichte von Mustern zu erfassen. Es wird wünschenswert sein, die Fähigkeiten von KNN zu erforschen, die dreidimensionale Informationen direkt verarbeiten können. Dieser Artikel diskutiert das maschinelle Lernen aus der Sicht eines 3D-vektorbewerteten neuronalen Netzes und entsprechender Anwendungen. Die Lern- und Generalisierungskapazität von hochdimensionalem KNN wird durch diverse Simulationsbeispiele bestätigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32909-8_38 9bcd76cbaef1db5f4bfe52fb25786447;de;;;7.4.;;;Forschung zur Methode der Teekrankheitserkennung basierend auf Deep Learning In diesem Beitrag wird das leichtgewichtige neuronale Netz der tiefen Faltung MobileNetV2 verwendet, um Teekrankheiten zu klassifizieren. Das aus dem MobileNetV2-Modell gewonnene Wissen über den PlantVillage-Datensatz zu Pflanzenblattkrankheiten wird auf die Aufgabe der Teekrankheitserkennung übertragen, indem die Idee des Transferlernens verwendet wird. Durch das Zusammenführen der BN-Schicht mit der Faltungsschicht wird die Modellstruktur vereinfacht und die Modellfolgerung beschleunigt. Die Tatsache, dass das auf MobileNetV2 basierende Modell der Teekrankheitsklassifikation auf die Android-Plattform übertragen wurde, führte zu einer höheren Erkennungsrate der Teekrankheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5073-7_12 c12e52bca6bd92e94b836f148334760d;de;;;7.4.;;;Deep-Transfer-Lernmodell für das automatisierte Screening von Gebärmutterhalskrebszellen mithilfe von Mehrzellbildern Beim automatisierten Screening von Gebärmutterhalskrebs unter Verwendung von mikroskopischen Rohbildern ist die Segmentierung einzelner Zellen zeitaufwendig und fehleranfällig. Daher ist ein automatisches Extrahieren einzelner Zellen während der Inferenzzeit nicht möglich. Die automatisierten Klassifizierungsmodelle, die auf der Extraktion von handgefertigten Merkmalen wie Textur, Morphologie usw. basieren, sind nicht immer sehr genau. In diesem Artikel wird ein auf Transfer-Lernen basierendes tiefes EfficientNet-Modell für das Screening von Gebärmutterhalskrebs ohne jegliche Segmentierung verwendet, um manuelle Fehler zu reduzieren und Zeitbeschränkungen zu verbessern. Zunächst wird das EfficientNet mit dem Datensatz trainiert, der Originalbilder aus dem ImageNet-Datensatz enthält, und dann mit dem Datensatz, der die mikroskopischen Bilder der Gebärmutterhalszellen enthält, die aus verschiedenen Kategorien von Gebärmutterhalszellen bestehen. Diese Methode wurde anhand des Herlev Pap-Abstrich-Datensatzes evaluiert. Anstatt wie bei früheren Methoden an einzelnen Zellen zu arbeiten, haben wir früher an Bildern mit mehreren Zellen gearbeitet. Die Anzahl der pro Zeiteinheit abgeleiteten Zellen nimmt drastisch zu. Die Ergebnisse zeigen, dass das EfficientNet-Modell bei der Klassifizierung gut abschneidet, wenn es auf den Herlev-Benchmark-Pap-Abstrich-Datensatz angewendet und mit einer zehnfachen Kreuzvalidierung bewertet wird. Das verwendete Modell ist hinsichtlich des Zeitbedarfs für die Inferenz im Vergleich zu anderen Methoden vielversprechend. Der Leistungsvergleich mit anderen Modellen zeigt, dass die Genauigkeit und die anderen von EfficientNet erzielten Werte mit reduzierter Verarbeitungszeit verbessert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-61702-8_28 e56dc9db89dee1f60399a774b487952f;de;;;7.4.;;;Die Herausforderungen des modernen Arbeitsplatzes: Eine schöne neue vernetzte Welt Trotz positiver Veränderungen ist der Arbeitsplatz für unser mentales Gleichgewicht immer anspruchsvoller geworden, auch weil wir ständig mit Informationen aus unserer beruflichen, privaten und medialen Welt bombardiert werden. In diesem Kapitel wird die neue Welt der intensiven Konnektivität diskutiert und wie die Technologie unsere Welt verändert und die Grenzen zwischen Arbeit und Zuhause verwischt hat, was manchmal zu psychischem Unwohlsein beiträgt. Wir fühlen uns verbundener und stimulierter, aber auch einsamer und verlorener als eine Zeit, in der wirtschaftliche und technologische Veränderungen unsere Arbeitsweise ständig verändern und viele Berufskategorien bedrohen. Dieses Kapitel stellt dann drei Arten von Beschäftigungsabbau vor und beschreibt sie und lädt den Leser ein, über die persönlichen Auswirkungen dieser Trends nachzudenken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-71541-4_3 52c410bcbf551d34b1327d079fc55328;de;;;7.4.;;;Towards the Edge Intelligence: Roboterassistent zur Erkennung und Klassifizierung menschlicher Emotionen Deep Learning hält in unserer Gesellschaft immer mehr Einzug. Heutzutage gibt es nur sehr wenige Anwendungen, die Deep Learning nicht als Klassifizierungswerkzeug verwenden. Einer der Hauptanwendungsbereiche konzentriert sich auf die Verbesserung der Lebensqualität der Menschen und ermöglicht die Schaffung persönlicher Assistenten mit vorgefertigten Vorteilen. In jüngerer Zeit, mit der Verbreitung von Mobile Computing und dem Aufkommen des Internets der Dinge (IoT), sind Milliarden von mobilen und IoT-Geräten mit dem Internet verbunden. Dies ermöglicht die Generierung von Millionen von Bytes an Informationen über Sensoren, Bilder, Töne usw. Angetrieben von diesem Trend besteht die dringende Notwendigkeit, die IoT-Grenzen an den Rand des Netzwerks zu verschieben, um dieses massive Senden von Informationen zu verringern zu großen Börsen zur Analyse. Als Ergebnis dieses Trends ist eine neue Disziplin entstanden: Edge Intelligence oder Edge AI, eine weithin anerkannte und vielversprechende Lösung, die mit besonderem Interesse die Gemeinschaft der Forscher im Bereich der künstlichen Intelligenz anzieht. Wir haben Edge-KI angepasst, um menschliche Emotionen zu klassifizieren. Die Ergebnisse zeigen, wie sehr die Edge-KI-basierte Emotionsklassifikation im Bereich kognitiver Assistenten für ältere oder allein lebende Menschen von großem Nutzen sein kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-51999-5_3 e5ab825ada76e59794da3bbdf421aa90;de;;;7.4.;;;Ein Machine-Learning-Parser mit einem nicht lexikalisierten Disstituentenmodell Trotz der Popularität lexikalisierter Parsing-Modelle verdienen nicht lexikalisierte Modelle, die sich nicht auf Wort-Tokens selbst beziehen, mehr Aufmerksamkeit. Es wurde ein auf Klassifikatoren basierender Parser entwickelt, der ein unlexikalisiertes Analysemodell verwendet. Um die Genauigkeit dieser Aufgaben zu verbessern, haben wir vor allem den Begriff der;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12116-6_11 ab1c38cb4ab35a8cb9063fa5e8f1425e;de;;;7.4.;;;Eine Bewertung von Dimensionsreduktionstechniken für die Einklassenklassifizierung Dimensionsreduktion (DR) ist bei der Verarbeitung von Daten in Bereichen wie Multimedia oder Bioinformatik wichtig, da solche Daten eine sehr hohe Dimension haben können. Die Dimensionsreduktion in einem überwachten Lernkontext ist insofern ein gut gestelltes Problem, als es ein klares Ziel gibt, eine reduzierte Darstellung der Daten zu entdecken, wo die Klassen gut getrennt sind. Im Gegensatz dazu ist DR in einem unbeaufsichtigten Kontext insofern schlecht gestellt, als das Oberziel weniger klar ist. Dennoch gibt es erfolgreiche unbeaufsichtigte DR-Techniken wie die Hauptkomponentenanalyse (PCA) – PCA hat das pragmatische Ziel, die Daten in eine reduzierte Anzahl von Dimensionen zu transformieren, die immer noch die meisten Variationen in den Daten erfassen. Während die Einklassenklassifizierung irgendwo zwischen den Kategorien überwachtes und unüberwachtes Lernen liegt, scheinen überwachte DR-Techniken wegen des Fehlens einer zweiten Klassenbezeichnung in den Trainingsdaten überhaupt nicht für die Einklassenklassifizierung anwendbar zu sein. In diesem Papier bewerten wir die Verwendung einer Reihe aktueller unbeaufsichtigter DR-Techniken für die Einklassenklassifikation und zeigen, dass Techniken, die auf;-;-;-;https://link.springer.com/article/10.1007/s10462-008-9082-5 a13d3f67940d4e50931fb2c07ece41d8;de;;;7.4.;;;Autoencoder-basiert auf Anomalieerkennung mit Intrusion Scoring für Smart Factory Umgebungen Die Industrie 4.0 und das industrielle IoT führen die neue industrielle Revolution an. Industrielle IoT-Technologien machen zuverlässigere und nachhaltigere Produkte als herkömmliche Produkte in der Automatisierungsindustrie. Industrielle IoT-Geräte übertragen Daten untereinander. Dieses Konzept ist für fortschrittliche Konnektivität und intelligente Sicherheitsdienste erforderlich. Wir konzentrieren uns auf die Sicherheitsbedrohung im Industrial IoT. Die allgemeinen Sicherheitssysteme ermöglichen es, normale Sicherheitsbedrohungen zu erkennen. Es ist jedoch nicht einfach, eine anomale Bedrohung oder ein Eindringen in das Netzwerk oder neue Hacking-Methoden zu erkennen. In dem Papier schlagen wir Autoencoder (AE) vor, die die Deep-Learning-basierte Anomalieerkennung mit Invasionsbewertung für die Smart Factory-Umgebungen verwenden. Wir haben den F-Score und die Genauigkeit zwischen dem Density Based Spatial Clustering of Applications with Noise (DBSCAN) und dem Autoencoder unter Verwendung des KDD-Datensatzes analysiert. Wir haben echte Daten von koreanischen Stahlunternehmen verwendet und die gesammelten Daten sind allgemeine Daten wie Temperatur, Stromfluss, Stöße von Maschinen usw. Schließlich zeigen Experimente, dass das vorgeschlagene Autoencoder-Modell besser ist als DBSCAN.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-5907-1_44 83104d4ebfde91e789b8da87459b4942;de;;;7.4.;;;Mining Numerische Daten – ein grober Ansatz Wir präsentieren einen Ansatz zum Mining numerischer Daten basierend auf der Grobmengentheorie unter Verwendung der Berechnung von Attribut-Wert-Blöcken. Ein Algorithmus, der diese Ideen implementiert, genannt MLEM2, induziert qualitativ hochwertige Regeln sowohl in Bezug auf Einfachheit (Anzahl der Regeln und Gesamtzahl der Bedingungen) als auch Genauigkeit. Darüber hinaus induziert MLEM2 Regeln nicht nur aus vollständigen Datensätzen, sondern auch aus Daten mit fehlenden Attributwerten, mit oder ohne numerische Attribute.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73451-2_3 781d8763d6b7bdae07d16dd66bf1a755;de;;;7.4.;;;Ein semantischer Hybridansatz, der auf der Gruppierung benachbarter Regionen und einer Kombination mehrerer Deskriptoren und Klassifikatoren für die automatische Bildannotation basiert Ein Großteil der Fotos im Internet ist aufgrund der semantischen Lücke mangels textueller Metadaten für Suchmaschinen nicht erreichbar. Trotz jahrzehntelanger Forschung kann keiner der modellbasierten Ansätze qualitativ hochwertige Annotationen für Bilder bereitstellen. Viele Segmentierungsalgorithmen verwenden Prädikate auf niedriger Ebene, um die Homogenität der Regionen zu steuern. Die resultierenden Regionen sind also nicht immer semantisch kompakt. Der erste vorgeschlagene Ansatz zur Lösung dieses Problems besteht darin, den angrenzenden Bildbereich neu zu gruppieren. Viele Merkmalsextraktionsverfahren und Klassifikatoren werden mit bescheidenen Ergebnissen auch einzeln für die automatische Bildanmerkung verwendet. Der zweite vorgeschlagene Ansatz besteht darin, einige effiziente Deskriptoren und Klassifikatoren auszuwählen und zu kombinieren. Dieses Dokument stellt ein hybrides semantisches Annotationssystem bereit, das beide Ansätze kombiniert, in der Hoffnung, die Genauigkeit der resultierenden Annotationen zu erhöhen. Die als Merkmalsextraktionsverfahren verwendeten Farbhistogramme, Textur, GIST und invariante Momente werden zusammen mit Multi-Class Support Vector Machine, Bayesian Networks, Neural Networks und Nearest Neighbour Classifiers kombiniert, um den Bildinhalt mit den entsprechenden Schlüsselwörtern zu versehen. Die Genauigkeit des vorgeschlagenen Ansatzes wird durch die guten experimentellen Ergebnisse aus zwei Bilddatenbanken (ETH-80- und Coil-100-Datenbanken) gestützt.;-;-;-;https://link.springer.com/article/10.1134/S1054661816020140 aa55a9ecc6d350a4a58bf12cca414415;de;;;7.4.;;;Vergleich von SVM und einigen älteren Klassifikationsalgorithmen in Textklassifizierungsaufgaben Die Dokumentenklassifizierung wurde bereits umfassend untersucht. Tatsächlich verglichen einige Studien Merkmalsauswahltechniken oder Merkmalsraumtransformation, während andere die Leistung verschiedener Algorithmen verglichen. Aufgrund des steigenden Interesses an der Support Vector Machine haben kürzlich verschiedene Studien gezeigt, dass SVM andere Klassifikationsalgorithmen übertrifft. Sollten wir uns also nicht um andere Klassifikationsalgorithmen kümmern und uns immer für SVM entscheiden?;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34747-9_18 276b12778de045eccff729f6639fd537;de;;;7.4.;;;Mining Numerical Data – Ein grober Ansatz Wir präsentieren einen Ansatz zum Mining numerischer Daten basierend auf der Grobmengentheorie unter Verwendung der Berechnung von Attribut-Wert-Blöcken. Ein Algorithmus, der diese Ideen implementiert, genannt MLEM2, induziert qualitativ hochwertige Regeln sowohl in Bezug auf Einfachheit (Anzahl der Regeln und Gesamtzahl der Bedingungen) als auch Genauigkeit. MLEM2 induziert Regeln nicht nur aus vollständigen Datensätzen, sondern auch aus Daten mit fehlenden Attributwerten, mit oder ohne numerische Attribute. Darüber hinaus präsentieren wir experimentelle Ergebnisse zu einem Vergleich von drei häufig verwendeten Diskretisierungstechniken: gleiche Intervallbreite, gleiche Intervallfrequenz und minimale Klassenentropie (alle drei Methoden wurden mit dem LEM2-Regelinduktionsalgorithmus kombiniert) mit MLEM2. Unsere Schlussfolgerung ist, dass, obwohl MLEM2 am häufigsten ein Gewinner war, die Unterschiede zwischen allen vier Data-Mining-Methoden statistisch unbedeutend sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11479-3_1 cd381fec91da53b944b50dc5a5c58d00;de;;;7.4.;;;Hybrid Intelligent System Tool zur Verbesserung des technologischen Wachstums im Wissenschafts- und Technologiesektor (W&T) durch Identifizierung der Lücke Eine vorrangige Analyse und Vorhersage ist erforderlich, um das stetige Wachstum im Wissenschafts- und Technologiesektor (W&T) zu untersuchen. Dies geschieht durch die Entwicklung eines Instruments der künstlichen Intelligenz, um das technologische Wachstum durch Untersuchung und Vergleich von Verhaltensfaktoren von zeitlichen und aktuellen Daten zu unterstützen. Holen Sie sich die epidemiologische, zeitliche und Kohortenstudie zum technologischen Wachstum (TG) in Sektoren wie Umweltingenieurwissenschaften (EES), Gesundheitsingenieurwesen (HE), Energie- und Ressourcentechnik (EE) und Agrartechnik (AE), um Abweichungen zu finden Verhaltensdaten von Habitaten zur Beobachtung und Analyse zur Stärkung des technologischen Wachstums (TG). Kenntnisse über Deep Learning in hybriden intelligenten Systemtools sind ein Alarm und ein Pflaster für intelligente, gesunde und hochwertige Innovationen, um die voneinander abhängigen Fallstricke zu überwinden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8752-8_31 9d72cbcd0fb857df09d9f0a65d1fbe31;de;;;7.4.;;;Data-Mining-Methode zur Vorhersage der Vorfalldauer Strategien für das Verkehrsstörungsmanagement und die Informationsverbreitung werden von der Vorhersage der Störungsdauer in Echtzeit profitieren. Diese Studie untersucht die Entwicklung eines Vorhersagemodells für die Ereignisdauer basierend auf einer detaillierten historischen Ereignisdatenbank. Zur Entwicklung der Vorhersagemodelle wurde eine Data-Mining-Technik, nämlich das Bayesian Network, angewendet. Die Analyseergebnisse legen nahe, dass das Bayessche Netzwerkmodell in Bezug auf eine genaue Vorhersage und den Anwendungskomfort vorteilhaft ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23214-5_64 a7b65f7d49665f97476c5c3f83d253a7;de;;;7.4.;;;Multi-Label-Klassifizierung mit Genexpressionsprogrammierung In diesem Papier stellen wir einen Gene Expression Programming-Algorithmus für die Multi-Label-Klassifizierung vor. Dieser Algorithmus kodiert jedes Individuum in eine Diskriminanzfunktion, die anzeigt, ob ein Muster zu einer bestimmten Klasse gehört oder nicht. Der Algorithmus wendet auch eine Nischentechnik an, um sicherzustellen, dass die Population Funktionen für jede vorhandene Klasse enthält. Um die Qualität unseres Algorithmus zu bewerten, wird seine Leistung mit der von vier kürzlich veröffentlichten Algorithmen verglichen. Die Ergebnisse zeigen, dass unser Vorschlag in Bezug auf Genauigkeit, Präzision und Erinnerung am besten ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02319-4_76 8a28b52e9f6e61584e5ecd9f87bcbcfd;de;;;7.4.;;;Bewaffnete Drohnen: Automatisierung, Autonomie und ethische Entscheidungsfindung Dr. Peter Lee ist Direktor für Sicherheits- und Risikoforschung an der University of Portsmouth, Großbritannien. Er ist spezialisiert auf Ethik und Ethos der Drohnenkriegsführung, Politik und Ethik von Krieg und militärischer Intervention sowie Politik und Ethik der Identität. Derzeit forscht er mit RAF-Reaper-Drohnen-Crews für sein nächstes Buch, das die Geschichte der ersten 10 Jahre des britischen Drohnenbetriebs aus der Perspektive der Betreiber erzählen wird. Peter wird regelmäßig eingeladen, über dieses und andere Themen vor Militär, Wissenschaft, Politik, Religion, Medien und einem breiteren Publikum zu sprechen. 2012 veröffentlichte er;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-51466-6_14 544c0affe8286abfa62c66eb26e6d7a7;de;;;7.4.;;;Vergleichende Bewertung der Klassifikationsmethoden des Supervised Machine Learning und der Concept Drift Detection Methoden in den Financial Business Problems Methoden des maschinellen Lernens sind wichtige Werkzeuge, um bei der Entscheidungsfindung bei Finanzgeschäftsproblemen wie Risikoanalyse, Betrugserkennung und Kreditbewertungen zu helfen, den Zeit- und Arbeitsaufwand zu reduzieren und die Genauigkeit zu erhöhen. Klassifikationsmethoden mit überwachtem maschinellem Lernen lernen Muster in Daten, um die Vorhersage zu verbessern. Langfristig können sich die Datenmuster in einem als Konzeptdrift bekannten Prozess ändern, wobei die Änderungen ein erneutes Training der Klassifizierungsmethoden erfordern, um ihre Genauigkeit beizubehalten. Wir führten eine vergleichende Studie mit zwölf Klassifizierungsmethoden und sieben Methoden zur Erkennung von Konzeptdriften durch. Die evaluierten Methoden sind Gaussian and Incremental Naive Bayes, Logistic Regression, Support Vector Classifier, k-Nearest Neighbors, Decision Tree, Random Forest, Gradient Boosting, XGBoost, Multilayer Perceptron, Stochastic Gradient Descent und Hoeffding Tree. Die analysierten Methoden zur Erkennung von Konzeptdrifts sind ADWIN, DDM, EDDM, HDDMa, HDDMw, KSWIN und Page Hinkley. Wir haben das Hyperparameter-Optimierungs-Framework der nächsten Generation Optuna verwendet und den nicht-parametrischen Friedman-Test angewendet, um Hypothesen abzuleiten, und Nemeyni als Post-hoc-Test, um die Ergebnisse zu validieren. Wir haben fünf Datensätze im Finanzbereich verwendet. Mit den Leistungsmetriken der F1- und AUROC-Werte für die Klassifizierung übertraf XGBoost andere Methoden in den Klassifizierungsexperimenten. In den Datenstromexperimenten mit Konzeptdrift unter Verwendung der Genauigkeit als Leistungsmetriken zeigten Hoeffding Tree und XGBoost die besten Ergebnisse mit den Methoden zur Erkennung von Konzeptdrifts HDDMw, KSWIN und ADWIN. Wir kommen zu dem Schluss, dass XGBoost mit HDDMw die empfohlene Kombination ist, wenn Finanzdatensätze mit Konzeptdriften auftreten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-75418-1_13 15f7f33ba225494db6a3955ae56968cb;de;;;7.4.;;;Multimodales Deep Learning für robustes Erkennen maritimer Bilder im sichtbaren und Infrarotspektrum Die robuste Erkennung von Objekten ist ein wesentlicher Bestandteil vieler maritimer Videoüberwachungssysteme. Dieses Papier baut auf den jüngsten Fortschritten bei Convolutional Neural Networks (CNN) auf und schlägt eine neue Architektur des sichtbaren Infrarotspektrums zur Schiffserkennung vor. Unsere Architektur besteht aus zwei separaten CNN-Verarbeitungsströmen, die nacheinander mit einem Merge-Netzwerk kombiniert werden. Diese Zusammenführung ermöglicht die Durchführung der Klassifikation und liefert reichhaltige semantische Informationen wie das Erscheinungsbild. Es ermöglicht auch, einige Probleme in Bezug auf die Qualität der sichtbaren Bilder aufgrund der Wetterbedingungen (Regen, Nebel usw.) und der sehr komplexen maritimen Umgebung (Schaum usw.) zu beheben. Mit dieser Architektur erreichen wir eine durchschnittliche Erkennungsgenauigkeit von 87%.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-93000-8_27 aed1b383cc8fcceae1a9f994a7346aa8;de;;;7.4.;;;Paralleles und verteiltes Spatial Outlier Mining in Grid: Algorithmus, Design und Anwendung Das Interesse am parallelen und verteilten Data Mining in Grid-Umgebungen ist in den letzten zehn Jahren gestiegen. Als wichtiger Zweig des Spatial Data Mining kann Spatial Outlier Mining verwendet werden, um in vielen Anwendungen einige interessante und unerwartete räumliche Muster herauszufinden. In diesem Beitrag wird ein neuer paralleler & verteilter Spatial Outlier Mining Algorithmus (PD-SOM) vorgeschlagen, um gleichzeitig globale und lokale Ausreißer in einer Grid-Umgebung zu erkennen. PD-SOM ist ein auf Delaunay-Triangulation (D-TIN) basierender Ansatz, der gekapselt und in einer verteilten Plattform bereitgestellt wurde, um einen parallelen und verteilten Spatial-Outlier-Mining-Service bereitzustellen. Anschließend wird ein verteiltes System-Framework für PD-SOM auf einem von unserer Forschungsgruppe entwickelten geografischen Wissensservice-Grid (GeoKSGrid) entworfen, eine zweistufige Strategie zur Erkennung von räumlichen Ausreißern vorgestellt, um die Kapselung und verteilte Bereitstellung des geografischen Wissensdienstes und zwei Schlüsseltechniken des geografischen Wissensdienstes: paralleles und verteiltes Rechnen der Delaunay-Triangulation und die Implementierung des PD-SOM-Algorithmus werden diskutiert. Schließlich wird die Effizienz des Spatial Outlier Mining Services theoretisch analysiert, die Praxistauglichkeit wird durch eine demonstrative Anwendung auf die Abnormalitätsanalyse von geochemischen Bodenuntersuchungsproben aus dem östlichen Küstengebiet von Fujian in China sowie die Wirksamkeit und Überlegenheit von PD-SOM . bestätigt in einer ausgewogenen, skalierbaren Grid-Umgebung werden durch den Vergleich mit dem populären Spatial Outlier Mining Algorithmus SLOM für die Einbeziehung einer großen Anzahl von Rechenkernen verifiziert.;-;-;-;https://link.springer.com/article/10.1007/s10723-015-9326-y eaa4445fa31a94389e94591561d24007;de;;;7.4.;;;Stillschweigendes Lernen – Maschinelles Lernparadigma basierend auf den Prinzipien des biologischen Lernens Anpassungen an unvorhersehbare Umweltveränderungen ermöglichen lebenden Organismen das Überleben in ihrer natürlichen Umgebung und sind daher für sie alle von höchster Priorität. In der langen Evolutionsgeschichte haben lebende Organismen Regulationssysteme entwickelt, die ihre Aktivitäten der Umwelt anpassen können und dadurch ihre Aktivitätsfelder auf fast alle Orte der Erde ausdehnen konnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12922-8_8 08e1a3c194825ce283c5ce2fee7fe11a;de;;;7.4.;;;Eine fallbasierte Technik zur Verfolgung von Konzeptabweichungen bei der Spamfilterung Es ist klar, dass maschinelle Lerntechniken eine wichtige Rolle beim Filtern von Spam-E-Mails spielen können, da reichlich Trainingsdaten zur Verfügung stehen, um einen robusten Klassifikator zu erstellen. Die Spamfilterung ist jedoch eine besonders anspruchsvolle Aufgabe, da sich die Datenverteilung und das erlernte Konzept im Laufe der Zeit ändern. Dies ist eine besonders unangenehme Form der Konzeptverschiebung, da die Änderung von Spammern getrieben wird, die die Spamfilter umgehen möchten. In diesem Beitrag zeigen wir, dass Lazy-Learning-Techniken für solche sich dynamisch verändernden Kontexte geeignet sind. Wir präsentieren ein fallbasiertes System zur Spamfilterung namens ECUE, das dynamisch lernen kann. Wir bewerten seine Leistung, während die Fallbasis mit neuen Fällen aktualisiert wird. Wir untersuchen auch den Vorteil, den Feature-Auswahlprozess regelmäßig zu wiederholen, um neue Features ins Spiel zu bringen. Unsere Auswertung zeigt, dass diese beiden Ebenen der Modellaktualisierung wirksam sind, um Konzeptabweichungen zu verfolgen.;-;-;-;https://link.springer.com/chapter/10.1007/1-84628-103-2_1 3347941ee69900295f7b94a395041b57;de;;;7.4.;;;Eine neuartige Merkmalsauswahl und Attributreduktion basierend auf dem hybriden IG-RS-Ansatz Dokumentenvorverarbeitung und Featureauswahl sind das Hauptproblem im Bereich Data Mining, Machine Learning und Mustererkennung. Die Feature-Subset-Auswahl wird zu einem wichtigen Teil der Vorverarbeitung im Bereich Data Mining. Um die Dimensionalität des Merkmalsraums zu reduzieren und die Leistung zu verbessern, wird daher die Dokumentvorverarbeitung, Merkmalsauswahl und Attributreduktion ein wichtiger Parameter. Um das Problem der Dokumentenvorverarbeitung, Merkmalsauswahl und Attributreduktion zu überwinden, wird ein theoretischer Rahmen basierend auf dem hybriden Information Gain-Rough Set (IG-RS)-Modell vorgeschlagen. In dieser Arbeit wird zum einen die Dokumentenvorverarbeitung vorbereitet, zum anderen wird ein Informationsgewinn verwendet, um die Bedeutung des Merkmals einzustufen. In der dritten Stufe wird ein Nachbarschafts-Rough-Set-Modell verwendet, um den unteren und oberen Näherungswert zu bewerten. In der vierten Stufe wird ein Algorithmus zur Attributreduktion basierend auf einem groben Setmodell vorgeschlagen. Experimentelle Ergebnisse zeigen, dass die modellbasierte Hybridmethode IG-RS flexibler im Umgang mit Dokumenten ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13731-5_59 2efc99ce76192054472237f903fb64c2;de;;;7.4.;;;Panorama der Optimierungs-, Steuerungs- und Lernalgorithmen für voneinander abhängige SWEET-Netzwerke (Gesellschaft, Wasser, Energie, Wirtschaft und Verkehr) In diesem Kapitel führe ich zunächst einen allgemeinen Überblick über interdependente SWEET-Netzwerke ein, einschließlich gesellschaftlicher Netzwerke als Drehscheibe in intelligenten Städten, Wassernetzwerke, Energienetzwerke (z. B. Stromsysteme und Gasnetzwerke), Wirtschaftsnetzwerke, die Finanztransaktionen zwischen Unternehmen in andere Netze und Verkehrsnetze. Anschließend erkläre ich, wie Optimierung, Lernen und Datenanalyse den voneinander abhängigen Betrieb dieser Netzwerke verbessern können. Dieses Kapitel bietet auch einen Überblick über dieses Buch und seine beiden Hauptteile: theoretische Algorithmen und reale Anwendungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-34094-0_1 10bfc1d3e17f88b2804e6e968c7f64c6;de;;;7.4.;;;Effektivität von Methoden zur syntaktischen und semantischen Erkennung von Zahlenketten: Kompromisse zwischen der Anzahl der Merkmale und der Länge von Wort-N-Grammen Dieser Artikel beschreibt und vergleicht die Verwendung von Methoden, die auf N-Grammen (insbesondere Trigrammen und Pentagrammen) basieren, zusammen mit fünf Merkmalen, um die syntaktischen und semantischen Kategorien von Zahlenfolgen zu erkennen, die Geld, Zahl, Datum usw. in Texten darstellen. Das System verwendet drei Interpretationsprozesse: Wort-N-Gramm-Konstruktion mit einem Tokenisierer, regelbasierte Verarbeitung von Zahlenfolgen und N-Gramm-basierte Klassifikation. Wir haben Zahlenketten aus 1.111 Online-Zeitungsartikeln extrahiert. Für die Interpretation von Zahlenfolgen haben wir 112 (10 %) von 1.111 Artikeln ausgewählt, um ungesehene Testdaten (1.278 Zahlenfolgen) bereitzustellen, und haben die verbleibenden 999 Artikel verwendet, um 11.525 Zahlenfolgen bereitzustellen, die beim Extrahieren von N-Gramm-basierten Beschränkungen verwendet werden, um Bedeutungen zu eindeutigen der Ziffernfolgen. Die Wort-Trigramme-Methode führte zu 83,8% Präzision, 81,2% Recall Ratio und 82,5% F-Mess Ratio. Die Wort-Pentagramm-Methode ergab eine Präzision von 86,6%, eine Rückrufquote von 82,9% und eine F-Messungsquote von 84,7%.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76928-6_46 123e4f6838600ab2100badefb849b366;de;;;7.4.;;;Affektive Intelligenz: Das menschliche Gesicht der KI Affective Computing ist seit einigen Jahren ein äußerst aktives Forschungs- und Entwicklungsgebiet, wobei einige der frühen Ergebnisse bereits in Mensch-Computer-Interaktionssysteme integriert werden. Angetrieben vor allem durch Forschungsinitiativen in Europa, USA und Japan und beschleunigt durch die Fülle an Rechenleistung und kostengünstige, unaufdringliche Sensoren wie Kameras und Mikrofone, affektive Computing-Funktionen interdisziplinär, Austausch von Konzepten aus unterschiedlichen Bereichen wie Signalverarbeitung und Computer Vision, Psychologie und Verhaltenswissenschaften, Mensch-Computer-Interaktion und -Design, maschinelles Lernen und so weiter. Um Beziehungen zwischen Low-Level-Eingangssignalen und Merkmalen zu High-Level-Konzepten wie Emotionen oder Stimmungen herzustellen, muss man die Vielzahl von Psychologie- und Darstellungstheorien und damit verbundenen Forschungsergebnissen berücksichtigen und Techniken des maschinellen Lernens einsetzen, um tatsächlich bilden Rechenmodelle davon. In diesem Kapitel werden die Konzepte des Affektiven Computings erläutert, wie diese über Repräsentationsmodelle mit messbaren Merkmalen verbunden und in nutzerzentrierte Anwendungen integriert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03226-4_4 2bda2034a43362fcc12fe5f15f6ceddc;de;;;7.4.;;;Evolutionäre Hot Spots Data Mining Data Mining liefert neuartiges und nützliches Wissen aus sehr großen Datensammlungen. Die Aufgabe wird oft dadurch charakterisiert, dass sie Schlüsselbereiche innerhalb eines sehr großen Datensatzes identifiziert, die eine gewisse Bedeutung haben oder für die Dateneigentümer anderweitig interessant sind. Wir nennen dies Hotspots Data Mining. Data-Mining-Projekte beginnen normalerweise mit schlecht definierten Zielen, die vage in Bezug auf interessante Entdeckungen ausgedrückt werden. Die eigentlichen Ziele werden im Verlauf des Prozesses verfeinert und geklärt. Data Mining ist ein explorativer Prozess, bei dem sich die Ziele ändern können, und solche Änderungen können sich auf den untersuchten Datenraum auswirken. In diesem Papier stellen wir einen Ansatz für das Data Mining vor, bei dem die Entwicklung des Ziels selbst Teil des Problemlösungsprozesses ist. Wir schlagen einen evolutionären Ansatz für das Data Mining an Hotspots vor, bei dem sowohl das Maß der Interessantheit als auch die Beschreibungen von Gruppen in den Daten unter dem Einfluss eines Benutzers entwickelt werden, der das System zu wichtigen Entdeckungen führt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48912-6_26 25db2a60a227e1a727e8e48a8abd9e54;de;;;7.4.;;;Machine Learning Unterstützung für die menschliche Artikulation von Konzepten anhand von Beispielen – Ein Lernrahmen Wir wollen zeigen, dass Methoden des maschinellen Lernens sinnvolles Feedback geben können, um den Schülern zu helfen, Konzepte anhand von Beispielen, insbesondere anhand von Bildern, zu artikulieren. Daher präsentieren wir hier einen Rahmen zur Unterstützung des Lernens durch menschliche visuelle Klassifikationen und maschinelle Lernmethoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13166-0_12 f3c9ec58fb985a3998f5a0ae7f56ed2b;de;;;7.4.;;;Funktionslose End-to-End-Extraktion verschachtelter BegriffeTerm In diesem Papier haben wir eine Deep-Learning-basierte End-to-End-Methode zur domänenspezifischen automatischen Termextraktion (ATE) vorgeschlagen, die mögliche Termspannen innerhalb einer festen Länge im Satz berücksichtigt und vorhersagt, ob es sich um konzeptionelle Terme handeln kann. Im Vergleich zu aktuellen ATE-Methoden unterstützt das Modell die Extraktion von verschachtelten Termen und benötigt nicht unbedingt zusätzliche (extrahierte) Merkmale. Die Ergebnisse zeigen, dass mit der Eingabe von segmentiertem Rohtext ein hoher Erinnerungswert und eine vergleichbare Präzision bei der Termextraktionsaufgabe erreicht werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-32236-6_55 112146edb7362a51e0a595c269354746;de;;;7.4.;;;Ein Multi-Label-Klassifizierungsalgorithmus basierend auf etikettenspezifischen Merkmalen Mit Blick auf das Problem der Multi-Label-Klassifizierung wird in diesem Papier ein Multi-Label-Klassifizierungsalgorithmus vorgeschlagen, der auf etikettenspezifischen Merkmalen basiert. In diesem Algorithmus berechnen wir zuerst die Merkmalsdichte für die positiven und negativen Instanzen jeder Klasse und wählen dann then;-;-;-;https://link.springer.com/article/10.1007/s11859-011-0791-2 b8a58b6ce2b9e81ce27e242bb8b68442;de;;;7.4.;;;Eine Auswahlmethode zur Rauschunterdrückung von Auto-Encoder-Funktionen mit Kreuzentropie Genexpressionsdaten enthalten viel Rauschen und redundante Informationen, die die Genauigkeit des Klassifikationsmodells verringern. Der Auto-Encoder mit Rauschunterdrückung kann verwendet werden, um die Dimension für hochdimensionale Genexpressionsdaten zu reduzieren und High-Level-Features mit starker Klassifikationsfähigkeit zu erhalten. Um weiterhin ein besseres Klassifikationsmodell zu erhalten, wird ein High-Level-Merkmalsauswahlverfahren basierend auf Informationskreuzentropie vorgeschlagen. Erstens wird ein Autocodierer mit Rauschunterdrückung verwendet, um hochdimensionale Originaldaten zu codieren, um High-Level-Features zu erhalten. Dann werden die High-Level-Merkmale mit niedriger Kreuzentropie ausgewählt, um die niedrigdimensionale Abbildung der Originaldaten zu erhalten, die verwendet wird, um optimierte und vereinfachte Klassifizierungsmodelle zu generieren. Die durch den Rauschunterdrückungs-Autocodierer erhaltenen High-Level-Merkmale können die Genauigkeit des Klassifizierungsmodells verbessern, und die Auswahl von High-Level-Merkmalen kann die Verallgemeinerungsfähigkeit des Klassifizierungsmodells verbessern. Die Klassifikationsgenauigkeit der neuen Methode unter verschiedenen Corruption Level-Werten und Selektionsraten wird experimentell untersucht. Experimentelle Ergebnisse zu mehreren Genexpressionsdatensätzen zeigen, dass die vorgeschlagene Methode effektiv ist. Im Vergleich zu klassischen und exzellenten mRMR- und SVM-RFE-Algorithmen zeigt die vorgeschlagene Methode außerdem eine bessere Genauigkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-26766-7_44 0876774c9275ea1ce51675a9d7abe8a1;de;;;7.4.;;;Deep Transfer Learning: ein neuartiger Rahmen für die Glukosevorhersage für neue Patienten mit Typ-2-Diabetes Die Vorhersage des Blutzuckers (BZ) ist ein wirksamer Ansatz, um Hyper- und Hypoglykämien zu vermeiden und ein intelligentes Glukosemanagement für Patienten mit Typ-1- oder schwerem Typ-2-Diabetes zu erreichen. Jüngste Studien haben dazu tendiert, Deep-Learning-Netzwerke einzusetzen, um verbesserte Vorhersagemodelle und genauere Vorhersageergebnisse zu erhalten, für die oft erhebliche Mengen an historischen Daten zur kontinuierlichen Glukoseüberwachung (CGM) erforderlich waren. Für neue Patienten mit begrenzten historischen Datensätzen wird es jedoch schwierig, ein akzeptables Deep-Learning-Netzwerk für die Glukosevorhersage aufzubauen. Ziel dieser Studie war es daher, ein neuartiges Vorhersage-Framework mit instanzbasiertem und netzwerkbasiertem Deep-Transfer-Learning für die fächerübergreifende Glukosevorhersage basierend auf segmentierten CGM-Zeitreihen zu entwerfen. Unter Berücksichtigung der Auswirkungen der Biodiversität wurde Dynamic Time Warping (DTW) angewendet, um den richtigen Quelldomänendatensatz zu bestimmen, der den größten Ähnlichkeitsgrad für neue Themen aufweist. Danach wurde eine netzwerkbasierte Deep-Transfer-Learning-Methode mit domänenübergreifenden Datensätzen entwickelt, um ein personalisiertes Modell kombiniert mit verbesserter Generalisierungsfähigkeit zu erhalten. In einer Fallstudie zeigte der klinische Datensatz, dass das vorgeschlagene Deep-Transfer-Learning-Framework mit zusätzlichen segmentierten Datensätzen von anderen Probanden genauere Glukosevorhersagen für neue Probanden mit Typ-2-Diabetes ermöglichte.;-;-;-;https://link.springer.com/article/10.1007/s40747-021-00360-7 1f16e0335d628057df37890c5d0708c0;de;;;7.4.;;;Ein intelligentes Multi-Agent-Design im Gesundheitsmanagementsystem In den letzten Jahren wurde der Multi-Agenten-Ansatz erfolgreich bei der Entwicklung großer komplexer Systeme eingesetzt. Daher kann der Multi-Agenten-Ansatz als effektiver Ansatz für die Entwicklung komplexer E-Health-Systeme angesehen werden. Der Zweck dieser Studie besteht darin, den Einsatz eines intelligenten Multi-Agenten-Ansatzes für die Entwicklung von E-Health-Systemen zur Vorhersage von Nierentransplantationsergebnissen und zum Management chronischer Krankheiten wie Diabetes zu untersuchen. Die vorgeschlagene Vorhersage des Nierentransplantationsergebnisses basiert auf der Verwendung eines neuartigen Klassifikationsansatzes, der eine Kombination aus anfänglicher Datenaufbereitung, vorläufiger Klassifizierung durch Ensembles neuronaler Netze, Generierung neuer Trainingsdaten basierend auf Kriterien hoher Genauigkeit und Modellübereinstimmung und Entscheidung ist Bäume.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78582-8_68 e87834fdbac2e6dd687f84e2d0d22797;de;;;7.4.;;;Lokalisieren der 2D-Ultraschallsonde aus Ultraschallbildsequenzen mit Deep Learning zur Volumenrekonstruktion In diesem Artikel wird eine Ultraschall-(US-)Volumenrekonstruktionsmethode nur aus US-Bildsequenzen unter Verwendung von Deep Learning vorgestellt. Das vorgeschlagene Verfahren verwendet das Convolutional Neural Network (CNN), um die Position einer 2D-US-Sonde nur aus US-Bildern abzuschätzen. Unser CNN-Modell besteht aus zwei Netzwerken: Merkmalsextraktion und Bewegungsschätzung. Wir führen auch die Konsistenzverlustfunktion ein, um sie zu erzwingen. Durch eine Reihe von Experimenten mit US-Bildsequenzdatensätzen mit Ground-Truth-Bewegung, die von einem Motion-Capture-System gemessen wurde, zeigen wir, dass die vorgeschlagene Methode im Vergleich zur herkömmlichen Methode die effiziente Leistung bei der Sondenlokalisierung und Volumenrekonstruktion aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-60334-2_10 b45b09f1c36791d070412f4c8b95e1db;de;;;7.4.;;;Argumentation unter Unsicherheit: Auf dem Weg zum kollaborativen interaktiven maschinellen Lernen In diesem Papier präsentieren wir den aktuellen Stand der Technik der Entscheidungsfindung (DM) und des maschinellen Lernens (ML) und überbrücken die beiden Forschungsdomänen, um einen integrierten Ansatz zur komplexen Problemlösung basierend auf menschlichen und computergestützten Agenten zu schaffen. Wir präsentieren eine neuartige Klassifikation von ML, die den Human-in-the-Loop in interaktivem ML (iML) und spezieller auf kollaborativem interaktivem ML (ciML) betont, das wir als eine tief integrierte Version von iML verstehen, in der Menschen und Algorithmen arbeiten Hand in Hand, um komplexe Probleme zu lösen. Sowohl Menschen als auch Computer haben spezifische Stärken und Schwächen und die Integration von Menschen in maschinelle Lernprozesse könnte ein sehr effizienter Weg sein, um Probleme anzugehen. Dieser Ansatz birgt immenses Forschungspotenzial für verschiedene Domänen, z. B. in der Gesundheitsinformatik oder in industriellen Anwendungen. Wir skizzieren offene Fragen und benennen zukünftige Herausforderungen, die von der Forschungsgemeinschaft angegangen werden müssen, um den Einsatz von kollaborativem interaktivem maschinellem Lernen zur Problemlösung im großen Maßstab zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-50478-0_18 8c6a7ec3f2fae0106ee04b59aa49c533;de;;;7.4.;;;Jüngste Fortschritte bei der effizienten Berechnung von Deep Convolutional Neural Networks Tiefe neuronale Netze haben sich in den letzten Jahren bemerkenswert weiterentwickelt und sind derzeit die grundlegenden Werkzeuge vieler intelligenter Systeme. Gleichzeitig nehmen die Rechenkomplexität und der Ressourcenverbrauch dieser Netze weiter zu. Dies stellt eine erhebliche Herausforderung für die Bereitstellung solcher Netzwerke dar, insbesondere in Echtzeitanwendungen oder auf Geräten mit begrenzten Ressourcen. Daher ist die Netzwerkbeschleunigung zu einem heißen Thema innerhalb der Deep-Learning-Community geworden. Was die Hardwareimplementierung von tiefen neuronalen Netzen betrifft, wurde in den letzten Jahren eine Reihe von Beschleunigern vorgeschlagen, die auf einem feldprogrammierbaren Gate-Array (FPGA) oder einer anwendungsspezifischen integrierten Schaltung (ASIC) basieren. In diesem Whitepaper geben wir einen umfassenden Überblick über die jüngsten Fortschritte bei der Netzwerkbeschleunigung, -komprimierung und dem Beschleunigerdesign sowohl aus Algorithmus- als auch aus Hardwaresicht. Insbesondere bieten wir eine gründliche Analyse jedes der folgenden Themen: Netzwerk-Pruning, Low-Rank-Approximation, Netzwerk-Quantisierung, Lehrer-Schüler-Netzwerke, kompaktes Netzwerkdesign und Hardwarebeschleuniger. Abschließend stellen wir einige mögliche zukünftige Richtungen vor und diskutieren diese.;-;-;-;https://link.springer.com/article/10.1631/FITEE.1700789 713d758829a3fa36321cdd52462cbe83;de;;;7.4.;;;Ein grafikbasierter CNN-LSTM-Aktienkursvorhersagealgorithmus mit Frühindikatoren In der heutigen Gesellschaft ist das Investment Wealth Management zu einem Mainstream der heutigen Zeit geworden. Investment Wealth Management bezieht sich auf die Verwendung von Geldern durch Anleger, um Geldmittel vernünftig zu arrangieren, z. B. Spareinlagen, Bankfinanzprodukte, Anleihen, Aktien, Rohstoffe, Immobilien, Gold, Kunst und viele andere. Vermögensverwaltungstools verwalten und weisen Familien, Einzelpersonen, Unternehmen und Institutionen zu, um den Wert zu steigern und zu erhalten und das Vermögenswachstum zu beschleunigen. Unter ihnen, im Investment- und Finanzmanagement, das beliebteste Anlageprodukt der Menschen, sind oft Aktien, da der Aktienmarkt große Vorteile und Charme hat, insbesondere im Vergleich zu anderen Anlagemethoden. Immer mehr Wissenschaftler haben Methoden zur Vorhersage aus mehreren Blickwinkeln für den Aktienmarkt entwickelt. Entsprechend dem Merkmal von Finanzzeitreihen und der Aufgabe der Preisvorhersage schlägt dieser Artikel eine neue Rahmenstruktur vor, um eine genauere Vorhersage des Aktienkurses zu erreichen, die Convolution Neural Network (CNN) und Long-Short-Term Memory Neural Networkral kombiniert (LSTM). Dieses neue Verfahren wird treffend als Stock Sequence Array Convolutional LSTM (SACLSTM) bezeichnet. Es erstellt ein Sequenzarray historischer Daten und seiner führenden Indikatoren (Optionen und Futures) und verwendet das Array als Eingabebild des CNN-Frameworks und extrahiert bestimmte Merkmalsvektoren durch die Faltungsschicht und die Poolingschicht sowie als Eingabe Vektor von LSTM und nimmt zehn Aktien in den USA und Taiwan als experimentelle Daten. Im Vergleich zu früheren Methoden führt die Vorhersageleistung des in diesem Artikel vorgeschlagenen Algorithmus im direkten Vergleich zu besseren Ergebnissen.;-;-;-;https://link.springer.com/article/10.1007/s00530-021-00758-w dd621093c8b0b22df8b1a890cf6fd215;de;;;7.4.;;;Ethik für automatisierte Finanzmärkte Finanzmärkte sind heute Ökologien von Handelsalgorithmen. In diesem Kapitel schlagen wir Markteffektivität als ethisches Ziel automatisierter Märkte vor und überprüfen die professionelle, organisatorische und branchenweite Ethik in diesem Bereich. Wir präsentieren Kriterien für ein umsichtiges und ethisches automatisiertes Handelssystem. Wir argumentieren, dass sich eine Ökologie solcher Systeme ohne übermäßige Regulierung entwickeln wird, um das Effektivitätsziel zu fördern. Dies geschieht weitgehend bereits. Dann blicken wir in die Zukunft und untersuchen neue Fragestellungen rund um den Einsatz künstlicher Intelligenz und alternativer Datenquellen sowie mögliche Handlungsoptionen. Wie auch immer sich Märkte entwickeln, solange ihre Effektivität, wie wir sie definieren, zunimmt, sollte das Ergebnis der Gesellschaft zugute kommen.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-030-00001-1_18-1 37fb869fabdf9e7ce255f2f1e94cd0ba;de;;;7.4.;;;Ein quantenmechanisches Klassifikatormodell für Diabetes Dieses Papier demonstriert die Vorteile des maschinellen Quantenlernens unter Verwendung des Quantenküchensenken-(QKS)-Algorithmus. Quantum Machine Learning (QML) wird zusammen mit dem QKS implementiert, um die Genauigkeit mit Hilfe des Hybridalgorithmus zu überprüfen. Durch die Optimierung des Quantenlernens wird die Genauigkeit des Algorithmus mit dem klassischen maschinellen Lernen verglichen. Ziel der vorgeschlagenen Arbeit war es, einen einfachen maschinellen Lernalgorithmus auf einem hybriden Quantencomputer/Simulator zu trainieren, um zu bewerten, ob der hybride Quantencomputer im Vergleich zu einem herkömmlichen Computer mit höherer Genauigkeit trainiert werden würde. Der Datensatz der Diabetiker wurde verwendet, um ein logistisches Regressionsmodell als binären Klassifikator zu trainieren. Für die Implementierung des QML-Algorithmus auf einem Quantensimulator wurden zwei Qubits verwendet. Die Quantum-Küchenspülen verwenden die Quantenschaltungen, die verwendet werden, um Standardeingaben nichtlinear in Funktionen umzuwandeln, die von zahlreichen maschinellen Lernalgorithmen verwendet werden können. Die Merkmale aus dem Datensatz wurden mit den Quantenküchensenken (QKS) extrahiert, die dann zum Training in einen klassischen logistischen Regressionsalgorithmus eingespeist werden. Diese Technik, Merkmale aus Quantentechniken zu extrahieren und einen klassischen Computer zur Vorhersage zu verwenden, ermöglicht maschinelles Lernen, eine hohe Genauigkeit zu erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9651-3_50 7020113eb3192729f6841a25cfb3be54;de;;;7.4.;;;Die Ergänzung fehlender Werte durch neuronale Netze für Data Mining Fehlende Werte sind ein Problem, das bei der Analyse der meisten Anwendungsdatensätze auftritt. Obwohl das Löschen von Beobachtungen mit fehlenden Werten gängige Praxis ist, ist der Informationsverlust dabei bedauerlich. Dies gilt umso mehr für hochdimensionale Daten, bei denen die Strukturinformationen in vielen Komponenten einer Beobachtung aufgrund weniger fehlender Werte verloren gehen. Für die Imputation von fehlenden Werten wird eine neue Methode vorgeschlagen. Grundlage des vorgestellten Ansatzes ist ein emergentes selbstorganisierendes neuronales Netz, das sich an die inhärente Struktur der Eingabedaten anpasst. Die Technik wurde erfolgreich an einem realen Beispiel von Finanzdaten getestet und erwies sich als den anderen betrachteten Methoden überlegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55991-4_24 687a4c271618e150cc495e01b26e35d7;de;;;7.4.;;;Autorität, Autonomie und Automatisierung: Die Irreduzibilität der Pädagogik auf Informationstransaktionen Dieser Beitrag lenkt die Aufmerksamkeit auf die Tendenz einer Reihe von Technologien, pädagogische Interaktionen auf eine Reihe von Datentransaktionen zu reduzieren. Dies ist problematisch, da solche Transaktionen per Definition immer auf endliche Möglichkeiten reduzierbar sind. Da die Fähigkeit, Daten zu sammeln und zu analysieren, immer feinkörniger wird, wächst die Gefahr, dass diese dataifizierten Ansätze den pädagogischen Raum überbestimmen. In Anlehnung an die Arbeit von Hegel, interpretiert vom französischen radikalen Philosophen des 20. Erstens: Kojèves Autoritätskonto bei Hegel postuliert zwei Aspekte der mimetischen Beziehung zwischen Lehrer und Schüler: Erkennen und Verwirklichen, die zur Ipseity oder about-self-ness des Subjekts gehören und mit einer allgemeinen Definition von Daten nicht vereinbar sind. Zweitens macht die Hegelsche Herangehensweise an die historische Zeit des Menschen, insbesondere die Behauptung, dass Zeit und Verlangen in der Zukunft beginnen, nicht in der Vergangenheit, diese mit der mathematischen Zeit, wie sie in der Datenverarbeitung verwendet wird, unvereinbar. Daraus lässt sich schließlich ein auf Kojèves realistische Hegel-Interpretation gestütztes, auf die Informationsverarbeitung nicht reduzierbares, charakteristisches Konzept der pädagogischen Arbeit ableiten. Als Konsequenz dieser dreifachen Irreduzibilität macht der Beitrag auf die Notwendigkeit aufmerksam, dass Beziehungen menschlicher pädagogischer Arbeit der Gestaltung von Bildungstechnologien innewohnen, und zeigt die Gefahren der Annahme eines Modells der maschinellen Intelligenz bei der Gestaltung von Lernumgebungen auf.;-;-;-;https://link.springer.com/article/10.1007/s11217-016-9517-4 2fffd394035254ddbb1515fad4536734;de;;;7.4.;;;Methoden zur Funktionsauswahl Mit dem vereinheitlichten Modell konnten wir die drei Hauptaspekte im vorherigen Kapitel untersuchen. Nun betrachten wir mögliche Kombinationen dieser Aspekte, die verwendet werden können, um eine Methode zur Merkmalsauswahl zu konstruieren. Das Ziel dieses Kapitels ist dreifach: (a) die bestehenden Methoden in einen durch die drei Hauptaspekte definierten Rahmen einzuordnen, (b) herauszufinden, was nicht getan wurde und was getan werden kann, und (c) den Weg zu einem Metasystem, das Anwendungen mit bestimmten Methoden verknüpft.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5689-3_4 418ff3bcf3891930183336f479bf91de;de;;;7.4.;;;Kontextuelle direkte Richtliniensuche Stochastische Such- und Optimierungstechniken werden in einer Vielzahl von Bereichen eingesetzt, von der Verfeinerung des Designs von Fahrzeugen über die Bestimmung der Wirksamkeit neuer Medikamente, die Entwicklung effizienter Strategien in Spielen oder das Erlernen des richtigen Verhaltens in der Robotik. Sie spezialisieren sich jedoch auf das spezifische Problem, das sie lösen, und wenn sich der Kontext des Problems geringfügig ändert, können sie sich nicht richtig anpassen. Tatsächlich erfordern sie ein vollständiges Umlernen, um in neuen, nicht sichtbaren Szenarien korrekt zu funktionieren, unabhängig davon, wie ähnlich sie zuvor erlernten Umgebungen sind. Als Lösung für dieses Problem haben sich in letzter Zeit kontextuelle Algorithmen herauskristallisiert. Sie lernen die Policy für eine Aufgabe, die von einem gegebenen Kontext abhängt, so dass sehr unterschiedliche Kontexte, die zu derselben Aufgabe gehören, gleichzeitig gelernt werden. Davon abgesehen konvergieren die hochmodernen Vorschläge dieser Klasse von Algorithmen vorzeitig und können einfach nicht mit Algorithmen konkurrieren, die eine Richtlinie für einen einzelnen Kontext lernen. Wir beschreiben den Contextual Relative Entropy Policy Search (CREPS)-Algorithmus, der zur oben genannten Klasse von kontextuellen Algorithmen gehört. Wir erweitern es um eine Technik, die es dem Algorithmus ermöglicht, seine Leistung erheblich zu steigern, und wir nennen es kontextuelle Relative Entropie-Politiksuche mit Kovarianzmatrixanpassung (CREPS-CMA). Wir schlagen zwei Varianten vor und demonstrieren ihr Verhalten in einer Reihe klassischer kontextueller Optimierungsprobleme und an komplexen Simulatorroboteraufgaben.;-;-;-;https://link.springer.com/article/10.1007/s10846-018-0968-4 a719c46710f16f8c9b5abecb8f96e41c;de;;;7.4.;;;Implementieren einer Regelgenerierungsmethode basierend auf sekundären Unterschieden von zwei Kriterien Um wertvolle Erkenntnisse aus gespeicherten Daten auf Datenbanksystemen zu gewinnen, gilt Rule Mining als eine der verwendbaren Mining-Methoden. Fast aktuelle Rule-Mining-Algorithmen verwenden jedoch nur die primäre Differenz eines Kriteriums, um Attribut-Wert-Paare auszuwählen, um einen Regelsatz für einen bestimmten Datensatz zu erhalten. In diesem Papier haben wir eine Methode zur Regelgenerierung implementiert, die auf sekundären Unterschieden von zwei Kriterien basiert. Dann führten wir eine Fallstudie mit gemeinsamen UCI-Datensätzen durch. Im Hinblick auf das Ergebnis haben wir die Genauigkeiten der von unserem Algorithmus gelernten Regelsätze mit denen von drei repräsentativen Algorithmen verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88425-5_30 7b904bffd7295ed1e394a991d8ec3806;de;;;7.4.;;;Was ist Bewusstsein und könnten Maschinen es haben? Die umstrittene Frage, ob Maschinen jemals bewusst sein können, muss auf einer sorgfältigen Überlegung beruhen, wie Bewusstsein in dem einzigen physikalischen System entsteht, das es zweifellos besitzt: dem menschlichen Gehirn. Wir schlagen vor, dass das Wort „Bewusstsein“ zwei verschiedene Arten von informationsverarbeitenden Berechnungen im Gehirn vereint: die Auswahl von Informationen für den weltweiten Rundfunk, wodurch sie flexibel für Berechnungen und Berichte verfügbar gemacht werden (C1, Bewusstsein im ersten Sinne) und die Selbstüberwachung dieser Berechnungen, die zu einem subjektiven Gefühl der Gewissheit oder des Fehlers führt (C2, Bewusstsein im zweiten Sinne). Wir argumentieren, dass aktuelle Maschinen trotz ihrer jüngsten Erfolge immer noch hauptsächlich Berechnungen durchführen, die die unbewusste Verarbeitung (C0) im menschlichen Gehirn widerspiegeln. Wir überprüfen die psychologische und neuronale Wissenschaft unbewusster (C0) und bewusster Berechnungen (C1 und C2) und skizzieren, wie sie neue Maschinenarchitekturen inspirieren können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-54173-6_4 f9b1de041a728cf3e5394e90506caba4;de;;;7.4.;;;Abduktives Konzeptlernen Wir untersuchen, wie Entführung und Induktion in einen gemeinsamen Lernrahmen integriert werden können. Insbesondere betrachten wir eine Erweiterung der Induktiven Logikprogrammierung (ILP) für den Fall, dass sowohl die Hintergrund- als auch die Zieltheorien abduktive Logikprogramme sind und ein abduktiver Begriff der Entbindung als grundlegende Abdeckungsrelation für das Lernen verwendet wird. Dieser erweiterte Lernrahmen wurde Abductive Concept Learning (ACL) genannt. In diesem Rahmen ist es möglich, mit unvollständigen Hintergrundinformationen über die Trainingsbeispiele zu lernen, indem die hypothetische Argumentation der Entführung ausgenutzt wird. Wir untersuchen auch, wie das ACL-Framework als Grundlage für das Lernen mit mehreren Prädikaten verwendet werden kann.;-;-;-;https://link.springer.com/article/10.1007/BF03037531 bc333aaa934f02d101793571184a7854;de;;;7.4.;;;Reflektierendes relationales Lernen für die Ausrichtung der Ontologie Wir schlagen die Anwendung einer statistischen relationalen Lernmethode als Mittel zur automatischen Erkennung semantischer Korrespondenzen zwischen Konzepten von OWL-Ontologien vor. Das vorgestellte Verfahren basiert auf einer algebraischen Datendarstellung, die im Gegensatz zu bekannten grafischen Modellen keine willkürlichen Annahmen bezüglich der Datenmodellstruktur auferlegt. Wir verwenden ein probabilistisches Relevanzmodell als Grundlage für die Schätzung der plausibelsten Übereinstimmungen. Wir evaluieren die vorgeschlagene Methode experimentell unter Verwendung von Datensätzen, die für den Anatomy Track der Ontology Alignment Evaluation Initiative (OAEI) entwickelt wurden, um Übereinstimmungen zwischen Konzepten der AdultMouse Anatomy zu identifizieren Ontologie und NCI-Thesaurus-Ontologie auf der Grundlage von Expertenübereinstimmungen, die dem System teilweise zur Verfügung gestellt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28765-7_62 6ed80765812a4756ad31af7acacd3cdb;de;;;7.4.;;;Maschinelles Lernen und Entscheidungsunterstützungssystem zur Kreditbewertung Unter den zahlreichen Alternativen in der Welt des Risikoausgleichs wird die Bereitstellung von Garantien bei der Formalisierung von Kreditverträgen hervorgehoben. Das Ziel dieses Papiers ist es, die Leistung von Fuzzy-Sets mit der von Entscheidungsbäumen auf der Grundlage künstlicher neuronaler Netze bei der Kreditbewertung zu vergleichen, um den wiedergewonnenen Wert anhand einer Stichprobe von 1890 Kreditnehmern vorherzusagen. Im Vergleich zur Fuzzy-Logik kann der entscheidungsanalytische Ansatz die Ergebnisse der Analyse leichter darstellen. Andererseits macht die Fuzzy-Logik einige implizite Annahmen, die es Kreditgebern noch schwerer machen können, dem logischen Entscheidungsprozess zu folgen. Dieses Papier führt eine erste Untersuchung von Sicherheiten als Variable bei der Berechnung des Kredit-Scorings an. Die Studie kommt zu dem Schluss, dass die beiden Modelle eine Modellierung der Unsicherheit im Kreditbewertungsprozess ermöglichen. Obwohl sie schwieriger zu implementieren ist, ist die Fuzzy-Logik genauer für die Modellierung der Unsicherheit. Das Entscheidungsbaummodell ist jedoch für die Darstellung des Problems günstiger.;-;-;-;https://link.springer.com/article/10.1007/s00521-019-04537-7 fe70d9b3ba88a8f59c6714aa33118aeb;de;;;7.4.;;;Bestimmte Untersuchung der Erkennung von Fake News von Facebook und Twitter mit dem Ansatz der künstlichen Intelligenz Die Nachrichtenplattform hat sich im technologisch fortgeschrittenen Bereich der Künstlichen Intelligenz von traditionellen Zeitungen zu Online-Communitys entwickelt. Da Twitter und Facebook es uns ermöglichen, Nachrichten viel schneller und mit weniger eingeschränkter Bearbeitung zu konsumieren, verbreiten sich falsche Informationen weiterhin in beeindruckender Geschwindigkeit und Menge. Online Fake News Detection ist ein vielversprechendes Forschungsgebiet und zieht die Aufmerksamkeit der Forscher auf sich. Die Verbreitung riesiger Mengen an Fehlinformationen auf sozialen Netzwerkplattformen ist anfällig für globale Risiken. In diesem Artikel wird empfohlen, eine Machine Learning-Optimierungstechnik für die automatisierte Klassifizierung von Nachrichtenartikeln auf Facebook und Twitter zu verwenden. Die Entstehung der Forschung wird durch die strategische Implementierung von Natural Language Processing für Fake News-Ergebnisse von Sozialforen erleichtert, um Nachrichtenberichte von nicht wiederkehrenden Medien zu verzerren. Die Ergebnisse der Studie sind hervorragend bei Wörtern mit der Häufigkeit von Textdokumenten, die als Attribut der Extraktionstechnik fungieren, und der Klassifikator wird von der Hybrid Support Vector Machine mit einer Genauigkeit von 91,23 % verarbeitet.;-;-;-;https://link.springer.com/article/10.1007/s11277-021-08720-9 aacb3e07cd106e571f43577ecd6931f2;de;;;7.4.;;;Anwendungsherausforderungen für die allgegenwärtige Wissensentdeckung Sehr oft sind neue Bedürfnisse und die Anforderungen innovativer Anwendungen ein starker Impulsgeber für wissenschaftliche Fortschritte. Heutzutage drängt die exponentielle Verbreitung von kostengünstigen Computergeräten und das Konzept der Intelligenz in Verbindung mit der Leichtigkeit der Generierung, Sammlung und Speicherung von Daten zur Entwicklung von Methoden und Werkzeugen zum Verwalten, Abrufen und Verwerten von Informationen überall und jederzeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16392-0_7 e37b14d979c720b7f9cc9191e0b60387;de;;;7.4.;;;Textzusammenfassung mehrerer Dokumente mit Themenmodell und Fuzzy-Logik Die Automatisierung des Prozesses der Dokumentenzusammenfassung spielt in vielen Anwendungen eine große Rolle. Die automatische Textzusammenfassung konzentriert sich darauf, die wesentlichen Informationen beizubehalten, ohne die Dokumentqualität zu beeinträchtigen. In diesem Artikel wird eine neue Methode zur Zusammenfassung mehrerer Dokumente vorgeschlagen, die ein Themenmodell und ein Fuzzy-Logik-Modell kombiniert. Die vorgeschlagene Methode extrahiert einige relevante Themenwörter aus Quelldokumenten. Die extrahierten Wörter werden als Elemente von Fuzzy-Sets verwendet. In der Zwischenzeit wird jeder Satz im Quelldokument verwendet, um eine Fuzzy-Relevanzregel zu generieren, die die Bedeutung jedes Satzes misst. Ein Fuzzy-Inferenzsystem wird verwendet, um die endgültige Zusammenfassung zu erzeugen. Unsere Zusammenfassungsergebnisse werden anhand einiger bekannter Zusammenfassungssysteme bewertet und bei Abweichungen und Ähnlichkeiten gut abgeschnitten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39712-7_12 9573be9f38b9d2f60bde7c6398471581;de;;;7.4.;;;Ein Sicherheitsbedenken bei Deep-Learning-Modellen In diesem Artikel werden hauptsächlich die potenziellen Sicherheitsrisiken im Hinderniserkennungs- und -verarbeitungssystem (ORPS) der selbstfahrenden Autos untersucht, das durch eine Deep-Learning-Architektur konstruiert wird. Wir führen einen Angriff durch, der eine Hintertür in das Mask R-CNN in ORPS einbettet, indem wir den Datensatz vergiften. Unter normalen Umständen kann das hintertürige Modell Hindernisse (Fahrzeuge) genau identifizieren. Unter bestimmten Umständen kann das Auslösen der Hintertür im Hintertürmodell jedoch zu einer Änderung der Größe (Bounding Box und Maske) und des Vertrauens der erkannten Hindernisse führen, was zu schweren Unfällen führen kann. Das Versuchsergebnis zeigt, dass es möglich ist, eine Hintertür in ORPS einzubetten. Wir können sehen, dass das Backdoor-Netzwerk offensichtlich die Größe des Begrenzungsrahmens und der entsprechenden Maske dieser vergifteten Instanzen ändern kann. Andererseits wirkt sich die Einbettung einer Hintertür in das auf Deep Learning basierende Modell nur geringfügig auf die Genauigkeit der Erkennung von Objekten ohne Hintertür-Trigger aus, was für Benutzer nicht wahrnehmbar ist. Schließlich hoffen wir, dass unsere einfache Arbeit die Aufmerksamkeit der Menschen auf die selbstfahrende Technologie und sogar andere auf Deep Learning basierende Modelle wecken kann. Es bringt Motivation, die Existenz der Hintertüren in diesen Systemen zu beurteilen oder zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-03026-1_15 d3f93da5eabacdfbcc70c4aafb87384e;de;;;7.4.;;;Multimodale Klassifikation mit tiefen faltungsrekurrenten neuronalen Netzen für die Elektroenzephalographie Die Elektroenzephalographie (EEG) ist das wichtigste Eingangssignal für Systeme, die auf Brain Computer Interfaces (BCI) basieren. Es ist jedoch sehr schwierig, eine zufriedenstellende Klassifikationsgenauigkeit zu erzielen, da herkömmliche Verfahren multimodale Informationen nicht vollständig ausnutzen können. Hier schlagen wir einen neuartigen Ansatz vor, um kognitive Ereignisse aus EEG-Daten zu modellieren, indem wir sie auf ein Videoklassifikationsproblem reduzieren, das darauf abzielt, die multimodalen Informationen des EEG zu erhalten. Darüber hinaus wird ein optischer Fluss eingeführt, um die Varianteninformationen des EEG darzustellen. Wir trainieren ein Deep Neural Network (DNN) mit Convolutional Neural Network (CNN) und Recurrent Neural Network (RNN) für die EEG-Klassifikationsaufgabe mittels EEG-Video und optischem Fluss. Die Experimente zeigen, dass unser Ansatz viele Vorteile hat, wie zum Beispiel mehr Robustheit und mehr Genauigkeit bei EEG-Klassifikationsaufgaben. Gemäß unserem Ansatz haben wir ein gemischtes BCI-basiertes Rehabilitationsunterstützungssystem entwickelt, um Schlaganfallpatienten bei der Durchführung einiger grundlegender Operationen zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-70096-0_78 574fcbea5502f2daa2336ae2133892af;de;;;7.4.;;;Branderkennung basierend auf einem neuronalen Multi-Channel Convolutional Network In den letzten Jahren haben Branderkennungsverfahren in den Bereichen der Akademie und Industrie immer mehr Beachtung gefunden. Aktuelle sensorbasierte Erkennungsverfahren verlassen sich stark auf die externen physikalischen Signale, was die Erkennungsgenauigkeit wahrscheinlich verringern wird, wenn sich die äußere Umgebung dramatisch ändert. Mit der rasanten Entwicklung von High-Definition-Kameras bieten die auf der Bildmerkmalsextraktion basierenden Verfahren eine weitere Lösung, die versucht, eine Mustererkennung für das Überwachungsvideo durchzuführen. Diese Methoden konnten jedoch aufgrund von zwei Mängeln nicht breit und erfolgreich auf die Branderkennung angewendet werden: (1) Es gibt zu viele Störelemente wie Lampenlicht und Autolicht im Raum oder Tunnel, was die Erkennungsleistung stark stört (2 ) Die Funktionen hängen von viel Vorwissen über Flamme und Rauch ab, und es fehlt eine universelle und automatische Absaugmethode für verschiedene Brandszenen. Als Durchbruch in der Mustererkennung ist Deep Learning in der Lage, die nützlichen Informationen aus Rohdaten zu untersuchen und kann automatisch genaue Erkennungsergebnisse liefern. Aus diesem Grund wird in diesem Beitrag auf der Grundlage des Deep-Learning-Gedankens ein neuartiges Feuererkennungsverfahren basierend auf einem mehrkanaligen neuronalen Faltungsnetzwerk vorgeschlagen, um die oben genannten Mängel zu überwinden. Erstens werden farbige Dreikanalbilder als Eingabe des neuronalen Faltungsnetzes konstruiert, zweitens werden die versteckten Schichten mit mehrschichtiger Faltung und Pooling konstruiert, und gleichzeitig werden die Modellparameter durch Verwendung von Backpropagation abgestimmt gefunden. Schließlich ist die Softmax-Methode verwendet, um die Klassifizierung zur Branderkennung durchzuführen. Um die Trainingszeit zu sparen, verwenden wir GPU, um Trainings- und Testmodelle zu erstellen. Aus öffentlichen Feuerdatensätzen und dem Internet sammeln wir 7000 Bilder für das Training und 4494 Bilder für Tests und führen dann Experimente mit dem Vergleich von vier Basismethoden durch, einschließlich Deep Neural Network, Support Vector Machine basierend auf skaleninvarianten Feature-Transformationsfunktion, Stack-Auto- Encoder und Deep Belief Network. Die experimentellen Ergebnisse zeigen, dass das vorgeschlagene Verfahren die Merkmale des Eingabebildes durch versteckte Ausgabefiguren besser wiederherstellen kann, und für verschiedene Flammenszenen und -typen kann das vorgeschlagene Verfahren eine Klassifizierungsgenauigkeit von 98% oder mehr erreichen, was eine Verbesserung von etwa 2 . erreicht % als die traditionelle merkmalsbasierte Methode. Außerdem übertrifft die vorgeschlagene Methode andere Deep-Learning-Methoden in Bezug auf ROC-Kurve, Erinnerungsrate, Präzisionsrate und F1-Score immer.;-;-;-;https://link.springer.com/article/10.1007/s10694-017-0695-6 b2e2587df0c0a56b0cf710898c1b81a4;de;;;7.4.;;;Eine Deep-Learning-Methode zur lincRNA-Erkennung mit Auto-Encoder-Algorithmus Die RNA-Sequenzierungstechnik (RNA-seq) ermöglicht es Wissenschaftlern, neuartige datengesteuerte Methoden zur Entdeckung weiterer nicht identifizierter lincRNAs zu entwickeln. Inzwischen erleben wissensbasierte Technologien eine potenzielle Revolution, die durch die neuen Deep-Learning-Methoden ausgelöst wird. Durch das Scannen des neu gefundenen Datensatzes von RNA-seq haben Wissenschaftler festgestellt, dass: (1) die Expression von lincRNAs reguliert zu sein scheint, d durch nicht konservierte Regionen zusammengebunden. Die beiden Beweise liefern die Gründe für die Einführung wissensbasierter Deep-Learning-Methoden beim Nachweis von lincRNA. Ähnlich wie bei der Transkription kodierender Regionen werden nicht-kodierende Regionen an Transkriptionsstellen gespalten. Es werden jedoch eher regulatorische RNAs als Nachrichten-RNAs erzeugt. Das heißt, die transkribierten RNAs nehmen als regulatorische Einheiten am biologischen Prozess teil, anstatt Proteine ​​zu erzeugen. Die Identifizierung dieser Transkriptionsregionen aus nicht-kodierenden Regionen ist der erste Schritt zur lincRNA-Erkennung.;-;-;-;https://link.springer.com/article/10.1186/s12859-017-1922-3 7860f5c53c8c74dfd7fbccd263daef26;de;;;7.4.;;;Deep Learning basierende adaptive lineare kollaborative Diskriminanzregressionsklassifikation für die Gesichtserkennung Gesichtserkennung ist ein beliebtes Forschungsproblem im Bereich der Bildanalyse. Die Schritte der Gesichtserkennung sind hauptsächlich die Gesichtsverifizierung und die Gesichtsklassifizierung. Gesichtsverifikationsalgorithmen wurden in den letzten Jahren gut definiert, aber die Gesichtsklassifizierungsforscher stehen immer noch vor Problemen. In diesem Zusammenhang schlagen wir die Gesichtserkennung mit Adaptive Linear Collaborative Discriminant Regression Classification (ALCDRC) mit Deep Learning (DL) Algorithmus vor, indem verschiedene Sätze von Trainingsbildern berücksichtigt werden. Insbesondere verwendet ALCDRC verschiedene Gewichtungen, um verschiedene Trainingssätze zu beschreiben, und verwendet solche Gewichtungsdaten, um Rekonstruktionsfehler zwischen Klassen und innerhalb der Klasse zu berechnen, und danach bemüht sich ALCDRC, eine ideale Projektionsmatrix zu lokalisieren, die das Verhältnis zwischen Klassenrekonstruktionsfehler (BCRE) über With-in-Class-Rekonstruktionsfehler (WCRE). Die Experimente wurden an zwei anspruchsvollen Gesichtsdatenbanken namens ORL und YALE-B durchgeführt und es wurden herausragende Ergebnisse erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8657-1_52 f05d9922e30a410237328f963ba717da;de;;;7.4.;;;Anwendung physikalisch informierter neuronaler Netze zur Assimilation von Strömungsdaten Datenassimilation (DA) bezieht sich auf Methoden, die Daten und zugrunde liegende Regelgleichungen kombinieren, um eine Schätzung eines komplexen Systems bereitzustellen. Physikinformierte neuronale Netze (PINN) bieten eine innovative Technik des maschinellen Lernens zum Lösen und Entdecken der Physik in der Natur. Durch die Codierung allgemeiner nichtlinearer partieller Differentialgleichungen, die verschiedene physikalische Systeme wie Fluidströmungen regeln, in das tiefe neuronale Netzwerk kann PINN als Werkzeug für die DA verwendet werden. Aufgrund seiner Natur, dass weder eine numerische Differenzialoperation noch eine zeitliche und räumliche Diskretisierung erforderlich ist, ist PINN einfach zu implementieren und findet in der Wissenschaft immer mehr Beachtung. In diesem Artikel wenden wir die PINN auf verschiedene Strömungsprobleme an und untersuchen ihr Potenzial in der Fluidphysik. Sowohl die mesoskopische Boltzmann-Gleichung als auch die makroskopische Navier-Stokes-Gleichung werden als physikalische Randbedingungen betrachtet. Wir führen zunächst ein diskretes, durch Boltzmann-Gleichungen informiertes neuronales Netzwerk ein und bewerten es mit einer eindimensionalen Ausbreitungswelle und einer zweidimensionalen deckelgesteuerten Hohlraumströmung. Eine solche laminare Hohlraumströmung wird auch als Beispiel in einem inkompressiblen Navier-Stokes-Gleichungs-informierten neuronalen Netzwerk betrachtet. Mit parametrisierten Navier-Stokes werden zwei turbulente Strömungen, eine innerhalb eines C-förmigen Kanals und eine durch eine Erhebung, untersucht und ein begleitendes Druckfeld erhalten. Diese Beispiele enden mit einer Strömung, die durch ein poröses Medium strömt. Die Anwendungen in diesem Artikel zeigen, dass PINN einen neuen Weg zur intelligenten Flussinferenz und -identifizierung bietet, von mesoskopischer bis makroskopischer Skala und von laminarer bis turbulenter Strömung.;-;-;-;https://link.springer.com/article/10.1007/s42241-020-0077-2 37b2d08b1e9d6e2a812c20be207683bb;de;;;7.4.;;;Auf dem Weg zu kostensensiblem Lernen für reale Anwendungen Viele Forschungsarbeiten zum kostensensitiven Lernen konzentrierten sich auf binäre Klassenprobleme und nahmen an, dass die Kosten genau sind. Aber reale Anwendungen haben oft mehrere Klassen und die Kosten können nicht genau ermittelt werden. Es ist wichtig, diese Probleme anzugehen, damit kostensensibles Lernen für reale Anwendungen nützlicher wird. Dieses Papier gibt eine kurze Einführung in kostensensibles Lernen und fasst dann einige unserer bisherigen Arbeiten zu den beiden oben genannten Themen zusammen: (1) Die Analyse, warum die traditionelle Reskalierungsmethode Mehrklassenprobleme nicht löst, und unsere Methode Rescale;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28320-8_42 67d04c4ba2dbead74907c32c27a50f46;de;;;7.4.;;;Energiebasierte Funktionsauswahl und ihre Ensemble-Version Die Variablen- und Merkmalsauswahl ist ein Forschungsthema mit praktischer Bedeutung in vielen Bereichen wie Statistik, Mustererkennung, maschinelles Lernen und Data Mining. Die Aufgabe der Merkmalsauswahl besteht darin, eine effektive Merkmalsteilmenge aus einer gegebenen Merkmalsmenge auszuwählen, um die Dimensionalität des Merkmalsraums zu reduzieren. In diesem Papier wird zusammen mit den Richtlinien des energiebasierten Modells ein einheitlicher energiebasierter Rahmen für die Merkmalsauswahl und ein Merkmalsranking-Algorithmus unter diesem Rahmen vorgestellt. Um die Stabilität unseres Algorithmus zu erhöhen, wird andererseits eine Ensemble-Merkmalsauswahl eingeführt. Einige Experimente werden an der realen Welt und an Synthesedatensätzen durchgeführt, um die Fähigkeit unseres Merkmalsauswahlalgorithmus und die Stabilitätsverbesserung der Ensemblemerkmalsauswahl zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24958-7_7 be12ba070c442ca891cd8b7374804efa;de;;;7.4.;;;Forschung zu Schlüsseltechnologien des Internets der Dinge und künstlicher Intelligenz Internet der Dinge und künstliche Intelligenz sind die Produkte der aktuellen rasanten Entwicklung der Sozialwissenschaften und Technologie. Die Internet-of-Things-Technologie soll eine ausgereifte Netzwerktechnologie basierend auf dem ursprünglichen Niveau der Internet-Entwicklung weiterentwickeln. Der Informationsaustausch in Echtzeit zwischen jedem Individuum und Individuum, zwischen Gegenständen und Gegenständen kann die Kommunikations- und Kommunikationsmöglichkeiten erweitern. Künstliche Intelligenz ist ein neues Thema umfassender Forschung zu Technik, Theorie und Methoden des Menschen und gehört zum Zweig der Informatik. Der Bereich der künstlichen Intelligenz umfasst Sprachverarbeitung, Robotik, Bildverarbeitung usw., die alle in der Lage sind, alle Aspekte des Menschen zu simulieren. Bei diesem Artikel handelt es sich um eine wissenschaftliche Studie und Analyse, nachdem der Autor die damit verbundenen Forschungen zum Internet der Dinge und zur künstlichen Intelligenz verstanden hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9406-5_64 9925103a4a30a4d6ecb6566bde13e996;de;;;7.4.;;;Ein kurzer Überblick über die Echtzeit-Objekterkennung und ihre Herausforderungen Objekterkennung ist in den letzten Jahren ein attraktives Forschungsinteresse. Bei der Videoanalyse spielt es eine wesentliche Rolle, das Bild zu verstehen. Die Objekterkennungstechnik hat sich in der Computer Vision verbessert, als die Deep-Learning-Methode auf den Markt kam. In den letzten zwei Jahrzehnten wurden mehrere Algorithmen entwickelt und verbessert, um das Objekt unter verschiedenen Bedingungen zu erkennen, und es gibt immer noch eine Reihe von Herausforderungen. Das Ziel dieses Beitrags ist es, einen kurzen Überblick über die Objekterkennung und ihre Herausforderungen nicht nur in der Computer Vision, sondern auch im drahtlosen Sensornetzwerk zu geben.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8685-9_9 69dffadc40de1f5bccaa3028f39ec75b;de;;;7.4.;;;Ein neuartiger Ansatz zur Vorhersage von Herzerkrankungen mit genetischem Algorithmus und Ensemble-Klassifikation Die koronare Herzkrankheit (KHK) ist in den letzten Jahrzehnten weltweit eine der häufigsten Todesursachen beim Menschen. Die koronare Herzkrankheit führt auch zu Behinderungen, verminderter Lebensqualität und schweren Erkrankungen. KHK kann durch die Identifizierung der Risikofaktoren kontrolliert werden und kann bei rechtzeitiger Diagnose auch dazu beitragen, die Ursache der Herzinsuffizienz (Tod) zu reduzieren. Die konventionelle Methode der Anamnese hat gezeigt, dass sie bei der Früherkennung der Krankheit weniger effektiv war. Moderne und aufkommende Methoden wie KI und maschinelles Lernen sind daher zuverlässiger und effektiver bei der Identifizierung von Menschen mit Herzerkrankungen und können dazu beitragen, die Sterblichkeitsrate einzudämmen. In der vorgeschlagenen Arbeit werden drei Klassifikationsmethoden für maschinelles Lernen (Random Forest, XGBoost und Neural Network) mithilfe genetischer Algorithmen automatisch abgestimmt, um die wichtigsten Merkmale zur Maximierung der Klassifikationsleistung zu finden. Diese Methoden werden auf den Z-Alizadeh Sani-Datensatz mit demographischer Untersuchung, EKG-, Labor- und Echodaten von 303 Patienten angewendet. Die Berechnungsergebnisse der obigen Anwendung zeigen, dass drei Ansätze weiter zusammengestellt werden müssen, indem allen drei Modellen die gleiche Bedeutung beigemessen wird, um die Gesamtleistung bei der Risikobewertung und Vorhersage des Vorliegens einer Krankheit bei den 303 Patienten zu erhöhen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-55187-2_36 43fe533b7fdb5f1f80d7d85c30e09a16;de;;;7.4.;;;Fortgeschrittene Techniken zur Wissenserstellung Um die im vorherigen Kapitel vorgestellten grundlegenden ontologischen Engineering-Methoden für die Erstellung von realen Anwendungen zu nutzen, ist es vorteilhaft, sie mit anderen Techniken zu kombinieren, um sie flexibler und ihre Ergebnisse qualitativ hochwertiger zu machen. Dieses Kapitel befasst sich mit zwei Bereichen fortgeschrittener ontologischer Engineering-Techniken zur Wissenserzeugung und -erweiterung. Zum einen gehören KI-Methoden zur Ableitung neuen Wissens in Ontologien und zum anderen Techniken zum Umgang mit mehrdeutigen Ontologie-Mappings.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75230-1_6 2ced423800976703538aab6b1fbe8e62;de;;;7.4.;;;Modellierung der Funktionalität des Animator Studio Control Service mit Data Mining-Tools Die Forschung befasst sich mit den Problemen der Animationsstudiodienste, den Vor- und Nachteilen ihrer Funktionsweise, sowohl für den normalen Benutzer als auch für den Entwickler. Es ist sinnvoll, den Kunden über zwei Bereiche zu informieren: Preispolitik und Leistungsinhalt. Die Methoden der Service-Automatisierung innerhalb von Animationsstudios werden mit modernen Methoden des Data Mining erforscht. Es wird vorgeschlagen, die Arbeitslogik unter Verwendung von Data-Mining-Methoden, Decision Trees-Methoden, zu erstellen, damit die Verwaltungsdienste des Animationsstudios effektiv funktionieren. Es wird festgestellt, dass es sinnvoll ist, den Betrieb des Animationsstudio-Verwaltungsdienstes basierend auf dem Backtracking-Algorithmus zu organisieren, falls die Auswahl der Suchkriterien der Kundenpriorität mit der Preispolitik zusammenhängt. Bei den Suchkriterien des Kunden haben Auswahlpriorität inhaltsbezogene Themen von Dienstleistungen, wenden Algorithmen zur Konstruktion von Entscheidungsbäumen an. Es wird vorgeschlagen, das Problem des Vergleichs der Dienstleistungen verschiedener Animationsstudios, ihrer Preispolitik, ihres Standorts usw. durch den Aufbau einer zusammengesetzten Webanwendung zu lösen - Daten-Mashup von Kinderanimationsstudios.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-61656-4_24 027042ee918e4229a446cf8fa5f10f66;de;;;7.4.;;;Verbesserung der Strategie zur Entdeckung wechselwirkender genetischer Varianten in Assoziationsstudien Die Aufdeckung der zugrunde liegenden komplexen Architektur menschlicher Krankheiten hat seit der Erforschung der Genotyp-Phänotyp-Beziehungen in der genetischen Epidemiologie erhebliche Aufmerksamkeit erhalten. Die Identifizierung dieser Beziehungen wird schwieriger, da mehrere Faktoren zusammen oder unabhängig voneinander wirken. In der vorherigen Arbeit wurde ein tiefes neuronales Netzwerk trainiert, um Zwei-Lokus-wechselwirkende Einzelnukleotidpolymorphismen (SNPs) im Zusammenhang mit einer komplexen Krankheit zu identifizieren. Das Modell wurde für alle Zwei-Lokus-Kombinationen unter verschiedenen simulierten Szenarien bewertet. Die Ergebnisse zeigten signifikante Verbesserungen bei der Vorhersage von SNP-SNP-Interaktionen gegenüber den bestehenden herkömmlichen maschinellen Lerntechniken. Darüber hinaus werden die Ergebnisse durch einen veröffentlichten Datensatz bestätigt. Die Leistung der vorgeschlagenen Methode bei den Wechselwirkungen höherer Ordnung war jedoch unbekannt. Das Ziel dieser Studie ist es, das Modell für die Wechselwirkungen höherer Ordnung in hochdimensionalen Daten zu validieren. Die vorgeschlagene Methode wird für unüberwachtes Lernen weiter ausgebaut. Eine Reihe von Experimenten wurde mit den simulierten Datensätzen unter denselben Szenarien sowie einem realen Datensatz durchgeführt, um die Leistung des erweiterten Modells zu zeigen. Im Durchschnitt zeigen die Ergebnisse eine verbesserte Leistung gegenüber den vorherigen Methoden. Das Modell wird weiter anhand eines sporadischen Brustkrebsdatensatzes evaluiert, um Interaktionen höherer Ordnung zwischen SNPs zu identifizieren. Die Ergebnisse ordnen die Top 20 der SNP-Interaktionen höherer Ordnung ein, die für sporadischen Brustkrebs verantwortlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-46687-3_51 39feed449515f435310feb09db7bdfa6;de;;;7.4.;;;Analyse und Prognose von Strombedarf und -preis mithilfe des Deep-Learning-Modells während der COVID-19-Pandemie Die Smart City integriert das Smart Grid als integralen Bestandteil, um den ständig steigenden Strombedarf zu gewährleisten. Nach dem jüngsten Ausbruch der COVID-19-Pandemie wirken sich die sozioökonomischen Trennungen auf das Gesamtniveau der Stromnachfrage, der Preise und der Nutzungstrends aus. Diese unerwarteten Änderungen führen zu neuen Unsicherheiten in der kurzfristigen Nachfrageprognose, da ihr Ergebnis von der jüngsten Verwendung als Eingangsvariable abhängt. Um diese herausfordernde Situation anzugehen, schlägt dieses Papier ein Strombedarfs- und Preisprognosemodell vor, das auf der LSTM Deep Learning-Methode basiert und die jüngsten Nachfragetrends berücksichtigt. Reale Strommarktdaten des australischen Energiemarktbetreibers (AEMO) werden verwendet, um die Wirksamkeit des vorgeschlagenen Modells zu validieren und mit zwei Szenarien ausgearbeitet, um einen breiteren Kontext der Auswirkungen der Pandemie zu erhalten. Die Ergebnisse der explorativen Datenanalysen zeigen stündliche Stromnachfrage und Preissenkungen während der Pandemiewochen, insbesondere während der Stoßzeiten von 8-12 Uhr und 18-22 Uhr. Stromnachfrage und -preis sind im Durchschnitt um 3% bzw. 42% gesunken. Das allgemeine Nutzungsverhalten hat sich jedoch im Vergleich zum Vorjahreszeitraum nicht wesentlich geändert. Die Vorhersagegenauigkeit des vorgeschlagenen Modells ist trotz der durch die Pandemie ausgelösten Trendwechselphänomene mit einem akzeptabel kleineren Fehler recht effektiv. Die Modellleistung wird umfassend mit einigen wenigen herkömmlichen Prognosemethoden, Support Vector Machine (SVM) und Regression Tree (RT) verglichen, und als Ergebnis wurden die Leistungsindizes RMSE und MAE mit dem vorgeschlagenen LSTM-Modell verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0010-4_11 be007adf7241822ebcfc4be3516b6099;de;;;7.4.;;;Untersuchung prädiktiver chronischer Erkrankungen durch Data-Mining-Algorithmen Data Mining ist ein bedeutender Fortschritt bei der Vermittlung legitimer, neuartiger, möglicherweise hilfreicher und schließlich vernünftiger Ansätze in den Informationswissenschaften. Es extrahiert präzise Daten aus einer riesigen Datenbank. Data Mining ist ein computergestütztes Verfahren, um kolossale Anordnungen von Informationen zu untersuchen und die Bedeutung dieser Informationen zu extrahieren. Information-Mining-Instrumente sehen zukünftige Muster voraus und ermöglichen es Unternehmen, proaktive, lernorientierte Entscheidungen zu treffen. Die gigantischen Informationsmengen, die für die Prognose der koronaren Erkrankung geschaffen werden, sind zu unvorhersehbar und voluminös, um mit üblichen Strategien zu handhaben und aufzubrechen. Information Mining bietet die Philosophie und Innovation, diese Informationsberge in hilfreiche Daten für die grundlegende medizinische Anwendung und Hilfe für Patienten zu verwandeln. In der Personaldienstleistungsbranche wird das Ausgraben von Informationen dominierend für die Krankheitserwartung verwendet. Es gibt bereits enorme Informationsgewinnungssysteme, die Krankheiten vorhersehen und spezifische Charakterisierungen, Gruppierungen, Zugehörigkeitsregeln usw. anbieten. Das Hauptziel dieses Papiers ist es, Krankheiten durch Charakterisierungsberechnungen vorherzusagen, zum Beispiel K-Implies und A priori. Diese Explorationsarbeit konzentriert sich im Wesentlichen darauf, die beste Anordnungsberechnung in Abhängigkeit von der Gruppierungsgenauigkeit, der Ausführungszeit und den Ausführungsfaktoren zu finden. Durch die Verwendung des vorgeschlagenen Verfahrens bestehen hohe Chancen, die Kosten für die Vorhersage und Prognose der chronischen Krankheiten mit größerer Genauigkeit zu senken.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1420-3_201 5bbc07c34b65a6c0d6f6e9256b73a6b4;de;;;7.4.;;;Flache Dialogverarbeitung mit maschinellen Lernalgorithmen (oder nicht) Dieses Papier stellt ein flaches Dialoganalysemodell vor, das auf Mensch-Mensch-Dialoge im Kontext von Mitarbeiter- oder Geschäftstreffen abzielt. Vier Komponenten des Modells werden definiert und verschiedene maschinelle Lerntechniken werden verwendet, um Merkmale aus Dialogtranskripten zu extrahieren: maximale Entropie-Klassifikatoren für Dialoghandlungen, latente semantische Analyse für die Themensegmentierung oder Entscheidungsbaum-Klassifikatoren für Diskursmarker. Ein regelbasierter Ansatz wird vorgeschlagen, um modale Verweise auf Besprechungsdokumente zu lösen. Die Methoden werden dank eines gemeinsamen Datensatz- und Annotationsformats trainiert und evaluiert. Die Integration der Komponenten in einen automatisierten Flachdialog-Parser öffnet den Weg zu multimodalen Meeting-Processing- und Retrieval-Anwendungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30568-2_24 5eb5f6e6a1a94d4dbc671ff036e7cb1f;de;;;7.4.;;;Erkennung von Verkehrsverstößen durch maschinelles Lernen Die Hauptidee hinter diesem Projekt ist die Entwicklung eines Systems, das Personen ohne Helm erkennen kann. Der Straßenverkehr, insbesondere Zweiräder, wird am häufigsten verwendet. Unfälle ereignen sich häufig in Zweirädern, und durch die Verwendung eines Helms kann eine Person vor einer Hirnverletzung bewahrt werden. In unserem Projekt finden wir die Personen, die keinen Helm getragen haben und erkennen ihr Nummernschild, das an die RTO gesendet wird, um die Gültigkeit des Führerscheins zu verringern. Durch den Einsatz von TensorFlow wurden die Bilder der Personen so trainiert, dass sie die Zweiradfahrer ohne Helm erkennen können. Da es für die Verkehrspolizei schwierig ist, alle zu erwischen, wird unser Projekt der Polizei helfen, Zweiradfahrer ohne Helm zu identifizieren. Daher wird dieses System dazu beitragen, Unfälle und damit menschliches Leid zu verhindern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8221-9_187 c83ed1eaf3bbfeef77184c95b9265a4d;de;;;7.4.;;;Überwachte, auf maschinellem Lernen basierende Annotation und Abruf medizinischer Bilder in ImageCLEFmed 2005 Dieser Artikel stellt die Methoden und experimentellen Ergebnisse für die automatische medizinische Bildannotation und -abrufaufgabe von ImageCLEFmed 2005 vor. Es wird ein überwachter maschineller Lernansatz untersucht, um Bildmerkmale auf niedriger Ebene ihren visuellen und/oder semantischen Kategorien auf hoher Ebene zuzuordnen. Für die automatische Bildannotation werden die Eingabebilder als kombinierter Merkmalsvektor aus Textur-, Kanten- und Formmerkmalen präsentiert. Ein Multi-Class-Klassifizierer, der auf einer paarweisen Kopplung mehrerer binärer Support-Vektor-Maschinen basiert, wird auf diesen Eingaben trainiert, um die Kategorien von Testbildern vorherzusagen. Für eine rein visuelle Wiedergewinnung wird ein kombinierter Merkmalsvektor von Farb-, Textur- und Kantenmerkmalen im niedrigdimensionalen PCA-Unterraum verwendet. Basierend auf der Online-Kategorievorhersage von Abfrage- und Datenbankbildern durch den Klassifikator werden im Voraus berechnete kategoriespezifische statistische Parameter erster und zweiter Ordnung in einem Bhattacharyya-Distanzmaß verwendet. Experimentelle Ergebnisse sowohl der Bildannotation als auch des Abrufens werden in diesem Papier berichtet.;-;-;-;https://link.springer.com/chapter/10.1007/11878773_76 53cec1aa390f4f46532c352b4f5b727f;de;;;7.4.;;;Machine-Learning-Ansätze für Zeitreihendaten basierend auf einem selbstorganisierenden inkrementellen neuronalen Netzwerk In diesem Artikel stellen wir maschinelle Lernalgorithmen von Zeitreihendaten basierend auf dem selbstorganisierenden inkrementellen neuronalen Netz (SOINN) vor. SOINN ist als leistungsstarkes Tool für inkrementelles unüberwachtes Clustering bekannt. Unter Verwendung eines auf Ähnlichkeitsschwellen basierenden und eines auf einem lokalen Fehler basierenden Einfügungskriteriums ist es in der Lage, inkrementell zu wachsen und Eingabemuster der nicht-stationären Online-Datenverteilung aufzunehmen. Diese Vorteile von SOINN stehen für die Modellierung von Zeitreihendaten zur Verfügung. Zunächst erläutern wir einen online überwachten Lernansatz, SOINN-DTW, zur Erkennung von Zeitreihendaten, die auf Dynamic Time Warping (DTW) basieren. Zweitens erklären wir einen inkrementellen Clustering-Ansatz, Hidden-Markov-Model Based SOINN (HBSOINN), für Zeitreihendaten. Dieses Papier fasst SOINN-basierte Zeitreihenmodellierungsansätze (SOINN-DTW, HBSOINN) und die Vorteile von SOINN-basierten Zeitreihenmodellierungsansätzen gegenüber herkömmlichen Ansätzen wie HMM zusammen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15825-4_75 1aff0d0eeb13c98269594cda3c8d3618;de;;;7.4.;;;Vorhersage der Locus-spezifischen DNA-Methylierung basierend auf dem Deep Neural Network Die Sequenzierungstechnologien der nächsten Generation haben es ermöglicht, DNA-Methylierungsniveaus mit Einzelbasenauflösung im gesamten Genom zu untersuchen, aber diese Methode ist relativ teuer. Gegenwärtig wurden viele traditionelle maschinelle Lernmethoden aktiv vorgeschlagen, um den DNA-Methylierungsstatus vorherzusagen, aber die Vorhersagegenauigkeit verschiedener Modelle muss verbessert werden, da sie wichtige Merkmalsinformationen nicht vollständig extrahieren können. Daher ist die Vorhersagemethode der DNA-Methylierung basierend auf modernsten Modellen immer noch ein herausforderndes Thema. In dem Papier entwickelten wir ein auf Deep Learning basierendes Framework, um das Problem durch die Integration eines tiefen neuronalen Netzwerks (DNN) mit Random Forest (RF) anzugehen. Zunächst extrahierte das DNN potenzielle und hochrepräsentative Merkmale aus der benachbarten Formation, der genomischen Position, den DNA-Sequenzeigenschaften und den cis-regulatorischen Elementinformationen mit seinem unüberwachten Lernprozess und seiner Mehrschichtstruktur. Darüber hinaus haben wir die Vorhersageleistung systematisch bewertet und verglichen, indem wir jede Art von Merkmal der DNA-Methylierung und deren Kombinationen verwendet haben. Letztendlich wurden die extrahierten DNA-Methylierungsmerkmale mit den standardisierten Merkmalen kombiniert, um das RF-Modell zu trainieren und die Vorhersagegenauigkeit weiter zu verbessern. Die Ergebnisse zeigten, dass die vorgeschlagene Methode eine Genauigkeit von 92,2 % und eine Fläche unter der Kurve von 0,97 erreichte und die bestehenden Deep-Learning-basierten Methoden übertraf. Zusammenfassend könnte unsere Studie dazu beitragen, einen potenziellen Rahmen für die Anwendung von Deep Learning in der DNA-Methylierungsvorhersage bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1354-8_19 c7faa56c207f23d643b3bb354fca2c86;de;;;7.4.;;;Auf Fractional Fourier Transform basierende Funktionen für die Musikinstrumentenerkennung mit maschinellen Lerntechniken Dieses Papier berichtet über das Ergebnis der Musikinstrumentenerkennung unter Verwendung von Funktionen, die auf der fraktionalen Fourier-Transformation (FRFT) basieren. Die FRFT-Merkmale werden berechnet, indem die herkömmliche Fourier-Transformation im Mel Frequecny Cepstral-Koeffizienten (MFCC) durch FRFT ersetzt wird. Das Ergebnis des Systems, das FRFT verwendet, wird mit dem Ergebnis des Systems verglichen, das Mel-Frequenz-Cepstral-Koeffizienten (MFCC), Wavelet- und Timbrel-Funktionen mit verschiedenen Algorithmen für maschinelles Lernen verwendet. Das Experimentieren wird an isolierten Musikklängen von 19 Musikinstrumenten durchgeführt, die vier verschiedene Instrumentenfamilien abdecken. Das System mit FRFT-Funktionen übertrifft MFCC-, Wavelet- und Timbrel-Funktionen mit einer Erkennungsgenauigkeit von 91,84 % für einzelne Instrumente. Das System wird auf einer Benchmarking-Datenbank der McGill University für Musik getestet. Das experimentelle Ergebnis zeigt, dass mit FRFT musikalische Tonsignale besser dargestellt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-02931-3_19 14f0a9e8fb79b4107d06bf7b50568722;de;;;7.4.;;;Gesprochenes Sprachverständnis Beim Spoken Language Understanding (SLU) wird die Ausgabe der Spracherkennungskomponente genommen und eine Darstellung ihrer Bedeutung erzeugt, die vom Dialogmanager (DM) verwendet werden kann, um zu entscheiden, was als nächstes in der Interaktion zu tun ist. Da die Systeme dialogfähiger geworden sind und es dem Benutzer ermöglicht, seine Befehle und Anfragen auf natürlichere Weise auszudrücken, ist SLU zu einem heißen Thema für die nächste Generation von dialogorientierten Schnittstellen geworden. SLU umfasst eine breite Palette von Technologien, die für verschiedene Aufgaben der Textverarbeitung eingesetzt werden können. In diesem Kapitel geben wir einen Überblick über diese Technologien, wobei wir uns insbesondere auf diejenigen konzentrieren, die für das Conversational Interface relevant sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-32967-3_8 9538fb96c7a4a5d541388100fc06fc4d;de;;;7.4.;;;Big Data und Machine Learning für die Smart Factory – Lösungen für Condition Monitoring, Diagnose und Optimierung Die zunehmende Heterogenität von Automatisierungssystemen gepaart mit der Forderung nach mehr Flexibilität führt zu einer steigenden Komplexität von Produktionsanlagen. Aus diesem Grund werden Produktionsanlagen sehr fehleranfällig und die Fehlererkennung wird schwieriger. Darüber hinaus ist ein hohes Maß an Expertenwissen erforderlich, um Produktionsanlagen zu optimieren. Obwohl maschinelle Lernansätze helfen, diese Probleme zu bewältigen, stoßen diese Ansätze schnell an ihre Grenzen. Dadurch werden Ansätze mit Big Data immer beliebter, die dabei helfen, Zusammenhänge innerhalb der Daten zu finden, Anomalien (im Voraus) zuverlässig zu erkennen und eine automatische Optimierung des Systems zu ermöglichen. In diesem Beitrag werden einige Ansätze im Kontext von Big-Data-Analysen in diskreten kontinuierlichen und hybriden Produktionsanlagen vorgestellt. Dies ermöglicht Services in Smart Factories wie Condition Monitoring Diagnose und Optimierung. Abgerundet wird der Beitrag durch die Präsentation von Praxisbeispielen zur Anwendung der Smart Services.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-42559-7_18 ca7a14dcd6ab48284500254a35c52fae;de;;;7.4.;;;Amazigh PoS-Tagging mit Techniken des maschinellen Lernens Amazigh ist eine morphologisch reiche Sprache, die eine Herausforderung für das Part of Speech-Tagging darstellt. Part of Speech (POS) Tagging ist ein wichtiger Bestandteil für fast alle Anwendungsbereiche von Natural Language Processing (NLP).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-74500-8_51 f29f610d1c14282848b93c32b45ec4cd;de;;;7.4.;;;KI-gestützte Anwendungen erstellen Was bedeutet es, eine KI-gestützte Anwendung zu erstellen? Im vorherigen Kapitel haben wir damit begonnen, unser Denken in Bezug auf die Verhaltensweisen zu formen, die KI-Software aufweisen kann, wie z. Wir haben jedoch nicht diskutiert, wie ein solches Verhalten erreicht wird. Wir haben uns bewusst nicht auf eine bestimmte Technologie bezogen. Technologien spielen natürlich eine Rolle. Aber auch Technologien ändern sich ständig. Aus diesem Grund war es entscheidend, über KI-Anwendungen ohne Bezug auf bestimmte Technologien nachdenken zu können. Gleichzeitig müssen wir in der Lage sein, zu berücksichtigen, welche Technologien möglicherweise erforderlich sind, um fundierte Entscheidungen zu treffen. Dieses Kapitel beginnt, die Grundlagen in diese Richtung zu legen. Es geht tiefer in die Frage ein, wie KI-gestützte Anwendungen aufgebaut sind, und versucht, dies so zu tun, dass hoffentlich jeder folgen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-5476-9_3 1f1029f4e70178c77514e5fe583b7a67;de;;;7.4.;;;Adaptiver Mechanismus zur Erzeugung von Wasserzeichen basierend auf Zeitreihenvorhersage für die Stream-Verarbeitung Das Datenstrom-Verarbeitungs-Framework verarbeitet die Stromdaten basierend auf der Ereigniszeit, um sicherzustellen, dass die Anfrage in Echtzeit beantwortet werden kann. In Wirklichkeit kommen Streaming-Daten aufgrund von Faktoren wie Netzwerkverzögerungen normalerweise nicht in der richtigen Reihenfolge an. Das Datenstrom-Verarbeitungs-Framework verwendet im Allgemeinen den Wasserzeichenmechanismus, um die Unordnung der Daten anzugehen. Wasserzeichen sind eine besondere Art von Daten, die mit einem Zeitstempel in den Datenstrom eingefügt werden und dem Framework helfen zu entscheiden, ob die empfangenen Daten zu spät empfangen und somit verworfen werden. Herkömmliche Strategien zur Erzeugung von Wasserzeichen sind periodisch, sie können die Wasserzeichenverteilung nicht dynamisch anpassen, um die Reaktionsfähigkeit und Genauigkeit auszugleichen. Dieses Papier schlägt einen adaptiven Mechanismus zur Erzeugung von Wasserzeichen vor, der auf dem Zeitreihenvorhersagemodell basiert, um die obige Einschränkung zu beheben. Dieser Mechanismus passt die Häufigkeit und das Timing der Wasserzeichenverteilung unter Verwendung des ungeordneten Datenverhältnisses und anderer Verspätungseigenschaften des Datenstroms dynamisch an, um die Systemreaktionsfähigkeit zu verbessern, während eine akzeptable Ergebnisgenauigkeit sichergestellt wird. Wir implementieren den vorgeschlagenen Mechanismus auf Flink und evaluieren ihn mit realen Datensätzen. Die Versuchsergebnisse zeigen, dass unser Mechanismus den bestehenden Wasserzeichenverteilungsstrategien sowohl in Bezug auf die Reaktionsfähigkeit des Systems als auch auf die Ergebnisgenauigkeit überlegen ist.;-;-;-;https://link.springer.com/article/10.1007/s11704-020-0206-7 ce565ab812790e26508356c6a18d1983;de;;;7.4.;;;Neue Technologien und Wirtschaftspolitik im globalen System Das globale System setzt seinen Prozess fort, indem es seine Essenz durch einige schützende und nationalistische Versuche bewahrt. Tatsächlich ist es bezeichnend, dass das globale System eine multidimensionale und technologiegetriebene Struktur aufweist und dass nationalstaatliche Regulierungen neben transnationalen Praktiken stattfinden. In diesem System spielen neue Technologien eine große Rolle. Neue Technologien bestehen aus einigen Innovationen wie künstliche Intelligenz, Robotik, Big Data, Internet der Dinge, Cloud-Technologie usw., die das von Japan vorgeschlagene Konzept der „Gesellschaft 5.0“ und das von Deutschland vorgeschlagene Konzept der „Industrie 4.0“ beschreiben . Diese Technologien schaffen eine superintelligente Gesellschaft in Bezug auf ihre Auswirkungen auf die Verbesserung des menschlichen Lebens. Intelligente Technologien verbessern das menschliche Leben in den Bereichen Bildung, Gesundheit, Sicherheit usw. Andererseits prägen intelligente Technologien im Produktionsprozess das globale Produktionsnetzwerk und die innovativen Strategien von Unternehmen. Es ist erforderlich, dass neue Technologien nicht unkontrolliert in der Logik des „Laissez-faire“ bleiben, weil ihre Auswirkungen und Macht so groß sind. Daher sollten Nationalstaaten eine effiziente Wirtschaftspolitik betreiben, indem sie auch transnationale Praktiken berücksichtigen, so wie Japan und Deutschland ihre eigene nationale Sichtweise in Bezug auf Gesellschaft 5.0 und Industrie 4.0 entwickeln. In der Wirtschaftspolitik im Hinblick auf neue Technologien treten solche Felder in den Vordergrund: Wettbewerbspolitik auf der Grundlage des globalen Wettbewerbs und der Innovationsfähigkeit – Industrialisierungspolitik auf der Grundlage aufstrebender Industrien neuer Technologien – Politik des geistigen Eigentums auf der Grundlage der Rechte von Menschen Unternehmen, die Wissen und Innovation produzieren – Beschäftigungspolitik auf der Grundlage neuer Berufe und Spezialitäten im globalen Zeitalter – Sozialpolitik auf der Grundlage der Kontrolle durch neue Technologien auf das individuelle und gesellschaftliche Leben.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6811-8_8 dc8d830504fc39b6eef99716c55c2cfe;de;;;7.4.;;;Die Anwendung neuronaler Netze mit Faltungsalgorithmus in der westlichen Musikempfehlungspraxis Mit der rasanten Entwicklung der digitalen Musik nimmt die Zahl westlicher Musikwerke kontinuierlich zu, was es den Nutzern schwer macht, ihre Lieblingsmusikwerke konsequent schnell zu erkennen. Daher wird der Musikempfehlungsalgorithmus angewendet, um gezielt Musikwerke basierend auf vorherigem Benutzerverhalten zu empfehlen, was die Ermüdung der Benutzer reduzieren und das Gesamterlebnis des Benutzers verbessern könnte. Das Convolutional Neural Network (CNN) wird angewendet, um die gängigen Arten westlicher Musik zu klassifizieren, einschließlich klassischer Musik, Popmusik, Jazzmusik sowie Hip-Hop- und Rap-Musik. Anschließend wird CNN darauf trainiert, die beiden Aktivierungsfunktionen und die beiden Gradientenabstiegsverfahren zu erforschen, die während des Trainings verglichen und hinsichtlich ihrer Eigenschaften und Leistungen analysiert werden. Anschließend werden die Klassifikationsverfahren, die auf dem Spektrum und der umfassenden Merkmalsfrequenz von Spektrum bzw. Musiknoten basieren, verglichen. Forschungsergebnisse haben gezeigt, dass die Genauigkeitsrate der spektrumbasierten Klassifikationsmethode 96,5 % beträgt, während die der Klassifikationsmethode basierend auf der umfassenden Merkmalsfrequenz von Spektrum und Musiknoten um 2 % zunimmt. Somit ist der vorgeschlagene Musikklassifikationsalgorithmus für die Extraktion von Musiksemantik auf hohem Niveau sowie für die Förderung von Deep-Learning-Methoden im Bereich der Musiksignalanalyse von Bedeutung.;-;-;-;https://link.springer.com/article/10.1007/s12652-020-01806-5 0c7149a123cd657907bdfae877078b75;de;;;7.4.;;;Ein integriertes Modell zur Optimierung des medizinischen Kostensystems während des Diagnoseprozesses basierend auf einem Algorithmus der künstlichen Intelligenz Im Zeitalter der künstlichen Intelligenz durchläuft die Gesundheitsbranche enorme Innovationen und Entwicklungen, die auf ausgeklügelten KI-Algorithmen basieren. Diese Studie konzentrierte sich auf den Diagnoseprozess und die Zielkrankheit und schlug theoretisch ein integriertes Modell zur Optimierung des traditionellen medizinischen Kostensystems vor, das letztendlich dem medizinischen Personal und den Patienten hilft, zuverlässigere Entscheidungen zu treffen. Aus der neuen Perspektive der Gesamtkostenschätzung und der detaillierten Kostenanalyse besteht das vorgeschlagene Modell auf innovative Weise aus zwei intelligenten Modulen mit theoretischem Beitrag. Die beiden Module sind SVM-basierte Module und SOM-basierte Module. Gemäß der strengen vergleichenden Analyse mit zwei klassischen KI-Techniken, Backpropagation Neural Networks und Random Forests, wird gezeigt, dass das SVM-basierte Modul eine bessere Fähigkeit zur Schätzung der Gesamtkosten erreicht. In der Zwischenzeit wurden durch den Entwurf eines zweistufigen Clustering-Prozesses SOM-basierte Module effektiv generierte Entscheidungscluster und entsprechende Clusterzentren erhalten, die den komplexen Zusammenhang zwischen detaillierten Kosten und Patienteninformationen verdeutlichten. Um einen praktischen Beitrag zu leisten, wurde das vorgeschlagene Modell auf den Diagnoseprozess der koronaren Herzkrankheit angewendet. Die realen Daten eines Krankenhauses in Shanghai wurden gesammelt und die Gültigkeit und Genauigkeit des vorgeschlagenen Modells wurden mit strengen Experimenten überprüft. Das vorgeschlagene Modell optimierte das traditionelle medizinische Kostensystem innovativ und generierte auf intelligente Weise zuverlässige Entscheidungsinformationen sowohl für die Gesamtkosten als auch für die Detailkosten. Die erfolgreiche Anwendung bei der Zielkrankheit zeigt weiter, dass dieses Modell ein benutzerfreundliches Werkzeug für die Kontrolle der medizinischen Kosten und die Strategie der Therapie ist.;-;-;-;https://link.springer.com/article/10.1007/s10878-021-00761-x 99a7983fdd3e439e7100041c817ca448;de;;;7.4.;;;Citizen Visual Search Engine: Erkennung und Pflege von städtischen Objekten Die Allgegenwart von Satellitenbildern hat die Datenanalyse und das maschinelle Lernen großer geografischer Datensätze zunehmend zu einem der Bausteine ​​der visuell-räumlichen Intelligenz gemacht. Es ist der Schlüssel, um aktuelle (und zukünftige) kulturelle, soziale, finanzielle und politische Realitäten zu entdecken. Wie können wir als Designer und Forscher die Bürger dazu befähigen, die Gestaltung unserer Städte inmitten dieses technologischen Wandels zu verstehen und daran teilzunehmen? Als erster Schritt in Richtung dieses umfassenderen Ziels wurde eine Reihe kreativer Webanwendungen in Form von visuellen Suchmaschinen entwickelt und implementiert, um große Datensätze zu analysieren. Unter Verwendung von Open-Source-Deep-Learning- und Computer-Vision-Bibliotheken erleichtern diese Anwendungen das Suchen, Erkennen und Kuratieren von städtischen Objekten. Das Papier wiederum schlägt und formuliert einen Rahmen für die Gestaltung wirklich bürgerzentrierter kreativer visueller Suchmaschinen – ein Beitrag zu Citizen Science und Citizen Journalism in räumlicher Hinsicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-8410-3_13 d43ce28a4d535ec66e0858544680e7dc;de;;;7.4.;;;Aufbau eines Computermodells für die Stimmungsklassifizierung von Musik durch die Integration eines asymptotischen Ansatzes mit den Techniken des maschinellen Lernens In diesem Artikel arbeiten wir daran, das statistische Verhalten akustischer Merkmale von Audio für eine der ressourcenarmen Sprachen, die Kokborok aus Nordostindien ist, zu verstehen. Zuerst haben wir ein Klassifizierungssystem für Kokborok-Musik entwickelt, indem wir die traditionelle maschinelle Lerntechnik verwenden. Wir haben hauptsächlich die Funktionen Timbre, Rhythm und Intensity verwendet, um Songs in vier Klassen mit drei Unterklassen zu klassifizieren. Dieses Klassifikationssystem bietet im Vergleich zu anderen indischen Sprachen und westlichen Sprachen eine schlechte Leistung. Daher entwickeln wir eine Berechnungsmethode, um die Fehler für jede Klasse für das Gesamtsystem zu minimieren. Für solch eine arme Sprache mit geringen Ressourcen ist die Erstellung von Ground-Truth-Sets sehr schwierig. Daher wird das Verhalten der Audiofunktionen jedes Songs mathematisch analysiert, um zu verstehen, ob die Wahrheitsmenge korrekt ist oder nicht. Technisch müssen die Merkmalswerte für jede Klasse unterschiedlich sein und für Unterklassen in einem ähnlichen Bereich liegen. Wir haben einen statistischen Parameter namens „Alpha“ (α) definiert, um den besseren Wert der Genauigkeitsrate abzuschätzen. Dieser Parameter Alpha schätzt schließlich die endgültige Genauigkeitsrate. Dieses Alpha wird berechnet, und der endgültige Wert der Genauigkeitsrate wurde durch Extrapolieren berechnet, wenn die Anzahl der Songs gegen unendlich geht. Die Methode erhöht die tatsächliche Genauigkeitsrate von 49 auf 63 %, im Grenzbereich, wenn die Anzahl der Abtastungen ins Unendliche geht. Insgesamt kann unser Ansatz in Verbindung mit der maschinellen Lernmethode eine bessere Genauigkeitsrate für Kokborok-Musik vorhersagen.;-;-;-;https://link.springer.com/article/10.1007/s12652-020-02145-1 74c6ef1d980a04d05ed89cca3be33b77;de;;;7.4.;;;Ein Überblick über die chinesische Anaphora-Auflösung Die chinesische Anaphora-Auflösungstechnologie wird in vielen Verarbeitungsaufgaben natürlicher Sprache verwendet, wie z. B. maschinelle Übersetzung, Informationsextraktion und automatische Textzusammenfassung. In diesem Whitepaper stellen wir zunächst die Ressourcen für die Anaphora-Auflösung vor und präsentieren dann die bestehenden Arbeiten zur chinesischen Nominalphrasenauflösung basierend auf maschinellen Lern-, Deep-Learning- und Reinforcement-Learning-Techniken, indem wir die Ähnlichkeiten und Unterschiede zwischen ihnen analysieren. Schließlich diskutieren wir den zukünftigen Entwicklungstrend der chinesischen Anaphora-Auflösung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-78609-0_16 71d585620885d2430ed665c42a3612f4;de;;;7.4.;;;Defekte Gates in Quantenschaltungen finden: Hybrides maschinelles Lernen nutzen Aktuelle Implementierungen von Quantenlogik-Gattern können sehr fehlerhaft sein und Fehler einführen. Um diese Fehler zu korrigieren, müssen zunächst die fehlerhaften Gates identifiziert werden. Wir demonstrieren ein Verfahren zur Diagnose, wo Gate-Fehler in einer Schaltung auftreten, indem wir ein hybridisiertes Quanten- und klassisches;-;-;-;https://link.springer.com/article/10.1007/s11128-020-02729-y 01e92387096eed5b51e6231ddc26dd52;de;;;7.4.;;;Epigenetisches maschinelles Lernen: Nutzung von DNA-Methylierungsmustern zur Vorhersage der spastischen Zerebralparese Spastische Zerebralparese (CP) ist eine der Hauptursachen für körperliche Behinderungen. Die meisten Menschen mit spastischer CP werden damit geboren, aber eine frühzeitige Diagnose ist eine Herausforderung, und keine aktuelle Biomarker-Plattform identifiziert die betroffenen Personen ohne weiteres. Ziel dieser Studie war es, epigenetische Profile als Biomarker für spastische CP zu evaluieren. Eine neuartige Analysepipeline wurde eingesetzt, um DNA-Methylierungsmuster zwischen peripheren Blutzellen von jugendlichen Probanden (14,9 ± 0,3 Jahre alt) mit spastischer CP und Kontrollen bei einer einzelnen CpG-Auflösung zu beurteilen.;-;-;-;https://link.springer.com/article/10.1186/s12859-018-2224-0 f29ce2de922434b692b334a48b78eeea;de;;;7.4.;;;Modellierung eines Machine-Learning-Agenten für ein interaktives Interaktionssystem mit dem Max-Entropie-Ansatz in der Verarbeitung natürlicher Sprache Es gibt mehrere serviceorientierte Modelle, bei denen Dienste für den Benutzer bereitgestellt werden. Der Benutzer wählt eine davon aus. Während des Betriebslebenszyklus dieser Dienste treten mehrere Probleme auf. Benutzer möchte eine Schnittstelle für Beschwerden. In diesem Papier werden die Methoden zur Erkennung von Satzgrenzen, NER, Dokumentkategorisierung und Sentimentextraktion verwendet. Die Verarbeitung natürlicher Sprache erzeugt das Trainingsmodell, das eine statistische Darstellung des aktuellen Systemwissens ist. Wenn ein Benutzer die Eingabe eingibt, extrahiert das Trainingsmodell den Wert eines anderen Parameters, wobei diese Parameter vom Callcenter-Modell zum besseren Verständnis der Benutzereingabe verwendet werden. Das maschinelle Lernmodell, das verwendet wird, um eine logische Antwort zu generieren. Wenn die Zeit die Stichprobengröße überschreitet, sollten die Daten erhöht und das Modellverständnis auch immer genauer werden. Die Genauigkeit des Modells hängt von der Größe der Beispieltrainingsdaten ab. Wenn die Trainingsdatengröße zunimmt, wird das statistische Modell für das Callcenter aktualisiert. Wenn der Benutzer mit dem Call-Center-Agenten interagiert, extrahiert der Call-Center-Agent den Wert aller Parameter basierend auf dem aktuellen statistischen Modell, das auf den Muster-Trainingsdaten basiert. Das Papier verwendet verschiedene Parameter wie NER, Dokumentkategorie und Stimmung, um eine bessere Benutzerinteraktion zu ermöglichen. Die Wahrscheinlichkeit einer korrekten Antwort wird n-mal erhöht, wenn n Parameter für die Antwortgenerierung verwendet werden. Call-Center-Modul zur Unterstützung von Satzerkennung, NER, Dokumentkategorisierung und Stimmungstrainingsmodell zur Extraktion des Parameterwertes Diese Parameterwerte sind hilfreich, um die Bedeutung des NLP-Textes zu extrahieren. Die Antwortkorrektheit erhöht sich auch immer dann, wenn irgendein Parameter korrekt extrahiert wird. Für die statistische Modellierung wird der Ansatz der maximalen Entropie verwendet. Die Trainingsdaten stammen aus der heterogenen Quelle.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0132-6_14 53cade7165c02b6dd7297eb0f6629555;de;;;7.4.;;;Universelles Lernen über verwandte Verteilungen und adaptive Graphentransduktion Die Grundannahme „Trainings- und Testdaten aus der gleichen Verteilung“ wird in der Realität oft verletzt. In diesem Papier schlagen wir eine gemeinsame Lösung vor, um verschiedene Lernszenarien unter „verschiedenen, aber verwandten Verteilungen“ in einem einzigen Rahmen abzudecken. Explizite Beispiele umfassen (a) Stichprobenauswahlfehler zwischen Trainings- und Testdaten, (b) Transferlernen oder keine gekennzeichneten Daten in der Zieldomäne und (c) verrauschte oder unsichere Trainingsdaten. Die Hauptmotivation ist, dass man im Idealfall möglichst viele Probleme mit einem einzigen Ansatz lösen könnte. Die vorgeschlagene Lösung erweitert die Graphentransduktion unter Verwendung des Maximum-Margin-Prinzips auf unmarkierte Daten. Der Fehler des vorgeschlagenen Verfahrens ist unter vernünftigen Annahmen begrenzt, selbst wenn die Trainings- und Testverteilungen unterschiedlich sind. Die Versuchsergebnisse zeigen, dass das vorgeschlagene Verfahren die traditionelle Graphentransduktion um bis zu 15% in Genauigkeit und AUC in allen üblichen Situationen von Verteilungsunterschieden verbessert. Am wichtigsten ist, dass es mehrere hochmoderne Ansätze, die zur Lösung bestimmter Kategorien von Verteilungsunterschieden vorgeschlagen wurden, um bis zu 10 % an Genauigkeit übertrifft, dh BRSD [1] für Stichprobenauswahlfehler, CDSC [2] für Transferlernen usw Die Hauptbehauptung ist, dass die adaptive Graphentransduktion eine allgemeine und kompetitive Methode ist, um Verteilungsunterschiede implizit zu lösen, ohne den genauen Typ zu kennen und sich um ihn zu kümmern. Dazu gehören zumindest Stichprobenauswahlverzerrungen, Transferlernen, Unsicherheitsanalyse sowie solche, die noch nicht untersucht wurden. Der Quellcode und die Datensätze sind bei den Autoren erhältlich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04174-7_44 7525d8a6de4e1fa6ab4ede330a9258d1;de;;;7.4.;;;CORDIF: Ein auf maschinellem Lernen basierender Ansatz zur Identifizierung komplexer Wörter mit Intra-Wort-Feature-Set Die Identifizierung komplexer Wörter ist ein interessantes Forschungsproblem mit verschiedenen Anwendungsszenarien wie der Textvereinfachung. Es gibt verschiedene Ansätze, um komplexe Wörter zu identifizieren, indem man entweder den vollständigen Satz, in dem das Wort vorkommt, einbezieht oder sich nur auf das Wort konzentriert. Dieses Papier fällt in die spätere Kategorie, die wortinterne Merkmale verwendet, um ein Wort entweder als einfach oder komplex zu klassifizieren. Ein Modell namens CORDIF (Complex WoRD Identification with Intra-word Features). Die vorgeschlagene Methodik umfasst;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1642-5_26 4dc5b95fcd1afb08309e78f0c663c040;de;;;7.4.;;;Analyse und Vorhersage von Cyber-Supply-Chain-Bedrohungen mit maschinellem Lernen und Ontologie Die Sicherheit der Cyber ​​Supply Chain (CSC) erfordert ein sicheres integriertes Netzwerk zwischen den Subsystemen der eingehenden und ausgehenden Ketten. Gegner führen verschiedene Penetrations- und Manipulationsangriffe auf den Knoten eines integrierten CSC-Netzwerks durch. Die unterschiedlichen Integrationsstufen und die inhärente Systemkomplexität stellen potenzielle Schwachstellen und Angriffe dar, die auf andere Teile des Lieferkettensystems übergreifen können. Daher ist es unerlässlich geworden, systematische Bedrohungsanalysen und Vorhersagen innerhalb der CSC-Domäne zu implementieren, um die allgemeine Sicherheitslage zu verbessern. Dieses Papier präsentiert einen einzigartigen Ansatz, der den aktuellen Stand der Technik in der CSC-Bedrohungsanalyse und -vorhersage durch die Kombination von Arbeiten aus drei Bereichen voranbringt: Cyber ​​Threat Intelligence (CTI), Ontologien und Machine Learning (ML). Das Ergebnis unserer Arbeit zeigt, dass die Konzeptualisierung der Cybersicherheit mithilfe der ontologischen Theorie klare Mechanismen zum Verständnis der Korrelation zwischen der CSC-Sicherheitsdomäne bereitstellt und die Abbildung der ML-Vorhersage mit 80%iger Genauigkeit potenzieller Cyberangriffe und möglicher Gegenmaßnahmen ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-79150-6_41 30e09b1c42ca0d3736086c8b0020709f;de;;;7.4.;;;Verwendung des BERT-Modells zur Intent-Klassifizierung in Mensch-Computer-Dialogsystemen zur Reduzierung des Datenvolumenbedarfs Die Klassifikation der Benutzerabsicht ist eine Teilaufgabe des natürlichen Sprachverständnisses von Mensch-Computer-Dialogsystemen. Um den Datenvolumenbedarf von Deep Learning für die Intent-Klassifizierung zu reduzieren, schlägt dieses Papier eine Transfer-Lernmethode für chinesische Benutzer-Intent-Klassifizierungsaufgaben vor, die auf dem vortrainierten Sprachmodell Bidirectional Encoder Representations from Transformers (BERT) basiert. Zunächst wurde ein Simulationsexperiment mit 31 chinesischen Teilnehmern durchgeführt, um chinesische Mensch-Computer-Gesprächsdaten aus erster Hand zu sammeln. Anschließend wurden die Daten durch Rückübersetzung angereichert und nach dem Zufallsprinzip in Trainingsdatensatz, Validierungsdatensatz und Testdatensatz aufgeteilt. Als nächstes wurde das BERT-Modell in einen chinesischen User-Intent-Klassifikator verfeinert. Als Ergebnis erreicht die Vorhersagegenauigkeit des BERT-Klassifikators 99,95 %, 98,39 % und 99,89 % des Trainingsdatensatzes, des Validierungsdatensatzes und des Testdatensatzes. Das Ergebnis deutet darauf hin, dass die Anwendung des BERT-Transferlernens den Datenvolumenbedarf für die chinesische Absichtsklassifikationsaufgabe auf ein zufriedenstellendes Niveau reduziert hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-80285-1_59 7a9c586f5e40ab2cfdadf57277262d8e;de;;;7.4.;;;Künstliche Intelligenz und Legal Tech: Herausforderungen für den Rechtsstaat Künstliche Intelligenz prägt unser soziales Leben. Sie beeinflusst auch den Prozess der Gesetzgebung und Rechtsanwendung – geprägt durch den Begriff „Legal Tech“. Dementsprechend ist das Gesetz, wie wir es kennen, im Begriff, sich bis zur Unkenntlichkeit zu ändern. Grundlegende Rechtsgrundsätze wie Rechenschaftspflicht, Fairness, Nichtdiskriminierung, Autonomie, faire Verfahren und vor allem Rechtsstaatlichkeit sind gefährdet. Über die Regulierung von Legal Tech, die offensichtlich stark nachgefragt wird, ist jedoch bisher wenig gesprochen worden. In diesem Artikel wird vorgeschlagen, dass wir die Rechtsstaatlichkeit neu erfinden und auf die Technologie übertragen, indem wir die richtigen Standards entwickeln, die richtigen Standards setzen und grundlegende Rechtsprinzipien in Hard- und Software übersetzen. Kurz gesagt, es ist ein „rechtlicher Schutz durch Geschmacksmuster“ erforderlich und seine Umsetzung muss gesetzlich vorgeschrieben werden – gegebenenfalls mit Haftungszuweisung. Dies würde Legal Tech mit Rechtsstaatlichkeit in Einklang bringen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-32361-5_8 5ba90b61009eb1956dcf6e7f7aea8cfe;de;;;7.4.;;;Semantische Analyse basierende Formulare Informationsbeschaffung und Klassifikation Dateneingabeformulare werden in allen Arten von Unternehmen verwendet, um täglich Hunderte von Kundeninformationen zu sammeln. Die Informationen werden von den Kunden manuell ausgefüllt. Daher ist es mühsam und zeitaufwendig, diese Kundeninformationen manuell auf Computer zu übertragen. Darüber hinaus ist es teuer und menschliche Fehler können schwerwiegende Fehler verursachen. Die automatische Interpretation gescannter Formulare hat viele reale Anwendungen in Bezug auf Geschwindigkeit und Genauigkeit erleichtert, wie zum Beispiel das Auffinden von Schlüsselwörtern, das Sortieren von Postadressen, das Abgleichen von Skripten und die Identifizierung von Autoren. Diese Forschung beschäftigt sich mit verschiedenen Strategien, um Kundeninformationen aus diesen gescannten Formularen zu extrahieren, zu interpretieren und zu klassifizieren. Dementsprechend werden extrahierte Informationen zu ihrer Klassifizierung in Zeichen segmentiert und schließlich in Form von Datensätzen in Datenbanken zur weiteren Verarbeitung gespeichert. In diesem Beitrag werden diese semantisch basierten Analysestrategien für die Formularverarbeitung ausführlich diskutiert. Schließlich werden auch neue Richtungen für zukünftige Forschungen empfohlen.;-;-;-;https://link.springer.com/article/10.1007/3DRes.03%282013%294 c6f4f696f23926042ee100472d0ae082;de;;;7.4.;;;D2TFRS: Eine Objekterkennungsmethode für autonome Fahrzeuge basierend auf RGB und räumlichen Pixelwerten Autonomes Fahren ist bereits in naher Zukunft Realität und wird unsere Welt aufgrund seiner zahlreichen Vorteile verändern. Die größte Herausforderung bei dieser Aufgabe besteht darin, die Objekte in der Fahrumgebung korrekt zu identifizieren. In dieser Arbeit schlagen wir eine Objekterkennungsmethode namens Decision Tree and Decision Fusion based Recognition System (D2TFRS) für autonomes Fahren vor. Wir haben zwei separate Feature-Sets kombiniert, bei denen es sich um RGB-Pixelwerte und räumliche Punkte X,Y jedes Pixels handelt, um unseren Datensatz zu bilden. Das D2TFRS basiert auf unserer Intuition, dass die Neuklassifizierung von vorab identifizierten falsch klassifizierten Objekten in einer Fahrumgebung eine bessere Vorhersagegenauigkeit liefern kann. Die Ergebnisse zeigten, dass D2TFRS den AdaBoost-Klassifikator übertraf und in Bezug auf die Klassifikationsgenauigkeit und Kappa besser abgeschnitten hat als der C5.0-Klassifikator. In Sachen Geschwindigkeit übertrifft C5.0 sowohl AdaBoost als auch D2TFRS. D2TFRS übertraf jedoch AdaBoost in Bezug auf die Geschwindigkeit. Wir sind fest davon überzeugt, dass D2TFRS im Vergleich zu den anderen beiden Methoden eine bessere Parallelisierungsleistung aufweisen wird und dies in unserer zukünftigen Arbeit untersucht wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94180-6_16 9a3fe15a9a90ffdfcdddaf3b0870c5b1;de;;;7.4.;;;Ein interpretierbares Boosting-Modell zur Vorhersage von Nebenwirkungen von Analgetika bei Osteoarthritis Arthrose (OA) ist die häufigste Arthritis-Erkrankung. Analgetika werden häufig bei der Behandlung von Arthritis eingesetzt, die das Risiko für Herz-Kreislauf-Erkrankungen insgesamt um 20 bis 50 % erhöhen können. Es gibt nur wenige Studien zu den Nebenwirkungen von OA-Medikamenten, insbesondere die Risikovorhersagemodelle zu Nebenwirkungen von Analgetika. Darüber hinaus bieten die meisten Vorhersagemodelle keine klinisch nützlichen interpretierbaren Regeln, um den Argumentationsprozess hinter ihren Vorhersagen zu erklären. Um OA-Patienten zu unterstützen, verwenden wir die Methode eXtreme Gradient Boosting (XGBoost), um die Genauigkeit und Interpretierbarkeit des Vorhersagemodells auszugleichen.;-;-;-;https://link.springer.com/article/10.1186/s12918-018-0624-4 2ec60b68f8abba2f1eea4231d0ea9559;de;;;7.4.;;;Ein überarbeitetes Framework der Machine-Learning-Anwendung für eine optimale Aktivitätserkennung Data Science erweitert das manuelle Datenverständnis durch maschinelles Lernen für eine potenzielle Leistungssteigerung. In diesem Artikel wird die Methodik der Datenwissenschaft untersucht, um die Anwendung des maschinellen Lernens in der Smartphone-basierten automatischen menschlichen Aktivitätserkennung (HAR) zu verbessern. Schließlich werden im Rahmen des maschinellen Lernens ein modifiziertes Feature-Engineering und ein neues Post-Learning-Data-Engineering als Alternative zum Datenverständnis für eine effektive HAR vorgeschlagen. Der vorgeschlagene Rahmen wird an zwei verschiedenen HAR-Datensätzen untersucht, um eine Möglichkeit des datengesteuerten maschinellen Lernens für eine nahezu optimale Klassifizierung von Aktivitäten zu demonstrieren. Der vorgeschlagene Rahmen zeigte im Vergleich zu den bestehenden Methoden Effektivität und Effizienz. Das modifizierte Feature-Engineering führte dazu, dass 42 % weniger Features von der Support-Vektor-Maschine benötigt wurden, um 97,3 % der korrekten Erkennung menschlicher körperlicher Aktivitäten zu erzielen. Durch das Hinzufügen von Post-Learning Data Engineering wurde das Modell jedoch weiter verbessert, um eine 99% genaue Klassifizierung durchzuführen, was eine fast optimale Leistung ist.;-;-;-;https://link.springer.com/article/10.1007/s10586-017-1212-x 43cf1db2094915dde0005a0f9a57581a;de;;;7.4.;;;Datenklassifizierung mit groben Sets und naiven Bayes Der naive Bayes-Klassifikator ist einer der effektivsten und effizientesten Klassifikationsalgorithmen. Die elegante Einfachheit und scheinbare Genauigkeit von naivem Bayes (NB), selbst wenn die Unabhängigkeitsannahme verletzt wird, fördert das anhaltende Interesse am Modell. Die Rough Sets Theory wurde für verschiedene Aufgaben in der Wissensfindung verwendet und erfolgreich in vielen realen Problemen angewendet. In dieser Studie nutzen wir die Fähigkeit von Grobsätzen, um die Abhängigkeiten von Attributen zu entdecken, um die unpraktische Annahme von NB zu überwinden. Wir schlagen einen neuen Algorithmus namens Rough-Naive Bayes (RNB) vor, von dem erwartet wird, dass er andere aktuelle NB-Varianten übertrifft. RNB basiert auf der Anpassung der Gewichtung von Attributen basierend auf ihren Abhängigkeiten und ihrem Beitrag zur endgültigen Entscheidung. Experimentelle Ergebnisse zeigen, dass RNB eine bessere Leistung als NB-Klassifizierer erzielen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16248-0_23 0574158df2fd8dcf76aacb68e496ebda;de;;;7.4.;;;Studium und Analyse von Apriori und Aufstrebende Technologien wie Cloud Computing und Data Mining beschäftigen sich mit Themen wie Skalierbarkeit, Sicherheit und Effizienz. Web Mining wird allgemein unter Data Mining eingeordnet und bezieht sich auf die resultierende Datenkombination, die durch das Zusammenstellen von Daten, die im Web verfügbar sind, und Information Mining-Techniken erhalten wird. Im Allgemeinen kann Mining als der Prozess definiert werden, wichtige Dinge aus riesigen Datensätzen zu extrahieren. Zu den Anwendungen des Web Mining gehören die Bewertung der erfolgreichen Durchführung einer bestimmten Aufgabe, die Beurteilung der Anwendbarkeit bestimmter Websites und das Verständnis des Kundenverhaltens. Die vorgeschlagene Arbeit befasst sich mit verteilten Netzwerken und zielt darauf ab, die Effizienz von Data-Mining- und Cloud-Computing-Techniken zu verbessern. Das Hauptziel besteht darin, eine Lösung zum Generieren verschiedener Itemsets in jeder Site zu finden. Ein bekannter Algorithmus im Data Mining ist der Apriori-Algorithmus, der seltene Elemente auf Kosten nützlicher Daten verwirft. Eine wesentliche Einschränkung dieses Algorithmus ist seine Langsamkeit aufgrund erhöhter Transaktionen. Das;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3172-9_65 ae113a7c408dd4770f063cc30c818cb7;de;;;7.4.;;;Analyse des Verhaltens von objektiven Regelbewertungsindizes basierend auf dem Pearson-Produkt-Moment-Korrelationskoeffizienten In diesem Papier präsentieren wir eine Analyse des Verhaltens objektiver Regelbewertungsindizes auf Klassifikationsregelsätzen unter Verwendung von Pearson-Produkt-Moment-Korrelationskoeffizienten zwischen jedem Index. Zur Unterstützung der Data-Mining-Nachbearbeitung, die eines der wichtigen Verfahren in einem Data-Mining-Prozess ist, werden mindestens 40 Indizes vorgeschlagen, um wertvolle Erkenntnisse zu gewinnen. Ihr Verhalten wurde jedoch nie klar artikuliert. Daher haben wir eine Korrelationsanalyse zwischen den einzelnen objektiven Regelbewertungsindizes durchgeführt. In dieser Analyse haben wir Durchschnittswerte jedes Index mit der Bootstrap-Methode für 32 Klassifikationsregelsätze berechnet, die mit dem Informationsgewinnverhältnis gelernt wurden. Dann fanden wir die folgenden Beziehungen basierend auf den Korrelationskoeffizientenwerten: ähnliche Paare, abweichende Paare und unabhängige Indizes. Im Hinblick auf dieses Ergebnis diskutieren wir über relative funktionale Beziehungen zwischen jeder Gruppe von Zielindizes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68123-6_9 6a65156db0ebc00ae0e974c3bbe2e0bb;de;;;7.4.;;;Eine Umfrage zur Sentimentanalyse in portugiesischer Sprache Die Stimmungsanalyse ist ein Studiengebiet, das darauf abzielt, Computermethoden und -werkzeuge zu entwickeln, um die Meinungen und Emotionen zu extrahieren und zu klassifizieren, die von Menschen in sozialen Netzwerken, Blogs, Foren, Online-Shopping und anderen geäußert werden. Es wurde eine Menge Forschung entwickelt, die sich mit Meinungen befasst, die in englischer Sprache geäußert werden. Das Studium der portugiesischen Sprache muss jedoch noch vorangetrieben werden, um die Besonderheiten der Sprache besser nutzen zu können. Dieses Papier soll einen Überblick über die Bemühungen geben, die speziell zur Sentimentanalyse in der portugiesischen Sprache unternommen wurden. Es kategorisiert und beschreibt hochmoderne Arbeiten, die Ansätze für jede der Aufgaben der Stimmungsanalyse beinhalten, sowie unterstützende Sprachressourcen wie Tools zur Verarbeitung natürlicher Sprache, Lexika, Korpora, Ontologien und Datensätze.;-;-;-;https://link.springer.com/article/10.1007/s10462-020-09870-1 2e59d5afb16a86dfa6b31816edae6d53;de;;;7.4.;;;Verbandsregel Data Mining in der Landwirtschaft – Ein Rückblick Die Landwirtschaft ist eine der wichtigsten Beschäftigungen, die Jahrhunderte - alte Menschen - ausgeübt haben. Die Landwirtschaft ist das Rückgrat unserer Nation. Dies ist eigentlich der Beruf, der den Nahrungsbedarf der Menschen deckt. In diesem Beitrag untersuchen wir bestimmte Data-Mining-Techniken (Assoziationsregel) im Bereich der Landwirtschaft. Einige dieser Techniken werden erklärt, wie der Apriori-Algorithmus, K-nächster Nachbar und K-Mittel, und die Implementierung dieser Techniken wird in diesem Bereich dargestellt. In diesem Bereich ist die Wirksamkeit der Assoziativregel erfolgreich. Im Hinblick auf die Details von landwirtschaftlichen Böden und anderen Datensätzen repräsentiert dieses Papier die Rolle des Data Mining (Assoziationsregel). Dieses Papier stellt daher die verschiedenen Algorithmen und Data-Mining-Techniken in der Landwirtschaft vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37218-7_27 303fb9c114ac64d2ded1530db9627090;de;;;7.4.;;;Jobempfehlung basierend auf dem Lebenslauf mit Text Mining In den letzten Jahren hat die Entwicklung in diversen Bereichen der Informatik und des Internets ermöglicht, neue Entscheidungsalternativen bei der Personalauswahl für staatliche und private Unternehmen zu generieren. Um diesen Auswahlprozess zu optimieren, eignen sich die Empfehlungssysteme am besten für die Arbeit mit expliziten Informationen zu Vorlieben und Abneigungen von Arbeitgebern oder Endnutzern, da diese Informationen die Erstellung von Empfehlungslisten basierend auf Zusammenarbeit oder inhaltlicher Ähnlichkeit ermöglichen. Aus diesem Grund werden für diese Untersuchung diese Merkmale zugrunde gelegt, die in der Datenbank der Lehrpläne und Stellenangebote enthalten sind, die dem peruanischen Rahmen entsprechen, die die Erfahrungen, Kenntnisse und Fähigkeiten jedes Kandidaten hervorheben, die in Textform oder Worten beschrieben werden. Diese Forschung konzentriert sich auf das Problem: Wie wir das Wachstum unstrukturierter Informationen über Stellenangebote und Lebensläufe auf verschiedenen Websites für die Empfehlung von Lebensläufen nutzen können. Dazu verwenden wir die Techniken aus Text Mining und Natural Language Processing. Als relevante Technik für die vorliegende Studie betonen wir dann die Technikhäufigkeit des Begriffs – Inverse Häufigkeit der Dokumente (TF-IDF), die es ermöglicht, die relevantesten Lebensläufe in Bezug auf ein Stellenangebot der Website anhand der Durchschnittswerte zu identifizieren (TF-IDF). Somit kann der gewichtete Wert als Qualifikationswert des jeweiligen Lebenslaufs für die Empfehlung verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-73100-7_72 fd725c01801a8fcb22e30b7a2a0e3e78;de;;;7.4.;;;Ein Vergleich genetischer Algorithmen zur Optimierung der sprachlich informierten IR bei der Beantwortung von Fragen In diesem Beitrag vergleichen wir vier Selektionsstrategien in der evolutionären Optimierung des Information Retrieval (IR) in einem Frage-Antwort-Setting. Der IR-Index wurde um linguistische Funktionen erweitert, um die Abrufleistung potenzieller Antwortpassagen mithilfe von Abfragen zu verbessern, die aus Fragen in natürlicher Sprache generiert wurden. Wir verwenden einen genetischen Algorithmus, um die Auswahl von Merkmalen und deren Gewichtung bei der Abfrage der IR-Datenbank zu optimieren. Mit unseren Experimenten können wir zeigen, dass der verwendete genetische Algorithmus robust gegenüber Strategieänderungen ist, die zur Auswahl von Individuen verwendet werden. Alle Tests liefern Abfrageeinstellungen mit verbesserter Abrufleistung, wenn sie auf nicht sichtbare Daten angewendet werden. Allerdings können wir bei der Anwendung der verschiedenen Auswahlansätze erhebliche Laufzeitunterschiede feststellen, die bei der Auswahl eines dieser Ansätze berücksichtigt werden sollten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74782-6_35 802d1d54d178b826762da0f1eaf6e30b;de;;;7.4.;;;Der realistische Ansatz zur Bewertung von Computational Intelligence im Software Engineering Bei der Entwicklung von gesicherter Software muss eine Sicherheitsmentalität in allen Software-Engineering-Praktiken angewendet werden. Softwaresicherheit muss in der Anforderungsphase berücksichtigt werden, damit sie während der gesamten Entwicklungsphase berücksichtigt wird. Bekommt das Anforderungserfassungsteam den richtigen Input vom technischen Team? Dieses Whitepaper deckt einige der Datenquellen auf, die in den Softwareentwicklungsphasen verborgen sind, und beschreibt die möglichen Ansätze, sie zu verstehen. Konzepte wie maschinelles Lernen und Deep Learning werden untersucht, um die Datenquellen zu verstehen und zu untersuchen, wie diese Erkenntnisse dem Anforderungserfassungsteam zur Verfügung gestellt werden können. Dieses Wissenssystem trägt dazu bei, die Gespräche zwischen dem Anforderungserfassungsteam und dem Geschäftsteam des Kunden zu objektivieren. Es wird auch eine Literaturrecherche durchgeführt, um das Anforderungsmanagement sicherzustellen und mögliche Lücken bei der Bereitstellung zukünftiger Forschungsrichtungen zu identifizieren, um unser Verständnis zu verbessern. Feature Engineering in der Landschaft der Softwareentwicklung wird erforscht, um die Datenquellen zu verstehen. Experten geben ihre Einblicke in die Grundursache des mangelnden Sicherheitsfokus bei der Erfassung von Anforderungen. Das Kernthema ist die statistische Modellierung aller Softwareartefakte, die Informationen zum Softwareentwicklungslebenszyklus enthalten. Die Stärkung einiger traditioneller Methoden wie der Bedrohungsmodellierung ist ebenfalls ein Schlüsselbereich, der untersucht wird. Die Subjektivität, die mit diesen Ansätzen verbunden ist, kann objektiver gemacht werden.;-;-;-;https://link.springer.com/article/10.1007/s11334-020-00383-2 2815d141bd8914c80e919b9804c8fd6a;de;;;7.4.;;;Entwicklung der allgemeinen Struktur der Wissensdatenbank für Neuro-Fuzzy-Modelle Ein wesentliches Merkmal des Übergangs zu einer postindustriellen und digitalen Wirtschaft ist der Übergang zur „Wissensproduktion“. Dieser Prozess führt zu einer lawinenartigen Zunahme der Datenmenge und zur Komplikation der Algorithmen zu ihrer Verarbeitung. Daher ist die Aufgabe, eine Vielzahl von schlecht strukturierten Wirtschaftsinformationen zu analysieren, Trends und Anomalien zu erkennen und deren inhaltliche Interpretation in vielen Bereichen der modernen Wirtschaft von großer Bedeutung zu sein. Zur Lösung dieser Problemklasse empfiehlt sich der Einsatz von Methoden des maschinellen Lernens und des „Soft Computing“, die zusammen mit der Entwicklung spezialisierter Expertensysteme und dem Einsatz heuristischer Algorithmen dazu beitragen, den Prozess der Wissensidentifikation und -interpretation zu automatisieren eine breite Palette von Bereichen. Der Artikel diskutiert die Entwicklung und Softwareimplementierung der Wissensbasis für ein intelligentes System. Gegenstand der Studie ist der Prozess der Speicherung und Fixierung von heuristischem Wissen, Gegenstand der Studie ist das Konzept und die Struktur der Speicherung von Regeln der Ausgabe und Verarbeitung dynamischer Informationen. Der Beitrag beschreibt die Probleme bei der Entwicklung und Implementierung künstlicher intelligenter Systeme, betrachtet die Verwendung von Neuro-Fuzzy-Modellen zur Bildung solcher Systeme, betrachtet die Definition von MIVAR und stellt ein universelles Speicherschema für die Wissensbasis in weiten Bereichen vor von Bereichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37919-3_82 2c1c3b8deea747f6f3fada8cdeaec621;de;;;7.4.;;;Parameterinferenz von kostensensitiven Boosting-Algorithmen Es wurde von mehreren kostensensitiven Boosting-Algorithmen als effektive Methoden im Umgang mit Klassenungleichgewichtsproblemen berichtet. Die Kosten für Fehlklassifizierungen, die die unterschiedliche Bedeutung der Klassenidentifikation widerspiegeln, werden in die Gewichtungsaktualisierungsformel des AdaBoost-Algorithmus integriert. Es hat sich jedoch gezeigt, dass der Gewichtsaktualisierungsparameter von AdaBoost so induziert wird, dass der Trainingsfehler am schnellsten reduziert werden kann. Dies ist der wichtigste Schritt von AdaBoost, um einen schwachen Lernalgorithmus in einen starken umzuwandeln. Die meisten berichteten kostensensitiven Boosting-Algorithmen ignorieren jedoch eine solche Eigenschaft. In diesem Artikel stellen wir drei Versionen von kostensensitiven AdaBoost-Algorithmen vor, bei denen die Parameter für die Aktualisierung des Stichprobengewichts induziert werden. Dann werden ihre Identifizierungsfähigkeiten in den kleinen Klassen an vier medizinischen Datensätzen aus der „realen Welt“ getestet, die aus der UCI Machine Learning Database basierend auf F-Maß stammen. Unsere experimentellen Ergebnisse zeigen, dass einer unserer vorgeschlagenen kostensensitiven AdaBoost-Algorithmen von allen berichteten kostensensitiven Boosting-Algorithmen die beste Identifizierungsfähigkeit für die kleine Klasse erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/11510888_3 f75d048e41286ae8ad78746631ba8999;de;;;7.4.;;;Visualisierung multipler Einflüsse auf die ozellare Flugsteuerung bei Riesenhonigbienen mit dem Data-Mining-Tool Viscovery SOMine Viscovery SOMine ist ein Softwaretool zur erweiterten Analyse und Überwachung numerischer Datensätze. Es wurde für den professionellen Einsatz in Wirtschaft, Industrie und Wissenschaft entwickelt und unterstützt Abhängigkeitsanalyse, Abweichungserkennung, unüberwachtes Clustering, nichtlineare Regression, Datenassoziation, Mustererkennung und animierte Überwachung. Basierend auf dem Konzept der selbstorganisierenden Karten (SOMs) verwendet es eine robuste Variante unüberwachter neuronaler Netze – nämlich Kohonens Batch-SOM, das durch eine neue Skalierungstechnik zur Beschleunigung des Lernprozesses weiter verbessert wird. Dieses Tool bietet ein leistungsstarkes Mittel, um komplexe Datensätze ohne statistische Vorkenntnisse zu analysieren. Die im trainierten SOM enthaltene Datenrepräsentation wird systematisch umgewandelt, um in einem Spektrum von Visualisierungstechniken verwendet zu werden, wie z. Wir haben dieses Softwaretool verwendet, um mehrere Einflüsse des Augensystems auf das Freiflugverhalten bei Riesenhonigbienen zu analysieren und zu visualisieren. Die Okklusion von Ocellen beeinflusst die Orientierungsreaktivität in Bezug auf das Flugziel, den Störungsgrad und die Position der Biene in der Flugkammer, sie induziert Phototaxis und macht die Orientierung ungenau und von Motivationseinstellungen abhängig. Ocelli ermöglichen die Anpassung von Orientierungsstrategien an Umweltanforderungen, indem sie Fähigkeiten wie Zentrierung oder Flugkinetik durchsetzen und eine unabhängige Kontrolle von Körperhaltung und Flugkurs bereitstellen.;-;-;-;https://link.springer.com/article/10.3758/BF03200797 7cf0a928808d0816311f76afd0593929;de;;;7.4.;;;Mining mit Agent Enriched Distributed Association Rules: Ein Rückblick Distributed Data Mining (DDM) befasst sich mit der Anwendung des klassischen Data Mining (DM)-Ansatzes in einer Distributed Computing (DC)-Umgebung, damit die verfügbaren Ressourcen einschließlich Kommunikationsnetzwerken, Recheneinheiten und verteilten Datenspeichern, menschlichen Faktoren usw. genutzt werden können auf bessere Weise und online, auf Entscheidungsunterstützung basierende verteilte Anwendungen in Echtzeit entworfen werden können. Ein Mobile Agent (MA) ist ein autonomes transportables Programm, das in einem heterogenen Netzwerk unter eigener oder Host-Steuerung von einem Knoten zu einem anderen migrieren kann. Dieses Dokument beleuchtet den agentenbasierten Ansatz zum Mining der Assoziationsregeln aus verteilten Datenquellen und schlägt ein weiteres Framework namens Agentenangereichertes Mining von Strong Association Rules (AeMSAR) aus verteilten Datenquellen vor. Als Agententechnologie-Paradigma der DC hat in den letzten Jahren viel Forschung gewonnen, daher wird die Bildung einer Allianz aus Agent und Association Rules Mining (ARM) dazu beitragen, die Association Rules in einer verteilten Umgebung besser zu minen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27609-5_4 6c20c04781e93ffcfc07e97550c9511b;de;;;7.4.;;;Abstrahieren visueller Wahrnehmungen zum Erlernen von Konzepten Eigenschaften aus seiner Umgebung effizient zu identifizieren ist eine wesentliche Fähigkeit eines mobilen Roboters, der mit Menschen interagieren muss. Erfolgreiche Ansätze, Roboter mit solchen Fähigkeiten auszustatten, basieren auf einer Ad-hoc-Wahrnehmungsdarstellung, die von KI-Designern bereitgestellt wird. Stattdessen ist es unser Ziel, autonome mobile Roboter auszustatten (in unseren Experimenten a;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45622-8_19 6039aa53bf51946a763674a063b338af;de;;;7.4.;;;Auf dem Weg zu einem affektiven Computermodell für das Maschinenbewusstsein In der Vergangenheit wurden Computermodelle für das Maschinenbewusstsein mit unterschiedlichen Herausforderungen für die Implementierung vorgeschlagen. Affective Computing konzentriert sich auf die Entwicklung von Systemen, die menschliche Affekte simulieren, erkennen und verarbeiten können, die sich auf das Erleben von Gefühlen oder Emotionen beziehen. Die affektiven Attribute sind wichtige Faktoren für die Zukunft des Maschinenbewusstseins mit dem Aufkommen von Technologien, die den Menschen unterstützen und auch vertrauenswürdige Beziehungen zwischen Menschen und künstlichen Systemen aufbauen können. In diesem Artikel wird ein affektives Computermodell für das Maschinenbewusstsein mit einem System zur Verwaltung der wichtigsten Funktionen vorgestellt. Reale Szenarien werden vorgestellt, um die Funktionalität des Modells weiter zu veranschaulichen und einen Fahrplan für die rechnerische Implementierung bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-70139-4_91 72bfddb5cbab98857638ccea1f2f738a;de;;;7.4.;;;Data Mining für temporäre Daten In diesem Kapitel stellen wir Analysetechniken für zeitliche Daten vor. Zunächst diskutieren wir die unterschiedlichen Datenstrukturen beim Temporal Mining, stellen die unterschiedlichen Analyseziele und Modelle vor und geben anschließend einen Überblick über die entsprechenden Analysetechniken. Abschnitt 6.2 betrachtet Time Warping und Antwortmerkmalsanalyse für Clustering und Klassifikation, Abschn. 6.3 diskutiert Regressionsmodelle und ihre Rolle bei der Vorhersage des Zeitraums bis zum Eintreten eines Ereignisses und Abschn. 6.4 führt in die Analyse von Markov-Ketten ein. Die folgenden Abschnitte behandeln Analysetechniken für zeitliche Muster, insbesondere Assoziationsanalyse, Sequence Mining und Episode Mining.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46531-8_6 04f6499247d6695f280e23dd86287e91;de;;;7.4.;;;Unterstützung der vektorinduktiven Logikprogrammierung In diesem Beitrag untersuchen wir ein Thema, das an der Schnittstelle zweier Bereiche des maschinellen Lernens liegt: nämlich Support Vector Machines (SVMs) und Inductive Logic Programming (ILP). Wir schlagen eine allgemeine Methode zum Konstruieren von Kerneln für Support Vector Inductive Logic Programming (SVILP) vor. Der Kernel erfasst nicht nur die in den Daten enthaltenen semantischen und syntaktischen relationalen Informationen, sondern bietet auch die Flexibilität, beliebige Formen von strukturierten und nicht strukturierten relational codierten Daten zu verwenden. Während spezialisierte Kernel für Strings, Bäume und Graphen entwickelt wurden, verwendet unser Ansatz deklaratives Hintergrundwissen, um den Lernbias bereitzustellen. Die Verwendung von explizit kodiertem Hintergrundwissen unterscheidet SVILP von existierenden relationalen Kerneln, die in ILP-Begriffen rein auf der atomaren Generalisierungsebene arbeiten. Der SVILP-Ansatz ist eine Form der Verallgemeinerung in Bezug auf Hintergrundwissen, obwohl die letzte Kombinationsfunktion für die ILP-erlernten Klauseln eher eine SVM als eine logische Konjunktion ist. Wir bewerten SVILP empirisch gegen verwandte Ansätze, einschließlich eines branchenüblichen Toxin-Prädiktors namens TOPKAT. Die Auswertung erfolgt anhand eines neuen breit angelegten Toxizitätsdatensatzes (DSSTox). Die experimentellen Ergebnisse zeigen, dass unser Ansatz alle anderen Ansätze der Studie deutlich übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-33486-6_5 74dc6f9df631bbbbff055101babdde19;de;;;7.4.;;;Data-Mining-Algorithmen zur Erkennung von Landbedeckungsänderungen: eine Übersicht Die Erkennung von Landbedeckungsänderungen ist ein Thema aktiver Forschung in der Fernerkundungsgemeinschaft. Aufgrund der enormen Datenmenge, die von Satelliten verfügbar ist, hat es die Aufmerksamkeit von Data-Mining-Forschern auf sich gezogen, nach einer neuen Lösungsrichtung zu suchen. Die Datenprodukte des Terra Moderate Resolution Imaging Spectrometer (MODIS) Vegetationsindex (EVI/NDVI) werden zur Erkennung von Landbedeckungsänderungen verwendet. Diese Datenprodukte sind mit verschiedenen Herausforderungen wie Saisonalität der Daten, räumlich-zeitliche Korrelation, fehlende Werte, schlechte Messqualität, hohe Auflösung und hochdimensionale Daten verbunden. Die Erkennung von Landbedeckungsänderungen wurde oft durch Vergleichen von zwei oder mehr Satelliten-Schnappschüssen durchgeführt, die an verschiedenen Daten aufgenommen wurden. Die Bildvergleichstechniken haben eine Reihe von Einschränkungen. Die Data-Mining-Technik bewältigt viele Herausforderungen wie fehlende Werte und Messungen mit schlechter Qualität, die im Datensatz vorhanden sind, indem sie die Vorverarbeitung der Daten durchführt. Darüber hinaus sind die Data-Mining-Ansätze in der Lage, große Datensätze zu verarbeiten und einige der inhärenten Eigenschaften von raum-zeitlichen Daten zu nutzen, sodass sie auf immer umfangreichere Datensätze angewendet werden können. Dieses Papier behandelt im Detail verschiedene Data-Mining-Algorithmen zur Erkennung von Landbedeckungsänderungen und die Vorteile und Grenzen jedes Algorithmus. Auch eine empirische Studie einiger existierender Algorithmen und Ergebnisse zur Erkennung von Landbedeckungsänderungen wurde in diesem Artikel vorgestellt.;-;-;-;https://link.springer.com/article/10.1007/s12046-017-0751-4 46d13cefb720a2257ac9fa95fee9c0b3;de;;;7.4.;;;Integration von Data Mining und Simulationsoptimierung für die Entscheidungsfindung in der Fertigung Hersteller sehen sich einer ständig steigenden Nachfrage nach kundenindividuellen Produkten einerseits und umweltfreundlichen Produkten andererseits gegenüber. Diese Situation betrifft sowohl die Produkt- als auch die Prozesslebenszyklen. Um die Entscheidungsfindung über diese Lebenszyklen hinweg zu lenken, wird die Leistung heutiger Fertigungssysteme durch das Sammeln und Analysieren großer Datenmengen, hauptsächlich aus der Fertigung, überwacht. Ein neues Forschungsfeld, Data Mining, kann in diesen Daten verborgene Erkenntnisse aufdecken. Erkenntnisse allein führen jedoch nicht immer zu umsetzbaren Empfehlungen. Simulationsmodelle werden häufig verwendet, um die Auswirkungen verschiedener Entscheidungen auf die Leistung unter verschiedenen Betriebsbedingungen zu testen und zu bewerten. Mit zunehmender Anzahl möglicher Betriebsbedingungen steigen auch die Komplexität und die Schwierigkeit, diese Auswirkungen zu verstehen und zu bewerten. Dieses Kapitel beschreibt eine Entscheidungsfindungsmethodik, die Data Mining und Simulation kombiniert. Data Mining entwickelt Assoziationen zwischen System und Leistung, um Szenarien für Simulationseingaben abzuleiten. Danach wird die Simulation in Verbindung mit der Optimierung verwendet, um umsetzbare Empfehlungen zu erzeugen. Wir demonstrieren die Methodik am Beispiel einer Maschinenhalle, in der es darum geht, Energieverbrauch und Produktionszeit zu optimieren. Die Implementierung dieser Methodik erfordert Schnittstellenstandards. Daher werden in diesem Kapitel auch Kandidatenstandards und Lücken in diesen Standards für die Informationsdarstellung, Modellzusammensetzung und Systemintegration erörtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-55810-3_3 64b4f0446c7c7839ec461040b463b9bb;de;;;7.4.;;;Microarray-Data-Mining mit wegweisendem gengesteuertem Clustering Clustering ist eine beliebte Datenexplorationstechnik, die in der Mikroarray-Datenanalyse weit verbreitet ist. Die meisten herkömmlichen Clustering-Algorithmen erzeugen jedoch unabhängig vom biologischen Kontext der Analyse nur einen Satz von Clustern. Dies reicht oft nicht aus, um Daten aus unterschiedlichen biologischen Perspektiven zu untersuchen und neue Erkenntnisse zu gewinnen. Wir schlagen ein neues Clustering-Modell vor, das mehrere Versionen verschiedener Cluster aus einem einzigen Datensatz generieren kann, von denen jede einen anderen Aspekt des gegebenen Datensatzes hervorhebt.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-9-92 552f8c626c1ab7dff6bdecb1567f04c8;de;;;7.4.;;;Maschinelles Lernen und kombinatorische Optimierung zur Erkennung von Gen-Gen-Interaktionen in genomweiten Realdaten: Blick durch das Prisma von vier Methoden und zwei Protokollen Bei den meisten genetischen Erkrankungen besteht eine große Lücke zwischen der aus familiären Daten geschätzten Erblichkeit und der durch standardisierte genomweite Assoziationsstudien erklärten Erblichkeit. Eine der Anreizlinien der Forschung ist Epistase - oder Gen-Gen-Interaktion -. Die Epistase-Erkennung stellt jedoch rechnerische Herausforderungen. Dieser Beitrag stellt drei Beiträge vor. Unser erster Beitrag zielt darauf ab, das Fehlen von Feedback zum Verhalten von veröffentlichten Methoden zur Epistase zu füllen, wenn sie auf reale genetische Daten angewendet werden. Wir haben Experimente entworfen, um vier veröffentlichte Ansätze zu vergleichen, die Random Forests, Bayes'sche Inferenz, Optimierungstechniken und Markov Blanket-Learning umfassen. In den Vergleich haben wir den neu entwickelten Ansatz SMMB-ACO (Stochastic Multiple Markov Blankets with Ant Colony Optimization) einbezogen. Wir haben einen veröffentlichten Datensatz zum Morbus Crohn verwendet. Wir verglichen die Methoden in allen Aspekten: Laufzeiten und Speicherbedarf, Anzahl der interessierenden Interaktionen (statistisch signifikante 2-Wege-Interaktionen), p-Wert-Verteilungen, Anzahl der Interaktionsnetzwerke und Struktur dieser Netzwerke. Unser zweiter Beitrag untersucht, ob es einen Einfluss der Merkmalsauswahl, durchgeführter Upstream-Epistasis-Erkennung, auf die vorherigen Statistiken und Verteilungen gibt. Unser dritter Beitrag besteht in der Charakterisierung des Verhaltens von SMMB-ACO an großen realen Daten. Wir berichten über eine große methodische Heterogenität in allen Aspekten und zeigen Schwächen und Stärken dieser Ansätze auf. Darüber hinaus kommen wir zu dem Schluss, dass im Fall des Morbus Crohn-Datensatzes die Merkmalsauswahl, die durch eine zufällige waldbasierte Technik implementiert wird, es nicht ermöglicht, den Anteil der interessierenden Interaktionen in den Ergebnissen zu erhöhen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-46970-2_8 6e20c11516a63a3dc07a7f83e8619018;de;;;7.4.;;;Prädiktive Modellierung zur Vorhersage des Aufenthalts von Lehrkräften mit maschinellem Lernen in Echtzeit Um das Identifizierungssystem demografischer Merkmale von Pädagogen zu unterstützen, ist der Wohnort ein wesentliches Merkmal, und die Techniken des maschinellen Lernens spielen eine entscheidende Rolle, um den Wohnort von Pädagogen basierend auf ihren Antworten vorherzusagen. Dieses Papier zeigt das Vorhersagemodell zur Vorhersage des Aufenthaltes indischer Hochschullehrer in Bezug auf das Bewusstsein für Informations- und Kommunikationstechnologie (ICT) mit drei Algorithmen Support Vector Machine (SVM), Multilayer Perceptron (MLP), Random Forest (RF). Es werden vier verschiedene Experimente mit dem primären Dataset mit 344 Instanzen und 35 Features durchgeführt. Diese Algorithmen des maschinellen Lernens (ML) verwendeten drei verschiedene Testverfahren wie das Trainingsverhältnis, die k-fache Kreuzvalidierung (CV) und das Auslassen eines. Ein statistischer t-Test wird auch angewendet, um den Zeitpunkt der Vorhersage durch jeden Algorithmus zu vergleichen. Die Konsequenzen der ersten drei Experimente zeigten, dass der RF-Algorithmus andere bei der Vorhersage des Aufenthalts von Lehrern übertraf. Die Ergebnisse des vierten Experiments zeigten, dass sich die CPU-Benutzerzeit von SVM signifikant von anderen unterscheidet. Die Autoren empfahlen, das HF-Modell als Echtzeitmodell zu positionieren, was die höchste Genauigkeit von 72,8% bei einer moderaten Vorhersagezeit von 0,12 s verursacht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4451-4_47 e5f10dd5393b47debfd87bed20941540;de;;;7.4.;;;Eine vergleichende Studie zu maschinellen Lerntechniken zur Benzol-Vorhersage Die Luftverschmutzung ist eines der größten Probleme der öffentlichen Gesundheit, mit dem die Welt konfrontiert ist. Die giftigen Mengen von Luftschadstoffen in und um die Welt schaffen eine ziemliche Bedrohung. Schädliche Luftschadstoffe haben die Krebsrate beim Menschen beschleunigt. Mehrere Studien haben verschiedene Modelle des maschinellen Lernens zur Vorhersage der Luftqualität verwendet. In diesem Artikel wurden verschiedene auf maschinellem Lernen basierende Techniken zur Überwachung der Luftqualität untersucht, die die Konzentration von Benzol in der Luft vorhersagen können, das als einer der krebserregenden Luftschadstoffe gilt. Es wurde beobachtet, dass in den verschiedenen Studien weitgehend Modelle des maschinellen Lernens verwendet wurden, um die Vorhersagefehlerrate zu reduzieren. Das übergeordnete Ziel dieser Arbeit ist es, bekannte maschinelle Lerntechniken zu vergleichen, die verwendet wurden, um die Benzolkonzentration in der Atmosphäre vorherzusagen. Darüber hinaus wird das vorgeschlagene ensemblebasierte Modell zur Benzolvorhersage entwickelt. Die vorgeschlagene Technik wird an bekannten öffentlich zugänglichen Luftverschmutzungsdatensätzen zur quantitativen Analyse getestet. Das vorgeschlagene Modell erreicht 91,56 % des Bestimmtheitsmaßes und eine niedrigere Vorhersagefehlerrate. Darüber hinaus wurden Leistungskennzahlen wie der mittlere absolute Fehler (2%) und der quadratische Mittelwert (3,1%) geschätzt, um die Gesamteffektivität des vorgeschlagenen Systems zu bestimmen. Das vorgeschlagene Modell wird mit dem bestehenden System verglichen und das Ergebnis des vorgeschlagenen Modells wird verbessert. Die vergleichende Analyse der Studie zeigt, dass das vorgeschlagene Ensemble-Modell bessere Vorhersageergebnisse lieferte als die bestehenden Basismodelle für maschinelles Lernen. Daher ist es gut geeignet, ein effektives Benzolvorhersagemodell zu erstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4451-4_45 cbc2c03a4e19e93660f532093d0d8dd8;de;;;7.4.;;;Ein Beschreibungslängenbasiertes Entscheidungskriterium für Default-Wissen in der Ripple Down Rules Methode Die Methode „Ripple Down Rules (RDR)“ ist ein vielversprechender Ansatz, um Wissen von menschlichen Experten direkt zu erwerben und zu kodieren. Es erfordert, dass Daten inkrementell an die zu erstellende Wissensbasis geliefert werden, wobei jedes neue Wissen als Ausnahme zu der bestehenden Wissensbasis hinzugefügt wird. Aufgrund dieses Patching-Prinzips hängt das erworbene Wissen stark davon ab, was als Standardwissen angegeben wird und als implizites Ergebnis verwendet wird, wenn die Inferenz fehlschlägt. Daher ist es wichtig, gutes Standardwissen zu wählen, um eine genaue und kompakte Wissensdatenbank aufzubauen. Außerdem sind Daten aus der realen Welt oft verrauscht und wir möchten, dass der RDR rauschresistent ist. In diesem Artikel werden experimentelle Ergebnisse über die Auswirkungen der Auswahl von Standardwissen und der Rauschmenge in Daten auf die Leistung von RDR unter Verwendung eines simulierten Experten anstelle eines menschlichen Experten berichtet. Das beste Standardwissen wird als das Klassenwissen charakterisiert, das die Beschreibungslänge von Codierungsregeln und fehlklassifizierten Fällen maximiert. Wir haben durch umfangreiche Experimente bestätigt, dass dieses Kriterium tatsächlich gültig und nützlich ist, um eine genaue und kompakte Wissensbasis aufzubauen. Wir haben auch festgestellt, dass das gleiche Kriterium gilt, wenn die Daten verrauscht sind.;-;-;-;https://link.springer.com/article/10.1007/PL00011663 8beab32fe0b7ade181c320f2a44b94ad;de;;;7.4.;;;Genetisch weiterentwickelte kNN-Ensembles Sowohl die Theorie als auch eine Fülle empirischer Studien haben gezeigt, dass Ensembles genauer sind als einzelne Vorhersagemodelle. Damit der Ensemble-Ansatz funktioniert, müssen Basisklassifizierer nicht nur genau, sondern auch vielfältig sein, d. Instanzbasierte Lernende sind jedoch sehr robust gegenüber Variationen eines Datensatzes, so dass Standard-Resampling-Verfahren normalerweise nur eine begrenzte Vielfalt erzeugen. Aus diesem Grund werden instanzbasierte Lerner selten als Basisklassifizierer in Ensembles verwendet. In diesem Kapitel stellen wir eine Methode vor, bei der genetische Programmierung verwendet wird, um kNN-Basisklassifikatoren mit optimierten;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-1280-0_13 bd986bb0f27ee6f7d4b8e48e3c580e6a;de;;;7.4.;;;Autoregressive neuronale Netze mit exogenen Variablen zur Vorhersage der Innenraumtemperatur in Gebäuden Thermische Gebäudemodelle sind hilfreich, um ihren Energieverbrauch vorherzusagen und die Kontrolle ihrer mechanischen Systeme zu verbessern. Diese Modelle sind jedoch gebäudespezifisch und erfordern einen langwierigen, fehleranfälligen und zeitraubenden Entwicklungsaufwand, der auf erfahrene Gebäudeenergiemodellierer angewiesen ist. Im Vergleich zu White-Box- und Gray-Box-Modellen benötigen datengetriebene (Black-Box-)Modelle weniger Entwicklungszeit und eine minimale Menge an Informationen über die Gebäudeeigenschaften. In diesem Beitrag werden autoregressive neuronale Netzmodelle mit linearen Gray-Box- und Black-Box-Modellen verglichen, um Innentemperaturen zu simulieren. Diese Modelle werden trainiert, validiert und mit tatsächlichen experimentellen Daten verglichen, die für ein bestehendes Geschäftsgebäude in Montreal (QC, Kanada) erhalten wurden, das mit Klimaanlagen auf dem Dach ausgestattet ist. Die Ergebnisse zeigen, dass neuronale Netze das thermische Verhalten des Gebäudes genauer nachahmen, wenn nur begrenzte Informationen verfügbar sind, im Vergleich zu linearen Modellen mit grauer und schwarzer Fläche. Das Gray-Box-Modell funktioniert aufgrund seiner unterparametrisierten Natur nicht angemessen, während die linearen Modelle nichtlineare Phänomene wie Strahlungswärmeübertragung und Belegung nicht erfassen können. Daher übertreffen die neuronalen Netzmodelle die alternativen Modelle in der vorgestellten Anwendung und erreichen ein Bestimmtheitsmaß;-;-;-;https://link.springer.com/article/10.1007/s12273-019-0597-2 69efbe1a8a1ac5b5d823b5e260fa089b;de;;;7.4.;;;Analyse von Berichten zur sozialen Verantwortung von Unternehmen mit unbeaufsichtigtem und überwachtem Text-Data-Mining Die Literatur zeigt, dass Unternehmen in ihrem Verständnis und ihrer Sichtweise von CSR gereift sind – bis hin zu dem Grad, in dem sie es als wesentliches Element der Unternehmensstrategie sehen. Als Teil einer umfassenden Forschungsagenda untersuchen wir CSR-Berichte von sieben Dow Jones-Unternehmen, um die Einbettung von Überlegungen zur ökologischen Nachhaltigkeit in ihren Kerngeschäftsdiskurs zu bewerten. Wir nutzen beaufsichtigte und unbeaufsichtigte Text Data Mining (TDM)-Techniken, um die Daten dieser sieben Unternehmen zu analysieren. Unseres Wissens ist dies einer der ersten Versuche, die TDM-Verarbeitung anzuwenden, um unstrukturierte Daten aus CSR-Berichten zu analysieren. Der von uns skizzierte Prozess soll die Mustererkennung in Dokumenten erleichtern und die zeitaufwändige Inhaltsanalyse, die häufig in der qualitativen Forschung verwendet wird, minimieren oder eliminieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-18714-3_36 69c7c07feea9af2304d7d55d7967cc09;de;;;7.4.;;;Ein neuartiges RFID-Data-Mining-System: Integration von effektivem Sequential Pattern Mining und Techniken zur Generierung von Fuzzy-Regeln Data Warehousing und Data Mining finden enorme Anwendungen, die RFID-Technologie ist eine davon. In der vorherigen Arbeit wurde ein RFID-Data-Warehousing-System mit neuartiger Datenreinigungs-, Transformations- und Ladetechnik vorgeschlagen. Das System wurde speziell in einer der bedeutendsten RFID-Anwendungen zur Warenverfolgung in Lagerhäusern implementiert. Die gespeicherten RFID-Daten liegen in einem bestimmten Format vor und daher ist ein effektives Mining-System erforderlich, um die benötigten Informationen aus der Datenbank zu ermitteln. Die bestehenden Mining-Algorithmen sind beim Extrahieren der Informationen aus den gespeicherten RFID-Daten ineffizient. In diesem Beitrag wird ein neuartiges Data-Mining-System vorgeschlagen, das die Informationen über die Art der Bewegung der RFID-Tags effektiv extrahiert. Das vorgeschlagene Mining-System generiert einen Zwischendatensatz (I-Datensatz) aus dem Warehouse-Datensatz. Aus dem I-Datensatz werden sequentielle Muster mit unterschiedlichen Musterlängenkombinationen ermittelt. Aus den abgebauten sequentiellen Mustern werden Fuzzy-Regeln generiert, die die Art der Bewegung der RFID-Tags abbilden. Die Implementierungsergebnisse zeigen, dass das vorgeschlagene Mining-System gut funktioniert, indem es die signifikanten RFID-Tags und ihre Kombinationen und die Art der Bewegung der Tags extrahiert.;-;-;-;https://link.springer.com/article/10.1007/s10776-011-0151-3 5fc7529c443d808427ce33d6d20b68bd;de;;;7.4.;;;Zur Stratifizierung von Multi-Label-Daten Die geschichtete Stichprobenziehung ist eine Stichprobenmethode, die das Vorhandensein disjunkter Gruppen innerhalb einer Grundgesamtheit berücksichtigt und Stichproben erstellt, bei denen der Anteil dieser Gruppen beibehalten wird. Bei Ein-Label-Klassifizierungsaufgaben werden Gruppen basierend auf dem Wert der Zielvariablen unterschieden. Bei Lernaufgaben mit mehreren Labels, bei denen es mehrere Zielvariablen gibt, ist jedoch nicht klar, wie geschichtete Stichproben durchgeführt werden könnten/sollten. Dieser Artikel untersucht die Stratifizierung im Kontext von Multi-Label-Daten. Es betrachtet zwei Stratifizierungsmethoden für Multi-Label-Daten und vergleicht diese empirisch zusammen mit einer Zufallsstichprobe auf mehreren Datensätzen und anhand verschiedener Bewertungskriterien. Die Ergebnisse zeigen einige interessante Schlussfolgerungen in Bezug auf die Nützlichkeit jeder Methode für bestimmte Typen von Multi-Label-Datensätzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23808-6_10 48a2bbb61b6c9361244eacadad770fc7;de;;;7.4.;;;Verbesserung der Lesbarkeit von Kindern mit Legasthenie durch Techniken des maschinellen Lernens – eine Umfrage Legasthenie ist eine Art von Störung, die normalerweise bei Kindern auftritt und auch als Lernbehinderung bezeichnet wird. Kinder mit Legasthenie benötigen im Vergleich zu normalen Kindern mehr Zeit zum Lesen und Schreiben. Es gibt verschiedene Arten von Behinderungen, die unter Legasthenie fallen, wie Dysgraphie und Dyskalkulie, aber dieser Artikel konzentriert sich auf die Lesebehinderung bei Kindern. Hier werden Kindern zwischen 8 und 10 Jahren die am häufigsten verwendeten Hindi-Wörter beigebracht. Zuerst werden häufig verwendete Hindi-Wörter als Datenbank erstellt und dann wird das System mit diesen eingegebenen Wörtern trainiert. Sprachsynthese wird auf diese Wörter angewendet, um eine Sprachausgabe von dem trainierten System zu erhalten. Die Kinder erhalten eine Reihe von Wörtern zum Lesen. Wenn Kinder dreimal das falsche Wort sagen, wird das System die korrekte Sprache geben und die Kinder trainieren. Dadurch wird der Prozess automatisch und das System fungiert als persönlicher Trainer für die legasthenen Kinder. Durch dieses Modell können die Kinder interaktiver lernen und sich die Wörter merken, da das System verschiedene Bilder für dasselbe Wort anzeigen kann. Der Einsatz maschineller Lerntechniken macht dieses System genauer und das System wird auf Spracherkennung und Phonetik jedes Alphabets und jeder Wörter in Hindi trainiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-7091-5_11 8f5f83694ddbc596ccc6abf200a6c895;de;;;7.4.;;;C4.5 Konsolidierungsprozess: Eine Alternative zu intelligenten Oversampling-Methoden bei Klassenungleichgewichtsproblemen Bei realen Problemen, die mit Data-Mining-Techniken gelöst werden, ist es sehr üblich, Daten zu finden, in denen die Anzahl der Beispiele einer der Klassen viel kleiner ist als die Anzahl der Beispiele der übrigen Klassen. Viele Arbeiten wurden durchgeführt, um mit diesen Problemen umzugehen, die als Klassenungleichgewichtsprobleme bekannt sind. Die meisten von ihnen konzentrieren sich auf Daten-Resampling-Techniken, um die Trainingsdaten zu verbessern, normalerweise die Klassen auszugleichen, bevor ein klassischer Lernalgorithmus verwendet wird. Eine andere Möglichkeit besteht darin, Modifikationen des Lernalgorithmus vorzuschlagen. Als Mischung dieser beiden Optionen haben wir den Konsolidierungsprozess, basierend auf einem vorherigen Resampling der Trainingsdaten und einer Modifikation des Lernalgorithmus, in dieser Studie C4.5 vorgeschlagen. In dieser Arbeit haben wir mit 14 Datenbanken experimentiert und die Wirksamkeit jeder Strategie basierend auf den erreichten AUC-Werten verglichen. Die Ergebnisse zeigen, dass die Konsolidierung im Vergleich zu fünf bekannten Resampling-Methoden, einschließlich SMOTE und einigen seiner Varianten, die beste Leistung erzielt. Somit ist der Konsolidierungsprozess kombiniert mit Unterstichproben zum Ausgleich der Klassenverteilung für Klassenungleichgewichtsprobleme geeignet, die eine Erklärung und eine hohe Unterscheidungsfähigkeit erfordern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25274-7_8 bbb10c413360081130d1687e10c96ad7;de;;;7.4.;;;Semantisches IoT: Der Schlüssel zur Realisierung des IoT-Werts Die virtuelle Darstellung und Integration des Internets mit den physischen Objekten, Geräten oder Dingen hat in den letzten Jahren exponentiell zugenommen. Dies hat die Community dazu motiviert, neue Internet of Things (IoT)-Plattformen zu entwerfen und zu entwickeln, um Daten für den Informationsabruf und intelligente Anwendungen bereitzustellen, zu erfassen, darauf zuzugreifen, zu speichern, zu teilen und zu kommunizieren. Die damit verbundene Dynamik, Ressourcenbeschränkung, Kosten und Natur des IoT erfordern jedoch besondere Designverpflichtungen für seine Wirksamkeit in den kommenden Tagen und stellen somit eine Herausforderung für die Community dar. Das Verständnis von Webdaten von Maschinen nach Fachbegriffen in unterschiedlichen Bereichen ist eine komplexe Aufgabe. Sie stellt Forscherinnen und Forscher vor neue Herausforderungen, da sie im Informationszeitalter die Bereitstellung semantisch strukturierter, geeigneter Informationsquellen erfordert. Das Aufkommen zahlreicher intelligenter Geräte, Betreiber und IoT-Dienstleister, die einem zeitaufwändigen und komplexen Betrieb unterliegen, unzureichende Forschung und Innovationen führen zu einer Komplexität des Designs. Für ein effizientes Funktionieren und eine effektive Implementierung der Domäne erfordert die Einbeziehung der Semantik und der gewünschten Interoperabilität zwischen diesen Faktoren. Dies motiviert die Autoren, einige der aufkommenden Trends der semantischen Technologie mit Auswirkungen auf das IoT zu überprüfen und hervorzuheben. Die Arbeit konzentriert sich insbesondere auf verschiedene Aspekte wie Informationsmodellierung, Ontologiedesign, maschinelles Lernen, Netzwerktools, Sicherheitspolitik und Verarbeitung semantischer Daten – und diskutiert die Probleme und Herausforderungen im aktuellen Szenario.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-64619-6_4 0e06a78bb55d5598462620f265329310;de;;;7.4.;;;Machine Learning Based Outlook für die Analyse der SNP-SNP-Interaktion für biomedizinische Big Data Auf dem Gebiet der biomedizinischen Wissenschaften ist es sehr wichtig, die Art und Weise der Geninteraktion und ihrer Umgebung im Zusammenhang mit ihrem Einfluss auf ein bestimmtes genetisches Merkmal zu entdecken. Die Einzelnukleotid-Polymorphismen (SNPs) sind die Variationen, die in der DNA-Sequenz auftreten, die aufgrund einer Einzelnukleotid-Änderung in der genomischen Sequenz erzeugt wird. Kürzlich haben Genome-Wide Association Studies (GWAS) die signifikanten Assoziationen zwischen SNPs und Krankheiten aufgezeigt. Um als Mutation eingestuft zu werden, muss sie bei mindestens 1% der Bevölkerung vorkommen. SNPs sind die häufigste Variationsform in einer Population. Studien zeigen, dass der Hauptgrund für die komplexe Krankheitsentwicklung SNP-SNP-Interaktionen sind, nicht einzelne SNPs. Zur Analyse von SNP-SNP-Wechselwirkungen wurden mehrere Modelle entwickelt und implementiert. Dieses Papier präsentiert das Verständnis von Big Data Analytics im Bereich der Biomedizin und des Gesundheitswesens zusammen mit den verschiedenen Methoden des maschinellen Lernens, die für SNP-SNP-Interaktionsanalysestudien implementiert wurden. Diese Analysemethoden und Modelle ermöglichen uns ein umfassenderes Verständnis der menschlichen Physiologie und der Krankheitsbeziehungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1420-3_2 a13f619e02981ba9efa0b22e92e469ec;de;;;7.4.;;;Nomogramme zur Visualisierung des naiven Bayes-Klassifikators Neben einer guten Vorhersageleistung kann der naive Bayes-Klassifikator auch einen wertvollen Einblick in die Struktur der Trainingsdaten und die Auswirkungen der Attribute auf die Klassenwahrscheinlichkeiten bieten. Diese Struktur kann durch Visualisierung des Klassifikators effektiv aufgedeckt werden. Wir schlagen einen neuen Weg vor, das naive Bayes-Modell in Form eines Nomogramms zu visualisieren. Die Vorteile des vorgeschlagenen Verfahrens liegen in der Einfachheit der Darstellung, der übersichtlichen Darstellung der Auswirkungen einzelner Attributwerte und der Visualisierung von Konfidenzintervallen. Nomogramme sind intuitiv und können, wenn sie zur Entscheidungsunterstützung verwendet werden, eine visuelle Erklärung der vorhergesagten Wahrscheinlichkeiten liefern. Und schließlich kann mit einem Nomogramm ein naives Bayes-Modell ausgedruckt und zur Wahrscheinlichkeitsvorhersage ohne Computer oder Taschenrechner verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30116-5_32 afc51ecfae20fbe503f4fdced2bcd50f;de;;;7.4.;;;Regressionsmodellierungstechnik für Data Mining zur Vorhersage von CRM In diesem Papier wird die Regressionsmodellierungstechnik zur Kundenbindung und Kundenbindung vorgeschlagen. Vorhersage versucht, den Verlauf von Ereignissen auf der Grundlage der Eingabedaten vorherzusagen Hier ist es das Ziel des Papiers, Desktops und Laptops unterschiedlicher Konfiguration auf der Grundlage von Alter, Geschlecht, Preis und monatlichem Einkommen auf den Markt zu bringen. Dieses Papier zielt darauf ab, wie die Konzepte des Data Mining und der Regressionsanalyse angewendet werden können, um die Reaktion des Kunden durch Analyse der Beziehung zwischen den verschiedenen kundenbezogenen Attributen zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15766-0_28 fc513eebf6b71ff0b2f1eb21acae5b16;de;;;7.4.;;;Verifizierung und Validierung von Computermodellen zur Diagnose von Brustkrebs basierend auf maschinellem Lernen für die medizinische Datenanalyse Die Methode der Mikrowellen-Radiometrie ist eines der Gebiete der medizinischen Diagnostik von Brustkrebs. Es basiert auf der Analyse der räumlichen Verteilung von Gewebeinnen- und Oberflächentemperaturen, die im Mikrowellen- (RTM) und Infrarot- (IR) Bereich gemessen werden. Komplexe mathematische und Computermodelle, die komplexe physikalische und biologische Prozesse im Biogewebe beschreiben, erhöhen die Effizienz dieser Methode. Physikalische und biologische Prozesse hängen mit Temperaturdynamik und elektromagnetischer Mikrowellenstrahlung zusammen. Die Verifizierung und Validierung des numerischen Modells ist eine zentrale Herausforderung, um die Konsistenz mit medizinischen Big Data sicherzustellen. Diese Daten werden durch medizinische Messungen an Patienten gewonnen. Wir präsentieren einen originellen Ansatz zur Verifizierung und Validierung von Simulationsmodellen physikalischer Prozesse in biologischen Geweben. Unser Ansatz basiert auf einer tiefen Analyse medizinischer Daten und wir verwenden maschinelle Lernalgorithmen. Wir haben beeindruckende Erfolge für das Modell der Dynamik thermischer Prozesse in einer Brust mit Krebsherden erzielt. Mit dieser Methode können wir nahezu alle Parameter des mathematischen Modells deutlich verfeinern, um eine größtmögliche Angemessenheit zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29750-3_35 b16ef17af62b9eb73be9c59db8347e13;de;;;7.4.;;;Data Mining im mobilen sozialen Netzwerk von SMS-Nachrichten Das Mobiltelefon ist heute eines der am weitesten verbreiteten Kommunikationsmittel mit der Popularität von mobilen Geräten und drahtlosen Technologien. Mobile soziale Netzwerksysteme sind zunehmend verfügbar. Ein mobiles soziales Netzwerk spielt eine wesentliche Rolle bei der Verbreitung von Informationen und Beziehungen. Das Mining der beliebten SMS-Nachrichten in kurzer Zeit ist sehr wertvoll. Die traditionelle Mining-Methode ist für diesen sehr großen Datensatz nicht geeignet. In diesem Papier stellen wir einen Mining-Ansatz vor, der auf dem parallelen Map-Reduce-Framework basiert. Experimentelle Ergebnisse zeigen, dass der endgültige Datensatz populärer Nachrichten sehr klein ist und eine hohe Sendeabdeckung aufweist. Empirische Studien in einem großen realen mobilen sozialen Netzwerk zeigen diese Leistungsfähigkeit unseres Algorithmus.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-3872-4_303 d290312af75b87825fc06039adc9271b;de;;;7.4.;;;Zur Effektivität des Einsatzes verschiedener Methoden des maschinellen Lernens zur Vorhersage gefährlicher konvektiver Phänomene Der Beitrag betrachtet die Möglichkeit der Gewittervorhersage nur unter Verwendung dynamischer und mikrophysikalischer Parameter der Wolke, simuliert durch das 1,5D-Modell mit Weiterverarbeitung durch maschinelle Lernmethoden. Das Problem der Merkmalsauswahl wird in zwei Aspekten diskutiert: Auswahl der optimalen Werte für Zeit und Höhe, wenn und wo die Ausgabemodelldaten fixiert sind, und Auswahl eines festen Satzes der repräsentativsten Wolkenparameter (Merkmale) unter allen Ausgabewolkeneigenschaften. Fünf Methoden des maschinellen Lernens werden betrachtet: Support Vector Machine (SVM), Logistische Regression, Ridge Regression, Boosted k-nearest Neighbour Algorithmus und neuronale Netze. Es zeigt sich, dass die Prognosegenauigkeit aller fünf Methoden Werte von über 90% erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58817-5_7 141edb721b5513aba18f573451935fa7;de;;;7.4.;;;Ein Domänenontologiemodell für die Automatisierung des Formenbaus Ein ontologiebasiertes Suchmodell mit semantischen Distanzmaßen wird vorgeschlagen, um die traditionelle schlüsselwortbasierte Suche für den Bereich des Formenbaus zu verbessern. Das Modell besteht aus drei Komponenten. Zuerst wird eine NLP-Komponente verwendet, um unabhängige Konzepte aus Text zu extrahieren, wobei Schlüsselwörter aus Sätzen extrahiert werden. Als nächstes wird die Ontologieschicht aufgebaut, um Konzepte mit minimaler semantischer Gesamtdistanz zu all diesen Schlüsselwörtern zu verarbeiten, die mit einem Ranking-Algorithmus gefunden werden. Schließlich werden die Konzepte in der Ontologie den Konzepten in einer proprietären Datenbank zugeordnet, um den Matching-Prozess von Sätzen zu Datenbankkonzepten zu implementieren und so die Integration in vorhandene Formenbausoftware zu ermöglichen. Die ontologische Suche wird mit der traditionellen schlüsselwortbasierten Suche im Bereich des Formenbaus verglichen und zeigte mehr Fehlertoleranz und Flexibilität bei der Maximierung der Genauigkeit und Anzahl der erkannten Übereinstimmungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13059-5_41 08ec10c441dd541243e26d040d36e88d;de;;;7.4.;;;Bildklassifizierung und Bildabruf von Lebensmitteln basierend auf visuellen Merkmalen und maschinellem Lernen Die Forschung zur Bildsuche und -klassifikation im Lebensmittelbereich ist zu einem der immer wichtiger werdenden Forschungsthemen im Bereich der multimedialen Analyse und Anwendung geworden. In den letzten Jahren hat sich die Bildklassifizierungs- und Retrievaltechnologie mit der rasanten Entwicklung der Internetindustrie und der Multimediatechnologie zu einem Forschungs-Hotspot im In- und Ausland entwickelt. Die traditionelle schlüsselwortbasierte Bildsuche und Bildklassifizierung konnte den täglichen Bedarf der Menschen nicht decken, sodass Bilderkennungsverfahren auf der Grundlage von Bildinhalten entstanden. Die repräsentativsten Methoden zur Beschreibung von Bildmerkmalen sind hauptsächlich zwei Aspekte: visuelle Bildmerkmale und abstrakte Bildsemantik, die basierend auf maschinellen Lernalgorithmen extrahiert wurde. Diese beiden Algorithmen haben ihre eigenen Schlüsselpunkte bei der Beschreibung von Bildern, mit denen es schwierig ist, die gewünschten Ergebnisse bei der Bildklassifizierung und Bildwiederherstellung zu erzielen. Darauf aufbauend schlägt dieser Artikel Forschungen zur Bildklassifizierung von Lebensmitteln und Methoden zum Abrufen von Bildern vor, die auf visuellen Merkmalen und maschinellem Lernen basieren. Dieses Papier schlägt eine Methode zum Abrufen und Klassifizieren von Lebensmittelbildern vor, die auf dem Faster R-CNN-Netzwerk basiert. In diesem Artikel werden Lebensmittelbildsätze aus der visuellen Gendatenbank ausgewählt, um das Faster R-CNN-Netzwerk zu optimieren, um die Genauigkeit der Faster R-CNN-Lebensmittelbereichserkennung sicherzustellen, und mit dem Dish-233-Lebensmitteldatensatz experimentiert, der eine Teilmenge der Dish-Datensatz mit 233 Gerichten und 49.168 Bildern. Die experimentellen Ergebnisse in diesem Artikel zeigen, dass die Leistung dieser Methode in Bezug auf die Bildklassifizierungsleistung besser ist als die anderer Methoden. Im Vergleich zu CNN-GF wird die Leistung um 5 % verbessert. Auch in Bezug auf die Bildsuche zeigt diese Methode ihre Überlegenheit Dies beweist, dass die vorgeschlagene Methode im Vergleich zu anderen Methoden diskriminierendere visuelle Merkmale aufweist und ihre Leistung bei der Bildsuche und Klassifizierung von Lebensmitteln verbessert wurde.;-;-;-;https://link.springer.com/article/10.1007/s00530-020-00673-6 3b73a26ded6702f835b3621bd111d9a2;de;;;7.4.;;;ResFusion: Ein auf Residual Learning basierendes Fusion-Framework für die CTR-Vorhersage CTR-Vorhersageaufgaben befassen sich mit dem Problem der Bewertung der Wahrscheinlichkeit, dass Nutzer auf Produkte klicken und sind in vielen Online-Empfehlungs- und Werbeplattformen weit verbreitet. Mainstream-CTR-Modelle können in zwei Kategorien unterteilt werden: die traditionellen Modelle des maschinellen Lernens (z. B. GBDT [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-56725-5_3 57ad3a758915a4ec0a9996f868db5374;de;;;7.4.;;;Rechenintensive Methoden der Künstlichen Intelligenz Um die inhärente kombinatorische Natur vieler Aufgaben in der künstlichen Intelligenz zu bewältigen, wurde domänenspezifisches Wissen verwendet, um Suche und Argumentation zu steuern oder die Notwendigkeit allgemeiner Schlussfolgerungen ganz zu beseitigen. Der Prozess des Erwerbs von Domänenwissen ist jedoch ein wichtiger Engpass beim Einsatz solcher „wissensintensiver“ Methoden. Rechenintensive Methoden hingegen verwenden umfangreiche Such- und Argumentationsstrategien, um den Bedarf an detailliertem domänenspezifischem Wissen zu begrenzen. Die Idee ist, einen Großteil der benötigten Informationen aus einer relativ kompakten Formalisierung der betrachteten Domäne abzuleiten. Bis vor kurzem waren solche allgemeinen Argumentationsstrategien viel zu teuer für Anwendungen von interessanter Größe, aber die jüngsten Fortschritte bei den Argumentations- und Suchmethoden haben gezeigt, dass rechenintensive Methoden eine vielversprechende Alternative zu wissensintensiven Methoden darstellen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1018943920174 336776104b88897b4cf3156a714c4e87;de;;;7.4.;;;Fragen der Falldarstellung für fallbasiertes Denken aus der Ensembleforschung Ensembles von Klassifikatoren erzeugen geringere Fehler als die Mitgliedsklassifikatoren, wenn Diversität im Ensemble vorhanden ist. Ein Mittel zum Erzeugen dieser Diversität in Nächst-Nachbar-Klassifizierern besteht darin, die Mitgliedsklassifizierer auf verschiedenen Merkmalsteilmengen zu basieren. In diesem Beitrag zeigen wir vier Beispiele, wo dies der Fall ist. Dies hat Auswirkungen auf die Praxis der Feature-Subset-Auswahl (ein wichtiges Thema bei CBR und Data-Mining), da es zeigt, dass es in manchen Situationen kein einzelnes bestes Feature-Subset gibt, um ein Problem darzustellen. Wir zeigen, dass, wenn Diversität in der Entwicklung des Ensembles betont wird, die Ensemblemitglieder als lokale Lernende erscheinen, die sich auf Unterdomänen des Problemraums spezialisiert haben. Der Beitrag schließt mit einigen Vorschlägen, wie die Analyse von Ensembles lokaler Lernender Einblicke in die Problemraumzerlegung für hierarchische CBR geben könnte.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44593-5_11 daafb393c77d8d993ee18d51430e87b3;de;;;7.4.;;;Latente Dirichlet-Zuordnung für die automatische Kategorisierung von Dokumenten In diesem Beitrag stellen wir eine Technik zur Anwendung der latenten Dirichlet-Allokation auf die überwachte semantische Kategorisierung von Dokumenten vor und evaluieren sie. In unserem Setup wird jeder Kategorie eine eigene Themensammlung zugeordnet und für ein gelabeltes Schulungsdokument werden nur Themen aus seiner Kategorie ausgewählt. Im Gegensatz zum klassischen LDA, das das gesamte Korpus in einem verarbeitet, bauen wir also im Wesentlichen für jede Kategorie separate LDA-Modelle mit den kategoriespezifischen Themen auf, und diese Themensammlungen werden dann zu einem einheitlichen LDA-Modell zusammengestellt. Für ein ungesehenes Dokument gibt die abgeleitete Themenverteilung eine Schätzung, wie sehr das Dokument in die Kategorie passt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04174-7_28 504004652bfc8b7b724dcfc583b62cfb;de;;;7.4.;;;Sensordatenanalyse zur Geräteüberwachung Sensoren spielen im modernen Industrieanlagenbetrieb eine Schlüsselrolle. Dennoch werden die von ihnen bereitgestellten Informationen noch zu wenig genutzt. Das Extrahieren von Informationen aus den von den Sensoren erzeugten Rohdaten ist eine komplizierte Aufgabe und wird normalerweise verwendet, um dem Bediener zu helfen, auf unerwünschte Ereignisse zu reagieren, anstatt sie zu verhindern. Dieses Papier stellt SDAEM (Sensor Data Analysis for Equipment Monitoring) vor, ein Überwachungsmodell für Ölprozessanlagen, das drei Hauptziele abdeckt: Erfassen der Sensor-Zeitreihendaten, um den Anlagenbetriebsstatus zu verstehen und Ausfälle vorherzusagen, Interpretieren korrelierter Daten von verschiedenen Sensoren, um die gegenseitige Abhängigkeit der Sensoren zu überprüfen , und Einstellen der Betriebssollwerte der Ausrüstung, was zu einem stabileren Anlagenbetrieb führt und eine übermäßige Anzahl von Alarmen vermeidet. Da die von Sensoren generierten Zeitreihendaten extrem schnell anwachsen, verwendet SDAEM außerdem die parallele Verarbeitung, um Echtzeit-Feedback bereitzustellen. Wir haben unser Modell angewendet, um eine Prozessanlage einer brasilianischen Offshore-Plattform zu überwachen. Die ersten Ergebnisse waren vielversprechend, da einige unerwünschte Ereignisse erkannt wurden und die Betreiber das Tool übernahmen, um gute Sollwerte für die Ölverarbeitungsanlagen zu finden.;-;-;-;https://link.springer.com/article/10.1007/s10115-010-0365-1 e814de34294b63fa3258ef6c37bdf19e;de;;;7.4.;;;Gesichtsermüdungserkennung basierend auf maschinellem Lernen Einer der wichtigsten Gründe für Produktivitätsrückgang und Unfälle ist die Arbeitsermüdung. Die Ermüdungsforschung hat in der modernen Gesellschaft immer mehr an Bedeutung gewonnen. Dieses Papier schlägt eine Methode vor, um Ermüdung zu erkennen, neue Funktionen zu erstellen, neue Kompensationsmethoden vorzuschlagen und die vorhandenen Modelle zu kombinieren, um die Methode an die komplexe Umgebung anzupassen. Als Ergebnis verbessert es effektiv die Effizienz und Genauigkeit der Erkennung von Arbeitsermüdung in der Produktionsumgebung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6508-9_20 1239fe3f10498403ad1a949424b1b218;de;;;7.4.;;;Optimale konstruktive Auslegung komplizierter mechanischer Produkte auf Basis von Data Mining Komplizierte mechanische Produkte bestehen normalerweise aus Multiparameter-Mechanismen. Die Kopplungen zwischen zwei Mechanismen sind entweder stark oder schwach. Die traditionellen optimalen Konstruktionsverfahren können die Anforderungen einer optimalen strukturellen Konstruktion der komplizierten mechanischen Mehrparameterprodukte nicht erfüllen. Auf Basis der Analyse der optimalen Entwurfsmethoden und der Data-Mining-Prinzipien wurde ein verbesserter iterativer Dichotomizer;-;-;-;https://link.springer.com/article/10.1007/s12204-009-0720-0 e807e2067527ca8d9e07080626051045;de;;;7.4.;;;Themenerkennung und -verfolgung Mit der rasanten Entwicklung des Internets und der Social-Media-Technologie nehmen sowohl der Umfang der Informationen als auch die Geschwindigkeit, mit der sie geteilt und verbreitet werden, zu. Während die Menschen die Bequemlichkeit der umfangreichen Informationen im Internet genießen, leiden sie auch unter den Herausforderungen, die die Informationsexplosion mit sich bringt. Erstens ist es für Menschen schwierig, die benötigten Informationen schnell und genau aus der riesigen Menge an Informationen im Internet zu extrahieren. Zweitens sind die Informationen zu einem bestimmten Thema oft über verschiedene Zeiträume und Orte verstreut, was es für die Menschen schwieriger macht, ein umfassendes Verständnis eines Themas zu erlangen. Angesichts dieser massiven, aus mehreren Quellen bestehenden und vielfältigen Informationen besteht ein dringender Bedarf an einer Technologie, die Informationen basierend auf Themen oder Ereignissen effektiv organisieren und aggregieren kann und die auch Themen, an denen Benutzer interessiert sind, effizient erkennen und verfolgen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0100-2_9 b2e1461c1e837975c2e6e0484ea329e7;de;;;7.4.;;;Darstellungen der Unsicherheit in der Künstlichen Intelligenz: Wahrscheinlichkeit und Möglichkeit Aufgrund ihres Schwerpunkts auf Wissensrepräsentation und -schlussfolgern musste sich die Künstliche Intelligenz mit verschiedenen Frameworks für den Umgang mit Unsicherheit auseinandersetzen: Wahrscheinlichkeitstheorie, aber auch neuere Ansätze: Möglichkeitstheorie, Evidenztheorie und ungenaue Wahrscheinlichkeiten. Das Ziel dieses Kapitels ist es, einen einführenden Überblick zu geben, der die spezifischen Merkmale von zwei grundlegenden Frameworks zur Darstellung von Unsicherheit offenlegt: der Wahrscheinlichkeitstheorie und der Möglichkeitstheorie, während die Hauptprobleme hervorgehoben werden, mit denen die Aufgabe der Darstellung von Unsicherheit konfrontiert ist. Dieser Zweck bietet auch die Möglichkeit, verwandte Themen wie Rough Sets und Fuzzy Sets zu positionieren, jeweils motiviert durch die Notwendigkeit, die Granularität von Repräsentationen, die durch die Wahl einer Sprache induziert wird, und die graduelle Natur natürlicher Sprachprädikate zu berücksichtigen. Darüber hinaus enthält dieser Überblick prägnante Darstellungen weiterer theoretischer Repräsentationsrahmen wie formale Konzeptanalyse, bedingte Ereignisse und Rankingfunktionen sowie possibilistische Logik in Verbindung mit den hier angesprochenen Unsicherheitsrahmen. Das nächste Kapitel in diesem Band ist komplexeren Frameworks gewidmet: Glaubensfunktionen und ungenaue Wahrscheinlichkeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-06164-7_3 12bde840fb86c43f1ed43497b0216419;de;;;7.4.;;;Eine Klasse von Klassifikations- und Regressionsmethoden durch multiobjektive Programmierung Ein umfassender Überblick über die jüngsten Entwicklungen von Data-Mining-Modellen zur linearen Programmierung mit mehreren Kriterien wird in diesem Artikel bereitgestellt. Diese Untersuchungen, die Klassifikations- und Regressionsmethoden umfassen, werden systematisch eingeführt. Einige Anwendungen dieser Methoden auf reale Probleme werden ebenfalls in diesem Papier behandelt. Dieses Papier ist eine Zusammenfassung und Referenz von linearen Programmiermethoden mit mehreren Kriterien, die für Forscher und Anwendungen im Data-Mining hilfreich sein könnten.;-;-;-;https://link.springer.com/article/10.1007/s11704-009-0026-2 20c3e86eb5dd05347e3db8800f12bc34;de;;;7.4.;;;Konzept-Clumping für eine effiziente inkrementelle E-Mail-Kategorisierung nutzen Wir stellen einen neuartigen Ansatz zur inkrementellen E-Mail-Kategorisierung vor, der auf der Identifizierung und Nutzung von „Klumpen“ von ähnlich klassifizierten Nachrichten basiert. Die Klumpenbildung spiegelt die lokale Kohärenz eines Klassifikationsschemas wider und ist besonders wichtig in einer Umgebung, in der sich das Klassifikationsschema dynamisch ändert, wie beispielsweise bei der E-Mail-Kategorisierung. Wir schlagen eine Reihe von Metriken vor, um den Grad der Klumpenbildung in einer Reihe von Nachrichten zu quantifizieren. Anschließend stellen wir eine Reihe schneller, inkrementeller Methoden zur Kategorisierung von Nachrichten vor und vergleichen die Leistung dieser Methoden mit Messungen der Klumpenbildung in den Datensätzen, um zu zeigen, wie Klumpenbildung durch diese Methoden ausgenutzt wird. Die Methoden werden an 7 großen realen E-Mail-Datensätzen von 7 Benutzern aus dem Enron-Korpus getestet, wobei jede Nachricht in einen Ordner eingeordnet ist. Wir zeigen, dass unsere Methoden gut funktionieren und eine Genauigkeit bieten, die mit mehreren gängigen maschinellen Lernalgorithmen vergleichbar ist, jedoch mit einer viel höheren Recheneffizienz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17313-4_25 1b16c3215af72c76cc7502c495a4815d;de;;;7.4.;;;Tropische Wirbelstürme im westlichen Nordpazifik verfolgen Vorhersagen durch ein Modell für maschinelles Lernen In dieser Studie wurde ein Ensemble-Modell für maschinelles Lernen für die Vorhersage von tropischen Wirbelstürmen (TC) über dem westlichen Nordpazifik entwickelt und evaluiert. Zuerst untersuchten wir Prädiktoren, einschließlich Klimatologie und Persistenzfaktoren von TC, die aus dem Best-Track-Datensatz von TC und den atmosphärischen Bedingungen des Sturms extrahiert wurden, die aus der ERA-Interim-Reanalyse extrahiert wurden. Dann haben wir ein nichtlineares Gradient Boosting Decision Tree (GBDT)-Modell für TC-Track-Vorhersagen erstellt, in dem 30-Jahres-Daten verwendet wurden. Schließlich wurde das GBDT-Modell mit einer zehnfachen Kreuzvalidierungsmethode mit einer häufig verwendeten Technik verglichen: dem Klimatologie- und Persistenzmodell (CLIPER). Die experimentellen Ergebnisse zeigen, dass das GBDT-Modell in drei Vorhersagezeiten (24 h, 48 h und 72 h) mit relativ kleinen Vorhersagefehlern von 138, 264 bzw. 363,5 km gut abschneidet. Das Modell erhält ausgezeichnete TC-Bewegungsrichtungsaspekte. Das Modell ist jedoch immer noch unzureichend, um Aspekte der Sturmbeschleunigung und -verzögerung zu erzeugen, wobei die mittlere Bewegungsgeschwindigkeitsempfindlichkeit alle weniger als 60 % beträgt. Dennoch erhält das Modell im Vergleich zum CLIPER-Modell viel robustere und genauere TC-Tracks, bei dem die Vorhersagefähigkeiten zu drei Vorhersagezeitpunkten 17,5 %, 26,3 % bzw. 32,1 % betragen. Die vorgestellte Studie zeigt, dass das GBDT-Modell verlässliche Nachweise und Orientierungshilfen für operative TC-Track-Prognosen liefern könnte.;-;-;-;https://link.springer.com/article/10.1007/s00477-020-01930-w 423231e6b5d5a65714f0e1a7f6c0f43a;de;;;7.4.;;;Die Untersuchung von Ansätzen mit mehreren Auflösungen für die röntgenbildbasierte Erkennung von COVID-19 COVID-19 ist ein neuartiges Virus, das sich schnell ausbreitet und jetzt auf der ganzen Welt zu sehen ist. Die Fall- und Todeszahlen steigen von Tag zu Tag. Einige Tests wurden verwendet, um das COVID-19 zu bestimmen. Röntgenthorax und Computertomographie (CT) des Brustkorbs sind zwei wichtige bildgebende Instrumente zur Bestimmung und Überwachung von COVID-19. Und es wurde nach neuen Methoden zur Bestimmung des COVID-19 gesucht. In diesem Beitrag wird die Untersuchung verschiedener Multiresolution-Ansätze bei der Erkennung von COVID-19 durchgeführt. Röntgenaufnahmen des Brustkorbs werden als Eingabe für den vorgeschlagenen Ansatz verwendet. Da sich der jüngste Trend beim maschinellen Lernen in Richtung Deep Learning verlagert, möchten wir zeigen, dass die traditionellen Methoden wie Multi-Resolution-Ansätze immer noch effektiv sind. Zu diesem Zweck werden die bekannten Mehrfachauflösungsansätze, nämlich Wavelet-, Shearlet- und Contourlet-Transformationen, verwendet, um die Röntgenaufnahmen des Brustkorbs zu zerlegen, und die Entropie- und normalisierte Energieansätze werden zur Merkmalsextraktion aus den zerlegten Röntgenaufnahmen des Brustkorbs verwendet. Entropie- und Energiemerkmale werden im Allgemeinen von den Mehrfachauflösungsansätzen in Texturerkennungsanwendungen begleitet. Der Klassifikator für extreme Lernmaschinen (ELM) wird in der Klassifikationsphase der vorgeschlagenen Studie berücksichtigt. In den experimentellen Arbeiten wird ein Datensatz verwendet, der 361 verschiedene COVID-19-Röntgenaufnahmen des Brustkorbs und 200 normale (gesunde) Röntgenaufnahmen des Brustkorbs enthält. Die Leistungsbewertung wird durchgeführt, indem verschiedene Metriken verwendet werden, nämlich Genauigkeit, Sensitivität, Spezifität und Präzision. Da Deep Learning erwähnt wird, wird auch ein Vergleich zwischen vorgeschlagenen Multiresolution-Ansätzen und Deep-Learning-Ansätzen durchgeführt. Zu diesem Zweck werden tiefe Merkmalsextraktion und Feinabstimmung von vortrainierten Convolutional Neural Networks (CNNs) betrachtet. Für die Tiefenmerkmalsextraktion wird ein vortrainiertes ResNet50-Modell verwendet. Zur Klassifizierung der Tiefenmerkmale wird der Klassifikator Support Vector Machines (SVM) verwendet. Bei der Feinabstimmung kommt auch das ResNet50-Modell zum Einsatz. Die experimentellen Arbeiten zeigen, dass Multi-Resolution-Ansätze eine bessere Leistung erbrachten als Deep-Learning-Ansätze. Insbesondere die Shearlet-Transformation schnitt überhaupt besser ab. Eine Genauigkeitsbewertung von 99,29 % wird durch die Verwendung der Shearlet-Transformation erhalten.;-;-;-;https://link.springer.com/article/10.1007/s13755-020-00116-6 681035933d87938666041aa444a212af;de;;;7.4.;;;Ein Data Mining-Algorithmus zur verteilten Wissensextraktion Wir haben einen verteilten Data-Mining-Algorithmus entwickelt, der auf dem Prinzip der progressiven Wissensextraktion basiert. Die Wissensfaktoren, die statistisch signifikanten oder auf einer vordefinierten Miningfunktion basierenden Datenattribute, werden nach und nach aus den verteilten Datensätzen extrahiert. Die kritischen Datenattribute und der Beispieldatensatz werden iterativ aus verteilten Datenquellen ausgewählt. Die Experimente zeigten, dass der Algorithmus gültig ist und das Potenzial für die großen verteilten Data-Mining-Praktiken hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30497-5_119 e2baf4e8c63c763b961a7f0cdbd31d66;de;;;7.4.;;;Vielfältiges Lernen in Regressionsaufgaben Der Beitrag stellt eine neue geometrisch motivierte Methode zur nichtlinearen Regression vor, die auf der Manifold-Lerntechnik basiert. Das Regressionsproblem besteht darin, eine Vorhersagefunktion zu konstruieren, die eine unbekannte glatte Abbildung f von q-dimensionalen Eingaben zu m-dimensionalen Ausgaben basierend auf einem Trainingsdatensatz schätzt, der aus gegebenen ‚Eingabe-Ausgabe‘-Paaren besteht. Die unbekannte Abbildung f bestimmt die q-dimensionale Mannigfaltigkeit M(f), die aus allen 'Eingabe-Ausgabe'-Vektoren besteht, die in den (q+m)-dimensionalen Raum eingebettet und von einem einzigen Diagramm bedeckt ist, der Trainingsdatensatz bestimmt eine Stichprobe aus diese Vielfältigkeit. Moderne Manifold-Learning-Methoden ermöglichen die Konstruktion des bestimmten Schätzers M* aus der mannigfaltig bewerteten Stichprobe, der die Mannigfaltigkeit genau approximiert. Die vorgeschlagene Methode namens Manifold Learning Regression (MLR) findet die Vorhersagefunktion f;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-17091-6_36 061ef7866b38e7665e9867fee209f9e1;de;;;7.4.;;;AdversarialQR Revisited: Verbesserung der feindlichen Wirksamkeit Gegenwärtig sind Deep Learning und Convolutional Neural Networks zwei der am schnellsten aufsteigenden Trends als Werkzeug zur Durchführung einer Vielzahl von Aufgaben wie Bildklassifizierung und Computer Vision. Allerdings können Schwachstellen in solchen Netzwerken durch Eingabeänderungen ausgenutzt werden, was zu negativen Folgen für die Benutzer führt. Diese Forschung zielt darauf ab, eine gegnerische Angriffsmethode zu demonstrieren, die ihren Angriff in Form eines QR-Codes vor der menschlichen Intuition verbergen kann, eine Entität, die den Angriff aufgrund ihrer derzeit weit verbreiteten Verwendung am ehesten vor der menschlichen Kenntnisnahme verbergen kann. Es wurde eine Methodik entwickelt, um den QR-eingebetteten gegnerischen Patch-Erstellungsprozess zu demonstrieren und bestehende CNN-Bildklassifizierungsmodelle anzugreifen. Es wurden auch Experimente durchgeführt, um Kompromisse bei verschiedenen Patch-Formen zu untersuchen und die optimale Farbanpassung des Patches zu finden, um die Scanbarkeit zu verbessern und gleichzeitig eine akzeptable gegnerische Wirksamkeit beizubehalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63820-7_91 324c3a6672568ed69d7d124020b7ae76;de;;;7.4.;;;Künstliche Intelligenzsysteme in der Mikromechanik Einige der Methoden der künstlichen Intelligenz (KI) könnten verwendet werden, um die Leistung von Automatisierungssystemen in Fertigungsprozessen zu verbessern. Die Implementierung dieser KI-Methoden in der Industrie ist jedoch aufgrund der hohen Kosten der Experimente mit den herkömmlichen Fertigungs- und KI-Systemen eher langsam. Um die Experimentkosten in diesem Bereich zu senken, haben wir eine spezielle mikromechanische Ausrüstung entwickelt, die der herkömmlichen mechanischen Ausrüstung ähnelt, jedoch viel kleiner und daher kostengünstiger ist. Diese Ausrüstung könnte auf einfache und kostengünstige Weise zur Evaluierung verschiedener KI-Methoden verwendet werden. Die bewährten Methoden könnten durch entsprechende Skalierung auf die Industrie übertragen werden. In diesem Papier beschreiben wir die Prototypen von kostengünstigen Mikrogeräten für Fertigungsprozesse und einige KI-Methodenimplementierungen zur Erhöhung der Präzision, wie Computer-Vision-Systeme auf der Grundlage neuronaler Netze für die Montage von Mikrogeräten und genetische Algorithmen zur Charakterisierung von Mikrogeräten und zur Erhöhung der Mikrogerätepräzision.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-8151-0_1 60f282065b986447497eae86d1659576;de;;;7.4.;;;Ein bedingtes generatives Modell basierend auf Quantenschaltung und klassischer Optimierung Das generative Modell ist ein wichtiger Zweig der unüberwachten Lerntechniken im maschinellen Lernen. Aktuelle Forschungen zeigen, dass mit Quantenschaltkreisen einfache generative Modelle implementiert werden können. In diesem Papier trainieren wir einen quantenbedingten Generator, der unterschiedliche Wahrscheinlichkeitsverteilungen gemäß unterschiedlichen Eingabelabels, d. h. unterschiedlichen anfänglichen Quantenzuständen, erzeugen kann. Das Modell wird mit verschiedenen Datensätzen ausgewertet, darunter Schachbrettbilder und Balken- und Streifenbilder (BAS) mit 2 × 2 und 3 × 3 Pixeln. Wir verbessern auch die Leistung des Modells, indem wir eine Controlled-NOT (CNOT)-Schicht einführen. Die Simulationsergebnisse zeigen, dass die CNOT-Schicht die Leistung verbessern kann, insbesondere für das generative Modell mit kettenverbundenen Verschränkungsschichten.;-;-;-;https://link.springer.com/article/10.1007/s10773-019-04005-x d724e5b22733d08a0c801a13b84f45b6;de;;;7.4.;;;Klassifikation von Hautläsionen mit Hilfe des Deep Convolutional Neural Network und des Transfer-Learning-Ansatzes Für die biomedizinische Bildverarbeitung und Vorhersage von Hautkrankheiten spielen Deep-Learning-Methoden eine sehr wichtige Rolle für eine bessere Entscheidungsfindung. In dieser Arbeit wurde ein automatisches Klassifizierungssystem von Bildern vorgeschlagen, die eine Hautläsion als bösartig oder gutartig enthalten. Bei dieser Methode werden das Transfer-Learning und ein vortrainiertes Deep-Learning-Netzwerk implementiert. In dieser vorgeschlagenen Arbeit wird Transferlernen auf die VGGNet-Architektur angewendet, indem die letzte Schicht durch eine Softmax-Schicht ersetzt wird, um zwei verschiedene Läsionen (bösartig und gutartig) zu klassifizieren. Feinabstimmung, Datenerweiterungen und Kreuzvalidierungen werden ebenfalls zur Methode hinzugefügt. Nach Bewertung der Leistung der vorgeschlagenen Methode am Testsatz des ISIC-Datensatzes hat die Methode eine signifikant höhere Klassifikationsgenauigkeitsrate von 98,02 %, eine Sensitivität von 98,10 % und eine Spezifität von 97,05 % erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9433-5_32 42ef76dfb2334bc9918228795f2e2102;de;;;7.4.;;;Minimierung der Lebensmittelverschwendung durch maschinelles Lernen: ein neuartiger Ansatz „Die Welt hat Hunger“, es mag viele Gründe geben, diese Aussage zu unterstützen, aber ein wichtiger Grund für diese Aussage ist die tägliche Lebensmittelverschwendung in verschiedenen Organisationen. Laut Statistik des Welthungerindex (WHI) schlafen jede Nacht etwa 192 Millionen Menschen vor Hunger. Diese Statistiken würden zunehmen, wenn nicht geeignete Schritte in Betracht gezogen werden, um dies zu stoppen. Daher liegt es in unserer Verantwortung, unsere Ressourcen für die Verbesserung von morgen zu schonen. In diesem Artikel wird die Technik des überwachten maschinellen Lernens zur Minimierung der Lebensmittelverschwendung vorgestellt. Hier haben wir die beiden Klassifizierungsalgorithmen bereitgestellt, die naive Bayes und Entscheidungsbäume sind, um ein bestes Modell zu erstellen, das für diese Anwendung verwendet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9282-5_44 04c7add8721bf5e357f4840c0aa0a11e;de;;;7.4.;;;Übertragen Sie das Lernen für Musikklassifizierungs- und Regressionsaufgaben mithilfe von Künstler-Tags In diesem Papier wird eine Transfer-Lernmethode vorgestellt, die Künstler-Tags für die universelle Extraktion von Musikmerkmalsvektoren nutzt. Der Merkmalsvektor, der aus der letzten Faltungsschicht in einem mit Künstler-Tags trainierten Deep Convolutional Neural Network (DCNN) extrahiert wurde, wird für Musikklassifizierungs- und Regressionsaufgaben gezeigt. Künstler-Tags sind nicht nur in der Musik-Community angemessen und daher leicht zu sammeln, sondern enthalten auch viele abstrakte Informationen auf hoher Ebene über die Künstler und das von den Künstlern veröffentlichte Musikaudio. Um das Netzwerk zu trainieren, wurde ein Datensatz mit 33903 30-Sekunden-Clips erstellt, die mit Künstler-Tags versehen sind. Das Modell wird trainiert, um die Künstler-Tags aus Audioinhalten zuerst in dem vorgeschlagenen System vorherzusagen. Dann wird das Modell übertragen, um die Merkmale zu extrahieren, die verwendet werden, um Musikgenreklassifizierungs- und Musikemotionserkennungsaufgaben durchzuführen. Die Versuchsergebnisse zeigen, dass die im Kontext des Transferlernens mittels Künstler-Tags erlernten Merkmale effektiv bei der Musikgenreklassifizierung und bei der Musikemotionserkennung eingesetzt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2756-2_7 f68fed1cfbec7bd24c8063fa47be0c09;de;;;7.4.;;;Lerntransfer basierend auf Joint Feature Matching und Adversarial Networks Domänenanpassung und kontradiktorische Netzwerke sind zwei Hauptansätze für das Transferlernen. Domänenanpassungsmethoden passen die Mittelwerte von Quell- und Zieldomänen an, was eine sehr große Batchgröße während des Trainings erfordert. Allerdings sind gegnerische Netzwerke beim Training in der Regel instabil. In diesem Papier schlagen wir eine gemeinsame Methode des Merkmalsvergleichs und kontradiktorischer Netzwerke vor, um Domänendiskrepanzen und domäneninvariante Merkmale aus lokalen und globalen Aspekten zu reduzieren. Gleichzeitig verbessert unsere Methode die Stabilität des Trainings. Darüber hinaus ist das Verfahren in ein vereinheitlichtes neuronales Faltungsnetzwerk eingebettet, das durch Gradientenabstieg leicht optimiert werden kann. Experimentelle Ergebnisse zeigen, dass unsere gemeinsame Methode die neuesten Ergebnisse auf drei gemeinsamen öffentlichen Datensätzen liefern kann.;-;-;-;https://link.springer.com/article/10.1007/s12204-019-2132-0 24f8831d5fc1c36c94c881c35a3dabc5;de;;;7.4.;;;Ein projizierter stochastischer Gradientenalgorithmus zur Schätzung des Shapley-Werts, der auf die Bedeutung von Attributen angewendet wird Machine Learning erfreut sich in vielen Anwendungen zunehmender Beliebtheit: Medizin, Marketing, Verteidigung, Cybersicherheit, Transport. Es wird zu einem Schlüsselwerkzeug in kritischen Systemen. Modelle sind jedoch oft sehr komplex und stark nichtlinear. Dies ist insbesondere bei kritischen Systemen problematisch, da Endbenutzer die Entscheidungen eines Algorithmus vollständig verstehen müssen (z. Eine Lösung besteht darin, für jede einzelne Vorhersage eine Interpretation basierend auf der Attributrelevanz anzubieten. Shapley-Werte ermöglichen eine faire Verteilung der Beiträge für jedes Attribut, um den Unterschied zwischen einem vorhergesagten Wert für eine Beobachtung und einem Basiswert (z. B. der durchschnittlichen Vorhersage einer Referenzpopulation) zu verstehen. Sie stammen aus der kooperativen Spieltheorie. Diese Werte haben zwar viele Vorteile, einschließlich ihrer theoretischen Garantien, sind jedoch wirklich schwer zu berechnen. Tatsächlich nimmt die Komplexität mit der Dimension (der Anzahl der Variablen) exponentiell zu. In diesem Artikel schlagen wir zwei neuartige Methoden vor, um diese Shapley-Werte anzunähern. Die erste ist eine Optimierung eines bereits bestehenden Monte-Carlo-Schemas. Es reduziert die Anzahl der Vorhersagefunktionsaufrufe. Das zweite Verfahren basiert auf einem stochastischen Algorithmus mit projiziertem Gradienten. Für den zweiten Ansatz beweisen wir einige Wahrscheinlichkeitsgrenzen und Konvergenzraten für die Approximationsfehler gemäß dem verwendeten Lernratentyp. Schließlich führen wir Experimente an simulierten Datensätzen für eine Klassifikations- und eine Regressionsaufgabe durch. Wir zeigen empirisch, dass diese Ansätze den klassischen Monte-Carlo-Schätzer in Bezug auf Konvergenzrate und Anzahl der Vorhersagefunktionsaufrufe übertreffen, was für unsere Anwendung den größten Engpass bei der Shapley-Wertschätzung darstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-57321-8_6 5fecbe9695dc1304e9b83c1ba8670192;de;;;7.4.;;;Ein Überblick über die Wissensentdeckung in Datenbanken: Jüngste Fortschritte und Herausforderungen Ich untersuche den Stand der Technik im Bereich Knowledge Discovery in Datenbanken und betrachte den Fortschritt in mehreren Forschungsbereichen, einschließlich der Entdeckung von Modellen, Multistrategie-Discovery-Systemen und der Erkennung von Änderungen und Abweichungen. Ich beschreibe eine Reihe erfolgreicher Anwendungen und diskutiere die verbleibenden Herausforderungen für die weitere Forschung und Anwendungsentwicklung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-3238-7_1 4311db8f59dd7ab945828f4658050067;de;;;7.4.;;;Klassifikatorsysteme, die interne Weltmodelle lernen Die meisten Klassifikatorsysteme lernen eine Sammlung von Stimulus-Reaktions-Regeln, von denen jede direkt auf die Problemlösungsumgebung einwirkt und Stärke proportional zu der von den Verhaltenssequenzen, an denen die Regel beteiligt ist, erwarteten offenen Belohnung ansammelt. gofer ist ein Beispiel für ein Klassifikatorsystem, das ein internes Modell seiner Umgebung erstellt und Regeln verwendet, um Objekte, Ziele und Beziehungen darzustellen. Das Modell wird verwendet, um das Verhalten zu lenken, und das Lernen wird ausgelöst, wenn sich das Modell als unzureichende Grundlage für die Generierung von Verhalten in einer bestimmten Situation erweist. Dies bedeutet, dass offene externe Belohnungen nicht unbedingt die einzige oder nützlichste Feedbackquelle für induktive Veränderungen sind. gofer wird in einer einfachen zweidimensionalen Welt getestet, in der es lernt, Nahrung zu finden und schädliche Reize zu vermeiden.;-;-;-;https://link.springer.com/article/10.1023/A%3A1022610321001 ca87bed66bb3b2c69442c8f3d762f9b9;de;;;7.4.;;;Symmetrie in Data Mining und Analyse: Eine vereinheitlichende Ansicht basierend auf Hierarchie Datenanalyse und Data Mining befassen sich mit der unüberwachten Musterfindung und Strukturbestimmung in Datensätzen. Die Datensätze selbst sind explizit als Repräsentationsform mit einem beobachtenden oder anderweitig empirischen Interessenbereich verknüpft. „Struktur“ wird seit langem als Symmetrie verstanden, die in Bezug auf jede Transformation viele Formen annehmen kann, einschließlich Punkt, Translation, Rotation und viele andere. Symmetrien weisen direkt auf Invarianten hin, die intrinsische Eigenschaften der Daten und des interessierenden empirischen Hintergrundbereichs bestimmen. Da sich unsere Datenmodelle ändern, ändern sich auch unsere Perspektiven zur Datenanalyse. Die hier erhobenen Datenstrukturen sind hierarchisch aufgebaut, dargestellt als;-;-;-;https://link.springer.com/article/10.1134/S0081543809020175 5c851e7776937e2c810e689ae59d916f;de;;;7.4.;;;Topical Stance Detection für Twitter: Ein zweiphasiges LSTM-Modell mit Aufmerksamkeit Das Problem der thematischen Haltungserkennung befasst sich mit der Erkennung der Haltung des Textinhalts zu einem bestimmten Thema:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-76941-7_40 132dfea1d838dfb6c1d21a128468d28f;de;;;7.4.;;;Lernen mit wenigen Handgriffen für die Klassifizierung von Kurztexten Aufgrund der begrenzten Länge und frei konstruierten Satzstrukturen ist es eine schwierige Klassifikationsaufgabe für die Kurztextklassifikation. In diesem Artikel wird ein kurzer Textklassifikationsrahmen basierend auf siamesischen CNNs und Low-Shot-Learning vorgeschlagen. Die siamesischen CNNs lernen die diskriminative Textkodierung, um Klassifizierern zu helfen, diese obskuren oder informellen Sätze zu unterscheiden. Die unterschiedlichen Satzstrukturen und unterschiedlichen Beschreibungen eines Themas werden als „Prototypen“ angesehen, die durch eine Methode mit wenigen Schüssen erlernt werden, um die Verallgemeinerung des Klassifikators zu verbessern. Unsere experimentellen Ergebnisse zeigen, dass das vorgeschlagene Framework zu besseren Ergebnissen bei der Genauigkeit von Twitter-Klassifikationen führt und einige gängige traditionelle Textklassifikationsmethoden und einige tiefe Netzwerkansätze übertrifft.;-;-;-;https://link.springer.com/article/10.1007/s11042-018-5772-4 bdea0ff2e2b69631fceba82130f4f7d3;de;;;7.4.;;;Informationsfusion in Neuro-Fuzzy-Systemen In diesem Beitrag diskutieren wir die Informationsfusion in Neuro-Fuzzy-Systemen im Kontext intelligenter Datenanalyse. Als Informationsquellen betrachten wir menschliche Experten, die ihr Wissen in Form von unscharfen Wenn-Dann-Regeln und Datenbanken mit Beispieldaten formulieren. Wir diskutieren, wie man diese unterschiedlichen Wissensarten mit Hilfe von Neuro-Fuzzy-Methoden fusionieren kann und präsentieren einige experimentelle Ergebnisse. Wir zeigen, wie Neuro-Fuzzy-Ansätze Fuzzy-Regelsätze fusionieren, eine Regelbasis aus Daten induzieren und einen Regelsatz im Lichte von Trainingsdaten überarbeiten können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-2580-9_4 48a287e84dd22a2e4e8802f1e5b4a82e;de;;;7.4.;;;Klassifikatorsysteme, die interne Weltmodelle lernen Die meisten Klassifikatorsysteme lernen eine Sammlung von Stimulus-Reaktions-Regeln, von denen jede direkt auf die Problemlösungsumgebung einwirkt und Stärke proportional zu der von den Verhaltenssequenzen, an denen die Regel beteiligt ist, erwarteten offenen Belohnung ansammelt.;-;-;-;https://link.springer.com/article/10.1007/BF00113896 eb38728addf5c2505d202688996e8b71;de;;;7.4.;;;Kombinationsmethoden von Multi-Agent-Hyper-Surface-Klassifikatoren: Design- und Implementierungsprobleme Dieses Papier beschreibt ein neues Framework, das intelligente Agenten zur Mustererkennung verwendet. Basierend auf dem Jordan-Kurven-Theorem wird seit 2002 eine universelle Klassifikationsmethode namens Hyper Surface Classifier (HSC) untersucht. Wir schlagen eine Multi-Agenten-basierte Technologie vor, um die Kombination von Hyper Surface Classifiern zu realisieren. Agenten können die Gruppenentscheidung von Menschen nachahmen, um Probleme zu lösen. Wir verwenden zwei Arten von Agenten: den Klassifikator-Trainingsagenten und den Klassifikator-Kombinationsagenten. Jeder Klassifikator-Trainingsagent ist dafür verantwortlich, einen vertikalen Schnitt der Abtastwerte zu lesen und den lokalen Klassifikator zu trainieren, während der Klassifikator-Kombinationsagent dafür ausgelegt ist, die Klassifikationsergebnisse aller Klassifikator-Trainingsagenten zu kombinieren. Der Schlüssel unserer Methode besteht darin, dass die Unterdatensätze für die Klassifizierer-Trainingsagenten durch Aufteilen der Merkmale erhalten werden, anstatt durch Aufteilen des Stichprobensatzes in der Verteilungsumgebung. Experimentelle Ergebnisse zeigen, dass diese Methode bei hochdimensionalen Datensätzen eine bevorzugte Leistung hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72839-9_9 46f1059b3264f726d78eddafcb01a576;de;;;7.4.;;;Eine Anwendung künstlicher Intelligenz zur Implementierung eines virtuellen Automobilherstellers In diesem Papier stellen wir eine Anwendung von Künstlicher Intelligenz auf die Implementierung von Virtual Automobile Manufacturing Enterprise vor. Wir bieten ein multiautonomes, agentenbasiertes Framework. Unsere agentenbasierte Architektur führt zu einem flexiblen Design eines Spektrums virtueller Unternehmen, indem sie Berechnungen verteilt und eine einheitliche Schnittstelle zu Daten und Programmen bietet. Autonome Agenten sind intelligent genug und bieten Autonomie, Einfachheit der Kommunikation, Berechnung und eine gut entwickelte Semantik. Die Schritte des Entwurfs und der Implementierung werden ausführlich diskutiert, insbesondere werden eine Ontologie, das Agentenmodell und Interaktionsmuster zwischen Agenten angegeben. Wir haben Mechanismen zur Koordination zwischen Agenten entwickelt, die eine Sprache verwenden, die wir Virtual Enterprise Modeling Language (VEML) nennen. VEML ist ein Java-Dialekt und umfasst KQML-Primitive (Knowledge Query and Manipulation Language). Wir haben ein multiautonomes agentenbasiertes System implementiert, das wir VE-System nennen. VE System bietet Anwendungsprogrammierern das Potenzial, weltweit verschiedene Arten von VEs basierend auf ihren Anforderungen und Anwendungen zu entwickeln. Wir bieten Fallstudien von Automobilherstellern und demonstrieren die Wirksamkeit unseres Systems, indem wir seine hervorstechenden Merkmale diskutieren.;-;-;-;https://link.springer.com/chapter/10.1007/1-84628-224-1_13 e73ab6deeb24bf9bb12bafbe5f0c7c60;de;;;7.4.;;;Eine abfragegesteuerte Untersuchung von erkannten Assoziationsregeln Der Beitrag befasst sich mit der Präsentationsphase eines Wissensfindungsprozesses unter Verwendung von Assoziationsregeln. Die einmal erlangten Regeln müssen normalerweise erklärt und interpretiert werden, um sie anwenden zu können. Die Autoren schlagen einen Ansatz vor, der auf dem Einsatz von Predictive Model Markup Language (PMML) basiert, um eine Umgebung für die systematische Untersuchung komplexer Mining-Modelle zu ermöglichen. Die PMML ist eine XML-Anwendung, die von der Data Mining Group entwickelt wurde und sich auf Datenanalysemodelle konzentriert. Wir beginnen mit einer kurzen Beschreibung von PMML und zeigen ein Beispiel für ein automatisch codiertes Mining-Modell. Anschließend wird die XQuery-Sprache verwendet, um zu demonstrieren, wie ein Modell durch Abfragen seiner PMML-Struktur untersucht wird. Vorläufige Ergebnisse für ein reales Assoziationsregelmodell werden im letzten Teil des Beitrags vorgestellt. Drei Ansätze werden in Betracht gezogen: (1) einfache direkte Abfrage der PMML-Struktur des entdeckten Modells, (2) interaktives Durchsuchen der Regelbasis unter Verwendung mengentheoretischer Operationen, (3) automatische Abfrageformulierung mit genetischer Programmierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77475-4_17 9311c7b6b7516973721c058751c1b1d3;de;;;7.4.;;;Graphkernel und Gauß'sche Prozesse für das relationale Verstärkungslernen RRL ist ein relationales Verstärkungslernsystem, das auf Q-Learning in relationalen Zustands-Aktionsräumen basiert. Es zielt darauf ab, Agenten zu befähigen, in einer Umgebung zu handeln, die keine natürliche Darstellung als Tupel von Konstanten hat. Beim relationalen Verstärkungslernen muss der Lernalgorithmus, der verwendet wird, um die Abbildung zwischen Zustands-Aktions-Paaren und ihrem sogenannten Q(ualität)-Wert anzunähern, sehr zuverlässig sein und in der Lage sein, die relationale Darstellung von Zustands-Aktions-Paaren zu handhaben . In diesem Beitrag untersuchen wir die Verwendung von Gauß'schen Prozessen zur Approximation der Q-Werte von Zustands-Aktions-Paaren. Um Gauß'sche Prozesse in einer relationalen Umgebung einzusetzen, schlagen wir Graphkerne als Kovarianzfunktion zwischen Zustands-Aktions-Paaren vor. Der Standardvorhersagemechanismus für Gauß'sche Prozesse erfordert eine Matrixinversion, die instabil werden kann, wenn die Kernelmatrix einen niedrigen Rang hat. Diese Instabilitäten können durch QR-Faktorisierung vermieden werden. Dies führt zu einer besseren und stabileren Leistung des Algorithmus und einem effizienteren inkrementellen Aktualisierungsmechanismus. In der Blockwelt und mit dem Tetris-Spiel durchgeführte Experimente zeigen, dass Gaußsche Prozesse mit Graphkerneln mit Regressionsbäumen und instanzbasierter Regression als Generalisierungsalgorithmus für RRL konkurrieren und diese oft verbessern können.;-;-;-;https://link.springer.com/article/10.1007/s10994-006-8258-y 0c890c68337dee517727cccfac41da8a;de;;;7.4.;;;Big-Data-Architektur für Umweltanalytik Dieses Papier zielt darauf ab, eine Big Data-basierte Wissensempfehlungs-Framework-Architektur für ein nachhaltiges Präzisionslandwirtschafts-Entscheidungsunterstützungssystem zu entwickeln, das Computational Intelligence (Machine Learning Analytics) und Semantic Web Technology (ontologische Wissensdarstellung) verwendet. Die Erfassung von Domänenwissen über landwirtschaftliche Prozesse, Bodenverständnis, klimatische Ernteoptimierung und wertvolle Erfahrungen undokumentierter Landwirte sind wesentliche Voraussetzungen für die Entwicklung eines geeigneten Systems. Eine Architektur zur Integration von Daten und Wissen aus verschiedenen heterogenen Datenquellen, kombiniert mit Domänenwissen aus der Agrarindustrie, wurde vorgeschlagen. Die vorgeschlagene Architektureignung für die heterogene Big-Data-Integration wurde für verschiedene auf Umweltanalysen basierende Fallstudien zur Entscheidungsunterstützung untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-15994-2_59 8900697d3aebb11f07aa8ff6657ffa05;de;;;7.4.;;;Eine hierarchische Verstärkung lernbasierte künstliche Intelligenz für Nicht-Spieler-Charaktere in Videospielen Heutzutage entsprechen Videospiele einer riesigen Industrie, die ständig neue Technologien entwickelt. Insbesondere wurden Techniken der künstlichen Intelligenz weithin in den bekannten Nicht-Spieler-Charakteren (NPC) verwendet, um den Benutzern die Möglichkeit zu geben, Videospiele realer zu fühlen. Dieses Papier schlägt die Verwendung des hierarchischen Verstärkungslernalgorithmus MaxQ-Q in Nichtspieler-Charakteren vor, um die Erfahrung des Benutzers in Bezug auf Natürlichkeit zu erhöhen. Es wurde eine Fallstudie eines NPCs mit dem vorgeschlagenen auf künstlicher Intelligenz basierenden Algorithmus in einem ersten persönlichen Shooter-Videospiel entwickelt. Experimentelle Ergebnisse zeigen, dass diese Implementierung die Natürlichkeit aus Sicht des Benutzers verbessert. Darüber hinaus bietet der vorgeschlagene MaxQ-Q-basierte Algorithmus in NPCs Programmierern eine robuste Möglichkeit, ihnen künstliche Intelligenz zu geben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13650-9_16 a071fe6118c8fddefc4c884a886f7a04;de;;;7.4.;;;Machine-Learning-Ansatz für die Audioüberwachung mit R Mit der rasanten Entwicklung der künstlichen Intelligenz werden Fragen der öffentlichen und persönlichen Sicherheit immer wichtiger. Daher haben überwachungsbasierte Sicherheitssysteme breite Aufmerksamkeit auf sich gezogen und werden überall für sicherere und sicherere Lebensoptionen integriert. Die Menschen schenken den Überwachungssystemen aufgrund ihrer praktischen und informationsreichen Funktionen immer mehr Aufmerksamkeit. Videoüberwachung (VS) ist sehr beliebt, aber unter Umständen sind die visuellen Details nicht entscheidend, während die Verwendung von Audio die Zuverlässigkeit von Überwachungssystemen verbessern kann Foggia (IEEE Trans Intell Trans Syst 17(1): 279–288, 2016 [;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6881-1_11 0b21915f01778bb56705a35db1356543;de;;;7.4.;;;Rekrutierungsanalyse mit künstlicher Intelligenz Mit der schnellen Entwicklung der Computerindustrie wurde die Computerverarbeitungsleistung kontinuierlich verbessert und künstliche Intelligenz wurde von Anfang des Konzepts an kontinuierlich weiterentwickelt und innoviert. Künstliche Intelligenz ist aus der Computerindustrie nicht mehr wegzudenken. Chinas innerstaatlicher Schwerpunkt auf der Branche der künstlichen Intelligenz nimmt weiter zu und unterstützt Wissenschafts- und Technologieunternehmen bei der eingehenden Entwicklung künstlicher Intelligenz, und die Zahl der Rekrutierungen für künstliche Intelligenz in China explodiert. Heutzutage, mit der rasanten Entwicklung der künstlichen Intelligenz, ist es sinnvoll, die Nachfrage nach Talenten auf dem Markt zu analysieren und den inländischen Forschungsstatus der künstlichen Intelligenz zu kombinieren, um vernünftige Vorschläge für diejenigen zu machen, die kurz davor stehen, in den Markt der künstlichen Intelligenz einzusteigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-32591-6_46 a9cfcc6d66fd45605505d4f3d7d21aee;de;;;7.4.;;;Entdeckung neuer Regelinduktionsalgorithmen mit grammatikbasierter genetischer Programmierung Regelinduktion ist eine Data-Mining-Technik, die verwendet wird, um Klassifikationsregeln der Form IF (Bedingungen) DANN (vorhergesagte Klasse) aus Daten zu extrahieren. Die meisten in der Literatur gefundenen Regelinduktionsalgorithmen folgen der sequentiellen Überdeckungsstrategie, die im Wesentlichen eine Regel nach der anderen induziert, bis (fast) alle Trainingsdaten durch den induzierten Regelsatz abgedeckt sind. Diese Strategie beschreibt einen Basisalgorithmus, der aus mehreren Schlüsselelementen besteht, die modifiziert und/oder erweitert werden können, um neue und bessere Regelinduktionsalgorithmen zu generieren. Vor diesem Hintergrund schlägt diese Arbeit die Verwendung eines grammatikbasierten Algorithmus zur genetischen Programmierung (GGP) vor, um automatisch neue sequentielle Abdeckungsalgorithmen zu entdecken. Das vorgeschlagene System wird anhand von 20 Datensätzen evaluiert, und die automatisch entdeckten Regelinduktionsalgorithmen werden mit vier wohlbekannten, vom Menschen entworfenen Regelinduktionsalgorithmen verglichen. Die Ergebnisse zeigten, dass das GGP-System ein vielversprechender Ansatz ist, um effektiv neue sequentielle Abdeckungsalgorithmen zu entdecken.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-69935-6_6 02d7f2167bf52649143a93cdbbcb8fe7;de;;;7.4.;;;Maschinelles Lernen und Verarbeitung natürlicher Sprache in der Domänenklassifizierung wissenschaftlicher Wissensobjekte: Ein Rückblick Die Domänenklassifikation wissenschaftlicher Wissensobjekte wurde über die Jahre kontinuierlich verbessert. Systeme, die ein wissenschaftliches Wissensobjekt durch den Einsatz von künstlicher Intelligenz, maschinellen Lernalgorithmen, natürlicher Sprachverarbeitung und anderen automatisch klassifizieren können, wurden in den meisten wissenschaftlichen Wissensdatenbanken eingesetzt, um die interne Klassifizierungskonsistenz zu wahren und die Informationsanordnung zu vereinfachen. Die Menge der verfügbaren Daten ist jedoch in den letzten Jahren exponentiell gewachsen und kann aufgrund der Implementierung unterschiedlicher Klassifikationssysteme auf mehreren Plattformen unter verschiedenen Klassifikationen gefunden werden. Dadurch ist der Prozess der Suche und Auswahl relevanter Daten in Forschungsstudien und -projekten komplexer geworden und auch die Zeit, die benötigt wird, um die richtigen Informationen zu finden, ist kontinuierlich gewachsen. Daher spielen maschinelles Lernen und natürliche Sprachverarbeitung eine wichtige Rolle bei der Entwicklung und Verwirklichung automatischer und standardisierter Klassifikationssysteme, die Forschern bei ihrer Forschungsarbeit helfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-73103-8_55 30aa7f3e49a2eee95220018cffc7b201;de;;;7.4.;;;Wortklassifizierung für die Schätzung der Stimmungspolarität mit neuronalen Netzen Obwohl es im Internet viele digitalisierte Dokumente gibt, handelt es sich bei fast allen Dokumenten um unbeschriftete Daten. Daher muss unter Verwendung solch zahlreicher unbeschrifteter Daten ein Klassifikator konstruiert werden. Im Forschungsgebiet der Mustererkennung achten viele Forscher auf ein neuronales Netzwerk mit tiefer Architektur, um das vorherige Ziel zu erreichen. Das neuronale Netz mit tiefer Architektur ist einer der halbüberwachten Lernansätze und erreicht eine hohe Leistung bei einer Objekterkennungsaufgabe. Das Netzwerk wird mit vielen unbeschrifteten Daten trainiert und transformiert eingegebene Rohmerkmale in neue Merkmale, die ein höheres Konzept darstellen, beispielsweise ein menschliches Gesicht. In dieser Studie achte ich auf die Fähigkeit zur Merkmalsgenerierung eines neuronalen Netzes mit tiefer Architektur und wende sie auf die Verarbeitung natürlicher Sprache an. Konkret wird das Wort-Clustering für die Sentiment-Analyse entwickelt. Experimentelle Ergebnisse zeigen, dass die Clustering-Leistung unabhängig von einem unüberwachten Lernansatz gut ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39209-2_75 c67192085f3cdcaa6a4a70d8a44d934f;de;;;7.4.;;;Wrapping des Naive Bayes-Klassifikators, um den Effekt von Abhängigkeiten zu mildern Der Naive Bayes Classifier basiert auf der (unrealistischen) Annahme der Unabhängigkeit zwischen den Werten der Attribute, die dem Klassenwert gegeben sind. Folglich kann seine Wirksamkeit bei Vorhandensein von voneinander abhängigen Attributen abnehmen. Trotzdem wird in den letzten Jahren aus mehreren Gründen mit dem Naive Bayes-Klassifikator eine privilegierte Position angestrebt [1]. Wir präsentieren DGW (Dependency Guided Wrapper), einen Wrapper, der Informationen über Abhängigkeiten verwendet, um die Datendarstellung zu transformieren, um die Naive Bayes-Klassifizierung zu verbessern. Dieses Papier präsentiert Experimente, die die Leistung und Ausführungszeit von 12 DGW-Variationen mit 12 früheren Ansätzen vergleichen, als konstruktive Induktion kartesischer Produktattribute und Wrapper, die eine Suche nach optimalen Teilmengen von Attributen durchführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77226-2_24 b2a61248b959a1cd66c4c1bdf49a1fe1;de;;;7.4.;;;Warnung vor Kundenabwanderung durch maschinelles Lernen Kundenabwanderung bezeichnet das Phänomen der Unterbrechung der Zusammenarbeit zwischen Kunden und Unternehmen aufgrund der Implementierung verschiedener Marketingmethoden. Die Kundenabwanderungswarnung bezieht sich auf das Aufdecken des hinter den Daten verborgenen Kundenabwanderungsmusters, indem das Zahlungsverhalten, das Geschäftsverhalten und grundlegende Eigenschaften des Kunden innerhalb eines bestimmten Zeitraums analysiert, die Wahrscheinlichkeit eines zukünftigen Verlusts des Kunden und die möglichen Gründe vorhergesagt werden , und leiten das Unternehmen dann an, Kundenbindungsarbeiten durchzuführen. Nach der Prognose kann das System die möglichen verlorenen Kunden auflisten. Und dann können die Vermarkter präzises Marketing durchführen und die Marketing-Erfolgsrate verbessern. In diesem Beitrag stellen wir einen Algorithmus mit dem Namen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-03766-6_39 0d3818d4b76ded79585a9b8f3b69fc16;de;;;7.4.;;;Morph-CNN: Ein morphologisches neuronales Faltungsnetzwerk zur Bildklassifizierung Tiefe neuronale Netze, eine aufstrebende Art von Feed-Forward-Netzen, haben insbesondere für Computer Vision Probleme wie das Analysieren und Verstehen digitaler Bilder großes Interesse gefunden. In diesem Beitrag wird eine neue Deep-Learning-Architektur für die Bildanalyse und -erkennung vorgeschlagen. Zwei wesentliche Bestandteile sind in unserer Architektur beteiligt. Zuerst haben wir das Convolutional Neural Network verwendet, da es sich gut für die Bildverarbeitung eignet, da es die am häufigsten verwendete Form von gespeicherten Dokumenten ist. Zweitens wird eine morphologische Merkmalsextraktion hauptsächlich aufgrund ihres positiven Einflusses auf die Verbesserung der Bildqualität integriert. Wir haben unser Morph-CNN auf mehrstellige Erkennung validiert. Es wurde eine Studie zum Einfluss morphologischer Operatoren auf das Leistungsmaß durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-70096-0_12 d6871ffce7221e0d1e9ee63ce4ee9fee;de;;;7.4.;;;Schichtübergreifende Bemühungen für energieeffizientes Rechnen: hin zu Peta-Operationen pro Sekunde pro Watt Da sich die auf dem Moore-Gesetz basierende Geräteskalierung und die begleitenden Trends bei der Leistungsskalierung verlangsamen, steigt das Interesse an neuen Technologien und Rechenmodellen für eine schnelle und energieeffizientere Informationsverarbeitung. Inzwischen gibt es immer mehr Hinweise darauf, dass es in Bezug auf traditionelle Boolesche Schaltungen und von Neumann-Prozessoren für Beyond-CMOS-Geräte eine Herausforderung sein wird, mit der CMOS-Technologie zu konkurrieren. Die Nutzung der einzigartigen Eigenschaften neuer Geräte, insbesondere im Zusammenhang mit alternativen Schaltungs- und Architekturparadigmen, hat das Potenzial, eine Verbesserung um Größenordnungen in Bezug auf Leistung, Leistung und Fähigkeit zu erzielen. Um die Vorteile von Beyond-CMOS-Bauelementen voll auszuschöpfen, sind schichtübergreifende Bemühungen unabdingbar, die von Bauelementen über Schaltungen bis hin zu Architekturen und Algorithmen reichen. Diese Studie untersucht in diesem Zusammenhang energieeffiziente neuronale Netzbeschleuniger für eingebettete Anwendungen. Mehrere Beschleunigerdesigns für tiefe neuronale Netze, die auf schichtübergreifenden Bemühungen basieren und von alternativen Gerätetechnologien, Schaltungsstilen bis hin zu Architekturen reichen, werden hervorgehoben. Benchmarking-Studien auf Anwendungsebene werden vorgestellt. Die Diskussionen zeigen, dass schichtübergreifende Bemühungen tatsächlich zu einem Gewinn um Größenordnungen führen können, um eine extrem energieeffiziente Verarbeitung zu erreichen.;-;-;-;https://link.springer.com/article/10.1631/FITEE.1800466 ac45d41f7e085f85a3a3d1866e6322f4;de;;;7.4.;;;Regularisierungsmethoden für das Restricted Bayesian Network BESOM Wir beschreiben eine Regularisierungsmethode für das eingeschränkte Bayessche Netzwerk BESOM, das eine ähnliche Netzwerkstruktur wie Deep Learning besitzt. Es werden zwei Arten von Strafen eingeführt, um Überanpassung und lokale Mindestprobleme zu vermeiden. Der Win-Rate-Strafe stellt sicher, dass jeder Wert in den Knoten gleichmäßig verwendet wird, der Lateral-Inhibitions-Strafe stellt sicher, dass die Knoten in derselben Schicht unabhängig sind. Bayessche Netze mit diesen Vorverteilungen können in äquivalente Bayessche Netze ohne Vorverteilungen umgewandelt werden, dann wird der EM-Algorithmus leicht auszuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-46687-3_32 fc11085f21ac028db68bcd437421e354;de;;;7.4.;;;Data Mining und Ressourcenzuweisung: Eine Fallstudie In diesem Beitrag wird eine Fallstudie zu Terminplanungs- und Ressourcenzuweisungsproblemen in einem Spa vorgestellt. Das Papier ist Data-Mining-orientiert. Es diskutiert und beschreibt, wie die Verlaufsdaten als Quelle für das Data-Mining verwendet werden können, das zur Entdeckung von Regeln oder Algorithmen führt, die für die Vorhersage von Ressourcenanforderungen nützlich sind. Insbesondere haben wir uns darauf konzentriert, Patientengruppen zu identifizieren, die häufig im Trainingsset auftreten und charakteristische Verhaltensweisen oder Anforderungen von Spa-Einrichtungen aufweisen. Dann sagten wir eine Reihe von Gesundheitsverfahren voraus, die für jedes Mitglied dieser Gruppe bestanden werden sollten. Dieser Ansatz führte zu einem Vorhersagealgorithmus für Gesundheitsverfahren, der für eine frühe und bequeme Planung zufriedenstellend ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35613-6_54 1a4046abafb33bda91b1b7ad60767339;de;;;7.4.;;;Backdoor-Angriffe in neuronalen Netzen – Eine systematische Auswertung mehrerer Verkehrszeichendatensätze Maschinelles Lernen und insbesondere Deep Learning haben enorme Fortschritte gemacht und die Leistung auf menschlicher Ebene bei einer Reihe von Aufgaben übertroffen. Derzeit wird maschinelles Lernen zunehmend in viele Anwendungen integriert und wird dadurch Teil des Alltags und automatisiert Entscheidungen basierend auf Vorhersagen. In bestimmten Bereichen wie medizinische Diagnose, Sicherheit, autonomes Fahren und Finanzhandel können falsche Vorhersagen einen erheblichen Einfluss auf Einzelpersonen und Gruppen haben. Obwohl die Fortschritte bei der Vorhersagegenauigkeit beeindruckend waren, können maschinelle Lernsysteme bei relativ einfachen Beispielen immer noch ziemlich unerwartete Fehler machen, und die Robustheit von Algorithmen ist zu einem Grund zur Besorgnis geworden, bevor solche Systeme in realen Anwendungen eingesetzt werden. Neuere Forschungen haben gezeigt, dass besonders tiefe neuronale Netze anfällig für gegnerische Angriffe sind, die solche falschen Vorhersagen auslösen können. Bei Bildanalyseaufgaben treten diese Angriffe in Form kleiner Störungen auf, die für das menschliche Auge (fast) nicht wahrnehmbar sind. Solche Angriffe können dazu führen, dass ein neuronaler Netzklassifikator seine Vorhersage über ein Bild vollständig ändert, wobei das Modell sogar eine hohe Sicherheit bezüglich der falschen Vorhersage meldet. Von besonderem Interesse für einen Angreifer sind sogenannte Backdoor-Angriffe, bei denen ein bestimmter Schlüssel in ein Datenmuster eingebettet wird, um eine vordefinierte Klassenvorhersage auszulösen. In diesem Papier evaluieren wir systematisch die Wirksamkeit von Poisoning-(Backdoor-)Angriffen auf eine Reihe von Benchmark-Datensätzen aus dem Bereich des autonomen Fahrens.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29726-8_18 7911ce99d95af1ccf40eb984f9092255;de;;;7.4.;;;Maschinelles Lernen und seine Anwendungen in der drahtlosen Kommunikation Machine Learning (ML) kann die Systemleistung in vielen Bereichen wie Data Dining, Objektverfolgung, Spektrumserfassung und Indoor-Positionierung verbessern. In diesem Beitrag wurde ein Review zu ML vorgestellt. Erstens haben wir auf die Entwicklung, Definition und Klassifikation von ML zurückgeblickt, zweitens das Grundprinzip, die mathematische Formulierung und Anwendungsmethoden zweier klassischer Algorithmen namens Error Backpropagation (BP) und Clustering zusammengefasst, dann haben wir uns auf fortgeschrittene Typische Anwendungen von ML in Kommunikationssystemen wie kognitiven Funknetzen (CRNs) und Positionierungssystemen, schließlich kamen wir zu dem Schluss, dass die Systemleistung durch ML-Technik verbessert werden könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-6571-2_296 816b2a654f6fc59c43115a06086bc722;de;;;7.4.;;;Semi-naive Bayes'sche Methode für Network Intrusion Detection System Intrusion Detection kann als eine Klassifizierungsaufgabe betrachtet werden, die versucht, eine Anfrage zum Zugriff auf Netzwerkdienste als sicher oder bösartig zu klassifizieren. Data-Mining-Techniken werden verwendet, um wertvolle Informationen zu extrahieren, die bei der Erkennung von Eindringlingen helfen können. In diesem Papier bewerten wir die Leistung von regelbasierten Klassifikatoren wie: JRip, RIDOR, NNge und Decision Table (DT) mit Naive Bayes (NB) zusammen mit ihrem Ensemble-Ansatz. Wir schlagen auch vor, den Semi-Naive Bayesian Ansatz (DTNB) zu verwenden, der Naive Bayes mit der Induktion von Entscheidungstabellen kombiniert, um die Leistung eines Intrusion Detection Systems zu verbessern. Experimentelle Ergebnisse zeigen, dass der vorgeschlagene Ansatz schneller, zuverlässiger und genauer ist, mit niedrigen falsch-positiven Raten, die die wesentlichen Merkmale eines effizienten Netzwerk-Intrusion-Detection-Systems sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10677-4_70 166c47a1f210ad4c91709babc84c78bb;de;;;7.4.;;;Multi-Task-Boosting durch Ausnutzung von Aufgabenbeziehungen Multitask-Lernen zielt darauf ab, die Leistung einer Lernaufgabe mit Hilfe anderer verwandter Aufgaben zu verbessern. Es ist besonders nützlich, wenn jede Aufgabe nur sehr begrenzte gekennzeichnete Daten hat. Ein zentrales Thema beim Multitask-Lernen ist das Erlernen und Ausnutzen der Beziehungen zwischen den Aufgaben. In diesem Papier verallgemeinern wir Boosting auf das Multi-Task-Lernsetting und schlagen eine Methode namens Multi-Task-Boosting (MTBoost) vor. Verschiedene Aufgaben in MTBoost teilen sich dieselben Basislerner, jedoch mit unterschiedlichen Gewichtungen, die sich auf die geschätzten Aufgabenbeziehungen in jeder Iteration beziehen. Bei MTBoost werden im Gegensatz zu herkömmlichen Boosting-Methoden Basislerner, Gewichtungen und Aufgabenkovarianzen in integrierter Weise unter Verwendung eines abwechselnden Optimierungsverfahrens gelernt. Wir führen theoretische Analysen zur Konvergenz von MTBoost und empirische Analysen durch, die sie mit mehreren verwandten Methoden vergleichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33460-3_50 b658227bfb041a2d1d6320e318e384d1;de;;;7.4.;;;ADL-MOOC: Adaptives Lernen durch Big-Data-Analyse und Data-Mining-Algorithmen für MOOCs Massive Open Online Courses (MOOCs) haben sich in den letzten Jahren als Online-Phänomen in der aktuellen Hochschulbildung ausgewirkt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48024-4_21 608fb46397016aa700a87e5a62b0d3c3;de;;;7.4.;;;Ein Deep-Learning-Ansatz zur Vorhersage des menschlichen Verhaltens mit Erklärungen in sozialen Netzwerken im Gesundheitsbereich: Social Restricted Boltzmann Machine (SRBM .) Die Modellierung des menschlichen Verhaltens ist eine Schlüsselkomponente in Anwendungsdomänen wie dem Gesundheitswesen und der Sozialverhaltensforschung. Neben einer genauen Vorhersage ist es auch wichtig, die Rolle menschlicher Verhaltensdeterminanten zu verstehen und Erklärungen für das vorhergesagte Verhalten zu liefern. Diese Fähigkeit erhöht das Vertrauen in die Systeme und die Wahrscheinlichkeit, dass die Systeme tatsächlich übernommen werden, und fördert so Engagement und Loyalität. Die meisten Vorhersagemodelle liefern jedoch keine Erklärungen für das von ihnen vorhergesagte Verhalten. In diesem Beitrag untersuchen wir das Forschungsproblem,;-;-;-;https://link.springer.com/article/10.1007/s13278-016-0379-0 de0084c25e48f8cf9d41416b38612160;de;;;7.4.;;;Smart Policing: Ein kritischer Literaturüberblick Smart Policing bezieht sich auf die Anwendung datengesteuerter Ansätze durch Polizeibehörden. Obwohl das Konzept nicht neu ist, erfordert die enorme Verfügbarkeit potenziell relevanter Datenquellen für die Polizeiarbeit eine kritische und konsolidierte Überprüfung der Literatur. Um die Evidenz zu Smart Policing zu synthetisieren, präsentieren wir einen systematischen Überblick über 112 Artikel aus allen relevanten Disziplinen. Frühere Arbeiten konzentrierten sich auf die Kommunikation in sozialen Medien oder die vorausschauende Polizeiarbeit, während diese Überprüfung mehrere neue Anwendungen identifiziert, die mit neuen Datenformen und ihren entsprechenden Rollen für die Polizeiarbeit verbunden sind. Wir entwickeln einen Rahmen, um die Zusammenhänge zwischen intelligenter Datennutzung und polizeilichen Ansätzen und Strategien aufzuzeigen. Wir diskutieren, wie Smart Policing ein Bereich von zunehmendem Interesse in der Digital Government- und Public Management-Forschung sein kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-57599-1_5 476332de8f487a66c6541e256aae3a1c;de;;;7.4.;;;Entscheidungsmodelle für die Datensatzverknüpfung Der Prozess des Identifizierens von Datensatzpaaren, die dieselbe reale Entität in mehreren Datenbanken darstellen, allgemein als Datensatzverknüpfung bekannt, ist einer der wichtigen Schritte in vielen Data-Mining-Anwendungen. In diesem Beitrag adressieren wir eine der Teilaufgaben der Datensatzverknüpfung, nämlich das Problem der Zuordnung von Datensatzpaaren mit einem passenden Matching-Status. Techniken zur Lösung dieses Problems werden als Entscheidungsmodelle bezeichnet. Die meisten existierenden Entscheidungsmodelle basieren auf guten Trainingsdaten, die jedoch in realen Anwendungen nicht allgemein verfügbar sind. Kürzlich wurden Entscheidungsmodelle vorgeschlagen, die auf Techniken des unüberwachten maschinellen Lernens basieren. In diesem Papier überprüfen wir mehrere bestehende Entscheidungsmodelle und schlagen dann eine Erweiterung der clusterbasierten Entscheidungsmodelle vor. Experimentelle Ergebnisse zeigen, dass unser vorgeschlagenes Entscheidungsmodell die gleiche Genauigkeit bestehender Modelle erreicht und gleichzeitig die Anzahl der für die manuelle Überprüfung erforderlichen Datensatzpaare erheblich reduziert. Das vorgeschlagene Modell bietet auch einen Mechanismus, um die Genauigkeit mit der Anzahl der Datensatzpaare abzuwägen, die für die kaufmännische Überprüfung erforderlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/11677437_12 d8aa49e4007968a0f4c9878d4e3995fa;de;;;7.4.;;;Zeitliches Data Mining mit Hidden-Markov-lokalen Polynommodellen Diese Studie schlägt ein Data-Mining-Framework vor, um qualitative und quantitative Muster in diskret bewerteten Zeitreihen (DTS) zu entdecken. In unserer Methode gibt es drei Ebenen für das Mining von Ähnlichkeits- und Periodizitätsmustern. Auf der ersten Ebene wird eine strukturbasierte Suche basierend auf Distanzmaßmodellen verwendet, um Musterstrukturen zu finden, die zweite Ebene führt eine wertbasierte Suche auf den entdeckten Mustern durch die lokale Polynomanalyse durch und dann die dritte Ebene basierend auf Hidden Markov Local Polynomial Models (HMLPMs), findet globale Muster aus einem DTS-Set. Wir demonstrieren unsere Methode zur Analyse von „Wechselkursmustern“ zwischen dem US-Dollar und dem britischen Pfund.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45357-1_35 49aba95415b5b8bd4ac4c05c1d03d20e;de;;;7.4.;;;Gewinnen von Wissen aus Textsammlungen mit automatisch generierten Metadaten Data Mining wird typischerweise auf große Datenbanken mit stark strukturierten Informationen angewendet, um neues Wissen zu entdecken. In Unternehmen und Institutionen konkurriert oder übertrifft die Informationsmenge in Repositorien von Textdokumenten in der Regel die Menge in relationalen Datenbanken. Obwohl die Menge an potenziell wertvollem Wissen in Dokumentensammlungen groß sein kann, sind sie oft schwer zu analysieren. Daher ist es wichtig, Methoden zu entwickeln, um in diesen Dokumenten-Repositorys eingebettetes Wissen effizient zu entdecken. In diesem Papier beschreiben wir einen Ansatz zum Mining von Wissen aus Textsammlungen durch Anwendung von Data-Mining-Techniken auf Metadatensätze, die durch automatisierte Textkategorisierung generiert wurden. Durch die Kontrolle des Satzes von Metadatenfeldern sowie des Satzes der zugewiesenen Kategorien können wir die Wissensermittlungsaufgabe anpassen, um spezifische Fragen zu beantworten. Als Beispiel wenden wir den Ansatz auf eine große Sammlung von Produktbewertungen an und bewerten die Leistung der Wissensfindung.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36277-0_47 746f715fb2de8e7e01af9684236701c0;de;;;7.4.;;;Forschung zum Data-Mining-Algorithmus von Assoziationsregeln basierend auf Hadoop Big Data Mining basierend auf Cloud Computing ist das heiße Thema der Branchenforschung, dieses Papier schlug einen verbesserten verteilten Apriori-Algorithmus vor. Noch wichtiger ist, dass angesichts der schlechten Leistung beim Ausführen des Apriori-Algorithmus in großen Datenmengen der Algorithmus des Apriori-Data-Mining basierend auf dem Apriori-Algorithmus vorgestellt wird und der verbesserte verteilte Apriori-Algorithmus basierend auf der Hadoop-Plattform vorgeschlagen wird. Der Algorithmus konzentriert sich auf die Anwendung des auf Hadoop basierenden Assoziationsregelalgorithmus im Massendaten-Mining. Dieses Papier beschreibt die Idee eines verbesserten Apriori-Algorithmus auf der Hadoop-Plattform und stellt den experimentellen Test vor. Die experimentellen Ergebnisse zeigen, dass der verbesserte Algorithmus von Assoziationsregeln basierend auf Hadoop den Apriori-Algorithmus für Assoziationsregeln der Betriebseffizienz effektiv verbessern und die redundanten Assoziationsregeln reduzieren kann und den effizienten Vorteil beim Umgang mit massiven Daten hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1648-7_25 d466dcf7c943e97df008eb168a0ba8a5;de;;;7.4.;;;Computational Grid-based 3-Tier ART1 Data Mining für Bioinformatik-Anwendungen Die Computational Grid-Technologie wurde als Problem erkannt, um groß angelegte bioinformatische Probleme zu lösen und die Datengenauigkeit und Verarbeitungsgeschwindigkeit auf mehreren Rechenplattformen mit verteilten bioDATA-Sätzen zu verbessern. Dieses Papier konzentriert sich auf eine GPCR-Data-Mining-Verarbeitung, die eine wichtige bioinformatische Anwendung ist. Dieses Papier schlägt einen Grid-basierten 3-Tier-ART1-Klassifikator vor, der ein ART1-Clustering-Data-Mining unter Verwendung von Grid-Rechenressourcen mit verteilten GPCR-Datensätzen betreibt. Dieser gitterbasierte 3-stufige ART1-Klassifizierer ist in der Lage, eine groß angelegte Bioinformatikanwendung zu verarbeiten, indem er eine hohe bioDATA-Genauigkeit mit angemessenen Verarbeitungsressourcen garantiert. In diesem Artikel wird die Leistung des gitterbasierten ART1-Klassifikators im Vergleich zum ART1-basierten Klassifikator und dem ART1-Optimalen Klassifikator bewertet. Die Data-Mining-Verarbeitungszeit des Grid-basierten ART1-Klassifikators beträgt 18% Data-Mining-Verarbeitungszeit des ART1-Optimal-Klassifikators und 12% der Data-Mining-Verarbeitungszeit des ART1-basierten Klassifikators. Und wir bewerten die Leistung des gitterbasierten 3-Tier-ART1-Klassifikators im Vergleich zum gitterbasierten ART1-Klassifikator. Wenn die Datensätze größer werden, nimmt die Data Mining-Verarbeitungszeit des gitterbasierten 3-Tier-ART1-Klassifikators stärker ab als die des gitterbasierten ART1-Klassifikators. Computational Grid in Bioinformatik-Anwendungen verspricht eine leistungsstarke Verarbeitung mit großen und geografisch verteilten bioDATA-Sätzen.;-;-;-;https://link.springer.com/chapter/10.1007/11881599_60 d4edb44aef3d38aa52d98180762110ad;de;;;7.4.;;;Absichtsschätzung und Empfehlungssystem basierend auf Aufmerksamkeitsteilung In der Mensch-Agenten-Interaktion spielt die Aufteilung der Aufmerksamkeit eine Schlüsselrolle, um die Absichten anderer ohne explizite verbale Erklärung zu verstehen. In letzter Zeit werden Deep-Learning-Algorithmen verwendet, um diese Interaktionen in einer komplexen realen Umgebung zu modellieren. In diesem Artikel schlagen wir ein auf Deep Learning basierendes Absichtsschätzungs- und Empfehlungssystem vor, indem wir die menschliche Aufmerksamkeit basierend auf ihren Gesten verstehen. Aktionsobjekt-Affordances werden mit einem gestapelten Auto-Encoder modelliert, der die Beziehungen zwischen Aktionen und Objekten darstellt. Das Absichtsschätzungs- und Objektempfehlungssystem gemäß der menschlichen Absicht wird basierend auf einem Angebotsmodell implementiert. Das experimentelle Ergebnis zeigt eine sinnvolle Absichtsschätzung und Empfehlungsleistung in den realen Szenarien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-42054-2_49 87e08d02d9d50f24461ae54f2df95eb8;de;;;7.4.;;;Qualitätssicherung für KI-basierte Systeme: Überblick und Herausforderungen (Einführung in die interaktive Sitzung) Die Zahl und Bedeutung von KI-basierten Systemen in allen Domänen wächst. Mit dem allgegenwärtigen Einsatz und der Abhängigkeit von KI-basierten Systemen wird die Qualität dieser Systeme für deren praktische Anwendung unerlässlich. Die Qualitätssicherung für KI-basierte Systeme ist jedoch ein aufstrebender Bereich, der noch nicht gut erforscht ist und eine Zusammenarbeit zwischen den SE- und KI-Forschungsgemeinschaften erfordert. In diesem Papier werden Terminologie und Herausforderungen bei der Qualitätssicherung für KI-basierte Systeme diskutiert, um eine Grundlage für diesen Zweck zu schaffen. Daher definieren wir grundlegende Konzepte und charakterisieren KI-basierte Systeme entlang der drei Dimensionen Artefakttyp, Prozess und Qualitätsmerkmale. Darüber hinaus gehen wir auf die zentralen Herausforderungen ein: (1) Verständlichkeit und Interpretierbarkeit von KI-Modellen, (2) Fehlen von Spezifikationen und definierten Anforderungen, (3) Notwendigkeit von Validierungsdaten und Testeingaben, (4) Definition der erwarteten Ergebnisse als Testorakel , (5) Genauigkeits- und Korrektheitsmaße, (6) nicht-funktionale Eigenschaften von KI-basierten Systemen, (7) selbstanpassende und selbstlernende Eigenschaften und (8) dynamische und sich häufig ändernde Umgebungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-65854-0_3 e86dabef0a0ddf56dd78ed6f09a136e1;de;;;7.4.;;;Hyperbolische 0–1-Programmierung und Abfrageoptimierung bei der Informationsbeschaffung Die uneingeschränkte hyperbolische 0–1-Programmierung kann in linearer Zeit gelöst werden, wenn Zähler und Nenner linear sind und letzterer immer positiv ist. Es ist NP-schwer, und das Finden einer Näherungslösung mit einem Wert gleich einem positiven Vielfachen des optimalen ist auch NP-schwer, wenn diese letzte Hypothese nicht zutrifft. Die Bestimmung der optimalen logischen Form einer Abfrage beim Information Retrieval unter gegebenen Attributen kann als parametrisches hyperbolisches 0–1-Programm ausgedrückt und in O(;-;-;-;https://link.springer.com/article/10.1007/BF01582890 d05872b851efe67ae1b74b6532c2ca60;de;;;7.4.;;;Der Weg nach vorn Der zunehmende Einsatz von Data-Mining-Praktiken sowohl durch staatliche als auch durch kommerzielle Einrichtungen führt zu großen Versprechen und Herausforderungen. Sie versprechen, ein faires, genaues und effizientes Informationsumfeld zu ermöglichen. Gleichzeitig könnten sie zu Praktiken führen, die sowohl invasiv als auch diskriminierend sind, jedoch auf eine Weise, die das Gesetz noch nicht erfasst hat. Dieser Punkt wird demonstriert, indem gezeigt wird, dass die üblichen Maßnahmen zur Minderung von Datenschutzbedenken, wie a priori einschränkende Maßnahmen (insbesondere Zugangskontrollen, Anonymität und Zweckbestimmung) Mechanismen sind, die in diesem neuen Kontext zunehmend an Lösungen für Datenschutz- und Diskriminierungsprobleme scheitern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30487-3_19 1536dc978b11d3282f0634e36a0ea689;de;;;7.4.;;;Kostensensitives Lernen von SVM für das Ranking In diesem Beitrag schlagen wir eine neue Methode zum Erlernen des Rankings vor. ‘Ranking SVM’ ist eine Methode zur Durchführung der Aufgabe. Es formuliert das Problem als das der binären Klassifizierung von Instanzpaaren und führt die Klassifizierung mittels Support Vector Machines (SVM) durch. In Ranking SVM werden die Verluste für falsche Klassifizierungen von Instanzpaaren zwischen verschiedenen Rangpaaren als gleich definiert. Wir stellen fest, dass bei vielen Anwendungen wie der Informationsabfrage die negativen Auswirkungen von Fehlern zwischen höheren und niedrigeren Rängen größer sind als Fehler bei niedrigeren Rängen. Daher ist es naheliegend, die Idee des kostensensitiven Lernens in das Erlernen des Rangs einzubringen, oder genauer gesagt, verschiedene Verluste für die Fehlklassifizierung von Instanzpaaren zwischen verschiedenen Rangpaaren einzurichten. Bei einer kostensensitiven Verlustfunktion können wir auf der Grundlage der Verlustfunktion ein Ranking-SVM-Modell konstruieren. Simulationsergebnisse zeigen, dass unsere Methode in praktischen Ranking-Einstellungen besser funktioniert als Ranking SVM. Experimentelle Ergebnisse zeigen auch, dass unsere Methode bestehende Methoden, einschließlich Ranking SVM, bei echten Informationsabrufaufgaben wie der Dokumentensuche und der Definitionssuche übertreffen kann.;-;-;-;https://link.springer.com/chapter/10.1007/11871842_86 5d07f92b19938188797c1b8517f77a2a;de;;;7.4.;;;Identifizieren des Status genetischer Läsionen in Dokumenten von klinischen Krebsstudien mithilfe von maschinellem Lernen Viele klinische Krebsstudien spezifizieren jetzt den besonderen Status einer genetischen Läsion im Tumor eines Patienten in den Einschluss- oder Ausschlusskriterien für die Aufnahme in die Studie. Um die Suche und Identifizierung genassoziierter klinischer Studien durch potenzielle Teilnehmer und Kliniker zu erleichtern, ist es wichtig, automatisierte Methoden zu entwickeln, um genetische Informationen aus narrativen Studiendokumenten zu identifizieren.;-;-;-;https://link.springer.com/article/10.1186/1471-2164-13-S8-S21 ed5477e989eeb83dd203ddb33b251331;de;;;7.4.;;;Speicher sind nicht für immer Ähnlich der Sorge um die Verknappung fossiler Brennstoffe bringt die Informationstechnologie ihren eigenen Anteil an Zukunftssorgen mit sich. Wir haben uns entschieden, in diesem Papier ein Problem genauer zu untersuchen, nämlich die begrenzte Menge an Datenspeicherung. Eine einfache extrapolierende Analyse zeigt, dass wir auf dem Weg sind, unsere Speicherkapazitäten in weniger als zwei Jahrhunderten mit aktueller Technik und ohne Recycling auszuschöpfen. Dies kann als Vorsichtsmaßnahme gewertet werden, um die Forschungsinitiative in mehrere Richtungen auszuweiten: erstens innovative Datenanalysetechniken hervorzubringen, um nützliches Wissen darzustellen, zu lernen und zu aggregieren und gleichzeitig Rauschen aus Daten herauszufiltern, zweitens das Zusammenspiel zwischen Speicherung und Computing, um die Speicherzuweisung zu minimieren, und drittens ausgeklügelte Lösungen zur Erweiterung der Speicherkapazität zu erkunden. In diesem Beitrag tauchen wir tiefer in den Stand der Forschung ein und machen auch neue Vorschläge in alle oben genannten Richtungen, einschließlich raum- und zeiteffizienter Datendarstellung, intelligenter Datenaggregation, In-Memory-Computing, extra -terrestrische Speicherung und Datenpflege. Das Hauptziel dieses Dokuments besteht darin, das Bewusstsein für die Speicherbeschränkungen zu schärfen, mit denen wir konfrontiert sind, wenn die aktuelle Technologie übernommen wird und die Wachstumsrate der Speicherauslastung anhält. Im Manuskript schlagen wir einige Speicherlösungen und eine bessere Ausnutzung der Speicherkapazität durch eine globale DIKW-Hierarchie vor.;-;-;-;https://link.springer.com/article/10.1007/s12559-017-9482-4 32adaa1eb4e0c9105160b11f09952485;de;;;7.4.;;;Unbeaufsichtigte und teilüberwachte Lagrange-Unterstützungsvektormaschinen Support Vector Machines sind seit fast zehn Jahren eine dominierende Lerntechnik, außerdem werden sie bei überwachten Lernproblemen eingesetzt. Kürzlich zweiklassige unüberwachte und halbüberwachte Klassifikationsprobleme basierend auf Bounded;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72588-6_140 a728ab9167fa72a9d1f56b0e5244fbf3;de;;;7.4.;;;Entführung bei Klassifikationsaufgaben Das Ziel dieser Arbeit ist es zu zeigen, wie die Entführung bei Klassifikationsaufgaben verwendet werden kann, wenn wir mit unvollständigen Daten umgehen. Einige Klassifikatoren, selbst wenn sie auf Entscheidungsbauminduktion basieren, wie C4.5 1, erzeugen als Ausgabe einen Satz von Regeln, um neue gegebene Beispiele zu klassifizieren. Die meisten dieser regelbasierten Klassifikatoren gehen davon aus, dass wir zum Zeitpunkt der Klassifikation alles über neue gegebene Beispiele wissen können. Probabilistische Ansätze ermöglichen es regelbasierten Klassifikatoren, die wahrscheinlichste Klasse auf der Grundlage der Häufigkeit des fehlenden Attributs im Trainingssatz 2 zu ermitteln. Diese Art von Annahme führt manchmal zu falschen Klassifizierungen. Wir präsentieren einen abduktiven Ansatz, um zu wählen, welche Klassifikationsregel angewendet werden soll, wenn ein neues Beispiel mit fehlenden Informationen klassifiziert werden muss, indem Wissen über die Domäne verwendet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39853-0_18 d95422d763db45ec41b097a985d2b077;de;;;7.4.;;;Wirkung des klonalen Selektionsalgorithmus auf Klassifikatoren Um den Klassifizierungsprozess durchführen zu können, sollte eine ausreichende Anzahl von Proben vorhanden sein. Das Sammeln einer ausreichenden Anzahl von Proben, insbesondere für den Umgang mit medizinischen Daten, ist eine mühsame Aufgabe. Um die Zustimmung der Ethikkommission in unserem Land zu erhalten, können statt einer Probennummer Patientendaten aus einem bestimmten Zeitintervall angefordert werden. Daher gibt es Schwierigkeiten, eine ausreichende Anzahl von Proben zu erreichen. In dieser Studie wurde die Wirkung des klonalen Selektionsalgorithmus, der einer der Algorithmen des künstlichen Immunsystems ist, auf Standardklassifikatoren untersucht. Als Datensatz wurde der Datensatz für chronische Nierenerkrankungen aus dem Machine Learning Repository der University of California Irvine ausgewählt. Als Klassifikatoren wurden unter den gebräuchlichen Verfahren zur Klassifikation Verfahren des k-nächsten Nachbarn, Entscheidungsbäume und künstliche neuronale Netze ausgewählt. Während k nächster Nachbar ein entfernungsbasierter Algorithmus ist, ist ein Entscheidungsbaum ein regressionsbasiertes Verfahren und das heutzutage sehr beliebte künstliche neuronale Netz ist ein von der Natur inspiriertes Verfahren. Gemäß den Ergebnissen der Experimente wurde festgestellt, dass der Datenreproduktionsprozess unter Verwendung des klonalen Auswahlalgorithmus die Leistung der Klassifizierer erhöht hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36178-5_84 79e0529635c5ce22fa352eade5a709a3;de;;;7.4.;;;Rank-Ansatz für Bewerber mit maschinellen Lerntechniken Aufgrund der Covid19-Pandemie werden alle Prozesse in eine digitale Form umgewandelt, die zu einem Wachstum der Online-Rekrutierung führt. Jobportale sind Stellenvermittlungssysteme. Mitarbeiter der Personalabteilung leiden unter vielen Bewerbungen und dem Bewerbungsprozess und wählen den besten Kandidaten für die Stelle aus. Dieses Papier stellt das Job Candidate Rankmodel vor, das die Stimmung der Interviewer analysiert und einen Rang für jeden Jobkandidaten berechnet, um den Mitarbeitern der Personalabteilung bei der Einstellungsentscheidung zu helfen. Der vorgeschlagene Ansatz analysiert die Stimmung der Interviewer und erstellt eine Liste von gerankten Schlüsselwörtern und klassifiziert sie dann mit Techniken des maschinellen Lernens. Die Ergebnisse zeigen, dass der Ansatz des Stellenkandidatenrangs eine Genauigkeit von 93% bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-69717-4_24 b0980fe0473b4dfb09f068cdc946c4fe;de;;;7.4.;;;Verwendung einschichtiger neuronaler Netze zur Extraktion konjunktiver Regeln und hierarchischer Klassifikationen Machine Learning ist ein Bereich, der sich mit der Automatisierung des Wissenserwerbsprozesses beschäftigt. Neuronale Netze repräsentieren ihr Wissen im Allgemeinen auf der unteren Ebene, während wissensbasierte Systeme Wissensrepräsentationen auf höherer Ebene verwenden. Das hier vorgeschlagene Verfahren stellt eine Technik bereit, die es uns automatisch ermöglicht, Produktionsregeln aus der Darstellung auf niedrigerer Ebene zu extrahieren, die von einschichtigen neuronalen Netzen verwendet wird, die durch die Hebb-Regel trainiert werden. Obwohl ein einschichtiges neuronales Netzwerk keine komplexen, nichtlinearen Domänen modellieren kann, hat uns ihre Stärke im Umgang mit Rauschen es uns ermöglicht, korrekte Regeln in einem verrauschten Bereich zu erstellen.;-;-;-;https://link.springer.com/article/10.1007/BF00058881 a66fc7be120b2a18fc182f4bc00ec2ca;de;;;7.4.;;;Eine Anwendung von maschinellem Lernen und Bildverarbeitung zur automatischen Erkennung von Lehrergesten Um Lehrern detailliertes Feedback zu ihrer Gestik im Unterricht zu geben, ist entweder ein Einzelcoaching durch Experten oder hochqualifizierte Beobachter erforderlich, die die Aufzeichnungen des Klassenzimmers handcodieren. Diese Methoden sind zeitaufwendig, teuer und erfordern beträchtliches menschliches Fachwissen, was es sehr schwierig macht, sie auf eine große Anzahl von Lehrern anzuwenden. Unter Anwendung von maschinellem Lernen und Bildverarbeitung entwickeln wir einen nicht-invasiven Detektor der Gesten von Lehrern. Für die Spotting-Aufgabe verwenden wir einen mehrstufigen Ansatz. Mit einer Standardkamera aufgezeichnete Lektionen werden offline mit der OpenPose-Software verarbeitet. Als Nächstes stellten wir mithilfe eines Gestenklassifizierers fest, der auf einem früheren Trainingssatz mit Machine Learning trainiert wurde, und stellten fest, dass die Präzisionsrate bei neuen Lektionen zwischen 54 und 78 % liegt. Die Genauigkeit hängt von den verwendeten Trainings- und Test-Datasets ab. Daher haben wir festgestellt, dass mit einer zugänglichen, nicht-invasiven und kostengünstigen automatischen Gestenerkennungsmethode ein automatisches Unterrichtsbeobachtungstool implementiert werden kann, das mögliche Gesten von Lehrern erkennt. In Kombination mit anderen Technologien, wie Spracherkennung und Textmining des Lehrerdiskurses, kann ein leistungsstarkes und praktisches Werkzeug angeboten werden, um Lehrern privates und zeitnahes Feedback zu den Kommunikationsmerkmalen ihrer Unterrichtspraxis zu geben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63119-2_42 01c876d400f8b10b38fa5ff54348d09a;de;;;7.4.;;;Semantische Duplikatidentifikation mit Parsing und Machine Learning Das Identifizieren von doppelten Texten ist in vielen Bereichen wichtig, z. B. bei der Erkennung von Plagiaten, der Informationsbeschaffung, der Textzusammenfassung und der Beantwortung von Fragen. Aktuelle Ansätze sind meist oberflächenorientiert (oder verwenden nur flache syntaktische Darstellungen) und sehen jeden Text nur als Token-Liste. In dieser Arbeit beschreiben wir jedoch eine tiefe, semantisch orientierte Methode basierend auf semantischen Netzwerken, die von einem syntaktisch-semantischen Parser abgeleitet werden. Semantisch identische oder ähnliche semantische Netze für jeden Satz eines gegebenen Basistextes werden unter Verwendung eines spezialisierten Index effizient wiedergewonnen. Um viele Arten von Paraphrasen zu erkennen, werden die semantischen Netzwerke eines Kandidatentextes durch Inferenzen variiert: lexiko-semantische Beziehungen, Beziehungsaxiome und Bedeutungspostulate. Wichtige Phänomene, die in schwierigen Duplikaten auftreten, werden diskutiert. Der Deep-Ansatz profitiert von Hintergrundwissen, dessen Erwerb aus Korpora kurz erläutert wird. Der tiefe Duplikaterkenner wird mit zwei flachen Duplikaterkennern kombiniert, um einen hohen Wiedererkennungswert für nicht vollständig parsbare Texte zu gewährleisten. Die Auswertung zeigt, dass der kombinierte Ansatz die Erinnerung bewahrt und die Präzision im Vergleich zu traditionellen flachen Methoden erheblich erhöht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15760-8_12 5b4877922d9151a2c5409a55478c6f8c;de;;;7.4.;;;Schnelles spektrales Clustering mit zufälliger Projektion und Abtastung Dieses Papier schlägt eine schnelle spektrale Clustering-Methode für großräumige Daten vor. Bei dem vorliegenden Verfahren werden Zufallsprojektions- und Zufallsstichprobentechniken verwendet, um die Datendimensionalität und Kardinalität zu reduzieren. Die Rechenzeit des vorliegenden Verfahrens ist bezüglich der Datenkardinalität quasi-linear. Das Clustering-Ergebnis kann mit geringem Rechenaufwand aktualisiert werden, wenn Datenstichproben oder Zufallsstichproben angehängt oder entfernt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03070-3_28 be9a4c6978c5248367adf6bd3fc4eb60;de;;;7.4.;;;EIN RAHMEN ZUR INFORMATIONSEXTRAKTION FÜR DIGITALE FORENSISCHE UNTERSUCHUNGEN Die Verbreitung der Informationstechnologie hat zu einer Explosion von Beweisen geführt. Der Versuch, wertvolle Informationen aus riesigen Dokumentensammlungen zu finden, ist eine Herausforderung. Dieses Kapitel schlägt ein zweiphasiges Informationsextraktions-Framework für digitale forensische Untersuchungen vor. In der ersten Phase wird ein Ansatz zur Erkennung benannter Entitäten auf die gesammelten Dokumente angewendet, um Namen, Standorte und Organisationen zu extrahieren. Die benannten Entitäten werden mit einem Visualisierungssystem angezeigt, um Ermittler bei der schnellen und genauen Suche nach kohärenten Beweisen zu unterstützen. In der zweiten Phase wird Assoziationsregel-Mining durchgeführt, um die zwischen den extrahierten benannten Entitäten bestehenden Beziehungen zu identifizieren, die dann angezeigt werden. Beispiele sind Personen-Zugehörigkeits-Beziehungen und Organisation-Standort-Beziehungen. Die Wirksamkeit des Frameworks wird anhand des bekannten E-Mail-Datensatzes von Enron demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24123-4_4 717184ce04ffb3b0959b328ea648c0bb;de;;;7.4.;;;Proteinfalten-Vorhersageproblem unter Verwendung eines Ensembles von Klassifikatoren Die Vorhersage der Tertiärstruktur eines Proteins aus seiner Primärstruktur (Aminosäuresequenz des Proteins) ohne sich auf sequenzielle Ähnlichkeit zu verlassen, ist eine herausfordernde Aufgabe für die Bioinformatik und die biologische Wissenschaft. Das Vorhersageproblem der Proteinfaltung kann als Vorhersageproblem ausgedrückt werden, das durch maschinelle Lerntechniken gelöst werden kann. In diesem Beitrag wird eine neue Methode basierend auf einem Ensemble von fünf Klassifikatoren (Naïve Bayes, Multi Layer Perceptron (MLP), Support Vector Machine (SVM), LogitBoost und AdaBoost.M1) für das Proteinfaltungsvorhersageproblem vorgeschlagen. Der in diesem Experiment verwendete Datensatz stammt aus dem Standarddatensatz von Ding und Dubchak. Experimentelle Ergebnisse zeigen, dass die vorgeschlagene Methode die Vorhersagegenauigkeit bei einem unabhängigen Testdatensatz um bis zu 64 % verbesserte, was die höchste Vorhersagegenauigkeit im Vergleich zu anderen in der Literatur vorgeschlagenen Methoden darstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10684-2_56 9866e9fe994dceb7ff990bfcd6541749;de;;;7.4.;;;Ein raumbasiertes generisches Muster für selbstinitiierende Lastclustering-Agenten Lastclustering ist ein wichtiges Problem in verteilten Systemen, dessen richtige Lösung zu einer erheblichen Leistungsverbesserung führen kann. Es unterscheidet sich vom Lastenausgleich, da es eine Sammlung von Lasten anstelle von normalen Datenelementen betrachtet, bei denen eine einzelne Last als Aufgabe beschrieben werden kann. Aktuelle Ansätze, die Lastclustering behandeln, mangeln hauptsächlich an der Bereitstellung eines allgemeinen Rahmens und an Autonomie. Sie sind weder agentenbasiert noch für viele Topologien konfigurierbar. In diesem Papier schlagen wir ein generisches Framework für Self-Initiative Load Clustering Agents (SILCA) vor, das auf autonomen Agenten und dezentraler Steuerung basiert. SILCA ist ein generisches Architekturmuster für Lastclustering. Das SILCA-Framework ist die entsprechende Implementierung und unterstützt somit austauschbare Policies und ermöglicht das Plugging unterschiedlicher Algorithmen zum Load-Clustering. Es ist problemunabhängig, sodass für jedes spezifische Problem der beste Algorithmus oder die beste Kombination von Algorithmen gefunden werden kann. Das Muster wurde auf zwei Ebenen implementiert: In der Basisversion können verschiedene Algorithmen gesteckt werden und in der erweiterten Version können verschiedene Algorithmen kombiniert werden. Die Flexibilität wird anhand von neun Algorithmen nachgewiesen. Weitere Beiträge sind das Benchmarking der Algorithmen und das Herausarbeiten ihrer besten Kombinationen für verschiedene Topologien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30829-1_16 5e6f347795c0b5db6f2825fa8e05f9f3;de;;;7.4.;;;Auf künstlicher Intelligenz basierendes Chatbot-Framework mit Authentifizierungs-, Autorisierungs- und Zahlungsfunktionen Chatbot ist ein Computerprogramm, das eine menschliche Konversation über eine Chat-Anwendung wie Facebook Messenger, WeChat, Slack usw. simulieren kann. Wir erstellen ein auf künstlicher Intelligenz basierendes Chatbot-Building-Framework, das eine abonnementbasierte Chatbot-Builder-Plattform mit Authentifizierung, Autorisierung und anderen wichtigen Modulen ist. Es bietet eine bessere Intelligenz für Konversationen im Vergleich zu aktuellen flussbasierten Chatbot-Buildern. Marken können sich für die Plattform anmelden und ihren eigenen einzigartigen Chatbot basierend auf ihren Geschäftsanforderungen erstellen und auf allen Messenger-Plattformen wie Facebook, WhatsApp, Telegram, WeChat usw. bereitstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3514-7_16 0fa19a52da83cf5ba0069d2fe7458dc5;de;;;7.4.;;;Korrelationskoeffizienten von objektiven Regelbewertungsindizes zu Klassifikationsregeln analysieren Bei der Data-Mining-Nachbearbeitung, einem der wichtigsten Verfahren in einem Data-Mining-Prozess, wurden mindestens 39 Metriken vorgeschlagen, um wertvolles Wissen zu ermitteln. Ihre funktionalen Eigenschaften wurden jedoch nie unter den gleichen Bedingungen klar artikuliert. Daher haben wir eine Korrelationsanalyse der funktionalen Eigenschaften zwischen den einzelnen objektiven Regelbewertungsindizes auf Klassifikationsregelsätzen unter Verwendung von Korrelationskoeffizienten zwischen den einzelnen Indizes durchgeführt. In dieser Analyse haben wir die Durchschnittswerte jedes Index mit der Bootstrap-Methode auf 34 Klassifikationsregelsätzen berechnet, die auf der Grundlage des Informationsgewinnverhältnisses gelernt wurden. Dann fanden wir die folgenden Beziehungen basierend auf Korrelationskoeffizientenwerten: ähnliche Paare, abweichende Paare und unabhängige Indizes. Im Hinblick auf dieses Ergebnis diskutieren wir über relative funktionale Beziehungen zwischen jeder Gruppe von Zielindizes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79721-0_64 bbd1e60cc5fba7bc71715cd4bb01579e;de;;;7.4.;;;Bestimmende Faktoren der Online-Auktionspreisanalyse mit Data-Mining-Algorithmen auf Basis von Entscheidungsbäumen Der beeindruckende Umfang der Online-Auktionsverkäufe und das wirtschaftliche Ökosystem privater und gewerblicher Anbieter machten eBay & Co. für die Wissenschaft interessant. Im Rahmen dieser Arbeit werden Determinanten identifiziert, die das Ergebnis von Online-Auktionen maßgeblich beeinflussen. Wir haben beobachtet, dass für identische (neue) Produkte oft unterschiedliche Preise berechnet wurden und die Preisvolatilität an die Auktionscharakteristik gebunden ist. Durch die Auswertung einer Vielzahl von Online-Auktionen nach der Entscheidungsbaummethode leiten wir signifikante Regeln ab, die den Auktionserfolg bestimmen. Dadurch erhalten die Marktteilnehmer, aber auch der Plattformbetreiber, zusätzliche Erkenntnisse, die sie bei ihren Marktaktivitäten berücksichtigen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19542-6_70 b9f05d2d897b6603750bcbc25053dd9f;de;;;7.4.;;;Bedeutet Big Data großes Wissen? Integration von Big-Data-Analyse und konzeptionellem Modell für die Social-Commerce-Forschung Die Big-Data-Ära ist in vielen Gemeinden angekommen, von Regierungen über E-Commerce bis hin zu Gesundheitsorganisationen. Informationssystemdesigner sehen sich großen Chancen und Herausforderungen bei der Entwicklung eines ganzheitlichen Big-Data-Forschungsansatzes für die neue analytisch versierte Generation gegenüber. Darüber hinaus wird Business Intelligence weitgehend in der Geschäftswelt genutzt und kann so die Chancen aus der Fülle von Daten und domänenspezifischen Analysen in vielen kritischen Bereichen nutzen. Das Ziel dieses Papiers ist es, die Relevanz dieser Trends im aktuellen Geschäftskontext durch eine evidenzbasierte Dokumentation aktueller und aufkommender Anwendungen sowie ihrer breiteren geschäftlichen Auswirkungen zu bewerten. In diesem Papier verwenden wir BigML, um zu untersuchen, wie die beiden sozialen Informationskanäle (d. h. freundebasierte Meinungsführer-basierte soziale Informationen) die Kaufentscheidungen der Verbraucher auf Social-Commerce-Sites beeinflussen. Wir führen eine empirische Studie durch, in die wir ein Framework und ein theoretisches Modell für die Big-Data-Analyse integrieren. Wir führen eine empirische Studie durch, um zu zeigen, dass Big Data Analytics erfolgreich mit einem theoretischen Modell kombiniert werden kann, um robustere und effektivere Kaufentscheidungen von Verbrauchern zu treffen. Die Ergebnisse bieten wichtige und interessante Einblicke in die IS-Forschung und -Praxis.;-;-;-;https://link.springer.com/article/10.1007/s10660-016-9242-7 1abc1e546fb2090049e0970e84f3d976;de;;;7.4.;;;Leistungsbewertung des gewichteten assoziativen Klassifikators beim Data Mining im Gesundheitswesen und Erstellen von Fuzzy-gewichteten assoziativen Klassifikatoren In diesem Papier bewerten wir die Leistung des gewichteten assoziativen Klassifikators und schlagen das theoretische Konzept des Fuzzy-gewichteten assoziativen Klassifikators (FWAC) vor. Assoziative Klassifikatoren, der neue Klassifikationsansatz eignet sich besonders für Anwendungen, bei denen das Modell die Experten der Domäne (medizinische Diagnose) bei ihrer Entscheidungsfindung unterstützt. Gewichtete assoziative Klassifikatoren, die das Mining von gewichteten Assoziationsregeln nutzen, werden bereits vorgeschlagen [1]. Die Experimente mit Benchmark-Datensätzen zeigen, dass WAC eine vielversprechende Alternative in der medizinischen Vorhersage mit verbesserter Genauigkeit gegenüber den anderen assoziativen Klassifikatoren ist und sicherlich weitere Aufmerksamkeit verdient. Weiterhin gibt es beim Assoziationsregel-Mining mit quantitativen Attributdomänen ein sogenanntes Sharp-Boundary-Problem. Um dieses Problem zu lösen, verwenden wir Fuzzy-Logik und partitionieren die Domänen. Das Konzept der Fuzzy Weighted Support und Fuzzy Weighted Confidence wird verwendet, um Fuzzy Weighted Classification Association Rules (CAR) zu generieren, die letztendlich für die Vorhersage verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24037-9_22 eccb4cac2635272f7843bc2efa5a569e;de;;;7.4.;;;Brustkrebsklassifikation mit Transfer Learning Krebs ist eine der tödlichsten Formen der Krankheit. Und bei Frauen ist Brustkrebs die häufigste Krebsart, die bei nicht richtiger Diagnose sogar zum Tod führen kann. Im Laufe der Jahre sind auf dem Gebiet der Medizintechnik viele Fortschritte zu sehen, aber wenn es um den Nachweis von Brustkrebs geht, ist die Biopsie der einzige Weg. Pathologen erkennen Krebs mit histologischen Bildern unter dem Mikroskop. Die visuelle Untersuchung von Krebs ist eine kritische Aufgabe, sie erfordert viel Aufmerksamkeit, Geschick und ist zeitaufwändig. Daher besteht ein Bedarf für ein schnelleres und effizientes System zum Nachweis von Brustkrebs. Fortschritte auf dem Gebiet des maschinellen Lernens und der Bildverarbeitung führen zu mehreren Arten von Forschungen zur Schaffung eines effizienten teilweise oder vollständig computerüberwachten Diagnosesystems. In diesem Artikel haben wir histologische Bilder verwendet, um invasive duktale Karzinome zu erkennen und zu klassifizieren. Unser Ansatz beinhaltet konvolutionelle neuronale Netze, die eine sehr fortschrittliche und effiziente Technik im Umgang mit Bildern im maschinellen Lernen sind. Wir haben verschiedene berühmte Deep-Learning-Modelle verglichen und diese vortrainierten CNN-Architekturen mit Feinabstimmung verwendet, um eine effiziente Lösung bereitzustellen. Wir haben auch die Bilderweiterung verwendet, um die Effizienz der Lösung weiter zu verbessern. In dieser Studie haben wir VGG, ResNet, DenseNet, MobileNet, EfficientNet verwendet. Das beste Ergebnis, das wir erhalten haben, war die Verwendung von fein abgestimmtem VGG19 und einer richtigen Bilderweiterung. Mit der genannten Architektur haben wir eine Sensitivität von 93,05 % und eine Präzision von 94,46 erreicht. Wir haben den F-Score der neuesten Forschungen um 10,2% verbessert. Wir haben mit einem vortrainierten DenseNet-Modell eine Genauigkeit von 86,97 % erreicht, die höher ist als die neuesten Forschungen, die 85,41 % erreichten [;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7804-5_32 074ce5fd34b963f5614b7d90382887b7;de;;;7.4.;;;Kurzfristige Verkehrsflussvorhersage von Luftraumsektoren basierend auf einem Lernmechanismus für mehrere Zeitreihen Zunächst werden durch Analysieren der ursprünglichen Radardaten des Flugzeugs im Luftraumsystem die historischen Betriebsinformationen jedes Sektors extrahiert und die Verkehrsflusskorrelation zwischen verschiedenen Routen desselben Sektors wird berücksichtigt. Gemäß den Eigenschaften von Verkehrsflussdaten eines beschäftigten Sektors wird ein mehrdimensionales Datenmodell des Verkehrsflusses mit mehreren verwandten Routen in dem Sektor konstruiert. Zweitens wird basierend auf dem Datenmodell ein Verkehrsflussvorhersagealgorithmus basierend auf maschinellem Lernen mit mehreren Zeitreihen vorgeschlagen. Die Hauptidee des Algorithmus besteht darin, die Zeitreihen-Clustering-Methode zu verwenden, um die Dimensionalität von mehrdimensionalen Verkehrsflussdaten zu reduzieren, und dann die maschinelle Lernmethode für gleichzeitiges Training einzuführen. Das Trainingsergebnis erhält durch den Wettkampf die optimale Klassifikatorgruppe. Schließlich ist das multioptimale, durch maschinelles Lernen integrierte Vorhersageverfahren darauf ausgelegt, den Verkehrsfluss vorherzusagen. Am Beispiel des typischen geschäftigen Sektors in China wird die vorgeschlagene Vorhersagemethode verifiziert. Die Forschungsergebnisse zeigen, dass die Vorhersageergebnisse besser sind als bei der traditionellen Methode des maschinellen Lernens mit Einzelzeitreihen, und die Stabilität der Vorhersageergebnisse ist gut, was die Dynamik und Unsicherheit des kurzfristigen Verkehrsflusses zwischen Sektoren in jedem Luftraum vollständig widerspiegeln kann. entsprechend der tatsächlichen Situation des Luftverkehrs.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-19086-6_47 55b4d0ad8d46a7ba7fbe0b1de6d6591f;de;;;7.4.;;;Verwenden von Term-Clustering und überwachter Term-Affinitätskonstruktion zur Verbesserung der Textklassifizierung Das Ähnlichkeitsmaß ist ein entscheidender Schritt bei vielen Problemen des maschinellen Lernens. Die traditionelle Kosinusähnlichkeit leidet unter ihrer Unfähigkeit, die semantische Beziehung von Begriffen darzustellen. Dieses Papier untersucht das Kernel-basierte Ähnlichkeitsmaß mithilfe von Term-Clustering. Eine Affinitätsmatrix von Begriffen wird durch das gemeinsame Auftreten der Begriffe sowohl auf unüberwachte als auch auf überwachte Weise konstruiert. Ein normalisierter Schnitt wird verwendet, um die Clusterbildung durchzuführen, um die verrauschten Kanten abzuschneiden. Der Diffusionskernel wird verwendet, um die kernelähnliche Ähnlichkeit der Terme in demselben Cluster zu messen. Experimente zeigen, dass unsere Methoden zu zufriedenstellenden Ergebnissen führen können, selbst wenn der Trainingssatz klein ist.;-;-;-;https://link.springer.com/chapter/10.1007/11430919_95 1b716295c4c32610455d114f1b9e581f;de;;;7.4.;;;Ereignisgesteuertes Framework für Echtzeitunternehmen Die vorangegangene Diskussion zur Realisierung von RTE für produzierende Unternehmen – auch unter Berücksichtigung von Management-, Ingenieur- und Informatik-Perspektiven – zeigt die dringende Notwendigkeit (i) vertikaler Integration verschiedener Unternehmensebenen (dh vom Shopfloor bis zum Top Floor) und (ii ) Realisierung mehrerer Regelkreise zwischen diesen Unternehmensebenen. Ziel der vorgestellten Forschungsarbeiten ist daher die Entwicklung eines IT-Frameworks zur Echtzeitüberwachung und -steuerung von Fertigungsprozessen. Dabei fließen bisherige Errungenschaften aus Management-, Ingenieur- und Informatik-Communities ein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-03750-5_4 1f3d2b5b00b5a2db8626043991ccf4b8;de;;;7.4.;;;Design und Implementierung einer intelligenten Informationsinfrastruktur Der Mangel an nahtlosem Datenaustausch und effizienter Datenanalyse verhindert die Bildung einer effektiven Informationsinfrastruktur, die als Plattform für den Datenaustausch über heterogene Datenbanksysteme hinweg dient. Die Informationsinfrastruktur hat sich zu einer neuen Plattform entwickelt, die es Geschäftspartnern, Kunden und Mitarbeitern von Unternehmen ermöglicht, von verteilten Standorten auf der ganzen Welt auf Unternehmensdaten zuzugreifen und diese auszutauschen. Im Allgemeinen ist die Informationsinfrastruktur ein browserbasiertes Gateway, das es Benutzern ermöglicht, Daten einfach über das Internet zu sammeln, auszutauschen und zu verbreiten. Dieses Papier schlägt den Entwurf und die Implementierung einer Informationsinfrastruktur vor, die den aufkommenden offenen Standard eXtensible Markup Language (XML) umfasst, zusammen mit einer intelligenten Data-Mining-Technik, die neuronale Netze und den Online-Analyseprozess (OLAP) und regelbasierte Argumentationsansätze zur Unterstützung kombiniert Wissensentdeckung. Um die Machbarkeit dieses Ansatzes zu validieren, wird ein Prototyp der Informationsinfrastruktur entwickelt und in einem Unternehmen getestet, wobei dieses Fallbeispiel in diesem Papier beschrieben wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24581-0_90 ccaa7285ee1e601a26ca48c4218dd079;de;;;7.4.;;;Vervollständigung eines spärlichen und getrennten Protein-Protein-Netzwerks durch Deep Learning Die Vorhersage der Protein-Protein-Interaktion (PPI) bleibt eine zentrale Aufgabe der Systembiologie, um ein besseres und ganzheitliches Verständnis zellulärer und intrazellulärer Prozesse zu erreichen. In letzter Zeit hat sich eine zunehmende Anzahl von Berechnungsmethoden von der paarweisen Vorhersage zur Vorhersage auf Netzwerkebene verlagert. Viele der existierenden Verfahren auf Netzwerkebene sagen PPIs unter der Annahme voraus, dass das Trainingsnetzwerk verbunden werden sollte. Diese Annahme wirkt sich jedoch stark auf die Vorhersageleistung aus und schränkt den Anwendungsbereich ein, da die aktuellen goldenen Standard-PPI-Netzwerke normalerweise sehr spärlich und unverbunden sind. Daher bleibt die effektive Vorhersage von PPIs auf der Grundlage eines spärlichen und getrennten Trainingsnetzwerks eine Herausforderung.;-;-;-;https://link.springer.com/article/10.1186/s12859-018-2112-7 e3244900a6d18c598d93dff779552533;de;;;7.4.;;;Lernen, wenn es viele negative Beispiele gibt Bestehende Konzeptlernsysteme können scheitern, wenn die negativen Beispiele die positiven Beispiele stark überwiegen. Das Papier diskutiert ein wesentliches Problem, das durch unausgewogene Trainingssätze verursacht wird, und stellt einen Lernalgorithmus vor, der dieses Problem angeht. Die Experimente (mit synthetischen und realen Daten) konzentrieren sich auf 2-Klassen-Probleme mit Beispielen, die mit binären und kontinuierlichen Attributen beschrieben werden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-62858-4_79 638bb466a6054cf5d08da4ee8dc58c70;de;;;7.4.;;;Eine Anomalieerkennungsmethode für Raumfahrzeuge mit Relevanzvektorlernen Dieses Papier schlägt ein neuartiges Anomalieerkennungssystem für Raumfahrzeuge vor, das auf Data-Mining-Techniken basiert. Es konstruiert ein nichtlineares probabilistisches Modell bzgl. Verhalten eines Raumfahrzeugs durch Anwendung der;-;-;-;https://link.springer.com/chapter/10.1007/11430919_92 5af4973216ef3c2ddd1a0db7b50d1c5e;de;;;7.4.;;;Datensatzverknüpfungsmethoden für das Data Mining mit mehreren Datenbanken In diesem Kapitel werden Techniken zur Datensatzverknüpfung erläutert, die nützlich sind, um Datensätze in zwei verschiedenen Datendateien zu verknüpfen, die derselben Person entsprechen. Sowohl wahrscheinlichkeitsbasiert als auch entfernungsbasiert werden dargestellt und verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36519-8_7 8e456a819ff5075e408a8eb2972dd9dc;de;;;7.4.;;;Flow-based Botnet Traffic Detection mit Machine Learning Ein Botnet ist ein Netzwerk von infizierten Bots, das unabhängig unter der Kontrolle eines Botmasters arbeitet, der Befehle an Bots über einen Command-and-Control-Server ausgibt. Im Laufe der Zeit wurden Botnet-Architekturen weiterentwickelt, um der Erkennung und Unterbrechung zu entgehen. Botnets werden von cyberkriminellen Angreifern verwendet, um unerwünschte Aktivitäten für persönliche Vorteile wie DDOS-Angriffe, Diebstahl bankbezogener Informationen wie ID, Passwort und andere schädliche Aktivitäten über das Netzwerk durchzuführen, was einen großen Verlust für die Gesellschaft bedeuten kann. In diesem Whitepaper wird eine überwachte maschinelle Lernklassifizierung verwendet, um den flussbasierten Botnet-Datenverkehr mithilfe von Netzwerkflussdatensätzen zu klassifizieren. Das vorgeschlagene Modell ist in der Lage, Botnet-Traffic mit einer Genauigkeit von 99,94% unter Verwendung des J48-Entscheidungsbaum-Machine-Learning-Algorithmus vom normalen Verkehr zu unterscheiden. Das Ergebnis des vorgeschlagenen Algorithmus ist effizient in einem Echtzeitszenario zu implementieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30577-2_36 0d72212bc3cbab79d375c6082d43dcc6;de;;;7.4.;;;Induktion in Multi-Label-Textklassifikationsdomänen Die automatisierte Klassifizierung von Textdokumenten hat zwei unterschiedliche Aspekte. Erstens kann jedes Trainings- oder Testbeispiel mit mehr als zwei Klassen gleichzeitig gekennzeichnet werden – dies hat schwerwiegende Konsequenzen nicht nur für die Induktionsalgorithmen, sondern auch für die Bewertung der Leistung des induzierten Klassifikators. Zweitens werden die Beispiele normalerweise durch sehr viele Attribute beschrieben, was die Einführung von Hunderttausenden von Trainingsbeispielen unerschwinglich macht. Beide Probleme wurden in der neueren Literatur zum maschinellen Lernen angesprochen, aber das Verhalten bestehender Lösungen in realen Bereichen ist noch lange nicht zufriedenstellend. Hier beschreiben wir unsere eigene Technik und berichten von Experimenten mit einer konkreten Textdatenbank.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05179-1_11 51f1b9d4804f701d543bfe6c66191226;de;;;7.4.;;;Datenschutz: Von der Technik zur Wirtschaft In diesem Papier versuchen wir, zwei verschiedene Ansätze zum Datenschutz in Beziehung zu setzen – den technologischen Ansatz, der in den aktuellen Arbeiten zum Datenschutz beim Data Mining verkörpert wird, und den Ansatz der wirtschaftlichen Regulierung. Unsere Hauptthese ist, dass keiner dieser beiden Ansätze allein in der Lage sein wird, die wichtigen und wachsenden Datenschutzprobleme zu lösen. Wir plädieren für ein hybrides System, das beide Ansätze komplementär kombiniert. Wir präsentieren einen Blick auf Privatsphäre im Kontext einer akzeptierten Taxonomie von Wirtschaftsgütern und stellen die Frage: Wenn Privatsphäre getauscht und gehandelt wird, was für ein Gut ist sie dann? Wir zeigen auch, dass im Lichte einer etablierten Wirtschaftswachstumstheorie die Einbeziehung der Privatsphäre in den Wachstumsprozess zu einem stetigen Wachstum führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05179-1_3 a8c0c2dee51501cd592cec90ede2b13f;de;;;7.4.;;;Auswirkungen der COVID-19-Pandemie auf die Ernährungsvorhersage und die Patientengesundheit basierend auf der Unterstützungsvektormaschine In letzter Zeit hat die COVID-19-Pandemie einen effizienten Einfluss auf alle Dinge auf der ganzen Welt. Die Schätzung von Lebensmitteln oder der Ernährung hat in der jüngsten Pandemie große Aufmerksamkeit erregt. Dieses Papier verwendet die Support Vector Machine (SVM), um die Auswirkungen der COVID-19-Pandemie auf eine Ernährung vorherzusagen und die Anzahl der Personen, die aufgrund dieser Pandemie sterben, weiter zu prognostizieren. Diese Arbeit basiert auf dem verfügbaren Datensatz, der Fettmenge, Energieaufnahme (kcal), Nahrungszufuhrmenge (kg) und Protein für verschiedene Lebensmittelkategorien enthält. Darüber hinaus sind wir besorgt über tierische Produkte, Getreide ohne Bier, Fettleibigkeit, einschließlich pflanzlicher Produkte, die die allgemeine Gesundheit des Menschen während der Pandemie beeinträchtigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-69717-4_7 8d83d44536c3c0c4eb3fc680d86a8b48;de;;;7.4.;;;Die Ethik der Algorithmen: Schlüsselprobleme und Lösungen Die Forschung zur Ethik von Algorithmen hat in den letzten zehn Jahren stark zugenommen. Neben der exponentiellen Entwicklung und Anwendung von maschinellen Lernalgorithmen wurden neue ethische Probleme und Lösungen im Zusammenhang mit ihrer allgegenwärtigen Nutzung in der Gesellschaft vorgeschlagen. Dieser Artikel baut auf einem 2016 veröffentlichten Review zur Ethik von Algorithmen auf (Mittelstadt et al. Big Data Soc 3(2), 2016). Die Ziele bestehen darin, zur Debatte über die Identifizierung und Analyse der ethischen Implikationen von Algorithmen beizutragen, eine aktualisierte Analyse epistemischer und normativer Bedenken bereitzustellen und umsetzbare Leitlinien für die Steuerung des Designs, der Entwicklung und des Einsatzes von Algorithmen anzubieten.;-;-;-;https://link.springer.com/article/10.1007/s00146-021-01154-8 0f8c18fc989ad4f865a10c40432c2870;de;;;7.4.;;;KI-Finanzierung und Blockchain kombinieren Medical Finance Wie wir alle wissen, ist Künstliche Intelligenz längst nicht nur auf den Bereich Wissenschaft und Technik beschränkt, sondern auch auf verschiedene Funktionsabteilungen vieler traditioneller Branchen und Unternehmen. In den letzten Jahren hat sich mit dem Aufkommen der maschinellen Lern- und Deep-Learning-Technologie die Anwendung von künstlicher Intelligenz in verschiedenen Branchen beschleunigt, und die Finanzindustrie ist keine Ausnahme. Zufälligerweise löst die Welt auch eine Innovationswelle auf der Grundlage der Blockchain-Technologie aus, die einen wissenschaftlichen Vertrauensmechanismus aufbauen und einen Konsens zwischen mehreren Knoten erreichen kann, das Geschäftsmodell in verschiedenen Bereichen stark verändert und auch eine neue Runde der industriellen Transformation auslösen wird und technologische Innovation auf der Grundlage der Internettechnologie hat die medizinische Finanzierung natürlich innovativere Modelle, und das traditionelle medizinische Finanzdienstleistungsmodell wird von diesen innovativen Modellen ernsthaft beeinträchtigt. Dieses Papier analysiert die Verschmelzung von Finanzintelligenz und Blockchain-Technologie und analysiert und prognostiziert auch die zukünftige Entwicklung der finanziellen Gesundheitsversorgung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5959-4_108 70ffe526d85c52b816df3fc1acdec1bf;de;;;7.4.;;;Schlussfolgerungen, zukünftige Richtungen und Ausblick Dieses Buch hat dem Leser eine gründliche Beschreibung des Bereichs des Reinforcement Learning (RL) gegeben. In diesem letzten Kapitel werden wir zuerst diskutieren, was mit diesem Buch erreicht wurde, gefolgt von einer Beschreibung der Themen, die in diesem Buch ausgelassen wurden, hauptsächlich weil sie außerhalb des Hauptbereichs von RL liegen oder klein sind (möglicherweise neuartig und aufstrebende) Unterfelder innerhalb von RL. Nach einem Rückblick auf das, was in RL und in diesem Buch getan wurde, wird ein Schritt in die zukünftige Entwicklung des Gebiets getan, und wir werden mit den Meinungen einiger Autoren schließen, was ihrer Meinung nach die wichtigsten Forschungsbereiche werden werden im RL.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27645-3_19 fc7f1436f8e7efa06e7c092441200d80;de;;;7.4.;;;Größere Restbestände, weniger Aufwand: Active Document Scheduling für latente Dirichlet-Zuordnung In letzter Zeit gab es erhebliche Fortschritte bei der schnellen Inferenz für die latente Dirichlet-Allokation (LDA). Insbesondere die stochastische Optimierung der Variational Bayes (VB) Zielfunktion mit einem natürlichen Gradientenschritt hat sich als konvergierend erwiesen und kann massive Dokumentensammlungen verarbeiten. Um das Rauschen bei der Gradientenschätzung zu reduzieren, werden mehrere zufällig zufällig ausgewählte Dokumente berücksichtigt. Obwohl allgemein anerkannt ist, dass die Planung von Dokumenten bei der stochastischen Optimierung erhebliche Konsequenzen haben kann, bleibt dieses Problem weitgehend unerforscht. In dieser Arbeit beschäftigen wir uns mit diesem Thema. Konkret schlagen wir Residual-LDA vor, einen neuartigen, einfach zu implementierenden LDA-Ansatz, der Dokumente auf informierte Weise plant. Intuitiv wählt Rest-LDA in jeder Iteration aktiv Dokumente aus, die einen unverhältnismäßig großen Einfluss auf das aktuelle Residuum ausüben, um die nächste Aktualisierung zu berechnen. An mehreren realen Datensätzen, darunter 3M-Artikel aus Wikipedia, demonstrieren wir, dass Rest-LDA umfangreiche Dokumentensammlungen problemlos analysieren und Themenmodelle finden kann, die genauso gut oder besser sind als die mit Batch-VB und zufällig geplantem VB und deutlich schneller.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23808-6_31 1beb7a98598b730fb7b12a120f4ebddc;de;;;7.4.;;;5G in realen Industrieszenarien In diesem Kapitel werden 5G + Industrie 4.0-Szenarien aus der Perspektive konkreter Anwendungen beschrieben, zum Beispiel die umfassende Wahrnehmung des Produktionsprozesses, die Frühwarnung des Anlagenzustands sowie die Gewährleistung und Verbesserung der Produktqualität.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6732-2_5 ff9efddf5cb8e24deaa187a428e18542;de;;;7.4.;;;Testkostensensitive Klassifizierung von Daten mit fehlenden Werten in der begrenzten Zeit Es wurde viel Arbeit [1] [2] investiert, um mit dem testkostensensitiven Lernen an Daten mit fehlenden Werten umzugehen. Die meisten der vorherigen Arbeiten konzentrieren sich nur auf die Kosten, während sie die Bedeutung der Zeit ignorieren. In diesem Papier beschäftigen wir uns mit der Auswahl der unbekannten Attribute, die in der begrenzten Zeit getestet werden sollen, um die Gesamtkosten zu minimieren. Wir schlagen eine Multi-Batch-Strategie vor, die auf den testkostensensitiven Naive Bayes-Klassifikator angewendet wird, und evaluieren seine Leistung an mehreren Datensätzen. Wir erstellen Diagramme aus Attributen und enthalten die Vertices-Kosten und die Set-Kosten. Dann verwenden wir einen randomisierten Algorithmus, um die unbekannten Attribute in jedem Testzyklus auszuwählen. Nach den Ergebnissen der Experimente übertreffen unsere Algorithmen die bisherigen Algorithmen deutlich [3][4].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15387-7_54 9806d993e6218ee3c94f3690d0efc721;de;;;7.4.;;;Widerstandsschaltgeräte im Nanomaßstab für Speicher- und Computeranwendungen Mit der Verlangsamung des Mooreschen Gesetzes und grundlegenden Einschränkungen aufgrund des von-Neumann-Engpasses werden kontinuierliche Verbesserungen der Rechenhardwareleistung immer schwieriger. Resistive Switching (RS)-Bauelemente werden aufgrund ihrer schnellen Schaltgeschwindigkeit, ihrer hervorragenden Lebensdauer und Retention sowie ihrer Skalierungs- und dreidimensionalen (3D) Stapelfähigkeit umfassend als vielversprechende Kandidaten für Speicher- und Computeranwendungen der nächsten Generation untersucht. Insbesondere bieten RS-Geräte das Potenzial, die Funktionen und Strukturen von Synapsen und Neuronen nativ zu emulieren, sodass sie neuronale Netze (NNs) und andere In-Memory-Computing-Systeme für datenintensive Anwendungen wie maschinelle Lernaufgaben effizient implementieren können. In diesem Review werden wir die Mechanismen von RS-Effekten untersuchen und die jüngsten Fortschritte bei der Anwendung von RS-Geräten für Speicher, Deep-Learning-Beschleuniger und genauere, vom Gehirn inspirierte Rechenaufgaben diskutieren. Auch Herausforderungen und mögliche Lösungen auf Geräte-, Algorithmus- und Systemebene werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s12274-020-2616-0 516f3495dddea33ad9de436c8431a35d;de;;;7.4.;;;Ein Klassifikator mit großem Randbereich und zusätzlichen Funktionen Wir betrachten das Problem des Lernens von Klassifikatoren aus Proben, die zusätzliche Merkmale aufweisen, die aufgrund von Rauschen oder Messfehlern fehlen. Der übliche Ansatz zum Umgang mit fehlenden Merkmalen in diskriminativen Modellen besteht darin, zuerst ihre unbekannten Werte zu vervollständigen, und dann wird ein Standardklassifikationsalgorithmus für die vollständigen Daten verwendet. In diesem Beitrag wird ein Algorithmus vorgeschlagen, der darauf abzielt, den Spielraum jedes Samples in seinem eigenen relevanten Unterraum zu maximieren. Wir zeigen, wie unvollständige Daten direkt klassifiziert werden können, ohne fehlende Funktionen in einem Lernframework mit großen Gewinnspannen zu ergänzen. Darüber hinaus haben wir gemäß der Theorie der optimalen Kernelfunktion eine optimale Kernelfunktion vorgeschlagen, die eine konvexe Zusammensetzung eines Satzes von linearen Kernelfunktionen ist, um die Ähnlichkeit zwischen zusätzlichen Merkmalen von jeweils zwei Stichproben zu messen. Basierend auf der geometrischen Interpretation des Spielraums formulieren wir eine Zielfunktion, um den Spielraum jeder Probe in ihrem eigenen relevanten Unterraum zu maximieren. In dieser Formulierung verwenden wir die aus vorhandenen Merkmalen trainierten Strukturparameter und optimieren die nur aus zusätzlichen Merkmalen trainierten Strukturparameter. Es wird ein zweistufiges iteratives Verfahren zum Lösen der Zielfunktion vorgeschlagen. Durch die Vermeidung der Vorverarbeitungsphase, in der die Daten vervollständigt werden, könnte unser Algorithmus erhebliche Recheneinsparungen bieten. Wir demonstrieren unsere Ergebnisse an einer Vielzahl von Standard-Benchmarks von UCI und die Ergebnisse zeigen, dass unser Algorithmus im Vergleich zu den bestehenden Algorithmen eine bessere oder vergleichbare Klassifizierungsgenauigkeit erreichen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03070-3_7 787fb5b45ef6f40b01d8acf14a31d7d7;de;;;7.4.;;;Rolle intelligenter Techniken bei der Verarbeitung natürlicher Sprache: Eine empirische Studie Intelligent Computing mit Natural Language Processing (NLP) wächst heute weltweit rasant. Dieser Artikel beschreibt den Einsatz intelligenter Computerstrategien im Bereich NLP. Verschiedene intelligente Techniken wie Künstliche Neuronale Netze, Support Vector Machine, Conditional Random Field, Hidden Markov Assumption und Bayes' Rule sowie einige stochastische Prozesse werden in Teilgebieten des NLP wie Machine Translation, Sentiment Analysis, Information Retrieval, Information Extraction verwendet , Question Answering und Named Entity Recognition werden verwendet, um ein zuverlässiges und effizientes System mit hoher Genauigkeit zu entwickeln. In diesem Anwendungsbereich werden sowohl Trainings- als auch Testdatensätze mit autorisiertem Korpus benötigt, um das vorgeschlagene Modell zu testen. Die meisten der exakten experimentellen Werte werden aufgezeichnet, um die Echtzeit-Situation für weitere Studien zu handhaben.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5971-6_52 66d59bb7feb337faa6f11d262e703c20;de;;;7.4.;;;Ein einfaches künstliches Immunsystem (SAIS) zur Generierung von Klassifikatorsystemen Gegenwärtige Klassifikatoren des künstlichen Immunsystems (AIS) haben zwei große Probleme: (1) ihre Populationen von B-Zellen können riesige Ausmaße annehmen und (2) die Optimierung einer B-Zelle (Teil des Klassifikators) nach der anderen garantiert nicht unbedingt, dass der B-Zellen-Pool (der gesamte Klassifikator) wird optimiert. In diesem Papier beschreiben wir das Design eines neuen AIS-Algorithmus und Klassifikatorsystems namens Simple AIS (SAIS). Es unterscheidet sich von herkömmlichen AIS-Klassifikatoren darin, dass nur eine B-Zelle anstelle eines B-Zellen-Pools benötigt wird, um den Klassifikator darzustellen. Dieser Ansatz gewährleistet eine globale Optimierung des gesamten Systems und außerdem ist kein Populationskontrollmechanismus erforderlich. Wir haben unseren Klassifikator an vier Benchmark-Datensätzen mit unterschiedlichen Klassifizierungstechniken getestet und festgestellt, dass er im Vergleich zu anderen Klassifikatoren sehr wettbewerbsfähig ist.;-;-;-;https://link.springer.com/chapter/10.1007/11941439_19 58adedb39631f640c618e812c9f66a53;de;;;7.4.;;;Schnelle blinde Dekonvolution mit einfachem maschinellem Lernen Wir zeigen, dass mit einfachem maschinellem Lernen sehr schnelles Entschärfen erreicht werden kann. Der schwierigste Schritt beim Deblurring ist die Schätzung des Unschärfekernels. Wir zeigen, dass wir den Unschärfekernel abschätzen können, indem wir das Objekt erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9441-7_99 64b59af791727980a1c5286a52642b9a;de;;;7.4.;;;Wissensentdeckung durch maschinelles Lernen für Forscher im Bereich neurodegenerativer Erkrankungen Der stetig wachsende Umfang der biomedizinischen Literatur macht eine genauere Informationsbeschaffung und die Erschließung impliziten Wissens in der wissenschaftlichen Literatur erforderlich. In diesem Kapitel werden zunächst drei neue Varianten der Expectation-Maximization(EM)-Methode zur semiüberwachten Dokumentenklassifikation (Machine Learning 39:103–134, 2000) vorgestellt, um die Metasuche in der biomedizinischen Literatur zu verfeinern. Die Abrufleistung einer Multi-Mixture-Pro-Klasse-EM-Variante mit Agglomerative Information Bottleneck Clustering (Slonim und Tishby (1999) Agglomerative information Bottleneck. In;-;-;-;https://link.springer.com/protocol/10.1007/978-1-59745-524-4_9 879ea659aec7af95a43fcb06054e0e9f;de;;;7.4.;;;Identifizierung verschiedener Regionen in Composite Strain-Encoded (C-SENC) Bildern mit maschinellen Lerntechniken Die Identifizierung unterschiedlicher Herzgewebe ist wichtig für die therapeutische Entscheidungsfindung bei Patienten mit Myokardinfarkt (MI), was Ärzten ein besseres Instrument zur klinischen Entscheidungsfindung bietet. Composite Strain Encoding (C-SENC) ist eine MRT-Erfassungstechnik, die verwendet wird, um Bilder der Lebensfähigkeit und Kontraktilität des Herzgewebes zu erfassen. Es kombiniert die Verwendung von Blackblood Delayed-Enhancement (DE)-Bildgebung, um das infrakte (tote) Gewebe im Herzmuskel zu identifizieren, und die Fähigkeit, Myokardverformungen durch das Strain-Encoding (SENC)-Bildgebungsverfahren darzustellen. In dieser Arbeit werden verschiedene Techniken des maschinellen Lernens angewendet, um die verschiedenen Herzgewebe und die Hintergrundregionen in den C-SENC-Bildern zu identifizieren. Die vorgeschlagenen Methoden werden anhand numerischer Simulationen der C-SENC-Bilder des Herzens und realer Bilder von Patienten getestet. Die Ergebnisse zeigen, dass die angewandten Techniken die verschiedenen Bildkomponenten mit hoher Genauigkeit identifizieren können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12159-3_21 e593e7998e045fd42af7d795f0f07a05;de;;;7.4.;;;Verstärkungslernen versus konventionelle Steuerung zur Steuerung einer Planaren Bi-Rotor-Plattform mit Heckanhängsel In diesem Papier untersuchen wir die konventionellen und lernbasierten Steuerungsansätze für Multi-Rotor-Plattformen mit und ohne das Vorhandensein eines aktivierten „Heck“-Anhängers. Ein umfassender experimenteller Vergleich zwischen den bewährten regelungstheoretischen Ansätzen und neueren lernbasierten Ansätzen ist einer der Beiträge. Darüber hinaus wird ein betätigtes Schwanzanhängsel als Abweichung von der typischen Multi-Rotor-Morphologie angesehen, was das Steuerungsproblem verkompliziert, aber einige nützliche Anwendungen verspricht. Unsere Studie untersucht als weiteren Beitrag auch die Auswirkungen eines solchen angesteuerten Hecks auf die gesamte Positionsregelung sowohl für den konventionellen als auch für den lernbasierten Regler. Für den konventionellen Steuerungsteil haben wir eine Multi-Loop-Architektur verwendet, bei der die innere Schleife die Lage regelt, während die äußere Schleife die Position der Plattform steuert. Für den lernenden Controller wird eine mehrschichtige neuronale Netzwerkarchitektur verwendet, um einen nichtlinearen State-Feedback-Controller zu lernen. Um die Lern- und Generalisierungsleistung dieses Controllers zu verbessern, haben wir einen curricularen Lernansatz gewählt, der den Schwierigkeitsgrad der Trainingsbeispiele schrittweise erhöht. Für die Experimente wird eine planare Doppelrotorplattform in einer 2D-Simulationsumgebung modelliert. Das planare Modell vermeidet mathematische Komplikationen, während die Hauptattribute des Problems erhalten bleiben, wodurch die Ergebnisse nützlicher werden. Wir beobachten, dass beide Reglertypen ein vernünftiges Regelverhalten erreichen und die Lageregelungsaufgabe lösen können. Keines zeigt jedoch einen klaren Vorteil gegenüber dem anderen. Die lernbasierte Steuerung ist nicht intuitiv und das System leidet unter langen Einarbeitungszeiten. Die Architektur des Multi-Loop-Controllers ist handgefertigt (nicht erforderlich für den lernbasierten Controller), bietet jedoch ein garantiert stabiles Verhalten.;-;-;-;https://link.springer.com/article/10.1007/s10846-021-01412-3 fc56cf9b660a01a2f8273f833baa4b17;de;;;7.4.;;;Über den Einsatz von Process Mining und Machine Learning zur Unterstützung der Entscheidungsfindung im Systemdesign Die Forschung zu Process-Mining- und Machine-Learning-Techniken hat in letzter Zeit von Produktentwicklungs- und Management-Communitys erhebliche Aufmerksamkeit erhalten. Tatsächlich ermöglichen diese Techniken sowohl eine automatische Prozess- als auch Aktivitätserkennung und sind somit Dienste mit hohem Mehrwert, die helfen, Wissen wiederzuverwenden, um die Entscheidungsfindung zu unterstützen. Dieses Papier schlägt ein zweischichtiges Framework vor, das darauf abzielt, die wichtigsten Prozessmuster zu identifizieren, die je nach Designkontext ausgeführt werden sollen. Gleichzeitig schlägt es die wichtigsten Parameter für jede Aktivität des betrachteten Prozessmusters vor. Das Framework wird auf ein konkretes Designbeispiel angewendet und teilweise implementiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-54660-5_6 dc4f61d0b08f5ccffca5fcc7ce3e4d30;de;;;7.4.;;;Texterkennung zur Objektidentifikation in der Industrie Im Einklang mit der 4. industriellen Revolution (Industrie 4.0) sind die Mechatronik und verwandte Bereiche von grundlegender Bedeutung, um die Entwicklungen der Digitalisierung der Industrie voranzutreiben. Es darf jedoch nicht vergessen werden, dass die künstliche Intelligenz (KI) bei der Entwicklung autonomer und intelligenter Systeme unter Einbeziehung der Fortschritte in mechatronischen Systemen einen großen Vorrang hat. In verschiedenen Branchen ist es üblich, Produkte oder Objekte für verschiedene Zwecke wie Zählung, Qualitätskontrolle, Auswahl von Objekten usw. zu identifizieren und zu erkennen. Aus diesen Gründen wird die Mustererkennung zunehmend in Systemen im Shopfloor eingesetzt, meist implementiert in Computer Vision Systemen mit Bildverarbeitung in Echtzeit. Diese Arbeit konzentriert sich auf die automatische Erkennung und Texterkennung in unstrukturierten Bildern für den Einsatz in mechatronischen Shopfloor-Systemen mit Vision-Systemen, um Muster in Produkten zu erkennen und zu erkennen. Unstrukturierte Bilder sind Bilder, die kein vordefiniertes Bildmodell haben oder nicht auf vordefinierte Weise organisiert sind. Das heißt, es gibt kein vordefiniertes Kalibrierungsmodell, das System muss die Textmuster selbst erkennen und lernen, es zu erkennen. Die Techniken der Zeichenerkennung, auch als OCR (Optical Character Reader) bekannt, sind in der Branche nicht neu, jedoch ermöglicht die Verwendung von Algorithmen des maschinellen Lernens zusammen mit den bestehenden Techniken der OCR, den Systemen eine größere Intelligenz in der Mustererkennung zu verleihen. Die in der gesamten Arbeit erzielten Ergebnisse zeigen, dass es möglich ist, Text in Objekten basierend auf unstrukturierten Bildern mit hoher Genauigkeit zu identifizieren und zu erkennen und dass diese Algorithmen in Echtzeitanwendungen verwendet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-63091-5_15 d22c05e1a1068234ae4d0bf1c0f91957;de;;;7.4.;;;Auf dem Weg zu saubereren Umgebungen durch automatisierte Müllerkennung in Bildern Der Umweltschutz wird mehr denn je zu einem ernstzunehmenden Anliegen aller Regierungs-, Nichtregierungs- und Industrieorganisationen. Das Problem von Littering und Müll ist gravierend, insbesondere in Entwicklungsländern. Das Problem der Vermüllung besteht darin, dass sie einen verstärkenden Effekt hat, und wenn der Müll nicht sofort gemeldet und gereinigt wird, neigt er dazu, sich zu vermehren und zu einem noch größeren Problem zu werden. Um das Bewusstsein für dieses Problem zu schärfen und eine zukünftige automatisierte Lösung zu ermöglichen, schlagen wir vor, ein Müllerkennungssystem zur Erkennung und Segmentierung von Müll in Bildern zu entwickeln. Aus diesem Grund verwenden wir einen tiefen semantischen Segmentierungsansatz, um ein Garbage-Segmentierungsmodell zu trainieren. Aufgrund des kleinen Datensatzes für die Aufgabe verwenden wir Transferlernen eines vortrainierten Modells, das an dieses spezielle Problem angepasst ist. Für dieses spezielle Experiment entwickeln wir auch unseren eigenen Datensatz, um Segmentierungsmodelle zu erstellen. Im Allgemeinen liefern die Ansätze der tiefen semantischen Segmentierung in Kombination mit Transferlernen vielversprechende Ergebnisse. Sie zeigen großes Potenzial für die Entwicklung einer Müllerkennungsanwendung, die von öffentlichen Diensten und besorgten Bürgern verwendet werden kann, um Müllverschmutzungsprobleme in ihren Gemeinden zu melden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-62098-1_5 c84b56c694b7695a355e2ebe1527a09f;de;;;7.4.;;;Unterstützung des bestehenden Chatbot-Entwicklungs-Frameworks für arabische Sprache: Eine kurze Übersicht Es ist bekannt, dass die technologische Entwicklung viele Bereiche bei der Eröffnung neuer Kanäle unterstützt, um mit Benutzern und Website-Besuchern zu interagieren. Die Zukunft sind hochintelligente Anwendungen wie Chatbots, die in verschiedenen Bereichen, nicht nur im E-Commerce-, Gaming- oder Bildungssektor, einen Mehrwert für die Benutzererfahrung bieten. Die Hauptaufgabe dieser Chatbots besteht darin, menschliche Gespräche zu simulieren, um die Fragen der Benutzer zu beantworten und ihre Bedürfnisse mithilfe künstlicher intelligenter Algorithmen, natürlicher Sprachverarbeitungstechniken und Wissensdatenbanken zu erfüllen. In den letzten Jahren wurden verschiedene Chatbots eingesetzt, um verschiedene Ziele zu erreichen, um Unternehmen dabei zu helfen, ihren Umsatz und Gewinn zu steigern. Aufgrund der sich schnell ändernden Umgebung und der steigenden Nachfrage wurden Chatbot-Entwicklungsframeworks und -plattformen entwickelt, um Menschen ohne technischen Hintergrund dabei zu helfen, einfach und schnell einen Chatbot zu erstellen. In der arabischen Welt wurde diesem Bereich jedoch vergleichsweise weniger Aufmerksamkeit geschenkt, in dem Chatbot-Anwendungen aus verschiedenen Gründen, einschließlich der Komplexität der arabischen Sprache, noch im Anfangsstadium und unausgereift sind. Dieses Whitepaper präsentiert die Überprüfung einiger bestehender Chatbot-Entwicklungsframeworks und -plattformen sowie deren Unterstützung für die arabische Sprache und diskutiert ihr Unterstützungsniveau für den Entwickler beim Erstellen des arabischen Chatbots im Vergleich zur Unterstützung für andere Sprachen wie Englisch und Französisch.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-78753-4_3 cfe6fa94427d8d8bccb013ff486a0772;de;;;7.4.;;;Unterscheidungsmerkmale für die Klassifizierung von Textdokumenten Der Beutel-von-Wörter-Ansatz zur Darstellung von Textdokumenten führt typischerweise zu Vektoren in der Größenordnung von 5000–20.000 Komponenten als Darstellung von Dokumenten. Um verschiedene statistische Klassifikatoren effektiv nutzen zu können, kann es erforderlich sein, die Dimensionalität dieser Darstellung zu reduzieren. Wir weisen auf Mängel in der Klassendiskriminierung zweier populärer solcher Methoden hin, der Latent Semantic Indexing (LSI) und der sequentiellen Merkmalsauswahl nach einigen relevanten Kriterien. Als Abhilfe schlagen wir Feature-Transformationen basierend auf Linear Discriminant Analysis (LDA) vor. Da LDA erfordert, sowohl mit großen als auch mit Densematrices zu arbeiten, schlagen wir einen effizienten Zwischenschritt zur Dimensionsreduktion vor, der entweder eine Zufallstransformation oder LSI verwendet. Wir berichten über gute Klassifikationsergebnisse mit der kombinierten Merkmalstransformation einer Teilmenge der Reuters-21578-Datenbank. Eine drastische Reduzierung der Merkmalsvektor-Dimensionalität von 5000 auf 12 verbessert tatsächlich die Klassifikationsleistung.;-;-;-;https://link.springer.com/article/10.1007/s10044-003-0196-8 502457b78a5d9dcc7f65293c27f128ec;de;;;7.4.;;;Bidirektionale Langzeit-Kurzzeitgedächtnisnetzwerke und spärliche hierarchische Modellierung für skalierbares pädagogisches Erlernen von Tanzchoreografien In letzter Zeit wurden in der Literatur mehrere Lernspielplattformen für choreografisches Training vorgeschlagen. Ihre Haupteinschränkung besteht jedoch darin, dass sie keinen quantitativen Bewertungsrahmen einer darstellenden Choreografie im Vergleich zu einer Grundwahrheit bieten. In diesem Whitepaper gehen wir dieses Problem an, indem wir ein Machine-Learning-Framework vorschlagen, das Deep-Learning-Paradigmen nutzt. Insbesondere stellen wir ein langes Kurzzeitgedächtnis-Netzwerk vor, das die Hauptfähigkeit der Analyse von 3D-erfassten Skelettmerkmalsgelenken einer Tänzerin in vordefinierten choreografischen Positionen hat. Dieses Verfahren zur Posenidentifikation ist in der Lage, eine detaillierte (feine) Bewertung eines darstellenden Tanzes zu liefern. Darüber hinaus schlägt das Papier eine choreografische Zusammenfassungsarchitektur vor, die auf einer sparse modeling Representative Selection (SMRS) basiert, um die darstellende Choreografie durch eine Reihe von choreografischen Grundelementen abstrakt darzustellen. Wir haben den SMRS-Algorithmus so modifiziert, dass er Hierarchien von Schlüsselrepräsentanten extrahiert. Die choreografische Zusammenfassung bietet ein effizientes Werkzeug zur groben quantitativen Bewertung eines Tanzes. Darüber hinaus ermöglicht ein hierarchisches Darstellungsschema eine skalierbare Bewertung einer Choreographie. Die Serious-Game-Plattform unterstützt fortschrittliche Visualisierungs-Toolkits mit Labanotation, um die Aufführungssequenz in einer formalen Dokumentation zu liefern.;-;-;-;https://link.springer.com/article/10.1007/s00371-019-01741-3 875740694c6c0944ad46a30ceb8279bc;de;;;7.4.;;;Boosted Bayes'sche Netzwerkklassifizierer Die Verwendung von Bayesschen Netzen für Klassifikationsprobleme hat in letzter Zeit beträchtliche Aufmerksamkeit erfahren. Obwohl rechnerisch effizient, neigt das Standard-Lernverfahren mit maximaler Wahrscheinlichkeit dazu, aufgrund der Nichtübereinstimmung zwischen seinen Optimierungskriterien (Datenwahrscheinlichkeit) und dem tatsächlichen Ziel der Klassifizierung (Kennzeichnungsvorhersagegenauigkeit) suboptimal zu sein. Neuere Ansätze zur Optimierung der Klassifikationsleistung während des Parameter- oder Strukturlernens sind vielversprechend, aber es fehlen die günstigen Recheneigenschaften des Lernens mit maximaler Wahrscheinlichkeit. In diesem Beitrag stellen wir Boosted Bayesian Network Classifiers vor, ein Framework zur Kombination von diskriminativer Datengewichtung mit generativem Training von Zwischenmodellen. Wir zeigen, dass verstärkte Bayessche Netzwerkklassifikatoren die grundlegenden generativen Modelle isoliert umfassen, aber ihre Klassifikationsleistung verbessern, wenn die Modellstruktur nicht optimal ist. Wir zeigen auch, dass Strukturlernen bei der Konstruktion von Boosted-Bayes-Netzwerk-Klassifikatoren von Vorteil ist. Bei einer großen Suite von Benchmark-Datensätzen übertrifft dieser Ansatz generative grafische Modelle wie naive Bayes und TAN in der Klassifizierungsgenauigkeit. Boosted Bayesian Network Classifier haben eine vergleichbare oder bessere Leistung im Vergleich zu anderen diskriminativ trainierten grafischen Modellen, einschließlich ELR und BNC. Darüber hinaus erfordern geboostete Bayes-Netzwerke deutlich weniger Trainingszeit als die ELR- und BNC-Algorithmen.;-;-;-;https://link.springer.com/article/10.1007/s10994-008-5065-7 4a1534226daeef1d184befc6bf321292;de;;;7.4.;;;Entdeckung von ungefährem Wissen in medizinischen Datenbanken basierend auf einem groben Set-Modell Eines der wichtigsten Probleme bei Regelinduktionsverfahren besteht darin, dass extrahierte Regeln Informationen über die Entscheidungsprozesse von Experten nicht plausibel darstellen, was die Regelinterpretation durch Domänenexperten erschwert. Um dieses Problem zu lösen, werden die Merkmale des medizinischen Denkens diskutiert, positive und negative Regeln eingeführt, die die Regeln medizinischer Experten modellieren. Dann werden zur Induktion von positiven und negativen Regeln zwei Suchalgorithmen bereitgestellt. Die vorgeschlagene Regelinduktionsmethode wurde auf medizinischen Datenbanken evaluiert, deren experimentelle Ergebnisse zeigen, dass induzierte Regeln das Expertenwissen korrekt repräsentierten und mehrere interessante Muster entdeckt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-1791-1_11 55f9e2d96b7473e8932dcfca1cdf7320;de;;;7.4.;;;Auf dem Weg zur Implementierung eines Smartphone-basierten Selbsttests von COVID-19 unter Verwendung von KI Das neuartige Coronavirus COVID-19 hat sich in den meisten Teilen der Welt weit verbreitet und verursacht nach Angaben der Weltgesundheitsorganisation (WHO) eine Pandemie. Viele Mechanismen zur Erkennung der Coronavirus-Krankheit COVID-19 werden verwendet, wie die klinische Analyse von Thorax-CT-Bildern und Bluttestergebnissen. Mehrere Methoden können verwendet werden, um das Vorhandensein von Covid-19 zu erkennen, wie z. B. medizinische Erkennungskits. Allerdings erfordern solche Geräte enorme Kosten und es braucht Zeit, um sie zu installieren und zu verwenden. Darüber hinaus verbrauchen die negativ diagnostizierten Patienten viele der benötigten Ressourcen und den benötigten Platz in Krankenhäusern, die von anderen Patienten mit einem höheren Infektionsrisiko genutzt werden könnten. In diesem Papier wird ein neuer Rahmen vorgeschlagen, um COVID-19 mithilfe integrierter Smartphone-Sensoren zu erkennen. Der Vorschlag bietet eine kostengünstige Lösung, da die meisten Radiologen bereits Smartphones für verschiedene Alltagszwecke in der Hand haben. Nicht nur das, sondern auch normale Leute können das Framework auf ihren Smartphones für die Virenerkennung verwenden. Heutzutage besitzt fast jeder Haushalt mindestens ein Smartphone mit leistungsstarken Prozessoren und fortschrittlichen Sensoren. Durch die Kombination der von den verschiedenen Sensoren gesammelten Daten, wie Temperaturdaten, Husten- und Atemaufzeichnungen mit Fragebögen zum Hintergrund des Telefonbenutzers, können künstliche Intelligenz (KI) und fortschrittliche Signalverarbeitungstools die aufgezeichneten Daten analysieren, um eine brauchbare Diagnose zu erstellen der Covid-19-Infektion und damit den anhaltenden Druck auf das Gesundheitssystem (Krankenhäuser und so) verringern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6893-4_39 57ec8c8b1b167a3c8299334a96e3b8a0;de;;;7.4.;;;Nachwort: Daten, Wissen und E-Discovery Die Forschung auf dem Gebiet der künstlichen Intelligenz (KI) und des Rechts hat in einer Zeit, in der statistische, datengesteuerte Ansätze innerhalb der KI als Ganzes die Vorherrschaft erlangten, einen Schwerpunkt auf Wissensrepräsentation und formale Argumentation gelegt. Electronic Discovery ist ein juristisches Anwendungsgebiet mit erheblichem kommerziellem und wissenschaftlichem Interesse, in dem überzeugende Argumente für empirische und wissensbasierte Ansätze sprechen. Wir diskutieren die Fälle für beide Perspektiven sowie die Möglichkeiten für vorteilhafte Synergien.;-;-;-;https://link.springer.com/article/10.1007/s10506-010-9101-0 ff3158a824378cf9cffc59f39ef91c6d;de;;;7.4.;;;Data-Mining- und Big-Data-Computing-Plattform für die professionelle Identität Vorschulkinder sind nicht nur die wichtigen Reservetalente der Erzieherinnen, sondern auch in der kritischen Phase der Berufsidentitätsentwicklung und Berufsvorbereitung. Die berufliche Anerkennung ihrer Erzieherinnen und Erzieher wirkt sich zum einen direkt auf ihre Lernfreude und ihr Lernengagement aus, zum anderen wirkt sie sich auch auf die Entwicklung ihrer beruflichen Qualität und damit auf ihre Karriereplanung aus. Aufgrund der Unvollkommenheit des Marktzugangsmechanismus und des unterschiedlichen Bildungsniveaus der Vorschullehrer ist die Qualität der bestehenden Vorschullehrer ungleichmäßig. Die geringe Qualität, das niedrige Bildungsniveau und die geringe berufliche Identität von Vorschullehrern sind die Schlüsselfaktoren für das häufige Auftreten von Fällen von Kindesmissbrauch. Daher ist es notwendig, das professionelle Niveau, das Qualitätsniveau und die berufliche Identität von Vorschullehrern rechtzeitig zu verbessern, um die Wiederholung solcher Tragödien zu verhindern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-79200-8_144 c905a41ea2d26fb40a3a79ff9196f395;de;;;7.4.;;;Convolutional Neural Network Long Short-Term Memory (CNN + LSTM) für die histopathologische Klassifikation von Krebsbildern Deep-Learning-Algorithmen wie Convolutional Neural Networks (CNN) sind bei der Bilderkennung, Objekterkennung, Szenenerkennung und Gesichtserkennung beliebt. Im Vergleich zu herkömmlichen Methoden des maschinellen Lernens liefert das Convolutional Neural Network (CNN) effizientere Ergebnisse. Dies ist auf die Fähigkeiten des Convolutional Neural Network (CNN) beim Auffinden des starken Merkmals beim Trainieren des Bildes zurückzuführen. In diesem Experiment haben wir den Convolutional Neural Network (CNN)-Algorithmus mit dem beliebten Machine-Learning-Algorithmus Basic Artificial Neural Network (ANN) verglichen. Das Ergebnis zeigte eine gewisse Verbesserung bei der Verwendung von Convolutional Neural Network Long Short-Term Memory (CNN + LSTM) im Vergleich zum Multi-Layer-Perceptron (MLP). Die Leistung des Algorithmus wurde basierend auf der Qualitätsmetrik, die als Verlustrate und Klassifizierungsgenauigkeit bekannt ist, bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1366-4_19 e98ea46eb3a928cda82d884790d8efb8;de;;;7.4.;;;Zusammenfassung von Rechtstexten mit hoher Kohäsion und automatischer Komprimierungsrate Wir beschreiben eine Methode zur extraktiven Zusammenfassung von Gerichtsurteilen unter Verwendung unseres eigenen graphenbasierten Zusammenfassungsalgorithmus. Im Gegensatz zu den zusammenhängenden und ungerichteten Graphen früherer Arbeiten konstruieren wir für jedes Dokument gerichtete und getrennte Graphen (eine Menge zusammenhängender Graphen), wobei jeder verbundene Graph einen Cluster anzeigt, der ein Thema in einem Dokument teilt. Unsere Methode wählt automatisch die Anzahl der repräsentativen Sätze mit Kohärenz für die Zusammenfassung, und wir müssen nicht a priori die gewünschte Komprimierungsrate angeben. Wir schlagen auch unser eigenes Knoten-/Kantengewichtungsschema im Graphen vor. Darüber hinaus sind wir nicht auf teure handwerkliche sprachliche Features oder Ressourcen angewiesen. Unsere experimentellen Ergebnisse zeigen, dass unsere Methode bisherige Clustering-basierte Methoden übertrifft, einschließlich derer, die TF*IDF-basierte und schwerpunktbasierte Satzauswahl verwenden. Unsere experimentellen Ergebnisse zeigen auch, dass unsere Methode bisherige maschinelle Lernmethoden übertrifft, die eine Vielzahl linguistischer Merkmale ausnutzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39931-2_14 957192b5aa8891e621846745bbd1ac06;de;;;7.4.;;;Timing-of-Delivery-Vorhersagemodell zur Visualisierung von Liefertrends für Pos Laju Malaysia durch Techniken des maschinellen Lernens Der zunehmende Trend beim Online-Shopping fordert die kontinuierliche Verbesserung und Verbesserung des Benutzererlebnisses in vielerlei Hinsicht und die pünktliche Lieferung von Waren ist einer der Schlüsselbereiche. In diesem Artikel wird die Einführung von maschinellem Lernen bei der Vorhersage verspäteter Warenlieferungen durch den malaysischen nationalen Kurierdienst Poslaju untersucht. Das Vorhersagemodell ermöglicht auch die Visualisierung der Liefertrends für Poslaju Malaysia. Währenddessen werden in diesem Papier Datenextraktion, Transformation, experimenteller Aufbau und Leistungsvergleich verschiedener Methoden des maschinellen Lernens diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3441-2_7 de4e06a0cd92f1b07f296e9f5650715a;de;;;7.4.;;;Diskriminative Merkmalsanalyse und -auswahl für die Dokumentenklassifizierung Die Klassifizierung einer großen Dokumentensammlung beinhaltet den Umgang mit einem riesigen Merkmalsraum, in dem jedes einzelne Wort ein Merkmal ist. In einer solchen Umgebung ist die Klassifizierung eine kostspielige Aufgabe sowohl hinsichtlich der Laufzeit als auch der Rechenressourcen. Außerdem garantiert es keine optimalen Ergebnisse, da es wahrscheinlich zu einer Überanpassung führt, indem jedes Merkmal für die Klassifizierung berücksichtigt wird. In einem solchen Kontext ist die Merkmalsauswahl unvermeidlich. Diese Arbeit analysiert die Merkmalsauswahlmethoden, untersucht die Beziehungen zwischen ihnen und versucht, eine minimale Untermenge von Merkmalen zu finden, die für die Dokumentklassifizierung diskriminierend sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34475-6_44 a2f1b6a7a26b263c65746d1039f5b59c;de;;;7.4.;;;Etikettenkorrekturstrategie für die hierarchische Multi-Label-Klassifizierung Einer der beliebtesten Ansätze zur Lösung eines hierarchischen Klassifikationsproblems mit mehreren Labels besteht darin, eine Support Vector Machine (SVM) für jede Klasse in der Hierarchie unabhängig zu induzieren und sie von oben nach unten zu verwenden. Dieser Ansatz leidet immer unter Fehlerfortpflanzung und führt zu einer so schlechten Leistung von Klassifikatoren auf den unteren Ebenen, da während der Konstruktion keine Labelkorrelation berücksichtigt wird. In diesem Beitrag stellen wir eine neuartige Methode namens „Labelkorrektur“ vor, die die Labelkorrelation berücksichtigt und die Ergebnisse ungewöhnlicher Vorhersagemuster korrigiert. Im Experiment verbessert unsere Methode nicht nur die Vorhersagegenauigkeit von Daten in hierarchischen Domänen, sondern trägt auch zu einem so signifikanten Einfluss auf Daten in Multi-Label-Domänen bei.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08979-9_17 725aeeade815a8131cea35c3a3a99194;de;;;7.4.;;;Wertschöpfung aus Texterkennung Viele der Informationen im Zusammenhang mit Rechts-, Finanz-, Medizin- und Bildungsbereichen werden in elektronischen Dokumentenarchiven gespeichert und sind nur durch Volltextsuche abrufbar. Die Fähigkeit von Herausgebern, solche Dokumente durch traditionelle redaktionelle Prozesse zu verbessern, hat Schwierigkeiten, mit der Menge und Vielfalt der Textdaten Schritt zu halten, die derzeit in proprietären Sammlungen und im Web verfügbar sind. Glücklicherweise können Text-Mining-Tools, die die automatische Klassifizierung, Zusammenfassung und Verknüpfung von Dokumenten unterstützen, kostengünstig entwickelt und bereitgestellt werden. Das Ergebnis ist ein flexiblerer und dynamischerer Ansatz zur Generierung von Metadaten, der das Such- und Browsing-Verhalten von Informationskonsumenten besser unterstützt. In diesem Whitepaper wird die Anwendung von Text- und Data-Mining-Techniken auf rechtliche Informationen in einer Weise beschrieben, die leistungsstarke Dienste zur Erstellung von Berichten und Dokumentenempfehlungen ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72588-6_123 df6b963367c7c6a3907383c909a3b517;de;;;7.4.;;;Eine stimmungsbasierte Zusammenfassung von Hotelbewertungen mit Techniken des maschinellen Lernens Mit dem Aufkommen von Social Media gibt es eine Fülle von Daten, sodass Analysen zuverlässig entworfen werden können, um letztendlich wertvolle Informationen zu einem bestimmten Produkt oder einer bestimmten Dienstleistung bereitzustellen. In diesem Papier untersuchen wir das Problem der Klassifizierung von Hotelkritiken anhand von Ansichten, die in den Bewertungen der Nutzer zum Ausdruck kommen. Es gibt eine massive Entwicklung von Meinungen und Bewertungen im Internet, die ausnahmslos Bewertungen von Produkten und Dienstleistungen sowie Überzeugungen über Ereignisse und Personen beinhalten. In dieser Studie wollen wir uns dem Problem der ständig steigenden Menge an meinungsstarken Daten stellen, die in einer Vielzahl von Datenquellen veröffentlicht werden. Die Intuition ist die Extraktion sinnvoller Dienste trotz fehlender ausreichend vorhandener Architekturen. Ein weiterer wichtiger Aspekt, der beim Markenmonitoring berücksichtigt werden muss, betrifft die schnelle heterogene Datenverarbeitung, die in Echtzeit umgesetzt werden muss, um schneller reagieren zu können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-49190-1_14 4b3dc92081c5c408794319a47f8e0a5f;de;;;7.4.;;;Erkennung von Netzwerkanomalien mithilfe des Gaußschen Mischungsmodells mit föderiertem Deep Autoencoding Deep Autoencoding Gaussian Mixed Model (DAGMM) verwendet Dimensionsreduktion und Dichteschätzung und optimiert sie gemeinsam für unüberwachte Anomalieerkennungsaufgaben. Das Fehlen einer großen Menge an Trainingsdaten beeinträchtigt jedoch die Leistung von DAGMM erheblich. Aufgrund der zunehmenden Bedenken hinsichtlich der Privatsphäre ist mit einer schlimmeren Situation zu rechnen. Durch die Aggregation nur von Parametern aus lokalem Training an Kunden, um Wissen aus mehr privaten Daten zu erhalten, wird föderiertes Lernen vorgeschlagen, um die Modellleistung zu verbessern. In der Zwischenzeit ist die Privatsphäre angemessen geschützt. Inspiriert durch das oben Erwähnte präsentiert dieses Papier ein föderiertes Deep Autoencoding Gaussian Mixed Model (FDAGMM), um die enttäuschende Leistung von DAGMM aufgrund der begrenzten Datenmenge zu verbessern. Die Überlegenheit unseres vorgeschlagenen FDAGMM wird empirisch mit umfangreichen Experimenten nachgewiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-45778-5_1 a315737205abf6b6cc4386d7671dc4eb;de;;;7.4.;;;Empfehlungssysteme im Gesundheitswesen Empfehlungssysteme sind eine Unterklasse von Informationsfiltersystemen, die allgemein verwendet werden, um die richtigen Produkte oder Dienstleistungen für die richtigen Verbraucher zu finden. Im Zeitalter von 'Big Data' sind Empfehlungssysteme von großer Bedeutung, da sie in vielen Lebensbereichen (E-Commerce/E-Shopping, E-Library, Spielfilme, TV-Programme, Rezepte, Gesundheitsempfehlungen, Nachrichten, Kochen und mehr). In ihrer einfachsten Form erstellen Empfehlungssysteme eine personalisierte Liste von Vorhersagen, die basierend auf der Geschichte des Benutzers, den Präferenzen, Lösungs-/Domänenbeschränkungen und anderen Faktoren eingestuft werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-66450-3_1 a768493000f3150b4da0366e32daff5e;de;;;7.4.;;;Beschreibung Logikbasierte Konsistenzprüfung von Data Mining-Metadaten Während des Prozesses der Erstellung von Data-Mining-Metadaten führen die Entwicklung von Data-Mining-Techniken, die unterschiedlichen Erfahrungen und Ansichten verwandter Organisationen unweigerlich zu Inkonsistenzen. Allerdings fehlt den aktuellen Data-Mining-Metadaten aufgrund ihrer Beschreibung mit natürlicher Sprache und Graphen eine präzise Semantik, sodass die automatische Konsistenzprüfung für sie nicht gut gelöst wurde. In diesem Papier wird eine formale Logik DLR;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79721-0_65 79f4ed3e0ceb62d3f9b26f3a7a421d66;de;;;7.4.;;;Experimentelle Anwendung von maschinellem Lernen auf Daten zur finanziellen Eingliederung für die Governance in Eswatini Ein Ziel von Good Governance ist die Erhöhung der Kapitalbasis von Kleinunternehmen (SSB), um mehr Investitionen zu fördern und damit die Beschäftigungsquote zu erhöhen. Die Einführung guter Programme zur finanziellen Eingliederung (FI) in einem Land trägt dazu bei, sicherzustellen, dass Unternehmer von SSB Zugang zu Finanzdienstleistungen haben und somit ihren Bedarf decken. In diesem Papier haben wir das FI-Programm im Königreich Eswatini untersucht, um festzustellen, inwieweit SSB Zugang zu Mitteln für die Führung ihrer Geschäfte haben, damit sie die Zielgruppe zufriedenstellen und ihre gewünschten Ziele erreichen können. Wir haben den FI-Datensatz für Eswatini für 2018 aus der Finscope-Datenbank erhalten. Der Datensatz von Finscope 2018 enthält 1385 Attribute mit 2928 Datensätzen. Diese Studie extrahierte Attribute basierend auf Zahlungskanal, registriertem/nicht registriertem Geschäft, Nutzung von Geschäftsbanken/Versicherungen/mobilem Geld und Einkommensquelle für Haushalte aus der Finscope-Datenbank. Wir haben viele fehlende Daten identifiziert und sie daher mit der Mode-Methode des Vorverarbeitungsmoduls in WEKA ersetzt. Wir haben die Datensätze aufgeteilt und eine Kreuzvalidierung darauf durchgeführt. Trainingsdaten sind 80 % der Datensätze und 20 % wurden für Tests verwendet. Wir haben FI sorgfältig nach ausgewählten Parametern für die Regionen Hhohho, Manzini, Shiselweni und Lubombo in Eswatini klassifiziert, indem wir eine logistische Regression mit 80% für das Training und eine 10-fache Kreuzvalidierung verwendet haben. Die beste 10-fache Kreuzvalidierungs-Recall-Rate für die Manzini-Region mit Support Vector Machine (SVM) beträgt 69,4% und 63,4% mit logistischer Regression. Diese Ergebnisse zeigen, dass die Richtigkeit des FI-Datensatzes schwach ist und dies auf eine große Anzahl fehlender Daten zurückzuführen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-45002-1_36 009a4ffda02ade02ec9e83d32e87df0a;de;;;3.2.;;;Evolutionäre Spiele in Multilayer-Netzwerken: ein Kolloquium Netzwerke bilden das Rückgrat vieler komplexer Systeme, vom Internet bis hin zu menschlichen Gesellschaften. Dementsprechend ist nicht nur die Reichweite unserer Interaktionen begrenzt und damit am besten durch Netzwerke beschrieben und modelliert, sondern es ist auch eine Tatsache, dass die Netzwerke, die integraler Bestandteil solcher Modelle sind, oft voneinander abhängig oder sogar miteinander verbunden sind. Netzwerke von Netzwerken oder Multilayer-Netzwerke sind daher eine treffendere Beschreibung sozialer Systeme. Dieses Kolloquium widmet sich evolutionären Spielen in mehrschichtigen Netzwerken und insbesondere der Entwicklung der Kooperation als einer der tragenden Säulen moderner menschlicher Gesellschaften. Zunächst geben wir einen Überblick über die wichtigsten konzeptionellen Unterschiede zwischen einschichtigen und mehrschichtigen Netzwerken und geben grundlegende Definitionen und eine Klassifizierung der am häufigsten verwendeten Begriffe. Anschließend betrachten wir faszinierende und kontraintuitive evolutionäre Ergebnisse, die aufgrund verschiedener Arten von Interdependenzen zwischen ansonsten unabhängigen Populationen entstehen. Der Fokus liegt auf der Kopplung durch die Nützlichkeit der Spieler, durch den Informationsfluss sowie durch die Popularität verschiedener Strategien auf verschiedenen Netzwerkschichten. Das Kolloquium beleuchtet die Bedeutung von Musterbildung und kollektivem Verhalten für die Förderung von Kooperation unter widrigen Bedingungen sowie die Synergien zwischen Netzwerkwissenschaft und evolutionärer Spieltheorie.;-;-;-;https://link.springer.com/article/10.1140/epjb/e2015-60270-7 21ff9f09c56b4ba8ca09ee8236e6e6d0;de;;;7.4.;;;Ordinale Regression für den Informationsabruf Dieser Brief stellt ein neues diskriminatives Modell für Information Retrieval (IR) vor, das als Ordinal Regression Model (ORM) bezeichnet wird. ORM unterscheidet sich von den meisten bestehenden Modellen dadurch, dass es IR als ordinales Regressionsproblem betrachtet (;-;-;-;https://link.springer.com/article/10.1007/s11767-006-0256-5 204a327780731650b9ea2409a5ec5321;de;;;7.4.;;;Selbstanpassendes zweiphasiges Support Vector Clustering für multirelationales Data Mining Dieses Papier schlägt einen neuartigen selbstadaptiven zweiphasigen Support Vector Clustering-Algorithmus (STPSVC) vor, um multirelationale Daten zu clustern. Der Algorithmus erzeugt eine würdige Beschreibung von Clusterkonturen und extrahiert dann Clusterzentrumsinformationen durch iteratives Durchführen einer Klassifizierungsprozedur. Eine adaptive Kernel-Funktion ist entworfen, um einen gewünschten Breitenparameter für verschiedene Dispersionen zu finden. Experimentelle Ergebnisse zeigen, dass der entworfene Kernel multirelationale Merkmale gut erfassen kann und STPSVC eine gute Leistung hat.;-;-;-;https://link.springer.com/chapter/10.1007/11731139_27 47a3b51102c113aa1fb34dde0cd102e6;de;;;7.4.;;;Wissenserfassung und Wiederverwendung durch die Aktivitätsüberwachung von Experten in der Konstruktionskonstruktion Dieses Papier befasst sich mit der Unterstützung bei der Produktentwicklung durch künstliche Intelligenz. Viele Softwaresysteme sind verfügbar, um den Produktlebenszyklus zu unterstützen, insbesondere während des Produktdesigns, wie CAD, PDM, CAE, SDM usw. Die meisten Produktentwicklungsprozesse werden mit diesen Systemen durchgeführt, die durch ihre umfangreichen Benutzeroberflächen es qualifizierten Fachleuten ermöglichen, ihre Know-how und Kenntnisse im Umgang mit den Tools und Funktionen, die die Software ihnen zur Verfügung stellt. Am Ende des Tages ist das Ergebnis ihrer Arbeit ein Modell, das über eine Benutzeroberfläche erstellt und in einem Repository gespeichert wird. Das Ziel unserer Forschung ist es, das Wissen des Benutzers zurückzuentwickeln, indem seine/ihre Aktionen mit dem Softwaresystem analysiert werden, basierend auf der Annahme, dass der Prozess selbst von Meta-Wissen gesteuert wird und dass wir uns auf Engineering-Software konzentrieren werden, die semantisch reichhaltige Benutzer bietet Schnittstellen. Das Ziel dieses Papiers ist es, die Idee zu untersuchen, wiederverwendbares Expertenwissen aus Aktionen auf Benutzeroberflächen von Engineering-Software aufzubauen. Es skizziert zunächst vorhandene Arbeiten aus verschiedenen Bereichen und identifiziert verbleibende Probleme. Es schlägt dann einen Ansatz vor, um diese Probleme anzugehen und ein funktionsfähiges System zusammenzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-01614-2_57 045f54738f6563464a92971be60d6271;de;;;7.4.;;;Data-Mining-Ansatz für Jobempfehlungssysteme Die Beschäftigungsfähigkeit ist aufgrund der sich schnell ändernden Technologien und Fähigkeiten, die von der Branche erwartet werden, ein wichtiges Anliegen der Gesellschaft. Manchmal aufgrund fehlender Fähigkeiten und manchmal, weil wir nicht alle Optionen für die Beschäftigungsfähigkeit durchsetzen können. In den letzten zehn Jahren sorgte das Job-Recruiting-System für das hohe Wachstum im Bereich der Stellenrekrutierung. Die hohe Aufmerksamkeit des Nutzerprofils wird durch das auf Empfehlungstechnologien basierende Job-Recommender-System erreicht. Dieses Papier präsentiert einen Überblick über einige typische Jobempfehlungssysteme und schlägt einen Data-Mining-Ansatz für Jobempfehlungssysteme vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-49795-8_48 306659e05df30cba582795543746f4be;de;;;7.4.;;;Beschleunigen Sie den SVM-Algorithmus für umfangreiche Klassifizierungsaufgaben Wir präsentieren einen neuen parallelen und inkrementellen Support Vector Machine (SVM)-Algorithmus zur Klassifizierung sehr großer Datensätze auf Grafikprozessoren (GPUs). Es hat sich gezeigt, dass SVM- und Kernel-bezogene Methoden genaue Modelle erstellen, aber die Lernaufgabe erfordert normalerweise ein quadratisches Programm, so dass diese Aufgabe für große Datensätze viel Speicherkapazität und lange Zeit erfordert. Wir erweitern eine aktuelle Least Squares SVM (LS-SVM), die von Suykens und Vandewalle vorgeschlagen wurde, um inkrementelle und parallele Algorithmen zu erstellen. Der neue Algorithmus verwendet Grafikprozessoren, um eine hohe Leistung bei geringen Kosten zu erzielen. Numerische Testergebnisse zu UCI- und Delve-Dataset-Repositorys zeigten, dass unser paralleler inkrementeller Algorithmus mit GPUs etwa 70-mal schneller ist als eine CPU-Implementierung und oft deutlich schneller (über 1000-mal) als hochmoderne Algorithmen wie LibSVM, SVM-perf und CB-SVM.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88192-6_15 41b820912bc2b8b57337cdbcf8d9e2e3;de;;;7.4.;;;Informationsfiltermethode für Twitter-Streaming-Daten mit Human-in-the-Loop Machine Learning In den sozialen Medien gibt es eine riesige Menge an Texten. Allerdings ist nur ein kleiner Teil dieser Texte für einen bestimmten Zweck informativ. Wenn wir die Texte in den Streams genau filtern, können wir nützliche Informationen in Echtzeit erhalten. Bei einem schlüsselwortbasierten Ansatz werden Filter mithilfe von Schlüsselwörtern erstellt, aber die Auswahl der geeigneten Schlüsselwörter zum Einschließen ist oft schwierig. In dieser Arbeit schlagen wir eine Methode zum Filtern von Texten vor, die sich auf bestimmte Themen beziehen, wobei sowohl Crowdsourcing- als auch maschinelle Lernverfahren zur Textklassifizierung verwendet werden. In unserem Ansatz konstruieren wir mit FastText einen Textklassifikator und kommentieren dann, ob die Tweets mit den Themen über Crowdsourcing in Zusammenhang stehen. In diesem Schritt betrachten wir zwei Strategien, einen optimistischen und einen pessimistischen Ansatz, um Tweets auszuwählen, die bewertet werden sollen. Anschließend rekonstruieren wir den Textklassifikator anhand der annotierten Texte und klassifizieren sie erneut. Wir gehen davon aus, dass sich die Genauigkeit des Klassifikators verbessert, wenn wir diese Schleife weiter anstoßen, und wir nützliche Informationen erhalten, ohne Schlüsselwörter angeben zu müssen. Experimentelle Ergebnisse zeigten, dass unser vorgeschlagenes System zum Filtern von Social-Media-Streams effektiv ist. Darüber hinaus haben wir bestätigt, dass der pessimistische Ansatz besser ist als der optimistische Ansatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98812-2_13 c68d7fc7c3429b9d9080be6387e6d888;de;;;7.4.;;;Join-Indizes als Werkzeug für das Spatial Data Mining Die wachsende Kartenproduktion erzeugt riesige Datenmengen, die in großen räumlichen Datenbanken gespeichert sind. Diese riesige Datenmenge übersteigt die menschlichen Analysemöglichkeiten. Räumliche Data-Mining-Methoden, abgeleitet von Data-Mining-Methoden, ermöglichen die Extraktion von Wissen aus diesen großen räumlichen Datenbanken unter Berücksichtigung des wesentlichen Gedankens der räumlichen Abhängigkeit. Dieses Papier konzentriert sich auf diese Besonderheit des Geodaten-Mining, indem es die Eignung von Join-Indizes für diesen Kontext zeigt. Es beschreibt die Join-Indexstruktur und zeigt, wie sie als Werkzeug für das Geodaten-Mining verwendet werden könnte. Somit unterstützt diese Lösung nicht-räumliche Informationssysteme mit räumlichen Kriterien.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45244-3_9 ab5180adc80e09c34a8bb19aa44fc27b;de;;;7.4.;;;SVDD-basierte Ausreißererkennung bei unsicheren Daten Die Ausreißererkennung ist ein wichtiges Problem, das in verschiedenen Forschungsbereichen und Anwendungsdomänen untersucht wurde. Die meisten existierenden Methoden basieren auf der Annahme, dass ein Beispiel entweder als normale Klasse oder als Ausreißer kategorisiert werden kann. In vielen realen Anwendungen sind die Daten jedoch aufgrund verschiedener Fehler oder teilweiser Vollständigkeit unsicher. Diese Datenunsicherheit macht die Erkennung von Ausreißern weitaus schwieriger als bei klar trennbaren Daten. Die größte Herausforderung beim Umgang mit unsicheren Daten bei der Ausreißererkennung besteht darin, die Auswirkungen unsicherer Daten auf den gelernten charakteristischen Klassifikator zu reduzieren. Dieses Papier schlägt einen neuen SVDD-basierten Ansatz vor, um Ausreißer bei unsicheren Daten zu erkennen. Der vorgeschlagene Ansatz funktioniert in zwei Schritten. Im ersten Schritt wird ein Pseudo-Trainingssatz erzeugt, indem jedem Eingabebeispiel ein Konfidenzwert zugewiesen wird, der die Wahrscheinlichkeit angibt, dass ein Beispiel zur Normalklasse tendiert. Im zweiten Schritt wird der erzeugte Konfidenzwert in die Trainingsphase der Unterstützungsvektordatenbeschreibung aufgenommen, um einen globalen Unterscheidungsklassifikator für die Ausreißererkennung zu konstruieren. In dieser Phase wurde der Beitrag der Beispiele mit dem geringsten Konfidenzwert zur Konstruktion der Entscheidungsgrenze reduziert. Die Experimente zeigen, dass der vorgeschlagene Ansatz moderne Ausreißererkennungstechniken übertrifft.;-;-;-;https://link.springer.com/article/10.1007/s10115-012-0484-y e12b26ee4f5f31b6d9481c274ecb9a59;de;;;7.4.;;;Diagnoseassistent mit chinesischen elektronischen Krankenakten basierend auf CNN und BiLSTM mit Aufmerksamkeiten auf Phrasen- und Wortebene Der Rückschluss auf Erkrankungen aus der elektronischen Krankenakte (EMR) des Patienten ist für die ärztliche Diagnose von großer Bedeutung. Mehrere neuere Vorhersagemethoden haben gezeigt, dass Deep-Learning-basierte Methoden die tiefen und komplexen Informationen in EMRs lernen können. Sie berücksichtigen jedoch nicht die diskriminierenden Beiträge verschiedener Phrasen und Wörter. Darüber hinaus sollten lokale Informationen und Kontextinformationen von EMRs tief integriert werden.;-;-;-;https://link.springer.com/article/10.1186/s12859-020-03554-x 1a93cafd97ed19a8f152f771572a0d69;de;;;7.4.;;;Tumorkantenerkennung in Mammographiebildern mit Quanten- und Machine-Learning-Ansätzen Die automatische Verarbeitung und Analyse medizinischer Bilder kann dem Arzt eine wertvolle Hilfestellung für die diagnostische und therapeutische Praxis bieten. In dieser Arbeit wird das Problem der Erkennung von Brustkrebskanten adressiert. Angesichts der Besonderheiten des Brustgewebes und des unvermeidlichen Mammogramm-Rauschens stehen wir vor einer herausfordernden Aufgabe. Um dieser Herausforderung zu begegnen, schlagen wir neue Ansätze vor, die quantengenetische Algorithmen und Support-Vektor-Maschinen beinhalten. Die erste Methode verwendet den quantengenetischen Algorithmus, um ein mehrstufiges Schwellenwertproblem basierend auf der Tsallis-Entropie zu lösen. Beim zweiten Verfahren werden die Support-Vektor-Maschinen auf unterschiedliche Weise an einem simulierten Bild trainiert, um eine Brustkrebskante erkennen zu können. Die vorgeschlagenen Ansätze werden mit einigen Standardmethoden der Kantenerkennung an einer Probe von Mammographiebildern aus bekannten Benchmark-Datenbanken verglichen. Die Bewertungsergebnisse der PSNR-, SSIM- und FSIM-Metriken zeigten die Wirksamkeit der vorgeschlagenen Ansätze.;-;-;-;https://link.springer.com/article/10.1007/s00521-020-05518-x 1962f3688538c33bf7616691f0ac4aac;de;;;7.4.;;;Auf dem Weg zu einer intelligenten Lösung, um die Einstellung der Lernenden anhand des Quellcodes zu identifizieren Technologie wurde in allen Lehrprozessen weit verbreitet. In einigen fortgeschrittenen Anwendungen werden Lehren und Lernen in virtuellen Umgebungen betrieben, was die Entwicklung unbegrenzter neuer Paradigmen ermöglicht. Praktische Arbeiten im Bereich Programmierung und Software Engineering werden in der Regel in integrierten Entwicklungsumgebungen durchgeführt. Letztere enthalten hauptsächlich den Quellcode der Studenten. Die Analyse des Quellcodes wird normalerweise verarbeitet, um die Syntaxkorrektheit oder die Relevanz der Lösung für Problemprobleme zu überprüfen. Die Dimension der Schülerpersönlichkeit ist ein wichtiger Faktor, den der Lehrer während seiner Unterrichtsmission übernimmt. Letzteres kann dazu dienen, die Natur des Schülers zu verstehen und die Lehrpädagogik an seine Persönlichkeit anzupassen. Dieses Papier soll die Idee erklären, Erkenntnisse aus dem Quellcode der Schüler zu gewinnen. Wir erklären, wie wir hauptsächlich Machine Learning und Natural Language Processing nutzen können, um eine Art Quellcode-Verständnis zu erlangen. Als ersten Schritt, der das Ziel dieses Artikels ist, haben wir eine intelligente Lösungsarchitektur aufgebaut, die zeigt, wie man quellcodereiche Daten sammelt und Analysetechniken durchläuft, um schließlich ein maschinelles Lernmodell zu verwenden, um mehr über diese Domäne zu erfahren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-53970-2_10 c9f8d24c6991262d00a5eea2898ec1bf;de;;;7.4.;;;Verbesserte Generalisierung von Support Vector Machines mit normalisiertem Eingaberaum Die Datenvorverarbeitung spielt immer eine Schlüsselrolle bei der Leistung des Lernalgorithmus. In dieser Untersuchung betrachten wir die Datenvorverarbeitung durch Normalisierung für Support Vector Machines (SVMs). Wir untersuchen den Normalisierungseffekt bei 112 Klassifizierungsproblemen mit SVM unter Verwendung des rbf-Kernels. Wir beobachten eine signifikante Klassifikationsverbesserung aufgrund der Normalisierung. Schließlich schlagen wir eine regelbasierte Methode vor, um herauszufinden, wann eine Normalisierung für ein bestimmtes Klassifizierungsproblem erforderlich ist. Die beste Normalisierungsmethode wird auch automatisch von SVM selbst ausgewählt.;-;-;-;https://link.springer.com/chapter/10.1007/11941439_40 a44e6dcaae6af0da10d778b948ed7698;de;;;7.4.;;;Verwenden der Korrespondenzanalyse zum Kombinieren von Klassifikatoren In letzter Zeit wurden mehrere effektive Methoden entwickelt, um die Vorhersageleistung durch Generieren und Kombinieren mehrerer gelernter Modelle zu verbessern. Der allgemeine Ansatz besteht darin, einen Satz gelernter Modelle entweder durch wiederholtes Anwenden eines Algorithmus auf verschiedene Versionen der Trainingsdaten oder durch Anwenden verschiedener Lernalgorithmen auf dieselben Daten zu erstellen. Die Vorhersagen der Modelle werden dann nach einem Abstimmungsschema kombiniert. Dieser Artikel konzentriert sich auf die Aufgabe, die Vorhersagen eines Satzes von gelernten Modellen zu kombinieren. Die beschriebene Methode verwendet die Strategien des Stapelns und der Korrespondenzanalyse, um die Beziehung zwischen den Lernbeispielen und deren Klassifizierung durch eine Sammlung von gelernten Modellen zu modellieren. Eine Methode des nächsten Nachbarn wird dann innerhalb der resultierenden Darstellung angewendet, um zuvor nicht gesehene Beispiele zu klassifizieren. Der neue Algorithmus schneidet nicht schlechter ab als andere Kombinationstechniken für eine Reihe von Datensätzen und oft deutlich besser als andere.;-;-;-;https://link.springer.com/article/10.1023/A%3A1007559205422 062dcb0d3040c45e43a9e03b7cf8e090;de;;;7.4.;;;Zunehmende Unvollständigkeit von Datensätzen – eine Strategie zur Einführung besserer Regelwerke Unser Hauptziel bestand darin, die folgende Hypothese zu überprüfen: Für einige vollständige (dh ohne fehlende Attributwerte) Datensätze ist es möglich, bessere Regelsätze (im Sinne einer Fehlerquote) zu induzieren, indem die Unvollständigkeit erhöht (dh einige vorhandene Attributwerte entfernt werden) ) der Originaldatensätze. In diesem Artikel präsentieren wir detaillierte Ergebnisse von Experimenten, die zeigen, dass Regelsätze, die von einigen unvollständigen Datensätzen induziert wurden, mit dem Signifikanzniveau von 5%, zweiseitiger Test, signifikant besser sind als der Regelsatz, der aus dem ursprünglichen (vollständigen) Datensatz induziert wurde. Darüber hinaus diskutieren wir Kriterien für die Einführung besserer Regeln durch Erhöhung der Unvollständigkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05177-7_17 be8142be5ae12451147fd6d259c2f047;de;;;7.4.;;;Anforderungserhebung im Data Mining für Business Intelligence-Projekte Es gibt Data-Mining-Methoden für Business Intelligence (DM-BI)-Projekte, die die Bedeutung der Planung einer geordneten, dokumentierten, konsistenten und nachvollziehbaren Anforderungserhebung während des gesamten Projekts hervorheben. Der klassische Software-Engineering-Ansatz ist jedoch nicht vollständig für DM-BI-Projekte geeignet, da er die Anforderungsspezifikationsaspekte von Projekten vernachlässigt. Dieser Artikel konzentriert sich auf die Identifizierung von Konzepten zum Verständnis der DM-BI-Projektdomäne aus der DM-BI-Felderfahrung, einschließlich der Frage, wie Anforderungen durch einen vorgeschlagenen Prozess zur Ermittlung von DM-BI-Projektanforderungen ermittelt und durch einen Vorlagensatz dokumentiert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09682-7-9_12 739155474d015ebceda68f18806bad08;de;;;7.4.;;;Soft Computing in Absorptionskühlsystemen Absorptionskühlsysteme sind in vielen Anwendungen zur Prozesswasserkühlung sinnvoll. Anstatt ein Kühlgas mechanisch zu komprimieren, wie beim herkömmlichen Dampfkompressionsverfahren, verwendet die Absorptionskühlung einen thermochemischen Prozess. Es werden zwei verschiedene Flüssigkeiten verwendet, ein Kältemittel und ein Absorptionsmittel. Wärme direkt aus der Erdgasverbrennung, Solarenergie, Abwärmequelle oder indirekt aus einem Kessel treibt den Prozess an.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22176-7_3 8f42b61a74a5f518fec9e3f3872cdac3;de;;;7.4.;;;Ein Vektorraummodell-Ansatz für die Klassifizierung von Web-Angriffen mithilfe von Machine Learning Die Nutzung von Webanwendungen in Online-Diensten nimmt in unserem täglichen Leben in vielerlei Hinsicht zu. Unternehmensdienstleister haben damit begonnen, ihr Geschäft über das Internet über verschiedene E-Commerce-Anwendungen online bereitzustellen. Das Wachstum von Online-Webanwendungen erhöht die Webkomplexität und die Sicherheitsanfälligkeit, was ein Hauptanliegen in der aktuellen Websicherheitsforschung ist. Das umfangreiche Wachstum verschiedener Arten von Web-Angriffen ist eine ernsthafte Bedrohung für die Web-Sicherheit. HTTP-Anfragen sind normalerweise geheimer Code für einen Webangriff, der durch die Injektion verbreitet wird und es ihnen ermöglicht, bösartige Aktionen auf Remote-Systemen auszuführen, um beliebige Befehle auszuführen. Dieses Papier schlägt einen effizienten Ansatz für die Klassifizierung von Webangriffen vor, der einen Vektorraummodellansatz (VSMA) verwendet, um die Erkennungs- und Klassifizierungsgenauigkeit zu verbessern. Es ist in der Lage, die Angriffe automatisch aus gültigen Anfragen zu klassifizieren, um die spezifischen Webangriffe zu erkennen. Das Bewertungsmaß zeigt im Vergleich zu den bisherigen Klassifikatoren eine hohe Präzision und niedrige Recall-Raten.;-;-;-;https://link.springer.com/chapter/10.1007/978-81-322-2526-3_38 843ae059675b061aed1e8884c57749be;de;;;7.4.;;;Maschinelles Lernen zur Vorhersage des schnellen Fortschreitens der Carotis-Atherosklerose bei Patienten mit eingeschränkter Glukosetoleranz Prädiabetes ist eine große Epidemie und ist mit ungünstigen kardiozerebrovaskulären Folgen verbunden. Die frühzeitige Identifizierung von Patienten, die eine rasche Progression der Arteriosklerose entwickeln, könnte für eine verbesserte Risikostratifizierung von Vorteil sein. In diesem Artikel untersuchen wir wichtige Faktoren, die die Vorhersage des schnellen Fortschreitens der Karotis-Intima-Media-Dicke bei Teilnehmern mit gestörter Glukosetoleranz (IGT) mit verschiedenen Methoden des maschinellen Lernens beeinflussen.;-;-;-;https://link.springer.com/article/10.1186/s13637-016-0049-6 8b5e1a5aa9dceb553e1191b4b6ba467b;de;;;7.4.;;;Helfen Sie Benutzern, schneller zu sortieren, mit Empfehlungen für adaptives maschinelles Lernen Das Sortieren und Clustern einer großen Anzahl von Dokumenten kann eine überwältigende Aufgabe sein: Manuelle Lösungen sind in der Regel langsam, während maschinelle Lernsysteme oft Ergebnisse liefern, die nicht gut mit den Absichten der Benutzer übereinstimmen. Wir haben ein System entwickelt und evaluiert, das Benutzern hilft, eine große Anzahl von Dokumenten in Cluster zu sortieren. iCluster kann neue Elemente für bestehende Cluster und geeignete Cluster für Elemente empfehlen. Die Empfehlungen basieren auf einem Lernmodell, das sich im Laufe der Zeit anpasst – wenn der Benutzer mehr Elemente zu einem Cluster hinzufügt, verbessert sich das Modell des Systems und die Empfehlungen werden relevanter. 32 Probanden verwendeten iCluster, um Hunderte von Datenelementen sowohl mit als auch ohne Empfehlungen zu sortieren. Wir fanden heraus, dass Empfehlungen es Benutzern ermöglichen, Elemente schneller zu sortieren. Ein Pool von 161 Bewertern bewertete dann die Qualität der resultierenden Cluster und stellte fest, dass die mit Empfehlungen generierten Cluster von statistisch nicht unterscheidbarer Qualität waren. Sowohl die manuelle als auch die assistierte Methode waren wesentlich besser als eine vollautomatische Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23765-2_13 bc3ae67a9b45130f6f7f06ba417c71a3;de;;;7.4.;;;Anwendung eines Data-Mining-Ansatzes auf die Verarbeitung telemetrischer Signale Der vorliegende Beitrag befasst sich mit der Implementierung intellektueller Technologien, die es uns ermöglichen, mittels Segmentierung, Clustering, Klassifikation und anderen Data-Mining-Ansätzen neues Wissen aus Rohdaten zu extrahieren, um die Funktionsweise verschiedener komplexer dynamischer Objekte in Gegenwart von verunreinigendes Rauschen, Ausreißer und fehlende Werte.;-;-;-;https://link.springer.com/article/10.1134/S1054661811040092 af3be50fc7d0b7f79c4714526b5b0efa;de;;;7.4.;;;Direktes Gradienten-basiertes Verstärkungslernen für das Erlernen des Roboterverhaltens Autonome Unterwasserfahrzeuge (AUV) stellen ein anspruchsvolles Steuerungsproblem mit komplexer, lauter Dynamik dar. Heutzutage verlangen nicht nur die kontinuierlichen wissenschaftlichen Fortschritte in der Unterwasserrobotik, sondern auch die zunehmende Zahl von Unterwassermissionen und deren Komplexität eine Automatisierung der Unterwasserprozesse. Dieses Papier schlägt ein übergeordnetes Steuerungssystem zur Lösung des Aktionsauswahlproblems eines autonomen Roboters vor. Das System ist durch die Verwendung von Reinforcement Learning Direct Policy Search-Methoden (RLDPS) zum Lernen der internen Zustands-/Aktionsabbildung einiger Verhaltensweisen gekennzeichnet. Die Machbarkeit demonstrieren wir mit simulierten Experimenten am Modell unseres Unterwasserroboters URIS in einer Zielverfolgungsaufgabe.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-5626-0_21 715432c86fc51a0bc1c13146335e3d6f;de;;;7.4.;;;Ein prädiktives System für die IoT-Rekonfiguration basierend auf dem TensorFlow Framework IoTs wachsen schnell, da neue Sensoren und Geräte zu bestehenden IoTs hinzugefügt werden. Die Nachfrage nach IoT-Knoten steigt ständig, um sich an sich ändernde Umgebungsbedingungen und Anwendungsanforderungen anzupassen, die Notwendigkeit, diese bereits vorhandenen IoTs neu zu konfigurieren, nimmt rapide zu. Es ist auch wichtig, den intelligenten Kontext zu verwalten, der ausgeführt werden soll, wenn er das entsprechende Verhalten auslöst. Dafür können jedoch viele Algorithmen verwendet werden, die auf unterschiedlichen Modellen für die Vorhersage von Sensordaten in Zeitreihen basieren. Jeder Algorithmus hat jedoch seine eigenen Vor- und Nachteile, was zu unterschiedlichen Vorhersagen des Rekonfigurationsverhaltens für jede spezifische IoT-Anwendung führt. Die Entwicklung einer IoT-Rekonfigurationsanwendung hat Schwierigkeiten, viele verschiedene Datenvorhersagealgorithmen für verschiedene Sensormessungen zu implementieren, um den am besten geeigneten Algorithmus zu finden. In diesem Beitrag schlagen wir das IoTs Reconfiguration Prediction System (IRPS) vor, ein Tool, das IoT-Entwicklern hilft, die am besten geeigneten Zeitreihen-Sensordatenvorhersagealgorithmen zum Auslösen von IoTs-Rekonfigurationsaktionen auszuwählen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63083-6_16 f16e160477d0e9cac463b2d988636a39;de;;;7.4.;;;Intelligente Playlist-Generierung mit Data-Mining-Techniken Empfehlungssysteme sind beliebte Social-Web-Tools, da sie das Problem der Informationsüberflutung angehen und eine Personalisierung der Ergebnisse ermöglichen. Diese Arbeit präsentiert einen groß angelegten kollaborativen Ansatz für den entscheidenden Teil des Playlist-Generierungsprozesses: die nächste Song-Empfehlung. Der Zweck dieser Arbeit ist es, die am besten geeigneten Data-Mining-Funktionen zu bewerten, die besten Eigenschaften von Musik zu erforschen und auszudrücken. Der Fokus wird auf der Identifizierung der Merkmale liegen, die in Beziehung stehen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29280-4_25 aaba83c13f38e6c6c0eb5dcd70e766f8;de;;;7.4.;;;DDoS-Erkennung basierend auf Funktionen zweiter Ordnung und maschinellem Lernen In den letzten Jahren sind mehrere neue Formen von DDoS-Angriffen aufgetaucht, wie DDoS mit Botnet, DNS-Amplification-Angriff und NTP-Amplification-Angriff, die eine große Bedrohung für die Netzwerksicherheit darstellen und die Stabilität und Zuverlässigkeit des Netzwerks ernsthaft beeinträchtigen. Daher hat die genaue und rechtzeitige Erkennung von DDoS-Angriffen eine positive Bedeutung, um DDoS-Angriffe so schnell wie möglich abzuwehren und die Auswirkungen von DDoS-Angriffen zu reduzieren. Zuvor konzentrierten sich die meisten Forscher darauf, Verkehrsmerkmale zu extrahieren und effektive Ansätze zur Erkennung von DDoS-Angriffen zu finden, während sie die Korrelation zwischen den Merkmalen ignorierten. In diesem Papier werden Merkmale zweiter Ordnung auf Algorithmen des maschinellen Lernens angewendet, um die Korrelation zwischen Merkmalen zu untersuchen und den Gleitfenstermechanismus zur Verbesserung des Modells zu verwenden. Zur Evaluierung der Methoden verwenden wir den KDD CUP 99 Datensatz. Die Evaluierungsergebnisse zeigen, dass die Korrelation zwischen den Funktionen DDoS-Angriffe genau vom normalen Datenverkehr unterscheiden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-47401-3_26 aa95730c44aa53cbd13a886d30235825;de;;;7.4.;;;Vision-basierte Fehlererkennung für Handy-Deckgläser mit Hilfe von Deep Neural Networks Der Notfall eines Oberflächendefekts würde die Qualität von MPCG (Mobile Phone Cover Glass) erheblich beeinflussen. Daher ist eine effiziente Fehlererkennung im Herstellungsprozess dringend erforderlich. In diesem Beitrag wird ein automatisches Erkennungssystem entwickelt, das sich auf das Problem konzentriert. Das System verwendet eine Hintergrundbeleuchtungs-Bildgebungstechnologie, um das Signal-Rausch-Verhältnis und den Bildgebungseffekt zu verbessern. Anschließend wird ein modifiziertes Segmentierungsverfahren zur Fehlerextraktion und -messung basierend auf tiefen neuronalen Netzen vorgestellt. Bei dem Verfahren wird ein neuartiges Datenerzeugungsverfahren bereitgestellt, mit dem der Nachteil überwunden werden kann, dass riesige Datenmengen zum Training tief strukturierter Netzwerke benötigt werden. Schließlich werden Experimente gut durchgeführt, um zu überprüfen, ob mit dem vorgeschlagenen Verfahren eine zufriedenstellende Leistung erzielt wird.;-;-;-;https://link.springer.com/article/10.1007/s12541-018-0096-x 4e2ae1b1d2d85dde3cc6233a49092825;de;;;7.4.;;;Ein Verfahren zur Optimierung der lokalen Dichte basierend auf einem Graphenfaltungsnetzwerk Der Erfolg wurde unter Verwendung eines halbüberwachten Graphanalyseverfahrens basierend auf einem Graphenfaltungsnetzwerk (GCN) erzielt. GCN ignoriert jedoch einige lokale Informationen an jedem Knoten im Diagramm, sodass die Datenvorverarbeitung unvollständig ist und das generierte Modell nicht genau genug ist. Daher sind bei zahlreichen unbeaufsichtigten Modellen auf Basis der Grapheneinbettungstechnologie lokale Knoteninformationen wichtig. In diesem Artikel wenden wir eine lokale Analysemethode basierend auf der Ähnlichkeitsnachbarhypothese auf ein GCN an und schlagen eine lokale Dichtedefinition vor, wir nennen diese Methode LDGCN. Der LDGCN-Algorithmus verarbeitet die Eingangsdaten von GCN in zwei Verfahren, d. h. dem unsymmetrischen und dem ausgeglichenen Verfahren. Somit enthalten die optimierten Eingabedaten detaillierte lokale Knoteninformationen, und dann ist das erzeugte Modell nach dem Training genau. Wir führen auch die Implementierung des LDGCN-Algorithmus durch das Prinzip von GCN ein und verwenden drei Mainstream-Datensätze, um die Wirksamkeit des LDGCN-Algorithmus zu überprüfen (d. Schließlich vergleichen wir die Leistung mehrerer Mainstream-Graphenanalysealgorithmen mit der des LDGCN-Algorithmus. Experimentelle Ergebnisse zeigen, dass der LDGCN-Algorithmus eine bessere Leistung bei Knotenklassifizierungsaufgaben aufweist.;-;-;-;https://link.springer.com/article/10.1631/FITEE.1900663 f3d9fdb8cf53f906f77d803725fb5773;de;;;7.4.;;;Anwendung von Data-Mining-Methoden zur Mustererkennung in Verhandlungsunterstützungssystemen Data-Mining-Methoden werden seit langem verwendet, um die Entscheidungsfindung in Organisationen durch die Analyse von Organisationsdaten aus großen Datenbanken zu unterstützen. Der vorliegende Beitrag folgt dieser Tradition, indem er zwei verschiedene Data-Mining-Techniken diskutiert, die zur Mustererkennung in Negotiation Support Systems (NSSs) implementiert werden, um menschlichen Verhandlungsführern Prozessunterstützung zu bieten. Dazu werden Daten aus mehreren internationalen Verhandlungsexperimenten über NSS Negoisst verwendet. Folglich muss für die Anwendbarkeit des Data Mining eine geeignete Datenrepräsentation der zugrunde liegenden Nutzdaten und Kommunikationsdaten erstellt werden. Jeder generierte Datentyp erfordert individuelle Verarbeitungsbehandlungen und fast alle Data-Mining-Methoden verlieren ihre Durchführbarkeit ohne eine korrekte Datendarstellung als Folge. Ist eine korrekte Datenrepräsentation gefunden, kann das Potenzial zur Mustererkennung in elektronischen Verhandlungsdaten mit deskriptiven und prädiktiven Methoden bewertet werden. Während Association Rule Discovery als deskriptive Technik verwendet wird, um wesentliche Sätze strategischer Assoziationsmuster zu generieren, wird der Decision Tree als überwachte Lerntechnik zur Vorhersage von Klassifikationsmustern verwendet. Inwieweit sich aus den elektronischen Verhandlungsdaten zuverlässige sowie wertvolle Muster ableiten und wertvolle Vorhersagen generieren lassen, wird in diesem Beitrag untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-21711-2_17 32c7057ee90e82752a876cbf66da8691;de;;;7.4.;;;Explorative Analyse von Lichtkurven: Eine Fallstudie zum Verständnis von Astronomiedaten Die Datenerfassung in Biologie und Astronomie hat seit der Jahrhundertwende ein beispielloses Volumenwachstum erlebt. Es ist nicht übertrieben zu sagen, dass die Bedürfnisse dieser beiden Wissenschaften die Informatikforschung an neue Grenzen treiben. Der Schwerpunkt dieses Papiers liegt auf der Astronomie, die seit der Gründung des Virtuellen Observatoriums und der Inbetriebnahme massiver Himmelsdurchmusterungen nach Wissen über die Datenflut schreit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-05693-7_5 0aa075619b3b6ffcb0820273d9741641;de;;;7.4.;;;Eine KI-basierte Lösung zur Reduzierung unerwünschter Gesichtsberührungen als Vorsichtsmaßnahme für COVID-19 Die anhaltende Gesundheitskrise wirkt sich weiterhin auf alle Lebensbereiche aus, fordert radikale Änderungen des Lebensstils und zwingt uns, eine ganze Reihe neuer Vorsorgevorschriften einzuhalten. Schlechte Hygienepraktiken sind mitverantwortlich für die steigenden COVID-19-Fälle, darunter die Selbstimpfung. Jüngste Studien in diesem Bereich haben gezeigt, wie uns das Berühren des Gesichtes sofortige Linderung von vorübergehenden Beschwerden wie Muskelverspannungen verschafft und eine Möglichkeit ist, Emotionen zu regulieren und das Gedächtnis zu stimulieren. Dieses Papier zielt darauf ab, die Rolle von künstlicher Intelligenz und maschinellem Lernen bei der Entwicklung eines vollständig softwarebasierten Systems aufzuzeigen, um diesen Instinkt einzuschränken. Es wurde eine Webanwendung entwickelt, die Echtzeiteingaben einer Person über eine integrierte PC-Webcam aufnimmt und die Kreuzung zwischen den Händen und den Gesichtsbereichen erkennt, was zu einer Warnmeldung als Ausgabe an den Benutzer führt. Unter Verwendung von BodyPix 2.0 in TensorFlow hat diese neuartige Methode eine Genauigkeit von 91,3 % bei richtiger Synchronisation und minimaler Verzögerung bei der Erkennung. Die Machbarkeit eines solchen Ansatzes wurde daher hier diskutiert und gibt einen Einblick, wie intelligente Hygienekontrolltechniken bei der Bewältigung solcher zukünftigen Katastrophen helfen könnten, die von ähnlichen tödlichen biologischen Agenzien herrühren, damit sich die Geschichte nicht wiederholt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-76776-1_3 d8552b390d7d82871886274fc09e137e;de;;;7.4.;;;Kommerzielle Anwendungen des maschinellen Lernens für personalisierte drahtlose Portale Verbraucher und Unternehmen haben im Internet Zugang zu umfangreichen Informationsquellen, die von Zeitungen, Einkaufskatalogen, Restaurantführern, Kleinanzeigen, Stellenanzeigen, Dating-Diensten bis hin zu Diskussionsrunden und E-Mail reichen. All diese Informationen sind normalerweise nur zugänglich, wenn Benutzer zu Hause oder im Büro vor einem Computer sitzen. Drahtlose Geräte ermöglichen einen beispiellosen Zugriff auf Informationen von jedem Ort zu jeder Zeit. Die Darstellung dieser Informationen muss auf die Einschränkungen mobiler Geräte zugeschnitten sein. Kleine Bildschirme, langsamere Verbindungen, hohe Latenz und eingeschränkte Eingabemöglichkeiten stellen neue Herausforderungen dar. Agenten, die die Präferenzen des Benutzers lernen und Informationen für den Benutzer auswählen, sind bei der Anzeige von Informationen auf einem 19-Zoll-Desktop-Monitor, auf den über eine Breitbandverbindung zugegriffen wird, praktisch. Dieses Papier fasst kommerziell eingesetzte Systeme zusammen, die Methoden des maschinellen Lernens verwenden, um die mobile Informationsbereitstellung zu personalisieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45683-X_1 cf924b56b4eeba4f46afefad0d1faf67;de;;;7.4.;;;Optimale Quantenzustandstransformationen basierend auf maschinellem Lernen Es ist bekannt, dass Quantenalgorithmen Probleme effizient lösen können, die mit herkömmlichen Algorithmen schwer zu lösen sind. Quantenalgorithmen können mit einem Satz universeller Quantengatter entworfen werden, die Eingangszustände in gewünschte Ausgangszustände umwandeln. Das Entwerfen von Quantenalgorithmen, die Zustände in gewünschter Weise transformieren, ist jedoch aufgrund seiner Komplexität eine Herausforderung. In diesem Papier schlagen wir ein Machine-Learning-Framework für die Transformation unbekannter Zustände in ihre entsprechenden Zielzustände vor. Insbesondere lernt eine parametrisierte Quantenschaltung eine gegebene Aufgabe, indem sie ihre Parameter abstimmt. Nachdem das Lernen abgeschlossen ist, ist die Schaltung für die Quantenaufgabe zuständig. Damit umgehen wir ein umständliches Schaltungsdesign auf Basis universeller Quantengatter. Wenn die Quantentheorie die perfekte Transformation verbietet, kann eine optimale Transformation in Bezug auf die Treue erhalten werden. Dies bietet eine Forschungsmethode zur Untersuchung verschiedener Quanten-No-Go-Theoreme, die die intrinsische Lücke zwischen Quanten- und klassischer Information charakterisieren. Als Beispiele werden Quantenzustandsrotation und Quantenzustandsklonen mit numerischen Simulationen untersucht. Wir zeigen auch die gute Robustheit unseres Machine-Learning-Frameworks gegenüber beschädigten Trainingsdaten, was eine sehr schöne Eigenschaft für die physikalische Implementierung auf kurzfristig verrauschten Quantengeräten im mittleren Maßstab ist.;-;-;-;https://link.springer.com/article/10.1007/s11128-021-03148-3 2af3dcaa35e542de8220e5cf9bd63594;de;;;7.4.;;;Studie zur Klassifizierung und Erkennung von Intra-Puls-Signalen von Radarsendern basierend auf der Energiekumulante von CWD Ein neuartiges Merkmalsextraktionsverfahren basierend auf der Energiekumulante der Choi-Williams-Verteilung wurde vorgeschlagen, das mit der komplexen elektromagnetischen Umgebung und den unterschiedlichen Signalstilen fertig wird. Die Energiekumulante der Choi-Williams-Verteilung wurde aus den Akkumulationen jedes Frequenzabtastwertes mit unterschiedlichen Zeitabtastwerten berechnet. Diesem Verfahren vorausgehend wurde die zeitliche Häufigkeitsverteilung über die Choi-Williams-Verteilung durch eine Grundrauschunterdrückung verarbeitet. Von nun an wurde eine Simulationsanalyse basierend auf der Unterscheidbarkeit und dem Erkennungseffekt der vorgeschlagenen Merkmale in einer Umgebung mit niedrigem SNR durchgeführt. In dem Unterscheidbarkeitsexperiment wurde der Kernel-Fuzzy-C-Means-Clustering-Algorithmus zum Klassifizieren der Radarimpuls-modulierten Strahlungsquellensignale verwendet. Bei der Erkennungseffektanalyse wurde das Deep-Belief-Netzwerk vorgeschlagen, die Eingangsmerkmalsvektoren zum Trainieren zu verwenden, um die Radarsendererkennung und -klassifizierung zu erreichen. Simulationsergebnisse zeigen, dass das vorgeschlagene Merkmalsextraktionsverfahren auch bei einem niedrigen SNR bei der Radarsenderklassifizierung und -erkennung durchführbar und robust ist.;-;-;-;https://link.springer.com/article/10.1007/s12652-020-02722-4 9438fe48782a88d61ff4912812222496;de;;;7.4.;;;Linearer TV-Empfehler durch Big Data Dieses Whitepaper enthält die Entwicklung von Methoden zur Verbesserung des Fernseherlebnisses mithilfe von Machine Learning für lineare TV-Empfehlungen. Da der Fernseher ein gemeinsam genutztes Gerät ist, sind die Empfehlungen, die nur auf dem Geschmack eines Benutzers basieren, möglicherweise nicht ausreichend effektiv. In diesem Papier wird erläutert, wie Data Mining Daten anzeigen kann, um die Effektivität des Beratungssystems zu verbessern. Die Hauptidee besteht darin, neue Erkenntnisse über die Benutzer zu gewinnen und so neues Wissen zu schaffen, das für genauere Empfehlungen verwendet werden kann. Dieses Papier beschreibt die Methoden des Data Mining bei Fernsehabonnenten und misst die Effektivität der Verwendung abgeleiteter Hypothesen in bestehenden Ansätzen zum Aufbau von Empfehlungssystemen. Die Verwendung eines solchen Empfehlungsgebers könnte die Fernsehwerbung vollständig verändern und eine neue Synergie zwischen E-Business und Fernsehen schaffen, indem definiert wird, wer vor dem Fernsehen steht und was er mag. Auf der anderen Seite ermöglicht Smart TV dem Benutzer, eine Bestellung direkt von seinem Fernseher aus aufzugeben, was die Konversionsraten dramatisch verbessert. Bestehende Methoden und die Effektivität neuer Methoden werden mit dem angebotenen Ansatz verglichen, indem der reale Konsum von Inhalten während eines Jahres analysiert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-40973-3_47 85e0b74c4c8c11bb433025c93086b471;de;;;7.4.;;;Erforschung eines Decision Support Systems (DSS) für Gewächshäuser basierend auf Data Mining Das meiste Expertenwissen in der Landwirtschaft ist beschreibend und erfahrungsbasiert, daher ist es schwierig, es in Mathematik zu beschreiben und ein Entscheidungsunterstützungssystem (DSS) für Gewächshäuser aufzubauen. Daher wurde in diesem Beitrag das Entscheidungsunterstützungssystem (DSS) für Gewächshäuser vorgestellt, das aus Data Warehouse und Dattelbergbau-Technologie aufgebaut ist. Im System wurde ein Data Warehouse gegründet, um diversifizierte Daten zu speichern, die Verwendung von Online-Analyseverarbeitung und Date Mining bereichert die Wissensbasis mit neuen landwirtschaftlichen Informationen. Implementierung der vom System übernommenen SQL Server-Analyse, dadurch enge Kopplung von Data Warehouse, Date Mining und Anwendung, verbesserte Effizienz des Date Mining Kombiniertes Data Warehouse mit analytischer Online-Verarbeitung und Date-Mining, um ein neuartiges DSS zu erstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-77253-0_40 04bb1f541255612d21fda045a4de375b;de;;;7.4.;;;Verantwortungsvolle Innovation von Data-Mining- und Profiling-Tools: Ein neuer Ansatz für diskriminierungs- und datenschutzsensitive Attribute Data Mining ist eine Technologie, die nützliche Informationen wie Muster und Trends aus großen Datenmengen extrahiert. Die datenschutzsensiblen Eingabedaten und die Ausgabedaten, die häufig für Auswahlen verwendet werden, verdienen Schutz vor Missbrauch. In diesem Papier beschreiben wir eines der Hauptergebnisse unseres Forschungsprojekts zur Entwicklung neuer Datenschutz- und diskriminierungsbewusster Data-Mining-Tools, nämlich warum die üblichen Maßnahmen zur Minderung von Datenschutz- und Diskriminierungsbedenken, wie a priori einschränkende Maßnahmen (insbesondere und Zweckspezifikation) sind Mechanismen, die im neuartigen Kontext des fortgeschrittenen Data Mining und Profiling zunehmend versagende Lösungen gegen Datenschutz- und Diskriminierungsprobleme bieten. Im Gegensatz zu früheren Versuchen, die Privatsphäre zu schützen und Diskriminierung beim Data Mining zu verhindern, haben wir uns nicht auf neue Designs konzentriert, die (a priori) zugangsbeschränkende Maßnahmen zu Eingabedaten besser ermöglichen, sondern auf (a posteriori) Verantwortung und Transparenz. Anstatt den Zugriff auf Daten einzuschränken, was in einer Welt automatisierter und vernetzter Datenbanken und Informationsnetze immer schwerer durchsetzbar ist, wurde vielmehr die Frage betont, wie Daten genutzt werden können und dürfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-8956-1_19 86a83f5cf310c8f798d8829baf6a3ba2;de;;;7.4.;;;Automatisches Finden der Regelgrößen für komplexes Systemverhalten Das Testen von Großsystemen ist zeit- und kostenintensiv. Die frühzeitige Durchführung von Simulationen ist eine bewährte Methode, um Konstruktionsfehler zu finden, die wahrscheinlich zu kritischen Systemausfällen führen können, aber die Ermittlung der genauen Ursache dieser Fehler ist immer noch zeitaufwendig und erfordert den Zugriff auf eine begrenzte Anzahl von Domänenexperten. Es ist wünschenswert, ein automatisiertes Verfahren zu finden, das die große Anzahl von Kombinationen untersucht und in der Lage ist, wahrscheinliche Fehlerpunkte zu isolieren.;-;-;-;https://link.springer.com/article/10.1007/s10515-010-0072-x b99279077eb7f4f77f4f0b2bdf43bf5c;de;;;7.4.;;;Ein empirischer Vergleich von Abstimmungsklassifikationsalgorithmen: Bagging, Boosting und Varianten Methoden zur Abstimmung von Klassifizierungsalgorithmen wie Bagging und AdaBoost haben sich als sehr erfolgreich bei der Verbesserung der Genauigkeit bestimmter Klassifikatoren für künstliche und reale Datensätze erwiesen. Wir überprüfen diese Algorithmen und beschreiben eine große empirische Studie, die mehrere Varianten in Verbindung mit einem Entscheidungsbaum-Induktor (drei Varianten) und einem Naive-Bayes-Induktor vergleicht. Der Zweck der Studie besteht darin, unser Verständnis dafür zu verbessern, warum und wann diese Algorithmen, die Störungs-, Neugewichtungs- und Kombinationstechniken verwenden, Klassifikationsfehler beeinflussen. Wir bieten eine Bias- und Varianzzerlegung des Fehlers an, um zu zeigen, wie unterschiedliche Methoden und Varianten diese beiden Terme beeinflussen. Dadurch konnten wir feststellen, dass Bagging die Varianz instabiler Methoden reduziert, während Boosting-Methoden (AdaBoost und Arc-x4) sowohl den Bias als auch die Varianz instabiler Methoden reduziert, aber die Varianz für Naive-Bayes erhöht, die sehr stabil war. Wir haben beobachtet, dass sich Arc-x4 anders verhält als AdaBoost, wenn statt Resampling eine Neugewichtung verwendet wird, was auf einen grundlegenden Unterschied hinweist. Zu den Abstimmungsvarianten, von denen einige in diesem Papier vorgestellt werden, gehören: Beschneidung versus keine Beschneidung, Verwendung probabilistischer Schätzungen, Gewichtsstörungen (Wagging) und Datenanpassung. Wir haben festgestellt, dass sich das Bagging verbessert, wenn probabilistische Schätzungen in Verbindung mit No-Pruning verwendet werden und die Daten nachgerüstet wurden. Wir messen Baumgrößen und zeigen eine interessante positive Korrelation zwischen der Zunahme der durchschnittlichen Baumgröße in AdaBoost-Versuchen und dem Erfolg bei der Fehlerreduzierung. Wir vergleichen den mittleren quadratischen Fehler von Wahlverfahren mit nicht stimmberechtigten Verfahren und zeigen, dass die Wahlverfahren zu großen und signifikanten Verringerungen des mittleren quadratischen Fehlers führen. Praktische Probleme, die bei der Implementierung von Boosting-Algorithmen auftreten, werden untersucht, einschließlich numerischer Instabilitäten und Unterläufe. Wir verwenden Streudiagramme, die grafisch zeigen, wie AdaBoost Instanzen neu gewichtet, und betonen nicht nur „harte“ Bereiche, sondern auch Ausreißer und Rauschen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1007515423169 ed4722fbbb8fb198f9d559087a132a09;de;;;7.4.;;;Klassifizierung unter rechnerischen Ressourcenbeschränkungen: jederzeitige Klassifizierung mit probabilistischen Schätzern In vielen Online-Anwendungen des maschinellen Lernens variieren die für die Klassifizierung verfügbaren Rechenressourcen von Zeit zu Zeit. Die meisten Techniken sind so konzipiert, dass sie innerhalb der Beschränkungen der minimal erwarteten Ressourcen arbeiten und keine weiteren Ressourcen verwenden, wenn sie verfügbar sind. Wir schlagen einen neuartigen Anytime-Klassifizierungsalgorithmus vor, den Anywhere Averaged Probabilistic Estimators (AAPE), der in der Lage ist, mit geringer CPU-Zeit eine hohe Vorhersagegenauigkeit zu liefern und zusätzliche CPU-Zeit zu nutzen, um die Klassifizierungsgenauigkeit zu erhöhen. Die Idee besteht darin, eine geordnete Folge von sehr effizienten Bayes-Wahrscheinlichkeitsschätzern (einzelne Verbesserungsschritte) auszuführen, bis die Klassifizierungszeit abläuft. Theoretische Studien und empirische Validierungen zeigen, dass AAPE durch richtiges Identifizieren, Ordnen, Aufrufen und Zusammenstellen einzelner Verbesserungsschritte in der Lage ist, bei jeder Unterbrechung eine genaue Klassifizierung durchzuführen. Es ist auch in der Lage, Klassenwahrscheinlichkeitsschätzungen über einfache 0/1-Verlust-Klassifizierungen hinaus auszugeben und inkrementelles Lernen geschickt zu handhaben.;-;-;-;https://link.springer.com/article/10.1007/s10994-007-5020-z de9dba3ca3ddce73b7cec52e1976766a;de;;;7.4.;;;Ein integriertes Data-Mining- und Überlebensanalysemodell für die Kundensegmentierung Immer mehr Literaturen haben die Anwendung der Data-Mining-Technologie in der Kundensegmentierung erforscht und Soundeffekte erzielt. Einer der Hauptzwecke der Kundensegmentierung ist die Kundenbindung. Aber die Anwendung einer einzigen Data-Mining-Technologie, die in der früheren Literatur erwähnt wurde, ist nicht in der Lage, den Trend der Kundenabwanderung für verschiedene Maßnahmen zur Kundenbindung zu erkennen. Dieser Artikel konzentriert sich auf die Konstruktion eines integrierten Data Mining- und Überlebensanalysemodells, um Kunden nach ihrer Überlebenswahrscheinlichkeit (Abwanderungstrend) in heterogene Gruppen zu segmentieren und Unternehmen dabei zu unterstützen, geeignete Maßnahmen zu ergreifen, um profitable Kunden gemäß dem Abwanderungstrend jedes Segments zu halten. Dieses Modell enthält zwei Komponenten. Erstens, mithilfe von Data Mining Clustering von arithmetischen Clusterkunden in heterogene Cluster entsprechend ihren Überlebenseigenschaften. Zweitens die Verwendung einer Überlebensanalyse, die die Überlebens-/Gefahrenfunktion jedes Clusters vorhersagt, um ihren Abwanderungstrend zu identifizieren und die Gültigkeit der Clusterbildung zu testen, um die richtige Kundensegmentierung zu erhalten. Dieses in diesem Artikel vorgeschlagene Modell wurde in einem Datensatz eines größten chinesischen Telekommunikationsunternehmens angewendet. Dieser Beitrag schlägt auch einige Vorschläge für weitere Forschungen vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-75466-6_11 5cd498bf80a7048bd8705d822f311193;de;;;7.4.;;;Die Anwendung der Data-Mining-Technologie bei der Analyse der Beziehung zwischen Majors, Branchen und Positionen Im Rahmen des Forschungsprojekts Vorhersagesystem des Universitäts-Haupteinstellungsforschungsprojekts untersuchen wir für die Maschinenbauindustrie das Assoziationsregelmodell der Beziehung zwischen Hauptfächern und Positionen. Wir entwickeln eine Reihe von Methoden, um dieses Modell zu entdecken, dieses Modell mit bestehenden Daten und analysieren die praktische Bedeutung dieses Modells. Dieses Assoziationsregelmodell bietet eine nützliche Untersuchung für die wichtigsten Einstellungen der Universität und die Beschäftigungstrendanalyse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24282-3_30 7d4774e327a8913669096fe3d79f6d74;de;;;7.4.;;;Eine neuartige Data-Mining-Methode zur Erkennung von Netzwerkanomalien basierend auf einem transduktiven Schema Die Erkennung von Netzwerkanomalien war in den letzten Jahren ein heißes Thema. Allerdings machen die hohe Fehlalarmrate, die Schwierigkeiten, exakte saubere Daten für die Modellierung normaler Muster zu erhalten und die Verschlechterung der Erkennungsrate aufgrund von „unsauberen“ Trainingssätzen immer nicht so gut, wie wir es erwarten. Daher schlagen wir in diesem Artikel eine neuartige Data-Mining-Methode zur Erkennung von Netzwerkanomalien vor. Experimentelle Ergebnisse des bekannten KDD Cup 1999-Datensatzes zeigen, dass er Anomalien mit hohen True Positives, Low False Positives sowie mit hoher Zuverlässigkeit als die modernsten Anomalie-Erkennungsmethoden effektiv erkennen kann. Darüber hinaus ist die vorgeschlagene Methode auch bei nicht rein „sauberen“ Daten (unsauberen Daten) robust und effektiv.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72383-7_150 eeeea6ca5fef6c82cbc2d432ec9069d7;de;;;7.4.;;;Datenreduktion durch Integration mehrerer Modelle Eine große Menge verfügbarer Informationen bedeutet nicht unbedingt, dass Induktionsalgorithmen all diese Informationen verwenden müssen. Stichproben bieten oft die gleiche Genauigkeit bei geringerem Rechenaufwand. Wir schlagen mehrere effektive Techniken vor, die auf der Idee des progressiven Samplings basieren, wenn progressiv größere Stichproben für das Training verwendet werden, solange sich die Modellgenauigkeit verbessert. Unsere Stichprobenverfahren kombinieren alle Modelle, die auf zuvor betrachteten Datenstichproben erstellt wurden. Neben der Zufallsstichprobe wird eine steuerbare Stichprobenziehung basierend auf dem Boosting-Algorithmus vorgeschlagen, bei der die Modelle durch ein gewichtetes Voting kombiniert werden. Um die Modellgenauigkeit zu verbessern, wird auch eine effektive Beschneidungstechnik für ungenaue Modelle verwendet. Schließlich wird ein neuartiges Stichprobenverfahren für räumliche Datendomänen vorgeschlagen, bei dem die Datenbeispiele nicht nur nach der Leistung früherer Modelle, sondern auch nach der räumlichen Korrelation der Daten gezogen werden. Experimente, die an mehreren Datensätzen durchgeführt wurden, zeigten, dass die vorgeschlagenen Stichprobenverfahren sowohl hinsichtlich der erreichten Genauigkeit als auch des Grades der Datenreduzierung die standardmäßige progressive Stichprobenziehung übertrafen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44794-6_25 96dd8a233029fc6796f8d5060d0686ad;de;;;7.4.;;;Durchschnittliche Fall-Selbst-Dualität von monotonen booleschen Funktionen Das Problem der Bestimmung, ob eine monotone boolesche Funktion selbstdual ist, hat zahlreiche Anwendungen in Logik und KI. Die Anwendungen umfassen Theorierevision, modellbasierte Diagnose, abduktive Erklärungen und das Erlernen monotoner boolescher Funktionen. Es ist nicht bekannt, ob die Selbstdualität monotoner boolescher Funktionen in polynomieller Zeit getestet werden kann, obwohl ein quasi-polynomialer Zeitalgorithmus existiert. Wir beschreiben einen weiteren quasi-polynomialen Zeitalgorithmus zur Lösung des Selbstdualitätsproblems monotoner boolescher Funktionen und analysieren sein Durchschnittsverhalten an einer Menge zufällig generierter Instanzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24840-8_23 39a9f7cb66f9f7c1b0018f18d552429d;de;;;7.4.;;;Zum Vergleich von Klassifikatoren: zu vermeidende Fallstricke und ein empfohlener Ansatz Ein wichtiger Bestandteil vieler Data-Mining-Projekte ist die Suche nach einem guten Klassifikationsalgorithmus, ein Prozess, der sehr sorgfältige Überlegungen zum experimentellen Design erfordert. Wenn sie nicht sehr sorgfältig durchgeführt werden, können vergleichende Studien zur Klassifikation und anderen Arten von Algorithmen leicht zu statistisch ungültigen Schlussfolgerungen führen. Dies gilt insbesondere dann, wenn man Data-Mining-Techniken verwendet, um sehr große Datenbanken zu analysieren, die unweigerlich einige statistisch unwahrscheinliche Daten enthalten. Dieses Papier beschreibt mehrere Phänomene, die, wenn sie ignoriert werden, einen experimentellen Vergleich ungültig machen können. Diese Phänomene und die folgenden Schlussfolgerungen gelten nicht nur für die Klassifizierung, sondern für Computerexperimente in fast allen Aspekten des Data Mining. Der Artikel erörtert auch, warum vergleichende Analysen bei der Bewertung einiger Arten von Algorithmen wichtiger sind als bei anderen, und bietet einige Vorschläge, wie die Fallstricke vieler experimenteller Studien vermieden werden können.;-;-;-;https://link.springer.com/article/10.1023/A%3A1009752403260 77cfb7d3ad05e025f8a5e97802e2ee5e;de;;;7.4.;;;Bewertung von Lernmodellen für eine Methode zur Unterstützung der Regelbewertung basierend auf objektiven Indizes In diesem Beitrag präsentieren wir eine Evaluierung einer Methode zur Unterstützung der Regelevaluierung zur Nachbearbeitung von Mining-Ergebnissen mit Regelevaluierungsmodellen basierend auf objektiven Indizes. Um die Kosten der Regelbewertungsaufgabe, die eines der Schlüsselverfahren in der Data-Mining-Nachbearbeitung ist, zu reduzieren, haben wir die Regelbewertungsunterstützungsmethode mit Regelbewertungsmodellen entwickelt, die mit objektiven Indizes der ermittelten Klassifikationsregeln und Bewertungen von a menschlicher Experte für jede Regel. Dann haben wir die Leistung von Lernalgorithmen zum Konstruieren von Regelbewertungsmodellen für das Meningitis-Data-Mining als tatsächliches Problem und zehn Regelsätze aus den zehn Arten von UCI-Datensätzen als Artikelproblem evaluiert. Mit diesen Ergebnissen zeigen wir die Verfügbarkeit unserer Methode zur Unterstützung der Regelbewertung.;-;-;-;https://link.springer.com/chapter/10.1007/11908029_71 ccc435227472c26dfdcc5968b355c7a0;de;;;7.4.;;;Unternehmensinvestitionsempfehlung basierend auf Data-Mining-Techniken Weltweit sind etwa siebzigtausend Unternehmen an verschiedenen Börsen notiert und auf Wikipedia gibt es öffentliche Informationen über etwa dreihunderttausend Unternehmen, aber das ist nur ein kleiner Bruchteil aller Unternehmen. Unter den Millionen anderen verbergen sich die zukünftigen technologischen Innovatoren, Marktdisruptoren und bestmöglichen Investitionen. Wenn ein Anleger also ein Beispiel für die Art von Unternehmen hat, an dem er interessiert ist, wie kann er dann erfolgreich andere solche Anlageoptionen finden, ohne Millionen von Optionen zu sichten?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36691-9_7 eadb09171e70d271024ff23f17f10c02;de;;;7.4.;;;Krankheitsvorhersage basierend auf Symptomen durch maschinelles Lernen Der Gesundheitsbereich ist im aktuellen Szenario mit der schnellen Verbesserung von Technologie und Daten eines der wichtigsten Forschungsfelder. Der Umgang mit den riesigen Datenmengen der Patienten ist schwierig. Der Umgang mit diesen Daten ist durch Big Data Analytics einfacher. Weltweit gibt es zahlreiche Verfahren zur Behandlung zahlreicher Krankheiten. Maschinelles Lernen ist ein neuer Ansatz, der bei der Vorhersage und Diagnose einer Krankheit hilft. In diesem Beitrag wird die Vorhersage von Krankheiten anhand von Symptomen mithilfe von maschinellem Lernen dargestellt. Machine-Learning-Algorithmen wie Naive Bayes, Decision Tree und Random Forest werden auf den bereitgestellten Datensatz angewendet und sagen die Krankheit voraus. Die Implementierung erfolgt über die Programmiersprache Python. Die Forschung zeigt den besten Algorithmus basierend auf ihrer Genauigkeit. Die Genauigkeit eines Algorithmus wird durch die Leistung des gegebenen Datensatzes bestimmt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5089-8_55 470000d6362d7aa3a2b9c717fc8c5d56;de;;;7.4.;;;Versteckte Rückkopplungsschleifen in maschinellen Lernsystemen: Ein Simulationsmodell und vorläufige Ergebnisse In diesem Konzeptpapier untersuchen wir einige der Aspekte der Qualität von kontinuierlich lernenden Systemen der künstlichen Intelligenz, wenn sie mit ihrer Umgebung interagieren und diese beeinflussen. Wir untersuchen ein wichtiges Problem impliziter Feedbackschleifen, das in Empfehlungssystemen, Webbulletins und Preisschätzungssystemen auftritt. Wir demonstrieren, wie Feedbackschleifen in das Nutzerverhalten eingreifen, an einem beispielhaften System zur Vorhersage von Immobilienpreisen. Anhand eines vorläufigen Modells zeigen wir hinreichende Existenzbedingungen beim Auftreten solcher Rückkopplungsschleifen auf und diskutieren mögliche Lösungsansätze.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-65854-0_5 96a044d009c078c9e50bb98af421990d;de;;;7.4.;;;Evolution-In-Materio: Klassifikationsprobleme beim maschinellen Lernen mithilfe von Materialien lösen Evolution-in-materio (EIM) ist eine Methode, die künstliche Evolution nutzt, um die Eigenschaften physikalischer Materie zu nutzen, um Rechenprobleme zu lösen, ohne dass ein detailliertes Verständnis dieser Eigenschaften erforderlich ist. EIM wurde bisher auf sehr wenige Rechenprobleme angewendet. Wir zeigen, dass es mit einer speziell entwickelten Hardwareplattform namens Mecobo möglich ist, Spannungen und Signale zu entwickeln, die an physikalische Materialien angelegt werden, um Klassifikationsprobleme beim maschinellen Lernen zu lösen. Dies ist das erste Mal, dass EIM auf solche Probleme angewendet wird. Wir evaluieren den Ansatz anhand von zwei Standarddatensätzen: Linsen und Iris. Der Vergleich unserer Technik mit einer bekannten softwarebasierten evolutionären Methode zeigt, dass EIM einigermaßen gut funktioniert. Wir schlagen vor, dass EIM eine vielversprechende neue Richtung für evolutionäre Berechnungen bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10762-2_71 2f15457be7db94310d04f57926920221;de;;;7.4.;;;Auf maschinellem Lernen basierende Bitcoin-Adressklassifizierung Eine Bitcoin-Adresse ist für den Handel und die Aufrechterhaltung der Pseudonymität für den Besitzer erforderlich. Durch die Ausnutzung dieser Pseudonymität werden weltweit verschiedene illegale Aktivitäten durchgeführt. Um illegale Transaktionen zu erkennen und abzuschrecken, schlägt dieses Papier eine Methode zur Identifizierung der Merkmale von Bitcoin-Adressen im Zusammenhang mit illegalen Transaktionen vor. Wir haben 80 Funktionen aus Bitcoin-Transaktionen extrahiert. Mit maschinellen Lerntechniken kategorisierten wir erfolgreich Adressen, die mit illegalen Aktivitäten in Verbindung stehen, mit a;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9213-3_40 209096fad7697eccc3fc688ac24221d0;de;;;7.4.;;;Auf maschinellem Lernen basierende Vorhersage von H1N1 und saisonaler Grippeimpfung Die H1N1-Grippe, die 2009 auftrat, hatte einen großen Einfluss auf das Leben von Menschen auf der ganzen Welt. Es war eine lebensbedrohliche Jahreszeit für Hunderte von Menschen, die hauptsächlich unter 65 Jahre alt waren, was die Weltgesundheitsorganisation (WHO) schließlich dazu brachte, sie zur größten Pandemie seit mehr als 40 Jahren zu erklären. Um den Impfstatus herauszufinden, wurde in den USA ein National H1N1 Grippe Survey (NHFS) 2009 durchgeführt. In diesem Artikel wurden die Daten aus der obigen Umfrage verwendet, um ein Modell zu entwickeln, das vorhersagt, wie wahrscheinlich Menschen H1N1 und saisonale Grippeimpfstoffe erhalten. Zu diesem Zweck werden verschiedene Modelle des maschinellen Lernens (ML) und des künstlichen neuronalen Netzes (KNN) verwendet, um die Wahrscheinlichkeit zu bestimmen, mit der eine Person H1N1- und saisonale Grippe-Impfstoffe erhält.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0401-0_11 54e79820fbc9ca74bab4a13eeb9f038e;de;;;7.4.;;;Prognose der Überlebenszeit von Patienten mit anaplastischem Schilddrüsenkarzinom mit maschinellem Lernen Das anaplastische Schilddrüsenkarzinom ist ein seltener, aber sehr aggressiver Tumor. Es wurden viele Faktoren vorgeschlagen, die das Überleben der Patienten beeinflussen könnten. Ziel dieser Studie war es herauszufinden, welche der zum Zeitpunkt der Aufnahme ins Krankenhaus bekannten Faktoren das Überleben der Patienten mit anaplastischem Schilddrüsenkarzinom vorhersagen können. Unser Ziel war es auch, die relative Bedeutung der Faktoren zu bewerten und potenziell nützliche Entscheidungs- und Regressionsbäume zu identifizieren, die durch maschinelle Lernalgorithmen generiert werden. Unsere Studie umfasste 126 Patienten mit anaplastischem Schilddrüsenkarzinom, die von 1972 bis 1992 am Institut für Onkologie Ljubljana behandelt wurden. In diesem Kapitel vergleichen wir den Ansatz des maschinellen Lernens mit früheren statistischen Auswertungen des Problems (univariate und multivariate Analyse) und zeigen, dass er eine gründlichere Analyse und ein besseres Verständnis der Daten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-6059-3_7 2c6ca395a1c58ecc3b566f5765648d51;de;;;7.4.;;;Zufriedenheitsanalyse der Lernenden mit Ansätzen des maschinellen Lernens In dieser wettbewerbsorientierten Welt stehen die Hochschulen vor der Herausforderung, ihre Leistungen in Bezug auf den Lehr-Lern-Prozess wirklich zu analysieren. Lehrer und Schüler sollen sich gegenseitig verantworten. Um die Lehr-Lern-Leistung zu analysieren, ist das Feedback ein sehr grundlegendes und wesentliches Instrument. Hier präsentieren wir eine Schüler-Feedback-Analyse bezüglich des Dozenten oder Erziehers unter Verwendung von maschinellen Lernalgorithmen. In diesem Papier haben wir zunächst die Feedbackdaten der Universitätsstudenten gruppiert, um mithilfe von Clustering-Algorithmen wie K-Means und EM (Erwartungsmaximierung) ein nützliches Muster zu erhalten, und das beste ausgewählt. Nachdem wir die Cluster aus dem Feedback-Datensatz gefunden haben, haben wir drei Kategorien als befriedigend, neutral und unbefriedigend zugeordnet und sie als Klassenlabels für Klassifizierungszwecke verwendet. Wir haben Naive Bayes, Multilayer Perceptron Neural Network, Random Forest (RF) und Support Vector Machine (SVM)-Klassifikatoren angewendet und festgestellt, dass Naive Bayes im Vergleich zu den anderen Klassifikatoren die höchste Genauigkeit, Präzision und Erinnerungswerte erzielt. Die hier erzielten Ergebnisse zeigen, dass die Zufriedenheit der Schüler mit einem bestimmten Dozenten im Vergleich zu anderen Dozenten weniger positiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1813-9_24 c931b4f363ca0ce20e34f539a212ae91;de;;;7.4.;;;Prädiktive Analyse des Wiederauftretens von Lungenkrebs Der Artikel befasst sich mit der prädiktiven Analyse des Wiederauftretens von Lungenkrebs auf der Grundlage von Genexpressionsdaten für nicht-kleinzelliges Lungenkrebskarzinom unter Verwendung von Data Mining und maschinellen Lerntechniken. Die Vorhersage ist einer der wichtigsten Faktoren in der statistischen Analyse. Prädiktive Analyse ist ein Begriff, der eine Vielzahl statistischer und analytischer Techniken beschreibt, die verwendet werden, um Modelle zu entwickeln, die zukünftige Ereignisse oder Verhaltensweisen vorhersagen. Die Vorhersage des Wiederauftretens von Krebs ist für viele Forscher ein schwieriges Problem. Die vorgeschlagene Methode umfasst vier Phasen: Datensammlung, Genselektion, Design des Klassifikatormodells, statistische Parameterberechnung und schließlich der Vergleich mit früheren Ergebnissen. Der Hauptteil der Methode ist die Genselektion und -klassifikation. Für die statistische Analyse des Wiederauftretens von Lungenkrebs wird ein Hybridverfahren zur Genselektion und -klassifikation verwendet. Für diese Arbeit werden die am besten geeigneten Techniken auf der Grundlage vergleichender Analysen verschiedener Klassifikationsverfahren und Optimierungstechniken verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22709-7_27 7f108a34188e2df7222c1160ae6dac7b;de;;;7.4.;;;Einbetten von Zeitreihendaten zur Klassifizierung Wir schlagen einen Ansatz vor, um Zeitreihendaten basierend auf den Distanzen aus Dynamic Time Warping (DTW) in einen Vektorraum einzubetten und sie im eingebetteten Raum zu klassifizieren. Unter der Problemstellung, in der sowohl beschriftete Daten als auch unbeschriftete Daten im Voraus angegeben werden, betrachten wir drei Einbettungen, die Einbettung in einen euklidischen Raum durch MDS, die Einbettung in einen pseudoeuklidischen Raum und die Einbettung in einen euklidischen Raum durch die Laplacesche Eigenabbildungstechnik.;-;-;-;https://link.springer.com/chapter/10.1007/11510888_35 809e1fe2efce3f036c055e56f3a9707d;de;;;7.4.;;;Zur Funktionsauswahl in der Big-Data-Vorverarbeitung basierend auf einem hybriden Cloud-basierten Modell In letzter Zeit sind Big Data in vielen Bereichen wie maschinellem Lernen, Mustererkennung, Medizin, Finanzen und Transportwesen weit verbreitet. Die Datenanalyse ist entscheidend für die Umwandlung von Daten in spezifischere Informationen, die den Entscheidungssystemen zugeführt werden. Mit den vielfältigen und komplexen Arten von Datensätzen wird die Wissensentdeckung schwieriger. Eine Lösung besteht darin, eine Vorverarbeitung der Merkmalsteilmengenauswahl zu verwenden, die diese Komplexität reduziert, so dass die Berechnung und Analyse bequem werden. Die Vorverarbeitung erzeugt eine zuverlässige und geeignete Quelle für jeden Data-Mining-Algorithmus. Die Auswahl der effektiven Funktionen kann die Leistung eines Modells verbessern und uns helfen, die Eigenschaften und die zugrunde liegende Struktur komplexer Daten zu verstehen. Diese Studie stellt ein neuartiges cloudbasiertes Modell zur hybriden Merkmalsauswahl für unausgeglichene Daten vor, das auf der;-;-;-;https://link.springer.com/article/10.1007/s11227-021-03970-7 1980f0ba859ae1224327eed49e185029;de;;;7.4.;;;Mit einem Chatbot auf Italienisch über KI sprechen: Ein Prototyp eines Frage-Antwort-Agenten Das Sprechen mit Chatbots und Frage-Antwort-Schnittstellen ist heutzutage für die meisten Menschen üblich, die ein digitales Gerät verwenden. Auf künstlicher Intelligenz basierende Lösungen zur Erstellung von Chatbots sind auf dem Markt verfügbar und werden von allen großen Playern wie IBM, Microsoft, Google und Amazon bereitgestellt. Chatbots können sich durch die Art des Korpus, auf den sie sich verlassen, die Art der Fragen, für die sie sich eignen, die Algorithmen und die Fähigkeit, zu lernen und ihre Wissensbasis zu erweitern, unterscheiden. Darüber hinaus unterscheiden sie sich in der Sprache, wobei englische Chatbots im Durchschnitt die leistungsstärksten sind. In diesem Beitrag stellen wir ConversIAmo vor, einen Chatbot-Prototyp, der darauf ausgelegt ist, auf Italienisch Fragen zu einführenden Konzepten zur Künstlichen Intelligenz zu beantworten. Die Natural Language Processing Pipeline baut auf der IBM Watson Suite auf und implementiert weitere Module zur Verbesserung der Antwortauswahl und -reihenfolge sowie zur Erweiterung der Wissensbasis. Die Ergebnisse sind ermutigend, insbesondere im Hinblick auf die Reihenfolge der richtigen Antworten. Das Papier beschreibt den Frage-Antwort-Datensatz, den ersten in diesem Bereich, und skizziert den Dialogablauf und den Beantwortungsprozess.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-62365-4_34 48c8cc7b8dfcd5ff760876627d6d29ae;de;;;7.4.;;;Inertialsensor-Fusion zur Gangerkennung mit symmetrischer positiv-definitiver Gaußscher Kernelanalyse Die tragbare sensorbasierte Gangerkennung stößt auf großes Interesse, da sie unauffällig und benutzerfreundlich ist. Auf diesem Gebiet wurde viel geforscht, aber konventionelle Gangerkennungsverfahren sind nicht frei von Nachteilen. In diesem Artikel werden Beschleunigungsmesser- und Gyroskopsignale, die Gangbewegungen darstellen, unter Verwendung von Kovarianzmatrizen kodiert. Die Kovarianzmatrizen liefern eine kompakte und beschreibende Darstellung für die Beschleunigungsmesser- und Gyroskopsignale. Nicht-singuläre Kovarianzmatrizen sind von Natur aus symmetrische positive Definitionsmatrizen (SPD). Die Interpretation solcher SPD-Matrizen als Punkte auf der Riemannschen Mannigfaltigkeit führt zu einer erhöhten Leistung. Die direkte geodätische Distanzberechnung für die Matrixmannigfaltigkeit kann jedoch zu einem suboptimalen Ergebnis führen. Das vorgeschlagene Verfahren löst dieses Problem durch Einbetten der mannigfaltig bewerteten Punkte in einen höherdimensionalen reproduzierenden Kernel-Hilbert-Raum (RKHS) über Positive Definite Gaussian Kernel-Funktionen. Umfangreiche Experimente wurden mit drei anspruchsvollen Benchmark-Datensätzen und einem selbst gesammelten Datensatz durchgeführt. Die Versuchsergebnisse belegen die Leistungsfähigkeit des vorgeschlagenen RKHS-Einbettungsansatzes.;-;-;-;https://link.springer.com/article/10.1007/s11042-020-09438-9 bac8fb5cb100020b2d84e00a633f1068;de;;;7.4.;;;Python und OpenCV in der Automatisierung der Live-Überwachung Bilderkennung und Merkmalserkennung wurden in den letzten Tagen vielfach eingesetzt. Mit der wachsenden Popularität von Python und der Vereinfachung der Automatisierung können wir die Live-Überwachung in die Domäne bringen. Heutzutage erfordert die Situation mit Sektoren wie dem Bankwesen aufgrund ihrer zunehmenden Bedeutung ein hohes Maß an Sicherheit. Besonders an entfernten Standorten, an denen Dienste wie Geldautomaten bereitgestellt werden, wird der Sicherheitsfaktor zu einem Hauptanliegen. Durch die Automatisierung der Überwachung wird es einen effizienten Weg geben, den Stress auf die Sicherheit zu reduzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1884-3_22 6a39b568f34e9c4eb7dff00a9d90a502;de;;;7.4.;;;TV-Programm Retrieval und Klassifikation: Ein Vergleich von Ansätzen basierend auf Machine Learning Elektronische Programmführer (EPGs) sind Systeme, die es Benutzern von Medienanwendungen wie Web-TVs ermöglichen, durch Planungsinformationen über aktuelle und kommende Programme zu navigieren. Personalisierte EPGs helfen Benutzern, die Informationsüberflutung in diesem Bereich zu überwinden, indem sie Empfehlungssysteme nutzen, die basierend auf implizit oder explizit definierten Benutzerpräferenzen automatisch Listen neuartiger und vielfältiger Video-Assets zusammenstellen. In diesem Artikel stellen wir das Konzept des persönlichen Kanals vor, auf dem personalisierte EPGs basieren und den Benutzern potenziell interessante Programme und Videos bieten, indem sie Programmgenres (Dokumentarfilm, Sport, …) und kurze Textbeschreibungen von Programmen nutzen, um sie zu finden und zu kategorisieren . Wir untersuchen das Problem der Einführung geeigneter Algorithmen für die Klassifizierung und das Abrufen von Fernsehprogrammen im Rahmen des Aufbaus von persönlichen Kanälen, was aufgrund des verfügbaren kurzen Textes schwieriger ist als eine klassische Such- oder Klassifizierungsaufgabe. Der vorgeschlagene Ansatz zur Überwindung dieses Problems besteht in der Einführung einer neuen Feature-Generierungstechnik, die die textuellen Programmbeschreibungen mit zusätzlichen Features aus Wikipedia anreichert. Die Ergebnisse der Experimente zeigen, dass unser Ansatz die Retrieval-Performance tatsächlich verbessert, während ein begrenzter positiver Effekt auf die Klassifikationsgenauigkeit beobachtet wird.;-;-;-;https://link.springer.com/article/10.1007/s10796-017-9780-0 f51ef77c78b71369b49c2680b58aa20e;de;;;7.4.;;;Modelle für maschinelles Lernen Da viele stilometrische Anwendungen zuerst den charakteristischen Stil verschiedener Kategorien oder Autoren lernen und darstellen müssen, wurden mehrere maschinelle Lernalgorithmen vorgeschlagen, um die Probleme der Autorenzuordnung oder der Profilerstellung zu lösen. Dieses sechste Kapitel stellt vier wichtige Modelle vor. Basierend auf der Vektorraumdarstellung basiert das k-nächste Nachbarn (k-NN)-Modell auf einem Abstands- (oder Ähnlichkeits-) Maß, das zwischen dem zweifelhaften Text und entweder den verschiedenen Kategorien (profilbasiert) oder allen Texten (instanzbasiert) berechnet wird. . Die nächsten oder die k nächsten Instanzen werden dann verwendet, um die vorgeschlagene Entscheidung zu definieren. Beim naiven Bayes-Modell wird die Wahrscheinlichkeitstheorie verwendet, um das Auftreten jedes ausgewählten stilistischen Markers gemäß den verschiedenen Kategorien zu schätzen. Aus dem Abfragetext berechnet das Modell die Wahrscheinlichkeit jeder Klasse, um die wahrscheinlichste zu bestimmen. Bei einem komplexeren Ansatz definiert die Support Vector Machine (SVM) eine lineare Grenze, die den Trainingssatz in zwei unterschiedliche Bereiche aufteilt, einen für jede Kategorie. Ausgehend von dieser Darstellung wird der zweifelhafte Text in diesen Raum projiziert und seine Position bestimmt seine Zuschreibung. Schließlich wird die logistische Regression als ein Ansatz beschrieben, um die Wahrscheinlichkeit zu schätzen, dass ein Abfragetext zu einer bestimmten Klasse gehört. Da der praktische Aspekt wichtig ist, um ein klares Verständnis all dieser Methoden zu erlangen, werden in R geschriebene Beispiele bereitgestellt, die in der Regel die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-53360-1_6 1c1124b52a21721ab6634a368804e56e;de;;;7.4.;;;Datenbankdesign regionaler musikcharakteristischer Kulturressourcen basierend auf einem verbesserten neuronalen Netzwerk im Data Mining Mit der Verbesserung des Lebensstandards wurde die Musik-Anerkennungs-Kunst allmählich zum Streben der Menschen. Als wichtiger Bestandteil der Musikressourcen ist regionale Musik ein unverzichtbarer Schatz der Musikgenusskunst. Die regionale Musikkultur mit ihrem einzigartigen Charme beeinflusst ständig das Musikverständnis der modernen Menschen. Das vollständige Erlernen der regionalen Musikkultur ist der Schlüssel, um die traditionelle Kultur weiterzuführen. Als wichtiger Teil des kulturellen Schatzhauses fehlt den für die Musik typischen Kulturressourcen jedoch eine angemessene digitale Speicherung. Daher ist eine angemessene und ausreichende Gewinnung von Daten zu charakteristischen kulturellen Ressourcen der regionalen Musik von großer Bedeutung für den Schutz der charakteristischen regionalen Kultur. In diesem Beitrag wird die Datenbank der charakteristischen Ressourcen für regionale Kultur und Musik durch Data-Mining-Technologie erstellt. Gleichzeitig kombiniert mit dem verbesserten neuronalen Netzmodell von BP, um die regional charakteristischen Musik- und Kulturressourcendaten zu klassifizieren. Um die für die Musik typischen kulturellen Ressourcen der Region zu schützen und zu verbreiten, wird eine Datenbank mit Klassifikation, Suche, Hörprobe und Speicherung eingerichtet. Schließlich liefert es neue Ideen für das kulturelle Erbe und das kulturelle Erbe.;-;-;-;https://link.springer.com/article/10.1007/s00779-019-01335-9 d856509eed773a3f0061a45356febd94;de;;;7.4.;;;Hirnforschung und willkürliche Multiskalen-Quantenunsicherheit Die Tatsache, dass wir Geräte bauen können, die dieselben grundlegenden Operationen ausführen wie die des Nervensystems, führt zu der unvermeidlichen Schlussfolgerung, dass wir in der Lage sein sollten, ganze Systeme auf der Grundlage der vom Nervensystem verwendeten Netzwerkorganisationsprinzipien zu bauen. Nichtsdestotrotz ist das menschliche Gehirn mindestens um den Faktor 1 Milliarde effizienter als unsere heutige digitale Technologie und um den Faktor 10 Millionen effizienter als die beste digitale Technologie, die wir uns vorstellen können. Die unvermeidliche Schlussfolgerung ist, dass wir vom Gehirn und der Neurobiologie noch etwas grundlegendes über neue Wege und viel effektivere Formen der Berechnung lernen müssen. Um neue Erkenntnisse zum Multiskalen-Systemunsicherheitsmanagement zu gewinnen, werden drei spezifische Interpretationen des Heisenbergschen Unsicherheitsprinzips vorgestellt und diskutiert, auch auf makroskaliger Ebene. Um komplexe, beliebige mehrskalige Systemprobleme durch fortschrittliches Deep Learning und Deep Thinking Systeme zu lösen, benötigen wir einen einheitlichen, integrierten, praktischen und universellen Darstellungsrahmen, der nicht nur Informationen über die statistische Mannigfaltigkeit der Modellzustände, sondern auch über die kombinatorischen Mannigfaltigkeit von diskreten, gerichteten Energiegeneratoren auf niedriger Ebene. Das Verständnis dieser tiefen Denkebene ist entscheidend, um hoch wettbewerbsfähige, zuverlässige und effektive menschzentrierte symbiotische autonome Systeme zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1398-5_11 da3ebd3c570a08908273dd980a720dd7;de;;;7.4.;;;Mit Fuzzy Modeling den Weg zu erklärbarer Künstlicher Intelligenz ebnen Erklärbare künstliche Intelligenz (XAI) ist ein relativ neuer Ansatz für KI mit besonderem Schwerpunkt auf der Fähigkeit von Maschinen, fundierte Motivationen für ihre Entscheidungen und ihr Verhalten zu geben. Da XAI menschzentriert ist, hat es enge Verbindungen zu Granular Computing (GrC) im Allgemeinen und Fuzzy Modeling (FM) im Besonderen. Obwohl FM ursprünglich konzipiert wurde, um Benutzern leicht verständliche Modelle zur Verfügung zu stellen, kann diese Eigenschaft jedoch nicht als selbstverständlich angesehen werden, sondern erfordert sorgfältige Designentscheidungen. Darüber hinaus erfordert die vollständige Integration von FM in XAI eine weitere Verarbeitung, wie beispielsweise Natural Language Generation (NLG), die Gegenstand aktueller Forschung ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-12544-8_17 b01300cdb5f05559a00bd9b1b1976999;de;;;7.4.;;;Klassifizierung der Stimmungsanalyse mit maschinellem Lernen Eine Anwendung der Computerlinguistik wird als Natural Language Processing oder NLP bezeichnet. Mit Hilfe von NLP kann der Text analysiert werden. Die Meinung einer Person, durch die Emotionen, Einstellungen und Gedanken kommuniziert werden können, wird als Sentiment bezeichnet. Die Umfragen von Menschen zu bestimmten Anlässen, Marken, Artikeln oder Organisationen können durch Sentiment-Analysen bekannt werden. Jede der Annahmen kann in drei eindeutige Kategorien eingeordnet werden, sie sind positiv, negativ und neutral. Twitter, die am weitesten verbreitete Microblogging-Webseite, wird verwendet, um die Informationen für die Durchführung von Analysen zu sammeln. Tweepy wird verwendet, um die Informationsquelle von Twitter zu extrahieren. Die Python-Sprache wird bei dieser Untersuchung verwendet, um den Klassifizierungsalgorithmus für die gesammelten Informationen auszuführen. Bei der Sentiment-Analyse werden zwei Schritte, nämlich Merkmalsextraktion und Klassifikationen, implementiert. Die Merkmale werden unter Verwendung einer N-Gramm-Modellierungstechnik extrahiert. Die Meinung wird in positiv, negativ und neutral eingeteilt, indem ein überwachter maschineller Lernalgorithmus verwendet wird. In dieser Forschungsarbeit werden Klassifikationsmodelle SVM (Support Vector Machine) und KNN (K-Nearest Neighbor) verwendet. Außerdem haben wir beide Vergleiche für die Sentimentanalyse gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-38040-3_8 42a391457acbddbb3481fce1a4357def;de;;;7.4.;;;Einschränkungen der Von-Neumann-Architektur Als Teil ihrer strategischen Ziele für die technologische Entwicklung will die Russische Föderation bis 2025 ultrahochproduktive Supercomputer-Technologien oder Exascale-Computing schaffen. Zu diesem Zweck ist es notwendig, die heimische Produktion hochproduktiver und vertrauenswürdiger Computerhilfen effektiv zu entwickeln, um physische Einschränkungen zu überwinden overcome in Bezug auf Energieverbrauch, Zuverlässigkeit und strukturelle Dimension moderner Prozessoren sowie die Entwicklung und Implementierung einer effektiven Organisation der Exascale-Berechnung. Zur Lösung dieser wissenschaftlich-technischen Probleme wird in russischen Forschungs- und Bildungseinrichtungen intensiv geforscht [1–5].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-79036-7_3 03504c932c52fefd829ab55ce8dfad74;de;;;7.4.;;;Lexikon-Randomisierung zur Erkennung von Beinahe-Duplikaten mit I-Match Die Erkennung von nahezu doppelten Dokumenten ist ein wichtiges Problem in vielen Data Mining- und Informationsfilteranwendungen. Angesichts riesiger Datenmengen sind herkömmliche Techniken, die auf einer direkten Ähnlichkeitsberechnung zwischen Dokumenten beruhen, angesichts der Zeit- und Speicherleistungsbeschränkungen oft nicht durchführbar. Auf der anderen Seite können auf Fingerabdruck basierende Verfahren wie I-Match, obwohl sie rechnerisch sehr attraktiv sind, selbst bei kleinen Störungen des Dokumentinhalts instabil sein, was eine Signaturfragmentierung verursacht. Wir konzentrieren uns auf I-Match und präsentieren eine auf Randomisierung basierende Technik zur Erhöhung der Signaturstabilität, wobei die vorgeschlagene Methode den traditionellen I-Match in Bezug auf die relative Verbesserung der Beinahe-Duplikatserinnerung um bis zu 40–60% übertrifft. Wichtig ist, dass die großen Gewinne bei der Erfassungsgenauigkeit nur durch kleine Erhöhungen der Rechenanforderungen ausgeglichen werden. Wir adressieren auch das komplementäre Problem der falschen Übereinstimmungen, das für I-Match besonders wichtig ist, wenn lange Dokumente mit Fingerabdrücken erfasst werden. Unsere Diskussion wird durch Experimente mit großen Webseiten- und E-Mail-Datensätzen unterstützt.;-;-;-;https://link.springer.com/article/10.1007/s11227-007-0171-z a3ccb2fb48ad163d68f9c85ba9e0a957;de;;;7.4.;;;Multiklassifizierung von Brustkrebs durch tiefes neuronales Netzwerk und hierarchischer Klassifikationsansatz Brustkrebs (BC) ist weltweit die dritthäufigste Todesursache bei Frauen. Im Allgemeinen werden histopathologische Bilder für eine frühe Diagnose und detaillierte Analyse von BC empfohlen. Daher sind moderne Klassifikationsmodelle für die frühe Vorhersage von BC anhand von histopathologischen Bildern erforderlich. Diese Studie zielt darauf ab, ein genaues und rechnerisch durchführbares Klassifikationsmodell namens Biopsy Microscopic Image Cancer Network (BMIC_Net) zu entwickeln, um BC durch Deep Learning (DL) und hierarchischen Klassifikationsansatz in acht verschiedene Untertypen zu klassifizieren. Für Experimente wird der öffentlich verfügbare Datensatz BreakHis verwendet und in Trainings- und Testdatensatz aufgeteilt. Darüber hinaus wurde die Datenerweiterung nur am Trainingssatz durchgeführt und 4096 ergebnisorientierte Merkmale wurden durch DL extrahiert. Um die Klassifikationsleistung zu verbessern, wurden Merkmalsreduktionsschemata experimentiert, um die diskriminierendste Merkmalsteilmenge zu ermitteln. Schließlich wurden sechs maschinelle Lernalgorithmen analysiert, um die besten Ergebnisse zu erzielen. Die experimentellen Ergebnisse zeigten, dass BMIC_Net bestehende Basismodelle übertraf, indem es die höchste Genauigkeit von 95,48 % für Klassifikatoren der ersten Ebene und 94,62 % und 92,45 % für Klassifikatoren der zweiten Ebene erreichte. Somit kann dieses Modell auf einem normalen Desktop-Computer in jedem Gesundheitszentrum in weniger privilegierten Gebieten in Entwicklungsländern eingesetzt werden, um als Zweitmeinung für die Brustkrebsklassifikation zu dienen.;-;-;-;https://link.springer.com/article/10.1007/s11042-019-7525-4 1d6da57e4bc398a630b2edbf88e41079;de;;;7.4.;;;Kompakte Funktionen für die Stimmungsanalyse Diese Arbeit untersucht eine neuartige Methode zur Entwicklung von Funktionen für das maschinelle Lernen der Stimmungsanalyse und verwandter Aufgaben. Diese Aufgabe wird häufig mit einer „Bag of Words“-Darstellung angegangen – ein Merkmal für jedes in den Trainingsdaten angetroffene Wort –, das leicht Tausende von Merkmalen umfassen kann. Dieses Papier beschreibt eine Reihe von kompakten Merkmalen, die durch das Lernen von Punktzahlen für Wörter, das Aufteilen des Bereichs möglicher Punktzahlen in eine Anzahl von Klassen und das anschließende Generieren von Merkmalen basierend auf der Verteilung der bewerteten Wörter im Dokument über die Klassen entwickelt wurden. Dies ermöglicht ein effektives Erlernen von Stimmungen und verwandten Aufgaben mit 25 Funktionen. Tatsächlich war die Leistung mit diesen Funktionen sehr oft etwas besser als mit einer einfachen Wortschatzbasis. Diese enorme Reduzierung der Anzahl der Funktionen reduziert die Trainingszeit bei großen Datasets erheblich und ermöglicht die Verwendung viel größerer Datasets als bisher mit Ansätzen der Wortsammlung versucht, was die Leistung verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21043-3_18 b4eb11dedcd8a4af5e0d879d6dc1216b;de;;;7.4.;;;Kategorisiertes und integriertes Data Mining medizinischer Daten aus Sicht der Zufallsentdeckung In diesem Beitrag analysieren wir das Verfahren der computergestützten medizinischen Diagnostik auf der Grundlage gesammelter medizinischer Daten. Insbesondere konzentrieren wir uns auf Merkmale oder Faktoren, die eine ausreichende medizinische Diagnose beeinträchtigen. Um die Datenkomplexität zu reduzieren, führen wir die Kategorisierung medizinischer Daten ein. Die Daten werden in sechs Kategorien eingeteilt, um sie zu analysieren und Regelwerke für die medizinische Diagnose zu generieren. Wir analysieren die Beziehungen zwischen kategorisierten Datensätzen im Kontext der Zufallsentdeckung, wobei versteckte oder potenzielle Beziehungen zu einer verbesserten medizinischen Diagnose führen. Wir schlagen dann die Möglichkeit vor, aus kategorisierten Daten abgeleitete Regelsätze zu integrieren, um die Genauigkeit der medizinischen Diagnose zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15393-8_35 bfd69775da00e75fece92a78194ed896;de;;;7.4.;;;Echte Anomalieerkennung in multidimensionalen Telekommunikationsdaten mithilfe von Data-Mining-Techniken Die enormen Datenmengen werden von Telekommunikationsunternehmen generiert und gesammelt. Diese Daten umfassen Anrufdetaildaten, die die die Telekommunikationsnetze durchlaufenden Anrufe beschreiben, sowie Netz- und Kundendaten, die hauptsächlich Einkommen von Telekommunikationsunternehmen beschreiben. Die Datenmenge ist so groß, dass eine manuelle Analyse dieser Daten unmöglich ist. Die Notwendigkeit, solche großen Datenmengen automatisch zu verarbeiten, hat zur Entwicklung spezieller Algorithmen und Technologien wie Data Mining, intelligente Computeragenten, wissensbasierte Expertensysteme usw. geführt Identifizieren von Netzstörungen, sondern auch bei der Vorhersage der bevorzugten Richtungen von Kundenanrufen oder der Einnahmen der Unternehmen. Das Papier stellt ein Framework zur Erkennung echter Kommunikationsanomalien vor, das Data-Mining-Technologien unter Verwendung von OLAP-Würfeln verwendet, die für Telekommunikationsdaten entwickelt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16693-8_2 de5f897131e94a2158c03c8c59f59b5b;de;;;7.4.;;;Eine vergleichende Studie zu Krebsklassifizierungsmethoden unter Verwendung von Microarray-Genexpressionsprofilen Das Microarray-basierte Genexpressionsprofiling hat sich als effiziente Technik zur Krebsklassifizierung sowie zu Diagnose-, Prognose- und Behandlungszwecken herausgestellt. Die primäre Aufgabe der Mikroarray-Datenklassifizierung besteht darin, aus den gegebenen Mikroarray-Daten ein Rechenmodell zu bestimmen, das die Klasse der unbekannten Proben bestimmen kann. In letzter Zeit hat die Microarray-Technik sowohl im wissenschaftlichen als auch im industriellen Bereich an Attraktivität gewonnen. Es ist wichtig, die informativen Gene zu bestimmen, die den Krebs verursachen, um die Krebsfrüherkennung zu verbessern und eine wirksame Chemotherapie zu ermöglichen. Die Klassifizierung von Genexpressionsdaten von Krebs-Microarrays ist eine anspruchsvolle Aufgabe, da Microarray ein hochdimensionaler, niedriger Probendatensatz mit vielen verrauschten oder irrelevanten Genen und fehlenden Daten ist. Daher ist das Auffinden eines genauen und effektiven Ansatzes zur Krebsklassifizierung ein sehr wichtiges Thema im medizinischen Bereich. In diesem Artikel werden wir eine vergleichende Studie durchführen und die effektiven binären Klassifikationsansätze kategorisieren, die für das Genexpressionsprofil von Krebs-Mikroarrays angewendet wurden. Dann schließen wir mit der Identifizierung der genauesten Klassifikationsmethode ab, die die höchste Klassifikationsgenauigkeit zusammen mit der kleinsten Anzahl effektiver Gene aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-4585-18-7_44 6607da9ff801744bd80e6e9866341ca5;de;;;7.4.;;;End-to-End-Lernen der menschlichen Haltungserkennung mithilfe von Convolutional Neural Networks In den letzten Tagen gab es viele Anwendungen der menschlichen Haltungserkennung. In diesem Artikel schlagen wir einen neuen Algorithmus zur Schätzung der menschlichen Pose in Echtzeit vor, indem wir ein Paar neuronaler Faltungsnetzwerke zusammen mit einem Restriktor verwenden, um die menschliche Pose in der nächsten Sequenz vorherzusagen, und einen 3D-Posegenerator aus einer Bildsequenz verwenden in Echtzeit gefüttert oder aufgezeichnet. Dieser Algorithmus konzentriert sich auch darauf, dies in einer leichtgewichtigen Pipeline zu implementieren, die in leichtgewichtigen Systemen wie einer mobilen Plattform verwendet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4859-2_13 2e99aef11ae1f5f601c906984de5cd8b;de;;;7.4.;;;Der Einfluss von Künstlicher Intelligenz und Informationstechnologien auf die Effizienz des Wissensmanagements in modernen Organisationen: Eine systematische Überprüfung Im 21. Jahrhundert, mit der Entwicklung von Informationstechnologie und künstlicher Intelligenz, scheint das Wissensmanagement fortschrittlicher und ausgereifter zu sein. Wissensmanagement wird aufgrund seiner Vitalität für den Erfolg von Organisationen seit langem von mehreren Forschern aus Wissenschaft und Wirtschaft untersucht und diskutiert. Darüber hinaus haben viele führende Unternehmen auf der ganzen Welt mehrere Wissensmanagementpraktiken eingeführt, um sicherzustellen, dass sie in der heutigen wettbewerbsorientierten Geschäftswelt ihren Konkurrenten voraus sind. Daher suchen Unternehmen weiterhin nach Möglichkeiten, diese Praktiken des Wissensmanagements zu verbessern. Es wurden mehrere Studien durchgeführt, um ein tieferes Verständnis des jüngsten Forschungstrends von Wissensmanagementprozessen und seiner Best Practices in Organisationen zu erhalten. Dieses Thema erfordert jedoch weitere Untersuchungen aus anderen Perspektiven. Die meisten bisherigen Studien vernachlässigen die Untersuchung der Auswirkungen der Anwendung von Konzepten und Techniken der künstlichen Intelligenz (KI) und Informationstechnologie (IT) auf die Effizienz des Wissensmanagements insbesondere in modernen Organisationen. Diese Forschung überprüft und beleuchtet systematisch die aktuellen Wissensmanagementpraktiken, die sich auf IT- und KI-Mechanismen stützten, und ihre Auswirkungen auf moderne Organisationen sowie ihre Herausforderungen und Grenzen. Die aktuelle Forschung zielt darauf ab, eine fundierte Analyse von 15 (von 844) Forschungsarbeiten bereitzustellen, die in den letzten 10 Jahren, von 2009 bis 2019, in hochrangigen Zeitschriften und Konferenzbänden veröffentlicht wurden. Diese Übersichtsstudie kann als zentrale Referenz für Wissenschaftler angesehen werden, da sie füllt einige Lücken im Wissensmanagement, insbesondere in IT- und KI-bezogenen Studien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-47411-9_9 db5a1f0456870e8324fbb2cd699651ed;de;;;7.4.;;;Vorhersage der Arzneimittel-Ziel-Interaktion bei der Neupositionierung von Arzneimitteln basierend auf tiefem halbüberwachtem Lernen Die Neupositionierung oder Umnutzung von Medikamenten bezieht sich auf die Identifizierung neuer Indikationen für bestehende Medikamente und klinische Kandidaten. Die Vorhersage neuer Drug-Target-Interaktionen (DTIs) ist eine große Herausforderung bei der Neupositionierung von Medikamenten. Diese knifflige Aufgabe hängt von zwei Aspekten ab. Die Menge der verfügbaren Daten zu Arzneimitteln und Proteinen wächst exponentiell. Die bekannten interagierenden Wirkstoff-Target-Paare sind sehr selten. Außerdem ist es schwierig, die negativen Proben auszuwählen, da es keine experimentell bestätigten negativen Arzneimittel-Target-Wechselwirkungen gibt. Viele Berechnungsmethoden wurden vorgeschlagen, um diese Probleme anzugehen. Sie leiden jedoch unter der hohen Rate falsch positiver Vorhersagen, die zu biologisch interpretierbaren Fehlern führen. Um diesen Einschränkungen zu begegnen, schlagen wir in diesem Papier eine effiziente Berechnungsmethode vor, die auf tiefem semi-überwachtem Lernen (DeepSS-DTIs) basiert, die eine Kombination aus gestapelten Autoencodern und einem überwachten tiefen neuronalen Netzwerk ist. Das Ziel dieses Ansatzes ist es, potenzielle Wirkstoffziele und neue Wirkstoffindikationen vorherzusagen, indem groß angelegte chemogenomische Daten verwendet werden, während die Leistung der DTI-Vorhersage verbessert wird. Experimentelle Ergebnisse haben gezeigt, dass unser Ansatz modernste Techniken übertrifft. Tatsächlich wurde die vorgeschlagene Methode mit fünf maschinellen Lernalgorithmen verglichen, die alle auf dieselben Referenzdatensätze der DrugBank angewendet wurden. Die Gesamtgenauigkeitsleistung beträgt mehr als 98%. Darüber hinaus konnten mit den DeepSS-DTIs neue DTIs zwischen zugelassenen Medikamenten und Targets vorhergesagt werden. Die hochrangigen Kandidaten-DTIs, die von DeepSS-DTIs erhalten wurden, sind auch in der DrugBank-Datenbank und in der Literatur verifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-89743-1_27 0362ac4d9ec04788a67f0260b9bcfb71;de;;;7.4.;;;Genetischer Algorithmus zur Optimierung mehrerer Ziele bei der Wissensermittlung aus großen Datenbanken Knowledge Discovery in Databases (KDD) wird zunehmend als praktikables Werkzeug zum Sammeln, Analysieren und Treffen von Entscheidungen aus massiven Datensätzen akzeptiert. Obwohl viele ausgeklügelte Techniken von verschiedenen interdisziplinären Bereichen entwickelt werden, sind nur wenige von ihnen gut gerüstet, um multikriterielle Fragestellungen der KDD zu bewältigen. Es scheint eine neue Grenze der Forschungsrichtungen zu eröffnen. Die KDD-Themen wie Featureauswahl, Instanzauswahl, Rule Mining und Clustering beinhalten die gleichzeitige Optimierung mehrerer (möglicherweise widersprüchlicher) Ziele. Darüber hinaus ist die Berücksichtigung eines einzigen Kriteriums, wie bei den bestehenden Soft-Computing-Techniken, wie evolutionäre Algorithmen (EA), neuronale Netze (NN) und Partikelschwarmoptimierung (PSO) nicht ausreichend. Daher haben die KDD-Probleme erhebliche Aufmerksamkeit der etablierten multi-objektiven genetischen Algorithmen auf sich gezogen, um die identifizierbaren Ziele in KDD zu optimieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77467-9_1 2aff71f112f61f49fd1a0d6bc1449b5c;de;;;7.4.;;;Betrugserkennung in der Krankenversicherung Unser Papier bietet eine umfassende Studie zur Erkennung betrügerischer Ansprüche in der Krankenversicherung durch den Einsatz von maschinellen Lernalgorithmen. Durch die Verwendung des öffentlich zugänglichen Medicare-Datensatzes können wir in Fraud- und Non-Fraud-Anbieter einordnen. Darüber hinaus wird eine synthetische Minoritätsüberabtasttechnik verwendet, um das Klassenungleichgewichtsproblem zu vermeiden. Darüber hinaus wird ein hybrider Ansatz verwendet, der auf Clustering und Klassifikation basiert. Darüber hinaus haben wir andere maschinelle Lernalgorithmen verwendet, um die Effizienz des am besten geeigneten Algorithmus zu überprüfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9019-1_1 16fb3f0357e0392b28d2837c6551ef09;de;;;7.4.;;;Abschätzung der CT anhand von MR-Abdomenaufnahmen mit neuartigen generativen gegnerischen Netzwerken Die Computertomographie (CT) spielt eine Schlüsselrolle bei der Planung der Strahlentherapie und der PET-Schwächungskorrektur (AC). Die Magnetresonanz(MR)-Bildgebung hat einen besseren Weichgewebekontrast als die CT und hat keine ionisierende Strahlung, kann jedoch keine direkten Informationen über Photonenwechselwirkungen mit Gewebe liefern, die für die Strahlenbehandlungsplanung und AC erforderlich sind. Daher ist die Schätzung von synthetischen CT (sCT)-Bildern aus entsprechenden MR-Bildern und die Vermeidung von CT-Scans von großem Interesse, kann jedoch im Abdomen aufgrund einer Reihe von Gewebetypen und physiologischen Bewegungen eine besondere Herausforderung darstellen. Dazu entwerfen wir, inspiriert von Deep Learning, ein neuartiges Generative Adversarial Network (GAN)-Modell, das ResNet, U-Net und Auxiliary Classifier-Augmented GAN (kurz RU-ACGAN) organisch kombiniert. Die Bedeutung unserer Bemühungen ist dreifach: 1) Die Kombination von ResNet und U-Net, anstatt nur das U-Net, das üblicherweise in bestehenden bedingten GAN verwendet wurde, wird als generatives Netzwerk in RU-ACGAN herangezogen. Dies hat das Potenzial, genauere CTs zu erzeugen als bestehende Verfahren. 2) Das Hinzufügen des Klassifikators zum Diskriminanznetzwerk macht den Trainingsprozess des vorgeschlagenen Modells stabiler und kommt dadurch der Robustheit der sCT-Schätzung zugute. 3) Aufgrund der empfindlichen Architektur ist RU-ACGAN in der Lage, überlegene sCT mit nur einer begrenzten Menge an Trainingsdaten zu schätzen. Die experimentellen Studien an MR-CT-Paarbildern von zehn Probanden zeigen, dass das vorgeschlagene RU-ACGAN-Modell die potenzielle, nicht-lineare Übereinstimmung zwischen den MR- und CT-Bildern erfassen kann und somit die bessere Leistung bei der sCT-Schätzung für den Abdomen erzielt als viele andere anderen bestehenden Methoden.;-;-;-;https://link.springer.com/article/10.1007/s10723-020-09513-3 37eca854e7d80a2d867a00d900c81973;de;;;7.4.;;;Das zufällige neuronale Netzwerk in Preisvorhersagen Jeder macht gerne eine gute Vorhersage, insbesondere wenn es um persönliche Investitionen in Bezug auf Finanzen, Energie oder Zeit geht. Die Schwierigkeit besteht darin, eine Vorhersage zu treffen, die den Gewinn aus dem ursprünglichen Beitrag optimiert. Dies ist umso wichtiger, wenn Investitionen die Kernleistung eines Unternehmens oder einer Pensionskasse sind, die durch monatliche Beiträge generiert wird. Die Komplexität des Finanzwesens besteht darin, dass der menschliche Prädiktor andere Interessen oder Vorurteile haben kann als der menschliche Investor belohnen. In diesem Artikel wird das Random Neural Network in einer wiederkehrenden Konfiguration vorgestellt, die Vorhersagen zu Zeitreihendaten, insbesondere zu Preisen, macht. Das von der Gehirnstruktur und neuronalen Verbindungen inspirierte biologische Modell macht Vorhersagen vollständig auf früheren Daten aus der Zeitreihe und nicht auf Vorhersagen, die auf mehreren unkorrelierten Eingaben basieren. Das Modell wird anhand des Immobilien-, Aktien- und Fintech-Marktes validiert: 1) britische Immobilienpreise, 2) Börsenindexpreise, 3) Kryptowährungspreise. Experimentelle Ergebnisse zeigen, dass die vorgeschlagene Methode genaue Vorhersagen zu verschiedenen Anlageportfolios macht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-49161-1_26 642c3fa9e5cf3fad0d5ba356bf7a8d5b;de;;;7.4.;;;Wissensentdeckung und -erwerb aus unvollkommenen Informationen In diesem Kapitel wird die Problematik der unvollkommenen Information in den Bereichen Wissensentdeckung in Datenbanken (KDD) und Wissenserwerb für Expertensysteme (KA) diskutiert. Meine Perspektive zu diesen Themen ist eher ein Praktiker, der durch dringende Anwendungsbedürfnisse motiviert ist, und weniger ein Forscher, der von dem Wunsch motiviert ist, die Grenzen der Wissenschaft zu verschieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-6245-0_6 eec7fe6b98bdb861da166b2cb3cd2c2b;de;;;7.4.;;;Ensemble-basierte Geräuscherkennung: Geräuschbewertung und visuelle Leistungsbewertung Rauschfilterung wird am häufigsten in der Datenvorverarbeitung verwendet, um die Genauigkeit von induzierten Klassifikatoren zu verbessern. Der Fokus dieser Arbeit ist ein anderer: Unser Ziel ist es, verrauschte Instanzen zu erkennen, um das Datenverständnis, die Datenbereinigung und die Identifizierung von Ausreißern zu verbessern. Das Papier besteht aus drei Teilen. Der erste Teil stellt eine ensemblebasierte Noise-Ranking-Methodik zur expliziten Noise- und Ausreißeridentifizierung vor, genannt;-;-;-;https://link.springer.com/article/10.1007/s10618-012-0299-1 106b4d59a261957018567be8add4b803;de;;;7.4.;;;Integration einer nichtparametrischen Fuzzy-Klassifikation mit einem evolutionären Entwicklungs-Framework, um eine musikstimmungsbasierte Analyse und Komposition durchzuführen In den letzten Jahren wurden mehrere Ansätze entwickelt, um algorithmische Musikkomponisten zu schaffen. Die meisten existierenden Lösungen konzentrieren sich darauf, Musik zu komponieren, die dem Hörer theoretisch richtig oder interessant erscheint. Es gibt jedoch nur wenige Methoden, die auf eine gefühlsbasierte Musikkomposition abzielen: Musik zu erzeugen, die menschliche Emotionen ausdrückt. Die wenigen existierenden Methoden sind im Spektrum der Emotionen, die sie ausdrücken können (normalerweise auf zwei Dimensionen: Valenz und Erregung) sowie in der Ausgereiftheit der von ihnen komponierten Musik (meist monophon, nach übersetzungsbasierten, vordefinierten Vorlagen oder heuristischen Strukturen) ). In diesem Beitrag stellen wir einen neuen algorithmischen Rahmen für autonomen gefühlsbasierten Ausdruck und Komposition von Musik mit dem Titel MUSEC vor, der einen erweiterbaren Satz von sechs primären menschlichen Emotionen (z durch eine MIDI-Musikdatei und komponiert (erstellt) dann neue polyphone (Pseudo) thematische und abwechslungsreiche Musikstücke, die diese Emotionen ausdrücken. Im Gegensatz zu bestehenden Lösungen ist MUSEC: (i) ein Hybrid-Crossover zwischen überwachtem Lernen (;-;-;-;https://link.springer.com/article/10.1007/s00500-019-04503-4 2de73b49298703b5445754269cf892ed;de;;;7.4.;;;Deep Belief Convolutional Neural Network mit künstlicher Bilderzeugung durch GANs-basierte Diagnose von Pneumonie in radiologischen Proben des Pectoralis major In diesem Papier skizzieren wir eine vergleichende Klassifikation von Lungenentzündung mithilfe von Modellen des maschinellen Lernens und des Deep Learning. Bei den verwendeten Daten handelte es sich um den von Kermany (2018) zur Verfügung gestellten Datensatz von Thorax-Röntgenbildern zur Klassifizierung mit insgesamt 5863 Bildern mit 2 Klassen: normal und Pneumonie. Um das Klassenungleichgewicht zwischen normalen und Lungenentzündungsbildern zu korrigieren, verwenden wir General Adversarial Networks, um Bilder von Lungenentzündungen zu erzeugen. Die vergleichende Klassifikation basiert auf einem endgültigen Datensatz von 19.784 Bildern. Logistische Regression, SVC, KNN, Random Forest und andere Machine-Learning-Modelle wie XgBoost und CatBoost werden mit Deep-Learning-Modellen wie Mobile Net und VGG-16 verglichen. Das Modell des maschinellen Lernens basiert auf der Segmentierung von Blobs und erkennt den Unterschied zwischen Blobs von Lungenentzündung und normalen Personen. Schließlich wurde zu Klassifikationszwecken ein neues Deep-Learning-Modell mit Faltungs- und künstlichen neuronalen Netzen vorgeschlagen, das die Genauigkeit deutlich erhöht und einen Klassifikationsbericht aufweist, der sich am besten für die medizinische Analyse eignet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0749-3_75 d05a61f5c137c07d688de3d6834b1c02;de;;;7.4.;;;Ein neuartiger Ansatz zur Verbesserung der vietnamesischen Stimmungsklassifikation Die Stimmungsanalyse ist zu einer wesentlichen und grundlegenden Aufgabe in der Verarbeitung natürlicher Sprache geworden, die viele nützliche Anwendungen hat. Es gibt verschiedene Methoden zur Lösung des Sentiment-Klassifizierungsproblems unter Verwendung traditioneller Machine-Learning-Modelle, Deep Neural Networks und Transfer-Learning-Methoden. Für vietnamesische Sentimentklassifikationsprobleme ist es nach wie vor interessant, die Auswirkungen verschiedener Ensemble-Techniken und Deep-Learning-Ansätze zu verstehen, um das am besten geeignete Modell zu erstellen. Diese Arbeit zielt darauf ab, die vietnamesische Stimmungsklassifikation auf einem öffentlichen Datensatz zu untersuchen, der in der Vietnamese Sentiment Analysis Challenge 2019 verwendet wurde, und einem anderen großen Datensatz, nämlich „AISIA-Sent-002“, der von uns selbst auf den vietnamesischen E-Commerce-Websites gesammelt wurde. Wir untersuchen fünf verschiedene Ensemble-Schemata, darunter die klassischen Methoden (Uniform Weighting und Linear Ensemble) und die auf Merkmalswichtigkeit basierenden erweiterten Methoden (Gating Network, Squeeze-Excitation Network und Attention Network) für die vietnamesische Sentimentanalyse. Wir führen diese Ensemble-Techniken mit fünf individuellen Deep-Learning-Modellen durch: TextCNN, LSTM, GRU, LSTM + CNN und GRU + CNN. Umfangreiche Experimente an zwei Datensätzen zeigen, dass die Ensemble-Methoden deutlich besser abschneiden als jedes Einzelmodell und die Siegerlösung der Konkurrenz mit großem Abstand deutlich übertreffen. Schließlich möchten wir unsere Quellcodes veröffentlichen, um einen Beitrag zur aktuellen Forschungsgemeinschaft im Zusammenhang mit der Verarbeitung natürlicher Sprache zu leisten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-79463-7_9 9c43fa14e2d3305ed9cd04c907c2d144;de;;;7.4.;;;Data-Mining-Methoden und -Anwendungen In diesem Kapitel geben wir einen Überblick über den Prozess der Wissensentdeckung, einschließlich Datenhandhabung, Data-Mining-Methoden und -Software sowie aktuelle Forschungsaktivitäten. Die Einführung definiert und bietet einen allgemeinen Hintergrund für die Wissenssuche im Data Mining in Datenbanken. Insbesondere wird das Potenzial von Data Mining zur Verbesserung von Herstellungsprozessen in der Industrie diskutiert. Darauf folgt im zweiten Teil des Kapitels ein Überblick über den gesamten Prozess der Wissensfindung in Datenbanken.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-1-84628-288-1_36 870f67d17e725706eacddb5b2fd3e0bb;de;;;7.4.;;;Mining-Regeln zur Vorhersage von Anomalien im Versicherungsbereich aus unstrukturierten Daten basierend auf Data Mining Um der Versicherungsbranche zu helfen, Anomalien bei neuen Transaktionen durch Mining-Regeln aus einer großen Menge unstrukturierter Rohdaten vorherzusagen, wird ein vollständiges, effektives Rule-Mining-System benötigt. In diesem Beitrag werden unstrukturierte Daten zu Merkmalsvektoren verarbeitet, die dann geclustert werden. Cluster werden verwendet, um einen Baumklassifizierer zu konstruieren, der dazu beiträgt, den Merkmalsvektor erneut zu verarbeiten und Anomalieregeln zu extrahieren. Außerdem verfolgen wir unter Berücksichtigung der Schwäche eines einzelnen Prozesssystems eine Iterationsidee, d. h. wir iterieren die oben genannten Schritte mehrmals und garantieren so die Qualität der ermittelten Regeln. Im Gegensatz dazu konzentrieren wir uns nur auf die Informationen, die wir von vielen unstrukturierten Daten benötigen, wodurch der Umgang mit den gesamten unstrukturierten Daten vermieden wird. Außerdem kann ein Algorithmus zum Extrahieren unstrukturierter Daten in Kombination mit Data Mining eine bessere Wirkung erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33050-6_23 d2046822022f967119a3c2b3dca63d88;de;;;7.4.;;;Geologische Fazies-Modellierung basierend auf dem progressiven Wachstum von Generative Adversarial Networks (GANs) Geologische Faziesmodellierungen werden seit langem untersucht, um unterirdische Ressourcen vorherzusagen. In den letzten Jahren wurden Generative Adversarial Networks (GANs) als neue Methode zur geologischen Faziesmodellierung mit überraschend guten Ergebnissen eingesetzt. In herkömmlichen GANs werden jedoch alle Schichten gleichzeitig trainiert und die Skalen der geologischen Merkmale werden nicht berücksichtigt. In dieser Studie schlagen wir vor, GANs für die Faziesmodellierung zu trainieren, basierend auf einem neuen Trainingsprozess, nämlich dem progressiven Wachstum von GANs oder einem progressiven Trainingsprozess. Im fortschreitenden Trainingsprozess werden GANs Schicht für Schicht trainiert und geologische Merkmale werden von groben bis hin zu feinen Maßstäben erlernt. Wir trainieren auch ein GAN im konventionellen Trainingsprozess und vergleichen den konventionell trainierten Generator mit dem progressiv trainierten Generator basierend auf visueller Inspektion, mehrskaliger Wassersteindistanz (MS-SWD), mehrdimensionaler Skalierung (MDS) Plotvisualisierung, Fazies Proportions-, Variogramm- und Kanalkurven-, Breiten- und Längenmetriken. Das MS-SWD zeigt Realismus und Vielfalt der generierten Faziesmodelle und wird mit MDS kombiniert, um die Beziehung zwischen den Verteilungen der generierten und Trainingsfaziesmodelle zu visualisieren. Die konventionell und progressiv trainierten Generatoren haben beide sehr gute Leistungen bei allen Metriken. Der progressiv trainierte Generator verhält sich insbesondere auf den MS-SWD-, MDS-Plots und der erforderlichen Trainingszeit besser als der konventionell trainierte Generator. Die Trainingszeit für den progressiv trainierten Generator kann nur 39% derjenigen für den konventionell trainierten Generator betragen. Diese Studie zeigt die Überlegenheit des progressiven Trainingsprozesses gegenüber dem konventionellen in der geologischen Faziesmodellierung und bietet eine bessere Option für zukünftige GAN-bezogene Forschungen.;-;-;-;https://link.springer.com/article/10.1007/s10596-021-10059-w 5a338a017de037a2bc5edde4a61b065b;de;;;7.4.;;;Erkennung von Sicherheitslücken im Kommunikationsprotokoll durch formale Fuzz-Tests und maschinelles Lernen Netzwerkbasiertes Fuzz-Testen ist zu einem effektiven Mechanismus geworden, um die Sicherheit und Zuverlässigkeit von Kommunikationsprotokollsystemen zu gewährleisten. Fuzz-Tests werden jedoch immer noch ad-hoc mit erheblichem manuellen Aufwand durchgeführt, was hauptsächlich auf die Nichtverfügbarkeit des Protokollmodells zurückzuführen ist. In diesem Papier stellen wir unsere laufende Arbeit an der Entwicklung eines automatisierten und messbaren Protokoll-Fuzz-Testing-Ansatzes vor, der eine formal synthetisierte ungefähre formale Protokollspezifikation verwendet, um den Testprozess zu leiten. Wir verwenden das Finite-State-Machine-Protokollmodell und untersuchen zwei formale Methoden zur Protokollsynthese: einen aktiven Black-Box-Checking-Algorithmus mit nachweisbarer Optimalität und einen passiven Trace-Minimierungsalgorithmus, der weniger genau, aber viel effizienter ist. Wir präsentieren auch unsere vorläufigen Ergebnisse der Verwendung dieser Methode bei Implementierungen des MSN-Instant-Messaging-Protokolls: MSN-Clients Gaim (pidgin) und aMSN. Unsere Tests zeigen einige schwerwiegende Zuverlässigkeits- und Sicherheitsmängel, indem beide automatisch zum Absturz gebracht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68855-6_19 f122d9b641d365a34af02401b8726ac7;de;;;7.4.;;;Form-Semantics-Function – Ein Framework zum Entwerfen von visuellen Datendarstellungen für Visual Data Mining Visual Data Mining als Kunst und Wissenschaft, aus großen Datenmengen, die auf andere Weise unverständlich sind, sinnvolle Erkenntnisse zu gewinnen, erfordert konsistente visuelle Datendarstellungen (Informationsvisualisierungsmodelle). Der häufig gebrauchte Ausdruck Kunst der Informationsvisualisierung beschreibt die Situation treffend. Obwohl im Bereich der Informationsvisualisierung umfangreiche Arbeit geleistet wurde, ist es immer noch eine Herausforderung, die Methoden, Techniken und entsprechenden Werkzeuge herauszufinden, die das visuelle Data Mining einer bestimmten Art von Informationen unterstützen. Auch der Vergleich von Visualisierungstechniken über verschiedene Designs hinweg ist kein triviales Problem. In diesem Kapitel wird der Versuch eines konsistenten Ansatzes zur formalen Entwicklung, Bewertung und zum Vergleich von Visualisierungsmethoden vorgestellt. Die Anwendung des Ansatzes wird an Beispielen von Visualisierungsmodellen für Daten aus dem Bereich der Teamzusammenarbeit in virtuellen Umgebungen und aus den Ergebnissen der Textanalyse veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71080-6_3 97da232228e614c5131ff045e1394b52;de;;;7.4.;;;Rechnen mit Wörtern in Data Mining und Mustererkennung Herkömmliche Berechnungen basieren normalerweise auf der Manipulation von Zahlen und Symbolen. Es sind jedoch neue Methoden erforderlich, um mit den Wörtern und Aussagen aus natürlichen Sprachen (NL) umzugehen, da viele Probleme der realen Welt nur durch linguistische Messungen charakterisiert werden können. In diesem Beitrag geben wir einen Überblick über die jüngsten Fortschritte in der Erforschung des Computing with Words (CW). Die Anwendungen der CW-Technik beim Data Mining und der Mustererkennung werden ebenfalls kurz diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74282-1_32 29e4c15ff56be2e4e1b92312767678f4;de;;;7.4.;;;Data Mining für Fuzzy-Relational-Datenserver Im Artikel werden Methoden des Perception-based Data Mining (Data Miners DM) für Fuzzy-Relational-Datenserver betrachtet. Die Betrachtungsprobleme von DM werden durch Probleme der Clusterbildung und des Mining von Abhängigkeiten in Form von Fuzzy-Regeln begrenzt, da diese Probleme in der Praxis besonders wichtig sind. Der hybride Algorithmus des Fuzzy-Clustering und die Verwendungsweise eines Fuzzy-Inferenzsystems als DM für Fuzzy-Relational-Daten wird in dem Artikel vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72434-6_23 7cd061b766c754ccc6833bf79b43843c;de;;;7.4.;;;Eine Vergleichsstudie zur Bankenmarktprognose Die Marktprognose für Banken ist ein wichtiger Bereich der Data-Mining-Forschung. Im vorliegenden Szenario werden uns riesige Datenmengen von verschiedenen Bankinstituten zur Verfügung gestellt, aus denen wir jedoch noch keine aussagekräftigen Informationen gewinnen können. Data-Mining-Verfahren werden uns helfen, interessante Erkenntnisse aus diesem Datensatz zu gewinnen, um bei Marketingkampagnen von Banken zu helfen. Diese Arbeit führt in die Analyse und Anwendung der wichtigsten Techniken des Data Mining ein. In unserer Arbeit verwenden wir Multilayer Perception Neural Network (MLPNN), Decision Tree (DT) und Support Vector Machine (SVM). Ziel ist es, die Leistung von MLPNN-, DT- und SVM-Techniken anhand realer Daten zur Zeichnung von Bankeinlagen zu untersuchen. Die experimentellen Ergebnisse zeigen mit höherer Genauigkeit den Erfolg dieser Modelle bei der Vorhersage des besten Kampagnenkontakts mit den Kunden für die Zeichnung von Einlagen. Die Leistung wird durch einige bekannte statistische Maße wie Genauigkeit, quadratischer Mittelwertfehler, Kappa-Statistik, TP-Rate, FP-Rate, Präzision, Recall, F-Measure und ROC Area-Werte bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-96136-1_21 94bcd77922aeef9789dd1a83fe49c44d;de;;;7.4.;;;Deep semi-supervised Learning für virtuelles Screening basierend auf Big Data Analytics Heutzutage stehen Wissenschaftler und Forscher vor dem Problem der massiven Datenverarbeitung, die relativ viel Zeit und Kosten in Anspruch nimmt. Aus diesem Grund haben sich Forscher Deep Learning (DL)-Techniken zugewandt, die auf Big Data Analytics basieren. Andererseits hat die immer größer werdende Größe unmarkierter Daten in Kombination mit der Schwierigkeit, Klassenlabels zu erhalten, halbüberwachtes Lernen zu einer interessanten Alternative von erheblicher praktischer Bedeutung in der modernen Datenanalyse gemacht. Im gleichen Kontext hat die Wirkstoffforschung einen Zustand und eine Komplexität erreicht, die wir mit Deep Semi-Supervised Learning und Big Data Processing Systemen nicht mehr vermeiden können. Virtual Screening (VS) ist ein rechenintensiver Prozess, der in der frühen Phase der Wirkstoffforschung eine große Rolle spielt. Die VS muss so schnell wie möglich gemacht werden, um die Liganden aus riesigen Datenbanken effizient an einen ausgewählten Proteinrezeptor anzudocken. Aus diesen Gründen schlagen wir ein tiefes semi-überwachtes lernbasiertes algorithmisches Framework namens DeepSSL-VS vor, um den riesigen Satz von Liganden vorzufiltern, um ein virtuelles Screening auf den Brustkrebsproteinrezeptor effektiv durchzuführen. Letzteres kombiniert gestapelte Autoencoder und Deep Neural Network und wird mit der Spark-H2O-Plattform implementiert. Die vorgeschlagene Technik wurde mit 24 verschiedenen maschinellen Lernalgorithmen verglichen, die alle auf dieselben Referenzdatensätze angewendet wurden, und vorläufige Ergebnisse der Leistungsbewertung haben gezeigt, dass unser Ansatz diese Techniken mit einer Gesamtgenauigkeitsleistung von mehr als 99% übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-96292-4_14 6fd7593f79b91325c131d1101828c3ae;de;;;7.4.;;;Klassifikation des Schlachtkörperfettgehalts bei Mastrindern mit maschinellem Lernen Heutzutage steigt die weltweite Nachfrage nach Qualitätsrindfleisch. Auf diese Weise hat die Regierung des Bundesstaates Mato Grosso do Sul ein Anreizprogramm (Precoce MS) ins Leben gerufen, das die Erzeuger dazu anregt, sich in Produktionssysteme einzugliedern, die zur Schlachtung von Tieren in jungen Jahren und einer höheren Schlachtkörperqualität führen, um eine nachhaltigere Serienmodell. Diese Arbeit zielt darauf ab, ein Klassifizierungsmodell für den Schlachtkörperfettgrad unter Verwendung von maschinellen Lernalgorithmen zu erstellen und den Viehzüchtern Indikatoren zur Verfügung zu stellen, die ihnen helfen, die Rinder mit einer besseren Schlachtkörperveredelung frühzeitig zu beenden. Der Datensatz von Precoce MS enthält 29 verschiedene Merkmale mit kategorialen und diskreten Daten und einem Umfang von 1,05 Millionen Rinderschlachtaufzeichnungen. Im Data-Mining-Prozess wurden die Daten bereinigt, transformiert und reduziert, um Muster effizienter zu extrahieren. Im Schritt der Modellauswahl wurden die Daten in fünf verschiedene Datensätze unterteilt, um eine Kreuzvalidierung durchzuführen. Das Trainingsset erhalten;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58799-4_38 abdd5a5ebc2728e811e84716ab8740a4;de;;;7.4.;;;Ein neuartiger Klassifikator für multivariate Instanzen mit Graphklassensignaturen Anwendungen wie das Identifizieren verschiedener Kunden anhand ihres einzigartigen Kaufverhaltens, das Bestimmen von Bewertungen eines Produkts, die von Benutzern basierend auf verschiedenen Merkmalssätzen abgegeben werden, usw. erfordern eine Klassifizierung anhand klassenspezifischer Teilmengen von Merkmalen. Die meisten der vorhandenen modernen Klassifikatoren für multivariate Daten verwenden unabhängig von den unterschiedlichen Klassenbezeichnungen den vollständigen Funktionssatz zur Klassifizierung. Der Entscheidungsbaum-Klassifizierer kann klassenweise Teilmengen von Merkmalen erzeugen. Jedoch modelliert keiner dieser Klassifizierer die Beziehung zwischen Merkmalen, was die Klassifikationsgenauigkeit verbessern kann. Als Klassensignaturen bezeichnen wir die klassenspezifischen Teilmengen von Merkmalen und die Zusammenhänge der Merkmale. In dieser Arbeit schlagen wir vor, den ursprünglichen Eingaberaum multivariater Daten auf den Merkmalsraum abzubilden, der durch verbundene Graphen charakterisiert ist, da Graphen Entitäten, ihre Attribute und Beziehungen zwischen Attributen leicht modellieren können. Meist werden Entitäten mithilfe von Graphen modelliert, wobei Graphen natürlich vorkommen, zum Beispiel chemische Verbindungen. Graphen treten jedoch in multivariaten Daten nicht auf natürliche Weise auf. Daher ist das Extrahieren von Klassensignaturen aus multivariaten Daten eine anspruchsvolle Aufgabe. Wir schlagen einige Heuristiken zur Merkmalsauswahl vor, um klassenspezifische Signaturen von prominenten Untergraphen zu erhalten. Wir schlagen auch zwei Varianten von auf Klassensignaturen basierenden Klassifikatoren vor, nämlich: 1) maximale übereinstimmende Signatur (gMM) und 2) Punktzahl und Größe übereinstimmender Signaturen (gSM). Die Wirksamkeit des vorgeschlagenen Ansatzes an realen und synthetischen Datensätzen wurde untersucht und mit anderen etablierten Klassifikatoren verglichen. Experimentelle Ergebnisse bestätigen die Überlegenheit des vorgeschlagenen auf Klassensignaturen basierenden Klassifikators bei den meisten Datensätzen.;-;-;-;https://link.springer.com/article/10.1007/s11704-019-8263-5 f3f60f9d1422091b50454ca9493cb7e9;de;;;7.4.;;;"Privatsphäre entdecken Ich möchte gerne sagen, dass ich mich für Data Mining entschieden habe. Ich komme aus der Datenbank-Community, obwohl ich mit einer Dissertation über Datenbankunterstützung für Hypertext (während meiner Zeit an der Princeton University) nie wirklich ein ""Kerndatenbank""-Forscher war. Mit den Jahren (Bachelor und Master) am M.I.T. hatte ich auch mehr maschinelles Lernen als die meisten anderen. Dies führt zu meiner ersten echten „Data-Mining“-Arbeit (obwohl sie damals nicht so genannt wurde): Anwendung von Techniken des maschinellen Lernens auf ein Problem in heterogenen Datenbanken. Die Schemaintegration, oder genauer gesagt die Schemaelementübereinstimmung, weist alle Merkmale auf, die wir bei Problemen bei der Erkennung von guten Kenntnissen sehen:";-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28047-4_5 1fdbf855a8bd8f1d9d43286c42d1da0d;de;;;7.4.;;;Intrusion Detection basierend auf Convolutional Neural Network in komplexen Netzwerkumgebungen In diesem Beitrag schlagen wir eine Intrusion Detection Methode vor, die auf einem Convolutional Neural Network (CNN) für Intrusion Detection Systeme basiert. Beim Entwerfen eines Deep Intrusion Detection-Modells werden gängige Deep-Learning-Techniken wie Dropout-, Adam- und Softmax-Klassifizierer verwendet. Zunächst werden Klartextdaten maßlich korrigiert und in Graustufenbilder umgewandelt. Zweitens erhält das CNN-Modell die Merkmalskarte durch Lernen von Merkmalen. Schließlich wird die Merkmalskarte in den Softmax-Klassifizierer eingegeben, um die Erkennungsergebnisse zu erhalten. Die Methode wird auf TensorFlow implementiert und am Datensatz KDDCUP’99 getestet. Die Ergebnisse zeigen, dass das vorgeschlagene Modell schnell eine hohe Erkennungsgenauigkeit erreichen und die Echtzeiterkennungsanforderungen komplexer Netzwerksysteme erfüllen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0187-6_26 06c23d1016777e13c094c58a0c6020c2;de;;;7.4.;;;Eine lineare Beziehung zwischen Eingabe und erster Schicht in neuronalen Netzen Künstliche neuronale Netze wachsen mit der Anzahl der Anwendungen und der Komplexität, die für einige praktische Implementierungen eine Minimierung der Anzahl der Einheiten erfordern. Ein besonderes Problem ist die minimale Anzahl von Einheiten, die ein neuronales Feedforward-Netzwerk auf seiner ersten Schicht benötigt. Um dieses Problem zu untersuchen, wird eine Familie von Klassifikationsproblemen definiert, die einer Kontinuitätshypothese folgt, wobei Eingaben, die nahe an einer Punktmenge liegen, dieselbe Kategorie teilen können. Gegeben eine Menge;-;-;-;https://link.springer.com/article/10.1007/s10472-019-09657-3 870b6c8a816d1de869680220951dd691;de;;;7.4.;;;BEDNet: Bidirektionales Kantenerkennungsnetzwerk zur Erkennung der Meeresfront Ocean Front ist ein Ozeanphänomen, das wichtige Auswirkungen auf die Meeresökosysteme und die Meeresfischerei hat. Daher ist es von großer Bedeutung, die Erkennung von Meeresfronten zu untersuchen. Bisher wurden einige Methoden zur Erkennung von Meeresfronten vorgeschlagen. Bei diesen bestehenden Methoden gibt es jedoch hauptsächlich zwei Probleme: Zum einen fehlen beschriftete Datensätze zur Erkennung von Meeresfronten, und zum anderen gibt es keine Deep-Learning-Methoden, um die genaue Position von Meeresfronten zu lokalisieren. In diesem Papier entwerfen wir ein bidirektionales Kantenerkennungsnetzwerk (BEDNet), das auf unserem gesammelten Ozeanfrontdatensatz basiert, um diese beiden Probleme anzugehen. Der beschriftete Datensatz der Meeresfront heißt OFDS365 und besteht aus 365 Bildern, die auf dem Gradienten der Meeresoberflächentemperatur (SST) basieren, die an jedem Tag des Jahres 2014 aufgenommen wurden. BEDNet enthält hauptsächlich vier Stufen, einen Weg von flachen Stufen zu tiefen Stufen , und ein Weg von tiefen Stadien zu flachen Stadien, der eine bidirektionale Multiskalen-Informationsfusion erreichen kann. Darüber hinaus kombinieren wir die Würfel- und Kreuz-Entropie-Verlustfunktion, um unser Netzwerk zu trainieren und die feinkörnigen Ergebnisse der Ozeanfront-Erkennung zu erhalten. In den Experimenten zeigen wir, dass BEDNet im Vergleich zu anderen bestehenden Methoden eine bessere Leistung bei der Erkennung von Meeresfronten erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63820-7_35 8c3cb1f5cfdb6872db3086a61f94b76d;de;;;7.4.;;;Ähnlichkeitsbasiertes Clustering von Sequenzen mit Hidden-Markov-Modellen Hidden-Markov-Modelle stellen ein weit verbreitetes Werkzeug für die sequentielle Datenmodellierung dar, ihre Verwendung im Clustering-Kontext wurde jedoch nur unzureichend untersucht. In diesem Artikel wird ein neuartiges Schema für HMM-basiertes sequenzielles Datenclustering vorgeschlagen, inspiriert von dem ähnlichkeitsbasierten Paradigma, das kürzlich im Kontext des überwachten Lernens eingeführt wurde. Bei diesem Ansatz wird ein neuer Repräsentationsraum aufgebaut, in dem jedes Objekt durch den Vektor seiner Ähnlichkeiten in Bezug auf eine vorgegebene Menge anderer Objekte beschrieben wird. Diese Ähnlichkeiten werden mit Hidden-Markov-Modellen bestimmt. Die Clusterbildung wird dann in einem solchen Raum durchgeführt. Dadurch wird das schwierige Problem der Clusterbildung von Sequenzen auf ein handlicheres Format übertragen, die Clusterbildung von Punkten (Merkmalsvektoren). Die experimentelle Auswertung von synthetischen und realen Daten zeigt, dass der vorgeschlagene Ansatz Standard-HMM-Clustering-Schemata weit übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45065-3_8 82c790cbaff0d35ca79040ac81fd3609;de;;;7.4.;;;KI-Ethik: Wie kann Informationsethik einen Rahmen bieten, um übliche konzeptionelle Fallstricke zu vermeiden? Ein Überblick Künstliche Intelligenz (KI) spielt in der aktuellen Diskussion um Informations- und Kommunikationstechnologien (IKT) und neue Formen der algorithmischen Governance eine wichtige Rolle. Sie ist eine unvermeidliche Dimension der zukünftigen sozialen Vermittlungen und Reproduktionsweisen unserer Informationsgesellschaften. Während mehrere Arbeiten im Bereich der Ethik der künstlichen Intelligenz (AIE) ethische Fragen behandeln, die für bestimmte Fachgebiete spezifisch sind, bleiben diese ethischen Überlegungen oft auf enge Anwendungsbereiche beschränkt, ohne die globalen ethischen Fragen zu berücksichtigen, in die sie eingebettet sind. Wir schlagen daher vor, die wichtigsten Ansätze zur AIE, ihre philosophischen Annahmen und die spezifischen Merkmale jedes einzelnen zu klären, um den vielversprechendsten Ansatz zu identifizieren, um eine ethische Reflexion über den Einsatz von KI in unseren Gesellschaften zu entwickeln, und zwar den einen basierend auf der Informationsethik, wie sie von Luciano Floridi vorgeschlagen wurde. Wir werden die wichtigsten Merkmale dieses Ansatzes identifizieren, um Bereiche hervorzuheben, die einer weiteren Untersuchung bedürfen.;-;-;-;https://link.springer.com/article/10.1007/s00146-020-01077-w e1c6dc61fda49de841b9ada1bbccc3a9;de;;;7.4.;;;Machine-Learning-Ansatz zur Erkennung mehrerer Fehlverhaltensweisen in VANET Die Motivation hinter Vehicular Ad Hoc Networks (VANETs) besteht darin, die Verkehrssicherheit und Fahreffizienz zu verbessern. VANET-Anwendungen arbeiten nach dem Prinzip des periodischen Nachrichtenaustauschs zwischen Knoten. Ein bösartiger Knoten kann jedoch ungenaue Nachrichten übertragen, um unvermeidliche Situationen auszulösen. Jedes übertragene Paket enthält neben der Sicherheitsnachricht den Status des Absenders wie seine Identität, Position und Zeit des Sendens des Pakets. Ein sich schlecht benehmender Knoten kann jegliche Information manipulieren, die in dem verbreiteten Paket vorhanden ist. Gefälschte Nachrichten können vom Angreiferknoten selbst erstellt werden oder er kann einen anderen Knoten zwingen, gefälschte Nachrichten zu erstellen. In diesem Papier stellen wir einen Ansatz für maschinelles Lernen vor, um mehrere Fehlverhalten in VANET zu klassifizieren, indem wir konkrete und Verhaltensmerkmale jedes Knotens verwenden, der Sicherheitspakete sendet. Ein Sicherheits-Framework wurde entwickelt, um einen bösartigen Knoten von einem legitimen Knoten zu unterscheiden. Wir implementieren verschiedene Arten von Fehlverhalten in VANET, indem wir Informationen manipulieren, die im propagierten Paket vorhanden sind. Dieses Fehlverhalten wird auf der Grundlage vielfältiger Merkmale wie Geschwindigkeitsabweichung des Knotens, empfangene Signalstärke (RSS), Anzahl der gelieferten Pakete, verworfene Pakete usw. klassifiziert. Zwei Arten von Klassifizierungsgenauigkeiten werden gemessen: Binär und Mehrklassen. Bei der binären Klassifikation werden alle Arten von Fehlverhalten in einer einzigen „Fehlverhaltensklasse“ betrachtet, während die Mehrklassenklassifizierung Fehlverhalten in bestimmte Fehlverhaltensklassen kategorisieren kann. Merkmale von Paketsendeknoten werden extrahiert, indem Experimente im NCTUns-5.0-Simulator mit unterschiedlichen Simulationsszenarien durchgeführt werden (die Anzahl der legitimen und sich schlecht benehmenden Knoten variiert). Der vorgeschlagene Rahmen zur Klassifizierung von Fehlverhalten wird mit WEKA bewertet. Unser Ansatz ist effizient bei der Klassifizierung mehrerer Fehlverhalten im VANET-Szenario. Das Ergebnis des Experiments zeigt, dass Random Forest- und J-48-Klassifikatoren im Vergleich zu anderen Klassifikatoren besser abschneiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22720-2_68 1b96ab3d35695e57f9af8daa74b5dfb9;de;;;7.4.;;;Methoden des maschinellen Lernens gegen Geldwäsche bei Nicht-Bankkorrespondenten Die Aktivitäten der Geldwäsche sind das Ergebnis von Korruption, illegalen Aktivitäten und organisierter Kriminalität, die sich auf die soziale Dynamik auswirken und direkt und indirekt mehrere Gemeinschaften durch verschiedene Mechanismen an der Geldwäsche beteiligt haben. In diesem Artikel schlagen wir einen maschinellen Lernansatz zur Analyse verdächtiger Aktivitäten bei Nichtbank-Korrespondenten vor, einer Art Finanzagent, der einige Finanztransaktionen für bestimmte Bankkunden entwickelt. Dieser Artikel verwendet mehrere Algorithmen, um Anomalien in einem Transaktionssatz eines Nichtbank-Korrespondenten im Jahr 2019 für eine zwischengeschaltete Stadt in Kolumbien zu identifizieren. Unsere Ergebnisse zeigen, dass einige Methoden für diesen Fall besser geeignet sind als andere und erleichtern die Identifizierung von Anomalien und verdächtigen Transaktionen bei dieser Art von Finanzintermediär.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-61702-8_6 7e70fbe4e120e8798d28bd2a45e8ce1d;de;;;7.4.;;;Menschenerkennungstechniken für die Echtzeitüberwachung: eine umfassende Untersuchung Die Erkennung von Menschen in Echtzeit ist ein Thema der Evolutionsforschung. Es ist ein wesentlicher und prominenter Bestandteil verschiedener Vision-basierter Anwendungen. Die Erkennung von Menschen in Echtzeit-Videosequenzen ist aufgrund verschiedener Einschränkungen wie überladener Umgebung, Okklusion, Rauschen usw. eine mühsame und herausfordernde Aufgabe. Viele Forscher forschen auf diesem Gebiet und haben die Anzahl der Forschungen bisher veröffentlicht. Die Bestimmung von Menschen in visuellen Überwachungssystemen ist für verschiedene Arten von Anwendungen wie Personenerkennung und -identifizierung, Sturzerkennung für eine ältere Person, anormale Überwachung, Geschlechtsklassifizierung, Massenanalyse, Personengangcharakterisierung usw ein umfassender Überblick über die verschiedenen Herausforderungen und modernen Entwicklungen, die für menschliche Erkennungsmethoden in der Tagsicht gesehen wurden. Dieses Papier besteht aus einem Überblick über verschiedene Techniken zur Erkennung von Menschen und deren Klassifizierung basierend auf verschiedenen zugrunde liegenden Faktoren. Die algorithmischen Techniken mit ihrer Anwendbarkeit auf diese Techniken werden im Manuskript ausführlich erörtert. Für die vergleichende Analyse der einzelnen Methoden zur Erkennung von Menschen wurden auch verschiedene humanitäre zwingende Faktoren hervorgehoben. Unsere Umfrage zeigt den Unterschied zwischen aktueller Forschung und zukünftigen Anforderungen.;-;-;-;https://link.springer.com/article/10.1007/s11042-020-10103-4 080c7fe8171cc86347bbec70d6fe4ed6;de;;;7.4.;;;Leistungsbewertung verschiedener maschineller Lernalgorithmen für medizinische Entscheidungsunterstützungssysteme In jüngster Zeit hat die Bedeutung von Decision Support Systems (DSS) in verschiedenen Bereichen von Medizin über Gesundheitswesen, Finanzen bis hin zu Marketing zugenommen. Medical DSS (MDSS) ist ein heißes Forschungsthema, das den Ärzten hilft, eine bessere Methode zur Behandlung der Patienten auszuwählen. Bei MDSS handelt es sich um intelligente Softwaresysteme, die den Ärzten Entscheidungshilfen bieten. Heutzutage sind maschinelle Lernalgorithmen nützlich, um die Daten vorherzusagen, indem sie das vergangene Verhalten analysieren. Diese Forschungsarbeit hat den Versuch unternommen, die Leistung von drei Machine Learning (ML)-Modellen zu analysieren, nämlich radiale Basisfunktion (RBF), logistische Regression (LR) und Naive Bayes (NB) Modelle. Die Ergebnisse werden mit einem medizinischen Benchmark-Datensatz validiert und das Ergebnis zeigt, dass das LR-Klassifikatormodell eine bessere Option für DSS ist. Das detaillierte Simulationsergebnis zeigte, dass das angewendete LR-Modell sein effektives Klassifikationsergebnis zeigt, indem es einen maximalen Präzisionswert von 98,60, einen Rückruf von 98,60, ein F-Maß von 98,60, einen ROC von 99,10, eine Genauigkeit von 98,63 und einen Kappa-Wert von 96,29 erhält.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-43192-1_103 4c1845d3d5a03c23a9ee595024fcc14d;de;;;7.4.;;;Identifizierung von Straßenoberflächenbedingungen mit IoT-Sensoren und maschinellem Lernen Ziel dieser Forschung ist die Erfassung und Analyse der Straßenoberflächenbedingungen in Malaysia mithilfe von Internet-of-Things (IoT)-Sensoren sowie die Entwicklung eines Modells für maschinelles Lernen, das diese Bedingungen identifizieren kann. Dies ermöglicht die Erleichterung einer kostengünstigen Datenerfassung und informierte Entscheidungsfindung, um lokalen Behörden bei Reparaturen und Ressourcenzuweisungen zu helfen. Die in dieser Studie berücksichtigten Bedingungen umfassen glatte Oberflächen, unebene Oberflächen, Schlaglöcher, Geschwindigkeitsschwellen und Rumpelstreifen. Statistische Merkmale wie Minimum, Maximum, Standardabweichung, Median, Durchschnitt, Schiefe und Kurtosis werden sowohl im Zeit- als auch im Frequenzbereich berücksichtigt. Die Auswahl der Merkmale erfolgt mit Ranker, Greedy Algorithm und Particle Swarm Optimization (PSO), gefolgt von der Klassifizierung mit;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2622-6_26 f5bb82c9602a9cc663b3aab5d9c30ccf;de;;;7.4.;;;Ann-Algorithmus für inkrementelles maschinelles Lernen: Heuristiken in einer Bayesschen Technik Eine neuronale Netzwerkformulierung eines führerunabhängigen, nichtparametrischen, risikokonsistenten Algorithmus von Bayes [8] für inkrementelles maschinelles Lernen wird vorgestellt. Die Implementierung des Rechenalgorithmus in einer medizinischen Datenbank wird mit einigen kürzlich veröffentlichten KNN-Algorithmen zur Klassifizierung/Clusterbildung verglichen. Die Bedeutung des Ansatzes wird hervorgehoben.;-;-;-;https://link.springer.com/article/10.1023/A%3A1009669130029 9c0f7ca744eb1d9db243eb919dcc34c9;de;;;7.4.;;;Ein wissensschwacher Ansatz zur Kategorisierung türkischer Texte Die Dokumentkategorisierung ist eine Möglichkeit, eine Kategorie für ein bestimmtes Dokument zu bestimmen. Überwachte Methoden basieren meist auf Trainingsdaten und reichhaltigen linguistischen Ressourcen, die entweder sprachspezifisch oder generisch sind. Diese Studie schlägt einen wissensarmen Ansatz zur Textkategorisierung vor, ohne Regeln oder sprachspezifische Ressourcen wie Wortart-Tagger oder flache Parser zu verwenden. Wissensarmut bezieht sich hier auf das Fehlen einer angemessenen Menge an Hintergrundwissen. Die vorgeschlagene Systemarchitektur nimmt Daten so wie sie sind und trennt Token einfach nach Leerzeichen. In Vektorraummodellen dargestellte Dokumente werden als Trainingsdaten für viele maschinelle Lernalgorithmen verwendet. Wir haben verschiedene Faktoren empirisch untersucht und verglichen, von Ähnlichkeitsmetriken bis hin zu Lernalgorithmen in einer Vielzahl von Versuchsanordnungen. Obwohl Forscher glauben, dass bestimmte Klassifikatoren oder Metriken für die Textkategorisierung besser geeignet sind als andere, zeigen aktuelle Studien, dass die Einstufung der Modelle auch rein von der Klasse, dem Versuchsaufbau und der Domäne abhängt. Die Studie bietet umfangreiche Auswertungen, Vergleiche innerhalb einer Vielzahl von Experimenten. Wir evaluieren Modelle und Ähnlichkeitsmetriken für die türkische Sprache als eine der agglutinierenden Sprachen, insbesondere im Rahmen von Schwachwissen. Es zeigt sich, dass die Ergebnisse der Studie für andere Studien von großem Nutzen wären.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54903-8_36 d58235c7aa1dfaf0be547a9ceb19187c;de;;;7.4.;;;Künstliche Intelligenz und Bildgebung des menschlichen Gehirns Seit vielen Jahren versuchen KI-Forscher, das Wesen der Intelligenz vor allem durch die Entwicklung künstlich intelligenter Computersysteme zu verstehen. Studien zur menschlichen Intelligenz hatten weniger Einfluss auf die KI, zum Teil aufgrund der großen Schwierigkeiten, die menschliche Gehirnaktivität direkt zu beobachten. In den letzten Jahren sind neue Methoden zur Beobachtung der Gehirnaktivität verfügbar geworden, insbesondere die funktionelle Magnetresonanztomographie (fMRT), mit der wir einmal pro Sekunde Bilder der Aktivität im gesamten Gehirn mit einer räumlichen Auflösung im Millimeterbereich sicher und nicht invasiv erfassen können. Das Aufkommen der fMRT hat bereits dramatische neue Einblicke in die menschliche Gehirnaktivität gebracht und wie sie mit der kognitiven Aufgabe variiert. Dieser Durchbruch bei der Instrumentierung (und auch bei anderen) verschiebt das Nutzenverhältnis zwischen dem Aufbau künstlicher intelligenter Systeme und dem Studium der natürlichen Intelligenz. Infolgedessen ist in Zukunft mit einer wachsenden Synergie zwischen dem Studium der künstlichen und der natürlichen Intelligenz zu rechnen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44886-1_2 a8fa115b26b94fbcc1457ada67cc637a;de;;;7.4.;;;Posthumanes Lernen: KI vom Anfänger zum Experten? Werden Roboter jemals wie Menschen lernen können? Um diese Frage zu beantworten, muss man sich zunächst fragen: Was ist Lernen? Hubert und Stuart Dreyfus hatten Recht, als sie behaupteten, Computer und Roboter würden niemals wie Menschen lernen können, weil menschliches Lernen nach einer anfänglichen Phase des regelbasierten Lernens unsicher, kontextsensitiv und intuitiv ist (Dreyfus und Dreyfus in A five Stufenmodell der mentalen Aktivitäten beim gezielten Erwerb von Fähigkeiten (Unterstützt von der US Air Force, Office of Scientific Research (AFSC) unter Vertrag F49620-C-0063 mit der University of California) Berkeley, Februar 1980. (Unveröffentlichte Studie). Washington, DC: Medien stürmen.;-;-;-;https://link.springer.com/article/10.1007/s00146-018-0854-4 f56192501386e53e871f661869fcb597;de;;;7.4.;;;Data Mining im Krankheitsmanagement – ​​Eine Diabetes-Fallstudie Kürzlich hat HIC seine strategische Ausrichtung für das 21. Jahrhundert formuliert. In der neuen Ausrichtung wird HIC nicht nur als Zahlstelle fungieren, sondern auch zu einem Anbieter von Gesundheitsinformationen für die Öffentlichkeit. Der neuen strategischen Ausrichtung folgend, hat HIC eine neue Abteilung für Informationsmanagement eingerichtet, um seine Ziele zu erreichen. Der Forschungsbereich innerhalb der neuen Abteilung hat ein neues Forschungsgebiet für Data-Mining-Anwendungen im Management von Krankheiten betreten. Dies ist ein Versuch, Data-Mining-Techniken anzuwenden, um die Transaktionsdaten medizinischer Dienste für das Krankheitsmanagement zu analysieren, anstatt die Daten, die in den gut untersuchten Anwendungen zur medizinischen Diagnose verwendet werden. Das bei der Health Insurance Commission of Australia durchgeführte Disease-Management-Projekt zielt darauf ab, gute oder weniger gute medizinische Versorgungspraxis aus einer großen Transaktionsdatenbank zu identifizieren. In diesem Beitrag präsentieren wir eine Fallstudie zu unserer Anwendung auf das Diabetes-Management. In dieser Fallstudie wählten wir 7443 in Fairfeld lebende Diabetespatienten aus und extrahierten ihre Medicare-Dienstdaten im Jahr 1998 aus den Itemsequenzen der Medicare-Transaktionsdatenbank. Nach Auswahl der 26 am häufigsten verwendeten Items überführten wir die Itemsequenzen der Patienten weiter in ein Set von Vektoren, deren Komponenten jeweils eine Gruppe von Dienstleistungen repräsentieren. Sie wählen vier Leistungsgruppen aus, die von der Clinical Advisory Group (CAG) of Diabetes als die wichtigsten Tests für Diabetiker identifiziert wurden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44533-1_88 543246cf8377d0c2677a433038130f1f;de;;;7.4.;;;Mobilität, Data Mining und Datenschutz die Erfahrungen des GeoPKDD-Projekts Unser alltägliches Handeln, die Art und Weise, wie Menschen leben und sich bewegen, hinterlassen digitale Spuren in den Informationssystemen der Organisationen, die Dienste über die drahtlosen Netze für die mobile Kommunikation bereitstellen. Der potenzielle Wert dieser Spuren für die Aufzeichnung der menschlichen Aktivitäten in einem Gebiet wird aufgrund der zunehmenden Verbreitung und Positionierungsgenauigkeit real. Die Zahl der Handynutzer weltweit wurde kürzlich auf 3 Milliarden geschätzt, d.h. ein Handy auf zwei Personen. Auf der anderen Seite sind die derzeit von Mobilfunkbetreibern verwendeten Ortungstechnologien wie GSM und UMTS in der Lage, den Standort eines Benutzers immer besser einzuschätzen, während die Integration verschiedener Ortungstechnologien voranschreitet: ihre Flugbahn zu einigen Dienstanbietern (und das europäische Satellitenpositionierungssystem Galileo könnte in naher Zukunft die Präzision und Verbreitung verbessern), Wi-Fi- und Bluetooth-Geräte können eine Datenquelle für die Indoor-Positionierung sein, Wi-Max kann eine Alternative für den Außenbereich werden Positionierung und so weiter. Die Folge dieses Szenarios, in dem Kommunikations- und Computergeräte allgegenwärtig sind und überall und immer von Menschen und Fahrzeugen getragen werden, ist, dass menschliche Aktivitäten in einem Territorium;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01718-6_3 853b6a5d158147e6b8b9682f84bef26a;de;;;7.4.;;;Datengesteuerte Unsicherheitsbewertung für komplexe technische Systemdesigns Komplexe technische Systeme sind aufgrund der verworrenen Abhängigkeiten zwischen ihren Subsystemen und Komponenten oft schwer zu analysieren und zu entwerfen. Herkömmliche Entwurfsmethoden erfordern oft eine genaue Modellierung oder genaue Strukturzerlegung, was ihre praktische Anwendung einschränkt. Die schnelle Datenexpansion macht die Nutzung von Daten zur Steuerung und Verbesserung des Systemdesigns für die praktische Technik unverzichtbar. In diesem Beitrag wird ein datengetriebener Ansatz zur Unsicherheitsbewertung vorgeschlagen, um den Entwurf komplexer technischer Systeme zu unterstützen. Kern des Ansatzes ist eine Data-Mining-basierte Unsicherheitsbewertungsmethode, die das Unsicherheitsniveau eines bestimmten Systemdesigns vorhersagt, indem Assoziationsbeziehungen entlang verschiedener Systemattribute analysiert und die Informationsentropie der abgedeckten Attributbereiche synthetisiert wird, sowie ein quantitatives Maß Systemunsicherheit kann entsprechend erhalten werden. Die Monte-Carlo-Simulation wird eingeführt, um die Unsicherheitsextrema zu erhalten, und die möglichen Datenverteilungen unter verschiedenen Situationen werden im Detail diskutiert. Die Unsicherheitswerte können mit den Simulationsergebnissen normalisiert werden und die Werte können zur Bewertung verschiedener Systemdesigns verwendet werden. Ein Systemprototyp wird aufgebaut, und es wurden zwei Fallstudien durchgeführt. Der Fall eines umgekehrten Pendelsystems bestätigt die Wirksamkeit des vorgeschlagenen Verfahrens, und der Fall einer Ölsumpfkonstruktion zeigt die Praktikabilität, wenn zwei oder mehr Konstruktionspläne verglichen werden müssen. Diese Forschung kann verwendet werden, um die Unsicherheit komplexer technischer Systeme vollständig auf Datenbasis zu bewerten und ist ideal geeignet für die Planauswahl und Leistungsanalyse im Systemdesign.;-;-;-;https://link.springer.com/article/10.3901/CJME.2016.0422.058 9541390eb8583dad575ec7795df9799b;de;;;7.4.;;;KI-Urbanismus: ein Gestaltungsrahmen für Governance-, Programm- und Plattformerkennung Historisch gesehen war die Dynamik zwischen der Philosophie der künstlichen Intelligenz und ihrer praktischen Anwendung wesentlich für die Entwicklung beider, und daher sollte die Begegnung zwischen der Theorie der KI und der Architektur-/Stadttheorie ein Ort von beträchtlicher Produktivität sein. In vielerlei Hinsicht ist dies jedoch nicht der Fall. Dies ist auf zwei Hauptfaktoren zurückzuführen, von denen einer von jeder Seite dieser Begegnung herrührt. Erstens durchdringen Vermächtnisse übermäßig anthropomorpher Modelle der KI Designdiskurse, in denen Fragen, wie gut KI auf soziale Fragen der Philosophie des Geistes beschränkt werden kann, grundlegendere und kulturübergreifende Fragen über künstliche Intelligenz als materiellen Prozess in der physischen Welt ausschließen, die neue philosophische Erkenntnisse liefern. Gleichzeitig dominiert die Mobilisierung von Investitionen in „Smart Cities“-Diskurse den Anwendungsraum von KI auf urbaner Ebene in einer Weise, die Lösungen im skeuomorphen Bild architektonischer und urbaner Konventionen vorzeitig fixiert. Um diese Sackgasse zu durchbrechen, haben wir eine Reihe von Think Tanks, Workshops und Designcharettes veranstaltet, die führende Persönlichkeiten der Philosophie der künstlichen Intelligenz, des Stadtdesigns und kommerzieller KI-Plattformen zusammenbrachten. Das Ziel war es, von den ersten Prinzipien aus zu überdenken, wie alternative philosophische Modelle von KI als verteilte, diskontinuierliche Technologie im Landschaftsmaßstab in direkter Begegnung mit Anwendungen in Kontexten der ökologischen Sensorik, der Auswirkungen der Automatisierung auf die Stadtform und Fragen der algorithmischen Governance . Der Entwurfsauftrag für diese Forschung schafft einen generativen Rahmen für die Vorstellung, wie eingebettete maschinelle Sensorik und Intelligenz die urbane Form bereits verändern (aber nicht erkannt) und in Zukunft ändern könnten (basierend auf geeigneteren Designprojektionen). Der Rahmen konzentriert sich auf Fragen der Stadtplanung und Architekturprogrammierung, Datenmodellierung und Governance, Plattformerkennung und -design und wie diese Veränderungen in der Dynamik öffentlicher und privater Institutionen beeinflussen.;-;-;-;https://link.springer.com/article/10.1007/s00146-020-01121-9 75b7ac698af9a074a0a850af5b67e7be;de;;;7.4.;;;Verbesserung der Faktorisierung der maximalen Margin-Matrix Kollaboratives Filtern ist eine beliebte Methode zur Personalisierung von Produktempfehlungen. Als ein erfolgreicher Lernansatz für diese Aufgabe wurde die Maximum-Margin-Matrix-Faktorisierung (MMMF) vorgeschlagen und kürzlich auf strukturierte Rankingverluste ausgedehnt. In diesem Artikel diskutieren wir eine Reihe von Erweiterungen von MMMF durch die Einführung von Offset-Termen, itemabhängiger Regularisierung und einem Graphenkern auf dem Empfehlungsgraphen. Wir zeigen die Äquivalenz zwischen Graphkerneln und den neueren MMMF-Erweiterungen von Mnih und Salakhutdinov (Advances in Neural Information Processing Systems 20,;-;-;-;https://link.springer.com/article/10.1007/s10994-008-5073-7 880311df87907281288dc680f480438d;de;;;7.4.;;;GAEBic: Eine neuartige Biclustering-Analysemethode für miRNA-gezielte Gendaten basierend auf Graph Autoencoder Im Gegensatz zur herkömmlichen Clustering-Analyse arbeitet der Biclustering-Algorithmus gleichzeitig an zwei Dimensionen von Stichproben (Zeile) und Variablen (Spalte). In den letzten Jahren wurden Biclustering-Methoden schnell entwickelt und weit verbreitet in der biologischen Datenanalyse, Textclustering, Empfehlungssystem und anderen Bereichen angewendet. Die traditionellen Clustering-Algorithmen können nicht gut angepasst werden, um hochdimensionale Daten und/oder große Daten zu verarbeiten. Derzeit sind die meisten Biclustering-Algorithmen für die differentiell exprimierten Big Biological Data ausgelegt. Es gibt jedoch wenig Diskussion über binäres Data Clustering Mining, wie z. B. miRNA-gerichtete Gendaten. Hier schlagen wir eine neuartige Biclustering-Methode für miRNA-gerichtete Gendaten vor, die auf einem Graph-Autoencoder namens GAEBic basiert. GAEBic verwendet einen Graph-Autoencoder, um die Ähnlichkeit von Stichprobensätzen oder Variablensätzen zu erfassen, und verwendet eine neue unregelmäßige Clustering-Strategie, um Bicluster mit hervorragender Generalisierung zu minen. Basierend auf den miRNA-gerichteten Gendaten von Sojabohnen vergleichen wir verschiedene Arten des Biclustering-Algorithmus und stellen fest, dass GAEBic in Bezug auf die Zielgenanreicherung besser abschneidet als Bimax, Bibit und der Spectral Biclustering-Algorithmus. Diese Biclustering-Methode erzielt eine vergleichbare Leistung bei den Hochdurchsatz-miRNA-Daten von Sojabohnen und kann auch für andere Arten verwendet werden.;-;-;-;https://link.springer.com/article/10.1007/s11390-021-0804-3 ae141551bd11c6ec4ebfb2dda20f002a;de;;;7.4.;;;Ein Data-Mining-Ansatz zur Abfrageverfeinerung Wir schlagen einen Data-Mining-Ansatz zur Abfrageverfeinerung unter Verwendung von Assoziationsregeln (ARs) zwischen Schlüsselwörtern vor, die aus einer Dokumentendatenbank extrahiert werden. In diesem Beitrag beschäftigen wir uns mit zwei Themen. Erstens, anstatt minimale Unterstützung und minimales Vertrauen zu verwenden, die beim Screening von Dokumenten wenig effektiv sind, verwenden wir maximale Unterstützung und maximales Vertrauen. Um die Anzahl der Regeln weiter zu reduzieren, führen wir zweitens zwei verwandte Konzepte ein: „Stammregel“ und „Abdeckung“. Die Wirksamkeit der Verwendung von ARs zum Screening wird ebenfalls berichtet.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-64383-4_40 a36aa3d7172505950cc0d3956dcfdb61;de;;;7.4.;;;Eine selbstverwaltete Plattform mit künstlicher Intelligenz (KI) zur kognitiven Bewertung bei Multipler Sklerose (MS) Kognitive Beeinträchtigungen sind bei Patienten mit Multipler Sklerose (MS) häufig. Genaue und wiederholbare Messungen der Kognition haben das Potenzial, als Marker für die Krankheitsaktivität verwendet zu werden.;-;-;-;https://link.springer.com/article/10.1186/s12883-020-01736-x 1ed963ef1beebacd82e17eb5a09fcc4f;de;;;7.4.;;;Eine Untersuchung zu den Auswirkungen des maschinellen Lernens in drahtlosen Sensornetzwerken und seinen anwendungsspezifischen Herausforderungen Die Bedeutung von Machine Learning (ML) in fortgeschrittenen Systemtechnologien ist in der Literatur belegt. Dieses Kapitel untersucht die Rolle von ML in drahtlosen Sensornetzwerken und die spezifischen Herausforderungen für ihre Anwendungen. Wir diskutieren die Hintergrundliteratur der renommierten ML-Konzepte und ML-Techniken. Darüber hinaus unterscheiden wir die Rolle von ML in WSN mit einer detaillierten Literaturrecherche. Anschließend werden ML-Techniken für WSN aus der Literatur diskutiert. Dieses Kapitel endet mit der Beschreibung der funktionalen und anwendungsspezifischen Herausforderungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7961-5_39 4cbdd5a2ca619c851f23a07dbd2851ea;de;;;7.4.;;;Themenempfehlung für Software-Repositories mit Multi-Label-Klassifizierungsalgorithmen Viele Plattformen nutzen kollaboratives Tagging, um ihren Benutzern beim Suchen oder Navigieren schnellere und genauere Ergebnisse zu liefern. Tags können verschiedene Konzepte wie die Hauptmerkmale, Technologien, Funktionen und das Ziel eines Software-Repositorys kommunizieren. Vor kurzem hat GitHub es Benutzern ermöglicht, Repositorys mit Themen-Tags zu kommentieren. Es hat auch eine Reihe von vorgestellten Themen und deren möglichen Aliasnamen bereitgestellt, die mit Hilfe der Community sorgfältig kuratiert wurden. Dies schafft die Möglichkeit, diesen anfänglichen Themen-Seed zu verwenden, um alle verbleibenden Repositorys automatisch zu kommentieren, indem Modelle trainiert werden, die Entwicklern hochwertige Themen-Tags empfehlen. In dieser Arbeit untersuchen wir die Anwendung von Multi-Label-Klassifizierungstechniken, um die Themen von Software-Repositorys vorherzusagen. Zuerst ordnen wir den großen Raum an benutzerdefinierten Themen den von GitHub vorgestellten Themen zu. Die Kernidee besteht darin, mehr Informationen aus der verfügbaren Dokumentation der Projekte abzuleiten. Unsere Daten enthalten etwa 152K GitHub-Repositorys und 228 vorgestellte Themen. Dann wenden wir überwachte Modelle auf die Textinformationen von Repositories wie Beschreibungen, README-Dateien, Wiki-Seiten und Dateinamen an. Wir beurteilen die Leistung unseres Ansatzes sowohl quantitativ als auch qualitativ. Unser vorgeschlagenes Modell erreicht Recall@5- und LRAP-Werte von 0,890 bzw. 0,805. Darüber hinaus ist unser Ansatz, basierend auf der Bewertung der Benutzer, in der Lage, korrekte und vollständige Themenbereiche zu empfehlen. Schließlich entwickeln wir mit unseren Modellen ein Online-Tool namens;-;-;-;https://link.springer.com/article/10.1007/s10664-021-09976-2 4989c3b5f5eb6c58700b5cfc7a3c6c97;de;;;7.4.;;;Ein neuer Ansatz zur Auswahl von Attributen basierend auf der groben Mengentheorie Entscheidungsbäume werden häufig im Data Mining und beim maschinellen Lernen zur Klassifizierung verwendet. Bei der Konstruktion eines Baums beeinflussen die Kriterien der Auswahl von Partitionsattributen die Klassifizierungsgenauigkeit des Baums. In diesem Beitrag stellen wir ein neues Konzept, die gewichtete mittlere Rauheit, das auf der Grobmengentheorie basiert, zur Auswahl von Attributen vor. Das experimentelle Ergebnis zeigt, dass unser Ansatz im Vergleich zum entropiebasierten Ansatz ein besserer Weg ist, Knoten für die Konstruktion von Entscheidungsbäumen auszuwählen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-28651-6_22 84a07bbaeb56b6d04a6edd85a5949eba;de;;;7.4.;;;Verbesserung der Genauswahl bei der Microarray-Datenanalyse mithilfe von Fuzzy-Mustern in einem CBR-System In den letzten Jahren haben die Bereiche Machine Learning und Data Mining einen erfolgreichen Anwendungsbereich im Bereich der DNA-Mikroarray-Technologie gefunden. Genexpressionsprofile bestehen aus Tausenden von Genen gleichzeitig und repräsentieren komplexe Beziehungen zwischen ihnen. Eine der bekannten Einschränkungen speziell bei Microarray-Daten ist die große Anzahl von Genen im Vergleich zu der geringen Anzahl verfügbarer Experimente oder Fälle. In diesem Zusammenhang ist die Fähigkeit, eine genaue Genselektionsstrategie zu identifizieren, entscheidend, um den Generalisierungsfehler (false positives) moderner Klassifikationsalgorithmen zu reduzieren. Dieser Artikel stellt einen Reduktionsalgorithmus vor, der auf dem Konzept der Fuzzy-Genexpression basiert, bei dem ähnliche (koexprimierte) Gene verschiedener Patienten ausgewählt werden, um ein überwachtes prototypbasiertes Retrievalmodell zu konstruieren. Diese Technik wird verwendet, um den Abrufschritt in unserem neuen Gen-CBR-System zu implementieren. Die vorgeschlagene Methode wird durch die Analyse von Microarray-Daten von Knochenmarksfällen von 43 erwachsenen Krebspatienten plus einer Gruppe von drei Fällen, die gesunden Personen entsprechen, veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/11536406_17 e72485f1980e259a049c47bbe369f1b0;de;;;7.4.;;;Überprüfung maschineller Lerntechniken im Gesundheitswesen Das Gesundheitswesen ist eine aufstrebende Branche, von der unser ganzes Leben abhängt. Mit dem technologischen Fortschritt schreitet auch die Gesundheitsbranche voran. Mit besseren Präventions-, Diagnose- und Behandlungsmöglichkeiten integriert sich die Technologie schnell in die medizinischen Wissenschaften zum Wohl der Menschheit. Es ist jedoch an der Zeit, sich eingehender mit dieser Integration zu befassen. Ein aufstrebender technischer Aspekt, der als maschinelles Lernen bekannt ist, ist ein sehr nützliches Werkzeug, wenn es um seine Anwendung im Gesundheitswesen geht. Algorithmen des maschinellen Lernens wie Support Vector Machines und künstliche neuronale Netze erweisen sich in Kombination mit der bestehenden medizinischen Infrastruktur nicht nur als auf dem neuesten Stand der Technik, sondern erweisen sich auch als effizienter und schneller als diese. In diesem Beitrag werden die möglichen Anwendungen sowie der aktuelle Fortschritt der Integration von Machine-Learning-Algorithmen im Gesundheitswesen beleuchtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29407-6_9 cf4b2dd81dd5759202fbf81c713e0763;de;;;7.4.;;;Verbesserung von Rocchio mit schwach überwachtem Clustering In diesem Beitrag wird ein neuartiger Ansatz vorgestellt, um die Komplexität eines Textkategorisierungssystems an die Schwierigkeit der Aufgabe anzupassen. In dieser Studie adaptieren wir einen einfachen Textklassifikator (Rocchio) mit schwach überwachten Clustering-Techniken. Die Idee ist, Unterthemen der ursprünglichen Klassen zu identifizieren, die helfen können, den Kategorisierungsprozess zu verbessern. Zu diesem Zweck schlagen wir mehrere Clustering-Algorithmen vor und berichten über Ergebnisse verschiedener Auswertungen zu Standard-Benchmark-Korpora wie dem Newsgroups-Korpus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39857-8_41 8c17c290658cf1d0b7061df0c29fabad;de;;;7.4.;;;Zeitliche Intervalllogik im Data Mining In den letzten zehn Jahren hat sich das Data Mining zu einem bedeutenden Forschungsgebiet entwickelt. Während die Nutzung von Zeitreihendaten in diesem Zusammenhang umfassend untersucht wurde, wurde die Akkommodation der zeitlichen Intervallsemantik nicht umfassend untersucht. Zeitliche Intervalle und die Interaktion von intervallbasierten Ereignissen sind in vielen Bereichen von grundlegender Bedeutung, darunter Handel, Medizin, Computersicherheit und verschiedene Arten der Normalitätsanalyse. Wir haben einen Algorithmus entwickelt, um die Semantik zeitlicher Intervalle in Assoziationsregeln zu integrieren, eine Regelform, die im Data Mining weit verbreitet ist. Wir haben auch eine Visualisierungstechnik entwickelt, um die entdeckten Regeln anzuzeigen. Das angenommene Modell des zeitlichen Denkens berücksichtigt gleichzeitig sowohl punktbasierte als auch intervallbasierte Zeitmodelle. Darüber hinaus unterstützt die Verwendung einer verallgemeinerten Taxonomie zeitlicher Beziehungen die Verallgemeinerung zeitlicher Beziehungen und deren Spezifikation auf unterschiedlichen Abstraktionsebenen. Dieser Ansatz erleichtert auch die Möglichkeit, mit unvollständigen oder fehlenden Informationen zu argumentieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44533-1_87 b1658a985dcd773606cf7441057fb975;de;;;7.4.;;;Verbesserungen gegenüber der adaptiven lokalen Hyperebene zur Erzielung einer besseren Klassifizierung Es hat sich gezeigt, dass ein neues Klassifikationsmodell namens adaptive local hyperplane (ALH) viele moderne Klassifikatoren bei Benchmark-Datensätzen übertrifft. Durch die Darstellung der Daten in einem lokalen Unterraum, der von Stichproben umfasst wird, die sorgfältig durch das Merkmalsgewichtungsschema von Fisher ausgewählt wurden, versucht ALH, nach einer großen Anzahl von Iterationen nach optimalen Beschneidungsparametern zu suchen. Das Merkmalsgewichtungsschema ist jedoch weniger genau bei der Quantifizierung von Mehrklassenproblemen und Stichproben, die reich an Redundanz sind. Dies führt zu einer unzuverlässigen Auswahl von Prototypen und verschlechtert die Klassifikationsleistung. In diesem Papier schlagen wir eine Verbesserung gegenüber der Standard-ALH in zwei Aspekten vor. Zunächst quantifizieren und demonstrieren wir, dass die Merkmalsgewichtung nach gegenseitiger Information genauer und robuster ist. Zweitens schlagen wir einen ökonomischen numerischen Algorithmus vor, um die Matrixinversion zu erleichtern, die ein Schlüsselschritt bei der Konstruktion von Hyperebenen ist. Der vorgeschlagene Schritt könnte die Rechenkosten erheblich senken und verspricht schnelle Anwendungen wie Online-Data-Mining. Experimentelle Ergebnisse sowohl an synthetischen als auch an realen Benchmark-Datensätzen haben gezeigt, dass die Verbesserungen eine bessere Leistung erzielten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23184-1_1 f7d6c4abb81d152c5b8cba443faf515d;de;;;7.4.;;;Eine Studie über den Menschen und die Automatisierung im automatisierten Fahren: Kennenlernen In den letzten Jahren wurden fortschrittliche Fahrerassistenzsysteme (ADAS) und Lösungen für das automatisierte Fahren von mehreren Automobilherstellern (OEMs) und Zulieferern eingeführt. Derzeit sind diese Automatisierungsarten für das teilautomatisierte Fahren ausgelegt, der Schritt in Richtung höherer Automatisierungsgrade ist jedoch in Kürze zu erwarten. Einer der am häufigsten angesprochenen Anwendungsfälle ist das Fahren auf einer Autobahn wie der deutschen Autobahn. In diesem Papier schlagen wir einen Ansatz vor, um das Verhalten der Automatisierung an die Fahrpräferenzen des Menschen anzupassen, indem wir ein kognitives Automatisierungssystem mit einem Algorithmus für maschinelles Lernen bereitstellen. Dieses System wurde in einem Simulator für automatisiertes Fahren implementiert und in einer Studie zur bedingten Automatisierung verwendet. Im Rahmen des vorgestellten Experiments wurden im Fahrsimulator typische Situationen für das automatisierte Fahren unter unterschiedlichen Bedingungen getestet. Beim kooperativen Mensch-Maschine-Fahren kann die Automatisierung die Präferenzen des Menschen in Bezug auf relevante Fahrzustände lernen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-60441-1_65 17519a3148db27b6d7914e8a4f942058;de;;;7.4.;;;Massives Data Mining zur Erkennung polymorphen Codes Angetrieben von der permanenten Suche nach zuverlässigen auf Anomalie basierenden Intrusion Detection-Mechanismen haben wir verschiedene statistische Methoden untersucht, um mit der Erkennung von polymorphem Shellcode umzugehen. Der Beitrag soll einen Überblick über bestehende Ansätze in der Literatur sowie eine Zusammenfassung unserer Bemühungen geben, die Anwendbarkeit von Data-Mining-Techniken wie Neural Networks, Self Organizing Maps, Markov Models oder Genetic Algorithms im Bereich der polymorphen Codeerkennung zu evaluieren . Anschließend präsentieren wir unsere erzielten Ergebnisse und Schlussfolgerungen.;-;-;-;https://link.springer.com/chapter/10.1007/11560326_38 d8b543f3d2acb61f8b087d5f1dbe038d;de;;;7.4.;;;Entscheidungsbaumalgorithmen zur Vorhersage von Herzerkrankungen Im gegenwärtigen Szenario sind Herzkrankheiten die häufigsten Todesursachen. Es gibt viele Forschungen, um alle Arten von Herzerkrankungen in einem sehr frühen Stadium zu erkennen. Wissenschaftler verwenden verschiedene Computertechniken, um Herzkrankheiten vorherzusagen und zu verhindern. Durch den Einsatz von Data-Mining-Techniken reduziert sich die Anzahl der Tests, die zur Erkennung von Herzerkrankungen erforderlich sind. In diesem Artikel wird eine Hybridisierungstechnik vorgeschlagen, bei der Entscheidungsbaum- und künstliche neuronale Netzklassifizierer hybridisiert werden, um eine bessere Vorhersage von Herzerkrankungen zu erzielen. Dies geschieht mit WEKA. Um die Leistung des vorgeschlagenen Algorithmus zu validieren, wird ein zehnfacher Validierungstest mit dem Datensatz von Patienten mit Herzerkrankungen durchgeführt, der aus dem UCI-Repository stammt. Die Genauigkeit, Sensitivität und Spezifität des einzelnen Klassifikators und der Hybridtechnik werden analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-0586-3_45 742240710b7b453bae7038e5e404e4b2;de;;;7.4.;;;Techniken zum Umgang mit fehlenden Werten in der Klassifikation Einem kurzen Überblick über die Geschichte der Entwicklung von Entscheidungsbauminduktionsalgorithmen folgt ein Überblick über Techniken zum Umgang mit fehlenden Attributwerten beim Betrieb dieser Methoden. Die Technik der dynamischen Pfadgenerierung wird im Zusammenhang mit baumbasierten Klassifikationsverfahren beschrieben. Die Datenverschwendung, die durch fallweises Löschen fehlender Werte in statistischen Algorithmen entstehen kann, wird diskutiert und Alternativen vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0052868 3f1484a7392d9b239b532b58bfdaf7d0;de;;;7.4.;;;Ein neuartiges Fuzzy-Dokument-basiertes Information Retrieval-Schema (FDIRS) Informationsabrufsysteme werden im Allgemeinen verwendet, um Dokumente zu finden, die gemäß einer Abfrage, die dynamisch von den Benutzern kommt, am geeignetsten sind. In diesem Beitrag wird ein neuartiges Fuzzy Document Based Information Retrieval Scheme (FDIRS) zum Zwecke der Aktienmarktindex-Prognose vorgeschlagen. Die Neuheit des vorgeschlagenen Ansatzes ist die Verwendung eines modifizierten tf-idf-Scoring-Schemas, um die zukünftige Entwicklung des Aktienindexes vorherzusagen. Der Beitrag dieses Papiers hat zwei Dimensionen: (1) In dem vorgeschlagenen System werden die einfachen täglichen Zeitreihendaten in eine angereicherte Fuzzy-Sprachzeitreihe mit einem einzigartigen Ansatz umgewandelt, Informationen über die Art und Weise zu integrieren, in der die OHLC (offen, hoch , Tiefst- und Schlusskurs) fand in jeder Instanz der Zeitreihe statt, und (2) Bei der Modellierung des Information Retrieval (IR)-Systems wird ein einzigartiger Ansatz verfolgt, der ein einfaches IR-System in ein Prognosesystem umwandelt. Das modifizierte IR-System liefert uns eine Trendprognose und danach wird ein knackiger Wert generiert, der zu dem Prognosewert wird, der in den nächsten Handelssitzungen erreicht werden kann. Aus dem Leistungsvergleich von FDIRS mit Standard-Benchmark-Modellen kann bestätigt werden, dass das vorgeschlagene Modell das Potenzial hat, ein gutes Prognosemodell zu werden. Transaktionsdaten des CNX NIFTY-50 Index der National Stock Exchange of India werden verwendet, um das vorgeschlagene Modell zu testen und zu validieren.;-;-;-;https://link.springer.com/article/10.1186/s40535-016-0017-y f5d93cbd1ea0de5012a251b0002692f6;de;;;7.4.;;;Betrachtungswinkel von Spatial Data Mining Um das Wissen mit unterschiedlichen Granularitäten aus Geodatenmengen zu entdecken, wird ein Blickwinkel des Geodaten-Mining vorgeschlagen. Zunächst wird der Blickwinkel des Spatial Data Mining definiert. In diesem Kontext werden die Grundlagen des Geodaten-Mining weiterentwickelt. Und die blickwinkelbasierten Algorithmen werden ebenfalls vorgestellt. Zweitens werden die Blickwinkel des Baota-Erdrutsch-Monitoring-Data-Mining und ihre pan-hierarchischen Beziehungen angegeben. Schließlich wird Blickwinkel III als Fallstudie verwendet, um quantitatives, qualitatives und visualisiertes Wissen aus Datenbanken zur Erdrutschüberwachung von Baota zu entdecken. Die Ergebnisse zeigen, dass das blickwinkelbasierte Data Mining praktisch ist und das entdeckte Wissen mit verschiedenen Granularitäten die räumliche Entscheidungsfindung in verschiedenen Hierarchien erfüllen kann.;-;-;-;https://link.springer.com/chapter/10.1007/11811305_116 b30f4eb21a1adafe2c3957fd47c2de25;de;;;7.4.;;;DGRL: Textklassifizierung mit Deep Graph Residual Learning Die Textklassifikation ist eines der wichtigsten Probleme bei der Verarbeitung natürlicher Sprache. Es gibt viele nützliche Funktionen, die mit herkömmlichen Methoden der Textklassifizierung nicht erfasst werden können. Es haben sich Deep-Learning-Modelle erwiesen, die in der Lage sind, effektiv Merkmale aus Daten zu extrahieren. In diesem Artikel schlagen wir ein Faltungsnetzwerkmodell für tiefe Graphen vor, das Graphen basierend auf Wörtern und Dokumenten konstruiert. Wir erstellen ein neues Textdiagramm basierend auf der Relevanz von Wörtern und der Beziehung zwischen Wörtern und Dokumenten, um Informationen aus Wörtern und Dokumenten effektiv zu erfassen. Um ausreichende Darstellungsinformationen zu erhalten, schlagen wir eine Methode des Deep Graph Residual Learning (DGRL) vor, die das Risiko des Verschwindens von Gradienten verlangsamen kann. Experimentelle Ergebnisse zeigen die Wirksamkeit des vorgeschlagenen Modells auf verschiedene Textdatensätze.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-65390-3_7 0926e44027935e2ddfdeebff76baa0a5;de;;;7.4.;;;Anwendung von Data-Mining-Tools bei der Verarbeitung von Schrumpfschlauchetiketten In den Herstellungspraktiken der meisten großen Druckereien werden Daten und Aufzeichnungen von Prozessparametern gesammelt. Das Sammeln von Informationen aus diesen Daten in Form von entwickelten Modellen und Regeln wie Data Mining, das statistische Methoden oder Künstliche Intelligenz verwendet, Künstliche Neuronale Netze, Entscheidungsbäume, Expertensysteme und andere sind Gegenstand interdisziplinärer Wissenschaftsgebiete namens Data Mining. Im Schrumpfschlauch-Produktionsprozess verbessern die Auswirkungen des Einsatzes von Data-Mining-Tools nicht nur die Qualität des Schrumpfschlauchs und des Wickelprozesses, sondern senken auch die Herstellungskosten. In diesem Beitrag wird beschrieben, wie entwickelte Modelle von Data-Mining-Tools zur Vorhersage der Anfangsspannungsparameter und der Wickelgeschwindigkeit für jedes neue Design von Shrink-Sleeve-Etiketten verwendet werden können. Jedes Design von Shrink-Sleeve-Etiketten hat viele Faktoren. Einige von ihnen sind bedeutsamer, andere weniger. Das Ziel dieser Arbeit ist es, signifikante Faktoren auszuwählen und ein Modell im Lernprozess unter Verwendung der gesammelten Daten zu berechnen. Wenn schließlich Modelle berechnet werden, können die wichtigsten Wickelparameter jedes neuen Schrumpfschlauch-Etikettendesigns vorhergesagt werden. Dies spart dem Unternehmen Zeit für die experimentelle Auswahl bei der Umrechnung von Wickelparametern wie Spannung und Geschwindigkeit und minimiert auch das Risiko des Auftretens von Fehlern bei falschen Wickelparametern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-03201-2_6 a763e478976b88f31de82603294b658d;de;;;7.4.;;;Identifizierung technologischer Alternativen mit Fokus auf Frühwarnung oder Erkennung von Waldbränden: Ergebnisse einer empirischen Studie Wälder beherbergen 80 % des terrestrischen Lebens, sind jedoch ernsthaft bedroht, da jedes Jahr Millionen von Hektar durch Waldbrände verloren gehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-68080-0_27 41647eba3ef696d5733c757eb6ffb25d;de;;;7.4.;;;Tiefe Kaskade zusätzlicher Bäume Tiefe neuronale Netze sind in letzter Zeit aufgrund ihres Erfolgs in Bereichen wie der Bild- und Spracherkennung populär geworden, was viele zu der Frage veranlasst hat, ob andere Lernende von tiefen, mehrschichtigen Architekturen profitieren könnten. In diesem Beitrag schlagen wir das DCET-Modell (Deep Cascade of Extra Trees) vor. Das Repräsentationslernen in tiefen neuronalen Netzen beruht hauptsächlich auf der schichtweisen Verarbeitung von Rohmerkmalen. Davon inspiriert verwendet DCET eine tiefe Kaskade von Entscheidungswaldstrukturen, bei der die Kaskade in jeder Ebene die besten Merkmalsinformationen erhält, die von der Waldkaskade der vorhergehenden Ebene verarbeitet wurden. Experimente zeigen, dass seine Leistung in Bezug auf Hyperparametereinstellungen recht robust ist. In den meisten Fällen kann sie sogar über verschiedene Datensätze aus verschiedenen Domänen hinweg eine hervorragende Leistung erzielen, wenn dieselbe Standardeinstellung verwendet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-26142-9_11 74b9bd5683898514a4cc1b45548b7617;de;;;7.4.;;;"Anpassung eines kognitiven Modells für das Situationsbewusstsein mit maschinellem Lernen Die Verwendung eines reinen maschinellen Lernansatzes, um die Generierung von Verhalten für Agenten in Serious Gaming-Anwendungen zu ermöglichen, kann problematisch sein, da solche Anwendungen oft menschenähnliches Verhalten für Agenten erfordern, die mit menschlichen Spielern interagieren. Ein solches menschenähnliches Verhalten ist z.B. grundlegende Verstärkungslernschemata. Kognitive Modelle können sehr nützlich sein, um menschenähnliches Verhalten in einem Agenten zu etablieren. Sie erfordern jedoch umfangreiches Domänenwissen, das möglicherweise schwer zu erlangen ist. In diesem Beitrag wird ein kognitives Modell zugrunde gelegt und das Hinzufügen szenariospezifischer Informationen durch maschinelle Lernverfahren weitgehend automatisiert. Die Leistungsfähigkeit des Ansatzes des automatischen Hinzufügens szenariospezifischer Informationen wird anhand einer Fallstudie im Bereich des Kampfluftkampfes streng evaluiert. Ein evolutionärer Algorithmus wird vorgeschlagen, um automatisch ein kognitives Modell für das Situationsbewusstsein von Kampfpiloten zuzuschneiden. Der Standardalgorithmus und mehrere Erweiterungen werden hinsichtlich der Leistung im Luftkampf bewertet. Die Ergebnisse zeigen, dass es möglich ist, den Algorithmus zur Optimierung von Glaubensnetzwerken für kognitive Modelle intelligenter Agenten (Adversarial Fighter) im oben genannten Bereich anzuwenden, wodurch der Aufwand für die Gewinnung von Expertenwissen reduziert wird, während die erforderliche ""menschenähnliche"" Verhalten.";-;-;-;https://link.springer.com/article/10.1007/s10489-014-0584-3 1ea670978885d6a0ddc5edf5377ebed1;de;;;7.4.;;;Kommentarfilterung basierend auf erklärbarer Fake-News-Erkennung Die Erkennung von Fake News ist einer der derzeit am meisten erforschten Bereiche weltweit, viele Methoden wurden mit unterschiedlichen Funktionen als Quellen ans Licht gebracht. Daher gibt es auch Methoden, die vorhandene Kommentare zu jedem Nachrichtenartikel verwenden, um die Glaubwürdigkeit des Nachrichtenartikels als Fälschung oder Echtheit zu bestimmen. Hier haben wir eine Hypothese vorgestellt, die einen maschinellen Lernansatz verwendet, um die Glaubwürdigkeit von Kommentaren zu überprüfen, bevor sie auf weitere Fake News-Erkennung analysiert werden können. Daher haben wir verschiedene Textklassifizierungsalgorithmen verwendet, um unsere Hypothese zum Filtern von Kommentaren zu überprüfen, da eine hohe Wahrscheinlichkeit besteht, dass die für jede Analyse verwendeten Kommentare nutzlos und voller nutzloser Dinge sein können. Zum Beispiel die Kommentare, die nur die Emotionen der Leser zeigen, wie „Yesss“ oder „Nooo!“ und ähnliches oder die Kommentare, die nur mit den Schimpfwörtern erstellt wurden. Solche Kommentare würden sich als nutzloser Faktor für die Erkennung von Fake News erweisen und könnten auch die Ergebnisse der Erkennung von Fake News für jeden Nachrichtenartikel beeinflussen. Diese Textklassifizierer sind: Complement Naive Bayes, Logistic Regression, Multinomial Naive Bayes und Support Vector Machine. Von diesen bietet die MultinomialNB-Methode mit 75,7% und Decision Tree mit 75,4% die beste Genauigkeit im Gegensatz zum ursprünglichen Algorithmus mit einer Genauigkeit von 73,3%, der denselben Datensatz verwendet. Da die MultinomialNB die beste Verbesserung aller Metriken im Vergleich zur ursprünglichen Methode erbracht hat, konzentrieren wir uns in unserem Papier auf diese Methode. Diese Hypothese zielt darauf ab, Kommentare als Junky-Kommentare (nutzlos) und Utility-Kommentare (nützlich) zu klassifizieren. Diese Utility-Kommentare werden weiter zur Analyse verwendet, um Fake News zu identifizieren. Da die Größe der Kommentare pro Artikel von einigen zehn bis zu einigen hundert oder tausend variieren kann, haben wir den halbüberwachten Ansatz verwendet, um die Kommentare in Junky- oder Utility-Kommentarklassen zu klassifizieren. Wir haben auch Daten aus verschiedenen Quellen gesammelt und zusammengearbeitet, um uns aus einem verwertbaren Datensatz zu holen. Es enthält 415 Datensätze mit Inhalten oder Artikeldaten für jeden Datensatz, zusammen mit vielen Kommentaren für jeden Datensatz. Darüber hinaus haben wir diese Kommentare auch in Junky- und Utility-Kommentarklassen eingeteilt, wobei wir die grundlegende Definition der Spamfilterung verwenden. Dies kann für unterschiedliche Anwendungen mit unterschiedlichen Kriterien improvisiert werden. Daher ist es eine Fake-News-Erkennung, die nutzlosen Kommentare zu beseitigen und nur die nützlichen Kommentare zur besseren Identifizierung von Fake News zu analysieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0733-2_31 8bacc3c3154a4286899cf7905e8f521f;de;;;7.4.;;;Räumliche Intelligenz und Fahrzeug-zu-Fahrzeug-Kommunikation: Topologien und Architekturen Da sich die Entwicklungsländer für die Umsetzung von Smart Cities positionieren, rücken Konzepte wie intelligente Verkehrssysteme und räumliche Intelligenz in den Vordergrund. Smart Cities benötigen zeitgemäße, durchdringende und dynamische Topologien und Architekturen, um räumliche Intelligenz zu erreichen, die durch intelligente Verkehrssysteme unterstützt wird. In solchen Systemen können Fahrzeuge unter Verwendung von Fahrzeug-zu-Fahrzeug-(V2V-)Kommunikationsmodellen miteinander kommunizieren. V2V erfordert die Verfügbarkeit von Informationen auf Abruf und jederzeit, auch, dass diese Informationen den Fahrzeugen während der Fahrt durch die Stadt in Echtzeit zugänglich sein müssen. Die fortschrittliche Informationsbereitstellung in Smart City-Umgebungen ermöglicht es Fahrzeugen, Informationen auszutauschen und intelligente Entscheidungen auf den Straßen zu treffen. Um die gewünschte räumliche Intelligenz zu erreichen, müssen eine ganze Reihe funktionaler und nicht-funktionaler Anforderungen wie Usability, Ästhetik, Sicherheit (Zugriff, Verfügbarkeit und Zuverlässigkeit), Topologie und Informationsarchitektur etc. Die Einrichtung eines Netzwerks zur Handhabung der verschiedenen Netzwerkdimensionen zur Erreichung der Allgegenwart kann sehr kostspielig sein und für viele Entwicklungsländer nicht erreichbar sein. Obwohl es einige Forschungsgebiete zu verschiedenen Aspekten von Fahrzeugnetzwerken gab, gibt es keine bedeutende Forschung, die viel räumliche Intelligenz zusammenbringt. Dieses Kapitel zielt darauf ab, das Konzept der räumlichen Intelligenz im Bereich der V2V-Kommunikation umfassend zu untersuchen. Ohne sorgfältig durchdachte Topologien und Architektur ist räumliche Intelligenz in der V2V-Kommunikation angesichts des Kontexts nicht realisierbar. Dieses Kapitel trägt zum Wissen bei, indem es die verschiedenen Topologien und Architekturen in mobilen Agenten (Fahrzeugen) untersucht, bei denen die Kosten einer der wichtigsten Hemmfaktoren sind, die das tatsächliche Design beeinflussen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36167-9_2 de183b74b4bd19be0c5c7088d1f4aa56;de;;;7.4.;;;Interaktives kompetenzbasiertes Analysesystem für Arbeitsmarktmechanik und -dynamik, das maschinelles Lernen und Big Data verwendet Das Interesse an Talenterkennung, Talentrekrutierung, Bildung und Arbeitskräftemobilität ist in den letzten Jahren gestiegen. Der Unternehmenssektor ändert seine Personalpolitik (HR) weltweit und ändert die Art und Weise der Richtlinien und Praktiken in Bezug auf Mitarbeitermanagement und Employer Branding. Der Prozess der Talenterkennung und/oder -suche war meist manuelle Arbeit, die oft von professionellen Agenturen oder Personalverantwortlichen in der Organisation durchgeführt wurde. Im heutigen herausfordernden Arbeitsmarktumfeld ist dieser Prozess ineffizient und langsam mit und oft begrenztem Erfolg. In diesem Papier konzentrieren wir uns auf den Bereich Kompetenzen, Bildung und lebenslanges Lernen, der in den 10 Prioritäten der Europäischen Kommission (EC) 2014–2019 eine wichtige Rolle spielt. Unser Ausgangspunkt war die Suche nach maschinellen Lern- und Big-Data-Techniken, um politische Entscheidungsträger und Analysten dabei zu unterstützen, das Missverhältnis zwischen Arbeitsplätzen und Qualifikationen auf regionaler Ebene in der Europäischen Union (EU) durch die Nutzung von Daten zu verringern. Unsere Forschung umfasst einen massiven Datensatz mit halbstrukturierten Lebensläufen (über 50 Millionen Dokumente) in Kombination mit mehreren offiziellen statistischen Erhebungen. Wir konnten die Fortschritte beim maschinellen Lernen und Big Data nutzen, um die Klassifizierung von Lebensläufen/Fertigkeiten zu automatisieren und die Produktivität in der kompetenzbasierten Arbeitsmarktmechanik und -dynamikanalyse zu verbessern. Dieses Papier schlägt ein Modell vor, um wichtige Informationen zu extrahieren, nachdem Lebensläufe teilweise klassifiziert wurden, Fähigkeiten mithilfe der europäischen mehrsprachigen Klassifikation von Fähigkeiten, Kompetenzen, Qualifikationen und Berufen (ESCO) nach dem Abgleich von Skill-Säulen zu klassifizieren und moderne interaktive Visualisierungstools zu verwenden, um intelligente Erkenntnisse mit Geodaten zu gewinnen und Zeitreihenanalyse. Forschungsziele sind die Aufmerksamkeit auf Data Science und maschinelles Lernen und seine Verwendung in der Arbeits- und Bildungsmarktmechanik und -dynamik zu lenken.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3380-8_44 65996c19b7defc8dd83575f2b2f19b3a;de;;;7.4.;;;Freundlicher Abfalltrenner mit Deep Transfer Learning Betrachtet man die Bevölkerungszunahme in Indien, sind Abfallproduktion und Isolation bedeutende Themen in der gegenwärtigen Situation. Riesige Mengen gemischter Abfälle werden entsorgt, ohne sie angemessen zu isolieren, was zu Problemen beim Verfall führt. Aufgrund dieses gemischten Abfalls treten im Laufe der Zeit einige verschiedene Probleme auf. Um hiervon eine strategische Distanz zu wahren, ist eine Verschwendungsisolierung jedenfalls auf fundamentaler Ebene besonders erforderlich. In diesem Papier haben wir einen freundlichen Abfalltrenner vorgestellt, der Deep Transfer Learning verwendet. Der wesentliche Gedanke besteht darin, dass das System, wenn der Abfall in den Mülleimer entsorgt werden soll, das Bild erfasst und die Art des Abfalls unter Verwendung eines vortrainierten neuronalen Faltungsnetzwerks klassifiziert. Wir haben verschiedene Klassen wie Kunststoff, Papier, Metall usw., die weiter in biologisch abbaubare und nicht biologisch abbaubare Abfälle unterteilt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8221-9_280 a9615e03338e2f31eb1fbc6a073f57bb;de;;;7.4.;;;Elektromagnetische Konstruktionsautomatisierung: Surrogatmodellgestützter evolutionärer Algorithmus Kapitel 7 befasst sich mit ersatzmodellgestützten evolutionären Algorithmen und dem Anwendungsbereich: Entwurfsautomatisierung von integrierten mm-Wellen-Schaltungen und komplexen Antennen. Zwei Methoden des maschinellen Lernens, Gaußscher Prozess und künstliche neuronale Netze, werden vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39162-0_7 78887d7f7a457133bdf591e675dc217e;de;;;7.4.;;;Radiale Basisfunktionen für Data Mining Dieses Kapitel befasst sich mit dem Design und den Anwendungen des radialen Basisfunktionsmodells (RBF). Es ist in drei Teile gegliedert. Der erste Teil, bestehend aus Abschn.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-1-84628-288-1_35 ea72a8a7303b244f56275625ca1bed8f;de;;;7.4.;;;Eine Rules-to-Trees-Konvertierung im induktiven Datenbanksystem VINLEN Entscheidungsbäume und Regeln ergänzen Methoden der Wissensrepräsentation. Beides hat in einigen Anwendungen Vorteile. Algorithmen, die Bäume in Regeln umwandeln, sind weit verbreitet. In der Arbeit wird ein Algorithmus vorgestellt, der Regeln in Entscheidungsbäume umwandelt und seine Implementierung in die induktive Datenbank VINLEN.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-32392-9_60 046970994b8934de33470a405d68ee29;de;;;7.4.;;;Random Prism: Eine Alternative zu Random Forests Ensemble-Lerntechniken erzeugen mehrere Klassifikatoren, sogenannte Basisklassifikatoren, deren kombinierte Klassifizierungsergebnisse verwendet werden, um die Gesamtklassifizierungsgenauigkeit zu erhöhen. In den meisten Ensemble-Klassifikatoren basieren die Basis-Klassifikatoren auf dem Ansatz der Top-Down-Induktion von Entscheidungsbäumen (TDIDT). Ein alternativer Ansatz für die Induktion von regelbasierten Klassifikatoren ist jedoch die Prism-Familie von Algorithmen. Prism-Algorithmen erzeugen modulare Klassifikationsregeln, die nicht unbedingt in eine Entscheidungsbaumstruktur passen. Prismenklassifikationsregelsätze erreichen eine vergleichbare und manchmal höhere Klassifikationsgenauigkeit im Vergleich zu Entscheidungsbaum-Klassifikatoren, wenn die Daten verrauscht und groß sind. Dennoch leidet Prism immer noch unter einer Überanpassung bei verrauschten und großen Datensätzen. In der Praxis neigen Ensemble-Techniken dazu, die Überanpassung zu reduzieren, jedoch gibt es keinen Ensemble-Lerner für modulare Klassifikationsregel-Induktoren wie die Prism-Familie von Algorithmen. Dieser Artikel beschreibt die erste Entwicklung eines Ensemble-Lerners basierend auf der Prism-Familie von Algorithmen, um die Klassifikationsgenauigkeit von Prism durch Reduzierung der Überanpassung zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-2318-7_1 ac4fd2f160fcc064b1335848bf4f8e05;de;;;7.4.;;;Vertrauenswürdige dynamische Zielerkennung und automatisches Überwachungssystem für Hypothekendarlehen mit Blockchain-basiertem Smart Contract Angetrieben von Technologien wie Deep Learning und Blockchain hat sich die Finanzdienstleistungsbranche in den letzten Jahren rasant verbessert. Hypothekendarlehen sind das wichtigste gewinnbringende Mittel von Geschäftsbanken, aber es gibt viele Probleme wie Personalkosten, unzureichende Genauigkeit und Bewertung der Sicherheiten. Um dieses Problem zu lösen, wurden Künstliche Intelligenz (KI) und Blockchain weit verbreitet. Die Überwachung von Sicherheiten ist jedoch eine Bilderkennung in dynamischem Video und es ist schwierig, das Risiko von Sicherheitsangriffen zu vermeiden. In diesem Papier entwerfen wir eine Blockchain-gestützte Methode, um eine dynamische Zielerkennung und eine automatische Überwachung zu erreichen, bei der die Änderung von Zielort und -menge durch Deep Learning erkannt und in der Blockchain aufgezeichnet werden kann. Wenn in der Zwischenzeit ein Risiko erkannt wird, wird automatisch der intelligente Alarmvertrag ausgelöst, um eine automatische Überwachung zu realisieren. Darüber hinaus implementieren wir einen Software-Prototyp auf einem Fabric-Framework mit realen Szenarien. Versuchsergebnisse aus realen Bildern zeigen die Durchführbarkeit, Benutzerfreundlichkeit und Skalierbarkeit unseres vorgeschlagenen dynamischen Zielerkennungs- und automatischen Überwachungssystems für Hypothekendarlehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9213-3_33 d679385a1a73ef3310b74c673a292a31;de;;;7.4.;;;Erlernen sicherer neuronaler Netzwerkcontroller mit Barrierezertifikaten Wir bieten einen neuen Ansatz zur Synthese von Reglern für nichtlineare kontinuierliche dynamische Systeme mit Steuerung gegen Sicherheitseigenschaften. Die Controller basieren auf neuronalen Netzen (NNs). Zur Zertifizierung der Sicherheitseigenschaft verwenden wir Barrierefunktionen, die ebenfalls durch NNs repräsentiert werden Synthese.Wir bieten ein Prototyp-Tool;-;-;-;https://link.springer.com/article/10.1007/s00165-021-00544-5 d49399cefec6737c77318696de7c6de9;de;;;7.4.;;;Durchbrechen der Anonymität von Konten in sozialen Netzwerken durch die Verwendung koordinierter und erweiterbarer Klassifikatoren basierend auf maschinellem Lernen Es wird eine Methode zur Deanonymisierung von Konten in sozialen Netzwerken vorgestellt, um die Datenschutzrisiken solcher Konten aufzuklären und ihren Missbrauch zu verhindern, beispielsweise durch das Posten von urheberrechtlich geschützten, anstößigen oder mobbenden Inhalten. Im Gegensatz zu früheren De-Anonymisierungsmethoden, die Konten mit anderen Konten verknüpfen, verknüpft die vorgestellte Methode Konten mit Lebensläufen, die direkt Identitäten repräsentieren. Die Schwierigkeit, maschinelles Lernen zur Deanonymisierung zu nutzen, also positive Beispiele von Trainingsdaten aufzubereiten, wird überwunden, indem das Lernproblem in Teilprobleme zerlegt wird, für die Trainingsdaten aus dem Internet geerntet werden können. Die Auswertung mit 3 Lernalgorithmen, 2 Arten von Satzmerkmalen, 238 gelernten Klassifikatoren, 2 Methoden zum Verschmelzen von Ergebnissen aus den Klassifikatoren und 30 Freiwilligenberichte und Lebensläufe zeigten, dass die vorgeschlagene Methode effektiv ist. Da die Trainingsdaten aus dem Internet gewonnen werden, ist die Effektivität der vorgestellten Methode umso größer, je mehr Informationen im Internet verfügbar sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-45234-0_41 516abfe1bdcc7b307690b403a5025249;de;;;7.4.;;;Entwickeln Sie ein personalisiertes intelligentes Musikauswahlsystem basierend auf Herzfrequenzvariabilität und maschinellem Lernen Musik spielt im Alltag der Menschen oft eine wichtige Rolle. Da sie die Kraft hat, menschliche Emotionen zu beeinflussen, hat Musik einen Platz in Arbeitsumgebungen und im Sporttraining gefunden, um die Ausführung bestimmter Aufgaben zu verbessern. Studien haben gezeigt, dass Büroangestellte bestimmte Jobs besser erledigen und Jogger beim Musikhören längere Strecken zurücklegen. Ein personalisiertes Musiksystem, das automatisch Lieder entsprechend der physiologischen Reaktion des Benutzers empfehlen kann, fehlt jedoch. Daher zielt diese Studie darauf ab, ein intelligentes Musikauswahlsystem für einzelne Benutzer zu etablieren, um ihre Lernleistung zu verbessern. Wir haben zuerst eine emotionale Musikdatenbank mit datenanalytischen Klassifikationen erstellt. Während der Tests wurden innovative tragbare Sensorgeräte verwendet, um die Herzfrequenzvariabilität (HRV) in Experimenten zu erkennen, die anschließend die Musikauswahl leiteten. Anschließend wurden die Emotionen der Benutzer analysiert und geeignete Songs mithilfe der vorgeschlagenen Anwendungssoftware (App) ausgewählt. Maschinelles Lernen wurde verwendet, um die Benutzerpräferenzen aufzuzeichnen, um eine genaue und präzise Klassifizierung zu gewährleisten. Signifikante Ergebnisse durch experimentelle Validierung zeigen, dass dieses System ein hohes Zufriedenheitsniveau erzeugt, die mentale Arbeitsbelastung nicht erhöht und die Leistung der Benutzer verbessert. Unter dem Trend des Internets der Dinge (IoT) und der Weiterentwicklung tragbarer Geräte könnte das vorgeschlagene System innovative Anwendungen für intelligente Fabriken, Haushalte und das Gesundheitswesen anregen.;-;-;-;https://link.springer.com/article/10.1007/s11042-016-3860-x 162ad256f76e6e049e5dd74ae827c2ad;de;;;7.4.;;;Empirische Bewertung von auf Machine Learning basierenden Malware-Detektoren für Android Um das Problem der Malware-Erkennung durch eine große Anzahl von Anwendungen anzugehen, haben Forscher vor kurzem damit begonnen, die Fähigkeiten von Techniken des maschinellen Lernens zu untersuchen, um effektive Ansätze vorzuschlagen. Bisher wurden in der Literatur mehrere vielversprechende Ergebnisse verzeichnet, viele Ansätze wurden mit sogenannten bewertet;-;-;-;https://link.springer.com/article/10.1007/s10664-014-9352-6 d477bc2b859cd56a9e28a954e913e733;de;;;7.4.;;;Der Stand der künstlichen Intelligenzforschung im Kontext der nationalen Sicherheit: Bibliometrische Analyse und Forschungsagenda Künstliche Intelligenz (KI) ist aufgrund des wachsenden Bedarfs an friedlichen und integrativen Gesellschaften sowie der Aufrechterhaltung starker Justizinstitutionen ein wachsendes Forschungsthema in der nationalen Sicherheit. Da sich die E-Gesellschaften aufgrund der Fortschritte in den Informations- und Kommunikationstechnologien (IKT) weiterentwickeln, hat sich KI als entscheidend erwiesen, um die Entwicklung von Sicherheitsmaßnahmen zu gewährleisten, insbesondere gegen wachsende Cyberbedrohungen und Cyberangriffe. Diese Relevanz hat sich in einem explosionsartigen Wachstum von KI-Anwendungen zur Verbesserung von Entscheidungsunterstützungssystemen, Expertensystemen, Robotik, Überwachung und militärischen Operationen zur Gewährleistung der nationalen Sicherheit niedergeschlagen. Es gibt jedoch keine bibliometrische Forschung zu KI in der nationalen Sicherheit, insbesondere keine, die aktuelle Debatten zum Thema beleuchtet. Dieses Papier bietet einen Überblick über die Forschung zu KI und nationaler Sicherheit, wobei der Schwerpunkt auf den Forschungsschwerpunkten und Debatten liegt, die für die Forschung zu diesem Thema von zentraler Bedeutung sind. Wir haben 94 Referenzen aus der Web of Science (WoS) Core Collection analysiert und mit der VOS-Viewer-Software analysiert. Basierend auf diesen Analysen haben wir 7 Schwerpunkte und 8 Debatten zu KI in der nationalen Sicherheit identifiziert. Wir identifizierten auch den Stand und die Entwicklung der Forschung zu diesem Thema in Bezug auf die wichtigsten Zeitschriften, Autoren, Institutionen und Länder. Unsere Ergebnisse helfen Forschern und Praktikern, den Stand der KI-Forschung zur nationalen Sicherheit besser zu verstehen, und leiten zukünftige Forschungs- und Entwicklungsprojekte zu diesem Thema.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29374-1_21 467a454bba838323b3d61ea34b985d35;de;;;7.4.;;;Lerntransfer durch Multi-View-Hauptkomponentenanalyse Transferlernen zielt darauf ab, das Wissen in gekennzeichneten Quelldomänen zu nutzen, um die nicht gekennzeichneten Daten in einer Zieldomäne vorherzusagen, in der die Verteilungen in den Domänen unterschiedlich sind. Unter den verschiedenen Methoden des Transferlernens konzentriert sich eine Art von Algorithmen auf die Korrespondenz zwischen Brückenmerkmalen und allen anderen spezifischen Merkmalen aus verschiedenen Domänen und führt später das Transferlernen über die;-;-;-;https://link.springer.com/article/10.1007/s11390-011-9417-6 634d6ef70e13897573bdd23c799e07b6;de;;;7.4.;;;Ein unüberwachter Lernalgorithmus für die Rangaggregation Viele Anwendungen in der Informationsabfrage, Verarbeitung natürlicher Sprache, Data Mining und verwandten Gebieten erfordern eine Rangfolge von Instanzen in Bezug auf ein bestimmtes Kriterium im Gegensatz zu einer Klassifizierung. Darüber hinaus wurden für viele dieser Probleme mehrere etablierte Ranking-Modelle gut untersucht, und es ist wünschenswert, ihre Ergebnisse zu einem gemeinsamen Ranking zu kombinieren, einem Formalismus, der als bezeichnet wird;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74958-5_60 6b2ada996701c2c21c59deab060931a5;de;;;7.4.;;;Intelligente Funkumgebungen, die durch rekonfigurierbare KI-Metaoberflächen unterstützt werden: eine Idee, deren Zeit gekommen ist Von zukünftigen drahtlosen Netzwerken wird erwartet, dass sie eine verteilte intelligente drahtlose Kommunikations-, Sensor- und Computerplattform bilden, die die anspruchsvolle Anforderung haben wird, die physische und digitale Welt nahtlos und nachhaltig zu verbinden. Derzeit hindern zwei Hauptfaktoren die Betreiber von drahtlosen Netzwerken daran, solche Netzwerke aufzubauen: (1) die fehlende Kontrolle über die drahtlose Umgebung, deren Auswirkungen auf die Funkwellen nicht angepasst werden können, und (2) der derzeitige Betrieb von drahtlosen Funkgeräten, die a viel Leistung, weil immer dann neue Signale generiert werden, wenn Daten übertragen werden müssen. In diesem Papier hinterfragen wir den üblichen Status Quo „mehr Daten brauchen mehr Leistung und Emission von Funkwellen“ und motivieren, dass zukünftige drahtlose Netzwerke eine intelligente Funkumgebung erfordern: ein transformatives drahtloses Konzept, bei dem die Umgebungsobjekte mit künstlichen dünnen Filmen beschichtet sind aus elektromagnetischem und rekonfigurierbarem Material (die als rekonfigurierbare intelligente Metaoberflächen bezeichnet werden), die in der Lage sind, die Umgebung zu erfassen und maßgeschneiderte Transformationen auf die Funkwellen anzuwenden. Intelligente Funkumgebungen haben das Potenzial, zukünftige drahtlose Netzwerke mit ununterbrochener drahtloser Konnektivität und mit der Fähigkeit zu versehen, Daten zu übertragen, ohne neue Signale zu erzeugen, aber vorhandene Funkwellen zu recyceln. Wir werden insbesondere zwei Haupttypen von rekonfigurierbaren intelligenten Metaoberflächen diskutieren, die auf drahtlose Netzwerke angewendet werden. Der erste Typ von Meta-Oberflächen wird z. B. in Wände eingebettet und direkt von den Mobilfunknetzbetreibern über einen Software-Controller gesteuert, um die Funkwellen zu formen, um z. B. die Netzabdeckung zu verbessern. Die zweite Art von Meta-Oberflächen wird in Objekte, z. B. Smart-T-Shirts mit Sensoren zur Gesundheitsüberwachung, eingebettet und streut die von Mobilfunk-Basisstationen erzeugten Funkwellen zurück, um ihre erfassten Daten an Mobiltelefone zu melden. Diese Funktionalitäten werden es Mobilfunknetzbetreibern ermöglichen, neue Dienste anzubieten, ohne dass zusätzliche Funkwellen ausgesendet werden, sondern bereits vorhandene für andere Zwecke recycelt werden. Dieses Papier gibt einen Überblick über die aktuellen Forschungsbemühungen zu Smart-Radio-Umgebungen, die Grundlagentechnologien, um sie in der Praxis umzusetzen, den Bedarf an neuen kommunikationstheoretischen Modellen für ihre Analyse und Gestaltung sowie die langfristigen und offenen Forschungsfragen, die zu ihrer massiven Einsatz. Kurz gesagt konzentriert sich dieses Papier auf die Diskussion, wie die Verfügbarkeit von rekonfigurierbaren intelligenten Metaoberflächen es Mobilfunknetzbetreibern ermöglichen wird, gängige und bekannte Netzkommunikationsparadigmen neu zu gestalten.;-;-;-;https://link.springer.com/article/10.1186/s13638-019-1438-9 628c3ea285f965cdb6bf676b6a46f062;de;;;7.4.;;;Datenschutzerhaltender Data-Mining-Algorithmus basierend auf modifizierter Partikelschwarm-Optimierung Das datenschutzwahrende Data Mining ist ein Forschungs-Hotspot. Die meisten Algorithmen zum Schutz der Privatsphäre konzentrieren sich auf die zentralisierte Datenbank. Die Algorithmen der verteilten Datenbank sind sehr anfällig für Kollusionsangriffe. In diesem Beitrag wird der Privacy-Preserving Data Mining-Algorithmus basierend auf der Partikelschwarmoptimierung vorgeschlagen. Der Algorithmus basiert auf einer zentralisierten Datenbank und kann auf der verteilten Datenbank verwendet werden. Der Algorithmus ist in der verteilten Datenbank in zwei Schritte unterteilt. Im ersten Schritt wird der modifizierte Partikelschwarm-Optimierungsalgorithmus verwendet, um die lokale Bayessche Netzwerkstruktur zu erhalten. Der Zweck des zweiten Schritts besteht darin, die globale Bayessche Netzwerkstruktur unter Verwendung lokaler zu erhalten. Um den Datenschutz zu schützen, wird im Algorithmus die sichere Summe verwendet. Der Algorithmus ist konvergent zur Theorie. Einige Experimente wurden mit dem Algorithmus durchgeführt, und die Ergebnisse beweisen, dass der Algorithmus machbar ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09339-0_54 0ad250e05fcfbeaee57e847bb0ab1f49;de;;;7.4.;;;Eine einheitliche stochastische Architektur für gesprochene Dialogsysteme Spoken Dialogue Systems (SDS) haben sich in den letzten drei Jahrzehnten von einfachen Einzelwortbefehlen, Spracherkennungsanwendungen und -technologien zu den heute verwendeten kontinuierlichen Systemen mit großem Vokabular entwickelt. SDSs sind seit langem auf Hierarchien stochastischer Architekturen, insbesondere Hidden-Markov-Modelle (HMM), für ihre Komponenten und Unterkomponenten angewiesen. In diesem Artikel untersuchen wir die Anwendungen von HMMs in der Spracherkennung, einschließlich Phonemerkennung, Worterkennung und stochastischer Grammatik. Andere Anwendungen von HMMs innerhalb von SDSs werden ebenfalls abgedeckt, einschließlich Wort-Tagging und semantische Klassifizierung auf der Parsing-Ebene, Dialogmanagement und Strategieoptimierung sowie stochastische Antwortgenerierung. Wir schlagen dann vor, dass das hierarchische Hidden-Markov-Modell (HHMM) von Fine, Singer und Tishby als Ersatz für viele dieser spezialisierten HMMs dient und eine einheitlichere und konsistentere Architektur schafft. Wir untersuchen die Durchführbarkeit dieses Modells innerhalb eines spezifischen Informationsabruf-SDS und zeigen, wie HMM-Zusammenführung mit kontextabhängigem und entropischem Clustering verwendet werden kann, um HHMM-Datenstrukturen dynamisch zu generieren. Fragen der Trainingszeit und der Anwendbarkeit der HHMMs auf die Verarbeitung natürlicher Sprache werden ebenfalls untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24581-0_77 1bc067a90f25f1c483c13454cfc3fd40;de;;;7.4.;;;Lernen mit konfigurierbaren Operatoren und RL-basierten Heuristiken In diesem Papier treiben wir die Idee von Machine-Learning-Systemen voran, bei denen die Operatoren für jedes Problem modifiziert und verfeinert werden können. Dies ermöglicht es uns, ein Lernparadigma vorzuschlagen, bei dem Benutzer ihre Operatoren entsprechend dem Problem, der Datendarstellung und der Art und Weise, wie die Informationen navigiert werden sollen, schreiben (oder anpassen) können. Um dieses Ziel zu erreichen, müssen Dateninstanzen, Hintergrundwissen, Regeln, Programme und;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37382-4_1 4bf62a09b526d8d2ff5c554be3b8008e;de;;;7.4.;;;Künstliche Intelligenz am Edge in der Blockchain der Dinge Traditionelle Cloud-zentrierte Architekturen für Internet-of-Things-Anwendungen werden durch verteilte Ansätze ersetzt. Die Edge- und Fog-Computing-Paradigmen kristallisieren das Konzept heraus, die Berechnungen zum Rand des Netzwerks hin zu verschieben, näher an den Ursprung der Daten. Dies hat wichtige Vorteile in Bezug auf Energieeffizienz, Netzlastoptimierung und Latenzkontrolle. Die Kombination dieser Paradigmen mit eingebetteter künstlicher Intelligenz in Edge-Geräten oder Edge AI ermöglicht weitere Verbesserungen. Die Entwicklung der Blockchain-Technologie und verteilter Architekturen für Peer-to-Peer-Kommunikation und -Handel wiederum ermöglicht ein höheres Maß an Sicherheit. Dies kann erhebliche Auswirkungen auf datensensible und geschäftskritische Anwendungen im IoT haben. In diesem Paper diskutieren wir das Potenzial einer Edge-KI-fähigen Systemarchitektur für die Blockchain der Dinge. Wir zeigen, wie diese Architektur in Anwendungen zur Gesundheitsüberwachung genutzt werden kann. Darüber hinaus vermeiden wir durch die Analyse von Rohdaten direkt auf der Edge-Schicht von Natur aus die Möglichkeit von Verletzungen sensibler Informationen, da Rohdaten niemals außerhalb des lokalen Netzwerks gespeichert oder übertragen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-49289-2_21 78608feeeb8510f20d16d1f6793967d7;de;;;7.4.;;;Gemeinsames Strukturlernen für mehrere Aufgaben mit mehreren Ansichten Probleme der realen Welt weisen normalerweise eine duale Heterogenität auf, d. h. jede Aufgabe im Problem weist Merkmale aus mehreren Ansichten auf, und mehrere Aufgaben sind durch eine oder mehrere gemeinsame Ansichten miteinander verbunden. Um diese Multitask-Probleme mit mehreren Ansichten zu lösen, schlagen wir ein Lernframework mit gemeinsam genutzter Struktur vor, das gemeinsame Vorhersagestrukturen für gemeinsame Ansichten aus mehreren verwandten Aufgaben lernen und die Konsistenz zwischen verschiedenen Ansichten nutzen kann, um die Leistung zu verbessern. Ein alternierender Optimierungsalgorithmus wird abgeleitet, um das vorgeschlagene Framework zu lösen. Darüber hinaus kann die Rechenlast während der Optimierung in jeder Task lokal behandelt werden, indem nur einige Statistiken geteilt werden, was den Zeitaufwand und den Platzaufwand erheblich reduziert. Experimentelle Studien an vier realen Datensätzen zeigen, dass unser Framework die aktuellen Baselines deutlich übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40991-2_23 5e39b1816a58e276acbdc48155e0015a;de;;;7.4.;;;Online-Belief-Propagation-Algorithmus für die probabilistische latente semantische Analyse Die probabilistische latente semantische Analyse (PLSA) ist ein Themenmodell für Textdokumente, das in Text Mining, Computer Vision, Computerbiologie usw. weit verbreitet ist. Bei Batch-PLSA-Inferenzalgorithmen wächst die erforderliche Speichergröße linear mit der Datengröße, und die Handhabung riesiger Datenströme ist sehr schwierig. Um große Datenströme zu verarbeiten, schlagen wir einen Online-Belief-Propagation-Algorithmus (OBP) vor, der auf der verbesserten Faktorgraphendarstellung für PLSA basiert. Der Faktorgraph von PLSA erleichtert den klassischen Glaubensausbreitungs-(BP)-Algorithmus. Darüber hinaus teilt OBP den Datenstrom in einen Satz kleiner Segmente auf und verwendet die geschätzten Parameter der vorherigen Segmente, um den Gradientenabstieg des aktuellen Segments zu berechnen. Da OBP nach der Verarbeitung jedes Segment aus dem Speicher entfernt, ist es für große Datenströme speichereffizient. Wir untersuchen die Leistung von OBP an vier Dokumentdatensätzen und zeigen, dass OBP sowohl in Bezug auf Geschwindigkeit als auch Genauigkeit für die Online-Erwartungsmaximierung (OEM) in PLSA konkurrenzfähig ist und auch eine genauere Themenentwicklung liefern kann. Experimente mit massiven Datenströmen von Baidu bestätigen die Wirksamkeit des OBP-Algorithmus weiter.;-;-;-;https://link.springer.com/article/10.1007/s11704-013-2360-7 a6c100c1373076525ce4e741f395f7ed;de;;;7.4.;;;Erkennung von Domänengenerierungsalgorithmen unter Verwendung von Modellhärtung durch GAN-generierte gegnerische Beispiele Moderne Malware-Familien verwenden häufig Domain Generation Algorithms (DGAs), um Adressen für ihre Command and Control (C&C)-Server zu registrieren. Anstatt die Adresse der C&C-Domäne in der Malware fest zu codieren, werden DGAs verwendet, um häufig die Adresse des C&C-Servers zu ändern, wodurch statische Erkennungsmethoden wie Blacklists wirkungslos werden. Als Reaktion darauf wurden DGA-Erkennungsverfahren vorgeschlagen, die versuchen, diese DGA-erzeugten Domänen im Live-Verkehr zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-59621-7_5 edc8b7cdf743df9c423cfb7885125e93;de;;;7.4.;;;Anomalieerkennung für Insider-Bedrohungen: Ein objektiver Vergleich von Machine-Learning-Modellen und -Ensembles Die Erkennung von Insider-Bedrohungen ist aufgrund der Vielzahl möglicher Angriffe und der begrenzten Verfügbarkeit echter Bedrohungsdaten zum Testen eine Herausforderung. Die meisten früheren Studien zur Anomalieerkennung beruhten auf synthetischen Bedrohungsdaten, wie dem CERT-Insider-Bedrohungsdatensatz. In mehreren früheren Studien wurden jedoch Modelle verwendet, die möglicherweise Verzerrungen einführen, wie z. B. die selektive Verwendung von Metriken und die Wiederverwendung desselben Datensatzes mit dem Vorwissen der Antwortlabels. In diesem Papier erstellen und testen wir eine Vielzahl von Modellen, die einigen Verhaltensrichtlinien folgen, um einen unserer Meinung nach objektiveren Vergleich dieser Modelle zu ermöglichen. Unsere Ergebnisse zeigen, dass Mehrheitswahl-Ensembles eine einfache und kostengünstige Möglichkeit sind, die Ergebnisqualität einzelner Machine-Learning-Modelle sowohl auf den CERT-Daten als auch auf einer mit zusätzlichen Angriffen erweiterten Version zu steigern. Wir schließen einen Vergleich von Modellen mit ihren Hyperparametern ein, die für verschiedene Zielmetriken optimiert sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-78120-0_24 138a2c3eed743792b051658c5b6b2c59;de;;;7.4.;;;Ermöglicht strahlungstolerante heterogene GPU-basierte Onboard-Datenverarbeitung im Weltraum In den letzten zehn Jahren hat die Zahl der Kleinsatellitenmissionen für kommerzielle, öffentliche und staatliche Geheimdienstanwendungen dramatisch zugenommen. Angesichts der raschen Kommerzialisierung von konstellationsgesteuerten Diensten in der Erdbeobachtung, der Sensibilisierung für Situationsdomänen, der Kommunikation einschließlich Maschine-zu-Maschine-Schnittstellen, Exploration usw. stellen kleine Satelliten eine Basistechnologie für einen großen Wachstumsmarkt dar, der echte Big Data generiert. Beispiele für moderne Sensoren, die sehr große Datenmengen erzeugen können, sind optische Sensorik, Hyperspektral, Synthetic Aperture Radar (SAR) und Infrarot-Bildgebung. Die traditionelle Handhabung und das Herunterladen von Big Data aus dem Weltraum erfordert einen großen Onboard-Massenspeicher und einen Downlink mit hoher Bandbreite mit einem Trend zu optischen Links. Viele Missionen und Anwendungen können ähnlich wie erdbasierte Cloud-Dienste erheblich von Cloud-Computing an Bord profitieren. Somit können Weltraumsysteme Daten nahezu in Echtzeit bereitstellen und eine Verteilung kritischer und zeitkritischer Informationen mit geringer Latenz an Benutzer ermöglichen. Darüber hinaus kann die Downlink-Fähigkeit effektiver genutzt werden, indem mehr Onboard-Verarbeitung angewendet wird, um die Daten zu reduzieren und hochwertige Informationsprodukte zu schaffen. In diesem Papier werden aktuelle Implementierungen und Roadmaps für den Einsatz von Hochleistungs-Computing-Tools und -Methoden auf kleinen Satelliten mit strahlungstoleranter Hardware diskutiert. Dazu gehören Laufzeitanalysen mit Benchmarks von Convolutional Neural Networks und Matrixmultiplikationen mit branchenüblichen Tools (z. B. TensorFlow und PlaidML). Zusätzlich eine ½ CubeSat Volumeneinheit (0.5U) (10 × 10 × 5 cm;-;-;-;https://link.springer.com/article/10.1007/s12567-020-00321-9 bfcab2e234b7b37891eb104f000b0900;de;;;7.4.;;;Vergleichende Analyse von Grundstücksbewertungsmodellen mit KEEL, RapidMiner und WEKA Die Experimente zum Vergleich von Machine-Learning-Algorithmen zur Erstellung von Modellen für die Bewertung von Wohnimmobilien, implementiert in den gängigen Data-Mining-Systemen KEEL, RapidMiner und WEKA, wurden durchgeführt. Sechs gängige Methoden, bestehend aus zwei neuronalen Netzalgorithmen, zwei Entscheidungsbäumen für die Regression und einer linearen Regression und einer Support-Vektor-Maschine, wurden auf tatsächliche Datensätze angewendet, die aus dem Katastersystem und dem Register von Immobilientransaktionen abgeleitet wurden. Ein Dutzend häufig verwendeter Leistungsmaße wurde angewendet, um Modelle zu bewerten, die durch entsprechende Algorithmen erstellt wurden. Einige Unterschiede zwischen den Modellen wurden beobachtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04441-0_70 0c899855c87630efc243df8149ce0466;de;;;7.4.;;;Intuitionistische Fuzzy-Sets in der Textkategorisierung verwenden Wir adressieren ein entscheidendes Problem im Zusammenhang mit der Textkategorisierung, einer lokalen Merkmalsauswahl. Es scheint, dass intuitionistische Fuzzy-Sets ein wirksames und effizientes Werkzeug sein können, das es ermöglicht, jeden Begriff (aus einem Merkmalssatz für jede Kategorie) sowohl im Hinblick auf seine indikativen als auch auf seine nicht-indikativen Fähigkeiten zu bewerten. Gerade bei hochdimensionalen Problemen ist es wichtig, die Textfilterung durch eine sichere Zurückweisung nicht relevanter Dokumente zu verbessern. Darüber hinaus weisen wir darauf hin, dass intuitionistische Fuzzy-Sets ein gutes Werkzeug zur Klassifizierung von unausgeglichenen und überlappenden Klassen sind, einem häufig anzutreffenden Fall bei der Textkategorisierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69731-2_35 01cedbfce29186a7f758e5f031198ae2;de;;;7.4.;;;Verbessertes neuronales Inception-Rest-Netz zur Objekterkennung Maschinelles Lernen und Computer Vision haben viele der größten Fortschritte bei der Modellierung von Deep Convolutional Neural Networks (DCNNs) vorangetrieben. Heutzutage konzentriert sich der Großteil der Forschung auf die Verbesserung der Erkennungsgenauigkeit durch bessere DCNN-Modelle und Lernansätze. Der rekurrierende Faltungsansatz wird nicht sehr häufig angewendet, außer in einigen DCNN-Architekturen. Auf der anderen Seite sind Inception-v4 und Residual-Netzwerke in der Computer-Vision-Community schnell populär geworden. In diesem Artikel stellen wir ein neues DCNN-Modell namens Inception Recurrent Residual Convolutional Neural Network (IRRCNN) vor, das die Leistungsfähigkeit des Recurrent Convolutional Neural Network (RCNN), des Inception-Netzwerks und des Residual-Netzwerks nutzt. Dieser Ansatz verbessert die Erkennungsgenauigkeit des Inception-Rest-Netzwerks bei gleicher Anzahl von Netzwerkparametern. Außerdem verallgemeinert diese vorgeschlagene Architektur das Inception-Netzwerk, das RCNN und das Residual-Netzwerk mit deutlich verbesserter Trainingsgenauigkeit. Wir haben die Leistung des IRRCNN-Modells empirisch auf verschiedenen Benchmarks bewertet, darunter CIFAR-10, CIFAR-100, TinyImageNet-200 und CU3D-100. Die experimentellen Ergebnisse zeigen eine höhere Erkennungsgenauigkeit gegenüber den meisten gängigen DCNN-Modellen einschließlich des RCNN. Wir haben auch die Leistung des IRRCNN-Ansatzes gegenüber dem Equivalent Inception Network (EIN) und dem Equivalent Inception Residual Network (EIRN)-Gegenstück auf dem CIFAR-100-Datensatz untersucht. Wir berichten über eine Verbesserung der Klassifikationsgenauigkeit von etwa 4,53, 4,49 bzw. 3,56% im Vergleich zu RCNN, EIN und EIRN im CIFAR-100-Datensatz. Darüber hinaus wurde das Experiment mit den Datensätzen TinyImageNet-200 und CU3D-100 durchgeführt, bei denen das IRRCNN im Vergleich zum Inception Recurrent CNN, dem EIN, dem EIRN, Inception-v3 und Wide Residual Networks eine bessere Testgenauigkeit bietet.;-;-;-;https://link.springer.com/article/10.1007/s00521-018-3627-6 752c09d5da44711dc267c73b5b02a831;de;;;7.4.;;;Suche nach Edelsteinen der Information Der rasante Fortschritt bei der digitalen Datenerfassung hat zu einer schnell wachsenden Datenmenge geführt, die in Datenbanken, Data Warehouses oder anderen Arten von Datenspeichern gespeichert wird. [4] Obwohl sich hinter den Daten wertvolle Informationen verbergen können, macht es die überwältigende Datenmenge für den Menschen schwierig, wenn nicht unmöglich, sie ohne leistungsstarke Werkzeuge zu extrahieren. Um solche zu entlasten;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45219-5_1 063af740151d834db8165b864511dfa9;de;;;7.4.;;;Vorhersage des Inkrustationstrends in Ölförderpipelines: Ein Ansatz basierend auf neuronalen Entscheidungsbäumen Die Öl- und Gasindustrie bewertet die Tendenz zur Bildung von Lagerstätten nach dem Prinzip des chemischen Gleichgewichts der Flüssigkeit auf Grundlage vorhandener Produktionsdaten. Anstatt diesen Ansatz zu verwenden, hat die vorliegende Arbeit künstliche Intelligenz verwendet, um Vorhersagen über die Verkrustungstendenz in Ölförderrohren zu entwickeln, indem physikalisch-chemische Analysen des geförderten Öls, die Verarbeitungskapazität aktueller Computer und der Einsatz künstlicher neuronaler Netze des Deep Learning mit das Ziel zu bestimmen, wie zuverlässig eine Vorhersage auf Basis künstlicher Intelligenz sein kann. Gleichzeitig erfordern zeitgemäße Bewertungsmethoden Vor-Ort-Begehungen, die meist arbeits- und ressourcenintensive Sanierungsmaßnahmen vorsehen. Folglich wird ein neues Verfahren zur Vorhersage des eingebetteten Trends in Pipes basierend auf einem künstlichen neuronalen Netzwerk unter Verwendung von Entscheidungsbäumen als Klassifikatoren vorgeschlagen. Das neuronale Netzmodell wird basierend auf einer umfangreichen Datenbank der Eigenschaften des Öls und der in der Pipeline erzeugten Verkrustung trainiert, um ein Vorhersagemodell zu erhalten. Anschließend generiert das Modell einen Entscheidungsbaum, indem es innerhalb der Datenbank die für die Lösung des Problems relevanten Informationen auswählt und den Rest ausschließt. Die Ergebnisse des Experiments und der Simulation wurden zufriedenstellend verglichen, wobei eine Erfolgsquote von 83,26% bei der Auswertung mit einem Datensatz erzielt wurde, der nur der Validierungsphase gewidmet war. Schließlich erwies sich das inkrustierende Trenderkennungsmodell unter Verwendung von Entscheidungsbäumen als anwendbare Technologie im Bereich Engineering im Bereich Gas und Öl der ecuadorianischen Industrie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-42520-3_27 aedb010dbfbd32f59b68a4ec8b8e5d96;de;;;7.4.;;;Zwei neue Merkmalsauswahlalgorithmen mit Rough Sets Theory Die Theorie der groben Mengen hat neue Trends für die Entwicklung der Unvollständigen Informationstheorie eröffnet. In diesem ist der Begriff der Reduzierung sehr wichtig, aber eine Reduzierung in einem Entscheidungssystem zu erhalten, ist ein teurer Rechenprozess, obwohl er in der Datenanalyse und Wissensermittlung sehr wichtig ist. Aus diesem Grund war es notwendig, verschiedene Varianten zur Berechnung von Abschlägen zu entwickeln. Die vorliegende Arbeit befasst sich mit dem Dienstprogramm, das Rough Sets Model and Information Theory bei der Merkmalsauswahl bietet, und stellt eine neue Methode zur Berechnung einer guten Reduktion vor. Diese neue Methode besteht aus einem Greedy-Algorithmus, der mithilfe von Heuristiken in akzeptablen Zeiten eine gute Reduzierung ausarbeitet. In diesem Artikel schlagen wir eine andere Methode vor, um gute Redukte zu finden. Diese Methode kombiniert Elemente des genetischen Algorithmus mit Algorithmen zur Schätzung der Verteilung. Die neuen Methoden werden mit anderen, die in Mustererkennungs- und Ameisenkolonie-Optimierungsalgorithmen implementiert sind, verglichen und die Ergebnisse der statistischen Tests werden gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34747-9_22 0b533cb34d988c1d7a601570553c652e;de;;;7.4.;;;Ein erneuter Besuch des künstlichen Immunerkennungssystems: eine Übersicht und eine verbesserte Version Dieser Artikel gibt einen Überblick über die wichtigsten Arbeiten im Zusammenhang mit einem Klassifikator auf der Grundlage eines künstlichen Immunsystems, der in den 2000er Jahren vorgeschlagen wurde, nämlich dem Algorithmus des künstlichen Immunerkennungssystems (AIRS). Diese Umfrage hat ergeben, dass die meisten Arbeiten zu AIRS eher der Anwendung des Algorithmus auf Probleme der realen Welt als den theoretischen Entwicklungen des Algorithmus gewidmet waren. Basierend auf dieser Erkenntnis schlagen wir eine verbesserte Version des AIRS-Algorithmus vor, die wir AIRS3 nennen. AIRS3 berücksichtigt einen wichtigen Parameter, der vom ursprünglichen Algorithmus ignoriert wurde, nämlich die Anzahl der Trainingsantigene, die jede Gedächtniszelle am Ende des Lernens repräsentiert (;-;-;-;https://link.springer.com/article/10.1007/s10462-012-9360-0 6fa85bb668f5b18e25f5dba2bca3e933;de;;;7.4.;;;Convolutional Neural Networks zur Korrektur von Fehlern in englischen Artikeln In diesem Artikel werden konvolutionelle neuronale Netze für die Fehlerkorrektur von englischen Artikeln verwendet. Anstatt Merkmale zu verwenden, die auf menschlichem Einfallsreichtum und vorherigem Wissen über die Verarbeitung natürlicher Sprache beruhen, werden die den Kontext des Artikels umgebenden Wörter als Merkmale genommen. Unser Ansatz konnte sowohl an einem fehlerannotierten Korpus als auch an einem fehlerfreien Korpus trainiert werden. Die Experimente werden mit dem CoNLL-2013-Datensatz durchgeführt. Unser Ansatz erreicht 38,10 % in F1 und übertrifft das beste System (33,40 %), das an der Aufgabe teilnimmt. Experimentelle Ergebnisse zeigen die Wirksamkeit unseres vorgeschlagenen Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25207-0_9 eb5660a7258448161aff8004c5a44431;de;;;7.4.;;;Bewertung der Cyber-Physical Bridging-Intensität von Drohnen Die bidirektionale Koordination zwischen virtuellen Modellen und dem physischen System hat das Potenzial, den Betrieb verschiedener sozialer Infrastrukturen (Straße, Gebäude, Energie, Fabrik usw.) Dokumentationspraktiken in Echtzeit. Zwei riesige Industrien (IoT und Drohne) sollen in Zukunft eng miteinander verbunden sein. Die IoT-Technologie verbindet physische Dinge in der realen Welt und virtuelle Dinge in der Cyberumgebung durch Sensoren und Kommunikationstechnologien. Es ist eine zukünftige Internet-Infrastrukturtechnologie, die verschiedene Dienste wie Datenaustausch, Fernmanipulation, Objektverfolgung usw. durch die Verknüpfung von Objekten, Daten und Personen im physischen und virtuellen Raum bereitstellen kann. Der Zweck dieses Kapitels ist es, Vorteile und Werte von Drohnen im Vergleich zu den bestehenden Methoden im Rahmen der Cyber-Physical Bridging Intensität aufzuzeigen und die realistischen Potenziale zwischen dem autonomen Fahren und dem Fliegen auszuloten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3741-3_7 88b2c01c394e93213c3dee1f2c6704a7;de;;;7.4.;;;Inkrementelles Support Vector Machine Framework für visuelle Sensornetzwerke Motiviert durch die aufkommenden Anforderungen von Überwachungsnetzwerken präsentieren wir in diesem Papier eine inkrementelle Multiklassifizierungs-Support-Vektor-Maschine (SVM)-Technik als neuen Rahmen für die Aktionsklassifizierung basierend auf Echtzeit-Multivideo, das von homogenen Standorten gesammelt wurde. Die Technik basiert auf einer Anpassung der Least Square SVM (LS-SVM)-Formulierung, geht jedoch über das statische bildbasierte Lernen aktueller SVM-Methodiken hinaus. Bei der Anwendung der Technik folgt auf eine anfängliche überwachte Offline-Lernphase eine visuelle Verhaltensdatenerfassung und eine Online-Lernphase, während der der Clusterkopf basierend auf den Sensorknoteneingaben ein Ensemble von Modellaggregationen durchführt. Der Clusterkopf schaltet dann selektiv bestimmte Sensorknoten für zukünftiges inkrementelles Lernen ein. Die Kombination von Sensordaten bietet eine Verbesserung gegenüber der Einzelkamera-Erfassung, insbesondere wenn letztere eine verdeckte Sicht auf das Zielobjekt hat. Die damit verbundene Optimierung verringert die Belastungen des Energieverbrauchs und der Anforderungen an die Kommunikationsbandbreite. Die resultierende Fehlklassifikationsfehlerrate, die iterative Fehlerreduktionsrate des vorgeschlagenen inkrementellen Lernens und die Entscheidungsfusionstechnik beweisen ihre Gültigkeit bei Anwendung auf visuelle Sensornetzwerke. Darüber hinaus ermöglicht das ermöglichte Online-Lernen eine adaptive Domänenwissenseinfügung und bietet den Vorteil, dass sowohl die Modelltrainingszeit als auch die Informationsspeicheranforderungen des Gesamtsystems reduziert werden, was es für die Kommunikation über verteilte Sensornetzwerke noch attraktiver macht.;-;-;-;https://link.springer.com/article/10.1155/2007/64270 5a7230e4e9e6d563ec8810d1bc857ff8;de;;;7.4.;;;Umfassende Konfliktanalyse von Data Mining basierend auf Evidence Theory Auf der Grundlage der Kombination der Korrelationsfunktion mit der Glaubensfunktion etabliert dieses Papier den Analyse- und Verarbeitungsmechanismus von Widersprüchen aus Erweiterungsassoziation und Ähnlichkeit. Darüber hinaus werden Support und Glaubwürdigkeit, Konflikt und Erweiterbarkeit von Daten unter Unsicherheit durch die Vereinigung von Extenics und Data Mining aufgebaut. Schließlich diskutieren wir die Bedingungen der Konflikttransformation, den Änderungsraum und die optimale Auswahl des Kollisionsproblems basierend auf der Erweiterungskonvertierung, um die Genauigkeit und Zuverlässigkeit der Konfliktlösung und des regelbasierten Schließens komplexer Beziehungsprobleme im Erweiterungs-Data-Mining zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23345-6_104 23d9264c43a91d2ba5628e2530dc61b5;de;;;7.4.;;;Lerndynamik der Gradientenabstiegsoptimierung in tiefen neuronalen Netzen Stochastische Gradientenabstieg (SGD)-basierte Optimierer spielen in den meisten Deep-Learning-Modellen eine Schlüsselrolle, dennoch bleibt die Lerndynamik des komplexen Modells unklar. SGD ist das grundlegende Werkzeug zur Optimierung von Modellparametern und wird in vielen abgeleiteten Formen verbessert, einschließlich SGD-Impuls und Nesterov-beschleunigter Gradient (NAG). Die Lerndynamik von Optimiererparametern wurde jedoch selten untersucht. Wir schlagen vor, die Modelldynamik aus der Perspektive der Kontrolltheorie zu verstehen. Wir verwenden die Statusübertragungsfunktion, um Parameterdynamiken für verschiedene Optimierer als Regelsystem erster oder zweiter Ordnung zu approximieren und erklären so, wie sich die Parameter theoretisch auf die Stabilität und Konvergenzzeit von Deep-Learning-Modellen auswirken und verifizieren unsere Ergebnisse durch numerische Experimente.;-;-;-;https://link.springer.com/article/10.1007/s11432-020-3163-0 c27d12fc445fccd6c59b541213bed492;de;;;7.4.;;;Inkrementelles anonymes Data-Mining-Verfahren zum Schutz der Privatsphäre basierend auf Feature-Korrelationsalgorithmus Mit der Ankunft des Informationszeitalters werden Datenschutzlecks immer ernster. Die häufig verwendete Methode zum Schutz der Privatsphäre ist die Einführung von K-Anonymität bei der Veröffentlichung von Daten. In diesem Beitrag wird untersucht, wie k-Anonymität in Bachdatensätzen eingesetzt werden kann, und der Zusammenhang und die Sensitivitätsmatrix des Basiswissens über Quasi-Identifikatoren (QI) und sensible Attribute werden etabliert. Der RSLK-Anonymitätsalgorithmus wird vorgeschlagen, um den Verlust privater Informationen während der Veröffentlichung von Streaming-Daten zu lösen. Die Hauptidee besteht darin, den Streaming-Datensatz auf der Grundlage von Sliding Window sowie Relation und sensibler Matrix zu anonymisieren, wodurch anonyme Streaming-Daten Hintergrundwissensangriffe und Homogenitätsangriffe effektiv abwehren und gleichzeitig sensible Attributvielfalt lösen können. Experimentelle Ergebnisse zeigen, dass der RSLK-Anonymitätsalgorithmus praktisch, effektiv und hocheffizient ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-3150-4_18 955f761cf811ab63940ed9f260dac2cb;de;;;7.4.;;;Prädiktive Analyse auf Twitter: Techniken und Anwendungen Die prädiktive Analyse von Social-Media-Daten hat aufgrund der wesentlichen und umsetzbaren Informationen, die sie liefern kann, erhebliche Aufmerksamkeit sowohl in der Forschungsgemeinschaft als auch in der Geschäftswelt auf sich gezogen. Im Laufe der Jahre wurden umfangreiche Experimente und Analysen durchgeführt, um Erkenntnisse unter Verwendung von Twitter-Daten in verschiedenen Bereichen wie Gesundheitswesen, öffentliche Gesundheit, Politik, Sozialwissenschaften und Demografie zu gewinnen. In diesem Kapitel diskutieren wir Techniken, Ansätze und modernste Anwendungen der prädiktiven Analyse von Twitter-Daten. Konkret präsentieren wir feingranulare Analysen unter Einbeziehung von Aspekten wie Sentiment, Emotion und Nutzung von Domain-Wissen bei der grobgranularen Analyse von Twitter-Daten für Entscheidungen und Maßnahmen und erzählen einige Erfolgsgeschichten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94105-9_4 99ad5c4a7cd4155b41cd16efa0b05f26;de;;;7.4.;;;Verzerrungsfreie nichtlineare Dimensionsreduktion Die Reduzierung der nichtlinearen Dimensionalität ist ein wichtiges Thema in vielen Bereichen des maschinellen Lernens, in denen im Wesentlichen niedrigdimensionale Daten nichtlinear in einen hochdimensionalen Raum eingebettet sind. In diesem Papier zeigen wir, dass die bestehende Laplace-Eigenmaps-Methode unter dem Verzerrungsproblem leidet und schlagen eine neue verzerrungsfreie Methode zur Dimensionsreduktion vor, indem wir ein lokales lineares Modell zur Codierung der lokalen Informationen verwenden. Wir führen eine neue Verlustfunktion ein, die als ein anderer Weg zum Konstruieren der Laplace-Matrix und als neuer Weg zum Auferlegen von Skalierungsbeschränkungen unter dem lokalen linearen Modell angesehen werden kann. Bessere niederdimensionale Einbettungen werden durch ein eingeschränktes konkav-konvexes Verfahren erhalten. Empirische Studien und Praxisanwendungen haben die Wirksamkeit unserer Methode gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87479-9_55 1dc2020ab8a9c22fbb963804346941c7;de;;;7.4.;;;Ein neuer Data-Mining-Ansatz zum Auffinden von Co-Location-Mustern aus räumlichen Daten Räumliche Co-Location-Muster stellen die Teilmengen von Booleschen räumlichen Features dar, deren Instanzen sich oft in unmittelbarer geografischer Nähe befinden. Diese Muster leiten die sinnvolle Beziehung zwischen räumlichen Daten ab. Kollokationsregeln können durch räumliche Statistiken oder Data-Mining-Ansätze identifiziert werden. Im Data-Mining-Verfahren können regelbasierte Assoziationsansätze verwendet werden, die weiter in transaktionsbasierte Ansätze und entfernungsbasierte Ansätze unterteilt werden. Transaktionsbasierte Ansätze konzentrieren sich auf die Definition von Transaktionen über den Raum, so dass ein Apriori-Algorithmus verwendet werden kann. Der natürliche Begriff von Transaktionen fehlt in Geodatensätzen, die in einen kontinuierlichen geografischen Raum eingebettet sind. Es wird ein neuer entfernungsbasierter Ansatz entwickelt, um Co-Location-Muster aus Geodaten zu ermitteln, indem das Konzept der Proximity-Nachbarschaft verwendet wird. Für räumliche Co-Location-Muster wird ein neues Interessemaß, ein Partizipationsindex, verwendet, da er eine antimonotone Eigenschaft besitzt. Es wird ein Algorithmus zum Entdecken von Co-Location-Mustern entworfen, der Kandidaten-Locations und ihre Tabelleninstanzen generiert. Schließlich werden die Co-Location-Regeln generiert, um die Muster zu identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22555-0_55 074502ed5a876807120bfb886016bc39;de;;;7.4.;;;Audiosignalverarbeitung für Android-Malware-Erkennung und Familienidentifikation Mobile Malware nimmt an Komplexität und Bösartigkeit zu, insbesondere im Hinblick auf die bösartigen Beispiele, die auf die Android-Plattform, das derzeit am weitesten verbreitete Betriebssystem für mobile Geräte, abzielen. In diesem Szenario sind Anti-Malware-Technologien nicht in der Lage, die sogenannte Zero-Day-Malware zu erkennen, da sie mobile Malware erst dann erkennen können, wenn ihre bösartige Signatur im Anti-Malware-Repository gespeichert ist (d. h. der sogenannte signaturbasierte Ansatz). Ausgehend von diesen Überlegungen wird in diesem Beitrag ein Ansatz zur Erkennung von Android-Malware vorgeschlagen. Darüber hinaus zielt der vorgeschlagene Ansatz darauf ab, die Zugehörigkeit der zu analysierenden Schadmuster zu erkennen. Wir stellen die ausführbare Datei der Anwendung in Form einer Audiodatei dar und extrahieren mithilfe von Audiosignalverarbeitungstechniken eine Reihe von numerischen Merkmalen aus jedem Sample. Daher bauen wir mehrere Modelle für maschinelles Lernen auf und bewerten deren Wirksamkeit in Bezug auf Malware-Erkennung und Familienidentifikation. Wir experimentieren die von uns vorgeschlagene Methode mit einem Datensatz, der aus 50.000 Android-Beispielen aus der realen Welt besteht (24.553 bösartig in 71 Familien und 25.447 legitim), indem wir eine Genauigkeit von 0,952 bei der Android-Malware-Erkennung und 0,922 bei der Familienerkennung erreichen.;-;-;-;https://link.springer.com/article/10.1007/s11416-020-00376-6 ba3c5706d0a9b58219cd9c90e9b31f14;de;;;7.4.;;;Vorhersagemodellierung für den Herstellungsprozess von Barren unter Verwendung der Data-Mining-Roadmap einschließlich dynamischer polynomialer neuronaler Netze und Bootstrap-Methode Der Zweck dieser Studie war die Entwicklung eines Prozessmanagementsystems zur Steuerung der Barrenherstellung und der Qualität der Barren. Der Ingot ist das erste hergestellte Material von Wafern. Spurenparameter wurden online gesammelt, aber die Messparameter wurden durch Stichprobeninspektion gemessen. Zur Bewertung der Qualität wurden die Qualitätsparameter herangezogen. Daher war eine Vorverarbeitung notwendig, um nützliche Informationen aus den Qualitätsdaten zu extrahieren. Zuerst wurden statistische Methoden zur Datengenerierung verwendet, und dann wurde mit den generierten Daten eine Modellierung durchgeführt, um die Leistung der Modelle zu verbessern. Die Funktion der Modelle besteht darin, die den Kontrollparametern entsprechende Qualität vorherzusagen.;-;-;-;https://link.springer.com/chapter/10.1007/11539117_81 493a35da264ab7b785037a71d0744f75;de;;;7.4.;;;Machine-Learning-Techniken zur Vorhersage des Software-Testaufwands Software Testing (ST) gilt als eine der wichtigsten und kritischsten Aktivitäten des Software Development Life Cycle (SDLC), da es sich direkt auf die Qualität auswirkt. Wenn ein Softwareprojekt geplant wird, ist es gängige Praxis, den entsprechenden ST-Aufwand (STEP) als Prozentsatz des prognostizierten SDLC-Aufwands vorherzusagen. Der Anstrengungsbereich für ST wurde jedoch zwischen 10 und 60 % der vorhergesagten SDLC-Anstrengung angegeben. Diese breite Palette von STEP verursacht Unsicherheit bei Softwaremanagern, da STEP für die Zuweisung von Ressourcen an Teams ausschließlich für Testaktivitäten sowie für die Budgetierung und Ausschreibung der Projekte verwendet wird. Trotz dieser Besorgnis wurden seit 1981 Hunderte von Studien über SDLC-Leistungsvorhersagemodelle veröffentlicht, und nur einunddreißig STEP-Studien, die in den letzten zwei Jahrzehnten veröffentlicht wurden, wurden identifiziert (nur zwei davon basierten ihre Schlussfolgerungen auf statistischer Signifikanz). Der Beitrag der vorliegenden Studie besteht darin, die Anwendung von fünf Modellen für maschinelles Lernen (ML) für STEP zu untersuchen, die als die genauesten gemeldet wurden, wenn sie auf die SDLC-Aufwandsvorhersage angewendet werden. Die Modelle wurden mit Datensätzen von Projekten trainiert und getestet, die aus einem internationalen öffentlichen Repository von Softwareprojekten ausgewählt wurden. Die Auswahl der Projekte basierte auf der Bewertung der Datenqualität, der Art der Entwicklung, der Entwicklungsplattform, der Programmiersprachengenerierung, der Dimensionierungsmethode und dem Ressourcenniveau der Projekte. Auf statistischer Signifikanz basierende Ergebnisse ermöglichen es, die Anwendung spezifischer ML-Modelle auf Softwareprojekte nach Art der Entwicklung vorzuschlagen und auf einer bestimmten Plattform und Programmiersprachengeneration entwickelt.;-;-;-;https://link.springer.com/article/10.1007/s11219-020-09545-8 c8dfd1b9fc5685496352b33b0b768682;de;;;7.4.;;;Merkmalsextraktion durch Verwendung des Aufmerksamkeitsmechanismus bei der Textklassifizierung In den letzten Jahren hat sich die Technologie des maschinellen Lernens in den Bereichen Computer Vision, Verarbeitung natürlicher Sprache, Spracherkennung usw. Und das Modell des maschinellen Lernens wird häufig bei der Gesichtserkennung, beim automatischen Fahren, der Malware-Erkennung, der intelligenten medizinischen Analyse und anderen praktischen Aufgaben verwendet. In diesem Papier wird ein Aufmerksamkeitsmechanismus vorgeschlagen, der mit dem LSTM-Modell kombiniert werden kann, um Merkmale in der Textklassifizierung zu extrahieren. Die Ergebnisse zeigen, dass LSTM + Aufmerksamkeit einerseits die Klassifikationsleistung verbessern kann, andererseits durch die Sortierung nach von der Aufmerksamkeitsschicht generierten Wortgewichtungen einige sinnvolle Wortmerkmale gefunden werden, die Erkennungsleistung jedoch nicht gut ist. Einige mögliche Gründe wurden analysiert und es wurde festgestellt, dass der Aufmerksamkeitsmechanismus manchmal falsche Wortmerkmale falsch einschätzt, was darauf zurückzuführen ist, dass diese falschen Wörter oft gleichzeitig mit bedeutungsvollen Wortmerkmalen erscheinen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7984-4_6 7daf90cd309b68aced9c31846ddc8b47;de;;;7.4.;;;Hybridmodell mit Word2vector im Information Retrieval Ranking Die Menschen haben die Bedeutung des Auffindens und Archivierens von Informationen mit dem Aufkommen von Computern seit Tausenden von Jahren erkannt, und das Speichern großer Datenmengen wurde möglich. Es hat eigentlich nichts mit dem Holen der Dokumente zu tun, es informiert den Benutzer über den Verbleib und die Existenz der Dokumente. In diesem Artikel wurde ein Hybridmodell verwendet, bei dem das Dokument mit dem Klassifikator der Support Vector Machine (SVM) klassifiziert wird und nach Anwendung der Bedingung, wenn sie erfüllt ist, die Extraktion des passenden Absatzes und des Satzes für entsprechende Antwort generieren. Die Wissensdatenbank wird aktualisiert, wenn die Bedingung nicht übereinstimmt, und eine neue aktualisierte Antwort wird generiert. Schließlich wird die beste Antwort nach dem Ranking mithilfe der PSO-Optimierung angezeigt. Word2vector wird für die Merkmalsextraktion verwendet. In diesem Papier wird der Vergleich von RankSVM, RankPSO und RankHSVM + PSO für die Implementierung des IR-Rankings betrachtet. Hier wird zuerst SVM als Klassifikator zur Aufteilung der relevantesten und nicht relevantesten Ergebnisse verwendet, und anschließend wird PSO zur Optimierung des Ergebnisses verwendet, was die Extraktion der besten Antwort oder des besten Dokuments bedeutet. Die Auswahl geeigneter Parameter ist bei einfachen SVM schwierig, aber für die Rangfolge der Antworten ergeben sich mögliche Lösungen. PSO wird zur Optimierung verwendet, die eine globale Suchfähigkeit besitzt und einfach zu implementieren ist, um so das Ranking der Dokumentensuche zu optimieren. Wir schlagen das RankHSVM + PSO-Modell vor, um die Fitnessfunktion zu finden. Diese Technik verbessert die Leistung des Systems im Vergleich zu anderen Techniken. Das Ergebnis zeigt, dass der hier angewandte Algorithmus den Wert der Leistungsbewertung um 4–5% verbessert. Es wird der TREC 2004 QA DATA-Datensatz verwendet, der meine Datensätze enthält. Es hat seit 1999 einen Frage-Antwort-Track. Die Aufgabe wurde in jedem Track definiert. Der Abruf einer echten äquivalenten Testsammlung für den Standardabruf ist ein offenes Problem. In einer Wiedergewinnungstestsammlung hat die Einheit, die das Dokument beurteilt, eine eindeutige Kennung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8335-3_58 842d240f64e91cc1639500be026b8b93;de;;;7.4.;;;Vielfalt und Neuro-Ensemble Die Bildung eines Ensembles künstlicher neuronaler Netze hat die Aufmerksamkeit von Forschern im Bereich des maschinellen Lernens und der statistischen Inferenz auf sich gezogen. Es hat sich gezeigt, dass die Kombination verschiedener neuronaler Netze die Generalisierungsfähigkeit von lernenden Maschinen verbessern kann. Die Vielfalt der Ensemblemitglieder spielt eine Schlüsselrolle bei der Minimierung der kombinierten Voreingenommenheit und Varianz des Ensembles. In diesem Kapitel vergleichen wir verschiedene Mechanismen und Methoden zur Förderung von Vielfalt in einem Ensemble. Im Allgemeinen fanden wir, dass es wichtig ist, den Mechanismus zur Förderung der Vielfalt sehr sorgfältig zu gestalten, damit die Leistung des Ensembles zufriedenstellend ist.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-32358-9_7 17ec81c0b8116b6c049489a6fa6d7db9;de;;;7.4.;;;Ein künstlicher Wirkstoff zur Erkennung anatomischer Landmarken in medizinischen Bildern Die schnelle und robuste Erkennung anatomischer Strukturen oder Pathologien stellt eine grundlegende Aufgabe in der medizinischen Bildanalyse dar. Die meisten der gegenwärtigen Lösungen sind jedoch suboptimal und uneingeschränkt, indem sie ein Aussehensmodell lernen und den Parameterraum erschöpfend scannen, um eine spezifische anatomische Struktur zu erkennen. Darüber hinaus basiert die typische Merkmalsberechnung oder Schätzung von Metaparametern in Bezug auf das Erscheinungsmodell oder die Suchstrategie auf lokalen Kriterien oder vordefinierten Näherungsschemata. Wir schlagen eine neue Lernmethode vor, die einem grundlegend anderen Paradigma folgt, indem wir gleichzeitig sowohl das Objektauftritt als auch die Parametersuchstrategie als einheitliche Verhaltensaufgabe für einen künstlichen Agenten modellieren. Die Methode kombiniert die Vorteile des Verhaltenslernens durch Reinforcement Learning mit einer effektiven hierarchischen Merkmalsextraktion durch Deep Learning. Wir zeigen, dass der Agent bei nur einer Sequenz von annotierten Bildern automatisch und strategisch optimale Pfade lernen kann, die zum gesuchten anatomischen Orientierungspunkt konvergieren, anstatt den gesamten Lösungsraum erschöpfend zu scannen. Die Methode übertrifft moderne Machine-Learning- und Deep-Learning-Ansätze sowohl hinsichtlich Genauigkeit als auch Geschwindigkeit bei 2D-Magnetresonanzbildern, 2D-Ultraschall- und 3D-CT-Bildern deutlich und erreicht durchschnittliche Erkennungsfehler von 1-2 Pixeln bei gleichzeitiger Erkennung das Fehlen eines Objekts im Bild.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-46726-9_27 0443848cb45c66f22b376d73186f4ab0;de;;;7.4.;;;Umstrukturierung der Data-Mining-basierten Delikatesse-Management-Plattform für College-Studenten Durch die Integration von Campus-Ressourcen und die Beseitigung von Datenbarrieren können wir eine einheitliche Datenmanagementplattform und eine umfassende Verhaltensmanagementplattform für College-Studenten aufbauen, um Daten zu gewinnen, zu waschen und zu analysieren, die zuvor über die Big-Data-Plattform in mehreren Einzelsystemen verstreut waren. Durch die Kombination von Echtzeit-Online- und Offline-Daten zu diesen Studenten kann die Plattform Informationen über das Studium, das Leben und die Arbeit der Studenten auf dem Campus aus mehreren Dimensionen analysieren, ein Profil für Studenten basierend auf ihren aktuellen Bedingungen entwerfen und reale zeitgezielte Intervention und angemessene Unterstützung für Schüler, die große mentale Höhen und Tiefen und dramatische Veränderungen in den täglichen Verhaltensdaten erleben, um die Effizienz des täglichen Managements der Schüler zu verbessern, die Manövrierfähigkeit zur Lösung potenzieller Risiken durch frühzeitige Intervention zu verbessern, und Feinkostmanagement erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-51431-0_65 17d689487bce87e376a98cac78efd5c6;de;;;7.4.;;;Eine vergleichende Studie verschiedener Methoden des maschinellen Lernens an Microarray-Genexpressionsdaten Zur Identifizierung unterschiedlich exprimierter Gene in Microarray-Daten wurden mehrere Klassifikations- und Merkmalsauswahlmethoden untersucht. Klassifikationsmethoden wie SVM, RBF Neural Nets, MLP Neural Nets, Bayesian, Decision Tree und Random Forrest Methoden wurden in neueren Studien verwendet. Die Genauigkeit dieser Methoden wurde mit Validierungsmethoden wie der v-fold-Validierung berechnet. Es fehlt jedoch an Vergleichen zwischen diesen Methoden, um einen besseren Rahmen für die Klassifizierung, das Clustern und die Analyse der Ergebnisse der Mikroarray-Genexpression zu finden.;-;-;-;https://link.springer.com/article/10.1186/1471-2164-9-S1-S13 bf19f4afc2bc8cff836d8b3e0b85cf95;de;;;7.4.;;;Umfassender Überblick über Segmentierungs- und Klassifikationstechniken von retinalen Blutgefäßen: Intelligente Lösungen für Green Computing in medizinischen Bildern, aktuelle Herausforderungen, offene Fragen und Wissenslücken in medizinischen Bildern des Fundus In jüngster Zeit hat die Entwicklung innovativer computergestützter Techniken zur Segmentierung und Klassifikation von Netzhautgefäßen Fortschritte gemacht, deren Anwendung in der klinischen Anwendung vorherrschend ist. Ziel dieser Studie ist es daher, einen detaillierten Überblick über die verfügbaren Techniken zur Segmentierung und Klassifikation von Netzhautgefäßen zu geben. Zunächst werden die Netzhautfundusfotografie und Netzhautbildmuster kurz vorgestellt. Anschließend wird eine Einführung in die Vorverarbeitungsvorgänge und fortgeschrittene Methoden zur Identifizierung von Netzhautgefäßen besprochen. Darüber hinaus wird eine Diskussion über das Validierungsstadium und die Bewertung der Ergebnisse der Segmentierung von Netzhautgefäßen präsentiert. In diesem Artikel werden die vorgeschlagenen Methoden zur Klassifizierung von Arterien und Venen in Fundusbildern ausführlich besprochen, die in automatische und halbautomatische Kategorien eingeteilt werden. Die Klassifizierung von Gefäßen in Bildern des Netzhauthintergrundes ist mit einigen Herausforderungen verbunden, zu denen der geringe Kontrast des Fundusbildes und die Inhomogenität der Hintergrundbeleuchtung gehören. Die Inhomogenität entsteht durch den Abbildungsprozess, während der geringe Kontrast, der das Bild begleitet, durch die Variation zwischen Hintergrund und Kontrast der verschiedenen Blutgefäße verursacht wird. Das bedeutet, dass der Kontrast dickerer Gefäße höher ist als bei dünneren. Eine weitere Herausforderung sind die Farbveränderungen der Netzhaut bei verschiedenen Probanden, die in biologischen Merkmalen wurzeln. Die meisten Techniken zur Klassifizierung der Netzhautgefäße basieren auf geometrischen und visuellen Merkmalen, die die Venen von den Arterien unterscheiden. In dieser Studie werden verschiedene Hauptbeiträge als Übersichtsstudien zusammengefasst, die Deep-Learning-Ansätze und maschinelle Lerntechniken anwenden, um alle Einschränkungen und Probleme bei der Segmentierung und Klassifikation von retinalen Blutgefäßen anzugehen. Wir überprüfen auch die aktuellen Herausforderungen, Wissenslücken und offenen Fragen, Einschränkungen und Probleme bei der Segmentierung und Klassifikation von retinalen Blutgefäßen.;-;-;-;https://link.springer.com/article/10.1007/s13721-021-00294-7 4cc4262e9d59cebd31e35bb631f80a8c;de;;;7.4.;;;Ungefähre Reduzierung von AUC-Maximierung zu 1-Norm-Soft-Margin-Optimierung Für die Rankingforschung ist es wichtig, lineare Klassifikatoren zu finden, die die AUC-Werte maximieren. Dies wird natürlich als 1-Norm-Hard/Soft-Margin-Optimierungsproblem über . formuliert;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24412-4_26 9aafdacd2af531670af44d802dd85b8e;de;;;7.4.;;;Lernen aus positiven und unmarkierten Dokumenten zum Abrufen von Literatur zur bakteriellen Protein-Protein-Interaktion Mit dem Fortschritt von Hochdurchsatz-Genom- und Proteomik-Technologien wird es entscheidend, Protein-Protein-Interaktions-(PPI)-Netzwerke aus der biologischen Forschungsliteratur zu ermitteln und zu kuratieren. Mehrere PPI-Wissensdatenbanken wurden von Domänenexperten kuratiert, sind jedoch bei weitem nicht umfassend. Unter der Beobachtung, dass PPI-relevante Dokumente aus PPI-Wissensdatenbanken mit Literaturnachweisen bezogen werden können und auch eine große Anzahl von nicht gekennzeichneten Dokumenten (meist negativ) frei verfügbar sind, haben wir untersucht;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13131-8_8 3000cd29a8084db935254f1e0e83fc33;de;;;7.4.;;;Effektivität von Ensemble Machine Learning Algorithmen bei der Wettervorhersage für Bangladesch Maschinelles Lernen (ML) gilt als grundlegender Ansatz bei der Vorhersage verschiedener Phänomene, einschließlich des Wetters. Dieser Artikel konzentriert sich auf die Anwendung von ML-Modellen bei der Wettervorhersage für Bangladesch, wo sich das Wetter häufig ändert. Die Neuheit dieser Arbeit liegt in der Anwendung von Ensembleregressionsalgorithmen auf einen Rohdatensatz, der von der Bangladesh Meteorological Division für die Jahre 2012 bis 2018 gesammelt wurde quer durch Bangladesch. Der Datensatz ist in Trainings- und Testanteile aufgeteilt, wobei die Daten der Jahre 2012 bis 2017 zum Training verwendet werden, während die Daten des Jahres 2018 zum Testen verwendet werden. Die Vorhersage erfolgt unter Verwendung mehrerer ML-basierter Regressionsalgorithmen, darunter Support Vector Regression (SVR), lineare Regression, Bayesian Ridge, Gradient Boosting (GB), Extreme Gradient Boosting (XGBoost), Category Boosting (CatBoost), Adaptive Boosting (AdaBoost), k-nächste Nachbarn (KNN) und Entscheidungsbaum-Regressor (DTR). Unsere Ergebnisse zeigen, dass die DTR- und CatBoost-Algorithmen die in der Literatur beschriebenen Algorithmen in Bezug auf den mittleren quadratischen Fehler (MSE), den mittleren absoluten prozentualen Fehler (MAPE) und den mittleren absoluten Fehler (MAE) übertreffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-73603-3_25 6b5148e837a4570d54931eb0eb5d5c67;de;;;7.4.;;;Ereigniserkennung aus sozialen Medien mit maschinellem Lernen Social-Media-Netzwerke haben sich in den letzten Tagen zu einer neuen zuverlässigen Informations- und Nachrichtenquelle entwickelt. Viele Möglichkeiten bieten Social Media. Social Media liefert alle notwendigen Informationen, die für die Ereigniserkennung aus Text und Bild, die Identifizierung von Schlüsselposten und Plakaten und die Entwicklung eines Warnsystems im Katastrophenfall erforderlich sind. Die Ereigniserkennung in sozialen Medien ist eine der wichtigsten Aufgaben im Computerbereich. Es erleichtert die Entwicklung von Präventivmaßnahmen für die Unternehmen. Die Ereigniserkennung erregt Aufmerksamkeit, da Social Media von Tag zu Tag beliebter wird. Die vorgeschlagenen Ansätze repräsentieren das soziale Netzwerk nicht vollständig. Bemerkenswerte Veränderungen können im Kontext des sozialen Netzwerks vorgenommen werden, indem ein Ereignis als Ereignis mit genügend Schwung und Kraft definiert wird. Unser Motiv besteht also darin, ein Ereignis anhand seiner notwendigen Eigenschaften zu erkennen. In diesem Artikel werden verschiedene Arten von Ereigniserkennungsmethoden beschrieben, die vorgeschlagen wurden, um heiße Ereignisse, wichtige Beiträge und einflussreiche Poster zu ermitteln. Außerdem wurden verschiedene Modelle zur Analyse von Daten aus sozialen Medien beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7504-4_53 677313d85b826d62cc851b8cb46cd355;de;;;7.4.;;;Algebraic Bayesian Networks: Naiver Frequentist-Ansatz für lokales maschinelles Lernen basierend auf unvollständigen Informationen aus sozialen Medien und Expertenschätzungen Die Aufgabe des Modelllernens stellt sich in algebraischen Bayesschen Netzen als eines der probabilistischen grafischen Modelle. Es sind mehrere Ansätze zum maschinellen Lernen von algebraischen Bayesschen Netzwerken bekannt. Diese Forschung widmet sich dem Algorithmus des maschinellen Lernens eines algebraischen Bayesschen Netzwerks, das durch ein Wissensmuster über fehlende Daten repräsentiert wird. Neben diesem Algorithmus werden einige Beispiele für maschinelles Lernen auf künstlichen und realen Daten aus sozialen Medien betrachtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30763-9_20 b2f15b1ee2a30468477ca572cec3f52c;de;;;7.4.;;;Automatische Zuweisung von Workitems Viele Softwareentwicklungsprojekte verwenden Arbeitselemente wie Aufgaben oder Fehlerberichte, um die zu erledigende Arbeit zu beschreiben. Bei einigen Projekten können Endbenutzer oder Kunden neue Arbeitselemente eingeben. Neue Workitems müssen triagiert werden. Der wichtigste Schritt besteht darin, einem verantwortlichen Entwickler neue Workitems zuzuweisen. Es gibt bestehende Ansätze, Fehlerberichte basierend auf den Erfahrungen bestimmter Entwickler basierend auf maschinellem Lernen automatisch zuzuweisen. Wir schlagen einen neuartigen modellbasierten Ansatz vor, der Beziehungen von Workitems zur Systemspezifikation für die Aufgabenstellung berücksichtigt. Wir vergleichen diesen neuen Ansatz mit bestehenden Techniken zum Mining von Textinhalten und strukturellen Informationen. Alle Techniken werden auf verschiedene Arten von Arbeitsaufgaben angewendet, einschließlich Fehlerberichten und Aufgaben. Für unsere Evaluierung durchsuchen wir das Modell-Repository von drei verschiedenen Projekten. Wir haben auch Verlaufsdaten aufgenommen, um zu bestimmen, wie gut sie in verschiedenen Staaten funktionieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23391-3_17 d4ac9c277bd072245c05a655beac5d74;de;;;7.4.;;;Geschäftsprognosen im Lichte statistischer Ansätze und Klassifikatoren des maschinellen Lernens Das Papier konzentriert sich auf einen nicht-konventionellen Ansatz mit Poisson- und Binomialverteilungen für eine optimale strategische Geschäftsprognose. Eine Analyse wurde auf der Grundlage der Gewinn-Verlust-Statistiken von aufeinanderfolgenden zehn Jahren durchgeführt. Die Relevanz der Poisson-Verteilung in der Geschäftsprognose wird gezeigt. Die Relevanz der Binomialverteilung in der Geschäftsprognose wird ebenfalls gezeigt. Die Kurvenanpassung wurde angewendet, um einige entdeckte Fakten im Zusammenhang mit der Gewinnanalyse weiter aufzuzeigen. Lineare Regression, Exponential, Parabolisch, Potenzfunktion, Logarithmisch, Polynom 2. Grades und Kurven 4 sind als Fälle dargestellt. Neue Fakten im Zusammenhang mit Geschäftsprognosen im Lichte von Klassifikatoren des maschinellen Lernens wurden aufgezeigt, die zu neuen Richtungen im Bereich der Forschung in der Geschäftsanalyse führen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9939-8_2 c9543d7eed940427e9355b10a2b49d8a;de;;;7.4.;;;Vorhersage des Softwarefehlertyps durch konzeptbasierte Klassifizierung Die automatische Vorhersage des Fehlertyps eines Softwarefehlers anhand seiner Beschreibung kann den Softwarefehlermanagementprozess erheblich beschleunigen und verbessern. Eine große Herausforderung für die auf überwachtem Lernen basierenden aktuellen Ansätze für diese Aufgabe ist der Bedarf an gekennzeichneten Trainingsdaten. Die Erstellung solcher Daten ist eine teure und arbeitsintensive Aufgabe, die domänenspezifisches Fachwissen erfordert. In diesem Beitrag schlagen wir vor, dieses Problem zu umgehen, indem wir eine konzeptbasierte Klassifizierung (CBC) von Softwarefehlerberichten mit Hilfe des Explicit Semantic Analysis (ESA)-Frameworks durchführen. Wir erstellen zunächst die konzeptbasierten Darstellungen eines Softwarefehlerberichts und der Fehlertypen im Softwarefehlerklassifikationsschema, indem wir deren textuelle Beschreibungen in einen von den Wikipedia-Artikeln aufgespannten Konzeptraum projizieren. Anschließend berechnen wir die „semantische“ Ähnlichkeit zwischen diesen konzeptbasierten Darstellungen und ordnen den Softwarefehlertyp zu, der die höchste Ähnlichkeit mit dem Fehlerbericht aufweist. Der vorgeschlagene Ansatz erreicht eine Genauigkeit, die mit dem halbüberwachten und aktiven Lernansatz nach dem Stand der Technik für diese Aufgabe vergleichbar ist, ohne gekennzeichnete Trainingsdaten zu erfordern. Weitere Vorteile des CBC-Ansatzes sind: (i) er benötigt im Gegensatz zum Stand der Technik keinen Quellcode, der zur Behebung eines Softwarefehlers verwendet wird, und (ii) leidet nicht unter dem Problem des Klassenungleichgewichts nach dem Paradigma des überwachten Lernens.;-;-;-;https://link.springer.com/article/10.1007/s10664-019-09779-6 7cf75c6c8c41ab7ba54d87df2414fea3;de;;;7.4.;;;Maschinelles Lernen mit H2O R-Paket: Eine Anwendung in der Bioinformatik Bioinformatik ist ein interdisziplinäres Gebiet, das Informatik, Statistik, Mathematik und Ingenieurwissenschaften kombiniert, um biologische Daten zu analysieren und zu interpretieren. In der Systembiologie erzeugen viele analytische Methoden wie Massenspektrometrie und DNA-Sequenzierung eine große Datenmenge, und fortschrittliche statistische und bioinformatische Werkzeuge werden dringend benötigt, um solche Daten zu analysieren. In dieser Studie wurden Methoden des maschinellen Lernens unter Verwendung des H2O-Pakets in R-Software vorgeschlagen, um 341 flüchtige organische Verbindungen (VOCs) basierend auf ihrer Molekülstruktur zu klassifizieren. Unter Verwendung von neun Arten von molekularen Fingerabdrücken, einschließlich eines neu vorgeschlagenen Fingerabdrucks (COMBINE), um die Moleküle darzustellen, wurden 72 Klassifikationsmodelle erstellt, um die biologischen Aktivitäten von VOCs durch vier maschinelle Lernmethoden vorherzusagen, nämlich Deep Neural Network (DNN), Gradient Boosting Machine (GBM), Random Forest (RF) und Generalized Linear Model (GLM). Die Modelle wurden durch ein externes Validierungsset mit 120 VOCs aus anderen Quellen bewertet. Basierend auf den Berechnungsergebnissen wurde das beste Klassifikationsmodell durch COMBINE Fingerabdruck, trainiert mit der GBM-Methode mit einer Vorhersagegenauigkeit von 94,4% entwickelt und der erhaltene mittlere quadratische Fehler (MSE) betrug 0,3952804. Wir fanden heraus, dass die Kombination von molekularen Fingerabdrücken und maschinellen Lernmethoden zur Vorhersage biologischer Aktivitäten von VOCs verwendet werden kann. Es wird empfohlen, den mit der GBM-Methode trainierten COMBINE-Fingerabdruck im Zusammenhang mit der Klassifizierung von VOCs zu verwenden. Das GBM-Verfahren hat einen Vorteil hinsichtlich der Rechengeschwindigkeit und erfordert weniger Parameter für die Optimierung im Vergleich zu anderen maschinellen Lernverfahren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-7279-7_46 c57ff5dfb75b4796441714f6dcd1c918;de;;;7.4.;;;Erklärbares maschinelles Lernen zur Modellierung der frühen postoperativen Mortalität bei Lungenkrebs In den letzten Jahren sehen wir ein zunehmendes Interesse an der Anwendung komplexer maschineller Lernmethoden auf medizinische Problemstellungen. Black-Box-Modelle basierend auf tiefen neuronalen Netzen oder Ensembles werden in der diagnostischen, personalisierten Medizin immer beliebter (Hamet und Tremblay;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37446-4_13 34bb362e66eeee759c7c5eafd8c20557;de;;;7.4.;;;Ein multiobjektiver Data-Mining-Ansatz für die Vorhersage des Straßenverkehrs Die Straßenverkehrsprognose für eine effiziente Verkehrssteuerung steht in letzter Zeit im Fokus der Forschungsgemeinschaft, da sie wichtige städtische Probleme wie Stadtevakuierungspläne, erhöhte Konzentrationen von CO2-Emissionen und Verzögerungen durch ausgedehnte Staus lösen kann. Das aktuelle Papier schlägt einen neuartigen Ansatz zum multivariaten Data Mining aus vergangenen Verkehrsdaten (dh Durchschnittsgeschwindigkeitswerte pro Straße) vor, um alle signifikanten Korrelationen zwischen den Straßennetzkomponenten (dh den Straßenabschnitten) dynamisch zu erkennen, indem die letztere auf eine niedrigdimensionale Einbettung. Mehrere verkehrsbezogene Merkmale (z. B. Geschwindigkeitskorrelation, räumliche Nähe, Phasendifferenz usw.) werden in einem Mehrziel-Optimierungsrahmen verwendet, wodurch alle Pareto-optimalen Einbettungen erzeugt werden, von denen jede einem anderen Kompromiss zwischen den Zielen entspricht. Der Bediener hat die Möglichkeit, interaktiv zwischen diesen Pareto-optimalen Lösungen auszuwählen, um die am besten beschreibenden Sätze von Straßeneinflüssen zu erkunden. Die vorgeschlagene Methode wurde an realen Verkehrsdaten evaluiert, während die Bewertung der Vorhersageleistung des Mehrzielansatzes eine Genauigkeitsverbesserung in Bezug auf Einzelzielansätze zeigte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-92007-8_36 41fcf52a2261641f84594deaeb3f7008;de;;;7.4.;;;3D-Rekonstruktion der Autoform aus einer Konturskizze mit GAN und Lazy Learning 3D-Automodelle werden häufig in Computerspielen, visuellen Effekten und sogar im Automobildesign verwendet. Daher wird es immer wichtiger, solche Modelle mit minimalen Arbeitskosten zu produzieren. Um dieser Herausforderung zu begegnen, schlagen wir ein neuartiges System vor, um ein 3D-Auto mit einem einzigen Skizzenbild zu rekonstruieren. Das System lernt aus einer synthetischen Datenbank von 3D-Automodellen und den entsprechenden 2D-Konturskizzen und Segmentierungsmasken, was ein effektives Training mit minimalen Datenerfassungskosten ermöglicht. Der Kern des Systems ist eine Machine-Learning-Pipeline, die den Einsatz eines Generative Adversarial Network (GAN) und Lazy Learning kombiniert. GAN ist als Deep-Learning-Methode in der Lage, komplizierte Datenverteilungen zu modellieren, was die effektive Modellierung einer Vielzahl von Autos ermöglicht. Ihre größte Schwäche besteht darin, dass die Modellierung der feinen Details in der lokalen Region als globale Methode eine Herausforderung darstellt. Lazy Learning funktioniert gut, um lokale Merkmale zu erhalten, indem ein lokaler Unterraum mit relevanten Datenproben generiert wird. Wir zeigen, dass der kombinierte Einsatz von GAN und Lazy Learning zu qualitativ hochwertigen Ergebnissen führt, bei denen verschiedene Fahrzeugtypen mit komplizierten lokalen Eigenschaften effektiv mit einer einzigen Skizze generiert werden können. Unsere Methode übertrifft bestehende Methoden, die andere maschinelle Lernstrukturen wie den Variations-Autoencoder verwenden.;-;-;-;https://link.springer.com/article/10.1007/s00371-020-02024-y 6d88c5212faca05e18d6bb2444520d3a;de;;;7.4.;;;Wiederkehrende Muster in einem dreidimensionalen Diagramm basierend auf Data Mining Mit der Verfügbarkeit von Mustererkennung in der digitalen Bildverarbeitung wird es unerlässlich, das Data Mining und die Informationsverarbeitung von Graphenausdrucksmustern zu automatisieren. Dieses Papier konzentriert sich auf das Mining dreidimensionaler (3D) Muster der binokularen Graphen, die durch zwei Kameras als linke und rechte Kamera aufgenommen werden. Ein neuer Algorithmus für das Stereo Matching und 3D Pattern Recurring basierend auf Data Mining wird vorgestellt. Die experimentellen Ergebnisse zeigen, dass der Algorithmus das Muster von Szenengraphen effektiv wiederholen kann.;-;-;-;https://link.springer.com/chapter/10.1007/11811305_100 2887c85e6ff923f94da2204b21d0b4a0;de;;;7.4.;;;Formale Konzeptanalyse für Knowledge Discovery und Data Mining: Die neuen Herausforderungen Data Mining (DM) ist die Extraktion von Gesetzmäßigkeiten aus Rohdaten, die im weiteren Prozess der Wissensentdeckung in Datenbanken (KDD) weiter in nicht-triviale Fakten umgewandelt werden, die die Entscheidungsfindung unterstützen sollen. Die formale Konzeptanalyse (FCA) bietet einen geeigneten Rahmen für KDD, wobei unser Fokus hier auf deren Potenzial zur DM-Unterstützung liegt. Eine Vielzahl von durch FCA unterstützten Mining-Methoden wurden veröffentlicht und die Zahlen wachsen stetig, insbesondere im Bereich Association Rule Mining (ARM). Eine Analyse der aktuellen ARM-Praktiken deutet jedoch darauf hin, dass die Auswirkungen von FCA noch nicht an ihre Grenzen gestoßen sind, d. h. geeignete FCA-basierte Techniken könnten in einer größeren Anzahl von Situationen erfolgreich angewendet werden. Als ersten Schritt in der geplanten FCA-Erweiterung diskutieren wir die bestehenden ARM-Methoden, stellen eine Reihe von Richtlinien für das Design neuer Methoden bereit und listen einige offene algorithmische Probleme auf der FCA-Seite auf. Zur Veranschaulichung schlagen wir zwei Online-Methoden vor, die die minimalen Generatoren eines Verschlusssystems berechnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24651-0_30 3c2aef03821d6f506bc2f118a8e9f0d1;de;;;7.4.;;;Eine Big-Data-Analyseplattform für das Gesundheitswesen auf Apache Spark In den letzten Jahren werden Data-Mining-Techniken wie Klassifikation, Clustering, Assoziation, Regression usw. im Gesundheitswesen häufig eingesetzt, um bei der Analyse und Vorhersage von Krankheiten und der Verbesserung der Qualität und Effizienz medizinischer Leistungen zu helfen. In diesem Beitrag wird eine webbasierte Plattform für die Big-Data-Analyse des Gesundheitswesens mit Data-Mining-Techniken vorgestellt. Die Plattform besteht aus drei Hauptschichten: Apache Spark Layer, Workflow Layer und Web Service Layer. Apache Spark Layer bietet grundlegende Apache Spark-Funktionalitäten als reguläre Resilient Distributed Datasets (RDD)-Operationen. In der Zwischenzeit bietet diese Schicht einen Cache-Mechanismus, um die Verwendung der zuvor berechneten Ergebnisse so weit wie möglich zu maximieren. Workflow Layer kapselt eine Vielzahl von Knoten für Data Mining, die unterschiedliche Rollen wie Datenquelle, Algorithmusmodell oder Evaluierungstool haben. Diese Knoten können in einem Workflow organisiert werden, bei dem es sich um einen gerichteten azyklischen Graphen (DAG) handelt, der dann zur Ausführung an Apache Spark Layer gesendet wird. Und wir haben viele Modelle implementiert, darunter das Naive Bayes-Modell, das Entscheidungsbaummodell und das logistische Regressionsmodell usw. für Big Data im Gesundheitswesen. Web Service Layer implementiert eine umfangreiche, restful API, einschließlich Datenupload, Workflow-Zusammensetzung und Übermittlung von Analyseaufgaben. Wir bieten auch eine grafische Weboberfläche für den Benutzer. Durch die Schnittstelle können Benutzer ein effizientes Data Mining ohne jegliche Programmierung erreichen, was dem medizinischen Personal, das die Programmierung nicht versteht, sehr helfen kann, den Zustand des Patienten genauer und effizienter zu diagnostizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-59858-1_4 02ca05507e54787015a9ab2eaf9a87cf;de;;;7.4.;;;Anwenden von Lernen anhand von Beispielen für die digitale Designautomatisierung Dieses Papier beschreibt einen neuen Lern-durch-Beispiel-Mechanismus und seine Anwendung für die digitale Schaltungsentwurfsautomatisierung. Dieser Mechanismus verwendet endliche Automaten, um die abgeleiteten Modelle oder Designs darzustellen. Die resultierenden Modelle sind unter Verwendung aktueller VLSI-Technologien leicht in Hardware zu implementieren. Unsere Simulationsergebnisse zeigen, dass es oft möglich ist, aus nur einer Sequenz von Beispielen auf ein wohldefiniertes deterministisches Modell oder Design zu schließen. Darüber hinaus ist dieser Mechanismus in der Lage, sequentielle Aufgaben zu bewältigen, die eine langfristige Abhängigkeit beinhalten. Dieser neue beispielhafte Lernmechanismus wird als ein beispielhaftes Design-System für die automatische Synthese digitaler Schaltungen verwendet. Solche Systeme wurden bisher hauptsächlich wegen des Fehlens von Mechanismen zu ihrer Implementierung nicht erfolgreich entwickelt. Aus der Forschung zu künstlichen neuronalen Netzen scheint es möglich zu sein, die durch das Lernen am Beispiel gewonnenen Erkenntnisse auf ein Design-by-Example-System anzuwenden. Jedoch besteht eines der Probleme bei neuronalen Netzansätzen darin, dass die resultierenden Modelle unter Verwendung aktueller VLSI-Technologien sehr schwierig in Hardware zu implementieren sind. Durch die Verwendung des in diesem Papier beschriebenen Mechanismus sind die resultierenden Modelle endliche Automaten, die sich gut für digitale Designs eignen. Mehrere Beispiele für sequentielle Schaltungsdesigns werden simuliert und getestet. Obwohl unsere Testergebnisse zeigen, dass ein solches System für den Entwurf einfacher Schaltungen oder kleiner Schaltungsmodule machbar ist, muss die Machbarkeit eines solchen Systems für den Entwurf von Schaltungen in großem Maßstab noch gezeigt werden. Sowohl der Lernmechanismus als auch die Entwurfsmethode zeigen Potenziale und die zukünftigen Forschungsrichtungen werden aufgezeigt.;-;-;-;https://link.springer.com/article/10.1023/A%3A1014338000161 5ea35e112265e88758b39ba21ca37bed;de;;;7.4.;;;Ein Klick-Vorhersagemodell basierend auf der Resteinheit mit Inception-Modul Die Explosion der Online-Werbung drängt dazu, die Klickvorhersage von Anzeigen besser einzuschätzen. Bei der Klickvorhersage für eine einzelne Anzeigenimpression haben wir Zugriff auf die paarweise Relevanz zwischen Elementen in einer Impression, jedoch nicht auf die globale Interaktion zwischen den Schlüsselmerkmalen von Elementen. Darüber hinaus behandelt das bestehende Verfahren zur sequentiellen Klickvorhersage die Ausbreitung, die für verschiedene Zeitintervalle unveränderlich ist. In dieser Arbeit schlagen wir ein neuartiges Modell vor, das Convolutional Click Prediction Model (RES-IN), das auf einer Residualeinheit mit Inception-Modul basiert. RES-IN kann lokal-globale Schlüsselfunktionsinteraktionen aus einer Eingabeinstanz mit unterschiedlichen Elementen extrahieren, die nicht nur für einzelne Anzeigenimpressionen, sondern auch für sequentielle Anzeigenimpressionen implementiert werden können. Die Versuchsergebnisse von drei öffentlichen groß angelegten Datensätzen zeigen, dass RES-IN bei der Klickvorhersage wirksam ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29911-8_30 61b934c8a93a3385d4ddce785d81f522;de;;;7.4.;;;Von Eliza zu Siri und darüber hinaus Seit Eliza, der erste Chatbot überhaupt, in den 60er Jahren entwickelt wurde, versuchen Forscher, Maschinen dazu zu bringen, natürliche Spracheingaben zu verstehen (oder das Verständnis nachzuahmen). Einige Konversationsagenten zielen auf Smalltalk ab, während andere eher aufgabenorientiert sind. Von den frühesten regelbasierten Systemen bis hin zu den jüngsten datengesteuerten Ansätzen sind wir jedoch noch nicht am Ziel, obwohl viele Wege mit mehr oder weniger Erfolg erforscht wurden. Regelbasierte Systeme erfordern viel manuelle Arbeit, datengesteuerte Systeme benötigen viele Daten. Domainanpassung ist (wieder) ein aktuelles Top-Thema. Die Möglichkeit, den Antworten der Gesprächsagenten Emotionen hinzuzufügen oder ihre Antworten ihre „Persona“ zu erfassen, sind einige beliebte Forschungsthemen. Dieser Beitrag erklärt, warum die Aufgabe des Natural Language Understanding so kompliziert ist, und beschreibt detailliert die linguistischen Phänomene, die zu den größten Herausforderungen führen. Dann wird der lange Weg in diesem Bereich von den früheren Systemen bis hin zu den aktuellen Trends überblickt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-50146-4_3 81a46c14d79a75cc070c0eba23176581;de;;;7.4.;;;Maschinenverständlichkeit und das Dualitätsprinzip Die Größe und Vielfalt vernetzter Datenquellen und Computerprogramme überfordert die menschlichen Fähigkeiten, relevante Informationen zu verarbeiten und sogar zu lokalisieren. Die hohe Rechengeschwindigkeit hat dieses Problem durch die Generierung noch größerer Datenmengen verschärft, die auf eine für menschliche Benutzer im Allgemeinen undurchsichtige Weise gewonnen werden. Das Ergebnis ist eine zunehmende Kluft zwischen den Fähigkeiten von Mensch und Computer. Die immer stärkere Abhängigkeit der Gesellschaft von schnell wachsenden vernetzten Softwarequellen droht ernsthafte Ausfälle, wenn Fragen der Maschinenverständlichkeit keine hohe Priorität eingeräumt wird.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-62560-7_51 2f6a412ab1ce6524d2ec7fd6fd41f89d;de;;;7.4.;;;Statistische Korrelationen und maschinelles Lernen für die Steganalyse In diesem Papier stellen wir ein Schema für die Steganalyse vor, das auf statistischen Korrelationen und maschinellem Lernen basiert. Im Allgemeinen sind digitale Bilder im räumlichen Bereich und im Wavelet-Bereich stark korreliert, das Ausblenden von Daten in Bildern beeinflusst die Korrelationen. Basierend auf ANOVA (Varianzanalyse) in verschiedenen steganographischen Systemen werden verschiedene Korrelationsmerkmale ausgewählt. Zur Klassifizierung der extrahierten Merkmalsvektoren werden verschiedene maschinelle Lernverfahren angewendet. Experimentelle Ergebnisse zeigen, dass unser Schema beim Nachweis des Vorhandenseins von versteckten Botschaften in mehreren steganographischen Systemen sehr effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/3-211-27389-1_105 093e6a99e703c20f38dd7cf7f4980cc0;de;;;7.4.;;;Visual Data Mining in einer immersiven virtuellen Umgebung basierend auf 4K-Stereobildern In dieser Studie wurde eine immersive visuelle Data-Mining-Umgebung in Super-High-Definition mit einem 4K-Stereoprojektor entwickelt. In diesem System können Daten mit hoher Genauigkeit im dreidimensionalen Raum unter Verwendung der Super-High-Definition-Stereobilder dargestellt werden, und der Benutzer kann die Beziehung zwischen mehreren Arten von Daten erkennen, indem er sie mit dem Plug-In in die immersive Umgebung integriert Funktion. Dieses System wurde auf die seismische Datenvisualisierung angewendet und die Wirksamkeit dieses Systems wurde bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02771-0_53 7ebf4d0522f8d9cb5c4e91e09bc4ddd9;de;;;7.4.;;;Auf Machine Learning basierende skalierbare und adaptive Netzwerkfunktionsvirtualisierung Aufgrund der kontinuierlichen Entwicklung der SDN- und NFV-Technologie in den letzten Jahren ist es wichtig, die Netzwerkleistung für die Benutzer zu verbessern. Aber die traditionelle Technologie ist nicht ausgereift und weist viele Mängel auf. Um diese beiden Technologien (Adaptive und Autoscaling) in Computernetzwerken anzuwenden, verwenden wir SDN nicht nur, um die Weiterleitungs- und Kontrollebene zu trennen, sondern hat auch die Natur der Programmierbarkeit. Basierend auf den tatsächlichen Geschäftsanforderungen für die automatische Bereitstellung verfügt die NFV-Technologie über die Ressourcen der Virtualisierung und die Merkmale der Flexibilität und Fehlerisolierung. Zwei Arten von Technologien sind unterschiedlich, aber sie können sehr gut kooperativ arbeiten. In diesem Papier wenden wir die Algorithmen des maschinellen Lernens an, kombinieren die SDN- und NFV-Technologie und bauen eine dynamische NFV-Steuerungssystemarchitektur auf der CloudStack-Cloud-Plattform auf, um Benutzern einen maßgeschneiderten Service bereitzustellen. Darüber hinaus haben wir im vierten Teil die Machbarkeit der Architektur zum Heimnetz und zum mobilen Kernnetz hinzugefügt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-26181-2_37 3292f6b56dc6c6e25113e059ec74b338;de;;;7.4.;;;CNN für die Erkennung handgeschriebener arabischer Ziffern basierend auf LeNet-5 In den letzten Jahren war die Erkennung handgeschriebener Ziffern aufgrund ihrer Anwendungen in mehreren Bereichen ein wichtiger Bereich. Diese Arbeit konzentriert sich auf den Erkennungsteil der Erkennung handgeschriebener arabischer Ziffern, der mehreren Herausforderungen gegenübersteht, einschließlich der unbegrenzten Variation der menschlichen Handschrift und der großen öffentlichen Datenbanken. Das Papier lieferte eine Deep-Learning-Technik, die effektiv auf das Erkennen von arabischen handgeschriebenen Ziffern angewendet werden kann. LeNet-5, eine durch Convolutional Neural Network (CNN) trainierte und getestete MADBase-Datenbank (arabische handgeschriebene Ziffernbilder), die 60.000 Trainings- und 10000 Testbilder enthält. Die Ergebnisse werden verglichen, und am Ende zeigt sich, dass der Einsatz von CNN zu signifikanten Verbesserungen bei verschiedenen Klassifikationsalgorithmen des maschinellen Lernens geführt hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48308-5_54 7f0e1e66689ad4a22502db4bae88f480;de;;;7.4.;;;Aus der Perspektive der Künstlichen Intelligenz: Ein neuer Zugang zur Natur des Bewusstseins Bewusstsein ist nicht nur ein philosophisches, sondern auch ein technologisches Thema, da ein bewusster Agent evolutionäre Vorteile hat. Um ein biologisches Intelligenzniveau in einer Maschine zu replizieren, müssen daher Konzepte des Maschinenbewusstseins berücksichtigt werden. Die weit verbreitete internalistische Annahme, dass der Mensch die Welt nicht so erlebt, wie sie ist, sondern durch ein internes „3D-Virtual-Reality-Modell“, verhindert diese Konstruktion. Um dieses Hindernis für das Maschinenbewusstsein zu überwinden, wird ein neuer theoretischer Zugang zum Bewusstsein zwischen Internalismus und Externalismus entworfen, um die Kluft zwischen Erfahrung und physischer Welt zu überwinden. Das „interne Dolmetscherkonzept“ wird durch ein „Schlüssel-Schloss-Konzept“ ersetzt. Bewusstsein ist hier kein Abbild der Außenwelt, sondern die Welt selbst. Ein mögliches technologisches Design für eine bewusste Maschine wird unter Nutzung einer Architektur entworfen, die die Entwicklung neuer Ziele, intrinsische Motivation und situierte Kognition nutzt. Die vorgeschlagene kognitive Architektur erhebt nicht den Anspruch, schlüssig oder experimentell zufriedenstellend zu sein, sondern bildet den theoretischen ersten Schritt zu einem vollständigen Architekturmodell, an dem die Autoren derzeit arbeiten und das bewusste Agenten z. g. für Robotik- oder Softwareanwendungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-42620-4_41 5ac986b4e088af00ee65f6f6150166a3;de;;;7.4.;;;Beschleunigen Sie die kritische Phase des maschinellen Lernens mit Batch Scheduling in GPU Als überlegene Datenanalysemethode leidet Machine Learning über viele Jahre unter dem Flaschenhals der begrenzten Rechenleistung. Mit dem Aufkommen zahlreicher Parallel-Computing-Hardware entwickelt sich die moderne GPU zu einem vielversprechenden Träger für die Aufgaben des maschinellen Lernens. In diesem Papier schlagen wir ein effizientes GPU-Ausführungs-Framework vor, um den Vorwärtsausbreitungsprozess eines neuronalen Faltungsnetzwerks zu beschleunigen. Durch die Erweiterung der Faltungs-Entroll-Methode, um diesen Batch-Modus anzupassen, erhalten wir eine signifikante Steigerung des Durchsatzes, aber sehr wenig Overhead.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44917-2_43 e6d16d230837db9bda363207b932066e;de;;;7.4.;;;Online-Grenzschätzung in teilweise beobachtbaren Umgebungen mit einem UAV Die Schätzung der Umgebungsgrenzen ist der Prozess des Eingrenzens der Region(en), in der die Messung aller Standorte einen bestimmten Schwellenwert überschreitet. In diesem Papier entwickeln wir ein Framework für die Verfolgung und Schätzung von Umgebungsgrenzen in teilweise beobachtbaren Umgebungen, die online verarbeitet werden. Es wird davon ausgegangen, dass dedizierte Sensoren, die am Fahrzeug angebracht sind, Feldstärkemessungen vor Ort durchführen können. Angesichts der begrenzten Ressourcen unbemannter Luftfahrzeuge (UAVs) ist es wichtig, eine unbekannte Grenze schnell zu verfolgen. Daher präsentieren wir eine Bewegungsplanungsstrategie, die es einem einzelnen UAV ermöglicht, die Grenze eines bestimmten Zielgebiets abzuschätzen und gleichzeitig die Explorationskosten zu minimieren. Um dies zu erreichen, verbessern wir den konventionellen Positionsregler-basierten Rahmen durch die Integration eines Rauschunterdrückungsfilters und eines neuartigen adaptiven Kreuzungswinkel-Korrekturschemas. Die Wirksamkeit des vorgeschlagenen Algorithmus wird in drei verschiedenen simulierten Umgebungen demonstriert. Wir analysieren auch die Leistung von Frameworks unter verschiedenen Bedingungen.;-;-;-;https://link.springer.com/article/10.1007/s10846-017-0664-9 7aefe9e2671cd5c50c71a488b37020aa;de;;;7.4.;;;Einfügen strukturierter Daten in ein generatives Themenmodell in Unternehmenseinstellungen Unternehmen haben sowohl strukturierte als auch unstrukturierte Daten ständig angesammelt, da sich die Computerressourcen verbessern. Frühere Forschungen zum Data Mining in Unternehmen behandelten diese beiden Arten von Daten jedoch oft unabhängig voneinander und lassen den gegenseitigen Nutzen aus. Wir untersuchen den Ansatz, einen gemeinsamen Typ von strukturierten Daten (z. B. Organigramme) in ein generatives Themenmodell zu integrieren. Unser Ansatz, die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05224-8_29 de5b5e5e3188c25f82d46b687994d6ce;de;;;7.4.;;;Szenentexterkennung und -erkennung: jüngste Fortschritte und zukünftige Trends Text, als eine der einflussreichsten Erfindungen der Menschheit, hat seit der Antike eine wichtige Rolle im menschlichen Leben gespielt. Die umfangreichen und präzisen Informationen, die in Text enthalten sind, sind in einer Vielzahl von visuellen Anwendungen sehr nützlich, daher sind die Texterkennung und -erkennung in natürlichen Szenen zu wichtigen und aktiven Forschungsthemen in der Computer Vision und Dokumentenanalyse geworden. Vor allem in den letzten Jahren hat die Community einen Anstieg der Forschungsanstrengungen und erhebliche Fortschritte in diesen Bereichen erlebt, obwohl noch eine Vielzahl von Herausforderungen (z. B. Rauschen, Unschärfe, Verzerrung, Okklusion und Variation) bestehen bleiben. Diese Umfrage verfolgt einen dreifachen Zweck: 1) aktuelle Arbeiten vorzustellen, 2) hochmoderne Algorithmen zu identifizieren und 3) mögliche zukünftige Forschungsrichtungen vorherzusagen. Darüber hinaus bietet dieses Papier umfassende Links zu öffentlich zugänglichen Ressourcen, einschließlich Benchmark-Datensätzen, Quellcodes und Online-Demos. Zusammenfassend kann diese Literaturübersicht als gute Referenz für Forscher auf den Gebieten der Szenentexterkennung und -erkennung dienen.;-;-;-;https://link.springer.com/article/10.1007/s11704-015-4488-0 c1f937fe0e1d9a748cf83f8770389f2c;de;;;7.4.;;;Anwendungen von Systemen der künstlichen Intelligenz bei der Analyse epidemiologischer Daten Ein kurzer Überblick über die deutsche Literatur legt nahe, dass der Einsatz von statistischen Algorithmen der künstlichen Intelligenz (KI) in der Epidemiologie begrenzt war. Wir diskutieren die Vor- und Nachteile der Verwendung von KI-Systemen in großen epidemiologischen Datenmengen, um inhärente, zuvor nicht identifizierte und potenziell wertvolle Muster zu extrahieren, die von Menschen gesteuerten deduktiven Modellen möglicherweise übersehen werden.;-;-;-;https://link.springer.com/article/10.1007/s10654-006-0005-y de30a986ffd1e5c06f11517a73b771b3;de;;;7.4.;;;Anwendung von Text Data Mining im Fernunterricht in Basierend auf Web-Technologie und Text Data Mining, mit Schwerpunkt auf personalisiertem Fernunterricht, zielt dieses Kapitel darauf ab, den Content-Mining-Algorithmus auf personalisierte Empfehlungen von Lerninhalten anzuwenden, die Simulationsergebnisse zu verwenden, um die Wirksamkeit des Fusionsalgorithmus zu überprüfen und getesteter Algorithmus zum Aufbau einer Website für den höheren Berufsbildungsunterricht.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-1839-5_80 94ee233a96556e49b36d1cf6ce30af77;de;;;7.4.;;;Historische Grundlagen Dieses Kapitel verfolgt die Ursprünge der Erkenntnistheorie, der modernen Wissenschaft und der wissenschaftlichen Methode innerhalb der Evolution des westlichen Denkens. Diese Entwicklung ist organisch und nahtlos, da die Perspektiven von Philosophen, Wissenschaftlern und Ingenieuren der letzten drei Jahrtausende zusammenkommen, um beide Spezifikationen für die Berechnung zu erstellen, wie wir in Abschn.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71873-2_2 746cc5227ac69c583032f8af9ddace3c;de;;;7.4.;;;Eine Untersuchung von Online-Machine-Learning-Ansätzen für pseudozufällig generierte Daten Ein Pseudozufallsgenerator ist ein Algorithmus zum Generieren einer Sequenz von Objekten, die durch einen wirklich zufälligen Seed bestimmt wird, der nicht wirklich zufällig ist. Es ist in vielen Anwendungen, wie Kryptographie und Simulationen, weit verbreitet. In diesem Artikel untersuchen wir aktuell gängige Machine-Learning-Algorithmen mit verschiedenen Online-Algorithmen für pseudo-zufällig generierte Daten, um herauszufinden, welcher Machine-Learning-Ansatz für diese Art von Daten zur Vorhersage auf Basis von Online-Algorithmen besser geeignet ist. Um die Vorhersageleistung weiter zu verbessern, schlagen wir einen neuen stichprobengewichteten Algorithmus vor, der Generalisierungsfehler in jeder Iteration berücksichtigt. Wir führen eine intensive Auswertung von echten Baccarat-Daten durch, die von Casino-Maschinen generiert werden, und von Zufallszahlen, die von einem beliebten Java-Programm generiert werden, die zwei typische Beispiele für pseudozufällig generierte Daten sind. Die experimentellen Ergebnisse zeigen, dass Support Vector Machine und k-nächste Nachbarn eine bessere Leistung haben als andere mit und ohne stichprobengewichtetem Algorithmus im Bewertungsdatensatz.;-;-;-;https://link.springer.com/article/10.1007/s10586-016-0586-5 6ecd98e7b970e210ea43a183afdbb0a6;de;;;7.4.;;;Deskriptive und prädiktive Analysen von Daten zu Flugunfällen Ziel dieses Kapitels ist es, das Potenzial geeigneter Data-Mining-Methoden zur Analyse luftfahrthistorischer Daten zu evaluieren. In unserem Fall haben wir einen Datensatz für die öffentliche Luftfahrt des Accident/Incident Data System der Federal Aviation Administration (FAA) verwendet, der Informationen über Unfälle oder Vorfälle in der Zivilluftfahrt in den Vereinigten Staaten von Amerika enthält. Dieser Datensatz stellt eine interessante Datenquelle für Analysezwecke dar, z.B. Es ist möglich, den Einfluss verschiedener Faktoren auf beide Ereignistypen zu bewerten und basierend auf identifizierten versteckten Beziehungen ein Vorhersagemodell für ein bestimmtes Zielattribut zu generieren. Wir haben unseren Ansatz mit einigen anderen bestehenden Arbeiten in diesem Bereich verglichen und die erzielten Ergebnisse sind plausibel und inspirierend. Generierte Modelle könnten als Grundlage für Luftfahrtwarnsysteme oder als unterstützende Methode für verschiedene Prozesse im Zusammenhang mit der Luftfahrtindustrie verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10383-9_17 042fbf2a90500706d9562bc15cde1b84;de;;;7.4.;;;Microblog-Gerüchteerkennung basierend auf Bert-GRU Sina Weibo ist ein idealer Ort, um Gerüchte in China zu verbreiten, und die automatische Entlarvung von Gerüchten ist ein entscheidendes Problem. Um Gerüchte zu erkennen, verwendet die auf Deep Learning basierende Gerüchteerkennungsmethode das statische Vortrainingsmodell für die Textdarstellung. Nach dem Wortvektortraining ändert sich das nicht mehr, und es gibt die Probleme, dass der Vektor die Polysemie von Wörtern in verschiedenen Kontexten nicht darstellen kann. Um dieses Problem zu lösen, stellt dieser Artikel eine neuartige Methode vor, die auf Bert-GRU basiert, und schlägt eine Implementierungsmethode vor, die das Bert-Modell für die Mikroblog-Textdarstellung verwendet, während die Gated Recurrent Unit (GRU)-Netzwerke verwendet werden, um Funktionen Aufdeckung von Gerüchten. Experimentelle Ergebnisse zeigen, dass die vorgeschlagene Methode eine gute Wirkung auf die Erkennung von Gerüchten in Weibo hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8599-9_52 e8b6ade2cfb1d8aa0a8cf87460a029fe;de;;;7.4.;;;Ein hierarchisches selbstorganisierendes assoziatives Gedächtnis für maschinelles Lernen Dieses Papier schlägt eine neuartige hierarchische selbstorganisierende assoziative Speicherarchitektur für maschinelles Lernen vor. Diese Speicherarchitektur zeichnet sich durch spärliche und lokale Verbindungen, selbstorganisierende Verarbeitungselemente (PE) und probabilistische synaptische Übertragung aus. Jedes PE im Netzwerk schätzt seinen Ausgabewert dynamisch aus der beobachteten Eingabedatenverteilung und merkt sich die statistischen Korrelationen zwischen seinen Eingaben. Sowohl die Vorwärts- als auch die Rückkopplungssignalausbreitung wird verwendet, um Signale zu übertragen und Verknüpfungen herzustellen. Die Feedforward-Verarbeitung wird verwendet, um Beziehungen in den Eingabemustern zu entdecken, während die Feedback-Verarbeitung verwendet wird, um Assoziationen herzustellen und fehlende Signalwerte vorherzusagen. Klassifizierungs- und Bildwiederherstellungsanwendungen werden verwendet, um die Wirksamkeit des vorgeschlagenen Gedächtnisses sowohl für hetero-assoziatives als auch für auto-assoziatives Lernen zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72383-7_49 b9f3abc38888751875a94314258b31ea;de;;;7.4.;;;Nutzung neuronaler Netze zur effizienten Auswertung von Streuamplituden hoher Multiplizität Präzise theoretische Vorhersagen für Streuung mit hoher Multiplizität beruhen auf der Auswertung immer komplizierterer Streuamplituden, die mit extrem hohen CPU-Kosten verbunden sind. Dies kann bei modernen Verfahren zu technischen Engpässen bei der Herstellung volldifferentieller Verteilungen führen. In diesem Artikel untersuchen wir die Möglichkeit, neuronale Netze zu verwenden, um multivariable Streuamplituden zu approximieren und effiziente Eingaben für die Monte-Carlo-Integration bereitzustellen. Wir konzentrieren uns auf QCD-Korrekturen zu;-;-;-;https://link.springer.com/article/10.1007/JHEP06%282020%29114 5fdf533efe767fc953c69fe5f2aa2614;de;;;7.4.;;;Auf maschinellem Lernen basierender Ansatz zur Erkennung von Positionsfälschungsangriffen in VANETs VANETs ist eine wichtige Basistechnologie für vernetzte und autonome Fahrzeuge. Fahrzeuge kommunizieren drahtlos mit anderen Fahrzeugen, Sensoren, Menschen und der Infrastruktur und verbessern dadurch die Entscheidungsfindung basierend auf den Informationen, die sie aus ihrer Umgebung erhalten. Damit diese Anwendungen jedoch korrekt funktionieren, müssen die Informationen authentifiziert, verifiziert und vertrauenswürdig sein. Die wichtigsten Nachrichten in diesen Netzwerken sind Sicherheitsnachrichten, die periodisch für verschiedene sicherheits- und verkehrseffizienzbezogene Anwendungen wie beispielsweise Kollisionsvermeidung, Kreuzungswarnung und Verkehrsstauerkennung gesendet werden. Das Hauptanliegen besteht jedoch darin, die Vertrauenswürdigkeit der Daten in Gegenwart von unehrlichen und sich schlecht benehmenden Kollegen zu gewährleisten. Die Fehlverhaltenserkennung steckt noch in den Kinderschuhen und erfordert viel Aufwand, um in das System integriert zu werden. Ein Angreifer, der auf der Straße „Geisterfahrzeuge“ imitiert, indem er falsche Positionsangaben in den Sicherheitsmeldungen sendet, muss erkannt und dauerhaft aus den VANETs entfernt werden. Das Ziel unserer Arbeit ist es, Sicherheitsmeldungen zu analysieren und falsche Positionsinformationen zu erkennen, die von den sich schlecht benehmenden Knoten übermittelt werden. In diesem Whitepaper verwenden wir Techniken des maschinellen Lernens (ML) für den VeReMi-Datensatz, um das Fehlverhalten zu erkennen. Wir haben gezeigt, dass der ML-basierte Ansatz eine qualitativ hochwertige Erkennung von modellierten Angriffsmustern ermöglicht. Wir glauben, dass der ML-basierte Ansatz ein praktikabler und effektiver Weg ist, um solches Fehlverhalten in einem realen Szenario von VANETs zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-7561-3_13 242236a760582a9585675c57afe249c9;de;;;7.4.;;;Granulares Meta-Clustering basierend auf hierarchischen, Netzwerk- und zeitlichen Verbindungen Beim Granular Computing wird jedes Objekt als Informationsgranulat dargestellt, und ein Informationsgranulat kann durch semantische Beziehungen mit anderen Granula verbunden werden. Diese Verbindungen können zu einer granularen Hierarchie oder einem Netzwerk führen. Data Mining einer Gruppe von Objekten ist möglicherweise nicht in der Lage, Informationen zu erfassen, die in granularen Verbindungen enthalten sind. Dieses Papier beschreibt ein Konzept des Meta-Clustering, bei dem ein Satz von Granula unter Verwendung von Clustering-Informationen aus einem anderen oder demselben Satz vernetzter Granula geclustert wird. Die Clustermitgliedschaft eines Granules kann die Clustermitgliedschaft eines anderen Granules beeinflussen, was zu einem rekursiven Meta-Clustering-Prozess führt. Wir veranschaulichen die Nützlichkeit eines solchen Meta-Clusterings für eine granulare Hierarchie, die aus Gruppen von Unternehmen und Prüfern besteht, einer Reihe von vernetzten Granula, die Mobiltelefonbenutzer repräsentieren, und Handelsmustern von Finanzinstrumenten, die durch eine zeitliche Dimension miteinander verbunden sind.;-;-;-;https://link.springer.com/article/10.1007/s41066-015-0007-9 b19b7726fc062e8a96e86f14fddbb4e7;de;;;7.4.;;;Subraum-Metrik-Ensembles für das semi-überwachte Clustering von hochdimensionalen Daten Ein kritisches Problem in der Clusterforschung ist die Definition einer geeigneten Metrik zum Messen von Entfernungen zwischen Punkten. Semi-überwachtes Clustering verwendet die vom Benutzer bereitgestellten Informationen, die normalerweise in Form von Einschränkungen definiert sind, um die Suche nach Clustern zu leiten. Das Erlernen effektiver Metriken unter Verwendung von Beschränkungen in hochdimensionalen Räumen bleibt eine offene Herausforderung. Dies liegt daran, dass die Anzahl der zu schätzenden Parameter quadratisch in der Anzahl der Dimensionen ist und wir selten genügend Nebeninformationen haben, um genaue Schätzungen zu erzielen. In diesem Papier adressieren wir das Problem der hohen Dimensionalität, indem wir ein Ensemble von Unterraummetriken lernen. Dies wird erreicht, indem die Daten und die Beschränkungen in mehrere Unterräume projiziert und darin positive semi-definite Ähnlichkeitsmatrizen gelernt werden. Diese Methodik ermöglicht es, die gegebenen Nebeninformationen zu nutzen, während Probleme mit niedrigeren Dimensionen gelöst werden. Wir demonstrieren experimentell mit hochdimensionalen Daten (z. B. Microarray-Daten) die überlegene Genauigkeit unserer Methode gegenüber konkurrierenden Ansätzen.;-;-;-;https://link.springer.com/chapter/10.1007/11871842_48 0da2df7f73809d28abfe284984a38acf;de;;;7.4.;;;Lernerunterschiede im Online-Kontext: Einführung einer neuen Methode Der Beitrag stellt eine alternative Methode zur Analyse unterschiedlicher Lernstile bei Schülern vor. Diese Methode wurde als Alternative zu traditionelleren Methoden wie der hierarchischen Clusteranalyse entwickelt. Die Methode wurde anhand eines großen Datensatzes (n = 868) getestet, in dem die Teilnehmer neben einer kleinen Anzahl von Maßnahmen zur Erfassung der Lernereigenschaften auch ein kleines E-Modul absolvierten. Die resultierenden Logfiles wurden mit der neuen Methode analysiert. Die Ergebnisse waren denen ähnlich, die mit traditionellen Methoden beobachtet wurden. Die Methode bietet einen neuen Ausgangspunkt für die spätere Analyse und Identifizierung von Lernerunterschieden unter Verwendung anderer Informationen wie Protokolldateien aus E-Learning und Massive Online Open Courses (MOOCs).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45770-2_26 93b1fdae08711eed8aee38eed0088bed;de;;;7.4.;;;Satire-Erkennung in türkischen Nachrichtenartikeln: Ein Ansatz des maschinellen Lernens Mit den Fortschritten in den Informations- und Kommunikationstechnologien wurde eine immense Menge an Informationen über soziale Medien und Microblogging-Plattformen geteilt. Viele der Online-Inhalte enthalten Elemente der Bildsprache wie Ironie, Sarkasmus und Satire. Die automatische Identifizierung figurativer Sprache kann als eine herausfordernde Aufgabe in der Verarbeitung natürlicher Sprache angesehen werden, bei der linguistische Einheiten wie Metapher, Analogie, Mehrdeutigkeit, Ironie, Sarkasmus, Satire usw. verwendet wurden, um komplexere Bedeutungen auszudrücken. Die Vorhersageleistung von Stimmungsklassifizierungsschemata kann sich verschlechtern, wenn die bildliche Sprache innerhalb des Textes nicht richtig berücksichtigt wurde. Satirischer Text ist eine Art der figurativen Kommunikation, bei der Ideen/Meinungen zu einem Volk, Ereignis oder Thema auf humorvolle Weise ausgedrückt werden, um dieses Wesen zu kritisieren. Satirische Nachrichten können irreführend und schädlich sein. In diesem Artikel stellen wir einen auf maschinellem Lernen basierenden Ansatz zur Satireerkennung in türkischen Nachrichtenartikeln vor. In dem vorgestellten Schema haben wir drei Arten von Merkmalen verwendet, um lexikalische Informationen zu modellieren, nämlich Unigramme, Bigramme und Trigramme. Darüber hinaus wurden Term-Frequenz-, Term-Präsenz- und TF-IDF-basierte Schemata berücksichtigt. In der Klassifikationsphase wurden Naive Bayes, Support Vector Machines, logistische Regression und C4.5-Algorithmen untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-27355-2_8 b0b757486a5ffe900af3a3f66cf6601f;de;;;7.4.;;;Zur Vorhersage des Energieverbrauchs von HLK-Anlagen mit maschinellem Lernen Heutzutage ist die Energieoptimierung zu einer großen Herausforderung geworden, da Energie in fast allen Sektoren, einschließlich Gebäude, Verkehr und Industrie, schnell verbraucht wird. Allerdings sind Gebäude weltweit der größte Energieverbraucher, gefolgt von Verkehr und Industrie. In Gebäuden hängt der größte Teil des Energieverbrauchs von der Nutzung von Klimaanlagen (Heizung, Lüftung und Klimatisierung) ab. Angesichts der Notwendigkeit, den Energieverbrauch von HLK-Anlagen in Gebäuden zu bestimmen, konzentriert sich diese Forschung daher auf Kühlturmdaten der HLK-Anlage eines Gebäudes, da der Kühlturm eine wichtige Komponente der HLK ist und eine große Verantwortung für die Einhaltung der Umgebungstemperatur trägt ein Gebäude. In diesem Artikel wurden drei beliebte maschinelle Lerntechniken, nämlich Multiple Linear Regression, Random Forests und Gradient Boosting Machines, zur Vorhersage des Energieverbrauchs aufgrund von HLK-Anlagen in einem Gebäude getestet. Die Ergebnisse der Experimente zeigen, dass Random Forest in Bezug auf Fehlermaße übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5827-6_22 395697ec6e6852da14aa1dd599ac46f6;de;;;7.4.;;;Bonitätsprüfung mit Random Forests Da die Kreditbranche viele Probleme mit uneinbringlichen Forderungen hat, ist die Bonitätsprüfung bei Finanzinstituten zu einem sehr wichtigen Thema geworden. Jüngste Studien haben gezeigt, dass viele Algorithmen in den Bereichen Machine Learning und Künstliche Intelligenz statistischen Methoden zur Bonitätsprüfung Konkurrenz machen. Random Forests, eine der beliebtesten Ensemble-Lerntechniken, wird in diesem Beitrag in das Problem der Kreditwürdigkeitsprüfung eingeführt. Am öffentlichen Datensatz wird eine experimentelle Evaluation verschiedener Methoden durchgeführt. Die experimentellen Ergebnisse zeigen, dass die Random-Forest-Methode die Leistung deutlich verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24282-3_4 014f407a11863bfb38ac4bc06300b1c2;de;;;7.4.;;;Eine konvexe Methode zum Auffinden von Interessengebieten mit Multi-Instanz-Lernen Beim inhaltsbasierten Bildabruf (CBIR) und beim Bildscreening ist es oft wünschenswert, die interessierenden Regionen (ROI) in den Bildern automatisch zu lokalisieren. Dies kann mit Multi-Instanz-Lerntechniken erreicht werden, indem jedes Bild als eine Sammlung von Instanzen (Regionen) behandelt wird. Viele SVM-basierte Methoden sind bei der Vorhersage der Beuteletiketten erfolgreich, jedoch können nur wenige die ROIs lokalisieren. Darüber hinaus basieren sie oft entweder auf einer lokalen Suche oder einer Strategie im EM-Stil und können leicht in lokalen Minima stecken bleiben. In diesem Papier schlagen wir zwei konvexe Optimierungsmethoden vor, die den Spielraum von Konzepten durch die Generierung von Schlüsselinstanzen auf Instanz- bzw. Beutelebene maximieren. Unsere Formulierung kann effizient mit einem Schnittebenenalgorithmus gelöst werden. Experimente zeigen, dass die vorgeschlagenen Methoden ROIs effektiv lokalisieren können, und sie erreichen auch Leistungen, die mit modernsten Algorithmen auf Benchmark-Datensätzen konkurrenzfähig sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04174-7_2 ebe7fcfdc3f36a49db291afae32f8b09;de;;;7.4.;;;MuDeepNet: Unüberwachtes Lernen von dichter Tiefe, optischem Fluss und Kameraposition mit Multi-View-Konsistenzverlust Wir nehmen Strukturformulierung aus Bewegung als Lernproblem und schlagen ein End-to-End-Lernmodell vor, um die Bildtiefe, den optischen Fluss und die Kamerabewegung zu berechnen. Dieses Framework besteht aus mehreren Encoder-Decoder-Netzwerken. Der Schlüsselteil der Netzwerkstruktur ist das FlowNet, das die Genauigkeit der geschätzten Kamera-Ego-Bewegung und -Tiefe verbessern kann. Wie bei neueren Studien verwenden wir einen End-to-End-Lernansatz mit Multi-View-Synthese als eine Vielzahl von Supervisionen und schlagen Multi-View-Konsistenzverluste vor, um sowohl die Tiefe als auch die Ego-Bewegung der Kamera einzuschränken, wobei nur monokulare Videosequenzen für das Training erforderlich sind . Im Vergleich zu den kürzlich populären Tiefenschätzungs-Netzwerken, die ein einzelnes Bild verwenden, lernt unser Netzwerk, die Bewegungsparallaxe-Korrekturtiefe zu verwenden. Obwohl das MuDeepNet-Training die Verwendung von zwei benachbarten Frames erfordert, um eine Bewegungsparallaxe zu erhalten, wird es mit einem einzelnen Bild getestet. Somit ist MuDeepNet ein monokulares System. Die Experimente mit dem KITTI-Datensatz zeigen, dass unser MuDeepNet andere Methoden übertrifft.;-;-;-;https://link.springer.com/article/10.1007/s12555-018-0926-8 3caf5d4142310a0d3ad1eea3225d8f3f;de;;;7.4.;;;Modellierung gepulster Lasermikrobearbeitung von Mikrogeometrien mit maschinellen Lerntechniken Im Bereich der Mikrosystemtechnik eröffnen sich für Laser-Mikrobearbeitungssysteme vielfältige Möglichkeiten, da diese in der Lage sind, verschiedenste Materialien im Mikromaßstab zu bearbeiten. Allerdings sind nur wenige Prozessdatensätze und Machine-Learning-Techniken für diese industrielle Aufgabe optimiert. Diese Studie beschreibt die Prozessparameter des Mikrolaserfräsens und deren Einfluss auf die endgültigen Eigenschaften der erzeugten Mikroformen. Es identifiziert auch die genaueste Technik des maschinellen Lernens für die Modellierung dieses multivariablen Prozesses. Es untersucht die Möglichkeiten der Lasermikrobearbeitung, indem es Experimente an gehärtetem Stahl mit einem gepulsten Nd:YAG-Laser durchführt. Arrays von Mikrokanälen wurden unter Verwendung verschiedener Abtastgeschwindigkeiten, Pulsintensitäten und Pulsfrequenzen hergestellt. Die Ergebnisse werden in Bezug auf die wichtigsten industriellen Anforderungen an jedes hergestellte Gut präsentiert: Maßgenauigkeit (in unserem Fall Tiefe und Breite der Kanäle), Oberflächenrauheit und Materialabtragsrate (die ein Maß für die Produktivität des Prozesses ist). An den Datensätzen wurden dann verschiedene Techniken des maschinellen Lernens getestet, um hochpräzise Modelle für jede Ausgabevariable zu erstellen. Die ausgewählten Techniken waren: k-Nearest Neighbours, neuronale Netze, Entscheidungsbäume und lineare Regressionsmodelle. Unsere Analyse der Korrelationskoeffizienten und des mittleren absoluten Fehlers aller generierten Modelle zeigt, dass neuronale Netze die Kanaltiefe besser modellieren und Entscheidungsbäume die Materialabtragsrate besser modellieren. Beide Techniken waren in Bezug auf Breite und Oberflächenrauheit ähnlich. Im Allgemeinen zeigen diese beiden Techniken eine bessere Genauigkeit als die anderen beiden Modelle. Die Arbeit kommt zu dem Schluss, dass Entscheidungsbäume verwendet werden sollten, wenn Informationen über Eingangsparameterbeziehungen gesucht werden, während neuronale Netze geeignet sind, wenn die Maßgenauigkeit des Werkstücks die wichtigste industrielle Anforderung ist. Für diese industrielle Aufgabe sind umfangreiche Datensätze erforderlich, um aufgrund der hohen Rauschraten, insbesondere für einige Outputs wie Rauheit, zuverlässige KI-Modelle zu liefern.;-;-;-;https://link.springer.com/article/10.1007/s10845-013-0835-x 14826e856b362ef25916ff2113b8392a;de;;;7.4.;;;Netzhautbildanalyse zur Glaukomerkennung mit Transfer Learning Das Glaukom, eine schwere Augenkrankheit, wird durch hohen Augeninnendruck verursacht. Es sollte in einem frühen Stadium diagnostiziert werden. Es kann zum Verlust des Sehvermögens führen, wenn es nicht frühzeitig diagnostiziert wird. Glaukom kann durch die Fortschritte in den neuesten Technologien leicht erkannt werden. Deep Learning ist ein neuestes erfolgreiches Forschungsfeld in der medizinischen Bildverarbeitung. Das Convolutional Neural Network, ein bekanntes Deep-Learning-Modell, wird zur Bildklassifizierung verwendet. Für das Training ist eine große Anzahl von Datensätzen erforderlich, und es dauert länger, das Modell zu trainieren, um eine höhere Genauigkeit zu erzielen. Um dieses Problem zu überwinden, wurde Transferlernen verwendet, um Glaukom zu diagnostizieren. Für das Transferlernen wird ein vortrainiertes Modell, Inception V3, verwendet. Es kann zur Verbesserung der Genauigkeit der Glaukom-Diagnose angewendet werden. In dieser Arbeit wird der ORIGA-Datensatz verwendet. Die Leistung des automatischen Glaukom-Diagnosesystems wird anhand von Sensitivitäts-, Spezifitäts- und Genauigkeitsmetriken analysiert. Bei mindestens 20 Epochen wurde eine Testgenauigkeit von 91,36 % erreicht. Dieses automatisierte Glaukom-Erkennungssystem kann als Analysewerkzeug verwendet werden, das hilft, Glaukom zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9019-1_21 3c210e43aecd81ce9f3e54d593389350;de;;;7.4.;;;Erkennen von Communities und ihrer Entwicklung in dynamischen sozialen Netzwerken – ein Bayes-Ansatz Obwohl sich viele Arbeiten dem Auffinden von Gemeinschaften in statischen sozialen Netzwerken widmen, haben nur wenige Studien die Dynamik von Gemeinschaften in sich entwickelnden sozialen Netzwerken untersucht. In diesem Papier schlagen wir ein dynamisches stochastisches Blockmodell vor, um Gemeinschaften und ihre Entwicklung in einem dynamischen sozialen Netzwerk zu finden. Das vorgeschlagene Modell erfasst die Entwicklung von Gemeinschaften, indem es den Übergang von Gemeinschaftsmitgliedschaften für einzelne Knoten im Netzwerk explizit modelliert. Im Gegensatz zu vielen bestehenden Ansätzen zur Modellierung sozialer Netzwerke, die Parameter nach ihren wahrscheinlichsten Werten schätzen (d. h. Punktschätzung), verwenden wir in dieser Studie eine Bayessche Behandlung für die Parameterschätzung, die die Posterior-Verteilungen für alle unbekannten Parameter berechnet. Diese Bayessche Behandlung ermöglicht es uns, die Unsicherheit der Parameterwerte zu erfassen und ist daher robuster gegenüber Datenrauschen als die Punktschätzung. Darüber hinaus wird ein effizienter Algorithmus für die Bayessche Inferenz entwickelt, um große, spärliche soziale Netzwerke zu handhaben. Umfangreiche experimentelle Studien, die sowohl auf synthetischen Daten als auch auf realen Daten basieren, zeigen, dass unser Modell eine höhere Genauigkeit erreicht und mehr Einblicke in die Daten liefert als mehrere hochmoderne Algorithmen.;-;-;-;https://link.springer.com/article/10.1007/s10994-010-5214-7 e35d29e676158e08c14921c776b33ece;de;;;7.4.;;;Forschungsrichtungen in der Automatisierung Dieses Kapitel bietet eine kurze Einführung in die bestehende Forschung im wissensbasierten Engineering, um eine Automatisierung mit IAs zu erreichen. Es definiert, wie der Begriff Intelligenz bestimmt wird und welche Werkzeuge verwendet werden, um die Interaktion zwischen Mensch und Maschine auszunutzen. Was ist also Intelligenz, warum sollte KI verwendet werden und welche Architektur bietet die beste Auswahl an Tools. Rund um die KI hat sich ein ganzes Wissenschaftsgebiet entwickelt, das hauptsächlich auf Computertechnologie und den Verbesserungen basiert, mit denen ihre Fähigkeiten entwickelt werden. Die Literatur veranschaulicht die Entwicklung der Schlüsselwissenschaften zur Unterstützung der KI und unterscheidet zwischen Mensch, Maschine und den zur Lösung von Problemen erforderlichen Architekturen. Störungen bei der Entwicklung von KI-Techniken waren mit der Einführung neuer Technologien verbunden, aber die meisten konzentrierten sich auf kommerzielle Anwendungen, abgesehen von Nischenbereichen wie KI.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22676-2_3 5c5a64a428781ffe2afa5f387ec12254;de;;;7.4.;;;Data-Mining-Modelle zur Vorhersage von IVF-Erfolgsraten: Ein Überblick: IVF-Erfolgsraten können durch die Analyse mehrerer Faktoren im Zusammenhang mit dem Prozess erhöht werden. Die automatisierten Systeme, die diese multiplen Faktoren als Input nehmen und Vorhersagen als Output produzieren, sind das Gebot der Stunde im IVF-Forschungsbereich. Die automatisierten Systeme umfassen einen Mechanismus zur Vorverarbeitung von Eingabemetriken und eine Vorhersagestufe, die unter Verwendung von Algorithmen wie Entscheidungsbäumen, naiven Bayes-Klassifikatoren, fallbasierten Argumentationssystemen, logistischen Regressionen usw. und Hybridmethoden werden auch zur Vorhersage der IVF-Erfolgsrate verwendet. Es gibt viel Literatur auf dem Gebiet der IVF-Erfolgsratenvorhersage. Die Analyse der bisherigen Arbeiten kann den Forschern helfen, die Forschungslücke zu identifizieren und auf effizientere Methoden hinzuarbeiten. Ziel dieser Arbeit ist es, einen detaillierten Überblick über bestehende Techniken zur Vorhersage von IVF-Erfolgsraten zu geben. Verschiedene bisher verwendete Techniken wurden ausführlich besprochen. Der Nachteil jeder der Methoden wird identifiziert, was den Schlüssel für zukünftige Forschungen auf diesem Gebiet darstellt. Dieser Bereich wurde unter Berücksichtigung der Herausforderung und der gesellschaftlichen Relevanz ausgewählt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5309-7_6 a5474adcae2e1c7ab50e6a2ca536b0bb;de;;;7.4.;;;Temporales Data Mining für Bildungsanwendungen Intelligente Tutoring-Systeme (ITS) erfassen umfangreiche Daten über das Verhalten der Schüler während des Lernens, Data-Mining-Techniken können helfen, das Verhalten der Schüler zu beschreiben, zu interpretieren und vorherzusagen und den Fortschritt in Bezug auf die Lernergebnisse zu bewerten. Dieser Artikel untersucht eine Vielzahl von Data-Mining-Techniken zur Analyse der Interaktion von Schülern mit ITS, einschließlich Methoden zum Umgang mit versteckten Zustandsvariablen und zum Testen von Hypothesen. Um diese Methoden zu veranschaulichen, greifen wir auf Daten von zwei ITS für den Mathematikunterricht zurück. Bildungsdatensätze stellen die Data-Mining-Community vor neue Herausforderungen, darunter das Induzieren von Aktionsmustern, das Entwerfen von Distanzmetriken und das Ableiten von nicht beobachtbaren Zuständen im Zusammenhang mit dem Lernen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89197-0_10 ed5472cd8dfa9f766dedc8870eab3532;de;;;7.4.;;;Ableitung von Entscheidungsregeln zur Bewertung der Produktleistung mit genetischen Algorithmen und Grobmengentheorie Bei der Herstellung kritischer Komponenten eines Produkts ist es wichtig, die Leistung und das Verhalten dieser Komponenten vor der Montage zu ermitteln. Häufig werden diese Teilkomponenten strengen Abnahmetests unterzogen, um ihre Konformität mit den geforderten Spezifikationen zu bestätigen. Solche Abnahmetests sind normalerweise eintönig und mühsam. Sie können manchmal kostspielig in der Durchführung sein und die Zykluszeit der Produktion beeinträchtigen. Diese Arbeit schlägt einen Ansatz vor, der auf genetischen Algorithmen und grober Mengenlehre basiert, um die Eigenschaften der Bauteilkomponenten in Bezug auf ihre Leistung anhand von vergangenen Akzeptanztestdaten, d. h. den historischen Daten, aufzudecken. Solche Eigenschaften werden in Form von Entscheidungsregeln beschrieben. Durch die Untersuchung der gezeigten Merkmale kann die Strenge der Abnahmetests gelockert werden. Eine Fallstudie wurde verwendet, um den vorgeschlagenen Ansatz zu veranschaulichen. Es wurde festgestellt, dass die Kosten für die Durchführung der Abnahmetests und die Produktionszykluszeit erheblich reduziert werden konnten, ohne die Gesamtspezifikationen der Abnahmetests zu beeinträchtigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-4911-3_14 56d13859cc1cc0d4e43b52703f314e9f;de;;;7.4.;;;Identifizieren des Risikos der Offenlegung von Attributen durch Mining-Fuzzy-Regeln In diesem Papier behandeln wir das Problem der Kontrolle der Offenlegung sensibler Informationen, indem wir sie aus den anderen veröffentlichten Attributen ableiten. Diese Bedrohung der Privatsphäre wird allgemein als Vorhersage oder Offenlegung von Attributen bezeichnet. Unser Ansatz basiert auf der Identifizierung der Regeln, die sensible Informationen mit den anderen freigegebenen Attributen verknüpfen können. Insbesondere basiert die in diesem Papier vorgestellte Methode auf Mining-Fuzzy-Regeln. Der Fuzzy-Ansatz wird mit (knackigen) Entscheidungsbäumen verglichen, um Vor- und Nachteile aufzuzeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14055-6_47 1c2b834e7a08dd2325d06bdc58dc8edd;de;;;7.4.;;;Effizientes fusionsbasiertes multimodales biometrisches Authentifizierungssystem mit maschinellem Lernen In der jüngeren Vergangenheit spielt ein multimodales biometrisches Authentifizierungssystem eine entscheidende Rolle bei der individuellen biometrischen Authentifizierung für private und öffentliche Bereiche, um die Sicherheit zu gewährleisten. Die Leistung des herkömmlichen multimodalen biometrischen Systems ist bei verschiedenen Beleuchtungsbedingungen biometrischer Bilder während der Merkmalsextraktion schlecht. Fusionsbasierte multimodale Biometrie verbessert die Genauigkeit und Effizienz des Sicherheitsniveaus, der Nicht-Universalität, der Variation von Inter- und Intraklassen usw. In diesem Papier wird eine fusionsbasierte multimodale basierte biometrische Modalitätsüberprüfung durch Einbeziehung der Modalitäten Iris, Fingerabdruck und Gesicht vorgeschlagen and zum Algorithmus des maschinellen Lernens (ML). Das vorgeschlagene System basiert auf den individuellen Bewertungen, die durch jedes biometrische Modal geschätzt und dann normalisiert werden, um die Fusionsbewertung zu erhalten. Verschiedene statistische Merkmale können durch jeden biometrischen Modalitäts-Modal-basierten maschinellen Lernansatz geschätzt werden, der für die Klassifikation mit ML angewendet werden kann. Die biometrischen Bilder werden einer Vorverarbeitung unterzogen, um das Auftreten von Rauschen zu beseitigen und die Qualität der Bilder selbst für verschiedene Beleuchtungsbedingungen zu verbessern, um eine gleichmäßige Beleuchtung und einen gleichmäßigen Kontrast zu erzielen. Das vorgeschlagene System wird verwendet, um ein umfassend multimodales System unter Berücksichtigung des verbesserten breiten Qualitätsbereichs von Bildern zu erreichen. Der Segmentierungsalgorithmus wird angewendet, um die erforderliche Region für die statistische Merkmalsschätzung zu segmentieren. Die Fusion wird unter Verwendung von extrahierten biometrischen Merkmalen mit pixelbasierter Fusion angewendet. Bei der vorgeschlagenen Fusionstechnik-Erfassung werden hochfrequente Informationen wie Kanten und schräge Texturen von Bildern zur Fusion verwendet. Die geschätzten statistischen Merkmale könnten ML zugeführt werden, um zu identifizieren, ob das gegebene Bild in einer gesicherten Datenbank erhältlich ist oder nicht. Die verschiedenen Versuchsergebnisse belegen, dass die vorgeschlagene Methodik eine verbesserte Effizienz und Genauigkeit bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7031-5_12 d63c9fee899aa9eafdf9e5e7b0a07ea0;de;;;7.4.;;;Unähnlichkeitsdarstellung von Bildern für Relevanz-Feedback beim inhaltsbasierten Bildabruf Relevanz-Feedback-Mechanismen werden verwendet, um bildbasierte Abfragen zu verfeinern, indem Benutzer aufgefordert werden, den Satz der abgerufenen Bilder als relevant oder nicht relevant zu markieren. In diesem Beitrag wird eine Relevanz-Feedback-Technik vorgeschlagen, die auf der „Unähnlichkeitsdarstellung“ von Bildern basiert. Jedes Bild wird durch einen Vektor dargestellt, dessen Komponenten die Ähnlichkeitswerte zwischen dem Bild selbst und einem „Repräsentationssatz“ aus den bisher abgerufenen Bildern sind. Jedem Bild wird dann eine Relevanzbewertung entsprechend seinen Abständen von den Sätzen relevanter und nicht relevanter Bilder zugewiesen. Drei Techniken zum Berechnen solcher Relevanzbewertungen werden beschrieben. Gemeldete Ergebnisse zu drei Bilddatenbanken zeigen, dass der vorgeschlagene Relevanz-Feedback-Mechanismus es ermöglicht, nach jeder Retrieval-Iteration große Verbesserungen der Retrieval-Präzision zu erreichen. Es übertrifft auch andere in der Literatur vorgeschlagene Techniken.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45065-3_18 8ca8a3c1bd0f8615843b54e4c7eb32b2;de;;;7.4.;;;Modellierung der tonalen Rauschcharakteristik in einem Folienfluss durch maschinelles Lernen Ein maschineller Lernansatz zur Vorhersage der Eigenschaften von tonalem Rauschen, das in einem Folienfluss gebildet wird, wird getestet. Experimentelle Daten werden verwendet, um die mathematischen Modelle der Druckamplitudenregression und Modelle der Klassifikation von Bereichen des tonalen Rauschens mit hohem Pegel zu konstruieren und zu analysieren, die von den dimensionslosen Parametern der Strömung stammen. Dabei werden unterschiedliche Familien von Algorithmen betrachtet: von linearen Modellen bis hin zu künstlichen neuronalen Netzen. Es wird gezeigt, dass ein Gradientenverstärkungsmodell mit einem Bestimmungskoeffizienten von 95% das genaueste ist, um die Spektralkurven des Schalldrucks über das gesamte Intervall von Amplitudenwerten und charakteristischen Frequenzen zu beschreiben und vorherzusagen.;-;-;-;https://link.springer.com/article/10.3103/S8756699019020134 db6f7e37ca5acd8ef325a14e97ef6c8e;de;;;7.4.;;;Ungleichgewicht und dessen empirisches Verhältnis zu den Kosten automatisch entgegenwirken Das Lernen aus unausgewogenen Datensätzen stellt sowohl aus Modellierungs- als auch aus Kostengesichtspunkten ein kompliziertes Problem dar. Insbesondere wenn eine Klasse von großem Interesse ist, aber relativ selten vorkommt, wie bei Betrugsfällen, Krankheitsfällen und interessierenden Regionen in groß angelegten Simulationen, ist der Aufwand für die Fehlklassifizierung von seltenen Ereignissen entsprechend hoch. Unter solchen Umständen wird der Datensatz häufig erneut abgetastet, um Modelle mit hoher Genauigkeit der Minderheitenklasse zu generieren. Die Stichprobenverfahren sehen sich jedoch einer gemeinsamen, aber wichtigen Kritik ausgesetzt:;-;-;-;https://link.springer.com/article/10.1007/s10618-008-0087-0 60a53e97a8a6b306f1bb2f97d2baeb33;de;;;7.4.;;;Die Ethik der Künstlichen Intelligenz Dieses Kapitel konzentriert sich auf die Ethik der engen, im Gegensatz zur allgemeinen KI. Es macht sowohl die praktischen als auch die philosophischen Argumente für die Diskussion der KI-Ethik. Es betrachtet ethische Chartas und diskutiert dann die wichtigsten ethischen Fragen: Voreingenommenheit, Erklärbarkeit, Haftung für Fehler, Harmlosigkeit, ethische Nutzung von Daten, ob KIs eine Rechtspersönlichkeit haben sollten, die Auswirkungen auf Beschäftigung und Gesellschaft und KIs, die sich als Menschen ausgeben. Es wird eine Fallstudie zu KI in der Personenversicherung vorgestellt. Es plädiert für die Regulierung von KI und diskutiert die Herausforderungen des Erlasses von Regulierungen. Er zieht Schlussfolgerungen, dass der Nutzen von KI so wertvoll ist, dass die ethischen Risiken bewältigt werden müssen oder der Nutzen durch den Verlust des öffentlichen Vertrauens verloren gehen kann. Es gibt Grund zu Optimismus, insbesondere das öffentliche Bewusstsein für die Themen, das Engagement der Regierungen und die Höhe privater und öffentlicher Investitionen in die ethische Forschung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-64246-4_5 be511e0a96578ad726a753b88901cedd;de;;;7.4.;;;Finden funktionaler Gruppen von objektiven Regelbewertungsindizes mit PCA Zur Unterstützung der Data-Mining-Nachbearbeitung, die eines der wichtigsten Verfahren in einem Data-Mining-Prozess ist, werden mindestens 40 Indizes vorgeschlagen, um wertvolle Erkenntnisse zu gewinnen. Da ihr Verhalten jedoch nie aufgeklärt wurde, müssen Domänenexperten ihre Zeit aufwenden, um die Bedeutung jedes Index in einem bestimmten Data-Mining-Ergebnis zu verstehen. In diesem Beitrag präsentieren wir eine Analyse des Verhaltens objektiver Regelbewertungsindizes auf Klassifikationsregelsätzen durch die Hauptkomponentenanalyse (PCA). Daher haben wir eine PCA zu einem Datensatz durchgeführt, der aus den 39 objektiven Regelbewertungsindizes besteht. Um den Datensatz zu erhalten, haben wir die Durchschnittswerte der Bootstrap-Methode auf 32 Klassifikationsregelsätzen berechnet, die durch das Informationsgewinnverhältnis gelernt wurden. Anschließend haben wir die sieben Funktionsgruppen der Zielindizes basierend auf dem PCA identifiziert. Anhand dieses Ergebnisses diskutieren wir eine Regelauswertungsschnittstelle zur Verwendung durch menschliche Experten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89447-6_19 69b7475d1a16dc6bd8aa64f0b15ed4ad;de;;;7.4.;;;Interaktive Wissensentdeckung und Data Mining von genomischen Expressionsdaten mit numerischer formaler Konzeptanalyse Die Analyse von Genexpressionsdaten (GED) stellt eine große Herausforderung für die wissenschaftliche Gemeinschaft dar, die in das Paradigma Knowledge Discovery in Databases (KDD) und Data Mining (DM) eingerahmt werden kann. Biclustering hat sich als maschinelle Lernmethode der Wahl zur Lösung dieser Aufgabe herauskristallisiert, aber seine unüberwachte Natur macht die Ergebnisbewertung problematisch. Dies wird häufig mit Hilfe der Gene Set Enrichment Analysis (GSEA) angegangen.;-;-;-;https://link.springer.com/article/10.1186/s12859-016-1234-z 4bbaa0090db7d82ce5d1d53f2e18ce67;de;;;7.4.;;;Robustheit von Klassifikatoren gegenüber wechselnden Umgebungen In diesem Whitepaper testen wir einige der am häufigsten verwendeten Klassifikatoren, um herauszufinden, welche am robustesten gegenüber wechselnden Umgebungen sind. Die Umgebung kann sich im Laufe der Zeit aufgrund einiger Kontext- oder Definitionsänderungen ändern. Die Umgebung kann sich je nach Standort ändern. Es wäre überraschend, wenn sich die Leistung gängiger Klassifikatoren mit diesen Änderungen nicht verschlechtert. Die Frage, die wir hier ansprechen, lautet, ob einige Arten von Klassifikatoren von Natur aus immun gegen diese Effekte sind oder nicht. In dieser Studie simulieren wir die Veränderung der Umgebung, indem wir den Einfluss auf die Klasse der wichtigsten Attribute reduzieren. Laut unserer Analyse sind K-Nearest Neighbor und Artificial Neural Networks die robustesten Lerner, Ensemble-Algorithmen sind etwas robuster, während Naive Bayes, Logistic Regression und insbesondere Decision Trees am stärksten betroffen sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13059-5_23 d9a0366df6ef7b73d86f2caa17d29456;de;;;7.4.;;;Analysieren des Verhaltens von objektiven Regelbewertungsindizes basierend auf einem Korrelationskoeffizienten In diesem Papier präsentieren wir eine Analyse des Verhaltens objektiver Regelbewertungsindizes auf Klassifikationsregelsätzen unter Verwendung von Pearson-Produktmoment-Korrelationskoeffizienten. Zur Unterstützung der Data-Mining-Nachbearbeitung, die eines der wichtigen Verfahren in einem Data-Mining-Prozess ist, werden mindestens 40 Indizes vorgeschlagen, um wertvolle Erkenntnisse zu gewinnen. Ihr Verhalten wurde jedoch nie klar artikuliert. Daher haben wir eine Korrelationsanalyse zwischen jedem objektiven Regelbewertungsindex durchgeführt. In dieser Analyse haben wir Durchschnittswerte jedes Index mit der Bootstrap-Methode für 32 Klassifikationsregelsätze berechnet, die mit dem Informationsgewinnverhältnis gelernt wurden. Dann fanden wir die folgenden Beziehungen basierend auf den Korrelationskoeffizientenwerten: ähnliche Paare, abweichende Paare und unabhängige Indizes. Im Hinblick auf dieses Ergebnis diskutieren wir über relative funktionale Beziehungen zwischen jeder Gruppe von Zielindizes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85565-1_94 a4afd4615c17aa52a041e3f6b4ec0b76;de;;;7.4.;;;Erkennung anstößiger Sprachen durch mehrstufige Klassifikation Textnachrichten über das Internet oder Mobiltelefone sind zu einem wichtigen Medium der persönlichen und kommerziellen Kommunikation geworden. Gleichzeitig sind Flammen (wie Schimpfworte, Spott und schmutzige Phrasen) beleidigende/beleidigende Phrasen, die die Benutzer aus verschiedenen Gründen angreifen oder beleidigen können. Eine automatische diskriminierende Software mit einem Empfindlichkeitsparameter für die Erkennung von Flammen oder missbräuchlicher Sprache wäre ein nützliches Werkzeug. Obwohl ein Mensch solche nutzlosen nervigen Texte unter den nützlichen erkennen könnte, ist dies für Computerprogramme keine leichte Aufgabe. In diesem Papier beschreiben wir eine automatische Flammenerkennungsmethode, die Merkmale auf verschiedenen konzeptionellen Ebenen extrahiert und eine mehrstufige Klassifizierung für die Flammenerkennung anwendet. Während das System verschiedene statistische Modelle und regelbasierte Muster nutzt, gibt es ein zusätzliches gewichtetes Muster-Repository, das die Genauigkeit verbessert, indem es den Text mit seinen abgestuften Einträgen abgleicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13059-5_5 2d83851d5681ca0b7878ede2de4eab32;de;;;7.4.;;;Ein Analyserahmen: Ansätze in den Anwendungen von E-CRM Data-Mining-Techniken bieten ein beliebtes und leistungsstarkes Toolset zur Generierung verschiedener datengesteuerter Klassifizierungssysteme. Asim M. Ansari und Carl F. Mela (2003) untersuchten einen statistischen und Optimierungsansatz zur Anpassung von Informationen im Internet, und Balaji Padmanabhan (2004) untersuchte die Anwendung von Optimierung und Data Mining. In diesem Papier veranschaulichen wir, basierend auf früherer Literatur, wie Optimierung und Data Mining in e-CRM-Umgebungen zusammenwirken, und erläutern einen Analyserahmen für e-CRM.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-34403-9_42 17394a65d312f2874d2de55935fc6b82;de;;;7.4.;;;Wie die nahe Zukunft der Künstlichen Intelligenz aussehen könnte Das Kapitel befasst sich mit den möglichen Entwicklungen der Künstlichen Intelligenz (KI) in naher Zukunft und identifiziert zwei wahrscheinliche Trends: (a) eine Verschiebung von historischen zu synthetischen Daten und (b) eine Übersetzung schwieriger Aufgaben (in Bezug auf Fähigkeiten) in komplexe (in Bezug auf die Berechnung). Es wird argumentiert, dass (a) und (b) als Entwicklungsstrategien von KI-Lösungen verfolgt werden, wann immer und soweit sie machbar sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29145-7_9 a1d9d43bb50ccb95f2ae9450b3fbae88;de;;;7.4.;;;Klassifizierung seismoakustischer Emissionsquellen in faseroptischen Systemen zur Überwachung ausgedehnter Objekte Es wird ein neues Verfahren zur automatischen Klassifizierung seismoakustischer Emissionsquellen in faseroptischen Überwachungssystemen basierend auf den Prinzipien der optischen Reflektometrie in einem Zeitbereich unter Verwendung der zeitlichen Rekonstruktion der Störsignalphase vorgeschlagen. Die Neuheit dieses Ansatzes liegt in den ursprünglichen Prinzipien der Bildung eines Raums von Klassifikationsmerkmalen und der Verwendung von Ensemble-Klassifikatoren. Dieses Verfahren funktioniert unter der Voraussetzung, dass eine relativ kleine Trainingsdatenbank verwendet wird. Bei der Arbeit mit realen Daten zeigt sich eine hohe praktische Wirksamkeit des vorgeschlagenen Ansatzes. Ein Klassifikationszuverlässigkeitswert, der bisher alternativen Klassifikationsverfahren, die in seriellen faseroptischen Überwachungssystemen implementiert sind, nicht zugänglich war, wird für verschiedene Klassen von Zielen gleichmäßig erreicht.;-;-;-;https://link.springer.com/article/10.3103/S8756699020010070 c06515e65fd532a82c4032a5313494c6;de;;;7.4.;;;Regelbasierte Verhaltensvorhersage von gegnerischen Agenten mit Robocup 3D-Fußballsimulation Liga-Logfiles Gegnermodellierung in Spielen befasst sich mit der Analyse des Verhaltens der Gegner und der Entwicklung einer Gewinnstrategie. In diesem Artikel stellen wir einen Ansatz vor, um das Verhalten einzelner Agenten auf niedriger Ebene mit der Robocup Soccer Simulation 3D-Umgebung zu modellieren. In 2D League sind die primitiven Aktionen von Agenten wie Kick, Turn und Dash bekannt, und aus diesen Verhaltensweisen auf niedriger Ebene werden Verhaltensweisen auf hoher Ebene abgeleitet. In 3D League ist das Problem jedoch komplex, da Aktionen aus der Beobachtung des Spiels abgeleitet werden sollen. Unser Ansatz dient somit als Mittelschicht, in der wir Agentenverhalten durch manuelles Daten-Tagging durch einen Experten lernen und dann die vom PART-Algorithmus generierten Regeln zur Vorhersage des Gegnerverhaltens verwenden. Es wurde ein Parser zum Extrahieren von Daten aus 3D-Logfiles geschrieben, wodurch unser Ansatz verallgemeinert wird. Experimentelle Ergebnisse zu rund 6000 Aufzeichnungen von 3D-Ligaspielen zeigen sehr vielversprechende Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33409-2_30 b8b5492f8216866a40edbf70f9cdd400;de;;;3.2.;;;HMS-Entwicklungs- und Implementierungsumgebungen In diesem Kapitel werden wünschenswerte Funktionen der Entwicklungs- und Implementierungsumgebungen von Holonic Manufacturing System (HMS) extrahiert und HMS-Shell und JDPS als Beispiele erläutert, die diese Funktionen bereitstellen. HMS-Shell ist ein GUI-basiertes Designtool für HMSs basierend auf der Cooperation Domain (CD), das Kooperationspartner und Kooperationsprotokolle kapselt. JDPS ist eine HMS-Implementierungs- und Ausführungsumgebung, die auf zuverlässigem Broadcast-Messaging basiert und eine vollständige Standort- und Multiplikationstransparenz von Entitäten erreicht. Diese Eigenschaften von HMS-Shell und JDPS machen Anwendungsprogramme unabhängig von Kooperationsmechanismen und ermöglichen eine einfache dynamische Rekonfiguration und inkrementelle Entwicklung von HMSs während des Betriebs der Systeme.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-05624-0_10 0e64e5fb757def6ebb7069d686a4c774;de;;;7.4.;;;Integer-Matrix-Approximation und Data Mining Ganzzahlige Datensätze kommen häufig in vielen Anwendungen in Wissenschaft und Technik vor. Um diese Datensätze zu analysieren, betrachten wir eine ganzzahlige Matrix-Approximationstechnik, die die ursprünglichen Datensatzmerkmale beibehalten kann. Da ganze Zahlen von Natur aus diskret sind, kann nach unserem besten Wissen keine zuvor vorgeschlagene Technik, die für reelle Zahlen entwickelt wurde, erfolgreich angewendet werden. In dieser Studie führen wir zunächst eine gründliche Überprüfung aktueller Algorithmen durch, die ganzzahlige Kleinste-Quadrate-Probleme lösen können, und entwickeln dann eine alternative Kleinste-Quadrate-Methode basierend auf einer ganzzahligen Kleinste-Quadrate-Schätzung, um die ganzzahlige Approximation der ganzzahligen Matrizen zu erhalten. Wir diskutieren numerische Anwendungen für die Approximation von zufällig generierten ganzzahligen Matrizen sowie Studien zu Assoziationsregelmining, Clusteranalyse und Musterextraktion. Unsere berechneten Ergebnisse legen nahe, dass unsere vorgeschlagene Methode eine genauere Lösung für diskrete Datensätze berechnen kann als andere bestehende Methoden.;-;-;-;https://link.springer.com/article/10.1007/s10915-017-0531-7 ce65febdc5b8dd9763fcf2e50de12b5b;de;;;7.4.;;;Erlernen lokaler Formdeskriptoren zum Berechnen von nicht starrer dichten Korrespondenz Ein unterscheidender lokaler Formdeskriptor spielt bei verschiedenen Anwendungen eine wichtige Rolle. In diesem Artikel stellen wir ein neuartiges Deep-Learning-Framework vor, das diskriminierende lokale Deskriptoren für verformbare 3D-Formen ableitet. Wir verwenden lokale „Geometriebilder“, um die mehrskaligen lokalen Merkmale eines Punktes über eine intrinsische Parametrisierungsmethode basierend auf geodätischen Polarkoordinaten zu kodieren. Diese neue Parametrisierung liefert robuste Geometriebilder auch für schlecht geformte Dreiecksnetze. Dann wird ein Triplet-Netzwerk mit gemeinsamer Architektur und Parametern verwendet, um Deep metric Learning durchzuführen, dessen Ziel es ist, zwischen ähnlichen und unähnlichen Punktpaaren zu unterscheiden. Außerdem wird eine neu entwickelte Triplett-Verlustfunktion für ein verbessertes, genaues Training des Triplett-Netzwerks minimiert. Um das Problem der dichten Korrespondenz zu lösen, wird ein effizienter Sampling-Ansatz verwendet, um einen guten Kompromiss zwischen Trainingsleistung und Deskriptorqualität zu erzielen. Während des Testens gibt unser Netzwerk bei einem gegebenen Geometriebild eines interessierenden Punkts einen diskriminierenden lokalen Deskriptor dafür aus. Umfangreiche Tests der nicht starren dichten Formanpassung auf einer Vielzahl von Benchmarks zeigen die Überlegenheit der vorgeschlagenen Deskriptoren gegenüber den Alternativen nach dem Stand der Technik.;-;-;-;https://link.springer.com/article/10.1007/s41095-020-0163-y 2ff7e3778ef1dfbfc1e2b72c915df38c;de;;;7.4.;;;Mining kleiner Objekte in großen Bildern mit neuronalen Netzen Seit Ende der 1980er Jahre werden neuronale Netze in großem Umfang beim Data Mining eingesetzt. Sie werden jedoch oft kritisiert und wegen mangelnder Interpretationsfähigkeit als „Black Box“ angesehen. Dieses Kapitel beschreibt einen domänenunabhängigen Ansatz zur Verwendung neuronaler Netze zum Mining von kleinen Objekten mit mehreren Klassen in großen Bildern. Bei diesem Ansatz werden die Netzwerke durch den Backpropagation-Algorithmus an Beispielen trainiert, die aus den großen Bildern ausgeschnitten wurden. Die trainierten Netzwerke werden dann in Form eines beweglichen Fensters auf die großen Bilder angewendet, um die interessierenden Objekte zu durchsuchen. Während des Mining-Prozesses werden sowohl die Klassen als auch die Standorte der Objekte bestimmt. Das Netzwerkverhalten wird interpretiert, indem die Gewichte in gelernten Netzwerken analysiert werden. Die Visualisierung dieser Gewichte bietet nicht nur eine intuitive Möglichkeit, versteckte Muster, die in gelernten neuronalen Netzen für Object-Mining-Probleme codiert sind, darzustellen, sondern zeigt auch, dass neuronale Netze nicht nur eine Blackbox, sondern ein Ausdruck oder ein Modell versteckter Muster sind, die beim Data Mining entdeckt wurden Prozess.;-;-;-;https://link.springer.com/chapter/10.1007/11498186_16 6de96b3c86e912c5c038e1cb85816aa1;de;;;7.4.;;;Eine Vorhersagemethode für Solarstromgeneratoren mit Techniken des maschinellen Lernens Wir haben zuerst einen Solarstromgenerator gekauft, ihn an der richtigen Stelle installiert und dann die Stromerzeugungsdaten für die nächsten 12 Monate gesammelt. Zuerst haben wir Wetter- und Stromerzeugungsdaten gesammelt, um eine Excel-Datei zu erstellen. Für die Wetterdaten wurden die von der Wetterbehörde bereitgestellten Daten gesichert, um die Zuverlässigkeit der Informationen zu gewährleisten. Die gesammelten Daten können jederzeit und überall mit dem PC oder mobilen Gerät überwacht werden. Die Benutzeroberfläche dieser Dienste soll aktualisiert werden, um nach der Genauigkeit des bereitgestellten Dienstes benutzerfreundlicher zu sein. Die Kernentwicklungsinhalte sind gesammelte datenbasierte Techniken zur Vorhersage der Stromerzeugung. Dies liegt daran, dass eine Systemfehlerüberwachung nur durchgeführt werden kann, wenn ein System zur Vorhersage der Stromerzeugung konfiguriert ist. Unser Algorithmus zur Vorhersage der Stromerzeugung wurde basierend auf maschinellem Lernen entwickelt. LSTM wurde bei der linearen Regression und dem künstlichen neuronalen Netzwerk beim maschinellen Lernen verwendet. Experimente mit maschinellem Lernen zeigten, dass die Genauigkeit im Vergleich zur tatsächlichen Stromerzeugung auf 85% gesteigert werden konnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-5907-1_37 c44df155d13fb1e712ff300d1088c80d;de;;;7.4.;;;Befahren der semantischen Meere mit Strukturschiffen: Probleme und Perspektiven zur Identifizierung von implizitem Wissen im Rechtsbereich In diesem Beitrag schlagen wir einige vorläufige Erkenntnisse darüber vor, wie sich das Verhältnis von Recht und KI auf die Identifizierung von implizitem Wissen im Rechtsbereich auswirkt. Aus theoretischer Sicht ist der Wissensbegriff, wie er in der KI konzipiert wird, für das Recht problematisch, da er nicht im Rückgriff auf eine dominante Wahrheitstheorie gelöst werden kann. Bekanntlich ist der aktuelle Stand der Rechtsforschung fragmentiert, nicht nur in der Frage der Wahrheitsfindung, sondern ganz allgemein in der Frage der Bewertung der Beziehungen zwischen Formalismus und Informalität im Recht. in diversen Wahrheitstheorien. Aus operativer Sicht könnten neue Fortschritte in der Analyse sozialer Netzwerke für die Wissensentdeckung im Rechtsbereich fruchtbar sein, insbesondere für die Anwendung juristischer Ontologien in multikulturellen Kontexten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16524-5_3 d9e542dd307244013edfac54f904afde;de;;;7.4.;;;Einführung in die Datenanalyse Dieses Kapitel stellt einige grundlegende Techniken zur Datenanalyse vor, darunter überwachte Ansätze (Klassifizierung mit Bayes, Vorhersage mit Regression) und unüberwachte Ansätze (Clustering, kNN-Algorithmen und Assoziationsregeln). Der Umgang mit Text- und Graphdaten wird ebenso diskutiert wie eine einfache, aber effektive Technik für kollaboratives Filtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-57592-2_4 e09d9eb892ce6cb8459d76814b1834e2;de;;;7.4.;;;Informationsextraktion/Entailment of Common Law und Civil Code Mit den jüngsten Fortschritten bei Modellen für maschinelles Lernen haben wir Verbesserungen bei den Aufgaben der natürlichen Sprachinferenz (NLI) festgestellt, aber die rechtliche Verpflichtung war insbesondere bei überwachten Ansätzen eine Herausforderung. In diesem Papier evaluieren wir unterschiedliche Ansätze zur Handhabung von Engagment-Aufgaben für kleine domänenspezifische Datensätze, die im Competition on Legal Information Extraction/Entailment (COLIEE) bereitgestellt werden. COLIEE hatte in diesem Jahr vier Aufgaben, die sich auf die Verarbeitung von Rechtsinformationen und das Finden von Textfolgen zu Rechtsdaten konzentrierten. Wir haben dieses Jahr an allen vier Aufgaben teilgenommen und verschiedene Arten von Ansätzen evaluiert, darunter Klassifikations-, Ranking- und Transferlernansätze gegen die Entbindungsaufgaben. Bei einigen Aufgaben haben wir wettbewerbsfähige Ergebnisse im Vergleich zu einfacheren regelbasierten Ansätzen erzielt, die den Wettbewerb in den letzten sechs Jahren bisher dominiert haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-79942-7_17 d93384f8ea21332c88782629cc28f48e;de;;;7.4.;;;Auswählen eines Feature-Sets zum Zusammenfassen von Texten in brasilianischem Portugiesisch Dieses Papier präsentiert einen neuartigen Ansatz zur Kombination von Funktionen zum Trainieren einer automatischen extraktiven Zusammenfassung von Texten, die in brasilianischem Portugiesisch verfasst wurden. Der Ansatz zielt darauf ab, sowohl den Aufwand für die Klassifikation von Merkmalen zu verringern, die für die automatische Zusammenfassung repräsentativ sind, als auch dem Zusammenfasser mehr Informationen zu bieten, um zu entscheiden, welche Textspannen in einen Auszug aufgenommen werden sollen. Das Finden eines ausgewogenen Satzes von Funktionen wird durch WEKA erforscht. Wir besprechen verschiedene Möglichkeiten zum Ändern des Feature-Sets und zeigen, wie die automatische Feature-Auswahl für die Anpassung des Summierers nützlich sein kann.;-;-;-;https://link.springer.com/chapter/10.1007/11874850_50 1b555ec2a60cbf0597d5ff71ccd34402;de;;;7.4.;;;Dropout nicht negative Matrixfaktorisierung Nicht-negative Matrixfaktorisierung (NMF) hat in Forschungsgemeinschaften wie Dokumentenclustering, Bildanalyse und kollaboratives Filtern viel Aufmerksamkeit erhalten. NMF-basierte Ansätze leiden jedoch häufig unter Überanpassung und voneinander abhängigen Merkmalen, die durch latente Merkmals-Coadaptation während des Lernprozesses verursacht werden. Die meisten der bestehenden verbesserten Methoden der NMF nutzen Nebeninformationen oder aufgabenspezifisches Wissen. Sie sind jedoch nicht immer verfügbar. Dropout ist weithin als wirksame Strategie zur Verhinderung der Co-Anpassung beim Training tiefer neuronaler Netze anerkannt. Außerdem erfordert es keine Vorkenntnisse und bringt keine zusätzlichen Terme oder Transformationen in die ursprüngliche Verlustfunktion mit sich. In diesem Papier führen wir die Dropout-Strategie in NMF ein und schlagen einen Dropout-NMF-Algorithmus vor. Konkret entwerfen wir zunächst eine einfache Dropout-Strategie, die eine Dropout-Maske im NMF-Framework verschmilzt, um die Co-Anpassung von Features zu verhindern. Anschließend wird eine sequentielle Dropout-Strategie vorgeschlagen, um die Zufälligkeit zu reduzieren und Robustheit zu erreichen. Experimentelle Ergebnisse an mehreren Datensätzen bestätigen, dass unsere Dropout-NMF-Methoden nicht nur NMF verbessern können, sondern auch bestehende repräsentative Matrixfaktorisierungsmodelle weiter verbessern können.;-;-;-;https://link.springer.com/article/10.1007/s10115-018-1259-x e4748981c08d98e8c40cc87f956b6c5e;de;;;7.4.;;;Betrugserkennung in Kreditkartendaten mit maschinellen Lerntechniken Kreditkarten sind heutzutage ein Teil des menschlichen Lebens. Es erleichtert Benutzern in verschiedenen Sektoren. Einbrecher versuchen auf viele Arten, Kreditkarteninformationen zu stehlen. Daher ist die Sicherheit sensibler Kreditkarteninformationen ein wichtiges Anliegen. Wir können verschiedene Techniken des maschinellen Lernens anwenden, um solche Betrügereien oder Anomalien zu erkennen. Auf Basis unserer Umfrage haben wir zwei überragende Klassifikatoren des maschinellen Lernens gefunden, nämlich Logistische Regression (LR) und Naive Bayes (NB). Dieses Papier stellt eine Methode zur Betrugserkennung in Kreditkartensystemen unter Verwendung des Random Forest (RF)-Klassifikators bereit. Die Arbeit wird mit den bestehenden Klassifikatoren verglichen: LR und NB. Ihre Leistung wird anhand verschiedener Metriken bewertet, nämlich Genauigkeit, Präzision, Rückruf, F1-Score und Spezifität bei einigen Datensätzen des Kreditkartensystems. Es wird beobachtet, dass Random Forest andere übertrifft. Random Forest bietet eine Genauigkeit von 99,95 %, während die Genauigkeit von LR und NB 91,16 % bzw. 89,35 % beträgt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6318-8_31 a1b57089311ed3a7714e282123ae83ea;de;;;7.4.;;;Maschinelles Lernen mit natürlich gekennzeichneten Daten zur Identifizierung von Abkürzungsdefinitionen Das schnelle Wachstum der biomedizinischen Literatur erfordert genaue Textanalyse- und Textverarbeitungswerkzeuge. Abkürzungen zu erkennen und ihre Definitionen zu identifizieren, ist ein wichtiger Bestandteil solcher Tools. Die meisten existierenden Ansätze für die Aufgabe der Abkürzungsdefinitionsidentifikation verwenden regelbasierte Verfahren. Regelbasierte Methoden erreichen zwar eine hohe Präzision, sind jedoch auf die definierten Regeln beschränkt und erfassen viele ungewöhnliche Definitionsmuster nicht. Auf das Problem wurden auch Techniken des überwachten Lernens angewendet, die mehr Flexibilität bei der Erkennung von Abkürzungsdefinitionen bieten. Sie erfordern jedoch manuell gekennzeichnete Trainingsdaten.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-12-S3-S6 d2e59fa69b97e136b93b6f71e8923644;de;;;7.4.;;;Modell zur Vorhersage der Kündigung von Mitarbeitern basierend auf maschinellem Lernen Im aktuellen Marktwettbewerb ist der Wettbewerb um Talente zu einer wichtigen Richtung für Unternehmen geworden. Die Personalabteilung kann die Kündigung von Mitarbeitern nicht rechtzeitig und genau erfassen und Entscheidungsgrundlagen für die Unternehmensführung liefern ist zu einem dringenden Problem geworden, das von der Personalabteilung gelöst werden muss. In diesem Zusammenhang schlägt dieser Artikel ein Modell zur Vorhersage der Kündigung von Mitarbeitern vor, das auf Machine Learning basiert. Das Vorhersagemodell wird durch logistische Regression realisiert, wobei die Kreuzentropiefunktion als Zielfunktion verwendet wird und das Newton-Verfahren und die Regularisierung zur Optimierung des Modells verwendet werden. Durch eine Reihe von Vergleichsexperimenten kann die Genauigkeit des endgültigen Vorhersagemodells 85,5% erreichen, die Gültigkeit des Vorhersagemodells wird überprüft, was eine neue Lösung für die Vorhersage der Kündigung von Mitarbeitern bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-53980-1_55 b67e253548bf039a9f60bede0d6a4b1b;de;;;7.4.;;;Eine Momentaufnahme zum Argumentieren mit qualitativen Präferenzaussagen in KI Die Ermittlung von Präferenzen ist ein bekannter Engpass bei Entscheidungsanalyse- und Entscheidungsautomatisierungsaufgaben, insbesondere bei Anwendungen, die sich an Laien richten und denen kein professioneller Entscheidungsanalytiker helfen kann. Wir konzentrieren uns auf die ordinalen Präferenzen der Benutzer und diskutieren hier die Prinzipien, die verschiedenen in der KI-Forschung entwickelten Rahmen zur Interpretation und formalen Argumentation von Sätzen qualitativer Präferenzaussagen zugrunde zu liegen scheinen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-211-85432-7_11 765a7d840c1d455359c7ee31f3e7c16f;de;;;7.4.;;;Gebärdenspracherkennung mit Unterstützungsvektormaschinen und versteckten bedingten Zufallsfeldern: Übergang von der Fingerbuchstabierung zu natürlichen artikulierten Wörtern Dieser Beitrag beschreibt die Experimente der Autoren mit Support Vector Machines und Hidden Conditional Random Fields zur Klassifizierung von frei artikulierten Gebärdenwörtern aus der brasilianischen Gebärdensprache (Waage). Während sich unsere früheren Arbeiten speziell auf die Erkennung von Fingerschreibweisen unter streng kontrollierten Umgebungsbedingungen konzentrierten, führen wir in dieser Arbeit die Klassifizierung natürlicher Zeichenwörter in einem uneingeschränkten Hintergrund ohne die Hilfe von Handschuhen oder tragbaren Tracking-Geräten durch. Wir zeigen, wie unsere Wahl des Merkmalsvektors, die aus Tiefeninformationen extrahiert und auf linguistischen Untersuchungen basiert, für diese Aufgabe sehr effektiv ist. Auch hier liefern wir Vergleichsergebnisse mit künstlichen neuronalen Netzen und Hidden-Markov-Modellen, berichten statistisch signifikante Ergebnisse, die unsere Wahl der Klassifikatoren begünstigen, und wir validieren unsere Ergebnisse mit der zufallskorrigierten Cohen-Kappa-Statistik für Kontingenztabellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39712-7_7 3ccb8f4e9e5d1b808615932b44f1401f;de;;;7.4.;;;Machine-Learning-Ansätze zur Erstellung von Vorhersagemodellen für Small-Molecule-Modulatoren von miRNA und ihr Nutzen beim virtuellen Screening von molekularen Datenbanken Die allgegenwärtige Rolle von microRNAs (miRNAs) in einer Reihe von pathologischen Prozessen deutet darauf hin, dass sie als potenzielle Wirkstoffziele fungieren könnten. RNA-bindende kleine Moleküle bieten ein attraktives Mittel zur Modulation der miRNA-Funktion. Die Verfügbarkeit von Bioassay-Datensätzen für eine Vielzahl von biologischen Assays und Molekülen im öffentlichen Bereich bietet eine neue Möglichkeit, diese zur Erstellung von Modellen und zur weiteren Verwendung für virtuelle Screening-Ansätze in silico zu nutzen, um Prioritäten oder potenzielle Funktionen für kleine Moleküle zuzuweisen. Hier beschreiben wir eine Computerstrategie basierend auf maschinellem Lernen zur Erstellung von Vorhersagemodellen aus biologischen Hochdurchsatz-Screenings für das virtuelle Screening kleiner Moleküle mit dem Potenzial, microRNAs zu hemmen. Solche Modelle könnten möglicherweise für die computergestützte Priorisierung kleiner Moleküle verwendet werden, bevor ein biologischer Hochdurchsatz-Assay durchgeführt wird.;-;-;-;https://link.springer.com/protocol/10.1007/978-1-4939-6563-2_11 ff9e02c9a44a21edd9d3e80e0e5169c1;de;;;7.4.;;;Ein Methodenvorschlag zum Extrahieren von Zeitinformationen aus historienbezogenen Webdokumenten basierend auf historischen Objekten unter Verwendung von Techniken des maschinellen Lernens Bei der Suche nach historischen Themen in Websuchmaschinen werden die Abfrageergebnisse nicht in chronologischer Reihenfolge des Dokumentinhalts angezeigt. Daher muss der Benutzer manuell durch das Suchergebnis navigieren, um die Dokumente auf einer Zeitachse darzustellen. Wenn Dokumente automatisch in kontextueller chronologischer Reihenfolge sortiert werden könnten, hätte das verschiedene praktische Anwendungen. Um zu testen, ob dieses Konzept machbar ist, haben wir die Annalen der Joseon-Dynastie analysiert, eine Zusammenstellung von täglichen Journalen aus sechshundert Jahren, und haben verschiedene Ansätze von maschinellen Lernalgorithmen angewendet, um die ungefähren zeitlichen Informationen von historischen Dokumenten der Neuzeit zu schätzen . Unser Experiment zeigte eine Genauigkeit von bis zu 64 %, was darauf hindeutet, dass die Schätzung zeitlicher Informationen basierend auf Dokumenttext möglich ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-1536-6_38 ee122c9e92a4cf97819e85e75904a2f6;de;;;7.4.;;;Ein Empfehlungssystem für medizinische Berichte, das kognitives Computing und Frame-Semantik nutzt In den letzten Jahrzehnten wurden in klinischen Datenbanken riesige Datenmengen in Form von medizinischen Berichten, Laborergebnissen, Behandlungsplänen usw. gesammelt, die den Gesundheitszustand der Patienten darstellen. Daher haben die digitalen Informationen, die für eine patientenorientierte Entscheidungsfindung zur Verfügung stehen, drastisch zugenommen, aber sie werden oft nicht eingehend analysiert und analysiert, da: (i) medizinische Dokumente oft unstrukturiert und daher schwer automatisch zu analysieren sind, (ii) Ärzte traditionell auf ihre Erfahrung angewiesen sind um eine Krankheit zu erkennen, eine Diagnose zu stellen und Medikamente zu verschreiben. Die Erfahrung der Ärzte kann jedoch durch die bisher behandelten Fälle eingeschränkt sein und Medikationsfehler können häufig auftreten. Darüber hinaus ist es im Allgemeinen schwierig und zeitaufwändig, Informationen abzuleiten, um unstrukturierte Daten zu vergleichen und Ähnlichkeiten zwischen heterogenen Ressourcen zu bewerten. Technologien wie Data Mining, Verarbeitung natürlicher Sprache und maschinelles Lernen können Möglichkeiten bieten, potenzielles Wissen aus den Aufzeichnungen der Diagnosegeschichte zu erforschen und zu nutzen und Ärzten helfen, Medikamente richtig zu verschreiben, um Medikationsfehler effektiv zu verringern. In diesem Whitepaper entwerfen und implementieren wir ein medizinisches Empfehlungssystem, das eine Sammlung medizinischer Berichte zu Funktionen, die von IBM Watson und Framester, zwei neuen Tools aus Cognitive Computing bzw Bericht eines bestimmten Patienten als Eingabe, um ähnliche andere medizinische Berichte von Patienten mit Analogasymptomen zu empfehlen. Experimente und Ergebnisse haben die Qualität der resultierenden Clusterbildung und Empfehlungen sowie die Schlüsselrolle bewiesen, die diese innovativen Dienstleistungen im biomedizinischen Sektor spielen können. Das vorgeschlagene System ist in der Lage, neue medizinische Fälle zu klassifizieren und so Ärzte dabei zu unterstützen, bei bestimmten Diagnosen und Behandlungen korrektere und zuverlässigere Maßnahmen zu ergreifen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94030-4_2 eed163a7faaea123aed950fe83e36f09;de;;;7.4.;;;Eine Studie zur Merkmalsgewichtung in der chinesischen Textkategorisierung Bei der Textkategorisierung (TC) basierend auf dem Vektorraummodell sind Merkmalsgewichtung und Merkmalsauswahl Hauptprobleme und Schwierigkeiten. In diesem Beitrag werden zwei Methoden zur Gewichtung von Merkmalen vorgeschlagen, indem die relevanten Einflussfaktoren miteinander kombiniert werden. Ein TC-System für chinesische Texte ist auf Zeichen-Bigramme als Features ausgelegt. Experimente an einer Dokumentensammlung von 71.674 Texten zeigen, dass die F1-Metrik der Kategorisierungsleistung des Systems 85,9% beträgt, was etwa 5% höher ist als die des bekannten TF*IDF-Gewichtungsschemas. Darüber hinaus wird ein mehrstufiger Merkmalsauswahlprozess genutzt, um die Dimension des Merkmalsraums im System effektiv zu reduzieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36456-0_66 7bf15e81c118631a7c4bfc6194152d0d;de;;;7.4.;;;BankXX: Unterstützung rechtlicher Argumente durch heuristisches Retrieval Das BankXX-System modelliert den Prozess des Durchlesens und Sammelns von Informationen zur Argumentation als heuristische Suche nach relevanten Fällen, Theorien und anderen domänenspezifischen Informationen. Während BankXX sein heterogenes und stark vernetztes Netzwerk von Domänenwissen durchsucht, werden Informationen inkrementell analysiert und zu einem Dutzend wünschenswerter Zutaten für Argumente (genannt;-;-;-;https://link.springer.com/article/10.1007/BF00123994 e9dbd6a3dca96a834b8c1a70fead4536;de;;;7.4.;;;Ensembles von relationalen Klassifikatoren Die relationale Klassifikation zielt darauf ab, Beziehungen zwischen Entitäten in den Klassifikationsprozess einzubeziehen, beispielsweise unter Berücksichtigung von Beziehungen zwischen Dokumenten wie gemeinsamen Autoren oder Zitaten. Die Berücksichtigung von mehr als einer Beziehung kann jedoch die Klassifizierungsgenauigkeit weiter verbessern. Hier stellen wir einen neuen Ansatz vor, um mehrere Relationen sowie Relationen und lokale Attribute für die Klassifizierung mit Ensemble-Methoden zu nutzen. Um dies zu erreichen, präsentieren wir ein generisches relationales Ensemble-Modell, das verschiedene relationale und;-;-;-;https://link.springer.com/article/10.1007/s10115-007-0093-3 fa380ee113b7fd7b1421ae4b121c1a99;de;;;7.4.;;;Auswahlmethoden für den Filteransatz zur Unterstützung des Lernens mit mehreren Labels basierend auf ReliefF und Informationsgewinn Beim Lernen mit mehreren Labels ist jedes Beispiel im Datensatz mit einem Satz von Labels verknüpft, und die Aufgabe des generierten Klassifikators besteht darin, den Label-Satz nicht gesehener Beispiele vorherzusagen. Die Featureauswahl ist eine wichtige Aufgabe beim maschinellen Lernen, die darauf abzielt, eine kleine Anzahl von Features zu finden, die den Datensatz genauso gut oder sogar besser beschreiben als die ursprünglichen Features. Dies kann erreicht werden, indem irrelevante und/oder redundante Merkmale gemäß einem Wichtigkeitskriterium entfernt werden. Obwohl effektive Methoden zur Merkmalsauswahl zur Unterstützung der Klassifizierung für Daten mit einem einzigen Label im Überfluss vorhanden sind, ist dies bei Daten mit mehreren Labels nicht der Fall. Diese Arbeit schlägt zwei Methoden zur Auswahl von Multi-Label-Features vor, die den Filteransatz verwenden. Dieser Ansatz wertet Statistiken der Daten unabhängig von einem bestimmten Klassifikator aus. Zu diesem Zweck werden ReliefF, eine Single-Label-Merkmalsauswahlmethode und eine Anpassung des Informationsgewinns-Maß für Multi-Label-Daten verwendet, um die auszuwählenden Merkmale zu finden. Beide Methoden wurden in zehn Benchmark-Datensätzen unter Berücksichtigung der Reduktion der Merkmalsanzahl sowie der Qualität der generierten Klassifikatoren experimentell evaluiert und zeigten vielversprechende Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34459-6_8 695e8a31baa2e88adbea8e481111b19d;de;;;7.4.;;;Vorhersage von Aktienkursbewegungen anhand von Finanznachrichten-Sentiment Eine zentrale Frage der Finanzökonomie betrifft den Grad der Informationseffizienz. Verletzungen der Informationseffizienz stellen eine Fehlallokation von Kapital und potenziell profitable Handelsmöglichkeiten dar. Markteffizienzanalysen haben sich so entwickelt, dass sie immer umfangreichere öffentliche Informationen und innovative statistische Methoden zur Analyse dieser Informationen einbeziehen. Wir schlagen ein Automatic Crawling and Prediction System (ACPS) vor, um 1) Online-Medien automatisch zu durchsuchen, 2) nützliche Informationen aus einer Vielzahl von Finanznachrichten zu extrahieren und 3) zukünftige Aktienkursbewegungen vorherzusagen. ACPS besteht aus einer Merkmalsauswahlpipeline zur Auswahl eines optimalen Satzes von Vorhersagemerkmalen und einem Stimmungsanalysemodell, um die Nachrichtenstimmung auf Satzebene zu messen. Generierte Features und Nachrichten-Sentiment-Daten werden über ein Ensemble-Modell basierend auf mehreren Machine-Learning- und Deep-Learning-Algorithmen weiterverarbeitet, um Prognosen zu generieren. Die Ergebnisse demonstrieren die Robustheit unseres vorgeschlagenen Modells bei der Vorhersage der Richtungsbewegung der täglichen Aktienkurse. Insbesondere übertrifft das Modell bestehende Methoden der Einzeltitelprognose durchweg und schneidet bei allen S&P 500-Aktien gut ab. Unsere Ergebnisse zeigen den potenziellen Wert von Rich-Text-Analyse und Ensemble-Lernmethoden in einem Echtzeit-Handelskontext.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-80568-5_41 b7016bd5839cd03b49c1140e5e3aabf6;de;;;7.4.;;;Ein IoT-basiertes Big-Data-Framework, das äquidistante heuristische und Duplex-Deep Neural Networks für die Vorhersage von Diabeteserkrankungen verwendet Eine Reihe von Strategien, die durch das Internet der Dinge (IoT) ermöglicht werden, wurden für die Vorhersage mehrerer schrecklicher Krankheiten wie Diabetes eingesetzt, für die ein ununterbrochenes Echtzeit-Nachverfolgungssystem außergewöhnlich vorherrschend ist. Tragbare medizinische Geräte mit Sensor produzieren ständig ein großes Datenvolumen, das als Big Data bezeichnet wird. Mit der höheren Geschwindigkeit der Datenerstellung wird es umständlich, im Notfall eine so große Datenmenge zu sammeln, zu betreiben und zu analysieren. Deep Learning (DL)-Ansätze werden weitgehend von der Wahrnehmung von Mustern, der Kategorisierung von Objekten und der frühzeitigen Vorhersage diabetischer Erkrankungen genutzt. Trotzdem sind DLs in der Bewertung grundsätzlich bescheiden, gerade wenn die Datenmenge zu Diabeteserkrankungen reichlich vorhanden ist. Um die Erwartungen von DLs an Big-Data-Anwendungen von einem elektronischen Gerät zu erfüllen, muss das Bewertungsverfahren zur Vorhersage von Diabeteserkrankungen beschleunigt werden, damit eine frühzeitige Analyse erfolgen kann. In dieser Arbeit wird eine Methode namens Equidistant Heuristic and Duplex Deep Neural Network (EH-DDNN) zur frühen Vorhersage von Diabeteserkrankungen vorgeschlagen. Zunächst wird mit dem Big Data-Datensatz als Eingabe der Algorithmus Equidistant Heuristic Pruning (EHP) für die Merkmalsauswahl präsentiert. Der EHP teilt die Eingangsdatenmatrix getrennt in Zeilen und Spalten auf. Durch die Verwendung des Konzepts der bedingten Nichtausrichtungsbewertung und Heuristiktechniken nutzt EHP Nachbarschaftsbewertungen in Unterteilungen, während die Kommunikationszeit und der Overhead reduziert werden, wodurch Berechnungen enorm korrelieren. Dadurch werden wiederum die irrelevanten sowie redundanten Merkmale entfernt, was zu weniger Merkmalen führt, die für eine frühe Vorhersage einfacher sind. Als nächstes wird ein Duplex Deep Neural Network (DDNN) mit den inhärenten Funktionen für frühe Vorhersageanalysen entwickelt, eine Verschmelzung von nichtlinearen Verarbeitungsfunktionen und einer linearen Reaktion zur Bevorratung eines großen Datenvolumens. Es werden Experimente durchgeführt und eine Validierung an den Benchmark-Datensätzen, dem Diabetes-Datensatz aus dem UCI-Repository und dem Pima Indians Diabetes Disease-Datensatz durchgeführt. Es werden eine vergleichende Analyse der Vorhersagezeit der Diabeteserkrankung, des Overhead der Vorhersage der Diabeteserkrankung und der ROC-Kurvenanalyse durchgeführt.;-;-;-;https://link.springer.com/article/10.1007/s12652-021-03014-1 ee4f905177cf2b4cb0cc3d9d5b4f62f6;de;;;7.4.;;;Bewertung von Startups: Eine Perspektive des maschinellen Lernens Wir adressieren das Problem der Startup-Bewertung aus der Perspektive des maschinellen Lernens mit Fokus auf europäische Startups. Genauer gesagt wollen wir die Bewertung von Startups entsprechend den Finanzierungsrunden ableiten, für die nur der eingeworbene Betrag bekannt gegeben wurde. Zu diesem Zweck nutzen wir Crunchbase, eine etablierte Informationsquelle über Unternehmen. Wir untersuchen die Diskrepanz zwischen den Eigenschaften der Finanzierungsrunden mit und ohne Bewertungsankündigung des Startups und zeigen, dass das Domain Adaptation Framework für diese Aufgabe geeignet ist. Schließlich schlagen wir eine Methode vor, die die zuvor in der Literatur vorgeschlagenen Ansätze bei weitem übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72113-8_12 064f71784eb73b83be74e83e9f07db1e;de;;;7.4.;;;Erkennung von Phishing-Websites: Forest durch Bestrafung des Attributalgorithmus und seiner erweiterten Variationen Die schädliche Wirkung von Phishing ist traumatisierend, da Angreifer oder Hacker sensible Informationen von Benutzern heimlich für unangemessene oder unbefugte Verwendung stehlen. Angesichts der Eindämmung von Phishing erwies sich das Blacklisting von Websites als ineffektiv, da die Bereitstellung von Phishing-Websites rasant zunimmt und oft nur von kurzer Dauer ist. Daher werden Methoden des maschinellen Lernens (ML) als praktikable Maßnahmen angesehen und verwendet, um beklagenswerte Modelle zu entwickeln, die eine Phishing-Website erkennen können. ML-Methoden gewinnen bei der Erkennung von Phishing-Websites schnell an Aufmerksamkeit und Akzeptanz, da sie der Dynamik von Phishing-Websites und Angreifern gewachsen sind. ML-Methoden weisen jedoch immer noch einige Mängel in Bezug auf geringe Erkennungsgenauigkeit, hohe Fehlalarmrate (FAR) und induzierte Verzerrung entwickelter ML-Lösungen auf. Darüber hinaus besteht angesichts der sich weiterentwickelnden Natur von Phishing-Angriffen ein anhaltender zwingender Bedarf an neuen und effektiven ML-basierten Methoden zur Erkennung von Phishing-Websites. Diese Studie schlug 3 Meta-Lerner-Modelle basierend auf dem Forest Penalizing Attributes (ForestPA)-Algorithmus vor. ForestPA verwendet eine Gewichtungszuweisungs- und Gewichtungsinkrementierungsstrategie, um hocheffiziente Entscheidungsbäume zu erstellen, indem die Leistungsfähigkeit aller Attribute (nicht klassenbezogen) in einem bestimmten Datensatz genutzt wird. Aufgrund der experimentellen Ergebnisse sind die vorgeschlagenen Meta-Lerner (ForestPA-PWDM, Bagged-ForestPA-PWDM und Adab-ForestPA-PWDM) mit der geringsten Genauigkeit von 96,26%, 0,004 FAR und 0,994 ROC-Wert hocheffizient. Angesichts der Überlegenheit der vorgeschlagenen Modelle gegenüber anderen bestehenden Methoden empfehlen wir außerdem die Entwicklung und Einführung von Meta-Lernern auf der Grundlage von ForestPA zur Erkennung von Phishing-Websites und anderen Cybersicherheitsangriffen.;-;-;-;https://link.springer.com/article/10.1007/s13369-020-04802-1 48e9ee9be29dff7e4fc9123887802a77;de;;;7.4.;;;Prädiktives System: Vergleich von Klassifikationstechniken zur effektiven Vorhersage von Herzerkrankungen Die heutige Welt stellt die meisten Menschen vor große Herausforderungen, da sie sich große Sorgen um die Aufrechterhaltung einer guten Gesundheit machen. Unter diesen Herausforderungen sind Herzerkrankungen eine der eindringlichsten. Weltweit hängt die maximale Zahl der Todesfälle mit Herzkrankheiten zusammen. Die meisten betroffenen Menschen mit Herzerkrankungen sind sich ihres Gesundheitszustandes nicht bewusst, und Fälle werden zu einem sehr späteren Zeitpunkt gemeldet, was für Ärzte eine Herausforderung darstellt, ihnen bei einer Änderung des Lebensstils eine angemessene Behandlung und Medikamente zu empfehlen. Diese Forschungsarbeit zielt darauf ab, Klassifikationstechniken zu vergleichen, um herauszufinden, welche die effizienteste ist, um die Krankheit in kürzerer Zeit vorherzusagen. Das Mining wichtiger Faktoren und die Analyse der Relativität zwischen ihnen helfen bei der Vorhersage, ob der Patient eine Herzerkrankung hat. Die verwendeten Klassifikationstechniken sind SVM, Decision Tree, Naive Bayes, KNN, Random Forest, Ensemble Classification (Extra Trees) und Logistic Regression.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9282-5_19 06ce62ee72136cd311f2d177810dd98f;de;;;7.4.;;;Die Konstruktion von ‚Realität‘ im Roboter: Konstruktivistische Perspektiven auf situierte künstliche Intelligenz und adaptive Robotik In diesem Beitrag werden verschiedene Ansätze der Inkognitiven Wissenschaft und der Künstlichen Intelligenzforschung aus der Perspektive des Radikalkonstruktivismus diskutiert, insbesondere in Bezug auf die biologisch basierten Theorien von von Uexküll, Piaget sowie Maturana und Varela. Insbesondere werden neuere Arbeiten zu „Neuer KI“ und adaptiver Robotik zu situierter und verkörperter Intelligenz untersucht und die Rolle konstruktiver Prozesse als Grundlage der Situiertheit sowohl in Robotern als auch in lebenden Organismen im Detail diskutiert.;-;-;-;https://link.springer.com/article/10.1023/A%3A1011394317088 af2332feb0fa6c5810475e79d2956628;de;;;7.4.;;;Steigende Adoptionsraten in Tierheimen: ein zweiphasiger Ansatz zur Vorhersage der Aufenthaltsdauer und der optimalen Zuweisung des Tierheims Von den 6–8 Millionen Tieren, die jedes Jahr in die Notunterkünfte gelangen, werden fast 3–4 Millionen (dh 50 % der ankommenden Tiere) eingeschläfert, und 10–25% von ihnen werden speziell wegen Überfüllung der Unterkünfte getötet Jahr. Das übergeordnete Ziel dieser Studie ist es, die Adoptionsraten in Tierheimen zu erhöhen. Dies beinhaltet die Vorhersage der Aufenthaltsdauer jedes Tieres in Tierheimen unter Berücksichtigung von Schlüsselmerkmalen wie Tierart (Hund, Katze usw.), Alter, Geschlecht, Rasse, Tiergröße und Tierheimstandort.;-;-;-;https://link.springer.com/article/10.1186/s12917-020-02728-2 c691a4c3fd36a95603a51a5172b8da64;de;;;7.4.;;;Grundlagen der Sentimentanalyse und ihrer Anwendungen Das Problem, die in Schriftsprache ausgedrückten Meinungen von Menschen zu identifizieren, ist ein relativ neues und sehr aktives Forschungsgebiet. Der Zugriff auf riesige Datenmengen aufgrund der Allgegenwart des Internets hat es Forschern in verschiedenen Bereichen – wie der Verarbeitung natürlicher Sprache, maschinellem Lernen und Data Mining , Text Mining , Management und Marketing und sogar Psychologie – ermöglicht, Forschungen durchzuführen, um herauszufinden, Meinungen und Gefühle der Menschen aus den öffentlich zugänglichen Datenquellen. Sentimentanalyse und Opinion Mining werden typischerweise auf verschiedenen Abstraktionsebenen durchgeführt: Dokument, Satz und Aspekt. In letzter Zeit untersuchen Forscher auch die Sentimentanalyse auf Konzeptebene, eine Form der Sentimentanalyse auf Aspektebene, bei der Aspekte aus mehreren Begriffen bestehen können. In jüngster Zeit hat auch die Forschung begonnen, sich mit Sentiment-Analyse und Meinungsforschung zu befassen, indem sie Themenmodellierungstechniken verwendet, modifiziert und erweitert. Themenmodelle sind probabilistische Techniken zum Entdecken der Hauptthemen, die in einer Sammlung unstrukturierter Dokumente vorhanden sind. In diesem Buchkapitel möchten wir uns mit neueren Ansätzen der Sentimentanalyse befassen und diese im Kontext einer breiteren Anwendung erläutern. Wir beginnen das Kapitel mit einer kurzen kontextuellen Einführung in das Problem der Sentiment Analysis und des Opinion Mining und erweitern unsere Einführung um einige ihrer Anwendungen in verschiedenen Domänen. Die wichtigsten Herausforderungen bei der Sentiment-Analyse und dem Opinion Mining werden diskutiert und verschiedene bestehende Ansätze zur Bewältigung dieser Herausforderungen erläutert. Aktuelle Richtungen in Bezug auf die Anwendung von Sentiment Analysis und Opinion Mining werden diskutiert. Wir werden diese Studien gegen Ende dieses Kapitels überprüfen und das Kapitel mit neuen Forschungsmöglichkeiten abschließen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30319-2_1 c99caa8333bf5b74ad4728d2a9d163b9;de;;;7.4.;;;AdaptAhead-Optimierungsalgorithmus zum Erlernen von Deep CNN für die MRT-Segmentierung Deep Learning ist eine der Teilmengen des maschinellen Lernens, die im Bereich der künstlichen Intelligenz (KI) wie der Verarbeitung natürlicher Sprache und des maschinellen Sehens weit verbreitet ist. Das neuronale Netz der tiefen Faltung (DCNN) extrahiert High-Level-Konzepte aus Low-Level-Features und ist für große Datenmengen geeignet. Tatsächlich werden beim Deep Learning die High-Level-Konzepte durch Low-Level-Features definiert. Zuvor war bei Optimierungsalgorithmen die für das Netzwerktraining erreichte Genauigkeit eine geringere und kostenintensive Funktion. In dieser Hinsicht wurde in dieser Studie der AdaptAhead-Optimierungsalgorithmus zum Lernen von DCNN mit robuster Architektur in Bezug auf die großen Datenmengen entwickelt. Der vorgeschlagene Optimierungsalgorithmus wurde in multimodalen MR-Bildern von BRATS 2015- und BRATS 2016-Datensätzen validiert. Der Vergleich des vorgeschlagenen Optimierungsalgorithmus mit anderen häufig verwendeten Methoden stellt die Verbesserung der Leistung des vorgeschlagenen Optimierungsalgorithmus bei dem relativ großen Datensatz dar. Unter Verwendung der Dice-Ähnlichkeitsmetrik berichten wir Genauigkeitsergebnisse für den BRATS 2015- und BRATS 2016-Datensatz zur Segmentierung von Hirntumoren. Die Ergebnisse zeigten, dass unser vorgeschlagener Algorithmus aufgrund seiner tiefen und hierarchischen Extraktion deutlich genauer ist als andere Methoden.;-;-;-;https://link.springer.com/article/10.1007/s10278-018-0107-6 1a207f359d23e431f4bd4a5706f64b85;de;;;7.4.;;;Paradox in KI – KI 2.0: Der Weg zum Maschinenbewusstsein Künstliche Intelligenz, das große Versprechen des letzten Jahrtausends, hat offenbar Einzug in unseren Alltag gehalten. Handys mit Sprachsteuerung, Evolutionary Computing im Data Mining oder Stromnetzen, optimiert über neuronale Netze, zeigen ihre Anwendbarkeit im industriellen Umfeld. Die ursprüngliche Erwartung wahrer Intelligenz und Denkmaschinen liegt noch vor uns. Forscher sind jedoch optimistisch wie nie zuvor. Dieser Beitrag versucht, die Ansichten, Herausforderungen und Ansätze verschiedener Disziplinen zu vergleichen: Ingenieurwissenschaften, Psychologie, Neurowissenschaften, Philosophie. Es gibt eine kurze Einführung in die Psychoanalyse, diskutiert den Begriff Bewusstsein, soziale Implikationen intelligenter Maschinen, verwandte Theorien und Erwartungen und soll als Ausgangspunkt für erste Versuche dienen, diese vielfältigen Gedanken zu kombinieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03978-2_18 5d9bf42f50073363f243196da28f00eb;de;;;7.4.;;;Erkennung von Risikofaktoren als zeitliches Data Mining Das Krankenhausinformationssystem (KIS) sammelt alle Daten aller Abteilungen eines Krankenhauses, einschließlich Labortests, physiologische Tests, elektronische Patientenakten. Somit kann das KIS als große heterogene Datenbank betrachtet werden, die chronologische Veränderungen des Patientenstatus speichert. In diesem Papier haben wir die Trajectory-Mining-Methode auf die aus HIS extrahierten Daten angewendet. Experimentelle Ergebnisse zeigten, dass die Methode Trajektoriengruppen finden konnte, die die zeitliche Kovarianz von Laboruntersuchungen widerspiegeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00399-8_13 79e9f8f8d845fb14acb4cb1eb2ed5cdb;de;;;7.4.;;;Anwendung des maschinellen Lernens im Weltraum-Luft-Boden-integrierten Netzwerkdatenlink Das integrierte Weltraum-Luft-Boden-Netzwerk ist eine aufkommende Netzwerkarchitektur, die über Satellit, Antennennetzwerk und Bodenkommunikation integriert ist und eine nahtlose Verbindung auf globaler Ebene bieten kann. Die begrenzten Energie- und Frequenzressourcen können jedoch den wachsenden Kommunikationsbedarf nicht decken, und ihre hohe Heterogenität und komplexe Variabilität beeinträchtigen die zuverlässige und effiziente Ende-zu-Ende-Übertragung von Diensten. Darüber hinaus ist maschinelles Lernen weit verbreitet. Der Einsatz von Algorithmen des maschinellen Lernens zur Lösung von Problemen im integrierten Raum-Luft-Boden-Netzwerk ist für uns eine neue Forschungsidee. Daher stellt dieses Papier zunächst das Konzept und die Eigenschaften eines integrierten Raum-Luft-Boden-Netzwerks vor, fasst und analysiert die Anwendung von Algorithmen des maschinellen Lernens zur Lösung der Probleme der Ressourcenzuweisung, Angriffserkennung, Zielerkennung und Standort- und Sicherheitsauthentifizierung des Raums –Luft-Boden-integriertes Netz und sieht seinen Aussichten für die Entwicklung des integrierten Weltraum-Luft-Boden-Netzes erwartungsvoll entgegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8411-4_210 1d0f89ab43f1f7268241968d04d8ebed;de;;;7.4.;;;Ein Feature-Selection-Ansatz zur Spam-Erkennung in sozialen Netzwerken mit einem auf Gravitationskraft basierenden heuristischen Algorithmus Technologien decken heute alle Lebensbereiche des Menschen ab und erweitern Kommunikationsplattformen um geeigneten und kostengünstigen Raum. Werbe- und Profitunternehmen nutzen diesen großen Publikumsraum und die kostengünstige Plattform, um ihre gewünschten Informationen und Ziele in Form von Spam zu versenden. Dies führt nicht nur zu Problemen für Benutzer, sondern verursacht auch Zeit- und Bandbreitenverbrauch. Sie werden auch eine Bedrohung für die Produktivität, Zuverlässigkeit und Sicherheit des Netzwerks darstellen. Zur Bekämpfung von Spam wurden verschiedene Ansätze vorgeschlagen. Die dynamischsten und besten Methoden der Spamfilterung sind Machine Learning und Deep Learning, die eine Hochgeschwindigkeitsfilterung und -klassifizierung von Spam durchführen. In diesem Artikel stellen wir eine neue Möglichkeit vor, Spam in verschiedenen sozialen Netzwerken zu entdecken, indem wir eine Support Vector Machine (SVM) basierend auf einer Kombination aus dem Genetischen Algorithmus (GA) und dem Gravitational Emulation Local Search Algorithm (GELS) hochskalieren, um die meisten auszuwählen the effektive Funktionen von Spam. Die Ergebnisse der Experimente zeigen, dass die Genauigkeit der vorgeschlagenen Methode im Vergleich zu anderen Algorithmen optimaler ist und der Algorithmus in der Lage war, mit den verglichenen Algorithmen zu konkurrieren.;-;-;-;https://link.springer.com/article/10.1007/s12652-021-03385-5 0ddd70836cc7607159d3a9c73c93f61f;de;;;7.4.;;;Klassifizierung Data Mining für digitale Heimsensornetzwerke Der Stand der Technik digitaler Heimsensornetzwerke wird analysiert und untersucht. Ein Klassifikations-Mining-Modell für ein digitales Heimsensornetzwerk wird vorgeschlagen. Die vom Sensornetzwerk gesammelten Daten werden vorverarbeitet und unter Verwendung des FP-Tree-Algorithmus klassifiziert. Auf dieser Grundlage werden die Temperatur-, Feuchtigkeits- und Geräuschdaten in Bezug auf ein bestimmtes Gerät ermittelt. Ein verbesserter Apriori-Algorithmus wird angewendet, um sie mit Klassifizierung zu minen und die häufigen Gegenstandsmengen, die häufigen Muster und die Klassifizierungsregeln zu erhalten. Die Ergebnisse können den sicheren Betrieb und die energieeffiziente Steuerung von Haushaltsgeräten unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25781-0_38 1331c63b99b44f3f6b8ea999d64490cf;de;;;7.4.;;;Maschinelles Lernen für die Modellierung der Fahrbahnleistung in warmen Klimaregionen Eine genaue Modellierung der Fahrbahnleistung ist eine wesentliche Voraussetzung für eine kosteneffektive Fahrbahngestaltung und verbessert die Entscheidungsfindung beim Fahrbahnmanagement. Aufgrund der Komplexität der Fahrbahnstruktur und der Fahrbahnreaktion können die vorherrschenden Versagensmechanismen je nach Klimaregion variieren: kalt oder warm. Diese Studie untersuchte die Bedeutung von Fahrbahngestaltungsfaktoren für die Fahrbahnleistung in warmen Regionen und verglich sie mit einer Reihe von Faktoren, die zuvor für kalte Regionen identifiziert wurden. Ein künstliches neuronales Netz (KNN), das von einem vorwärtssequentiellen Merkmalsauswahlalgorithmus unterstützt wird, wurde verwendet, um die wichtigsten Entwurfsfaktoren, die in warmen Klimaregionen vorherrschen, anhand von Daten zu identifizieren, die aus der Datenbank für die langfristige Fahrbahnleistung extrahiert wurden. Darüber hinaus wurden fünf maschinelle Lerntechniken verwendet, um die Fahrbahnleistung in warmen Regionen zu modellieren, nämlich: Regressionsbaum, Support Vector Machine, Ensembles, Gaußsche Prozessregression und KNN. Darüber hinaus wurde konventionelle Regressionsmodellierung zur Vergleichsbewertung verwendet. Die Analyse ergab sieben Designfaktoren, die die Leistung der Asphaltdecke in warmen Regionen erheblich beeinflussen: anfängliche Rauheit, relative Luftfeuchtigkeit, durchschnittliche Windgeschwindigkeit, durchschnittliche Albedo, durchschnittliche Emissivität, Verkehrsaufkommen und Tragfähigkeit der Fahrbahn. Die Ergebnisse zeigen, dass die Fahrbahnleistung in warmen Klimaregionen von anderen Umweltfaktoren dominiert wird als in kalten Klimaregionen. Die ANN-Modellierungstechnik lieferte die genauesten Leistungsmodelle für Asphaltdecken.;-;-;-;https://link.springer.com/article/10.1007/s13369-020-04398-6 d8cf411b31004f1cf953e275ceb72233;de;;;7.4.;;;Informationsqualität: Der Beitrag von Fuzzy-Methoden Daten- und Informationsqualität wurden als Schlüsselthemen in der Datenwissenschaft herausgestellt. Wir beschreiben die Rolle der Vertrauenswürdigkeit der Quelle, die intrinsische Qualität der Daten einschließlich Genauigkeit und Vollständigkeit, die Qualitäten des Informationsgehalts wie Relevanz, Vertrauen und Verständlichkeit sowie den erklärbaren Charakter des Data-Mining-Tools zur Extraktion von Informationen aus Daten. Wir konzentrieren uns auf Fuzzy-Set-basierte Beiträge zu diesen Aspekten der Informationsqualität.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-48853-6_4 5b6bc60fbed1d4c146ad95cc8a6ef996;de;;;7.4.;;;Kohärenz im Zytoskelett: Implikationen für die biologische Informationsverarbeitung Fröhlichs Modell kohärenter Anregungen in biologischen Systemen kann Mechanismen für Fernordnung und Kooperativität liefern, Faktoren, die für die biomolekulare Kommunikation und Informationsverarbeitung nützlich sind. Die Kohärenz von Fröhlich basiert auf oszillierenden Dipolen in einem Spannungsfeld und wurde hauptsächlich auf biologische Membranen angewendet (Fröhlich 1970, 1975, 1986). Relativ übersehen, enthält das Innere lebender Zellen parallele Netzwerke dynamischer Proteinfilament-Polymere, die intrazelluläre Aktivitäten organisieren und regulieren und deren Eigenschaften stark auf Kommunikation und Intelligenz hindeuten. Diese Netzwerke werden zusammenfassend als Zytoskelett bezeichnet, da ursprünglich angenommen wurde, dass sie lebenden Zellen lediglich eine strukturelle knochenähnliche Unterstützung bieten. Es ist heute anerkannt, dass das Zytoskelett ein dynamisches Informationsverarbeitungssystem ist, das in der Lage ist, Zellbewegung, Teilung, Wachstum und Verhalten zu organisieren. Somit kann das Zytoskelett als das Nervensystem in allen Zellen beschrieben werden, von einzelligen Organismen wie Amöben und Paramecium bis hin zu Nervenzellen (Neuronen) im menschlichen Gehirn. In Neuronen ist das Zytoskelett für die Bildung und Neuordnung der neuronalen Form und synaptischen Verbindungen verantwortlich, Faktoren, die an vielen Bereichen kognitiver Funktionen beteiligt sind, einschließlich neuronaler Vernetzung, Lernen, Gedächtnis und Bewusstsein. Bestandteile des Zytoskeletts (Mikrotubuli, Aktin- und Zwischenfilamente, Mikrotrabekelgitter) sind orientierte Anordnungen von „polaren“ Untereinheiten und wurden dementsprechend als Elektrete bezeichnet. Die Eigenschaften polarer Elektrete wurden als ausreichend angesehen, um kohärente Anregungen vom Fröhlich-Typ im Zytoskelett zu unterstützen (Del Giudice et al. 1983c).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-73309-3_14 b19e54e3e2a7688960f6d38c34529ee2;de;;;7.4.;;;Wortforschung zur Sentimentanalyse ausländischer Nachrichten zu China basierend auf dem Hybridmodell von Meinungssatz und BLSTM-Aufmerksamkeit Dieses Papier schlägt ein Sentimentanalysemodell vor, das auf einer Mischung aus Meinungssätzen und dem BiLSTM-Aufmerksamkeitsmechanismus basiert und verwendet wird, um das Problem der zunehmenden ausländischen Nachrichtenberichte über China in den letzten Jahren zu lösen, die dringend Computer benötigen, um die Stimmungspolarität Chinas zu beurteilen bei Berichten. Zunächst wird eine Textanalyse des Artikels durchgeführt, um emotionale Sätze mit emotionalem Ausdruck zu extrahieren. Kombiniert mit der Deep-Learning-Methode zur Identifikation und Beurteilung. Schließlich verwenden Sie die ausländischen Medienberichte über China in der eigentlichen Projektdatenbank als experimentelle Daten, verwenden Sie 70 % der manuellen Kennzeichnung und 30 % für die experimentelle Überprüfung. Die experimentellen Ergebnisse zeigen, dass diese Methode im Vergleich zu einigen bestehenden Methoden eine höhere Genauigkeit bei der Beurteilung der Stimmung von Artikeln mit Bezug zu China aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-78615-1_31 569750be8037c19119f95f761892a98a;de;;;7.4.;;;Elemente von Musik basierend auf künstlicher Intelligenz In den letzten Jahren haben sich die Computertechnologie und die Multimediatechnologie rasant entwickelt, und die Informationstechnologie, der Vertreter, ist in viele Studiengänge weit eingedrungen. Für den gegenwärtigen Stand der Forschung und der praktischen Musik verursacht die Audioverarbeitungserfordernisse und die Besonderheiten von Musik daher einige Probleme bei der Anwendung von Computertechnologie bei der Musikerzeugung derzeit, wie z ., argumentiert dieser Beitrag, ist die Musikelementanalysetechnologie der Schlüssel zu diesem Forschungsgebiet und schlägt auf dieser Grundlage einen neuen Rahmen für die Musikverarbeitung vor - Musikberechnungssystem, dessen Kernziel darin besteht, verschiedene Elemente von Musikinformationen intelligent zu untersuchen und automatisch zu identifizieren und Analysieren der Informationen, die beim Konstruieren des Musikinhalts verwendet werden, und das intelligente Abrufverfahren übersetzt. Um die oben genannten zentralen Forschungsziele zu erreichen, werden die Befürworter des Papiers eng integrierte Musiktheorie und Berechnungsmethoden, die Förderung der integrierten Nutzung von Musiktheorie, kognitive Psychologie, Musik, Kognitionswissenschaft, Neurowissenschaften, künstliche Intelligenz, Signalverarbeitungstheorie zur Lösung der Musik sein Signalanalyse identifiziert das Problem.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-60744-3_15 52a06e7e61255163ae4ac2728d16f164;de;;;7.4.;;;Subraum-Regularisierung: Eine neue semi-überwachte Lernmethode Die meisten existierenden halbüberwachten Lernverfahren basieren auf der Glätteannahme, dass Datenpunkte im gleichen Bereich hoher Dichte das gleiche Label haben sollten. Diese Annahme funktioniert zwar in vielen Fällen gut, weist jedoch einige Einschränkungen auf. Um dieses Problem zu überwinden, führen wir in das semi-überwachte Lernen die klassische Annahme der niederdimensionalen Einbettung ein, die besagt, dass die meisten geometrischen Informationen hochdimensionaler Daten in eine niedrigdimensionale Mannigfaltigkeit eingebettet sind. Darauf aufbauend formulieren wir das Problem des semi-überwachten Lernens als Aufgabe, einen Unterraum und eine Entscheidungsfunktion auf dem Unterraum so zu finden, dass die projizierten Daten gut getrennt sind und die ursprünglichen geometrischen Informationen so gut wie möglich erhalten bleiben. Unter diesem Rahmen werden der optimale Unterraum und die optimale Entscheidungsfunktion iterativ über ein Projektionsverfolgungsverfahren gefunden. Die geringe Rechenkomplexität der vorgeschlagenen Methode ermöglicht Anwendungen in großen Datensätzen. Der experimentelle Vergleich mit einigen früheren semi-überwachten Lernmethoden zeigt die Wirksamkeit unserer Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04174-7_38 8db5cdf78ccdbe739c0d8b07c8e6c343;de;;;7.4.;;;Erkennen von Remote-Exploits mithilfe von Data Mining Dieses Dokument beschreibt das Design und die Implementierung von DExtor, einem Datamining-basierten Exploit-Code-Detektor, der Netzwerkdienste schützt. DExtor geht davon aus, dass der normale Verkehr zu Netzwerkdiensten nur Daten enthält, während Exploits Code enthalten. Das System wird zuerst mit echten Daten trainiert, die Exploit-Code und normalen Verkehr enthalten. Nach dem Training wird DExtor zwischen einem Webdienst und seinem Gateway oder seiner Firewall bereitgestellt, wo es auf der Anwendungsebene arbeitet, um Exploit-Code in Echtzeit zu erkennen und zu blockieren. Tests mit großen Mengen an normalem und Angriffsverkehr zeigen, dass DExtor fast den gesamten Exploit-Code mit vernachlässigbaren Fehlalarmraten erkennen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-84927-0_15 bd6beb998455789f0809c95e629d3bad;de;;;7.4.;;;Adaptive Systeme: eine Inhaltsanalyse auf technischer Seite für E-Learning-Umgebungen Adaptive Systeme beziehen sich auf autonome interaktive Systeme, die ihr Verhalten und ihre Funktionalität an Umweltveränderungen anpassen. Im E-Learning-Kontext passen adaptive E-Learning-Systeme (AES) ihre Dienste an die Interessen, Kenntnisse und Ziele der Nutzer an. Um den Forschungstrend im Bereich der Anpassung in E-Learning-Systemen zu untersuchen, wird ein umfassender Überblick über Forschungsarbeiten in diesem Zusammenhang präsentiert. Dabei werden 190 Forschungsarbeiten, die zwischen 2000 und 2012 veröffentlicht wurden, aus 45 Zeitschriften begutachtet und analysiert. Die grundlegenden Beiträge der Arbeit sind vielfältig. Erstens bietet es Klassifikationen von Forschungsarbeiten aus zwei verschiedenen Blickwinkeln: die in Forschungsarbeiten verwendeten adaptiven Technologien, um Anpassungsdienste für AES bereitzustellen, und die Anwendungsfelder von Forschungsarbeiten in AESs als Forschungsziele. Zweitens präsentiert es statistische Analysen zu adaptiven Technologien und Anwendungsfeldern. Die Analysen erfolgen nach Erscheinungsjahr der Beiträge, Publikationsjahr versus adaptive Technologien, Publikationsjahr versus Anwendungsfelder und adaptive Technologien versus Anwendungsfelder. Drittens werden die offenen Probleme, der aktuelle Stand und die zukünftige Ausrichtung der Forschung zu AES diskutiert. Schließlich schlägt das Papier vor, welche adaptive Technologie die beste Wahl für laufende Forschungen in jedem Anwendungsbereich sein könnte.;-;-;-;https://link.springer.com/article/10.1007/s10462-015-9430-1 0d52d670b10f3528f64f2cd28fa83796;de;;;7.4.;;;Verständnis neuronaler Netzentscheidungen durch Erstellen äquivalenter symbolischer KI-Modelle In den vergangenen Jahren wurden verschiedene Formen neuronaler Netze zur Lösung verschiedenster Probleme eingesetzt. Dabei handelte es sich typischerweise um Probleme, die klassische Ansätze der künstlichen Intelligenz und Automatisierung nicht effizient lösen konnten, wie etwa Handschrifterkennung, Spracherkennung oder maschinelle Übersetzung natürlicher Sprachen. Dennoch ist es für uns sehr schwer zu verstehen, wie genau all diese verschiedenen Arten von neuronalen Netzen in bestimmten Situationen ihre Entscheidungen treffen. Wir können sie nicht verifizieren, da wir z. Die Verlässlichkeit von Modellen der künstlichen Intelligenz tatsächlich nachweisen zu können, wird immer wichtiger, insbesondere wenn cyber-physische Systeme und der Mensch Gegenstand der Entscheidungen der KI sind. Ziel dieser Arbeit ist es, einen Ansatz zur Analyse von Entscheidungsprozessen in neuronalen Netzen an einem bestimmten Trainingspunkt vorzustellen. Daher identifizieren wir Eigenschaften, die künstliche neuronale Netze mit klassischen symbolischen KI-Modellen gemeinsam haben und in denen sich beide unterscheiden. Außerdem beschreiben wir unsere ersten Ideen, wie man die Aspekte überwinden kann, in denen sich beide Systeme unterscheiden, und wie man einen Weg findet, aus einem künstlichen neuronalen Netz etwas zu schaffen, das entweder ein äquivalentes symbolisches Modell ist oder einem solchen symbolischen Modell zumindest ähnlich genug ist seinen Bau zu ermöglichen. Unser langfristiges Ziel ist es, nach Möglichkeit eine geeignete bidirektionale Transformation zwischen beiden KI-Ansätzen zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-01054-6_45 8efd7c6b3dc3a0cb9c25a7f72d3e3bb8;de;;;7.4.;;;Modellieren von Videodynamiken mit Deep Dynencoder Videos weisen immer verschiedene Musterbewegungen auf, die je nach Dynamik zwischen benachbarten Frames modelliert werden können. Frühere Verfahren, die auf einem linearen dynamischen System basieren, können dynamische Texturen modellieren, haben jedoch eine begrenzte Fähigkeit, anspruchsvolle nichtlineare Dynamiken darzustellen. Inspiriert von der nichtlinearen Ausdruckskraft tiefer Autoencoder schlagen wir ein neuartiges Modell namens Dynencoder vor, das unten einen Autoencoder und oben eine Variante davon (als Dynpredictor bezeichnet) hat. Es generiert versteckte Zustände aus rohen Pixeleingaben über den Autoencoder und kodiert dann die Dynamik des Zustandsübergangs über die Zeit über den Dynpredictor. Deep Dynencoder können durch eine geeignete Stapelstrategie konstruiert und durch schichtweises Vortraining und gemeinsame Feinabstimmung trainiert werden. Experimente bestätigen, dass unser Modell anspruchsvolle Videodynamiken beschreiben und endlose Videotextursequenzen mit hoher visueller Qualität synthetisieren kann. Wir konzipieren auch Klassifikations- und Clustering-Methoden basierend auf unserem Modell und demonstrieren deren Wirksamkeit bei der Klassifikation von Verkehrsszenen und der Bewegungssegmentierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10593-2_15 57a6338a905d34e0dc7f9e10ff9359ce;de;;;7.4.;;;Law Reckoner for Indian Judiciary: Eine Android-Anwendung zum Abrufen von Rechtsinformationen mit Data Mining-Methoden Data Mining ist nicht nur im Bereich der Informatik ein aufstrebender Bereich, sondern trägt auch verstärkt zum Knowledge Mining und Informationsmanagement bei. Diese Analyse konzentriert sich hauptsächlich auf die Organisation des indischen Justizsystems, das es den Anwälten und Jurastudenten ermöglicht, einfacher und schneller auf die Einzelheiten der Verfassung, das Zivil- und Strafverfahrensgesetz zuzugreifen. In dieser Arbeit wird Android als Medium für diese Analyse verwendet, da Smartphones von 9 von 10 Personen in der Rechtsgesellschaft verwendet werden. Der Benutzer dieser Anwendung kann nach Schlüsselwörtern suchen, und alle Abschnitte der Verfassung, die sich auf das Schlüsselwort beziehen, werden zusammen mit der Überprüfung verwandter Verfahren entweder des Zivilverfahrens oder des Strafverfahrens, wie oben erwähnt, angezeigt. Der Hauptvorteil dieser Anwendung besteht darin, dass Anwälte und Jurastudenten weniger Zeit für die Suche mit Android-Telefonen benötigen, als dass sie Bücher und Materialien zu ihrem Fall durchsuchen müssen. In dieser vorgeschlagenen Arbeit werden alle Rechtsdaten mit dem ID3-Klassifikationsalgorithmus klassifiziert, was zu einer effizienten Suche führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07674-4_55 652a05ce093a92d8212b49da6c061bd8;de;;;7.4.;;;Multimedia-Datenabruf mithilfe von Data Mining-Bildpixel-Vergleichstechniken Die Informationsextraktion ist heute einer der herausfordernden Faktoren für viele Forscher. Diese Aufgabe ist für Multimedia-Datensätze aufgrund der Qualität der Datensätze komplizierter und stellt heute einen größeren Herausforderungsfaktor dar. Die Aufnahme der Bilder ist aufgrund der wachsenden Technologie auch für unprofessionelle Benutzer bequem und ermöglicht es, jeden Tag eine große Menge an Bild-, Audio- und Videodatensätzen von verschiedenen Benutzergemeinschaften auf der ganzen Welt hochzuladen. Aus diesem riesigen Inhalt die benötigten Informationen zu extrahieren, sind zu komplexe Aktivitäten. Bildextraktion erfolgt entweder durch eine textbasierte Abfrage oder einen auf Bildattributen basierenden Abruf. Um die Bedarfsinformationen aus diesen komplexen Datensätzen zu extrahieren, benötigen Benutzer zusätzliche Kenntnisse über die Domäne. Dies gibt diesem Feld mehr Aufmerksamkeit. Dieses Forschungspapier konzentriert sich auf die Bildwiederherstellung unter Verwendung der hierarchischen Clustering-Technik. Prozess, der in zwei Schritte unterteilt ist, zunächst müssen Eingabedatensätze mit Hilfe des Bildpixelwerts trainiert werden. Im zweiten Schritt werden die Bildabfragedaten aus den trainierten Datensätzen abgerufen. Die vorgeschlagene Technik funktioniert gut, experimentelle Ergebnisse haben dies auch bestätigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-24643-3_57 6edba5fdbaadd69d598fed850f605479;de;;;7.4.;;;Quantifizierung der versteckten Faktoren, die sich auf die Zielgruppe von auf Facebook veröffentlichten Anzeigen auswirken Die unglaubliche Popularität von Facebook motiviert Unternehmen immer mehr, diese Plattform zu nutzen, um ihre Produkte und Stellenangebote zu bewerben. Dieses Papier stellt unser vorgeschlagenes System vor, das unter Verwendung von maschinellem Lernen und kollaborativen Filtertechniken zusammen mit den Daten der auf Facebook von Kunden des Unternehmens Work4 veröffentlichten Werbeanzeigen entwickelt wurde. Unsere Ergebnisse deuten darauf hin, dass das Profil von Postern, die Anzahl der Personen, die Stellenanzeigen sehen können, der Ruf von Unternehmen, die Stunden, Tage und Monate der Beiträge die Zielgruppe von Stellenanzeigen auf Facebook beeinflussen können. Diese Arbeit wurde bei Work4 durchgeführt, einem Softwareunternehmen, das Facebook-Rekrutierungslösungen anbietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-20910-4_19 c2fca89a39281708e52c6e6f3f625bb3;de;;;7.4.;;;Auf dem Weg zur domänenunabhängigen Klassifikation von Textsegmenten basierend auf einer Reihe von Funktionswörtern Erhöhte Aufmerksamkeit wurde der Frage-Antwort-Technologie (QA) als Suche der nächsten Generation geschenkt, da sie die Benutzerfreundlichkeit der Informationsbeschaffung aus dem Web verbessert. Es wurde jedoch nicht viel Forschung zu „Nicht-Faktoid-QS“ durchgeführt, insbesondere zu;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35101-3_40 0b319ca879e70a7b3dcd3e4b85acaa9d;de;;;7.4.;;;Eine inkrementelle Fuzzy-Entscheidungsbaum-Klassifizierungsmethode für das Mining von Datenströmen Einer der wichtigsten Algorithmen zum Mining von Datenströmen ist VFDT. Es verwendet die Hoeffding-Ungleichung, um eine Wahrscheinlichkeitsgrenze für die Genauigkeit des konstruierten Baums zu erreichen. Gamaet al. haben VFDT in zwei Richtungen erweitert. Ihr System VFDTc kann mit kontinuierlichen Daten umgehen und leistungsfähigere Klassifizierungstechniken bei Baumblättern verwenden. In diesem Papier gehen wir dieses Problem erneut auf und implementierten ein System fVFDT auf VFDT und VFDTc. Wir machen die folgenden vier Beiträge: 1) Wir präsentieren einen Ansatz mit Threaded Binary Search Trees (TBST) zur effizienten Handhabung kontinuierlicher Attribute. Es erstellt einen binären Thread-Suchbaum, und seine Verarbeitungszeit für das Einfügen von Werten beträgt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73499-4_8 8b0b097ae65d02409e6d9c6fc8bbfb7b;de;;;7.4.;;;SpinNet: Spinning Convolutional Network zur Erkennung von Fahrspurbegrenzungen In diesem Papier schlagen wir ein einfaches, aber effektives Framework für die Erkennung von Fahrspurbegrenzungen vor, das SpinNet genannt wird. In Anbetracht der Tatsache, dass Autos oder Fußgänger häufig Fahrbahnbegrenzungen verdecken und die lokalen Merkmale von Fahrbahnbegrenzungen nicht unterscheidbar sind, ist die Analyse und Erfassung globaler Kontextinformationen für die Fahrbahnbegrenzungserkennung daher entscheidend. Zu diesem Zweck entwerfen wir in unserem Netzwerk einen neuartigen Spinning Convolution Layer und einen brandneuen Spur-Parametrierungszweig, um Spurgrenzen aus einer globalen Perspektive zu erkennen. Um Merkmale in schmalen streifenförmigen Feldern zu extrahieren, verwenden wir streifenförmige Windungen mit Kernen, die 1 × . haben;-;-;-;https://link.springer.com/article/10.1007/s41095-019-0160-1 d0c3f860341d5bee99bc8c710065c52b;de;;;7.4.;;;Bridging-Logik und Kernel-Maschinen Wir schlagen einen allgemeinen Rahmen vor, um Klauseln der Logik erster Ordnung (FOL), die als abstrakte und partielle Darstellung der Umgebung betrachtet werden, in Kernel-Maschinen zu integrieren, die innerhalb eines halbüberwachten Schemas lernen. Wir verlassen uns auf ein Multi-Task-Lernschema, bei dem jede Task mit einem unären Prädikat verknüpft ist, das im Merkmalsraum definiert ist, während abstrakte Darstellungen höherer Ebene aus FOL-Klauseln bestehen, die aus diesen Prädikaten bestehen. Wir verwenden den mathematischen Apparat der Kernel-Maschine wieder, um das Problem als primäre Optimierung einer Funktion zu lösen, die sich aus dem Verlust der überwachten Beispiele, dem Regularisierungsterm und einem Penalty-Term zusammensetzt, der sich aus dem Erzwingen reellwertiger Beschränkungen ergibt, die von den Prädikaten abgeleitet werden. Anders als bei klassischen Kernel-Maschinen ist die zu optimierende Gesamtfunktion jedoch je nach Logikklauseln nicht mehr konvex. Ein wichtiger Beitrag besteht darin zu zeigen, dass die Bewältigung der Optimierung durch klassische numerische Schemata wahrscheinlich hoffnungslos ist, ein stufenbasiertes Lernschema, bei dem wir beginnen, die überwachten Beispiele zu lernen, bis Konvergenz erreicht ist, und dann fortfahren, indem wir die Logikklauseln erzwingen eine gangbare Richtung, um das Problem anzugehen. Einige vielversprechende experimentelle Ergebnisse werden zu künstlichen Lernaufgaben und zum automatischen Tagging von Bibtex-Einträgen gegeben, um den Vergleich mit Plain-Kernel-Maschinen hervorzuheben.;-;-;-;https://link.springer.com/article/10.1007/s10994-011-5243-x 5e4478fb093203b7d9f59e8008aaf383;de;;;7.4.;;;Schutz von Informationen in Netzwerken basierend auf Methoden des maschinellen Lernens Der Beitrag betrachtet die Möglichkeit des Einsatzes von Methoden der Künstlichen Intelligenz bei Aufgaben der Informationssicherheit: Methoden zur Generierung induktiver Konzepte zur Analyse des Netzwerkverkehrs sowie Argumentationsmethoden für automatisierte Sicherheitsentscheidungsunterstützungssysteme. Der in der Arbeit vorgeschlagene Ansatz ermöglicht es, die Qualität der vom System entwickelten Empfehlungen quantitativ zu bewerten und damit eine wichtige Aufgabe zu lösen - die Aufgabe, die Art und Weise zu wählen, wie auf verdächtige Aktivitäten im System reagiert werden soll. Außerdem werden Beispiele für den Umgang mit im System auftretenden Gefahrensituationen vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00617-4_25 313486844bb65ce3207715393175f4f1;de;;;7.4.;;;Funktionsauswahl und auf maschinellem Lernen basierende mehrstufige Stresserkennung aus EKG-Signalen Die physiologische Sensoranalyse zielt auf die Überwachung des Gesundheitszustands ab, da die Verfügbarkeit von sensorgestützten tragbaren, tragbaren und implantierbaren Geräten im wachsenden Internet der Dinge (IoT) allgegenwärtig wird. Physiologische Multisensor-Studien wurden bereits durchgeführt, um Stress zu erkennen. In dieser Studie konzentrieren wir uns auf die Überwachung der Elektrokardiographie (EKG), die jetzt mit minimal-invasiven tragbaren Pflastern und Sensoren durchgeführt werden kann, um einen effizienten und robusten Mechanismus zur genauen Stresserkennung, beispielsweise bei Autofahrern, zu entwickeln. Ein einzigartiger Aspekt unserer Forschung ist die personalisierte individuelle Stressanalyse mit drei Stressstufen: niedrig, mittel und hoch. Mit maschinellen Lernalgorithmen allein aus den EKG-Signalen erreicht unser System je nach experimenteller Einstellung eine Genauigkeit von bis zu 100 % und eine Fläche unter der ROC-Kurve von 1 bei der Erkennung von drei Stressklassen unter Verwendung der Merkmalsauswahl aus einer Kombination von Bezugspunkten und Multiskalenentropie als feinkörniger Indikator für das Stresslevel.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-59397-5_22 011127eeb803b7f3e6c1483ab0c3ce5f;de;;;7.4.;;;Kognitive Systeme und Robotik Kognitive Systeme sind in der Lage, komplexe Prozesse zu überwachen und zu analysieren und damit auch in ungeplanten oder ungewohnten Situationen die richtigen Entscheidungen zu treffen. Fraunhofer-Experten nutzen Techniken des maschinellen Lernens, um neue kognitive Funktionen für Roboter und Automatisierungslösungen zu nutzen. Dazu statten sie Systeme mit Technologien aus, die von menschlichen Fähigkeiten inspiriert sind, oder imitieren und optimieren sie. Dieser Bericht beschreibt diese Technologien, zeigt aktuelle Anwendungsbeispiele und skizziert Szenarien für zukünftige Anwendungsgebiete.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-58134-6_14 55daa0ae137d64ec63c0c544f90ed979;de;;;7.4.;;;Verwendung von maschinellem Lernen zum Klassifizieren von Kommentaren von Gutachtern in Entwürfen von Forschungsartikeln, damit sich die Schüler auf die globale Überarbeitung konzentrieren können Gutachterkommentare in Forschungsartikeln wie Zeitschriftenaufsätzen oder Dissertationen helfen den Studierenden während des Überarbeitungsprozesses, die Qualität ihrer Artikel zu verbessern. Unser Ziel ist es, die Kommentare für den Überarbeitungsprozess der Studenten aussagekräftiger zu machen. Revision beinhaltet implizite kognitive Prozesse, und IKT hat das Potenzial, solche Prozesse explizit zu machen. Frühere Forschungen zu den kognitiven Prozessen, die an der Revision beteiligt sind, haben gezeigt, dass sich Anfänger auf die lokale Revision auf Satzebene konzentrieren, während sich Experten auf die globale Revision von Ideen oder die Umstrukturierung von Argumenten konzentrieren. Um eine bessere Schreibqualität zu erzielen, sollten sich die Schüler mehr auf die globale Revision konzentrieren. Die Kommentare des Prüfers können entweder eine aussagekräftigere globale Überarbeitung (;-;-;-;https://link.springer.com/article/10.1007/s10639-018-9705-7 e5e499d5eda7183ad8cc14db39198712;de;;;7.4.;;;Ein fortschrittlicher Ansatz zur Identifizierung antimikrobieller Peptide und ihrer Funktionstypen für den Penaeus durch maschinelle Lernstrategien Antimikrobielle Peptide (AMPs) sind wesentliche Bestandteile des angeborenen Immunsystems und können den Wirt vor verschiedenen pathogenen Bakterien schützen. Die Meeresumwelt gilt als eine der reichsten Quellen für AMPs. Die effektive Verwendung von AMPs und ihren Derivaten kann die Immunität und die Überlebensrate der Zucht von Wasserprodukten erheblich verbessern. Es ist äußerst wünschenswert, Computerwerkzeuge zur schnellen und genauen Identifizierung von AMPs und ihrer funktionellen Typen zu entwickeln, um die Entwicklung neuer und wirksamerer antimikrobieller Mittel zu unterstützen.;-;-;-;https://link.springer.com/article/10.1186/s12859-019-2766-9 d08a2e3c7ede0dea5394dfb592dd2045;de;;;7.4.;;;Vorhersagen von Faktoren, die die Aktivität heterogener Metallkatalysatoren beeinflussen, durch maschinelles Lernen Das ultimative Ziel der heterogenen katalytischen Wissenschaft ist die genaue Vorhersage von Trends in der katalytischen Aktivität basierend auf den elektronischen und geometrischen Strukturen aktiver Metalloberflächen. Solche Vorhersagen würden das rationale Design von Materialien mit spezifischen katalytischen Funktionen ohne umfangreiche Versuch-und-Irrtum-Experimente ermöglichen. Die d-Band-Mittelwerte von Metallen sind bekanntermaßen ein wichtiger Parameter, der die katalytische Aktivität dieser Materialien beeinflusst, und Aktivitätstrends bei metalloberflächenkatalysierten Reaktionen können anhand der linearen Brønsted-Evans-Polanyi-Beziehung und der Hammer-Nørskov D-Band-Modell. Die vorliegende Arbeit zeigt die Möglichkeit des Einsatzes modernster maschineller Lernmethoden zur Vorhersage der d-Band-Zentren von Metallen und Bimetallen bei vernachlässigbarer CPU-Zeit im Vergleich zum gängigeren First-Principles-Ansatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7617-6_3 21ebe91a7405552f5836655ac0da6b99;de;;;7.4.;;;Identifizieren unsicherer Galaxienmorphologien durch unüberwachtes Lernen Mit dem Beginn der massiven kosmologischen Datensammlung durch Medien wie den Sloan Digital Sky Survey (SDSS) wurde die Galaxienklassifizierung größtenteils mit Hilfe von Citizen Science-Gemeinschaften wie dem Galaxy Zoo durchgeführt. Eine Analyse eines der morphologischen Klassifikationsdatensätze des Galaxy Zoo hat jedoch gezeigt, dass eine deutliche Mehrheit aller klassifizierten Galaxien tatsächlich als „unsicher“ gekennzeichnet ist. Dies hat uns dazu veranlasst, Experimente mit Daten durchzuführen, die aus der SDSS-Datenbank erhalten wurden, wobei die Rektaszensions- und Deklinationswerte jeder Galaxie zusammen mit dem Morphologieklassenlabel des Galaxy Zoo und dem k-Means-Clustering-Algorithmus verwendet wurden. Dieses Papier identifiziert die besten Attribute für Clustering mit einem heuristischen Ansatz und wendet dementsprechend eine unüberwachte Lerntechnik an, um die Klassifizierung von Galaxien mit der Bezeichnung „Uncertain“ zu verbessern und die Gesamtgenauigkeit solcher Datenclustering-Prozesse zu erhöhen. Durch diesen heuristischen Ansatz wird beobachtet, dass die Genauigkeit der Klassen-zu-Cluster-Auswertung durch Auswahl der besten Kombination von Attributen über Informationsgewinn weiter um ungefähr 10-15% verbessert wird. Eine Genauigkeit von 82,627% wurde auch erreicht, nachdem verschiedene Experimente an den als „Uncertain“ bezeichneten Galaxien durchgeführt und diese wieder in den ursprünglichen Datensatz eingefügt wurden. Daraus wird geschlossen, dass die überwiegende Mehrheit dieser Galaxien tatsächlich eine spiralförmige Morphologie aufweist, wobei eine kleine Untermenge möglicherweise aus Sternen, elliptischen Galaxien oder Galaxien anderer morphologischer Varianten besteht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38610-7_14 f5790071231066d243590767c6b1f803;de;;;7.4.;;;Digital Business in der Cyber ​​Economy: Die Organisation von Produktion und Vertrieb auf Basis der bahnbrechenden Technologien der Industrie 4.0 : Ziel dieses Kapitels ist die Entwicklung eines konzeptionellen Modells der Organisation von Produktion und Vertrieb auf Basis der bahnbrechenden Technologien der Industrie 4.0 im Bereich der digitalen Wirtschaft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-31566-5_2 a88d36cfb54e8cbab3b17a430222ee5f;de;;;7.4.;;;Ein Algorithmus zur Geschlechts- und Altersvorhersage mit Big-Data-Analyse basierend auf Informationen zu mobilen APPs In der heutigen Gesellschaft kann fast jeder nicht auf ein Handy verzichten. Aufgrund der rasanten Expansion des Smartphone- und App-Marktes in den letzten Jahren wird die derzeitige Durchdringung von Smartphones im Mobiltelefonmarkt von 35 bis 40 % bis zum Jahr 2019 auf 60 % ansteigen. Die Kunden verwenden ihre Mobiltelefone, um im Internet zu surfen, zu chatten und spielen Sie beliebte Spiele fast überall und jederzeit. Infolgedessen überträgt das Mobiltelefon fast das gesamte Verhalten und die Vorlieben einer Person. Auf diese Weise können die persönlichen Informationen des Benutzers wie Geschlecht und Alter, demografische Merkmale, die häufig im Präzisionsmarketing verwendet werden, genau vorhergesagt werden. In diesem Artikel wird ein Algorithmus zur Vorhersage von Geschlecht und Alter (GAPA) vorgeschlagen, um das Geschlecht und das Alter des Benutzers mithilfe von etabliertem überwachten maschinellen Lernen vorherzusagen. Die numerischen Ergebnisse zeigen, dass der in diesem Papier vorgeschlagene Algorithmus hocheffizient ist und in der Lage ist, die Verlustfunktion nahe 2–3 zu kontrollieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-7123-3_60 84ebb6effb83c5c10bad2d5c9fb4bd82;de;;;7.4.;;;Erkennung von abnormalem Datenverkehr eines industriellen Edge-Netzwerks basierend auf Deep Nature Learning Angesichts der Netzwerk- und Anwendungssicherheitsrisiken im Bereich des industriellen Internet-Edge-Computing wird eine Methode zur Klassifizierung von abnormalem Verkehr von industriellen Edge-Netzwerken basierend auf dem Convolution Neural Network (CNN) vorgestellt, die unter Verwendung von Feature Self-Learning durch Analyse entwickelt wurde die wesentlichen Flussinhalts- und Protokollhierarchiemerkmale von Edge-Netzwerkpaketen. Die Autoren präsentieren ein auf CNN basierendes Modell zur Erkennung abnormalen Verkehrs für industrielle Edge-Netzwerke, indem sie die vorverarbeiteten rohen Verkehrsdaten als Beispieldaten verwenden, um Funktionen direkt zu lernen. Die experimentellen Ergebnisse zeigen, dass die durchschnittliche Genauigkeit des trainierten und optimierten Modells 98,76 % beträgt, was den praktischen Anwendungsstandard der Verkehrserkennungsaufgabe für industrielle Randnetzwerkanomalien erfüllen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-78612-0_50 143f696fa16b621adb1a28eb55b37d58;de;;;7.4.;;;Ein Überblick über die Entwicklung und zukünftige Trends von Data-Mining-Tools Im internationalen Vergleich hat China zwar erst spät mit der Forschung und Entwicklung von Data-Mining-Tools begonnen, aber in den letzten Jahren allmählich zu europäischen und amerikanischen Ländern aufgeschlossen. Mit der schnellen Entwicklung der Internetindustrie wurden viele wichtige Theorien und Algorithmen des Data Mining von inländischen Universitäten, wissenschaftlichen Forschungsinstituten und anderen Berufsorganisationen aufgestellt, und einige Data Mining-Tools mit perfekten Funktionen und einfacher Bedienung wurden mit fortgeschrittenen Unternehmen entwickelt, wie z Fluggesellschaften, die den Abstand zum fortgeschrittenen Niveau des Auslands erheblich verringert haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5959-4_14 b88cb82504c3810876d8e44efc82a66a;de;;;7.4.;;;Ein halbautomatischer Ansatz zum Erstellen von Klassifikatoren für die Textzusammenfassung Es wird eine Untersuchung der Extraktion nützlicher Informationen aus dem freien Textelement von Fragebögen unter Verwendung einer halbautomatischen Zusammenfassungsextraktionstechnik zur Generierung von Textzusammenfassungsklassifikatoren beschrieben. Eine Realisierung der vorgeschlagenen Technik, SARSET (Semi-Automated Rule Summarisation Extraction Tool), wird vorgestellt und anhand realer Fragebogendaten evaluiert. Die Ergebnisse dieses Ansatzes werden mit den Ergebnissen verglichen, die unter Verwendung von zwei alternativen Techniken zum Erstellen von Textzusammenfassungsklassifizierern erhalten wurden. Die erste davon verwendet standardmäßige regelbasierte Klassifikatorgeneratoren und die zweite basiert auf dem Konzept der Erstellung von Klassifikatoren unter Verwendung von Sekundärdaten. Die Ergebnisse zeigen, dass der vorgeschlagene halbautomatische Ansatz die anderen beiden betrachteten Ansätze übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31537-4_39 e30c8ed20f3aa1b242fab1b6098fbfb9;de;;;7.4.;;;Arabische Multi-Label-Textklassifizierung von Nachrichtenartikeln Die Textklassifizierung ist der Vorgang, bei dem ein Textdokument automatisch mit den relevantesten Labels versehen wird. Diese Arbeit zielt darauf ab, ein Eingabedokument basierend auf seinen Vokabularfunktionen automatisch mehreren Tags zuzuordnen. Um dieses Ziel zu erreichen, wurde ein großer Datensatz aus verschiedenen arabischen Nachrichtenportalen erstellt. Der Datensatz enthält über 290.000 Artikel mit mehreren Tags. Die Datensätze sollen der Forschungsgemeinschaft zur arabischen Computerlinguistik frei zur Verfügung gestellt werden. Um diesen Datensatz zu untersuchen, haben wir sowohl Shallow-Learning- als auch Deep-Learning-Multi-Labeling-Ansätze getestet. Für die Leistungsbewertung und die Hamming-Verlust-Metrik wurde eine benutzerdefinierte Genauigkeitsmetrik entwickelt, die für die Multilabeling-Aufgabe entwickelt wurde. Erstens haben wir Klassifikatoren verwendet, die mit Multi-Labeling-Aufgaben kompatibel sind, wie z. XGBoost lieferte eine höhere Genauigkeit und erzielte 91,3;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-69717-4_41 f2c559227761c10d24a05cd057d657b2;de;;;7.4.;;;Hierarchische Textklassifikation Inkrementelles Lernen Um umfangreiche Textkorpora zu klassifizieren, wird ein inkrementelles Lernverfahren zur hierarchischen Textklassifikation vorgeschlagen. Basierend auf der tiefen Analyse der virtuellen Klassifikationsbaum-basierten hierarchischen Textklassifikation, die die beiden Anwendungsmodelle der Einzeldokumentanpassung nach der Klassifikation und des Lernens neuer Stichproben kombiniert, werden ein dynamischer Online-Lernalgorithmus und ein inkrementeller Lernalgorithmus für Stichproben vorgestellt. Durch die Änderung von Klassifikatoren und die Aktualisierung des Merkmalsraums verbessern die Algorithmen die aktuellen Klassifizierungsmodelle. Experimente zur hierarchischen Textklassifizierung mit Newsgroup-Datensätzen zeigen, dass die Algorithmen die Klassifizierungsgenauigkeit effektiv verbessern und den Speicherplatz und die Lernzeitkosten der historischen Beispieldatensätze reduzieren können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10677-4_28 463e240c9cc17396b032bc1a9ce59619;de;;;7.4.;;;Ensemble-Klassifikator zur Lösung von Credit-Scoring-Problemen Das Ziel dieser Arbeit ist es, eine Ensembleklassifikationsmethode für das Problem der Kreditvergabe vorzuschlagen. Die Idee des vorgeschlagenen Verfahrens basiert auf Techniken zum Wechseln von Klassenkennzeichnungen. Eine Anwendung solcher Techniken ermöglicht es, zwei typische Data-Mining-Probleme zu lösen: ein Dilemma eines unausgeglichenen Datensatzes und ein Problem einer asymmetrischen Kostenmatrix. Die Leistung der vorgeschlagenen Lösung wird anhand des Datensatzes „Deutsche Kredite“ bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28255-3_7 2bc6c7bde071818e67e61e51f988a58f;de;;;7.4.;;;HeteGraph: Graphenlernen in Empfehlungssystemen über Graphfaltungsnetze Mit dem explosionsartigen Wachstum von Online-Informationen wurden viele Empfehlungsmethoden vorgeschlagen. Diese Forschungsrichtung wird durch Deep-Learning-Architekturen unterstützt, insbesondere durch die kürzlich vorgeschlagenen Graph-Convolutional-Networks (GCNs). GCNs haben dank ihrer induktiven Inferenzeigenschaft ein enormes Potenzial beim Lernen von Graphen gezeigt. Die meisten der existierenden GCN-basierten Methoden konzentrieren sich jedoch auf die Lösung von Aufgaben in den homogenen Grapheinstellungen, und keine davon berücksichtigt heterogene Grapheinstellungen. In diesem Papier schließen wir die Lücke, indem wir ein neuartiges Framework namens . entwickeln;-;-;-;https://link.springer.com/article/10.1007/s00521-020-05667-z 6327cc4d9a06f2ccea504ef34f8b91e5;de;;;7.4.;;;Was wiegt für Wortstress? Big Data Mining und Analysen phonotaktischer Verteilungen im brasilianischen Portugiesisch Seit etwa vier Jahrzehnten behaupten phonologische Theorien, dass die Zuweisung der Wortbetonung von der syllabischen phonotaktischen Komplexität des Wortes in Bezug auf die syllabische Position abhängt. Diese Studie analysiert die phonotaktischen Implikationen für Wortbetonung im brasilianischen Portugiesisch. Nach der Erstellung eines phonotaktischen Korpus und der Anwendung der Random-Forest-Modellierung wurde festgestellt, dass phonotaktische Verteilungen für Wortbetonung an Betonungsmuster und Wortlänge in Silbenanzahl gebunden waren. Um diesen Beobachtungen Rechnung zu tragen, müssen Modelle der Wortbenennung um Aspekte der Wortbetonung erweitert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99722-3_40 356e3a32b7729bfd648e8f238e9e724c;de;;;7.4.;;;Äquivalenzlernen in der Proteinklassifikation Wir präsentieren eine Methode namens Äquivalenzlernen, die einen Zweiklassen-Klassifikationsansatz auf Objektpaare anwendet, die in einem Mehrklassen-Szenario definiert sind. Die zugrundeliegende Idee ist, dass wir, anstatt Objekte in ihre jeweiligen Klassen zu klassifizieren, Objektpaare entweder als äquivalent (zu derselben Klasse gehörend) oder nicht äquivalent (zu verschiedenen Klassen gehörend) klassifizieren. Die Methode basiert auf einer Vektorisierung der Ähnlichkeit zwischen den Objekten und der Anwendung eines maschinellen Lernalgorithmus (SVM, ANN, LogReg, Random Forests), um die Unterschiede zwischen äquivalenten und nicht-äquivalenten Objektpaaren zu lernen und eine einzigartige Kernelfunktion zu definieren die durch Äquivalenzlernen erreicht werden können. Anhand eines kleinen Datensatzes archaeischer, bakterieller und eukaryontischer 3-Phosphoglycerat-Kinase-Sequenzen fanden wir heraus, dass die Klassifikationsleistung des Äquivalenzlernens die einiger einfacher maschineller Lernalgorithmen um den Preis eines minimalen Zeit- und Platzbedarfs leicht übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73499-4_62 2a556236fbf5dd87e72d0a4a490e8f32;de;;;7.4.;;;Effektive Ansätze zur Klassifizierung und Bewertung von Nutzerbewertungen Organisationen bieten den Nutzern eine Plattform, um ihre Meinung zu dem Produkt in Form von Bewertungen zu äußern. Spam-Bewertungen sind irrelevante Bewertungen, die die Verbraucher in die Irre führen. In diesem Artikel diskutieren wir semantische und maschinelle Lernansätze, um Bewertungen von Trendprodukten zu klassifizieren und den Bewertungen eine Bewertung zu geben. Wir haben semantische und maschinelle Lernalgorithmen für fünf verschiedene Produktdatensätze verwendet. Wir haben zu Schulungs- und Testzwecken Datensätze gesammelt, die sowohl Spam- als auch Nicht-Spam-Bewertungen umfassen. Wir haben eine durchschnittliche Genauigkeit von 82,2 % für die Klassifizierung und 84,4 % für die Bewertungsbewertung unter Berücksichtigung aller fünf Produkte mit semantischem Ansatz erhalten. Ebenso haben wir mit maschinellem Lernen für die Klassifizierung eine Genauigkeit von 82,2 % erhalten. Für die Bewertung der Rezension haben wir mithilfe von maschinellem Lernen eine Genauigkeit von 89,4 % erhalten. Wir haben festgestellt, dass sowohl semantische als auch maschinelle Lernansätze bei der Klassifizierung von Bewertungen gut funktionieren. Bei der Bewertung von Bewertungen haben wir jedoch festgestellt, dass der maschinelle Lernansatz geringfügig besser abschneidet als der semantische Ansatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-5146-3_1 6f42b83172c9e28a3565079985306313;de;;;7.4.;;;Ein Überblick über Mining-Datenströme Die anspruchsvollsten Anwendungen der Wissensentdeckung umfassen dynamische Umgebungen, in denen Daten kontinuierlich mit hoher Geschwindigkeit fließen und instationäre Eigenschaften aufweisen. In diesem Kapitel diskutieren wir die wichtigsten Herausforderungen und Probleme beim Lernen aus Datenströmen. In dieser Arbeit diskutieren wir die wichtigsten Themen der Wissensermittlung aus Datenströmen: inkrementelles Lernen, Kosten-Leistungs-Management, Änderungserkennung und Neuheitserkennung. Wir präsentieren anschauliche Algorithmen für diese Lernaufgaben und eine Praxisanwendung, die die Vorteile der Stream-Verarbeitung veranschaulicht. Das Kapitel endet mit einigen offenen Fragen, die sich aus diesem neuen Forschungsgebiet ergeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01091-0_2 fe89e6d93e8dec2efe12d2db0e16cf10;de;;;7.4.;;;Kaskadierende maßgeschneiderte naive Bayes-Paare Naïve Bayes (NB) ist in vielen Fällen ein effizienter und effektiver Klassifikator. NB kann jedoch unter einer schlechten Leistung leiden, wenn seine bedingte Unabhängigkeitsannahme verletzt wird. Während sich die jüngste Forschung auf die Verbesserung der NB durch die Abschwächung der Annahme der bedingten Unabhängigkeit konzentriert, schlagen wir eine neue Meta-Lerntechnik vor, um die NB zu vergrößern, indem eine gegenüber dem traditionellen Kaskadenlernen (CL) veränderte Strategie angenommen wird. Die neue Meta-Lerntechnik ist effektiver als die traditionelle CL und andere Meta-Lerntechniken wie Bagging- und Boosting-Techniken, während die Effizienz des naiven Bayes-Lernens erhalten bleibt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13059-5_16 dd749fcd343eefd9a8911525ce2a4d03;de;;;7.4.;;;Entwicklung eines verbesserten Data-Mining-Systems zur Annäherung an empirische Formeln für das Schiffsdesign Unternehmen müssen über Tools verfügen, um ihre riesigen technischen Daten effektiv zu verwalten. So haben wir ein auf GP basierendes Data-Mining-System entwickelt, das eine der Komponenten zur Realisierung der Nutzung von Engineering-Daten sein kann. Das System kann notwendige empirische Formeln ableiten und extrahieren, um Entwurfsparameter im Schiffsentwurf vorherzusagen. Aber wir haben nicht genug Daten, um den Lernprozess der genetischen Programmierung durchzuführen. Wenn die Lerndaten nicht ausreichen, können keine guten Ergebnisse wie etwa Überanpassung erhalten werden. Daher müssen wir die Anzahl der Eingabeparameter reduzieren oder die Anzahl der Lern- und Trainingsdaten erhöhen. In diesem Beitrag haben wir das verbesserte Data-Mining-System von Genetic Programming in Kombination mit Self Organizing Map (SOM) entwickelt, um diese Probleme zu lösen. Durch die Verwendung dieses Systems können wir die Inputparameter finden und reduzieren, die den Output nicht weniger beeinflussen, als Ergebnis dieser Studie können wir diese Probleme lösen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76719-0_42 0408abfe323fe2e9e0aa32bcbf1b7c77;de;;;7.4.;;;Multivariate Banditen und ihre Anwendungen Wir werden das Problem des mehrarmigen Banditen und seine Anwendung zur Optimierung des Durchklickens für Website-Banner untersuchen. Wir werden multivariate Erweiterungen der grundlegenden Banditentechnologie vorstellen, einschließlich der Verwendung von Gaußschen Prozessen, um Beziehungen zwischen verschiedenen Armen zu modellieren. Dies führt zur Betrachtung von unendlich vielen Armen sowie Anwendungen zum Grammatiklernen und zur Optimierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16327-2_3 b4d21e2d63ab07d19516ab7a76f7a3e5;de;;;7.4.;;;Multimodales und multigranulares Lernen Bei großen Datenmengen wird maschinelles Lernen ineffizient. Um seine Leistungen zu verbessern, sollten neue Methoden eingeführt werden. Am Beispiel des Video-Retrievals diskutieren wir seine beiden Grundprobleme: Darstellungs- und Klassifikationsprobleme.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71701-0_4 4e4fbbaca236e8eba2f3418e062aba31;de;;;7.4.;;;Effektive Feature-Vorverarbeitung für die Zeitreihenprognose Zeitreihenprognosen sind ein wichtiger Bereich in der Data-Mining-Forschung. Techniken zur Merkmalsvorverarbeitung haben einen erheblichen Einfluss auf die Vorhersagegenauigkeit und sind daher in einem Vorhersagemodell unerlässlich. Obwohl bei der Zeitreihenvorhersage mehrere Techniken der Merkmalsvorverarbeitung angewendet wurden, gibt es bisher keine systematische Forschung, um ihre Leistung zu untersuchen und zu vergleichen. Die Auswahl effektiver Techniken der Merkmalsvorverarbeitung in einem Vorhersagemodell bleibt ein Problem. In diesem Papier führen die Autoren eine umfassende Studie über bestehende Techniken der Merkmalsvorverarbeitung durch, um ihre empirische Leistung bei der Zeitreihenprognose zu bewerten. In unserem Experiment wird gezeigt, dass eine effektive Merkmalsvorverarbeitung die Vorhersagegenauigkeit erheblich verbessern kann. Diese Forschung kann eine nützliche Anleitung für Forscher bei der effektiven Auswahl von Verfahren zur Merkmalsvorverarbeitung und deren Integration in Zeitreihen-Vorhersagemodelle sein.;-;-;-;https://link.springer.com/chapter/10.1007/11811305_84 28789f2a8607a8adf9081c6c823e8b39;de;;;7.4.;;;Schätzung der Knochenmineraldichte mithilfe des maschinellen Lernansatzes Osteoporose bedeutet poröser Knochen. Betrachtet man einen gesunden Knochen unter dem Mikroskop, sieht er aus wie eine Wabe. Bei Osteoporose sind die Löcher und Zwischenräume in der Wabe viel größer. Dies bedeutet, dass der Knochen seine Dichte verloren hat. Da die Knochen weniger dicht werden, neigen sie dazu, leicht zu brechen, die Knochen der Wirbelsäule sind einem großen Risiko ausgesetzt. Dieses Papier ist der Teil des Projekts, das ein Ultraschallgerät zur Erkennung der Knochenmineraldichte (BMD) entwirft und entwickelt. Das Gerät ist vollständig kompakt und tragbar und ermöglicht die Auswertung der BMD in Echtzeit durch die Bestimmung eines Parameters, der als Nettozeitverzögerung (NTD) bekannt ist. Computersimulationen werden verwendet, um die Abhängigkeiten von NTD und BMD zu vergleichen. Es zeigt sich, dass die Abhängigkeiten sehr hoch sind. Daraus kann geschlossen werden, dass NTD in hohem Maße proportional zur Knochenmasse ist, und der Ansatz des maschinellen Lernens kann verwendet werden, um die BMD des Patienten abzuschätzen. Angesichts der Schwere der Erkrankung und der Verfügbarkeit von Fachwissen mit Ultraschallsystemen wird vorgeschlagen, ein kostengünstiges auf Ultraschall basierendes Knochendensitometersystem zu entwickeln, um die NTD, also die Dichte des Knochens, zu finden und dann den T-Score in medizinischer Hinsicht mithilfe der linearen Regression zu bestimmen Modell.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4828-4_8 02ce87ebf73db9af330bb09402807465;de;;;7.4.;;;Gehirnprogrammierung als neue Strategie zur Erstellung visueller Routinen für die Objektverfolgung Diese Arbeit beschreibt die Verwendung von Gehirnprogrammierung zur Automatisierung des Video-Tracking-Designprozesses. Die Herausforderung besteht darin, visuelle Programme zu erstellen, die lernen, einen Spielzeugdinosaurier aus einer Datenbank zu erkennen, während sie in einem visuellen Tracking-Szenario getestet werden. Bei der Planung eines Objektverfolgungssystems müssen zwei Teilaufgaben angegangen werden: die Erkennung von sich bewegenden Objekten in jedem Bild und die korrekte Zuordnung der Erkennung zu demselben Objekt im Laufe der Zeit. Visuelle Aufmerksamkeit ist eine Fähigkeit des Gehirns, deren Funktion darin besteht, hervorstechende visuelle Merkmale wahrzunehmen. Das automatische Design von visuellen Aufmerksamkeitsprogrammen durch ein Optimierungsparadigma wird auf die erkennungsbasierte Verfolgung von Objekten in einem Video von einer bewegten Kamera angewendet. Ein System, das auf den Erfassungs- und Integrationsschritten des natürlichen Rückenstroms basiert, wurde entwickelt, um seine Selektivität und sein zielorientiertes Verhalten zu emulieren, das für die Aufgabe der Verfolgung von Objekten nützlich ist. Dies wird als schwieriges Problem angesehen, da viele Schwierigkeiten aufgrund abrupter Objektbewegungen, sich ändernder Erscheinungsmuster sowohl des Objekts als auch der Szene, nicht starren Strukturen, Objekt-zu-Objekt- und Objekt-zu-Szene-Verschlüssen sowie Kamerabewegungen auftreten können Modelle und Parameter. Das Tracking hängt von der Qualität des Erkennungsprozesses ab, und die automatische Gestaltung einer solchen Phase könnte die Tracking-Methoden erheblich verbessern. Experimentelle Ergebnisse bestätigen die Gültigkeit unseres Ansatzes mit drei verschiedenen Arten von Robotersystemen. Darüber hinaus wird ein Vergleich mit dem Verfahren von Regionen mit Convolutional Neural Networks bereitgestellt, um den Nutzen des Ansatzes zu veranschaulichen.;-;-;-;https://link.springer.com/article/10.1007/s11042-018-6634-9 86681d096cbf0a0e2e9e404790c5f77a;de;;;7.4.;;;Ein Überblick über die Optimierung des Gradientenabstiegsalgorithmus im maschinellen Lernen: Anwendung in der Augenheilkunde Das Maximieren oder Minimieren einer Funktion ist in mehreren Bereichen ein Problem. In der Informatik und für Systeme, die auf Machine Learning (ML) basieren, ermöglicht eine Vielzahl von Optimierungsalgorithmen das Erfassen der wichtigsten Lerngrundlagen, insbesondere in Bezug auf die Anzahl der Merkmale, und dies durch Reduzierung der im Speicher zu haltenden Datenmenge zufriedenstellende Ergebnisse liefern. Unter diesen Algorithmen sind die verschiedenen Varianten des Gradientenabstiegsalgorithmus, der in ML weit verbreitet ist. Dieses Papier präsentiert eine vergleichende Studie von Batch-, stochastischen und Mini-Batch-Gradientenabstiegsalgorithmen sowie dem Normalgleichungsalgorithmus der Optimierung. Die in dieser Arbeit implementierte Fallstudie basiert auf dem Keratokonus-Datensatz von Harvard Dataverse. Die erhaltenen Ergebnisse zeigen, dass stochastische und Mini-Batch-Gradientenabstiegsalgorithmen die besten Leistungen als die anderen Algorithmen darstellen, insbesondere für Systeme, die auf ML mit einer großen Anzahl von Variablen basieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-45183-7_27 a7c51951b7d5b685bdbd5eeaefd9b68a;de;;;7.4.;;;Augmented Learning und Datenfilterung: Wissensmanagement und Entdeckung Seit den Veröffentlichungen der Autoren über die Grenzen von Entscheidungsbäumen, Prognosen und Geschäftsökosystemen sind über ein Jahrzehnt die Techniken für die Planung und den Entwurf von Unternehmenssystemen mit Vorhersagemodellen in den Mittelpunkt der Aufmerksamkeit gerückt. Heuristiken zu Predictive Analytics werden mit neuartigen Anwendungen für Entscheidungsbäume entwickelt. Augmented World und prioritätsbasierte Entscheidungsbäume sind neue Anwendungen für maschinelles Lernen und Big Data-Filterung. Zu den adressierten Bereichen gehören der Entwurf von Vorhersagemodellen mit strategischen Entscheidungssystemen mit Anwendungen für Analytik, Unternehmensmodellierung und kognitive Social-Media-Geschäftsschnittstellen. Die weiter untersuchten Bereiche reichen von der Erfüllbarkeit des Planziel-Entscheidungsbaums mit wettbewerbsfähigen Geschäftsmodellen bis hin zu Vorhersageanalysemodellen, die Ziele auf 3-Tier-Blick auf Geschäftssysteme erreichen. Eine Beispielanwendung zur Entscheidungsunterstützung für AI KM mit Anwendungen wird vorgestellt. Augmented Learning Decisions ist die Art und Weise, wie KI den Entscheidungsprozess mit umfassenderen kognitiven Ansichten zu Geschäftsmodellen und Infrastrukturen verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-52903-1_8 4b006a81de022a437becc7963c48465f;de;;;7.4.;;;Eine Umfrage zur Diabetes-Vorhersage mit maschinellem Lernen Diabetes mellitus ist ein Problem, das Menschen auf der ganzen Welt betrifft, heutzutage leiden Menschen von jung bis alt an Diabetes. Wir können die traditionellen Methoden der Diabetes-Vorhersage durch moderne Technologien ersetzen, was Zeit spart. Es gibt viele Forschungen, die von Forschern durchgeführt wurden, um Diabetes vorherzusagen, die meisten von ihnen haben Pima-Indianer-Datensätze verwendet. Wir planen den Einsatz von Machine-Learning-Algorithmen wie Support Vector Machine und Naïve Bayes. Durch die Verwendung dieser Algorithmen zur Vorhersage von Diabetes können wir Zeit sparen und genauere Ergebnisse erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7961-5_97 34fbdddad3eb8af0576787ae0e74685a;de;;;7.4.;;;Polynomial-Fuzzy-Entscheidungsbaumstrukturen zur Klassifizierung medizinischer Daten Die Induktion von Entscheidungsbäumen wurde im maschinellen Lernen als Lösung für Klassifikationsprobleme ausführlich untersucht. Die Art und Weise, wie die linearen Entscheidungsbäume den Suchraum aufteilen, erweist sich als nachvollziehbar und damit für Datenmodellierer ansprechend. Verständlichkeit ist ein wichtiger Aspekt von Modellen, die im Medical Data Mining verwendet werden, da sie die Glaubwürdigkeit und sogar Akzeptanz von Modellen bestimmt. Im praktischen Sinne beeinträchtigen jedoch übermäßig lange Entscheidungsbäume, die durch Replikationsprobleme verstärkt werden, die Verständlichkeit. Dieser Nachteil kann teilweise auf ihre starre Struktur zurückgeführt werden, die nicht in der Lage ist, komplexe nichtlineare oder/und kontinuierliche Daten zu verarbeiten. Um dieses Problem anzugehen, stellen wir einen neuartigen hybriden multivariaten Entscheidungsbaum vor, der aus polynomialen, Fuzzy- und Entscheidungsbaumstrukturen besteht. Die polynomiale Natur dieser multivariaten Bäume ermöglicht ihnen eine gute Leistung in nichtlinearem Gebiet, während die Fuzzy-Mitglieder verwendet werden, um kontinuierliche Variablen zu quetschen. Durch Abwägen von Verständlichkeit und Leistung mit einem multi-objektiven Optimierungsalgorithmus für die genetische Programmierung können wir polynomial-fuzzy-Entscheidungsbäume (PFDT) induzieren, die kleiner, kompakter und leistungsfähiger sind als ihre Gegenstücke zum linearen Entscheidungsbaum (LDT). In diesem Papier diskutieren wir die strukturellen Unterschiede zwischen PFDT und LDT (C4.5) und vergleichen die Größe und Leistung ihrer Modelle anhand medizinischer Daten.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-85729-412-8_12 c7ea628a916727397ccc58840bd0d9d4;de;;;7.4.;;;Verbesserung der Prozessqualität von Open-Source-Software basierend auf Defect Data Mining Projektmanager von Open Source Software (OSS) müssen häufig Projektkennzahlen beobachten, z. B. wie viel Aufwand erforderlich ist, um bestimmte Aufgaben zu erledigen, um die Projekt- und Produktqualität zu bewerten und zu verbessern, z. B. durch die Analyse von Fehlerdaten aus OSS-Projektentwickleraktivitäten. Frühere Arbeiten basierten auf der Analyse von Fehlerdaten von OSS-Projekten unter Verwendung eines Korrelationsanalyseansatzes zur Fehlervorhersage auf einer Kombination von Produkt- und Prozessmetriken. Diese Korrelationsanalyse konzentriert sich jedoch auf die Beziehung zwischen zwei Variablen, ohne die Charakterisierung dieser Beziehung zu untersuchen. Wir schlagen einen Beobachtungsrahmen vor, der die Beziehung von OSS-Defektmetriken mithilfe eines Data-Mining-Ansatzes (Heuristics-Mining-Algorithmus) untersucht. Wesentliche Ergebnisse zeigen, dass unser Framework OSS-Projektmanager bei der Beobachtung von Projektkennzahlen unterstützen kann, z.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27213-4_7 faa27ec91330c70fe7a3463a37a8830c;de;;;7.4.;;;Ein Vergleich von Techniken des überwachten Lernens für Clustering Die Bedeutung des Data Mining hat in den letzten Jahren dramatisch zugenommen. Dieses Wachstum war so drastisch, dass viele Branchen und akademische Disziplinen Data Mining in irgendeiner Form anwenden. Data Mining ist ein breites Thema, das mehrere Themen und Probleme umfasst. Dieses Papier konzentriert sich jedoch auf das Klassifikationsproblem beim überwachten Lernen und auf die Suche nach Möglichkeiten zur Optimierung des Klassifikationsprozesses. Vier Klassifizierungstechniken (naive Bayes, Support Vector Machine, Decision Tree und Random Forest) wurden untersucht und auf Datensätze aus dem UCI Machine Learning Repository angewendet. Eine Classification Learning Toolbox (CLT) wurde unter Verwendung der statistischen Programmiersprache R entwickelt, um die Datumssätze zu analysieren und die Beziehungen und Vorhersagegenauigkeit zwischen den vier Klassifikatoren zu melden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-26532-2_52 7102293ab6a45eec609b0e8bc2f32718;de;;;7.4.;;;Irissegmentierung unter schwierigen Bedingungen Die Irissegmentierung ist eine unersetzliche Stufe der Iriserkennungspipeline. Seine Qualität beeinflusst die Gesamtgenauigkeit enorm. Zuvor wurde die Aufgabe bei milden und kontrollierten Bedingungen durch Bildverarbeitungstechniken und regelbasierte Ansätze gelöst. Die heute weit verbreitete biometrische Technologie hat die Betriebsbedingungen für solche Systeme gelockert, die flexiblere und robustere Lösungen erfordern. Die ständig steigende Verfügbarkeit von Daten und Sensoren schuf ein fruchtbares Feld für das Wachstum von Methoden des maschinellen Lernens, die mit komplexen Bedingungen fertig werden können. Die neuesten Beiträge zur Irissegmentierung wurden auf diesem Anstieg durch die Nutzung umfangreicher Daten und moderner Algorithmen für maschinelles Lernen geleistet. Trotz zuvor erzielter großartiger Ergebnisse befasst sich diese Arbeit mit noch schwierigeren Bedingungen, die es ermöglichen, die Iriserkennung in einer Vielzahl von Fällen aus dem wirklichen Leben einzusetzen. In dieser Arbeit werden neue CNN-Architekturen vorgeschlagen. Sie wurden entwickelt, um die neuesten Errungenschaften in den Bereichen Klassifikation und semantische Segmentierung zu kombinieren. FCN- und SegNet-Architekturen wurden als Prototypen aufgegriffen und durch Restblöcke verstärkt. Dies ermöglichte es, leichtgewichtige Netzwerke herzustellen, die auf verschiedenen eingebetteten Plattformen ausgeliefert werden konnten, um unter weniger kontrollierbaren Umgebungsbedingungen erfolgreich zu arbeiten. Der Ansatz ermöglichte es, 0,93 und 0,92 IoU an originalen und modifizierten CASIA-Iris-Lamp-Datensätzen zu erhalten, was eine signifikante Verbesserung im Vergleich zu den zuvor erzielten Ergebnissen darstellt.;-;-;-;https://link.springer.com/article/10.1134/S1054661818040193 42fbb72cd1c2ebb10d7fc754bd607300;de;;;7.4.;;;Intelligentes Suchen durch Hypertextsysteme zum Lernen Einer der attraktivsten Zugangswege zu Multimedia- und sogar rein textuellen Informationen war in den letzten Jahren die Verwendung von Hypertext-Techniken. In diesem Beitrag diskutieren wir eines der Anwendungsgebiete von Hypertextsystemen, nämlich computergestütztes Lernen (CAL). Lernen als kognitiver Prozess wird kurz vorgestellt, ebenso wie aktuelle Ansätze zur Nutzung von Computern für den Unterricht, d. Anschließend diskutieren wir die aktuellen Ansätze zur Verwendung von Hypertext-Techniken in CAL und diskutieren einige ihrer Unzulänglichkeiten. Dies führt uns zu einem Überblick über die Arbeit, die wir leisten, um die Funktionalität von Hypertext-Liefersystemen zu verbessern, indem wir ihnen die Möglichkeit geben, dynamisch zu erstellen;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-3562-3_8 ed2fcda87a72d7be41f2abeed347887d;de;;;7.4.;;;Systeme verstehen Maschinelles Verstehen, der von den Autoren eingeführte Begriff, bezieht sich auf das neue Forschungsgebiet, dessen Ziel es ist, die Möglichkeit des Bauens der Maschine mit der Fähigkeit, die Welt oder die Sprache zu verstehen, zu untersuchen. In Kap.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-14197-8_3 56b5bcff4d550bd0842d8ff3ec6c430b;de;;;7.4.;;;CNN-LSTM Neuronale Netze für die Erkennung anomaler Datenbankangriffe in einem RBAC-verwalteten Modell Die relationale Datenbank dient zum Speichern und Verarbeiten großer Informationsmengen wie Geschäftsunterlagen und personenbezogenen Daten. Es gibt viele Richtlinien und Zugriffskontrolltechniken für die Datenbanksicherheit, aber sie reichen nicht aus, um Insiderangriffe zu erkennen. Um Bedrohungen für die Datenbankanwendung zu erkennen, ist es notwendig, eine rollenbasierte Zugriffssteuerung (RBAC) einzuführen und die Rollen nach der Autorität jedes Benutzers zu klassifizieren. In diesem Papier schlagen wir eine Methode zur Klassifizierung der Rolle und Autorität des Benutzers unter Verwendung der neuronalen Netze von CNN-LSTM vor, indem wir Funktionen aus SQL-Abfragen extrahieren. Bei der Anomalieerkennungsmethode extrahiert CNN automatisch wichtige Merkmale aus der Datenbankabfrage und LSTM modelliert die zeitlichen Informationen der SQL-Sequenz. Die Klassenaktivierungszuordnung identifiziert auch die SQL-Abfragefunktionen, die sich auf die Klassifizierung auswirken. Experimente mit dem TPC-E-Szenario-basierten Benchmark-Abfragedatensatz zeigen, dass die neuronalen CNN-LSTM-Netzwerke andere hochmoderne maschinelle Lernmethoden übertreffen und eine Gesamtgenauigkeit von 93,3 % und einen Wiedererkennungswert von 88,7 % erreichen. Wir identifizieren auch die Merkmale von Fehlklassifizierungsdaten durch statistische Analysen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36808-1_15 9733ead905c641f9b291ee2ae7c3ca23;de;;;7.4.;;;Neue Funktionen der kategorialen Hauptkomponentenanalyse für komplizierte Datensätze, einschließlich Data Mining Dieses Papier konzentriert sich auf eine Technik zur Durchführung einer Hauptkomponentenanalyse mit nichtlinearer Skalierung von Variablen und mit Funktionen zur Korrespondenzanalyse. Besonderes Augenmerk wird auf besondere Eigenschaften gelegt, die die Technik für das Data Mining geeignet machen. Zusätzlich zum Anpassen von Punkten für einzelne Objekte oder Subjekte können zusätzliche Punkte angepasst werden, um Gruppen unter ihnen zu identifizieren. Großer Wert wird auf die grafische Darstellung der Ergebnisse in Biplots (mit Variablen und Objekten) und Triplots (mit Variablen, Objekten und Gruppen) gelegt. Die in den Biplots und Triplots enthaltenen Informationen werden verwendet, um spezielle Diagramme zu zeichnen, die bestimmte Gruppen in den Daten identifizieren, die sich bei ausgewählten Variablen abheben. Ergänzende Variablen und Objekte können verwendet werden, um verschiedene Datensätze in einer einzigen Darstellung zu verknüpfen. Wenn eine feste Konfiguration von Punkten gegeben ist, kann die Technik zur Eigenschaftsanpassung verwendet werden, d. h. zum Anpassen externer Informationen in den Raum. Die Methode kann zur Analyse sehr großer Datensätze verwendet werden, indem angenommen wird, dass die Variablen kategorial sind, wenn jedoch auch kontinuierliche Variablen verfügbar sind, können diese durch verschiedene optimale Verfahren diskret gemacht werden. Geordnete (ordinale) und nicht geordnete (nominale) Daten können durch die Verwendung monotoner oder nicht monotoner (Spline) Transformationen gehandhabt werden. Ab SPSS Categories 10.0 steht ein hochmodernes Computerprogramm (genannt CATPCA) zur Verfügung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55991-4_22 fb47c21ea336872b81f5f0e65e89944d;de;;;7.4.;;;D-Pattern Evolving und Inner Pattern Evolving für High Performance Text Mining Viele Data-Mining-Techniken wurden eingeführt, um verschiedene Informationsaufgaben auszuführen, um nützliche Muster in Textdokumenten zu ermitteln. Die Art und Weise, wie entdeckte Muster effektiv genutzt und aktualisiert werden können, ist jedoch immer noch ein Forschungsthema, insbesondere im Bereich des Text-Mining . Text-Mining-Methoden verwenden einen begriffsbasierten Ansatz und einen Phrasen-basierten Ansatz. Phrasenbasierter Ansatz schneidet besser ab als begriffsbasierter Ansatz, da Phrasen mehr Informationen enthalten. In diesem Papier haben wir die Tendenz, eine neue Methodik vorzuschlagen, um die Nutzung der effektiv entdeckten Muster zu verbessern, indem der Prozess der D-Muster-Entwicklung und der inneren Musterentwicklung einbezogen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-02931-3_57 bb07cb3097b16515c178413ba153f363;de;;;7.4.;;;Schnelle Imputation: Ein algorithmischer Formalismus Der Umgang mit fehlenden Daten war für Forscher eine Herausforderung. Die Grundlagen der Datenwissenschaft stützen sich auf die entscheidende Imputation, die korrekte und definitive Werte im Datensatz nach der Imputation bezeugt. Das Auffüllen fehlender Werte im Datensatz sollte ihn für die Informationsexploration funktionsfähig machen und zum Erlernen von Datenmustern und zum Ausführen komplexer Aufgaben wie prädiktiver Analysen nutzbar gemacht werden. Ziel des Kapitels ist es, fehlende Werte intelligent zu füllen, damit der Datensatz gerecht bleibt und korrekte Ergebnisse für Vorhersagen liefert. In diesem Kapitel werden die Methoden zur Imputation von fehlenden Werten und ihre Verwendung für die Zeitreihenvorhersage und Musteranalyse untersucht und die Defizite in Datensätzen nach der Imputation aufgrund ineffizienter Imputationsverfahren und der falschen Auswahl von Imputationsmethoden veranschaulicht, wenn ein Datensatz seine Zusammensetzung zur Imputationsmethode, wodurch ihre Tiefen- und Breitenstatistik und Homogenität gestört werden. Die aktuelle Arbeit in diesem Kapitel ist eine umfassende Untersuchung der theoretischen Grundlagen der Schlüsseleigenschaften der Datenhomogenität und ihrer statistischen Post-Imputation. Der Hauptbeitrag dieses Kapitels ist der Ausgleichsfaktor für Homogenitäts- und Heterogenitätsstatistiken, die nach der Imputation induzierter werden, unter Einbeziehung einer schnellen und komponierten Imputation. Da Empfehlungssysteme die am besten geeignete Plattform sind, über die die theoretischen Erkenntnisse in diesem Kapitel praktisch durchgeführt werden könnten. Daher wurden bekannte Datensätze, die typischerweise zur Bewertung von Empfehlungssystemen mit großen 1 M-, 2 M- und 10 M-Bewertungen verwendet werden, für Simulationen genutzt. Das Ziel des Kapitels ist es, fehlende Werte intelligent zu füllen, damit der Datensatz gerecht bleibt und korrekte Ergebnisse für Vorhersagen liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-43981-1_7 f09b0ae265d4891b288f2a224306bf5f;de;;;7.4.;;;Kritische Bewertung verschiedener Biomarker und Machine-Learning-basierter Ansätze zur Erkennung von Demenzerkrankungen im Frühstadium Demenz ist der Verlust von kognitiven Funktionen und Verhaltensfähigkeiten bis zu einem gewissen Grad. Dies ist eine bedeutende neurokognitive Störung, bei der es sich um eine Gruppe von Symptomen handelt, die durch andere verschiedene Erkrankungen verursacht werden. Die Alzheimer-Krankheit gilt als die häufigste Form der Demenz. Darüber hinaus fallen vaskuläre Demenz (VD), Lewy-Körper-Demenz (DLB), Frontotemporale Demenz (FTD), Morbus Parkinson Demenz, Normaldruckhydrozephalus (NPH), Creutzfeldt-Jakob-Krankheit und Syphilis unter Demenz. Die Heilung dieser Krankheit muss noch gefunden werden, daher ist es sehr wichtig, die Krankheit im Frühstadium zu erkennen und den Fortschritt zu verzögern. Die Erforschung dieser Krankheit wird also eine offene Herausforderung bleiben. Das Ziel dieses Papiers ist es, Biomarker und ausgewählte Techniken des maschinellen Lernens zu überprüfen, die in die Früherkennung von Demenz unterteilt werden können. In diesem Beitrag werden verschiedene Techniken des maschinellen Lernens wie künstliche neuronale Netze, Entscheidungsbäume und Support-Vektor-Maschinen diskutiert, um einen besseren Ansatz zur Erkennung von Demenz in frühen Stadien zu finden. Dieses Papier besteht insbesondere aus folgenden Abschnitten: (i) Eine kurze Beschreibung der Demenz und jeder Art und die globalen Statistiken, (ii) Eine Übersicht über verschiedene Arten von medizinischen Techniken zur Erkennung EEG und CSF), (iii) Vorverarbeitung von Signalen, (iv) Ein Überblick über maschinelle Lerntechniken.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0637-6_30 ff4510649bfb23063f078c7316134659;de;;;7.4.;;;KIDS: Ein iterativer Algorithmus zur Organisation von relationalem Wissen Das Ziel des konzeptionellen Clusterings besteht darin, einen Satz eingebetteter Klassen aufzubauen, die Objekte basierend auf ihren Ähnlichkeiten gruppieren. Die Wissensorganisation zielt darauf ab, die Menge der spezifischsten Klassen zu generieren: den Generalisierungsraum. Es hat Anwendungen im Bereich Data Mining, Wissensindexierung oder Wissenserwerb. Effiziente Algorithmen wurden für Daten vorgeschlagen, die im Attribut-, Wert-Paar-Formalismus beschrieben werden und um Domänenwissen zu berücksichtigen. Unsere Forschung konzentriert sich auf die Organisation von relationalem Wissen, das durch konzeptionelle Graphen dargestellt wird. Um die kombinatorische Explosion aufgrund der Relationen beim Aufbau des Generalisierungsraums zu vermeiden, führen wir nach und nach die Komplexität der Relationen ein. Der KIDS-Algorithmus basiert auf einer iterativen Datenreformulierung, die es uns ermöglicht, einen effizienten propositionalen Wissensorganisationsalgorithmus zu verwenden. Experimente zeigen, dass der KIDS-Algorithmus eine Organisation relationaler Konzepte aufbaut, jedoch eine Komplexität behält, die linear mit der Anzahl der betrachteten Objekte wächst.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-39967-4_16 9e722acb7487779800f7031275c725a5;de;;;7.4.;;;Echtzeit-Tiefenschätzung mit wiederkehrendem CNN mit Sparse Depth Cues für SLAM-System Die Tiefenkarte wurde zur Verfeinerung von geometrischen Informationen in einer Vielzahl von Bereichen wie 3D-Rekonstruktion und Posenschätzung in SLAM-Systemen verwendet, bei denen schlecht gestellte Probleme aufgetreten sind. Da derzeit lernbasierte Ansätze bei vielen Problemen von sehbasierten Feldern erfolgreich eingeführt werden, werden mehrere auf CNN basierende Tiefenschätzungsalgorithmen vorgeschlagen, die nur das Training räumlicher Informationen durchführen. Da eine Bildsequenz oder ein Video, das für ein SLAM-System verwendet wird, dazu neigt, zeitliche Informationen zu haben, schlägt dieses Papier eine wiederkehrende CNN-Architektur für das SLAM-System vor, um die Tiefenkarte zu schätzen, indem nicht nur räumliche, sondern auch zeitliche Informationen untersucht werden, indem eine Faltungs-GRU-Zelle verwendet wird, die so konstruiert ist, dass Gewichte vergangener Faltungsschichten. Darüber hinaus schlägt dieses Papier die Verwendung zusätzlicher Schichten vor, die die Struktur von Szenen erhalten, indem spärliche Tiefenhinweise verwendet werden, die vom SLAM-System erhalten werden. Die spärlichen Tiefenhinweise werden durch Projizieren einer rekonstruierten 3D-Karte in jeden Kamerarahmen erzeugt, und die spärlichen Hinweise helfen, eine genaue Tiefenkarte vorherzusagen, wodurch eine Mehrdeutigkeit der Tiefenkartenerzeugung von ungeübten Strukturen im latenten Raum vermieden wird. Obwohl die Genauigkeit der Tiefenhinweise gemäß dem monokularen SLAM-System schlechter ist als bei einem Stereo-SLAM-System, behält der vorgeschlagene Maskierungsansatz, der das Vertrauen von Tiefenhinweisen in Bezug auf eine relative Kamerapose zwischen dem aktuellen Frame und dem vorherigen Frame berücksichtigt, die Leistung des vorgeschlagenen Systems mit die vorgeschlagene adaptive Regularisierung der Verlustfunktion. In der Trainingsphase verbessert sich die Tiefenkartenvorhersage des vorgeschlagenen Systems durch die Vorverarbeitung der exponentiellen Quantisierung der Bodenwahrheits-Tiefenkarte, um die negativen Auswirkungen der erfassten großen Entfernungen zu eliminieren, mehr als andere Basislinienverfahren mit der Verwirklichung eines Echtzeitsystems. Wir erwarten, dass dieses vorgeschlagene System in SLAM-Systemen verwendet werden kann, um geometrische Informationen für eine genauere 3D-Rekonstruktion und Posenschätzung zu verfeinern, die wesentliche Bestandteile eines robusten Navigationssystems von Robotern sind.;-;-;-;https://link.springer.com/article/10.1007/s12555-019-0350-8 0e9c07ae5f0021ba13e7ec850c9a4059;de;;;7.4.;;;Lernen aus gestapelten Daten: Modellkombination versus Datenkombination Das Kombinieren von Modellen, die aus mehreren Datenstapeln gelernt wurden, bietet eine Alternative zum üblichen Verfahren, ein Modell aus allen verfügbaren Daten zu lernen (d. h. der Datenkombinationsansatz). Dieses Papier untersucht empirisch das Basislinienverhalten des Modellkombinationsansatzes in diesem Szenario mit mehreren Datenbatches. Wir stellen fest, dass die Modellkombination zu einer besseren Leistung führen kann, selbst wenn die disjunkten Datenstapel zufällig aus einer größeren Stichprobe gezogen werden, und beziehen die relative Leistung der beiden Ansätze auf die Lernkurve des verwendeten Klassifikators. Am Anfang der Kurve hat die Modellkombination eine höhere Verzerrung und Varianz als die Datenkombination und damit eine höhere Fehlerquote. Wenn die Trainingsdaten zunehmen, hat die Modellkombination entweder eine niedrigere Fehlerrate oder eine vergleichbare Leistung wie die Datenkombination, da die erstere eine größere Varianzreduktion erreicht. Wir zeigen auch, dass dieses Ergebnis nicht sensitiv auf die verwendeten Methoden der Modellkombination ist. Ein weiteres interessantes Ergebnis ist, dass wir empirisch zeigen, dass die nahezu asymptotische Leistung eines einzelnen Modells in einigen Klassifikationsaufgaben durch die Kombination mehrerer Modelle (abgeleitet vom gleichen Algorithmus) im Szenario mit mehreren Datenbatches signifikant verbessert werden kann.;-;-;-;https://link.springer.com/article/10.1007/BF03325092 1eabbb429c23a5c3e5173f6f5043b49b;de;;;7.4.;;;Auswahl von Lernalgorithmen mit Vorzeichentests mit hoher Reproduzierbarkeit Eine wichtige Aufgabe beim maschinellen Lernen besteht darin, zu bestimmen, welcher Lernalgorithmus für einen bestimmten Datensatz am besten funktioniert. Wenn die Datenmenge klein ist, müssen dieselben Daten wiederholt verwendet werden, um eine vernünftige Schätzung der Genauigkeit der Lernalgorithmen zu erhalten. Dies führt zu Verletzungen von Annahmen, auf denen Standardtests basieren, und erschwert die Entwicklung eines guten Tests.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24581-0_61 163f06451d2f7e9e20a605e5de769fab;de;;;7.4.;;;Effizientes Lernen von Risikodaten mit LSTM RNN Die Verwendung von Big Risk Data für das Risikomanagement hat sich in den letzten Jahren zu einem Problem in der Finanzdienstleistungsbranche entwickelt. Ob auf die Qualität von Big Risk Data Verlass ist, soll bis 2019 festgestellt werden. Um die Messung und Vorhersage der Datenqualität zu erleichtern, schlagen wir einen effizienten Ansatz vor, um ein Datenelement aus den Big Risk Data herauszulösen und ein Modell zum Trainieren divergenter Long Short-Term Memory („LSTM“) Recurrent Neural Networks („RNNs“) mit verschiedenen Algorithmen. Das Netzwerk wird anhand der Verbesserung der Netzwerklaufzeit, der Vorhersagegenauigkeit und des relevanten Fehlers bewertet. Dies ermöglicht es Finanzinstituten, potenzielle Datenrisiken sofort zu erkennen und frühzeitig zu mindern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1699-3_10 ab27193cdca926730e77644f756555c4;de;;;7.4.;;;Ein Ansatz mit variabler Auflösung für die Clustererkennung beim Spatial Data Mining Spatial Data Mining versucht, aussagekräftige Muster aus Daten zu entdecken, bei denen die geografische Lage eine Hauptdimension von Interesse ist. Die Berücksichtigung einer räumlichen Dimension wird wichtig, wenn sich Daten entweder auf bestimmte Orte beziehen und/oder eine erhebliche räumliche Abhängigkeit aufweisen, die berücksichtigt werden muss, wenn sinnvolle Muster entstehen sollen. Für Punktdaten gibt es zwei Hauptgruppen von Ansätzen. Einer stammt aus traditionellen statistischen Techniken wie;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44842-X_1 e2a7843d87dd8089ff061892d7d5f7ed;de;;;7.4.;;;Explorative univariate Analyse zur Charakterisierung eines Universitätsklinikums: Ein erster Schritt zu einem Data-Mining-basierten Krankenhausmanagement mit einer explorativen univariaten Analyse eines Universitätsklinikums Der schnelle Fortschritt in der Informationstechnologie ermöglicht es uns, alle Informationen eines Krankenhauses in einem Krankenhausinformationssystem zu speichern, einschließlich Managementdaten, Patientenakten, Entlassungsberichte und Labordaten. Obwohl diese Daten bisher nicht wiederverwendet wurden, können die gespeicherten Daten zu einer Analyse des Krankenhausmanagements beitragen. In dieser Arbeit wurden die Entlassungszusammenfassungen des Chiba University Hospitals, die seit den 1980er Jahren aufbewahrt werden, analysiert, um das Universitätsklinikum zu charakterisieren. Dieses Papier konzentriert sich auf die Verwendung explorativer univariater Analyse, um zu zeigen, dass der Hauptgrund für die Aufnahme in dieses Universitätskrankenhaus Neoplasmen ist und die Verteilung auf die Aufenthaltsdauer und die NHI (Nationale Krankenversicherung, Japan) auf die Gesamtzahl der Fälle und Neoplasmen mit logarithmischen Normalverteilungen werden durch deskriptive Statistiken unterstützt.;-;-;-;https://link.springer.com/article/10.1007/s12626-010-0014-x 0954520ee533c67fe83d37d2e724df29;de;;;7.4.;;;Kombination von Mustererkennung und probabilistischer Modellierung beim Data Mining Data Mining hat sich in den letzten Jahren zu einem interessanten Bereich an der Grenze zwischen Algorithmen, probabilistischer Modellierung, Statistik und Datenbanken entwickelt. Die Data-Mining-Forschung hat zwei verschiedene Traditionen. Der globale Ansatz zielt darauf ab, die gemeinsame Verteilung der Daten zu modellieren, während der lokale Ansatz darauf abzielt, häufige Muster aus den Daten effizient zu entdecken. Unter den globalen Modellierungstechniken haben sich Mischungsmodelle als starkes verbindendes Thema herauskristallisiert, und es gibt Methoden, um solche Modelle an große Datensätze anzupassen. Für die Mustererkennung wurden die Methoden zum Auffinden häufig vorkommender positiver Konjunktionen in verschiedenen Domänen angewendet. Ein interessantes offenes Thema ist die Kombination der beiden Ansätze, z. B. durch Ableiten von gemeinsamen Verteilungen aus Musterhäufigkeiten. Einige vielversprechende Ergebnisse wurden mit Methoden der maximalen Entropie erzielt. Im Vortrag beschreiben wir einige grundlegende Techniken globaler und lokaler Ansätze zum Data Mining und stellen eine Auswahl offener Probleme vor.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45471-3_2 17bd8e029c5386eaf7c274e2cf08be92;de;;;7.4.;;;Medizin und Gesundheitswesen als Datenproblem: Werden Computer bessere Ärzte? Moderne Medizin und Gesundheitsversorgung in allen Teilen unserer Welt stehen vor gewaltigen Herausforderungen: explodierende Kosten, endliche Ressourcen, alternde Bevölkerung sowie eine Flut von großen komplexen, hochdimensionalen Datensätzen, die von der modernen biomedizinischen Wissenschaft produziert werden und die die Aufnahmefähigkeit des Menschen übersteigen Köpfe. Folglich stellt sich die Frage, ob und inwieweit die Fortschritte der maschinellen Intelligenz und Rechenleistung genutzt werden können, um die Folgen zu mildern. Nachdem sich die Menschen im Schach und in populären Spielshows durchgesetzt haben, wird postuliert, dass die Biomedizin die nächste Domäne sein wird, in der intelligente Computersysteme ihre menschlichen Gegenstücke übertreffen werden. In dieser Übersicht untersuchen wir diese Hypothese, indem wir Datenformate, Datenzugriffe und heuristische Methoden vergleichen, die sowohl von Menschen als auch von Computersystemen im medizinischen Entscheidungsprozess verwendet werden. Wir kommen zu dem Schluss, dass der medizinische Denkprozess durch aufkommende Smart-Computing-Technologien und sogenannte Computational Intelligence erheblich verbessert werden kann. Da Menschen jedoch Zugang zu einem größeren Spektrum von Daten mit höherer Komplexität haben und wesentliche Komponenten des Schlussfolgerungsprozesses weiterhin effizienter durchführen, wäre es unklug, die gesamte menschliche Praxis der Medizin der digitalen Welt zu opfern, daher ist ein wichtiges Ziel um das Beste aus beiden Welten gemeinsam zu nutzen: Wir brauchen Computational Intelligence, um mit großen komplexen Daten umzugehen, aber wir brauchen dennoch – und mehr denn je – menschliche Intelligenz, um abstrahierte Daten und Informationen zu interpretieren und kreativ Entscheidungen zu treffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16226-3_2 8d0ce0c1b6804f5b63ee3c32239b908d;de;;;7.4.;;;Webdatenbank basierend auf Data Mining Im riesigen Datenmeer ist das Entdecken und Nutzen der wertvollen Informationen zur Schlüsseltechnologie geworden. Das Data Mining ist das mächtige Werkzeug, um dieses Problem zu lösen. In diesem Beitrag wird die gängige Data-Mining-Technologie vorgestellt, die derzeit gängigen vier Web-Datenbank-Technologien analysiert und schließlich das für umfassende Web-Datenbanken geeignete Data-Mining-Modell vorgestellt. Zusammenfassend lässt sich sagen, dass es einen gewissen theoretischen Forschungs- und praktischen Anwendungswert hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-53703-5_9 b5fbb9c7aef80872fba1647c77f1fc3f;de;;;7.4.;;;Eine Untersuchung zum Verband von Fahrbahnoberflächenschäden mittels Data Mining Der Verband der Fahrbahnoberflächenschäden stützte sich früher auf die Urteile der Sachverständigen. Mit der Ansammlung von Daten in der Datenbank für die Instandhaltung der Fahrbahnoberfläche und der Verbesserung des Data Mining stehen jedoch immer mehr Methoden zur Verfügung, um den Zusammenhang von Schäden an der Fahrbahnoberfläche zu untersuchen. Diese Forschung verwendet den Apriori-Algorithmus, um eine Assoziationsanalyse von Schäden an der Fahrbahnoberfläche durchzuführen. Aus Erfahrung von Experten wurde angenommen, dass die Zuordnung von Straßenschäden kompliziert ist. Durch Fallstudien wurde jedoch festgestellt, dass Schäden an der Fahrbahnoberfläche durch Längsrisse, Krokodilrisse und Pferchlöcher verursacht werden, und sie sind unidirektionaler Einfluss. Darüber hinaus wurde mit Hilfe von Verbandsregeln gelernt, dass bei der vorbeugenden Instandhaltung der Fahrbahnoberfläche die Reparatur von Längsrissen und Alligatorrissen oberste Priorität haben sollte, was das Auftreten von Pferchlöchern und das Risiko von staatliche Entschädigungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85930-7_5 8c53e705ff4e924066f840c6c657a21d;de;;;7.4.;;;Paarweise Klassifikation als Ensembletechnik In diesem Artikel untersuchen wir die Leistung der paarweisen (oder Round-Robin-)Klassifizierung, ursprünglich eine Technik zum Umwandeln von Mehrklassenproblemen in Zweiklassenprobleme, als allgemeine Ensembletechnik. Insbesondere zeigen wir, dass die Verwendung von Round-Robin-Ensembles auch die Klassifikationsleistung von Entscheidungsbaumlernern erhöht, obwohl sie Mehrklassenprobleme direkt behandeln können. Der Leistungsgewinn ist nicht so groß wie beim Bagging und Boosting, dafür haben Round-Robin-Ensembles eine klar definierte Semantik. Weiterhin zeigen wir, dass der Vorteil der paarweisen Klassifikation gegenüber der direkten Mehrklassenklassifikation und der Eins-gegen-allen-Binarisierung mit der Anzahl der Klassen zunimmt und dass Round-Robin-Ensembles eine interessante Alternative für Probleme mit geordneten Klassenwerten darstellen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36755-1_9 9f4f8b50388916de7b58cb45b4626e72;de;;;7.4.;;;Kaskadierte Convolutional Neural Networks für aspektbasierte Meinungszusammenfassung In diesem Artikel wird die aspektbasierte Meinungszusammenfassung (AOS) von Bewertungen zu bestimmten Produkten untersucht. In der Praxis muss ein AOS-System zwei zentrale Teilaufgaben lösen, die Aspektextraktion und die Sentimentklassifizierung. Die meisten bestehenden Ansätze zur Aspektextraktion unter Verwendung linguistischer Analyse oder Themenmodellierung sind für verschiedene Produkte allgemein, aber nicht präzise genug oder für bestimmte Produkte geeignet. Stattdessen verwenden wir ein weniger allgemeines, aber präziseres Schema, das jeden Rezensionssatz direkt in vordefinierte Aspekte abbildet. Um Aspect Mapping und Sentiment-Klassifizierung anzugehen, schlagen wir eine auf einem Convolutional Neural Network (CNN) basierende Methode vor, kaskadiertes CNN (C-CNN). C-CNN enthält zwei Ebenen von Faltungsnetzwerken. Mehrere CNNs auf Ebene 1 befassen sich mit der Aspect-Mapping-Aufgabe. Wenn ein Rezensionssatz zu vordefinierten Aspektkategorien gehört, bestimmt ein einzelnes CNN auf Ebene 2 seine Stimmungspolarität. Experimentelle Ergebnisse zeigen, dass C-CNN mit vortrainierter Worteinbettung kaskadierte SVM mit Feature-Engineering übertrifft. Wir bauen auch ein System namens OpiSum mit C-CNN. Die Demo von OpiSum finden Sie unter;-;-;-;https://link.springer.com/article/10.1007/s11063-017-9605-7 a472317a6f9e552ce482cce19775c0d1;de;;;7.4.;;;Berechenbarkeit und Komplexität unkonventioneller Computergeräte Wir diskutieren einige Behauptungen, dass bestimmte UCOMP-Geräte Hypercomputation (Berechnung von Turing-unberechenbaren Funktionen) oder Super-Turing-Berechnung (löse;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-65826-1_11 66a1fa5478f2adca1ceac25240dbc9c0;de;;;7.4.;;;Vergleich von Machine-Learning-Techniken für die Multi-Label-Genreklassifikation Wir vergleichen klassische Textklassifikationstechniken mit neueren maschinellen Lerntechniken und stellen eine neuartige Architektur vor, die viele moderne Ansätze übertrifft. Diese Techniken werden in einer neuen Multi-Label-Klassifizierungsaufgabe evaluiert, bei der es darum geht, das Genre eines Films basierend auf seinem Untertitel vorherzusagen. Wir zeigen, dass vortrainierte Worteinbettungen ‚universelle‘ Merkmale enthalten, indem wir den semantisch-syntaktischen Wortbeziehungstest verwenden. Darüber hinaus untersuchen wir die Effektivität eines Convolutional Neural Network (CNN), das lokale Merkmale extrahieren kann, und eines Long Short Term Memory Network (LSTM), das zeitabhängige Beziehungen findet. Durch die Kombination eines CNN mit einem LSTM beobachten wir eine starke Leistungssteigerung. Die Methode, die am besten funktioniert, ist ein mehrschichtiges Perzeptron mit dem Beutel-von-Wörter-Modell als Eingabe.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-76892-2_10 269588bc743ab4e0af99239494ad8a14;de;;;7.4.;;;Vielfältige Erkundung der Datenerweiterung mit geometrischen Transformationen für mehr Leistung und Robustheit In diesem Artikel schlagen wir eine neuartige Augmentationstechnik vor, die nicht nur die Leistung von tiefen neuronalen Netzen auf sauberen Testdaten verbessert, sondern auch ihre Robustheit gegenüber zufälligen Transformationen, sowohl affin als auch projektiv, signifikant erhöht. Inspiriert von ManiFool wird die Erweiterung durch eine Liniensuch-Mannigfaltigkeits-Exploration-Methode durchgeführt, die affine geometrische Transformationen lernt, die zu einer Fehlklassifizierung eines Bildes führen, während sichergestellt wird, dass es auf derselben Mannigfaltigkeit wie die Trainingsdaten bleibt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20351-1_40 56bd80d1c159529fb229a43a07977f68;de;;;7.4.;;;Ein leichtgewichtiger kombinatorischer Ansatz zur Ableitung der Ground Truth aus mehreren Annotatoren Mit der zunehmenden Bedeutung, großformatige beschriftete Datensätze für Training, Test und Validierung zu erstellen, werden Dienste wie Amazon Mechanical Turk (MTurk) immer beliebter, um die mühsame manuelle Etikettierung von Hand zu ersetzen. Es ist jedoch bekannt, dass Annotatoren in diesen Crowdsourcing-Diensten unterschiedliche Fähigkeiten, Konsistenzen und sogar Voreingenommenheit aufweisen, was es schwierig macht, das Ground-Truth-Class-Label aus den von diesen Annotatoren bereitgestellten unvollkommenen Labels abzuschätzen. Um dieses Problem zu lösen, präsentieren wir einen diskriminativen Ansatz, um die Labels der Ground-Truth-Klassen abzuleiten, indem sowohl Annotatoren als auch Aufgaben in einen niedrigdimensionalen Raum abgebildet werden. Unser vorgeschlagenes Modell ist von Natur aus kombinatorisch und erfordert daher keine Vorkenntnisse über die Annotatoren oder die Beispiele, wodurch es einfacher und effizienter als die Bayes-Methoden nach dem Stand der Technik ist. Wir zeigen auch, dass unser leichtgewichtiger Ansatz, experimentell an realen Datensätzen, genauer ist als entweder Mehrheitsentscheidungen oder gewichtete Mehrheitsentscheidungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39712-7_47 17958c3807619313523855b1c5fd501c;de;;;3.2.;;;Vertikale Kontrollnetzwerke in Indonesien Das neue vertikale Kontrollnetzwerk in Indonesien (VCNI) wird seit 1980 etabliert und entwickelt. Das Netzwerk umfasst einige alte Nivellierungs-Benchmarks auf der Insel Java. Die geografische Lage und die Verfügbarkeit von Infrastrukturen im Land waren die Haupthindernisse bei der Entwicklung von VCNI, um den Prioritäten des nationalen Entwicklungsprogramms im ersten 25-Jahres-Plan zu entsprechen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-04683-8_8 a657bb1c63231db345659acfe91c2970;de;;;7.4.;;;Machine Learning-basierte Stimmungsanalyse zur Analyse der Reisebewertungen ägyptischer Hotels Der Tourismus beeinflusst die Wirtschaft eines jeden Landes, eigentlich ist er das Fundament des Landes auf der wirtschaftlichen Seite. Die ägyptische Regierung macht sich große Sorgen um die Entwicklung des Tourismussektors. Hotelunternehmen verwenden E-Commerce-Technologie für Online-Buchungen und Online-Bewertungen. Reisende wählen Hotels basierend auf ihren Preisen, Einrichtungen und den Bewertungen anderer Reisender aus. Die Stimmungsanalyse ist ein sehr wichtiges Thema, mit dem die Meinung von Online-Nutzern analysiert werden kann. Verschiedene Websites klassifizieren die Reisebewertungen wie Tripadvisor, Expedia. Die Studie zielt darauf ab, einen Bewertungs-Sentiment-Klassifikator vorzuschlagen, der die Bewertungen der Reisenden zu ägyptischen Hotels analysiert und eine Klassifizierung jeder Stimmung basierend auf Hotelmerkmalen bereitstellt. Die Meinung der Reisenden zu fünf Hotels in Assuan in Ägypten mit insgesamt 11458 Bewertungen wurden gesammelt und analysiert. Das Stimmungsmodell verwendet drei Klassifizierungstechniken: Support Vector Machine, Naive Bayes und Decision Tree. Die Ergebnisse hatten gezeigt, dass Naive Bayes die höchste Genauigkeitsstufe aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-44289-7_38 abc5d5f791b3cc0f0197f1f8adef8d74;de;;;7.4.;;;Visuelle Inhaltsdarstellung für kognitive Systeme: Auf dem Weg zu erweiterter Intelligenz Kognitive Bildverarbeitungssysteme haben in den letzten Jahrzehnten in Wissenschaft und Industrie erhebliche Aufmerksamkeit erregt. Einer der Hauptgründe für dieses Interesse ist das Potenzial solcher Technologien, das menschliche Leben zu revolutionieren, da sie beabsichtigen, unter komplexen visuellen Szenen (deren Umgebungsbedingungen variieren können) robust zu arbeiten, sich an ein umfassendes Spektrum unvorhergesehener Veränderungen anzupassen und prospektives Verhalten zu zeigen. Die Kombination dieser Eigenschaften unterstützt die Schaffung intelligenterer und effizienterer Umgebungen durch Nachahmung der menschlichen Fähigkeiten. Nichtsdestotrotz beinhaltet die Erhaltung der Umwelt das Sammeln visueller und anderer sensorischer Informationen und deren Umsetzung in nützliches Wissen, was aufgrund der Komplexität eines solchen Prozesses immer noch eine Herausforderung für kognitive Anwendungen in Echtzeit darstellt. Experten gehen davon aus, dass der Ausgangspunkt darin besteht, eine Wissensrepräsentation für Cognitive Vision-Technologien als einzigartigen Standard zu etablieren, der Bild-/Video-Modularisierung und Virtualisierung zusammen mit Informationen aus anderen Quellen (tragbare Sensoren, Maschinensignale, Kontext usw.) integrieren und deren Erfassung erfassen könnte Wissen. In diesem Kapitel stellen wir eine auf Erfahrungen basierende Multidomänen-Wissensstruktur vor, die als umfassende eingebettete Wissensrepräsentation für das Cognitive Vision System verwendet werden kann, die die Darstellung von visuellen Inhalten anspricht und ihre Wiederverwendung erleichtert. Darüber hinaus würde eine erfolgreiche Darstellung und Verwaltung von Wissen in kognitiven Systemen die Kommunikation und Zusammenarbeit zwischen Mensch und Maschine unterstützen, um die Lernfähigkeiten und die Entscheidungsfindung zu verbessern. Dieses Konzept ist ein Weg zur sogenannten erweiterten Intelligenz. Die Umsetzung einer solchen Darstellung wurde in einer Cognitive Vision Platform for Hazard Control (CVP-HC) getestet, um das Problem der Gefährdung von Arbeitnehmern in industriellen Umgebungen zu behandeln, insbesondere bei der Nichtverwendung von persönlicher Schutzausrüstung, was das Wissens-Engineering erleichtert Prozesse durch eine flexible und anpassungsfähige Implementierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-39601-5_2 e378779a26449396d248204d4594960d;de;;;7.4.;;;Online-Kurse Leistungsvorhersage mit maschinellen Lerntechniken Die Auswirkungen der Pandemie sind in allen Bereichen der Weltgesellschaft zu spüren, einschließlich des Bildungsbereichs. Die Pandemie ist ein starkes Indiz dafür, dass die Dinge nicht mehr so ​​sein werden wie zuvor. Diese Wirkung zeigt sich auch in der Bildungsgemeinschaft. Mehrere Institutionen auf der ganzen Welt haben sich für einen Blended-Learning-Ansatz verbürgt und VLEs eingeführt, um die Bildung zu verlassen. Dies hat zu einer Reihe von professionell entwickelten sowie Amateur-Kursen auf diesen Plattformen geführt. Im Rahmen dieser Studie haben die Forscher maschinelle Lernalgorithmen angewendet, um die Lernenden mit geringerem Engagement zu identifizieren und ihre Gründe vorherzusagen. Es wird ein Vergleich zwischen mehreren solcher Algorithmen angestellt, um die Ausgabe fein abzustimmen und die gegenseitige Abhängigkeit zu verstehen. Diese Studie hat das Geschlecht und die Vorhersehbarkeit des Kursabschlusses auf MOOC betont und es ist ein signifikanter Unterschied darin zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-73603-3_36 2386c5bde67674aea0b0365606db5274;de;;;7.4.;;;Rahmendesign eines Umgebungsüberwachungssystems basierend auf maschinellem Lernen Mit der allmählichen Vertiefung des Industrialisierungsprozesses wurde eine Reihe von Problemen durch die industrielle Umweltverschmutzung verursacht. Die Stadtentwicklung hat einen enormen Druck auf die ökologische Umwelt ausgeübt und hat schwerwiegende Auswirkungen auf das Leben und die Bewohner. Daher sind eine Echtzeitüberwachung der Luftqualität und genaue Vorhersagen für die vollständige Nutzung des Umweltdatenindex sehr wichtig. Mit einer ursprünglichen Plattform betrachtet dieses Papier die tatsächlichen Bedürfnisse und Leistungsmängel der Benutzer eingehend und baut die Plattform des Systems auf: (1) Die Datenzuordnungsfunktion wurde hinzugefügt. Echtzeitdaten werden auf der Karte identifiziert und für PM2 werden verschiedene Farben in verschiedenen Intervallen angezeigt. 5, (2) Alarmfunktion wird hinzugefügt. Wenn die Daten einen bestimmten Schwellenwert überschreiten, werden Logos auf der Karte angezeigt, (3) Trendanalysefunktionen werden hinzugefügt und das künstliche neuronale Netz von BP wird verwendet, um die Daten von Umweltdaten in der Zukunft vorherzusagen. Die Daten scrollen im Laufe der Zeit auf der Karte ab. (4) Die Rekonstruktion der Änderungskurve der Daten macht das System intuitiver, einfacher und benutzerfreundlicher. Basierend auf der Theorie des künstlichen neuronalen BP-Netzwerks wird der Einfluss von Temperatur, Feuchtigkeit, PM2,5, Luftdruck und Beleuchtungsintensität auf einen der fünf oben genannten Faktoren sorgfältig analysiert. Und dann wird ein zuverlässiger und geeigneter Umweltindex zur Vorhersage der fünf oben genannten Faktoren erhalten. Schließlich werden die Prognoseergebnisse zur besseren Visualisierung auf einer Heatmap angezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-57881-7_34 32141283460d593b3ef7faee85bdfad8;de;;;7.4.;;;Fusion von Hilbert-Huang-Transformation und Deep Convolutional Neural Network zur Erkennung vorherrschender Musikinstrumente Als Teilmenge des Music Information Retrieval (MIR) hat die vorherrschende Musikinstrumentenerkennung (PMIR) in den letzten Jahren aufgrund ihrer Einzigartigkeit und ihres hohen kommerziellen Werts in Schlüsselbereichen der Musikanalyse wie der Musiksuche und der automatischen Musiktranskription erhebliches Interesse auf sich gezogen. Mit der Aufmerksamkeit, die Deep Learning und künstlicher Intelligenz geschenkt wurden, wurden sie immer häufiger im Bereich der MIR eingesetzt und erzielten damit Durchbrüche in einigen Teilbereichen, die im Engpass stecken geblieben sind. In diesem Artikel wird die Hilbert-Huang-Transformation (HHT) verwendet, um eindimensionale Audiodaten in ein zweidimensionales Matrixformat abzubilden, gefolgt von einem tiefen konvolutionellen neuronalen Netzwerk, das entwickelt wurde, um wohlhabende und effektive Funktionen für PMIR zu lernen. Insgesamt werden 6705 Audiostücke einschließlich 11 Musikinstrumenten verwendet, um die Wirksamkeit unseres vorgeschlagenen Ansatzes zu überprüfen. Die Ergebnisse werden mit vier Benchmarking-Methoden verglichen und zeigen signifikante Verbesserungen in Bezug auf Präzision, Recall und F1-Maßnahmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-43859-3_6 b962d1533fbb360d696077a787876c9d;de;;;7.4.;;;Haftung für KI: Überlegungen zur öffentlichen Ordnung Die Haftung für KI ist Gegenstand einer lebhaften Debatte. Ob neue Haftungsregelungen eingeführt werden sollen oder nicht und wie diese ausgestaltet werden sollen, hängt von der Funktion der Haftungsregelungen ab. Sie schaffen vor allem Anreize zur Risikokontrolle, die mit ihren Anforderungen variieren – insbesondere Fahrlässigkeit versus Gefährdungshaftung. Dabei müssen sie berücksichtigen, wer tatsächlich in der Lage ist, die Kontrolle auszuüben. In Szenarien, in denen eine eindeutige Zuordnung der Risikokontrolle nicht mehr möglich ist, könnte die Sozialversicherung einspringen.;-;-;-;https://link.springer.com/article/10.1007/s12027-020-00648-0 89910914dd67ee3394e46e878e8b9644;de;;;7.4.;;;Propositionalisierung relationaler Daten Relationales Lernen befasst sich mit der Aufgabe, Modelle oder Muster aus relationalen Daten zu lernen. Ergänzend zu relationalen Lernansätzen, die direkt aus relationalen Daten lernen, die in der Forschungsgemeinschaft für induktive Logikprogrammierung entwickelt wurden, befasst sich dieses Kapitel mit dem Propositionalisierungsansatz, bei dem zuerst eine relationale Datenbank in eine Einzeltabellendarstellung umgewandelt wird, gefolgt von einem Modell- oder Musterkonstruktionsschritt unter Verwendung von a Standardalgorithmus für maschinelles Lernen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-68817-2_4 4dd73d437375e410e6db3226f5ce5df0;de;;;7.4.;;;Eine Umfrage zur Merkmalsextraktion zur Mustererkennung In der Forschung zur Mustererkennung wollen wir immer die richtige Klassifikationsrate entsprechend den geforderten Merkmalen erreichen. Die Merkmalsextraktion hat großen Einfluss auf das Design und die Leistung des Klassifikators und ist eines der Kernthemen der PR-Forschung. Als wichtiger Bestandteil der Mustererkennung wurde der Merkmalsextraktion von vielen Wissenschaftlern große Aufmerksamkeit gewidmet und sie hat sich derzeit zu einem der Forschungsschwerpunkte im Bereich der Mustererkennung entwickelt. Dieser Artikel gibt eine allgemeine Diskussion der Merkmalsextraktion, schließt lineare Merkmalsextraktion und nichtlineare Merkmalsextraktion ein und stellt die Grenzmethoden dieses Gebiets vor, diskutiert schließlich die Entwicklungstendenz der Merkmalsextraktion.;-;-;-;https://link.springer.com/article/10.1007/s10462-011-9225-y 90b4dd4db4f8aa97f6539bbc4f668a10;de;;;7.4.;;;Benutzermodellierung in adaptiver Schnittstelle In diesem Artikel untersuchen wir den Begriff adaptiver Benutzerschnittstellen, interaktive Systeme, die maschinelles Lernen aufrufen, um ihre Interaktion mit Menschen zu verbessern. Wir überprüfen einige frühere Arbeiten in diesem aufstrebenden Bereich, die von Software zum Filtern von Informationen bis hin zu Systemen reichen, die komplexere Aufgaben wie die Planung unterstützen. Danach beschreiben wir drei laufende Forschungsbemühungen, die diesen Rahmen in neue Richtungen erweitern. Schließlich überprüfen wir frühere Arbeiten, die ähnliche Probleme behandelt haben, und betrachten einige Herausforderungen, die sich durch das Design adaptiver Benutzerschnittstellen ergeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-2490-1_48 5a9187d7f3bf6088cda6f9865a27b324;de;;;7.4.;;;Aspektbegriff-Extraktion für die Stimmungsanalyse in großen Filmkritiken mit der Gini-Index-Merkmalsauswahlmethode und dem SVM-Klassifikator Mit der rasanten Entwicklung des World Wide Web hat die elektronische Mund-zu-Mund-Propaganda die Verbraucher zu aktiven Teilnehmern gemacht. Heutzutage bietet eine große Anzahl von Bewertungen, die von Verbrauchern im Internet veröffentlicht werden, anderen Verbrauchern wertvolle Informationen. Solche Informationen sind für die Entscheidungsfindung sehr wichtig und daher bei den Internetnutzern beliebt. Diese Informationen sind nicht nur für potenzielle Verbraucher sehr wertvoll, um Entscheidungen zu treffen, sondern auch für Unternehmen, um den Erfolg und die Nachhaltigkeit vorherzusagen. In diesem Artikel wird eine auf dem Gini-Index basierende Feature-Auswahlmethode mit Support Vector Machine (SVM)-Klassifikator für die Sentimentklassifizierung für große Filmrezensionsdatensätze vorgeschlagen. Die Ergebnisse zeigen, dass unsere Gini-Index-Methode eine bessere Klassifikationsleistung in Bezug auf reduzierte Fehlerquote und Genauigkeit aufweist.;-;-;-;https://link.springer.com/article/10.1007/s11280-015-0381-x 7391a9f8a16ec9fd56fc87ee345d2072;de;;;7.4.;;;Aktienkursvorhersage basierend auf tiefen neuronalen Netzen Das Verständnis der Muster finanzieller Aktivitäten und die Vorhersage ihrer Entwicklung und Veränderungen sind Forschungsschwerpunkte in akademischen und finanziellen Kreisen. Da Finanzdaten komplexe, unvollständige und unscharfe Informationen enthalten, ist die Vorhersage ihrer Entwicklungstrends eine äußerst schwierige Herausforderung. Schwankungen der Finanzdaten hängen von einer Vielzahl korrelierter, sich ständig ändernder Faktoren ab. Daher sind die Vorhersage und Analyse von Finanzdaten ein nichtlineares, zeitabhängiges Problem. Deep Neural Networks (DNNs) kombinieren die Vorteile von Deep Learning (DL) und neuronalen Netzen und können verwendet werden, um nichtlineare Probleme zufriedenstellender im Vergleich zu herkömmlichen Machine-Learning-Algorithmen zu lösen. In diesem Beitrag werden Preisdaten von Finanzprodukten als eindimensionale Reihe behandelt, die durch die Projektion eines chaotischen Systems aus mehreren Faktoren in die Zeitdimension erzeugt wird, und die Preisreihe wird mithilfe der Zeitreihen-Phasenraum-Rekonstruktion (PSR) rekonstruiert Methode. Ein DNN-basiertes Vorhersagemodell wird basierend auf der PSR-Methode und einem Lang- und Kurzzeitgedächtnisnetzwerk (LSTMs) für DL entworfen und verwendet, um Aktienkurse vorherzusagen. Das vorgeschlagene und einige andere Vorhersagemodelle werden verwendet, um mehrere Aktienindizes für verschiedene Zeiträume vorherzusagen. Ein Vergleich der Ergebnisse zeigt, dass das vorgeschlagene Vorhersagemodell eine höhere Vorhersagegenauigkeit aufweist.;-;-;-;https://link.springer.com/article/10.1007/s00521-019-04212-x c2362a0c28c9a36716c2fd49627e1e6f;de;;;7.4.;;;Stimmungsanalyse zu Big News Mediadaten Die Sentiment Analysis (auch bekannt als Opinion Mining) beabsichtigt, öffentliche Meinungen und Stimmungen gegenüber anderen Entitäten zu entdecken (Liu B, Sentiment Analysis and Opinion Mining, Synthesis Lectures on Human Language Technologies, Bd. 5. Morgan & Claypool Publishers, S. 167, 2012). Während in den letzten Jahren die Zahl der öffentlichen Meinungen, Rezensionen und Kommentare im Web explodiert, sinken die Kosten für den Zugriff auf diese Daten über das Internet. Folglich ist die Sentimentanalyse nicht nur zu einem aktiven Forschungsgebiet geworden, sondern wird auch häufig von Organisationen und Unternehmen eingesetzt, um finanzielle Vorteile zu erzielen. In diesem Kapitel wird gezeigt, wie Big-Data-Technologien angewendet werden, um die in öffentlichen Nachrichtenmedien geäußerten Ansichten und Meinungen zu bestimmten Themen, wie beispielsweise dem Immobilienmarkt in Australien, zu verfolgen. Zunächst stellen wir grundlegende Konzepte der Sentiment-Analyse, neuronaler Netze und des Deep Learning vor und beschreiben anschließend das verwendete Big-Data-Framework – einen Hadoop-Cluster, der in unserem Projekt verwendet wird. Dieser Cluster erleichtert das Crawlen von Daten aus dem Web und verarbeitet dann die gesammelten Daten. Darüber hinaus beschreiben wir die in unserer Forschung verwendeten Ansätze und Modelle, einschließlich des verwendeten experimentellen Designs. Schließlich präsentieren wir unsere Forschungsergebnisse anhand einer Liste von Tabellen und Abbildungen, um zu zeigen, wie Big-Data-Techniken die Meinungen der Nachrichtenmedien gegenüber dem australischen Immobilienmarkt aus verschiedenen Blickwinkeln auf der Grundlage unserer aus dem Internet gesammelten großen Nachrichtenmediendaten aufzeigen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6652-7_7 ac568b7b90ffc0ca461c1f5f2217aeb5;de;;;7.4.;;;Dominanz-basierter grober Ansatz zur Wissensermittlung (II): Erweiterungen und Anwendungen Während der erste Teil der Darstellung einer allgemeinen Perspektive des dominanzbasierten Rough Set Approach (DRSA) im Kontext der multikriteriellen Klassifikation, Auswahl und Rangordnung gewidmet war, werden in diesem Teil Fuzzy-Set-Erweiterungen von DRSA, DRSA für Entscheidungen unter Risiko, und DRSA für hierarchische Entscheidungsfindung. Das Kapitel endet mit einem Abschnitt über eine axiomatische Charakterisierung von drei Präferenzmodellen, die aus präferenzgeordneten Daten abgeleitet werden: allgemeine Nutzenfunktion, Outranking-Relation und eine Reihe von Entscheidungsregeln, die sich aus DRSA ergeben. Es scheint, dass das Entscheidungsregelmodell das allgemeinste unter den bekannten Präferenzmodellen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-07952-2_21 abfcfb906a01b51274f799ac9685e637;de;;;7.4.;;;Framework für Decisional Business Modeling und Requirements Modeling in Data Mining-Projekten Dieser Artikel stellt einen Rahmen vor, der sich an der methodischen Konstruktion des Entscheidungsfindungsprozessmodells einer Organisation und der anschließenden Ableitung eines Anforderungsmodells für die Entwicklung von Data-Mining-Projekten orientieren soll. Das Entscheidungsmodell ist als konzeptionelles Werkzeug definiert, das aus einer Reihe verwandter Konzepte besteht, die die Entscheidungsprozesse einer Organisation darstellen. Die Bedeutung eines Entscheidungsmodells besteht darin, dass mit einer klaren Definition der Anforderungen, die sich aus den Zielen der Organisation ergeben und die Entscheidungsprozesse generieren, die Entwicklung eines Data Mining-Projekts ermöglicht wird, das effektiv auf die Erreichung der Unternehmensstrategie ausgerichtet ist Tore.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04394-9_33 b668ee95fb5b759380435fe72baa5b5b;de;;;7.4.;;;Defizitschizophrenie ist eine eigenständige diagnostische Kategorie, die durch neuroimmune und neurokognitive Merkmale definiert wird: Ergebnisse überwachten maschinellen Lernens Defizitschizophrenie ist gekennzeichnet durch neurokognitive Beeinträchtigungen und Veränderungen im Muster der IgA/IgM-Reaktionen auf Plasma-Tryptophan-Kataboliten (TRYCATs). In der aktuellen Studie wurden überwachte Mustererkennungsmethoden, einschließlich der logistischen Regressionsanalyse (LRA), der Support Vector Machine (SVM) und der Soft Independent Modeling of Class Analogy (SIMCA), verwendet, um zu untersuchen, ob die Defizitschizophrenie eine diskrete diagnostische Klasse in Bezug auf an das Konsortium zur Einrichtung eines Registers für Alzheimer-Krankheit (CERAD) und Cambridge Neuropsychological Test Automated Battery (CANTAB) und IgA/IgM-Reaktionen auf schädliche (NOX) und allgemein schützendere (PRO) TRYCATs. Wir rekrutierten Patienten mit (;-;-;-;https://link.springer.com/article/10.1007/s11011-018-0208-4 1f004889a47c32625ea66a763a030cff;de;;;7.4.;;;Transduktives Lernen logischer Strukturen aus Dokumentenbildern Eine grundlegende Aufgabe des Dokumentbildverständnisses besteht darin, semantisch relevante Komponenten in dem aus einem Dokumentbild extrahierten Layout zu erkennen. Diese Aufgabe kann automatisiert werden, indem man Klassifikatoren lernt, um solche Komponenten zu kennzeichnen. Die Anwendung von induktiven Lernalgorithmen setzt die Verfügbarkeit einer großen Menge von Dokumenten voraus, deren Layoutkomponenten zuvor durch manuelle Annotation gekennzeichnet wurden. Dies steht im Gegensatz zu der häufigeren Situation, in der wir nur wenige beschriftete Dokumente und eine Fülle von unbeschrifteten Dokumenten haben. Einen weiteren Komplexitätsgrad der Lernaufgabe stellt die Bedeutung räumlicher Beziehungen zwischen Layoutkomponenten dar, die durch Merkmalsvektoren nicht ausreichend dargestellt werden können. Um diesen Problemen zu begegnen, untersuchen wir die Anwendung eines relationalen Klassifikators, der in der transduktiven Umgebung funktioniert. Die Transduktion wird durch die Möglichkeit der Ausnutzung der großen Informationsmenge, die in den nicht gekennzeichneten Dokumenten vermittelt wird, und durch die Kontiguität des Konzepts der positiven Autokorrelation mit der Glätteannahme begründet, die das transduktive Setting charakterisiert. Der Klassifikator nutzt entdeckte neu auftretende Muster, die es uns ermöglichen, Klassen qualitativ zu charakterisieren. Computerlösungen wurden an Dokumentenbildern der wissenschaftlichen Literatur getestet und die experimentellen Ergebnisse zeigen die Vor- und Nachteile des Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22913-8_6 083999198ab5482ab4a6b19e2ddaba9b;de;;;7.4.;;;Embryonenselektion mit künstlicher Intelligenz: Methoden evaluieren und vergleichen? Die Embryonenselektion im Rahmen der In-vitro-Fertilisation (IVF) ist der Prozess der Bewertung der Qualitäten befruchteter Eizellen (Embryonen) und der Auswahl der besten Embryonen, die innerhalb einer Patientenkohorte für den nachfolgenden Transfer oder die Kryokonservierung verfügbar sind. In den letzten Jahren wurde künstliche Intelligenz (KI) intensiv eingesetzt, um das Ranking und die Auswahl von Embryonen zu verbessern und zu automatisieren, indem relevante Informationen aus Embryonenmikroskopiebildern extrahiert wurden. Die KI-Modelle werden anhand ihrer Fähigkeit bewertet, den/die Embryo(n) mit den höchsten Chancen auf eine erfolgreiche Schwangerschaft zu identifizieren. Ob solche Bewertungen jedoch auf Rankingleistungen oder Schwangerschaftsprognosen basieren sollten, scheint die Studien zu spalten. Daher werden eine Vielzahl von Leistungskennzahlen berichtet und Vergleiche zwischen Studien werden oft auf unterschiedlichen Ergebnissen und Datengrundlagen angestellt. Darüber hinaus wird die Überlegenheit von KI-Methoden gegenüber der manuellen Bewertung durch den Menschen oft auf der Grundlage retrospektiver Daten behauptet, ohne dass potenzielle Verzerrungen erwähnt werden. In diesem Papier bieten wir einen technischen Überblick über einige der wichtigsten Themen, die das Training, die Bewertung und den Vergleich aktueller KI-Modelle aufteilen. Wir erläutern und diskutieren die gängigsten Bewertungsmetriken und setzen sie in Beziehung zu den beiden getrennten Bewertungszielen Ranking und Vorhersage. Wir diskutieren auch, wann und wie KI-Modelle studienübergreifend zu vergleichen sind und erklären im Detail, wie ein Selektionsbias beim Vergleich von KI-Modellen mit der aktuellen Embryonenauswahlpraxis in retrospektiven Kohortenstudien unvermeidlich ist.;-;-;-;https://link.springer.com/article/10.1007/s10815-021-02254-6 db418cdc9d25804fb880d84a3ce0d764;de;;;7.4.;;;News Thread-Extraktion basierend auf einem topischen N-Gram-Modell mit einer Hintergrundverteilung Die automatische Thread-Extraktion für Nachrichtenereignisse kann Benutzern helfen, verschiedene Aspekte eines Nachrichtenereignisses zu kennen. In diesem Beitrag stellen wir eine Extraktionsmethode unter Verwendung eines topischen N-Gramm-Modells mit einer Hintergrundverteilung (TNB) vor. Im Gegensatz zu den meisten Themenmodellen, wie der Latent Dirichlet Allocation (LDA), die auf der Annahme von Wörtern beruht, behandelt unser Modell Wörter in ihrer Textreihenfolge. Jeder Nachrichtenbericht wird als Kombination aus einer Hintergrundverteilung über den Korpus und einer Mischverteilung über versteckte Nachrichtenstränge dargestellt. So kann unser Modell „Präsidentschaftswahlen“ verschiedener Jahre als Hintergrundphrase und „Obama gewinnt“ als Faden für das Ereignis „2008 USA Präsidentschaftswahl“ modellieren. Wir wenden unsere Methode auf zwei verschiedene Korpora an. Eine auf menschlicher Einschätzung basierende Auswertung zeigt, dass das Modell aussagekräftige und interpretierbare Threads aus einem Nachrichtenkorpus generieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24958-7_49 d773b2745981d275212ffe5d8c485775;de;;;7.4.;;;Ein Formalismus für Relevanz und seine Anwendung bei der Auswahl von Feature-Subsets Der Begriff der Relevanz wird in vielen technischen Bereichen verwendet. In den Bereichen Machine Learning und Data Mining beispielsweise wird Relevanz häufig als Maß bei der Feature-Subset-Selektion (FSS) verwendet. In früheren Studien wurde die Relevanz unterschiedlich interpretiert und die Verbindung zu FSS war lose. In diesem Beitrag wird ein strenger mathematischer Formalismus für die Relevanz vorgeschlagen, der quantitativ und normalisiert ist. Um den Formalismus in FSS anzuwenden, wird eine Charakterisierung für FSS vorgeschlagen: Erhaltung von Lerninformationen und Minimierung der gemeinsamen Entropie. Basierend auf der Charakterisierung wird eine enge Verbindung zwischen Relevanz und FSS hergestellt: Maximierung der Relevanz von Features für das Entscheidungsattribut und der Relevanz des Entscheidungsattributs für die Features. Diese Verbindung wird dann verwendet, um einen Algorithmus für FSS zu entwerfen. Der Algorithmus ist linear in der Anzahl der Instanzen und quadratisch in der Anzahl der Features. Der Algorithmus wird anhand von 23 öffentlichen Datensätzen evaluiert, was zu einer Verbesserung der Vorhersagegenauigkeit bei 16 Datensätzen und zu einem Genauigkeitsverlust bei nur einem Datensatz führt. Dies beweist, dass sowohl der Formalismus als auch seine Verbindung zu FSS stichhaltig sind.;-;-;-;https://link.springer.com/article/10.1023/A%3A1007612503587 ebe2a8a326b61453d876584bbed8b2e9;de;;;7.4.;;;Hochwasserdetektion mit multispektralen Bildern und SAR-Daten Die Analyse von Fernerkundungsbildern ist eine sehr wichtige Aufgabe in Bezug auf die Klima- oder Katastrophenüberwachung. Satellitenbilder können die Bodenoberflächenbedingungen erfassen und eine große Menge an Informationen in einem einzigen Bild liefern. In den letzten Tagen ist die Überwachung von Hochwasserereignissen mit der Verfügbarkeit multitemporaler Satellitendaten ziemlich einfach geworden. Es liefert genaue und Echtzeit-Hochwasserinformationen. Überschwemmungen sind eine der katastrophalsten Naturkatastrophen in Assam, Indien. Es ist notwendig, Hochwasserereignisse vorherzusagen oder zu überwachen, um den durch Hochwasser verursachten Gesamtschaden zu minimieren. Es gibt viele wissenschaftliche Ansätze, die bei der Hochwasserüberwachung eingesetzt wurden. Allerdings werden Deep-Learning-basierte Ansätze noch nicht vollständig genutzt, um Hochwasserereignisse zu überwachen und vorherzusagen. Wir schlagen Hochwassererkennung in Echtzeit mit Hilfe von multispektralen Bildern und SAR-Daten unter Verwendung der Deep-Learning-Technik Convolutional Neural Network (CNN) vor. Die Satellitenbilder stammen von Sentinel-2 und die SAR-Daten stammen von Sentinel-1. Das CNN wurde mit 100 Bildern für 100 Iterationen trainiert. CNN hat bei bildorientierten Aufgaben wie Klassifizierung, Segmentierung und Merkmalsextraktion eine hervorragende Leistung gezeigt. In letzter Zeit werden Deep-Learning-Techniken aufgrund ihrer hohen Auflösung und ihrer umfangreichen Rechenfähigkeiten in großem Umfang für Fernerkundungsdaten verwendet. Das Untersuchungsgebiet umfasst 2 Distrikte, nämlich Barpeta und Kamrup von Assam, Indien. Wir haben eine Genauigkeit von 80% bei der Erkennung von Hochwasser erreicht. Basierend auf unseren Ergebnissen kann Deep Learning bei verschiedenen anderen Katastrophenerkennungs- oder Überwachungsaktivitäten intensiv erforscht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6315-7_24 184f3f7a36bd80f01ed8b59177dd3b57;de;;;7.4.;;;Auf dem Weg zum Lernen der Normalität für die Anomalieerkennung in industriellen Steuerungsnetzwerken Jüngste Trends in der Automatisierungstechnik führen dazu, dass industrielle Steuerungssysteme (ICS) zunehmend neuen Schwachstellen ausgesetzt sind. Dies erfordert die Einführung geeigneter Sicherheitsansätze in diesem Bereich. Vorherrschend in ICS ist die Verwendung von Zugangskontrollen. Vor allem in kritischen Infrastrukturen sollten jedoch präventive Sicherheitsmaßnahmen durch reaktive Maßnahmen wie Intrusion Detection ergänzt werden. Ausgehend von den Eigenschaften von Automatisierungsnetzwerken skizzieren wir die Implikationen für eine geeignete Anwendung der Intrusion Detection in diesem Bereich. Auf dieser Grundlage wird ein Ansatz zur Erstellung einer selbstlernenden Anomalieerkennung für ICS-Protokolle vorgestellt. Im Gegensatz zu anderen Ansätzen berücksichtigt es alle Netzwerkdaten: Flussinformationen, Anwendungsdaten und die Paketreihenfolge. Wir diskutieren die Herausforderungen, die in jedem Schritt der Netzwerkdatenanalyse gelöst werden müssen, um zukünftige Aspekte der Forschung zum Lernen von Normalität in industriellen Steuerungsnetzwerken zu identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38998-6_8 42b271e7aa677f4c271d5eb1e5bd03d5;de;;;7.4.;;;Visuelle Multi-View-Klassifizierung über einen Mixed-Norm-Regularizer Beim Data Mining und beim maschinellen Lernen stellen wir Instanzen oft durch mehrere Ansichten dar, um bessere Beschreibungen und effektives Lernen zu ermöglichen. Solche umfassenden Darstellungen können jedoch Redundanz und Rauschen verursachen. Das Lernen mit diesen Multi-View-Daten ohne jegliche Vorverarbeitung kann die Effektivität der visuellen Klassifizierung beeinträchtigen. In diesem Beitrag schlagen wir ein neuartiges gemischt-normiges Joint-Sparse-Learning-Modell vor, um den negativen Effekt redundanter Ansichten und verrauschter Attribute (oder Dimensionen) für die Multi-View-Multi-Label-Klassifizierung (MVML) effektiv zu beseitigen. Insbesondere ein Mixed-Norm-Regularizer, der eine Frobenius-Norm und eine ℓ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37453-1_43 a89302c397dc1327e7704b9e8e695d0e;de;;;7.4.;;;Ein Fuzzy-basierter Ansatz für das Überleben von Data Mining Herkömmliche Data-Mining-Algorithmen gehen davon aus, dass alle Daten zu einem bestimmten Objekt gleichzeitig verfügbar werden (z. B. durch Zugriff auf den Objektdatensatz in einer Datenbank). Bestimmte reale Anwendungen, bekannt als;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19683-1_18 d08af9464bd4610e6b0a6ded01af5aa3;de;;;7.4.;;;Fortschritte bei der Vorhersage schwerer konvektiver Wettervorhersagen in China seit den 1950er Jahren In der asiatischen Monsunregion gelegen, erlebt China häufig schweres konvektives Wetter (SCW), wie z. B. kurzfristige Starkregen (SDHR), starke Gewitterwinde, Hagel und gelegentlich Tornados. Der Fortschritt bei der SCW-Vorhersage in China hängt eng mit dem Aufbau und der Entwicklung meteorologischer Beobachtungsnetze, insbesondere Wetterradar- und meteorologischer Satellitennetze, zusammen. In den späten 1950er Jahren begannen einige meteorologische Ämter auf Bezirksebene, empirische Hagelvorhersagen auf der Grundlage von Beobachtungen von Wolken und meteorologischen Oberflächenvariablen durchzuführen. Seit der Einrichtung des ersten Wetterradars im Jahr 1959 hat es über ein halbes Jahrhundert gedauert, ein modernes umfassendes operationelles Überwachungs- und Warnsystem für die landesweite SCW-Vorhersage zu entwickeln mit einer Gültigkeit von mehreren Stunden und einem Ausblick auf Vorlaufzeiten von bis zu drei Tagen wurde im Jahr 2009 erstellt. Die operative Überwachung und Vorhersage von Gewittern, SDHR, Gewitterhochwinden und Hagel wurde durchgeführt. Die Leistungsfähigkeit der operativen SCW-Vorhersage wird in Zukunft durch die Entwicklung von konvektionsauflösenden numerischen Modellen (CRNMs), die Aufrüstung von Wetterradarnetzen, den Start von meteorologischen Satelliten der neuen Generation, besseres Verständnis von Meso-γ und Mikroskalen SCW-Systeme und weitere Anwendung von Technologien der künstlichen Intelligenz und CRNM-Vorhersagen.;-;-;-;https://link.springer.com/article/10.1007/s13351-020-9146-2 3fa6d40e5a82a0f701dadc481021d5b6;de;;;7.4.;;;Feature Learning HyperNEAT: Entwicklung neuronaler Netze zur Extraktion von Features für die Klassifizierung von maritimen Satellitenbildern Die Bildanalyse stellt einen wichtigen Aspekt des Bewusstseins für den maritimen Bereich dar, jedoch übersteigt die Menge der Bilder die menschliche Verarbeitungsfähigkeit. Leider stellt der maritime Bereich das maschinelle Lernen vor einzigartige Herausforderungen, um solche Analysen zu automatisieren. Wenn Objekterkennungsalgorithmen reale Daten beobachten, stehen sie tatsächlich vor Hürden, die in experimentellen Situationen nicht vorhanden sind. Bilder von solchen Domänen leiden unter einer Verschlechterung, haben begrenzte Beispiele und variieren stark im Format. Diese Beschränkungen sind aufgrund der damit verbundenen Kosten- und Leistungsbeschränkungen gegenwärtige Satellitenbilder. Zu diesem Zweck wird der Hypercube-basierte NeuroEvolution of Augmenting Topologies-Ansatz untersucht, um einige dieser Herausforderungen bei der Klassifizierung von Seeschiffen aus Satellitenbildern anzugehen. Die Ergebnisse zeigen, dass HyperNEAT aus solchen Bildern Merkmale lernt, die eine bessere Klassifizierung ermöglichen als die Hauptkomponentenanalyse (PCA). Darüber hinaus ermöglicht HyperNEAT eine einzigartige Möglichkeit, Bildgrößen durch die indirekte Kodierung zu skalieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23108-2_18 00843b121b14aef76eb0588a7922e723;de;;;7.4.;;;Übersicht der prämierten Beiträge – Die 20. JSAI .-Jahrestagung In diesem Kapitel stellen wir stolz acht preisgekrönte Beiträge vor, die aus den Beiträgen der 20. Jahreskonferenz der Japan Society for Artificial Intelligence (JSAI2006) ausgewählt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69902-6_1 71a2f00e410eb83ca81fa6c4d9706f94;de;;;7.4.;;;Leistungsbewertung von Wort- und Satzeinbettungen für die Stimmungsanalyse von Finanzschlagzeilen Heutzutage werden jeden Tag eine enorme Anzahl von Online-Finanzartikeln veröffentlicht. Es sind zahlreiche Algorithmen und Methoden zur Verarbeitung natürlicher Sprache (NLP) entstanden, nicht nur zur korrekten, sondern auch zur schnellen Extraktion von Finanzstimmungen. Gegenwärtig sind Wort- und Satzcodierer aufgrund ihrer Fähigkeit, sie als dichte Vektoren in einem kontinuierlichen reellen Zahlenraum darzustellen, die als Einbettungen bezeichnet werden, ein beliebtes Thema im NLP-Bereich. Diese niederdimensionalen Einbettungsvektoren sind für tiefe neuronale Netze (DNN)-Eingaben geeignet, und ihre Erfindung steigerte die Leistung mehrerer NLP-Aufgaben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-33110-8_14 40446aeae3583d82d8d3e52607be5e2a;de;;;7.4.;;;Forschung zur Frageklassifikation basierend auf Bi-LSTM Die Frageklassifizierung spielt eine wichtige Rolle im Frageantwortsystem (QA) und ihre Ergebnisse wirken sich direkt auf die Qualität der QA aus. Herkömmliche Methoden der Fragenklassifizierung umfassen regelbasierte Methoden und statistische maschinelle Lernmethoden. Sie müssen Regeln manuell zusammenfassen oder die Merkmale von Fragen extrahieren. Die Regeldefinition und Merkmalsauswahl sind subjektiv und einseitig, was einem vollständigen Verständnis der semantischen Informationen von Fragen nicht förderlich ist. Ausgehend von der obigen Problematik schlägt dieses Papier ein Frageklassifikationsmodell basierend auf Bi-LSTM vor. Dieses Modell kombiniert Wörter, Wortarten (POS) und Positionsinformationen von Wörtern, um eine eingebettete Darstellung von Wörtern zu erzeugen, und verwendet Bi-LSTM, um Fragen zu klassifizieren. Das Verfahren kann die lokalen Merkmale von Fragen effizient extrahieren und das Feature-Engineering vereinfachen. Die Genauigkeit der grobkörnigen Klassifikation des Frageklassifikationsdatensatzes des Harbin Institute of Technology (HIT) hat 92,38% erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-04015-4_44 6abbd2de72b590321fb81ca349229c16;de;;;7.4.;;;Deep Convolutional Neural Network zur Erkennung handschriftlicher tamilischer Zeichen mithilfe der Hauptkomponentenanalyse Die Offline-Handschrifterkennung ist eine der anspruchsvollsten Forschungen auf dem Gebiet der Mustererkennung. Diese Herausforderung ist auf den einzigartigen Schreibstil für verschiedene Benutzer zurückzuführen. Es wurden viele Techniken zur Erkennung von handgeschriebenem Englisch, Bangla, Gurmukhi, Chinesisch, Devanagari usw. vorgestellt. Aufgrund der Komplexität tamilischer Schriftzeichen ist die Erkennung tamilischer Schriftzeichen eine anspruchsvolle Aufgabe im Bereich des maschinellen Lernens. Um diese Komplexität zu überwinden, war ein neuer Ansatz namens Deep Learning in den Bereich des maschinellen Lernens eingetreten. Convolutional Neural Network ist die spezielle Art von Netzwerk, die unter Deep Learning fällt und verwendet wird, um mit Bildern zu arbeiten. Daher ist die Hauptidee hinter dieser Forschung, eine neuartige Methode zu entwickeln, indem die Hauptkomponentenanalyse (PCA) und das Convolutional Neural Network zur Merkmalsextraktion kombiniert werden, um die tamilischen Zeichen auf hervorragende Weise zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8657-1_61 2fbea380b190003fd4d60b0c7648ce75;de;;;7.4.;;;Verwendung diskriminierender Phrasen zur Textkategorisierung Diese Arbeit zielt darauf ab, diskriminierende Mehrwortmerkmale oder Phrasen aus einem gegebenen Satz von Textdokumenten zu finden. Wir verwenden ein modifiziertes Shapley-Wertmaß, um die Liste der diskriminierenden Merkmale auszuwählen. Der Merkmalsauswahlalgorithmus wird zusammen mit mehreren bestehenden Klassifikatoren für 20-Newsgroup- und Wikipedia-Datensätze verwendet. Basierend auf den erhaltenen Ergebnissen zeigen wir, dass das Hinzufügen von Phrasen zur Merkmalsliste die Klassifikationsleistung im Vergleich zur alleinigen Verwendung von Wörtern verbessern kann, außerdem variiert die Verbesserung in Abhängigkeit von der Trennbarkeit der Klassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-42042-9_35 84c0c0cacbe42b43952c43ccab219993;de;;;7.4.;;;Kernel-Alignment-inspirierte lineare Diskriminanzanalyse Die Kernel-Ausrichtung misst den Ähnlichkeitsgrad zwischen zwei Kerneln. In diesem Papier, inspiriert vom Kernel Alignment, schlagen wir eine neue Formulierung der Linear Discriminant Analysis (LDA) vor, Kernel Alignment LDA (kaLDA). Wir definieren zunächst zwei Kernel, den Datenkernel und den Klassenindikator-Kernel. Das Problem besteht darin, einen Unterraum zu finden, um die Ausrichtung zwischen dem Unterraum-transformierten Datenkern und dem Klassenindikatorkern zu maximieren. Überraschenderweise ist die durch Kernel-Alignment induzierte kaLDA-Zielfunktion der klassischen LDA sehr ähnlich und kann unter Verwendung von Zwischenklassen- und Gesamtstreumatrizen ausgedrückt werden. Dies kann auf Multi-Label-Daten erweitert werden. Wir verwenden einen Stiefel-Mannigfaltigen Gradientenabstiegsalgorithmus, um dieses Problem zu lösen. Wir führen Experimente an 8 Single-Label- und 6 Multi-Label-Datensätzen durch. Die Ergebnisse zeigen, dass kaLDA bei vielen Single-Label- und Multi-Label-Problemen eine sehr gute Leistung zeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44845-8_26 fc7115c56917220d2018d3d9a35af68e;de;;;7.4.;;;Handeln lernen Wir formalisieren ein Modell für überwachtes Lernen von Handlungsstrategien in dynamischen stochastischen Domänen und zeigen, dass PAC-Lernergebnisse zu Occam-Algorithmen auch in diesem Modell gültig sind. Anschließend identifizieren wir eine Klasse von regelbasierten Handlungsstrategien, für die polynomielles Zeitlernen möglich ist. Die Darstellung von Strategien ist eine Verallgemeinerung von Entscheidungslisten, Strategien beinhalten Regeln mit existenziell quantifizierten Bedingungen, einfache rekursive Prädikate und kleine interne Zustände, sind aber syntaktisch eingeschränkt. Wir untersuchen auch die Erlernbarkeit hierarchisch aufgebauter Strategien, bei denen ein bereits erworbenes Unterprogramm als grundlegende Aktion in einer übergeordneten Strategie verwendet werden kann. Wir beweisen einige positive Ergebnisse in dieser Umgebung, zeigen aber auch, dass das hierarchische Lernproblem in einigen Fällen rechenintensiv ist.;-;-;-;https://link.springer.com/article/10.1023/A%3A1007571119753 a7deb2c28aee53327119e59f36447eb3;de;;;7.4.;;;Clustering von Zeitreihen-Untersequenzen ist bedeutungslos: Implikationen für bisherige und zukünftige Forschung Angesichts der jüngsten Zunahme des Interesses an Streaming-Daten und Online-Algorithmen hat das Clustering von Zeitreihen-Untersequenzen, die über ein gleitendes Fenster extrahiert werden, viel Aufmerksamkeit erhalten. In dieser Arbeit stellen wir einen überraschenden Anspruch. Das Clustern von Zeitreihen-Untersequenzen ist bedeutungslos. Genauer gesagt sind aus diesen Zeitreihen extrahierte Cluster gezwungen, einer bestimmten Einschränkung zu gehorchen, die pathologisch unwahrscheinlich von irgendeinem Datensatz erfüllt wird, und aus diesem Grund sind die von jedem Clustering-Algorithmus extrahierten Cluster im Wesentlichen zufällig. Während diese Einschränkung mit einer einfachen Illustration intuitiv demonstriert und leicht zu beweisen ist, ist sie in der Literatur nie aufgetaucht. Wir können es rechtfertigen, unsere Behauptung überraschend zu nennen, weil sie den Beitrag von Dutzenden von zuvor veröffentlichten Artikeln entkräftet. Wir begründen unsere Behauptung mit einem Theorem, anschaulichen Beispielen und einer umfassenden Reihe von Experimenten zu Reimplementierungen früherer Arbeiten. Obwohl der Hauptbeitrag unserer Arbeit darin besteht, darauf aufmerksam zu machen, dass eine scheinbare Lösung eines wichtigen Problems falsch ist und nicht mehr verwendet werden sollte, führen wir auch eine neuartige Methode ein, die auf dem Konzept der Zeitreihenmotive basiert, in der Lage, Teilsequenzen auf einigen Zeitreihendatensätzen sinnvoll zu clustern.;-;-;-;https://link.springer.com/article/10.1007/s10115-004-0172-7 07a8e149dfffb04123e1fb6ea9117029;de;;;7.4.;;;Erfolgsprognose für Schüler in MOOCs Vorhersagemodelle des Schülererfolgs in Massive Open Online Courses (MOOCs) sind eine entscheidende Komponente für eine effektive Inhaltspersonalisierung und adaptive Interventionen. In diesem Artikel überprüfen wir den Stand der Technik bei Vorhersagemodellen für den Studienerfolg in MOOCs und präsentieren eine Kategorisierung der MOOC-Forschung nach Prädiktoren (Merkmale), Vorhersagen (Ergebnisse) und dem zugrunde liegenden theoretischen Modell. Wir untersuchen die Arbeit in jeder Kategorie kritisch und liefern Daten zur Rohdatenquelle, zum Feature Engineering, zum statistischen Modell, zur Bewertungsmethode, zur Vorhersagearchitektur und zu anderen Aspekten dieser Experimente. Eine solche Überprüfung ist besonders nützlich angesichts der raschen Expansion der prädiktiven Modellierungsforschung in MOOCs seit dem Aufkommen der großen MOOC-Plattformen im Jahr 2012. Diese Umfrage deckt mehrere wichtige methodische Lücken auf, darunter eine umfangreiche Filterung experimenteller Teilpopulationen, eine ineffektive Bewertung von Schülermodellen und die Verwendung von experimentellen Daten, die für die Vorhersage und Intervention von Schülern in der realen Welt nicht verfügbar wären, was das ultimative Ziel solcher Modelle ist. Schließlich zeigen wir Möglichkeiten für zukünftige Forschung auf, die zeitliche Modellierung, Forschung, die prädiktive und erklärende Schülermodelle verbindet, Arbeiten, die zur Lerntheorie beitragen, und die Bewertung des langfristigen Lernerfolgs in MOOCs umfasst.;-;-;-;https://link.springer.com/article/10.1007/s11257-018-9203-z 869c5c9f61ed3d76b7ea8f871e1a3cba;de;;;7.4.;;;Ein Machine-Learning-Ansatz zur Untersuchung von expressiven Leistungsabweichungen bei Konzertgitarre Ausdruck ist der Mehrwert einer musikalischen Darbietung, bei der Abweichungen in Timing, Energie und Artikulation von Musikern eingebracht werden. Es wurden Computermodelle vorgeschlagen, die darauf abzielen, den Ausdrucksgehalt von Musikdarbietungen zu verstehen und zu modellieren, um konkrete Ausdrucksabsichten zu vermitteln. Es wurde jedoch wenig Arbeit geleistet, um die intrinsischen Variationen zu untersuchen, die Musiker möglicherweise einführen, d. In diesem Beitrag stellen wir einen maschinellen Lernansatz vor, um die ausdrucksstarken Variationen zu untersuchen, die neun verschiedene Gitarristen bei der Aufführung desselben Musikstücks einführen, für das keine Aufführungsangaben angegeben sind. Wir untersuchen die Korrelationen der Variationen von Timing und Energie. Wir extrahieren Merkmale aus der Partitur, um Vorhersagemodelle für jeden Musiker zu erhalten, um sie später zwischen ihnen zu validieren. Vorläufige Ergebnisse deuten darauf hin, dass Musiker bei der Anwendung dieser Variationen ähnliche Variationen verwenden, basierend auf Korrelationsmaßen. Auch bei der Kreuzvalidierungsübung werden ähnliche Korrelationsindizes gefunden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-43887-6_48 c96da5eef63086b02038dd9fe27d905a;de;;;7.4.;;;Newton-Bäume In diesem Artikel werden Newton-Bäume vorgestellt, eine Neudefinition von Wahrscheinlichkeitsschätzbäumen (PET), die auf einem stochastischen Verständnis von Entscheidungsbäumen basiert und dem Prinzip der Anziehung folgt (das Verhältnis von Masse und Entfernung durch das Inverse-Quadrat-Gesetz). Die Struktur, Anwendung und grafische Darstellung von Newton-Bäumen bieten eine Möglichkeit, ihre stochastisch getriebenen Vorhersagen mit der Verständlichkeit des Benutzers kompatibel zu machen, wodurch eine der wünschenswertesten Eigenschaften von Entscheidungsbäumen, die Verständlichkeit, erhalten bleibt. Im Gegensatz zu fast allen existierenden Entscheidungsbaum-Lernmethoden, die je nach Attributdatentyp unterschiedliche Arten von Partitionen verwenden, ist die Konstruktion von Prototypen und die Ableitung von Wahrscheinlichkeiten aus Entfernungen für jeden Datentyp (nominal und numerisch, aber auch strukturiert) identisch. Wir präsentieren eine Möglichkeit, die ursprünglichen stochastischen Wahrscheinlichkeitsschätzbäume mit einem benutzerfreundlichen Gravitationsgleichnis grafisch darzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17432-2_18 4da7b7bd47450d35f3be5d95fbff2600;de;;;7.4.;;;SPIRIT-ML: Eine Machine-Learning-Plattform zur Ableitung von Wissen aus biomedizinischen Datensätzen SPIRIT-ML (Software Platform for Integrated Research Information and Transformation - Machine Learning) ist eine synergistische und flexible Komponente des maschinellen Lernens der integrierten Forschungsinformatikplattform SPIRIT, die bei City of Hope entwickelt wird. SPIRIT-ML wird entwickelt, um verschiedene Datenanalyseprobleme in biomedizinischen und klinischen Datensätzen zu analysieren und die translationale Forschung voranzutreiben. Eine interaktive Schnittstelle, ein breites Spektrum an datengetriebenen Lernmodellen, mehrere Kreuzvalidierungstechniken, Visualisierungsmethoden und Berichtsmetriken bilden die Plattform.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-21843-4_19 7cc0e0c05a55dd3971e7d68a25e3610f;de;;;7.4.;;;Eine evolutionäre Algorithmus-basierte Optimierung von neuronalen Ensemble-Klassifikatoren Ensemble-Klassifizierer sind sehr nützliche Werkzeuge und können in vielen realen Anwendungen verwendet werden, um unsichtbare Datenmuster in eine der bekannten oder unbekannten Klassen zu klassifizieren. Es gibt jedoch viele Probleme, denen sich Ensemble-Klassifizierer gegenübersehen, wie das Auffinden einer geeigneten Anzahl von Schichten, Clustern oder sogar Basis-Klassifizierern, die die beste Diversität und Genauigkeit erzeugen können. In diesem Bereich wurde nur sehr wenig geforscht und es fehlt eine automatische Methode, um diese Parameter zu finden. Dieses Papier präsentiert einen auf einem evolutionären Algorithmus basierenden Ansatz, um die optimale Anzahl von Schichten und Clustern in hierarchischen neuronalen Ensemble-Klassifikatoren zu identifizieren. Der vorgeschlagene Ansatz wurde anhand von UCI-Benchmark-Datensätzen für maschinelles Lernen evaluiert. Eine vergleichende Analyse der Ergebnisse unter Verwendung des vorgeschlagenen Ansatzes und kürzlich veröffentlichter Ansätze in der Literatur wird in diesem Beitrag vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24965-5_32 81968e644ff032998a0ecf11d8256f5f;de;;;7.4.;;;Ein inkrementeller Algorithmus über die auf Affinitätsregeln basierende transduktive Lernmaschine für halbüberwachte Probleme Eines der zentralen Probleme beim maschinellen Lernen besteht darin, unmarkierte und markierte Daten effektiv zu kombinieren, um auf die Labels von unmarkierten zu schließen. In den letzten Jahren besteht ein wachsendes Interesse an der Transduktionsmethode. In diesem Artikel werden die transduktiven Lernmaschinen basierend auf einer sogenannten Affinitätsregel beschrieben, die sich aus der intuitiven Tatsache ergibt, dass, wenn zwei Objekte im Eingaberaum nahe sind, ihre Ausgaben auch nahe sein sollten, um die Lösung des halbüberwachten Lernens zu erhalten Problem. Durch Verwenden der analytischen Lösung für dieses Problem wird ein inkrementeller Lernalgorithmus abgeleitet, der sich an die Online-Datenverarbeitung anpasst.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-23152-8_62 bfc2586b199c654a8009bd1387379c86;de;;;7.4.;;;Evaluierung und Entwicklung von Data-Mining-Tools für die Analyse sozialer Netzwerke In diesem Kapitel werden bestehende Data-Mining-Tools zum Scraping von Daten aus heterogenen sozialen Online-Netzwerken untersucht. Es stellt nicht nur die Komplexität des Scrapings von Daten aus diesen Quellen (die verschiedene Datenformen umfassen) vor, sondern stellt auch die derzeit verfügbaren Tools einschließlich ihrer Stärken und Schwächen vor. Das Kapitel stellt unsere Lösung für das effektive Mining sozialer Online-Netzwerke durch die Entwicklung von VoyeurServer vor, einem von uns entwickelten Tool, das auf dem Open-Source-Framework Web-Harvest aufbaut. Wir haben Details darüber geteilt, wie VoyeurServer entwickelt wurde und wie es funktioniert, damit Data-Mining-Entwickler ihre eigenen maßgeschneiderten Data-Mining-Lösungen entwickeln können, die auf dem Web-Harvest-Framework basieren. Wir schließen das Kapitel mit zukünftigen Richtungen unseres Data-Mining-Projekts ab, damit Entwickler relevante Funktionen in ihre Data-Mining-Anwendungen integrieren können.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-6359-3_10 0c5b9acb058ce6a0f3a8c55bed479885;de;;;7.4.;;;Hypergraph-Modelle und Algorithmen für datenmusterbasiertes Clustering Bei traditionellen Ansätzen zum Clustern von Warenkorbdaten werden die Beziehungen zwischen Transaktionen entsprechend den in diesen Transaktionen vorkommenden Elementen modelliert. Ein einzelnes Element kann jedoch in verschiedenen Kontexten unterschiedliche Beziehungen hervorrufen. Da solche Kontexte durch interessante Muster in den Gesamtdaten erfasst werden könnten, stellen wir jede Transaktion als eine Menge von Mustern dar, indem wir die konventionelle Mustersemantik modifizieren. Durch das Clustern der Muster im Datensatz schließen wir eine Clusterung der so repräsentierten Transaktionen. Dazu schlagen wir ein neuartiges Hypergraph-Modell vor, um die Beziehungen zwischen den Mustern darzustellen. Anstelle eines lokalen Maßes, das nur von gemeinsamen Elementen zwischen Mustern abhängt, schlagen wir ein globales Maß vor, das auf den gemeinsamen Vorkommen dieser Muster in den Gesamtdaten basiert. Der Erfolg existierender Algorithmen auf der Grundlage von Hypergraph-Partitionierung in anderen Domänen hängt von der Knappheit des Hypergraphen und expliziten objektiven Metriken ab. Dazu schlagen wir einen zweiphasigen Clustering-Ansatz für den obigen Hypergraphen vor, der voraussichtlich dicht ist. In der ersten Phase werden die Eckpunkte des Hypergraphen in einem mehrstufigen Algorithmus zusammengeführt, um eine große Anzahl qualitativ hochwertiger Cluster zu erhalten. Hier schlagen wir neue Qualitätsmetriken für die Zusammenführung von Entscheidungen beim Hypergraph-Clustering speziell für diese Domäne vor. Um die Verwendung vorhandener Metriken in der zweiten Phase zu ermöglichen, führen wir ein Vertex-to-Cluster-Affinitätskonzept ein, um eine Methode zum Konstruieren eines spärlichen Hypergraphen basierend auf dem erhaltenen Clustering zu entwickeln. Die von uns durchgeführten Experimente zeigen die Wirksamkeit des vorgeschlagenen Rahmens.;-;-;-;https://link.springer.com/article/10.1023/B%3ADAMI.0000026903.59233.2a 4bbf3e02f5823a68dc6178c73424b8fa;de;;;7.4.;;;Eine Untersuchung neuronaler Einbettungen für die Koreferenzauflösung Die Koreferenzauflösung ist eine wichtige Aufgabe bei der Verarbeitung natürlicher Sprache (NLP) und beinhaltet das Finden aller Phrasen in einem Dokument, die sich auf dieselbe Entität in der realen Welt beziehen, mit der Beantwortung von Anwendungen und der Zusammenfassung von Dokumenten Training neuronaler Einbettungen von Wörtern und Sätzen aus unbeschriftetem Text. Es hat sich gezeigt, dass Worteinbettungen syntaktische und semantische Eigenschaften der Wörter erfassen und wurden beim POS-Tagging und NER-Tagging verwendet, um eine Leistung nach dem neuesten Stand der Technik zu erzielen. Daher besteht der Hauptbeitrag dieses Papiers darin, zu untersuchen, ob neuronale Einbettungen genutzt werden können, um die Herausforderungen zu überwinden, die mit der Knappheit von Datensätzen mit Koreferenzauflösung für Benchmarking verbunden sind. Als vorläufiges Ergebnis zeigen wir, dass neuronale Einbettungen die Leistung eines Koreferenzresolvers im Vergleich zu einer Baseline verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-18111-0_19 7bd19865a2bad2e17942802f2b8ccbf8;de;;;7.4.;;;Die neue KI: Allgemein & Klang & Physikrelevant Die meisten traditionellen Systeme der künstlichen Intelligenz (KI) der letzten 50 Jahre sind entweder sehr begrenzt oder basieren auf Heuristiken oder auf beidem. Das neue Jahrtausend hat jedoch erhebliche Fortschritte auf dem Gebiet der theoretisch optimalen und praktisch durchführbaren Algorithmen für Vorhersage, Suche, induktive Inferenz basierend auf Occams Rasiermesser, Problemlösung, Entscheidungsfindung und Verstärkungslernen in Umgebungen sehr allgemeiner Art gebracht. Da induktive Inferenz das Herzstück aller induktiven Wissenschaften ist, sind einige der Ergebnisse nicht nur für KI und Informatik, sondern auch für die Physik relevant und provozieren nicht-traditionelle Vorhersagen basierend auf Zuses These vom computergenerierten Universum.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68677-4_6 d58121b3c9e5a5c0e21719f3280be676;de;;;7.4.;;;Daten- und wissensgesteuerte Named-Entity-Erkennung für Cybersicherheit Die Named Entity Recognition (NER) für Cybersicherheit zielt darauf ab, Cybersicherheitsbegriffe aus einer Vielzahl heterogener, aus mehreren Quellen stammender Cybersicherheitstexte zu identifizieren und zu klassifizieren. Im Bereich des maschinellen Lernens lernen tiefe neuronale Netze automatisch Textmerkmale aus einer großen Anzahl von Datensätzen, aber dieser datengesteuerten Methode fehlt normalerweise die Fähigkeit, mit seltenen Entitäten umzugehen. Gasmiet al. schlug eine Deep-Learning-Methode zur Erkennung benannter Entitäten im Bereich der Cybersicherheit vor und erzielte gute Ergebnisse mit einem F1-Wert von 82,8%. Es ist jedoch schwierig, seltene Entitäten und komplexe Wörter im Text genau zu identifizieren. Um dieser Herausforderung zu begegnen, schlägt dieses Papier ein neues Modell vor, das datengesteuerte Deep-Learning-Methoden mit wissensgesteuerten Wörterbuchmethoden kombiniert, um Wörterbuchfunktionen zu erstellen, die bei seltenen Entität Anerkennung. Darüber hinaus wird basierend auf dem datengesteuerten Deep-Learning-Modell ein Aufmerksamkeitsmechanismus eingeführt, um die lokalen Merkmale des Textes zu bereichern, den Kontext besser zu modellieren und den Wiedererkennungseffekt komplexer Entitäten zu verbessern. Experimentelle Ergebnisse zeigen, dass unsere Methode besser ist als das Basismodell. Unser Modell ist effektiver bei der Identifizierung von Cybersicherheitseinheiten. Der Precision-, Recall- und F1-Wert erreichte 90,19 %, 86,60 % bzw. 88,36 %.;-;-;-;https://link.springer.com/article/10.1186/s42400-021-00072-y fc282b94f5de35a7e1ae684c40acab23;de;;;7.4.;;;Bayessche Glaubensnetzwerk-Lernalgorithmen zur Modellierung von Kontextbeziehungen in natürlichen Bildern: eine vergleichende Studie Dieses Papier präsentiert eine vergleichende Studie von Bayes'schen Glaubensnetzwerk-Strukturlernalgorithmen mit dem Ziel, einen geeigneten Algorithmus zur Modellierung der kontextuellen Beziehungen zwischen Objekten zu identifizieren, die typischerweise in natürlichen Bildern vorkommen. Vier gängige Strukturlernalgorithmen werden verglichen: zwei bedingungsbasierte Algorithmen (PC vorgeschlagen von Spirtes und Glymour und Fast Incremental Association Markov Blanket vorgeschlagen von Yaramakala und Margaritis), ein Score-basierter Algorithmus (Hill Climbing wie von Daly implementiert) und ein Hybrid Algorithmus (Max-Min Hill Climbing, vorgeschlagen von Tsamardinos et al.). Entgegen der Überzeugung hinsichtlich der Überlegenheit von Constraint-basierten Ansätzen zeigen unsere empirischen Ergebnisse, dass ein Score-basierter Ansatz in Bezug auf Vorhersagekraft und Lernzeit in unserem Kontextdatensatz besser abschneidet. Der Hybridalgorithmus könnte eine ähnliche Vorhersageleistung wie der bewertungsbasierte Ansatz erreichen, erfordert jedoch eine längere Zeit zum Erlernen des gewünschten Netzwerks. Eine weitere interessante Tatsache, die die Studie aufgedeckt hat, ist die Existenz einer starken Übereinstimmung zwischen dem linearen Korrelationsmuster innerhalb des Datensatzes und den in den gelernten Netzwerken gefundenen Kanten.;-;-;-;https://link.springer.com/article/10.1007/s10462-010-9176-8 2fc18471b900d0d9f6b32ac559b8a31f;de;;;7.4.;;;Entwicklung der Methodik der integrierten Bauautomatisierung Aktuelle Forschung in der Bauautomatisierung Fokussiert auf die Automatisierung einzelner Prozesse Anstatt das Problem aus einer hierarchischen Systemsicht anzugehen, behandeln viele untersuchte Systeme die Baustelle als „feindliche“ Umgebung und integrieren viele Sensoren, um Informationen aus dem Gebäude zu extrahieren. Daher kann die Sensor- und Signalverarbeitungstechnik ein limitierender Faktor bei der Konstruktion von Maschinen zur Automatisierung von Bauprozessen sein. Betrachtet man jedoch die Integration und Automatisierung des Bauprozesses aus einer Systemsicht, dann können vorhandene Technologien genutzt werden, um wirtschaftliche Maschinen zu konstruieren, um viele Bauprozesse zu automatisieren und deren Einsatz in die Bauumgebung zu koordinieren und zu integrieren. Eine neue Entwurfsmethodik, die Integrated Construction Automation Methodology (ICAM), wird hier vorgestellt, um ein hohes Maß an Integration und Automatisierung mit vorhandener Technologie zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-7404-6_13 464afe0597f476aec5bd11554e9fbb7d;de;;;7.4.;;;Diagrammklassifizierung Das überwachte Lernen an Graphen ist ein zentrales Thema in der Graphendatenverarbeitung. Bei der Graphklassifikation und -regression gehen wir davon aus, dass die Zielwerte einer bestimmten Anzahl von Graphen oder eines bestimmten Teils eines Graphen als Trainingsdatensatz vorliegen, und unser Ziel ist es, die Zielwerte anderer Graphen bzw Graph. Bei Anwendungen in der Wirkstoffforschung entsprechen beispielsweise ein Graph und sein Zielwert einer chemischen Verbindung und ihrer chemischen Aktivität. In diesem Kapitel besprechen wir die neuesten Methoden der Graphklassifikation. Insbesondere konzentrieren wir uns auf zwei repräsentative Methoden, Graph Kernel und Graph Boosting, und wir stellen andere Methoden in Bezug auf die beiden Methoden vor. Wir beschreiben die Stärken und Schwächen verschiedener Graphklassifikationsmethoden und die jüngsten Bemühungen, die Herausforderungen zu bewältigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-6045-0_11 5fa39f4633c99b95e26fb6f2f16f10a7;de;;;7.4.;;;Die potenzielle Entscheidungsbaum-Technik zur Klassifizierung des großen Datensatzes von Schülern Bildung ist eines der wichtigsten Felder in dieser herausfordernden Welt. Die Forscher kommen mit dem neuen Perceptive heraus, bei dem es sich um Lernanalysen handelt, die eine neue Erfindung sind, um Dozenten, Lernenden und Administratoren zu unterstützen. Der Einsatz von Learning Analytics kann das Medium zur Steigerung der Bildungsproduktivität sein, um in Zukunft fähige Führungskräfte hervorzubringen. Machine Learning kommt mit jeder Art von Techniken wie Decision Tree, Support Vector Machine, Naive Bayes und Ensemble Classifiers zum Einsatz. Sowohl Entscheidungsbaum- als auch Ensemble-Klassifikatoren werden jedoch als die besten potenziellen maschinellen Lerntechniken ausgewählt, um mit der großen Schülerdatenbank fertig zu werden. Der Boosted Tree of Ensemble Classifiers hat es geschafft, eine Genauigkeit von 99,6% der Trainingsdaten von 378.005 Schülern in Bezug auf die virtuelle Lernumgebung (VLE) zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4069-5_47 b57a21a7d4a461b23303ff95c3a8d348;de;;;7.4.;;;Maschinelles Lernen (ML)-unterstützte Optimierungsdotierung von KI in MAPbI Perowskit-Solarzellen haben im Bereich der Photovoltaik (PV) aufgrund ihrer schnell steigenden Effizienz große Aufmerksamkeit auf sich gezogen. In letzter Zeit sind Additive für die Herstellung hocheffizienter Perowskit-Solarzellen (PSCs) notwendig geworden. Außerdem ist die Dotierung mit Alkalimetallen ein wirksames Verfahren zur Verringerung der Defektdichte im Perowskitfilm. Das traditionelle Trial-and-Error-Verfahren zum Finden der optimalen Dotierungskonzentration ist jedoch zeitaufwändig und erfordert eine erhebliche Menge an Rohstoffen. In dieser Arbeit haben wir einen maschinellen Lernansatz (ML) angewendet, um die Optimierung der KI-Dotierung in MAPbI . zu erleichtern;-;-;-;https://link.springer.com/article/10.1007/s12598-020-01579-y 98b2e02b06b71af92a0fba4390387a54;de;;;7.4.;;;Kommentar zur Anwendung von Data Mining bei der Bewertung der Fruchtqualität Um eine Referenz für die Fruchtqualitätsforschung und die selektive Fruchtzüchtung zu bieten, werden in diesem Papier Data-Mining-Methoden der Fruchtqualität in den letzten Jahren, einschließlich der umfassenden Fuzzy-Bewertungsmethode, der analytischen Hierarchieprozessmethode, der grauen Korrelationsgradanalysemethode usw wurden hinsichtlich der Eigenschaften von Vor- und Nachteilen verglichen. Weiterhin wurden die wichtigsten Bewertungsfaktoren der gemeinsamen Früchte zusammengefasst. Abschließend wurde die Forschung zu Data-Mining-Methoden der Fruchtqualität zusammengefasst und prospektiert. Diese Überprüfung zeigte, dass Data-Mining-Methoden einen Multi-Index der Fruchtqualität umfassend bewerten könnten, der als Referenz für die schnelle Erkennung der Fruchtqualität und den Anbau der ausgezeichneten Arten dienen wird. Unterdessen wird es eine neue Richtung im Bereich der Fruchtqualitätsforschung geben, indem in naher Zukunft mehr Hauptfaktoren der Fruchtqualität untersucht und die Bewertungsverfahren vereinfacht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48354-2_51 20f1f143c0eac0d582cd1cb9349bb27e;de;;;7.4.;;;Maschinelles Lernen von Bildern von melanozytären Hautläsionen Wir verwenden einige Methoden des maschinellen Lernens, um Klassifikatoren von pigmentierten Hautläsionsbildern zu erstellen. Wir nutzen natürliche Induktionsmethoden basierend auf dem Attributionskalkül (AQ21) und MLP- und SVM-überwachte Methoden, um Muster in den Bildern der melanozytären Hautläsionen zu entdecken. Diese Methodik kann als nicht-invasiver Ansatz zur Früherkennung von Melanomen behandelt werden. Unser Feature-Set besteht aus Wavelet-basierten Multi-Resolution-Filtern der dermatoskopischen Bilder. Unsere Klassifikatoren zeigen eine gute Effizienz und können potenziell wichtige diagnostische Hilfsmittel sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03202-8_12 5bfeefc7ec30b5ed6044ecd0cf290166;de;;;7.4.;;;Inhaltsbasierter Bildabruf mit maschinellem Lernansatz Das schnelle Wachstum der Computertechnologien und das Aufkommen des World Wide Web haben die Menge und die Komplexität multimedialer Informationen erhöht. Ein inhaltsbasiertes Bildabrufsystem (CBIR) wurde als effizientes Bildabrufwerkzeug entwickelt, bei dem der Benutzer seine Anfrage an das System übermitteln kann, damit es das gewünschte Bild des Benutzers aus der Bilddatenbank abrufen kann. Das traditionelle Relevanz-Feedback von CBIR weist jedoch einige Einschränkungen auf, die die Leistung des CBIR-Systems verringern, wie z. Daher haben wir in dieser Studie eine verbesserte Relevanz-Feedback-Methode vorgeschlagen, um die Benutzeranfrage basierend auf der repräsentativen Bildauswahl und dem Gewichtungsranking der abgerufenen Bilder zu unterstützen. Die Support Vector Machine (SVM) wurde verwendet, um den Lernprozess zu unterstützen, um die semantische Lücke zwischen dem Benutzer und dem CBIR-System zu verringern. Aus diesen Experimenten hat die vorgeschlagene Lernmethode den Benutzern ermöglicht, ihre Suchergebnisse basierend auf der Leistung des CBIR-Systems zu verbessern. Darüber hinaus haben die Experimente auch bewiesen, dass durch die Lösung des Problems des Ungleichgewichtstrainingssatzes die Leistung von CBIR verbessert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-02931-3_21 e4dad227fbc7d9e2421d13ae1dca2e9e;de;;;7.4.;;;Die Klassifizierung von Skateboard-Trickmanövern durch die Integration von Bildverarbeitungstechniken und maschinellem Lernen Meistens wird die Bewertung der Ausführung von Skateboard-Tricks intuitiv nach der Beobachtung der Richter beurteilt und ist daher anfällig für Befangenheit, wenn nicht sogar ungenaue Beurteilung. Daher ist es von entscheidender Bedeutung, den Maßstab für die Analyse der Erfolgsrate von Skateboardtricks für Turniere auf hohem Niveau zu unterstreichen. Die gängigen Tricks im Skateboarding wie Kickflip, Ollie, Nollie, Pop Shove-it und Frontside 180 werden in dieser Studie durch die Synthese von Bildverarbeitungs- und Machine-Learning-Klassifikatoren untersucht. Das Subjekt, das für die Ausführung der Tricks verwendet wird, ist ein männlicher Amateur-Skateboarder im Alter von 23 Jahren mit ±5,0 Jahren Erfahrung mit dem ORY-Skateboard. Jeder Trick wird nach fünf erfolgreichen Landungen gesammelt und die Kamera wird 1,26 m vom Motiv entfernt auf einem flachen, zementierten Boden platziert. Die aus jedem Trick extrahierten Merkmale wurden mit dem Bildeinbetter Inception-V3 entwickelt. Mehrere Klassifikationsmodelle wurden bewertet, nämlich Support Vector Machine (SVM), k-Nearest Neighbor (kNN), Logistic Regression (LR), Random Forest (RF) und Naive Bayes (NB) auf ihre Fähigkeit, die Tricks basierend auf den konstruierte Funktionen. Aus der Voruntersuchung ergab sich, dass das SVM-Modell mit einem Wert von 99,5 % die höchste Klassifikationsgenauigkeit erreicht, gefolgt von LR, k-NN, RF und NB mit 98,6 %, 95,8 %, 82,4 % bzw. 78,7 %. Daraus könnte gefolgert werden, dass das vorgeschlagene Verfahren entscheidend die Klassifizierung von Skateboardtricks effizient ermöglicht und sicherlich eine objektivere Beurteilung bei der Vergabe der Punktzahl der Tricks liefern würde.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2317-5_29 f5ed2d57f8f051534c4652c61d66e495;de;;;7.4.;;;Vorhersage von Todesfällen bei Neugeborenen auf neonatologischen Intensivstationen: Entwicklung und Validierung von Modellen für maschinelles Lernen Die Vorhersage von neonatalen Todesfällen auf neonatologischen Intensivstationen ist wichtig für das Benchmarking und die Bewertung von Gesundheitsleistungen auf neonatologischen Intensivstationen. Die Anwendung maschineller Lerntechniken kann die Fähigkeit von Ärzten verbessern, den Tod von Neugeborenen vorherzusagen. Das Ziel dieser Studie war es, ein Modell zur Vorhersage des neonatalen Sterberisikos unter Verwendung von Techniken des maschinellen Lernens vorzustellen.;-;-;-;https://link.springer.com/article/10.1186/s12911-021-01497-8 c48d0c479821e8c8b8ba674172271895;de;;;7.4.;;;Über menschenähnliche Leistung Künstliche Intelligenz – eine Demonstration mit einem Atari-Spiel Trotz der Fortschritte in der KI, insbesondere beim erfolgreichen Einsatz von Deep Learning für viele nützliche Aufgaben, benötigen die beteiligten Systeme typischerweise eine Vielzahl von Trainingsinstanzen und damit eine lange Trainingszeit. Infolgedessen sind diese Systeme nicht in der Lage, sich schnell an sich ändernde Regeln und Einschränkungen in der Umgebung anzupassen. Dies ist anders als bei Menschen, die normalerweise mit nur einer Handvoll Erfahrungen lernen können. Dies behindert den Einsatz beispielsweise eines adaptiven Roboters, der in der sich ständig ändernden Umgebung eines Hauses, Büros, einer Fabrik oder eines Katastrophengebiets schnell lernen und handeln kann. Daher ist es für eine KI oder ein Robotersystem notwendig, die menschliche Leistung nicht nur in Bezug auf das „Level“ oder die „Punktzahl“ (zB Erfolgsquote bei der Klassifizierung, Punktzahl beim Atari-Spielen usw.) das;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-24265-7_3 e2a81a709265a7658ca3a6b7bff27da5;de;;;7.4.;;;Einschließen von maschinellem Lernen für die Klassenbeschreibung Ein neues Paradigma des maschinellen Lernens, d. h. das Einschließen von maschinellem Lernen basierend auf regelmäßigen geometrischen Formen, wurde vorgeschlagen. Es nahm ein regelmäßiges minimales Volumen an, das geometrische Formen (Kugel, Ellipsoid und Kasten) oder ihre Vereinigungen einschließt und begrenzt, und so weiter, um ein Klassenbeschreibungsmodell zu erhalten und so den menschlichen „Erkennungsprozess“ zu imitieren. Ein auf dem Einklassenbeschreibungsmodell basierender Punkterkennungs- und -zuweisungsalgorithmus wurde vorgestellt, um den menschlichen „Erkennungsprozess“ zu imitieren. Um das Konzept und den Algorithmus zu veranschaulichen, wurde eine Minimum-Volume-Enclosing-Ellipsoid-Strategie (MVEE) für das Einschließen von maschinellem Lernen im Detail untersucht. Aufgrund der wahrscheinlichen Existenz von Null-Eigenwerten im regulären MVEE-Problem wurden ein regularisiertes minimales Volumen einschließendes Ellipsoid-Problem und eine duale Form präsentiert. Zur Lösung des hochdimensionalen ein-Klassen-Beschreibungsproblems wurde die MVEE im Kernel-Defined-Feature-Space vorgestellt. Eine entsprechende duale Form und eine kernisierte Mahalanobis-Distanzformel wurden vorgestellt. Wir haben die Leistung der einschließenden Lernmaschine anhand von Benchmark-Datensätzen untersucht und mit Support Vector Machines (SVM) verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72383-7_50 bd4dbd67a6cfa0c0cf3a78ac28c8edc0;de;;;7.4.;;;Lernen monotone nichtlineare Modelle mit dem Choquet-Integral Das Lernen von prädiktiven Modellen, die Monotonie in den Eingangsgrößen garantieren, hat in den letzten Jahren im maschinellen Lernen zunehmend Beachtung gefunden. Während die Einbindung von Monotonie-Beschränkungen für bestimmte Typen von Modellen ziemlich einfach ist, kann es für andere zu einem komplizierteren Problem werden. Tendenziell nimmt die Schwierigkeit, Monotonie sicherzustellen, mit der Flexibilität oder beispielsweise Nichtlinearität eines Modells zu. In diesem Papier befürworten wir das sogenannte Choquet-Integral als Werkzeug zum Erlernen monotoner nichtlinearer Modelle. Während das Choquet-Integral als flexibler Aggregationsoperator in verschiedenen Bereichen wie der Entscheidungsfindung nach mehreren Kriterien weit verbreitet ist, ist es im maschinellen Lernen bisher viel weniger bekannt. Neben der mathematisch fundierten und eleganten Kombination von Monotonie und Flexibilität verfügt das Choquet-Integral über weitere Features, die es aus Sicht des maschinellen Lernens attraktiv machen. Insbesondere bietet es Maßnahmen zur Quantifizierung der Bedeutung einzelner Prädiktorvariablen und der Interaktion zwischen Variablengruppen. Als konkrete Anwendung des Choquet-Integrals schlagen wir eine Verallgemeinerung der logistischen Regression vor. Die Grundidee unseres als choquistische Regression bezeichneten Ansatzes besteht darin, die lineare Funktion von Prädiktorvariablen, die üblicherweise in der logistischen Regression verwendet wird, um die logarithmischen Odds der positiven Klasse zu modellieren, durch das Choquet-Integral zu ersetzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23808-6_27 4f0eb53baba0aeeb46a0e8a3f1a17927;de;;;7.4.;;;Anwendung von Data Mining auf die Datenanalyse in der Fertigung Bei der Analyse von Daten aus fortschrittlichen Fertigungsprozessen ist es wichtig, verschiedene Arten von Daten wie numerische, symbolische und Zeitreihendaten zu integrieren, jedoch ist das durch die Integration erzeugte Datenvolumen so groß, dass Ingenieure nicht in der Lage sind, alle Daten zu untersuchen . Data Mining ist eine Methode zum Extrahieren von Informationen aus großen Datenbanken, die bei der Analyse integrierter Daten aus fortschrittlichen Fertigungsprozessen helfen kann. Wir haben eine Methode zur Datenvernichtung zur Analyse von Fertigungsdaten entwickelt, die aus drei Schritten besteht – Merkmalsextraktion, kombinatorische Suche und Präsentation. Wir haben die Methode auf die LSI-Fehleranalyse angewendet und festgestellt, dass Data Mining nützlich ist, um Ingenieuren anzuzeigen, worauf sie ihre Aufmerksamkeit bei der Fehlersuche richten müssen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35569-6_40 02a3a6b626bdce437253849c8dc3a91d;de;;;7.4.;;;Data Mining zur Bedeutung der TCM-Verordnung für pharmakodynamische Wirkungsindizes basierend auf ANN Die Verschreibung der Traditionellen Chinesischen Medizin (TCM) umfasst Königsdroge, Ministerialdroge, Hilfsdroge, Opferdroge. Die Informationen können sich in der Bedeutung der Verschreibung widerspiegeln basierend auf der Methode der künstlichen neuronalen Netze. Ziel ist es, die Bedeutung des Gegen Qinlian Dekokts (Radix Puerariae,Radix Scutellariae,Rhizoma Coptidis, Glycyrrhiza uralensis) für die pharmakodynamischen Wirkungsindizes (HbA1c, CHOL, TG, XHDL, LD, INS) zu analysieren. , die Methode besteht darin, künstliche neuronale Netze zu verwenden, das Ergebnis zeigt an, dass die Methode die unterschiedliche Bedeutung nach verschiedenen pharmakodynamischen Effektindizes abbauen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21765-4_97 6139e34c3d6f16825dc4ed472e552379;de;;;7.4.;;;Maschinelles Lernen mit bekannter Eingabedaten-Unsicherheitsmessung Die Unsicherheit der Eingabedaten ist ein häufiges Problem beim maschinellen Lernen. In diesem Papier zeigen wir, wie man Wissen über Unsicherheitsmaße in Bezug auf bestimmte Punkte im Trainingssatz integrieren kann. Dies kann die Genauigkeit der Modelle erhöhen und die Überanpassung reduzieren. Wir zeigen einen Ansatz basierend auf dem klassischen Training mit Jitter für künstliche neuronale Netze (ANNs). Wir beweisen, dass unsere Methode, die auf eine breite Klasse von Modellen angewendet werden kann, ungefähr dem generalisierten Tikhonov-Regularisierungslernen entspricht. Wir vergleichen unsere Ergebnisse auch mit einigen alternativen Methoden. Am Ende besprechen wir weitere Perspektiven und Anwendungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40925-7_35 221030fa8eaba8200741373ea847e59e;de;;;7.4.;;;EfficientPose: Effiziente Schätzung der menschlichen Pose mit neuronaler Architektursuche Die Schätzung der menschlichen Pose aus Bild und Video ist eine Schlüsselaufgabe in vielen Multimediaanwendungen. Bisherige Methoden erzielen eine hohe Leistung, berücksichtigen jedoch selten die Effizienz, was die Implementierung der Netzwerke auf leichtgewichtigen Geräten erschwert. Echtzeit-Multimediaanwendungen verlangen heute nach effizienteren Modellen für eine bessere Interaktion. Darüber hinaus verwenden die meisten tiefen neuronalen Netze für die Posenschätzung Netze, die für die Bildklassifizierung entworfen wurden, direkt als Rückgrat wieder, die nicht für die Posenschätzungsaufgabe optimiert sind. In diesem Papier schlagen wir einen effizienten Rahmen für die Schätzung der menschlichen Pose mit zwei Teilen vor, einem effizienten Rückgrat und einem effizienten Kopf. Durch die Implementierung einer differenzierbaren neuronalen Architektursuchmethode passen wir das Backbone-Netzwerkdesign für die Posenschätzung an und reduzieren die Rechenkosten bei vernachlässigbarer Genauigkeitsverschlechterung. Für den effizienten Kopf reduzieren wir die transponierten Faltungen und schlagen ein Korrekturmodul für räumliche Informationen vor, um die Leistung der endgültigen Vorhersage zu fördern. In Experimenten evaluieren wir unsere Netzwerke auf den MPII- und COCO-Datensätzen. Unser kleinstes Modell benötigt nur 0,65 GFLOPs mit 88,1% PCKh@0,5 auf MPII und unser großes Modell benötigt nur 2 GFLOPs, während seine Genauigkeit mit dem hochmodernen großen Modell HRNet, das 9,5 GFLOPs benötigt, mithalten kann.;-;-;-;https://link.springer.com/article/10.1007/s41095-021-0214-z 33acae2cbf4f46b62b6767d332606e37;de;;;7.4.;;;AngryBERT: Gemeinsames Lernziel und Emotion zur Erkennung von Hassreden Die automatisierte Erkennung von Hassreden in sozialen Medien ist eine herausfordernde Aufgabe, die in letzter Zeit in der Data-Mining- und Natural Language Processing-Community stark an Bedeutung gewonnen hat. Die meisten der bestehenden Verfahren verwenden jedoch einen überwachten Ansatz, der stark von den kommentierten Hassreden-Datensätzen abhing, die unausgewogen sind und oft keine Trainingsmuster für hasserfüllte Inhalte aufweisen. Dieses Papier befasst sich mit den Forschungslücken, indem es ein neuartiges lernbasiertes Multitask-Modell vorschlägt,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-75762-5_55 9c854ea11bf494ef0b70bfaf167c8cb4;de;;;7.4.;;;Herzkrankheitsvorhersagesystem mit Random Forest Der Anwendungsbereich von Algorithmen des maschinellen Lernens nimmt bei der Vorhersage verschiedener Krankheiten zu. Die Natur des maschinellen Lernalgorithmus, wie ein Mensch zu denken, macht dieses Konzept so wichtig und vielseitig. Hier wird die Herausforderung angenommen, die Genauigkeit der Vorhersage von Herzerkrankungen zu erhöhen. Die nichtlineare Tendenz des Cleveland-Herzkrankheitsdatensatzes wurde für die Anwendung von Random Forest genutzt, um eine Genauigkeit von 85,81 % zu erreichen. Die Methode zur Vorhersage von Herzkrankheiten mithilfe von Random Forest mit gut eingestellten Attributen bringt uns mehr Genauigkeit. Random Forest wurde erstellt, indem 303 Dateninstanzen trainiert wurden, und die Authentifizierung der Genauigkeit erfolgte mithilfe einer 10-fachen Kreuzvalidierung. Durch den vorgeschlagenen Algorithmus zur Vorhersage von Herzerkrankungen könnten in Zukunft viele Leben gerettet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-5427-3_63 a1e3a2dee97f807321ebb90bc4b1f234;de;;;7.4.;;;Data Mining mit Enhanced Neural Networks-CMMSE Dieses Papier stellt eine neue Methode vor, um Wissen aus bestehenden Datensätzen zu extrahieren, d. Die Methode wurde auf ein neuronales Netz mit einer speziellen Architektur namens Enhanced Neural Network (;-;-;-;https://link.springer.com/article/10.1007/s10852-013-9216-x 8a86f4758b3ab3df0cf8c30540878ce6;de;;;7.4.;;;Data-Mining-Methoden im Bankenbereich: Eine systematische Literaturübersicht Der Einsatz von Data-Mining- und Advanced Analytics-Methoden und -Techniken in der Forschung und im Geschäftsumfeld hat in den letzten zehn Jahren exponentiell zugenommen. Die Entwicklung und Umsetzung komplexer Big-Data- und Advanced-Analytics-Projekte erfordert klar definierte Methoden und Prozesse. Es bleibt jedoch unklar, zu welchen Zwecken und wie Data-Mining-Methoden in der Praxis und in verschiedenen Branchen verwendet werden. Dieses Papier befasst sich mit dem Bedarf und bietet eine Übersicht im Bereich Data Mining und fortschrittliche Datenanalysemethoden, wobei der Schwerpunkt auf ihrer Anwendung im Bankenbereich liegt. Mittels systematischer Literaturrecherche haben wir 102 Artikel identifiziert und im Hinblick auf drei Forschungsfragen analysiert: Für welche Zwecke werden Data-Mining-Methoden im Bankenbereich eingesetzt? Wie werden sie angewendet („as-is“ vs. angepasst)? Und was sind die Ziele von Anpassungen? Wir haben festgestellt, dass ein vorherrschendes Muster in der Bankenbranche darin besteht, Data-Mining-Methoden „wie sie sind“ zu verwenden, um Geschäftsprobleme im Bereich Customer Relationship Management und Risikomanagement anzugehen. Wir haben jedoch auch verschiedene Anpassungen von Data-Mining-Methoden im Bankenbereich identifiziert und festgestellt, dass die Zahl der Anpassungen stetig wächst. Die wichtigsten Anpassungsszenarien umfassen technologiezentrierte Aspekte (Skalierbarkeit), geschäftszentrierte Aspekte (Umsetzbarkeit) und menschenzentrierte Aspekte (Abschwächung diskriminierender Effekte).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-31143-8_8 be05a663414bd2ea3fea7b4bc292fc64;de;;;7.4.;;;Vorhersage der Xanthinoxidase-hemmenden Aktivität von Selleriesamenextrakt aus dem ultraviolett-sichtbaren Spektrum unter Verwendung von maschinellen Lernalgorithmen Die Xanthinoxidase-hemmende Aktivität von Selleriesamenextrakt wurde aus dem UV-Vis-Spektrum unter Verwendung von fünf verschiedenen Algorithmen vorhergesagt: multiple lineare Regression, künstliches neuronales Netzwerk, Support-Vektor-Regression, Random Forest und partielle lineare Regression. Die optimalen Parameter jedes durch diese Methoden erstellten Modells wurden sorgfältig untersucht und das beste Modell ausgewählt. Die Ergebnisse zeigten, dass das durch partielle lineare Regression erhaltene Modell mit dem Bestimmtheitsmaß R . die beste Qualität aufwies;-;-;-;https://link.springer.com/article/10.1007/s42452-020-03542-z b9d02f4155dedf6ebdbb0cecb9991419;de;;;7.4.;;;Studie zur Bildklassifizierung mit neuronalen Faltungsnetzen Klassifizierung ist eines der beliebtesten Themen in der Bildverarbeitung. In diesem Papier wird der spezifische Prozess des Convolutional Neural Networks beim Deep Learning vorgestellt. Hier baut ein typisches neuronales Faltungsnetzwerk auf, dessen Parameter und der Verbindungsmodus eingestellt werden können. Außerdem präsentieren wir unsere vorläufigen Klassifikationsergebnisse. Durch die Experimente eines Convolutional Neural Network auf der Mixed National Institute of Standards and Technology Datenbank (MNIST) haben wir die Klassifikationsergebnisse verglichen und die experimentellen Ergebnisse mit den Parametern analysiert. Die experimentellen Ergebnisse zeigen, dass der Bildklassifizierungseffekt durch das neuronale Faltungsnetzwerk sehr gut genutzt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23989-7_32 493c382aeaec5c379d5f51ca86b156fa;de;;;7.4.;;;Dimensionsreduktion und Fehlererkennung von Bandoberflächenfehlern basierend auf intelligenter Informationsverarbeitung Merkmalsextraktion und Klassifizierungserkennung sind für die Oberflächenfehlererkennung von Bandstahl sehr wichtig. Herkömmliche Methoden der Merkmalsextraktion und Fehlererkennung können sowohl die Erkennungsgenauigkeit als auch die Laufzeit nicht berücksichtigen. Um die beiden oben genannten Probleme zu lösen, wird in dieser Arbeit ein neuartiges Merkmalsextraktions- und -erkennungsverfahren vorgeschlagen. Einerseits werden eine semi-überwachte Hauptkomponentenanalyse und ein lokalitätserhaltender Projektions-Mannigfaltigkeits-Lernalgorithmus vorgeschlagen, um die Merkmalsdimension zu reduzieren. Andererseits wird in diesem Beitrag der Klassifikationsalgorithmus PSO-SOCP-MKRVM (Particle Swarm Optimization – Cone Programming zweiter Ordnung – Multi-Kernel Relevanz Vector Machine) vorgeschlagen, der zur Verbesserung der Effizienz und Genauigkeit verwendet wird. Die experimentellen Ergebnisse zeigen, dass das neuartige Erkennungsverfahren nicht nur die Erkennungsgenauigkeit verbessern kann, sondern auch die Echtzeitanforderungen der Online-Erkennung erfüllt.;-;-;-;https://link.springer.com/article/10.1007/s13369-017-2825-3 f9e2b1c78cecfb70b50c9f4fbe935775;de;;;7.4.;;;Ensemble Learning of Economic Taxonomy Relations from Modern Greek Corpora In diesem Beitrag wird die Verwendung von Ensemble-Lernen zur Identifizierung taxonomischer Beziehungen zwischen neugriechischen Wirtschaftsbegriffen vorgeschlagen. Im Gegensatz zu früheren Ansätzen, abgesehen von;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-77745-0_22 2b42c95b417890bb23a93c6685f9f59e;de;;;7.4.;;;Studieren Sie den Quantentransportprozess: Maschinelles Lernen simuliert die quantenbedingte Mastergleichung Der Quantentransport ist ein bedeutendes Phänomen im mesoskopischen System, das in den letzten Jahren umfassend untersucht wurde. In physikalischen Experimenten kann das Fluktuationsrauschen die mikroskopischen Eigenschaften des Quantentransportsystems besser widerspiegeln als der Transportstrom. Theoretisch ist die quantenkonditionale Mastergleichung (QCME) eine sehr effektive Methode zur Untersuchung des Quantentransportprozesses von Ladungs-Qubits. Aber die QCME ist ein unendlich rekursives Differentialgleichungssystem, das theoretisch schwer zu lösen ist. Wir versuchen also, dieses Problem zu lösen, indem wir die Anforderungen der Lösung und einige Vorteile der maschinellen Lernalgorithmen kombinieren. Zuerst wurde das Berechnungsdiagramm von QCME und dem rekurrenten neuronalen Netz (RNN) verglichen und die Beziehung zwischen ihnen gefunden. Long Short-Term Memory (LSTM) hat als typisches Netzwerk von RNN große Vorteile bei der Verarbeitung von Zeitreihendaten. Zweitens, das Verhalten von Parameterübergängen von der Zeit;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-78609-0_12 4b5adfaca17d3fa7e3fce833ab91c36d;de;;;7.4.;;;Eine Ensemble-Methode zur Online-Radikalisierung und Hassredenerkennung, unterstützt durch Sentic Computing Das dramatische Wachstum des Webs hat Forscher dazu motiviert, Wissen aus riesigen Repositories zu extrahieren und das Wissen in unzähligen Anwendungen zu nutzen. In dieser Studie konzentrieren wir uns auf die Verarbeitung natürlicher Sprache (NLP) und konkreter auf das aufstrebende Feld des Affektiven Computings, um die Automatisierung des Verstehens menschlicher Emotionen aus Texten zu untersuchen. Dieses Papier setzt frühere Bemühungen fort, affektive Techniken in verschiedenen Bereichen einzusetzen und anzupassen, um neue Erkenntnisse zu gewinnen. Dieses Papier schlägt zwei neuartige Methoden zur Merkmalsextraktion vor, die die früheren Sentic-Computing-Ressourcen AffectiveSpace und SenticNet verwenden. Diese Methoden sind effiziente Ansätze zum Extrahieren von affektbewussten Repräsentationen aus Text. Darüber hinaus stellt dieses Papier ein Machine-Learning-Framework vor, das ein Ensemble verschiedener Funktionen verwendet, um die Gesamtklassifikationsleistung zu verbessern. Im Anschluss an die Beschreibung dieses Ansatzes untersuchen wir auch die Auswirkungen bekannter Merkmalsextraktionsverfahren wie TF-IDF und SIMilarity-based Sentiment ProjectiON (SIMON). Wir führen eine gründliche Bewertung der vorgeschlagenen Funktionen in fünf verschiedenen Datensätzen durch, die Aufgaben zur Erkennung von Radikalisierung und Hassrede abdecken. Um die verschiedenen Ansätze fair zu vergleichen, haben wir einen statistischen Test durchgeführt, der die untersuchten Methoden einordnet. Die erhaltenen Ergebnisse zeigen, dass die Kombination von affektbewussten Merkmalen mit den untersuchten Textdarstellungen die Leistung effektiv verbessert. Wir schlagen auch ein Kriterium vor, das sowohl die Klassifikationsleistung als auch die Rechenkomplexität berücksichtigt, um zwischen den verschiedenen Methoden auszuwählen.;-;-;-;https://link.springer.com/article/10.1007/s12559-021-09845-6 b46abdd004641d35aaada7046415e325;de;;;7.4.;;;Eine markenlose Tracking-Methode zur Strahlentherapie von Lebertumoren durch Zwerchfelldisparitätsanalyse Teil 1: Simulationsstudie mit maschinellem Lernen durch künstliches neuronales Netzwerk Die große respiratorische Bewegung der Lebertumoren kann die Behandlungsplanung und -abgabe in vielerlei Hinsicht beeinflussen. Als Ergebnis sind Bewegungsmanagementtechniken notwendig, um diese Effekte zu mildern. Ein wirksamer Ansatz zur Verringerung der Auswirkungen der Atembewegung von Lebertumoren ist die Echtzeitverfolgung des Tumors. Die Cyberknife-Behandlungsmodalität verwendet eine Kombination aus kV-Röntgenbildern, LED-Markern, einer optischen Kamera und chirurgisch implantierten Bezugsmarkern, um Lebertumore zu verfolgen. Die Anwendung einer invasiven Methode zur Implantation von Passermarken kann jedoch zu Komplikationen führen. Wir schlagen eine Tracking-Methode vor, die keine Referenzmarker für Lebertumore erfordert, indem wir die projizierte Lage des Zwerchfells verwenden, um die 3D-Lage des Lebertumors zu identifizieren. Ziel dieser Simulationsstudie ist es, unter Verwendung des 4D Extended Cardiac-Torso (XCAT)-Phantoms die Machbarkeit der Lokalisierung von Lebertumoren durch die Verfolgung der Zwerchfell-Lungen-Grenze zu untersuchen.;-;-;-;https://link.springer.com/article/10.1007/s13566-018-0358-3 063d7fc68d5175751f25bf83daeb1c94;de;;;7.4.;;;Messen Sie die Transformer-Semantik für Bayes'sches maschinelles Lernen Der Bayessche Ansatz für maschinelles Lernen läuft darauf hinaus, nachträgliche Verteilungen von Zufallsvariablen aus einem Wahrscheinlichkeitsmodell der Beziehung der Variablen (d. Beim maschinellen Lernen gibt es einen Trend, Bayes'sche Modelle als probabilistische Programme auszudrücken. Als Grundlage für diese Art der Programmierung schlagen wir einen Kernfunktionalkalkül mit Primitiven zum Abtasten von Prior-Verteilungen und Beobachten von Variablen vor. Wir definieren Kombinatoren für Maßtransformatoren, basierend auf Theoremen der Maßtheorie, und verwenden diese, um unserem Kernkalkül eine strenge Semantik zu geben. Zu den ursprünglichen Merkmalen unserer Semantik gehört die Unterstützung von diskreten, kontinuierlichen und hybriden Maßen und insbesondere von Beobachtungen von Ereignissen mit Nullwahrscheinlichkeit. Wir kompilieren unsere Kernsprache zu einer kleinen imperativen Sprache, die eine einfache Semantik über Faktorgraphen hat, Datenstrukturen, die viele effiziente Inferenzalgorithmen ermöglichen. Wir verwenden eine vorhandene Inferenz-Engine für eine effiziente approximative Inferenz von posterioren Randverteilungen und verarbeiten Tausende von Beobachtungen pro Sekunde für große Instanzen realistischer Modelle.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19718-5_5 ef5d9d9c675e49011f73665e5499da9c;de;;;7.4.;;;Lernen, Marathi-Fragen zu klassifizieren und den Antworttyp mit maschinellen Lerntechniken zu identifizieren Eines der aufstrebenden Gebiete der künstlichen Intelligenz ist das Question Answering (QA). QA ist eine Art der Informationsabfrage, bei der eine Reihe von Dokumenten bereitgestellt wird und ein QA-System versucht, in natürlicher Sprache nach der richtigen Antwort auf die gestellte Frage zu suchen. Die Fragenklassifizierung (QC), die Teil des QS-Systems ist, hilft bei der Kategorisierung jeder Frage. In QC wird der Entitätstyp des Antwortsatzes für eine gegebene Frage in natürlicher Sprache vorhergesagt. QC ist ein sehr wichtiger Schritt im QA-System, da es hilft, die wichtige Entscheidung zu treffen. QC hilft beispielsweise, die möglichen Antwortoptionen zu reduzieren, und somit sind die Antworten zu berücksichtigen, die der Frageklasse entsprechen. Diese Forschung ist der erste Schritt zur Entwicklung eines QC-Systems für das Englisch-Marathi-QA-System. Dieses System analysiert die Frage des Benutzers und leitet den erwarteten Antworttyp (AType) ab, für den ein Datensatz von 1000 Fragen von Kaun Banega Crorepati (KBC) verschrottet und manuell in Marathi übersetzt wurde. Derzeit beträgt das Ergebnis für den Translationsansatz für die grobkörnige Klasse 73,5 % und die feinkörnige Klasse 47,5 % und für den direkten Ansatz 56,5 bzw. Es werden Experimente durchgeführt, um die Ergebnisse zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8569-7_4 a3d3ccfe0fb7b93bde3324be6e4f8f31;de;;;7.4.;;;Agentenbasierte Identifizierung von Videoinhalten und Data Mining mit wasserzeichenbasierter Filterung In diesem Kapitel wird das agentenbasierte Schema zur Identifizierung von Videoinhalten beschrieben, das eine wasserzeichenbasierte Filtertechnik verwendet. Um zu verhindern, dass ein Benutzer illegale Videoinhalte in die WEB-Speicher hochlädt, werden zwei Strategien verwendet. Die erste Stufe ist das Hochladen von illegalen Inhalten, einschließlich Informationen zum Urheberrecht als Wasserzeichen, wenn ein Benutzer versucht, den illegalen Videoinhalt hochzuladen. Die zweite Stufe besteht darin, bereits hochgeladene illegale Videoinhalte zu überwachen. Für diese Phase ruft der Überwachungsagent Informationen zum Videoinhalt-Link ab und extrahiert dann das Wasserzeichen aus dem entsprechenden Inhalt mithilfe der Open API. Für zweistufige Videoidentifikationsstrategien werden zwei Arten von Wasserzeichen-Extraktionsschemata verwendet. Die von Agenten gesammelten Daten werden mit der Data-Mining-Methode analysiert und der Berichtsprozess wird durchgeführt. Um die Wirksamkeit des beschriebenen Systems zu zeigen, werden einige experimentelle Bewertungen und Tests durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-0522-2_22 b6e97013724acb783e1e89294881f6dc;de;;;7.4.;;;Umfrage zu Data Science mit populationsbasierten Algorithmen In diesem Beitrag wird die Beziehung zwischen Data Science und populationsbasierten Algorithmen diskutiert, zu denen Schwarmintelligenz und evolutionäre Algorithmen gehören. Wir haben zwei Kategorien von Literatur überprüft, darunter bevölkerungsbasierte Algorithmen, die Datenanalyseprobleme lösen und Datenanalysemethoden in bevölkerungsbasierten Algorithmen verwenden. Mit der exponentiellen Zunahme von Daten hat die Datenwissenschaft, oder genauer gesagt, die Big-Data-Analyse unter Forschern zunehmend an Aufmerksamkeit gewonnen. Neue und effizientere Algorithmen sollten entwickelt werden, um dieses massive Datenproblem zu bewältigen. Basierend auf der Kombination von populationsbasierten Algorithmen und Data-Mining-Techniken verstehen wir die Erkenntnisse der Datenanalyse besser und entwickeln effizientere Algorithmen, um reale Big-Data-Analyseprobleme zu lösen. Auch die Schwäche und Stärke bevölkerungsbasierter Algorithmen könnte über die Datenanalyse entlang des Optimierungsprozesses analysiert werden, eine entscheidende Einheit bei bevölkerungsbasierten Algorithmen.;-;-;-;https://link.springer.com/article/10.1186/s41044-016-0003-3 0ebe02899f893286edecdeb217ce71b9;de;;;7.4.;;;Anwendung von Data Mining basierend auf künstlicher Immunität im Marketing Angesichts des harten Marktwettbewerbs ist es für das Überleben und die Entwicklung von Unternehmen von entscheidender Bedeutung, eine effektive Marketingstrategie entsprechend der Marktnachfrage schnell umzusetzen. Data Mining kann die latenten vorhersagbaren Informationen aus der großen Datenbank und dem Data Warehouse erkennen und extrahieren. Mit dieser Technologie können Marketingspezialisten potenzielle Assoziationen zwischen den Verkaufsdaten ermitteln, um eine Marktanalyse durchzuführen, eine entsprechende Marketingstrategie zu entwickeln, Kosten zu senken und Gewinne zu steigern. Dieses Papier schlägt einen Algorithmus zum Assoziationsregel-Mining vor, der auf künstlicher Immunität basiert. Die Praxis beweist, dass dieser Algorithmus Robustheit, versteckte Parallelität und Gemeinsamkeit ist. Es kann schnell und effektiv nützliche Assoziationsregeln aus Verkaufsdaten ermitteln und Unternehmen bei der Erstellung einer genauen Marketingstrategie nachdrücklich unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-76312-5_66 c2470efee67d724b9a5da554ddf9da80;de;;;7.4.;;;Experimentelle Studie zur Verbesserung der Skalierbarkeit für Reverse Logistics E-Commerce Re Zu den Methoden zur Verbesserung der Skalierbarkeit bei Online-Auktionen gehören die Begrenzung der Anzahl von Gebotsmöglichkeiten, die Bereitstellung von Preisinformationen für Benutzer und das Empfehlen von Auktionen, die für die Benutzer von Interesse sein könnten. Im Rahmen der Reverse Logistics für Elektronikprodukte haben wir ein experimentelles Prototypen-Auktionssystem aufgebaut. Experimente wurden entwickelt, um die Auswirkungen der Anzahl der Handelsmöglichkeiten und der Menge früherer Preis- und Gebotsinformationen zu testen, die den Benutzern präsentiert wurden. Die Gewinne der Teilnehmer verbesserten sich mit der Anzahl der Handelsmöglichkeiten, zeigten jedoch gemischte Effekte für steigende Preis- und Geldinformationen. Die Induktion von Entscheidungsbäumen für einen Auktions-Recommender wird zusammen mit der Verwendung einer Attributauswahl zur Reduzierung der Größe des Baums veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-0389-7_9 c89d93bbfdb5ed4fe0f58d88a959e096;de;;;7.4.;;;Effiziente Bilddarstellung zur Objekterkennung über Pivot-Auswahl Funktionen auf Patch-Ebene sind unerlässlich, um eine gute Leistung bei Computer-Vision-Aufgaben zu erzielen. Neben bekannten vordefinierten Patch-Level-Deskriptoren wie Scaleinvariant Feature Transformation (SIFT) und Histogram of Oriented Gradient (HOG) bietet die Kernel Descriptor (KD) Methode [1] eine neue Möglichkeit, Features aus einem Match herauszuwachsen -kernel definiert über Bild-Patch-Paare unter Verwendung der Kernel-Hauptkomponentenanalyse (KPCA) und liefert beeindruckende Ergebnisse.;-;-;-;https://link.springer.com/article/10.1007/s11704-015-4182-7 c240fd4d2ef723ad24e2232898d65a58;de;;;7.4.;;;Ein Ansatz des maschinellen Lernens zur Darstellung ähnlicher Geräuschsymptome von Atemwegserkrankungen auf einem Smartphone Die klinische Charakterisierung und Interpretation von Atemgeräuschsymptomen blieb aufgrund der Ähnlichkeiten in den Audioeigenschaften, die sich während der Auskultation in der medizinischen Diagnose manifestieren, eine Herausforderung. Die Fehlinterpretation und Verschmelzung dieser Geräusche in Verbindung mit den Begleiterkrankungen der damit verbundenen Beschwerden – insbesondere belastungsinduzierten Atemwegserkrankungen, führen zu einer Unterdiagnose und Unterbehandlung der Erkrankungen. Obwohl mehrere Studien computergestützte Systeme zur objektiven Klassifizierung und Bewertung dieser Geräusche vorgeschlagen haben, laufen die meisten Algorithmen auf Desktop- und Backend-Systemen. In dieser Studie nutzen wir die verbesserten Rechen- und Speicherfähigkeiten moderner Smartphones, um die Atemgeräuschsymptome mit maschinellen Lernalgorithmen zu unterscheiden, nämlich: Random Forest (RF), Support Vector Machine (SVM) und k-Nearest Neighbor (k-NN). . Die beachtliche Leistung dieser Klassifikatoren auf einem Mobiltelefon zeigt das Smartphone als alternatives Werkzeug zur Erkennung und Unterscheidung von Atemwegssymptomen in Echtzeitszenarien. Darüber hinaus könnten die objektiven klinischen Daten, die durch den maschinellen Lernprozess bereitgestellt werden, Ärzten bei der Untersuchung und Behandlung eines Patienten während der ambulanten Versorgung helfen, wenn spezielle medizinische Geräte möglicherweise nicht ohne weiteres verfügbar sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-11292-9_33 c831154f333d8d8b198c6ca7cc4ec67d;de;;;7.4.;;;Software als Lernen: Qualitätsfaktoren und Lebenszyklus überarbeitet In diesem Papier wird Softwareentwicklung (SD) explizit als Lernprozess verstanden, der viel mehr auf Induktion als auf Deduktion beruht, mit dem Hauptziel, die Entwicklung der Anforderungen vorherzusagen. Konkret haben klassische Verfahren aus der Wissenschaftstheorie und des maschinellen Lernens wie Hypothesengenerierung, -verfeinerung, -bestätigung und -revision ihr Gegenstück im Requirements Engineering, der Programmkonstruktion, der Validierung bzw. der Modifikation im SD. Daher haben wir die Eignung der wichtigsten Paradigmen der Modellierungsauswahl im maschinellen Lernen für die Softwaremodellierung untersucht. Unter dem Begriff des inkrementellen Lernens führen wir einen neuen Faktor ein, die Vorhersagekraft, als die Fähigkeit, zukünftige Änderungen der Spezifikation vorherzusehen und dadurch die Anzahl der Überarbeitungen zu reduzieren. Als Ergebnis werden andere Qualitätsfaktoren überarbeitet. Schließlich wird ein prädiktiver Softwarelebenszyklus als inkrementelle Lernsitzung skizziert, die automatisiert sein kann oder nicht.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-46428-X_11 24eb6e70bf06d8cf14b0b6e3aee7ec31;de;;;7.4.;;;Regularisierte lineare Programme mit mehreren Kriterien für die Klassifizierung Obwohl das mathematische Programm mit mehreren Kriterien (MCMP) als alternatives Klassifizierungsverfahren in verschiedenen realen Data-Mining-Problemen verwendet wurde, ist seine mathematische Struktur der Lösbarkeit immer noch in Frage gestellt. Dieses Papier schlägt ein regularisiertes lineares Programm mit mehreren Kriterien (RMCLP) für zwei Klassen von Klassifikationsproblemen vor. Es fügt zunächst einige Regularisierungsterme in die Zielfunktion des bekannten linearen Programmmodells mit mehreren Kriterien (MCLP) für die mögliche Existenz einer Lösung ein. Anschließend beschreibt die Arbeit den mathematischen Rahmen der Lösbarkeit. Schließlich wird eine Reihe experimenteller Tests durchgeführt, um die Leistung des vorgeschlagenen RMCLP mit den bestehenden Methoden zu veranschaulichen: MCLP, quadratisches Programm mit mehreren Kriterien (MCQP) und Support Vector Machine (SVM). Die Ergebnisse von vier öffentlich zugänglichen Datensätzen und einem realen Kreditdatensatz zeigen alle, dass RMCLP eine wettbewerbsfähige Klassifizierungsmethode ist. Darüber hinaus untersucht dieser Artikel ein ordinales RMCLP (ORMCLP)-Modell für ordinale Mehrgruppenprobleme. Vergleicht man ORMCLP mit traditionellen Methoden wie One-Against-One, One-Against-The Rest bei umfangreichen Kreditkartendatensätzen, zeigen experimentelle Ergebnisse, dass sowohl ORMCLP als auch RMCLP gut abschneiden.;-;-;-;https://link.springer.com/article/10.1007/s11432-009-0126-5 579de39b94557d9a6f217e8eff539dd7;de;;;7.4.;;;Anwenden von Data Mining in der Ergebnisanalyse Data Mining ist eine der wichtigsten Technologien im Data Warehouse und eines der Gebiete mit der schnellsten Entwicklung in der Computerindustrie. Der Skill bringt die Datenbanktechnologie in ein fortgeschritteneres Stadium und bildet schnell einen separaten Bereich. Die Grobmengentheorie und Data-Mining-Techniken werden anhand einer Analyse der bestehenden Problematik an Hochschulen und Universitäten kurz diskutiert. Nehmen wir den College-Studenten-Score als Beispiel. Die Lösung für die Score-Analyse wird basierend auf grober Mengenlehre und Data-Mining-Techniken vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29387-0_27 51c5c8559571de64a6b6323b5fea07f5;de;;;7.4.;;;Ein lernbasierter Algorithmusauswahl-Meta-Reasoner für das Echtzeit-MPE-Problem Das Algorithmusauswahlproblem zielt darauf ab, den besten Algorithmus für eine Eingabeprobleminstanz gemäß einigen Eigenschaften der Instanz auszuwählen. Dieses Papier präsentiert einen lernbasierten induktiven Ansatz zum Aufbau eines prädiktiven Algorithmusauswahlsystems aus empirischen Algorithmusleistungsdaten des Most Probable Explanation(MPE)-Problems. Das gelernte Modell kann als Meta-Begründer für die Algorithmusauswahl für das Echtzeit-MPE-Problem dienen. Experimentelle Ergebnisse zeigen, dass die erlernten Algorithmusauswahlmodelle dazu beitragen können, mehrere MPE-Algorithmen zu integrieren, um eine bessere Gesamtleistung der Argumentation zu erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30549-1_28 dca0de2ea369c5617f28982cf4ca8558;de;;;7.4.;;;Klassifizierung von mehrsprachigen Tweets in ein Mehrklassenmodell mit Naive Bayes und semi-überwachtem Lernen Twitter ist eine Social-Media-Plattform, die sich als großartiges Werkzeug für Einblicke in Emotionen zu Produkten, Richtlinien usw. durch eine 280-Zeichen-Nachricht namens Tweet erwiesen hat, die direkte und ungefilterte Emotionen einer großen Anzahl von Benutzern enthält. Twitter hat die Aufmerksamkeit vieler Forscher auf sich gezogen, da jeder Tweet standardmäßig öffentlich ist, was bei Facebook nicht der Fall ist. Dieses Papier schlägt ein Modell für die mehrsprachige (englische und römische Urdu) Klassifizierung von Tweets in unterschiedlichen Klassen vor (nicht-hierarchische Architektur). Frühere Arbeiten zur Tweet-Klassifizierung konzentrierten sich eng entweder auf eine einzelne Sprache oder höchstens auf einheitliche Klassen (positiv, extrem positiv, negativ und extrem negativ). Das vorgeschlagene Modell basiert auf halbüberwachtem Lernen und der vorgeschlagene Merkmalsauswahlansatz macht es weniger abhängig und hochgradig anpassungsfähig für das Erfassen von Trendbegriffen. Dies macht es zu einem starken Konkurrenten der Wahl für Streaming-Daten. Bei der Methodik, die den Naive Bayes-Lernalgorithmus für jede Phase verwendet, wurde eine bemerkenswerte Genauigkeit von bis zu 87,16 % erzielt, die sowohl von KNN- als auch SVM-Modellen, die für NLP- und Textklassifikationsdomänen beliebt sind, führt.;-;-;-;https://link.springer.com/article/10.1007/s11042-020-09512-2 626c7ac46c7645de050d00bcde77ff00;de;;;7.4.;;;Vorhersage von Herzerkrankungen mithilfe von Techniken des maschinellen Lernens Herzkrankheiten oder Herz-Kreislauf-Erkrankungen sind die Hauptursachen für eine große Anzahl von Todesfällen auf dem Planeten im Laufe der letzten Jahrzehnte. Es ist als die schrecklichste Krankheit auf der ganzen Welt aufgestiegen. Tatsächlich sind diese Probleme in Indien zunehmend schrecklich. Laut dem Journal des American College of Cardiology in India stieg die Sterberate aufgrund von Herz-Kreislauf-Erkrankungen Mitte 1990-2016 um 34%. Gegenwärtig befinden wir uns in einer Zeit des Datenzeitalters, in der eine große Menge und Vielfalt an Informationen in verschiedenen Unternehmen wie Einzelhandel, Produktion, Klinik und Online-Netzwerken gespeichert sind. Wir können die Informationen sammeln und die Informationen aufschlüsseln, um die Komponenten und Gründe für Herzerkrankungen vorherzusagen, damit Sicherheitsmaßnahmen ergriffen werden können, um die Sterberate zu senken. Es gibt verschiedene Arten von Informationsuntersuchungsinstrumenten und -verfahren, die eine ideale Informationssammlung erfordern. An diesem Punkt können wir verschiedene Strategien des maschinellen Lernens anwenden, um zu antizipieren, ob der Patient durch Herzerkrankungen beeinflusst werden kann oder nicht, indem wir die kürzlich gesammelten Datensätze verwenden. In diesem Papier werden wir zeigen, wie verschiedene Arten von Machine-Learning-Modellen wie K-nächster Nachbar, Entscheidungsbaum-Klassifikator und Zufallswald-Klassifikator verwendet werden, und außerdem eine Präsentationskorrelation zwischen diesen Modellen herstellen, damit wir eine genaue Genauigkeit über einen Patienten erhalten können mit Herzerkrankungen (Chen et al. in 2011 Computing in Cardiology IEEE, 557–560, 2011, [;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5262-5_67 99b8c85aa593ebc0893f0c7a44984876;de;;;7.4.;;;Der Einfluss künstlicher Intelligenz auf die Arbeit und den menschlichen Wert: Ansichten von Sozialforschern Der Aufstieg der künstlichen Intelligenz (KI) und der damit verbundenen neuen Technologien wurde in den letzten Jahren breit diskutiert, insbesondere hinsichtlich ihrer Vorteile und Bedrohungen für die Gesellschaft. Diese Studie zielt darauf ab, die Auswirkungen von KI auf die Arbeit und den menschlichen Wert auf verschiedenen Ebenen der KI-Fähigkeit zu untersuchen. Mit einem qualitativen Ansatz führten wir eine Fokusgruppendiskussion mit sechs Wissenschaftlern durch, die über KI-Forschungserfahrung in verschiedenen gesellschaftlichen Disziplinen und in verschiedenen globalen Regionen verfügen. In der Fokusgruppe wurden vier Hauptthemen diskutiert: (1) Einstellung zu KI, (2) Arten von Unternehmen, Branchen oder Arbeitnehmern, die am meisten von KI profitieren oder bedroht sind, (3) Bereitschaft, mit einem Roboter zu arbeiten mit unterschiedlichen Intelligenzniveaus und (4) wie man den Wert des Menschen erkennt und sich auf den zukünftigen Arbeitsplatz vorbereitet. Die Diskussion wurde mit Zustimmung der Teilnehmer aufgezeichnet und wörtlich transkribiert. Für die textuelle Datenanalyse wurde die Software ATLAS.ti Version 8 verwendet. Die Ergebnisse zeigen, dass Wissenschaftler: (1) der KI im Allgemeinen optimistisch gegenüberstehen, (2) glauben, dass die meisten Branchen von KI profitieren werden, (3) in der Einstellung zu Robotern mit einfühlsamer Intelligenz geteilt sind, (4) argumentieren, dass Menschen auf den zukünftigen Arbeitsplatz vorbereitet. Implikationen und zukünftige Forschungsvorschläge werden bereitgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-81635-3_34 568d2afc4f5e30d8bf47e113c3214026;de;;;7.4.;;;Multi-Phase Feature Representation Learning für die Diagnose neurodegenerativer Erkrankungen Das Merkmalslernen mit hochdimensionalen Neuroimaging-Funktionen wurde für Anwendungen bei neurodegenerativen Erkrankungen untersucht. Niedrigdimensionale Biomarker, wie die Testergebnisse des mentalen Status und der Liquorspiegel, sind für die klinische Diagnose neurologischer Störungen unerlässlich, da sie für die Kliniker einfach und effektiv sein könnten, um den Verlauf und die Schwere der Störung zu beurteilen. Anstatt nur die niederdimensionalen Biomarker als Eingaben für Entscheidungsfindungssysteme zu verwenden, glauben wir, dass solche niederdimensionalen Biomarker zur Verbesserung der Merkmalslernpipeline verwendet werden können. In dieser Studie schlugen wir ein neuartiges Lernframework zur Merkmalsrepräsentation vor, Multi-Phase Feature Representation (MPFR), mit eingebetteten niederdimensionalen Biomarkern. MPFR lernt High-Level-Neuroimaging-Merkmale, indem es die Assoziationen zwischen den niederdimensionalen Biomarkern und den hochdimensionalen Neuroimaging-Merkmale mit einem tiefen neuronalen Netzwerk extrahiert. Wir validierten den vorgeschlagenen Rahmen unter Verwendung der Mini-Mental-State-Examination (MMSE)-Scores als niederdimensionaler Biomarker und multimodaler Neuroimaging-Daten als hochdimensionale Neuroimaging-Merkmale aus der ADNI-Basiskohorte. Der vorgeschlagene Ansatz übertraf das ursprüngliche neuronale Netzwerk sowohl bei den binären als auch bei den ternären Klassifizierungsaufgaben der Alzheimer-Krankheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-14803-8_27 d9d7f9363fb08970786e5166126d7b8c;de;;;7.4.;;;Inhaltsbasierter Twitter-Spamfilter Twitter hat sich zu einem der meistgenutzten sozialen Netzwerke entwickelt. Und wie bei allen gängigen Medien ist es anfällig für Missbrauch. In diesem Zusammenhang ist Spam in Twitter in den letzten Jahren zu einem wichtigen Problem für die Nutzer geworden. In den letzten Jahren sind mehrere Ansätze aufgetaucht, die feststellen können, ob ein Benutzer ein Spammer ist oder nicht. Diese Blacklisting-Systeme können jedoch nicht jede Spam-Nachricht filtern und ein Spammer kann ein weiteres Konto erstellen und erneut Spam senden. In diesem Whitepaper schlagen wir einen inhaltsbasierten Ansatz zum Filtern von Spam-Tweets vor. Wir haben den Text im Tweet sowie maschinelle Lern- und Komprimierungsalgorithmen verwendet, um diese unerwünschten Tweets zu filtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-01854-6_46 46f0a49f8d10b3bacf7b3d1f9aa4ec61;de;;;7.4.;;;Metagenomisches Data-Mining zeigt Anreicherung der Trimethylamin-N-Oxid-Synthese im Darmmikrobiom bei Patienten mit Vorhofflimmern Der von Darmbakterien abgeleitete Metabolit Trimethylamin-N-oxid (TMAO) wurde bei verschiedenen kardiometabolischen Erkrankungen diskutiert. Es fehlen jedoch Beweise, die die mikrobielle Population charakterisieren, die für die TMAO-Akkumulation bei Patienten mit Vorhofflimmern (AF), einer zunehmend vorherrschenden Arrhythmie, verantwortlich ist. Um die wichtigsten Darmmikroorganismen, die TMAO bei Vorhofflimmern produzieren, zu verstehen, wurden Trimethylamin (TMA)-Syntheseenzyme und Stoffwechselwege sowie die potenziellen TMA-Produzenten im Darmmikrobiom basierend auf metagenomischen Datenanalysen in einer nordchinesischen Kohorte, bestehend aus: von 50 Kontrollen ohne Vorhofflimmern und 50 Patienten mit verschiedenen Arten von Vorhofflimmern.;-;-;-;https://link.springer.com/article/10.1186/s12864-020-06944-w ab03c1b27b9d58edd187b38d4e467fd9;de;;;7.4.;;;Jenseits von niedrig hängenden Früchten: Auf der Suche nach der nächsten Generation im FLOSS Data Mining In diesem Beitrag werden die Motivationen und Methoden zur Erhebung quantitativer Daten über Free, Libre und Open Source (FLOSS) Softwareprojekte diskutiert. Das Papier beschreibt auch den aktuellen Stand der Technik bei der Erhebung dieser Daten und einige der Probleme bei diesem Verfahren. Schließlich skizziert das Papier die Herausforderungen, auf die sich Data Miner freuen sollten, wenn sie versuchen, die Nützlichkeit ihrer quantitativen Datenströme zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-34226-5_5 461cd318c6b9ab86c0d1c37aec6a8b31;de;;;7.4.;;;Ein automatisierter Online-Spam-Detektor basierend auf Deep Cascade Forest Mit der Entwicklung der Internetkommunikation ist Spam in unserem täglichen Leben allgegenwärtig. Es stört nicht nur Benutzer, sondern auch cms. Obwohl es sowohl im Bereich Cyber ​​Security als auch im Bereich Natural Language Processing viele Methoden zur Spam-Erkennung gibt, genügt ihre Leistungsfähigkeit noch nicht den Anforderungen. In diesem Whitepaper haben wir Deep Cascade Forest zur Spam-Erkennung implementiert, ein Deep-Modell ohne Backpropagation. Mit weniger Hyperparametern lassen sich die Trainingskosten leicht kontrollieren und sinken im Vergleich zu neutralen Netzwerkverfahren. Darüber hinaus übertrifft der vorgeschlagene tiefe Kaskadenwald andere Modelle des maschinellen Lernens im F1-Erkennungswert. Angesichts der geringeren Schulungskosten kann es daher als nützliches Online-Tool zur Spam-Erkennung angesehen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-34637-9_3 8926bc64019d358fbc7544b47fcb0941;de;;;7.4.;;;Data Mining verallgemeinerter Assoziationsregeln unter Verwendung einer Methode des Partial-Match Retrieval Dieses Papier schlägt eine effiziente Methode zum Data Mining von generalisierten Assoziationsregeln auf der Grundlage von Partial-Match-Retrieval vor. Eine verallgemeinerte Assoziationsregel wird aus Regelmäßigkeiten von Datenmustern abgeleitet, die in der Datenbank unter einer gegebenen Datenhierarchie mit ausreichender Häufigkeit gefunden werden. Die Mustersuche ist ein zentraler Bestandteil eines solchen Data Mining und nimmt den größten Teil der Laufzeit ein. In diesem Artikel betrachten wir ein Datenmuster als eine Teilübereinstimmungsabfrage beim Abrufen von Teilübereinstimmungen, dann wird die Mustersuche zu einem Problem, um Teilübereinstimmungsanfragen zu finden, deren Antworten eine ausreichende Anzahl von Datenbankeinträgen enthalten. Das vorgeschlagene Verfahren besteht aus einer selektiven Aufzählung von Kandidatenanfragen und einer effizienten teilweisen Übereinstimmungsabfrage unter Verwendung von Signaturen. Eine Signatur, bei der es sich um eine Bitfolge fester Länge handelt, ist mit Daten, einem Datensatz und einer Abfrage verknüpft. Die Antwort auf eine Anfrage wird schnell durch Bitoperationen zwischen den Signaturen berechnet. Das vorgeschlagene Data-Mining-Verfahren wird basierend auf einem erweiterten Signaturverfahren realisiert, das mit einer Datenhierarchie umgehen kann. Wir diskutieren auch Designfragen und mathematische Eigenschaften der Methode.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-46846-3_15 fad0b1488666d227d963beed37d1a1e1;de;;;7.4.;;;Zeichenbasiertes LSTM-CRF mit semantischen Funktionen für die Erkennung von chinesischen Ereigniselementen Die Erkennung von Ereigniselementen ist eine wichtige Aufgabe bei der ereignisbasierten Informationsextraktion. In diesem Papier schlagen wir ein Ereigniselementerkennungsmodell vor, das auf der Einbettung auf Zeichenebene mit semantischen Merkmalen basiert. Durch Extrahieren von Merkmalen auf Zeichenebene kann das vorgeschlagene Modell mehr Informationen von Wörtern erfassen. Unsere Ergebnisse zeigen, dass gemeinsame Charakter Convolutional Neural Networks (CNN) und bidirektionale Long Short-Term Memory Networks (Bi-LSTM) dem Einzelzeichen-Level-Modell überlegen sind. Darüber hinaus verbessert das Hinzufügen von semantischen Merkmalen wie POS (Part-of-Speech) und DP (Dependency Parsing) tendenziell den Erkennungseffekt. Wir haben verschiedene Methoden im CEC (Chinese Emergency Corpus) ausgewertet und die experimentellen Ergebnisse zeigen, dass unser Modell eine gute Leistung erzielen kann und der F-Wert der Elementerkennung 77,17% betrug.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-61609-0_64 596c0ad2232aaa038648d3d28fc3141b;de;;;7.4.;;;Mehrfachklassifikatorsysteme: Theorie, Anwendungen und Werkzeuge Bei vielen Mustererkennungsanwendungen wird das Erreichen akzeptabler Erkennungsraten durch die große Mustervariabilität bedingt, deren Verteilung nicht einfach modelliert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36657-4_10 d850924eacf8a840cecef30eedad353e;de;;;7.4.;;;Intelligente selbstreparierbare Bahnwickler Die Menge der im Web verfügbaren Informationen wächst unglaublich schnell. Es gibt bereits Systeme und Verfahren, die entwickelt wurden, um diese Daten aus Webquellen zu extrahieren, und in den letzten Jahren wurden verschiedene Ansätze und Techniken untersucht. Einerseits sollten zuverlässige Lösungen robuste Algorithmen des Web-Data-Mining bieten, die automatisch möglichen Fehlfunktionen oder Ausfällen begegnen könnten. Andererseits fehlt es in der Literatur an Lösungen zur Wartung dieser Systeme. Verfahren, die Webdaten extrahieren, können eng mit der Struktur der Datenquelle selbst verbunden sein, so dass Fehlfunktionen oder der Erwerb beschädigter Daten beispielsweise durch strukturelle Änderungen der Datenquellen verursacht werden können, die von ihren Eigentümern mitgebracht werden. Die Überprüfung der Datenintegrität und die Pflege werden heute meist manuell verwaltet, um sicherzustellen, dass diese Systeme korrekt und zuverlässig funktionieren. In diesem Beitrag schlagen wir einen neuartigen Ansatz vor, um Verfahren zu erstellen, die Daten aus Webquellen extrahieren können – das sogenannte;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23954-0_26 5196de0562fe36a8b35fd87656238617;de;;;7.4.;;;Ein HTTP-DDoS-Erkennungsmodell mit Techniken des maschinellen Lernens für die Cloud-Umgebung Die Cloud-Computing-Plattform hat sich als wesentliches Computing-Paradigma für die heutige Welt entwickelt. Da sich die Cloud-Umgebung hauptsächlich auf das Servicemodell konzentriert, ist die Sicherstellung der Verfügbarkeit dieser Services für den vorgesehenen Benutzer eine wesentliche Voraussetzung. In diesem Papier wird ein HTTP-DDoS-Erkennungsmodell für die Cloud-Umgebung vorgestellt. Das vorgeschlagene System verwendet auf maschinellem Lernen basierende Klassifikatoren für Netzwerkflussdaten. Vier baumbasierte Klassifikatoren, d. h. Entscheidungsbaum, Random Forest, XGBoost und AdaBoost, werden auf die identifizierten Parameter angewendet. Der CIDDS-001-Datensatz wurde für Training und Auswertung verwendet. Die erhaltenen Ergebnisse zeigen, dass der vorgeschlagene Klassifikator mit dem Random Forest-Klassifikator eine Genauigkeit von 99,99% erreichen kann. Ein Vergleich der erhaltenen Ergebnisse mit den neueren in der Literatur verfügbaren Arbeiten zeigt, dass das vorgeschlagene Modell es in der Klassifizierungsgenauigkeit übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6977-1_50 1058c856c2aa44a6d7a5a9ba5db69104;de;;;7.4.;;;Qualitätsbewertung von Obst und Gemüse mit Bildverarbeitungstechniken und maschinellem Lernen: Ein Rückblick In diesem Beitrag wird die Studie zum Einstufungssystem für Obst und Gemüse unter Verwendung von Bildverarbeitungstechniken mit verschiedenen maschinellen Lernalgorithmen vorgestellt. In unserer Studie haben wir beobachtet, dass die Bilder von Früchten zur Analyse von Früchten verwendet werden. Zur Einstufung der Früchtequalität werden Parameter wie Form, Größe und Farbe der Proben extrahiert. Ein Teil der Forschung hat sich mit der Klassifizierung von Fruchtkrankheiten befasst. Verschiedene Techniken wie farbbasierte Segmentierung, künstliche neuronale Netze und verschiedene Klassifikatoren können verwendet werden, um den Grad oder die Krankheiten der Probe zu klassifizieren. Diese Überprüfungsarbeit soll eine Studie über einige maschinelle Lerntechniken und morphologische Merkmale mit farbbasierter Einstufung für Obst und Gemüse liefern. Die Autoren haben ein Hybridsystem aus Fruchteinstufung und Krankheitserkennungssystem vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3992-3_40 cf3e1623bdc675aacb1758632af15a87;de;;;7.4.;;;Induktives maschinelles Lernen mit Bildverarbeitung zur Objekterkennung eines Roboterarms mit Raspberry PI Die vorliegende Studie wurde entwickelt, um ein Prototyping aufzubauen und Algorithmen zu entwickeln, die die Erkennung, Klassifizierung und Bewegung von Objekten eines Roboterarms mit 4 DOF mit den folgenden Technologien ermöglichen: ArmUno-Armstruktur, Raspberry Pi 3 B+, ​​PiCam 2.1, Treiber PCA9685 für Servomotoren, Opencv3 und Python. Ein weiteres Ziel war es, die Effektivität der Vorhersage und Klassifizierung von Objekten, die vom Roboterarm fotografiert wurden, durch maschinelles Lernen mit der KNN-Klassifikatormethode zu messen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-05532-5_45 b7bd697ac1fe6aa298c57901ec8f6018;de;;;7.4.;;;Kurzfristige Lastprognose von Industriestrom durch maschinelles Lernen Die Prognose der Stromlast am Tag ist sowohl für Versorger als auch für Verbraucher von Vorteil. Die Reduzierung von Stromverschwendung und der rationelle Einsatz von Stromaggregaten können durch genaue Lastprognosen deutlich verbessert werden. Dieser Artikel konzentriert sich auf das Studium und die Entwicklung von Computational Intelligence-Techniken für die Vorhersage der Stromlast. Es werden mehrere Modelle entwickelt, um die Stromlast der nächsten Stunde anhand realer Daten eines Industriemastes in Spanien vorherzusagen. Merkmalsauswahl und Merkmalsextraktion werden durchgeführt, um Overfitting zu reduzieren und somit bessere Modelle zu erzielen, wodurch die Trainingszeit der entwickelten Methoden reduziert wird. Das beste der implementierten Modelle wird unter Verwendung von Gittersuchstrategien im Hyperparameterraum optimiert. Dann werden vierundzwanzig verschiedene Instanzen des optimalen Modells trainiert, um die nächsten vierundzwanzig Stunden vorherzusagen. Unter Berücksichtigung der rechentechnischen Komplexität der angewandten Techniken werden sie auf der Rechenplattform des National Supercomputing Centre (Cluster-UY), Uruguay, entwickelt und evaluiert. Standardleistungsmetriken werden verwendet, um die vorgeschlagenen Modelle zu bewerten. Die wichtigsten Ergebnisse zeigen, dass das beste auf ExtraTreesRegressor basierende Modell einen mittleren absoluten prozentualen Fehler von 2,55 % bei der stündlichen Vorhersage des Vortages aufweist, was ein vielversprechendes Ergebnis ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-38889-8_12 1caecd12d44f1ea0b627b041baea3181;de;;;7.4.;;;Automatische Extraktion von Photovoltaikmodulen aus UAV-Bildern mit objektbasierter Bildanalyse und maschinellem Lernen Wir entwickeln eine automatische Pipeline für die Extraktion von Photovoltaikmodulen basierend auf objektbasierter Bildanalyse (OBIA) und maschinellem Lernen (ML). Automatische Optimierung von Segmentierungsparametern, statistisches und morphologisches Feature Engineering und ML-segmentbasierte Klassifikation sind die Hauptbausteine ​​der vorgeschlagenen Pipeline. Die Experimente wurden an einem Datensatz durchgeführt, der RGB- und thermische Orthomosaics umfasste, die aus UAV-Daten generiert wurden. Ein F-Faktor von 98,7% wurde mit einer Recall-Rate von über 98% erzielt. Die erhaltenen Ergebnisse wurden auch mit einer entwickelten Lösung unter der Software eCognition verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6893-4_64 b9a4fb0af108a1faea6e4281f7eba3ad;de;;;7.4.;;;Nachrichten Themenklassifizierung mit Techniken des maschinellen Lernens Die Klassifizierung von Nachrichtenthemen ist eine Methode zum Klassifizieren von Nachrichtenartikeln, die in Textdaten verfügbar sind, in einige vordefinierte Klassen oder Labels. Dies ist eine der Anwendungen der Textklassifikation. Die Textklassifizierung kann in den Bereichen Spamfilterung, Spracherkennung, Segmentierung von Kundenfeedbacks, Trennung technischer Dokumente usw. angewendet werden. In diesem Artikel wird die Klassifizierung von Nachrichtenthemen im News Topic Classification Dataset der AG unter Verwendung von Machine-Learning-Algorithmen wie Linear Support Vector Machine, Multinomial Naive Bayes-Klassifikator, K-Nearest Neighbor, Rocchio, Bagging und Boosting. In diesem Artikel werden drei Schritte zur Klassifizierung diskutiert, nämlich die Vorverarbeitung von Text, dann die Anwendung von Merkmalsextraktionstechniken und schließlich die Implementierung von maschinellen Lernalgorithmen. Diese Algorithmen werden anhand von Bewertungsmetriken wie Genauigkeit, Rückruf, Präzision und F1-Score verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4909-4_35 eee97b423523aeb6b7e61938e65dcb5a;de;;;7.4.;;;Erkennung gefälschter Nachrichten mit passiv-aggressivem Klassifikator und anderen Algorithmen des maschinellen Lernens Fake News sind falsche Fakten, die zur Täuschung der Leser generiert werden. Die Erzeugung von Fake News ist sehr einfach geworden, was Menschen in die Irre führen und Panik auslösen kann. Daher gewinnt die Fake-News-Erkennung im Forschungsbereich an Bedeutung. Als Lösungsansatz zielt dieses Papier darauf ab, die bestmöglichen Algorithmen zu finden, um Fake News zu erkennen. In diesem Beitrag werden sowohl Term Frequency-Inverse Document Frequency (TFIDF) als auch Zählvektortechniken separat für die Textvorverarbeitung verwendet. Sechs maschinelle Lernalgorithmen, nämlich Passiv-Aggressive Classifier (PAC), Naive Bayes (NB), Random Forest (RF), Logistic Regression (LR), Support Vector Machine (SVM) und Stochastic Gradient Descent (SGD) werden anhand von Bewertungsmetriken verglichen wie Genauigkeit, Präzision, Rückruf und;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6987-0_19 246513a2d60e958aa479a3c236ace1cd;de;;;7.4.;;;Auf maschinellem Lernen basierendes, leichtes Android-Malware-Erkennungssystem mit statischen Funktionen Mit der zunehmenden Popularität und breiten Anpassung im Bereich eingebetteter Systeme ist Android zum Hauptziel für Malware-Autoren geworden. Aufgrund des rasanten Wachstums von Anzahl, Varianten und Vielfalt von Malware ist die schnelle Erkennung von Malware auf der Android-Plattform zu einer anspruchsvollen Aufgabe geworden. Bestehende Malware-Erkennungssysteme, die auf maschinellen Lernalgorithmen mit statischen, dynamischen oder beiden Analysetechniken basieren, verwenden eine hohe Dimensionalität des Funktionsumfangs. Machine-Learning-Algorithmen werden oft durch eine so große Anzahl von Feature-Sets herausgefordert und verbrauchen viel Energie und Zeit sowohl für das Training als auch für die Erkennung. Das unter Verwendung einer so großen Anzahl von Merkmalen erstellte Modell kann ein irrelevantes oder negatives Merkmal enthalten, das die Gesamteffizienz des Erkennungssystems verringert. In diesem Whitepaper stellen wir ein leichtes Android-Malware-Erkennungssystem vor, das auf Techniken des maschinellen Lernens basiert und weniger statische Funktionen verwendet, um zwischen bösartigen und harmlosen Anwendungen zu unterscheiden. Um die Feature-Dimensionen zu reduzieren, haben wir den Feature-Engineering-Ansatz verwendet, der einen mehrstufigen Feature-Reduktions- und Eliminationsprozess verwendet, um ein leichtgewichtiges Erkennungsmodell zu erstellen. Schließlich haben wir ein auf maschinellem Lernen basierendes Erkennungssystem auf dem reduzierten Feature-Set aufgebaut, das im Vergleich zum Modellbau mit dem ursprünglichen Feature-Set besser abschneidet. Das vorgeschlagene Erkennungssystem erreicht eine Genauigkeit und Präzision von über 98% und reduziert die Feature-Set-Größe drastisch von 3.73.458 auf 105 Features.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7804-5_26 5d3b01a20ae5fcee5c82ca15e29f7438;de;;;7.4.;;;Zusammenfassung des PAKDD CUP 2020: Aus Sicht der Organisatoren PAKDD2020 Alibaba AI Ops Competition wird gemeinsam von PAKDD2020, Alibaba Cloud und der Alibaba Tianchi-Plattform organisiert. Aufgabe der Konkurrenz ist es, Festplattenausfälle in großen Cloud-Computing-Umgebungen vorherzusagen. Wir stellen täglich SMART-Logs (Self-Monitoring, Analysis and Reporting Technology) in den Produktionsumgebungen ohne jegliche Vorverarbeitung außer Anonymisierung bereit. Die SMART-Logs stellen große Herausforderungen für die Analyse und Vorhersage von Festplattenfehlern in realen Produktionsumgebungen dar, wie beispielsweise Datenrauschen und die extreme Datenungleichgewichtseigenschaft. In diesem Papier beschreiben wir zunächst die Wettbewerbsaufgabe, praktische Herausforderungen und Bewertungsmetriken. Anschließend präsentieren wir die statistischen Ergebnisse des Wettbewerbs und fassen die Schlüsseltechniken der eingereichten Lösungen zusammen. Schließlich diskutieren wir die offenen Fragen und die Auswahl der Techniken in Bezug auf die Online-Bereitstellung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7749-9_13 caca97555ac7a4a423bec5b11fbad2c0;de;;;7.4.;;;Wissensentdeckung mit genetischer Programmierung, um den Autoren von Kursmaterialien Feedback zu geben Wir stellen eine Methodik zur Verbesserung adaptiver Systeme für die webbasierte Bildung vor. Diese Methodik verwendet evolutionäre Algorithmen als Data-Mining-Methode, um interessante Zusammenhänge in den Nutzungsdaten der Schüler zu entdecken. Dieses Wissen kann für Lehrer und Kursautoren sehr nützlich sein, um die am besten geeigneten Modifikationen auszuwählen, um die Effektivität des Kurses zu verbessern. Wir verwenden Grammar-Based Genetic Programming (GBGP) mit multi-objektiven Optimierungstechniken, um Vorhersageregeln zu entdecken. Wir stellen ein spezifisches Data-Mining-Tool vor, das Nicht-Experten im Data-Mining bei der Durchführung des kompletten Regelerkennungsprozesses unterstützen kann, und demonstrieren seinen Nutzen, indem wir es in einem von uns entwickelten adaptiven Linux-Kurs anwenden.;-;-;-;https://link.springer.com/article/10.1007/s11257-004-7961-2 2f725cf6e38114709cab79509b2f6523;de;;;7.4.;;;Eine automatische Klassifizierung von Magnetresonanz-Gehirnbildern mit maschinellen Lerntechniken In der medizinischen Bildanalyse ist eine automatische Magnetresonanz(MR)-Gehirnbildklassifizierung sehr wichtig. Das Ziel dieser Forschungsarbeit ist es, die Anomalie des MR-Gehirnbildes zu klassifizieren. Dieses Papier stellt ein diskretes Wavelet-Paket vor, um Glanzlichter von Bildern zu trennen, gefolgt von einer Hauptkomponentenanalyse, um die Messung von Glanzlichtern zu verringern, die an eine Kernel Support Vector Machine (KSVM) gesendet wurden. Das Verfahren der K-fach geschichteten Kreuzvalidierung wurde verwendet, um die Spekulation von KVSM aufzuwerten. Die vorgeschlagene Methode wurde durch 160 Magnetresonanz-Gehirnbilder getestet, sowohl normale als auch abnormale, die von der Harvard Medical School-Website gesammelt wurden, und erreicht eine bessere Klassifizierungsgenauigkeit von 99,38 %. Die Leistungsfähigkeit dieser vorgeschlagenen Methode wurde mit vier verschiedenen Kerneln evaluiert. Der Vergleich wurde durch verschiedene Methoden des Standes der Technik durchgeführt. Nach den experimentellen Daten war unsere Methode effektiv und schnell. Diese Klassifizierungsmethode kann Ärzten helfen, die Patienten zu diagnostizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0829-5_45 6d3b7132cd05ac55f787643019c50bf3;de;;;7.4.;;;Fake-News-Erkennung basierend auf maschinellem Lernen Lynchmorde, falsche Darstellung der Regierungspolitik, manipulierte Geschichte und kommunale Disharmonie sind einige der Ereignisse, die in letzter Zeit aufgrund der Verbreitung gefälschter Nachrichten aufgetreten sind. Daher wird das Fake-News-Erkennungsmodell dazu beitragen, Bewusstsein und Harmonie unter den Menschen zu verbreiten. Laut BBC Report unterscheiden 72 % der Inder nicht zwischen „echten“ und „gefälschten“ Nachrichten. Daher wird in diesem Artikel ein Modell vorgeschlagen, bei dem die Verarbeitung natürlicher Sprache zur Korrektur des Textes zusammen mit maschinellen Lernalgorithmen verwendet wurde. Das Modell prognostizierte gefälschte und echte Nachrichten erfolgreich mit einer Genauigkeit von 90,2 %.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9938-5_8 d70ae7c203fb7529c4e72c9c71143767;de;;;7.4.;;;Machine Learning-basierte Implementierung der Bildeckenerkennung mit SVM-Algorithmus für biomedizinische Anwendungen Der Support Vector Machine-Ansatz in Machine Vision mit Hilfe des OpenCV-Simulationstools wird für die Eckenerkennung verwendet. Der Pfad der maximalen Graustufenänderungen, der für jedes Kantenpixel gedacht ist, wird im Bild berechnet, dieses Kantenpixel wird durch vierdimensionale Merkmalsvektoren repräsentiert. Es besteht aus der Zählung der Kantenpixel in der Fenstermitte und weist seit ihrer maximalen Graustufenrichtungsänderung vier Richtungen auf. Dieser Merkmalsvektor und dieser Stützvektor werden zum Entwerfen einer Stützvektormaschine verwendet. Für die Eckenerkennung stellt es kritische Punkte in einer Klassifizierung dar. Dieser Algorithmus ist unkompliziert mit weniger Rechenaufwand. Es verfügt über eine maschinelle Lernfähigkeit, die gute Ergebnisse liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7486-3_19 211f7b08351d7e96eb7ec88d2a5bf056;de;;;7.4.;;;Forschung zum Kundennutzen basierend auf Extension Data Mining Extenik ist eine neue Disziplin zur Behandlung von Widerspruchsproblemen mit Formelmodellen. Extension Data Mining (EDM) ist ein Produkt, das Extenics mit Data Mining kombiniert. Es erforscht den Erwerb von Wissen auf der Grundlage von Erweiterungstransformationen, das als Erweiterungswissen (EK) bezeichnet wird, und nutzt dabei Erweiterungsmethoden und Data-Mining-Technologie. EK beinhaltet erweiterbares Klassifikationswissen, leitendes Wissen und so weiter. Extension Data Mining Technology (EDMT) ist eine neue Data Mining-Technologie, die EK in Datenbanken oder Data Warehouses durchsucht. Der Kundenwert (CV) kann die Wesentlichkeit der Kundenbeziehung für ein Unternehmen nach einem Unternehmen als Verkostungsobjekt und Kunden als Verkostungsobjekt zugleich abwägen. Der Lebenslauf variiert ständig. Das Mining des sich ändernden Wissens des Lebenslaufs in Datenbanken mithilfe von EDMT, einschließlich quantitativem Änderungswissen und qualitativem Änderungswissen, kann eine Grundlage dafür bieten, dass ein Unternehmen die Strategie des Kundenbeziehungsmanagements (CRM) entscheidet. Es kann auch eine neue Idee für das Studium des Lebenslaufs liefern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02298-2_18 f7d362693cf24d6ac0051d4ae5eb0a2d;de;;;7.4.;;;Auf dem Weg zur Zertifizierung vertrauenswürdiger maschineller Lernsysteme Machine Learning (ML) wird zunehmend in komplexen Anwendungsdomänen eingesetzt und ersetzt die menschliche Entscheidungsfindung. Obwohl ML überraschend erfolgreich war, gibt es grundlegende Bedenken bei einer breit angelegten Bereitstellung ohne Menschen im Kreislauf. Eine kritische Frage ist die Vertrauenswürdigkeit solcher ML-Systeme. Obwohl es Forschungen gibt, um ML-Systeme vertrauenswürdiger zu machen, bleiben viele Herausforderungen bestehen. In diesem Positionspapier diskutieren wir die Herausforderungen und Grenzen aktueller Vorschläge. Wir konzentrieren uns auf einen eher kontradiktorischen Ansatz und nehmen Ideen aus der Zertifizierung von Sicherheitssoftware nach den Common Criteria auf. Obwohl unklar ist, wie man starke vertrauenswürdige Zusicherungen für ML-Systeme erhält, glauben wir, dass dieser Ansatz das Vertrauensniveau weiter erhöhen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-73959-1_7 66fa721aad07fbc1a1fc2e2fb448f4ca;de;;;7.4.;;;Erweiterung I: BMPM für unausgewogenes Lernen In diesem Kapitel betrachten wir das Problem des unausgeglichenen Lernens. Dieses Problem bedeutet die Aufgabe der binären Klassifizierung von unausgeglichenen Daten, bei der fast alle Instanzen als eine Klasse bezeichnet werden, während weit weniger Instanzen als die andere Klasse, normalerweise die wichtigere Klasse, bezeichnet werden. Herkömmliche Methoden des maschinellen Lernens, die eine genaue Leistung über einen vollständigen Bereich von Instanzen anstreben, sind für dieses Problem nicht geeignet, da sie dazu neigen, alle Daten in die Mehrheitsklasse zu klassifizieren, normalerweise die weniger wichtige Klasse. Darüber hinaus haben viele aktuelle Verfahren versucht, einige Zwischenfaktoren zu verwenden, z. die Verteilung des Trainingssatzes, die Entscheidungsschwellen oder die Kostenmatrix, um eine Voreingenommenheit gegenüber der wichtigen Klasse zu erzwingen. Es bleibt jedoch ungewiss, ob diese Umwegverfahren die Leistung systematisch verbessern können. In diesem Kapitel wenden wir Biased Minimax Probability Machine an, einen der Sonderfälle der Minimax Probability Machine mit minimalem Fehler, um mit unausgeglichenen Lernaufgaben umzugehen. Anders als bei früheren Verfahren erreicht dieses Modell im schlimmsten Fall, den verzerrten Klassifikator abzuleiten, indem die Klassifizierungsgenauigkeit für jede Klasse direkt gesteuert wird. Genauer gesagt baut BMPM einen expliziten Zusammenhang zwischen der Klassifikationsgenauigkeit und dem Bias auf, was somit eine rigorose Behandlung unausgewogener Daten ermöglicht. Wir untersuchen verschiedene Modelle und vergleichen BMPM mit drei anderen kompetitiven Methoden, d. h. dem Naive Bayesian Classifier, der k-Nearest Neighbor Methode und der Entscheidungsbaummethode C4.5. Die experimentellen Ergebnisse zeigen die Überlegenheit dieses Modells.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79452-3_5 ad4db3401b46117c6fdc9f21eba38fa0;de;;;7.4.;;;Ereignisrelevanz-Pruning zur Unterstützung von energieeffizientem Sequential Pattern Mining Heutzutage werden immer mehr Industrieanlagen kontinuierlich überwacht und generieren Unmengen an Ereignissen und Sensordaten. Es bietet eine hervorragende Möglichkeit, das derzeit unter anderem aufgrund des überwältigenden Datenvolumens noch zu wenig erforschte Asset-Verhalten zu verstehen. Da die Rechenzeit der meisten Machine-Learning-/Data-Mining-Methoden zumindest linear mit der Datenmenge ist, verlangsamt die zunehmende Größe der Ereignisprotokolle jede Untersuchung und Modellierung der Daten. Wir haben dieses Problem angegangen, indem wir einen Vorverarbeitungsworkflow entwickelt haben, um die irrelevanten Ereignisse zu verwerfen, d. h. Ereignisse im Zusammenhang mit normalen Prozessen, wenn die abnormalen Prozesse (d. Dieser Vorverarbeitungsworkflow kann auf alle Industrieanlagen angewendet werden, die Ereignisprotokolle generieren. Wir haben den Workflow in der spezifischen Photovoltaik (PV)-Domäne als Vorverarbeitungsschritt validiert, bevor wir Sequential Pattern Mining (SPM) auf die PV-Ereignisprotokolle anwenden. Wir haben gezeigt, dass unser Workflow die Rechenzeit von SPM um bis zu 95 % verkürzen kann, was zu einem Rechengewinn von bis zu mehreren Stunden (z. B. von 23 h auf 5 s) führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-13453-2_19 da10b885e21b6d6ce268d6f466a86d5e;de;;;7.4.;;;Leistungsanalyse von Information Retrieval-Modellen in Bezug auf die Indexstruktur von Wortpaaren In diesem Artikel wird die Leistung der Wortpaarindexstruktur für verschiedene Informationsabrufmodelle analysiert. Die Indexstruktur mit Wortpaaren ist die effizienteste Lösung für kontextbezogene Abfragen und eine präzisionserhöhende Struktur. Die Auswahl des Information-Retrieval-Modells ist sehr wichtig, da es das Ergebnis des Information-Retrieval-Systems genau beeinflusst. Dieses Papier analysiert die Leistung verschiedener Information Retrieval-Modelle unter Verwendung der Wortpaarindexstruktur. Es wurde festgestellt, dass die Genauigkeit im Vergleich zur traditionellen invertierten Indexstruktur um 18% erhöht wird und die Erinnerung bei der invertierten Wortpaar-Indexstruktur 8% beträgt. Die mittlere durchschnittliche Präzision wird um 26% erhöht und die R-Präzision wird erhöht um 20 %.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8569-7_19 700773a4383419971447d7f71b5c341b;de;;;7.4.;;;Affektives Leveldesign für ein Rollenspiel-Videospiel, evaluiert durch eine Gehirn-Computer-Schnittstelle und maschinelle Lernmethoden evaluated Game Science ist zu einem Forschungsgebiet geworden, das aufgrund eines weltweit reichen Verkaufsmarktes die Aufmerksamkeit der Industrie auf sich zieht. Um die Spielererfahrung zu verstehen, müssen Konzepte wie Flow oder mentale Langeweile formalisiert und empirisch untersucht werden, wobei die objektiven Daten genutzt werden, die psychophysiologische Methoden wie die Elektroenzephalographie (EEG) liefern können. Diese Arbeit untersucht die affektive Ludologie und zeigt zwei verschiedene Spielebenen für Neverwinter Nights 2, die mit dem Ziel entwickelt wurden, Emotionen zu manipulieren . Es wurde eine empirische Untersuchung mit einem Brain-Computer-Interface-Headset durchgeführt: Durch Extraktion numerischer Datenmerkmale klassifizieren maschinelle Lerntechniken die verschiedenen Aktivitäten der Spielsitzungen (Aufgabe und Ereignisse), um zu überprüfen, ob ihre Designdifferenzierung mit der affektiven übereinstimmt. Die beobachteten Ergebnisse, die auch durch subjektive Fragebogendaten gestützt werden, bestätigen die Güte der vorgeschlagenen Leitlinien und legen nahe, dass diese Bewertungsmethodik auf andere Bewertungsaufgaben ausgedehnt werden könnte.;-;-;-;https://link.springer.com/article/10.1007/s00371-016-1320-2 f8a134d3da4dffae255e38d48f750e46;de;;;7.4.;;;Die Einordnung von Skateboard-Tricks durch die Integration von Transfer-Learning- und Machine-Learning-Modellen Im Allgemeinen wird die Bewertung der Ausführung von Skateboard-Tricks abstrakt durchgeführt, abhängig vom Verständnis und der Erfahrung der Judges. Daher sind ein Objektiv und ein Mittel zur Beurteilung von Skateboard-Tricks, insbesondere im großen Wettbewerb, wichtig. Diese Forschung zielt darauf ab, Skateboarding-Flatground-Tricks zu klassifizieren, nämlich Ollie, Kickflip, Shove-it, Nollie Front Shove und Frontside 180 durch Kamerasicht und vortrainiertes neuronales Faltungsnetzwerk für die Merkmalsextraktion in Verbindung mit einem herkömmlichen maschinellen Lernmodell. Ein Amateur-Skateboarder (23 Jahre ± 5,0 Jahre Erfahrung) führte fünf Tricks für jeden Tricktyp wiederholt auf einem Skateboard aus einer Kamera mit einer Entfernung von 1,26 m aus. Aus den aufgenommenen Bildern wurden die Merkmale durch Transfer Learning, insbesondere VGG-16, konstruiert und extrahiert und dann mit Hilfe der logistischen Regression (LR) klassifiziert und;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6025-5_20 25a1808570db0c92c1b145b7175a782a;de;;;7.4.;;;Methoden des maschinellen Lernens zur Klassifizierung von Mammographieregionen unter Verwendung der Wavelet-Transformation und der radiomischen Texturfunktionen Textur Die automatische Erkennung und Klassifizierung von Läsionen in der Mammographie bleibt eines der wichtigsten und herausforderndsten Probleme bei der Entwicklung computergestützter Diagnosesysteme. Zur Unterstützung der Erkennung und Klassifizierung von mammographischen Befunden wurden mehrere Ansätze des maschinellen Lernens vorgeschlagen und werden von den Radiologen als Computerwerkzeuge während verschiedener Diagnoseprozesse verwendet. Die Effektivität dieser Ansätze hängt jedoch von der Genauigkeit der Merkmalsdarstellungs- und Klassifizierungstechniken ab. In diesem Beitrag wird eine auf Texturmerkmalen basierende radiomische Strategie zur Identifizierung von Anomalien in Mammographien untersucht. Dazu wurde eine vollständige Studie von fünf Merkmalsextraktionsansätzen, zehn Auswahlmethoden und fünf Klassifikationsmodellen durchgeführt, um Befunde zu identifizieren, die in interessierenden Regionen enthalten sind, die aus der Mammographie extrahiert wurden. Die vorgeschlagene Strategie beginnt mit einem Regionsextraktionsprozess. Einige quadratische Bereiche von Interesse (ROI) wurden manuell aus der Datenbank der Mammographic Image Analysis Society (miniMIAS) extrahiert. Dann wurde jede ROI unter Verwendung eines Wavelet-Transformationsansatzes in verschiedene Auflösungsstufen zerlegt und ein Satz radiomischer Merkmale basierend auf Texturinformationen berechnet. Schließlich wurden Merkmalsauswahlalgorithmen und Modelle des maschinellen Lernens angewendet, um zu entscheiden, ob der zu analysierende ROI eine mammografische Anomalie enthält oder nicht. Die erhaltenen Ergebnisse zeigten, dass aus Wavelet-Detailkoeffizienten extrahierte radiomische Texturdeskriptoren die Leistung verbesserten, die durch aus dem Originalbild extrahierte radiomische Merkmale erhalten wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-05532-5_47 7b10f0be29ecf5042bc81baf19a19b55;de;;;7.4.;;;Sentimentanalyse auf Aspektebene unter Verwendung des bidirektionalen LSTM-Encoders mit dem Aufmerksamkeitsmechanismus Die Sentimentanalyse auf Aspektebene (ALSA) ist eine feinkörnige Aufgabe in der Sentimentanalyse. Es klassifiziert die verschiedenen Polaritäten (positiv, negativ) für die spezifischen Aspekte jeder Bewertung. Im Allgemeinen hat die Sentimentanalyse auf Dokument- und Satzebene bemerkenswerte Ergebnisse erzielt, aber sie kann nicht die richtige Vorhersage für die spezifischen Aspekte in der gegebenen Überprüfung treffen. In den letzten Jahren haben viele Forscher Sentimentanalysen mit maschinellen Lernansätzen durchgeführt, aber sie haben ein Problem bei der Polaritätserkennung für jeden Aspekt im Satz. Daher schlägt dieses Papier vor, die Stimmungspolarität für jeden Aspekt zu klassifizieren, indem ein bidirektionaler LSTM (Bi-LSTM)-Encoder in Kombination mit dem Aufmerksamkeitsmechanismus verwendet wird. Der Aufmerksamkeitsmechanismus berücksichtigt den Aspekt eines bestimmten Ziels in der gegebenen Überprüfung. Es ist eine Art Deep-Learning-Modell und auch eine Erweiterung des LSTM-Netzwerks, das die langen Textsequenzen lernen kann. Deep-Learning-Modelle brauchen lange zum Trainieren, und wenn das Netzwerk tief ist, stößt es auf das Problem des verschwindenden Gradienten, ein seit langem bestehendes Problem im neuronalen Netzwerkmodell. Dieses Papier betrachtet auch den Hyperparameter-Tuning-Ansatz, um das Problem des verschwindenden Gradienten für die ALSA-Aufgabe zu lösen. Hyperparameter können die Gewichtung, der Bias, die Anzahl der Epochen, die Batchgröße usw. sein. Experimente werden mit IMDB- und SemEval 2014 Task 4-Datensätzen durchgeführt und die Ergebnisse zeigen, dass die Genauigkeit unseres Sentimentmodells 88,5 % erreicht, was höher ist als bei anderen LSTM-basierten Methoden wie Standard AE-LSTM, AT-LSTM, Standard LSTM, TC- LSTM und TD-LSTM.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63007-2_22 05a2c865a8d245ba7beab583734de926;de;;;7.4.;;;Vorhersage des Energieverbrauchs mit statistischen und maschinellen Lernmethoden und Analyse der Bedeutung von Klima und Feiertagen in der Bedarfsprognose Mit der zunehmenden Entwicklung von Smart Metering in Energiesystemen fallen große Datenmengen an. Die Daten bestehen aus erzeugter, verbrauchter und zeitlich gespeicherter Energie. Diese Daten können verwendet werden, um die Effizienz, Zuverlässigkeit und Stabilität des Stromnetzes durch den Einsatz von Machine-Learning-Algorithmen zu verbessern. Mit den verfügbaren Daten lässt sich der Energiebedarf jedes Verbrauchers vorhersagen. Auch die Erzeugung erneuerbarer Energien kann vorhergesagt werden. In diesem Beitrag werden verschiedene statistische und maschinelle Lernmodelle verwendet, um den Energieverbrauch in Smart Communities zu analysieren. Zur Validierung der Vorhersagemodelle werden Smart-Meter-Daten von unserem Campus verwendet. Die Ergebnisse zeigen, dass das Modell des langen Kurzzeitgedächtnisses (LSTM) besser für die Vorhersage des Energiebedarfs geeignet ist. Das LSTM-Modell wird dann verwendet, um den Energiebedarf in Studentenwohnheimen unter Bedingungen wie Klima und Ferien vorherzusagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6987-0_10 2423f682b4b0b83b38cdbe1acc90cdd6;de;;;7.4.;;;Industrielle Anwendungen von Künstlicher Intelligenz In diesem Papier werden aktuelle und zukünftige Anwendungen von Künstlicher Intelligenz (KI) und wissensbasierten Systemen in der Fertigung untersucht. Dies ist kein Überblick über die Robotertechnologie, sondern konzentriert sich stattdessen auf Entscheidungsprobleme in der Fertigung. Herstellung bezieht sich in diesem Fall auf den gesamten Produktlebenszyklus: Produktdesign, Produktionsplanung, Produktion, Vertrieb sowie Außendienst und Reklamation. Die Überprüfung konzentriert sich darauf, wo an jedem Punkt des Produktlebenszyklus Probleme zu lösen sind, wo KI derzeit eingesetzt wird und wo sie in Zukunft eingesetzt werden kann. Die Ergebnisse einer kürzlich durchgeführten Umfrage zeigen, dass Forschung und Entwicklung in diesem Bereich in den 1980er Jahren deutlich zugenommen haben. Die meisten konzentrieren sich auf Spot-Anwendungen der Technologie. Neuere Arbeiten verfolgen eine systemische Sicht auf die Fertigung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83590-2_6 ea7edf4dee546fa892c03a17059ab67c;de;;;7.4.;;;Ansatz zur Korrelationsfindung chinesischer linguistischer Parameter basierend auf der Bayes'schen Methode Der Bayes'sche Ansatz ist eine wichtige Methode in der Statistik. Das Bayes'sche Glaubensnetzwerk ist ein mächtiges Werkzeug zur Wissensrepräsentation und Argumentation unter den Bedingungen der Unsicherheit. Es ist ein Grafikmodell, das wahrscheinlichkeitstheoretische Beziehungen zwischen interessierenden Variablen kodiert. In diesem Beitrag wird ein Ansatz zur Bayesschen Netzwerkkonstruktion vorgestellt, um die chinesische linguistische Parameterbeziehung im Korpus zu entdecken.;-;-;-;https://link.springer.com/article/10.1007/BF02946656 b66f203e47b485f31ec1fa6e28a7cc26;de;;;7.4.;;;Einführung in Social Computing Mit dem Aufkommen des Web 2.0 hat sich Social Computing in letzter Zeit zu einem der heißesten Forschungsthemen entwickelt. Social Computing umfasst das Sammeln, Extrahieren, Zugreifen, Verarbeiten, Berechnen, Visualisieren usw. von sozialen Signalen und Informationen. Insbesondere legt dieses Tutorial besondere Schwerpunkte auf maschinelles Lernen, Data Mining, Informationsabruf und andere Computertechniken, die an der Verarbeitung von Sozialverhaltensdaten aus Blogs, Wikis, Klickdaten, Abfrageprotokollen, Tags usw Bereiche wie soziale Netzwerke, soziale Suche, soziale Medien, soziale Lesezeichen, soziale Nachrichten, sozialer Wissensaustausch und soziale Spiele. In diesem Tutorial plane ich, eine Einführung in Social Computing zu geben und zu erläutern, wie die verschiedenen Eigenschaften und Aspekte in den sozialen Plattformen für kollektive Intelligenz involviert sind. Die Themen umfassen Theorie und Modellierung sozialer Netzwerke, Graph Mining, Verarbeitung von Abfrageprotokollen, Rangstufenlernen, Empfehlungssysteme, menschliche Berechnungen usw soziales Computing.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12098-5_55 7a6b681a0f3e3f52fab8215d60491be7;de;;;7.4.;;;Eine einheitliche Sicht auf Künstliche Intelligenz und Computer Vision Nach der Einführung einer natürlichen und intrinsischen Verbindung zwischen den sich entwickelnden Themen der Künstlichen Intelligenz und der Computer Vision-Forschung, insbesondere im Kontext der Computersystemforschung der nächsten Generation, bietet der Beitrag einen Überblick über den Rahmen der aktuellen Bildverständnisforschung aus der Sicht des Wissens Ebene, Informationsebene und Komplexität. Da ein universelles Computer-Vision-System in der Lage sein muss, 3D-Objekte zu erkennen, versucht der Artikel, das 3D-Objekterkennungsproblem zu definieren, und diskutiert grundlegende Konzepte, die mit diesem Problem verbunden sind. Als Hauptanwendungsgebiet wurde oft ein industrielles Bildverarbeitungssystem und die Szenenanalyse in der Luftbildfotografie genannt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2249-8_27 3d56f6a5bf2a0fa047674a0ebe25f8c3;de;;;7.4.;;;TWIMC: Ein E-Mail-System für anonyme Empfänger Immer mehr Menschen verlassen sich auf E-Mails anstelle von Briefen, um miteinander zu kommunizieren. Obwohl E-Mails bequemer sind, haben Briefe immer noch viele nette Funktionen. Der Umgang mit „anonymen Empfängern“ ist eine davon. Ziel dieser Forschung ist es, einen Software-Agenten zu entwickeln, der als Mensch die Routing-Aufgabe für die anonymen Empfänger-E-Mails übernimmt. Der Software-Agent namens „TWIMC (To Whom It May Concern)“ empfängt anonyme Empfänger-E-Mails, analysiert sie und leitet die E-Mail dann an die am meisten qualifizierte Person (d. h. das E-Mail-Konto) innerhalb der Organisation weiter. Für die Aufgabe werden die Techniken des maschinellen Lernens und der automatischen Textkategorisierung (ATC) angewendet. Wir betrachten jedes E-Mail-Konto als eine Kategorie (oder Klasse) von ATC. Die täglichen E-Mail-Sammlungen für jedes E-Mail-Konto bieten eine hervorragende Quelle für Trainingsdaten. Das Experiment zeigt die hohe Wahrscheinlichkeit, dass TWIMC in der realen Welt eingesetzt werden könnte.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48035-8_36 e90fca16b9b2ae3331a4c219cbe4d2bf;de;;;7.4.;;;SDLV: Nachweis der Lenkwinkelsicherheit für selbstfahrende Autos Selbstfahrende Autos haben in den letzten zehn Jahren erhebliche Fortschritte erzielt, indem sie beispielsweise Millionen von Kilometern ohne menschliches Zutun zurücklegen. Allerdings konnte die Verhaltenssicherheit bei der Anwendung von Systemen auf Basis von tiefen neuronalen Netzwerken (DNN-basiert) für selbstfahrende Autos nicht garantiert werden. Es gab bereits mehrere reale Unfälle mit selbstfahrenden Autos, von denen einige zu tödlichen Kollisionen führten. In diesem Beitrag stellen wir eine neuartige und automatisierte Technik zur Überprüfung der Lenkwinkelsicherheit für selbstfahrende Autos vor. Die Technik basiert auf Deep Learning Verification (DLV), einem automatisierten Verifikationsframework für die Sicherheit neuronaler Netze zur Bildklassifizierung. Wir erweitern DLV, indem wir Neuronenabdeckung und Slack-Relation nutzen, um das Beurteilungsproblem von vorhergesagten Verhaltensweisen zu lösen und so die Überprüfung der Lenkwinkelsicherheit für selbstfahrende Autos zu erreichen. Wir evaluieren unsere Technik anhand der durchgängigen selbstfahrenden Architektur von NVIDIA, die ein wesentlicher Bestandteil vieler moderner selbstfahrender Autos ist. Experimentelle Ergebnisse zeigen, dass unsere Technik erfolgreich feindliche Fehlklassifikationen (d. h. falsche Lenkungsentscheidungen) innerhalb bestimmter Regionen finden kann, falls sie existieren. Daher können wir eine Sicherheitsüberprüfung (wenn keine Fehlklassifizierung für alle DNN-Schichten gefunden wird, in diesem Fall kann das Netzwerk als stabil oder zuverlässig bezüglich Steuerungsentscheidungen bezeichnet werden) oder eine Fälschung (in diesem Fall können die gegnerischen Beispiele zur Feinabstimmung verwendet werden) erreichen. das Netzwerk einstellen).;-;-;-;https://link.springer.com/article/10.1007/s00165-021-00539-2 c1555490190b52ef732da2cfbe2c9e61;de;;;7.4.;;;Transaktions- und Identitätsauthentifizierungs-Sicherheitsmodell für E-Banking: Zusammenfluss von Quantenkryptografie und KI In jedem Online-Banking-System besteht das Hauptanliegen darin, neben einigen anderen Bankdienstleistungen die ultimative Sicherheit und Vertraulichkeit der persönlichen Daten des Kunden oder der Transaktionen zu erreichen, die ausgeführt werden. Leider ist es mit dem täglichen Fortschritt in der Technologie zu einer wirklichen Herausforderung geworden, solchen Sicherheitsverletzungen standzuhalten, da Banken die Besitzer sehr sensibler Daten sind, die bei Missbrauch verheerende Schäden anrichten können. Gegenwärtig wird gesagt, dass moderne Verschlüsselungstechniken ausreichend sind, um Informationen zu sichern, aber es besteht immer noch Bedarf, diese Verschlüsselungstechniken zu verbessern, da diese unsicher sind, bedingungslose Sicherheit bereitzustellen, was einige Kommunikationssicherheitsprobleme verursacht. In diesem Papier haben wir eine Quantenlösung vorgeschlagen, um solche Sicherheitsprobleme durch den Einsatz von KI anzugehen. Durch den Ersatz von SSL- oder SET-Verbindungen mit klassischen Verschlüsselungstechniken durch die quantenkryptografischen Sicherheitssysteme können Datenschutz und Authentizität der Daten gewährleistet und die Wahrscheinlichkeit von Angriffen minimiert werden. Auch Funktionen der KI wie Fuzzy-Logik und Wissensdatenbank werden genutzt. Durch die Kombination der beiden wird ein robustes und reaktionsschnelles Sicherheitsmodell für das E-Banking vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6052-7_29 628e05e82f34129ef330b3d179aa9b3b;de;;;7.4.;;;Faires Ranking der Bedürftigsten in weltweiten sozialen Systemen. Ein Ansatz der künstlichen Intelligenz, der im Ausbruch der Cov2-Pandemie geboren wurde Ohne eine klare Vorstellung davon, wie lange der Cov2 die Menschheit noch beeinträchtigen wird, sehen sich die Regierungen einer mehrfach auffallenden Bedrohung ohne Präzedenzfälle ausgesetzt. Die erste große Herausforderung bestand darin, zu definieren, ob versucht wurde, Kontaminationen zu blockieren oder Kranke zu heilen. Die Frage schien zwei Antworten zu haben, abhängig von der etablierten medizinischen Kapazität jedes Landes. Doch in weniger als zwei Monaten mussten selbst die Staats- und Regierungschefs wohlhabender Länder zugeben, dass es nur eine Antwort gab: Zwangsisolation. Weniger wohlhabende Länder führten die Haft ein, aber bald geraten sie in eine tödlichere Gefahr. Diese Gesellschaften sind aus einer Vielzahl von Gründen bescheiden. Sie haben eine schwache Wirtschaft mit Arbeitslosenquoten von über 10 % und einer informellen Erwerbstätigkeit, die ab der Hälfte der Erwerbsbevölkerung liegt. Die Führer begannen, Menschen, die für einen Lohn arbeiten und kein Geld anhäufen können, in Gefangenschaft zu schicken. Die Regierungen aktivierten gewaltsam ihre sozialen Notstandsprotokolle und die Benachteiligten erhalten die Hilfe. Hier erhebt sich eine weitere Dimension des aktuellen Dilemmas. Wie kann sichergestellt werden, dass die Leistungen die richtigen Haushalte erreichen? Wie lange soll die Hilfe dauern?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-61702-8_4 a0d01d28651be84e9c10acb0a67dfdcf;de;;;7.4.;;;Pfadbasiertes Ranking und Clustering Als neu entstehende Netzwerkmodelle weisen heterogene Informationsnetzwerke viele einzigartige Merkmale auf, z. B. komplexe Strukturen und reiche Semantik. Darüber hinaus ist der Metapfad, die Abfolge von Beziehungen, die zwei Objekttypen verbindet, ein effektives Werkzeug, um verschiedene Objekttypen zu integrieren und die semantischen Informationen in dieser Art von Netzwerken zu ermitteln. Die einzigartigen Eigenschaften des Metapfads machen das Data Mining in heterogenen Netzwerken interessanter und anspruchsvoller. In diesem Kapitel werden wir zwei grundlegende Data-Mining-Aufgaben vorstellen, Ranking und Clustering, in heterogenen Informationsnetzwerken. Darüber hinaus stellen wir die HRank-Methode vor, um die Bedeutung mehrerer Objekttypen und Metapfade zu bewerten, und präsentieren den HeProjI-Algorithmus zur Lösung der heterogenen Netzwerkprojektion und Integration von Clustering- und Ranking-Aufgaben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-56212-4_4 40b22e427d030ab4e0cda380f1f3cdad;de;;;7.4.;;;Automatische Generierung statischer Features für Compiler-Optimierungsprobleme Moderne Compiler haben viele Optimierungsdurchgänge, die helfen, einen besseren Binärcode für ein bestimmtes Programm zu erhalten. Diese Optimierungen sind NP-schwer. Menschen verwenden verschiedene Heuristiken, um eine nahezu optimale Lösung zu erhalten. Diese Heuristiken werden von einem Compiler-Experten entworfen, nachdem er Beispielprogramme untersucht hat. Dies ist eine anspruchsvolle Aufgabe. In letzter Zeit haben Menschen maschinelle Lerntechniken anstelle von Heuristiken für Compileroptimierungen verwendet. Machine-Learning-Techniken haben nicht nur den menschlichen Aufwand eliminiert, sondern auch die von Menschen gemachten Huristiken übertroffen. Die menschlichen Bemühungen wurden jedoch von der Erstellung von Heuristiken auf die Auswahl guter Merkmale verlagert. Die Auswahl der richtigen Funktionen ist für maschinelle Lerntechniken wichtig, da kein Werkzeug für maschinelles Lernen mit schlecht ausgewählten Funktionen gut funktioniert. Dieses Whitepaper stellt einen neuartigen Ansatz vor, um Funktionen für maschinelles Lernen für Compiler-Optimierungsprobleme ohne menschliche Beteiligung zu generieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25832-9_78 f4996c90842b84ce9b565e56e096d513;de;;;7.4.;;;Forschung im Gange: Bericht zum Doktorandenkonsortium ICAIL 2017 Dieses Papier entstand aus der 2017 internationalen Konferenz über KI und Rechtsdoktorandenkonsortium. Es gab fünf Studenten, die ihre Ph.D. Arbeit, und jeder von ihnen hat einen Abschnitt zu diesem Papier beigetragen. Das Papier bietet einen Überblick über die Themen, die Studierende derzeit beschäftigen, und zeigt die Vielfalt ihrer Interessen und Einflüsse.;-;-;-;https://link.springer.com/article/10.1007/s10506-018-9220-6 8b9d2915cc493532ff467460747534a8;de;;;7.4.;;;Quantenmechanik und Künstliche Intelligenz Dieses Kapitel stellt den Fall vor, dass quantenmechanische Maschinen benötigt werden, damit KI (künstliche Intelligenz) mit der biologischen Intelligenz mithalten kann. Wir beginnen mit einem Überblick über die Quantenmechanik und beschreiben einige ihrer Paradoxien in Bezug auf Nichtlokalität und sofortige Reduktion der Wellenfunktion. Es wird argumentiert, dass die Nichtlokalität der Quantenmechanik und die probabilistische Zustandsreduktion bei der Messung die Theorie im klassischen Sinne nicht berechenbar machen. Einige Parallelen zwischen der Quantenverarbeitung und der Funktionsweise des menschlichen Geistes werden skizziert. Biologische Systeme auf physischer Ebene sowie das Gehirn zeichnen sich durch Reorganisation als Reaktion auf Reize aus, was sich deutlich in der Änderung der Stärke der Vernetzung zwischen Neuronen zeigt, was darauf hindeutet, dass sich biologisches Lernen stark vom klassischen maschinellen Lernen unterscheidet. Aber Reorganisation allein kann nicht der Grund für die Leistungsfähigkeit der biologischen Intelligenz sein, und deshalb untersuchen wir die kürzlich vorgeschlagenen Quantencomputermodelle auf ihre Rechenleistung. Wir geben einen Überblick über ihre Funktionsweise und kritisieren sie auch im Hinblick auf ihre Realisierbarkeit. Wir argumentieren, dass praktische Quantenmaschinen anders konzipiert werden müssen als die derzeit erforschten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84628-943-9_5 cf90fafc4e5b95de6b0e57fbeb9b3613;de;;;7.4.;;;Von Themenmodellen zu semi-überwachtem Lernen: Voreingenommene Modelle mit gemischten Mitgliedschaften, um themenindikative Funktionen beim Entity-Clustering auszunutzen Wir stellen Methoden vor, um verschiedene Formen der Supervision in Modelle für latente Variablen mit gemischter Mitgliedschaft einzuführen. Zuerst führen wir eine Technik ein, um die auszunutzenden Modelle zu verzerren;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40991-2_40 5ac4fd7fb845d41617dc67a73ac54f45;de;;;7.4.;;;Vielfältig geregeltes Multi-Task-Lernen Multi-Task-Learning (MTL) hat im maschinellen Lernen viel Aufmerksamkeit auf sich gezogen. Durch das gleichzeitige Trainieren mehrerer Aufgaben können Informationen besser zwischen Aufgaben geteilt werden. Dies führt bei vielen Problemen zu einer erheblichen Leistungsverbesserung. Die meisten existierenden Methoden gehen jedoch davon aus, dass alle Aufgaben miteinander verbunden sind oder ihre Beziehung einer einfachen und festgelegten Struktur folgt. In diesem Papier schlagen wir einen neuartigen, vielfältig regulierten Rahmen für Multi-Task-Lernen vor. Anstatt einfache Beziehungen zwischen Aufgaben anzunehmen, schlagen wir vor, Aufgabenentscheidungsfunktionen sowie eine vielfältige Struktur aus Daten gleichzeitig zu lernen. Da Mannigfaltigkeiten beliebig komplex sein können, zeigen wir, dass unser vorgeschlagenes Framework viele neuere MTL-Modelle enthalten kann, z. RegMTL und cCMTL als Sonderfälle. Das Framework kann durch wechselseitiges Erlernen aller Aufgaben und des vielfältigen Aufbaus gelöst werden. Insbesondere das Lernen aller Aufgaben mit der Mannigfaltigkeitsregularisierung kann als Einzelaufgabe-Lernproblem gelöst werden, während die Mannigfaltigkeitsstruktur durch sukzessive Bregman-Projektion auf eine konvexe zulässige Menge erhalten werden kann. Sowohl an synthetischen als auch an realen Datensätzen zeigen wir, dass unsere Methode die anderen konkurrierenden Methoden übertreffen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34487-9_64 c969536a140147adfd1323fd4668dfcf;de;;;7.4.;;;Record Linkage Methodik und Anwendungen Da die Informationstechnologie schnell voranschreitet und das Internet blüht, tendieren viele Unternehmen zur Elektronisierung und Globalisierung. Einzelpersonen und Organisationen haben mehr Kanäle oder Methoden, um Informationen offenzulegen und Informationen zu sammeln. Das Ergebnis ist, dass Einzelpersonen und Organisationen den zunehmenden Herausforderungen gegenüberstehen, die großen Datenmengen zu verarbeiten und die relevanten Qualitätsinformationen für ihre spezifischen Geschäftsanforderungen zu finden. Darüber hinaus enthalten die von mehreren Ressourcen gesammelten Daten normalerweise Fehler und doppelte Informationen. Es besteht ein dringender Bedarf, Duplikate zu erkennen und in der Datenvorbereitungsphase zu entfernen, bevor erweitertes Data Mining durchgeführt wird [1, 2, 3, 4]. In anderen Fällen reichen Daten aus einer einzigen Datenquelle nicht aus, um einen vollständigen Überblick über eine natürliche oder juristische Person zu erhalten. Daher müssen Daten miteinander verknüpft oder integriert werden, um eine einzige vollständige Ansicht über eine Person, ein Produkt, ein Objekt, ein geografisches Gebiet oder eine beliebige Entität bereitzustellen, um eine bestimmte Geschäftsanwendung zu erfüllen [5, 6].;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-1415-5_14 8faa17c5c7b19b28c765a480a2985360;de;;;7.4.;;;Modellierungsaufgabe fMRT-Daten über Deep Convolutional Autoencoder Die aufgabenbasierte fMRI (tfMRI) wird häufig verwendet, um funktionelle Gehirnnetzwerke zu untersuchen. Die Modellierung von tfMRT-Daten ist aufgrund von mindestens zwei Problemen eine Herausforderung: Das Fehlen der Grundwahrheit der zugrunde liegenden neuronalen Aktivität und die intrinsische Struktur von tfMRT-Daten ist hochkomplex. Um Gehirnnetzwerke basierend auf fMRT-Daten besser zu verstehen, wurden datengesteuerte Ansätze vorgeschlagen, beispielsweise Independent Component Analysis (ICA) und Sparse Dictionary Learning (SDL). Sowohl ICA als auch SDL erstellen jedoch nur flache Modelle und gehen davon aus, dass das ursprüngliche fMRI-Signal mit ihren entsprechenden räumlichen Karten linear in Zeitreihenkomponenten zerlegt werden könnte. Da immer mehr Beweise zeigen, dass die menschliche Gehirnfunktion hierarchisch organisiert ist, sind neue Ansätze gefragt, die die hierarchische Struktur von Gehirnnetzwerken ableiten und modellieren können. In letzter Zeit hat das Deep Convolutional Neural Network (CNN) viel Aufmerksamkeit auf sich gezogen, da sich Deep CNN als leistungsfähige Methode zum Lernen von Abstraktionen auf hoher und mittlerer Ebene aus Rohdaten auf niedriger Ebene erwiesen hat. Inspiriert von der Leistungsfähigkeit von Deep CNN haben wir in dieser Studie eine neue neuronale Netzwerkstruktur basierend auf CNN entwickelt, genannt Deep Convolutional Auto-Encoder (DCAE), um die Vorteile sowohl des datengesteuerten Ansatzes als auch der hierarchischen Feature-Abstraktion von CNN zu nutzen Fähigkeit zum unbeaufsichtigten Erlernen von mittleren und höheren Merkmalen aus komplexen tfMRT-Zeitreihen. Das DCAE wurde auf den öffentlich zugänglichen tfMRI-Datensätzen des Human Connectome Project (HCP) angewendet und getestet, und es wurden vielversprechende Ergebnisse erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-59050-9_33 6af81a9bd68365782d79eab048699861;de;;;7.4.;;;Leistungssteigerung künstlicher neuronaler Netze durch Behebung des Klassenüberlappungsproblems Das Problem der Klassenüberschneidung ist eine der wichtigsten Herausforderungen des maschinellen Lernens der letzten Jahre. Trotz der rasanten Entwicklung leistungsfähiger maschineller Lernmodelle für Klassifikationsaufgaben leiden die meisten von ihnen unter Klassenüberschneidungen. Künstliche Neuronale Netze (KNN), die ein äußerst erfolgreiches Modell für maschinelles Lernen sind, leiden unter diesen Problemen. Studien haben den Effekt unausgeglichener Klassen bei KNNs festgestellt. Der Effekt überlappender Klassen ist jedoch noch nicht gut untersucht. Aus dieser Motivation heraus schlägt der vorliegende Artikel eine auf weiche Mitgliedschaft basierende Überlappungsentfernungstechnik (SMORET) vor, um die Leistung von KNNs in Gegenwart überlappender Klassen zu verbessern. Das vorgeschlagene Verfahren ist in der Lage, die Datenpunkte im überlappten Bereich zu erkennen und sie aus dem Trainingsphasendatensatz zu entfernen. Die vorgeschlagene Methode wird mit realen und künstlichen Datensätzen getestet, die speziell entwickelt wurden, um die Wirkung überlappender Klassen in Bezug auf verschiedene Leistungsmessmetriken zu verstehen. Die Ergebnisse haben gezeigt, dass SMORET in der Lage ist, die signifikantesten und am schwierigsten zu erlernenden Datenpunkte im überlappenden Bereich zu erkennen. Darüber hinaus verbessert es die Leistung von KNN bei Klassifikationsaufgaben in größerem Maße.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9433-5_22 48108fc9ab4e5c2e58c6e092c3fde4ff;de;;;7.4.;;;Unbeaufsichtigte Bilderzeugung und -manipulation mit Deep Convolutional Adversarial Networks In den letzten Jahren gab es einen Ausbruch im Bereich Computer Vision durch die Einführung von Convolutional Neural Networks. Allerdings wurden Convolutional Neural Networks nur selten für unüberwachtes Lernen verwendet. Die Weiterentwicklung der Rechenleistung und große Datensätze bieten große Möglichkeiten, Deep Learning für die Bildverarbeitung anzuwenden. Dieses Papier schlägt eine neue Architektur vor, die auf dem Deep Convolutional Generative Adversarial Network (DCGAN) für die unbeaufsichtigte Bilderzeugung basiert und deren Verwendung für Bildmanipulationsaufgaben wie Rauschunterdrückung, Superauflösung und Dekonvolution verwendet wird. Dieses vorgeschlagene Modell demonstriert, dass die erlernten Funktionen für Bildverarbeitungsaufgaben verwendet werden können – und demonstriert ihre Anwendungen für den allgemeinen Gebrauch, da DCGAN aus großen Datensätzen lernt und Bilddetails und Funktionen auf hoher Ebene hinzufügt, wo herkömmliche Methoden nicht verwendet werden können. Während die Bildergebnisse der vorgeschlagenen Netzwerkarchitektur und der ursprünglichen DCGAN-Architektur in Bezug auf die Leistung ähnlich sind, sind sie bei der Betrachtung durch den Menschen visuell besser.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4859-2_4 659279b5459fdc25f3864907599ee542;de;;;7.4.;;;Anwendungen des maschinellen Lernens für eine Echtzeitüberwachung von Arrhythmiepatienten mit IoT Die Echtzeitüberwachung lebensbedrohlicher Herz-Kreislauf-Erkrankungen wie Herzrhythmusstörungen mit tragbaren Sensoren und Internet-of-Things-Geräten (IoT) ebnet den Weg zu mobilen Gesundheitssystemen (M-Health). Smartphones mit entwickelten Anwendungen, tragbare Sensoren und IoT-Geräte sind die Hauptbestandteile des entwickelten Echtzeit-Arrhythmie-Überwachungssystems. In dieser Arbeit wird eine hausinterne Herzüberwachung rund um die Uhr unter Verwendung von maschinellen Lerntechniken vorgeschlagen, um die Symptome von Arrhythmien durch Klassifizierung der aus dem UCI-Repository erhaltenen Daten vorherzusagen. Das physiologische Signalelektrokardiogramm (EKG) gilt als charakteristisch für das anomale Verhalten des Herzsystems. Unsere Hauptneuheit ist die Vorhersage der Symptome von Herzrhythmusstörungen durch die Analyse und Klassifizierung von Daten, die von den Patienten mithilfe von Sensoren oder Smartphones erhalten wurden, in die im Repository klassifizierten Daten. Wir stellen die Genauigkeit und Effizienz der vorgeschlagenen Lösung fest, indem wir den großen Datensatz mit den im Feld gesammelten EKG-Signalen analysieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4112-4_5 f56f7cd9dc196ffecac800fd70871e79;de;;;7.4.;;;Spielerkennung mit Fußball-Tracking-Daten basierend auf maschinellem Lernen Im Profifußball werden alle Spieldaten wie Pass, Dribbling usw. aufgezeichnet. Allerdings werden die Spieldaten manuell aufgezeichnet, was einen enormen Aufwand erfordert. Um den menschlichen Aufwand zu reduzieren, schlagen wir eine Methode vor, um die Labels von Spielen in Fußballspielen aus Tracking-Daten zu erkennen. Durch die Verwendung von Funktionen, die aus Tracking-Daten extrahiert wurden, generieren wir ein Spielklassifikatormodell basierend auf maschinellem Lernen. Wir haben die vorgeschlagene Methode anhand von echten Tracking-Daten evaluiert, die in der Japan Professional Football League (J. League) aufgezeichnet wurden. Die Ergebnisse haben gezeigt, dass unsere Spielerkennung effektiv ist, um den hohen Arbeitsaufwand für die Spielkennzeichnung zu verringern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98530-5_78 bc3d33801cb6aa6260ca6c3d1abdfa6e;de;;;7.4.;;;Trends bei der Anwendung von maschinellem Lernen auf netzwerkbasierte Intrusion Detection-Systeme Computernetzwerke spielen in modernen Industrieumgebungen eine wichtige Rolle, da viele ihrer Bereiche stark vom Weiterbetrieb und der Verfügbarkeit der bereitgestellten Netzwerkdienste abhängig sind. Das Netzwerk selbst sieht sich jedoch vielen Sicherheitsherausforderungen in Form verschiedener massiver Angriffe gegenüber, die seine Nutzung verhindern und jährlich enorme finanzielle Verluste verursachen. Die am weitesten verbreiteten Beispiele für solche verheerenden Angriffe sind Denial-of-Service- (DoS) und verteilte DoS-Angriffe (DDoS). Dieses Papier konzentriert sich auf die Analyse von Erkennungsmethoden, die die Auswirkungen von Angriffen eliminieren. Der Beitrag stellt die Herausforderungen aktueller netzwerkbasierter Intrusion Detection Systeme (NIDS) aus unterschiedlichen Perspektiven vor. Sein Hauptaugenmerk liegt auf der allgemeinen Funktionalität ausgewählter Detektionsmethoden, deren Kategorisierung und anschließenden Vorschlägen für einige Verbesserungspotenziale. Unter Berücksichtigung der Anforderungen an gegenwärtige und zukünftige NIDS betonen wir die Anwendung von Machine Learning (ML). Der Beitrag analysiert den Forschungsstand von vier bestimmten ML-Techniken hinsichtlich ihres Umsetzungserfolgs als NIDS – Bayesian Networks (BN), Support Vector Machines (SVM), Artificial Neural Networks (ANN) und Self-organizing Maps (SOM). Die Analyse zeigt verschiedene Nachteile und Vorteile der einzelnen Methoden auf. Sein Zweck liegt in der Entdeckung aktueller Trends, die eine Richtung für die zukünftige Forschung aufzeigen, die möglicherweise zu einer allgemeinen Designverbesserung neuer Methoden führen kann. Das Ergebnis unserer Forschung fasst Trends in Form von Trendlisten und deren Einfluss auf unsere zukünftige Forschung zusammen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-93408-2_16 dad3db806731ffa6f263736a8c8d3b6c;de;;;7.4.;;;Früherkennung von Sepsis-induzierter Verschlechterung durch maschinelles Lernen Sepsis ist eine übermäßige körperliche Reaktion auf eine Infektion im Blutkreislauf, die dazu führt, dass sich einer von fünf Patienten innerhalb von zwei Tagen nach der Aufnahme ins Krankenhaus verschlechtert. Bis jetzt wurde kein klares Instrument zur Früherkennung einer Sepsis-induzierten Verschlechterung gefunden. Diese Forschung verwendet Elektrokardiogramm (EKG), Atemfrequenz und Blutsauerstoffsättigung kontinuierliche Biosignale, die von 132 Patienten des Universitätsklinikums Groningen während der ersten 48 Stunden nach der Krankenhausaufnahme gesammelt wurden. Diese Daten werden im Rahmen einer Reihe von Merkmalsextraktionsstrategien und maschinellen Lerntechniken als explorativer Rahmen untersucht, um die vielversprechendsten Methoden zur Früherkennung einer Sepsis-induzierten Verschlechterung zu finden. Die Analyse umfasst die Verwendung von Gradient Boosting Machines, Random Forests, Linear Support Vector Machines, Multi-Layer Perceptrons, Naive Bayes Classifiers und k-Nearest Neighbors Classifiers. Die vielversprechendsten Ergebnisse wurden mit Linear Support Vector Machines erzielt, die auf Merkmalen trainiert wurden, die aus einzelnen Herzschlägen unter Verwendung der Wavelet-Transformation und autoregressiver Modellierung extrahiert wurden, wobei die Klassifizierung als Mehrheitsvotum der Herzschläge über mehrere lange EKG-Segmente erfolgte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-31978-6_1 61dcb511b4985841cf574c5b7af423db;de;;;7.4.;;;Identifizierung von Gebotsrobotern für Online-Auktionen mit maschinellem Lernen Ziel dieses Projektes ist es, mittels maschinellem Lernen die Bieterroboter zu identifizieren, die in einer Online-Auktion bieten. Bidding Robot ist im Grunde eine Anwendung, die hilft, automatisch ein Gebot abzugeben oder auf eine Website zu klicken. Dieses Projekt wird den Website-Besitzern also helfen, unfaire Auktionen zu verhindern, indem die Roboter einfach gekennzeichnet und von ihren Websites entfernt werden. Die wichtigsten Schritte sind Merkmalsextraktion, Merkmalsauswahl, Modellimplementierung und Klassifizierung. Das Feature-Engineering umfasst die Feature-Extraktion, das Löschen unnötiger Features und das Auswählen notwendiger Features. Verschiedene Klassifikationsmodelle für maschinelles Lernen werden mit neuen Funktionen zur Klassifizierung von Online-Auktionsgebote von Menschen und Robotern angewendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5258-8_25 9a4e20cf46110130a08963b79f0efa77;de;;;7.4.;;;Suche nach Kohlenstoffsternen und DZ-Weißen Zwergen in SDSS-Spektrenvermessung durch maschinelles Lernen Kohlenstoffsterne und DZ-Weiße Zwerge sind zwei Arten seltener Objekte in der Galaxis. In diesem Artikel haben wir den Label-Propagation-Algorithmus angewendet, um nach diesen beiden Arten von Sternen aus Data Release Eight (DR8) des Sloan Digital Sky Survey (SDSS) zu suchen, der durch Berechnung von Präzision und Erinnerung als effizient verifiziert wurde. Aus fast zwei Millionen Spektren einschließlich Sternen, Galaxien und QSOs haben wir 260 neue Kohlenstoffsterne gefunden, in denen 96 Sterne als Zwerge und 7 als Riesen identifiziert wurden, und 11 Zusammensetzungsspektrumsysteme (jedes besteht aus einem Weißen Zwerg Kohlenstoffstern). In ähnlicher Weise haben wir mit der Label-Propagation-Methode 29 neue DZ-Weiße Zwerge von SDSS DR8 erhalten. Verglichen mit PCA-rekonstruierten Spektren sind die 29 Befunde typische DZ-Weiße Zwerge. Wir haben auch ihre Eigenbewegungen untersucht, indem wir sie mit der Eigenbewegungsverteilung von 9.374 Weißen Zwergen verglichen haben, und fanden heraus, dass sie die aktuell beobachteten Weißen Zwerge durch SDSS im Allgemeinen mit großen Eigenbewegungen erfüllen. Darüber hinaus haben wir ihre effektiven Temperaturen geschätzt, indem wir die polynomielle Beziehung zwischen effektiver Temperatur und gr-Farbe bekannter weißer DZ-Zwerge angepasst haben, und fanden 12 der 29 neuen weißen DZ-Zwerge kühl, von denen neun zwischen 6.000 K und 6.600 K und drei liegen unter 6.000 K.;-;-;-;https://link.springer.com/article/10.1007/s11433-013-5374-0 1f07adff3585a4a5e7ee43ad94d6e71b;de;;;7.4.;;;Der virtuelle Arzt: Das Online-Tool zur Organisation von ungeplanten Besuchen für Mukoviszidose-Patienten (CF) mit maschinellem Lernen Es wurde vorhergesagt, dass die Zahl der erwachsenen Mukoviszidose-Patienten (CF) in den nächsten fünf Jahren zunehmen wird. Diese Erhöhung wird das derzeit überarbeitete System weiter belasten. Patienten mit CF müssen sich etwa alle vier Monate mit ihrem multidisziplinären Team (MDT) treffen. Wenn ein Patient zwischen diesen Terminen gesundheitliche Bedenken hat, muss er sich einer telefonischen Untersuchung unterziehen. Diese Telefonate können sporadisch sein und erfordern die Anwesenheit eines MDT-Mitglieds, was Ressourcen und Zeit belastet. Das Projekt Virtual Doctor zielt darauf ab, diesen Effekt durch die Schaffung eines Online-Bewertungsdienstes zu reduzieren, bei dem Patienten mit dem Virtual Doctor über Spracherkennungs- und Sprachsynthesetechnologien in ihrem eigenen Webbrowser interagieren. Der virtuelle Arzt erstellt einen Bericht über den Besuch des Patienten, der dann ausgewertet und an den MDT gesendet wird, um Maßnahmen zu ergreifen. Der Patient erhält auch ein Feedback von dem Besuch, das umreißt, wann das Team in Kontakt treten wird. In diesem Papier werden die Designanforderungen erörtert, die sowohl für den CF-Patienten als auch für das MDT erfüllt werden müssen, sowie die Implementierung des Virtual Doctor-Tools. Das Tool wurde auch in eine Pilotstudie mit 12 Teilnehmern aufgenommen, in der ihre Erfahrungen mit dem Tool bewertet wurden. Die Gesamtergebnisse waren positiv, was zeigt, dass dieses Instrument sowohl den Patienten als auch dem medizinischen Personal zugute kommen kann, indem es den Patienten ermöglicht, sich über ihren eigenen Zustand und Gesundheitszustand zu informieren und gleichzeitig das Zeit- und Ressourcenmanagement zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-68527-0_6 73843bf6dbb2bd29c28391f8ee3f288f;de;;;7.4.;;;Datenvorverarbeitung und Data Mining als Generalisierung Wir stellen hier ein abstraktes Modell vor, in dem die Datenvorverarbeitung und das Data-Mining die eigentlichen Phasen des Data-Mining-Prozesses als zwei verschiedene Arten der Verallgemeinerung beschrieben werden. Im Modell sind die Data Mining- und Datenvorverarbeitungsalgorithmen als bestimmte Generalisierungsoperatoren definiert. Wir verwenden unser Framework, um zu zeigen, dass nur drei Data Mining-Operatoren: Klassifizierung, Clustering und Assoziationsoperator benötigt werden, um alle Data Mining-Algorithmen für Klassifizierung, Clustering bzw. Assoziation auszudrücken. Wir können auch formal zeigen, dass die Generalisierung, die in der Vorverarbeitungsphase stattfindet, sich von der Generalisierung unterscheidet, die der eigentlichen Data-Mining-Phase innewohnt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78488-3_27 4cb0e10e2f5983da4d907695fb41a7dd;de;;;7.4.;;;Vorläufige Studie zur Modellierung der Aufmerksamkeitssteuerung in komplexen Trainingsumgebungen In komplexen Qualifikationstrainingssystemen müssen die Auszubildenden mehrere Fertigkeiten in einer begrenzten Zeit beherrschen, was zu einer großen mentalen Arbeitsbelastung führen kann. Eine erhöhte Arbeitsbelastung wirkt sich oft auf die Leistung aus und die Auszubildenden können während des Trainings abgelenkt oder überlastet werden. Aufmerksamkeitssteuerung ist eine kritische Aktivität in Timesharing-Umgebungen mit automatischen Aufgaben, und Psychologen fanden heraus, dass sich durch Training bessere Strategien zur Aufmerksamkeitssteuerung entwickeln können. Obwohl Aufmerksamkeitsmanagement eine Schlüsselkompetenz ist, die erworben werden muss, wurde es nicht in Betracht gezogen, Inhalte als Benutzermodell ausreichend zu bewerten. In diesem Beitrag schlagen wir einen Ansatz für die Aufmerksamkeitssteuerungsmodellierung vor, indem wir regelmäßige Verhaltensmuster erkennen, die möglicherweise die Wechselwirkung zwischen primärer und Teilaufgabenleistung erklären. Wir können die Aufmerksamkeitsverschiebung der Auszubildenden zwischen den Aufgaben erkennen, indem wir die seriellen Episoden der entdeckten Verhaltensweisen interpretieren. Als Trainingsbereich mit hohem Aufmerksamkeitsbedarf haben wir das Spiel Space Fortress verwendet, bei dem ein kontinuierlicher Eingabestrom von Schiffsmanövern und intermittierenden Ereignisdaten die Quelle des Benutzermodells ist. Wir fanden die Abhängigkeiten zwischen diesen heterogenen, mehrmaligen Streams und dem Point of Attention Shift. Domänenexperten oder Trainingscoaches können anhand der erkannten Musterregeln auf die Aufmerksamkeitssteuerungsfähigkeit der Trainees schließen, die ihnen helfen, wünschenswerte Strategien zur Bewältigung von Multi-Teilaufgaben anzuleiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24840-8_9 66a66b10b4458f4b30961d73e3a8087c;de;;;7.4.;;;Anwendung maschineller Lernmethoden bei der Modellierung hydrolithosphärischer Prozesse Eines der dringendsten Probleme bei der Untersuchung und Analyse hydrolithosphärischer Prozesse ist der Aufbau von verifizierbaren mathematischen und Computermodellen, die es ermöglichen, das Verhalten eines Objekts unter verschiedenen Anfangsbedingungen und Eingangseinflüssen vorherzusagen. In letzter Zeit werden in der geologischen Forschung zunehmend Methoden des maschinellen Lernens eingesetzt. In diesem Artikel werden Methoden des maschinellen Lernens diskutiert, die in der geologischen Exploration zur Automatisierung der Datenanalyse sowie zur Informationsmodellierung von neuronalen Netzwerken geologischer Objekte verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1480-4_38 66495af2b4696026b3ccf5e6b79aa68c;de;;;7.4.;;;Ein Klassifikator basierend auf einem groben Set und einer Relevanzvektormaschine für die Krankheitsdiagnose Als grobe Relevanzvektormaschine (RRVM) wird ein neues intelligentes Verfahren zur Krankheitsdiagnostik auf Basis der Rough Set Theory (RST) und der Relevanz Vector Machine (RVM) zur Klassifikation vorgestellt. Das RRVM mischt die starke Regelextraktionsfähigkeit des Grobsatzes mit der hervorragenden Klassifikationsfähigkeit der Relevanzvektormaschine durch die Vorverarbeitung von Anfangsinformationen, die Reduzierung von Daten und das Training der Relevanzvektormaschine. Im Vergleich zu herkömmlichen Intelligenzmethoden wie Neuronal Network (NN), Support Vector Machine (SVM) und Relevanz Vector Machine (RVM) gelingt es dieser Methode, Krankheitsproben objektiv und effektiv mit weniger transzendenten Informationen zu identifizieren.;-;-;-;https://link.springer.com/article/10.1007/s11859-009-0302-x 3c70942650dcaff562a96fc9d7fbafec;de;;;7.4.;;;Analyse und Klassifizierung von zerrissenen Tabakblättern mit maschinellen Lerntechniken Tabakpflanzen sind eine der wichtigsten Kulturpflanzen der Welt und spielen eine wichtige Rolle auf dem internationalen Markt. Nach der Kultivierung von Tabakpflanzen ist die Klassifizierung von zerrissenen Tabakblättern eine der anspruchsvollen Aufgaben. Im Allgemeinen erfolgt die Klassifizierung von zerrissenen Blättern in Indien nur durch einen manuellen Prozess. Ein auf maschinellem Lernen basierendes Klassifizierungsmodell wird eingeführt, um den menschlichen Eingriff bei der Klassifizierung von Tabakblättern zunichte zu machen. Das vorgeschlagene Modell wurde nach der Klassifizierung von drei wichtigen Merkmalen wie Farbe, Textur und Form entworfen. Für experimentelle Zwecke werden die Bilder der Blätter mit einem mobilen Sensor aufgenommen und der Datensatz erstellt. Der Datensatz besteht aus 2040 Tabakblattbildern, aus dem Bilddatensatz werden 1378 Bilder zum Training und 622 Bilder zum Testen verwendet. Das vorgeschlagene Modell wird durch viele maschinelle Lernalgorithmen validiert, wobei das Klassifizierungsmodell eine Effizienz von 94,2 % bei der Validierungsgenauigkeit und 86 % bei der Testgenauigkeit erreichte. Das vorgeschlagene Modell weist eine signifikant hohe Leistung bei der Klassifizierung von zerrissenen Tabakblättern auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5258-8_18 210d2b95600fd6bd5a1a42af136c20ce;de;;;7.4.;;;Unüberwachte Dimensionsreduktion versus überwachte Regularisierung zur Klassifikation aus spärlichen Daten Unüberwachte, auf Matrixfaktorisierung basierende Dimensionsreduktionstechniken (DR) werden im Allgemeinen für das Feature-Engineering mit dem Ziel verwendet, die Generalisierungsleistung von Vorhersagemodellen zu verbessern, insbesondere bei massiven, spärlichen Feature-Sets. Oft wird DR für denselben Zweck eingesetzt wie überwachte Regularisierung und andere Formen der Komplexitätskontrolle: Ausnutzen eines Bias/Varianz-Kompromisses, um Overfitting abzuschwächen. Im Gegensatz zu dieser Praxis besteht Konsens unter den bestehenden Expertenrichtlinien, dass die überwachte Regularisierung ein überlegener Weg zur Verbesserung der Vorhersageleistung ist. Diese Richtlinien werden jedoch bei dieser Art von Daten nicht immer befolgt, und es ist nicht ungewöhnlich, dass DR ohne Vergleich zur Modellierung mit dem vollen Funktionsumfang verwendet wird. Darüber hinaus berücksichtigt die vorhandene Literatur nicht, dass DR und überwachte Regularisierung oft zusammen verwendet werden. Wir vergleichen experimentell die binäre Klassifikationsleistung unter Verwendung von DR-Features mit den Originalmerkmalen unter zahlreichen Bedingungen: mit insgesamt 97 binären Klassifizierungsaufgaben, 6 Klassifikatoren, 3 DR-Techniken und 4 Bewertungsmetriken. Entscheidend ist auch, dass wir mit verschiedenen Methoden experimentieren, um verschiedene wichtige Hyperparameter abzustimmen und zu bewerten. Wir finden ein sehr klares, aber nuanciertes Ergebnis. Bei Verwendung modernster Hyperparameter-Auswahlmethoden bringt die Anwendung von DR keinen Mehrwert über die überwachte Regularisierung hinaus und kann oft die Leistung beeinträchtigen. Wenn die Regularisierung jedoch nicht gut durchgeführt wird (z. B. verwendet man nur den Standard-Regularisierungsparameter), hat DR eine relativ bessere Leistung – aber diese Ansätze führen insgesamt zu einer geringeren Leistung. Diese letztgenannten Ergebnisse liefern eine Erklärung dafür, warum Ärzte möglicherweise weiterhin DR verwenden, ohne den notwendigen Vergleich mit der Verwendung der ursprünglichen Funktionen vorzunehmen. Angesichts der Hauptergebnisse erscheint diese Praxis jedoch im Allgemeinen fehlgeleitet, wenn das Ziel darin besteht, die Generalisierungsleistung zu maximieren.;-;-;-;https://link.springer.com/article/10.1007/s10618-019-00616-4 3d8b7629814ed6ad4ab211fc114a89f2;de;;;7.4.;;;Forschung zum Sicherheitsschutzschema der Automatisierung von Verteilungsnetzen Um die Anforderungen des automatischen Sicherheitsschutzes in Smart Grids zu erfüllen, wird ein Sicherheitsschutzschema für die Verteilungsautomatisierung basierend auf einem Sicherheitsverschlüsselungschip vorgeschlagen. Ohne den normalen Betrieb des Verteilerterminals zu beeinträchtigen, werden die Merkmale der Verteilerautomatisierung hinzugefügt, wie z. B. großer Verteilerbereich und Außenbetrieb. Der Sicherheitschip LKT4305-GM wird verwendet, das Sicherheitsbetriebssystem wird übernommen, die Funktion des sm1-, sm2-, sm3-, sm4-State-Secret-Algorithmus und des PKI-Systems werden realisiert. Das digitale PKI-Power-Dispatching-Zertifikat verwendet die Authentifizierungstechnologie für digitale Zertifikate, und basierend auf der Verschlüsselungstechnologie des nationalen kommerziellen Verschlüsselungsalgorithmus realisiert es die Zwei-Wege-Identitätsauthentifizierung zwischen Verteilerstation und Verteilerterminal.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-3150-4_15 e7e864f47dc0f9d499951fd30484141a;de;;;7.4.;;;Auf dem Weg zur automatischen Merkmalskonstruktion für die überwachte Klassifizierung Wir schlagen einen Ansatz zur Automatisierung der Variablenkonstruktion für überwachtes Lernen vor, insbesondere im multirelationalen Umfeld. Domänenwissen wird spezifiziert, indem die Struktur von Daten mit Hilfe von Variablen, Tabellen und tabellenübergreifenden Verknüpfungen beschrieben und Konstruktionsregeln gewählt werden. Der Raum der konstruierbaren Variablen ist praktisch unendlich, was sowohl kombinatorische als auch Überanpassungsprobleme aufwirft. Wir führen eine Prior-Verteilung über alle konstruierten Variablen sowie einen effektiven Algorithmus ein, um Stichproben von konstruierten Variablen aus dieser Verteilung zu ziehen. Experimente zeigen, dass der Ansatz robust und effizient ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44848-9_12 dba5692f4c6b1b0f63a27706dc7301ea;de;;;7.4.;;;Systematische Überprüfung von Rechtschreibprüfungen für stark flektierende Sprachen Die Leistung von Textverarbeitungsprogrammen, Suchmaschinen und sozialen Medien hängt stark von Rechtschreibprüfungen, Grammatikprüfungen usw. ab. Rechtschreibprüfungen sind die Sprachwerkzeuge, die den Text aufschlüsseln, um Rechtschreibfehler zu überprüfen. Es warnt den Benutzer, wenn der Text unbeabsichtigt falsch geschrieben wurde. Im Bereich der Rechtschreibprüfung fehlt uns noch eine umfassende Studie, die Aspekte wie Stärken, Limitationen, behandelte Fehler, Performance sowie die Bewertungsparameter abdeckt. In der Literatur gibt es Rechtschreibprüfungen für verschiedene Sprachen, die alle ähnliche Eigenschaften aufweisen, jedoch unterschiedlich aufgebaut sind. Diese Studie folgt den Richtlinien der systematischen Literaturrecherche und wendet sie auf den Bereich der Rechtschreibprüfung an. Die Schritte der systematischen Überprüfung werden an 130 ausgewählten Artikeln angewendet, die in führenden Zeitschriften, führenden Konferenzen und Workshops im Bereich der Rechtschreibprüfung verschiedener Flexionssprachen veröffentlicht wurden. Diese Schritte umfassen die Formulierung der Forschungsfragen, die Auswahl von Forschungsartikeln, Ein-/Ausschlusskriterien und die Extraktion der relevanten Informationen aus den ausgewählten Forschungsartikeln. Die Literatur zur Rechtschreibprüfung ist nach den Sprachen in wesentliche Teilbereiche gegliedert. Jeder Teilbereich wird dann basierend auf der verwendeten Technik beschrieben. In dieser Studie werden verschiedene Artikel nach bestimmten Kriterien analysiert, um zu einem Ergebnis zu kommen. Dieser Artikel schlägt vor, wie die Techniken aus den anderen Bereichen wie Morphologie, Wortart, Chunking, Stemming, Hash-Tabelle usw. bei der Entwicklung von Rechtschreibprüfungen verwendet werden können. Sie beleuchtet auch die großen Herausforderungen für die Forschenden sowie das zukünftige Forschungsgebiet der Rechtschreibprüfung.;-;-;-;https://link.springer.com/article/10.1007/s10462-019-09787-4 5b9935f24328b6a92725a4addafe33a0;de;;;7.4.;;;Adaptive Methoden zur Klassifikation in willkürlich unausgeglichenen und driftenden Datenströmen Streaming-Daten sind in einer Vielzahl von Data-Mining-Anwendungen allgegenwärtig. Ein grundlegendes Problem beim Mining von Streaming-Daten ist die zeitliche Verteilungsdrift. Streams können auch hohe und unterschiedliche Grade an Klassenungleichgewicht aufweisen, was die Aufgabe weiter verkomplizieren kann. In solchen Szenarien ist das Klassenungleichgewicht besonders schwer zu überwinden und wurde nicht so gründlich untersucht. In diesem Papier betrachten wir umfassend die Probleme sich ändernder Verteilungen in Verbindung mit einem hohen Grad an Klassenungleichgewicht bei Streaming-Daten. Wir schlagen neue Ansätze vor, die auf Verteilungsdivergenz und Metaklassifikation basieren, die mehrere Leistungsmetriken verbessern, die häufig bei der Untersuchung unausgewogener Klassifikationen verwendet werden. Wir schlagen auch ein neues Distanzmaß zum Detektieren von Verteilungsdrift vor und untersuchen seinen Nutzen bei der Gewichtung von Ensemble-Basisklassifikatoren. Wir verwenden ein sequentielles Validierungs-Framework, das unserer Meinung nach die sinnvollste Option im Zusammenhang mit dem Streaming von unausgeglichenen Daten ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14640-4_5 91cc4f517f22f010341c8baf573773d1;de;;;7.4.;;;Instanzauswahlmethode zur Verbesserung des grafikbasierten semi-überwachten Lernens Graphbasiertes semi-überwachtes Lernen ist ein wichtiges semi-überwachtes Lernparadigma. Obwohl sich grafikbasierte semi-überwachte Lernmethoden in verschiedenen Situationen als hilfreich erwiesen haben, können sie die Leistung bei Verwendung nicht gekennzeichneter Daten beeinträchtigen. In diesem Papier schlagen wir eine neue graphenbasierte semi-überwachte Lernmethode vor, die auf der Instanzauswahl basiert, um die Wahrscheinlichkeit einer Leistungsdegeneration zu verringern. Unsere Grundidee ist, dass es bei einer Reihe von nicht gekennzeichneten Instanzen nicht der beste Ansatz ist, alle nicht gekennzeichneten Instanzen auszunutzen mit hohem Risiko. Wir entwickeln sowohl transduktive als auch induktive Varianten unseres Verfahrens. Experimente mit einer breiten Palette von Datensätzen zeigen, dass die Wahrscheinlichkeit einer Leistungsdegeneration unserer vorgeschlagenen Methode viel geringer ist als die vieler moderner graphenbasierter halbüberwachter Lernmethoden.;-;-;-;https://link.springer.com/article/10.1007/s11704-017-6543-5 fdf1b71baa38656881d18a42760e44b0;de;;;7.4.;;;Bergbau an der phrasalen Grenze Data-Mining-Methoden werden auf eine Vielzahl von Domänen angewendet. Überraschenderweise sind nur wenige Beispiele für Data Mining in Text verfügbar. Angesichts der Menge vorhandener Dokumentensammlungen wäre jedoch Text Mining am nützlichsten. Traditionell wurden Texte mit verschiedenen Methoden der Informationsgewinnung und der Verarbeitung natürlicher Sprache analysiert. In diesem Beitrag stellen wir unsere ersten Experimente zur Anwendung allgemeiner Methoden des Data Mining zur Entdeckung von Phrasen und gleichzeitig vorkommenden Begriffen vor. Wir beschreiben auch den entwickelten Text-Mining-Prozess. Unsere Ergebnisse zeigen, dass Data-Mining-Methoden – bei entsprechender Vorverarbeitung – in der Textverarbeitung eingesetzt werden können und durch eine Schwerpunktverlagerung Ergebnisse für verschiedene Zwecke gewonnen werden können.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-63223-9_133 1d6793303fd6fa4b987ee8e3194ae2bd;de;;;7.4.;;;SRNET: Ein verbindungsbasiertes Convolutional Neural Network Design mit Shallow Skip zur Auflösung von Singularitäten Convolutional Neural Networks (CNNs) haben in den letzten Jahren enorme Fortschritte und Leistungsfähigkeit gezeigt. Seit ihrer Entstehung haben CNNs bei den meisten Klassifikations- und Segmentierungsaufgaben eine hervorragende Leistung gezeigt. Derzeit umfasst die CNN-Familie verschiedene Architekturen, die die wichtigsten Aufgaben der visuellen Erkennung beherrschen. Der Aufbau eines neuronalen Netzes (NN) durch einfaches Stapeln von Faltungsblöcken schränkt jedoch unweigerlich seine Optimierungsfähigkeit ein und führt zu Problemen mit Überanpassung und verschwindenden Gradienten. Einer der Hauptgründe für die genannten Probleme sind Netzwerksingularitäten, die in letzter Zeit zu degenerierenden Mannigfaltigkeiten in der Schadenlandschaft geführt haben. Diese Situation führt zu einem langsamen Lernprozess und geringerer Leistung. In diesem Szenario erwiesen sich die Skip-Verbindungen als eine wesentliche Einheit des CNN-Designs, um Netzwerksingularitäten abzuschwächen. Die vorgeschlagene Idee dieser Forschung besteht darin, Skip-Verbindungen in die NN-Architektur einzuführen, um den Informationsfluss zu verbessern, Singularitäten zu mildern und die Leistung zu verbessern. Diese Forschung experimentierte mit verschiedenen Ebenen von Skip-Verbindungen und schlug die Platzierungsstrategie dieser Links für jedes CNN vor. Um die vorgeschlagene Hypothese zu beweisen, haben wir eine experimentelle CNN-Architektur entworfen, die als Shallow Wide ResNet oder SRNet bezeichnet wird, da sie ein Wide Residual Network als Basisnetzwerkdesign verwendet. Wir haben zahlreiche Experimente durchgeführt, um die Gültigkeit der vorgeschlagenen Idee zu überprüfen. CIFAR-10 und CIFAR-100, zwei bekannte Datensätze, werden zum Trainieren und Testen von CNNs verwendet. Die endgültigen empirischen Ergebnisse haben viele vielversprechende Ergebnisse in Bezug auf Leistung, Effizienz und Reduzierung von Netzwerksingularitäten gezeigt.;-;-;-;https://link.springer.com/article/10.1007/s11390-019-1950-8 175d2b966c3ca9f793a3eed4b50754f5;de;;;7.4.;;;Ein Vergleich von Ansätzen zum Synchronisieren von Ereignissen in Videostreams mit Audio Ein übliches Szenario beim Experimentieren ist die Synchronisierung von Ereignissen, wie z. B. Pausen zwischen visuellen Reizen, mit der Videoaufzeichnung eines Experiments, das von Teilnehmern während der Durchführung der Aufgabe aufgenommen wurde. In unserem Fall haben wir vor kurzem ein Protokoll von Stimulus-Präsentationen synchronisiert, die auf einem Laptop-Display angezeigt werden, mit Webcam-Videos, die von den Gesichts- und Augenbewegungen der Teilnehmer (die zwei Jahre alt waren Punktkinematogramm oder RDK). Der Zweck bestand darin, die Augenbewegungen als Reaktion auf diese RDK-Stimuli als Teil einer potenziellen neurologischen Bewertung für Kinder zu bewerten. Das Video enthielt Audiosignale wie „Pieptöne“ und musikalische Zwischenspiele, die den Beginn und das Ende von Versuchen anzeigten, wodurch eine bequeme Möglichkeit geboten wurde, diese Audioereignisse mit dem Timing bekannter Ereignisse in der Videoaufzeichnung abzugleichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72073-5_20 88768c30c3ab503a84b0bc3ea198503d;de;;;7.4.;;;Empirische Analyse von sitzungsbasierten Empfehlungsalgorithmen Empfehlungssysteme sind Werkzeuge, die Online-Benutzer unterstützen, indem sie sie in Situationen der Informationsüberflutung auf potenzielle Interessen hinweisen. In den letzten Jahren hat die Klasse der sitzungsbasierten Empfehlungsalgorithmen in der Forschungsliteratur mehr Aufmerksamkeit erfahren. Diese Algorithmen stützen ihre Empfehlungen ausschließlich auf die beobachteten Interaktionen mit dem Benutzer in einer laufenden Sitzung und erfordern keine langfristigen Präferenzprofile. In jüngster Zeit wurden eine Reihe von Deep-Learning-basierten („neuralen“) Ansätzen für sitzungsbasierte Empfehlungen vorgeschlagen. Bisherige Forschungen zeigen jedoch, dass die heutigen komplexen neuronalen Empfehlungsverfahren hinsichtlich der Vorhersagegenauigkeit nicht immer besser sind als vergleichbar einfache Algorithmen. Unser Ziel ist es, mit dieser Arbeit den Stand der Technik im Bereich der sitzungsbasierten Empfehlung und die Fortschritte bei neuronalen Ansätzen zu beleuchten. Dazu vergleichen wir zwölf algorithmische Ansätze, darunter sechs neuere neuronale Methoden, unter identischen Bedingungen auf verschiedenen Datensätzen. Wir stellen fest, dass der mit neuronalen Methoden erzielte Fortschritt hinsichtlich der Vorhersagegenauigkeit noch begrenzt ist. In den meisten Fällen zeigen unsere Experimente, dass einfache heuristische Verfahren basierend auf Nearest-Neighbors-Schemata konzeptionell und rechnerisch komplexeren Verfahren vorzuziehen sind. Beobachtungen aus einer Anwenderstudie zeigen darüber hinaus, dass auch Empfehlungen auf Basis heuristischer Methoden von den Studienteilnehmern gut angenommen wurden. Um zukünftige Fortschritte und Reproduzierbarkeit in diesem Bereich zu unterstützen, teilen wir öffentlich die;-;-;-;https://link.springer.com/article/10.1007/s11257-020-09277-1 5e4d585e38ea02b8db7dcaa1594b8158;de;;;7.4.;;;Markov-Logik Die meisten Probleme des maschinellen Lernens in der realen Welt haben sowohl statistische als auch relationale Aspekte. Daher benötigen Lernende Darstellungen, die Wahrscheinlichkeits- und relationale Logik kombinieren. Die Markov-Logik erreicht dies, indem sie den Formeln erster Ordnung Gewichte zuordnet und sie als Vorlagen für Merkmale von Markov-Netzwerken betrachtet. Inferenzalgorithmen für die Markov-Logik basieren auf Ideen aus Erfüllbarkeit, Markov-Kette Monte Carlo und wissensbasierter Modellkonstruktion. Lernalgorithmen basieren auf dem konjugierten Gradientenalgorithmus, Pseudo-Likelihood und induktiver Logikprogrammierung. Die Markov-Logik wurde erfolgreich auf Probleme bei der Entitätsauflösung, Linkvorhersage, Informationsextraktion und anderen angewendet und ist die Grundlage des Open-Source-Systems Alchemy.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78652-8_4 188fd363763b21df93f6b94a376c77d9;de;;;7.4.;;;Kollaboratives Edge-Cloud-Computing für personalisierte Sturzerkennung Der Einsatz von Smartwatches als Geräte zur Verfolgung der Gesundheit und des Wohlbefindens wird gängige Praxis. Dieses Papier demonstriert die Möglichkeit, ein in Echtzeit personalisiertes Deep-Learning-basiertes Sturzerkennungssystem auf einem Smartwatch-Gerät mit einem kollaborativen Edge-Cloud-Framework auszuführen. Insbesondere demonstrieren wir, wie wir die Sturzerkennungspipeline automatisieren, eine entsprechende Benutzeroberfläche auf dem kleinen Bildschirm der Uhr entwerfen und Strategien für die kontinuierliche Datenerfassung und Automatisierung des Personalisierungsprozesses mit den begrenzten Rechen- und Speicherressourcen einer Smartwatch implementieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-79150-6_26 3647c6177dedc482243c5caaeaf0f85f;de;;;7.4.;;;Creative Intelligence – Autodesign Studio mit Generative Adversarial Networks (GAN) automatisieren In diesem Beitrag schlagen wir ein auf Generative Adversarial Networks (GANs) basierendes System vor und implementieren es, um neuartige Fahrzeugdesigns aus einer minimalen Designstudio-Skizze zu erstellen. Eine Schlüsselkomponente unserer Architektur ist eine neuartige Faltungsfilterschicht, die Skizzen erzeugt, die denen ähnlich sind, die von Designern beim Rapid Prototyping gezeichnet werden. Die erzeugten Skizzen sind ästhetischer als die von Standard-Kantenerkennungsfiltern oder Gradientenoperationen. Darüber hinaus zeigen wir, dass unser System in der Lage ist, bisher nicht gesehene Perspektiven eines Autos zu erzeugen, wenn eine Skizze des Autos aus nur einem einzigen Blickwinkel gegeben ist. Für umfangreiche Schulungen, Tests und Validierung unseres Systems haben wir einen umfassenden, gepaarten Datensatz von rund 100.000 Autobildern (mit transparentem Hintergrund) und den entsprechenden Skizzen entwickelt. Unsere Arbeit steigert die menschliche Intelligenz und Kreativität durch maschinelles Lernen und tiefe neuronale Netze. Unser System hat den entscheidenden Vorteil, dass es die Zykluszeit im Sketch-to-Image-Prozess verkürzt, der weitgehend als kreative Domäne angesehen wird. Dies wird erreicht, indem man lernt, eine von einem Designer gezeichnete Vorskizze zu interpretieren, um in Sekundenschnelle neuartige visuelle Designs zu generieren, die ansonsten erheblichen Zeit- und Arbeitsaufwand erfordern. Während das System die Produktivität des Designers steigert, können die durch maschinelles Lernen verbesserten Designvisualisierungen die Kosten während der Produktprototyping-Phase senken. Unser System weist ein gutes Wirkungspotenzial für die Automobilindustrie auf und lässt sich leicht an Branchen anpassen, die kreative Intelligenz erfordern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99740-7_11 00589242aa85865154bbf4facfd8783d;de;;;7.4.;;;Quantenverstärkte Featureauswahl mit Vorwärtsauswahl und Rückwärtseliminierung Die Merkmalsauswahl ist eine bekannte Vorverarbeitungstechnik im maschinellen Lernen, die irrelevante Merkmale entfernen kann, um die Generalisierungsfähigkeit eines Klassifikators zu verbessern und die Trainings- und Inferenzzeit zu reduzieren. Die Merkmalsauswahl ist jedoch zeitaufwändig, insbesondere für Anwendungen mit Tausenden von Merkmalen, wie z. B. Bildabruf, Text-Mining und Microarray-Datenanalyse. Es ist entscheidend, den Feature-Auswahlprozess zu beschleunigen. Wir schlagen eine Quantenversion der Wrapper-basierten Merkmalsauswahl vor, die eine klassische Merkmalsauswahl in ihr Quantengegenstück umwandelt. Es ist wertvoll für maschinelles Lernen auf Quantencomputern. In diesem Artikel konzentrieren wir uns auf zwei beliebte Arten von Merkmalsauswahlmethoden, d. Der vorgeschlagene Merkmalsauswahlalgorithmus kann den klassischen quadratisch beschleunigen.;-;-;-;https://link.springer.com/article/10.1007/s11128-018-1924-8 9c2b976526eab540389f33b5a72bdf77;de;;;7.4.;;;Verwenden von Konfusionsmatrizen und Konfusionsgraphen zum Entwerfen von Ensemble-Klassifizierungsmodellen aus großen Datensätzen Die Klassifizierungsmodellierung ist eine der Methoden, die häufig für das prädiktive Data Mining verwendet wird. Die Ensembleklassifizierung befasst sich mit der Erstellung vieler Basismodelle, die zu einem Modell kombiniert werden, um die Klassifikationsleistung zu erhöhen. Dieser Beitrag berichtet über eine Studie, die durchgeführt wurde, um festzustellen, ob die Verwendung von Informationen in der Konfusionsmatrix eines einzelnen Klassifikationsmodells als Grundlage für das Design von Ensemble-Basismodellen verwendet werden könnte, die eine hohe Vorhersageleistung bieten. Positiv-versus-negative (pVn)-Klassifikation wurde als Methode für das Design des Basismodells untersucht. Verwirrungsgraphen wurden als Eingabe für einen Algorithmus verwendet, der die Klassen für jedes Basismodell bestimmt. Es wurden Experimente durchgeführt, um die von All-Classes-at-Once (ACA) und pVn-Basismodellen bereitgestellten Diversitätsgrade zu vergleichen, wobei ein statistisches Maß der Unähnlichkeit verwendet wurde. Es wurden auch Experimente durchgeführt, um die Leistung von pVn-Ensembles, ACA-Ensembles und einzelnen zu vergleichen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23544-3_23 c2cc2f75f4f58a8d8966879b3c073663;de;;;7.4.;;;Ein kombinierter Klassifikationsalgorithmus basierend auf C4.5 und NB Wenn unsere Lernaufgabe darin besteht, ein Modell mit genauer Klassifizierung zu erstellen, sind C4.5 und NB aufgrund ihrer Einfachheit und hohen Leistung zwei sehr wichtige Algorithmen, um diese Aufgabe zu erfüllen. In diesem Papier präsentieren wir einen kombinierten Klassifikationsalgorithmus basierend auf C4.5 und NB, einfach C4.5-NB. In C4.5-NB werden die Klassenwahrscheinlichkeitsschätzungen von C4.5 und NB entsprechend ihrer Klassifizierungsgenauigkeit in den Trainingsdaten gewichtet. Wir testeten C4.5-NB im Weka-System experimentell unter Verwendung der gesamten 36 von Weka ausgewählten UCI-Datensätze und verglichen es mit C4.5 und NB. Die experimentellen Ergebnisse zeigen, dass C4.5-NB in ​​Bezug auf die Klassifizierungsgenauigkeit C4.5 und NB deutlich übertrifft. Außerdem beobachten wir auch die Ranking-Leistung von C4.5-NB in ​​Bezug auf AUC (der Bereich unter der Receiver Operating Characteristics-Kurve). Glücklicherweise übertrifft C4.5-NB auch C4.5 und NB deutlich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-92137-0_39 9ef1185dfc9260e4131c1f3333ab831f;de;;;7.4.;;;Unabhängigkeit in Unsicherheitstheorien und ihre Anwendung auf lernende Glaubensnetzwerke Das Konzept der Unabhängigkeit ist aufgrund seiner Fähigkeit, das verfügbare Wissen zu modularisieren, für die effiziente Ausführung von Argumentationsaufgaben unerlässlich. Unter Verwendung von Unabhängigkeitsbeziehungen für die Variablen in einem gegebenen Wissensbereich können wir grafische Darstellungen für diesen Bereich konstruieren, sogenannte Glaubensnetzwerke, in denen Rückschlüsse mittels lokaler Berechnungen erfolgen können. Wenn die Unabhängigkeitsbeziehungen zwischen den Variablen nicht direkt gegeben sind, sondern wir einen Datensatz verwenden, der Instanzen der Variablen in der Domäne enthält, um sie zu schätzen, kann die Aufgabe des Lernens der grafischen Struktur als eine Art abduktives Denken betrachtet werden, weil wir versuchen, die geeignetste Struktur für die gegebenen Daten zu finden, dh die Struktur, die die Beobachtungen am besten erklärt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1733-5_9 4d10ce8d613d0149e8e36e82515d5bee;de;;;7.4.;;;Umfassendes Verhalten der Malware-Erkennung mit dem Machine Learning Classifier Jeder nutzt Mobiltelefon- und Android-Märkte wie Google Play, und das Modell, das sie bestimmten Apps anbieten, macht den Google Play-Markt für ihre falschen und Malware-Anwendungen. Einige Entwickler verwenden verschiedene Techniken, um ihren Rang zu erhöhen, die Popularität durch gefälschte Bewertungen, Installationskonten und die Einführung von Malware auf Mobiltelefonen zu erhöhen. Anwendungsentwickler verwenden verschiedene Werbekampagnen, die ihre Popularität als die ranghöchste Anwendung zeigen. Sie manipulieren das Ranking auf dem Chart. In der Vergangenheit haben sie an der Genehmigung und Autorisierung von Anträgen gearbeitet. Darin schlagen wir ein Fairplay vor – ein neuartiges Framework, das Spuren verwendet, um falsche Darstellungen des Rangs und Anwendungen zu finden, die Malware ausgesetzt sind. Fairplay verwendet semantische und verhaltensbezogene Zeichen, die aus Google-Spielinformationen gewonnen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1936-5_49 9f748ed226dc65a7f9fe72ccb00931c9;de;;;7.4.;;;Verifizierung neuronaler Netze Es wird vorausgesetzt, dass der Leser über allgemeine Kenntnisse der V&V-Methoden verfügt. In diesem Kapitel wurde versucht, eine solide Grundlage und ein umfassendes Verständnis der wichtigsten Verifikationsprobleme zu vermitteln, die für neuronale Netze charakteristisch sind.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-29485-6_6 4ff7b4ac692c37e4aecc6af982c5ec77;de;;;7.4.;;;Vorhersage von Lebererkrankungen mit erweiterten Klassifikationsalgorithmen Die vorherige Vorhersage einer Lebererkrankung ist für eine zielgerichtete und wirksame Behandlung sicherlich unerlässlich, da die Leber viele Dinge tut, die uns gesund halten. Es wandelt Nährstoffe in Chemikalien um, die unser Körper benötigt, filtert Giftstoffe heraus und hilft dabei, Nahrungsenergie zu erzeugen. Wenn die Leber also nicht funktioniert, kann dies den gesamten Körper beeinträchtigen. Daher ist die Erkennung und Behandlung von Lebererkrankungen im Ankunftsstadium von entscheidender Bedeutung für eine bessere Gesundheit. Aber für medizinische Forscher ist die Vorhersage der Krankheit in ihren früheren Stadien aufgrund ihrer unbestimmten und ungenauen Symptome schwierig. Simulationen des maschinellen Lernens sind äußerst hilfreich, um Patienten krankheitskritische Messungen, kontinuierliche Informationen und erweiterte Analysen zu liefern. Unser Projekt zielt darauf ab, die Vorhersage von Lebererkrankungen mithilfe von maschinellen Lernansätzen voranzutreiben. Das Hauptziel dieses Projekts ist es, Patienten mit Lebererkrankungen durch den Einsatz von Klassifikationsalgorithmen zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4046-6_5 2e2edef14e2d6cf781c0d128b6e183c9;de;;;7.4.;;;IMDB-Attire: Ein neuartiger Datensatz zur Erkennung und Lokalisierung von Kleidung Die Kleidung der Menschen oder ihre Art, sich zu kleiden, definiert nicht nur ihren sozialen Status und ihre Persönlichkeit, sondern beeinflusst auch die Art und Weise, wie Menschen sie treffen und begrüßen. Die Kleidungserkennung hat viele nützliche Anwendungen, wie zum Beispiel Kleidungspräferenzen in verschiedenen Regionen der Welt könnten überwacht und quantifiziert werden. Diese Informationen sind für Modedesigner sehr wertvoll. Die Kleidungserkennung in Echtzeit kann für die Sicherheitsüberwachung nützlich sein, bei der Informationen über die Kleidung einer Person verwendet werden können, um kriminelle Verdächtige zu identifizieren. In letzter Zeit haben sich Deep-Learning-Algorithmen im Bereich der Objekterkennung und -erkennung als vielversprechend erwiesen. Diese Algorithmen sind datenhungrig und nur so gut wie die Daten, auf denen sie trainiert werden. In dieser Arbeit haben wir uns auf drei Aufgaben konzentriert, um dieses Problem anzugehen. Wir haben einen einzigartigen Datensatz mit ~8000 Bildern erstellt von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36711-4_46 a6dd8a2574908d5c6be9113034dec821;de;;;7.4.;;;Prognose des Aktienmarktes durch Kombination von Machine Learning und Big Data Analytics Big Data hat ein großes Volumen, Geschwindigkeit und Vielfalt. Die Daten stammen aus sozialen Netzwerken, Sensoren, Internet usw. Sie haben einen Informationsfluss und sind sowohl strukturiert als auch unstrukturiert und ein Petabyte an Informationen wird täglich generiert und die Daten sind nicht geordnet. Die Aktienmarktanalyse ist keine leichte Aufgabe und Vorhersagen werden basierend auf mehreren Parametern erstellt. Die Finanzmärkte sind schnell und komplex und die Marktteilnehmer haben es schwer, die überladenen Informationen zu verwalten. Die Sentiment-Analyse ist nützlich, um die Textinhalte zu verarbeiten und die Ergebnisse werden gefiltert und geben die aussagekräftigen und relevanten Informationen. Die technische Analyse soll den zukünftigen Wert basierend auf dem Vergangenheitswert vorhersagen. In dieser Forschung wird die Kombination von technischer Analyse mit maschinellem Lernen und Big Data Analytics implementiert und eine genaue Vorhersage im Aktienmarkt generiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1936-5_41 1aad0fea4cee9a0a48769150c772fe29;de;;;7.4.;;;Erkennungsansätze Das Grundprinzip der Intrusion Detection basiert auf der Annahme, dass sich aufdringliche Aktivitäten deutlich von normalen unterscheiden und somit erkennbar sind [16]. Seit Andersons bahnbrechendem Bericht [5] wurden in der Literatur viele Intrusion Detection-Ansätze vorgeschlagen. Traditionell werden diese Ansätze in drei Kategorien eingeteilt: Missbrauchserkennung, Anomalieerkennung und spezifikationsbasierte Erkennung. Anomalie-basierte Intrusion Detection-Ansätze dienen dazu, ein Modell des Datenflusses zu erstellen, der unter normalen Bedingungen ohne das Vorhandensein von störenden Verfahren überwacht wird. Im Gegensatz dazu zielen Misuse-Detection-Ansätze darauf ab, Wissen über Muster im Datenfluss, von denen bekannt ist, dass sie aufdringlichen Prozeduren entsprechen, in Form von spezifischen Signaturen zu kodieren. Bei spezifikationsbasierten Erkennungsansätzen geben Sicherheitsexperten das erlaubte Systemverhalten vor und somit werden Ereignisse, die nicht den Spezifikationen entsprechen, als Angriffe gekennzeichnet. In diesem Kapitel diskutieren wir diese unterschiedlichen Ansätze im Detail und fassen einige repräsentative Beispiele in jeder Kategorie zusammen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-88771-5_2 2a99db0d815ed93d16b322efb623302e;de;;;7.4.;;;Erkennung abnormaler Bitcoin-Transaktionen basierend auf maschinellem Lernen Dieses Papier widmet sich der Entwicklung einer zuverlässigen Erkennung abnormaler Bitcoin-Transaktionen, die in Geldwäsche und illegalen Handel mit Waren und Dienstleistungen verwickelt sein können. Der Artikel schlug einen Algorithmus zur Erkennung abnormaler Bitcoin-Transaktionen basierend auf maschinellem Lernen vor. Für das Training und die Bewertung des Modells wird der Elliptic-Datensatz verwendet, der aus 46564 Bitcoin-Transaktionen besteht: 4545 von „illegal“ und 42019 von „legal“. Der vorgeschlagene Algorithmus zur Erkennung abnormaler Bitcoin-Transaktionen basiert auf verschiedenen Machine-Learning-Algorithmen mit der Auswahl von Hyperparametern. Um den vorgeschlagenen Algorithmus zu bewerten, haben wir die Metrik Genauigkeit, Präzision, Erinnerung, F1-Score und Index der ausgewogenen Genauigkeit verwendet. Mit dem Resampling-Algorithmus bei Klassenungleichgewichten konnte die Zuverlässigkeit der Klassifizierung abnormaler Bitcoin-Transaktionen im Vergleich zum bekanntesten Ergebnis des Elliptic-Datensatzes erhöht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71214-3_17 d747072c13849f23555decb2a6033065;de;;;7.4.;;;Wie künstliche Intelligenz in realen Situationen angewendet werden kann Im modernen Informationszeitalter müssen Manager die Wettbewerbschancen erkennen, die sich durch Entscheidungshilfen bieten. Eine neue Familie solcher Systeme, die auf den jüngsten Fortschritten in der künstlichen Intelligenz basiert, kombiniert Vorhersage- und Optimierungstechniken, um Entscheidungsträger in komplexen, sich schnell ändernden Umgebungen zu unterstützen. Diese Systeme adressieren die grundlegenden Fragen: Was wird wahrscheinlich in Zukunft passieren? und was ist die beste Vorgehensweise? Diese modernen KI-Systeme umfassen Elemente des Data Mining, Predictive Modeling, Forecasting, Optimierung und Anpassungsfähigkeit und zielen auf erhebliche Kosteneinsparungen und Umsatzsteigerungen für Unternehmen ab. Der Vortrag stellt die Konzepte hinter der Konstruktion solcher Systeme vor und zeigt die aktuellen herausfordernden Forschungsfragen auf. Einige Beispiele aus der Praxis werden gezeigt und diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16239-8_1 49813766b869dade6c856c931514e4af;de;;;7.4.;;;Optoelektronische konvolutionelle neuronale Netze basierend auf der Time-Stretch-Methode In diesem Beitrag wird eine neue Architektur optoelektronischer Convolutional Neural Networks (CNNs) basierend auf der Time-Stretch-Methode vorgeschlagen. In dieser schleifenförmigen Struktur, die hauptsächlich aus faseroptischen und elektronischen Geräten besteht, können Berechnungen von Daten aus jeder CNN-Schicht, die von Lichtimpulsen mit hoher Wiederholungsrate getragen werden, seriell durchgeführt werden. Daher wird ein 5-Schicht-CNN mit zwei Faltungsschichten, zwei Mean-Pooling-Schichten und einer vollständig verbundenen Schicht implementiert. Beim Test der handschriftlichen Ziffernerkennung kann die Genauigkeit unter idealen Umständen bis zu 95 % erreichen. Tests unter verschiedenen relativen Geräuschpegeln wurden ebenfalls durchgeführt und analysiert.;-;-;-;https://link.springer.com/article/10.1007/s11432-020-2998-1 18e7c1c4b8d50c58526d011c934740e3;de;;;7.4.;;;Welchen Beitrag leistet EDM zu computerbasierten Lernumgebungen? Educational Data Mining ist ein neues wachsendes Forschungsgebiet, das als die Anwendung von Data-Mining-Techniken auf Rohdaten aus Bildungssystemen definiert werden kann, um auf die pädagogischen Fragen und Probleme zu reagieren und auch die hinter diesen Daten verborgenen Informationen zu entdecken. In den letzten Jahren hat die Popularität dieses Bereichs eine große Anzahl von Forschungsstudien gefördert, die schwer zu erfassen und den Beitrag von Data-Mining-Techniken in Bildungssystemen zu identifizieren sind. Tatsächlich kann die Nutzung und das Verständnis der von Bildungssystemen gesammelten Rohdaten eine „Goldmine“ sein, um den Designern und Benutzern dieser Systeme zu helfen, ihre Leistung zu verbessern und nützliche Informationen über das Verhalten der Schüler im Lernprozess zu gewinnen. Der Einsatz von Data-Mining-Techniken in E-Learning-Systemen könnte sehr interessant sein, um Lernprobleme zu lösen. Die Ambition der Forscher ist es, auf Fragen zu antworten wie: Was kann den Erfolg der Lernenden vorhersagen? Welche Szenariosequenz ist für einen bestimmten Schüler effizienter? Was sind die Aktionen der Schüler, die den Lernfortschritt anzeigen? Was sind die Merkmale einer Lernumgebung, die ein besseres Lernen ermöglicht? usw. Das aktuelle Feedback ermöglicht es, die Nützlichkeit der Anwendung von EDM bei der Visualisierung und Beschreibung der Lernrohdaten zu erkennen. Auch die Vorhersagen sind von Interesse, insbesondere die Vorhersage der Leistung und des Verhaltens der Lernenden. Ziel dieses Kapitels ist es, eine bibliographische Übersicht über die verschiedenen Studien im Bereich Educational Data Mining (EDM) zu erstellen, um die verschiedenen untersuchten Aspekte zu identifizieren: die analysierten Daten, die Ziele dieser Studien, die verwendeten Techniken und den Beitrag der die Anwendung dieser Techniken im Bereich des computergestützten Lernens. Ziel ist es, nicht nur die bestehenden Arbeiten aufzulisten, sondern auch den Einsatz und das Verständnis von Data-Mining-Techniken zu erleichtern, um den Fachkräften im Bildungsbereich zu helfen, ihr Feedback zu geben und promovierende Forschungsbereiche in diesem Bereich zu identifizieren, die in Zukunft genutzt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-02738-8_1 ee46550a159e3531f28c3d20790a98a3;de;;;7.4.;;;Anwendung von lernenden Klassifikatorsystemen auf die Genexpressionsanalyse in der Synthetischen Biologie Learning Classifier Systems (LCS) sind Algorithmen, die genetische Algorithmen mit Verstärkungslernen integrieren, um adaptive Systeme zu erzeugen, die durch Wenn-Dann-Regeln beschrieben werden. Als neuer interdisziplinärer Zweig der Biologie verfolgt die Synthetische Biologie den Entwurf und die Konstruktion komplexer künstlicher biologischer Systeme von Grund auf. Die Entwicklung künstlicher Stoffwechselwege, die bisher unbeschriebene Reaktionen zeigen, die durch den Zusammenbau von Enzymen aus verschiedenen Quellen in einem einzigen Wirt erzeugt werden, wächst zunehmend. Aufgrund der Schwierigkeit, die Genexpression zu analysieren, ist dies jedoch bisher nur wenigen Forschern gelungen. Um dieses Problem anzugehen, sind Data Mining und Knowledge Discovery unerlässlich. In diesem Zusammenhang sind naturinspirierte LCS gut geeignet, um Wissen aus komplexen Systemen zu extrahieren und können somit genutzt werden, um natürliche biologische Phänomene zu untersuchen und zu nutzen. Dieses Kapitel konzentriert sich auf die Anwendung von LCS auf die Genexpressionsanalyse in der synthetischen Biologie. Konkret beschreibt es die Optimierung der künstlichen Operonstruktur für die Biosynthese von Stoffwechselprodukten in;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-50920-4_10 d6ee26d8221e7b1e633b22020c3b97a3;de;;;7.4.;;;Quantenmaterialien für Hirnwissenschaften und künstliche Intelligenz Ein Kennzeichen des Lebens ist Plastizität, die Reproduktion, Evolution und Anpassungsfähigkeit an die Umwelt ermöglicht. Es ist natürlich zu fragen, ob diese bemerkenswerten Eigenschaften in Natur und Biologie in der Welt der Materialien realisiert und in den aufstrebenden Bereichen autonomer Systeme, künstlicher Intelligenz und Tier-Maschine-Schnittstellen implementiert werden können. Zunächst beschreiben wir grundlegende Eigenschaften von Neuronen und Synapsen im Gehirn, die für die Informationsverarbeitung verantwortlich sind. Dann diskutieren wir Mechanismen, die die elektronische Plastizität in korrelierten elektronischen Quantenmaterialien steuern, die das organismische Verhalten nachahmen. Wir geben Beispiele für lernende Netzwerke und Schaltkreise, die mit Quantenmaterialien entworfen wurden und für maschinelle Intelligenz implementiert werden können. Wir schließen mit Vorschlägen für zukünftige interdisziplinäre Forschungen, bei denen synergistische Interaktionen zwischen Orbitalfüllung, Defekten und Dehnung neue Funktionalitäten mit Relevanz für sensorische Schnittstellen (z.;-;-;-;https://link.springer.com/article/10.1557/mrs.2018.147 72f30e7ce33225ec0bc73c41fb13565b;de;;;7.4.;;;Zukünftige Trends im Umgang mit großen Daten Aus großen Datenmengen nützliche Informationen zu erkennen, ist ein Problem, das so alt wie die Evolution ist. Von der Identifizierung von Beutetieren in einer fernen Landschaft bis hin zur heutigen Big-Data-Analyse stand die Aufgabe der Informationsverarbeitung im Vordergrund des Fortschritts und wird auch in zukünftigen Innovationen sein. In der Vergangenheit war die Menge der gesammelten Daten durch unsere Fähigkeit begrenzt, sie in nützliche Informationen umzuwandeln. Faktoren wie geringe Rechenressourcen, minimaler Informationsspeicher und eine geringe Anzahl erfahrener Analysten schränkten die Datenerfassung ein, indem sie eine sorgfältige Auswahl von Funktionen und Zielen erforderten. Mit der Weiterentwicklung des Mooreschen Gesetzes, dem schnellen Fortschritt von Speichertechnologien, Cloud-Computing-Ressourcen zum Mieten und verteilter Computersoftware werden diese Einschränkungen gelockert. Das Ergebnis ist eine Explosion der Menge an gesammelten Daten aus allen erdenklichen Bereichen unseres Lebens. In diesem Kapitel diskutieren wir die unzähligen Bereiche, in denen große Datenanalysen eingesetzt werden, aktuelle und zukünftige Herausforderungen dieses anhaltenden Aufwärtstrends hin zu größeren Datensammlungen und zukünftige Technologieträger in diesem Bereich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23585-1_5 caa1f72cbb02559634ea367ab63fb742;de;;;7.4.;;;Machine Learning-Ansatz zur Blockierung der Effektreduktion bei Videos mit niedriger Bitrate Diese Arbeit präsentiert einen Ansatz zur Blockierung der Entfernung von Artefakten in hochkomprimierten Videosequenzen unter Verwendung eines Algorithmus, der auf Wörterbuchlernmethoden basiert. Bei diesem Ansatz werden nur die Informationen aus dem Rahmeninhalt verwendet, ohne zusätzliche Informationen aus dem codierten Bitstrom. Der vorgeschlagene Algorithmus passt das Wörterbuch an die räumliche Aktivität im Bild an, wodurch unnötiges Unschärfen von Bildbereichen mit hohen räumlichen Frequenzen vermieden wird. Die Effektivität des Algorithmus wird anhand von komprimiertem Video mit einer festen Blockgröße von 8x8 Pixel demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25733-4_18 bdb8c7a23f7f2456acc6dd984c0e414e;de;;;7.4.;;;Untersuchung der Cepstralkoeffizienten-basierten Schlafphasenbewertungsmethode für Einkanal-EEG-Signale mit maschineller Lerntechnik Das Scoring der Schlafphase ist eine kritische Aufgabe, bei der herkömmlich große Datenmengen visuell analysiert werden müssen, was mühsam, zeitaufwendig und fehleranfällig ist. Schließlich ist eine maschinelle Lerntechnik für die automatische Bewertung der Schlafphasen erforderlich. Daher wird ein neues Merkmalsextraktionsverfahren für die EEG-Analyse und -Klassifikation basierend auf den statistischen Eigenschaften von Cepstralkoeffizienten diskutiert. Das Schlaf-EEG-Signal wird in 30-s-Epochen segmentiert und jede Epoche wird in verschiedene Frequenzbänder zerlegt: Gamma (γ), Beta (β), Alpha (α), Theta (θ) und Delta (δ) unter Verwendung der diskreten Wavelet-Transformation (DWT). Die statistischen Eigenschaften von Mel-Frequenz-Cepstral-Koeffizienten (MFCCs), die die kurzfristigen spektralen Eigenschaften der Wavelet-Koeffizienten darstellen, werden extrahiert. Die MFCC-Merkmalsvektoren werden in das Gaussian Mixture Model with Expectation Maximization (GMM-EM) integriert, um verschiedene Schlafstadien zu klassifizieren: Wake, Rapid Eye Movement (REM) und Non-Rapid Eye Movement (N-REM) Stufe1 (S1), N -REM-Stadium2 (S2), N-REM-Stadium3 (S3), N-REM-Stadium4 (S4). Die vorgeschlagene Merkmalsextraktion für die Schlafphasenbewertung erreicht 88,71 % der durchschnittlichen Klassifikationsgenauigkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67934-1_3 e86246050ce0825d3ec4e9df0377dbbb;de;;;7.4.;;;Phishing-URL-Erkennung mit Techniken des maschinellen Lernens Eine kriminelle Handlung, die online durchgeführt wird, indem man sich für andere ausgibt, um vertrauliche Daten wie Passwörter, Bankdaten, Anmeldeinformationen usw. zu erhalten, wird als Phishing bezeichnet. Die Erkennung solcher Websites in Echtzeit ist ein komplexes und dynamisches Problem, das zu viele Faktoren umfasst. Diese Arbeit konzentriert sich auf die Identifizierung der wichtigen Merkmale, die zwischen Phishing-URLs und legitimen URLs unterscheiden. Um signifikante Merkmale zu erkennen, erfolgt eine statistische Analyse des Phishings sowie legitimer Datensätze. Basierend auf der statistischen Untersuchung wurden bestimmte Funktionen basierend auf URL, HTML, JavaScript und Domain extrahiert. Die wichtigsten und relevantesten Merkmale zur Identifizierung der Phishing-URLs werden mithilfe von Korrelationen identifiziert. Die identifizierten Teilmengen von Merkmalen werden dann verwendet, um verschiedene auf maschinellem Lernen basierende Klassifikatoren zu trainieren, und die erhaltenen Genauigkeiten wurden verglichen. Aus der experimentellen Analyse wird beobachtet, dass die extrahierten Merkmale Phishing-URLs effizient erkannt haben und der Decision Tree-Klassifikator mit höchster Genauigkeit für die Vorhersagen gefunden hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7961-5_99 3d2fecb91a53d3ea25b64397114b59d6;de;;;7.4.;;;Durch Versuch und Irrtum lernen, wahrzunehmen und zu handeln Dieser Artikel betrachtet adaptive Steuerungsarchitekturen, die aktive sensomotorische Systeme mit Entscheidungssystemen basierend auf Reinforcement Learning integrieren. Eine unvermeidliche Folge aktiver Wahrnehmung ist, dass die innere Repräsentation des Agenten oft äußere Weltzustände durcheinander bringt. Wir nennen das Phänomen;-;-;-;https://link.springer.com/article/10.1023/A%3A1022619109594 d3c9270e846bedc305ea053cbc574cb7;de;;;7.4.;;;Auf Datenerweiterung basierende Vorhersage von Aktientrends mit selbstorganisierender Karte Die Vorhersage von Aktientrends war sowohl für Anlagevorteile als auch für Forschungszwecke von großem Interesse. Anders als bei der Bildverarbeitung oder der Verarbeitung natürlicher Sprache, bei denen die Datenmenge leicht eine Millionen-Größenordnung erreichen könnte, ist die Anwendung künstlicher intelligenter Modelle im Bereich der Aktienvorhersage jedoch aufgrund unzureichender Aktienkursdaten begrenzt. Dieser Artikel versucht, die Bestandsvorhersageaufgabe aus einem anderen Blickwinkel zu verbessern und bietet eine neue Methode zur Erweiterung der Trainingsdaten, indem zuerst verschiedene Bestände gemäß ihrer Retracement-Wahrscheinlichkeitsdichtefunktion geclustert werden und dann alle tagesbezogenen Informationen desselben Bestandsclusters kombiniert werden als erweiterte Trainingsdaten, die dann in ein rekurrentes neuronales Netz eingespeist werden, um eine Vorhersage des Aktientrends zu treffen. Experimentelle Ergebnisse zeigen, dass diese Datenerweiterungstechnik für Deep-Learning-Methoden geeignet ist und die Aufgabe der Vorhersage von Aktientrends deutlich verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-70096-0_92 c7fa5d075544d99d24a3db9fb935b4aa;de;;;7.4.;;;Forschung zur Anwendung von Data-Mining-Techniken beim Aufbau von Sporttrainingsmodellen Da China eine große Sportnation ist, ist das tägliche Training der wichtigste Weg, um das Niveau der sportlichen Fähigkeiten zu verbessern. Die wissenschaftliche und vernünftige Organisation eines gezielten Trainings ist für Sportler von großer Bedeutung. Unabhängig von der Sportart erfordert die Entwicklung des technischen und taktischen Trainings wissenschaftliche Daten als Referenzstandard, die für die Entwicklung von Trainingsprogrammen integriert und eingehend analysiert werden. Das Aufkommen der Data-Mining-Technologie ermöglicht es, die Ergebnisse direkt im Trainingsprozess zu verwenden und individuelle Trainingsprogramme basierend auf den tatsächlichen Anforderungen des Sports zu entwickeln. Dieser Ansatz löst somit effektiv das Problem der Trainingsberatung aufgrund des Fehlens traditioneller Trainingsdatenunterstützung und bietet eine neue Richtung für die Trainingsmodelloptimierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-69999-4_109 3d23122fdd9229e43c29d4e8888dfce9;de;;;7.4.;;;Ausschneiden und Analysieren von Nachrichten mit Techniken des maschinellen Lernens Die manuelle Erstellung von Presseclippings für Unternehmen erfordert einen erheblichen Ressourcenaufwand. Wir beschreiben ein System, das Online-Zeitungen und Diskussionsforen automatisch überwacht. Das System extrahiert, klassifiziert und analysiert Nachrichten und generiert automatisch Presseclippings unter Berücksichtigung der spezifischen Bedürfnisse der Kundenunternehmen . Schlüsselkomponenten des Systems sind eine Spinne, eine Informationsextraktionsmaschine, ein Textklassifikator basierend auf der Support Vector Machine, der Nachrichten nach Themen kategorisiert, und ein zweiter Klassifikator, der analysiert, in welchem ​​emotionalen Zustand sich der Autor eines Newsgroup-Posts wahrscheinlich befand. Durch die Analyse einer großen Anzahl von Nachrichten kann das System die wichtigsten Themen, über die für bestimmte Geschäftsbereiche berichtet wird, zusammenfassen und die emotionale Einstellung von Kunden und Aktionären gegenüber Unternehmen zusammenfassen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45650-3_11 4092d0c9986c9f595a8ac70bbee1cc3d;de;;;7.4.;;;Maschinelles Lernen für hochwertige Tokenisierung, die variable Tokenisierungsschemata repliziert In dieser Arbeit untersuchen wir die Verwendung von Sequenzmarkierungstechniken für die Tokenisierung, die wohl die grundlegendste Aufgabe im NLP ist, die traditionell durch heuristische Finite-State-Regeln angegangen wird. Wir beobachten die Unterschiede in den Tokenisierungskonventionen über Korpora und Verarbeitungsaufgaben hinweg und trainieren und testen mehrere;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37247-6_19 fd4d66293e40ab81e267be81ff85ab8f;de;;;7.4.;;;Mehrkomponentensystem für die automatische arabische Diakritisierung In diesem Papier schlagen wir einen Ansatz vor, um das Problem der automatischen Wiederherstellung arabischer diakritischer Zeichen anzugehen, der drei Komponenten umfasst, die in einer Pipeline gestapelt sind: ein Deep-Learning-Modell, das ein mehrschichtiges rekurrentes neuronales Netzwerk mit LSTM- und Dichteschichten ein regelbasierter Korrektor auf Ebene, der deterministische Operationen anwendet, um einige Fehler zu vermeiden, und ein statistischer Korrektor auf Wortebene, der den Kontext und die Distanzinformationen verwendet, um einige Diakritisierungsprobleme zu beheben. Dieser Ansatz ist insofern neu, als er Methoden verschiedener Typen kombiniert und Korrekturen auf der Grundlage der Bearbeitungsentfernung hinzufügt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-45439-5_23 0db1d90b1cf6e937229ae56380a54319;de;;;7.4.;;;Interact: Ein abgestufter Ansatz zur Automatisierung des Kundenservice Customer E-Commerce-Websites haben oft Schwierigkeiten, mit der großen Menge an kundendienstbezogenen E-Mails Schritt zu halten, die sie erhalten. Eine Möglichkeit, das Problem zu beheben, besteht darin, die Beantwortung dieser E-Mail so weit wie möglich zu automatisieren. Viele Kundennachrichten sind im Grunde häufig gestellte Fragen, auf die man leicht antworten kann. Dieser Beitrag untersucht einen stufenweisen Ansatz zum Verstehen von Nachrichten: Eine eingehende Nachricht wird zunächst in eine bestimmte Kategorie eingeordnet. Entspricht die Kategorie der Nachricht einer bestimmten häufig gestellten Frage, wird dem Kunden die Antwort zur Verfügung gestellt. Entspricht die Kategorie einer komplexeren Frage, wird versucht, die Botschaft besser zu verstehen. Nachrichten werden durch eine Kombination aus Bayes-Klassifikator und regulären Ausdrücken kategorisiert, was die Leistung im Vergleich zu einem einfachen Bayes-Klassifikator erheblich verbessert. Eine erste Version des Systems ist auf der FTD-Website (Florist Transworld Delivery) installiert. Es kann mehr als die Hälfte der Kundennachrichten klassifizieren, mit 2,3% Fehler, drei Viertel der kategorisierten Nachrichten sind häufig gestellte Fragen und erhalten eine automatische Antwort.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45486-1_14 bb0f00536a3aad425e72499efdcf9a03;de;;;7.4.;;;Inkrementelle Klassifikationsregeln basierend auf Assoziationsregeln mit formaler Konzeptanalyse Konzeptgitter, Kernstruktur in der formalen Konzeptanalyse, wurde in verschiedenen Bereichen wie Softwareentwicklung und Wissensfindung verwendet. Dies gibt genauere Klassifikatoren für die Klassifizierung. Der verwendete Algorithmus ist inkrementeller Natur. Eine Erhöhung der Anzahl von Klassen, Attributen oder Transaktionen erfordert keinen Zugriff auf die vorherige Datenbank. Das inkrementelle Verhalten ist sehr nützlich, um Klassifikationsregeln für Echtzeitdaten wie die Bildverarbeitung zu finden. Der Algorithmus erfordert nur einen Datenbankdurchlauf durch die gesamte Datenbank. Einzelne Klassen können unterschiedliche Unterstützungsschwellenwerte und Beschneidungsbedingungen haben, z. B. Kriterien für Rauschen und Anzahl der Bedingungen im Klassifikator.;-;-;-;https://link.springer.com/chapter/10.1007/11510888_2 9bb20b0326b57e385a7f537392ecae65;de;;;7.4.;;;Ansätze zur Informationsextraktion: Eine Umfrage In den letzten Jahren wächst die Menge der verfügbaren Informationen im Web. Dadurch ist die Suche nach relevanten Informationen durch diese großen Dokumente zu einer schwierigen Aufgabe geworden. Aus diesem Grund müssen wir Informationsextraktionssysteme entwickeln, um die Verarbeitung und Darstellung von Daten entsprechend den Bedürfnissen des Benutzers zu erleichtern. Diese Systeme sollten für ihre Implementierung einen Extraktionsansatz verfolgen. In diesem Papier geben wir einen Überblick über die grundlegenden Ansätze der Informationsextraktion (IE), die in den entwickelten Systemen verwendet werden. Aufgrund der Bedeutung der semantischen Verarbeitung der Daten untersuchen wir eine bestimmte Klasse von IE-Ansätzen basierend auf Semantik.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-5508-9_28 af830b48d3eb153f1aaac1294cd3e10f;de;;;7.4.;;;Hybride Merkmalsauswahlmethode für die überwachte Klassifizierung basierend auf der Laplace-Score-Rangliste In diesem Artikel stellen wir eine neue hybride Filter-Wrapper-Methode für die überwachte Feature-Auswahl vor, die auf dem Laplace-Score-Ranking in Kombination mit einer Wrapper-Strategie basiert. Wir schlagen vor, Features mit dem Laplace-Score zu ordnen, um den Suchraum zu reduzieren, und verwenden dann diese Reihenfolge, um die beste Feature-Teilmenge zu finden. Wir vergleichen unsere Methode mit anderen auf Rangfolge basierenden Merkmalsauswahlmethoden, nämlich Information Gain Attribute Ranking, Relief, Korrelationsbasierte Merkmalsauswahl, und wir schließen zusätzlich in unseren Vergleich eine Wrapper Subset Evaluation Methode ein. Empirische Ergebnisse von zehn realen Datensätzen aus dem UCI-Repository zeigen, dass unsere Hybridmethode wettbewerbsfähig ist und in den meisten Fällen die anderen Methoden zur Merkmalsauswahl übertrifft, die in unseren Experimenten verwendet wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15992-3_28 da69fdb1be7ee040a829c27a969992b9;de;;;7.4.;;;Vorhersage von Flugverspätungen und Aktivierung intelligenter Flughafendienste in Apache Spark Angesichts des schnell wachsenden Passagier- und Flugaufkommens suchen Flughäfen nach nachhaltigen Lösungen, um das Erlebnis und den Komfort der Passagiere zu verbessern und gleichzeitig ihre Gewinne zu maximieren. Eine wichtige technologische Lösung zur Verbesserung der Servicequalität und der Managementprozesse in Flughäfen sind Internet-of-Things-Systeme (IoT), die das Konzept von Smart Airports umsetzen und Vernetzungspotenzial mit anderen öffentlichen Infrastrukturen und Versorgungsunternehmen von Smart Cities bieten. Um intelligente Flughafendienste bereitzustellen, sind Echtzeit-Flugverspätungsdaten und -prognosen eine wichtige Informationsquelle. Dieses Papier stellt eine grundlegende Methodik vor, die maschinelle Lerntechniken auf Apache Spark, einem Cloud-Computing-Framework, mit Apache MLlib, einer Bibliothek für maschinelles Lernen, verwendet, um Vorhersagemodelle für Flugverspätungen zu entwickeln und zu implementieren, die in Informationssysteme integriert werden könnten, um Up- aktuelle Analytik. Die experimentellen Ergebnisse wurden mit verschiedenen Algorithmen sowohl hinsichtlich der Klassifikation als auch der Regression umgesetzt und zeigen somit das Potenzial des vorgeschlagenen Frameworks.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-79157-5_33 4da8efd8626b9b682f42941e1bb3ac6c;de;;;7.4.;;;Vorhersage des inkrementellen Rückgewinnungsfaktors für Wasserwechselgas und gewonnene Erkenntnisse aus dem WAG-Piloten Das Wasser-Wechselgas-(WAG)-Injektionsverfahren ist eine bewährte Technologie zur verbesserten Ölgewinnung (EOR) mit vielen erfolgreichen Feldanwendungen auf der ganzen Welt. WAG-Pilotprojekte zeigen, dass der inkrementelle Gewinnungsfaktor von WAG typischerweise zwischen 5 und 10 % des ursprünglichen Öls liegt, obwohl in einigen Feldern bis zu 20 % beobachtet wurden. Trotz des nachgewiesenen Erfolgs war das Wachstum der WAG-Anwendungen sehr langsam. Einer der Gründe ist die Nichtverfügbarkeit robuster analytischer Vorhersagewerkzeuge, die den inkrementellen WAG-Wiederherstellungsfaktor schätzen könnten, der für eine vorläufige wirtschaftliche Analyse erforderlich ist, bevor teure und zeitaufwändige detaillierte technische Studien und Feldpilottests durchgeführt werden, die oft viele Eingabedaten erfordern . Um diese Lücke zu schließen, wurde ein halbnumerisches Modell für die Vorhersage des inkrementellen WAG-Wiederherstellungsfaktors basierend auf dem Data Mining von veröffentlichten WAG-Pilotprojekten entwickelt. Eine umfassende Überprüfung der veröffentlichten WAG-Pilotprojekte wurde durchgeführt, und folglich wurden 33 Projekte aus 28 Bereichen weltweit für diese Forschungsstudie ausgewählt. Der inkrementelle WAG-Wiederherstellungsfaktor und Parameter mit insgesamt einhundertsiebenundsiebzig (177) Beobachtungen wurden in das Vorhersagemodell eingegeben. Es wurde ein Vorhersagemodell entwickelt, das sowohl die Regressions- als auch die Gruppenmethode der Datenverarbeitung (GMDH) verwendet. 70% der 33 WAG-Pilotprojektdaten wurden zur Validierung verwendet, während die restlichen 30% des Datensatzes zur Validierung verwendet wurden. Die mit Bestimmtheitsmaß (;-;-;-;https://link.springer.com/article/10.1007/s13202-019-0694-x 50ca98510d45dfccbdf77346d639d8d2;de;;;7.4.;;;Deep Hashing für den Abruf von Bildern mit mehreren Labels: eine Umfrage Content-based Image Retrieval (CBIR) zielt darauf ab, als Ergebnis einer Suche Bilder mit demselben visuellen Inhalt wie eine Anfrage anzuzeigen. Dieses Problem hat im Bereich der Computer Vision zunehmend Aufmerksamkeit auf sich gezogen. Lernbasierte Hashing-Techniken gehören zu den am besten untersuchten Suchansätzen für ungefähre nächste Nachbarn beim Abrufen von Bildern in großem Maßstab. Mit dem Fortschritt der tiefen neuronalen Netze in der Bilddarstellung haben Hashing-Methoden für CBIR begonnen, Deep Learning zum Erstellen von Binärcodes zu verwenden. Solche Strategien werden allgemein als Deep-Hashing-Techniken bezeichnet. In diesem Beitrag präsentieren wir eine umfassende Deep-Hashing-Umfrage für die Aufgabe des Image Retrieval mit mehreren Labels, die die Methoden nach der Behandlung der Eingabebilder kategorisiert: punktweise, paarweise, triplettweise und listenweise sowie deren Beziehungen. Darüber hinaus präsentieren wir Diskussionen zu Raumkosten, Effizienz und Suchqualität der beschriebenen Modelle sowie offene Fragen und zukünftige Arbeitsmöglichkeiten.;-;-;-;https://link.springer.com/article/10.1007/s10462-020-09820-x 6af7453c74cf7f4b1dcf63e3176978a5;de;;;7.4.;;;Vorhersage der Getreideausbeute durch künstliche Intelligenz Gras erweist sich vor allem in Ländern mit tropischem Klima wie Lateinamerika als geeignetes Futter für Rinder. Dies liegt an der hohen Anzahl an verwendbaren Arten, der Möglichkeit, sie das ganze Jahr über anzubauen, der Fähigkeit des Wiederkäuers, Faservorräte zu nutzen und eine wirtschaftliche Quelle zu sein (Sánchez et al., Data Mining und Big Data. DMBD 2018. Vorlesungsskript in Informatik, Bd. 10943. Springer, Cham, 2018, [;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7907-3_34 ff7fc2f8b317d409950247a786d63da9;de;;;7.4.;;;KI-Anwendungen auf Musiktechnologie für Edutainment Die Musikkomposition für Lieder ist für die Menschen aufgrund der Notwendigkeit der komplizierten Musikkompositionstheorie und der kombinierten künstlerischen Konzeption und emotionalen Ideen schwierig. Die emotionale Repräsentation kann die Valenz- und Erregungskoordinaten definieren, und es ist möglich, die Mapping-Technik zwischen Musik und Emotion gemäß dem Text Emotion durchzuführen. Die vorgeschlagene emotionsbasierte algorithmische Musikkomposition verwendet Liedtextemotion, um Musiksegmente zu klassifizieren, und verwendet die Zuordnung zwischen Musik und Emotion. Es kann Leute, die nicht einmal die Musiktheorie kennen, leicht dazu bringen, ein Lied zu komponieren. Einige Demos zeigen schließlich das Ergebnis der Recherche. Daher kann das vorgeschlagene Verfahren auf Bereiche wie die Komposition von populären Liedern, Hintergrundmusik, musikalisches Edutainment, musikalische Bildung usw. angewendet werden. Einige traditionelle Unterhaltungsquellen haben KI zum Komponieren von Musik und Bühnenaufführungen genutzt. KI wird zunehmend interaktivere, personalisiertere und ansprechendere Unterhaltung ermöglichen. In Zukunft werden ausgefeiltere Tools und Apps verfügbar sein, die das Komponieren von Musik noch einfacher machen. Die Erstellung und Verbreitung von Unterhaltung wird vom Fortschritt von Technologien wie ASR, Synchronisation und maschineller Übersetzung profitieren, die eine kostengünstige Anpassung von Inhalten an verschiedene Zielgruppen ermöglichen. Diese Demokratisierung und Verbreitung von KI-geschaffenen Medien macht es schwierig vorherzusagen, wie sich der ohnehin schon fließende Unterhaltungsgeschmack der Menschen entwickeln wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99737-7_63 f3400b78efa5cce254cf3889d11e5d9f;de;;;7.4.;;;Einführung in die Mustererkennung und Bioinformatik Mit dem Erkenntnisgewinn in verschiedenen Zweigen der Biologie wie der Molekularbiologie, Strukturbiologie und Biochemie und der Weiterentwicklung der Technologien können in phänomenaler Geschwindigkeit biologische Daten generiert werden [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-05630-2_1 137cf9078c8fdad15bc9115a7697c305;de;;;7.4.;;;Bemerkungen zur Intelligenz als erweiterter Abruf und seine Implikationen Das derzeitige Verständnis der wichtigen Rolle des Informations- oder Wissensabrufs für künstliche Intelligenz ist nicht ausreichend. In diesem Artikel werden drei Untersuchungsbereiche zum Thema Retrieval zusammengefasst und kommentiert. Es wird argumentiert, dass eine systematischere und einheitlichere Methode zur Untersuchung von Retrieval und Intelligenz erforderlich ist. Es wird ein kurzer Abriss für zukünftige Studien vorgeschlagen, einige philosophische und soziale Implikationen dieser Studie werden ebenfalls diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF02472788 b0b204a72becd5495fb5e6e5dceb6d18;de;;;7.4.;;;Medizinische Diagnose der Parkinson-Krankheit durch multiple Preprocessing-Technik mit knappen Lee Silverman Voice-Behandlungsdaten Die Parkinson-Krankheit ist eine chronische neurodegenerative Erkrankung, die durch die fortschreitende Verschlechterung der motorischen Funktion gekennzeichnet ist, die die Stimmleistung beeinträchtigt und zu einer merklichen Störung der Verschlechterung der Stimmleistung führen kann. Eine frühzeitige Diagnose der Parkinson-Krankheit ist sehr wichtig, um das Fortschreiten der Krankheit zu verhindern. Es ist jedoch eine komplizierte Aufgabe für Spezialisten oder Kliniker, da eine Vielzahl von Symptomen und im Laufe der Zeit fortschreitende Veränderungen der Krankheitssymptome auftreten. Es gibt keinen Standardrahmen, um zu bestimmen, welcher Prozentsatz von Krankheiten auftritt. Diese Forschungsarbeit zielt auf die frühzeitige Identifizierung von Patienten mit Parkinson-Krankheit unter Verwendung mehrerer Vorverarbeitungstechniken ab, die als Multi-Preprocessing-System (MPS) bekannt sind. Das Hauptziel des vorgeschlagenen diagnostischen Rahmens besteht darin, das Potenzial anhaltender Vokalphonationen des Lee Silverman Voice Treatment Datensatzes zu untersuchen, die die Klassifikationsleistung verbessern. Der vorgeschlagene Rahmen hängt von drei Stufen der Vorverarbeitung ab: (a) neuartige Ensemble-Methode zur Merkmalsauswahl, (b) Diskretisierung und (c) Hauptkomponentenanalyse (PCA). Die experimentellen Ergebnisse unterstreichen, dass die vorgeschlagene MPS-Methode eine zusätzliche Unterstützung für eine signifikante Reduzierung der Kardinalität bietet und die modernen Merkmalsauswahlmethoden in Bezug auf Genauigkeit, Empfindlichkeit, Präzision und F-Maß mit sieben Lernalgorithmen übertrifft. Die Bewertungsergebnisse zeigen, dass die vorgeschlagene Methode mit Random Forest (RF) die höchste Leistung in Bezug auf Genauigkeit mit 94,98 %, Empfindlichkeit mit 93,18 %, Präzision mit 94,96 % und F-Messung mit 94,7 % erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1642-5_37 6647bd5ae661074f5e091f5be28098b4;de;;;7.4.;;;Personalisierte Callcenter-Verkehrsvorhersage und Anrufverteilung für Agenten Ein Callcenter arbeitet mit Kundenanrufen, die auf der Grundlage einer Online-Anrufverkehrsvorhersage an Agenten weitergeleitet werden. Vorhandene Methoden zur Anrufvorhersage implementieren ausschließlich induktives maschinelles Lernen, das häufig eine unter genaue Vorhersage für einen anormalen Verkehrsstau in Callcentern liefert. Dieses Papier schlägt ein Verfahren zur personalisierten Anrufvorhersage für Agenten vor, das Informationen über die Fähigkeiten des Agenten als Vorwissen für die Anrufvorhersage und -verteilung codiert. Das entwickelte Call-Broker-System wird auf die Behandlung eines Verkehrsstaus in einem Telekommunikations-Callcenter getestet, der 2008 aufgetreten ist. Die Ergebnisse zeigen, dass das vorgeschlagene Verfahren das Auftreten eines Verkehrsstaus früher vorhersagt als bestehende depersonalisierte Anrufvorhersageverfahren. Die durchgeführte Kosten-Ertrags-Rechnung zeigt, dass der ROI (Return on Investment) für jedes Call Center enorm positiv ist, um ein solches Agentenpersonalisiertes Call-Makler-System zu implementieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24958-7_1 6abbdc980620f2818f8d3bd58379db77;de;;;7.4.;;;Anwendung von Data Mining zur Sentimentanalyse in der Musik Das Hören von Musik kann die Emotionen der Menschen beeinflussen. Sie können gleichzeitig Gefühle wie Glück und Hoffnung oder Traurigkeit und Wut erleben, wenn ein Lied gespielt wird. Auf Emotionen zu schließen, die durch ein musikalisches Fragment verursacht werden können, ist jedoch eine komplexe Aufgabe. Um Zusammenhänge zwischen Gefühlen und Musik abzuleiten, schlagen wir eine Sentiment-Analysemethode vor, die auf Data Mining basiert. Insbesondere werden verschiedene musikalische Merkmale extrahiert und klassifiziert, um den Einfluss einiger Musikparameter auf menschliche Emotionen zu analysieren. Dabei werden Data-Mining-Algorithmen wie Random;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-61578-3_20 3c82b07b24b2bc4f36dd2897547d4c67;de;;;7.4.;;;Implementierung eines modifizierten K-Means-Ansatzes zur Wahrung der Privatsphäre im Data Mining Jüngste Bedenken in Bezug auf Datenschutzverletzungen haben die Entwicklung von Data-Mining-Methoden motiviert, die die Privatsphäre einzelner Datenelemente schützen. Ein Cluster ist das Sammeln von Informationen in einer Weise, dass die Objekte mit ähnlichen Eigenschaften in ähnliche Cluster gruppiert werden und Objekte mit unterschiedlichen Eigenschaften in verschiedene Cluster platziert werden. Der K-Means-Clustering-Algorithmus ist ein weit verbreiteter Plan, um das Clustering-Problem zu lösen. In diesem Artikel wird eine vergleichende Studie von drei Clustering-Algorithmen – K-Means, Hierarchical und Cobweb – über zwei verschiedene Datensätze hinweg durchgeführt. Zur Bildung von Clustern wurde die WEKA API verwendet. Der Vergleich erfolgt mit der Variante der Standard-K-Means-Technik, der modifizierten K-Means-Technik. Die modifizierte K-Means-Technik wurde entwickelt, um im Vergleich zu bestehenden K-Means-, hierarchischen und Spinnweben-Techniken bessere Ergebnisse zu erzielen. Diese Arbeit umfasst auch die Verschlüsselung und Entschlüsselung der gebildeten Cluster unter Verwendung des AES-Algorithmus, um die Daten während der Übertragung über Netzwerke zu schützen. Das experimentelle Ergebnis beweist, dass die Leistung des modifizierten K-Means-Algorithmus im Vergleich zu den bestehenden K-Means-Algorithmen besser ist und besser als der hierarchische und Cobweb, wenn er an zwei Datensätzen getestet wird. K-Means und hierarchisches Clustering bilden weniger Cluster. Im Gegensatz dazu bildet Cobweb viele Cluster, die zu Speicherproblemen führen. Daher bildet Modified K-Means eine geeignete Anzahl von Clustern auf organisierte Weise und benötigt auch minimale Zeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-3773-3_58 c5bb1cc2058ddeea4f25504a5ccbf38f;de;;;7.4.;;;Bidirektionaler LSTM Erkennungsalgorithmus für bösartige Webseiten basierend auf einem neuronalen Faltungsnetzwerk und einem unabhängigen rekurrenten neuronalen Netzwerk Dieses Papier schlägt einen bidirektionalen LSTM-Algorithmus (CBIR) vor, der auf einem konvolutionellen neuronalen Netzwerk und einem unabhängigen rekurrenten neuronalen Netzwerk basiert. Der Algorithmus extrahiert die Funktion „Textur-Fingerabdruck“, die verwendet wird, um die Ähnlichkeit des Inhalts der URL-Binärdatei der bösartigen Webseiten auszudrücken, und verwendet das Wortvektor-Tool word2vec, um die URL-Wortvektorfunktion zu trainieren und die statische URL-Vokabularfunktion zu extrahieren. Die Funktion „Textur-Fingerabdruck“, die URL-Wortvektor-Funktion und die statische URL-Vokabularfunktion werden zusammengeführt und die bösartigen Webseiten werden basierend auf dem CBIR-Algorithmusmodell analysiert und erkannt. Experimentelle Ergebnisse zeigen, dass der vorgeschlagene CBIR-Algorithmus im Vergleich zu anderen Methoden die Genauigkeit der Erkennung bösartiger Webseiten verbessert hat.;-;-;-;https://link.springer.com/article/10.1007/s10489-019-01433-4 1ff880f1176f494b1af28d4c151ce7bb;de;;;7.4.;;;Robuste Bayesian Linear Classifier Ensembles Ensemble-Klassifikatoren kombinieren die Klassifikationsergebnisse mehrerer Klassifikatoren. Einfache Ensemble-Methoden, wie beispielsweise die einheitliche Mittelwertbildung über einen Satz von Modellen, bieten normalerweise eine Verbesserung gegenüber der Auswahl des einzelnen besten Modells. Normalerweise schränken probabilistische Klassifikatoren die Menge möglicher Modelle ein, die gelernt werden können, um die Kosten der Rechenkomplexität zu senken. In diesen begrenzten Räumen, in denen möglicherweise falsche Modellannahmen getroffen werden, schneidet die einheitliche Mittelwertbildung manchmal sogar besser ab als die Bayes-Modell-Mittelwertbildung. Lineare Mischungen über Sätze von Modellen stellen einen Raum bereit, der eine einheitliche Mittelwertbildung als Sonderfall einschließt. Wir entwickeln zwei Algorithmen zum Lernen maximaler a posteriori Gewichte für lineare Mischungen, basierend auf Erwartungsmaximierung und eingeschränkter Optimierung. Wir liefern ein nichttriviales Beispiel für die Nützlichkeit dieser beiden Algorithmen, indem wir sie auf einen Abhängigkeitsschätzer anwenden. Wir entwickeln die konjugierte Verteilung für Ein-Abhängigkeitsschätzer und zeigen empirisch, dass die einheitliche Mittelwertbildung der Bayes'schen Modellmittelung für diese Modellfamilie deutlich überlegen ist. Danach zeigen wir empirisch, dass die maximalen a posteriori linearen Mischungsgewichte die Genauigkeit gegenüber einer gleichförmigen Aggregation signifikant verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/11564096_12 dc31836b24c433ec65dae1d3e506a9fe;de;;;7.4.;;;Informationsextraktion in strukturierten Dokumenten mit Hilfe von Tree Automata Induction Die Informationsextraktion (IE) befasst sich mit dem Problem, spezifische Informationen aus einer Sammlung von Dokumenten zu extrahieren. Ein Großteil der bisherigen Arbeit für IE aus strukturierten Dokumenten, die in HTML oder XML formatiert sind, verwendet Techniken für IE aus Strings, wie beispielsweise Grammatik und Automateninduktion. Solche Dokumente haben jedoch eine Baumstruktur. Daher ist es naheliegend, Methoden zu untersuchen, die in der Lage sind, diese Baumstruktur zu erkennen und auszunutzen. Wir tun dies, indem wir die Verwendung von Baumautomaten für IE in strukturierten Dokumenten untersuchen. Experimentelle Ergebnisse zu Benchmark-Datensätzen zeigen, dass unser Ansatz im Vergleich zu früheren Ansätzen günstig abschneidet.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45681-3_25 3f7eb4ba2f94e7a4412c2c588c2e9c09;de;;;7.4.;;;Synthese von Verstärkungslernstrategien durch mengenwertiges induktives Regellernen Die heutigen fortschrittlichen Reinforcement Learning-Algorithmen erzeugen Black-Box-Richtlinien, die für eine Person oft schwer zu interpretieren und zu vertrauen sind. Wir stellen einen Policy-Distilling-Algorithmus vor, der auf dem CN2-Rule-Mining-Algorithmus aufbaut und die Policy in ein regelbasiertes Entscheidungssystem destilliert. Der Kern unseres Ansatzes ist die Tatsache, dass ein RL-Prozess nicht nur eine Richtlinie lernt, eine Zuordnung von Zuständen zu Aktionen, sondern auch zusätzliche Metainformationen wie Aktionswerte erzeugt, die die Qualität alternativer Aktionen angeben. Diese Metainformationen können anzeigen, ob mehr als eine Aktion für einen bestimmten Zustand nahezu optimal ist. Wir erweitern CN2, um es in die Lage zu versetzen, Wissen über gleich gute Maßnahmen zu nutzen, um die Richtlinie in weniger Regeln zu fassen und ihre Interpretierbarkeit durch eine Person zu erhöhen. Um sicherzustellen, dass die Regeln eine gültige, nicht entartete Richtlinie erklären, führen wir dann einen Verfeinerungsalgorithmus ein, der die Regeln so abstimmt, dass bei Ausführung in der Umgebung eine gute Leistung erzielt wird. Wir demonstrieren die Anwendbarkeit unseres Algorithmus am Mario AI Benchmark, einer komplexen Aufgabe, die moderne Reinforcement-Learning-Algorithmen einschließlich neuronaler Netze erfordert. Die von uns erstellten Erklärungen fassen die erlernte Richtlinie in nur wenigen Regeln zusammen, die es einer Person ermöglichen, zu verstehen, was der Black-Box-Agent gelernt hat. Quellcode:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-73959-1_15 e35c334af4a096b0fe870000b0ba4236;de;;;7.4.;;;Ein neuartiger Ensemble-Modellierungsansatz für die räumliche Vorhersage der Anfälligkeit tropischer Waldbrände unter Verwendung des LogitBoost-Klassifikators für maschinelles Lernen und Geodaten aus mehreren Quellen Eine zuverlässige Anfälligkeitskarte für Waldbrände ist eine Notwendigkeit für das Katastrophenmanagement und eine primäre Referenzquelle in der Landnutzungsplanung. Wir haben uns vorgenommen, den Einsatz der ensemblebasierten Entscheidungsbaum-(LEDT-)Methode von LogitBoost für die Kartierung der Waldbrandanfälligkeit durch eine vergleichende Fallstudie in der Region Lao Cai in Vietnam zu evaluieren. Eine gründliche Literaturrecherche würde zeigen, dass die Methode bisher nicht auf Waldbrände angewendet wurde. Als Benchmarks in der vergleichenden Auswertung wurden Support Vector Machine (SVM), Random Forest (RF) und Kernel Logistic Regression (KLR) verwendet. Auf der Grundlage der Daten früherer Waldbrände wurde eine Brandinventardatenbank für das Untersuchungsgebiet erstellt und entsprechende Konditionierungsfaktoren aus verschiedenen Quellen generiert. Danach wurden Waldbrand-Wahrscheinlichkeitsindizes durch jede der vier Modellierungstechniken berechnet, und die Leistungen wurden anhand der Fläche unter der Kurve (AUC), des Kappa-Index, der Gesamtgenauigkeit, der Spezifität, der Sensitivität, des positiven Vorhersagewerts (PPV) und des negativen Vorhersagewerts verglichen Wert (NPV). Das LEDT-Modell lieferte sowohl bei den Trainings- als auch bei den Validierungsdatensätzen die beste Leistung und zeigte eine Vorhersagefähigkeit von 92 %. Seine Gesamtüberlegenheit gegenüber den Benchmarking-Modellen deutet darauf hin, dass es das Potenzial hat, als effizientes neues Werkzeug für die Kartierung der Waldbrandanfälligkeit eingesetzt zu werden. Brandschutz ist ein wichtiges Anliegen der lokalen Forstbehörden in der tropischen Region Lao Cai, und basierend auf den Erkenntnissen unserer Studie hat die Methode eine potenzielle Anwendung im Waldschutzmanagement.;-;-;-;https://link.springer.com/article/10.1007/s00704-018-2628-9 935551049775b39f46fbefd516d87c52;de;;;7.4.;;;Android-Malware-Erkennungsmethode basierend auf App-Image-Konvertierung Mit der rasanten Entwicklung des mobilen Internets hat sich Android zum am weitesten verbreiteten Betriebssystem für mobile Endgeräte entwickelt und spielt eine immer wichtigere Rolle im Leben der Benutzer. Android-Malware bringt jedoch auch Datenschutzlecks und Sicherheitsbedrohungen mit sich, die den Märkten und Benutzern von Drittanbietern Probleme bereiten. Darüber hinaus verwendet Malware Code-Verschleierung und Tarnung, um sich zu verbergen, um eine Erkennung zu vermeiden. Herkömmliche Malware-Erkennungstechniken, die auf Machine Learning und Feature-Matching basieren, sind normalerweise schwierig mit dieser Art von Malware umzugehen. Angesichts dieses Problems wird eine Android-Malware-Erkennungsmethode basierend auf App-Image-Konvertierung vorgeschlagen, die die Android-Installationsdateien Graustufenbildern zuordnet und den Deep-Learning-Algorithmus CNN (Convolutional Neural Networks) zur Malware-Erkennung verwendet. Es wird ein Erkennungsframework für Android-Malware vorgestellt, das drei Teile umfasst: Datensatzaufbau, App-Image-Konvertierung und Deep-Learning-Erkennung. In den Experimenten werden die Parameter von CNN durch vergleichende Analyse bestimmt. Es erreicht eine Erkennungsgenauigkeit von 95,23%, was die Wirksamkeit und Machbarkeit der vorgeschlagenen Methode zeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-3150-4_6 16ec7f00c420281da89c600ab75ed48c;de;;;7.4.;;;Viele sind besser als einer: Wahrscheinlichkeitsschätzungen aus Entscheidungsbäumen verbessern Entscheidungsbäume, eine beliebte Wahl für die Klassifikation, haben ihre Einschränkung darin, Wahrscheinlichkeitsschätzungen bereitzustellen, die eine Glättung an den Blättern erfordern. Typischerweise werden Glättungsmethoden wie Laplace oder m-Schätzung an den Blättern des Entscheidungsbaums angewendet, um die durch die frequenzbasierten Schätzungen eingeführte systematische Verzerrung zu überwinden. In dieser Arbeit zeigen wir, dass ein Ensemble von Entscheidungsbäumen die Qualität der Wahrscheinlichkeitsschätzungen an den Blättern des Entscheidungsbaums signifikant verbessert. Das Ensemble überwindet die Kurzsichtigkeit der auf der Blattfrequenz basierenden Schätzungen. Wir zeigen die Effektivität der probabilistischen Entscheidungsbäume im Rahmen der Predictive Uncertainty Challenge. Wir schließen auch drei weitere stark unausgewogene Datensätze in unsere Studie ein. Wir zeigen, dass die Ensemble-Methoden nicht nur die Qualität der Wahrscheinlichkeitsschätzungen, sondern auch die AUC für die unausgeglichenen Datensätze signifikant verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/11736790_4 b1c5f563d15716b0c8c05583980c161c;de;;;7.4.;;;Ein Multi-Kriterien-Entscheidungsansatz für Filmempfehlungen mit Techniken des maschinellen Lernens Die Herausforderungen bei der Entscheidungsfindung können in der Auswahl einer geeigneten Methode aus der multikriteriellen Entscheidungsfindung (MCDM) gesehen werden. Die MCDM-Methoden bieten Entscheidungsträgern keine vergleichbaren Antworten. In solchen Fällen wird die Auswahl der besten Antwort zum Problem. Dies ist möglich, wenn es eine bessere Wahl gab, die nicht in Betracht gezogen wurde oder die richtigen Informationen zu diesem Zeitpunkt nicht verfügbar waren. MCDM enthält eine begrenzte Anzahl von Alternativen für jedes Problem. Im anfänglichen Lösungsprozess werden alle diese Lösungen explizit identifiziert. In dieser Arbeit haben wir Techniken des maschinellen Lernens verwendet, um das Ziel von MCDM zu erreichen, das auch als Multi-Criteria-Decision-Making (MCDM) bekannt ist. Das Ziel besteht darin, die Filme anhand verschiedener Alternativen basierend auf der Gewichtung mehrerer Kriterien einzustufen. In dieser vorgeschlagenen Arbeit werden verschiedene Arten von Filmen wie Science-Fiction, Cartoon und Abenteuer verwendet, um das Ranking zu erstellen. Andere Kriterien, die verwendet werden, wie verschiedene Faktoren wie Preis, Filmkritiken und Dauer, werden für das Filmranking verwendet. Das Filmranking wird basierend auf der Gewichtung generiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5400-1_44 da0d6258ff242e34c97b8655f1342c25;de;;;7.4.;;;Lernen Sie die Gründe kennen, warum Verbrauchergruppen bestimmte Lebensmittel bevorzugen In diesem Papier schlagen wir eine Methode vor, um die Gründe zu erfahren, warum Verbrauchergruppen bestimmte Lebensmittel gegenüber anderen derselben Art bevorzugen. Wir betonen die Rolle von Gruppen, da sie aus praktischer Sicht Marktsegmente darstellen können, die unterschiedliche Produkte nachfragen. Unsere Methode beginnt, die Präferenzen der Menschen in einem metrischen Raum darzustellen. Dort sind wir in der Lage, Ähnlichkeitsfunktionen zu definieren, die es einem Clustering-Algorithmus ermöglichen, signifikante Gruppen von Verbrauchern mit homogenem Geschmack zu entdecken. Schließlich lernen wir in jedem Cluster mit einer SVM eine Funktion, die den Geschmack der im Cluster gruppierten Verbraucher erklärt. Darüber hinaus hebt ein Merkmalsauswahlprozess die wesentlichen Eigenschaften von Lebensmittelprodukten hervor, die einen großen Einfluss auf ihre Akzeptanz haben. Um unsere Methode zu veranschaulichen, wurde ein realer Fall von Verbrauchern von Lammfleisch untersucht. Das Panel wurde von 773 Personen aus 216 Familien aus 6 europäischen Ländern gebildet. Unterschiedliche Geschmäcker zwischen nördlichen und südlichen Familien wurden verstärkt.;-;-;-;https://link.springer.com/chapter/10.1007/11790853_24 027cc5dfaa0304786fe676bd1df016fc;de;;;7.4.;;;Skalierbares, datenschutzfreundliches Data Mining mit asynchron partitionierten Datensätzen Beim Naive Bayes-Klassifizierungsproblem unter Verwendung eines vertikal partitionierten Datensatzes verwendet das herkömmliche Schema zum Schutz der Privatsphäre jeder Partition ein sicheres Skalarprodukt und basiert auf der Annahme, dass die Daten zwischen gemeinsamen eindeutigen Identitäten synchronisiert werden. In diesem Papier versuchen wir, diese Annahme zu verwerfen, um ein effizienteres und sichereres Schema zu entwickeln, um eine Klassifizierung mit minimaler Offenlegung privater Daten durchzuführen. Unser vorgeschlagenes Schema basiert auf der Arbeit von Vaidya und Clifton[1], die kommutative Verschlüsselung verwendet, um eine sichere Schnittmenge durchzuführen, so dass die Parteien mit Zugriff auf die einzelnen Partitionen keine Kenntnis von der Schnittmenge haben. Die in diesem Papier vorgestellten Bewertungen basieren auf experimentellen Ergebnissen, die zeigen, dass unser vorgeschlagenes Protokoll mit großen spärlichen Datensätzen gut skaliert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21424-0_18 ec139558860de872f7318250436a38f5;de;;;7.4.;;;Erkennung von False Data Injection Attacks in Smart Grid basierend auf Machine Learning Der False-Injection-Angriff auf das interne Zustandsschätzungsmodul des Smart-Grid-Energiemanagementsystems ermöglicht es den Angreifern, falsche Informationen zu Leistung, Spannung und Topologie zu fälschen, wodurch die falschen Daten erfolgreich das Restprüfmodul umgehen. Und sie können in die Leitstelle hochgeladen werden, um die Steuerungsentscheidungen zu beeinflussen und den normalen Betrieb des Stromnetzes zu gefährden. Zunächst werden in diesem Papier das Prinzip, die Angriffsbedingungen und die Auswirkungen von False-Injection-Angriffen vorgestellt und im Detail ein AC-Modell vorgestellt, das weiter verbreitet ist als das DC-Modell. Das AC-Modell kann Angriffe mit falscher Dateninjektion gegen verschiedene Topologien von Stromversorgungssystemen generieren. Auf dieser Grundlage schlagen wir eine auf maschinellem Lernen basierende Angriffserkennungsmethode vor, um den False Data Injection Angriff mit hoher Robustheit und effektiv zu erkennen. Der Random-Forest-Klassifikator im integrierten Lernalgorithmus wird verwendet, um den Angriff mit falscher Dateninjektion zu erkennen und zu klassifizieren, und die Zustandsinformationen des angegriffenen Stromversorgungssystems werden durch die Integration mehrerer Entscheidungsbäume identifiziert. Eine große Anzahl von Experimenten zeigt, dass das Verfahren in verschiedenen IEEE-Knotensystemen eine gute Erkennungsleistung aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-78621-2_15 14c619c963fd0099dadeb2ebb006ff63;de;;;7.4.;;;Data Mining-basierte Steuerprüfungsauswahl: Eine Fallstudie eines Pilotprojekts im Minnesota Department of Revenue Wir präsentieren eine Fallstudie eines Pilotprojekts, das entwickelt wurde, um den Einsatz von Data Mining bei der Auditauswahl für das Minnesota Department of Revenue (DOR) zu bewerten. Der Internal Revenue Service (IRS) schätzte die Lücke zwischen geschuldeten und vereinnahmten Einnahmen für 2001 auf ungefähr 345 Milliarden US-Dollar, von denen sie nur 55 Milliarden US-Dollar zurückerhalten konnten, und die geschätzte Lücke für 2006 betrug ungefähr 450 Milliarden US-Dollar, von denen der IRS konnte nur 65 Milliarden Dollar zurückgewinnen. Für die Regierung ist es von entscheidender Bedeutung, die Lücke zu schließen, und der grundlegende Prozess dafür ist die Prüfungsauswahl. Wir präsentieren einen Data-Mining-basierten Ansatz, der verwendet wurde, um den Audit-Auswahlprozess beim DOR zu verbessern. Wir beschreiben den manuellen Audit-Auswahlprozess, der zum Zeitpunkt des Pilotprojekts für Umsatz- und Gebrauchssteuern verwendet wurde, diskutieren die Daten aus verschiedenen Quellen, gehen auf Fragen der Feature-Auswahl ein und erläutern die verwendeten Data-Mining-Techniken. Die Ergebnisse des Pilotprojekts zeigten, dass der auf Data Mining basierende Ansatz die Effizienz des Auditauswahlprozesses steigern kann. Wir berichten auch über Ergebnisse von tatsächlichen Feldaudits, die von Auditoren des DOR durchgeführt wurden, und die Ergebnisse haben die Nützlichkeit des Data Mining-basierten Ansatzes für die Auditauswahl bestätigt. Die Auswirkungen des Pilotprojekts wären eine Verfeinerung des manuellen Auswahlverfahrens für die Prüfung und der Steuerfestsetzungsverfahren für andere Steuerarten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07812-0_12 67cc758ca69247beda8035eabd9e70c1;de;;;7.4.;;;Smart Aging Wellness Sensor Networks: Tägliche Aktivitätsüberwachung nahezu in Echtzeit, Anomalieerkennung und Warnsystem In der zunehmenden Automatisierung der bestehenden Welt wird Aktivitätsmodellierung im Bereich der Technik für verschiedene Zwecke eingesetzt. Ein solches Feld, das von der Modellierung der täglichen Aktivität und der Analyse der Lebens-Lebens-Aktivitäten stark profitieren wird, ist die Überwachung des saisonalen Verhaltensmusters älterer Menschen, die weiter für ihre Gesundheitsanalyse und -überwachung aus der Ferne genutzt werden kann. Die heutige Nachfrage besteht darin, ein System mit minimaler menschlicher Interaktion und einem automatischen Erkennungs- und Warnsystem für Anomalien zu entwickeln. Die vorgeschlagene Forschungsarbeit legt den Schwerpunkt auf die Diagnose der täglichen Verhaltensmuster älterer Menschen durch die Beobachtung ihrer alltäglichen Routineaktivitäten in Bezug auf Zeit, Ort und Kontext. Um die Genauigkeit der Struktur zu erhöhen, wurden zahlreiche Sensor- und Aktuatoreinheiten in Altenheimen eingesetzt. In dieser Forschungsarbeit beliebt, haben wir eine einzigartige Sensorfusionstechnik empfohlen, um saisonale, soziale, wetterbezogene und Wellness-Beobachtungen von Routineaufgaben zu überwachen. Es wurde ein neuartiges Lernmodell für tägliche Aktivitäten vorgeschlagen, das kontextbezogene Datenbeobachtungen verschiedener Standorte eines Smart Home aufzeichnen und Hausmeister im Falle einer Anomalieerkennung alarmieren kann. Wir haben monatliche Daten von zwei betagten Smart Homes mit mehr als 5000 Testmustern analysiert. Die aus der Untersuchung gewonnenen Ergebnisse bestätigen die Genauigkeit und Effizienz des vorgeschlagenen Systems, die für 20 Aktivitäten aufgezeichnet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0733-2_1 a7db005f89649648fbcd0d801876203c;de;;;7.4.;;;Analyse semantischer Informationen, die in einer mit Hilfsdaten angereicherten Bildsammlung verfügbar sind Im Centre Pompidou National Museum of Modern Art in Paris war eine Kunstinstallation zu sehen, zu der die Besucher mit ihren persönlichen Objekten beitragen konnten, indem sie Schlagwortbeschreibungen und quantifizierte semantische Merkmale wie z;-;-;-;https://link.springer.com/chapter/10.1007/0-387-34224-9_70 6a5806181d51b824d35adc2b80045ecb;de;;;7.4.;;;Häufiger Pattern-Mining-Ansatz zur Erkennung von Fake News Die Verbreitung von Fake News ist kein neues Problem, viele Menschen nutzen seit Jahrhunderten Nachrichten oder soziale Online-Medien für Propaganda oder Einflussnahme. Der Anstieg von im Internet generierten Nachrichten in sozialen Medien macht Fake News zu einer stärkeren Kraft, die traditionelle journalistische Normen in Frage stellt. Daher ist die Erkennung von Fake News in letzter Zeit zu einer neuen Forschung geworden, die enorme Aufmerksamkeit auf sich zieht. Um die negativen Auswirkungen von Fake News zu mildern – sowohl zum Nutzen der Öffentlichkeit als auch des Nachrichtenökosystems, ist es entscheidend, Methoden zu entwickeln, um Fake News in sozialen Medien automatisch zu erkennen. In diesem Artikel wurden die bestehenden Ansätze zur Erkennung von Fake News wie Naive Bayes Classifier, Decision Tree analysiert und ein neuartiger Ansatz zur Erkennung von Fake News vorgeschlagen, indem die auf Assoziationsregeln basierende Klassifizierung ARBC implementiert wird. Experimentelle Ergebnisse haben eine bemerkenswerte Verbesserung der Nachweisgenauigkeit angezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-67187-7_12 853d9df9c0b02d67a77a77bec870d621;de;;;7.4.;;;Psychologische Bewertung von Pfadhypothesen in der kognitiven Diagnose Stellen Sie sich einen Menschen vor, der bei der Arbeit einen Fehler in einem Auto lokalisiert, einen mathematischen Satz beweist, Schach spielt – kurz gesagt, eine Art kognitiver Aufgabe ausführt. Wir können die Leistung einer Person bei der Aufgabe erfassen, indem wir ihre Handlungen beobachten und zuhören, was sie sagt. Wir möchten die mentalen Prozesse beschreiben, die diese Leistung erzeugt haben. Das Problem der Beschreibung der mentalen Prozesse einer bestimmten Person in Bezug auf eine bestimmte Aufgabe bei gegebenem Leistungsnachweis wird hier als Problem;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-6350-7_3 a4138eb8d5ab8938539bd88ba0d3890c;de;;;7.4.;;;Lernbasierte Makronährstofferkennung durch Pflanzenblätter Das Papier schlägt ein Deep-Learning-Framework vor, das zwei Deep-Learning-Architekturen verwendet, Keras und Pytorch, um die drei in den Pflanzen vorhandenen Makronährstoffe zu analysieren, im Wesentlichen Stickstoff (N), Phosphor (P), Kalium (K), dh NPK durch das neuronale Faltungsnetzwerk CNN). Die Landwirtschaft ist das Rückgrat der Wirtschaft eines Landes, insbesondere in den Entwicklungsländern. Die Nachfrage nach Nahrungsmitteln steigt mit der Bevölkerungszunahme. Um den steigenden Bedarf an Nahrungsmitteln zu decken, müssen Landwirte die Produktivität maximieren und die Wirtschaft ausgleichen, um die Verluste zu reduzieren. Für ein gesundes Wachstum und eine gesunde Fruchtentwicklung benötigen die Pflanzen verschiedene Mineralien und Nährstoffe. Pflanzennährstoffe sollten im richtigen Verhältnis stehen, um die Pflanzen gesünder und weniger anfällig für Schädlinge zu halten. Die Nährstoffanalyse kann durch zwei Techniken erfolgen invasive und nicht-invasive Techniken mit ihren eigenen Vor- und Nachteilen. Invasive oder traditionelle Methoden sind zeit- und kostenintensiv, während nicht-invasive Methoden in den letzten Jahren ihre Bedeutung bewiesen haben. Die vorgeschlagenen Verfahren sind kostengünstig und verbrauchen weniger Zeit im Vergleich zu herkömmlichen Verfahren. Das vorgeschlagene Framework bietet eine Genauigkeit von 91% mit Keras und 95% mit Pytorch.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6987-0_14 06ee2c0c4bfb73cefdaa1ea9a5e6fcea;de;;;7.4.;;;Ein datengetriebener Ansatz für das Kundenbeziehungsmanagement für Fluggesellschaften mit Internet der Dinge und künstlicher Intelligenz Customer Relationship Management ist ein kritischer Aspekt für alle Dienstleistungsbranchen und extrem wichtig in der Luftfahrtindustrie. Mit dem sich ändernden Luftfahrtszenario steht die Reisebranche vor weiteren Herausforderungen. Die Identifizierung und Bindung der profitablen Kunden ist für die Überlebensfähigkeit sehr wichtig. Kunden sind gut über die Dienstleistungen informiert, die ihnen den maximalen Wertbeitrag bieten, und die Bindung hochwertiger Kunden ist eine große Herausforderung. Fluggesellschaften verwenden derzeit viele CRM-Techniken, aber das System weist Nachteile auf, die durch neue Technologien ergänzt werden können. Künstliche Intelligenz und Internet der Dinge sind sich entwickelnde Domänen, die im letzten Jahrzehnt stark an Bedeutung gewonnen haben, hauptsächlich aufgrund der Fähigkeit von Systemen, riesige Datenmengen zu sammeln, zu speichern, zu verarbeiten und zu übertragen. Dieses Papier soll das CRM durch den umsichtigen Einsatz von KI und IOT verbessern und Flughäfen in die Implementierung von intelligentem CRM einbeziehen, um langfristige Rentabilität und nachhaltige Einnahmen zu gewährleisten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-64849-7_58 cbe98fedce6fa92aea229c58cc2fb25e;de;;;7.4.;;;Empfehlungssysteme in der Industrie: Eine Netflix-Fallstudie Der Netflix-Preis rückte die Bedeutung und den Einsatz von Empfehlungssystemen in realen Anwendungen in den Mittelpunkt. Viele der Wettbewerbe lieferten viele Erkenntnisse über den Umgang mit Empfehlungen und viele weitere wurden seit der Verleihung des Hauptpreises im Jahr 2009 gelernt. Die Entwicklung industrieller Anwendungen von Empfehlungssystemen wurde durch die Verfügbarkeit verschiedener Arten von Benutzerdaten und das Niveau der Interesse für das Gebiet innerhalb der Forschungsgemeinschaft. Das Ziel dieses Kapitels ist es, einen aktuellen Überblick über die Techniken von Empfehlungssystemen zu geben, die in einer industriellen Umgebung verwendet werden. Wir werden den praktischen Einsatz von Empfehlungs- und Personalisierungstechniken auf hohem Niveau beschreiben. Wir werden einige der wichtigsten Lehren aus dem Netflix-Preis hervorheben. Wir werden dann die Netflix-Personalisierung als Fallstudie verwenden, um verschiedene Ansätze und Techniken zu beschreiben, die in einem realen Empfehlungssystem verwendet werden. Schließlich werden wir einige vielversprechende aktuelle Forschungswege und ungelöste Probleme aufzeigen, die in diesem Bereich aus Sicht der Industrie Aufmerksamkeit verdienen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-7637-6_11 234005e756cf1bf3fb3546f803b2f9e9;de;;;7.4.;;;Kursbewertungsanalyse basierend auf Data Mining und AHP: Eine Fallstudie zu Python-Kursen zu MOOC an chinesischen Universitäten Python ist zu einem Hot Spot zum Lernen geworden, aber Anfänger, denen das entsprechende Fachwissen fehlt, finden unter den zahlreichen Lernressourcen von Python nicht den richtigen Kurs. Basierend auf Python-Kursen zu MOOC chinesischer Universitäten verwendet das Papier daher AHP und Data Mining, um Kurse aus dem Curriculum, Studentenaktivitäten zu bewerten, Studenten zu verschiedenen Aspekten zu kommentieren und Python-Kurse für Anfänger herauszufiltern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1160-5_28 ffb9b679fa5287d49c423494de98a042;de;;;7.4.;;;Programmierung durch Demonstration mit Version Space Algebra Die Programmierung durch Demonstration ermöglicht es Benutzern, ihre Anwendungen einfach zu personalisieren und sich wiederholende Aufgaben zu automatisieren, indem sie einfach einige Beispiele ausführen. Wir formalisieren das Programmieren durch Demonstration als maschinelles Lernproblem: Lernen Sie angesichts der Änderungen des Anwendungszustands, die sich aus den demonstrierten Aktionen des Benutzers ergeben, das allgemeine Programm, das von einem Anwendungszustand zum nächsten abbildet. Wir präsentieren eine Methodik zum Lernen in diesem Raum komplexer Funktionen. Zuerst erweitern wir Versionsräume, um beliebige Funktionen zu lernen, nicht nur Konzepte. Dann führen wir die Versionsraumalgebra ein, eine Methode zum Zusammensetzen einfacherer Versionsräume, um komplexere Räume zu konstruieren. Schließlich wenden wir unsere Versionsraumalgebra auf die Textbearbeitungsdomäne an und beschreiben ein implementiertes System namens SMARTedit, das sich wiederholende Textbearbeitungsverfahren anhand von Beispielen lernt. Wir evaluieren unseren Ansatz, indem wir die Anzahl der Beispiele messen, die das System benötigt, um ein Verfahren zu erlernen, das bei den restlichen Beispielen funktioniert, und durch eine informelle Benutzerstudie, die den Aufwand misst, den Benutzer mit der Verwendung unseres Systems im Vergleich zur manuellen Ausführung der Aufgabe aufwenden. Die Ergebnisse zeigen, dass SMARTedit in der Lage ist, bereits aus ein oder zwei Beispielen richtig zu verallgemeinern, und dass Benutzer beim Erledigen von Aufgaben mit der Hilfe von SMARTedit im Allgemeinen einen erheblichen Aufwand sparen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1025671410623 cc01e4d6495d471ca13774e9e3d5dded;de;;;7.4.;;;Hierarchische Multi-Attention-Netzwerke zur Dokumentenklassifizierung Die Erforschung der Dokumentenklassifizierung ist im Gange, um die aufmerksamkeitsbasierten Deep-Learning-Algorithmen einzusetzen und erzielt beeindruckende Ergebnisse. Aufgrund der Komplexität des Dokuments erfüllen sowohl klassische Modelle als auch Single-Achtung-Mechanismen die Forderung nach einer hochgenauen Klassifizierung nicht. In diesem Beitrag wird eine Methode vorgeschlagen, die das Dokument über die hierarchischen Multi-Aufmerksamkeitsnetze klassifiziert, die das Dokument von der Wort-Satz-Ebene und der Satz-Dokument-Ebene beschreiben. Außerdem werden auf unterschiedlichen Ebenen unterschiedliche Aufmerksamkeitsstrategien durchgeführt, was eine genaue Zuweisung des Aufmerksamkeitsgewichts ermöglicht. Insbesondere wird der weiche Aufmerksamkeitsmechanismus auf die Wort-Satz-Ebene angewendet, während die CNN-Aufmerksamkeit auf die Satz-Dokument-Ebene angewendet wird. Aufgrund der Besonderheit des Modells liefert die vorgeschlagene Methode die höchste Genauigkeit im Vergleich zu anderen Methoden des Standes der Technik. Darüber hinaus zeigen die Ergebnisse der Visualisierung des Aufmerksamkeitsgewichts die Wirksamkeit des Aufmerksamkeitsmechanismus bei der Unterscheidung der Bedeutung.;-;-;-;https://link.springer.com/article/10.1007/s13042-020-01260-x d8dfef1a5973ac7888264f6c89723c73;de;;;7.4.;;;Convolutional Neural Networks zur Erkennung von Malayalam-Zeichen Die optische Zeichenerkennung (OCR) spielt eine wichtige Rolle bei der Informationssuche, die gescannte Dokumente in maschinenbearbeitbare und durchsuchbare Textformate umwandelt. Diese Arbeit konzentriert sich auf den Erkennungsteil von OCR. LeNet-5, ein Convolutional Neural Network (CNN), das mit einem gradientenbasierten Lern- und Backpropagation-Algorithmus trainiert wird, wird zur Klassifizierung von Malayalam-Zeichenbildern verwendet. Das für den Multi-Class-Klassifikator erhaltene Ergebnis zeigt, dass die CNN-Leistung sinkt, wenn die Anzahl der Klassen den Bereich von 40 überschreitet. Die Genauigkeit wird verbessert, indem falsch klassifizierte Zeichen gruppiert werden. Ohne Gruppierung gibt CNN eine durchschnittliche Genauigkeit von 75 % an und nach der Gruppierung wird die Leistung um bis zu 92 % verbessert. Die Klassifizierung auf innerer Ebene erfolgt unter Verwendung von Multi-Class-SVM, die eine durchschnittliche Genauigkeit im Bereich von 99-100% ergibt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12012-6_54 56169c9e7d693c79695cabc1cee5ff27;de;;;7.4.;;;Eine Fuzzy-Inferenz-Methode für die Spam-Mail-Filterung Dieses Papier bietet eine vergleichende Untersuchung von Methoden zur Merkmalsauswahl bei der Spam-Mail-Filterung. In unserem Experiment zeigte die Fuzzy-Inferenz-Methode etwa 6% und 10% Verbesserungen gegenüber dem Informationsgewinn und;-;-;-;https://link.springer.com/chapter/10.1007/11589990_150 181411df404076eaebbde193845b2aec;de;;;7.4.;;;Ein grobes Set-basiertes Fuzzy-Clustering Dieses Papier stellt einen groben satzbasierten Fuzzy-Clustering-Algorithmus vor, bei dem die Objekte des Fuzzy-Clustering anfängliche Cluster sind, die im Hinblick auf Äquivalenzbeziehungen erhalten wurden. Die anfängliche Clusterbildung wird direkt durchgeführt, indem beurteilt wird, ob Äquivalenzrelationen gleich sind, und nicht wie üblich die Schnittmenge der Äquivalenzklassen berechnet, und die Korrektheit der Theorie wird unter Verwendung der Grobmengentheorie bewiesen. Eine übermäßige Erzeugung einiger kleiner Klassen wird durch sekundäres Clustern auf der Grundlage der Definition der Fuzzy-Ähnlichkeit zwischen zwei anfänglichen Clustern unterdrückt. Folglich wird die Dimension der Fuzzy-Ähnlichkeitsmatrix reduziert. Die Definition der integrierten Approximationsgenauigkeit wird als Bewertung der Clusteringvalidität angegeben. Der Algorithmus kann Parameter dynamisch anpassen, um das optimale Ergebnis zu erhalten. Einige Experimente wurden durchgeführt, um diese Methode zu validieren. Die Ergebnisse zeigten, dass der Algorithmus vorzugsweise die Clustering-Probleme sowohl von numerischen Daten als auch von nominalen Daten bewältigen kann.;-;-;-;https://link.springer.com/chapter/10.1007/11562382_31 7962ff3f6570f2a9b60f960aea74bf08;de;;;7.4.;;;Ein neuer Sequenzoptimierungsalgorithmus basierend auf Partikelschwärmen für maschinelles Lernen Mit dem Aufkommen von 5Gera stehen die Algorithmuseffizienz und Genauigkeit von künstlicher Intelligenz und maschinellem Lernen vor strengeren Anforderungen und größeren Herausforderungen. Obwohl künstliche neuronale Netze (ANN) und tiefe neuronale Netze (DNN) bei der Klassifizierung und Regression gut abschneiden, führt ein großer Rechenaufwand zu einer langsamen Reaktion. Und die Geschwindigkeit des Algorithmus zur maximalen Optimierung der Sequenz (SMO) ist sehr schnell, aber nicht genau genug. In diesem Artikel versucht die Forschung, einen sequentiellen Optimierungsalgorithmus basierend auf der Partikelschwarmoptimierung vorzustellen, um die Leistung von Genauigkeit und Reaktionsgeschwindigkeit auszugleichen. Im Vergleich zu ANN, DNN und SMO weist dieser Ansatz nicht nur eine hohe Recheneffizienz auf, sondern schneidet auch bei der Klassifizierung und Regression gut ab.;-;-;-;https://link.springer.com/article/10.1007/s12652-021-03004-3 699066e6523d8b4164a8eada913d2404;de;;;7.4.;;;Algorithmen in der Umgebungsintelligenz In diesem Kapitel diskutieren wir das neue Paradigma für User-Centered Computing, bekannt als Ambient Intelligence, und seine Beziehung zu Methoden und Techniken aus dem Bereich der Computational Intelligence, einschließlich Problemlösung, maschinellem Lernen und Expertensystemen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-0703-9_1 1d6caffb1534545a9448bace027f183d;de;;;7.4.;;;Bildanmerkung mit mehreren Labels basierend auf der Nachbarpaar-Korrelationskette Die Bildannotation spielt eine wichtige Rolle beim inhaltsbasierten Bildverständnis, verschiedene Methoden des maschinellen Lernens wurden vorgeschlagen, um dieses Problem zu lösen. In diesem Artikel wird die Label-Korrelation als ungerichteter zweiteiliger Graph betrachtet, in dem jedes Label durch einige gemeinsame versteckte Themen korreliert ist. Als Ergebnis liefert Random Walk mit Neustart auf dem Graphen bei einem gegebenen Label ein am meisten verwandtes Label, die Wiederholung dieser Prozedur führt zu einer Label-Kette, die jedes benachbarte Label-Paar maximal korreliert hält. Wir koordinieren die Label-Kette mit ihrem entsprechenden Klassifikator-Training auf dem unteren Feature und führen eine Klassifikator-Kette, um ein Bild mit Anmerkungen zu versehen. Das Experiment zeigt, dass unsere Methode sowohl die Basislinie als auch eine andere beliebte Methode übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31537-4_27 bf19dbc6fe7b423d1f8dde95e24084b9;de;;;7.4.;;;Automatisches Verpacken und Klassifizieren von Wireless-Produktfunktionen in ihre Verkaufsartikel und Kategorien Mit dem Ziel einer automatisierten Entscheidungsfindung definiert und analysiert dieses Papier zwei Anwendungsfälle für maschinelles Lernen für den Produktprozess im Geschäft mit drahtloser Infrastruktur. Der erste Anwendungsfall ordnet einem Produktpaket ein Produkt entsprechend der Funktionalität des Produkts zu. Der zweite Anwendungsfall bestimmt die Kategorie des Produkts, damit es bepreist werden kann. Dann ist das Produkt verkaufsfertig. Dieses Papier bietet auch Lösungen für diese Anwendungsfälle für maschinelles Lernen. Die Lösungen werden mit realen Daten aus den Prozessen untersucht. Die Glaubwürdigkeit der Lösungen wird auch bewertet, indem die Entscheidungen des maschinellen Lernens mit den Entscheidungen menschlicher Benutzer verglichen werden. Diese menschlichen Benutzer kennen die tatsächliche Zuordnung und Klassifizierung dieser Produkte. Die Ergebnisse zeigen, dass die Lösungen wie erwartet gut funktionieren. Diese Lösungen weisen und klassifizieren einen Teil der gegebenen Produkte vollautomatisch mit hoher Sicherheit und Genauigkeit. Aufgrund unzureichender Vorhersagesicherheiten für den Rest der gegebenen Produkte muss der Rest der Produkte für die weitere Entscheidung durch die menschlichen Benutzer eskaliert werden. Bei einer Eskalation wird auch eine Reihe von Zuordnungs- und Klassifizierungsoptionen für ein bestimmtes Produkt von den Lösungen empfohlen. Oftmals ist die richtige Zuordnung und Klassifizierung bereits im Set der Optionen vorhanden. Die menschlichen Benutzer können leicht die richtige Zuordnung und Klassifizierung aus den empfohlenen Optionen identifizieren und auswählen. Erhebliche Kosten und Bearbeitungszeit können so vermieden werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29726-8_20 96143a9ab9f6329f814a24357791a124;de;;;7.4.;;;Maschinelles Lernen: Was, warum und wie? Seit Beginn des Computerzeitalters scheint eine enorme Menge an erzeugten Daten ständig zuzunehmen und könnte mit effizienten Lerntechniken von großem Nutzen sein. Aus den Daten zu lernen, um zuverlässige Vorhersagen zu treffen, neue Muster und Theorien zu entdecken, war für die Forscher die größte Herausforderung. Machine Learning erkennt die verborgenen Erkenntnisse in den Daten, lernt daraus und macht zuverlässige Vorhersagen über die unsichtbaren Daten. Es wird in einer Reihe von Anwendungen verwendet, darunter Bioinformatik, Chemieinformatik, Marketing, Linguistik, E-Mail-Filterung, optische Zeichenerkennung und vieles mehr. In diesem Kapitel haben wir die Arten des Lernens, Anwendungen des maschinellen Lernens, Schritte zur Generierung von maschinellen Lernmodellen unter Verwendung verschiedener Lernalgorithmen und die Validierung generierter Modelle beschrieben. Darüber hinaus wurde auch die schrittweise Generierung von Modellen mit der Weka-Workbench, einer Sammlung von Algorithmen für maschinelles Lernen und Datenvorverarbeitungstools, diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1562-6_16 d21652617687cc385d853d3d311cbb7e;de;;;7.4.;;;Semantische Zusammenstellung von Unternehmensdaten für eine effektive Informationsbeschaffung In dieser Arbeit stellen wir eine technische Architektur vor, die den semantischen Informationsabruf aus Unternehmensdaten ermöglicht, die über Datenquellen und Anwendungen verteilt sind, von denen jede ihre eigenen Daten hat. Um solche Unternehmensdaten effektiv zu durchsuchen und abzufragen, müssen die verschiedenen Anwendungen und Datenquellen, die relevante Daten enthalten, semantisch gekennzeichnet und ihre semantischen Querbeziehungen identifiziert werden. Wir präsentieren eine 3-Tier-Ontologie-basierte Architektur, um die Informationen aus unterschiedlichen Datenquellen in einem Unternehmen semantisch zu sammeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27872-3_1 3a0af4a6181ad13b72fa44bef448adb2;de;;;7.4.;;;Fisher Kernels für relationale Daten Der Kombination von statistischem und relationalem Lernen wird derzeit viel Aufmerksamkeit geschenkt. Die Mehrheit der statistischen relationalen Lernansätze konzentriert sich auf die Dichteschätzung. Bei der Klassifikation ist jedoch bekannt, dass die Leistung solcher generativer Modelle oft geringer ist als die diskriminativer Klassifikatoren. Ein Ansatz zur Verbesserung der Leistung generativer Modelle besteht darin, sie mit diskriminativen Algorithmen zu kombinieren. Fisher-Kernel wurden entwickelt, um sie mit Kernel-Methoden zu kombinieren, und haben vielversprechende Ergebnisse für die Kombination von Support-Vektor-Maschinen mit (logischen) Hidden-Markov-Modellen und Bayesschen Netzwerken gezeigt. Bisher wurden Fisher-Kerne jedoch nicht für relationale Daten berücksichtigt, d. h. Daten, die aus einer Sammlung von Objekten bestehen und zwischen diesen Objekten relational sind. In diesem Beitrag entwickeln wir Fisher-Kerne für relationale Daten und zeigen empirisch, dass sie sich gegenüber den ohne Fisher-Kernel erzielten Ergebnissen deutlich verbessern können.;-;-;-;https://link.springer.com/chapter/10.1007/11871842_15 8ab4fb0829a3446e43ada53ef33dbef9;de;;;7.4.;;;Medizinische KI-Readiness-Skala für Medizinstudenten (MAIRS-MS) – Entwicklung, Validität und Reliabilitätsstudie Es ist unwahrscheinlich, dass Anwendungen der Künstlichen Intelligenz (KI) Ärzte vollständig ersetzen werden. Es ist jedoch sehr wahrscheinlich, dass KI-Anwendungen viele ihrer Rollen übernehmen und neue Aufgaben in der medizinischen Versorgung generieren. Um für neue Rollen und Aufgaben gerüstet zu sein, müssen Medizinstudenten und Ärzte neben den medizinischen Standardprinzipien die Grundlagen der KI und der Datenwissenschaft, mathematische Konzepte und damit verbundene ethische und medizinrechtliche Fragen verstehen. Dennoch gibt es in der Literatur kein valides und zuverlässiges Instrument, um die medizinische KI-Bereitschaft zu messen. In dieser Studie haben wir die Entwicklung eines validen und zuverlässigen psychometrischen Messinstruments zur Erfassung der wahrgenommenen Bereitschaft von Medizinstudenten zu KI-Technologien und deren Anwendungen in der Medizin beschrieben.;-;-;-;https://link.springer.com/article/10.1186/s12909-021-02546-6 9fe96b7b70f8ab18144a0facff733523;de;;;7.4.;;;Erkennung von Angriffen auf eine Wasseraufbereitungsanlage mit Hilfe von Oneclass Support Vector Machines Kritische Infrastrukturanlagen wie Stromnetze und Wasseraufbereitungsanlagen werden von industriellen Kontrollsystemen überwacht und verwaltet. Angriffe, die industrielle Kontrollsysteme nutzen, um Infrastrukturanlagen zu stören oder zu beschädigen, können sich auf Menschenleben, die Wirtschaft und die Umwelt auswirken. Es wurden verschiedene Methoden zur Erkennung von Angriffen vorgeschlagen, die jedoch oft schwer zu implementieren sind und ihre Genauigkeit oft gering ist. Darüber hinaus berücksichtigen diese Methoden nicht die Aspekte der digitalen Forensik.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-56223-6_6 df2dc483d419eab9169b364ec3a79174;de;;;7.4.;;;Nachbearbeitung entwickelter Entscheidungsbäume Obwohl die genetische Programmierung (GP) eine sehr allgemeine Technik ist, ist sie auch ziemlich mächtig. Tatsächlich hat sich oft gezeigt, dass GP spezialisiertere Techniken bei einer Vielzahl von Aufgaben übertrifft. Im Data Mining wurde GP erfolgreich auf die meisten großen Aufgaben angewendet, z.B. Klassifikation, Regression und Clustering. In diesem Kapitel stellen wir einen unkomplizierten neuartigen Algorithmus zur Nachbearbeitung genetisch gewachsener Entscheidungsbäume vor, beschreiben und evaluieren ihn. Der Algorithmus arbeitet, indem er iterativ, einen Knoten nach dem anderen, nach möglichen Modifikationen sucht, die zu einer höheren Genauigkeit führen. Genauer gesagt bewertet der Algorithmus bei jedem Innentest jede mögliche Aufteilung für das aktuelle Attribut und wählt die beste aus. Bei diesem Design kann der Nachbearbeitungsalgorithmus die Trainingsgenauigkeit nur erhöhen, niemals verringern. In den Experimenten wird der vorgeschlagene Algorithmus auf GP-Entscheidungsbäume angewendet, die entweder direkt aus Datensätzen induziert oder aus neuronalen Netzensembles extrahiert werden. Die Experimente mit 22 UCI-Datensätzen zeigen, dass die vorgeschlagene Nachbearbeitungstechnik bei einer großen Mehrheit der Datensätze zu höheren Genauigkeiten der Testsätze führt. Tatsächlich ist die Steigerung der Testgenauigkeit bei einem der vier bewerteten Setups statistisch signifikant und bei zwei der anderen drei erheblich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01088-0_7 4858ab6594f51fd1b84e4489550756e8;de;;;7.4.;;;Künstliche Intelligenz (KI) und kognitive Aufteilung für Service-Flexibilität Künstliche Intelligenz (KI) entwickelt sich von einer Technologie zu einem Enabler von Serviceprozessen und -bereitstellung. Angesichts der zunehmenden Bedeutung von KI als Service-Schnittstelle ist die Integration und Ausrichtung der KI-Technologie auf eine effektive Servicebereitstellung eine kritische Herausforderung. In dieser Studie theoretisieren wir;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-22784-5_18 dd33528ad606d64fad7df4d055986a11;de;;;7.4.;;;Eine neuartige aktive Lernmethode mit SVM zur Textklassifizierung Support Vector Machines (SVMs) sind eine beliebte Klasse von überwachten Lernalgorithmen und sind insbesondere auf große und hochdimensionale Klassifikationsprobleme anwendbar. Wie die meisten maschinellen Lernmethoden für die Datenklassifizierung und den Informationsabruf erfordern sie in der Trainingsphase manuell gekennzeichnete Datenproben. Die manuelle Etikettierung ist jedoch eine zeitaufwendige und fehleranfällige Aufgabe. Eine mögliche Lösung für dieses Problem besteht darin, die große Anzahl unmarkierter Proben auszunutzen, die über das Internet leicht zugänglich sind. In diesem Beitrag wird eine neuartige aktive Lernmethode zur Textkategorisierung vorgestellt. Das Hauptziel des aktiven Lernens besteht darin, den Kennzeichnungsaufwand zu reduzieren, ohne die Genauigkeit der Klassifizierung zu beeinträchtigen, indem intelligent ausgewählt wird, welche Proben gekennzeichnet werden sollen. Das vorgeschlagene Verfahren wählt einen Stapel informativer Proben unter Verwendung der Aposterior-Wahrscheinlichkeiten aus, die von einem Satz von Mehrklassen-SVM-Klassifizierern bereitgestellt werden, und diese Proben werden dann von einem Experten manuell gekennzeichnet. Experimentelle Ergebnisse zeigen, dass das vorgeschlagene aktive Lernverfahren den Kennzeichnungsaufwand deutlich reduziert und gleichzeitig die Klassifikationsgenauigkeit erhöht.;-;-;-;https://link.springer.com/article/10.1007/s11633-015-0912-z e6be09946b14c0308148ef9394073c41;de;;;7.4.;;;Eine Umfrage zu Teamstrategien im Roboterfußball: Teamstrategien und Rollenbeschreibung Dieses Umfragepapier beginnt mit einer grundlegenden Erklärung des Roboterfußballs und seiner Systeme und konzentriert sich dann auf die Strategien, die von früheren Forschern verwendet wurden. Es gibt eine Zeitleiste der beschriebenen Roboterfußballstrategien, die den Trend von Strategien und Technologien aufzeigt. Der grundlegende Algorithmus für jeden Roboter, der hier beschrieben wird, wandelt sich von einfachen mechanischen Manövrierstrategien zu biologisch inspirierten Strategien. Diese Strategien werden aus vielen Bereichen adaptiert. Der Bereich der pädagogischen Psychologie produzierte Reinforcement Learning und Q-Learning, der Handel produzierte Konzepte der marktorientierten Wirtschaft, das Engineering mit seinem Potenzialfeld, KI mit seinen Petrinetzen, neuronalen Netzwerken und Fuzzy-Logik. Sogar Insekten und Fische wurden in PSO simuliert und in Roboterfußball adaptiert. Alle diese Strategien werden in diesem Beitrag untersucht. Ein weiterer hier untersuchter Aspekt ist der Trend zu Vision-Systemen, der sich von der globalen Vision zu einer lokalen omnidirektionalen Vision zu einer nach vorne gerichteten lokalen Vision verlagert, was zeigt, dass die Entwicklung hin zu einem biologisch inspirierten Roboterfußballagenten, dem menschlichen Fußballspieler, geht.;-;-;-;https://link.springer.com/article/10.1007/s10462-011-9284-0 a12b908cf9af3a4f9796a36f5d232fb8;de;;;7.4.;;;Erlernen der genauen Erkennung von persönlicher Schutzausrüstung aus virtuellen Welten Deep Learning hat bei vielen maschinellen Lernaufgaben wie Bilderkennung und Computer Vision beeindruckende Ergebnisse erzielt. Seine Anwendbarkeit auf überwachte Probleme wird jedoch durch die Verfügbarkeit hochwertiger Trainingsdaten eingeschränkt, die aus einer großen Anzahl von von Menschen annotierten Beispielen (z. Um dieses Problem zu überwinden, nutzt die KI-Welt in letzter Zeit zunehmend künstlich erzeugte Bilder oder Videosequenzen mit realistischen Foto-Rendering-Engines, wie sie in Unterhaltungsanwendungen verwendet werden. Auf diese Weise können problemlos große Sätze von Trainingsbildern erstellt werden, um Deep-Learning-Algorithmen zu trainieren. In diesem Papier haben wir fotorealistische synthetische Bildersätze generiert, um Deep-Learning-Modelle zu trainieren, um die korrekte Verwendung von persönlicher Sicherheitsausrüstung (z. Dann haben wir die Anpassung der Domäne an Bilder der realen Welt unter Verwendung eines sehr kleinen Satzes von Bildern der realen Welt durchgeführt. Wir haben gezeigt, dass das Training mit dem generierten synthetischen Trainingsset und die Verwendung der Domänenanpassungsphase eine effektive Lösung für Anwendungen ist, bei denen kein Trainingsset verfügbar ist.;-;-;-;https://link.springer.com/article/10.1007/s11042-020-09597-9 b395faf3cf8b5edb1944ba8ffa7b7a14;de;;;7.4.;;;Anstehende Web Intelligence (WI) und Hirninformatik (BI) Forschung In diesem Vortrag geben wir eine neue Perspektive der Web Intelligence (WI)-Forschung aus der Sicht der Hirninformatik (BI), einem neuen interdisziplinären Feld, das die Mechanismen der menschlichen Informationsverarbeitung sowohl aus Makro- als auch aus Mikrosicht untersucht, indem es experimentelle kognitive Neurowissenschaften kombiniert mit fortschrittlicher Informationstechnologie. Als zwei verwandte aufstrebende Forschungsfelder unterstützen sich WI und BI gegenseitig. Wenn WI auf BI trifft, ist es möglich, einen einheitlichen und ganzheitlichen Rahmen für das Studium von maschineller Intelligenz, menschlicher Intelligenz und sozialer Intelligenz zu haben. Wir argumentieren, dass neue Instrumente wie fMRI und Informationstechnologie sowohl Web-Intelligenz als auch Hirnwissenschaften revolutionieren werden. Diese Revolution wird bidirektional sein: Ein neues Verständnis der menschlichen Intelligenz durch die Hirnwissenschaften wird eine neue Generation der Web-Intelligence-Forschung und -Entwicklung hervorbringen, und Web-Intelligence-Portaltechniken werden eine leistungsstarke neue Plattform für die Hirnwissenschaften bieten. Die Synergie zwischen diesen beiden Bereichen wird unser Verständnis von Wissen, Intelligenz und Kreativität fördern. Infolgedessen wird Web Intelligence zu einem zentralen Thema, das die Natur der Informationstechnologie im Allgemeinen und der künstlichen Intelligenz im Besonderen in Richtung Web Intelligence auf menschlicher Ebene verändern wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36668-3_2 658841b6af23fb2b2e3918dd18a364c6;de;;;7.4.;;;Vorhersage des Preises für digitale Währungen mithilfe eines breitgefächerten Lernsystems und eines genetischen Algorithmus Mit der Entwicklung der digitalen Wirtschaft schwankte der Preis von Bitcoin, der repräsentativsten digitalen Währung, dramatisch. Jüngste Arbeiten haben die Volatilität des Bitcoin-Preises untersucht und Vorhersagen mit finanziellen Zeitreihenmodellen wie ARIMA getroffen. Für hochfrequente Bitcoin-Daten weisen die Finanzzeitreihenmodelle jedoch eine schlechte Vorhersageleistung auf, da sie oft nicht die inhärenten Eigenschaften digitaler Währungen wie Blockchain-Informationen berücksichtigen. Einige andere Arbeiten zu diesem Thema verwenden Deep-Learning-Modelle, z. B. künstliche neuronale Netze. Die komplexe Struktur und der zeitaufwändige Trainingsprozess dieser Deep-Learning-Modelle führen jedoch oft zu einer geringen Vorhersageeffizienz für sich schnell ändernde Bitcoin-Preise. In dieser Hinsicht ist Broad Learning System (BLS) ein neues neuronales Netzwerk, das die komplexe Struktur versteckter Knoten in Deep-Learning-Modellen vermeidet, indem es Erweiterungsknoten in der Eingabeschicht hinzufügt, um die Trainingseffizienz zu verbessern und gleichzeitig eine relativ hohe Genauigkeit zu liefern. Daher wendet diese Arbeit das breite Lernsystem zur Vorhersage des Bitcoin-Preises an und optimiert das Vorhersagemodell mit einem genetischen Algorithmus. Aufgrund des Fehlens grundlegender Faktoren für die digitale Währung berücksichtigt das vorgeschlagene Vorhersagemodell die makroökonomischen Variablen und die Informationen der Bitcoin-Blockchain, die die zugrunde liegende Technologie von Bitcoin ist, als Input. Den experimentellen Ergebnissen zufolge erzielte das mit dem genetischen Algorithmus optimierte BLS-basierte Vorhersagemodell eine bessere Leistung als andere Modelle des maschinellen Lernens.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1160-5_37 be88924d128f66f96695d6db0fa367f0;de;;;7.4.;;;Maschinelles Lernen zur Verbesserung der zylindrischen algebraischen Zerlegung in Maple Die Leistung vieler Algorithmen in Computeralgebrasystemen kann durch die sorgfältige Auswahl von Optionen verbessert werden, die die Korrektheit des Endergebnisses nicht beeinträchtigen. Machine Learning (ML) eignet sich für solche Entscheidungen: Die Herausforderung besteht darin, ein geeignetes ML-Modell, einen Trainingsdatensatz und ein Schema auszuwählen, um die Merkmale der Eingabe zu identifizieren. In diesem erweiterten Abstract betrachten wir unsere jüngsten Arbeiten zur Verwendung von ML zur Auswahl der Variablenordnung für die zylindrische algebraische Dekomposition (CAD) in Maple: Experimentieren mit einer Vielzahl von Modellen und einem neuen flexiblen Framework zum Generieren von ML-Features aus Polynomsystemen. Wir berichten, dass ML ein deutlich schnelleres CAD ermöglicht als mit der standardmäßigen Maple-Bestellung, und diskutieren einige erste Ergebnisse zur Anpassungsfähigkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-41258-6_25 43891e3f3c7c5a5209bd709a3f6cd755;de;;;7.4.;;;Grundlagen der Klassifikation Die Klassifizierung ist eine der Hauptaufgaben beim maschinellen Lernen, beim Data Mining und der Mustererkennung. Ein granulares Rechenmodell wird zum Erlernen von zwei grundlegenden Fragen der Konzeptbildung und der Identifizierung von Konzeptbeziehungen vorgeschlagen. Ein Klassifikationsproblem kann als Suche nach geeigneten Granulaten betrachtet werden, die unter einer Teilordnung organisiert sind. Die Strukturen des Suchraums, Lösungen zu einem konsistenten Klassifikationsproblem und die Strukturen des Lösungsraums werden diskutiert. Es wird ein Verfahren zur Induktion von Klassifikationsregeln vorgeschlagen. Anstatt nach einer geeigneten Partition zu suchen, konzentrieren wir uns auf die Suche nach einer geeigneten Abdeckung des gegebenen Universums. Diese Methode ist allgemeiner als partitionsbasierte Methoden. Für den Entwurf von Heuristiken zur Auswahl von Abdeckgranulaten werden mehrere Maßnahmen für Granulate vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/11539827_5 f2d55102cd94688c0045d933ee8562cb;de;;;7.4.;;;Eine vorläufige Studie zur Qualitätskontrolle von Meeresbeobachtungsdaten durch Methoden des maschinellen Lernens Argo Float ist eine kleine und leichte Driftboje zur Messung von Meerestemperatur und Salzgehalt. Mehr als 3.600 Schwimmer sind ständig im Einsatz für die weltweite Überwachung der Ozeane, und die gesammelten großen Ozeanbeobachtungsdaten helfen vielen Studien wie der Untersuchung von Mechanismen des Klimawandels. Die beobachteten Temperatur- und Salzgehaltsdaten enthalten jedoch manchmal Fehler. Da die automatische Erkennung und Korrektur der Fehler aufgrund der uneinheitlichen Beobachtungszuverlässigkeit und der Notwendigkeit, Fehlerschichten zu spezifizieren, schwierig ist, haben menschliche Experten manuelle Fehlererkennung und -korrektur durchgeführt. Um ein hochgenaues automatisches Fehlererkennungsverfahren zu realisieren, wendet dieses Papier zunächst die selbstorganisierende Karte auf die Beobachtungsdaten an, um die Fehlereigenschaften umfassend zu verstehen, und schlägt dann ein Verfahren zur Fehlererkennung basierend auf dem Conditional Random Field vor. Experimentelle Ergebnisse zeigten, dass die vorgeschlagene Klassifikationsmethode basierend auf CRF Beobachtungsfehler mit deutlich besserer Genauigkeit als die bestehende automatische Qualitätskontrolle erkannte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13359-1_52 61174fe2bb1c9deaaa978f4506f172fa;de;;;7.4.;;;SVM-Ensembles für die Disambiguierung benannter Entitäten Die enorme Menge an digitalen Daten erfordert eine Automatisierung, die unter anderem dabei helfen kann, unstrukturierte mit strukturierten Daten zu verknüpfen. Eine solche Aufgabe erfordert einen systematischen Ansatz zur Zuordnung von Entitätserwähnungen (z. B. Person, Standort) zu entsprechenden Einträgen in einer Wissensdatenbank. Dieser Forschungsbereich entwickelt sich rasant in einem atemberaubenden Tempo, was zur Popularisierung der Named Entity Disambiguation (NED) geführt hat. NED, auch bekannt als Entity Linking, beschreibt die Aufgabe, bei der Verarbeitung von unstrukturierten Daten, die mit benannten Entitäten gepackt sind, alle Mehrdeutigkeiten zu beseitigen. Das Ziel dieses Beitrags ist es, Ensemble-Lernen mit Hilfe von Support Vector Machines (SVM) zur Lösung des NED-Problems zu untersuchen. Es wurden mehrere Ensemble-Lernalgorithmen untersucht, einschließlich Bagging, Boosting und Voting unter Verwendung verschiedener SVM-Kernelfunktionen, einschließlich Linear-, RBF- und Polynomial-Kernels. Unsere Ergebnisse zu drei Benchmark-Korpora zeigen, dass Ensemble-Lernen mit SVM im Vergleich zu bekannten Entity-Annotation-Systemen und Ensemble-Modellen zu wettbewerbsfähigen Leistungsniveaus führt. Insbesondere war die vorgeschlagene Methode am besten bei der Disambiguierung von AIDA/CONLL-TestB und AQUAINT mit F-Maß gleich 78,5 bzw. 71,5%.;-;-;-;https://link.springer.com/article/10.1007/s00607-019-00748-x 356b81791925fe0b19ff17f4918f8a23;de;;;7.4.;;;Eine Übersicht über das Arabische Text-Mining In letzter Zeit ist Text Mining aufgrund der großen Menge an Text im Web zu einem interessanten Forschungsgebiet geworden. Text Mining ist ein wesentliches Feld im Kontext des Data Mining, um interessante Muster in Textdaten zu entdecken. Das Untersuchen und Extrahieren solcher Informationsmuster aus riesigen Datensätzen wird als ein entscheidender Prozess angesehen. Viele Umfragestudien wurden durchgeführt, um verschiedene Text-Mining-Methoden für unstrukturierte Datensätze einzusetzen. Es wurde festgestellt, dass umfassende Umfragestudien im arabischen Kontext vernachlässigt wurden. Diese Studie zielt darauf ab, einen umfassenden Überblick über verschiedene Studien im Zusammenhang mit dem arabischen Text-Mining zu geben, wobei der Schwerpunkt auf dem Heiligen Koran, der Stimmungsanalyse und Webdokumenten liegt. Darüber hinaus wird die Synthese der Forschungsprobleme und Methoden der untersuchten Studien den Text-Mining-Wissenschaftlern bei der Verfolgung ihrer zukünftigen Studien helfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67056-0_20 2178ef2c95d58252e648de0a2faf053c;de;;;7.4.;;;Transfer Learning zur Klassifizierung von Uteruszervix-Bildern für das Gebärmutterhalskrebs-Screening Die automatische Analyse digitaler Zervixbilder, die während der visuellen Inspektion mit Essigsäure (VIA) aufgenommen wurden, hat sich als große Hilfe für die Ärzte bei der Diagnose von Gebärmutterhalskrebs erwiesen. Herkömmliche Klassifizierungsmethoden erfordern viele Merkmale, um zwischen normalem und abnormalem Gebärmutterhals zu unterscheiden. Die Auswahl unterschiedlicher visueller Merkmale, die die Daten gut darstellen und gleichzeitig in der Lage sind, diskriminierendes Lernen durchzuführen, ist komplex. Dieses Problem kann mit Deep-Learning-Ansätzen überwunden werden. Transfer Learning ist einer der Deep-Learning-Ansätze, der die Verwendung eines vortrainierten Netzwerks für ein spezifisches Problem erleichtert. Dieses Papier präsentiert ein Transfer-Lernen mit AlexNet, einem vortrainierten neuronalen Faltungsnetzwerk, zur Klassifizierung der Zervixbilder in zwei Klassen, nämlich negativ und positiv. In dieser Studie wurden 2198 Zervixbilder verwendet, von denen 1090 zur negativen Klasse und 1108 zur positiven Klasse gehörten. Unser Experiment mit AlexNet für Transfer Learning erreichte eine Genauigkeit von 0,934.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0626-0_25 71ca465e70f47e04d405577d8dd70d64;de;;;7.4.;;;Forschung zur bildgebenden Diagnostik von Brustkrebs basierend auf Regularized LightGBM Brustkrebs ist die häufigste Krebstodesursache bei Frauen und gefährdet zunehmend die Gesundheit von Frauen. Die Forschung der bildgebenden Radiologie bei Brustkrebs zielt darauf ab, die traditionelle künstliche Diagnose zu ersetzen und die genaue Diagnose und Behandlung von Brustkrebs zu fördern. Die Verwendung von Deep-Learning-Technologie zur Extraktion der Merkmale von Brustbildern und zum Aufbau eines bildgebenden Brustkrebs-Diagnosesystems ist für die Förderung der Entwicklung diagnostischer Effizienz im Bereich der bildgebenden Medizin unerlässlich. Zunächst werden die vorhandenen Mammographie-Datensätze mit der Datenverbesserungstechnologie 50-mal in zufälligen Winkeln (0°–360°) gedreht. Dann werden die Bilder kodiert, und dann werden die Bildmerkmale von ResNet50 extrahiert. Bei der Klassifikation kommt ein regularisiertes LightGBM-Modell hinzu, die Kombination beider Modelle bildet ein Modell für die Brustkrebsdiagnose. Das Hinzufügen von LightGBM verbessert die Klassifizierungsgenauigkeit und Leistung des Modells. Die experimentellen Ergebnisse zeigen, dass die Genauigkeit des Modells auf den beiden Datensätzen von INbreast und DDSM 91,7% bzw. 93,6% beträgt, wenn die Dreiklassifikation (normal/gutartig/bösartig) durchgeführt wird, wenn die binäre Klassifikation (gutartig/bösartig) durchgeführt wird. , beträgt die AUC der beiden Datensätze 0,942 bzw. 0,962.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1925-3_35 f50c14b3317960455d9924b40f0b216e;de;;;7.4.;;;Verwenden neuronaler Netze zum Aggregieren von Linked-Data-Regeln Zwei typische Probleme treten auf, wenn man einen Satz von Regeln aus einem Data-Mining-Prozess erhält: (i) ihre Anzahl kann extrem groß sein und (ii) nicht alle von ihnen sind für die Betrachtung interessant. Sowohl manuelle als auch automatische Strategien, die versuchen, diese Probleme zu überwinden, müssen mit technischen Problemen wie Zeitkosten und Rechenkomplexität umgehen. Diese Arbeit ist ein Versuch, die Quantitäts- und Qualitätsprobleme durch die Verwendung eines neuronalen Netzmodells zur Vorhersage der Qualität von Linked Data-Regeln anzugehen. Unsere Motivation stammt aus unserer früheren Arbeit, in der wir große Mengen atomarer Regeln durch einen induktiven Logik inspirierten Prozess erhalten haben, der Linked Data durchquert. Unter der Annahme einer begrenzten Menge an Ressourcen und daher der Unmöglichkeit, jede mögliche Kombination auszuprobieren, um eine bessere Regel zu erhalten, die eine Teilmenge von Elementen darstellt, besteht das Hauptproblem darin, die Kombinationen zu ermitteln, die in kürzester Zeit die beste Regel ergeben. Daher schlagen wir vor, ein neuronales Netz zu verwenden, um direkt aus den Regeln zu lernen, wie man eine vielversprechende Aggregation erkennt. Unsere Experimente zeigen, dass die Einbeziehung eines neuronalen Netzwerk-basierten Vorhersagemodells in einen Regelaggregationsprozess die Menge an Ressourcen (Zeit und Raum), die zur Erstellung hochwertiger Regeln erforderlich sind, erheblich reduziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13704-9_41 48b024c4982880bb8c28db01c91cd765;de;;;7.4.;;;Unternehmensüberwachung zur Krisenprävention basierend auf Knowledge Engineering Berücksichtigt wird ein Entscheidungsunterstützungssystem (DSS) für die Unternehmensüberwachung auf Basis von Knowledge Engineering. Für DSS kommen die Technologien von Expertensystemen und Data Mining zum Einsatz. Das entwickelte System setzt eine kontinuierliche Überwachung der Unternehmensindikatoren voraus und besteht aus drei Modulen. Die Expertensystemtechnik bildet die Grundlage der beiden Module des DSS – das erste Modul dient der Klassifizierung von Unternehmen nach der Höhe des Krisenzustandsrisikos und das zweite ist die Erkennung von Anzeichen für einen falschen Krisenzustand (betrügerische Insolvenz) Grundlage der prognostizierten Indikatoren. Das Data-Mining-Modul soll die Finanzkennzahlen des Unternehmens prognostizieren. Der Entscheidungsträger, der das DSS verwendet, kann der oberste Manager oder die Aufsichtsbehörde sein. Es ist den Benutzern des Systems möglich, die wichtigsten Trends in den wirtschaftlichen Prozessen des Unternehmens zu verfolgen. Dieser Ansatz wurde am Beispiel der staatlichen Überwachung der Zahl der industriellen und agroindustriellen Unternehmen der Republik Baschkortostan verwendet. Die praktische Anwendung des DSS-Prototyps, die die Realisierung des vorgeschlagenen Ansatzes ermöglicht, wird betrachtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41329-2_33 11650fe73073158b886c202e0679aebf;de;;;7.4.;;;Bergbau und Analyse von Luftqualitätsdaten zur Unterstützung des Klimawandels Die Data Science- und KI-Community hat sich auf der ganzen Welt versammelt, um die Bekämpfung des Klimawandels in verschiedenen Bereichen zu unterstützen. Diese Forschung zielt darauf ab, die Luftqualität anhand von Emissions- und Schadstoffkonzentrationsdaten zusammen mit Vegetationsinformationen zu untersuchen. Behörden, insbesondere in Großstädten wie London, waren bei der Überwachung dieser verschiedenen Aspekte der Luftqualität sehr wachsam, und in diesem Bereich stehen zuverlässige Quellen für Big Data zur Verfügung. Diese Studie zielt darauf ab, diese Informationen, die überall in verschiedenen Formaten verbreitet sind, zu sammeln und zu einer nutzbaren Wissensbasis zu kombinieren, auf der weitere Datenanalysen und leistungsstarke Ansätze des maschinellen Lernens aufgebaut werden können, um starke Beweise zu gewinnen, die für die Entwicklung besserer Strategien zum Klimawandel nützlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-49190-1_21 1f01e07626e37307fd9b52fae71845d7;de;;;7.4.;;;Multiobjektiv optimale medizinische Dateninformatik-Standardisierungs- und Verarbeitungstechnik für die Telemedizin durch maschinelles Lernen Telemedizin ist ein blühendes Feld mit interdisziplinärer Forschung und breitem Anwendungsgebiet. Seit dem letzten Jahrzehnt werden verschiedene Techniken vorgeschlagen, deren Hauptaugenmerk auf der Verbesserung der Telemedizin liegt. Die Algorithmen sind entweder datenabhängig oder anwendungsorientiert. In diesem Beitrag wird eine multiobjektive optimale medizinische Datenverarbeitungstechnik (MooM) unter multidimensionalen Datentypen von medialen Proben wie Textdateien, Bilddateien, Protokolldateien, elektronische Patientenakten (EHR), Audiosignaldateien und Grafiken vorgeschlagen Dateien. Die Technik schlägt eine dedizierte Methodik für die unabhängige Datentypverarbeitung zum Abrufen auf einer Standardprotokollplattform für die Übertragung von Daten über einen Telemedizinkanal vor. Die Technik verwendet unüberwachte und hybride Clustering-Ansätze des maschinellen Lernens, um Datentypattribute für die Verarbeitung vorherzusagen, was zu einer höheren Genauigkeit und Datenskalierbarkeit auf dem Übertragungskanal der Telemedizinumgebung führt. Die auf medizinischen Bildern verarbeitete MooM-Technik ruft den komprimierten Strom von Datenrahmen mit einer aufgezeichneten QoS von 9,23 ab, für medizinische Texturdaten beträgt die QoS 9,87 und für Audiosignalmusterdaten wird die QoS von 9,76 auf einer Skala von 10 aufgezeichnet.;-;-;-;https://link.springer.com/article/10.1007/s12652-020-02016-9 3f89d881a17a1b36d021cd6be5506977;de;;;7.4.;;;Künstliche Neuronale Netze in Smart Homes Viele wunderbare technologische Entwicklungen der letzten Jahre haben die Möglichkeit eröffnet, Smart oder Intelligent Home für eine Reihe wichtiger Anwendungen zu nutzen. Typische Anwendungen reichen von der allgemeinen Verbesserung des Lebensstils bis hin zur Unterstützung von Menschen mit besonderen Bedürfnissen wie älteren und behinderten Menschen, um ihre Unabhängigkeit und Sicherheit zu Hause zu verbessern. Die Forschung in diesem Bereich hat Möglichkeiten untersucht, die häusliche Umgebung automatisch zu gestalten, und es wurden automatisierte Geräte entwickelt, um behinderten Menschen zu helfen. Auch die Möglichkeiten automatisierter Gesundheitsüberwachungssysteme und die Verwendung automatisch gesteuerter Geräte als Ersatz für Pflegepersonal und Haushälterin haben große Aufmerksamkeit erhalten. Die meisten Modelle erfordern die Erfassung nützlicher Informationen aus der Umgebung, die Identifizierung der wesentlichen Merkmale und schließlich den Einsatz einer Art maschineller Lerntechniken zur Entscheidungsfindung und Planung der nächsten durchzuführenden Aktion. Dieses Kapitel konzentriert sich speziell auf Anwendungen neuronaler Netze beim Aufbau einer Smart-Home-Umgebung.;-;-;-;https://link.springer.com/chapter/10.1007/11788485_9 ca299108003c4f6efb1229591f4b828b;de;;;7.4.;;;Eine auf Wavelet-Paketen spektrale Subtraktion und auf einem neuronalen Faltungsnetzwerk basierende Methode zur Diagnose des Systemzustands Gesundheitsüberwachungssysteme spielen eine Schlüsselrolle in intelligenten Fabriken. Um die Echtzeitfähigkeit und Zuverlässigkeit von Gesundheitsüberwachungssystemen zu verbessern, schlagen wir ein vollautomatisches Verfahren zur Maschinendiagnose vor. Zunächst werden erfasste Schwingungssignale durch Spektralsubtraktion von Wavelet-Paketen in hochauflösende Bilder umgewandelt. Als nächstes extrahiert ein trainiertes Convolutional Neural Network (CNN) automatisch wichtige Funktionen und bestimmt den aktuellen Zustand der Maschine. Die Leistungsfähigkeit des vorgeschlagenen Verfahrens wird demonstriert, indem ein Diagnoseproblem eines Lagersystems verwendet wird. Das Ergebnis zeigt eine hervorragende Klassifikationsgenauigkeit von 99,64 % selbst bei einer geringen Menge an Trainingsdaten (5 % der Daten).;-;-;-;https://link.springer.com/article/10.1007/s12206-019-1111-6 df4efd16d663c6c82222539d9a614a22;de;;;7.4.;;;Feature-Subset-Auswahlansatz durch Gray-Wolf-Optimierung Der Merkmalsauswahlalgorithmus untersucht die Daten, um verrauschte, irrelevante, redundante Daten zu eliminieren und gleichzeitig die Klassifikationsleistung zu optimieren. In diesem Papier wird eine auf Klassifikationsgenauigkeit basierende Fitnessfunktion vom Gray-Wolf-Optimierer vorgeschlagen, um eine optimale Merkmalsteilmenge zu finden. Der Grauwolf-Optimierer ist eine neue evolutionäre Berechnungstechnik, die die Führungshierarchie und den Jagdmechanismus von Grauwölfen in der Natur nachahmt. Ziel der Grauwolf-Optimierung ist es, durch die Interaktion von Individuen in der Population optimale Regionen des komplexen Suchraums zu finden. Im Vergleich zur Partikelschwarmoptimierung (PSP) und genetischen Algorithmen (GA) über einen Satz von UCI-Datenspeichern für maschinelles Lernen beweist der vorgeschlagene Ansatz eine bessere Leistung sowohl bei der Klassifizierungsgenauigkeit als auch bei der Reduzierung der Merkmalsgröße. Darüber hinaus erweist sich der Grey-Wolf-Optimierungsansatz im Vergleich zu PSO- und GA-Optimierern als sehr robust gegenüber Initialisierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13572-4_1 eb7c2b3a241a40d461521a466e3d443b;de;;;7.4.;;;Forschung zu einem statistischen maschinellen Übersetzungsmodell basierend auf einem tiefen neuronalen Netzwerk Mit der steigenden Nachfrage nach Übersetzungen, dem Fortschritt der Informationstechnologie, der Entwicklung linguistischer Theorien und dem Fortschritt von Modellen zum Verstehen natürlicher Sprache in der Forschung zur künstlichen Intelligenz hat die maschinelle Übersetzung allmählich weltweite Aufmerksamkeit erlangt. Gegenwärtig hat die maschinelle Übersetzungsforschung jedoch noch Probleme wie unzureichende zweisprachige Daten und das Fehlen einer effektiven Merkmalsdarstellung, was die weitere Verbesserung von Schlüsselmodulen der maschinellen Übersetzung wie Wortausrichtung, Sequenzanpassung und Übersetzungsmodellierung beeinträchtigt. Die Wirkung der maschinellen Übersetzung ist noch unbefriedigend. Als neue Methode des maschinellen Lernens kann das tiefe neuronale Netzwerk automatisch abstrakte Merkmalsrepräsentationen lernen und eine komplexe Zuordnungsbeziehung zwischen Eingangs- und Ausgangssignalen herstellen, was eine neue Idee für die statistische maschinelle Übersetzungsforschung bietet. Zuerst werden das mehrschichtige neuronale Netz und das ungerichtete Wahrscheinlichkeitsgraphenmodell kombiniert, und die Ähnlichkeits- und Kontextinformationen des Vokabulars werden effektiv verwendet, um die Wortausrichtung vollständiger zu modellieren, und das Wortausrichtungsmodell mit der Bezeichnung NNWAM wird konstruiert. Zweitens wird die niedrige Dimension verwendet. Die Feature-Repräsentation wird mit anderen Features zu einem linear geordneten Vorbestellungsmodell kombiniert, um das Vorbestellungsmodell namens NNPR zu konstruieren. Schließlich werden das Word-Alignment-Modell und das Pre-Ordering-Modell in demselben tiefen neuronalen Netzwerk-Framework kombiniert, um DNNAPM zu bilden, ein statistisches maschinelles Übersetzungsmodell basierend auf tiefen neuronalen Netzwerken. Die experimentellen Ergebnisse zeigen, dass das auf einem tiefen neuronalen Netz basierende statistische maschinelle Übersetzungsmodell eine bessere Wirkung, schnellere Konvergenz und bessere Zuverlässigkeit als der Vergleichsmodellalgorithmus aufweist.;-;-;-;https://link.springer.com/article/10.1007/s00607-019-00752-1 30f8aeca7ecdd8d3b883e9bfca246288;de;;;7.4.;;;Modulbasiertes Verstärkungslernen: Experimente mit einem echten Roboter Das Verhalten von Algorithmen des Reinforcement Learning (RL) wird am besten in vollständig beobachtbaren, zeitdiskret gesteuerten Markov-Ketten mit endlichen Zustands- und Aktionsräumen verstanden. Im Gegensatz dazu sind Domänen des Roboterlernens von Natur aus sowohl zeitlich als auch räumlich kontinuierlich und darüber hinaus teilweise beobachtbar. Hier schlagen wir einen systematischen Ansatz zur Lösung solcher Probleme vor, bei dem das verfügbare qualitative und quantitative Wissen genutzt wird, um die Komplexität der Lernaufgabe zu reduzieren. Die Schritte des Designprozesses sind: (i) Zerlegen der Aufgabe in Teilaufgaben unter Verwendung des vorhandenen qualitativen Wissens, (ii) Entwerfen lokaler Controller zur Lösung der Teilaufgaben mit dem verfügbaren quantitativen Wissen und (iii) Erlernen einer Koordination dieser Controller durch Verstärkungslernen. Es wird argumentiert, dass der Ansatz eine schnelle, halbautomatische und dennoch qualitativ hochwertige Robotersteuerung ermöglicht, da keine Feinabstimmung der lokalen Steuerungen erforderlich ist. Der Ansatz wurde an einer nicht trivialen realen Roboteraufgabe verifiziert. Mehrere RL-Algorithmen wurden durch ANOVA verglichen und es wurde festgestellt, dass der modellbasierte Ansatz signifikant besser funktionierte als der modellfreie Ansatz. Die erlernte Schaltstrategie funktionierte vergleichbar mit einer handwerklichen Version. Darüber hinaus schien die erlernte Strategie bestimmte Eigenschaften der Umgebung auszunutzen, die im Voraus nicht vorhergesehen wurden, was die Ansicht unterstützt, dass adaptive Algorithmen in komplexen Umgebungen gegenüber nicht adaptiven vorteilhaft sind.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008858222277 ce2ab7df9da335f71c396906e8d3dd4c;de;;;7.4.;;;Textkategorisierung mit Support Vector Machines: Lernen mit vielen relevanten Features In diesem Artikel wird die Verwendung von Support Vector Machines (SVMs) zum Erlernen von Textklassifikatoren anhand von Beispielen untersucht. Es analysiert die besonderen Eigenschaften des Lernens mit Textdaten und identifiziert, warum SVMs für diese Aufgabe geeignet sind. Empirische Ergebnisse stützen die theoretischen Erkenntnisse. SVMs erzielen wesentliche Verbesserungen gegenüber den derzeit leistungsstärksten Methoden und verhalten sich robust gegenüber einer Vielzahl unterschiedlicher Lernaufgaben. Darüber hinaus sind sie vollautomatisch, so dass keine manuelle Parametereinstellung erforderlich ist.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0026683 a65c10b90ae69ed6c29354ea424c1bf4;de;;;7.4.;;;Multi-View-Text-Mining zur Priorisierung und Clustering von Krankheitsgenen Text Mining hilft Biologen, automatisch Krankheitsgen-Assoziationen aus großen Mengen biologischer Literatur zu sammeln. In den letzten zehn Jahren gab es einen Anstieg des Interesses an der automatischen Erforschung der biomedizinischen Literatur, das vom bescheidenen Ansatz des Kommentierens und Extrahieren von Schlüsselwörtern aus Texten bis hin zu ehrgeizigeren Versuchen wie Natural Language Processing, Text-Mining-basierter Netzwerkkonstruktion und Inferenz reichte . Insbesondere helfen diese Bemühungen Biologen effektiv, die wahrscheinlichsten Krankheitskandidaten für eine weitere experimentelle Validierung zu identifizieren. Die wichtigste Ressource für Text-Mining-Anwendungen ist jetzt die MEDLINE-Datenbank, die vom National Center for Biotechnology Information (NCBI) an der National Library of Medicine (NLM) entwickelt wurde. MEDLINE deckt alle Aspekte der Biologie, Chemie und Medizin ab, die Arten von Informationen, die durch sorgfältiges und umfassendes Mining wiederhergestellt werden können, sind nahezu unbegrenzt [45]. Daher hängt ein erfolgreicher Text-Mining-Ansatz stark von einem geeigneten Modell ab. Um ein Text-Mining-Modell zu erstellen, muss die Auswahl von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19406-1_5 77a5b9e8835cffba4691cf1b5cb05e5e;de;;;7.4.;;;Grober satzbasierter Entscheidungsbaum-Konstruktionsalgorithmus Wir wenden die Grobmengentheorie an, um Erkenntnisse aus der Konstruktion eines Entscheidungsbaums zu gewinnen. Entscheidungsbäume sind im maschinellen Lernen weit verbreitet. Es wurden verschiedene Methoden zur Erstellung von Entscheidungsbäumen entwickelt. Unser Algorithmus, der die Kernattribute von Objekten vergleicht und basierend auf diesen Attributen Entscheidungsbäume erstellt, repräsentiert eine neue Art der Baumkonstruktion. Experimente zeigen, dass der neue Algorithmus dazu beitragen kann, aussagekräftigere und genauere Regeln zu extrahieren als andere Algorithmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74472-6_58 6022eb3fbc0958717a74917df01101a1;de;;;7.4.;;;Identifikation des Kameramodells mit Transfer Learning Eine Vielzahl von forensischen Problemen kann gelöst werden, indem das Kameramodell von der Urheberrechtsverletzung bis zur Eigentumszuordnung erkannt wird. Es gibt viele vorgeschlagene Verfahren zum Erfassen des Kameramodells. In diesem Papier wird eine Methode vorgeschlagen, um das Kameramodell eines beliebigen Bildes zu identifizieren. Dabei handelte es sich um Merkmalsextraktion und -klassifizierung. CNN-basierte Architekturen eignen sich am besten für die Aufgabe der Bildklassifizierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1884-3_6 89f00e9ec6aba2896c432ab1e2587848;de;;;7.4.;;;Erkennung von städtischen Geräuschereignissen mithilfe von kontextabhängigen Feature-Extraktoren und handgefertigten Features Dieses Papier schlägt eine Methode zur Erkennung von Audioereignissen in städtischen Umgebungen vor, die handgefertigte Audiofunktionen mit einem Deep-Learning-Architekturschema (Convolutional Neural Networks, CNNs) kombiniert, das darauf trainiert wurde, zwischen verschiedenen Audiokontextklassen zu unterscheiden. Die Kernidee besteht darin, die CNNs als Methode zu verwenden, um kontextbezogene tiefe Audiomerkmale zu extrahieren, die zusätzliche Merkmalsdarstellungen für jede Klassifikationsaufgabe der Klanglandschaftsanalyse bieten können. Dazu wird das CNN auf einer Datenbank von Audiosamples trainiert, die in Bezug auf ihre jeweilige „Szene“ (z. B. Zug, Straße, Park) annotiert sind, und dann in einem frühen Fusionsansatz mit handgefertigten Audiofeatures kombiniert, in um das Audioereignis einer unbekannten Audioaufnahme zu erkennen. Detaillierte Experimente beweisen, dass das vorgeschlagene kontextbezogene Deep-Learning-Schema in Kombination mit den typischen handwerklichen Funktionen zu einer deutlichen Leistungssteigerung in Bezug auf die Klassifizierungsgenauigkeit führt. Der Hauptbeitrag dieser Arbeit ist die Demonstration, dass die Übertragung von Audio-Kontextwissen unter Verwendung von CNNs als Merkmalsextrahierer die Leistung des Audio-Klassifikators erheblich verbessern kann, ohne dass ein CNN-Training erforderlich ist (ein ziemlich anspruchsvoller Prozess, der riesige Datensätze und komplexe Datenerweiterungsverfahren erfordert).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-19909-8_16 bf54c17fcb75b23e083c965704122ccc;de;;;7.4.;;;Erforschung multi-objektiver Probleme in der Künstlichen Intelligenz Eines der Hauptthemen der künstlichen Intelligenz ist die Simulation von Gehirnen von Menschen. Dies kann nicht annähernd nur durch ein Gehirnmodell realisiert werden, da das Gehirn des Menschen eine große Anzahl von Funktionen hat und diese auf komplexe Weise ausführt. Daher werden Techniken der künstlichen Intelligenz normalerweise für diese Funktionen separat diskutiert - zum Beispiel Entscheidungsfindung ist eine Hauptfunktion des Gehirns. Da es nicht praktikabel zu sein scheint, die Entscheidungsfindung durch künstliche Intelligenz zu automatisieren, wurde diese Funktion unter dem Gesichtspunkt der Entscheidungsunterstützung durch ein System untersucht, das auf der Zusammenarbeit von Maschinen (Computern) und Menschen basiert. Interaktive Mehrziel-Programmiertechniken sind gute Beispiele in diesem Bereich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-60663-2_14 6a75c5c322cd68d59c395a6df8bf71e2;de;;;7.4.;;;ISIR: Ein integriertes System zur Informationsbeschaffung In diesem Beitrag werden wir ein integriertes System zur Informationsbeschaffung ISIR vorstellen. ISIR ist ein experimentelles Information Retrieval (IR) System, das als Testbed für die Integration moderner (IR) Methoden dient. Unser erster Ansatz ermöglicht es dem Benutzer, Abfragen als gewichtete Deskriptoren auszugeben. ISIR ist mit einem kommerziellen Datenbankdienst (Data-Star) verbunden, der Millionen von Informationen enthält. Die aktuelle Version von ISIR baut automatisch eine Data-Star-Sitzung auf und stellt boolesche Anfragen, die aus den gewichteten Anfragedeskriptoren abgeleitet wurden, die mit Hilfe der Informationsstrukturen zusammengesetzt werden können. Um dem Benutzer beim Formulieren von Abfragen zu helfen, steht eine Schnittstelle zu verschiedenen Thesauri zur Verfügung, die dem Benutzer beim Durchblättern der Thesauri in drei verschiedenen Ansichten helfen können. ISIR basiert auf dem x Window und X-Widgets.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-3211-0_4 98a907ad8fe1560ef050dfea2c3ea7c3;de;;;7.4.;;;Optimierungsmethoden für inverse Probleme Optimierung spielt eine wichtige Rolle bei der Lösung vieler inverser Probleme. Tatsächlich beinhaltet die Inversionsaufgabe oft entweder eine Lösung eines Optimierungsproblems oder wird vollständig als Lösung gegossen. Vor diesem Hintergrund führt die bloße nichtlineare, nichtkonvexe und großräumige Natur vieler dieser Inversionen zu einigen sehr herausfordernden Optimierungsproblemen. Die Inverse Problem Community entwickelt seit langem verschiedene Techniken zur Lösung solcher Optimierungsaufgaben. Andere, scheinbar unzusammenhängende Gemeinschaften, wie die des maschinellen Lernens, haben jedoch fast parallel interessante alternative Methoden entwickelt, die möglicherweise unter dem Radar der inversen Problemgemeinschaft geblieben sind. Mit dieser Umfrage wollen wir das ändern. Dabei diskutieren wir zunächst aktuelle Optimierungsmethoden, die bei inversen Problemen weit verbreitet sind. Anschließend untersuchen wir die jüngsten diesbezüglichen Fortschritte bei der Bewältigung ähnlicher Herausforderungen bei Problemen, mit denen die Machine Learning-Community konfrontiert ist, und diskutieren ihre potenziellen Vorteile bei der Lösung inverser Probleme. Durch die Hervorhebung der Ähnlichkeiten zwischen den Optimierungsherausforderungen des inversen Problems und der Machine-Learning-Communitys hoffen wir, dass diese Umfrage als Brücke dienen kann, um diese beiden Communities zusammenzubringen und die gegenseitige Befruchtung von Ideen zu fördern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-04161-8_9 acca19b7275bdbe879facd0028687d66;de;;;7.4.;;;Datenoptimierung für Spatial Data Mining und Klassifikation in der marinen geochemischen Exploration In diesem Beitrag wird Spatial Big Data Mining basierend auf einer neuen vereinfachten Datenoptimierung und einem Minimum Bounding Rectangle (MBR)-Verfahren vorgestellt. Um die räumliche Abfrage zu beschleunigen und die Einrichtungszeit des räumlichen Indexes in der räumlichen Datenbank der marinen geochemischen Exploration zu reduzieren, wurde eine zweistufige Methode zum Data Mining von Objekten verwendet. Die räumlichen Join-Abfragen wie die räumlichen Beziehungen zwischen den Objekten lassen sich in das relative Distanzproblem von Punkten mit ihren räumlichen Eigenschaften überführen. Dann wurden Support-Vektor-Maschinen (SVMs) basierend auf der radialen Basisfunktion (RBF) Kernel-Klassifizierung zu diesen Punkten und Linien verwendet, um räumliche Zielgebiete zu erhalten, um die Öl- und Gasressourcen zu bewerten. Vergleichssimulationen der Genauigkeit und räumlichen Abfragegeschwindigkeit der vorgeschlagenen Methode wurden basierend auf ArcGIS und Hadoop durchgeführt, um die Wirksamkeit zu überprüfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0474-7_118 66a0a98a5387424f2b8abccd30526341;de;;;7.4.;;;Predictive Quality: Auf dem Weg zu einem neuen Verständnis von Qualitätssicherung mit Tools des maschinellen Lernens Produktausfälle werden von Herstellern wegen der damit verbundenen Kosten und der daraus resultierenden Imageschäden gefürchtet. Während die meisten Fehler auf Entscheidungen in einem frühen Designprozess zurückgeführt werden können, werden sie oft erst viel später bei Qualitätsprüfungen oder schlimmstenfalls vom Kunden entdeckt. Wir schlagen ein auf Machine Learning basierendes System vor, das automatisch Erkenntnisse über Fehlerquoten aus den Qualitätssicherungs- und Rückgabeprozessen in den Designprozess zurückführt, ohne dass eine manuelle Datenanalyse erforderlich ist. Wie wir in einer Fallstudie zeigen, hilft dieses System, die Produktqualität präventiv zu sichern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-93931-5_3 55c30eccda108f28084d5257ab175a4f;de;;;7.4.;;;Auf dem Weg zu einem natürlichen Experiment, das Big Data nutzt, um die Verhaltensmuster von Benutzern innerhalb eines Online-Konsums zu analysieren und vorherzusagen Die Autoren entwickeln ein Modell zur multikriteriellen Bewertung von Big Data innerhalb von Organisationen, die sich mit den Auswirkungen einer Werbepräsenz auf das Online-Konsumverhalten befassen. Das Modell wurde strukturiert, um Unternehmen bei der Entscheidungsfindung zu unterstützen, um das Geschäftswissen und das Verständnis von Big Data und insbesondere heterogenen Big Data zu verbessern. Das Modell berücksichtigt eine mehrstufige Datenstruktur mit einem modularen System, mit dem sowohl Daten automatisch analysiert als auch hilfreiche Erkenntnisse für die Entscheidungsfindung gewonnen werden können. Dieses modulare System und seine Module implementieren tatsächlich künstliche intelligente Algorithmen wie neuronale Netze und genetische Algorithmen. Zur Entwicklung des Modells wurde daher ein Prototyp als Machbarkeitsnachweis mit einer Marketing-Automation-Software erstellt, die Daten aus mehreren Quellen (öffentliche Inhalte sozialer und redaktioneller Medien) sammelt und in einer großen Datenbank speichert, damit die Daten analysiert und zur Umsetzung von Geschäftsmodellinnovationen verwendet. In diesem Zusammenhang führen die Autoren ein natürliches Experiment durch, das noch abgeschlossen werden muss, um zu zeigen, dass das Modell nützliche Einsichten und Hinweise liefern kann, die Entscheidungsträgern helfen können, die „befriedigendsten“ Entscheidungen unter den alternativen Studiengängen weiter zu berücksichtigen Handlungs.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99698-1_12 e640f569acca08e24c192114d6afbb72;de;;;7.4.;;;Die kortikale Dirigententheorie: Auf dem Weg zum Bewusstsein in KI-Modellen KI-Modelle des Geistes diskutieren selten das sogenannte „harte Problem“ des Bewusstseins. Hier skizziere ich informell eine mögliche funktionale Erklärung für phänomenales Bewusstsein: die Dirigententheorie des Bewusstseins (CTC). Im Gegensatz zu IIT ist CTC ein funktionalistisches Bewusstseinsmodell, das Ähnlichkeiten mit anderen funktionalistischen Ansätzen aufweist, wie den von Dennett und Graziano vorgeschlagenen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99316-4_3 083458ba0d4321f24be2d273fe35358f;de;;;7.4.;;;Gemeinsamer und geteilter Lehrplan In diesem Kapitel wird untersucht, wie historische Studien in der Bildung rund um den gemeinsamen und geteilten Schullehrplan zwischen zwei Erschütterungen oder Brüchen – der Erfindung der Schulpflicht und dem möglichen Verschwinden derselben – neu angegangen werden könnten. Es beginnt mit der Schwierigkeit, sich auf einen einheitlichen Staatsapparat und institutionelle Geschichtlichkeit zu berufen, um endliche Schlussfolgerungen über die Konstitution von Kind/Lehrplan, gemeinsam/geteilt, progressiv/konservativ und amerikanisch/amerikanisch in Bezug auf die Schulpflicht zu ziehen. Es geht über Deleuze und Guattaris rhizomatische Nomadologie mit den De- und Reterritorialisierungen, die die lehrplanhistorischen Studien des 20. Neurowissenschaften und Big Data, auf denen die mutmaßliche Besonderheit des Menschen aufgebaut wurde. Dabei lenkt sie die Aufmerksamkeit auf die Schnittmenge von menschzentrierter Bildung und dem Ziel der transhumanistischen Bewegung, „Qualitäten“ wie Bewusstsein und Intelligenz von einem physischen Substrat wie dem Körper zu trennen. Es schließt mit einer Untersuchung, wie diese „Handelszone“ um Eigenschaften, die bisher als einzigartig für den Menschen galten, die Erfindung der Schulpflicht und eines gemeinsamen und geteilten Schullehrplans für andere Realisierungen zugänglich macht.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-981-10-0942-6_28-1 9cb1ba62ce881dc8cf0aa048f70363b1;de;;;7.4.;;;Optimal geordneter Problemlöser Wir stellen einen allgemeinen und in gewissem Sinne zeitoptimalen Weg vor, ein Problem nach dem anderen zu lösen, indem wir effizient den Raum von Programmen durchsuchen, die Lösungskandidaten berechnen, einschließlich solcher Programme, die früher erworbenes Wissen organisieren und verwalten, anpassen und wiederverwenden. Der Optimal Ordered Problem Solver (OOPS) ist von Levins Universal Search inspiriert, der für einzelne Probleme und universelle Turing-Maschinen entwickelt wurde. Es verbringt einen Teil der gesamten Suchzeit für ein neues Problem mit dem Testen von Programmen, die frühere lösungsrechnende Programme auf berechenbare Weise ausnutzen. Wenn das neue Problem durch Kopieren/Aufrufen des vorherigen Codes schneller gelöst werden kann, als das neue Problem von Grund auf neu zu lösen, wird OOPS dies herausfinden. Wenn nicht, werden zumindest die vorherigen Lösungen nicht viel Schaden anrichten. Wir stellen eine effiziente, rekursive, Backtracking-basierte Methode zur Implementierung von OOPS auf realistischen Computern mit begrenztem Speicherplatz vor. Experimente verdeutlichen, wie stark OOPS vom Metalearning oder Metasearching, also der Suche nach schnelleren Suchverfahren, profitieren können.;-;-;-;https://link.springer.com/article/10.1023/B%3AMACH.0000015880.99707.b2 7ec1fd47b3cd94620901423e4ba2a5d9;de;;;7.4.;;;Halbüberwachte Gaußsche Prozessregression und ihr Feedback-Design Semi-überwachtes Lernen hat in der Literatur zum maschinellen Lernen aufgrund seines Potenzials, den Bedarf an teuren gekennzeichneten Daten zu reduzieren, erhebliche Aufmerksamkeit erhalten. Die meisten der vorgeschlagenen Algorithmen wurden jedoch auf die Klassifikationsaufgabe angewendet. In diesem Beitrag stellen wir einen graphenbasierten semi-überwachten Algorithmus zur Lösung von Regressionsproblemen vor. Unsere Methode enthält einen angrenzenden Graphen, der auf gekennzeichneten und nicht gekennzeichneten Daten aufgebaut ist, mit dem Standard-Gauß-Prozess (GP), bevor die neue Trainings- und Vorhersageverteilung für die halbüberwachte GP-Regression (GPr) abgeleitet wird. Darüber hinaus kann bei der semi-überwachten Regression die Vorhersage von nicht gekennzeichneten Daten wertvolle Informationen enthalten. Sie können beispielsweise als gekennzeichnete Daten gepaart mit den nicht gekennzeichneten Daten angesehen werden, und bei einigen Metriken können sie helfen, ein genaueres Modell zu erstellen. Daher beschreiben wir auch einen Feedback-Algorithmus, der die nützliche Vorhersage von unbeschrifteten Daten für Feedback auswählen kann, um das Modell iterativ neu zu trainieren. Experimentelle Ergebnisse zeigen, dass unsere Arbeit eine mit Standard-GPr vergleichbare Leistung erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35527-1_30 5a6a6e1838c17f7dc9702cd89ac8ef06;de;;;7.4.;;;Fuzzy-Modellbasiertes Bewehrungslernen Es ist bekannt, dass modellbasierte Reinforcement-Learning-Methoden in Bezug auf die Anzahl der Versuche, die zum Erlernen optimaler Richtlinien erforderlich sind, sehr effizient sind. In diesem Artikel wird ein neuartiger Fuzzy-Modell-basierter Reinforcement-Learning-Ansatz vorgestellt,;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0324-7_15 af2b1a47e786dbe551b13ff26f7cb7cc;de;;;7.4.;;;KDD, Data Mining und die Herausforderung für den normativen Datenschutz Die vorliegende Studie untersucht bestimmte Herausforderungen, die KDD (Knowledge Discovery in Databases) im Allgemeinen und Data Mining im Besonderen für den normativen Datenschutz und die öffentliche Ordnung darstellen. In einer früheren Arbeit (siehe Tavani, 1999) argumentierte ich, dass bestimmte Anwendungen der Data-Mining-Technologie, die die Manipulation personenbezogener Daten beinhalten, besondere Bedenken hinsichtlich des Datenschutzes aufwerfen. Während der Hauptzweck des früheren Aufsatzes darin bestand, diese spezifischen Datenschutzbedenken aufzuzeigen und zu beschreiben, wie genau diese Bedenken durch den Einsatz bestimmter KDD- und Data-Mining-Techniken eingebracht wurden, stellt die vorliegende Studie die Frage, ob der Einsatz dieser Techniken notwendigerweise die Privatsphäre des Einzelnen verletzt. Diese Frage wird berücksichtigt;-;-;-;https://link.springer.com/article/10.1023/A%3A1010051717305 bffb52764bd2c8711543456cad2f3c84;de;;;7.4.;;;Social Semantic Web Mining und Big Data Analytics Im Kontext von Big Data Analytics und Social Networking ist Semantic Web Mining ein Zusammenschluss von drei wissenschaftlichen Forschungsbereichen: (1) Social Networking (2) Semantic Web und (3) Big Data Analytics, einschließlich Web Mining und Data Mining.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0094-7_7 a6ecb77e43704690f890e15d6d2338f6;de;;;7.4.;;;Forschung zur Korrekturlesemethode für semantische Kollokationsfehler in Chinesisch Mit der rasanten Entwicklung der Netzwerktechnologie und der Popularisierung elektronischer Dokumente hat die automatische Korrekturlesetechnologie für chinesische Texte zunehmende Aufmerksamkeit auf sich gezogen. Das automatische Korrekturlesen von semantischen Fehlern in chinesischen Texten ist ein wichtiger und schwieriger Punkt im Bereich der chinesischen Informationsverarbeitung. Um dieses Problem zu lösen, schlagen wir eine semantische Fehlerkorrekturmethode vor, die Abhängigkeitsanalyse und statistische Theorie enthält, und konstruieren eine zweischichtige semantische Wissensbasis, um die Fehlererkennung und Fehlerkorrektur zu unterstützen. Die zweischichtige semantische Wissensbasis umfasst (1) eine Wissensdatenbank von Wortkollokationen, die strukturierte Informationen von Sätzen enthält, die aus einem großen Korpus extrahiert wurden, (2) eine Wissensdatenbank von Semekollokationen, die durch Seme-Mapping durch HowNet erhalten wurden. Auf dieser Grundlage werden das kubische Assoziationsverhältnis und der Polymerisationsgrad eingeführt, um die Korrekturleseergebnisse zu bewerten, um falsch positive Ergebnisse zu reduzieren und die Genauigkeit von Fehlerkorrekturgutachten zu verbessern. Das Versuchsergebnis zeigt, dass unsere Methode für den Aufbau von semantischen Korrekturlese-Wissensdatenbanken und semantischen Fehler-Automatik-Korrekturverfahren von großem Nutzen sein wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-78615-1_62 6f296dead35820a14542bd9d3327f513;de;;;7.4.;;;Diskriminierende versus starke Regelwerke Das Hauptziel unserer Forschung war es, zwei völlig unterschiedliche Ansätze zur Regelinduktion zu vergleichen. Im ersten Ansatz, repräsentiert durch den LEM2-Regelinduktionsalgorithmus, sind induzierte Regeln diskriminierend, d. Beim zweiten Ansatz, der durch den IRIM-Regelinduktionsalgorithmus repräsentiert wird, werden einige starke und einfache Regeln induziert. Diese Regeln beschreiben Konzepte nicht unbedingt vollständig und sind im Allgemeinen inkonsistent. Obwohl LEM2 häufig IRIM übertrifft, ist der Leistungsunterschied statistisch unbedeutend. Daher ist IRIM, das einige strenge, aber einfache Regeln einführt, eine neue und interessante Ergänzung des LERS Data Mining-Systems.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-32392-9_8 f20a290e9641727f10044aa2cb622d64;de;;;7.4.;;;Eine neue Methode, die auf gestapelten Auto-Encodern basiert, um Radarechobilder von anormalem Wetter zu identifizieren Es ist nicht zu leugnen, dass die Echtzeitüberwachung von Radarprodukten ein wichtiger Bestandteil tatsächlicher meteorologischer Operationen ist. Das Wetterradar erzeugt jedoch aufgrund verschiedener Faktoren wie Klima und Hardwarefehler oft abnormale Radarechos. Daher ist es von großer praktischer Bedeutung und Forschungswert, eine automatische Identifizierung von Radaranomalieprodukten zu realisieren. Die herkömmlichen Algorithmen zur Identifizierung von Anomalien von Wetterradar-Echobildern sind jedoch nicht die genauesten und effizientesten. Um die Effizienz der Anomalieerkennung zu verbessern, wurde eine neuartige Methode vorgeschlagen, die die Theorie der klassischen Bildverarbeitung und des Deep Learning kombiniert. Die vorgeschlagene Methode umfasst im Wesentlichen drei Teile: Koordinatentransformation, Integralprojektion und Klassifikation mittels Deep Learning. Darüber hinaus wurden umfangreiche Experimente durchgeführt, um die Leistung des neuen Algorithmus zu validieren. Die Ergebnisse zeigen, dass die Erkennungsrate des vorgeschlagenen Verfahrens bis zu mehr als 95% erreichen kann, wodurch das Ziel des Screenings abnormaler Radarechobilder erfolgreich erreicht werden kann, auch die Rechengeschwindigkeit ist ziemlich zufriedenstellend.;-;-;-;https://link.springer.com/article/10.1186/s13638-020-01769-3 e44c3bdf3cff600989b7ba32607a5360;de;;;7.4.;;;Predictive Data Mining in der Gummimischungsdatenbank Auf neuronalen Netzwerken basierende prädiktive Data-Mining-Techniken werden verwendet, um Beziehungen zwischen Gummimischungsparametern zu finden, die durch rheologische und mechanische Tests erhalten wurden. Außerdem werden die dem Problem entsprechenden Vorverarbeitungsmethoden vorgestellt. Eine gute Vorhersage verschiedener Gummimischungsparameter weist offensichtlich darauf hin, dass die meisten mechanischen Eigenschaften von Gummimischungen aus den rheologischen Messungen des Vernetzungsprozesses abgeleitet werden können.;-;-;-;https://link.springer.com/chapter/10.1007/3-211-27389-1_26 9f5728f3be2a237943a03ad6d2c62db4;de;;;7.4.;;;Hybrides Bayes'sches Schätzbaumlernen mit diskreten und unscharfen Labels Das klassische Entscheidungsbaummodell ist aufgrund seiner Einfachheit und Effektivität in Anwendungen eines der klassischen Modelle des maschinellen Lernens. Im Vergleich zum DT-Modell geben Wahrscheinlichkeitsschätzbäume (PETs) jedoch eine bessere Schätzung der Klassenwahrscheinlichkeit. Um eine gute Wahrscheinlichkeitsabschätzung zu erhalten, benötigen wir normalerweise große Bäume, die in Bezug auf die Modelltransparenz nicht wünschenswert sind. Der linguistische Entscheidungsbaum (LDT) ist ein PET-Modell, das auf der Etikettensemantik basiert. Zum Aufbauen des Baums werden Fuzzy-Labels verwendet, und jeder Zweig ist einer Wahrscheinlichkeitsverteilung über Klassen zugeordnet. Wenn es keine Überlappung zwischen benachbarten Fuzzy-Labels gibt, werden diese Fuzzy-Labels dann zu diskreten Labels und ein LDT mit diskreten Labels wird zu einem Spezialfall des PET-Modells. In diesem Beitrag werden zwei Hybridmodelle durch die Kombination des naiven Bayes-Klassifikators und PETs vorgeschlagen, um ein Modell mit guter Leistung aufzubauen, ohne zu viel Transparenz zu verlieren. Das erste Modell verwendet eine naive Bayes-Schätzung bei gegebenem PET, und das zweite Modell verwendet einen Satz kleiner PETs als Schätzer, indem die Unabhängigkeit zwischen diesen Bäumen angenommen wird. Empirische Studien zu diskreten und unscharfen Labels zeigen, dass das erste Modell das PET-Modell in geringer Tiefe übertrifft und das zweite Modell dem naiven Bayes- und PET-Modell entspricht.;-;-;-;https://link.springer.com/article/10.1007/s11704-013-3007-4 ca7cf6c24969446f82f93574086b74f4;de;;;3.2.;;;RePC: Eine Lokalisierungsmethode basierend auf regionaler Aufteilung und Kooperation in Kommunikationsnetzwerken Die Lokalisierung entwickelt sich zu einer lebenswichtigen Funktionalität verschiedener drahtloser Anwendungen. Existierende Lokalisierungsverfahren unterteilen im Allgemeinen unregelmäßige Bereiche mit großen Hindernissen in regelmäßige und verlassen sich auf mindestens drei Ankerknoten, um unbekannte Knoten in jedem Unterbereich zu lokalisieren. Wenn keine ausreichende Anzahl von Ankerknoten vorhanden ist und heterogene Knoten in einem bestimmten Unterbereich existieren, kann die entsprechende Lokalisierungsgenauigkeit stark verringert werden. In diesem Papier schlagen wir eine neue Lokalisierungsmethode RePC vor, die aus einer regionalen Partition mit geringer Komplexität und einer Kooperation von Subregionen für eine genaue Lokalisierung besteht. Obwohl die regionale Aufteilung ein allgemeiner Ansatz ist, unterscheidet sich unsere vorgeschlagene Aufteilungsmethode von den bestehenden, indem sie eine geringe Komplexität von . erreicht;-;-;-;https://link.springer.com/article/10.1007/s11277-016-3748-0 b3a9595286178002a518e0782104fc23;de;;;7.4.;;;Einsatz von maschinellen Lerntechniken zur Bewertung der Volatilität von Anforderungsänderungen Mangelnde Planung beim Ändern von Anforderungen, um die Erwartungen der Stakeholder widerzuspiegeln, kann zu propagierten Änderungen führen, die zu Projektfehlern führen können. Vorhandene Tools können nicht die formale Begründung liefern, die erforderlich ist, um Anforderungsänderungen zu verwalten und die unvorhergesehene Änderungsverbreitung zu minimieren. Diese Forschung untersucht Techniken des maschinellen Lernens, um die Volatilität von Anforderungsänderungen (RCV) mithilfe komplexer Netzwerkmetriken vorherzusagen, basierend auf der Prämisse, dass Anforderungsnetzwerke verwendet werden können, um die Verbreitung von Änderungen zu untersuchen. Drei Forschungsfragen (RQs) werden behandelt: (1) Kann RCV durch vier Klassen gemessen werden, nämlich Multiplikator, Absorber, Transmitter und Robust, während jeder Änderung? (2) Können komplexe Netzwerkmetriken für jede Anforderung bei jeder Änderung untersucht und berechnet werden? (3) Können maschinelle Lerntechniken, insbesondere Multilabel-Learning (MLL)-Methoden eingesetzt werden, um RCV unter Verwendung komplexer Netzwerkmetriken vorherzusagen? RCV in diesem Papier quantifiziert die Volatilität für die Änderungspropagation, dh wie sich Anforderungen als Reaktion auf die anfängliche Änderung verhalten. Ein Multiplikator ist eine Anforderung, die durch eine anfängliche Änderung geändert wird und die Änderung auf andere Anforderungen überträgt. Ein Absorber ist eine Anforderung, die durch eine anfängliche Änderung geändert wird, aber keine Änderung auf andere Anforderungen überträgt. Ein Sender ist eine Anforderung, die durch eine anfängliche Änderung nicht geändert wird, aber die Änderung auf andere Anforderungen ausbreitet. Eine robuste Anforderung ist eine Anforderung, die durch eine anfängliche Änderung nicht geändert wird und die Änderung nicht auf andere Anforderungen überträgt. RCV wird unter Verwendung von Industriedaten und Anforderungsnetzwerkbeziehungen bestimmt, die aus dem zuvor entwickelten Tool Refined Automated Requirement Change Propagation Prediction (R-ARCPP) stammen. Nützliche komplexe Netzwerkmetriken in leistungsstärksten Modellen für maschinelles Lernen werden zusammen mit den Einschränkungen und zukünftigen Richtungen dieser Forschung diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s00163-020-00353-6 0fa7c0a5b74bdfef818f703de8e117c3;de;;;7.4.;;;Graphbasierte Ortserkennung in Bildsequenzen mit CNN-Funktionen Die visuelle Ortserkennung ist ein kritisches und herausforderndes Problem sowohl in der Robotik- als auch in der Computer-Vision-Community. In diesem Artikel konzentrieren wir uns auf die Ortserkennung für visuelle Simultaneous Localization and Mapping (vSLAM)-Systeme. Diese Systeme waren lange Zeit auf handgefertigte merkmalsbasierte Paradigmen beschränkt, die normalerweise lokale visuelle Informationen von Bildern verwenden und nicht ausreichend robust gegenüber auf Bilder angewendeten Variationen sind. In dieser Arbeit befassen wir uns mit der Ortserkennung mit den automatisch aus Daten gelernten Merkmalen. Zunächst schlagen wir eine graphenbasierte visuelle Ortserkennungsmethode vor. Der Graph wird konstruiert, indem die visuellen Merkmale, die aus Convolutional Neural Networks (CNNs) extrahiert wurden, und den zeitlichen Informationen der Bilder in einer Sequenz kombiniert werden. Zweitens schlagen wir vor, einen Diffusionsprozess zu verwenden, um die Datenassoziation im Graphen zu verbessern, um genauere Erkennungsergebnisse zu erzielen. Um die vorgeschlagene Methode schließlich zu evaluieren, experimentieren wir mit vier häufig verwendeten Datensätzen. Experimentelle Ergebnisse zeigen, dass die vorgeschlagene Methode in der Lage ist, eine signifikant bessere Leistung zu erzielen (z. B. 95,37 % Rückruf bei 100 % Genauigkeit) als die von FAB-MAP (47,16 % Rückruf bei 100 % Genauigkeit), einer häufig verwendeten Methode zur Ortserkennung auf handgefertigte Funktionen, insbesondere auf einige anspruchsvolle Datensätze.;-;-;-;https://link.springer.com/article/10.1007/s10846-018-0917-2 443696af373fdc9748de16dfa2675fe3;de;;;7.4.;;;Effiziente Vorhersage von Ereignissen mit geringer Sichtbarkeit an Flughäfen mithilfe von Machine-Learning-Regression Wir adressieren die Vorhersage von Ereignissen mit geringer Sichtbarkeit an Flughäfen mit Hilfe von Machine-Learning-Regression. Das vorgeschlagene Modell prognostiziert erfolgreich Ereignisse mit geringer Sichtbarkeit in Bezug auf die Sichtweite der Landebahn am Flughafen unter Verwendung von Support-Vektor-Regression, neuronalen Netzen (mehrschichtige Perzeptrone und extrem lernende Maschinen) und Gauß-Prozessalgorithmen. Wir bewerten die Leistung dieser Algorithmen basierend auf realen Daten, die am Flughafen Valladolid, Spanien, gesammelt wurden. Wir schlagen auch eine Untersuchung der atmosphärischen Variablen vor, die an einem nahegelegenen Turm gemessen werden, die auf atmosphärische Bedingungen mit geringer Sichtbarkeit zurückzuführen sind, da sie als Eingaben der verschiedenen Regressoren betrachtet werden. Ein Vorverarbeitungsverfahren dieser Eingangsvariablen mit Wavelet-Transformationen wird ebenfalls beschrieben. Die Ergebnisse zeigen, dass die vorgeschlagenen maschinellen Lernalgorithmen in der Lage sind, Ereignisse mit geringer Sichtbarkeit gut vorherzusagen. Der Gauss-Prozess ist der beste Algorithmus unter den analysierten und erreicht über 98% der korrekten Klassifizierungsrate bei Ereignissen mit geringer Sicht, wenn die Sichtweite der Landebahn;-;-;-;https://link.springer.com/article/10.1007/s10546-017-0276-8 c10f1201e34c0b039ee87dcb53a06c1e;de;;;7.4.;;;Machine-Learning-Anwendungen in Lieferketten: Langes Kurzzeitgedächtnis für die Bedarfsprognose Aufgrund des rasanten technologischen Fortschritts hat Machine Learning bzw. die Fähigkeit einer Maschine zum automatischen Lernen in verschiedenen Bereichen Anwendung gefunden. Es hat sich aufgrund seiner Fähigkeit, zu lernen und interessante Muster in den Daten zu finden, als wertvolles Werkzeug zur Unterstützung von Entscheidungsträgern und zur Verbesserung der Produktivität von Unternehmensprozessen erwiesen. Dadurch ist es möglich, Supply-Chain-Prozesse durch den Einsatz von Machine Learning zu verbessern, das im Allgemeinen bessere Prognosen generiert als die traditionellen Ansätze.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-97719-5_19 21ef46c1bb27fe15f1940239a9fb018c;de;;;7.4.;;;Über maschinelles Lernen zur automatischen Klassifizierung von Softwareanwendungen in Domänenkategorien Software-Repositorys enthalten Anwendungen, die häufig kategorisiert werden, um die Effektivität verschiedener Wartungsaufgaben zu verbessern. Richtig kategorisierte Anwendungen ermöglichen es Stakeholdern, Anforderungen in Bezug auf ihre Anwendungen zu identifizieren und Wartungsprobleme in Softwareprojekten vorherzusagen. Manuelle Kategorisierung ist teuer, mühsam und mühsam – deshalb gewinnen automatische Kategorisierungsansätze zunehmend an Bedeutung. Leider ist der Quellcode der Anwendungen aus unterschiedlichen rechtlichen und organisatorischen Gründen oft nicht verfügbar, was eine automatische Kategorisierung dieser Anwendungen erschwert. In diesem Papier schlagen wir einen neuartigen Ansatz vor, bei dem wir Application Programming Interface (API)-Aufrufe von Drittanbieterbibliotheken zur automatischen Kategorisierung von Softwareanwendungen verwenden, die diese API-Aufrufe verwenden. Unser Ansatz ist allgemein, da er die Anwendung verschiedener Kategorisierungsalgorithmen auf Repositorys ermöglicht, die sowohl Quellcode als auch Bytecode von Anwendungen enthalten, da API-Aufrufe sowohl aus dem Quellcode als auch aus dem Bytecode extrahiert werden können. Wir vergleichen unseren Ansatz mit einem State-of-the-Art-Ansatz, der maschinelle Lernalgorithmen zur Software-Kategorisierung verwendet, und führen Experimente an zwei großen Java-Repositorys durch: einem Open-Source-Repository mit 3.286 Projekten und einem Closed-Source-Repository mit 745 Anwendungen, wo der Quellcode nicht verfügbar war. Unser Beitrag ist ein zweifacher: Wir schlagen einen neuen Ansatz vor, der es ermöglicht, Softwareprojekte ohne Quellcode mit wenigen API-Aufrufen als Attributen zu kategorisieren, und haben darüber hinaus eine umfassende empirische Evaluierung von automatischen Kategorisierungsansätzen durchgeführt.;-;-;-;https://link.springer.com/article/10.1007/s10664-012-9230-z 96c40d308776505235b52ce2742f88e1;de;;;7.4.;;;Automatische Erkennung handgeschriebener arabischer Zeichen: eine umfassende Überprüfung Das Papier ist ein umfassender Überblick über die aktuellen Forschungstrends im Bereich der arabischen Sprache, insbesondere über State-of-the-Art-Ansätze, um den aktuellen Stand verschiedener Forschungsaspekte dieses Bereichs hervorzuheben, um die Anpassung und Erweiterung bisheriger Systeme in neue Anwendungen zu erleichtern und Systeme. Die arabische Sprache hat trotz der enormen Anstrengungen und Forschungen, die zuvor unternommen wurden, einen tiefen, weit verbreiteten und unerforschten Forschungsbereich. Entsprechend der hohen Geschwindigkeit der Hardware- und Technologieentwicklung sind moderne State-of-the-Art-Methoden und fehlerfreie Ansätze erforderlich. Der Schwerpunkt dieses Artikels liegt auf der Offline-Erkennung handschriftlicher Texte in Arabisch, da sie eines der wichtigsten Themen im arabischen Bereich ist. Das Hauptziel dieses Papiers ist die kritische Analyse der aktuellen Forschungen, um die Problembereiche und Herausforderungen zu identifizieren, mit denen die bisherigen Forscher konfrontiert waren. Diese Identifizierung soll viele Empfehlungen für zukünftige Fortschritte in diesem Bereich geben. Es vergleicht und kontrastiert auch technische Herausforderungen, Methoden und die Leistungen der handschriftlichen Texterkennung früherer Forschungsarbeiten. Es fasst die kritischen Probleme zusammen und zählt Punkte auf, die bei der Bewältigung dieser Aufgaben berücksichtigt werden sollten. Es zeigt auch einige der arabischen Datensätze, die als Eingaben und Benchmarks für Training, Tests und Vergleiche verwendet werden können. Schließlich bietet es einen grundlegenden Vergleich und eine Diskussion einiger der verbleibenden offenen Probleme und Trends in diesem Bereich.;-;-;-;https://link.springer.com/article/10.1007/s00521-020-05137-6 b83c3da64492d4b122f517eb6561ce53;de;;;7.4.;;;Wissensgraphen und -basen Wir sehen physische und informationelle Netzwerke, Verbindungen, Beziehungen und Verbindungen um uns herum wachsen. Dieses Kapitel betrachtet die universelle Graphenstruktur im Kern dieser Entwicklungen. Beziehungen zwischen Knoten, die sich von denen hierarchischer oder subsumtiver Natur unterscheiden, bieten noch unterschiedliche strukturelle Verbindungen über den Wissensgraphen hinweg. Neben der Graphentheorie greift das Feld auf Methoden wie statistische Mechanik aus der Physik, Data Mining und Informationsvisualisierung aus der Informatik, Inferenzmodellierung aus der Statistik und Sozialstruktur aus der Soziologie zurück. Graphentheorie und Netzwerkwissenschaft sind die geeigneten Disziplinen für eine Vielzahl von Informationsstrukturen und viele weitere Problemklassen. Sobald wir Graphen als hervorragende Möglichkeit zur Darstellung von Logik- und Datenstrukturen verstanden haben, besteht der nächste Schritt darin, ihre Anwendbarkeit auch auf Wissensrepräsentationen und Wissensbasen auszudehnen. Wir sehen die Nützlichkeit der Graphentheorie für die Linguistik an den verschiedenen Wissensbasen wie WordNet (in mehreren Sprachen) und VerbNet. Domänenontologien betonen konzeptionelle Beziehungen gegenüber lexikographischen für eine gegebene Wissensdomäne. Diese Konstrukte semantischer Webstandards, kombiniert mit einem richtig konstruierten Wissensgraphen und der Verwendung von synonymen und verwandten Vokabularen in Semsets, bieten wirksame Mechanismen zum Abfragen einer Wissensdatenbank. Darüber hinaus können Ontologien auch die Leitstrukturen für effizientes maschinelles Lernen und künstliche Intelligenz sein, wenn wir einen Wissensgraphen ausreichend mit genauen Instanzdaten, oft aus verschiedenen Wissensbasen, füllen. Wir möchten, dass Wissensquellen, vermeintlich Wissensdatenbanken, die tatsächlichen Instanzdaten dazu beitragen, unsere Ontologie-Graphenstrukturen zu füllen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98092-8_11 03d9e31a8d4cbee411c9c25243241db1;de;;;7.4.;;;Klassifizierung der Art der Zerstörung von gehärtetem Stahl mithilfe eines neuronalen Deep-Learning-Netzwerks Es wird das Problem der bildlichen Einordnung der Bruchfläche von Stahlproben nach der Bruchart (spröde, viskos oder gemischt) und dem Anteil der viskosen Komponente im Bruch betrachtet. Die Möglichkeiten künstlicher neuronaler Netze und des tiefen maschinellen Lernens werden in der Problematik der Vorhersage der physikalisch-mechanischen Eigenschaften von gehärteten Stählen während des Bruchs basierend auf neuronalen Netzwerkanalysen von Bruchflächenbildern untersucht. Es wird eine Beschreibung der aufgebauten Datenbank von markierten digitalen Mikrofraktogrammen der Bruchfläche von metallischen Funktionsmaterialien nach spezieller thermomechanischer Verarbeitung gegeben, die beim Tiefentraining neuronaler Netze verwendet werden. Es wird gezeigt, dass die recht populären tiefen neuronalen Netze VGG und ResNet mit zufriedenstellender Genauigkeit das Problem der Mikrofraktogrammklassifizierung verschiedener Stähle nach der Bruchart und dem Anteil der viskosen Komponente am Bruch lösen. Die Ergebnisse der Verarbeitung der Ausgangsinformationen durch ein tiefes neuronales Netzwerk werden präsentiert und ein Vergleich der erhaltenen Ergebnisse mit experimentellen Daten wird präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37737-3_44 f9b3ddddb80285e6aeee209219e45954;de;;;7.4.;;;Bewegungssteuerung und Bewegungskoordination von bionischen Roboterfischen: Ein Rückblick Die herausragende Bewegungs- und Koordinationsleistung von Fish macht es zu einer hervorragenden Inspirationsquelle für Wissenschaftler und Ingenieure, die im Rahmen der Bionik autonome Unterwasserfahrzeuge der nächsten Generation entwickeln und steuern möchten. Dieses Papier bietet einen allgemeinen Überblick über den aktuellen Status bionischer Roboterfische, mit besonderem Schwerpunkt auf hydrodynamischer Modellierung und Prüfung, kinematischer Modellierung und Steuerung, Lernen und Optimierung sowie Bewegungskoordinationssteuerung. Unter diesen Aspekten werden repräsentative Studien diskutiert, die auf Ideen und Konzepten basieren, die von der Bewegung und Koordination von Fischen inspiriert sind. Abschließend werden die großen Herausforderungen und zukünftigen Forschungsrichtungen im Kontext der Integration verschiedener Forschungsströme aus der ichthyologischen, hydrodynamischen, mechanischen, elektronischen, steuerungstechnischen und künstlichen Intelligenz adressiert. Die Weiterentwicklung bionischer Roboterfische kann genutzt werden, um einige spezifische Missionen in komplexen Unterwasserumgebungen durchzuführen, in denen der Betrieb für Taucher oder konventionelle Unterwasserfahrzeuge unsicher oder unpraktisch ist.;-;-;-;https://link.springer.com/article/10.1007/s42235-018-0048-2 2d5c0d0bcafa9f5131c8cab12070235b;de;;;7.4.;;;Automatische Container-Code-Erkennung mit MultiDeep Pipeline Die Identifizierung von Kennzeichen auf intermodalen Containern (oder Containern) beim Betreten und Verlassen des Hofes bietet eine Vielzahl von praktischen Vorteilen, wie zum Beispiel das automatische Öffnen der Hebearmschranke bei der Ein- und Ausfahrt zum und vom Standort. Darüber hinaus kann eine automatische Containercode-Erkennung auch dazu beitragen, das Einfahren nicht autorisierter Fahrzeuge in das Gebiet zu verhindern. Bei der jüngsten Entwicklung der KI erfolgt dieser Prozess vorzugsweise automatisch. Die schlechte Qualität der Bilder von Überwachungskameras könnte sich jedoch nachteilig auf KI-Modelle auswirken. Um dieses Problem zu lösen, präsentieren wir eine als MultiDeep bezeichnete Pipeline, die mehrere hochmoderne Deep-Learning-Modelle für Zeichenerkennung und Computer-Vision-Prozesse kombiniert, um Probleme mit realen Kameradaten zu lösen. Wir haben unsere Ergebnisse auch mit anderen Pipeline-Modellen auf realen Daten verglichen und ziemlich positive Ergebnisse erzielt. In diesem Papier werden wir ohne weitere Verweise nur intermodale Container betrachten, wenn wir sie als Container bezeichnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63119-2_12 3ae9ef10b31ab78189279edf312040c1;de;;;7.4.;;;Zahlendichtedeskriptor für Fingerabdrücke mit erweiterter Konnektivität in Kombination mit maschinellen Lernansätzen zur Vorhersage von Polymereigenschaften Wir haben einen neuen Polymer-Deskriptor entwickelt, der auf Extended Connectivity Fingerprints basiert. Es wurden die Zahldichten verwendet, das sind die Teilstrukturzahlen geteilt durch die Zahl der Atome in einem Polymermodell. Wir fanden heraus, dass dieser Ansatz bei der genauen Vorhersage der Eigenschaften von linearen Polymeren im Vergleich zum herkömmlichen Ansatz, bei dem nur die Substrukturnummern als Deskriptoren verwendet werden, überlegen ist. Darüber hinaus wurde festgestellt, dass eine Dimensionsreduktion und eine mehrfache Replikation von Wiederholungseinheiten die Vorhersagegenauigkeit verbessern. Als Ergebnis wurde festgestellt, dass der neue Deskriptor basierend auf Extended Connectivity Fingerprints mit Machine-Learning-Ansätzen eine genaue Vorhersage der Brechungsindizes von linearen Polymeren ermöglicht, die mit der ab-initio-Dichtefunktionaltheorie vergleichbar ist. Obwohl prozessabhängige Eigenschaften wie mechanische Eigenschaften schwer vorherzusagen waren, erwies sich der vorliegende Ansatz als anwendbar auf die Vorhersage von strukturabhängigen Eigenschaften, beispielsweise optische Eigenschaften, thermische Stabilität.;-;-;-;https://link.springer.com/article/10.1557/adv.2018.454 4d6e1ba9f52088a4445ec8ad380cd244;de;;;7.4.;;;Marktbasiertes hierarchisches Ressourcenmanagement mit maschinellem Lernen Dienstanbieter suchen ständig nach Möglichkeiten, die Kosten für die Verwaltung der von ihnen bereitgestellten Dienste zu reduzieren. Mit der zunehmenden Verteilung und Virtualisierung von Ressourcen in der Netzwerkinfrastruktur der nächsten Generation werden neue Ansätze für das Ressourcenmanagement für eine effektive Servicebereitstellung gesucht. In diesem Papier schlagen wir einen marktbasierten hierarchischen Ressourcenverwaltungsmechanismus mit maschinellem Lernen vor, der aus einer Verhandlungsphase besteht, in der Kunden die von ihren aktivierten Serviceinstanzen benötigten Ressourcen zugewiesen werden, und einer Lernphase, in der Serviceanbieter die Preise ihrer Ressourcen anpassen um die Netzinfrastruktur auf das gewünschte Ziel der Umsatzsteigerung zu lenken und gleichzeitig den von ihren Kunden gewünschten Service-Mix zu liefern. Wir stellen die Funktionsweise eines solchen Marktes vor, auf dem verteilte und virtualisierte Ressourcen als Waren zwischen autonomen Ressourcenbrokern gehandelt werden, die im Auftrag von Dienstanbietern die Verhandlung und das Lernen durchführen. Wir führen umfangreiche Simulationen durch, um die Leistung des vorgeschlagenen hierarchischen Ressourcenmanagementmechanismus zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75694-1_3 e0b7bd6d79c25f8c0d10a972a6567982;de;;;7.4.;;;Eine Umfrage zu merkmalsgewichteten K-Means-Algorithmen In einem realen Datensatz besteht immer die unserer Meinung nach recht hohe Möglichkeit, dass verschiedene Merkmale unterschiedliche Relevanz haben. Die meisten Algorithmen des maschinellen Lernens gehen mit dieser Tatsache um, indem sie Features in der Datenvorverarbeitungsphase entweder auswählen oder abwählen. Wir behaupten jedoch, dass es auch zwischen relevanten Merkmalen unterschiedliche Relevanzgrade geben kann, und dies sollte während des Clustering-Prozesses berücksichtigt werden.;-;-;-;https://link.springer.com/article/10.1007/s00357-016-9208-4 77eb99d987efdc6d7bf9f40a466a92f8;de;;;7.4.;;;Effiziente lokal-lineare Einbettung unvollkommener Verteiler Man In diesem Artikel untersuchen wir die Fähigkeiten einer kürzlich vorgeschlagenen Methode zur nichtlinearen Dimensionsreduktion und Visualisierung namens Locally Linear Embedding (LLE). LLE wird als Alternative zu den traditionellen Ansätzen vorgeschlagen. Seine Fähigkeit, mit großen Größen hochdimensionaler Daten umzugehen, und die nicht-iterative Möglichkeit, die Einbettungen zu finden, machen es für mehrere Forscher immer attraktiver. Alle Studien, die diesen Ansatz untersuchten und experimentierten, kamen zu dem Schluss, dass LLE ein robuster und effizienter Algorithmus ist, wenn die Daten auf einer glatten und gut abgetasteten einzelnen Mannigfaltigkeit liegen. Keiner untersuchte das Verhalten des Algorithmus, wenn die Daten Rauschen (oder Ausreißer) enthalten. Hier zeigen wir theoretisch und empirisch, dass LLE signifikant empfindlich auf das Vorhandensein einiger Ausreißer reagiert. Dann schlagen wir eine robuste Erweiterung vor, um dieses Problem anzugehen. Weiterhin untersuchen wir das Verhalten des LLE-Algorithmus bei disjunkten Mannigfaltigkeiten, zeigen das Fehlen eines einzigen globalen Koordinatensystems und diskutieren einige Alternativen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45065-3_17 b8bc4ede5f79c509e2d5da3ca5cf87ca;de;;;7.4.;;;Verwendung von maschinellem Lernen mit PySpark und MLib zur Lösung eines binären Klassifikationsproblems: Fall der Suche nach exotischen Partikeln Die Suche nach exotischen Teilchen in hoher Energie stellt Physiker vor eine große Herausforderung. In diesem Beitrag schlagen wir vor, das binäre Klassifizierungsproblem im Bereich exotischer Partikel mithilfe der Apache Spark-Umgebung mit der Mlib-Bibliothek zu lösen. Dann vergleichen wir die Leistung von vier Methoden: Logistic Regression (LR), Decision Tree (DT), Random Forest (RF) und Gradient Boosted Tree (GBT). In dieser Arbeit verwenden wir den „SUSY“-Datensatz, der aus dem UCI-Repository für maschinelles Lernen gesammelt wurde, für die Experimentierphase.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-53929-0_8 ca093c6229bf8b6ef0ab6253de77998a;de;;;7.4.;;;Unterschätzungsbias und Underfitting beim maschinellen Lernen Was beim maschinellen Lernen als algorithmischer Bias bezeichnet wird, ist oft auf einen historischen Bias in den Trainingsdaten zurückzuführen. Aber manchmal kann die Verzerrung durch den Algorithmus selbst eingeführt (oder zumindest verschlimmert) werden. Die Art und Weise, wie Algorithmen Verzerrungen tatsächlich hervorheben können, hat bei Forschern, die sich direkt auf Methoden zur Beseitigung von Verzerrungen konzentrieren, nicht viel Aufmerksamkeit erhalten – unabhängig von der Quelle. In diesem Papier berichten wir über erste Forschungsarbeiten, um die Faktoren zu verstehen, die zu Verzerrungen in Klassifikationsalgorithmen beitragen. Wir halten dies für wichtig, da Unterschätzungsbias untrennbar mit Regularisierung verbunden ist, d. h. Maßnahmen gegen Overfitting können Bias verstärken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-73959-1_2 46c2f85f10838ccee61b4d1f732494cf;de;;;7.4.;;;Vorhersage von Tod und Morbidität bei perforiertem peptischem Ulkus Magengeschwüre sind definiert als Defekte der Magen-Darm-Schleimhaut, die sich durch die Muscularis mucosae erstrecken. Obwohl Perforationen nicht die häufigste Komplikation sind, gelten sie als die Komplikation mit der höchsten Sterblichkeitsrate. Um die Sterblichkeitswahrscheinlichkeit vorherzusagen, wurden mehrere Bewertungssysteme basierend auf klinischen und biochemischen Parametern entwickelt, wie beispielsweise das Boey- und das PULP-Bewertungssystem. In diesem Artikel wird mithilfe von Data Mining in den verfügbaren medizinischen Daten untersucht, wie die Bewertungssysteme bei der Vorhersage der Sterblichkeit und der Komplikation des Patientenzustands funktionieren. Wir versuchen auch aus den beiden vorgestellten Bewertungssystemen zu schließen, welches die beschriebenen Situationen besser vorhersagt. In Bezug auf die Ergebnisse kamen wir zu dem Schluss, dass das PULP-Scoring eine bessere Vorhersage der Mortalität ermöglicht und in diesem Fall eine Genauigkeit von über 90% erreicht. Die Ergebnisse können jedoch aufgrund des Mangels an verstorbenen Patienten im verwendeten Datensatz nicht eindeutig sein. In Bezug auf die Komplikationen kamen wir zu dem Schluss, dass das Boey-System andererseits bessere Ergebnisse erzielt, die zu einer besseren Vorhersage bei der Vorhersage der Komplikation des Patienten führen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-11890-7_54 dd7923c55df27de3c722ce82d80dd3e7;de;;;7.4.;;;Machine-Learning-Methoden zur Analyse des Nutzerverhaltens beim Zugriff auf Textdaten bei Informationssicherheitsproblemen Es wird ein neues Verfahren zum Erfassen des Benutzerzugriffs auf irrelevante Dokumente basierend auf der Schätzung der Dokumenttextmitgliedschaft in typischen Themenbereichen des analysierten Benutzers vorgeschlagen. Die typischen Sachgebiete werden unter Verwendung einer Sachgebietsmodellierung gebildet, die über eine orthonormale nichtnegative Matrixfaktorisierung implementiert wird. Eine experimentelle Studie mit realer Unternehmenskorrespondenz, die aus einem Enron-Datensatz gebildet wurde, zeigt die hohe Klassifikationsgenauigkeit der vorgeschlagenen Methode im Vergleich zu herkömmlichen Ansätzen.;-;-;-;https://link.springer.com/article/10.3103/S0278641916040051 5cd480e8874102acd401018a5dbcf61d;de;;;7.4.;;;Blockkoordinatenabstieg mit Zeitstörung für nichtkonvexe, nicht glatte Probleme in realen Studien Die Ära von Big Data im Gesundheitswesen ist angebrochen, und diese Ära wird die Medizin und insbesondere die Onkologie erheblich verbessern. Allerdings müssen traditionelle maschinelle Lernalgorithmen gefördert werden, um solch groß angelegte Probleme der realen Welt zu lösen, da eine große Datenmenge analysiert werden muss und Probleme mit nichtkonvexen nichtlinearen Einstellungen schwer zu lösen sind. Unser Ziel ist es, die Zusammensetzung einer glatten nichtlinearen Funktion und einer blockseparierbaren nichtkonvexen Funktion für eine große Anzahl von Blockvariablen mit Ungleichungsbeschränkungen zu minimieren. Wir schlagen eine neuartige parallele Optimierungsmethode erster Ordnung vor, genannt asynchroner Blockkoordinatenabstieg mit Zeitstörung (ATP), die eine Zeitstörungstechnik anwendet, die Sattelpunkten und suboptimalen lokalen Punkten entkommt. Die Details der vorgeschlagenen Methode werden mit Analysen der Konvergenz- und Iterationskomplexitätseigenschaften präsentiert. Experimente, die an realen Problemen des maschinellen Lernens durchgeführt wurden, bestätigen die Wirksamkeit unserer vorgeschlagenen Methode. Die experimentellen Ergebnisse zeigen, dass die Zeitstörung es ATP ermöglicht, aus Sattelpunkten und suboptimalen Punkten zu entkommen, was einen vielversprechenden Weg bietet, nichtkonvexe Optimierungsprobleme mit Ungleichheitsbeschränkungen unter Verwendung eines asynchronen Blockkoordinatenabstiegs zu behandeln. Die asynchrone parallele Implementierung auf Multi-Core-Plattformen mit gemeinsam genutztem Speicher zeigt, dass der vorgeschlagene Algorithmus ATP eine starke Skalierbarkeit aufweist.;-;-;-;https://link.springer.com/article/10.1631/FITEE.1900341 f7c340c170545a421595ae7e6fc1b6bf;de;;;7.4.;;;Fehlererkennung von Smart Grid-Geräten durch maschinelles Lernen und Datenanalyse Die hohen Vibrations-, Temperatur- und Druckprobleme verursachen den Ausfall der rotierenden elektrischen Geräte. Die Ausfälle werden beträchtlich, wenn diese Geräte in der Industrie und im Smart Grid eingesetzt werden. Die häufigsten Ausfälle sind auf hohe Vibrationen zurückzuführen und können manchmal zu einer vollständigen Abschaltung des Systems führen. Das Zustandsüberwachungssystem muss zuverlässig sein und die zukünftigen Fehlerzustände der elektrischen Ausrüstung erkennen. Das Condition Monitoring (CM)-System ist zuverlässig und prädiktiv, wenn maschinelles Lernen und Datenanalyse implementiert werden. Es gibt verschiedene Techniken des maschinellen Lernens, die helfen, den Fehler mithilfe der historischen Daten der Ausrüstung und der Datenanalyse in kürzester Zeit zu erkennen. Es hilft auch, den dauerhaften Ausfall der elektrischen rotierenden Ausrüstung zu vermeiden. Daher konzentriert sich dieses Papier auf die Gesundheitsüberwachung und die Schätzung der verbleibenden Nutzungsdauer (RUL) der an das Netz angeschlossenen elektrischen Geräte unter Verwendung der Hauptkomponentenanalyse (PCA). PCA ist eine unbeaufsichtigte maschinelle Lerntechnik, die in diesem Papier für die Fallstudie von Hochgeschwindigkeits-Windturbinenlagern vorgeschlagen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7675-1_4 479dadce95167165d6df894f49124135;de;;;7.4.;;;Auf künstlicher Intelligenz basierendes Tennismatch-Technik- und Taktik-Bewertungssystem Das technische und taktische Bewertungssystem von Tennisspielen hat einen wichtigen Referenzwert zur Verbesserung der Wettkampffähigkeit von Tennisspielern. Mit der kontinuierlichen Weiterentwicklung von Wissenschaft und Technologie wird die Technologie der künstlichen Intelligenz immer ausgereifter. Dieser Artikel untersucht die Verwendung von Methoden der künstlichen Intelligenz zur Diagnose und Bewertung von Tennisspielen durch den Einsatz von Literaturrecherchemethoden, Software-Engineering-Forschungsmethoden und mathematischen Modellierungsforschungsmethoden, um das technische und taktische Niveau von Tennisspielern wissenschaftlich zu bewerten, wissenschaftliche technologische Unterstützung für Trainer und Sportler, um das Training vernünftig zu gestalten und den Einsatz von Spielfertigkeiten und -taktiken effektiv zu regulieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-79200-8_82 41952366c82af12700b7855efac521ab;de;;;7.4.;;;Komprimierende Klassifizierung: Wo drahtlose Kommunikation auf maschinelles Lernen trifft Dieses Kapitel stellt Shannon-inspirierte Leistungsgrenzen vor, die mit der Klassifizierung von niedrigdimensionalen Unterräumen, die in einen hochdimensionalen Umgebungsraum eingebettet sind, aus Kompressions- und Rauschmessungen verbunden sind. Es stellt insbesondere die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-16042-9_15 434c7b26b484a869ee270d8dd409a80e;de;;;7.4.;;;Beurteilung psychischer Patienten mit Hilfe der Videoanalyse von Gesichtsausdrücken Ziel dieser Arbeit ist es, den Schweregrad der Symptome anhand des Sozialverhaltens und der kognitiven Leistungsfähigkeit psychisch Kranker in einem Routinegespräch mit dem behandelnden Arzt zu beziffern. Die Untersuchung der Mimik des Patienten kann ein wichtiger Indikator für die Quantisierung kognitiver Beeinträchtigungen in Bezug auf den Empfang externer Emotionsausdrücke sein. Jüngste Fortschritte im Bereich Computer Vision Machine und Deep Learning ermöglichen die Bewertung und Erkennung des zeitlichen emotionalen Status durch Mimik. In diesem Zusammenhang untersucht der Beitrag die Anwendung dieser Techniken zur automatisierten Erkennung von Indikatoren der Positive and Negative Syndrome Scale (PANSS) durch Extrahieren von Merkmalen aus dem Gesichtsausdruck von Patienten während Videotelefonkonferenzen. Der Artikel diskutiert die technischen Details der Implementierungen einer Videoklassifikationsmethodik zur Vorhersage des Schweregrads von Schizophrenie-Symptomen, stellt einen neuartigen Ansatz für die Interpretation von Videoklassifikationsergebnissen vor und präsentiert erste Ergebnisse, in denen gezeigt wird, dass die vorgeschlagenen automatisierten Techniken klassifizieren können in eine gewisse Ausdehnung spezifischer PANSS-Indikatoren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-79157-5_16 f4f27180493476b0bca40b441ceee952;de;;;7.4.;;;Hypergraph Regularized Autoencoder für 3D Human Pose Recovery Die bildbasierte Wiederherstellung der menschlichen Pose wird normalerweise durchgeführt, indem relevante Posen mit Bildmerkmalen abgerufen werden. Bei aktuellen Feature-Extraktoren besteht jedoch eine semantische Lücke, die die Wiederherstellungsleistung einschränkt. In diesem Papier schlagen wir einen neuartigen Feature-Extraktor mit Deep Learning vor. Es basiert auf dem Rauschunterdrückungs-Autoencoder und verbessert traditionelle Methoden, indem es die lokalitätserhaltende Beschränkung übernimmt. Um diese Einschränkung aufzuerlegen, führen wir eine Mannigfaltigkeits-Regularisierung mit Hypergraph-Laplace-Operator ein. Die Hypergraph-Laplace-Matrix wird mit einem Patch-Alignment-Framework konstruiert. Auf diese Weise wird eine automatische Merkmalsextraktion für Silhouetten erreicht. Experimentelle Ergebnisse an zwei Datensätzen zeigen, dass der Wiederherstellungsfehler um 10 bis 20 % reduziert wurde, was die Wirksamkeit der vorgeschlagenen Methode demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-48558-3_7 6af518fcb296fd6a05879210e62767d3;de;;;7.4.;;;Ein Überblick über Ansätze zur inhaltsbasierten medizinischen Bildgewinnung Die medizinische Bildgebung spielt im medizinischen Bereich eine wichtige Rolle, da sie wichtige Informationen über die inneren Körperteile für die klinische Analyse und medizinische Intervention liefert, die es Ärzten ermöglicht, eine Vielzahl von Krankheiten zu diagnostizieren und zu behandeln. Heutzutage nimmt die medizinische Diagnose sehr schnell zu, was zur Bildung einer riesigen medizinischen Bilddatenbank führt, und das Abrufen ähnlicher medizinischer Bilder aus einer so riesigen Datenbank ist eine sehr schwierige Aufgabe. Eine Literaturübersicht verschiedener Methoden zur biomedizinischen Bildindexierung und -wiederherstellung wird hier vorgestellt. Über 140 Beiträge aus der Literatur sind in dieser Umfrage enthalten. Und es konzentriert sich hauptsächlich auf die Methodik, die auf der visuellen Darstellung der medizinischen Bilder basiert, da inhaltsbasierte medizinische Bildabrufansätze (CBMIR) ähnliche medizinische Bilder effizienter abrufen als textbasierte biomedizinische Bildabrufansätze. Es beschreibt auch, wie verschiedene Ideen aus verschiedenen Informatikmethoden zur Entwicklung von CBMIR-Systemen übernommen wurden.;-;-;-;https://link.springer.com/article/10.1007/s13735-017-0135-x f11f65d6353db83889fda487c79afa49;de;;;7.4.;;;Zahnärztliche Altersschätzung: Eine Perspektive des maschinellen Lernens Die Schätzung des Zahnalters ist wichtig, um das tatsächliche Alter einer Person zu bestimmen. Um die Genauigkeit der Zahnaltersschätzung zu verbessern, stellen wir in diesem Artikel mehrere maschinelle Lernalgorithmen vor. Wir wenden die Demirjian-Methode, die Willem-Methode und unsere Methoden auf einen Datensatz mit 1636 Fällen, 787 Männern und 849 Frauen an. Der Multi-Layer-Perceptron-Algorithmus wird in unseren Experimenten verwendet, um das Zahnalter vorherzusagen. Um eine Überanpassung zu vermeiden, verwenden wir beim Trainieren des Modells die Leave-one-out-Kreuzvalidierung. In der Zwischenzeit verwenden wir den mittleren quadratischen Fehler, den mittleren quadratischen Fehler und den mittleren absoluten Fehler, um den Fehler der Ergebnisse zu messen. Durch Experimente bestätigen wir, dass dieser Algorithmus genauer ist als herkömmliche zahnärztliche Methoden. Darüber hinaus versuchen wir, eine neue Reihe von Funktionen zu verwenden, die durch traditionelle zahnärztliche Methoden umgesetzt werden. Insbesondere stellen wir fest, dass die Verwendung der nach der Demirjian-Methode konvertierten Daten für Männer und die Verwendung der nach der Willem-Methode konvertierten Daten für Frauen die Genauigkeit der Zahnaltersvorhersagen verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-14118-9_71 ee7c974af12c696e19ce9db1a1f32dc5;de;;;7.4.;;;Eine tiefe Musikdarstellung, um sie alle zu beherrschen? Eine vergleichende Analyse verschiedener Repräsentationslernstrategien Inspiriert durch den Erfolg des Einsatzes von Deep Learning in den Bereichen Computer Vision und Natural Language Processing hat dieses Lernparadigma auch seinen Weg in den Bereich Music Information Retrieval gefunden. Um effektiv, aber auch effizient von Deep Learning zu profitieren, hat sich Deep Transfer Learning zu einem gängigen Ansatz entwickelt. Bei diesem Ansatz ist es möglich, die Ausgabe eines vortrainierten neuronalen Netzes als Grundlage für eine neue Lernaufgabe wiederzuverwenden. Die zugrunde liegende Hypothese ist, dass, wenn die anfänglichen und neuen Lernaufgaben Gemeinsamkeiten aufweisen und auf den gleichen Typ von Eingabedaten (z. Da jedoch die meisten Netzwerke, die zur Generierung tiefer Repräsentationen verwendet werden, unter Verwendung einer einzigen anfänglichen Lernquelle trainiert werden, ist ihre Repräsentation wahrscheinlich nicht für alle möglichen zukünftigen Aufgaben informativ. In diesem Beitrag präsentieren wir die Ergebnisse unserer Untersuchung der wichtigsten Faktoren, um tiefe Repräsentationen für die Daten- und Lernaufgaben im Musikbereich zu generieren. Wir haben diese Untersuchung über eine umfangreiche empirische Studie durchgeführt, die mehrere Lernquellen sowie mehrere Deep-Learning-Architekturen mit unterschiedlichem Informationsaustausch zwischen den Quellen umfasst, um Musikdarstellungen zu lernen. Anschließend validieren wir diese Darstellungen unter Berücksichtigung mehrerer Zieldatensätze zur Auswertung. Die Ergebnisse unserer Experimente liefern mehrere Einblicke in die Herangehensweise an den Entwurf von Methoden zum Erlernen weit verbreiteter tiefer Datendarstellungen im Musikbereich.;-;-;-;https://link.springer.com/article/10.1007/s00521-019-04076-1 102e93d215c10a2e805143fbe76811f8;de;;;7.4.;;;Ein vorläufiger Ansatz für das Multilabel-Klassifikationsproblem portugiesischer juristischer Dokumente Portugiesische Rechtsdokumente von Obersten Gerichten und der Generalstaatsanwaltschaft werden von Rechtsexperten manuell in eine Reihe von Klassen eingeteilt, die einer Taxonomie von Konzepten angehören.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24580-3_50 807e5bffa6fbe7fdf7a96b261e6832bc;de;;;7.4.;;;Optimieren der Routing-Leistung in P2P-Netzwerken durch maschinelles Lernen Peer-to-Peer (P2P)-Netzwerke verwenden blinde Routing-Strategien, da keine Vorkenntnisse über die Anwesenheit der Knoten in der Nähe vorliegen. Aufgrund dieser Blind- oder Adhoc-Routing-Natur von P2P-Netzwerken wird das Generieren und Verwalten von Routing-Tabellen im Allgemeinen für jedes Quell-Ziel-Paar durchgeführt, das Daten miteinander kommuniziert. Aufgrund dieser Tatsache verwenden eine Reihe von Routing-Algorithmen Beacon-basiertes Routing, bei dem der Sender eine Routing-Anfrage sendet, während die benachbarten Knoten mit einer Bestätigung und anderen knotenspezifischen Parametern antworten, so dass Entfernungs- und andere Berechnungen für eine effektive Routing-Prozess. In diesem Papier schlagen wir ein auf maschinellem Lernen basierendes P2P-Routing-Protokoll (MLPR) vor, das bioinspirierte Berechnungen zur Routenbewertung verwendet. Das vorgeschlagene Protokoll wird mit den Standard-P2P-Routing-Techniken wie Viceroy, Tapestry und Kademlia verglichen, um die Überlegenheit der Dienstgüte (QoS) zu bewerten, und es zeigt, dass der vorgeschlagene Algorithmus in Bezug auf Ende-zu-Ende fast 10 % überlegen ist Verzögerung, Energieverbrauch und Paketzustellungsverhältnis als diese oben genannten Techniken.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0111-1_20 bc4f165b3d0a07dec65c40968207de96;de;;;7.4.;;;Auf dem Weg zum Cloud-Computing im Gesundheitswesen In diesem Beitrag präsentieren wir den Aufbau einer Softwareplattform zur Unterstützung medizinischer Forschungsteams im Bereich der Impedanzkardiographie, genannt IPMed. Auf der Plattform werden Forschungsaufgaben von den Teams durch computergestütztes kooperatives Arbeiten erledigt. Die Plattform ermöglicht die sichere Speicherung medizinischer Daten, den Zugriff auf die Daten für Forschungsgruppenmitglieder, die kooperative Analyse medizinischer Daten und bietet analyseunterstützende Tools auf Basis intelligenter Information-Retrieval-Techniken (semantischer Textvergleich, Diagramme, Bilder, Videoabgleich). Zusätzlich zur Plattform wird eine dedizierte Webanwendung für medizinische Teams erstellt, die sich auf den Bereich Hämodynamik konzentrieren. Die gewonnenen Daten ermöglichen es den Forschern, neue Klassifikationsschemata für hämodynamische Profile zu entwickeln, die für den Bau einer prototypischen Anwendung zur Unterstützung von Schlaganfallbehandlungszentren verwendet werden. In dem Papier vergleichen wir IPMed mit anderen bestehenden Plattformen, die ähnliche Funktionen bieten, und beschreiben ein Konzept seiner Migration zu einem Cloud-basierten System.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-28564-1_8 64e900a13639fcf638358a91190a8194;de;;;7.4.;;;Social Media Bias unter Verwendung von Zentralitätsmaßnahmen und maschinellem Lernen „Media Bias“ oder speziell „Social Media Bias“ ist eines der Hauptanliegen von Social Media. Die beliebtesten Social-Networking-Sites sind in den letzten Jahren Facebook und Twitter. Mit dem Aufkommen der sozialen Medien hat es vor allem auf diesen Websites ein deutliches Aufkommen von Social Media Bias gegeben. Um Bias in sozialen Medien zu messen, werden das Betweenness- und das Closeness-Zentralitätsmaß berechnet. Mehr die Zwischenzentralität, schneller verbreiten sich die Nachrichten im Netz, ist eine allgemeine Schlussfolgerung. In diesem Beitrag bewerten wir die Social-Media-Bias von Facebook und Twitter mit Hilfe von Zentralitätsmaßen und Machine-Learning-Algorithmen, um herauszufinden, welcher Algorithmus stärker politisch voreingenommen ist und um vorherzusagen, welcher Algorithmus am besten verwendet werden kann, um Nachrichten als voreingenommen oder unvoreingenommen zu klassifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8221-9_227 2e5d13fd1278b5eff7cf3af2642c0573;de;;;7.4.;;;Die versteckten Informationen in von Patienten berichteten Ergebnissen und von Ärzten bewerteten Ergebnissen: Multiple Sklerose als Proof of Concept eines maschinellen Lernansatzes Maschinelles Lernen (ML), das auf patientenberichtete (PROs) und klinisch bewertete Ergebnisse (CAOs) angewendet wird, könnte eine prädiktivere und personalisierte Medizin begünstigen. Unser Ziel war es, die wichtige Rolle der Anwendung von ML auf PROs und CAOs von Menschen mit schubförmig-remittierender (RR) und sekundär progredienter (SP) Form der Multiplen Sklerose (MS) zu bestätigen, um umgehend Informationen zu identifizieren, die für die Vorhersage des Krankheitsverlaufs nützlich sind. Für unsere Analyse wurde ein Datensatz von 3398 Bewertungen von 810 Personen mit MS (PwMS) verwendet. Drei Schritte waren vorgesehen: Kursklassifizierung, Extraktion der relevantesten Prädiktoren zum nächsten Zeitpunkt, Vorhersage, ob der Patient zum nächsten Zeitpunkt den Übergang von RR zu SP erleben wird. Der Schritt Current Course Assignment (CCA) hat den aktuellen MS-Kurs mit einer Genauigkeit von etwa 86,0 % korrekt zugewiesen. Der MS-Verlauf zum nächsten Zeitpunkt kann mit den in CCA ausgewählten Prädiktoren vorhergesagt werden. PROs/CAOs Evolution Prediction (PEP) gefolgt von Future Course Assignment (FCA) konnte den Kurs zum nächsten Zeitpunkt mit einer Genauigkeit von 82,6% vorhersagen. Unsere Ergebnisse legen nahe, dass PROs und CAOs den Klinikern bei der Entscheidungsfindung in ihrer Praxis helfen könnten.;-;-;-;https://link.springer.com/article/10.1007/s10072-019-04093-x 29b83eac054d70aefeae4912cbf5e72b;de;;;7.4.;;;Maschinelles Lernen: Neuronale Netzwerkmodelle von Seefahrzeugwegen In diesem Papier schlagen die Autoren praktische Techniken und maschinelle Lernalgorithmen vor, um ein intelligentes Autopilot-Lenksteuerungssystem zu entwickeln. Das System besteht aus einem Modul mit den neuronalen Netzmodellen der Bewegungsmuster von Seefahrzeugen, einem Modul mit einem neuronalen Netzklassifizierer und einem Modul, das einen Optimierer enthält, der den besten Fuzzy-Reglerbetrieb berechnet. Das Papier präsentiert die Ergebnisse der Überprüfung neuronaler Netzwerkpfade für sechs Arten von Seeschiffen. Es betont, dass es notwendig ist, ein originelles neuronales Netzmodell für verschiedene maritime Navigationsbedingungen zu entwickeln. Daher benötigt man einen neuronalen Netzklassifizierer, der ein optimales neuronales Netzmodell der Bewegungsmuster eines Seeschiffs unter bestimmten Navigationsbedingungen auf Wasserstraßen auswählen kann. Die Autoren ermitteln die neuronalen Netzmodelle der Bewegungsmuster von Seeschiffen unter Verwendung eines zertifizierten IC-2005-Signalsimulators für einen Autopiloten. Die Forscher wenden maschinelle Lernalgorithmen an, um Parameter neuronaler Netzmodelle zu generieren und Schiffsbewegungsmuster zu klassifizieren. Die Autoren führen auch eine Computersimulation von Seeschiffen mit unterschiedlicher Geschwindigkeit und unter verschiedenen Navigationsbedingungen durch, um zu testen, ob der beschriebene Klassifikator für neuronale Netze einfach zu verwenden ist. Der Artikel behandelt die Entsprechung des mittleren Quadratwurzelfehlers des Lernens mit den Navigationsbedingungen für verschiedene Seeschiffe, einschließlich eines Trawlers mit langsamer Reaktion.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71119-1_78 d7d9d772840400e4cacffc8113a55028;de;;;7.4.;;;Vorhersage und Klassifizierung von Herzrhythmusstörungen mithilfe eines maschinellen Lernansatzes Arrhythmie ist ein sehr häufiges Herzproblem, das weltweit häufig auftritt. Um Arrhythmien im Frühstadium zu diagnostizieren, untersucht dieses Papier neun verschiedene Ansätze des maschinellen Lernens – logistische Regression, latente Dirichlet-Zuordnung, quadratische Diskriminanzanalyse, k-nächste Nachbarn, Support-Vektor-Klassifizierer, Support-Vektor-Maschine, Entscheidungsbaum und Extreme Gradient Boosting (XGBoost). und schlägt ein Modell vor, um die Wahrscheinlichkeit eines Patienten, einen Arrhythmiezustand zu bekommen, vorherzusagen. Arrhythmien können anhand von Daten aus dem Elektrokardiogramm (EKG) des Patienten vorhergesagt und klassifiziert werden. Die Algorithmen klassifizieren die erfassten Daten in eine von 5 Klassen kardiovaskulärer Arrhythmien, wobei der UCI-Arrhythmie-Datensatz für Training und Tests berücksichtigt wird. Die Ergebnisse werden untersucht und verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8221-9_53 096b192214d1071430e9c914e98b927a;de;;;7.4.;;;Patentanalyse zur Unterstützung der Vorhersage von Fusionen und Übernahmen (M&A): Ein Data-Mining-Ansatz M&A spielt im modernen Geschäftsumfeld eine immer wichtigere Rolle. Unternehmen führen M&A in der Regel durch, um Komplementarität mit anderen Unternehmen zu erzielen, um ihre Wettbewerbsvorteile zu erhalten und/oder auszubauen. Ein entscheidender erster Schritt für den Erfolg von M&A-Aktivitäten ist für das jeweilige Bieterunternehmen die geeignete Auswahl der Zielunternehmen. Bestehende Studien zur M&A-Prognose weisen jedoch einige Einschränkungen auf, wie beispielsweise den Ausschluss technologischer Variablen in M&A-Prognosemodellen und das Weglassen des Profils des jeweiligen Bieterunternehmens und dessen Kompatibilität mit in Frage kommenden Zielunternehmen. Als Reaktion auf diese Einschränkungen schlagen wir eine M&A-Vorhersagetechnik vor, die nicht nur aus der Patentanalyse abgeleitete technologische Variablen als Vorhersageindikatoren umfasst, sondern beim Aufbau eines M&A-Vorhersagemodells auch die Profile von Bietern und Kandidaten-Zielunternehmen berücksichtigt. Wir sammeln eine Reihe von realen M&A-Fällen, um die vorgeschlagene Technik zu bewerten. Die Evaluationsergebnisse sind ermutigend und werden als Grundlage für zukünftige Studien dienen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01256-3_16 452ca2f3bf027e0125281a3232d87817;de;;;7.4.;;;Vertrauliche ML: Maschinelles Lernen mit verschlüsselten Daten Wir zeigen, dass es durch die Verwendung eines kürzlich vorgeschlagenen abgestuften homomorphen Verschlüsselungsschemas möglich ist, die Ausführung eines maschinellen Lernalgorithmus an einen Computerdienst zu delegieren und gleichzeitig die Vertraulichkeit der Trainings- und Testdaten zu wahren. Da die Rechenkomplexität des homomorphen Verschlüsselungsschemas hauptsächlich von der Anzahl der Multiplikationsstufen abhängt, die an den verschlüsselten Daten durchgeführt werden sollen, definieren wir eine neue Klasse von Algorithmen des maschinellen Lernens, bei denen die Vorhersagen des Algorithmus, betrachtet als Funktionen der Eingabedaten können als Polynome beschränkten Grades ausgedrückt werden. Wir schlagen vertrauliche Algorithmen für die binäre Klassifikation vor, die auf polynomialen Approximationen an Kleinste-Quadrate-Lösungen basieren, die durch eine kleine Anzahl von Gradientenabstiegsschritten erhalten werden. Wir präsentieren die experimentelle Validierung der vertraulichen Machine-Learning-Pipeline und diskutieren die Kompromisse in Bezug auf Rechenkomplexität, Vorhersagegenauigkeit und kryptografische Sicherheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37682-5_1 e39bf0d989bb1aa7a05337bea803be1e;de;;;7.4.;;;Klassifikation von ADHS-Patienten auf Basis unabhängiger ERP-Komponenten mittels eines maschinellen Lernsystems Im Kontext sensorischer und kognitiver Verarbeitungsdefizite bei ADHS-Patienten gibt es erhebliche Hinweise auf veränderte ereignisbezogene Potenziale (ERP). Die meisten Studien wurden jedoch an ADHS-Kindern durchgeführt. Mit der Methode der unabhängigen Komponentenanalyse (ICA) können ERPs in funktional unterschiedliche Komponenten zerlegt werden. Mit der Klassifikationsmethode der Support Vector Machine wurde in dieser Studie untersucht, ob Merkmale unabhängiger ERP-Komponenten zur Unterscheidung von ADHS-Erwachsenen von Gesunden genutzt werden können.;-;-;-;https://link.springer.com/article/10.1186/1753-4631-4-S1-S1 bf45e2c8e0829a3ef9e19471e16de702;de;;;7.4.;;;Data Mining und neuronale Netze zur Ermittlung der Finanzmarktprognose Die Vorhersage von Börsenbewegungen ist seit Jahren eine komplexe Aufgabe, da sie das zunehmende Interesse von weltweit präsenten Forschern und Investoren gewinnt. Diese haben versucht, den Weg zu gehen, um die Höhe der Rendite zu kennen und so das Risiko zu reduzieren, dem sie bei Investitionen ausgesetzt sind [;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2612-1_35 77c8be0c97f696ff9ce62b523f21cf9c;de;;;7.4.;;;Ein verbesserter Ansatz zum Extrahieren von Merkmalen und Klassifizieren von motorischen Bild-EEG-Signalen durch maschinelles Lernen Die Gehirn-Computer-Schnittstelle ermöglicht die Interaktion zwischen dem menschlichen Gehirn und einer Maschine. BCI ist vor allem für behinderte Menschen hilfreich, um ihren alltäglichen Aktivitäten selbstständig nachzugehen. Das Gehirn kann über EEG (nicht-invasive Methode) von der Hirnrinde des Benutzers mit der Maschine kommunizieren. Dieses Papier konzentriert sich auf die Steuerung der Hand- und Fußbewegungen basierend auf den Gedanken des Menschen. Die EEG-Aufzeichnungen stammen aus Datensätzen des BCI-Wettbewerbs III. Die Signalmerkmale des Elektroenzephalogramms (EEG) werden unter Verwendung eines gemeinsamen räumlichen Musters in Kombination mit einer spektralen Leistungsdichte und einer Hilbert-Transformation extrahiert. Die Klassifizierung von Signalen basierend auf der Bewegung der rechten Hand und des rechten Fußes erfolgt durch das Verfahren der linearen Diskriminanzanalyse (LDA). Diese vorgeschlagene Methode wird an fünf gesunden Probanden getestet und die durchschnittliche Genauigkeit wird auf 85,76 % verbessert. Zukünftig wird die klassifizierte Ausgabe in Befehlssignale umgewandelt und kann die Robotergeräte wie Arm oder Rollstuhl steuern, die den Menschen mit motorischen Einschränkungen helfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8221-9_70 a2754b759029f1c37e14550d92b322dc;de;;;7.4.;;;Multi-Task-Kennzahlenlernen für Netzwerkdaten on Es hat sich gezeigt, dass Multitask-Learning (MTL) die Vorhersageleistung in einer Reihe verschiedener Kontexte verbessert, indem Modelle gemeinsam für mehrere verschiedene, aber verwandte Aufgaben gelernt werden. In diesem Papier schlagen wir vor, MTL mit allgemeinen Netzwerkdaten durchzuführen, die einen wichtigen Kontext für MTL bieten. Wir zeigen zunächst, dass MTL für Netzwerkdaten ein häufiges Problem ist, das viele konkrete und wertvolle Anwendungen hat. Dann schlagen wir einen metrischen Lernansatz vor, der die Korrelation über mehrere Aufgaben und Netzwerke hinweg effektiv ausnutzen kann. Der vorgeschlagene Ansatz baut auf strukturellem metrischem Lernen und Zwischenparametrisierung auf und hat eine effiziente Implementierung über stochastischen Gradientenabstieg. In Experimenten stellen wir dies mit zwei gängigen Anwendungen aus der Praxis heraus: Zitationsvorhersage für Wikipedia-Artikel und Vorhersage sozialer Kreise in Google+. Die vorgeschlagene Methode erzielt vielversprechende Ergebnisse und zeigt ein gutes Konvergenzverhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-18038-0_25 224b3db9ec4f766d2623c01349fa294c;de;;;7.4.;;;Data Mining in sozialen Netzwerken In diesem Beitrag schlagen wir ein neuartiges Datenmodell für Multimedia Social Networks vor, d. h. spezielle Social Media-Netzwerke, die Informationen über Benutzer, die einer oder mehreren sozialen Gemeinschaften angehören, mit den Inhalten kombinieren, die in den entsprechenden Umgebungen generiert und verwendet werden. Das vorgeschlagene Modell beruht auf der Hypergraph-Datenstruktur, um auf einfache Weise all die verschiedenen Arten von Beziehungen zu erfassen und darzustellen, die typisch für soziale Mediennetzwerke sind, insbesondere zwischen Benutzern und Multimediainhalten. Wir führen auch einige Benutzer- und Multimedia-Ranking-Funktionen ein, um verschiedene Anwendungen zu ermöglichen. Schließlich werden einige Experimente zur Wirksamkeit des Ansatzes zur Unterstützung relevanter Informationsbeschaffungsaktivitäten berichtet und diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-92231-7_6 ed23dff4a6564d5e6aeac52be37c01d6;de;;;7.4.;;;Skalierbarkeitsprobleme bei der induktiven Logikprogrammierung Die induktive logische Programmierung beschäftigt sich mit einem schwierigen Problem: dem Lernen in Darstellungen erster Ordnung. Die klassische Lernaufgabe des ILP, die induktive Aneignung prädiktiver Theorien erster Ordnung aus Beispielen, ist unbeschränkt formuliert unentscheidbar, auch die eingeschränkteren praktischen Aufgaben sind bekanntlich nicht polynomiell PAC-lernbar. Die Idee, ILP-Techniken für Knowledge Discovery in Databases (KDD) oder Data Mining einzusetzen, wo sehr große Datensätze analysiert werden müssen, erscheint daher auf den ersten Blick unmöglich. Eine Reihe von Fortschritten in jüngster Zeit hat es ILP jedoch ermöglicht, bedeutende Fortschritte auf dem Weg zur Skalierbarkeit zu machen. In diesem Beitrag geben wir einen anschaulichen Überblick über die grundlegenden Aspekte der Skalierbarkeit in ILP und beschreiben dann die jüngsten Fortschritte in Theorie, Algorithmen und Systemimplementierungen. Wir geben Beispiele aus implementierten Algorithmen und stellen M . kurz vor;-;-;-;https://link.springer.com/chapter/10.1007/3-540-49730-7_2 a94959c95a31a1704e3aa6850f4daa3e;de;;;7.4.;;;Ein neuer heuristischer Algorithmus zur Merkmalsauswahl basierend auf groben Mengen In diesem Beitrag wird ein heuristischer Algorithmus zur Reduktionsberechnung für die Featureauswahl im Data Mining vorgeschlagen, der darauf abzielt, die Anzahl irrelevanter und redundanter Features zu reduzieren. Dieser Algorithmus basiert auf der modifizierten Abhängigkeitsgradformel. Der Vorteil dieses Algorithmus besteht darin, dass er in den meisten Fällen mit weniger Zeitaufwand die optimale Reduktionsmenge für die Merkmalsauswahl finden kann. Um die Gültigkeit und Allgemeingültigkeit dieses Algorithmus zu testen, werden experimentelle Ergebnisse mit 7 Datensätzen aus dem UCI Machine Learning Repository angegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14831-6_20 79866606fe7827b4bf126e0d63a3365b;de;;;7.4.;;;Autoregressive modellbasierte strukturelle Schadenserkennung und -lokalisierung mit Hilfe von Convolutional Neural Networks Herkömmliche autoregressive (AR) modellbasierte Schadensidentifikationsverfahren konstruieren strukturschadensempfindliche Merkmale durch Versuch und Irrtum, die zeitaufwändig und mühsam sind und zu einem schlechten Erkennungseffekt führen können. Diese Studie wendet konvolutionelle neuronale Netze (CNNs) an, um schnell und automatisch hochdimensionale Merkmale von autoregressiven Modellkoeffizienten (ARMCs) zu extrahieren. In dieser Forschung wurde ein AR-Modell verwendet, um die Beschleunigungszeitreihen anzupassen. Die mit dem Schadensort markierten Eingabematrizen wurden von ARMCs erzeugt und dann wurden diese Matrizen zum Training an das vorgeschlagene CNN gesendet. Das trainierte CNN wurde zur Schadenserkennung und -lokalisierung eingesetzt. Die Wirksamkeit des vorgeschlagenen Verfahrens wurde durch die Schadenserkennung und -lokalisierung einer dreistöckigen Rahmenkonstruktion nachgewiesen. Die Leistung des vorgeschlagenen CNN wurde mit Multilayer Perception (MLP), Random Forest und Support Vector Machine (SVM) verglichen. In der Zwischenzeit wurden auch die Vorhersageergebnisse verschiedener Probentypen diskutiert. Darüber hinaus wird eine Parameterstudie in Bezug auf die Anzahl der verwendeten Beschleunigungsmesser und ARMCs durchgeführt. Diese Analysen zeigen, dass die Genauigkeit der CNN-Testergebnisse 100 %, 6,67 %, 20 % und 25 % höher ist als die von MLP, Random Forest bzw. SVM. Darüber hinaus weisen andere in diesem Papier berechnete Metriken (z. B. Präzision, Erinnerung) auf eine gute Leistung des vorgeschlagenen CNN hin. Die Kombination von AR und CNN zeigt eine hervorragende Leistung bei der Schadenserkennung und -lokalisierung, die in der Lage zu sein scheint, externen Erregungsänderungen zu widerstehen und die Schäden an mehreren Stellen und kleinere Schäden unter Verwendung von begrenzten Beschleunigungsmessern und ARMCs genau zu identifizieren.;-;-;-;https://link.springer.com/article/10.1007/s12205-020-2256-7 451d719d9c81877917822d252e8da526;de;;;7.4.;;;Fahrerzustandsüberwachung: Eine Fallstudie zu Big Data Analytics Ablenkung, Unaufmerksamkeit, Schläfrigkeit, Stress etc. des Fahrers werden als ursächliche Faktoren für Fahrzeugunfälle und Unfälle identifiziert. Heute wissen wir, dass physiologische Signale ein bequemes und zuverlässiges Maß für die Beeinträchtigungen des Fahrers sind. Heterogene Sensoren erzeugen eine riesige Menge an Signalen, die in einem Big-Data-Szenario verarbeitet und analysiert werden müssen. Hier schlagen wir einen Big-Data-Analytics-Ansatz für die Überwachung des Fahrerzustands vor, der heterogene Daten verwendet, die aus mehreren Quellen stammen, d. h. physiologische Signale zusammen mit Fahrzeugdaten und Kontextinformationen. Diese Daten werden verarbeitet und analysiert, um behinderte Fahrzeugführer zu informieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-51234-1_24 c7d64a4fd0696cc8026243403d2a44b7;de;;;7.4.;;;Künstliche Intelligenz als neues IT-Mittel zur Aufklärung und Aufklärung von Straftaten : Ziel dieser Forschung ist es, den Begriff der rechtlichen, forensischen und IT-Funktionsweise von künstlicher Intelligenz in aktuellen kriminalpolizeilichen Ermittlungsmethoden zu unterscheiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-59126-7_138 28d5109237dfb1bb4fd9699321a2aa94;de;;;7.4.;;;Eine empirische Studie zu tiefen neuronalen Netzen zur Gliomerkennung aus MRT-Sequenzen Gliome sind die häufigsten Tumoren des zentralen Nervensystems. Sie machen 1,3 % der Krebserkrankungen aus und sind die 15. häufigste Krebsart bei Männern und Frauen. Für die Diagnose einer solchen Pathologie verwenden Ärzte häufig Magnetresonanztomographie (MRT) mit verschiedenen Sequenzen. In dieser Arbeit schlagen wir einen globalen Rahmen vor, der konvolutionelle neuronale Netze verwendet, um ein intelligentes Assistenzsystem für Neurologen zur Diagnose von Hirngliomen zu schaffen. In diesem Rahmen untersuchen wir die Leistung verschiedener neuronaler Netze auf vier MRT-Modalitäten. Diese Arbeit ermöglicht es uns, die spezifischsten MRT-Sequenzen hervorzuheben, so dass das Vorhandensein von Gliomen im Hirngewebe klassifiziert werden kann. Wir analysieren auch visuell extrahierte Merkmale aus den verschiedenen Modalitäten und Netzwerken mit dem Ziel, die Interpretierbarkeit und Analyse der erhaltenen Leistung zu verbessern. Wir wenden unsere Studie auf die MRT-Sequenzen an, die aus BraTS-Datensätzen gewonnen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63830-6_10 aebf5025bdc278dbdab4c48385224215;de;;;7.4.;;;Eine schnelle und effektive Methode, um Korrelationen zwischen Attributen in Datenbanken zu finden Das Problem, sinnvolle Muster in einer Datenbank zu identifizieren, ist das Herzstück des Data Mining. Ein Kernziel von Data-Mining-Prozessen ist das Erkennen von Korrelationen zwischen Attributen. Für Vorhersagen und Klassifikationen sind nicht nur Korrelationen notwendig – da Regeln ohne Muster versagen würden –, sondern auch die Identifizierung von Gruppen von miteinander korrelierten Attributen beschleunigt die Auswahl einer repräsentativen Teilmenge von Attributen, aus der bestehende Mappings andere ableiten lassen. In diesem Papier beschreiben wir einen skalierbaren, effektiven Algorithmus, um Gruppen korrelierter Attribute zu identifizieren. Dieser Algorithmus kann nichtlineare Korrelationen zwischen Attributen handhaben und ist nicht auf eine bestimmte Familie von Abbildungsfunktionen, wie beispielsweise den Satz von Polynomen, beschränkt. Wir zeigen die Ergebnisse unserer Bewertung des Algorithmus, der auf synthetische und reale Datensätze angewendet wird, und zeigen, dass er in der Lage ist, die korrelierten Attribute zu erkennen. Darüber hinaus ist die Ausführungszeit der vorgeschlagenen Technik linear zur Anzahl der Elemente und der Korrelationen im Datensatz.;-;-;-;https://link.springer.com/article/10.1007/s10618-006-0056-4 758445bbcdf1bbfc04ef2bfdc6ce7d07;de;;;7.4.;;;Gangvorhersage mit unüberwachtem maschinellem Lernen zur Unterstützung der Fahrerprofilerkennung und -korrektur Die meisten Autofahrer beschweren sich heutzutage darüber, dass sie nicht die von den Herstellern versprochene Kraftstoffeffizienz erreichen. Die meisten von ihnen erkennen jedoch nie, dass die Kraftstoffeffizienz durch eine Korrektur ihres Fahrstils verbessert werden kann. Autofahrer erkennen möglicherweise nicht, in welchem ​​Bereich sie im Rückstand sind. In solchen Fällen hilft ein Tool oder eine Anwendung, die das Fahrverhalten des Fahrers überwachen und wertvolle Hinweise zu seinem Fahrstil geben kann, beim Kraftstoffsparen. Viele Versicherungsunternehmen in den USA legen die Versicherungsprämie fest, indem sie das Fahrverhalten des Fahrers analysieren. Mit Hilfe von unüberwachtem maschinellem Lernen schätzt dieses Papier den aktuellen Gang durch Überwachung der Parameter Motordrehzahl, Fahrzeuggeschwindigkeit und Motorlast durch Onboard-Diagnose (OBD II) [;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8221-9_133 02f997a65f63c873409d9e8be47aad16;de;;;7.4.;;;Studie zum Automatisierungsgrad von High-Tech Smart Factory: Taiwan 12” Semiconductor Factory Fallstudie Die Globalisierung von Taiwans Unternehmensbranchen ist auf zwei kritischen Ebenen dem Wettbewerb und Bedrohungen ausgesetzt. Taiwans Fabriken könnten Industrie 4.0 nutzen, um ihre Wettbewerbsfähigkeit zu steigern. Diese Auflistung der taiwanesischen Halbleiterfertigungsfabrik Hsinchu A, B führt eine Analyse der industriellen Reife von Automatisierungsgeräten durch. Diese Studie zeigt, dass die vorhandene Anlagenautomatisierung in Fabrik A bei 1,20 liegt, das Ideal bei 2,74 liegt, der Durchschnitt bei 1,65 liegt und der künstliche Anteil bei 80% liegt, was viel höher ist als der Branchendurchschnitt von 42%. Der tatsächliche Wert der Anlagenautomatisierung in Fabrik B beträgt 2,96, idealerweise 2,76. Der Standard ist 1,67, vollautomatisch, macht 100 % aus, viel höher als der Branchendurchschnitt von 15 %. Die Automatisierung des Gerätebewertungsprojekts zeigt den Durchschnittswert der führenden Industrie-Selbstbewertung. Obwohl der Betrieb dieser Ausrüstung relativ reibungslos verlief, müssen wir schließlich die zukünftigen Trends der Branche beachten und umgehend verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-69717-4_49 8345a6f4e1ed37412719107ec974447c;de;;;7.4.;;;Erkennung epileptischer Anfälle von EEG-Signalen mit Wavelet-basierter Merkmalsextraktion und maschinellen Lernalgorithmen Epilepsie ist eine häufige chronische Nervenerkrankung, von der weltweit 50 Millionen Menschen betroffen sind. Epileptische Anfälle sind das Ergebnis des flüchtigen und überraschenden elektrischen Phänomens des Gehirns. Das Elektroenzephalogramm (EEG)-Signal ist eine wichtige Informationsquelle bei der Diagnose von Epilepsie, da es elektrische und neuronale Aktivitäten des Gehirns aufzeichnet. Traditionell werden diese grafischen Aufzeichnungssignale (EEG) von Ärzten manuell beobachtet, was zeitaufwendig ist und ein falsches Ergebnis liefert. In diesem Artikel neigen wir dazu, ein brandneues computerbasiertes, meist automatisches Konzept zur Erkennung von Epilepsie-Anfällen vorzuschlagen. Das EEG-Signal von epileptischen und gesunden Patienten wurde mit Hilfe der diskreten Wavelet-Transformation (DWT) in Frequenz-Subbänder unterteilt. Wir haben die Merkmalsextraktion in diesen Frequenz-Subbändern angewendet und 10 Merkmale daraus extrahiert. Die extrahierten Merkmale wurden dann in vier verschiedene Klassifikatoren eingespeist, insbesondere Support Vector Machine (SVM), k-nächster Nachbar (kNN), Naive-Bayes und Decision Tree-Klassifikatoren. Sechs Parameter werden ferner verwendet, um die Leistung dieser Klassifikatoren zu vergleichen. Bei unserer Arbeit wurde eine Genauigkeit von 99,33 % erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8221-9_129 9582897d5136dcb5f06e1435dddd17eb;de;;;7.4.;;;Digitalisierung im Maschinenbau Ein hoher Grad an industrieller Automatisierung sich wiederholender Aufgaben ermöglicht es Unternehmen, Produkte in großem Maßstab effizient zu produzieren. Die Digitalisierung ist der Folgeschritt der industriellen Automatisierung und soll Kosten und Wartezeiten weiter reduzieren. Die Digitalisierung zielt auch darauf ab, individuelle Entscheidungen zu automatisieren. Zentral für beide Ziele ist es, Geschäftsprozesse von der analogen in die digitale Welt zu transformieren und dann digitalisierte Informationen zu analysieren und damit zu nutzen. In diesem Kapitel geben wir einen intuitiven Einstieg in die Digitalisierung im Maschinenbau. Anschließend stellen wir verschiedene Geschäftsmöglichkeiten vor und diskutieren die damit verbundenen Herausforderungen. Als nächstes schlagen wir vor, wie Maschinenbauunternehmen ihre Denkweise auf die digitale Transformation ausrichten müssen. Zuletzt stellen wir einige unserer Arbeiten zur Digitalisierung im Maschinenbau vor und teilen einige Best Practices. Als Ergebnis können Sie die Digitalisierung nutzen, um einen echten Mehrwert in Ihrem Unternehmen zu schaffen. Diese Effizienzsteigerung ermöglicht es Ihnen, in einem immer wettbewerbsfähigeren Umfeld wettbewerbsfähig zu bleiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-41309-5_9 c7a8b3c2b1868bf7b7ec833c43cf0929;de;;;7.4.;;;Erklärbare Künstliche Intelligenz: Was müssen Sie wissen? In Bereichen, die Entscheidungen mit hohem Risiko und hohen Konsequenzen erfordern, wie etwa Verteidigung und Sicherheit, müssen Systeme der künstlichen Intelligenz (KI) ihre Argumentation erklären können. In diesem Papier untersuchen wir, was es bedeutet, erklärbare KI bereitzustellen. Wir berichten über Forschungsergebnisse, um vorzuschlagen, dass Erklärungen in Abhängigkeit von der Rolle des mit dem System interagierenden Menschen und den einzelnen Systemkomponenten auf unterschiedliche Bedürfnisse zugeschnitten werden sollten. Wir zeigen, dass eine „one-size-fits-all“-Erklärung nicht ausreicht, um die Komplexität der Bedürfnisse zu erfassen. Daher erfordert die Entwicklung erklärbarer KI-Systeme eine sorgfältige Berücksichtigung des Kontexts und darin die Natur der menschlichen und der KI-Komponenten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-50353-6_20 0a77e0bbfc4e8d5fe9c5f136be57d1df;de;;;7.4.;;;Anpassen des spektralen Co-Clustering an Dokumente und Begriffe mithilfe der latenten semantischen Analyse Spektrales Co-Clustering ist eine generische Methode zum Berechnen von Co-Clustern von relationalen Daten, wie zum Beispiel Sätzen von Dokumenten und ihren Begriffen. Die latente semantische Analyse ist eine Methode zur Glättung von Dokumenten und Begriffen, die den Prozess der Informationsbeschaffung unterstützen kann. In diesem Artikel untersuchen wir den Prozess hinter dem Spectral Clustering für Dokumente und Begriffe und vergleichen ihn mit der Latent Semantic Analysis. Wir zeigen, dass sowohl spektrales Co-Clustering als auch LSA dem gleichen Prozess folgen, wobei unterschiedliche Normalisierungsschemata und Metriken verwendet werden. Durch die Kombination der Eigenschaften der beiden Co-Clustering-Methoden erhalten wir ein verbessertes Co-Clustering-Verfahren für relationale Dokumenttermdaten, das eine Steigerung der Cluster-Qualität von 33,0% bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10439-8_31 1d2f4373579021fc779c69208570623f;de;;;7.4.;;;Das Problem mit KI Dieser Artikel argumentiert, dass KI am besten in Bezug auf ihr implizites Ziel definiert wird – die Erschaffung denkender Wesen durch andere Mittel als die biologische Reproduktion. Daher kann KI als eine hinterhältige und ausgeklügelte Form der Geburtenkontrolle angesehen werden. Es folgt eine Diskussion der Perspektiven der KI-Forschung unter diesem Gesichtspunkt. Es wird der Schluss gezogen, dass die vollständige Ausrottung der menschlichen Spezies ein besserer Test für den Erfolg der KI wäre als Turings gefeiertes „Imitationsspiel“.;-;-;-;https://link.springer.com/article/10.1007/BF00139626 61dba7b7646e9be161262ff5e12435d7;de;;;7.4.;;;The Operator 4.0: Humane Cyber-Physical Systems & Adaptive Automation in Richtung Mensch-Automation Symbiose Work Systems In diesem Beitrag wird eine Vision für den Operator 4.0 im Kontext menschlicher Cyber-Physical Systems und adaptiver Automatisierung in Richtung Mensch-Automation-Symbiose-Arbeitssysteme für eine sozial nachhaltige Fertigungsbelegschaft vorgestellt. Diskutiert werden Basiskonzepte und Basistechnologien für die Entwicklung von Mensch-Automation-Symbiose-Arbeitssystemen in der Industrie 4.0.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-51133-7_80 c2a527ce986edadbb947e0af4d340d76;de;;;7.4.;;;Feature-angereichertes nichtparametrisches Bayes-Co-Clustering Co-Clustering hat sich zu einer wichtigen Technik für das Mining relationaler Daten entwickelt, insbesondere wenn die Daten spärlich und hochdimensional sind. Co-Clustering gruppiert gleichzeitig die verschiedenen Arten von Objekten, die an einer Beziehung beteiligt sind. Die meisten Co-Clustering-Techniken nutzen typischerweise nur die Einträge der gegebenen Kontingenzmatrix, um das Zwei-Wege-Clustering durchzuführen. Folglich können sie die Interaktionswerte für neue Objekte nicht vorhersagen. In vielen Anwendungen sind jedoch zusätzliche Merkmale verfügbar, die den interessierenden Objekten zugeordnet sind. Das;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30217-6_43 e7c7ef77a8d6d47875d14710766a07d6;de;;;7.4.;;;Ein semantikbasiertes soziales Netzwerk akademischer Forscher Wir schlugen einen Rahmen vor, um ein semantikbasiertes soziales Netzwerk akademischer Forscher zu konstruieren, um verborgene soziale Beziehungen zwischen den Forschern in einem bestimmten Bereich aufzudecken. Die herausfordernde Aufgabe besteht dabei darin, genaue Beziehungen zu erkennen, die zwischen Forschern entsprechend ihrer Expertise und akademischen Erfahrung bestehen. In diesem Artikel erstellen wir zunächst inhaltsbasierte Profile von Forschern, indem wir Online-Ressourcen durchsuchen. Dann Hintergrundwissen abgeleitet aus;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31087-4_34 971e3beb9c1d710c4dd10818992aa653;de;;;7.4.;;;Predictive Graph Mining mit Kernel-Methoden Graphen sind ein wichtiges Werkzeug zur Modellierung von Objekten mit komplexen Datenstrukturen. Die Entwicklung von Lernalgorithmen, die in der Lage sind, mit Graphendarstellungen umzugehen, ist daher ein Kernthema bei der Wissensentdeckung mit komplexen Daten. Während ein beträchtlicher Teil der neueren Forschung der Induktion von Funktionen auf den Ecken des Graphen gewidmet ist, konzentrieren wir uns auf die Aufgabe, eine Funktion auf der Menge von Graphen zu induzieren. Anwendungsgebiete solcher Lernalgorithmen reichen von Computer Vision bis hin zu Biologie und darüber hinaus. Hier präsentieren wir eine Reihe von Ergebnissen zur Erweiterung von Kernelmethoden auf komplexe Daten im Allgemeinen und Graphdarstellungen im Besonderen. Mit der sehr guten Leistung von Kernel-Methoden bei Daten, die leicht in einen euklidischen Raum eingebettet werden können, haben Kernel-Methoden das Potenzial, einige der Hauptschwächen bisheriger Ansätze zum Lernen aus komplexen Daten zu überwinden. Um Kernelmethoden auf Graphdaten anzuwenden, schlagen wir zwei verschiedene Kernelfunktionen vor und vergleichen sie auf einem relationalen Verstärkungslernproblem und einem Molekülklassifikationsproblem.;-;-;-;https://link.springer.com/chapter/10.1007/1-84628-284-5_4 fbda6d24bfc4acb47fa660296f3c36c4;de;;;7.4.;;;Modellieren, Analysieren und Synthetisieren von ausdrucksstarkem Klavierspiel mit grafischen Modellen Geschulte Musiker produzieren intuitiv ausdrucksstarke Variationen, die ihrem Publikum Freude bereiten. Es gibt jedoch nur wenige quantitative Informationen über die Arten von Strategien, die in verschiedenen musikalischen Kontexten verwendet werden. Da die wörtliche Synthese von Noten aus einer Partitur langweilig und unattraktiv ist, besteht die Möglichkeit, Systeme zu erlernen, die automatisch überzeugende ausdrucksstarke Variationen erzeugen können. Das ESP-System (Expressive Synthetic Performance) erzeugt ausdrucksstarke Wiedergaben unter Verwendung von hierarchischen Hidden-Markov-Modellen, die auf den stilistischen Variationen menschlicher Darsteller trainiert wurden. Darüber hinaus geben die vom ESP-System erlernten generativen Modelle Einblick in eine Reihe musikwissenschaftlicher Fragen im Zusammenhang mit expressiver Darbietung.;-;-;-;https://link.springer.com/article/10.1007/s10994-006-8751-3 3d3039ed06f7eefab7c7847610f7484f;de;;;7.4.;;;Neue robuste, unbeaufsichtigte Support-Vektor-Maschinen Dieses Papier schlägt eine robuste Version des unüberwachten Klassifikationsalgorithmus vor, der auf einer modifizierten robusten Version des primären Problems von Standard-SVMs basiert, die es direkt mit Label-Variablen auf eine semi-definite Programmierung lockert. Numerische Ergebnisse bestätigen die Robustheit der vorgeschlagenen Methode.;-;-;-;https://link.springer.com/article/10.1007/s11424-011-8102-8 60df40b82c7ef8f67394783482da5881;de;;;7.4.;;;Erkennen von Marionetten-Microblog-Benutzern für eine verbesserte Glaubwürdigkeit von Informationen In diesem Beitrag schlagen wir vor, eine spezielle Gruppe von Microblog-Benutzern zu erkennen: die „Marionetten“-Benutzer, die von „Puppenspielern“ hinter der Bühne erstellt oder angestellt werden, entweder durch Programme oder manuell. Im Gegensatz zu normalen Benutzern, die zum Informationsaustausch oder zur sozialen Kommunikation auf Mikroblogs zugreifen, führen die Marionettenbenutzer bestimmte Aufgaben aus, um finanzielle Gewinne zu erzielen. Zum Beispiel folgen sie bestimmten Benutzern, um ihre „statistische Popularität“ zu erhöhen, oder retweeten einige Tweets, um ihre „statistischen Auswirkungen“ zu verstärken. Die fabrizierten Follower- oder Retweet-Zählungen führen nicht nur normale Nutzer zu falschen Informationen, sondern beeinträchtigen auch gravierende Microblog-basierte Anwendungen, wie die Auswahl von Hot-Tweets und die Expertensuche. In diesem Artikel untersuchen wir das wichtige Problem der Erkennung von Marionettenbenutzern auf Microblog-Plattformen. Dieses Problem ist eine Herausforderung, da Puppenspieler komplizierte Strategien anwenden, um Marionettenbenutzer zu erzeugen, die ein ähnliches Verhalten wie normale Benutzer zeigen. Um dieser Herausforderung zu begegnen, schlagen wir vor, zwei Arten von diskriminierenden Informationen zu berücksichtigen: 1) das Twitter-Verhalten einzelner Benutzer und 2) die sozialen Interaktionen zwischen den Benutzern. Durch die Integration beider Informationen in ein semi-überwachtes Wahrscheinlichkeitsmodell können wir Marionettenbenutzer effektiv von normalen unterscheiden. Durch die Anwendung des vorgeschlagenen Modells auf eine der beliebtesten Microblog-Plattformen (Sina Weibo) in China stellen wir fest, dass das Modell Marionettenbenutzer mit;-;-;-;https://link.springer.com/article/10.1007/s11390-015-1584-4 d9d532e56f955b8b86e4f1889ad8e5e8;de;;;7.4.;;;SDLER: Stacked Dedupe Learning für die Entitätsauflösung im Big-Data-Zeitalter Im Big Data-Zeitalter steht Entity Resolution (ER) vor vielen Herausforderungen wie hoher Skalierbarkeit, der Koexistenz komplexer Ähnlichkeitsmetriken, Tautonymie und Synonym und der Anforderung der Datenqualitätsbewertung. Darüber hinaus besteht trotz mehr als siebzig Jahren Entwicklungsarbeit immer noch ein hoher Bedarf an einer Demokratisierung von ER, um die menschliche Beteiligung an der Abstimmung von Parametern, der Datenbeschriftung, der Definition von Blockierungsfunktionen und dem Feature-Engineering zu reduzieren. Diese Studie zielte darauf ab, ein neuartiges Stacked Dedupe Learning ER-System mit hoher Genauigkeit und Effizienz zu untersuchen. Die Studie bewertete ausgeklügelte Kompositionsmethoden wie bidirektionale rekurrente neuronale Netze (BiRNNs) und versteckte Einheiten des langen Kurzzeitgedächtnisses (LSTM), um jede Tupel-zu-Wort-Repräsentationsverteilung in einem Sinne zu renovieren, um Ähnlichkeiten zwischen Tupeln zu erfassen. Außerdem wurden vortrainierte Wörter zum Einbetten dort, wo sie nicht verfügbar waren, sowie Möglichkeiten zum Erlernen und Anpassen der Wortdarstellungsverteilung, die für ER-Aufgaben in verschiedenen Szenarien angepasst wurde, in Betracht gezogen. Darüber hinaus wurde der auf Locality Sensitive Hashing (LSH) basierende Blockierungsansatz bewertet, der die gesamten Attribute eines Tupels berücksichtigt und im Vergleich zu herkömmlichen Methoden mit wenigen Attributen kleinere Blöcke erzeugt. Der Algorithmus wurde an mehreren Datensätzen getestet, nämlich Benchmarks und mehrsprachigen Daten. Die experimentellen Ergebnisse zeigten, dass Stacked Dedupe Learning eine hohe Qualität und eine gute Leistung erzielt und im Vergleich zu den bestehenden Lösungen gut skaliert.;-;-;-;https://link.springer.com/article/10.1007/s11227-021-03710-x 7c03d7442ddb41a76ae5da34fd699b71;de;;;7.4.;;;Klassifikation von Herzkrankheiten mit 1D-CNN Das EKG wird verwendet, um den Rhythmus und die elektrische Aktivität im Herzen zu überprüfen. Die Variation des Rhythmus bewirkt eine Veränderung des EKGs. Somit ist es durch deren Analyse möglich, Anomalien des Herzens zu erkennen. In diesem vorgeschlagenen Modell sind die Eingabedaten verarbeitete EKG-Daten, die numerische Werte sind, und die Ausgabe ist ein Satz von Vorhersagen. Trainings- und Testmodi werden mit der MIT-BIH-Arrhythmie-Datenbank durchgeführt. Basierend auf jedem Datensatz sagt das Modell voraus, ob der Herzschlag normal oder anormal ist. Diese abnormalen Herzschläge werden in verschiedene Kategorien eingeteilt. Die vorverarbeiteten Daten werden in ein vierschichtiges eindimensionales neuronales Faltungsnetzwerk (1D CNN) eingegeben, das den Herzschlag klassifiziert und die Krankheit vorhersagt. Dieses Modell klassifiziert die Krankheit mit einer Genauigkeit von 98% genau. Das Modell ist als tragbares System entwickelt, sodass Benutzer das EKG jederzeit überprüfen können. Dies wird bei der Früherkennung von Krankheiten hilfreich sein und in Gebieten ohne medizinische Einrichtungen nützlich sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4367-2_72 5555322d6fd6ee3bd91e2e17e85a5503;de;;;7.4.;;;Diskursanalyse der akademischen Ethikdebatte für AGI Künstliche allgemeine Intelligenz ist eine mit Spannung erwartete Technologie mit nicht-trivialen existenziellen Risiken, definiert als maschinelle Intelligenz mit einer Kompetenz, die größer/größer als der Mensch ist. Bis heute haben sich Sozialwissenschaftler wenig mit der Ethik von AGI oder AGI-Forschern beschäftigt. Dieser Beitrag verwendet induktive Diskursanalysen der akademischen Literatur zweier intellektueller Gruppen, die über die Ethik der AGI schreiben – angewandte und/oder „grundlegende“ wissenschaftliche Disziplinen, die im Folgenden als Techniker bezeichnet werden (z. angrenzende Disziplinen werden fortan als PADs bezeichnet (zB Philosophie, Theologie, Anthropologie). Diese Gruppen sind sich einig, dass es bei der AGI-Ethik im Wesentlichen darum geht, existenzielle Risiken zu mindern. Sie unterstreichen unsere moralische Verpflichtung gegenüber zukünftigen Generationen, demonstrieren die ethische Bedeutung eines besseren Verständnisses des Bewusstseins und befürworten eine Mischung aus deontologischer/utilitaristischer normativer Ethik. Techniker bevorzugen eine technokratische AGI-Governance, begrüßen das Projekt der „Lösung“ des moralischen Realismus und sind deontologischer als PADs. PADs unterstützen einen demokratischen Ansatz bei der AGI-Governance, stehen der Deontologie eher skeptisch gegenüber, betrachten aktuelle AGI-Vorhersagen als grundlegend unpräzise und sind vorsichtig, AGI zur moralischen Faktenfindung zu verwenden.;-;-;-;https://link.springer.com/article/10.1007/s00146-021-01228-7 0ff085332397f978de4b169e61b60f61;de;;;7.4.;;;Das Verhaltensmodell eines Roboters lernen Komplexe Artefakte werden heute aus gut spezifizierten und gut modellierten Komponenten entworfen. Aber meistens lassen sich die Modelle dieser Komponenten nicht zu einem globalen Funktionsmodell des Artefakts zusammensetzen. Um ein solches globales Modell zu erhalten, ist ein erheblicher Beobachtungs-, Modellierungs- und Identifizierungsaufwand erforderlich, der benötigt wird, um das entworfene Artefakt besser zu verstehen, zu kontrollieren und zu verbessern.;-;-;-;https://link.springer.com/article/10.1007/s10514-010-9212-1 5016448e517dd20df5ca17f4977fcec3;de;;;7.4.;;;Zur Anwendung von Surrogat-Regressionsmodellen für die Vorhersage des aerodynamischen Koeffizienten Computational Fluid Dynamics (CFD)-Simulationen werden heutzutage in der Luftfahrtindustrie intensiv verwendet, um die aerodynamische Leistung verschiedener Flugzeugkonfigurationen innerhalb eines Konstruktionsprozesses zu analysieren. Diese Simulationen ermöglichen es, Zeit und Kosten im Vergleich zu Windkanalexperimenten oder Flugtests zu reduzieren. Bei komplexen Konfigurationen können CFD-Simulationen jedoch mit Hochleistungscomputern immer noch mehrere Stunden dauern, um Ergebnisse zu liefern. Aus diesem Grund werden derzeit Surrogatmodelle als Ersatz für das CFD-Tool mit einer vernünftigen Vorhersage in Betracht gezogen. Dieser Beitrag präsentiert einen Überblick über Ersatzregressionsmodelle für die Vorhersage aerodynamischer Koeffizienten, insbesondere für die Vorhersage von Auftriebs- und Luftwiderstandsbeiwerten. Um das Verhalten der Regressionsmodelle zu vergleichen, wurden drei verschiedene aeronautische Konfigurationen verwendet, ein NACA0012-Profil, ein RAE2822-Profil und ein 3D-DPW-Flügel. Diese Datenbanken werden auch der wissenschaftlichen Gemeinschaft kostenlos zur Verfügung gestellt, um anderen Forschern einen weiteren Vergleich mit anderen Methoden zu ermöglichen.;-;-;-;https://link.springer.com/article/10.1007/s40747-021-00307-y 2082101cb19ede824a0f230ffa3ee7f1;de;;;7.4.;;;Datengetriebene Analyse des Engagements in gamifizierten Lernumgebungen: Eine Methode zur Echtzeitmessung von MOOCs Wohlfahrt und wirtschaftliche Entwicklung hängen direkt von der Verfügbarkeit hochqualifizierter und gebildeter Personen in der Gesellschaft ab. Im Vereinigten Königreich hat ein großer Prozentsatz der Hochschulabsolventen Zugang zur Hochschulbildung (50 % im Jahr 2017). Dennoch setzt in Brasilien eine begrenzte Zahl von Schülern, die die High School verlassen, ihre Ausbildung fort (bis zu 20 %). Zu den ersten Pionierleistungen von Hochschulen und Unternehmen, Schülerinnen und Schüler aus benachteiligten Verhältnissen zu unterstützen, um erfolgreich an den Hochschulen akzeptiert zu werden, zählen personalisierte Lernlösungen. Erste Ergebnisse zeigen jedoch, dass bei der Schülerpopulation typische Fernunterrichtsprobleme auftreten: Isolation, Demotivation und mangelndes Engagement. Daher schlugen Forscher und Unternehmen Gamification vor. Jedoch,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-49663-0_18 fafaaccefc45cf97678f941b2428fad6;de;;;7.4.;;;Data Mining und Risikovorhersage basierend auf einem verbesserten Apriori-Algorithmus für Lungenkrebs Ausgehend von medizinischen Big Data verwendet dieser Artikel Data-Mining-Technologie, um die pathogenen Faktoren von Lungenkrebs zu analysieren und zu untersuchen, basierend auf den elektronischen Patientenaktendaten von Lungenkrebs aus der Onkologie-Abteilung des maßgeblichen Krankenhauses der dritten Klasse A seit vielen Jahren. In Bezug auf die Verarbeitung riesiger Daten aus elektronischen Krankenakten für Lungenkrebs hat der traditionelle serielle Apriori-Algorithmus den Nachteil, dass er die Datenbank häufig scannt, langsam läuft und eine große Menge an Speicherressourcen verbraucht. Daher wird ein verbesserter Apriori-Algorithmus basierend auf dem verteilten Rechenmodell MapReduce der Hadoop-Plattform vorgeschlagen. Die experimentellen Cluster- und Lungenkrebs-Data-Mining-Experimente zeigen, dass der verbesserte Apriori-Algorithmus eine höhere Ausführungseffizienz und eine gute Systemskalierbarkeit beim Umgang mit Lungenkrebs-Big Data aufweist und die Beziehung zwischen Lungenkrebs und pathogenen Faktoren gut untersuchen kann, was eine wichtige leitende Bedeutung für Unterstützung der klinischen Diagnose und Risikovorhersage von Lungenkrebs.;-;-;-;https://link.springer.com/article/10.1007/s11265-021-01663-1 26b42959765f29e48d47466b49b5dd20;de;;;7.4.;;;Zum Verstehen und Argumentieren mit Klassifikatoren: Jüngste Fortschritte Maschinelles Lernen und Argumentation können potenziell stark voneinander profitieren. Die Kombination von tiefen Klassifikatoren mit Wissen, das in Form von Regeln und Einschränkungen ausgedrückt wird, ermöglicht es, verschiedene Formen von Abstraktionen innerhalb des Argumentation Mining zu nutzen. Argumentation für maschinelles Lernen kann zu argumentationsbasierten Lernmethoden führen, bei denen die Maschine und der Benutzer über das gelernte Modell streiten, mit dem gemeinsamen Ziel, dem Benutzer Ergebnisse mit maximalem Nutzen zu liefern. Leider sind beide Richtungen derzeit eher anspruchsvoll. Beispielsweise führt das Kombinieren von tiefen neuronalen Modellen mit Logik typischerweise nur zu deterministischen Ergebnissen, während das Kombinieren von Wahrscheinlichkeitsmodellen mit Logik oft zu hartnäckigen Schlussfolgerungen führt. Daher überprüfen wir ein neuartiges tiefes, aber handhabbares Modell für bedingte Wahrscheinlichkeitsverteilungen, das die Ausdruckskraft universeller Funktionsapproximatoren wie neuronalen Netzen nutzen kann und gleichzeitig eine breite Palette von handhabbaren Inferenzroutinen aufrechterhält. Während dieses neue Modell bei Klassifikationsaufgaben eine ansprechende Leistung gezeigt hat, können Menschen die Gründe für seine Entscheidung nicht leicht verstehen. Daher überprüfen wir auch unsere jüngsten Bemühungen, mit tiefen Modellen zu „streiten“. An synthetischen und realen Daten veranschaulichen wir, wie das „Streiten“ mit einem tiefen Modell über seine Erklärungen tatsächlich helfen kann, das Modell zu überarbeiten, wenn es aus den falschen Gründen richtig ist.;-;-;-;https://link.springer.com/article/10.1007/s13222-020-00351-x 51bb90ac0f3928f79cc01207adadcc0f;de;;;7.4.;;;Evaluierung von stochastischen und künstlichen Intelligenzmodellen bei der Modellierung und Vorhersage von täglichen Flusszeitreihen von Flüssen Die Modellierung und Vorhersage von Flussläufen insbesondere in hochwassergefährdeten Gebieten mit Hilfe von Warnsystemen ermöglicht es den Behörden, die erforderlichen Maßnahmen zur Schadensbegrenzung zu ergreifen. Andererseits können sie gezielte Maßnahmen zum Hochwasserschutz und zur Hochwasserprävention ergreifen. In der vorliegenden Studie wurden zwei stochastische und drei Modelle der künstlichen Intelligenz (KI) verglichen, um den täglichen Fluss des Zilakirud-Flusses im Nordiran zu modellieren und vorherzusagen. Die Tagesdaten gehören zum Zeitraum 2001–2015 (14 hydrologische Jahre vom 23.09.2001 bis 22.09.2015). Zunächst wurden die Daten im Hinblick auf die hydrologische Dürre im Jahresmaßstab unter Verwendung des Streamflow Drought Index (SDI) überprüft. Die Eingaben für die Modelle beinhalteten die Zeitverzögerungen des täglichen Flusses. Nach der Auswahl des Eingabeszenarios wurden zwei Ansätze zur Auswahl des Prozentsatzes der Kalibrierung und Validierung getestet: (1) Das letzte einzelne Jahr für die Validierung, (2) Die letzten 4 Jahre für die Validierung (etwa 30% der Daten, was üblich ist Methode). Ein Vergleich zwischen den Modellen zeigte, dass die Genauigkeit von KI-Modellen höher war als die von stochastischen Modellen. Unter den KI-Modellen zeigten Group Method of Data Handling (GMDH) und Multilayer Perceptron (MLP) die beste Validierungsleistung in beiden Ansätzen. Die Ergebnisse zeigten, dass von den beiden Ansätzen Ansatz (1) eine bessere Vorhersagegenauigkeit mit einem RMSE von 1,50 bzw. 1,40 CMS für GMDH bzw. beziehungsweise. Auch aus Sicht der Dürreklassen war das schwächste Ergebnis im mäßig nassen hydrologischen Jahr (hydrologisches Jahr 2011–2012) und die besten Leistungen im milden Dürre-hydrologischen Jahr (hydrologisches Jahr 2014–2015) zu verzeichnen.;-;-;-;https://link.springer.com/article/10.1007/s00477-019-01761-4 0c335e045a91304b78a1efb0f67cc0d8;de;;;7.4.;;;Neurodynamisches Programmieren: Überblick und aktuelle Trends Die neurodynamische Programmierung umfasst Algorithmen zur Lösung groß angelegter stochastischer Steuerungsprobleme. Viele Ideen, die diesen Algorithmen zugrunde liegen, stammen aus dem Bereich der künstlichen Intelligenz und wurden zum Teil durch deskriptive Modelle des Tierverhaltens motiviert. Dieses Kapitel bietet einen Überblick über die Geschichte und den Stand der Technik in der neurodynamischen Programmierung sowie einen Überblick über die jüngsten Ergebnisse zu zwei Klassen von Algorithmen, die Gegenstand neuer Forschungsaktivitäten waren: Zeitdifferenzlernen und akteurskritische Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-0805-2_14 c03db4fa62a72f8e038e1173a1cd1d03;de;;;7.4.;;;Toxizitätsprüfung im 21. Jahrhundert: Fortschritte im letzten Jahrzehnt und Zukunftsperspektiven Fortschritte in den biologischen Wissenschaften haben zu einem fortwährenden Paradigmenwechsel in der Toxizitätsprüfung geführt, basierend auf der erweiterten Anwendung von Hochdurchsatz-In-vitro-Screening und In-silico-Methoden zur Bewertung potenzieller Gesundheitsrisiken von Umweltgiften. Diese Überprüfung untersucht die Fortschritte bei der Vision für Toxizitätstests, die vom US National Research Council (NRC) in den zehn Jahren seit dem NRC-Bericht 2007 ausgearbeitet wurden;-;-;-;https://link.springer.com/article/10.1007/s00204-019-02613-4 d5085e1c5f8d2da921c6c8e5c7b2efb3;de;;;7.4.;;;Chatbot-Komponenten und -Architekturen In der Einführung haben wir diskutiert, dass sich Chatbot-Plattformen, die von Unternehmen angeboten werden, als gut für einfache Fälle erwiesen haben, nicht wirklich für Bereitstellungen auf Unternehmensebene. In diesem Kapitel machen wir einen ersten Schritt in Richtung industrietauglicher Chatbots. Wir werden die Hauptkomponenten von Chatbots skizzieren und verschiedene Arten von Architekturen zeigen, die diese Komponenten verwenden. Die Beschreibungen dieser Komponenten dienen dem Leser als Ausgangspunkt, um sie in den aufeinanderfolgenden Kapiteln eingehend zu erlernen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-04299-8_2 7264b9769bfe4d76d735feda0345314f;de;;;7.4.;;;Prototyp eines intelligenten Fehleranalysesystems Die Untersuchung von kommerziellen/industriellen Ausfällen ist eine wichtige, aber komplexe Aufgabe. Dieses Papier stellt ein intelligentes Fehleranalysesystem (aIFAS) vor. Es ist ein System, das von einem Fehleranalytiker mit dem Ziel entwickelt wurde, die Fehlersuche zu vereinfachen. Die Wissensbasis für aIFAS stammt aus kommerziellen Laborberichten. Die eingesetzten Methoden spiegeln die Erfahrungen aus über sechs Jahren Entwicklung wider. Ein Ziel von aIFAS ist es, ein fallbasiertes Expertensystem-Tool bereitzustellen, um Antworten zu finden. Die Funktionalität reicht vom Abgleich eines neuen Falls mit gespeicherten Beispielfällen bis hin zum Extrahieren relationaler Daten aus der aIFAS-Wissensdatenbank.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44593-5_51 0959170a6e49e01865951e9c182ba52f;de;;;7.4.;;;Einfache und effektive neuralfreie Soft-Cluster-Einbettungen für Artikel-Kaltstartempfehlungen Empfehlungssysteme werden häufig in Online-Plattformen verwendet, um personalisierte Inhalte einfach zu erkunden. Die besten verfügbaren Empfehlungsalgorithmen basieren auf der Verwendung der beobachteten Präferenzinformationen zwischen zusammenarbeitenden Einheiten. Eine bedeutende Herausforderung im Empfehlungssystem ist weiterhin die Kaltstartempfehlung von Artikeln: wie man Artikel ohne beobachtete oder vergangene Präferenzinformationen effektiv empfiehlt. Hier schlagen wir einen zweistufigen Algorithmus vor, der auf Soft Clustering basiert, um eine effiziente Lösung für dieses Problem bereitzustellen. Der Kern unseres Ansatzes liegt in der Darstellung der Items als Soft-Cluster-Einbettungen in den Raum, der von den mit den Items assoziierten Nebeninformationen aufgespannt wird. Obwohl in der Vergangenheit viele Item-Einbettungsansätze für Item-Kaltstart-Empfehlungen vorgeschlagen wurden – und so einfach sie auch erscheinen mögen – nach unserem besten Wissen wurde der auf Soft-Cluster-Einbettungen basierende Ansatz in der Forschungsliteratur nicht vorgeschlagen. Unsere experimentellen Ergebnisse zu vier Benchmark-Datensätzen zeigen schlüssig, dass der vorgeschlagene Algorithmus im Vergleich zu den hochmodernen Algorithmen gemäß allgemein verwendeten Ranking-Metriken wie Normalized Discounted Cumulative Gain (NDCG) und Mean Average genaue Empfehlungen in den Kaltstarteinstellungen von Items macht Präzision (MAP). Die Leistung unseres vorgeschlagenen Algorithmus für den MovieLens 20M-Datensatz zeigt deutlich den Skalierbarkeitsaspekt unseres Algorithmus im Vergleich zu anderen gängigen Algorithmen. Wir schlagen auch die Metrik vor;-;-;-;https://link.springer.com/article/10.1007/s10618-020-00708-6 06aeafd02cd1ef9c13b1d785875cfd15;de;;;7.4.;;;Ein hybrider Social-Mining-Ansatz für Unternehmen Aktuelle Reputationsanalyse Dieses Papier stellt einen Ansatz für die Reputationsanalyse von Unternehmen unter Verwendung von Data-Mining-Techniken vor. Es gewinnt Wissen aus riesigen Daten, die über diese Unternehmen geschrieben und öffentlich im Internet verfügbar sind. Dies geschieht durch das Extrahieren von Daten aus sozialen Medien wie Twitter, die relevante Unternehmenserwähnungen enthalten. Anschließend werden die Daten in die erste Schicht injiziert, wo sie mithilfe von maschinellem Lernen, insbesondere künstlichen neuronalen Netzen, in positive und negative Klassen eingeteilt werden. Es nimmt Tweets nach der Vorverarbeitung als Eingabe und gibt dann die Stimmung jedes Tweets aus. Das Ergebnis wird der allgemeine Ruf und die Wahrnehmung des Unternehmens für einen bestimmten Zeitraum sein. Um diese Ergebnisse weiter zu verstehen, werden die analysierten Daten dann auf eine zweite Analyseebene übertragen, in der die Verbraucher Produkte, Dienstleistungen und Ankündigungen identifizieren, die zu einer positiven oder negativen Wahrnehmung führen. Unter Verwendung der Begriffshäufigkeit (TF) führt dies zu einer Rangliste der am häufigsten erwähnten Wörter in jeder der negativen und positiven Klassen. Dies wird für Unternehmen wertvoll sein, um Schwachstellen und Stärken, Werbeeindrücke und Auswirkungen strategischer Entscheidungen zu identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36056-6_40 cdeba6c835e220ab7c03b6ccec5e3b3c;de;;;7.4.;;;Eine neue konkordante partielle AUC- und partielle c-Statistik für unausgeglichene Daten bei der Bewertung von maschinellen Lernalgorithmen Bei Klassifikations- und Diagnosetests beschreiben die Receiver-Operator-Charakteristik (ROC)-Diagramm und die Fläche unter der ROC-Kurve (AUC), wie ein einstellbarer Schwellenwert Änderungen bei zwei Fehlerarten verursacht: falsch positive und falsch negative. Nur ein Teil der ROC-Kurve und der AUC sind jedoch informativ, wenn sie mit unausgeglichenen Daten verwendet werden. Daher wurden Alternativen zur AUC vorgeschlagen, wie die partielle AUC und die Fläche unter der Precision-Recall-Kurve. Diese Alternativen können jedoch nicht so vollständig interpretiert werden wie die AUC, teilweise weil sie einige Informationen über tatsächliche Negative ignorieren.;-;-;-;https://link.springer.com/article/10.1186/s12911-019-1014-6 c902ff4fd92e22c494aa2cdfd75a5a99;de;;;7.4.;;;Konnektionisten und Statistiker, Freunde oder Feinde? Diese Untersuchung zu den Zusammenhängen zwischen dem Gebiet der künstlichen neuronalen Netze (Konnektionismus) und der Statistik beginnt mit einem Blick auf einschlägige Arbeiten anhand einer Klassifikation möglicher Berührungspunkte. Dann folgt eine Unterscheidung zwischen Konnektionismus als Werkzeug zur Datenanalyse (Engineering Connectionism) und als Modell für das menschliche Denken bzw. Es wird argumentiert, dass Statistiken einen großen Einfluss auf erstere haben, aber einen eher geringen Einfluss auf letztere. Damit wird die Kluft zwischen der angewandten neuronalen Netzforschung und der Forschung zur kognitiven Modellierung mit künstlichen neuronalen Netzen noch größer, als sie es ohnehin schon ist. Statistik wird als Theorie des ingenieurtechnischen Konnektionismus übernommen und führt daher zu ihrer Entwicklung von einer rein empirischen zu einer ausgewachsenen theoretischen Wissenschaft. Der erklärende Konnektionismus hat seine eigenen Probleme und wird seine eigenen Veränderungen durchmachen müssen. Folglich wird sie endlich als eigenständige Wissenschaft unabhängig von reinen Datenanalysezwecken betrachtet.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-59497-3_209 149e97713c06dd28924659ac9a296706;de;;;7.4.;;;Wissenstransfer in Deep Block-Modular Neural Networks Obwohl tiefe neuronale Netze (DNNs) in den letzten zehn Jahren beeindruckende Ergebnisse gezeigt haben, bleiben sie hochspezialisierte Werkzeuge, die – oft von Grund auf neu – trainiert werden, um jede einzelne Aufgabe zu lösen. Das menschliche Gehirn hingegen nutzt beim Erlernen vorhandener Kapazitäten signifikant wieder, um neue Aufgaben zu lösen. In der aktuellen Studie untersuchen wir eine blockmodulare Architektur für DNNs, die es ermöglicht, Teile des bestehenden Netzes zur Lösung einer neuen Aufgabe ohne Leistungseinbußen bei der Lösung der ursprünglichen Aufgabe wiederzuverwenden. Wir zeigen, dass Netzwerke mit solchen Architekturen von Grund auf neu trainierte Netzwerke übertreffen oder eine vergleichbare Leistung erbringen können, während sie fast zehnmal weniger Gewichte lernen müssen als neu trainierte Netzwerke.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22979-9_27 22b9824e9dc04b88245565d1099a05b8;de;;;7.4.;;;Verbesserung der Mining-Qualität durch Ausnutzung der Datenabhängigkeit Die Nützlichkeit der Ergebnisse von Data-Mining-Methoden kann durch mehrere Faktoren kritisch beeinträchtigt werden, wie z Datenmodell zur Erfassung komplexer probabilistischer Beziehungen in Daten. Glücklicherweise weist ein breites Anwendungsspektrum starke Abhängigkeiten zwischen Datenproben auf. Beispielsweise werden die Messwerte benachbarter Sensoren im Allgemeinen korreliert und Proteine ​​interagieren miteinander, wenn sie entscheidende Funktionen erfüllen. Daher können Abhängigkeiten zwischen Daten erfolgreich ausgenutzt werden, um die oben erwähnten Probleme zu beheben. In diesem Papier schlagen wir einen einheitlichen Ansatz zur Verbesserung der Bergbauqualität vor, indem wir Markov-Netzwerke als Datenmodell verwenden, um lokale Abhängigkeiten auszunutzen. Glaubenspropagation wird verwendet, um die marginalen oder maximalen Posterior-Wahrscheinlichkeiten effizient zu berechnen, um die Daten zu bereinigen, fehlende Werte abzuleiten oder die Mining-Ergebnisse aus einem Modell zu verbessern, das diese Abhängigkeiten ignoriert. Um die Vorteile und die große Allgemeingültigkeit der Technik zu veranschaulichen, stellen wir ihre Anwendung auf drei herausfordernde Probleme vor: (i) kosteneffiziente Sensorsondierung, (ii) Verbesserung der Vorhersage der Proteinfunktion und (iii) Entrauschung von Sequenzdaten.;-;-;-;https://link.springer.com/chapter/10.1007/11430919_57 f12321c9ae0075b3c39fe6242a0845fc;de;;;7.4.;;;Schweizer Analyst Dieses Paper stellt SwissAnalyst vor, eine komplette Data-Mining-Umgebung von Weka. SwissAnalyst wurde als intuitiver Prozesslayer entwickelt, der alle notwendigen Features bietet, um hinsichtlich der Funktionalität mit den meisten kommerziellen Data-Mining-Softwarepaketen gleichzuziehen. Als GNU GPL-Software bietet SwissAnalyst eine lizenzfreie Plattform, um sowohl Machbarkeitsnachweise für potenzielle Geschäftsanwender als auch komplexe prozessgesteuerte Lösungen für Forscher zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-8151-0_34 a8537f53b6128d47cef92ef4d3fc66c1;de;;;7.4.;;;Zeitreihenprognosen mit maschinellem Lernen Prognosen sind ein wesentlicher Bestandteil jedes Unternehmens, da umfangreiche Datenmengen verfügbar sind. Sie müssen statistische Modelle mit maschinellem Lernen kombinieren, um Genauigkeit, Durchsatz und Gesamtleistung zu verbessern. In diesem Artikel wird ein Zeitreihenprognoseansatz mit maschinellen Lerntechniken verwendet, um die Nachfrage nach Ladenartikeln vorherzusagen. SARIMA(0,1,1)X(0,1,0);-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6634-9_34 6182ae39048ea2c26d8003dc12fa74ea;de;;;7.4.;;;Echtzeit-Datenanalyse mit Nebelintelligenz Das Internet erfährt ein ungewöhnliches Wachstum, hauptsächlich aufgrund der geometrischen Zunahme der Anzahl von Internet of Things (IoT)-Geräten, die jeden Tag verbunden werden. Die Zunahme der Anzahl kommunizierender Geräte führt zu einem starken Anstieg der Gesamtdatengenerierung. In einer typischen Cloud-Computing-Umgebung werden diese riesigen Datenmengen zu Speicher- und Berechnungszwecken direkt in die Cloud übertragen. Dies führt auch zu einem erheblichen Druck auf die Computerumgebung und die Netzwerkkapazität. Daher besteht die Notwendigkeit, die Verarbeitung dieser riesigen Daten näher am Quellnetzwerk durchzuführen, damit nur die relevanten oder sinnvollen Daten in die Cloud fließen. Dies führte zur Annahme eines neuen Computing-Paradigmas, das als Fog-Computing bekannt ist und darauf abzielt, die Speicherung und Berechnung näher am Rand des Netzwerks zu erreichen und so dabei hilft, verschiedene Nachteile des Cloud-Computing zu überwinden. Der Beitrag stellt die Taxonomie des Fog-Computing und eine Anwendung vor, bei der verschiedene Modelle auf Basis eines künstlichen neuronalen Netzwerks (KNN) entwickelt und an verschiedenen Datensätzen wie dem Datensatz zur Raumbelegung, dem Blutzuckerprozentsatz sowie dem Licht- und Feuchtigkeitsdatensatz getestet werden. Die funktionale Effektivität der vorgeschlagenen Nebelarchitektur und ihre Leistung in diesen angenommenen Szenarien werden durch verschiedene experimentelle Ergebnisse dargestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4084-8_21 5d4bfa08d7c0fec9e0b21cec01a468cf;de;;;7.4.;;;SoK: Kryptographie für neuronale Netze Mit dem Aufkommen von Big-Data-Technologien, die bessere Skalierbarkeits- und Leistungsergebnisse bringen, werden Algorithmen des maschinellen Lernens (ML) in verschiedenen Anwendungen und Bereichen erschwinglich. Die Verwendung großer Datenmengen, um genaue Vorhersagen zu erhalten, ist leider mit hohen Kosten im Hinblick auf die Gefährdung der Privatsphäre verbunden. Die zugrunde liegenden Daten sind oft personenbezogen oder vertraulich und müssen daher angemessen geschützt werden. Angesichts der Kosten für maschinelle Lernalgorithmen müssten diese auf Server von Drittanbietern ausgelagert werden, sodass der Schutz der Daten obligatorisch wird. Während herkömmliche Datenverschlüsselungslösungen den Zugriff auf den Inhalt der Daten nicht zulassen würden, würden diese Server von Drittanbietern dennoch daran hindern, die ML-Algorithmen ordnungsgemäß auszuführen. Das Ziel besteht daher darin, maßgeschneiderte ML-Algorithmen zu entwickeln, die von Natur aus die Vertraulichkeit der verarbeiteten Daten wahren. Fortschrittliche kryptografische Techniken wie die vollständig homomorphe Verschlüsselung oder die sichere Mehrparteienberechnung ermöglichen die Ausführung einiger Operationen über geschützte Daten und können daher als potenzielle Kandidaten für diese Algorithmen betrachtet werden. Diese Techniken verursachen jedoch für einige Operationen hohe Rechen- und/oder Kommunikationskosten. In diesem Papier schlagen wir eine Systematisierung des Wissens (SoK) vor, bei der wir die Spannung zwischen einer bestimmten ML-Technik, nämlich neuronalen Netzen (NN), und den Eigenschaften relevanter kryptographischer Techniken analysieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-42504-3_5 c2b4fde0a212e9c7d0758e6e87f46e4b;de;;;7.4.;;;Auf dem Weg zur Anerkennung von Raumfahrzeugkomponenten: Ein neuer Maßstab und ein neues Modell Die Länder sind zunehmend an der Überwachung und Erkennung von Raumfahrzeugen interessiert, die eine wichtige Rolle bei der Wartung im Orbit, dem Andocken im Weltraum und anderen Anwendungen spielen. Herkömmliche Detektionsmethoden, einschließlich Radar, haben viele Einschränkungen, wie beispielsweise übermäßige Kosten und Probleme bei der Energieversorgung. Für viele in der Umlaufbahn bedienende Raumfahrzeuge ist die Bilderkennung ein einfaches, aber relativ genaues Verfahren, um ausreichende Positions- und Richtungsinformationen zu erhalten, um Dienste anzubieten. Nach unserem besten Wissen wurden jedoch nur wenige praktische Modelle für maschinelles Lernen berichtet, die sich auf die Erkennung von Raumfahrzeugmerkmalskomponenten konzentrieren. Darüber hinaus ist es schwierig, umfangreiche On-Orbit-Bilder zu finden, mit denen ein solches Modell trainiert oder bewertet werden kann. In dieser Studie haben wir zunächst einen neuen Datensatz erstellt, der zahlreiche künstliche Bilder von Raumfahrzeugen im Orbit mit markierten Komponenten enthält. Unsere Basisbilder wurden aus der 3D Max- und STK-Software abgeleitet. Diese Bilder umfassen viele Arten von Satelliten und Satellitenpositionen. Unter Berücksichtigung realer Beleuchtungsbedingungen und unvollkommener Kamerabeobachtungen entwickelten wir einen Degradationsalgorithmus, der es uns ermöglichte, Tausende von künstlichen Bildern von Raumfahrzeugen zu erstellen. Die Merkmalskomponenten des Raumfahrzeugs in allen Bildern wurden manuell beschriftet. Wir haben festgestellt, dass die direkte Verwendung des DeepLab V3+-Modells zu einer schlechten Kantenerkennung führt. Schlecht definierte Kanten liefern ungenaue Positions- oder Richtungsinformationen und verschlechtern die Leistung von Diensten im Orbit. Daher wurden die Randinformationen des Ziels als Aufsichtsrichtlinie verwendet und zur Entwicklung des vorgeschlagenen;-;-;-;https://link.springer.com/article/10.1007/s42064-021-0103-3 bddec1978437cd6de24b86bffcd0b81c;de;;;7.4.;;;Erkennung epileptischer Anfälle mit CNN Epilepsie ist eine der verheerendsten Krankheiten in der Geschichte der Menschheit. Eine neurologische Erkrankung, bei der eine unregelmäßige Übertragung von Gehirnwellen zu Krampfanfällen und einem körperlichen und emotionalen Ungleichgewicht führt. Dieser Artikel präsentiert die Studie zur effektiven Nutzung des Convolutional Neural Network (CNN), einem Deep-Learning-Algorithmus zur Erkennung epileptischer Anfälle. Diese innovative Technologie wird der realen Welt helfen, die Diagnose der Krankheit mit größerer Genauigkeit schneller zu machen. Es wird ein Epilepsie-Dataset der binären Klasse mit 179 extrahierten Merkmalen als Attribute betrachtet. Die Binär- und Mehrklassenklassifizierung erfolgt unter Berücksichtigung der Klasse mit epileptischer Aktivität gegenüber allen nicht-epileptischen Klassen. Zur Klassifizierung wird ein CNN-Modell vorgeschlagen, das eine Genauigkeit von 98,32 % erreicht. Durch Anwenden eines anderen Multiklassen-Datensatzes mit 4 Klassen wird dann auch der Generalisierungsgrad unseres Modells überprüft, da die Genauigkeit der Endergebnisse hoch war. Für die 10-fache Kreuzvalidierung und die 70-30-Datenaufteilungsmethode werden unsere Modelle für die Leistung anhand verschiedener Leistungsmetriken bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0401-0_1 9ba00344c5a3a794026be7dcb2e1aaac;de;;;7.4.;;;Merkmalsauswahl über Sensitivitätsanalyse der probabilistischen SVM-Ausgaben Die Featureauswahl ist ein wichtiger Aspekt bei der Lösung von Data-Mining- und Machine-Learning-Problemen. Dieses Papier schlägt eine Merkmalsauswahlmethode für das Lernen der Support Vector Machine (SVM) vor. Wie die meisten Merkmalsauswahlverfahren ordnet das vorgeschlagene Verfahren alle Merkmale in absteigender Reihenfolge ihrer Wichtigkeit, so dass relevantere Merkmale identifiziert werden können. Es verwendet ein neuartiges Kriterium, das auf den probabilistischen Ausgaben von SVM basiert. Dieses Kriterium, bezeichnet als merkmalsbasierte Sensitivität von Posterior-Wahrscheinlichkeiten (FSPP), bewertet die Bedeutung eines spezifischen Merkmals, indem es den Gesamtwert der absoluten Differenz der probabilistischen Ausgaben von SVM mit und ohne Merkmal über den Merkmalsraum berechnet. Die genaue Form dieses Kriteriums ist nicht leicht zu berechnen und es ist eine Annäherung erforderlich. Zu diesem Zweck werden vier Näherungen, FSPP1-FSPP4, vorgeschlagen. Die ersten beiden Näherungen bewerten das Kriterium durch zufälliges Permutieren der Werte des Merkmals unter Proben der Trainingsdaten. Sie unterscheiden sich in ihrer Wahl der Abbildungsfunktion von der Standard-SVM-Ausgabe zu ihrer probabilistischen Ausgabe: FSPP1 verwendet eine einfache Schwellenwertfunktion, während FSPP2 eine Sigmoidfunktion verwendet. Die zweiten beiden nähern sich direkt dem Kriterium an, unterscheiden sich jedoch in den Glätteannahmen des Kriteriums in Bezug auf die Merkmale. Die Leistung dieser Näherungen, die in einem Gesamtmerkmalsauswahlschema verwendet werden, wird dann anhand verschiedener künstlicher Probleme und realer Probleme bewertet, einschließlich Datensätzen aus dem jüngsten Merkmalsauswahlwettbewerb von neuronalen Informationsverarbeitungssystemen (NIPS). FSPP1-3 zeigen durchweg eine gute Leistung, wobei FSPP2 insgesamt mit einem leichten Vorsprung am besten abschneidet. Die Leistung von FSPP2 ist konkurrenzfähig mit einigen der leistungsfähigsten Methoden zur Merkmalsauswahl in der Literatur zu den von uns getesteten Datensätzen. Die zugehörigen Berechnungen sind bescheiden und daher als Merkmalsauswahlverfahren für SVM-Anwendungen geeignet.;-;-;-;https://link.springer.com/article/10.1007/s10994-007-5025-7 9713d579faabe22c15ad65619911c4bc;de;;;7.4.;;;Generierung von Handschriften mit RNN mit Mixture Density Network Die Handschrifterkennung ist eines der Gebiete, in denen Forscher versuchen, verschiedene Techniken des maschinellen Lernens anzuwenden, um die Wörter zu identifizieren und sinnvolle Sätze wiederherzustellen. Die Anerkennung hat zwei Möglichkeiten, eine Eingabe zu erhalten: online und offline. Online-Handschrift beinhaltet die Konvertierung von Text zusammen mit kontinuierlicher Eingabe, während der Benutzer den Text schreibt. Offline-Handschrift beinhaltet die Verarbeitung handschriftlicher Bilder ohne weitere Daten als Eingabe. In diesem Artikel wurde daran gearbeitet, eine Reihe von Online-Handschriftsdaten zu verwenden, um eine Vielzahl von Merkmalen unter Verwendung von rekurrenten neuronalen Netzen mit langem Kurzzeitgedächtnis (LSTM RNNs) zu erkennen. Das trainierte neuronale Netz wird zusammen mit Mixed Density Networks (MDNs) verwendet, um Offline-Handschriftproben aus Text zu generieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8221-9_241 483da6243094bd1508facf32c2cfa1c6;de;;;7.4.;;;Ein kaskadierter Klassifikator-Ansatz zur Verbesserung der Erkennungsraten bei seltenen Angriffskategorien bei der Erkennung von Netzwerkangriffen Forschungsarbeiten zur Erkennung von Netzwerkangriffen, die den KDDCup 99-Datensatz verwendeten, stoßen häufig auf Herausforderungen bei der Erstellung von Klassifikatoren, die ungleich verteilte Angriffskategorien handhaben können. Die Genauigkeit eines Klassifizierungsmodells könnte gefährdet sein, wenn die Verteilung der Angriffskategorien in einem Trainingsdatensatz stark unausgewogen ist, wenn die seltenen Kategorien weniger als 2 % der Gesamtbevölkerung ausmachen. In solchen Fällen kann das Modell die Merkmale seltener Kategorien nicht effizient lernen, was zu schlechten Erkennungsraten führt. In dieser Forschung stellen wir einen effizienten und effektiven Ansatz im Umgang mit der ungleichen Verteilung von Angriffskategorien vor. Unser Ansatz basiert auf dem Training kaskadierter Klassifikatoren unter Verwendung eines dichotomisierten Trainingsdatensatzes in jeder kaskadierenden Stufe. Der Trainingsdatensatz wird basierend auf den seltenen und nicht seltenen Angriffskategorien dichotomisiert. Die empirischen Ergebnisse stützen unsere Argumente, dass das Training kaskadierter Klassifikatoren unter Verwendung des dichotomisierten Datensatzes im Vergleich zu den Ergebnissen anderer Forschungsarbeiten höhere Erkennungsraten für die seltenen Kategorien sowie vergleichbar höhere Erkennungsraten für die nicht seltenen Angriffskategorien liefert. Die höheren Erkennungsraten sind darauf zurückzuführen, dass der Einfluss der dominanten Kategorien abgeschwächt wird, wenn die seltenen Angriffskategorien vom Datensatz getrennt werden.;-;-;-;https://link.springer.com/article/10.1007/s10489-010-0263-y 059cf4152f633f1067008dd35ddf1b60;de;;;7.4.;;;Dyaden-Ranking mit einem bilinearen Plackett-Luce-Modell Label-Ranking ist eine spezielle Art von Präferenzlernproblem, nämlich das Problem des Lernens eines Modells, das Instanzen über einen endlichen Satz vordefinierter Alternativen auf Rankings abbildet. Diese Alternativen sind mit ihrem Namen gekennzeichnet oder;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23525-7_14 2edc027d7059bcaa2f99633f1f089c29;de;;;3.2.;;;Multi-Agenten-Modell zur Steuerung des Produktionssystems: Ein reaktiver und aufkommender Ansatz durch Kooperation und Konkurrenz zwischen Agenten Angesichts eines starken Wettbewerbs tendieren die heutigen Unternehmen zu neuen Produktionsmethoden und wechseln von einer Logik der „projizierten Planung“ zu einer Logik des „Just in time“. In diesem Zusammenhang muss das System, das die Steuerung der Produktion ermöglicht, ein modulares, flexibles und reaktives System sein. Die hierarchisierten und klassischen Ansätze erlauben es nicht mehr, die mit einem solchen System verbundene Komplexität zu berücksichtigen. Aus diesem Grund schlagen wir einen Ansatz vor, der reaktive, distributive und emergente Eigenschaften hat, um das Produktionssystem basierend auf Multi-Agenten-Systemprinzipien zu steuern. Nachdem wir den Kontext und die Argumentationsarbeit eingeführt haben, beschreiben wir die verschiedenen Teile unseres Multi-Agenten-Modells. Abschließend veranschaulichen wir diesen Ansatz an einem praktischen Beispiel einer Produktionszelle.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36559-1_24 4de70f39f5429f0fa248b2c10eda8352;de;;;7.4.;;;Eine Umfrage zum Umgang mit dem erstklassigen Ungleichgewicht bei Big Data Bei einem Mehrheits-Minderheiten-Klassifizierungsproblem kann ein Klassenungleichgewicht in den Datensätzen die Leistung von Klassifikatoren dramatisch verzerren, was zu einem Vorhersagefehler für die Mehrheitsklasse führt. Angenommen, die positive (Minderheits-)Klasse ist die interessierende Gruppe und die gegebene Anwendungsdomäne diktiert, dass ein falsch negatives Ergebnis viel kostspieliger ist als ein falsch positives, ein negativer (Mehrheits-)Klassenvorhersagefehler könnte nachteilige Folgen haben. Bei Big Data stellt die Minderung von Klassenungleichgewichten aufgrund der vielfältigen und komplexen Struktur der relativ viel größeren Datensätze eine noch größere Herausforderung dar. Dieses Papier bietet einen großen Überblick über veröffentlichte Studien der letzten 8 Jahre, die sich auf ein erstklassiges Ungleichgewicht (dh ein Mehrheits-zu-Minderheiten-Klassenverhältnis zwischen 100:1 und 10.000:1) in Big Data konzentrieren, um den Zustand zu bewerten - des Standes der Technik bei der Bekämpfung von nachteiligen Auswirkungen aufgrund von Klassenungleichgewichten. In diesem Papier werden zwei Techniken behandelt, die Methoden auf Datenebene (z. B. Datenstichproben) und auf Algorithmenebene (z. B. kostensensibel und hybrid/Ensemble) umfassen. Daten-Sampling-Methoden sind bei der Behebung von Klassenungleichgewichten beliebt, wobei Random Over-Sampling-Methoden im Allgemeinen bessere Gesamtergebnisse zeigen. Auf der Algorithmus-Ebene gibt es einige herausragende Performer. Dennoch gibt es in den veröffentlichten Studien inkonsistente und widersprüchliche Ergebnisse, gepaart mit einem begrenzten Anwendungsbereich der evaluierten Techniken, was auf die Notwendigkeit umfassenderer vergleichender Studien hindeutet.;-;-;-;https://link.springer.com/article/10.1186/s40537-018-0151-6 ce5b6c0efe2cb1eb6105f4559f9d3b0f;de;;;7.4.;;;Ein kombiniertes Fuzzy-Soft-Set – maschineller Lernansatz für eine effektive Party-Empfehlung In jüngster Zeit haben sich Voting Advice Applications (VAA) zu einem weit verbreiteten Online-Tool für Wahlkampagnen in Europa entwickelt. Diese Online-Tools sollen den Wählern die am besten geeignete politische Partei vorschlagen, die ihrer Politik entspricht. In typischen VAAs werden Antworten auf politikbasierte Fragen des Kandidaten/der Partei und auch des Wählers gesammelt, dann werden diese Antworten verglichen und dem Benutzer wird die Partei/den Kandidaten vorgeschlagen, deren Antworten am meisten übereinstimmen. Aber es gibt Chancen auf überaus vielversprechende Antworten von Seiten der Partei. Dies ebnet den Weg für eine kollaborative Empfehlung in VAAs, genannt Social VAAs (SVAA). In SVAA werden Benutzer mit Parteien vorgeschlagen, die andere ähnliche Benutzer bevorzugen. Motiviert mit der Güte von Fuzzy-Soft-Sets und verschiedenen Klassifikatoren in der vorherigen Arbeit wird ein Ansatz vorgeschlagen, der sowohl Fuzzy-Soft-Sets als auch maschinelles Lernen kombiniert, um die Güte beider zusammenzubringen. In diesem Papier wird der kombinierte Ansatz erläutert und bewertet und es wird festgestellt, dass die vorstehenden Methoden durchgeführt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1420-3_44 78a289c30ff5196d45cf5cb058c170bc;de;;;7.4.;;;Anwenden von Bagging-Techniken auf den SA Tabu Miner Rule Induction Algorithmus Dieses Papier präsentiert eine Implementierung von Bagging-Techniken über den heuristischen Algorithmus zur Induktion von Klassifikationsregeln namens SA Tabu Miner (Simulated Annealing and Tabu Search Data Miner). Ziel war es, eine bessere Vorhersagegenauigkeit der abgeleiteten Klassifikationsregeln zu erreichen. Bagging (Bootstrap Aggregating) ist eine Ensemble-Methode, die sowohl experimentell, da sie sich bei verrauschten Datensätzen gut verhält, als auch theoretisch aufgrund ihrer Einfachheit viel Aufmerksamkeit auf sich gezogen hat. In diesem Beitrag präsentieren wir die experimentellen Ergebnisse verschiedener Bagging-Versionen des SA Tabu Miner-Algorithmus. Der SA Tabu Miner-Algorithmus ist sowohl von der Forschung zu heuristischen Optimierungsalgorithmen als auch von Data-Mining-Konzepten und -Prinzipien zur Regelinduktion inspiriert. Mehrere Bootstrap-Methoden wurden auf SA Tabu Miner angewendet, darunter die Reduzierung der Wiederholung von Instanzen, die Erzwingung von Wiederholungen von Instanzen, die zwei nicht überschreiten, wobei unterschiedliche Prozentsätze des ursprünglichen Basistrainingssatzes verwendet wurden. Verschiedene experimentelle Ansätze und Parameter führten zu unterschiedlichen Ergebnissen auf den verglichenen Datensätzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10781-8_9 fa4b0e021698940d91f41fd6950cac71;de;;;7.4.;;;Erkennung der Parkinson-Krankheit mit maschinellen Lerntechniken Die Parkinson-Krankheit (PD) ist eine fortschreitende neurodegenerative Erkrankung, die mehr als 6 Millionen Menschen betrifft. Menschen auf der ganzen Welt. Nichtsdestotrotz haben nicht spezialisierte Ärzte immer noch keinen definitiven Test für PD, ähnlich wie im frühen Stadium der erkrankten Person, wo die Symptome intermittierend und schlecht charakterisiert sein können. Dies führte zu einer hohen Rate an Fehldiagnosen (bis zu 25 % bei Nichtfachleuten) und viele Jahre vor der Behandlung können Patienten die Erkrankung haben. Ein genaueres, unvoreingenommenes Mittel zur Früherkennung ist erforderlich, vorzugsweise eines, das Einzelpersonen in ihrer häuslichen Umgebung verwenden können. Das vorgeschlagene System für prädiktive Analytik ist eine Mischung aus Clustering von K-Means und einem Entscheidungsbaum, der verwendet wird, um Erkenntnisse von Patienten zu gewinnen. Das Problem kann mit reduzierter Fehlerrate durch die Anwendung von Techniken des maschinellen Lernens angegangen werden. Unser vorgeschlagenes System liefert auch genaue Ergebnisse, indem es die spiralförmigen Zeicheneingaben von Patienten kombiniert, die von Morbus Parkinson betroffen sind. Aus diesen Zeichnungen wird der Hauptkomponentenanalysealgorithmus (PCA) zur Extraktion des Merkmals aus den Spiralzeichnungen und die Support-Vektor-Maschine zur Klassifizierung verwendet. Als Feedback wird die Sprachdatensammlung der UCI-Plattform für maschinelles Lernen bei der Parkinson-Krankheit verwendet. Somit werden unsere Studienergebnisse zeigen, dass die Früherkennung der Erkrankung die therapeutische Versorgung älterer Menschen fördern und die Chancen auf eine gesündere Lebenserwartung und ein friedliches Leben erhöhen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8752-8_49 625da7f1644fbcae2cc63c3c034a86e8;de;;;7.4.;;;Diabetes-Mellitus-Vorhersage mithilfe von Ensemble Machine Learning-Techniken Diabetes ist eine nicht übertragbare Krankheit und nimmt derzeit mit alarmierender Geschwindigkeit zu. Es kann verschiedene schwere Schäden verursachen, insbesondere verschwommenes Sehen, Kurzsichtigkeit, brennende Extremitäten, Nieren- und Herzinsuffizienz. In diesem Moment wird es zu einer der Hauptkrankheiten. Diabetes tritt auf, wenn der Zuckerspiegel einen bestimmten Wert überschreitet oder der menschliche Körper nicht genügend Insulin produzieren kann, um den Spiegel auszugleichen. Daher müssen von Diabetes betroffene Patienten darüber informiert werden, damit sie geeignete Behandlungen zur Kontrolle des Diabetes erhalten können. Aus diesem Grund ist es wichtig, Diabetes frühzeitig vorherzusagen und zu klassifizieren. In dieser Analyse wurden also zwei Algorithmen des maschinellen Lernens verwendet, um Diabetes zu klassifizieren und die Leistungen der Algorithmen zu vergleichen. Der gesammelte Datensatz hat 340 Instanzen und jede Instanz hat 26 Funktionen. In dieser Studie wurden zwei Ensemble Machine Learning Algorithmen verwendet, nämlich Bagging und Decorate. Bagging klassifizierte die Diabetesarten zu 95,59 % genau, während Decorate 98,53 % genau klassifizierte.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3666-3_37 35c79029c93b4710c90a406c29bc110a;de;;;7.4.;;;Vorhersage der Auswahl des täglichen Reisemodus von Kuantan-Reisenden mithilfe von Modellen für maschinelles Lernen In Verkehrsstudien ist die Vorhersage der Verkehrsmittelwahl der Nutzer im täglichen Pendelverkehr von entscheidender Bedeutung, um Verkehrsprobleme aufgrund der hohen Anzahl von Privatfahrzeugen auf der Straße zu bewältigen. Herkömmliche statistische Techniken sind weit verbreitet, um die Wahl des Modus der Benutzer zu untersuchen, jedoch bleibt die Wahl der am besten geeigneten Prognosemethode ein wichtiges Anliegen. In diesem Artikel untersuchen wir die Anwendung einer Reihe von Machine-Learning-Modellen, nämlich Random Forest (RF), Tree, Naive Bayes (NB), Logistic Regression (LR), k-Nearest Neighbor (k-NN), Support Vector Machine (SVM) sowie künstliche neuronale Netze (ANN) bei der Vorhersage der täglichen Reisemoduswahl in Kuantan. Die Daten stammen aus einer Umfrage der Revealed/Stated Preferences (RPSP)-Umfrage unter Kuantan-Reisenden, bei der acht Merkmale in der vorliegenden Studie berücksichtigt wurden. Die Klassifikatoren wurden mit dem gesammelten Datensatz trainiert, indem die fünffache Kreuzvalidierungsmethode verwendet wurde, um die tägliche Moduswahl vorherzusagen. Aus dieser Vorstudie wurde gezeigt, dass sowohl die RF als auch die KNN-Klassifikatoren im Vergleich zu den anderen evaluierten Modellen zufriedenstellende Klassifikationsgenauigkeiten von bis zu 70 % liefern können. Daher konnte der Schluss gezogen werden, dass die bewerteten Merkmale bei der Entscheidung über die Wahl des Reisemodells von Kuantan-Reisenden ziemlich wichtig sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4597-3_89 72bfd63f4514cf4c014084b15b5d4aaf;de;;;7.4.;;;Objektorientierte Fehlervorhersageanalyse mit maschinellen Lernalgorithmen Eines der wichtigsten Schlüsselelemente im Entwicklungs- und Wartungsprozess von Software ist die Fehlervorhersage, sie betrifft den Gesamterfolg des Systems. Die Vorhersage von Softwarefehlern in der Anfangsphase hilft dem Entwickler, zuverlässige Software zu erstellen und die Kosten zu minimieren. Das Fehlervorhersagemodell liefert dem Entwicklungsteam Erkenntnisse über fehlerhaftes Verhalten und kann dementsprechend entsprechend handeln. Die in diesem Papier vorgestellte Studie diskutiert die Leistung verschiedener Algorithmen des maschinellen Lernens bei der Vorhersage von fehleranfälligen Klassen und untersucht auch die Rolle, die verschiedene Softwaremetriken der Datensätze spielen. Zuerst wenden wir die korrelationsbasierte Merkmalsauswahltechnik an, um einen Satz unkorrelierter Metriken zu erhalten, die für die Vorhersage sehr wünschenswert und informativ sind. Dann entwickeln wir ein Modell für die Vorhersage mit Hilfe einiger überwachter maschineller Lerntechniken. Diese Modelle werden auf sechs verschiedenen Versionen des objektorientierten Java-Projekts validiert, die von GitHub bezogen wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1420-3_96 0d9fb6b2b072e4639afacd21fb864292;de;;;7.4.;;;Beaufsichtigtes Lernen mit minimalem Aufwand Herkömmliches überwachtes Lernen lernt aus den gegebenen Trainingsbeispielen. Dies unterscheidet sich dramatisch vom menschlichen Lernen, der Mensch lernt einfache Beispiele, bevor er schwierige bewältigt, um seinen Aufwand zu minimieren. Der Aufwand kann mit dem Energieverbrauch gleichgesetzt werden, und es wäre wichtig, dass Module für maschinelles Lernen in realen Bereitstellungen minimale Energie verbrauchen. In diesem Paper schlagen wir ein neuartiges, einfaches und effektives Machine-Learning-Paradigma vor, das diese wichtige Simple-to-Complex (S2C) Human-Learning-Strategie explizit nutzt und auf Basis von C4.5 effizient implementiert. Die Versuchsergebnisse zeigen, dass S2C mehrere entscheidende Vorteile gegenüber dem ursprünglichen C4.5 hat. Zunächst einmal erfordert S2C tatsächlich viel weniger Aufwand beim Erlernen der Trainingsbeispiele als C4.5, das Beispiele zufällig auswählt. Zweitens ist der Lernprozess mit minimalem Aufwand viel stabiler. Obwohl S2C das Modell nur lokal mit minimalem Aufwand aktualisiert, zeigen wir schließlich, dass es genauso genau ist wie der globale Lerner C4.5. Die Anwendungen dieser einfachen bis komplexen Lernstrategie bei realen Lernaufgaben, insbesondere kognitiven Lernaufgaben, werden fruchtbar sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13672-6_45 258021cf9f04adadece77a1f0d296097;de;;;7.4.;;;Erneute Prüfung der Abstimmung für die Crowd Sourcing MT Evaluation Wir beschreiben ein Modell, das auf der Ranking Support Vector Machine (SVM) basiert, die verwendet wird, um mit den Crowdsourcing-Daten umzugehen. Unser Modell konzentriert sich darauf, wie man Crowdsourcing-Daten von schlechter Qualität verwendet, um qualitativ hochwertige sortierte Daten zu erhalten. Bei den Datensätzen, die für das Modelltraining und das Testen verwendet werden, fehlen Daten. Und wir haben festgestellt, dass unser Modell in allen Fällen unseres Experiments bessere Ergebnisse erzielt als das Abstimmungsmodell, einschließlich der Sortierung von zwei Übersetzungen und vier Übersetzungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45701-6_10 fb374b31caab32b7f2261e5c779b478d;de;;;7.4.;;;ART-basierte neuronale Netze für die Multi-Label-Klassifizierung Die Multi-Label-Klassifikation ist ein aktives und sich schnell entwickelndes Forschungsgebiet der Datenanalyse. Es wird in Bereichen wie der Vorhersage von Genfunktionen, der Textklassifizierung oder dem Web-Mining immer wichtiger. Diese Aufgabe entspricht der Klassifizierung von Instanzen, die von mehreren Klassen anstatt nur einer Klasse gekennzeichnet sind. Traditionell wurde es gelöst, indem für jede Klasse unabhängige binäre Klassifikatoren gelernt und ihre Ausgaben kombiniert wurden, um Vorhersagen mit mehreren Labels zu erhalten. Alternativ kann ein Klassifizierer direkt trainiert werden, um einen Etikettensatz unbekannter Größe für jede unsichtbare Instanz vorherzusagen. Kürzlich wurden mehrere direkte Multi-Label-Maschinenlernalgorithmen vorgeschlagen. In diesem Beitrag wird ein neuartiger Ansatz vorgestellt, der auf neuronalen Netzen der ART (Adaptive Resonance Theory) basiert. Die Algorithmen Fuzzy ARTMAP und ARAM wurden modifiziert, um ihre Multi-Label-Klassifizierungsleistung zu verbessern, und wurden anhand von Benchmark-Datensätzen bewertet. Der Vergleich experimenteller Ergebnisse mit den Ergebnissen anderer Multi-Label-Klassifikatoren zeigt die Wirksamkeit des vorgeschlagenen Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03915-7_15 bf4e13b860a831a9934b07cd4c951cab;de;;;7.4.;;;Aufbau eines Pronominalisierungsmodells durch Merkmalsauswahl und maschinelles Lernen Die Pronominalisierung ist eine wichtige Komponente bei der Generierung eines zusammenhängenden Textes. In diesem Artikel identifizieren wir Merkmale, die die Pronominalisierung beeinflussen, und konstruieren ein Pronomengenerierungsmodell unter Verwendung verschiedener Techniken des maschinellen Lernens. Die alten Entitäten, die das Ziel der Pronominalisierung sind, werden entsprechend ihrer Tendenz im Aufmerksamkeitszustand in drei Typen eingeteilt: Cb und altes-Cp, abgeleitet von einem Zentrierungsmodell, und die restlichen alten Entitäten. Wir konstruieren für jeden Typ ein Pronomengenerierungsmodell. Siebenundachtzig Texte aus drei Genres werden zum Trainieren und Testen gesammelt. Auf diese Weise verifizieren wir, dass unsere vorgeschlagenen Merkmale gut definiert sind, um die Pronominalisierung auf Koreanisch zu erklären, und wir zeigen auch, dass unser Modell die vorherigen mit einem Konfidenzniveau von 99% im t-Test deutlich übertrifft. Wir identifizieren auch zentrale Merkmale, die einen starken Einfluss auf die Pronominalisierung über die Genres hinweg haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30211-7_60 0e5c8b0e931a9eb2c1ab83bcd943a23a;de;;;7.4.;;;Dynamisches Pausenmanagement in der Logistik auf Basis individueller Vitaldaten: Gestaltung der Benutzeroberfläche einer KI-basierten mobilen App für Mitarbeiter in der Kommissionierung Häufig auftretende psychische und körperliche Belastungen sowie erhöhte Pausenausfälle stellen langfristig ein Gesundheitsrisiko für Lagerarbeiter und ein Kostenrisiko für Unternehmen dar. Das Projekt „Dynamisches Pausenmanagement“ zielt darauf ab, mit Hilfe individueller Pausenempfehlungen die Gesundheit, Produktivität und Sicherheit der Lagermitarbeiter zu erhalten. Mithilfe eines Sensorarmbands, einer Smartphone-Anwendung und Methoden der Künstlichen Intelligenz (KI) sollen Stress auf Basis physiologischer Daten vorhergesagt und Pausen individuell empfohlen werden. Die Pausen werden mit den unternehmensinternen Abläufen abgestimmt. Die App wurde nach international gültigen Ergonomiestandards entwickelt. Sowohl die Präsentation von Informationen als auch die Interaktion zwischen Mensch und Technik sollen benutzerfreundlich sein, um die Akzeptanz der Technologieanwendung und deren regelmäßige Nutzung zu erhöhen. Der Artikel gibt einen Überblick über die IT-Architektur des Forschungsprojekts „Dynamisches Pausenmanagement“ und den aktuellen Entwicklungsstand. Des Weiteren werden unterschiedliche User Interface (UI) Konzepte für die Smartphone App basierend auf dem Forschungsstand zur ergonomischen Gestaltung der UI von Apps diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-74608-7_60 b8f8ab86258f178e09c468678f621187;de;;;7.4.;;;Ein auf maschinellem Lernen basierender Ansatz zur Erkennung von Fahrermüdigkeit Übermüdung am Auto ist weltweit eine der Hauptursachen für Verkehrsunfälle. Ein System zur Fahrermüdigkeitserkennung, das den schläfrigen Fahrer rechtzeitig warnen kann, wird daher eine große Hilfe zur Verbesserung der Verkehrssicherheit sein. Dieses Papier bietet eine nicht-invasive, kamerabasierte innovative Technik zur Erkennung von Schläfrigkeit von Fahrern basierend auf Augenzwinkern und Mundbewegungen. Auf dem Armaturenbrett des Autos ist eine Kamera angebracht, die dem Fahrer zugewandt ist. Zunächst werden Gesicht, Auge und Mund des Fahrers aus den von der Kamera aufgenommenen Bildern extrahiert. Als nächstes werden Merkmale für Augen und Mund extrahiert und ein auf Klassifikatoren basierendes Erkennungssystem erkennt, ob der Fahrer müde ist. Die Ergebnisse zeigen, dass das vorgeschlagene System Anzeichen von Schläfrigkeit im Gesicht des Fahrers effizient erkennen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-5992-7_13 1fb012eeb7c4c1c3edd1cb909d4bb3ec;de;;;7.4.;;;Verwendung des maschinellen Lernalgorithmus zur Diagnose von Magenerkrankungen Die Medizin ist eine der reichhaltigen Datenquellen, die riesige Datenmengen generiert und speichert, angefangen bei der Beschreibung klinischer Symptome bis hin zu verschiedenen Arten von biochemischen Daten und Bildern von Geräten. Die manuelle Suche und Erkennung biomedizinischer Muster ist eine komplizierte Aufgabe aufgrund der riesigen Datenmenge. Data Mining kann den Prozess der Mustererkennung verbessern. Magenerkrankungen sind die häufigsten Erkrankungen, von denen über 60 % der menschlichen Bevölkerung betroffen sind. In dieser Arbeit wird die Klassifikationsleistung von vier nichtlinearen überwachten Lernalgorithmen, d. h. Logit, K-Nearest Neighbour, XGBoost und LightGBM für fünf Arten von Magenerkrankungen verglichen und diskutiert. Die Ziele dieser Forschung sind die Ermittlung von Trends bei der Verwendung oder Verbesserung von maschinellen Lernalgorithmen zur Erkennung von Symptomen von Magenerkrankungen sowie die Erforschung von Problemen bei der Verwendung von maschinellen Lernalgorithmen zur Erkennung von Magenerkrankungen. Bayes'sche Optimierung wird angenommen, um optimale Hyperparameter in den Algorithmen zu finden, was schneller ist als die Gittersuchmethode. Die Ergebnisse der Forschung zeigen, dass Algorithmen, die auf der Gradienten-Boosting-Technik (XGBoost und LightGBM) basieren, eine bessere Genauigkeit von mehr als 95 % des Testdatensatzes erzielen. Für die Diagnose und Bestätigung von Krankheiten, die die Genauigkeit verbessern müssen, schlagen wir in dem Artikel vor, Optimierungsmethoden zur Verbesserung der Genauigkeit mit maschinellen Lernalgorithmen zu verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-33394-2_27 8b2e98cb888ac927a542c445363c3355;de;;;7.4.;;;Verhaltensprofilierung von E-Mails Dieses Dokument beschreibt die forensischen und nachrichtendienstlichen Analysefunktionen des Email Mining Toolkit (EMT), das im Columbia Intrusion Detection (IDS) Lab entwickelt wird. EMT bietet die Möglichkeit zum Laden, Analysieren und Analysieren von E-Mail-Protokollen, einschließlich des Inhalts, in einer Vielzahl von Formaten. Aus den Bereichen Information Retrieval (IR) und Natural Language Processing (NLP) stehen viele Werkzeuge und Techniken zur Analyse von Dokumenten unterschiedlicher Art, einschließlich E-Mails, zur Verfügung. EMT erweitert diese Art von Analysen jedoch um eine völlig neue Reihe von Analysen, die das „Benutzerverhalten“ modellieren. EMT modelliert somit das Verhalten einzelner Benutzer-E-Mail-Konten oder Gruppen von Konten, einschließlich der „sozialen Cliquen“, die durch das E-Mail-Verhalten eines Benutzers sichtbar werden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44853-5_6 5fe3cd17061ffdd009801c15f130aa5f;de;;;7.4.;;;Der Erfolg ist in den Daten der Schüler verborgen Der Beitrag von Data Mining zur Bildung und Forschung in diesem Bereich erfolgt auf verschiedenen Ebenen und kann den Lernansatz der Lehrenden beeinflussen. Diese spezielle Studie konzentriert sich auf Probleme im Zusammenhang mit der Klassifizierung und der Attributauswahl. Es wird versucht, die Ergebnisse zu prognostizieren, bevor der Bildungsprozess endet, um einen möglichen Lernfehler zu vermeiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33412-2_41 fa95dcac28075a1edd5555968746ddb8;de;;;7.4.;;;Entdecken aller spezifischsten Sätze durch randomisierte Algorithmen Extended Abstract Data Mining kann in vielen Fällen als die Aufgabe angesehen werden, eine Darstellung einer Theorie eines Modells oder einer Datenbank zu berechnen. In diesem Artikel stellen wir einen randomisierten Algorithmus vor, der verwendet werden kann, um die Darstellung einer Theorie anhand der spezifischsten Sätze dieser Theorie zu berechnen. Zusätzlich zur Randomisierung verwendet der Algorithmus eine Verallgemeinerung des Konzepts der Hypergraph-Transversal. Wir wenden den allgemeinen Algorithmus an, um maximal häufige Mengen in 0/1-Daten zu entdecken und minimale Schlüssel in Relationen zu berechnen. Wir präsentieren einige empirische Ergebnisse zur Leistungsfähigkeit dieser Methoden an realen Daten. Wir zeigen auch einige komplexitätstheoretische Beweise für die Härte dieser Probleme.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-62222-5_47 50d9fe5efa8a4db56802b4975f17e4f1;de;;;7.4.;;;Beschleunigung von Algorithmen für maschinelles Lernen mit TensorFlow mithilfe von Thread-Mapping-Richtlinien Algorithmen des maschinellen Lernens (ML) werden zunehmend bei verschiedenen wissenschaftlichen und industriellen Problemen eingesetzt, wobei der Zeitpunkt der Ausführung dieser Algorithmen ein wichtiges Anliegen ist. In dieser Arbeit untersuchen wir Mappings von Threads in Multi-Core-Architekturen und deren Auswirkungen auf neue ML-Algorithmen, die mit Python und TensorFlow ausgeführt werden. Durch intelligentes Thread-Mapping konnten wir die Ausführungszeit sowohl der Trainings- als auch der Inferenzphase um bis zu 46 % bzw. 29 % reduzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-68035-0_5 e70f0f759afa897fbb00b845739b11ce;de;;;7.4.;;;Lerntheorien: Die Rolle von Erkenntnistheorie, Wissenschaft und Technologie Wissenschaftliche Theorien entstanden im 19. Jahrhundert, um natürliche und soziale Phänomene zu erklären, und bildeten die Grundlage für die Lerntheorien des 20. Jahrhunderts: Behaviorismus, Kognitivismus und Konstruktivismus. Behaviorismus und Kognitivismus basierten auf einer objektivistischen Epistemologie, die eine absolute „Wahrheit“, Effizienz und die Überlegenheit der Technologie betonte, die konstruktivistische Lerntheorie basierte auf einer Epistemologie des fortschreitenden Wandels, des Wissensaufbaus und der menschlichen Handlungsfähigkeit. Der Aufstieg des pädagogischen Computing und der Computernetzwerke im späten 20. und frühen 21. Jahrhundert verschärfte erkenntnistheoretische und pädagogische Unterschiede: Objektivistische Erkenntnistheorien betonten die Rolle der Technologie, menschliche Lehrer zu ersetzen. Es entstanden auch Lerntheorien auf der Grundlage konstruktivistischer Epistemologien, die die Rolle der Technologie betonen, die menschliche Intelligenz zu erweitern, anstatt sie zu ersetzen. Die Theorie des kollaborativen Online-Lernens, später in Kollaborativismus umbenannt, ist die wichtigste Lerntheorie und -pädagogik, die dafür spricht, dass die Technologie voranschreitet, anstatt die menschliche Handlungsfähigkeit zu ersetzen, und empirische Beweise für die Verbesserung des menschlichen Lernens im digitalen Zeitalter liefert.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-319-17727-4_48-1 a60821e50d58abadab5c5e363b2dbf19;de;;;7.4.;;;Ein effizientes, zwischenspeicherbares, sicheres Skalarproduktprotokoll für datenschutzerhaltendes Data Mining Die sichere Berechnung von Skalarprodukten zwischen privaten Vektoren ist eine häufige Operation bei datenschutzwahrenden Data-Mining-Algorithmen, insbesondere wenn Daten vertikal auf viele Parteien aufgeteilt werden. Bestehende sichere skalare Produktprotokolle auf Basis von Kryptographie sind teuer, insbesondere wenn sie wiederholt in datenschutzwahrenden Data-Mining-Algorithmen ausgeführt werden. Um dieses Problem zu beheben, schlagen wir ein effizientes, zwischenspeicherbares, sicheres Skalarproduktprotokoll namens protocol vor;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23544-3_27 f5d0cbb8fd36c381613d66f52c39d279;de;;;7.4.;;;Auf dem Weg zu einer sicheren IoT-Architektur Es wird der Entwurf einer cybersicheren Internet of Things (IoT)-Architektur für das Supply Chain Risk Management vorgeschlagen. Der Zweck der Architektur besteht darin, Anfälligkeiten für böswillige Lieferkettenrisiken durch Anwendung von Techniken des maschinellen Lernens (ML), der kryptografischen Hardwareüberwachung (CHM) und der verteilten Netzwerkkoordination (DNC) zu reduzieren, um unvorhergesehene Ausfälle von Hardwarekomponenten und böswillige Angriffe zu verhindern. Diese Querschnittstechnologien werden zu einer Instrumentation-and-Control/Operator-in-the-Loop (ICOL)-Architektur kombiniert, die lernt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-21927-7_14 6e1d047b59356e7c2820756cfc69c313;de;;;7.4.;;;Die Studie über Data Mining zu CRM basierend auf einem groben Set Der Schlüssel zum Wettbewerb ist, dass ein Unternehmen die Anforderungen des Kunden erfüllen kann, es macht das CRM zum Fokus der Entwicklung, die Forschung von CRM auf der Grundlage von Data Mining wird in diesem korrelativen Bereich zu einem Populär. Konzept, Charakter und grundlegende Wirkungen von CRM, Forschung zum Data Mining mit CRM werden vorgestellt. In der Data-Mining-Technologie wird die Rough-Set-Theorie eingeführt. Derzeit sind Wissensreduktion und Decision Rule Mining in Decision die Hotspots der Forschung. Mit heuristischen Informationen wird die minimale Entscheidungsregelerfassung basierend auf der Rough-Set-Theorie erforscht. Abschließend wird anhand eines Beispiels die Wirksamkeit und Durchführbarkeit dieser Methode überprüft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14350-2_62 1ecda90fc8165352de387304bd926123;de;;;7.4.;;;Erlernen tiefer Repräsentationen für das semantische Bildparsing: ein umfassender Überblick Semantisches Bildparsing, das sich auf den Prozess der Zerlegung von Bildern in semantische Bereiche und der Konstruktion der Strukturdarstellung der Eingabe bezieht, hat in letzter Zeit ein breites Interesse im Bereich der Computer Vision geweckt. Die jüngste Anwendung des Deep Repräsentationslernens hat dieses Gebiet in eine neue Entwicklungsstufe getrieben. In diesem Papier fassen wir drei Aspekte des Forschungsfortschritts zum semantischen Bildparsing zusammen, d. h. semantische Segmentierung auf Kategorieebene, semantische Segmentierung auf Instanzebene und darüber hinaus. Konkret überprüfen wir zunächst die Rahmenbedingungen für jede Aufgabe und stellen die entsprechenden Varianten vor. Die Vorteile und Grenzen jeder Methode werden ebenfalls diskutiert. Darüber hinaus präsentieren wir einen umfassenden Vergleich verschiedener Benchmark-Datensätze und Bewertungsmetriken. Schließlich untersuchen wir die zukünftigen Trends und Herausforderungen des semantischen Bildparsings.;-;-;-;https://link.springer.com/article/10.1007/s11704-018-7195-8 73ab5600ab005ed7efb41b6821215a6b;de;;;7.4.;;;Vergleich der Eins-gegen-Eins- und Eins-gegen-Alle-Methoden bei der Bildklassifizierung benthischer Makroinvertebraten Dieser Artikel untersucht die automatisierte Identifizierung und Klassifizierung benthischer Makroinvertebraten mit Mehrklassen-Support-Vektor-Maschinen. Darüber hinaus untersuchen wir, wie sich die Merkmalsauswahl auswirkt, wenn Eins-gegen-Eins- und Eins-gegen-all-Methoden verwendet werden. Schließlich untersuchen wir, was für die Anzahl der Tie-Situationen mit unterschiedlichen Kernel-Funktionsauswahlen passiert. Unsere umfangreichen experimentellen Tests mit drei Feature-Sets und sieben Kernel-Funktionen zeigten, dass die Eins-gegen-Eins-Methode am besten für die automatisierte Identifizierung benthischer Makroinvertebraten geeignet ist. Außerdem haben wir deutliche Unterschiede zur Anzahl der Tie-Situationen mit unterschiedlichen Kernel-Funktionen erhalten. Darüber hinaus hatte die Merkmalsauswahl einen deutlichen Einfluss auf die Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23199-5_30 b39296ce332fc3e942f637891a8db053;de;;;7.4.;;;Automatische Erkennung von Dokumenten mit persönlichen Gesundheitsinformationen Mit der zunehmenden Nutzung von Computern und Internet werden persönliche Gesundheitsinformationen (PHI) über mehrere Institute verteilt und oft auf mehrere Geräte verstreut und in verschiedenen Formaten gespeichert. Bei nicht-traditionellen Krankenakten wie E-Mails und E-Dokumenten mit PHI besteht ein hohes Risiko, dass die Privatsphäre verloren geht. Wir stehen vor den Herausforderungen, PHI in einer verteilten Umgebung zu lokalisieren und zu verwalten. Das Ziel dieser Studie ist es, elektronische Dokumente in PHI und Nicht-PHI zu klassifizieren. Für diese Textkategorisierungsaufgabe wurde eine Methode des überwachten maschinellen Lernens verwendet. Drei Klassifikatoren: SVM, Entscheidungsbaum und Naive Bayesian wurden verwendet und an drei Datensätzen getestet. Lexikalische, semantische und syntaktische Merkmale und deren Kombinationen wurden hinsichtlich ihrer Effektivität bei der Klassifikation von PHI-Dokumenten verglichen. Die Ergebnisse zeigen, dass die Kombination semantischer und/oder syntaktischer mit lexikalischen Merkmalen für die PHI-Klassifikation effektiver ist als lexikalische Merkmale allein. Die Methode des überwachten maschinellen Lernens ist effektiv bei der Klassifizierung von Dokumenten in PHI und Nicht-PHI.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02976-9_46 ce30d106b4588c8d8cb6f901225ef854;de;;;7.4.;;;Intelligente Selektion von humanen miRNAs und Maus-mRNAs im Zusammenhang mit obstruktiver Nephropathie Die obstruktive Nephropathie (ON) ist eine Nierenerkrankung, deren Pathologie vermutlich durch verschiedene molekulare Prozesse verstärkt wird. In der aktuellen Studie wenden wir einen intelligenten Workflow, der in der Rapidminer Data-Mining-Plattform implementiert ist, auf zwei verschiedene ON-Datensätze an. Unser Ziel ist es, die wichtigsten Akteure in zwei entsprechenden molekularen Informationsebenen auszuwählen: humane miRNA und Maus-mRNA. Ein Vorwärtsauswahlverfahren mit einem eingebetteten Nächstnachbarn-Klassifikator wird anfänglich angewendet, um die wichtigsten Merkmale in jeder Ebene auszuwählen. Die resultierenden Merkmale werden als nächstes Klassifizierern zugeführt, die geeignet getestet werden, unter Verwendung einer Leave-One-Out-Resampling-Technik, um die Relevanz der ausgewählten Eingabemerkmale zu bewerten, wenn sie verwendet werden, um Subjekte in Ausgabeklassen zu klassifizieren, die durch den ON-Schweregrad definiert sind. Vorläufige Ergebnisse zeigen, dass hohe Klassifikationsgenauigkeiten erzielt werden und werden durch die Tatsache gestützt, dass die ausgewählten miRNAs oder mRNAs innerhalb der differentiellen Expressionsanalyse unter Verwendung derselben Datensätze als signifikant befunden wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23960-1_54 08019335f1ca7927520096e9503499c9;de;;;7.4.;;;Ein leichtes neuronales Netzwerk zur Erkennung von Arrhythmien Ein leichtgewichtiger Deep-Learning-Algorithmus namens LTE-Netzwerk wurde entwickelt, um Arrhythmien aus Original-Elektrokardiogrammen (EKG) mit kleiner Modellgröße automatisch zu erkennen, ohne auf merkliche Genauigkeit zu verzichten. Der Algorithmus basiert auf einer kaskadierten Architektur, die punkt-tiefenweise Faltungen verwendet, die eine punktweise Faltung mit einer tiefenweisen Faltung kombinieren, um ein neunschichtiges, leichtgewichtiges neuronales Faltungsnetzwerk aufzubauen. Darüber hinaus verwenden wir eine optimierte Verlustfunktion und einen Adam-Optimierer, die Klassifikationsfehler minimieren und das Problem des verschwindenden Gradienten im Lernprozess lindern. Die Experimente werden in Original-Datensätzen von EKG-Signalen durchgeführt, die aus MIT-BIH-EKG-Datenbanken stammen. Es steht im Gegensatz zu AlexNet und MobileNet, und die Ergebnisse bestätigen, dass das LTE-Netzwerk andere in Bezug auf Genauigkeit und Effizienz übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6837-0_14 e5fda2394df519e66ed048f5d1dbb70a;de;;;7.4.;;;Zusammenführung des K-Means-Clustering-Algorithmus mit standardmäßigen MLP- und SVM-basierten neuronalen Netzwerken zur Implementierung eines Netzwerk-Intrusion-Detection-Systems Intrusion Detection Systems (IDS) werden in der Regel im Waffenlager für Netzwerk- und Datensicherheit zu einer wesentlichen Komponente. Da eine riesige Menge vorhandener Offline-Daten und neu erscheinender Netzwerkaufzeichnungen analysiert werden müssen, spielen Data-Mining-Techniken eine entscheidende Rolle bei der Entwicklung von IDS. Die Schlüsselidee bei der Verwendung von Data-Mining-Techniken für IDS besteht darin, die Klassifikationsfähigkeit von auf überwachtem Lernen basierenden neuronalen Netzen und die Clustering-Fähigkeiten von auf unüberwachtem Lernen basierenden neuronalen Netzen zu nutzen. In diesem Papier schlagen wir ein effizientes Intrusion Detection-Modell vor, indem wir kompetente Data-Mining-Techniken wie K-Means-Clustering, Multilayer Layer Perception (MLP) neuronales Netzwerk und Support Vector Machine (SVM) zusammenführen, die die Vorhersage von Netzwerkeinbrüchen erheblich verbessern. Da die Anzahl der für das Intrusion Detection-Problem gewünschten Cluster vom Benutzer a priori definiert wird und sich nicht ändert, haben wir die K-Means-Clustering-Technik verwendet. In der letzten Phase wird der SVM-Klassifikator verwendet, da er im Vergleich zu den anderen Klassifikatoren überlegene Ergebnisse für die binäre Klassifizierung liefert. Wir haben die besten Ergebnisse erhalten und diese werden mit Ergebnissen anderer bestehender Methoden verglichen, um die Wirksamkeit unseres Modells zu beweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07350-7_31 d9a54c605fc4074c109f545a0310e73c;de;;;7.4.;;;Kundenbeziehungsmanagement mit Partial Focus Feature Reduction Effektive Data-Mining-Lösungen wurden im Customer Relationship Management (CRM) lange erwartet, um das Kundenverhalten genau vorherzusagen, aber in vielen Forschungsarbeiten haben wir suboptimale CRM-Klassifizierungsmodelle aufgrund der minderwertigen Datenqualität des CRM-Datensatzes beobachtet. Dieses Papier wird vorgeschlagen, unser neues Klassifizierungs-Framework mit der Bezeichnung Partial Focus Feature Reduction vorzustellen, das bereit ist, CRM-Datensätze mit reduzierter Dimensionalität aufzulösen, indem eine Sammlung effizienter Datenvorverarbeitungstechniken verwendet wird, die eine speziell zugeschnittene Modalitätsgruppierungsmethode charakterisieren, um die Merkmalsrelevanz signifikant zu verbessern und zu reduzieren die Kardinalität der Merkmale, um die Rechenkosten zu reduzieren. Das resultierende Modell liefert ein sehr gutes Performance-Ergebnis auf einem großen, komplizierten realen CRM-Datensatz, der trotz aller Datenanomalien viel besser ist als diejenigen aus komplexen Modellen, die von renommierten Data-Mining-Praktikern entwickelt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34478-7_4 b89a9934b95711b99d4a82fcd501406b;de;;;7.4.;;;Eine neue Fuzzy-Entscheidungsbaum-Klassifizierungsmethode für das Mining von Hochgeschwindigkeits-Datenströmen basierend auf binären Suchbäumen Die Konstruktion von Entscheidungsbäumen ist ein gut untersuchtes Problem im Data Mining. In letzter Zeit gab es großes Interesse am Mining von Datenströmen. Domingos und Hulten haben einen One-Pass-Algorithmus für Entscheidungsbaumkonstruktionen vorgestellt. Ihr System verwendet die Hoeffding-Ungleichung, um eine Wahrscheinlichkeitsgrenze für die Genauigkeit des konstruierten Baums zu erreichen. Gamaet al. haben VFDT in zwei Richtungen erweitert. Ihr System VFDTc kann mit kontinuierlichen Daten umgehen und leistungsfähigere Klassifizierungstechniken bei Baumblättern verwenden. Peng et al. präsentieren weiche Diskretisierungsmethode zur Lösung kontinuierlicher Attribute im Data Mining. In diesem Papier gehen wir diese Probleme erneut auf und implementierten ein System sVFDT für das Data Stream Mining. Dazu leisten wir folgende Beiträge: 1) Wir präsentieren einen Binary Search Tree (BST)-Ansatz zur effizienten Handhabung kontinuierlicher Attribute. Die Verarbeitungszeit für das Einfügen von Werten beträgt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73814-5_20 3a3652bcb4c92f3797c4fe72305be277;de;;;7.4.;;;Clustering über lokale Regression Dieses Papier befasst sich mit dem Ansatz des lokalen Lernens für Clustering, der auf der Idee basiert, dass bei einem guten Clustering das Clusterlabel jedes Datenpunkts basierend auf seinen Nachbarn und deren Clusterlabels gut vorhergesagt werden kann. Wir schlagen einen neuartigen, auf lokalem Lernen basierenden Clustering-Algorithmus vor, der die Kernel-Regression als lokalen Label-Prädiktor verwendet. Obwohl die Summe des absoluten Fehlers anstelle der Summe des quadratischen Fehlers verwendet wird, erhalten wir dennoch einen Algorithmus, der die Daten durch Ausnutzung der Eigenstruktur einer dünnbesetzten Matrix gruppiert. Experimentelle Ergebnisse an vielen Datensätzen belegen die Wirksamkeit und das Potenzial der vorgeschlagenen Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87481-2_30 f70c68d60b3e31e15929022459107331;de;;;7.4.;;;Verbesserung von Produktempfehlungssystemen für spärliche Binärdaten Kommerzielle Empfehlungssysteme verwenden verschiedene Data-Mining-Techniken, um Benutzern während Online-Echtzeitsitzungen geeignete Empfehlungen zu geben. Veröffentlichte Algorithmen konzentrieren sich mehr auf die diskreten Benutzerbewertungen als auf binäre Ergebnisse, was ihre Vorhersagefähigkeiten beeinträchtigt, wenn die Nutzungsdaten spärlich sind. Das in diesem Papier vorgeschlagene System, e-VZpro, ist ein auf Association Mining basierendes Empfehlungstool, das entwickelt wurde, um diese Probleme durch einen zweiphasigen Ansatz zu überwinden. In der ersten Phase werden Batches von historischen Kundendaten durch Association Mining analysiert, um die Assoziationsregeln für die zweite Phase zu bestimmen. In der zweiten Phase wird ein Scoring-Algorithmus verwendet, um die Empfehlungen für den Kunden online zu ranken. Die zweite Phase unterscheidet sich vom traditionellen Ansatz und ein empirischer Vergleich zwischen den in e-VZpro verwendeten Methoden und anderen kollaborativen Filtermethoden, einschließlich Abhängigkeitsnetzwerken, Item-basiertem und Assoziations-Mining, wird in diesem Papier bereitgestellt. Dieser Vergleich wertet die in jeder der oben genannten Methoden verwendeten Algorithmen anhand von zwei internen Kundendatensätzen und einem Benchmarkdatensatz aus. Die Ergebnisse dieses Vergleichs zeigen deutlich, dass e-VZpro im Vergleich zu Abhängigkeitsnetzwerken und Association Mining gut abschneidet. Im Allgemeinen weisen itembasierte Algorithmen mit Cosinus-Ähnlichkeitsmaßen die beste Leistung auf.;-;-;-;https://link.springer.com/article/10.1023/B%3ADAMI.0000031629.31935.ac 473ec269459c2a1280295b69b7cd9324;de;;;3.2.;;;Ein Koalitionsspiel, um durch Sympathie und Engagement aufkommende Kooperationen in Ad-hoc-Netzwerken zu erreichen Die Zusammenarbeit zwischen Knoten ist für Ad-hoc-Netzwerke von grundlegender Bedeutung. In solchen Systemen gibt es keine zentrale Kontrolle und die Netzwerkkomponenten müssen sich selbst organisieren, um ihre individuellen und kollektiven Ziele zu erreichen. Zu diesen Bedingungen gehören Kooperationsmechanismen während des Netzbetriebs zur Verbesserung der Systemfähigkeit zur Lösung von Problemen durch kollektives Handeln. In diesem Artikel wird Socially Inspired Computing verwendet, um ein Koalitionsspiel vorzuschlagen, das auf den Konzepten der Sympathie und des Engagements basiert, um eine entstehende Zusammenarbeit in Ad-hoc-Netzwerken zu erreichen. Die Ergebnisse zeigen, dass Kooperationen sogar in Szenarien entstehen können, in denen Agenten keine kooperative Strategie haben, was zu einer besseren Netzwerkleistung und einer geeigneten Ressourcenverteilung führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00350-0_30 022d7655f1e9c1a9f633817809f43f18;de;;;7.4.;;;Lernansätze für die Verarbeitung natürlicher Sprache Der Zweck dieses Kapitels ist eine Einführung in das Gebiet der konnektionistischen, statistischen und symbolischen Lernansätze für die Verarbeitung natürlicher Sprache, basierend auf den Beiträgen in diesem Buch. Die Einführung ist in drei Teile gegliedert: (1) neuronale Netze und konnektionistische Ansätze, (2) statistische Ansätze und (3) symbolische maschinelle Lernansätze. Wir geben einen kurzen Überblick über die wichtigsten Methoden, die in jedem Bereich verwendet werden, fassen die hier vorgestellten Arbeiten zusammen und geben einige zusätzliche Referenzen. Im letzten Abschnitt werden wir anhand der Workshop-Diskussionen und Buchbeiträge wichtige allgemeine Themen und Trends beleuchten.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-60925-3_34 41045788c14e562ce22369354fc979da;de;;;7.4.;;;WaveNano: ein Nanoporen-Basenaufrufer auf Signalebene durch simultane Vorhersage von Nukleotidmarkierungen und Bewegungsmarkierungen durch bidirektionale WaveNets Der Oxford MinION Nanopore Sequencer ist das kürzlich attraktive Genomsequenzierungsgerät der dritten Generation, das tragbar und nicht größer als ein Mobiltelefon ist. Trotz der Vorteile von MinION, ultralange Lesevorgänge in Echtzeit zu sequenzieren, verhindert die hohe Fehlerrate der bestehenden Base-Calling-Methoden, insbesondere indels (Einfügungen und Löschungen), den Einsatz in einer Vielzahl von Anwendungen.;-;-;-;https://link.springer.com/article/10.1007/s40484-018-0155-4 3204dc2eea2c9e49b282650f2fda5c74;de;;;7.4.;;;Bionik in intelligenten Sensor- und Aktor-Automatisierungssystemen Intelligente Maschinen sind wirklich der Traum einer alten Menschheit. Mit zunehmender technologischer Entwicklung stiegen auch die Anforderungen an intelligente Geräte. Allerdings fehlt es der Künstlichen Intelligenz (KI) bisher an Lösungen für die Anforderungen wirklich intelligenter Maschinen, die sich problemlos in die tägliche menschliche Umgebung integrieren können. Gegenwärtige Hardware mit einer Rechenleistung von Milliarden von Operationen pro Sekunde (aber ohne ein Modell menschlicher Intelligenz) konnte im Vergleich zu der frühen KI-Zeit nicht wesentlich zur Intelligenz von Maschinen beitragen. Natürlich gibt es tolle Ergebnisse. Maschinen finden auf der Karte den kürzesten Weg zwischen weit voneinander entfernten Städten, Algorithmen lassen Sie Informationen finden, die nur mit wenigen Schlüsselwörtern beschrieben werden. Aber noch keine Maschine kann uns eine Tasse Kaffee aus der Küche holen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11934-7_10 7856c869813138a1719c5dff128f4927;de;;;7.4.;;;Bewertung von CBR-Systemen unter Verwendung verschiedener Datenquellen: Eine Fallstudie Die Komplexität und der hohe Konstruktionsaufwand von Fallbasen machen es sehr schwierig, wenn nicht unmöglich, ein CBR-System, insbesondere ein wissensintensives CBR-System, mit statistischen Auswertungsverfahren auf vielen Fallbasen zu bewerten. In diesem Beitrag schlagen wir eine Evaluationsstrategie vor, die sowohl viele einfache Fallbasen als auch einige komplexe Fallbasen verwendet, um ein CBR-System zu evaluieren, und zeigen, wie diese Strategie verschiedene Evaluationsziele erfüllen kann. Die identifizierten Evaluationsziele werden in zwei Kategorien eingeteilt: domänenunabhängig und domänenabhängig. Für die Bewertungsziele der ersten Kategorie wenden wir die statistische Bewertungsmethode mit vielen einfachen Fallbasen (z domänenspezifische Fallbasen. Wir wenden diese kombinierte Evaluationsstrategie an, um unsere wissensintensive dialogorientierte CBR-Methode als Fallstudie zu evaluieren.;-;-;-;https://link.springer.com/chapter/10.1007/11805816_11 9cf54d53628c7c606e58107e24814b94;de;;;7.4.;;;Jüngste Entwicklungen, die Ensembleglätter und tiefe generative Netzwerke für den Abgleich der Faziesgeschichte kombinieren Ensemble Smoothers gehören zu den erfolgreichsten und effizientesten Techniken, die derzeit für den History-Matching verfügbar sind. Da diese Methoden jedoch auf Gaußschen Annahmen beruhen, wird ihre Leistung stark beeinträchtigt, wenn die frühere Geologie in Form komplexer Faziesverteilungen beschrieben wird. Inspiriert von den beeindruckenden Ergebnissen, die mit tiefen generativen Netzwerken in Bereichen wie der Bild- und Videogenerierung erzielt wurden, starteten wir eine Untersuchung, die sich auf den Einsatz von Autoencodern konzentrierte, um eine kontinuierliche Parametrisierung für Faziesmodelle zu konstruieren. In unserer vorherigen Veröffentlichung haben wir einen Convolutional Variational Autoencoder (VAE) mit dem Ensemble Smoother with Multiple Data Assimilation (ES-MDA) für historienabgleichende Produktionsdaten in Modellen kombiniert, die mit Mehrpunkt-Geostatistik generiert wurden. Trotz der guten Ergebnisse, die in unserer vorherigen Veröffentlichung berichtet wurden, ist eine wesentliche Einschränkung der entworfenen Parametrisierung die Tatsache, dass sie keine entfernungsbasierte Lokalisierung während des Ensemble-Smoother-Updates ermöglicht, was ihre Anwendung bei groß angelegten Problemen einschränkt. Die vorliegende Arbeit ist eine Fortsetzung dieses Forschungsprojekts, das sich auf zwei Aspekte konzentriert: Erstens vergleichen wir neun verschiedene Formulierungen, darunter VAE, Generative Adversarial Network (GAN), Wasserstein GAN (WGAN), WGAN mit Gradient Penalty, WGAN mit Spectral Normalization, Variational Auto-Encoding-GAN, Hauptkomponentenanalyse (PCA) mit Zyklus-GAN, PCA mit Übertragungsstil-Netzwerk und VAE mit Stilverlust. Diese Formulierungen werden in einem synthetischen Anamnese-Matching-Problem mit kanalisierten Fazies getestet. Zweitens schlagen wir zwei Strategien vor, um die Verwendung der entfernungsbasierten Lokalisierung mit den Deep-Learning-Parametrisierungen zu ermöglichen.;-;-;-;https://link.springer.com/article/10.1007/s10596-020-10015-0 86b614131a595718d404213b8a237e30;de;;;7.4.;;;Erkennen handgeschriebener Zeichen mit lokalen Deskriptoren und vielen visuellen Wörtern In diesem Beitrag schlagen wir die Verwendung mehrerer Merkmalsextraktionsverfahren vor, von denen bereits gezeigt wurde, dass sie für die Objekterkennung gut funktionieren, um handgeschriebene Zeichen zu erkennen. Diese Verfahren sind das Histogramm orientierter Gradienten (HOG), ein Beutel visueller Wörter unter Verwendung von Pixelintensitätsinformationen (BOW) und ein Beutel visueller Wörter unter Verwendung extrahierter HOG-Merkmale (HOG-BOW). Diese Merkmalsextraktionsalgorithmen werden mit anderen wohlbekannten Techniken verglichen: Hauptkomponentenanalyse, die diskrete Kosinustransformation und die direkte Verwendung von Pixelintensitäten. Die extrahierten Merkmale werden zur Klassifikation an drei verschiedene Typen von Support-Vektor-Maschinen übergeben, nämlich eine lineare SVM, eine SVM mit dem RBF-Kernel und eine lineare SVM mit L2-Regularisierung. Wir haben die sechs verschiedenen Merkmalsdeskriptoren und drei SVM-Klassifikatoren für drei verschiedene handschriftliche Zeichendatensätze ausgewertet: Bangla, Odia und MNIST. Die Ergebnisse zeigen, dass die HOG-BOW-, BOW- und HOG-Methode die anderen Methoden deutlich übertreffen. Die HOG-BOW-Methode schneidet mit der L2-regularisierten SVM am besten ab und erreicht bei allen drei Datensätzen sehr hohe Erkennungsgenauigkeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23983-5_24 7116bc5d96a7ed62afa5c8b99aa44e22;de;;;7.4.;;;Mobiles Agentenmodell mit effizienter Kommunikation für verteiltes Data Mining Dieser Beitrag stellt die Verwaltung großer verteilter Systeme unter Verwendung des Konzepts mobiler Agenten in einer verteilten Umgebung vor, die zu einer zunehmend herausfordernden Aufgabe wird. Das primäre Ziel besteht darin, eine effiziente Nutzung von Ressourcen, Diensten von Computersystemen und Netzwerken sicherzustellen, um den Endbenutzern mithilfe des mobilen Agenten mit dezentraler Verarbeitung und Steuerung in verteilten Ressourcen zeitnahe Dienste bereitzustellen, um den Netzwerkverkehr zu minimieren und Verwaltungsaufgaben in . zu beschleunigen verteilte Umgebung, mehr Skalierbarkeit und mehr Flexibilität bei der Entwicklung und Wartung der Anwendungen. Das Problem bei den herkömmlichen Techniken besteht darin, dass mit zunehmender Anzahl besuchter Knoten auch die Größe des mobilen Agenten zunimmt und die Migration schwieriger wird. Eine mögliche Lösung für dieses Problem besteht darin, eine feste Anzahl von Knoten zu besuchen, zum Agentenheim zurückzukehren oder alle Daten dorthin zu senden (Verringerung der Größe des mobilen Agenten) und die Aufgabe auf den verbleibenden Knoten erneut zu starten. Die anfängliche Größe eines mobilen Agenten wirkt sich auch auf die Agentenleistung aus, denn je größer die Größe, desto schwieriger die Migration.;-;-;-;https://link.springer.com/chapter/10.1007/978-81-322-1299-7_39 73a5a8768adf76ec6a20662fa6fca642;de;;;7.4.;;;QL-HEFT: ein neuartiges Schema für maschinelles Lernen basierend auf einer Cloud-Computing-Umgebung Cloud Computing ist ein Computermodell, das die Ressourcen des Internets vollständig nutzt, um die Nutzung der Ressourcen zu maximieren. Aufgrund einer großen Anzahl von Benutzern und Aufgaben ist es wichtig, eine effiziente Planung der von Benutzern eingereichten Aufgaben zu erreichen. Die Aufgabenplanung ist eines der entscheidenden und herausfordernden nicht-deterministischen polynomial-harten Probleme im Cloud-Computing. Bei der Aufgabenplanung ist die Erzielung einer kürzeren Makespan ein wichtiges Ziel und hängt mit den Vor- und Nachteilen des Algorithmus zusammen. Algorithmen des maschinellen Lernens stellen eine neue Methode zur Lösung dieser Art von Problemen dar. In diesem Beitrag schlagen wir einen neuartigen Task-Scheduling-Algorithmus namens QL-HEFT vor, der;-;-;-;https://link.springer.com/article/10.1007/s00521-019-04118-8 4ac0b237be2d07789b84042f37dfb239;de;;;7.4.;;;Robotische Prozessautomatisierung und Konsequenzen für Wissensarbeiter – eine Mixed-Method-Studie Dieser Artikel untersucht eine zu optimistische und hartnäckige Behauptung in der Literatur, dass Roboterprozessautomatisierung (RPA) nur Wissensarbeiter von alltäglichen Aufgaben befreit und interessantere Arbeiten einführt. Wir untersuchen diese Behauptung und andere Konsequenzen für Wissensarbeiter anhand von Daten aus einer sequentiellen quantitativ-qualitativen Mixed-Method-Studie in Norwegen. 88 RPA-Nutzer aus verschiedenen Sektoren und Industrien wurden zuerst befragt, um Unterschiede in der Nutzung und Auswirkungen von RPA zu identifizieren. Anschließend wurden die Unterschiede in 24 ausführlichen Interviews im öffentlichen und privaten Sektor untersucht, einschließlich der Finanzindustrie, des verarbeitenden Gewerbes sowie der Öl- und Gasindustrie. Die Ergebnisse deuten darauf hin, dass RPA verwendet wird, um Wissensarbeiter entweder zu entlassen oder nicht wieder einzustellen, aber auch, um Wissensarbeiter mit interessanteren Aufgaben zu befähigen. Der private Sektor unterschied sich vom öffentlichen Sektor darin, dass private Finanzunternehmen den stärksten Rückgang des Beschäftigungsbedarfs verzeichneten. RPA führt oft indirekt zu Entlassungen und reduziert den Bedarf an Beratern, insbesondere in Finanzunternehmen. Im Gegensatz dazu nutzen börsennotierte Unternehmen RPA eher für Innovationen in ihrer Leistungserstellung durch eine höhere Qualität bei der Datenerfassung, der Rechnungsbearbeitung und der Datenmigration zwischen Systemen. Wir kommen zu dem Schluss, dass RPA als Managementinstrument reift, das durch Kostensenkungen durch reduzierte Beschäftigung motiviert ist, und schlagen Vorschläge für weitere Forschungen vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-44999-5_10 7764b6905d33242de1e43194eb74e2ee;de;;;7.4.;;;Überblick über maschinelle Lerntechniken zur Energieoptimierung von Haushaltsgeräten Der Energieverbrauch von Ressourcen in einem Haushalt war in der jüngsten Studie ein regelmäßiges Thema. Der größte Teil der in Haushalten verbrauchten Energie ist für die Benutzer unsichtbar, was zu einem Anstieg des Energieverbrauchs führt. Der Energieverbrauch der Geräte wurde mithilfe verschiedener Techniken des maschinellen Lernens geschätzt. Laut der Literaturübersicht wurden mehrere Techniken des maschinellen Lernens zur Optimierung des Energieverbrauchs verwendet. Daher präsentieren wir in diesem Papier einen Überblick über verschiedene Techniken des maschinellen Lernens für Energieeffizienz und haben ihre verschiedenen Parameter und verwendeten Ansätze tabellarisch dargestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-0586-3_26 fd5f231ee1c4ad54c9610630b7ce3105;de;;;7.4.;;;Modellauswahl mit minimaler Nachrichtenlänge: ein Beispiel mit Pollendaten In diesem Beitrag untersuchen wir die Verwendung des Kriteriums der minimalen Nachrichtenlänge bei der Bewertung alternativer Datenmodelle, wenn die Stichproben räumlich und implizit zeitlich seriell geordnet sind. Viele Daten aus Vegetationsstudien können in einer Reihenfolge angeordnet werden, und in solchen Fällen kann der Benutzer wählen, die Gruppierung nach Zonen zu beschränken, anstatt eine uneingeschränkte Gruppierung vorzuziehen. Wir verwenden das Prinzip der minimalen Nachrichtenlänge, um zu bestimmen, ob eine solche Auswahl ein effektives Modell der Daten liefert. Pollendaten liefern einen geeignet organisierten Satz von Proben, haben jedoch andere Eigenschaften, die es wünschenswert machen, mehrere verschiedene Modelle für die Verteilung von Palynomorphen innerhalb der Cluster zu untersuchen. Die Ergebnisse legen nahe, dass die Zonierung kein besonders bevorzugtes Modell ist, da sie nur einen kleinen Teil der vorhandenen Muster erfasst. Es stellt eine Benutzererwartung hinsichtlich der Art der Variation in den Daten dar und führt dazu, dass einige Muster vernachlässigt werden. Durch die Verwendung von uneingeschränktem Clustering innerhalb von Zonen können wir einen Teil dieses übersehenen Musters wiederherstellen. Anschließend untersuchen wir weitere Beweise für die Natur der Vegetationsveränderung und diskutieren schließlich die Nützlichkeit der minimalen Nachrichtenlänge als Leitprinzip bei der Modellwahl und ihre Beziehung zu anderen möglichen Kriterien.;-;-;-;https://link.springer.com/article/10.1556/ComEc.11.2010.2.7 6a18340c3a23f0ef1e94d82c11817998;de;;;7.4.;;;Fragmentarische Synchronisation in chaotischen neuronalen Netzen und Data Mining Dieses Papier schlägt ein verbessertes Modell eines chaotischen neuronalen Netzes vor, das verwendet wird, um hochdimensionale Datensätze mit Querschnitten im Merkmalsraum zu clustern. Eine gründliche Studie wurde entwickelt, um das mögliche Verhalten von Hunderten wechselwirkender chaotischer Oszillatoren aufzuklären. Neuer Synchronisationstyp - fragmentarische Synchronisation innerhalb der Dynamik von Clusterelementen wurde gefunden. Das Papier beschreibt eine Methode zur Erkennung fragmentarischer Synchronisation und ihre Vorteile bei der Anwendung auf Data-Mining-Probleme.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02319-4_38 043cec5579d91fba97c7334e18331bb6;de;;;7.4.;;;Ein Framework zur Modellierung einer positiven Klassenerweiterung mit einem einzelnen Snapshot Bei vielen realen Data-Mining-Aufgaben kann sich die Abdeckung des Zielkonzepts im Laufe der Zeit ändern. Zum Beispiel kann sich die Abdeckung des „gelernten Wissens“ eines Schülers heute von seinem „gelernten Wissen“ von morgen unterscheiden, da das „gelernte Wissen“ des Schülers täglich erweitert wird. Um ein Modell zu lernen, das in der Lage ist, genaue Vorhersagen zu treffen, muss die Entwicklung des Konzepts berücksichtigt werden, und daher ist eine Reihe von Datensätzen erforderlich, die zu unterschiedlichen Zeitpunkten gesammelt wurden. In vielen Fällen gibt es jedoch nur einen einzigen Datensatz statt einer Reihe von Datensätzen. Mit anderen Worten, nur a;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68125-0_38 5c48bfa50bcfdc963c9506abcdf9adec;de;;;7.4.;;;Fuzzy-Entscheidungsbaum-Induktionsansatz für Mining-Fuzzy-Assoziationsregeln Decision Tree Induction (DTI), eine der Data-Mining-Klassifikationsmethoden, wird in dieser Forschung zur prädiktiven Problemlösung bei der Analyse der medizinischen Erfolgsgeschichten von Patienten verwendet. In diesem Papier erweitern wir das Konzept der DTI um sinnvolle Fuzzy-Labels, um menschliches Wissen für das Mining von Fuzzy-Assoziationsregeln auszudrücken. Für die einzelnen Domänendaten können aussagekräftige Fuzzy-Labels (unter Verwendung von Fuzzy-Sets) definiert werden. Zum Beispiel unscharfe Etiketten;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10684-2_80 72e94c62344b80a664faf63c0517dfda;de;;;7.4.;;;Eine Überprüfung der Pfadplanung und Formationssteuerung für mehrere autonome Unterwasserfahrzeuge Bahnplanung und Formationskontrolle sind zwei der wichtigsten Konzepte, die bei Mehrfahrzeugsystemen und insbesondere bei autonomen Unterwasserfahrzeugen (AUVs) berücksichtigt werden können. Die kooperative Umsetzung komplizierter Kommandos würde zu wünschenswerten Ergebnissen führen und die Erfolgswahrscheinlichkeit der Missionen erhöhen. Aufgrund der nichtlinearen Dynamik und der Umgebungsbedingungen ist die kooperative Steuerung von AUVs ein anspruchsvolles Thema. Die Entwicklungen bei AUV-Anwendungen zeigen die Bedeutung von Forschung und Entwicklung in der Bahnplanung und Formationskontrolle. Im Gegensatz zu autonomen Boden- oder Luftfahrzeugen hat dieses Studiengebiet keine große Aufmerksamkeit auf sich gezogen, und daher sind weitere Untersuchungen erforderlich. Der vorliegende Beitrag gibt einen Überblick über die verschiedenen Strukturen der Formationskontrolle in AUVs und diskutiert deren Vor- und Nachteile. Neben der Formationskontrolle werden in der vorliegenden Studie die kooperative Trassenplanung von AUVs sowie die kooperativen Strukturspezifischen Einschränkungen berücksichtigt. Darüber hinaus werden das Vermeiden jeglicher Hinderniskollision und das Verhindern jeglicher Begegnung zwischen Gruppenmitgliedern als kritische Punkte bei der Formationssteuerung und kooperativen Bahnplanung betrachtet. Einige Bereiche sind noch offen für Untersuchungen, wie aus den technologischen Vorschlägen hervorgeht, was die zukünftige Forschung erleichtern wird. Am Ende des Artikels wird ein simuliertes Beispiel der Bahnplanung der Dreiecksformation für AUVs gegeben.;-;-;-;https://link.springer.com/article/10.1007/s10846-021-01330-4 de5568860996fde4218868e48001e174;de;;;7.4.;;;Auf dem Weg zu einer Open-Source-LOD2-Modellierung mit Hilfe von Convolutional Neural Networks Das Ziel dieser Arbeit ist es, Dächer mit vertikalen Luftbildern zu klassifizieren und zu segmentieren, um dreidimensionale (3D) Modelle zu generieren. Solche Modelle können beispielsweise zur Bewertung des Niederschlagsabflusses von Liegenschaften zur Regenwassernutzung sowie zur Bewertung von Solarenergie- und Dachdämmungsoptionen verwendet werden. Luftorthofotos und Gebäude-Footprints werden verwendet, um einzelne Dächer und Bounding Boxes zu extrahieren, die dann in ein neuronales Netz zur Klassifizierung und dann in ein anderes zur Segmentierung eingespeist werden. Der Ansatz implementiert zunächst Transferlernen auf einem vortrainierten VGG16-Modell. Der erste Schritt erreicht eine Genauigkeit von 95,39 % sowie a;-;-;-;https://link.springer.com/article/10.1007/s40808-021-01159-8 a916b17ae1d37658445369a77f8426ae;de;;;7.4.;;;Datenschutz schützen und Fake News und Deepfakes in Social Media durch Blockchain-Technologie verhindern Dieses Papier präsentiert eine umfassende Überprüfung der Datenschutzrichtlinie in sozialen Medien und schlägt ein Vertrauensindexmodell vor, um Fake News und Deepfakes in sozialen Medien mithilfe der Blockchain-Technologie zu verhindern. Die digitale Privatsphäre in sozialen Medien ist für die Benutzer und Bürger der heutigen Welt zu einem unmittelbar bevorstehenden Problem geworden. Im Februar 2020 meldete die Weltgesundheitsorganisation (WHO) eine Infodemie mit Bezug zu Coronavirus (COVID-19) Fake News und Deepfakes. Dieses Phänomen hat es den Weltbürgern in verschiedenen Ländern schwer gemacht, zuverlässige Orientierungshilfe zu suchen und geeignete Gegenmaßnahmen zu ergreifen, um COVID-19 zu verhindern, ohne auf öffentliche Panik zurückzugreifen. Die Befürchtungen, Ängste und Unklarheiten, die durch Fake News, Deepfakes und mangelndes Wissen über COVID-19 verursacht werden, haben eine sehr ernsthafte Bedrohung für die öffentliche Gesundheit darstellt. Mit einem zunehmenden Verlangen nach überprüfbarer Wahrheit im Internet kann das vorgeschlagene Vertrauensindexmodell eine vertrauenswürdigere, glaubwürdigere, zuverlässigere, transparentere und sicherere Grundstruktur für unsere aktuelle Gesellschaft in den sozialen Medien bieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6835-4_44 60f5ca5fc2445887d33b008019ff4721;de;;;7.4.;;;Extrahieren verfeinerter Regeln aus wissensbasierten neuronalen Netzen Neuronale Netze wurden trotz ihrer empirisch nachgewiesenen Fähigkeiten wenig zur Verfeinerung des vorhandenen Wissens verwendet, da diese Aufgabe einen dreistufigen Prozess erfordert. Zunächst muss Wissen in ein neuronales Netz eingefügt werden. Zweitens muss das Netzwerk verfeinert werden. Drittens muss das verfeinerte Wissen aus dem Netzwerk extrahiert werden. Wir haben zuvor eine Methode für den ersten Schritt dieses Prozesses beschrieben. Standardmäßige neuronale Lerntechniken können den zweiten Schritt ausführen. In diesem Artikel schlagen wir eine Methode für den letzten und möglicherweise schwierigsten Schritt vor und bewerten diese empirisch. Unsere Methode extrahiert effizient symbolische Regeln aus trainierten neuronalen Netzen. Die vier wichtigsten Ergebnisse empirischer Tests dieser Methode sind, dass die extrahierten Regeln 1) die Genauigkeit des Netzwerks, aus dem sie extrahiert wurden, genau reproduzieren, 2) den Regeln überlegen sind, die von Methoden erzeugt werden, die symbolische Regeln direkt verfeinern, 3) überlegen sind zu denen, die mit früheren Techniken zum Extrahieren von Regeln aus trainierten neuronalen Netzen erzeugt wurden, und 4) sind „menschlich verständlich“. Somit zeigt diese Methode, dass neuronale Netze verwendet werden können, um symbolisches Wissen effektiv zu verfeinern. Darüber hinaus trägt die hier entwickelte Regelextraktionstechnik zum Verständnis bei, wie symbolische und konnektionistische Ansätze zur künstlichen Intelligenz gewinnbringend integriert werden können.;-;-;-;https://link.springer.com/article/10.1023/A%3A1022683529158 c982187636108a38d5bb4b7efd0a4dc6;de;;;7.4.;;;Maschinelles Lernen basierend auf Ähnlichkeitsoperationen Der Artikel beschreibt ein Machine-Learning-Paradigma, das eine binäre Halbgitteroperation zum Berechnen von Ähnlichkeiten zwischen Trainingsbeispielen verwendet, wobei die formale Konzeptanalyse (FCA) eine Technik zur Bitsatzcodierung der Objekte und Ähnlichkeiten zwischen ihnen bereitstellt. Unter Verwendung dieser Codierung kann ein Kopplungs-Markov-Chain-Algorithmus eine zufällige Stichprobe von Ähnlichkeiten erzeugen. Wir stellen eine Technik zur Verfügung, um die Konvergenz des Hauptalgorithmus zu beschleunigen, indem seine Läufe abgeschnitten werden, die die Summe der Längen der vorherigen Trajektorien überschreiten. Die Ähnlichkeiten sind hypothetische Ursachen (Hypothesen) für die Zieleigenschaft. Anhand dieser Hypothesen kann die Zieleigenschaft von Testbeispielen vorhergesagt werden. Wir geben eine untere Grenze für die notwendige Anzahl von Hypothesen an, um alle wichtigen Testbeispiele für ein gegebenes Konfidenzniveau vorherzusagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00617-4_5 67065b1f6a7fadf6a4bfec91779828df;de;;;7.4.;;;Anwendung von maschineller Intelligenz in der Praxis Die Relevanz von Machine Intelligence, auch bekannt als Künstliche Intelligenz (KI), ist derzeit unbestritten. Das liegt nicht nur an den Erfolgen von KI in der Forschung, sondern vor allem am Einsatz in der täglichen Praxis. Im Jahr 2014 haben wir am Leibniz Zentrum für Informatik, Schloss Dagstuhl, eine Reihe von jährlichen Workshops gestartet, die sich zunächst auf Corporate Semantic Web konzentrierten und später auf Applied Machine Intelligence erweiterten. Dieser Artikel stellt eine Reihe von KI-Anwendungen aus verschiedenen Anwendungsdomänen vor, unter anderem aus der Medizin, der industriellen Fertigung und dem Versicherungssektor. Außerdem werden Best Practices, aktuelle Trends, Möglichkeiten und Grenzen neuer KI-Ansätze zur Entwicklung von KI-Anwendungen vorgestellt. Der Fokus liegt auf den Bereichen Natural Language Processing, Ontologien und Machine Learning. Der Artikel schließt mit einer Zusammenfassung und einem Ausblick.;-;-;-;https://link.springer.com/article/10.1007/s00287-020-01259-2 fd70f3387dee04581fd4acfd0500c4b7;de;;;7.4.;;;Künstliche Intelligenz in der biologischen Modellierung Ziel der Systembiologie ist es, die übergeordneten Funktionen der Zelle ausgehend von ihrer biochemischen Grundlage auf molekularer Ebene aufzuklären. Es wurde viel daran gearbeitet, genomische und postgenomische Daten zu sammeln, sie in Datenbanken und Ontologien verfügbar zu machen, dynamische Modelle des Zellstoffwechsels, der Signalgebung, des Teilungszyklus, der Apoptose zu erstellen und sie in Modellrepositorien zu veröffentlichen. In diesem Kapitel besprechen wir verschiedene Anwendungen der KI auf die Modellierung biologischer Systeme. Wir konzentrieren uns auf Zellprozesse auf einzelliger Ebene, die den größten Teil der in den letzten zwei Jahrzehnten im Bereich der Systembiologie geleisteten Arbeit ausmachen. Wir zeigen, wie regelbasierte Sprachen und logische Methoden eine wichtige Rolle bei der Untersuchung molekularer Interaktionsnetzwerke und ihrer für das Zellverhalten verantwortlichen emergenten Eigenschaften gespielt haben. Insbesondere präsentieren wir einige Ergebnisse, die mit SAT- und Constraint-Logic-Programming-Solvern für die statische Analyse großer Interaktionsnetzwerke, mit Model-Checking und evolutionären Algorithmen für die Analyse und Synthese dynamischer Modelle und mit Machine-Learning-Techniken für die aktuellen Herausforderungen von Ableiten mechanistischer Modelle aus zeitlichen Daten und Automatisierung des Designs biologischer Experimente.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-06170-8_8 ce3f25acdd817afcef0e8d911793f88d;de;;;7.4.;;;Eine Anwendung von Support Vector Machines für die Kundenabwanderungsanalyse: Kreditkartenetui Diese Studie untersucht die Effektivität des Ansatzes von Support Vector Machines (SVM) bei der Erkennung des zugrunde liegenden Datenmusters für die Abwanderungsanalyse von Kreditkartenkunden. In diesem Artikel wird eine relativ neue maschinelle Lerntechnik, SVM, für das Problem der Kundenabwanderung vorgestellt, um ein Modell mit besserer Vorhersagegenauigkeit bereitzustellen. Um die Leistung des vorgeschlagenen Modells zu vergleichen, haben wir eine weit verbreitete und angewandte Methode der Künstlichen Intelligenz (KI), Backpropagation Neural Networks (BPN) als Benchmark verwendet. Die Ergebnisse zeigen, dass SVM BPN übertrifft. Wir untersuchen auch die Auswirkung der Leistungsvariabilität in Bezug auf verschiedene Parameterwerte in SVM.;-;-;-;https://link.springer.com/chapter/10.1007/11539117_91 0250eeb2420dab3123512ac0be168390;de;;;7.4.;;;Stilerkennung mit Keyword-Analyse Das Hauptziel dieses Forschungsprojekts ist die Entwicklung eines generischen Rahmens und von Methoden, die es ermöglichen, Expertenwissen mit Wissen aus multimedialen Quellen wie Text und Bildern zum Zweck der Klassifizierung und Analyse zu erweitern. Für Auswertungs- und Testzwecke dieser Forschungsstudie wird eine Stildomäne für Möbeldesign ausgewählt, da allgemein angenommen wird, dass Designstil ein immaterielles Konzept ist, das schwer zu analysieren ist. In diesem Beitrag präsentieren wir die Ergebnisse der Analyse von Schlüsselwörtern in den Textbeschreibungen von Gestaltungsstilen. Für die Klassifizierung wird eine einfache schlüsselwortbasierte Abgleichtechnik verwendet, und domänenspezifische Wörterbücher von Schlüsselwörtern werden verwendet, um die Dimensionalität des Merkmalsraums zu reduzieren. Für diesen Klassifikator und den SVM- und Entscheidungsbaum-basierten Klassifikator C4.5 wurde eine vergleichende Bewertung durchgeführt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39666-6_17 71e8e7b75d8581ff457349925853f4ee;de;;;7.4.;;;Ein multimodularer Systemgenetik-(MMSG)-Ansatz für tiefes Repräsentationslernen für die personalisierte Behandlung von Krebs unter Verwendung der Sensitivitätsanalyse von Präzisionsmedikamenten und Genexpressionsdaten One-Size-Fits-All war noch nie wirklich erfolgreich und das ist der Grund, warum Personalisierung so wichtig geworden ist. Viele tödliche Krankheiten sind aufgrund intensiver und riskanter Medikationsverfahren mit immensen Nebenwirkungen mit einem solchen Problem konfrontiert. Personalisierte Medikation durch Präzisionsmedizin ist das neue große Ding, das durch Analyse und künstliche Intelligenz bessere Behandlungslösungen bieten wird. In dieser Arbeit haben wir zum ersten Mal einen multimodularen Trainingsansatz (MMSG+DRRL/ERRL) zur verallgemeinerten Darstellung der Krebsmedikamentenvorhersage basierend auf Genexpression für eine personalisierte Behandlung durch die Verwendung verschiedener systemgenetischer Informationen wie subklinischer Medizin eingeführt Informationen, um ihre Eignung zu bestimmen. Wir haben gezeigt, wie verschiedene modulare Informationen rechnerisch verwendet werden können, um das Vorhersageverhalten unter Verwendung der genetischen und Unterkategorieinformationen von Krebserkrankungen zu verbessern. Die Subkategorisierungsanalyse kann viele nützliche Informationen über die Krankheit entschlüsseln und zu einer besseren Behandlungsmodellierung beitragen. Wir haben zum ersten Mal gezeigt, wie wir die Informationen der Unterkategorie verwenden können, um die Sensitivität von Krebszelllinien für verschiedene Medikamente zu extrahieren, ein Verfahren, das noch nie zuvor ausprobiert wurde. Wir haben die Best Practices des Feature-Trainings für Deep Learning genutzt, um die interagierenden Gene für bestimmte Medikamente zu bestimmen.;-;-;-;https://link.springer.com/article/10.1007/s41688-019-0035-8 ced5cf27783299abe803b5e9d416d4c0;de;;;7.4.;;;Konvergenz des stochastischen Gradientenabstiegs in tiefen neuronalen Netzen Stochastischer Gradientenabstieg (SGD) ist einer der am häufigsten verwendeten Optimierungsalgorithmen in der Mustererkennung und beim maschinellen Lernen. Dieser Algorithmus und seine Varianten sind der bevorzugte Algorithmus, während Parameter des tiefen neuronalen Netzes wegen ihrer Vorteile des geringen Speicherplatzbedarfs und der hohen Rechengeschwindigkeit optimiert werden. Frühere Studien zur Konvergenz dieser Algorithmen basierten auf einigen traditionellen Annahmen bei Optimierungsproblemen. Das tiefe neuronale Netz hat jedoch seine einzigartigen Eigenschaften. Einige Annahmen sind im eigentlichen Optimierungsprozess dieser Art von Modell unangemessen. In diesem Papier modifizieren wir die Annahmen, um sie mit dem tatsächlichen Optimierungsprozess des tiefen neuronalen Netzes konsistenter zu machen. Basierend auf neuen Annahmen haben wir die Konvergenz und Konvergenzrate von SGD und seinen beiden gängigen Variantenalgorithmen untersucht. Darüber hinaus haben wir numerische Experimente mit LeNet-5, einem gemeinsamen Netzwerk-Framework, am Datensatz MNIST durchgeführt, um die Rationalität unserer Annahmen zu überprüfen.;-;-;-;https://link.springer.com/article/10.1007/s10255-021-0991-2 40dc19955a618bbd701c4f84b6bd1b66;de;;;7.4.;;;Sprachunterstützung für XML Data Mining: Eine Fallstudie Es gibt mehrere Gründe, die das Studium eines leistungsstarken, ausdrucksstarken und effizienten XML-basierten Frameworks für die intelligente Datenanalyse rechtfertigen. Zunächst einmal bietet die Verbreitung von XML-Quellen gute Möglichkeiten, neue Daten zu gewinnen. Zweitens scheinen native XML-Datenbanken eine natürliche Alternative zu relationalen Datenbanken zu sein, wenn der Zweck darin besteht, sowohl Daten als auch die extrahierten Modelle auf einheitliche Weise abzufragen. Diese Arbeit bietet eine neue Abfragesprache für XML Data Mining. Bei der Präsentation der Sprache zeigen wir ihre Vielseitigkeit, Ausdruckskraft und Effizienz, indem wir eine prägnante und dennoch umfassende Reihe von Abfragen vorschlagen, die die wichtigsten Aspekte des Data Mining abdecken. Abfragen werden über die bekannten;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19890-8_2 37405aaa60bca70394356c9b38aff635;de;;;7.4.;;;Erkennung von Desertionsmustern bei Universitätsstudenten mithilfe von Data-Mining-Techniken: Eine Fallstudie Die Abwanderung von Studenten ist ein Phänomen, das die Hochschulbildung und die akademischen Qualitätsstandards beeinträchtigt. Mehrere Ursachen können zu diesem Problem führen, wobei der akademische Faktor ein möglicher Grund ist. Das Hauptziel dieser Forschung ist es, Abbruchmuster an der Universität „Técnica del Norte“ (Ecuador) auf der Grundlage persönlicher und wissenschaftlicher historischer Daten mithilfe prädiktiver Klassifizierungstechniken im Data Mining zu erkennen. Der KDD-Prozess (Knowledge Discovery in Databases) wurde verwendet, um Desertion-Muster zu bestimmen, die sich auf zwei Ansätze konzentrierten: (i) Bayesian und (ii) Decision Trees, beide implementiert auf Weka. Die Leistung der Klassifikatoren wurde quantitativ unter Verwendung der Konfusionsmatrix und der Qualitätsmetriken bewertet. Die Ergebnisse bewiesen, dass die auf Entscheidungsbäumen basierende Technik bei den verarbeiteten Daten eine etwas bessere Leistung als der Bayes-Ansatz aufwies.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-05532-5_31 cc6ef5f0034732acdbe3cc489c41e6e2;de;;;7.4.;;;Über Mining-Bestellregeln Viele Probleme der realen Welt befassen sich mit der Anordnung von Objekten anstatt mit der Klassifikation von Objekten, obwohl sich der Großteil der Forschung im Bereich maschinelles Lernen und Data Mining auf letztere konzentriert hat. In diesem Papier formulieren wir das Problem des Mining-Ordnungsregeln als das Finden einer Verbindung zwischen der Anordnung von Attributwerten und der Gesamtordnung von Objekten. Ein Beispiel für Ordnungsregeln könnte lauten, dass „wenn der Wert eines Objekts“;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45548-5_38 fcd8add9ec5f62bbd1f46142eaf7b6a3;de;;;7.4.;;;Ein Majorisierungs-Minimierungs-Ansatz für das spärlich verallgemeinerte Eigenwertproblem Verallgemeinerte Eigenwertprobleme (GEV) finden in vielen Bereichen der Wissenschaft und Technik Anwendung. Beispielsweise sind die Hauptkomponentenanalyse (PCA), die kanonische Korrelationsanalyse (CCA) und die Fisher-Diskriminanzanalyse (FDA) spezifische Beispiele für GEV-Probleme, die in der statistischen Datenanalyse weit verbreitet sind. Der Hauptbeitrag dieser Arbeit besteht darin, einen allgemeinen, effizienten Algorithmus zu formulieren, um spärliche Lösungen für ein GEV-Problem zu erhalten. Spezifische Instanzen von GEV-Problemen mit geringer Dichte können dann durch spezifische Instanzen dieses Algorithmus gelöst werden. Dies erreichen wir, indem wir das GEV-Problem lösen, während wir die Kardinalität der Lösung einschränken. Anstatt die Kardinalitätsbeschränkung mit a . zu lockern;-;-;-;https://link.springer.com/article/10.1007/s10994-010-5226-3 96cae4ab36c7e0e9bc8e089cdc6e93c9;de;;;7.4.;;;Tiefe neuronale Netze für die Indoor-Lokalisierung mit WiFi-Fingerabdrücken In diesem Beitrag schlagen wir eine neuartige Methode zur WLAN-Positionierung vor, die auf Deep Learning basiert. Genauer gesagt untersuchen wir ein Stacked AutoEncoder-basiertes Modell für die globale Standorterkennung aus WiFi-Fingerabdruckdaten. Stacked AutoEncoder funktioniert sehr gut beim Erlernen nützlicher High-Level-Funktionen für eine bessere Darstellung der eingegebenen Rohdaten. Für unser vorgeschlagenes Modell wurden zwei trainierte unüberwachte Autoencoder gestapelt, dann wurde das gesamte Netzwerk global trainiert, indem eine Softmax-Ausgabeschicht zur Klassifizierung hinzugefügt wurde. Die experimentellen Ergebnisse zeigen, dass unser auf Deep Learning basierendes Modell in einem großen mehrstöckigen Gebäude mit 162 Räumen besser abschneidet als SVM- und KNN-Ansätze für maschinelles Lernen. Unser Modell erreicht eine Genauigkeit von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-22885-9_21 de145e4977d236cc69316e5663f83e5a;de;;;7.4.;;;Verwenden von Frame-basierten Ressourcen für die Stimmungsanalyse im Finanzbereich Benutzergenerierte Daten in Blogs und sozialen Netzwerken sind in letzter Zeit zu einer wertvollen Ressource für die Stimmungsanalyse im Finanzbereich geworden, da sie sich für Marktforschungsunternehmen und öffentliche Meinungsorganisationen als äußerst wichtig erwiesen haben. Um bullische und bärische Stimmungen im Zusammenhang mit Unternehmen und Aktien zu identifizieren, schlagen wir einen feingranularen Ansatz vor, der einen kontinuierlichen Score im;-;-;-;https://link.springer.com/article/10.1007/s13748-018-0162-8 5e55b5ee04e4afa2777690f774b6e24e;de;;;7.4.;;;Graph-Ontologie-Modell des kognitiv-ähnlichen Informationsabrufs (am Beispiel der Anforderungsverfolgungsaufgabe) In diesem Artikel werden Werkzeuge zur Graphontologie betrachtet, die die Konstruktion, Visualisierung und Analyse eines Ontologiegraphen unter Verwendung von Funktionen zum Auswählen von Scheitelpunkten und Bögen, mengentheoretischen Operationen an Graphen und Aspektprojektionsoperationen ermöglichen. Ein Aspekt wird im Sinne der allgemeinen Systemtheorie spezifiziert. Aspektprojektionsoperationen für Graphendarstellungen von Ontologien reduzieren die Dimension von Graphen auf ein Niveau, das für die Anzeige und die menschliche Wahrnehmung erschwinglich ist. In Anwendung auf Information-Retrieval-Prozesse ermöglicht es den Übergang von der klassischen Information-Retrieval-Aufgabe zur Umsetzung kognitiv-ähnlicher Information-Retrieval-Aufgaben, dargestellt als Suche nach einem Pfad oder einer Nachbarschaft auf einem Multi-Meta-Hypergraph einer Ontologie dynamisch auf der Basis von ontologischen Bildern von Funddokumenten oder deren Fragmenten gebildet. Der Ontologiegraph wird durch die automatische Extraktion von Entitäten und Beziehungen aus natürlichsprachlichen Texten gebildet. Dieser Artikel betrachtet die Anwendung der entwickelten Werkzeuge im Prozess der Analyse und Synthese von Wissen am Beispiel der technischen Anforderungsermittlung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-65596-9_28 67653af2571f8c64ddb70a875570bb75;de;;;7.4.;;;Bergbauforschung Themenbezogener Einfluss zwischen Wissenschaft und Industrie In letzter Zeit hat das Problem des Abbaus des sozialen Einflusses viel Aufmerksamkeit auf sich gezogen. In einem sozialen Netzwerk interessieren sich Forscher für Probleme wie die Verbreitung von Einfluss, Ideen und Informationen im Netzwerk. Ähnliche Probleme wurden in Koautorenschaftsnetzwerken vorgeschlagen, bei denen das Ziel darin besteht, die sozialen Einflüsse auf Forschungsthemenebene zu differenzieren und die Stärke des Einflusses zu quantifizieren. In dieser Arbeit interessieren wir uns für die Problematik des bergbauspezifischen Einflusses zwischen Wissenschaft und Industrie. Genauer gesagt wollen wir bei einem Co-Autorennetzwerk herausfinden, welcher Wissenschaftsforscher bei bestimmten Forschungsthemen für ein bestimmtes Unternehmen am einflussreichsten ist. Angesichts der paarweisen Einflüsse zwischen Forschern schlagen wir drei Modelle vor (einfaches additives Modell, gewichtetes additives Modell und Clustering-basiertes additives Modell), um den Einfluss eines Forschers auf ein Unternehmen zu bewerten. Schließlich veranschaulichen wir die Wirksamkeit dieser drei Modelle sowohl auf reale große Datensätze als auch auf simulierte Datensätze.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23783-6_2 46f65fef9e5f44b7a63153b258207c32;de;;;7.4.;;;Bewertung einer Methode zur Erkennung von zeitlichen Mustern zum Auffinden von Forschungsschlüsseln in bibliografischen Daten Entsprechend der Anhäufung der elektrisch gespeicherten Dokumente hat der Erwerb von wertvollem Wissen mit bemerkenswerten Tendenzen von Fachbegriffen als Thema im Text Mining die Aufmerksamkeit auf sich gezogen. Um das Auffinden von Schlüsselthemen zu unterstützen, die als Schlüsselbegriffe in solchen temporalen Textdatensätzen vorkommen, schlagen wir eine Methode vor, die auf temporalen Mustern in mehreren datengetriebenen Indizes für das Text Mining basiert. Das Verfahren besteht aus einem automatischen Termextraktionsverfahren in gegebenen Dokumenten, drei Wichtigkeitsindizes, einer zeitlichen Musterextraktion unter Verwendung von zeitlichem Clustering und einer Trenderkennung basierend auf linearen Trends ihrer Schwerpunkte. Empirische Studien zeigen, dass die drei Bedeutungsindizes auf die Titel zweier wissenschaftlicher Konferenzen zum Feld der künstlichen Intelligenz als Dokumentensätze angewendet werden. Nachdem wir die zeitlichen Muster der automatisch extrahierten Begriffe extrahiert haben, diskutieren wir die Trends der Begriffe, einschließlich der jüngsten Burst-Wörter unter den Titeln der Konferenzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21563-6_1 7deb6d614534b23316772200c0968930;de;;;7.4.;;;Erstellen eines Discoverers: Autonomer wissenssuchender Agent Der Bau eines Roboter-Entdeckers kann als der ultimative Erfolg einer automatisierten Entdeckung angesehen werden. Um einen solchen Agenten zu bauen, müssen wir algorithmische Details der Entdeckungsprozesse und die Darstellung wissenschaftlicher Erkenntnisse verstehen, die zur Unterstützung der Automatisierung erforderlich sind. Um den Entdeckungsprozess zu verstehen, müssen wir automatisierte Systeme aufbauen. Dieser Artikel untersucht die Anatomie eines Roboter-Entdeckers und untersucht verschiedene Komponenten, die über zwei Jahrzehnte in unterschiedlichem Maße entwickelt und verfeinert wurden. Wir klären auch den Begriff der Autonomie eines künstlichen Agenten und diskutieren, wie Maschinenentdecker autonomer werden. Schließlich fassen wir die wichtigsten Prinzipien zusammen, die bei der Konstruktion automatisierter Entdecker nützlich sind, und diskutieren verschiedene mögliche Einschränkungen der Automatisierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-2124-0_5 7624d603bbb18e78f1345ca5c0861873;de;;;7.4.;;;Bewertung des Merkmalsauswahlverfahrens zur Klassifizierung von Daten mit Hilfe des Support Vector Machine Algorithmus Man kann behaupten, dass das exponentielle Wachstum der Datenmenge große Chancen für das Data Mining bietet. In vielen realen Anwendungen wächst die Zahl der Quellen, über die diese Informationen fragmentiert werden, noch schneller, was zu Hindernissen für eine breite Anwendung von Data Mining führt. Dieses Papier schlägt die Merkmalsauswahl mithilfe von Support Vector Machine vor, um die Rechenkomplexität zu reduzieren und die Klassifikationsgenauigkeit der ausgewählten Merkmalsuntermengen zu erhöhen. Außerdem bewertet das Papier den Ansatz durch Vergleich mit bestehenden Merkmalsauswahlalgorithmen über 6 Datensätze der University of California, Irvine ( UCI) Datenbanken für maschinelles Lernen. Das vorgeschlagene Verfahren zeigt bessere Ergebnisse in Bezug auf die Anzahl der ausgewählten Merkmale, die Klassifikationsgenauigkeit und die Laufzeit als die meisten existierenden Algorithmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03107-1_21 93081a97f2ccf2039b1672f2dd201880;de;;;7.4.;;;Sampling-Ensembles für häufige Patterns Eine beliebte Lösung zur Verbesserung der Geschwindigkeit und Skalierbarkeit des Mining von Assoziationsregeln besteht darin, den Algorithmus anhand einer Zufallsstichprobe anstelle der gesamten Datenbank durchzuführen. Aber es geht auf Kosten der Genauigkeit der Antworten. In diesem Beitrag stellen wir einen Stichproben-Ensemble-Ansatz vor, um die Genauigkeit für eine gegebene Stichprobengröße zu verbessern. Dann geben wir mithilfe der Monte-Carlo-Theorie eine Erklärung für ein Stichproben-Ensemble und erhalten die theoretisch niedrige Grenze der Stichprobengröße, um die Durchführbarkeit und Gültigkeit eines Ensembles sicherzustellen. Und um die Entstehung des Stichprobenfehlers zu lernen und daher eine theoretische Anleitung zum Erhalten genauerer Antworten zu geben, wird die Bias-Varianz-Zerlegung bei der Analyse des Stichprobenfehlers eines Ensembles verwendet. Nach theoretischen Analysen und realen Experimenten kommen wir zu dem Schluss, dass die Sampling-Ensemble-Methode nicht nur die Genauigkeit der Antworten erheblich verbessern kann, sondern auch ein neues Mittel ist, um die Schwierigkeit zu lösen, die erforderliche Stichprobengröße zu bestimmen.;-;-;-;https://link.springer.com/chapter/10.1007/11539506_150 d7364fc177fd83c8c303851eec8bec45;de;;;7.4.;;;Klassifizierung von Autoteilen mit Deep Neural Network Die Qualität der Automobilinspektion ist einer der kritischen Anwendungsbereiche, um eine bessere Qualität zu niedrigen Kosten zu erzielen und kann mit der fortschrittlichen Computer-Vision-Technologie erreicht werden. Ob für die Qualitätsprüfung oder die automatische Montage von Autoteilen, die automatische Erkennung von Autoteilen spielt eine wichtige Rolle. In diesem Artikel werden Fahrzeugteile mithilfe einer auf ConvNet basierenden tiefen neuronalen Netzwerkarchitektur klassifiziert. Der in CompCars verfügbare öffentliche Datensatz [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58653-9_56 c5b913756e84b5fd84f9a5442f6db359;de;;;7.4.;;;Kultur, Erkenntnisprozess, Weltwahrnehmung und Entstehung von KI Angesichts der heutigen technologischen Entwicklung stehen wir vor einer sich abzeichnenden Krise. Wir befinden uns inmitten einer wissenschaftlichen Revolution, die verspricht, nicht nur unsere Lebens- und Arbeitsweise radikal zu verändern – sondern darüber hinaus die Stabilität der Grundlagen unserer Zivilisation und der internationalen politischen Ordnung in Frage zu stellen. Unsere ganze Aufmerksamkeit und Anstrengung gilt daher der Abfederung der Auswirkungen auf Leben und Gesellschaft. Im Rückblick auf die Geschichte stellt sich die Frage, ob es sich bei diesem Prozess um ein „quasi“ Naturereignis handelt, das seinen Weg fortsetzen soll und schwerwiegende ethische, soziale und politische Rückwirkungen ahnen lässt, oder ob er das Ergebnis eines bestimmten soziokulturellen Wertesystems ist? Was sind dann die unterschiedlichen Wertesysteme und Denkweisen? Wie wirken sich diese auf unsere Wahrnehmung der Welt, unsere Kognitionssysteme und unsere Selbstwahrnehmung aus? Im Zentrum dieser Revolution stehen die jüngsten technologischen Entwicklungen in der Informations- und Datenverarbeitung sowie die Schaffung von KI und die Rolle von Algorithmen. Sind Algorithmen quasi „unabhängige“ künstliche Sprachen, um Situationen einzuschätzen, Probleme zu lösen und Entscheidungen in grundlegenden gesellschaftlichen Fragen zu treffen? Oder ruhen sie auf dem Fundament der natürlichen Sprache? Welchem ​​ethischen und moralischen Kodex folgen sie? Welche Treiber liegen diesem technologischen Prozess zugrunde? Sind diese kulturspezifisch oder universell? Könnte uns ein Wechsel der „kulturellen Perspektive“ neue Erkenntnisse liefern, um den Prozess zu steuern und seinen Kurs zu ändern?;-;-;-;https://link.springer.com/article/10.1007/s00146-019-00885-z 945656e73fb4a8a002a99e764da9fce1;de;;;7.4.;;;Eine Pipeline zur Messung der Markentreue durch Social Media Mining Die Verbesserung der Kundenbeziehungen durch Social Media ist ein Bereich von hoher Relevanz für Unternehmen. Zu diesem Zweck spielt Social Business Intelligence (SBI) eine entscheidende Rolle, indem es Unternehmen dabei unterstützt, Unternehmensdaten mit nutzergenerierten Inhalten zu kombinieren, die normalerweise als Textclips in sozialen Medien verfügbar sind. Leider wird die SBI-Forschung oft durch den Mangel an öffentlich zugänglichen realen Daten für experimentelle Aktivitäten eingeschränkt. In diesem Whitepaper beschreiben wir unsere Erfahrungen bei der Extraktion sozialer Daten und deren Verarbeitung durch eine Anreicherungspipeline für die Markenanalyse. In einem ersten Schritt sammeln wir Texte aus Social Media und kommentieren sie anhand vordefinierter Metriken für die Markenanalyse mit Features wie Sentiment und Geolocation. Annotationen basieren auf verschiedenen Ansätzen des Lernens und der Verarbeitung natürlicher Sprache, einschließlich Deep Learning und geografischer Ontologien. Strukturierte Daten, die aus dem Annotationsprozess gewonnen werden, werden dann zur weiteren Analyse in einem verteilten Data Warehouse gespeichert. Vorläufige Ergebnisse aus der Analyse von drei bekannten IKT-Marken unter Verwendung von Daten aus Twitter, Nachrichtenportalen und Amazon-Produktbewertungen zeigen, dass unterschiedliche Bewertungsmetriken zu unterschiedlichen Ergebnissen führen können, was darauf hindeutet, dass keine einzelne Metrik für alle Markenanalysen dominant ist Anwendungsfälle.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-67731-2_36 65351d63c8a97542b5eda5cbf834dfc4;de;;;7.4.;;;RoboCup: Ein Herausforderungsproblem für KI und Robotik RoboCup ist ein Versuch, die KI- und intelligente Robotikforschung zu fördern, indem ein Standardproblem bereitgestellt wird, bei dem eine Vielzahl von Technologien integriert und untersucht werden können. Der Erste;-;-;-;https://link.springer.com/chapter/10.1007/3-540-64473-3_46 4e1568b2743a98eb711c59dac77bf4eb;de;;;7.4.;;;Merkmalsauswahl und maschinelles Lernen mit Massenspektrometriedaten Die Massenspektrometrie wird seit langem in der biochemischen Forschung eingesetzt. Sein Potenzial zur Entdeckung proteomischer Biomarker mithilfe von Proteinmassenspektren hat jedoch in den letzten Jahren großes Interesse geweckt. Trotz seines Potenzials für die Entdeckung von Biomarkern wird anerkannt, dass die Identifizierung aussagekräftiger proteomischer Merkmale aus Massenspektren einer sorgfältigen Bewertung bedarf. Daher sind das Extrahieren von aussagekräftigen Merkmalen und das Diskriminieren der Stichproben basierend auf diesen Merkmalen noch offene Forschungsgebiete. Mehrere Forschungsgruppen sind aktiv daran beteiligt, den Prozess so perfekt wie möglich zu gestalten. In diesem Kapitel geben wir einen Überblick über die wichtigsten Beiträge zur Merkmalsauswahl und Klassifizierung von proteomischen Massenspektren unter Einbeziehung der MALDI-TOF- und SELDI-TOF-Technologie.;-;-;-;https://link.springer.com/protocol/10.1007/978-1-60327-194-3_11 1959e49a0299c0916b5b0fd6f8c0d09d;de;;;7.4.;;;Malignitätsvorhersage bei Brustkrebs durch inkrementelle Kombination mehrerer rezidivierender neuronaler Netze Brustkrebs ist weltweit die häufigste Krebserkrankung bei Frauen. Eine frühzeitige Erkennung von bösartigem Brustkrebs, gefolgt von einer angemessenen Behandlung, kann die Überlebensrate der Patientinnen erheblich verbessern. Kürzlich wurden auf Deep Learning basierende Malignitätsvorhersagemodelle für Brustkrebs vorgeschlagen. Diese Modelle werden jedoch in der Regel mit einem einzigen Typ von klinischem Text trainiert, der immer noch nicht effektiv genug ist, um Malignität von Brustkrebs vorherzusagen. In diesem Artikel folgen wir dem Deep Incremental Learning Framework und schlagen ein Vorhersagemodell der Malignität von Brustkrebs durch inkrementelle Kombination mehrerer rekurrenter neuronaler Netzwerke vor. Insbesondere verwendet das Modell zunächst mehrere rekurrente neuronale Netze (RNNs) zum Generieren von Merkmalen aus den verschiedenen Arten von klinischem Text, einschließlich B-Ultraschall, Röntgenstrahlen, Computertomographie (CT) und Kernspintomographie (MRT) und dann kombiniert die generierten Features inkrementell. Schließlich fügen wir eine weitere rekurrente neuronale Netzwerkschicht hinzu, um gutartige und bösartige Brustkrebs basierend auf kombinierten generierten Merkmalen zu klassifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-70096-0_5 19553506e611d6c084f9f297481118da;de;;;7.4.;;;Ein genetischer Algorithmus mit entropiebasierter probabilistischer Initialisierung und Speicher für automatisiertes Rule Mining Genetische Algorithmen (GAs) haben in den letzten Jahren vielversprechende Ergebnisse im Bereich Data Mining gezeigt. Unangemessen lange Laufzeiten aufgrund des hohen Rechenaufwands im Zusammenhang mit Fitnessbewertungen raten jedoch von der Verwendung von GAs zur Wissensfindung ab. In diesem Artikel schlagen wir einen verbesserten genetischen Algorithmus für automatisiertes Rule Mining vor. Der vorgeschlagene Ansatz ergänzt die GA mit einer entropiebasierten probabilistischen Initialisierung, sodass die Ausgangspopulation relevantere und informativere Attribute hat. Darüber hinaus ist der GA mit einem Speicher zum Speichern von Fitnesswerten ausgestattet. Die vorgeschlagenen Ergänzungen haben einen doppelten Vorteil. Erstens verkleinert es den Suchraum der Kandidatenregeln, wodurch die Suche effektiver wird, um bessere Anpassungsregeln in einer geringeren Anzahl von Generationen zu entwickeln. Zweitens wird die Anzahl der insgesamt erforderlichen Fitnessbewertungen reduziert, was zu einem Gewinn an Laufzeit führt. Die erweiterte GA wurde für Datensätze aus dem UCI-Repository für maschinelles Lernen verwendet und hat ermutigende Ergebnisse gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17857-3_60 b140ceeec3c58510812e72636f1d63fd;de;;;7.4.;;;Adaptiver Rauschplan für den Rauschunterdrückungs-Autoencoder Das Papier schlägt einen Adaptive Stacked Denoising Autoencoder (ASDA) vor, um die Einschränkungen des Stacked Denoising Autoencoder (SDA) [6] zu überwinden, bei dem der Rauschpegel während der Trainingsphase des Autoencoders konstant gehalten wird. Bei ASDA wird ein Annealing-Plan auf Rauschen angewendet, bei dem der durchschnittliche Rauschpegel der Eingangsneuronen während der anfänglichen Trainingsphase hoch gehalten wird und das Rauschen im Verlauf des Trainings langsam reduziert wird. Der Rauschpegel jedes Eingangsneurons wird basierend auf den Gewichten berechnet, die das Eingangsneuron mit der verborgenen Schicht verbinden, während der durchschnittliche Rauschpegel der Eingangsschicht auf dem gleichen Wert gehalten wird, wie der durch den Annealing-Plan berechnete. Dadurch kann der Autoencoder mit Rauschunterdrückung den Eingangsverteiler detaillierter lernen. Wie aus den Ergebnissen hervorgeht, bietet ASDA eine bessere Klassifizierungsgenauigkeit im Vergleich zu SDA bei Varianten des MNIST-Datensatzes [3].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12637-1_67 317d06a90e68c9c3ce89ac2f2763d643;de;;;7.4.;;;Künstliche Intelligenz und ihre natürlichen Grenzen Ein Argument mit Wurzeln in der antiken griechischen Philosophie behauptet, dass nur der Mensch zu einer bestimmten Denkklasse fähig ist, die als konzeptionell bezeichnet wird, im Gegensatz zum Wahrnehmungsdenken, das Menschen, höheren Tieren und einigen Maschinen gemeinsam ist. Wir skizzieren die detaillierteste moderne Version dieses Arguments von Mortimer Adler, der in den 1960er Jahren für die Einzigartigkeit der menschlichen Kraft des konzeptionellen Denkens argumentierte. Er gab auch zu, dass eine solche Leistung seiner Schlussfolgerung widersprechen würde, wenn konzeptionelles Denken jemals von Maschinen manifestiert würde. Wir greifen Adlers Kriterium im Licht der letzten fünf Jahrzehnte der Forschung zu künstlicher Intelligenz (KI) auf und verfeinern es im Hinblick auf die klassischen Definitionen des wahrnehmungs- und konzeptuellen Denkens. Anschließend untersuchen wir zwei gut publizierte Beispiele kreativer Werke (Prosa und Kunst), die von KI-Systemen produziert werden, und zeigen, dass ihnen Beweise für konzeptionelles Denken zu fehlen scheinen. Obwohl sich in naher Zukunft deutlichere Beweise für konzeptionelles Denken von KI-Systemen ergeben könnten, insbesondere wenn sich die globale neuronale Arbeitsraumtheorie des Bewusstseins gegenüber ihrer konkurrierenden, integrierten Informationstheorie durchsetzt, scheint die Frage, ob KI-Systeme konzeptionelles Denken betreiben können noch offen sein.;-;-;-;https://link.springer.com/article/10.1007/s00146-020-00995-z dc6e9a9d1205fa1c5b6c859c3ac96328;de;;;7.4.;;;Semi-überwachtes Lernen für Convolutional Neural Networks mit milden Überwachungssignalen Wir schlagen eine neuartige semi-überwachte Lernmethode für Convolutional Neural Networks (CNNs) vor. CNN ist eines der beliebtesten Modelle für Deep Learning und seine Erfolge bei verschiedenen Arten von Anwendungen umfassen Bild- und Spracherkennung, Bildunterschrift und das Spiel „Go“. Der Bedarf an einer großen Menge an gekennzeichneten Daten für überwachtes Lernen in CNNs ist jedoch ein ernstes Problem. Unüberwachtes Lernen, das die Informationen nicht gekennzeichneter Daten verwendet, könnte der Schlüssel zur Lösung des Problems sein, obwohl es in CNN-Systemen nicht ausreichend untersucht wurde. Das vorgeschlagene Verfahren beinhaltet sowohl überwachtes als auch unüberwachtes Lernen in identischen Feedforward-Netzwerken und ermöglicht ein nahtloses Umschalten zwischen ihnen. Wir haben die Methode anhand einer Bilderkennungsaufgabe validiert. Die Ergebnisse zeigten, dass das Lernen mit nicht gekennzeichneten Daten die Effizienz des überwachten Lernens dramatisch verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-46681-1_46 5761fbe649e24bf3ab14b99d88ec6573;de;;;7.4.;;;Künstliche Intelligenz und Expertensysteme in der Phytogeographie Als eigenständige Disziplin ist Künstliche Intelligenz (KI) erst etwa dreißig Jahre alt. Da sein Wachstum exponentiell war, sind viele seiner Konzepte und Ergebnisse relativ neu und werden noch überarbeitet. KI ist eine Überschneidung der Bereiche Informatik und Kognitionswissenschaft (Gardner, 1986). KI-Mitarbeiter haben das Informationsverarbeitungsmodell als ihr wichtigstes Paradigma angenommen. Dieses Modell dominiert die kognitive Psychologie, eine der unterstützenden Disziplinen der Kognitionswissenschaft. Solange andere Aspekte und Faktoren der Intelligenz aus dem KI-Modell ausgeschlossen werden, kann es für die KI schwierig sein, höhere Aspekte der Intelligenz (z.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-2063-7_1 fb8d410f05d7121ab8e7fe885e79d5e9;de;;;7.4.;;;Einen Entdecker erschaffen: Autonomer wissenssuchender Agent Der Bau eines Roboter-Entdeckers kann als der ultimative Erfolg einer automatisierten Entdeckung angesehen werden. Um einen solchen Agenten zu bauen, müssen wir algorithmische Details der Entdeckungsprozesse und die Darstellung wissenschaftlicher Erkenntnisse verstehen, die zur Unterstützung der Automatisierung erforderlich sind. Um den Entdeckungsprozess zu verstehen, müssen wir automatisierte Systeme aufbauen. Dieser Artikel untersucht die Anatomie eines Roboter-Entdeckers und untersucht verschiedene Komponenten, die über zwei Jahrzehnte in unterschiedlichem Maße entwickelt und verfeinert wurden. Wir klären auch den Begriff der Autonomie eines künstlichen Agenten und diskutieren, wie Maschinenentdecker autonomer werden. Schließlich fassen wir die wichtigsten Prinzipien zusammen, die bei der Konstruktion automatisierter Entdecker nützlich sind, und diskutieren verschiedene mögliche Einschränkungen der Automatisierung.;-;-;-;https://link.springer.com/article/10.1007/BF00124613 0c50a9cb1e4aab50add07a653f6eeaa4;de;;;7.4.;;;Verwendung von Negation und Phrasen beim Induzieren von Regeln für die Textklassifizierung Es wird eine Untersuchung der Verwendung der Negation beim induktiven Regellernen (IRL) zur Textklassifikation beschrieben. Es hat sich gezeigt, dass die Verwendung von negierten Merkmalen im IRL-Prozess die Effektivität der Klassifizierung verbessert. Obwohl es bei kleinen Datensätzen durchaus möglich ist, die potenzielle Negation aller möglichen Merkmale als Teil des Merkmalsraums einzuschließen, ist dies bei Datensätzen mit einer großen Anzahl von Merkmalen, wie sie in Text-Mining-Anwendungen verwendet werden, nicht möglich. Stattdessen ist ein Prozess erforderlich, bei dem zu negierende Merkmale dynamisch identifiziert werden können. Ein solches Verfahren wird im Beitrag beschrieben und mit etablierten Techniken (JRip, NaiveBayes, Sequential Minimal Optimization (SMO), OlexGreedy) verglichen. Die Arbeit richtet sich auch auf einen Ansatz zur Textklassifizierung basierend auf einer „Sack of Phrases“-Darstellung, wobei die Motivation hier darin besteht, dass eine Phrase semantische Informationen enthält, die in einem einzelnen Schlüsselwort nicht vorhanden sind. Darüber hinaus enthält ein gegebener Textkorpus typischerweise viel mehr Schlüsselwortmerkmale als Schlüsselwortmerkmale, wodurch mehr potenzielle Merkmale bereitgestellt werden, die negiert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-2318-7_11 996eeae82782a281ce56b6291e492c51;de;;;7.4.;;;Ein multirelationaler Entscheidungsbaum-Lernalgorithmus – Implementierung und Experimente Wir beschreiben eine effiziente Implementierung (MRDTL-2) des Multi-Relational Decision Tree Learning (MRDTL) Algorithmus [23] der wiederum auf einem Vorschlag von Knobbe et al. [19]. Wir beschreiben einige einfache Techniken, um die Berechnung ausreichender Statistiken für Entscheidungsbäume und zugehörige Hypothesenklassen aus multirelationalen Daten zu beschleunigen. Da fehlende Werte in vielen realen Anwendungen des Data Mining ziemlich häufig vorkommen, umfasst unsere Implementierung auch einige einfache Techniken zum Umgang mit fehlenden Werten. Wir beschreiben Ergebnisse von Experimenten mit mehreren realen Datensätzen aus dem Data-Mining-Wettbewerb des KDD Cup 2001 und der Discovery Challenge von PKDD 2001. Die Ergebnisse unserer Experimente zeigen, dass MRDTL mit den modernsten Algorithmen zum Lernen von Klassifikatoren aus relationalen Datenbanken konkurrenzfähig ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39917-9_5 1e8bf8c531002b04b66562dd693eb66e;de;;;7.4.;;;Maximierung der Vorteile aus Crowdsourcing-Daten Viele Menschen können manche Probleme schneller lösen als Einzelpersonen oder kleine Gruppen. Eine Crowd kann auch schnell Daten über Umstände generieren, die die Crowd selbst betreffen. Diese Crowdsourcing-Daten können genutzt werden, um der Crowd zu helfen, indem Informationen oder Lösungen schneller als mit herkömmlichen Mitteln bereitgestellt werden. Allerdings lassen sich die Crowdsourcing-Daten kaum direkt zu verwertbaren Informationen nutzen. Die intelligente Analyse und Verarbeitung von Crowdsourcing-Informationen kann dazu beitragen, Daten aufzubereiten, um die nutzbaren Informationen zu maximieren und so den Nutzen für die Crowd zurückzugeben. Dieser Artikel beleuchtet die Herausforderungen und untersucht die Möglichkeiten, die mit dem Mining von Crowdsourcing-Daten verbunden sind, um nützliche Informationen zu erhalten, sowie Details dazu, wie Crowdsource-Informationen und -Technologien bei Bedarf für die Reaktionskoordination verwendet werden können, und schlägt schließlich verwandte Bereiche für zukünftige Forschungen vor.;-;-;-;https://link.springer.com/article/10.1007/s10588-012-9121-2 b5b4bae5aba89710d40bd7d3035ffe43;de;;;7.4.;;;3D-Filterung durch Blockmatching und Convolutional Neural Network zur Bildrauschunterdrückung Blockmatching-basierte 3D-Filterverfahren haben bei Bildentrauschungsaufgaben großen Erfolg erzielt. Die manuell eingestellte Filteroperation könnte jedoch kein gutes Modell beschreiben, um verrauschte Bilder in saubere Bilder umzuwandeln. In diesem Artikel stellen wir das Convolutional Neural Network (CNN) für den 3D-Filterungsschritt vor, um ein gut angepasstes Modell für die Rauschunterdrückung zu lernen. Bei einem trainierbaren Modell wird Vorwissen genutzt, um von verrauschten Bildern auf saubere Bilder besser abzubilden. Dieses Blockanpassungs- und CNN-Joint-Modell (BMCNN) könnte Bilder mit unterschiedlichen Größen und unterschiedlicher Rauschintensität gut entrauschen, insbesondere Bilder mit hohem Rauschpegel. Die experimentellen Ergebnisse zeigen, dass diese Methode unter allen konkurrierenden Methoden das höchste Signal-Rausch-Verhältnis (PSNR) erreicht, wenn Bilder mit hohem Rauschpegel entrauscht werden (;-;-;-;https://link.springer.com/article/10.1007/s11390-018-1859-7 1d609f0b37eb2a7a8ff266f9e27b6778;de;;;7.4.;;;Lernverhalten und Lernergebnisse: die Rollen für gesellschaftlichen Einfluss und Studienfach Die Forschung hat gezeigt, dass die soziale Identifikation von Disziplinen eine bedeutende Rolle bei der Vorhersage von Lernansätzen spielt, sogar bei der Kontrolle individueller Unterschiede. Smithet al. (Educ Psychol 35(1):53–72,;-;-;-;https://link.springer.com/article/10.1007/s11218-016-9365-7 ac60dab2ff7021f0d3d9ff8ac2b99355;de;;;7.4.;;;Aktuelle Fortschritte in der neuronalen Dekodierung Neuronale Dekodierung bezieht sich auf die Extraktion semantisch bedeutsamer Informationen aus Gehirnaktivitätsmustern. Wir diskutieren, wie Fortschritte beim maschinellen Lernen zu neuen Fortschritten in der neuronalen Dekodierung führen. Während lineare Methoden die Rekonstruktion grundlegender Reize aus der Gehirnaktivität ermöglichen, sind bei der Rekonstruktion komplexer naturalistischer Reize komplexere nichtlineare Methoden erforderlich. Wir zeigen, wie tiefe neuronale Netze und kontradiktorisches Training State-of-the-Art-Ergebnisse liefern. Kontinuierliche Fortschritte beim maschinellen Lernen können eines Tages die Rekonstruktion von Gedanken aus Gehirnaktivitätsmustern ermöglichen und einen einzigartigen Einblick in die Inhalte des menschlichen Geistes ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-28954-6_21 eec04b192071f1cd34d9245e3e84eade;de;;;7.4.;;;KEB173 – Empfehlungssystem Handel und Gewerbe sind die Grundbedürfnisse des Menschen. Der internationale Handel existierte vor Jahrhunderten aufgrund fehlender Kommunikationsmöglichkeiten auf schwerfällige Weise, und die erforderlichen Vorlaufzeiten betrugen Monate und Jahre. Heute geschieht dies in Sekundenschnelle dank der Verfügbarkeit von Informations- und Kommunikationstechnologie, die jedem zur Verfügung steht. Die Käufer möchten sich vor einer Kaufentscheidung immer mit Gleichaltrigen beraten. Das Aufkommen des Internets hat es möglich gemacht, dies schmerzlos zu erreichen, die Bewertungen anderer Kunden über die Qualität der gleichen oder ähnlichen Produkte sofort online zu erhalten. Empfehlungssysteme (RS) bewerten die im Web verfügbaren Informationen und unterstützen die Nutzer bei der fundierten Auswahl von Produkten oder Dienstleistungen. Sie unterstützen den Nutzer bei der Kaufentscheidung. Bemerkenswert sind die Recherchen von Organisationen wie Amazon zu Empfehlungssystemen. In den letzten Jahrzehnten wurden eine Reihe von Softwaretools und maschinellen Lernmethoden zur Implementierung von Empfehlungssystemen vorgeschlagen. Die Benutzerbewertungen werden durch Wissensentdeckung oder maschinelle Lerntechniken analysiert, um das Kaufmuster zu extrahieren und zu verstehen. Die Empfehlungssysteme bedienen die Benutzer online und unterstützen sie bei der Auswahl von Produkten, die ihren Anforderungen entsprechen, in Absprache mit Kollegen weltweit kostenlos und sofort. In diesem Kapitel geben wir einen Überblick über Empfehlungssysteme und deren Nuancen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8258-0_11 4db3c1b2f34f58acb30beac31e806071;de;;;7.4.;;;Multimedia-Data-Mining-Framework für Rohvideosequenzen Wir erweitern unsere bisherige Arbeit [1] des allgemeinen Frameworks für Video-Data-Mining, um beispielsweise das Thema Videodaten zu minen, also bisher unbekanntes Wissen zu extrahieren und interessante Muster zu erkennen, weiter zu adressieren. In unserer vorherigen Arbeit haben wir entwickelt, wie man den eingehenden Rohvideostrom in sinnvolle Teile segmentiert und wie man ein Merkmal (d. Wir erweitern diese Arbeit wie folgt. Um Bewegungen zu extrahieren, verwenden wir eine Akkumulation quantisierter Pixelunterschiede zwischen allen Frames in einem Videosegment. Als Ergebnis werden die akkumulierten Bewegungen des Segments als a;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39666-6_2 62a853780d9f843b4ea259867d5db2fd;de;;;7.4.;;;Lokales Strukturlernen in grafischen Modellen Ein Thema beim probabilistischen Netzwerklernen ist die Ausnutzung der lokalen Netzwerkstruktur, d. h. das Erfassen von Regelmäßigkeiten in den bedingten Wahrscheinlichkeitsverteilungen, und das Lernen von Netzwerken mit einer solchen lokalen Struktur aus Daten. In diesem Artikel präsentieren wir eine Modifikation des Lernalgorithmus für Bayes-Netzwerke mit einer lokalen Entscheidungsgraphendarstellung, die in Chickering vorgeschlagen wird;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-2530-4_7 220f918c5ed5e0eaaf057dc524bbb9f7;de;;;7.4.;;;Innere Ensembles: Einsatz von Ensemble-Methoden innerhalb des Lernalgorithmus Ensemble-Methoden stellen einen wichtigen Forschungsbereich innerhalb des maschinellen Lernens dar. Hier argumentieren wir, dass die Verwendung solcher Methoden verallgemeinert und in viel mehr Situationen als bisher angewendet werden kann. Anstatt sie nur zu verwenden, um die Ausgabe eines Algorithmus zu kombinieren, können wir sie auf die Entscheidungen anwenden, die innerhalb des Lernalgorithmus selbst getroffen werden. Wir nennen diesen Ansatz Innere Ensembles. Der Hauptbeitrag dieser Arbeit besteht darin, zu zeigen, wie breit diese Idee angewendet werden kann. Konkret zeigen wir, dass die Idee auf verschiedene Lernerklassen wie Bayessche Netzwerke und K-Means-Clustering angewendet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40994-3_3 cc47da23e6ce8b0ca7d34f63ce33fbeb;de;;;7.4.;;;Lernen mit einem vierbeinigen Essstäbchen-Roboter Organismen weisen eine enge Struktur-Funktions-Beziehung auf und eine geringfügige Veränderung der Struktur kann ihrerseits ihr Output entsprechend verändern [1]. Diese Eigenschaft ist wichtig, da sie der Hauptgrund dafür ist, dass Organismen im Umgang mit Umweltveränderungen eine bessere Formbarkeit aufweisen als Computer. Ein vierbeiniger Essstäbchen-Roboter, der von einem biologisch motivierten neuromolekularen Modell namens Miky gesteuert wird, wurde entwickelt. Mikys Skelett und seine vier Füße bestanden aus 16 absetzbaren Essstäbchen, wobei jeder Fuß von einem Aktuator (Motor) gesteuert wurde. Das neuromolekulare Modell ist ein mehrstufiges neuronales Netzwerk, das die biologische Struktur-Funktions-Beziehung erfasst und dazu dient, die von seinen Sensoren gesendeten Signale in eine Sequenz von Signalen in Raum und Zeit zur Steuerung von Mikys Füßen (durch Aktoren) umzuwandeln. Die Aufgabe besteht darin, Miky beizubringen, zu gehen, zu springen, zu laufen, zu galoppieren oder sich zu drehen. Unser experimentelles Ergebnis zeigt, dass Miky eine enge Struktur-Funktions-Beziehung aufweist, die es ihm ermöglicht, diese Aufgaben kontinuierlich zu bewältigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03070-3_46 44c518ab814fe1d16447f42535cb6d04;de;;;7.4.;;;Erkennen von Depressionen in Social-Media-Beiträgen mit maschinellem Lernen Die Nutzung von Social Networking Sites (SNS) wie Twitter nimmt vor allem im jüngeren Alter schnell zu. Die Profitabilität von SNS ermöglicht es uns, ihre Interessen und Emotionen auszudrücken und ihren Tagesablauf anzubieten. SNS-Sites wie Twitter ermöglichen eine ständige Untersuchung des Nutzerverhaltens. Solche Beispiele sind wichtig für das psychologische Forschungsnetzwerk, um die Perioden und Bereiche von herausragendem Interesse zu erfassen. Die viertgrößte Depression der Welt hat sich als herausragendes Forschungsthema herausgestellt. Wir schlagen ein System vor, das Tweets als Datenquelle und SentiStrength-Sentimentanalyse verwendet, um Trainingsdaten für unser System und ein Backpropagation Neural Network (BPNN)-Modell zu erstellen, um die gegebenen Tweets in depressive oder nicht depressive Kategorien zu klassifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9187-3_64 a50dbdbab72b71a99c49aa9fe7ff48fe;de;;;7.4.;;;Verwenden der Merkmalsauswahl mit Bagging und Regelextraktion in der Drug Discovery In diesem Artikel werden verschiedene Möglichkeiten untersucht, die Merkmalsauswahl mit dem Bagging und der Regelextraktion in der prädiktiven Modellierung zu kombinieren. Experimente mit einer großen Anzahl von Datensätzen aus dem Bereich der Medizinalchemie unter Verwendung von Standardalgorithmen, die in der Weka Data Mining Workbench implementiert sind, zeigen, dass die Merkmalsauswahl zu einer deutlich verbesserten Vorhersageleistung führen kann Bootstrap erzielt das beste Ergebnis. Bei der Verwendung von Entscheidungsbäumen zur Regelextraktion kann der Effekt der Merkmalsauswahl tatsächlich nachteilig sein, es sei denn, der transduktive Ansatz Oracle Coaching wird ebenfalls verwendet. Der Einsatz von Oracle-Coaching führt jedoch zu einer deutlich verbesserten Leistung, und die besten Ergebnisse werden erzielt, wenn die Merkmalsauswahl vor dem Training des undurchsichtigen Modells durchgeführt wird. Die allgemeine Schlussfolgerung ist, dass es einen wesentlichen Unterschied für die Vorhersageleistung machen kann, genau wie die Merkmalsauswahl in Verbindung mit anderen Techniken verwendet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14616-9_40 e70404522b6da81aced4960a00111fe6;de;;;7.4.;;;Maschinelles Lernen für Hausärzte: Ein Fall von Clusteranalyse zur Untersuchung von altersbedingten Komorbiditäten und Gebrechlichkeit Viele Probleme in der klinischen Medizin sind durch hohe Komplexität und Nichtlinearität gekennzeichnet. Dies ist insbesondere bei Alterskrankheiten der Fall, chronischen Erkrankungen, von denen bekannt ist, dass sie sich bei derselben Person anhäufen. Dieses Phänomen wird als Multimorbidität bezeichnet. Neben der Anzahl chronischer Erkrankungen sind das Vorliegen integrierter geriatrischer Erkrankungen und funktioneller Defizite wie Gehschwierigkeiten, Gebrechlichkeit (eine allgemeine Schwäche im Zusammenhang mit Gewichts- und Muskelverlust und geringer Funktionsfähigkeit) wichtig für die Vorhersage negativer gesundheitlicher Folgen von ältere Menschen, wie Krankenhausaufenthalt, Abhängigkeit von anderen oder vorzeitige Sterblichkeit. In dieser Arbeit haben wir identifiziert;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29726-8_12 34e543869f7eff1e5d91ea009e41de48;de;;;7.4.;;;Selbstlernender Navigationsalgorithmus für visionsbasierte mobile Roboter mit maschinellen Lernalgorithmen Viele mobile Roboternavigationsmethoden verwenden unter anderem Laserscanner, Ultraschallsensoren, Vision-Kameras zum Erkennen von Hindernissen und Verfolgen von Wegen. Menschen verwenden jedoch nur visuelle (z. B. Augen-) Informationen zur Navigation. In diesem Artikel schlagen wir eine Methode zur Steuerung mobiler Roboter vor, die auf maschinellen Lernalgorithmen basiert, die nur Kamerasicht verwenden. Um den Zustand des Roboters anhand von Rohbildern effizient zu definieren, verwendet unser Algorithmus Bildverarbeitungs- und Merkmalsauswahlschritte, um die Merkmalsuntermenge für ein neuronales Netz auszuwählen, und verwendet die durch überwachtes Lernen gelernte Ausgabe des neuronalen Netzes. Die Ausgabe des neuronalen Netzes verwendet den Zustand eines Verstärkungslernalgorithmus, um mithilfe von Kamerabildern Strategien zur Hindernisvermeidung und Pfadverfolgung zu lernen. Der Algorithmus wird durch zwei Experimente verifiziert, bei denen es sich um Linienverfolgung und Hindernisvermeidung handelt.;-;-;-;https://link.springer.com/article/10.1007/s12206-010-1023-y 390fdb49387abf031d4d54cdab68f560;de;;;7.4.;;;Lernende angegriffene Systeme – feindliche Angriffe, Verteidigung und mehr Deep Learning hat viele Fortschritte in verschiedenen Bereichen gebracht und Anwendungen wie Sprach- und visuelle Erkennung zum Blühen gebracht. Neuere Erkenntnisse zeigen jedoch, dass Deep Neural Networks (DNN) noch viele eigene Probleme haben. Die vielen Schwachstellen, die in DNNs vorhanden sind, machen ihre Anwendung zu kritischen Problemen. Hier werden einige dieser Schwachstellen überprüft und viele ihrer möglichen Lösungen diskutiert. In Bezug auf die Gesetzgebung wird eine Reihe von Praktiken erörtert, die es der Gesetzgebung ermöglichen könnten, mit den immer unterschiedlicheren verfügbaren Algorithmen umzugehen. Ein kleiner Overhead für eine sicherere Gesellschaft. Schließlich sollten mit dem Fortschritt der künstlichen Intelligenz Algorithmen näher an den Menschen heranrücken und die Gesetzgebung selbst in einem Zeitalter, in dem wir herausgefordert sein werden, uns als Gesellschaft und darüber hinaus neu zu erfinden, mit tiefen philosophischen Fragen konfrontiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9255-3_7 4c99abc8b89b4d47d4168b10cc00da6a;de;;;7.4.;;;Integration von Data Mining und AHP für Lebensversicherungsproduktempfehlungen Produktempfehlungen sind für die Gewinnung von Kunden von entscheidender Bedeutung, insbesondere in der Lebensversicherung, bei der das Unternehmen mehrere Optionen für den Kunden hat. Dementsprechend ist es im Wettbewerbsumfeld wichtig, die Qualität einer Empfehlung zu verbessern, um die Bedürfnisse der Kunden zu erfüllen. Obwohl verschiedene Empfehlungssysteme vorgeschlagen wurden, haben nur wenige den Lebenszeitwert eines Kunden an ein Unternehmen gerichtet. Wir haben eine zweistufige Produktempfehlungsmethodik entwickelt, die Data-Mining-Techniken und den analytischen Hierarchieprozess (AHP) für die Entscheidungsfindung kombiniert. Zunächst wurde die Clustering-Technik angewendet, um Kunden nach Alter und Einkommen zu gruppieren, da diese beiden bei der Entscheidung über ein Versicherungsprodukt sehr wichtig sind. Zweitens wurde die AHP dann auf jeden Cluster angewendet, um die relativen Gewichte verschiedener Variablen bei der Bewertung des geeigneten Produkts für sie zu bestimmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25734-6_103 de706cfbad6bf8befbf96e1fa83e6552;de;;;7.4.;;;Verwenden von stilometrischen Funktionen für die Stimmungsklassifizierung Dieses Papier ist eine vergleichende Studie über Methoden zur Extraktion von Textmerkmalen beim statistischen Lernen der Stimmungsklassifikation. Die Merkmalsextraktion ist einer der wichtigsten Schritte in Klassifikationssystemen. Wir verwenden Stilometrie zum Vergleich mit TF-IDF- und Delta-TF-IDF-Basislinienmethoden bei der Stimmungsklassifizierung. Stilometrie ist ein Forschungsgebiet der Linguistik, das statistische Techniken verwendet, um den literarischen Stil zu analysieren. Um die Durchführbarkeit der Stilometrie zu beurteilen, erstellen wir ein Korpus von Produktbewertungen des traditionellsten portugiesischen Onlinedienstes, nämlich Buscapé. Wir haben 2000 Rezensionen über Smartphones gesammelt. Wir verwenden drei Klassifikatoren, Support Vector Machine (SVM), Naive Bayes und J48, um zu bewerten, ob die Stilometrie eine höhere Genauigkeit als die Methoden TF-IDF und Delta TF-IDF bei der Stimmungsklassifizierung hat. Das bessere Ergebnis fanden wir mit dem SVM-Klassifikator (82,75 %) der Genauigkeit mit Stilometrie und (72,62%) mit Delta TF-IDF und (56,25%) mit TF-IDF. Die Ergebnisse zeigen, dass die Stilometrie eine durchaus praktikable Methode zur Sentimentklassifizierung ist, die die Genauigkeit der Basismethoden übertrifft. Wir können betonen, dass der verwendete Ansatz vielversprechende Ergebnisse hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-18117-2_15 2c9bf2402c4fc00120a9eec5b2cc5cc7;de;;;7.4.;;;Genauigkeitsvergleich von Vorhersagealgorithmen des Data Mining: Anwendung im Bildungssektor Education Vorhersage ist ein wachsendes Forschungsgebiet, das viele Forscher anzieht. Die Vorhersage wird auf fast alle Sektoren angewendet. Es gibt viele kommerzielle Business-Intelligence-Software, in der Vorhersage eine der Funktionen ist. Mit dem Aufkommen von Open Source-Technologien ist es für den Bildungssektor, der normalerweise ein geringes IT-Budget hat, möglich geworden, die Informations- und Kommunikationstechnologien (IKT) optimal zu nutzen. Dieses Papier beschreibt die Verwendung von Open-Source-Software Knime zur Vorhersage von Schülerergebnissen basierend auf verschiedenen unabhängigen (Prädiktor-) Variablen und der Wert der abhängigen Variablen kann mit Entscheidungsbaum, SOTA (Self Organizing Tree Algorithm) und Naive Bayes vorhergesagt werden Dieses Papier vergleicht diese drei Vorhersagealgorithmen in Knime in Bezug auf Genauigkeit. Die vorhergesagten Ergebnisse werden mit dem tatsächlichen Ergebnis verglichen, um die Genauigkeit zu messen und den besten Vorhersagealgorithmus für die Vorhersage zu empfehlen. Dieses Papier demonstriert auch die Verwendung von Moodle - Open Source Learning Management System (LMS)-Protokollen als eines der Attribute bei der Vorhersage der Schülerergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18440-6_23 705dbf2ba08307170c0836933350cd98;de;;;7.4.;;;Big-Data-Analyse mit Data-Mining-Techniken: Eine Umfrage Die heute gesammelten Daten sind ziemlich groß. Auch in Zukunft werden die Daten noch viel stärker wachsen. Die Umfrage beleuchtet die grundlegenden Konzepte der Big-Data-Analyse und ihre Anwendung im Bereich der Wettervorhersage. Je mehr Daten uns zur Verfügung stehen, desto genauer werden die Ergebnisse sein. Eine relativ geringe Änderung der Genauigkeit von Modellen kommt der Gesellschaft sehr zugute. In der Literatur gibt es eine große Anzahl statistischer und prädiktiver Modelle zur Wettervorhersage, aber die Methoden sind zu zeitaufwändig und können unstrukturierte sowie riesige Datensätze nicht verarbeiten. Um dieses Problem zu lösen, haben verschiedene Autoren das Apache Hadoop Map Reduce-Framework zur Verarbeitung und Speicherung von Big Data untersucht. In diesem Papier haben wir die Arbeit verschiedener Forscher zur Wettervorhersage mit Big-Data-Analyse diskutiert und analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3140-4_24 9851694d57908f52678887fbe71ff9bf;de;;;7.4.;;;Effiziente dichtebasierte Ausreißerbehandlungstechnik im Data Mining Der lokale Ausreißerfaktor (LOF) ist ein wichtiger und bekannter dichtebasierter Ausreißerbehandlungsalgorithmus, der quantifiziert, wie stark ein Objekt in einer gegebenen Datenbank ausreißt. In diesem Papier diskutieren wir zunächst LOF und seine Varianten (LOF’ und LOF“) und schlagen dann einen effizienten dichtebasierten Ausreißer-Handling-Algorithmus vor, der von LOF und LOF’ inspiriert ist. Dieser Algorithmus konzentriert sich nicht nur auf das dichtebasierte Konzept zur Erkennung lokaler Ausreißer, sondern reduziert auch die Anzahl der Durchgänge zum Scannen der gesamten Datenbank. Diese Methode berechnet die MinPts-Dist-Varianz für jedes Objekt. Wenn die MinPts-Dist-Varianz eines Objekts größer als ein bestimmter Schwellenwert ist, wird dieses Objekt als Ausreißer betrachtet. Die experimentellen Ergebnisse zeigen, dass der vorgeschlagene Algorithmus zur Behandlung von Ausreißern Ausreißer effektiver erkennt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17857-3_53 922dbafcd3203bc5b26f22d99ce2388a;de;;;7.4.;;;Einbettung von kontradiktorischen heterogenen Netzwerken mit Metapath-Aufmerksamkeitsmechanismus Heterogene Informationsnetzwerk (HIN)-strukturierte Daten bieten ein effektives Modell für praktische Zwecke in der realen Welt. Die Netzwerkeinbettung ist grundlegend für die Unterstützung der netzwerkbasierten Analyse- und Vorhersageaufgaben. Derzeit populäre Verfahren zur Netzwerkeinbettung können die Semantik von HIN normalerweise nicht effektiv bewahren. In dieser Studie schlagen wir AGA2Vec vor, ein generatives kontradiktorisches Modell für die HIN-Einbettung, das Aufmerksamkeitsmechanismen und Metapfade nutzt. Um die semantischen Informationen von mehrfach typisierten Entitäten und Beziehungen in HIN zu erfassen, entwickeln wir eine gewichtete Metapfadstrategie, um die Nähe von HIN zu bewahren. Wir verwenden dann einen Autoencoder und ein generatives gegnerisches Modell, um robuste Darstellungen von HIN zu erhalten. Die Ergebnisse von Experimenten an mehreren realen Datensätzen zeigen, dass der vorgeschlagene Ansatz den modernsten Ansätzen für die HIN-Einbettung überlegen ist.;-;-;-;https://link.springer.com/article/10.1007/s11390-019-1971-3 aae158d05b9ed8697fb34bfd973d568e;de;;;3.2.;;;Schnelle Charakterisierung der Bindungseigenschaft der HtrA2/Omi-PDZ-Domäne durch Validierungsscreening der PDZ-Ligandenbibliothek HtrA2/Omi ist eine mitochondriale Serinprotease aus Säugetieren, und es wurde festgestellt, dass sie in Säugetierzellen eine Doppelrolle spielt, nicht nur als Apoptose-induzierendes Protein, sondern auch als Aufrechterhaltung der mitochondrialen Homöostase. Die PDZ-Domäne ist eines der wichtigsten Protein-Protein-Interaktionsmodule und an einer Vielzahl wichtiger zellulärer Funktionen beteiligt, wie der Signalübertragung, dem Abbau von Proteinen und der Bildung von Zytoskelett. Kürzlich wurde berichtet, dass die PDZ-Domäne von HtrA2/Omi die proteolytische Aktivität durch ihre Wechselwirkungen mit Ligandenproteinen regulieren könnte. In dieser Studie haben wir die Bindungseigenschaften der HtrA2/Omi-PDZ-Domäne durch Validierungsscreening der PDZ-Ligandenbibliothek mit dem Hefe-Zwei-Hybrid-Ansatz schnell charakterisiert. Dann sagten wir seine neuen Ligandenproteine ​​im menschlichen Proteom voraus und bestätigten sie im Hefe-Zwei-Hybrid-System. Schließlich analysierten wir die kleinsten Netzwerke, die durch die kürzeste Pfadlänge zwischen den Proteinpaaren neuartiger Wechselwirkungen begrenzt sind, um die Zuverlässigkeit der identifizierten Wechselwirkungen zu bewerten. Die Ergebnisse zeigten einige neue Bindungseigenschaften der HtrA2/Omi-PDZ-Domäne. Neben dem berichteten Klasse-II-PDZ-Motiv bindet es auch an Klasse-I- und Klasse-III-Motive und zeigt eine eingeschränkte Variabilität bei P;-;-;-;https://link.springer.com/article/10.1007/s11427-007-0037-x 3b8056adb1650bf9d5bee95906cc6d7a;de;;;7.4.;;;Konische Multitask-Klassifizierung Traditionell optimieren Multitask Learning (MTL)-Modelle den Durchschnitt aufgabenbezogener Zielfunktionen, was ein intuitiver Ansatz ist und den wir als Average MTL bezeichnen. Ein allgemeinerer Rahmen, der als konische MTL bezeichnet wird, kann jedoch formuliert werden, indem stattdessen konische Kombinationen der Zielfunktionen betrachtet werden. In diesem Rahmen tritt Average MTL als Sonderfall auf, wenn alle Kombinationskoeffizienten gleich 1 sind MTL over Average MTL wurde in früheren Arbeiten experimentell nachgewiesen, eine theoretische Begründung wurde bisher nicht geliefert. In diesem Artikel leiten wir eine Generalisierungsgrenze für die konische MTL-Methode ab und zeigen, dass die engste Grenze nicht unbedingt erreicht wird, wenn alle Kombinationskoeffizienten gleich 1 sind. Daher ist die durchschnittliche MTL möglicherweise nicht immer die optimale Wahl, und es ist wichtig, Betrachten Sie Conic MTL. Als Nebenprodukt der Verallgemeinerungsbindung erklärt es auch theoretisch die guten experimentellen Ergebnisse früherer einschlägiger Arbeiten. Schließlich schlagen wir ein neues konisches MTL-Modell vor, dessen konische Kombinationskoeffizienten die Generalisierungsgrenze minimieren, anstatt sie heuristisch zu wählen, wie dies bei früheren Methoden der Fall war. Die Begründung und der Vorteil unseres Modells werden durch eine Reihe von Experimenten durch Vergleich mit mehreren anderen Methoden demonstriert und verifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44851-9_13 0fe1d630b957380cd8ed5459e8c3aca9;de;;;7.4.;;;Schulung von Invarianten Support Vector Machines Praktische Erfahrungen haben gezeigt, dass zur Erzielung einer bestmöglichen Performance Vorkenntnisse über Invarianzen eines vorliegenden Klassifikationsproblems in das Training einfließen sollten. Wir beschreiben und überprüfen alle dafür bekannten Verfahren in Support-Vektor-Maschinen, stellen experimentelle Ergebnisse bereit und diskutieren ihre jeweiligen Vorzüge. Eines der bedeutenden neuen Ergebnisse, über die in dieser Arbeit berichtet wurde, ist unser jüngstes Erreichen des niedrigsten gemeldeten Testfehlers bei der bekannten MNIST-Ziffernerkennungs-Benchmark-Aufgabe mit SVM-Trainingszeiten, die auch deutlich schneller sind als frühere SVM-Methoden.;-;-;-;https://link.springer.com/article/10.1023/A%3A1012454411458 118f7725834095b300cfc9053dc456ae;de;;;7.4.;;;Auffälligkeitserkennung über Hintergrund-Prior- und Vordergrund-Seeds Als Bildvorverarbeitungstechnologie kann die Salienzerkennung (DS) bei einer Vielzahl von Sehaufgaben eingesetzt werden. Es wird ein Bottom-Up-Verfahren von DS über Hintergrund-Prior- und Vordergrund-Seeds vorgeschlagen. Um das Objekt hervorzuheben und das Hintergrundrauschen zu unterdrücken, werden zwei Salienzkarten erhalten, indem die Hintergrundprior- und Vordergrund-Seeds verwendet werden. Zuerst verwenden wir globale Farb- und räumliche Distanzmatrizen, um eine Hintergrundsalienzkarte zu berechnen. Um die Salienzregion gleichmäßig hervorzuheben, werden die einschichtigen zellulären Automaten verwendet, um die hintergrundbasierte Salienzkarte zu verfeinern. Zweitens wird ein Satz von Vordergrund-Seeds aus der verfeinerten Hintergrund-basierten Salienzkarte erhalten. Dann wird die auf Vordergrund basierende Salienzkarte basierend auf den Vordergrund-Seeds berechnet und durch eine verzerrte Gaußsche Filterung verfeinert. Das vorgeschlagene Verfahren könnte das Vordergrundziel hervorheben sowie das Hintergrundrauschen begrenzen. Die Versuchsergebnisse zeigen, dass unsere Methode eine gute Fähigkeit zur Erkennung von Auffälligkeiten aufweist.;-;-;-;https://link.springer.com/article/10.1007/s11042-019-7728-8 c39d58b912a165cc1a6951f94661c9aa;de;;;7.4.;;;Hybride Machine-Learning-Modelle zur Klassifizierung von Wohnanfragen für Smart Dispatching Dieses Papier präsentiert eine hybride maschinelle Lernmethode zur Klassifizierung von Wohnanfragen in natürlicher Sprache an zuständige Abteilungen, die den Bewohnern im Rahmen der Vision digitaler Regierungsdienste in Smart Cities zeitnahe Antworten geben. Wohnanfragen in natürlichsprachlichen Beschreibungen decken fast jeden Aspekt des täglichen Betriebs einer Stadt ab. Daher sind die zuständigen Abteilungen bis auf die Ebene der lokalen Gemeinschaften feingranular. Es gibt keine spezifischen allgemeinen Kategorien oder Labels für jedes Anfragemuster. Dies verursacht zwei Probleme für überwachte Klassifizierungslösungen, nämlich (1) die Anforderungsmusterdaten sind unausgeglichen und (2) das Fehlen spezifischer Labels für das Training. Um diese Probleme zu lösen, untersuchen wir eine hybride Methode des maschinellen Lernens, die mittels unüberwachter Clustering-Algorithmen Metaklassen-Labels generiert, Zwei-Wort-Einbettungsmethoden mit drei Klassifikatoren (einschließlich zweier hierarchischer Klassifikatoren und eines restlichen Faltungsneuralnetzwerks) anwendet Klassifikator mit der besten Leistung als Klassifikationsergebnis. Wir demonstrieren unseren Ansatz, der bessere Klassifizierungsaufgaben im Vergleich zu zwei Benchmarking-Modellen für maschinelles Lernen, dem Naive Bayes-Klassifikator und einem Multiple Layer Perceptron (MLP), durchführt. Darüber hinaus liefert die hierarchische Klassifikationsmethode Einblicke in die Quelle von Klassifikationsfehlern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1922-2_26 5fa91a316db06590505e748746f8162f;de;;;7.4.;;;Bibliografischer automatischer Klassifikationsalgorithmus basierend auf semantischer Raumtransformation Angesichts der chinesischen bibliographischen Data-Mining-Anwendung der chinesischen Bibliographie wird eine verbesserte semantische Raumtransformationsmethode vorgeschlagen. Zunächst wird das ICTCLAS-System verwendet, um die Texte vorzuverarbeiten und Lemmavektoren basierend auf Worthäufigkeitsmerkmalen zu konstruieren. Dann werden die Häufigkeitsmerkmale der Worthäufigkeit und die Häufigkeit des inversen Häufigkeitsdokuments fusioniert, um die Merkmalsmatrix des Trainingsprobensatzes zu konstruieren. Dann wird die Matrix zerlegt und durch den Singularwert transformiert, um einen semantischen Raum zu erhalten, der das Ziel hat, eine semantische Raumtransformation an den Texteigenvektoren durchzuführen, um semantische Vektoren zu erhalten. Schließlich wird ein gemeinsamer SVM-Klassifizierer konstruiert, um automatisch die semantischen Vektoren entsprechend der chinesischen Bibliographie zu klassifizieren. Umfangreiche experimentelle Ergebnisse zeigen, dass die Klassifikationsgenauigkeit dieser Methode höher ist als die der bestehenden Methoden.;-;-;-;https://link.springer.com/article/10.1007/s11042-019-7400-3 d02e96c5decf0c254810e974de442828;de;;;7.4.;;;Mikromechanik als Testbed für die Evaluation von Methoden der Künstlichen Intelligenz Einige der Methoden der künstlichen Intelligenz (KI) könnten verwendet werden, um die Leistung von Automatisierungssystemen in Fertigungsprozessen zu verbessern. Die Anwendung dieser Methoden in der Industrie ist jedoch aufgrund der hohen Kosten der Experimente mit den KI-Systemen, die auf konventionelle Fertigungssysteme angewendet werden, nicht weit verbreitet. Um die Kosten für solche Experimente zu reduzieren, haben wir eine spezielle mikromechanische Ausrüstung entwickelt, die der konventionellen mechanischen Ausrüstung ähnelt, jedoch viel kleinerer Baugrößen und daher geringerer Kosten ist. Mit dieser Ausrüstung können auf einfache und kostengünstige Weise verschiedene KI-Methoden evaluiert werden. Die Methoden, die gute Ergebnisse zeigen, können durch entsprechende Skalierung auf die Industrie übertragen werden. Dieses Papier enthält eine kurze Beschreibung von kostengünstigen Mikroequipment-Prototypen und einigen KI-Methoden, die mit den genannten Prototypen evaluiert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34749-3_29 413debacc350b37a4bee26c8246fe009;de;;;7.4.;;;Nativismus und Konstruktivismus Wir betreten jetzt den Kern der heißesten Debatte in der Geschichte der Psycholinguistik. Dies ist die Frage, welche Prozesse angeboren sind und wie sie das Sprachverhalten und den Spracherwerb erklären.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-1697-4_6 dab87c5efde23cec8a9f7ccef8a9a58a;de;;;7.4.;;;Mensch-KI-Kollaboration Die Fähigkeit, innerhalb eines autonomen Informationsverarbeitungssystems kollaborativ zu argumentieren, bezeichnet die Notwendigkeit und die Fähigkeit, auf Informationen, Wissen, Beobachtungen und Erfahrungen zu schließen, um Veränderungen innerhalb des Systems zu beeinflussen, die die Ausführung neuer, bisher unbekannter oder bereits erlernter Aufgaben unterstützen und effektiv (Crowder, Reusable Launch Vehicle Automated Mission Planning Concepts, Lockheed Martin, Littleton, 1996). Der Akt des Denkens und Schließens ermöglicht es einem autonomen System, Darstellungen von Konzepten oder Wissen zu konstruieren oder zu modifizieren, die das System erlebt und lernt. Künstliche Argumentation ermöglicht es einem künstlich intelligenten System (AIS), skelettartige oder unvollständige Informationen oder Spezifikationen über eine oder mehrere seiner Domänen zu konkretisieren (Selbstbewertung). Die hier beschriebene Forschung beschreibt Architekturen und Algorithmen für ein kognitives System von Intelligent Information Software Agents (ISAs), um die kollaborative Kommunikation zwischen Menschen und künstlich intelligenten Systemen zu erleichtern (Scally et al., Proceedings of the Advanced Maui Optical and Space Surveillance Technologies Conference, Maui HALLO, 2011).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-17081-3_4 f6d5d352624465f859a87b8f82350a6e;de;;;7.4.;;;Integrierter Multi-Agent-Ansatz zur Gewährleistung der Netzwerksicherheit: Modelle der Agenten-Community In diesem Papier wird ein integrierter Multi-Agenten-Ansatz für den Aufbau eines Netzwerksicherheitssystems (NSS) betrachtet. Der NSS besteht aus einer Vielzahl spezialisierter intelligenter Agenten, die über das Computernetzwerk verteilt sind. Die Architektur des NSS wird skizziert. Der Schwerpunkt liegt auf einer Beschreibung der Betriebs- und Lernmechanismen, die in den Sicherheitsagenten implementiert sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35515-3_30 a25c68bf20e70aecd73c23e7294a24a8;de;;;7.4.;;;Wissenswiederverwendung des lernenden Agenten basierend auf Faktorinformationen von Verhaltensregeln In dieser Studie versuchen wir, Wissen zu extrahieren, indem wir mithilfe eines autonomen lernenden Agenten Ergebnisse aus mehreren Umgebungen sammeln. Ein gemeinsamer Faktor der Umgebung wird durch Anwenden einer nicht-negativen Matrixfaktorisierung auf den Satz von Lernergebnissen des Verstärkungslernagenten extrahiert. Beim Transferlernen des Wissensmanagements von Agenten wird die Wissensdatenbank mit zunehmender Anzahl von erfahrenen Aufgaben größer und die Kosten der Wissensauswahl steigen. Durch den vorgeschlagenen Ansatz kann ein Agent entwickelt werden, der sich an mehrere Umgebungen anpassen kann, ohne die Kosten der Wissensauswahl zu erhöhen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36808-1_40 4869ed43aa2b3c6e77b5a1dec168f151;de;;;7.4.;;;Policy-Suche nach motorischen Primitiven in der Robotik Viele motorische Fähigkeiten in der humanoiden Robotik können mit parametrisierten motorischen Primitiven erlernt werden. Während bisher erfolgreiche Anwendungen mit Imitationslernen erzielt wurden, handelt es sich bei den meisten interessanten motorischen Lernproblemen um hochdimensionale Verstärkungslernprobleme. Diese Probleme sind oft außerhalb der Reichweite aktueller Reinforcement-Learning-Methoden. In diesem Artikel untersuchen wir parametrisierte Policy-Suchmethoden und wenden diese auf Benchmark-Probleme des motorisch-primitiven Lernens in der Robotik an. Wir zeigen, dass viele bekannte parametrisierte Policy-Suchmethoden aus einem allgemeinen, gemeinsamen Framework abgeleitet werden können. Dieses Framework liefert sowohl Policy-Gradienten-Methoden als auch von der Erwartungsmaximierung (EM) inspirierte Algorithmen. Wir stellen einen neuartigen EM-inspirierten Algorithmus für das Policy-Lernen vor, der sich besonders gut für dynamische Systemmotorprimitive eignet. Wir vergleichen diesen Algorithmus, sowohl in der Simulation als auch an einem realen Roboter, mit mehreren bekannten parametrisierten Policy-Suchmethoden wie episodische REINFORCE, ‘Vanilla’ Policy Gradients with optimal baselines, episodischer Natural Actor Critic und episodische Reward-Weighted Regression. Wir zeigen, dass die vorgeschlagene Methode sie bei einem empirischen Benchmark zum Erlernen von Motorprimitiven dynamischer Systeme sowohl in der Simulation als auch an einem realen Roboter übertrifft. Wir wenden es im Kontext des motorischen Lernens an und zeigen, dass es eine komplexe Ball-in-a-Cup-Aufgabe an einem echten Barrett WAM™ Roboterarm lernen kann.;-;-;-;https://link.springer.com/article/10.1007/s10994-010-5223-6 a726dc6e1c3fea206da0bf25ae355b40;de;;;7.4.;;;Prognose von Unternehmensinsolvenzen mit einem Ensemble von Klassifikatoren Die Vorhersage von Unternehmensinsolvenzen ist ein Phänomen von wachsendem Interesse für Investoren, Gläubiger, Kreditnehmer und Regierungen gleichermaßen. Eine rechtzeitige Identifizierung des drohenden Scheiterns von Unternehmen ist wirklich erwünscht. Das Ziel dieser Forschung ist es, überwachte maschinelle Lerntechniken in einer solchen Umgebung einzusetzen. Eine Reihe von Experimenten wurde mit repräsentativen maschinellen Lernalgorithmen durchgeführt, die mit einem Datensatz von 150 gescheiterten und solventen griechischen Unternehmen trainiert wurden. Es zeigte sich, dass ein Ensemble von Klassifikatoren es den Nutzern ermöglichen könnte, Insolvenzen lange vor der endgültigen Insolvenz mit zufriedenstellender Genauigkeit vorherzusagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30448-4_9 4e1face817175f0ec4ccfc512d460c77;de;;;7.4.;;;Spam-Erkennung mit Zeichen N-Gramm In diesem Whitepaper wird ein inhaltsbasierter Ansatz zur Spam-Erkennung basierend auf Informationen auf niedriger Ebene vorgestellt. Anstelle der traditionellen „Tüte mit Worten“ verwenden wir eine „Tüte mit Charakter“;-;-;-;https://link.springer.com/chapter/10.1007/11752912_12 1a3c29244084505f4f3814122c85a385;de;;;7.4.;;;Ein effizientes Intrusion Detection System mit Convolutional Neural Network Cyber-Sicherheit in den vernetzten Systemen ist der herausforderndste und riskanteste Aspekt der modernen digitalen Welt. Aufgrund der Verfügbarkeit von Rechenressourcen wird der Bereich des Deep Learning in vielen Bereichen intensiv genutzt. In diesem Vorschlag verwenden wir IDS unter Verwendung eines Convolutional Neural Network. Intrusion Detection System mit Convolutional Neural Networks hilft uns, den ein- oder ausgehenden Datenverkehr in normal oder angreifend zu erkennen, zu analysieren und zu kategorisieren. In diesem Papier haben wir IDS mit CNN für die binäre Klassifizierung und die Mehrklassenklassifizierung für gegebene Verkehrsdaten implementiert. Die Ergebnisse bewiesen, dass das vorgeschlagene IDS mit CNN besser ist als die anderen bestehenden IDS-Modelle, die maschinelles Lernen verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3338-9_22 239de4d432a83b1a44faaf5cf9a04831;de;;;7.4.;;;Intelligente Datenanalyse in der Informationssicherheit Derzeit gibt es eine Vielzahl von Trends und Entwicklungen bei Systemen der künstlichen Intelligenz. Dieser Beitrag beschäftigt sich mit der verfügbaren intelligenten Datenanalyse in der Informationssicherheit und den Möglichkeiten des Data Mining. Beispiele für Aufgaben, die mit Systemen der künstlichen Intelligenz gelöst werden können, werden vorgestellt, darunter sicheres Ressourcenmanagement, Vorhersage kritischer Zustände und Fehler, Lösung von Konflikten in Rechenprozessen und Informationssicherheitsvorschriften sowie Forensik.;-;-;-;https://link.springer.com/article/10.3103/S0146411616080307 b78348424be44f60446bf1ccae57393b;de;;;7.4.;;;Mehrere Hypergraph-Rankings zur Erkennung von Videokonzepten Dieses Papier befasst sich mit dem Problem der Videokonzepterkennung unter Verwendung der Multi-Modality-Fusion-Methode. Motiviert durch Multi-View-Lernalgorithmen können Multi-Modalität-Features von Videos durch mehrere Grafiken dargestellt werden. Und die graphbasierten semi-überwachten Lernmethoden können auf mehrere Graphen erweitert werden, um die semantischen Labels für unbeschriftete Videodaten vorherzusagen. Herkömmliche Graphen stellen jedoch nur homogene paarweise Verknüpfungsbeziehungen dar, und daher werden die in Videos inhärenten Korrelationen höherer Ordnung, wie z. B. visuelle Ähnlichkeiten höherer Ordnung, ignoriert. In diesem Papier stellen wir heterogene Merkmale durch mehrere Hypergraphen dar und dann können die korrelierten Stichproben höherer Ordnung mit Hyperkanten assoziiert werden. Darüber hinaus wird der Multi-Hypergraph-Ranking-(MHR)-Algorithmus vorgeschlagen, indem Markov-Random-Walk auf jedem Hypergraphen definiert wird und dann die gemischten Markov-Ketten gebildet werden, um transduktives Lernen in mehreren Hypergraphen durchzuführen. In Experimenten mit dem TRECVID-Datensatz wird ein Dreifach-Hypergraph bestehend aus visuellen, textuellen Merkmalen und mehreren beschrifteten Tags konstruiert, um Konzeptbeschriftungen für unbeschriftete Videoaufnahmen durch das MHR-Framework vorherzusagen. Experimentelle Ergebnisse zeigen, dass unser Ansatz effektiv ist.;-;-;-;https://link.springer.com/article/10.1631/jzus.C0910453 4c7724ddab80d87754585fa14fe414d9;de;;;7.4.;;;Ein auf Quantenklassifizierern basierendes aktives maschinelles Lernen für intelligente interaktive Dienste Die Reaktionszeit interaktiver Dienste hängt nicht nur von der Netzwerklatenz, sondern auch von der Computerzeit ab. Aktive Lernalgorithmen sind die wichtigsten Methoden. Ein Problem besteht darin, dass diese Algorithmen mit unsicheren Abtaststrategien eine aktiv lernende Abtaststrategie auf der Grundlage einer Abtastfehlerkorrektur vorschlagen, um sicherzustellen, dass die Effizienz und Genauigkeit des interaktiven Informationsabrufs verbessert werden, und sie haben eine hohe Rechenkomplexität. Aufgrund der Rechenkomplexität ist diese Methode jedoch nur für kleinere Datensätze geeignet. Dieser Artikel beschreibt die Verwendung von Quantenclustern zur Beschleunigung von Berechnungen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72795-6_26 60983f26850c9020beef24ce7969a0de;de;;;7.4.;;;Schätzung der Behandlungsepisoden anhand verknüpfter medizinischer Schadensdaten Australien verfügt über umfangreiche administrative Gesundheitsdaten, die vom Commonwealth und staatlichen Stellen gesammelt werden. Mit einem einzigartigen bereinigten und verknüpften administrativen Gesundheitsdatensatz gehen wir das Problem der empirischen Definition von Pflegeepisoden an. Eine Pflegeepisode ist ein Zeitintervall, das medizinische Leistungen in Bezug auf eine bestimmte medizinische Situation enthält. In dieser Arbeit handelt es sich bei der medizinischen Situation um eine Krankenhauseinweisung. Die interessierenden medizinischen Leistungen sind pathologische Tests, bildgebende Diagnostik und nicht-invasive Untersuchungsverfahren, die vor oder nach der Krankenhausaufnahme durchgeführt werden, aber mit der Krankenhausaufnahme „verbunden“ sind. Die Aufgabe kann darin gesehen werden, ein Signal in einer Zeitreihe zu einer Krankenhausaufnahme zu detektieren, abgegrenzt vom Hintergrundrauschen der laufenden medizinischen Versorgung. Unser Ansatz verwendet ein Ensemble-Paradigma (Expertengremium), bei dem wir mehrere Agenten (alternative Vorhersagemodelle) implementieren, um Intervalle separat zu schätzen und dann eine robuste Intervallschätzung unter Verwendung eines Abstimmungsschemas auszuwählen. Die Ergebnisse wurden in einer Studie für das Commonwealth Department of Health and Ageing verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36187-1_58 5367684d3369074ca4d0e1a37c451f4e;de;;;3.2.;;;Eine nahtlose Multimedia-Service-Technik für mobile digitale Bibliotheken Dieses Papier befasst sich mit einer Technik zur Unterstützung eines nahtlosen Multimediadienstes in einer mobilen digitalen Bibliothek. Multimediadienste in einer mobilen digitalen Bibliothek müssen häufig unterbrochen werden, während sich der mobile Knoten (MN) zwischen den Zugangspunkten (AP) bewegt. Um einen kontinuierlichen Dienst zu erhalten, muss der MN eine neue IP-Adresse erwerben und sich jedes Mal neu verbinden, wenn er auf einen neuen AP zugreift. In diesem Fall kann es den Unterbrechungsdienst nicht vermeiden und eine erneute Verbindung zum Multimediaserver der digitalen Bibliothek herstellen. Um einen nahtlosen Multimediadienst für die digitale Bibliothek im WLAN bereitzustellen, verwendet dieses Dokument einen reibungslosen Übergabemechanismus unter Verwendung von AP-Nummern als IP-Header, der nur aus 10 Bits besteht, und eine Technik, auf die die IP-Adresse, die vom AP zum ersten Mal zugegriffen wird, zugegriffen wird, wenn ein MN das WLAN betritt nicht ändern. Dieser vorgeschlagene Mechanismus kann einen nahtlosen Dienst ohne Unterbrechung und Wiederverbindung in der mobilen digitalen Bibliothek bereitstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32692-9_96 b8976727e9fcf603446bc69404385418;de;;;7.4.;;;Erkennung von Überlebensmustern bei Frauen mit invasivem Gebärmutterhalskrebs mit Entscheidungsbäumen In dieser Arbeit werden die ersten Ergebnisse des Prozesses der Extraktion von Überlebensmustern bei diagnostizierten Frauen mit invasivem Gebärmutterhalskrebs mit Klassifikationstechniken aus Daten präsentiert, die im bevölkerungsbasierten Krebsregister der Gemeinde Pasto (Kolumbien) für einen Zeitraum von 10 Jahren gemeldet wurden. Das generierte Wissen wird es ermöglichen, die verschiedenen sozioökonomischen und klinischen Faktoren zu verstehen, die das Überleben dieser Bevölkerungsgruppe beeinflussen. Dieses Wissen wird die effektive Entscheidungsfindung von Regierungsbehörden und dem privaten Gesundheitssektor in Bezug auf den Ansatz öffentlicher Maßnahmen und Präventionsprogramme unterstützen, die darauf abzielen, neue Fälle von Frauen mit dieser Krankheit frühzeitig zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34654-5_14 6bdf019e4a66c506590fa0e12e3ff436;de;;;7.4.;;;Graphbasierte Induktion für allgemeine graphische strukturierte Daten und ihre Anwendung auf Daten chemischer Verbindungen Die meisten Beziehungen werden durch eine Graphenstruktur dargestellt, z. B. chemische Bindung, Webbrowsing-Datensatz, DNA-Sequenz, Inferenzmuster (Programmspur), um nur einige zu nennen. Daher wird das effiziente Auffinden charakteristischer Unterstrukturen in einem Graphen eine nützliche Technik in vielen wichtigen KDD/ML-Anwendungen sein. Allerdings ist der Graph Pattern Matching ein schwieriges Problem. Wir schlagen eine Technik des maschinellen Lernens namens Graph-Based Induction (GBI) vor, die durch schrittweise Paarexpansion (paarweises Chunking) auf ungefähre Weise typische Muster aus Graphdaten effizient extrahiert. Es kann allgemeine graphisch strukturierte Daten verarbeiten, d. h. gerichtete/ungerichtete, farbige/ungefärbte Graphen mit/ohne (Selbst-)Schleife und mit farbigen/ungefärbten Links. Wir zeigen, dass seine Zeitkomplexität fast linear mit der Größe des Graphen ist. Darüber hinaus zeigen wir, dass GBI effektiv auf die Extraktion typischer Muster aus Daten chemischer Verbindungen angewendet werden kann, um daraus Klassifizierungsregeln zu generieren, und dass GBI auch als Merkmalskonstruktionskomponente für andere Werkzeuge des maschinellen Lernens funktioniert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44418-1_9 6ba91f32384e0bedc192bb5b79b0c7dc;de;;;7.4.;;;DroidDivesDeep: Android-Malware-Klassifizierung über überwachbare Funktionen auf niedriger Ebene mit tiefen neuronalen Netzwerken Android, das dominierende Betriebssystem (OS) für intelligente Geräte, hat sich seit seiner Veröffentlichung im Jahr 2008 zu einer robusten Plattform für intelligente Geräte entwickelt. Natürlich nutzen Cyberkriminelle die Fragmentierung verschiedener Hauptversionen durch neuartige Angriffe. Maschinelles Lernen wird häufig in der Systemsicherheit verwendet. Klassifikatoren mit flachem Lernen neigen dazu, während der Trainingszeit zu viel zu lernen, daher schneidet das Modell aufgrund der Abhängigkeit von Trainingsdaten während der realen Auswertung zu wenig ab. Deep Learning hat das Potenzial, die Erkennung neu entdeckter Malware-Familien zu automatisieren, die die Verallgemeinerung von Malware und harmlosen Dateien lernen, um unsichtbare oder Zero-Day-Malware-Angriffe erkennen zu können.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-7561-3_10 6a8b82c44b262490c65e2011bd8a2116;de;;;7.4.;;;Merkmalsauswahl bei der DNA-Mikroarray-Klassifizierung Die Klassifizierung von Microarray-Daten ist aufgrund ihrer großen Anzahl von Funktionen und kleinen Stichprobengrößen eine schwierige Herausforderung für Forscher des maschinellen Lernens. Seit ihrer Einführung gilt die Merkmalsauswahl als De-facto-Standard in diesem Bereich, und es wurden eine Vielzahl von Merkmalsauswahlverfahren verwendet, um die Eingabedimensionalität zu reduzieren und gleichzeitig die Klassifizierungsleistung zu verbessern. Dieses Kapitel widmet sich der Überprüfung der aktuellsten Merkmalsauswahlmethoden, die in diesem Bereich entwickelt wurden. Abschnitt 4.1 führt in die Hintergründe und erste Versuche zum Umgang mit dieser Art von Daten ein. Als nächstes enthält Abschnitt 4.2 eine Beschreibung der inhärenten Probleme von Microarray-Daten, wie z. In Abschnitt 4.3 geben wir einen Überblick über den Stand der Technik bei Methoden zur Merkmalsauswahl, die auf diese Art von Daten angewendet werden. In Abschnitt 4.4 präsentieren wir eine experimentelle Studie der wichtigsten Algorithmen und Bewertungstechniken. Eine eingehende Analyse der Ergebnisse dieser Studie wird ebenfalls bereitgestellt (Abschnitt 4.5). Schließlich fassen wir in Abschnitt 4.6 den Inhalt dieses Kapitels zusammen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-21858-8_4 6f4b6e9de55410d6b11af72a725cfd59;de;;;7.4.;;;Verfeinern Sie die Korpora basierend auf dem Dokumenten-Manifold Heutzutage ist es ziemlich schwierig, überwältigende Nachrichteninformationen aus dem Internet zu verfolgen und zu nutzen. Ein Ansatz besteht darin, Themenmodelle wie pLSI, LDA, LPI, LapPLSI, LTM usw. zu verwenden, um Nachrichtenthemen automatisch zu entdecken. In vielen realen Anwendungen sind die von all diesen Modellen abgeleiteten Themen jedoch nicht sehr nützlich, da immer ein Teil der Dokumente zu keinem Thema gehört. In diesem Papier haben wir eine neue Technik vorgeschlagen, um die Dokumentkorpora vor der Themenmodellierung zu verfeinern. Inspiriert von der Mannigfaltigkeitstheorie verwenden wir Laplace-Eigenkarten, um die Untermannigfaltigkeitsstruktur des Dokumentenraums zu entdecken, und versuchen, diese Dokumente mit losen Beziehungen zu anderen Dokumenten zu finden, und schließen sie dann aus den Korpora aus. Experimente zeigen, dass Themenmodelle in Kombination mit unserem Algorithmus die Qualität der Themen deutlich verbessern können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-53914-5_27 9e02e3692936860ef007a4861cea3e00;de;;;7.4.;;;Eine Umfrage zur Situationsbewusstseinstechnologie für Netzwerksicherheit Mit der zunehmenden Bedeutung der Cyberspace-Sicherheit gewinnt die Erforschung und Anwendung von Netzwerk-Situationsbewusstsein immer mehr Aufmerksamkeit. Die Forschung zum Lagebewusstsein der Netzwerksicherheit ist von großer Bedeutung für die Verbesserung der Netzwerküberwachungsfähigkeit, der Notfallreaktionsfähigkeit und der Vorhersage des Entwicklungstrends der Netzwerksicherheit. Dieses Papier beschreibt die Entwicklung und Evolution von Netzwerk-Situational Awareness und analysiert die grundlegende Architektur des aktuellen Situational Awareness-Systems. Basierend auf dem konzeptionellen Modell des Situational Awareness werden vier Hauptforschungsinhalte des Situational Awareness erarbeitet: Netzwerkdatensammlung, Situationsverständnis, Situationsvorhersage und Situationsvisualisierung. Dieses Papier konzentriert sich auf die Kernfragen, Hauptalgorithmen und die Vor- und Nachteile jeder Methode, die an jedem Forschungspunkt behandelt werden müssen. Schließlich werden unter dem aktuellen Entwicklungstrend der Big-Data-Verarbeitungstechnologie und der Technologie der künstlichen Intelligenz die Anwendungsrealisierung und der Entwicklungstrend des Netzwerk-Situationsbewusstseins analysiert und prognostiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-24268-8_10 126bf178b92165fab7e792980de1aba4;de;;;7.4.;;;Adaptive und interaktive Ansätze zur Dokumentenanalyse Dieses Kapitel untersucht drei Aspekte des Lernens in der Dokumentenanalyse: (1) Feldklassifizierung, (2) interaktive Erkennung und (3) tragbare und vernetzte Anwendungen. Kontext bei der Dokumentenklassifizierung bezieht sich herkömmlicherweise auf Sprachkontext, d. h. deterministische oder statistische Beschränkungen der Buchstabenfolge in Silben oder Wörtern und der Wortfolge in Phrasen oder Sätzen. Wir zeigen, wie man andere Arten statistischer Abhängigkeiten ausnutzen kann, insbesondere die Abhängigkeit zwischen den Formmerkmalen mehrerer Muster aufgrund der gemeinsamen Quelle der Muster innerhalb eines Feldes oder eines Dokuments. Diese Art der Abhängigkeit führt zu einer Feldklassifizierung, bei der die Merkmale einiger Muster nützliche Informationen über die Merkmale anderer Muster aus derselben Quelle, jedoch nicht notwendigerweise aus derselben Klasse, preisgeben können. Wir untersuchen die Beziehung zwischen der Feldklassifikation und den älteren Konzepten des unüberwachten Lernens und der Anpassung. Die menschliche Interaktion ist, durchsetzt mit algorithmischen Prozessen, oft effektiver als nur vor oder nach den automatisierten Prozessteilen. Wir entwickeln eine Taxonomie für die Interaktion während des Trainings und des Testens und zeigen, wie sowohl die vom Menschen initiierte als auch die maschinell initiierte Interaktion zu menschlichem und maschinellem Lernen führen kann. In einem Abschnitt über neue Technologien diskutieren wir, wie neue Kameras und Displays, webweiter Zugriff, Interoperabilität und praktisch unbegrenzter Speicherplatz fruchtbare neue Ansätze für die Dokumentenanalyse bieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76280-5_9 a920ed4a8df89678bd91ff9cea92f926;de;;;7.4.;;;Eine Studie zur Evolution von Bayesschen Netzwerkgraphstrukturen Bayessche Netze (BN) werden oft als nützliche Beschreibungs- und Vorhersagemodelle für die verfügbaren Daten gesucht. Aus praktischen Gründen sind lernende Algorithmen von größtem Interesse, das beste BN-Modell (Graphenstruktur) für einige Eingabedaten automatisch zu ermitteln. In diesem Artikel untersuchen wir eine Reihe von evolutionären Programmieralgorithmen für dieses Netzwerkinduktionsproblem. Unsere Algorithmen bauen auf den jüngsten Fortschritten auf diesem Gebiet auf und basieren auf Selektion und verschiedenen Arten von Mutationsoperatoren (die sowohl auf der Ebene der gerichteten azyklischen als auch der essentiellen Graphen arbeiten). Ein Überblick über verwandte evolutionäre Arbeiten wird ebenfalls bereitgestellt. Wir analysieren und diskutieren den Wert und die Rechenleistung dieser EP-Algorithmen in einigen Benchmark-Aufgaben. Einige allgemeine Schlussfolgerungen zu den effizientesten Algorithmen und den am besten geeigneten Suchlandschaften werden vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68996-6_9 dedf3641094df892cc43138feae510f1;de;;;7.4.;;;Machine Learning und Soft-Computing-Methoden für die Musikemotionserkennung Soziale Interaktion ist einer der wichtigsten Kanäle, um auf die Realität und Informationen über Menschen zuzugreifen. In den letzten Jahren gibt es ein wachsendes Interesse an Community-Websites, die soziale Interaktion mit Musik- und Unterhaltungsforschung kombinieren. Musik ist eine Sprache der Emotionen und die emotionale Anerkennung von Musik wurde von verschiedenen Disziplinen (Psychologie, Kognitionswissenschaft und Musikwissenschaft) untersucht. Ziel dieser Arbeit ist die Einführung eines Frameworks für die Musikemotionserkennung basierend auf maschinellem Lernen und Soft-Computing-Techniken. Zunächst werden musikalische emotionale Merkmale aus Audio-Songs extrahiert und sukzessive zur Klassifikation oder Clusterbildung ausgearbeitet. Ein Benutzer kann ein Ziellied einreichen, das seine konzeptionelle Emotion darstellt, und eine Wiedergabeliste von Audioliedern mit ähnlichem emotionalen Inhalt erhalten. Bei der Klassifizierung wird eine Playlist aus den Songs derselben Klasse erhalten. Im anderen Fall wird die Wiedergabeliste vom System vorgeschlagen, das den Inhalt der Audiolieder ausnutzt, und sie könnte auch Lieder verschiedener Klassen enthalten. Mehrere Experimente werden vorgeschlagen, um die Leistung des entwickelten Frameworks zu zeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35467-0_42 dbf72f162edbc3b4e98f258ef909e3a8;de;;;7.4.;;;DeepRibSt: ein konvolutionelles neuronales Netzwerk mit mehreren Funktionen zur Vorhersage des Ribosomen-Stalling Ribosomen sind eine Art Organelle in Zellen, die hauptsächlich am Translationsprozess von genetischem Material beteiligt sind, aber die zugrunde liegenden Mechanismen im Zusammenhang mit dem Ribosomen-Stalling sind nicht vollständig verstanden. Dank der Entwicklung biologischer experimenteller Techniken werden viele Ribosomen-Fußabdrücke generiert, die uns helfen können, das Ribosomen-Stalling zu untersuchen. Das effektive Erhalten einer präzisen Ribosomen-Stalling-Stelle wird für die Behandlung der damit verbundenen Krankheiten hilfreich sein, jedoch gibt es noch viel Raum für die Verbesserung der Ribosomen-Stalling-Vorhersage. In dieser Studie schlagen wir ein neues tiefes neuronales Netzwerkmodell namens DeepRibSt zur Vorhersage von Ribosomenabwürgen vor. Wir verarbeiten zuerst die Ribosomen-Footprinting-Daten zum Trainingssatz. Dann werden drei neue Merkmale, einschließlich evolutionärer Konservierung, Hydrophobie und Aminodissoziationskonstante, zusammen mit den vorherigen Sequenzmerkmalen als Eingabe in das Netzwerk extrahiert. Um die Leistung des Algorithmus bei der Vorhersage von Ribosomen-Stalling zu verbessern, verwenden wir zwei Faltungsschichten und drei vollständig verbundene Schichten, um eine neue Netzwerkarchitektur zu entwerfen. Um die Gültigkeit unseres vorgeschlagenen DeepRibSt zu überprüfen, vergleichen wir DeepRibSt mit vier beliebten tiefen neuronalen Netzwerken, dh AlexNet, LeNet, ResNet und LSTM auf Mensch (dh Battle2015 und Stumpf13) und Hefe (dh Pop2014, Young15 und Brar12). Daten. Um die Wirksamkeit von DeepRibS weiter zu demonstrieren, vergleichen wir DeepRibSt mit der modernsten Methode. Die experimentellen Ergebnisse zeigen, dass DeepRibSt alle anderen Methoden übertrifft und in Bezug auf Genauigkeit, Erinnerung, Spezifität, F1-Score und Fläche unter der Receiver Operating Characteristic Curve (AUC) die modernste Leistung erreicht.;-;-;-;https://link.springer.com/article/10.1007/s11042-020-09598-8 729240b37758520b32fb339ae3280f4a;de;;;7.4.;;;Verbleibende rekurrente Autobahnnetze zum Erlernen von Deep Sequence Prediction-Modellen Ein zeitgemäßer Ansatz zum Erfassen der rechnerischen Tiefengewinne in rekurrenten neuronalen Netzen (RNNs) besteht darin, mehrere rekurrente Schichten hierarchisch zu stapeln. Solche Leistungssteigerungen gehen jedoch mit den Kosten einer anspruchsvollen Optimierung von hierarchischen RNNs (HRNNs) einher, die sowohl hierarchisch als auch zeitlich tief sind. Die Forscher haben ausschließlich die Bedeutung der Verwendung von Abkürzungen zum Erlernen tiefer hierarchischer Repräsentationen und tiefer zeitlicher Abhängigkeiten hervorgehoben. Es werden jedoch keine nennenswerten Anstrengungen unternommen, um diese Ergebnisse in einem einzigen Rahmen für das Erlernen von tiefen HRNNs zu vereinen. Wir schlagen ein verbleibendes rekurrentes Autobahnnetz (R2HN) vor, das Autobahnen innerhalb der zeitlichen Struktur des Netzes für eine ungehinderte Informationsausbreitung enthält, wodurch das Problem des Verschwindens des Gradienten verringert wird. Das Lernen mit hierarchischer Struktur wird als Restlernrahmen verwendet, um ein Leistungsverschlechterungsproblem zu verhindern. Die vorgeschlagenen R2HN enthalten im Vergleich zu verwandten Methoden deutlich reduzierte datenabhängige Parameter. Die Experimente zu Sprachmodellierungsaufgaben (LM) haben gezeigt, dass die vorgeschlagene Architektur zum Entwurf effektiver Modelle führt. Bei LM-Experimenten mit Penn TreeBank erreichte das Modell eine Perplexität von 60,3 und übertraf die Basislinie und verwandte Modelle, die wir getestet haben.;-;-;-;https://link.springer.com/article/10.1007/s10723-018-9444-4 9ab9577f5313ced2497743ea2047b62f;de;;;7.4.;;;Sublineare Algorithmen für bestrafte logistische Regression in massiven Datensätzen Penalized Logistic Regression (PLR) ist ein weit verbreitetes Modell des überwachten Lernens. In diesem Papier betrachten wir seine Anwendungen in großen Datenproblemen und greifen auf einen stochastischen primal-dualen Ansatz zur Lösung von PLR zurück. Insbesondere verwenden wir eine Zufallsstichprobentechnik im Primärschritt und eine multiplikative Gewichtungsmethode im Doppelschritt. Diese Technik führt zu einem Optimierungsverfahren mit sublinearer Abhängigkeit sowohl vom Volumen als auch von der Dimensionalität der Trainingsdaten. Wir entwickeln konkrete Algorithmen für PLR mit ℓ;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33460-3_41 fec9e3e2f7b329da9f8e06bc5239183e;de;;;7.4.;;;Rechtzeitige Hinweise zur JSM-Methode zur automatischen Hypothesengenerierung Die wichtigsten Prinzipien der JSM-Methode zur automatischen Hypothesengenerierung werden ebenso betrachtet wie die Probleme ihrer Entwicklung. Die Formalisierung von J.S. Mills gemeinsame Methode der Übereinstimmung und Differenz wird vorgeschlagen und das Konzept einer JSM-Strategie wird definiert. Der Artikel betrachtet auch zwei mögliche Entwicklungsrichtungen der Künstlichen Intelligenz und deren Zusammenhang mit der Kognitionsforschung.;-;-;-;https://link.springer.com/article/10.3103/S0005105509050021 fda8394adc27bf1010d3ab12dba4d25d;de;;;7.4.;;;Vorsicht vor der Nullhypothese: Kritische Wertetabellen zur Bewertung von Klassifikatoren Wissenschaftler entscheiden regelmäßig über die statistische Signifikanz ihrer Ergebnisse, indem sie feststellen, ob sie mit hinreichender Sicherheit ausschließen können, dass ihre Ergebnisse auf zufällige Variationen zurückzuführen sind – die „Nullhypothese“.;-;-;-;https://link.springer.com/chapter/10.1007/11564096_17 f16b39c13f2ec3dd89924661f81ecc7e;de;;;7.4.;;;Ethische KI im Schatten von Humes Guillotine entwerfen Künstlich intelligente Systeme können Wissen über epistemische Informationen sammeln, aber lassen sich daraus neue Werte ableiten? Epistemische Informationen betreffen Fakten, einschließlich der Lage der Dinge, und ethische Werte betreffen die Art und Weise, wie Maßnahmen ergriffen werden sollten. Der Betrieb von Künstlicher Intelligenz (KI) basiert auf Fakten, erfordert aber Werte. Eine kritische Frage betrifft hier Humes Guillotine, die behauptet, dass man keine Werte aus Fakten ableiten kann. Humes Guillotine scheint KI-Systeme in zwei ethische Kategorien einzuteilen: schwach und stark. Ethisch schwache KI-Systeme können nur innerhalb vorgegebener Werteregeln angewendet werden, ethisch starke KI-Systeme können jedoch aus Fakten neue Werte generieren. Wenn Hume Recht hat, sind ethisch starke KI-Systeme unmöglich, aber der Gestaltung ethisch schwacher KI-Systeme steht natürlich nichts im Wege.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-39512-4_92 69eab2e74e6d18190590910bf05fcf58;de;;;7.4.;;;Big Data Analytics und Mining für die Analyse, Visualisierung und Vorhersage von Kriminalitätsdaten Die Kriminalitätsanalyse und -vorhersage ist ein systematischer Ansatz zur Analyse und Identifizierung verschiedener Muster, Beziehungen und Trends in der Kriminalität. In diesem Papier führen wir explorative Datenanalysen durch, um kriminelle Daten in San Francisco, Chicago und Philadelphia zu analysieren. Wir untersuchten zunächst Zeitreihen der Daten und prognostizierten Kriminalitätstrends in den folgenden Jahren. Dann prognostizierte Kriminalitätskategorie in Abhängigkeit von Zeit und Ort, um das Problem des Ungleichgewichts zu überwinden, haben wir mehrere Klassen zu größeren Klassen zusammengeführt und eine Merkmalsauswahl vorgenommen, um die Genauigkeit zu verbessern. Wir haben mehrere hochmoderne Data-Mining-Techniken angewendet, die speziell für die Kriminalitätsvorhersage verwendet werden. Die experimentellen Ergebnisse zeigen, dass die Baumklassifizierungsmodelle bei unserer Klassifikationsaufgabe besser abschneiden als k-NN- und naive Bayes-Ansätze. Holt-Winters mit multiplikativer Saisonalität liefert die besten Ergebnisse bei der Vorhersage von Kriminalitätstrends. Die vielversprechenden Ergebnisse werden für die Polizei und die Strafverfolgung von Vorteil sein, um den Prozess der Aufklärung von Straftaten zu beschleunigen und Erkenntnisse zu liefern, die es ihnen ermöglichen, kriminelle Aktivitäten zu verfolgen, die Wahrscheinlichkeit von Vorfällen vorherzusagen, Ressourcen effektiv einzusetzen und schnellere Entscheidungen zu treffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00563-4_59 a23282868d230bdb48087527c778ed30;de;;;7.4.;;;Hierarchische Clustering-Algorithmen für Dokumentdatensätze Schnelle und qualitativ hochwertige Dokumenten-Clustering-Algorithmen spielen eine wichtige Rolle bei der Bereitstellung intuitiver Navigations- und Browsing-Mechanismen, indem sie große Informationsmengen in einer kleinen Anzahl aussagekräftiger Cluster organisieren. Insbesondere Clustering-Algorithmen, die aussagekräftige Hierarchien aus großen Dokumentensammlungen aufbauen, sind ideale Werkzeuge für ihre interaktive Visualisierung und Exploration, da sie konsistente, vorhersehbare und granulare Datenansichten bieten. Dieses Papier konzentriert sich auf Dokumenten-Clustering-Algorithmen, die solche hierarchischen Lösungen aufbauen, und (i) präsentiert eine umfassende Studie partitions- und agglomerativer Algorithmen, die verschiedene Kriteriumsfunktionen und Zusammenführungsschemata verwenden, und (ii) präsentiert eine neue Klasse von Clustering-Algorithmen namens;-;-;-;https://link.springer.com/article/10.1007/s10618-005-0361-3 d81c8f413de402524dc22a97223a7bd1;de;;;7.4.;;;Ein Musterzerlegungsalgorithmus für das Data Mining von häufigen Mustern Effiziente Algorithmen zum Mining von häufigen Mustern sind für viele Aufgaben im Data Mining von entscheidender Bedeutung. Seit der Apriori-Algorithmus im Jahr 1994 vorgeschlagen wurde, wurden mehrere Verfahren vorgeschlagen, um seine Leistung zu verbessern. Die meisten wenden jedoch immer noch ihren Ansatz zur Generierung und Prüfung von Kandidatenmengen an. Außerdem erzeugen viele Methoden nicht alle häufigen Muster, was sie ungeeignet macht, Assoziationsregeln abzuleiten. Wir schlagen einen Algorithmus zur Musterzerlegung (PD) vor, der die Größe des Datensatzes bei jedem Durchlauf erheblich reduzieren kann, wodurch es effizienter wird, alle häufigen Muster in einem großen Datensatz zu ermitteln. Der vorgeschlagene Algorithmus vermeidet den kostspieligen Prozess der Generierung von Kandidatensätzen und spart Zeit, indem er die Größe des Datensatzes reduziert. Unsere empirische Auswertung zeigt, dass der Algorithmus Apriori um eine Größenordnung übertrifft und schneller als der FP-Baum-Algorithmus ist.;-;-;-;https://link.springer.com/article/10.1007/s101150200016 a145de77c24f5f049d7ecf7df38966ff;de;;;7.4.;;;Automatisierung des Zulassungsanfrageprozesses durch Chatbot – ein Feedback-gestütztes Lernsystem Chatbots gibt es seit einigen Jahren und in letzter Zeit hat es an Popularität gewonnen. Früher als Chatbots nutzen die Leute den Helpdesk als anfragendes Medium und daher müssen die Leute, die an Helpdesks arbeiten, jeden Tag arbeiten und alle Fragen beantworten. Die meisten Anfragen wiederholen sich in der Natur und die Antworten werden aus einer strukturierten Datenbank gegeben. Um den menschlichen Aufwand zu reduzieren, können wir einen Chatbot für die gleiche Aktivität einsetzen. Diese Arbeit konzentriert sich auf einen Chatbot, der entwickelt wurde, um eine schnellere menschenähnliche Interaktion für das Zulassungsanfragesystem zu ermöglichen. Der Chatbot ist in der Lage, negative oder irrelevante Szenarien zu verarbeiten und antwortet schneller auf die Anfragen. Die Entscheidungsfindung des Chatbots über die Auswahl der richtigen Sätze erfolgt mithilfe des LSA-Algorithmus und der Kosinusähnlichkeit. Neben der Beantwortung speichert der Chatbot auch Daten von Fragen, die nicht beantwortet werden. Diese Daten können für zukünftige Analysen für das abrufbasierte System verwendet werden. Der Chatbot nimmt auch das Feedback der Kunden entgegen und diese Daten können mithilfe des Feedback-Kategorieberichts analysiert werden, der vom Chatbot mithilfe des LDA-Algorithmus generiert wird;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2612-1_18 0427d8511a57cd2a0f35c0028b01393a;de;;;7.4.;;;Automatische Diagnose mit 12-Kanal-EKG-Signalen Das Elektrokardiogramm (EKG) ist ein starker Beweis für die Diagnose einer Vielzahl von Herzerkrankungen und gewinnt in letzter Zeit im medizinischen Bereich zunehmend an Bedeutung. Die Ableitung von Krankheiten mit EKG-Signalen ist jedoch selbst für approbierte Ärzte sowohl zeitaufwändig als auch fehleranfällig, was die Dringlichkeit der Entwicklung eines schnellen und genauen automatischen Diagnosealgorithmus bedingt. In diesem Whitepaper untersuchen wir sowohl Deep-Learning-Modelle als auch gut durchdachtes Feature-Engineering von EKG-Wellenformen. Durch die Kombination der beiden Methoden schlagen wir ein automatisches Diagnose-Framework vor, das aussagekräftige Merkmale sowohl mit als auch ohne menschliche Eingriffe extrahieren kann. Experimentelle Ergebnisse zum EKG-Wettbewerb zeigen, dass unser Rahmen genaue Ergebnisse bei der Diagnose von Herzerkrankungen erzielen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-33327-0_4 2d8a57c7be8bbeee3b0de029254b0c89;de;;;7.4.;;;Methoden des maschinellen Lernens für die ordinale Klassifikation mit zusätzlichen relativen Informationen Die Fähigkeit, einen genauen Klassifizierungsprozess zu erlernen, wird oft durch die Menge der gekennzeichneten Daten begrenzt. Die Einbeziehung zusätzlicher Informationen in den Lernprozess zur Überwindung dieser Einschränkung ist ein beliebtes Forschungsthema. In dieser Arbeit konzentrieren wir uns auf ordinale Klassifikationsprobleme, die mit begrenzten absoluten Informationen und zusätzlichen relativen Informationen versehen sind. Wir modifizieren einige klassische Methoden des maschinellen Lernens, um beide Arten von Informationen zu kombinieren. Darüber hinaus schlagen wir eine neue Methode zum Lernen von Distanzmetriken vor, um beide Arten von Informationen zum Lernen einer geeigneten Distanzmetrik zu nutzen, die in die erweiterte Methode von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-65154-1_7 12ac93f92e19175eb114d2467f05208b;de;;;7.4.;;;Automatisches Fairness-Testen von Machine-Learning-Modellen In den letzten Jahren wurde maschinelles Lernen (ML) zunehmend auf Entscheidungssysteme angewendet. Dies hat zu einer dringenden Notwendigkeit geführt, Anforderungen an ML-Modelle zu validieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-64881-7_16 e403dec6073f7875ffed91cb958771dc;de;;;7.4.;;;Datenexplorative Analyse zur Klassifizierung in Algorithmen des maschinellen Lernens Die Verfügbarkeit von Big Data hat die Funktionsweise des maschinellen Lernens und die Art und Weise, wie Daten beim maschinellen Lernen verwendet werden, verändert. In Echtzeit können die aus verschiedenen Quellen gesammelten Daten unstrukturiert, unvollständig, unrealistisch und inkorrekt sein. Die Daten mit den oben genannten Qualitäten zu transformieren und zur Analyse bereit zu stellen, ist eine anspruchsvolle Aufgabe. Da die Qualität der Daten einen direkten Einfluss auf die Effizienz des trainierten Modells hat, spielt die explorative Datenanalyse (DEA) eine wichtige Rolle beim Verständnis der Daten und bildet den qualitativ hochwertigen Trainingsdatensatz für die Algorithmen des maschinellen Lernens. Dieses Papier betont die Bedeutung von DEA bei der Auswahl der signifikanten Attribute und dem Auffüllen fehlender Werte, um den Qualitätstrainingsdatensatz zu bilden. Der für Experimente in Betracht gezogene Datensatz ist ein binäres Klassifizierungsproblem „Überlebensvorhersage von Titanic-Passagieren“. Experimentelle Ergebnisse zeigen, dass das Trainieren des Modells mit dem Qualitätsdatensatz die Genauigkeit im Vergleich zu dem Fall verbessert hat, in dem das Modell mit Rohdaten trainiert wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5258-8_13 586dbefdbb736dceaded2a52108a868b;de;;;7.4.;;;Eine vorläufige Untersuchung von Machine-Learning-Ansätzen zur Mobilitätsüberwachung aus Smartphone-Daten In dieser Arbeit untersuchen wir den Einsatz von Machine-Learning-Modellen für das Management und Monitoring nachhaltiger Mobilität mit besonderem Bezug auf die Verkehrsträgererkennung. Konkretes Ziel ist es, die Erkennung des Verkehrsmittels des Benutzers unter den in den Daten erfassten Daten mit einer auf dem Smartphone des Benutzers installierten App zu automatisieren, d. h. Fahrrad, Bus, Bahn, Auto, Motorrad, Fußgängerbewegung. Vorläufige Ergebnisse zeigen das Potenzial der Analyse für die Einführung zuverlässiger fortschrittlicher, auf maschinellem Lernen basierender Überwachungssysteme für nachhaltige Mobilität.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58802-1_16 d8fe790d2ecc4850d6d8a8f4fe8c6102;de;;;7.4.;;;Meta Learning Intrusion Detection im Echtzeitnetzwerk Mit der schnellen Zunahme der Konnektivität und Zugänglichkeit von Computersystemen über das Internet, die zu häufigen Gelegenheiten für Einbrüche und Angriffe geführt hat, ist die Erkennung von Einbrüchen im Netzwerk zu einem entscheidenden Thema für die Computersystemsicherheit geworden. Methoden, die auf handcodierten Regelsätzen basieren, sind mühsam zu erstellen und nicht sehr zuverlässig. Dieses Problem hat zu einem zunehmenden Interesse an Techniken zur Erkennung von Eindringlingen geführt, die auf maschinellem Lernen oder Data Mining basieren. Herkömmliche Data-Mining-basierte Intrusion Detection-Systeme verwenden jedoch einen einzigen Klassifikator in ihren Erkennungsmodulen. In diesem Papier schlagen wir eine auf Meta-Lernen basierende Methode zur Intrusion Detection durch MultiBoosting Multi-Klassifikatoren vor. MultiBoosting kann Entscheidungsgremien bilden, indem es AdaBoost mit Wagging kombiniert. Es ist in der Lage, sowohl die hohe Verzerrung als auch die Varianzreduktion von AdaBoost mit der überlegenen Varianzreduktion von Wagging zu nutzen. Die Ergebnisse von Experimenten zeigen, dass MultiBoosting die Erkennungsleistung moderner, auf maschinellem Lernen basierender Techniken zur Erkennung von Eindringlingen verbessern kann. Darüber hinaus präsentieren wir eine auf Symmetrical Uncertainty (SU) basierende Methode zur Reduzierung der Netzwerkverbindungsfunktionen, um MultiBoosting in Echtzeit-Netzwerkumgebungen effizienter zu machen, währenddessen die Erkennungsleistung nicht untergraben und in einigen Fällen sogar noch weiter verbessert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74690-4_82 dd08cf7259c89e11149bc15917cd8052;de;;;7.4.;;;Interaktives Deep Metric Learning für die Kohortenerkennung im Gesundheitswesen Angesichts des kontinuierlichen Wachstums umfangreicher komplexer elektronischer Gesundheitsdaten ist eine datengesteuerte Kohortenerkennung im Gesundheitswesen erforderlich, die durch maschinelle Lerntools mit Domänenexpertise ermöglicht wird, um weitere Einblicke in das Gesundheitssystem zu gewinnen. Insbesondere spielt Clustering eine entscheidende Rolle bei der Entdeckung von Kohorten im Gesundheitswesen, und das metrische Lernen kann Expertenfeedback einbeziehen, um zweckdienlichere Clustering-Ergebnisse zu generieren. Die meisten der bestehenden Metrik-Lernmethoden gehen jedoch davon aus, dass alle gekennzeichneten Instanzen bereits vorhanden sind, was in realen Anwendungen nicht immer der Fall ist. Darüber hinaus bringt Big Data im Gesundheitswesen auch neue Herausforderungen an das metrische Lernen im Umgang mit komplexen strukturierten Daten. In diesem Papier schlagen wir eine neuartige systematische Methode vor, nämlich Interactive Deep Metric Learning (IDML), die einen interaktiven Prozess verwendet, um iterativ Feedback von Domänenexperten zu integrieren, um Kohorten zu identifizieren, die für einen bestimmten vordefinierten Zweck relevanter sind. Darüber hinaus nutzt die vorgeschlagene Methode leistungsstarke, auf Deep Learning basierende Einbettungstechniken, um inkrementell effektive Darstellungen für die komplexen Strukturen zu erhalten, die in Patientenreisedaten vererbt werden. Wir evaluieren experimentell die Wirksamkeit der vorgeschlagenen IDML mit zwei Datensätzen des öffentlichen Gesundheitswesens. Die vorgeschlagene Methode wurde auch in ein interaktives Kohortenerkennungstool für eine reale Anwendung im Gesundheitswesen implementiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1699-3_17 5ec3cd8bf182656d519a4672bdc41065;de;;;7.4.;;;Vertrauensmodellsimulation von grenzüberschreitendem E-Commerce basierend auf maschinellem Lernen und Bayes-Netzwerk In den letzten Jahren haben sich viele Wissenschaftler im In- und Ausland der Erforschung des E-Commerce-Vertrauens gewidmet, das sogar zu einem heißen Thema in der wissenschaftlichen Forschung geworden ist. Wenn wir die Faktoren untersuchen, die die Wahl der Verbraucher für E-Commerce-Transaktionen beeinflussen, ist das Vertrauen in den E-Commerce zweifellos ein wichtiger Durchbruch in dieser Angelegenheit. Das Vertrauen in den E-Commerce kann einen tiefgreifenden Einfluss auf die Popularität des E-Commerce bei den Kunden und die zukünftige Entwicklung haben. Aber im aktuellen Umfeld sind die Verbraucher dem E-Commerce noch nicht vertraut oder skeptisch. Ausgehend von diesen Problemen schlägt dieses Papier ein grenzüberschreitendes Vertrauensmodell für den E-Commerce vor, das auf der bestehenden Vertrauensbewertungstechnologie, der Theorie des maschinellen Lernens und dem Cloud-Modell in der Bayesschen Netzwerktechnologie basiert, um Betrug zu verhindern. Mit der Unterstützung des Cloud-Modells wurde die Vertrauensbewertungsmethode verbessert. Vertrauen hat sich von qualitativ zu quantitativ gewandelt, und die relevanten Daten können die Natur des Vertrauens intuitiver und objektiver widerspiegeln. Darüber hinaus kann das Modell nach Angaben des E-Commerce-Unternehmens für Verbraucherdatenschutz, Informationshandel und andere Dienstleistungen auch vom Unternehmen ausgehen, um eine umfassende Bewertung des Unternehmens durchzuführen und den Verbrauchern eine klarere Wahl zu geben. Darüber hinaus werden die Bewertungsgröße und der adaptive Zeitfensteralgorithmus auch in die Bewertung von E-Commerce-Unternehmen eingeführt. Alle möglichen Maßnahmen sollen verhindern, dass illegale Unternehmen Verbraucher durch Kreditbetrug und Spekulation irreführen. Durch die oben genannten Methoden können Forscher den Vertrauensgrad der Benutzer für den grenzüberschreitenden E-Commerce verstehen und relevante Methoden vorschlagen, um die Kreditwürdigkeit der Benutzer zu verbessern. Gleichzeitig können wir durch eine Vielzahl theoretischer Methoden wie Machine Learning und Bayesian Network Unternehmen mehr Markt- und Nutzernachfrageinformationen zur Verfügung stellen, sie auf die Mängel aufmerksam machen und ihr Geschäft in Zukunft ständig verbessern, um sich zu verbessern das Vertrauen der Nutzer in Unternehmen zu stärken und eine breitere Nutzergruppe zu gewinnen, um mehr Ideen und Leitlinien für die Entwicklung des grenzüberschreitenden elektronischen Handels zu liefern.;-;-;-;https://link.springer.com/article/10.1007/s12652-021-03066-3 a91e4a875d36b7827d2700777f3c11d5;de;;;3.2.;;;Eine Studie zum OPNET State Machine Model Based IoT Network Layer Test Modellbasiertes Testen kann eine automatisierte Testfallgenerierung für viele Arten von Anwendungen ermöglichen. Sogar Testcode kann mit spezialisierten Tools aus dem Modell generiert werden. IoT-Protokolle für die Netzwerkschicht unterliegen aufgrund von Batterieproblemen und einer großen Anzahl von Sensorknoten vielen Einschränkungen für umfassende oder manuelle Tests. Um diese Testeinschränkungen zu lösen, schlägt dieses Whitepaper eine effiziente State Machine-basierte Testfallgenerierung für die IoT-Netzwerkschicht unter Verwendung des OPNET-Simulationsmodells und des Testfallgenerierungstools vor. Die Größe der Testsuite wird mit der Größe des State-Machine-Modells von OPNET verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-4154-9_5 ccf3b4ec9d86b45f1eff4376b549ce48;de;;;7.4.;;;Induktive Logikprogrammierung für relationale Wissensentdeckung Induktive Logikprogrammierung (ILP) beschäftigt sich mit der Induktion von Logikprogrammen aus Beispielen und Hintergrundwissen. Im ILP führte die Verlagerung der Aufmerksamkeit von der Programmsynthese zur Wissensfindung zu fortgeschrittenen Techniken, die praktisch anwendbar sind, um Wissen in relationalen Datenbanken zu entdecken. Dieses Papier gibt eine kurze Einführung in ILP, stellt ausgewählte ILP-Techniken zur relationalen Wissensentdeckung vor und gibt einen Überblick über ausgewählte ILP-Anwendungen.;-;-;-;https://link.springer.com/article/10.1007/BF03037580 5239fc6934eb5a9e75206a9604f3c2a2;de;;;7.4.;;;Optimierung der Lungenkrebsvorhersage mit Hilfe von Support Vector Machine mit künstlichen neuronalen Netzen – eine Übersicht Lungenkrebs ist heutzutage kein Unfalltod. Nach vielen Untersuchungen wird beobachtet, dass die Sterblichkeitsrate erhöht ist. Um die Sterblichkeitsrate zu senken, sollten die Menschen also eine schnellere Diagnose durchführen. Im Allgemeinen erfolgt die Erkennung von Lungenkrebs unter Verwendung vieler Techniken unterschiedlicher Domänen. Derzeit sind viele Algorithmen im Einsatz, um den Lungenkrebs für die Merkmalsextraktion und -auswahl im Bereich des maschinellen Lernens zu erkennen. Für Segmentierungszwecke wird die Superpixel-Segmentierung häufig verwendet. In diesem Artikel werden wir den Algorithmus vorschlagen, der verwendet wird, um genaue Ergebnisse bei der Erkennung von Lungenkrebs zu zeigen. Um einen Algorithmus zu finden oder die bestehenden Algorithmen wie genetische Optimierungsalgorithmen, PSO, SVM zu optimieren und diese Algorithmen mit den vorhandenen zu vergleichen, dann den Standardalgorithmus fertigzustellen, der die Genauigkeit bei der Bildung des Lungenkrebs-Erkennungssystems bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5329-5_29 2eefae3cb6f01d6e101cb6be68dd3c20;de;;;7.4.;;;Ein Framework für maschinelles Lernen zur Genotypisierung der strukturellen Variationen mit Kopienzahlvariante Die Genotypisierung der strukturellen Variation ist ein wichtiges Rechenproblem bei der Analyse von Sequenzdaten der nächsten Generation. In Krebsgenomen koexistiert die Kopienzahlvariante (CNV) jedoch häufig mit anderen Arten von Strukturvariationen, was die Genauigkeit der bestehenden Genotypmethoden erheblich verringert. Die Verzerrung bei der Sequenzierungsabdeckung und der Allelhäufigkeit von Varianten kann an einer CNV-Region beobachtet werden, was zu Genotypisierungsansätzen führt, die den Heterozygoten als Homozygoten fehlinterpretieren. Darüber hinaus werden auch andere Datensignale, wie beispielsweise Split-Mapping-Lesen, anormales Lesen aufgrund der CNV falsch beurteilt. Daher ist die Genotypisierung der strukturellen Variationen mit CNV ein kompliziertes Rechenproblem, das mehrere Merkmale und ihre Wechselwirkungen berücksichtigen sollte.;-;-;-;https://link.springer.com/article/10.1186/s12920-020-00733-w 757cd714722ae505d4291b807a201c44;de;;;7.4.;;;Eine Überprüfung der biomimetischen künstlichen seitlichen Linienerkennungstechnologie für unbemannte Unterwasserfahrzeuge Aufgrund der Störung der komplexen Unterwasserumgebung in den bestehenden akustischen und optischen Detektionssystemen ist es für das akustische oder optische Detektionssystem schwierig, genaue Nahfeld-Erfassungsinformationen für unbemannte Unterwasserfahrzeuge (UUVS) zu erhalten. Dieses Papier diskutiert die Eigenschaften und Schwierigkeiten der Detektionstechnologie für UUVS und gibt einen Überblick über die Forschungsfortschritte in Bezug auf das Array der künstlichen Seitenlinie (ALL) und die Signalverarbeitung. Es werden die wichtigsten Probleme der aktuellen Forschung aufgezeigt, darunter das Wahrnehmungsprinzip, das Layout und der Mikroprozess von ALL, und die Anwendung von Algorithmen der künstlichen Intelligenz und die Ansätze zur Lösung dieser Probleme werden diskutiert. Nachdem die oben genannten Probleme gelöst sind, wird die ALL-Erkennungstechnologie breite Anwendungsperspektiven und einen Anwendungswert bei der intelligenten Schwarmerkennung für UUVS haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-27532-7_45 36df7692c083b62713f76eb6fac02d6d;de;;;7.4.;;;Lokalisierte alternative Cluster-Ensembles zur kollaborativen Strukturierung Persönliche Mediensammlungen werden von verschiedenen Nutzern sehr unterschiedlich aufgebaut. Ihre Unterstützung durch Standard-Clustering-Algorithmen ist nicht ausreichend. Zum einen haben Nutzer ihre persönlichen Präferenzen, die sie kaum durch eine formale Zielfunktion ausdrücken können. Stattdessen möchten sie möglicherweise aus einer Reihe von vorgeschlagenen Clusterings auswählen. Zweitens möchten Anwender meist nicht, dass handgemachte Teilstrukturen durch ein automatisches Clustering überschrieben werden. Drittens sollten gegebene Clusterings von anderen nicht ignoriert, sondern zur Verbesserung der eigenen Struktur verwendet werden. Im Gegensatz zu anderen Cluster-Ensemble-Verfahren oder dem verteilten Clustering ist ein globales Modell (Konsens) nicht das Ziel. Daher untersuchen wir eine neue Lernaufgabe, nämlich das Erlernen lokalisierter alternativer Cluster-Ensembles, bei der eine Menge vorgegebener Clusterings berücksichtigt und eine Menge vorgeschlagener Clusterings geliefert wird. Dieser Beitrag schlägt einen Algorithmus zur Lösung der neuen Aufgabe zusammen mit einer Methode zur Auswertung vor.;-;-;-;https://link.springer.com/chapter/10.1007/11871842_46 3b082a04920cc3f5d57b68b2ec78ed69;de;;;7.4.;;;Ein auf maschinellem Lernen basierender Ansatz zur Vorhersage des Werkzeugverschleißes in industriellen Fräsprozessen Bei industriellen Bearbeitungsprozessen hat der Verschleiß eines Werkzeugs einen wesentlichen Einfluss auf die Qualität des gefertigten Teils. Daher kann die Vorhersage des Verschleißes im Voraus zu erheblichen Verbesserungen der Bearbeitungsprozesse führen. Dieser Beitrag untersucht die Anwendbarkeit von Machine-Learning-Ansätzen zur Vorhersage des Werkzeugverschleißes in industriellen Fräsprozessen basierend auf realen Sensordaten zu ausgeübten Schnittkräften, Schallemission und Beschleunigung. Wir zeigen, dass sich hierfür sowohl Gradient Boosting Machines als auch Temporal Convolutional Networks als besonders nützlich erweisen. Die Validierung wurde unter Verwendung des PHM 2010-Datensatzes zur Vorhersage des Werkzeugverschleißes als Benchmark sowie unter Verwendung eines geeigneten Datensatzes durchgeführt, der von einer industriellen Fräsmaschine gesammelt wurde. Die Ergebnisse zeigen, dass der Ansatz den Werkzeugverschleiß innerhalb einer industrierelevanten Fehlerspanne vorhersagen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-43887-6_34 d8b24c53171cc88203e418798089c4e2;de;;;7.4.;;;Visuelle Analyse von Sequenzen mit fraktaler Geometrie Die Sequenzanalyse ist eine anspruchsvolle Aufgabe im Data-Mining-Bereich, die für viele praktische Bereiche relevant ist. Wir schlagen eine neuartige Methode zur visuellen Analyse und Klassifizierung von Sequenzen basierend auf dem Iterated Function System (IFS) vor. IFS wird verwendet, um eine fraktale Darstellung von Sequenzen zu erzeugen. Das vorgeschlagene Verfahren bietet ein effektives Werkzeug zur visuellen Erkennung von Sequenzmustern, die ein Zielattribut beeinflussen, und erfordert kein Verständnis von mathematischen oder statistischen Algorithmen. Darüber hinaus ermöglicht es, Sequenzmuster beliebiger Länge zu erkennen, ohne die Sequenzmusterlänge vorzugeben. Es ermöglicht auch, visuell zwischen verschiedenen Sequenzmustern zu unterscheiden, wenn Kategorien innerhalb einer Sequenz wiederkehren. Unsere vorgeschlagene Methode bietet einen weiteren signifikanten Mehrwert, indem sie die visuelle Erkennung seltener und fehlender Sequenzen pro Zielklasse ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09823-4_29 5ee7fe8a76ee66d724a95680287ad15c;de;;;7.4.;;;Kontextuelle Banditen für aktives Lernen: Active Thompson Sampling Die Kennzeichnung von Trainingsbeispielen ist in einer überwachten Klassifikation eine kostspielige Aufgabe. Aktive Lernstrategien lösen dieses Problem, indem sie die nützlichsten Beispiele ohne Label auswählen, um ein Vorhersagemodell zu trainieren. Die Wahl der zu kennzeichnenden Beispiele kann als Dilemma zwischen der Exploration und der Nutzung der Datenraumdarstellung angesehen werden. In diesem Beitrag bewältigt eine neuartige aktive Lernstrategie diesen Kompromiss, indem das aktive Lernproblem als kontextbezogenes Banditenproblem modelliert wird. Wir schlagen einen sequentiellen Algorithmus namens Active Thompson Sampling (ATS) vor, der in jeder Runde eine Stichprobenverteilung im Pool zuweist, einen Punkt aus dieser Verteilung abtastet und das Orakel nach dieser Stichprobenpunktbezeichnung abfragt. Ein experimenteller Vergleich mit zuvor vorgeschlagenen aktiven Lernalgorithmen zeigt eine überlegene Leistung bei einem realen Anwendungsdatensatz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12637-1_51 984d3e2f5dedd3dc7265410f4c9c10b6;de;;;7.4.;;;Entwicklung von japanischem Ikebana als digitales Malwerkzeug über KI In dieser Forschung haben wir verschiedene Experimente durchgeführt, um eine gegenseitige Transformation zwischen einer Domäne von Ikebana-Fotos (traditionelle japanische Blumenarrangements) und anderen Bilddomänen (Landschaften, Tiere, Porträts) durchzuführen, um neue Kunstwerke über CycleGAN, eine Variation von GANs ( Generative Adversarial Networks) – neue KI-Technologie, die Deep Learning mit weniger Trainingsdaten durchführen kann. Mit der Fähigkeit, mit CycleGAN eine Transformation zwischen zwei Bildsätzen zu erreichen, haben wir mehrere interessante Ergebnisse erzielt, bei denen Ikebana aufgrund der Flexibilität und Minimalität der japanischen Kulturform die Rolle eines digitalen Malwerkzeugs spielt. Unsere Experimente zeigen, dass Ikebana mit Hilfe von CycleGAN als Malwerkzeug in der digitalen Kunst entwickelt werden kann und einen neuen Weg eröffnet, digitale Kunstwerke auf hohem abstraktem Niveau zu schaffen, indem KI-Techniken auf Elemente aus der traditionellen Kultur angewendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-65736-9_27 b266a9c7f4e2cac0cba37274a2b95ef5;de;;;7.4.;;;Low-Shot-Multi-Label-Inkrementelles Lernen für die Diagnose von Thoraxerkrankungen Trotz vielversprechender Ergebnisse von 14 Krankheitstypen, die kontinuierlich im groß angelegten NIH-Datensatz berichtet wurden, ist die Anwendbarkeit der auf Deep Learning basierenden CADx für das Thoraxröntgen in der realen klinischen Praxis noch immer schwer fassbar. Dies liegt daran, dass Dutzende von Krankheiten im Röntgenthorax gefunden werden können und es erforderlich ist, weiter zu lernen und zu diagnostizieren. In diesem Beitrag schlagen wir einen Low-Shot-Multi-Label-Inkremental-Lernrahmen vor, der drei Phasen umfasst, dh Repräsentationslernen, Low-Shot-Lernen und All-Label-Feinabstimmungsphase, um die Durchführbarkeit und Praktikabilität von Anomalien der Thoraxerkrankung von CADx . zu demonstrieren im Klinikum. Um das inkrementelle Lernen in einer neuen Situation mit kleinen Datensätzen zu erleichtern, formulieren wir auch eine Feature-Regularisierung vor, beispielsweise Multi-Label-Squared-Gradient-Magnitude (MLSGM), um die Verallgemeinerungsfähigkeit des Deep-Learning-Modells sicherzustellen. Der vorgeschlagene Ansatz wurde anhand des öffentlichen ChestX-ray14-Datensatzes bewertet, der 14 Arten von grundlegenden Anomalien umfasst, und eines neuen kleinen Datensatzes MyX-ray, der 6 Arten von neuartigen Anomalien umfasst, die vom Mianyang Central Hospital gesammelt wurden. Das experimentelle Ergebnis zeigt, dass die MLSGM-Methode den durchschnittlichen Area-Under-Curve (AUC)-Score bei 6 Arten neuartiger Anomalien um bis zu 7,6 Punkte über der Grundlinie verbessert, wenn die Schusszahl nur 10 beträgt. die KI-Anwendung zur Auslesung und Diagnose von Röntgen-Thorax-Gesamterkrankungen und -Auffälligkeiten in der klinischen Praxis möglicherweise realisierbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-04239-4_38 5aab15994ae5f2b0291cb88ea0c645c7;de;;;7.4.;;;Vergleichende Untersuchung von Entfernungsfunktionen für nächste Nachbarn Viele Lernalgorithmen verlassen sich auf Distanzmetriken, um ihre Eingabedaten zu empfangen. Untersuchungen haben gezeigt, dass diese Metriken die Leistung dieser Algorithmen verbessern können. Im Laufe der Jahre ist eine häufig beliebte Funktion die euklidische Funktion. In diesem Papier untersuchen wir eine Reihe verschiedener Metriken, die von verschiedenen Gemeinschaften vorgeschlagen wurden, darunter Mahalanobis, Euklidische, Kullback-Leibler- und Hamming-Distanz. Insgesamt ist die Mahalanobis-Distanzmetrik die leistungsstärkste Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-3660-5_14 dd532d74c0d616259f7dec2ff5d50d44;de;;;7.4.;;;Zeitliche Synchronisierung einer Klasse gekoppelter Memristor-basierter rekurrenter neuronaler Netze: Statische Zustandssteuerung und dynamischer Steuerungsansatz Dieser Beitrag untersucht das Problem der endlichen Zeitsynchronisation einer Klasse gekoppelter Memristor-basierter rekurrenter neuronaler Netze (MRNNs) mit Zeitverzögerungen. Basierend auf dem Drive-Response-Konzept und der Differential-Inclusion-Theorie werden mehrere hinreichende Annahmen gegeben, um die Synchronisierung von MRNNs in endlicher Zeit sicherzustellen. Um die endliche Zeitsynchronisation zwischen Antriebssystem und Antwortsystem zu realisieren, entwerfen wir drei Klassen neuartiger Regelregeln wie statischer Zustandsregler, statischer Leistungsregler, dynamischer Zustandsregler. Unter Verwendung der Theorie der differentiellen Inklusion, eines verallgemeinerten endlichen Konvergenzsatzes und der Lyapunov-Methode lassen sich die Bedingungen hierin leicht verifizieren. Darüber hinaus werden die oberen Grenzen der Einschwingzeit der Synchronisation geschätzt und die entworfenen dynamischen Zustandsregler haben eine gute Anti-Interferenz-Kapazität. Abschließend werden zwei numerische Beispiele vorgestellt, um die Wirksamkeit und Gültigkeit theoretischer Ergebnisse zu veranschaulichen.;-;-;-;https://link.springer.com/article/10.1007/s12555-019-0616-1 530547923a6a092d896b6fbc3b12f26d;de;;;7.4.;;;Unüberwachte Online-Ausreißererkennung unter Verwendung endlicher Mischungen mit Diskontierungslernalgorithmen Die Ausreißererkennung ist ein grundlegendes Problem beim Data Mining, insbesondere bei der Betrugserkennung, der Erkennung von Netzwerkeinbrüchen, der Netzwerküberwachung usw. SmartSifter ist eine Engine zur Erkennung von Ausreißern, die dieses Problem aus der Sicht der statistischen Lerntheorie angeht. Dieses Papier liefert eine theoretische Grundlage für SmartSifter und belegt empirisch seine Wirksamkeit. SmartSifter erkennt Ausreißer in einem Online-Prozess durch das unbeaufsichtigte Online-Lernen eines Wahrscheinlichkeitsmodells (unter Verwendung eines endlichen Mischungsmodells) der Informationsquelle. Jedes Mal, wenn ein Datum eingegeben wird, verwendet SmartSifter ein;-;-;-;https://link.springer.com/article/10.1023/B%3ADAMI.0000023676.72185.7c 65e212fea61bd9864e2bc8d775103ae0;de;;;7.4.;;;SVM für englische semantische Klassifikation in paralleler Umgebung Die semantische Analyse ist für viele Forschungen und viele Anwendungen seit langem sehr wichtig und sehr hilfreich. SVM ist ein berühmter Algorithmus, der in Forschungen und Anwendungen in vielen verschiedenen Bereichen verwendet wird. In dieser Studie schlagen wir ein neues Modell vor, das einen SVM-Algorithmus mit Hadoop Map (M)/Reduce (R) für die emotionale Klassifizierung auf englischer Dokumentebene in der parallelen Netzwerkumgebung Cloudera verwendet. Cloudera ist auch ein verteiltes System. Unser englischer Testdatensatz umfasst 25.000 englische Dokumente, darunter 12.500 positive englische Rezensionen und 12.500 negative englische Rezensionen. Unser Englisch-Trainingsdatensatz umfasst 90.000 englische Sätze, davon 45.000 englische positive Sätze und 45.000 englische negative Sätze. Unser neues Modell wird mit dem englischen Testdatensatz getestet und wir erreichen eine Genauigkeit der Sentimentklassifizierung von 63,7% für diesen englischen Testdatensatz.;-;-;-;https://link.springer.com/article/10.1007/s10772-017-9421-5 d201a61bc42daeb3146e3ef72618ac66;de;;;7.4.;;;Ein neuartiger Ansatz für die Webseitenmodellierung bei der Extraktion persönlicher Informationen Das Ziel der Extraktion persönlicher Informationen (PIE) besteht darin, Inhalt zu extrahieren, der mit einer Namensformular-Webseite verknüpft ist. Zu den verfügbaren Webseitenmodellen, die auch bei der Inhaltsextraktion und automatischen Wrapperalgorithmen weit verbreitet sind, gehören Textmodelle, Dokumentobjektmodelle und bildbasierte Seitensegmentierungsmodelle. Da bestehende Modelle sich eher auf die Webstruktur als auf die semantische Relevanz konzentrieren, sind sie schwer direkt für PIE zu verwenden. Um dieses Problem zu lösen, führen wir das Sequenzblockmodell (SBM) ein, mit dem die Relevanz jedes Seitenblocks für den Abrufnamen leicht bestimmt werden kann. Dann geben wir die Definition von PIE basierend auf dem SBM. Abhängig von der Sequenzkorrelation von SBM entwerfen wir ein 4-schichtiges seq2seq Deep-Learning-Netzwerk für PIE. Das Experimentergebnis zeigt, dass unser neues Modell doppelt so viele Daten extrahiert wie Inhaltsextraktionsalgorithmen. Und die Rückrufrate des Netzwerks ist 7% höher als beim traditionellen Modell mit Klassifikationsalgorithmus.;-;-;-;https://link.springer.com/article/10.1007/s11280-018-0631-9 16ac05400e87a64cf4a9b836083a3270;de;;;7.4.;;;Data Mining medizinischer Zeitreihendaten durch formale Konzeptanalyse In diesem Beitrag wird eine Methode zum Clustern medizinischer Zeitreihendaten basierend auf der formalen Konzeptanalyse vorgestellt. Wir haben ein Prototypsystem erstellt und es durch Anwendung auf mehrere medizinische Fälle verifiziert. Unsere Cluster können mit Hilfe von FCA explizit mit überzeugenderen Bedeutungen versehen werden. Wir planen, fortzufahren und die Praktikabilität dieser Methode zu überprüfen, indem wir sie auf Hunderte von medizinischen Fällen anwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74827-4_151 dc9df49dbec267173ffe9f65949a0d2a;de;;;7.4.;;;Vorhersage von Krankenhauswiederaufnahmen aus Pflegedaten von Krankenhauspatienten Die Wiederaufnahmeraten in den Krankenhäusern werden zunehmend als Maßstab verwendet, um die Qualität der Gesundheitsversorgung von hospitalisierten Patienten zu bestimmen. Rund drei Viertel aller Krankenhauswiederaufnahmen können vermieden werden, was Milliarden von Dollar spart. Viele Krankenhäuser haben inzwischen elektronische Patientenaktensysteme (EHR) eingeführt, die verwendet werden können, um Probleme zu untersuchen, die eine Wiederaufnahme auslösen. Die meisten EHRs sind jedoch hochdimensional und dünn besiedelt, und die Analyse solcher Datensätze ist eine Big-Data-Herausforderung. Die Wirkung einiger der wohlbekannten Dimensionsreduktionstechniken wird aufgrund des Vorhandenseins nichtlinearer Variablen minimiert. Wir verwenden Association Mining als Dimensionsreduktionsmethode und die Ergebnisse werden verwendet, um Modelle zu entwickeln, die Daten aus einem bestehenden EHR-System verwenden, um das Risiko einer Wiederaufnahme in die Krankenhäuser vorherzusagen. Diese Modelle können helfen, wirksame Behandlungen für Patienten zu bestimmen, um die Möglichkeit einer Wiederaufnahme zu minimieren, die Kosten zu senken und die Qualität der Versorgung der Patienten zu verbessern. Die Ergebnisse der Modelle zeigen signifikant genaue Vorhersagen der Wiederaufnahme von Patienten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-62701-4_14 dbb9755000f723de8cf1a5f508dc4650;de;;;7.4.;;;Inkohärente Lichtsteuerung durch Streumedien basierend auf maschinellem Lernen und deren Anwendung auf Multiview-Stereodisplays In diesem Beitrag präsentieren wir eine Methode zur Steuerung von inkohärentem Licht durch Streumedien basierend auf maschinellem Lernen und deren potenzielle Anwendung auf Multiview-Stereodisplays. Die Umkehrfunktion zwischen Eingangs- und Ausgangslichtintensitätsmustern durch ein Streumedium wird mit einem maschinellen Lernalgorithmus regressiert. Die Umkehrfunktion wird zum Berechnen eines Eingabemusters zum Erzeugen eines Zielausgabemusters durch ein Streumedium verwendet. Wir demonstrieren die vorgeschlagene Methode, indem wir eine potenzielle Anwendung auf Multiview-Stereodisplays annehmen. Dieses Konzept ermöglicht es uns, einen Diffusor als Parallaxenbarriere, ein zylindrisches Linsenarray oder ein Linsenarray auf einem herkömmlichen Multiview-Stereodisplay zu verwenden, was zu einem kostengünstigen, hochfunktionalen Display beiträgt. Ein neuronales Netz wird mit einer großen Anzahl von Paaren von angezeigten Zufallsmustern und ihren Parallaxenbildern an verschiedenen Beobachtungspunkten trainiert, und dann wird ein angezeigtes Bild aus beliebigen Parallaxenbildern unter Verwendung des trainierten neuronalen Netzes berechnet. In der experimentellen Demonstration bestand das auf Streuung basierende Multiview-Stereodisplay aus einem Diffusor und einem herkömmlichen Flüssigkristalldisplay und reproduzierte verschiedene handgeschriebene Zeichen, die von einer Stereokamera erfasst wurden.;-;-;-;https://link.springer.com/article/10.1007/s10043-019-00554-y 5df8cc4be9bf82de3941593f780b8c4e;de;;;7.4.;;;Künstliche Intelligenz und DNA-Computing DNA-Computing ist ein relativ neues Computerparadigma, das in der Computergemeinschaft großes Interesse geweckt hat. Seine inhärente Fähigkeit zu enormer Parallelität, der Spielraum für hochdichte Speicherung und seine intrinsische Fähigkeit, viele kombinatorische Probleme potenziell zu lösen, sind nur einige der Gründe dafür. Die Rechenleistung allein reicht jedoch heute möglicherweise nicht mehr aus, um viele Computerprobleme zu lösen. Dies gilt insbesondere für Probleme, die ein gewisses Maß an Klugheit oder Intelligenz erfordern. An diesem Punkt treffen DNA-Computing und künstliche Intelligenz aufeinander. In diesem Kapitel werden das Potenzial und die Fortschritte des DNA-Computings im Zusammenhang mit künstlicher Intelligenz untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84628-943-9_10 4b6cabb47bf1e0738201b02104749c6a;de;;;7.4.;;;GP-BayesFilters: Bayes'sche Filterung mit Gauß'schen Prozessvorhersage- und Beobachtungsmodellen Bayes'sche Filterung ist ein allgemeiner Rahmen für die rekursive Schätzung des Zustands eines dynamischen Systems. Schlüsselkomponenten jedes Bayes-Filters sind probabilistische Vorhersage- und Beobachtungsmodelle. Dieses Papier zeigt, wie die nicht-parametrische Gauß-Prozess-Regression (GP) verwendet werden kann, um solche Modelle aus Trainingsdaten zu lernen. Wir zeigen auch, wie Gaußsche Prozessmodelle in verschiedene Versionen von Bayes-Filtern integriert werden können, nämlich Partikelfilter und erweiterte und unparfümierte Kalman-Filter. Die resultierenden GP-BayesFilters können gegenüber standardmäßigen (parametrischen) Filtern mehrere Vorteile haben. Am wichtigsten ist, dass GP-BayesFilter kein genaues, parametrisches Modell des Systems erfordern. Bei ausreichenden Trainingsdaten ermöglichen sie eine verbesserte Tracking-Genauigkeit im Vergleich zu parametrischen Modellen, und sie degradieren mit erhöhter Modellunsicherheit anmutig. Diese Vorteile ergeben sich aus der Tatsache, dass GPs sowohl das Rauschen im System als auch die Unsicherheit im Modell berücksichtigen. Wenn ein ungefähres parametrisches Modell verfügbar ist, kann es in den GP integriert werden, was zu weiteren Leistungsverbesserungen führt. In Experimenten zeigen wir verschiedene Eigenschaften von GP-BayesFiltern anhand von Daten, die mit einem autonomen Mikro-Luftschiff gesammelt wurden, sowie synthetischen Daten.;-;-;-;https://link.springer.com/article/10.1007/s10514-009-9119-x 00b49094c7ba2435c53d37e5cfc1fc88;de;;;7.4.;;;Lernhorndefinitionen: Theorie und eine Anwendung auf die Planung Eine Horn-Definition ist eine Menge von Horn-Klauseln mit dem gleichen Prädikat in allen Kopfliteralen. In diesem Papier betrachten wir das Erlernen nicht-rekursiver Horndefinitionen erster Ordnung aus dem Entstehen. Wir zeigen, dass diese Klasse aus Äquivalenz- und Mitgliedschaftsabfragen genau erlernbar ist. Daraus folgt, dass diese Klasse mit Beispielen und Mitgliedschaftsabfragen PAC-lernbar ist. Schließlich wenden wir unsere Ergebnisse auf lernendes Kontrollwissen für eine effiziente Planung in Form von Zielzerlegungsregeln an.;-;-;-;https://link.springer.com/article/10.1007/BF03037583 b853f79ced1bbcdec53a601e754e0f49;de;;;7.4.;;;Teilüberwachte Diskriminanzanalyse basierend auf Abhängigkeitsschätzung Die Dimensionsreduktion ist für Anwendungen im Data Mining und Machine Learning sehr wichtig. Die auf Abhängigkeitsmaximierung basierende überwachte Merkmalsextraktion (SDMFE) ist ein kürzlich vorgeschlagenes effektives Dimensionsreduktionsverfahren. Ein Nachteil von SDMFE besteht darin, dass es nur gekennzeichnete Daten verwenden kann und nicht gut funktioniert, wenn gekennzeichnete Daten begrenzt sind. In vielen Anwendungen ist dies jedoch ein häufiger Fall. In diesem Artikel schlagen wir eine neuartige Methode zur Merkmalsextraktion vor, die als Semi-Supervised Dependence Maximization Feature Extraction (SSDMFE) bezeichnet wird und die gleichzeitig sowohl gekennzeichnete als auch nicht gekennzeichnete Daten verwenden kann, um eine Merkmalsextraktion durchzuführen. Die gekennzeichneten Daten werden verwendet, um die Abhängigkeit zu maximieren, und die nicht gekennzeichneten Daten werden als Vorschriften in Bezug auf die intrinsische geometrische Struktur der Daten verwendet. Experimente mit mehreren Datensätzen werden vorgestellt und die Ergebnisse zeigen, dass SSDMFE eine viel höhere Klassifizierungsgenauigkeit als SDMFE erreicht, wenn die Menge der gekennzeichneten Daten begrenzt ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03348-3_24 892406b0991a176eb181fc053cbc44c7;de;;;7.4.;;;Rückblick auf die Vergangenheit, aktuelle Fortschritte und bevorstehende Herausforderungen beim Cocktailparty-Problem Das Cocktailparty-Problem, d. h. das Verfolgen und Erkennen der Sprache eines bestimmten Sprechers, wenn mehrere Sprecher gleichzeitig sprechen, ist eines der kritischen Probleme, die noch gelöst werden müssen, um die breite Anwendung von automatischen Spracherkennungssystemen (ASR) zu ermöglichen. In diesem Übersichtspapier besprechen wir die Techniken, die in den letzten zwei Jahrzehnten zur Lösung dieses Problems vorgeschlagen wurden. Wir konzentrieren unsere Diskussionen auf das Sprachtrennungsproblem aufgrund seiner zentralen Rolle in der Cocktailparty-Umgebung und beschreiben die herkömmlichen Einkanaltechniken wie die Computergestützte Hörszenenanalyse (CASA), die nicht negative Matrixfaktorisierung (NMF) und generative Modelle, die konventionelle Mehrkanaltechniken wie Beamforming und Mehrkanal-Blind-Source-Separation sowie die neu entwickelten Deep-Learning-basierten Techniken wie Deep Clustering (DPCL), das Deep-Attractor-Network (DANet) und permutationsinvariantes Training (PIT). Wir präsentieren auch Techniken, die entwickelt wurden, um die ASR-Genauigkeit und die Sprecheridentifikation in der Cocktailparty-Umgebung zu verbessern. Wir argumentieren, dass die Informationen im Mikrofonarray, im akustischen Trainingsset und in der Sprache selbst mithilfe eines leistungsfähigeren Modells effektiv genutzt werden. Ein besseres Optimierungsziel und bessere Techniken sind der Ansatz zur Lösung des Cocktailparty-Problems.;-;-;-;https://link.springer.com/article/10.1631/FITEE.1700814 6a328fbb0c4c2e00d5120fbc49f1f912;de;;;7.4.;;;Ein effektiver verteilter Datenschutz-erhaltender Data-Mining-Algorithmus Data Mining ist ein nützliches Mittel, um wertvolle Muster, Assoziationen, Trends und Abhängigkeiten in Daten zu entdecken. Data Mining muss oft innerhalb einer Gruppe von Sites durchgeführt werden, wobei die Voraussetzung ist, dass keine Privatsphäre einer Site an andere Sites weitergegeben werden darf. In diesem Beitrag wird ein verteilter datenschutzerhaltender Data-Mining-Algorithmus vorgeschlagen. Der vorgeschlagene Algorithmus ist gekennzeichnet durch (1) seine Fähigkeit, die Privatsphäre ohne eine Koordinator-Site zu wahren, und insbesondere seine Fähigkeit, der Absprache zu widerstehen, und (2) seine Leichtigkeit, da nur die Zufallszahl zur Wahrung der Privatsphäre verwendet wird. Leistungsanalyse und experimentelle Ergebnisse werden bereitgestellt, um die Wirksamkeit des vorgeschlagenen Algorithmus zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-28651-6_47 2c8642ede9484d84bd761a58b141ca1c;de;;;7.4.;;;System-on-Chip-Architekturen für die Datenanalyse Künstliche Intelligenz (KI) in Industrie 4.0, intelligenten Verkehrssystemen, intelligenten biomedizinischen Systemen und im Gesundheitswesen usw. spielt eine wichtige Rolle, die komplexe Algorithmen erfordert. Deep Learning im maschinellen Lernen ist beispielsweise ein beliebter KI-Algorithmus mit hohen Rechenanforderungen an EDGE-Plattformen in Internet-of-Things-Anwendungen. In diesem Kapitel wird die Systementwurfsmethodik Algorithmus/Architektur Co-Design für den gleichzeitigen Entwurf eines Algorithmus mit hocheffizienter, flexibler und energiesparender Architektur zur Bildung des Smart System-on-Chip-Designs vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-91734-4_15 a611b29e4b6e440614222d9e032b4227;de;;;7.4.;;;Spezifikation und Vorhersage der Nickelmobilisierung mit Methoden der künstlichen Intelligenz Grundwasser- und Bodenverschmutzung durch Pyritoxidation, saure Minenentwässerung und Freisetzung und Transport toxischer Metalle sind allgemeine Umweltprobleme im Zusammenhang mit der Bergbauindustrie. Nickel ist ein giftiges Metall, das in einigen Bergbauumgebungen als Schlüsselschadstoff gilt. Bis heute wurde sein Bildungsmechanismus noch nicht vollständig untersucht. Die Ziele dieser Studie sind 1) die Beschreibung des Prozesses der Nickelmobilisierung in Müllhalden durch Einführung eines neuartigen konzeptionellen Modells und 2) die Vorhersage der Nickelkonzentration unter Verwendung von zwei Algorithmen, nämlich der Support Vector Machine (SVM) und dem allgemeinen Regressionsneuralen Netzwerk (GRNN). Die Ergebnisse dieser Studie haben gezeigt, dass während der Oxidation von Pyrit und der anschließenden Erzeugung von Säuredrainage (AMD) eine beträchtliche Menge an Nickelkonzentration in das Wasserströmungssystem gelangen kann. Es wurde der Schluss gezogen, dass Pyrit, Wasser und Sauerstoff die wichtigsten Faktoren für die Entstehung von Nickelverschmutzung sind, während der pH-Wert SO;-;-;-;https://link.springer.com/article/10.2478/s13533-011-0039-x ec9e5d2c60ff9e6d4784db1ef2eaf4a8;de;;;7.4.;;;Ein optimaler Skalierungsansatz für kollaboratives Filtern mit kategorialer Hauptkomponentenanalyse und Nachbarschaftsbildung Collaborative Filtering (CF) ist eine beliebte Technik, die von Recommender Systems verwendet wird, ein Begriff, der verwendet wird, um intelligente Methoden zu beschreiben, die personalisierte Empfehlungen generieren. Die gebräuchlichsten und genauesten Ansätze für CF basieren auf Modellen mit latenten Faktoren. Latent-Faktor-Modelle können zwei grundlegende Probleme von CF, Datensparsität und Skalierbarkeit, angehen und haben in der neueren Literatur beträchtliche Aufmerksamkeit erhalten. In dieser Arbeit präsentieren wir einen optimalen Skalierungsansatz, um diese beiden Probleme zu lösen, indem wir die kategoriale Hauptkomponentenanalyse für die niederrangige Approximation der Benutzer-Item-Bewertungsmatrix verwenden, gefolgt von einem Nachbarschaftsbildungsschritt. Der optimale Skalierungsansatz hat den Vorteil, dass er leicht auf den Fall fehlender Daten erweitert werden kann und Einschränkungen für ordinale und numerische Variablen leicht auferlegt werden können. Wir haben verschiedene Messniveaus für die Benutzerbewertungen von Artikeln berücksichtigt, beginnend mit einem mehrfachen Nominal und nacheinander mit nominalen, ordinalen und numerischen Werten. Es wurden Experimente mit dem MovieLens-Datensatz durchgeführt, um die oben genannten Optionen in Bezug auf die Genauigkeit zu bewerten. Die Ergebnisse zeigten, dass ein kombinierter Ansatz (mehrere nominale Messniveaus, „passive“ Strategie für fehlende Daten) die anderen getesteten Optionen deutlich übertraf.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16239-8_6 485445c6f9d339cc791761f89b4dfb76;de;;;7.4.;;;Hierarchische Datenklassifizierung mit tiefen neuronalen Netzen Deep Neural Networks (DNNs) werden zu einem immer interessanteren, wertvolleren und effizienteren Paradigma des maschinellen Lernens mit Implementierungen in der Verarbeitung natürlicher Sprache, Bilderkennung und handschriftlicher Zeichenerkennung. Die Anwendung von tiefen Architekturen nimmt in Domänen zu, die Merkmalshierarchien (FHs) enthalten, d. h. Merkmale von höheren Ebenen der Hierarchie, die durch die Zusammensetzung von Merkmalen niedrigerer Ebene gebildet werden. Dies liegt an einer wahrgenommenen Beziehung zwischen einerseits der hierarchischen Organisation von DNNs mit einer großen Anzahl von Neuronen in den unteren Schichten und einer zunehmend geringeren Anzahl in den oberen Schichten und andererseits FHs mit einer vergleichsweise großen Anzahl von Low-Level-Features was zu einer kleinen Anzahl von High-Level-Features führt. Es ist jedoch nicht klar, wie die Beziehung zwischen DNNs-Hierarchien und FHs sein sollte oder ob es überhaupt eine gibt. Es ist auch nicht klar, ob die Modellierung von FHs mit einem hierarchisch organisierten DNN Vorteile gegenüber der Verwendung nicht-hierarchischer neuronaler Netze bietet. Diese Studie soll diesen Fragen nachgehen und ist in zwei Teile gegliedert. Zunächst wird eine taxonomische FH mit zugehörigen Daten generiert und ein DNN trainiert, um die Organismen in Abhängigkeit von charakteristischen Merkmalen in verschiedene Arten zu klassifizieren. Der zweite Teil beinhaltet das Testen der Fähigkeit von DNNs zu identifizieren, ob zwei bestimmte Organismen verwandt sind oder nicht, abhängig von der gemeinsamen Nutzung geeigneter Merkmale in ihren FHs. Die experimentellen Ergebnisse zeigen, dass die Genauigkeit der Klassifikationsergebnisse mit zunehmender „Tiefe“ abnimmt. Darüber hinaus wurde eine verbesserte Leistung erreicht, wenn jede versteckte Schicht die gleiche Anzahl von Knoten aufweist, verglichen mit DNNs mit immer weniger versteckten Knoten auf höheren Ebenen. Mit anderen Worten, unsere Experimente zeigen, dass die Beziehung zwischen DNNs und FHs nicht einfach ist und weitere umfangreiche experimentelle Forschungen erfordern können, um die besten DNN-Architekturen beim Erlernen von FHs zu identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-26532-2_54 745c796abcd73231911109685d9adbc3;de;;;7.4.;;;Macht dem Orakel? Designprinzipien für interaktive Kennzeichnungssysteme im maschinellen Lernen Etikettieren ist der Prozess des Einschließens von Informationen zu einem Objekt. Beim maschinellen Lernen ist es als Ground Truth erforderlich, das Potenzial überwachter Techniken zu nutzen. Eine zentrale Herausforderung bei der Kennzeichnung besteht darin, dass Benutzer nicht unbedingt darauf aus sind, sich als einfache Orakel zu verhalten, also immer wieder auf die Frage zu antworten, ob eine Kennzeichnung richtig oder falsch ist. In dieser Hinsicht erkennen Wissenschaftler die Gestaltung der Interaktivität in Kennzeichnungssystemen als vielversprechenden Bereich für weitere Verbesserungen an. In den letzten Jahren wurde eine beträchtliche Anzahl von Artikeln veröffentlicht, die sich mit interaktiven Kennzeichnungssystemen befassen. Es fehlt jedoch an konsolidierten Prinzipien für die Gestaltung dieser Systeme. In diesem Artikel identifizieren und diskutieren wir anhand einer Literaturrecherche fünf Gestaltungsprinzipien für interaktive Kennzeichnungssysteme und bieten einen Rahmen, um Gemeinsamkeiten bei der Umsetzung entsprechender Lösungen zu erkennen. Mit diesen Richtlinien wollen wir Designwissen für die immer wichtiger werdende Klasse interaktiver Kennzeichnungssysteme einbringen.;-;-;-;https://link.springer.com/article/10.1007/s13218-020-00634-1 2a19971eaf6b6cc3f40457c17015faeb;de;;;7.4.;;;Finden der optimalen Busrouten basierend auf der Data-Mining-Methode Für einen Fahrgast ist es sehr schwierig, eine optimale Busroute zu finden, um in einer Metropole zu reisen. Ein neuartiger Ansatz zur Suche nach optimalen Busrouten basierend auf der Date-Mining-Technologie wird in diesem Beitrag vorgestellt. In diesem Ansatz verwenden wir zuerst den Floyd-Algorithmus, um die Kandidatenmenge der optimalen Busrouten zu suchen und zu erhalten, und verwenden dann die Data-Mining-Methode, um die optimalen Buslinien zu ermitteln, die in der Kandidatenmenge verborgen sind. Experimente wurden an einem realen Buslinien-Datensatz durchgeführt, und die experimentellen Ergebnisse zeigen, dass der Ansatz bei der Suche nach den optimalen Busrouten effektiv und machbar ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39479-9_5 e79cf67db1c6a10626c869c4fb604e5b;de;;;7.4.;;;DeepWAF: Erkennung von Webangriffen basierend auf CNN- und LSTM-Modellen Die zunehmende Popularität von Webanwendungen macht das Web zu einem Hauptangriffsort für Angreifer, die an einer Vielzahl von Cyberkriminalität beteiligt sind. Mit der Verarbeitung und Weitergabe großer Informationsmengen durch Webanwendungen wird die Situation für die Erkennung oder Verhinderung von Webangriffen immer schwieriger. Wir präsentieren eine prototypische Implementierung namens DeepWAF zur Erkennung von Webangriffen basierend auf Deep-Learning-Techniken. Wir diskutieren systematisch den Ansatz zur effektiven Nutzung der derzeit populären CNN- und LSTM-Modelle und ihrer kombinatorischen Modelle CNN-LSTM und LSTM-CNN. Die experimentellen Ergebnisse des Datensatzes von HTTP DATASET CSIC 2010 zeigen, dass unsere vorgeschlagenen vier Arten von Erkennungsmodellen alle zufriedenstellende Ergebnisse erzielen, mit einer Erkennungsrate von ungefähr 95 % und einer Fehlalarmrate von ungefähr 2 %. Wir haben auch Fallstudien durchgeführt, um die Ursachen von falsch negativen und falsch positiven Ergebnissen zu analysieren, die für weitere Verbesserungen verwendet werden können. Unsere Arbeit zeigt weiter, dass maschinelles Lernen eine vielversprechende Anwendungsperspektive im Bereich der Erkennung von Web-Angriffen hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37352-8_11 9b9097e689d824c3bf10265f12ee0aae;de;;;7.4.;;;Statische, dynamische und intrinsische Funktionen basierend auf Android-Malware-Erkennung mit maschinellem Lernen Android ist derzeit eines der intelligentesten und fortschrittlichsten Betriebssysteme auf dem Mobiltelefonmarkt. Die Zahl der Smartphone-Nutzer, die auf der Android-Plattform basieren, steigt schnell, was ihre Popularität auf der ganzen Welt erhöht. Der steigende Ruhm dieser Technologie zieht alle an und lädt mehr Hacker in die Android-Plattform ein. Diese Hacker verbreiten bösartige Anwendungen auf dem Markt und führen zu einer hohen Wahrscheinlichkeit von Datenverlusten, finanziellen Verlusten und anderen Schäden. Daher sollten Malware-Erkennungstechniken implementiert werden, um die Malware intelligent zu erkennen. Es wurden verschiedene Techniken vorgeschlagen, die erlaubnisbasierte oder systemaufrufbasierte Ansätze verwenden. In diesem Artikel wird ein hybrider Ansatz aus statischer, dynamischer und intrinsischer funktionsbasierter Malware-Erkennung unter Verwendung von k-nächsten Nachbarn (k-NN) und logistischen Regressionsalgorithmen für maschinelles Lernen vorgestellt. Der intrinsische Merkmalsbeitrag wurde ebenfalls bewertet. Darüber hinaus wurde eine lineare Diskriminanzanalysetechnik implementiert, um den Einfluss auf die Erkennungsrate zu bewerten. Die Berechnung verwendet einen öffentlich zugänglichen Datensatz von Androtrack. Basierend auf den Schätzergebnissen ergaben sowohl die k-nächsten Nachbarn (k-NN) als auch die logistischen Regressionsklassifikatoren eine Genauigkeit von 97,5%.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29407-6_4 230d43b6a0318330246f33eded23016f;de;;;7.4.;;;Erkennen von Bluetooth-Angriffen auf Smartphones durch Gerätestatuserkennung Bluetooth ist ein universeller Funkstandard, der auf den meisten Smartphones verwendet wird. Mit der weit verbreiteten Verwendung von Bluetooth auf Smartphones hat die Bluetooth-Sicherheit viel Aufmerksamkeit erhalten, und es wird immer wichtiger, Bluetooth-Angriffe zu erkennen und zu blockieren, um sicherzustellen, dass Smartphones frei von Bedrohungen durch Bluetooth-Angriffe sind. Herkömmliche Techniken zur Erkennung von Angriffen basieren im Allgemeinen auf Datenverkehr, und leider ist der Bluetooth-Datenverkehr von Smartphones äußerst schwierig zu erfassen. Ausgehend von diesem Problem schlagen wir eine Bluetooth-Angriffserkennungsmethode basierend auf Gerätestatuserkennung vor, die die Reaktionszeit des Smartphones auf den Ping im Bluetooth L2CAP nutzt, um den Bluetooth-Status des Smartphones aus der Ferne zu überwachen. Aufgrund der Vielzahl von Bluetooth-Angriffen können wir mehrere Bluetooth-Angriffe anhand der Reaktionszeit nicht leicht identifizieren. Zu diesem Zweck haben wir die Wirksamkeit eines auf Deep Learning basierenden Erkennungsansatzes untersucht. Unsere experimentellen Ergebnisse zeigen, dass unser Algorithmus Bluetooth-Angriffe mit hoher Präzision und hohem Wiedererkennungswert erkennen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-57884-8_11 54856f69b358e4a01f42f998b32bd2d6;de;;;7.4.;;;Vorhersage von Ticketpreisen für den öffentlichen Nahverkehr mit Methoden der linearen Regression und der Random-Forest-Regression: Ein praktischer Ansatz mit maschinellem Lernen Der spanische Hochgeschwindigkeitszug (Renfe AVE) ist ein System zur Überwachung der Fahrkartenpreise. Es kratzt regelmäßig Ticketpreisdaten und speichert sie in einer Datenbank. Die Ticketpreise ändern sich je nach Nachfrage und Zeit, und es kann zu erheblichen Preisunterschieden kommen. Dieser Datensatz wurde von einem Team von Data Scientists namens Pedro Muñoz und David Cañones entwickelt. Die Daten sind gut gesammelt, um sie mit Modellen für maschinelles Lernen zu verwenden, um den Fahrpreis (Preis) eines Tickets in Abhängigkeit von Datum, Ankunfts- und Zielort, Zugklasse und Zugtyp vorherzusagen. Der Datensatz enthält wenige Nullwerte, die beachtet werden müssen, um diese Forschung effektiv durchzuführen. Es wurden zwei Modelle für maschinelles Lernen verwendet (lineare Regression und Random Forest Regression) und es wurde festgestellt, dass Random Forest Regressor sowohl mit Trainings- als auch Testdatensätzen von 79,06 % bzw. 80,10 % eine bessere Genauigkeitsbewertung ergab. Das Random-Forest-Modell gewinnt mit größerer Genauigkeit und kann einem Benutzer helfen, die Zugfahrt mit automatisch berechnetem Fahrpreis durch ein maschinelles Lernmodell zu überprüfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5827-6_12 099c22e34561144bc691895c0d1ae976;de;;;7.4.;;;Feature-Auswahl nach geordneter grober Satz-basierter Feature-Gewichtung Das Ziel der Merkmalsteilmengenauswahl besteht darin, die Komplexität eines Induktionssystems zu reduzieren, indem irrelevante und redundante Merkmale eliminiert werden. Die Auswahl des richtigen Satzes von Merkmalen für die Klassifizierungsaufgabe ist eines der wichtigsten Probleme beim Entwerfen eines guten Klassifikators. In diesem Beitrag schlagen wir einen Ansatz zur Merkmalsauswahl vor, der auf einer groben Satz-basierten Merkmalsgewichtung basiert. Im Ansatz werden die Merkmale gewichtet und in absteigender Reihenfolge geordnet. Ein inkrementeller vorwärts verschachtelter Auswahlprozess wird verwendet, um den besten Merkmalssatz mit höchstmöglicher Klassifikationsgenauigkeit zu bestimmen. Der Ansatz wird mit einigen Standarddatensätzen experimentiert und getestet. Die durchgeführten Experimente sollen den Einfluss der Merkmalsvorauswahl auf die Vorhersagegenauigkeit des Grobklassifikators evaluieren. Die Ergebnisse zeigten, dass die Genauigkeit durch eine entsprechende Merkmalsvorauswahlphase verbessert werden konnte.;-;-;-;https://link.springer.com/chapter/10.1007/11546924_11 a5ba4c51c99a8fdc275ae480d87a2981;de;;;7.4.;;;Meinungsbewertungs-Mining-System Forscher fanden heraus, dass die Meinungen der Menschen auf verschiedenen Bewertungsseiten und sozialen Netzwerken verstreut sind Basis von Features in zusammengefasster Form an die Benutzer, um in Echtzeit viel schnellere und bessere Entscheidungen zu treffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5043-0_2 9dc79aec2f491e3aed3ddfe43c2e0330;de;;;7.4.;;;Bildunterschrift in Kombination mit der GAN-Trainingsmethode In der heutigen Welt, in der die Anzahl der Bilder riesig ist und die Menschen die benötigten Informationen nicht schnell abrufen können, brauchen wir dringend ein einfacheres und menschenfreundlicheres Verständnis von Bildern, und Bildunterschriften sind entstanden. Bildunterschriften dienen, wie der Name schon sagt, dazu, Bildinformationen zu analysieren und zu verstehen, um Beschreibungen bestimmter Bilder in natürlicher Sprache zu generieren. In den letzten Jahren wurde es häufig in Bild-Text-Crossover-Studien, in der frühkindlichen Bildung und in der Unterstützung benachteiligter Gruppen eingesetzt. Und die Gunst der Industrie hat viele exzellente Forschungsergebnisse hervorgebracht. Derzeit basiert die Bewertung von Bildunterschriften grundsätzlich auf objektiven Bewertungsindikatoren wie BLUE und CIDEr. Es ist leicht zu verhindern, dass sich die generierte Bildunterschrift dem menschlichen Sprachausdruck annähert. Die Einführung der GAN-Idee ermöglicht es uns, eine neue Methode des gegnerischen Trainings anzuwenden. Um die generierte Bildunterschrift auszuwerten, ist das Bewertungsmodul natürlicher und umfassender. Unter Berücksichtigung der Anforderungen an die Bildtreue schlägt dieses Thema eine GAN-basierte Bildbeschreibung vor. Der Aufmerksamkeitsmechanismus wird eingeführt, um die Bildtreue zu verbessern, wodurch die generierte Bildunterschrift genauer und dem menschlichen Sprachausdruck näher kommt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-46931-3_29 06a539f56acf1d7809b1e9bdf96c9113;de;;;7.4.;;;Ein semiquantitativer Ansatz zur Untersuchung semiqualitativer Systeme In diesem Beitrag wird eine semiquantitative Methodik vorgeschlagen, um Modelle dynamischer Systeme mit qualitativen und quantitativen Kenntnissen zu untersuchen. Diese qualitativen Informationen können zusammengesetzt sein aus: Operatoren, Hüllkurvenfunktionen, qualitativen Labels und qualitativen kontinuierlichen Funktionen. Es wird auch ein Formalismus beschrieben, um dieses qualitative Wissen in diese Modelle einzubringen. Die Methodik ermöglicht es uns, alle Zustände (transient und stationär) eines semiquantitativen dynamischen Systems zu untersuchen. Es hilft auch, seine Verhaltensmuster zu erhalten. Die Methodik wird zeitversetzt auf ein logistisches Wachstumsmodell angewendet.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36131-6_31 463c79b278fc544ad07e408488c4cee5;de;;;7.4.;;;Entwicklung von verteilten Data Mining-Anwendungen im Die Entwicklung datenintensiver und wissensbasierter Anwendungen auf Grids ist ein Forschungsgebiet, dem heute große Aufmerksamkeit geschenkt wird. Eines der Hauptthemen in diesem Bereich ist die Implementierung verteilter Data-Mining-Anwendungen unter Verwendung von Grid-Computing-Diensten und verteilten Ressourcenverwaltungseinrichtungen. Dieses Whitepaper beschreibt den Entwicklungsprozess von verteilten Data-Mining-Anwendungen auf Grids unter Verwendung des KNOWLEDGE GRID-Frameworks. Nach einer kurzen Einführung in die Systemprinzipien und einer Beschreibung der Tools und Dienste, die es den Benutzern bietet, beschreibt das Papier das Design und die Implementierung von zwei verteilten Data-Mining-Anwendungen unter Verwendung der KNOWLEDGE GRID-Funktionen und -Tools und liefert experimentelle Ergebnisse, die durch Ausführen des entworfenen Anwendungen auf realen Grids.;-;-;-;https://link.springer.com/chapter/10.1007/11403937_13 c26710e64efbe3c54cd1c1c7ba055470;de;;;7.4.;;;Schlaf-Wach-Phasenerkennung mit Einkanal-EKG und hybridem Machine-Learning-Modell bei Patienten mit obstruktiver Schlafapnoe Das Schlaf-Staging ist ein wichtiger Schritt bei der Diagnose der obstruktiven Schlafapnoe (OSA). Dieser Schritt wird von einem Arzt durchgeführt, der die Elektroenzephalographie-, Elektrookulographie- und Elektromyographie-Signale visuell bewertet, die vom Polysomnographie-(PSG)-Gerät aufgenommen werden. Die PSG-Aufzeichnungen müssen von einem Techniker in einer Krankenhausumgebung aufgenommen werden, dies kann auf einen Nachteil hinweisen. Ziel dieser Studie ist es, eine neue Methode zu entwickeln, die auf hybridem maschinellem Lernen mit Einkanal-EKG zur Schlaf-Wach-Erkennung basiert und eine Alternative zum heute in Krankenhäusern verwendeten Schlaf-Staging-Verfahren darstellt. Zu diesem Zweck wurde das Herzfrequenzvariabilitätssignal anhand von Elektrokardiographie(EKG)-Signalen von 10 OSA-Patienten abgeleitet. Dann wurden QRS-Komponenten in verschiedenen Frequenzbändern aus dem EKG-Signal durch digitale Filterung erhalten. Auf diese Weise wurden insgesamt neun weitere Signale erhalten. 25 Merkmale aus jedem der 9 Signale, insgesamt wurden 225 Merkmale extrahiert. Der Fisher-Featureauswahlalgorithmus und die Hauptkomponentenanalyse wurden verwendet, um die Anzahl der Features zu reduzieren. Schließlich wurden Merkmale mit Entscheidungsbäumen, Support-Vektor-Maschinen, k-nearest-Nachbarschaftsalgorithmen und Ensemble-Klassifikatoren klassifiziert. Darüber hinaus wurde das vorgeschlagene Modell mit der Leave-One-Out-Methode überprüft. Am Ende der Studie wurde gezeigt, dass die Schlaf-Wach-Erkennung mit nur drei Funktionen mit 81,35 % Genauigkeit und mit 10 Funktionen mit 87,12 % Genauigkeit durchgeführt werden kann. Die Sensitivitäts- und Spezifitätswerte für die 3 Merkmale betrugen 0,85 und 0,77, und für 10 Merkmale betrugen die Sensitivitäts- und Spezifitätswerte 0,90 bzw. 0,85. Diese Ergebnisse legten nahe, dass das vorgeschlagene Modell verwendet werden könnte, um Schlaf-Wach-Phasen während des OSA-Diagnoseprozesses zu erkennen.;-;-;-;https://link.springer.com/article/10.1007/s13246-020-00953-5 8264e0b442b84b9b61f793edae5b02bf;de;;;7.4.;;;Trend des durch künstliche Intelligenz unterstützten Industriedesigns Dieses Papier fasste zwei Kooperationsmodi des KI-unterstützten Designs zusammen, indem es die Entwicklung des Trends der Kooperationsmodus zwischen Mensch und künstlicher Intelligenz verstanden hat. Dieses Papier fasst das moderne computergestützte Industriedesign zusammen, stellt den KI-unterstützten Designprozess vor und gibt die Richtung für zukünftiges KI-unterstütztes Design vor. Der KI-unterstützte Entwurfsprozess wird erhalten, indem die hierarchischen Elemente des unterstützten Entwurfsmusters mit der vorherigen Literatur und Selbstzusammenfassung kombiniert werden. Dieses Papier, das Emotionen als Maßstab für die Messung nimmt, kommt durch die Zusammenfassung des neuen KI-unterstützten Designprozesses zu dem Schluss, dass KI-unterstütztes Design eher dazu neigt, Designer mit implizitem Wissen als mit explizitem Wissen zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-79760-7_50 4920d23cb8a3de5be38a46167cb95a27;de;;;7.4.;;;"Ein hybrider Regel-Induktions-/Likelihood-Ratio-basierter Ansatz zur Vorhersage von Protein-Protein-Interaktionen Wir schlagen eine neue hybride Data-Mining-Methode zur Vorhersage von Protein-Protein-Interaktionen vor, die Likelihood-Ratio mit Regelinduktionsalgorithmen kombiniert. Im Wesentlichen besteht das neue Verfahren darin, einen Regelinduktionsalgorithmus zu verwenden, um Regeln zu entdecken, die Partitionen der Daten darstellen, und dann werden die entdeckten Regeln als ""Bins"" interpretiert, die verwendet werden, um Wahrscheinlichkeitsverhältnisse zu berechnen. Diese neue Methode wird zur Vorhersage von Protein-Protein-Wechselwirkungen in der in";-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01799-5_19 c38b80262a5ff621564cc561a4150a3a;de;;;7.4.;;;Eine Optimierungsmethodik für maschinelle Lernstrategien und Regressionsprobleme in ballistischen Aufprallszenarien In Bereichen mit begrenzten Daten, wie zum Beispiel beim ballistischen Aufprall, haben frühere Forschungen bewiesen, dass die Optimierung von künstlichen neuronalen Modellen ein effizientes Werkzeug zur Verbesserung der Leistung eines Klassifikators auf Basis von MultiLayer Perceptron ist. Darüber hinaus zielt diese Forschung darauf ab, im ballistischen Bereich die Optimierung anderer maschineller Lernstrategien und deren Anwendung bei Regressionsproblemen zu untersuchen. Daher präsentiert dieses Papier eine Optimierungsmethodik, die mit mehreren Ansätzen des maschinellen Lernens bei Regressionsproblemen verwendet werden kann, um den begrenzten Datensatz zu maximieren und die beste Netzwerktopologie und den besten Eingabevektor jedes Netzwerkmodells zu finden. Diese Methodik wird in realen Regressionsszenarien des ballistischen Aufpralls mit verschiedenen künstlichen neuronalen Modellen getestet, wodurch in allen Experimenten eine wesentliche Verbesserung erzielt wird. Darüber hinaus ermöglicht die Qualitätsstufe, basierend auf informationstheoretischen Kriterien, die Bestimmung, wann die Komplexität des Netzwerkdesigns den Fit über die Daten nicht benachteiligt und damit die Auswahl des besten neuronalen Netzwerkmodells aus einer Reihe von Kandidaten. Schließlich zeigen die erhaltenen Ergebnisse die Relevanz dieser Methodik und ihre Anwendung verbessert die Leistung und Effizienz mehrerer maschineller Lernstrategien in Regressionsszenarien.;-;-;-;https://link.springer.com/article/10.1007/s10489-010-0269-5 e26f9e72d8a3169a3b03627d0710d2af;de;;;7.4.;;;Auswahl von Feature-Subsets basierend auf Fuzzy-Entropie-Maßen zur Behandlung von Klassifizierungsproblemen In diesem Papier präsentieren wir eine neue Methode zum Umgang mit der Feature-Subset-Auswahl basierend auf Fuzzy-Entropie-Maßen zur Behandlung von Klassifikationsproblemen. Zuerst diskretisieren wir numerische Merkmale, um die Zugehörigkeitsfunktion jeder Fuzzy-Menge eines Merkmals zu konstruieren. Dann wählen wir die Merkmalsuntermenge basierend auf dem vorgeschlagenen Fuzzy-Entropie-Maß mit Fokus auf Grenzabtastwerte aus. Das vorgeschlagene Verfahren kann relevante Merkmale auswählen, um höhere durchschnittliche Klassifikationsgenauigkeitsraten zu erzielen als die, die durch das MIFS-Verfahren ausgewählt werden (Battiti, R. in IEEE Trans. Neural Netw. 5(4):537–550,;-;-;-;https://link.springer.com/article/10.1007/s10489-007-0042-6 b20dc5f8037fdad833907e8f8180ffe3;de;;;7.4.;;;Ein Fall für geführtes maschinelles Lernen Die Einbeziehung von Menschen in den Lernprozess eines maschinellen Lernalgorithmus kann viele Vorteile haben, die von der Vertrauensbildung in ein bestimmtes Modell über zusätzliche Personalisierungsfunktionen bis hin zur Reduzierung des Kennzeichnungsaufwands reichen. Während diese Ansätze gemeinhin unter dem Begriff Interactive Machine Learning (iML) zusammengefasst werden, existiert keine eindeutige Definition von iML, um diesen Forschungsbereich klar zu definieren. In diesem Positionspapier diskutieren wir die Unzulänglichkeiten aktueller Definitionen von iML und schlagen und definieren alternativ den Begriff des geführten maschinellen Lernens (gML).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29726-8_22 a401eebd07eeecd66069d669928d1978;de;;;7.4.;;;MLW-gcForest: ein multi-gewichtetes gcForest-Modell zur Stadieneinteilung von Lungenadenokarzinomen basierend auf multimodalen genetischen Daten Lungenkrebs ist eine der häufigsten Krebsarten, von denen das Lungenadenokarzinom den größten Anteil ausmacht. Derzeit ist ein genaues Staging eine Voraussetzung für eine effektive Diagnose und Behandlung von Lungenadenokarzinomen. In der bisherigen Forschung wurden hauptsächlich einzelmodale Daten, wie Genexpressionsdaten, zur Klassifizierung und Vorhersage verwendet. Die Integration multimodaler genetischer Daten (Genexpression RNA-Seq, Methylierungsdaten und Kopienzahlvariation) desselben Patienten bietet die Möglichkeit, multimodale genetische Daten für die Krebsvorhersage zu verwenden. Vor kurzem wurde eine neue maschinelle Lernmethode namens gcForest vorgeschlagen. Dieses Verfahren hat sich in einigen Bereichen als geeignet für die Klassifizierung erwiesen. Das Modell kann jedoch bei der Anwendung auf kleine Proben und hochdimensionale genetische Daten vor Herausforderungen stehen.;-;-;-;https://link.springer.com/article/10.1186/s12859-019-3172-z c16027586540963a8cf75718bf1413c5;de;;;7.4.;;;Ein Überblick über Transferlernen mit Fokus auf asymmetrische heterogene Ansätze In der Praxis begegnen uns häufig Klassifikationsaufgaben. Um diese Aufgaben zu lösen, benötigen wir eine ausreichende Menge an Qualitätsdaten für die Konstruktion eines genauen Klassifikationsmodells. Die Erhebung von Qualitätsdaten stellt jedoch teilweise eine anspruchsvolle zeitliche und finanzielle Herausforderung dar. Im medizinischen Bereich stoßen wir beispielsweise auf einen Mangel an Patientendaten. Transferlernen führt die Idee ein, dass eine mögliche Lösung darin bestehen kann, Daten aus verschiedenen Domänen zu kombinieren, die durch verschiedene Merkmalsräume repräsentiert werden, die sich auf dieselbe Aufgabe beziehen. Wir können auch bereits erlerntes Wissen aus einer anderen, aber verwandten Aufgabe übertragen. Diese Übersicht konzentriert sich auf die aktuellen Fortschritte auf dem neuartigen Gebiet des asymmetrischen heterogenen Transferlernens. Wir diskutieren Ansätze und Methoden zur Lösung solcher Transfer-Lernaufgaben. Darüber hinaus erwähnen wir die am häufigsten verwendeten Metriken und die Möglichkeit, Metrik- oder Ähnlichkeitslernen zu verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94809-6_1 6a920efd7e09fdf9835891349214cc19;de;;;7.4.;;;Forschung zur Simulation dynamischer Vegetationsänderungen basierend auf Spatial Data Mining des ANN-CA-Modells unter Verwendung von Zeitreihen von Fernerkundungsbildern Die dynamische Veränderung der Vegetation ist in China aufgrund von Klimaschwankungen und menschlichen Störungen im Gelben Flussbecken zu einem sehr sensiblen Problem geworden. Dynamische Simulation und Prognose der Vegetation werden als wirksame Maßnahme zur Entscheidungsunterstützung für die Kommunalverwaltung angesehen. Dieses Papier stellt eine neue Methode vor, um die Bemühungen der lokalen Regierung im Umweltschutz zu unterstützen. Es integriert zellulare Automaten (CA) -künstliche neuronale Netze (ANN) mit einem geographischen Informationssystem (GIS) und Fernerkundung. Das vorgeschlagene Verfahren umfasst drei Hauptschritte: (1) Kontrollfaktoren extrahieren, (2) CA- und ANN-Modelle integrieren, (3) den ausgewählten Bereich unter Verwendung des CA-ANN-Modells simulieren. Die Ergebnisse zeigten, dass der integrierte Ansatz schnell den Zustand der zukünftigen Vegetationsdecke finden kann, der die Anforderungen der örtlichen Abteilung erfüllt. Es hat sich gezeigt, dass die vorgeschlagene Methode eine wertvolle Entscheidungshilfe für die Kommunalverwaltung sein kann. Das Ergebnis zeigt, dass der NDVI der Vegetation einen zunehmenden Trend und Merkmale des Verteilungskonzentrationstrends aufweist, aber die Änderungsrate ist von 2007 bis 2014 im Vergleich zu den Veränderungen von 2000 bis 2007 geringer geworden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12220-0_80 c9017b4e89a5bceb0b39093e0f099d4e;de;;;7.4.;;;Verwendung homomorpher Verschlüsselung zur Berechnung der Privatsphäre Erhaltung von Data Mining in einer Cloud-Computing-Umgebung Cloud Computing bezieht sich auf eine IT-Infrastruktur, in der Daten und Software in einem entfernten Rechenzentrum gespeichert und verarbeitet werden, auf das als Dienst über das Internet zugegriffen werden kann. Typische Rechenzentren in diesen Bereichen sind groß, komplex und oft laut. Darüber hinaus ist die Wahrung der Privatsphäre beim Data Mining eine wichtige Herausforderung. Es ist erforderlich, die Vertraulichkeit von Datenquellen während der Extraktion häufig geschlossener Muster zu schützen. Tatsächlich sollte keine Site in der Lage sein, den Inhalt einer Transaktion auf einer anderen Site zu erfahren. Die in dieser Arbeit durchgeführte Arbeit beschäftigt sich mit diesem Problem. In diesem Zusammenhang schlagen wir einen Ansatz vor, der die Extraktion häufig geschlossener Muster in einer verteilten Umgebung wie der Cloud kombiniert. Unser Ziel ist es, die Privatsphäre der Sites während der Data-Mining-Aufgabe in einer Cloud-Umgebung basierend auf homomorpher Verschlüsselung zu wahren. Die Simulationsergebnisse und die Leistungsanalyse zeigen, dass unser Mechanismus weniger Kommunikations- und Rechenaufwand erfordert. Es kann den Datenschutz effektiv wahren, die Datenintegrität überprüfen und eine hohe Datenübertragungseffizienz sicherstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-65930-5_32 afb159826e04adf3e9bcdfcac5de228c;de;;;7.4.;;;Ein grober Ansatz für die Vorhersage von Weltraumwetter und Sonnenstürmen Dieses Papier veranschaulicht die Verwendung der Rough-Set-Theorie als Data-Mining-Methode zur Modellierung von Alert-Systemen. Ein datengesteuerter Ansatz wird angewendet, um ein zuverlässiges Warnsystem für die Vorhersage verschiedener Situationen und das Auslösen von Warnungen für verschiedene kritische Bereiche der menschlichen Industrie zu entwickeln. In diesem System wird eine Vorverarbeitung und Reduktion von Daten mit Data-Mining-Methoden durchgeführt. Die grobe Lernmethode wird verwendet, um das regelmäßige und reduzierte Wissen aus dem Systemverhalten zu erlangen. Schließlich wird das gewonnene Wissen unter Verwendung der erzeugten und reduzierten Regeln, die aus Grobsatzreduktionsalgorithmen extrahiert wurden, angewendet, um diesen Zweck zu erreichen. Dieses Verfahren, wie es mit erfolgreichen realistischen Anwendungen demonstriert wurde, macht den vorliegenden Ansatz bei der Handhabung von Problemen der realen Welt effektiv. Unsere Experimente zeigen, dass das vorgeschlagene Modell verschiedene Gruppen von Unsicherheiten und Ungenauigkeiten handhaben kann und eine geeignete Vorhersageleistung erhält, wenn wir mehrere bestimmte Merkmale zur Darstellung des Wissens festgelegt haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21928-3_43 2e0272b465aa10d98143ccb9dcc57ddb;de;;;7.4.;;;Einsatz von Data-Mining-Techniken zur verbesserten Erkennung von Brustkrebs mit dem Biofield Diagnostic System Das Biofield Diagnostic System (BDS) ist eine zusätzliche Methode zur Erkennung von Brustkrebs, die aufgezeichnete Elektropotentiale der Hautoberfläche verwendet, um gutartige und bösartige Läsionen zu unterscheiden. Das Hauptziel dieses Papiers besteht darin, Data-Mining-Techniken auf zwei Datensätze aus klinischen BDS-Studien anzuwenden, um die Genauigkeit der Krankheitserkennung zu verbessern. Beide Datasets werden vorverarbeitet, um Ausreißer zu entfernen, und werden dann für die Feature-Auswahl verwendet. Es werden Wrapper- und Filterfeatures-Auswahltechniken verwendet und die ausgewählten Features werden für die Klassifizierung unter Verwendung überwachter Techniken wie Linear Discriminant Analysis (LDA), Quadratic Discriminant Analysis (QDA), Support Vector Machines (SVM) und Back Propagation Neural Network (BPNN) verwendet. Es wurde beobachtet, dass der LDA-Klassifikator, der die über die Wrapper-Technik ausgewählte Merkmalsuntermenge verwendet, die Sensitivität und Genauigkeit eines der Datensätze signifikant verbessert. Die wichtigste Beobachtung ist auch, dass diese Untergruppe der Merkmale die milde subjektive Interpretation reduziert, die mit der aktuellen Vorhersagemethodik des BDS-Geräts verbunden ist, wodurch neue Entwicklungsmöglichkeiten für das BDS-Gerät eröffnet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03969-0_42 4ec74157f74f02526d5d1ebcc699d112;de;;;7.4.;;;Bots eine neue Evolution von Robotern: Eine Umfrage Heute ist das Zeitalter der virtuellen Roboter, also Bots. Bots sind die Software oder App, die automatisierte Jobs oder Aufgaben über das Internet ausführt. Eine überraschende Veränderung durch KI (Künstliche Intelligenz) in verschiedenen Bereichen ist die Automatisierung. Die Entwicklung von Bots ist eine davon. Zur Entwicklung verschiedener Bots werden unterschiedliche KI-Techniken verwendet. Dieses Papier wird versuchen, verschiedene Bots auf der Grundlage von KI-Algorithmen zu untersuchen und herauszufinden, warum die spezifischen Algorithmen in Bots verwendet werden, und auch einen Blick auf verschiedene Arten von Bots mit wachsender Nachfrage nach Automatisierung skizzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-7091-5_19 bd60fc1f1a83b8e97c5e461e2d7887a6;de;;;7.4.;;;Training für Smart Manufacturing mit einer mobilen roboterbasierten Produktionslinie Praxisexperimente, die die Herstellungsprozesse und Spitzentechnologien der Smart Manufacturing (SM) integrieren, sind für zukünftige akademische und angewandte Ingenieure unerlässlich. Die zunehmende Wirksamkeit der praktischen Erfahrung in der SM-Ingenieurausbildung hat sich manifestiert. In dieser Hinsicht wird in dieser Studie ein praktisches Referenzsystem für die praktische Ausbildung in SM-entscheidenden Fortschritten vorgeschlagen. Das System baut eine mobile roboterbasierte Produktionslinie (MRPL) auf, um das Interesse der Teilnehmer an theoretischem Lernen und beruflichen Fähigkeiten zu steigern. Das MRPL-basierte Referenzsystem umfasst die umfassenden Prinzipien und Prozesse moderner SM-Fabriken von der Lagerhaltung über die Logistik bis hin zur Verarbeitung und Prüfung. Mit den Schlüsselmerkmalen Modularität, Integrierbarkeit, Anpassbarkeit und offene Architektur verfolgt dieses System ein dreifaches Ziel. Erstens handelt es sich um ein interdisziplinäres Fach, das es den Studierenden ermöglicht, das Lernen im Klassenzimmer in authentische Praktiken zu übersetzen und so die Wissenssynthese und die Teilnahme an Schulungen zu erleichtern. Zweitens bietet es eine wirksame Unterstützung, um die Zuschreibungen und Verhaltenskompetenzen von SM-Talenten wie Ausdauer, Anpassungsfähigkeit und Kooperation zu fördern. Drittens fördert es die Fähigkeit der Studierenden zum kritischen Denken und zur Problemlösung, damit sie mit den Schwierigkeiten physikalischer Systeme umgehen können und motiviert sie, Karrieren mit neuen Lehrplänen, Funktionen und Prozesstechnologien einzuschlagen. Die erhaltenen positiven Bewertungen und Einschätzungen bestätigen, dass dieses MRPL-basierte Referenzsystem für die moderne SM-Talentausbildung in der ingenieurwissenschaftlichen Hochschulausbildung von Vorteil ist.;-;-;-;https://link.springer.com/article/10.1007/s11465-020-0625-z 6e44e606eb58ed18a982532cc575f5fb;de;;;7.4.;;;Ein kombinierter Data-Mining-Ansatz zur Erkennung von DDoS-Angriffen Da in letzter Zeit der ernsthafte Schaden durch DDoS-Angriffe zunimmt, sind eine schnelle Erkennung und die richtigen Reaktionsmechanismen dringend erforderlich. Vorhandene Sicherheitsmechanismen bieten jedoch keine wirksame Abwehr gegen diese Angriffe oder die Abwehrfähigkeit einiger Mechanismen ist nur auf bestimmte DDoS-Angriffe beschränkt. Es ist notwendig, die grundlegenden Merkmale von DDoS-Angriffen zu analysieren, da diese Angriffe leicht den verwendeten Port/das verwendete Protokoll oder die Betriebsmethode variieren können. In diesem Papier schlagen wir einen kombinierten Data-Mining-Ansatz vor, um das Verkehrsmuster normaler und diverser Angriffe zu modellieren. Dieser Ansatz verwendet den automatischen Merkmalsauswahlmechanismus zum Auswählen der wichtigen Attribute. Und der Klassifikator wird mit dem theoretisch ausgewählten Attribut durch das neuronale Netz erstellt. Und dann zeigen unsere experimentellen Ergebnisse, dass unser Ansatz im Vergleich zu heuristischer Merkmalsauswahl und anderen einzelnen Data-Mining-Ansätzen die beste Leistung im realen Netzwerk bieten kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-25978-7_95 700101893f951f6fb71f6e45690a3443;de;;;7.4.;;;Schätzung der Effektivität von Twitter-Nachrichten mit einem personalisierten Ansatz für maschinelles Lernen Um einen Tweet in Twitter zu verbessern, möchten wir die Wirksamkeit eines Entwurfs vor dem Versand einschätzen. Die Gesamtzahl der Retweets eines Tweets kann als Maß für die Effektivität des Tweets angesehen werden. Um die Anzahl der Retweets eines Autors zu schätzen, schlagen wir ein Verfahren vor, um ein personalisiertes Modell aus seinen/ihren früheren Tweets zu lernen. Basierend auf den Inhalten der Tweets schlagen wir drei Arten neuer Funktionen vor: Entität, Paar und Thema. Empirische Ergebnisse von sieben Autoren zeigen, dass die Funktionen Paar und Thema statistisch signifikante Verbesserungen des Korrelationskoeffizienten zwischen den Schätzungen und der tatsächlichen Anzahl von Retweets aufweisen. Wir untersuchen verschiedene Kombinationen der drei Merkmalstypen, und viele der Kombinationen verbessern das Ergebnis noch einmal erheblich.;-;-;-;https://link.springer.com/article/10.1007/s10115-017-1088-3 11dcf8de4968be2428491c5a507b3cfb;de;;;7.4.;;;Automatische Vorhersage zukünftiger Geschäftsbedingungen Die Zukunft vorherzusagen ist seit Anbeginn der Menschheit ein Bestreben der Menschheit. Heutzutage ist die Vorhersage sowohl makro- als auch mikroökonomischer Ereignisse eine wichtige Aktivität, die eine bessere Politik und das Gewinnpotenzial ermöglicht. In dieser Arbeit stellen wir eine neuartige Methode vor, um automatisch zukunftsgerichtete Aussagen aus einer bestimmten Art von formellen Unternehmensdokumenten zu extrahieren, die als Transkripte für Verdienstgespräche bezeichnet werden. Unser Hauptziel besteht darin, die Fähigkeit eines Analysten zu verbessern, zukünftige Ereignisse von wirtschaftlicher Bedeutung genau vorherzusagen, über den Vorhersagebeitrag quantitativer Unternehmensdaten hinaus, die Unternehmen produzieren müssen. Durch die Nutzung von Techniken der natürlichen Sprachverarbeitung und des maschinellen Lernens ist unser Ansatz stärker und zuverlässiger als der in der Literatur übliche und ist in der Lage, zukunftsgerichtete Aussagen ohne Benutzerinteraktion oder umfangreiche Anpassung genau zu klassifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10888-9_37 b2d0c94de4e4965a14872106b172d936;de;;;7.4.;;;Auf dem Weg zu einem schnellen und effizienten Algorithmus zum Erlernen des Bayesschen Netzwerks Das Erlernen der Bayesschen Netzwerkstruktur ist eine der spannendsten Herausforderungen beim maschinellen Lernen. Die Ermittlung eines korrekten Skeletts eines gerichteten azyklischen Graphen (DAG) ist die Grundlage für Abhängigkeitsanalysealgorithmen für dieses Problem. In Anbetracht der Unzuverlässigkeit von Bedingungsunabhängigkeitstests (CI) hoher Ordnung und zur Verbesserung der Effizienz eines Algorithmus zur Abhängigkeitsanalyse bestehen die wichtigsten Schritte darin, eine geringe Anzahl von CI-Tests zu verwenden und die Größe der Konditionierungssätze so weit wie möglich zu reduzieren. Aus diesen Gründen und inspiriert vom Algorithmus PC präsentieren wir einen Algorithmus namens Fast and Efficiency PC (FEPC), um die benachbarte Nachbarschaft jeder Variablen zu lernen. FEPC implementiert die CI-Tests durch drei Arten von Aufträgen, was die CI-Tests hoher Ordnung erheblich reduziert. Verglichen mit aktuellen Algorithmusvorschlägen zeigen die Experimentergebnisse, dass FEPC eine bessere Genauigkeit mit einer geringeren Anzahl von Bedingungsunabhängigkeitstests und einer kleineren Größe von Konditionierungssätzen aufweist. Der höchste Reduktionsprozentsatz des CI-Tests beträgt 83,3% nach EFPC im Vergleich zum PC-Algorithmus.;-;-;-;https://link.springer.com/article/10.1007/s11859-015-1084-y 128d55607bed33d16b430370b8bc240a;de;;;7.4.;;;Design, Implementierung und Evaluation von Blended Learning für den Bachelorstudiengang „Bildung und Künstliche Intelligenz“ Für das ehrgeizige Ziel einer Universität von Weltrang fördert die Peking University das Blended Learning von Informations- und Kommunikationstechnologie mit Präsenzunterricht für Studenten. Dieser Beitrag stellt die Konzeption und Implementierung eines Blended-Learning-Ansatzes für die Lehre eines grundständigen Studiengangs „Bildung und künstliche Intelligenz“ vor. Neben dem traditionellen Präsenzunterricht mit Einzelpräsentation, Diskussion und Debatte nutzte der Dozent das Kursverwaltungssystem Moodle, um Kursressourcen wie Skripte und ergänzende Videoclips bereitzustellen und viele Arten von Lernaktivitäten wie Quiz Zuordnungen. Um die praktischen Erfahrungen der Schüler zu bereichern, wurde auch eine Exkursion organisiert. Die Abschlussnote der Studierenden und das insgesamt zufriedenstellende Ergebnis der von der Hochschule unabhängig und offiziell durchgeführten anonymen Evaluation der Studierenden zeigen, dass das Studienziel einigermaßen erreicht wurde, beispielsweise die Eigenständigkeit und Innovationskraft der Studierenden motiviert waren. Doch die individuelle Gestaltung des Blended Learning ist noch immer eine große Herausforderung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-0008-0_20 47a0fd96edb5db6105c7a684f5ff75ea;de;;;7.4.;;;Synergien von Optimierung und Data Mining Data Mining liefert die Konzepte, um die negativen Auswirkungen eines riesigen Zustandsraums zu reduzieren. Sowohl diese Konzepte als auch die Optimierung sind für die Realisierung einer ungefähren Antizipation erforderlich. Als Synergie aus Optimierung und Data Mining entsteht insbesondere eine ungefähre Antizipation. Diese beiden Verfahren sind jedoch grundsätzlich unabhängig voneinander. Somit liefert das vorliegende Kapitel die allgemeinen Grundlagen der Synergien von Optimierung und Data Mining, auf denen das nächste Kap. 5 führt eine ungefähre Vorwegnahme ein. Eine einheitliche Sicht auf die Optimierung und das Data Mining wird in Abschn. 4.1. Anschließend werden die Synergien der beiden identifiziert und hinsichtlich ihres Beitrags zum Data Mining in Abschn. 4.2 und hinsichtlich der Optimierung in Abschn. 4.3.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-0505-4_4 ca3ebcb56fc375bbadd5f782bdd28c72;de;;;7.4.;;;Bestimmung der Abhängigkeit zwischen Klauseln basierend auf Techniken des maschinellen Lernens Je länger die Eingabesätze sind, desto schlechter sind die syntaktischen Parsing-Ergebnisse. Daher wird ein langer Satz zunächst in mehrere Klauseln unterteilt, und für jede Klausel wird eine syntaktische Analyse durchgeführt. Schließlich werden alle Analyseergebnisse zu einem zusammengeführt. Beim Zusammenführen ist es schwierig, die Abhängigkeit zwischen den Klauseln zu bestimmen. Um eine solche syntaktische Mehrdeutigkeit zwischen Klauseln zu handhaben, schlägt dieses Papier ein zweistufiges Verfahren zur Bestimmung der Klauselabhängigkeit basierend auf maschinellen Lerntechniken vor. Wir extrahieren verschiedene satzspezifische Merkmale und analysieren die Auswirkungen jedes Merkmals auf die Leistung. Für die koreanischen Texte experimentieren wir mit vier Arten von Methoden des maschinellen Lernens. Die Logitboosting-Methode schnitt am besten ab und übertraf auch die vorherigen regelbasierten Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71618-1_91 c1233bddfd4cefcaeb6e08e18ee7a09c;de;;;7.4.;;;Unterschiedlich an verschiedenen Themen zusammenarbeiten: Ein multirelationaler Ansatz für Multi-Task-Lernen Multitask-Lernen bietet eine Möglichkeit, von Synergien mehrerer verwandter Vorhersageaufgaben über deren gemeinsame Modellierung zu profitieren. Aktuelle Multi-Task-Techniken modellieren verwandte Aufgaben gemeinsam, wobei davon ausgegangen wird, dass die Aufgaben über alle Features hinweg dieselbe Beziehung aufweisen. Diese Annahme trifft selten zu, da Aufgaben mit einigen Funktionen zusammenhängen können, andere jedoch nicht. Um dieses Problem anzugehen, schlagen wir ein neues Multi-Task-Lernmodell vor, das separate Aufgabenbeziehungen entlang verschiedener Funktionen lernt. Diese zusätzliche Flexibilität ermöglicht unserem Modell eine feinere und differenziertere Kontrolle bei der gemeinsamen Modellierung von Aufgaben entlang verschiedener Merkmale. Wir formulieren das Modell als Optimierungsproblem und liefern eine effiziente, iterative Lösung. Wir veranschaulichen das Verhalten des vorgeschlagenen Modells anhand eines synthetischen Datensatzes, in dem wir verschiedene merkmalsabhängige Aufgabenbeziehungen induzieren: positive Beziehung, negative Beziehung, keine Beziehung. Anhand von vier realen Datensätzen bewerten wir die Wirksamkeit des vorgeschlagenen Modells für viele Multitask-Regressions- und Klassifikationsprobleme und demonstrieren seine Überlegenheit gegenüber anderen modernen Multitask-Lernmodellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-18038-0_24 ea5071f2fd4a8f69b9ab71adcef996a0;de;;;7.4.;;;Informationsgranulate und Grob-Neural Computing In diesem Kapitel diskutieren wir die Grundlagen des Rough-Neural Computing (RNC). Wir führen Informationsgranulatsysteme und Informationsgranulate in solchen Systemen ein. Informationsgranula-Netzwerke, sogenannte Approximation Reasoning Schemes (AR-Schemata), werden verwendet, um Informationsgranula-Konstruktionen darzustellen. Wir diskutieren die Grundlagen von RNC anhand einer Analogie von Informationsgranulatnetzwerken mit neuronalen Netzwerken. RNC ist ein grundlegendes Paradigma des Granular Computing (GC). Dieses Paradigma macht es möglich, AR-Schemata abzustimmen, um relevante Informationsgranula zu konstruieren, z. Eines der Ziele unseres Projekts ist die Entwicklung von Methoden auf Basis von Rough-Neural Computing für das Rechnen mit Wörtern (CW).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18859-6_3 250f318a92478539ce7a4dbd6e30c4d1;de;;;7.4.;;;Mining-Gangmuster für die klinische Bewegungsdiagnose basierend auf Clustering-Techniken Die wissenschaftliche Ganganalyse (Gehen) liefert wertvolle Informationen über die Fortbewegungsfunktion einer Person, um wiederum die klinische Diagnose und Prävention zu unterstützen, z. Während für die Ganganalyse mehrere Paradigmen der künstlichen Intelligenz (KI) angesprochen werden, verwenden sie normalerweise überwachte Techniken, bei denen Themengruppen definiert werden;-;-;-;https://link.springer.com/chapter/10.1007/11811305_33 3a0f5105be576f21be1bcc819acde32d;de;;;7.4.;;;Zero-Shot-Learning für Intrusion Detection über Attributdarstellung Network Intrusion Detection ist eine wichtige Infrastruktur für die Netzwerksicherheit. Obwohl zahlreiche auf maschinellem Lernen basierende Studien untersucht haben, wie Intrusion Detection ermöglicht werden kann, um unbekannte neuartige Angriffstypen, die sogenannte Anomaly Detection, zu erkennen, konzentriert sich wenig Arbeit auf den Einsatz von Attributlernmethoden. Eine wichtige Anwendung des Attributlernens ist das Zero-Shot-Learning, mit dem das Problem der Anomalieerkennung gelöst werden kann. In dieser Arbeit schlagen wir eine Methode des Attributlernens vor. Es wird ein Pipeline-Framework eingeführt, das die zufällige Auswahl von Waldmerkmalen und die Konvertierung von DBSCAN-Clustering-Attributen verwendet, um rohe Netzwerkdaten in Attribute umzuwandeln. Eine umfassende empirische Bewertung zeigt, dass unser vorgeschlagenes Framework die Dateninformationen effektiv erhält und die aktuellen Ansätze übertrifft. Ein zusätzliches Zero-Shot-Lernexperiment zeigt, dass unser Attributansatz im Zero-Shot-Lernszenario gut funktioniert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36708-4_29 3502678c94b24eb60d7f67d451bcbd01;de;;;7.4.;;;Ein heterogenes Computersystem für Data-Mining-Workflows Der rechenintensive Data Mining (DM)-Prozess erfordert die Unterstützung eines Heterogeneous Computing (HC)-Systems, das aus mehreren Computern mit unterschiedlichen Konfigurationen besteht, die über ein Hochgeschwindigkeits-LAN verbunden sind, um die Rechenleistung und Ressourcen zu erhöhen. Der DM-Prozess kann als ein mehrphasiger Pipeline-Prozess beschrieben werden, und in jeder Phase könnte es viele optionale Verfahren geben. Dies macht den Arbeitsablauf von DM sehr komplex und kann nur durch einen gerichteten azyklischen Graphen (DAG) modelliert werden. Ein HC-System benötigt ein effektives und effizientes Scheduling-Framework, das die gesamte Computerhardware orchestriert, um mehrere wettbewerbsfähige DM-Workflows durchzuführen. Motiviert durch die Notwendigkeit einer praktischen Lösung des Scheduling-Problems für den DM-Workflow, schlägt dieses Papier einen dynamischen DAG-Scheduling-Algorithmus entsprechend den Eigenschaften des Ausführungszeit-Schätzmodells für DM-Jobs vor. Basierend auf einer ungefähren Schätzung der Jobausführungszeit ordnet dieser Algorithmus zunächst DM-Jobs Maschinen in a zu;-;-;-;https://link.springer.com/chapter/10.1007/11788911_15 3e735d18c068315b5eb46765f223a8ef;de;;;7.4.;;;Ein hybrider Algorithmus zur Auswahl von Quantenmerkmalen, der einen quanteninspirierten graphentheoretischen Ansatz verwendet Quantum Machine Learning schließt die Lücke zwischen abstrakten Entwicklungen im Quantencomputing und der angewandten Forschung zum maschinellen Lernen. Es zeigt im Allgemeinen die Synthese wichtiger maschineller Lernalgorithmen in einem Quanten-Framework. Die Dimensionsreduktion eines Datensatzes mit einer geeigneten Merkmalsauswahlstrategie ist eine der wichtigsten Aufgaben in der Wissensermittlung und im Data Mining. Die effiziente Strategie zur Merkmalsauswahl trägt dazu bei, die Gesamtgenauigkeit eines großen Datensatzes in Bezug auf maschinelle Lernvorgänge zu verbessern. In diesem Artikel wurde ein Algorithmus zur Auswahl von Quantenmerkmalen vorgeschlagen, der einen graphentheoretischen Ansatz verwendet. Der vorgeschlagene Algorithmus hat zunächst das Konzept des auf Korrelationskoeffizienten basierenden klassischen graphentheoretischen Ansatzes verwendet und dann das Quanten-Orakel mit CNOT-Operation angewendet, um zu überprüfen, ob der Datensatz für die Dimensionsreduktion geeignet ist oder nicht. Wenn es geeignet ist, kann unser Algorithmus ihre hohen Korrelationswerte effizient schätzen, indem er quantenparallele Amplitudenschätzungs- und Amplitudenverstärkungstechniken verwendet. Dieses Papier zeigt auch, dass unser vorgeschlagener Algorithmus in Bezug auf die Abfragekomplexität von einige gängige klassische Merkmalsauswahlalgorithmen für die überwachte Klassifikation deutlich übertrifft;-;-;-;https://link.springer.com/article/10.1007/s10489-019-01604-3 e0a316c84db1d30e46aabe67bbab2e50;de;;;7.4.;;;Modelle, mehr Modelle und dann noch viel mehr Mit zunehmender Akzeptanz von Model-Driven Engineering nimmt die Zahl der verwandten Artefakte, wie Modelle, Metamodelle und Transformationen, stark zu. Um dies zu bestätigen, präsentieren wir quantitative Beweise sowohl aus der Wissenschaft – in Bezug auf Repositorien und Datensätze – als auch aus der Industrie – in Bezug auf große domänenspezifische Sprachökosysteme. Um diese Dimension der Skalierbarkeit in MDE angehen zu können, schlagen wir vor, die Artefakte als Daten zu behandeln und verschiedene Techniken – von der Informationsabfrage bis zum maschinellen Lernen – anzuwenden, um diese Artefakte ganzheitlich, skalierbar und effizient zu analysieren und zu verwalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-74730-9_10 2975600cac2feac77745e1f8ee7b41b6;de;;;7.4.;;;E-Mail-Kategorisierung mit schnellen Algorithmen für maschinelles Lernen Es wurde ein Ansatz zur intelligenten Kategorisierung von E-Mails vorgeschlagen, der schnelle maschinelle Lernalgorithmen verwendet. Die Kategorisierung basiert nicht nur auf dem Body, sondern auch auf dem Header einer E-Mail-Nachricht. Die Metadaten (z. B. Absendername, Organisation usw.) liefern zusätzliche Informationen, die verwertet werden können und verbessern die Kategorisierungsfähigkeit. Ergebnisse von Experimenten mit echten E-Mail-Daten belegen die Machbarkeit unseres Ansatzes. Insbesondere zeigt sich, dass eine Kategorisierung nur anhand der Header-Informationen vergleichbar oder besser als anhand aller Informationen einer Nachricht ist.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36182-0_31 72c3a7e5f050d7955fd316059269ee52;de;;;7.4.;;;Text Data Mining von englischen Interviews Ein „Interview“ ist die Technik, um effektiv die speziellen Daten zu gewinnen, die die Interviewer durch das Gespräch wissen möchten. In diesem Beitrag haben wir einige englische Interviews metrisch analysiert:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24369-6_40 1345d23bdd76fb9bac4c34f2b77da71a;de;;;7.4.;;;Die effektive Studie des Transferlernens mit VGG-16 zur Erkennung und Klassifizierung von Hirntumoren Transferlernen ist heute ein beliebtes Forschungsgebiet und hat insbesondere bei der Erkennung und Klassifizierung verschiedener Klassen einer bestimmten Krankheit mit Hilfe biomedizinischer Bilder eine sehr große Wirkung. In diesem Zusammenhang basiert der vorgeschlagene Rahmen auf Gehirn-MRT-Bildern zur Erkennung und Klassifizierung verschiedener Klassen von Hirntumoren wie Meningiom, Gliom und Hypophysentumoren. Der verwendete Datensatz ist offen verfügbar und wird im Volksmund als „Hirntumor-Datensatz-Figshare“ bezeichnet. Es besteht aus allen drei Klassen von MRT-Bildern. Das vorgeschlagene Framework basiert auf dem Konzept des Transferlernens mit vortrainierter CNN-Architektur, VGG-16. Der vorgeschlagene Rahmen, der eine Gesamtgenauigkeit von etwa 92% für die Erkennung des Tumors erreichen kann, und die erreichte Genauigkeit für die Klassifizierung der erkannten Tumoren in Meningiom, Gliom und Hypophysentumore beträgt 98,66%, 98,53% bzw. 99,54%.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-3660-8_33 9d93bddf126ae083744977b04a40a175;de;;;7.4.;;;Multimodale Fake-News-Erkennung Die Hauptmotivation hinter der Verbreitung von Fake News besteht darin, die Leser davon zu überzeugen, falsche Informationen zu bestimmten Ereignissen oder Unternehmen zu glauben. Die menschliche Kognition neigt dazu, Nachrichten mehr zu konsumieren, wenn sie visuell durch Multimedia-Inhalte als nur durch einfachen Text dargestellt werden. Fake News Spreader nutzen diesen kognitiven Zustand, um falsche Informationen so aufzubereiten, dass sie von vornherein attraktiv aussehen. Daher erfreut sich die multimodale Darstellung von Fake News großer Beliebtheit. Dieses Kapitel bietet einen gründlichen Überblick über die jüngsten Ansätze zur Erkennung multimodaler Fake News, die sich auf verschiedenen Social-Media-Plattformen verbreiten. Zu diesem Zweck präsentieren wir eine Liste von Herausforderungen und Chancen bei der Erkennung multimodaler Fake News. Darüber hinaus stellen wir eine Reihe öffentlich verfügbarer Datensätze bereit, die häufig verwendet werden, um multimodale Modelle zur Erkennung von Fake News zu entwickeln. Anschließend beschreiben wir die vorgeschlagenen Methoden, indem wir sie anhand einer Taxonomie kategorisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-62696-9_3 6db22c685056f0d88a5c9d2c28e7f613;de;;;7.4.;;;Komplexe Daten: Mining mit Mustern Es besteht ein wachsender Bedarf, komplexe Datenmengen zu analysieren, d. h. Daten, bei denen die einzelnen Dateneinheiten selbst (semi-)strukturierte Datensammlungen sind, wie beispielsweise Zeitreihen. Um eine solche Analyse durchzuführen, muss man bekannte Begriffe wie Ähnlichkeit bei solch komplexen Datentypen neu definieren. Dies kann entweder direkt an den Datenelementen erfolgen oder indirekt, basierend auf Merkmalen oder Mustern, die aus den einzelnen Datenelementen berechnet werden. In diesem Papier argumentieren wir, dass die Wavelet-Zerlegung ein allgemeines Werkzeug für den letzteren Ansatz ist.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45728-3_3 cac68ee6f28059871aa87e5e9d76626b;de;;;7.4.;;;Auswahl von Zuordnungsregeln in einer Data Mining-Umgebung Data-Mining-Methoden erzeugen leicht große Regelsammlungen, so dass die Verwendbarkeit der Methoden durch die schiere Größe des Regelsatzes behindert wird. Eine Möglichkeit, die Größe der Ergebnismenge zu begrenzen, besteht darin, dem Benutzer Werkzeuge zur Verfügung zu stellen, die ihm helfen, die wirklich interessanten Regeln zu finden. Wir verwenden diesen Ansatz in einer Fallstudie, in der wir nach Assoziationsregeln in NCHS-Gesundheitsdaten suchen und interessante Teilmengen des Ergebnisses auswählen, indem wir eine einfache Abfragesprache verwenden, die im KESO-Data-Mining-System implementiert ist. Unsere Ergebnisse unterstreichen die Bedeutung des explorativen Ansatzes, der von effizienten Auswahlwerkzeugen unterstützt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-48247-5_45 45cfcc8e8b730ad4aba86a468be70ba2;de;;;7.4.;;;Hauspreisvorhersage mit maschinellen Lernalgorithmen Aufgrund der zunehmenden Urbanisierung steigt die Nachfrage nach Häusern zur Miete und zum Kauf von Häusern. Daher wird die Bestimmung einer effektiveren Methode zur Berechnung des Hauspreises, die den Marktpreis genau widerspiegelt, zu einem heißen Thema. Der Artikel konzentriert sich darauf, den Hauspreis genau zu ermitteln, indem Algorithmen des maschinellen Lernens wie einfache lineare Regression (SLR), multiple lineare Regression (MLR) und neuronale Netzwerke (NN) verwendet werden. Der Algorithmus mit dem niedrigeren mittleren quadratischen Fehler (MSE) wird als bester Algorithmus zur Vorhersage des Hauspreises gewählt. Dies ist sowohl für Verkäufer als auch für Käufer hilfreich, um den besten Preis für das Haus zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1936-5_45 4a03b135164661bc6093da5d2692d077;de;;;7.4.;;;Ein neuartiger Algorithmus zur assoziativen Klassifikation Assoziative Klassifikatoren sind seit einigen Jahren Gegenstand intensiver Forschung. Experimente haben gezeigt, dass sie im Allgemeinen zu einer höheren Genauigkeit führen als Entscheidungsbaum-Klassifikatoren. In diesem Beitrag stellen wir einen neuartigen Algorithmus zur assoziativen Klassifikation vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69162-4_47 25821f8455bc70709f87dc7e1a0bb227;de;;;7.4.;;;Ein konnektionistischer Ansatz zur Extraktion von Wissen aus Datenbanken Eine Klasse von Data-Mining-Problemen ist die Klassifizierung, bei der Regeln gefunden werden, die einen bestimmten Datensatz in getrennte Gruppen aufteilen. Bisher vorgeschlagene Ansätze für das Mining von Klassifikationsregeln für große Datenbanken sind hauptsächlich Entscheidungsbäume, die auf symbolischen Lernmethoden basieren. In diesem Artikel verwenden wir künstliche neuronale Netze, um Klassifizierungsregeln zu ermitteln. Wir präsentieren einen neuartigen Ansatz namens LBSB, der aus zwei Phasen besteht, um Regeln aus künstlichen neuronalen Netzen zu extrahieren und Wissen in Datenbanken zu entdecken. Einige Experimente haben gezeigt, dass unser Verfahren unter verrauschten Bedingungen Regeln mit besserer Leistung erzeugt als der Entscheidungsbaum-Ansatz.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0052863 f8f93c921b75d389585f2fc2f3a63e13;de;;;7.4.;;;MeKG: Aufbau eines medizinischen Wissensgraphen durch Data Mining von MEDLINE Das Mining von Daten auf Wissensebene kann helfen, eine höhere Leistung eines Entscheidungsunterstützungssystems zu erreichen. Diese Studie erstellte einen auf MEDLINE basierenden Wissensgraphen, der eine große Anzahl von Artikeln im medizinischen Bereich enthält. MEDLINE verwendet Medical Subject Headings (MeSH) für den Dokumentenindex. Basierend auf MeSH werden Artikel aus dem MEDLINE-Korrespondent zu medizinischen Themen extrahiert. Unter Verwendung des MeSH als Rückgrat der Wissensdatenbank wurden die MEDLINE-Artikel verwendet, um Instanzen zu generieren, die beim Auffüllen der Wissensdatenbank halfen. Dieser Ansatz ermöglichte die Erstellung eines Wissensgraphen, der in der Lage war, das verborgene Wissen zwischen den Konzepten von MeSH zu entdecken. Der Wissensgraph hatte einen signifikanten Einfluss auf die Verbesserung der Qualität der Gesundheitsversorgung. Der Beitrag der Forschung bezieht sich auf einen Rahmen für den Aufbau von Wissensbasen. Darüber hinaus war der Ansatz eine wesentliche Quelle auf Wissensebene für Forscher im Gesundheitswesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37078-7_16 8b23e4cdf83eaad755b546c8135de3b5;de;;;7.4.;;;COVID-19-Röntgenmodellerkennung mit Convolution Neural Network Viren und Bakterien sind heute viel gefährlicher denn je, weil sie ihr Immunsystem gegen Medikamente entwickeln können. COVID-19 verbreitete sich rasant über die ganze Welt. Damit Ärzte feststellen können, ob eine Infektion vorliegt oder nicht, werden intelligente Systeme benötigt. Convolution Neural Network ist eine Klasse von Deep Learning, die visuelle Bilder analysieren kann. Dieses Papier untersucht die Wirksamkeit des Convolution Neural Network CNN bei der Erkennung von infizierten Lungenbildern mit COVID-19 oder anderen Krankheiten. Das vorgeschlagene CNN-Modell klassifiziert das Lungenröntgen in drei Kategorien COVID-19, Lungenentzündung und normal. Das Modell wurde mit Cohen angewendet und Datenbanken von Kaggle und GitHub gesammelt. Das vorgeschlagene Modell erreichte eine durchschnittliche Genauigkeit von 96,8 %, um zwischen COVID-19, Lungenentzündung und normalen Lungenröntgenaufnahmen zu klassifizieren, und eine Genauigkeit von 100 %, um COVID-19 gegenüber normalen Lungenröntgenaufnahmen zu klassifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-76346-6_1 ee9d4c505e50cb462e0c879f90f5e3d9;de;;;7.4.;;;Verbessern der Anomalieerkennung mithilfe der zeitlichen Mustererkennung Technologische Weiterentwicklungen unterstützen die Entwicklung und Forschung im Bereich Smart Home und . Die zeitliche Natur der in einer intelligenten Umgebung gesammelten Daten ermöglicht uns ein besseres Verständnis von Mustern, die im Laufe der Zeit auftreten. Die Vorhersage von Ereignissen und das Erkennen von Anomalien in solchen Datensätzen ist eine komplexe und herausfordernde Aufgabe. Um dieses Problem zu lösen, schlagen wir eine Lösung vor, die zeitliche Beziehungen verwendet. Unser zeitlicher Mustererkennungsalgorithmus, der auf Allens zeitlichen Beziehungen basiert, hat dabei geholfen, interessante Muster und Beziehungen aus Datensätzen zu entdecken. Wir gehen davon aus, dass maschinelle Lernalgorithmen entworfen werden können, um Modelle des Bewohnerverhaltens in einem automatisch zu lernen, und wenn diese mit zeitlichen Informationen integriert werden, können die Ergebnisse verwendet werden, um Anomalien zu erkennen. Wir beschreiben eine Methode, um zeitliche Beziehungen in Datensätzen zu entdecken und sie anzuwenden, um eine Anomalieerkennung bei häufig auftretenden Ereignissen durchzuführen, indem von der Aktivität geteilte Informationen einbezogen werden. Wir validieren unsere Hypothese durch empirische Studien, die auf Daten von realen Bewohnern und virtuellen Bewohnern (synthetischen) basieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-76485-6_8 d815729093357f11b2755f1a02d4c824;de;;;7.4.;;;Zeitreihenprognose der Innentemperatur mit vortrainierten tiefen neuronalen Netzen Künstliche neuronale Netze haben sich bei Zeitreihen-Vorhersageproblemen als gut erwiesen und wurden in der Literatur umfassend untersucht. Traditionell wurden flache Architekturen aufgrund von Konvergenzproblemen beim Umgang mit tiefen Modellen verwendet. Neueste Forschungsergebnisse ermöglichen das Training von Deep Architectures und eröffnen ein neues interessantes Forschungsgebiet namens Deep Learning. Dieses Papier präsentiert eine Studie über Deep-Learning-Techniken, die auf Zeitreihenvorhersagen in einer realen Innentemperaturvorhersageaufgabe angewendet werden, und untersucht die Leistung aufgrund verschiedener Hyperparameterkonfigurationen. Bei Verwendung von tiefen Modellen wurde eine bessere Generalisierungsleistung am Testsatz und eine Überanpassungsreduktion beobachtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40728-4_57 43ed6a08f884c866eac77ff5ecbdce47;de;;;7.4.;;;Aktives Lernen mehrerer Labels mit optimaler Label-Subset-Auswahl Die Multi-Label-Klassifizierung, bei der jeder Instanz mehrere Labels zugewiesen werden, ist ein attraktives Forschungsthema im Data Mining. Die Annotationen von Instanzen mit mehreren Labels sind in der Regel schwieriger und zeitaufwendiger, da sie gleichzeitig mehreren Labels zugeordnet sind. Daher wird aktives Lernen, das die Kennzeichnungskosten durch aktives Abfragen der Kennzeichnungen der wertvollsten Daten reduziert, für das Lernen mit mehreren Kennzeichnungen besonders wichtig. Die Studie zeigt, dass Methoden zur Abfrage von Instanz-Label-Paaren effektiver sind als diese Abfrageinstanzen, da für jede Stichprobe nur einige effektive Labels mit Anmerkungen versehen werden müssen, während andere durch Untersuchung der Label-Korrelationen abgeleitet werden können. Bei der hohen Dimensionalität des Label-Raums wird jedoch der selektive Algorithmus für das Instanz-Label-Paar beeinträchtigt, da der Rechenaufwand zum Trainieren eines Multi-Label-Modells stark durch die Anzahl der Labels beeinflusst werden kann. In diesem Papier schlagen wir einen Ansatz vor, der Instanz-Sampling mit einer optimalen Label-Subset-Auswahl kombiniert, was die Leistung des Klassifizierungsmodells effektiv verbessern und die Annotationskosten erheblich reduzieren kann. Experimentelle Ergebnisse belegen die Überlegenheit des vorgeschlagenen Ansatzes gegenüber modernsten Methoden an drei Benchmark-Datensätzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-14717-8_41 e324c79975bc6ddc4b5dce02fc7126c4;de;;;7.4.;;;Anwendung von Künstlicher Intelligenz im berufsbezogenen Englischunterricht im Informationsumfeld Mit der kontinuierlichen Vertiefung und Entwicklung der Informationsumgebung wurde künstliche Intelligenz (KI) weit verbreitet und im College-Englischunterricht angewendet, was nicht nur die Lernressourcen der Lernenden erheblich erweitert, ihre Lernmethoden und -inhalte bereichert, sondern ihnen auch eine geeignetere und umfassendere Plattform für das Englischtraining. Darüber hinaus kann KI auch gezielte Lernmethoden und -korpus für verschiedene Lernende anhand ihrer tatsächlichen Bedingungen entwickeln und empfehlen, um deren Lerneffizienz zu verbessern. Big Data, Cloud Computing, Spracherkennung, Deep Learning und andere Technologien der künstlichen Intelligenz sind im Bereich Bildung und Lehre weit verbreitet, was nicht nur die traditionellen Lernmethoden der Schüler verändert, sondern auch die Innovation der Lehrmethoden und des Unterrichts von Lehrern fördert Funktionen. Die Anwendung von Technologien der künstlichen Intelligenz, insbesondere Spracherkennung, Sprachübersetzung, Sprachprüfung und andere Technologien in der Sprachdienstleistungsbranche, hat neue Möglichkeiten und Herausforderungen für den Sprachunterricht an Hochschulen und Universitäten mit sich gebracht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5959-4_143 2149045d915fc9020d95a1ab73bcddbe;de;;;7.4.;;;Electronic Aid Design der Bildklassifizierung von Früchten für sehbehinderte Menschen Deep Learning hat in den letzten Jahren in vielen Bereichen wie Computer Vision und üblicher Sprachverarbeitung enorme Erfolge erzielt. Es verfügt über eine kräftige Gelehrsamkeit und kann im Vergleich zu herkömmlichen maschinellen Lernsystemen eine verbesserte Nutzung von Datensätzen für die Merkmalsextraktion schaffen. Aufgrund seiner Popularität beginnen die Forscher mit der Forschungsarbeit in diesem Deep Learning. In diesem Manuskript initiieren wir hauptsächlich mehrere überlegene neuronale Netzwerke des Deep Learning und ihre Funktionen. Deep-Learning-Technologien werden zu den wichtigsten Ansätzen für die natürliche Signal- und Informationsverarbeitung, wie Bildklassifizierung und Spracherkennung. Deep Learning ist eine Technologie, die von der Funktionsweise des menschlichen Gehirns inspiriert ist. Convolutional Neural Networks (CNN) werden für die Bildklassifizierung beim Deep Learning sehr beliebt. CNNs schneiden bei vielen der Bildklassifizierungsdatensätze besser ab als menschliche Probanden. In diesem Projekt wird ein auf Tensorflow basierendes Deep-Learning-Faltungsnetzwerk mit Python für die binäre Bildklassifizierung bereitgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7062-9_73 d81a715e93a4cc25c4da3272722565e5;de;;;7.4.;;;Modellierung auf Systemebene von Genregulierungsnetzwerken Das vielleicht wichtigste Signalnetzwerk in lebenden Zellen sind die Interaktionen von Proteinen mit dem Genom – dem Genregulationsnetzwerk der Zelle. Auf der Systemebene bilden die verschiedenen Interaktionen und Regelkreise, die ein genetisches Netzwerk bilden, die Grundlage, auf der die enorme Komplexität und Flexibilität von Lebensvorgängen entsteht. Hier untersuchen wir Möglichkeiten, wie Ansätze der künstlichen Intelligenz zu einem quantitativeren Verständnis regulatorischer genetischer Netzwerke auf Systemebene beitragen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-5811-0_10 d252144b7c676fb94a137ba7153f42c1;de;;;7.4.;;;Quantitative Analyse des Kunstmarktes mit Ontologien, Named Entity Recognition und Machine Learning: Eine Fallstudie In dem Beitrag untersuchen wir neue Ansätze der quantitativen Kunstmarktforschung, wie statistische Analysen und die Bildung von Marktindizes. Eine Ontologie wurde entwickelt, um Kunstmarktdaten auf einheitliche Weise zu beschreiben. Um die Qualität der Informationen in der Wissensbasis der Ontologie sicherzustellen, werden auch Datenanreicherungstechniken wie Named Entity Recognition (NER) oder Data Linking eingesetzt. Durch den Einsatz von Techniken aus Computer Vision und maschinellem Lernen sagen wir einen Stil eines Gemäldes voraus. Dieses Papier enthält ein Fallstudienbeispiel, das eine detaillierte Validierung unseres Ansatzes darstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-39426-8_7 04754e1d3f3b615fc53366735bd3070a;de;;;7.4.;;;DSCo: Ein Sprachmodellierungsansatz für die Zeitreihenklassifizierung Zeitreihendaten sind in verschiedenen Bereichen reichlich vorhanden und werden oft als groß und hochdimensional charakterisiert, was zu Herausforderungen bei der Speicherung und Verarbeitung führt. Die symbolische Darstellung von Zeitreihen – die numerische Zeitreihendaten in Texte umwandelt – ist eine vielversprechende Technik, um diesen Herausforderungen zu begegnen. Diese Techniken sind jedoch im Wesentlichen verlustbehaftete Kompressionsfunktionen und Informationen gehen während der Transformation teilweise verloren. Zu diesem Zweck führen wir einen neuartigen Ansatz namens Domain Series Corpus (DSCo) ein, der aus den symbolisierten Texten klassenspezifische Sprachmodelle erstellt. Um nicht gekennzeichnete Stichproben zu klassifizieren, berechnen wir die Fitness jeder symbolisierten Stichprobe gegen alle Modelle pro Klasse und wählen die Klasse aus, die durch das Modell mit dem besten Fitness-Score repräsentiert wird. Unsere Arbeit nutzt auf innovative Weise ausgereifte Techniken sowohl aus dem Zeitreihen-Mining als auch aus NLP-Communities. Durch umfangreiche Experimente an einem offenen Datensatzarchiv zeigen wir, dass es ähnlich funktioniert wie Ansätze, die mit ursprünglichen unkomprimierten numerischen Daten arbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-41920-6_22 7449f5663b6f511876d7185ed0f8cd88;de;;;7.4.;;;Multiattributbasierte Machine-Learning-Modelle für die Vorhersage des Schweregrads im projektübergreifenden Kontext Der Schweregrad eines gemeldeten Fehlers ist ein wichtiges Attribut. Es beschreibt die Auswirkungen eines Fehlers auf die Funktionalität der Software. In der verfügbaren Literatur wurden auf maschinellen Lerntechniken basierende Vorhersagemodelle vorgeschlagen, um den Schweregrad eines Fehlers zu bewerten. Diese Vorhersagemodelle wurden entwickelt, indem eine Zusammenfassung eines gemeldeten Fehlers verwendet wurde, d. h. die Beschreibung eines von einem Benutzer gemeldeten Fehlers. Diese Arbeit wurde auch im projektübergreifenden Kontext erweitert, um den Projekten zu helfen, deren historische Daten nicht verfügbar sind. Bis jetzt zeigt die Literatur, dass Bug Triager den Schweregrad nur auf der Grundlage des zusammenfassenden Berichts eines Fehlers bewerten, aber wir sind der Meinung, dass der Schweregrad eines Fehlers seinen Wert im Laufe der Behebung ändern kann und darüber hinaus ist der Schweregrad nicht nur gekennzeichnet durch die Zusammenfassung des Fehlerberichts, aber auch durch andere Attribute, nämlich Priorität, Anzahl der Kommentare, Anzahl der abhängigen Personen, Anzahl der Duplikate, Komplexität, Zusammenfassungsgewicht und CC-Liste. In diesem Artikel haben wir Vorhersagemodelle entwickelt, um den Schweregrad eines gemeldeten Fehlers basierend auf diesen Attributen im projektübergreifenden Kontext zu bestimmen. Zur empirischen Validierung haben wir 15.859 Fehlerberichte von Firefox, Thunderbird, Seamonkey, Boot2Gecko, Add-on SDK, Bugzilla, Webtools und addons.mozilla.org Produkten des Mozilla Open Source Projekts berücksichtigt, um die Klassifizierungsmodelle basierend auf Support Vector Machine (SVM .) zu entwickeln ), Naive Bayes (NB) und K-Nearest Neighbors (KNN).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09156-3_17 956bf1c2504666b5fb7b964b6d8b4836;de;;;7.4.;;;Automatisierte anatomische Markierung von Bronchialästen, extrahiert aus CT-Datensätzen basierend auf maschinellem Lernen und Kombinationsoptimierung und deren Anwendung auf die Bronchoskopführung Dieser Artikel präsentiert eine Methode zur automatisierten anatomischen Markierung von Bronchialästen, die aus 3D-CT-Bildern extrahiert wurde, basierend auf maschinellem Lernen und Kombinationsoptimierung. Wir zeigen auch Anwendungen der anatomischen Markierung auf einem Bronchoskopie-Führungssystem. In diesem Papier wird eine automatisierte Etikettierung mithilfe von maschinellem Lernen und Kombinationsoptimierung durchgeführt. Das eigentliche Verfahren besteht aus vier Schritten: (a) Extraktion von Baumstrukturen der aus CT-Bildern extrahierten Bronchusregionen, (b) Konstruktion von AdaBoost-Klassifikatoren, (c) Berechnung von Kandidatennamen für alle Äste unter Verwendung der Klassifikatoren, (d) Auswahl der besten Kombination anatomischer Namen. Wir haben die vorgeschlagene Methode auf 90 Fälle von 3D-CT-Datensätzen angewendet. Die experimentellen Ergebnisse zeigten, dass die vorgeschlagene Methode 86,9% der Bronchialäste bis hin zu den subsegmentalen Lappenästen korrekte anatomische Namen zuordnen kann. Außerdem haben wir die anatomischen Namen der Bronchialäste mit echten bronchoskopischen Ansichten überlagert, um eine echte Bronchoskopie zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04271-3_86 c8186ce0bf9934033ec7c09328d1ae36;de;;;7.4.;;;Hybrid Information Filtering Engine für personalisiertes Job-Recommender-System Das Empfehlungssystem, auch Empfehlungssystem oder Empfehlungsmaschine/Plattform genannt, gilt als interdisziplinäres Feld. Es verwendet die Techniken von mehr als einem Feld. Das Empfehlungssystem erbt Ansätze aus dem gesamten maschinellen Lernen, Data Mining, Informationsabruf, Informationsfilterung und Mensch-Computer-Interaktion. In diesem Papier schlagen wir unsere Mehrwertarchitektur der Hybrid Information Filtering Engine für das Job-Recommender-System (HIFE-JRS) vor. Wir besprechen die Komponenten unseres entwickelten Systems, um die relevantesten Informationen zu filtern und für jeden Benutzer den individuellsten Inhalt zu produzieren. Die Grundidee von Empfehlungssystemen besteht darin, Benutzern Artikel zu empfehlen, die ihren Interessen entsprechen. In ähnlicher Weise tendiert das Projekt dazu, Jobsuchenden relevante Stellen zu empfehlen, indem es die Konzepte von Empfehlungssystemen, Information Retrieval und Data Mining nutzt. Das Projekt löst das Problem der Überschwemmung von Arbeitssuchenden mit Tausenden von irrelevanten Jobs, was ein frustrierender und zeitraubender Prozess ist, damit sich Arbeitssuchende auf ihre begrenzten Suchfähigkeiten verlassen können, um Tonnen von Jobs zu finden, um den richtigen Job zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-74690-6_54 41e96b61ef914a5267b1728939bf7903;de;;;7.4.;;;Daten in industriellen Umgebungen verstehen Industrielle Daten werden meistens aus verschiedenen menschlichen Sprachen kodifiziert und in verschiedenen Datenbanksystemen und Anwendungen für industrielle Umgebungen unterstützt. Informationsabruf und Wissen können erfolgen, wenn wir einen menschlichen Punkt der Datenabstraktion haben (Laudon, 1999). Nach Fayyad (Fayyad et al., 1996) muss ein Verständnis der Domäne, erweiterte Datenbank mit aussagekräftigen Informationen vorhanden sein. Unter dieser Annahme erstellen wir eine erweiterte Datenbank mit zwei Arten von Informationen: menschliches Wissen über die Bereiche und welche Art von Technik für den Zugriff auf Daten verwendet werden muss. Mit einer einfachen menschlichen Schnittstelle können wir ein genaues Dokumentensystem für industrielle Umgebungen modellieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-8945-1_16 cee310e344735a5d1a7ba0b22ad33e7b;de;;;7.4.;;;Ein neuartiger Ansatz zur Identifizierung von gebänderten Mustern in Null-Eins-Daten mithilfe von Spalten- und Zeilen-Banding-Scores Zero-One-Daten sind im Bereich Data Mining häufig anzutreffen. Ein gebändertes Muster in Null-Eins-Daten ist eines, bei dem die Attribute (Spalten) und Datensätze (Zeilen) so organisiert sind, dass die „Einsen“ entlang der führenden Diagonale angeordnet sind. Die Bedeutung besteht darin, dass das Neuanordnen von Null-Eins-Daten, um eine Bandigkeit zu zeigen, den Betrieb einiger Data Mining-Algorithmen verbessert, die mit Null-Eins-Daten arbeiten. Auch die Tatsache, dass ein Datensatz Banding aufweist, kann für verschiedene Anwendungsdomänen von Interesse sein. In diesem Artikel wird ein effektiver Banding-Algorithmus vorgestellt, der entworfen wurde, um Banding in 2D-Daten durch Neuanordnen der Reihenfolge von Spalten und Zeilen aufzudecken. Die Herausforderung liegt in der großen Anzahl möglicher Zeilen- und Spaltenpermutationen. Um dieses Problem anzugehen, wird ein Mechanismus zur Bewertung von Spalten und Zeilen vorgeschlagen, der es ermöglicht, Spalten und Zeilen so zu ordnen, dass die Bandigkeit sichtbar wird, ohne dass eine große Anzahl von Permutationen berücksichtigt werden muss. Dieser Mechanismus wurde in den in diesem Artikel vorgeschlagenen Banded Pattern Mining (BPM)-Algorithmus integriert. Die Funktionsweise von BPM wird ausführlich besprochen. Es wird auch eine vollständige Bewertung des BPM-Algorithmus präsentiert, die die Vorteile von BPM gegenüber einer Reihe von Wettbewerbsalgorithmen im Kontext einer Sammlung von UCI-Datensätzen deutlich macht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08979-9_5 3e64ce5d1e903673516230dd33fd417c;de;;;7.4.;;;Induktive Logikprogrammierung in Clementine Dieses Papier beschreibt die Integration von ILP mit Clementine. Es werden Hintergrundinformationen zu ILP und Clementine bereitgestellt, mit einer Beschreibung der Zielbenutzer von Clementine. Die Vorteile von ILP für das Data Mining werden skizziert und ILP wird mit bereits existierenden Data Mining-Algorithmen verglichen. Fragen der Integration zwischen ILP und Clementine werden diskutiert. Anschließend wird die Implementierung beschrieben, wobei gezeigt wird, wie die Schlüsselthemen behandelt werden, und kurz die Clementine-Mechanismen beschrieben werden, die zur Integration von ILP verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45372-5_34 bc249c1218a5a0cd026fa17adfac36b7;de;;;7.4.;;;Data Science und Conversational Interfaces: Eine neue Revolution im digitalen Geschäft Jüngste Fortschritte in den Bereichen Künstliche Intelligenz, Semantic Web und intelligente Interaktionsgeräte haben Konversationsschnittstellen immer beliebter gemacht. Diese Fortschritte bei Technologien wie automatische Spracherkennung und -synthese, natürliches Sprachverständnis und -generierung sowie Dialogmanagement sind das Ergebnis jahrzehntelanger Arbeit in diesen Bereichen, um eine natürlichere und intuitivere Kommunikation mit Maschinen zu ermöglichen. In diesem Kapitel beschreiben wir das enorme Potenzial von Data Science, die Leistung von dialogorientierten Schnittstellen zu verbessern und die Anzahl der Benutzer dieser Schnittstellen zu erhöhen. Nach diesem Zyklus werden, je mehr Menschen diese Systeme nutzen, mehr Daten generiert, um ihre Modelle zu lernen und ihre Leistung zu verbessern, wodurch die Anzahl der Benutzer erhöht und die Möglichkeiten für neue Anwendungen im Digital Business erweitert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-95651-0_3 305c16fda2db331bf5b519b40728f6dc;de;;;7.4.;;;MICCLLR: Lernen mit mehreren Instanzen unter Verwendung des klassenbedingten Log-Likelihood-Verhältnisses Multiple-Instanz-Lernen (MIL) ist eine Verallgemeinerung des überwachten Lernproblems, bei dem jede Trainingsbeobachtung eine gekennzeichnete Tüte nicht gekennzeichneter Instanzen ist. Mehrere überwachte Lernalgorithmen wurden erfolgreich für die Lernumgebungen mit mehreren Instanzen angepasst. Wir untersuchen die Anpassung des Naive Bayes (NB)-Klassifikators und die Nutzung seiner ausreichenden Statistiken zur Entwicklung neuartiger Lernmethoden mit mehreren Instanzen. Insbesondere führen wir MICCLLR (multiple-instance class Conditional Log Likelihood Ratio) ein, eine Methode zum Abbilden jeder Instanz als einzelne Meta-Instanz unter Verwendung von Class Conditional Log Likelihood Ratio-Statistiken, sodass jeder überwachte Basisklassifizierer auf Daten. Die Ergebnisse unserer Experimente mit MICCLLR unter Verwendung verschiedener Basisklassifikatoren legen nahe, dass kein einzelner Basisklassifikator andere Basisklassifikatoren in allen Datensätzen konsistent übertrifft. Wir zeigen, dass mit einem Ensemble von MICCLLR-Klassifikatoren, die mit verschiedenen Basislernern trainiert wurden, eine wesentliche Leistungssteigerung erzielt wird. Wir zeigen auch, dass durch die Anwendung von AdaBoost.M1 auf schwache MICCLLR-Klassifikatoren ein zusätzlicher Gewinn an Klassifikationsgenauigkeit erzielt wird. Insgesamt legen unsere Ergebnisse nahe, dass die Vorhersageleistung der drei vorgeschlagenen Varianten von MICCLLR mit einigen der hochmodernen MIL-Methoden konkurrenzfähig ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04747-3_9 bb65539cbaa0a89834ece3e4d3694f58;de;;;7.4.;;;Design und Implementierung eines Fußgängererkennungssystems Mit der Popularisierung selbstfahrender Autos und der rasanten Entwicklung intelligenter Verkehrsmittel zeigt die Fußgängererkennung im täglichen Leben immer umfangreichere Anwendungsszenarien, die immer höhere Einsatzwerte aufweisen. Es weckt auch immer mehr Interesse in der akademischen Gemeinschaft. Die Fußgängererkennung ist bei vielen menschenorientierten Aufgaben von grundlegender Bedeutung, darunter die Verfolgung von Personen, die Erkennung des Fußgängergangs und die Autopilot-Erkennung von Fußgängern, um geeignete Reaktionsmaßnahmen zu ergreifen. In diesem Zusammenhang untersucht dieser Beitrag den Entwurf und die Implementierung eines Fußgängererkennungssystems. Das Fußgängererkennungssystem dieses Artikels besteht hauptsächlich aus zwei Teilen. Der erste Teil ist ein auf Deep Learning basierender Fußgängerdetektor und der zweite Teil ist eine grafische Oberfläche, die mit dem Benutzer interagiert. Der erstere Teil verwendet hauptsächlich das Faster R-RCNN-Lernmodell, das mithilfe von konvolutionellen neuronalen Netzen Merkmale aus den Daten lernen und die Merkmale des Bildes extrahieren kann. Es kann das Bild auch über das RPN-Netzwerk nach Bereichen durchsuchen, in denen sich das Ziel befindet, und diese dann klassifizieren. In diesem Beitrag wird ein komplettes Fußgängererkennungssystem auf Basis des Deep-Learning-Frameworks Caffe implementiert. Experimente zeigen, dass das System in der realen Welt eine hohe Erkennungsrate und eine schnelle Erkennungsgeschwindigkeit aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-19086-6_10 48594f2186b6c2e39f9f4214c2321a8d;de;;;7.4.;;;Klassifizierung und Prognose Die Klassifizierung zielt darauf ab, die zukünftige Klasse vorherzusagen, und die Vorhersage zielt darauf ab, den zukünftigen Wert eines Systems vorherzusagen, das intrinsisch unsicher ist. In diesem Kapitel werden zwei Methoden der künstlichen Intelligenz kurz vorgestellt, nämlich Entscheidungsbäume und künstliche neuronale Netze. Die Entscheidungsbaum-Methodik ist eine nichtparametrische induktive Lerntechnik, die in der Lage ist, Klassifikatoren für ein gegebenes Problem zu erzeugen, die neue, unsichtbare Situationen bewerten und/oder die Mechanismen aufdecken können, die dieses Problem antreiben. Das künstliche neuronale Netz ist ein Computer-Informationsverarbeitungssystem, das in der Lage ist, alle nichtlinearen Funktionen ausreichend darzustellen. Die Entscheidungsbaumtechnik eignet sich zur Lösung von Klassifikationsproblemen. Die Methode des künstlichen neuronalen Netzes eignet sich zur Lösung von Klassifikations- und Prognoseproblemen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84882-667-0_4 1b1151184de0684d7afab19ee679ef0f;de;;;7.4.;;;Positives Zählen trotz ungenauer Klassifizierung Die meisten beaufsichtigten maschinellen Lernforschungen gehen davon aus, dass der Trainingssatz eine Zufallsstichprobe aus der Zielpopulation ist, daher ist die Klassenverteilung invariant. In realen Situationen ändert sich jedoch die Klassenverteilung und es ist bekannt, dass sie die Effektivität von Klassifikatoren und kalibrierten Wahrscheinlichkeitsschätzern untergräbt. Dieses Papier konzentriert sich auf das Problem der genauen Schätzung der Anzahl der positiven Ergebnisse im Testsatz.;-;-;-;https://link.springer.com/chapter/10.1007/11564096_55 dda0ac4b9ca07e6455efc7f28b779080;de;;;7.4.;;;CROKAGE: effektive Lösungsempfehlung für Programmieraufgaben durch Nutzung von Crowd-Wissen Entwickler suchen im Web oft nach relevanten Codebeispielen für ihre Programmieraufgaben. Leider stehen sie vor drei großen Problemen. Erstens müssen sie häufig mehrere Ergebnisse der Suchmaschinen lesen und analysieren, um eine zufriedenstellende Lösung zu erhalten. Zweitens wird die Suche durch eine lexikalische Lücke zwischen der Anfrage (Aufgabenbeschreibung) und den mit der Lösung verknüpften Informationen (z. B. Codebeispiel) beeinträchtigt. Drittens ist die abgerufene Lösung möglicherweise nicht verständlich, d. h. das Codesegment kann eine prägnante Erklärung verpassen. Um diese drei Probleme anzugehen, schlagen wir mit CROKAGE (CrowdKnowledge Answer Generator) ein Werkzeug vor, das die Beschreibung einer Programmieraufgabe (die Abfrage) als Eingabe nimmt und eine verständliche Lösung für die Aufgabe liefert. Unsere Lösungen enthalten nicht nur relevante Code-Beispiele, sondern auch deren prägnante Erklärungen von menschlichen Entwicklern. Die Suche nach Codebeispielen wird als Information Retrieval (IR)-Problem modelliert. Wir nutzen zunächst das in Stack Overflow gespeicherte Crowd-Wissen, um die Kandidatenantworten für eine Programmieraufgabe abzurufen. Dazu verwenden wir eine fein abgestimmte IR-Technik, die nach dem Vergleich von 11 IR-Techniken in Bezug auf die Leistung ausgewählt wurde. Dann verwenden wir einen Multifaktor-Relevanzmechanismus, um das Problem der lexikalischen Lücke zu mildern, und wählen die qualitativ hochwertigsten Antworten in Bezug auf die Aufgabe aus. Schließlich führen wir die Verarbeitung natürlicher Sprache für die qualitativ hochwertigen Antworten durch und liefern die verständlichen Lösungen, die im Gegensatz zu früheren Studien sowohl Codebeispiele als auch Codeerklärungen enthalten. Wir evaluieren und vergleichen unseren Ansatz mit zehn Baselines, einschließlich dem Stand der Technik. Wir zeigen, dass CROKAGE die zehn Basislinien übertrifft, indem es relevante Lösungen für 902 Programmieraufgaben (d. h. Abfragen) von drei gängigen Programmiersprachen vorschlägt: Java, Python und PHP. Darüber hinaus nutzen wir 24 Programmieraufgaben (Abfragen), um unsere Lösungen mit 29 Entwicklern zu evaluieren und bestätigen, dass CROKAGE in Bezug auf Relevanz der vorgeschlagenen Codebeispiele, Nutzen der Codeerklärungen und Gesamtlösungsqualität das aktuelle Tool übertrifft ( Code + Erklärung).;-;-;-;https://link.springer.com/article/10.1007/s10664-020-09863-2 f8ee63a54935a69e8afaf4d9f9391876;de;;;7.4.;;;Ein Überblick und eine Klassifizierung adaptiver Ansätze zur Informationsextraktion Die meisten der in digitaler Form gespeicherten Informationen sind in natürlichsprachlichen Texten versteckt. Die Extraktion und Speicherung in einer formalen Repräsentation (z.B. in Form von Relationen in Datenbanken) ermöglicht eine effiziente Abfrage, einfache Verwaltung und automatische Weiterverarbeitung der extrahierten Daten. Der Bereich der Informationsextraktion (IE) umfasst Techniken, Algorithmen und Verfahren, die zwei wichtige Aufgaben erfüllen: das Finden (Identifizieren) der gewünschten, relevanten Daten und deren Speicherung in geeigneter Form für die zukünftige Verwendung.;-;-;-;https://link.springer.com/chapter/10.1007/11603412_6 92028d3807a6e12bfd3cf00ed99086dc;de;;;7.4.;;;Nachahmung oder Effizienz? Ästhetik der Künstlichen Intelligenz Künstliche Intelligenz wird im Kontext der ihr delegierten Aufgaben bei der Entwicklung technischer Projekte und der Merkmale der Umsetzung von Aufgaben, die in Echtzeit ohne Unterbrechungsmöglichkeit durchgeführt werden müssen, betrachtet. Die Relevanz der Studie wird dadurch bestimmt, dass die Künstliche Intelligenz ihre Hauptaufgabe in der Formalisierung der Entscheidungsfindung ohne oder ohne menschliche Beteiligung sieht. Grundlage der methodischen Suche sind biologische und prognostische Methoden. Der aktuelle Entwicklungsstand sozio-humanitärer Technologien, insbesondere von Systemen mit künstlicher Intelligenz, veranlasst Menschen, solche sozio-technischen Projekte durchzuführen, für deren Umsetzung die Eigenschaften des menschlichen biologischen Gehirns nicht mehr ausreichen. Das Ergebnis der Forschung zur künstlichen Intelligenz ist der Wunsch, die Arbeit des menschlichen Gehirns zu verstehen, die Geheimnisse des menschlichen Bewusstseins zu enthüllen und das Problem, Maschinen mit einer bestimmten menschlichen Intelligenz zu schaffen. Die Neuheit der Studie wird dadurch bestimmt, dass das Verständnis von Künstlicher Intelligenz in erster Linie darauf abzielt, eine Umgebung zu schaffen, die Künstliche Intelligenz nicht nur als Wissensplattform und Programmcode von der gesamten Palette der technischen Geräte unterscheiden kann. Die praktische Bedeutung der Studie wird bestimmt durch die Notwendigkeit der Standardisierung und Einstellungsbildung sowie die Akzeptanz des Einsatzes von Künstlicher Intelligenz bei Aufgaben, die später die gesellschaftliche Entwicklung beeinflussen werden.;-;-;-;https://link.springer.com/article/10.1007/s10699-020-09682-0 941f14e2d59622def491f11809886b3d;de;;;7.4.;;;Inkrementelles Data Mining mit gleichzeitiger Online-Aktualisierung von Materialized Data Mining-Ansichten Data Mining ist ein iterativer Prozess. Benutzer geben eine Reihe ähnlicher Data-Mining-Abfragen aus, wobei in jedem aufeinanderfolgenden Lauf entweder die Definition des abgebauten Datensatzes oder die Parameter des Mining-Algorithmus leicht modifiziert werden. Dieses Verarbeitungsmodell eignet sich am besten für inkrementelle Mining-Algorithmen, die die Ergebnisse früherer Abfragen beim Beantworten einer bestimmten Abfrage wiederverwenden. Für inkrementelle Mining-Algorithmen müssen die Ergebnisse vorheriger Abfragen verfügbar sein. Eine Möglichkeit, diese Ergebnisse beizubehalten, besteht darin, materialisierte Data-Mining-Ansichten zu verwenden. Materialisierte Data Mining-Ansichten speichern die ermittelten Muster und aktualisieren sie, wenn sich die zugrunde liegenden Daten ändern.;-;-;-;https://link.springer.com/chapter/10.1007/11546849_29 f264e26ae6ae7b6b1dac75a89ac3b1a2;de;;;7.4.;;;Frühe Vorhersagen der Genauigkeit von Klassifikatoren für maschinelles Lernen Die Genauigkeit von maschinellen Lernsystemen ist ein viel untersuchtes Forschungsthema. Etablierte Techniken wie die Kreuzvalidierung sagen die Genauigkeit der ungesehenen Daten des Klassifikators voraus, der durch die Anwendung einer bestimmten Lernmethode auf einen bestimmten Trainingsdatensatz erzeugt wird. Sie sagen jedoch nicht voraus, ob die Kosten für mehr Datenbeschaffung und Weiterbildung zu einer höheren Genauigkeit führen. In diesem Kapitel untersuchen wir Techniken, um solche frühen Vorhersagen zu treffen. Wir stellen fest, dass, wenn einem maschinellen Lernalgorithmus ein Trainingssatz präsentiert wird, der erzeugte Klassifikator und damit sein Fehler von den Eigenschaften des Algorithmus, von der Größe des Trainingssatzes und auch von seiner spezifischen Zusammensetzung abhängt. Insbesondere stellen wir die Hypothese auf, dass, wenn eine Reihe von Klassifikatoren erzeugt und ihr beobachteter Fehler in Bias- und Varianzterme zerlegt wird, sich diese Komponenten zwar unterschiedlich verhalten können, ihr Verhalten jedoch vorhersehbar sein kann. Experimentelle Ergebnisse bestätigen diese Hypothese und zeigen, dass unsere Vorhersagen sehr stark mit den nach dem zusätzlichen Training beobachteten Werten korrelieren. Dies hat besondere Relevanz für das Lernen in nichtstationären Umgebungen, da wir mit unserer Charakterisierung von Bias und Varianz erkennen können, ob wahrgenommene Änderungen im Datenstrom aus der Stichprobenvariabilität resultieren oder sich die zugrunde liegenden Datenverteilungen geändert haben, was als Änderungen der Bias wahrgenommen werden kann .;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-8020-5_6 f66c9cef290b87c325d2b0971806eb0e;de;;;7.4.;;;Entwurf eines 2-Ebenen-Clustering-Frameworks für Zeitreihendatensätze Clustering ein wichtiges Thema bei der Analyse von Daten wie Wissenschaft, Technologie, Sozialwissenschaften, Biologie und Medizin. Dieses Papier stellt einen Ansatz zum Design of 2-Level Clustering Framework (D2LCF) für Zeitreihendatensätze vor. Der D2LCF-Ansatz ist eine Integration von Level-1-Clustering und Level-2-Clustering. Die D2LCF umfasst die verschiedenen Phasen wie Input Collection, Transformation Clustering Process und Results Analysis. Die Leistungsbewertung der experimentellen Ergebnisse erfolgte mit dem Analysetool SAS9.2. Die experimentellen Ergebnisse zeigen, dass der vorgeschlagene Ansatz funktioniert.;-;-;-;https://link.springer.com/chapter/10.1007/978-81-322-0491-6_20 b1de40fce869a74091a5d21d875fcb22;de;;;7.4.;;;Leistung von maschinellen Lernmethoden bei der Diagnose der Parkinson-Krankheit basierend auf Dysphonie-Maßnahmen Die Parkinson-Krankheit (PD) ist ein weit verbreitetes degeneratives Syndrom, das das Nervensystem betrifft. Zu den früh auftretenden Symptomen gehören Zittern, Steifheit und Stimmstörungen (Dysphonie). Folglich sind Sprachindikatoren wichtig bei der Identifizierung von PD basierend auf dysphonen Zeichen. In dieser Hinsicht können auf maschinellem Lernen basierende computergestützte Diagnosesysteme nützlich sein, um Ärzte bei der Identifizierung von Parkinson-Patienten zu unterstützen. In dieser Arbeit evaluieren wir die Leistung von auf maschinellem Lernen basierenden Techniken zur PD-Diagnose basierend auf Dysphonie-Symptomen. Mehrere maschinelle Lerntechniken wurden in Betracht gezogen und mit einer Reihe von 22 Stimmstörungsmessungen trainiert, um gesunde und PD-Patienten zu klassifizieren. Zu diesen maschinellen Lernmethoden gehörten die lineare Diskriminanzanalyse (LDA),;-;-;-;https://link.springer.com/article/10.1007/s13534-017-0051-2 309c2a3a7fe95e47c5766f707e276420;de;;;7.4.;;;Partitionen mit Fuzzy-Data-Mining-Tools vergleichen Der Randindex ist eines der beliebtesten Maße zum Vergleichen zweier Partitionen über eine Menge von Objekten. Mehrere Ansätze haben diese Maßnahme auf Fälle mit Fuzzy-Partitionen erweitert. In früheren Arbeiten haben wir eine Methodik zur Korrespondenzanalyse zwischen Partitionen im Sinne von Data-Mining-Tools entwickelt. In diesem Papier diskutieren wir, wie es ohne zusätzliche Kosten als alternative Berechnung des Rand-Index verwendet werden kann, wodurch wir nicht nur sowohl scharfe als auch unscharfe Partitionen vergleichen können, sondern auch Klassen innerhalb dieser Partitionen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33362-0_26 f5c57c4554daa675f9c10d0c26ff9fd1;de;;;7.4.;;;Kontextbezogene Handover-Analyse in heterogenen drahtlosen Netzwerken mit maschinellem Lernen Die schnelle Entwicklung drahtloser Zugangsmechanismen bietet Mobilitätsmanagement und bessere Interoperabilitätsmethoden, um die Bedürfnisse der Benutzer zu erfüllen. Heutzutage bauen heterogene drahtlose Netzwerke eine Vielzahl von Netzwerken unterschiedlicher Art auf, nämlich WiFi, WIMAX, um den Benutzern die erforderlichen Signale anzubieten. Diese Netze sind unabhängig und unterscheiden sich umfassend in Bezug auf die Dienstbeschränkungen, nämlich Zugriffsverzögerung, Abdeckungsbereich, Durchsatz usw. Die experimentelle Analyse verschiedener Modellierungssysteme für die Übergabeleistung wird demonstriert. Hier hat die Leistung des NN-basierten vertikalen Übergabemodells Modelle wie Levenberg-Marquardt-NN (LM-NN), Fire Fly-NN (FF-NN), Particle Swarm Optimization-NN (PSO-NN) und Grey Wolf . verglichen Optimierung-NN (GWO-NN). Schließlich wird die Leistungserbringung der vorgestellten WOA-NN-Technik mit den Algorithmen hinsichtlich Durchsatz, Mean Absolute Error (MAE) und Predicted RSS unterschieden. Aus der gesamten Analyse ergibt sich, dass die vorhergesagte RSS des präsentierten WOA-NN-Modells dem realen Modell fast näher kommt, wodurch eine effektive Übergabe erreicht wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8221-9_258 8c21e9f06192289b70ed6f59c3cf6341;de;;;7.4.;;;Leistungsbewertung des automatischen Kennzeichnungssystems der Risslänge an der Zahnwurzel und Untersuchung auf Fehlerkennung In dieser Arbeit wird ein halbautomatisches Kennzeichnungssystem für Risslängen am Zahnfuß von Kunststoffrädern entwickelt. Von einer Hochgeschwindigkeitskamera aufgenommene Seitenansichten von Kunststoffzahnrädern wurden manuell mit der Anzahl der Risslängen beschriftet. Basierend auf der großen Menge an markierten Bilddaten aus der bisherigen Forschung klassifiziert das entwickelte System mit Hilfe eines tiefen neuronalen Netzes die durch Dauertests von Kunststoffzahnrädern ergänzten Seitenansichten automatisch nach der Risslänge. Das System verwendet ein vorerlerntes populäres neuronales Faltungsnetzwerk namens VGG16, das eine 1000-Klassifizierungsfähigkeit hat. Das System wurde modifiziert, um ein Problem mit vier Klassifizierungen in Bezug auf die Risslänge („kein Riss“, „~ 40 %“, „~ 70 %“ oder „~ 100 %“) und das Gewicht von zwei Schichten zu erfüllen, die nahe beieinander liegen zur Ausgabeschicht, wurden mit Transferlernen neu erlernt. Als Ergebnis des Lernens betrug die Klassifizierungsgenauigkeit der unbekannten Bilder etwa 90%. Schließlich wurden falsch klassifizierte Bilder untersucht und die schwer zu klassifizierenden Bilder wurden aufgedeckt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20131-9_94 a295e5352a2259a86baf07d52cc4fe5f;de;;;7.4.;;;Fusion von IoT- und Machine-Learning-Ansatz, um vertrauliche Daten aus digitalen Verbrechen und Cyber-Mugging zur verdeckten Übertragung zu verhindern Wir sind uns des Szenarios des 21. Jahrhunderts bewusst, in dem jede einzelne Nation der Welt schnell vorankommen will, schwächere Nationen durch die Annahme von Politiken wie staatlich gefördertem Terrorismus und Online-Hacking destabilisiert werden, die Teil der Regierungsbehörden sind Agenda. In dieser Situation sind Richtlinien dringend erforderlich, um Daten vor Online-Hacking und Cyber-Überfall zu schützen. Jede Nation möchte ihre Daten in Bezug auf Zukunftspläne, Satellitenbilder, neue militärische Einrichtungen, neue Flussverbindungspläne usw. sichern. Hier haben wir ein neues Modell des Advanced Private Content-Based Image Retrieval (APCBIR) des Datenschutzes basierend auf . entwickelt inhaltsbasierte Bildabfrage und -abfrage (CBIQ/R). Bei diesem Ansatz werden Daten intelligent mit nur 10 % der Originaldaten verschlüsselt, Merkmale der Original- und neu verschlüsselten Bilder werden durch statistische Parameter abgeglichen und schließlich erfolgt die Übertragung der Daten so, dass niemand in der Lage ist um die Identität der Originaldaten zu enthüllen. Die Effizienz dieses Systems wird effektiver, wenn das IoT an das Modell angehängt wird, die Nützlichkeitsdaten automatisch ausgewählt und entsprechend verschlüsselt werden. Schließlich werden die Daten vor verschiedenen Arten von Malware-Angriffen geschützt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6772-4_49 35231191a509af3495fe0986c7fedab0;de;;;7.4.;;;Univariate Sensordatenvorhersage mithilfe konventioneller und auf maschinellem Lernen basierender Zeitreihentechniken Technique Die Verfügbarkeit von Daten von Sensoren wird im Zeitalter der industriellen Revolution 4.0 einfach und in Hülle und Fülle. Diese Daten enthalten umfangreiche Informationen über den Gesundheitszustand des Prozesses und der Ausrüstung in der Industrie sowie den aktuellen Status des Prozesses, aus dem sie gewonnen werden. Die Analyse dieser Daten zeigt die Interaktion und den Einfluss zwischen Variablen, die den Regelkreis betreffen. Die Vorhersage und Vorhersage von Sensordaten ist für das effektive Funktionieren des Predictive Maintenance Streams wichtig. Zeitgestempelte Daten können unter Verwendung von Zeitreihenvorhersagetechniken vorhergesagt werden. In diesem Beitrag werden die Temperaturdaten eines an einer hydraulischen Bohrinsel installierten Temperatursensors für die Analyse berücksichtigt. Die univariaten Daten werden für zukünftige Zyklen unter Verwendung von Zeitreihenvorhersagetechniken vorhergesagt. Vergleichsstudien zwischen konventionellen und maschinellen Lernalgorithmen sind gut definiert. Diese Techniken werden anhand verschiedener Genauigkeitsmetriken wie MAE, MSE und RMSE bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8221-9_58 148a3f5898883ec61fd5ce9b23a8f603;de;;;7.4.;;;Data Mining-unterstütztes Ressourcenmanagement in Wide WLANs WLANs werden derzeit aufgrund ihrer Bequemlichkeit, Kosteneffizienz und einfachen Integration in andere Netzwerke für die Verwendung im Kontext eines größeren geografischen Gebiets wie einer Stadt oder eines Campus in Betracht gezogen. Aufgrund der Unterstützung einer großen Anzahl von tragbaren Geräten und ihrer dynamischen Verlagerung müssen breite WLANs Probleme der Standortverwaltung und der Zuweisung von Netzwerkressourcen haben. Um diese Herausforderungen zu lösen, sind zukünftige Mobilitätsinformationen aller mobilen Benutzer im Netzwerk erforderlich, um eine genaue Schätzung des Netzwerkressourcenbedarfs zu einem zukünftigen Zeitpunkt hin zu einer effizienteren Netzwerkressourcenverwaltung zu ermöglichen. Daher hat die Mobilitätsvorhersage eine entscheidende Rolle beim Ressourcenmanagement von Wide WLANs gespielt und in letzter Zeit ein großes Forschungsinteresse geweckt. Da jedoch die meisten der gegenwärtigen Ansätze auf einem persönlichen Bewegungsprofil zum Vorhersagen des nächsten Standorts von mobilen Benutzern basieren, können diese Techniken möglicherweise keine Vorhersage für neue Benutzer oder solche mit Bewegungen auf neuartigen Pfaden treffen. In diesem Artikel schlagen wir ein Vorhersagemodell vor, das auf dem Mobilitätsverhalten von Gruppen basiert, um mit dem Mangel an Informationen über individuelle Bewegungsgeschichten umzugehen. Unser vorgeschlagener Vorhersageansatz nutzt Clustering-Techniken im Data Mining, um Mobilitätsmuster von Benutzern in Gruppen zu klassifizieren. Es werden Experimente durchgeführt, um zu zeigen, dass die Verwendung von Gruppenmobilitätsverhalten die Genauigkeit der Mobilitätsvorhersage erheblich verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-05939-6_32 4779706ec5b8fdc38a4bff2766625920;de;;;7.4.;;;Big-Data-Analyse: Theorie und Anwendungen Mit der kontinuierlichen Verbesserung der Datenverarbeitungs- und Speicherfähigkeiten ist Big Data Era in den Blickpunkt der Öffentlichkeit gerückt. Unter diesen Umständen hat die Erzeugung massiver Datenmengen die Entwicklung von Data-Mining-Algorithmen erheblich erleichtert. Dieser Beitrag beschreibt den Stand des Data Mining und stellt drei unserer Arbeiten vor: optimierungsbasiertes Data Mining, intelligentes Wissen bzw. den Intelligenzquotienten der Künstlichen Intelligenz. Daneben haben wir auch einige Anwendungen vorgestellt, die im Kontext von Big Data entstanden sind. Darüber hinaus zeigt dieses Papier drei potenzielle Richtungen für die zukünftige Erforschung der Big-Data-Analyse auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-41032-2_2 2882d068cbacf313c4b81f4be63324af;de;;;7.4.;;;Coole Blog-Klassifizierung aus positiven und nicht gekennzeichneten Beispielen Wir gehen das Problem der coolen Blog-Klassifizierung an, indem wir nur positive und unbeschriftete Beispiele verwenden. Wir schlagen einen Algorithmus namens PUB vor, der die Informationen nicht gekennzeichneter Daten zusammen mit den positiven Beispielen nutzt, um vorherzusagen, ob die unsichtbaren Blogs cool sind oder nicht. Der Algorithmus verwendet die Gewichtungstechnik, um jedem nicht gekennzeichneten Beispiel, das im Trainingssatz als negativ angenommen wird, eine Gewichtung zuzuweisen, und die Bagging-Technik, um mehrere schwache Klassifikatoren zu erhalten, von denen jeder auf einem kleinen Trainingssatz gelernt wird, der durch zufälliges Abtasten einiger positive Beispiele und einige unbeschriftete Beispiele, von denen angenommen wird, dass sie negativ sind. Jeder der schwachen Klassifikatoren muss ein zulässiges Leistungsmaß erreichen, das auf der Grundlage der gesamten gekennzeichneten positiven Beispiele bewertet wurde, oder das beste Leistungsmaß innerhalb der Iterationsgrenze aufweisen. Die Mehrheitswahlfunktion für alle schwachen Klassifikatoren wird verwendet, um die Klasse einer Testinstanz vorherzusagen. Die experimentellen Ergebnisse zeigen, dass PUB die Klassen von ungesehenen Blogs korrekt vorhersagen kann, bei denen diese Situation durch das traditionelle Lernen aus positiven und negativen Beispielen nicht bewältigt werden kann. Die Ergebnisse zeigen auch, dass PUB andere Algorithmen zum Lernen aus positiven und nicht gekennzeichneten Beispielen bei der Aufgabe der coolen Blog-Klassifizierung übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01307-2_9 c5bd10b9f719d6d263842b6255390de1;de;;;7.4.;;;Ein polynomialer Zeitanpassungsalgorithmus von strukturierten geordneten Baummustern für das Data Mining aus halbstrukturierten Daten Die Entscheidung, ob alle gegebenen baumstrukturierten Daten strukturelle Merkmale aufweisen oder nicht, ist ein Kernproblem beim Data Mining großer baumstrukturierter Daten. Wir betrachten ein Problem der Entscheidung, ob ein Termbaum;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36468-4_18 54ccfb16d8ef4d882367b80cd3c15ba7;de;;;3.2.;;;Wireless Controller Area Network mit Token-Frame-Schema Das Controller Area Network (CAN) gilt seit langem als Vorreiter bei der Standardisierung des Fahrzeugbusstandards. Sein Einfluss hat sich sogar auf verschiedene Anwendungen in der industriellen Automatisierung ausgewirkt, darunter Militär, Luftfahrt, Elektronik und viele andere. Mit der zunehmenden Verbreitung der drahtlosen Technologie besteht auch die Notwendigkeit, dass CAN migriert und sich zu seinem drahtlosen Gegenstück entwickelt. In diesem Beitrag wird ein neues drahtloses Protokoll namens Wireless Controller Area Network (WCAN) vorgestellt. WCAN ist eine Adaption seines kabelgebundenen Cousins, des Controller Area Network (CAN)-Protokolls, das nicht richtig definiert wurde. Das vorgeschlagene WCAN verwendet das Konzept, das im Wireless Token Ring Protocol (WTRP) eingeführt wurde, einem MAC-Protokoll für drahtlose Netzwerke und in gewisser Weise effizient, um die Anzahl der Neuübertragungen aufgrund von Kollisionen zu reduzieren. Darüber hinaus folgt es den meisten seiner kabelgebundenen Cousin-Attribute bei der nachrichtenbasierten Kommunikation. Nachrichten mit höherer Priorität haben die erste Priorität bei der Übertragung ihrer Nachricht in das Medium. Bei WCAN wechseln sich Stationen oder Knoten beim Senden beim Empfangen des Token-Frames ab, der für eine bestimmte Zeit im Netzwerk zirkuliert. WCAN wurde in einer Simulationsumgebung getestet und es wurde festgestellt, dass es IEEE 802.11 in einer Ringnetzwerkumgebung übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25462-8_49 c4dd36e8dde554d51f08ac8713dd0651;de;;;7.4.;;;Fensterbasierte Methode zum Abrufen von Informationen In diesem Beitrag wird eine Reihe von fensterbasierten Methoden zur Informationsbeschaffung vorgeschlagen. Im Vergleich zum traditionellen tf-idf-Modell basieren unsere Ansätze auf zwei neuen Schlüsselbegriffen. Der erste ist, dass der Ähnlichkeitswert zwischen der Abfrage und dem Dokument umso größer ist, je näher die Abfragewörter in einem Dokument sind. Und der zweite ist, dass einige Abfragewörter wie benannte Entitäten und baseNP namens „Kernwörter“ viel wichtiger sind als andere Wörter und spezielle Gewichtungen haben sollten. Wir implementieren die obigen Begriffe durch drei Modelle. Sie sind Simple Window-based Model, Dynamic Window-based Model und Core Window-based Model. Unsere Modelle können Ähnlichkeiten zwischen Abfragen und Dokumenten basierend auf der Bedeutung und Verteilung von Abfragewörtern in den Dokumenten berechnen. TREC-Daten werden verwendet, um die Algorithmen zu testen. Die Experimente zeigen, dass unsere fensterbasierten Methoden die meisten traditionellen Methoden wie tf-idf und Okapi BM25 übertreffen. Und das Core Window-based Model ist das beste und robusteste Modell für verschiedene Abfragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30211-7_13 46aebbef52ada25d8931767ca465fbcf;de;;;7.4.;;;Deep Learn Bananas: Ein Transfer-Learning für die Klassifizierung von Bananensorten Indien produziert jedes Jahr fast 29 Millionen Tonnen Bananen (Musasp.) unter verschiedenen Bedingungen und Produktionssystemen. Weltweit wachsen über 1000 verschiedene Bananensorten. Das Herausfinden der Intra-Klassifizierung einer Bananenfrucht ist eine wesentliche Aufgabe, um sie für ein angemessenes Management der Lebensmittelproduktzubereitung, Vermarktung und Preisgestaltung zu sorgen. Dieses Papier schlägt eine Technik zur Identifizierung von Bananensorten vor, die ein neuronales Netzmodell der tiefen Faltung verwendet, um acht Bananensorten zu klassifizieren, nämlich Karpuravalli(ABB), Rasthali(AAB), Poovan(AAB), Nendran(AAB), Hill/Malai(AAB ), Nali Poovan (AB), Monthan (ABB) und Grand Naine (AAA). Die vorgeschlagene tief erlernte Bananensortenklassifizierung hat eine bessere Genauigkeit von 88,6% erreicht, was höher ist als die Bananensortenklassifizierung mit dem VGG16-Netzwerkmodell.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8697-2_53 6977467cb6a2ac14cc35d060411019d0;de;;;7.4.;;;Anwendung von Wissensentdeckung zur Vorhersage von Epidemien von Infektionskrankheiten Prädiktive Modellierung wird im Kontext der Wissensentdeckung als das Problem angesehen, prädiktives Wissen aus historischen/zeitlichen Daten abzuleiten. Hier argumentieren wir, dass neuronale Netze, eine etablierte Computertechnologie, effektiv verwendet werden kann, um prädiktive Modellierung durchzuführen, d. h. um die intrinsische Dynamik von Zeitdaten zu erforschen. Das Risikomanagement für Infektionskrankheiten ist ein Kandidat für die Nutzung des Potenzials der auf neuronalen Netzwerken basierenden Vorhersagemodellierung – die Idee besteht darin, Zeitreihen zu modellieren, die aus Bakterien-Antibiotika-Empfindlichkeits- und -Widerstandsmustern abgeleitet werden, da angenommen wird, dass bakterielle Empfindlichkeit und Resistenz gegenüber jedem Antibiotikum tendenziell zeitlichen Schwankungen unterliegen. Ziel des Epidemie-Risikomanagements ist es, prognostizierte Werte für die Bakterien-Antibiotika-Sensitivitäts- und Resistivitätsprofile zu erhalten, die dann als Orientierungshilfe für Ärzte bei der Wahl des wirksamsten Antibiotikums zur Behandlung einer bestimmten bakteriellen Infektion dienen könnten. In diesem Zusammenhang stellen wir einen webbasierten Infectious Disease Cycle Forecaster (IDCF) vor, der eine Reihe unterschiedlicher neuronaler Netze umfasst, die auf Daten aus der langfristigen klinischen Beobachtung von 89 Arten von bakteriellen Infektionen trainiert wurden, die mit 36 ​​verschiedenen Antibiotika behandelt wurden . Vorläufige Ergebnisse deuten darauf hin, dass IDCF in der Lage ist, hochpräzise Vorhersagen zu erstellen, wenn genügend Daten aus der Vergangenheit zur Wechselwirkung zwischen Bakterien und Antibiotika vorliegen. IDCF verfügt über eine Client-Server-basierte WWW-Schnittstelle, mit der Fernprojektionen angefordert und über das Internet angezeigt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0095267 725b455971691a0c0908647d1132a1de;de;;;7.4.;;;Umleiten der Zielauswahl von Malware mit Köderprozessen Honeypots erreichte unter allen vorgeschlagenen Anti-Malware-Ansätzen die höchste Genauigkeit bei der Erkennung von Malware. Ihre Stärke liegt darin, dass sie keine eigene Aktivität haben, daher wird jede System- oder Netzwerkaktivität auf einem Honeypot eindeutig als bösartig erkannt. Wir haben festgestellt, dass die Stärke von Honeypots zu ihrer Hauptschwäche werden kann, nämlich dass das Fehlen von Aktivität genutzt werden kann, um einen Honeypot leicht zu erkennen. Zu diesem Zweck beschreiben wir einen praktischen Ansatz, der Live-Performance-Zähler verwendet, um einen Honeypot zu erkennen und I/O auf Maschinen in der Produktion zu locken. Um dieser Schwäche entgegenzuwirken, haben wir die Existenz von Köderprozessen durch Betriebssystemtechniken (OS) entworfen und implementiert, die sichere Eingriffe in den Betriebssystemkern vornehmen. Wir haben auch Deep Learning untersucht, um den Leistungs-Fingerabdruck eines realen Prozesses zu charakterisieren und zu erstellen, der dann verwendet wird, um sein Gegenstück als Köder gegen aktive Sonden durch Malware zu unterstützen. Wir haben die Effektivität von Köderprozessen als integriert mit einem Köderobjektverknüpfungs- und Einbettungsserver für die Prozesssteuerung (OPC) validiert und diskutieren daher unsere Ergebnisse in dem Papier.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-22479-0_21 a0ded4c189072e96799ed0d9372958dc;de;;;7.4.;;;Auswirkungen von Technologien der Künstlichen Intelligenz und der Digitalisierung auf Rechtsprechung und Bildung Das Kapitel untersucht die Themen der Künstlichen Intelligenz /AIT/ und Innovationen in digitalen Technologien, die Rechtswissenschaft und Bildung betreffen. Technologien im Zusammenhang mit künstlicher Intelligenz wie Advanced Computing, künstliche neuronale Netze, Big Data, maschinelles Lernen, unbemannte Systeme und Robotik geben der Entwicklung von Universitäten und Bildungseinrichtungen auf der ganzen Welt neue Impulse. Das Ziel dieser Untersuchung ist es zu zeigen, dass Master of Arts an der RUDN University für die von der Digitalisierung betroffenen englischsprachigen Rechtstätigkeiten ausgebildet sind: Cybersicherheit und -kultur, Prävention von Sexualdelikten gegen Kinder durch den Einsatz von Informations- und Kommunikationstechnologien ( Strafrecht), Smart Contracts und Schiedsverfahren (Zivilrecht), E-Filing – elektronische Einreichung von Dokumenten bei Gerichten usw. Die Befragung von Studierenden, die studienbegleitend in der Rechtspraxis tätig sind, hat gezeigt, dass sie AIT und Digitalisierung als wichtiges strategisches Asset nutzen . Die Probleme der AIT-Implementierung in zeitgenössischen Anwaltstätigkeiten wie die Verdrängung von Juristen aus dem Anwaltsmarkt durch AIT werden analysiert. Das Kapitel enthält einige Empfehlungen zur effizienteren Gestaltung der Rechtspraxis durch Beschleunigung und Erleichterung der Arbeit in Rechtsgeschäften auf der Grundlage digitaler Technologien. Diese Forschungsergebnisse können von Wissenschaftlern und Praktikern angewendet werden, die an AIT-, Bildungs- und Rechtsprozessen beteiligt sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-61045-6_12 d00b256d28d193fe5aa9930df3c572e1;de;;;7.4.;;;BaitWatcher: Ein schlankes Webinterface zur Erkennung inkongruenter Schlagzeilen In digitalen Umgebungen, in denen große Informationsmengen online ausgetauscht werden, spielen Schlagzeilen eine wesentliche Rolle bei der Auswahl und Verbreitung von Nachrichtenartikeln. Einige Nachrichtenartikel ziehen die Aufmerksamkeit des Publikums auf sich, indem sie übertriebene oder irreführende Schlagzeilen zeigen. Diese Studie befasst sich mit der;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-42699-6_12 41a9e5da3e80fe047fc512c5a4c82d57;de;;;7.4.;;;Textkategorisierung im nichtlinearen semantischen Raum Die automatische Textkategorisierung (TC) ist eine komplexe und nützliche Aufgabe für viele Anwendungen in natürlicher Sprache und wird normalerweise unter Verwendung eines Satzes manuell klassifizierter Dokumente, d. h. einer Trainingssammlung, durchgeführt. Die begriffsbasierte Darstellung von Dokumenten hat in der TK weit verbreitete Anwendung gefunden. Einer der Hauptnachteile solcher Verfahren besteht jedoch darin, dass sie die lexikalische Semantik weitgehend ignorieren und folglich nicht ausreichend robust gegenüber Variationen im Wortgebrauch sind. In diesem Beitrag entwerfen, implementieren und evaluieren wir eine neue Textklassifikationstechnik. Unsere Hauptidee besteht darin, eine Reihe von Projektionen der Trainingsdaten zu finden, indem ein neuer, modifizierter LSI-Algorithmus verwendet, alle Trainingsinstanzen auf den im vorherigen Schritt gefundenen niedrigdimensionalen Unterraum projiziert und schließlich eine binäre Suche auf dem projizierten niedrigen dimensionale Daten. Unsere Schlussfolgerung ist, dass unser Ansatz bei all seiner Einfachheit und Effizienz mit der SVM-Genauigkeit bei der Klassifizierung vergleichbar ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74782-6_65 fe1d09b1fb37f4a536b2ef314e904c2f;de;;;7.4.;;;Spektrale Clustering-basierte semi-überwachte Sentiment-Klassifizierung Diese Arbeit schlägt eine semi-überwachte Sentimentklassifikationsmethode vor. Unsere Methode verwendet einen spektralen Clustering-basierten Algorithmus, um die Genauigkeit der Sentimentklassifizierung zu verbessern. Wir verwenden einen spektralen Clustering-Algorithmus, um Stimmungseinheiten in Verbraucherbewertungen in neue Funktionen abzubilden, die in den ursprünglichen Funktionsraum erweitert werden. Ein Sentiment-Klassifikator baut auf den Features im ursprünglichen Trainingsraum auf, und die ursprünglichen Trainingsfeatures in Kombination mit den erweiterten Features werden verwendet, um den anderen Sentiment-Klassifikator zu trainieren. Die beiden grundlegenden Stimmungsklassifizierer bilden zusammen den endgültigen Stimmungsklassifizierer, indem Instanzen aus dem nicht gekennzeichneten Datensatz in den Trainingsdatensatz ausgewählt werden. Experimentelle Ergebnisse zeigen, dass unsere vorgeschlagene Methode eine bessere Leistung aufweist als die selbstlernende SVM-basierte Sentimentklassifizierungsmethode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35527-1_23 7a3e222f391325813c0ed2bf61565b24;de;;;7.4.;;;Überwachung biochemischer Indikatoren mit maschinellen Lerntechniken für ein effektives Modell zur Vorhersage des Schwangerschaftsalters mit reduziertem Rechenaufwand Säuglinge mit einem Gestationsgewicht über der 90. Perzentile des gleichen Gestationsalters werden als Large for Gestational Age (LGA) bezeichnet. LGA leidet während und nach der antepartalen Periode unter schwerwiegenden Komplikationen, da die Krankheit nicht früher erkannt wird. Eine frühere Erkennung von LGA-Säuglingen könnte das Fortschreiten verlangsamen und weitere Komplikationen der Krankheit verhindern. In der Medizin erfordert die Prävention und Linderung von Krankheiten die Untersuchung bestimmter biochemischer Indikatoren (BI). Maschinelles Lernen (ML) wurde entwickelt und als Werkzeug zur Vorhersage von LGA-Säuglingen mit den meisten deterministischen Eigenschaften konzipiert. Diese Studie zielt darauf ab, die deterministischste BI für die LGA-Vorhersage mit minimalem Rechenaufwand zu identifizieren. Meines Wissens ist dies das erste Mal, dass eine Studie durchgeführt wird, um die deterministischste BI im Zusammenhang mit LGA zu identifizieren und ein LGA-Vorhersagemodell unter Verwendung fortschrittlicher ML-Techniken in der chinesischen Bevölkerung zu entwickeln. Um ein effektives LGA-Vorhersagemodell zu entwickeln, verwendeten wir Information Gain (IG), eine entropiebasierte Merkmalsauswahlmethode, um die meisten deterministischen BI zur Früherkennung der Krankheit herauszufiltern. Um schließlich die Idee der Anwendung von IG zu überprüfen, wurden vier weit verbreitete ML-Klassifikatoren verwendet, die Präzision und AUC als Leistungskennzahlen berücksichtigen. Die drastische Verbesserung der Präzision von 33 auf 71% bestätigt unsere Idee, IG anzuwenden, um die deterministischste BI für die frühe Vorhersage von LGA zu gewinnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3648-5_15 ab3868ba0e395986366761ea9afb6bcb;de;;;7.4.;;;Leistungsbewertung verschiedener Techniken des maschinellen Lernens zur Erkennung nicht-technischer Verluste Der Prozentsatz der Verluste in Indien im Übertragungs- und Verteilungssektor von Elektrizität war ziemlich hoch. Im Verteilungsnetz wird eine beträchtliche Menge an Energie verbraucht, die in technische und nicht-technische Verluste eingeteilt werden kann. Es ist möglich, technische Verluste zu kontrollieren und zu berechnen, sofern die Lastgrößen für das jeweilige Stromnetz bekannt sind, während die nicht-technischen Verluste keine aufgezeichneten Informationen haben, da Energiediebstahl aufgrund von Zählermanipulation oder Umgehung des Messsystems. Im Allgemeinen werden plötzliche oder überraschende Kontrollen an Orten durchgeführt, an denen der Stromdiebstahl von den Verteilerunternehmen vermutet wird. Diese Operationen allein reichen jedoch nicht aus, um die Übeltäter zu identifizieren oder die Energieverluste zu reduzieren. Darüber hinaus ist die manuelle Inspektion ziemlich mühsam und kann sehr kostspielig sein. Daher müssen bestimmte fortschrittliche Technologien wie maschinelle Lerntechniken verwendet werden, um dem Elektrodiebstahl effektiver entgegenzuwirken. In diesem Papier werden verschiedene Techniken des maschinellen Lernens diskutiert und ihre Leistungen für die Erkennung von Stromdiebstahl in Stromnetzen verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4866-0_11 0e76e44370e879039a0516bfd3d593db;de;;;7.4.;;;Feature-Subset-Auswahl für Fuzzy-Klassifizierungsmethoden Die automatische Erzeugung von Fuzzy-Systemen wurde mit mehreren in der Literatur vorgeschlagenen Ansätzen umfassend untersucht. Da bei den meisten Verfahren die Komplexität des Erzeugungsprozesses exponentiell mit der Anzahl der Merkmale zunimmt, kann eine vorherige Merkmalsauswahl den Prozess stark verbessern. Zur Merkmalsauswahl werden Filter, Wrapper und eingebettete Methoden verwendet. Für Fuzzy-Systeme wäre es wünschenswert, die Fuzzy-Granulation der Merkmalsdomänen für den Merkmalsauswahlprozess zu berücksichtigen. In diesem Papier werden ein Fuzzy-Wrapper, der zuvor von den Autoren vorgeschlagen wurde, und ein Fuzzy-C4.5-Entscheidungsbaum verwendet, um Merkmale auszuwählen. Sie werden mit drei klassischen Filtern und den vom ursprünglichen C4.5-Entscheidungsbaumalgorithmus ausgewählten Merkmalen als eingebettete Methode verglichen. Ergebnisse mit 10 Datensätzen zeigen, dass die Verwendung der Fuzzy-Granulation von Merkmalsdomänen von Vorteil ist, um Merkmale auszuwählen, um Fuzzy-Regelbasen zu erzeugen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14055-6_33 a12e7de1eacae059992fc356857ef567;de;;;7.4.;;;Die Bedingungen der künstlichen allgemeinen Intelligenz: Logik, Autonomie, Belastbarkeit, Integrität, Moral, Emotion, Verkörperung und Einbettung Es gibt verschiedene Schwierigkeiten, ein grundlegendes Konzept zu definieren, es kommt oft vor, dass einige Bedingungen zu stark oder nur überflüssig sind, und andere zu schwach sind oder einfach fehlen. Es gibt keinen klar vereinbarten Begriff von Intelligenz, geschweige denn von künstlicher Intelligenz und künstlicher allgemeiner Intelligenz. Dennoch kann es von Bedeutung und nützlich sein, die definierenden oder möglichen Eigenschaften eines grundlegenden Konzepts (zu versuchen) aufzuklären. In der vorliegenden Arbeit diskutieren wir die Bedingungen der künstlichen allgemeinen Intelligenz, von denen einige zu stark und andere zu schwach sein können. Unter anderem konzentrieren wir uns auf Logik, Autonomie, Belastbarkeit, Integrität, Moral, Emotion, Verkörperung und Einbettung und artikulieren deren Natur aus verschiedenen konzeptionellen Gesichtspunkten. Und schließlich diskutieren wir, wie die künstliche allgemeine Intelligenz getestet werden kann, und schlagen eine neue Art von Turing-Tests vor, die auf der Intelligenz-für-Überlebens-Ansicht basieren. Insgesamt glauben wir, dass die Erklärung der Natur der künstlichen allgemeinen Intelligenz wohl zu einem tieferen Verständnis der Intelligenz an sich beiträgt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-52152-3_25 f932e0c67361b7d60b8040b4a0279489;de;;;7.4.;;;Über textbasiertes Mining mit aktivem Lernen und Hintergrundwissen mit SVM Text Mining, intelligente Textanalyse, Text Data Mining und Knowledge Discovery in Text werden im Allgemeinen als Aliase verwendet, um relevante und nicht triviale Informationen aus Text zu extrahieren. Beim Versuch, dieses Problem zu lösen, treten einige entscheidende Probleme auf, z. B. die Dokumentdarstellung und das Defizit an gekennzeichneten Daten. Dieses Papier befasst sich mit diesen Problemen, indem es Informationen aus nicht gekennzeichneten Dokumenten in den Trainingssatz einführt, wobei der Trennrand der Support Vector Machine (SVM) als Differenzierungsfaktor verwendet wird. Neben der Untersuchung des Einflusses verschiedener Vorverarbeitungsmethoden und der Schlussfolgerung zu ihrer relativen Bedeutung bewerten wir auch die Vorteile der Einführung von Hintergrundwissen in einen SVM-Textklassifikator. Darüber hinaus evaluieren wir die Möglichkeit des aktiven Lernens und schlagen eine Methode vor, um Hintergrundwissen und aktives Lernen erfolgreich zu verbinden. Experimentelle Ergebnisse zeigen, dass die vorgeschlagenen Techniken, wenn sie allein oder kombiniert verwendet werden, eine beträchtliche Verbesserung der Klassifikationsleistung darstellen, selbst wenn kleine beschriftete Trainingssätze verfügbar sind.;-;-;-;https://link.springer.com/article/10.1007/s00500-006-0080-8 bab3e738079130a3749670fb11ddcd19;de;;;7.4.;;;Semantisch-erweiterte Modelle zur Unterstützung der rechtzeitigen Aufnahmevorhersage in Notaufnahmen Angesichts der raschen Überwindung begrenzter Ressourcen im Gesundheitswesen durch die Anforderungen an die Krankenhausversorgung ist es von entscheidender Bedeutung, effektivere und effizientere Methoden der Pflege zu finden. Unsere Forschung befasst sich mit dem Problem der Überfüllung in der Notaufnahme, indem Klassifikationsmodelle erstellt werden, die verschiedene Arten von Informationen vor der Aufnahme verwenden, um die Krankenhausaufnahme einzelner Patienten vorherzusagen. Wir haben einen Rahmen für die Vorhersage von Krankenhauseinweisungen entwickelt und zwei neue Ansätze vorgeschlagen, die semantische Informationen in Hauptbeschwerden erfassen, um die Vorhersage zu verbessern. Unsere Experimente an einem ED-Datensatz zeigen, dass unsere vorgeschlagenen Modelle mehrere Benchmark-Methoden für die Eintrittsvorhersage übertrafen. Diese Modelle können potenziell als Entscheidungshilfen in Krankenhäusern verwendet werden, um die Durchsatzrate in der Notaufnahme zu verbessern und die Patientenversorgung zu verbessern.;-;-;-;https://link.springer.com/article/10.1007/s13721-012-0014-6 72918afcd6903a828b7210ee400647e5;de;;;7.4.;;;Ein lokaler asynchroner verteilter Algorithmus zur Funktionsauswahl zur Wahrung der Privatsphäre für große Peer-to-Peer-Netzwerke In diesem Papier entwickeln wir einen lokal verteilten Algorithmus zur Wahrung der Privatsphäre zur Merkmalsauswahl in einer großen Peer-to-Peer-Umgebung. Die Merkmalsauswahl wird beim maschinellen Lernen häufig zur Datenkomprimierung und zum effizienten Lernen verwendet, indem der Fluch der Dimensionalität beseitigt wird. Es gibt viele Lösungen für die Merkmalsauswahl, wenn sich die Daten an einem zentralen Ort befinden. Dies wird jedoch äußerst schwierig, wenn die Daten auf eine große Anzahl von Peers oder Computern verteilt sind. Die Zentralisierung des gesamten Datensatzes oder von Teilen davon kann aufgrund der großen Anzahl von Datenquellen, der asynchronen Natur der Peer-to-Peer-Netzwerke, der dynamischen Natur der Daten/des Netzwerks und Datenschutzbedenken sehr kostspielig und unpraktisch sein. Die in diesem Artikel vorgeschlagene Lösung ermöglicht es uns, die Merkmalsauswahl asynchron mit geringem Kommunikationsaufwand durchzuführen, wobei jeder Peer seine eigenen Datenschutzbeschränkungen festlegen kann. Der Algorithmus basiert auf lokalen Interaktionen zwischen den teilnehmenden Knoten. Wir präsentieren Ergebnisse aus realen Datensätzen, um die Leistung des vorgeschlagenen Algorithmus zu testen.;-;-;-;https://link.springer.com/article/10.1007/s10115-009-0274-3 3f96a9f07c74c7e850cffb65154df72f;de;;;7.4.;;;MusicCNNs: Ein neuer Maßstab für inhaltsbasierte Musikempfehlungen In diesem Papier schlagen wir ein neues neuronales Deep Convolutional Network für inhaltsbasierte Musikempfehlungen vor und nennen es MusicCNNs. Um effektive Darstellungen der Musiksegmente zu lernen, haben wir einen Datensatz mit mehr als 600.000 Songs gesammelt, wobei jeder Song in etwa 20 Musiksegmente aufgeteilt wurde. Darüber hinaus werden die Musiksegmente mit der Fourier-Transformation in „Bilder“ umgewandelt, sodass sie problemlos in MusicCNNs eingespeist werden können. Auf diesem gesammelten Datensatz haben wir MusicCNNs mit anderen bestehenden Methoden zur inhaltsbasierten Musikempfehlung verglichen. Experimentelle Ergebnisse zeigen, dass MusicCNNs im Allgemeinen genauere Empfehlungen liefern können als die verglichenen Methoden. Daher können MusicCNNs zusammen mit dem gesammelten Datensatz als neuer Maßstab für inhaltsbasierte Musikempfehlungen angesehen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-04167-0_36 422ae0f89184d373197a67db3b30522e;de;;;7.4.;;;SD-HOC: Saisonaler Dekompositionsalgorithmus für Mining Lagged Time Series Das Mining von Zeitreihendaten ist aufgrund des Verzögerungsfaktors und der unterschiedlichen Ankunftszeit der Daten ein schwieriger Prozess. In diesem Artikel stellen wir Seasonal Decomposition for Human Occupancy Counting (SD-HOC) vor, eine benutzerdefinierte Merkmalstransformationszerlegung, eine neuartige Methode zur Schätzung der Anzahl von Menschen in einem geschlossenen Raum mit nur einem einzigen Kohlendioxidsensor. SD-HOC integriert Zeitverzögerung und Best-Fit-Modell in die Vorverarbeitungsalgorithmen. SD-HOC verwendet eine saisonale Trendzerlegung mit gleitendem Durchschnitt, um die vorverarbeiteten Daten zu transformieren, und für jeden Trend, saisonale und unregelmäßige Komponente werden verschiedene Regressionsalgorithmen modelliert, um jeden jeweiligen Wert der menschlichen Belegungskomponente vorherzusagen. Unter Verwendung der linearen Regression der M5-Methode für Trend- und unregelmäßige Komponenten und dynamischer Zeitverzerrung für saisonale Komponenten wurde ein Satz der Vorhersagewerte für jede Komponente erhalten. Ein Nullmuster-Anpassungsmodell wird eingeführt, um die Genauigkeit zu erhöhen, und schließlich wird eine additive Zerlegung verwendet, um den Vorhersagewert zu rekonstruieren. Die Genauigkeitsergebnisse werden mit anderen Data-Mining-Algorithmen wie Entscheidungsbaum, Multi-Layer-Perceptron, Gauß-Prozesse - radiale Basisfunktion, Support Vector Machine, Random Forest, naive Bayes und Support Vector Regression an zwei verschiedenen Orten mit unterschiedlichen Kontexten verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-0292-3_8 e702fbfd550427d5bdac62482c3d99ae;de;;;7.4.;;;Unendliche Faktorisierung mehrerer nicht parametrischer Ansichten Die kombinierte Analyse mehrerer Datenquellen hat ein zunehmendes Anwendungsinteresse, insbesondere zur Unterscheidung von gemeinsamen und quellenspezifischen Aspekten. Wir erweitern diese Begründung auf das generative und nicht-parametrische Clustering-Setting, indem wir ein neues nicht-parametrisches hierarchisches Mischungsmodell einführen. Die untere Ebene des Modells beschreibt jede Quelle mit einer flexiblen nicht-parametrischen Mischung, und die oberste Ebene kombiniert diese, um Gemeinsamkeiten der Quellen zu beschreiben. Die Cluster der unteren Ebene entstehen aus hierarchischen Dirichlet-Prozessen, die eine unendlichdimensionale Kontingenztabelle zwischen den Quellen induzieren. Die Gemeinsamkeiten zwischen den Quellen werden durch ein unendliches Komponentenmodell der Kontingenztabelle modelliert, das als nicht-negative Faktorisierung unendlicher Matrizen oder als Prior für unendliche Kontingenztabellen interpretiert werden kann. Mit angeschlossenen Gaußschen Mischungskomponenten für kontinuierliche Messungen wird das Modell auf zwei Ansichten von Genen angewendet, mRNA-Expression und Häufigkeit der produzierten Proteine, um Gruppen von Genen freizulegen, die in einer oder beiden Ansichten koreguliert sind. Wir entdecken komplexe Beziehungen zwischen den Randbereichen (die in beiden Randbereichen multimodal sind), die von einfacheren Modellen unentdeckt bleiben würden. Die Clusteranalyse der Koexpression ist eine Standardmethode zum Screening auf Koregulation, und die Zwei-Ansichten-Analyse erweitert den Ansatz zur Unterscheidung zwischen prä- und posttranslationaler Regulation.;-;-;-;https://link.springer.com/article/10.1007/s10994-009-5155-1 fec601829d62e5db7d4063a89abb868c;de;;;7.4.;;;Ein theoretischer Rahmen für Association Mining basierend auf dem Booleschen Retrieval-Modell Data Mining ist definiert als die nicht-triviale Extraktion impliziter, bisher unbekannter und potenziell nützlicher Informationen aus Daten. Assoziations-Mining ist eines der wichtigen Unterfelder im Data-Mining, in dem Regeln entdeckt werden, die bestimmte Assoziationsbeziehungen zwischen einer Reihe von Elementen in einer Transaktionsdatenbank implizieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44801-2_3 0e46a899353367f1e333e084ab995413;de;;;7.4.;;;Clustering für heterogene Informationsnetze mit erweiterter Sternstruktur Das Clustern von Objekten in einem heterogenen Informationsnetzwerk, bei dem verschiedene Objekttypen miteinander verknüpft sind, ist ein wichtiges Problem bei der Analyse heterogener Informationsnetzwerke. Mehrere existierende Clustering-Ansätze befassen sich mit sternstrukturierten Informationsnetzwerken mit unterschiedlichen Zentralattribut-Beziehungen. In realen Anwendungen können auch homogene Verknüpfungen zwischen zentralen Objekten verfügbar und für das Clustering nützlich sein. In diesem Beitrag schlagen wir einen neuen Ansatz namens CluEstar für die Clusterbildung von Netzwerken mit einer erweiterten Sternstruktur (E-Star) vor, die die klassische Sternstruktur erweitert, indem sie die Zentral-Zentral-Beziehung, dh Verbindungen zwischen Objekten der Typ. In CluEstar haben alle Objekte eine Rangfolge in Bezug auf jeden Cluster, um ihre Repräsentativität innerhalb des Clusters widerzuspiegeln und die Cluster von Objekten zu bestimmen, mit denen sie verknüpft sind. Eine neuartige Zielfunktion wird für die Clusterbildung des E-Star-Netzwerks vorgeschlagen, indem sowohl Zentralattribut- als auch Zentral-Zentralverbindungen auf effiziente Weise formuliert werden. Ergebnisse umfangreicher experimenteller Studien mit Benchmark-Datensätzen zeigen, dass der vorgeschlagene Ansatz für die Clusterung von E-Star-Netzen mit hoher Qualität und guter Effizienz günstiger ist als bestehende.;-;-;-;https://link.springer.com/article/10.1007/s10618-019-00626-2 ed8c270c1e42adddcb198333cd528d78;de;;;7.4.;;;Spezialisierung von CRISP-DM für Evidence Mining Forensische Analysen erfordern einen scharfen Detektivgeist, aber der menschliche Geist hat weder die Fähigkeit noch die Zeit, die Millionen von Bytes auf einer typischen Computerfestplatte zu verarbeiten. Digitale forensische Ermittler benötigen leistungsstarke Tools, mit denen viele der derzeit manuell durchgeführten Analyseaufgaben automatisiert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-73742-3_21 4fdec2ec6fa22ee5090cb76db8706932;de;;;7.4.;;;PUNER-Parsi ULMFiT für die Named-Entity-Erkennung in persischen Texten Named Entity Recognition (NER) ist eine Informationsextraktionstechnik zur automatischen Erkennung von benannten Entitäten und deren Klassifizierung in einem Text in natürlicher Sprache. Zu den Anwendungen von NER gehören das Extrahieren von benannten Entitäten aus Texten wie akademischen, Nachrichten- und medizinischen Dokumenten, die Klassifizierung von Inhalten für Nachrichtenanbieter, die Verbesserung der Suchalgorithmen usw. Die meisten der untersuchten NER-Forschungsarbeiten beziehen sich auf ressourcenintensive Sprachen wie Englisch, Deutsch und Spanisch. In ressourcenarmen Sprachen wie Persisch, Indisch und Vietnamesisch wird sehr wenig NER-bezogene Arbeit geleistet, da für diese Sprachen keine annotierten Korpora vorhanden sind. Unter den genannten Sprachen sind bisher nur sehr wenige Arbeiten für die persische Sprache NER bekannt. Daher stellt dieser Artikel PUNER vor – ein persisches NER-System, das das Transfer Learning (TL)-Modell verwendet, das Universal Language Model Fine-Tuning (UMLFiT) für NER in persischer Sprache verwendet. Dies wird erreicht, indem ein Sprachmodell auf persischem Wiki-Text trainiert und dieses Modell verwendet wird, um ein System zum Identifizieren und Extrahieren von benannten Entitäten aus den gegebenen persischen Texten zu entwickeln. Die Leistung des vorgeschlagenen Modells wird mit den Deep Learning (DL)-Modellen unter Verwendung von BiLSTM verglichen, indem fünf Wörtereinbettungsmodelle angewendet werden, nämlich Fasttext, HPCA, Skipgram, Glove und COBOW und das konventionelle Machine Learning (ML)-Modell. Alle Modelle werden auf zwei persischen NER-Datensätzen ausgewertet und die Ergebnisse veranschaulichen, dass das TL-Modell besser abschneidet als ML- und DL-Modelle.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6984-9_7 36a430fab4291c0449fee92cad9101e1;de;;;7.4.;;;Hybrid Deep Shallow Network zur Beurteilung von Depressionen mithilfe von Elektroenzephalogramm-Signalen Depression ist eine psychische Störung, die durch eine anhaltend depressive Stimmung oder einen Verlust des Interesses an Aktivitäten gekennzeichnet ist, was zu einer erheblichen Beeinträchtigung des täglichen Lebens führt. Die Elektroenzephalographie (EEG) kann bei der genauen Diagnose einer Depression helfen. In diesem Beitrag stellen wir zwei verschiedene hybride Deep-Learning-Modelle zur Klassifikation und Bewertung von Patienten mit Depressionen vor. Wir haben ein neuronales Faltungsnetzwerk mit Gated Recurrent Units (RGUs) kombiniert, sodass das vorgeschlagene Netzwerk im Vergleich zu seinem Gegen-LSTM-Netzwerk flach und viel kleiner ist. Darüber hinaus ist der vorgeschlagene Ansatz weniger empfindlich gegenüber Parametereinstellungen. Umfangreiche Experimente mit EEG-Datensätzen zeigen, dass das vorgeschlagene Hybridmodell die höchste Genauigkeit erreicht, f1-Score 99,66%, 99,93% und 98,87%, 99,12% für den Datensatz mit offenem Auge bzw. geschlossenem Auge im Vergleich zu den neuesten Methoden. Basierend auf der hohen Leistung kann der vorgeschlagene Hybridansatz zur Beurteilung von Depressionen für klinische Anwendungen verwendet und in Krankenhäusern oder Privatkliniken zur klinischen Bewertung remote eingesetzt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63836-8_21 b4ac34707a591a767894346b96d2a464;de;;;7.4.;;;Zu objektiven Maßen der Umsetzbarkeit in der Wissensentdeckung Eines der Hauptziele der Wissensentdeckung besteht darin, Nuggets nützlichen Wissens zu finden, die Benutzer bei einem Entscheidungsprozess beeinflussen oder ihnen helfen könnten. Diese Aufgabe kann als Suche in einem immensen Raum nach möglichen umsetzbaren Konzepten angesehen werden. Die meisten KDD-Forscher glauben, dass die Aufgabe, umsetzbare Muster zu finden, nicht einfach ist und Umsetzbarkeit ein rein subjektives Konzept ist. Praktiker berichten, dass die Anwendung der KDD-Algorithmen nicht mehr als 20 % des Wissensentdeckungsprozesses ausmacht und die restlichen 80 % auf menschliche Experten angewiesen sind, um die entdeckten Muster manuell nachzuanalysieren. Um die Effektivität des Prozesses zu verbessern, kann die Handlungsfähigkeit als objektives Maß definiert werden, indem eine genau definierte Strategie zur Mustergenerierung bereitgestellt wird, die eine Anleitung von Domänenexperten in Schlüsselphasen bei der Suche nach nützlichen Mustern ermöglicht. Der Ansatz integriert KDD und Entscheidungsfindung eng, indem er die Entscheidungsprobleme direkt auf dem Kern der KDD-Algorithmen löst. In diesem Beitrag stellen wir eine granulare, computerbasierte Methode zur Generierung eines Regelwerks vor, indem wir das Vorwissen der Domänenexperten nutzen, um seine Eingaben zu formulieren und die beobachteten Regelmäßigkeiten zu bewerten, die es entdeckt. Die generierte Regel überwindet das traditionelle datenzentrierte Pattern-Mining, was dazu führt, dass die Lücke geschlossen und die Fähigkeiten zur Problemlösung in der realen Welt verbessert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30341-8_29 cc598c1f9fc9240cbb330283c072547a;de;;;7.4.;;;Kundenprofilierung und -bindung mit Empfehlungssystem und Faktoridentifikation zur Vorhersage der Kundenabwanderung in der Telekommunikationsbranche Im Telekommunikationsbereich entsteht aufgrund eines riesigen Kundenstamms durchgängig eine immense Datenmenge. Chefs und Geschäftsanalysten betonten, dass es unerschwinglich ist, neue Kunden zu gewinnen, anstatt die bestehenden zu halten. Geschäftsexperten und CRM-Analysatoren müssen die Erklärungen für die Abwanderung von Kunden kennen, ebenso wie die Verhaltensmuster der aktuellen Abwanderung von Kunden, damit das Unternehmen einige Bindungsstrategien anwendet, um die Kunden zu binden, bevor sie die Branche verlassen. Dieses Papier schlägt ein Modell zur Vorhersage der Kundenabwanderung vor, das zahlreiche Klassifikationsalgorithmen für maschinelles Lernen verwendet, wie Gradient Boost, Random Forest (RF), Decision Tree (DT), Logistic Regression (LR), K-Nachbarn, bei denen der Gradient Boost-Klassifikator übertraf andere Klassifizierer, und eine Clustering-Technik wurde verwendet, um die Abwanderungskunden aufzuschlüsseln und zu erkennen und die Faktoren hinter den Abwanderungskunden im Telekommunikationssektor anzugeben. Das vorgeschlagene Modell klassifiziert zunächst Abwanderungskundendaten unter Verwendung von Klassifizierungsalgorithmen. Nach der Klassifizierung unterteilt das vorgeschlagene Modell die Abwanderungskundendaten, indem es die Kunden in Gruppen unter Verwendung des k-Means-Clustering-Algorithmus kategorisiert, um gruppenbasierte Bindungsangebote zu erstellen. In diesem Papier wurden zusätzlich Abwanderungsfaktoren unterschieden, die bei der Entscheidung über die zugrunde liegenden Abwanderungstreiber grundlegend sind, bei denen der Algorithmus „Attribute Selected Classifier“ aus dem Weka-Tool verwendet wurde und relevante Werbeaktionen für die Gruppe der wahrscheinlich abwandernden Kunden, die von ähnlichen Verhaltensmustern abhängig sind, und die Marketingkampagnen der Organisation übermäßig verbessern (Ullah, Irfan, et al. „Ein Abwanderungsvorhersagemodell mit Random Forest: Analyse von maschinellen Lerntechniken für die Abwanderungsvorhersage“ und Faktoridentifikation im Telekommunikationssektor.“ EEE Access 7 (2019): 60, 134–60, 149). Darüber hinaus wurde ein Empfehlungssystem zur Kundenbindung eingesetzt. Denn das Erstellen von Bindungsstrategien ist ein grundlegendes Unterfangen des CRM, um die Abwanderung von Kunden zu verhindern. Das vorgeschlagene Churn-Vorhersagemodell wird unter Verwendung von Messmatrizen bewertet, zum Beispiel Genauigkeit, Präzision, Recall, f-Measure und Receive Operating Characteristics (ROC)-Bereich. Die Ergebnisse zeigen, dass das vorgeschlagene Modell der Kundenabwanderungsvorhersage eine bessere Abwanderungsklassifizierung unter Verwendung des Gradienten-Boost-Algorithmus und der Kundenprofilierung unter Verwendung von K-Means-Clustering lieferte. Darüber hinaus gibt es zusätzlich Faktoren für den Umsatz des Kunden durch die Regeln an, die durch die Verwendung des Attributs-Selected-Classifier-Algorithmus erzeugt werden. Am Ende der Prüfung wurde eine Bindungsstrategie angewendet, die ein Empfehlungssystem verwendet, um die Kundenbasis für lange Zeit zu halten und zu halten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6518-6_9 d6475984a6bace386ec82415618a573f;de;;;7.4.;;;Regellernen mit Negation: Fragen der Effektivität Es wird eine Untersuchung von Regellernprozessen beschrieben, die die Einbeziehung negierter Merkmale ermöglichen. Ziel ist es festzustellen, ob der Einsatz der Negation in induktiven Regellernsystemen hinsichtlich der Klassifikation effektiv ist. Dieses Papier versucht, diese Frage zu beantworten, indem zwei für solche Systeme relevante Fragen betrachtet werden, die Merkmalsidentifikation und die Regelverfeinerung. Sowohl synthetische als auch reale Datensätze werden verwendet, um Lösungen für die identifizierten Probleme zu veranschaulichen und zu zeigen, dass die Verwendung negativer Merkmale in induktiven Regellernsystemen tatsächlich von Vorteil ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16327-2_25 ea4b2afce0d6647087adb62d55c5afd1;de;;;7.4.;;;Spirale Entfernung von außergewöhnlichen Patienten für den Abbau chronischer Hepatitis-Daten In diesem Beitrag schlagen wir eine Methode vor, die außergewöhnliche Patienten spiralförmig entfernt, um eine Definition einer Krankheit in Form einer Tabelle bedingter Wahrscheinlichkeiten zu erhalten, und wir beschreiben ihre Anwendung auf Daten zur chronischen Hepatitis. Die Entfernung basiert auf einem Risikoverhältnis-basierten Kriterium und kann durch unsere zuvor entwickelten Data-Mining-Methoden und medizinischen Experten unterstützt werden. Eine Reihe von Experimenten, in denen zwei Domänenexperten entschieden haben, dass außergewöhnliche Patienten entfernt werden sollten, zeigt, dass unsere vorgeschlagene Methode unter verschiedenen Gesichtspunkten effektiv und vielversprechend ist, z. Eine weitere Versuchsreihe, bei der außergewöhnliche Patienten automatisch entfernt wurden, führte uns zu einer Wiederentdeckung einer Erkenntnis, über die in einem Artikel einer medizinischen Fachzeitschrift als Hauptergebnis des Artikels berichtet wurde.;-;-;-;https://link.springer.com/article/10.1007/s00354-007-0014-8 9c54028355a302fc48e409f5c3896be0;de;;;7.4.;;;Modelle lernen und anwenden Im Gegensatz zu modellfreien RL-Methoden, die direkt aus der Erfahrung in der Domäne lernen, lernen modellbasierte Methoden online ein Modell der Übergangs- und Belohnungsfunktionen der Domäne und planen anhand dieses Modells eine Politik. Sobald die Methode ein genaues Modell gelernt hat, kann sie ohne weitere Erfahrung in der Welt eine optimale Politik auf diesem Modell planen. Wenn modellbasierte Methoden in der Lage sind, schnell ein gutes Modell zu lernen, weisen sie daher häufig eine verbesserte Stichprobeneffizienz gegenüber modellfreien Methoden auf, die weiterhin weltweit Maßnahmen ergreifen müssen, damit sich die Werte in die vorherigen Zustände zurückverbreiten. Ein weiterer Vorteil modellbasierter Methoden besteht darin, dass sie mit ihren Modellen mehrstufige Explorationstrajektorien planen können. Insbesondere treiben viele Methoden den Agenten dazu an, herauszufinden, wo im Modell Unsicherheiten bestehen, um das Modell so schnell wie möglich zu erlernen. In diesem Kapitel befassen wir uns mit einigen Modelltypen, die in modellbasierten Methoden verwendet werden und wie sie zu erlernen sind, sowie Methoden zur Planung dieser Modelle. Darüber hinaus untersuchen wir die typischen Architekturen zur Kombination von Modelllernen und Planen, die sich je nachdem unterscheiden, ob der Designer den Algorithmus online, im Batch-Modus oder in Echtzeit ausführen möchte. Eines der wichtigsten Leistungskriterien für diese Algorithmen ist die Stichprobenkomplexität oder wie viele Aktionen der Algorithmus ausführen muss, um zu lernen. Wir untersuchen die Stichprobeneffizienz einiger weniger Methoden, die stark von intelligenten Explorationsmechanismen abhängig sind. Wir untersuchen einige Ansätze zur Lösung des Explorationsproblems, einschließlich Bayes-Methoden, die eine Glaubensverteilung über mögliche Modelle beibehalten, um die Unsicherheit im Modell explizit zu messen. Wir zeigen einige empirische Vergleiche verschiedener modellbasierter und modellfreier Methoden an zwei Beispieldomänen, bevor wir mit einem Überblick über die aktuelle Forschung zur Skalierung dieser Methoden auf größere Domänen mit verbesserter Stichproben- und Rechenkomplexität schließen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27645-3_4 44254da2d4b951960205792d91e56c58;de;;;7.4.;;;Hindernisse für den Einsatz von Mobile Sales Force Automation Systems. Die Perspektive eines Verkäufers Die zunehmende Mobilität führte zu einer steigenden Nutzung von Smartphones und Tablet-PCs (Tablets) in Unternehmen und folglich auch der Einsatz von Sales Force Automation (SFA)-Systemen. Obwohl Vertriebsautomatisierungssysteme seit etwa dreißig Jahren untersucht werden, ist wenig über die Auswirkungen neu entwickelter mobiler Geräte, nämlich Smartphones und Tablets, auf die Vertriebssteuerung bekannt. Das Ziel dieser Studie ist es, dieses wenig erforschte Thema zu untersuchen, indem die Hindernisse für die Nutzung von mobilen SFA-Systemen aus der Perspektive eines Verkäufers betrachtet werden. Unter Berücksichtigung der einschlägigen Literatur entwickeln und testen die Autoren drei Vorschläge zur mobilen SFA-Systemnutzung aus dieser Perspektive. Die Studie verwendet eine multiple Fallstudie, um die Annahmen zu testen und findet Unterstützung für alle und deckt zwei zusätzliche Hindernisse für die Nutzung des mobilen SFA-Systems auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10951-0_231 0b21280369ed8b4b0b936f7c9a4a8ef7;de;;;3.2.;;;Entstehung einer Kooperation in einem bioinspirierten Multi-Agenten-System Das kooperative Verhalten sozialer Insekten wird in Gemeinschaften der Künstlichen Intelligenz umfassend untersucht und nachgeahmt. Eine solche interessante Kooperation wird in Form von philanthropischen Aktivitäten beobachtet, z.B. Armeeameisen bauen mit ihrem eigenen Körper Brücken auf dem Weg von einer Nahrungsquelle zum Nest. Ein solches altruistisches Verhalten hilft, die Nahrungssammelleistung der Ameisenkolonie zu optimieren. Dieses Papier präsentiert eine Multi-Agenten-Simulation, die vom Verhalten der Armeeameisen inspiriert ist. Eine solche Zusammenarbeit in einem Multiagentensystem kann für technische Anwendungen sehr wertvoll sein. Der Zweck dieser Studie ist es, dieses biologische Verhalten durch Computersimulation zu modellieren und zu verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17432-2_37 cb075a3413ee7a07b4e5c318c2e4ea87;de;;;3.2.;;;Branding-Strategien zur Kulturlandschaftsförderung: Reale und virtuelle Ortsnetzwerke organisieren Die neoterische westliche Zivilisation bezieht sich auf die historische Vergangenheit der antiken griechischen Stadt Sparta und proklamiert sie als ein erstes Paradigma aufrechter, tugendhafter Regierungsführung und politischer Bildung. Es war die Anerkennung der früheren Korrelation zwischen neoterischen Referenzen und der hellenischen klassischen Antike, die die Fakultät für Architektur der Nationalen Technischen Universität Athen (NTUA) in Zusammenarbeit mit der Universität Peloponnes dazu veranlasste, ein Forschungsprogramm zur Entwicklung von 'Place Branding'-Strategie zur Förderung der Kulturlandschaft des Territoriums der heutigen Gemeinde Sparta.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-12957-6_7 4703088eda51aeabab8f45636796962e;de;;;7.4.;;;Lernen mit wenigen Aufnahmen für die Klassifizierung medizinischer Bilder Eine schnelle und genaue Klassifizierung medizinischer Bilder spielt eine wichtige Rolle in der medizinischen Diagnose. Für die medizinische Bildklassifikation gibt es heute einige Methoden, die auf Machine Learning, Deep Learning und Transfer Learning basieren. Diese Methoden können jedoch zeitaufwendig und für kleine Datensätze nicht geeignet sein. Basierend auf diesen Einschränkungen schlagen wir eine neuartige Methode vor, die die Methode des Lernens mit wenigen Schüssen und einen Aufmerksamkeitsmechanismus kombiniert. Unsere Methode verwendet Ende-zu-Ende-Lernen, um das Problem der künstlichen Merkmalsextraktion beim maschinellen Lernen zu lösen, und die Methode des Wenigen-Shots-Lernens dient insbesondere der Erfüllung kleiner Datensätze, was bedeutet, dass sie besser abschneidet als herkömmliches Deep Learning. Darüber hinaus kann unser Verfahren räumliche und Kanalinformationen voll ausnutzen, was die Darstellung von Modellen verbessert. Darüber hinaus übernehmen wir 1;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-61609-0_35 e261709135d2224dfba344d38ce60f9f;de;;;7.4.;;;Aufrechterhaltung der Entladung im visuellen System und ihre Rolle für die Informationsverarbeitung Ein konstantes Merkmal von Aufzeichnungen von Neuronen der sensorischen Seite des Nervensystems ist das Auftreten von Impulsen ohne entsprechende Reize. Diese Aktivität wurde manchmal als „spontan“ (G;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-65352-0_8 6a019c2eac77e52f8aa5d0be74b6e2d1;de;;;7.4.;;;Ein robuster und intelligenter Algorithmus für maschinelles Lernen für Softwaretests Beim Software-Engineering besteht der einzige Punkt darin, einen erstklassigen Ertrag zu erzielen und gleichzeitig die Kosten und die Zeit zu erhöhen, die für den Abschluss der Anwendungsentwicklung erwartet werden. Um dieses Ziel zu erreichen, führen Softwaregruppen den Test ihrer Anwendung vor der Live-Erstellung durch. Für die Testautomatisierung übernimmt die Dokumentation eine kritische Aufgabe. Dieser Artikel konzentriert sich auf die Mechanisierung des Experimentalters in Abhängigkeit von zugänglichen Testressourcen, Herausforderungen, die durch Methoden zur geordneten Verbesserung der Praxis und zur Charakterisierung von Testsystemen für jede Softwareanwendung vermittelt werden könnten. Eine bemerkenswerte Motivation ist die Wahrnehmbarkeit zwischen Notwendigkeiten und Systemexperimenten. In diesem Sinne ist die Bedeutung von Experimenten langweilig und erprobend, insbesondere unter Zeitvorgaben und bei fortschreitenden Änderungen der Notwendigkeiten. Im Moment reduziert ein maßgeschneidertes Testalter die Testkosten und garantiert, dass Experimente alle Notwendigkeiten richtig verteilen, ein großes Ziel in den Wohlstand wesentlicher Systeme und für die Maßnahmen, die sie benötigen. Diese vorgeschlagene Anwendung garantiert eine kompetente Einbindung von Softwareübergaben in den Test, bei der wichtige Nützlichkeit nicht in der Erwartung des automatischen Tests verfehlt wird. Im Moment können Experimente erstellt werden, nachdem die Anwendungsentwicklung eine Komponente oder viele Highlights abgeschlossen hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8752-8_46 503e88e6e733106d322f804ed0542d8c;de;;;7.4.;;;Hybride Textzusammenfassung: Eine Umfrage Textzusammenfassung ist die Technik, das ursprüngliche Textdokument so zu drücken, dass seine Bedeutung nicht verändert wird. Zusammenfassungstechniken sind für die Informationsabfrage wichtig geworden, da große Datenmengen im Internet verfügbar sind und es für einen Menschen unmöglich ist, in einer zeitgebundenen Situation aus enormen Datenmengen relevante Informationen zu extrahieren. Somit ist die automatische Textzusammenfassung ein Werkzeug zum Reduzieren der im Internet verfügbaren Informationen, indem nicht redundante und hervorstechende Sätze bereitgestellt werden, die aus einem einzelnen oder mehreren Textdokumenten extrahiert wurden. Bei der Textzusammenfassung gibt es zwei Ansätze: extraktiv und abstrakt. Der extraktive Ansatz erzeugt die Zusammenfassung durch Auswahl von Teilmengen von Wörtern, Sätzen und Phrasen von Textdokumenten, während der abstrakte Ansatz die Hauptidee des Dokuments versteht und diese Idee dann in einer natürlichen Sprache unter Verwendung einer Technik zur Erzeugung natürlicher Sprache darstellt, um Zusammenfassungen zu erstellen. Dieses Papier stellt einen Überblick über die automatische hybride Textzusammenfassung dar.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-0589-4_7 2b113e1a18dc63fa8076258f0c4d342f;de;;;7.4.;;;Biomarker-Discovery mit Text Mining und literaturbasierter Discovery Die Vielzahl an biomedizinischen Publikationen liefert uns wertvolle Daten für die Forschung. Wie man jedoch aus diesen integrierten, aber unstrukturierten biomedizinischen Informationen verwertbare Informationen erhält, ist ein schwieriges Problem, das vor uns liegt und biomedizinische Text-Mining-Techniken erfordert, die darauf abzielen, neue Erkenntnisse aus wissenschaftlichen Texten zu gewinnen. In diesem Kapitel werden wir die Grundlagen des Text Mining vorstellen und einige häufig verwendete Algorithmen, Werkzeuge und Datensätze untersuchen. Mit der Entwicklung der Systembiologie tendieren Forscher dazu, komplexe biomedizinische Systeme aus systembiologischer Sicht zu verstehen. Daher wird die vollständige Nutzung von Text Mining zur Erleichterung der systembiologischen Forschung schnell zu einem wichtigen Anliegen. Um dieses Problem anzugehen, beschreiben wir den allgemeinen Workflow des Text Mining in der Systembiologie und jede Phase des Workflows. Abschließend diskutieren wir die Text-Mining-Technologie für die Erforschung von Biomarkern.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7975-4_4 a25dd5e86dbd5c5578b9bb1bc5f01403;de;;;7.4.;;;Ensemble RBM-basierter Klassifikator mit Fuzzy-Integral für die Big-Data-Klassifizierung Die Restricted Boltzmann Machine (RBM) ist ein Hauptbaustein von Deep-Learning-Modellen. Als effizienter Repräsentationslernansatz kann Deep RBM ausgeklügelte und informative Funktionen effektiv aus Rohdaten extrahieren. Es wurde jedoch wenig Forschung zur Verwendung von Deep RBM durchgeführt, um Funktionen aus Big Data zu extrahieren. In diesem Papier untersuchen wir dieses Problem und schlagen einen Ensemble-Ansatz zur Big-Data-Klassifizierung basierend auf Hadoop MapReduce und Fuzzy-Integral vor. Die vorgeschlagene Methode besteht aus zwei Stufen, Map und Reduce. In der Map-Phase werden mehrere RBM-basierte Klassifikatoren, die für das Ensemble verwendet werden, parallel trainiert. In der Reduktionsstufe werden die trainierten multiplen RBM-basierten Klassifikatoren durch ein Fuzzy-Integral integriert. Experimente mit fünf großen Datensätzen zeigen, dass der vorgeschlagene Ansatz andere Basismethoden übertreffen kann, um eine Leistung nach dem neuesten Stand der Technik zu erzielen.;-;-;-;https://link.springer.com/article/10.1007/s13042-019-00960-3 0871c7167aa40080cb9cdcca5b4937fa;de;;;7.4.;;;Klassifikation mentaler arithmetischer kognitiver Zustände basierend auf CNN und FBN Kopfrechnen ist eine grundlegende kognitive Funktion des menschlichen Gehirns, Kopfrechnen ist eine wichtige kognitive Funktion des Gehirns, die auch als Kern des menschlichen logischen Denkens angesehen wird. fMRT bietet aufgrund seiner Nicht-Invasivität und Bequemlichkeit Komfort für die Erforschung kognitiver Funktionen im Kopfrechnen und die Dekodierung neuronaler Signale. Wir rekrutierten 21 Probanden und verwendeten ein Blockdesign von fMRI in dem Experiment. In diesem Artikel werden Samen extrahiert und durch partielle Korrelationsverbindung charakterisiert, um ein funktionelles Gehirnnetzwerk (FBN) aufzubauen. Gegenwärtig wird die von CNN repräsentierte Deep-Learning-Technologie zunehmend bei der Analyse und Klassifizierung von neuronalen Bilddaten angewendet und analysiert. Die Klassifizierungsergebnisse zeigen, dass CNN-basierte Verfahren bei der datengesteuerten Klassifizierung den besten Klassifizierungseffekt haben und 98% erreichen, was offensichtlicher ist als die traditionelle maschinelle Lernmethode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37078-7_22 3d5dc24c55b29dfef594b7f2ad989261;de;;;7.4.;;;Bewertungsmaßstäbe der Klassifikationsleistung unausgeglichener Datensätze Diskriminierende Maßnahmen für die Klassifikationsleistung spielen eine entscheidende Rolle bei der Gestaltung von Klassifikatoren, Bewertungsmethoden und Bewertungsmaßnahmen sind mindestens ebenso wichtig wie Algorithmen und die erste Schlüsselstufe für ein erfolgreiches Data Mining. Wir haben die Bewertungsmaßstäbe von Imbalanced Data Sets (IDS) systematisch zusammengefasst. Mehrere unterschiedliche Typen von Maßen, wie beispielsweise allgemein Leistungsbewertungsmaße und visualisierende Klassifikator-Leistungsmaße, wurden analysiert und verglichen. Die Probleme dieser Maßnahmen gegenüber IDS können zu Missverständnissen der Klassifikationsergebnisse und sogar zu falschen Strategieentscheidungen führen. Daneben wurde auch eine Reihe komplexer numerischer Bewertungsmaßnahmen untersucht, die auch zur Bewertung der Klassifikationsleistung von IDS dienen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04962-0_53 12408d1934e5cc4e3ec4bd5f70f033e7;de;;;7.4.;;;Kombinieren mehrerer Clusterings über den k-Modes-Algorithmus Clustering-Ensembles haben sich als leistungsfähige Methode zur Verbesserung sowohl der Robustheit als auch der Stabilität von unüberwachten Klassifikationslösungen erwiesen. Ein Konsens-Clustering aus mehreren Partitionen zu finden ist jedoch ein schwieriges Problem, das aus graphenbasierter, kombinatorischer oder statistischer Perspektive angegangen werden kann. In diesem Papier wird ein Konsensschema über den k-Modes-Algorithmus vorgeschlagen. Eine kombinierte Partition wird als Lösung für das entsprechende kategoriale Datenclustering-Problem unter Verwendung des k-Modes-Algorithmus gefunden. Diese Studie vergleicht die Leistung des k-Modes-Konsensusalgorithmus mit anderen Fusionsansätzen zum Clustering von Ensembles. Experimentelle Ergebnisse belegen die Wirksamkeit des vorgeschlagenen Verfahrens.;-;-;-;https://link.springer.com/chapter/10.1007/11811305_34 59b002602f03a31a4268d41bba4a2177;de;;;7.4.;;;Vertrauen in (Big) Data Analytics stärken Vertrauen ist ein zentrales Anliegen bei Big Data Analytics (BDA). Das Erklären von „Black-Box“-Modellen, der Nachweis der Übertragbarkeit von Modellen und der Robustheit gegenüber Datenänderungen in Bezug auf Qualität oder Inhalt können dazu beitragen, das Vertrauen in BDA zu stärken. Zu diesem Zweck schlagen wir Metriken zur Messung der Robustheit gegenüber Eingangsrauschen vor. Wir liefern auch empirische Beweise, indem wir zeigen, wie diese Metriken mit mehreren Datensätzen und Klassifikatoren berechnet und interpretiert werden. Darüber hinaus diskutieren wir den State-of-the-Art verschiedener Bereiche des maschinellen Lernens, wie zum Beispiel die Erklärung von „Black Box“-Modellen und Transfer Learning in Bezug auf die Modellvalidierung. Wir zeigen, wie Methoden aus diesen Bereichen angepasst werden können, um klassische Validitätsmaße in der Wissenschaft wie die Inhaltsvalidität zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-92898-2_6 b0d27f0fa3b1d9b69ae5c8b96a6c5c89;de;;;7.4.;;;Robuste Lokalisierung von unbemannten Oberflächenfahrzeugen mit DDQN-AM Für ein unbemanntes Oberflächenfahrzeug (USV) wurde ein robuster Lokalisierungsalgorithmus vorgeschlagen, der DDQN-AM (Double Deep Q-Network with Action Memory) verwendet. Trägheitsnavigationssystem (INS) und Global Positioning System (GPS) werden zum Sammeln von Standortinformationen und zum Steuern des USV mit dem DDQN-AM-Algorithmus verwendet. Herkömmliche wahrscheinlichkeitsbasierte Filter wie Extended Kalman Filter (EKF) und Unscented Kalman Filter (UKF) eignen sich zum Schätzen des Verhaltens von nichtlinearen Systemen und wurden weit verbreitet zum Lokalisieren verschiedener Arten von nichtlinearen Fahrzeugen angewendet. Jedoch divergieren die Algorithmen oder der Linearisierungspositionsfehler nimmt beim Lokalisieren von USVs zu, die einer gewünschten Trajektorie unter starken Wellen- und Windbedingungen genau folgen müssen. Außerdem ist die Rechenkomplexität sehr hoch, was die Instabilität des Fahrzeugsystems verursacht. Um diese Probleme anzugehen, wurde in dieser Forschung DDQN mit Adam-Optimierung für die Fehlerrückausbreitung verwendet. Wenn jedoch das Lernen mit dem Trainingsdatensatz der aktuellen Zeit (aktueller Zustand, Belohnung, Aktion) im Wiedergabepuffer von DDQN durchgeführt wird, kann sich die Lernleistung (Genauigkeit für Zustände und Laufzeit) verschlechtern und es kann eine Lernbelastung auftreten. Um die Lernleistung von DDQN zu verbessern, wurde daher DDQN-AM neu vorgeschlagen, indem AM in dieser Forschung hinzugefügt wurde. Um die Wirksamkeit zu verifizieren und die überlegene Lernleistung des vorgeschlagenen DDQN-AM gegenüber den herkömmlichen Ansätzen zu zeigen, wurden eine Simulation mit Matlab und Feldexperimente mit einem USV-Prototyp an der Küste durchgeführt. Dadurch wurde der Positionsfehler von DDQN-AM gegenüber dem bisherigen Ansatz um 57,6% verbessert und die durchschnittliche Laufzeit wurde ebenfalls um 1 Minute 30 Sekunden verkürzt.;-;-;-;https://link.springer.com/article/10.1007/s12555-020-0157-7 00b9fadf7809d6bea03c2a668093ce15;de;;;7.4.;;;Tangentialraum-Lernen und -Verallgemeinerung Mannigfaltiges Lernen hat im letzten Jahrzehnt beträchtliche Aufmerksamkeit auf sich gezogen, wobei die Erforschung der Geometrie und Topologie der Mannigfaltigkeit das zentrale Problem ist. Der Tangentialraum ist ein grundlegendes Werkzeug, um die Geometrie der Mannigfaltigkeit zu entdecken. In diesem Beitrag werden wir zunächst kanonische Manifold-Lerntechniken überprüfen und dann zwei grundlegende Probleme beim Tangentialraum-Lernen diskutieren. Eine ist, wie man den Tangentialraum aus Zufallsstichproben abschätzt, und die andere ist, wie man den Tangentialraum auf den Umgebungsraum verallgemeinert. Frühere Studien zum Tangentialraumlernen haben sich hauptsächlich auf die Anpassung des Tangentialraums konzentriert, und man muss eine globale Gleichung zum Erhalten der Tangentialräume lösen. Im Gegensatz zu diesen Ansätzen führen wir eine neuartige Methode ein, die als persistentes Tangentialraumlernen (PTSL) bezeichnet wird und den Tangentialraum in jeder lokalen Nachbarschaft schätzt und gleichzeitig sicherstellt, dass die Tangentialräume auf der Mannigfaltigkeit glatt variieren. Der Tangentialraum kann als Punkt auf der Grassmannschen Mannigfaltigkeit betrachtet werden. Inspiriert von der Statistik der Grassmann-Mannigfaltigkeit verwenden wir die intrinsische Stichprobengesamtvarianz, um die Variation der geschätzten Tangentialräume an einem einzigen Punkt zu messen, und somit kann das Generalisierungsproblem durch Schätzen des intrinsischen Stichprobenmittelwerts auf der Grassmann-Mannigfaltigkeit gelöst werden. Wir validieren unsere Methoden durch verschiedene experimentelle Ergebnisse sowohl an synthetischen als auch an realen Daten.;-;-;-;https://link.springer.com/article/10.1007/s11460-011-0124-4 b6a9e375e04ee39c6ac13377aeda7230;de;;;7.4.;;;Lernen für die semantische Interpretation: Hochskalieren, ohne zu verdummen Die jüngste Forschung im Bereich des Lernens natürlicher Sprache hat ziemlich „niedrige“ Aufgaben wie Morphologie, Wortart-Tagging und syntaktisches Parsing untersucht. Ich glaube jedoch, dass logische Ansätze die größte Relevanz und Wirkung auf der Ebene der semantischen Interpretation haben können, wo eine logische Darstellung der Satzbedeutung wichtig und nützlich ist. Wir haben die Verwendung der induktiven Logikprogrammierung zum Erlernen von Parsern untersucht, die Datenbankabfragen in natürlicher Sprache in eine ausführbare logische Form abbilden. Diese Arbeit widerspricht dem wachsenden Trend in der Computerlinguistik, sich auf flache, aber weitreichende Aufgaben in natürlicher Sprache zu konzentrieren („scaling up by dumbing down“) und befasst sich stattdessen mit logikbasiertem Lernen zur Entwicklung engerer, domänenspezifischer Systeme mit relativ tiefen wird bearbeitet. Ich präsentiere zunächst einen historischen Blick auf die sich wandelnden Forschungsschwerpunkte zu verschiedenen Aufgaben in der Verarbeitung natürlicher Sprache und schaue dann kurz auf unsere eigene Arbeit zum Lernen für die semantische Interpretation zurück. Ich werde dann versuchen, andere zu ermutigen, sich mit solchen Problemen zu befassen, und erklären, warum logische Ansätze meiner Meinung nach am meisten auf der Ebene der semantischen Interpretation vollständiger Sätze zu bieten haben.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-40030-3_4 a2127b40ddd6c892af41f5fc255312ab;de;;;7.4.;;;Halbüberwachte monokulare Tiefenschätzung basierend auf semantischer Überwachung Die monokulare Tiefenschätzung durch unüberwachtes Lernen ist eine potenzielle Strategie, die hauptsächlich durch die Berechnung des Sehrekonstruktionsverlusts aus Stereopaaren oder monokularen Sequenzen selbstüberwacht wird. Die meisten existierenden Arbeiten berücksichtigen jedoch nur die geometrischen Informationen während des Trainings, ohne Semantik zu verwenden. Wir schlagen eine semantische monokulare Tiefenschätzung (SE-Net) vor, ein neuronales Netzwerk-Framework, das die Tiefe anhand semantischer Informationen und Videosequenzen schätzt. Das gesamte Framework ist semi-überwacht, da wir beschriftete semantische Ground-Truth-Daten nutzen. Angesichts der strukturellen Konsistenz zwischen dem semantisch segmentierten Bild und der Tiefenkarte führen wir zuerst eine semantische Segmentierung des Bildes durch und verwenden dann die semantischen Labels, um die Konstruktion des Tiefenschätznetzwerks zu leiten. Experimente mit dem KITTI-Datensatz zeigen, dass das Lernen semantischer Informationen aus Bildern die Wirkung der monokularen Tiefenschätzung effektiv verbessern kann, und SE-Net ist den fortschrittlichsten Methoden in der Tiefenschätzungsgenauigkeit überlegen.;-;-;-;https://link.springer.com/article/10.1007/s10846-020-01205-0 2d48d7e10afce641dccae68012cb7b53;de;;;7.4.;;;Erkennung und Analyse von Influenza-Epidemien mit Social Media in China In den letzten Jahren sind soziale Medien für den sozialen Netzwerk- und Informationsaustausch wichtig und allgegenwärtig geworden. Forscher und Wissenschaftler haben damit begonnen, Social-Media-Daten zu analysieren, um verschiedene soziale, wirtschaftliche, gesundheitliche und unterhaltungsbezogene Phänomene der realen Welt vorherzusagen. In diesem Beitrag zeigen wir, wie Social Media-Daten verwendet werden können, um reale Phänomene mit verschiedenen Data-Mining-Techniken zu erkennen und zu analysieren. Insbesondere verwenden wir Beiträge von TencentWeibo, um Influenza zu erkennen und Influenza-Trends zu analysieren. Wir bauen einen auf Support Vector Machine (SVM) basierenden Klassifikator, um Influenza-Posts zu klassifizieren. Darüber hinaus verwenden wir Assoziationsregel-Mining, um stark verknüpfte Merkmale als zusätzliche Merkmale von Beiträgen zu extrahieren, um die Beschränkung von 140 Wörtern für Beiträge zu überwinden. Wir verwenden auch eine Sentimentalanalyse, um die Reposts ohne Feature und unkommentierte Reposts zu klassifizieren. Die experimentellen Ergebnisse zeigen, dass wir durch die Kombination dieser Techniken die Präzision und das Erinnerungsvermögen um mindestens zehn Prozent verbessern können. Schließlich analysieren wir die räumlichen und zeitlichen Muster für positive Influenza-Posts und sagen, wann und wo eine Influenza-Epidemie wahrscheinlicher auftritt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06608-0_8 6ada03b2d118b9a3dc1e9c139a983aec;de;;;7.4.;;;Perspektiven: Risiken und Chancen der Technologie Dieses Kapitel bietet eine sehr kurze Einführung in die positiven und negativen Aspekte, die sich aus dem ständig wachsenden Einfluss der Technologie ergeben. Während die Macht, Perspektiven und Gefahren der Technologie faszinierend sind und in einem demnächst erscheinenden Band behandelt werden, wird das vorliegende Kapitel den Umfang dieses Textes auf die Manifestationen der Technologie beschränken, die direkt oder indirekt versuchen, menschliche Gedanken und Emotionen zu beeinflussen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-42610-1_9 ef841a8ff359f5a5a51d09b9a5f00d1e;de;;;7.4.;;;Das AIQ Meta-Testbed: pragmatische Brücke zwischen akademischen KI-Tests und industriellen Q-Anforderungen KI-Lösungen scheinen in allen Anwendungsbereichen aufzutauchen. Mit zunehmender Verbreitung von KI nimmt die Bedeutung der Qualitätssicherung zu. Leider besteht kein Konsens darüber, was künstliche Intelligenz bedeutet und die Interpretationen reichen von einfachen statistischen Analysen bis hin zu empfindungsfähigen humanoiden Robotern. Darüber hinaus ist Qualität ein notorisch schwer zu bestimmendes Konzept. Was bedeutet das für die KI-Qualität? In diesem Papier teilen wir unsere Arbeitsdefinition und einen pragmatischen Ansatz, um die entsprechende Qualitätssicherung mit Fokus auf Testing anzugehen. Abschließend stellen wir unsere laufenden Arbeiten zur Etablierung des AIQ Meta-Testbeds vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-65854-0_6 b13d45b337b62b8aac5759d89ac1a9ae;de;;;7.4.;;;Batch-Verstärkungslernen Batch Reinforcement Learning ist ein Teilgebiet des auf dynamischer Programmierung basierenden Reinforcement Learning. Ursprünglich definiert als die Aufgabe, aus einem festen Satz a priori bekannter Übergangsstichproben die bestmögliche Richtlinie zu lernen, lassen sich die in diesem Bereich entwickelten (Batch-)Algorithmen leicht an den klassischen Online-Fall anpassen, bei dem der Agent mit der Umgebung interagiert, während Lernen. Aufgrund der effizienten Nutzung der gesammelten Daten und der Stabilität des Lernprozesses hat dieses Forschungsgebiet in letzter Zeit viel Aufmerksamkeit auf sich gezogen. In diesem Kapitel stellen wir die Grundprinzipien und die Theorie des Batch Reinforcement Learning vor, beschreiben die wichtigsten Algorithmen, diskutieren exemplarisch die aktuelle Forschung auf diesem Gebiet und geben einen kurzen Überblick über reale Anwendungen des Batch Reinforcement Learning.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27645-3_2 54e8cbd6946130093247a516704ce555;de;;;7.4.;;;Eine vergleichende Untersuchung einiger Probleme bezüglich der Empfehlung von Algorithmen unter Verwendung von Ranking-Methoden Die Kreuzvalidierung (CV) ist die genaueste verfügbare Methode für die Algorithmusempfehlung, aber sie ist ziemlich langsam. Wir zeigen, dass Informationen über die Leistung von Algorithmen in der Vergangenheit für den gleichen Zweck mit geringem Genauigkeitsverlust und erheblichen Einsparungen bei der Experimentierzeit verwendet werden können. Wir verwenden ein Meta-Learning-Framework, das einen einfachen IBL-Algorithmus mit einer Ranking-Methode kombiniert. Wir zeigen, dass sich die Ergebnisse signifikant verbessern, indem eine Reihe ausgewählter Maße verwendet werden, die Datenmerkmale darstellen, die es ermöglichen, die Leistung des Algorithmus vorherzusagen. Unsere Ergebnisse zeigen auch, dass die Wahl der Ranking-Methode einen geringeren Einfluss auf die Qualität der Empfehlungen hat. Schließlich stellen wir Situationen vor, die den Vorteil veranschaulichen, eine Empfehlung als Rangfolge der Kandidatenalgorithmen bereitzustellen, anstatt als der einzelne Algorithmus, von dem erwartet wird, dass er am besten funktioniert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36131-6_9 a93fca6d087ac34d135c1c64143ad3df;de;;;7.4.;;;Ausbildungsmodus für angewandte Talente in der Fachrichtung Tourismusmanagement unter künstlicher Intelligenz In den letzten Jahren wurden mit der rasanten Entwicklung von KI, Deep Learning, mobilem Internet und anderen Technologien Produkte im Zusammenhang mit KI an vielen Orten wie unserer Arbeit, unserem Leben, unserem Studium usw. das Leben ist bequemer und bequemer. Es ist ein wichtiges Problem, ob Hochschulen und Universitäten den Schnellzug des KI-Zeitalters erreichen, ihren Talenttrainingsmodus verbessern, die Unterrichtsqualität verbessern, die allgemeine Wettbewerbsfähigkeit der Schule verbessern und mehr herausragende Talente für die Gesellschaft transportieren können. Daher können wir durch praktische Experimente an zwei Berufsklassen an einer Universität in unserer Stadt wissen, dass KI-Technologie Studenten helfen kann, ihre akademischen Leistungen in gewissem Maße zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-79200-8_9 1ecf5e1e5f162fc06886c00f587e3d08;de;;;7.4.;;;Verbesserung der Mensch-Maschine-Interaktion mit einem digitalen Zwilling Das Entladen von Containern ist eine mühsame Aufgabe, die immer weniger Arbeiter zu übernehmen bereit sind. (teil-)autonome Systeme sind bereits verfügbar, aber aufgrund einer starren Autonomie auf klar definierte Szenarien beschränkt. Dieser Beitrag konzentriert sich auf ein adaptives Konzept für einen menschzentrierten halbautonomen Entladeprozess. Zunächst werden vorhandene Systeme hinsichtlich ihres Autonomiegrades und der Einbindung des menschlichen Bedieners analysiert. Anschließend wird ein Konzept vorgestellt, das den digitalen Zwilling und die adaptive Automatisierung integriert. Die Nutzung einer digitalen Darstellung mit sich anpassender Autonomie ermöglicht es, die Stärken von Mensch und Maschine zu vereinen. Im vorgestellten System nutzt der Bediener seinen kognitiven Vorteil, um gezielt zu unterstützen, wenn die Maschine an ihre Grenzen stößt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-44783-0_49 401064e3d6439c721d59cc9c0ded1333;de;;;7.4.;;;Analyse von Satellitenbildern zur Bewertung von Betriebsschäden in Notfallsituationen Bei einer größeren Katastrophe stellt sich die Frage, wie der Schaden rechtzeitig abgeschätzt werden kann, um den Entscheidungsfindungsprozess und die Hilfsmaßnahmen der lokalen Behörden oder humanitären Teams zu unterstützen. In diesem Artikel betrachten wir den Einsatz von Machine Learning und Computer Vision auf Fernerkundungsbildern, um die Zeiteffizienz der Bewertung beschädigter Gebäude in Katastrophengebieten zu verbessern. Wir schlagen einen allgemeinen Arbeitsablauf vor, der in verschiedenen Anwendungen des Katastrophenmanagements nützlich sein kann, und demonstrieren die Verwendung des vorgeschlagenen Arbeitsablaufs für die Bewertung der durch die Waldbrände in Kalifornien im Jahr 2017 verursachten Schäden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-93931-5_25 6edb86731a32d3b0ba4e1eb4e87437fe;de;;;7.4.;;;Optimieren der Stimmungsanalyse für Kurznachrichtentexte für die Forensik mobiler Geräte Mobile Geräte sind heute das dominierende Medium für die Kommunikation. Menschen drücken verschiedene Emotionen aus, wenn sie mit anderen kommunizieren, und diese Kommunikationen können analysiert werden, um ihre emotionalen Neigungen abzuleiten. Natürliche Sprachverarbeitungstechniken wurden verwendet, um die Stimmung in Texten zu analysieren. Die meisten Untersuchungen zur Stimmungsanalyse im Kurznachrichtenbereich (SMS und Twitter) berücksichtigen jedoch nicht das Vorhandensein von Wörtern, die nicht im Wörterbuch enthalten sind. Dieses Kapitel untersucht das Problem der Sentimentanalyse in Kurznachrichten und die Analyse emotionaler Schwankungen eines Individuums im Zeitverlauf. Dies bietet forensischen Analysten eine zusätzliche Informationsebene bei der Untersuchung von Verdächtigen. Der Algorithmus der maximalen Entropie wird verwendet, um Kurznachrichten als positiv, negativ oder neutral zu klassifizieren. Nicht-Wörterbuch-Wörter werden normalisiert und der Einfluss der Normalisierung und anderer Merkmale auf die Klassifizierung wird bewertet. Tatsächlich verbessert dieser Ansatz den Klassifizierungs-F-Score im Vergleich zu früheren Arbeiten. Es wurde ein forensisches Tool mit einer intuitiven Benutzeroberfläche entwickelt, um die Extraktion und Visualisierung von Sentiment-Informationen zu interessierenden Personen zu unterstützen. Insbesondere bietet das Tool einen verbesserten Ansatz zur Identifizierung von Stimmungsschwankungen basierend auf Kurznachrichten, die von Probanden gesendet werden. Die vom Tool bereitgestellte Zeitachsenansicht hilft dabei, Phasen emotionaler Instabilität zu ermitteln, die möglicherweise einer weiteren Untersuchung bedürfen. Darüber hinaus stellt das für die Indexierung verwendete Apache Solr-System sicher, dass ein Forensik-Analyst die gewünschten Informationen mithilfe von facettierten Suchanfragen schnell und effizient abrufen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-46279-0_4 1bd171585ed0cab3e8b4f15e5867da6d;de;;;7.4.;;;Brustkrebsprognose mit maschinellen Lerntechniken und genetischem Algorithmus: Experimentieren Sie mit sechs verschiedenen Datensätzen Die in dieser Forschung verwendete Strategie besteht darin, die besten Merkmale unter Verwendung des genetischen Algorithmus aus verschiedenen Brustkrebs-Datensätzen auszuwählen, um mit maschinellen Lernalgorithmen bessere Vorhersageergebnisse zu erzielen. Diese Forschung umfasst zwei Hauptphasen. Eine ist die Merkmalsauswahl mithilfe des genetischen Algorithmus (GA) und die zweite ist die Brustkrebsvorhersage mithilfe der logistischen Regression (LR) und der k-Nearest Neighbor-Techniken (k-NN).;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5258-8_65 ca66d477106c1e38d6c45dc9fcd9f32a;de;;;7.4.;;;CybSecMLC: Eine vergleichende Analyse zur Erkennung von Cyber-Sicherheitsangriffen mithilfe von Klassifikatoren für maschinelles Lernen Mit dem schnellen Wachstum des Internets und der auf Smartphones und der drahtlosen Kommunikation basierenden Anwendungen nahmen auch neue Bedrohungen, Schwachstellen und Angriffe zu. Die Angreifer nutzen immer Kommunikationskanäle, um Sicherheitsmerkmale zu verletzen. Die schnell wachsende Zahl von Sicherheitsangriffen und böswilligen Aktivitäten fügt der Gesellschaft großen Schaden zu. Auch die Netzwerkadministratoren und Intrusion Detection Systeme (IDS) konnten die Möglichkeit von Netzwerkangriffen nicht erkennen. Es werden jedoch viele Sicherheitsmechanismen und -tools entwickelt, um die Schwachstellen und Risiken der drahtlosen Kommunikation zu erkennen. Neben Machine Learning Classifiers (MLCs) auch praktische Ansätze zur Erkennung von Intrusion-Attacken. Diese MLCs unterschieden die Netzwerkverkehrsdaten in zwei Teile, von denen einer anormal und der andere regelmäßig ist. Viele bestehende Systeme arbeiten an der eingehenden Analyse spezifischer Angriffe in Netzwerk-Intrusion-Detection-Systemen. Dieses Papier präsentiert eine umfassende und detaillierte Untersuchung einiger vorhandener MLCs zur Identifizierung von Einbrüchen in den drahtlosen Netzwerkverkehr. Insbesondere analysieren wir die MLCs in Bezug auf verschiedene Dimensionen wie die Funktionsauswahl und Ensemble-Techniken, um Intrusion Detection zu identifizieren. Schließlich haben wir MLCs anhand des „NSL-KDD“-Datensatzes bewertet und ihre Wirksamkeit anhand einer detaillierten experimentellen Entwicklung zusammengefasst.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0419-5_19 7ccd01d5a166d5afbdd08aa46d18da09;de;;;7.4.;;;Ein verteilter Ansatz zur Ermöglichung eines die Privatsphäre wahrenden modellbasierten Klassifikatortrainings Dieses Papier schlägt einen neuartigen Ansatz für das datenschutzerhaltende verteilte modellbasierte Klassifikatortraining vor. Unser Ansatz ist ein wichtiger Schritt zur Unterstützung von anpassbaren Datenschutzmodellen und -schutz. Es besteht aus drei großen Schritten. Zuerst lernt jede Datenstelle unabhängig ein schwaches Konzeptmodell (d. h. einen lokalen Klassifikator) für ein gegebenes Datenmuster oder Konzept unter Verwendung ihrer eigenen Trainingsmuster. Ein;-;-;-;https://link.springer.com/article/10.1007/s10115-008-0167-x 2b6d9e32a715cc1ddf372ef5412e9d41;de;;;7.4.;;;Rekonstruktion der Klassifikation zur Verbesserung der Machine-Learning-basierten Erkennung von Netzwerkintrusionen durch Umfassen von Mehrdeutigkeiten Network Intrusion Detection Systems (IDS) haben die Profile normaler Netzwerkaktivitäten effizient identifiziert, Einbruchsmuster extrahiert und verallgemeinerte Modelle erstellt, um (un)bekannte Angriffe mit einer Vielzahl von Ansätzen des maschinellen Lernens zu bewerten. Trotz der Effektivität von auf maschinellem Lernen basierendem IDS war es immer noch eine Herausforderung, hohe Fehlalarme aufgrund von Datenfehlklassifizierungen zu reduzieren. In diesem Artikel schlagen wir unter Verwendung mehrerer Entscheidungsmechanismen eine neue Klassifizierungsmethode vor, um falsch klassifizierte Daten zu identifizieren und sie dann in drei verschiedene Klassen zu klassifizieren, die als bösartiger, gutartiger und mehrdeutiger Datensatz bezeichnet werden. Mit anderen Worten, der mehrdeutige Datensatz enthält einen Großteil des falsch klassifizierten Datensatzes und ist daher aufgrund des mangelnden Vertrauens für die Datenklassifizierung im Modell am informativsten für die Verbesserung des Modells und der Anomalieerkennung. Wir evaluieren unseren Ansatz mit den jüngsten realen Netzwerkverkehrsdaten, Kyoto2006+-Datensätzen, und zeigen, dass der mehrdeutige Datensatz 77,2% der zuvor falsch klassifizierten Daten enthält. Die Neubewertung des mehrdeutigen Datensatzes reduziert effektiv die Rate falscher Vorhersagen mit minimalem Overhead und verbessert die Genauigkeit um 15 %.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72725-3_13 908992c75e667feebf46354988f8c580;de;;;7.4.;;;Ein Machine-Learning-Ansatz zur Analyse und Reduzierung von Funktionen auf eine signifikante Zahl für das Umsatzprognosemodell der Mitarbeiter Die Mitarbeiterfluktuation gilt als eines der größten Probleme, mit denen jedes Unternehmen konfrontiert ist. Vor allem, wenn der Mitarbeiter in seinem Arbeitsfeld über fortgeschrittene Fähigkeiten verfügt, droht dem Unternehmen in dieser Zeit ein großer Verlust. Um die wichtigsten Gründe für die Fluktuation von Mitarbeitern herauszufinden, gehen wir vor, indem wir Merkmale ermitteln und maschinelle Lernalgorithmen verwenden, bei denen Merkmale zuvor verarbeitet und reduziert wurden. Wir haben ein neues Modell vorgeschlagen, bei dem bestimmte Attribute der Mitarbeiterfluktuation ausgewählt und entsprechend angepasst wurden. In der ersten Phase unserer Reduktionsmethode wurde der Sequential Backward Selection Algorithm (SBS) verwendet, um die Merkmale von einer höheren Zahl auf eine relativ kleinere signifikante Zahl zu reduzieren. Danach wurden Chi2 und der Random-Forest-Wichtigkeitsalgorithmus zusammen für die zweite Reduktionsphase verwendet, um die gemeinsamen wichtigen Merkmale beider Algorithmen zu bestimmen, die als die wichtigsten Merkmale angesehen werden können, die zu einer Mitarbeiterfluktuation führen. Unsere zweistufige Merkmalsauswahltechnik bestätigt, dass es hauptsächlich drei Merkmale gibt, die für den Austritt eines Mitarbeiters verantwortlich sind. Später wurden diese ausgewählten minimalen Funktionen mit modernsten Algorithmen des maschinellen Lernens getestet, wie Decision Tree, Random Forest, Support Vector Machine, Multi-Layer Perceptron (MLP), K-Nearest Neighbor (kNN) und Gaussian Naive Bayes . Zuletzt wurde das Testergebnis per 3D-Darstellung visualisiert, um die Merkmale zu erfahren, die für den Mitarbeiterumsatz genau relevant sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-01177-2_11 c469a4627365a587a2030f755d9aca94;de;;;7.4.;;;C-DenStream: Verwenden von Domänenwissen in einem Datenstrom Stream-Clustering-Algorithmen sind traditionell so konzipiert, dass sie Streams effizient verarbeiten und sich an die Entwicklung der zugrunde liegenden Population anpassen. Dies erfolgt ohne vorherige Kenntnis der Daten vorauszusetzen. In vielen Fällen ist jedoch ein gewisses Domänen- oder Hintergrundwissen vorhanden, das anstelle der bloßen externen Validierung der Clustering-Ergebnisse zur Steuerung des Clustering-Prozesses herangezogen werden kann. In Nicht-Stream-Daten wird Domänenwissen im Kontext von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04747-3_23 a02600171d2f437ed7eafdaea42c213a;de;;;7.4.;;;Explorative Analyse der handgeschriebenen MNIST-Ziffer für die Modellierung des maschinellen Lernens Dieses Papier ist eine Untersuchung über den MNIST-Datensatz, der eine Teilmenge des NIST-Datenpools ist. Der MNIST-Datensatz enthält handgeschriebene Ziffernbilder, die aus einer größeren Sammlung von NIST-Daten abgeleitet sind, die handgeschriebene Ziffern enthalten. Alle Bilder sind im 28 × 28-Pixel-Wert mit Graustufenformat formatiert. MNIST ist ein handgeschriebenes Ziffernbild, das in vielen führenden Forschungen oft zitiert wurde und somit zu einem Maßstab für Bilderkennungs- und maschinelle Lernstudien geworden ist. Es gab viele Versuche von Forschern, die geeigneten Modelle und Vorverarbeitungsmethoden zu identifizieren, um den MNIST-Datensatz zu klassifizieren. Dem Vergleich binärer und normalisierter vorverarbeiteter Datensätze und deren Auswirkungen auf die Leistung eines Modells wurde jedoch nur sehr wenig Aufmerksamkeit geschenkt. Die Ergebnisse der Vorverarbeitung werden dann als Eingabedatensätze für die Modellierung des maschinellen Lernens präsentiert. Die trainierten Modelle werden mit 4200 Stichproben über vier verschiedene Modelle validiert. Die Ergebnisse haben gezeigt, dass das normalisierte Bild mit dem Convolution Neural Network-Modell mit einer Genauigkeit von 99,4% am besten abschneidet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3441-2_11 ca5d67f3d9de1e90ad20a4628117f846;de;;;7.4.;;;Wirkung maschineller Lernmethoden auf die Vorhersage der Gesamtüberlebenszeit von NSCLC basierend auf der Radiomics-Analyse Es sollte die Wirkung von maschinellen Lernmethoden auf die Vorhersage des Gesamtüberlebens (OS) für nicht-kleinzelligen Lungenkrebs basierend auf der Analyse der Radiomics-Eigenschaften untersucht werden.;-;-;-;https://link.springer.com/article/10.1186/s13014-018-1140-9 7bfe1c8b2d57597f2fdef63e0cfe8d97;de;;;7.4.;;;Eine kostensensitive Verlustfunktion für maschinelles Lernen Beim Training von Modellen für maschinelles Lernen werden üblicherweise Verlustfunktionen angewendet, um die Qualität und Leistungsfähigkeit der Modelle zu beurteilen. Herkömmliche Verlustfunktionen vernachlässigen in der Regel den kostensensitiven Verlust in unterschiedlichen Intervallen, obwohl die Sensitivität für die Modelle eine wichtige Rolle spielt. Dieses Papier schlägt eine kostensensitive Verlustfunktion vor, die auf einer Intervallfehlerbewertungsmethode (IEEM) basiert. Unter Verwendung der Schlüsselpunkte von gradstrukturierten Intervallen werden zwei Methoden vorgeschlagen, um die Verlustfunktion zu konstruieren: eine stückweise Funktion, die durch Schlüsselpunkte verknüpft wird, und eine Kurvenfunktion, die durch Schlüsselpunkte angepasst wird. Die vorgeschlagene Funktion wurde gegen drei verschiedene Verlustfunktionen basierend auf einem neuronalen BP-Netz bewertet. Die Vergleichsergebnisse zeigen, dass die vorgeschlagene Verlustfunktion basierend auf IEEM die beste Vorhersage der PM;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-91455-8_22 5c099de4ddb9794c55bb04786d35cd7e;de;;;7.4.;;;Themenmodellierung mit minimierten typisierten Abhängigkeitsbeziehungen Topic Modeling ist ein mächtiges Werkzeug, um versteckte thematische Strukturen von Dokumenten aufzudecken. Viele konventionelle Themenmodelle stellen Dokumente als Wortbeutel dar, wobei die wichtigen sprachlichen Strukturen von Dokumenten vernachlässigt werden. In diesem Artikel schlagen wir ein neuartiges Themenmodell vor, das Textdokumente mit zusammengebrochenen typisierten Abhängigkeitsbeziehungen anreichert, um syntaktische und semantische Abhängigkeiten zwischen aufeinanderfolgenden und nicht aufeinanderfolgenden Wörtern von Textdokumenten effektiv zu erfassen. Darüber hinaus schlagen wir vor, kohärente Themenzuordnungen für konzeptionell ähnliche Wörter durch Verallgemeinerung von Wörtern mit ihren Synonymen zu erzwingen. Unsere experimentellen Studien zeigen, dass das vorgeschlagene Modell und die vorgeschlagene Strategie das ursprüngliche LDA-Modell und das Bigram-Topic-Modell in Bezug auf Ratlosigkeit übertreffen und unsere Leistung in Bezug auf Stabilität, Kohärenz und Genauigkeit mit anderen Modellen vergleichbar ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06605-9_13 df1dd5d5674a2990cf2b5c3da191f5f1;de;;;7.4.;;;Mining Bayes-Netzwerke aus Direktmarketing-Datenbanken mit fehlenden Werten Das Auffinden von Wissen aus riesigen Datenbanken mit fehlenden Werten ist ein herausforderndes Problem im Data Mining. In diesem Beitrag wird ein neuartiger Hybridalgorithmus zum Lernen von Wissen diskutiert, das in Bayesian Networks repräsentiert wird. Der neue Algorithmus kombiniert einen evolutionären Algorithmus mit dem Expectation-Maximization (EM)-Algorithmus, um das Problem des Hängenbleibens in suboptimalen Lösungen zu überwinden, das bei den meisten bestehenden Lernalgorithmen auftritt. Die experimentellen Ergebnisse der Datenbanken, die aus mehreren Benchmark-Netzwerkstrukturen generiert wurden, veranschaulichen, dass unser System einige hochmoderne Algorithmen übertrifft. Wir wenden unser System auch auf ein Direktmarketingproblem an und vergleichen die Leistung der entdeckten Bayesschen Netze mit den Antwortmodellen anderer Algorithmen. Im Vergleich übertreffen die von unserem System gelernten Bayesschen Netze andere.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-95978-6_2 e44e36f7d56d635949afbe859f5c0038;de;;;7.4.;;;Vorhersage der Fragequalität mit rekurrenten neuronalen Netzen Diese Studie untersucht, inwieweit maschinelle Lerntechniken verwendet werden können, um die Fragequalität vorherzusagen. Zuvor wurde ein auf Textkomplexitätsindizes basierender Algorithmus entwickelt, um die Fragequalität zu bewerten, um Feedback zu Fragen zu geben, die von Schülern innerhalb von iSTART (einem intelligenten Tutorsystem, das Lesestrategien vermittelt) erstellt wurde. In dieser Studie wurden 4.575 Fragen von menschlichen Bewertern basierend auf ihrer entsprechenden Tiefe kodiert, wobei die Fragen in vier Kategorien eingeteilt wurden: 1-sehr flach bis 4-sehr tief. Hier schlagen wir einen neuartigen Ansatz zur Bewertung der Fragequalität innerhalb dieses Datensatzes vor, der auf rekurrenten neuronalen Netzen (RNNs) und Worteinbettungen basiert. Die Experimente bewerteten mehrere RNN-Architekturen unter Verwendung von GRU-, BiGRU- und LSTM-Zelltypen unterschiedlicher Größe und unterschiedlicher Worteinbettungen (d. h. FastText und Glove). Das genaueste Modell erreichte eine Klassifikationsgenauigkeit von 81,22%, die die bisherigen Vorhersageergebnisse mit lexikalischen Komplexitätsindizes übertrifft (Genauigkeit = 41,6%). Diese Ergebnisse sind vielversprechend und haben Auswirkungen auf die zukünftige Entwicklung automatisierter Bewertungstools in computerbasierten Lernumgebungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-93843-1_36 860e41479143f90ba9c991500b26fbbd;de;;;7.4.;;;Auf dem Weg zu einem groß angelegten praktischen Churn-Modell für Prepaid-Mobilfunkmärkte Communication Service Provider (CSPs) konzentrieren sich aufgrund des harten Wettbewerbs, des Preiskampfs und der hohen Akquisitionskosten für Teilnehmer zunehmend auf effektive Churn-Management-Strategien. Obwohl es viele bestehende Studien gibt, die Data-Mining-Techniken zum Erstellen von Modellen zur Abwanderungsvorhersage verwenden, ist es in der Praxis schwierig, Aspekte wie große Datenmengen und hohe Dimensionalität von Teilnehmerdaten zu berücksichtigen. In diesem Beitrag stellen wir ein groß angelegtes Churn-Management-System vor, das Dimensionsreduktion und ein Entscheidungsbaum-Ensemble-Lernen verwendet. Wir betrachten Trends des Abonnentenverhaltens sowie aggregierte Key Performance Indicators (KPIs) als Merkmale und verwenden eine Kombination von Merkmalsauswahlstrategien zur Reduzierung der Dimensionalität. Wir berichten über positive Ergebnisse aus der Bewertung unseres Modells an einem realen Datensatz, der aus etwa 5 Millionen aktiven Abonnenten eines beliebten asiatischen CSP besteht. Die Modellausgabe wird als umsetzbares Lift-Diagramm dargestellt, das Marketingfachleuten bei der Entscheidung über die Zielabonnentenbasis für Kundenbindungskampagnen hilft. Wir präsentieren auch die praktischen Aspekte bei der Produktion unseres Modells mit der Apache Oozie Workflow-Engine.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-62701-4_8 56e04d7e37e6fcb007bdd55fcab3c10d;de;;;7.4.;;;Aufspaltungsmethoden zur Induktion von Entscheidungsbäumen: Eine Untersuchung der relativen Leistung zweier entropiebasierter Familien Die Induktion von Entscheidungsbäumen (DT) gehört zu den beliebtesten Data-Mining-Techniken. Ein wichtiger Bestandteil der DT-Induktionsalgorithmen ist die Aufspaltungsmethode, wobei die am häufigsten verwendete Methode auf der Familie der bedingten Entropie (CE) basiert. Es ist jedoch bekannt, dass es keine einzelne Aufteilungsmethode gibt, die die beste Leistung für alle Probleminstanzen liefert. In diesem Papier untersuchen wir die relative Leistung der Familie der bedingten Entropie und einer anderen Familie, die auf dem Maß der Klassenattribute Mutual Information (CAMI) basiert. Unsere Ergebnisse legen nahe, dass, während einige Datensätze nicht auf die Wahl der Aufteilungsmethoden reagieren, andere Datensätze sehr empfindlich auf die Wahl der Aufteilungsmethoden reagieren. Einige Methoden der CAMI-Familie können beispielsweise für Datensätze mit nominalen Prädiktorattributen besser geeignet sein als die beliebte Gain Ratio (GR)-Methode und mit der GR-Methode für Datensätze konkurrieren, bei denen alle Prädiktorattribute numerisch sind. Da im Voraus nie bekannt ist, welche Aufteilungsmethode für einen bestimmten Datensatz zur besten DT führt, und angesichts der relativ guten Leistung der CAMI-Methoden scheint es angebracht, vorzuschlagen, dass Aufteilungsmethoden aus der CAMI-Familie in das Data Mining einbezogen werden sollten Werkzeugsets.;-;-;-;https://link.springer.com/article/10.1007/s10796-006-8779-8 0d21fc3217bfca2a53b5962abc1cc2cf;de;;;7.4.;;;Datengesteuerte Simulation für die Augmented Surgery Um während der Operation eine erweiterte Ansicht eines Organs zu erstellen, ist ein biomechanisches Modell mit geeigneten Materialparametern und Randbedingungen unerlässlich, das in der Lage ist, patientenspezifische Eigenschaften zu berücksichtigen. Die Anpassung an die Anatomie des Patienten erfolgt durch die Nutzung des bildreichen Kontexts, der für unsere Anwendungsdomäne spezifisch ist. Während beispielsweise Informationen über die Organform präoperativ gewonnen werden können, können andere patientenspezifische Parameter erst intraoperativ ermittelt werden. Zu diesem Zweck entwickeln wir datengesteuerte Simulationen, die Informationen aus einem Strom medizinischer Bilder nutzen. Solche Simulationen müssen in Echtzeit ablaufen. Zu diesem Zweck haben wir spezielle numerische Methoden entwickelt, die eine Echtzeitberechnung von Finite-Elemente-Simulationen ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-50464-9_5 558d5ec7137c55a7a56a690026a2fe90;de;;;7.4.;;;Data Mining für eine gesunde Zukunft mit der Implementierung von Software-Projektmanagement-Techniken Im aktuellen Szenario finden wir viele Data-Mining-bezogene Projekte, die verwendet werden. Diese Projekte werden sehr verbreitet und sehr effektiv zur Datenextraktion in der Organisation eingesetzt. Der Einsatz von Data Mining hat in hohem Maße dazu beigetragen, Informationen zu erhalten, wenn die Art des Datenbankabrufs riesig ist. In diesem Artikel sehen wir, wie diese Data-Mining-Projekte mit der Projektmanagement-Technik durchgeführt werden. Die Projektmanagement-Technik macht das Projekt sehr effektiv und sehr effizient durch die richtige Planung des Projekts, die Organisation nach den Zielen, das Controlling oder die Koordination der Projekte. Damit das Projekt die formulierten oder formulierten Ziele erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-81-322-2656-7_31 1ac1736e789267a55f4cd784205ce145;de;;;7.4.;;;Induktion als Vorverarbeitung In den meisten Data-Mining-Anwendungen, bei denen Induktion als primäres Werkzeug zur Wissensextraktion verwendet wird, ist es schwierig, einen vollständigen Satz relevanter Attribute genau zu identifizieren. Die Datenbank der realen Welt, aus der Wissen extrahiert werden soll, enthält normalerweise eine Kombination von relevanten, verrauschten und irrelevanten Attributen. Daher wird die Vorverarbeitung der Datenbank zur Auswahl relevanter Attribute zu einer sehr wichtigen Aufgabe bei der Wissensermittlung und beim Data Mining. Dieses Papier beginnt mit zwei bestehenden Induktionssystemen, C4.5 und HCV, und verwendet eines davon, um relevante Attribute für das andere auszuwählen. Experimentelle Ergebnisse von 12 Standarddatensätzen zeigen, dass die Verwendung der HCV-Induktion für die Auswahl der C4.5-Attribute im Allgemeinen nützlich ist.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48912-6_16 1903c31edd6f672887bfd1610b170d28;de;;;7.4.;;;Vorhersage des neuartigen Coronavirus 2019 mit maschinellen Lernalgorithmen Die Coronavirus-Pandemie von 2019, die im Dezember 2019 begann, die Menschen in Wuhan, China, zu infizieren, hat viele Länder weltweit innerhalb von 4 bis 5 Monaten betroffen. Dies hat die Länder gezwungen, ihre Grenzen zu schließen, was zu einer weltweiten Sperrung führte. Die Weltgesundheitsorganisation hat die Krankheit Anfang März dieses Jahres zur Pandemie erklärt. April 2020, fast 3 Monate seit der Ausbreitung der Krankheit, wurde kein Impfstoff entwickelt und vorbeugende Maßnahmen wie soziale Distanzierung und landesweite Sperrung scheinen die einzige Möglichkeit zu sein, eine weitere Ausbreitung zu verhindern. Die steigende Zahl der Todesopfer weist auf die Notwendigkeit hin, umfangreiche Forschungen durchzuführen, um Ärzten und Regierungen weltweit zu helfen, die schnelle Ausbreitung der Krankheit zu verstehen. Während viele Forschungsarbeiten veröffentlicht wurden, die den Ursprung und den theoretischen Hintergrund der Krankheit erklären, sind weitere Forschungen erforderlich, um bessere Vorhersagemodelle zu entwickeln. Die Daten für das Problem wurden aus den im Rahmen dieser Studie verfügbaren Quellen generiert. Dieses Papier analysiert ausführlich die medizinischen Merkmale von 269 Patienten unter Verwendung verschiedener Techniken des maschinellen Lernens wie KNN, Random Forest, Ridge-Klassifizierer, Entscheidungsbaum, Support-Vektor-Klassifizierer und logistische Regression. Das Papier zielt darauf ab, den Sterblichkeitsstatus einer Person, bei der COVID-19 diagnostiziert wurde, vorherzusagen, indem verschiedene Faktoren wie Alter, Symptome usw. bewertet werden. Die experimentellen Ergebnisse der Forschung würden Ärzten helfen, Patienten mit einem höheren Risiko zu identifizieren und zusätzliche medizinische Behandlung zu benötigen. Dadurch wird den Ärzten geholfen, sie zu priorisieren und ihre Überlebenschancen zu erhöhen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0708-0_24 8dc8c310c970a7003e0a1b7814a4c510;de;;;7.4.;;;Probabilistische induktive Logikprogrammierung Probabilistische induktive Logikprogrammierung aka. Das statistische relationale Lernen befasst sich mit einer der zentralen Fragen der künstlichen Intelligenz: der Integration von probabilistischem Denken mit maschinellem Lernen und Repräsentationen erster Ordnung und relationaler Logik. Es wurde eine reiche Vielfalt unterschiedlicher Formalismen und Lerntechniken entwickelt. Eine vereinheitlichende Charakterisierung der zugrunde liegenden Lernsettings fehlt jedoch bislang.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78652-8_1 04f0608f6d9f4d154c2d9dcb299b8cba;de;;;7.4.;;;Einsatz von Competitive Intelligence zur Entwicklung eines automatisierten Visa-Genehmigungssystems Durch den Einsatz von Competitive Intelligence-Techniken wurde die Notwendigkeit eines automatisierten Visa-Genehmigungssystems erkannt, um einfache Visa-Entscheidungen zu rationalisieren, die Analysten mehr Zeit für problematische Anträge lässt. Ein solches System erleichtert die Erfassung und Nutzung der gewonnenen Erkenntnisse und fördert den Wissensaustausch zur Unterstützung des globalen Terrorismusrisikomanagements. Die Automatisierung von Visagenehmigungen wirft jedoch Fragen in Bezug auf Menschenrechte, Datenquantität und -qualität, Modellwahl und korrekte Interpretation kontextualisierter Ergebnisse auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35617-4_3 7171b9f0655889006028c6990284537f;de;;;7.4.;;;Mining von Daten durch abfragebasierte Fehlerausbreitung Neuronale Netze haben den Vorteil der hohen Toleranz gegenüber verrauschten Daten sowie der Fähigkeit, nicht trainierte Muster zu klassifizieren. Bei der Anwendung im Data Mining ist die Zeit, die benötigt wird, um Modelle aus großen Datensätzen zu induzieren, eine der wichtigsten Überlegungen. In diesem Papier stellen wir ein abfragebasiertes Lernschema vor, um die Leistung neuronaler Netze beim Data Mining zu verbessern. Die Ergebnisse zeigen, dass der vorgeschlagene Algorithmus die Kardinalität des Trainingssatzes signifikant reduzieren kann. Darüber hinaus kann die Qualität der Trainingsergebnisse sichergestellt werden. Unsere zukünftige Arbeit besteht darin, dieses Konzept auf andere Data-Mining-Schemata und Anwendungen anzuwenden.;-;-;-;https://link.springer.com/chapter/10.1007/11539087_162 3ed14809595078d5ffd6309332950a62;de;;;7.4.;;;Ein monotoner linearer Online-Algorithmus für die hierarchische agglomerative Klassifikation Wir beginnen mit einem Algorithmus für die lineare hierarchische Online-Klassifizierung für mehrdimensionale Daten unter Verwendung eines Schwerpunktaggregationskriteriums. Nachdem wir einige reale Online-Einstellungen evoziert haben, wo es verwendet werden kann, analysieren wir es mathematisch im Rahmen der Lance-Williams-Algorithmen und beweisen, dass es keine nützlichen Eigenschaften hat: Es ist weder monoton noch platzsparend . Um seine Online-Fähigkeiten zu nutzen, modifizieren wir es und zeigen, dass es monoton wird. Obwohl die interne Ähnlichkeit-externe Unähnlichkeitseigenschaft immer noch nicht vorhanden ist, sind die Worst-Case-Klassifizierungen des neuen Algorithmus mit einem zusätzlichen geringen Rechenaufwand korrigierbar, insgesamt gesehen;-;-;-;https://link.springer.com/article/10.1023/B%3AITEM.0000008078.09272.89 00dc0acff545fe69de04bdc3198b2516;de;;;7.4.;;;Automatisierte Klassifizierung von Daten zu tropischen Pflanzenarten basierend auf Techniken des maschinellen Lernens und Blattmerkmalsmessungen Die Identifizierung von Pflanzenarten ist von grundlegender Bedeutung für ein effektives Studium und Management der biologischen Vielfalt. Für die automatische Klassifizierung von Pflanzenarten wird häufig eine Kombination von Blattmerkmalen wie Formen, Textur und Farbe verwendet. In Herbarien sind die für jede Art gesammelten Proben jedoch oft begrenzt und während des Konservierungsschritts verschwinden einige der Merkmalsdetails, was die automatische Klassifizierung zu einer anspruchsvollen Aufgabe macht. In dieser Studie zielten wir darauf ab, maschinelle Lerntechniken zur Automatisierung der Identifizierung von Herbariumarten anhand von Blattmerkmalen anzuwenden, die aus Bildern der Familien Annonaceae, Euphorbiaceae und Dipterocarpaceae extrahiert wurden. Darüber hinaus untersuchten wir die Anwendung der Synthetic Minority Oversampling Technique (SMOTE) zur Verbesserung der Klassifikatorleistung auf den Ungleichgewichtsdatensätzen. Drei maschinelle Lerntechniken, nämlich Linear Discriminant Analysis (LDA), Random Forest (RF) und Support Vector Machine (SVM), wurden mit/ohne SMOTE angewendet. Für Annonaceae-Arten betrug die beste Genauigkeit 56 % nach LDA nach Anwendung von SMOTE. Für Euphorbiaceae lag die beste Genauigkeit bei 79 % bei SVM ohne SMOTE. Für die Inter-Spezies-Klassifizierung zwischen Annonaceae und Euphorbiaceae wurde die beste Genauigkeit von 63 % mit LDA ohne SMOTE erreicht. Eine Genauigkeit von 85 % wurde von LDA für Dipterocarpaceae-Arten erreicht, während eine Genauigkeit von 91 % sowohl von RF als auch von SVM für die Interfamilienklassifizierung zwischen den beiden ausgewogenen Datensätzen von Annonaceae und Euphorbiaceae erreicht wurde. Die Ergebnisse dieser Studie zeigen die Machbarkeit der Verwendung extrahierter Merkmale zum Aufbau genauer Artenidentifikationsmodelle für die Familie Dipterocarpaceae und Euphorbiaceae, jedoch lieferten die verwendeten Merkmale keine guten Ergebnisse für die Familie der Annonaceae. Darüber hinaus gab es keine signifikante Verbesserung, wenn die SMOTE-Technik angewendet wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0058-9_9 c0c99dc6aa4c9f93e83743e1f9fa066d;de;;;7.4.;;;Extrem Vokabeln lernen In Bezug auf die Extremwerttheorie können die ungesehenen neuartigen Klassen in der Open-Set-Erkennung als die Extremwerte von Trainingsklassen angesehen werden. Dieser Idee folgend, führen wir die Margin- und Coverage-Verteilung ein, um die Trainingsklassen zu modellieren. Ein neuartiges visuell-semantisches Einbettungs-Framework – extremes Vokabularlernen (EVoL) wird vorgeschlagen, das EVoL bettet die visuellen Merkmale probabilistisch in den semantischen Raum ein. Insbesondere übernehmen wir das riesige offene Vokabular im semantischen Raum, um den Spielraum und die Abdeckung von Schulungsklassen weiter einzuschränken. Die erlernte Einbettung kann direkt verwendet werden, um überwachtes Lernen, Zero-Shot-Learning und Open-Set-Erkennung gleichzeitig zu lösen. Experimente mit zwei Benchmark-Datensätzen demonstrieren die Wirksamkeit des vorgeschlagenen Rahmens gegenüber herkömmlichen Methoden.;-;-;-;https://link.springer.com/article/10.1007/s11704-019-8249-3 98dedf543d4fd8260083e40d37ca6c02;de;;;7.4.;;;Zu informationstheoretischen Maßen der Attributbedeutung Ein Attribut wird beim Data Mining als wichtig erachtet, wenn es die Datenbank so partitioniert, dass bisher unbekannte Regelmäßigkeiten beobachtbar sind. Um die Bedeutung eines Attributs zu quantifizieren, wurden viele informationstheoretische Maßnahmen angewendet. In diesem Papier fassen wir diese Maßnahmen zusammen und analysieren sie kritisch.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48912-6_18 19318eaf35c4bf9ada89dcb49a2ab133;de;;;7.4.;;;Simulierte Schüler für maschinelles Lernen verwenden In diesem Papier stellen wir vor, wie simulierte Schüler generiert wurden, um eine große Menge an gekennzeichneten Daten zum Trainieren und Testen eines neuronalen Netzwerk-basierten Fuzzy-Modells des Schülers in einer intelligenten Lernumgebung (ILE) zu erhalten. Die simulierten Schüler wurden durch Modifizieren der Aufzeichnungen echter Schüler generiert und von einer Gruppe erfahrener Lehrer in Bezug auf ihre Lernstilkategorie klassifiziert. Die experimentellen Ergebnisse waren ermutigend, ähnlich wie die Klassifizierungen von Experten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30139-4_109 0ee2e582fd98a67777cf9ef75f57fbca;de;;;7.4.;;;Einige Vorschläge zur Entwicklung von KI-Tools für die räumliche Modellierung und Analyse in GIS In den letzten 5 Jahren wurden Methoden der Künstlichen Intelligenz (KI) entwickelt, die auf viele praktische Probleme anwendbar sind. Der Beitrag befasst sich mit einigen der aktuellen und potenziellen Anwendungen von KI im Bereich der GIS-relevanten Raumanalyse und -modellierung. Von besonderer Bedeutung ist hier die Entwicklung von Datenexplorationswerkzeugen zur Musterbeschreibung, Beziehungssuche und Modellierung. Der Artikel gibt einen Überblick über einige der anwendbaren heuristischen Such-, künstlichen Lebens-, genetischen Optimierungs- und Neurocomputing-Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-77500-0_2 e07aecfa8254e340e60a6dd55e6c671d;de;;;7.4.;;;Forschung zur semantischen Messung in der Co-Wort-Analyse Mit dem Ziel, Probleme des Phänomens „gleiche Menge mit unterschiedlichen Qualitäten“ und den Mangel an Semantik in gleichzeitig auftretenden Begriffen zu behandeln, schlug dieser Artikel eine neue semantische Messmethode in der Co-Wort-Analyse vor. Die Methode verlieh zunächst Dokumenteinheiten basierend auf der Pointwise Mutual Information (PMI) Methode unterschiedliche Gewichtungen und erweiterte sie dann auf den Generierungsprozess des Latent Dirichlet Allocation (LDA) Modells, um Kernschlüsselwörter zu extrahieren. Dann wurde das Wort-2vec-Modell verwendet, um die Top-N-Schlüsselwörter in niedrigdimensionale Wertverteilungen umzuwandeln, und die sematische Korrelation zwischen den Schlüsselwörtern wurde basierend auf der Länge der Fenster berechnet. Schließlich wurden Daten aus dem Bereich „Deep Learning“ verwendet, um die Wissenschaftlichkeit und Wirksamkeit der Methode zu überprüfen. Vergleicht man die Ergebnisse der allgemeinen Co-Wort-Analyse mit unserer vorgeschlagenen Methode in Bezug auf Clusteranalyse, Netzwerkparameter, Verteilungsstrukturen und andere Aspekte, können wir feststellen, dass unsere Methode wissenschaftlich und effektiv ist, wenn es um die Berücksichtigung verschiedener Machbarkeiten von Begriffen und ihrer semantischen Korrelationen geht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-78105-1_45 1115e774c972ba5029f823175090af94;de;;;7.4.;;;Data Mining mit historischer Erfassung in kognitiven Funknetzwerken Cognitive Radio Networks (CRNs) sind eines der heißesten Themen in der drahtlosen Kommunikation, bei denen das Cognitive Radio (CR) erforderlich ist, um die Spektrumszustände von drahtlosen Kanälen intelligent und genau zu erfassen. Daher schlugen einige Arbeiten vor, die Theorie der künstlichen Intelligenz in CRNs zu verwenden, um ihre Intelligenz zu fördern. Um genaue Ergebnisse der Spektrumserfassung zu erhalten, tastet CR das drahtlose Signal häufig ab. Darüber hinaus kann, wie wir wissen, der Zustand des drahtlosen Kanals in verschiedenen Zeitschlitzen gleich sein. Daher ist es notwendig, die historischen Erfassungsdaten zu verwenden, um die Unsicherheit aktueller Erfassungsdaten zu reduzieren und somit die Spektrumserfassungsleistung zu verbessern. Inzwischen wurde der Hierarchical Dirichlet Process (HDP) im Bereich der künstlichen Intelligenz vorgeschlagen, um ein automatisches Datenclustering zu realisieren, das verwendet werden kann, um die historischen Erfassungsdaten mit verschiedenen versteckten Kanalzuständen zu clustern und einen Konsensspektrumszustand innerhalb jedes Clusters abzuleiten. In diesem Papier betrachten wir zunächst kurz CRNs bzw. HDP. Dann diskutieren wir die mögliche Implementierung von HDP über CRN, insbesondere bei der Spektrumserfassung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54924-3_52 9c445ce58ffa8dd2322df9c002d5a83c;de;;;7.4.;;;Wie trainierst du dein Modell vor? Vergleich verschiedener Pre-Training-Modelle für die Beantwortung biomedizinischer Fragen Die Verwendung von Deep-Learning-Modellen für kleine Datensätze würde zu einer Überanpassung führen. Um dieses Problem zu überwinden, wurde der Prozess des Vortrainierens eines Modells und dessen Feinabstimmung auf den kleinen Datensatz in Bereichen wie der Bildverarbeitung ausgiebig verwendet. Ähnlich kann für die Beantwortung von Fragen ein Vortraining und eine Feinabstimmung auf verschiedene Weise erfolgen. Üblicherweise werden Leseverständnismodelle für das Vortraining verwendet, aber wir zeigen, dass andere Arten des Vortrainings besser funktionieren können. Wir vergleichen zwei Pre-Training-Modelle basierend auf Leseverständnis- und Open-Domain-Frage-Antwort-Modellen und bestimmen die Leistung, wenn sie fein abgestimmt und über BIOASQ-Frage-Antwort-Datensätze getestet werden. Wir finden, dass das offene Frageantwortmodell für diese Aufgabe besser geeignet ist als das Leseverständnismodell.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-43887-6_58 dc99ee7bc9f83b0f4c14663f3c3ac672;de;;;7.4.;;;Empfehlung des Clustering-Algorithmus: Ein Meta-Learning-Ansatz Meta-Learning ist eine Technik, die darauf abzielt zu verstehen, welche Arten von Algorithmen welche Art von Problemen lösen. Beim Clustering hingegen wird ein Datensatz basierend auf den Ähnlichkeiten der Objekte in Gruppen unterteilt, ohne dass Vorkenntnisse über die Labels der Objekte erforderlich sind. Der vorliegende Beitrag schlägt den Einsatz von Meta-Learning vor, um Clustering-Algorithmen basierend auf der Merkmalsextraktion von unbeschrifteten Objekten zu empfehlen. Die Merkmale der Clustering-Probleme werden zusammen mit dem Ranking verschiedener Algorithmen bewertet, damit das Meta-Lernsystem die besten Algorithmen für ein neues Problem genau empfehlen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35380-2_18 0db5539fc90f8a6b94ab73fe37175e71;de;;;7.4.;;;Vorhersage von Notfallereignissen: Ein Multi-Task-Multi-Label-Lernansatz Die Vorhersage der Patientenergebnisse ist entscheidend für die Ressourcenplanung in einer Krankenhausnotaufnahme. Wir präsentieren eine Methode zur Nutzung von Längsschnittdaten aus elektronischen Patientenakten (EMR) unter Nutzung mehrerer Patientenergebnisse. Wir unterteilen die EMR-Daten in;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-18038-0_18 c433beea663f343e5ba20db857c80638;de;;;7.4.;;;Forschung zur Parallel-Mining-Methode massiver Bilddaten basierend auf KI Das parallele Mining von Bilddaten basiert auf der Extraktion interner Regeln und Detailmerkmale des Bildes. In Kombination mit der Bildkantenerkennung, um paralleles Mining von Bilddaten zu realisieren, wird ein auf KI basierender paralleler Mining-Algorithmus von Bilddaten vorgeschlagen. Zuerst werden die mehrdimensionalen parallelen Eigenwerte von Bilddaten durch den Graumerkmal-Extraktionsalgorithmus massiver Bilder extrahiert, und dann werden der Vorlagenvergleich und die Informationsfusion von massiven Bilddaten unter Verwendung des Map/Reduce-Modells ausgeführt. Entsprechend den Matching-Ergebnissen werden die parallelen Mining-Ergebnisse von Bilddaten erhalten. Schließlich wird das Simulationsexperiment des parallelen Minings von Bilddaten unter Verwendung der Matlab-Software realisiert. Die Ergebnisse zeigen, dass dieser Algorithmus im Vergleich zu anderen Bilddaten-Parallel-Mining-Algorithmen die Parallel-Mining-Zeit von Bilddaten reduziert und die Geschwindigkeit des Bilddaten-Parallel-Mining verbessert, insbesondere für das parallele Mining von Bilddaten in großem Umfang.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36405-2_13 ee4a9f808c4a574560902b52ba096e4b;de;;;7.4.;;;SpringNet: Transformer und Spring DTW für Zeitreihenprognosen In diesem Beitrag stellen wir SpringNet vor, einen neuartigen Deep-Learning-Ansatz für Zeitreihenprognosen, und demonstrieren seine Leistungsfähigkeit in einer Fallstudie für Solarstromprognosen. SpringNet basiert auf der Transformer-Architektur, verwendet jedoch eine Spring DTW-Aufmerksamkeitsschicht, um den lokalen Kontext der Zeitreihendaten zu berücksichtigen. Erstens erfasst es die lokale Form der Zeitreihen mit Spring DTW-Aufmerksamkeitsschichten, die sich mit Datenfluktuationen befassen. Zweitens verwendet es eine Batch-Version des Spring DTW-Algorithmus für eine effiziente Berechnung auf der GPU, um Anwendungen auf große Zeitreihendaten zu erleichtern. Wir evaluieren die Leistung von SpringNet umfassend an zwei großen Solarstrom-Datensätzen und zeigen, dass SpringNet eine effektive Methode ist, die die hochmodernen DeepAR- und LogSparse Transformer-Methoden übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63836-8_51 510e4a77d90a3ecf6816d426998630da;de;;;7.4.;;;Ein beaufsichtigter Lernrahmen: mithilfe von Assessments Schüler, bei denen das Risiko besteht, aus einem MOOC abzubrechen Sowohl Educational Data Mining als auch Learning Analytics zielen darauf ab, Lernende zu verstehen und Lernprozesse von Bildungseinrichtungen wie Moodle, einem Lernmanagementsystem (LMS), zu optimieren. Die Analyse in einem LMS umfasst viele verschiedene Aspekte: das Auffinden von Schülern, bei denen das Risiko besteht, einen Kurs abzubrechen, oder die Identifizierung von Schülern mit Schwierigkeiten vor den Prüfungen. Somit gibt es mehrere Vorhersagemodelle, die untersucht werden können. Die Vorhersagemodelle können auch auf den Kurs abzielen. Wird diese Aktivitätsbewertung beispielsweise die Lernenden einbeziehen? Um die Auswertung und Verwendung von Vorhersagemodellen in Moodle zu erleichtern, abstrahieren wir die relevantesten Elemente von Vorhersagemodellen und entwickeln ein Analyse-Framework für Moodle. Neben dem Software-Framework präsentieren wir auch ein Fallstudienmodell, das auf Bewertungen basierende Variablen verwendet, um das Risiko eines Abbruchs eines massiven offenen Online-Kurses vorherzusagen, der von 2013 bis 2018 achtmal angeboten wurde, darunter insgesamt 46.895 Studierende . Ein neuronales Netz wird mit Daten aus vergangenen Kursen trainiert und das Framework generiert Erkenntnisse über gefährdete Studierende in laufenden Kursen. Vorhersagen werden dann nach dem ersten, zweiten und dritten Quartal des Kurses erstellt. Die durchschnittliche Genauigkeit, die wir erreichen, beträgt 88,81 % mit einem F1-Wert von 0,9337 und 73,12 % der Fläche unter der ROC-Kurve.;-;-;-;https://link.springer.com/article/10.1007/s12528-019-09230-1 bdcb69c797793b5e882c8d1539745f5d;de;;;7.4.;;;eRules: Ein modularer adaptiver Klassifikationsregel-Lernalgorithmus für Datenströme Fortschritte bei Hard- und Software im letzten Jahrzehnt ermöglichen die Erfassung, Aufzeichnung und Verarbeitung schneller Datenströme in großem Maßstab. Als Konsequenz aus diesen Fortschritten ist das Forschungsgebiet des Data Stream Mining entstanden, um die Echtzeitanalyse potenziell großer und sich ändernder Datenströme zu bewältigen. Beispiele für Datenströme sind Google-Suchen, Kreditkartentransaktionen, telemetrische Daten und Daten kontinuierlicher chemischer Produktionsprozesse. In einigen Fällen können die Daten durch herkömmliche Data-Mining-Ansätze stapelweise verarbeitet werden. In einigen Anwendungen ist es jedoch erforderlich, die Daten sofort nach der Erfassung in Echtzeit zu analysieren. Solche Fälle sind beispielsweise, wenn der Datenstrom unendlich ist, sich schnell ändert oder einfach zu groß ist, um gespeichert zu werden. Eine der wichtigsten Data-Mining-Techniken für Datenströme ist die Klassifizierung. Dabei wird der Klassifikator in Echtzeit am Datenstrom trainiert und an Konzeptdriften angepasst. Die meisten Datenstromklassifizierer basieren auf Entscheidungsbäumen. In der Data-Mining-Community ist jedoch bekannt, dass es keinen einzigen optimalen Algorithmus gibt. Ein Algorithmus kann bei einem oder mehreren Datensätzen gut funktionieren, bei anderen jedoch schlecht. Dieses Papier stellt vor;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-4739-8_5 34db3596e343f60fd1bd9169199826e6;de;;;7.4.;;;Eine Bias/Varianz-Zerlegung für Modelle mit kollektiver Inferenz Die Bias-/Varianzanalyse ist ein nützliches Werkzeug, um die Leistung von Machine-Learning-Algorithmen zu untersuchen. Herkömmliche Analyse zerlegt Verluste aufgrund von Aspekten des Lernprozesses in Fehler, aber in relationalen Domänen führt der zur Vorhersage verwendete Inferenzprozess eine zusätzliche Fehlerquelle ein.;-;-;-;https://link.springer.com/article/10.1007/s10994-008-5066-6 bb3e0086ef2c0952da00db6c05398668;de;;;7.4.;;;Datensatzerweiterung und beschleunigte Berechnung zur Bildklassifizierung: Ein praktischer Ansatz Der Trainingsdatensatz vieler maschineller Lernalgorithmen für verschiedene Zwecke besteht hauptsächlich aus Bildern. Das größte Hindernis und Rückschlag beim Training dieser Datensätze entsteht in Form der Nichtverfügbarkeit der folgenden drei Merkmale - Datenmenge, Verfügbarkeit von GPUs (Graphic Processing Units) und Hochgeschwindigkeitsberechnungskatalysatoren. Viele Forscher haben Schwierigkeiten, Datensätze unabhängig zu trainieren und Merkmale zu spezifizieren, die für Bilder in großer Menge vorhanden sein können. In diesem Beitrag stellen wir einen Ansatz vor, um die Kraft des „Transfer-Lernens“ und leicht zugängliche Beispiele in Form von Rohinhalten aus dem Internet zu nutzen, um bereits aufbereitete Datensätze, die speziell für das Training neuronaler Netze erstellt wurden, nicht nur zu verwenden, sondern auch zu nutzen mehr Trainingsbeispiele unter Verwendung des Internets, Abtasten der durchschnittlichen Genauigkeitsausgaberate der Bilder, zusammen mit der Reduzierung der Modelltrainings- und Ausführungszeit durch parallele Operationen auf verschiedenen Knoten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1813-9_5 d35111052790a0c49e78ca018f714098;de;;;7.4.;;;Entschlüsselung der Assoziation einzelner Aminosäurevariationen mit dermatologischen Erkrankungen durch Anwendung maschineller Lerntechniken SAVDerma sagt die Assoziation einer Single Amino Acid Variation (SAVs) mit dermatologischen Erkrankungen voraus. SAVs sind im Grunde nicht synonyme SNPs, die manchmal mit verschiedenen Krankheiten in Verbindung gebracht werden. Eine einzelne Aminosäuremutation kann verschiedene physikalisch-chemische Eigenschaften eines Proteins beeinflussen, die dann die normale Funktionalität eines bestimmten Proteins beeinträchtigen und zu Krankheiten führen. Studien haben gezeigt, dass von verschiedenen mendelschen Erkrankungen etwa 60% auf diese Art von SAVs zurückzuführen sind. Der Umfang dieser Studie schränkt bei dermatologischen Erkrankungen ein und das Verfahren kann auf alle anderen Arten von Erkrankungen angewendet werden. Wir haben die physikalisch-chemischen und sequenzbasierten Merkmale von SAV, die mit dermatologischen Erkrankungen in Verbindung stehen, kuratiert und als Positiv-Set und umgekehrt als Negativ-Set beibehalten. Diese Datensätze wurden Klassifikatoren für maschinelles Lernen zugeführt, um ein Modell zu entwickeln, das die Assoziation von SAV mit dermatologischen Erkrankungen klassifizieren kann. Unser Klassifikator erreichte eine Genauigkeit von 87,29 %. SAVDerma ist eine Webanwendung, in der der Benutzer alle kuratierten und maschinell generierten Daten über SAVs und deren vorhergesagter Zusammenhang mit Hautkrankheiten finden kann. Es verfügt über eine benutzerfreundliche Oberfläche, auf der Informationen zu einem bestimmten SAV mithilfe von drei verschiedenen Parametern abgerufen werden können, d;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0108-1_22 dfbbd32618e5fe3477a71f924f25f0a7;de;;;7.4.;;;Microblog-Gerüchterkennung basierend auf Kommentar-Sentiment und CNN-LSTM Herkömmliche Methoden zur Gerüchteerkennung, wie beispielsweise Feature Engineering, sind schwierig und zeitaufwändig. Darüber hinaus enthält die Benutzerseitenstruktur von Sina Weibo nicht nur den Inhaltstext, sondern auch eine große Menge an Kommentarinformationen, unter denen die sentimentalen Merkmale von Kommentaren durch neuronale Netze schwer zu erlernen sind. Um diese Probleme zu lösen, wird eine Gerüchteerkennungsmethode basierend auf Kommentarstimmung und CNN-LSTM vorgeschlagen und das lange Kurzzeitgedächtnis (LSTM) wird mit der Pooling-Schicht und der vollständigen Verbindungsschicht des Convolutional Neural Network (CNN) verbunden. In der Zwischenzeit wird die Kommentarstimmung als wichtige Funktion zum Gerüchteerkennungsmodell hinzugefügt. Die Wirksamkeit dieser Methode wird durch Experimente überprüft.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0187-6_17 dcdbfe6b8c41c7a1afa482a09c834fac;de;;;7.4.;;;ProWSyn: Proximity Weighted Synthetic Oversampling-Technik für unausgewogenes Lernen von Datensätzen Ein unausgeglichener Datensatz verursacht ernsthafte Probleme für den Klassifikator, da die Anzahl der Stichproben einer Klasse (Mehrheit) viel höher ist als die der anderen Klasse (Minderheit). Synthetische Oversampling-Verfahren gehen dieses Problem an, indem sie neue synthetische Minoritätsklassen-Samples erzeugen. Um die synthetischen Proben effektiv zu verteilen, erzeugen neuere Ansätze Gewichtswerte für ursprüngliche Minderheitenproben basierend auf ihrer Bedeutung und verteilen synthetische Proben gemäß Gewichtswerten. Die meisten der existierenden Algorithmen erzeugen jedoch ungeeignete Gewichtungen und können in vielen Fällen nicht die erforderlichen Gewichtungswerte für die Minoritätsstichproben erzeugen. Dies führt zu einer schlechten Verteilung der erzeugten synthetischen Proben. In dieser Hinsicht präsentiert dieses Papier einen neuen synthetischen Oversampling-Algorithmus, die Proximity Weighted Synthetic Oversampling Technique (ProWSyn). Unser vorgeschlagener Algorithmus erzeugt effektive Gewichtungswerte für die Minderheitendatenproben basierend auf den Näherungsinformationen der Probe, d. h. dem Abstand von der Grenze, was zu einer richtigen Verteilung der erzeugten synthetischen Proben über den Minderheitendatensatz führt. Simulationsergebnisse einiger realer Datensätze zeigen die Wirksamkeit der vorgeschlagenen Methode und zeigen Verbesserungen bei verschiedenen Bewertungsmetriken wie AUC, F-Maß und G-Mittel.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37456-2_27 4e3bd4f18516499cd8f37b728729a57b;de;;;7.4.;;;Automatische Wissensermittlung und Fallverwaltung: eine effektive Möglichkeit, Datenbanken zur Verbesserung des Gesundheitsmanagements zu nutzen Dieses Papier stellt eine Methodik vor, die auf der automatischen Wissensfindung basiert und darauf abzielt, die möglichen Ursachen zu identifizieren und vorherzusagen, die dazu führen, dass ein Patient als kostspielig angesehen wird. Die Versuche wurden in zwei Richtungen durchgeführt. Die erste war die Identifizierung wichtiger Beziehungen zwischen Variablen, die die Ereignisse im Gesundheitswesen beschreiben, unter Verwendung eines Prozesses zur Ermittlung von Assoziationsregeln. Die zweite war die Entdeckung präziser Vorhersagemodelle von Patienten mit hohen Kosten unter Verwendung von Klassifizierungstechniken. Die Ergebnisse beider Methoden werden diskutiert, um zu zeigen, dass die generierten Muster für die Entwicklung eines kostenintensiven Patienten-Eligence-Protokolls nützlich sein könnten, das zu einem effizienten Fallmanagementmodell beitragen könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-0221-4_29 ee9e842c722011bc303d9a0d37e8b862;de;;;7.4.;;;Ein unscharfer Ansatz zur Klassifizierung von Textdokumenten In diesem Beitrag werden die Klassifikationsprobleme von Textdokumenten diskutiert. Basierend auf dem Konzept des Nähegrads wird die Wortmenge in einige Äquivalenzklassen unterteilt. Insbesondere werden die Konzepte des semantischen Feldes und des Assoziationsgrades in dieser Arbeit vorgestellt. Basierend auf den obigen Konzepten präsentiert dieses Papier einen Fuzzy-Klassifikationsansatz für die Dokumentkategorisierung. Darüber hinaus werden unter Anwendung des Konzepts der Informationsentropie Ansätze zur Auswahl von Schlüsselwörtern aus der Wortmenge, die die Klassifizierung von Dokumenten abdeckt, und zum Aufbau der hierarchischen Struktur von Schlüsselwörtern erhalten.;-;-;-;https://link.springer.com/article/10.1007/BF02947124 0b02b39bf409b8a645124e8ac8b92b11;de;;;7.4.;;;"Beschleunigung, Automatisierung und Pädagogik: Wie die Aussicht auf technische Arbeitslosigkeit neue Rahmenbedingungen für pädagogisches Denken schafft Dieses Kapitel nimmt eine akzelerationistische Perspektive auf die Pädagogik in einer Ära der Automatisierung und der technologischen Arbeitslosigkeit ein. Akzelerationismus beschreibt eine Reihe theoretischer Perspektiven, die die gemeinsame Prämisse teilen, dass Kapitalismus und technologische Entwicklung eine positive Rückkopplungsschleife bilden, die nicht rückgängig gemacht werden kann. Linke und rechte Akzelerationismen bieten unterschiedliche Antworten auf die Frage, was in dieser ""techonomischen Zeit"" zu tun ist, aber die zugrunde liegende These des Akzelerationismus wirft die Möglichkeit auf, dass die Praxis irrelevant ist, weil die explosive Dynamik der Moderne nur in Teil- und temporäre Wege. Wenn die Beschleunigung nicht regulierbar ist, kann der Zusammenhang zwischen Pädagogik und sozialer Verbesserung nicht angenommen werden. Diese Diagnose legt die Notwendigkeit nahe, über den Glauben hinauszudenken, dass Pädagogik die nächste Generation auf eine Ära vorbereiten kann, in der die Automatisierung Märkte, Politik und das Lernen selbst dramatisch verändern kann. Durch eine enge Auseinandersetzung mit den Schriften wichtiger akzelerationistischer Denker sowie mit soziologischen und wirtschaftlichen Literaturen, die die Beziehung zwischen Bildung und Arbeit untersuchen, argumentiert das Kapitel dafür, den Glauben aufzugeben, dass technologische Arbeitslosigkeit ein Problem ist, das durch Bildung gelöst werden muss, und mehr allgemein die Idee, dass Pädagogik eine bessere Welt für kommende Generationen schaffen kann.";-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6225-5_9 f76f65a19ec1d3a52fcfec92665e7814;de;;;7.4.;;;Durchsuchen von Review-Inhalten für Empfehlungen über das Latent-Faktor-Modell Empfehlungssysteme wurden umfassend untersucht und in vielen realen Anwendungen wie E-Commerce-Websites, Produktbewertungsseiten und mobilen App-Stores angewendet. In diesen Anwendungen können Benutzer ihr Feedback zu den Artikeln in Form von Bewertungen abgeben, und sie begleiten das Feedback in der Regel mit wenigen Worten (z. B. Inhalt überprüfen), um ihre Bewertungen zu begründen. Solche Rezensionsinhalte können umfangreiche Informationen über Benutzergeschmack und Artikeleigenschaften enthalten. Bestehende Empfehlungsverfahren (z. B. kollaboratives Filtern) verwenden jedoch hauptsächlich die historischen Bewertungen, während sie die Inhaltsinformationen ignorieren. In diesem Papier schlagen wir vor, den Inhalt der Überprüfung für eine bessere Empfehlung über das Latent-Faktor-Modell zu untersuchen. Insbesondere schlagen wir zwei Strategien vor, um den Bewertungsinhalt zu nutzen. Die erste Strategie beinhaltet Überprüfungsinhalt als Leitbegriff, um die gelernten latenten Faktoren von Benutzerpräferenzen zu leiten, die zweite Strategie formuliert einen Regularisierungsbegriff, um die Präferenzunterschiede zwischen ähnlichen Benutzern einzuschränken. Experimentelle Auswertungen an zwei realen Datensätzen belegen die Nützlichkeit von Review-Inhalten und die Effektivität der vorgeschlagenen Empfehlungsmethode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13560-1_53 744ea542200088df9f5bc4107b895dd0;de;;;7.4.;;;Benutzerprofilmodell: Ein Blick auf künstliche Intelligenz Ziel dieser Arbeit ist es, ein Benutzerprofilmodell für die agentenbasierte Informationsfilterung zu entwickeln. Wir versuchen, den gesamten Prozess der Informationsfilterung aus Sicht der Künstlichen Intelligenz zu formalisieren. Diese Forschung bezieht sich auf die Entwicklung neuartiger Techniken für die interaktive Informationssammlung unter Anwendung von Künstlicher Intelligenz und Informationsrückgewinnungstechnologien. In diesem Beitrag stellen wir ein dynamisches Modell zur Darstellung von Benutzerprofilen vor. Wir beschreiben die Benutzerprofile als zufällige Mengen auf einem Konzeptraum (Taxonomie). Wir präsentieren auch ein grobes Set basierendes qualitatives Entscheidungsmodell für die Aufgabe der Informationsfilterung.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45813-1_65 1b618164b20cbddcbf9753688a880391;de;;;7.4.;;;Eine Studie: Bildklassifizierung mit mehreren Labels unter Verwendung von Deep Convolutional Neural Network Architectures Die Bildklassifizierung mit mehreren Labels ist eine Art überwachter Lernansatz, bei dem jedes Bild zu einer Menge von mehreren Klassen gehören kann. Der Bereich der Mehrfach-Label-Bildklassifizierung nimmt in den letzten Jahren im Bereich des maschinellen Lernens zu. Die Bildklassifizierung mit mehreren Labels hat bei Forschern einen erheblichen Spielraum geschaffen und wurde bei Bildkennzeichnungs- und Objektvorhersageaufgaben eingesetzt. Viele herkömmliche maschinelle Lernalgorithmen werden für die Bildvorhersage mit mehreren Labels verwendet, indem die Beziehung zwischen Objekten im Bild, gleichzeitig auftretenden Objekten und der Rang zwischen mehreren Instanzen in einem Bild verwendet wird. Deep ConvNet-Architekturen haben in letzter Zeit bewiesen, dass die Klassifizierungsleistung bei der Klassifizierung von Bildobjekten steigt. Diese Studie stellt die Aufgabe der Mehrfach-Label-Klassifizierung, die verschiedenen Literaturen im Bereich der Mehrfach-Label-Bildklassifizierung unter Verwendung der tiefen ConvNet-Architektur vor, liefert auch Bewertungsmaßnahmen und führt eine vergleichende Analyse der Architekturmodelle zum PASCAL-VOC-Datensatz und verschiedenen zukünftigen Herausforderungen in der Bildbereich mit mehreren Etiketten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0199-9_65 39ac6341d60e0871a7093e2dcb36fd6c;de;;;7.4.;;;Extraktion und Darstellung von Finanzinstituten aus Text In unserer modernen Gesellschaft werden fast alle Ereignisse, Prozesse und Entscheidungen in einem Unternehmen durch interne schriftliche Kommunikation, juristische Akten oder Wirtschafts- und Finanznachrichten dokumentiert. Das wertvolle Wissen in solchen Sammlungen ist für Computer nicht direkt zugänglich, da sie meist aus unstrukturiertem Text bestehen. Dieses Kapitel bietet einen Überblick über in der Forschung häufig verwendete Korpora und beleuchtet verwandte Arbeiten und modernste Ansätze zur Extraktion und Darstellung von Finanzeinheiten und Beziehungen. Herkömmliche Informationsabrufsysteme erfordern typischerweise, dass der Benutzer über Vorkenntnisse der Daten verfügt. Geeignete Visualisierungstechniken können diese Anforderung überwinden und es Benutzern ermöglichen, große Dokumentenmengen zu durchsuchen. Darüber hinaus können Data-Mining-Techniken verwendet werden, um Wissensgraphen anzureichern oder zu filtern. Diese Informationen können Quelldokumente ergänzen und Explorationsprozesse anleiten. Systeme zur Dokumentenexploration sind auf bestimmte Aufgaben zugeschnitten, wie zum Beispiel Ermittlungsarbeit bei Audits oder rechtlichen Ermittlungen, Überwachung der Einhaltung oder Bereitstellung von Informationen in einem Retrieval-System zur Entscheidungsunterstützung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-66891-4_11 500e16d724ee2818e2b985677cf56463;de;;;3.2.;;;Digitale Bibliotheken, Personalisierung und Netzwerkeffekte - Unpicking the Paradoxes Der Fokus dieser Podiumspräsentation liegt auf der Personalisierung (einschließlich adaptiver Personalisierung) und den Konstruktionen „digitaler Gesellschaften“ um digitale Bibliotheken und Sammlungen. Die Podiumsteilnehmer werden eine Vielzahl von Perspektiven vertreten – NEH (USA) JISC (UK) & EU – von Entwicklern hochspezialisierter wissenschaftlicher digitaler Bibliotheken bis hin zu Direktoren nationaler digitaler Bibliotheken, die systemweite Ziele erreichen wollen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04346-8_37 3ebb810490df70be949f282393c65fa9;de;;;7.4.;;;Semantische Kategorisierung von Software-Bug-Repositorys für die Automatisierung der Schweregradzuweisung Die Fehlersuche ist eine der entscheidenden Aktivitäten während der Wartungsphase von großen Softwareprojekten, um die auftretenden Fehler zu beheben. In diesem Papier schlagen wir einen Ansatz vor, um eine der wichtigen Aktivitäten der Fehlersuche zu automatisieren, nämlich die Zuweisung des Fehlerschweregrads. Der vorgeschlagene Ansatz basiert auf dem Mining der historischen Bug-Repositorys von Softwareprojekten. Es verwendet den Themenmodellierer des Hierarchical Dirichlet Process (HDP), um die Themen zu extrahieren, die von den historischen Fehlerberichten geteilt werden, und kategorisiert sie dann nach ihren Anteilen in den extrahierten Themen mit dem K-Means-Clustering-Algorithmus. Für jeden neu eingereichten Bericht werden die Top-K-ähnlichen Berichte aus ihrem Cluster mithilfe eines neuartigen gewichteten K-Nächster-Nachbar-Algorithmus abgerufen, der ein Ähnlichkeitsmaß namens Improved-Sqrt-Cosinus-Ähnlichkeit verwendet. Der Schweregrad des neuen Fehlers wird mit einem dual-gewichteten Abstimmungsschema zugewiesen. Die experimentellen Ergebnisse zeigten, dass unser vorgeschlagenes Modell die Leistung der Aufgabe zur Zuweisung des Fehlerschweregrads im Vergleich zu drei Basismodellen im Kontext zweier beliebter Fehlerspeicher, Eclipse und Mozilla, verbesserte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-26574-8_2 42d025992b0308e9398f829f84aaac94;de;;;7.4.;;;Erkennung von Hassreden: Eine Vogelperspektive In den letzten Jahren werden viele Daten in den sozialen Medien geschüttet. Aufgrund der Durchdringung der sozialen Medien unter den Menschen haben viele Menschen begonnen, ihre Gefühle, Ideen usw. in sozialen Medien zu veröffentlichen. Diese Beiträge können Fakten oder persönliche Emotionen sein. In diesem Whitepaper stellen wir das Konzept der Hassrede vor und diskutieren, wie es sich von Nicht-Hassreden unterscheidet. Das Konzept der Hassrede ist sehr alt, jedoch erfordert das Posten in sozialen Medien besondere Aufmerksamkeit. Wir haben verschiedene Techniken und Ansätze überprüft, um Hassreden aus Textdaten mit einem Schwerpunkt auf Mikroblogs zu identifizieren. Da der Begriff der Hassrede sehr persönlich ist, sind wir der Meinung, dass bessere IR-Systeme erforderlich sind, um Hassreden zu erkennen und die Systeme zu löschen, die in der Lage sind, Inhalte automatisch aus sozialen Medien zu löschen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4474-3_26 f1fbf6860abe1be669f71258c3226c72;de;;;7.4.;;;Ein Fahrplan für das letzte Jahrzehnt der Forschung zu lernenden Klassifikatoren (von 1989 bis 1999) 1989 präsentierten Wilson und Goldberg einen kritischen Überblick über die ersten zehn Jahre der Forschung zu lernenden Klassifikatorsystemen. Mit diesem Papier blicken wir auf die folgenden zehn Jahre der Erforschung von Klassifikatorsystemen zurück und diskutieren die wichtigsten Errungenschaften und die wichtigsten Forschungsrichtungen, die in diesen Jahren verfolgt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45027-0_2 1724207b52349bad08137d525a72ccbd;de;;;7.4.;;;Tiefe neuronale Netze zur Diagnose von Osteoporose: Ein Rückblick Osteoporose, eine pathologische Knochenerkrankung, betrifft weltweit Millionen von Menschen und ist nach Arthritis die häufigste Knochenerkrankung. Es wird durch eine Abnahme der Mineraldichte der Knochen verursacht, die in einigen Fällen zu Schmerzen, Morbidität, Frakturen und sogar Mortalität führt. Es wird mit DXA diagnostiziert, aber seine hohen Kosten, geringe Verfügbarkeit und inkonsistenten BMD-Messungen machen es nicht zu einem vielversprechenden Instrument für die Diagnose von Osteoporose. Die computergestützte Diagnose hat die Diagnostik in hohem Maße verbessert. Auf Deep Learning basierende künstliche neuronale Netze haben im diagnostischen Bereich hochmoderne Ergebnisse gezeigt, die zu einer genauen Diagnose der Krankheit führen. Dieser Artikel gibt einen Überblick über die wichtigsten neuronalen Netzwerkarchitekturen, die für die Diagnose von Osteoporose verwendet werden. Wir haben die neuronalen Netzwerkarchitekturen basierend auf den Fragebögen und die tiefen neuronalen Architekturen basierend auf Bilddaten, die für die Diagnose von Osteoporose implementiert wurden, überprüft und die zukünftigen Richtungen zusammengefasst, die zu einer besseren Diagnose und Prognose von Osteoporose beitragen könnten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29407-6_6 f2667973f7d63030eb9cc14c494816c2;de;;;7.4.;;;Distanzmetrik-Lern-geführtes adaptives Teilraum-semi-überwachtes Clustering Die meisten existierenden halbüberwachten Clustering-Algorithmen sind nicht für die Handhabung hochdimensionaler Daten ausgelegt. Andererseits können halbüberwachte Dimensionsreduktionsverfahren die Clustering-Leistung nicht unbedingt verbessern, da die inhärente Beziehung zwischen Unterraumauswahl und Clustering ignoriert wird. Um die obigen Probleme zu mildern, präsentieren wir einen semi-überwachten Clustering-Algorithmus, der adaptives Distanzmetrik-Lernen (SCADM) verwendet, der semi-überwachtes Clustering und Distanzmetrik-Lernen gleichzeitig durchführt. SCADM wendet die Clustering-Ergebnisse an, um eine Distanzmetrik zu lernen, und projiziert dann die Daten in einen niedrigdimensionalen Raum, in dem die Trennbarkeit der Daten maximiert ist. Experimentelle Ergebnisse an realen Datensätzen zeigen, dass die vorgeschlagene Methode hochdimensionale Daten effektiv verarbeiten kann und eine ansprechende Clustering-Leistung bietet.;-;-;-;https://link.springer.com/article/10.1007/s11704-010-0376-9 61c8a197918d3cf0ec4ad761350385d2;de;;;7.4.;;;Aktive Verbesserung hierarchischer Objektmerkmale unter Budgetbeschränkungen Wenn wir an ein Objekt in einem überwachten Lernumfeld denken, nehmen wir es normalerweise als eine Sammlung fester Attributwerte wahr. Obwohl diese Einstellung für viele Klassifikationsaufgaben gut geeignet sein mag, schlagen wir eine neue Objektdarstellung und damit eine neue Herausforderung im Data Mining vor, ein Objekt wird nicht mehr durch eine Menge von Attributen beschrieben, sondern in einer Hierarchie von Attributmengen in verschiedenen Ebenen dargestellt von Qualität. Eine detailliertere Darstellung eines Objekts zu erhalten ist mit Kosten verbunden. Hier stellt sich die interessante Frage, welche Objekte wir unter einem gegebenen Budget- und Kostenmodell erweitern wollen. Diese neue Einstellung ist sehr nützlich, wenn Ressourcen wie Rechenleistung, Speicher oder Zeit begrenzt sind. Wir schlagen einen neuen aktiven adaptiven Algorithmus (AAA) vor, um Objekte iterativ zu verbessern. Wir zeigen, wie eine hierarchische Objektdarstellung erstellt wird und beweisen die Wirksamkeit unseres neuen Auswahlalgorithmus an diesen Datensätzen.;-;-;-;https://link.springer.com/article/10.1007/s11704-012-2857-5 477b41380685dc7e715b97200e395582;de;;;7.4.;;;Klassifikation mit graphbasierter Markov-Kette Die Markov-Kette ist ein beliebtes grafikbasiertes Modell in den Bereichen Data Mining und Machine Learning. In diesem Beitrag schlagen wir einen neuartigen intrinsischen Mehrklassen-Markov-Ketten-Klassifikator vor. Es sagt das Klassenlabel beliebiger unsichtbarer Daten voraus, indem es die Trainingsdaten als die absorbierenden Zustände einer Markov-Kette festlegt. Es enthält auch die Kernel-Methode zur besseren Verallgemeinerung. Vielversprechende Experimente sowohl an künstlichen als auch an realen Datensätzen belegen die Wirksamkeit unserer Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13650-9_28 6bc9b45efe522f2ca5a6f2b4ce09622d;de;;;7.4.;;;Rolle von KI und bioinspiriertem Computing bei der Entscheidungsfindung Die Entscheidungsfindung ist eine der herausfordernden Aufgaben bei der Lösung realer Probleme. Die Entscheidungsfindung ahmt menschliche Aktivitäten nach, was wiederum bemerkenswerte Auswirkungen hat. Mehrere Untersuchungen haben bewiesen, dass die Qualität von Entscheidungen durch die Entwicklung computerbasierter Technologien verbessert wurde, die die menschlichen Fähigkeiten unterstützen und erweitern. Entscheidungsunterstützungssystemen (DSS), die in gewissem Maße die richtigen Entscheidungen unterstützen, fehlt es manchmal an Intelligenz. Die jüngsten Fortschritte auf dem Gebiet der künstlichen Intelligenz (KI) haben dies in einer Vielzahl von vielfältigen Anwendungen möglich gemacht. KI hat die Fähigkeit, die menschliche Entscheidungsfindung nachzuahmen und hat auch gezeigt, dass sie in der Lage ist, die menschliche Entscheidungsfindung in komplexen Echtzeitumgebungen zu unterstützen und zu verbessern. Die Einbettung von Intelligenz in das DSS unter Verwendung der KI-Funktionen hat Fortschritte gemacht und so die Intelligent Support Systems for Decision Making (ISSDM) gebildet. Diese Unterstützungssysteme wurden verwendet, um den Entscheidungsprozess in mehreren Bereichen zu vereinfachen, nämlich im Gesundheitswesen, in der Cybersicherheit, im Finanzwesen, im Marketing und im Handel. In diesem Kapitel wird die Rolle von Werkzeugen der künstlichen Intelligenz wie künstlichen neuronalen Netzen, Fuzzy-Logik und bioinspirierten Algorithmen im Entscheidungsprozess untersucht. Eine kurze Einführung in die Anwendung dieser Algorithmen auf das Industrie-4.0-Paradigma wird ebenfalls gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-32530-5_8 ae68efa1feda7fe9a751cd6732222be4;de;;;7.4.;;;Multimodales Deep Representation Learning für die Videoklassifizierung In realen Anwendungen finden sich normalerweise Daten mit verschiedenen Modalitäten, von denen jede wertvolle Informationen enthält. Um diese Anwendungen zu verbessern, ist es wichtig, alle aus verschiedenen Datenmodalitäten extrahierten Informationen effektiv zu analysieren, während die meisten bestehenden Lernmodelle einige Datentypen ignorieren und sich nur auf eine einzige Modalität konzentrieren. In diesem Artikel wird ein neues multimodales Deep-Learning-Framework für die Ereigniserkennung aus Videos vorgestellt, indem die jüngsten Fortschritte in tiefen neuronalen Netzen genutzt werden. Zunächst werden mehrere Deep-Learning-Modelle verwendet, um nützliche Informationen aus mehreren Modalitäten zu extrahieren. Dazu gehören vortrainierte Convolutional Neural Networks (CNNs) für die Extraktion von visuellen und Audiomerkmalen und ein Worteinbettungsmodell für die Textanalyse. Dann wird eine neuartige Fusionstechnik vorgeschlagen, die verschiedene Datendarstellungen auf zwei Ebenen integriert, nämlich auf Frame-Ebene und Video-Ebene. Im Gegensatz zu den bestehenden multimodalen Lernalgorithmen kann das vorgeschlagene Framework unter Verwendung anderer verfügbarer Datenmodalitäten über einen fehlenden Datentyp nachdenken. Das vorgeschlagene Framework wird auf einen neuen Videodatensatz mit Naturkatastrophenklassen angewendet. Die experimentellen Ergebnisse veranschaulichen die Effektivität des vorgeschlagenen Frameworks im Vergleich zu einigen einzelmodalen Deep-Learning-Modellen sowie konventionellen Fusionstechniken. Insbesondere wird die endgültige Genauigkeit im Vergleich zu den besten Ergebnissen von Einzelmodalitäts- bzw. Fusionsmodellen um mehr als 16 % bzw. 7 % verbessert.;-;-;-;https://link.springer.com/article/10.1007/s11280-018-0548-3 7c833f18f3bbf41c0fa9e9eb1bafb063;de;;;7.4.;;;Filtern von Problemen mit mehreren Instanzen, um die Dimensionalität beim relationalen Lernen zu reduzieren Auf Attributwerten basierende Darstellungen, die in heutigen Data-Mining-Systemen Standard sind, haben eine begrenzte Aussagekraft. Eine interessante Alternative bietet die induktive logische Programmierung, insbesondere für das Lernen an strukturierten Beispielen, deren Teile mit jeweils eigenen Attributen durch Prädikate erster Ordnung miteinander in Beziehung gesetzt werden. In der induktiven Logikprogrammierung (ILP) wurden mehrere Teilmengen der Logik erster Ordnung (FOL) mit unterschiedlicher Ausdruckskraft vorgeschlagen. Die Herausforderung besteht darin, dass die Dimensionalität der Lernaufgabe umso kritischer ist, je ausdrucksvoller die Teilmenge von FOL ist, mit der der Lernende arbeitet. Die Datalog-Sprache ist ausdrucksstark genug, um realistische Lernprobleme darzustellen, wenn Daten direkt in eine relationale Datenbank eingegeben werden, was sie zu einem geeigneten Werkzeug für das Data Mining macht. Folglich ist es wichtig, Techniken auszuarbeiten, die die Dimensionalität von Lernaufgaben, die in Datalog ausgedrückt werden, dynamisch verringern, genauso wie es Techniken zur Merkmalsteilauswahl (FSS) beim Lernen von Attributwerten tun. Die Idee, diese Techniken in ILP wiederzuverwenden, stößt sofort auf ein Problem, da ILP-Beispiele eine variable Größe haben und nicht denselben Satz von Literalen verwenden. Wir schlagen hier das erste Paradigma vor, das die Feature-Subset-Selection auf das Niveau von ILP bringt, in Sprachen, die mindestens so ausdrucksstark sind wie Datalog. Die Grundidee besteht darin, zunächst eine Darstellungsänderung durchzuführen, die das ursprüngliche relationale Problem durch ein Mehrinstanzproblem annähert. Die als Ergebnis erhaltene Darstellung ist für FSS-Techniken geeignet, die wir aus dem Attribut-Wert-Lernen angepasst haben, indem wir einige der Eigenschaften der Daten aufgrund der Änderung der Darstellung berücksichtigen. Wir präsentieren das für die Aufgabe vorgeschlagene einfache FSS, die erforderliche Änderung der Darstellung und die gesamte Methode, die diese beiden Algorithmen kombiniert. Das Verfahren fungiert als Filter, der die relationalen Daten vor der Modellbildung vorverarbeitet, die relationale Beispiele mit empirisch relevanten Literalen ausgibt. Wir diskutieren Experimente, in denen die Methode erfolgreich auf zwei Bereiche der realen Welt angewendet wurde.;-;-;-;https://link.springer.com/article/10.1023/A%3A1025876613117 b6603ad616b4b944c5982573b71f3a94;de;;;7.4.;;;Boolesche Argumentation für Probleme bei der Merkmalsextraktion Wir erinnern uns an mehrere Anwendungen des Booleschen Denkens für die Merkmalsextraktion und schlagen einen Ansatz vor, das auf dem Booleschen Denken für die Extraktion neuer Merkmale aus Datentabellen mit symbolischen (nominalen, qualitativen) Attributen basiert. Neue Funktionen haben die Form a;-;-;-;https://link.springer.com/chapter/10.1007/3-540-63614-5_11 ac294627d31449e490db92fa5575c8c2;de;;;7.4.;;;Erstellen eines Textklassifizierers anhand eines Schlüsselworts und Wikipedia-Wissen Herkömmliche Ansätze zum Erstellen von Textklassifikatoren erfordern normalerweise viele gekennzeichnete Dokumente, deren Beschaffung teuer ist. In diesem Beitrag schlagen wir einen neuen Textklassifikationsansatz basierend auf einem Stichwort und Wikipedia-Wissen vor, um eine manuelle Kennzeichnung von Dokumenten zu vermeiden. Zuerst rufen wir eine Reihe von verwandten Dokumenten zu dem Schlüsselwort aus Wikipedia ab. Und dann werden mit Hilfe verwandter Wikipedia-Seiten weitere positive Dokumente aus den unbeschrifteten Dokumenten extrahiert. Schließlich trainieren wir mit diesen positiven Dokumenten und unbeschrifteten Dokumenten einen Textklassifikator. Das Experimentergebnis des 20Newsgroup-Datensatzes zeigt, dass der vorgeschlagene Ansatz im Vergleich zu NB-SVM, einem PU-Lernenden, und NB, einem beaufsichtigten Lernenden, sehr wettbewerbsfähig abschneidet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03348-3_28 cf0f4350b589cecff8c7d9cdc069db0d;de;;;7.4.;;;Anwendung kombinierter Klassifikatoren auf die Datenstromklassifizierung Der Fortschritt der Informatik hat dazu geführt, dass viele Institutionen riesige Datenmengen sammelten, deren Auswertung durch den Menschen unmöglich ist. Heutzutage reichen einfache Methoden der Datenanalyse für ein effizientes Management eines Durchschnittsunternehmens nicht aus, da für intelligente Entscheidungen das in den Daten verborgene Wissen sehr gefragt ist, als welches multiple Klassifikatorsysteme neuerdings im Fokus intensiver Forschung stehen. Leider besteht der große Nachteil traditioneller Klassifikationsverfahren darin, dass sie „annehmen“, dass die statistischen Eigenschaften des entdeckten Konzepts (welches Modell vorhergesagt wird) unverändert bleiben. In der realen Situation könnten wir eine sogenannte Konzeptdrift beobachten, die durch Änderungen der Wahrscheinlichkeiten von Klassen oder/und bedingte Wahrscheinlichkeitsverteilungen von Klassen verursacht werden könnte. Das Potenzial zur Berücksichtigung neuer Trainingsdaten ist ein wichtiges Merkmal maschineller Lernmethoden, die in Sicherheitsanwendungen oder Marketingabteilungen eingesetzt werden. Leider verringert das Auftreten dieses Phänomens die Klassifizierungsgenauigkeit dramatisch.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40925-7_2 366f839e306fece669854f6d058263b4;de;;;7.4.;;;Constrained Laplace-Score für die halbüberwachte Feature-Auswahl In diesem Beitrag beschäftigen wir uns mit dem Problem der semi-überwachten Merkmalsauswahl aus hochdimensionalen Daten. Es zielt darauf ab, die diskriminierendsten und informativsten Merkmale für die Datenanalyse auszuwählen. Dies ist eine kürzlich angegangene Herausforderung in der Merkmalsauswahlforschung, wenn es um kleine markierte Daten geht, die mit großen unmarkierten Daten im selben Satz abgetastet werden. Wir präsentieren einen filterbasierten Ansatz, indem wir den bekannten Laplace-Score einschränken. Wir bewerten die Relevanz eines Merkmals gemäß seiner Fähigkeit zur Erhaltung der Lokalität und der Erhaltung von Beschränkungen. Das Problem wird dann im Rahmen der Spektralgraphentheorie mit einer Untersuchung der Komplexität des vorgeschlagenen Algorithmus präsentiert. Abschließend werden experimentelle Ergebnisse zur Validierung unseres Vorschlags im Vergleich zu anderen bekannten Merkmalsauswahlverfahren bereitgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23780-5_23 6fc9ee5d28e7139ddf45ade7ee8f55c9;de;;;7.4.;;;Key Clarity ist Blue, Relaxed und Maluma: Machine Learning wird verwendet, um modale Verbindungen zwischen sensorischen Elementen und der Musik zu entdecken, die sie spontan hervorrufen Semantisches Differential wird oft verwendet, um die Beziehung zwischen Musik und anderen Sinnesmodalitäten wie Farben, Geschmäckern, Sehvermögen und Gerüchen zu untersuchen. Diese Arbeit schlägt einen explorativen Ansatz vor, der offene Antworten und anschließendes maschinelles Lernen umfasst, um modale Assoziationen zu untersuchen, basierend auf einer kürzlich entwickelten sensorischen Skala, die keine explizite verbale Beschreibung verwendet. 25 Teilnehmer wurden gebeten, ein Musikstück zu berichten, das ihrer Meinung nach dem Gefühl/Aussehen/Erleben eines gegebenen Sinnesreizes nahe kommt. Die Ergebnisse zeigen, dass die von den Teilnehmern berichteten Assoziationen zumindest teilweise durch eine Reihe von Merkmalen erklärt werden können, die sich auf einige klangliche und tonale Aspekte der Musik beziehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7801-4_22 daaee14b6f6998417996df55a7fa1b72;de;;;7.4.;;;Methode zur Erkennung und Indexierung von Gesichtern von Personen in Videos mit dem Modell des maschinellen Lernens Dieses Papier beschreibt einen maschinellen Lernansatz zur visuellen Objekterkennung in den Gesichtern bestimmter Personen. Entwicklung eines Algorithmus basierend auf dem Viola-Jones-Algorithmus. Bilder werden in der integralen Darstellung verwendet, mit der Sie schnell die erforderlichen Objekte berechnen können, Haarzeichen werden verwendet, mit deren Hilfe die Suche nach den benötigten Gesichtern und deren Merkmalen verwendet wird, Boosting wird verwendet, um die am besten geeigneten Merkmale für die auszuwählen gewünschtes Objekt in einem bestimmten Teil des Bildes. In dieser Arbeit werden die Merkmale der Implementierung des AdaBoost-Algorithmus zur Lösung des Problems der Konstruktion der Klassifikatorenkaskade für die effektive Erkennung von Objekten auf Bildern betrachtet. Der Algorithmus wird an einem Bild mit mehreren Personen getestet. Es sind die Graphen der Abhängigkeit der Qualität der Erkennung von der Quantität der Iterationen bekommen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-55506-1_48 8536cbfab3052e2bac79bd0551946e06;de;;;7.4.;;;Regeln zur Informationsextraktion für halbstrukturierten und freien Text lernen Eine Fülle von Online-Textinformationen kann der automatischen Verarbeitung durch Informationsextraktionssysteme (IE) zur Verfügung gestellt werden. Jede IE-Anwendung benötigt einen separaten Regelsatz, der auf die Domäne und den Schreibstil abgestimmt ist. WHISK hilft, diesen Wissens-Engineering-Engpass zu überwinden, indem es automatisch Textextraktionsregeln lernt.;-;-;-;https://link.springer.com/article/10.1023/A%3A1007562322031 8b82747acdf3634c868f72191e78eb7c;de;;;7.4.;;;Tiefe zeitliche Analyse von Twitter-Bots Automatisierte Konten, die auch als Bots bekannt sind, sind in den meisten beliebten sozialen Online-Netzwerken weit verbreitet. Ähnlich wie E-Mail-Spam werden diese Social-Media-Bots zur Verbreitung von Informationen mit dem Ziel von Propaganda oder gewinnorientierter Werbung verwendet. Aufgrund der Auswirkungen, die sie auf die Beeinflussung der Benutzergemeinschaften haben, ist es wichtig, das Bot-Verhalten zu verstehen. In diesem Artikel wenden wir eine tiefe neuronale Netzwerkanalyse für zeitliche Daten von Bot-Konten an und haben die Rolle der zeitlichen Aktivität bei der Bot-Erkennung identifiziert. Das bidirektionale LSTM-Netzwerk wird verwendet, um die zeitlichen Muster von Twitter-Bots und deren Verhaltensmuster zu untersuchen. Die Fähigkeit des Modells, die Tweeting-Rate und -Häufigkeit von Bot-Accounts von den echten Accounts zu unterscheiden, hat zu einer guten Klassifizierungsrate geführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4301-2_4 98dbab616c88294acb995ca44ff6a94c;de;;;7.4.;;;Ein Social-Recommender-System mit tiefer Architektur und Netzwerkeinbettung Ein Empfehlungssystem ist ein aktives Werkzeug zur Informationsfilterung, das in einer komplexen und dynamischen Online-Umgebung eingesetzt werden kann, um den Benutzern die relevantesten und genauesten Inhalte basierend auf ihren einzigartigen Vorlieben und Vorlieben bereitzustellen. Die jüngste Richtung zur Verbesserung des Empfehlungssystems nutzt Deep-Learning-Techniken und Vertrauensinformationen. Der Aufbau eines einheitlichen Modells für ein Empfehlungssystem, das eine tiefe Architektur mit Vertrauensinformationen integriert, ist jedoch eine offene Herausforderung. Hier schlagen wir eine hybride Methode vor, indem wir eine gemeinsame Optimierungsfunktion modellieren, die den tiefen Autoencoder mit Top-;-;-;-;https://link.springer.com/article/10.1007/s10489-018-1359-z 980bc6b08299e44c3ed15f6dd596ee5b;de;;;7.4.;;;Schätzen des Fahrerstatus mithilfe des langen Kurzzeitgedächtnisses Die Ablenkung des Fahrers ist eine der Hauptursachen für tödliche Autounfälle. Fahrerablenkung ist jede Aufgabe, die die Aufmerksamkeit des Fahrers von der Hauptaufgabe des Fahrens ablenkt und die kognitive Belastung des Fahrers erhöht. Das Erkennen potenziell gefährlicher Fahrsituationen oder die Automatisierung einiger sich wiederholender Aufgaben, der Einsatz von Advanced Driver Assistance Systems (ADAS) und der Einsatz autonomer Fahrzeuge zur Reduzierung menschlicher Fehler beim Fahren sind zwei vorgeschlagene Lösungen, um die Ablenkung des Fahrers zu verringern. Diese Lösungen haben einige Vorteile, leiden jedoch unter ihrer inhärenten Unfähigkeit, alle potenziell gefährlichen Fahrsituationen zu erkennen. Außerdem sind autonome Fahrzeuge und ADAS auf Sensoren angewiesen. Infolgedessen nimmt ihre Genauigkeit unter widrigen Bedingungen erheblich ab. Die Analyse des Fahrerverhaltens mit Methoden des maschinellen Lernens und die Einschätzung des Ablenkungsgrades der Fahrer können verwendet werden, um potenziell gefährliche Situationen zu erkennen und die Fahrer zu warnen. Wir haben ein Experiment in acht verschiedenen Fahrszenarien durchgeführt und einen großen Datensatz aus Fahrdaten und fahrerbezogenen Daten gesammelt. Als maschinelle Lernmethode haben wir uns für das Long Short Term Memory (LSTM) entschieden. Wir haben ein gestapeltes LSTM-Netzwerk aufgebaut und trainiert, um den Fahrerstatus anhand einer Sequenz von Fahrdatenvektoren zu schätzen. Jeder Fahrdatenvektor hat 10 fahrbezogene Merkmale. Wir können den Fahrerstatus ohne externe Geräte und nur mit Can-Bus-Daten des Autos genau einschätzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29726-8_5 60fd4cc1c45fed3bc0c394b1ca1fd438;de;;;7.4.;;;Dynamische Systemidentifikation von Unterwasserfahrzeugen mit Gaußschen Prozessen mit mehreren Ausgängen Die nichtparametrische Systemidentifikation mit Gauß'schen Prozessen für Unterwasserfahrzeuge wird in dieser Forschung mit dem Ziel untersucht, die Dynamik von autonomen Unterwasserfahrzeugen (AUV) mit einer geringen Datenmenge zu modellieren. Gaußsche Prozesse mit mehreren Ausgängen und ihre Eignung zur Modellierung des dynamischen Systems eines unteraktuierten AUV, ohne die Beziehungen zwischen gebundenen Ausgängen zu verlieren, werden verwendet. Die Simulation eines First-Principle-Modells eines Remus 100 AUV wird verwendet, um Daten für das Training und die Validierung der Gauß-Prozesse mit mehreren Ausgängen zu erfassen. Das metrische und erforderliche Verfahren zur Durchführung von Multi-Output-Gauß-Prozessen für AUV mit 6 Freiheitsgraden (DoF) wird ebenfalls in diesem Papier gezeigt. Gaußsche Prozesse mit mehreren Ausgängen im Vergleich mit der populären Technik des rekurrenten neuronalen Netzes zeigen, dass Gaußsche Prozesse mit mehreren Ausgängen das RNN für die nichtparametrische dynamische Systemidentifikation in Unterwasserfahrzeugen mit hoch gekoppeltem DoF mit dem zusätzlichen Vorteil der Vertrauensmessung übertreffen.;-;-;-;https://link.springer.com/article/10.1007/s11633-021-1308-x 398f6a1ae45ec364b897b36b6259a00c;de;;;7.4.;;;Generierung von zusammengesetzten Dispatching-Regeln durch Data Mining in einem simulierten Job Shop In diesem Artikel wird ein neues Data-Mining-Tool namens TACO-miner verwendet, um zusammengesetzte Dispatching Rules (DR) unter einem bestimmten Satz von Shop-Parametern (d. h. Zwischenankunftszeiten, Pre-Shop-Pool-Länge) zu bestimmen. Der Hauptzweck besteht darin, einen Satz zusammengesetzter DRs zu bestimmen, die eine Kombination herkömmlicher DRs (d. h. FIFO, SPT) sind. Um dies zu erreichen, werden vollfaktorielle Experimente durchgeführt, um den Einfluss von Eingabeparametern auf vorgegebene Leistungsmaße zu bestimmen. Anschließend wird der aus den vollfaktoriellen Simulationsanalysen gewonnene Datensatz in den TACO-Miner eingespeist, um zusammengesetzte DRs zu bestimmen. Die vorläufige Verifizierungsstudie hat gezeigt, dass zusammengesetzte DRs eine akzeptable Leistung aufweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87477-5_42 74782e0de971e779d023954bf7cdf57d;de;;;7.4.;;;Vorhersage ungewöhnlicher Energieverbrauchsereignisse aus dem Smart Home-Sensornetzwerk durch Data Stream Mining mit falsch klassifiziertem Rückruf Mit der Popularität und Erschwinglichkeit der drahtlosen ZigBee-Sensortechnologie wird das IoT-basierte intelligente Steuerungssystem für Haushaltsgeräte für Smart-Home-Anwendungen vorherrschend. Aus Sicht der Datenanalyse besteht ein wichtiges Ziel bei der Analyse solcher IoT-Daten darin, Erkenntnisse aus den Energieverbrauchsmustern zu gewinnen und so zu versuchen, die Energieeffizienz der Gerätenutzung zu optimieren. Die Datenanalyse funktioniert normalerweise im Backend, indem sie ein großes Archiv von Big Data durchsucht, das im Laufe der Zeit angesammelt wurde, um das Gesamtmuster aus den Sensordatenfeeds zu lernen. Das andere Ziel der Analyse, das oft wichtiger ist, besteht darin, vorherzusagen und zu identifizieren, ob ein anormales Verbrauchsereignis bevorsteht. Zum Beispiel ein plötzlicher Energieentzug, der zu einem Hot Spot im Stromnetz in einer Stadt führt, oder ein Stromausfall zu Hause. Diese dynamische Vorhersage wird normalerweise auf operativer Ebene mit bewegten Datenströmen durch Data Stream Mining-Methoden durchgeführt. In diesem Artikel wird eine verbesserte Version eines sehr schnellen Entscheidungsbaums (VFDT) vorgeschlagen, der aus falsch klassifizierten Ergebnissen lernt, um die verrauschten Daten aus dem Lernen zu filtern und eine scharfe Klassifizierungsgenauigkeit des induzierten Vorhersagemodells aufrechtzuerhalten. Insbesondere wird eine neue Technik namens fehlklassifizierter Rückruf (MR) formuliert, die ein Vorverarbeitungsschritt für die Selbstkorrektur fehlklassifizierter Instanzen ist. Bei der Energiedatenvorhersage sind die meisten falsch klassifizierten Fälle auf Datenübertragungsfehler oder fehlerhafte Geräte zurückzuführen. Der erstere Fall tritt zeitweise auf, und die Fehler aus der letzteren Ursache können lange Zeit bestehen bleiben. Durch das Zwischenspeichern der Daten im MR-Präprozessor kann das One-Pass-Online-Modelllernen bei zeitweiligen Problemen am drahtlosen Sensornetzwerk effektiv abgeschirmt werden, ebenso könnten die gespeicherten Daten im Nachhinein untersucht werden, falls das Problem länger besteht. Es werden Simulationsexperimente mit einem Datensatz zur Vorhersage des Energieverbrauchs von außergewöhnlichen Geräten in einem Niedrigenergiegebäude durchgeführt. Die berichteten Ergebnisse bestätigen die Wirksamkeit der neuen Methodik VFDT + MR im Vergleich zu einer Sammlung populärer Data Stream Mining-Algorithmen aus der Literatur.;-;-;-;https://link.springer.com/article/10.1007/s12652-018-0685-7 dd2ad9df06e83dee8a3080daab2d0cac;de;;;7.4.;;;Ein intelligentes hybrides Deep-Belief-Network-Modell zur Vorhersage der Beschäftigungsfähigkeit von Schülern In jüngster Zeit ist die Frage der Beschäftigungsfähigkeit nicht nur für Absolventen, sondern auch für Bildungseinrichtungen zu einem kritischen Anliegen geworden. Daher spielen Modelle zur Vorhersage der Beschäftigungsfähigkeit eine wichtige Rolle bei der Analyse der Fähigkeit der Studierenden, eine Beschäftigung zu finden. In diesem Beitrag wird ein Hybridmodell aus Deep-Belief-Network und Soft-Max-Regression (DBN-SR) für die Vorhersage der Beschäftigungsfähigkeit von Schülern vorgeschlagen. Anfänglich wird eine Vorverarbeitung der Schülerdaten durchgeführt, um irrelevante Attribute zu entfernen, um Datenkonsistenz zu erreichen. Um die Genauigkeit des Vorhersagemodells zu verbessern, wird ferner das auf einem Crow-Suchalgorithmus basierende Merkmalsauswahlmodell verwendet, um die optimale Teilmenge von Merkmalen aus den ursprünglichen Merkmalen auszuwählen. Dann wird die ausgewählte Teilmenge von Merkmalen als Eingabe des Deep-Belief-Networks (DBN) zum intrinsischen Merkmalslernen verwendet, um eine Merkmalsdarstellung auf hoher Ebene zu erhalten. Schließlich wird die Soft-Max-Regression (SR) verwendet, um die Klasse der Schüler als erwerbstätig oder arbeitslos vorherzusagen. Das vorgeschlagene Modell zur Vorhersage der Beschäftigungsfähigkeit erreicht eine Genauigkeit von über 98%, was vergleichsweise 2,5% ist, 5% höher als die auf Deep Autoencoder und Deep Neural Network basierenden Modelle. Die Leistungsergebnisse bewiesen, dass das vorgeschlagene DBN-SR-Modell gut geeignet ist, um die Beschäftigungsfähigkeit von Schülern vorherzusagen.;-;-;-;https://link.springer.com/article/10.1007/s00500-021-05850-x f50a4ab719091def3d46ee907abb36b3;de;;;7.4.;;;Ein virtuelles Testbed für die Untersuchung kritischer Vorfälle mit autonomer Fernvermessung von Luftfahrzeugen, künstlicher Intelligenz und Entscheidungsunterstützung Autonome Robotik und Techniken der künstlichen Intelligenz können eingesetzt werden, um das menschliche Personal bei kritischen Vorfällen zu unterstützen. Diese Vorfälle können eine große Gefahr für Menschenleben darstellen. Einige Beispiele für eine solche Unterstützung sind: Multi-Roboter-Vermessung der Szene, Sammlung von Sensordaten und Szenenbildern, Echtzeit-Risikobewertung und -analyse, Objektidentifizierung und Anomalieerkennung sowie Abrufen relevanter Begleitdokumente wie Standardarbeitsanweisungen ). Diese Zwischenfälle, auch wenn sie oft selten sind, können chemische, biologische, radiologische/nukleare oder explosive (CBRNE) Stoffe betreffen und können schwerwiegende Folgen haben. Eine praxisnahe Schulung und Bereitstellung dieser Systeme kann kostspielig und manchmal nicht durchführbar sein. Aus diesem Grund haben wir ein realistisches 3D-Modell eines CBRNE-Szenarios entwickelt, das als Testumgebung für eine erste Reihe von unterstützenden KI-Tools dient, die wir entwickelt haben (Diese Forschung wurde vom Horizon 2020-Programm der Europäischen Union im Rahmen der Finanzhilfevereinbarung Nr. 700264.).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-13453-2_18 de1024655db51621b04f66502e7c4e26;de;;;7.4.;;;Implementieren von maschinellem Lernen auf Edge-Geräten mit begrenztem Arbeitsspeicher Die Architektur zielt darauf ab, das Computing an den Rand zu drängen. Wenn der größte Teil der Berechnung in Richtung des Edge-Geräts erfolgt, auf dem die Daten erzeugt werden, wird die Verarbeitung schneller und effizienter. Dies verbessert die Wartezeit des Benutzers und liefert dem Benutzer schneller Ergebnisse. In den Edge-Geräten werden Techniken des maschinellen Lernens implementiert. Während man Daten am Sensor verarbeiten kann, ist das, was man tun kann, durch die auf jedem IoT-Gerät verfügbare Rechenleistung begrenzt. Daten sind das Herzstück einer IoT-Architektur, und man muss sich bei der Verarbeitung dieser Daten zwischen Unmittelbarkeit und Einsichtstiefe entscheiden. Je unmittelbarer der Informationsbedarf, desto näher an den Endgeräten muss Ihre Verarbeitung sein. Wir schlagen eine Architektur vor, um maschinelle Lernalgorithmen im begrenzten Speicher des Edge-Geräts zu verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0146-3_123 17a066f0434ec0082f6fe25e42a8f92c;de;;;7.4.;;;Erkennen des Ursprungs von DDoS-Angriffen in der OpenStack Cloud-Plattform mithilfe von Data-Mining-Techniken Das Papier präsentiert die Ergebnisse des Designs und der Implementierung eines Erkennungssystems gegen DDoS-Angriffe für die OpenStack Cloud-Computing-Plattform. Das vorgeschlagene System verwendet Data-Mining-Techniken, um bösartigen Datenverkehr zu erkennen. Formale Modelle zur Erkennung von Komponenten werden beschrieben. Um Data-Mining-Modelle zu trainieren, wurde echter legitimer Verkehr mit modelliertem bösartigem kombiniert. Paper präsentiert Ergebnisse der Ermittlung des Ursprungs von DDoS-Angriffen auf Cloud-Instanzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-46301-8_25 599949259b5dea273ac5949654e2be74;de;;;7.4.;;;Identifizierung der Zusammenhänge zwischen Armut, Wasserkraft und Wassernutzung mithilfe von Data-Mining-Methoden Wasser ist von grundlegender Bedeutung für das menschliche Wohlbefinden, die soziale Entwicklung und die Umwelt. Die Wasserentwicklung, insbesondere die Wasserkraft, ist eine wichtige erneuerbare Energiequelle. Die Wasserentwicklung ist stark von Armut betroffen, es wurden jedoch nur wenige Versuche unternommen, die Zusammenhänge zwischen Wasserentwicklung und Armut aus globaler Wasserentwicklungsperspektive zu verstehen. In dieser Arbeit wurde dieser Zusammenhang anhand von Daten zum Bau von Stauseen, Wasserkraft und Wassernutzung zusammen mit sechs abgeleiteten Indikatoren untersucht. Wir haben Assoziationsregel-Mining und Klassifikations- und Regressionsbäume (CART) verwendet, um die Links zu identifizieren. Random Forests wurden eingesetzt, um nach armutsempfindlichen Faktoren zu suchen. Diese Studie zeigt, dass die Reservoirdichte signifikant mit Armut zusammenhängt und die Reservoirdichte in Ländern mit höheren Armutsquoten geringer ist. Länder mit einer höheren Nutzung von Kleinwasserkraftanlagen (KWK) sind im Allgemeinen wie folgt wohlhabender: Eine KWK-Nutzungsrate von über 27% entspricht einer Armutsquote von unter 4,9%. Wesentlich für die Vorhersage der Armutsklasse war das Verhältnis von Wassernutzung, Wasserverfügbarkeit pro Kopf (WAPC) und Reservoirdichte. Alle drei Kennzahlen könnten mit der Armutsbekämpfung in Verbindung gebracht werden, da sie die Identifizierung des Potenzials für die Entwicklung der Wasserressourcen und ihrer Einschränkungen ermöglichen. Diese Studie kommt zu dem Schluss, dass der Wasserentwicklung in armen Ländern mehr Aufmerksamkeit geschenkt werden muss.;-;-;-;https://link.springer.com/article/10.1007/s11269-020-02524-5 07f24db1732e24eddfafb3261c495ce4;de;;;7.4.;;;Umfrage zum Big Data Security Framework Big Data sind große Datensätze, die entweder strukturierte/unstrukturierte Sammlungen verschiedener Datenformate sind. Diese Repositories werden für die Informationsextraktion und Entscheidungsfindung abgebaut. Die sensiblen Daten ziehen unbefugten Zugriff nach sich, was dazu führt, jeden einzelnen anfälligen Zugangspunkt zu sichern. Sicherheit in Big Data ist eines der interessanten Forschungsgebiete.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-62698-7_39 479398da6818864ee86d9cb755251895;de;;;7.4.;;;Intelligente Bewässerungs- und Ernteertragsvorhersage mit drahtlosen Sensornetzwerken und maschinellem Lernen Die Landwirtschaft bestimmt die monetäre Entwicklung des Landes und ist als dessen Rückgrat bekannt. Landwirte, Spezialisten und spezialisierte Hersteller arbeiten zusammen, um effektivere Antworten für die Behandlung verschiedener spezifischer Probleme in der Landwirtschaft zu finden, um die aktuelle Generation und Verfahren zu verbessern. Die vorgeschlagene Struktur für die Präzisionslandwirtschaft verwendet einfache natürliche Sensoren, ein Arduino Uno-Prototyping-Board und ein paar Fernbedienungen (XBee ZB S2) neben einer Anregungsschaltung, um ein robotisiertes Wassersystem und eine Erntekontrolle zu ermöglichen. Das vorgeschlagene Modell verwendet die XBee-Konvention, die von der ZigBee-Innovation abhängt. Die entscheidenden Attribute der ZigBee-Innovation, die sich ideal für eine präzise Landwirtschaft eignen, sind niedrige Informationsrate, geringer Stromverbrauch und größere Reichweite. In diesem Sinne ist die ZigBee-Innovation aufgrund der zuvor erwähnten Eigenschaften die Hauptentscheidung für die Aktualisierung der exakten Landwirtschaft.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9187-3_40 105e9d56cdad00d6bcdda7abc564a314;de;;;7.4.;;;Kommunikationseffiziente verteilte Online-Vorhersage durch dynamische Modellsynchronisation Wir präsentieren das erste Protokoll für verteilte Online-Vorhersage, das darauf abzielt, den Verlust von Online-Vorhersagen und die Netzwerkkommunikation gleichzeitig zu minimieren. Dieses Protokoll kann überall dort angewendet werden, wo ein auf Vorhersage basierender Dienst für jeden Datenpunkt einer Vielzahl von Hochfrequenzdatenströmen, von denen jeder an einem lokalen Knoten eines verteilten Systems beobachtet wird, rechtzeitig bereitgestellt werden muss. Beispielhafte Anwendungen umfassen die Empfehlung von sozialen Inhalten und den algorithmischen Handel. Die Herausforderung besteht darin, die gemeinsame Vorhersageleistung der Knoten durch den Austausch von Informationen zwischen ihnen auszugleichen, ohne zuzulassen, dass der Kommunikationsaufwand die Reaktionsfähigkeit des Dienstes beeinträchtigt. Technisch basiert das vorgeschlagene Protokoll auf der dezentralen Steuerung der Varianz der lokalen Modelle. Dieser Ansatz behält das asymptotische optimale Bedauern früherer Algorithmen bei. Gleichzeitig ermöglicht es eine deutliche Reduzierung der Netzwerkkommunikation und bleibt im Gegensatz zu bisherigen Ansätzen anwendbar, wenn die Daten nicht stationär sind und eine schnelle Konzeptdrift zeigen. Wir zeigen empirisch, dass das Protokoll mit nur einem Bruchteil der für Benchmark-Methoden erforderlichen Kommunikation eine hohe Vorhersageleistung aufrechterhält.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44848-9_40 b1b614a10dc2cbab977f20d158d27d92;de;;;7.4.;;;Architektur der adaptiven Spamfilterung basierend auf maschinellen Lernalgorithmen Spam wird allgemein als unerwünschte E-Mail-Nachrichten definiert und das Ziel der Spam-Filterung besteht darin, zwischen Spam und legitimen E-Mail-Nachrichten zu unterscheiden. Es wurde viel Arbeit geleistet, um Spam mithilfe des maschinellen Lernalgorithmus aus legitimen E-Mails herauszufiltern, und es wurde eine beträchtliche Leistung mit einer gewissen Anzahl von falsch positiven (FP) Kompromissen erzielt. Bei der Spam-Erkennung ist das FP-Problem manchmal inakzeptabel. In diesem Artikel wurde ein adaptives Spamfiltermodell vorgeschlagen, das auf Algorithmen des maschinellen Lernens (ML) basiert, das eine bessere Genauigkeit durch die Reduzierung von FP-Problemen erreicht. Dieses Modell besteht aus einem individuellen und kombinierten Filteransatz aus existierenden wohlbekannten ML-Algorithmen. Das vorgeschlagene Modell berücksichtigt sowohl individuelle als auch kollektive Ergebnisse und analysiert sie durch einen Analysator. Eine dynamische Merkmalsauswahl (DFS)-Technik, die in diesem Papier ebenfalls vorgeschlagen wird, um eine bessere Genauigkeit zu erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72905-1_41 b0a5ee52cbf2b1cf2b0788f9ae216b64;de;;;7.4.;;;Minderung von Gender Bias in Datensätzen für maschinelles Lernen Algorithmische Voreingenommenheit hat die Fähigkeit, gesellschaftliche Voreingenommenheit zu verstärken und zu verewigen, und hat tiefgreifende ethische Implikationen für die Gesellschaft. Gender Bias bei Algorithmen wurde im Zusammenhang mit Stellenanzeigen und Rekrutierungstools aufgrund ihrer Abhängigkeit von zugrunde liegenden Sprachverarbeitungs- und Empfehlungsalgorithmen festgestellt. Versuche, solche Probleme anzugehen, beinhalteten das Testen gelernter Assoziationen, die Integration von Konzepten der Fairness in das maschinelle Lernen und die Durchführung einer strengeren Analyse der Trainingsdaten. Die Minderung von Verzerrungen, wenn Algorithmen auf Textdaten trainiert werden, ist angesichts der komplexen Art und Weise, in der die Geschlechterideologie in die Sprache eingebettet ist, eine besondere Herausforderung. Dieses Papier schlägt einen Rahmen zur Identifizierung von Gender Bias in Trainingsdaten für maschinelles Lernen vor. Die Arbeit stützt sich auf Gender-Theorie und Soziolinguistik, um systematisch das Ausmaß der Verzerrung in textuellen Trainingsdaten und zugehörigen neuronalen Worteinbettungsmodellen aufzuzeigen und so Wege aufzuzeigen, um sowohl Verzerrungen aus Trainingsdaten zu entfernen als auch ihre Auswirkungen im Kontext von Such- und Empfehlungssystemen kritisch zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-52485-2_2 a93235cd3dcee4d56d8a18ecb86d23ca;de;;;7.4.;;;Ähnlichkeitsschätzung mit Bayes-Ensembles Ähnlichkeitssuche und Data Mining beruhen oft auf Distanz- oder Ähnlichkeitsfunktionen, um aussagekräftige Ergebnisse und semantisch sinnvolle Muster zu liefern. Standard-Abstandsmaße wie;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13818-8_37 283d3b7bda35e0eb006985489f2628f0;de;;;7.4.;;;Computergestütztes Design, Analogie und Kreativität Wir charakterisieren Kreativität im Design zunächst aus einer informationsverarbeitenden Perspektive und analysieren analoges Denken als Kernprozess gestalterischer Kreativität. Dann beschreiben wir eine rechnergestützte Theorie des analogen Designs, die als modellbasierte Analogie bezeichnet wird. Als nächstes fassen wir empirische Ergebnisse aus In-situ-Beobachtungen analogen Denkens in biologisch inspiriertem Design zusammen. Dann analysieren wir biologisch inspiriertes Design aus der Sicht einer modellbasierten Analogie. Schließlich reflektieren wir kurz die computergestützte Kreativitätsforschung zum analogen Design.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-43610-4_7 65e86251dca0d2341543093c4ac8a2e6;de;;;7.4.;;;Bedrohung oder Chance – Analyse der Auswirkungen von Künstlicher Intelligenz auf die zukünftige Beschäftigung Als Hauptkraft der zukünftigen Entwicklung von Wissenschaft und Technologie ist die Technologie der künstlichen Intelligenz zur Richtung vieler Länder, Unternehmen und Forscher geworden. Der technologische Fortschritt der künstlichen Intelligenz hat jedoch enorme Veränderungen auf dem Arbeitsmarkt mit sich gebracht und hat auch erhebliche Auswirkungen auf die Beschäftigungs- und Einkommensverteilung der Arbeitnehmer. In diesem Papier verwenden wir die Methoden der Texterhebung, der Fragebogenerhebung und des Tiefeninterviews, um die Auswirkungen von KI auf die zukünftige Beschäftigung zu untersuchen. Insbesondere nimmt dieses Papier die repräsentativsten Städte der zweiten und dritten Ebene als Forschungsobjekte und verwendet eine multiple lineare Regressionsanalyse-Technologie, um das Verständnis der Praktiker in Bezug auf die Technologie der künstlichen Intelligenz, die Akzeptanz der Praktiker in Bezug auf die künstliche Intelligenz und die Gründe zu untersuchen warum die Technologie der künstlichen Intelligenz schwierige Beschäftigungsverhältnisse verursachen kann, die neuen Beschäftigungsmöglichkeiten, die die künstliche Intelligenz hervorbringen kann, die Strategien zum Umgang mit den Auswirkungen der künstlichen Intelligenz Dieses Papier untersucht die Auswirkungen von KI auf die zukünftige Beschäftigung und unterbreitet entsprechende Vorschläge und Gegenmaßnahmen von Regierung, Unternehmen, Universitäten und Einzelpersonen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-49907-5_21 afc0abe9d82b9a0b497e91473b029383;de;;;7.4.;;;Halbüberwachte Gaußsche Prozess-Ordinale Regression Das Problem der ordinalen Regression tritt in Situationen auf, in denen Beispiele auf einer ordinalen Skala bewertet werden. In der Praxis sind beschriftete Ordinaldaten schwer zu erhalten, während unmarkierte Ordinaldaten in Hülle und Fülle verfügbar sind. Das Entwerfen eines probabilistischen halbüberwachten Klassifikators zur Durchführung einer ordinalen Regression ist eine Herausforderung. In dieser Arbeit schlagen wir einen neuen Ansatz für die semi-überwachte ordinale Regression mit Gauß-Prozessen (GP) vor. Es verwendet die Erwartungs-Ausbreitungs-Approximationsidee, die häufig für GP-Ordinalregressionsprobleme verwendet wird. Der vorgeschlagene Ansatz verwendet zusätzlich zu den gekennzeichneten Daten unmarkierte Daten, um ein Modell zu lernen, indem ordinale Labelverteilungen ungefähr zwischen markierten und unmarkierten Daten abgeglichen werden. Das resultierende gemischt-ganzzahlige Programmierproblem mit Modellparametern (reellwertig) und Ordinallabels (Ganzzahlen) als Variablen wird effizient durch eine Abfolge alternierender Optimierungsschritte gelöst. Experimentelle Ergebnisse zu synthetischen, Benchmark- und realen Datensätzen zeigen, dass der vorgeschlagene GP-basierte Ansatz die unmarkierten Daten effektiv nutzt, um eine bessere Generalisierungsleistung (insbesondere bezüglich der absoluten Fehlermetrik) als der überwachte Ansatz zu erzielen. Somit ist es ein nützlicher Ansatz für probabilistische halbüberwachte ordinale Regressionsprobleme.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40994-3_10 b1b38f1f5b9a595fde5a160014cf40e0;de;;;7.4.;;;Semi-überwachtes K-Way-Spektral-Clustering mit Bestimmung der Cluster-Anzahl In diesem Papier schlagen wir eine neue halbüberwachte spektrale K-Weg-Clustering-Methode vor, die die Anzahl der Cluster automatisch schätzen und dann einige begrenzte Überwachungsinformationen integrieren kann. Tatsächlich kann die spektrale Clusterbildung dank der Bereitstellung von Vorwissen geleitet werden. Für die automatische Ermittlung der Clusteranzahl schlagen wir vor, ein Kriterium zu verwenden, das auf einer Minimierung der Ausreißeranzahl basiert. Dann besteht das Vorwissen aus paarweisen Beschränkungen, die angeben, ob ein Paar von Objekten zu demselben Cluster gehört (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35638-4_21 10248092422c9ba66b575a23aafd4361;de;;;7.4.;;;Stereo Frustums: eine siamesische Pipeline für die 3D-Objekterkennung Das Papier schlägt ein leichtgewichtiges Stereofrustum-Matching-Modul für die 3D-Einwanderkennung vor. Das vorgeschlagene Framework nutzt einen leistungsstarken 2D-Detektor und ein Punktwolken-Segmentierungsnetzwerk, um 3D-Bounding Boxes für autonom fahrende Fahrzeuge zu regressieren. Anstatt herkömmliches Stereo-Matching durchzuführen, um Disparitäten zu berechnen, verwendet das Modul direkt die 2D-Vorschläge aus der linken und der rechten Ansicht als Eingabe. Basierend auf den epipolaren Einschränkungen, die von den gut kalibrierten Stereokameras gewonnen wurden, schlagen wir vier Matching-Algorithmen vor, um für jeden Vorschlag zwischen den Stereobildpaaren nach der besten Übereinstimmung zu suchen. Jedes passende Paar schlägt eine Segmentierung der Szene vor, die dann in ein 3D-Bounding-Box-Regressionsnetzwerk eingespeist wird. Die Ergebnisse umfangreicher Experimente mit dem KITTI-Datensatz zeigen, dass die vorgeschlagene siamesische Pipeline die modernsten stereobasierten 3D-Bounding-Box-Regressionsmethoden übertrifft.;-;-;-;https://link.springer.com/article/10.1007/s10846-020-01287-w f203930ee6786b2ebd73b2c468420f42;de;;;7.4.;;;Neuronales Netz mit künstlicher Intelligenz basierend auf intelligenter Diagnose Das medizinische Modell, das künstliche Intelligenz zur Unterstützung der Diagnose und Behandlung verwendet, wird als intelligente Medizin bezeichnet. Es kann das medizinische Wissen von Experten erlernen und das Denken und Denken von Ärzten simulieren, um Patienten einen zuverlässigen Diagnose- und Behandlungsplan zu geben. Ziel dieses Artikels ist es, jungen Ärzten mit ungleicher Verteilung der medizinischen Ressourcen und unzureichender Erfahrung zu helfen, indem er die Anwendung von neuronalen Netzen künstlicher Intelligenz bei der intelligenten Diagnose von Diabetes untersucht. In diesem Artikel wird vorgeschlagen, das neuronale BP-Netzwerk und das probabilistische neuronale Netzwerk zu verwenden, um die Diabetesdiagnose zu modellieren. Zuerst wird die Anzahl von Hidden-Layer-Einheiten des BP-Netzwerks gemäß dem Eingabemerkmalsvektor ausgewählt. Der Trainingseffekt ist am besten, wenn die Anzahl der Hidden-Layer-Einheiten 12 beträgt und die diagnostische Genauigkeitsrate durch Experimente 91,7% beträgt. Anschließend wurde ein PNN-Netzwerkmodell erstellt, wobei 75 % der Daten für das Training, 25 % der Daten zum Testen und zum Testen der Wirksamkeit des Netzwerkmodells verwendet wurden. Die diagnostische Genauigkeit betrug 97,9 %. Schließlich wurde die Genauigkeit der 20 neuronalen Netzmodelle 20 Mal getestet. Nach einer vergleichenden Analyse kommt man zu dem Schluss, dass das PNN-Netzmodell in Bezug auf Leistung und Genauigkeit besser ist als das BP-Neuralnetzmodell. Im Vergleich zum herkömmlichen Diagnoseprozess kann das auf neuronalen Netzwerken basierende Diagnosemodell Ärzten effektiv Zeit sparen und die Diagnoseeffizienz verbessern.;-;-;-;https://link.springer.com/article/10.1007/s12652-020-02108-6 b6915a04eacf72252c5c123871897f1e;de;;;7.4.;;;Kontextvisualisierung für Visual Data Mining Die Kontext- und Verlaufsvisualisierung spielt beim Visual Data Mining eine wichtige Rolle, insbesondere bei der visuellen Exploration großer und komplexer Datensätze. Die Erhaltung von Kontext- und Verlaufsinformationen in der Visualisierung kann das Verständnis des Benutzers für den Explorationsprozess verbessern sowie die Wiederverwendbarkeit von Abbautechniken und -parametern verbessern, um die gewünschten Ergebnisse zu archivieren. In diesem Kapitel werden die Methodik und verschiedene interaktive Visualisierungstechniken vorgestellt, die das visuelle Data Mining im Allgemeinen sowie die visuelle Erhaltung von Kontext- und Verlaufsinformationen unterstützen. Es werden auch Algorithmen beschrieben, die eine solche Methodik für das visuelle Data Mining in Echtzeit unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71080-6_16 ea576d7eeede8f83d872fc0d86de0d93;de;;;7.4.;;;Lernaktionen durch Nachahmung und Erforschung: Auf dem Weg zu humanoiden Robotern, die von Menschen lernen Voraussetzung für das Erreichen einer gehirnähnlichen Intelligenz ist die Fähigkeit, schnell neue Verhaltensweisen und Handlungen zu erlernen. Ein grundlegender Mechanismus für schnelles Lernen beim Menschen ist die Nachahmung: Kinder lernen routinemäßig neue Fähigkeiten (z. In diesem Kapitel schlagen wir einen probabilistischen Rahmen für das Imitationslernen bei Robotern vor, der davon inspiriert ist, wie Menschen durch Imitation und Exploration lernen. Anstatt sich auf komplexe (und oft spröde) physikbasierte Modelle zu verlassen, lernt der Roboter ein dynamisches Bayes-Netzwerk, das seine Dynamik direkt in Form von Sensormessungen und -aktionen während einer imitationsgeleiteten Erkundungsphase erfasst. Nach dem Lernen werden Aktionen basierend auf probabilistischer Inferenz im gelernten Bayesschen Netzwerk ausgewählt. Wir präsentieren Ergebnisse, die zeigen, dass ein humanoider Roboter mit 25 Freiheitsgraden dynamisch stabile Ganzkörper-Imitationsbewegungen erlernen kann, indem er einfach einen menschlichen Demonstrator beobachtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00616-6_7 722840e1d7b1b6d1538a957bdc5d4670;de;;;7.4.;;;Vorhersage des Ergebnisses von Spielen der englischen Premier League Heutzutage werden Vorhersagemodelle oder Vorhersagen von Ergebnissen in allen Sportarten in der Data-Mining-Community populär, und insbesondere die englische Premier League (EPL) im Fußball hat in den letzten Jahren viel Aufmerksamkeit gewonnen. Es gibt drei Hauptansätze, um die Ergebnisse vorherzusagen: statistische Ansätze, Ansätze des maschinellen Lernens und die Bayesschen Ansätze. In diesem Papier wird der Ansatz verwendet, der das maschinelle Lernen und die Bewertung aller Merkmale, die die Ergebnisse beeinflussen, verwendet und versucht, die wichtigsten Merkmale auszuwählen, die eine Fußballmannschaft zu Sieg, Niederlage oder Unentschieden führen, und sogar die Spitzenmannschaften berücksichtigen. Dieses Vorhersagemodell hilft im Wesentlichen in Wettbereichen und auch für Manager, um zu wissen, wie sie ihr Team aufbauen können, indem sie die Ergebnisse analysieren. Auch Unternehmen wie StatsBomb verwenden diese Art von Tools zum Aufbau von Scouting-Netzwerken zur Suche nach versteckten Juwelen auf der ganzen Welt. Diese Funktionen helfen dabei, das bestmögliche Ergebnis der EPL-Matches mit diesen Klassifikatoren Logistic Regression, Support Vector Machine, Random Forest und XGBoost vorherzusagen. Die für die Vorhersage verwendeten Daten werden von der Website datahub.io ausgewählt und das Modell basiert auf die Daten der letzten zehn Staffeln von EPL. Die K-fache Kreuzvalidierung wird verwendet, um die Genauigkeit des Modells zu beschreiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0733-2_30 5bfefcb13ccb5f515219dc5274e574c9;de;;;7.4.;;;Sicherstellen der Serialisierbarkeit für Mobile Data Mining auf Multimedia-Objekten Data Mining wird normalerweise als Anwendungsaufgabe betrachtet, die auf Datenbankmanagementsystemen ausgeführt wird. Dies kann jedoch nicht immer der Fall sein. Um dies zu veranschaulichen, untersuchen wir in diesem Artikel das Problem der Durchführung von Data Mining in mobilen Computerumgebungen, bei denen mehrere physische Kopien desselben Datenobjekts in Client-Caches gleichzeitig mit dem Server als primärem Eigentümer aller Datenobjekte vorhanden sein können. Indem wir zeigen, was in einer solchen Umgebung abgebaut werden kann, weisen wir auf die wichtige Verbindung von Data Mining mit der Datenbankimplementierung hin. Dies führt uns dazu, einen Blick auf das Thema der Erweiterung traditioneller Protokolle zur Verhinderung von ungültigem Zugriff zu werfen, die erforderlich sind, um die Serialisierbarkeit mit Datenaktualisierungen in mobilen Umgebungen sicherzustellen. Darüber hinaus zeigen wir anhand von Beispielen, wie solche Forschungen Aufschluss über das mobile Data Mining geben können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30537-8_10 31e4641bd9c9df0a24b872a99bab35e5;de;;;7.4.;;;Effiziente Entdeckung ungewöhnlicher Muster in Zeitreihen Das Problem des Auffindens eines bestimmten Musters in einer Zeitreihendatenbank (d. h. Abfrage nach Inhalt) hat viel Aufmerksamkeit erhalten und ist jetzt ein relativ ausgereiftes Gebiet. Im Gegensatz dazu hat das wichtige Problem, alle überraschenden oder interessanten Muster aufzuzählen, weit weniger Beachtung gefunden. Dieses Problem erfordert eine sinnvolle Definition von „Überraschung“ und eine effiziente Suchtechnik. Alle bisherigen Versuche, überraschende Muster in Zeitreihen zu finden, verwenden einen sehr begrenzten Begriff der Überraschung und/oder lassen sich nicht auf massive Datensätze skalieren. Um diese Einschränkungen zu überwinden, schlagen wir eine neuartige Technik vor, die ein überraschendes Muster definiert, wenn die Häufigkeit seines Auftretens erheblich von der zufällig erwarteten abweicht, basierend auf einigen zuvor beobachteten Daten. Diese Vorstellung hat den Vorteil, dass der Benutzer nicht explizit ein überraschendes Muster definieren muss, das einem Domänenexperten schwer oder vielleicht unmöglich zu entlocken ist. Stattdessen gibt der Benutzer dem Algorithmus eine Sammlung von zuvor beobachteten „normalen“ Daten. Unser Algorithmus verwendet einen Suffixbaum, um die Häufigkeit aller beobachteten Muster effizient zu codieren, und ermöglicht es einem Markov-Modell, die erwartete Häufigkeit zuvor nicht beobachteter Muster vorherzusagen. Sobald der Suffixbaum erstellt wurde, kann ein Überraschungsmaß für alle Muster in einer neuen Datenbank in Zeit und Raum linear in der Größe der Datenbank bestimmt werden. Wir demonstrieren die Nützlichkeit unseres Ansatzes mit einer umfangreichen experimentellen Bewertung.;-;-;-;https://link.springer.com/article/10.1007/s00354-006-0004-2 e4ad20f98924b107970763778efc806f;de;;;7.4.;;;Verschiedene Teile zusammenbringen, um ganze Köpfe besser zu verstehen Diese Kapitelsammlung befasst sich mit einer Vielzahl von Themen der Kognitionsforschung. Diese Themen beinhalten natürlich trotz ihres breiten Spektrums nicht alle Stücke, die man für einen ganzen Geist braucht. Diese Sammlung bietet jedoch Untersuchungen dazu, wie sehr unterschiedliche Forschungsthemen durch gemeinsame Themen und Perspektiven zusammengeführt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06614-1_1 3a44a7d931f243afa6d29792c152de23;de;;;7.4.;;;Integration der erweiterten Funktion mit maschinellen Lernalgorithmen für die menschliche Bewegung und Sturzerkennung Bewegungserkennung gewinnt unter verschiedenen Mustererkennungsproblemen immer mehr an Aufmerksamkeit. Die Erkennung menschlicher Bewegungsaktivitätstypen ist äußerst nützlich für die Sturzerkennung für ältere Menschen. Die drahtlose Sensornetzwerktechnologie ermöglicht die Übertragung von menschlichen Bewegungsdaten von tragbaren drahtlosen Sensorgeräten zur Fernverarbeitung. Dieser Artikel untersucht Methoden zur Verarbeitung der menschlichen Bewegungsdaten, die von tragbaren drahtlosen Sensorgeräten zur Erkennung verschiedener Arten von menschlichen Bewegungsaktivitäten wie Sitzen, Stehen, Liegen, Fallen, Laufen und Gehen empfangen werden. Mit maschinellen Lernverfahren K Nearest Neighbor Algorithmus (KNN) und dem Back Propagation Neural Network (BPNN) Algorithmus werden die Aktivitäten aus den von Sensoren erfassten Daten anhand von Beispieldaten klassifiziert. Da eine große Menge von Echtzeit-Rohdaten von Sensoren empfangen wird und mit diesen Daten Rauschen verbunden ist, werden Merkmalskonstruktion und -reduzierung verwendet, um diese rohen Sensordaten, die von Beschleunigungsmessern erhalten werden, die in drahtlosen Sensorpartikeln eingebettet sind, zum Lernen und Verarbeiten vorzuverarbeiten. Die Singulärwertzerlegungstechnik (SVD) wird zum Konstruieren der angereicherten Merkmale verwendet. Die erweiterten Funktionen werden dann in maschinelle Lernalgorithmen zur Bewegungserkennung integriert. Die Testdaten werden von fünf Erwachsenen gesammelt. Experimentelle Ergebnisse zeigen, dass unsere Methoden vielversprechende Leistungen bei der menschlichen Bewegungserkennung und Sturzerkennung erzielen können.;-;-;-;https://link.springer.com/article/10.1007/s11227-013-1056-y 0b76bdb6254580e7c4b6c225d0bd6895;de;;;7.4.;;;Leistungsbewertung der mathematischen Vorhersagemodellierung für die Vorhersage der Luftqualität Die umfangreichen Daten haben bei Forschern im Bereich der Datenanalyse mehr Aufmerksamkeit gefunden. Die Wachstumsrate der Informationen im Bereich der Informationswissenschaften liegt in einem deutlicheren Maße darüber. Und jetzt ist es eine große Herausforderung, diese großen Datenmengen wie Schwierigkeiten bei der Datenanalyse, Datenerfassung, Datenspeicherung und Datenvisualisierung usw. Es wird vorgeschlagen, die Untersuchung verschiedener Wirkungsprozesse wie Minderung, verschiedene Arrangements zur Risikoverteilung zu nutzen. In diesem Artikel wird beschrieben, wie Data Mining-Algorithmen verwendet werden, die auf dem R-Programmiertool basieren. Es gibt R-Pakete im Freien und Ropenaq, die für die Analyse von Umweltdaten zur Luftverschmutzung entwickelt wurden. Es wird gezeigt, wie dieses Paket Umweltdatensätze effektiv nutzen kann, um Muster abzuleiten. Diese abgeleiteten Muster können dann angewendet werden, um die Umweltprobleme zu untersuchen, die für die Entwicklung eines Vorhersagemodells hilfreich sind. Und dieses Vorhersagemodell spielt eine entscheidende Rolle bei der Entscheidungsfindung, die mit Unsicherheit verbunden ist. Daher entwickeln wissenschaftliche Darstellungen das Hauptmerkmal der Entscheidungshilfe bei vielen Verfahrensmaßnahmen, insbesondere bei einigen Vorsorgemaßnahmen vor Naturkatastrophen.;-;-;-;https://link.springer.com/article/10.1007/s10586-017-1667-9 147d62d542107548b34bcaf06621db2b;de;;;7.4.;;;pART2: Verwendung der adaptiven Resonanztheorie für das Web-Caching-Prefetching Da das Web zur Hauptquelle für Informationen und Dienste wird, ist für viele Anwendungen ein schneller Zugriff auf relevante Webobjekte eine entscheidende Voraussetzung. Um dieses Ziel zu erreichen, wurden verschiedene Methoden entwickelt. Das Vorabrufen von Webseiten ist eine häufig verwendete Technik, die sehr effektiv ist, um vom Benutzer wahrgenommene Verzögerungen zu reduzieren. In diesem Beitrag schlagen wir ein neues Prefetching-Modell pART2 vor, das auf der adaptiven Resonanztheorie (ART) für das Datenclustering basiert. Eine entsprechende Cache-Replacement-Policy (Probability-Based Replacement) wird ebenfalls vorgeschlagen und entwickelt. Die neue Richtlinie stimmt mit dem Vorabrufschema überein und erzeugt daher eine höhere Cache-Trefferquote verglichen mit einigen der herkömmlichen Algorithmen. Um das neue Modell zu evaluieren, führen wir eine Reihe von Experimenten mit Datensätzen aus einem digitalen Bibliothekssystem und Monte-Carlo-Simulationstechniken durch. Die Sensitivität der Parameter und die statistische Analyse werden ebenfalls vorgestellt. Das vorgeschlagene Modell unter Verwendung von ART-Typ-Netzwerken bietet einen vielversprechenden Weg zum Konstruieren genauer Caching-Vorabrufsysteme, die flexibel und anpassungsfähig sind.;-;-;-;https://link.springer.com/article/10.1007/s00521-017-3173-7 6232a5d6efa82b12b54f5f4b35e632d2;de;;;7.4.;;;Implizite Gruppenmitgliedschaftserkennung in Online-Text: Analyse und Anwendungen Unsere These ist, dass Mitglieder derselben Gruppe gemeinsame Tendenzen und Nuancen in Kommunikationsstil und -inhalt haben, insbesondere online. In diesem Papier besprechen wir einige potenzielle Anwendungen der präzisen Autorschafts-Affiliation-Technologie. Wir diskutieren auch verwandte Arbeiten bei ähnlichen Bemühungen zur Identifizierung von Autoren und die Forschungsprobleme, die derzeit bei dem Versuch bestehen, eine automatisierte Zugehörigkeit zur Autorenschaft durchzuführen. Als erste Validierung unserer Theorie stellen wir quantitative Ergebnisse unserer jüngsten Experimente zum maschinellen Lernen unter Verwendung von Support Vector Machines zur Verfügung. In diesem Papier haben wir unsere Arbeit auf die Aufgabe angewendet, Beiträge in Website-Foren nach der Zugehörigkeit ihres Autors zu klassifizieren. Wir diskutieren im Detail die stilometrischen Merkmale, die wir verwendet haben, um die automatisierte Klassifizierung durchzuführen, und teilen die ursprünglichen Merkmale in einzelne Gruppen auf, um ihre jeweiligen Beiträge und/oder Unterscheidungsfähigkeiten zu isolieren. Unsere Ergebnisse zeigen, dass es vielversprechend ist, die Gruppenrepräsentation zu automatisieren, ein wichtiger erster Schritt bei der Untersuchung der Gruppenbildung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29047-3_27 8ad815acf3e63188ea74385ab06a27d6;de;;;7.4.;;;Ein zweischichtiges Demenzdiagnosesystem mit maschinellen Lerntechniken Using Studien zeigen, dass Demenz stark altersabhängig ist. Eine frühzeitige Diagnose kann dem Patienten helfen, eine rechtzeitige Behandlung zu erhalten und die Verschlechterung zu verlangsamen. In diesem Papier wurde eine hierarchische Doppelschichtstruktur mit Algorithmen für das maschinelle Lernen für die Frühdiagnose von Demenz vorgeschlagen. Fuzzy Cognitive Map (FCM) und neuronale Wahrscheinlichkeitsnetze (PNNs) wurden verwendet, um eine erste Diagnose auf der Basisschicht zu geben, und dann wurden Bayessche Netze (BNs) verwendet, um eine endgültige Diagnose auf der obersten Schicht zu erstellen. Diagnoseergebnisse, „vorgeschlagene Behandlung“ und „keine Behandlung erforderlich“ können verwendet werden, um medizinischen Einrichtungen Selbsttests oder sekundäre Demenzdiagnosen bereitzustellen. Um die Zuverlässigkeit des vorgeschlagenen Systems zu demonstrieren, wurden klinische Daten des Universitätskrankenhauses Cheng Kung untersucht. Die Genauigkeit dieses Systems betrug 83%, was zeigte, dass das vorgeschlagene System zuverlässig und flexibel war.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32909-8_41 9e1485eca3db45628b03ffdaff93b7f2;de;;;7.4.;;;Semi-überwachte SVM-basierte Merkmalsauswahl für die Krebsklassifikation unter Verwendung von Microarray-Genexpressionsdaten Genexpressionsdaten leiden immer unter dem Problem der hohen Dimensionalität, daher wird die Merkmalsauswahl zu einem grundlegenden Werkzeug bei der Analyse der Krebsklassifikation. Grundsätzlich können die Daten ohne Angabe der Etiketteninformationen leicht gesammelt werden, was sehr nützlich ist, um die Genauigkeit der Klassifizierung zu verbessern. Etiketteninformationen sind normalerweise schwer zu erhalten, da die Etikettierprozesse langwierig, kostspielig und fehleranfällig sind. Bisherige Studien zur Genselektion widmen sich meist überwachten und unüberwachten Ansätzen. Support Vector Machine (SVM) ist eine gängige überwachte Technik, um Probleme bei der Genselektion und der Krebsklassifizierung anzugehen. Daher zielt dieses Papier darauf ab, eine semi-überwachte SVM-basierte Merkmalsauswahl (S;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19066-2_45 d8fce95cadacf6b22f6b082261f85d01;de;;;7.4.;;;Halbautomatische semantische Annotation von Bildern mit Techniken des maschinellen Lernens Der Erfolg des Semantic Web hängt von der Möglichkeit ab, semantische Markups auf Webseiten und deren Komponenten auf kosteneffektive Weise und im Einklang mit übernommenen Schemata und Ontologien zu erstellen. Da Bilder ein wesentlicher Bestandteil des Webs sind, konzentriert sich diese Arbeit auf einen intelligenten Ansatz zur semantischen Annotation von Bildern. Wir schlagen eine dreischichtige Architektur vor, bei der die unterste Schicht aus den Rohbildinhalten extrahierte visuelle Informationen organisiert, die in der mittleren Schicht auf semantisch bedeutsame Schlüsselwörter abgebildet werden, die dann mit Schemata und Ontologien auf der obersten Schicht verbunden werden. Unser wesentlicher Beitrag ist der Einsatz von Machine-Learning-Algorithmen zur benutzerunterstützten, halbautomatischen Bildannotation, sodass das Wissen über bereits annotierte Bilder – sowohl auf Metadaten- als auch auf visueller Ebene – genutzt wird, um die Annotation nachfolgender Bilder zu beschleunigen innerhalb derselben Domäne (Ontologie) sowie um die zukünftige Abfrage und das Abrufen von annotierten Bildern zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39718-2_35 a17bf58092a19ab82353722a23759c8c;de;;;7.4.;;;Erkennung von Quellcode-Fehlern mehrerer Arten basierend auf TextCNN Die klassische statische Analyse zur Fehlererkennung hängt meist von der Code-Kompilierung oder virtuellen Kompilierung ab, was mittlerweile hohe fachliche Erfahrung erfordert. Die existierenden Deep-Learning-basierten Code-Defekt-Analyseverfahren sind meist binäre Klassifikationsverfahren, bei denen die Art der Defekte nicht genau beurteilt werden kann. Unter der Bedingung, das Projekt nicht zu kompilieren, wurde eine neue Multiklassifizierungsmethode vorgeschlagen, die eine typ-, funktions- und dateiübergreifende Fehlererkennung von Quellcode erreichen kann. Die Kernteile waren word2vec und TextCNN, die auf der Grundlage eines abstrakten Syntaxbaums, eines Codeattributgraphen und Programmabschnitten trainiert wurden. Der öffentliche Datensatz SARD und Open-Source-Projekte wurden verwendet, um die Leistungsfähigkeit der Methode zu überprüfen. Die Ergebnisse zeigen, dass diese Methode in der Lage ist, 60 Kategorien von Quellcode-Fehlerklassifizierungsaufgaben zu bewältigen, was den bestehenden Methoden in Bezug auf Präzision der Modellbewertungsparameter, Wiedererkennung und;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9739-8_8 f1ae45bfed56f240cf72872a0e6b7184;de;;;7.4.;;;Themenerkennung und Evolutionsanalyse auf Microblog Die Studie zur Themenentwicklung kann den Menschen helfen, die Besonderheiten von Themen zu verstehen. Die traditionelle Studie zur Themenentwicklung basiert auf dem LDA-Modell, aber für Microblog-Daten ist der Effekt dieses Modells nicht signifikant. In diesem Beitrag wird ein MLDA-Modell vorgeschlagen, das die Beziehung zu Microblog-Dokumenten, Themen-Tags und Autorenbeziehungen berücksichtigt. Anschließend wird die Themenentwicklung in Inhalt und Intensität analysiert. Die Experimente mit Microblog-Daten haben die Effektivität und Effizienz des vorgeschlagenen Ansatzes zur Themenerkennung und Evolutionsanalyse auf Microblog gezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44980-6_8 c7c1db1c9a97bc5b30b2d8ffa3841734;de;;;7.4.;;;Neue unbeaufsichtigte Support-Vektor-Maschinen Support Vector Machines (SVMs) sind seit mehr als zehn Jahren dominante Lerntechniken und werden hauptsächlich bei überwachten Lernproblemen angewendet. Kürzlich werden schöne Ergebnisse durch unüberwachte Klassifikationsalgorithmen mit zwei Klassen erzielt, bei denen die Optimierungsprobleme auf Bounded;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02298-2_89 a7f02fb4be36a93c31004ede018b9134;de;;;7.4.;;;Auf zwei KI-Traditionen Um die Rolle von Expertensystemen als Medium für den Transfer von Wissen und Fähigkeiten innerhalb von Organisationen zu verstehen, muss man die Natur der Expertise im Kontext des Arbeitslebens verstehen. Im Zentrum dieses Transferproblems steht die Debatte über die Natur des impliziten/impliziten Wissens und das Problem seiner Formalisierung in expliziter Form. Dieser Beitrag betrachtet den britischen Ansatz zur Entwicklung wissensbasierter Systeme, der als überwiegend rationalistisch angesehen wird, und vergleicht ihn mit dem skandinavischen Ansatz, der als überwiegend humanistisch gilt. Das Papier schlägt vor, dass die Entwicklung von Expertensystemen als Kommunikationsmedien, die darauf abzielen, das Wissen und die Fähigkeiten der Benutzer zu verbessern und zu teilen, von entscheidender Bedeutung für die Debatte über den Transfer von Wissen und Fähigkeiten ist. Es wird ein menschenzentrierter Ansatz für die Zukunft vorgeschlagen, der die beiden oben genannten Traditionen zusammenführt und so einen Entwicklungsrahmen für wissensbasierte Systeme bietet.;-;-;-;https://link.springer.com/article/10.1007/BF01891366 b4ef08270f3d682c9635f69519685ffe;de;;;7.4.;;;Eine Bewertungsmethodik für tiefe neuronale 3D-Netze mit Visualisierung in der 3D-Datenklassifizierung 3D tiefe neuronale Netze debugging machen. In der Studie entwickeln und schlagen wir eine 3D-Methode zur Visualisierung von tiefen neuronalen Netzwerken zur Leistungsbewertung von 3D tiefen neuronalen Netzwerken vor. Unsere Forschung wurde mit einem tiefen neuronalen 3D-Netzwerkmodell durchgeführt, das die beste Leistung zeigt. Die Visualisierungsmethode der Forschung ist eine Methode zur Visualisierung eines Teils des 3D-Objekts durch Analyse der naiven Bayesschen Methode zur Generierung von 3D-Komplementinstanzen und der Vorhersagedifferenz jedes Merkmals. Die Methode betont den Einfluss des Netzwerks auf den Entscheidungsprozess. Das Ergebnis der Visualisierung durch den Algorithmus der Studie zeigt einen deutlichen Unterschied basierend auf der Ergebnisklasse und der Instanz innerhalb der Klasse, und die Autoren können Erkenntnisse gewinnen, die die Leistung des DNN-Modells (Deep Neural Networks) durch die analysierten Ergebnisse. Tiefe neuronale 3D-Netze können indirekt debugging gemacht werden, und nach Abschluss des Visualisierungsverfahrens und der Analyse des Ergebnisses kann das Verfahren als Evaluierungsverfahren für allgemeines nicht debuggbares DNN und als Debugging-Verfahren verwendet werden.;-;-;-;https://link.springer.com/article/10.1007/s12206-019-0233-1 53eb7aca2c79de0aa25a79171b0b13f1;de;;;7.4.;;;Informationstheoretischer Fuzzy-Ansatz zur Wissensermittlung in Datenbanken Wir schlagen einen neuartigen, einheitlichen Ansatz zur Automatisierung des gesamten Prozesses der Wissensermittlung in Datenbanken (KDD) vor. Der Ansatz baut auf Shannons Informationstheorie, statistischen Schätzmethoden und Fuzzy Logic auf. Zu den zu automatisierenden KDD-Stufen gehören: Dimensionsreduktion, Ermittlung informativer Regeln (Muster), Vorhersage von Werten unbekannter Attribute und Bereinigung eines Datensatzes von wenig zuverlässigen Daten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0819-1_23 96873c748b8108a5544761272d3d0b71;de;;;7.4.;;;Wissensentdeckung aus sehr großen Datenbanken mit häufigen Konzeptgittern Datenclustering und die Erkennung von Zuordnungsregeln sind zwei verwandte Probleme beim Data Mining. In diesem Beitrag schlagen wir vor, diese beiden Techniken unter Verwendung der;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45164-1_44 b7d4b2e85fe37f50a10e6c8cfc2c1ee4;de;;;7.4.;;;Multi-Data-Mining zum Verständnis des Führungsverhaltens In diesem Kapitel schlagen wir einen Ansatz vor, um das Führungsverhalten in dot-jp, einer gemeinnützigen Organisation in Japan, zu verstehen, indem wir heterogene Multidaten aus Fragebogen- und E-Mail-Archiven analysieren. Aus dem Fragebogen erhalten wir qualitative Beziehungen zwischen den Mitarbeitern. Aus E-Mail-Archiven gewinnen wir quantitative Beziehungen zwischen den Mitarbeitern. Durch die Integration dieser unterschiedlichen Arten von Beziehungen haben wir festgestellt, dass eine Führungskraft sowohl unterstützende als auch anweisende Botschaften an Mitarbeiter senden sollte, um eine zuverlässige Beziehung zu den Mitarbeitern aufzubauen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78733-4_4 f812325a9d80d6d50a374ba34d3a363a;de;;;7.4.;;;Ein neuartiger Data-Mining-Ansatz zur Bewertung der Personalleistung Leistungsbeurteilung ist seit jeher ein wichtiges Forschungsthema im Personalmanagement. Ein vernünftiger Leistungsbeurteilungsplan bildet eine solide Grundlage für die Entwicklung eines Unternehmens. Traditionelle Leistungsbewertungsprogramme sind arbeitsbasiert und es fehlt an Fairness. Darüber hinaus stehen Unternehmen im Zuge des Globalisierungs- und Technologiefortschritts vor neuen Herausforderungen bei der Leistungsbewertung, um die sich schnell ändernden strategischen Ziele und die zunehmenden funktionsübergreifenden Aufgaben zu erreichen. Dieses Papier schlägt einen Data-Mining-basierten Leistungsbewertungsrahmen vor, um eine;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-93701-4_37 c0f384604ccd0fe79f930a7645df096c;de;;;7.4.;;;Ein tiefes neuronales Netzwerk basierendes Feature-Learning-Verfahren für die Interpretation von Bohrlochprotokollen Die Interpretation von Bohrlochprotokollen ist eine wichtige Aufgabe bei der Erdölprotokollierung. Es kann den Forschern helfen, das Restölvolumen zu bestimmen und die Effizienz der Erdölproduktivität zu verbessern. Die Interpretation von Bohrlochprotokollen erfordert die Synthese einer großen Datenmenge, und es ist schwierig, die Daten aus einer globalen Perspektive manuell zu durchsuchen. Es ist dringend erforderlich, Big-Data-Analysemethoden einzuführen, um mit den komplexen Bohrlochprotokolldaten umzugehen. Die Genauigkeit der Protokollinterpretation hängt stark von der Auswahl und Darstellung der Protokollierungsfunktionen ab. Die herkömmlichen Methoden, die Expertenerfahrungen verwenden, führen jedoch leicht zu einem Problem mit unvollständigen Merkmalen und beeinträchtigen die Interpretationsergebnisse. In diesem Artikel schlagen wir eine Methode des tiefen neuronalen Netzes vor, die auf Merkmalslernmethoden zur Interpretation von Bohrlochlogs basiert. Zunächst wählen wir die ursprünglichen Merkmale der Bohrlochprotokolldaten gemäß den physikalischen Eigenschaften der Bohrlochmesssensoren aus. Und dann formulieren wir ein Autoencoder-Modell, das auf einem tiefen neuronalen Netzwerk basiert, um die intrinsische Darstellung von Originalmerkmalen zu untersuchen. Schließlich verwenden wir den linearen SVM-Klassifikator für das Problem der Bohrlochlog-Interpretation, um das vorgeschlagene Merkmallernverfahren zu bewerten. Die experimentellen Ergebnisse zeigen, dass die Klassifikationsgenauigkeit durch die Verwendung erlernter Merkmalsdarstellungen auf increase;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-67514-1_43 a26bc5c7f5504825207e1a049a517afb;de;;;7.4.;;;Eine Inhaltssuchmethode für Sicherheitsthemen in Microblogs basierend auf Deep Reinforcement Learning Herkömmliche Methoden behandeln das Suchproblem als einen Prozess der Auswahl und Einordnung sequentieller Dokumente. Die Methoden haben sich als effektiv erwiesen und werden in der Websuche weit verbreitet eingesetzt. Aufgrund der Komplexität und Besonderheit von Microblog-Textinhalten werden jedoch die klassischen Methoden der Microblog-Suche für bestimmte Themen selten verwendet. Mit Fokus auf die Suche nach bestimmten Themen in Microblog-Inhalten stellen wir eine Microblog-Suchmethode für Sicherheitsthemen vor, die auf Deep Reinforcement Learning basiert, indem die Microblog-Suche nach bestimmten Themen als kontinuierlichen Markov-Entscheidungsprozess modelliert wird. Wir konzipieren auch ein neuartiges Deep-Q-Netzwerk, um die Relevanz von Microblog-Inhalten basierend auf dem Zielthema zu bewerten. Wir setzen Reinforcement Learning ein, um das Problem der Microblog-Suche mit einer intelligenten Strategie zu lösen und die Inhaltsrelevanz durch Deep Learning zu bewerten. Experimente, die an einem realen Datensatz durchgeführt wurden, zeigen, dass unser Ansatz die ausgewählten Basismethoden übertrifft.;-;-;-;https://link.springer.com/article/10.1007/s11280-019-00697-7 d39a26e08a4477e87e464786ff054561;de;;;7.4.;;;Tabu-Suchansätze zur Lösung des Zweigruppen-Klassifikationsproblems Das Zweigruppenklassifikationsproblem besteht darin, einen Klassifikator zu konstruieren, der zwischen den beiden Gruppen unterscheiden kann. In dieser Arbeit betrachten wir das Zweigruppenklassifikationsproblem, das darin besteht, eine Hyperebene zu bestimmen, die die Anzahl der fehlklassifizierten Punkte minimiert. Wir gehen davon aus, dass der Datensatz numerisch ist und keine fehlenden Daten enthält. Wir entwickeln eine Tabu Search (TS) Heuristik zur Lösung dieses NP-schweren Problems. Der TS-Ansatz basiert auf einer bequemeren äquivalenten Formulierung des Klassifikationsproblems. Wir schlagen auch ergänzende neue Intensivierungsphasen basierend auf Surrogatbeschränkungen vor. Die Ergebnisse der durchgeführten Rechenexperimente zeigen, dass unsere TS-Algorithmen Lösungen sehr nahe am Optimum liefern und einen deutlich geringeren Rechenaufwand benötigen, sodass sie eine wertvolle Alternative zu den MIP-Ansätzen darstellen. Darüber hinaus können die in dieser Arbeit vorgestellten Tabu-Suchverfahren auf natürliche Weise auf das allgemeine Klassifikationsproblem erweitert werden, das darin besteht, mehr als eine trennende Hyperebene zu erzeugen.;-;-;-;https://link.springer.com/article/10.1007/s10479-009-0581-9 b29094a11b71deb954f59d78d49a6e50;de;;;7.4.;;;Selektives Ensemble von Klassifiziererketten Beim Lernen mit mehreren Labels wird die Beziehung zwischen den Labels als wichtig anerkannt, und es wurden verschiedene Verfahren vorgeschlagen, um die Labelbeziehungen auszunutzen. Unter ihnen,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38067-9_13 2ad043a6f1fb432d38052782c984034b;de;;;7.4.;;;Erkennung und Prävention von Datenlecks: Überprüfungs- und Forschungsanweisungen Die Weitergabe vertraulicher Daten an eine nicht autorisierte Person innerhalb oder außerhalb des Unternehmens wird als Datenleck bezeichnet. Dies kann von einer Person versehentlich oder absichtlich geschehen. Datenlecks verursachen dem Unternehmen enorme finanzielle und nicht-finanzielle Verluste. Während Daten für ein Unternehmen von entscheidender Bedeutung sind, geben wiederkehrende Vorfälle durch Datenlecks zunehmend Anlass zur Besorgnis. Dieses Papier definiert ein System zur Erkennung und Verhinderung von Datenlecks und charakterisiert es basierend auf verschiedenen Datenständen, Einsatzpunkten und Ansätzen zur Erkennung von Lecks. Darüber hinaus folgt dieser Artikel einer systematischen Literaturrecherche, die ein Jahrzehnt der bestehenden Forschungsbemühungen berücksichtigt und eine kritische Analyse derselben durch, um die darin enthaltenen Probleme und Forschungslücken aufzuzeigen. Das Papier schlägt dann wichtige Forschungsrichtungen im Bereich der Erkennung und Prävention von Datenlecks vor. Diese Übersicht hilft Forscherkollegen und interessierten Lesern, das Forschungsproblem zu verstehen, die neuesten Techniken zur Lösung des Forschungsproblems zu schätzen, auf die Forschungsherausforderungen aufmerksam zu machen und Motivation für weitere Forschung in diesem vielversprechenden Gebiet abzuleiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1884-3_19 3b38c3fe8f9698cd4218e3c98aa72926;de;;;7.4.;;;Eine effiziente und effektive Ähnlichkeitsmaßnahme, um das Data Mining von Petroglyphen zu ermöglichen Felskunst ist ein archäologischer Begriff für von Menschenhand geschaffene Markierungen auf Stein, einschließlich geschnitzter Markierungen, bekannt als Petroglyphen, und gemalter Markierungen, bekannt als Piktogramme. Es wird angenommen, dass es allein in Nordamerika Millionen von Petroglyphen gibt, und das Studium dieser wertvollen kulturellen Ressource hat Auswirkungen, die sogar über Anthropologie und Geschichte hinausgehen. Obwohl Bildverarbeitung, Informationsabruf und Data Mining einen großen Einfluss auf viele menschliche Bemühungen hatten, hatten sie überraschenderweise im Wesentlichen keinen Einfluss auf das Studium der Felskunst. In dieser Arbeit identifizieren wir die Gründe dafür und stellen ein neuartiges Entfernungsmaß und Algorithmen vor, die ein effizientes und effektives Data Mining großer Felskunstsammlungen ermöglichen.;-;-;-;https://link.springer.com/article/10.1007/s10618-010-0200-z c5768b418cfaf038a0894afbb31045ed;de;;;7.4.;;;IPMiner: versteckte ncRNA-Protein-Interaktion sequenzielles Pattern-Mining mit gestapeltem Autoencoder für genaue rechnerische Vorhersage Nicht-kodierende RNAs (ncRNAs) spielen in vielen biologischen Prozessen eine entscheidende Rolle, beispielsweise bei der Posttranskription der Genregulation. ncRNAs funktionieren hauptsächlich durch Interaktion mit RNA-bindenden Proteinen (RBPs). Um die Funktion einer ncRNA zu verstehen, ist es ein grundlegender Schritt zu identifizieren, welches Protein an ihrer Interaktion beteiligt ist. Daher ist es vielversprechend, RBPs rechnerisch vorherzusagen, wobei die größte Herausforderung darin besteht, dass das Interaktionsmuster oder -motiv schwer zu finden ist.;-;-;-;https://link.springer.com/article/10.1186/s12864-016-2931-8 20ec9947d53f68b2698a9b0d2ddf2c22;de;;;7.4.;;;Eine vergleichende Analyse der Stimmungsanalyse mit RNN-LSTM und logistischer Regression Social Media Analytics macht einen großen Unterschied für den Erfolg oder Misserfolg eines Unternehmens. Die aus sozialen Medien gesammelten Daten können verwendet werden, um ein Produkt vom Typ Hit zu erhalten, indem die Daten analysiert und wichtige Informationen über die Bedürfnisse der Menschen erhalten werden. Dies kann durch eine Sentiment-Analyse der verfügbaren Daten erfolgen und dann auf die Gefühle der Kunden bezüglich des Produkts oder der Dienstleistung zugreifen und wissen, ob es ihnen tatsächlich gefällt oder nicht. Das Tracking von Daten der Kunden hilft der Organisation in vielerlei Hinsicht. Diese Studie wurde durchgeführt, um sich mit dem Konzept der Datenanalyse und der wichtigen Rolle von Social Media vertraut zu machen. Darüber hinaus wurde ein Web-Scraping von Twitter- und YouTube-Daten durchgeführt, woraufhin ein Standarddatensatz für die anderen Analysen ausgewählt wurde. Das Feld der Stimmungsanalyse wurde verwendet, um die Emotionen der Menschen zu erfassen. Logistische Regression und RNN-LSTM-Modelle wurden verwendet, um dasselbe durchzuführen, und dann wurden die Ergebnisse verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6393-9_18 ac0f79f2ee0392e350bf147a5c013c77;de;;;7.4.;;;Neue Wege im formativen Feedback in interaktiven Lernumgebungen Formatives Feedback ist bekannt als ein Schlüsselfaktor zur Beeinflussung des Lernens. Moderne interaktive Lernumgebungen bieten eine breite Palette von Möglichkeiten, um den Schülern Feedback zu geben, sowie neue Werkzeuge, um Feedback und seine Beziehung zu verschiedenen Lernergebnissen zu verstehen. Diese Ausgabe konzentriert sich auf die Rolle des formativen Feedbacks durch einen Blick darauf, wie Technologien sowohl das Lernen der Schüler unterstützen als auch unser Verständnis der Mechanismen von Feedback verbessern. Die Beiträge in der Ausgabe umfassen eine Vielzahl von Feedback-Strategien, Unterrichtsbereichen, KI-Techniken und pädagogischen Anwendungsfällen, um formatives Feedback in interaktiven Lernumgebungen zu verbessern und zu verstehen. Die Ausgabe umfasst drei Hauptthemen, die für das Verständnis von formativem Feedback entscheidend sind: 1) die Rolle der menschlichen Informationsverarbeitung und der individuellen Lernermerkmale für die Feedback-Effizienz, 2) wie man Lernenden in Studienbereichen, in denen die Arbeit der Studenten schwer zu beurteilen ist, sinnvolles Feedback liefert, und 3) wie menschliche Feedbackquellen (zB Peer-Studenten) durch Benutzerschnittstellen und technologiegeneriertes Feedback unterstützt werden können.;-;-;-;https://link.springer.com/article/10.1007/s40593-016-0135-7 1320237e9a68888f471cba20a9e89b47;de;;;7.4.;;;Stimmungsanalyse des Code-Switched tunesischen Dialekts: Erforschung von RNN-basierten Techniken Mit der zunehmenden Nutzung sozialer Netzwerke und der Mehrsprachigkeit, die das Internet im Allgemeinen und die sozialen Medien im Besonderen prägt, befassen sich immer mehr neuere Forschungsarbeiten zu Sentiment Analysis und Opinion Mining mit der Analyse informeller Textinhalte, zu denen auch der Sprachwechsel, als Code-Switching bekannt. Insbesondere die Analyse sozialer Medien des tunesischen Dialekts, der sich sowohl durch ein häufiges Auftreten von Code-Switching als auch durch eine Doppelschrift (Arabisch und Latein) in den sozialen Medien auszeichnet, wurde bisher nur sehr wenig bearbeitet. Unsere Studie zielt darauf ab, verschiedene Klassifikationsmodelle basierend auf RNNs (Recurrent Neural Networks), genauer auf LSTM (Long Short-Term Memory) neuronalen Netzen, zu untersuchen und zu vergleichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-32959-4_9 cfa23a8abbb0d79e98aeca16223f855c;de;;;7.4.;;;Herausforderungen der Datenföderation bei der Datenverarbeitung von Nahe-Echtzeit-Fusionsexperimenten aus der Ferne Fusionsenergieexperimente und -simulationen liefern wichtige Informationen, die für die Planung zukünftiger Fusionsreaktoren benötigt werden. Da sich Geräte der nächsten Generation wie ITER in Richtung Langpulsexperimente bewegen, sollten Analysen, einschließlich KI und ML, in einer Vielzahl von Zeit- und Rechenbeschränkungen durchgeführt werden, von nahezu Echtzeitbeschränkungen über die Analyse zwischen den Aufnahmen bis hin zu Kampagnen -weite Langzeitanalyse. Das Datenvolumen, die Geschwindigkeit und die Vielfalt machen es jedoch extrem schwierig, Analysen mit nur lokalen Rechenressourcen zu erstellen. Forscher müssen in der Lage sein, Workflows zusammenzustellen und auszuführen, die Edge-Ressourcen bis hin zu großen Hochleistungs-Computing-Einrichtungen umfassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63393-6_19 a9fd94afac0f1de1522dbe3399d56e64;de;;;7.4.;;;Erfahrungserkennung und automatisierte Extraktion eines Stammbaums von Familienkrankheiten aus medizinischen Texten in russischer Sprache Textbeschreibungen in natürlicher Sprache sind ein wesentlicher Bestandteil elektronischer Patientenakten (EHRs). Solche Beschreibungen enthalten normalerweise Fakten über das Leben des Patienten, Ereignisse, Krankheiten und andere relevante Informationen. Manchmal kann es auch Fakten über ihre Familienmitglieder enthalten. Um die Fakten über die richtige Person (Experiencer) zu finden und den unstrukturierten medizinischen Text in strukturierte Informationen umzuwandeln, haben wir ein Modul zur Experiencer Detection entwickelt. Wir haben verschiedene Vektordarstellungen und Modelle für maschinelles Lernen verglichen, um die höchste Qualität von 0,96 f-Score für die binäre Klassifizierung und 0,93 f-Score für die Mehrfachklassifizierung zu erhalten. Darüber hinaus präsentieren wir die Ergebnisse, die den Stammbaum der Familienkrankheiten darstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-50423-6_45 fdae8c5e7fcf310b1f296fc6b4ccf659;de;;;7.4.;;;Konstruiertes Link-Vorhersagemodell nach Beziehungsmuster im sozialen Netzwerk Für das Linkvorhersageproblem wird die Ähnlichkeit im Allgemeinen anhand verschiedener Ähnlichkeitsmetriken oder eines Vorhersagemodells für maschinelles Lernen geschätzt. Dieses Papier schlägt jedoch einen Algorithmus vor, der als Relation Pattern Deep Learning Classification (RPDLC)-Algorithmus bezeichnet wird und auf zwei nachbarbasierten Ähnlichkeitsmetriken und einem neuronalen Faltungsnetzwerk basiert. Zunächst extrahiert der RPDLC die Merkmale für zwei Knoten in einem Paar, das mit nachbarbasierten Metrik- und Einflussknoten berechnet wird. Zweitens kombiniert der RPDLC die Merkmale von Knoten zu einer Heatmap zur Bewertung der Ähnlichkeit des Beziehungsmusters des Knotens. Drittens konstruiert der RPDLC das Vorhersagemodell zum Vorhersagen fehlender Beziehungen unter Verwendung einer neuronalen Faltungsnetzwerkarchitektur. Infolgedessen ist der Beitrag dieses Papiers ein neuartiger Ansatz für das Verbindungsvorhersageproblem, der ein neuronales Faltungsnetzwerk und Merkmale durch Beziehungsmuster verwendet, um ein Vorhersagemodell zu konstruieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-03766-6_30 9e90d69a3d799f1decda03106caf8a0d;de;;;7.4.;;;Ein adaptiver Support-Vektor-Maschinenlernalgorithmus für große Klassifikationsprobleme Basierend auf den inkrementellen und dekrementellen Lernstrategien wird in diesem Beitrag ein adaptiver Support Vector Machine Learning Algorithmus (ASVM) für große Klassifikationsprobleme vorgestellt. Bei dem vorgeschlagenen Algorithmus werden die inkrementellen und dekrementellen Prozeduren abwechselnd durchgeführt und ein kleiner Arbeitssatz, der die meisten Informationen im Trainingssatz abdecken kann und den Nachteil des Verlustes der spärlichen Unterstützungsvektormaschine (LS-SVM ), kann adaptiv gebildet werden. Der Klassifikator kann unter Verwendung dieses Arbeitssatzes konstruiert werden. Im Allgemeinen ist die Anzahl der Elemente im Arbeitssatz viel kleiner als im Trainingssatz. Daher kann der vorgeschlagene Algorithmus nicht nur verwendet werden, um die Datensätze schnell zu trainieren, sondern sie auch effektiv mit geringem Genauigkeitsverlust zu testen. Um die Trainingsgeschwindigkeit und die Generalisierungsleistung des vorgeschlagenen Algorithmus zu untersuchen, wenden wir sowohl ASVM als auch LS-SVM auf sieben UCI-Datensätze und ein Benchmark-Problem an. Experimentelle Ergebnisse zeigen, dass der neuartige Algorithmus sehr schneller als LS-SVM ist und wenig Genauigkeit bei der Lösung großer Klassifikationsprobleme einbüßt.;-;-;-;https://link.springer.com/chapter/10.1007/11759966_144 326e49259dd344fa29f9a5f4a0d2c2d4;de;;;7.4.;;;Überprüfung von Fisher Kernels auf Dokumentähnlichkeiten Dieser Beitrag stellt eine neue Metrik zur Berechnung von Ähnlichkeiten zwischen Textdokumenten vor, die auf dem von T. Hofmann vorgeschlagenen Fisher-Informationskern basiert. Indem wir einen neuen Blickwinkel auf den Einbettungsvektorraum betrachten und einen geeigneteren Weg zur Handhabung der Fisher-Informationsmatrix vorschlagen, leiten wir eine neue Form des Kernels ab, die signifikante Verbesserungen bei einer Informationsabrufaufgabe liefert. Wir wenden unseren Ansatz auf zwei verschiedene Modelle an: Naive Bayes und PLSI.;-;-;-;https://link.springer.com/chapter/10.1007/11871842_73 4abddba26075e2c3f004e43239825b64;de;;;7.4.;;;Bayesianisches Verstärkungslernen Dieses Kapitel gibt einen Überblick über neuere Arbeitslinien, die Bayes'sche Techniken für das Reinforcement Learning verwenden. Beim Bayesschen Lernen wird die Unsicherheit durch eine vorherige Verteilung über unbekannte Parameter ausgedrückt, und das Lernen wird durch Berechnen einer hinteren Verteilung basierend auf den beobachteten Daten erreicht. Somit unterscheidet sich Bayesian Reinforcement Learning von anderen Formen des Reinforcement Learning dadurch, dass es explizit eine Verteilung über verschiedene Größen wie die Parameter des Modells, die Wertfunktion, die Policy oder deren Gradient aufrechterhält. Daraus ergeben sich mehrere Vorteile: a) Domänenwissen kann auf natürliche Weise in der vorherigen Verteilung kodiert werden, um das Lernen zu beschleunigen, b) der Explorations-/Ausbeutungs-Kompromiss kann natürlich optimiert werden und c) Risikobegriffe können natürlich berücksichtigt werden, um robuste Richtlinien zu erhalten .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27645-3_11 23ab0708584e452b2993f7036ac15f84;de;;;7.4.;;;Leistungsvorhersagemodell der Schüler mit dem Meta-Klassifikator-Ansatz Die Leistung der Studierenden ist auf allen Bildungsstufen von entscheidender Bedeutung, insbesondere für Hochschulen. Eines der wichtigsten Anliegen ist es, die Leistung und Qualität der eingeschriebenen Studierenden zu verbessern. Bei gefährdeten Studierenden ist das Anfangssymptom zu beobachten und frühzeitig präventive Maßnahmen durchzuführen, um die Ursache für die Abbruchquote der Studierenden zu ermitteln. Der Zweck dieser Forschung ist es daher, Faktoren zu identifizieren, die die Leistung von Schülern mit Hilfe von Data-Mining-Techniken im Bildungsbereich beeinflussen. Um dies zu erreichen, werden Daten aus unterschiedlichen Quellen in einer einzigen Plattform zur Vorverarbeitung und Modellierung verwendet. Das Design der Studie gliedert sich in 6 verschiedene Phasen (Datenerhebung, Datenintegration, Datenvorverarbeitung wie Bereinigung, Normalisierung und Transformation, Merkmalsauswahl, Musterextraktion und Modelloptimierung sowie Auswertung. Die Datensätze wurden von Studenteninformationssystem und E-Learning-System einer öffentlichen Universität in Malaysia, während entsprechend Beispieldaten der Fakultät für Ingenieurwissenschaften verwendet wurden.In dieser Studie wurden auch akademische, demografische, wirtschaftliche und verhaltensbezogene E-Learning-Funktionen verwendet, in denen 8 Verschiedene Gruppenmodelle wurden mit 3 Basisklassifikatoren, Decision Tree, Artificial Neural Network and Support Vector Machine, und 5 Multi-Classifiern, Random Forest, Bagging, AdaBoost, Stacking und Majority Vote Classifier entwickelt optimiert. Am Ende wurde ein neues Modell zur Vorhersage der Schülerleistung entwickelt. Das Ergebnis beweist, dass die Kombination von Demografie und Verhalten Die Verwendung eines Meta-Klassifikatormodells mit optimierten Hyperparametern ergab eine bessere Genauigkeit bei der Vorhersage der Leistung der Schüler.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20257-6_19 7f2e91b540d495eef28a15527903a6aa;de;;;7.4.;;;Vorstellung des Konzepts der „Digital-Agent-Signaturen“: Wie SSI für die Anforderungen von Industrie 4.0 erweitert werden kann. Qualifizierte digitale/elektronische Signaturen von menschlichen Mitarbeitern oder juristischen Personen können verwendet werden, um Untersignaturen für KI-gestützte Software oder Roboter/Bots in dem Moment zu generieren, in dem die dedizierten Aufgaben ausgeführt werden. Damit ist es nicht nur möglich, festzustellen, wer den Auftrag erteilt hat, sondern auch Meilensteine ​​des jeweiligen Auftrags auf einem dezentralen digitalen Ledger (Blockchain) zu hinterlegen. Smart Contracts können weitere relevante Funktionen wie die Verarbeitung vertragsrelevanter Daten (z.B. Logistik- oder Versicherungsdaten) abbilden, insbesondere wenn beispielsweise unterschiedliche Abteilungen eines Unternehmens oder mehrerer Unternehmen in den Prozess eingebunden sind. Darüber hinaus sorgen moderne Verschlüsselungstechnologien dafür, dass nur die Informationen von den Personen oder Unternehmen gelesen werden können, für die sie bestimmt sind. Ansätze wie „Pruning“ können die Möglichkeit bieten, private Informationen nur bis zu einer bestimmten Blockhöhe zu speichern, wonach nur der Nachweis der Transaktion an sich übrig bleibt. Dieses Vorgehen könnte dazu beitragen, dass Industrie 4.0-Prozesse nicht nur effizient, sondern vor allem in einem nachvollziehbaren rechtlichen Rahmen durchgeführt werden. Es kann sogar noch einen Schritt weiter gehen, indem digitale Agenten mit entsprechender Klassifikation die Berechtigungsstufen zusätzlicher KI-Agenten klären und solche Sub(Sub)-Signaturen im Namen ihrer ursprünglichen Auftraggeber generieren, um weitere (notwendige) Arbeitsschritte einzuleiten, die mit Hilfe spezieller Blockchain-Technologien erfasst werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-61045-6_15 79628dc95934b0445997952244b346fd;de;;;7.4.;;;Analyse und Erkennung von Sicherheitslücken bei der Ausweitung von Android-Apps basierend auf maschinellem Lernen Android spielt derzeit eine wichtige Rolle in Smartphone-Betriebssystemen. In Android-Anwendungen lauern jedoch potenzielle Risiken. Eine davon ist die Anwendungsschwachstelle, die die Informationen der Benutzer gefährden kann. In diesem Whitepaper untersuchen wir die Techniken des maschinellen Lernens, um eine der häufigsten Anwendungsschwachstellen zu identifizieren – die Schwachstelle durch Rechteeskalation (bezeichnet als PE-Schwachstelle). Wir schlagen ein maschinelles Lernsystem zur Erkennung von PE-Schwachstellen vor. Unsere Methode ist die komponentenbasierte Erkennung, was eine granularere Methode bedeutet. Auf diese Weise können wir nicht nur App mit Problemen identifizieren, sondern auch Komponenten mit Schlupflöchern lokalisieren. Wir analysieren zunächst das Prinzip des Entstehungsprozesses der PE-Verwundbarkeit und schlagen dann ein EMPC-Modell entsprechend den Schlüsselelementen des Prozesses vor. Das Modell wird verwendet, um in den folgenden Schritten Features auszuwählen. Zweitens wenden wir Techniken des maschinellen Lernens an, um ein Klassifizierungsmodell zur Klassifizierung von Stichproben zu erstellen. Sieben Klassifikationsalgorithmen werden angewendet. Die Versuchsergebnisse zeigen, dass unsere Methode zur Erkennung von PE-Schwachstellen im Komponentengrad durchführbar ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-03745-1_15 a36ba1672cc20a4d95a950d6406f2b2a;de;;;7.4.;;;Vom computerisierten Ding zum digitalen Sein: Mission (Un)möglich? Künstliche Intelligenz (KI) ist einer der Haupttreiber der sogenannten „Vierten Industriellen Revolution“ und die innovativste Technologie, die bisher entwickelt wurde. Es handelt sich um eine allgegenwärtige transformative Innovation, die einen neuen Ansatz erfordert. Im Jahr 2017 führte das Europäische Parlament den Begriff der „elektronischen Person“ ein, der große Debatten in philosophischen, rechtlichen, technologischen und anderen akademischen Umgebungen auslöste. Die Fragestellungen im Zusammenhang mit KI sollten aus einer interdisziplinären Perspektive betrachtet werden. In diesem Papier untersuchen wir diese vom Europäischen Parlament vorgeschlagene rechtliche Neuerung nicht nur aus rechtlicher, sondern auch aus technologischer Sicht. Im ersten Abschnitt definieren wir KI und analysieren ihre Hauptmerkmale. Wir argumentieren, dass es aus technischer Sicht verfrüht und wahrscheinlich unangemessen erscheint, jetzt die KI-Persönlichkeit einzuführen. Im zweiten Abschnitt werden die Begründungen für die Vorschläge des Europäischen Parlaments im Gegensatz zu den vorgebrachten Gegenargumenten untersucht. Da die bestehenden Haftungsmechanismen in Szenarien, in denen KI-Systeme Schaden anrichten, insbesondere dann, wenn KI-Algorithmen selbstständig lernen und sich weiterentwickeln, unzureichend sein könnten, besteht die Notwendigkeit, von traditionellen Haftungstheorien abzuweichen.;-;-;-;https://link.springer.com/article/10.1007/s00146-020-01051-6 f04b0760a96d6773c06532825b4acedd;de;;;7.4.;;;Ein SMT-basierter Ansatz zur Verifizierung binarisierter neuronaler Netze Deep Learning hat sich als effektiver Ansatz zur Erstellung moderner Softwaresysteme herausgestellt, wobei neuronale Netze oft handwerkliche Systeme übertreffen. Leider sind neuronale Netze dafür bekannt, dass sie unter verschiedenen Sicherheits- und Sicherheitsproblemen leiden. Formale Verifizierung ist ein vielversprechender Weg, um dieses Problem zu lösen, indem formal bestätigt wird, dass Netzwerke korrekt sind. Wir schlagen eine SMT-basierte Technik zur Verifizierung vor;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72013-1_11 cc616c52b12e1e147b2d5ea7e1c9f685;de;;;7.4.;;;Zeitliche Ereigniserkennung mit überwachtem, auf maschinellem Lernen basierendem Algorithmus Natural Language Processing ist eine Möglichkeit für Computer, jede Sprache auf intelligente und nützliche Weise zu erforschen, zu analysieren, zu verstehen und einen signifikanten Sinn daraus abzuleiten. Durch die Verwendung von NLP kann Wissen organisiert und strukturiert werden, um Aufgaben wie automatische Zusammenfassung, Übersetzung, Erkennung benannter Entitäten, Beziehungsextraktion, Stimmungsanalyse, Spracherkennung und Themensegmentierung durchzuführen. Verschiedene NLP-Anwendungen erfordern die Identifizierung von Ereignissen aus Textdokumenten. Zeit und Ereignis sind eng miteinander verbunden. Die Zeitdimension wird häufig verwendet, um die Qualität und den Wert von Ereignissen zu messen und hat einen starken Einfluss auf viele Bereiche wie Themenerkennung und -verfolgung, Abfrageprotokollanalyse. In dieser Arbeit präsentieren wir ein Annotations-Framework, um zeitliche Informationen zu extrahieren und die zeitliche Beziehung zwischen extrahierten Ereignissen aus dem Nachrichtenkorpus zu spezifizieren, indem wir die Kombination aus überwachter maschineller Lerntechnik und regelbasierter Methode gemäß der TimeML-Aufgabe std. Künstliche neuronale Netze (ANN) werden durch die Verwendung des TimeBank- und AQUAINT TimeML-Korpus trainiert, um die Ereignisse und zeitlichen Ausdrücke zu erkennen, und für die zeitliche Normalisierung wurden Teilheuristikregeln verwendet. Die Effizienz der vorgeschlagenen Arbeit wird im Sinne von Präzision und Erinnerung gemessen. Das System übertraf die besten Systeme und es ist wahrscheinlich, dass die verwendete Technik weiter verbessert werden könnte, indem mehr Aspekte der verfügbaren Informationen berücksichtigt werden, wenn die zeitlichen Informationen mit Ereignissen in Beziehung gesetzt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-16681-6_26 0f4a79f1f350c1e10ebd344637a8f376;de;;;7.4.;;;Globale Induktion schräger Modellbäume: ein evolutionärer Ansatz In diesem Artikel schlagen wir einen neuen evolutionären Algorithmus zur globalen Induktion von schrägen Modellbäumen vor, der Blätter mit mehreren linearen Regressionsmodellen assoziiert. Im Gegensatz zu den typischen Top-Down-Ansätzen sucht es global nach der besten Baumstruktur und teilt Hyperebenen in interne Knoten und Modelle in die Blätter auf. Die allgemeine Struktur der vorgeschlagenen Lösung folgt einem typischen Rahmen evolutionärer Algorithmen mit einer unstrukturierten Population und einer Generationsauswahl. Wir schlagen spezialisierte genetische Operatoren vor, um Individuen (Bäume) zu mutieren und zu kreuzen. Die Fitnessfunktion basiert auf dem Bayesschen Informationskriterium. In einer vorläufigen experimentellen Auswertung zeigen wir den Einfluss der Baumdarstellung auf die Lösung verschiedener Vorhersageprobleme.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38610-7_1 2a825f1282a4a0f31da5b54ad09b1a8f;de;;;7.4.;;;Algorithmus für Doppelschicht-Struktur Multi-Label-Klassifizierung mit optimaler Sequenz basierend auf Aufmerksamkeitsmechanismus Ein üblicher Ansatz zur Klassifikation mit mehreren Labels besteht darin, eine Problemtransformation durchzuführen, wobei ein Problem mit mehreren Labels in ein oder mehrere Probleme mit einem einzigen Label umgewandelt wird. Die Problemtransformation berücksichtigt Label-Korrelationen durch Erweitern der Attribute, ignoriert jedoch die Bedeutung jedes Feature-Attributs für verschiedene Klassifikationsziele, schwächt die Sensitivität des Klassifikators und verringert die Klassifikationsgenauigkeit. Der Aufmerksamkeitsmechanismus ist ein Modell, das den Mechanismus der Aufmerksamkeit des menschlichen Gehirns simuliert. Es betont hauptsächlich den Einfluss einiger entscheidender Inputs auf den Output, indem es die Aufmerksamkeitswahrscheinlichkeitsverteilung berechnet, was einen guten Optimierungseffekt auf das traditionelle Modell hat. Auf dieser Grundlage schlägt dieses Papier einen zweischichtigen Algorithmus zur Kettenstruktur-Multi-Label-Klassifizierung (ATDCC-OS) vor, der den Aufmerksamkeitsmechanismus beinhaltet. Dieser Algorithmus konstruiert ein zweischichtiges Multilabel-Klassifizierungsmodell, um die Korrelation zwischen Labels durch Inter-Layer- und In-Layer-Interaktion zu realisieren. Gleichzeitig wird der Aufmerksamkeitsmechanismus eingeführt, um sich selektiv auf die Stichprobenmerkmale zu konzentrieren, wichtigere Informationen für die aktuelle Aufgabe zu identifizieren und die Klassifikationsleistung des Algorithmus weiter zu verbessern. Darüber hinaus wird ein optimaler Sequenzauswahlalgorithmus (OSS) vorgeschlagen, der versucht, die Hackordnung zu kennzeichnen, wodurch das Problem der verringerten Klassifikationsgenauigkeit gelöst wird, die durch zufälliges Auswählen der Klassenetikettensequenz verursacht wird, um den binären Klassifizierer durch das Kettenklassifizierungsmodell zu trainieren. Das OSS wird verwendet, um das Klassifizierungsmodell der zweiten Schicht von ATDCC-OS zu optimieren. Vergleiche von sieben Benchmark-Datensätzen mit verwandten Algorithmen bestätigen die Wirksamkeit von ATDCC-OS.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72792-5_31 02c1741eacc01696608d221de586542a;de;;;7.4.;;;Community-Erkennungs-Clustering über Gumbel Softmax In jüngster Zeit wurde Deep Learning in vielen Systemen wie Spracherkennung und visueller Verarbeitung weit verbreitet implementiert. In dieser Forschung untersuchen wir die Möglichkeit, Deep Learning bei der Community-Erkennung zwischen den Diagrammdatensätzen zu verwenden. Graphen haben in verschiedenen Bereichen zunehmend an Bedeutung gewonnen, darunter soziale Netzwerke, Informationsgraphen, das Empfehlungssystem und auch Biowissenschaften. In diesem Papier schlagen wir eine Methode zur Community-Erkennung vor, die die Knoten verschiedener Graph-Datensätze gruppiert. Wir gruppieren Datensätze verschiedener Kategorien, die zu Affiliationsnetzwerken, Tiernetzwerken, menschlichen Kontaktnetzwerken, menschlichen sozialen Netzwerken und verschiedenen Netzwerken gehören. Die Rolle des Deep Learning bei der Modellierung der Interaktion zwischen Knoten in einem Netzwerk ermöglicht eine Revolution im Bereich der Wissenschaft, die für die Graphnetzwerkanalyse relevant ist. In diesem Artikel erweitern wir den Gumbel-Softmax-Ansatz auf das Clustering von Graphnetzwerken. Die experimentellen Ergebnisse zu bestimmten Diagrammdatensätzen zeigen, dass der neue Ansatz herkömmliches Clustering deutlich übertrifft, was die Wirksamkeit von Deep Learning beim Clustering zur Erkennung von Graphengemeinschaften deutlich zeigt. Wir führen eine Reihe von Experimenten zu unserem Graph-Clustering-Algorithmus durch und verwenden dabei verschiedene Graph-Datensätze: Zachary's Karate Club, Highland Tribes, Train Bombing, American Revolution, Dolphins, Zebra, Windsurfers, Les Misérables, Political Books.;-;-;-;https://link.springer.com/article/10.1007/s42979-020-00264-2 a2fd7a3a51bee18d41ef7496f1623665;de;;;7.4.;;;Nutzung von Data-Mining-Synergien zur Bewertung von Kriterien in der Präqualifikationsphase der Lieferantenauswahl Ein Unternehmen muss viele unterschiedliche Komponenten und Rohstoffe von verschiedenen Vorlieferanten beziehen, um seine Produkte herzustellen oder zu montieren. Unter dieser Situation ist die Lieferantenauswahl zu einem kritischen Thema für den Einkauf geworden. Die Auswahl der Lieferanten hängt von einer Reihe von Kriterien ab und die Herausforderung besteht darin, den Auswahlprozess anhand kritischer Kriterien zu optimieren und den/die besten Lieferanten auszuwählen. Während des Lieferantenauswahlprozesses ist eine anfängliche Auswahl potenzieller Lieferanten aus einer großen Menge von entscheidender Bedeutung, und die Bestimmung potenzieller Lieferanten hängt weitgehend von den für eine solche Präqualifizierung gewählten Kriterien ab. In der Literatur werden viele urteilsbasierte Methoden vorgeschlagen und die Auswahl der Kriterien aus der Meinung entweder der Kunden oder der Experten abgeleitet. Alle diese Techniken nutzen das Wissen und die Erfahrung der Entscheidungsträger. Diese Methoden erben einen gewissen Grad an Unsicherheit aufgrund der komplexen Supply-Chain-Struktur. Die Extraktion von verborgenem Wissen ist eines der wichtigsten Instrumente, um solche Unsicherheiten anzugehen, und Data Mining ist ein solches Konzept, um diese Unsicherheit zu berücksichtigen, und es hat sich in vielen Szenarien als anwendbar erwiesen. Die vorgeschlagene Forschung zielt darauf ab, einen Data-Mining-Ansatz einzuführen, um die versteckten Beziehungen zwischen den Präqualifikationsdaten des Lieferanten und der Gesamtlieferantenbewertung aufzudecken, die nach der Beobachtung zuvor ausgeführter Arbeiten über einen bestimmten Zeitraum abgeleitet wurden. Es bietet einen Überblick darüber, wie die Anfangsfestigkeit des Lieferanten seine endgültige Arbeitsleistung beeinflusst.;-;-;-;https://link.springer.com/article/10.1007/s10845-012-0684-z 03426e33d3fe0ba191e466f1cd3509db;de;;;7.4.;;;Techniken der künstlichen Intelligenz zur Fahrsicherheit und Vorhersage von Fahrzeugunfällen Die Unfallvorhersage ist einer der kritischsten Aspekte der Verkehrssicherheit, wobei ein Unfall vorhergesagt werden kann, bevor er tatsächlich passiert, und Vorsorgemaßnahmen getroffen werden können, um ihn zu vermeiden. Zu diesem Zweck sind Unfallvorhersagemodelle in der Verkehrssicherheitsanalyse beliebt. Künstliche Intelligenz (KI) wird in vielen realen Anwendungen verwendet, insbesondere dort, wo Ergebnisse und Daten nicht immer gleich sind und durch zufällige Änderungen beeinflusst werden. Dieser Beitrag präsentiert eine Studie zu den bestehenden Ansätzen zur Erkennung unsicherer Fahrmuster eines Fahrzeugs zur Vorhersage von Unfällen. Die in diesem Artikel behandelte Literatur stammt aus den letzten 10 Jahren, von 2004 bis 2014. KI-Techniken werden zur Erkennung von unsicherem Fahrstil und zur Crash-Vorhersage untersucht. In diesem Beitrag werden auch eine Reihe statistischer Methoden behandelt, die zur Vorhersage von Unfällen unter Verwendung unterschiedlicher Fahrzeug- und Fahreigenschaften verwendet werden. Die in diesem Papier untersuchten Ansätze werden hinsichtlich der Datensätze und der Vorhersageleistung verglichen. Wir stellen auch eine Liste von Datensätzen und Simulatoren zur Verfügung, die der wissenschaftlichen Gemeinschaft zur Durchführung von Forschungen auf diesem Gebiet zur Verfügung stehen. Das Papier identifiziert auch einige der kritischen offenen Fragen, die für die Verkehrssicherheit mithilfe von KI-Techniken angegangen werden müssen.;-;-;-;https://link.springer.com/article/10.1007/s10462-016-9467-9 96c272245b52403f65d3ab4525240c3c;de;;;7.4.;;;Körperdaten für Aufgaben zum Abrufen von Musikinformationen Dieses Kapitel beschäftigt sich mit der Frage, wie verschiedene Technologien zur Erfassung von Informationen aus dem Körper – wie Motion Capture, Gestikschnittstellen, EEG usw. – für Anwendungen zum Abrufen von Musikinformationen verwendet werden können. Music Information Retrieval (MIR) ist eine interdisziplinäre Domäne, die unter anderem auf Signalverarbeitung, Elektrotechnik, maschinelles Lernen und Musikkognition zurückgreift, um ein rechnerisches Verständnis von Musikinhalten aufzubauen. In der Vergangenheit beruhten die Methoden der MIR auf Metadaten und Informationsverarbeitung, aber da die Technologie zur nicht-traditionellen Erfassung von Körperdaten zugänglicher wird, zielt immer mehr Forschung darauf ab, verschiedene Aspekte des Körpers auf die musikalischen Reaktionen einer Person abzubilden. Dieses Kapitel ist eine Übersicht über Systeme und Algorithmen, die Daten vom Körper zum Abrufen von Musik verwenden. Mein Ziel ist es, einen theoretischen Hintergrund für diese Aufgaben sowie einen Überblick über die aktuelle Literatur zu diesem Thema bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-66450-3_10 8d0a6e287309ca992762e85347ef3332;de;;;7.4.;;;Verbesserung der Qualität von Kunstmarktdaten durch Linked Open Data und Machine Learning Unter zahlreichen Forschungsstudien zu Kunstmärkten wird der Qualität der Daten nur sehr wenig Aufmerksamkeit geschenkt. Die Verfügbarkeit einer angemessenen Anzahl von Beobachtungen ist in vielen Bereichen ein Problem, der Kunstmarkt ist nicht anders, insbesondere in Polen. Daher stellt sie ein erhebliches Hindernis bei der Erklärung des Marktverhaltens dar. Der Einsatz von Linked Open Data und Machine Learning kann den Weg ebnen, die Datenqualität zu verbessern und in der Folge Ergebnisse anderer Kunstmarktforschungen, wie zum Beispiel der Erstellung von Indizes, anzureichern. Dieses Papier skizziert die Methode zur Kombination solcher Felder und fasst die bereits unternommenen Anstrengungen zusammen, um dies zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-52464-1_39 9f997d8cf4bd8f629045986589b3f112;de;;;7.4.;;;Handgestenklassifizierung mit einem neuartigen CNN-Crow-Suchalgorithmus Mensch-Computer-Interaktion (HCI) und verwandte Technologien konzentrieren sich auf die Implementierung interaktiver Computersysteme. Die Studien in HCI konzentrieren sich auf die Systemnutzung, die Entwicklung neuer Techniken, die Benutzeraktivitäten unterstützen, den Zugang zu Informationen und gewährleisten eine nahtlose Kommunikation. Der Einsatz von künstlicher Intelligenz und auf Deep Learning basierenden Modellen wurde in verschiedenen Bereichen umfassend durchgeführt und lieferte Ergebnisse auf dem neuesten Stand der Technik. In der vorliegenden Studie wurde ein auf Krähensuche basierendes neuronales Faltungsnetzwerkmodell in der Gestenerkennung im HCI-Bereich implementiert. Der in der Studie verwendete Handgesten-Datensatz ist öffentlich verfügbar und wurde von Kaggle heruntergeladen. In dieser Arbeit wird eine One-Hot-Codierungstechnik verwendet, um die kategorialen Datenwerte in binäre Form zu konvertieren. Darauf folgt die Implementierung eines Crow-Suchalgorithmus (CSA) zum Auswählen optimaler Hyperparameter zum Trainieren des Datensatzes unter Verwendung der neuronalen Faltungsnetze. Die irrelevanten Parameter werden aus der Betrachtung eliminiert, was zur Erhöhung der Genauigkeit bei der Klassifizierung der Handgesten beiträgt. Das Modell erzeugt eine 100-prozentige Trainings- und Testgenauigkeit, die die Überlegenheit des Modells gegenüber herkömmlichen, hochmodernen Modellen rechtfertigt.;-;-;-;https://link.springer.com/article/10.1007/s40747-021-00324-x b981d3ae7a8a1494104993024e2790ef;de;;;7.4.;;;Latent Timbre Synthese Wir präsentieren die Latent Timbre Synthesis, eine neue Audiosynthesemethode mit Deep Learning. Das Syntheseverfahren ermöglicht es Komponisten und Sounddesignern, unter Verwendung des latenten Raums von Audioframes zwischen den Klangfarben mehrerer Klänge zu interpolieren und zu extrapolieren. Wir stellen die Details zweier Variational Autoencoder Architekturen für die Latent Timbre Synthesis vor und vergleichen deren Vor- und Nachteile. Die Implementierung umfasst eine voll funktionsfähige Anwendung mit einer grafischen Benutzeroberfläche, genannt;-;-;-;https://link.springer.com/article/10.1007/s00521-020-05424-2 ba66da8195540f5b4ff565448941819a;de;;;7.4.;;;Erlernen erweiterter Ähnlichkeiten und Trainingsfunktionen für die Toponym-Verknüpfung Die Verknüpfung von räumlich-textuellen Einheiten ist ein offenes und recht anspruchsvolles Forschungsproblem mit Anwendung in mehreren kommerziellen Bereichen, einschließlich Geomarketing, Navigation und soziale Netzwerke. Es umfasst den Prozess der Identifizierung von Entitätsbeschreibungen zwischen verschiedenen Datenquellen, die sich auf dieselbe reale Entität beziehen. In dieser Arbeit konzentrieren wir uns auf die Verlinkung von Toponymen, d. h. wir behandeln räumlich-textuelle Entitäten, die ausschließlich durch ihren Namen repräsentiert werden, zusätzliche Eigenschaften wie Kategorien, Koordinaten usw. werden als entweder nicht vorhanden oder als zu minderwertig angesehen, um ausgenutzt zu werden in dieser Einstellung. Toponyme sind von Natur aus heterogene Einheiten, ziemlich oft gibt es mehrere alternative Namen für dasselbe Toponym mit unterschiedlichen Ähnlichkeitsgraden zwischen diesen Namen. Ansätze nach dem Stand der Technik verwenden meist generische, domänenunabhängige Ähnlichkeitsfunktionen und verwenden sie unverändert oder integrieren sie als Trainingsmerkmale in Klassifikatoren, um eine Toponym-Verknüpfung durchzuführen. Wir behaupten, dass die Erfassung der Spezifitäten von Toponymen und deren Nutzung in ausgeklügelten Meta-Ähnlichkeitsfunktionen und abgeleiteten Trainingsmerkmalen die Effektivität von Verkettungsmethoden signifikant erhöhen kann. Zu diesem Zweck schlagen wir die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-45439-5_8 cee7d9810415b0943bc335ddae657180;de;;;7.4.;;;Nichtlineare Merkmalsauswahl nach Relevanzmerkmalsvektormaschine Support Vector Machine (SVM) hat in letzter Zeit viel Aufmerksamkeit bei der Feature-Auswahl erhalten, da sie Kernel integrieren kann, um nichtlineare Abhängigkeiten zwischen Features zu entdecken. Es ist jedoch bekannt, dass die Anzahl der in SVM erforderlichen Unterstützungsvektoren typischerweise linear mit der Größe des Trainingsdatensatzes wächst. Eine solche Einschränkung der SVM wird kritischer, wenn wir aus einer sehr großen Anzahl von Kandidaten eine kleine Teilmenge relevanter Merkmale auswählen müssen. Um dieses Problem zu lösen, schlägt dieses Papier einen neuartigen Algorithmus für die nichtlineare Merkmalsauswahl vor, der als „Relevance Feature Vector Machine“ (RFVM) bezeichnet wird. Der RFVM-Algorithmus verwendet einen sehr spärlichen Lernalgorithmus, die Relevanzvektormaschine (RVM), und enthält Kernel, um wichtige Merkmale mit sowohl linearen als auch nichtlinearen Beziehungen zu extrahieren. Als Ergebnis kann unser vorgeschlagener Ansatz viele Fehlalarme reduzieren, z. einschließlich irrelevanter Funktionen, während Sie dennoch eine gute Auswahlleistung beibehalten. Wir vergleichen die Leistungen zwischen RFVM und anderen nichtlinearen Merkmalsauswahlalgorithmen nach dem Stand der Technik in unseren Experimenten. Die Ergebnisse bestätigen unsere Schlussfolgerungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73499-4_12 cb7d5e2cac51c8be7d2d8d368984204b;de;;;7.4.;;;Preflight-Diagnose von Multicopter-Schubanomalien mit Disturbance Observer und Gaußscher Prozessregression In diesem Artikel wird eine Preflight-Diagnosemethode zur Erkennung von Motoranomalien von Multicoptern anhand von Vorrichtungsdaten vorgestellt. Beim regelmäßigen Betrieb von Multicoptern ist es wichtig zu bestimmen, ob sie den Flug durchführen können oder nicht. Dazu verwenden wir die Ausgabe des Störungsbeobachters als Merkmal zum Erfassen des Grads der Anomalie durch die Gaußsche Prozessregression. Während des Bodeninspektionstests, bei dem die meisten Störungen unter Kontrolle sind, sind Motorverschlechterung und Störungen signifikant korreliert. Dann kann die Motordegradation unter Verwendung der Gaußschen Prozessregression geschätzt werden. Um multivariate Ausgabemodelle für verschiedene Grade von motorischen Anomalien zu erstellen, verwenden wir Multitasking ein Gaußsches Prozessregressionsmodell. Um die Leistungsfähigkeit des vorgeschlagenen Ansatzes zu überprüfen, wurden tatsächliche Preflight-Tests an einem selbst entwickelten Boden-Jig-Gerät mit einer echten Quadrocopter-Drohne durchgeführt.;-;-;-;https://link.springer.com/article/10.1007/s12555-020-0164-8 82f9443b9592822f0e4005115f86f72c;de;;;7.4.;;;Organische Materialien und Geräte für gehirninspiriertes Computing: Von der künstlichen Implementierung zum biophysikalischen Realismus Viele der aktuellen Anwendungen der künstlichen Intelligenz (KI), die in unserer Gesellschaft schnell unverzichtbar werden, basieren auf softwarebasierten künstlichen neuronalen Netzen oder Deep-Learning-Algorithmen, die leistungsstark, aber energieineffizient sind. Im Vergleich dazu ist das Gehirn bei ähnlichen Klassifikations- und Musterfindungsaufgaben hocheffizient. Neuromorphic Engineering versucht, die Effizienz des Gehirns zu nutzen, indem mehrere entscheidende Konzepte nachgeahmt werden, um KI-Aufgaben effizient zu emulieren. Organische elektronische Materialien sind besonders erfolgreich bei der Nachahmung sowohl der grundlegenden Funktionen des Gehirns, einschließlich wichtiger Spiking-Phänomene, als auch beim energiesparenden Betrieb von hardwareimplementierten künstlichen neuronalen Netzen sowie bei der Anbindung an physiologische Umgebungen aufgrund ihrer biokompatiblen Natur. Dieser Artikel gibt einen Überblick über die grundlegende Funktionsweise des Gehirns und seiner künstlichen Gegenstücke, mit besonderem Fokus auf organische Materialien und Geräte. Wir heben Bemühungen hervor, Gehirnfunktionen wie raumzeitliche Verarbeitung, Homöostase und funktionelle Konnektivität nachzuahmen und betonen aktuelle Herausforderungen für effiziente neuromorphe Computeranwendungen. Schließlich präsentieren wir unseren Blick auf zukünftige Richtungen in diesem aufregenden und schnell wachsenden Feld organischer neuromorpher Geräte.;-;-;-;https://link.springer.com/article/10.1557/mrs.2020.194 70c2d0e8e7a175ea80ed3beeb5b0cfa5;de;;;7.4.;;;Integriertes System zur Bewertung von Studierenden mit KM-Ansatz Da die Zahl der internationalen Studierenden weltweit steigt und die Mobilität der Studierenden eine Voraussetzung für die Sicherung eines guten Arbeitsplatzes und eine glänzende Karriere wird, wird die Bewertung der Voraussetzungen der Kandidaten zu einer Herausforderung. Dieser Beitrag stellt dar, wie ein Wissensmanagementansatz, der KI-Techniken verwendet, akademischen Einrichtungen bei der Bewertung der Profile internationaler Studierender helfen könnte, indem eine angepasste Methodik bereitgestellt wird. Diese im vorgeschlagenen System implementierte Methodik wird den Institutionen helfen, mehr Zeit bei der Bearbeitung von Studentenakten zu gewinnen, eine genaue Bewertung der Kandidaten unter Berücksichtigung ihres kulturellen Hintergrunds zu ermöglichen und menschliche Fehler zu vermeiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-52903-1_2 31d4d0dfbe26911561f0f61c606c6a5d;de;;;7.4.;;;NE–LP: Normalisierte entropie- und verlustvorhersagebasierte Abtastung für aktives Lernen bei der chinesischen Wortsegmentierung auf EHRs Elektronische Patientenakten (EHRs) in Krankenhausinformationssystemen enthalten die Diagnosen und Behandlungen von Patienten, daher sind EHRs für das klinische Data Mining unerlässlich. Von allen Aufgaben im Mining-Prozess ist die chinesische Wortsegmentierung (CWS) eine grundlegende und wichtige Aufgabe, und die meisten hochmodernen Methoden basieren in hohem Maße auf manuell annotierten Daten in großem Umfang. Da die Annotation zeitaufwendig und teuer ist, wurden Anstrengungen unternommen, um Techniken wie aktives Lernen zu verwenden, um die informativsten Muster für die Modellierung zu finden. In diesem Papier folgen wir dem Trend und stellen eine aktive Lernmethode für CWS in EHRs vor. Insbesondere wird eine neue Abtaststrategie vorgeschlagen, die normalisierte Entropie mit Verlustvorhersage (NE-LP) kombiniert, um die wertvollsten Daten auszuwählen. Um die Rechenkosten des Lernens zu minimieren, schlagen wir ein gemeinsames Modell mit einem Wortsegmentierer und einem Verlustvorhersagemodell vor. Um Interaktionen zwischen benachbarten Charakteren zu erfassen, werden außerdem Bigramm-Features im gemeinsamen Modell angewendet. Um die Wirksamkeit von NE-LP zu veranschaulichen, führten wir Experimente mit EHRs durch, die vom Shuguang Hospital der Shanghai University of Traditional Chinese Medicine gesammelt wurden. Die Ergebnisse zeigen, dass NE-LP durchweg konventionelle unsicherheitsbasierte Stichprobenstrategien für aktives Lernen bei CWS übertrifft;-;-;-;https://link.springer.com/article/10.1007/s00521-021-05896-w 28abdb1d243a6e396550a6338524bf77;de;;;7.4.;;;Topologischer hierarchischer Baum mit künstlichen Ameisen In diesem Artikel schlagen wir einen neuen Ansatz für die topologische hierarchische Baumclusterung vor, der vom Selbstorganisationsverhalten künstlicher Ameisen inspiriert ist. Unsere Methode namens THT (Topologial Hierarchical Tree) baut autonom und gleichzeitig eine topologische und hierarchische Partitionierung von Daten auf. Jeder einer Zelle eines 2D-Gitters zugeordnete „Cluster“ wird durch einen Baum modelliert. Die künstlichen Ameisen, die wir definieren, bilden einen Baum, in dem jede Ameise einen Knoten/Daten darstellt. Der Vorteil dieses neuartigen Ansatzes ist die intuitive Darstellung hierarchischer Beziehungen in den Daten. Dies ist besonders bei explorativen Data-Mining-Anwendungen interessant, da sich die inhärente Struktur der Daten sehr intuitiv entfalten kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17537-4_79 e336425dcee0585cbcd2aa59ecaee0eb;de;;;7.4.;;;Entwicklung kooperierender rechtswissensbasierter Systeme Bei dem Versuch, intelligente Tools zur Unterstützung von Rechtsstreitigkeiten zu entwickeln, sind wir über die erste Generation von Rechtsexpertensystemen mit Produktionsregel hinausgegangen. Unsere Arbeit ergänzt regelbasiertes Denken mit fallbasiertem Denken und intelligentem Information Retrieval. Diese Forschung spezifiziert einen Ansatz für das fallbasierte Retrievalproblem, der stark auf einer erweiterten objektorientierten / regelbasierten Systemarchitektur beruht, die durch kausale Hintergrundinformationen ergänzt wird. Techniken des maschinellen Lernens und eine verteilte Agentenarchitektur werden verwendet, um den Argumentationsprozess von Anwälten zu simulieren. In diesem Papier skizzieren wir unsere Implementierung des hybriden IKBALS II Rule Based Reasoning / Case Based Reasoning-Systems. Es nutzt umfassend einen automatisierten Falldarstellungseditor und Hintergrundinformationen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-57292-9_54 ebc68ab19606635b11ebd678e930b647;de;;;7.4.;;;Preisvorhersage für Kryptowährungen mit gewichteten Speichermultikanälen Nach der Erfindung von Bitcoin und einem auf der Blockchain basierenden Peer-to-Peer-System für elektronisches Geld wächst der Markt für Kryptowährungen schnell und stößt bei Investoren und Forschern auf großes Interesse. Die Vorhersage der Preisvolatilität von Kryptowährungen ist aufgrund der hohen Stochastik der Märkte eine herausfordernde Aufgabe. Ökonometrische, maschinelle Lern- und Deep-Learning-Modelle werden untersucht, um die stochastischen Finanzpreisschwankungen zu bewältigen und die Vorhersagegenauigkeit zu verbessern. Obwohl die Einführung von exogenen Faktoren wie makrofinanziellen Indikatoren und Blockchain-Informationen die Modellvorhersage genauer unterstützt, sind das Rauschen und die Auswirkungen von Märkten und politischen Bedingungen schwer zu interpretieren und zu modellieren. Inspiriert von den Beweisen starker Korrelationen zwischen Kryptowährungen, die in früheren Studien untersucht wurden, schlagen wir ursprünglich ein WMCR-Modell (Weighted Memory Channels Regression) vor, um den täglichen Schlusskurs von Kryptowährungen vorherzusagen. Das vorgeschlagene Modell empfängt Zeitreihen mehrerer schwergewichtiger Kryptowährungen und lernt deren gegenseitige Abhängigkeiten, indem es die Gewichte jeder Sequenz mit Bedacht neu kalibriert. Convolutional Neural Network (CNN) und Long Short-Term Memory (LSTM)-Komponenten werden genutzt, um Gedächtnis aufzubauen und räumliche und zeitliche Merkmale zu extrahieren. Darüber hinaus werden Regularisierungsverfahren einschließlich Kernel-Regularisierern und Bias-Regularisierern und Dropout-Verfahren genutzt, um die Generalisierbarkeit des vorgeschlagenen Modells zu verbessern. In dieser Arbeit werden eine Reihe von Experimenten durchgeführt. Die Ergebnisse zeigen, dass das WMCR-Modell die Leistung nach dem Stand der Technik erreicht und andere Basismodelle übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9213-3_39 b94a625783c120a858c96a3cf7621ed4;de;;;7.4.;;;Eine Studie über Datenklassifizierungs- und Auswahltechniken für medizinische Entscheidungsunterstützungssysteme Techniken der künstlichen Intelligenz werden zunehmend in medizinischen Entscheidungsunterstützungssystemen verwendet, um Ärzte bei ihren Diagnoseverfahren zu unterstützen, Entscheidungen genauer und effektiver zu treffen, medizinische Fehler zu minimieren, die Patientensicherheit zu verbessern und Kosten zu senken. Unsere Forschungsstudie zeigt, dass es schwierig ist, verschiedene Techniken der künstlichen Intelligenz zu vergleichen, die verwendet werden, um verschiedene medizinische Entscheidungsprobleme mit verschiedenen Datenmodellen zu lösen. Dies macht es schwierig, die nützlichste Technik der künstlichen Intelligenz unter ihnen zu finden. Dieses Papier schlägt einen Klassifikationsansatz vor, der die Auswahl einer geeigneten Technik der künstlichen Intelligenz erleichtern würde, um ein bestimmtes medizinisches Entscheidungsproblem zu lösen. Diese Klassifikation basiert auf Beobachtungen früherer Forschungsstudien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09339-0_14 5e5132ee8ce60010d05b8cbfd10ec84d;de;;;7.4.;;;Modernste Techniken der künstlichen Intelligenz in der Diagnose von Herzerkrankungen Künstliche Intelligenz (KI)-basierte Techniken gewinnen bei der Entwicklung medizinischer Diagnosesysteme enorm an Bedeutung und Popularität. In diesem Zusammenhang wurden verschiedene KI-Techniken wie Entscheidungsbäume, Naive Bayes-Netzwerke einschließlich verschiedener Soft-Computing-Techniken wie künstliche neuronale Netze (ANN), genetische Algorithmen und Fuzzy-Logik-basierte Systeme überwiegend in der Diagnose von Herzerkrankungen eingesetzt. In diesem Artikel werden die jüngsten Fortschritte in der Forschung untersucht, die auf der Anwendung einiger der beliebten KI-Techniken bei der Vorhersage von Herzerkrankungen basieren. Zusammen mit jeder Technik wurden die wichtigsten Stärken, Einschränkungen und zukünftigen Richtungen vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2285-3_76 eef9054ecc6cbde15a591210e096ef8a;de;;;7.4.;;;Integration der Funktionsauswahl in das Programmlernen In typischen praktischen Anwendungen des automatisierten Programmlernens wird der Umfang möglicher Eingaben in die zu erlernenden Programme in einem Vorschritt „Merkmalsauswahl“ eingegrenzt. Dieser Ansatz wird jedoch nicht funktionieren, wenn man Programmlernen als Schlüsselkomponente eines AGI-Systems anwenden möchte, da es keine allgemein anwendbare Merkmalsauswahlheuristik gibt und man in einem AGI-Kontext nicht davon ausgehen kann, dass ein Mensch die Merkmalsauswahlheuristiken geschickt auf tun das Problem zur Hand. Eine neuartige Technik, LIFES (Learning-Integrated Feature Selection), wird hier vorgestellt, um dieses Problem anzugehen. In LIFES integriert man die Merkmalsauswahl in den Lernprozess, anstatt die Merkmalsauswahl nur als Vorstufe zum Lernen vorzunehmen. LIFES ist relativ breit anwendbar und eignet sich besonders für jedes Lernproblem, das Eigenschaften besitzt, die hier als „datenfokussierbar“ und „merkmalsfokussierbar“ bezeichnet werden. Es ist auch bei einer Vielzahl von Lernalgorithmen anwendbar, wird jedoch der Konkretheit hier im Kontext des automatisierten Programmlernalgorithmus MOSES vorgestellt. Um die allgemeine Wirksamkeit von LIFES zu veranschaulichen, werden Beispielergebnisse aus der Anwendung von MOSES+LIFES auf die Klassifizierung der Genexpression gegeben. Die Anwendung von LIFES auf virtuelle und robotische Agentensteuerung wird ebenfalls diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39521-5_4 6d436fcbcf5e29606ee8d21ac1d0a1df;de;;;7.4.;;;E-Mail-Autorenzuschreibung für Computerforensik In diesem Kapitel geben wir einen kurzen Überblick über die relativ neue Disziplin der Computerforensik und beschreiben eine Untersuchung der forensischen Zuschreibung oder Identifizierung von Autoren an einem Korpus von E-Mail-Dokumenten mit mehreren Autoren und mehreren Themen. Wir verwenden einen erweiterten Satz von E-Mail-Dokumentfunktionen wie strukturelle Merkmale und linguistische Muster zusammen mit einer Support Vector Machine als Lernalgorithmus. Experimente mit einer Reihe von E-Mail-Dokumenten, die von verschiedenen Autoren zu einer Reihe von Themen erstellt wurden, lieferten vielversprechende Ergebnisse für die Mehrthemen- und Mehrautoren-Kategorisierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-0953-0_9 0f02c5ef2f53fad3ab28fb20d913ef16;de;;;7.4.;;;Deep Transfer Learning Ensemble für die Klassifikation Transferlernalgorithmen gehen typischerweise davon aus, dass die Trainingsdaten und die Testdaten aus unterschiedlichen Verteilungen stammen. Es ist besser, sich anzupassen, um neue Aufgaben und Konzepte schneller und genauer zu erlernen, indem es zuvor gewonnenes Wissen nutzt. Deep Transfer Learning (DTL) entstand als neues Paradigma im Transfer Learning, bei dem ein Deep-Modell eine größere Flexibilität beim Extrahieren von High-Level-Funktionen bietet. DTL bietet eine selektive schichtbasierte Übertragung und ist problemspezifisch. In diesem Papier schlagen wir die Methodik des Ensemble of Deep Transfer Learning (EDTL) vor, um die Auswirkungen der selektiven schichtbasierten Übertragung zu reduzieren und einen optimierten Rahmen für die Arbeit für drei wichtige Fälle des Transferlernens bereitzustellen. Empirische Ergebnisse zu Charakter-, Objekt- und biomedizinischen Bilderkennungsaufgaben erreichen, dass das vorgeschlagene Verfahren eine statistisch signifikante Klassifikationsgenauigkeit gegenüber den anderen etablierten Transferlernverfahren anzeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19258-1_29 1620a06560e03e12f20ff37563b78b49;de;;;7.4.;;;Ein neuer Ansatz des maschinellen Lernens für die Vorhersage von Proteinphosphorylierungsstellen in Pflanzen Die Proteinphosphorylierung ist ein entscheidender Regulationsmechanismus in verschiedenen Organismen. Mit den jüngsten Verbesserungen in der Massenspektrometrie häufen sich die Phosphorylierungsstellendaten schnell an. Trotz dieser Fülle an Daten bleibt die rechnerische Vorhersage von Phosphorylierungsstellen eine schwierige Aufgabe. Dies gilt insbesondere für Pflanzen aufgrund der begrenzten Informationen über die Substratspezifitäten von Proteinkinasen in Pflanzen und der Tatsache, dass aktuelle Phosphorylierungsvorhersagewerkzeuge mit kinasespezifischen Phosphorylierungsdaten von nicht-pflanzlichen Organismen trainiert werden. In diesem Artikel haben wir einen neuen maschinellen Lernansatz für die Vorhersage von Phosphorylierungsstellen vorgeschlagen. Wir integrieren Proteinsequenzinformationen und ungeordnete Proteinregionen und integrieren Techniken des maschinellen Lernens von k-nächsten Nachbarn und unterstützen Vektormaschinen zur Vorhersage von Phosphorylierungsstellen. Testergebnisse zum PhosPhAt-Datensatz von Phosphoserinen in;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-00727-9_4 d3310ddfc8d26792b007e119dfbbab63;de;;;7.4.;;;Machine Learning-Agenten in der Cloud zur Unterstützung des intelligenten Geschäftsprozessmanagements In Virtual Enterprise gilt Business Processes Management als eines der wichtigsten Anliegen von Managern und akademischen Forschern. Das Management der Komplexität von Flüssen und der Anforderungen der Akteure in Bezug auf eine hohe Qualität in kürzerer Zeit, macht dieses Management immer komplexer und drängt Spezialisten dazu, neue vielversprechende Wege zu gehen. Wie diese Forscher präsentieren wir in diesem Papier ein Modellierungs- und Simulationssoftware-Toolkit namens BP-EMC;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24141-8_44 fe6f92e124c2161831396cb5dd2dafa6;de;;;7.4.;;;Automatisierte Klassifizierung medizinischer Abrechnungsdaten Beim Aufbau einer Datenpipeline zur Verarbeitung medizinischer Ansprüche gibt es viele Fälle, in denen automatisierte Klassifizierungsschemata zur Verbesserung der Geschwindigkeit und Effizienz verwendet werden könnten. Arztrechnungen können nach dem gesetzlichen Umfeld klassifiziert werden, das die angemessene Beurteilung von Zahlungsstreitigkeiten bestimmt. Wir bezeichnen dieses Klassifikationsergebnis als;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23960-1_46 985318f5cfa761f8437d8ac27c56c51b;de;;;7.4.;;;Auswahl relevanter Regressoren durch kontinuierliche AIC In der Arbeit schlagen wir einen Algorithmus zur Auswahl von Regressoren (Merkmale, Basisfunktionen) in linearen Regressionsproblemen vor. Dazu verwenden wir die kontinuierliche Verallgemeinerung des bekannten Akaike-Informationskriteriums (AIC). Wir entwickeln eine Methode zur AIC-Optimierung w.r.t. individuelle Regularisierungskoeffizienten. Jeder Koeffizient definiert den Relevanzgrad des entsprechenden Regressors. Wir liefern die experimentellen Ergebnisse, die beweisen, dass der vorgeschlagene Ansatz als nicht-bayesianisches Analogon des automatischen Relevanzbestimmungsansatzes (ARD) und der marginalen Likelihood-Optimierung in der Relevanzvektorregression (RVR) betrachtet werden kann. Der Hauptunterschied des neuen Ansatzes ist seine Fähigkeit, Regularisierungskoeffizienten von Null zu finden. Wir hoffen, dass dies dazu beiträgt, eine Typ-II-Überanpassung (Unteranpassung) zu vermeiden, die für RVR berichtet wird. In der Arbeit zeigen wir auch, dass in einigen Spezialfällen beide Methoden identisch werden.;-;-;-;https://link.springer.com/article/10.1134/S1054661809030109 d2064b0d5b1752df9e95f3013f88b4eb;de;;;7.4.;;;"Datenschutzerhaltendes Data Mining in Anwesenheit verdeckter Gegner Die Offenlegung der ursprünglichen Datensätze ist aufgrund von Datenschutzbedenken in vielen verteilten Data-Mining-Einstellungen nicht akzeptabel. Um solche Bedenken auszuräumen, war Data Mining in den letzten Jahren ein aktives Forschungsgebiet. Alle neueren Arbeiten zum Datenschutz beim Data Mining haben entweder halbehrliche oder bösartige Gegnermodelle berücksichtigt, wobei angenommen wird, dass ein Gegner dem Protokoll folgt bzw. Während das halbehrliche Modell eine schwache Sicherheit bietet, die einen geringen Rechenaufwand erfordert, und das bösartige Modell eine starke Sicherheit bietet, die teure Berechnungen wie nicht interaktive Zero-Knowledge-Beweise erfordert, sehen wir die Notwendigkeit eines ""verdeckten"" gegnerischen Modells, das zwischen halbehrlich und bösartig funktioniert Modelle, sowohl in Bezug auf die Sicherheitsgarantie als auch auf die Rechenkosten. In diesem Papier bauen wir zum ersten Mal im Bereich Data-Mining effiziente und sichere Punktprodukt- und Mengenschnittprotokolle im verdeckten Gegnermodell auf. Wir verwenden die homomorphe Eigenschaft des Paillier-Verschlüsselungsschemas und die Zwei-Parteien-Berechnung von Aumann et al. um unsere Protokolle zu erstellen. Darüber hinaus sind unsere Protokolle im Universal Composability Framework sicher.";-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17316-5_41 c9a0f1e26720ebd7410371b6abd43154;de;;;7.4.;;;Der Einfluss der Attributskalierung auf die Leistung von Support Vector Machines Dieses Papier präsentiert einige empirische Ergebnisse, die zeigen, dass eine einfache Attributskalierung in der Datenvorverarbeitungsstufe die Leistung von linearen binären Klassifikatoren verbessern kann. Insbesondere kann ein klassenspezifisches Skalierungsverfahren, das Informationen über die Klassenverteilung der Trainingsstichprobe verwendet, die Klassifizierungsgenauigkeit erheblich verbessern. Diese Form der Skalierung kann die Leistung eines einfachen Schwerpunktklassifikators auf ähnliche Genauigkeitsniveaus steigern wie die komplexeren und rechenaufwendigeren Support Vector Machine- und Regressionsklassifikatoren. Wenn SVMs verwendet werden, erzeugen skalierte Daten außerdem bessere Ergebnisse für kleinere Mengen von Trainingsdaten und mit kleineren Regularisierungskonstantenwerten als nicht skalierte Daten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30549-1_44 a7aa558c25cb7cfebfc0c62e4909edc5;de;;;7.4.;;;Eine Simulations-Engine zur Unterstützung der Produktionsplanung durch genetisches maschinelles Lernen Die immer höhere Komplexität von Fertigungssystemen, immer kürzer werdende Lebenszyklen von Produkten und deren zunehmende Vielfalt sowie die instabile Marktsituation der letzten Jahre erfordern eine höhere Flexibilität und Reaktionsfähigkeit der Fertigungsprozesse. Aus dieser Perspektive ist eine der kritischen Fertigungsaufgaben, die traditionell sowohl in der Wissenschaft als auch in der Industrie große Beachtung finden, aber keine befriedigende Universallösung haben, die Produktionsplanung. Dieses Papier schlägt einen Ansatz vor, der auf genetischem maschinellem Lernen (GBML) basiert, um das Problem der Flow-Shop-Planung zu behandeln. Durch den Ansatz wird ein Satz von Planungsregeln als ein Individuum von genetischen Algorithmen dargestellt, und die Fitness des Individuums wird basierend auf der Erstellungsspanne des unter Verwendung des Regelsatzes erzeugten Zeitplans geschätzt. Ein Konzept der interaktiven Softwareumgebung bestehend aus einem Simulator und einer GBML-Simulations-Engine wird vorgestellt, um die menschliche Entscheidungsfindung während der Planung zu unterstützen. Eine Pilotstudie ist im Gange, um die Leistung der GBML-Technik im Vergleich mit anderen Methoden (wie dem Johnson-Algorithmus und dem simulierten Annealing) zu bewerten und gleichzeitig Testbeispiele zu vervollständigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35569-6_59 a68e8bbd7c45f9dec7225b2edf1e5863;de;;;7.4.;;;Die Instanz-Leichtigkeit des überwachten Lernens für die Clustervalidität „Das statistische Problem der Prüfung der Clustervalidität ist im Wesentlichen ungelöst“ [5]. Wir übersetzen das Problem der Glaubwürdigkeit der Ausgabe von Algorithmen des unüberwachten Lernens auf den Fall des überwachten Lernens. Wir führen einen Begriff der Instanzenleichtigkeit für überwachtes Lernen ein und verknüpfen die Gültigkeit eines Clusterings damit, wie seine Ausgabe eine einfache Instanz für überwachtes Lernen darstellt. Unser Begriff der Instanzenleichtigkeit für überwachtes Lernen erweitert den Begriff der Stabilität auf Störungen (früher verwendet, um die Clusterfähigkeit im nicht überwachten Umfeld zu messen). Wir folgen den axiomatischen und generischen Formulierungen für Cluster-Qualitätsmaße. Als Ergebnis informieren wir über das Vertrauen, das wir in ein Clustering-Ergebnis setzen können, indem wir Standardvalidierungsmethoden für überwachtes Lernen verwenden, wie z. B. die Kreuzvalidierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28320-8_17 010672b34cdfc4b1e6fd1d8788ab4887;de;;;7.4.;;;Dimensionsreduktion mit Dimensionsauswahl In diesem Beitrag schlagen wir eine neuartige Methode namens Sparse dimensionality Reduction (SDR) vor. Es führt die Dimensionsauswahl durch, während die Datendimensionalität reduziert wird. Im Gegensatz zu herkömmlichen Dimensionsreduktionsverfahren erfordert dieses Verfahren keine Dimensionsschätzung. Die Anzahl der Endabmessungen ergibt sich aus der spärlichen Komponente dieser Methode. Kurz gesagt besteht die Idee darin, Eingabedaten in einen geeigneten Raum umzuwandeln, in dem redundante Dimensionen komprimierbar sind. Die Struktur dieser Methode ist sehr flexibel, was eine Reihe von Varianten entlang dieser Linie ermöglicht. In diesem Papier wird die Datentransformation durch Laplace-Eigenkarten durchgeführt und die Dimensionsauswahl wird erfüllt durch;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37453-1_42 5efd9bbed1760b4f594f7f47ce4fcf8f;de;;;7.4.;;;Clustering verteilter Daten: Eine vergleichende Analyse A Aufgrund der explosionsartigen Zunahme der Zahl autonomer Datenquellen besteht ein wachsender Bedarf an effektiven Ansätzen für verteiltes Clustering. Dieses Papier vergleicht die Leistung von zwei verteilten Clustering-Algorithmen, nämlich dem verbesserten verteilten Kombinationsalgorithmus und dem verteilten K-Means-Algorithmus mit dem traditionellen zentralisierten Clustering-Algorithmus. Beide Algorithmen verwenden Cluster-Schwerpunkt, um ein Cluster-Ensemble zu bilden, das erforderlich ist, um globales Clustering durchzuführen. Die zentroidbasierten partitionierten Clustering-Algorithmen K-Means, Fuzzy K-Means und Rough K-Means werden mit jedem verteilten Clustering-Algorithmus verwendet, um die Leistung sowohl von harten als auch von weichen Clustern in einer verteilten Umgebung zu analysieren. Die Experimente werden für einen künstlichen Datensatz und vier Benchmark-Datensätze des UCI-Datenspeichers für maschinelles Lernen durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01091-0_16 25d6175da5c5fcd1acfae2fd1eee64d7;de;;;7.4.;;;SMART Software für Entscheidungsträger KDD Experience SMART Software for Decision Makers (SSDM) war eine Initiative des Ministeriums für Handel und Industrie (DTI), die im Zeitraum 1998-2000 lief. Das Center for Adaptive Systems der University of Sunderland wurde vom DTI mit der Leitung eines der beiden Demonstrator Clubs in Großbritannien beauftragt. Zweck dieser Clubs war es, den Technologietransfer zwischen Wissenschaft und Industrie in den Bereichen Fehlerdiagnose und -vorhersage, intelligente Steuerungssysteme und Wissensentdeckung in Datenbanken (KDD) zu erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0149-9_4 cd023a6d606b6f235c976a36d4013d5e;de;;;7.4.;;;Eine neuartige feingranulare Methode zur Fahrzeugtyperkennung basierend auf dem Locally Enhanced PCANet Neural Network In diesem Beitrag schlagen wir ein lokal verbessertes neuronales PCANet-Netzwerk zur feinkörnigen Klassifizierung von Fahrzeugen vor. Die vorgeschlagene Methode verwendet das unbeaufsichtigte PCANet-Netzwerk mit einer geringeren Anzahl von Schichten und einfachen Parametern im Vergleich zu den meisten modernen maschinellen Lernmethoden. Es vereinfacht Berechnungsschritte und manuelle Beschriftungen und ermöglicht die Erkennung von Fahrzeugtypen ohne zeitaufwändige Schulung. Experimentelle Ergebnisse zeigen, dass das vorgeschlagene Verfahren im Vergleich zu den traditionellen Mustererkennungsverfahren und den Mehrschicht-CNN-Verfahren ein optimales Gleichgewicht in Bezug auf unterschiedliche Skalierungen von Probenbibliotheken, Winkelabweichungen und Trainingsgeschwindigkeit erreicht. Es weist auch darauf hin, dass die Einführung geeigneter lokaler Merkmale, die sich vom allgemeinen Merkmal unterscheiden, sehr hilfreich für die Verbesserung der Erkennungsrate ist. Das 7-Winkel in 180° (12-Winkel in 360°) Klassifikationsmodellierungsschema hat sich als effektiver Ansatz erwiesen, der das Problem der Abnahme der Erkennungsrate aufgrund von Winkelabweichungen lösen und die Erkennungsgenauigkeit in der Praxis erhöhen kann.;-;-;-;https://link.springer.com/article/10.1007/s11390-018-1822-7 91bf604c32b6f0cd33fb5c1d0365f3ed;de;;;7.4.;;;Wettbewerbsfähigkeit der Smart Factory basierend auf Echtzeitüberwachung und Qualitätsprognosemodell für mehrstufige Produktionslinien Smart Factories sind komplexe Fertigungsökosysteme, in denen die Konvergenz von IKT und betrieblichen Technologien und Kompetenzen die digitale Transformation vorantreibt. Das intelligente Produktionsplanungs- und -steuerungsprogramm gemäß NIST implementiert Fortschritte in der Messwissenschaft, die Leistungs-, Qualitäts-, Interoperabilitäts-, Drahtlos- und Cybersicherheitsstandards für Echtzeitprognosen und Zustandsüberwachung, Steuerung und Optimierung von intelligenten Fertigungssystemen ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-57997-5_22 b07e7ccd04bd1e93b370938676557293;de;;;7.4.;;;Co-regularisierte PLSA für Multi-View-Clustering Mehrfachansichtsdaten sind in einer Vielzahl von Anwendungsdomänen üblich. Die richtige Ausnutzung der Beziehungen zwischen verschiedenen Ansichten ist hilfreich, um die Schwierigkeit eines Lernproblems von Interesse zu mildern. Zu diesem Zweck schlagen wir ein erweitertes Probabilistic Latent Semantic Analysis (PLSA)-Modell für Multi-View-Clustering vor, genannt Co-regularized PLSA (CoPLSA). CoPLSA integriert einzelne PLSAs in verschiedene Ansichten durch paarweise Co-Regularisierung. Die zentrale Idee hinter der Co-Regularisierung ist, dass die Ähnlichkeiten der Stichprobe im Themenraum aus einer Sicht mit denen einer anderen Sichtweise übereinstimmen. Für die Parameterschätzung wird ein EM-basiertes Schema verwendet, und eine lokale optimale Lösung wird durch einen iterativen Prozess erhalten. Umfangreiche Experimente werden an drei realen Datensätzen durchgeführt und die verglichenen Ergebnisse zeigen die Überlegenheit unseres Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37444-9_16 0eb19d70c42d0ac26f8cbc979335a98f;de;;;7.4.;;;Theorien der Künstlichen Intelligenz – Metatheoretische Überlegungen Dieses Kapitel befasst sich mit mehreren zentralen metatheoretischen Fragen von KI und AGI. Nach der Analyse der Natur des Feldes werden drei Kriterien für gewünschte Theorien vorgeschlagen: Korrektheit, Konkretheit und Kompaktheit. Die Kriterien werden im Kontext der KI geklärt und anhand dieser die aktuelle Situation im Feld bewertet.;-;-;-;https://link.springer.com/chapter/10.2991/978-94-91216-62-6_16 bd62b9ea25fea90f673b46878483023e;de;;;7.4.;;;Ein Single-Pass-Online-Data-Mining-Algorithmus kombiniert mit Kontrolltheorie mit begrenztem Speicher in dynamischen Datenströmen Dieses Papier befasst sich mit einem grundlegenden Problem, das in Datenstreaming-Szenarien auftritt, nämlich dass das heutige Data Mining für die effektive Handhabung von Datenströmen schlecht ausgestattet ist und der Netzwerkstabilität und der schnellen Reaktion wenig Aufmerksamkeit schenkt [36]. Zu dieser Frage stellen wir einen kontrolltheoretischen expliziten Rate (ER) Online Data Mining Control Algorithmus (ODMCA) vor, um die Senderate von geminten Daten zu regulieren, die die Hauptspeicherbelegung von Terminalknoten berücksichtigt. Das vorgeschlagene Verfahren verwendet einen verteilten proportionalen integrativen plus abgeleiteten Regler in Kombination mit Data-Mining, wobei die Regelparameter so ausgelegt werden können, dass die Stabilität des Regelkreises in Bezug auf die Senderate der erfassten Daten gewährleistet ist. Wir analysieren weiter die theoretischen Aspekte des vorgeschlagenen Algorithmus und Simulationsergebnisse zeigen die Effizienz unseres Schemas in Bezug auf hohe Hauptspeicherbelegung, schnelle Reaktion der Hauptspeicherbelegung sowie kontrollierte Senderaten.;-;-;-;https://link.springer.com/chapter/10.1007/11590354_134 c107659f2df2869a1bb993a2e87d80e8;de;;;7.4.;;;Klassifizierung des Tippverhaltens von Softkeyboards mithilfe von Sensoren für Mobilgeräte mit maschinellem Lernen Die Menge der auf Mobilgeräten gespeicherten personenbezogenen Daten ist in den letzten Jahren durch zwei Entwicklungen deutlich gestiegen: Immer mehr Menschen nutzen sie und die Sensoren sind fortschrittlicher geworden, die in der Lage sind, menschliche Aktivitäten wie Gehen, Laufen, Schlafen und Radfahren und Schwimmen. In dieser Studie schlagen wir ein System vor, um das Tippverhalten der Benutzer basierend auf den von den eingebauten Sensoren erzeugten Daten zu klassifizieren und präsentieren ein Anwendungsszenario für die Anmeldung zur Validierung der Ergebnisse. Wir untersuchen das einzigartige Tipp- und Telefonhalteverhalten der Benutzer, indem wir die weichen biometrischen (Alter, Geschlecht) und statistischen Merkmale untersuchen. Das Tippverhalten wird durch verschiedene maschinelle Lerntechniken mit den von Beschleunigungsmessern und Gyroskopsensoren eingegebenen Daten klassifiziert. Künstliche neuronale Netze (KNN),;-;-;-;https://link.springer.com/article/10.1007/s13369-018-03703-8 6a8522360045f8000aa5bb259424cfd6;de;;;7.4.;;;Bestätigungsregelsätze Das Konzept der Bestätigungsregelsätze stellt einen Rahmen für eine zuverlässige Entscheidungsfindung dar, der zwei Prinzipien kombiniert, die zur Erhöhung der Vorhersagegenauigkeit wirksam sind: Konsens in einem Ensemble von Klassifikatoren und unentschlossene oder probabilistische Vorhersagen in Fällen, in denen zuverlässige Entscheidungen nicht möglich sind. Das Konzept der Bestätigungsregeln verwendet für jede Klasse der Domäne einen eigenen Klassifikatorsatz. In dieses Entscheidungsmodell können verschiedene Regeln integriert werden: entweder solche, die durch die Anwendung eines oder mehrerer induktiver Lernalgorithmen erhalten werden, oder sogar Regeln, die von Menschen kodiertes Expertenwissen repräsentieren. Die einzigen Bedingungen für die Aufnahme einer Regel in den Bestätigungsregelsatz sind ihr hoher Vorhersagewert und die relative Unabhängigkeit von anderen Regeln im Bestätigungsregelsatz. Dieses Papier stellt das Konzept der Bestätigungsregelsätze zusammen mit einem Algorithmus zur Auswahl relativ unabhängiger Regeln aus einem Satz aller akzeptablen Bestätigungsregeln und einem Algorithmus zum systematischen Aufbau eines Satzes von Bestätigungsregeln vor.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45372-5_4 92dfbd2296a17ac58803a481b89d7161;de;;;7.4.;;;Resonanzfrequenzvorhersage von Patch-Antennen in Gegenwart von eingefügtem Luftspalt mit maschinellem Lernen Dieser Artikel präsentiert eine Anwendung des maschinellen Lernansatzes zur Vorhersage der Resonanzfrequenz einer Mikrostreifenantenne bei Vorhandensein eines eingefügten Luftspalts im Band von 1,07-2,6 GHz. Bei einer festen Gesamthöhe von 1,6 mm und der unterschiedlichen Dicke des FR-4-Materials und des eingefügten Luftspalts wurden durch Simulation mit dem CST-Mikrowellenstudio 2019 insgesamt 50 Datenproben gesammelt simulierten Datensatz und wurde für die Resonanzfrequenzvorhersage verwendet. Das vorhergesagte Ergebnis wird mit simulierten Daten verglichen, und es wird festgestellt, dass das auf KNN basierende Modell sehr ähnliche Ergebnisse mit dem simulierten Datensatz liefert. Das vorgeschlagene Verfahren kann angewendet werden, um die Resonanzfrequenz der Patchantenne bei Vorhandensein eines eingefügten Luftspalts für regelmäßige und nicht regelmäßige Formen vorherzusagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9938-5_34 302def688956234efb4a793d446a4dda;de;;;7.4.;;;Feingranulare Vorhersage von Datenschutzeinstellungen mithilfe eines Fragebogens zur Einstellung der Privatsphäre und maschinellem Lernen In diesem Papier wird vorgeschlagen, den Nutzern sozialer Netzwerke (SNs) Datenschutzeinstellungen je nach Thema des Beitrags zu empfehlen. Basierend auf den Antworten auf einen speziell entwickelten Fragebogen wird maschinelles Lernen verwendet, um ein Datenschutzmodell für Benutzer zu informieren. Das Modell gibt dann für jeden Beitrag eine individuelle Empfehlung, an welche Gruppen anderer SN-Nutzer der betreffende Beitrag weitergegeben werden soll. In einer Vorstudie haben wir herausgefunden, welche Freundeskreise typischerweise existieren und welche Themen diskutiert werden. Wir erläutern das Konzept des Machine-Learning-Ansatzes und zeigen in einer Validierungsstudie, dass die generierten Datenschutzempfehlungen präzise sind und von SN-Nutzern als sehr plausibel wahrgenommen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-68059-0_48 f6144507a18f76cbdf081482bc8f5516;de;;;7.4.;;;Eingeschränkte Deep Belief Networks für Multi-View-Learning Deep Belief Network (DBN) ist ein probabilistisches generatives Modell mit mehreren Schichten versteckter Knoten und einer Schicht sichtbarer Knoten, wobei die Parametrisierungen zwischen den Schichten Harmonium oder eingeschränkten Boltzmann-Maschinen (RBMs) gehorchen. In diesem Beitrag präsentieren wir;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23783-6_9 0ceeea96fb8f2404da0b4143531fc129;de;;;7.4.;;;Maschinelles Lernen und Anwendungen für Gehirn-Computer-Schnittstellen In diesem Artikel werden Methoden des maschinellen Lernens und ihre Anwendung auf die Gehirn-Computer-Schnittstellen diskutiert. Ein besonderer Fokus liegt auf linearen Klassifikationsmethoden, die im BCI-Kontext angewendet werden können. Abschließend geben wir einen Überblick über das Berlin-Brain Computer Interface (BBCI).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73345-4_80 96a124581d8167c2266d99f33b68816a;de;;;7.4.;;;Zeitreihenprofilierung des Stromverbrauchs: Eine Data-Mining-Anwendung in der Energiewirtschaft Der fortlaufende Einsatz von automatisierten Zählerablesungssystemen (AMR) in der europäischen Elektrizitätswirtschaft stellt Energieversorger vor neue Herausforderungen in Bezug auf die vollständige Nutzung der Fülle aktuell gemessener AMR-Daten, nicht nur um den täglichen Betrieb zu verbessern, sondern auch auch um Demand-Response-Programme zu erleichtern. In dieser Studie untersuchen wir einen visuellen Data-Mining-Ansatz zur Entscheidungsunterstützung bei der Preisdifferenzierung oder der Gestaltung von Demand-Response-Tarifen. Wir gruppieren die Kunden in unserer Stichprobe nach dem tatsächlichen Verbrauchsverhalten der Kunden im Jahr 2009 und profilieren ihren Stromverbrauch mit Schwerpunkt auf dem Vergleich zweier saisonaler und zeitbasierter Variablen. Die Ergebnisse deuten darauf hin, dass ein solcher analytischer Ansatz Abweichungen und granulare Informationen im Verbrauchsmuster visualisieren kann, wodurch die Elektrizitätsunternehmen bessere Erkenntnisse über den Stromverbrauch der Kunden gewinnen können. Der untersuchte Ansatz zur Erstellung von Zeitreihenprofilen für den Stromverbrauch wird der einschlägigen Forschungsgemeinschaft und der zukünftigen Praxis der Energiewirtschaft ein empirisches Verständnis der Problemdomäne hinzufügen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31488-9_5 3ccaea84a46b1dc5393b5609f0f40856;de;;;7.4.;;;Data-Mining-Ansatz zur Bewertung des ERP-Systems aus Sicht des Anbieters Das Papier präsentiert einen Ansatz zur Analyse und Bewertung der Vorteile, die eine Implementierung eines Enterprise Resource Planning-Systems mit sich bringt. Die Untersuchung wurde an einer Stichprobe von 10 polnischen Unternehmen durchgeführt, die die Xpertis-Software verwenden, die eine der beliebtesten Anwendungen zur Unterstützung der Geschäftsaktivitäten kleiner und mittlerer Unternehmen ist. Der hier vorgestellte Ansatz zielt auf die Ausarbeitung einer Bewertungsmethode ab, die vom Softwarehersteller leicht angewendet werden kann, außerdem ist er von den Kunden akzeptabel, da er die vertraulichen Geschäftsinformationen nicht preisgibt und die Ergebnisse dennoch aussagekräftig genug sind, um auch für das Softwareunternehmen wie für seine Kunden. Die Analyse, die mit dem Orange Data Mining-Tool durchgeführt wurde, wurde beschrieben. Die vergleichende Studie der Xpertis ERP-Funktionen und der Kundeneigenschaften wurde kurz vorgestellt und die Richtungen der zukünftigen Entwicklung der betrachteten Software vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30528-8_8 e02827217f35de3808efdfc9cd507ef9;de;;;7.4.;;;Verifizieren neuronaler Netze von ReLU aus der Perspektive der Modellprüfung Neuronale Netze haben als wichtiges Rechenmodell eine breite Anwendung im Bereich der künstlichen Intelligenz (KI). Aus Sicht der Informatik erfordert ein solches Rechenmodell eine formale Beschreibung seines Verhaltens, insbesondere des Verhältnisses zwischen Input und Output. Außerdem sollten solche Spezifikationen automatisch verifiziert werden. ReLU (rektifizierte lineare Einheit) neuronale Netze werden in der Praxis intensiv verwendet. In diesem Papier stellen wir ReLU Temporal Logic (ReTL) vor, deren Semantik in Bezug auf neuronale ReLU-Netze definiert ist, die wertbezogene Eigenschaften des Netzes spezifizieren könnten. Wir zeigen, dass der Model-Checking-Algorithmus für die;-;-;-;https://link.springer.com/article/10.1007/s11390-020-0546-7 6af0da6a3446f76783b550c7d785f891;de;;;7.4.;;;ADMMLIB: Eine Bibliothek mit kommunikationseffizientem AD-ADMM für verteiltes maschinelles Lernen Die alternierende Richtungsmethode von Multiplikatoren (ADMM) wurde kürzlich als ein überzeugender Ansatz zur Lösung groß angelegter Probleme des maschinellen Lernens in der Clusterumgebung identifiziert. Um den Synchronisations-Overhead in einer verteilten Umgebung zu reduzieren, wurde asynchrones verteiltes ADMM (AD-ADMM) vorgeschlagen. Aufgrund des hohen Kommunikationsaufwands in der Master-Slave-Architektur kann AD-ADMM jedoch immer noch nicht gut skalieren. Um dieser Herausforderung zu begegnen, schlägt dieses Papier die ADMMLIB vor, eine Bibliothek von AD-ADMM für verteiltes maschinelles Lernen. Wir verwenden eine Reihe von Netzwerkoptimierungstechniken. Zuerst wird eine hierarchische Kommunikationsarchitektur verwendet. Zweitens integrieren wir ringbasiertes Allreduce- und Mixed-Precision-Training in ADMMLIB, um die Kommunikationskosten zwischen Knoten weiter effektiv zu senken. Die Auswertung mit großen Datensätzen zeigt, dass ADMMLIB im Vergleich zur ursprünglichen AD-ADMM-Implementierung eine bis zu zweifache Geschwindigkeit erreichen kann und die Gesamtkommunikationskosten um 83 % gesenkt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30709-7_27 3335f57c29a21e9d757990af80237c28;de;;;7.4.;;;Super Intelligence zur Lösung des COVID-19-Problems Im Jahr 2020 war die Welt mit einer Epidemie des neuen Coronavirus SARS-CoV-2 konfrontiert, die zu einer globalen Krise führte. Die COVID-19-Krise ist das komplexe und herausfordernde Problem der realen Welt, daher ist die Lösung einer solchen Krise eine gute Aufgabe für ein superintelligentes System, da der Teufel im Detail steckt, also muss der Agent die Welt mit einem wirklich guten Maß an Kompetenz modellieren . Wir schlagen ein konzeptionelles Schema vor, um diese Aufgabe zu lösen, indem wir ein Modell (einschließlich eines agentenbasierten Ansatzes) aufbauen und ein System analysieren, das intelligente Systeme (künstlich oder hybrid) einbezieht. Konzeptionell muss dieses System in der Lage sein, das genaueste Modell des Problems zu entdecken und die besten Maßnahmen zu seiner Lösung anzubieten. In diesem Artikel schlagen wir den Ansatz vor, das COVID-19-Problem zu lösen und dafür ein superintelligentes System zu bauen. Wir analysieren die Welterfahrung in der Anwendung von Informationstechnologie zur Lösung von Problemen der Systemanalyse eines solchen Komplexitätsgrades. Es wird eine Reihe einfacher Experimente gezeigt, um die im Artikel vorgeschlagene Idee zu veranschaulichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-60577-3_35 96737e93a277bd1608800f240e0c1303;de;;;7.4.;;;Bewertung von Objektvorschlägen und ConvNet-Funktionen für die markenbasierte visuelle Ortserkennung Trotz erheblicher Fortschritte bei der visuellen Ortserkennung für die mobile Roboternavigation bleiben Herausforderungen bestehen, insbesondere in wechselnden Umgebungen. Kürzlich hat eine auf Landmarken basierende visuelle Ortsbeschreibungstechnik unter Bedingungen erheblicher Umwelt- und Sichtveränderungen beeindruckende Ergebnisse erzielt und das Interesse der Gemeinde daran geweckt. Diese Technik kombiniert die Stärken von Objektvorschlägen und Convolutional Neural Networks (ConvNets), die die neuesten Errungenschaften in der Objekterkennung und der Deep-Learning-Forschung darstellen. Die Idee besteht darin, Landmarken in einem Bild mit einem Objektvorschlagsverfahren zu erkennen und diese Landmarken dann als Merkmale (bekannt als ConvNet-Merkmale) zu charakterisieren, die von einem ConvNet für übereinstimmende Landmarken berechnet werden. Obwohl eine große Anzahl von Objektvorschlagsansätzen und ConvNet-Merkmale vorgeschlagen wurde, bleibt unklar, wie Objektvorschläge und ConvNet-Merkmale für ein auf Landmarken basierendes visuelles Ortserkennungssystem ausgewählt oder kombiniert werden. In diesem Papier führen wir eine gründliche Bewertung von 13 hochmodernen Objektvorschlagsmethoden und 13 Arten moderner ConvNet-Funktionen an sechs Datensätzen mit verschiedenen Umgebungs- und Standpunktänderungen hinsichtlich ihrer Genauigkeit bei der Ortserkennung und der Recheneffizienz durch. Unsere Studie identifiziert die Stärken und Schwächen von Objektvorschlagsmethoden und ConvNet-Features in Bezug auf Umweltveränderungen. Es wird erwartet, dass die aus unserer Analyse gezogenen Schlussfolgerungen für die Entwicklung von Landmarken-basierten visuellen Ortserkennungssystemen nützlich sind und anderen verwandten Forschungsbereichen zugutekommen.;-;-;-;https://link.springer.com/article/10.1007/s10846-017-0735-y e0b3515437d321bd320de0df6295da3c;de;;;7.4.;;;Testen der Bedeutung von Investitionen in künstliche Intelligenz bei der Ermittlung von Aktienkursen Künstliche Intelligenz (KI) ist ein Maschinen- oder Computer-Framework, das mehrere Algorithmen umfasst, einschließlich maschineller Anpassung, tiefgreifendem Lernen und natürlicher Sprachverarbeitung. Es hat die Fähigkeit, selbstständig aus historischen Daten zu lernen, um die Arbeit und Interaktionen von Mitarbeitern, Kunden und Weiterentwicklungen zu erleichtern. Dieser Beitrag untersucht die Bedeutung von Investitionen in künstliche Intelligenz bei der Bestimmung von Aktienkursen. Eine Stichprobe von 12 Unternehmen, die in verschiedenen Branchen tätig sind, wurde zufällig ausgewählt und insgesamt 540 Beobachtungen zu Aktienkursen, Buchwert pro Aktie, Book-to-Market-Verhältnis, Free Cash Flow Yield, Return on Assets und Investitionen in künstliche Intelligenz aufgezeichnet. Die Regressionsergebnisse unter Verwendung der E-Views-Software zeigten, dass Investitionen in künstliche Intelligenz die Aktienkurse erheblich und direkt beeinflussen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30874-2_4 aceed8a62fb757f90ac158777f958a30;de;;;7.4.;;;Diskriminatives Strukturlernen von Markov-Logiknetzwerken Markov-Logiknetzwerke (MLNs) kombinieren Markov-Netzwerke und Logik erster Ordnung, indem sie Formeln erster Ordnung Gewichte hinzufügen und diese als Vorlagen für Merkmale von Markov-Netzwerken betrachten. Das Erlernen der Struktur von MLNs wird mit modernsten Methoden durchgeführt, indem die Wahrscheinlichkeit einer relationalen Datenbank maximiert wird. Dies kann bei Vorhersageaufgaben zu suboptimalen Ergebnissen führen. Andererseits wurden bessere Ergebnisse bei Vorhersageproblemen durch diskriminatives Lernen von MLNs-Gewichtungen bei einer bestimmten Struktur erzielt. In diesem Artikel schlagen wir einen Algorithmus zum diskriminativen Lernen der Struktur von MLNs vor, indem die bedingte Wahrscheinlichkeit der Abfrageprädikate anstelle der gemeinsamen Wahrscheinlichkeit aller Prädikate maximiert wird. Der Algorithmus wählt die Strukturen aus, indem er die bedingte Wahrscheinlichkeit maximiert, und setzt die Parameter nach der maximalen Wahrscheinlichkeit. Experimente in zwei Bereichen der realen Welt zeigen, dass der vorgeschlagene Algorithmus den diskriminativen Gewichtungslernalgorithmus nach dem Stand der Technik für MLNs hinsichtlich der bedingten Wahrscheinlichkeit verbessert. Wir vergleichen den vorgeschlagenen Algorithmus auch mit dem modernen generativen Strukturlernalgorithmus für MLNs und bestätigen die Ergebnisse in [22], die zeigen, dass für kleine Datensätze der generative Algorithmus wettbewerbsfähig ist, während für größere Datensätze der diskriminative Algorithmus den generativen übertrifft eins.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85928-4_9 da77b9f53765a8e6cf3da68e753b14a5;de;;;7.4.;;;Schizophrenie-Hilfsdiagnosesystem basierend auf Data-Mining-Technologie Um mithilfe digitaler Medizintechnik ein Hilfsdiagnosesystem für Schizophrenie zu entwickeln und zu konzipieren, um Ärzte auf allen Ebenen bei der Diagnose und Vorhersage der Heilung von Patienten zu unterstützen, die Genauigkeit der Diagnose von Symptomen zu verbessern, Komplikationen im Voraus zu erkennen und das Risiko von Krankheit wird die Anwendung des Bayesschen Netzwerks im Hilfsdiagnosesystem der Schizophrenie untersucht und ein Hilfsdiagnosesystem der Schizophrenie entwickelt. Basierend auf der Data-Mining-Technologie können aus Patientendaten Wissensinformationen gewonnen und zur Diagnose der Art des Patienten verwendet werden. Die Bedarfsanalyse eines Hilfsdiagnosesystems wird kurz vorgestellt und ein Hilfsdiagnosesystem für Schizophrenie basierend auf dem Bayesschen Netzwerk wird entworfen.;-;-;-;https://link.springer.com/article/10.1007/s10916-019-1214-8 3b3ffde6a4080c53a64926a9e955e601;de;;;7.4.;;;Untersuchung von Data-Mining-Techniken in medizinischen Datenströmen Data Stream Mining wurde in verschiedenen Anwendungsdomänen untersucht. In den letzten Jahren belastet eine alternde Bevölkerung die nationalen und internationalen Gesundheitssysteme. Die Anomalieerkennung ist ein typisches Beispiel für eine Datenstromanwendung. Es ist ein dynamischer Prozess, bei dem anormale Verhaltensweisen in bestimmten Datenströmen gefunden werden. In diesem Papier diskutieren wir die bestehenden Anomalieerkennungstechniken für medizinische Datenströme. Darüber hinaus präsentieren wir ein Verfahren zur Verwendung des Autoregressive Integrated Moving Average Modells (ARIMA) zur Analyse der EKG-Datenströme.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-46922-5_25 03e7a4f0f2f7b791abd3166708995d77;de;;;7.4.;;;Data Mining-Ergebnisse in einer natürlichen Sprache melden Reporting Ein Versuch, Ergebnisse von Data Mining in automatisch generierten Sätzen in natürlicher Sprache zu berichten, wird beschrieben. Es werden verschiedene Arten von Assoziationsregeln eingeführt. Der vorgestellte Versuch betrifft implizite Regeln – einen der vorgestellten Typen. Es werden Formulierungsmuster beschrieben, die als generatives Sprachmodell zur Formulierung von impliziten Regeln in einer natürlichen Sprache dienen. Es wird ein experimentelles Softwaresystem AR2NL vorgestellt, das implizite Regeln sowohl ins Englische als auch ins Tschechische umwandeln kann. Es werden auch Anwendungsmöglichkeiten der vorgestellten Grundsätze auf andere Arten von Assoziationsregeln genannt.;-;-;-;https://link.springer.com/chapter/10.1007/11498186_20 f1c4dd67ea99978ed2ee9e9563f45f41;de;;;7.4.;;;Das Recht auf Vergessenwerden: Auf dem Weg zum maschinellen Lernen auf gestörten Wissensdatenbanken Die immer komplexer werdenden Informationsinfrastrukturen von heute bilden die Grundlage jeder datengesteuerten Industrie, die sich schnell zum wirtschaftlichen Rückgrat des 21. Jahrhunderts entwickelt. Die Empfindlichkeit dieser Infrastrukturen gegenüber Störungen ihrer Wissensbasis ist daher für Unternehmen, Organisationen, Kunden und Regulierungsbehörden von entscheidendem Interesse. Dies gilt für die direkte Bereitstellung solcher Informationen in wichtigen Anwendungen wie Kliniken oder der Energiewirtschaft, aber auch für zusätzliche Erkenntnisse, Vorhersagen und personalisierte Dienste, die durch die automatische Verarbeitung dieser Daten ermöglicht werden. Vor dem Hintergrund der ab 2018 geltenden neuen EU-Datenschutzbestimmungen, die Kunden ein Recht auf Löschung ihrer Daten einräumen, müssen informationsverarbeitende Stellen auf diese sich ändernden rechtlichen (und damit wirtschaftlichen) Rahmenbedingungen reagieren. Ihre Entscheidungen umfassen ein Redesign ihrer Dateninfrastruktur sowie vorbeugende Maßnahmen wie die standardmäßige Anonymisierung von Datenbanken. Erkenntnisse über die Auswirkungen gestörter/anonymisierter Wissensbasen auf die Qualität von maschinellen Lernergebnissen sind daher eine entscheidende Grundlage, um diesen zukünftigen Herausforderungen erfolgreich zu begegnen. In diesem Artikel stellen wir eine Reihe von Experimenten vor, die wir zur Anwendung von vier verschiedenen Klassifikatoren auf einen etablierten Datensatz sowie mehrere verzerrte Versionen davon durchgeführt haben, und präsentieren unsere ersten Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-45507-5_17 dc39463ca0a330882eb263466da9284e;de;;;7.4.;;;Gitterbasierte Klassifikation mit gemischten numerischen und nominalen Daten Herkömmliche Klassifikationsverfahren werden oft für bestimmte Datentypen entwickelt. Sie können nicht direkt auf Datensätze mit gemischten numerischen und nominalen Daten angewendet werden. Erst nachdem numerische Daten diskretisiert oder nominale Daten kodiert wurden, konnten Algorithmen funktionieren. Da sich die Daten an den Algorithmus anpassen sollten, ist ein solches Lernschema in gewissem Maße ansatzorientiert. Dieses Papier stellt ein neues Data-Mining-Schema namens gitterbasiertes Lernen (LBL) vor, dessen zentrale Idee darin besteht, Algorithmen zu formulieren, die grundlegende Operationen auf Gitterstrukturen verwenden. Da sowohl numerische als auch nominale Daten leicht in Gitter eingebettet werden können, sind LBL-Algorithmen auf jeden Datensatz mit gemischten Daten anwendbar. In diesem Artikel beschreiben wir den gitterbasierten Klassifikationsalgorithmus (LBC). Die Leistung von LBC wurde an verschiedenen Datensätzen untersucht. Die Ergebnisse zeigen, dass LBC eine effektive Methode zur Klassifizierung mit gemischten Daten ist und LBL-Lernen ein vielversprechendes Schema für das Data Mining ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-37256-1_85 6aa1d57085c3f976e54a284f2a663af7;de;;;7.4.;;;Baumbasierte Credal-Netzwerke zur Klassifizierung Bayessche Netze sind Modelle für unsicheres Denken, die auch für die Data-Mining-Aufgabe der Klassifikation eine wachsende Bedeutung erlangen. Credal-Netzwerke erweitern Bayessche Netze zu Verteilungsmengen oder Credal-Mengen. Dieses Papier erweitert ein hochmodernes Bayes-Netz zur Klassifikation, genannt baumverstärkter naiver Bayes-Klassifizierer, auf Credal-Sets, die aus Wahrscheinlichkeitsintervallen stammen. Diese Erweiterung ist eine Grundlage, um das grundlegende Problem der vorherigen Unkenntnis über die Verteilung, die die Daten generiert, anzugehen, was bei Data-Mining-Anwendungen üblich ist. Dieses Thema wird oft vernachlässigt, aber es ist wichtig, es richtig anzugehen, um letztendlich zuverlässige Schlussfolgerungen aus den abgeleiteten Modellen zu ziehen. In diesem Papier formalisieren wir das neue Modell, entwickeln einen exakten linear-zeitlichen Klassifikationsalgorithmus und evaluieren den Credal-Netz-basierten Klassifikator an einer Reihe von realen Datensätzen. Die empirische Analyse zeigt, dass der neue Klassifikator gut und zuverlässig ist und wirft ein Problem übermäßiger Vorsicht auf, das in der Arbeit diskutiert wird. Insgesamt scheint der neu vorgeschlagene Klassifikator angesichts des günstigen Kompromisses zwischen Aussagekraft und effizienter Berechnung ein guter Kandidat für die breite Anwendung zuverlässiger Klassifikatoren auf Basis von Credal-Netzwerken für reale und komplexe Aufgaben zu sein.;-;-;-;https://link.springer.com/article/10.1023/A%3A1025822321743 589b3c8158a1ee05492ae7b8f7e3f90b;de;;;7.4.;;;Unbeaufsichtigte und teilüberwachte Support Vector Machines Als wichtiger Zweig des unüberwachten Lernens zielt die Clustering-Analyse darauf ab, eine Sammlung von Objekten in Gruppen oder Cluster zu unterteilen, so dass Mitglieder innerhalb jedes Clusters enger miteinander verwandt sind als Objekte, die verschiedenen Clustern zugeordnet sind. Clustering-Algorithmen stellen automatisierte Werkzeuge bereit, um eine Struktur aus einem nicht gekennzeichneten Satz zu identifizieren, und es gibt eine reichhaltige Quelle früherer Arbeiten zu diesem Thema. Effiziente konvexe Optimierungstechniken haben einen tiefgreifenden Einfluss auf das Gebiet des maschinellen Lernens, wie quadratische Programmierung und lineare Programmiertechniken, um Vector Machine und andere Kernel-Maschinen-Trainings zu unterstützen. Darüber hinaus erweitert Semi-Definite Programming (SDP) den Werkzeugkasten der beim maschinellen Lernen verwendeten Optimierungsmethoden über die aktuellen uneingeschränkten, linearen und quadratischen Programmiertechniken hinaus, die effektive Algorithmen bereitgestellt haben, um das schwierige Rechenproblem bei der Optimierung zu bewältigen und hohe Näherungslösungen zu erhalten . In diesem Kapitel haben wir mehrere Support-Vector-Machine-Algorithmen für unüberwachte und halbüberwachte Probleme basierend auf SDP vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-85729-504-0_4 3f015ef0d6bc68ba5566f01b21ca55c5;de;;;7.4.;;;Beziehungen und Data Mining im GUHA-Stil II Das Problem der Darstellbarkeit einer (endlichen) Booleschen Algebra mit zusätzlicher binärer Relation durch eine Datenmatrix (Informationsstruktur) und einen binären generalisierten Quantor wird für verschiedene Klassen von (assoziativen) Quantoren untersucht. Die rechnerische Komplexität des Problems für die Klasse aller Assoziationsquantoren und für die Klasse aller impliziten Quantoren wird bestimmt und das Problem wird auf (verallgemeinerte) Schwellenfunktionen und (positive) Annehmbarkeit bezogen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24771-5_14 3654796f40849ad7b6700b5e2af898c1;de;;;7.4.;;;Erkennung von Buchhaltungsbetrug mit K-Means-Clustering-Technik : Buchhaltungsbetrug ist in der heutigen Zeit weit verbreitet. Diese Art von Betrug oder Skandale umfasst jede Manipulation von Jahresabschlüssen, um finanzielle Verfehlungen zu verbergen. Solche betrügerischen Praktiken können mit Data-Mining-Techniken in den Vordergrund gerückt werden. Mit Data Mining lassen sich Betrugsmuster in einem Buchhaltungsdatensatz erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4859-2_17 b90ed406c4eb15ce455083fe2264487a;de;;;7.4.;;;Ein kostenbewusster Ansatz zur parallelen Workload-Zuweisung basierend auf Techniken des maschinellen Lernens Parallelität ist eine der Hauptquellen für die Leistungsverbesserung in modernen Computerumgebungen, aber die effiziente Nutzung der verfügbaren Parallelität hängt von einer Reihe von Parametern ab. Das Bestimmen der optimalen Anzahl von Threads für eine gegebene parallele Datenschleife ist beispielsweise ein schwieriges Problem und hängt von der spezifischen parallelen Plattform ab. In diesem Beitrag wird ein lernbasierter Ansatz zur kostenbewussten parallelen Workload-Zuweisung vorgestellt. Bei diesem Ansatz werden statische Programmfunktionen verwendet, um Programme zu klassifizieren, bevor das beste Arbeitslastzuweisungsschema basierend auf seinen früheren Erfahrungen mit ähnlichen Programmen entschieden wird. Experimentelle Ergebnisse zu 12 Java-Benchmarks (insgesamt 76 Testfälle mit unterschiedlichen Workloads) zeigen, dass es die parallele Workload effizient auf Java-Threads aufteilen und eine Effizienz von durchschnittlich 86 % erreichen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74784-0_51 697cfe191c8096eb0831ddeb027e1d86;de;;;7.4.;;;Modellierung von Krebspatientenakten: Ein strukturierter Ansatz für Data Mining und Visual Analytics Diese Forschung präsentiert eine Methodik für die Analyse von Gesundheitsdaten anhand einer Fallstudie zur Modellierung von Krebspatientenakten. Zeitachsenstrukturierte klinische Datensysteme stellen einen neuen Ansatz zum Verständnis der Beziehung zwischen klinischer Aktivität, Krankheitspathologien und Gesundheitsergebnissen dar. Das neuartige Brustkrebs-Datensystem von Southampton enthält nach Episoden und Zeitachsen strukturierte Aufzeichnungen von mehr als 17.000 Patientinnen, die seit Ende der 1970er Jahre im University Hospital Southampton und angegliederten Krankenhäusern behandelt wurden. Das System wird ständig weiterentwickelt und validiert. Moderne Data-Mining-Software und Visual Analytics-Tools ermöglichen neue Einblicke in zeitlich strukturierte klinische Daten. Über die Herausforderungen und Ergebnisse der Anwendung solcher softwarebasierter Systeme in dieser komplexen Datenumgebung wird hier berichtet. Die Kerndaten wurden anonymisiert und einer Reihe von Vorverarbeitungsübungen unterzogen, um anomale und fehlerhafte Daten zu identifizieren und auszuschließen, bevor sie in einem Remote Data Warehouse umstrukturiert wurden. An dem resultierenden Datensatz wurde eine Reihe von Ansätzen getestet, darunter mehrdimensionale Modellierung, sequentielle Musteranalyse und Klassifizierung. Visual Analytics-Software hat den Vergleich von Überlebenszeiten und chirurgischen Behandlungen ermöglicht. Die getesteten Systeme erwiesen sich als leistungsstark bei der Identifizierung von Episodensequenzierungsmustern, die mit realen klinischen Ergebnissen übereinstimmen. Es wird der Schluss gezogen, dass vorbehaltlich weiterer Verfeinerung und Auswahl moderne Data-Mining-Techniken auf große und heterogene klinische Datensätze angewendet werden können, um die Entscheidungsfindung zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-64265-9_4 3dacbe7577c7a93b5cc61f9eb3ddaae0;de;;;7.4.;;;Analytische Analyse der Abbruchrate von Lernenden mit Data-Mining-Techniken Massive Open Online Courses (MOOC) sind die praktischen Möglichkeiten, um den Zugang zu einer qualitativ hochwertigen Bildung insbesondere für diejenigen zu ermöglichen, die eine Fernausbildung absolvieren oder den Kern des Kurses von den brillanten Tutoren erhellen möchten. Die Studentenschaft neigt dazu, jugendlich und sachkundig zu sein, und MOOC hilft den Studenten, Teil verschiedener Lernmethoden zu sein. Das grundlegende Ziel dieser Arbeit ist es, die MOOC-Umgebung zu verstehen und die Probleme im Zusammenhang mit diesen Kursen zu analysieren. Ziel dieser Forschungsarbeit ist es, das Hauptproblem des Abbruchs in MOOC-Kursen zu verstehen. Data-Mining-Techniken werden verwendet, um diesen Faktor vorherzusagen, der zu einem Anstieg der Abbrecherquoten führt. Durch die Identifizierung und das Verständnis dieser Faktoren können notwendige Maßnahmen ergriffen werden, um ähnliche Lerntypen in den folgenden MOOC-Kursen zu ihrem maximalen Potenzial zu bringen. Dies führt schließlich zu einer Erhöhung der Abschlussquote der MOOC-Lernenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2285-3_69 4b02ec3eb4a6b04af3ac748daa53a5dd;de;;;7.4.;;;Anwenden von Fuzzy Data Mining für die Auswahl von steigenden Bereichen Segelfliegen ist eine Freizeitaktivität und ein Wettkampfsport, bei dem Einzelpersonen nicht angetriebene Flugzeuge fliegen, die als Segelflugzeuge bekannt sind. Der Auswahlprozess für einen hochfliegenden Platz hängt von einer Reihe von Faktoren ab, was zu einer komplexen Entscheidungsaufgabe führt. In diesem Papier schlagen wir die Verwendung der dmFSQL-Sprache für Fuzzy-Abfragen als eine der Techniken des Data Mining vor, die verwendet werden kann, um das Problem zu lösen, den Umgebungsbedingungen und Kundenmerkmalen den besseren Platz für den Aufstieg anzubieten. Nach einem Clustering- und Charakterisierungsprozess einer Kundendatenbank in einem Data Warehouse sind wir in der Lage, den nächsten Kunden in einem Cluster zu klassifizieren und entsprechend zu beantworten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73007-1_72 94c266ddf112a5e53cdb0087dd1067db;de;;;7.4.;;;Echtzeit-Lagerstättenbetrieb mit Data-Mining-Techniken Der optimale Betrieb von Wasserkraftspeichern ist für die Planung und effiziente Bewirtschaftung der Wasserressourcen und die Erzeugung von Wasserkraft unerlässlich. Verschiedene Techniken wie der genetische Algorithmus (GA), künstliche neuronale Netze (ANN), Support Vector Machine (SVM) und dynamische Programmierung (DP) wurden verwendet, um Lagerstättenbetriebsregeln zu berechnen. Dieses Papier implementiert die Data-Mining-Techniken SVM und ANN, um die optimale Freisetzungsregel von Wasserkraftspeichern unter „vorhergesagten“ und „nicht vorhergesagten“ Szenarien zu berechnen. Der Einsatz von Data-Mining-Techniken, die Datenunsicherheiten berücksichtigen, um den optimalen Betrieb von Wasserkraftwerken zu berechnen, ist auf dem Gebiet der Analyse von Wasserressourcensystemen neu. Der optimale Betrieb des Reservoirs Karoon 3, Iran, dient als Test der vorgeschlagenen Methodik. Der vorgelagerte Streamflow, Speicherdatensätze und mehrere verzögerte Variablen sind Modelleingaben. Daten, die aus der Lösung des Lagerstättenoptimierungsproblems mit nichtlinearer Programmierung (NLP) gewonnen werden, werden angewendet, um die SVM zu trainieren (zu kalibrieren), und KNN, SVM und KNN werden im „Nicht-Prognose“-Szenario basierend auf allen Eingaben zusammen mit ihren Zeit- verzögerte Variablen. Im Gegensatz dazu werden im Szenario „Prognose“ aktuelle Parameter aus der Menge der Eingaben entfernt. Die Ergebnisse des SVM-Modells werden mit denen des KNN-Modells mit dem Korrelationskoeffizienten (;-;-;-;https://link.springer.com/article/10.1007/s10661-018-6970-2 1859d8898d73a21e91efb53c8839f9e3;de;;;7.4.;;;Modellierung der akademischen Leistung von UUM-Absolventen mit deskriptivem und prädiktivem Data Mining Die Auswahl der Data-Mining-Ansätze basiert auf der Fähigkeit von Data Mining als mächtiges Werkzeug für akademische Analysezwecke. In Hochschuleinrichtungen kann Data Mining verwendet werden, um versteckte Trends und Muster aufzudecken, die den Institutionen bei der Vorhersage der Leistung der Studierenden helfen. Heute werden Fähigkeiten wie Intelligenz, Geschick und CGPA als Hauptfaktor für akademische Leistungen identifiziert. Im Wesentlichen ist es gängige Praxis, den CGPA als Indikator für die akademischen Leistungen der Studierenden zu verwenden. Die schulische Leistung zu messen ist jedoch keine leichte Aufgabe. Der Zweck dieser Studie ist es, Faktoren zu untersuchen, die mit akademischen Leistungen für die Bachelor-Studenten der Universität Utara Malaysia (UUM) auf der Grundlage des College of Arts and Sciences (CAS), des College of Business (COB) und des College of Law, Governance and Internationale Studien (COLGIS) mit deskriptivem und prädiktivem Data Mining. Frühere Forschungen zeigen, dass Studierende und Lehrende eine gemeinsame Vorstellung von den Fähigkeiten haben, die für den Erfolg in den Studiengängen erforderlich sind. Basierend auf den Ergebnissen des deskriptiven und prädiktiven Data Mining zeigen empirische Untersuchungen mit logistischen und neuronalen Netzen, dass Faktoren wie Familieneinkommen, Rasse und Sprachkenntnisse einen signifikanten Zusammenhang mit akademischen Leistungen haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24584-3_52 37a09bac49e99613c084595824abde2b;de;;;7.4.;;;Leistungsanalyse des ASR-Systems im hybriden DNN-HMM-Framework unter Verwendung einer PWL-euklidischen Aktivierungsfunktion Automatische Spracherkennung (ASR) ist der Prozess der Abbildung eines akustischen Sprachsignals in ein für Menschen lesbares Textformat. Herkömmliche Systeme nutzen die akustische Komponente von ASR unter Verwendung des Gaussian Mixture Model – Hidden Markov Model (GMM-HMM)-Ansatzes. Deep Neural Network (DNN) eröffnet neue Möglichkeiten, um die Unzulänglichkeiten herkömmlicher statistischer Algorithmen zu überwinden. Jüngste Studien haben die akustische Komponente eines ASR-Systems unter Verwendung von DNN im sogenannten hybriden DNN-HMM-Ansatz modelliert. Im Zusammenhang mit Aktivierungsfunktionen, die verwendet werden, um die Nichtlinearität in DNN zu modellieren, werden in ASR-Systemen meist Rectified Linear Units (ReLU) und Maxout-Einheiten verwendet. Dieses Papier konzentriert sich auf die akustische Komponente eines hybriden DNN-HMM-Systems, indem es eine effiziente Aktivierungsfunktion für das DNN-Netzwerk vorschlägt. Inspiriert von früheren Arbeiten wird eine euklidische Normaktivierungsfunktion vorgeschlagen, um die Nichtlinearität des DNN-Netzwerks zu modellieren. Es wird gezeigt, dass eine solche Nichtlinearität zur Familie der stückweise linearen (PWL) Funktionen mit unterschiedlichen Merkmalen gehört. Diese Funktionen können tiefe hierarchische Merkmale des Musters erfassen. Die Relevanz des Vorschlags wird sowohl theoretisch als auch experimentell eingehend untersucht. Die Leistung des entwickelten ASR-Systems wird in Bezug auf die Telefonfehlerrate (PER) unter Verwendung der TIMIT-Datenbank bewertet. Experimentelle Ergebnisse erzielen eine relative Leistungssteigerung durch Verwendung der vorgeschlagenen Funktion gegenüber herkömmlichen Aktivierungsfunktionen.;-;-;-;https://link.springer.com/article/10.1007/s11704-020-9419-z cfa31ec7ab5c3635ffa79e1fb3c99c8a;de;;;7.4.;;;Anwendung von Fuzzy Polymere bieten chemische Schnittstellen zu elektronischen Nasensensoren zum Nachweis flüchtiger organischer Verbindungen. Eine elektronische Nase kombiniert einen richtig ausgewählten Satz von Sensoren (Array) mit Mustererkennungsverfahren, um informationsreiche Geruchsreaktionsmuster zu erzeugen und chemische Identitäten zu extrahieren. Jeder Sensor im Array wird durch ein anderes Polymer für eine unterschiedlich selektive Sorption von chemischen Zielanalyten funktionalisiert. Die Auswahl eines optimalen Satzes von Polymeren aus einer langen Liste potenzieller Polymere ist entscheidend für die kostengünstige Hochleistungsentwicklung elektronischer Nasen. In diesem Beitrag präsentieren wir eine Anwendung von Fuzzy;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-02931-3_1 e1ca33f912061623d234f2d086576641;de;;;3.2.;;;CDIO-basierter Kurs zur Erforschung und Praxis des Computernetzwerkdesigns und der Systemintegration Dieses Papier analysiert die technischen und praktischen Merkmale des Computernetzwerkdesigns und der Systemintegration. Danach verwendet dieses Papier zum Trainieren und Üben der Ingenieurpraxisfähigkeiten der Studenten die CDIO-Ausbildung ideal als Leitfaden, präsentiert den theoretischen Unterricht und das technische Experiment, um das Unterrichtsmodell zu reformieren, um die Qualität und Wirksamkeit zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24022-5_69 756da9d561624687da2729f79996b90f;de;;;7.4.;;;Erkennung extremistischer Ideen in sozialen Medien mithilfe von Techniken des maschinellen Lernens Gegenwärtig nimmt die Zahl der Terroranschläge durch einzelne Terroristen unter dem Einfluss von Propaganda und extremistischer Ideologie sowie durch organisierte terroristische Gemeinschaften mit einem Netzwerk und einer schwach vernetzten Struktur zu. Das wichtigste Mittel für den Informationsaustausch, die Anwerbung und Werbung für solche Strukturen ist das Internet, nämlich Webressourcen, soziale Netzwerke und E-Mail. In diesem Zusammenhang stellt sich die Aufgabe, Kommunikationsthemen und Verbindungen zu erkennen, zu identifizieren sowie das Verhalten und die Vorhersage von Bedrohungen durch einzelne Nutzer, Gruppen und Netzwerkgemeinschaften zu überwachen, die terroristische und extremistische Informationen im Internet generieren und verbreiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63007-2_58 fe7443d7428895822478b1175aa272b8;de;;;7.4.;;;Dempster-Shafer-Argumentation in großen, teilweise geordneten Mengen: Anwendungen im maschinellen Lernen Die Dempster-Shafer-Theorie der Glaubensfunktionen hat sich als mächtiger Formalismus für unsichere Argumentation erwiesen. Glauben funktioniert jedoch auf einem endlichen Rahmen des Urteilsvermögens;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11960-6_5 4333abecbae47cd895d5c5730e1a4082;de;;;7.4.;;;Fortschritte bei der Extraktion von Stadtinformationen aus hochauflösenden Fernerkundungsbildern Die Erforschung des urbanen Raums ist eines der heißesten Forschungsthemen im Bereich der Fernerkundung. Mit der Ansammlung hochauflösender (HR) Fernerkundungsdaten und dem Aufkommen neuer Satellitensensoren ist die HR-Beobachtung von städtischen Gebieten zunehmend möglich geworden, was uns detailliertere Stadtinformationen liefert. Die starke Heterogenität im spektralen und räumlichen Bereich von HR-Bildern stellt die städtische Fernerkundung jedoch vor große Herausforderungen. In den letzten Jahren wurden zahlreiche Ansätze vorgeschlagen, um mit der HR-Bildinterpretation über komplexe städtische Szenen umzugehen, einschließlich einer Reihe von Merkmalen von niedriger bis hoher Ebene, sowie modernste Methoden, die nicht nur die städtische Ausdehnung, sondern auch die innerstädtischen Variationen. In diesem Beitrag möchten wir die wichtigsten Fortschritte in der HR-Stadtfernerkundung unter den Aspekten der Merkmalsdarstellung und Informationsextraktion zusammenfassen. Darüber hinaus werden die zukünftigen Trends aus den Perspektiven von Methodik, Stadtstruktur- und Mustercharakterisierung, Big-Data-Herausforderung und Global Mapping diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s11430-019-9547-x ccc920fd278c61e6d38005de462c267f;de;;;7.4.;;;Koreferenzauflösung für französische mündliche Daten: Experimente zum maschinellen Lernen mit ANCOR Wir präsentieren CROC (Coreference Resolution for Oral Corpus), das erste maschinelle Lernsystem zur Koreferenzauflösung in französischer Sprache. Ein spezifischer Aspekt des Systems besteht darin, dass es auf Daten trainiert wurde, die ausschließlich aus transkribierter Sprache stammen, nämlich ANCOR (ANaphora and Coreference in ORal corpus), dem ersten großen französischen Korpus mit anaphorischen Beziehungsanmerkungen. In seinem aktuellen Zustand erfordert das CROC-System vorannotierte Erwähnungen. Wir beschreiben die für die Lernalgorithmen verwendeten Funktionen und präsentieren eine Reihe von Experimenten mit diesen Funktionen. Die Ergebnisse, die wir erhalten, liegen nahe denen moderner Systeme für geschriebenes Englisch.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-75477-2_36 2b4de74a0dda14305e5b55fccaf270fa;de;;;7.4.;;;Machine-Learning-Ansatz zum Abrufen von Gesichtsbildern Face Image Retrieval (FIR) ist für viele Domänenanwendungen nützlich, z. B. um der Polizei zu helfen, Kriminelle zu fassen oder Hausbesitzer zu verwalten. Es wurde jedoch nur wenig Forschung betrieben, die einzelne Gesichtsmerkmale zum Vergleich und Abrufen von Bildern verwendet. Dieses Papier zielt darauf ab, einen maschinellen Lernansatz für das Abrufen von Gesichtsbildern zu entwickeln, der auf den lokalen Gesichtsmerkmalen von Augen, Nase und Mund basiert. Neuronale Netze werden verwendet, um Gesichtsmerkmale zu lokalisieren und eine lernende Pseudometrik (LPM) zu implementieren, um irrelevante Bilder zum effizienten Abrufen basierend auf semantischen Informationen herauszufiltern. Unser FIR-System schneidet bei herkömmlichen Leistungsmessungen unterdurchschnittlich ab, aber die Überprüfung der tatsächlich abgerufenen Bilder ist vielversprechend. Es wurde beobachtet, dass die semantische Filtermethode LPM die Datenbankgröße um bis zu 50 % reduziert, ohne die Abrufleistung signifikant zu reduzieren.;-;-;-;https://link.springer.com/article/10.1007/s00521-011-0665-8 790607ef7695f7ee9ecc013aae5b9b73;de;;;7.4.;;;Maschinelles Lernen zur Erkennung von Dokumentenstrukturen Das Rückgrat des Informationszeitalters sind digitale Informationen, die sofort gesucht, abgerufen und übertragen werden können. Daher ist die Digitalisierung von Papierdokumenten äußerst interessant. Dieses Kapitel beschreibt Ansätze zur Erkennung der Dokumentstruktur, die die Hierarchie physischer Komponenten in Dokumentenbildern wie Seiten, Absätzen und Abbildungen erkennt und diese in eine Hierarchie logischer Komponenten wie Titel, Autoren und Abschnitte umwandelt. Diese strukturellen Informationen verbessern die Lesbarkeit und sind nützlich zum Indizieren und Abrufen von Informationen, die in Dokumenten enthalten sind. Zuerst stellen wir ein regelbasiertes System vor, das das Dokumentbild segmentiert und die logische Rolle dieser Zonen abschätzt. Es wird in großem Umfang für die Verarbeitung von Zeitungssammlungen verwendet, die eine erstklassige Leistung aufweisen. Im zweiten Teil stellen wir verschiedene Ansätze des maschinellen Lernens vor, die eine große Anzahl miteinander verbundener Funktionen untersuchen. Sie können an geometrische Modelle der Dokumentenstruktur angepasst werden, die als lineare Folge oder als allgemeiner Graph aufgebaut sein können. Diese fortschrittlichen Modelle erfordern weitaus mehr Rechenressourcen, zeigen jedoch eine bessere Leistung als einfachere Alternativen und könnten in Zukunft verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22613-7_12 660be4230ece80e50699c3551b216759;de;;;7.4.;;;Quantum Relief-Algorithmus Der Reliefalgorithmus ist ein Merkmalsauswahlalgorithmus, der in der von Kira und Rendell vorgeschlagenen binären Klassifikation verwendet wird, und seine Rechenkomplexität nimmt sowohl mit der Skala der Stichproben als auch der Anzahl der Merkmale bemerkenswert zu. Um die Komplexität zu reduzieren, wird ein auf dem Relief-Algorithmus basierender Quantenmerkmalsauswahlalgorithmus, auch Quanten-Relief-Algorithmus genannt, vorgeschlagen. Im Algorithmus werden alle Merkmale jeder Probe durch die CMP- und Rotationsoperationen von einem bestimmten Quantenzustand überlagert, dann werden der Tauschtest und die Messung auf diesen Zustand angewendet, um die Ähnlichkeit zwischen zwei Proben zu erhalten. Nachdem,;-;-;-;https://link.springer.com/article/10.1007/s11128-018-2048-x fec0cc6a580eea7cc7b9586bdc816ae0;de;;;7.4.;;;Verbesserung oder nicht Verbesserung des Einflusses von Änderungen in Korpora auf die Ergebnisse von Aufgaben des maschinellen Lernens am Beispiel von Datensätzen, die zur Paraphrasenidentifikation verwendet werden In diesem Papier versuchen wir, den Einfluss von Datenqualitätsverbesserungen auf die Ergebnisse von Machine-Learning-Aufgaben zu überprüfen. Wir konzentrieren uns auf die Messung semantischer Ähnlichkeit und verwenden die Datensätze von SemEval 2016. Um konsistente Annotationen zu erreichen, haben wir alle Sätze grammatikalisch und lexikalisch korrekt gemacht und formale semantische Ähnlichkeitskriterien entwickelt. Der in dieser Untersuchung verwendete Ähnlichkeitsdetektor wurde für die SemEval English Semantic Textual Similarity (STS)-Aufgabe entwickelt. Dieses Papier befasst sich mit zwei grundlegenden Fragen: erstens, wie sich jedes Merkmal der ausgewählten Sets auf die Leistung von Software zur Ähnlichkeitserkennung auswirkt, und zweitens, welche Verbesserungstechniken für bereitgestellte Sets am effektivsten sind und welche nicht. Nachdem wir diese Punkte analysiert haben, präsentieren und erklären wir die nicht offensichtlichen Ergebnisse, die wir erhalten haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-77604-0_25 01712402323cd3ca38521a3eb7ddb0bc;de;;;7.4.;;;Schnelle ungefähre A-Box-Konsistenzprüfung mit maschinellem Lernen Das Ontologie-Schlußfolgern ist typischerweise ein rechenintensiver Vorgang. Während in einigen Anwendungsfällen die Richtigkeit und Vollständigkeit der Ergebnisse erforderlich ist, ist für viele andere ein sinnvoller Kompromiss zwischen Rechenaufwand und Korrektheit der Ergebnisse sinnvoller. In diesem Artikel zeigen wir, dass es möglich ist, eine zentrale Aufgabe im Denken anzunähern, d. An vier verschiedenen Datensätzen zeigen wir, dass solche gelernten Modelle bei weniger als 2 % der Laufzeit eines Reasoners konstant eine Genauigkeit von über 95 % erreichen, wobei ein Entscheidungsbaum mit nicht mehr als 20 inneren Knoten verwendet wird. Dies ermöglicht beispielsweise die Validierung von 293 Millionen Mikrodatendokumenten gegen die schema.org-Ontologie in weniger als 90 Minuten, im Vergleich zu 18 Tagen, die ein moderner Ontologie-Begründer benötigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-34129-3_9 234f7953163dceaa033f829c9c4dc234;de;;;7.4.;;;Wissensbasierte Pilotenhilfen: Eine Fallstudie zur Missionsplanung Erfolgreiche Anwendungen der Automatisierung in Kampfflugzeugen sind das Ergebnis des heiklen Gleichgewichts dessen, was und wie viel automatisiert werden soll. Die Problemlösungsfähigkeiten des Piloten können im Echtzeitkontext verbessert werden, indem die Automatisierung so angewendet wird, dass die Anzahl der dem Piloten gegenüberstehenden Aufgaben nicht verringert wird, sondern auf eine Weise, die eine Unterstützung auf Wissensebene bei diesen Aufgaben bietet. Vier Automatisierungsstufen werden vorgeschlagen, um den Piloten bei der Planung und Neuplanung von taktischen Missionen auf niedriger Ebene zu helfen. Die Systeme sollen das Situationsbewusstsein des Piloten verbessern, indem die kognitive Aufmerksamkeit für verschiedene Aufgaben verringert wird, wodurch mehr Aufgaben berücksichtigt werden können. Level eins und zwei Systeme sind bodengestützte Planungssysteme, die die Zeit maximieren, die ein Pilot die Missionsumgebung studieren und Notfallpläne erstellen kann. Level-3- und Level-4-Systeme sind vorgeschlagene Flugzeugsysteme, die einige der kognitiven Verarbeitungsaufgaben auf wissensbasierter Ebene abladen können, die nun wahrscheinlich zur Aufgabensättigung oder kanalisierten Aufmerksamkeit beitragen.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0006962 b72ceb53113efebfa887aaa256a83dae;de;;;7.4.;;;Paraphrasenidentifikation auf Basis überwachter maschineller Lerntechniken Dieses Papier stellt einen maschinellen Lernansatz zur Paraphrasenidentifikation vor, der lexikalische und semantische Ähnlichkeitsinformationen verwendet. In den experimentellen Studien untersuchen wir die Grenzen der entworfenen Attribute und das Verhalten von drei Machine-Learning-Klassifikatoren. Mit dem Ziel, die Endleistung des Systems zu steigern, untersuchen wir den Einfluss der Kombination von lexikalischen und semantischen Informationen sowie Techniken zur Klassifikatorkombination.;-;-;-;https://link.springer.com/chapter/10.1007/11816508_52 59e89a19d0c16ac43023ae92994708f0;de;;;7.4.;;;Automatische Klassifizierung chinesischer Urteilsdokumente mit maschinellen Lernalgorithmen Im Gesetz ist ein Urteil eine Entscheidung eines Gerichts, die eine Kontroverse beilegt und die Rechte und Pflichten der Parteien in einem Rechtsstreit oder Verfahren festlegt. Im Jahr 2013 wurde das China Judgments Online-System offiziell für die Führung von Aufzeichnungen und Benachrichtigungen eingeführt. Bis heute sind über 23 Millionen elektronische Urteilsdokumente erfasst. Die riesige Menge an Urteilsdokumenten hat die Verbesserung der Justiz und der Offenheit bezeugt. Die Kategorisierung von Dokumenten wird für die Indexierung von Urteilen und die weitere Analyse immer wichtiger. Aufgrund ihres großen Volumens und ihres schnellen Wachstums ist eine manuelle Kategorisierung jedoch fast unmöglich. In diesem Papier schlagen wir einen maschinellen Lernansatz vor, um chinesische Urteilsdokumente mithilfe von maschinellen Lernalgorithmen wie Naive Bayes (NB), Decision Tree (DT), Random Forest (RF) und Support Vector Machine (SVM) automatisch zu klassifizieren. Ein Beurteilungsdokument wird als Vektorraummodell (VSM) unter Verwendung von TF-IDF nach Wortsegmentierung dargestellt. Um die Leistung zu verbessern, konstruieren wir eine Reihe von juristischen Stoppwörtern. Da TF-IDF zudem einen hochdimensionalen Merkmalsvektor erzeugt, was zu einer extrem hohen Zeitkomplexität führt, verwenden wir dreidimensionale Reduktionsverfahren. Basierend auf 6735 Urteilsdokumenten demonstrieren umfangreiche Experimente die Wirksamkeit und hohe Klassifikationsleistung unserer vorgeschlagenen Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-55705-2_1 2efc9d5cae27e7123bfa40423704da53;de;;;7.4.;;;Numerische Attribute in Entscheidungsbäumen: ein hierarchischer Ansatz Entscheidungsbäume sind wahrscheinlich das beliebteste und am häufigsten verwendete Klassifizierungsmodell. Sie werden nach einem Top-Down-Ansatz (von allgemeinen Konzepten bis hin zu bestimmten Beispielen) rekursiv durch wiederholte Aufteilungen des Trainingsdatensatzes erstellt. Wenn dieser Datensatz numerische Attribute enthält, werden binäre Splits normalerweise durchgeführt, indem der Schwellenwert gewählt wird, der das als Splittingkriterium verwendete Verunreinigungsmaß minimiert (z. In diesem Papier schlagen wir die Verwendung von Mehrwege-Splits für kontinuierliche Attribute vor, um die Baumkomplexität zu reduzieren, ohne die Klassifikationsgenauigkeit zu verringern. Dies kann durch Verflechten eines hierarchischen Clustering-Algorithmus mit dem üblichen gierigen Entscheidungsbaumlernen erfolgen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45231-7_19 dc27a51cb4bdfa7308adf5a137df1f4e;de;;;7.4.;;;Vorhersage des explosionsinduzierten Luftüberdrucks im Tagebau: Bewertung verschiedener Techniken der künstlichen Intelligenz Luftüberdruck (AOp) ist eines der Produkte von Sprengarbeiten zur Gesteinszertrümmerung im Tagebau. Es kann strukturelle Vibrationen verursachen, Glastüren einschlagen, die Umgebung beeinträchtigen und sogar tödlich für den Menschen sein. Um ihre gefährlichen Auswirkungen zu bewerten, wurden in dieser Studie sieben Methoden der künstlichen Intelligenz (KI) zur Vorhersage spezifischer blasteninduzierter AOp angewendet und verglichen. Zu den sieben Methoden gehören Random Forest, Support Vector Regression, Gauß'scher Prozess, Bayes'sche additive Regressionsbäume, Boosted Regression Trees,;-;-;-;https://link.springer.com/article/10.1007/s11053-019-09461-0 6d0bd30157efaeb357da385854593106;de;;;7.4.;;;Gestapelte Faltungs-Auto-Encoder für die hierarchische Merkmalsextraktion Wir präsentieren einen neuartigen Convolutional Auto-Encoder (CAE) für unüberwachtes Feature-Lernen. Ein Stapel von CAEs bildet ein Convolutional Neural Network (CNN). Jedes CAE wird unter Verwendung eines herkömmlichen Online-Gradientenabstiegs ohne zusätzliche Regularisierungsterme trainiert. Eine Max-Pooling-Schicht ist unerlässlich, um biologisch plausible Merkmale zu lernen, die mit denen übereinstimmen, die bei früheren Ansätzen gefunden wurden. Die Initialisierung eines CNN mit Filtern eines trainierten CAE-Stacks ergibt eine überlegene Leistung bei einem Digit- (MNIST) und einem Objekterkennungs- (CIFAR10)-Benchmark.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21735-7_7 e810a681d513062aa7c450063f2e5bdf;de;;;7.4.;;;Extraktion benannter Entitäten aus halbstrukturierten Daten mit maschinellen Lernalgorithmen Die moderne Gesellschaft hat erlebt, dass in den letzten Jahrzehnten eine intensive Entwicklung von Internet-Technologien zu einer Informationsexplosion geführt hat. Diese Explosion hatte sich durch ein exponentielles Wachstum des Datenvolumens bei den minderwertigen Informationen ausgedrückt. Dieses Papier wurde entwickelt, um detaillierte Informationen über einige intellektuelle Werkzeuge bereitzustellen, die die Entscheidungsfindung durch automatische Wissensextraktion unterstützen. Im ersten Teil der Arbeit betrachteten wir eine Vorverarbeitung, die die morphologische Analyse von Texten beinhaltet. Dann hatten wir das Modell von Textdokumenten in Form eines Hypergraphen und die Implementierung der Random-Walk-Methode betrachtet, um semantisch nahe Wortpaare zu extrahieren, also Paare, die oft zusammen auftreten. Das Ergebnis der Berechnungen ist eine Matrix mit Wortaffinitätskoeffizienten, die jeder anderen Komponente des Vokabularvektors entsprechen. Im zweiten Teil beschreiben wir das Training neuronaler Netze zur Extraktion linguistischer Konstruktionen. Diese umfassen mögliche Werte von Text namens Entity-Deskriptoren. Das neuronale Netz ermöglicht es, Informationen über einen vorausgewählten Deskriptor, beispielsweise den Standort, in Form des Endergebnisses des Namens von geografischen Objekten abzurufen. In einem allgemeinen Fall kann das neuronale Netz gleichzeitig Informationen über mehrere Deskriptoren abrufen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-28374-2_6 80948cfa53f84afe19c74cbfa6bfbf5a;de;;;7.4.;;;Methode zur Erkennung von Netzwerkangriffen basierend auf einem Convolutional Neural Network Die existierenden traditionellen Algorithmen zur Erkennung von Netzwerkangriffen haben eine geringe Erkennungsgenauigkeit und sind mit externen bösartigen und willkürlichen Netzwerkangriffen in den Kommunikations- und Kontrollsystemen schwer zu bewältigen. Um dieses Problem zu lösen, entwirft dieser Artikel ein Verfahren zur Erkennung von Netzwerkangriffen auf der Grundlage der Convolutional Neural Network Technologie, das die Erkennungsgenauigkeit der Angriffserkennung für Netzwerkangriffssignale verbessert. Insbesondere wird eine neuronale Faltungsnetzwerkstruktur mit überlappenden Pooling-Schichten entworfen, und das verbesserte Datenvorverarbeitungsverfahren und die Parameterabstimmung verbessern die Erkennungsgenauigkeit des erhaltenen Faltungsnetzwerks auf dem KDD99-Datensatz erheblich. Schließlich zeigen die experimentellen Ergebnisse, dass die vorgeschlagene Netzwerk-Tuning-Strategie effektiv ist und die in diesem Papier entworfene neuronale Netzwerkstruktur anderen bestehenden intelligenten Erkennungsalgorithmen in Bezug auf die Erkennungsgenauigkeit überlegen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9686-2_68 d8831180be6a1a1ccc70e81d8afed12e;de;;;7.4.;;;Verarbeitung natürlicher Sprache mit rekurrenten neuronalen Netzen Im modernen Zeitalter der Information und Analyse, Verarbeitung natürlicher Sprache (NLP) ist eine der wichtigsten Technologien da draußen. Sinnvoll von komplexen Strukturen in der Sprache und Ableiten Einsichten und Handlungen daraus ist entscheidend von einer künstlichen Intelligenz Perspektive. In mehreren Bereichen, ist die Bedeutung der Verarbeitung natürlicher Sprache von größter Bedeutung und immer größer werdenden, als digitale Information in Form von Sprache ist allgegenwärtig. Anwendungen der Verarbeitung natürlicher Sprache gehören Sprachübersetzung, Sentiment-Analyse, Web-Suchanwendungen, Kundendienst-Automatisierung, Textklassifikation, Thema Erkennung von Text, Sprache Modellierung und so weiter. Traditionelle Methoden der Verarbeitung natürlicher Sprache auf der Tasche von Wortmodellen verlassen, der Vektorraum des Wortmodelles und auf der Hand codierte Wissensbasen und Ontologien. Einer der Schlüsselbereiche für die Verarbeitung natürlicher Sprache ist die syntaktische und semantische Analyse der Sprache. Syntaktische Analyse bezieht sich auf die Worte werden gruppiert und in einem Satz verbunden. Die Hauptaufgaben in syntaktischer Analyse werden Teile der Sprache Tagging, syntaktische Klassen (wie Verben, Substantive, Nominalphrasen, etc.) zu erfassen, und Sätze Montag von Syntaxbäumen zu konstruieren. Semantiken Analyse bezieht sich auf komplexe Aufgaben wie Synonyme zu finden, darstellende Wort-Verb Disambiguierung, und so weiter.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-3096-1_4 42e19c45a794c507aad621ebbfba7638;de;;;7.4.;;;evolutionäres Design von Code-Matrizen für Mehrklassenprobleme Mehrere echte Probleme betreffen die Klassifizierung von Daten in Kategorien oder Klassen. Bei einem Datensatz, der Daten enthält, deren Klassen bekannt sind, können Algorithmen des maschinellen Lernens verwendet werden, um einen Klassifikator zu induzieren, der die Klasse neuer Daten aus derselben Domäne vorhersagen kann und die gewünschte Unterscheidung durchführt. Mehrere Techniken des maschinellen Lernens sind ursprünglich für die Lösung von Problemen mit nur zwei Klassen konzipiert. In Mehrklassenanwendungen wird häufig als Alternative verwendet, das ursprüngliche Problem in binäre Teilaufgaben aufzuteilen, deren Ergebnisse dann kombiniert werden. Die Zerlegung kann allgemein durch eine Codematrix dargestellt werden, wobei jede Zeile einem einer Klasse zugewiesenen Codewort entspricht und die Spalten die verwendeten binären Klassifizierer darstellen. Dieses Kapitel bietet einen Überblick über Techniken zum Code-Matrix-Design für Mehrklassenprobleme. Es zeigt auch, wie evolutionäre Techniken verwendet werden können, um dieses Problem zu lösen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-69935-6_7 f15ec024ed48087d326fd8b45d26a2b9;de;;;7.4.;;;Wie man Data Mining ausnutzt, ohne sich dessen bewusst zu sein Data Mining hat sich als wertvolles Werkzeug zum Auffinden nicht offensichtlicher Informationen aus einer großen Datensammlung erwiesen, ist jedoch in der Geschäftswelt nicht so weit verbreitet, wie es sein könnte. Häufige Gründe sind die folgenden: (1) Data-Mining-Prozesse erfordern eine uneingeschränkte Rationalität, (2) potenzielle Endbenutzer sind möglicherweise nicht verfügbar, um Entwickler darüber zu informieren, welche Probleme sie interessieren oder welche Anforderungen sie haben könnten, (3) hohe Kosten der Einsatz von Dating-Mining-Experten, (4) das tatsächliche Ergebnis des Data Mining kann irrelevant sein oder einfach nicht verwendet werden Der Beitrag stellt eine Methodik und ein System vor, um den Einsatz von Data Mining in Geschäftskontexten mit folgendem Ansatz zu erleichtern: Viele Modelle werden automatisch generiert und in einer Datenbank gespeichert, wenn die Endbenutzer einige Merkmale des gesuchten Modells angeben, a Suchmaschine ruft dann alle relevanten Modelle ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-2148-2_24 cce7c5dee6aee1609c0cf603b6bdc498;de;;;7.4.;;;Data Mining Kulturelle Aspekte des Social Media Marketings oder Marketing, um in einer globalisierten Welt zu funktionieren, muss es eine Vielfalt lokaler Kulturen respektieren. Mit Marketingbemühungen, die sich auf Social-Media-Plattformen erstrecken, können kulturelle Grenzen im Handumdrehen überschritten werden. In diesem Beitrag untersuchen wir, wie die Kultur die Popularität von Marketingbotschaften auf Social-Media-Plattformen beeinflusst. Text-Mining, automatisierte Übersetzung und Sentiment-Analyse tragen maßgeblich zu unserer Forschung bei. Aus unserer Analyse von 400 Posts auf den lokalisierten Google+ Seiten deutscher Automarken in Deutschland und den USA kommen wir zu dem Schluss, dass Posting-Zeit und Emotionen wichtige Prädiktoren für die Anzahl der erneuten Freigaben sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08976-8_10 1c831b9db25c9279ff222342098815c2;de;;;7.4.;;;Eine Untersuchung zur Fähigkeit von vortrainierten Convolutional Neural Networks, die auf ImageNet trainiert wurden, Melanombilder ohne erneutes Training zu klassifizieren Deep Learning, insbesondere mit auf Convolutional Neural Networks basierenden Implementierungen für die medizinische Diagnostik unter Verwendung von Bildern, wird weithin für die Unterstützung von Ärzten gelobt. Die medizinische Bildverarbeitung dient Ärzten als Zweitmeinung insbesondere bei Erkrankungen wie dem Melerom. Mehrere Deep-Learning-Paradigmen haben ihre Fähigkeit und Vorteile für Praktikanten bewiesen, die für die medizinische Bildverarbeitung entscheidende Einarbeitungszeit zu verkürzen. Die Verwendung einer vortrainierten Deep-Learning-Architektur ist immer von Vorteil und eine dieser erfolgreichen und weit verbreiteten CNN-basierten Deep-Learning-Architekturen ist ResNet50.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5232-8_46 f8560f10508b2b039df46aa4d4ad387c;de;;;7.4.;;;Datenschutzschonendes Data Mining Trotz enormer Vorteile und der extrem schnellen Verbreitung von Data Mining in den letzten Jahren haben Datenbesitzer und Forscher gleichermaßen anerkannt, dass Data Mining auch altes wiederbelebt und neue Bedrohungen für die Privatsphäre des Einzelnen darstellt. Viele glauben, dass Data Mining eine der größten Herausforderungen für den Datenschutz in den kommenden Jahren ist und bleiben wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69861-6_11 94a1ae1cab5041b2bc452954f3ca2559;de;;;7.4.;;;Verwenden von XCS zur Beschreibung kontinuierlich bewerteter Problemräume Es wurde zuvor gezeigt, dass lernende Klassifikatorsysteme eine gewisse Anwendung bei Einzelschrittaufgaben haben. Dieses Papier erweitert die Arbeit auf diesem Gebiet, indem es das Klassifikatorsystem auf zunehmend komplexere multimodale Testumgebungen mit jeweils typischen Suchraumeigenschaften, konvexen/nicht-konvexen Regionen mit hoher Leistung und einem komplexen Zusammenspiel zwischen Variablen ausweitet. Insbesondere werden zwei Testumgebungen verwendet, um die Auswirkungen unterschiedlicher Grade von Merkmalsabtastung, Parameterempfindlichkeit, Trainingssatzgröße und Regelsubsumtion zu untersuchen. Die Ergebnisse zeigen, dass XCSR in der Lage ist, die Eigenschaften solcher Problemräume mit einer angemessenen Genauigkeit abzuleiten. Dieses Papier bietet eine Grundlage für die mögliche Verwendung von XCS als exploratives Werkzeug, das Informationen aus konzeptionellen Entwurfsräumen liefern kann, die es einem Konstrukteur ermöglichen, die beste Richtung für weitere Untersuchungen sowie eine bessere Darstellung seines Entwurfsproblems durch Neudefinition und Neuformulierung der Gestaltungsraum.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71231-2_21 66de8a537dab66cf06e2b962443a9cf3;de;;;7.4.;;;Zur Effektivität des verteilten Lernens bei unterschiedlichen Klassen-Wahrscheinlichkeits-Verteilungen von Daten Das unbändige Datenwachstum in vielen Bereichen, in denen maschinelles Lernen angewendet werden könnte, hat ein neues Feld namens Large-Scale-Learning hervorgebracht, das die Entwicklung effizienter und skalierbarer Algorithmen in Bezug auf die Anforderungen an Rechenleistung, Speicher, Zeit und Kommunikation beabsichtigt. Eine vielversprechende Forschungsrichtung für groß angelegtes Lernen ist das verteilte Lernen. Es beinhaltet das Lernen aus Daten, die an verschiedenen Orten gespeichert sind, und schließlich die Auswahl und Kombination der „lokalen“ Klassifikatoren, um eine eindeutige globale Antwort mit einem von drei Hauptansätzen zu erhalten. Dieses Papier befasst sich mit einem wichtigen Problem, das auftritt, wenn verteilte Daten aus mehreren Quellen eingehen, von denen jede eine andere Verteilung hat. Die Klassen-Wahrscheinlichkeitsverteilung von Daten (CPDD) wird definiert und ihr Einfluss auf die Leistung der drei Kombinationsansätze wird analysiert. Die Ergebnisse zeigen die Notwendigkeit, das CPDD zu berücksichtigen, und kommen zu dem Schluss, dass die Kombination nur verwandten Wissens die am besten geeignete Weise für verteiltes Lernen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25274-7_12 4e059e33b69f2a3d3f4f573b013c330c;de;;;7.4.;;;Dynamisches Klassifikator-Ensemble für positive Klassifizierung von unbeschrifteten Textströmen Die meisten Studien zur Klassifizierung von Streaming-Daten basieren auf der Annahme, dass Daten vollständig gekennzeichnet werden können. In realen Anwendungen ist es jedoch unpraktisch und zeitaufwändig, den gesamten Stream für das Training manuell zu kennzeichnen. Es ist sehr üblich, dass in Datenstromumgebungen nur ein kleiner Teil positiver Daten und eine große Menge nicht gekennzeichneter Daten verfügbar sind. In diesem Fall kann es sein, dass die Anwendung der herkömmlichen Streaming-Algorithmen mit einfacher Anpassung an einen positiven, nicht gekennzeichneten Stream nicht gut funktioniert oder zu einer schlechten Leistung führt. In diesem Papier schlagen wir eine Dynamic Classifier Ensemble-Methode für Klassifikationsszenarien mit positivem und nicht gekennzeichnetem Textstream (DCEPU) vor. Wir adressieren das Problem der Klassifizierung von positiven und unbeschrifteten Textströmen mit verschiedenen Konzeptabweichungen, indem wir einen geeigneten Validierungssatz konstruieren und ein neues dynamisches Gewichtungsschema in der Klassifizierungsphase entwerfen. Experimentelle Ergebnisse zum Benchmark-Datensatz RCV1-v2 zeigen, dass die vorgeschlagene Methode DCEPU die bestehende LELC übertrifft (Li et al.;-;-;-;https://link.springer.com/article/10.1007/s10115-011-0469-2 a66f980f7bef052ff5d981bb05b17b79;de;;;7.4.;;;Eine optimierte Formulierung des Entscheidungsbaum-Klassifikators Ein effektiver Eingabedatensatz, eine gültige Fähigkeit zur Mustererkennung und eine gute Bewertung der entdeckten Muster sind erforderlich, um zuvor unbekanntes Wissen aus einem großen Datensatz zu analysieren, vorherzusagen und zu entdecken. Die Kriterien Signifikanz, Neuheit und Nützlichkeit müssen erfüllt sein, um die Leistung der Vorhersage und Klassifizierung von Daten zu bewerten. Glücklicherweise extrahiert Data Mining, ein wichtiger Schritt in diesem Prozess der Wissensentdeckung, versteckte und nicht triviale Informationen aus Rohdaten durch nützliche Methoden wie die Klassifizierung von Entscheidungsbäumen. Aufgrund der enormen Größe, Hochdimensionalität und Heterogenität der Datensätze schneiden die traditionellen Algorithmen zur Klassifikation von Entscheidungsbäumen jedoch manchmal nicht gut in Bezug auf die Rechenzeit ab. Dieses Papier schlägt einen Rahmen vor, der eine parallele Strategie verwendet, um die Leistung der Entscheidungsbauminduktion und Kreuzvalidierung zu optimieren, um Daten zu klassifizieren. Darüber hinaus ist eine vorhandene Beschneidungsmethode in unser Framework integriert, um das Problem der Überanpassung zu überwinden und die Generalisierungsfähigkeit zu verbessern sowie die Kosten und die strukturelle Komplexität zu reduzieren. Experimente mit zehn Benchmark-Datensätzen deuten auf eine signifikante Verbesserung der Rechenzeit und eine bessere Klassifikationsgenauigkeit durch die Optimierung des Klassifikationsrahmens hin.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36321-4_10 ea00955cb64caff03fab6756ae7d474d;de;;;7.4.;;;Produktionsanlagen-Layout unterstützt mit Data-Mining-Techniken Die Frage des Anlagenlayouts ist zentral in einem Fertigungsprozess. Diese Frage wird in einem Mass Customization Kontext noch wichtiger, wenn eine große Produktvielfalt gemanagt werden muss. Der Herstellungsprozess und insbesondere das Anlagenlayout muss unter Berücksichtigung dieser Eigenschaft gestaltet werden. Wenn alle Produkte ähnlich sind, sind die Layouts der Fertigungsanlagen relativ einfach zu entwerfen, Schwierigkeiten treten auf, wenn alle Produkte unterschiedlich sind und spezielle Fertigungsvorgänge erfordern.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-6761-7_25 6bd9685ae3c3e31f997f0faa269c4e7c;de;;;7.4.;;;Interaktives Data Mining basierend auf einer PC-Cluster-Umgebung Um ein hochperformantes und hocheffektives Data Mining zu realisieren, ist nicht nur eine parallele und verteilte Umgebung, sondern auch eine interaktive und dynamische visuelle Data Mining-Unterstützung notwendig. In diesem Kapitel wird ein Schema eines interaktiven Data-Mining-Unterstützungssystems in einer hochleistungsfähigen parallelen und verteilten Computerumgebung vorgeschlagen. Die Gesamtarchitektur und der Mechanismus des Systems werden beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-28967-4_16 75b883c051adfb5b1f3e32178dcd76e9;de;;;7.4.;;;Human Performance Operating Picture zum Hüten eines Schwarms autonomer Fahrzeuge Aufgrund vieler Faktoren, die von ethischen Überlegungen und Rechenschaftspflicht bis hin zu technologischen Unvollkommenheiten in autonomen Systemen reichen, wird der Mensch weiterhin ein integraler Bestandteil jedes sinnvollen autonomen Systems sein. Obwohl die Schäferei ein technologisches Konzept bietet, das es einem Menschen ermöglicht, eine deutlich größere Anzahl autonomer Systeme zu bedienen, als ein Mensch in der heutigen Umgebung handhaben kann, ist es wichtig zu wissen, dass heute ein erheblicher Teil der Unfälle auf menschliches Versagen zurückzuführen ist. Das Skalierbarkeitsversprechen, das Shepherding bietet, bringt mögliche Herausforderungen mit sich, darunter solche, die sich aus der kognitiven Belastung der menschlichen Bediener und der Notwendigkeit ergeben, den Menschen als biologisch autonomes System reibungslos in das breitere autonome Multi-Agenten-System zukünftiger Betriebsumgebungen zu integrieren. In diesem Kapitel fassen wir die Dimensionen dieses komplexen Problems zusammen. Wir stellen sorgfältig ausgewählte Faktoren zur Abdeckung der menschlichen Leistungsfähigkeit vor, insbesondere bei kognitiv anspruchsvollen Aufgaben und Situationsbewusstsein, und wie diese Faktoren zum Vertrauen in das System beitragen. Anschließend präsentieren wir das Human Factors Operating Picture (H-FOP), das ein Echtzeit-Situationsbild der menschlichen Leistung in dieser komplexen Umgebung bietet. Wir schließen mit dem Konzept der Operation zur Integration von H-FOP mit dem Teaming-Problem Mensch-Schwarm, mit einem Fokus auf die Abhängigkeit von der Hirtenhaltung als Schwarmführungs- und Kontrollmethode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-60898-9_13 0ba54b6315007dc3c97ee26e918a8d20;de;;;7.4.;;;Regelbewertungsmaßnahmen: Eine vereinheitlichende Sicht Zur Leistungsbewertung im maschinellen Lernen werden zahlreiche Maßnahmen verwendet. Bei der prädiktiven Wissensermittlung ist die Klassifizierungsgenauigkeit das am häufigsten verwendete Maß. Mit neuen Aufgaben in der Wissensentdeckung treten neue Maßnahmen auf. Bei der deskriptiven Wissensentdeckung, bei der induzierte Regeln nicht primär für die Klassifikation bestimmt sind, werden als neue Messgrößen Neuheit bei der Klausel- und Untergruppenentdeckung sowie Unterstützung und Vertrauen beim Lernen von Assoziationsregeln verwendet. Zusätzliche Maßnahmen sind erforderlich, da viele deskriptive Wissensentdeckungsaufgaben die Einführung einer großen Menge redundanter Regeln beinhalten und das Problem die Rangfolge und Filterung der induzierten Regelmenge ist. In diesem Papier entwickeln wir eine vereinheitlichende Sichtweise auf einige der bestehenden Maßnahmen zur prädiktiven und deskriptiven Induktion. Wir sorgen für eine gemeinsame Terminologie und Notation mittels Kontingenztabellen. Wir zeigen, wie man diese Maßnahmen abwägen kann, indem wir das verwenden, was wir nennen;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48751-4_17 668cd03c9d478043ad3b43a27932e112;de;;;7.4.;;;MCRN: Ein neues inhaltsbasiertes Musikklassifizierungs- und Empfehlungsnetzwerk Musikklassifizierung und -empfehlung haben in den letzten Jahren breite Aufmerksamkeit erfahren. Allerdings sind inhaltsbasierte Klassifikationsansätze für Deep Music noch immer sehr selten. Unterdessen verlassen sich existierende Musikempfehlungssysteme im Allgemeinen auf kollaboratives Filtern. Leider hat diese Methode ein ernsthaftes Kaltstartproblem. In diesem Artikel schlagen wir ein einfaches, aber effektives neuronales Faltungsnetzwerk namens MCRN (kurz für Musikklassifizierungs- und Empfehlungsnetzwerk) vor, um die Audioinhaltsmerkmale von Musik zu erlernen und Musikklassifizierung und -empfehlung zu erleichtern. Konkret wird, um die Inhaltsmerkmale von Musik zu extrahieren, das Audio durch Fourier-Transformation in „Spektrogramme“ umgewandelt. MCRN kann effektiv Musikinhaltsmerkmale aus den Spektrogrammen extrahieren. Experimentelle Ergebnisse zeigen, dass MCRN andere verglichene Modelle zu Musikklassifizierungs- und Empfehlungsaufgaben übertrifft, was seine Überlegenheit gegenüber früheren Ansätzen zeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63820-7_88 74df96bc2d8de262470f0ff351622cf5;de;;;7.4.;;;Eine kontextsensitive Berechnungsmethode der Satzähnlichkeit basierend auf Frame-Semantik Satzähnlichkeitsberechnung ist eine typische Technologie, die in der Verarbeitung natürlicher Sprache verwendet wird und darauf abzielt, wertvolle Informationen aus Dokumenten zu finden. Durch die Adaption fortschrittlicher Technologien wie Machine Learning und Deep Learning beschäftigen sich aktuelle Methoden des Satzähnlichkeitsrechnens hauptsächlich mit Schlüsselwörtern und Satzstrukturen. Der Hauptnachteil aktueller Methoden besteht darin, den Einfluss des Satzkontextes nicht zu berücksichtigen. In diesem Artikel schlagen wir eine auf FrameNet basierende Berechnungsmethode auf der Grundlage der Frame-Semantik-Theorie vor. Durch quantitatives Analysieren der semantischen Beziehungen zwischen Frames kann die Satzähnlichkeit basierend auf den Frames berechnet werden, die durch die Sätze hervorgerufen werden. Wir führen auch Experimente durch, um die Leistungsfähigkeit dieser Methode mit Hilfe eines von uns entwickelten prototypischen Softwaretools zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-65390-3_9 dc25ca2b36315c142fac7eb4e6b3513c;de;;;7.4.;;;Integration der Wavelet-Zeitverschiebungseigenschaften mit Support Vector Machines Dieses Papier präsentiert eine kurze Bewertung der Integration von Informationen, die aus nicht-linear-zeitinvarianten (non-LTI) Wavelet-Projektionseigenschaften mit Hilfe von Support Vector Machines (SVM) abgeleitet wurden. Diese Eigenschaften können einem Klassifikator, der versucht, durch Rauschen verborgene bekannte Muster zu erkennen, zusätzliche Informationen liefern. In den Experimenten präsentieren wir ein einfaches Schema zur Erkennung elektromagnetischer gepulster Signale, bei dem einige Verbesserungen gegenüber früheren Arbeiten erzielt wurden. SVMs werden als Werkzeug für die Informationsintegration verwendet und nutzen einige einzigartige Eigenschaften, die in neuronalen Netzen nicht leicht zu finden sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27774-3_6 8e82132314fd45ae4c2408137d619125;de;;;7.4.;;;Ein Schema eines interaktiven Data-Mining-Unterstützungssystems in einer parallelen und verteilten Umgebung In diesem Papier wird ein Schema eines interaktiven Data-Mining-Unterstützungssystems in einer Hochleistungsumgebung für parallele und verteilte Computer vorgeschlagen. Die Gesamtarchitektur und der Mechanismus des Systems werden beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-37619-4_27 b5e08f3b1f75c8b292ae4af2329160f6;de;;;7.4.;;;Ein empirischer Vergleich zwischen K-Means, GAs und EDAs beim Partitional Clustering In diesem Kapitel vergleichen wir empirisch die Leistung von drei verschiedenen Ansätzen für das partitionsbasierte Clustering. Dies sind iterative Hillclimbing-Algorithmen, genetische Algorithmen und Verteilungsalgorithmen. Der Schwerpunkt liegt auf ihrer Fähigkeit, lokale Maxima zu vermeiden und auch auf der Einfachheit, gute Parameter für sie einzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-1539-5_17 ef7b1c95cee573fc5317b9117afcdaa7;de;;;7.4.;;;Die Kunst der Künstlichen Intelligenz Um besser zwischen historischen Präzedenzfällen und rationalen Argumenten unterscheiden zu können, gibt dieses erste Kapitel einen Überblick über einige der intellektuellen Fragen der KI. Diese Probleme haben die KI in eine Reihe von Fraktionen gespalten, die um öffentliche Aufmerksamkeit und letztendlich um Forschungsförderung konkurrieren. Die Fraktionen werden hier in Analogie zu den Bewegungen der bildenden Kunst dargestellt. Dies ist eine Ausarbeitung einer Idee von Jackson [1986] und Maslov [1987]. Der Titel des Kapitels stammt von Feigenbaum [1977].;-;-;-;https://link.springer.com/chapter/10.1007/3-540-47938-4_1 9f1b6bdb96e6c9d02f2c4a3c9d17ce93;de;;;7.4.;;;Eine Meta-Learning-Methode zur Auswahl der Kernelbreite in der Support-Vektor-Regression Der Algorithmus der Support Vector Machine reagiert empfindlich auf die Wahl der Parametereinstellungen. Wenn diese nicht richtig eingestellt sind, weist der Algorithmus möglicherweise eine minderwertige Leistung auf. Eine gute Einstellung vorzuschlagen ist daher ein wichtiges Problem. Zu diesem Zweck schlagen wir eine Meta-Learning-Methodik vor und nutzen Informationen über die vergangene Leistung verschiedener Einstellungen. Die Methodik wird angewendet, um die Breite des Gaußschen Kernels einzustellen. Wir führen eine umfangreiche empirische Auswertung durch, einschließlich Vergleichen mit anderen Methoden (festes Default-Ranking, Selektion auf Basis von Kreuzvalidierung und ein gebräuchliches heuristisches Verfahren zur Einstellung der Breite des SVM-Kernels). Wir zeigen, dass unsere Methodik Einstellungen mit geringem Fehler auswählen kann und gleichzeitig erhebliche Zeiteinsparungen bietet. Weitere Arbeiten sollten durchgeführt werden, um zu sehen, wie die Methodik an verschiedene Aufgaben der Parametereinstellung angepasst werden könnte.;-;-;-;https://link.springer.com/article/10.1023/B%3AMACH.0000015879.28004.9b 7c4f4663018abbd03f317a089c4aee69;de;;;7.4.;;;Auffinden funktional organisierter Point-of-Interest-Gruppen für die Empfehlung von räumlichen Keywords Ein Point of Interest (POI) ist ein bestimmter Punkt, der für jemanden nützlich sein könnte. Mit der Entwicklung der Stadtmodernisierung entstehen in der Stadt eine Vielzahl von funktional organisierten POI-Gruppen (FOPGs), wie Einkaufszentren, Elektronik-Malls und Imbissstraßen. Sie haben einen großen Einfluss auf das Leben der Menschen. Unser Ziel ist es, funktional organisierte POI-Gruppen für die räumliche Keyword-Empfehlung zu entdecken, da die FOPG-basierte Empfehlung der POI-basierten Empfehlung in Bezug auf Effizienz und Flexibilität überlegen ist. Um FOPGs zu entdecken, entwerfen wir Clustering-Algorithmen, um organisierte POI-Gruppen (OPGs) zu erhalten und verwenden das OPGs-LDA-Modell (Latent Dirichlet Allocation), um Funktionen von OPGs für weitere Empfehlungen aufzudecken. Nach unserem besten Wissen sind wir die ersten, die funktional organisierte POI-Gruppen untersuchen, die wichtige Anwendungen in der Stadtplanung und im sozialen Marketing haben.;-;-;-;https://link.springer.com/article/10.1007/s11390-018-1850-3 d5a8c0c23dbc73272b736cbb9bf90c67;de;;;7.4.;;;MLP4NIDS: Eine effiziente MLP-basierte Erkennung von Netzwerkangriffen für den CICIDS2017-Datensatz Immer mehr eingebettete Geräte werden mit dem Internet verbunden und sind daher potenzielle Opfer von Eindringlingen. Während sich maschinelle Lernalgorithmen als robuste Techniken erwiesen haben, wird dies hauptsächlich mit traditioneller Verarbeitung erreicht, wobei neuronale Netze schlechtere Ergebnisse liefern. In diesem Papier schlagen wir die Verwendung eines mehrschichtigen neuronalen Perzeptron-Netzwerks zur Erkennung von Eindringlingen vor und geben eine detaillierte Beschreibung unserer Methodik. Wir beschreiben alle Schritte, um eine bessere Leistung als mit herkömmlichen maschinellen Lerntechniken zu erzielen, mit einer Erkennungsgenauigkeit von Eindringlingen von über 99 % und einer niedrigen Fehlalarmrate von unter 0,7 %. Ergebnisse früherer Arbeiten werden analysiert und mit den Leistungen der vorgeschlagenen Lösung verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-45778-5_16 6e359ebb808a0da78247d59680cac414;de;;;7.4.;;;Informationsextraktion zur Standardisierung von Tourismusprodukten Tourismusproduktbeschreibungen werden stark auf natürlichsprachlichen Ausdrücken unterstützt. Die geeignete Angebotsauswahl je nach touristischen Bedürfnissen hängt stark davon ab, wie diese kommuniziert werden. Da bei der Online-Präsentation von touristischen Produkten keine menschliche Interaktion möglich ist, ist die Art und Weise, wie diese präsentiert werden, auch bei rein textuellen Informationen ein wesentlicher Erfolgsfaktor für touristische Websites, um einen Kauf zu erzielen. Aufgrund der Vielzahl an touristischen Angeboten und der hohen Dynamik in dieser Branche ist manuelles Datenmanagement keine zuverlässige oder skalierbare Lösung. Dieser Beitrag stellt einen Prototyp vor, der für die automatische Extraktion von relevantem Wissen aus tourismusbezogenen natürlichsprachlichen Texten entwickelt wurde. Erfasstes Wissen wird in einem normalisierten Format dargestellt und neue textliche Beschreibungen werden entsprechend den verfügbaren Marketingkanälen erstellt. In dieser Phase konzentriert sich der Prototyp auf Hotelbeschreibungen und verwendet bereits reale Betriebsdaten, die von der Tourismusplattform KEY for Travel abgerufen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25274-7_46 f8c2205e20f4f9afa1ed6442607cdcf8;de;;;7.4.;;;Neue Ziele für Smart Classrooms aus Industrie 4.0 Dieses Papier bietet theoretische Überlegungen und Empfehlungen für die Implementierung von Smart Learning Spaces in Schulen. Lernressourcennetzwerke erweitern die Möglichkeiten der Schüler, alternative formale, nicht-formale und informelle Bildung in physischen und virtuellen Lernräumen innerhalb und außerhalb traditioneller Klassenzimmer zu erkunden. Intelligente Pädagogik muss ein gemeinsames konzeptionelles Verständnis davon beinhalten, was Wissen und was Lernen ist, und eine tiefere theoretische Betrachtung darüber, wie Menschen lernen, wie sie denken und warum sie interagieren. Es sollte praktische Vorschläge machen, wer in einer hybriden Mensch-Maschine-Gesellschaft zu welchem ​​Zweck und warum unterrichten sollte. Intelligente Klassenzimmer werden aus mehreren intelligenten Lernräumen bestehen, die schließlich eine Art künstlicher Intelligenz einsetzen. Solche Plattformen erfordern einen gut durchdachten pädagogischen Rahmen und die Integration solcher Werkzeuge der künstlichen Intelligenz mit anderen Werkzeugen in der pädagogischen Matrix. Sie müssen ethisch entwickelt werden, um sowohl einen personalisierten Selbstzugang als auch Verbindungen zu bieten, die die Interaktion mit anderen Studierenden erleichtern. Information 4.0 ist ein kommunikativer Rahmen, der eine nützliche Grundlage bietet, um Elemente einer ganzheitlichen intelligenten Pädagogik zu erweitern, die eine notwendige Voraussetzung für die Implementierung von intelligenten Lernräumen ist.;-;-;-;https://link.springer.com/article/10.1007/s10758-021-09527-0 2f6e387b4f7e295bbc2f79de0c5705b6;de;;;7.4.;;;Effiziente Graphkernel durch Randomisierung Das Lernen aus komplexen Daten wird immer wichtiger, und Graphkernel haben sich in letzter Zeit zu einem sich schnell entwickelnden Zweig des Lernens mit strukturierten Daten entwickelt. Früher vorgeschlagene Kernel beruhen jedoch darauf, diskrete Knotenkennzeichnungsinformationen zu haben. In diesem Artikel untersuchen wir die Leistungsfähigkeit kontinuierlicher Funktionen auf Knotenebene für ausbreitungsbasierte Graphkernel. Insbesondere nutzen Ausbreitungskernel Node-Label-Verteilungen von Ausbreitungsschemata wie Label-Propagation, was natürlich die Konstruktion von Graphkerneln für teilweise gekennzeichnete Graphen ermöglicht. Um effizient Graphenmerkmale aus kontinuierlichen Knotenlabelverteilungen und im Allgemeinen aus kontinuierlichen vektorbewerteten Knotenattributen zu extrahieren, verwenden wir randomisierte Techniken, die es ermöglichen, auf einfache Weise Ähnlichkeitsmaße basierend auf propagierten Informationen abzuleiten. Wir zeigen, dass Ausbreitungskerne, die ortsabhängiges Hashing verwenden, die Laufzeit bestehender Graphenkerne um mehrere Größenordnungen reduzieren. Wir bewerten die Leistung verschiedener Vermehrungskerne auf realen Bioinformatik- und Image-Benchmark-Datensätzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33460-3_30 c7219fbe06bdf17e04b4af542fafeb74;de;;;7.4.;;;Ensemble-Feature-Auswahl basierend auf dem kontextuellen Verdienst Neuere Forschungen haben die Vorteile der Verwendung von Ensembles von Klassifikatoren für Klassifikationsprobleme bewiesen. Mit maschinellen Lernmethoden konstruierte Ensembles, die den Trainingssatz manipulieren, werden verwendet, um verschiedene Sätze genauer Klassifikatoren zu erstellen. Unterschiedliche Merkmalsauswahltechniken basierend auf der Anwendung unterschiedlicher Heuristiken zum Erzeugen von Basisklassifizierern können an spezifische Domäneneigenschaften angepasst werden. In diesem Beitrag betrachten und experimentieren wir mit dem kontextuellen Merkmalsgütemaß als Merkmalsauswahlheuristik. Wir nutzen die Diversität eines Ensembles als Bewertungsfunktion in unserem neuen Algorithmus mit einem Verfeinerungszyklus. Wir haben unseren Algorithmus an sieben Datensätzen von UCI evaluiert. Die experimentellen Ergebnisse zeigen, dass für alle diese Datensätze eine Ensemble-Merkmalsauswahl basierend auf dem kontextuellen Wert und einer geeigneten Ausgangsmenge von Merkmalen ein Ensemble erzeugt, das mit gewichtetem Voting nie eine geringere Genauigkeit als C4.5 allein mit allen Merkmalen liefert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44801-2_12 7beef6adfd0a1fd1abb9fa9eeb334f6c;de;;;7.4.;;;Klassifizierung von Lungengeräuschen mit Hilfe von Convolutional Neural Networks In der Medizin werden mit der Einführung von Computersystemen, die riesige Datenmengen sammeln und analysieren können, viele nicht-invasive Diagnoseverfahren für eine Vielzahl von Erkrankungen entwickelt. In dieser Studie ist es unser Ziel, eine nicht-invasive Methode zur Klassifizierung von Atemgeräuschen zu entwickeln, die von einem elektronischen Stethoskop und der Audioaufzeichnungssoftware aufgezeichnet werden, die verschiedene Algorithmen des maschinellen Lernens verwendet.;-;-;-;https://link.springer.com/article/10.1186/s13640-017-0213-2 1b907f560ce956405e32dc2e87c2468d;de;;;7.4.;;;Gehirn-Computer-Schnittstellen Brain-Computer-Interfaces (BCIs) haben sich als neuartige Technologie herausgebildet, die das Gehirn mit externen Geräten verbindet. BCIs wurden entwickelt, um die Absicht des Menschen zu entschlüsseln, was zu einer direkten Gehirnsteuerung eines Computers oder Geräts führt, ohne den neuromuskulären Pfad zu durchlaufen. Bidirektionale Gehirn-Computer-Schnittstellen ermöglichen nicht nur die Gehirnsteuerung, sondern öffnen auch die Tür zur Modulation des zentralen Nervensystems durch neuronale Schnittstellen. Wir überprüfen die Konzepte, Prinzipien und verschiedenen Bausteine ​​von BCIs, von der Signalerfassung, Signalverarbeitung, Merkmalsextraktion, Merkmalsübersetzung bis hin zur Gerätesteuerung und verschiedenen Anwendungen. Auch die Leistungsbewertung und die Herausforderungen von BCIs werden diskutiert. Beispiele für nichtinvasive BCIs werden diskutiert, um dem Leser ein tieferes Verständnis der nichtinvasiven BCI-Technologie zu ermöglichen, obwohl dieses Kapitel eine allgemeine Einführung in die Gehirn-Computer-Schnittstellen bieten soll.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-43395-6_4 825bc9f3ca17ed9baf26775bd10e1bc1;de;;;7.4.;;;Wichtigkeitsgewichteter AdaRank Das Erlernen des Rankings für den Informationsabruf erfordert einige Domänenexperten, die die im Schulungsschritt verwendeten Dokumente kennzeichnen. Es ist aufwendig, Dokumente für verschiedene Forschungsbereiche zu kennzeichnen. In diesem Beitrag schlagen wir eine neuartige Methode vor, die als domänenübergreifendes adaptives Modell auf der Grundlage der Wichtigkeitsgewichtung verwendet werden kann, eine gängige Technik zur Korrektur von Verzerrungen oder Diskrepanzen. Hier verwenden wir „domänenübergreifend“, um zu bedeuten, dass die Eingabeverteilung in der Trainings- und Testphase unterschiedlich ist. Erstens verwenden wir das Kullback-Leibler-Importance Estimation Procedure (KLIEP), eine typische Methode der Wichtigkeitsgewichtung, um die Wichtigkeitsschätzung durchzuführen. Dann modifizieren wir AdaRank so, dass es ein transduktives Modell wird. Experimente mit OHSUMED zeigen, dass unsere Methode besser abschneidet als einige andere hochmoderne Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24728-6_61 bffda2bc6b62a48507600f77701f47ba;de;;;7.4.;;;Fahrzeugübergreifende Kommunikation zur intelligenten Kollisionsvermeidung durch maschinelles Lernen: Ein Überblick Nach den Ungereimtheiten auf indischem Terrain ist das Konzept der autonomen Fahrzeuge vom indischen Markt praktisch verschwunden. Eine der Hauptursachen für den Ausfall selbstfahrender Fahrzeuge in Indien ist die Kollision, die auf einige gemeinsame Faktoren zurückzuführen ist, darunter schlechte Fahrbahnmarkierungen, fehlende Schilder und vor allem – Verletzung der Verkehrsregeln durch menschliche Fahrer. Abgesehen von den fehlenden Markierungen ist das fehlende Verkehrsgefühl menschlicher Fahrer eine große Bedrohung für das autonome Fahren in Indien, da keine Maschine in der Lage ist, auf die schwankende Denkweise eines Menschen zu reagieren. Um dieser Herausforderung zu begegnen, wird ein neuartiger Ansatz vorgestellt, der auf der Kommunikationsstrategie zwischen Fahrzeugen beruht, um kritische Kollisionen auf indischen Straßen zu vermeiden. Eine einzigartige Anwendung der maschinellen Lerntechnologie zur Kollisionsvermeidung wird in dieser Arbeit skizziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-3653-0_12 2da11fb70c32be52385550e8762339be;de;;;7.4.;;;Ein semantischer Kernel zur Textklassifizierung basierend auf iterativen Beziehungen höherer Ordnung zwischen Wörtern und Dokumenten Document Wir schlagen einen semantischen Kernel für Support Vector Machines (SVM) vor, der die Beziehungen höherer Ordnung zwischen den Wörtern und zwischen den Dokumenten nutzt. Ein herkömmlicher Ansatz in Textkategorisierungssystemen besteht darin, Dokumente als „Bag of Words“ (BOW) darzustellen, in dem die Beziehungen zwischen den Wörtern und ihren Positionen verloren gehen. Darüber hinaus gehen traditionelle maschinelle Lernalgorithmen davon aus, dass Instanzen, in unseren Falldokumenten, unabhängig und identisch verteilt sind. Dieser Ansatz vereinfacht die zugrunde liegenden Modelle, ignoriert jedoch die semantischen Verbindungen zwischen Wörtern sowie die semantischen Beziehungen zwischen Dokumenten, die aus den Wörtern stammen. In dieser Studie verbessern wir die semantische Wissenserfassungsfähigkeit einer früheren Arbeit in [1], die als bezeichnet wird;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07173-2_43 c267e1e21654bae0997d1b99e20d42eb;de;;;7.4.;;;Ermöglichen von Prognosen zur Ölförderung durch maschinelles Lernen Maschinelles Lernen ist definiert als eine Anwendung künstlicher Intelligenz, bei der verfügbare Informationen durch Algorithmen verwendet werden, um beliebige Datenmengen zu verarbeiten oder deren Verarbeitung zu unterstützen. Es gibt immer mehr Hinweise darauf, dass maschinelles Lernen in vielen Betrieben der Öl- und Gasindustrie für bessere Vorhersagen eingesetzt wird, von der Faziesidentifizierung bis zur Wartung der Pipeline, wodurch die Sicherheit erheblich verbessert wird. Die Geschwindigkeit einer Förderbohrung nimmt mit der Zeit ab und diese Beziehung wird als Rückgangskurve bezeichnet. Die Abfallkurvenanalyse ist eine grafische Methode zur Analyse der Öl- und Gasförderraten und zur Vorhersage der zukünftigen Leistung, wodurch das gesamte Feldleistungsmanagement unterstützt wird. Die Analyse der Abnahmekurve von Arp ist normalerweise die gebräuchlichste Methode, die einen umfassenden Satz von Gleichungen umfasst, die die exponentiellen, harmonischen und hyperbolischen Abnahmen definieren, die nur im Falle eines stabilisierten Produktionstrends angewendet werden können. Dieses Papier konzentriert sich auf die Vorhersage der Abnahmekurve durch die Verwendung entsprechend ausgelegter neuronaler Netze und maschineller Lernalgorithmen unabhängig vom Produktionstrend. Die Merkmalsvektoren sind die geologische Lage des Bohrlochs, Produktionsdaten, Druckdaten und Betriebsbeschränkungen. Die Feinabstimmung dieser Parameter führt uns dazu, die Leistung eines Bohrlochs mit angemessener Sicherheit vorherzusagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0401-0_36 eef555f8e63e14e628786b6096533167;de;;;7.4.;;;Untersuchung des Aufmerksamkeitsmechanismus in tiefen Modellen: Eine Fallstudie zur Sentimentanalyse Das zu interpretieren, was ein Deep-Learning-Modell gelernt hat, ist eine anspruchsvolle Aufgabe. In diesem Beitrag stellen wir eine Deep-Learning-Architektur vor, die auf einem Aufmerksamkeitsmechanismus beruht. Der Schwerpunkt liegt auf der explorativen Evaluation aufmerksamkeitsbasierter Deep-Learning-Modelle zu Lexika affektiver Wörter und der Untersuchung, ob die Wortvalenz die bedeutendste Information ist oder nicht. Die erhaltenen Bewertungsergebnisse lassen den Schluss zu, dass Wortvalenzen eine bedeutende Rolle in der Stimmungsanalyse spielen, aber möglicherweise beruhen Modelle auf anderen Dimensionen, die für Menschen möglicherweise nicht unterscheidbar sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-33110-8_17 14dc53e5c00b54e8752c6b6a2fbc2704;de;;;7.4.;;;Automatisierte Prozessentscheidungen basierend auf integrierten Quelldaten Entscheidungsaktivitäten sind häufig für einen Großteil der Dauer und des Ressourcenverbrauchs eines Prozesses verantwortlich. Die Automatisierung dieser Tätigkeiten verspricht daher erhebliche Kosten- und Zeiteinsparungen, allerdings nur, wenn die Entscheidungsqualität nicht leidet. Um dies zu erreichen, müssen Daten aus verschiedenen Quellen berücksichtigt werden, die über das Prozess-Audit-Log hinausgehen, weshalb Ansätze, die sich ausschließlich darauf verlassen, wahrscheinlich suboptimale Ergebnisse liefern. Aus diesem Grund stellen wir in diesem Beitrag einen Ansatz zur Automatisierung von Prozessentscheidungen vor, der Datenintegrationstechniken einbezieht und eine signifikante Verbesserung der Entscheidungsqualität ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21863-7_14 26d9624c2c665841bc99a3c3668ece59;de;;;7.4.;;;Wahrscheinlichkeitsmodelltyp Suffizienz Wir untersuchen die Rolle ausreichender Statistiken in generalisierten probabilistischen Data-Mining- und Machine-Learning-Software-Frameworks. Einige Aspekte der Spezifikation eines statistischen Modelltyps werden diskutiert und wir zeigen, dass es von Vorteil ist, eine ausreichende Statistik und Funktionen für deren Manipulation explizit in die Spezifikation des Modelltyps aufzunehmen. Instanzen solcher Typen können dann von verallgemeinerten Lernalgorithmen verwendet werden, während eine optimale Lernzeitkomplexität aufrechterhalten wird. Es werden Beispiele für Probleme wie inkrementelles Lernen und Datenpartitionierungsprobleme (z. B. Änderungspunktprobleme, Entscheidungsbäume und Mischungsmodelle) gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45080-1_72 f8e1d8f3b84397a618b85e435e3c5d48;de;;;7.4.;;;Decision Forest Classifier mit Flower Search Optimierungsalgorithmus zur effizienten Erkennung von BHP-Flooding-Angriffen in Optical Burst Switching Network Diese Forschung konzentriert sich auf die effiziente Klassifizierung von BHP-Flooding-Angriffen in der Umgebung von optischen Switching-Netzwerken. Das Burst-Switching-Netzwerk ist das Rückgrat der zukünftigen Generation des optischen Netzwerks. Die Angriffe auf Paketüberflutungen mit Burst-Headern stellen eine wichtige Sicherheitsherausforderung dar, die sich negativ auf die Leistung der Ressourcennutzung auswirken und in einigen Fällen Probleme wie Denial-of-Service (DoS) verursachen kann. Eine mögliche Lösung hierfür besteht darin, effiziente Klassifikationstechniken mit optimierten Merkmalen aus den Netzwerkdaten zu entwickeln, so dass fehlerhafte Randnotizen frühzeitig erkannt und Gegenmaßnahmen zum Schutz des Netzwerks ergriffen werden können. Diese Forschung untersucht die effiziente Merkmalsauswahl durch den Einsatz eines neuartigen Flower Pollination Optimization Algorithmus (FPA) und anschließend die Implementierung eines Decision Forest Algorithmus durch Penalizing Attributes (Forest PA) Klassifikator zur Erkennung von Überflutungsangriffen. Der Vergleich des vorgeschlagenen Ansatzes mit den anderen bestehenden Ansätzen in Bezug auf verschiedene Leistungskennzahlen wie: Genauigkeit, Präzision, Erinnerung, Sensitivität, Spezifität und Informiertheit werden vorgestellt, um seine Eignung zu verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-49339-4_9 64fe07629b31524d261af32d1ab18eb8;de;;;7.4.;;;Eine Analyse von Tensormodellen für das Lernen mit strukturierten Daten Während Tensorfaktorisierungen für das Lernen mit verschiedenen Formen strukturierter Daten immer beliebter werden, gibt es nur sehr wenige theoretische Ergebnisse zur Verallgemeinerungsfähigkeit dieser Methoden. Hier diskutieren wir das Tensorprodukt als prinzipielle Möglichkeit, strukturierte Daten in Vektorräumen für maschinelle Lernaufgaben darzustellen. Durch Erweiterung bekannter Schranken für Matrixfaktorisierungen sind wir in der Lage, Generalisierungsfehlergrenzen für den Tensorfall abzuleiten. Darüber hinaus analysieren wir analytisch und experimentell, wie sich die Tensorfaktorisierung bei über- und unterstrukturierten Darstellungen verhält, beispielsweise wenn die Zwei-Wege-Tensor-Faktorisierung, d.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40991-2_18 b02c046cc3cb98745ae946413a0c2b61;de;;;7.4.;;;Verhältnisbasiertes Clustering mit mehreren Kerneln Maximum-Margin-Clustering-(MMC-)Ansätze erweitern das Large-Margin-Prinzip von SVM mit beträchtlichem Erfolg auf unüberwachtes Lernen. In dieser Arbeit verwenden wir das Verhältnis zwischen Rand und Intra-Cluster-Varianz, um sowohl die Trennung als auch die Kompaktheit der Cluster im Ziel explizit zu berücksichtigen. Darüber hinaus setzen wir Multiple Kernel Learning (MKL) ein, um gemeinsam den Kernel und eine Partitionierung der Instanzen zu lernen und damit das Kernel-Selection-Problem der MMC zu überwinden. Wichtig ist, dass der Rand allein die Qualität des gelernten Kernels nicht zuverlässig widerspiegeln kann, da er durch eine einfache Skalierung des Kernels vergrößert werden kann. Im Gegensatz dazu ist unser verhältnisbasiertes Ziel skaleninvariant und auch invariant gegenüber der Art der Normbeschränkungen für die Kernelparameter. Die Optimierung des Objektivs erfolgt unter Verwendung eines iterativen gradientenbasierten Algorithmus. Vergleichende Clustering-Experimente an verschiedenen Datensätzen demonstrieren die Wirksamkeit der vorgeschlagenen Formulierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44845-8_16 71af39834d27ec7455949dd184218c71;de;;;7.4.;;;Kontextuelle Erkundung von Textsammlungen Heutzutage steht eine große Menge an digitalen Texten für jeden Zweck zur Verfügung. Für ihren Zugang und ihre Analyse sind neue flexible und robuste Ansätze erforderlich. Dieser Beitrag schlägt ein auf Hypertext basierendes Textexplorationsschema vor, das einige Elemente aus dem Information Retrieval und Text Mining einbezieht, um die blinde Navigation des Hypertexts in eine schrittweise informierte Exploration umzuwandeln. Das vorgeschlagene Schema ist von Bedeutung, da es drei grundlegende Explorationsfunktionen, d. Das Papier präsentiert auch einige vorläufige Ergebnisse zur Generierung von Hypertext aus zwei Textsammlungen in einer Implementierung des Schemas.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24630-5_60 aa97cc8e1f864a09e5a72487ca644c09;de;;;7.4.;;;Identifizieren von vergleichenden Meinungen in arabischen Texten in sozialen Medien mithilfe von Techniken des maschinellen Lernens Social-Networking-Sites sind zu einem festen Bestandteil des täglichen Lebens geworden, wo Menschen miteinander interagieren, kooperieren und sich streiten. Social Media ermutigt sie auch, ihre Meinung zu äußern und ihre Kommentare zu ihren Lebensereignissen oder zu dem von ihnen verwendeten Produkt zu teilen. Meinungen können direkt ohne Vergleich sein (ich mag ABC-Telefon) oder sie können vergleichend sein (die Kamera von X-Phone ist besser als Y-Phone). Vergleichende Meinungen sind in vielen Anwendungen nützlich, z.B. Marketing Intelligence, Produktbenchmarking und E-Commerce. Das automatische Mining von vergleichenden Meinungen ist ein wichtiges Text-Mining-Problem und ein Gebiet von zunehmendem Interesse für verschiedene Sprachen. Dieser Artikel konzentriert sich auf die Identifizierung von vergleichenden Sätzen von nicht vergleichenden Sätzen in arabischen Texten. Es wurde ein Korpus bestehend aus YouTube-Kommentaren entwickelt. Dieses Papier beschreibt Forschungsexperimente, die darauf abzielten, Data/Text-Mining-Algorithmen, natürliche Sprachverarbeitung und linguistische Klassifikation für die arabische vergleichende Texterkennung anzuwenden. Die Ergebnisse dieser Experimente zusammen mit der Analyse werden ebenfalls präsentiert. Die Ergebnisse waren vielversprechend und erreichten eine Genauigkeit von 91% für die Erkennung von vergleichenden Meinungen.;-;-;-;https://link.springer.com/article/10.1007/s42452-019-0183-3 2e6082e9b089f4a8cb2fa154c89cb058;de;;;7.4.;;;Ein Überblick über die wissensbasierte Industrieplanung Industrielle Planungsprobleme sind ausnahmslos sehr komplex, sie erfordern die Berücksichtigung so unterschiedlicher und widersprüchlicher Faktoren wie Fälligkeitsanforderungen, Kostenbeschränkungen, Produktionsniveaus, Maschinenkapazitäten, alternative Produktionsprozesse, Auftragsmerkmale, Ressourcenmerkmale und Verfügbarkeit. Rechnerisch sind selbst die einfachsten dieser Probleme sehr schwierig.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-0305-3_22 faaa0339c1be0dd195c62d9dab901da1;de;;;7.4.;;;Ein verbesserter CART-Entscheidungsbaum für Datensätze mit irrelevanten Funktionen Die Ergebnisse von Data-Mining-Aufgaben werden normalerweise verbessert, indem die Dimensionalität der Daten reduziert wird. Diese Verbesserung wird jedoch schwieriger erreicht, wenn die Datengröße moderat oder riesig ist. Obwohl zahlreiche Algorithmen zur Verbesserung der Genauigkeit vorgeschlagen wurden, gehen alle davon aus, dass die Einführung eines kompakten und stark verallgemeinerten Modells schwierig ist. Um das oben genannte Problem anzugehen, führen wir den Randomized Gini Index (RGI) ein, eine neuartige heuristische Funktion zur Dimensionsreduktion, die insbesondere in großen Datenbanken anwendbar ist. Abgesehen davon, dass irrelevante Attribute entfernt werden, ist unser Algorithmus in der Lage, den Rauschpegel in den Daten stärker zu minimieren, was für Data-Mining-Probleme ein sehr attraktives Merkmal ist. Wir evaluieren seine Leistung umfassend durch Experimente mit künstlichen und realen Datensätzen. Das Ergebnis der Studie zeigt die Eignung und Durchführbarkeit unseres Ansatzes zur Wissensentdeckung in mittleren und großen Datensätzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27172-4_64 dccd76577d373ef2dae701dfa5cd6abc;de;;;7.4.;;;Lernen und Bewerten in Gegenwart von Klassenhierarchien: Anwendung auf die Textkategorisierung Dieses Papier befasst sich mit Kategorisierungsaufgaben, bei denen Kategorien teilweise geordnet sind, um eine Hierarchie zu bilden. Zunächst wird der Begriff der konsistenten Klassifikation eingeführt, der die Semantik einer Klassenhierarchie berücksichtigt. Dann präsentiert es einen neuartigen globalen hierarchischen Ansatz, der eine konsistente Klassifizierung erzeugt. Dieser Algorithmus mit AdaBoost als zugrundeliegendem Lernverfahren übertrifft den entsprechenden „flachen“ Ansatz, also den Ansatz, der die hierarchischen Informationen nicht berücksichtigt, deutlich. Darüber hinaus übertrifft der vorgeschlagene Algorithmus den hierarchischen lokalen Top-Down-Ansatz bei vielen synthetischen und realen Aufgaben. Für Bewertungszwecke verwenden wir ein neuartiges hierarchisches Bewertungsmaß, das einige attraktive Eigenschaften aufweist: Es ist einfach, erfordert keine Parameterabstimmung, gibt eine teilweise korrekte Klassifizierung an und unterscheidet Fehler sowohl nach Entfernung als auch nach Tiefe in einer Klassenhierarchie.;-;-;-;https://link.springer.com/chapter/10.1007/11766247_34 87bb200650e740c8c57c63b924fbfb3b;de;;;7.4.;;;Visuelle Begriffsklärung präpositionaler Phrasenanhänge: Multimodales maschinelles Lernen zur syntaktischen Analysekorrektur Präpositionale Phrasenanhänge sind bekanntermaßen eine wichtige Fehlerquelle beim Parsen natürlicher Sprache. In einigen Fällen können reine syntaktische Merkmale nicht zur Disambiguierung von präpositionalen Phrasenanhängen verwendet werden, während visuelle Merkmale hilfreich sein könnten. In dieser Arbeit interessieren wir uns für die Auswirkungen der Integration solcher Features in ein Parsing-System. Wir schlagen eine Korrekturstrategie-Pipeline für präpositionale Anhänge vor, die visuelle Informationen verwendet, die auf einem multimodalen Korpus von Bildern und Bildunterschriften trainiert wurden. Die Bewertung des Systems zeigt uns, dass es in bestimmten Fällen möglich ist, durch visuelle Funktionen die Fehler eines Parsers zu korrigieren. Es hilft auch, die schwierigsten Aspekte einer solchen Integration zu identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20521-8_52 289de9da55a6a7b11b511ce12cc83b06;de;;;7.4.;;;Eine Methode zur Identifizierung von Vorfällen basierend auf verbessertem RCNN Ein Notfall ist ein plötzliches und schädliches Ereignis. Es ist von großer Bedeutung, das Ereignis schnell zu erkennen und den durch das Ereignis verursachten Schaden zu reduzieren. In diesem Beitrag werden die aktuellen Advanced Recurrent Convolutional Neural Networks (RCNN) verwendet, aber das traditionelle Modell kann das Ereignis nicht effektiv identifizieren und die Genauigkeitsrate ist nicht gut genug. Um dieses Problem zu lösen, werden der rekurrente neuronale Netz- und Aktivierungsfunktionsteil des traditionellen Modells verbessert und durch experimentellen Vergleich das optimale Modell im Trainingsmodell ausgewählt. Schließlich beträgt die Genauigkeit des Modells 90 %, die Erinnerungsrate 92,55 % und der F1-Wert, eine Metrik, die Genauigkeit und Erinnerung kombiniert, beträgt 91,26 %, was beweist, dass das verbesserte Modell gute Auswirkungen hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0187-6_11 227b5711ae170c741de1e2e9c26f5c63;de;;;7.4.;;;Intelligentes Anwesenheitssystem mit Deep Transfer Learning Automatische Gesichtserkennungstechnologien haben in der sich verändernden Welt zahlreiche Verbesserungen gebracht. Intelligente Anwesenheit mit Gesichtserkennung ist eine Lösung, die mit den täglichen Aktivitäten zur Betreuung des Schüleranwesenheitssystems verbunden ist. Transferlernen in Convolutional Neural Networks hat sich als effiziente alternative Methode zur Lösung der Aufgaben in Erkennung gezeigt, anstatt neue neuronale Netze von Grund auf neu zu entwerfen und zu trainieren. In diesem Papier stellen wir ein intelligentes Anwesenheitssystem vor, indem wir tief vortrainiertes CNN transferieren. Unser vorgeschlagenes System wird in der Lage sein, menschliche Gesichter schnell und präzise in aufgenommenen Bildern oder Videos zu finden und wahrzunehmen. Das experimentelle Ergebnis zeigt eine hervorragende Leistung bei der Erkennung des Gesichtes des Schülers in unterschiedlichen Entfernungen und die resultierenden Bedingungen, die hauptsächlich für mobile IP-Webcams gelten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8221-9_279 f3804f58b60f6fb5472abd45e2848903;de;;;7.4.;;;Deep Dynamic Models zum Erlernen versteckter Darstellungen von Sprachfunktionen Die tiefe hierarchische Struktur mit mehreren Schichten verborgenen Raums in der menschlichen Sprache ist untrennbar mit ihren dynamischen Eigenschaften verbunden, die sich auf allen Ebenen der Sprachproduktion und -wahrnehmung manifestieren. Der Wunsch und der Versuch, aus einem (oberflächlichen) Verständnis dieser tiefen Sprachstruktur Kapital zu schlagen, trug dazu bei, das jüngste Interesse am Deep-Learning-Ansatz zur Spracherkennung und verwandten Anwendungen zu entfachen und ein gründlicheres Verständnis der tiefen Struktur der Sprachdynamik und die damit verbundenen computergestützten Darstellungen sollen den Forschungsfortschritt in der Sprachtechnologie weiter vorantreiben. In diesem Kapitel untersuchen wir zunächst eine Reihe von Studien zur Repräsentation von Sprache in einem verborgenen Raum unter Verwendung dynamischer Systeme und rekurrenter neuronaler Netze, wobei wir verschiedene Arten des Lernens der Modellparameter und anschließend der Hidden-Feature-Repräsentationen zeitvariabler Sprachdaten betonen. Wir analysieren und fassen diesen reichen Satz von tiefen, dynamischen Sprachmodellen in zwei Hauptkategorien zusammen: (1) generative Modelle von oben nach unten, die lokalistische Darstellungen von Sprachklassen und -merkmalen im verborgenen Raum übernehmen, und (2) diskriminative Modelle von unten nach oben die Annahme verteilter Vertretungen. Mit detaillierten Untersuchungen und Vergleichen zwischen diesen beiden Modelltypen konzentrieren wir uns auf die lokalistische versus verteilte Darstellung als ihre jeweiligen Kennzeichen und definierenden Merkmale. Zukünftige Richtungen werden diskutiert und über mögliche Strategien analysiert, um die Stärken sowohl der lokalistischen als auch der verteilten Repräsentationen zu nutzen und gleichzeitig ihre jeweiligen Schwächen zu überwinden, über die blinde Integration der beiden hinaus, indem das generative Modell verwendet wird, um das diskriminative Modell als beliebte Trainingsmethode vorzutrainieren tiefe neuronale Netze.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4939-1456-2_6 06a9dbb767308bf7c1c8d6c92b39e697;de;;;7.4.;;;Training tiefer neuronaler Netze zur Erkennung von Trinkgläsern mit synthetischen Bildern Diese Studie präsentiert einen Ansatz zur Verwendung synthetisch gerenderter Bilder zum Trainieren tiefer neuronaler Netze auf Objekterkennung. Für die Computergrafik-Modellierungssoftware Blender wurde ein neues Plug-In entwickelt, das eine große Anzahl fotorealistischer Raytracing-Bilder erzeugen und Metainformationen als Trainingslabels einbinden kann. Die Leistungsfähigkeit des tiefen neuronalen Netzes DetectNet wird anhand von Trainingsdaten bewertet, die synthetisch gerenderte Bilder und digitale Fotos von Trinkgläsern umfassen. Die Erkennungsgenauigkeit wird durch Vergleichen von Begrenzungsboxen unter Verwendung einer Schnittmenge über Vereinigungstechnik bestimmt. Die Detektionsexperimente mit realen und synthetischen Bilddaten führten zu vergleichbaren Ergebnissen und die Leistung stieg bei Verwendung eines vortrainierten GoogLeNet-Modells. Die Experimente zeigten, dass das Training tiefer neuronaler Netze für die Objekterkennung auf synthetischen Daten effektiv ist und der vorgeschlagene Ansatz nützlich sein kann, um große beschriftete Bilddatensätze zu generieren, um die Leistung tiefer neuronaler Netze bei bestimmten Objekterkennungsaufgaben zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-70096-0_37 a7beadcd47b60fce2988cd0f1143e18a;de;;;7.4.;;;Ein tiefes neuronales Netz und ein klassisches merkmalsbasiertes Schema zur Objekterkennung: eine Anwendung für die Maschineninspektion Die Computer Vision (CV)-Domäne wird in der aktuellen Ära der Automatisierung und visuellen Überwachung häufig zur Erkennung und Klassifizierung verschiedener Objekte in einer vielfältigen Umgebung verwendet. Die automatische Maschineninspektion verschiedener Objekte in den Szenen basiert auf internen und externen Parametern wie Merkmalen, die eine große Menge an Informationen über die Art eines Objekts in der Szene liefern. In dieser Arbeit schlagen wir eine neue automatisierte Methode vor, die auf klassischer und Deep-Learning-Funktionsauswahl basiert. Das vorgeschlagene Objektklassifizierungsverfahren folgt drei Schritten. Die Datenerweiterung erfolgt im ersten Schritt zur Erstellung der Saldendatenbank. Später werden Pyramid HOG (PHOG) und Central Symmetric LBP (CS-LBP) seriell zusammen mit Deep Learning-basierten extrahierten Funktionen fusioniert. Die Deep-Learning-Funktionen werden aus dem vortrainierten CNN-Modellnamen Inception V3 extrahiert. Im dritten Schritt wird eine neue Technik namens Joint Entropy zusammen mit KNN (JEKNN) verwendet, um die besten Merkmale auszuwählen. Die am besten ausgewählten Merkmale werden schließlich durch bekannte überwachte Lernmethoden klassifiziert und wählen die beste basierend auf höherer Genauigkeit aus. Die vorgeschlagene Methode wird anhand des balancierten Caltech101-Datensatzes bewertet und erreichte eine maximale Genauigkeit von 90,4% beim Ensemble-Klassifikator, der im Vergleich zu bestehenden Techniken übertrifft.;-;-;-;https://link.springer.com/article/10.1007/s11042-020-08852-3 b23c1cbdc9a394d7be51617242ed322f;de;;;7.4.;;;Klinische quantitative Informationserkennung und Entity-Quantity-Assoziation aus chinesischen elektronischen Krankenakten Klinische quantitative Informationen enthalten entscheidende messbare Ausdrücke von Patientenkrankheiten und Behandlungszuständen, die üblicherweise in elektronischen Freitext-Krankenakten vorhanden sind. Obwohl die klinischen quantitativen Informationen für die Analyse der Gesundheitsversorgung von erheblicher Bedeutung sind, haben sich bisher nur wenige Forschungen auf das Thema konzentriert und es bleibt eine ständige Herausforderung. Mit Fokus auf chinesische elektronische Krankenakten schlug dieses Papier ein erweitertes Bi-LSTM-CRF-Modell vor, das Domänenwissensinformationen und Positionsmerkmale quantitativer Informationen als externe Merkmale integriert, um die Wirksamkeit der klinischen quantitativen Informationserkennung zu verbessern. Um die extrahierten Entitäten und Mengen effektiver zu verknüpfen, wurde in diesem Papier außerdem ein automatischer Ansatz für die Entität-Mengen-Assoziation unter Verwendung einer maschinellen Lernstrategie vorgestellt. Basierend auf 1359 aktuellen chinesischen elektronischen Krankenakten aus der Verbrennungsabteilung eines inländischen öffentlichen Krankenhauses haben wir unser Modell mit einer Reihe weit verbreiteter Basismethoden verglichen. Die Bewertungsergebnisse zeigten, dass unser Modell die Baselines mit einem F1-Maß von 94,27 % für die quantitative Informationserkennung und einer Genauigkeit von 94,60 % für die Entität-Mengen-Assoziation übertraf, was seine Wirksamkeit demonstriert.;-;-;-;https://link.springer.com/article/10.1007/s13042-020-01160-0 2f9ee1b689b2200d1a6d3433e870ba79;de;;;7.4.;;;CCODM: bedingte Kookkurrenzgradmatrix-Dokumentendarstellungsmethode Die Dokumentenrepräsentation ist ein Schlüsselproblem bei Dokumentenanalyse- und -verarbeitungsaufgaben, wie beispielsweise Dokumentenklassifizierung, Clustering und Informationsabruf. Insbesondere bei unstrukturierten Textdaten würde der Einsatz eines geeigneten Dokumentenrepräsentationsverfahrens die Leistungsfähigkeit der nachfolgenden Algorithmen für Anwendungen und Forschung beeinträchtigen. In diesem Beitrag schlagen wir eine neuartige Dokumentrepräsentationsmethode vor, die als Conditional Co-Occurrence Degree Matrix Document Representation Method (CCODM) bezeichnet wird und auf Wort-Co-Auftreten basiert. CCODM berücksichtigt nicht nur das gemeinsame Vorkommen von Begriffen, sondern berücksichtigt auch die bedingten Abhängigkeiten von Begriffen in einem bestimmten Kontext, was dazu führt, dass mehr verfügbare und nützliche strukturelle und semantische Informationen aus den Originaldokumenten erhalten bleiben. Umfangreiche experimentelle Klassifikationsergebnisse mit verschiedenen überwachten und unüberwachten Merkmalsauswahlverfahren zeigen, dass die vorgeschlagene Methode, CCODM, eine bessere Leistung erzielt als das Vektorraummodell, die latente Dirichlet-Zuordnung, die allgemeine Kookkurrenzmatrix-Repräsentationsmethode und die Dokumenteneinbettungsmethode.;-;-;-;https://link.springer.com/article/10.1007/s00500-017-2844-8 38b58a9817fe385b0d2a89cc2e39f18a;de;;;7.4.;;;Iterative Bewehrung domänenübergreifende Textklassifizierung Herkömmliche Textklassifikationstechniken basieren auf der Grundannahme, dass die zugrunde liegenden Verteilungen von Trainings- und Testdaten identisch sein sollten. In vielen realen Anwendungen wird diese Annahme jedoch oft nicht erfüllt. Beschriftete Trainingsdaten sind teuer, aber es können einige beschriftete Daten in einer anderen, aber verwandten Domäne als Testdaten verfügbar sein. Daher wird die Verwendung von gekennzeichneten Daten aus einem anderen Bereich zur Überwachung der Klassifizierung zu einer entscheidenden Aufgabe. In diesem Beitrag schlagen wir einen neuartigen Algorithmus für die domänenübergreifende Textklassifizierung unter Verwendung von Reinforcement Learning vor. In unserem Algorithmus wird der Trainingsprozess iterativ verstärkt, indem die Beziehungen zwischen Dokumenten und Wörtern genutzt werden. Empirisch ist unsere Methode ein effektiver und skalierbarer Ansatz zur Textkategorisierung, wenn die Trainings- und Testdaten aus unterschiedlichen, aber verwandten Domänen stammen. Die experimentellen Ergebnisse zeigen, dass unser Algorithmus eine bessere Leistung erzielen kann als mehrere Klassifikatoren nach dem Stand der Technik.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88192-6_27 7d80aebd3f2b103e62ca201cfc81df56;de;;;7.4.;;;Analyse von Papieren basierend auf Anwendungen zur Sentimentanalyse auf E-Commerce-Daten Stimmungsanalyse ist die rechnerische Behandlung von Meinungen, Gefühlen und Subjektivität von Texten und deren Nutzung zum Nutzen des Geschäftsbetriebs. Dieses Umfragepapier bietet einen umfassenden Überblick über verschiedene Anwendungen zur Sentimentanalyse im Zusammenhang mit E-Commerce-Daten und umfasst die Analyse verwandter Papiere von 2008 bis 2020. Dieses Papier gibt einen Überblick über verschiedene Datenvorverarbeitungstechniken, Sentiment Analysis-Algorithmen, deren Genauigkeit und weitere Verbesserungen und andere diesbezügliche Details der einzelnen verwendeten Anwendungen, als Literaturübersicht im Bereich E-Commerce. Zu den Hauptbeiträgen dieses Papiers gehören eine umfassende Analyse vieler relevanter E-Commerce-Artikel, die Darstellung von Techniken der Datenvorverarbeitung und die Darstellung des jüngsten Forschungstrends in der Sentimentalanalyse und verwandten Gebieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-73603-3_30 79cc7d541cd92319d2966df1fe5a8908;de;;;7.4.;;;Merkmalsgewichtung für Lazy-Learning-Algorithmen Lernalgorithmen unterscheiden sich in dem Grad, in dem sie ihre Eingaben verarbeiten, bevor sie in Leistungsaufgaben verwendet werden. Viele Algorithmen kompilieren eifrig Eingabebeispiele und verwenden nur die Zusammenstellungen, um Entscheidungen zu treffen. Andere sind faul: Sie führen weniger Vorkompilierung durch und verwenden die Eingabebeispiele, um die Entscheidungsfindung zu leiten. Die Leistung vieler fauler Lerner verschlechtert sich erheblich, wenn Stichproben durch Merkmale definiert werden, die wenig oder irreführende Informationen enthalten. Die Unterscheidung der Merkmalsrelevanz ist ein kritischer Punkt für diese Algorithmen, und es wurden viele Lösungen entwickelt, die Merkmalen Gewichte zuordnen. Dieses Kapitel stellt einen Kategorisierungsrahmen für Merkmalsgewichtungsansätze vor, die bei faulen Ähnlichkeitslernern verwendet werden, und gibt einen kurzen Überblick über einige Beispiele in jeder Kategorie.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5725-8_2 482129aa26f4d3cc205f39bfa4871081;de;;;7.4.;;;Textklassifizierung basierend auf Deep Belief Network und Softmax-Regression In diesem Beitrag schlagen wir ein neuartiges hybrides Textklassifikationsmodell vor, das auf Deep Belief Network und Softmax-Regression basiert. Um das spärliche hochdimensionale Matrixberechnungsproblem von Textdaten zu lösen, wird ein Deep-Belief-Netzwerk eingeführt. Nach der Merkmalsextraktion mit DBN wird eine Softmax-Regression verwendet, um den Text im gelernten Merkmalsraum zu klassifizieren. In Pre-Training-Verfahren werden zuerst das Deep-Belief-Network bzw. die Softmax-Regression trainiert. Dann werden sie in der Feinabstimmungsstufe in ein kohärentes Ganzes umgewandelt und die Systemparameter werden mit dem Broyden-Fletcher-Goldfarb-Shanno-Algorithmus mit begrenztem Speicher optimiert. Die experimentellen Ergebnisse von Reuters-21.578 und dem 20-Newsgroup-Korpus zeigen, dass das vorgeschlagene Modell in der Feinabstimmungsphase konvergieren kann und deutlich besser abschneidet als die klassischen Algorithmen wie SVM und KNN.;-;-;-;https://link.springer.com/article/10.1007/s00521-016-2401-x 60eb72d6f2977f7ad42da37f8f930b75;de;;;7.4.;;;Ein künstliches Immunsystem und inkrementelles Lernen inspirierten einen neuen Rahmen für die Identifizierung von Leistungsmustern komplexer elektromechanischer Systeme Die Identifizierung von Leistungsmustern ist die entscheidende Grundlage für die Fehlererkennung und Zustandsvorhersage, die eine wichtige Rolle bei der Gewährleistung von Sicherheit und Zuverlässigkeit in komplexen elektromechanischen Systemen (CES) spielt. Es gibt jedoch einige Probleme im Zusammenhang mit der automatischen und adaptiven Aktualisierung eines Identifikationsmodells. Mit dem Ziel, das Problem der Aktualisierung von Identifikationsmodellen zu lösen, wird in diesem Artikel ein neuartiges Framework zur Identifizierung von Leistungsmustern von CESs basierend auf künstlichen Immunsystemen und inkrementellem Lernen vorgeschlagen, um Echtzeit-Überwachungsdaten in verschiedene Leistungsmuster zu klassifizieren. Zuerst wird eine unüberwachte Clustering-Technik verwendet, um ein anfängliches Identifikationsmodell zu konstruieren. Zweitens werden die künstlichen Immun- und Ausreißererkennungsalgorithmen angewendet, um abnormale Daten zu identifizieren und die Art der Immunantwort zu bestimmen. Drittens wird inkrementelles Lernen verwendet, um die dynamischen Änderungen von Mustern zu verfolgen, und Operationen wie Mustereinfügung, Musterentfernung und Musterrevision sind entworfen, um automatische und adaptive Aktualisierungen eines Identifikationsmodells zu realisieren. Die Wirksamkeit des vorgeschlagenen Rahmens wird durch Experimente mit den Benchmark- und tatsächlichen Mustererkennungsanwendungen demonstriert. Als unüberwachter und sich selbst anpassender Ansatz erbt der vorgeschlagene Rahmen das Übergewicht der herkömmlichen Methoden, überwindet jedoch einige ihrer Nachteile, da der Umschulungsprozess zur Wahrnehmung der Musteränderungen nicht erforderlich ist. Daher kann dieses Verfahren flexibel und effizient zur Leistungsmusteridentifikation der CES verwendet werden. Darüber hinaus bietet das vorgeschlagene Verfahren eine Grundlage für die Fehlererkennung und Zustandsvorhersage und kann in anderen technischen Anwendungen verwendet werden.;-;-;-;https://link.springer.com/article/10.1007/s11431-019-9532-5 d328bb9ccceeeedf5cac72dfca4a3f9a;de;;;7.4.;;;Vergleich von Ansätzen des maschinellen Lernens für die auf motorischer Bildgebung basierende optische Gehirn-Computer-Schnittstelle Ein Brain-Computer Interface (BCI) ist ein System, das bestimmte Muster der menschlichen Gehirnaktivität, wie beispielsweise die Absicht, motorische Funktionen auszuführen, interpretiert, um ein Signal zu erzeugen, das zur Kommunikation oder Steuerung verwendet werden kann. Die funktionelle Nahinfrarotspektroskopie (fNIRS) ist eine aufkommende optische Neuroimaging-Technik, die eine relativ neue Modalität für BCI-Systeme darstellt. Daher werden die optimalen Paradigmen und Klassifikationstechniken für die Interpretation von fNIRS-BCI-Systemen aktiv untersucht. Gegenwärtig haben die meisten fNIRS-BCIs den Linear Discriminant Analysis (LDA)-Algorithmus als primären Klassifizierungsansatz verwendet, jedoch können andere alternative Methoden eine höhere Leistung bieten. Um verschiedene Algorithmen zu vergleichen, wurde ein Datensatz aus einer vierklassenbasierten fNIRS-BCI-Studie erneut analysiert, und wir verglichen systematisch die Leistung verschiedener Algorithmen für maschinelles Lernen: Naive Bayes (NB), LDA, Logistic Regression ( LR), Support Vector Machines (SVM) und Multi-Layer Perception (MLP). Unsere Ergebnisse legen nahe, dass der LR-Klassifikator andere Klassifikatoren leicht übertraf, im Gegensatz zu den meisten fNIRS-BCI-Studien, die LDA oder SVM als den besten Klassifikator berichteten. Die hier präsentierten Ergebnisse legen nahe, dass ein LR-Klassifikator ein potenzieller Ersatz für LDA-Klassifikatoren bei motorischen Bildgebungsaufgaben sein könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-94866-9_12 f14f55140a8c5e6a76b2291e61de9273;de;;;7.4.;;;Capsule Neuronal Network Architecture Based Multi-Class Fruit Image Classification Dieses Papier zielt darauf ab, eine Studie über die Leistung einer Variation von Hintons CapsNet Architecture on Fruits-360 Dataset mit einer moderaten Anzahl von Datenpunkten zur Verwendung in Multi-Class Fruit Classification Tasks mit 118 verschiedenen Klassen bereitzustellen. Es wird beobachtet, dass das vorgeschlagene Modell die auf Convolutional Neural Networks basierende Architektur für die gleiche objektive Aufgabe am Fruits-360-Datensatz mit einer hochmodernen Validierungsgenauigkeit von 99,95 % übertrifft, während die Convolutional Neural Network-basierten Architekturen dies erreichen konnten eine maximale Validierungsgenauigkeit von 97,04 %. Das vorgeschlagene Modell war auch in der Lage, mehr als 99,9 % für jeden F1-Score-, Präzisions- und Recall-Leistungsparameter zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9433-5_17 b1c5b92eb3992376b1c7dc2f0869cf29;de;;;7.4.;;;Jederzeitige Klassifizierung für einen Pool von Instanzen In vielen realen Anwendungen des Klassifikationslernens, wie etwa der Überprüfung von Kreditkartentransaktionen oder einer in Sensorknoten eingebetteten Klassifikation, erfordern mehrere Instanzen gleichzeitig eine Klassifikation unter rechnerischen Ressourcenbeschränkungen wie begrenzte Zeit oder begrenzte Batteriekapazität. In einer solchen Situation sollten den Instanzen verfügbare Rechenressourcen zugewiesen werden, um die Gesamtklassifizierungseffizienz und -effizienz zu optimieren. Wir schlagen ein neuartiges Klassifizierungs-Framework zu jeder Zeit vor, Scheduling Anytime Averaged Probabilistic Estimators (SAAPE), das in der Lage ist, einen Pool von Instanzen zu klassifizieren, genaue Ergebnisse bei jeder Unterbrechung zu liefern und die kollektive Klassifizierungsleistung zu optimieren. In Anlehnung an die Praxis unseres früheren jederzeitigen Klassifizierungssystems AAPE führt SAAPE eine Reihe von sehr effizienten Bayesschen probabilistischen Klassifikatoren aus, um jede einzelne Instanz zu klassifizieren. Darüber hinaus implementiert SAAPE sieben alternative Scheduling-Schemata, um zu entscheiden, welche Instanz als nächstes verfügbare Rechenressourcen erhält, sodass ein neuer Klassifikator angewendet werden kann, um seine Klassifizierung zu verfeinern. Wir präsentieren formal die Definition, die Begründung und die Zeitkomplexität jedes Scheduling-Schemas. Wir führen groß angelegte Experimente mit 60 Benchmark-Datensätzen und diversifizierten statistischen Tests durch, um die Leistung von SAAPE bei der Null-Eins-Verlustklassifizierung sowie bei der Wahrscheinlichkeitsschätzung zu bewerten. Wir analysieren die Vor- und Nachteile jedes Scheduling-Schemas sowohl nach theoretischen Erkenntnissen als auch nach empirischen Beobachtungen. Folglich identifizieren wir effektive Scheduling-Schemata, die es SAAPE ermöglichen, jederzeit eine genaue Klassifizierung für einen Pool von Instanzen durchzuführen.;-;-;-;https://link.springer.com/article/10.1007/s10994-009-5118-6 6f74177b9c1f058c4354e99129d274e4;de;;;7.4.;;;Text verarbeiten und verstehen In den vorherigen Kapiteln haben wir einen Einblick in die gesamte Landschaft der natürlichen Sprachverarbeitung und Textanalyse mit wesentlichen Terminologien und Konzepten erhalten. Außerdem wurden wir in die Programmiersprache Python, wesentliche Konstrukte, Syntax eingeführt und lernten, wie man mit Strings arbeitet, um Textdaten zu verwalten. Um komplexe Textoperationen mit Machine-Learning- oder Deep-Learning-Algorithmen durchzuführen, müssen Sie Textdaten verarbeiten und in einfacher zu interpretierende Formate parsen. Alle maschinellen Lernalgorithmen, seien es überwachte oder unüberwachte Techniken, arbeiten mit Eingabefunktionen, die numerischer Natur sind. Dies ist zwar ein separates Thema unter Feature Engineering, auf das wir im nächsten Kapitel detailliert eingehen werden, um zu diesem Schritt zu gelangen, müssen Sie jedoch die anfänglichen Textdaten bereinigen, normalisieren und vorverarbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-4354-1_3 4398d5fd9d25174716704c7fd796d0fb;de;;;7.4.;;;Aktivitätserkennung aus Flugbahndaten In der heutigen Welt verfügen wir über immer ausgereiftere Mittel, um die Bewegung von Menschen und anderen sich bewegenden Objekten in Form von Flugbahndaten aufzuzeichnen. Diese Daten werden mit extrem hoher Geschwindigkeit gesammelt. Infolgedessen ist die Wissensentdeckung aus diesen Daten zum Erkennen von Aktivitäten zu einem wichtigen Problem geworden. Die entdeckten Aktivitätsmuster können uns helfen, das Leben der Menschen zu verstehen, den Verkehr in einer Großstadt zu analysieren und soziale Netzwerke zwischen den Menschen zu studieren. Die bahnbasierte Aktivitätserkennung baut auf einigen grundlegenden Funktionen der Standortschätzung und des maschinellen Lernens auf und kann neue Erkenntnisse darüber liefern, wie aus niedrigen Sensormesswerten auf übergeordnete Ziele und Ziele geschlossen werden kann. In diesem Kapitel untersuchen wir den Bereich der trajektorienbasierten Aktivitätserkennung. Wir beginnen mit der Forschung zur Standortschätzung von Sensoren zur Ermittlung der Trajektorien. Anschließend überprüfen wir die bahnbasierte Aktivitätserkennungsforschung. Wir klassifizieren die Forschungsarbeiten zur trajektorienbasierten Aktivitätserkennung in mehrere grobe Kategorien und fassen bestehende sowie zukünftige Arbeiten im Lichte der Kategorisierung systematisch zusammen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-1629-6_6 37df86e51018aae367569dda83979000;de;;;7.4.;;;Fenstererkennung in Fassaden mit Heatmap Fusion Die Fenstererkennung ist eine Schlüsselkomponente in vielen Grafik- und Bildverarbeitungsanwendungen im Zusammenhang mit der 3D-Stadtmodellierung und der Szenenvisualisierung. Wir präsentieren einen neuartigen Ansatz, um Fenster in einem farbigen Fassadenbild erkennen zu lernen. Anstatt Begrenzungsrahmen vorherzusagen oder eine Fassadensegmentierung durchzuführen, lokalisiert unser System Keypoints von Fenstern und lernt Keypoint-Beziehungen, um sie zu Fenstern zusammenzufassen. Ein weiteres Modul bietet zusätzliche erkennbare Informationen in der Fenstermitte. Standorte und Beziehungen von Schlüsselpunkten sind in verschiedenen Arten von Heatmaps kodiert, die in einem End-to-End-Netzwerk gelernt werden. Wir haben auch einen Fassadendatensatz mit 3 418 annotierten Bildern erstellt, um die Forschung auf diesem Gebiet zu erleichtern. Es hat sehr unterschiedliche Fassadenstrukturen, Okklusion, Lichtverhältnisse und Blickwinkel. In unserem Datensatz erreicht unsere Methode eine Präzision von 91,4 % und einen Rückruf von 91,0 % unter 50 % IoU (Schnittpunkt über Vereinigung). Wir führen auch einen quantitativen Vergleich mit modernsten Methoden durch, um die Nützlichkeit unserer vorgeschlagenen Methode zu überprüfen. Auch Anwendungen auf Basis unseres Fensterdetektors werden demonstriert, wie beispielsweise Window Blending.;-;-;-;https://link.springer.com/article/10.1007/s11390-020-0253-4 8bfbe0b318382ca46595854384581fab;de;;;7.4.;;;Design und Implementierung eines Web-Mining-Systems basierend auf Multi-Agent Einige Herausforderungen für Website-Designer bestehen darin, einzelnen Benutzern mit unterschiedlichen Hintergründen und Interessen korrekte und nützliche Informationen bereitzustellen sowie die Benutzerzufriedenheit zu erhöhen. Die meisten vorhandenen Websuchtools funktionieren nur mit einzelnen Benutzern und helfen einem Benutzer nicht, von früheren Sucherfahrungen anderer zu profitieren. In diesem Artikel wird ein kollaboratives Web-Mining-System, Collector Engine System, vorgestellt, ein Multi-Agenten-System, das entwickelt wurde, um eine Analyse nach dem Abruf bereitzustellen und die benutzerübergreifende Zusammenarbeit bei der Websuche und beim Mining zu ermöglichen. Dieses System ermöglicht es dem Benutzer, Suchsitzungen mit Anmerkungen zu versehen und sie mit anderen Benutzern zu teilen. Das Prototypsystem und die Komponente des Collector Engine Systems werden diskutiert und beschrieben und insbesondere den Web-Agenten entworfen, die Wissensermittlung des Web-Agenten wird basierend auf einer Kombination aus Web-Nutzungs-Mining und maschinellem Lernen extrahiert. Das Systemmodell wird durch die J2EE-Technologie erstellt und realisiert. Die Anwendung des Systems zeigt, dass die Suchleistung der Probanden im Vergleich zu individuellen Suchszenarien verbessert wird, in denen Benutzer keinen Zugriff auf frühere Suchen haben, wenn sie Zugriff auf eine begrenzte frühere Suchsitzung anderer Benutzer haben.;-;-;-;https://link.springer.com/chapter/10.1007/11527503_59 16366fab4ff0d47fb051a312be702d57;de;;;3.2.;;;Zur Entwicklung eines Security-Toolkits für offene Netzwerke - Neue Sicherheitsfeatures in SECUDE In diesem Artikel diskutieren wir die Anforderungen an Sicherheits-Toolkits für offene Netzwerke, erläutern einige wichtige technische Details und geben einen Ausblick auf moderne Sicherheitstechnik. Zur Veranschaulichung dieser Themen konzentrieren wir uns auf die aktuelle und zukünftige Entwicklung von SECUDE. Wir geben einen kurzen Überblick über die SECUDE;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-86842-8_8 c5f5f6321605cb0925a95653f3bc3699;de;;;7.4.;;;Mathematik, Informatik und Flamenco: Überblick und Herausforderungen Flamenco ist ein reiches leistungsorientiertes Kunstmusikgenre aus Südspanien, das eine wachsende Gemeinschaft von Liebhabern auf der ganzen Welt anzieht. Aufgrund seiner improvisatorischen und ausdrucksstarken Natur, seiner einzigartigen musikalischen Eigenschaften und der Tatsache, dass das Genre weitgehend undokumentiert ist, stellt der Flamenco eine Reihe interessanter mathematischer und rechnerischer Herausforderungen. Die meisten existierenden Ansätze des Musical Information Retrieval (MIR) wurden im Kontext populärer oder klassischer Musik entwickelt und lassen sich oft nicht gut auf nicht-westliche Musiktraditionen verallgemeinern, insbesondere wenn die zugrunde liegenden musiktheoretischen Annahmen für diese Genres nicht gelten. In den letzten zehn Jahren wurden eine Reihe von Rechenproblemen im Zusammenhang mit der automatischen Analyse von Flamencomusik definiert und mehrere Methoden vorgeschlagen, die eine Vielzahl musikalischer Aspekte ansprechen. Dieser Beitrag gibt einen Überblick über die Herausforderungen, die sich im Zusammenhang mit der computergestützten Analyse von Flamencomusik ergeben, und skizziert einen Überblick über bestehende Ansätze.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-21392-3_29 cbb35deb6c4c8abb9a3fa3bf441c614d;de;;;7.4.;;;Q-Tree: Automatische Konstruktion einer hierarchischen Zustandsdarstellung für das Reinforcement Learning Eine Hauptherausforderung des agentenbasierten Verstärkungslernens in komplexen und unsicheren Umgebungen ist die steigende Komplexität der Berechnung mit der Anzahl der Zustände. Die hierarchische oder baumbasierte Zustandsdarstellung bietet einen vielversprechenden Ansatz zur Komplexitätsreduktion durch Clustering und Sequenzierung ähnlicher Zustände. Wir führen den Q-Tree-Algorithmus ein, um die Datenhistorie von Zustandsübergangsinformationen zu nutzen, um automatisch eine solche Darstellung zu erstellen und eine Reihe von linearen Trennungen zwischen Zustandsclustern zu erhalten, um das Lernen zu erleichtern. Empirische Ergebnisse für das kanonische PuddleWorld-Problem werden bereitgestellt, um den vorgeschlagenen Algorithmus zu validieren, Erweiterungen des PuddleWorld-Problems, die durch Hinzufügen zufälliger Rauschdimensionen erhalten wurden, werden durch den Q-Tree-Algorithmus gelöst, während traditionelles tabellarisches Q-Learning keine zufälligen Zustandselemente innerhalb derselben Zahl aufnehmen kann von Lernversuchen. Die Ergebnisse zeigen, dass der Q-Tree-Algorithmus Zustandsdimensionen ablehnen kann, die das Lernen nicht unterstützen, indem er die Gewichte aller linearen Klassifikatoren für eine hierarchische Zustandsdarstellung analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33503-7_55 90248a260972d7813b629b544ad70b0b;de;;;7.4.;;;Konzepte für das lokale Feature-Design In diesem Kapitel untersuchen wir verschiedene Konzepte im Zusammenhang mit dem Entwurf lokaler Merkmalsdeskriptoren – nämlich lokale Muster, Formen, Spektren, Abstandsfunktionen, Klassifizierung, Abgleich und Objekterkennung. Das Hauptaugenmerk liegt auf;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-33762-3_4 473718127b3a24a53ba8dc7c492d52d6;de;;;7.4.;;;Verwendung von Expertenmustern beim assistierten interaktiven maschinellen Lernen: Eine Studie zum maschinellen Lehren Machine Teaching (MT) ist eine aufkommende Praxis, bei der Menschen ohne Kenntnisse im Bereich Machine Learning (ML) umfangreiche Informationen über Labels hinaus bereitstellen, um ML-Modelle zu erstellen. MT verspricht, die Eintrittsbarriere zur Erstellung von ML-Modellen zu senken, indem es von den Benutzern weichere Fähigkeiten verlangt als ML-Kenntnisse. In diesem Papier untersuchen und zeigen wir, wie Endbenutzer ohne MÜ-Erfahrung erfolgreich ML-Modelle mit dem MÜ-Prozess erstellen und Ergebnisse erzielen, die denen von MÜ-Experten nicht weit hinterherhinken. Dazu führen wir zwei Studien durch. Wir haben zuerst untersucht, wie MÜ-Experten Modelle erstellen, aus denen wir Expertenlehrmuster extrahiert haben. In unserer zweiten Studie haben wir beobachtet, dass Endbenutzer ohne MT-Erfahrung ML-Modelle mit und ohne Anleitung durch Expertenmuster erstellen. Wir haben festgestellt, dass alle Benutzer Modelle gebaut haben, die mit denen von MT-Experten vergleichbar sind. Darüber hinaus beobachteten wir, dass Benutzer, die angeleitet wurden, die Aufgabe als weniger anstrengend empfanden und weniger mentale Anforderungen verspürten als diejenigen, die keine Anleitung erhielten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29387-1_34 f8c89873fad3cda2eb68fa997f33b967;de;;;7.4.;;;Analysieren der Auswirkung der Abfrageklasse auf die Leistung des Dokumentenabrufs Die Analyse von Anfragen, die an Open-Domain-Frage-Antwort-Systeme gestellt werden, zeigt, dass bestimmte Arten von Anfragen dominant sind, z. B. Anfragen nach der Identität von Personen und nach dem Ort oder der Zeit von Ereignissen. Wir haben einen regelbasierten Mechanismus angewendet und eine manuelle Klassifizierung durchgeführt, um Abfragen in solche häufig vorkommenden Typen zu klassifizieren. Anschließend haben wir mit verschiedenen Anpassungen unseres grundlegenden Dokumentabrufprozesses für jeden Abfragetyp experimentiert. Die Anwendung der besten Abrufanpassung für jeden Abfragetyp führte zu Verbesserungen der Abrufleistung. Schließlich haben wir eine maschinelle Lerntechnik angewendet, um die manuell klassifizierten Abfragetypen automatisch zu lernen, und die besten Abrufanpassungen, die für die manuelle Klassifizierung erhalten wurden, auf die automatisch gelernten Abfrageklassen angewendet. Der Lernalgorithmus zeigte eine hohe Genauigkeit, und die für die erlernten Klassen erhaltene Abrufleistung stimmte mit der Leistung überein, die für die regelbasierten und manuellen Klassifikationen erhalten wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30549-1_48 f2d59b5cf2b461124766fd595c9e2d62;de;;;7.4.;;;Technologische Untersuchung des RRAM-Crossbar-Arrays für die Matrix-Vektor-Multiplikation Die Matrix-Vektor-Multiplikation ist die Schlüsseloperation für viele rechenintensive Algorithmen. Die aufkommenden Metalloxid-resistiven schaltenden Direktzugriffsspeicher (RRAM) und das RRAM-Kreuzschienenarray haben eine vielversprechende Hardware-Realisierung der analogen Matrix-Vektor-Multiplikation mit ultrahoher Energieeffizienz gezeigt. In diesem Papier analysieren wir die Auswirkungen nicht idealer Faktoren sowohl auf Geräteebene als auch auf Schaltungsebene, einschließlich der nichtlinearen Strom-Spannungs-Beziehung von RRAM-Geräten, der Variation der Geräteherstellung und des Schreibvorgangs und des Verbindungswiderstands sowie anderer Kreuzschienenanordnung Parameter. Darüber hinaus schlagen wir einen technologischen Untersuchungsablauf für die Geräteparameterkonfiguration vor, um die Auswirkungen nicht idealer Faktoren zu überwinden und einen besseren Kompromiss zwischen Leistung, Energie und Zuverlässigkeit für jede spezifische Anwendung zu erzielen. Unsere Simulationsergebnisse einer Support Vector Machine (SVM) und eines Mixed National Institute of Standards and Technology (MNIST) Mustererkennungsdatensatzes zeigen, dass SVM auf RRAM-Crossbar-Array-Basis robust gegenüber Eingangssignalschwankungen, aber empfindlich gegenüber Tunnellückenabweichungen ist. Ein weiterer Widerstandsauflösungstest zeigt, dass ein 6-Bit-RRAM-Baustein eine Erkennungsgenauigkeit von etwa 90 % erreichen kann, was die physikalische Machbarkeit von SVM auf RRAM-Crossbar-Array-Basis anzeigt. Darüber hinaus kann der vorgeschlagene technologische Explorationsfluss eine Verbesserung der Erkennungsgenauigkeit des MNIST-Datensatzes um 10,98 % und eine Energieeinsparung von 26,4 % im Vergleich zu früheren Arbeiten erreichen. Experimentelle Ergebnisse zeigen auch, dass mehr als 84,4 % Energieeinsparung auf Kosten einer geringen Genauigkeitsreduzierung erreicht werden können.;-;-;-;https://link.springer.com/article/10.1007/s11390-016-1608-8 c83b8a8e80a2982d494c70ae29a126e2;de;;;7.4.;;;Beurteilung und Kartierung der Erdrutschanfälligkeit mit modernsten maschinellen Lerntechniken Erdrutsche stellen eine ernsthafte Gefahr für das menschliche Leben und die natürliche Umwelt dar. Hier vergleichen wir maschinelle Lernalgorithmen, einschließlich des generalisierten linearen Modells (GLM), der Mischungsdiskriminantenanalyse (MDA), des Boosted Regression Tree (BRT) und der funktionalen Diskriminanzanalyse (FDA), um die Erdrutschexponierungsregionen in der Provinz Fars zu bewerten, die ein Gebiet umfassen von etwa 7% des Iran. Zunächst wurde ein Aggregat von 179 historischen Erdrutschvorkommen aufbereitet und aufgeteilt. Anschließend wurden zehn Erdrutschkonditionierungsfaktoren (LCFs) generiert. Der Algorithmus der partiellen kleinsten Quadrate wurde verwendet, um die Signifikanz der LCFs mit Hilfe eines Trainingsdatensatzes zu bewerten, der anzeigte, dass die Entfernung von der Straße die maximale Signifikanz bei der Vorhersage von Erdrutschen hatte, gefolgt von Höhe (Al), lithologischen Einheiten und Neigungsgrad. Schließlich wurden die mit BRT, GLM, MDA und FDA generierten LSMs validiert und mit cut-off-abhängigen und unabhängigen Validierungsmaßnahmen verglichen. Die Ergebnisse der Validierungsmetriken zeigten, dass GLM und BRT eine AUC von 0,908 aufwiesen, während FDA und MDA AUCs von 0,858 bzw. 0,821 aufwiesen. Die Ergebnisse unserer Fallstudie können genutzt werden, um Strategien und Pläne zu entwickeln, um den Verlust von Menschenleben und der natürlichen Umwelt zu minimieren.;-;-;-;https://link.springer.com/article/10.1007/s11069-021-04732-7 443bf64addcdc87089f28f2ad5bf5d1f;de;;;7.4.;;;Ein hierarchisches selektives Ensemble randomisiertes neuronales Netzwerk, hybridisiert mit heuristischer Merkmalsauswahl zur Schätzung der Meereisdicke In diesem Beitrag wird ein hybrides intelligentes System entwickelt, um die Meereisdicke entlang der kanadischen Labrador-Küste abzuschätzen. Das entwickelte intelligente System besteht aus zwei Hauptteilen. Der erste Teil ist ein heuristischer Merkmalsauswahlalgorithmus, der zum Verarbeiten einer Datenbank verwendet wird, um die effektivsten Merkmale auszuwählen. Der zweite Teil ist ein hierarchisches selektives Ensemble randomisiertes neuronales Netzwerk (HSE-RNN), das verwendet wird, um eine nichtlineare Karte zwischen den ausgewählten Merkmalen und der Meereisdicke zu erstellen. Die für die Verarbeitung erforderlichen Daten wurden von zwei Sensoren gesammelt, d. h. einem bildgebenden Spektroradiometer mit mittlerer Auflösung (MODIS) und einem fortschrittlichen Mikrowellen-Scanning-Radiometer-Erde-Beobachtungssystem (AMSR-E). Um die rechnerischen Vorteile des vorgeschlagenen intelligenten Rahmens zu bewerten, werden ihm zusätzlich zu atmosphärischen und ozeanischen Variablen aus Vorhersagemodellen Helligkeitstemperaturdaten mit zwei verschiedenen Frequenzen (Niederfrequenz 6,9 GHz und Hochfrequenz 36,5 GHz) bereitgestellt. Die erhaltenen Ergebnisse demonstrieren die Rechenleistung des entwickelten intelligenten Algorithmus zur Schätzung der Meereisdicke entlang der Küste von Labrador.;-;-;-;https://link.springer.com/article/10.1007/s10489-016-0815-x ba6ff16136257f07ae65b8d3d441e244;de;;;3.2.;;;Aspekte des Netzwerkdesigns Mehrere Aspekte des Netzwerkdesigns werden genauer untersucht, darunter das Datumsproblem für Kriteriumsmatrizen, die zusätzliche Berücksichtigung von Zuverlässigkeitsbeschränkungen, die Lösung von Designproblemen über den Komplementaritätsalgorithmus und die Transformation des Designproblems dritter Ordnung für Gauß-Markov Modelle in ein Entwurfsproblem zweiter Ordnung für gemischte Modelle.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-70659-2_19 d3e81f7e4b9b7095a179fb29c13c54c4;de;;;7.4.;;;Modellauswahl für Kernel-basierte Intrusion Detection Systeme In diesem Whitepaper werden Ergebnisse zur Robustheit und Verallgemeinerungsfähigkeit einer überwachten maschinellen Lernmethode bei der Erkennung von Eindringlingen mithilfe von Netzwerk-Audit-Trails beschrieben. Wir bewerten auch den Einfluss des Kerneltyps und der Parameterwerte auf die Genauigkeit, mit der eine Support Vector Machine (SVM) die Einbruchklassifizierung durchführt. Wir zeigen, dass die Klassifizierungsgenauigkeit mit dem Kernel-Typ und den Parameterwerten variiert, sodass Einbrüche von SVMs bei entsprechend gewählten Parameterwerten mit höherer Genauigkeit und niedrigeren Fehlalarmraten erkannt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/3-211-27389-1_110 e115b7ff24d95aa81ac434b8cb68ad29;de;;;7.4.;;;Entwicklung intelligenter Multimedia-Unterrichtsressourcen für Englisch mit Hilfe von Data Mining Mit dem Aufkommen des „Internet+“ haben sich alle Lebensbereiche enorm verändert. Das „Internet + Education“ hat sich zu einem Entwicklungstrend entwickelt, der neue Möglichkeiten und Herausforderungen für das Lehren und Lernen von Englisch mit sich bringt. Über die Online-Englisch-Lernplattform können wir das Lehren und Lernen durchführen, die Lerndaten der Schüler analysieren und mithilfe der Data-Mining-Technologie die entsprechenden Modelle erstellen und den Zusammenhang zwischen den Englischprüfungen und verschiedenen Elementen untersuchen, der wichtige Werte für das Lernen der Schüler und das Lehren der Lehrer. Der Autor hat es gründlich studiert. Der praktische Unterricht hat bewiesen, dass das multimediale Lehrsystem für die Schüler leichter zu verstehen ist, ihr Denkvermögen trainiert, ihre Vorstellungskraft verbessert und die Menge der Unterrichtsinformationen bereichert. Diese Arbeit baut ein multimediales Lehrsystem mit Netzwerk auf, das die Lehrmittel bereichert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-15740-1_24 cfd89455b6d03a8159b652f3dcdd13d2;de;;;7.4.;;;Zukunft von Versicherung 4.0 und Insurtech Die Zukunft der Versicherung 4.0 wird die Versicherung 5.0 sein. Versicherung 4.0 hat Zukunft. Sobald der Ansatz von Versicherung 4.0 übernommen wurde, sollten Veränderungen zu einem dauerhaften Modus des gesamten Unternehmens werden, für alle Komponenten des Geschäftsmodells. Neue Unternehmungen, genannt Insurtech, können das Versicherungsszenario in den nächsten Jahren verändern. Eine Partnerschaft zwischen etablierten Unternehmen und Insurtech soll noch erfolgreicher werden. In diesem Kapitel werden ein Modell und die Perspektiven von Insurtech-Organisationen vorgestellt. Versicherung 4.0 lenkt ein besonderes Augenmerk auf nachhaltige Versicherungen. Nachhaltige Versicherungen werden zu einem spezifischen Engagement im Bereich Versicherung 4.0 und zu einem wesentlichen Beitrag zum Wohl der Organisation, der Gemeinschaft und der Gebiete, in denen die Organisation mit ihren Einheiten, Dienstleistungen und Vertrieb präsent ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58426-9_15 53976c20d65ea911a5c49a00ea450983;de;;;7.4.;;;Textkategorisierung zur Bewertung der Integration mehrerer Dokumente oder John Henry besucht eine Data Mine Ein entscheidender Bedarf für Schüler im digitalen Zeitalter besteht darin, zu lernen, wie komplexe und manchmal widersprüchliche Informationen über mehrere Quellen und Kontexte hinweg gesammelt, analysiert, bewertet und synthetisiert werden. Doch das Lesen wird meistens mit einzelnen Quellen gelehrt. In diesem Artikel untersuchen wir Techniken zur Analyse von Schüleraufsätzen, um Lehrern Feedback zu geben, wie gut ihre Schüler mit mehreren Texten umgehen. Wir vergleichen die Leistung eines einfachen Matchers für reguläre Ausdrücke mit der Latent Semantic Analysis und mit Support Vector Machines, einem Ansatz für maschinelles Lernen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21869-9_17 24ae71652e54753414ae086ebf33ab0a;de;;;7.4.;;;Entwicklung und Anwendung künstlicher Intelligenz beim unbemannten Fahren vor dem Hintergrund der drahtlosen Kommunikation Mit der kontinuierlichen Entwicklung der modernen Wirtschaft Chinas und der Popularisierung der drahtlosen Kommunikationstechnologie entwickelt sich die drahtlose Kommunikationstechnologie weiter in Richtung Digitalisierung mit dem heutigen Informationszeitalter als Hintergrund. Die rasante Entwicklung der Künstlichen Intelligenz-Technologie ist in alle Bereiche des gesellschaftlichen Lebens vorgedrungen und die Querentwicklung von Künstlicher Intelligenz und Automobilforschung hat die Transportbranche heute revolutioniert. Die Entwicklung der unbemannten Fahrtechnik bietet ausreichend Entwicklungsraum für künstliche Intelligenz. Die unbemannte Fahrtechnologie ist eine neue Richtung für die Entwicklung der Automobilindustrie und hat zum Ziel, die hohen Anforderungen der Menschen an Sicherheit, Komfort und Zuverlässigkeit des Autofahrens zu erfüllen. Die Technologie der künstlichen Intelligenz wird häufig in der Verarbeitung natürlicher Sprache, der Spracherkennung, der Sensorfusion und anderen Bereichen eingesetzt und erreicht eine bahnbrechende Entwicklung im Bereich des unbemannten Fahrens. Automatisierungsunternehmen, Netzwerkunternehmen und große Automobilhersteller erforschen aktiv den Einsatz von künstlicher Intelligenz, um das ultimative unbemannte Fahren zu erreichen. Dieser Artikel erarbeitet und analysiert die Technologie der künstlichen Intelligenz im unbemannten Fahren vor dem Hintergrund der drahtlosen Kommunikation und zeigt die zukünftige Entwicklung des unbemannten Fahrens und die Anwendung der Technologie der künstlichen Intelligenz im unbemannten Fahren auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-79200-8_77 a97ab270ba399a3bc084784478f17e0f;de;;;7.4.;;;Lokal optimiertes Hashing für die Suche nach dem nächsten Nachbarn Die schnelle Suche nach nächstgelegenen Nachbarn (NNS) wird immer wichtiger, um riesige Datenmengen zu nutzen. Neuere Arbeiten zeigen, dass Hash-Lernen für NNS in Bezug auf Rechenzeit und -raum effektiv ist. Bestehende Hash-Lernverfahren versuchen, benachbarte Abtastwerte in ähnliche Binärcodes umzuwandeln, und ihre Hash-Funktionen werden global auf die Daten-Mannigfaltigkeit optimiert. Solche Hash-Funktionen haben jedoch oft eine geringe Auflösung von Binärcodes, jeder Bucket, ein Satz von Samples mit demselben Binärcode, kann bei diesen Methoden eine große Anzahl von Samples enthalten, was es unmöglich macht, die nächsten Nachbarn einer bestimmten Abfrage mit hoher Präzision. Als Ergebnis erfordern existierende Verfahren lange Binärcodes für präzises NNS. In diesem Papier schlagen wir vor;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-18032-8_39 8b4e5049578dc6d48c22ec9de52179d4;de;;;7.4.;;;Wissensextraktion von Twitter zu Infektionskrankheiten auf Spanisch Die Infodemiologie besteht in der Extraktion und Analyse von im Internet gesammelten Daten zur öffentlichen Gesundheit. Mit der Infodemiologie lassen sich unter anderem Trends in sozialen Netzwerken analysieren, um die Prävalenz von Ausbrüchen von Infektionskrankheiten in bestimmten Regionen zu bestimmen. Diese wertvollen Daten ermöglichen ein besseres Verständnis der Ausbreitung von Infektionskrankheiten sowie eine Vorstellung von der gesellschaftlichen Wahrnehmung der Bürger gegenüber den Strategien der öffentlichen Gesundheitseinrichtungen. In dieser Arbeit wenden wir Natural Language Processing-Techniken an, um die Auswirkungen von Ausbrüchen von Infektionskrankheiten wie Zika, Dengue oder Chikungunya aus einem zusammengestellten Datensatz mit auf Spanisch verfassten Tweets zu bestimmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-62015-8_4 24ae4ad634213dedd358af39745d8ccf;de;;;7.4.;;;Bilevel-Optimierung von Regularisierungs-Hyperparametern im maschinellen Lernen Die meisten der wichtigsten Modelle des maschinellen Lernens (ML) sind mit Parametern ausgestattet, denen ein Präfix vorangestellt werden muss. Solche Parameter werden oft Hyperparameter genannt. Es ist unnötig zu erwähnen, dass die Vorhersageleistung von ML-Modellen maßgeblich von der Wahl der Hyperparameter abhängt. Daher wurde die Etablierung einer Methodik zur richtigen Abstimmung von Hyperparametern als eine der wichtigsten Angelegenheiten in ML erkannt. In diesem Kapitel stellen wir die Rolle der Bilevel-Optimierung im Zusammenhang mit der Auswahl von Hyperparametern in Regressions- und Klassifikationsproblemen vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-52119-6_6 1e518b1e5397044fa704840890e14d1d;de;;;7.4.;;;Neuronale Datenanalyse des Gehirns mit Methoden zur Merkmalsauswahl und -klassifizierung des maschinellen Lernens Das Elektroenzephalogramm (EEG) ist ein leistungsstarkes Instrument, um riesige Datenmengen über die menschliche Gehirnaktivität zu sammeln. Ein typisches EEG-Experiment kann jede Millisekunde eine zweidimensionale Datenmatrix der menschlichen neuronalen Aktivität erzeugen, die mit einer räumlichen Auflösung von wenigen Zentimetern auf die Kopfoberfläche projiziert wird. Wie in anderen modernen Erfahrungswissenschaften hat die EEG-Instrumentierung zu einer Datenflut und einem entsprechenden Bedarf an neuen Datenanalysemethoden geführt. Dieser Artikel fasst die Ergebnisse der Anwendung von Methoden des überwachten maschinellen Lernens (ML) auf das Problem der Klassifizierung von emotionalen Zuständen von Menschen basierend auf EEG zusammen. Insbesondere vergleichen wir sechs ML-Algorithmen, um ereignisbezogene Potenziale zu unterscheiden, die mit der Verarbeitung unterschiedlicher emotionaler Valenzen verbunden sind und gesammelt wurden, während die Probanden Bilder mit hoher Erregung mit positivem oder negativem emotionalem Inhalt sahen. Eine 98%ige Genauigkeit der intersubjektiven Klassifikation basierend auf der Mehrheit der Stimmen zwischen allen Klassifikatoren ist die wichtigste Errungenschaft dieses Papiers, das frühere veröffentlichte Ergebnisse übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11071-4_12 21ad207f733c49fa854a40ce06aeec37;de;;;7.4.;;;Klassenungleichgewicht bei der Vorhersage von Demenz aus neuropsychologischen Daten Das Klassenungleichgewicht beeinflusst die medizinische Diagnose, da die Zahl der Krankheitsfälle oft in der Überzahl ist. Wenn es schwerwiegend ist, können Lernalgorithmen die selteneren Klassen nicht abrufen und allgemeine Bewertungsmetriken werden nicht aussagekräftig. In dieser Arbeit wird das Klassenungleichgewicht anhand neuropsychologischer Daten angegangen, mit dem Ziel, die Alzheimer-Krankheit (AD) von der leichten kognitiven Beeinträchtigung (MCI) zu unterscheiden und die Umwandlung von MCI zu AD vorherzusagen. Die Auswirkung des Ungleichgewichts auf vier Lernalgorithmen wird durch die Anwendung von Bagging, Bayes-Risikominimierung und MetaCost untersucht. Einfache Entscheidungsbäume wurden immer übertroffen, was auf eine Anfälligkeit für das Ungleichgewicht hinweist. Der naive Bayes-Klassifikator war robust, litt jedoch unter einer Verzerrung, die durch Risikominimierung angepasst wurde. Diese Strategie übertraf alle anderen Kombinationen von Klassifikatoren und Meta-Learning-/Ensemble-Methoden. Auch der baumaugmentierte naive Bayes-Klassifikator profitierte von einer Anpassung der Entscheidungsschwelle. In den nahezu ausgeglichenen Datensätzen wurde es durch Bagging verbessert, was darauf hindeutet, dass die Baumstruktur für die Attributabhängigkeiten zu stark war. Support Vector Machines waren robust, da ihre einfache Version gute Ergebnisse erzielte und nie übertroffen wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40669-0_13 ecbc062619e4ee61cc9dc409dcf7034e;de;;;7.4.;;;Basketball-Analyse. Data Mining zum Erlangen von Leistungen Die Entscheidungen der Entscheidungsträger in einer Basketballmannschaft sind nicht auf die während der Spiele anzuwendenden Strategien beschränkt. Die wichtigsten sind außerhalb des Feldes und betreffen die Teamzusammensetzung und die Gewinnung talentierter und produktiver Spieler, auf die sich das Team verlassen kann, um sein Spielniveau zu erhöhen. In diesem Papier schlagen wir vor, Data-Mining-Aufgaben zu verwenden, um Entscheidungsträgern zu helfen, angemessene Entscheidungen zu treffen, die zur Verbesserung der Leistung ihrer Spieler und ihres Teams führen. Aufgaben wie Clustering, Klassifizierung und Regression werden verwendet, um Schwächen eines Teams zu erkennen, die besten Spieler, die helfen können, diese Schwächen zu überwinden, die Leistung und Gehälter von Spielern vorherzusagen. Diese werden auf dem NBA-Datensatz durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-89743-1_2 d104966a38c1ddf1ab557c40aca5305b;de;;;7.4.;;;Analysemethoden für die terminologische Struktur eines Fachgebiets Dieser Beitrag schlägt einen automatisierten Expertenansatz zur Analyse und Synthese der terminologischen Struktur eines Fachgebiets vor. Ein wesentlicher Unterschied besteht darin, dass das entworfene Verfahren formale Analyseoperationen verwendet, um numerische Merkmale für die terminologische Struktur eines untersuchten Fachgebiets zu erhalten. Die grundlegenden Fähigkeiten des entwickelten Ansatzes werden durch den Themenbereich Allgemeine Methodik veranschaulicht.;-;-;-;https://link.springer.com/article/10.1134/S0005117914120133 ddcf2b5eedda454594b91c021f766c45;de;;;7.4.;;;Lokaler konformer Prädiktor für Clustering für unausgeglichene Datenklassifizierung Der kürzlich entwickelte Conformal Predictor (CP) kann eine kalibrierte Konfidenz für Vorhersagen bereitstellen, die über die Kapazität herkömmlicher Vorhersagen hinausgeht. CP funktioniert jedoch bei ausgeglichenen Daten und versagt bei unausgeglichenen Daten. Um dieses Problem zu handhaben, wird ein Local Clustering Conformal Predictor (LCCP) vorgeschlagen, der eine zweistufige Partition in den Rahmen von CP einfügt. In der Partition der ersten Ebene wird der gesamte unausgeglichene Trainingsdatensatz in einige unterteilt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41142-7_43 19badec867f1c9710bc3693e98bee235;de;;;7.4.;;;Ein grafikbasiertes, halbüberwachtes System zur Erkennung von Kreditkartenbetrug Die weltweiten Verluste durch Kartenbetrug beliefen sich im Jahr 2014 auf 16,31 Milliarden US-Dollar [18]. Um diesen riesigen Betrag zurückzuerlangen, werden automatisierte Betrugserkennungssysteme (FDS) verwendet, um eine Transaktion abzulehnen, bevor sie genehmigt wird. In diesem Artikel gehen wir von einem graphenbasierten FDS namens APATE aus [28]: Dieser Algorithmus verwendet einen kollektiven Inferenzalgorithmus, um betrügerischen Einfluss durch ein Netzwerk zu verbreiten, indem er eine begrenzte Menge bestätigter betrügerischer Transaktionen verwendet. Wir schlagen mehrere Verbesserungen aus der Literatur zur Netzwerkdatenanalyse [16] und dem semi-überwachten Lernen [9] für diesen Ansatz vor. Darüber hinaus haben wir APATE neu gestaltet, um der Realität im E-Commerce-Bereich gerecht zu werden. Diese Verbesserungen haben einen großen Einfluss auf die Leistung und multiplizieren Precision@100 mit drei, sowohl bei der Vorhersage betrügerischer Karten als auch bei Transaktionen. Diese neue Methode wird anhand eines dreimonatigen realen E-Commerce-Kreditkartentransaktionsdatensatzes bewertet, der von einem großen Kreditkartenherausgeber erhalten wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-50901-3_57 90f24fcbd01cf0ddd5b413810092ca9a;de;;;7.4.;;;Zeitreihen-Maschinelles Lernen: Implementierung von ARIMA und Hybrid-ARIMA-ANN für die Modellierung von Stromprognosen Die Ziele dieses Papiers sind die Entwicklung eines linearen und nichtlinearen Modells in Zeitreihen zur Vorhersage des Stromverbrauchs der niedrigsten Haushaltskategorie in Ost-Java, Indonesien. Die installierte Leistung in der niedrigsten Haushaltskundenkategorie hat unterschiedliche Leistungen, d. h. 450 VA, 900 VA, 1300 VA und 2200 VA. ARIMA-Modelle sind eine Familie von linearen Modellen für die Zeitreihenanalyse und -prognose für stationäre und nichtstationäre, saisonale und nicht-saisonale Zeitreihendaten. Ein nichtlineares Zeitreihenmodell wird von hybrid ARIMA-ANN vorgeschlagen, einer radialen Basisfunktion, die orthogonale kleinste Quadrate verwendet. Die Kriterien zur Auswahl des besten Prognosemodells sind der mittlere absolute prozentuale Fehler und der mittlere quadratische Fehler. Das beste ARIMA-Modell sind ARIMA ([1, 2], 1, 0) (0, 1, 0);-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7242-0_11 16eb48f15d299fca139e5015d92790ea;de;;;7.4.;;;Zwei neuartige ELM-basierte Stacking-Deep-Modelle mit Fokus auf Bilderkennung Extreme Learning Machine (ELM) und ihre Varianten sind im Bereich der Objekterkennung und anderer komplexer Klassifikationsaufgaben weit verbreitet. Herkömmliche Deep-Learning-Architekturen wie das Convolutional Neural Network (CNN) sind in der Lage, High-Level-Features zu extrahieren, die für die Modelle der Schlüssel zum Treffen der richtigen Entscheidungen sind. Traditionelle tiefe Architekturen sind jedoch mit der Lösung eines schwierigen, nicht konvexen Optimierungsproblems konfrontiert, was ein zeitaufwändiger Prozess ist. In diesem Papier schlagen wir zwei hierarchische Modelle vor, d. h. Random Recursive Constrained ELM (R;-;-;-;https://link.springer.com/article/10.1007/s10489-019-01584-4 20146f01accfc7ce55a6d83e3a7f8a82;de;;;7.4.;;;Optimale Merkmalsauswahl von technischen Indikatoren und Bestandsprognosen mit maschineller Lerntechnik Der kurzfristige Handel ist aufgrund der schwankenden Nachfrage und des Angebots an der Börse eine schwierige Aufgabe. Diese Nachfrage und das Angebot spiegeln sich in den Aktienkursen wider. Die Aktienkurse können mit Hilfe von technischen Indikatoren vorhergesagt werden. Die meisten der vorhandenen Literatur betrachteten die begrenzten technischen Indikatoren zur Messung kurzfristiger Preise. Wir haben 33 verschiedene Kombinationen von technischen Indikatoren in Betracht gezogen, um die Aktienkurse vorherzusagen. Das Papier hat zwei Ziele, erstens die Auswahl der technischen Indikatoren und die Identifizierung der relevanten technischen Indikatoren unter Verwendung der Boruta-Merkmalsauswahltechnik. Das zweite Ziel ist ein genaues Vorhersagemodell für Aktien. Um Aktienkurse vorherzusagen, haben wir ein ANN (Artificial Neural Network)-Regressionsvorhersagemodell vorgeschlagen und die Modellleistung wird anhand der Metriken Mean Absolute Error (MAE) und Root Mean Square Error (RMSE) bewertet. Die experimentellen Ergebnisse sind besser als die der bestehenden Methode, indem die Fehlerrate bei der Vorhersage auf 12% gesenkt wird. Wir haben die Daten der National Stock Exchange, India (NSE) für das Experiment verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-8300-7_22 d0c04c75211a80b1b43b7a5e15a397d1;de;;;7.4.;;;Lösen eines hartnäckigen stochastischen teilweisen Rückstandsbestandsproblems mit maschinellem Lernen Dieses Papier befasst sich mit der Widerspenstigkeit von Auftragsüberschneidungen bei einem Bestandsproblem mit teilweisem Rückstand. Hier wird das Artificial Neural Network (ANN), ein maschineller Lernalgorithmus, verwendet, um ein stochastisches Inventarproblem zu lösen. Die Ergebnisse zur Untersuchung des Order Crossovers mit dem Backpropagation-ANN zeigen eine bemerkenswerte Reduzierung der Lagerkosten im Vergleich zur linearen Regressionsmethode. Eine numerische Studie wird durchgeführt, um die Ergebnisse zu demonstrieren. Dieses Papier liefert weitere Einblicke in die Effektivität des maschinellen Lernens im Vergleich zur Regression.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-8300-7_20 98a560de94e46b732fabe2e7dba3760b;de;;;7.4.;;;Forschung zur Anwendung von Data Mining basierend auf einem verbesserten APRIORI-Algorithmus im Immatrikulationsmanagement an Hochschulen und Universitäten Die Qualität der Hochschulbildung ist das wichtigste Kriterium zur Messung des Hochschulniveaus. Die Immatrikulation von Colleges und Universitäten hängt mit dem Überleben und der Entwicklung von Colleges und Universitäten zusammen. Dies ist eines der wichtigen Verbindungen zur Verbesserung der Qualität der Talentausbildung an Hochschulen und Universitäten, das eine der wichtigen Verbindungen zur Verbesserung der Qualität der Talentausbildung an Hochschulen und Universitäten ist. Data Mining ist ein Prozess zum Extrahieren potenziell nützlicher Informationen und Wissen aus großen, unvollständigen, verrauschten, unscharfen und zufälligen Daten, auch bekannt als Knowledge Discovery in Database (KDD). Laut dem Mining-Clustering-Algorithmus ist er im Bereich des Data Mining weit verbreitet, der Algorithmus hat jedoch auch einige Einschränkungen. Beim Data Mining kann es einige nutzlose Verzweigungen geben, die den Algorithmus ineffizient machen und zu Fehlern führen können. Die Verbesserung des APRIORI-Algorithmus wird auf die College-Einschreibungsarbeit angewendet, die die College-Zulassungsarbeiter machen kann. Sie kann sich nicht mehr nur auf Erfahrung stützen, sondern kann auf Daten basieren, die Einschreibungsarbeit sachdienlicher, wissenschaftlicher und sinnvoller gestalten, um die Verbesserung der Qualität der Talentförderung und die allgemeine Wettbewerbsfähigkeit von Hochschulen und Universitäten zu fördern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3648-5_136 02efb344ae1e377233962ce3e00063c9;de;;;7.4.;;;Vorhersage der Ergebnisse von Crowdfunding-Kampagnen mit textlichen, visuellen und sprachlichen Signalen Dieses Papier stellt einen neuronalen Netzwerk- und Natural Language Processing-Ansatz vor, um das Ergebnis von Crowdfunding-Startup-Pitches mithilfe von Text-, Sprach- und Video-Metadaten in 20.188 Crowdfunding-Kampagnen vorherzusagen. Unsere Studie unterstreicht die Notwendigkeit, Crowdfunding aus der Perspektive eines Investors zu verstehen. Sprachstile in Crowdfunding-Kampagnen, die Begeisterung auslösen oder auf Inklusion abzielen, sind bessere Prädiktoren für den Kampagnenerfolg als Determinanten auf Unternehmensebene. Im Gegenteil, höhere Unsicherheitswahrnehmungen über den Stand der Produktentwicklung können die Bewertungen neuer Produkte erheblich reduzieren und die Kaufabsichten potenzieller Geldgeber verringern. Unsere Ergebnisse unterstreichen, dass eine positive psychologische Sprache in Umgebungen hervorsticht, in denen objektive Informationen knapp sind und in denen Anlagepräferenzen geschmacksorientiert sind. Die Verwendung einer enthusiastischen Sprache oder das Zeigen des Produkts in Aktion kann die Aufmerksamkeit einer Person auf sich ziehen. Mit allen technologie- und designbezogenen Crowdfunding-Kampagnen, die auf Kickstarter gestartet wurden, unterstreicht unsere Studie die Notwendigkeit, die Erwartungen potenzieller Verbraucher mit der Visualisierung und Präsentation der Crowdfunding-Kampagne in Einklang zu bringen.;-;-;-;https://link.springer.com/article/10.1007/s11187-019-00218-w 557e3506b5f4fa0f11303971f99b6794;de;;;7.4.;;;Google-Trends für Data-Mining. Studium der tschechischen Städte Ausgewählte Websuchmaschinen liefern Statistiken über die Nutzeraktivitäten nach Themen, Zeit und Ort. Die Nutzung erfordert gut vorbereitete Phrasen und Suchbereich. Das von Google Trends bereitgestellte System von Etalons für Kalibrierungssuchfrequenzen wird vorgeschlagen. Es wurde für die Auswertung der Suche nach tschechischen Städtenamen verwendet. Die Regressionsanalyse zeigte eine hohe Korrelation mit der Bevölkerung. Hervorgehobene Anomalien wurden untersucht. Die K-Means-Clusteranalyse ermöglichte eine Kategorisierung ausgewählter Städte. Die geografische Netzwerkanalyse von Beziehungen zwischen Städten leidet unter der geringen Qualität der von Google bereitgestellten Standorte. Die Diskussion umfasst einen Überblick über die wichtigsten Vor- und Nachteile von Google Trends und gibt Empfehlungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40495-5_11 fcafae29519736846ec7ed9d9fbee7dc;de;;;7.4.;;;Ein A-Team-Ansatz zum Erlernen von Klassifikatoren aus verteilten Datenquellen Distributed Data Mining ist ein wichtiges Forschungsgebiet. Die Aufgabe des verteilten Data Mining besteht darin, Daten aus unterschiedlichen Quellen zu analysieren. Die Lösung solcher Aufgaben erfordert einen speziellen Ansatz und spezielle Tools, die sich von denen unterscheiden, die dem Lernen aus Daten dienen, die sich in einer einzigen Datenbank befinden. Dieses Papier präsentiert einen Ansatz zum Lernen von Klassifikatoren aus verteilten Daten basierend auf Datenreduktion (der Prototypenauswahl) auf lokaler Ebene. Das Problem wird durch die Anwendung des A-Team-Konzepts gelöst, das unter Verwendung der JABAT-Umgebung implementiert wurde und die Implementierung von Teams mit mehreren Agenten unterstützt. Das Papier enthält einen allgemeinen Überblick über das JABAT, die Problemformulierung und einige technische Details der vorgeschlagenen Implementierung. Schließlich werden die Ergebnisse des rechnerischen Experiments gezeigt, die den Ansatz validieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78582-8_54 648463127a68865066aab6b69899da21;de;;;7.4.;;;Radikal-verbesserte Einbettung chinesischer Schriftzeichen In diesem Artikel stellen wir eine Methode vor, um Radikal zum Erlernen der Einbettung chinesischer Schriftzeichen zu nutzen. Radikal ist eine semantische und phonetische Komponente des chinesischen Schriftzeichens. Es spielt eine wichtige Rolle für die Modellierung der Zeichensemantik, da Zeichen mit demselben Radikal normalerweise eine ähnliche semantische Bedeutung und grammatikalische Verwendung haben. Jedoch modellieren die meisten existierenden Algorithmen zum Einbetten von Zeichen (oder Wörtern) typischerweise nur die syntaktischen Kontexte, ignorieren jedoch die radikalen Informationen. Dadurch erfassen sie nicht explizit die inneren semantischen Verbindungen von Zeichen über Radikale in den Einbettungsraum von Zeichen. Um dieses Problem zu lösen, schlagen wir vor, die radikalen Informationen zur Verbesserung der Einbettung chinesischer Schriftzeichen zu integrieren. Wir präsentieren eine dedizierte neuronale Architektur mit einer hybriden Verlustfunktion und integrieren die radikalen Informationen über Softmax in jedes Zeichen. Um die Wirksamkeit der gelernten Zeicheneinbettung zu überprüfen, wenden wir sie auf die chinesische Wortsegmentierung an. Experimentergebnisse an zwei Benchmark-Datensätzen zeigen, dass unsere radikal-erweiterte Methode zwei weit verbreitete kontextbasierte Einbettungslernalgorithmen übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12640-1_34 e8fdd06c65af9d49d2992755a9b87d16;de;;;7.4.;;;Ein Fuzzy Semi-Supervised Support Vector Machines-Ansatz zur Hypertext-Kategorisierung Hypertext-/Textdomänen zeichnen sich durch mehrere Zehn- oder Hunderttausende von Merkmalen aus. Dies stellt eine Herausforderung für überwachte Lernalgorithmen dar, die unter Verwendung einer kleinen Menge verfügbarer Trainingsbeispiele genaue Klassifikatoren lernen müssen. In diesem Beitrag wird ein Fuzzy Semi-Supervised Support Vector Machines (FSS-SVM)-Algorithmus vorgeschlagen. Es versucht, die Notwendigkeit eines großen beschrifteten Trainingssatzes zu überwinden. Dazu verwendet es sowohl gekennzeichnete als auch nicht gekennzeichnete Daten für das Training. Es moduliert auch die Wirkung der nicht gekennzeichneten Daten im Lernprozess. Empirische Auswertungen mit zwei realen Hypertext-Datensätzen zeigten, dass FSS-SVM durch die zusätzliche Verwendung unmarkierter Daten weniger markierte Trainingsdaten benötigt als seine überwachte Version, Support Vector Machines, um die gleiche Klassifikationsleistung zu erreichen. Auch die in den Lernprozess eingearbeiteten Fuzzy-Zugehörigkeitswerte der unmarkierten Trainingsmuster haben die Klassifikationsleistung im Vergleich zu seiner knackigen Variante positiv beeinflusst.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-09695-7_10 af454e3a10365e7e67a8564e2617f385;de;;;7.4.;;;Einführung in Chatbots Willkommen beim Buch Build Better Chatbots. Erinnern Sie sich an das letzte Mal, als Sie eine gebührenfreie Nummer für Support oder Kundendienst anrufen mussten? Erinnern Sie sich an die lange Wartezeit am Telefon, bevor Sie überhaupt über Ihr Problem sprechen konnten und dann bemerkten, dass Sie irgendwie die falsche Schaltflächenoption gewählt hatten, die Sie in die falsche Abteilung führte? Wir haben diese Erfahrung gemacht, und aus diesem Grund haben wir einen Chatbot für Unternehmen entwickelt, um Kundenfragen einfacher und in einer Benutzeroberfläche zu beantworten, an die sich viele Menschen, insbesondere Millennials, gewöhnen: Chat. In diesem Buch führen wir Sie durch die Geschichte der Chatbots, einschließlich ihrer Erfindung und ihrer Popularität. Wir zeigen auch, wie Sie einen Chatbot für Ihr nächstes Projekt erstellen. Nach Abschluss dieses Buchs wissen Sie, wie Sie Anwendungen mit einer Chat-Schnittstelle auf Plattformen wie Facebook Messenger, Skype usw. bereitstellen, die automatisch auf Benutzeranfragen ohne menschliches Eingreifen antworten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-3111-1_1 af59dae8e2735724ac815627b683835f;de;;;7.4.;;;Künstliche Intelligenz, das Randproblem und die Inkonsistenz Die Wahrscheinlichkeitstheorie hat in der KI durch die Entwicklung effektiver Rechenmethoden zum Speichern und Verarbeiten von Wahrscheinlichkeitsverteilungen hoher Dimensionen Ansehen gewonnen. Viele dieser Methoden gehören zum Bereich der sogenannten;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-5532-8_27 9f030295ee212496f5feba21dbb65031;de;;;7.4.;;;Ereignisgesteuerte Aktienkursvorhersage Die Börsenkursanalyse bzw. die Vorhersage der Aktienkurse ist aufgrund der konjunkturbedingt schwankenden Kurse der Aktien für ein bestimmtes Unternehmen seit jeher ein klassisches Problem. Dieses Problem der Börsenkursanalyse/-vorhersage hat Forscher aus verschiedenen Bereichen wie Statistik, maschinelles Lernen (ML), Deep Learning (DL) usw. angezogen. Die Analyse oder Vorhersage der Aktienkurse wird Einzelpersonen/Kunden beim Kauf/Verkauf von Aktien helfen eines bestimmten Unternehmens, um Gewinn zu erzielen. Ziel des vorgeschlagenen Papiers ist es, die zukünftigen Aktienkurse eines Unternehmens genau vorherzusagen. Die Preisvorhersage kann durch verschiedene Techniken oder Methoden des maschinellen Lernens und des Deep Learning erfolgen. In diesem Papier schlagen wir einen hybriden Ansatz aus Deep Learning Neuronal Network Long Short-Term Memory (LSTM) mit Sentimentanalyse vor, um die Schwankungen der Aktienkurse vorherzusagen. Zuerst wenden wir eine Sentiment-Analyse auf die verschiedenen Unternehmensnachrichten und Marktstimmungen an und erhalten die Werte. Dann werden die Sentiment-Ergebnisse mit den LSTM-Funktionen kombiniert und die Ergebnisse beobachtet. Wir haben die Kursschwankungen der Aktien für einen Tag und über einen langen Zeitraum von 30 Tagen vorhergesagt. Die Beobachtung, die wir erhalten haben, ist sehr hilfreich, um eine Vorstellung von den zukünftigen Kursschwankungen eines bestimmten Unternehmens zu bekommen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7804-5_7 3125f1047a01a2f9974512ceab251719;de;;;7.4.;;;Resampling vs. Reweighting zur Förderung eines relational schwachen Lernenden Boosting ist eine leistungsstarke und gründlich untersuchte Lerntechnik, die die Genauigkeit eines bestimmten Lernalgorithmus durch Gewichtung von Trainingsbeispielen und -hypothesen verbessert. Mehrere Autoren trugen mit theoretischen und experimentellen Ergebnissen zum allgemeinen Boosting-Learning-Framework bei, hauptsächlich im Rahmen des propositionalen Lernsystems. In einer früheren Arbeit haben wir die Anwendbarkeit des AdaBoost.M1-Algorithmus von Freund und Schapire auf einen logisch schwachen Lerner erster Ordnung untersucht. In diesem Papier erweitern wir den schwachen Lerner, um direkt mit gewichteten Instanzen umzugehen, und vergleichen zwei Möglichkeiten, einen solchen schwachen Lerner zu verstärken: Instanzen in jeder Runde neu zu sampeln und gewichtete Instanzen zu verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45411-X_9 f1a7011096bc6972b94e382067b28ccc;de;;;7.4.;;;Verwenden von Text für die Vorhersage Sobald Text in numerische Vektoren umgewandelt wurde, können automatisierte Vorhersagemethoden angewendet werden. Predictive Text Mining wird im Sinne einer empirischen Analyse beschrieben, die nach Wortmustern sucht, insbesondere zur Dokumentenklassifizierung. Grundlegende Methoden des maschinellen Lernens aus Beispieldaten werden skizziert, darunter ähnlichkeitsbasierte Methoden, Entscheidungsregeln und -bäume, probabilistische Methoden und lineare Methoden. Bewertungstechniken werden untersucht, um die zukünftige Leistung abzuschätzen und die empirischen Ergebnisse zu maximieren. Fehler und Fallstricke bei der Big-Data-Auswertung werden berücksichtigt und Graphenmodelle für soziale Netzwerke vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-6750-1_3 691b9425d32119e20828edc39dd68fb9;de;;;7.4.;;;Absichtsbasiertes Netzwerkmanagement Im Vergleich zu herkömmlichen Netzwerken, die Befehlszeilenschnittstellen verwenden, abstrahiert Absichtsbasiertes Netzwerken die Netzwerkkomplexität und verbessert die Automatisierung, indem manuelle Konfigurationen eliminiert werden. Es ermöglicht einem Benutzer oder Administrator, eine einfache Anfrage – unter Verwendung natürlicher Sprache – zu senden, um das physische Netzwerk zu planen, zu entwerfen und zu implementieren/betrieben, was die Netzwerkverfügbarkeit und -agilität verbessern kann. Ein IT-Administrator kann beispielsweise eine verbesserte Sprachqualität für seine Voice-over-IP-Anwendung anfordern und das Netzwerk kann antworten. Für die absichtsbasierte Vernetzung nimmt das Übersetzungs- und Validierungssystem eine übergeordnete Geschäftsrichtlinie (Was) als Eingabe von Endbenutzern und wandelt sie durch die Technologie zum Verstehen natürlicher Sprache in die erforderliche Netzwerkkonfiguration (Wie) um. In diesem Kapitel konzentrieren wir uns darauf, wie die Technologie der künstlichen Intelligenz beim Verstehen natürlicher Sprache in Übersetzungs- und Validierungssystemen eingesetzt werden kann. Wir schlagen zunächst ein effektives Modell für die Ähnlichkeitsmetriken englischer Sätze vor. In dem Modell verwenden wir zuerst die Worteinbettung und das Convolutional Neural Network (CNN), um einen Satzvektor zu erzeugen, und nutzen dann die Informationen des Satzvektorpaares, um die Bewertung der Satzähnlichkeit zu berechnen. Dann schlagen wir die SM-CHI-Merkmalsauswahlmethode vor, die auf der üblichen Methode der chinesischen Textklassifikation basiert. Außerdem werden die verbesserte CHI-Formel und das Zusammenführen von Synonymen verwendet, um Merkmalswörter auszuwählen, so dass die Genauigkeit der Klassifizierung verbessert und die Merkmalsdimension verringert werden kann. Schließlich präsentieren wir einen neuartigen Ansatz, der sowohl die semantischen als auch die statistischen Informationen berücksichtigt, um die Genauigkeit der Textklassifikation zu verbessern. Der vorgeschlagene Ansatz berechnet semantische Informationen basierend auf HowNet und statistische Informationen basierend auf einer Kernel-Funktion mit klassenbasierter Gewichtung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-15028-0_6 d41887fbfc7167123fa907976e83eeda;de;;;7.4.;;;Textkategorisierung basierend auf einer neuen Klassifizierung nach Schwellenwerten Die automatisierte Textkategorisierung versucht, eine effektive Lösung für das beispiellose Wachstum von Textdaten von heute zu bieten. Aufgrund seiner Fähigkeit, eine riesige und vielfältige Menge an Texten zu organisieren, aus denen unschätzbare Erkenntnisse gewonnen werden können, ist es zu einem aufstrebenden Untersuchungsgebiet für die Forschungsgemeinschaft geworden. Obwohl mehrere mathematische Ansätze untersucht wurden, um die Hauptkomponenten eines Textkategorisierungssystems zu formalisieren: Textdarstellung, Merkmalsextraktion und Klassifikationsprozess, stoßen solche Systeme sowohl aufgrund der Komplexität von Textdatenbanken als auch aufgrund der hohen Dimensionalität von Textdarstellungen. In diesem Sinne stellt dieser Beitrag einen alternativen Weg zur Bearbeitung dieses Problems vor. Zunächst wird der ursprüngliche Satz von Merkmalen mithilfe einer neu vorgeschlagenen Metrik reduziert. Und zweitens besteht der zusätzliche Vorteil des vorgeschlagenen Ansatzes darin, dass er einen Text automatisch klassifiziert, ohne notwendigerweise alle seine Merkmale zu verarbeiten. Darüber hinaus können mit diesem Ansatz einige Standardvorbehandlungen wie das Stemming aufgegeben werden. Die experimentellen Ergebnisse zeigten, dass diese neue Methode der Textkategorisierung den aktuellen Methoden überlegen ist. Infolgedessen betrugen die erhaltenen f-Maße in den Nachrichtendatensätzen der 20 Newsgroups, BBC News, Reuters und AG jeweils 95,06 %, 98,21 %, 88,44 %, 95,70 %, während Standardansätze deutlich niedrigere Werte lieferten.;-;-;-;https://link.springer.com/article/10.1007/s13748-021-00247-1 db502426478523029d8a4ccff6f99a86;de;;;7.4.;;;Ein neuartiger Klassifikationsalgorithmus für Rauschdaten Es ist eine große Herausforderung, Erkenntnisse aus Lärmdaten zu gewinnen. Die meisten früheren Arbeiten konzentrierten sich auf die Datenbereinigung und die Korrektur zugunsten des nachfolgenden Mining-Prozesses. Wenn die Trainingsdaten Rauschen enthalten, wurde die Klassifizierungsgenauigkeit dramatisch beeinträchtigt. In diesem Beitrag präsentieren wir einen neuartigen Klassifikationsalgorithmus namens;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31020-1_23 6d7327f9bb1ae20c2ef8b55f25da306e;de;;;7.4.;;;Konzepte variabler Genauigkeit und ihre Anwendungen für die Abfrageerweiterung Eine der wichtigsten Aufgaben von Suchmaschinen besteht darin, mehr zusätzliche relevante Webseiten zu präsentieren und die Seiten zu reduzieren, die für die Benutzer unbrauchbar sind. Die Abfrageerweiterung ist eine effiziente Methode zur Bewältigung dieser Aufgabe. In diesem Beitrag wird zunächst ein Konzept mit variabler Präzision (VPC) basierend auf der formalen Konzeptanalyse (FCA) vorgeschlagen und seine Eigenschaften diskutiert. Dann wird eine neue Strategie zum Erweitern von Abfragebegriffen basierend auf VPC vorgeschlagen. Gemäß dieser neuen Strategie können Benutzer die Abfragegenauigkeit gemäß ihren Interessen einstellen und erhalten die zusätzlichen relevanten Webseiten. Schließlich zeigen Anwendungsergebnisse die Effizienz und Effektivität dieser Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04020-7_17 afc74b0998c345223b462414628c8c02;de;;;7.4.;;;Der Einfluss fehlender Daten auf die Lernrate und die Klassifikationsleistung des lernenden Klassifiziersystems Fehlende Daten stellen eine potenzielle Bedrohung für das Lernen und die Klassifizierung dar, da sie die Fähigkeit eines Systems beeinträchtigen können, robuste, verallgemeinerte Modelle der Umgebung zu entwickeln, in der es betrieben wird. Diese Untersuchung berichtet über die Auswirkungen der verschiedenen Arten von fehlenden Daten, die in unterschiedlicher Dichte in einer Gruppe simulierter Datensätze vorhanden sind, auf die Leistung des lernenden Klassifikatorsystems. Es wurde festgestellt, dass fehlende Daten einen negativen Einfluss auf das Lernen und die Klassifikationsleistung des lernenden Klassifikatorsystems (LCS) haben, wobei letzteres in See5, einem robusten Entscheidungsbaum-Induktor, nicht zu sehen ist. Zu den spezifischen Nebenwirkungen zählen eine verringerte Lernrate, eine verringerte Genauigkeit der Klassifizierung neuer Testdaten, ein erhöhter Anteil von Testfällen, die nicht klassifiziert werden können, und eine erhöhte Variabilität dieser Metriken. Darüber hinaus korrelieren die Effekte mit der Dichte der fehlenden Werte in einem Datensatz sowie der Art der fehlenden Daten, ob zufällig und ignorierbar oder systematisch fehlend und daher nicht ignorierbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-40029-5_4 5dedcc20e5523ab896019d873f088b86;de;;;7.4.;;;Semantische Raummodellierung Ein Eckpfeiler für Roboterassistenten ist ihr Verständnis für den Raum, in dem sie agieren sollen: eine von Menschen geschaffene Umgebung, in der Menschen leben und arbeiten. Die Forschungsfragen, die uns in diesem Kapitel interessieren, betreffen das räumliche Verständnis und seine Verbindung zum Handeln und Interaktion in Innenräumen. Vergleicht man die Art und Weise, wie Roboter typischerweise die Welt wahrnehmen und darstellen, mit Erkenntnissen aus der kognitiven Psychologie darüber, wie Menschen dies tun, wird deutlich, dass eine große Diskrepanz besteht. Wenn Roboter Menschen verstehen sollen und umgekehrt, müssen Roboter dieselben Konzepte verwenden, um sich auf Dinge und Phänomene zu beziehen, wie es ein Mensch tun würde. Daher ist es von größter Bedeutung, die Kluft zwischen den räumlichen Darstellungen von Mensch und Roboter zu überbrücken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11694-0_5 a0ca5ed00f92fe3f13ec4f091e818c92;de;;;7.4.;;;Selbstüberwachtes tiefes metrisches Lernen für den Abruf alter Papyrusfragmente Diese Arbeit konzentriert sich auf die Assoziation von Dokumentfragmenten mithilfe von Deep-Metric-Learning-Methoden. Genauer gesagt interessieren uns antike Papyrifragmente, die vor ihrer Analyse durch Papyrologen rekonstruiert werden müssen. Dies ist eine schwierige Aufgabe, die mit maschinellen Lernalgorithmen zu automatisieren ist, da gekennzeichnete Daten selten, oft unvollständig, unausgewogen und inkonsistent sind. Es besteht jedoch ein echter Bedarf an einer solchen Software in der Papyrologie-Community, da der Prozess der Rekonstruktion der Papyri von Hand extrem zeitaufwendig und mühsam ist. In diesem Artikel untersuchen wir Möglichkeiten, wie Papyrologen nützliche Vorschläge für die Übereinstimmung mit neuen Daten erhalten können, indem sie;-;-;-;https://link.springer.com/article/10.1007/s10032-021-00369-1 5ce7a5ad533ee259d7ef1a4832a62fef;de;;;7.4.;;;RMSE-ELM: Rekursives modellbasiertes selektives Ensemble extrem lernender Maschinen zur Verbesserung der Robustheit Bei gemischten Daten ist die Robustheit der Extreme Learning Machine (ELM) so schwach, weil die Koeffizienten (Gewichte und Bias) versteckter Knoten zufällig festgelegt werden und die verrauschten Daten einen negativen Effekt haben. Um dieses Problem zu lösen, wird in diesem Papier ein neues Framework namens „RMSE-ELM“ vorgeschlagen. Es handelt sich um ein zweischichtiges rekursives Modell. In der ersten Schicht trainiert das Framework viele ELMs in verschiedenen Ensemble-Gruppen gleichzeitig und verwendet dann einen selektiven Ensemble-Ansatz, um einen optimalen Satz von ELMs in jeder Gruppe auszuwählen, der zu einer großen Gruppe von ELMs, dem Kandidatenpool, zusammengeführt werden kann. In der zweiten Schicht wird der selektive Ensemble-Ansatz rekursiv für den Kandidatenpool verwendet, um das endgültige Ensemble zu erhalten. In den Experimenten wenden wir UCI-gemischte Datensätze an, um die Robustheit unseres neuen Ansatzes in zwei Schlüsselaspekten (Mean Square Error und Standard Deviation) zu bestätigen. Die Raumkomplexität unserer Methode ist etwas erhöht, aber die Ergebnisse haben gezeigt, dass RMSE-ELM die Robustheit mit einer schnellen Lerngeschwindigkeit im Vergleich zu repräsentativen Methoden (ELM, OP-ELM, GASEN-ELM, GASEN-BP und E- GASEN). Es wird ein potenzieller Rahmen, um das Robustheitsproblem von ELM für hochdimensionale gemischte Daten in der Zukunft zu lösen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-14063-6_24 56eb63b125313a9408a0fdcc50fbd94f;de;;;7.4.;;;Fuzzy-Clustering-basierter Filter In diesem Artikel wird ein Filter namens FCF (Fuzzy Clustering-based Filter) zum Entfernen redundanter Funktionen vorgestellt, der es ermöglicht, die Wirksamkeit und Effizienz von Data-Mining-Algorithmen zu verbessern. FCF basiert auf der Fuzzy-Partitionierung von Features in Cluster. Die Anzahl der Cluster wird automatisch anhand von Daten geschätzt. Nach dem Clustering-Prozess wählt FCF eine Teilmenge von Merkmalen aus den erhaltenen Clustern aus. Dazu untersuchen wir vier verschiedene Strategien, die auf den Informationen der Fuzzy-Partitionsmatrix basieren. Wir zeigen auch, dass diese Strategien für eine bessere Leistung kombiniert werden können. Empirische Ergebnisse veranschaulichen die Leistung von FCF, das im Allgemeinen wettbewerbsfähige Ergebnisse bei Klassifizierungsaufgaben im Vergleich zu einem verwandten Filter erzielt hat, der auf der harten Partitionierung von Merkmalen basiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14055-6_42 99c0c42a5a1b7b6b3f9e03f24e072e1c;de;;;7.4.;;;Ausreißererkennung basierend auf Granular Computing Als neues konzeptionelles und computergestütztes Paradigma der Informationsverarbeitung hat Granular Computing in letzter Zeit viel Aufmerksamkeit erhalten. Viele Modelle und Methoden des Granular Computing wurden vorgeschlagen und untersucht. Darunter war das granulare Rechenmodell mit Informationstabellen. In diesem Artikel werden wir die Anwendung dieses granularen Rechenmodells für die Untersuchung eines spezifischen Data-Mining-Problems demonstrieren - Ausreißererkennung. Innerhalb des granularen Computing-Modells, das Informationstabellen verwendet, schlägt dieses Papier eine neuartige Definition von Ausreißern vor - GrC (granulares Computing)-basierte Ausreißer. Ein Algorithmus zum Auffinden solcher Ausreißer wird ebenfalls angegeben. Und die Wirksamkeit der GrC-basierten Methode zur Ausreißererkennung wird anhand von drei öffentlich zugänglichen Datenbanken demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88425-5_29 8aed9ef6aad66a3553b8781095587745;de;;;7.4.;;;Skalierbare Techniken für den Abbau kausaler Strukturen Das Mining von Assoziationsregeln in Warenkorbdaten hat sich als fruchtbares Forschungsgebiet erwiesen. Maße wie bedingte Wahrscheinlichkeit (Konfidenz) und Korrelation wurden verwendet, um Regeln der Form „die Existenz von Element A impliziert die Existenz von Element B“ abzuleiten. Solche Regeln zeigen jedoch nur eine statistische Beziehung zwischen A und B an. Sie geben nicht die Art der Beziehung an: Ob die Anwesenheit von A die Anwesenheit von B verursacht oder umgekehrt oder ein anderes Attribut oder Phänomen bewirkt, dass beide zusammen auftreten . In Anwendungen ist die Kenntnis solcher Kausalbeziehungen äußerst nützlich, um das Verständnis zu verbessern und Veränderungen zu bewirken. Während die Unterscheidung zwischen Kausalität und Korrelation ein wirklich schwieriges Problem ist, bieten neuere Arbeiten in den Bereichen Statistik und Bayes'sches Lernen einige Angriffsmöglichkeiten. In diesen Bereichen besteht das Ziel im Allgemeinen darin, vollständige Kausalmodelle zu erlernen, die in großen Data-Mining-Anwendungen mit einer großen Anzahl von Variablen praktisch nicht zu erlernen sind.;-;-;-;https://link.springer.com/article/10.1023/A%3A1009891813863 481d4ec0afc6d4edebb0b03510519932;de;;;7.4.;;;Klassifizierung von Netzwerkdatenströmen durch Deep Packet Inspection und Machine Learning Die genaue und effiziente Klassifizierung von Netzwerkdatenströmen ist ein wichtiges Forschungsthema und eine große Herausforderung im Bereich der Internet-Datenanalyse. Herkömmliche portbasierte und DPI-basierte Klassifikationsverfahren haben offensichtliche Nachteile in der Aufwertungskategorie von P2P-Diensten und dem Problem einer geringen Verschlüsselungsresistenz, was zu einem starken Rückgang der Klassifikationsabdeckung führt. Basierend auf der ursprünglichen DPI-Klassifizierung schlägt dieses Papier eine Methode zur Klassifizierung von Netzwerkdatenströmen vor, die die Kombination von DPI und maschinellem Lernen verwendet. Diese Methode verwendet DPI, um Netzwerkdatenströme bekannter Funktionen zu erkennen, und verwendet Methoden des maschinellen Lernens, um unbekannte Funktionen und verschlüsselte Netzwerkdatenströme zu analysieren. Experimente zeigen, dass dieses Verfahren die Genauigkeit der Klassifizierung von Netzwerkdatenströmen effektiv verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1328-8_31 9b288bacff5943dbb6ceff2fe44bd2db;de;;;7.4.;;;Ein ausgezeichnetes Merkmalsauswahlmodell mit Gradienten- und Punktinjektionstechniken Dieses Papier konzentriert sich auf die Verbesserung der Effektivität von Filtermerkmalsauswahlmodellen unter zwei Aspekten. Eine besteht darin, Merkmalssuchmaschinen basierend auf der Optimierungstheorie zu modifizieren, und die andere besteht darin, die Regularisierungsfähigkeit unter Verwendung von Punktinjektionstechniken zu verbessern. Das zweite Thema ist zweifellos in Situationen wichtig, in denen eine Überanpassung wahrscheinlich ist, beispielsweise in Situationen mit nur kleinen verfügbaren Stichproben. Synthetische und reale Daten werden verwendet, um den Beitrag unserer vorgeschlagenen Strategien zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/11893257_76 1aae1ffbf486aa7853ae9ee00214df04;de;;;7.4.;;;Anomalieerkennung durch Vergleich heterogener Machine-Learning-Klassifikatoren mit KPCA Die Anomalieerkennung ist aufgrund der häufigen Änderung der Anomalievorkommen auf eine Vielzahl kritischer Infrastrukturelemente anwendbar und stellt sicher, dass alle regelmäßig identifizierten Bedrohungen vermieden werden. In dieser Wahrnehmung müssen wir die abnormalen Muster in Anwendungen identifizieren und sie mithilfe eines neuen geschmückten Machine-Learning-Klassifikators modellieren. In diesem Papier untersuchen wir die Leistung durch Vergleich von heterogenen Klassifikatoren für maschinelles Lernen: ICA (Independent Component Analysis), LDA (Linear Discriminant Analysis), PCA (Principal Component Analysis), Kernel PCA und andere Lernklassifikatoren. Die Kernel-PCA (KPCA) ist eine nichtlineare Erweiterung von PCA, die verwendet wird, um die Daten zu klassifizieren und Anomalien durch orthogonale Transformation des Eingaberaums in einen (normalerweise hochdimensionalen) Merkmalsraum zu erkennen. Der KPCA verwendet einen Kernel-Trick, indem er die Hauptkomponenten aus dem Satz entsprechender Eigenvektoren extrahiert und die Kernelbreite als Leistungsparameter verwendet, um die Klassifikationsrate zu bestimmen. Die KPCA wird implementiert, indem zwei UCI-Repository-Sets für maschinelles Lernen und ein echter Bankdatensatz verwendet werden. Der KPCA ist intern mit dem klassischen Gaußschen Kernel implementiert. Schließlich KPCA-Leistung im Vergleich mit Projektionsmethoden (ICA, LDA, PLSDA und PCA), anderen Kernel- (SVM-K) und Nicht-Kernel-Techniken (ID3, C4.5, Regel C4.5, k-NN und NB), die auf denselben angewendet wurden Datensätze mit Trainings- und Testsatzkombinationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22915-7_44 b2d5595276910546925df43a77e0abc8;de;;;7.4.;;;Anomalieerkennung mit Vorkenntnissen: Anwendung auf TCP/IP-Verkehr In diesem Artikel wird ein Ansatz zur Erkennung von Anomalie-Eindringlingen vorgestellt, der auf einer Kombination von überwachten und unüberwachten Algorithmen für maschinelles Lernen basiert. Das Hauptziel dieser Arbeit ist eine effektive Modellierung des TCP/IP-Netzwerkverkehrs einer Organisation, die die Erkennung von Anomalien mit einem effizienten Prozentsatz an falsch positiven Ergebnissen für eine Produktionsumgebung ermöglicht. Die vorgeschlagene Architektur verwendet eine Hierarchie von selbstorganisierenden Karten für die Verkehrsmodellierung kombiniert mit Techniken der lernenden Vektorquantisierung, um letztendlich Netzwerkpakete zu klassifizieren. Die Architektur wird unter Verwendung des bekannten SNORT-Intrusion-Detection-Systems entwickelt, um den Netzwerkverkehr vorzuverarbeiten. Im Vergleich zu anderen Techniken zeigen die Ergebnisse dieser Arbeit, dass akzeptable Kompromisse zwischen Angriffserkennung und falsch-positiven Raten erreicht werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34747-9_15 c1eec5bcf5c350b17e1a0ff542547ecc;de;;;7.4.;;;Aussagekräftiger Algorithmus für maschinelles Lernen für die Lokalisierung in Innenräumen und unter Wasser mithilfe des sichtbaren Lichtspektrums In den letzten Jahren ist die Indoor-Lokalisierung für drahtlose Geräte immer beliebter geworden. Der Hauptgrund für seine Popularität ist der effiziente Zugriff auf den aktuellen Standort. Auf der anderen Seite gewinnt die Kommunikation mit sichtbarem Licht aufgrund des hohen Wachstums der drahtlosen Kommunikation und der Festkörperbeleuchtung an Interesse der Forscher. Diese Netzwerkstruktur kann eine hohe Genauigkeit für die elektromagnetische Umgebung der residenten Positionierung erzeugen. Der vorgeschlagene Ansatz ist sowohl für die Luft- als auch für die Unterwasserkommunikation basierend auf dem sichtbaren Lichtspektrum praktikabel. Wir evaluieren die Technik für andere überwachte maschinelle Lernalgorithmen, um eine Genauigkeit, Fehlerentfernung und Rechenzeit für die Indoor-Lokalisierung in einem Kommunikationsnetzwerk mit sichtbarem Licht zu analysieren. Experimentelle Arbeiten wurden durchgeführt, indem eine Sterntopologie verwendet wurde, die von einem auf einem sichtbaren Personal Area Network System basierenden Simulator unterstützt wurde, der einem Attribut der PHY- und MAC-Schicht für den IEEE 802.15.7-Standard entspricht, der für optische drahtlose Kommunikation mit kurzer Reichweite ausgelegt ist. Die Auswertung erfolgte hinsichtlich Genauigkeit, Fehlerabstand und Rechenzeit. Die Ergebnisse zeigen, dass die vorgeschlagene Methodik eine allgemeine Rechengenauigkeit erreicht und einen akzeptablen Standortschätzungsfehler liefert.;-;-;-;https://link.springer.com/article/10.1007/s11277-019-06631-4 54e41e8b226ed785b79478bb5d934b94;de;;;7.4.;;;Mining hierarchischer Pathologiedaten mit induktiver Logikprogrammierung Von Pathologen werden laufend erhebliche Datenmengen in Form von Pathologieberichten generiert. Bis heute gibt es relativ wenig Arbeit, die untersucht, wie maschinelles Lernen und Data-Mining-Techniken auf diese Daten angewendet werden können, um neue klinische Zusammenhänge zu extrahieren. Aus der Lernperspektive besitzen diese Pathologiedaten eine Reihe von herausfordernden Eigenschaften, insbesondere die zeitliche und hierarchische Struktur, die in den Daten vorhanden ist. In diesem Artikel schlagen wir eine Methodik vor, die auf induktiver Logikprogrammierung basiert, um neue Assoziationen aus Pathologieauszügen zu extrahieren. Wir diskutieren die Herausforderungen, die sich aus der Analyse dieser Daten ergeben, und diskutieren, wie wir ihnen begegnen. Als Fallstudie wenden wir unsere Methodik auf niederländische Pathologiedaten an, um mögliche Ursachen für zwei seltene Krankheiten zu entdecken: Cholangitis und Brust-Angiosarkome.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-19551-3_9 b682302462c8afd682df87334be05423;de;;;7.4.;;;Techniken des maschinellen Lernens zur Erforschung der Entdeckung, Ziele und Funktionen von MicroRNA-Genen In den letzten Jahren hat die Rolle von miRNAs bei der posttranskriptionellen Genregulation neue Einblicke in das Verständnis verschiedener Krebsarten und neurologischer Erkrankungen geliefert. Obwohl die miRNA-Forschung seit ihrer Entdeckung großen Aufschwung genommen hat, bleiben traditionelle biologische Methoden zum Auffinden von miRNA-Genen und -Targets aufgrund des arbeits- und zeitintensiven Aufwands weiterhin eine große Herausforderung. Glücklicherweise haben Fortschritte bei Computermethoden zu erheblichen Verbesserungen bei miRNA-Studien geführt. Dieser Literaturüberblick diskutiert kurz die neuesten auf maschinellem Lernen basierenden Techniken, die bei der Entdeckung von miRNAs, der Vorhersage von miRNA-Zielen und der Inferenz von miRNA-Funktionen angewendet werden. Wir diskutieren auch die Grenzen, wie diese Ansätze in früheren Studien aufgeklärt wurden.;-;-;-;https://link.springer.com/protocol/10.1007/978-1-4939-7046-9_16 f5cfba2d62cfc242cfa394b6f5dbd552;de;;;7.4.;;;Methoden für den Wahnsinn: Formalisierung und Automatisierung generativer Prozesse im Kreativdesign der Klasse 1 Kreatives Design ist ein nicht-deterministischer, aber zielgerichteter Prozess der Suche durch einen breiten Problemraum hypothetischer Artefakte. Kreatives Design ist ein wenig erforschtes Thema in den Designwissenschaften und der Informatik. Der Mangel an Wissen über kreatives Design trägt zu gewissen grundlegenden Einschränkungen in formalen Designmodellen bei. Die Prinzipien des prozeduralen Computing bieten ein leistungsstarkes Mittel, um Entdeckungen und Innovationen im wissensbasierten Design zu erleichtern. Es werden Fragen rund um die Entwicklung von prozeduralen Designsystemen bearbeitet.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-8220-9_10 acb2d40aa498e7158c0e5591f19f323c;de;;;7.4.;;;Herstellung von Datenbanken im Bergbau, um die Auswirkungen der Betriebsreihenfolge auf die Produktqualität zu ermitteln Data-Mining-Techniken können verwendet werden, um interessante Muster in komplizierten Herstellungsprozessen zu entdecken. Diese Muster werden verwendet, um die Fertigungsqualität zu verbessern. Klassische Darstellungen von Qualitäts-Data-Mining-Problemen beziehen sich normalerweise auf die Betriebseinstellungen und nicht auf deren Reihenfolge. In diesem Beitrag wird der Einfluss des Betriebsablaufs auf die Produktqualität mit Hilfe von Data-Mining-Techniken untersucht. Zu diesem Zweck wird ein neuartiges Entscheidungsbaum-Framework zur Extraktion von Sequenzmustern entwickelt. Das vorgeschlagene Verfahren ist in der Lage, Sequenzmuster beliebiger Länge mit Operationen zu minen, die nicht unbedingt unmittelbar vorausgehen. Das algorithmische Grundgerüst der Induktion besteht aus vier Hauptschritten. Im ersten Schritt werden alle Fertigungsabläufe als Token-String dargestellt. Im zweiten Schritt wird ein großer Satz von Mustern auf Basis von regulären Ausdrücken durch die Verwendung eines Sequenzmusters induziert. Im dritten Schritt verwenden wir Merkmalsauswahlmethoden, um den Anfangssatz herauszufiltern und nur die nützlichsten Muster zu belassen. Im letzten Schritt transformieren wir das Qualitätsproblem in ein Klassifikationsproblem und verwenden einen Entscheidungsbaum-Induktionsalgorithmus. Eine vergleichende Studie zu Benchmark-Datenbanken veranschaulicht die Fähigkeiten des vorgeschlagenen Rahmens.;-;-;-;https://link.springer.com/article/10.1007/s10845-008-0084-6 1e80e6da02d0e4651b2abd39c6188587;de;;;7.4.;;;Vorhersage der Kriminalitätsraten in Großstädten mithilfe von Techniken des maschinellen Lernens Das Konzept der Smart City gewinnt unter den Gesichtspunkten der sozioökonomischen Entwicklung und der Lebensqualität an öffentlichem Interesse. Intelligente Initiativen wurden in mehreren Bereichen wie Gesundheit, Energie und öffentliche Sicherheit vorgeschlagen. Einer der wichtigsten Faktoren, die die Lebensqualität beeinflussen, ist die Kriminalitätsrate in einer Metropolregion. Die Vorhersage von Kriminalitätsmustern ist eine wichtige Aufgabe, um effizientere Strategien zu entwickeln, um entweder Straftaten zu verhindern oder die Ermittlungsbemühungen zu verbessern. In dieser Forschung verwenden wir Techniken des maschinellen Lernens, um ein multinomiales Klassifizierungsproblem zu lösen, bei dem das Ziel darin besteht, die Kriminalitätskategorien mit raumzeitlichen Daten vorherzusagen. Als Fallstudie verwenden wir Kriminalitätsdaten aus San Francisco des San Francisco Police Department (SFPD). Zur Vorhersage der Kriminalitätskategorie wurden verschiedene Klassifizierungsmethoden wie Multinomial Logistic Regression, Random Forests, Lightgbm und Xgboost übernommen. Zur Steigerung der Modellleistung wurde Feature Engineering eingesetzt. Die Ergebnisse zeigen, dass unser vorgeschlagener Klassifikator andere veröffentlichte Modelle übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30967-1_8 7864f42eb9702a04b52c0feb74fea811;de;;;7.4.;;;Erweitertes Restaufmerksamkeitsnetzwerk zur Lastdisaggregation Die Lastdisaggregationstechnologie ist eine Schlüsseltechnologie zur Realisierung von nicht-intrusivem Lastmonitoring (NILM) in Echtzeit, und die Deep-Learning-Methode hat sich für NILM als vielversprechend erwiesen. Aktuelle Lastdisaggregationsmodelle, die auf Deep Learning basieren, sind jedoch anfällig für die Probleme des Verschwindens von Gradienten und der Modellverschlechterung, und es ist schwierig, effektive Funktionen aus Lastzeitreihen zu extrahieren. Um diese Probleme zu lösen, wird ein neues erweitertes Restaufmerksamkeitstiefennetzwerk für die Lastdisaggregation vorgeschlagen. Das vorgeschlagene Modell verwendet Restlernen, um Lastmerkmale auf hoher Ebene zu extrahieren, verringert die Schwierigkeit der Netzwerkoptimierung und löst das Problem des Verschwindens von Netzwerkgradienten. Dilatierte Faltung wird eingeführt, um das rezeptive Feld von Faltungskernen zu vergrößern, wodurch das Problem gelöst wird, dass Zeitreihendaten mit langer Last schwer zu lernen sind. Am wichtigsten ist, dass der vorgeschlagene Bottom-Up- und Top-Down-Aufmerksamkeitsmechanismus die Merkmale der abrupten Punkte in der Netzstromversorgung effektiv extrahieren, die Genauigkeit der Beurteilung des Ein-/Aus-Zustands von Elektrogeräten verbessern und gleichzeitig das Lernen verbessern kann Fähigkeit von Elektrogeräten mit geringem Verbrauch. Experimente mit dem WikiEnergy-Datensatz und dem UK-DALE-Datensatz zeigen, dass die vorgeschlagene Methode genauere Aufgaben zur Lastdisaggregation erfüllt als bestehende Studien, was für die Realisierung praktischer NILM von großer Bedeutung ist.;-;-;-;https://link.springer.com/article/10.1007/s00521-019-04414-3 0479c1f542dfd0c73acad4b35bab7cd1;de;;;7.4.;;;Eine Studie zur Beantwortung einer Data Mining-Abfrage mit einer materialisierten Ansicht Eines der klassischen Data-Mining-Probleme ist das Auffinden häufiger Itemsets. Dieses Problem zieht die Datenbank-Community besonders an, da es der traditionellen Datenbankabfrage ähnelt. In diesem Beitrag betrachten wir ein Data-Mining-System, das das Speichern früherer Abfrageergebnisse in Form von materialisierten Data-Mining-Ansichten unterstützt. Während zahlreiche Arbeiten gezeigt haben, dass die Wiederverwendung von Ergebnissen früherer häufiger Itemset-Abfragen die Leistung der Data Mining-Abfrageverarbeitung erheblich verbessern kann, wurde noch keine gründliche Untersuchung möglicher Unterschiede zwischen der aktuellen Abfrage und einer materialisierten Ansicht vorgelegt. In diesem Papier klassifizieren wir mögliche Unterschiede in sechs Klassen, erstellen eine I/O-Kostenanalyse für alle Klassen und bewerten experimentell die vielversprechendste.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30182-0_50 53bf32fe880cc290e2c6678d4b81ccba;de;;;7.4.;;;Automatische Cybermobbing-Erkennung auf Twitter mit Mobbing-Ausdruckswörterbuch Cybermobbing ist mit der Verbreitung von PCs, Smartphones und SNS zu einem ernsthaften Problem geworden. In diesem Artikel erstellen wir zur automatischen Erkennung von Cybermobbing auf Twitter ein Wörterbuch für Mobbing-Ausdrücke, das Mobbing-Wörter und deren Grad im Zusammenhang mit Mobbing registriert. Die im Wörterbuch registrierten Wörter sind diejenigen, die in den gesammelten Mobbing-Tweets vorkommen, und die den Wörtern zugeordneten Mobbing-Grade werden mit SO-PMI berechnet. Wir konstruieren auch Modelle, um Mobbing- und Nicht-Mobbing-Tweets automatisch zu klassifizieren, indem wir mehrere Funktionen, einschließlich des Mobbing-Ausdruckswörterbuchs, extrahieren und mit mehreren Algorithmen für maschinelles Lernen kombinieren. Wir bewerten die Klassifizierungsleistung von Mobbing- und Nicht-Mobbing-Tweets anhand der konstruierten Modelle. Die experimentellen Ergebnisse zeigen, dass das Mobbing-Ausdruckswörterbuch in den meisten Algorithmen des maschinellen Lernens zur Erkennung von Cybermobbing beitragen kann und dass das beste Modell eine Bewertung von über 90% erzielen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-73280-6_25 7d2731186e74dadcee977948adc872f6;de;;;7.4.;;;Feature-Pooling durch Lernen Bei der lernbasierten Bildqualitätsbewertung werden Bilder durch Merkmale mit geringer Dimension repräsentiert, die viel kleiner als die Bildgröße ist. Die Merkmale können mit Hilfe von Vorkenntnissen erhalten werden, die Menschen beispielsweise über die oben genannten Grund- und Vorteilsmerkmale erworben haben. Das Interesse an lernbasierten Funktionen, die zusammen mit den Lernaufgaben mittrainiert werden, wächst ebenfalls. Zum Beispiel werden in letzter Zeit die sogenannten „Deep Learning“-Techniken ausgiebig studiert, um eine aufgabenorientierte Funktion zu erlernen. Merkmalsextraktion und -auswahl werden durchgeführt, um effizientere Bildmerkmale zu konstruieren, indem die Länge von Merkmalsvektoren komprimiert wird, um die Rechenkomplexität zu reduzieren und, was noch wichtiger ist, das Risiko einer Überanpassung zu vermeiden, da die kleine Anzahl von Abtastwerten im Trainingsprozess verwendet wird. Nach der Merkmalsextraktion und -auswahl müssen wir die Bildmerkmale auf den Bildqualitätswert abbilden, der eine reelle Zahl ist. Dieser Vorgang wird in der Literatur als „Pooling“ bezeichnet und ist eine Art Funktion linearer oder nichtlinearer Form. Zum Beispiel würde das Summieren aller quadratischen Komponenten eines Merkmalsvektors eine reelle Zahl ergeben, die für einige Szenarien die Bildqualität darstellen kann. Dieses Kapitel umfasst mehrere hochmoderne Pooling-Methoden in Machine-Learning-Ansätzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-287-468-9_4 e5da6d5d703590d6f4c95e20ea70a6c6;de;;;3.2.;;;Das Hypermedia-Datenmodell basierend auf dem Infinity-Bild In diesem Beitrag wird das Hypermedia-Datenmodell auf Basis des von uns entwickelten Bildinformationssystems infinity RS vorgestellt. Das Hypermedia-Datenmodell besteht aus verschiedenen semantischen Einheiten, die als Knoten bezeichnet werden, und die Assoziationen zwischen den Knoten werden als Links bezeichnet. Dieses Papier schlägt drei Arten von Knoten (innerer Knoten, physischer Knoten und komplexer Knoten) und zwei Arten von Verbindungen (Ebenen-Netzwerkstruktur-Link, Hyper-Cube-Netzwerkstruktur-Links) vor. Das hypermediale Informationssystem, basierend auf dem Modell und der Basisdatenschicht (das infiniy RS-Bild), repräsentiert einen digitalen Globus. Es wird ein Ansatz zum „Getting Lost in the Hyper-Space“-Problem vorgestellt. Der Ansatz unter Verwendung des Hypermedia-Datenmodells ist eine effiziente Möglichkeit, eine große Anzahl von RS-Bildern in verschiedenen geografischen Informationssystemen zu handhaben.;-;-;-;https://link.springer.com/article/10.1007/BF02829396 9b03753f3d254acb4b31d6bb54f316c2;de;;;7.4.;;;Tragbare Geräte und COVID-19: Stand der Technik, Rahmenbedingungen und Herausforderungen Im laufenden Jahrhundert hat sich das neuartige Coronavirus als ernsthafte Bedrohung für die Weltbevölkerung präsentiert. Konstruktiv kann die COVID-19-Pandemie jedoch mit dem Eingreifen neuester Computertechnologien wie dem Internet der Dinge, verteiltem Cloud-Computing und künstlicher Intelligenz effektiv bewältigt werden. Unter diesem Aspekt sind die Hauptziele dieses Kapitels die Untersuchung und Präsentation verschiedener tragbarer Geräte als Teil des Gesundheitssystems zur Bekämpfung der COIVD-19-Pandemie. Erstens zielt diese Arbeit darauf ab, die verschiedenen tragbaren Geräte und ihre Verwendung zur Bekämpfung von COVID-19 durch Patienten, medizinisches Fachpersonal, Frontliner und Weltbürger zu überprüfen. Zu den Hauptzielen dieser tragbaren Geräte gehören daher die Geräteverfolgung, der Informationsaustausch und die Bewusstseinsbildung, um das Risiko einer Coronavirus-Infektion zu minimieren. Zweitens befasst sich das Kapitel mit einem allgemeinen Rahmen für die Implementierung tragbarer Geräte zur Bewältigung der COVID-19-Pandemie. Als nächstes zielt dieses Kapitel darauf ab, Überwachungstechniken und verschiedene Mechanismen zu überprüfen, die zur Analyse der von tragbaren Geräten gesammelten Daten verwendet werden, um nützliche und kritische Informationen über Benutzer im COVID-19-Szenario zu extrahieren. In diesem Kapitel werden effiziente Techniken und Algorithmen untersucht, die in der Literatur zur Datenanalyse auf der Grundlage von Vitalkörpersignalen von tragbaren Sensorgeräten existieren. Diese Bemühungen verbessern den Überwachungsmechanismus für Patienten/Gesundheitspersonal und helfen, präventive Lösungen im COVID-19-Szenario aufzudecken. Insbesondere werden die Datenverarbeitungs- und Analysemechanismen wie Datenentrauschung, Datenaggregation, Erkennung von Datenausreißern und Imputation fehlender Daten hervorgehoben. Schließlich befasst sich das Kapitel mit verschiedenen Herausforderungen im Zusammenhang mit tragbaren Geräten im COVID-19-Szenario wie Echtzeitverarbeitung, Heterogenität, Interoperabilität, Sicherheit und Datenschutz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-60039-6_8 a508355e867ee335bd0314f5add492d6;de;;;7.4.;;;Attributgeneralisierung und Unschärfe in Data-Mining-Kontexten Dieses Papier zeigt Probleme bei der Kombination von Regelinduktion und attributorientierter Generalisierung, wobei, wenn die gegebene Hierarchie Inkonsistenzen enthält, die Anwendung hierarchischen Wissens inkonsistente Regeln erzeugt. Dann stellen wir zwei Ansätze zur Lösung dieses Problems vor, von denen ein Prozess nahelegt, dass eine Kombination von Regelinduktion und attributorientierter Generalisierung verwendet werden kann, um die Konzepthierarchie zu validieren. Interessanterweise spielen unscharfe linguistische Variablen eine wichtige Rolle bei der Lösung dieser Probleme.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72530-5_45 8de585365fee09b1e0bcba38bb9bc47e;de;;;7.4.;;;Ein probabilistischer Ansatz für Constrained Clustering mit topologischer Karte Dieses Papier beschreibt eine neue topologische Karte, die dem Clustering unter probabilistischen Beschränkungen gewidmet ist. Im Allgemeinen wird traditionelles Clustering unbeaufsichtigt verwendet. In einigen Fällen sind jedoch zusätzlich zu den Dateninstanzen Hintergrundinformationen über die Problemdomäne verfügbar oder in Form von Einschränkungen auferlegt. In diesem Zusammenhang modifizieren wir den beliebten GTM-Algorithmus, um diese „weichen“ Randbedingungen beim Aufbau der Topologie zu berücksichtigen. Wir präsentieren Experimente an synthetischen bekannten Datenbanken mit künstlich erzeugten Einschränkungen zum Vergleich mit GTM und anderen eingeschränkten Clustering-Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03070-3_31 d61858f83e0fbff5680279e792358734;de;;;7.4.;;;ConfVisExplorer: ein literaturbasiertes visuelles Analysesystem für den Konferenzvergleich In einem Forschungsbereich gibt es in der Regel mehrere Konferenzen mit unterschiedlichen Größen und Merkmalen, und nicht alle Forscher nehmen an allen diesen Konferenzen gleichberechtigt teil. Für einen Konferenzorganisator wird die Kenntnis des Grades der Beteiligung der Forscher auf diesem Gebiet es ihnen ermöglichen, Anstrengungen zu unternehmen, um die Beteiligung zu erweitern und den Forschungsbereich zu bereichern. Die Kenntnis der unterschiedlichen Stärken und Schwerpunkte dieser Konferenzen ermöglicht es den Forschern auch, die Wirksamkeit ihrer Bemühungen und die Sichtbarkeit ihrer Arbeiten zu verbessern. In den letzten Jahren ist die Analyse wissenschaftlicher Literatur durch Visualisierung zu einem beliebten Thema geworden, aber die meisten von ihnen konzentrieren sich nur auf die allgemeinen Merkmale von Publikationen wie Autoren, Zitate und Themen. Diese Studie konzentriert sich auf die Analyse und den Vergleich von wissenschaftlichen Konferenzen. In diesem Beitrag stellen wir die Conference Orange vor, eine neue visuelle Metapher zur Analyse und zum Vergleich der Merkmale mehrerer Konferenzen. Zunächst schlagen wir einen Bewertungsrahmen vor, um die Reife der Konferenzen zu beschreiben. Zweitens ordnen wir die Metriken im Framework verschiedenen Diagrammen zur visuellen Analyse und zum Vergleich zu. Drittens entwerfen und implementieren wir ConfVisExplorer, ein interaktives visuelles System mit mehreren Ansichten, das diese Diagramme kombiniert und den Benutzern hilft, die Struktur der Konferenzen und die Attribute im Kontext, wie Autoren und Institutionen, zu erkunden. Schließlich führen wir Fallstudien durch, um die Wirksamkeit des Systems zu demonstrieren.;-;-;-;https://link.springer.com/article/10.1007/s12650-020-00703-5 5f98827b0b864381ca9f3a552ba76dd5;de;;;7.4.;;;Strategien zur Vermeidung von Präferenzprofilen in agentenbasierten E-Commerce-Umgebungen Es ist bekannt, dass der auf Agenten basierende elektronische Handel den Benutzern viele Vorteile bietet. Es gibt jedoch nur sehr wenige Studien, die sich mit Datenschutzfragen in diesem Bereich befassen. Datenschutz ist von großer Bedeutung und der Schutz der Privatsphäre der Benutzer spielt eine entscheidende Rolle, um ihr Vertrauen in agentenbasierte Technologien zu fördern. In diesem Papier konzentrieren wir uns auf das Profiling von Präferenzen, das eine bekannte Bedrohung für die Privatsphäre der Benutzer darstellt. Insbesondere überprüfen wir Strategien für Kundenagenten, um zu verhindern, dass Verkäuferagenten mithilfe von Data-Mining-Techniken genaue Präferenzprofile der ehemaligen Gruppe erhalten. Wir zeigen experimentell die Wirksamkeit jeder dieser Strategien und diskutieren ihre Eignung in verschiedenen Situationen. Unsere experimentellen Ergebnisse zeigen, dass Kunden mit diesen Strategien ihre Privatsphäre deutlich verbessern können.;-;-;-;https://link.springer.com/article/10.1007/s10489-013-0448-2 df2a199c74ff95ad28f7916ec2f415e8;de;;;7.4.;;;Erkennung handschriftlicher chinesischer Schriftzeichen basierend auf domänenspezifischem Wissen Obwohl bei der Erkennung handgeschriebener chinesischer Zeichen (HCCR) einige ermutigende Fortschritte erzielt wurden, bleibt die Erkennung handgeschriebener chinesischer Adressen (HCAR) eine ständige Herausforderung. Nur wenige Verfahren erzielen aufgrund unregelmäßigerer Verzerrungen und Überlappungen zwischen Zeichen eine zufriedenstellende Leistung. In diesem Papier extrahieren wir zunächst Schlüsselwörter aus der Adresse durch einen speziell entwickelten Schlüsselzeichen-Klassifikator. Dann verwenden wir ein einstelliges Netzwerk, um die Ortsnamen zu erkennen. Um hierarchische Beziehungen zwischen Ortsnamen zu nutzen, bauen wir eine Adressdatenbank aus den chinesischen Verwaltungseinheiten auf und entwerfen ein Fehlerkorrekturverfahren zur Verbesserung der Wiedererkennung von Ortsnamen. Experimente mit handgeschriebenen chinesischen Adressdatensätzen belegen die Wirksamkeit der vorgeschlagenen Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00767-6_21 18a2b3c1242426ebc5844562bcfa5c0f;de;;;7.4.;;;TextJSM: Methode zur Text-Sentiment-Analyse Es wird die TextJSM-Methode der Text-Sentiment-Analyse vorgeschlagen, die auf der JSM-Methode der automatisierten Hypothesengenerierung basiert. Es werden zwei Versionen der TextJSM-Methode vorgestellt, nämlich zur Lösung prädiktiver und deskriptiver Probleme. Eine parallele Implementierung der Hauptstufen beider Versionen wird in Betracht gezogen. Experimentelle Studien auf Basis der Seminartextkorpora von ROMIP 2011–2012 zeigen die Überlegenheit der entwickelten Methode gegenüber anderen Data-Mining-Methoden.;-;-;-;https://link.springer.com/article/10.3103/S0005105518010089 54dd10989ce50f1237478d12ad1844b3;de;;;7.4.;;;Konvergenzklassifizierung und Replikationsvorhersage für Simulationsstudien Das Bereitstellen von Assistenzsystemen für Simulationsstudien kann den Benutzer dabei unterstützen, monotone Aufgaben zu erledigen und relevante Ergebnisse zu verfolgen. In diesem Beitrag stellen wir Ansätze vor, um abzuschätzen, ob – und wann – für bestimmte Untersuchungen statistisch signifikante Ergebnisse zu erwarten sind. Diese Informationen können verwendet werden, um Simulationsläufe zu steuern oder dem Benutzer Informationen zur Interaktion bereitzustellen. Der erste Ansatz wird verwendet, um zu klassifizieren, ob für bestimmte Stichproben eine Signifikanz erwartet wird, und der zweite Ansatz schätzt die erforderlichen Replikationen, bis eine Signifikanz erwartet wird. Für eine erste Bewertung der Ansätze werden Experimente an Proben aus Normalverteilungen durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29966-7_17 472c2eaf4d72674b67991012d36b9566;de;;;7.4.;;;Extreme Lernmaschine: Algorithmus, Theorie und Anwendungen Extreme Learning Machine (ELM) ist ein neuer Lernalgorithmus für die Single Hidden Layer Feedforward neuronalen Netze. Verglichen mit dem herkömmlichen Lernalgorithmus für neuronale Netze überwindet er die langsame Trainingsgeschwindigkeit und Überanpassungsprobleme. ELM basiert auf der empirischen Risikominimierungstheorie und sein Lernprozess erfordert nur eine einzige Iteration. Der Algorithmus vermeidet mehrfache Iterationen und lokale Minimierung. Es wurde in verschiedenen Bereichen und Anwendungen aufgrund der besseren Generalisierungsfähigkeit, Robustheit und Kontrollierbarkeit und schnellen Lernrate verwendet. In diesem Artikel geben wir einen Überblick über die neuesten Forschungsfortschritte von ELM zu Algorithmen, Theorie und Anwendungen. Es analysiert zunächst die Theorie und die Algorithmenideen von ELM, dann beschreibt das Tracking die neuesten Fortschritte von ELM in den letzten Jahren, einschließlich des Modells und der spezifischen Anwendungen von ELM, und zeigt schließlich die Forschungs- und Entwicklungsperspektiven von ELM in der Zukunft auf.;-;-;-;https://link.springer.com/article/10.1007/s10462-013-9405-z 32f7af0c12441d81f45508a5469183d9;de;;;7.4.;;;Universelles Clustering mit Regularisierung im probabilistischen Raum Wir schlagen universelles Clustering im Einklang mit den Konzepten der universellen Schätzung vor. Um das obige Modell zu veranschaulichen, führen wir eine Familie von Leistungsverlustfunktionen im probabilistischen Raum ein, die marginal mit der Kullback-Leibler-Divergenz verbunden ist. Das obige Modell erwies sich bei der Anwendung auf die synthetischen Daten als wirksam. Außerdem betrachten wir große Web-Traffic-Datensätze. Ziel des Experiments ist es, die Art und Weise, wie Menschen mit Websites interagieren, zu erklären und zu verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/11510888_15 6ce5b3b3764311ead0b22452467541d1;de;;;7.4.;;;SNEOM: Eine Sanger-Netzwerk-basierte erweiterte Over-Sampling-Methode. Anwendung auf unausgewogene biomedizinische Datensätze Data In dieser Arbeit stellen wir eine neuartige Oversampling-Methode vor, um dem Problem der Klassifikation unausgeglichener Klassen zu begegnen. Diese auf dem neuronalen Netz von Sanger basierende Methode ist in der Lage, mit hochdimensionalen Datensätzen umzugehen. Darüber hinaus erweitert es die Möglichkeiten von Oversampling-Methoden und ermöglicht die Generierung von Samples aus Minoritäts- und Majoritätsklassen. Wir haben es in realen medizinischen Anwendungen validiert, wo die beteiligten Datensätze eine ungleichmäßige Darstellung zwischen den Klassen darstellen und es wurden hohe Empfindlichkeiten bei der Identifizierung von Minderheitenklassen erhalten. Daher ist es mit diesem Verfahren möglich, den Entwurf von Systemen für die medizinische Diagnose mit hoher Zuverlässigkeit zu bewerkstelligen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34478-7_71 31630b04e2a4cb49f76c311794851702;de;;;7.4.;;;Automatisierte Assistenten, die dem Menschen helfen, das Teamverhalten zu verstehen Teamwork mit mehreren Agenten ist in einer Vielzahl von Agentenanwendungen von entscheidender Bedeutung, darunter Schulungen, Bildung, virtuelle Unternehmen und kollektive Robotik. Auch Tools, die Menschen dabei helfen können, das Teamverhalten zu analysieren, zu bewerten und zu verstehen, werden immer wichtiger. Wir haben einen Schritt zur Entwicklung eines solchen Tools gemacht, indem wir einen automatisierten Analystenagenten namens ISAAC für die Post-hoc-Offline-Agenten-Team-Analyse entwickelt haben. Die Neuheit von ISAAC ergibt sich aus einer zentralen Designbeschränkung, die bei der Teamanalyse entsteht: Es sind mehrere Arten von Modellen des Teamverhaltens erforderlich, um unterschiedliche Granularitäten von Teamereignissen zu analysieren, einschließlich Agentenaktionen, Interaktionen und globaler Leistung. Diese heterogenen Teammodelle werden automatisch durch maschinelles Lernen über externe Verhaltensspuren von Teams erfasst, wobei die spezifischen Lerntechniken auf das jeweils erlernte Modell zugeschnitten sind. Darüber hinaus verwendet ISAAC mehrere Präsentationstechniken, die das menschliche Verständnis der Analysen unterstützen können. Dieses Papier stellt den allgemeinen konzeptionellen Rahmen von ISAAC vor, der sein Design motiviert, sowie seine konkrete Anwendung im Bereich des RoboCup-Fußballs. Im RoboCup-Bereich wurde ISAAC vor und während des RoboCup’99-Turniers eingesetzt und mit dem RoboCup Scientific Challenge Award ausgezeichnet.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45327-X_6 972ee6c710e32acdc91aa715247dece3;de;;;7.4.;;;Parallel Random Prism: Ein recheneffizienter Ensemble-Lerner für die Klassifikation Im Allgemeinen neigen Klassifikatoren zu einer Überanpassung, wenn die Trainingsdaten verrauscht sind oder Werte fehlen. Ensemble-Lernmethoden werden häufig verwendet, um die Klassifizierungsgenauigkeit eines Klassifikators zu verbessern. Die meisten Ansätze des Ensemble-Lernens zielen darauf ab, die Klassifikationsgenauigkeit von Entscheidungsbäumen zu verbessern. Es gibt jedoch alternative Klassifikatoren zu Entscheidungsbäumen. Der kürzlich entwickelte Random Prism Ensemble-Lerner für die Klassifikation zielt darauf ab, einen alternativen Ansatz zur Induktion von Klassifikationsregeln zu verbessern, die Prism-Familie von Algorithmen, die einige der Einschränkungen von Entscheidungsbäumen angeht. Allerdings leidet Random Prism wie jeder Ensemble-Lerner unter einem hohen Rechenaufwand aufgrund der Replikation der Daten und der Induktion mehrerer Basisklassifizierer. Daher können selbst bescheidene Datensätze eine rechnerische Herausforderung für Ensemble-Lernende wie Random Prism darstellen. Parallelität wird häufig verwendet, um Algorithmen zu skalieren, um mit großen Datensätzen umzugehen. In diesem Beitrag wird die Parallelisierung für Random Prism untersucht, ein Prototyp implementiert und empirisch anhand eines Hadoop-Computing-Clusters evaluiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-4739-8_2 1a7ad149c31cb425e4cfe01cf319114d;de;;;7.4.;;;Explizite und implizite Benutzereinstellungen beim Online-Dating In diesem Beitrag untersuchen wir das Nutzerverhalten beim Online-Dating, insbesondere die Unterschiede zwischen den impliziten und expliziten Nutzerpräferenzen. Die expliziten Präferenzen werden vom Benutzer angegeben, während die impliziten Präferenzen aus dem Benutzerverhalten auf der Website abgeleitet werden. Wir zeigen zunächst, dass die expliziten Präferenzen kein guter Prädiktor für den Erfolg von Benutzerinteraktionen sind. Wir schlagen dann vor, die impliziten Präferenzen sowohl aus erfolgreichen als auch aus erfolglosen Interaktionen mit einer probabilistischen Methode des maschinellen Lernens zu lernen und zeigen, dass die gelernten impliziten Präferenzen ein sehr guter Prädiktor für den Erfolg von Benutzerinteraktionen sind. Wir schlagen auch einen Ansatz vor, der die expliziten und impliziten Präferenzen verwendet, um die Kandidaten in unserem Empfehlungssystem zu ordnen. Die Ergebnisse zeigen, dass die implizite Ranking-Methode deutlich genauer ist als die explizite und für eine kleine Anzahl von Empfehlungen mit der Leistung der besten Methode vergleichbar ist, die nicht auf Benutzerpräferenzen basiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28320-8_2 f6fee009e3f8be6fd36df600c3d58fff;de;;;7.4.;;;RNN-LSTM-GRU-basierte Sprachtransformation In der Vergangenheit wurden regelbasierte und statistische maschinelle Übersetzungstechniken verwendet, um Urdu-Transliterationstechniken zu lösen. Wie in der Literatur erwähnt, gilt Urdu als ressourcenarme Sprache. Im Vergleich zur Sprache Urdu wurden beeindruckende Anstrengungen für die Transliteration der arabischen, französischen und chinesischen Sprache unternommen. Die maschinelle Übersetzung der Sprache Urdu ist ein herausforderndes Problem. Eine sehr minutiöse Forschungsarbeit wurde zur Urdu-Transliteration durchgeführt. Faktoren für die Unkenntnis der Urdu-Sprache in der Forschung können ihre morphologische Komplexität, Vielfalt und vor allem das Fehlen eines vernünftigen zweisprachigen parallelen Datensatzes sein. Das Beschaffen eines Korpus für eine Sprachtransliteration ist die wichtigste Ressource, an der gearbeitet werden muss. Dieser Artikel demonstriert die Anwendung der neuronalen maschinellen Übersetzung (NMT) für die Urdu-Sprachtransliteration, wobei der Schwerpunkt auf der kontextuellen Abdeckung einer Sprache liegt, was zur Verbesserung der Transliterationsgenauigkeit beiträgt. Erstellen Sie ein robustes NMT-Modell, das eine effiziente Leistung liefert, wenn es über zweisprachige parallele Korpora trainiert wird. Neuronale maschinelle Übersetzung ist eine neue Technik, die eine beeindruckende Leistung zeigt, die in vielerlei Hinsicht besser ist als herkömmliche MT-Methoden. In dieser Forschung bauen wir das NMT-Modell für die Sprache Urdu auf, um die Transliterationsqualität zu verbessern. Es wird ein aufmerksamkeitsbasiertes Encoder-Decoder-System vorgeschlagen, und unser Experiment beweist die Effizienz des vorgeschlagenen Ansatzes. Nach unserem besten Wissen ist dies der erste Versuch einer bidirektionalen Transliteration in der Urdu-Sprache in Richtung neuronaler maschineller Übersetzung.;-;-;-;https://link.springer.com/article/10.1007/s00500-019-04281-z 5d87d1ecd77204a18e4add62f49b6432;de;;;7.4.;;;Technologische Fehlersuche basierend auf Satzeinbettung mit Deep Transformers In der heutigen Fertigung wird jeder technische Assistenzvorgang digital verfolgt. Dies führt zu einer riesigen Menge an Textdaten, die als Wissensbasis genutzt werden können, um diese Operationen zu verbessern. Beispielsweise kann ein laufendes Problem angegangen werden, indem potenzielle Lösungen unter denen abgerufen werden, die verwendet wurden, um ähnliche Probleme während früherer Operationen zu bewältigen. Um effektiv zu sein, müssen die meisten Ansätze zur semantischen Textähnlichkeit durch einen strukturierten semantischen Kontext (z. B. branchenspezifische Ontologie) unterstützt werden, was zu hohen Entwicklungs- und Verwaltungskosten führt. Wir überwinden diese Einschränkung mit einem textuellen Ähnlichkeitsansatz mit drei funktionalen Modulen. Das Datenvorbereitungsmodul bietet die Entfernung von Interpunktion und Stoppwörtern sowie Wortlemmatisierung. Die vorverarbeiteten Sätze durchlaufen das Satzeinbettungsmodul, das auf Sentence-BERT (Bidirectional Encoder Representations from Transformers) basiert und darauf abzielt, die Sätze in Vektoren fester Länge zu transformieren. Ihre Cosinus-Ähnlichkeit wird vom Bewertungsmodul verarbeitet, um die erwartete Ähnlichkeit zwischen den beiden ursprünglichen Sätzen abzugleichen. Schließlich wird dieses Ähnlichkeitsmaß verwendet, um die am besten geeigneten aufgezeichneten Lösungen für das laufende Problem abzurufen. Die Wirksamkeit des vorgeschlagenen Ansatzes wird (i) mit einem hochmodernen Wettbewerber und zwei bekannten Ansätzen zur Textähnlichkeit getestet und (ii) mit zwei Fallstudien, dh Berichten über die technische Unterstützung privater Unternehmen und einem Benchmark-Datensatz für semantische Textähnlichkeit. Im Hinblick auf den Stand der Technik führt der vorgeschlagene Ansatz zu einer vergleichbaren Retrieval-Performance und einem deutlich geringeren Verwaltungsaufwand: 30-minütige Fragebögen reichen aus, um das semantische Kontextwissen zu erhalten, das in unsere Textsuchmaschine eingeschleust werden soll.;-;-;-;https://link.springer.com/article/10.1007/s10845-021-01797-w be1f2680acc18166504b50555b8833dd;de;;;7.4.;;;Bioinformatik-Data-Mining im großen Maßstab mit paralleler genetischer Programmierung auf Grafikprozessoren Der NCBI GEO GSE3494 Brustkrebs-Datensatz enthält Hunderte von Affymetrix HG-U133A und HG-U133B GeneChip Biopsien mit jeweils einer Million Variablen. Multiple genetische Programmierung (GP) läuft auf einer Hardware einer Grafikverarbeitungseinheit (GPU), jedes mit einer Population von fünf Millionen Programmen, die nützliche Variablen aus der Spreu herausfiltern (wählen) und kleine (drei Eingaben) Datenmodelle entwickeln. Der SPMD CUDA-Interpreter nutzt den SIMD-Modus (Single Instruction Multiple Data) der GPU des parallelen Rechnens, obwohl die GP-Populationen unterschiedliche Programme enthalten. Eine 448 Node nVidia Fermi C2050 Tesla Grafikkarte liefert 8,5 Giga GPops pro Sekunde. Neben der Beschreibung unserer Implementierung geben wir einen Überblick über die aktuelle GPGPU-Arbeit in Bioinformatik und genetischer Programmierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37959-8_15 a43ab0a0e072fa6fd5fea2356b1a9510;de;;;7.4.;;;Deep Convolutional Transform Learning Diese Arbeit stellt eine neue unüberwachte Repräsentationslerntechnik namens Deep Convolutional Transform Learning (DCTL) vor. Durch das Stapeln von Faltungstransformationen ist unser Ansatz in der Lage, einen Satz unabhängiger Kernel auf verschiedenen Ebenen zu lernen. Die unüberwacht extrahierten Merkmale können dann verwendet werden, um maschinelle Lernaufgaben wie Klassifizierung und Clustering durchzuführen. Die Lerntechnik beruht auf einem gut durchdachten alternierenden proximalen Minimierungsschema mit etablierten Konvergenzgarantien. Unsere experimentellen Ergebnisse zeigen, dass die vorgeschlagene DCTL-Technik ihre flache Version CTL in mehreren Benchmark-Datensätzen übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63823-8_35 b478a25058939cbffad5f8d92c79d0ca;de;;;7.4.;;;Mixed-Norm-Regression für die visuelle Klassifizierung Dieses Papier befasst sich mit dem Problem der Mehrklassenbildklassifizierung, indem es ein neuartiges Multi-View-Multi-Spasity-Kernel-Rekonstruktionsmodell (kurz MMKR) vorschlägt. Bei gegebenen Bildern (einschließlich Testbildern und Trainingsbildern), die mehrere visuelle Merkmale darstellen, bildet der MMKR diese zuerst in einen hochdimensionalen Raum ab, z Bilder, nicht alle. Weiterhin wird eine Klassifizierungsregel vorgeschlagen, um Testbilder zu klassifizieren. Experimentelle Ergebnisse an realen Datensätzen zeigen die Wirksamkeit des vorgeschlagenen MMKR im Vergleich zu modernsten Algorithmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-53914-5_23 2e2b2e09c944b4ce3a5f3509b86fc02f;de;;;7.4.;;;RELIEF-MM: Effektive Modalitätsgewichtung für Multimedia-Informationsabruf Das Verschmelzen multimodaler Informationen in Multimediadaten verbessert normalerweise die Abrufleistung. Eines der Hauptprobleme bei der multimodalen Fusion ist die Bestimmung der besten Modalitäten. Um die Modalitäten effektiver zu kombinieren, schlagen wir einen RELIEF-basierten Modalitätsgewichtungsansatz namens RELIEF-MM vor. Der ursprüngliche RELIEF-Algorithmus wurde aufgrund von Schwächen in mehreren Hauptproblemen erweitert: klassenspezifische Merkmalsauswahl, Komplexität mit mehrfach gekennzeichneten Daten und Rauschen, Handhabung unausgeglichener Datensätze und Verwendung des Algorithmus mit Klassifikatorvorhersagen. RELIEF-MM verwendet eine verbesserte Gewichtsschätzungsfunktion, die die Darstellungs- und Zuverlässigkeitsfähigkeiten von Modalitäten sowie die Unterscheidungsfähigkeit ausnutzt, ohne die Rechenkomplexität zu erhöhen. Die umfassenden Experimente, die an TRECVID 2007-, TRECVID 2008- und CCV-Datensätzen durchgeführt wurden, bestätigen RELIEF-MM als effiziente, genaue und robuste Methode der Modalitätsgewichtung für Multimediadaten.;-;-;-;https://link.springer.com/article/10.1007/s00530-014-0360-6 ae9e722719d2d441a27e66ceba090938;de;;;7.4.;;;Automatisierte Patent-Landschaftsgestaltung Patent Landschaftsbau ist der Prozess der Suche nach Patenten zu einem bestimmten Thema. Es ist wichtig für Unternehmen, Investoren, Regierungen und Wissenschaftler, die Innovationen einschätzen und Risiken einschätzen möchten. Es gibt jedoch keinen allgemein anerkannten besten Ansatz für die Landschaftsgestaltung. Patent Landschaftsgestaltung ist häufig ein maßgeschneiderter, von Menschen gesteuerter Prozess, der stark auf komplexen Abfragen über bibliografische Patentdatenbanken beruht. In diesem Whitepaper stellen wir Automated Patent Landscaping vor, einen Ansatz, der das Fachwissen der menschlichen Domänen, Heuristiken basierend auf Patentmetadaten und maschinelles Lernen nutzt, um mit minimalem Aufwand hochwertige Patentlandschaften zu generieren. Insbesondere beschreibt dieses Papier eine flexible automatisierte Methodik zum Aufbau einer Patentlandschaft für ein Thema basierend auf einem anfänglichen Seed-Set von Patenten. Dieser Ansatz verwendet von Menschen ausgewählte Saatgutpatente, die für ein Thema repräsentativ sind, wie z;-;-;-;https://link.springer.com/article/10.1007/s10506-018-9222-4 48ffb0148b9570f7426037578b85cfb5;de;;;7.4.;;;Miteinander lernen in Differentialspielen Gameplaying ist seit vielen Jahren ein beliebtes Problemfeld für die Forschung in den Bereichen Künstliche Intelligenz und Machine Learning. In fast jeder Studie zum Spielen und maschinellem Lernen lag der Fokus auf Spielen mit einer endlichen Menge von Zuständen und einer endlichen Menge von Aktionen. Darüber hinaus haben sich die meisten dieser Forschungen auf einen einzelnen Spieler oder ein Team konzentriert, das lernt, wie man gegen einen anderen Spieler oder ein anderes Team spielt, das eine feste Strategie zum Spielen des Spiels anwendet. In diesem Beitrag untersuchen wir Multiagenten-Lernen im Kontext des Gameplays und entwickeln Algorithmen für das „Co-Learning“, bei dem alle Spieler versuchen, ihre optimalen Strategien gleichzeitig zu erlernen. Konkret befassen wir uns mit zwei Ansätzen für das gemeinsame Lernen, die eine starke Leistung eines gedächtnisbasierten Verstärkungslerners und eine vergleichbare, aber schnellere Leistung mit einem baumbasierten Verstärkungslerner demonstrieren.;-;-;-;https://link.springer.com/article/10.1023/A%3A1007566607659 6d57189bf32a924d8541c586032e7bd1;de;;;7.4.;;;Navigationsverhaltensmodelle zur Optimierung der Linkstruktur Die Analyse bestehender Methoden zur automatischen Optimierung von Linkstrukturen zeigt, dass diese Methoden stark von Annahmen über die Präferenzen und das Navigationsverhalten der Nutzer abhängig sind. Autoren geben diese Annahmen oft nicht ausdrücklich an und bewerten nicht, ob die Annahmen mit dem tatsächlichen Verhalten der Benutzer der Site übereinstimmen. Dies ist ein gravierender Mangel, da Experimente mit simulierten Benutzern zeigen, dass falsche Annahmen leicht zu ineffizienten Linkstrukturen führen können. In dieser Arbeit stellen wir einen Rahmen vor, der einen systematischen Überblick über alternative Annahmen gibt. Auf der Grundlage des Frameworks können wir eine Reihe von Annahmen auswählen, die am besten zum Navigationsverhalten der Benutzer in den Logdateien der Site passen. Außerdem stellen wir eine Methode zur Optimierung hierarchischer Navigationsmenüs auf Basis der ausgewählten Annahmen vor. Diese Methode kann interaktiv unter voller Kontrolle eines Webmasters verwendet werden. Das System schlägt Änderungen der Struktur vor und erklärt, warum diese Änderungen zu effizienteren Menüs führen. Die Auswertung anhand einer Fallstudie zeigt, dass die vorgeschlagenen Modifikationen die zu erwartende Navigationszeit effektiv reduzieren, während die Kohärenz der Menüstruktur erhalten bleibt.;-;-;-;https://link.springer.com/article/10.1007/s11257-007-9030-0 d523c4f63cc38951e65bd26de7cce05f;de;;;7.4.;;;Könnte maschinelles Lernen die Vorhersage von Kinderarbeit in Peru verbessern? Kinderarbeit ist in Entwicklungsländern ein relevantes Problem, da sie sich negativ auf das Wirtschaftswachstum auswirken kann. Politische Entscheidungsträger und Regierungsbehörden benötigen Informationen, um ihre knappen Ressourcen zur Bewältigung dieses Problems richtig einzusetzen. Obwohl es Forschungen gibt, die versuchen, die Ursachen von Kinderarbeit vorherzusagen, haben frühere Studien nur lineare statistische Modelle verwendet. Nichtlineare Modelle können die Vorhersagekapazität verbessern und somit die Ressourcenzuweisung optimieren. Die Anwendung dieser Techniken auf diesem Gebiet bleibt jedoch unerforscht. Unsere Studie vergleicht anhand von Daten aus Peru die Vorhersagefähigkeit des traditionellen Logit-Modells mit künstlichen neuronalen Netzen. Unsere Ergebnisse zeigen, dass neuronale Netze bessere Vorhersagen liefern könnten als das Logit-Modell. Die Ergebnisse deuten darauf hin, dass geografische Indikatoren, Einkommensniveau, Geschlecht, Familienzusammensetzung und Bildungsniveau Kinderarbeit signifikant vorhersagen. Darüber hinaus schlägt das neuronale Netz die Relevanz jedes Faktors vor, was nützlich sein könnte, um Strategien zu priorisieren. Insgesamt könnte das neuronale Netz Regierungsbehörden dabei helfen, ihre Strategien anzupassen und Ressourcen effizienter zuzuweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-90596-9_2 6e3c04fe76e63a05c3ae5d7da3db8e1b;de;;;7.4.;;;Optimierung von Ensemble-Gewichtungen für Modelle des maschinellen Lernens: Eine Fallstudie zur Vorhersage von Wohnimmobilienpreisen Das Entwerfen von Ensemble-Lernern wurde als einer der bedeutenden Trends im Bereich des Datenwissens erkannt, insbesondere bei Data Science-Wettbewerben. Das Hauptziel der Studien in diesem Bereich. In diesem Beitrag wurde ein Optimierungsmodell vorgeschlagen, um Ensembles zu entwerfen, die versuchen, Verzerrungen und Varianzen von Vorhersagen zu minimieren. Mit Fokus auf Dienstleistungswissenschaften wurden zwei bekannte Wohnungsdatensätze als Fallstudien ausgewählt: Boston Housing und Ames Housing. Die Ergebnisse zeigen, dass unsere entworfenen Ensembles bei der Vorhersage der Hauspreise sowohl in Boston- als auch in Ames-Datensätzen sehr wettbewerbsfähig sein können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30967-1_9 3b0b42dda1c3b4add78ad18938568b8f;de;;;7.4.;;;Kollaborative Dienste zur Pflege elektronischer Geschäftsbeziehungen Elektronische kollaborative Netzwerke sind ein vorherrschendes Konzept in der aktuellen betriebswirtschaftlichen Literatur. Durch das Aufkommen neuer Konzepte wie „Serviceorientierung“ und serviceorientierte Architekturen haben elektronische Netzwerke und Business Intelligence an Dynamik und Wiederbelebung gewonnen. In der Arbeit betrachten wir die konzeptionelle Gestaltung eines Frameworks für die Entwicklung von kollaborativen Diensten zur Pflege elektronischer Geschäftsbeziehungen. Der Leser lernt relevante Theorien und Forschungsstränge kennen, die in ein Design-Framework kollaborativer Dienste einfließen müssen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-73798-0_46 206b94f274ca9ff5d16e3977c987fb73;de;;;7.4.;;;Analyse der Einflussfaktoren auf die Einführung von Künstlicher Intelligenz für das Kriminalitätsmanagement Trotz der Vorteile der Künstlichen Intelligenz (KI) und ihres Potenzials, tiefe Einblicke und Vorhersagen zu gewinnen, sind ihre Akzeptanz und Nutzung im Bereich des Kriminalitätsmanagements immer noch begrenzt. Im Laufe der Jahre sind die Kriminalitätsraten in Indien gestiegen, und die Strafverfolgungsbehörden stehen angesichts der wachsenden Bevölkerung, der Urbanisierung, der begrenzten Ressourcen und der ineffektiven konventionellen Modelle der reaktiven und investigativen Polizeiarbeit vor enormen Herausforderungen. Es gibt eine beispiellose Gelegenheit für die KI, zusammen mit neuen Polizeimodellen wie erkenntnisgestützter Polizeiarbeit und vorausschauender Polizeiarbeit für ein effektives Kriminalitätsmanagement eingesetzt zu werden. In diesem Forschungspapier bieten wir ein tieferes Verständnis der Faktoren, die für die Einführung von KI für das Kriminalitätsmanagement in Indien von Bedeutung sind. Darüber hinaus wird die Studie in der Praxis den Strafverfolgungsbehörden helfen, KI effektiv zu nutzen und innovative Polizeimodelle für das Kriminalitätsmanagement zu implementieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-64849-7_1 f314ee441264982366ca33a9e2e65eeb;de;;;7.4.;;;Maschinenimprovisation in der Musik: Informationstheoretischer Ansatz Dieses Kapitel stellt die Methoden und Techniken der maschinellen Improvisation basierend auf informationstheoretischer Modellierung von Musik vor, beginnend mit der ersten universellen Klassifikation von 1998 Modellierung der Musik als Informationsquelle, Stilmischung mit gemeinsamer Informationsquelle, längenvariable Motivwörterbuchimprovisation basierend auf universell Vorhersage und Verwendung der Informationsdynamik für die symbolische Approximation im Improvisationsalgorithmus der Faktor-Orakelmaschine. Spätere Entwicklungen umfassen abfragegesteuerte Maschinenimprovisation, Freie-Energie-Modellierung der Musikkognition und Neuformulierung von Variationsmodellen generativer neuronaler Musik im Sinne der Rate-Distortion-Theorie. Dieser informationstheoretische Rahmen bietet eine neuartige Sichtweise der kreativen Musik-Mensch-Maschine-Interaktion als Kommunikationsproblem zwischen einem künstlichen Agenten und einem Musiker, der unter Knappheitsbeschränkungen einen optimalen Kompromiss zwischen Neuheit und stilistischer Nachahmung sucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72116-9_14 172fbcac5cf49b1110123490520ac2b5;de;;;7.4.;;;Regelextraktion basierend auf dem Datenzusammenfassungsansatz mit DARA Dieses Dokument hilft beim Verständnis und bei der Entwicklung eines Datenzusammenfassungsansatzes, der strukturierte Daten zusammenfasst, die in einer Nicht-Zieltabelle gespeichert sind, die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-88192-6_54 a731453eb0ad7a7b5c4218308de8694c;de;;;7.4.;;;Genselektion für die Krebsklassifizierung mit Hilfe von Support Vector Machines DNA-Mikroarrays ermöglichen es Wissenschaftlern nun, Tausende von Genen gleichzeitig zu screenen und festzustellen, ob diese Gene in normalem oder krebsartigem Gewebe aktiv, hyperaktiv oder stumm sind. Da diese neuen Mikroarray-Geräte verwirrende Mengen an Rohdaten erzeugen, müssen neue Analysemethoden entwickelt werden, um herauszufinden, ob Krebsgewebe charakteristische Signaturen der Genexpression gegenüber normalen Geweben oder anderen Arten von Krebsgeweben aufweisen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1012487302797 6386a6b51ceec647d8c0cc59b97a9e07;de;;;7.4.;;;Selbstadaptive Parameteroptimierung für die inkrementelle Klassifikation in Big Data mit neuronalen Netzen Big Data wird als das nächste große Ding angepriesen, das technische Herausforderungen mit sich bringt, denen sowohl akademische Forschungsgemeinschaften als auch kommerzielle IT-Bereitstellungen gegenüberstehen. Die Wurzelquellen von Big Data basieren auf unendlichen Datenströmen und dem Fluch der Dimensionalität. Es ist allgemein bekannt, dass sich Daten, die aus Datenströmen stammen, kontinuierlich ansammeln, was herkömmliche stapelbasierte Modellinduktionsalgorithmen für das Echtzeit-Data-Mining unmöglich macht. In der Vergangenheit wurden viele Methoden für inkrementelles Data Mining durch Modifizieren klassischer maschineller Lernalgorithmen, wie beispielsweise künstliche neuronale Netze, vorgeschlagen. In diesem Papier schlagen wir einen inkrementellen Lernprozess für überwachtes Lernen mit Parameteroptimierung durch neuronale Netze über den Datenstrom vor. Der Prozess ist mit einem Parameteroptimierungsmodul gekoppelt, das basierend auf einem gegebenen Segment des Datenstroms nach der besten Kombination von Eingabeparameterwerten sucht. Der Nachteil der Optimierung ist der hohe Zeitaufwand. Um diese Einschränkung zu beseitigen, wird eine Verlustfunktion vorgeschlagen, um das Auftreten von Konzeptdrift vorauszusehen, die eine der Hauptursachen für die Leistungsverschlechterung in Data-Mining-Modellen ist. Die Optimierung wird zwischendurch übersprungen, um Rechenkosten zu sparen. Eine Computersimulation wird durchgeführt, um die Vorzüge dieses inkrementellen Optimierungsprozesses für neuronale Netze zu bestätigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30146-4_8 13a23b5a4dbf143b1e1bba32de41bed4;de;;;7.4.;;;Überwachtes maschinelles Lernen für die Audio-Emotionserkennung Der Bereich der Musik-Emotions-Erkennung hat sich zu einer etablierten Forschungsunterdomäne des Music Information Retrieval entwickelt. Weniger Aufmerksamkeit wurde dem Gegenstück der Audio Emotion Recognition geschenkt, das sich auf die Erkennung emotionaler Reize konzentriert, die aus nichtmusikalischen Klängen resultieren. Durch ein besseres Verständnis, wie Klänge beim Publikum emotionale Reaktionen hervorrufen, kann es möglich sein, die Arbeit von Sounddesignern zu verbessern. Die Arbeit in dieser Arbeit verwendet das Set International Affective Digital Sounds. Aus den Klängen werden insgesamt 76 Merkmale extrahiert, die sich über den Zeit- und Frequenzbereich erstrecken. Die Merkmale werden dann einer ersten Analyse unterzogen, um zu bestimmen, welcher Ähnlichkeitsgrad zwischen den mit Pearson gemessenen Merkmalspaaren besteht;-;-;-;https://link.springer.com/article/10.1007/s00779-020-01389-0 9f0b7e7b4cc42c2e3b7b22b906e462e4;de;;;7.4.;;;Framework für das Mining von zeitlichen Datenströmen unter Verwendung eines inkrementell optimierten Very Fast Decision Forest Incrementally Optimized Very Fast Decision Tree (iOVFDT) ist ein neues Datenstrom-Mining-Modell, das ein Gleichgewicht zwischen kompakter Baumgröße und Vorhersagegenauigkeit optimiert. Der iOVFDT wurde auf Massive Online Analysis als Stand der Technik zu Open Source entwickelt. In diesem Buchkapitel besprechen wir verwandte Techniken und erweitern iOVFDT in iOVFDF („F“ für Forest of Trees) für das temporale Datenstrom-Mining. Ein Rahmen für Folgeforschung wird in diesem Artikel beschrieben. Ein Hauptproblem bei den aktuellen temporalen Data-Mining-Algorithmen liegt in der inhärenten Einschränkung des Batch-Lernens. Aber im wirklichen Leben können sich die verborgenen Konzepte von Datenströmen schnell ändern und die Daten können unendlich sein. Im Big-Data-Zeitalter ist inkrementelles Lernen attraktiv, da nicht das gesamte Datenvolumen verarbeitet werden muss. In diesem Rahmen schlagen wir vor, eine neue Art von Algorithmen für zeitliche Datenströme zu erforschen und zu entwickeln – iOVFDF. Wir integrieren für einen „Meta-Klassifikator“ namens iOVFD Forest über eine Sammlung von iOVFDT-Klassifikatoren. Der neue iOVFD Forest kann in Echtzeit zeitliche Assoziationen über mehrere Zeitreihen hinweg inkrementell lernen, während jeder zugrunde liegende individuelle iOVFDtree dynamisch Untersequenzmuster lernt und erkennt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-60435-0_19 5e2abca96a3baad28c533a922e300fde;de;;;7.4.;;;Kollaborative Konstruktionsoptimierung basierend auf Wissensentdeckung aus der Simulation In diesem Beitrag wird eine Methode zur kollaborativen Designoptimierung auf der Grundlage von Knowledge Discovery vorgestellt. Zunächst wird ein Ansatz zur Wissensentdeckung basierend auf Simulationsdaten vorgestellt. Regeln werden durch einen Knowledge Discovery-Algorithmus extrahiert, und jede Regel wird in mehrere Intervalle unterteilt. Zweitens wird ein kollaboratives Optimierungsmodell etabliert. Im Modell werden die Konsistenzintervalle aus Intervallen der Wissensentdeckung abgeleitet. Das Modell wird durch genetische Arithmetik aufgelöst. Schließlich wird das Verfahren durch ein Parameterentwurfsproblem des Kolbenverbindungsmechanismus eines Kraftfahrzeugmotors demonstriert. Das vorgeschlagene Verfahren kann die Robustheit der kollaborativen Designoptimierung verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/11925231_63 c32b8684ca677736ba881db602dec1eb;de;;;7.4.;;;Ein hierarchischer Lernalgorithmus für mehrere Klassifikatoren Dieses Papier befasst sich mit dem Klassifizierungsproblem für Anwendungen mit umfangreichen Datenmengen und einer großen Anzahl von Funktionen. Das entwickelte Lernsystem verwendet ein hierarchisches Mehrfachklassifikatorschema und ist flexibel, effizient, hochgenau und kostengünstig. Das System hat mehrere neuartige Eigenschaften: (1) Es verwendet einen graphentheoretischen Clustering-Algorithmus, um die Trainingsdaten in möglicherweise überlappende Cluster zu gruppieren, die jeweils eine dichte Region im Datenraum darstellen, (2) Komponentenklassifikatoren, die auf diese dichten Regionen trainiert wurden, sind Spezialisten deren wahrscheinlichkeitstheoretische Ausgänge Gatter-Eingänge zu einem Superklassifikator sind. Nur diejenigen Klassifizierer, deren Trainingscluster am meisten mit einer unbekannten Dateninstanz in Beziehung stehen, senden ihre Ausgaben an den Superklassifizierer, und (3) Unterklassenkennzeichnung wird verwendet, um die Klassifizierung von Superklassen zu verbessern. Das lernende System erreicht die Ziele, die Trainingskosten zu reduzieren und die Vorhersagegenauigkeit im Vergleich zu anderen Mehrfachklassifikatoralgorithmen zu erhöhen. Das System wurde mit drei großen Datensätzen getestet, zwei aus dem Bereich der medizinischen Diagnose und einer aus einem Problem der Waldbedeckungsklassifikation. Die Ergebnisse sind denen anderer Lernalgorithmen überlegen.;-;-;-;https://link.springer.com/article/10.1007/s10044-002-0187-1 c41d5dad68c8386e0bf88e3c771e6f93;de;;;7.4.;;;Biomedizinische semantische Indizierung durch Deep Neural Network mit Multi-Task-Learning Die biomedizinische semantische Indexierung ist wichtig für die Informationsbeschaffung und viele andere Forschungsfelder der Bioinformatik. Es kommentiert biomedizinische Zitate mit medizinischen Schlagworten. Angesichts der unausgeglichenen Kategorienverteilung in den Trainingsdaten sind Stichprobenverfahren für semantische Indexierungsaufgaben schwierig anzuwenden.;-;-;-;https://link.springer.com/article/10.1186/s12859-018-2534-2 81c8f881196aa8458c73e24667ed9ee8;de;;;7.4.;;;HIPRank: Rangfolge von Knoten nach Einflussausbreitung basierend auf Autorität und Hub Herkömmliche Zentralitätsmaße wie Grad, Betweenness, Closeness und Eigenvektor ignorieren die intrinsischen Auswirkungen eines Knotens auf andere Knoten. Dieses Papier schlägt einen neuen Algorithmus namens HIPRank vor, um Knoten basierend auf ihren Einflüssen im Netzwerk einzustufen. HIPRank umfasst zwei Unterprozeduren: Eine besteht darin, die Bedeutung einer beliebigen kleinen Anzahl von Knoten mit den Präferenzen der Benutzer vorzudefinieren, und die andere besteht darin, die Einflüsse von Knoten in Bezug auf Autorität und Hub auf andere Knoten basierend auf dem HIP-Ausbreitungsmodell zu übertragen . Experimente im DBLP-Zitatnetzwerk (über 1,5 Millionen Knoten und 2,1 Millionen Kanten) zeigen, dass HIPRank einerseits die Knoten priorisieren kann, die eine enge Beziehung zu den vom Benutzer bevorzugten Knoten mit einem höheren Rang als andere Knoten haben, und andererseits HIPRank kann die autoritativen Knoten (mit Autorität) und Anweisungsknoten (mit Hub) gemäß den Präferenzen der Benutzer aus dem Netzwerk abrufen.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-55209-3_1 e9e8ac00b4225a2b2d0cc7e14dd81cae;de;;;7.4.;;;Landwirtschaftliche Analyse mit Techniken des maschinellen Lernens Die Informations- und Kommunikationstechnologie im Gartenbau, die als E-Farming bekannt ist, hilft bei der Erfindung und Implementierung verschiedener Methoden zur Nutzung von IKT in den Ländern Die kontinuierliche Bewirtschaftung verändert die Fruchtbarkeitswerte des Bodens, was dazu führt, dass fruchtbares Land in unfruchtbares Land verwandelt wird, und es führt auch zu Ertragsverlusten. Um dieses Problem zu lösen, schlagen wir einen neuen Rahmen vor, in dem Sie alle Informationen darüber erhalten, welche Art von Kultur angebaut werden muss, um maximale Gewinne zu erzielen. Das vorgeschlagene System gibt Auskunft darüber, wie viel Pestizide basierend auf den im Boden vorhandenen Stickstoff- und Phosphatwerten eingesetzt werden sollten. Das vorgeschlagene System bietet auch die AgriTalk-Funktion, mit der Sie Ihre Anfrage zu den von Ihnen benötigten Informationen stellen und innerhalb von Minuten Ergebnisse erhalten können.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7511-2_60 375e28cd73a24bc42cf1f212b575942b;de;;;7.4.;;;Segmentierung von Bauchaortenaneurysmen aus kontrastverstärkter Computertomographie-Angiographie unter Verwendung von Deep Convolutional Networks Eines der gebräuchlichsten bildgebenden Verfahren zur Diagnose eines abdominalen Aortenaneurysmas und einer Endoleak-Detektion ist die Computertomographie-Angiographie. In diesem Artikel behandeln wir das Problem der semantischen Segmentierung von Aorta und Thrombus, was ein obligatorischer Schritt ist, um den Durchmesser des Aortenaneurysmas abzuschätzen. Drei End-to-End-Convolutional Neural Networks wurden trainiert und evaluiert. Schließlich haben wir ein Ensemble von tiefen neuronalen Netzen mit den zugrunde liegenden U-Net-, ResNet- und VBNet-Frameworks vorgeschlagen. Unsere Ergebnisse zeigen, dass wir moderne Methoden ohne zusätzliche Nachbearbeitungsschritte um 3% bei der Dice-Metrik übertreffen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-55814-7_13 64a10569bbdec12fad7d0ff9bed77688;de;;;7.4.;;;Künstliche Intelligenz und Recht Dieser Artikel beabsichtigt eine Analyse der Schnittmenge zwischen Künstlicher Intelligenz (KI) und natürlicher Intelligenz (NI) und ihrer Anwendung im Geltungsbereich des Rechts. Die Auswirkungen der Informationstechnologie, der Methoden und Techniken, die von den wichtigsten in den letzten Jahren entwickelten Systemen verwendet werden und die die Elemente für die Entwicklung intelligenter Anwendungen im Rechtsbereich sind, mit dem Ziel, die Fähigkeit zu zeigen, das Wissen richtig zu manipulieren seine Beziehungen zu systematisieren, seine Verbindungen zu klären, die Ergebnisse und Anwendungen zu bewerten. Es besteht ein echter Bedarf an neuen Werkzeugen, die die besten KI- und NI-Techniken in Einklang bringen, Methoden und Techniken zur Speicherung und Manipulation von Informationen generieren, was sich auf Recht und Justiz auswirkt.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-8151-0_3 6512f21047fe6fbbccf53053bac2afa5;de;;;7.4.;;;Vorschlag zur Etagenauswahl für automatisiertes Reisen mit Smart Elevator Aufzüge werden seit Jahrhunderten verwendet, um Material und Personen zu transportieren, deren Geschichte bis ins 19. Jahrhundert zurückreicht. Moderne Aufzüge, wie wir sie heute verwenden, wurden vor etwa 150 Jahren weit verbreitet, und trotz vieler Verbesserungen und technologischer Fortschritte ist das allgemeine Konzept gleich geblieben. Der typische Aufzug benötigt immer noch die Eingaben des Reisenden, um den Passagier von einer Etage in eine andere zu bringen. In diesem Beitrag untersuchen wir die Möglichkeit, die Zieletage von Aufzugspassagieren vorherzusagen. Für diese Aufgabe verwenden wir Fahrgastprofile, die durch Deep Learning erstellt wurden, und arbeiten die Fahrthistorie des Fahrgasts aus, um die Etage vorherzusagen, die der Fahrgast reisen möchte. Die Studie basiert auf einem intelligenten Aufzugssystem, das in einem typischen Bürogebäude installiert ist. Ziel ist es, einen personalisierten Aufzugsservice im Rahmen eines intelligenten Aufzugs bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-57672-1_4 6a9cc933c47272941c467587fda9c4bd;de;;;7.4.;;;Vergleich der Netzwerk-Malware-Klassifizierung mithilfe von DPI- und Flow-Packet-Headern Um Cyber-Angriffen und digitalen Bedrohungen entgegenzuwirken, müssen Sicherheitsexperten von Malware generierte Informationen zu Cyber-Bedrohungen generieren, teilen und ausnutzen. In dieser Studie adressieren wir das Problem des Fingerabdrucks der Bösartigkeit des Datenverkehrs zum Zwecke der Erkennung und Klassifizierung. Wir zielen zunächst darauf ab, Schädlichkeit zu erkennen, indem wir zwei Ansätze verwenden: Deep Packet Inspection (DPI) und IP-Paket-Header-Klassifizierung. Zu diesem Zweck betrachten wir bösartigen Datenverkehr, der aus der dynamischen Malware-Analyse generiert wird, als Ground Truth der Datenverkehrs-Bösewicht. Angesichts dieser Annahme stellen wir vor, wie diese beiden Ansätze verwendet werden, um verschiedene Bedrohungen zu erkennen und ihnen zuzuschreiben. In dieser Arbeit untersuchen wir die positiven und negativen Aspekte der Deep Packet Inspection und der Klassifizierung von IP-Paket-Headern. Wir bewerten jeden Ansatz anhand seiner Erkennungs- und Attributionsgenauigkeit sowie seiner Komplexität. Die Ergebnisse beider Ansätze haben vielversprechende Ergebnisse in Bezug auf die Detektion gezeigt, sie sind gute Kandidaten, um eine Synergie zu entwickeln oder Detektionssysteme in Bezug auf Laufzeitgeschwindigkeit und Klassifizierungspräzision zu bestätigen.;-;-;-;https://link.springer.com/article/10.1007/s11416-015-0247-x bd09bd72efc92534d5adaa46567e5ca6;de;;;7.4.;;;Ein hybrider Ansatz für DBQA Die dokumentenbasierte Fragebeantwortung (DBQA) ist eine Unteraufgabe der offenen Fragebeantwortung, die darauf abzielt, den/die Antwortsatz(e) aus den gegebenen Dokumenten für eine Frage auszuwählen. In diesem Papier schlagen wir einen hybriden Ansatz vor, um Antwortsätze auszuwählen, indem wir vorhandene Modelle über das Rang-SVM-Modell kombinieren. Konkret erfassen wir die Wechselbeziehung zwischen Frage- und Antwortsätzen aus drei Aspekten: Oberflächen-String-Ähnlichkeit, tiefe semantische Ähnlichkeit und Relevanz basierend auf Information-Retrieval-Modellen. Unsere Experimente zeigen, dass ein verbessertes Retrieval-Modell andere Methoden, einschließlich der Deep-Learning-Modelle, übertrifft. Und wenn wir ein Rang-SVM-Modell anwenden, um all diese Merkmale zu kombinieren, erreichen wir im Eröffnungstest 0,8120 im mittleren reziproken Rang (MRR) und 0,8111 im mittleren Genauigkeitswert (MAP).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-50496-4_87 3d04b9efe351d2fa0fbcac83f0130808;de;;;7.4.;;;Methoden des maschinellen Lernens bei der Erkennung von abnormalem Systemverhalten Ziel der Forschung ist es, mathematische und programmatische Unterstützung zur Erkennung von abnormalem Verhalten von Benutzern zu entwickeln. Es basiert auf der Analyse ihrer biometrischen Verhaltensmerkmale. Eines der Hauptprobleme in intelligenten UEBA/DSS-Systemen besteht darin, nützliche Informationen aus einer großen Menge unstrukturierter, inkonsistenter Daten zu erhalten. Die Entscheidungsfindung des Managements sollte auf realen Daten basieren, die aus dem analysierten Merkmal gesammelt wurden. Auf Basis der erhaltenen Informationen ist es jedoch eher schwierig, eine Managemententscheidung zu treffen, da die Daten heterogen und ihr Volumen extrem groß sind. Die Anwendung von Methoden des maschinellen Lernens bei der Implementierung des mobilen UEBA/DSS-Systems wird vorgeschlagen. Dadurch wird es möglich, eine qualitativ hochwertige Datenanalyse zu erreichen und komplexe Abhängigkeiten darin zu finden. Während der Forschung wurde eine Liste der wichtigsten Faktoren erstellt, die in die Analysemethoden eingeflossen sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-53956-6_45 c6fe397f76f36e3341b9fcd88e9b8603;de;;;7.4.;;;Effiziente Vorhersagealgorithmen für binäre Dekompositionstechniken Binäre Dekompositionsverfahren wandeln Mehrklassen-Lernprobleme in eine Reihe von Zweiklassen-Lernproblemen um, die mit einfacheren Lernalgorithmen gelöst werden können. Da die Anzahl solcher binärer Lernprobleme oft superlinear mit der Anzahl der Klassen wächst, benötigen wir effiziente Methoden zur Berechnung der Vorhersagen. In diesem Artikel diskutieren wir einen effizienten Algorithmus, der nur eine dynamisch bestimmte Teilmenge der trainierten Klassifikatoren abfragt, aber immer noch dieselben Klassen vorhersagt, die vorhergesagt worden wären, wenn alle Klassifikatoren abgefragt worden wären. Der Algorithmus wird zunächst für den einfachen Fall der paarweisen Klassifikation abgeleitet und dann auf beliebige paarweise Zerlegungen des Lernproblems in Form von ternären fehlerkorrigierenden Ausgabecodes unter einer Vielzahl unterschiedlicher Codedesigns und Decodierungsstrategien verallgemeinert.;-;-;-;https://link.springer.com/article/10.1007/s10618-011-0219-9 789c1d85b28332b23a011ae013d51bd5;de;;;7.4.;;;Ein Multi-Agenten-basierter Ansatz für das Clustering: Die Macht der Agenten nutzen Es wird ein Framework für Multi-Agenten-basiertes Clustering beschrieben, wobei einzelne Agenten individuelle Cluster darstellen. Ein besonderes Merkmal des Frameworks besteht darin, dass die Agenten, nachdem eine anfängliche Clusterkonfiguration erzeugt wurde, in der Lage sind, im Hinblick auf eine Verbesserung dieser anfänglichen Clusterbildung zu verhandeln. Das Framework kann im Kontext einer Reihe von Clustering-Paradigmen verwendet werden, zwei werden untersucht: K-Means und KNN. Die gemeldete Auswertung zeigt, dass Verhandlung dazu dienen kann, eine anfängliche Clusterkonfiguration zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27609-5_3 0e5986f482be2ded1971047f7eaed7bd;de;;;7.4.;;;Aufmerksamkeitsnetzwerk für die Vorhersage von Produkteigenschaften basierend auf Bewertungen Online-Bewertungen werden heute häufig im E-Commerce und auf anderen Websites verwendet, die Verbrauchern oder potenziellen Verbrauchern umfassende Informationen über Produkte liefern können. In der Realität erhalten Verbraucher oft mehr Informationen über Produkte aus Bewertungen und finden die für sich besser geeigneten Produkte. Allerdings ist das Lesen vieler Bewertungen für Kunden offensichtlich Zeitverschwendung. In den letzten Jahren haben Forscher damit begonnen, zu untersuchen, wie kritische Informationen aus Bewertungen durch maschinelles Lernen als Referenzinformationen für Produkte extrahiert werden können, anstatt viele Bewertungen von Kunden selbst anzuzeigen. Es beschränkt sich jedoch auf die emotionale Beurteilung. Es gibt mehr Produktmerkmale, die extrahiert werden können, um umfassendere Informationen für den Verbraucher zu bilden. Inzwischen ignorieren alle bestehenden Methoden die Beschreibungen des Produkts selbst, die von den Verkäufern gegeben werden. Aus den oben genannten Motivationen schlagen wir ein neues Netzwerk vor, das auf dem Aufmerksamkeitsmechanismus (kurz RAN) basiert, um mehr Produkteigenschaften (z. B. Kurz oder Horror) vorherzusagen. Experimentelle Ergebnisse zeigen, dass unsere Methode bei zwei realen Datensätzen ein State-of-the-Art-Ergebnis erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36802-9_21 bf2199ce3045a06879a8ce353b32dbab;de;;;7.4.;;;Unterstützungsvektorlernen im großen Maßstab mit strukturellen Kerneln Kern In diesem Artikel präsentieren wir eine umfassende Studie des Schnittebenenalgorithmus (CPA), der auf strukturelle Kernel zur erweiterten Textklassifizierung großer Datensätze angewendet wird. Insbesondere führen wir ein umfassendes Experimentieren zu zwei interessanten natürlichsprachlichen Aufgaben durch, z.B. Prädikatenargumentextraktion und Fragebeantwortung. Unsere Ergebnisse zeigen, dass (i) CPA, das zum Trainieren eines nichtlinearen Modells mit verschiedenen Baumkernen angewendet wird, vollständig der Genauigkeit des herkömmlichen SVM-Algorithmus entspricht und dabei zehnmal schneller ist, (ii) durch die Verwendung kleinerer Stichprobengrößen zur Annäherung an Subgradienten in CPA können wir Kompromisse zwischen Genauigkeit und Geschwindigkeit, dennoch bleiben die gefundenen optimalen Parameter und Kernel optimal für die genaue SVM. Diese Ergebnisse eröffnen zahlreiche Forschungsperspektiven, z.B. in der Verarbeitung natürlicher Sprache, da sie zeigen, dass komplexe Strukturkerne in realen Anwendungen effizient eingesetzt werden können. So konnten wir zum Beispiel erstmals umfangreiche Tests mehrerer Baumkerne an Millionen von Trainingsinstanzen durchführen. Als direkten Vorteil könnten wir mit einer Variante des partiellen Baumkerns experimentieren, die wir auch in diesem Papier vorschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15939-8_15 9c1918e41b282a8afe891da2c35407be;de;;;7.4.;;;Verallgemeinertes Merkmalsähnlichkeitsmaß Die Quantifizierung des Grades der Beziehung zwischen einer Feature- und einer Zielklasse ist einer der Schlüsselaspekte des maschinellen Lernens. In diesem Zusammenhang Informationsgewinn (IG) und;-;-;-;https://link.springer.com/article/10.1007/s10472-020-09700-8 0ce17186602a292e86027174ab86a3cf;de;;;7.4.;;;L2R-QA: Ein Open-Domain-Framework zur Beantwortung von Fragen Die Beantwortung von offenen Fragen war schon immer eine herausfordernde Aufgabe. Es umfasst Informationsabruf, Verarbeitung natürlicher Sprache, maschinelles Lernen und so weiter. In dieser Arbeit versuchen wir, einige vergleichbare Methoden zur Verbesserung der Präzision der Beantwortung von offenen Fragen zu untersuchen. Im Detail bringen wir das Themenmodell in die Phase des Dokumentenabrufs ein, in der Hoffnung, mehr verborgene semantische Informationen eines Dokuments zu nutzen. Außerdem integrieren wir das Learning-to-Rank-Modell in das LSTM, um mehr verfügbare Funktionen für das Ranking von Kandidatenabsätzen zu trainieren. Konkret kombinieren wir die Ergebnisse sowohl aus LSTM als auch aus dem Learning-to-Rank-Modell, was zu einem genaueren Verständnis der Fragen sowie der Absätze führt. Wir führen eine umfangreiche Reihe von Experimenten durch, um die Wirksamkeit unseres vorgeschlagenen Rahmens zu bewerten, der sich als überlegen erweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36204-1_12 7120f862236cbf788d66c4df81306001;de;;;7.4.;;;Design-Automatisierungssystem für Review-Analyse-Zugehörigkeit zur Online-Zuverlässigkeitsprognose für Lehrkräfte In diesem Whitepaper haben wir ein Automatisierungssystem für die Überprüfungsanalyse entwickelt, um die Glaubwürdigkeit der Online-Matching-Plattform für Bildung zu erfassen. Beim Web-Crawling werden Bewertungen und Bewertungen von Lehrkräften gesammelt und analysiert, bei denen es sich um atypische Daten handelt. Wir werden ein emotionales Wörterbuch aufbauen, das auf dem Bildungsbereich basiert, um die Glaubwürdigkeit von Online-Pädagogen anhand gesammelter Bewertungsdaten und SO-PMI zu erfassen. Wir schlagen auch ein Verfahren zum Erstellen umfangreicher Lerndaten basierend auf dem konstruierten Emotionswörterbuch vor. Wir haben ein System vorgeschlagen, das zuverlässigere Ergebnisse der Überprüfungsanalyse liefert, indem die Genauigkeit des Emotionswörterbuchs gemessen wird, indem Deep Learning in konstruierten Lerndaten und Bewertungsdaten verwendet wird. Auf diese Weise möchten wir helfen, die Glaubwürdigkeit von Pädagogen im O2O-Bildungsmatching zu beurteilen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9341-9_52 039b458bde3a4b7490a4cd6b47806c18;de;;;7.4.;;;Wissensbasiertes multikriterielles räumliches Entscheidungsunterstützungssystem (MC-SDSS) zur Trendbewertung der Siedlungseignung Spatial Data Mining ist die Entdeckung interessanter versteckter Muster und Merkmale, die implizit in räumlichen Datenbanken enthalten sein können. Dieses Papier zielt darauf ab, ein deskriptives Modell zur Untersuchung der Eignung in Siedlungen zu erstellen, indem verschiedene Techniken des maschinellen Lernens angewendet werden, um die Wissensentdeckung in räumlichen Datenbanken (KDSD) herauszufinden. Die Studie veranschaulicht das einzigartige Kennzeichen, das das Geodaten-Mining durch die Durchführung der Data-Mining-Algorithmen charakterisiert. Darüber hinaus präsentiert die Studie die Bedeutung von Spatial Data Mining und diskutiert die Vorverarbeitung mehrerer Datensätze, Klassifizierungsfunktionen, Clustering und Ausreißererkennung in Richtungen überwachtes Lernen zum Extrahieren von Klassifizierungsregeln und zur Bewertung der lokalen Amenität basierend auf der Regelzuverlässigkeit. Die Klassifikationsgenauigkeit unter den drei Methoden der Klassifikatoralgorithmen (Entscheidungsbaum, regelbasiert und Bayesian) wird ebenfalls verglichen, wodurch der geeignetste Klassifikator durch experimentelle Leistungsbewertung des Trainings- und Testsatzes bestimmt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-74500-8_53 dae43577ddd902d2cdb16ae85b77ae63;de;;;7.4.;;;Konsolidierung durch kontextsensitives Lernen mit mehreren Aufgaben Maschinelles lebenslanges Lernen (ML3) befasst sich mit Maschinen, die in der Lage sind zu lernen und Wissen im Laufe der Zeit zu behalten und dieses Wissen zu nutzen, um neues Lernen zu unterstützen. Ein ML3-System muss das Wissen über frühere Aufgaben genau speichern, während es das Wissen über neue Aufgaben festigt, um das Stabilitäts-Plastizitäts-Problem zu überwinden. Ein System wird mit einem kontextsensitiven Mehraufgabenlernen (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21043-3_16 153328a563a75ca3559b3d84cb035819;de;;;7.4.;;;Analyse der Ausfallrate medizinischer Geräte mithilfe von überwachtem maschinellem Lernen Maschinelles Lernen wird häufig verwendet, um Muster in Daten zu erkennen und Modelle zusammenzustellen, die zukünftige Ergebnisse basierend auf historischen Daten antizipieren. Eine der entscheidenden Komponenten für eine effiziente Gesundheitsversorgung sind medizinische Geräte. Die Anwendung von maschinellem Lernen zur Modellierung und Vorhersage von Ausfallraten ist von großer Bedeutung. Daher wurden zwei unterschiedliche stochastische Modelle, ARMA- und GARCH-Modelle, verwendet, um Daten zur Ausfallrate zu analysieren. Das Ergebnis jedes Modells wurde mit früheren Arbeiten verglichen, um das beste Modell zu erhalten, das die Ausfallratendaten repräsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-74690-6_32 569ff4bc2afe6eed299154b09dd59bac;de;;;7.4.;;;Grundlagen der Quantentheorie für die quantenähnliche Modellierung von Information Retrieval Dieses Kapitel enthält eine kurze Einführung in den mathematischen Formalismus und die Axiomatik der Quantenmechanik (QM). Kürzlich wurden Quantenmathematik und -methodik weit verbreitet für die Modellierung der Entscheidungsfindung für Menschen und KI-Systeme verwendet, einschließlich der quantenähnlichen Modellierung von Informationen. Experten auf solchen Gebieten gehen nicht tief in die Details der Quantentheorie ein. Darüber hinaus verwenden solche Verbraucher der Quantentheorie typischerweise nicht alle ihre Komponenten. Die Quantenmesstheorie ist am nützlichsten für die Anwendung, einschließlich der Informationsgewinnung. Das Hauptproblem ist die Quantenbehandlung von inkompatiblen Observablen, die mathematisch durch nichtkommutierende hermitesche Operatoren dargestellt werden. Auf der Ebene der statistischen Daten wird Inkompatibilität als Interferenz von Wahrscheinlichkeiten in Form einer Modifikation der Formel der Gesamtwahrscheinlichkeit durch Hinzufügen des Interferenzterms dargestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-25913-6_4 3c51201872e19ea5c4b26cdcd53210c9;de;;;7.4.;;;Anwenden von Resampling-Methoden für unausgeglichene Datensätze auf nicht so unausgeglichene Datensätze In letzter Zeit wurden viele Anstrengungen unternommen, um neue intelligente Resampling-Methoden vorzuschlagen, um Klassenungleichgewichtsprobleme zu lösen, eine der Hauptherausforderungen der heutigen Machine-Learning-Community. Der Zweck dieser Methoden besteht normalerweise darin, die Klassen auszugleichen. Es gibt jedoch Arbeiten in der Literatur, die zeigen, dass diese Methoden auch geeignet sein können, die Klassenverteilung von nicht so unausgewogenen und sogar ausgeglichenen Datenbanken auf eine andere Verteilung als 50% zu ändern und das Ergebnis des Lernprozesses signifikant zu verbessern. Ziel dieser Arbeit ist es zu analysieren, welche Resampling-Methoden in diesem Zusammenhang am wettbewerbsfähigsten sind. Experimente wurden mit 29 Datenbanken, 8 verschiedenen Resampling-Methoden und zwei Lernalgorithmen durchgeführt und mit AUC-Leistungsmetriken und statistischen Tests bewertet. Die Ergebnisse zeigen, dass SMOTE, die bekannte intelligente Resampling-Methode, einer der besten Kandidaten für den Einsatz ist, da sie die Ergebnisse einiger ihrer im Kontext von Klassenungleichgewichten erfolgreichen Varianten verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40643-0_12 b4660ab063cc2c46196dbccb450a2052;de;;;7.4.;;;Maschinelles Lernen und Big-Data-Verarbeitung: Eine technologische Perspektive und Überprüfung In diesem Artikel wird die Rolle von auf Machine Learning (ML) basierenden Algorithmen und Methoden in Big Data Processing & Analytics (BDA) diskutiert. ML und BDA sind beides evolutionäre Gebiete der Informatik, und die Entwicklungen in diesen Gebieten ergänzen sich. Die sich ständig verändernde Datenlandschaft in der modernen digitalen Welt hat zu neueren Wegen der Datenverarbeitungs-Frameworks geführt, um aussagekräftige, beispiellose Erkenntnisse zu gewinnen. Dieses Papier bietet einen detaillierten Überblick über die neuesten Entwicklungen bei ML-Algorithmen für die Big-Data-Verarbeitung. Im späteren Abschnitt werden auch die wichtigsten Herausforderungen im Zusammenhang mit der Anwendung von ML-basierten Ansätzen erörtert. ML-basierte Big-Data-Verarbeitung hat an Popularität gewonnen und neue Entwicklungen für eine effiziente Datenverarbeitung sind auf dem Vormarsch. In diesem Feld entstehen beispiellos neue Methoden und Ansätze für eine effiziente Datenverarbeitung, um die Interessantheit für die Entscheidungsfindung zu entdecken. Daher werden immer mehr ML-basierte Datenverarbeitungsansätze für Big Data Processing verwendet. Mit der Fülle an Daten aus verschiedenen neueren Quellen, der heterogenen Natur der Daten, unsicheren und unstrukturierten Daten, den sogenannten Big Data mit all ihren Eigenschaften (5 Vs) besteht ein immer größerer Bedarf an Ansätzen, die bei der Modellierung und Verarbeitung dieser Daten helfen , einen automatisierten Ansatz für die Datenverarbeitung bieten und so weiter. Diese Art von neuen Verarbeitungsanforderungen hat der Entwicklung neuer ML-basierter Methoden zu deren Verwaltung und Verarbeitung einen großen Schub gegeben. Das Papier wird für Wissenschaftler von Nutzen sein, die in diesem interessanten und herausfordernden Bereich der ML und Big Data Processing forschen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-74690-6_46 aa047be94d2eaf9fcf99a95dc4cb182c;de;;;7.4.;;;Militärische Anwendungen künstlicher Intelligenz Künstliche Intelligenz (KI) ist eine der zentralen technologischen Innovationen der Zukunft, die eine wichtige Rolle bei wichtigen Veränderungen in der Welt, bei der Transformation und Entwicklung der modernen Gesellschaft spielen kann. Die KI-Technologie ist in eine neue Phase rasanter Entwicklung eingetreten. Gegenwärtig gilt es als das, was die zukünftige Welt der disruptiven Technologien am wahrscheinlichsten verändern wird. Viele Länder der Welt haben das Niveau der Entwicklung von KI in der nationalen Strategie angehoben, nicht nur von der politischen Orientierung und strategischen Planung, sondern auch von der Finanzierungs- und Haushaltsebene, um starke Unterstützung zu leisten. Um eine Grundlage für die zukünftige militärische Anwendung von KI zu legen, müssen wir die Anwendung von KI in diesem Bereich gründlich analysieren und die Eckpunkte ihrer Entwicklung finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6978-4_122 fef2366b8b727285311ebdee6d218838;de;;;7.4.;;;Zeitliche Variationen von Assoziationsregeln in der Warenkorbanalyse Dieser Artikel führt das Konzept der Variabilität der Assoziationsregeln von Produkten durch die Schätzung eines neuen Indikators namens Gesamtvariabilität der Assoziationsregeln (OCVR) ein. Der vorgeschlagene Indikator, der auf Produkte von Supermarktketten angewendet wird, versucht Warenkörbe mit großen Schwankungen im Verbraucherverhalten hervorzuheben. Parameter der Variabilität von Assoziationsregeln im Zusammenhang mit Veränderungen des Einkaufsverhaltens im Laufe der Zeit, können weiter zur effizienten Warenkorbanalyse und geeigneten Marketingstrategien zur Verkaufsförderung beitragen. Diese Strategien können den Standortwechsel der Produkte im Regal, die Neudefinition des Rabatts oder sogar der Politik oder sogar die erfolgreiche Durchführung von Empfehlungssystemen umfassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23960-1_5 925de321a2aca388ddc6153dd4524ad3;de;;;7.4.;;;Lernen für Smart Edge: Kognitives Lernen-basiertes Computing Offloading Mit der Entwicklung intelligenter Anwendungen werden immer mehr intelligente Anwendungen rechenintensiv, datenintensiv und verzögerungsempfindlich. Im Vergleich zum herkömmlichen Cloud-Computing kann Edge-Computing die Kommunikationsverzögerung reduzieren, indem Rechenaufgaben in die Edge-Cloud verlagert werden. Darüber hinaus hat Deep Learning auf der Grundlage des Computing-Offloading-Schemas angesichts der Komplexität von Computing-Szenarien in der Edge-Cloud große Aufmerksamkeit auf sich gezogen. Das gesamte lernbasierte Auslagerungsschema berücksichtigt jedoch nicht, wo und wie das Auslagerungsschema selbst ausgeführt werden soll. Daher betrachten wir in diesem Papier das Problem des erstmaligen Ausführens des lernbasierten Berechnungs-Offloading-Schemas und schlagen das Lernen für eine Smart Edge-Architektur vor. Dann geben wir das Optimierungsproblem der Berechnungsverlagerung mobiler Geräte in Multi-User- und Multi-Edge-Cloud-Szenarien an. Darüber hinaus schlagen wir ein kognitives lernbasiertes Computation Offloading (CLCO)-Schema für dieses Problem vor. Schließlich zeigen experimentelle Ergebnisse, dass das CLCO-Schema im Vergleich zu anderen Entladeschemata eine geringere Aufgabendauer und einen geringeren Energieverbrauch aufweist.;-;-;-;https://link.springer.com/article/10.1007/s11036-018-1119-7 f9f147314a24727fd363258466898065;de;;;7.4.;;;Anwendungen unüberwachter Techniken zum Clustering von Audiodaten Audio Data Mining ist ein wichtiges Forschungsgebiet im Bereich der Computertechnologie. Diese Techniken können zum automatischen Analysieren und Suchen/Indizieren des Inhalts von Audiodaten verwendet werden. Die wachsende Menge an digitalen Inhalten in der Welt der Computer hat die Herausforderungen beim Verwalten und Abrufen der Audiodaten erhöht [8]. Die technologischen Fortschritte in diesem Bereich des Audio Data Mining haben die Wissenschaftler dazu veranlasst, nützlichere Anwendungen zu entwickeln, die für die Gesellschaft hilfreich sind [6]. Content-based Music Retrieval ist eine der bedeutenden Anwendungen des Audio-Data-Mining, das Inhalte wie Melodie, Instrument, Rhythmen usw. für eine effiziente Verwaltung von Musik-Repositorys nutzt [17]. Das Studium des Audio Data Mining umfasst das Studium verschiedener Bereiche wie Statistik, Mustererkennung, neuronale Netze, künstliche Intelligenz, Signalverarbeitung, maschinelles Lernen und Data Mining. Maschinelles Lernen ist ein Teil der künstlichen Intelligenz, und um intelligent zu sein, sollte ein System, das sich in einer sich verändernden Umgebung befindet, lernfähig sein. Wenn das System lernen und sich an solche Veränderungen anpassen kann, muss der Systemdesigner nicht alle möglichen Situationen vorhersehen und Lösungen anbieten [5]. Klassifizierung und Clustering sind die wichtigsten Techniken, die beim Audio-Data-Mining verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98566-4_4 ae41469a88d681780a5755958a99b992;de;;;7.4.;;;Subraum-Klassifikation der Aufmerksamkeits-Defizit-Hyperaktivitäts-Störung mit Laplace-Regularisierung Das Aufmerksamkeitsdefizit-Hyperaktivitätssyndrom (ADHS) ist eine häufige neurobehaviorale Erkrankung bei Kindern im Schulalter. Seine genauen diagnostischen Methoden haben in den letzten Jahren große Aufmerksamkeit auf sich gezogen. Unter ihnen haben sich neurobiologische Diagnosemethoden als ein wichtiger Weg erwiesen, um ADHS-Patienten zu identifizieren. Durch den Einsatz einiger neurobiologischer Maßnahmen von ADHS wird maschinelles Lernen als nützliches Werkzeug für die ADHS-Diagnose (oder Klassifikation) behandelt. In dieser Arbeit entwickeln wir ein Laplace-Regularisierungs-Subraum-Lernmodell für die ADHS-Klassifikation. Im Detail verwenden wir funktionelle Konnektivitäten (FCs) des Gehirns im Ruhezustand als neurobiologische Eingabedaten und gießen sie in das Subraum-Lernmodell, das in einem bestehenden Binärhypothesen-Testrahmen durchgeführt wird. In diesem Testrahmen generieren Trainingsdaten unter einer Hypothese der Testperson (ADHS oder gesunde Kontrollperson) ihren entsprechenden Merkmalssatz in der Merkmalsauswahlphase. Dann wird der Merkmalssatz durch das Unterraummodell für jede Hypothese in seine projizierten Merkmale umgewandelt. Hier wird eine Laplace-Regularisierung verwendet, um die Beziehung zwischen den klasseninternen Subjekten zu verbessern. Durch den Vergleich der Unterraumenergien von Projektionsmerkmalen zwischen zwei Hypothesen wird schließlich ein Label für die Testperson vorhergesagt. Experimente zeigen, dass in der ADHD-200-Datenbank die durchschnittliche Genauigkeit bei der ADHS-Klassifizierung bei etwa 91,8 % liegt, was die meisten bestehenden maschinellen Lern- und Deep-Learning-Methoden übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-78609-0_11 f9eccc888d3f0795b5b2109c315fa4d5;de;;;7.4.;;;Autonome Kontrolle durch den Grad der Ermüdung, der auf die Kontrolle autonomer Fahrzeuge angewendet wird In diesem Artikel stellen wir die Erkennung des Ermüdungsgrades eines Fahrzeugführers vor und entsprechend dieser Ebene wird die autonome Fahrassistenz implementiert neuronale Netze, die zuvor trainiert und entworfen wurden, sendet uns diese Erkennung eine Metrik, die vier Ebenen umfasst. Je nach Metrik wird die Positions- und Geschwindigkeitssteuerung eines simulierten autoähnlichen Fahrzeugs in der Unity3D-Software durchgeführt, die eine benutzerfreundliche Umgebung mit der Verwendung von haptischen Geräten basiert die Entwicklung des Regelalgorithmus auf einer Wegkorrektur, die den kürzesten Weg zum Wiedereinfahren in den gewünschten Weg berechnet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-05204-1_12 f2e0e87b818509c99d322b89525762c6;de;;;7.4.;;;Vorhersage des Verkehrsstauniveaus basierend auf Videoverarbeitungstechnologie Verkehrsstaus sind zu einem weltweiten Problem geworden, das die Leistungsfähigkeit des Verkehrsnetzes ernsthaft einschränkt. Die Vorhersage von Verkehrsstaus bildet einen wesentlichen Teil des Verkehrsmanagements zur Verbesserung der Netzwerkleistung. In Bezug auf die Vorhersage des Stauniveaus wurden zwar viele Arbeiten durchgeführt, jedoch nur wenige aus Sicht des Gesamtzustands des Straßennetzes. In diesem Beitrag wird eine neuartige Methodik vorgeschlagen, die auf der Behandlung der Netzwerkstatustransformation als Video und der Verarbeitung von Verkehrsdaten aus Sicht der Videoverarbeitungstechnologie basiert, um eine Vorhersage des Überlastungsniveaus zu erreichen. Durch die Implementierung des Modells erreichen die auf dem Verkehrssimulator VISSIM basierenden Experimente eine hohe Genauigkeit (über 0,89), was die Wirksamkeit der vorgeschlagenen Methode belegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-77383-4_95 56b1b67fcdd2eae330e5b8306ecb0fda;de;;;7.4.;;;Bodenbasierte Wolkenbilderkennung basierend auf GAN und PCANet Um die Erkennungsgenauigkeit von bodenbasierten Wolkenbildern zu verbessern, wird ein neuer Algorithmus basierend auf Deep Learning vorgeschlagen. In unserem Ansatz wird zunächst eine große Anzahl von Cloud-Images von Generative Adversarial Networks generiert. Dann werden basierend auf dem Original und diesen Wolkenbildern die Tiefenmerkmale von Wolkenbildern automatisch durch ein mehrschichtiges automatisches Erkennungsmerkmalsnetzwerk extrahiert, was die Beschreibungsfähigkeit der Merkmale effektiv erhöht. Schließlich wird der Klassifikator der Support Vector Machine (SVM) trainiert und die Cloud-Bilderkennung abgeschlossen. Im Vergleich zu Methoden wie der Gray Level Co-Occurrence Matrix (GLCM) und PCA nur mit Originaldatenbank kombiniert unser Ansatz die Vorteile von GAN und PCANet und die Versuchsergebnisse zeigen, dass die Genauigkeit der Wolkenbilderkennung deutlich verbessert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-24274-9_34 ee087bc20cc7a7a351e8c78a1f233331;de;;;7.4.;;;Teilt KI die gleiche Ethik mit dem Menschen? Aus der Perspektive der Tugendethik weist dieser Beitrag darauf hin, dass Künstliche Intelligenz immer mehr zu einem ethischen Subjekt wird, das mit seiner Verbesserung von Autonomie und Sensibilität Verantwortung übernehmen kann. Dieses Papier möchte darauf hinweisen, dass es viele Probleme aufwerfen wird, die ethischen Fragen der Künstlichen Intelligenz durch die Programmierung der Codes abstrakter moralischer Prinzipien anzugehen. Es ist zunächst eher eine Frage der sozialen Integration als eine technische Frage, wenn wir über die Frage der Ethik der KI sprechen. Aus der Perspektive historischer und gesellschaftlicher Prämissen der Ethik, inwieweit die Künstliche Intelligenz das gleiche Ethiksystem mit dem Menschen teilen kann, der dem Grad ihrer Integration in das Narrativ der menschlichen Gesellschaft gleichkommt. Und dies ist auch ein Prozess der Etablierung eines gemeinsamen sozialen Kooperationssystems zwischen Mensch und Künstlicher Intelligenz. Darüber hinaus sind Selbstbewusstsein und Verantwortung auch gesellschaftliche Vorstellungen, die durch Anerkennung etabliert werden, und die Identität der Künstlichen Intelligenz für ihre individuelle soziale Rolle wird auch im Prozess der Integration hergestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-01313-4_49 b9b6bef4bc04fc903842f77962021fb3;de;;;3.2.;;;Bakteriophagen-Epitop-Bibliotheken Neue Konzepte und Methoden, die verwendet werden können, um Proteine ​​zu erzeugen, wie beispielsweise spezifische variable Regionen von Immunglobulinen und anderen bindenden Peptiden in einem in vitro-Selektionssystem werden besprochen. Diese Technologien können auch verwendet werden, um die Kinetik, Affinität und Avidität verschiedener Bindungsinteraktionen zu verändern. Die Natur von Epitopen, die von spezifischen Antikörpern oder Rezeptoren erkannt werden, kann unter Verwendung ausgewählter Epitope, die auf Bakteriophagen präsentiert werden, beschrieben werden. Das Grundprinzip der Technologie beruht auf der Überzeugung, dass man mit einer ausreichend großen Auswahl an Schlüsseln jedes beliebige Schloss öffnen kann. Der Anwendungsbereich dieser Systeme zur Erzeugung neuer Reagenzien wird sich auf die Entwicklung neuer diagnostischer und therapeutischer Reagenzien auswirken. Diese Technologie sollte einen viel breiteren Bereich von Sonden ermöglichen, die eine erhöhte Bindungskapazität aufweisen und die Entwicklung empfindlicherer Assays mit höheren Signal-Rausch-Verhältnissen ermöglichen. Diese Reagenzien können ohne den Einsatz von Tieren effizienter hergestellt werden und werden in der diagnostischen und experimentellen Pathologie verwendet. Dieser kurze Überblick enthält eine kurze Beschreibung der Konzepte und Anwendungen dieser neuen Technologie. Ausgewählte Referenzen und Rezensionen werden als Quellen für weitere Details angegeben.;-;-;-;https://link.springer.com/article/10.1007/BF00197385 3bf27b175b39290868c3b6f232dc0e37;de;;;7.4.;;;Multi-relationales Lernen zur Empfehlung von Übereinstimmungen zwischen semantischen Strukturen Der Beitrag stellt das Tensor-basierte Reflective Relational Learning System (TRRLS) als tensorbasierten Ansatz zur automatischen Empfehlung von Übereinstimmungen zwischen Knoten semantischer Strukturen vor. Das System kann als eine probabilistische Inferenz in Bezug auf die Relation angesehen werden, die die „semantische Äquivalenz“ von Ontologieklassen darstellt. Trotz der Tatsache, dass TRRLS auf der neuen Idee der algebraischen Modellierung multirelationaler Daten basiert, liefert es Ergebnisse, die mit denen der führenden Lösungen des Wettbewerbs Ontology Alignment Evaluation Initiative (OAEI) vergleichbar sind, die die Aufgabe des Matching-Konzepts von Anatomie-Track-Ontologien auf Basis teilweise bekannter Experten-Matches.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37343-5_11 ce0870e6e922cd55cc23752eea767fd0;de;;;7.4.;;;Eine metrische Lernmethode basierend auf gedämpftem Momentum mit Schwellenwert Die konvolutionellen neuronalen Netze im Deep Learning sind zu einem der Mainstream-Algorithmen der Gesichtserkennungstechnologie geworden. Darüber hinaus ist das metrische Lernen auch eine wichtige Methode zum Trainieren von Deep-Learning-Modellen, da seine Verifikationsfähigkeit sehr leistungsfähig ist, insbesondere für die Gesichtsbilder, die häufig in CNNs verwendet werden. Kürzlich wurde eine neue Methode des metrischen Lernens namens Center Loss vorgeschlagen. Es ist einfach zu bedienen und kann die Modellleistung offensichtlich verbessern. Da der Aktualisierungsmechanismus von Center Loss jedoch einfach ist, kann er große Daten kaum verarbeiten, wenn die Kategorien zu groß sind. Dieses Papier schlägt einen verbesserten Algorithmus des Center Loss vor, um den Aktualisierungsprozess von Feature Centern des ursprünglichen Algorithmus mit einem gedämpften Momentum zu beschleunigen, was Deep-Learning-Modelle zu schnellerer und stetigerer Konvergenz und besserer Leistung drängt. In der Zwischenzeit werden fast keine zusätzlichen Rechenkosten hinzugefügt, da das neue Verfahren einen optionalen Schwellenwert hat. Die experimentellen Ergebnisse zeigen, dass der verbesserte Center Loss-Algorithmus die Erkennungsfähigkeit des Modells weiter verbessern kann, was sehr hilfreich ist, um die Benutzererfahrung komplexer Gesichtserkennungssysteme zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-70090-8_36 a9acceeeeb8b64156101944ef767f587;de;;;7.4.;;;Erforschung und Praxis des Aufbaus von Multi-Scene-Fähigkeiten und einer offenen Plattform von China Unicom für groß angelegte heterogene Daten China Unicom verfügt über ein globales Datenaggregations- und -managementzentrum, das umfangreiche Ressourcenkapazitäten, Rechenkapazitäten, Modellkapazitäten und Datenkapazitäten zusammenfasst. Um den Anforderungen der gemischten Unternehmensreform und der doppelten Innovation gerecht zu werden, übernimmt das Papier Mainstream-Big-Data-Technologierouten wie Kubernetes, Docker, Hadoop, um eine Mehrszenen-Fähigkeitskonstruktion und eine offene Plattform für heterogene große Datenmengen aufzubauen. Die Plattform kapselt verschiedene Fähigkeiten und Dienste und macht sie für die Außenwelt offen. Die Plattform bietet auch eine Container-Cloud-Umgebung aus einer Hand für die Anwendungsentwicklung und -bereitstellung und unterstützt mehrere Big-Data-Anwendungsszenarien. Derzeit wird die Plattform in ganz China Unicom beworben und verwendet. Außerdem wurden externe Partner wie Tencent und Merchants Union Consumer Finance Company Limited eingeführt, die mehr als zehn Branchen wie Finanzen, E-Commerce, Automobil, Internet und Immobilien einbeziehen. Die Praxis hat bewiesen, dass der Aufbau dieser Plattform die Probleme des internen Fähigkeitsaustauschs, des intensiven Managements, der intelligenten Planung und der maximalen Auslastung effektiv lösen kann und einen wichtigen Referenzwert für den Aufbau des Fähigkeitseröffnungssystems der Branche hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4102-9_122 5ad881d75b8ee4593cc20100237def66;de;;;7.4.;;;Unüberwachtes und überwachtes Lernen von Graphdomänen In diesem Kapitel beschreiben wir eine Methode zum Extrahieren einer zugrunde liegenden Graphenstruktur aus einem unstrukturierten Textdokument. Die resultierende Graphenstruktur ist ein symmetrischer ungerichteter Graph. Ein unüberwachter Lernansatz wird angewendet, um einen gegebenen Textkorpus in Gruppen ähnlich strukturierter Graphen zu gruppieren. Wenn einige der Dokumente im Textkorpus Labels erhalten, kann darüber hinaus ein überwachter Lernansatz angewendet werden, um die zugrunde liegende Eingabe-Ausgabe-Abbildung zwischen den symmetrischen ungerichteten Graphstrukturen und einem reellwertigen Vektor zu lernen. Der Ansatz wird anhand eines Standard-Benchmark-Problems in der Textverarbeitung veranschaulicht, nämlich einer Teilmenge des Reuters-Textkorpus. Einige Beobachtungen und weitere Forschungsrichtungen werden gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04003-0_3 4016c40644c231ba9edf4e0d17e2e113;de;;;7.4.;;;Schätzung von Mischungsmodellen mit Co-EM Wir untersuchen die Schätzung von Mischungsmodellen für Probleme, bei denen mehrere Ansichten der Instanzen verfügbar sind. Beispiele für diese Einstellung sind das Clustern von Webseiten oder Forschungsarbeiten mit intrinsischen (Text) und extrinsischen (Referenzen) Attributen. Unser Optimierungskriterium quantifiziert die Wahrscheinlichkeit und den Konsens zwischen den Modellen in den einzelnen Ansichten. Die Maximierung dieses Konsens minimiert die Grenze des Risikos, eine Instanz einer falschen Mischungskomponente zuzuordnen. Wir leiten einen Algorithmus her, der dieses Kriterium maximiert. Empirisch beobachten wir, dass die resultierende Clustering-Methode für Webseiten, Forschungsarbeiten und viele Textsammlungen eine geringere Cluster-Entropie aufweist als normale EM.;-;-;-;https://link.springer.com/chapter/10.1007/11564096_9 504916079ea91cda608aad5907865f7e;de;;;7.4.;;;Kostensensitiver langer Kurzzeitspeicher für unausgeglichene DGA-Familienkategorisierung Der Domänengenerierungsalgorithmus (DGA) ist die Grundlage von Malware-Familien, da DGA eine Vielzahl von pseudozufälligen Domänennamen generiert, um sie einer Command-and-Control-Infrastruktur (C2C) zuzuordnen. Dieses Papier konzentriert sich auf den Umgang mit der Klassifizierung von Klassen in unausgewogenen Daten. Es wird ein kostensensitiver Ansatz für das lange Kurzzeitgedächtnis (CS-LSTM) vorgeschlagen, der beim Verständnis der Bedeutung jeder Klasse hilft. Der Datensatz zur Erkennung bösartiger Domänennamen (DMD 2018) wird verwendet. Optimale Parameter werden für Deep-Learning-Architekturen unter Verwendung des Hyperparameter-Ansatzes festgelegt. Experimente zu CS-LSTM haben im Vergleich zu anderen Deep-Learning-Architekturen gut abgeschnitten. Mit diesem Ansatz wird eine Genauigkeit von 74,3 % erreicht, die um 4,6% vom am besten bewerteten System in DMD-2018 abweicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5558-9_49 466f985c63e31a5ed4df82c7938c5898;de;;;7.4.;;;Künstliche Intelligenz und ethische Prinzipien Menschen neigen dazu, ethische Prinzipien mit moralischen Prinzipien zu verwechseln, da diese beiden Konzepte ziemlich ähnlich sind, ethische Prinzipien beziehen sich auf die sozialen Anstandsverhältnisse, während moralische Prinzipien die Normen und Standardisierungen für menschliches Handeln bezeichnen. Erstere betont die objektiven menschlichen Beziehungen der Menschen in ihren Interaktionen, während letztere die entsprechenden objektiven Normen und das moralische Eigentum in den Mittelpunkt stellt, die das Wertesystem der sozialen Beziehungen zwischen den Menschen anpassen, einschließlich des intrinsischen Wertideals und der extrinsischen Verhaltenskodizes . Künstliche Intelligenz ist keineswegs eine allgemein reine Technik, sondern eine revolutionäre Technologie, die die menschliche Gesellschaft und unsere Welt maßgeblich verändern wird, mit viel Entwicklungsspielraum und weitreichenden Anwendungsperspektiven. Inzwischen ist es auch eine offene und subversive Technologie, die noch lange nicht ausgereift ist und für die niemand sowohl die ethischen als auch die moralischen Konsequenzen vorhersagen kann. In den letzten Jahren, mit der rasanten Entwicklung der KI und ihrer Anwendung in breiteren Bereichen, treten mit jedem Tag sowohl positive als auch negative Auswirkungen auf, insbesondere ihre sukzessiven Durchbrüche bei biologischen Beschränkungen. Sobald eine solch leistungsstarke KI-Technologie mit der Biotechnologie vermischt wird, wird die Integration die menschliche Intelligenz mit größerer Wahrscheinlichkeit übertreffen, was zu enormen Unsicherheiten und Risiken führen wird. Gleichzeitig stellen wir angesichts dieser kritischen neuen Technologie einen intensiven Kontrast zwischen der robusten KI-Entwicklung und unseren Mängeln fest, einschließlich Rückwärtskonzept, unklarer politischer Ausrichtung, Mangel an ethischen Vorschriften, den dürftigen moralischen Vorstellungen und den unvollkommenen Gesetzen und Vorschriften. Unter solchen Umständen sollten wir bei uns selbst Fuß fassen, eine Rundum-Introspektion zu KI und den Anwendungsfolgen durchführen. Wir sollten am Grundsatz des Menschen an erster Stelle festhalten, die Menschenwürde schützen, mögliche Risiken abwehren und auflösen, um eine vernünftige, gerechte ethische Ordnung zu schaffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2209-9_2 0d86ea1bc12fb22d162925f7b02bf6d5;de;;;3.2.;;;P3CA: Private Anomalieerkennung in ISP-Netzwerken Die Erkennung von bösartigem Datenverkehr im Internet wäre viel einfacher, wenn ISP-Netzwerke ihre Datenverkehrsspuren teilen würden. Leider erfordern moderne Anomalieerkennungsalgorithmen detaillierte Verkehrsinformationen, die von Betreibern als äußerst privat angesehen werden. Um dies zu beheben, schlagen wir einen Algorithmus vor, der es ISPs ermöglicht, kooperativ Anomalien zu erkennen, ohne dass sie private Verkehrsinformationen preisgeben müssen. Wir nutzen sichere Multiparty-Berechnungen, um eine datenschutzwahrende Variante von . zu entwickeln;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22263-4_3 902f4c609212fc9e9495081eec822d1c;de;;;7.4.;;;Kombination von instanzbasiertem Lernen und logistischer Regression für die Multilabel-Klassifizierung Die Multilabel-Klassifizierung ist eine Erweiterung der herkömmlichen Klassifizierung, bei der eine einzelne Instanz mehreren Labels zugeordnet werden kann. Neuere Forschungen haben gezeigt, dass hier, ebenso wie bei der konventionellen Klassifikation, instanzbasierte Lernalgorithmen, die auf dem Nearest Neighbour Schätzprinzip beruhen, sehr erfolgreich eingesetzt werden können. Da jedoch bisher existierende Algorithmen Korrelationen und Interdependenzen zwischen Labels nicht berücksichtigen, ist ihr Potenzial noch nicht voll ausgeschöpft. In diesem Beitrag schlagen wir einen neuen Ansatz zur Multilabel-Klassifizierung vor, der auf einem Framework basiert, das instanzbasiertes Lernen und logistische Regression vereint und beide Methoden als Spezialfälle umfasst. Dieser Ansatz ermöglicht es, Interdependenzen zwischen Labels zu erfassen und darüber hinaus modellbasierte und ähnlichkeitsbasierte Inferenz für die Multilabel-Klassifizierung zu kombinieren. Wie experimentelle Studien zeigen werden, ist unser Ansatz in der Lage, die Vorhersagegenauigkeit in Bezug auf mehrere Bewertungskriterien für die Multilabel-Vorhersage zu verbessern.;-;-;-;https://link.springer.com/article/10.1007/s10994-009-5127-5 155dfc951e5a2a976d3db03539beb4ac;de;;;7.4.;;;Direktmarketing-Modellierung mit evolutionärem Bayesian Network Learning Algorithm Die Direktmarketing-Modellierung identifiziert effektive Modelle zur Verbesserung der Entscheidungsfindung des Managements im Marketing. Dieses Papier schlägt ein neuartiges System vor, um Modelle zu entdecken, die als Bayes-Netzwerke aus unvollständigen Datenbanken in Gegenwart von fehlenden Werten dargestellt werden. Es kombiniert einen evolutionären Algorithmus mit dem traditionellen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15606-9_18 c4cbc824046952daf64b7c0d434b902e;de;;;7.4.;;;K-Verteilungen: Ein neuer Algorithmus zum Clustern kategorialer Daten Clustering ist eine der wichtigsten Aufgaben im Data Mining. Der K-Means-Algorithmus ist aufgrund seiner Effizienz der beliebteste, um diese Aufgabe zu erfüllen. Es funktioniert jedoch nur bei numerischen Werten, obwohl Datensätze im Data Mining oft kategoriale Werte enthalten. Als Reaktion auf diese Tatsache wird der K-Modes-Algorithmus vorgestellt, um den K-Means-Algorithmus auf kategoriale Bereiche zu erweitern. Leider leidet es unter der Berechnung der Unähnlichkeit zwischen jedem Objektpaar und dem Modus jedes Clusters. Mit dem Ziel, diese Probleme von K-Moden anzugehen, stellen wir in diesem Artikel einen neuen Algorithmus namens K-Verteilungen vor. Wir haben K-Verteilungen experimentell mit den bekannten 36 von Weka ausgewählten UCI-Datensätzen getestet und mit K-Moden verglichen. Die experimentellen Ergebnisse zeigen, dass K-Verteilungen K-Moden in Bezug auf Clustering-Genauigkeit und Log-Wahrscheinlichkeit deutlich übertreffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74205-0_48 a156927996b5bc6d458736533530d7e5;de;;;7.4.;;;Der sechste Workshop zum Lernen mit Logiken und Lernlogiken (LLLL2009) Heutzutage erregt die Theorie des maschinellen Lernens nicht nur als Thema in der Künstlichen Intelligenz viel Aufmerksamkeit, sondern auch bei der Entwicklung neuer Techniken, um aus verschiedenen Datentypen nützliches Wissen zu gewinnen. Ursprünglich bezeichnet Machine Learning Methoden zur Entwicklung lernender Maschinen zur Generierung entsprechender Regeln, mit denen Trainingsdaten erklärt werden können. Computational Logic basiert ursprünglich auf der Mechanisierung der Aktivität, zu erklären, warum Sätze und Regeln gelten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14888-0_24 34669798bd1ed7b067c2c4c65981da3f;de;;;7.4.;;;Einführung in Predictive Analytics Es gibt nur wenige Technologien, die die Geschäftsabläufe revolutionieren können. Predictive Analytics ist eine dieser Technologien. Predictive Analytics besteht hauptsächlich aus den „Big 3“-Techniken: Regressionsanalyse, Entscheidungsbäume und neuronale Netze. Obwohl mehrere andere Techniken wie Random Forests und Ensemble-Modelle immer beliebter werden, konzentriert sich Predictive Analytics auf den Aufbau und die Bewertung von Vorhersagemodellen, die zu wichtigen Output-Fit-Statistiken führen, die zur Lösung von Geschäftsproblemen verwendet werden. In diesem Kapitel werden grundlegende Analytics-Terminologie definiert, der neunstufige Prozess zum Erstellen von Predictive-Analytics-Modellen beschrieben, die „Big 3“-Techniken vorgestellt und Karrieren im Bereich Business Analytics erörtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-14038-0_1 380b95d2e7ebe05a7418d71a92c47f34;de;;;7.4.;;;Automatisierte binäre Klassifikation der diabetischen Retinopathie durch Convolutional Neural Networks Dieses Papier schlägt eine binäre Klassifikationsmethode für hochauflösende Netzhautbilder unter Verwendung von Convolutional Neural Networks vor. Das konvolutionelle neuronale Netz wird zuerst gebildet, um die Fundusbilder des Auges als normale Netzhaut oder proliferative diabetische Netzhaut zu erkennen und zu klassifizieren. Wir trainieren das vorgeschlagene Netzwerk, indem wir einen Grafikprozessor und einen öffentlichen Datensatz verwenden, der auf der Kaggle-Website verfügbar ist. Eine Zunahme der Daten ermöglicht die Identifizierung komplexer Merkmale, die an der Klassifikationsaufgabe beteiligt sind. Unsere vorgeschlagenen neuronalen Faltungsnetze erreichen eine Genauigkeit von 95,5% bei 1000 Bildern der normalen Netzhaut und 1000 Bildern der proliferativen diabetischen Netzhaut zum Training und 200 Bildern der normalen Netzhaut und 200 Bildern der proliferativen diabetischen Netzhaut zum Testen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6048-4_16 08466fe70b6affe8acc70e659342d261;de;;;7.4.;;;Prozessreife von Organisationen mit Künstlicher Intelligenz – Vorforschung Das Hauptziel des Artikels war es, die Ergebnisse der Prozessreifebewertung von Organisationen vorzustellen, die Technologien der künstlichen Intelligenz auf dem israelischen Markt einsetzen. Als Ergebnis der theoretischen Studie wurde eine empirische Lücke identifiziert, die sich aus dem Fehlen von Studien zu Fragen der Prozessreife in Organisationen mit künstlicher Intelligenz ergibt. Die Forschungsfrage wurde in der Arbeit konstruiert. RQ: Wie ist der Prozessreifegrad der Organisation auf dem israelischen Markt, die die Einführung der Technologie der künstlichen Intelligenz erklärt hat? Empirische Untersuchungen wurden an einer Stichprobe von 19 nicht probabilistisch ausgewählten Organisationen durchgeführt, die in Israel tätig sind. Das mehrdimensionale Prozessreifebewertungsmodell (MMPM) wurde verwendet, um den Umsetzungsgrad von Prozesslösungen zu bewerten, angepasst an die Spezifität der jeweiligen Branche. Die Studie verwendete Forschungsmethoden wie: quantitative und qualitative bibliometrische Analyse, Erhebung und statistische Methoden. Im ersten Kapitel werden die Ergebnisse der quantitativen und qualitativen bibliometrischen Analyse vorgestellt. Anschließend charakterisierte das nächste Kapitel das Konzept der Prozessreife und beschrieb die angewandte MMPM-Methodik. Das dritte Kapitel beschreibt die Population der befragten Organisationen auf dem israelischen Markt. Das nächste Kapitel präsentiert die detaillierten Ergebnisse der empirischen Verfahren. Das letzte Kapitel enthält die Studienergebnisse und die Diskussion. Der Artikel endete mit einer Zusammenfassung, die Hinweise für das weitere Vorgehen enthielt und die Einschränkungen, die sich aus der angewandten Forschungsmethodik ergeben, umrissen. Als Ergebnis der Studie wurde die überwiegende Mehrheit der Organisationen für die erste Stufe qualifiziert, die als ein Zustand identifiziert wurde, in dem das fragmentarische Auftreten von Elementen des Prozessansatzes im Management beobachtet wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-30429-4_13 c53b86a2970d706b7382d692c8c8e050;de;;;7.4.;;;Aufmerksamkeitsbasiertes SRGAN für Superauflösung von Satellitenbildern Die Einzelbild-Superauflösung spielt bei der Satellitenbildverarbeitung eine entscheidende Rolle, da das beobachtete Satellitenbild aufgrund des Engpasses bei der Bildsensorausrüstung und der Kommunikationsbandbreite im Allgemeinen eine geringe Auflösung hat. Deep Learning bietet eine bessere Lösung, um seine Auflösung im Vergleich zu vielen ausgeklügelten Algorithmen zu verbessern, daher wird ein tiefes aufmerksamkeitsbasiertes SRGAN-Netzwerk vorgeschlagen. Das GAN-Netzwerk besteht aus einem aufmerksamkeitsbasierten SR-Generator, um die fehlenden feinen Texturdetails zu halluzinieren, einem Diskriminator, um zu erraten, wie realistisch das erzeugte Bild ist. Der SR-Generator besteht aus einem Merkmalsrekonstruktionsnetzwerk und einem Aufmerksamkeitsmechanismus. Das Feature-Rekonstruktionsnetzwerk besteht aus restlos verbundenen RDB-Blöcken, um das HR-Feature zu rekonstruieren. Der Aufmerksamkeitsmechanismus dient als Merkmalsauswahl, um hochfrequente Details zu verbessern und unerwünschte Komponenten in einem einheitlichen Bereich zu unterdrücken. Die rekonstruierte HR-Funktion und verbesserte Hochfrequenzinformationen werden für eine bessere visuelle Wahrnehmung miteinander verschmolzen. Das Experiment wird auf WorldView-2-Satellitendaten mit Googles kostenloser Cloud-Computing-GPU Google Colab durchgeführt. Das vorgeschlagene tiefe Netzwerk schneidet besser ab als die anderen herkömmlichen Verfahren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0289-4_31 1d512ca401544b41575eb57e65796272;de;;;7.4.;;;Sie sind, wie Sie sich benehmen – Raumzeitliches Repräsentationslernen für akademische Leistungen von Collegestudenten Stipendien sind ein Spiegelbild der akademischen Leistung von College-Studenten. Die klassische Stipendienvergabe erfolgt streng nach Abschlussnoten und kann keine Studierenden anerkennen, deren Leistungsentwicklung sich im Laufe des Semesters verbessert oder verschlechtert. Dieses Papier entwickelt den Ansatz Trajectory Mining on Clustering for Scholarship Assignment and Academic Warning (TMS), um die Faktoren zu identifizieren, die die akademische Leistung von College-Studenten beeinflussen, und um Entscheidungshilfen zu bieten, um leistungsschwachen Schülern zu besseren Leistungen zu verhelfen. Insbesondere führen wir zunächst Feature Engineering durch, um eine Reihe von Funktionen zu generieren, um die Lebensstilmuster, Lernmuster und Internetnutzungsmuster der Schüler zu charakterisieren. Wir wenden dann die objektive und subjektive kombinierte Gewichtung an;-;-;-;https://link.springer.com/article/10.1007/s11390-020-9971-x 749fc721208840538e0c198607d6ab38;de;;;7.4.;;;Hörgeräteklassifizierung basierend auf audiologischen Daten Präsentiert wird eine vergleichende Studie zweier maschineller Lernmodelle (MLP Neural Network und Bayesian Network) als Teil eines Entscheidungsunterstützungssystems für die Verschreibung von IdO- (im Ohr) und HdO-Geräten (hinter dem Ohr) für Menschen mit Hörproblemen. Die Modelle werden anhand einer großen Anzahl von Patientenakten eines großen NHS-Audiologiezentrums in England entwickelt/trainiert und bewertet. Die beiden Hauptfragen, die die Modelle beantworten sollen, sind: 1) Welche Art von Hörgerät (IdO/HdO) sollte dem Patienten verschrieben werden? und 2) Welche Faktoren beeinflussen die Wahl von IdO im Gegensatz zu HdO-Hörgeräten? Die hier entwickelten Modelle wurden gegen tatsächliche Verordnungen der Ärzte bewertet und zeigten relativ hohe Klassifikationsraten, wobei das MLP-Netzwerk etwas bessere Ergebnisse erzielte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40728-4_47 2356b3603d36335dba84678cb234282a;de;;;7.4.;;;Förderung der städtischen Gesundheit und des Wohlbefindens durch kollektive und künstliche Intelligenz: Ein Systemansatz 3.0 Komplexe Probleme der städtischen Gesundheit und des Wohlbefindens verursachen jährlich Millionen von vorzeitigen Todesfällen und liegen außerhalb der Reichweite individueller Problemlösungsmöglichkeiten. Kollektive und künstliche Intelligenz (KI + KI) können gemeinsam die komplexen Herausforderungen der städtischen Gesundheit angehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1380-0_6 67852ed0e43ed30b5b25f562e7b4254b;de;;;7.4.;;;Korrektur der Trainingsdaten Traditionell wurden Lernalgorithmen und Mustererkennungsmethoden in zwei große Gruppen eingeteilt: überwacht und unüberwacht (vorhersagbar und informativ in der Data Mining-Terminologie), unabhängig davon, ob Trainingsdaten verfügbar sind oder nicht. Das überwachte Klassifikatordesign basiert auf den Informationen einer Trainingsstichprobe (;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0231-5_1 0bc3fe8a34ad082c47547245bee64457;de;;;7.4.;;;Objekterkennung Dieses Kapitel beschreibt die grundlegenden Algorithmen des künstlichen Sehens, um die Objekte der Szene automatisch zu erkennen, eine wesentliche Eigenschaft aller Sehsysteme lebender Organismen. Während ein menschlicher Betrachter auch komplexe Objekte scheinbar einfach und zeitnah erkennt, ist der Erkennungsprozess in einem Bildverarbeitungssystem schwierig, erfordert viel Rechenzeit und die Ergebnisse sind nicht immer optimal. Grundlegend für den Prozess der Objekterkennung werden die Algorithmen zum Auswählen und Extrahieren von Merkmalen. Im Laufe der Jahre gab es verschiedene disziplinäre Sektoren (Maschinelles Lernen, Bildanalyse, Objekterkennung, Informationsforschung, Bioinformatik, Biomedizin, Intelligente Datenanalyse, Data Mining, etc.) und die Anwendungssektoren (Robotik, Überwachung, Medizin, Fernerkundung , künstliches Sehen usw.), für die verschiedene Forscher verschiedene Erkennungsmethoden vorgeschlagen und verschiedene Algorithmen basierend auf verschiedenen Klassifikationsmodellen entwickelt haben. Obwohl die vorgeschlagenen Algorithmen einen einzigartigen Zweck haben, unterscheiden sie sich in der Eigenschaft, die den Objektklassen (den Clustern) zugeschrieben wird, und dem Modell, mit dem diese Klassen definiert werden (Konnektivität, statistische Verteilung, Dichteschätzung usw.). Die Themen dieses Kapitels überschneiden sich zwischen Aspekten des maschinellen Lernens und denen der Erkennung auf Basis statistischer Lernmethoden. Der Einfachheit halber werden die beschriebenen Algorithmen nach den Methoden der überwachten Objektklassifizierung (basierend auf deterministischen, statistischen, neuronalen und nichtmetrischen Modellen wie syntaktischen Modellen und Entscheidungsbäumen) und unüberwachten Methoden, dh Methoden, die dies nicht tun, unterteilt jegliches Vorwissen in Bezug auf den wahren Zustand der Natur verwenden, zu dem die Muster gehören.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-42378-0_1 c11f1e919ebe949bbc37e5a0a4f59460;de;;;7.4.;;;Maschinelles Lernen und metaheuristische Algorithmen für erneuerbare Energien: Eine systematische Überprüfung Die Nachfrage nach Energie wird aufgrund der industriellen Aktivitäten und der zunehmenden Landwirtschaft einer Nation wesentlich. Demnach sind die zur Verfügung stehenden erneuerbaren Energieressourcen sehr gut geeignet, um den ständig wachsenden Energiebedarf der Menschheit zu decken und keine schädlichen Auswirkungen auf die Natur zu haben. Daher wurden aufgrund der Sauberkeit und Nachhaltigkeit mehrere Forschungsstudien im Bereich der erneuerbaren Energien wie Sonne, Wind, Biomasse und Biogas eingeführt. Um diese Energieressource besser planen und nutzen zu können, sind gute Prognosen und Optimierungen notwendig und intrinsisch. Daher gibt dieser Aufsatz einen Überblick über die Vorhersagetechniken für erneuerbare Energien, die in diesem Bereich auf der Grundlage von metaheuristischen Optimierungsalgorithmen und maschinellem Lernen (ML) verwendet wurden. Darüber hinaus wurden verschiedene Herausforderungen angegangen, Empfehlungen für die zukünftige Forschung gegeben und eine umfassende Bibliographie erstellt. Im Allgemeinen kann diese umfassende Überprüfung der erneuerbaren Energieressourcen letztendlich den Forschern, Energieplanern und politischen Entscheidungsträgern helfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-5995-8_7 57c590ac1d78f4a7d4fbab90da93ebd5;de;;;7.4.;;;Zustandsüberwachung und Fehlerdiagnose des Asynchronmotors Ein Induktionsmotor ist das Herzstück jeder rotierenden Maschine und daher eine sehr wichtige Komponente. Fast in jeder Branche setzen rund 90 % der Maschinen einen Asynchronmotor als Antriebsmaschine ein. Sie ist eine sehr wichtige Antriebseinheit der Maschine. Daher ist es notwendig, seinen Zustand zu überwachen, um katastrophale Ausfälle und Produktionsunterbrechungen zu vermeiden. Der Ausfall des Induktionsmotors wäre aufgrund erheblicher finanzieller Verluste, unvorhergesehener Abschaltung und der damit verbundenen Reparaturkosten nicht erschwinglich.;-;-;-;https://link.springer.com/article/10.1007/s42417-020-00253-y b8d2cf5a97c24401841b700d6968b4fc;de;;;7.4.;;;Intelligent Sensing Systems – Forschungsstand bei KaProm Innerhalb von Industrie 4.0 stellen intelligente Sensorsysteme einen unverzichtbaren Aktivposten dar und spielen eine wichtige Rolle bei der Ermöglichung des Übergangs von der automatisierten zu einer intelligenten Fertigung. Anstatt einfache Wandler zu sein, sind intelligente Sensoren in der Lage, nützliche Informationen aus dem Rohsignal abzurufen. Sie stellen Systeme mit integrierten Rechen- und Kommunikationsfähigkeiten dar, die ausgeklügelte und in Echtzeit anwendbare Algorithmen ausführen und die erforderlichen Informationen an die anderen Elemente der Fertigungsanlage übermitteln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-89563-5_2 9a935644c268b6a684480999f272558d;de;;;7.4.;;;Rangordnung lernen – ein entfernungsbasierter Ansatz Das Erlernen der Rangordnung ist ein Machine-Learning-Paradigma, das sich von den gängigen Machine-Learning-Paradigmen unterscheidet: Lernen, Cluster zu klassifizieren oder zu approximieren. Es hat das Potenzial, mehr verborgenes Wissen in Daten aufzudecken als Klassifikationen. Cohen, Schapire und Singer waren frühe Ermittler dieses Problems. Sie verfolgten einen präferenzbasierten Ansatz, bei dem paarweise Präferenzen zu einer Gesamtordnung kombiniert wurden. Es ist jedoch nicht immer möglich, paarweise Präferenzen zu kennen. In diesem Beitrag betrachten wir einen entfernungsbasierten Ordnungsansatz, bei dem die Reihenfolge von Alternativen auf der Grundlage ihrer Entfernungen zu einer Abfrage vorhergesagt wird. Um eine solche Ordnungsfunktion zu lernen, betrachten wir zwei Ordnungen: eine ist die tatsächliche Ordnung und eine andere ist die vorhergesagte Ordnung. Unser Ziel ist es, die Übereinstimmung der beiden Ordnungen zu maximieren, indem wir die Parameter einer Distanzfunktion variieren, was zu einer trainierten Distanzfunktion führt, die als Ordnungsfunktion angenommen wird. Wir haben diese Arbeit ausgewertet, indem wir die trainierte Distanz und die nicht trainierte Distanz in einem Experiment mit öffentlichen Daten verglichen haben. Die Ergebnisse zeigen, dass die trainierte Distanz im Allgemeinen zu einem höheren Übereinstimmungsgrad führt als die untrainierte Distanz.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84882-215-3_7 eb2808fa4eec5e53ade3079e83be744d;de;;;7.4.;;;Anwendung Gaußscher verteilungsabhängiger Kriterien auf Entscheidungsbäume für hochdimensionale Microarray-Daten Biologische Daten stellen aufgrund ihrer hohen Dimensionen einzigartige Probleme für die Datenanalyse. Microarray-Daten sind ein Beispiel für solche Daten, die in den letzten Jahren viel Aufmerksamkeit erhalten haben. Machine-Learning-Algorithmen wie Support Vector Machines (SVM) sind aufgrund ihrer hohen Klassifikationsgenauigkeiten ideal für Microarray-Daten. Manchmal ist die gesuchte Information jedoch eine Liste von Genen, die die Klassen am besten trennt, und keine Klassifizierungsrate.;-;-;-;https://link.springer.com/chapter/10.1007/11960669_5 89ca00ce221c3e263341665b0a60ffcc;de;;;7.4.;;;Kurzfristige Lastprognosen unter Verwendung eines künstlichen neuronalen Netzes und eines Zeitreihenmodells zur Vorhersage der Lastnachfrage für die Städte Delhi und Noida Die Lastvorhersage bezieht sich auf die Vorhersage des Leistungsbedarfs des angepeilten geografischen Gebiets basierend auf den Trends und Mustern der vorherigen Lastanforderungen. Die genaue Vorhersage der Last ist eine der größten Herausforderungen aller Energieversorger und Lastverteilungszentren. In diesem Artikel werden Modelle für künstliche neuronale Netze (ANN) und Zeitreihen (TS) verwendet, um die kurzfristige Lastvorhersage (STLF) zu untersuchen. Ziel ist es, die Tagesspitzenlast sowie den durchschnittlichen 24-h-Lastbedarf für die Stadt Neu-Delhi und Greater Noida vorherzusagen. Beide Arten von Vorhersagetechniken werden basierend auf dem mittleren logarithmischen Fehler (MSLE), dem mittleren quadratischen Fehler (MSE) und dem mittleren absoluten Fehler (MAE) verglichen. Mit der Weiterentwicklung von Deep-Learning-Techniken können riesige Mengen an Lastbedarfsdaten verwendet werden, um den Bedarf von Minuten im Voraus bis zu Jahren vorherzusagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4501-0_41 10b378051055ad99aa05bd5433f99e0d;de;;;7.4.;;;Musikalisch informierte Audiozerlegung Audiosignale sind typischerweise komplexe Mischungen verschiedener Schallquellen. Die Schallquellen können mehrere Personen sein, die gleichzeitig in einem Raum sprechen, verschiedene Instrumente spielen zusammen oder ein Sprecher im Vordergrund, während im Hintergrund Musik gespielt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-69808-9_8 b2b90ada6ca3978762a600bd29d0c0cb;de;;;7.4.;;;Eine Klassifizierungsmethode des Darknet-Datenverkehrs für erweiterte Sicherheitsüberwachung und Reaktion Die meisten Organisationen oder CERTs implementieren und betreiben Intrusion Detection Systems (IDSs), um den Sicherheitsüberwachungs- und Reaktionsdienst durchzuführen. Obwohl IDSs zur Verteidigung unseres Informationseigentums und wichtiger Systeme beitragen können, haben sie den fatalen Nachteil, dass sie nur bekannte Angriffe erkennen können, die mit den vordefinierten Signaturen übereinstimmen. In unserer vorherigen Arbeit haben wir ein Sicherheitsüberwachungs- und Reaktions-Framework vorgeschlagen, das nicht nur auf IDS-Warnungen, sondern auch auf Darknet-Traffic basiert. Das vorgeschlagene Framework betrachtet alle eingehenden Darknet-Pakete, die von IDSs nicht erkannt wurden, als unbekannte Angriffe. In unserer weiteren Analyse haben wir festgestellt, dass nicht der gesamte Darknet-Traffic mit den tatsächlichen Angriffen zusammenhängt. In diesem Artikel schlagen wir eine fortschrittliche Klassifizierungsmethode von Darknet-Paketen vor, um effektiv zu identifizieren, ob sie durch die echten Angriffe verursacht wurden oder nicht. Mit der vorgeschlagenen Methode kann der Sicherheitsanalyst die Darknet-Pakete ignorieren, die keinen Bezug zu den echten Angriffen hatten. Tatsächlich zeigen die experimentellen Ergebnisse, dass es gelungen ist, 23,45% der unverdächtigen Darknet-Pakete zu entfernen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12643-2_44 ba7db162b6846334936e56bf407485f7;de;;;7.4.;;;Neue Modifikationsversion der Hauptkomponentenanalyse mit kinetischer Korrelationsmatrix unter Verwendung kinetischer Energie Die Hauptkomponentenanalyse (Principal Component Analysis, PCA) ist eine direkte, nicht parametrische Methode, um relevante Informationen aus verwirrenden Datensätzen zu extrahieren. Es stellt eine Roadmap dar, wie ein komplexer Datensatz auf eine niedrigere Dimension reduziert werden kann, um die verborgenen, vereinfachten Strukturen aufzudecken, die ihm oft zugrunde liegen. Die meisten PCA-Methoden sind jedoch nicht in der Lage, die gewünschten Vorteile zu erzielen, wenn sie reale und nichtlineare Daten verarbeiten. In dieser Arbeit wird eine modifizierte Version von PCA mit kinetischer Korrelationsmatrix unter Verwendung kinetischer Energie vorgeschlagen. Die Merkmale dieses modifizierten PCA wurden anhand verschiedener Datensätze von Fluggastzahlen bewertet. Die Ergebnisse zeigen, dass die modifizierte Version von PCA hinsichtlich Datenkompression, Klassenreparierbarkeit und Klassifikationsgenauigkeit effektiver ist als herkömmliche PCA.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-03402-3_30 4c4fcac4752c434f687dedeba90354a2;de;;;7.4.;;;Kollaborative Netzwerke und IKT-Trends für zukünftige CPPS und darüber hinaus Unternehmen sind gezwungen, ständig neue ICT-Architekturen, -Geräte und -Technologien zu implementieren, um rechtzeitig auf die Anforderungen des Marktes nach hochwertigen, individualisierten Produkten zu reagieren. Diese Anforderungen können nur durch gut organisierte und betriebene vernetzte Produktionssysteme erfüllt werden. Cyber ​​Physical Production Systems (CPPS) stellen diese Art von Netzwerken dar, die ihre verschiedenen Komponenten durch kollaborative Netzwerke (CN) verbinden und neue Technologien auf sehr flexible und effiziente Weise nutzen. Der Beitrag gibt einen kurzen Überblick über die Trends von CN und CPPS als Systeme, bevor das Brain Computer Interface (BCI) als neue Technologie zur Steuerung von Geräten in CPPS vorgestellt wird. Als nächster Schritt wird ein neues Paradigma für zukünftige Produktionssysteme jenseits des CPPS vorgestellt, die biologische Transformation in der Fertigung (BTM), bei der Biologie, IC und Fertigungstechnologien zusammengeführt werden. Es gibt viele offene Fragen in Bezug auf BTM, die von der Fertigungsgemeinschaft beantwortet werden müssen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-28464-0_3 b4d2be25aede150d385312b0df71d861;de;;;7.4.;;;Gezielte Werbung im digitalen Zeitalter: Moderne Herausforderungen für den Datenschutz und die wirtschaftliche Freiheit der Verbraucher: Die Antworten der EU-Rechtsordnung Es wird davon ausgegangen, dass gezielte Werbung sowohl die Privatsphäre als auch die wirtschaftliche Freiheit des Einzelnen gefährdet. Daher wird es auf EU-Ebene sowohl aus daten- als auch verbraucherschutzrechtlicher Sicht geprüft. Es wird argumentiert, dass in der heutigen algorithmischen Gesellschaft und der digitalisierten Wirtschaft gezielte Werbung zusätzliche Risiken birgt, die sich hauptsächlich auf (a) übermäßige Datenverarbeitung und die Bildung hyperanalytischer Verbraucherprofile, (b) unfaire Behandlung von Verbrauchern und unklare Entscheidungsfindung beziehen auf autonomer Software (KI) und (c) Intraplattform- und In-App-Transaktionen. Diese Studie untersucht, ob der geltende EU-Rechtsrahmen das notwendige Instrumentarium bietet, um diesen modernen Herausforderungen zu begegnen. In diesem Zusammenhang führt sie eine kritische Analyse der Datenschutz-Grundverordnung (DSGVO), der ePrivacy-Richtlinie und deren lang erwarteter Nachfolgerin der ePrivacy-Verordnung sowie der Richtlinie 2005/29 über unlautere Geschäftspraktiken durch unter Berücksichtigung die neueste einschlägige Rechtsprechung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-69583-5_19 e8860c3e0b40b87adcd24f9c3c45344b;de;;;7.4.;;;Erkennung und Analyse lebensstilbedingter Krankheiten in der frühen Lebensphase: Eine Umfrage In Indien gibt es aufgrund der Industrialisierung und des westlichen Einflusses einen großen Wandel im Lebensstil. Lifestyle-Krankheiten nehmen zu und betreffen alle Altersgrenzen. Laut einer kürzlich durchgeführten Gesundheitsumfrage sind fast 60 % aller in Indien gemeldeten Todesfälle auf den Lebensstil und nicht übertragbare Krankheiten (NCD) zurückzuführen, wobei der Lebensstil den größten Anteil daran hat. Frühzeitiges Screening und prädiktive Analysen sind der richtige Weg, um den aufkeimenden Lebensstilkrankheiten Einhalt zu gebieten. In dieser Arbeit wird eine Umfrage zu skalierbaren Technologien durchgeführt, die das Frühscreening und die prädiktive Analyse von Lebensstilkrankheiten unterstützen. Jede der Technologien wird in Bezug auf mehrere Parameter wie Effektivität, Kosten, Komfort, Anpassungsrate usw. analysiert und offene Bereiche für weitere Forschung identifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-8300-7_6 6fcf1b19f1201ff605b19a9b7eec4bb3;de;;;7.4.;;;Generieren eines verzerrten Datensatzes für das metamorphe Testen von Programmen für maschinelles Lernen Obwohl sowohl positive als auch negative Tests wichtig sind, um die Qualität von Programmen sicherzustellen, ist das Generieren einer Vielzahl von Testeingaben für solche Testzwecke für Software für maschinelles Lernen schwierig. In diesem Artikel wird untersucht, warum dies schwierig ist, und schlägt dann eine neue Methode zum Generieren von Datensätzen vor, die Testeingaben für maschinelle Lernprogramme sind. Die vorgeschlagene Idee wird anhand einer Fallstudie zur Klassifizierung handgeschriebener Zahlen demonstriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-31280-0_4 024d34984b074f68668532b6586210ed;de;;;7.4.;;;Eye-Tracking und künstliche Intelligenz zur Steigerung der Motivation und des Lernens Die Interaktion mit den verschiedenen Lernenden in einem Massive Open Online Course (MOOC) ist oft komplex. Moderne MOOC-Lernanalysen beziehen sich auf Clickstreams, Tastenanschläge und andere Benutzereingabevariablen. Solche Variablen erfassen jedoch nicht immer das Lernen und das Verhalten der Benutzer (z. B. passives Ansehen von Videos). In diesem Beitrag stellen wir eine Studie mit 40 Studenten vor, die eine MOOC-Vorlesung verfolgt haben, während ihre Augenbewegungen aufgezeichnet wurden. Anschließend schlugen wir eine Methode vor, um stimulibasierte Blickvariablen zu definieren, die für jede Art von Stimulus verwendet werden können. Die vorgeschlagenen stimulibasierten Blickvariablen zeigen die inhaltliche Abdeckung (in Raum und Zeit) und Leseprozesse (Interessensbereichsbasierte Variablen) und Aufmerksamkeit (dh Mit-mir-ness) bei der Wahrnehmung (nach den deiktischen Handlungen des Lehrers) und konzeptionelle Ebenen (nach Lehrerdiskurs). In unserem Experiment haben wir einen signifikanten Vermittlungseffekt der Inhaltsberichterstattung, der Lesemuster und der beiden Ebenen des Mit-mir-seins auf die Beziehung zwischen Schülermotivation und ihrer Lernleistung identifiziert. Solche Variablen ermöglichen gemeinsame Messungen für die verschiedenen Arten von Stimuli, die in verschiedenen MOOCs vorhanden sind. Unser langfristiges Ziel ist es, Schülerprofile basierend auf ihrer Leistung und Lernstrategie unter Verwendung von stimulibasierten Blickvariablen zu erstellen und den Schülern ein blickbewusstes Feedback zu geben, um den gesamten Lernprozess zu verbessern. Ein wichtiger Bestandteil bei der Erzielung eines hohen Anpassungsgrads bei der Bereitstellung von blickbewusstem Feedback an die Schüler ist die Verwendung von Algorithmen der künstlichen Intelligenz (KI), um die Leistung der Schüler anhand ihres Verhaltens vorherzusagen. In diesem Beitrag stellen wir auch eine Methode vor, die modernste KI-Technik mit den Eye-Tracking-Daten kombiniert, um die Leistung der Schüler vorherzusagen. Die Ergebnisse zeigen, dass die Schülerleistung mit einem Fehler von weniger als 5 % vorhergesagt werden kann.;-;-;-;https://link.springer.com/article/10.1186/s40561-020-00122-x 5005f0bc78696a9a61f35975942f7648;de;;;7.4.;;;CAU-net: Ein neuartiges Convolutional Neural Network für die Segmentierung der Koronararterien in der digitalen Subtraktionsangiographie Die Analyse der Koronararterien spielt eine wichtige Rolle bei der Diagnose und Behandlung der koronaren Herzkrankheit. Die Segmentierung der Koronararterien ist als wichtiger Teil der quantitativen Forschung zur koronaren Herzkrankheit zum Hauptthema der Koronararterienanalyse geworden. In diesem Artikel wird eine auf einem tiefen Faltungsneuralnetzwerk (CNN) basierende Methode namens Coronary Artery U-net (CAU-net) für die automatische Segmentierung von Koronararterien in digitalen Subtraktionsangiographie (DSA)-Bildern vorgeschlagen. CAU-net ist eine Variante von U-net. Basierend auf der Beobachtung, dass Koronararterien aus vielen Gefäßen mit dem gleichen Aussehen, aber unterschiedlichen Dicken bestehen, wird in CAU-net eine neuartige Multiskalen-Feature-Fusionsmethode vorgeschlagen. Außerdem wird ein neuer Datensatz vorgeschlagen, um das Problem des fehlenden öffentlichen Datensatzes zur Segmentierung der Koronararterien zu lösen, der ebenfalls einer unserer Beiträge ist. Unser Datensatz enthält 538 Bildbeispiele, was im Vergleich zu den öffentlichen Datensätzen anderer Schiffssegmentierungsaufgaben relativ groß ist. In unserem Datensatz wird eine neue Markierungsmethode angewendet, um die Reinheit der Markierungsproben sicherzustellen. Aus den experimentellen Ergebnissen belegen wir, dass CAU-net im Vergleich zum Vanilla-U-net signifikante Verbesserungen erzielen und im Vergleich zu anderen traditionellen Segmentierungsmethoden und Deep-Learning-Methoden die State-of-the-Art-Performance erreichen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63830-6_16 e17d7ada399699c17394662337339763;de;;;7.4.;;;Asynchrone Methoden für einen tiefen deterministischen Policy-Gradienten mit mehreren Agenten Wir schlagen ein Varianten-Framework zur Optimierung des Deep Neural Network Controllers unter Verwendung der asynchronen Gradientenabstiegsmethode für den Multi-Agent Deep Deterministic Policy Gradient (MADDPG)-Algorithmus vor. Unter Verwendung des Multicore-Prozessors der CPU zum Erstellen mehrerer paralleler Umgebungen interagiert jeder Thread mit seiner eigenen Umgebungsreplik. Jede Kopie verwendet priorisierte Stapeldaten. Die Bewertungsmethode der Kritik wurde angepasst und der Vorteil wurde als Bewertung der Handlung verwendet. Die von mehreren Kopien verarbeiteten Stapeldaten werden gesammelt und die Verlustwerte jeder Kopie werden berechnet. Verwendung von Chargendaten mit maximalem Verlust als Stichprobe für das globale Netzwerk. Darüber hinaus zeigen wir die erfolgreiche Anwendung von Multi-Agent Collaboration basierend auf asynchronen Methoden. Die Ergebnisse zeigen, dass die mittlere Episodenbelohnung höher ist als die Belohnung, die durch den vorherigen Algorithmus erhalten wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-04179-3_63 6fb031900c8b5a8e7189e432a0982148;de;;;7.4.;;;CBR-basierte Lehrmethode für den Aufbaustudiengang Bildverarbeitung und Machine Vision In diesem Beitrag wird die Dringlichkeit und Bedeutung der Innovationslehre im Aufbaustudiengang Bildverarbeitung und maschinelles Sehen diskutiert. Mit dem Ziel, das Problem der Vertiefung der Lehrinnovation anzugehen, schlägt dieses Papier eine CBR-basierte Methode zum Aufbau eines Bildungssystems vor. Darüber hinaus wird diskutiert, wie die wissenschaftliche Kompetenz und Anwendungsfähigkeit von Postgraduierten gefördert werden kann, um die Lehrqualität und -wirkung der postgradualen Studiengänge Bildverarbeitung und Bildverarbeitung weiter zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-95957-3_55 5d4a5a24e41bbc39bf23968844842650;de;;;7.4.;;;Leistungsanalyse verschiedener Modelle für Twitter-Sentiment Die Sentimentanalyse ist die Klassifizierung von Emotionen (wie positiv negativ und neutral) in den Textdaten. Es hilft Unternehmen, die Meinung der Kunden zu ihren Produkten und Dienstleistungen zu kennen, die sie anbieten. Heutzutage äußern viele Kunden ihre Bewertungen zu einem bestimmten Produkt auf Social-Media-Sites. Wenn wir diese Bewertungen mithilfe einer Sentimentanalyse analysieren, könnten wir wissen, ob Kunden mit bestimmten Produkten zufrieden sind oder nicht. Twitter stellt die größten und dynamischsten Datensätze für Data Mining und Stimmungsanalysen dar. Daher spielt die Twitter-Sentimentanalyse eine wichtige Rolle im Forschungsbereich mit signifikanten Anwendungen in Industrie und Wissenschaft. Der Zweck dieses Papiers besteht darin, einen optimalen Algorithmus für die Twitter-Sentimentanalyse bereitzustellen, indem die Genauigkeit verschiedener Modelle des maschinellen Lernens verglichen wird. In diesem Zusammenhang wurden neun bekannte lernbasierte Klassifikatoren anhand von Konfusionsmatrizen evaluiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4859-2_11 75190812df87f2d63eaa7429cf6ee6e0;de;;;7.4.;;;DenClust: Ein dichtebasierter Ansatz zur Saatgutauswahl für K-Means In diesem Papier stellen wir eine Clustering-Technik namens DenClust vor, die durch einen deterministischen Prozess qualitativ hochwertige Initial-Seeds erzeugt, ohne dass eine Benutzereingabe zur Anzahl der Cluster erforderlich ist;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07176-3_68 7f63c7f3bb52d5cd4354fa35013662f0;de;;;7.4.;;;Einige experimentelle Ergebnisse zum Lernen probabilistischer und possibilistischer Netzwerke mit unterschiedlichen Bewertungsmaßstäben Ein großer Teil der neueren Forschung zu probabilistischen und possibilistischen Inferenznetzwerken ist dem Lernen aus Daten gewidmet. In diesem Beitrag diskutieren wir zwei Suchmethoden und mehrere Bewertungsmaßstäbe, die für diese Aufgabe verwendbar sind. Wir betrachten ein Schema zur Bewertung induzierter Netzwerke und präsentieren experimentelle Ergebnisse aus einer Anwendung von INES (Induction of NETwork Structures), einer prototypischen Implementierung der beschriebenen Methoden und Maßnahmen.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0035613 f14f1e27b7b645708bfd51349d9af1b5;de;;;7.4.;;;Eine maschinelle Lernstudie zur Komorbidität von Legasthenie und Aufmerksamkeitsdefizit-Hyperaktivitätsstörung Neurologische Entwicklungsstörungen bei Kindern wie Legasthenie und ADHS müssen in einem früheren Stadium diagnostiziert werden, da die Kinder mit der notwendigen Hilfe versorgt werden müssen. Die Komorbidität von Legasthenie und ADHS ist sehr hoch. Kinder mit einer Komorbidität von Legasthenie und ADHS haben vergleichsweise größere Schwierigkeiten als Kinder mit nur einer der Erkrankungen. Da alle drei Fälle, Legasthenie, ADHS und komorbide Fälle, viele ähnliche Merkmale aufweisen, ist es schwierig, zwischen Fällen mit nur Legasthenie oder ADHS und solchen mit beidem zu unterscheiden. Die manuelle Analyse zur Differenzierung basierend auf den Standardwerten der Psychoanalysetests lieferte widersprüchliche Ergebnisse. In diesem Artikel haben wir die Standardtechniken des maschinellen Lernens Random Forest, Support Vector Machine und Multilayer Perceptron auf die Diagnosetestergebnisse angewendet, um zwischen ADHS und komorbiden Fällen sowie Legasthenie und komorbiden Fällen zu klassifizieren. Es wird auch eine Analyse mit den verschiedenen individuellen Psychoanalysetests durchgeführt. Die Anwendung von Techniken des maschinellen Lernens bietet eine bessere Klassifizierung als die manuelle Analyse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63467-4_24 cd25fbc1362e37ec373623eb8049de26;de;;;7.4.;;;Identifizierung von diabetischer Retinopathie und Myopie mithilfe lokaler Binärmuster mit maschinellem Lernen Diese Arbeit untersucht Abgeschiedenheitsgrenzen außerhalb von Netzhautbildern, um sich zwischen hypochondrischen und gesunden Fundusbildern abzulösen. Von nun an wurde die Präsentation lokaler Binärmuster (LBP) als Oberflächendeskriptor für Netzhautbilder untersucht und von verschiedenen Deskriptoren, zum Beispiel LBP-Isolation (LBPF) und Nachbarschafts-Anordnungsquantisierung (LPQ), abgewandert. Das Ziel ist es, diabetische Retinopathie (DR) und regelmäßige Netzhautbilder zu sehen, die die Außenseite der Netzhauteinrichtung untersuchen und den Reizbereichsschritt ignorieren. Die Untersuchungen wurden orchestriert und unterstützt, wobei die vorgeschlagene Struktur vielversprechende Ergebnisse in Bezug auf Präzision, Genauigkeit, Auditierung und Eindeutigkeit lieferte.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8685-9_36 8bc48b0ed08ce4c50540aa399ea8a11b;de;;;7.4.;;;Entwicklung von Gauß-Prozess-Kernen für die Schätzung des Aufwands für die maschinelle Übersetzung nach der Bearbeitung Bei vielen Problemen der Natural Language Processing ist die Kombination von maschinellem Lernen und Optimierungstechniken unerlässlich. Eines dieser Probleme ist die Schätzung des menschlichen Aufwands, der erforderlich ist, um einen Text zu verbessern, der mit einem maschinellen Übersetzungsverfahren übersetzt wurde. Jüngste Fortschritte in diesem Bereich haben gezeigt, dass Gaußsche Prozesse bei der Vorhersage des Aufwands nach der Bearbeitung effektiv sein können. Gaußsche Prozesse erfordern jedoch die Definition einer Kernfunktion, deren Wahl die Qualität der Vorhersage stark beeinflusst. Andererseits kann die Extraktion von Merkmalen aus dem Text sehr arbeitsintensiv sein, obwohl jüngste Fortschritte bei der Satzeinbettung gezeigt haben, dass dieser Prozess automatisiert werden kann. In diesem Papier verwenden wir einen genetischen Programmieralgorithmus, um Kernel für Gaußsche Prozesse zu entwickeln, um den Aufwand nach der Bearbeitung basierend auf Satzeinbettungen vorherzusagen. Wir zeigen, dass die Kombination von evolutionärer Optimierung und Gaussian Processes die Notwendigkeit einer a-priori-Spezifikation der Kernel-Wahl überflüssig macht und durch die Verwendung einer multiobjektiven Variante des Genetic Programming-Ansatzes Kerne erlernt werden können, die für die Vorhersage mehrerer Metriken geeignet sind . Wir untersuchen auch den Effekt, den die Wahl der Satzeinbettungsmethode auf den Kernel-Lernprozess hat.;-;-;-;https://link.springer.com/article/10.1007/s10472-021-09751-5 47a236c699e88fec3448d5fddb38bfbc;de;;;7.4.;;;: eine baumbasierte, unüberwachte Schlüsselphrase-Extraktionstechnik Automatische Schlüsselphrasen-Extraktionstechniken zielen darauf ab, hochwertige Schlüsselphrasen für eine höhere Zusammenfassung eines Dokuments zu extrahieren. Die Mehrzahl der existierenden Techniken sind hauptsächlich domänenspezifisch, erfordern Anwendungsdomänenwissen und verwenden statistische Verfahren höherer Ordnung, und sind rechenaufwendig und erfordern große Zugdaten, was für viele Anwendungen selten ist. Um diese Probleme zu überwinden, schlägt dieses Papier eine neue Technik zur unüberwachten Schlüsselphrase-Extraktion vor. Die vorgeschlagene Technik zur unüberwachten Schlüsselwortextraktion, genannt;-;-;-;https://link.springer.com/article/10.1007/s12559-019-09706-3 ebeff20c4a357ac52358179f82303ea3;de;;;7.4.;;;Ein verbesserter YOLOv3-Algorithmus in Kombination mit einem Aufmerksamkeitsmechanismus für die Flammen- und Raucherkennung Herkömmliche Flammen- und Rauchmelder basieren meist auf Temperatur- und Rauchmeldern, aber die Detektion von Temperaturmelder und Rauchmelder hat eine gewisse Verzögerung. Um dieses Problem der Hysterese und der geringen Genauigkeit zu lösen, schlagen wir einen verbesserten YOLOV3-Algorithmus in Kombination mit einem Aufmerksamkeitsmechanismus für die Flammen- und Raucherkennung vor. Zunächst wird ein großflächiger Flammen- und Rauchbilddatensatz mit mehreren Szenen erstellt. Die Lokalisierung und Klassifizierung der Flammen- und Rauchbereiche im Bild sind präzise annotiert. Die verdächtigen Bereiche der Flamme und des Rauchs im Bild werden durch Farbanalyse gewonnen, so dass es sich um die verdächtigen Bereiche der Flamme und Rauchobjekte handelt. Dann wird das Problem der Flammen- und Raucherkennung in Kombination mit der Merkmalsextraktionsfähigkeit des tiefen Netzwerks in eine Mehrfachklassifizierung und Koordinatenregression umgewandelt. Schließlich wird das Erkennungsmodell von Flammen und Rauch in mehreren Szenen erhalten. Unsere Experimente zeigen die Wirksamkeit des verbesserten YOLOv3-Algorithmus in Kombination mit einem Aufmerksamkeitsmechanismus bei der Flammen- und Raucherkennung. Unsere vorgeschlagene Methode erzielt eine hervorragende Leistung im Datensatz des Flammen- und Rauchbildes. Die Erkennungsgeschwindigkeit erfüllt auch den Bedarf an Echtzeiterkennung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-78609-0_20 9bb693f5735776fceeace121f64b2026;de;;;7.4.;;;Ein Machine-Learning-Ansatz zur Klassifikation von Zahnfluorose Es wurde festgestellt, dass Fluorid im Grundwasser in zwei Dörfern (Karataş und Sar inm) im Westen von Sanliurfa in der südöstlichen Region Anatolien der Türkei eine ernsthafte Bedrohung für die öffentliche Gesundheit darstellt, wo viele Fälle von Fluorose gemeldet wurden, die sich nachteilig auf Zähne und Knochen auswirkt. Die Analyse von Fluorid in Trinkwasser wird normalerweise mit verschiedenen chemischen Methoden durchgeführt, aber obwohl diese Techniken genaue und zuverlässige Ergebnisse liefern, sind sie teuer, arbeitsintensiv und umständlich. In dieser Studie wird eine kostengünstigere Alternative basierend auf Methoden des maschinellen Lernens vorgestellt. In diesem Fall werden künstliche neuronale Netze (ANN), Support Vector Machine (SVM) und naive Bayes-Klassifikatoren verwendet. Darüber hinaus wird ein neuartiges Merkmalsauswahl- und Ranking-Verfahren vorgestellt, das als Normalized Weighted Voting Map (NWVM) bekannt ist. Bei den Fisher-Diskriminierungskraft-(FDP-)Werten haben Röntgenfluoreszenz-(XRF)-Variablen ein höheres Unterscheidungskraft-Potenzial als Röntgenbeugungs(XRD)-Attribute, wobei die hervorstechendsten Merkmale Zr (0,464) und CaO (219.993) von XRD und XRF sind , beziehungsweise. Bei getrennter Klassifizierung der XRD- und XRF-Parameter für die Wirkung der NWVM-Ranking-Scores auf die Fluoridwerte und Zahnfluorid im Grundwasser, CaO, SiO;-;-;-;https://link.springer.com/article/10.1007/s12517-020-06342-2 5580eefea11cf3cae7a87c0928908555;de;;;7.4.;;;Eine Methode des maschinellen Lernens für Hochfrequenz-Datenprognosen In den letzten Jahren wurden mehrere Modelle für Finanzhochfrequenzdaten vorgeschlagen. Eines der bekanntesten Modelle für diese Art von Anwendungen ist das ACM-ACD-Modell. Dieses Modell konzentriert sich auf die Modellierung der zugrunde liegenden gemeinsamen Verteilung von Laufzeit- und Preisänderungen zwischen aufeinander folgenden Transaktionen. Dieses Modell legt jedoch Verteilungsannahmen fest und seine Anzahl von Parametern nimmt schnell zu (wodurch ein komplexer und langsamer Anpassungsprozess entsteht). Daher schlagen wir vor, zwei Modelle des maschinellen Lernens zu verwenden, die sequentiell arbeiten, basierend auf dem ACM-ACD-Modell. Die Ergebnisse zeigen eine vergleichbare Leistung, wobei in einigen Fällen eine bessere Leistung erzielt wird. Außerdem erreicht der Vorschlag eine deutlich schnellere Konvergenz. Der Vorschlag wird mit einem bekannten Finanzdatensatz validiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12568-8_76 374491b49d74dd1b4e4b2b6df2dd3094;de;;;7.4.;;;Benchmarking von maschinellen Lernalgorithmen für die adaptive Quantenphasenschätzung mit verrauschten Quantensensoren im mittleren Maßstab Die Quantenphasenschätzung ist ein paradigmatisches Problem in der Quantensensorik und Metrologie. Hier zeigen wir, dass adaptive Methoden auf Basis klassischer maschineller Lernalgorithmen verwendet werden können, um die Präzision der Quantenphasenschätzung zu verbessern, wenn verrauschte, nicht verschränkte Qubits als Sensoren verwendet werden. Wir verwenden für diese Aufgabe die Algorithmen Differentielle Evolution (DE) und Particle Swarm Optimization (PSO) und identifizieren die optimalen Feedback-Richtlinien, die die Holevo-Varianz minimieren. Wir vergleichen diese Schemata in Bezug auf Szenarien, die Gaussian- und Random-Telegraph-Fluktuationen sowie eine reduzierte Ramsey-Rand-Sichtbarkeit aufgrund von Dekohärenz beinhalten. Wir diskutieren ihre Robustheit gegenüber Rauschen in Verbindung mit realen experimentellen Aufbauten wie Mach-Zehnder-Interferometrie mit optischen Photonen und Ramsey-Interferometrie in gefangenen Ionen, supraleitenden Qubits und Stickstoff-Vakanz-(NV)-Zentren in Diamant.;-;-;-;https://link.springer.com/article/10.1140/epjqt/s40507-021-00105-y be7d0a1e3c33d96bf4d6cb89815988f0;de;;;7.4.;;;Schnelle und genaue Bild-Superauflösung von Deep CNN mit Skip Connection und Network in Network Wir schlagen ein hocheffizientes und schnelleres Single Image Super-Resolution (SISR)-Modell mit Deep Convolutional Neural Networks (Deep CNN) vor. Deep CNN hat kürzlich gezeigt, dass sie eine signifikante Rekonstruktionsleistung bei Einzelbild-Superauflösung aufweisen. Der aktuelle Trend geht dahin, tiefere CNN-Schichten zu verwenden, um die Leistung zu verbessern. Tiefe Modelle erfordern jedoch größere Rechenressourcen und eignen sich nicht für Netzwerk-Edge-Geräte wie mobile, Tablet- und IoT-Geräte. Unser Modell erreicht durch Deep CNN mit Residual Net, Skip Connection und Network in Network (DCSCN) eine Rekonstruktionsleistung auf dem neuesten Stand der Technik mit mindestens 10-mal niedrigeren Berechnungskosten. Als Feature-Extraktor für Bild-Features in lokalen und globalen Bereichen wird eine Kombination aus Deep CNNs und Skip-Verbindungs-Layern verwendet. Parallelisierte 1 × 1-CNNs, wie das sogenannte Network in Network, werden auch für die Bildrekonstruktion verwendet. Diese Struktur reduziert die Abmessungen der Ausgabe der vorherigen Ebene für eine schnellere Berechnung mit weniger Informationsverlust und ermöglicht die direkte Verarbeitung von Originalbildern. Außerdem optimieren wir die Anzahl der Schichten und Filter jedes CNN, um die Berechnungskosten erheblich zu reduzieren. Somit erreicht der vorgeschlagene Algorithmus nicht nur eine Leistung nach dem Stand der Technik, sondern auch eine schnellere und effizientere Berechnung. Code ist erhältlich unter;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-70096-0_23 e94fc751ed4833740970a9a17dc8de18;de;;;7.4.;;;Quantenmaschinelles Lernen für die Teilchenphysik mit einem Variationsquantenklassifikator Quantum Machine Learning zielt darauf ab, die Fähigkeiten des Quantencomputings freizusetzen, um Methoden des maschinellen Lernens zu verbessern. Durch die Kombination von Quantencomputing-Methoden mit klassischen neuronalen Netzwerktechniken wollen wir eine Leistungssteigerung bei der Lösung von Klassifikationsproblemen fördern. Unser Algorithmus ist für bestehende und kurzfristige Quantengeräte konzipiert. Wir schlagen einen neuartigen hybriden Variationsquantenklassifizierer vor, der die Quantengradientenabstiegsmethode mit dem steilsten Gradientenabstieg kombiniert, um die Parameter des Netzwerks zu optimieren. Durch die Anwendung dieses Algorithmus auf eine Resonanzsuche in Di-Top-Endzuständen stellen wir fest, dass diese Methode ein besseres Lernergebnis hat als ein klassisches neuronales Netzwerk oder eine quantenmaschinelle Lernmethode, die mit einer Nicht-Quantenoptimierungsmethode trainiert wurde. Die Fähigkeit des Klassifikators, mit kleinen Datenmengen trainiert zu werden, zeigt seine Vorteile bei datengesteuerten Klassifizierungsproblemen.;-;-;-;https://link.springer.com/article/10.1007/JHEP02%282021%29212 6be903f7f7994caa3d4e50b604e2a1b6;de;;;7.4.;;;Bildsegmentierungstechnologie von Marathon Motion Video basierend auf maschinellem Lernen Um diese Segmentierungsqualität des Videobildes des Marathons zu verbessern, wird ein auf maschinellem Lernen basierender Videobildsegmentierungsalgorithmus vorgeschlagen. Konstruieren der Kantenkonturmerkmalserkennung und des Pixelmerkmalspunkt-Fusionsrekonstruktionsmodells des Marathon-Bewegtvideobildes, Durchführen einer mehrstufigen Merkmalszerlegung und Graupixel-Merkmalstrennung des Marathon-Bewegtvideobildes und Erstellen eines visuellen Merkmalsrekonstruktionsmodells des Marathons Bewegtes Videobild, die Merkmalssegmentierung und die Kantenkontur-Merkmalserkennung des Marathon-Bewegtvideobildes werden in Kombination mit dem Blockbereichs-Template-Matching-Verfahren durchgeführt, das Ähnlichkeitsinformations-Fusionsmodell wird verwendet, um das Videoinformations-Fusionsbewusstsein und den Block Bereichsvorlagenabgleich im Prozess der Segmentierung des Marathon-Bewegtvideos, die Fuzzy-Merkmalsquantität des bewegten Videobildes des Marathons wird extrahiert und die Methode des maschinellen Lernens wird angewendet, um das Fusionsbewusstsein und die Segmentierungsqualitätsbewertung der Marathonbewegung zu realisieren Video-Informationen. Die Simulationsergebnisse zeigen, dass das Verfahren eine gute Bildsegmentierungsqualität und eine hohe Bilderkennung aufweist und das Ausgangssignal-Rausch-Verhältnis der Bewegungsmerkmalrekonstruktion des Laufvideos des Marathons hoch ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-51100-5_19 7c2e0a908288435c787ec8d981b0e09b;de;;;7.4.;;;Ein effizientes Framework für die Vorhersage von Gesundheitsdaten mit Soft-Computing-Techniken Gesundheitsorganisationen zielen darauf ab, mithilfe von Data-Mining- und Soft-Computing-Techniken wertvolle Erkenntnisse aus den riesigen Datenspeichern zu gewinnen, die sich im Laufe der Jahre angesammelt haben. Diese Daten können jedoch aus fehlenden, falschen und meistens unvollständigen Instanzen bestehen, die sich nachteilig auf die prädiktive Analyse der Gesundheitsdaten auswirken können. Die Vorverarbeitung dieser Daten, insbesondere die Imputation fehlender Werte, stellt eine Herausforderung für eine zuverlässige Modellierung dar. Diese Arbeit präsentiert eine neuartige Vorverarbeitungsphase mit der Imputation von fehlenden Werten sowohl für numerische als auch für kategoriale Daten. Eine Hybridkombination aus Klassifikations- und Regressionsbäumen (CART) und genetischen Algorithmen zur Imputation fehlender kontinuierlicher Werte und Self Organizing Feature Maps (SOFM) zur Imputation kategorialer Werte wird in dieser Arbeit adaptiert. Darüber hinaus werden künstliche neuronale Netze (KNN) verwendet, um die verbesserte Genauigkeit der Vorhersage nach der Imputation zu validieren. Um dieses Modell zu evaluieren, verwenden wir den PIMA Indians Diabetes Data Set (PIDD) und Mammographic Mass Data (MMD). Die Genauigkeit des vorgeschlagenen Modells, das sich auf eine Vorverarbeitungsphase konzentriert, ist den bestehenden Techniken überlegen. Dieser Ansatz ist einfach, leicht zu implementieren und praktisch zuverlässig.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22720-2_55 3a3d7cf611cf6d3e94cb043e29b3a420;de;;;7.4.;;;Methode des maschinellen Lernens, um den Zusammenhang zwischen altersbedingter Makuladegeneration und einigen genetischen Variationen herzustellen Die auf maschinellen Lernmethoden basierende Medizinforschung ermöglicht die Verbesserung der Diagnose bei komplexen Erkrankungen. Eine davon ist die altersbedingte Makuladegeneration (AMD). AMD ist weltweit die häufigste Erblindungsursache. Es verursacht die 8,7 % der Blinden. Eine Reihe von Fall- und Kontrollstudien könnte durch maschinelle Lernmethoden entwickelt werden, um die Beziehung zwischen Single Nucleotide Polymorphisms (SNPs) SNP_A, SNP_B, SNP_C und AMD zu finden. In diesem Artikel präsentieren wir eine auf maschinellem Lernen basierende Analyse, um die Beziehung zwischen drei Einzelnukleotid-SNPs und der AMD-Erkrankung zu bestimmen. Die SNPs SNP_B, SNP_C verblieben in den Top 4 der relevanten Merkmale bei ophthalmologischen Operationen und bilateralem Katarakt. Unser Ziel ist es auch, den besten Satz von Merkmalen für den Klassifizierungsprozess zu bestimmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48799-1_4 deae00c2978043e60a5f47a3323765bf;de;;;7.4.;;;Themenspezifische Textfilterung basierend auf mehreren Reduktionen Die Merkmalsauswahl ist ein sehr wichtiger Schritt in der Textvorverarbeitung. Eine gut ausgewählte Merkmalsteilmenge kann die gleiche Leistung erzielen wie die Verwendung von vollständigen Merkmalen, gleichzeitig reduziert sie die Lernzeit. Um unser System fit für die Anwendung zu machen und dieses Modell-Gateway für die Echtzeit-Textfilterung einzubetten, müssen wir genauere Funktionen auswählen. In diesem Artikel haben wir eine neue Methode zur Merkmalsauswahl vorgeschlagen, die auf der Grobmengentheorie basiert. Es erzeugt mehrere Reduktionen, aber das Besondere ist, dass zwischen diesen Reduktionen keine gemeinsamen Attribute vorhanden sind, so dass diese Attribute eine stärkere Fähigkeit haben, neue Objekte zu klassifizieren, insbesondere für reale Datensätze in der Anwendung. Wir wählen zwei Datensätze aus, um unsere Feature-Auswahlmethode zu bewerten, einen Benchmark-Datensatz aus dem UCI-Archiv für maschinelles Lernen und einen anderen aus dem Web. Wir verwenden statistische Klassifikationsmethoden, um diese Objekte zu klassifizieren, im Benchmark-Testsatz erhalten wir eine gute Genauigkeit mit einem einzelnen Reduction, aber im Real Date Set erhalten wir eine gute Präzision mit mehreren Reductions, und der Datensatz wird in unserem System für Themen verwendet -spezifische Textfilterung. Daraus schließen wir, dass unsere Methode in der Anwendung sehr effektiv ist. Darüber hinaus kommen wir auch zu dem Schluss, dass SVM- und VSM-Methoden eine bessere Leistung erzielen, während die Naive Bayes-Methode bei den gleichen ausgewählten Funktionen bei nicht bilanzierten Datensätzen eine schlechte Leistung erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/11492870_14 8ed8a4675bec9c17a01e3ae82a6a153f;de;;;7.4.;;;Machine-Learning-Techniken zur Schätzung von Umweltdaten Zusammenfassung. In diesem Artikel untersuchen wir das Problem der Windgeschwindigkeitsvorhersage an einem bestimmten Ort im Stadtgebiet von Thessaloniki, Griechenland, basierend auf den historischen Daten, die Windparameterwerte an zwei anderen verschiedenen Orten enthalten. Wir evaluieren die Leistung von zwei bedeutenden maschinellen Lernmethoden, dem Fuzzy Lattice Neurocomputing (FLN) und der Support Vector Regression (SVR). Die Ergebnisse der spezifischen Anwendungen werden mit früheren Arbeiten am selben Datensatz verglichen und eine Diskussion über die ausgestellten Merkmale durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72687-6_10 fa96a63ba2fc0476087194e47bc6d9ad;de;;;7.4.;;;Variablenauswahl zum effizienten Design von Machine Learning-basierten Modellen: Effiziente Ansätze für industrielle Anwendungen In vielen Real-Word-Anwendungen neuronaler Netze und anderer maschineller Lernansätze stehen große experimentelle Datensätze zur Verfügung, die eine Vielzahl von Variablen enthalten, deren Auswirkungen auf das betrachtete System oder Phänomen nicht vollständig bekannt oder nicht vollständig verstanden sind. Variablenauswahlverfahren identifizieren eine kleine Teilmenge aus dem ursprünglichen Merkmalsraum, um auf die Eingabevariablen hinzuweisen, die hauptsächlich das betrachtete Ziel betreffen. Die Identifizierung solcher Variablen führt zu sehr wichtigen Vorteilen, wie geringerer Komplexität des Modells und des Lernalgorithmus, Einsparung von Rechenzeit und verbesserter Performance. Darüber hinaus können variable Auswahlverfahren dazu beitragen, ein tieferes Wissen über das betrachtete Problem, System oder Phänomen zu erlangen, indem die Faktoren identifiziert werden, die es am meisten beeinflussen. Dieses Konzept ist eng mit dem entscheidenden Aspekt der Stabilität der Variablenauswahl verknüpft, definiert als die Sensitivität eines Machine-Learning-Modells gegenüber Variationen im Datensatz, der in seiner Trainingsphase ausgenutzt wird. In der vorliegenden Übersicht werden verschiedene Kategorien von variablen Schnittverfahren vorgestellt und diskutiert, um Stärken und Schwächen jeder Methode in Bezug auf die verschiedenen Aufgaben und die Variablen des betrachteten Datensatzes hervorzuheben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-44188-7_27 4b4965486a4acec706096c3e3d67b5f0;de;;;7.4.;;;Ein Ensemble-Modell für maschinelles Lernen zur Verbesserung der Vorhersagegenauigkeit des Energieverbrauchs in Gebäuden Die Vorhersage des Energieverbrauchs von Gebäuden ist für die Energieplanung, -verwaltung und -einsparung erforderlich. Aufgrund der inhärenten Komplexität der thermischen Eigenschaften von Gebäuden und des Nutzerverhaltens ist es schwierig, genaue Vorhersageergebnisse zu erzielen. Maschinelles Lernen wurde kürzlich zur Vorhersage des Energieverbrauchs eingesetzt. Die Verbesserung der Vorhersagegenauigkeit und Verallgemeinerungsfähigkeit ist von wesentlicher Bedeutung. Daher wurde in dieser Studie ein maschinelles Lernmodell für einen Ensemble-Ansatz zur Vorhersage des Energieverbrauchs in Nichtwohngebäuden vorgeschlagen. Zur Bewertung der Vorhersageleistung wurden verschiedene Datensätze von Nichtwohngebäuden erhoben. Künstliche neuronale Netze, Support-Vektor-Regression und M5Rules-Modelle wurden in dieser Studie als Basismodelle verwendet. Evaluierungsergebnisse haben die Wirksamkeit des Ensemble-Machine-Learning-Modells bei der nächsten 24-h-Energieverbrauchsvorhersage in Gebäuden bestätigt. Der mittlere absolute Fehler (MAE) und der mittlere absolute prozentuale Fehler (MAPE), die durch das maschinelle Lernmodell des Ensembles ermittelt wurden, betrugen 2,858 kWh bzw. 16,141 kWh. Das maschinelle Lernmodell des Ensembles kann den MAE um 123,4% und den MAPE um 209,3% im Vergleich zu Basismodellen verbessern. Diese Studie trägt dazu bei, die Vorteile von Machine-Learning-Anwendungen für den Bausektor aufzuzeigen. Ensemble-Modelle für maschinelles Lernen können als effektive Methode zur Vorhersage des Energieverbrauchs in Gebäuden vorgeschlagen werden.;-;-;-;https://link.springer.com/article/10.1007/s13369-021-05927-7 33241407c0cbc468aa11fe1f5dcebbd5;de;;;7.4.;;;Zur Skalierbarkeit von Grobsatzmethoden In diesem Beitrag werden einige aktuelle Forschungsergebnisse zur Skalierbarkeit von grob mengenbasierten Klassifikationsverfahren vorgestellt. Die vorgeschlagene Lösung basiert auf der engen Beziehung zwischen dem Reduktionsberechnungsproblem in der Grobmengentheorie und dem Assoziationsregelerzeugungsproblem. Dies ist eine Fortsetzung unserer bisherigen Ergebnisse (siehe z. B. [10] [11]). In dieser Arbeit wird der Satz von Entscheidungsregeln, der das Testobjekt erfüllt, direkt aus dem Trainingsdatensatz generiert. Um es skalierbar zu machen, haben wir die Idee des FP-Wachstumsalgorithmus für;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14055-6_30 5457bb5d0221e774587ac87e967186c0;de;;;7.4.;;;Ontologiebasiertes Fragenverständnis mit der Einschränkung des räumlich-zeitlichen geologischen Wissens Räumlich-zeitliche geologische Big Data enthalten eine große Menge an räumlichen und nicht-räumlichen Daten. Es ist wichtig, diese vorhandenen Daten für die geologische Forschung effektiv zu verwalten und abzurufen, und das Verständnis der Frage ist der erste Schritt. Dieses Papier zielt darauf ab, das Problem besser zu verstehen, um die Retrieval-Effizienz zu verbessern. In der Geologie wurden die Organisation massiver unstrukturierter geologischer Daten und die Entdeckung impliziter Inhalte basierend auf Wissen und Beziehungen realisiert. Bisherige Erkenntnisse basieren jedoch hauptsächlich auf räumlichen und nicht-räumlichen Dimensionen und die gesuchten Schlüsselwörter sind oft nur segmentierte Wörter. In der geologischen Forschung ist die Dimension der Zeit ebenso wichtig wie räumliche und andere nicht-räumliche Dimensionen. Darüber hinaus kann das Ziel eines einzelnen Benutzers mehr sein als eine oberflächliche Darstellung des Problems. In diesem Beitrag konstruieren wir zunächst die geologische Ereignisontologie, organisieren räumlich-zeitliche Big Data mit dieser Dimension und erweitern das Konzept der geologischen Zeit. Als nächstes schlagen wir basierend auf geologischem Wissen raum-zeitliche Regeln, räumliche Eigenschaften und Domänenbeschränkungsregeln vor, um die Konsistenz der Ontologie zu beurteilen und die Beziehung zwischen den Informationen und Verbesserungen der Effizienz der Informationsgewinnung zu maximieren. Dann wird die Ontologiefrage erweitert und die Regeln zwischen dieser Frage und anderen Ontologien erläutert, um das Verständnis des Problems zu vertiefen. Schließlich bewerten wir unseren Beitrag über einen realen geologischen Datensatz auf einer wissensgesteuerten geologischen Informations-Smart-Service-Plattform (GSISSP), die geologische thematische Ontologie, geologische zeitliche Ontologie und Toponymie-Ontologie integriert. Diese Studie zeigt einen positiven Einfluss der Integration mehrerer Ontologien und Feature-Regeln, der für die Verbesserung der Genauigkeit und Vollständigkeit von Bedeutung ist.;-;-;-;https://link.springer.com/article/10.1007/s12145-019-00402-2 6048b7780b83a4d3522ab5ae24b0b50c;de;;;7.4.;;;Lern- und Erkennungsmethoden für die Bildsuche und den Videoabruf Effektive Lern- und Erkennungsmethoden spielen eine wichtige Rolle bei der intelligenten Bildsuche und Videosuche. In diesem Kapitel werden daher einige beliebte Lern- und Erkennungsmethoden behandelt, die allgemein für die Bildsuche und den Videoabruf verwendet werden. Zunächst werden einige gängige Deep-Learning-Methoden diskutiert, wie die Feedforward Deep Neural Networks , die Deep Autoencoder , die Convolutional Neural Networks und die Deep Boltzmann Machine (DBM) . Zweitens wird die Support Vector Machine (SVM), eine der beliebtesten maschinellen Lernmethoden, überprüft. Insbesondere die lineare Support Vector Machine, die Soft-Margin Support Vector Machine, die nichtlineare Support Vector Machine , die vereinfachte Support Vector Machine , die effiziente Support Vector Machine (eSVM) und die Anwendungen von SVM für Bildsuche und Video Rückholung besprochen. Schließlich werden andere populäre Kernel-Methoden und neue Ähnlichkeitsmaße kurz besprochen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-52081-0_2 572821c7e654c9a6a38e414835f3515e;de;;;7.4.;;;Data Mining zur automatischen Identifizierung des Kommunikationsverhaltens Die zwischenmenschliche Kommunikation, Persönlichkeit, soziale Anpassungsfähigkeit und Lernfähigkeit von Kindern werden durch die Interaktion mit ihren Bezugspersonen beeinflusst. Daher ist es wichtig, die Kommunikationsfähigkeit der Bezugsperson zu verbessern, und es kann auch die Sprachfähigkeit und das Kommunikationsverhalten der Kinder verbessern. Wir müssen das Kommunikationsverhalten des Kindes und seiner Bezugsperson durch interaktive Aktionen ermitteln und diese Informationen verwenden, um nützliche Informationen zur Verbesserung ihrer Kommunikationsfähigkeit bereitzustellen. Das Kommunikationsverhalten sollte jedoch manuell identifiziert werden und ist ein zeitaufwändiger Prozess. In diesem Artikel haben wir einen Data-Mining-Algorithmus vorgeschlagen, um das Kommunikationsverhalten zu finden. Zuerst müssen Kind und Betreuer drei Spiele spielen und die interaktiven Aktionen werden auch in Video und Sprache aufgezeichnet. Diese Video- und Sprachaufnahmen können klinischen Linguisten helfen, die Leistung des Kommunikationsverhaltens zu bewerten. Zweitens werden diese interaktiven Aktionen durch Spracherkennung, Sprechakt-Anmerkung und Austauschanmerkung verarbeitet. Sprechakt und Austausch sind die wichtigsten Faktoren des Kommunikationsverhaltens. Drittens wird Data Mining vorgeschlagen, um die häufigsten Sequenzen von Sprechakten und Austausch zu finden. Dies ist die Basisinformation über das Kommunikationsverhalten des Benutzers. Schließlich kann der klinische Linguist die Leistung des Pflegepersonals leicht beurteilen und Vorschläge zur Verbesserung seiner Kommunikationsfähigkeit machen. Experimentelle Ergebnisse zeigen die Nützlichkeit des vorgeschlagenen Verfahrens und Systems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14515-5_24 12b6eed7d215cfa5095348d72866159b;de;;;7.4.;;;Kompositionalität und Kontextualität: Die symbolischen und statistischen Bedeutungstheorien Kompositionalität und Kontextualität liefern zwei grundlegende Prinzipien der linguistischen Analyse, und doch besteht ein Konflikt zwischen ihnen, wie Burge, Dummett und andere feststellen. Hier wollen wir begriffliche Ansichten, die ihrer Spannung zugrunde liegen, im Lichte sowohl symbolischer als auch statistischer Paradigmen der Semantik verdeutlichen und argumentieren unter anderem, dass: Spannung zwischen symbolischer und statistischer Semantik, (ii) die Produktivität, Systematizität und Erlernbarkeit von Sprache können nach dem Prinzip der Kontextualität sowie der Kompositionalität berücksichtigt werden, und (iii) die Chomsky vs ) kann als eine breitere Manifestation der Spannung in Form des traditionellen Konflikts in der Philosophie zwischen rationalistischen und empiristischen Weltanschauungen angesehen werden. Wir schließen den Beitrag mit einem Ausblick auf deren Kantische Synthese, insbesondere die kategoriale Integration von symbolischer und statistischer KI.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-34974-5_14 a926108edb361ef408007876f07fc7da;de;;;7.4.;;;Regeln für die nächstgelegene lokale Hyperebene für die Musterklassifizierung Die Vorhersage der Klasse einer Beobachtung anhand ihrer nächsten Nachbarn ist einer der frühesten Ansätze in der Mustererkennung. Neben ihrer Einfachheit haben Nearest Neighbour Rules attraktive theoretische Eigenschaften, z.B. die asymptotische Fehlerwahrscheinlichkeit der einfachen 1-Nächster-Nachbar-(NN)-Regel ist höchstens das Doppelte der Bayes-Schranke, was im trennbaren Fall null asymptotisches Risiko bedeutet. Aber wenn nur eine endliche Anzahl von Trainingsbeispielen gegeben ist, werden NN-Klassifikatoren in der Praxis oft übertroffen. Eine mögliche Modifikation der NN-Regel, um trennbare Probleme besser handhaben zu können, ist der Ansatz der nächsten lokalen Hyperebene (NLH). In diesem Artikel stellen wir eine neue Art der NLH-Klassifizierung vor, die gegenüber dem ursprünglichen NLH-Algorithmus zwei Vorteile hat. Erstens bewahrt unsere Methode die asymptotische Null-Risikoeigenschaft von NN-Klassifikatoren im separierbaren Fall. Zweitens bietet es normalerweise eine bessere Leistung bei endlichen Stichproben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74782-6_27 70893722e0b4f1519822f46e624ea40e;de;;;7.4.;;;Ein probabilistischer Ansatz der kleinsten Quadrate zur ordinalen Regression Dieses Papier schlägt einen neuen Ansatz vor, um das Problem der ordinalen Regression unter Verwendung von Gauß'schen Prozessen zu lösen. Der vorgeschlagene Ansatz, probabilistische Ordinalregression der kleinsten Quadrate (PLSOR), erhält die Wahrscheinlichkeitsverteilung über ordinale Labels unter Verwendung einer bestimmten Likelihood-Funktion. Es führt die Modellauswahl (Hyperparameter-Optimierung) unter Verwendung der Leave-One-Out-Kreuzvalidierungstechnik (LOO-CV) durch. PLSOR hat konzeptionelle Einfachheit und einfache Implementierung des Ansatzes der kleinsten Quadrate. Im Gegensatz zu den bestehenden Gauß-Prozess-Ordinalregression (GPOR)-Ansätzen verwendet PLSOR keine Näherungstechniken für die Inferenz. Wir vergleichen den vorgeschlagenen Ansatz mit den hochmodernen GPOR-Ansätzen an einigen synthetischen und Benchmark-Datensätzen. Experimentelle Ergebnisse zeigen die Wettbewerbsfähigkeit des vorgeschlagenen Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35101-3_58 b970b9250e937476ed9dd23b0363ed6b;de;;;7.4.;;;Unvollständigkeit bei der Informationsextraktion bekämpfen – ein Komplementaritätsansatz Unvollständige Vorlagen (Attribut-Wert-Paare) und Verlust von strukturellen und/oder semantischen Informationen bei Informationsextraktionsaufgaben führen zu Problemen in nachgelagerten Informationsverarbeitungsschritten. Daher werden Methoden wie aufkommende Data-Mining-Techniken benötigt, die helfen, diese Unvollständigkeit durch Gewinnung neuer, zusätzlicher Informationen zu überwinden. Diese Forschungsarbeit integriert Data-Mining- und Informationsextraktionsmethoden in einen einzigen komplementären Ansatz, um von ihren jeweiligen Vorteilen zu profitieren und Unvollständigkeiten bei der Informationsextraktion zu reduzieren. Komplementarität ist in diesem Zusammenhang die Kombination von Informationen aus verschiedenen Quellen, die zu (i) Neubewertung von Kontextinformationen und Vorschlagsgenerierung und (ii) besserer Plausibilitätsbewertung führt, um eine genauere Werteauswahl, Klassenzuordnung und Matching zu ermöglichen. Zu diesen Zwecken wird ein Empfehlungsmodell vorgeschlagen, das bestimmt, welche Methoden ein bestimmtes Problem angreifen können. Abschließend werden die Verbesserungen bei der Domänenanalyse zur Informationsextraktion bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30284-8_61 1f3e7237362ca546e9385ad63107ed8b;de;;;7.4.;;;Ein fortschrittlicher Ansatz des maschinellen Lernens zur Erkennung generalisierter epileptischer Anfälle Epilepsie ist eine chronische neurologische Erkrankung, von der weltweit etwa 70 Millionen Menschen betroffen sind. Epilepsie, die durch plötzliche Stromstöße im Gehirn gekennzeichnet ist, die sich als Krampfanfälle manifestieren, ist im Vergleich zu anderen neurologischen Erkrankungen noch nicht gut verstanden. Anfälle treten oft unerwartet auf und der Versuch, sie vorherzusagen, ist seit 20 Jahren ein Forschungsthema. Elektroenzephalogramme waren ein wesentlicher Bestandteil dieser Studien, da sie die elektrischen Signale des Gehirns erfassen können. Die Herausforderung besteht darin, die Erkennung von Anfällen in verschiedenen Regionen des Gehirns und bei mehreren Probanden zu verallgemeinern. Dieses Papier untersucht diese Idee weiter und stellt einen überwachten maschinellen Lernansatz vor, der klassifiziert;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09330-7_14 4050ef034e753478acedf421cf4bb0b5;de;;;7.4.;;;Compass: Ein formbasiertes Werkzeug für maschinelles Lernen für das Arzneimitteldesign Der Aufbau prädiktiver Modelle für das iterative Wirkstoffdesign in Abwesenheit einer bekannten Zielproteinstruktur ist eine wichtige Herausforderung. Wir präsentieren eine neuartige Technik, Compass, die ein großes Hindernis für eine genaue Vorhersage beseitigt, indem sie automatisch Konformationen und Ausrichtungen von Molekülen ohne den Vorteil eines charakterisierten aktiven Zentrums auswählt. Die Technik kombiniert die explizite Darstellung der Molekülform mit neuronalen Netzwerklernmethoden, um hochprädiktive Modelle zu erstellen, sogar über chemisch unterschiedliche Molekülklassen hinweg. Wir wenden die Methode an, um die menschliche Wahrnehmung von Moschusgeruch vorherzusagen und zeigen, wie die resultierenden Modelle eine grafische Anleitung für chemische Modifikationen bieten können.;-;-;-;https://link.springer.com/article/10.1007/BF00124012 333a8f72585da4b3b7974268c1fcd204;de;;;7.4.;;;Datenschutz in der Bauindustrie durch Privacy-Preserving Data Mining (PPDM)-Ansatz Das Architektur-, Ingenieur- und Bauwesen (AEC) erfordert die effizientesten gemeinsamen Anstrengungen zwischen den Bauprojektbeteiligten mit kontinuierlichem Austausch einer großen Menge an Projektdaten. Heutzutage ist ein Paradigmenwechsel in der Bauindustrie zu beobachten, um digitale Technologien wie BIM aus herkömmlichen Methoden des papierbasierten Datenaustauschs heraus zu bearbeiten. Das wachsende Volumen individueller und sensibler Informationen, die von der AEC-Branche digital erfasst und in der Cloud gespeichert werden, macht sie anfällig für Cyberangriffe. Gemäß dem Datenschutzgesetz und der Datenschutz-Grundverordnung muss eine Organisation die Sicherheit von Personen und die Sicherheit sensibler Daten gewährleisten. Anschließend ist es entscheidend, den Rahmen oder die Methode zu schaffen, um den Schutz von Projektdaten zu gewährleisten. Konkret sollten individuelle Informationen, zum Beispiel individuelle Gesundheitsakten, Adresse und alle anderen Hintergrundinformationen gemäß den gesetzlichen Bestimmungen geschützt werden Mitarbeiterdetails, Lieferantendetails, Kostendetails. Bei dieser Technik haben wir die Originaldaten mit der Randomisierungstechnik modifiziert und dann die Anonymisierung auf die modifizierten Daten angewendet, die eine bessere Genauigkeit bei minimalem Informationsverlust bieten kann. Dieser Ansatz wird den Schutz sensibler Informationen vor Cyberangriffen des Data Miners verbessern.;-;-;-;https://link.springer.com/article/10.1007/s42107-020-00225-3 3a8c22158b427d1f8425e4961f915974;de;;;7.4.;;;Verbesserung intelligenter Immobilienbewertungsmodelle durch Zusammenführung ähnlicher Katasterregionen einer Gemeinde Eine Methode zur Verbesserung von Immobilienbewertungsmodellen besteht darin, Zonen einer städtischen Gemeinde zu bestimmen, in denen sich die Preise von Wohnimmobilien im Zeitverlauf ähnlich ändern. Solche ähnlichen Zonen werden dann zu größeren Gebieten zusammengefasst, die eine größere Anzahl von Verkaufstransaktionen umfassen, was eine zuverlässigere Grundlage für die Erstellung genauer Immobilienbewertungsmodelle darstellt. Dies ist besonders wichtig, wenn maschinelle Lernalgorithmen verwendet werden, um Vorhersagemodelle zu erstellen. In diesem Beitrag stellen wir unsere weitere Untersuchung der Methode vor, die die Katastergebiete einer Stadt als Zonen für die Zusammenlegung verwendet. Eine Reihe von Bewertungsexperimenten wurde mit realen Daten durchgeführt, die die Aufzeichnungen von Verkaufs- und Kauftransaktionen von Wohngebäuden in einer polnischen Stadtgemeinde umfassten. Zur Generierung von Immobilienbewertungsmodellen wurden sechs im Data-Mining-System von WEKA verfügbare maschinelle Lernalgorithmen eingesetzt. Die Studie zeigte, dass die Vorhersagemodelle, die über die zusammengeführten Katastergebiete erstellt wurden, in Bezug auf die Genauigkeit die Modelle auf der Grundlage der ursprünglichen Komponentenregionen übertrafen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24306-1_55 dff1429fa9e0d79965a921a97c53908a;de;;;7.4.;;;Data Mining in Newt-Omics, dem Repository für Omics-Daten aus dem Newt Salamander sind aufgrund ihrer einzigartigen Fähigkeit, verlorene Gliedmaßen oder Organe zu regenerieren, ein ausgezeichneter Modellorganismus, um regenerative Prozesse zu untersuchen. Bisher fehlten einfache bioinformatische Werkzeuge, um die wachsende Zahl von „Omics“-Studien an Salamandern zu analysieren und zu nutzen. Um diese Einschränkung zu überwinden, haben wir ein umfassendes Datenarchiv für den Rotpunktmolch erstellt;-;-;-;https://link.springer.com/protocol/10.1007/978-1-4939-2495-0_26 13f16a0b7f9b946f2d7c8e8765fafeb8;de;;;7.4.;;;Ein schneller Ansatz zur Identifizierung von Trendartikeln zu aktuellen Themen aus XML-basierten großen bibliografischen Datensätzen Heutzutage sind XML-basierte große bibliografische Datensätze in verschiedenen Domänen verbreitet, die Metadaten über in dieser Domäne veröffentlichte Artikel liefern. Sie haben gut definierte Tags, die Details zu Jahr, Titel, Autoren, Zusammenfassung, Schlüsselwörtern, Art des Artikels, dem Ort der Veröffentlichung des Artikels und anderen solchen spezifischen Details zu jedem Artikel enthalten. Aus diesem Datensatz können viele Statistiken extrahiert werden. In den meisten Fällen fehlt das Tag, das sich auf die mit dem Artikel verknüpften Domänenunterthemeninformationen bezieht, im Datensatz, da es sich nicht um ein Artikelattribut handelt. Daher müssen für solche Statistiken Artikel auf die zugehörige Unterdomäne abgebildet werden. Dieser Artikel untersucht dieses Problem und schlägt einen schnellen Ansatz vor, um Trendartikel und heiße Themen aus XML-basierten großen bibliografischen Datensätzen zu finden. Das vorgeschlagene Framework verwendet Domänenontologie, um Artikel zunächst in ihre Unterthemen zu klassifizieren. Eine schnelle Erkennung von heißen Themen, Trend-Keywords und Artikeln wird durch neuartige Map-Reduce-Algorithmen erreicht, die auf einem verteilten Hadoop-Framework implementiert sind. Der Leistungsvergleich zeigt, dass es sein Gegenstück ohne Map Reduce beim schnellen Aussortieren der angesagten Schlüsselwörter und Titel in einem bestimmten heißen Thema aus einem XML-basierten bibliografischen Datensatz übertrifft.;-;-;-;https://link.springer.com/article/10.1007/s10586-016-0561-1 1e79738869b358621aa3cd621284c9fd;de;;;7.4.;;;Monokulare Tiefenschätzung in Echtzeit mit adaptiven rezeptiven Feldern Die monokulare Tiefenschätzung ist ein beliebtes Forschungsthema im Bereich des autonomen Fahrens. Heutzutage sind viele Modelle führend in Bezug auf die Genauigkeit, weisen jedoch in einem Echtzeitszenario eine schlechte Leistung auf. Um die Effizienz der Tiefenschätzung effektiv zu erhöhen, schlagen wir ein neuartiges Modell vor, das eine mehrskalige Pyramidenarchitektur zur Tiefenschätzung mit adaptiven rezeptiven Feldern kombiniert. Die Pyramidenarchitektur reduziert die trainierbaren Parameter von Dutzenden von Mega auf weniger als 10 Mega. Adaptive rezeptive Felder reagieren empfindlicher auf Objekte in unterschiedlichen Tiefen/Abständen in Bildern, was zu einer besseren Genauigkeit führt. Wir haben gestapelte Faltungskernel anstelle von Rohkerneln verwendet, um das Modell zu komprimieren. Somit schneidet das von uns vorgeschlagene Modell sowohl in der Echtzeitleistung als auch in der Schätzgenauigkeit gut ab. Wir stellen eine Reihe von Experimenten zur Verfügung, bei denen unser Modell in Bezug auf die Eigenteilung besser abschneidet als andere bisher bekannte Modelle. Darüber hinaus zeigen wir, dass unser Modell auch in der Laufzeitleistung in Bezug auf die Tiefenschätzung besser ist als die anderen Modelle außer dem Pyd-Net-Modell. Schließlich ist unser Modell ein leichtgewichtiges Tiefenschätzungsmodell mit modernster Genauigkeit.;-;-;-;https://link.springer.com/article/10.1007/s11554-020-01036-0 c92b971a57540654783c20207f0334be;de;;;7.4.;;;Ein Big-Data-Mining-Ansatz zur Vorhersage von Umweltemissionen im Druckgussprozess Als Schlüsselkomponente der Fertigungsindustrie leidet der Druckgussprozess unter schwerwiegenden Emissionsproblemen, die den Aussichten von Industrie 4.0 und grüner Fertigung nicht gehorchen. Die Vorhersage der Umweltemissionen des Druckgussprozesses ist die Grundlage für die Optimierung der Umweltbelastungsfaktoren, um eine geringere Umweltbelastung und Gesundheitsgefahren der Arbeiter zu erreichen. Allerdings sind die physikalischen Kausalzusammenhänge zwischen Einflussfaktoren und Umweltemissionen schwer zu modellieren. Daher steht die Vorhersage der Umweltemissionen des Druckgussprozesses noch vor einer großen Herausforderung. Der Big-Data-Mining-Ansatz kann die Zusammenhänge ohne Berücksichtigung des physikalischen Kausaleffekts ermitteln. In dieser Studie werden zunächst neun Einflussfaktoren analysiert und abgegrenzt, die die vier wichtigsten Umweltemissionen PM2,5, PM10, Lärm und Temperatur im Druckgussprozess beeinflussen. Dann wird ein Big-Data-Mining-Ansatz vorgeschlagen, der Hauptkomponentenanalyse, Partikelschwarmoptimierung und neuronale Backpropagation-Netzwerke für die Vorhersage von Umweltemissionen integriert. Die Wirksamkeit des vorgeschlagenen Ansatzes wird durch eine Fallstudie von Druckgussinseln überprüft. Die Ergebnisse zeigen, dass die Genauigkeit der vorgeschlagenen Methode zur Vorhersage von vier Umweltemissionen und sechs Arten von Druckgussinseln über 90% liegt. Dieser vorgeschlagene Ansatz kann die Optimierung von Prozessparametern, Layout der Druckgussinsel usw. in Richtung einer Reduzierung der Umweltemissionen stark unterstützen. Es kann auch leicht auf andere Prozesse wie Kunststoffformen, maschinelle Bearbeitung und Extrudieren zur Emissionsprojektion angewendet werden.;-;-;-;https://link.springer.com/article/10.1007/s00170-021-07125-z 2522f2bff3ca6edbc727bd8fd8081f35;de;;;7.4.;;;Aggregationsoperationen zum Zusammenführen von Fuzzy-Informationen Fuzzy-Sets können eine wichtige Rolle bei der Konstruktion menschzentrierter Systeme spielen. Sie bieten einen Mechanismus zur Darstellung von Informationen in einer Weise, die mit der menschlichen Kognition vereinbar ist. Besonders bemerkenswert ist hier die Idee einer linguistischen Variablen [1]. Bei vielen dieser Anwendungen stehen wir vor dem Problem des Verschmelzens oder Kombinierens von Fuzzy-Teilmengen. Bei der Entscheidungsfindung mit mehreren Kriterien müssen wir beispielsweise die Kriterien zu einer Gesamtentscheidungsfunktion kombinieren. Da jedes Kriterium sehr natürlich als Fuzzy-Teilmenge ausgedrückt werden kann, stehen wir vor dem Problem, Fuzzy-Teilmengen zu kombinieren. Fuzzy-Abfragen von Datenbanken, Information Retrieval und Mustererkennung erfordern auch, dass wir uns dem Problem der Kombination von Anforderungen stellen, die als Fuzzy-Teilmengen ausgedrückt werden. Der Aufbau von Fuzzy-Systemmodellen [2], die sich besonders bei intelligenten Reglern bewährt haben, erfordert oft die Aggregation von Fuzzy-Teilmengen in den Vorläufern der Regeln. Eine andere Klasse von Problemen, die die Verschmelzung von Fuzzy-Teilmengen beinhaltet, entsteht in Bereichen, in denen wir Informationen aus mehreren Quellen erhalten und diese Informationen zu einem einheitlichen Wert zusammenfassen möchten. Wenn wir beispielsweise im Internet nach Informationen über den zukünftigen Wechselkurs zwischen Dollar und Yen suchen, erhalten wir viele Schätzungen. Oft werden diese Schätzungen in linguistischen Begriffen ausgedrückt, die die Verwendung von Fuzzy-Teilmengen erfordern, um sie zu übersetzen. Data Mining [3] ist ein weiterer Bereich, in dem die Fusion von Fuzzy-Informationen erforderlich ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-67907-3_7 681062c6fdf9ec67e7d8bba7d9c16acd;de;;;7.4.;;;Tiefe relationale Maschinen Deep-Learning-Methoden, die eine neue Klasse von Lernalgorithmen umfassen, bieten State-of-the-Art-Performance. Wir schlagen eine neuartige Methodik zum Erlernen von Deep Architectures vor und bezeichnen sie als Deep Relational Machine (DRM). Ein DRM lernt die erste Darstellungsschicht durch Induzieren von Hornklauseln erster Ordnung, und die nachfolgenden Schichten werden unter Verwendung eingeschränkter Boltzmann-Maschinen erzeugt. Es zeichnet sich durch seine Fähigkeit aus, in Daten enthaltene strukturelle und relationale Informationen zu erfassen. Um unseren Ansatz zu evaluieren, wenden wir ihn auf anspruchsvolle Probleme an, darunter die Erkennung von Proteinfalten und der Nachweis toxischer und mutagener Verbindungen. Die experimentellen Ergebnisse zeigen, dass unsere Technik alle anderen Ansätze in der Studie deutlich übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-42042-9_27 8f11652197a2e1ce3e11d4198941d61a;de;;;7.4.;;;Eine virtuelle Organisation, die auf einer serviceorientierten Architektur für verteilte Data Mining-Anwendungen bereitgestellt wird Industrielle und wissenschaftliche Forschungsaktivitäten beinhalten zunehmend die geografisch verteilte Nutzung mehrerer Tools, Dienste und verteilter Daten. Grid- und serviceorientierte Architekturkonzepte werden umfassend untersucht, um virtuelle Organisationen bereitzustellen, um die Anforderungen an verteilte Zusammenarbeit zu unterstützen. Eine generische verteilte Werkzeug-, Dienst- und Datenarchitektur wird zusammen mit ihrer Anwendung auf den Triebwerksbereich durch das BROADEN-Projekt beschrieben. Zwei grundlegende Fragen für das Design der VO wurden angesprochen: Wie kann das Potenzial von Grid-Computing maximiert werden, um die komplexen Data-Mining-Herausforderungen in der Zustandsüberwachungsanwendung zu bewältigen, und wie kann das Potenzial einer SOA zum Aufbau und Einsatz eines flexiblen effiziente kollaborative Workbench, die die benötigten Tools und Services integriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-73659-4_9 c25e6cee9dc21a9f75a80e5ed6defbe1;de;;;7.4.;;;Betreutes Greedy Layer-Wise Training für Deep Convolutional Networks mit kleinen Datensätzen Deep Convolutional Neural Networks (DCNs) werden zunehmend mit beträchtlichem Erfolg bei Bildklassifizierungsaufgaben verwendet, die über große Datensätze trainiert werden. Solche großen Datensätze sind jedoch in vielen Anwendungsbereichen, in denen wir DCNs anwenden möchten, nicht immer verfügbar oder erschwinglich, da sie nur Datensätze in der Größenordnung von einigen Tausend beschrifteten Bildern enthalten, die durch langwierige und kostspielige Prozesse (z , medizinische Bildgebung usw.). In solchen Fällen zeigen DCNs im Allgemeinen keine wettbewerbsfähige Leistung und man muss auf fein abgestimmte Netzwerke zurückgreifen, die kostspielig mit großen generischen Datensätzen vortrainiert wurden, bei denen es keine a-priori-Garantie gibt, dass sie in spezialisierten Domänen gut funktionieren. In dieser Arbeit schlagen wir vor, DCNs mit einem Greedy-Layer-wise-Verfahren zu trainieren, analog zu dem, das in unbeaufsichtigten tiefen Netzwerken verwendet wird. Wir zeigen, wie diese Methode bei kleinen Datensätzen DCNs übertrifft, die keine vortrainierten Modelle verwenden, und die in der Literatur berichteten Ergebnisse mit anderen Methoden. Darüber hinaus lernt unsere Methode besser interpretierbare und saubere visuelle Merkmale. Unsere Ergebnisse sind auch wettbewerbsfähig im Vergleich zu Faltungsmethoden, die auf vortrainierten Modellen basieren, wenn sie auf universelle Datensätze angewendet werden, und wir erhalten sie mit viel kleineren Datensätzen (1,2 Millionen vs. 10K Bilder) zu einem Bruchteil der Rechenkosten. Wir betrachten diese Arbeit daher als einen ersten Meilenstein in unserem Bestreben, DCNs erfolgreich für kleine spezialisierte Datensätze einzusetzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24069-5_26 5606cf98c7d294623ea41312183791da;de;;;7.4.;;;Die Hauptbücher sprechen lassen: Kundenkontrolle und die Ursprünge des Data Mining im Einzelhandel, 1920–1940–19 In den 1930er Jahren hatte die amerikanische Wirtschaft begonnen, die Verbraucherforschung ernst zu nehmen. „Wahrscheinlich war zu keinem Zeitpunkt im letzten Jahrzehnt das Wissen um die Kaufgewohnheiten der Verbraucher so wichtig für einen erfolgreichen und profitablen Einzelhandel wie heute“, a;-;-;-;https://link.springer.com/chapter/10.1057/9781137071286_7 051c33847d4b09d60dfa690cbcf889a7;de;;;7.4.;;;Forschung zur Anti-Konflikt-Extraktionsmethode von Multimedia-Videoinformationen basierend auf maschinellem Lernen Um die Probleme der langen Zeit, der schlechten Rauschunterdrückungsleistung, der geringen Qualität von Multimedia-Videoinformationen und der geringen Effizienz der Informationsextraktion bei gegenwärtigen Verfahren zum Extrahieren von Multimedia-Videoinformationen zu lösen. Es wird ein Antikollisions-Extraktionsverfahren von Multimedia-Videoinformationen basierend auf maschinellem Lernen vorgeschlagen, das den K-SVD-Algorithmus und den Batch-OMP-Algorithmus kombiniert, um Rauschen in Multimedia-Videoinformationen zu entfernen. Unter Berücksichtigung des vom Decodierer verwendeten Fehlerverbergungsverfahrens, der Kanalbedingung, der Wichtigkeit und der Lebensdauer des Multimedia-Video-Informationspakets verwendet C einen verbesserten proportionalen fairen Planungsalgorithmus, um die Planung von Multimedia-Videoinformationen abzuschließen. Es berechnet die Zeitkurve von Multimedia-Videoinformationen, ermittelt die lokalen Extremumpunkte in der Zeitkurve, bestimmt die Länge und Position der extrahierten Videoclips entsprechend den lokalen Extremumpunkten, berechnet die Bedeutung der Videoclips und schließt die Extraktion von Multimedia-Video-Informationen nach Wichtigkeit. Um die Wirksamkeit der vorgeschlagenen Methode zu verifizieren, wird ein Simulationsexperiment durchgeführt. Die experimentellen Ergebnisse zeigen, dass das vorgeschlagene Verfahren im Vergleich zu den herkömmlichen Verfahren eine bessere Rauschunterdrückungsleistung und eine höhere Effizienz der Informationsextraktion aufweist. Die obigen Ergebnisse zeigen, dass das vorgeschlagene Verfahren gute Anwendungsaussichten hat.;-;-;-;https://link.springer.com/article/10.1007/s11042-019-07755-2 e03d2c21f8b22f66c21413525a06cec9;de;;;7.4.;;;Auf dem Weg zu einer Taxonomie kognitiver RPA-Komponenten Robotic Process Automation (RPA) ist eine Disziplin, die zunehmend Hand in Hand mit Künstlicher Intelligenz (KI) und Machine Learning wächst und die sogenannte kognitive Automatisierung ermöglicht. In diesem Kontext klassifizieren die bestehenden RPA-Plattformen, die KI-basierte Lösungen umfassen, ihre Komponenten, d. h. sie bilden einen Teil eines Roboters, der eine Reihe von Aktionen ausführt, in einer Weise, die Markt- oder Geschäftsentscheidungen anstelle von Regeln des gesunden Menschenverstands zu gehorchen scheint. Genauer gesagt werden Komponenten mit ähnlichen Funktionen mit unterschiedlichen Namen identifiziert und je nach Plattform, die die Komponenten bereitstellt, auf unterschiedliche Weise gruppiert. Daher ist die Analyse verschiedener kognitiver RPA-Plattformen auf ihre Eignung für einen bestimmten Bedarf typischerweise eine zeitaufwendige und fehleranfällige Aufgabe. Um dieses Problem zu überwinden und Anwender bei der Entwicklung eines RPA-Projekts zu unterstützen, wird in diesem Beitrag eine Methode zum systematischen Aufbau einer Taxonomie kognitiver RPA-Komponenten vorgeschlagen. Darüber hinaus wird eine solche Methode auf Komponenten angewendet, die ausgewählte reale Anwendungsfälle aus der Industrie lösen und vielversprechende Ergebnisse erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58779-6_11 3cbdc4e450aacecb32635b718ee549a0;de;;;7.4.;;;Ein empfehlungsspezifischer Datensatz zur Erkennung menschlicher Aktivitäten mit Sensordaten des Mobilgeräts Die Erkennung menschlicher Aktivitäten ist ein anspruchsvolles Feld, das in den letzten zehn Jahren erhebliche Aufmerksamkeit in der Forschung auf sich gezogen hat. Für solche Vorhersagen können zwei Arten von Modellen verwendet werden, solche, die visuelle Daten verwenden, und solche, die Daten von Trägheitssensoren verwenden. Um die Klassifizierungsalgorithmen in der Sensorkategorie zu verbessern, wurde ein neuer Datensatz erstellt, der auf realistischere Aktivitäten abzielt, bei denen der Benutzer möglicherweise schneller eine Empfehlung erhält und darauf reagiert. Im Gegensatz zu früheren ähnlichen Datensätzen, die mit dem Gerät in der Hosentasche des Benutzers oder um die Hüfte geschnallt gesammelt wurden, stellt der vorgestellte Datensatz Aktivitäten dar, bei denen der Benutzer auf den Bildschirm schaut und somit höchstwahrscheinlich mit dem Gerät interagiert. Der Datensatz einer ersten Stichprobe von 31 Teilnehmern wurde mithilfe einer mobilen Anwendung gesammelt, die Benutzer dazu aufforderte, 10 verschiedene Aktivitäten nach bestimmten Richtlinien durchzuführen. Schließlich wurde zur Auswertung der resultierenden Daten ein kurzes Klassifizierungs-Benchmarking mit zwei anderen Datensätzen (d. Die gewonnenen Ergebnisse zeigen eine vielversprechende Leistung des getesteten Modells sowie eine hohe Qualität des erstellten Datensatzes, der online auf Zenodo verfügbar ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-79157-5_27 b9df8421d6af22d29f5f078310444f04;de;;;7.4.;;;Klassifizierung basierend auf häufigen Mustern In diesem Beitrag wird ein neuer Klassifikationsalgorithmus basierend auf häufigen Mustern vorgeschlagen. Ein häufiges Muster ist eine Verallgemeinerung des Konzepts eines häufigen Elementsatzes, das beim Mining von Assoziationsregeln verwendet wird. Zunächst wird die Sammlung häufiger Muster im Trainingssatz konstruiert. Für jedes häufige Muster wird die Unterstützung und das Vertrauen bestimmt und registriert. Die Auswahl einer geeigneten Datenstruktur ermöglicht es uns, die vollständige Sammlung häufiger Muster im Gedächtnis zu behalten. Die vorgeschlagene Klassifikationsmethode nutzt diese Sammlung direkt. Diese Methode erweist sich als konkurrenzfähig mit einem bekannten Klassifikator wie C4.5 und anderen vergleichbaren Methoden. Für große Datensätze scheint es eine sehr geeignete Methode zu sein.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45408-X_8 7f7369e4f9f7e5d993dfe9c50fb9ee10;de;;;7.4.;;;Ein System zur Multi-Label-Klassifizierung von Lernobjekten Die rasante Entwicklung im Kontext von E-Learning ist eng verbunden mit internationalen Bemühungen um die Standardisierung von Lernobjekten (LO), die einen allgegenwärtigen Zugang zu vielfältigen und verteilten Bildungsressourcen in vielen Repositorien ermöglichen. Dieser Artikel stellt ein System vor, das die Wiederherstellung und Klassifizierung von LO ermöglicht und bietet individuelle Hilfe bei der Auswahl von Lernmaterialien, um unter vielen Alternativen die am besten geeignete Wahl zu treffen. Für diese Klassifizierung wird ein spezielles Multi-Label-Data-Mining verwendet, das für die LO-Ranking-Aufgaben entwickelt wurde. Je nach Position ist das System dafür verantwortlich, die Ergebnisse dem Endbenutzer zu präsentieren. Der Lernprozess wird überwacht, wobei zwei Hauptaufgaben beim überwachten Lernen aus Multi-Label-Daten verwendet werden: Multi-Label-Klassifizierung und Label-Ranking.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19644-7_55 e0a0d7e0dac3a74af67e444f14211d78;de;;;7.4.;;;Erkennung einzelner und übergreifender Störungen bei Autismus und Schizophrenie Die Erkennung psychischer Störungen durch Texteingabe ist ein aufstrebendes Feld für angewandte maschinelle und Deep-Learning-Methoden. Hier erforschen wir die Grenzen der automatisierten Erkennung von Autismus-Spektrum-Störungen (ASS) und Schizophrenie (SCZ). Wir verglichen die Leistung von: (1) dedizierten Diagnosetools, die das Sammeln von Textdaten beinhalten, (2) automatisierten Methoden, die auf die von diesen Tools gesammelten Daten angewendet werden, und (3) Psychiatern. Unser Artikel testet die Wirksamkeit mehrerer grundlegender Ansätze, wie zum Beispiel Wörtersammlung und wörterbuchbasierte Vektoren, gefolgt von einem Modell für maschinelles Lernen. Wir verwendeten zwei verfeinerte Sentic-Textdarstellungen mit affektiven Merkmalen und Analyse auf Konzeptebene von Texten. Darüber hinaus haben wir ausgewählte State-of-the-Art-Deep-Learning-Methoden zur Textdarstellung und Inferenz angewendet sowie mit Transfer und Zero-Shot-Learning experimentiert. Schließlich haben wir auch Methoden mit wenigen Aufnahmen untersucht, die für Szenarien mit geringer Datengröße bestimmt sind, was ein typisches Problem für das klinische Umfeld ist. Die besten automatisierten Methoden übertrafen menschliche Bewerter (Psychiater). Datensatzübergreifende Ansätze erwiesen sich trotz unterschiedlicher Datentypen als sinnvoll (nur von SCZ bis ASD). Die Methoden des Wenigen-Schuss-Lernens zeigten vielversprechende Ergebnisse auf dem SCZ-Datensatz. Angesichts der sehr begrenzten Menge an gekennzeichneten klinischen Daten sind jedoch weitere Anstrengungen erforderlich, um die Ansätze zum effizienten Trainieren von Modellen zu untersuchen. Die Psychiatrie ist eines der wenigen medizinischen Fachgebiete, in denen die Diagnose der meisten Störungen auf der subjektiven Einschätzung eines Psychiaters beruht. Daher scheint die Einführung objektiver Instrumente zur Unterstützung der Diagnostik von entscheidender Bedeutung zu sein. Dieses Papier ist ein Schritt in diese Richtung.;-;-;-;https://link.springer.com/article/10.1007/s12559-021-09834-9 e097d0ac2d6133280d17638ed1e642a6;de;;;7.4.;;;Maschinelles Lernen für das Innenumgebungsqualitätsüberwachungssystem basierend auf ARM Chinas Wirtschaft hat sich in den letzten Jahren schnell und stabil entwickelt, aber auch die daraus resultierenden Umweltprobleme sind in den Fokus gerückt. Das Innenraumklima ist das bekannteste Problem. Die Qualität des Innenraumklimas wirkt sich direkt auf die Gesundheit und Arbeitseffizienz der Menschen aus. Daher ist es sehr wichtig, ein Echtzeit-Überwachungsgerät für die Qualität des Innenraumklimas zu entwickeln. Dieses Papier stellt erstens einige wichtige Faktoren vor, die die Raumklimaqualität beeinflussen, und stellt kurz die entsprechenden Technologien und den Forschungsstand im In- und Ausland vor , drittens wird das genetische neuronale Netzmodell kombiniert mit praktischen Fällen auf die Bewertung der Raumluftqualität angewendet. Die Ergebnisse der MATLAB-Simulation zeigen, dass der Algorithmus nicht nur das Raumluftqualitätsniveau beurteilen kann, sondern auch die Luftqualitätsgrade von verschiedene Räume, was im nächsten Kapitel eine zuverlässige Grundlage für die intelligente Steuerung bietet: Danach wird das Gesamtdesignschema des Systems, jedes Sensormoduls, ARM-Embedded-Systems diskutiert. Schließlich wird die eingebettete integrierte Entwicklungsumgebung ADS1.2 verwendet die Software zu schreiben, und die gesamte Ausrüstung wird getestet. Die Testergebnisse zeigen, dass das Monitoring-System eine starke Usability besitzt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-74814-2_31 6e85d9dec2ed8f7216b416ce3237474e;de;;;7.4.;;;Die Identifizierung und Lokalisierung von Sprechern mithilfe von Fusionstechniken und Techniken des maschinellen Lernens Die Systeme zur Identifizierung und Lokalisierung von Sprechern werden in verschiedenen Anwendungen wie intelligenten Umgebungen, Audiokonferenzen und Sicherheit sowie sozialer Robotik, die mehr Genauigkeit erfordern, neu eingesetzt. Ziel dieser Arbeit ist es, die Lokalisierung des Sprechers in geschlossenen Räumen zu definieren und den Sprecher parallel anhand von Lautsprechersignalen zu identifizieren. Diese Arbeit schlug eine Simulation der Sprecherlokalisierung und -identifizierung gleichzeitig unter Verwendung einer Merkmalsfusionstechnik vor, indem ein Merkmalsvektor konstruiert wurde, der die Identifizierungsmerkmale und Lokalisierungsmerkmale enthält. Die Fusionstechnik wurde in jedem Schritt des vorgeschlagenen Systems verwendet, wie beispielsweise Daten-, Merkmals- und Entscheidungsfusionstechnik. Zur Klassifizierung des Sprechers wurden vier Modelle vorgeschlagen, die Random Forest, die Entscheidungsfusion, die Random Forest und Support Vector Machine enthält, die Restricted Boltzmann Machine, die unter Verwendung der TensorFlow-Bibliothek von Google implementiert wurde, und die lange Kurzzeitgedächtnistechnik, die verwendet wurde implementiert mit der Keras-Bibliothek. Die Genauigkeit der Ergebnisse betrug 66,39 %, 82,035 %, 99,84 % bzw. 99,15 %.;-;-;-;https://link.springer.com/article/10.1007/s12065-020-00560-z 96ecd2dfe4c12c8b24fdc10ebaeb23e1;de;;;7.4.;;;Neuartige Wrapper-basierte Funktionsauswahl für ein effizientes System zur klinischen Entscheidungsunterstützung Obwohl sich der Gesundheitssektor mit mehreren neuen Computertechnologien weiterentwickelt hat, sind effektive und effiziente Analysetechniken erforderlich, um die Vorteile wirklich nutzen zu können. Da die Branche von Natur aus zeitsensibel ist, besteht die absolute Notwendigkeit, medizinische Diagnosen genau durchzuführen, ohne die minimale Zeitbeschränkung zu beeinträchtigen. Da Predictive Analytics gerechtfertigt ist, eine geeignete Methodik zu sein, die im Gesundheitswesen angewendet werden kann, verwendet die vorgeschlagene Arbeit den Ansatz des maschinellen Lernens in einer prospektiven Weise, um ein effektives Lernen von medizinischen Daten durchzuführen. Die vorgeschlagene Arbeit zielt darauf ab, ein effizientes Vorhersagemodell zu erstellen, das zwei neuartige Merkmalsauswahlansätze verwendet, die auf Varianten der Particle Swarm Optimization (PSO) namens Particle Swarm Optimization with Digital Pheromones (PSODP) und einer Kombination aus PSO und PSODP basieren. Die Forschung führt Diagnosen für Diabetes-, Brustkrebs- und chronische Nierenerkrankungen mithilfe von Deep Learning durch. Die vorgeschlagene Arbeit zeigt eine Verbesserung der Klassifizierungsgenauigkeit bei minimalem Zeitaufwand im Vergleich zu bestehenden Merkmalsauswahl- und Klassifizierungstechniken.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3582-2_9 1a62470b14d6f773d2fb5d7aa48073b5;de;;;3.2.;;;Intrusion Detection-Methode für Programmschwachstellen über Bibliotheksaufrufe Die Aufrufsequenz der Bibliotheksfunktion ist die direkte Widerspiegelung des Verhaltens eines Programms. Der Zusammenhang zwischen Programm-Schwachstellen und Bibliotheksaufrufen wird analysiert und ein Verfahren zur Intrusion Detection über Bibliotheksaufrufe vorgeschlagen, bei dem die kurzen Sequenzen von Bibliotheksaufrufen als Signaturprofil verwendet werden. Bei diesem Verfahren zur Erkennung von Eindringlingen wird eine Bibliothekszwischenschaltung verwendet, um Bibliotheksaufrufe einzuhaken, und mit der detaillierten Erörterung der Merkmale der Bibliotheksaufrufsequenz wird ein auf der Informationstheorie basierender Algorithmus angewendet, um die geeignete Länge der Bibliotheksaufrufsequenz zu bestimmen. Experimente zeigen eine gute Leistung unserer Methode gegen Eindringlinge, die durch die beliebten Programmschwachstellen verursacht werden.;-;-;-;https://link.springer.com/article/10.1007/s11859-006-0237-4 58f5edb1e5b568d3d2c61c9a37e1fbb3;de;;;7.4.;;;Stacked Denoising Autoencoder-basierte Aktienmarkttrendvorhersage über K-Nearest Neighbor Data Selection In Finanzanwendungen ist die Vorhersage von Börsentrends seit langem ein beliebtes Thema. In dieser Forschung entwickeln wir ein neues Vorhersagemodell, um die Genauigkeit durch Verbesserung des Rauschunterdrückungsprozesses zu verbessern, der eine Trainingssatzauswahl basierend auf vier K-Nearest Neighbour (KNN)-Klassifikatoren umfasst, um einen repräsentativeren Trainingssatz und einen auf Autoencoder basierenden Entrauschungs-Tiefencode zu erzeugen Architektur als Kernel-Prädiktor. Angesichts der guten Übereinstimmung zwischen Schlusskurstrends und täglichen extremen Kursbewegungen prognostizieren wir extreme Kursbewegungen als indirekten Kanal zur Realisierung einer genauen Preistrendprognose. Die experimentellen Ergebnisse belegen die Wirksamkeit der vorgeschlagenen Methode in Bezug auf ihre Genauigkeit im Vergleich zu traditionellen Modellen des maschinellen Lernens in vier wichtigsten chinesischen Aktienindizes und neun führenden Einzeltiteln aus neun verschiedenen großen Industriesektoren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-70096-0_90 db7f07449219ed587ee4c8435e70981c;de;;;7.4.;;;Beziehungen im Data Mining im GUHA-Stil Der Formalismus des Data Mining im GUHA-Stil wird mit dem Ansatz relationaler Strukturen von Orlowska und anderen konfrontiert. Ein Ergebnis der Berechnungskomplexität auf Tautologien mit impliziten Quantoren wird präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36280-0_6 5dd9bbd93da07bbc03673c7aa6ef53ca;de;;;7.4.;;;Legal Tech und Lawtech: Auf dem Weg zu einem Rahmen für technologische Trends in der Rechtsdienstleistungsbranche Der Einsatz von Legal Technology (Legal Tech) und dem Lawtech-Ökosystem legaler Start-ups hat in den letzten Jahren ein enormes Wachstum erfahren. Um einen strukturierten Ansatz zur Analyse von IT-Innovationen im Rechtsbereich zu bieten, schlagen wir ein Framework für Lawtech-Anwendungen vor, das in drei Gruppen eingeteilt wird: interne, B2C- und B2B-Anwendungen. In diesem Rahmen untersuchen wir technologische Trends in Lawtech und deren Potenzial, Prozesse in bestimmten Bereichen des Wirtschafts- oder Personenrechts zu unterstützen und zu transformieren. Wir erkennen an, dass innerhalb von Lawtech eine Lücke zwischen den Interessengebieten von Rechtspraktikern, IT-Experten und akademischen Forschern besteht und dass einige Bereiche von diesen Gruppen beträchtliche Aufmerksamkeit erhalten haben, während andere Bereiche von einem oder mehreren dieser Bereiche relativ unerforscht sind Gruppen. Das wachsende Interesse der Juristen an fortschrittlichen Technologien wie künstlicher Intelligenz (KI) und natürlicher Sprachverarbeitung (NLP) schließt jedoch die Lücke zwischen akademischer Forschung, IT-Experten und Rechtspraxis weiter.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-66661-3_11 89cc23d6c857f4a8aa1b5edbde57f3ef;de;;;7.4.;;;Fuzzy Cognitive Map für Softwaretests mit Techniken der künstlichen Intelligenz In diesem Papier wird ein Rahmen diskutiert, der Testmanagern dabei hilft, den Einsatz von KI-Techniken als potenzielles Werkzeug beim Softwaretesten zu bewerten. Fuzzy Cognitive Maps (FCMs) werden verwendet, um das Framework zu bewerten und die Entscheidungsanalyse zu erleichtern. Es wird eine Was-wäre-wenn-Analyse präsentiert, die die allgemeine Anwendung des Frameworks untersucht. Simulationen werden durchgeführt, um die Wirksamkeit der vorgeschlagenen Methode zu zeigen. Der vorgeschlagene Rahmen ist innovativ und hilft Managern, effiziente Entscheidungen zu treffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16239-8_43 cb3519ac5d95527ff6c8ce219eb4e4f5;de;;;7.4.;;;Eine Untersuchung des Einsatzes innovativer biologischer Computerintelligenz in ubiquitären Robotiksystemen: Data Mining-Perspektive Sensortechnologien sind in einem umgebungsunterstützten Wohnsystem von entscheidender Bedeutung, da sie die täglichen Aktivitäten der Benutzer beobachten, messen und erkennen können und gleichzeitig Warnungen ausgeben, wenn Parameter bestimmte Schwellenwerte überschreiten. Trotz ihres enormen Unterstützungspotenzials sind die Datenmengen, die von mehreren Sensoren generiert werden, enorm (d. h. Big Data), da sie überall beteiligt sind, wie z. B. Smart Home, gesundheitsbasierte tragbare Geräte und assistierende Roboter. Im Allgemeinen können Big Data als große Datenmengen definiert werden, die aus digitalen Bildern, Videos, intelligenten Sensoren, Beiträgen auf Social-Media-Sites, Kauftransaktionsaufzeichnungen, Signalen von Mobiltelefonen zur globalen Positionierung, um nur einige zu nennen, stammen. In den letzten Jahren besteht ein großes Interesse sowohl in der kommerziellen als auch in der Forschungsgemeinschaft rund um Big Data. Unter diesen Umständen zieht Data Mining, dessen Hauptzweck darin besteht, aus Bergen von Datensätzen Werte zu extrahieren, die Aufmerksamkeit vieler Menschen auf sich. Um diesem Trend zu folgen, beabsichtigen wir in diesem Artikel eine algorithmische Sichtweise einzunehmen, d. h. die Anwendung intelligenter Algorithmen auf Daten, mit einem Schwerpunkt auf den biobasierten innovativen Computational Intelligence (CI)-Methoden. Diese Arbeit leistet mehrere Beiträge. Erstens untersucht es eine Reihe von biologisch-basierten innovativen CI-Algorithmen, die einen hohen Durchsatz unter Extrakt aus den Erkenntnissen von Daten ermöglichen können. Zweitens fasst es die Kernarbeitsprinzipien dieser Algorithmen systematisch zusammen und beleuchtet ihre vorläufigen Anwendungen in verschiedenen Bereichen des Data Mining. Dies wird es uns ermöglichen, die intrinsischen Stärken dieser neuartigen Algorithmen klar zu bestimmen und auch mögliche weitere Forschungsrichtungen zu definieren. Die Ergebnisse dieses Kapitels sollen nützliche Einblicke in die aktuelle Big-Data-Literatur geben und eine gute Quelle für jeden sein, der sich für die Anwendung von CI-Ansätzen auf Big Data und die entsprechenden Felder interessiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30184-6_6 c79b511d1c8520eb2d0ebfad492a6e75;de;;;7.4.;;;Wissensentdeckung in Texten: Eine Definition und Anwendungen Der erste Teil dieses Papiers wird einen allgemeinen Überblick über Knowledge Discovery in Data (KDD) geben, um zu betonen, wie sehr es sich von den Feldern unterscheidet, aus denen es stammt, und in einigen Fällen, wie sehr es diesen widerspricht.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0095087 e02091b2c9c55463b958554b79bfcf9c;de;;;7.4.;;;Tiefe extrem randomisierte Bäume In diesem Papier schlagen wir Deep Extremely Randomized Trees (DET) vor, eine tiefe Erweiterung des extrem randomisierten Bäume (Extra-Trees)-Ansatzes. Unser Ansatz vereint Klassifikationsbäume mit der Layered-Learning-Methode, die von tiefen neuronalen Netzen inspiriert ist. Das DET ist eine tiefe Struktur, bei der jede Schicht eine Reihe von Extra-Bäumen ist. Wir schauen uns experimentelle Ergebnisse zu Goldstandard-Datensätzen für maschinelles Lernen an und finden im Vergleich zu hochmodernen Tiefenmodellen gleichwertige oder bessere Ergebnisse mit viel weniger Parametern, die angepasst werden müssen. Es arbeitet schneller als tiefe neuronale Klassifikatoren und in den meisten Fällen sogar schneller als gcForest, ohne an Genauigkeit zu verlieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36708-4_59 6661a7f7337d84e433cefee8c344df58;de;;;7.4.;;;Untersuchung von Apache Hama: ein massensynchrones Parallel-Computing-Framework Die Menge an digitalen Daten wächst exponentiell, und die Aufgabe, solch riesige Datenmengen effizient zu verarbeiten, wird immer anspruchsvoller. In jüngster Zeit haben Wissenschaft und Industrie die Grenzen des vorherrschenden Hadoop-Frameworks in mehreren Anwendungsdomänen erkannt, wie z. Leider ist dieses weithin bekannte Map-Shuffle-Reduce-Paradigma zu einem Engpass geworden, um die Herausforderungen von Big-Data-Trends zu bewältigen. Der Bedarf an Forschung und Entwicklung neuartiger Massive-Computing-Frameworks nimmt rapide zu, und die systematische Darstellung, Analyse und Hervorhebung potenzieller Forschungsbereiche ist von entscheidender Bedeutung und wird von den Forschern auf diesem Gebiet sehr nachgefragt. Daher untersuchen wir eines der aufkommenden und vielversprechenden Frameworks für verteilte Computer, Apache Hama. Dies ist ein Top-Level-Projekt der Apache Software Foundation und ein reines massensynchrones Parallelmodell zur Verarbeitung massiver wissenschaftlicher Berechnungen, z. Graph-, Matrix- und Netzwerkalgorithmen. Die Ziele dieses Beitrags sind zweierlei. Zunächst skizzieren wir den aktuellen Stand der Technik, unterscheiden die Herausforderungen und formulieren einige Forschungsrichtungen für Forscher und Anwendungsentwickler. Zweitens präsentieren wir reale Anwendungsfälle von Apache Hama, um sein Potenzial speziell für die Industriegemeinschaft zu veranschaulichen.;-;-;-;https://link.springer.com/article/10.1007/s11227-017-1987-9 fecab6091e448b84902df2f0cd0425ac;de;;;7.4.;;;Data Mining: Schnelle Algorithmen vs. schnelle Ergebnisse Die explorative Datenanalyse ist typischerweise ein iterativer, mehrstufiger Prozess, bei dem Daten bereinigt, skaliert, integriert und verschiedene Algorithmen angewendet werden, um interessante Erkenntnisse zu gewinnen. Die meisten algorithmischen Forschungen haben sich auf Algorithmen für einen einzelnen Schritt in diesem Prozess konzentriert, z. Die Geschwindigkeit eines einzelnen Algorithmus ist jedoch selten der Flaschenhals in einem Data-Mining-Projekt. Der limitierende Faktor ist normalerweise die Schwierigkeit, die Daten zu verstehen, zahlreiche Alternativen zu erkunden und den Analyseprozess und die Zwischenergebnisse zu verwalten. Die Alternativen umfassen die Wahl der Mining-Techniken, wie sie angewendet werden und auf welche Teilmengen von Daten sie angewendet werden, was zu einer schnellen Explosion der Anzahl potenzieller Analyseschritte führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39592-8_3 da73b19a1a105241002d02db956d89b7;de;;;3.2.;;;Kollaborative Agenten für die Lösung komplexer Probleme Multi-Agenten-Systeme (MAS) eignen sich besonders gut für komplexe Problemlösungen, unabhängig davon, ob das MAS kooperative oder kompetitive (eigennützige) Agenten umfasst. In diesem Zusammenhang diskutieren wir sowohl die dynamische Teambildung bei ersteren als auch Strategien zur Partnerauswahl bei letzteren. One-Shot, langfristige und (fuzzy-basierte) flexible Formationsstrategien werden verglichen und kontrastiert, und es werden Experimente beschrieben, die diese Strategien entlang der Dimensionen der Agentensuchzeit und der Preisverteilungssituation vergleichen zu eigennützigen Agenten in offenen, dynamischen Umgebungen. Im Rahmen der kollaborativen Problemlösung wird auch die Agentenverhandlung zwischen kompetitiven Agenten diskutiert. Wir präsentieren eine Modifikation des Dual-Concern-Modells von Zhang, die es Agenten ermöglicht, während der Verhandlungen vernünftige Schätzungen des potenziellen Partnerverhaltens vorzunehmen. Schließlich stellen wir einen quadratischen Regressionsansatz zur Analyse/Schätzung des Partnerverhaltens vor, der einige der Einschränkungen von auf maschinellem Lernen basierenden Ansätzen überwindet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01799-5_11 0530a086aa88b89f48e0aaa6e9b246f5;de;;;7.4.;;;Sequentielle Merkmalsauswahl für die Klassifizierung Bei den meisten realen Informationsverarbeitungsproblemen sind Daten keine freie Ressource, ihre Erfassung ist ziemlich zeitaufwendig und/oder teuer. Wir untersuchen, wie diese beiden Faktoren in überwachte Klassifikationsaufgaben einbezogen werden können, indem wir die Klassifikation als sequentiellen Entscheidungsprozess ableiten und für Reinforcement Learning zugänglich machen. Unsere Methode führt eine sequentielle Merkmalsauswahl durch, die lernt, welche Merkmale bei jedem Zeitschritt am informativsten sind, wobei das nächste Merkmal in Abhängigkeit von den bereits ausgewählten Merkmalen und der internen Überzeugung des Klassifikators ausgewählt wird. Experimente mit einer Klassifikationsaufgabe mit handschriftlichen Ziffern zeigen eine signifikante Reduzierung der erforderlichen Daten für eine korrekte Klassifikation, während eine Aufgabe zur Vorhersage des medizinischen Diabetes die Minimierung der variablen Merkmalskosten als eine weitere Eigenschaft unseres Algorithmus veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25832-9_14 f51fc2c5e41f9af098cceae3b2ec4926;de;;;7.4.;;;Ein Ansatz zur Analyse und Vorhersage von Umweltschäden mithilfe von Data Mining und Business Intelligence Dieser Artikel konzentriert sich auf eine intuitive und effektive Möglichkeit, Datenanalysen und Vorhersagen basierend auf der Qualität verschiedener Umweltfaktoren für Indien zu erstellen. Das Problem bei den bestehenden Lösungen/Systemen besteht darin, dass kein vollständiger Datensatz verfügbar ist, der eine vollständige und gründliche Analyse aller Umweltfaktoren wie Luft, Wasser, Baumbestand und Waldbedeckung ermöglicht. Wir haben authentische Daten aus verschiedenen Regierungsquellen gesammelt und Operationen an den kombinierten Datensätzen durchgeführt. Wir haben ETL mit den verschiedenen Rohdatensätzen durchgeführt und dann alle transformierten Datensätze in die PowerBI-Datenbank importiert und mehrere Dashboards erstellt, die eine Datenanalyse basierend auf all den verschiedenen Faktoren ermöglichten. Für Vorhersagen und Vorhersagen haben wir RStudio, K-Means-Clustering und das ARIMA-Modell verwendet. Die Dashboards unterstützen Natural Language Processing und der Benutzer kann seine Anfrage in Form eines Satzes eingeben und erhält die erforderlichen Ergebnisse. Wir haben eine Schadensanalyse für Luftqualität, Wasserqualität, Waldbedeckung und Baumbedeckung in Indien implementiert und das System kann skaliert werden, um Analysen für verschiedene Länder der Welt zu erstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0077-0_34 27762bcac567e9d80d7faf58d22509c8;de;;;7.4.;;;Aufbau einer Informationssuchplattform mit Data Mining zur Verbesserung des Lernens der Schüler Im World Wide Web gibt es eine kontinuierliche Verbreitung von Online-Artikeln und anderen Materialien für E-Learning. Obwohl eine generische Suchmaschine verwendet werden kann, um Materialien in einem Fachgebiet (z. B. Informatik) zu finden, enthalten die Suchergebnisse häufig Werbung, Medien und Nachrichten. Um die Suchqualität zu verbessern, wird in dieser Studie eine Informationssuchplattform basierend auf Data-Mining-Technologie konstruiert wurde. Unter Verwendung der Term Frequency-Inverse Document Frequency (TF-IDF) berechnet diese Plattform alle Begriffe in jedem Webartikel, um automatisch Keywords und Artikel aus Nicht-Informatik-Kategorien herauszufiltern. Die Suchplattform ermöglicht es den Schülern, Informationen in Artikeln für einen bestimmten Satz von Suchbegriffen schnell zu finden und zu lesen. Die experimentellen Ergebnisse zeigen eine verbesserte Lernleistung mit mehr Informatikwissen und -konzepten und mehr Informatikartikeln, die über die Informationssuchplattform gefunden werden, indem Artikel in Nicht-Informatikkategorien herausgefiltert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63885-6_26 5ce1ad01317634c84e68ec7689df3ef3;de;;;7.4.;;;Überprüfung der Wissensführung in intelligenten Optimierungsansätzen Die Wechselwirkung zwischen Lernen und Evolution ist in letzter Zeit zu einer populären Forschungsrichtung geworden. Viele Wissenschaftler nutzen Wissen, um den Führungsprozess in intelligenten Optimierungsverfahren zu stärken. Wir überprüfen Wissensführung in intelligenten Optimierungsansätzen, die in der Regel durch Ansätze der Künstlichen Intelligenz und spezielle Wissensmodelle erfolgt. Einige Forscher haben auch Algorithmen mit einem zweischichtigen Evolutionsmechanismus vorgeschlagen. Diese verbesserten Verfahren sind in der Lage, etwas Wissen aus früheren Iterationen zu entdecken und das entdeckte Wissen zu verwenden, um nachfolgende Iterationen zu leiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46469-4_30 6fa0a900474b3f33bc3d04c730bf50cf;de;;;7.4.;;;Tensorielle neuronale Netze und ihre Anwendung in der Datenanalyse von longitudinalen Netzen Die traditionellen neuronalen Netze können nur vektorielle Daten verarbeiten, was bei der Vektorisierung von Daten zum Verlust von räumlicher Information in hochdimensionalen Strukturdaten führt. Die Matrix Neural Networks (MatNet), ein neuer Ansatz, ist nur in der Lage, strukturelle Informationen der ersten und zweiten Dimension/Modus von Matrixdaten zu erfassen. Obwohl die multilineare Tensorregression (MLTR) nach dem Stand der Technik es schafft, die linearen relationalen Informationen in hohen Dimensionen zu erfassen, können die möglichen nichtlinearen Beziehungen innerhalb mehrdimensionaler Daten ignoriert werden. Um sowohl lineare als auch nichtlineare Beziehungen zwischen jedem Modus der mehrdimensionalen relationalen Daten zu analysieren, wird ein neues Modell namens tensorielle neuronale Netze vorgeschlagen. Innerhalb der tensoriellen neuronalen Netze befinden sich die verborgenen Schichten eher in hohen Dimensionen als in einer oder zwei Dimensionen. Der Backpropagation-Algorithmus für tensorielle neuronale Netze wird abgeleitet und bereitgestellt. Die Leistung des neuen Ansatzes wird durch die Analyse von Längsschnitt-Netzwerkdaten bewertet, die wöchentliche internationale Beziehungen zwischen 25 Ländern von 2004 bis Mitte 2014 aus dem World-Wide Integrated Crisis Early Warning System enthalten. Mit anderen Worten, die Anwendung dieser neu vorgeschlagenen Methode, der tensoriellen neuronalen Netze, wird in diesem Artikel in der internationalen Beziehungsforschung behandelt. Die Abhängigkeiten zwischen den internationalen Beziehungsdaten sind im Allgemeinen Reziprozität und Transitivität, die auch im Interesse der Forschung liegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-70096-0_58 068197ea1f7348a6f29807ec96f456f5;de;;;7.4.;;;Konvolutionelles neuronales Netzwerk basierend auf SMILES-Darstellung von Verbindungen zum Nachweis chemischer Motive Frühere Studien haben gezeigt, dass Deep Learning ein hochwirksamer Ansatz für das Screening von Leitsubstanzen auf neue Medikamente ist. Es wurden mehrere Deep-Learning-Modelle entwickelt, die sich mit der Verwendung verschiedener Arten von Fingerabdrücken und Graphenfaltungsarchitekturen befassten. Diese Verfahren sind jedoch entweder vorteilhaft oder nachteilig, je nachdem, ob sie (1) strukturelle Unterschiede einschließlich der Chiralität von Verbindungen unterscheiden können und (2) automatisch wirksame Merkmale entdecken können.;-;-;-;https://link.springer.com/article/10.1186/s12859-018-2523-5 18eed8b9446d800817beeea0e7e410f1;de;;;7.4.;;;Inkrementelles räumliches Clustering beim Data Mining mit genetischem Algorithmus und R-Baum In diesem Artikel stellen wir einen Algorithmus vor, der auf einem genetischen Algorithmus (GA) und einer R-Baum-Struktur basiert, um eine Clustering-Aufgabe im Spatial Data Mining zu lösen. Der Algorithmus wird angewendet, um einen Cluster für ein neues räumliches Objekt zu finden. Räumliche Objekte, die für jeden Cluster darstellen, der dynamisch und schnell gemäß einem Clustering-Objekt im Clustering-Prozess berechnet wird. Dies verbessert die Geschwindigkeit und Genauigkeit des Algorithmus. Die experimentellen Ergebnisse zeigen, dass unser Algorithmus das gleiche Ergebnis liefert wie jeder andere Algorithmus und der Clustering-Aufgabe in räumlichen Data Warehouses gerecht wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34859-4_27 0241be0a904746d4eb625204cd4fd3f4;de;;;7.4.;;;Grafische Merkmalsauswahl für Multilabel-Klassifizierungsaufgaben Multilabel wurde als Erweiterung der Mehrklassenklassifikation eingeführt, um komplexe Lernaufgaben in unterschiedlichen Anwendungsfeldern wie Textkategorisierung, Video- oder Musik-Tagging oder biomedizinische Kennzeichnung von Genfunktionen oder Krankheiten zu bewältigen. Ziel ist es, eine Menge von Klassen (in diesem Zusammenhang Labels genannt) statt einer einzelnen vorherzusagen. In diesem Beitrag beschäftigen wir uns mit dem Problem der Merkmalsauswahl bei der Multilabel-Klassifikation. Wir verwenden ein grafisches Modell, um die Beziehungen zwischen Labels und Features darzustellen. Die Topologie des Graphen kann hinsichtlich der Relevanz im Sinne von Merkmalsauswahlaufgaben charakterisiert werden. In diesem Rahmen vergleichen wir zwei Strategien, die mit verschiedenen Multilabel-Lernenden implementiert wurden. Die Strategie, die gleichzeitig die Menge aller Labels berücksichtigt, übertrifft die Methode, die jedes Label separat betrachtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24800-9_24 3d29df79d4d14259560d80f663fd673e;de;;;7.4.;;;Data Mining mit Datenschutz in industriellen Systemen Der allgegenwärtige Einfluss von Business Computing hat die Informationstechnologie zu einem unverzichtbaren Bestandteil des täglichen Betriebs und zum Schlüssel zum Erfolg für Unternehmen gemacht. Data Mining, als einer der von Unternehmen am meisten benötigten IT-Dienste, wurde als wichtiger Weg erkannt, um Wissen aus den Daten zu entdecken und „datenreich“ in „wissensreich“ umzuwandeln, um strategische Entscheidungen zu unterstützen. Die Vorteile der Verwendung von Data Mining für die Entscheidungsfindung wurden in verschiedenen Branchen und Regierungssektoren nachgewiesen, z. Unter allen verfügbaren Data-Mining-Methoden ist das Auffinden von Assoziationen zwischen Geschäftsereignissen oder Transaktionen eine der am häufigsten verwendeten Data-Mining-Techniken. Assoziationsregel-Mining ist eine wichtige Anwendung in der Entscheidungsunterstützung und Marketingstrategie [19] für ein Unternehmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78297-1_3 aa6d6bb15ad01a740269b8a71134b60d;de;;;7.4.;;;Innovation und Big Data Innovation ist ein wesentliches Thema für Unternehmen und Bildungseinrichtungen. Wir haben gesehen, dass bekannte Unternehmen in Schwierigkeiten gerieten, da sie nicht rechtzeitig innovativ waren. Sie behielten ihre bewährte Arbeitsweise bei und hielten an ihren altmodischen Geschäftsmodellen fest. Im Mittelpunkt dieses Beitrags steht die Frage: Inwieweit kann die Verfügbarkeit von Big Data die Innovationsversuche von Unternehmen und Bildungseinrichtungen unterstützen?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-45378-1_3 3f45c129435e9785017c9ae77709ccf4;de;;;7.4.;;;Kontextuelle Klassifikator-Ensembles Einzelne Klassifikatoren liefern nicht immer zufriedenstellende Ergebnisse. Im Bereich des Data Mining werden Fehler hauptsächlich durch die den Daten selbst inhärenten Beschränkungen verursacht, die aus verschiedenen Gründen für die Erstellung von Datendateien und deren verschiedenen Anwendungen herrühren. Eine der vorgeschlagenen Methoden zum Umgang mit dieser Art von Unzulänglichkeiten ist die Verwendung von Klassifikator-Ensembles. Ihre Anwendung beinhaltet das Erstellen einer Reihe von Modellen für dieselbe Datendatei oder für verschiedene Teilmengen einer bestimmten Datendatei. Dieser Ansatz führt zwar in vielen Fällen zu einer sichtbaren Erhöhung der Klassifikationsgenauigkeit, erschwert jedoch die Interpretation der erhaltenen Ergebnisse erheblich oder behindert sie in manchen Fällen sogar effektiv. Gründe dafür sind die Methoden zur Definition von Lernaufgaben, die auf Randomisierung beruhen. Der Zweck dieses Papiers ist es, eine Idee für die Verwendung von Datenkontexten zur Definition von Lernaufgaben für Klassifikatorensembles vorzustellen. Die erzielten Ergebnisse sind vielversprechend.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-72035-5_44 e2a6edbf041048830c10f7a1b0f6087c;de;;;7.4.;;;XML Document Mining mit kontextuellen selbstorganisierenden Karten für Strukturen XML wird als Sprache zur Darstellung vieler Arten elektronischer Dokumente immer beliebter. Die strikte strukturelle Dokumentbeschreibung über XML hat zur Folge, dass eine relativ neue Aufgabe im Mining von Dokumenten auf Basis von Struktur- und/oder Inhaltsinformationen entstanden ist. In diesem Papier untersuchen wir (1) die Eignung neuer unüberwachter maschineller Lernmethoden für die Clustering-Aufgabe von XML-Dokumenten und (2) die Bedeutung von Kontextinformationen für dieselbe Aufgabe. Diese Aufgaben sind Teil eines internationalen Wettbewerbs zu XML-Clustering und -Kategorisierung (INEX 2006). Es wird gezeigt, dass die vorgeschlagenen Ansätze ein geeignetes Werkzeug für das Clustering strukturierter Daten darstellen, da sie im internationalen INEX 2006-Wettbewerb zum Clustering von XML-Daten die besten Ergebnisse liefern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73888-6_47 f9ce4f327043d681bb67e12298b047e8;de;;;7.4.;;;Hierarchisches visuelles Data Mining für umfangreiche Daten Ein immer wichtigeres Problem bei der explorativen Datenanalyse und -visualisierung ist die Größe, immer mehr Datensätze sind viel zu groß, um sie mit herkömmlichen Techniken zu analysieren, entweder in Bezug auf die Anzahl der Variablen oder die Anzahl der Datensätze. Ein Ansatz zur Lösung dieses Problems ist die Entwicklung und Anwendung von Mehrfachauflösungsstrategien, bei denen wir die Daten durch Aggregation und Zusammenfassung auf verschiedenen Abstraktions- oder Detailebenen darstellen. In diesem Beitrag präsentieren wir einen Überblick über unsere jüngsten und aktuellen Aktivitäten bei der Entwicklung einer multiresolution explorativen Visualisierungsumgebung für großskalige multivariate Daten. Wir haben Visualisierungs-, Interaktions- und Datenmanagementtechniken entwickelt, um effektiv mit Datensätzen umzugehen, die Millionen von Datensätzen und/oder Hunderten von Dimensionen enthalten, und schlagen Methoden vor, um ähnliche Ansätze anzuwenden, um das System auf die Verarbeitung von nominalen und ordinalen Daten zu erweitern.;-;-;-;https://link.springer.com/article/10.1007/BF02915281 a5426d74a640503995472a1e4bddea71;de;;;7.4.;;;Design eines adaptiven Web-Merchandising-Systems mit Data Mining In diesem Papier wird ein intelligentes System zur Erstellung von Web-Merchandising-Plänen und zur Verbesserung der Effektivität des Web-Merchandisings vorgeschlagen, damit Online-Händler erfolgreich einen Wettbewerbsvorteil in einem hart umkämpften Umfeld erzielen können. Das System verwendet Data-Mining-Techniken und konzentriert sich auf die Generierung von Web-Merchandising-Regeln, die verwendet werden, um die Nachfrage des Kunden zu schätzen und die Ware dafür zu planen. Darüber hinaus konzentriert es sich auf die Überwachung der Wirksamkeit der Merchandising-Regeln im Zeitverlauf und die Verfeinerung der statischen Merchandising-Regeln oder die Generierung neuer Regeln für Produkte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39592-8_80 e2a516ac5c07a659f0adbdda38259fa3;de;;;7.4.;;;Datenschutzerhaltendes Data Mining auf Big-Data-Computing-Plattform: Trends und Zukunft Data Mining wird in der datengetriebenen Gesellschaft in den letzten Jahren immer wichtiger. Leider wird die Privatsphäre der Personen nicht bewusst geschützt und berücksichtigt. Es ist eine erhebliche Herausforderung, dass die Ergebnisse von Data-Mining-Modellen angewendet werden können, um die Privatsphäre zu wahren und gleichzeitig die Analysefähigkeit aufrechtzuerhalten. Mit den Fortschritten bei Big Data haben sich eine Reihe von Big-Data-Computing-Plattformen zu weit verbreiteten Paradigmen für das Data Mining entwickelt. Sensible Daten der Benutzer, die in die Cloud ausgelagert und auf einer Open-Source-Computing-Plattform abgebaut werden. Sie birgt so schwerwiegende Bedrohungen, dass Maßnahmen zum Schutz der Privatsphäre von Personendaten ergriffen werden müssen. In Bezug auf dieses Thema wurde viel fruchtbare Arbeit an der Entwicklung von Data-Mining-Ansätzen zum Schutz der Privatsphäre geleistet, um die Sicherheit von Big-Data-Computing-Plattformen und die Privatsphäre von Einzelpersonen zu verbessern. In diesem Beitrag wurde eine systematische Untersuchung eines breiten Spektrums modernster Data-Mining-Techniken (PPDM) unter verschiedenen Aspekten in Bezug auf Bedrohungsmodell, Anonymität, sichere Mehrparteienberechnung (SMC) und differenzielle Privatsphäre durchgeführt. Wir konzentrieren uns darauf, den Datenschutz in diesen sensiblen Bereichen auf Big-Data-Computing-Plattformen zu verbessern. Hoffentlich zielt unsere Arbeit darauf ab, die dringende Notwendigkeit hervorzuheben, datenschutzerhaltende Data-Mining-Ansätze auf Big-Data-Computing-Plattformen anzuwenden. Darüber hinaus kann ein besseres Verständnis dieses Forschungsbereichs der Nutzung von Big Data und der zukünftigen Exploration zugute kommen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-65636-6_44 512c8fbe1c8a540b1390759fa0453516;de;;;7.4.;;;Unüberwachte Anomalieerkennung von Gesundheitsdienstleistern, die generative feindliche Netzwerke verwenden Betrug im Gesundheitswesen gilt für viele Gesellschaften als Herausforderung. Die Gelder für das Gesundheitswesen, die für Medikamente, Altenpflege oder Notaufnahmen ausgegeben werden könnten, gehen stattdessen durch betrügerische Aktivitäten materialistischer Praktiker oder Patienten verloren. Angesichts steigender Gesundheitskosten trägt Gesundheitsbetrug wesentlich zu diesen steigenden Gesundheitskosten bei. Diese Studie bewertet frühere Modelle des maschinellen Lernens zur Anomalieerkennung und schlägt einen unüberwachten Rahmen vor, um Anomalien mithilfe eines Modells des Generative Adversarial Network (GANs) zu identifizieren. Das GANs Anomaly Detection (GAN-AD)-Modell wurde auf zwei verschiedene Datensätze von Gesundheitsdienstleistern angewendet. Die anomalen Gesundheitsdienstleister wurden durch die Anwendung von Klassifikationsmodellen weiter analysiert, wobei die logistische Regression und extreme Gradient Boosting Modelle eine gute Leistung zeigten. Die Ergebnisse der SHapley Additive ExPlanation (SHAP) zeigen auch, dass die verwendeten Prädiktoren die anomalen Gesundheitsdienstleister erklären.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-44999-5_35 5d4ded08b3ee7515ad3ded0127c7cb35;de;;;3.2.;;;Ein Synchronisationsschema für den Multimedia-Abruf in digitalen Bibliotheken über Mobilfunknetze Jüngste Fortschritte in den Bereichen drahtloses mobiles Computing, digitale Bibliothek und verteilte Multimedia-Technologien stimulieren die Entwicklung mobiler digitaler Multimedia-Bibliothekssysteme (M;-;-;-;https://link.springer.com/article/10.1007/s11741-006-0082-x e5c2caba8a74f836e753a106635de22d;de;;;7.4.;;;Demonstration eines messbasierten Anpassungsprotokolls mit Quantenverstärkungslernen auf der IBM Q Experience Platform Das Klonen eines unbekannten Zustands ist eine wichtige Aufgabe im Bereich der Quantenberechnung, da es eine der grundlegenden Operationen ist, die in jedem Experiment erforderlich sind. Das No-Cloning-Theorem besagt, dass es unmöglich ist, eine identische Kopie eines beliebigen unbekannten Quantenzustands zu erzeugen. Daher werden Techniken entwickelt, um unbekannte Zustände mit hoher Wiedergabetreue zu klonen, anstatt exakte Kopien zu erstellen. Die übliche Klonmethode ist die Quantentomographie, die eine Reihe von Observablen misst, um den unbekannten Zustand zu rekonstruieren. Dieses Verfahren erweist sich als sehr teuer, wenn die Anzahl der Kopien des unbekannten Zustands begrenzt ist. Hier versuchen wir, einen unbekannten Zustand in IBMs QASM-Simulator unter Verwendung eines Quantenverstärkungslernprotokolls zu klonen (Albarran-Arriagada et al. in Phys Rev A 98:042315, 2018), wobei die „richtige“ Menge an Bestrafung/Belohnung Funktion und Grenze Bedingungen können eine viel bessere Wiedergabetreue bieten als die Tomographie in begrenzten Kopien des Staates bieten kann. Mit dieser Methode können wir bei weniger als 50 Kopien eine Wiedergabetreue von über 90% erreichen. Diese Methode erweist sich als sehr nützlich für die Rekonstruktion von Quantenzuständen, wenn nur begrenzte Kopien des Zustands verfügbar sind.;-;-;-;https://link.springer.com/article/10.1007/s11128-020-02657-x c4287aff2335f600ad5b4ddeba197074;de;;;7.4.;;;Ontologische semantische Integration basierend auf Convolutional Neural Network Als direkteste Medienform im Internetzeitalter finden Textinformationen im Zeitalter der Reife sozialer Netzwerke und der rasanten Entwicklung der mobilen Endgerätetechnik (allgemeiner Name) immer mehr Beachtung. In diesem Artikel werden die Methoden zum Entfernen ungültiger Datensätze, zum manuellen Eingeben von Leerstellenwerten und zum Verwenden globaler Konstanten zum Ausfüllen von Leerstellenwerten zur Vorverarbeitung der semantischen Ontologie verwendet. Dann wird die semantische Ontologie unter Verwendung der chinesischen Wortsegmentierung weiter verarbeitet, um die Rechenkosten der späteren Merkmalsextraktion zu reduzieren und die Effektivität der Merkmalsextraktion zu erhöhen. Verwenden von;-;-;-;https://link.springer.com/article/10.1007/s00521-019-04043-w 805f05d99f5825a057bea84ddda73091;de;;;7.4.;;;Zum Ansatz des maschinellen Lernens zum Sortieren von Permutationen nach Blocktranspositionen Das Sortieren von Permutationen durch Transposition ist ein gut untersuchtes kombinatorisches Optimierungsproblem mit Anwendungen in der vergleichenden Genomik. Das Problem gehört zur NP-schweren Klasse, und es existieren mehrere Approximationsalgorithmen. Altinier, Oliveira und Dias schlugen einen maschinellen Lernansatz zum Sortieren von Permutationen durch zwei Arten von Umordnungsoperationen vor, nämlich Umkehrungen und Blocktranspositionen. Dieses Papier diskutiert eine Anwendung ihres Ansatzes zum Sortieren von Permutationen unter Verwendung einer einzigen Operation, nämlich der Transposition unter einer verbesserten Einstellung. Es diskutiert auch die Anwendung der Methode auf Permutationen aus torischen Äquivalenzklassen und zeigt, dass vergleichbare Ergebnisse mit geringerem Rechenaufwand erzielt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5558-9_16 3d0ed878466a5c99e526a05d6bfc9c8f;de;;;7.4.;;;Logische Markov-Entscheidungsprogramme und die Konvergenz der logischen TD( Jüngste Entwicklungen im Bereich des relationalen Verstärkungslernens (RRL) haben zu einer Reihe neuer Algorithmen geführt. Eine Theorie, die erklärt, warum RRL funktioniert, scheint jedoch zu fehlen. In diesem Beitrag stellen wir einige erste Ergebnisse zu einer Theorie des RRL vor. Um dies zu realisieren, führen wir einen neuartigen Darstellungsformalismus ein, genannt logische Markov-Entscheidungsprogramme (LOMDPs), der Markov-Entscheidungsprozesse (MDPs) mit Logikprogrammen integriert. Mit LOMDPs kann man komplexe MDPs kompakt und deklarativ darstellen. In diesem Rahmen entwickeln wir dann ein relationales Upgrade von TD(;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30109-7_16 81148e7be96389ef7cd09511a626fd55;de;;;7.4.;;;Ein optimiertes paralleles Entscheidungsbaummodell basierend auf der groben Mengentheorie Dieses Papier präsentiert ein optimiertes paralleles Entscheidungsbaummodell, das auf der groben Mengentheorie basiert. Zuerst teilt das Modell die globale Datenbank in Teilmengen auf, verwendet dann die intuitive Klassifikationsfähigkeit des Entscheidungsbaums, um die Regeln in jeder Teilmenge zu lernen, und füge schließlich die Regelmenge jeder Teilmenge zusammen, um zu erhalten das globale Regelwerk. In diesem Modell präsentiert der Autor mit der Methode der unsicheren Informationsanalyse des Grobsatzes eine Methode der massiven Datensegmentierung und verwendet die gewichtete mittlere Rauheit als Entscheidungsbaummethode für die Attributauswahl. Dieses parallele Data-Mining-Modell mit dem besten Segmentierungsalgorithmus basierend auf einem groben Set kann gut im Umgang mit massiven Datenbanken verwendet werden;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85984-0_100 adb58068c2d887ce545bf0f5ab167c9f;de;;;7.4.;;;Integrieren von Anleitung in das relationale Verstärkungslernen Reinforcement Learning und insbesondere Q-Learning stoßen beim Umgang mit großen Zustandsräumen auf zwei Hauptprobleme. Erstens kann es unmöglich sein, die Q-Funktion in Tabellenform zu lernen, weil zu viel Speicher zum Speichern der Tabelle benötigt wird und weil die Q-Funktion nur konvergiert, nachdem jeder Zustand mehrmals besucht wurde. Zweitens können Belohnungen im Zustandsraum so spärlich sein, dass sie bei zufälliger Erkundung nur äußerst langsam entdeckt werden. Das erste Problem wird oft gelöst, indem man eine Verallgemeinerung der angetroffenen Beispiele lernt (z. Relational Reinforcement Learning (RRL) ist ein solcher Ansatz, der Q-Learning in strukturellen Bereichen durch die Einbeziehung eines relationalen Lernenden in das Q-Learning möglich macht. Das Problem der spärlichen Belohnungen wurde für RRL nicht angegangen. Dieses Papier stellt eine Lösung vor, die auf der Verwendung „angemessener Richtlinien“ basiert, um eine Orientierungshilfe zu geben. Verschiedene Arten von Politiken und verschiedene Strategien zur Bereitstellung von Leitlinien durch diese Politiken werden diskutiert und experimentell in mehreren relationalen Domänen bewertet, um die Vorzüge des Ansatzes aufzuzeigen.;-;-;-;https://link.springer.com/article/10.1023/B%3AMACH.0000039779.47329.3a 65605a4867c2af4e388e52b7528d1a9f;de;;;7.4.;;;Modellierung von Benutzerpräferenzen und Vermittlung von Agenten im elektronischen Handel Ein wichtiger Bestandteil des durch Agenten vermittelten elektronischen Handels ist das Vorhandensein intelligenter vermittelnder Agenten, die Teilnehmer des elektronischen Handels (z. B. einzelne Benutzer, andere Agenten, Organisationen) unterstützen. Diese vermittelnden Agenten sind im Prinzip autonome Agenten, die im Auftrag von Teilnehmern, die ihnen Aufgaben delegiert haben, mit ihrer Umgebung (z. B. anderen Agenten und Webservern) interagieren. Für vermittelnde Agenten ist ein (Präferenz-)Modell der Teilnehmer unabdingbar. In diesem Beitrag wird eine generische Vermittlungsagentenarchitektur vorgestellt. Darüber hinaus diskutieren wir unsere Sichtweise der Modellierung von Benutzerpräferenzen und ihre Notwendigkeit im agentenvermittelten elektronischen Handel. Wir erheben den Stand der Technik im Bereich der Präferenzmodellierung und schlagen vor, dass die Präferenzen der Teilnehmer des elektronischen Handels durch Lernen aus ihrem Verhalten modelliert werden können. Insbesondere verwenden wir eine bestehende maschinelle Lernmethode namens induktive Logikprogrammierung (ILP). Wir argumentieren, dass diese Methode von vermittelnden Agenten verwendet werden kann, um Regelmäßigkeiten im Verhalten der beteiligten Teilnehmer zu erkennen und automatisch Hypothesen über ihre Präferenzen zu induzieren. Abschließend diskutieren wir einige Vor- und Nachteile der Verwendung induktiver Logikprogrammierung als Methode zum Erlernen von Benutzerpräferenzen und vergleichen diese Methode mit anderen Ansätzen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44682-6_10 2e2be5fc007e44d167197f3cf9affe57;de;;;7.4.;;;Künstliche Intelligenz in der Fertigung Künstliche Intelligenz (KI) beschäftigt sich damit, Computern die Eigenschaften zu verleihen, die den Menschen intelligent erscheinen lassen. Es begann um 1955 zu einem aktiven Forschungsgebiet innerhalb der Informatik (oder möglicherweise auf halbem Weg zwischen Informatik und Psychologie) zu werden. Seit dieser Zeit umfasst das Studium der KI ein breites Themenspektrum, darunter Problemlösung, Theorembeweise , Spielen, Lernen und Lehren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-6912-7_10 b3bed2991db10e58c977e7d67633a373;de;;;7.4.;;;Rahmen für die Bewertung der Empfehlung von Geschäftspartnern über Branchentypen hinaus in Richtung virtueller Unternehmen Wir schlagen einen Rahmen vor, um eine Empfehlung unbekannter Partner in einem Inter-Business-Markt durch eine künstliche Intelligenz (KI) und eine Simulation zu bewerten. Der Grund ist, dass unbekannte Partnerempfehlungen durch KI wie Data Mining oder Machine Learning schwer zu bewerten sind, da es in der realen Welt nicht möglich ist, die richtigen Partner zu kennen. Das Framework ist ein Ablauf von (1) dem Vorschlagen einer Methode zur Empfehlung unbekannter Geschäftspartner, (2) der Installation der Empfehlungsmethode als KI in einem festen Agenten und (3) der Bewertung eines empfohlenen Geschäftspartners durch Vergleich der Leistung zwischen einer Empfehlungsmethode (Maschine Lernen usw.) und eine agentenbasierte Modellierungssimulation (ABMs). Da dieses Framework Experimente unter Annahme zukünftiger Situationen verarbeiten kann, ist es den Managern eines Unternehmens möglich, Empfehlungsmethoden und empfohlene Partner nach virtuellen Marktbedingungen zu betrachten und zu beurteilen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6936-0_6 4b115539160ca96d0a7f8817d2657947;de;;;7.4.;;;Vierfach-PLSA: Einbeziehung von Rechtsträgern und ihrer Bewertung bei der Aspektidentifizierung Mit der Meinungsexplosion im Web wächst das Forschungsinteresse am Opinion Mining. In dieser Studie konzentrieren wir uns auf ein wichtiges Problem im Opinion Mining – Aspect Identification (AI), das darauf abzielt, Aspektbegriffe in Entity Reviews zu extrahieren. Bisherige PLSA-basierte KI-Methoden nutzen die 2-Tupel (z. B. das gemeinsame Auftreten von Kopf und Modifikator), wobei jedes latente Thema einem Aspekt entspricht. Hier stellen wir fest, dass jede Bewertung auch von einer Entität und ihrer Gesamtbewertung begleitet wird, was zu Quad-Tupeln führt, die mit den zuvor erwähnten 2-Tupeln verbunden sind. In der Überzeugung, dass die Quad-Tupel mehr Informationen über das gemeinsame Auftreten enthalten und somit mehr Möglichkeiten zur Unterscheidung von Themen bieten, schlagen wir ein Modell von Quad-tuple PLSA vor, das zwei weitere Elemente – Entität und ihre Bewertung – in die Themenmodellierung für eine genauere Aspektidentifikation einbezieht . Die Experimente mit verschiedenen Anzahlen von Hotel- und Restaurantbewertungen zeigen die konsistenten und signifikanten Verbesserungen des vorgeschlagenen Modells im Vergleich zu den 2-Tupel-PLSA-basierten Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30217-6_33 5aa466a899bbf750b3bf5f4cf7eda453;de;;;7.4.;;;Visual Data Mining von symbolischem Wissen mit Rough Sets, Virtual Reality und Fuzzy-Techniken: Eine Anwendung in der geophysikalischen Prospektion Visual Data Mining mit nichtlinearen Virtual-Reality-Räumen (VR) wird auf symbolisches Wissen in Form von durch Grobmengenverfahren gewonnenen Produktionsregeln in einem Klassifikationsproblem mit teilweise definierten und ungenauen Klassen angewendet. Im Kontext eines geophysikalischen Prospektionsproblems mit dem Ziel, unterirdische Höhlen zu finden, wird ein nichtlinearer virtueller Realitätsraum für Produktionsregeln konstruiert. Die Verteilung der aus groben Sets abgeleiteten Regeln ist sowohl im ursprünglichen 5D-Raum als auch im 3D-VR-Raum durch ein Fuzzy-Modell gekennzeichnet. Die Zugehörigkeitsfunktion der Zielklasse (das Vorhandensein einer Höhle) wird von den Regeln auf die von den entsprechenden Regeln abgedeckten Datenobjekte übertragen und auf den ursprünglichen physikalischen Raum zurück abgebildet. Das im VR-Raum gebaute Fuzzy-Modell sagte Orte voraus, an denen neue Höhlen zu erwarten waren, und eine davon wurde bestätigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84628-992-7_17 7976dbd4288964ddfcfee64a66b5c7d7;de;;;7.4.;;;Relationales Lernen mit statistischer Prädikatenfindung: Bessere Modelle für Hypertext Wir präsentieren einen neuen Ansatz zum Erlernen von Hypertext-Klassifikatoren, der eine statistische Textlernmethode mit einem relationalen Regellerner kombiniert. Dieser Ansatz eignet sich gut zum Lernen in Hypertextdomänen, da seine statistische Komponente es ermöglicht, Text anhand von Worthäufigkeiten zu charakterisieren, während seine relationale Komponente beschreiben kann, wie benachbarte Dokumente durch Hyperlinks, die sie verbinden, miteinander verbunden sind. Wir bewerten unseren Ansatz, indem wir ihn auf Aufgaben anwenden, die das Erlernen von Definitionen für (i) Seitenklassen, (ii) bestimmte Beziehungen, die zwischen Seitenpaaren existieren, und (iii) das Auffinden einer bestimmten Informationsklasse in der internen Seitenstruktur beinhalten. Unsere Experimente zeigen, dass dieser neue Ansatz in der Lage ist, genauere Klassifikatoren zu lernen als jede seiner konstituierenden Methoden allein.;-;-;-;https://link.springer.com/article/10.1023/A%3A1007676901476 cc983bb1e14ab5fd1cf760293e71a54d;de;;;7.4.;;;Ein filterbasierter evolutionärer Ansatz zur Auswahl von Funktionen in hochdimensionalen Mikroarray-Daten Evolutionäre Algorithmen haben viel Aufmerksamkeit bei der Extraktion von Wissen über hochdimensionale Mikroarray-Daten erhalten, wobei für ihren Erfolg eine geeignete Definition des Suchraums der potenziellen Lösungen entscheidend ist. In diesem Artikel präsentieren wir einen evolutionären Ansatz zur Auswahl informativer Gene (Merkmale), um Krebs vorherzusagen und zu diagnostizieren. Wir schlagen ein Verfahren vor, das Ergebnisse von Filtermethoden kombiniert, die häufig im Bereich des Data Mining verwendet werden, um den Suchraum zu reduzieren, in dem ein genetischer Algorithmus nach Lösungen (dh Genuntermengen) mit besserer Klassifikationsleistung sucht, nämlich der Qualität (Fitness) jeder Lösung, die durch eine Klassifizierungsmethode bewertet wurde. Die Methodik ist ziemlich allgemein, da jeder Klassifikationsalgorithmus ebenso wie eine Vielzahl von Filtermethoden enthalten sein könnte. Umfangreiche Experimente an einem öffentlichen Microarray-Datensatz werden mit vier gängigen Filtermethoden und SVM präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16327-2_36 03256e6f804841440149dbe3954e86ea;de;;;7.4.;;;Brustkrebsklassifikation mit Convolution Neural Network (CNN) Maschinelles Lernen und KI spielen bei den jüngsten Fortschritten in mehreren Wissenschaftsdisziplinen eine entscheidende Rolle. Der medizinische Bereich hat mit dem Schub der Technologie neue Entwicklungen und Errungenschaften erlebt. Brustkrebs ist eine der dominantesten Krebsarten bei Frauen. Jüngste Studien zeigen, dass die Zahlen weltweit zunehmen. Viele Forscher begannen, die Kraft des Deep Learning zu nutzen und entwickelten ein Modell, das Ärzten hilft, diesen Krebs effektiv zu diagnostizieren und zu behandeln. In diesem Artikel haben wir den Kaggle-Datensatz von histopathologischen Bildern verwendet, der 2.77.524 Bilder enthält. Es wird ein Deep-Learning-CNN-Modell erstellt und mit 80 % Training und 20 % Testaufteilung verwendet. Ohne das Tuning von Hyperparametern wird eine Genauigkeit von 61,01 % erreicht. Mit Parameter-Tuning wird jedoch eine Genauigkeit von 81% erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-3660-8_27 92c9048654d294c2f250d398d3a45a9c;de;;;7.4.;;;Die diagrammbasierte verhaltensbasierte Empfehlung für interaktive Nachrichten Die interaktive Nachrichtenempfehlung wurde eingeführt und hat in letzter Zeit viel Aufmerksamkeit auf sich gezogen. In diesem Szenario entwickelt sich das Verhalten des Benutzers vom Einzelklick-Verhalten zu mehreren Verhaltensweisen, einschließlich Liken, Kommentieren, Teilen usw. Die meisten der bestehenden Methoden verwenden jedoch immer noch das Einzelklick-Verhalten als einzigartiges Kriterium zur Beurteilung der Benutzerpräferenzen. Obwohl heterogene Graphen in verschiedenen Bereichen angewendet wurden, ist weiterhin ein geeigneter Weg zum Konstruieren eines heterogenen Graphen für interaktive Nachrichtendaten mit einem geeigneten Lernmechanismus darauf erwünscht. Um die oben genannten Bedenken auszuräumen, schlagen wir ein graphenbasiertes verhaltensbewusstes Netzwerk vor, das gleichzeitig sechs verschiedene Arten von Verhaltensweisen sowie die Nachfrage der Benutzer nach der Nachrichtenvielfalt berücksichtigt. Wir haben drei Hauptschritte. Zuerst erstellen wir ein Interaktionsverhaltensdiagramm für Daten mit mehreren Ebenen und mehreren Kategorien. Zweitens wenden wir DeepWalk auf den Verhaltensgraphen an, um Entitätssemantik zu erhalten, und bauen dann ein graphenbasiertes neuronales Faltungsnetzwerk namens G-CNN zum Erlernen von Nachrichtendarstellungen und ein aufmerksamkeitsbasiertes LSTM zum Erlernen von Verhaltenssequenzdarstellungen. Drittens führen wir Kern- und Koritivitätsmerkmale für den Verhaltensgraphen ein, die den Konzentrationsgrad der Benutzerinteressen messen. Diese Funktionen wirken sich auf den Kompromiss zwischen Genauigkeit und Vielfalt unseres personalisierten Empfehlungssystems aus. Unter Berücksichtigung dieser Merkmale erreicht unser System schließlich die Empfehlung von Nachrichten an verschiedene Benutzer mit unterschiedlichem Konzentrationsgrad.;-;-;-;https://link.springer.com/article/10.1007/s10489-021-02497-x 23ebc126e51483110d6ee7449e6800bf;de;;;7.4.;;;Informations-Mining-Algorithmus für Multimedia-Datenströme basierend auf einem gemeinsamen neuronalen Netzwerk und Soft-Clustering Als eine nichtüberwachende Untersuchungsmethode wird Soft Clustering gut im Data Mining, der Bildverarbeitung, der Mustererkennung, der räumlichen Fernerkundungstechnologie und der Merkmalsextraktion usw. eingesetzt haben die breite Anwendung. Inspiriert von der Kombination aus neuronalem Netzwerk und Soft-Computing-Modell schlagen wir in diesem Beitrag das neuartige Multimedia-Datenstrom-Informations-Mining-Modell vor, das auf einem gemeinsamen neuronalen Netzwerk und Soft-Clustering basiert. Im Selbsttrainingsprozess trainieren wir einen Lernenden an einem markierten Stichprobensatz und verwenden dann den Lernenden, um eine nicht gekennzeichnete Stichprobe zu markieren, die er als sehr zuverlässig erachtet, und fügen die neu gekennzeichnete Stichprobe dem ursprünglichen Trainingssatz hinzu und verwenden dann dieses neue Training eingestellt, um den Lernenden neu zu trainieren und den obigen Vorgang zu wiederholen, bis die Iterationsbedingung beendet ist. Um die Leistung des Hauptprozessors besser auszuspielen und dann mit der Wishbone-Protokollimplementierung Adressraumressourcen zu sparen, wird die Trennung der hierarchischen Hoch-Low-Speed-Verbindungsstruktur GPU angewendet. Experimentelle Ergebnisse beweisen die Wirksamkeit des vorgeschlagenen Modells.;-;-;-;https://link.springer.com/article/10.1007/s11042-017-4964-7 314e62ead39cd3ee574390af15856874;de;;;7.4.;;;LCache: Machine Learning-fähige Cache-Verwaltung in datenverarbeitungsnahen Solid-State-Festplatten Im Zeitalter von Big Data verwenden große Speichersysteme NAND-Flash-basierte Solid-State-Disks (SSDs). Einige übergeordnete Anwendungen stellen höhere Anforderungen an die Leistung von SSD-basierten Speichersystemen. SSDs nutzen normalerweise eine kleine Menge an DRAM als geräteseitigen Cache, aber die Begrenzung des DRAM in einer SSD macht es schwierig, eine bessere Leistung zu erzielen. Die breite Anwendung der existierenden Cache-Verwaltungsschemata (z. B. LRU, CFLRU) bietet eine Lösung für dieses Problem. Mit der Popularität des Near-Data-Processing-Paradigmas in Speichersystemen wurden die auf Near-Data-Processing basierenden SSDs entwickelt, um die Leistung des Gesamtsystems zu verbessern. In dieser Arbeit wird eine neue Cache-Management-Strategie namens LCache vorgeschlagen, die auf NDP-fähigen SSD basiert und einen maschinellen Lernalgorithmus verwendet. LCache bestimmt, ob auf E/A-Anfragen in einem Zeitraum durch ein trainiertes maschinelles Lernmodell (z. B. ein Entscheidungsbaum-Algorithmusmodell) basierend auf den Eigenschaften von E/A-Anfragen zugegriffen wird. Wenn die selten zugegriffenen E/As, die nicht intensiv sind, direkt in den Flash-Speicher gespült werden, ermöglicht LCahe die Aktualisierung der schmutzigen Daten, auf die im Cache nicht zugegriffen wurde, in den Flash-Speicher. Auf diese Weise kann LCache saubere Daten generieren, während zwischengespeicherte Daten vorrangig ersetzt werden, um die Kosten für die Datenlöschung zu minimieren. LCache kann auch die dreifachen Vorteile effektiv erreichen: (1) Reduzierung der Datenzugriffsfrequenz für den häufigen Zugriff auf Datenseiten im Flash-Speicher, (2) Verbesserung der Reaktionszeit um 59,8 %, 60 % und 14,81 % im Vergleich zu LRU, CFLRU und MQSim und (3) Optimierung der Leistungsklippe um 68,2 %, 68 % bzw. 30,2 %.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-79478-1_11 2ce6672b0673d9acd4e10aa94b89ed7b;de;;;7.4.;;;Machbarkeit multiparametrischer Magnetresonanztomographie in Kombination mit maschinellem Lernen bei der Beurteilung der Osteosarkomnekrose nach neoadjuvanter Chemotherapie: eine Vorstudie Die Bewertung des Ansprechens der neoadjuvanten Chemotherapie (NACT) bei Patienten mit Osteosarkom ist für die Beendigung einer ineffektiven Behandlung, die Entwicklung postoperativer Chemotherapieschemata und die Vorhersage der Prognose von Bedeutung. Das histologische Ansprechen und die Tumornekroserate können derzeit jedoch nur in resezierten Proben nach NACT bewertet werden. Eine präoperativ genaue, nichtinvasive und reproduzierbare Methode zur Beurteilung des Ansprechens auf NACT ist erforderlich. In dieser Studie wurde der Wert der multiparametrischen Magnetresonanztomographie (MRT) in Kombination mit maschinellem Lernen zur Beurteilung der Tumornekrose nach NACT bei Osteosarkom untersucht.;-;-;-;https://link.springer.com/article/10.1186/s12885-020-06825-1 c7fb863db0064ff14a3e52341064b176;de;;;7.4.;;;Fortschrittliche medizinische Bildgebungsanalyse in der Brustkrebsdiagnose Moderne bildgebende Verfahren bieten ein schnelles, nichtinvasives Mittel zur Untersuchung physiologischer, metabolischer und molekularer Prozesse im Körper. Die Bildgebung ist das wichtigste Mittel in der klinischen Krebspraxis, um Diagnose, Prognose und Behandlungsbewertung zu erleichtern. Während Brustkrebs zu 25 % der Morbidität aller Krebsarten beiträgt und die zweithäufigste Krebstodesursache bei Frauen ist, ist er bei frühzeitiger Erkennung auch eine der am besten behandelbaren bösartigen Erkrankungen. In diesem Kapitel geben wir einen Überblick über die Forschung, die fortschrittliche bildgebende Analysetools zur digitalen Mammographie (DM) verwendet, um die Sensitivität und Spezifität der Brustkrebserkennung zu verbessern. Derzeit gibt es zwei dominierende Trends im Bereich der Advanced Imaging Analytics: Texturanalyse und Deep Learning. Wir implementieren drei Texturanalysealgorithmen: Gray Level Co-Occurrence Matrix (GLCM), Local Binary Patterns (LBP) und Gabor Filter sowie ein Deep-Learning-Netzwerk: ResNet. Der Gradient Boosted Tree (GBT)-Klassifikator wird dann anhand der Merkmale entwickelt, um die Läsion als bösartig vs. Der Klassifizierer, der Texturmerkmale von jedem Texturanalysealgorithmus verwendet, hat eine Genauigkeit von 0,82, 0,72 bzw. 0,72 für GLCM, LBP und Gabor. Wenn die Texturmerkmale aus verschiedenen Texturanalysealgorithmen zusammengefasst werden, hat der Klassifikator eine Genauigkeit von 0,81. Derselbe Klassifikator, der aus ResNet extrahierte Funktionen verwendet, hat eine Genauigkeit von 0,89, was auf das Potenzial von Deep Learning in der medizinischen Bildgebung für die Krankheitsdiagnose hinweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-11866-2_13 5d1395259a5176a766c7f076ba8dec9e;de;;;7.4.;;;Genetisch entwickelte Bäume, die Ensembles darstellen Wir haben kürzlich einen neuen Algorithmus zur Ensemble-Erstellung namens GEMS (Genetic Ensemble Member Selection) vorgeschlagen. GEMS trainiert zunächst eine feste Anzahl neuronaler Netze (hier zwanzig) und kombiniert diese Netze dann mittels genetischer Programmierung zu einem Ensemble. Der Einsatz genetischer Programmierung ermöglicht es GEMS, nicht nur Ensembles unterschiedlicher Größe zu berücksichtigen, sondern auch Ensembles als Zwischenbausteine ​​zu verwenden. In diesem Papier, der ersten umfassenden Studie zu GEMS, wird die Darstellungssprache um Tests zur Partitionierung der Daten erweitert, wodurch die Flexibilität weiter erhöht wird. Darüber hinaus werden mehrere Mikrotechniken angewendet, um die Überanpassung zu reduzieren, die das Hauptproblem dieses leistungsstarken Algorithmus zu sein scheint. Die Experimente zeigen, dass GEMS, wenn es an 15 öffentlich verfügbaren Datensätzen ausgewertet wird, eine sehr hohe Genauigkeit erreicht und sowohl einfache Ensemble-Designs als auch Standard-Entscheidungsbaum-Algorithmen deutlich übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/11785231_64 96940de8233990b7386fb0755e8d920b;de;;;7.4.;;;Cloud-Erkennung mit Super-Pixel-Klassifizierung und semantischer Segmentierung Die Wolkendetektion spielt eine sehr wichtige Rolle in der Fernerkundungsbildverarbeitung. Dieses Papier stellt eine Cloud-Erkennungsmethode vor, die auf Super-Pixel-Level-Klassifizierung und semantischer Segmentierung basiert. Zunächst werden Fernerkundungsbilder in Superpixel segmentiert. Segmentierte Superpixel bilden eine Fernerkundungsbilddatenbank auf Superpixelebene. Obwohl die Cloud-Erkennung im Wesentlichen eine binäre Klassifizierungsaufgabe ist, ist unsere Datenbank in vier Kategorien unterteilt, um die Generalisierungsfähigkeit zu verbessern: dicke Wolke, Zirruswolke, Gebäude und andere Kultur. Zweitens wird die Super-Pixel-Level-Datenbank verwendet, um unsere Cloud-Erkennungsmodelle basierend auf Convolution Neural Network (CNN) und Deep Forest zu trainieren. Hierarchisches Fusions-CNN wird vorgeschlagen, wenn man bedenkt, dass Bilder auf Superpixel-Ebene weniger semantische Informationen enthalten als normale Bilder. Es nutzt die Low-Level-Funktionen wie Farb- und Texturinformationen voll aus und eignet sich besser für die Super-Pixel-Level-Klassifizierung. Außerdem wird eine Distanzmetrik vorgeschlagen, um mehrdeutige Superpixel zu verfeinern. Drittens wird ein Ende-zu-Ende-Cloud-Erkennungsmodell basierend auf semantischer Segmentierung eingeführt. Dieses Modell hat keine Einschränkungen hinsichtlich der Eingabegröße und benötigt weniger Zeit. Experimentelle Ergebnisse zeigen, dass unsere vorgeschlagene Methode im Vergleich zu anderen Wolkenerkennungsmethoden eine bessere Leistung erzielt.;-;-;-;https://link.springer.com/article/10.1007/s11390-019-1931-y 3a7bd9957d248cc9b5ebfe0960ba7a9f;de;;;7.4.;;;Methoden und Mittel der intellektuellen Planung: Umsetzung des Managements der Prozesssteuerung beim Aufbau eines integrierten Expertensystems Die Intellektualisierungsprobleme bei der Prozessentwicklung integrierter Expertensysteme auf Basis der aufgabenorientierten Methodik und des instrumentellen Softwarekomplexes AT-TECHNOLOGY werden betrachtet. Die Erfahrungen aus der Durchführung intellektueller Planungen zur Synthese von Architekturlayouts von Prototypen in integrierten Expertensystemen, einem nutzungsbasierten intelligenten Scheduler, wiederverwendbaren Komponenten, typischen Projektabläufen und anderen Komponenten der intellektuellen Softwareumgebung im AT-TECHNOLOGY-Komplex werden beschrieben .;-;-;-;https://link.springer.com/article/10.3103/S0147688215060118 500e71ed3f2e3f1f90beadc510c428fa;de;;;7.4.;;;Embodied Cognition und Multi-Agent-Verhalten Autonome Systeme, die in unsere physische Welt eingebettet sind, brauchen Interaktionen in der realen Welt, um zu funktionieren, aber sie hängen auch davon ab, um zu lernen. Dies ist die Essenz der künstlichen verkörperten Kognition, bei der maschinelle Intelligenz eng mit Sensoren und Effektoren gekoppelt ist und bei der das Lernen durch das kontinuierliche Erleben der dynamischen Welt als Zeitreihendaten geschieht, die aus einer situierten und kontextbezogenen Perspektive empfangen und verarbeitet werden. Von diesem Strom aus müssen unsere technisch entwickelten Agenten wahrnehmungsbezogen unterscheiden, mit Lärm und Unsicherheit umgehen, den kausalen Einfluss ihrer Handlungen erkennen (manchmal mit signifikanter und variabler zeitlicher Verzögerung), mehrere und sich ändernde Ziele verfolgen, die oft miteinander nicht kompatibel sind, und Entscheidungen treffen. and unter Zeitdruck. Um die Sache weiter zu verkomplizieren, macht die Unvorhersehbarkeit, die durch die Aktionen anderer adaptiver Agenten verursacht wird, diese Erfahrungsdaten stochastisch und statistisch instationär. Ansätze des Reinforcement Learning für diese Probleme vereinfachen oft viele dieser Aspekte zu stark, z. B. indem sie Stationarität annehmen, mehrere Ziele in ein einziges Belohnungssignal zusammenfassen, sich wiederholende diskrete Trainingsepisoden verwenden oder Echtzeitanforderungen entfernen. Da wir daran interessiert sind, eine zuverlässige und vertrauenswürdige Autonomie zu entwickeln, haben wir diese Probleme untersucht, indem wir all diese inhärenten Komplexitäten beibehalten und nur die Anforderungen an die Umgebungsbandbreite des Agenten vereinfacht haben. Die Multi-Agent Research Basic Learning Environment (MARBLE) ist ein Computer-Framework zum Studium der Nuancen des kooperativen, kompetitiven und kontradiktorischen Lernens, in dem auftretendes Verhalten durch sorgfältig kontrollierte Experimente besser verstanden werden kann. Insbesondere verwenden wir es, um eine neuartige Datenstruktur für das Langzeitgedächtnis des Reinforcement Learning basierend auf probabilistischen Suffixbäumen zu evaluieren. Hier beschreiben wir diese Forschungsmethodik und berichten über die Ergebnisse einiger früher Experimente.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-96661-8_20 2448ab16dd210cdfb0ebe0b166ba685b;de;;;7.4.;;;Ein Feature Fusion Network für die multimodale mesoskalige Wirbelerkennung Als marines Phänomen haben mesoskalige Wirbel wichtige Auswirkungen auf das globale Klima und die Ozeanzirkulation. Viele Forscher haben sich dem Gebiet der mesoskaligen Wirbeldetektion gewidmet. In den letzten Jahren wurden einige auf Deep Learning basierende Methoden zur mesoskaligen Wirbelerkennung vorgeschlagen. Ein wesentlicher Nachteil dieser Verfahren besteht jedoch darin, dass nur monomodale Daten verwendet werden. In diesem Artikel erstellen wir einen multimodalen Datensatz, der die Meeresoberflächenhöhe (SSH), die Meeresoberflächentemperatur (SST) und die Strömungsgeschwindigkeit (VoF) enthält, die für die mesoskalige Wirbelerkennung nützlich sind. Darüber hinaus schlagen wir ein Feature-Fusion-Netzwerk namens FusionNet vor, das aus einer Downsampling- und einer Upsampling-Stufe besteht. Wir verwenden ResNet als Rückgrat der Downsampling-Phase und erreichen über vertikale Verbindungen eine Fusion von Multi-Scale-Feature-Maps. Darüber hinaus werden im FusionNet erweiterte Faltungen angewendet, um kontextbezogene Informationen auf mehreren Ebenen zu aggregieren. Experimentelle Ergebnisse des konstruierten multimodalen mesoskaligen Wirbeldatensatzes zeigten die Überlegenheit von FusionNet gegenüber früheren Tiefenmodellen für die mesoskalige Wirbelerkennung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63830-6_5 f99730edf5126a7c67b0a9baa9fefd86;de;;;7.4.;;;Kernel-Feature-Maps von Arbitrary Distance Metrics Die Approximation von Kernel-Funktionen durch explizite Feature-Maps hat in den letzten Jahren aufgrund der enormen Beschleunigung der Trainings- und Lernzeit von Kernel-basierten Algorithmen viel Aufmerksamkeit erregt, was sie auf sehr große Probleme anwendbar macht. Approximationen, die auf zufälligen Fourier-Features basieren, sind beispielsweise ein effizienter Weg, um Feature-Maps für eine bestimmte Klasse von skaleninvarianten Kernfunktionen zu erstellen. Es gibt jedoch noch viele Kernel, für die kein Algorithmus existiert, um solche Karten abzuleiten. In dieser Arbeit schlagen wir eine effiziente Methode vor, um approximative Feature Maps aus einer;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24489-1_11 3b2daf6d960a52e8df8556ca8a4e99b0;de;;;7.4.;;;Zur Bewertung von Computermodellen der intuitiven Entscheidungsfindung mit fMRT-Daten Eine Vielzahl alltäglicher Aufgaben erfordert, dass der Einzelne seine Intuition nutzt, um Entscheidungen zu treffen und effektiv zu handeln, einschließlich ziviler und militärischer professioneller Aufgaben, wie sie von Feuerwehrleuten, Polizei, Such- und Rettungsdiensten, Leitern kleiner Einheiten und Informationsanalysten ausgeführt werden. Um die intuitive Entscheidungsfindung (IDM) besser zu verstehen und zu trainieren, stellen wir uns vor, dass zukünftige Trainingssysteme IDM durch Rechenmodelle darstellen und diese Modelle verwenden, um das IDM-Lernen zu leiten. In diesem Beitrag werden die ersten Schritte zum Problem der Validierung von Rechenmodellen des IDM vorgestellt. Um zu testen, ob diese Modelle mit der menschlichen Leistung korrelieren, untersuchen wir Methoden zur Analyse funktioneller Magnetresonanztomographie (fMRT)-Daten von menschlichen Teilnehmern, die intuitive Aufgaben ausführen. Insbesondere untersuchen wir die Verwendung einer neuen Deep-Learning-Darstellung namens Summenprodukt-Netzwerke, um modellbasierte fMRI-Analysen durchzuführen. Summenproduktnetzwerke haben sich als einfacher, schneller und effektiver als bisherige Deep-Learning-Ansätze erwiesen, was sie zu idealen Kandidaten für diese rechenintensive Analyse macht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39454-6_50 969ce031810d77ce568bad6f6cd1d25a;de;;;7.4.;;;Forschungsüberlegungen und Werkzeuge zur Bewertung der Mensch-Automatisierungs-Interaktion mit zukünftigen unbemannten Systemen Fortschritte in der Automatisierung werden es bald einem einzelnen Betreiber ermöglichen, mehrere unbemannte Luftfahrzeuge zu überwachen. Die erfolgreiche Implementierung dieses neuen Überwachungssteuerungsparadigmas erfordert nicht nur Verbesserungen der Automatisierungsfähigkeit und -zuverlässigkeit, sondern auch ein Verständnis der menschlichen Leistungsprobleme, die mit der gleichzeitigen Verwaltung mehrerer automatisierter Systeme verbunden sind. Die Forschung in diesem Bereich hat sich im Allgemeinen auf Themen wie Vertrauen, Zuverlässigkeit und Automatisierungsgrad konzentriert. Das Ziel der Automatisierung von Systemen besteht im Allgemeinen darin, das Bedürfnis des Menschen, direkt mit dem System zu interagieren, zu minimieren. Trotz dieses Ziels betont die Mehrheit der aktuellen Forschung zur Überwachung der Kontrolle Situationen, in denen der Mensch häufig mit der Automatisierung interagieren muss. Dies geschieht in der Regel, um Forschern ein klares Mittel zur Beurteilung der menschlichen Leistung zu bieten, schränkt jedoch letztendlich die Verallgemeinerbarkeit der Forschung ein, da sie nur für einen begrenzten Missionskontext gilt. Das aktuelle Kapitel diskutiert ein Modell zur Bewertung der Interaktion zwischen Mensch und Automatisierung, das nicht nur die traditionellen ergebnisbasierten Leistungsbewertungsmaße (z. B. Geschwindigkeit und Genauigkeit) hervorhebt, sondern auch Maßnahmen des Bedienerzustands adressiert. Solche Messungen umfassen solche, die von subjektiven Arbeitsbelastungs- und Ermüdungssonden, Situationsbewusstseins-(SA)-Sonden und kontinuierlichen Messungen von Eye-Tracking-Systemen erhalten werden. Das Kapitel schließt mit der Diskussion eines von den Autoren entwickelten neuen Testbeds, das die Bewertung der Mensch-Automatisierungs-Interaktion in einem breiten Spektrum von Missionskontexten ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-59719-5_7 b92b13a08b5257fc5847e0f8dd5e2c3e;de;;;7.4.;;;Signalklassifizierung und Software-Hardware-Implementierung digitaler Filterbänke basierend auf feldprogrammierbaren Gate-Arrays und einer einheitlichen Computerarchitektur Das Papier widmet sich der Handhabung von Breitbandüberwachungsaufgaben durch diskrete Fourier-Transformation (DFT) modulierte Filterbänke. Die Implementierung der Filterbank wird mit CPU (Central Processing Unit) und CUDA (Compute Unified Device Architecture) basierend auf GPUs (Graphics Processing Units) in Betracht gezogen. Wir zeigen, dass CUDA aufgrund des geringen Zeit- und Rechenaufwands für große Signalmengen effizienter ist. Das Papier diskutiert auch die Signalklassifizierung in Filterbankkanälen für verschiedene Signal-Rausch-Verhältnisse unter Verwendung von binären Entscheidungsbäumen (mit dem iterativen Adaboost-Verfahren) und neuronalen Netzen. Der Gesamtklassifikationsfehler in unseren Experimenten überschreitet 10 % nicht. Die Ergebnisse können erweitert und auf hydroakustische Überwachungsaufgaben angewendet werden.;-;-;-;https://link.springer.com/article/10.1134/S1054661816030093 cb25c50304efad4f9a2a93d8d6132d86;de;;;7.4.;;;EncyCatalogRec: Katalogempfehlung für die Vervollständigung von Enzyklopädie-Artikeln Online-Enzyklopädien wie Wikipedia bieten eine große und wachsende Zahl von Artikeln zu vielen Themen. Der Inhalt vieler Artikel ist jedoch noch lange nicht vollständig. In diesem Artikel schlagen wir EncyCatalogRec vor, ein System, das durch Katalogempfehlungen zu einem umfassenderen Artikel beiträgt. Zuerst stellen wir Artikel und Katalogartikel als Einbettungsvektoren dar und erhalten ähnliche Artikel über die ortsabhängige Hashing-Technologie, wobei die Artikel dieser Artikel als Kandidatenartikel betrachtet werden. Dann wird aus den Artikeln und den Kandidatenelementen ein Beziehungsdiagramm erstellt. Dieser wird weiter in einen Produktgraphen umgewandelt. Das Empfehlungsproblem wird also im Produktgraphen in ein transduktives Lernproblem umgewandelt. Schließlich werden die empfohlenen Elemente nach der Learning-to-Rank-Technologie sortiert. Experimentelle Ergebnisse zeigen, dass unser Ansatz sowohl in Warm- als auch in Kaltstartszenarien eine Leistung nach dem neuesten Stand der Technik gemäß Katalogempfehlung erreicht. Wir haben unseren Ansatz durch eine Fallstudie validiert.;-;-;-;https://link.springer.com/article/10.1631/FITEE.1800363 645ee8f286e430ac3f8d07379a9c1ac8;de;;;7.4.;;;Die Anwendung interaktiver Methoden unter Swarm Computing und Künstlicher Intelligenz bei der Bildgewinnung und personalisierten Analyse Ziel ist es, die interaktiven Methoden auf Basis von Swarm Computing zu erforschen und die Bildauffindungseffekte und die personalisierte Empfehlungsgenauigkeit zu verbessern. Die interaktiven Methoden basierend auf Swarm Computing werden erforscht. Der Mechanismus des Swarm Intelligence (SI) Algorithmus wird analysiert, wobei der Partikel Swarm Optimization (PSO) Algorithmus und sein verbesserter Algorithmus ausgewählt werden. Die ausgewählten Algorithmen werden mit inhaltsbasierter Bildabruftechnologie kombiniert und auf den Bildabrufprozess angewendet, wodurch personalisierte Analysen und Empfehlungen basierend auf den Interessen der Nutzer realisiert werden. Schließlich wird das Bildabrufverhalten der Nutzer durch Simulationsexperimente analysiert, die die Richtigkeit der Empfehlungsergebnisse verifizieren. In den sechs Experimenten hat das auf dem Quantenverhalten PSO (QPSO) basierende Bildwiederherstellungssystem eine bessere Leistung im Vergleich zu anderen PSO- und SI-Evolutionsalgorithmen. Die Bildabrufgenauigkeit des vorgeschlagenen Optimierungsalgorithmus für das Bayessche personalisierte Ranking (BPR) (BPR-U2B) weist im Vergleich zu anderen Empfehlungsalgorithmen eine deutlich bessere Leistung auf. Der QPSO-Algorithmus ist der beste SI-Evolutionsalgorithmus für die Bildwiederherstellung. Der BPR-U2B-Algorithmus wird mit dem auf BPR basierenden kollaborativen Filteralgorithmus kombiniert. Es optimiert die Zielfunktion, um die Ranking-Ergebnisse des BPR-Algorithmus zu begrenzen, was vorteilhaft ist, um die Bildempfehlungen zu vervollständigen und die personalisierten Empfehlungseffekte für Benutzer zu verbessern.;-;-;-;https://link.springer.com/article/10.1007/s00371-020-01989-0 7fcd1840e91eefb87746364d539f1690;de;;;7.4.;;;Untersuchung der Auswirkungen der wahrnehmbaren Trennbarkeit auf die Teameffizienz von Mensch und Automatisierung Der Zweck des aktuellen Experiments bestand darin, den Effekt der wahrnehmbaren Trennbarkeit auf die Effizienz von Mensch-Automations-Teams in einer beschleunigten Beurteilungsaufgabe zu untersuchen. Menschliche Bediener in Anwendungsumgebungen interagieren mit automatisierten Systemen über eine visuelle Anzeige, die sowohl komplexe Rohdaten als auch automatisierte Unterstützung enthält, was erfordert, dass beide Informationsquellen von den Bedienern mental integriert werden. Die Teilnehmer führten eine beschleunigte Längenbeurteilungsaufgabe mit oder ohne Entscheidungshinweise durch, die von einer zuverlässigen automatisierten Hilfe ausgegeben wurden. Der Hinweis wurde im Format wahrnehmbar trennbar (Farbe) oder konfigurierbar (Fläche) zu roher Stimulus-Information (Länge) gerendert. Die Workload-Kapazität misst die quantifizierte Effizienz des Human-Automation-Teams. Die Teilnehmer reagierten nach dem Einsetzen des Entscheidungszeichens der Hilfe im Bereichsanzeigeformat in Form einer Verarbeitung mit begrenzter Kapazität langsamer als im Farbanzeigeformat, was zu einer Verarbeitung mit unbegrenzter Kapazität führte. Das Farbanzeigeformat kann eine Verarbeitung mit unbegrenzter Kapazität unterstützen, ohne die Reaktionsgeschwindigkeit der Bediener zu mäßigen, während das Bereichsanzeigeformat eine Verarbeitung mit begrenzter Kapazität erzeugen kann, wodurch ihre Antworten verzögert werden. Automatisierungs- und Displaydesigner sollten in Betracht ziehen, trennbare Wahrnehmungseigenschaften von Displayelementen in visuellen Schnittstellen zu verwenden, um die Effizienz des Mensch-Automatisierungs-Teams bei einer beschleunigten Wahrnehmungs-Kognitionsaufgabe zu verbessern.;-;-;-;https://link.springer.com/article/10.1007/s42113-021-00108-z f326be3fb0ee7834be075afecaee4de6;de;;;7.4.;;;Kontinuierliches Lernen menschlicher Aktivitätsmodelle mit Deep Nets Das kontinuierliche Erlernen von Aktivitätsmodellen aus Streaming-Videos ist ein immens wichtiges Problem bei der Videoüberwachung, Videoindexierung usw. Die meisten Forschungsarbeiten zur Erkennung menschlicher Aktivitäten haben sich hauptsächlich auf das Erlernen eines statischen Modells konzentriert, da alle Trainingsinstanzen im Voraus gekennzeichnet und präsentiert werden während beim Streamen von Videos ständig neue Instanzen ankommen und nicht gekennzeichnet werden. In dieser Arbeit schlagen wir einen Rahmen für das kontinuierliche Lernen durch menschliche Aktivitäten aus Streaming-Videos vor, indem wir tiefe Netzwerke und aktives Lernen kompliziert miteinander verknüpfen. Auf diese Weise können wir automatisch die am besten geeigneten Funktionen auswählen und eingehende unbeschriftete Instanzen nutzen, um das vorhandene Modell schrittweise zu verbessern. Angesichts der segmentierten Aktivitäten aus Streaming-Videos lernen wir Funktionen unbeaufsichtigt über tiefe Netzwerke und verwenden aktives Lernen, um die manuelle Kennzeichnung von Klassen zu reduzieren. Wir führen rigorose Experimente an vier anspruchsvollen Datensätzen menschlicher Aktivität durch, um die Wirksamkeit unseres Frameworks für das kontinuierliche Erlernen von Modellen menschlicher Aktivität zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10578-9_46 5497220023083a44a6071787d10d0b07;de;;;7.4.;;;Erkennung von Anomalien in Mammographien mithilfe von Tiefenmerkmalen Die Sterblichkeitsrate von Brustkrebs kann durch eine frühzeitige Diagnose und Behandlung gesenkt werden. Die computergestützten Diagnosesysteme (CAD) können Ärzten effektiv dabei helfen, das Frühstadium von Brustkrebs zu erkennen. Das primäre Werkzeug für solche Systeme sind Mammographien. Normalerweise fehlt es diesen Bildern an hoher Qualität. Darüber hinaus ist es aufgrund der unregelmäßigen Form der Massen, ihrer Größenvariabilität und der offensichtlichen Ähnlichkeit der Massen und anderer dichter Bereiche des Brustgewebes schwierig, die Massen zu erkennen und zu diagnostizieren. Obwohl viele Bildverarbeitungstechniken für die Diagnose von Brustmassen vorgestellt wurden, waren sie nicht ganz erfolgreich, und dieses Problem wurde noch als Herausforderung beibehalten. In dieser Arbeit wird eine Methode zur Klassifizierung von Brustgewebe in normale und abnormale (d. h. krebsartige) vorgeschlagen, die auf einem Deep-Learning-Ansatz basiert. Es enthält hauptsächlich ein neues Convolutional Neural Network (CNN) und einen Entscheidungsmechanismus. Nach einer Vorverarbeitungsphase wird ein Block um jedes Pixel in ein trainiertes CNN eingespeist, um zu bestimmen, ob das Pixel zu normalem oder abnormalem Gewebe gehört. Dies führt zu einer binären Karte für das eingegebene verdächtige Gewebe. Danach wird als Entscheidungsmechanismus ein Schwellenwertverfahren auf einen zentralen Block auf der erzeugten binären Abbildung angewendet, um ihn zu kennzeichnen. Die neue Architektur des CNN, das Trainingsschema des Netzwerks, das das CNN zum Klassifizieren der Pixel der verdächtigen Regionen anstelle der gesamten Eingabe verwendet, einen effektiven Entscheidungsmechanismus auf die Ausgabe des CNN und das Lernen der Modellparameter ausübt, hat uns geholfen, im Vergleich zu den modernsten Methoden überlegene Ergebnisse zu erzielen, indem wir 95 bzw. 94,68 Prozent für AUC und Genauigkeit erreichten.;-;-;-;https://link.springer.com/article/10.1007/s12652-019-01639-x 6b02d1527242a65d0ccae4b11086d838;de;;;7.4.;;;Erkennen und Visualisieren von Attributzuordnungen mithilfe von Bayes-Netzwerken und deren Verwendung in KDD In diesem Papier beschreiben wir eine Möglichkeit, Attributzuordnungen zu entdecken und sie Benutzern mit Bayes-Netzwerken zu präsentieren. Wir beschreiben eine dreidimensionale Visualisierung, um sie den Nutzern effektiv zu präsentieren. Darüber hinaus diskutieren wir zwei Anwendungen von Attributassoziationen auf den KDD-Prozess. Bei einer Anwendung werden sie verwendet, um die Funktionsauswahl zu unterstützen. Das Ergebnis unseres Experiments zeigt, dass die Merkmalsauswahl mithilfe visualisierter Attributzuordnungen in 17 der 24 verwendeten Datensätze gut funktioniert. Die andere Anwendung verwendet sie, um die Auswahl von Data-Mining-Methoden zu unterstützen. Wir diskutieren die Möglichkeit, Attributassoziationen zu verwenden, um zu entscheiden, ob ein bestimmter Datensatz zum Lernen von Entscheidungsbäumen geeignet ist. Wir fanden 3 Arten von Strukturmerkmalen in Bayesschen Netzwerken, die aus den Daten gewonnen wurden. Die Merkmale haben eine starke Relevanz für die Ergebnisse des Lernens von Entscheidungsbäumen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-48247-5_7 c61f3b653788096325a0490cb835d7a6;de;;;7.4.;;;Tag-basierte semantische Funktionen für die Szenenbildklassifizierung Die bestehenden Verfahren zur Extraktion von Bildmerkmalen basieren hauptsächlich auf den Inhalts- und Strukturinformationen von Bildern und berücksichtigen selten die kontextbezogenen semantischen Informationen. In Bezug auf einige Arten von Bildern wie Szenen und Objekte können die im Web verfügbaren Anmerkungen und Beschreibungen zuverlässige kontextbezogene semantische Informationen für die Merkmalsextraktion liefern. In diesem Artikel stellen wir neue semantische Merkmale eines Bildes vor, basierend auf den Anmerkungen und Beschreibungen seiner ähnlichen Bilder, die im Web verfügbar sind. Konkret schlagen wir eine neue Methode vor, die aus zwei aufeinanderfolgenden Schritten besteht, um unsere semantischen Merkmale zu extrahieren. Für jedes Bild im Trainingsset suchen wir zunächst nach oben;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36718-3_8 b5b962326c4b0296f424a68f31cad523;de;;;7.4.;;;Echte Qualitätsbewertung verzerrter Bilder basierend auf einem mehrschichtigen visuellen Wahrnehmungsmechanismus und einer hochrangigen Semantik Die meisten der existierenden Verfahren zur Beurteilung der Bildqualität (IQA) sind auf künstlich synthetisierte verzerrte Bilder gerichtet, in denen sich die Arten und Eigenschaften der Verzerrung von denen in der realen Welt unterscheiden. Angesichts der Tatsache, dass die bestehenden Nicht-Referenz-IQA-Methoden die Qualität des realen Verzerrungsbildes nicht genau bewerten können, schlagen wir in Kombination mit der theoretischen Analyse des mehrschichtigen visuellen Wahrnehmungsmechanismus eine IQA-Methode mit realer Bildverzerrung vor, die auf dem zugrunde liegenden Bild basiert Funktionen und High-Level-Semantik. Unter Berücksichtigung der nichtlinearen hierarchischen Struktur der menschlichen visuellen Wahrnehmung wird zunächst ein k-Means-Clustering-Algorithmus gemäß den zugrunde liegenden Merkmalsindizes des Bildes durchgeführt, so dass die verwendete Bilddatenbank in mehrere Gruppen unterteilt werden kann, was darauf abzielt, die Genauigkeit der vorhergesagten Qualitätsfaktor. Zweitens wird das Deep Convolutional Neural Network (DCNN) verwendet, um die erstklassigen semantischen Merkmale in jeder Gruppe zu extrahieren. Dann werden semantische Merkmale zweiter Ordnung, die eine bessere Darstellung von Bildmerkmalen bieten können, erhalten, indem mehrere statistische Funktionen auf erstklassiger Semantik erster Ordnung durchgeführt werden. Außerdem etablieren wir einen effektiven High-Capacity-Regressor mit High-Level-Semantik und subjektiven Mean Opinion Scores (MOS)-Werten des menschlichen Auges. Die experimentellen Ergebnisse zeigen, dass das vorgeschlagene Modell auf der KonIQ-10 k-Bilddatenbank den Qualitätsfaktor effektiv vorhersagen kann und eine hohe Konsistenz mit dem entsprechenden MOS-Wert erreicht, was für die spätere Bildverbesserung hilfreich ist.;-;-;-;https://link.springer.com/article/10.1007/s11042-020-09222-9 57a588c3b5b923b30d0098c9f2cae2b3;de;;;7.4.;;;Erkennung von Brustläsionen in der medizinischen digitalen Bildgebung mit neuronalen Netzen Ziel dieses Artikels ist es, eine experimentelle Anwendung zur Erkennung möglicher Brustläsionen mittels neuronaler Netze in der medizinischen digitalen Bildgebung vorzustellen. Diese Anwendung erweitert den Forschungsbereich zur Schaffung verschiedener Arten von Topologien mit dem Ziel, bestehende Netzwerke zu verbessern und neue Architekturen zu schaffen, die eine verbesserte Erkennung ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-34749-3_1 74941d8afddf9715969b16c1b0f80623;de;;;7.4.;;;Individuelle Bewegungen und geografisches Data Mining. Clustering-Algorithmen zum Hervorheben von Hotspots in persönlichen Navigationsrouten Die rasche Entwicklung der Verfügbarkeit und des Zugangs zu raumbezogenen Informationen in einer Vielzahl von Bereichen hat die Notwendigkeit besserer Analysetechniken zum Verständnis der verschiedenen Phänomene verursacht. Insbesondere stellt unsere Analyse einen ersten Einblick in eine Fülle von geografischen Daten dar, die von Einzelpersonen als Aktivitätsmolkereidaten gesammelt wurden. Die Aufmerksamkeit wird auf Punktdatensätze gelenkt, die GPS-Tracks entsprechen, die an verschiedenen Tagen entlang derselben Route gefahren wurden. Unser Ziel hier ist es, das Vorhandensein von Clustern entlang der Route zu untersuchen und zu versuchen, die Ursprünge und Motivationen dahinter zu verstehen, um die Straßennetzstruktur in Bezug auf „dichte“ Räume entlang des Netzwerks besser zu verstehen. In diesem Papier liegt die Aufmerksamkeit daher auf Methoden, um solche Cluster hervorzuheben und ihre Auswirkungen auf die Netzwerkstruktur zu sehen. Räumliche Clustering-Algorithmen werden untersucht (DBSCAN) und ein Vergleich mit anderen nicht-parametrischen dichtebasierten Algorithmen (Kernel Density Estimation) durchgeführt. Über dem Stadtgebiet von Triest (Italien) wird ein Test durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21928-3_32 2f09a9a429117898686be5ef861dc690;de;;;7.4.;;;Eine empirische Studie zur Datenstichprobe zur Just-in-Time-Defektvorhersage In diesem Whitepaper wird der Einfluss von Data Sampling auf die Just-in-Time-Fehlervorhersage untersucht. Wir stellen fest, dass es eine signifikante negative Beziehung zwischen dem Klassenungleichgewichtsverhältnis des Datensatzes und der Leistung des aktuellen Softwarefehlervorhersagemodells gibt. Zweitens, obwohl die meisten Softwarefehlerdaten nicht so unausgewogen sind wie erwartet, reicht ein moderates Ungleichgewicht aus, um die Leistung des traditionellen Lernens zu beeinträchtigen. Dies bedeutet, dass, wenn die Trainingsdaten für unmittelbare Softwarefehler mäßige oder schwerwiegendere Ungleichgewichte aufweisen, keine gute Fehlervorhersageleistung erwartet werden muss und der Datenstichprobenansatz zum Ausgleichen der Trainingsdaten die Leistung des Modells verbessern kann. Schließlich zeigt der empirische Ansatz, dass das Undersampling-Verfahren zwar die Modellleistung leicht verbessert, die verschiedenen Sampling-Verfahren jedoch keinen wesentlichen Einfluss auf die Bewertung von Modellen zur Vorhersage von Softwarefehlern haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-78612-0_5 5b9de54565e78c14f0d3c9a1a5a3e5bb;de;;;7.4.;;;Allgegenwärtige Intelligenz In den Kapiteln 1 und 2 haben wir festgestellt, wie wichtig es ist, relevante allgegenwärtige Informationen rund um Data-Mining-Anwendungen für umsetzbare Wissensentdeckung und -bereitstellung einzubeziehen und zu konsolidieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-5737-5_3 ae160c88314362719d15b7e2577ac350;de;;;7.4.;;;Modelllernen aus veröffentlichten aggregierten Daten In vielen Anwendungsbereichen, insbesondere im Gesundheitswesen, ist der Zugriff auf einzelne Datenpunkte eingeschränkt, während Daten aggregiert in Form von Mittelwerten und Standardabweichungen weit verbreitet sind. Diese Einschränkung ist auf viele Faktoren zurückzuführen, darunter Datenschutzgesetze, die Ärzte und Wissenschaftler daran hindern, individuelle Patientendaten freizugeben, die Unfähigkeit, proprietäre Geschäftsdaten weiterzugeben, und unzureichende Datenerfassungsmethoden. Folglich verhindert es die Verwendung der traditionellen maschinellen Lernmethoden für den Modellbau. Das Problem ist besonders wichtig, wenn eine Studie Vergleiche mehrerer Datensätze beinhaltet, von denen jeder aus verschiedenen Open-Access-Publikationen stammt, in denen die Daten in aggregierter Form dargestellt werden. Dieses Kapitel beschreibt das Problem des maschinellen Lernens von Modellen aus aggregierten Daten im Vergleich zum traditionellen Lernen aus einzelnen Beispielen. Es präsentiert eine Methode zur Regelinduktion aus solchen Daten sowie eine Anwendung dieser Methode zur Konstruktion von Vorhersagemodellen zur Diagnose von Leberkomplikationen des metabolischen Syndroms – einer der häufigsten chronischen Erkrankungen des Menschen. Andere mögliche Anwendungen des Verfahrens werden ebenfalls diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22913-8_17 3e7bdf5b90e4fd18778cd95c774ff92f;de;;;7.4.;;;Ein probabilistisches Diffusionsschema zur Anomalieerkennung auf Smartphones Die weit verbreitete Nutzung und die universellen Rechenfähigkeiten von Smartphones der nächsten Generation machen sie zum nächsten großen Ziel von bösartiger Software (Malware) und Sicherheitsangriffen. Angesichts der Batterie-, Rechenleistungs- und Bandbreitenbeschränkungen, die solchen mobilen Geräten inhärent sind, ist die Erkennung von Malware auf ihnen eine Forschungsherausforderung, die einen anderen Ansatz erfordert als der für Desktop-/Laptop-Computing. Wir präsentieren ein neuartiges probabilistisches Verbreitungsschema zur Erkennung von Anomalien, die möglicherweise auf Malware hinweisen, das auf Gerätenutzungsmustern basiert. Die Beziehung zwischen Proben mit normalem Verhalten und ihren Eigenschaften wird durch einen bipartiten Graphen modelliert, der die Grundlage für den stochastischen Diffusionsprozess bildet. Anschließend erstellen wir ein indirektes Ähnlichkeitsmaß zwischen den Stichprobenpunkten. Der über den Merkmalsraum abgeleitete Diffusionskernel liefert zusammen mit der Kullback-Leibler-Divergenz über den Probenraum einen Anomalieerkennungsalgorithmus. Wir demonstrieren seine Anwendbarkeit in zwei Einstellungen mit realen Mobiltelefondaten. Erste Experimente zeigen, dass der Diffusionsalgorithmus andere sogar bei begrenzter Verfügbarkeit von Trainingsdaten übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12368-9_3 67b81eb96e525a50addbd78c6cc032c2;de;;;7.4.;;;Analyse der Machbarkeit für die Bereitstellung eines sehr schnellen Entscheidungsbaums für die Erkennung von DDoS-Angriffen in Cloud-unterstütztem WBAN In Cloud-assisted Wireless Body Area Networks (WBAN) werden die von Sensorknoten gesammelten Daten an einen Gateway-Knoten geliefert, der Daten sammelt und aggregiert und in den Cloud-Speicher überträgt, wodurch sie anfällig für zahlreiche Sicherheitsangriffe werden. Unter diesen könnte der Distributed Denial of Service (DDoS)-Angriff als eine der größten Sicherheitsbedrohungen gegen die Cloud-gestützte WBAN-Sicherheit angesehen werden. Um die Auswirkungen von DDoS-Angriffen in einer Cloud-unterstützten WBAN-Umgebung zu überwinden, wurden während dieser Forschung verschiedene Techniken untersucht. Unter diesen haben sich Data-Mining-Klassifizierungstechniken als wertvolles Werkzeug erwiesen, um sich schlecht benehmende Knoten zu identifizieren und damit DDoS-Angriffe zu erkennen. Zur weiteren Klassifizierung von Data-Mining-Techniken gilt Very Fast Decision Tree (VFDT) als die vielversprechendste Lösung für das Echtzeit-Data-Mining von Hochgeschwindigkeits- und nicht-stationären Datenströmen, die von WBAN-Sensoren gesammelt werden, und wird daher für eine effiziente Analyse ausgewählt, untersucht und untersucht und Erkennen von DDoS-Angriffen in einer Cloud-unterstützten WBAN-Umgebung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09333-8_57 fe5bac73bc55eb62eef812b2f3775fcd;de;;;7.4.;;;Meinungssuche in spanischer schriftlicher Presse Wir beschreiben ein Presselesetool, das sich auf Sprüche oder Meinungen in den Nachrichten zu Themen und Quellen der Wahl des Lesers konzentriert. Dieses Tool bietet eine grafische Oberfläche, über die mehrere Quellen zu einem bestimmten Thema verlinkt werden können und die es den Lesern ermöglicht, Meinungen in einer Zeitleiste zu visualisieren und zu durchsuchen. Dies geschieht über ein Korpus, das drei uruguayische Pressemedien umfasst und deren aktuelle und frühere Ausgaben integriert. Der Meinungserkenner ist hauptsächlich regelbasiert, mit Regeln, die in einem Formalismus namens Kontextregeln geschrieben sind, und Methoden des maschinellen Lernens und Regeln für reguläre Ausdrücke wurden während der verschiedenen Phasen des Systems verwendet. Die Genauigkeit des Systems wurde in Bezug auf die abgerufenen Informationen bewertet und zeigte eine Genauigkeit von 76 %.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12027-0_25 8f6e87caa804a75fe5821db4f13c3635;de;;;7.4.;;;Atlas-Kompatibilitätstransformation: Ein normaler Manifold-Lernalgorithmus In den letzten Jahren wurde das nichtlineare Mannigfaltigkeitslernen in großem Umfang in der Datenanalyse und im maschinellen Lernen eingesetzt. In diesem Beitrag wird ein neuartiger Manifold-Lernalgorithmus vorgestellt, der als Atlaskompatibilitätstransformation (ACT) bezeichnet wird. Es löst zwei Probleme, die zwei Schlüsselpunkten in der Mannigfaltigkeitsdefinition entsprechen: wie man eine gegebene Mannigfaltigkeit grafisch darstellt und wie man die Patches basierend auf Kompatibilität an einem globalen Koordinatenraum ausrichtet. Für das erste Problem teilen wir die Mannigfaltigkeit in maximale lineare Patches (MLP) auf, basierend auf dem normalen Vektorfeld der Mannigfaltigkeit. Für das zweite Problem richten wir Patches zu einem optimalen globalen System aus, indem wir ein verallgemeinertes Eigenwertproblem lösen. Im Vergleich zur traditionellen Methode könnte das ACT mit Lärm- und Fragmentdatensätzen umgehen. Außerdem werden die Abbildungen zwischen dem hochdimensionalen Raum und dem niederdimensionalen Raum angegeben. Experimente mit synthetischen Daten und realen Daten zeigen die Wirkung des vorgeschlagenen Algorithmus.;-;-;-;https://link.springer.com/article/10.1007/s11633-014-0854-x c6452e1f653554fd6851e2afe4e96505;de;;;7.4.;;;Eine effektive Methode zur Merkmalsauswahl für die Textkategorisierung Die Merkmalsauswahl ist eine effiziente Strategie, um die Dimensionalität von Daten zu reduzieren und das Rauschen bei der Textkategorisierung zu entfernen. Die meisten Methoden zur Merkmalsauswahl zielen jedoch darauf ab, nicht informative Merkmale basierend auf Korpusstatistiken zu entfernen, die sich nicht direkt auf die Klassifikationsgenauigkeit beziehen. In diesem Papier schlagen wir eine effektive Methode zur Merkmalsauswahl vor, die auf die Klassifikationsgenauigkeit von KNN abzielt. Unsere Experimente zeigen, dass unsere Methode den herkömmlichen Methoden überlegen ist und auch für andere Klassifikatoren wie Support Vector Machines (SVM) von Vorteil ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20841-6_5 b1acbab5c43c263702cdd192644ce8dd;de;;;7.4.;;;Rotationsskalierung und Translationsinvarianten von radial verschobenen 3D-Legre-Momenten Dieses Papier schlägt einen neuen Satz von 3D-Rotationsskalierung und Translationsinvarianten von 3D-radial verschobenen Legendre-Momenten vor. Unser Ziel ist es, zwei Arten von transformierten verschobenen Legendre-Momenten zu entwickeln: ein 3D-substituiertes radial verschobenes Legendre-Moment (3DSRSLMs) und ein 3D-gewichtetes radiales (3DWRSLMs). Beide sind auf zwei Arten von Polynomen zentriert. Im ersten Fall wird ein neues radiales komplexes 3D-Moment vorgeschlagen. Im zweiten Fall werden neue 3D-substituierte/gewichtete radial verschobene Legendre-Momente (3DSRSLMs/3DWRSLMs) unter Verwendung einer sphärischen Darstellung eines volumetrischen Bildes eingeführt. Im dritten Fall erscheinen 3D-Invarianten, die aus den vorgeschlagenen radial verschobenen 3D-Legendre-Momenten abgeleitet wurden. Um den vorgeschlagenen Ansatz zu bestätigen, haben wir drei Probleme gelöst. Um den vorgeschlagenen Ansatz zu bestätigen, haben wir drei Probleme gelöst: Rotations-, Skalierungs- und Translationsinvarianten. Das Ergebnis von Experimenten zeigt, dass die 3DSRSLMs und 3DWRSLMs besser abgeschnitten haben als die 3D-radialen komplexen Momente mit und ohne Rauschen. Gleichzeitig konvergiert die Rekonstruktion schnell mit dem Originalbild unter Verwendung von 3D-radialen 3DSRSLMs und 3DWRSLMs, und der Test von 3D-Bildern wird eindeutig aus einer Reihe von Bildern erkannt, die in der Princeton Shape Benchmark (PSB)-Datenbank für 3D-Bilder verfügbar sind.;-;-;-;https://link.springer.com/article/10.1007/s11633-017-1105-8 75270625e7440e2d4cf0b76c05936588;de;;;7.4.;;;Räumliche Anordnung und Codierung für geografisches Data Mining und Visualisierung Geografische Informationen (z. B. Standorte, Netzwerke und nächste Nachbarn) sind einzigartig und unterscheiden sich von anderen räumlichen Attributen (z. B. Bevölkerung, Umsatz oder Einkommen). Es ist ein herausforderndes Problem beim Geodaten-Mining und der Visualisierung, sowohl die geografischen Informationen als auch mehrere räumliche Variablen bei der Erkennung von Mustern zu berücksichtigen. Um dieses Problem anzugehen, präsentieren und evaluieren wir eine Vielzahl von räumlichen Ordnungsmethoden, die räumliche Beziehungen in eine eindimensionale Ordnung und Kodierung umwandeln können, die die räumliche Lokalität so gut wie möglich erhält. Die Sortierung kann dann verwendet werden, um zeitliche oder multivariate Datenreihen räumlich zu sortieren und so Muster in verschiedenen Räumen aufzudecken. Die Kodierung als Materialisierung von räumlichen Clustern und Nachbarbeziehungen ist auch für die Verarbeitung zusammen mit räumlichen Variablen durch alle existierenden (nicht-räumlichen) Data-Mining-Methoden zugänglich. Wir entwerfen eine Reihe von Maßnahmen, um neun verschiedene Ordnungs-/Kodierungsmethoden zu bewerten, darunter zwei raumfüllende Kurven, sechs hierarchische Clustering-basierte Methoden und ein eindimensionales Sammon-Mapping (ein multidimensionaler Skalierungsansatz). Auswertungsergebnisse mit verschiedenen Datenverteilungen zeigen, dass die optimale Anordnung/Kodierung mit dem vollständigen Verknüpfungs-Clustering durchweg die beste Gesamtleistung ergibt und bekannte raumfüllende Kurven bei der Erhaltung der räumlichen Lokalität übertrifft. Darüber hinaus können Cluster-basierte Verfahren nicht nur einfache geografische Standorte codieren, z.;-;-;-;https://link.springer.com/article/10.1007/s10844-006-9952-8 9a70598ad2c9597b53aaedbc9734e7e3;de;;;7.4.;;;Entwicklung eines flexiblen autonomen Autosystems mit maschinellem Lernen und Blockchain Autonomes Fahren von Autos ist eine aufstrebende Technologie. In unserem Projekt gehen wir dieser Vision einen Schritt näher, indem wir ein System mit Raspberry Pi, Bildverarbeitung und maschinellem Lernen entwickeln und das System mit jedem Elektroauto verbinden. Das vorgeschlagene System bietet jedem vorhandenen Elektroauto auf der Straße, das nicht über eine integrierte autonome Fahrfunktion verfügt, eine autonome Fahrzeugfunktion. Die meisten existierenden Elektroautos, die auf den Straßen unterwegs sind, verfügen nicht über diese Technologie und diese findet sich hauptsächlich in neuen und teuren Autos. Eine alarmierende Tatsache bei autonomen Autos ist, dass viele von ihnen häufig gehackt werden, was auf ein Sicherheitsproblem hindeutet. Zur Datenübertragung wird die Anwendung eines Blockchain-Netzwerks verwendet, das Sicherheit und Transparenz bei der Nutzung des Netzwerks zu bieten scheint. Mit dem vorgeschlagenen System kann ein solches Autonomous-Car-Feature separat zu einem günstigeren Preis in alle bestehenden Elektroautos eingebaut werden. Wir wollen das oben Genannte erreichen, indem wir Bildverarbeitung verwenden, die mit neuronalen Netzen trainiert wird, um ein Modell zu erstellen, durch das autonome Autos erreicht werden. Mit der Verwendung von Blockchain-Netzwerken kann Sicherheit und Transparenz der Datenübertragung erreicht werden. Die in diesem Projekt verwendeten Hardwarekomponenten sind der Raspberry PI 3 B-Mikrocomputer und das Kameramodul. Dieser Raspberry Pi und die Kameraeinheit bilden ein separates System, das in Verbindung mit der elektronischen Steuereinheit dem Auto hilft, automatisch zu fahren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-20717-5_8 06b63c48b74961cd4ff64709f8764e03;de;;;7.4.;;;meanNet: Ein mehrschichtiger, mittelwertbasierter Ansatz mit halbüberwachten neuronalen Netzen zur Kreditvorhersage Derzeit kombiniert semi-überwachtes Deep Learning in der Regel überwachte und unüberwachte Methoden, um sein Modell zu trainieren, das die Informationen nicht gekennzeichneter Daten sinnvoll nutzen soll. Bei der Anwendung von semi-überwachtem Lernen in der Kreditvorhersage hat die Verteilung von Kreditdaten ihre eigenen Merkmale. Es wird beobachtet, dass es selbst für eine Klasse mehrere datendichte Unterteilungen gibt, da die Kreditprognose aus mehreren Perspektiven betrachtet werden muss. Wir argumentieren, dass die Nutzung dieser Informationen die Leistung des semi-überwachten Lernens verbessern kann. In diesem Beitrag schlagen wir ein neuartiges, mehrschichtiges, mittelwertbasiertes, semi-überwachtes Deep Learning zur Kreditvorhersage vor, das als meanNet bezeichnet wird. Unser mehrschichtiger Strukturansatz berücksichtigt Klassenmittelpunkte in verschiedenen Schichten. Wir schätzen die Klassenmittelpunkte jeder Klasse und das Ziel des Mehrschicht-Labelmittelwertes ist es, den Abstand der Klassenmittelpunkte in jeder Schicht zu maximieren. Darüber hinaus fügen wir meanNet die kostensensitive Verlustfunktion für die inkonsistenten Fehlklassifizierungskosten zwischen Klassen von Kreditdatensätzen hinzu. Es werden Experimente mit zwei öffentlichen Finanzdatensätzen durchgeführt und die Ergebnisse zeigen, dass unser Ansatz die Leistung der Kreditvorhersage im Vergleich zu gängigen Baselines verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-60259-8_48 b72ed4dae63aa9a0cbee4d75b815328a;de;;;7.4.;;;Ein Big-Data-Framework für die Netzwerksicherheit kleiner und mittlerer Unternehmen für das Computing der Zukunft In letzter Zeit gab es einige Bedenken hinsichtlich der Netzsteuersysteme, die für die großen geschlossenen nationalen Kommunikationsinfrastrukturen in der Republik Korea gebaut wurden. Insbesondere die von den kleinen und mittleren Unternehmen (KMU) verwendeten Kontrollsysteme haben bei ihrer Entwicklung oft nicht viel auf die komplexen internen oder externen Bedrohungen wie Hacking oder Identitätsdiebstahl geachtet. Aus diesem Grund sind KMU ständig internen/externen Sicherheitsbedrohungen sowohl durch interne als auch externe Angreifer ausgesetzt, während sie ihre eigenen internen Unternehmensnetzwerke verwenden, bleiben sie ständig mit den externen Netzwerken verbunden, die von ihren kooperierenden Unternehmen oder Institutionen betrieben werden Geschäfte führen. Daher ist die Sicherheit der Unternehmensnetzwerke von KMU immer noch anfällig, aber es ist nicht einfach, von Sicherheitsbeamten Informationen über die tatsächlichen Probleme zu erhalten, mit denen sie konfrontiert sind. In dieser Studie wird eine Methode zur Stärkung der Sicherheitsfähigkeit von KMU vorgeschlagen, insbesondere mit dem Schwerpunkt auf einem Rahmen für die Anwendung von Big Data. Für die Simulationen wurden die notwendigen Daten von den KMU bereitgestellt, die in der Vergangenheit Sicherheitsbedrohungen erlebt haben. Mit diesen Daten wurde eine empirische Analyse durchgeführt und ein entsprechender Rahmen entworfen. Zur Justage wurde das Gerüst in einem Prüfstand simuliert. Die demografischen Merkmale der Datenlieferanten wurden untersucht, um eine genauere Analyse der Daten zu gewährleisten. Die Methoden der Häufigkeits- und Zuverlässigkeitsanalyse wurden zusammen mit der Technik des maschinellen Lernens verwendet, um die Zuverlässigkeit der Daten zu messen, während eine Faktorenanalyse zur Validität angewendet wurde. Partielle kleinste Quadrate (PLS) wurden auch für die empirische Analyse verwendet. Eine Anwendung, auf die diese Methoden angewendet wurden, wurde mit Java Android implementiert und wird den Sicherheitsmanagern von KMU nach Fertigstellung zur Verfügung gestellt. Es wird erwartet, dass der in dieser Studie vorgeschlagene Rahmen eine nützliche Lösung für KMU für ihren zukünftigen Computerbedarf sein wird.;-;-;-;https://link.springer.com/article/10.1007/s11227-019-02815-8 5d69e8c1157053caf29085c5d4ee1f9c;de;;;3.2.;;;Eine immunitätsbasierte Einschätzung des Netzwerksicherheitsrisikos Entsprechend dem Zusammenhang zwischen der Antikörperkonzentration und der Erregerintrusionsintensität präsentieren wir hier ein immunitätsbasiertes Modell zur Risikoabschätzung der Netzwerksicherheit (Insre). In Insre werden die Konzepte und formalen Definitionen von Selbst, Nicht-Selbst, Antikörper, Antigen und Lymphozyten in der Netzwerksicherheitsdomäne gegeben. Dann werden die mathematischen Modelle der Selbsttoleranz, der klonalen Selektion, des Lebenszyklus reifer Lymphozyten, des Immungedächtnisses und der Immunüberwachung erstellt. Aufbauend auf den obigen Modellen wird somit ein quantitatives Berechnungsmodell zur Abschätzung des Netzwerksicherheitsrisikos vorgestellt, das auf der Berechnung der Antikörperkonzentration basiert. Durch den Einsatz von Insre lassen sich Art und Intensität von Netzwerkangriffen sowie das Risikoniveau der Netzwerksicherheit quantitativ und in Echtzeit berechnen. Unsere theoretische Analyse und experimentellen Ergebnisse zeigen, dass Insre eine gute Lösung für die Echtzeit-Risikobewertung für die Netzwerksicherheit ist.;-;-;-;https://link.springer.com/article/10.1360/04yf0140 b79336885880887ef33bb9eca37bacf7;de;;;7.4.;;;Intrusion Prediction und Detection mit Deep Sequence Modeling Mit der breiten Akzeptanz des Internets und seiner Anwendungen in den letzten Jahren haben viele Antagonisten den Informationsaustausch für böswillige Aktivitäten ausgenutzt. Intrusion Detection- und Prevention-Systeme sind weit verbreitete Forschungsgebiete und zu Recht ein integraler Bestandteil der Netzwerksicherheit. Die Einführung von IDSs und IPSs in Netzwerken hat signifikante Ergebnisse gezeigt, während die Forschung von Softwarelösungen auf hardwarebasierte Lösungen ausgeweitet wurde, was solche Abwehrtechniken noch weiter fördert. Wie bei allen aktuellen Computertrends haben sich Machine Learning und Deep Learning in Systemen zur Erkennung und Vorhersage von Eindringlingen stark durchgesetzt. Es gab Versuche, den Stand der Technik zu verbessern, aber keiner projiziert irgendeine signifikante Verbesserung gegenüber den gegenwärtigen Systemen. Herkömmliche Systeme warnen den Benutzer nach einem Einbruch, es können Schritte unternommen werden, um eine weitere Ausbreitung des Einbruchs zu stoppen, aber in den meisten Fällen ist es zu spät. Um diesem Problem Rechnung zu tragen, schlägt dieses Papier die Vorhersage von Systemaufrufen unter Verwendung eines rekurrenten neuronalen Netzes (RNNs) und Variational Autoencoding-Modellierungstechniken vor, um Sequenzen von Systemaufrufen eines modernen Computersystems vorherzusagen. Das vorgeschlagene Modell verwendet ADFA-Intrusionsdatensätze, um langfristige Sequenzen von Systemaufrufen zu lernen, die während eines Angriffs auf einen Linux-basierten Webserver ausgeführt werden. Das Modell kann Sequenzen von Systemaufrufen, die am wahrscheinlichsten während eines bekannten oder unbekannten (Zero-Day-)Angriffs auftreten, effektiv vorhersagen und klassifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4825-3_2 00bb7d75452130f44a6b278fb71cc72a;de;;;7.4.;;;Randomisierung von Smartphone-Malware-Profilen anhand statistischer Mining-Techniken Die zunehmende Nutzung von Smartphones eröffnet neue Möglichkeiten für Malware-Aktivitäten wie das Abhören von Telefongesprächen, das Lesen von E-Mails und Anrufprotokollen sowie das Verfolgen des Standorts von Anrufern. Statistische Data-Mining-Techniken haben sich als anwendbar erwiesen, um Smartphone-Malware zu erkennen. In diesem Artikel zeigen wir, dass statistische Mining-Techniken anfällig für Angriffe sind, die zu zufälligem Smartphone-Malware-Verhalten führen. Wir zeigen, dass statistische Mining-Techniken mit randomisierten Profilen leicht vereitelt werden können. Für diese Studie werden sechs hauseigene Proof-of-Concept-Malware-Programme auf der Android-Plattform entwickelt. Die Malware-Programme wurden entwickelt, um das Eindringen in die Privatsphäre, Informationsdiebstahl und Denial-of-Service-Angriffe durchzuführen. Durch die Simulation und Abstimmung der Häufigkeit und des Intervalls von Angriffen wollen wir folgende Fragen beantworten: 1) Können statistische Mining-Algorithmen Smartphone-Malware erkennen, indem sie die Statistiken zur Smartphone-Nutzung überwachen? 2) Sind Data-Mining-Algorithmen robust gegen Malware mit zufälligen Profilen? 3) Kann eine einfache Konsolidierung zufälliger Profile über einen festen Zeitrahmen eine qualitativ hochwertigere Datenquelle für bestehende Algorithmen bereitstellen?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31540-4_18 e2a753e535a1aa394d84d83c809b6d99;de;;;7.4.;;;Tief erlernte künstliche Intelligenz für semantische Kommunikation und gemeinsame Datenverarbeitung Die transdisziplinäre Aktivität in der System-Informations-Kultur (SIC) verursachte für jede Person eine große Wissensverfeinerung und die Notwendigkeit, eine Synthese echter wissenschaftlicher Präsentationen zu haben. Die Verkomplizierung von wissenschaftlich bedeutungssättigen Informationsflüssen erfordert deren Co-Verarbeitung mit Hilfe von tief gelernter künstlicher Intelligenz;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-39442-4_70 31331518c82b7dc62cb7413d234088be;de;;;7.4.;;;Ein Ansatz zur Textvorverarbeitung für eine effiziente Informationsbeschaffung Das Information Retrieval ist die Aufgabe, relevante Informationen aus einer großen Sammlung von Datenbanken zu erhalten. Die Vorverarbeitung spielt eine wichtige Rolle beim Information Retrieval, um die relevanten Informationen zu extrahieren. In diesem Papier wird ein Textvorverarbeitungsansatz zur Textvorverarbeitung für das Informationsabruf (TPIR) vorgeschlagen. Der vorgeschlagene Ansatz funktioniert in zwei Schritten. Erstens wird das Dienstprogramm zur Rechtschreibprüfung verwendet, um die Wortstammerkennung zu verbessern, und zweitens werden Synonyme ähnlicher Token kombiniert. In diesem Papier wird die vorgeschlagene Technik auf eine Fallstudie zum Internationalen Währungsfonds angewendet. Die experimentellen Ergebnisse belegen die Effizienz des vorgeschlagenen Ansatzes in Bezug auf Komplexität, Zeit und Leistung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8968-8_2 bc2299d0e5e5b055705aefe126ffccc2;de;;;7.4.;;;SRE-Net-Modell für die automatische Extraktion sozialer Beziehungen aus Video Über das Internet verbreitete Videos enthalten ein riesiges Wissen über die menschliche Gesellschaft. Vielfältiges Wissen wird demonstriert, während sich die Storyline des Videos entfaltet. Daher erleichtert die Realisierung des automatischen Aufbaus eines sozialen Beziehungsnetzwerks aus massiven Videodaten die tiefe Semantik des Bergbaus von Big Data, die Gesichtserkennung und soziale Beziehungserkennung umfasst. Bei der Gesichtserkennung konzentrieren sich frühere Studien auf übergeordnete Gesichtsmerkmale und mehrere Körpermerkmale. Diese Verfahren basieren jedoch meistens auf überwachtem Lernen und Clustern müssen Cluster k spezifizieren, die keine Zeichen erkennen können, wenn neue Videodaten eingegeben werden, und einzelne und ihre Nummern sind unbekannt. Zur Erkennung sozialer Beziehungen konzentrieren sich bisherige Studien auf Bilder und Videos. Diese Methoden konzentrieren sich jedoch nur auf soziale Beziehungen im selben Rahmen und sind nicht in der Lage, soziale Beziehungen von Charakteren zu extrahieren, die nicht im selben Rahmen vorhanden sind. In diesem Papier wird ein Modell namens SRE-Net vorgeschlagen, um ein soziales Beziehungsnetzwerk aufzubauen, um diese Herausforderungen anzugehen. Zuerst wird der MoCNR-Algorithmus eingeführt, indem ähnlich aussehende Gesichter aus verschiedenen Keyframes des Videos gruppiert werden. Soweit uns bekannt ist, ist dies der erste Algorithmus, der Zeichenknoten mit unüberwachten Double-Clustering-Methoden identifiziert. Zweitens schlagen wir eine szenenbasierte Methode zur Erkennung sozialer Beziehungen vor, um Herausforderungen zu lösen, die soziale Beziehungen von Charakteren in verschiedenen Frames nicht erkennen können. Schließlich zeigen umfassende Auswertungen, dass unser Modell für den Aufbau sozialer Beziehungsnetzwerke effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2922-7_30 0c104f055b479137388cc163e256b738;de;;;3.2.;;;Analyse und Visualisierung sozialer Netzwerke Wir beschreiben Visone, ein Tool, das die visuelle Erkundung sozialer Netzwerke erleichtert. Die Soziale Netzwerkanalyse ist ein methodischer Ansatz in den Sozialwissenschaften, der graphentheoretische Konzepte verwendet, um soziale Strukturen zu beschreiben, zu verstehen und zu erklären. Die Visone-Software ist ein Versuch, die Analyse und Visualisierung sozialer Netzwerke zu integrieren und soll in Forschung und Lehre eingesetzt werden. Während wir uns in erster Linie auf Benutzer in den Sozialwissenschaften konzentrieren, werden einige Funktionen des Tools auch in anderen Bereichen nützlich sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18638-7_15 b999a1343f1eb891c01d2ffa3aba91e7;de;;;7.4.;;;Über positives und unbeschriftetes Lernen für die Textklassifikation In diesem Beitrag stellen wir einen leicht modifizierten maschinellen Lernansatz zur Textklassifizierung vor, der ausschließlich aus positiven und unbeschrifteten Stichproben arbeitet. Unsere Methode kann sicherstellen, dass die positive Klasse während des iterativen Trainingsprozesses nicht unterrepräsentiert ist und kann einen um 30% besseren F-Wert erreichen, wenn die Anzahl der positiven Beispiele gering ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23538-2_28 6e8e1666396eb69e90b2c1f97cf08902;de;;;7.4.;;;Automatische Erkennung von Mustern in Medieninhalten Der starke Trend zur Automatisierung vieler Aspekte der wissenschaftlichen Forschung hat begonnen, auch die Sozialwissenschaften und sogar die Geisteswissenschaften zu beeinflussen. Mehrere kürzlich erschienene Artikel haben die Anwendung von Musteranalysetechniken auf die Entdeckung nicht-trivialer Beziehungen in verschiedenen Datensätzen gezeigt, die für die Sozial- und Humanwissenschaften relevant sind, und einige haben sogar das Aufkommen von „Computational Social Sciences“ und „Culturomics“ angekündigt. In diesem Übersichtsartikel fasse ich die in den letzten 5 Jahren am Intelligent Systems Laboratory in Bristol erzielten Ergebnisse im Bereich der Automatisierung der Analyse von Nachrichtenmedieninhalten zusammen. Dieses Unterfangen, das wir durch die Kombination von Mustererkennung, Data Mining und Sprachtechnologien angehen, ist traditionell ein Teil der Sozialwissenschaften und wird normalerweise von Humanforschern mit kleinen Datensätzen durchgeführt. Die Analyse von Nachrichteninhalten ist aufgrund der zentralen Rolle, die das globale Nachrichtensystem bei der Gestaltung der öffentlichen Meinung, der Märkte und der Kultur spielt, von entscheidender Bedeutung. Heutzutage ist es möglich, auf einen großen Teil der globalen Nachrichten frei online zuzugreifen und automatisierte Methoden für die ständige Überwachung von Inhaltsmustern in großem Maßstab zu entwickeln. Die in dieser Umfrage präsentierten Ergebnisse zeigen, wie die automatische Analyse von Millionen von Dokumenten in Dutzenden verschiedener Sprachen nicht-triviale Makromuster erkennen kann, die in kleinerem Maßstab nicht beobachtet werden konnten, und wie die Sozialwissenschaften von einer engeren Interaktion mit Musteranalyse, künstliche Intelligenz und Text-Mining-Forschungsgemeinschaften.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21458-5_2 d7861c9f67177f42b8481b32593d7cf8;de;;;7.4.;;;Maschinelles Lernen mit dem Pong-Spiel: Eine Fallstudie Als eines der frühesten Computerspiele ist das Pong-Spiel für seine Einfachheit bekannt, was es geeignet macht, eines der allerersten Probleme der Künstlichen Intelligenz und des maschinellen Lernens zu werden: gegen den Menschen antreten. In der Vergangenheit wurden verschiedene Machine-Learning-Ansätze eingeführt, um dieses Problem zu lösen. Dieses Papier gibt eine Zusammenfassung einiger bemerkenswerter Techniken zum Erstellen eines selbstlernenden Agenten für das Pong-Spiel. Darüber hinaus schlägt sie eine Vorlage vor, um diese Idee zu einer vollwertigen Anwendung zu entwickeln. Eine Implementierung in Java ist online verfügbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-98204-5_9 058d34efe389b149399772d516e71471;de;;;7.4.;;;Forschung zu Filmempfehlungen von Benutzern basierend auf Aufmerksamkeitsmechanismen Aufgrund des Einflusses verschiedener Faktoren wie Umgebung, Alter und Interesse hat jeder einen anderen Geschmack und eine andere Wertschätzung des Films. Diese Faktoren können verwendet werden, um personalisiertere Empfehlungsberechnungen für Filmempfehlungen durchzuführen, aber viele herkömmliche Methoden integrieren diese Faktoren nicht gut. Daher ist es immer noch ein schwieriges Problem, Schlüsselinformationen aus mehreren Richtungen in einem Empfehlungssystem effektiv zu extrahieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-57881-7_38 8aab4c0167bca39c66968fa802aec6a4;de;;;7.4.;;;Finden der optimalen Merkmalsdarstellungen für das Bayessche Netzwerklernen Naive Bayes wird wegen seiner Einfachheit und Effektivität häufig in Textklassifizierungsanwendungen und -experimenten verwendet. Viele verschiedene Versionen des Bayes-Modells berücksichtigen jedoch nur einen Aspekt eines bestimmten Wortes. In diesem Papier definieren wir ein Informationskriterium, den projektiven Informationsgewinn, um zu entscheiden, welche Darstellung für ein bestimmtes Wort angemessen ist. Auf dieser Grundlage wird die Annahme der bedingten Unabhängigkeit erweitert, um sie effizienter und praktikabler zu machen, und dann schlagen wir ein neues Bayes-Modell vor, General Naive Bayes (GNB), das zwei Darstellungen gleichzeitig verarbeiten kann. Es werden experimentelle Ergebnisse und theoretische Begründungen präsentiert, die die Machbarkeit unseres Ansatzes belegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71701-0_96 e1e8e5e23bcfb197be87c6cab66ff2f4;de;;;7.4.;;;Diagnose von fehlerhaften Gängen durch modifiziertes AlexNet und verbesserten Grasshopper-Optimierungsalgorithmus (IGOA) Getriebe ist ein wesentlicher Bestandteil für die Kraftübertragung von Fahrzeugen und verschiedenen mechanischen Geräten und wird trotz seiner fehleranfälligen Natur in der Industrie weit verbreitet eingesetzt. Daher besteht die Notwendigkeit, die in einem Getriebe vorhandenen Fehler zu diagnostizieren und den fehlerhaften Gang zu beheben. In diesem Beitrag wird die Deep-Learning-Methode zur Diagnose von fehlerhaften Gängen verwendet und verwendet das modifizierte AlexNet zur Klassifizierung verschiedener Gangsignale. Die in der bidirektionalen LSTM-Schicht (Long Short Term Memory) des AlexNet vorhandenen versteckten Einheiten werden ausgewählt, indem ein verbesserter Grasshopper-Optimierungsalgorithmus (IGOA) vorgeschlagen wird. Nach dem Klassifizierungsprozess wird eine Leistungsbewertung für verschiedene Leistungskennzahlen durchgeführt. Es zeigt sich, dass die vorgeschlagene Methode eine Genauigkeit von 2,4 %, eine Spezifität von −0,3 %, eine Sensitivität von 1,01 %, einen Rückruf von 0,97 % und eine Präzision von 0,59 % erreicht. Basierend auf den erhaltenen Ergebnissen wird festgestellt, dass der vorgeschlagene Algorithmus im Vergleich zum bestehenden Algorithmus effizienter ist.;-;-;-;https://link.springer.com/article/10.1007/s12206-020-0909-6 e19128bb525223d45dafa0e07b850e3a;de;;;7.4.;;;Unüberwachte Ansätze zur Messung der Textähnlichkeit zwischen Gerichtsberichten Im Bereich des Abrufs von Rechtsinformationen besteht eine wichtige Herausforderung darin, die Ähnlichkeit zwischen zwei Rechtsdokumenten zu berechnen. Präzedenzfälle (Aussagen aus früheren Fällen) spielen eine wichtige Rolle in;-;-;-;https://link.springer.com/article/10.1007/s10506-020-09280-2 d1d4ddd0c1289d249d5b511074b0baa9;de;;;7.4.;;;Dynamische Stimmungsanalyse mit mehreren Algorithmen des maschinellen Lernens: Eine vergleichende Wissensmethodik Der Mensch kann die Bedeutung von Sprache leicht verstehen oder interpretieren. Eine Maschine hat jedoch keine natürliche Sprache, um die verborgenen Emotionen abzuleiten. Ohne den Kontext des Wortes zu kennen, kann nicht einfach abgeleitet werden, ob ein Text Freude, Wut oder Frust vermittelt. Hier kam die Sentiment-Analyse ins Spiel. Die Sentimentanalyse ist die Analyse von Gefühlen, Einstellungen und Meinungen menschlicher Emotionen, die aus Texten extrahiert werden. Es verwendet Natural Language Processing (NLP), um den Text in positive, negative oder neutrale Kategorien zu klassifizieren. Viele Unternehmen nehmen heutzutage Feedback zum Produkt von den Kunden an, um die Qualität oder den Service des Produkts zu verbessern. Früher wurden Rückmeldungen von den Callcenter-Führungskräften aufgenommen, aber heute ist eine riesige Menge an Daten im Internet verfügbar. Menschen teilen ihre Ansichten zu Produkten, Dienstleistungen, Menschen usw. Die Sentimentanalyse erleichtert die Aufgabe, indem sie die relevanten Wörter aus den Sätzen extrahiert und in verschiedene Kategorien einordnet. In diesem Papier haben wir die wesentlichen Schritte beschrieben, die im Prozess der Sentiment-Analyse verwendet werden, und einige Felder, die unter diesem Dach arbeiten. Eine vergleichende Analyse von maschinellen Lernalgorithmen wie Naive Bayes, SVM, maximaler Entropie wird zusammen mit den wenigen Algorithmen wie künstlichen neuronalen Netzen und . durchgeführt;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8360-0_26 978db5ba9720326586ea2d3acb54001d;de;;;7.4.;;;Klassifikation der chronischen Gastritis anhand von Magen-Röntgenbildern mit einer semi-überwachten Lernmethode basierend auf Tri-Training Hochwertige Annotationen für medizinische Bilder sind immer teuer und knapp. Viele Anwendungen von Deep Learning im Bereich der medizinischen Bildanalyse stehen vor dem Problem unzureichender annotierter Daten. In diesem Beitrag stellen wir eine semi-überwachte Lernmethode zur Klassifikation chronischer Gastritis anhand von Röntgenbildern des Magens vor. Die vorgeschlagene semi-überwachte Lernmethode basierend auf Tri-Training kann nicht kommentierte Daten nutzen, um die Leistung zu steigern, die mit einer kleinen Menge kommentierter Daten erreicht wird. Wir verwenden eine neuartige Lernmethode namens Between-Class Learning (BC-Learning), die die Leistung unserer semi-überwachten Lernmethode erheblich verbessern kann. Dadurch kann unsere Methode effektiv aus nicht annotierten Daten lernen und eine hohe diagnostische Genauigkeit bei chronischer Gastritis erreichen.;-;-;-;https://link.springer.com/article/10.1007/s11517-020-02159-z 1045d9e60d5364799ca5ab46d155b972;de;;;7.4.;;;Extrahieren und Wiederverwenden von Wissensblöcken in lernenden Klassifikatorsystemen zur Textklassifizierung: ein lebenslanger Ansatz des maschinellen Lernens Menschen folgen einem kontinuierlichen Lernparadigma, d. h. sie lernen, kleinere und relativ einfache Probleme zu lösen, behalten das erlernte Wissen und wenden dieses Wissen an, um komplexere und umfangreichere Probleme der Domäne zu lernen und zu lösen. Derzeit fehlt den meisten maschinellen Lern- und evolutionären Computersystemen diese Fähigkeit, das zuvor erlernte Wissen wiederzuverwenden. Dieses Papier stellt ein lebenslanges maschinelles Lernmodell zur Textklassifizierung vor, das das nützliche Wissen aus einfachen Problemen einer Domäne extrahiert und das erlernte Wissen wiederverwendet, um komplexe Probleme der Domäne zu erlernen. Der vorgeschlagene Ansatz verwendet ein regelbasiertes lernendes Klassifikatorsystem, und ein umfangreiches Codierungsschema wird verwendet, um Wissensbausteine ​​zu extrahieren und wiederzuverwenden. Die experimentellen Ergebnisse zeigen, dass der Ansatz des kontinuierlichen Lernens das Basislinien-Klassifikatorsystem übertraf.;-;-;-;https://link.springer.com/article/10.1007/s00500-019-03819-5 c24617568f79a6c3b455f232534d23a1;de;;;7.4.;;;Neuronale Netze und künstliche Immunsysteme zur Erkennung von Malware und Netzwerkangriffen Neuronale Netzwerktechniken und künstliche Immunsysteme (AIS) wurden erfolgreich auf viele Probleme im Bereich der Erkennung und Erkennung von Anomalienaktivität angewendet. Die bestehenden Lösungen verwenden meist statische Ansätze, die auf der Sammlung von Viren oder Einbruchsignaturen basieren. Daher ist das Hauptproblem traditioneller Techniken die Erkennung und Erkennung neuer Viren oder Angriffe. In diesem Kapitel wird die Verwendung neuronaler Netze und künstlicher Immunsysteme zur Erkennung von Eindringlingen und Viren diskutiert. Wir untersuchten die Leistungsfähigkeit verschiedener intelligenter Techniken, nämlich die Integration neuronaler Netze und AIS zur Viren- und Einbruchserkennung sowie die Kombination verschiedener Arten von neuronalen Netzen in einem modularen neuronalen System zur Einbrucherkennung. Dieser Ansatz hat ein gutes Potenzial, um neuartige Viren und Angriffe zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05179-1_23 b891212d51dea3ac1d25719350f34ca9;de;;;7.4.;;;Ein Einfluss der Planungsstrategie auf den parallelen FI-Wachstums-Data-Mining-Algorithmus Paralleles Rechnen ist sehr wichtig, um die Rechengeschwindigkeit und Skalierbarkeit bereitzustellen, die für umfangreiche Data-Mining-Anwendungen erforderlich sind. Um eine gute Performance zu erzielen, ist eine gute Planung paralleler Aufgaben sehr wichtig. In diesem Papier werden verschiedene Scheduling-Strategien für das parallele FI-Wachstums-Data Mining vorgeschlagen und bewertet. Wir zeigen, dass die Ausführungszeit von parallelem Data Mining auf Multicore-Cluster-Systemen von einer verwendeten Task-Scheduling-Strategie abhängt. Mittels Simulation vergleichen wir 9 Strategien auf 8- bis 64-Kern-Multicore-Cluster-Systemen. Die Ergebnisse zeigen, dass durch die Wahl der richtigen Strategie die Ausführungszeit des parallelen Data Mining auf Multicore-Cluster-Systemen erheblich verkürzt werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10392-6_5 31c1fbd66c54c1e12c74cda23b02559e;de;;;7.4.;;;Implementierung und Auswertung von Entscheidungsbäumen mit Range- und Region Splitting Wir schlagen eine Erweiterung einer entropiebasierten Heuristik vor, um einen Entscheidungsbaum aus einer großen Datenbank mit vielen numerischen Attributen zu konstruieren. Beim Umgang mit numerischen Attributen sind konventionelle Methoden ineffizient, wenn numerische Attribute stark korreliert sind. Unser Ansatz bietet eine Lösung für dieses Problem. Für jedes Paar numerischer Attribute mit starker Korrelation berechnen wir eine zweidimensionale Assoziationsregel in Bezug auf diese Attribute und das objektive Attribut des Entscheidungsbaums. Insbesondere betrachten wir eine Familie;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5515-5_8 31d39137c650f394e7637cb550d83d9a;de;;;7.4.;;;Wälder aus randomisierten Shapelet-Bäumen Shapelets wurden kürzlich für die Klassifizierung von Datenreihen vorgeschlagen, da sie phasenunabhängige und lokale Informationen erfassen können. Es hat sich gezeigt, dass Entscheidungsbäume auf der Grundlage von Shapelets nicht nur interpretierbare Modelle, sondern in vielen Fällen auch eine hochmoderne Vorhersageleistung liefern. Die Entdeckung von Shapelets ist jedoch rechenaufwendig, und obwohl mehrere Techniken zur Beschleunigung dieser Aufgabe vorgeschlagen wurden, ist der Rechenaufwand in vielen Fällen immer noch unerschwinglich. In dieser Arbeit wird eine ensemblebasierte Methode namens Random Shapelet Forest (RSF) vorgeschlagen, die auf dem Erfolg des Random-Forest-Algorithmus aufbaut und eine geringere Rechenkomplexität aufweist als das ursprüngliche Shapelet-Tree-Lernen Algorithmus. Eine umfangreiche empirische Untersuchung zeigt, dass der Algorithmus eine wettbewerbsprädiktive Leistung bietet und dass ein vorgeschlagener Weg zur Berechnung von Wichtigkeitsbewertungen verwendet werden kann, um einflussreiche Regionen erfolgreich zu identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-17091-6_8 acaeae16e8beccdb5053294c7b27c173;de;;;7.4.;;;Top-Down-Induktion von relationalen Modellbäumen beim Lernen mit mehreren Instanzen (Multi-)Relationale Regression besteht darin, eine kontinuierliche Reaktion von Zielobjekten, die als Referenzobjekte bezeichnet werden, vorherzusagen, indem Interaktionen mit anderen Objekten, die als aufgabenrelevante Objekte bezeichnet werden, berücksichtigt werden. In relationalen Datenbanken werden Referenzobjekte und aufgabenrelevante Objekte in unterschiedlichen Datenbeziehungen gespeichert. Interaktionen zwischen Objekten werden durch (viele-zu-eins)-Fremdschlüssel-Constraints ausgedrückt, die es ermöglichen, erklärende Variablen eines aufgabenrelevanten Objekts auf verschiedene Weise mit der Antwortvariablen zu verknüpfen. Durch die Materialisierung mehrerer Zuweisungen in unterschiedlichen Attribut-Wert-Vektoren wird ein Referenzobjekt als Beutel mit mehreren Instanzen dargestellt, obwohl es nur einen Antwortwert für den gesamten Beutel gibt. Diese Arbeit weist auf die gleiche Annahme des Multi-Instanz-Lernens hin, die eine primäre Instanz für den beobachteten Antwortwert eines Referenzobjekts ist. Wir schlagen ein multirelationales Top-Down-Induktionsmodellbaumsystem vor, das Fremdschlüsselbeschränkungen gemäß einer Divide-and-Conquer-Strategie navigiert, eine Darstellung von Referenzobjekten als Säcke von Attribut-Wert-Vektoren ableitet und dann für jeden Sack a . konstruiert primäre Instanz als Hauptverantwortlicher für den Antwortwert. Koeffizienten der lokalen Hyperebene werden in einer EM-Implementierung der schrittweisen Regression der kleinsten Quadrate geschätzt. Experimente bestätigen die verbesserte Genauigkeit unseres Vorschlags in Bezug auf traditionelle Attributwert- und relationale Modellbaumlerner.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85928-4_7 c3db78d7b1e268daefebbc92ccd11588;de;;;7.4.;;;Ein Algorithmus zum Prüfen von Abhängigkeiten von Attributen in einer Tabelle mit nicht-deterministischen Informationen: ein grober mengenbasierter Ansatz Die Theorie der groben Mengen, die auf deterministischen Informationen basiert, wurde kürzlich auf maschinelles Lernen, Wissensentdeckung und Wissenserwerb angewendet. Um einige unvollständige Informationen zu handhaben, diskutieren wir jetzt grobe Sätze zu nicht-deterministischen Informationen und haben einige Werkzeugprogramme entwickelt. In diesem Papier schlagen wir eine Definition für Abhängigkeiten von Attributen von nichtdeterministischen Informationen und einen Algorithmus zu deren Überprüfung vor. Nach diesem Algorithmus haben wir ein Programm realisiert. Um die Abhängigkeit von nicht-deterministischen Informationen zu klären, ist es nützlich, Regeln aus nicht-deterministischen Informationen zu extrahieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44533-1_25 c16dc2b2d28e65f73c7e0f34fcd414b9;de;;;7.4.;;;Wie gut sind Klassifizierungsmodelle im Umgang mit dynamischen Angriffsangriffen im IoT? Das Internet der Dinge (IoT) ist anfällig für das Eindringen, das zu Sicherheitsbedrohungen im IoT-Ökosystem führen kann. Aufgrund der unterschiedlichen Architektur und des Protokollstapels funktioniert das traditionelle Intrusion Detection System (IDS) nicht gut zum Generieren von Alarmen bei einem möglichen Eindringen in das IoT. Machine Learning ist eines der potenziellen Werkzeuge für eine effektive Intrusion Detection. Um sie jedoch im IoT anzuwenden, müssen möglicherweise Anpassungen vorgenommen werden, um mit dem IoT-Datenverkehr zu arbeiten. Die Situation wird ungünstig, wenn die Angriffsmuster nicht a priori bekannt sind. Um IDS in die Irre zu führen, ändern Angreifer häufig die Angriffsmuster. Infolgedessen können herkömmliche Methoden des maschinellen Lernens solche dynamischen Eingriffe normalerweise nicht effektiv handhaben. In dieser Arbeit versuchen wir sieben (07) bekannte Klassifizierungsmodelle auf ihre Eignung im IoT-Netzwerk zur Erkennung neuartiger/dynamischer Angriffe zu bewerten. Es ist anfälliger und tödlicher für ein System, wenn ein Erkennungssystem einen neuartigen (ungesehenen) Angriff fälschlicherweise als normalen Datenverkehr klassifiziert. Während unserer Studie bewerten wir solche Szenarien der Fehlklassifizierung durch unsere Kandidatenmodelle. Unser Ergebnis zeigt, dass Random Forest bei der Erkennung von IoT-Angriffen besser abschneidet. SVM ist überlegen, wenn es um eine niedrige Fehlklassifizierungsrate für dynamische Angriffe als regulären Datenverkehr geht. Unsere Untersuchung kommt weiter zu dem Schluss, dass das beste IDS-System nicht immer der beste Detektor für den Umgang mit neuartigen Angriffen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6081-5_8 4a71e204e1ded728381d45a58bb88390;de;;;7.4.;;;Mathematik und maschinelles Lernen Maschinelles Lernen ist ein Zweig der Informatik, der Computern die Möglichkeit gibt, Vorhersagen zu treffen, ohne explizit programmiert zu werden. Machine Learning ermöglicht Computern das Lernen, da sie immer mehr Daten verarbeiten und noch genauere Vorhersagen treffen. Maschinelles Lernen ist in unserem täglichen Leben allgegenwärtig, von Spracherkennung, medizinischer Diagnose, kundenspezifischer Inhaltsbereitstellung und Produktempfehlungen bis hin zu Werbeplatzierungen, um nur einige zu nennen. Wissentlich oder unwissentlich ist die Wahrscheinlichkeit sehr hoch, dass man bei seinen täglichen Aktivitäten mehrmals auf eine Form des maschinellen Lernens gestoßen ist. In Cloud-Rechenzentren bietet maschinelles Lernen die Möglichkeit, Systeme autonom zu machen und so Rechenzentren in weniger fehleranfällige, sichere, selbstabstimmende und hochverfügbare zu verwandeln. Mathematik bildet das Fundament des maschinellen Lernens. Dieses Papier zielt darauf ab, die Konzepte in der Mathematik hervorzuheben, die für den Aufbau von Systemen des maschinellen Lernens unerlässlich sind. Themen der Mathematik wie Lineare Algebra, Wahrscheinlichkeitstheorie und Statistik, Multivariate Analysis, Partielle Ableitungen und algorithmische Optimierungen sind die Quintessenz für die Implementierung effizienter maschineller Lernsysteme. Dieses Papier wird sich mit einigen der oben genannten Bereiche befassen, um die für das maschinelle Lernen erforderlichen Kernkonzepte herauszustellen. Themen wie Hauptkomponentenanalyse, Matrixberechnung, Gradientenabstiegsalgorithmen sind einige davon in diesem Papier. Dieser Beitrag versucht, dem Leser einen Überblick über die mathematische Landschaft des maschinellen Lernens zu geben.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2095-8_12 89a5e5f881ceafb1e57fbc9cb69c860c;de;;;7.4.;;;Vorverarbeitung von Zeitreihendaten für die Klassifizierung mit Anwendung in CRM to Wir entwickeln einen innovativen Datenvorverarbeitungsalgorithmus zur Klassifikation von Kunden anhand unbalancierter Zeitreihendaten. Dieses Problem wird direkt durch eine Anwendung motiviert, deren Ziel es ist, das Abwanderungsverhalten der Kunden in der Telekommunikationsbranche aufzudecken. Wir modellieren dieses Problem als sequentielles Klassifizierungsproblem und präsentieren eine effektive Lösung zur Lösung des anspruchsvollen Problems, bei dem die Elemente in den Sequenzen mehrdimensionaler Natur sind, die Sequenzen eine ungleichmäßige Länge haben und die Klassen der Daten stark unausgewogen sind. Unsere Lösung besteht darin, modellbasiertes Clustering zu integrieren und einen innovativen Datenvorverarbeitungsalgorithmus für die Zeitreihendaten zu entwickeln. In diesem Papier stellen wir die Theorie und Algorithmen für die Aufgabe bereit und zeigen empirisch, dass die Methode bei der Bestimmung der Kundenklasse für CRM-Anwendungen in der Telekommunikationsbranche effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/11589990_16 7e8828075395f34984e5c2bf28315ec3;de;;;7.4.;;;Ihr digitaler Aktionsplan Die vorangegangenen Kapitel haben Ihnen ein tiefes Verständnis der drei wichtigsten digitalen Technologien vermittelt, die die digitale Transformation privater und öffentlicher Organisationen fördern: Quantencomputing, Blockchain-Technologie und künstliche Intelligenz. Die am Ende jedes Kapitels exemplarisch beschriebenen unterschiedlichen Anwendungen und Anwendungsfälle zeigten, dass jede Technologie nicht nur die Optimierung bestehender Produkte und Dienstleistungen ermöglicht, sondern auch die Erschließung neuer Wachstumschancen in reifen und völlig neuen Märkten oder Umgebungen ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-6774-5_5 ae4d76a31cd70357a3f7adb6818f471b;de;;;7.4.;;;Data-Mining-Ansatz für klinische/pharmazeutische Informationen, die in der Community für Arzneimittelsicherheitsinformationen gesammelt wurden Angeborene Fehlbildungen oder Geburtsfehler sind ein großes öffentliches Anliegen. Wir haben ein neues Forschungs-/Entwicklungsprojekt durchgeführt, um eine Informationsgemeinschaft für teratogene Wirkstoffe als soziales System zu schaffen, bestehend aus schwangeren Frauen, Apothekern, Ärzten und Forschern, die an Arzneimitteln arbeiten. Wir haben ein webbasiertes Datenbanksystem entwickelt, das nicht nur den Abruf teratogener Informationen und chemischer Strukturen von Arzneimitteln/Arzneimitteln durchführt, sondern auch die Registrierung von klinischen Fallberichten und teratogenen Informationen zu verschiedenen Chemikalien. Mit Hilfe der Datenbank haben wir die Ausscheidung von Arzneimitteln in die menschliche Muttermilch mittels QSAR als Data-Mining-Ansatz zu klinischen/pharmazeutischen Informationen vorhergesagt.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-30962-8_17 f559f4d2497dbcc50c1d2bec506dc776;de;;;7.4.;;;Die zukünftige Entwicklung der Bildung im Zeitalter der Künstlichen Intelligenz „Künstliche Intelligenz + Bildung“ ist in den letzten Jahren unter der Führung der Welle der künstlichen Intelligenz zu einem sehr heißen Thema geworden. Immer mehr traditionelle Bildungseinrichtungen beginnen, den Bereich der künstlichen Intelligenz zu organisieren und zu gestalten. Die Förderung von Talenten der künstlichen Intelligenz wird zu einem wichtigen Bildungsauftrag. Gleichzeitig wird sich mit der Entwicklung der Künstlichen Intelligenz auch die Art der Bildung ändern. Integration wird zum Entwicklungstrend der zukünftigen Bildungswelt. Die Zukunft ist gekommen, wenn Bildung und künstliche Intelligenz aufeinandertreffen, was für Funken werden kollidieren? In diesem Beitrag werden hauptsächlich Anwendung, Forschungsstand und Entwicklungstrend der Künstlichen Intelligenz im Bildungsbereich sowie die tiefe Integration von Künstlicher Intelligenz und Bildung diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-69066-3_30 b4b787309efe652089be465460356416;de;;;7.4.;;;Schnelles dichtegewichtetes Spektralclustering mit niedrigerer Näherung Während spektrales Clustering qualitativ hochwertige Clusterings auf kleinen Datensätzen erzeugen kann, macht es der Rechenaufwand für große Datensätze unmöglich. Die Affinitätsausbreitung (AP) hat die Einschränkung, dass es schwierig ist, den Wert des Parameters „Präferenz“ zu bestimmen, was zu einer optimalen Clustering-Lösung führen kann. Diese Probleme schränken den Anwendungsbereich der beiden Verfahren ein. In diesem Papier entwickeln wir ein neues schnelles zweistufiges spektrales Clustering-Framework mit lokaler und globaler Konsistenz. In diesem Rahmen schlagen wir a;-;-;-;https://link.springer.com/article/10.1007/s10618-010-0207-5 bd74e2991bf6e821566c3ab551968960;de;;;7.4.;;;Ein deterministischer Ansatz für das Mining von Assoziationsregeln ohne Attributdiskretisierung Wenn die Attribute beim Mining von Assoziationsregeln numerische Werte haben, besteht die übliche Methode, die in deterministischen Ansätzen verwendet wird, darin, sie zu diskretisieren, um geeignete Intervalle zu definieren. Art und Parameter der Diskretisierung können jedoch die Qualität der erzeugten Regeln maßgeblich beeinflussen. Diese Arbeit stellt eine Methode vor, die auf einer deterministischen Untersuchung des Intervallsuchraums basiert und keine vorherige Diskretisierung verwendet, sondern die dynamische Erzeugung von Intervallen. Der Algorithmus verwendet auch Hilfsdatenstrukturen und bestimmte Optimierungen, um die Suche zu reduzieren und die Qualität der extrahierten Regeln zu verbessern. Es wurden einige Experimente durchgeführt, in denen es mit dem wohlbekannten deterministischen Apriori-Algorithmus verglichen wurde. Außerdem wurde der Algorithmus zur Extraktion von Assoziationsregeln aus einem Datensatz mit Informationen über die afrikanischen Länder südlich der Sahara verwendet, um eine Vielzahl qualitativ hochwertiger Regeln zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22389-1_13 25991fe0e66e3f7498b6fb5880597ea6;de;;;7.4.;;;Klassifikation der Dialogabsicht mit Zeichen-CNN-BGRU-Netzwerken Die Klassifikation der Dialogabsicht spielt eine bedeutende Rolle in Mensch-Computer-Interaktionssystemen. In diesem Beitrag stellen wir ein hybrides neuronales Faltungsnetzwerk und eine bidirektionale Gated Recurrent Unit Neural Network (CNN-BGRU)-Architektur vor, um die Absicht einer Dialogäußerung zu klassifizieren. Zuerst werden Zeicheneinbettungen trainiert und als Eingaben des vorgeschlagenen Modells verwendet. Zweitens wird ein CNN verwendet, um lokale Merkmale aus jeder Äußerung zu extrahieren, und eine maximale Pooling-Schicht wird angewendet, um die wichtigsten latenten semantischen Faktoren auszuwählen. Eine bidirektionale Gated Recurrent Unit (BGRU)-Schichtarchitektur wird verwendet, um die kontextbezogenen semantischen Informationen zu erfassen. Dann werden zwei Merkmalskarten, die die Ausgaben der beiden Architekturen sind, in die endgültige Äußerungsdarstellung integriert. Das vorgeschlagene Modell kann lokale semantische und kontextuelle Informationen verwenden, um die Absicht des Benutzerdialogs auf effiziente Weise zu erkennen und zu klassifizieren. Das vorgeschlagene Modell wird basierend auf einem Social Media Processing (SMP)-Datensatz und einem realen Konversationsdatensatz evaluiert. Die experimentellen Ergebnisse zeigen, dass das vorgeschlagene Modell die entsprechenden traditionellen Methoden übertrifft. Darüber hinaus ist die Klassifizierungsgenauigkeit des vorgeschlagenen Modells im Vergleich zu den CNN- und BGRU-Methoden für den SMP-Datensatz um 1,4 % höher.;-;-;-;https://link.springer.com/article/10.1007/s11042-019-7678-1 a12802a679bd4338aa0272399e02510b;de;;;7.4.;;;Multilabel-Klassifizierung über kalibriertes Label-Ranking Label-Ranking untersucht das Problem, eine Zuordnung von Instanzen zu Rankings über einen vordefinierten Satz von Labels zu lernen. Bisherige Ansätze zum Label-Ranking arbeiten implizit auf einer zugrundeliegenden (Nutz-)Skala, die nicht kalibriert ist, da ihr ein natürlicher Nullpunkt fehlt. Wir schlagen eine geeignete Erweiterung des Label-Rankings vor, die das kalibrierte Szenario einbezieht und die Aussagekraft dieser Ansätze erheblich erweitert. Insbesondere schlägt unsere Erweiterung eine konzeptionell neue Technik zum Erweitern des gemeinsamen Lernens durch paarweisen Vergleichsansatzes auf das Multilabel-Szenario vor, eine Einstellung, die zuvor der paarweisen Zerlegungstechnik nicht zugänglich war. Die Kernidee des Ansatzes besteht darin, ein künstliches Kalibrierungsetikett einzuführen, das in jedem Beispiel die relevanten von den irrelevanten Etiketten trennt. Wir zeigen, dass diese Technik als Kombination aus paarweisen Präferenzlernen und der konventionellen Relevanzklassifikationstechnik angesehen werden kann, bei der ein separater Klassifikator trainiert wird, um vorherzusagen, ob ein Label relevant ist oder nicht. Empirische Ergebnisse im Bereich Textkategorisierung, Bildklassifizierung und Genanalyse unterstreichen die Vorzüge des kalibrierten Modells im Vergleich zu modernen Multilabel-Lernmethoden.;-;-;-;https://link.springer.com/article/10.1007/s10994-008-5064-8 c1d4bd44ecde29c46f14bbe473023c2c;de;;;7.4.;;;Schülerleistungen in Online-Projektmanagement-Kursen: Ein Data-Mining-Ansatz Der Beitrag stellt die Anwendung von Data Mining zur Leistungsanalyse von Studierenden eines zweijährigen Online-Masterstudiengangs Projektmanagement vor. Die wichtigsten Datenquellen für den Mining-Prozess sind die Umfrage zur Erhebung der Meinungen der Studenten, die Betriebsdatenbank mit den Aufzeichnungen der Studenten und Daten zu den Aktivitäten der Studenten, die von der E-Learning-Plattform aufgezeichnet wurden. Mehr als 180 Schüler haben geantwortet und mehr als 150 verschiedene Merkmale/Variablen pro Schüler wurden identifiziert. Aufgrund der großen Anzahl von Variablen ist Data Mining ein empfohlener Ansatz zur Analyse von Daten. Clustering-, Klassifikations- und Assoziationsregeln wurden verwendet, um den Faktor zu identifizieren, der die Leistung der Schüler erklärt. Die Ergebnisse sind sehr ermutigend und deuten auf mehrere zukünftige Entwicklungen hin.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16318-0_60 a0870c3fb3513de3ab1c963eca6cf6f4;de;;;7.4.;;;Ein schnelles und genaues 3D-Feinabstimmungs-Convolutional Neural Network für die Alzheimer-Diagnose Die schnelle und genaue Diagnose der Alzheimer-Krankheit (AD) spielt insbesondere im Frühstadium eine wichtige Rolle in der Patientenversorgung. Die Hauptschwierigkeit liegt im Drei-Klassen-Klassifikationsproblem bei Patienten mit AD, leichter kognitiver Beeinträchtigung (MCI) und normaler Kohorte (NC), aufgrund der hohen Ähnlichkeit der Gehirnmuster und Bildintensitäten zwischen AD und der Magnetresonanztomographie (MRI) von MCI. Bisher wurden in vielen Studien verschiedene Techniken erforscht und angewendet, darunter statische Analysemethoden und maschinelle Lernalgorithmen für die computergestützte Diagnose (CAD) von AD. Es fehlt jedoch immer noch ein Gleichgewicht zwischen Geschwindigkeit und Genauigkeit bestehender Techniken, d. h. schnelle Verfahren sind nicht genau, während genaue Algorithmen nicht schnell genug sind. Dieses Papier schlägt eine neue Deep-Learning-Architektur vor, um den Kompromiss zwischen der Geschwindigkeit und Genauigkeit der AD-Diagnose zu erreichen, die drei binäre und eine drei-Klassen-Klassifizierung in einer einheitlichen Architektur namens 3D Fine-Tuning Convolutional Neural Network (3D-FCNN) vorhersagt. Experimente mit dem Standard-MRT-Datensatz der Alzheimer-Krankheit Neuroimaging Initiative (ADNI) zeigten, dass das vorgeschlagene 3D-FCNN-Modell herkömmlichen Klassifikatoren sowohl in Bezug auf Genauigkeit als auch Robustheit überlegen ist. Die erreichten Genauigkeiten der binären Klassifizierung betragen 96,81 % und eine AUC von 0,98 für AD/NC, 88,43 % und eine AUC von 0,91 für AD/MCI, 92,62 % und eine AUC von 0,94 für MCI/NC. Noch wichtiger ist, dass die Drei-Klassen-Klassifizierung für AD/MCI/NC eine Genauigkeit von 91,32 % erreicht und damit mehrere moderne Ansätze übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2122-1_9 5a02fc3b418228b269848f8b23ffed98;de;;;7.4.;;;Ein kontextuelles Modell zur Informationsextraktion in Lebenslaufanalysen mit NLPs Spacy Das unstrukturierte Dokument wie der Lebenslauf hat unterschiedliche Dateiformate (pdf, txt, doc usw.), und auch die im Lebenslauf verwendete Sprache weist viele Mehrdeutigkeiten und Unterschiede auf. Diese Heterogenität macht die Extraktion nützlicher Informationen zu einer anspruchsvollen Aufgabe. Daraus ergibt sich die dringende Notwendigkeit, den Kontext zu verstehen, in dem Wörter vorkommen. Dieser Artikel schlägt einen maschinellen Lernansatz für den Phrasenvergleich in Lebensläufen vor und konzentriert sich auf die Extraktion spezieller Fähigkeiten mit spaCy, einer erweiterten Bibliothek für die Verarbeitung natürlicher Sprache (NLP). Es kann detaillierte Informationen aus Lebensläufen analysieren und extrahieren wie ein menschlicher Personalvermittler. Es zählt die Phrasen während des Parsens, um Personen basierend auf ihrer Ausbürgerung zu kategorisieren. Durch die Datenvisualisierung mit Matplotlib kann der Entscheidungsprozess beschleunigt werden. Ein relativer Vergleich von Kandidaten kann durchgeführt werden, um die Kandidaten herauszufiltern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4305-4_30 3bdd13343ce3dfa4e2e08e902eca7052;de;;;7.4.;;;Eine visuelle und interaktive Datenexplorationsmethode für große Datensätze und Clustering In diesem Beitrag stellen wir eine neue Methode zur visuellen Exploration großer Datensätze mit bis zu einer Million Objekten vor. Wir heben in diesem Zusammenhang einige Einschränkungen der bestehenden visuellen Methoden hervor. Unser Ansatz basiert auf früheren Systemen wie Vibe, Sqwid oder Radviz, die zur Informationsbeschaffung verwendet wurden: Mehrere Daten, sogenannte Points of Interest (POIs), werden auf einem Kreis platziert. Die verbleibende große Datenmenge wird innerhalb des Kreises an Stellen angezeigt, die von der Ähnlichkeit der Daten mit den POIs abhängen. Mehrere Interaktionen mit dem Benutzer sind möglich und erleichtern das Durchsuchen der Daten. Wir heben die visuellen und rechnerischen Eigenschaften dieser Darstellung hervor: Sie zeigt die Ähnlichkeiten zwischen Daten in einer linearen Zeit, ermöglicht es dem Benutzer, den Datensatz zu erkunden und nützliche Informationen zu erhalten. Wir zeigen, wie es auf „kleine“ Standarddatenbanken angewendet werden kann, entweder auf Benchmarks oder reale Daten. Anschließend liefern wir Ergebnisse zu mehreren großen, realen oder künstlichen Datensätzen mit bis zu einer Million Daten. Wir beschreiben dann sowohl die Erfolge als auch die Grenzen unserer Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73871-8_52 0773c8326b9474cd39d69e7475d9bed8;de;;;7.4.;;;Begrenzte Generalisierungsfähigkeiten von Autoencodern mit logistischer Regression für Trainingssätze kleiner Größe Small Deep Learning ist ein vielversprechender Ansatz, um nützliche nichtlineare Darstellungen von Daten zu extrahieren. Sie wird jedoch meist bei großen Trainingssets angewendet, die in praktischen Aufgabenstellungen nicht immer zur Verfügung stehen. In diesem Papier betrachten wir gestapelte Autoencoder mit logistischer Regression als Klassifikationsschicht und untersuchen ihre Nützlichkeit für die Aufgabe der Bildkategorisierung in Abhängigkeit von der Größe der Trainingssätze. Handgefertigte Bilddeskriptoren werden vorgeschlagen und zum Trainieren von Autoencodern zusätzlich zu den Funktionen auf Pixelebene verwendet. Eine neue Mehrspaltenarchitektur für Autoencoder wird ebenfalls vorgeschlagen. Durchgeführte Experimente zeigten, dass nützliche nichtlineare Merkmale von (gestapelten) Autoencodern nur mit großen Trainingssätzen gelernt werden können, aber aufgrund der Redundanzreduzierung auch bei kleinen Trainingssätzen positive Ergebnisse liefern können. Praktisch brauchbare Ergebnisse (9,1 % Fehlerrate für 6 Klassen) wurden nur mit handgemachten Features auf dem Trainingsset mit 4800 Bildern erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44654-6_25 f2ea2324fbf477a206e87f2352ff013c;de;;;7.4.;;;Datenaufteilungsstrategien für sich entwickelnde Vorhersagemodelle Eine herkömmliche Lehrbuchvorschrift zum Erstellen guter Vorhersagemodelle besteht darin, die Daten in drei Teile aufzuteilen: Trainingssatz (für die Modellanpassung), Validierungssatz (für die Modellauswahl) und Testsatz (für die endgültige Modellbewertung). Vorhersagemodelle können sich im Laufe der Zeit möglicherweise weiterentwickeln, wenn Entwickler ihre Leistung verbessern, indem sie entweder neue Daten erfassen oder das vorhandene Modell verbessern. Der Hauptbeitrag dieses Papiers besteht darin, aufgetretene Probleme zu diskutieren und Arbeitsabläufe vorzuschlagen, um die Zuordnung neu erfasster Daten in verschiedene Sätze in solchen dynamischen Modellbildungs- und Aktualisierungsszenarien zu verwalten. Konkret schlagen wir drei verschiedene Workflows (Parallel Dump, Serial Waterfall und Hybrid) vor, um neue Daten in die bestehenden Trainings-, Validierungs- und Test-Splits zuzuweisen. Besonderer Wert wird auf die Vermeidung von Verzerrungen durch die wiederholte Verwendung der bestehenden Validierung bzw. des Test-Sets gelegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23528-8_1 7029ab796cc8158e169023786590d0cd;de;;;7.4.;;;Ein Hybrid-Clustering basierend auf ACO und Single-Pass Clustering ist eine wichtige Methode des unüberwachten maschinellen Lernens (ML), und Single-Pass-Clustering (SP) ist eine schnelle und kostengünstige Methode, die bei der Ereigniserkennung und Themenverfolgung verwendet wird. Um ein besseres Ergebnis zu erzielen, muss SP in früheren Literaturstellen immer mehrfach ausgeführt werden, da es von der Reihenfolge des Auftretens der Instanzen abhängt, die nicht das globale Optimum ist. Um diese Situation anzugehen, schlug dieses Papier ein Hybrid-Clustering basierend auf Ameisenkolonieoptimierung (ACO) und SP vor, das die globale Optimierungsfähigkeit von ACO und die Überlegenheit von SP ausnutzt und die Ergebnisse von SP als positives Feedback, das in ACO implementiert wurde, aufnimmt die Qualität des Clusterings verbessern. Experimente an zwei UCI-Datensätzen zeigen, dass es besser ist als die mehrfache Ausführung des SP nach zwei verschiedenen Bewertungsmaßen, was seine Wirksamkeit und Verfügbarkeit bestätigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27296-7_10 067d42804b488f466fcd95a246692c86;de;;;7.4.;;;Automatisierte Analyse von Röntgenaufnahmen des Brustkorbs zur Bewertung von Mukoviszidose Wir präsentieren einen Rahmen zur Analyse von Thoraxröntgenaufnahmen auf Mukoviszidose mit Methoden des maschinellen Lernens. Wir vergleichen die Darstellungskraft von Deep-Learning-Features mit traditionellen Textur-Features. Insbesondere verwenden wir VGG-16-basierte Deep-Learning-Funktionen, Tamura- und Gabor-Filter-basierte Texturfunktionen, um die Mukoviszidose-Bilder darzustellen. Wir zeigen, dass die VGG-16-Funktionen mit einer maximalen Übereinstimmung von 82% am besten abschneiden. Darüber hinaus erreichen Tamura-Funktionen für unsegmentierte Bilder aufgrund der begrenzten Dimensionalität nicht mehr als 50% Übereinstimmung, nach der Segmentierung kann die Genauigkeit von Tamura jedoch 78% erreichen. In Kombination mit den Deep-Learning-Funktionen vergleichen wir auch neuronale Backpropagation- und Sparse-Coding-Klassifikatoren mit dem typischen SVM-Klassifikator mit polynomialer Kernelfunktion. Das Ergebnis zeigt, dass neuronale Netze und Klassifikatoren mit geringer Codierung SVM in den meisten Fällen übertreffen. Nur bei unzureichenden Trainingsbeispielen zeigt SVM eine höhere Genauigkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00563-4_22 1d9526e1d9dbf9f6f757f581af10aae2;de;;;7.4.;;;Effizienzvergleich von instabilen transduktiven und induktiven konformen Klassifikatoren In der Literatur zur konformen Vorhersage scheint es axiomatisch zu sein, dass transduktive konforme Klassifikatoren eine höhere Vorhersageeffizienz besitzen als induktive konforme Klassifikatoren, dies hängt jedoch davon ab, ob die Nichtkonformitätsfunktion dazu neigt, fehlklassifizierte Testbeispiele überzupassen. Mit der zunehmenden Popularität des konformen Vorhersage-Frameworks wird es daher notwendig, die Rahmenbedingungen zu klären, in denen diese Behauptung zutrifft. In diesem Beitrag wird die Effizienz transduktiver konformer Klassifikatoren basierend auf Entscheidungsbaum-, Random-Forest- und Support-Vector-Maschine-Klassifikationsmodellen mit der Effizienz entsprechender induktiver konformer Klassifikatoren verglichen. Die Ergebnisse zeigen, dass die Effizienz von konformen Klassifikatoren basierend auf Standard-Entscheidungsbäumen oder Random Forests im induktiven Modus wesentlich verbessert wird, während konforme Klassifikatoren basierend auf Support Vector Machines im transduktiven Modus effizienter sind. Darüber hinaus wird eine Analyse präsentiert, die die Auswirkungen der Größe des Kalibrierungssatzes auf die Effizienz des induktiven konformen Klassifikators diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44722-2_28 ce7541c2b9e1bed0d8799e51dd1c02b0;de;;;7.4.;;;Peer-Analyse von „Sanguj“ mit anderen morphologischen Sanskrit-Analysatoren In der Linguistik ist Morphologie eine Studie über Wort, Wortbildung, seine Analyse und Erzeugung. Ein morphologischer Analysator ist ein Werkzeug, um grammatikalische Merkmale und die Wortartinformationen der Konstituenten zu verstehen. Ein morphologischer Analysator ist ein nützliches Werkzeug in vielen NLP-Implementierungen, wie z. Hier werden 328 Sanskrit-Wörter durch vier morphologische Analysatoren getestet, nämlich:;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2414-1_7 00cd43fb960d300f424e0b43c76cf73a;de;;;7.4.;;;Kombination von Forward mit rekurrenten neuronalen Netzen zur stündlichen Vorhersage der Luftqualität im Nordwesten Chinas Datengesteuerte statistische Methoden zur Vorhersage der Luftqualität erstellen Modelle normalerweise schnell mit mäßiger Genauigkeit und wurden in den letzten Jahren viel untersucht. Aufgrund der Komplexität der Luftqualitätsvorhersage, die normalerweise mehrere Faktoren wie meteorologische, räumliche und zeitliche Eigenschaften umfasst, ist es jedoch immer noch eine Herausforderung, ein Modell mit der erforderlichen Genauigkeit vorzuschlagen. In diesem Papier schlagen wir ein Hybrid-Ensemble-Modell CERL vor, um die Vorteile sowohl vorwärts gerichteter neuronaler Netze als auch rekurrenter neuronaler Netze auszunutzen, die für die Verarbeitung zeitserieller Daten zur stündlichen Vorhersage der Luftqualität ausgelegt sind. Gemessene Luftschadstofffaktoren einschließlich Luftqualitätsindex (AQI), PM;-;-;-;https://link.springer.com/article/10.1007/s11356-020-08948-1 afe30cf853582e9e4cc2b5d6d34244b9;de;;;7.4.;;;Anpassungsfähigkeitsbewertung von KI-Servicesystemen In dieser Studie betrachten wir die Übernahme von Servicesystemen mit künstlicher Intelligenz (KI), die in einem Geschäftsbereich entwickelt wurden, in andere Domänen. Wir schlagen eine Methode vor, um zu beurteilen, ob wir ein bestehendes KI-Dienstleistungssystem auf eine andere Geschäftsaufgabe anwenden können. Wir identifizieren Bedingungen für die Einführung des KI-Servicesystems und bestätigen durch Experimente, dass wir vorhersagen können, ob die Beispieleingaben für eine neue Geschäftsaufgabe für das bestehende System funktionieren können, indem wir auf die Bedingungen ohne die Unterstützung von Datenwissenschaftlern verweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-53949-8_8 7989c0b9a76176767ca0d87f1a42492b;de;;;7.4.;;;Faktoren, die die Stimmungsvorhersage malaiischer Schlagzeilen mit maschinellen Lernansätzen beeinflussen Die meisten Sentimentanalysen werden mit Hilfe von überwachten maschinellen Lerntechniken durchgeführt. Die Stimmungsanalyse für diese englischen Textrezensionen ist eine nicht triviale Aufgabe, um die öffentliche Wahrnehmung und Akzeptanz eines bestimmten Themas zu messen. Dennoch gibt es nicht viele Studien, die zur Analyse der Stimmung malaiischer Schlagzeilen aufgrund fehlender Ressourcen und Tools durchgeführt wurden. Die malaiischen Schlagzeilen bestehen normalerweise aus wenigen Worten und werden oft mit Kreativität geschrieben, um die Aufmerksamkeit der Leser zu erregen. Dieses Papier schlägt einen Standardrahmen vor, der Faktoren untersucht, die die Stimmungsvorhersage von malaiischen Nachrichtenschlagzeilen mit Hilfe von maschinellen Lernansätzen beeinflussen. Es ist wichtig, Faktoren zu untersuchen (z. B. Arten von Klassifikatoren, Näherungsmessungen und Anzahl der nächsten Nachbarn,;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-2777-2_26 6db80e87bb992ca559f4d69ad25201d7;de;;;7.4.;;;Entscheidungsbäume aus Streams abbauen Viele Unternehmen verfügen heute über mehr als sehr große Datenbanken, sie verfügen über Datenbanken, die mit einer Geschwindigkeit von mehreren Millionen Datensätzen pro Tag unbegrenzt wachsen. Das Mining dieser kontinuierlichen Datenströme bringt einzigartige Möglichkeiten, aber auch neue Herausforderungen mit sich. Wir präsentieren eine Methode, die halbautomatisch eine breite Klasse bestehender Lernalgorithmen verbessern kann, damit sie in Echtzeit aus solchen Hochgeschwindigkeits-Datenströmen lernen können. Die Methode funktioniert, indem gerade genug Daten aus dem Datenstrom abgetastet werden, um jede für den Lernprozess erforderliche Entscheidung zu treffen. Das Verfahren ist im Wesentlichen auf jeden Induktionsalgorithmus anwendbar, der auf diskreter Suche basiert. In diesem Kapitel veranschaulichen wir die Anwendung unserer Methode, indem wir sie auf die vielleicht am weitesten verbreitete Form des Data Mining anwenden: Entscheidungsbauminduktion.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-28608-0_9 54783f9a8c43dbaa72cd8a7798e8c387;de;;;7.4.;;;Ableitung der funktionellen Konnektivität in der fMRT mit minimaler Teilkorrelation Funktionelle Konnektivität hat sich als vielversprechender Ansatz herausgestellt, um die funktionelle Organisation des Gehirns zu untersuchen und Merkmale zur Vorhersage des Gehirnzustands zu definieren. Die am weitesten verbreitete Methode zur Ableitung funktioneller Konnektivität ist die Pearson-Korrelation, die jedoch keine direkten und indirekten Effekte unterscheiden kann. Dieser Nachteil wird oft vermieden, indem die partielle Korrelation zwischen zwei Regionen berechnet wird, die alle anderen Regionen kontrollieren, aber dieses Verfahren leidet unter dem Berkson-Paradoxon. Einige fortgeschrittene Methoden, wie die regularisierte inverse Kovarianz, wurden angewendet. Diese Methoden hängen jedoch in der Regel von einigen Parametern ab. Hier schlagen wir die Verwendung der minimalen partiellen Korrelation als parameterfreies Maß für das Skelett der funktionellen Konnektivität in der funktionellen Magnetresonanztomographie (fMRT) vor. Die minimale Teilkorrelation zwischen zwei Regionen ist das Minimum der absoluten Werte von Teilkorrelationen durch Kontrolle aller möglichen Teilmengen anderer Regionen. Theoretisch gibt es einen direkten Effekt zwischen zwei Regionen genau dann, wenn ihre minimale partielle Korrelation unter Treue- und Gaußschen Annahmen nicht Null ist. Der elastische PC-Algorithmus wurde entwickelt, um eine minimale Teilkorrelation innerhalb eines Rechenzeitbudgets effizient anzunähern. Die Simulationsstudie zeigt, dass die vorgeschlagene Methode in den meisten Fällen andere übertrifft, und ihre Anwendung wird anhand eines fMRT-Datensatzes im Ruhezustand aus dem Human-Connectome-Projekt veranschaulicht.;-;-;-;https://link.springer.com/article/10.1007/s11633-017-1084-9 aedc1255aa4dbbc798cca02a516ab1a7;de;;;7.4.;;;Innovativer Textextraktionsalgorithmus basierend auf TensorFlow Das Extrahieren von Informationen zur Gewerbeanmeldung unter Verwendung von grafischen Erkennungsalgorithmen im Internet ist heutzutage für das E-Commerce-Geschäft von entscheidender Bedeutung. Jedoch werden Geschäftsregistrierungsinformationen normalerweise in Grafiken dargestellt, und existierende Grafikerkennungssysteme wurden aufgrund ihrer langsamen Erkennungsgeschwindigkeit, geringen Genauigkeit und komplexen Operationen behindert. Dabei schlagen wir einen innovativen Textextraktionsalgorithmus basierend auf TensorFlow (TEAT) vor. Wir verwenden zuerst den Webcrawler, um die Datenquelle zu erhalten, und extrahieren dann die Zeicheninformationen mithilfe unseres TEAT basierend auf der TensorFlow-Framework-Erkennungstechnologie. Unser TEAT-Algorithmus kann Informationen zur Gewerbeanmeldung effizient und effektiv extrahieren. Im Vergleich zu einem bestehenden Textextraktionsalgorithmus basierend auf dem Tess4j-Framework zum Extrahieren von Tmall-Shop-Geschäftslizenzbildinformationen hat unser TEAT offensichtliche Vorteile gegenüber dem Tess4j-Framework mit höherer Genauigkeit und Effizienz.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-5841-8_55 df9c022e7ea970f46285481f164a1714;de;;;7.4.;;;Ein intelligentes Erkennungs- und Benachrichtigungssystem (iDN) für den Umgang mit Ferkelzerkleinerung basierend auf maschinellem Lernen Die Ferkelzerkleinerung, die die Ferkelsterblichkeit verursacht, ist ein wichtiges Thema für Schweinezüchter. Durchschnittlich werden 0,05 Ferkel pro Stunde von den Sauen zerkleinert. Um den Tierschutz zu berücksichtigen und die Ferkelsterblichkeit zu reduzieren, nutzt dieses Papier das Internet der Dinge (IoT) und Technologien des maschinellen Lernens, um ein intelligentes Erkennungs- und Benachrichtigungssystem (iDN) für den Umgang mit Ferkelzerkleinerung zu entwickeln. Wenn Ferkel zerquetscht werden, informiert das iDN den Landwirt, um die Zerkleinerungsereignisse zu behandeln. Dieses Papier stellt die Architektur und die Komponenten des iDN-Systems vor, erläutert die Entwicklung des Modells für maschinelles Lernen und analysiert die Beziehung zwischen der Genauigkeit und verschiedenen Methoden zur Funktionsverbesserung und verschiedenen Parametern des Modells für maschinelles Lernen. Darüber hinaus untersucht dieser Beitrag die optimalen Parameter des Machine-Learning-Modells.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6113-9_53 8ab3ac736b221641354e80c64b9e3626;de;;;7.4.;;;Eine vergleichende Studie zur Computerintelligenz zur Identifizierung von Brustkrebs Brustkrebs ist eine invasive Krebsart, die bei Frauen auftritt. Laut Weltgesundheitsorganisation ist Brustkrebs für 18% aller krebsbedingten Todesfälle bei Frauen verantwortlich. Brustkrebs ist nach Lungenkrebs die häufigste Todesursache bei Frauen in Indien. Aufgrund der Unzugänglichkeit, insbesondere in ländlichen Gebieten, ist es unmöglich, dass jeder rechtzeitig diagnostiziert wird. Wird Brustkrebs in einem frühen Stadium erkannt, wird dem Arzt geholfen, eine effiziente Vorgehensweise bei der Behandlung der Patientin vorzuschlagen und so die Sterblichkeitsrate und die medizinischen Kosten zu senken. In diesem Artikel wurde daher eine vergleichende Studie zu maschinellen Lern- und Computerintelligenztechniken durchgeführt, um den Prozess zu optimieren und eine bessere Genauigkeit und Präzision zu erreichen. Der Schwerpunkt dieses Übersichtsartikels liegt auf der Untersuchung mehrerer Artikel zu Brustkrebs, hauptsächlich auf dem Wisconsin-Datensatz, der aus dem UCI-Repository stammt. Dieser Übersichtsartikel wurde mit Vorschlägen für zukünftige Richtungen abgeschlossen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6315-7_17 c335d7fdd815fb42d80810a93c043c2a;de;;;7.4.;;;Verbesserung der Peer-to-Peer-Kommunikation im E-Learning durch Entwicklung eines fortschrittlichen Messaging-Systems Dieses Kapitel stellt ein fortschrittliches Messaging-System vor, dessen Ziel es ist, die Peer-to-Peer-Kommunikation im E-Learning zu verbessern. Die Verbesserung basiert auf der Fähigkeit des entwickelten Systems, Informationen zu erzeugen, die stark mit den Informationsbedürfnissen der Person verbunden sind, die darauf zugreift. Das System ist intelligent, weil es ein Klassifikationsverfahren zum Auffinden der Nachrichten integriert, die ein hohes Potenzial haben, für Peers interessant zu sein. Es verwendet als Eingabedaten Aktivitätsprotokolle, die durch die Überwachung der Kommunikation innerhalb der e-Learning-Plattform erhalten wurden. Das Hauptziel der Datenanalyse besteht darin, ein Benutzermodell zu erstellen, für das abgeleitete Klassen in enger Beziehung zu einem bestimmten Satz von Nachrichten stehen. Das Ergebnis ist ein Tool, das es den Lernenden ermöglicht, eine Reihe von empfohlenen Nachrichten zu erhalten, die für sie sehr interessant sind. Das Tool analysiert die Merkmale des Benutzers, klassifiziert sie und erhält anhand des Klassenlabels eine Reihe von Nachrichten. Das Tool fungiert auch als Nachrichtenindexierungssystem, indem es Nachrichten in Korrelation mit den Lernenden zugewiesenen Labels speichert. Zur Erlangung einer Kennzeichnung wird ein klassisches Klassifizierungsverfahren verwendet. Die zum Trainieren des Klassifikators verwendeten Daten werden aus der Online-Bildungsumgebung gesammelt und enthalten alle erforderlichen Informationen (d. Die hohe Qualität des Systems basiert auch auf einem Text-Mining-Modul, das Wortstamm, Annotation und Konzepterkennung für eine korrekte Zuordnung von Nachrichten zu Lerner-Label verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-17744-1_4 0207a2e243a484cd79b2857986076597;de;;;7.4.;;;Spektrales Clustering mit einem konvexen Regularizer auf Millionen von Bildern Dieser Artikel konzentriert sich auf effiziente Algorithmen für das Spektralclustering mit einer und mehreren Ansichten mit einem konvexen Regularisierungsterm für sehr große Bilddatensätze. In Computer-Vision-Anwendungen bezeichnen mehrere Ansichten unterschiedliche bildabgeleitete Merkmalsdarstellungen, die die Clusterbildung informieren. Getrennt davon codiert die Regularisierung Ratschläge auf hoher Ebene wie Tags oder Benutzerinteraktion bei der Identifizierung ähnlicher Objekte in Beispielen. Abhängig von der spezifischen Aufgabe können Schemata zum Ausnutzen solcher Informationen zu einer glatten oder nicht glatten Regularisierungsfunktion führen. Wir präsentieren stochastische Gradientenabstiegsverfahren zur Optimierung von spektralen Clustering-Zielen mit solchen konvexen Regularisierern für Datensätze mit bis zu hundert Millionen Beispielen. Wir beweisen, dass unter milden Bedingungen die lokale Konvergenzrate;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-10578-9_19 8ee688ca073854dfb8a4359428aba294;de;;;7.4.;;;Automatische Erkennung von Vibrationswellenformen mithilfe von Convolutional Neural Network Ein schnelles Verifikationsmodell von Einbruchsignalen im Schwingungsüberwachungssystem kann verwendet werden, um die Geschwindigkeit und Genauigkeit der Schwingungserkennung und der Mikroseismusforschung zu verbessern. Existierende Verfahren zur Wellenformerkennung beruhen auf einer Vorverarbeitung des Wellenformsignals, wie z. B. Abschneiden und Ausrichten. Die Anforderungen eines hohen Signal-Rausch-Verhältnisses für Wellenformsignale machen diese Verfahren hinsichtlich Genauigkeit und Geschwindigkeit ungenau. Durch die Verwendung des verbesserten VGG16-Modells zur Erkennung seismischer Wellenformen, um zwei Arten von Vibrationssignalen zu identifizieren, wird ein Modell zur intelligenten Erkennung von Vibrationssignalen basierend auf neuronalen Faltungsnetzwerken verwendet, um zwei Arten von Vibrationswellenformerkennung zu identifizieren. Die Testgenauigkeit des Modells betrug 96,8 % und die Einzelbilderkennungszeit betrug 0,069 s. Die Experimente zeigen, dass dieser Algorithmus mit dem Phasenausrichtungsproblem umgehen und Wellenformdaten mit kleiner Abtastgröße effektiv klassifizieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-62463-7_48 ad23e30a2286b344e819523434346104;de;;;7.4.;;;Maschinelle Entdeckung von Proteinmotiven Die Untersuchung der Beziehungen zwischen Proteintertiärstruktur und Aminosäuresequenz ist ein Thema von enormer Bedeutung in der Molekularbiologie. Die automatisierte Entdeckung wiederkehrender Struktur- und Sequenzmuster ist ein wesentlicher Bestandteil dieser Untersuchung. Diese Muster, bekannt als;-;-;-;https://link.springer.com/article/10.1007/BF00993382 b823a65e79a6153749f730a4f9c1aadc;de;;;7.4.;;;Ein Merkmalsauswahlalgorithmus basierend auf einer Unterscheidbarkeitsmatrix In dem Beitrag wird ein heuristischer Algorithmus zur Reduktionsberechnung für die Merkmalsauswahl vorgeschlagen, der eine auf Erkennbarkeitsmatrix basierende Methode ist und darauf abzielt, die Anzahl irrelevanter und redundanter Merkmale beim Data Mining zu reduzieren. Das Verfahren verwendet sowohl Signifikanzinformationen von Attributen als auch Informationen der Erkennbarkeitsmatrix, um die Notwendigkeit einer heuristischen Merkmalsauswahl zu definieren. Der Vorteil des Algorithmus besteht darin, dass er in den meisten Fällen eine optimale Reduzierung für die Merkmalsauswahl finden kann. Experimentelle Ergebnisse bestätigten die obige Behauptung. Es zeigte sich auch, dass der vorgeschlagene Algorithmus im Vergleich zu anderen ähnlichen Berechnungsmethoden effizienter in der Zeitleistung ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74377-4_28 af3bb7e17bc948562c5f401e1de96eef;de;;;7.4.;;;Inferenz von gleichzeitig auftretenden Klassen: Multi-Klassen- und Multi-Label-Klassifizierung Die Inferenz von co-auftretenden Klassen, dh Multi-Class- und Multi-Label-Klassifikation, ist relevant für verschiedene Aspekte der menschlichen Kognition, der Mensch-Maschine-Interaktionen und für die Analyse von Wissensdomänen und -prozessen, die traditionell in den Sozialwissenschaften untersucht wurden, Lebenswissenschaften und Geisteswissenschaften. Menschliche Wissensrepräsentationen umfassen normalerweise mehrere Klassen, die sich selten gegenseitig ausschließen. Jede Instanz (Beispiel) kann einer oder mehreren dieser Klassen angehören. Eine vollständige Beschriftung ist jedoch nicht immer möglich und die Größe der durchgängig beschrifteten ist oft begrenzt. Der Existenzgrad einer Klasse variiert oft zwischen Instanzen oder Unterklassen. Die Merkmale, die die Klassen unterscheiden, sind nicht immer bekannt und können sich zwischen den Klassen unterscheiden. Daher sollten Methoden entwickelt werden, um eine Mehrklassen- und Mehrmarkenklassifizierung durchzuführen und die Herausforderungen, die mit den komplexen Wissensdomänen verbunden sind, anzugehen. In diesem Kapitel werden aktuelle Ansätze zur Mehrklassen- und Mehrmarkenklassifizierung in verschiedenen Wissensdomänen sowie Ansätze zur Datenannotation (Kennzeichnung) untersucht. Insbesondere präsentiert es einen Klassifikationsalgorithmus, der entwickelt wurde, um die Ebenen gleichzeitig auftretender affektiver Zustände (Emotionen, mentale Zustände, Einstellungen usw.) aus ihren nonverbalen Ausdrücken in der Sprache abzuleiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24049-2_9 fdd4415100a4d0278a735c374dd135b9;de;;;7.4.;;;Alterungsbedingte Einschränkungen und Anpassungen in der sozialen Informationsverarbeitung Ein zentrales Ziel bei der Erforschung der Erwachsenenentwicklung ist es zu verstehen, wie sich Individuen an Veränderungen in ihrer Umgebung und an sich selbst anpassen. Dieses Kapitel konzentriert sich auf soziale kognitive Funktionen, um adaptive Prozesse zu untersuchen. Es wird vorgeschlagen, dass das Altern einen vielschichtigen Einfluss auf die soziale Kognition hat, der sich in Einschränkungen der sozialen Informationsverarbeitung im Zusammenhang mit abnehmenden kognitiven Ressourcen, spezifischen Anpassungen an solche Einschränkungen und der Entwicklung leistungsfähiger interpretativer Strukturen manifestiert. Es werden Forschungsarbeiten vorgestellt, die zeigen, dass das Altern mit weniger genauen, weniger spezifischen und voreingenommeneren sozialen Repräsentationen verbunden ist als zu früheren Zeitpunkten im Erwachsenenalter. Es werden jedoch zusätzliche Daten vorgelegt, die darauf hindeuten, dass solche Effekte nicht nur Einschränkungen im Zusammenhang mit kognitiven Ressourcen widerspiegeln, sondern auch die selektive Zuweisung begrenzter Ressourcen im Zusammenhang mit Zieländerungen und/oder umfangreichen Erfahrungen im sozialen Bereich.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4373-8_5 586cf0f33ca35e6700d19a5bd685cfbf;de;;;7.4.;;;Vergleichende Analyse tiefer neuronaler Netze zur Klassifikation von Rissbildern Deep Learning (DL) wird häufig bei verschiedenen Arten von Klassifizierungsproblemen in Echtzeit verwendet. DL-Modelle können auf zwei Arten konstruiert werden, nämlich Convolutional Neural Network (CNN) und unter Verwendung vortrainierter Modelle wie VGG16, VGG19 und Inception ResNet V2. In diesem Beitrag wird ein Ansatz zur automatischen Rissbildklassifizierung vorgeschlagen und unter Verwendung von CNN und vortrainierten Modellen implementiert. Zur Validierung werden drei Arten von Datensätzen mit sowohl verbesserten als auch ohne verbesserte Rissbilder verwendet und das Ergebnis der Klassifikation mit geeigneten quantitativen Metriken wie Genauigkeit, Präzision und Wiedererkennungswert analysiert. Aus den Ergebnissen wurde abgeleitet, dass das vorgeschlagene CNN abgeleitet istNN die höchste Genauigkeit von 99 % für Datensatz 1, während das Inception ResNet V2-Modell die höchste Genauigkeit von 87 % bzw. 94 % für Datensatz 2 bzw. Datensatz 3 ableitete.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-34080-3_49 08c84310485dbe20102c0a2a8ca8c9d7;de;;;7.4.;;;Hybridmodell zur Verbesserung der Flussvorhersage unter Verwendung eines mehrschichtigen Perzeptron-basierten intelligenten Wassertropfen-Optimierungsalgorithmus Modelle der künstlichen Intelligenz (KI) wurden effektiv angewendet, um bestimmte Variablen in verschiedenen technischen Anwendungen vorherzusagen/vorherzusagen, insbesondere wenn diese Variable hochgradig stochastischer Natur und komplex zu identifizieren ist, indem klassische mathematische Modelle, wie z. Die bestehenden KI-Modelle, wie das Multi-Layer Perceptron Neural Network (MLP-NN), sind jedoch grundsätzlich unverständlich und stehen bei der Anwendung zur Zeitreihenvorhersage oder -vorhersage vor Problemen. Einer der Hauptnachteile des MLP-NN-Modells ist die Fähigkeit des verwendeten Standardoptimierungsalgorithmus [gradient decent algorithm (GDA)], nach den optimalen Gewichtungs- und Bias-Werten zu suchen, die jedem Neuron innerhalb der MLP-NN-Architektur zugeordnet sind. Tatsächlich ist GDA ein Iterationsalgorithmus erster Ordnung, der normalerweise in lokalen Minima gefangen ist, insbesondere wenn die Zeitreihen stark stochastisch sind, wie in den historischen Aufzeichnungen von Flussströmungen. Als Ergebnis erfuhr die Gesamtleistung des MLP-NN-Modells eine ungenaue Vorhersage oder Vorhersage für die gewünschte Ausgabe. Darüber hinaus besteht aufgrund der Möglichkeit einer Überanpassung mit dem MLP-Modell, die zu einer schlechten Vorhersageleistung des unsichtbaren Eingabemusters führen kann, die Notwendigkeit, einen neuen erweiterten Algorithmus einzuführen, der in der Lage ist, die Komplexität von Stromflussdaten zu identifizieren und die Vorhersagegenauigkeit zu verbessern. Daher wird in dieser Studie ein Ersatz für den GDA mit einem fortschrittlichen Optimierungsalgorithmus, nämlich Intelligent Water Drop (IWD), vorgeschlagen, um das Suchverfahren für die globalen Optima zu verbessern. Das neue vorgeschlagene Prognosemodell ist nämlich MLP-IWD. Von den Stationen Nong Son und Thanh My im Einzugsgebiet des Flusses Vu Gia Thu Bon wurden für den Zeitraum zwischen 1978 und 2016 zwei verschiedene historische Flussdaten gesammelt, um die Leistung des vorgeschlagenen MLP-IWD-Modells zu untersuchen. Um die Leistungsfähigkeit des vorgeschlagenen MLP-IWD-Modells unter verschiedenen Bedingungen zu bewerten, wurden außerdem vier verschiedene Szenarien für die Modell-Input-Output-Architektur untersucht. Die Ergebnisse zeigten, dass das vorgeschlagene MLP-IWD-Modell das klassische MLP-NN-Modell übertraf und die Vorhersagegenauigkeit für den Flussstrom erheblich verbessert. Schließlich könnte das vorgeschlagene Modell verallgemeinert und in verschiedenen Flüssen weltweit angewendet werden.;-;-;-;https://link.springer.com/article/10.1007/s00500-020-05058-5 105375b9a75cab35192f387c3e71f6cf;de;;;7.4.;;;Erkennung von Eindringversuchen durch nicht übereinstimmendes halbüberwachtes Lernen: Verbesserung der Erkennung und Reduzierung von Fehlalarmen Mit der Entwicklung von Intrusion Detection Systemen (IDSs) wurden eine Reihe von Ansätzen des maschinellen Lernens auf die Intrusion Detection angewendet. Für einen traditionellen überwachten Lernalgorithmus sollten im Voraus Trainingsbeispiele mit Ground-Truth-Labels angegeben werden. In realen Anwendungen ist jedoch die Anzahl der gekennzeichneten Beispiele begrenzt, während viele unmarkierte Daten weithin verfügbar sind, da die Kennzeichnung von Daten einen großen menschlichen Aufwand erfordert und daher sehr teuer ist. Um dieses Problem zu mildern, wurden mehrere halbüberwachte Lernalgorithmen vorgeschlagen, die darauf abzielen, Daten automatisch ohne menschliches Eingreifen zu kennzeichnen, um nicht gekennzeichnete Daten zur Verbesserung der Leistung von IDSs zu verwenden. In diesem Papier versuchen wir, einen nicht übereinstimmenden, halbüberwachten Lernalgorithmus auf die Anomalieerkennung anzuwenden. Basierend auf unseren früheren Arbeiten wenden wir diesen Ansatz weiter an, um einen Falschalarmfilter zu konstruieren und seine Leistung der Alarmreduktion in einer Netzwerkumgebung zu untersuchen. Die experimentellen Ergebnisse zeigen, dass das auf Meinungsverschiedenheiten basierende Schema sehr effektiv bei der Erkennung von Einbrüchen und der Reduzierung von Fehlalarmen ist, indem nicht gekennzeichnete Daten automatisch gekennzeichnet werden, und dass seine Leistung durch Zusammenarbeit mit aktivem Lernen weiter verbessert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35362-8_36 3721399a69573e0cf5e440e68764088b;de;;;7.4.;;;Das Problem der Maschinenethik in der Künstlichen Intelligenz Das Aufkommen des intelligenten Roboters hat in den letzten Jahrzehnten eine bedeutende Stellung in der Gesellschaft eingenommen und neue gesellschaftliche Fragen aufgeworfen. Wie wir wissen, besteht das primäre Ziel der künstlichen Intelligenz oder der Roboterforschung nicht nur darin, fortschrittliche Programme zur Lösung unserer Probleme zu entwickeln, sondern auch geistige Qualitäten in Maschinen zu reproduzieren. Die kritische Behauptung der Befürworter der künstlichen Intelligenz (KI) ist, dass es keinen Unterschied zwischen Verstand und Maschinen gibt und sie argumentieren daher, dass es Möglichkeiten für eine Maschinenethik gibt, genauso wie für eine menschliche Ethik. Im Gegensatz zur Computerethik, die sich traditionell auf ethische Fragen der menschlichen Nutzung von Maschinen konzentrierte, befasst sich die KI oder Maschinenethik mit dem Verhalten von Maschinen gegenüber menschlichen Benutzern und möglicherweise auch anderen Maschinen und der Ethik dieser Interaktionen. Das ultimative Ziel der Maschinenethik, so die KI-Wissenschaftler, ist es, eine Maschine zu schaffen, die selbst einem idealen ethischen Prinzip oder einer Reihe von Prinzipien folgt, dh von diesem oder diesen Prinzipien bei Entscheidungen geleitet wird, über die sie trifft mögliche Handlungsmöglichkeiten;-;-;-;https://link.springer.com/article/10.1007/s00146-017-0768-6 5a7310089a08437c3158fe6685a70e85;de;;;7.4.;;;Analyse zum Aufbau eines ideologischen und politischen Bildungssystems für College-Studenten auf Basis eines mobilen Terminals für künstliche Intelligenz Mit der Entwicklung der modernen mobilen Kommunikation hat die künstliche Intelligenz (KI) Einzug in das Leben der Menschen gehalten und verändert auch ständig den modernen Bildungsmodus. In diesem Beitrag wird zunächst die Struktur von BPN (Backpropagation Network) entworfen. Auf dieser Grundlage wird ein genetischer Algorithmus zur Optimierung angewendet, der die Konvergenzgeschwindigkeit beschleunigen und den Effekt der globalen Optimierung erzielen kann. Die aus der Forschung gewonnenen Ergebnisse erfüllen auch den erwarteten Wert und realisieren den Zweck der Optimierung des BP-Algorithmus. Dieser Beitrag analysiert das KI-Lehrexpertensystem, fasst seine Funktionen und Eigenschaften zusammen und weist darauf hin, dass das ideologische und politische Lehrsystem der Studierenden auf Basis des mobilen KI-Terminals als Lehrmanager, Lehrassistent und sogar als Lehrender eingesetzt werden kann Ziel, das Lernen der Schüler zu lenken. Gleichzeitig weist der Artikel auch darauf hin, dass die Anwendung und Entwicklungsrichtung der Künstlichen Intelligenz im Lehrbereich in drei Phasen unterteilt werden kann: Primäranwendung, Zwischenanwendung und fortgeschrittene Anwendung, um eine theoretische Anleitung für die Konstruktion Analyse des ideologischen und politischen Lehrsystems für College-Studenten mit mobilen Endgeräten der künstlichen Intelligenz.;-;-;-;https://link.springer.com/article/10.1007/s00500-020-04932-6 32804384cb4576952971d3cfd71d4fdf;de;;;7.4.;;;Trends der Bildungstechnologie in Korea und den USA: Ein Bericht über die Podiumsdiskussion der AECT-Korean Society for Educational Technology (KSET) Die Korean Society for Educational Technology (KSET) veranstaltete ihre zweite Podiumsdiskussion in Zusammenarbeit mit der Association for Educational Communications and Technology (AECT) auf der AECT Convention 2019 in Las Vegas, Nevada. Insgesamt vier Podiumsteilnehmer, zwei aus Korea und zwei aus den USA, nahmen eine Stunde lang an der Diskussion über die Trends der Bildungstechnologie in Korea und in den USA teil. Behandelte Themen waren Smart Schools in einer Smart City in Korea, Besonderheiten mobiler Lernumgebungen, Learning Analytics für die Unterrichtsgestaltung und künstliche Intelligenz für die lernwissenschaftliche Forschung.;-;-;-;https://link.springer.com/article/10.1007/s11528-020-00493-5 cf3cc6abe12cac42498235893d856a86;de;;;7.4.;;;Kompetenzen für Industrie 4.0 ist ein Begriff, der den radikalen Wandel der Industrie darstellt, der aus der Integration neuer Technologien resultiert. Es impliziert, dass wir Zeugen der Nähe der Vierten Industriellen Revolution sind.;-;-;-;https://link.springer.com/article/10.1007/s12008-020-00716-2 31d452d07dc1641c32b0d9a81eadd65d;de;;;7.4.;;;Forschung zu den Hybridmodellen von Granular Computing und Support Vector Machine Die Hybridmodelle von Granular Computing und Support Vector Machine sind eine Art neuer Algorithmen für maschinelles Lernen, die auf Granular Computing und statistischer Lerntheorie basieren. Diese Hybridmodelle können die Vorteile jedes Algorithmus effektiv nutzen, sodass ihre Leistung besser ist als die einer einzelnen Methode. Aufgrund ihrer hervorragenden Lernleistung sind die hybriden Modelle aus Granular Computing und Support Vector Machine im In- und Ausland in den Fokus gerückt. In diesem Artikel wird die Forschung zu den Hybridmodellen überprüft, zu denen Fuzzy Support Vector Machine, Grobe Support Vector Machine, Quotient Space Support Vector Machine, Rough Fuzzy Support Vector Machine und Fuzzy Grob Support Vector Machine gehören. Zunächst stellen wir kurz die typischen granularen Rechenmodelle und die grundlegende Theorie von Support Vector Machines vor. Zweitens beschreiben wir die jüngsten Fortschritte dieser Hybridmodelle in den letzten Jahren. Abschließend weisen wir auf die Forschungs- und Entwicklungsperspektiven der hybriden Algorithmen hin.;-;-;-;https://link.springer.com/article/10.1007/s10462-013-9393-z 492d0bd55b079d01c6942077e2c8697c;de;;;7.4.;;;DeeptransMap: ein beträchtlich tiefes Transmissionsschätzungsnetzwerk für die Entnebelung von Einzelbildern Aufgrund des schlecht gestellten Phänomens des klassischen physikalischen Modells war die auf dem Modell basierende Einzelbild-Entnebelung eine herausfordernde Sehaufgabe. In den letzten Jahren Anwendung von Techniken des maschinellen Lernens zur Schätzung eines kritischen Parameters;-;-;-;https://link.springer.com/article/10.1007/s11042-018-6536-x 105b3afa2f2a661080acf0174b648e5b;de;;;7.4.;;;Auswirkungen der Verwendung eines Widescreen-Displays auf den Informationsabruf In den letzten Jahren sind PC-Bildschirme immer breiter und größer geworden. Die Natur unseres Gesichtsfeldes ist, dass die Sehschärfe am höchsten ist, wenn jemand in die Mitte von etwas schaut, wodurch der zentrale Teil am klarsten erscheint. In dieser Studie wurden ein Breitbild-Display und ein herkömmliches Display verwendet, das ein abzurufendes Zeichen in der Mitte des Bildschirms darstellt. An 10 Stellen am rechten oder linken Bildschirmrand wurden zehn Zeichen angezeigt. Die Studienteilnehmer wurden dann gebeten, ein bestimmtes Zeichen aus den 10 Zeichen herauszusuchen. Anschließend analysierte diese Studie die Beziehung zwischen der Abrufzeit und der Anzeigeposition des Zeichens in der Breitbildanzeige und der traditionellen Anzeige. Die Auswirkungen der Verwendung des Breitbild-Displays auf das Abrufen von Informationen wurden untersucht. Fokussierte Aufmerksamkeit auf die Mitte eines Bildschirms kann die Wahrnehmung von Informationen, die direkt über der Mitte des rechten Rands, in der Mitte des rechten Rands und knapp unter der Mitte des rechten Rands angezeigt werden, verzögern oder sogar verhindern. Informationen sollten auf Breitbildschirmen unter Berücksichtigung dieser einzigartigen menschlichen visuellen Eigenschaften angezeigt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-74605-6_93 33f895c228ca0f41d0dd332e116c1952;de;;;3.2.;;;Ein Multi-Commodity-Netzwerkflussmodell für Cloud-Service-Umgebungen Systeme der nächsten Generation, wie die Big-Data-Cloud, müssen mit mehreren Herausforderungen fertig werden, z . Resilienz ist ein solches Konzept, das, wenn es durch Systeme oder Netzwerke sichergestellt wird, in der Lage ist, angesichts verschiedener Fehler und Herausforderungen ein akzeptables Serviceniveau bereitzustellen und aufrechtzuerhalten. In diesem Beitrag untersuchen wir das Problem der Multi-Commodity-Ströme als Aufgabe innerhalb unserer;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-44188-7_14 989df130984126095efccf56bf278be2;de;;;7.4.;;;Data-Mining-Vortex-Kerne gleichzeitig mit numerischen Strömungssimulationen Computational Fluid Dynamics (CFD)-Simulationen stellen eine Vielzahl von Herausforderungen beim Data Mining. In erster Linie können CFD-Berechnungen auf teuren Hochleistungsclustern wochenlange Berechnungen erfordern, was die Untersuchung der Ergebnisse verzögert, bis eine vollständig konvergierte Lösung erhalten wird. Außerdem können durch fortschrittliche Modellierung große Datensätze erstellt werden, bei denen die Gefahr besteht, dass nützliche Flussinformationen verborgen statt preisgegeben werden. Twentyfirst Century Systems, Inc. und die Brigham Young University haben an einem gleichzeitigen agentenfähigen Feature-Extraktionsprojekt zusammengearbeitet, das entwickelt wurde, um Forschern während der Ausführung einer CFD-Simulation intelligentes Feedback zu geben. Dieser Ansatz kann Strömungsmerkmale extrahieren, während eine Simulation läuft, und dann deren erwartete Wahrscheinlichkeit für eine vollständige Simulation projizieren. Dieser Artikel gibt einen detaillierten Überblick über unseren Ansatz und zeigt dann die Ergebnisse unseres implementierten Ansatzes an zwei Beispiel-CFD-Datensätzen. Die Ergebnisse zeigen, dass Vortex-Kernmerkmale erfolgreich extrahiert werden können, während eine Simulation läuft, und Informationen bis zu 50 % früher liefern, als auf eine vollständige Simulationskonvergenz zu warten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07812-0_15 9d865691dede26369864487b93fcb0f0;de;;;7.4.;;;Skalierbarkeitsanalyse von KNN-Trainingsalgorithmen mit Merkmalsauswahl Das Aufkommen von Problemen mit hoher Dimensionalität hat Forscher des maschinellen Lernens vor neue Herausforderungen gestellt, die sich nicht nur für die Genauigkeit, sondern auch für die Skalierbarkeit von Algorithmen interessieren. In diesem Zusammenhang kann maschinelles Lernen Methoden zur Merkmalsauswahl nutzen, um mit großen Datenbanken umzugehen. Die Merkmalsauswahl ist in der Lage, die zeitliche und räumliche Komplexität des Lernens zu reduzieren und einen undurchführbaren Algorithmus in einen praktischen umzuwandeln. In dieser Arbeit wird der Einfluss der Merkmalsauswahl auf die Skalierbarkeit von vier der bekanntesten Trainingsalgorithmen für Feedforward Artificial Neural Networks (ANNs) untersucht. Zur Bewertung der Skalierbarkeit werden sechs verschiedene Maßnahmen in Betracht gezogen, die es ermöglichen, eine endgültige Bewertung zum Vergleich der Algorithmen zu erstellen. Die Ergebnisse zeigen, dass KNN-Algorithmen einschließlich eines Merkmalsauswahlschritts in Bezug auf die Skalierbarkeit viel besser abschneiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25274-7_9 098949876fb8a4680c14a55ac04a7ee2;de;;;7.4.;;;Verkaufsanalyse am Back Friday mit Machine Learning-Techniken Inmitten der Deals am Black Friday sind alle Händler voll. Viele Artikel sind mit Limits rabattiert und die Kunden kaufen die Artikel schnell. Es ist für Kunden schwierig, die Artikel selbst mit einem starken Arrangement zu kaufen. Jedenfalls haben die Ladenbesitzer deutlich mehr Mühe, den Konzern mit knappem Personal zu kontrollieren und sich auf die bevorstehenden Kunden zu konzentrieren. Es wurden einige Methoden verwendet, um dieses Problem zu lösen, aber sie sind nicht unangemessen effektiv. Ein Modell für die Vorhersage ist ein System, das sich bei der Lösung dieses Problems als vielversprechend erwiesen hat. Ich konzentriere mich auf Vorhersagemodelle, um einen genauen und kompetenten Algorithmus zu erstellen, um die Kundenausgaben zuvor zu analysieren und die zukünftigen Ausgaben des Kunden mit ähnlichen Funktionen zu ermitteln. Ausgeprägte Datenanalysetechniken wie Regressoren, NN und Klassifikatoren zur Entwicklung eines Vorhersagemodells werden aktualisiert und eine Untersuchung in Abhängigkeit von ihrer Darstellung und Genauigkeit der Vorhersage durchgeführt. Diese maschinellen Lerntechniken werden mit verschiedenen Algorithmen ausgeführt, um die optimale Vorhersage zu finden. Ich habe sechs verschiedene ML-Algorithmen angewendet. Darüber hinaus wende ich die Bild- und Datenvorverarbeitung an, um optimale Ergebnisse zu erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5400-1_32 c880bf9bba191217ac65d7b8ada29fc0;de;;;7.4.;;;Verbesserung der neuronalen Satzausrichtung durch Wortübersetzung Satzausrichtung ist eine grundlegende Aufgabe in der Verarbeitung natürlicher Sprache, die darauf abzielt, qualitativ hochwertige parallele Sätze automatisch zu extrahieren. Motiviert durch die Beobachtung, dass ausgerichtete Satzpaare eine größere Anzahl ausgerichteter Wörter enthalten als nicht ausgerichtete, betrachten wir die Wortübersetzung als eines der nützlichsten externen Erkenntnisse. In diesem Beitrag zeigen wir, wie die Wortübersetzung explizit in die neuronale Satzausrichtung integriert wird. Insbesondere schlägt dieses Papier drei sprachenübergreifende Encoder vor, um Wortübersetzungen zu integrieren: 1) Mixed Encoder, der Wörter und ihre Übersetzungsannotationsvektoren über Sequenzen lernt, in denen Wörter und ihre Übersetzungen alternativ gemischt werden, 2) Factored Encoder, der Wortübersetzungen als Merkmale und Codierungen betrachtet Wörter und ihre Übersetzungen durch Verketten ihrer Einbettungen, und 3) Gated Encoder, der einen Gate-Mechanismus verwendet, um selektiv die Menge der vorwärts bewegten Wortübersetzungen zu steuern. Experimente mit chinesisch-englischen Datensätzen von NIST MT und Opensubtitles sowohl in Nicht-Monotonie- als auch in Monotonie-Szenarien zeigen, dass alle vorgeschlagenen Encoder die Satzausrichtungsleistung erheblich verbessern.;-;-;-;https://link.springer.com/article/10.1007/s11704-019-9164-3 6929b70400c16839c07a2b153430d91a;de;;;7.4.;;;Vermeidbare Krankenhausaufenthalte bei älteren Erwachsenen Vermeidbare Krankenhauseinweisungen sind für Entscheidungsträger von großem Interesse, da solche Einweisungen als teuer und für die Patienten wenig hilfreich erachtet werden und eine unzureichende Leistung der Organisation der Gesundheitssysteme widerspiegeln [2–7]. Besonders besorgniserregend sind Krankenhausaufenthalte, die durch Interventionen des Gesundheitsdienstes für ältere Menschen hätten vermieden werden können. In diesem Kapitel werden die Natur des Problems und die Grenzen der derzeitigen Ansätze untersucht. Es identifiziert die Notwendigkeit eines umfassenden konzeptionellen Rahmens, der sich mit den komplexen menschlichen Systemen des Alterns, des Krankseins und des Sterbens in der heutigen Gesellschaft befasst. Vermeidbare Krankenhausaufenthalte, die als Spiegel biologischer, psychosozialer, organisatorischer und sozialer Phänomene konzeptualisiert werden, eröffnen einen komplexen adaptiven Systemansatz für die Problematik der Krankenhausaufenthalte für ältere Menschen. Es konzentriert sich auf aktuelle und potenzielle Beiträge der Informatik und Computational Science auf diesem Gebiet. Ein Echtzeit-Informatiksystem, das auf den Erzählungen von Patienten über ihr Wohlbefinden und ihre Krankheit basiert: Das Patient Journey Record-System ist ein Beispiel für ein adaptives System, das vermeidbare Krankenhausaufenthalte mithilfe eines komplexen Systemrahmens behandelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-4998-0_27 f011b34e7fa44a2c35e01b8f9b31d9be;de;;;3.2.;;;Aufbau einer CRISPR-basierten gepaarten sgRNA-Bibliothek zur chromosomalen Deletion langer nicht-kodierender RNAs Abgeleitet von einem adaptiven bakteriellen Immunsystem, hat das Clustered Regular Interspaced Palindrome Repeats (CRISPR)/CRISPR-associated 9 (Cas9)-System großes Potenzial für das Hochdurchsatz-Funktionsgenom-Screening, insbesondere für proteinkodierende Gene, gezeigt. Es ist jedoch immer noch eine Herausforderung, die ähnliche Strategie anzuwenden, um nicht-kodierende genomische Elemente wie lange nicht-kodierende RNAs (lncRNAs) oder Cluster von microRNAs zu untersuchen, da kurze Insertionen oder Deletionen möglicherweise nicht ausreichen, um Phänotypen mit Funktionsverlust zu erzeugen .;-;-;-;https://link.springer.com/article/10.1007/s40484-020-0194-5 eff4771f8e8b55f4f1442f1e1a6f2281;de;;;7.4.;;;CloudSVM: Training eines SVM-Klassifikators in Cloud-Computing-Systemen Bei herkömmlichen verteilten maschinellen Lernverfahren werden Algorithmen von verteilten Support-Vektor-Maschinen (SVM) über vorkonfigurierte Intranet-/Internetumgebungen trainiert, um einen optimalen Klassifikator herauszufinden. Diese Methoden sind bei großen Datensätzen sehr aufwendig und teuer. Daher schlagen wir eine Methode vor, die als Cloud-SVM-Trainingsmechanismus (CloudSVM) in einer Cloud-Computing-Umgebung mit MapReduce-Technik für verteilte maschinelle Lernanwendungen bezeichnet wird. Dementsprechend wird (i) der SVM-Algorithmus in verteilten Cloud-Speicherservern trainiert, die gleichzeitig arbeiten, (ii) alle Unterstützungsvektoren in jedem trainierten Cloud-Knoten zusammenführen und (iii) diese beiden Schritte wiederholen, bis die SVM zur optimalen Klassifikatorfunktion konvergiert. Ein einzelner Computer ist nicht in der Lage, den SVM-Algorithmus mit großen Datensätzen zu trainieren. Die Ergebnisse dieser Studie sind wichtig für das Training großer Datensätze für Anwendungen des maschinellen Lernens. Wir haben vorgesehen, dass das iterative Training eines geteilten Datensatzes in einer Cloud-Computing-Umgebung unter Verwendung von SVM zu einem globalen optimalen Klassifikator in endlicher Iterationsgröße konvergiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37015-1_6 d6bc5646f4d79c01b8598f2627e694db;de;;;7.4.;;;EDT-Methode für mehrere beschriftete Objekte, die gebundenen Abständen unterliegen Der Erfolg neuer wissenschaftlicher Gebiete lässt sich anhand ihres Potenzials beurteilen, zu neuen theoretischen Ansätzen beizutragen, die an realen Anwendungen ausgerichtet sind. Die euklidische Distanztransformation (EDT) hat sich in beiden Fällen gut bewährt und bietet eine solide theoretische Grundlage für eine Reihe von Anwendungen, wie z. B. Medianachsentransformation, Fraktalanalyse, Skelettierung und Voronoi-Diagramme. Trotz ihrer breiten Anwendbarkeit weist die diskrete Form des EDT interessante Eigenschaften auf, die in der Literatur noch nicht vollständig ausgeschöpft wurden. In diesem Artikel interessieren uns insbesondere die Eigenschaften von 1) Arbeiten mit mehreren Objekten/Labels und 2) Identifizieren und Zählen äquidistanter Pixel/Voxel von bestimmten interessanten Punkten. In einigen Domänen (z. B. Dataset-Klassifizierung, Textur- und Komplexitätsanalyse) kann das Ergebnis der Anwendung der EDT-Transformation auf verschiedene Objekte und ihre jeweiligen gebundenen Abstände die Leistung beeinträchtigen. In diesem Sinne schlagen wir eine effiziente Modifikation der in [1] vorgestellten Methode vor, die zu einem neuen Ansatz zur Berechnung der Distanztransformation in einem Raum mit mehreren Objekten und zum Zählen äquidistanter Pixel/Voxel führt.;-;-;-;https://link.springer.com/article/10.1007/s11633-021-1285-0 54ff2bea287d7b744d763723b95229ed;de;;;7.4.;;;Intelligente Erkennung von Blasenkrebs basierend auf Convolutional Neural Network Blasenkrebs ist der häufigste bösartige Tumor in der Urologie. Aufgrund der unterschiedlichen Morphologie von Blasentumoren, einschließlich villöser, follikulärer, flacher Erytheme usw., ist es für Ärzte jedoch manchmal schwierig, mit dem Auge von einer Vielzahl von gutartigen entzündlichen Erkrankungen zu unterscheiden. Dies kann zu Fehldiagnosen oder Fehldiagnosen führen. In diesem Beitrag stellen wir ein auf einem Faltungsneuralnetzwerk basierendes Deep-Learning-Modell zur Tumorerkennung vor, das die intelligente Erkennung von Zystoskopbildern effizient realisiert und in Experimenten eine gute Erkennungsgenauigkeit erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8458-9_15 1b9c2d645af0a3638722baf7ccec29e4;de;;;7.4.;;;Anwendung überwachter selbstorganisierender Modelle für die Weizenertragsvorhersage Die Steuerung des Weizenertragsverhaltens in landwirtschaftlichen Flächen ist eine sehr wichtige Aufgabe, da sie die Weizenertragsproduktion beeinflusst und präzisiert. In dieser Forschungsarbeit wird ein effizienter wissensbasierter Ansatz vorgestellt, der einen effizienten Machine-Learning-Algorithmus zur Charakterisierung des Weizenertragsverhaltens verwendet. Die Neuheit der Methode basiert auf der Verwendung von Supervised Self Organizing Maps, um vorhandene Sensorinformationen mithilfe eines überwachten Lernalgorithmus zu verarbeiten, um Messdaten auszuwerten und anfängliches Wissen zu aktualisieren. Das Aufkommen von Precision Farming erzeugt Daten, die aufgrund ihrer Art und Komplexität mit herkömmlichen Methoden nicht effizient analysiert werden können. Die Supervised Self Organizing Maps haben sich in der Literatur als effizient und flexibel in der Analyse von Sensorinformationen erwiesen und können durch die Verwendung geeigneter Lernalgorithmen das anfängliche Wissen aktualisieren. Die entwickelten selbstorganisierenden Modelle bestanden aus Eingabeknoten, die die Hauptfaktoren in der Weizenpflanzenproduktion darstellen, wie Biomasseindikatoren, organischer Kohlenstoff (OC), pH, Mg, Gesamt-N, Ca, Kationenaustauschkapazität (CEC), Feuchtigkeitsgehalt (MC .). ) und die Ausgabegewichte stellten die Klassenbezeichnungen dar, die dem prognostizierten Weizenertrag entsprechen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44654-6_55 28236ed2d3dc44dcb6a0b0f88d34bf25;de;;;7.4.;;;Anatomie der Vorverarbeitung von Big Data für die Extraktion einsprachiger Korpora-Paraphrasen: Auswahl von ausgangssprachlichen Sätzen Im Rahmen unserer Arbeit zur sprachübergreifenden Informationsbeschaffung ist das ultimative Ziel, ein intelligentes Modell zu entwickeln, das nicht korrespondierende Korpora der Hindi- und Englischen Sprache verwendet. Es besteht aus zwei Phasen, nämlich der Extraktion von Quellsprachensätzen (SLSE) und der Modellbildung für die Übersetzung. SLSE sind die Trainingsdaten für das Modell, die 70 % der gesamten Arbeit ausmachen. In diesem Papier haben wir eine neue Pipeline für SLSE vorgeschlagen, indem wir das erste zweisprachige Wörterbuch erstellt haben,;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1501-5_43 db6e1678dc004638c5d47c87d714db0e;de;;;7.4.;;;Das Rahmenproblem, die Gödelsche Unvollständigkeit und das Lucas-Penrose-Argument: Eine strukturelle Analyse der Argumente über die Grenzen der KI und ihre physikalischen und metaphysischen Konsequenzen Das Frameproblem ist eine grundlegende Herausforderung in der KI, und das Lucas-Penrose-Argument soll eine Einschränkung der KI aufzeigen, wenn sie überhaupt erfolgreich ist. Hier diskutieren wir beide von einem einheitlichen Gödelschen Standpunkt aus. Wir geben eine informationelle Neuformulierung des Rahmenproblems, die sich als eng mit der Natur der Gödelschen Unvollständigkeit in dem Sinne verflochten hat, dass beide von der Finitaritätsbedingung von Agenten oder Systemen abhängen, ohne die ihre angeblichen Beschränkungen leicht überwunden werden können, und dass sie beide als Beispiele für die fundamentale Diskrepanz zwischen endlichem Wesen und unendlicher Realität angesehen werden können. Dann greifen wir das Lucas-Penrose-Argument noch einmal auf und erarbeiten eine Version davon, die auf die Unmöglichkeit der Informationsphysik oder der Computertheorie des Universums hinweist. Durch eine genauere Analyse stellt sich heraus, dass, wenn das Lucas-Penrose-Argument akzeptiert wird, auch die Informationsphysik unmöglich ist, die Möglichkeit der KI oder der Computertheorie des Geistes ist somit mit der Möglichkeit der Informationsphysik oder der Computertheorie des Universums verbunden . Schließlich überdenken wir die Quantum Mind Thesis von Penrose im Lichte der jüngsten Fortschritte in der Quantenmodellierung der Kognition, geben eine strukturelle Neuformulierung davon und werfen damit neues Licht auf die Problematik der Quantum Mind Thesis. Insgesamt halten wir es für vielversprechend, die Computertheorie des Geistes mit der Computertheorie des Universums zu verbinden. Ihre Integration würde es uns ermöglichen, über den kartesischen Dualismus hinauszugehen und insbesondere eine Inkarnation von Chalmers' Doppelaspekttheorie der Information zu erhalten .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-96448-5_19 8692dfdd9091a7c76463576317765087;de;;;7.4.;;;Ein hybrider Salp-Schwarm-Algorithmus mit In letzter Zeit wuchs das Interesse der Forscher an der Aufteilung bestimmter Dokumentensätze in verschiedene Untergruppen, da die große Anzahl von Dokumenten die Mustererkennung, den Informationsabruf und das Text-Mining komplizierter macht. Dieses Problem wird als Textclustering-Problem (TCD) bezeichnet. Mehrere metaheuristische Optimierungsalgorithmen wurden angepasst, um den TDC optimal zu adressieren. Ein neuer effizienter metaheuristischer Optimierungsalgorithmus imitiert das Verhalten von Salpen in Ozeanen, bekannt als der Salp-Schwarm-Algorithmus (SSA) wurde vorgeschlagen und angepasst, um verschiedene Optimierungsprobleme anzugehen. Die Hybridisierung von Optimierungsalgorithmen mit einem anderen Algorithmus rückt jedoch in den Fokus der Wissenschaftler, um eine überlegene Lösung für die Optimierungsprobleme zu erhalten. In diesem Artikel wird eine neue hybride Optimierungsmethode des SSA-Algorithmus und eines bekannten metaheuristischen Optimierungsalgorithmus namens;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4191-3_6 260b9821be7dac1988f453826da5cebd;de;;;7.4.;;;Erlernen von SQL für die Erkennung von Datenbankangriffen mit kontextsensitiver Modellierung (erweiterte Zusammenfassung) Moderne mehrschichtige Anwendungssysteme basieren in der Regel auf Hochleistungsdatenbanksystemen, um Geschäftsinformationen zu verarbeiten und zu speichern. Da diese Systeme wertvolle Geschäftsinformationen enthalten, sind sie für Angreifer hochinteressant, und es ist besondere Vorsicht geboten, um böswilligen Zugriff auf diese Datenbankschicht zu verhindern. In dieser Arbeit schlagen wir einen neuartigen Ansatz zur Modellierung von SQL-Anweisungen vor, um Techniken des maschinellen Lernens wie Clustering oder Ausreißererkennung anzuwenden, um bösartiges Verhalten auf Datenbanktransaktionsebene zu erkennen. Der Ansatz bezieht die Parse-Baumstruktur von SQL-Abfragen als Merkmal z.B. um SQL-Abfragen mit Anwendungen zu korrelieren und gutartige und bösartige Abfragen zu unterscheiden. Wir demonstrieren die Nützlichkeit unseres Ansatzes an realen Daten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02918-9_12 b9f57dd88a614c36fb8b86859d290d08;de;;;7.4.;;;Können wir Robotersteuerungen mit endlicher Zustandsmaschine durch interaktive Demonstrationen lernen? Derzeit besteht eine Lücke zwischen den Arten von Robotersteuerungsrichtlinien, die durch interaktive Demonstrationen erlernt werden können, und denen, die von erfahrenen Programmierern manuell programmiert werden. Durch regressionsbasierte Roboter-Tutelage können Roboter bisher unbekannte Aufgaben gelehrt werden, deren zugrunde liegende Abbildungen zwischen wahrgenommenen Weltzuständen und Aktionen n:1 sind. In einer endlichen Automatensteuerung können jedoch mehrere Teilaufgaben für eine gegebene Wahrnehmung anwendbar sein, was zu wahrnehmungsbezogenem Aliasing führt. Die zugrunde liegende Abbildung kann dann eins-zu-viele sein. Um solche Richtlinien zu erlernen, müssen Benutzer typischerweise zusätzliche Informationen bereitstellen, wie beispielsweise eine Zerlegung der Gesamtaufgabe in Teilaufgaben und möglicherweise Hinweise darauf, wo Übergänge auftreten. Wir untersuchen die Grenzen eines regressionsbasierten Ansatzes zum Erlernen eines FSM-Controllers anhand einer Demonstration einer grundlegenden Aufgabe zum Torschießen eines Roboterfußballs. Während die einzelnen Teilaufgaben erlernt werden können, erfordert das vollständige FSM-Lernen aus diesen Daten Techniken zur Modellauswahl und Datensegmentierung. Wir diskutieren eine Möglichkeit, diese Themen anzugehen und wie sie mit bestehenden Arbeiten kombiniert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05181-4_17 7ab04911c51d0b06ba1fc9c153dd35d5;de;;;7.4.;;;Regenklassifizierung für autonome Fahrzeugnavigation mit maschinellem Lernen Autonome Fahrzeuge (AV) haben in vielen Ländern aufgrund der Weiterentwicklung der Sensortechnologie, die in AV-Systemen verwendet wird, in Forschung und Entwicklung an Popularität gewonnen. Trotzdem ist das Wahrnehmen und Wahrnehmen bei rauen Wetterbedingungen ein Thema dieser modernen Sensortechnologie, da sie die Fähigkeit benötigt, sich an das menschliche Verhalten in verschiedenen Situationen anzupassen. Dieses Papier zielt darauf ab, klares und regnerisches Wetter mit einem physikbasierten Simulator zu klassifizieren, um die reale Umgebung zu imitieren, die aus Straßen, Fahrzeugen und Gebäuden besteht. Die reale Umgebung wurde in einem physikalisch-basierten Simulator erstellt, um die Datenprotokollierung und Tests über das ROS-Netzwerk zu veröffentlichen. Punktwolkendaten, die aus LiDAR mit einem anderen Frame unterschiedlichen Wetters generiert wurden, sollen mit drei Machine-Learning-Modellen, nämlich Naive Bayes (NB), Random Forest (RF) und k-Nearest Neighbor (kNN) als Klassifikatoren gekoppelt werden. Die vorläufige Analyse zeigte, dass das RF-Maschinenlernmodell mit der vorgeschlagenen Methodik eine Testklassifikationsgenauigkeit (CA) von 99,9 % im Testdatensatz erreichte, gefolgt von kNN mit einer Test-CA von 99,4 % und NB mit 92,4 %. Daher hat die vorgeschlagene Strategie das Potenzial, klares und regnerisches Wetter zu klassifizieren, das eine objektivbasierte Beurteilung ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-4597-3_80 4a14544b31bed1c4a4e828e3c2f2b759;de;;;7.4.;;;Große Menge an Textklassifizierung basierend auf der verbesserten Feature-Line-Methode Die Feature-Line-Methode geht davon aus, dass eine Linie zwischen zwei Punkten in derselben Raumklasse das Raum-Feature besser repräsentiert als ein einzelner Punkt. Es bringt jedoch nur in Bezug auf die Entfernung Fehler in den Klassifizierungsergebnissen. Hier wurde ein Koeffizient vorgeschlagen, um den Einfluss des Off-Group-Punktes auf die Klassifizierung zu eliminieren, der auch mit dem zentralen Abstand der Klasse kombiniert wurde, und bildete dann den verbesserten Algorithmus, der in zwei unterschiedlichen Kapazitätsdokument-Repositories verwendet wird. Die Ergebnisse des Experiments zeigen, dass der verbesserte Algorithmus große Dokumenten-Repositories sehr gut unterstützt und bei umfangreicher Textklassifizierung und Textauffindung verwendet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36668-3_55 d7b75eb2c0c3c2c61577ffa15b2cf0c8;de;;;7.4.;;;Verwendung von maschinellen Lernmethoden zur Begriffsklärung von Ortsverweisen in Textdokumenten In diesem Beitrag wird eine Methode des maschinellen Lernens vorgestellt, um Ortsverweise in Texten eindeutig zu machen. Die Lösung dieser Aufgabe kann wichtige Anwendungen in den Digital Humanities und Computational Social Sciences haben, indem sie die räumliche Analyse großer Dokumentensammlungen unterstützt. Wir kombinieren mehrere Funktionen, die die Ähnlichkeit zwischen Kandidaten-Begriffen, den Ortsbezügen und dem Kontext, in dem die Ortsbezüge vorkommen, erfassen, um eine Rangfolge und Auswahl aus einer Reihe von Kandidaten-Begriffen zu erstellen, die aus einer Wissensdatenbank mit Geokoordinaten und Textbeschreibungen für verschiedene Orte aus der ganzen Welt. Die vorgeschlagene Methode wurde durch englische Korpora evaluiert, die in früheren Arbeiten auf diesem Gebiet verwendet wurden, und auch mit einer Teilmenge der englischen Wikipedia. Experimentelle Ergebnisse zeigen, dass die vorgeschlagene Methode tatsächlich effektiv ist und zeigen, dass Out-of-the-Box-Lernalgorithmen und relativ einfache Funktionen bei dieser Aufgabe eine hohe Genauigkeit erzielen können.;-;-;-;https://link.springer.com/article/10.1007/s10708-014-9553-y c0974efce8aea140e2dd6f19179a14b1;de;;;7.4.;;;Ein Ensemble-Ansatz zur Multi-Label-Klassifizierung von Textdaten In diesem Beitrag untersuchen wir verschiedene Ansätze zur Multilabel-Klassifikation von Textdaten, mit besonderem Fokus auf Ensemble-Techniken. Üblicherweise verwendete Klassifizierer-Ensembles kombinieren Ausgaben von Basislernmodellen, um die Lernergebnisse zu verbessern. Das Multi-Label-Klassifikationsproblem bringt einige neue Herausforderungen an die Ensemble-Lernmethoden mit sich. Zum Beispiel muss man entscheiden, in welcher Reihenfolge es besser ist, die Basislerner zu aggregieren – auf einer Ebene einzelner Labels und dann für die gesamten Labelsets oder umgekehrt. Wir diskutieren diese Fragestellung und vergleichen experimentell ausgewählte Ansätze. In den Experimenten verwenden wir Daten aus dem Data Mining-Wettbewerb 2012 des JRS, dessen Gegenstand die thematische Klassifizierung biomedizinischer Forschungsarbeiten war, und als Basislerner verwenden wir die Modelle der Gewinner dieses Wettbewerbs.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35527-1_26 5b039a062c9691cb830fb518900b131c;de;;;7.4.;;;Untersuchung der Fähigkeit von GANs, reale biomedizinische Bilder im Klassifikationsmodelltraining zu ersetzen Replace In diesem Artikel untersuchen wir die Möglichkeit, künstliche biomedizinische Bilder zu generieren, die als Ersatz für reale Bilddatensätze in angewandten maschinellen Lernaufgaben verwendet werden können. Wir konzentrieren uns auf die Erstellung von realistischen Röntgenbildern des Thorax sowie auf den Lymphknotenhistologiebildern unter Verwendung der beiden neueren GAN-Architekturen, einschließlich DCGAN und PGGAN. Die Möglichkeit, künstliche Bilder anstelle von realen Bildern zum Trainieren von Machine-Learning-Modellen zu verwenden, wurde untersucht, indem Benchmark-Klassifikationsaufgaben mit konventionellen und Deep-Learning-Methoden gelöst wurden. Insbesondere wurde ein Vergleich durchgeführt, indem reale Bilder in der Modelltrainingsphase durch synthetische ersetzt wurden und die Vorhersageergebnisse mit denen verglichen wurden, die während des Trainings an den realen Bilddaten erhalten wurden. Es wurde festgestellt, dass der Rückgang der Klassifikationsgenauigkeit durch eine solche Trainingsdatensubstitution zwischen 2,2% und 3,5% für Deep-Learning-Modelle und zwischen 5,5% und 13,25% für konventionelle Methoden wie LBP + Random Forests lag.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-35430-5_9 771ce19ee778ca4f0af60424bcbb1012;de;;;7.4.;;;Knowledge Mining: Eine quantitative Synthese von Forschungsergebnissen und Erkenntnissen Knowledge Mining hat sich als schnell wachsendes interdisziplinäres Feld entwickelt, das Datenbanken, Statistik, maschinelles Lernen und verwandte Bereiche zusammenführt, um wertvolle Informationen und Wissen aus großen Datenmengen zu extrahieren. In diesem Beitrag stellen wir die wichtigsten Ergebnisse der NEMIS-Konferenz zum Thema „Knowledge Mining“ vor.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-32394-5_1 9def1c781a523edc1c3a6f32208d4e61;de;;;7.4.;;;Verbesserung der Vorhersagegenauigkeit für Bitcoin-Marktpreise basierend auf symmetrischen Volatilitätsinformationen unter Verwendung eines künstlichen neuronalen Netzwerkansatzes Im Allgemeinen sind Informationen der grundlegende Treiber für die Volatilität der Vermögenspreise auf dem Finanzmarkt. Diese Informationen können entweder symmetrisch oder asymmetrisch in den Markt eintreten. Die Finanzliteratur zeigt, dass die Volatilität des Bitcoin-Marktes symmetrisch informativ ist und ein langes Gedächtnis hat, das in Zukunft bestehen bleibt. Darüber hinaus hat sich gezeigt, dass die Symmetrie der Volatilität im Vergleich zu dem neuen Schock der Marktwerte eine größere Sensibilität für ihre Vergangenheitswerte aufweist. Diese Studie verwendete daher die symmetrische Volatilitätsstruktur der Bitcoin-Währung, die durch vier Eingabeattribute wie Eröffnungspreis (OP), Höchstpreis (HP), Niedrigpreis (LP) und Schlusspreis (CP) gemessen werden kann, um ihre Preiszukunft vorherzusagen Trend. Die Studie verwendet das Rapid-Miner-Programm, das auf dem Algorithmus eines künstlichen neuronalen Netzes (ANN) basiert. Das optimale Modell verwendet ein mehrschichtiges neuronales Netz (NN) zusammen mit einem „optimierten Operator“ mit der Fähigkeit, die optimale Faktorladung des angewendeten Algorithmus zu lokalisieren. Die Ergebnisse deuten darauf hin, dass ANN ein effektives und angemessenes Modell zur korrekten Vorhersage von Bitcoin-Marktpreisen unter Verwendung symmetrischer Volatilitätsattribute mit einer Genauigkeit von 92,15% gegenüber dem tatsächlichen Preis ist, während das niedrige Preisattribut sich als der Hauptförderer für den Bitcoin-Preistrend mit Prozent herausstellt von 63 %. Es folgen Schlusskurs, Höchstkurs und Eröffnungskurs mit einem Prozentsatz von 49%, 46% bzw. 37%. Die Ergebnisse der Studie wären daher ein wertvoller und bedeutender Beitrag für kommerzielle Zwecke unter den Akteuren des Kryptowährungsmarktes. In anderen Welten werden Anleger basierend auf diesen Ergebnissen proaktiv den Bitcoin-Preistrend vorhersagen und die richtige Anlageentscheidung treffen, entweder zu kaufen, zu halten oder zu verkaufen, um eine normale Marktrendite zu erzielen. Dies gilt als bahnbrechende Studie, die den Bitcoin-Preistrend basierend auf seiner symmetrischen Volatilitätsstruktur vorhersagt. Wie diese Replikationsergebnisse zeigen, ist das vorgeschlagene Modell sehr vielversprechend und in einem Echtzeit-Handelssystem anwendbar, um den zukünftigen Trend des Bitcoin-Preises vorherzusagen und die Anlagegewinne in Kryptowährungsmärkten zu maximieren.;-;-;-;https://link.springer.com/article/10.1057/s41272-020-00229-3 bc98a25bc98d4fb38bca3747387f4cb3;de;;;7.4.;;;Statistische Analyse der Kernel-basierten Dichteverhältnisschätzung nach der Methode der kleinsten Quadrate Das Verhältnis zweier Wahrscheinlichkeitsdichten kann zur Lösung verschiedener maschineller Lernaufgaben verwendet werden, wie z. In letzter Zeit wurden mehrere Verfahren zum direkten Schätzen des Dichteverhältnisses entwickelt, z. B. Momentenanpassungsschätzung, Dichteverhältnisschätzung mit maximaler Wahrscheinlichkeit und Dichteverhältnisanpassung nach der Methode der kleinsten Quadrate. In diesem Beitrag schlagen wir eine kernelisierte Variante der Methode der kleinsten Quadrate zur Dichteverhältnisschätzung vor, die als Kernel Unconstrained Least-Squares Wichtigkeit Fitting (KuLSIF) bezeichnet wird. Wir untersuchen seine grundlegenden statistischen Eigenschaften, einschließlich einer nichtparametrischen Konvergenzrate, einer Lösung in analytischer Form und einem Leave-One-Out-Kreuzvalidierungs-Score. Wir untersuchen weiter seine Beziehung zu anderen Kernel-basierten Dichteverhältnisschätzern. In Experimenten vergleichen wir numerisch verschiedene Kernel-basierte Dichteverhältnis-Schätzmethoden und zeigen, dass KuLSIF im Vergleich zu anderen Ansätzen günstig abschneidet.;-;-;-;https://link.springer.com/article/10.1007/s10994-011-5266-3 76e7c4438caa9fde2293156e8a93e19c;de;;;7.4.;;;Unüberwachtes Multi-Layer Spiking Convolutional Neural Network mit Layer-Wise Sparse Coding Die Deep-Learning-Architektur hat eine bemerkenswerte Leistung bei maschinellem Lernen und KI-Anwendungen gezeigt. Das Training eines spitzen Deep Convolutional Neural Network (DCNN) unter Einbeziehung traditioneller CNN-Eigenschaften bleibt jedoch ein offenes Problem für Forscher. In diesem Artikel wird ein neuartiges Spiking-DCNN untersucht, das aus einer Faltungs-/Pooling-Schicht besteht, gefolgt von einem vollständig verbundenen SNN, das schichtweise trainiert wurde. Die Merkmalsextraktion von Bildern erfolgt durch die Spiking-DCNN-Komponente der vorgeschlagenen Architektur. Und um die Merkmalsextraktion zu erreichen, nutzten wir das SAILnet, um die ursprünglichen MNIST-Daten zu trainieren. Als Eingabe für die Faltungsschicht verarbeiten wir die MNIST-Rohdaten mit einem bilateralen Filter, um das gefilterte Bild zu erhalten. Der im vorherigen Schritt trainierte Faltungskernel wird verwendet, um die Merkmalskarte des gefilterten Bildes zu berechnen und die maximale Pooling-Operation auf der charakteristischen Karte durchzuführen. Wir verwenden BP-STDP, um das vollständig verbundene SNN für die Vorhersage zu trainieren. Um eine Überanpassung zu vermeiden und die Konvergenzgeschwindigkeit des Netzwerks weiter zu verbessern, wird ein dynamischer Dropout hinzugefügt, wenn die Genauigkeit der Trainingssätze 97% erreicht, um eine Co-Anpassung von Neuronen zu verhindern. Darüber hinaus wird die Lernrate im Training automatisch angepasst, was eine effektive Möglichkeit bietet, das Training zu beschleunigen und die steigende Geschwindigkeit der Trainingsgenauigkeit in jeder Epoche zu verlangsamen. Unser Modell wird anhand der MNIST-Ziffer- und Cactus3-Formdatensätze bewertet, wobei die Erkennungsleistung bei Testdatensätzen 96,16 % bzw. 97,92 % beträgt. Das Leistungsniveau zeigt, dass unser Modell in der Lage ist, mithilfe von Spikes unabhängige und markante Merkmale in Bildern zu extrahieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63836-8_30 ea691e2a38ce895f55bbc12a94f7ec08;de;;;7.4.;;;Data-Mining-Ansatz in wissenschaftlichen Forschungsorganisationen Evaluierung durch Clustering Data Mining ist ein nützliches Werkzeug, um nützliche Informationen aus großen Datenbanken zu ziehen. Bei der Bewertung wissenschaftlicher Forschungsorganisationen besteht das Problem, dieselben Kriterien zur Bewertung verschiedener Arten von Forschungsorganisationen zu verwenden. In diesem Artikel schlagen wir eine Clustering-Methode vor, um die wissenschaftliche Forschungsorganisation von CAS zu klassifizieren, und bewerten dann gemäß dieser Klassifikation die wissenschaftliche Forschungsorganisation unter Verwendung der jährlichen Bewertungsdatenbank von CAS, um unsere Methode zu testen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30537-8_14 7c967e398779cb98376d0e79f60e6be6;de;;;7.4.;;;Clustering von Tweets: Ein neuartiger Ansatz zur Kennzeichnung der nicht gekennzeichneten Tweets Twitter ist eine der am schnellsten wachsenden Microblogging- und Online-Social-Networking-Sites, die es Benutzern ermöglicht, Nachrichten in Form von Tweets zu senden und zu empfangen. Twitter ist der Trend von heute für Nachrichtenanalysen und Diskussionen. Aus diesem Grund ist Twitter zum Hauptziel von Angreifern und Cyberkriminellen geworden. Diese Angreifer beeinträchtigen nicht nur die Sicherheit von Twitter, sondern zerstören auch das gesamte Vertrauen, das die Leute darauf haben. Daher wird die Twitter-Plattform durch Missbrauch unrein. Missbrauch kann in Form von verletzendem Klatsch, Cybermobbing, Cyber-Belästigung, Spam, pornografischen Inhalten, Identitätsdiebstahl, gängigen Webangriffen wie Phishing und Herunterladen von Malware usw. erfolgen. Die Twitter-Welt wächst schnell und ist daher anfällig für Spam. Daher ist eine Spam-Erkennung auf Twitter erforderlich. Die Spam-Erkennung durch überwachte Algorithmen basiert vollständig und ausschließlich auf dem gekennzeichneten Datensatz von Twitter. Die Datensätze manuell zu beschriften ist kostspielig, zeitaufwändig und eine anspruchsvolle Aufgabe. Außerdem sind diese alten beschrifteten Datensätze heutzutage aufgrund von Twitter-Datenveröffentlichungsrichtlinien nicht verfügbar. Daher ist es erforderlich, einen Ansatz zu entwickeln, um die Tweets als Spam und Nicht-Spam zu kennzeichnen, um die Auswirkungen der Spam-Drift zu überwinden. In diesem Artikel haben wir den aktuellen Datensatz von Twitter heruntergeladen und daraus einen unbeschrifteten Datensatz mit Tweets erstellt. Später haben wir den Cluster-dann-Label-Ansatz angewendet, um die Tweets als Spam und Nicht-Spam zu kennzeichnen. Dieser gekennzeichnete Datensatz kann dann zur Spam-Erkennung in Twitter und zur Kategorisierung verschiedener Spam-Typen verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-29407-6_48 bbe14d8a353369a8a55c5010a24f1794;de;;;7.4.;;;Eine Geschichte von zwei Defiziten: Kausalität und Pflege in der medizinischen KI In diesem Beitrag werden zwei zentrale Fragen behandelt: Sollen wir medizinische KI-Technologie im medizinischen Bereich implementieren? Wenn ja, wie sollten wir diese Technologie implementieren? Ich werde mich kritisch mit drei Optionen auseinandersetzen, die es in Bezug auf diese zentralen Fragen gibt: die;-;-;-;https://link.springer.com/article/10.1007/s13347-019-00359-6 7f8787110a88552f5a15ae88d768e850;de;;;7.4.;;;Vorhersage der Glaukom-Diagnose mit KI Dieses Kapitel basiert auf einer Forschung, die mit dem Hauptaugenmerk auf die Entwicklung eines intelligenten Diagnosesystems für das Glaukom – eine augenbezogene Erkrankung – durchgeführt wurde, und zwar aus den Daten, die von Ärzten mit verschiedenen Untersuchungsgeräten oder Geräten in der Augenheilkunde erhalten wurden. Die Daten werden als Trainingssatz für Multi-Klassifikatoren verwendet, die unter Verwendung der Hybridisierung verschiedener Techniken der Künstlichen Intelligenz entwickelt wurden. Die Klassifizierung erfolgt durch einen hybriden Ansatz unter Verwendung von künstlichen neuronalen Netzen, naiven Bayes-Algorithmen und Entscheidungsbaum-Algorithmen. Für eine solche Diagnose ist ein Entwurf/eine Entwicklung einer neuen Technik oder eines neuen Algorithmus erforderlich, der auf seine Wirksamkeit getestet wird. Unter Verwendung der Algorithmen und Techniken des neuronalen Netzes, des Naesve Bayes-Algorithmus und der auf dem Entscheidungsbaum basierenden Klassifikatoren soll die vorgeschlagene Hybridtechnik die visionäre Zwangslage des Patienten intelligent analysieren und diagnostizieren und so die Intervention von Ärzten in Bezug auf die Entscheidungsfindung verringern. Das vorgeschlagene Ensemble FGLAUC-99 nimmt 18 medizinische Untersuchungsparameter für einen Patienten und sagt voraus, ob der Patient an Glaukom leidet oder nicht. Wenn bei einem Patienten ein Glaukom festgestellt wird, sagt FGLAUC-99 auch die Art des Glaukoms voraus. Ein Ensemble von Klassifikatoren zeigte eine verbesserte Genauigkeit im Vergleich zu einzelnen einzelnen Klassifikatoren. Die Klassifikatoren wurden aus einer Gruppe von Klassifikatoren ausgewählt. Der erste Klassifikator wurde in das Ensemble von auf Wahrscheinlichkeit basierenden Klassifikatoren wie Naive Bayes aufgenommen, da die probabilistischen Klassifikatoren mehr Genauigkeit liefern. Der zweite Klassifikator wurde aus dem auf dem Entscheidungsbaum basierenden Klassifikator ausgewählt, wie beispielsweise Random Forest, J48. Der auf dem Entscheidungsbaum basierende Klassifikator bietet eine gute Interpretierbarkeit. Der dritte Klassifikator wurde aus einem Klassifikator auf der Grundlage eines neuronalen Netzwerks, wie beispielsweise MLP, ausgewählt. Klassifikatoren auf der Grundlage von neuronalen Netzwerken bieten eine bessere Vorhersage. FGLAUC-99 wurde mit J48-, Naive Bayes- und MLP-Klassifikatoren mit einer Genauigkeit von 99,18% entwickelt. Die Genauigkeit kann nicht eins zu eins mit anderen Klassifikatoren verglichen werden, da der Datensatz ausschließlich entwickelt wird. Die mit dem FGLAUC-99-Klassifikator erzielte Genauigkeit ist jedoch besser als die Genauigkeit, die von anderen in der Literatur verfügbaren Klassifikatoren erhalten wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-76732-7_3 1d2a13747e05efd85cdd545bbe925015;de;;;7.4.;;;Extrahieren von Wissen aus kollaborativ kommentierten Anzeigenvideoinhalten Tools zur Unterstützung der kreativen Werbung stützen sich bisher auf statisches Wissen, das in Kreativitätsvorlagen und Entscheidungssystemen enthalten ist, die dem Brainstorming-Prozess indirekt Beschränkungen auferlegen. PromONTotion ist ein in Entwicklung befindliches System, das darauf abzielt, ein Unterstützungstool für Werbetreibende für den kreativen Prozess der Gestaltung einer neuartigen Werbekampagne zu schaffen, die auf benutzergesteuertem, generischem, automatisch gewonnenem und damit dynamischem semantischem Wissen basiert. Semantische Begriffe und Konzepte werden kollaborativ über Crowdsourcing bereitgestellt. Die vorliegende Arbeit beschreibt Data-Mining-Techniken, die auf die gesammelten Annotationen angewendet werden, und einige interessante erste Ergebnisse zu Anzeigeninhalt, Anzeigengattung, Anzeigenstil und Informationen zur Anzeigenwirkung/Popularität.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44722-2_10 4df79437b2a2349757dfb74cafcf1acf;de;;;7.4.;;;Mustererkennungstechniken zur Klassifizierung von Malware-Packern Das Packen ist die häufigste Verschleierungsmethode, die von Malware-Autoren verwendet wird, um die Erkennung und Analyse von Malware zu verhindern. Die Zahl neuer Packer und Varianten bestehender Packer in Kombination mit Packern, die immer ausgefeiltere Anti-Entpacker-Tricks und Verschleierungsmethoden anwenden, hat dramatisch zugenommen. Dies macht es für Antiviren(AV)-Forscher schwierig, kostspielig und zeitaufwändig, die traditionellen statischen Methoden zur Identifizierung und Klassifizierung von Packern durchzuführen, die hauptsächlich auf der Byte-Signatur des Packers basieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14081-5_23 a2361277944a8fbea009470a5d23af25;de;;;7.4.;;;Komplexe Umgebungswahrnehmung und positionierungsbasierter visueller Informationsabruf Das biologische Sehmodell ist darauf ausgerichtet, einen neuartigen Technologieansatz bereitzustellen, indem neue kognitive visuelle Merkmale mit inspirierten Nervenzellen des kognitiven Intelligenzcortex kombiniert werden und versucht wird, eine Beziehung zur Objekterkennung der realen Welt herzustellen. Eine beliebige natürliche Szene aus komplexer Umgebungswahrnehmung und -sensorik in der Robotermobilität und -manipulation am unstrukturierten zufälligen natürlichen Szenenverständnis wahrzunehmen, ist ein herausforderndes Problem in der visuellen Bildverarbeitung. Dieses Papier hat neuronale Netze (NN) betrachtet, die nichts anderes als das Gitter von „neuronenartigen“ Knoten sind. Basierend auf der NN-Technik haben die Autoren ein neues Schema für das Szenenverständnis und die Erkennung vorgeschlagen. Darüber hinaus werden die bedeutenden intellektuellen visuellen Merkmale auch für den Szenenausdruck verwendet, die sehr wichtig sind und dem Robotersehen kognitive Intelligenz verleihen. Aufgrund der dynamischen Natur der künstlichen neuronalen Netzintelligenz haben wir die Attribute des Gabor-Filters und des Laplace- oder Gauß-Filters angepasst, die eine bedeutende Rolle bei der visuellen Wahrnehmung von Robotern spielen. Durch die Untersuchung der Wahrnehmungsfähigkeit des natürlichen Szenenbildes aus einer komplexen Umgebung wird die Robotersicht durch die Integration kognitiver visueller Merkmale und des Szenenausdrucks verbessert.;-;-;-;https://link.springer.com/article/10.1007/s41870-020-00434-8 8ed0af40ae86e6917f765c18c08a80ca;de;;;7.4.;;;Künstliche Intelligenz in der Energiewelt – Gemeinsam handeln Die Chance, einen Rahmen zu entwickeln, der „denken“ kann, hat den Einzelnen seit authentischen Fällen fasziniert. Vom Menschen geschaffene Bewusstseins-(computerbasierte Intelligenz)-Frameworks enthalten zwei herausragende Distrikte, kompetente/Master-Frameworks (ES) und konstruierte/gefälschte neuronale Systeme (ANNs). Das wesentliche Ziel dieses Papiers ist es zu zeigen, wie ingenieurwissenschaftliche Erkenntnismethoden eine grundlegende Funktion bei der Demonstration und Vorhersage der Ausstellung unerschöpflicher Machtrahmen spielen können. Der Artikel zeigt das Know-how über die Leistung von Expertenstrukturen und neuronalen Systemen, indem eine Reihe von Problemen innerhalb der bemerkenswerten Kontrollen des unerschöpflichen Kraftdesigns dargestellt wird. Die unterschiedlichen Anwendungen von Expertenstrukturen und neuronalen Systemen werden in einer thematischen und nicht in einer sequentiellen oder sonstigen Anfrage gegeben. Die in diesem Beitrag vorgestellten Ergebnisse sind Deklaration bis an die Grenze des industriell hergestellten Wissens als Planungsinstrument in vielen Orten nachhaltiger Energietechnik.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8297-4_63 6cd78285ce6af17bf9948b120c58d5f5;de;;;7.4.;;;Kritische Bewertung von Predictive Analytics-Techniken zur Gestaltung von Wissensdatenbanken Die gegenwärtigen Diagnoseverfahren im medizinischen Bereich werden sehr stark durch die Clusteranalyseverfahren unterstützt. Techniken der Datenzusammenfassung werden verwendet, um die verborgenen Muster in riesigen Datensätzen zu entdecken. Sie können für die zukünftige Interpretation in verschiedenen Aspekten in verschiedenen Umgebungen verwendet werden. Im Kontext medizinischer Datenbanken ist das enorme Wachstum medizinischer Informationen und deren entsprechende Nutzung für die Krankheitsdiagnose ein anstrengender Prozess. Daher erfordern Krankheitsdiagnosesysteme die Kombination konventioneller Datenanalysen, die fundierte Kenntnisse verschiedener Krankheiten aufweisen. Jüngste Entwicklungen bei Datensegmentierungstechniken können verwendet werden, um die Berichte der Leberpatienten zusammen mit Krankheitstrends und Standardprozessen für die Ressourcennutzung bei Gesundheitsproblemen zu analysieren. Die Entwicklung eines neuen Systems auf der Grundlage der obigen Analyse unterstützt wiederum den Arzt bei der besseren Diagnose von Krankheiten. In der vorliegenden Arbeit werden verschiedene Klassifikationstechniken angewendet, um die Störungen der Leberfunktionen genau vorherzusagen. Ziel der vorliegenden Arbeit ist es, eine neue Methode zur Vorhersage der Krankheiten mit einer besseren Genauigkeit als die bestehenden traditionellen Klassifikationsalgorithmen vorzuschlagen. Es zeigte sich, dass diese Ergebnisse sehr viel versprechend und genauer sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-24322-7_49 2d9c00059fa104546f6ec05a2bdff214;de;;;7.4.;;;Eine neue Definition von „Künstlich“ für zwei künstliche Wissenschaften In diesem Artikel beschäftige ich mich mit einer konzeptionellen Fragestellung im Rahmen zweier Spezialwissenschaften: Künstliche Intelligenz und Synthetische Biologie, d. Meine Behauptung ist, dass die Standarddefinition des „Künstlichen“ nicht mehr geeignet ist, einige heutige künstliche Wissenschaften zu beschreiben, da die Grenze zwischen dem Natürlichen und dem Künstlichen nicht mehr so ​​scharf und klar ist wie in der Vergangenheit. Künstliche Intelligenz und synthetische Biologie, zwei Disziplinen mit neuen Technologien, neuen experimentellen Methoden und neuen theoretischen Rahmenbedingungen, alle brauchen eine neue, spezifischere und verfeinerte Definition von (dem) „Künstlichen“, die auch mit der Verwendung des synthetischen verbunden ist Methode zum Erstellen von Entitäten in der realen Welt und in offenen (realen oder virtuellen) Umgebungen. Die Notwendigkeit einer Neudefinition des Künstlichen liegt in der engen Verwandtschaft von KI und synthetischer Biologie mit der Biologie selbst begründet. Beides sind Ingenieurwissenschaften, die sich zumindest scheinbar der (Natur-)Biologie immer nähern, wenn auch aus unterschiedlichen und gegensätzlichen Richtungen. Ich zeige, wie das neue Konzept des Künstlichen daher das Ergebnis einer neuen Sichtweise auf die Biologie aus technischer und synthetischer Sicht ist, bei der die Grenze zwischen dem Natürlichen und dem Künstlichen viel verwischt ist. Daraus versuche ich, eine brandneue, nützlichere Definition für das zukünftige Verständnis, praktische und erkenntnistheoretische Zwecke dieser beiden künstlichen Wissenschaften zu formulieren.;-;-;-;https://link.springer.com/article/10.1007/s10699-021-09799-w a6693c3260245c41350dcdb005d2e21f;de;;;7.4.;;;Erklärbare KI in der Fertigung: Eine Fallstudie zur vorausschauenden Wartung Dieses Papier beschreibt ein Beispiel für eine erklärbare KI (Künstliche Intelligenz) (XAI) in Form eines Predictive Maintenance (PdM)-Szenarios für die Fertigung. Predictive Maintenance hat das Potenzial, viel Geld zu sparen, indem Maschinenausfälle reduziert und vorhergesagt werden. In dieser Fallstudie arbeiten wir mit verallgemeinerten Daten, um zu zeigen, wie dieses Szenario mit realen Produktionsdaten aussehen könnte. Dazu haben wir ein Machine-Learning-Modell basierend auf einem hocheffizienten Gradienten-Boosting-Entscheidungsbaum erstellt und evaluiert, um Maschinenfehler oder Werkzeugausfälle vorherzusagen. Obwohl die Fallstudie rein experimentell ist, können wir den Schluss ziehen, dass erklärbare KI in Form eines fokussierten analytischen und zuverlässigen Vorhersagemodells sinnvoll zur Vorhersage von Instandhaltungsaufgaben beitragen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-57997-5_8 5947c24619e5cd54442763be57272775;de;;;7.4.;;;Online-Funktionsauswahl des Klassenungleichgewichts über den PA-Algorithmus Ungleichgewichts-Klassifizierungstechniken wurden häufig in vielen Anwendungsbereichen des maschinellen Lernens angewendet, in denen die Anzahl der Mehrheits- (oder positiven) Klasse eines Datensatzes viel größer ist als die der Minderheits- (oder negativen) Klasse. Inzwischen ist die Merkmalsauswahl (FS) eine der Schlüsseltechniken für die hochdimensionale Klassifikationsaufgabe in einer Weise, die die Klassifikationsleistung und die Recheneffizienz stark verbessert. Die meisten Studien zur Merkmalsauswahl und Ungleichgewichtsklassifizierung beschränken sich jedoch auf das Offline-Batch-Lernen, das für einige praktische Szenarien nicht gut geeignet ist. In diesem Beitrag wollen wir hochdimensionale unausgeglichene Klassifikationsprobleme mit nur einer kleinen Anzahl aktiver Merkmale online genau und effizient lösen und schlagen hierfür zwei neuartige Online-Lernalgorithmen vor. In unserem Ansatz wird ein Klassifikator konstruiert, der nur eine kleine und feste Anzahl von Merkmalen umfasst, um eine Sequenz von unausgeglichenen Daten zu klassifizieren, die online empfangen werden. Wir formulieren die Konstruktion eines solchen Online-Lerners zu einem Optimierungsproblem und verwenden einen iterativen Ansatz zur Lösung des Problems basierend auf dem passiv-aggressiven (PA) Algorithmus sowie einem abgeschnittenen Gradienten (TG) Verfahren. Wir bewerten die Leistung der vorgeschlagenen Algorithmen basierend auf mehreren realen Datensätzen, und unsere experimentellen Ergebnisse haben die Wirksamkeit der vorgeschlagenen Algorithmen im Vergleich zu den Basislinien gezeigt.;-;-;-;https://link.springer.com/article/10.1007/s11390-016-1656-0 4034ee3ab0329a3cdb823272835d328c;de;;;7.4.;;;Kombination aus physiologischer und verhaltensbiometrischer Bestimmung zur Identifizierung des Menschen In diesem Artikel schlagen wir ein neuartiges Personenidentifikationsschema vor, das auf biometrischen Ganginformationen in Überwachungsvideos basiert und einfache PCA-LDA-Funktionen sowie RBF-MLP- und SMO-SVM-Klassifikatoren verwendet. Die experimentelle Auswertung von hochauflösenden Überwachungsvideobildern aus einer öffentlich zugänglichen Datenbank [1] zeigte, dass sich die kombinierte PCA-MLP- und LDA-MLP-Technik als leistungsfähige Methode zur Erfassung identitätsspezifischer Informationen aus Gehmustern erweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31537-4_30 c1633ced63d2f5805f2a0f5a0c9bb4de;de;;;7.4.;;;DAViS: eine einheitliche Lösung für die Datenerfassung, -analyse und -visualisierung in Echtzeit-Börsenprognosen Die Explosion von Online-Informationen mit dem jüngsten Aufkommen der digitalen Technologie in der Informationsverarbeitung, Informationsspeicherung, Informationsaustausch, Verarbeitung natürlicher Sprache und Text-Mining-Techniken hat es Aktieninvestoren ermöglicht, Marktbewegungen und Volatilität aus heterogenen Inhalten aufzudecken. Ein typischer Börseninvestor liest beispielsweise die Nachrichten, untersucht die Marktstimmung und analysiert technische Details, um vor dem Kauf oder Verkauf der Aktien eines bestimmten Unternehmens eine fundierte Entscheidung zu treffen. Die Erfassung eines dynamischen Börsentrends ist jedoch aufgrund der hohen Fluktuation und der Instationärität des Aktienmarktes eine Herausforderung. Obwohl bestehende Studien versucht haben, die Aktienvorhersage zu verbessern, haben nur wenige ein vollständiges Entscheidungsunterstützungssystem für Investoren bereitgestellt, um Echtzeitdaten aus mehreren Quellen abzurufen und aufschlussreiche Informationen für eine fundierte Entscheidungsfindung zu extrahieren. Um der oben genannten Herausforderung zu begegnen, schlagen wir eine einheitliche Lösung für die Datenerfassung, -analyse und -visualisierung in Echtzeit-Börsenprognosen vor, um relevante Finanzdaten aus Nachrichtenartikeln, sozialen Medien und technischen Unternehmensinformationen abzurufen und zu verarbeiten. Unser Ziel ist es, nicht nur nützliche Informationen für Aktieninvestoren bereitzustellen, sondern auch eine aussagekräftige Visualisierung, die es Anlegern ermöglicht, Storyline-Ereignisse, die sich auf die Aktienkurse auswirken, effektiv zu interpretieren. Insbesondere verwenden wir ein Ensemble aus diversifizierten, auf maschinellem Lernen basierenden Schätzern und innovativem kontextbezogenem Feature-Engineering, um die Aktienkurse des nächsten Tages vorherzusagen. Die Versuchsergebnisse zeigen, dass unsere vorgeschlagene Methode zur Bestandsprognose eine herkömmliche Basislinie mit einem durchschnittlichen mittleren absoluten prozentualen Fehler von 0,93 übertrifft. Unsere Ergebnisse bestätigen, dass die Nutzung eines Ensemble-Schemas von Methoden des maschinellen Lernens mit Kontextinformationen die Leistung der Bestandsvorhersage verbessert. Schließlich könnte unsere Studie auf eine Vielzahl innovativer Finanzanwendungen ausgedehnt werden, die versuchen, externe Erkenntnisse aus Kontextinformationen wie umfangreichen Online-Nachrichtenartikeln und Social-Media-Daten zu integrieren.;-;-;-;https://link.springer.com/article/10.1186/s40854-021-00269-7 7d6524128f4a98252f6fdd2c30e33f19;de;;;7.4.;;;Weiß, was es weiß: ein Rahmen für selbstbewusstes Lernen Wir stellen ein Lernframework vor, das Elemente des bekannten PAC und fehlergebundene Modelle kombiniert. Das KWIK-Framework (weiß, was es weiß) wurde speziell für seine Nützlichkeit in Lernumgebungen entwickelt, in denen aktive Exploration die Trainingsbeispiele beeinflussen kann, denen der Lernende ausgesetzt ist, wie dies bei Verstärkungslern- und aktiven Lernproblemen der Fall ist. Wir katalogisieren mehrere KWIK-lernbare Klassen sowie offene Probleme und demonstrieren deren Anwendung im erlebniseffizienten Reinforcement Learning.;-;-;-;https://link.springer.com/article/10.1007/s10994-010-5225-4 cc40de448567e3831f8c8de474c9066f;de;;;7.4.;;;Klassifikatorverlust bei metrischer Unsicherheit Im Feld eingesetzte Klassifikatoren können auf eine Weise verwendet und bewertet werden, die beim Trainieren des Modells nicht erwartet wurde. Die endgültige Bewertungsmetrik war möglicherweise zum Trainingszeitpunkt nicht bekannt, es können zusätzliche Leistungskriterien hinzugefügt worden sein, die Bewertungsmetrik kann sich im Laufe der Zeit geändert haben oder das reale Bewertungsverfahren war möglicherweise nicht zu simulieren. Unvorhergesehene Methoden zur Messung des Modellnutzens können die Leistung beeinträchtigen. Unser Ziel ist es, Modellierern experimentelle Unterstützung zu bieten, die mit einer möglichen „quermetrischen“ Leistungsverschlechterung konfrontiert sind. Um Modellauswahlmetriken zu identifizieren, die zu einer stärkeren metrikübergreifenden Leistung führen, charakterisieren wir zunächst den erwarteten Verlust, wenn die Auswahlmetrik fest gehalten und die Bewertungsmetrik variiert wird. Zweitens zeigen wir, dass die Anzahl der von einer Auswahlmetrik bewerteten Datenpunkte einen wesentlichen Einfluss auf die optimale Bewertung hat. Während wir diese Probleme angehen, betrachten wir den Effekt der Kalibrierung der Klassifikatoren, um die Einflüsse der Ausgabewahrscheinlichkeiten zu beeinflussen. Unsere Experimente zeigen, dass die Kreuzentropie bei gut kalibrierten Modellen die leistungsstärkste Auswahlmetrik ist, wenn nur wenige Daten für die Modellauswahl verfügbar sind. Mit diesen Experimenten sind Modellierer möglicherweise besser in der Lage, Auswahlmetriken auszuwählen, die robust sind, wenn unsicher ist, welche Bewertungsmetrik angewendet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74958-5_30 4e86671ea5b226eb158bb39fae02ac4e;de;;;7.4.;;;Sprecheridentifikationsansatz für die Post-Pandemie-Ära des Internets der Dinge Mit der schnellen Verschlimmerung der COVID-19-Pandemie sind die Organisationen, Industrien, Institutionen usw. Das Szenario des Internets der Dinge in der Post-COVID-Ära wird in der Tat interessant sein. Um die öffentliche Gesundheit zu gewährleisten, werden die soziale Distanzierung und der Semi-Lockdown in absehbarer Zukunft anhalten, und daher wird der Bedarf an sicheren Methoden zur Authentifizierung von Personen aus der Ferne immer wichtiger, insbesondere im Internet der Dinge, das eine Vielzahl von Netzwerken ist eine große Anzahl von eindeutig identifizierbaren Geräten. Was die Authentifizierungsstrategien zwischen Mensch und Gerät betrifft, ist in einem IoT-Szenario nach COVID-19 diejenige vorzuziehen, die weniger menschliche Beteiligung erfordert. Da die Palette der IoT-Geräte von winzigen Sensoren bis hin zu komplexen Maschinen reichen kann, wird darüber hinaus eine Authentifizierungsmethode begrüßt, die an jeden Gerätetyp angepasst werden kann. Angesichts dieser Tatsachen scheint die sprachbiometrische Authentifizierung die geeignetste zu sein, die eine ausgewogene Mischung aus Sicherheit, Anpassungsfähigkeit und Komfort für eine so fortschrittliche Welt der Konnektivität bieten kann. Hier stellen wir ein leichtes textunabhängiges sprachbiometrisches Verfahren für das IoT unter Verwendung von extrem lernenden Maschinen vor und wir führen eine vergleichende Analyse mit einer auf Deep Learning basierenden Methode der Sprecheridentifikation unter Verwendung von 3D-Convolutional Neural Networks durch. Wir haben experimentelle Studien mit verschiedenen Datensätzen durchgeführt und sind zu dem Schluss gekommen, dass die extrem lernbasierte Methode für das IoT besser geeignet ist, wenn man den Kompromiss zwischen der Erkennungsgenauigkeit und den Trainingszeitanforderungen berücksichtigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6977-1_42 7b39fcd043e55449e43db01df90289e9;de;;;7.4.;;;Konzept-Drifterkennung basierend auf Anomalieanalyse Beim maschinellen Online-Lernen ist die Fähigkeit, sich schnell an neue Konzepte anzupassen, sehr erwünscht. In diesem Artikel schlagen wir eine neuartige Drifterkennungsmethode vor, die als Anomaly Analysis Drift Detection (AADD) bezeichnet wird, um die Leistung von Machine-Learning-Algorithmen in einer nicht-stationären Umgebung zu verbessern. Die vorgeschlagene AADD-Methode basiert auf einer Anomalieanalyse der Genauigkeit der Lernenden, die mit der Ähnlichkeit zwischen der Trainingsdomäne der Lernenden und den Testdaten verbunden ist. Diese Methode identifiziert zunächst, ob es Konflikte zwischen dem aktuellen Konzept und neuen kommenden Daten gibt. Dann lernt der Lernende inkrementell die konfliktfreien Daten zur Konzepterweiterung, was die Genauigkeit des Lernenden bei zuvor trainierten Daten nicht verringert. Andernfalls wird ein neuer Lerner basierend auf den neuen Daten erstellt. Experimente veranschaulichen, dass dieses AADD-Verfahren neue Konzepte schnell erkennen und die Dehnungsdrift inkrementell lernen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12637-1_33 12c382904482c101ed3fa8af9e048bfe;de;;;7.4.;;;Hierarchisches Lernen von Navigationsverhalten in einem autonomen Roboter mit einem prädiktiven Sparse Distributed Memory Wir beschreiben einen allgemeinen Rahmen für das Erlernen von wahrnehmungsbasiertem Navigationsverhalten in autonomen mobilen Robotern. Eine hierarchische verhaltensbasierte Zerlegung der Steuerungsarchitektur wird verwendet, um ein effizientes modulares Lernen zu ermöglichen. Reaktive Verhaltensweisen auf niedrigerer Ebene wie Kollisionserkennung und Hindernisvermeidung werden unter Verwendung eines stochastischen Bergaufstiegsverfahrens erlernt, während eine zielorientierte Navigation auf höherer Ebene unter Verwendung eines selbstorganisierenden, spärlich verteilten Speichers erreicht wird. Der Speicher wird anfänglich trainiert, indem der Roboter auf einer kleinen Anzahl von Wegen innerhalb eines bestimmten Interessenbereichs teleoperiert wird. Während des Trainings werden die Vektoren sowohl im sensorischen als auch im motorischen Raum durch eine Form des kompetitiven Lernens kontinuierlich angepasst, um Basisvektoren zu erhalten, die den sensomotorischen Raum effizient umspannen. Nach dem Training navigiert der Roboter von beliebigen Orten zu einem gewünschten Zielort unter Verwendung von Motorausgangsvektoren, die durch ein auf Ausprägungsbasiertes gewichtetes Mittelungsschema berechnet werden. Das allgegenwärtige Problem des wahrnehmungsbezogenen Aliasing in Markovaschen Umgebungen endlicher Ordnung wird behandelt, indem es sowohl dem aktuellen als auch dem Satz unmittelbar vorausgehender wahrnehmungsbezogener Eingaben ermöglicht wird, den Motorausgabevektor für den aktuellen Zeitpunkt vorherzusagen. Wir beschreiben experimentelle und Simulationsergebnisse, die mit einem mobilen Roboter erzielt wurden, der mit Stoßsensoren, Fotosensoren und Infrarotempfängern ausgestattet ist und in einer geschlossenen, mit Hindernissen durchsetzten Arena navigiert. Die Ergebnisse zeigen, dass das Verfahren bei einer Reihe von Navigationsaufgaben erfolgreich funktioniert, die unterschiedliche Grade von Wahrnehmungs-Aliasing aufweisen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1007492624519 919685a0bf4fee99427282db890ac572;de;;;7.4.;;;Aspekte des aktiven Normlernens und die Wirkung des Lügens auf die Normentstehung in Agentengesellschaften Normen haben ein reibungsloseres Funktionieren in menschlichen Gesellschaften ermöglicht. Im Bereich normativer Multi-Agenten-Systeme interessieren sich Forscher dafür, wie das Konzept sozialer Normen genutzt werden kann, um soziale Ordnung in elektronischen Agentengesellschaften zu erleichtern. In diesem Zusammenhang hat der Bereich der Normemerenz großes Interesse in der Forschung geweckt. Die Ziele dieses Papiers sind zweifach. Zunächst diskutieren wir die Ansätze des Normlernens in Agentengesellschaften und diskutieren die drei Aspekte des aktiven Normlernens (erfahrungsbasiertes, beobachtendes und kommunikationsbasiertes Lernen) in Agentengesellschaften. Anhand eines Beispiels demonstrieren wir die Nützlichkeit der Kombination dieser drei Aspekte des Normenlernens. Zweitens untersuchen wir die Auswirkung der Präsenz von Lügnern in einer Agentengesellschaft auf die Entstehung von Normen. Agenten, die lügen, verzerren die Wahrheit, wenn sie nach der Norm in einer Agentengesellschaft gefragt werden. Wir zeigen, dass Lügen einen schädlichen Einfluss auf die Entstehung von Normen hat. Insbesondere identifizieren wir mithilfe von Simulationen Bedingungen, unter denen die in einer Gesellschaft entstandenen Normen in Gegenwart von Lügnern aufrechterhalten werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25044-6_6 fbe3d94c5af12c5cc6896fe868096776;de;;;7.4.;;;Big-Data-Spektrenanalyse mit analytischer Programmierung und Random Decision Forests Die Spektrenanalyse an großen Datensätzen steht im Mittelpunkt dieses Papiers. Zunächst diskutieren wir eine Methode, die für die Spektrenanalyse nützlich ist – die analytische Programmierung und ihre Implementierung. Unser Ziel ist es, aus Spektren, die für Be-Sterne charakteristisch sind, mathematische Formeln von Emissionslinien zu erstellen. Ein Problem bei der Durchführung dieser Aufgabe ist die symbolische Regression, die den Prozess in unserer Anwendung darstellt, wenn gemessene Daten der am besten repräsentierten mathematischen Formel entsprechen. Früher war dies nur eine menschliche Domäne, heute gibt es Computermethoden, die uns dies mehr oder weniger effektiv ermöglichen. Eine neue Methode der symbolischen Regression im Vergleich zur genetischen Programmierung und Grammatikevolution ist die analytische Programmierung. Das Ziel dieser Arbeit ist es, die Effizienz des parallelen Ansatzes dieses Algorithmus unter Verwendung der CUDA-Architektur zu überprüfen. Als nächstes werden wir die parallele Implementierung von Random Decision Forest (RDF) diskutieren, um riesige Mengen verschiedener Spektren zu klassifizieren. Die über AP erhaltenen mathematischen Formeln werden verwendet, um die Attribute der untersuchten Spektren zu reduzieren. Unser Ziel ist es, einen skalierbaren Algorithmus zur Klassifizierung solcher Daten vorzuschlagen, der vorzugsweise nur einen Datendurchlauf benötigt, während eine akzeptable Genauigkeit beibehalten wird. Später werden wir versuchen, ein Modul zu erstellen, das mit dem VO- und DAta-Mining- und Exploration-Projekt kompatibel ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45237-0_26 40e4cfd867f1dd3713ced9fb0c9f47f8;de;;;7.4.;;;Verwenden von imaginären Ensembles zur Auswahl von GP-Klassifikatoren Wenn die Vorhersagemodellierung verständliche Modelle erfordert, verwenden die meisten Data Miner spezialisierte Techniken, die Regelsätze oder Entscheidungsbäume erstellen. Diese Studie zeigt jedoch, dass genetisch weiterentwickelte Entscheidungsbäume die spezialisierteren Techniken sehr gut übertreffen können. Der vorgeschlagene Ansatz entwickelt eine Reihe von Entscheidungsbäumen und verwendet dann eine von mehreren vorgeschlagenen Auswahlstrategien, um einen bestimmten Baum aus diesem Pool auszuwählen. Die inhärente Inkonsistenz der Evolution ermöglicht es, jeden Baum unter Verwendung aller Daten zu entwickeln und dennoch etwas andere Modelle zu erhalten. Die Hauptidee besteht darin, diese recht genauen und leicht unterschiedlichen Bäume zu verwenden, um ein imaginäres Ensemble zu bilden, das dann als Leitfaden bei der Auswahl eines bestimmten Baumes verwendet wird. Einfach ausgedrückt, wird der Baum gewählt, der die größte Anzahl von Instanzen identisch mit dem Ensemble klassifiziert. In den Experimenten mit 25 UCI-Datensätzen erzielten zwei Selektionsstrategien eine signifikant höhere Genauigkeit als der Standardregel-Induktor J48.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12148-7_24 7e067808d44b5840af4ad6868d9f46f2;de;;;7.4.;;;Autoencoder für dynamische gemeinsame Variationsgraphen Das Erlernen von Netzwerkdarstellungen ist eine grundlegende Aufgabe für viele Graphanwendungen wie Linkvorhersage, Knotenklassifizierung, Graphclustering und Graphvisualisierung. Viele reale Netzwerke werden als dynamische Netzwerke interpretiert und entwickeln sich im Laufe der Zeit. Die meisten existierenden Grapheneinbettungsalgorithmen wurden hauptsächlich für statische Graphen entwickelt und können die Entwicklung eines großen dynamischen Netzwerks nicht erfassen. In diesem Beitrag schlagen wir dynamische gemeinsame Variational Graph Autoencoder (Dyn-VGAE) vor, die sowohl lokale Strukturen als auch zeitliche Evolutionsmuster in einem dynamischen Netzwerk lernen können. Dyn-VGAE bietet einen gemeinsamen Lernrahmen für die gleichzeitige Berechnung zeitlicher Darstellungen aller Graph-Schnappschüsse. Jeder Autoencoder bettet einen Graph-Snapshot basierend auf seiner lokalen Struktur ein und kann durch die Zusammenarbeit mit anderen Autoencodern auch zeitliche Abhängigkeiten lernen. Wir führen experimentelle Studien an dynamischen Real-World-Graph-Datensätzen durch und die Ergebnisse demonstrieren die Wirksamkeit der vorgeschlagenen Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-43823-4_32 1679aa7e80195357da386fefef7eb284;de;;;7.4.;;;Reziproke und heterogene Link-Vorhersage in sozialen Netzwerken Die Linkvorhersage ist eine Schlüsseltechnik in vielen Anwendungen in sozialen Netzwerken, bei denen potenzielle Verbindungen zwischen Entitäten vorhergesagt werden müssen. Herkömmliche Linkvorhersagetechniken behandeln entweder homogene Entitäten, z. B. Personen-zu-Personen-, Artikel-zu-Artikel-Links oder nicht-reziproke Beziehungen, z. B. Personen-zu-Artikel-Links. Ein herausforderndes Problem bei der Linkvorhersage ist jedoch die heterogene und gegenseitige Linkvorhersage, wie die genaue Vorhersage von Übereinstimmungen auf einer Online-Dating-Site, Jobs oder Arbeitnehmern auf Job-Websites, bei denen die Links von beiden Entitäten, die heterogen zu disjunkten gehören, wechselseitig bestimmt werden Gruppen. Die Art und die Ursachen der Interaktionen in diesen Domänen unterscheiden die Vorhersage von heterogenen und reziproken Verbindungen erheblich von der herkömmlichen Version des Problems. In dieser Arbeit gehen wir diese Probleme an, indem wir einen neuartigen lernbaren Rahmen namens . vorschlagen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30220-6_17 58ce9b24c2290d40af5b923da20a0671;de;;;7.4.;;;Effizienter binärer Klassifikator zur Vorhersage von Diabetes mit Datenvorverarbeitung und Support Vector Machine Diabetes bietet viele Möglichkeiten, Klassifikatoren zu erstellen, da eine Fülle von Patientendaten öffentlich zugänglich ist. Es ist eine Krankheit, die die große Bevölkerung betrifft und daher viel Geld kostet. Es breitet sich im Laufe der Jahre auf die anderen Organe im Körper aus und macht seine Wirkung tödlich. Daher sind die Ärzte an einer frühzeitigen und genauen Erkennung von Diabetes interessiert. Dieses Papier präsentiert einen effizienten binären Klassifikator zur Erkennung von Diabetes mit Hilfe von Datenvorverarbeitung und Support Vector Machine (SVM). In dieser Studie wird der Attribut-Evaluator und die beste erste Suche verwendet, um die Anzahl der Merkmale zu reduzieren. Die Dimension des Eingabe-Features wird von acht auf drei reduziert. Der verwendete Datensatz ist ein Pima-Diabetiker-Datensatz aus dem UCI-Repository. Die erhebliche Steigerung der Genauigkeit wird durch die Verwendung der Datenvorverarbeitung festgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11933-5_15 7e3fede3e20f261f23624727493199f1;de;;;7.4.;;;Abruf relevanter historischer Datentriage-Operationen in Security Operation Centern Die Triage-Analyse ist eine grundlegende Phase bei Cyberoperationen in Security Operations Centers (SOCs). Die massiven Datenquellen stellen hohe Anforderungen an die Fähigkeit der Cybersicherheitsanalysten zur Informationsverarbeitung und analytischen Argumentation. Darüber hinaus arbeiten die meisten Junior-Sicherheitsanalysten viel weniger effizient als Senior-Analysten bei der Entscheidung, welche Datentriage-Operationen durchgeführt werden sollen. Um (Junior-)Analysten zu einer besseren Leistung zu verhelfen, wurden mehrere Abrufmethoden vorgeschlagen, um die Datentriage durch Abrufen der relevanten historischen Datentriage-Operationen von leitenden Sicherheitsanalysten zu erleichtern. Dieses Papier führt einen Überblick über die bestehenden Abrufmethoden, einschließlich des regelbasierten Abrufs und des kontextbasierten Abrufs von Datentriagevorgängen. Außerdem werden die neuen Richtungen bei der Lösung des Problems der Datentriageoperationsabrufung erörtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-04834-1_12 94fd248150cf215b3a69a6488739432a;de;;;7.4.;;;Passende Empfehlungstechnologien und Domänen Empfehlungssysteme bilden eine äußerst vielfältige Sammlung von Technologien und Ansätzen. Das Kapitel soll Forschern und Entwicklern dabei helfen, die Empfehlungstechnologien zu identifizieren, die am wahrscheinlichsten auf verschiedene Empfehlungsbereiche anwendbar sind. Im Gegensatz zu anderen Taxonomien von Empfehlungssystemen konzentriert sich unser Ansatz auf die Frage des Wissens: Welches Wissen braucht ein Empfehlungssystem, um zu funktionieren, und woher kommt dieses Wissen? Unterschiedliche Empfehlungsdomänen (z. B. Bücher vs. Eigentumswohnungen) bieten unterschiedliche Möglichkeiten zur Sammlung und Anwendung von Wissen. Diese Überlegungen führen zu einer Zuordnung zwischen Domänenmerkmalen und Empfehlungstechnologien.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-85820-3_11 fd0c8d2c524d0486c4ccdf89018b4b63;de;;;7.4.;;;Fortschritt in Wissenschaft und Technologie und menschlichen Gesellschaften Wie der Ausdruck Zivilisation von Wissenschaft und Technologie andeutet, bauen moderne Gesellschaften auf hochentwickelten Fortschritten in Wissenschaft und Technologie auf. Dieses Kapitel gibt einen Überblick darüber, wie sich gesellschaftliche Sicherheitswissenschaften auf Probleme in menschlichen Gesellschaften beziehen und gibt einen Überblick über die Herausforderungen in modernen Gesellschaften.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2775-9_2 bcd9e680149e104e2b836a99eb3bd091;de;;;7.4.;;;Herausforderungen des Stream Learning für die vorausschauende Instandhaltung im Eisenbahnsektor Intelligente Züge sind heute mit Sensoren ausgestattet, die im Betrieb eine Fülle von Daten generieren. Diese Daten können direkt oder indirekt den Gesundheitszustand der Züge widerspiegeln. Daher ist es von Interesse, diese Daten zeitnah, vorzugsweise während der Erzeugung, zu analysieren, um den Wartungsbetrieb proaktiver und effizienter zu gestalten. Dieses Papier bietet einen kurzen Überblick über vorausschauende Wartung und Stream Learning mit dem Hauptziel, Stream Learning zu nutzen, um den Instandhaltungsbetrieb im Eisenbahnsektor zu verbessern. Wir begründen die Anwendbarkeit und den vielversprechenden Nutzen von Stream Learning am Beispiel eines realen Eisenbahndatensatzes der Zugtüren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-66770-2_2 2912174d0a21d360b55456a2cc3bdebd;de;;;7.4.;;;Verbesserung der Verkehrssicherheit in Indien mithilfe von Data-Mining-Techniken Verkehrsunfälle sind in Indien sehr häufig. Die Weltgesundheitsorganisation (WHO) hat bekannt gegeben, dass Indien die weltweit höchste Unfallrate im Straßenverkehr hat. Dem Bericht zufolge sind schlechtes Fahrverhalten, Trunkenheit am Steuer, schlecht gewartete Straßen und Fahrzeuge die Hauptauslöser für Verkehrsunfälle. Statistiken zeigen, dass sich jede Minute ein schwerer Verkehrsunfall im Land ereignet. Die Hauptstadt Delhi gehört zu den tödlichsten. Um das Ziel der Reduzierung von Verkehrsunfällen zu erreichen, müssen neuartige und robuste Präventionsstrategien zur Verbesserung der Straßenschwere entwickelt werden. In dieser Arbeit schlagen wir die Verwendung von Data-Mining-Framework vor, um den Verkehr auf den National Highways of India zu analysieren. Unter Verwendung echter Datensätze der National Highway of India werden wir wichtige Muster für Unfalldaten auf National Highways of India untersuchen und die wichtigsten Ursachen für Straßenverkehrsunfälle identifizieren. Das entdeckte Wissen kann vom indischen Ministerium für Straßenverkehr und Autobahnen genutzt werden, um wirksame Entscheidungen zur Verringerung der Straßenbelastung zu treffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8527-7_17 870afaae6a01b4fd532b6d8a2ca9186e;de;;;7.4.;;;Fallbasierte Informationsbeschaffung In diesem Papier wird ein Ansatz des Case-Based Reasoning (CBR) als guter Weg zur schrittweisen Verbesserung einer Strategie zum Abrufen von Informationen diskutiert. Der vorgeschlagene Ansatz, Cabri-n, erzielt eine Synergie zwischen CBR und Informationsabruf, die darauf abzielt, das Feedback der Benutzer zu nutzen, um die kurzfristigen Abrufleistungen (während einer einzelnen Abrufsitzung) und die langfristigen Leistungen (über die Lebensdauer des Systems) zu verbessern. . Die langfristige Verbesserung wird durch die Verwaltung eines Sitzungsgedächtnisses erreicht, das sowohl Erfolge als auch Misserfolge beim Abrufen von Informationen ausnutzt. Eine über die Menge potenzieller Informationsbedürfnisse definierte Typologie dient als Metaindex für das Langzeitgedächtnis und ermöglicht so ein kontextsensitives Abrufen und Anpassen früherer Sitzungen. Außerdem diskutieren wir einige häufige Probleme von CBR und Information Retrieval, was ihre Kombination zu einem vielversprechenden Paradigma macht.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-58330-0_103 8599720e3722c081f75c1b2f771e988c;de;;;7.4.;;;Erkennung von Tunnelrissen basierend auf Deep Convolutional Neural Network Classifier Die rechtzeitige Erkennung und Behandlung von Tunnelrissen ist für die Sicherheit des Eisenbahnverkehrs von entscheidender Bedeutung. Da die Menge an Tunnelbildern, die von Hochgeschwindigkeitskameras im Zug gesammelt werden, extrem groß ist, kann die manuelle Methode in den letzten Jahren nicht den tatsächlichen Bedarf decken, während herkömmliche Bildverarbeitungsmethoden keine zufriedenstellende Geschwindigkeit und Genauigkeit erreichen können. In diesem Beitrag schlagen wir einen neuartigen Algorithmus vor, der auf Deep Learning basiert, um dieses Problem zu lösen. Wir verwenden zuerst den Simple Linear Iterative Clustering Superpixel-Algorithmus, um die ursprünglichen Tunneldaten zu segmentieren und dann die Bilder künstlich zu kommentieren. Und schließlich einen Datensatz namens CLS-CRACK zum Trainieren und Testen des Klassifikationsmodells des Deep Convolutional Neural Network erstellen. Wir konzipieren unser Klassifizierungsnetzwerk auf Basis von ResNet18 und beenden die Experimente mit einer NVIDIA GeForce GTX Titan X auf einem Framework namens caffe. Schließlich zeigen die Ergebnisse, dass der neue Algorithmus im Validierungssatz mit einer Genauigkeit von 94,0 % und einem Rückruf von 83,0 % gut abschneidet und der Zeitaufwand für jedes ursprüngliche Tunnelbild innerhalb von 0,025 s liegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2203-7_55 5b5fa493e9973852da81394a243d1ee3;de;;;7.4.;;;Natural Language Processing Based Sentimental Analysis of Hindi (SAH) Script and Optimization Approach Die Sentimentalanalyse ist eine der häufigsten Anwendungen von Natural Language Processing (NLP). Sentimentanalyse, der Begriff selbst bezieht sich auf die Identifizierung der Emotionen und Meinungen von Menschen durch geschriebenen Text. Es befasst sich mit der Informationsextraktion aus jedem Text basierend auf der Polarität im sozialen Verhalten, egal ob es positiv, negativ oder neutral ist. Dieses Papier präsentiert einen praktischen dynamischen Ansatz, um die Polarität eines jeden Satzes zu finden und die Meinung des jeweiligen Satzes zu analysieren. Die vorgeschlagene Sentimental Analysis of Hindi (SAH)-Schrift hat zwei verschiedene Klassifikatoren übernommen Naive Bayes Classifier und Decision Tree Classifier wird für die Textextraktion verwendet. Die positive, neutrale und negative Ergebnisvalidierung zeigt ein vergleichendes Ergebnis der Sentimentalanalyse.;-;-;-;https://link.springer.com/article/10.1007/s10772-020-09730-x c4e393c9b52caec982874ead2ca04ebc;de;;;7.4.;;;Sequenzklassifizierung über Hidden-Markov-Modelle mit großem Rand Wir adressieren das Sequenzklassifikationsproblem mit einem probabilistischen Modell basierend auf Hidden Markov Modellen (HMMs). Im Gegensatz zu häufig verwendeten Likelihood-basierten Lernmethoden wie dem Joint/Conditional Maximum Likelihood Estimator führen wir einen diskriminativen Lernalgorithmus ein, der sich auf die Maximierung der Klassengrenzen konzentriert. Unser Ansatz hat zwei Hauptvorteile: (i) Als Erweiterung von Support Vector Machines (SVMs) auf sequentielle, nicht-euklidische Daten erbt der Ansatz die Vorteile von Margin-basierten Klassifikatoren, wie zum Beispiel die beweisbaren Generalisierungsfehlergrenzen. (ii) Im Gegensatz zu vielen Algorithmen, die auf nichtparametrischer Schätzung von Ähnlichkeitsmaßen basieren, die dem Datenbereich schwache Einschränkungen erzwingen, nutzt unser Ansatz die latente Markov-Struktur des HMM, um das Modell im hochdimensionalen Sequenzraum zu regulieren. Wir demonstrieren signifikante Verbesserungen der Klassifikationsleistung der vorgeschlagenen Methode in einer umfangreichen Reihe von Bewertungen von Zeitreihensequenzdaten, die häufig in Data-Mining- und Computer-Vision-Domänen auftreten.;-;-;-;https://link.springer.com/article/10.1007/s10618-010-0206-6 a8c70636e1c0e1a0ac476fe20236667d;de;;;7.4.;;;Methoden und Metriken zur Datenverzerrung in einem Terroranalysesystem Die Wahrung der Privatsphäre ist ein wichtiges Anliegen bei der Anwendung von Data-Mining-Techniken auf Datensätze, die personenbezogene, sensible oder vertrauliche Informationen enthalten. Datenverzerrung ist eine kritische Komponente für den Schutz der Privatsphäre in sicherheitsrelevanten Data-Mining-Anwendungen, wie beispielsweise in Data-Mining-basierten Terroranalysesystemen. In diesem Kapitel wird eine Sparsified Singular Value Decomposition (SVD)-Methode zur Datenverzerrung vorgestellt. Einige Metriken zur Messung des Unterschieds zwischen dem verzerrten Datensatz und dem Originaldatensatz und dem Grad des Datenschutzes werden ebenfalls ausführlich erläutert. Die experimentellen Ergebnisse mit synthetischen und realen Datensätzen zeigen, dass die Sparsified-SVD-Methode gut funktioniert, um die Privatsphäre zu wahren und die Nützlichkeit der Datensätze aufrechtzuerhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-71613-8_16 56a1033cc8d0d40b8b1753ca2b970d21;de;;;7.4.;;;Anwendung von Data-Mining-Techniken auf die Entscheidungsfindung bei der Entwicklung neuer Produkte Obwohl eine erfolgreiche Neuproduktentwicklung (NPD) erhebliche Gewinne erzielen kann, ist sie eine kostspielige und risikoreiche Investition. Die damit verbundenen Fragen des NPD-Erfolgs/-Misserfolgs beschäftigen daher Praktiker und Akademiker. Aus diesem Grund liefert die Studie eine NPD-Entscheidungsmethode, um das Investitionsrisiko bei der Umsetzung von NPD-Projekten für Unternehmen zu reduzieren. Die Forschung entwickelt ein hybrides Klassifizierungsmodell, das eine Vielzahl von Data-Mining-Klassifizierungstechniken wie Bayes Net, Lazy Learner, Bagging-Bootstrap Aggregating und Decision Trees verwendet, um Unternehmen dabei zu helfen, einfach und genau Entscheidungen zu treffen. Zur weiteren empirischen Validierung des vorgeschlagenen Modells werden insgesamt 151 NPD-Daten von 25 Unternehmen gesammelt. Die empirischen Ergebnisse zeigen, dass die kritischen Erfolgsfaktoren (CSFs) der Beeinflussung der NPD als Produktmenge, Produktlebenszyklus, Vertriebsgebiet, Projektumfang und Kapital bestimmt werden. Schließlich wird das wissensbasierte Entscheidungsfindungssystem der NPD basierend auf der Ausführung von Entscheidungsbäumen bestimmt. Darüber hinaus wurde das Entscheidungsfindungssystem in dieser Untersuchung durch die Verwendung einer Reihe von NPD-Daten eines tatsächlichen Unternehmens A als effektive Referenz für die Einschätzung der Effizienz einer zukünftigen Klassifizierung eines NPD-Projekts verifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3648-5_71 5a6cef14918055f89b566bd8333c3688;de;;;7.4.;;;Extraktion des reduzierten Trainingssatzes basierend auf dem groben Satz in SVMs In SVMs sind die Datenpunkte, die in den interaktiven Bereichen zweier Klassen liegen, sehr wichtig, um die Hyperebene zu bilden und schwer zu klassifizieren. Die Auswahl des reduzierten Trainingssatzes, der nur die interaktiven Datenpunkte enthält, ist einer der wichtigen Punkte. Es gibt viele Verfahren, mit denen die leicht falsch klassifizierten Trainingsdaten ausgewählt werden, um das Training zu beschleunigen. Das Extraktionsverfahren des reduzierten Trainingssatzes wird unter Verwendung der Grenze des groben Satzes vorgeschlagen. Zunächst wird für das Zweiklassenproblem der gesamte Trainingssatz in drei Bereiche unterteilt: der Bereich, der nur die positiven Abtastwerte enthält, der Bereich, der nur aus den negativen Abtastwerten besteht, und der Grenzbereich, der nicht nur die positiven Abtastwerte enthält, sondern auch die negativen. Zweitens ist die Grenzregion der Schnittpunkt zweier Klassen und wird ausgewählt, um SVMs zu trainieren. Drittens werden die Zweiklassen- und Mehrklassenprobleme verwendet, um die Machbarkeit der vorgeschlagenen SVMs zu überprüfen. Die experimentellen Ergebnisse zum klassischen Benchmark-Datensatz des maschinellen Lernens zeigen, dass die vorgeschlagenen lernenden Maschinen die Anzahl der Trainingsdaten verkleinern und deren Generalisierungsfähigkeit kaum beeinflussen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01510-6_30 5e972dbbe27c8f949129ef5a95f76c8e;de;;;7.4.;;;Das „Bauchgefühl“ im Entscheidungsprozess: Ein rechnerisch effizienter Ansatz zur Beeinflussung der Beziehungsbewertung Deep Learning ist ein relativ neues Forschungsgebiet, das durch die Notwendigkeit motiviert ist, genauere, flexiblere und anwendbare Methoden zur Wissensentdeckung zu erhalten. Deep Learning ist jedoch ein viel umfassenderes Konzept, das ein tiefes Verständnis eines Szenarios und seiner entsprechenden Parameter mit sich bringt, mit dem Ziel, die Verbindungen zwischen ihnen vollständig zu beschreiben. In diesem Beitrag werden wir argumentieren, dass ein „Bauchgefühl“-Ansatz potenziell verwendet werden kann, um genaue Ergebnisse zu erhalten, und wir werden einen ersten Ansatz zur Bewertung spezifischer Informationen betrachten, die von Abhängigkeitsnetzwerken erfasst werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-65636-6_52 029efcbeaa783a20032165c58e8eef4b;de;;;7.4.;;;Constrained Least Squares Regression für teilüberwachtes Lernen Die Kernaufgaben des graphbasierten semi-überwachten Lernens (GSSL) sind der Aufbau eines geeigneten Graphen und die Auswahl geeigneter Überwachungsinformationen. Der ideale Graph ist in der Lage, die intrinsische Datenstruktur zu skizzieren, und die idealen Aufsichtsinformationen könnten die gesamten Daten darstellen. In diesem Artikel schlagen wir eine neue Methode zum Lernen von Graphen vor, die als Constrained Least Squares Regression (CLSR) bezeichnet wird und die Überwachungsinformationen in den Lernprozess von Graphen integriert. Um einen adaptiveren Graphen zu lernen, werden Regressionskoeffizienten und Nachbarbeziehungen in CLSR kombiniert, um die globalen bzw. lokalen Datenstrukturen zu erfassen. Darüber hinaus wird als Nebenprodukt von CLSR eine neue Strategie vorgestellt, um die qualitativ hochwertigen Datenpunkte als markierte Proben auszuwählen, was in realen Anwendungen praktisch ist. Experimentelle Ergebnisse an verschiedenen realen Datensätzen demonstrieren die Wirksamkeit von CLSR und der Stichprobenauswahlstrategie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06605-9_10 6069c0312fb564f6a1ffc63783fe4198;de;;;7.4.;;;Verwendung der gewichteten Hybriddiskretisierungsmethode zur Analyse von Klimaänderungen Data Mining ist der Prozess, bei dem große Datenmengen abgefragt und Informationen extrahiert werden, die oft zuvor unbekannt waren, unter Verwendung mathematischer, statistischer und maschineller Lerntechniken. Einige der Data-Mining-Techniken wie Klassifizierung und Clustering können jedoch nicht mit numerischen Attributen umgehen, obwohl die meisten realen Datensätze einige numerische Attribute enthalten. Kontinuierliche Attribute sollten in einen kleinen klaren Bereich von nominalen Attributen unterteilt werden, um Data-Mining-Techniken anwenden zu können. Eine korrekte Diskretisierung macht den Datensatz prägnant und trägt zur hohen Leistungsfähigkeit von Klassifikationsalgorithmen bei. Mittlerweile werden mehrere Methoden vorgestellt und angewendet, dies ist jedoch oft bereichsabhängig. In diesem Artikel schlagen wir eine gewichtete hybride Diskretisierungstechnik vor, die auf Entropie und Kontingenzkoeffizienten basiert. Außerdem analysieren wir die Leistungsbewertung mit bekannten Diskretisierungstechniken wie Equal-width Binning, 1R, MDLP und ChiMerge.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35600-1_28 a898ef9ba9250f2cb8af45e1ab1690e9;de;;;7.4.;;;Ensemble aus mehreren kNN-Klassifikatoren zur gesellschaftlichen Risikoklassifizierung Die gesellschaftliche Risikoklassifizierung ist ein grundlegendes und komplexes Thema für die gesellschaftliche Risikowahrnehmung. Um eine gesellschaftliche Risikoklassifizierung durchzuführen, werden Tianya-Forum-Beiträge als Datenquelle ausgewählt und vier Arten von Darstellungen verwendet: Zeichenfolgendarstellung, Begriffshäufigkeitsdarstellung, TF-IDF-Darstellung und die verteilte Darstellung von BBS-Beiträgen. Unter Verwendung von Edit Distance oder Cosinus-Ähnlichkeit als Distanzmetrik werden vier k-Nearest Neighbor (kNN)-Klassifikatoren basierend auf unterschiedlichen Darstellungen entwickelt und verglichen. Aufgrund der Priorität der Wortreihenfolge und semantischen Extraktion des neuronalen Netzmodells Paragraph Vector, zeigt kNN basierend auf der verteilten Repräsentation von Paragraph Vector (kNN-PV) Wirksamkeit für die gesellschaftliche Risikoklassifizierung. Um die Leistungsfähigkeit der gesellschaftlichen Risikoklassifizierung durch unterschiedliche Gewichtungen zu verbessern, wird kNN-PV außerdem mit anderen drei kNN-Klassifikatoren als Ensemble-Modell kombiniert. Durch die Brute-Force-Grid-Suchmethode werden die optimalen Gewichte verschiedenen kNN-Klassifikatoren zugewiesen. Im Vergleich zu kNN-PV zeigen die experimentellen Ergebnisse, dass;-;-;-;https://link.springer.com/article/10.1007/s11518-017-5346-4 f4da89a9b255fe099225a28bb048c83f;de;;;7.4.;;;Reibungsloses Boosten für margenbasiertes Ranking Wir schlagen einen neuen Boosting-Algorithmus für bipartite Ranking-Probleme vor. Unser Boosting-Algorithmus namens SoftRankBoost ist eine Modifikation von RankBoost, die nur eine glatte Verteilung über die Daten beibehält. SoftRankBoost erreicht nachweislich ungefähr die maximale weiche Marge über alle Paare von positiven und negativen Beispielen, was einen hohen AUC-Score für zukünftige Daten impliziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87987-9_21 52ca4ccfdce096ab3a813813733a2f11;de;;;7.4.;;;Eine globale Optimierungsmethode für semi-überwachtes Clustering In diesem Beitrag adaptieren wir Tuys konkave Schnittebenenmethode an das semi-überwachte Clustering. Wir geben auch Eigenschaften lokaler optimaler Lösungen des semi-überwachten Clusterings an. Numerische Beispiele zeigen, dass diese Methode eine bessere Lösung liefern kann als andere semi-überwachte Clustering-Algorithmen.;-;-;-;https://link.springer.com/article/10.1007/s10618-008-0104-3 174286651c0f0477725d27567fa01624;de;;;7.4.;;;Ein Multi-Granularity-Wissensassoziationsmodell für geologischen Text basierend auf Hypernetzwerk Mit dem explosionsartigen Wachstum geologischer Daten konzentrieren sich beträchtliche Forschungen darauf, spezifische Informationen aus massiven Daten genau abzurufen und das potenzielle Wissen und die Informationen in unstrukturierten Daten vollständig auszuschöpfen. Derzeit ignorieren die Forschungen zum unstrukturierten Content Retrieval meist die Assoziation von Semantik und Wissen oder berücksichtigen nur die Assoziation einer singulären Granularität, was dazu führt, dass Konzepte mit gleicher Semantik, aber in unterschiedlichen Formen während des Retrievalprozesses verloren gehen. Um diese Probleme anzugehen, hat dieses Papier einige Verbesserungen vorgenommen, und die Hauptbeiträge umfassen: (1) Definieren einer Entscheidungsregel, Aufteilen unstrukturierter geologischer Vermessungsdaten in Inhaltsfragmente und Konstruieren eines feinkörnigeren geologischen textuellen semantischen Beschreibungsmodells. (2) Präsentieren eines merkmalgewichteten Modells der Fusion mit mehreren Beschränkungen, um die thematischen Merkmalselemente aus den Inhaltsfragmenten zu extrahieren. (3) Aus den drei Granularitäten von Dokument, Inhaltselement, Merkmalselement werden die Assoziationen der gleichen Granularität und der Kreuzgranularität zusammengeführt, um ein geologisches Text-Hypernetzwerkmodell mit mehreren Granularitäten zu konstruieren. (4) Die Experimente bestätigen, dass die vorgeschlagenen Ansätze die Präzision und Wiedererinnerungsrate des Abrufs unstrukturierter Inhalte verbessern können.;-;-;-;https://link.springer.com/article/10.1007/s12145-020-00534-w 476ef79f883a9ccb0c5d96affe3e7b95;de;;;7.4.;;;Untersuchung von Intelligenzgesetzen basierend auf KI-IQ-Forschung Basierend auf den früheren Arbeiten der Autoren zur Forschung zur Bewertung des Intelligenzquotienten der künstlichen Intelligenz (KI) und dem Standard Intelligent Model schlägt dieser Artikel drei Intelligenzgesetze zur Interpretation der Konzepte Intelligenz, Weisheit, Bewusstsein, Leben und Nicht-Leben vor . Das erste Gesetz wird als „M-Gesetz der Intelligenz“ bezeichnet, wobei jeder Agent als ein System angesehen werden kann, das die Fähigkeit besitzt, Wissen einzugeben, auszugeben, zu speichern (meistern) und kreativ zu machen (innovieren). Das zweite Gesetz heißt „Ω Gesetz der Intelligenz“, bei dem jeder Agent von neuen „Kräften“ beeinflusst wird;-;-;-;https://link.springer.com/article/10.1007/s40745-020-00285-x deb47a98a9b074a0cce9749c94211ffc;de;;;7.4.;;;Forschung zur Methode der Kurztextklassifizierung basierend auf dem Convolution Neural Network Die Kurztextklassifikation ist einer der Hotspots der Forschung in der Verarbeitung natürlicher Sprache. in diesem Papier wird ein neues Modell der Textdarstellung vorgeschlagen (N-of-DOC), und um das Problem der spärlichen Darstellung im Chinesischen zu lösen, wird die verteilte Darstellung von word2vec verwendet, schließlich wird sie auf das verbesserte neuronale Faltungsnetzwerk angewendet model (CNN), um die High-Level-Features aus der Filterschicht zu extrahieren, wird das Klassifizierungsmodell durch Verbinden des Softmax-Klassifikators nach der Pooling-Schicht erhalten. In dem Experiment werden das traditionelle Textdarstellungsmodell bzw. das verbesserte Textdarstellungsmodell als Eingabe der Originaldaten verwendet. Es agiert nach dem Modell des traditionellen maschinellen Lernens (KNN, SVM, logistische Regression, naive Bayes) und dem verbesserten Convolution Neural Network Model. Die Ergebnisse zeigen, dass die vorgeschlagene Methode nicht nur das Dimensionskatastrophen- und Sparse-Problem chinesischer Textvektoren lösen kann, sondern auch die Klassifikationsgenauigkeit um 10,23% im Vergleich zu herkömmlichen Methoden verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-02804-6_53 dbc890948399af647dd2a71f7a6893eb;de;;;7.4.;;;Erstellung beratungsfreudiger Verstärkungslerner Das Lernen von Verstärkungen ist ein vielversprechender Ansatz, um intelligente Agenten zu entwickeln. Reinforcement Learning erfordert jedoch in der Regel eine große Anzahl von Trainingsepisoden. Wir präsentieren und bewerten ein Design, das diesen Mangel beseitigt, indem wir einem konnektionistischen Q-Lerner erlauben, jederzeit und auf natürliche Weise Ratschläge eines externen Beobachters anzunehmen. Bei unserem Ansatz beobachtet der Ratgeber den Lernenden und macht gelegentlich Vorschläge, die als Anweisungen in einer einfachen zwingenden Programmiersprache ausgedrückt werden. Basierend auf Techniken aus wissensbasierten neuronalen Netzen fügen wir diese Programme direkt in die Nutzenfunktion des Agenten ein. Anschließendes Reinforcement Learning integriert und verfeinert die Beratung weiter. Wir präsentieren empirische Evidenz, die verschiedene Aspekte unseres Ansatzes untersucht und zeigt, dass ein Lernender mit guter Beratung statistisch signifikante Zuwächse bei der erwarteten Belohnung erzielen kann. Ein zweites Experiment zeigt, dass Beratung die erwartete Belohnung unabhängig von der Trainingsphase verbessert, während eine andere Studie zeigt, dass eine anschließende Beratung zu weiteren Belohnungsgewinnen führen kann. Schließlich präsentieren wir experimentelle Ergebnisse, die darauf hindeuten, dass unsere Methode leistungsfähiger ist als eine naive Beratungstechnik.;-;-;-;https://link.springer.com/article/10.1007/BF00114730 c26a6796a15cc63c201a9a8dcdbf70b1;de;;;7.4.;;;Informationsverarbeitung, technologischer Fortschritt und Einzelhandelsmarktdynamik Das Kapitel analysiert die möglichen Auswirkungen des technologischen Fortschritts in der Informationsverarbeitung auf die Größe von Einzelhandelsmärkten. Die Analyse – beschränkt auf einen einzigen Rohstoffmarkt mit ungewisser Nachfrage – zeigt, dass die Fähigkeit von Unternehmen, Informationen zu verarbeiten und die Nachfrage vorherzusagen, die Merkmale von Einzelhandelsmärkten beeinflussen kann. Die Ergebnisse zeigen außerdem, dass risikoscheue Unternehmen immer Ressourcen für Nachfrageprognosen aufwenden, Produzenten besser mit Einzelhändlern handeln als mit Endverbrauchern und dass das Produktionsvolumen über Einzelhandelsmärkte größer ist, als wenn Produzenten direkt mit . handeln würden Verbraucher.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-35981-8_4 224a1f2ee8ee4a615426fcd1a371fb0e;de;;;7.4.;;;Klassifizierung von unausgeglichenen Datensätzen unter Verwendung des Hybrid-Resampling-Algorithmus basierend auf Isomap Die Mehrheit der zuvor entwickelten Algorithmen für maschinelles Lernen geht normalerweise davon aus, dass ihre Trainingssätze gut ausbalanciert sind, aber die Daten in der realen Welt sind normalerweise unausgewogen. Das Problem des Klassenungleichgewichts ist allgegenwärtig und allgegenwärtig und bereitet einem großen Teil der Data-Mining-Community Probleme. Da die herkömmlichen Algorithmen für maschinelles Lernen eine schlechte Leistung aufweisen, wenn sie aus unausgeglichenen Datensätzen lernen, ist es notwendig, Lösungen für maschinelles Lernen bei unausgeglichenen Datensätzen zu finden. Dieses Papier stellt einen neuartigen Isomap-basierten Hybrid-Resampling-Ansatz vor, um den herkömmlichen SMOTE-Algorithmus durch die Integration des isometrischen Feature-Mapping-Algorithmus (Isomap) zu verbessern. Die Versuchsergebnisse zeigen, dass dieser Hybrid-Resampling-Algorithmus eine Leistung erreicht, die der des Resampling überlegen ist. Es ist klar, dass die Isomap-Methode ein wirksames Mittel ist, um die Dimension der erneuten Probenahme zu reduzieren. Dies bietet eine neue mögliche Lösung für den Umgang mit der IDS-Klassifikation.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04843-2_31 dfa44ca203bcf08ec6e5f66c696a0f6f;de;;;7.4.;;;Anwendung von Feature-Auswahlmethoden zur Verbesserung des Vorhersagemodells eines Direktmarketing-Problems Die Fähigkeit, die Nachfrage nach Stellenanzeigen zu prognostizieren, ist von entscheidender Bedeutung, um die Kundenbindungsrate für Personalvermittlungsunternehmen zu erhöhen. Darüber hinaus ist es für Unternehmen mit einem großen Kundenkreis unwirtschaftlich, jeden einzelnen regelmäßig telefonisch anzurufen. In diesem Papier wird ein neuartiger Ansatz zur Vorhersage des Nachbestellbedarfs einer potenziellen Gruppe von KMU-Kunden in einem großen Online-Recruitment-Unternehmen vorgestellt. Zwei Merkmalsauswahltechniken, nämlich korrelationsbasierte Merkmalsauswahl (CFS) und Teilmengenkonsistenz (SC) Merkmalsauswahl, wurden in dieser Studie auf Vorhersagemodelle angewendet. Die Vorhersagemodelle wurden ohne Merkmalsauswahl mit anderen ähnlichen Modellen verglichen. Die Ergebnisse verschiedener Experimente zeigen, dass diejenigen Modelle, die Merkmalsauswahlen verwenden, im Allgemeinen diejenigen ohne Merkmalsauswahlen übertreffen. Die Ergebnisse unterstützen die Hypothese der Autoren, dass das Vorhersagemodell besser und weiter vorne abschneiden kann als ähnliche Methoden, die die Merkmalsauswahl ausschließen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22170-5_14 3cc18b5375336fbe6f909155668294fe;de;;;7.4.;;;Textklassifizierung in einem Durchgang durch direkte Merkmalsgewichtung Der Feature Weighting Classifier (FWC) ist ein effizienter Mehrklassen-Klassifizierungsalgorithmus für Textdaten, der den Informationsgewinn verwendet, um die Feature-Gewichtungen pro Klasse im Klassifikator direkt zu schätzen. Dieser Klassifikator erfordert nur einen einzigen Durchlauf über das Dataset, um die Feature-Häufigkeiten pro Klasse zu berechnen, ist einfach zu implementieren und weist eine lineare Speichernutzung in der Anzahl der Features auf. Ergebnisse von Experimenten, die mit 128 binären und Multi-Class-Text- und Web-Datensätzen durchgeführt wurden, zeigen, dass die Leistung von FWC mindestens vergleichbar und oft sogar besser ist als die von Naive Bayes, TWCNB, Winnow, Balanced Winnow und linearem SVM. In einem großen Web-Dataset mit 12.294 Klassen und 135.973 Trainingsinstanzen trainierte FWC in 13 s und lieferte eine vergleichbare Klassifizierungsleistung wie eine hochmoderne Multi-Class-SVM-Implementierung, deren Training über 15 Minuten dauerte.;-;-;-;https://link.springer.com/article/10.1007/s10115-010-0317-9 6257262a807ea9c3754359636d62722e;de;;;7.4.;;;Abwehr feindlicher Angriffe mit PCA In dem Papier, das auf das Problem des maschinellen Lernens Sicherheit und Abwehr gegnerischer Angriffsbeispiele abzielt, wurde eine PCA-basierte Abwehrmethode gegen Beispielangriffe vorgeschlagen, die die schnelle Gradientenzeichenmethode (FGSM) ohne Zielangriffsmethode verwendet ein White-Box-Angriff. PCA wurde am MNIST-Datensatz durchgeführt, um Escape-Angriffe in tiefen neuronalen Netzwerkmodellen abzuwehren. Die Ergebnisse zeigten, dass PCA gegen gegnerische Beispiele verteidigen kann, und der Effekt war am besten, wenn die Dimension der Dimensionsreduktion 50 beträgt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8086-4_59 89ba2356e62bb1f724182aa3828f4e8d;de;;;7.4.;;;Sprache zur Verarbeitung von Wissensinformationen: ShapeUp Eine neue logische Programmiersprache, ShapeUp, wird entwickelt. ShapeUp ist ein erweitertes Prolog-System mit String-Matching-Funktionen. Die Sprache wurde entwickelt, um Programmierern eine neue Computerprogrammierungsumgebung zu bieten, insbesondere für die Verarbeitung von Wissensinformationen. Dieser Bereich umfasst das Verständnis natürlicher Sprache und intelligente Textverarbeitungssysteme mit besseren Mensch-Maschine-Schnittstellen. Für diese Art von Anwendung spielen Zeichenkettendaten eher eine Hauptrolle als herkömmliche numerische Daten. In ShapeUp werden Zeichenfolgenmuster als Prolog-Begriffe eingeführt. Ihr Matching-Prozess wird innerhalb der Vereinigung durchgeführt. Somit ist ein Programm in ShapeUp viel einfacher und leichter zu schreiben und zu lesen als in herkömmlichen Prolog-Systemen, und die Programmgröße wird extrem reduziert.;-;-;-;https://link.springer.com/article/10.1007/BF03037103 4ed00d30311347cfee8e59cd2a7f588c;de;;;7.4.;;;Vorhersage von Taifun-Schadensskalen mit selbstorganisierenden Karten, trainiert durch selektives Präsentationslernen Wir haben zuvor ein neues Taifun-Warnsystem vorgeschlagen, das das wahrscheinliche Ausmaß der mit einem Taifun verbundenen Schäden an Menschen und Gebäuden vorhersagt. Die Beziehung zwischen Taifun-Daten und Schadensdaten wurde durch selbstorganisierende Karten (SOM) erlernt und die Taifun-Schadensskala (klein, mittel oder groß) wurde vom SOM anhand von Taifun-Daten vorhergesagt. Obwohl die durchschnittliche Genauigkeit für tatsächlich kleine Schadensdaten vergleichsweise hoch war (96,2 %), war die durchschnittliche Genauigkeit für tatsächlich groß angelegte Schadensdaten vergleichsweise gering (65,2 %). Daher wenden wir eine selektive Präsentationslerntechnik an, um die Vorhersagbarkeit von großflächigen Schäden durch SOM zu verbessern. Lerndaten, die mittleren und großen Schäden entsprechen, werden häufiger präsentiert. Die durchschnittliche Genauigkeit für tatsächlich groß angelegte Schadensdaten wurde um etwa 9 % erhöht. Die Genauigkeit für tatsächlich große Zahlen von Todesopfern und Häusern unter Wasser wurde um 25 % bzw. 20 % erhöht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39712-7_2 c2af86f436e6facd63b222f9f88ff223;de;;;7.4.;;;Kortikale Algorithmen Computermodelle, die auf den strukturellen und funktionellen Eigenschaften des menschlichen Gehirns basieren, haben seit Mitte der 1980er Jahre aufgrund bedeutender Entdeckungen in den Neurowissenschaften und Fortschritte in der Computertechnologie beeindruckende Fortschritte gemacht. Unter diesen Modellen,;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-5990-9_8 64d349b2d5d56adf1492f63ee99bbc63;de;;;7.4.;;;Untersuchung von Autoencoder mit gestapelter Rauschunterdrückung Lernergebnisse hängen von der Darstellung von Daten ab, daher war die effiziente Darstellung von Daten ein Forschungsschwerpunkt im Bereich maschinelles Lernen und künstliche Intelligenz. Mit der Vertiefung der Deep-Learning-Forschung war auch die Untersuchung, wie die tiefen Netzwerke trainiert werden können, um hochdimensionale Daten effizient auszudrücken, ein Forschungsgebiet. Um Daten effizienter zu präsentieren und zu untersuchen, wie Daten durch tiefe Netzwerke ausgedrückt werden können, schlagen wir in diesem Artikel einen neuartigen Stacked-Denoising-Sparse-Autoencoder vor. Erstens konstruieren wir einen rauscharmen Autoencoder, indem wir sowohl den korrumpierenden Betrieb als auch die Sparsity-Einschränkung in den traditionellen Autoencoder einführen. Dann bauen wir gestapelte, rauscharme Autoencoder mit mehreren versteckten Ebenen, indem wir schichtweise rauschunterdrückende, dünn besetzte Autoencoder stapeln. Experimente sollen die Einflüsse von korrumpierenden Operationen und Sparsity Constraints auf verschiedene Datensätze untersuchen, wobei die Netzwerke mit unterschiedlicher Tiefe und versteckten Einheiten verwendet werden. Die Vergleichsexperimente zeigen, dass die Testgenauigkeit des Stacked Denoising Sparse Autoencoders viel höher ist als bei anderen Stacked-Modellen, unabhängig davon, welcher Datensatz verwendet wird und wie viele Schichten das Modell hat. Wir stellen auch fest, dass je tiefer das Netzwerk ist, desto weniger aktivierte Neuronen in jeder Schicht vorhanden sind. Noch wichtiger ist, dass wir feststellen, dass die Verstärkung der Sparsity-Beschränkung bis zu einem gewissen Grad der Zunahme des korrupten Niveaus entspricht.;-;-;-;https://link.springer.com/article/10.1007/s00521-016-2790-x 13d1c087cc40a1b1a9e2e1cc63d83bd1;de;;;7.4.;;;Information an der Deutungsschwelle: Wissenschaft als menschliche Sinnkonstruktion In diesem Text wird zunächst die große und produktive „linguistische Wende“ erörtert, die Ende des 19. Jahrhunderts in der Logik entstand. Nach Turings Arbeit an der Logical Computing Machine (1936–1950) und Shannons Theorie (1948) schrieb Brillouin Maxwells Dämonenaktion (1956) mit einer wissenschaftlichen Erfindung und meiner Meinung nach einem Hauch von Humor Informationsgehalt zu und gewährte inerte Materie eine intelligente Aktivität, die die Entropie umkehren kann. Darüber hinaus identifizierten viele seit den 1950er Jahren die digitale Verarbeitung von Daten mit menschlicher Intelligenz und einige projizierten die Verarbeitung von Informationen auf inerte Materie. In den gleichen Jahren wurde die DNA als vollständiger Informationsträger der Phylogenese und Ontogenese identifiziert. In diesen Ansätzen wurde willkürlich eine Mehrdeutigkeit ausgespielt und eine Schwelle zwischen „formalen Beweisprinzipien“ bzw. , dann in der Biologie, zwischen Informationsausarbeitung und biologischer Dynamik in ihrem Kontext. Heute sind Brillouins Erfindung und Deep Learning zu kontinuierlichen mathematischen Strukturen weit über die klassische künstliche Intelligenz auf diskreten Datentypen hinaus die neuen Verwechslungsorte zwischen Wissenskonstruktion und Informationsübertragung oder -verarbeitung. Die Konstruktion menschlichen Wissens wird jedoch noch radikaler umgangen und die Wissenschaft entmenschlicht, wenn Informationen direkt in eine Welt eingebettet werden, die als massiver Informationsprozessor angesehen wird. Die bemerkenswerte wissenschaftliche und wirtschaftliche Produktivität unserer neuen Observablen Information muss stattdessen im Kontext unserer menschlichen, ökosystemischen und historischen Aktivitäten gesehen werden, um sie Interpretationen und sinnvollen Handlungen unterzuordnen, die unsere Formen bereichern und nicht den Sinn entziehen von Wissen und Leben. Zu diesem Zweck müssen wir strikt zwischen Information als formaler Ausarbeitung und Übermittlung von Zeichen und Information als Produktion von „Bedeutung“ in unserer aktiven Reibung an der Wirklichkeit unterscheiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-25001-0_5 890d0d7b99242fe577672ec19f88e123;de;;;7.4.;;;Spektrum-Steganalyse von WAV-Audiostreams In diesem Artikel schlagen wir eine Methode der Audio-Stegananalyse vor, die als referenzbasierte Fourier-Spektrum-Stegananalyse bezeichnet wird. Aus den Testsignalen und den Referenzversionen werden die Mittelwerte und die Standardabweichungen des Hochfrequenzspektrums der Ableitungen zweiter und höherer Ordnung extrahiert. Eine Support Vector Machine (SVM) wird verwendet, um die unverfälschten Trägersignale und die Steganogramme, in die verdeckte Nachrichten eingebettet wurden, zu unterscheiden. Experimentelle Ergebnisse zeigen, dass unsere Methode eine sehr gute Leistung liefert und viel versprechend für die effektive Erkennung von Steganogrammen von Hide4PGP, Invisible Secrets, S-tools4 und Steghide ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03070-3_44 030700635b9bfd7da541fe5525a853fe;de;;;7.4.;;;Elastographie kartiert durch tiefe Faltungsneuralnetzwerke Die Elastographie entwickelt sich als medizinisches Verfahren zur Kartierung der Steifheitsverteilung von Geweben und soll helfen, bösartige Tumore zu identifizieren. Dazu werden Gewebe von außen mit dynamischen Wellen stimuliert und anschließend mechanische Reaktionen intern gemessen. Interne Messungen begrenzen jedoch die Auflösung und Genauigkeit aufgrund von Wellenstreuung und Frequenzabhängigkeit. Obwohl nur über Modelle berichtet wurde, bei denen die übertragenen Antworten erfasst werden müssen, sind die Rechenprozesse bei der inversen Analyse zeitaufwändig. Hier entwickeln wir eine Architektur von Deep Learning-basierten Convolutional Neural Networks (CNNs) zur Bildelastographie basierend auf Tonübertragung. Die vorgeschlagenen CNNs enthalten drei Zweige, von denen einer den Beitrag von Originalmerkmalen in Eingabedaten berücksichtigt. Im Vergleich dazu bildet die entwickelte Architektur nicht nur die Elastographie genau ab, sondern ist auch effizienter als herkömmliche CNNs in Folge.;-;-;-;https://link.springer.com/article/10.1007/s11431-020-1726-5 64be3b2112707c78376bab81720e9fa5;de;;;7.4.;;;Feedback-Steuerung des Ampelnetzwerks von weniger Verkehrssensoren mit Hilfe von Machine Learning Um einen Fahrzeugstau aufzulösen, gibt es einen Rückkopplungssteuerungsansatz, der ein Verkehrsnetz als ein diskretes dynamisches System modelliert und eine Rückkopplungsverstärkung zum Steuern der Grünlichtzeiten jeder Kreuzung ableitet. Da die Eingabe der sensorisch beobachtete Verkehrsfluss jeder Verbindung ist und da die Zustandsgleichung sowohl die Topologie als auch die Parameter des Netzwerks modelliert, ist sie für die adaptive Steuerung eines Weitverkehrsverkehrs in Echtzeit effektiv. Einer der wesentlichen Faktoren in einer Zustandsgleichung ist das Übersetzungsverhältnis der Fahrzeuge an jeder Kreuzung. Bei einem normalen Verkehrssensor-Layout ist es jedoch unmöglich, diesen Wert direkt in Echtzeit zu messen, und es werden Werte aus der Verkehrszählung verwendet. Dieses Papier soll eine Methode vorschlagen, die diesen Wert in Echtzeit durch maschinelles Lernen vorhersagt und eine geeignetere Feedback-Steuerung bietet. Unsere Idee ist es, durch probabilistische Suche durch Reinforcement Learning das Wendeverhältnis zu finden, das sich auf den Verbesserungsgrad des gesamten Verkehrsflusses bezieht. Im Moment haben wir die Formulierung des Schemas abgeschlossen und die Überprüfung der Leistungsfähigkeit durch einen Verkehrssimulator ist im Gange.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33932-5_81 c9400315b646814889465a2c20a97f6c;de;;;3.2.;;;Eine Langstrecken-Restriktionskarte überspannt den myxoiden Liposarkom-Bruchpunkt in der q13-14-Region des menschlichen Chromosoms 12spann Wir haben Pulsfeld-Gelelektrophorese verwendet, um eine Langstrecken-Restriktionskarte der Bruchpunktregion des myxoiden Liposarkoms (MLS) in 12q13-14 zu erstellen. Das CHOP/GADD153-Gen, das in myxoiden Liposarkomen konsistent transloziert wird, ist weniger als 55 kb vom mutmaßlichen Onkogen GLI entfernt. Wir haben Fluoreszenz-in-situ-Hybridisierung verwendet, um die Karte in Bezug auf das Chromosom auszurichten und zu zeigen, dass GLI (und damit A2MR) proximal zum MLS-Bruchpunkt lokalisiert ist.;-;-;-;https://link.springer.com/article/10.1007/BF00208280 50ba970e6d4026c5877fb9f134072ec2;de;;;3.2.;;;Vertrauenswürdiges Framework für den sicheren Zugriffsschutz basierend auf Cloud-Channel-Device-Kooperation Mit der rasanten Entwicklung von Netzwerktechnologien wie mobiles Internet, Internet of Things (IoT) wird der sichere Zugriff zu einem wichtigen Thema. Zur Lösung des Problems wird in diesem Papier ein Sicherheitsschutz-Framework basierend auf der Cloud-Channel-Device-Kooperation vorgeschlagen. Die Vertrauensbasis wird am Kanalende eingeführt, um das Vertrauen des sicheren Zugriffsgeräts zu verbessern. Dann werden das Vertrauens- und Sicherheitsmodul im Cloud-Ende entworfen. In der Zwischenzeit wird eine Zugriffssteuerung basierend auf der Verbindungsverfolgung eingeführt, um die Zugriffslatenz zu reduzieren. Das Framework kann verwendet werden, um ein offenes, vertrauenswürdiges, belastbares Netzwerk für den sicheren Zugriff aufzubauen und Sicherheitslösungen für mobiles Büro, IoT-Sicherheit, Informationssicherheitsmanagement und -kontrolle usw .;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6621-5_14 5ca99cf28f9387d7d7061977b2c9ff45;de;;;3.2.;;;Ein Schema für die zeitabhängige Ressourcenreservierung in QoS-fähigen IP-Netzwerken Eine Reihe von verteilten Anwendungen erfordern Kommunikationsdienste mit Quality of Service (QoS)-Garantien. Das Problem der QoS-Bereitstellung im Internet wurde von der IETF mit der Definition der Frameworks Integrated Services (IntServ) und Differentiated Services (Diffserv) angegangen. Ressourcenreservierungsmechanismen, auf denen diese Modelle basieren, sind völlig zeitunbewusst. Wir glauben jedoch, dass in einigen Fällen die Zuordnung eines Zeitintervalls zu Netzwerkressourcenreservierungen sowohl für Benutzer als auch für Netzwerkanbieter nützlich sein könnte. In diesem Papier stellen wir ein verteiltes Schema für zeitabhängige Reservierungen in QoS-fähigen IP-Netzwerken vor. Wir zeigen auch, wie das Standard-Signalisierungsprotokoll RSVP diesen neuen Reservierungsstil mit nur wenigen geringfügigen Modifikationen unterstützen kann. Schließlich präsentieren wir eine erste prototypische Implementierung der Hauptkomponente der vorgeschlagenen Architektur und geben einige Hinweise auf zukünftige Anwendbarkeitsszenarien des Vorabreservierungsparadigmas und seine Auswirkungen auf verwandte Themen wie Polizei- und Abrechnungstechniken in QoSenabled IP-Netzwerken.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45551-5_68 50611922c31ebf6e29cb14ce532b77bb;de;;;3.2.;;;Ein neues Small-World-Gitter Dieses Papier betrachtet ein skalierbares Gitter, das verwendet werden kann, um Modelle von zufälligen Small-World-Netzwerken zu generieren. Wir beschreiben seine Eigenschaften und untersuchen seine Robustheit gegenüber zufälligen Knotenausfällen. Wir definieren auch Gruppen- und Erreichbarkeitskoeffizienten, um die Eigenschaften des Netzwerks zu charakterisieren. Es werden Simulationsergebnisse präsentiert, die zeigen, dass die neuen Koeffizienten ein soziales Netzwerk gut beschreiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29280-4_1 e6c94a0bcf3d5a93931ec6d6d1ef3bc9;de;;;3.2.;;;DNS-Anfrage für normale Minima-Längenverteilung basierend auf Referenzmatrix Verdeckte Kanäle mit Paketlänge sind die Verfahren zum indirekten Verbergen einer geheimen Nachricht im Paket. Eine Betrachtung der Verteilung der Paketlänge im Netzwerk ist notwendig, um die normale Verteilung des Pakets sicherzustellen. Eine Analyse von Standard-DNS-Abfragen innerhalb eines Campusnetzes ergab, dass der Verbreitungsbereich des Pakets zwischen 24 und 63 Byte lang ist. Bisher erzeugte ein verdeckter Kanal mit früherer Paketlänge eine abnormale Paketlänge, wenn der Bereich der Paketlänge weniger als 40 beträgt. Daher motivierte dieses Problem die Studie, ein neuartiges verstecktes Verfahren vorzuschlagen, das auf einer indirekten Bezugnahme auf eine DNS-Abfrage basiert, um die geheime Nachricht zu verbergen. Die vorgeschlagene Methode wurde mit drei DNS-Abfragebeispielen experimentiert. Das Ergebnis zeigte, dass das vorgeschlagene Verfahren innerhalb der normalen Paketlängenverteilung lag. Der Beitrag dieser Studie war eine Normalverteilung der Paketlänge innerhalb einer Beschränkung der Minimalängenverteilung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25327-0_22 2291243c2bf63641f492cb48d081d1ee;de;;;3.2.;;;Community-Erkennung in mehrteiligen multirelationalen Netzwerken basierend auf Informationskomprimierung Com Die Gemeinschaftserkennung in unipartiten single-relationalen Netzwerken, die nur einen Knoten- und Kantentyp enthalten, wurde in den letzten zehn Jahren ausführlich untersucht. Viele reale Systeme werden jedoch natürlich als mehrteilige multirelationale Netzwerke beschrieben, die mehrere Arten von Knoten und Kanten enthalten. In diesem Beitrag schlagen wir eine auf Informationskompression basierende Methode zur Erkennung von Gemeinschaften in solchen Netzwerken vor. Konkret schlagen wir basierend auf dem Prinzip der minimalen Beschreibungslänge (MDL) eine Qualitätsfunktion zur Bewertung von Partitionen eines multipartiten multirelationalen Netzwerks in Gemeinschaften vor und entwickeln einen heuristischen Algorithmus zur Optimierung der Qualitätsfunktion. Wir zeigen, dass unsere Methode die modernsten Techniken sowohl in synthetischen als auch in realen Netzwerken übertrifft.;-;-;-;https://link.springer.com/article/10.1007/s00354-016-0206-1 58a48817e9ab4f92395aedcad0f366c0;de;;;3.2.;;;VB.Classic-Debugging die Ankunft von .NET, VB.Classic-Anwendungen wird es noch lange geben. Die Umstellung der Geschäftsanwendungen eines Unternehmens von VB.Classic auf VB .NET ist in den meisten Fällen einfach nicht wirtschaftlich, ganz zu schweigen von dem Problem der Umschulung ganzer IT-Abteilungen. Glücklicherweise erkennt Microsoft, dass es nicht möglich ist, Unternehmen aufzufordern, ihren gesamten Legacy-Code aufzugeben oder zu migrieren. In diesem Kapitel wird das Debugging der COM-Interop-Schicht zwischen VB .NET und VB.Classic erläutert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-0778-8_11 c4318d21d1131ab7e768e6fe441e68b8;de;;;3.2.;;;Eine ökonomische Netzwerkstrukturanalyse der städtischen Agglomeration im Mittellauf des Changjiang-Flusses basierend auf SNA Aufgrund ihrer großen strategischen Bedeutung für die Integration der regional koordinierten Entwicklung und die Förderung des Aufstiegs Zentralchinas hat die städtische Agglomeration im Mittellauf des Changjiang (Yangtze) Flusses sowohl aus theoretischen als auch aus praktischen Aspekten viel Aufmerksamkeit auf sich gezogen. Eine solche Erforschung der wirtschaftlichen Netzwerkstruktur des Gebiets ist für die Gestaltung einer Stadt- und Regionalentwicklungsstrategie von Vorteil. Dieses Papier konstruiert ein ökonomisches Bindungsmodell basierend auf einem modifizierten Gravitationsmodell. Anschließend untersucht der Artikel unter Bezugnahme auf die Analyse sozialer Netzwerke empirisch die Netzwerkdichte, Netzwerkzentralität, Untergruppen und strukturelle Löcher des Mittellaufs des städtischen Agglomerations-Wirtschaftsnetzwerks des Changjiang-Flusses. Die Ergebnisse sind vierfach: (1) Es hat sich ein wirtschaftliches Netzwerk der städtischen Agglomeration im Mittellauf des Changjiang-Flusses gebildet, und die wirtschaftlichen Verbindungen zwischen den Städten in diesem Netzwerk sind vergleichsweise dicht, (2) die urbane Agglomeration im Mittellauf von Changjiang Der Fluss kann in vier bedeutende Untergruppen unterteilt werden, wobei jede Untergruppe ihre eigene offensichtliche wirtschaftliche Kommunikation hat, während es unter den Untergruppen weniger Heterogenität im wirtschaftlichen Verhalten gibt – dies gilt insbesondere für die beiden Untergruppen, die in der ökologischen Wirtschaftszone Poyang Lake existieren (3 ) hat sich in der städtischen Agglomeration des Mittellaufs des Changjiang-Flusses ein Wirtschaftsmuster entwickelt, das von den zentralen Städten Wuhan, Changsha und Nanchang angetrieben wird, während diese drei Hauptstädte eine große Strahlungsfähigkeit auf ihre umliegenden Städte ausgeübt haben, die letztere weniger in der Lage sind Ressourcen aus ersterem absorbieren, (4) die Wuhan Metropolitan Areas und die Poyang Lake Ecological Economic Zone haben mehr strukturelle ho weniger als der Ring of Changsha, Zhuzhou und die Xiangtan City Cluster, was bedeutet, dass Städte an der Peripherie dieser beiden Gebiete leicht durch zentrale Städte eingeschränkt werden. Der Ring of Changsha, Zhuzhou und die Xiangtan City Cluster weisen weniger strukturelle Löcher auf, daher werden die Städte in diesem Gebiet nicht so vielen Einschränkungen ausgesetzt sein wie in den anderen beiden Gebieten.;-;-;-;https://link.springer.com/article/10.1007/s11442-015-1199-2 804ce6cc0fe412609e1cb07e2f110239;de;;;3.2.;;;Ein einheitlicher Ansatz für den Myerson-Wert und den Positionswert Wir überdenken den Myerson-Wert und den Positionswert für Kommunikationssituationen. Falls das zugrunde liegende Spiel ein Einstimmigkeitsspiel ist, zeigen wir, dass jeder dieser Werte nach dem Inklusions-Ausschluss-Prinzip berechnet werden kann. Die Linearität beider Werte erlaubt es uns, sie zu berechnen, ohne die Dividenden der induzierten Spiele zu benötigen (Graph-Restricted Game und Link Game). Der Ausdruck dieser Dividenden wird in der vorhandenen Literatur nur für spezielle Kommunikationssituationen hergeleitet. Darüber hinaus hängt die zugehörige Einschluss-Ausschluss-Zerlegbarkeitseigenschaft von dem ab, was wir die Graphzuweisungsregel genannt haben. Diese Regel ist der relative Grad (relativer Indikator) für den Positionswert (Myerson-Wert).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-2936-3_6 f8b4901f68ec413ff8ec87934dd84fb4;de;;;3.2.;;;Logische Synthese aus VHDL-Beschreibungen mit LeonardoSpectrum: Theoretische Grundlagen Es wird ein Überblick über den methodischen Rahmen von LeonardoSpectrum, einem VHDL-Synthesewerkzeug, gegeben. Seine Verwendung in Verbindung mit Custom Logic wird im Kontext der VLSI-Logiksynthese diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s11180-006-0009-z fa071722f43b2c206d1fd1a3eb6e9c28;de;;;3.2.;;;Profilerstellung und Trendanalyse zur Cyberkriminalität Ein erheblicher Prozentsatz der Bevölkerung bedenkt oder versteht nicht, „was und wie“ Cyberkriminalität begangen wird, noch wie sie Opfer davon werden könnten, und viele befürchten, dass sie unbewusst Teil des Prozesses sein könnten, dh sie verstehen nicht, wie sie sich im Internet verhalten. Die Möglichkeiten für Cyberkriminalität zu verringern, ist keine einfache Aufgabe. Sie erfordert die Zusammenarbeit zwischen vielen Akteuren und grundlegende Veränderungen der gemeinsamen Einstellungen und Praktiken. Bei der Betrachtung der rechtlichen Auswirkungen des Missbrauchs von Technologien ist zu beachten, dass das Überschreiten nationaler Grenzen zu einer Änderung der Gesetze führt, denen die Menschen unterliegen. Einige Länder betrachten Hacking und Online-Identitätsdiebstahl nicht als Straftaten mit hoher Priorität. In ähnlicher Weise hinterlässt die technologische Kluft Gesetzeslücken in den technisch weniger fortgeschrittenen Ländern. Ziel dieses Kapitels ist es, den Zusammenhang zwischen Online-Verhalten und Computer-Viktimisierung zu untersuchen. Das Verständnis der Trends der Cyberkriminalität und der Strategien von Cyberkriminellen zur Begehung von Cyberkriminalität wird dazu beitragen, die Schritte zu identifizieren, die zur Verhinderung solcher kriminellen Aktivitäten unternommen werden müssen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-2140-4_12 d2d1468507e32b19427a70f66f267003;de;;;3.2.;;;Zuverlässige und effiziente Ausführung mehrerer Streaming-Anwendungen auf Intels SCC-Prozessor Intels Single-Chip Cloud Computer (SCC) ist eine Prototyparchitektur für On-Chip-Vielkernsysteme. Durch die Integration von 48 Kernen in einen einzigen Chip bietet es einzigartige Möglichkeiten, Einblicke in die Softwareentwicklung mit vielen Kernen zu gewinnen. Frühere Ergebnisse haben gezeigt, dass die Programmierung von effizienter und zuverlässiger Software für Vielkernprozessoren mangels geeigneter Programmierwerkzeuge schwierig ist. In diesem Papier stellen wir ein Programmier-Framework vor, um mehrere Anwendungen auszuführen, die als Kahn-Prozessnetzwerke auf dem SCC spezifiziert sind. Diese Anwendungen können zur Laufzeit basierend auf Anforderungen des Benutzers gestartet oder gestoppt werden. Die vorgeschlagene Anwendungsprogrammierschnittstelle (API) abstrahiert Implementierungsdetails auf niedriger Ebene vom Anwendungsdesigner, was eine Leistungsanalyse auf hoher Ebene und eine automatisierte Mapping-Optimierung ermöglicht. Um die durch die vorgeschlagene API spezifizierte Arbeitslast effizient auszuführen, werden ein leichtgewichtiges Laufzeitsystem und ein automatisiertes Programmsynthese-Backend vorgestellt. Umfangreiche Experimente werden durchgeführt, um die Leistung des vorgeschlagenen Rahmens zu charakterisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54420-0_77 44b3e6108de99d1df1f8b762b7ce96e7;de;;;3.2.;;;Zur Klassifikation von Herztönen basierend auf dem Convolutional Deep Neural Network Der Herzton enthält verschiedene wichtige Größen, die zur Früherkennung von Herzerkrankungen beitragen. Bisher wurden viele Verfahren vorgeschlagen, bei denen verschiedene Signalverarbeitungstechniken bei Herztönen zur Erkennung von Herzerkrankungen verwendet wurden.;-;-;-;https://link.springer.com/article/10.1007/s13755-019-0078-0 049083452f35da0d947bbcf109c5f644;de;;;3.2.;;;Sicherheitsprobleme im mobilen Ad-hoc-Netzwerk Mobile Ad-hoc-Netzwerke (MANET) sind infrastrukturlose Netzwerke, die durch fehlende vorherige Konfiguration und feindliche Umgebungen gekennzeichnet sind. Ihre einzigartigen Eigenschaften machen sie zu einem natürlichen Kandidaten für Situationen, in denen ein ungeplanter Netzwerkaufbau erforderlich ist. Diese Flexibilität führt jedoch zu einer Reihe von Sicherheitsherausforderungen. Sicherheit in MANET ist eine sehr komplexe Aufgabe und erfordert Überlegungen zu den Themen, die sich über alle Schichten des Kommunikationsstapels erstrecken. Dieses Kapitel behandelt das Sicherheitsproblem in MANET. Es bietet einen aktualisierten Überblick über die Sicherheitslösungen für MANET mit detaillierten Erläuterungen zu sicheren Routing-, Einbruchserkennungs- und Schlüsselmanagementproblemen. Abgeschlossen wird das Kapitel mit einer umfassenden Sicherheitslösung für MANET.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36169-2_2 55e6446ae24d4e85433444607d1dfb7d;de;;;3.2.;;;Analyse drahtloser Sensornetzwerkprotokolle in dynamischen Szenarien Wir beschreiben einen Ansatz zur Analyse von Protokollen für drahtlose Sensornetzwerke in Szenarien mit mobilen Knoten und dynamischer Verbindungsqualität. Der Ansatz basiert auf dem Theorem-Beweissystem PVS und kann zur formalen Spezifikation, automatisierten Simulation und Verifikation des Verhaltens des Protokolls verwendet werden. Um die Anwendbarkeit des Ansatzes zu demonstrieren, analysieren wir den Reverse Path Forwarding Algorithmus, der die grundlegende Technik für Diffusionsprotokolle für drahtlose Sensornetzwerke ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05118-0_8 9c96f68435ac50b6cd63965940779179;de;;;3.2.;;;Skalierbare semantische Overlay-Generierung für P2P-basierte digitale Bibliotheken Das Aufkommen digitaler Bibliotheken zusammen mit dem enormen Wachstum digitaler Inhalte erfordert verteilte und skalierbare Ansätze für die Verwaltung umfangreicher Datensammlungen. Peer-to-Peer (P2P)-Netzwerke sind eine vielversprechende Lösung, um diesen Herausforderungen zu begegnen. Der Mangel an globalen Inhalts-/Topologiekenntnissen in einem unstrukturierten P2P-System erfordert jedoch unüberwachte Methoden zur Inhaltsorganisation und erfordert effiziente und qualitativ hochwertige Suchmechanismen. Zu diesem Zweck wurden in der Literatur semantische Overlay-Netzwerke (SONs) vorgeschlagen, und in diesem Artikel wird eine unüberwachte Methode zur dezentralen und verteilten Erzeugung von SONs, genannt DESENT, vorgeschlagen. Wir beweisen die Machbarkeit unseres Ansatzes durch analytische Kostenmodelle und zeigen durch Simulationen, dass unser Ansatz im Vergleich zum Fluten die Rückruffähigkeit je nach Netzwerktopologie um mehr als das 3- bis 10-fache verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/11863878_3 6bf3426ddac42066d2d847425a61ee25;de;;;3.2.;;;Speedy: Ein integriertes Leistungsextrapolationstool für pC++-Programme Leistungsextrapolation ist der Prozess der Bewertung der Leistung eines parallelen Programms in einer Zielausführungsumgebung unter Verwendung von Leistungsinformationen, die für dasselbe Programm in einer anderen Umgebung erhalten wurden. Leistungsextrapolationstechniken eignen sich für eine schnelle Leistungsoptimierung paralleler Programme, insbesondere wenn die Zielumgebung nicht verfügbar ist. Dieses Papier beschreibt eine solche Technik, die für datenparallele C++-Programme entwickelt wurde, die in der Sprache pC++ geschrieben wurden. In pC++ kann der Programmierer a;-;-;-;https://link.springer.com/chapter/10.1007/BFb0024320 e116d3a52dafc5fe6e7e961b40666dac;de;;;3.2.;;;Auf dem Weg zu einem Framework für entwicklungsfähiges Netzwerkdesign Die mehrschichtige Internetarchitektur, die seit langem das Netzwerkdesign und die Protokollentwicklung leitete, war eine „Verbindungsarchitektur“, die eher einen Rahmen für die Verbindung von Netzwerken als ein Modell für die allgemeine Netzwerkstrukturierung und -technik definierte. Wir behaupten, dass der Ansatz, das Netzwerk in Form eines Internetworks zu abstrahieren, das gründliche Verständnis der herausragenden Eigenschaften des Netzwerks und des auftretenden Verhaltens behindert, was dazu führt, dass die Designentwicklung behindert wird, die erforderlich ist, um extreme Skalierung, Heterogenität und Komplexität zu berücksichtigen. Dieses Papier berichtet über unsere laufenden Arbeiten, die darauf abzielen: 1) den Problemraum hinsichtlich der Faktoren und Entscheidungen zu untersuchen, die das Design und die Entwicklung von Computernetzwerken beeinflusst haben, 2) die Grundprinzipien für den Entwurf komplexer Computernetzwerke zu skizzieren und 3) Ein Modell und einen entsprechenden Rahmen für den Aufbau von evolvierbaren, anpassungsfähigen und selbstorganisierenden Netzwerken vorschlagen Wir werden eine Bottom-up-Strategie verfolgen, die sich hauptsächlich auf die aufbauende Einheit des Netzwerkmodells konzentriert, die wir „Netzwerkzelle“ nennen. Das Modell ist von natürlichen komplexen Systemen inspiriert. Eine Netzwerkzelle ist von Natur aus in der Lage, sich zu spezialisieren, anzupassen und zu entwickeln. Anschließend schlagen wir CellNet vor, ein Framework für entwicklungsfähiges Netzwerkdesign. Wir skizzieren Szenarien für die Verwendung des CellNet-Frameworks zur Verbesserung des Legacy-Internetprotokollstapels.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03354-4_29 05fdbc7b50db75de53e24ae50493059e;de;;;3.2.;;;Systems Network Pharmaco-Toxicology in the Study of Herbal Medicine Analytische „omic“-Techniken und systembiologisch getriebene Bioinformatik haben dank der gleichzeitigen Detektion ganzer Molekülfamilien in einem gegebenen biologischen System und der Fähigkeit, zu sammeln, zu klassifizieren, zu vernetzen und eine große Anzahl analytischer Daten durch Bioinformatik visualisieren. Der Bereich Genomik war an der Spitze dieser Entwicklung. Andere „omische“ Techniken wie Proteomik und Metabonomik liefern eine schnell wachsende Datenmenge sowohl zu biologischen Zielen als auch zu Phytokomplexen und ihren Wechselwirkungen. Dies hat eine globalere Sicht auf biologische Prozesse begünstigt, die beschreibt, wie Störungen den stationären Zustand einer großen Anzahl von Komponenten des Systems und ihrer Beziehungen beeinflussen und das System als Ganzes verändern können. Es ist daher offensichtlich, dass durch Phytokomplexe induzierte biologische Antworten die Nettoausgabe von Änderungen der Eigenschaften einer sehr großen Anzahl von Molekülen darstellen, die alle in gegenseitiger Abhängigkeit wirken, um ein hochgradig verbundenes Netzwerk zu bilden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-43806-1_7 2520ad7d60ca9c27253cf1ed45b6bb1a;de;;;3.2.;;;Convolutional Neural Networks für die Punktzählung in der Fluoreszenz-in-situ-Hybridisierungsbildgebung Bei Brustkrebs wird eine kleine Gewebeprobe entnommen und ausgewertet, um die Bösartigkeit des Wachstums und die mögliche Behandlung abzuschätzen. Wenn ein schwieriger Fall diagnostiziert wird, wird eine genauere Diagnose basierend auf der Fluoreszenz-in-situ-Hybridisierungsbildgebung durchgeführt, bei der HER2- und CEN-17-Reaktionen bestimmt werden. In diesem Artikel behandeln wir ein Problem des Nachweises von immunhistochemischen Reaktionen, die häufig getestet werden, wenn es schwierig ist, die Art der Behandlung des Patienten zu bestimmen. Hier beschreiben wir ein Segmentierungs-Framework, das konvolutionelle neuronale Netze verwendet, die Bildpixel in HER2- bzw. CEN-17-Reaktionen klassifizieren können. Unter Verwendung des oben erwähnten Rahmens ist das vorgeschlagene System in der Lage, die hohe Segmentierungsgenauigkeit beizubehalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-48256-5_3 443b6486c5b436d5862becbd83bb6ef2;de;;;3.2.;;;Effizientes Multiple Multicast in heterogenen Netzwerken von Workstations In den letzten Jahren haben sich Netzwerke von Workstations/PCs (sog. NOW) zu attraktiven Vehikeln für kostengünstiges paralleles Rechnen entwickelt. Aufgrund der Massenware von Workstations und Netzwerkgeräten werden LAN-Umgebungen allmählich heterogen. Die vielfältigen Quellen der Heterogenität in NOW-Systemen stellen eine Herausforderung beim Design effizienter Kommunikationsalgorithmen für diese Systemklasse dar. In diesem Papier schlagen wir effiziente Algorithmen für multiples Multicast auf heterogenen NOW-Systemen vor, wobei wir uns auf die Heterogenität der Verarbeitungsgeschwindigkeiten von Workstations/PCs konzentrieren. Multiple Multicast ist ein wichtiger Vorgang in vielen wissenschaftlichen und industriellen Anwendungen. Multicast auf heterogenen Systemen wurde bis vor kurzem nicht untersucht. Unsere Arbeit unterscheidet sich in zwei Aspekten von anderen: (1) Im Gegensatz zum blockierenden Kommunikationsmodell, das in früheren Arbeiten verwendet wurde, modellieren wir die Kommunikation in einem heterogenen Cluster genauer durch ein nicht blockierendes Kommunikationsmodell und entwerfen Multicast-Algorithmen, die vollständig Vorteil der blockierungsfreien Kommunikation. (2) Während sich frühere Arbeiten auf das Problem einzelner Multicasts konzentrieren, schlagen wir effiziente Algorithmen für allgemeines multiples Multicast (wobei Single Multicast ein Sonderfall ist) auf heterogenen NOW-Systemen vor. Unseres Wissens ist unsere Arbeit der früheste Versuch, sich mit multiplem Multicast für heterogene NOW-Systeme zu befassen. Diese Algorithmen werden mit einem Netzwerksimulator für heterogene NOW-Systeme evaluiert. Unsere experimentellen Ergebnisse an einem System mit bis zu 64 Knoten zeigen, dass einige der Algorithmen andere in vielen Fällen übertreffen. Der beste Algorithmus erreicht eine Abschlusszeit, die innerhalb des 2,5-fachen der unteren Grenze liegt.;-;-;-;https://link.springer.com/article/10.1023/B%3ASUPE.0000022573.11074.00 49f7eab541fefaa138e213cd910a3bc5;de;;;3.2.;;;RI2N – Interconnection Network System für Cluster mit großer Bandbreite und Fehlertoleranz basierend auf mehreren Links Dieses Papier schlägt ein Verbindungsnetzwerksystem für Cluster vor, das auf parallelen Verbindungen über Standard-Ethernet basiert, um sowohl eine große Bandbreite als auch eine hohe Fehlertoleranz bereitzustellen. In dem vorgeschlagenen Schema RI2N werden mehrere Verbindungen verwendet, um die Gesamtbandbreite im Normalmodus zu erhöhen oder redundante Verbindungen im Fehlermodus mit automatischer Softwaresteuerung bereitzustellen. In einer aktuellen Prototyp-Implementierung auf Benutzerebene in der Bibliothek bietet die Normalmodus-Funktionalität eine maximale Bandbreite von 40 MByte/s über vier Fast Ethernet-Links und 191 MByte/s über zwei Gigabit-Ethernet-Links.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39707-6_28 7c64698001eb2a3d42b4b5075c6de659;de;;;3.2.;;;Regierender König und Kaiser George VI., geboren am 14. Dezember 1895, Sohn des Königs. George V. und Queen Mary, Tochter des verstorbenen Herzogs von Teck, folgten nach der Abdankung seines Bruders, König Edward VIII., 10. Dezember 1936, und am 12. Dezember 1936 zum König gekrönt, heirateten Lady Elizabeth Angela Marguerite Bowes-Lyon (* 4. August 1900), 26. April 1923.;-;-;-;https://link.springer.com/chapter/10.1057/9780230270688_1 548b3f7ee6c8b6810ca067c71e7a04a1;de;;;3.2.;;;Graphillion: Softwarebibliothek für sehr große Sätze beschrifteter Graphen In den letzten Jahrzehnten wurden mehrere Graphbibliotheken entwickelt, die im Grunde darauf ausgelegt sind, mit wenigen Graphen zu arbeiten. Es gibt jedoch viele Probleme, bei denen wir alle Teilgraphen betrachten müssen, die bestimmten Bedingungen für einen gegebenen Graphen genügen. Da die Anzahl der Untergraphen mit der Graphengröße exponentiell zunehmen kann, werden diese explizit dargestellt;-;-;-;https://link.springer.com/article/10.1007/s10009-014-0352-z 43c7276dc5cfa8d160049bb7f0ef51d2;de;;;3.2.;;;Numerische Simulation dynamischer Prozesse in der Biomechanik nach der Gitterkennlinienmethode Es werden Ergebnisse der numerischen Simulation mechanischer Prozesse vorgestellt, die in biologischen Geweben unter dynamischen Einwirkungen auftreten. Zur Lösung des Gleichungssystems der Mechanik verformbarer Festkörper wird die gittercharakteristische Methode an unstrukturierten Gittern verwendet, diese Methode berücksichtigt die charakteristischen Eigenschaften des konstitutiven Systems partieller Differentialgleichungen und liefert adäquate Algorithmen an Grenzflächen zwischen Medien und an den Grenzen von Integrationsdomänen.;-;-;-;https://link.springer.com/article/10.1134/S0965542515080047 a780dc14d9fb59882008bd8d169a8d95;de;;;3.2.;;;Teilen von (falschen) Informationen auf Social-Networking-Sites. Eine Untersuchung der Normen für die Verbreitung von Inhalten, die von anderen verfasst wurden In diesem Artikel werden die Normen untersucht, die das Teilen von Inhalten durch regelmäßige Benutzer auf Social-Networking-Sites regeln. Viele Debatten darüber, wie man Fehlinformationen auf Social Networking Sites entgegenwirken kann, konzentrieren sich auf die epistemischen Normen der Zeugenaussage, wobei implizit davon ausgegangen wird, dass die Akte des Teilens durch die Benutzer denselben Normen unterliegen sollten wie die des Postens von Originalinhalten. Ich stelle diese Annahme in Frage, indem ich eine nicht-epistemische Interpretation des (falschen) Informationsaustauschs auf Social-Networking-Sites vorschlage, die ich als Infrastrukturen für Online-Lebensformen konstruiere. Der Austausch von Fehlinformationen gehört eher in den Bereich der Gerüchteverbreitung und des Klatschens als in die informationsgebenden Sprachspiele. Die Normen für das Teilen lassen sich jedoch nicht im Voraus festlegen, da diese sich aus der Interaktion zwischen den expliziten Regeln der Plattformen, den durch die Nutzerpraktiken etablierten lokalen Normen und einer Metanorm der Sozialität ergeben. Diese Unvorhersehbarkeit hinterlässt keine normative Lücke, denn es bleibt eine wichtige Verantwortung des Benutzers, nämlich den Kontext der Sharing-Geste explizit zu machen. Wenn Benutzer klarstellen, wie ihre Gesten des Teilens von anderen interpretiert werden sollen, übernehmen sie implizit die Verantwortung für mögliche Missverständnisse aufgrund von Auslassungen, und die Schäden durch geteilte Fehlinformationen können verringert werden.;-;-;-;https://link.springer.com/article/10.1007/s10676-021-09578-y 45a1b602b1fb71447e37447a07aced53;de;;;3.2.;;;BSIM – das erste internationale Standard-MOSFET-Modell BSIM (Berkeley Short-Channel IGFET) wurde 1997 zum ersten internationalen Industriestandardmodell für die Simulation von integrierten MOS-Schaltungen. Der kumulierte Absatz von ICs, die mit Hilfe von BSIM entworfen und für Computer-, Kommunikations-, Verbraucher- und Industrieanwendungen hergestellt wurden wird auf rund 400 Milliarden US-Dollar geschätzt. Von 0,35 µm CMOS bis hin zu Multi-Gate-FinFET bedient BSIM eine breite Palette von Technologien. Viele in China ausgebildete Forscher haben zu seinem Erfolg beigetragen.;-;-;-;https://link.springer.com/article/10.1007/s11432-008-0053-x f6d5a1e0a3590cd9f4f445619e8ce152;de;;;3.2.;;;Kooperationsschemata für den parallelen memetischen Algorithmus Dieser Beitrag präsentiert eine Studie über Kooperationsschemata für den parallelen memetischen Algorithmus zur Lösung des Vehicle Routing Problems mit Zeitfenstern. In den parallelen kooperativen Suchalgorithmen kommunizieren die Prozesse, um die aktuellen Lösungen auszutauschen, die die Suche leiten und die Ergebnisse verbessern können. Die Interaktionen zwischen Prozessen werden durch den Inhalt der ausgetauschten Daten, das Timing, die Konnektivität und den Modus definiert. Wir zeigen, wie Kooperationsmodelle die Suchkonvergenz und die Lösungsqualität beeinflussen. Die Qualität einer Lösung ist definiert als die Nähe zur besten, derzeit bekannten Lösung. Wir präsentieren die experimentelle Studie für den bekannten Gehring- und Homberger-Benchmark. Die in der Studie gewonnenen neuen weltbesten Lösungen bestätigen, dass das Kooperationsprogramm einen starken Einfluss auf die Qualität der endgültigen Lösungen hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55224-3_19 a62acb02a5f5e98f9bba3fe95f9b9e7c;de;;;3.2.;;;Eine Studie zum L2/OPN-Design für Grid-Hochleistungsnetzwerke Da das Internet weit verbreitet ist, führen Hochleistungsnetzwerke und -systeme zum Erscheinen verschiedener Anwendungen und erfordern Ressourcen mit höherer Kapazität. Kürzlich werden Studien zum Grid aktiv durchgeführt, um jede Rechenressource, die früher für jede Anwendung, die diese Rechenressourcen mit hoher Kapazität anfordert, verteilt war, durch Verbindung mit Netzwerken in eine virtuelle Ressource mit hoher Kapazität umzuorganisieren. Das in der Grid-Umgebung benötigte Netzwerk wurde zusammen mit dem WDM-basierten Lambda-Netzwerk weiterentwickelt, das zu relativ geringen Kosten ein Netzwerk mit hoher Bandbreite aufbauen kann. In diesem Dokument werden zwei Möglichkeiten vorgestellt, um die Netzwerkleistung in einer Grid-Umgebung zu verbessern. Der erste Weg besteht darin, das bestehende Netzwerk in L2/OPN (Optical Private Network) umzuorganisieren, um Verkehrsstaus zu vermeiden. Die zweite Möglichkeit besteht darin, die TCP-Windows-Puffergröße zu verwalten, um eine geeignete TCP-Größe für das Grid-Umgebungssystem bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/11751588_124 300a655e43eba996de3ba579b08c1719;de;;;3.2.;;;Ein edles Vorverteilungsschema mit LU-Matrix für sichere drahtlose Sensornetzwerke Bei drahtlosen Sensornetzwerken ist die Sicherheit für viele Anwendungen genauso wichtig wie Leistung und Energieeffizienz. In einem kürzlich vorgeschlagenen Schlüsselvorverteilungsschema, das für leistungs- und ressourcenbeschränkte Sensorknoten geeignet ist, wird garantiert, dass ein gemeinsamer Schlüssel zwischen zwei Knoten gefunden wird, die kommunizieren wollen, und gegenseitige Authentifizierung wird unterstützt. Es hat jedoch den Nachteil, dass der Zeitaufwand hoch ist, um die im Schlüsselvorverteilungsschritt erforderliche LU-Zerlegung durchzuführen. Dieses Papier schlägt ein neues Schema vor, das den Overhead erheblich reduziert, indem es die LU-Zerlegung vermeidet. Das vorgeschlagene Schema erfordert O(;-;-;-;https://link.springer.com/chapter/10.1007/11596981_73 6558b340b605b362f9e32dfd5e1050b7;de;;;3.2.;;;Ein algorithmischer Rahmen zur Kennzeichnung von Straßenkarten Bei einer unbeschrifteten Straßenkarte betrachten wir aus algorithmischer Sicht das kartografische Problem, nicht überlappende Straßenbeschriftungen in die Straßen eingebettet zu platzieren. Wir zerlegen das Straßennetz zunächst in logisch zusammenhängende Straßenabschnitte, d. h. Straßenabschnitte zwischen zwei Kreuzungen. Basierend auf dieser Zerlegung präsentieren und implementieren wir ein neues und vielseitiges Framework zum Platzieren von Beschriftungen in Straßenkarten, sodass die Anzahl der beschrifteten Straßenabschnitte maximiert wird. In einer experimentellen Auswertung mit Straßenkarten von 11 Großstädten zeigen wir, dass unser vorgeschlagener Kennzeichnungsalgorithmus sowohl in der Praxis schnell ist als auch eine nahezu optimale Lösungsqualität erreicht, bei der optimale Lösungen durch gemischt-ganzzahlige lineare Programmierung erhalten werden. Im direkten Vergleich übertrifft unser Algorithmus durchweg den Standard-OpenStreetMap-Renderer Mapnik.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-45738-3_20 ea3e7ea483e7360b7ca000265ede834f;de;;;3.2.;;;Dokumentenabruf und Proteinsequenz-Matching mit einem neuronalen Netzwerk Während der Entwicklung von Algorithmen zur Erzeugung komplexer Einheiten höherer Ordnung in neuronalen Netzen haben wir unser Interesse an der Suche nach Freitextdokumenten und dem Abgleich von Proteinsequenzen geweckt. Der Dokumentenabruf, wie er hier verstanden wird, besteht darin, eine Liste der Dokumente in der Bibliothek zurückzugeben, die nach einer Beschreibung eines Themas am relevantesten sind, sortiert nach absteigender Relevanzwahrscheinlichkeit. Der Schlüssel liegt offensichtlich darin, ein vernünftiges Maß an Ähnlichkeit zwischen den einzelnen Dokumenten und einem gegebenen Konzept zu haben, das hier vom neuronalen Netz bereitgestellt wird. [1] enthält einen Überblick über ähnliche Arbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-2063-6_137 d6576ab3a7e5459be988bf10c8894ed1;de;;;3.2.;;;Ein schneller sukzessiver Überrelaxationsalgorithmus zum kraftgerichteten Zeichnen von Netzwerkgraphen Der kraftgerichtete Ansatz ist eine der am weitesten verbreiteten Methoden in der Forschung zum Zeichnen von Graphen. Bei den traditionellen kraftgesteuerten Algorithmen gibt es zwei Hauptprobleme. Erstens gibt es keine ausgereifte Theorie, um die Konvergenz der im Algorithmus verwendeten Iterationsfolge sicherzustellen, und außerdem ist es schwierig, die Konvergenzrate zu schätzen, selbst wenn die Konvergenz erfüllt ist. Zweitens erhöhen sich die Laufzeitkosten beim Zeichnen großmaßstäblicher Graphen unerträglich, und daher sind die Vorteile des kraftgerichteten Ansatzes in der Praxis begrenzt. Dieses Papier konzentriert sich auf diese Probleme und stellt eine ausreichende Bedingung dar, um die Konvergenz von Iterationen sicherzustellen. Anschließend entwickeln wir einen praktischen heuristischen Algorithmus zur Beschleunigung der Iteration im kraftgerichteten Ansatz unter Verwendung einer sukzessiven Überrelaxationsstrategie (SOR). Die Ergebnisse von Computertests mit den verschiedenen Benchmark-Graphendatensätzen, die in der Forschung zum Zeichnen von Graphen weit verbreitet sind, zeigen, dass unser Algorithmus die Leistung des kraftgerichteten Ansatzes dramatisch verbessern kann, indem er sowohl die Anzahl der Iterationen als auch die Laufzeit verringert und dabei 1,5 Mal schneller ist als letztere im Durchschnitt.;-;-;-;https://link.springer.com/article/10.1007/s11432-011-4208-9 497180d74a4b8b8ced734fdaf1b3fd19;de;;;3.2.;;;Verteilte Steuerungssysteme Sicherheit für CPS Verteilte Steuerungssysteme (DCS) sind eine der Gründungstechnologien der Cyber-Physical Systems (CPS), die in Industrien und Netzen eingesetzt werden. Die DCS sind Studien aus den Bereichen Design, Architektur, Modellierung, Framework, Management, Sicherheit und Risiko. Aus den Ergebnissen wurde festgestellt, dass die Sicherheit dieser Systeme der wichtigste Aspekt unter den modernen Themen ist. Um die Sicherheit von DCSs zu verbessern, ist es wichtig, die Brückenfunktionen zwischen DCSs und CPSs zu verstehen, um sie vor Cyberangriffen gegen bekannte und unbekannte Schwachstellen zu schützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-75880-0_7 ff1100e0eeeaedff2bbfe078c4e1eb42;de;;;3.2.;;;Die Implementierung und Entwicklung des Apotheken-Informationsnetzwerks Die Bereitstellung von Apothekeninformationen im Vereinigten Königreich wird derzeit über eine Vielzahl unterschiedlicher Gruppen an eine Vielzahl von Sektoren geliefert. Durch die Schaffung eines Dialogs zwischen den Akteuren in diesem Bereich auf verschiedenen Ebenen glauben die Autoren, dass der potenzielle Nutzen für die Informationsspezialisten von Apotheken und ihren Kundenstamm beträchtlich sein wird. Derzeit gibt es keine Einrichtung, die die Bedürfnisse von Bibliothekaren mit Interesse an Apothekeninformationen erfüllt. Folglich wurde das Pharmacy Information Librarians (PILS)-Netzwerk unter der Leitung von zwei großen Apothekenbibliotheken im Vereinigten Königreich (der Royal Pharmaceutical Society of Great Britain und der School of Pharmacy, University of London) eingeführt und entwickelt. Die Gruppe hat die Form eines informellen Netzwerks und richtet sich zunächst an Apothekenbibliothekare, die im Hochschulbereich tätig sind. Es wurde Wert darauf gelegt, Material, persönliche Expertise, Bedürfnisse und Anforderungen der verschiedenen beteiligten Institutionen besser kennenzulernen, um einen direkten und einfachen Zugang zu den verschiedenen Sammlungen zu schaffen. Die Mitgliedschaft in der Gruppe wird ein besseres Bewusstsein der in dem Bereich tätigen Spezialisten gewährleisten, wobei der Schwerpunkt darauf gelegt wird, dass der Zugang zum Netzwerk zu jedem Zeitpunkt dazu führt, dass die am besten geeigneten und relevantesten Informationsquellen von denjenigen bereitgestellt werden, die am besten für den Umgang mit den Anfrage.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-0093-9_72 fbb35a3ed9387951e9f2faa717102117;de;;;3.2.;;;Implementieren eines parallelen simulierten Annealing-Algorithmus Die MPI- und OpenMP-Implementierungen des parallel simulierten Annealing-Algorithmus zur Lösung des Vehicle Routing Problems (VRPTW) werden vorgestellt. Der Algorithmus besteht aus einer Reihe von Komponenten, die periodisch zusammenarbeiten, indem sie ihre besten bisher gefundenen Lösungen austauschen. Ziel der Arbeit ist es, die Geschwindigkeit und die Skalierbarkeit der beiden Implementierungen zu untersuchen. Für Vergleiche werden die ausgewählten VRPTW-Benchmarking-Tests verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14390-8_16 061a893dad2ba050c1a4118cd0fe0b62;de;;;3.2.;;;Proteingebundene Kohlenhydrate auf der Zelloberfläche als Erkennungsziele: Eine Odyssee, sie zu verstehen Multidisziplinäre Ansätze einer Reihe von Forschern haben festgestellt, dass Kohlehydrate auf der Zelloberfläche integrale Bestandteile von Erkennungssystemen sind, die das Überleben, die Migration, die Adhäsion, das Wachstum und die Differenzierung verschiedener Zellen regulieren. Unsere eigenen Erfahrungen und Beiträge zu diesem spannenden Feld werden beschrieben. Wir entdeckten Endo D als die erste auf Glykoproteine ​​wirkende Endoglycosidase, fanden die komplementäre Spezifität von zwei Endoglycosidasen (Endo D und Endo H) und setzten diese Enzyme für die Glykoproteinforschung ein. Endo-β-Galactosidase C, die die xenoantigene Determinante Galα1-3Galβ1-4GlcNAc hydrolysiert, wurde später gefunden und molekular kloniert. Wir fanden auch stark verzweigte Poly-;-;-;-;https://link.springer.com/article/10.1023/A%3A1011078627247 ee6727861184bc5bda0ecb219023ed71;de;;;3.2.;;;Nicht aufdringlicher SSL/TLS-Proxy mit JSON-basierter Richtlinie Die Platzierung eines Abhörproxys zwischen einem Client und einem Webserver hat seine eigenen Auswirkungen. Daher ist es praktischer, einen „mittleren“ Ansatz zu wählen, der die laufenden und zukünftigen SSL/TLS-Sitzungen moderieren kann, ohne die Privatsphäre des Benutzers zu beeinträchtigen. Eine Richtlinienregel im JSON-Schema und in den Daten wird für die Behandlung von SSL/TLS-Verbindungen vorgeschlagen, die von einem nicht aufdringlichen Pass-Through-Proxy delegiert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46578-3_51 d93ee9c8822b44942506fb70db6b2dac;de;;;3.2.;;;Ein Ansatz des künstlichen Immunsystems zur Erkennung von Fehlverhalten in mobilen Ad-hoc-Netzwerken In mobilen Ad-hoc-Netzwerken fungieren Knoten sowohl als Endgeräte als auch als Informationsrelais und nehmen an einem gemeinsamen Routing-Protokoll wie beispielsweise Dynamic Source Routing (DSR) teil. Das Netzwerk ist anfällig für Routing-Fehlverhalten aufgrund fehlerhafter oder bösartiger Knoten. Systeme zur Erkennung von Fehlverhalten zielen darauf ab, diese Schwachstelle zu beseitigen. In diesem Artikel untersuchen wir die Verwendung eines künstlichen Immunsystems (AIS) zur Erkennung von Node-Fehlverhalten in einem mobilen Ad-hoc-Netzwerk mit DSR. Das System ist vom natürlichen Immunsystem von Wirbeltieren inspiriert. Unser Ziel ist es, ein System aufzubauen, das wie sein natürliches Gegenstück automatisch lernt und neues Fehlverhalten erkennt. Wir beschreiben den ersten Schritt unseres Designs, es verwendet negative Selektion, einen Algorithmus, der vom natürlichen Immunsystem verwendet wird. Wir definieren, wie wir die Konzepte des natürlichen Immunsystems wie Selbst, Antigen und Antikörper auf ein mobiles Ad-hoc-Netzwerk abbilden und geben den resultierenden Algorithmus zur Erkennung von Fehlverhalten an. Wir haben das System in den Netzwerksimulator Glomosim implementiert, stellen Detektionsergebnisse vor und diskutieren, wie sich die Systemparameter auf die Ergebnisse auswirken. Weitere Schritte werden das Design erweitern, indem eine Analogie zum angeborenen System, Gefahrensignalen, Costimulation und Speicherzellen verwendet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27835-1_29 2b11d3cd5aa8633e385c9b6e3df36f3b;de;;;3.2.;;;Verbesserung der Inhaltsbereitstellung durch Nutzung des Dienstprogramms von CDN-Servern Da immer mehr Aspekte unserer Arbeit und unseres Lebens online verlagert werden und das Internet über ein Kommunikationsmedium hinaus zu einer Plattform für Wirtschaft und Gesellschaft wird, haben Content Delivery Networks (CDNs) in letzter Zeit in der Internet-Computing-Landschaft an Bedeutung gewonnen. Heutzutage stammt ein großer Teil des Internetverkehrs von CDNs. Der endgültige Erfolg von CDNs erfordert neue Richtlinien, die der steigenden Nachfrage nach Inhalten gerecht werden. Hier nutzen wir das CDN-Dienstprogramm - eine Metrik, die die Verkehrsaktivität in einem CDN erfasst und die Nützlichkeit von Ersatzservern in Bezug auf die Datenzirkulation im Netzwerk ausdrückt. Wir lösen das Problem der Inhaltsreplikation, indem wir Inhalte über einen geografisch verteilten Satz von Servern replizieren und Benutzer in Bezug auf die CDN-Nutzung auf den nächstgelegenen Server umleiten. Durch eine detaillierte Simulationsumgebung mit realen und synthetisch generierten Datensätzen zeigen wir, dass der vorgeschlagene Ansatz die Leistung der internetbasierten Inhaltsbereitstellung erheblich verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32344-7_8 50524440bb618324e8c262d085819349;de;;;3.2.;;;VF2x: Schnelle, effiziente virtuelle Netzwerkzuordnung für echte Testbed-Workloads Verteilte Netzwerk-Testbeds wie GENI zielen darauf ab, eine potenziell große Anzahl von Experimenten gleichzeitig in einem komplexen, weit verteilten physischen Netzwerk zu unterstützen, indem jedes angeforderte Netzwerk auf einen Anteil oder „Slice“ physischer Hosts, Switches und Links abgebildet wird. Eine große Herausforderung ist;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35576-9_23 5718c72a23474bb401560f0b4b92cc83;de;;;3.2.;;;RPSF: Ein Routing-Protokoll mit selektiver Weiterleitung für mobile Ad-hoc-Netzwerke Viele existierende reaktive Routingalgorithmen für mobile Ad-hoc-Netzwerke verwenden einen einfachen Rundsendemechanismus zur Routenerkennung, der zu einer hohen Redundanz von Routenanforderungsnachrichten, Konflikten und Kollisionen führen kann. Positionsbasierte Routingalgorithmen lösen dieses Problem, erfordern jedoch, dass jeder Knoten zu einem bestimmten Zeitpunkt die Position und Geschwindigkeit jedes anderen Knotens kennt, damit Routenanforderungen zum Ziel weitergeleitet werden können, ohne das gesamte Netzwerk zu überfluten. In einem allgemeinen Ad-hoc-Netzwerk ist es teuer oder unmöglich, dass jeder Knoten die Positionsinformationen jedes anderen Knotens verwaltet. In diesem Beitrag schlagen wir einen Routing-Algorithmus vor, der diese Nachteile angeht. Unser Algorithmus, der auf One-Hop-Nachbarschaftsinformationen basiert, ermöglicht es jedem Knoten, eine Teilmenge seiner Nachbarn auszuwählen, um Routenanforderungen weiterzuleiten. Dieser Algorithmus reduziert die Anzahl der im Route-Discovery-Prozess übertragenen Route-Request-Pakete stark. Wir vergleichen die Leistung unseres Algorithmus mit dem bekannten Ad-hoc On-Demand Distance Vector (AODV) Routing-Algorithmus. Im Durchschnitt benötigt unser Algorithmus weniger als 12,6 % der von AODV benötigten Routing-Control-Pakete. Simulationsergebnisse zeigen auch, dass unser Algorithmus ein höheres Paketzustellungsverhältnis und eine geringere durchschnittliche Ende-zu-Ende-Verzögerung als AODV aufweist.;-;-;-;https://link.springer.com/article/10.1007/s11277-006-9231-6 edc267df57e82a22325e74928c038642;de;;;3.2.;;;Klassifikation der journalistischen Relevanz in sozialen Netzwerknachrichten: ein explorativer Ansatz App Soziale Netzwerke werden zu einem breiten Informationsspeicher, von denen einige für ein allgemeines Publikum von Interesse sein können. In dieser Studie untersuchen wir, welche Merkmale aus einzelnen in einem sozialen Netzwerk verbreiteten Posts extrahiert werden können und die aus journalistischer Sicht auf ihre Relevanz hinweisen. Anschließend testen wir diese Merkmale mit einem Satz überwachter Lernalgorithmen, um unsere Hypothese zu bewerten. Die wichtigsten Ergebnisse deuten darauf hin, dass ein Textfragment, das als interessant, für die Mehrheit der Menschen sinnvoll, zuverlässig und mit großem Umfang hervorgehoben wird, eher als relevant angesehen wird. Dieser Ansatz liefert auch vielversprechende Ergebnisse, wenn er mit mehreren bekannten Lernalgorithmen validiert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-50901-3_50 383b24dc2a1398e566682ea69dd34156;de;;;3.2.;;;Künstliche neuronale Netze zur Lösung von Double-Dummy-Bridge-Problemen Dieses Papier beschreibt die Ergebnisse der Anwendung künstlicher neuronaler Netze auf das Doppeldummy-Brückenproblem. Mehrere neuronale Feedforward-Netze wurden mit einem belastbaren Backpropagation-Algorithmus trainiert, um die Anzahl der Tricks zu schätzen, die die Spieler ausführen müssen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24844-6_142 0a69afde66dc17360af1428321fbbe5c;de;;;3.2.;;;Implementierung der diskreten Kosinustransformation und des neuronalen Netzes mit radialer Basisfunktion in der Gesichtsbilderkennung Gesichtsbilderkennung ist in vielen Lebensbereichen weit verbreitet und implementiert worden, z. Forschung in diesem Bereich wird jedoch noch betrieben. Die Quellbilder dieses Artikels stammen aus der Bildbibliothek, die in der Beschreibung der Sammlung von Gesichtsbildern, 2008, bereitgestellt wird. Dieser Artikel erklärt, wie 35 Gesichter im JPG-Format mit den Abmessungen 180 x 180 Pixel durch nur 3 x 3 DCT-Koeffizienten dargestellt werden können und können zu 100 % vom Radial Basis Function Network anerkannt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46742-8_10 905eb1038e7e7fab814206a05c61f303;de;;;3.2.;;;Kollaborations- und Kommandotools für das Krisenmanagement Vorhandene Kollaborationstools sind für den Befehlsprozess nicht geeignet. Den Kollaborationswerkzeugen fehlen beim Einsatz militärischer Einheiten die Elemente für Befehl und Kontrolle und Ressourcenplanung. Verfügbare Collaboration-Tools konzentrieren sich auf die unkontrollierte Verteilung von Informationen. Sie stellen Situationsbewusstseins-(SA)-Tools für die kooperierenden Einheiten dar, nicht die erforderliche Lösung für nachvollziehbare und ausgereifte Befehls- und Kontrolltools (C2-Tools), die für die Krisenmanagementumgebung (CME) und die Militärumgebung (ME) gelten. Dieses Papier stellt Werkzeuge für das Krisenmanagement vor, die den Einsatz effektiver C2-Werkzeuge ermöglichen, die zusammen mit dem Resource Manager (RM) und Scheduler funktionieren. Gegebene Aufgaben müssen für verschiedene Zwecke im Nachhinein nachvollziehbar sein. Auf der Grundlage gesammelter Daten aus den Ereignissen, Aktionen und der Zuverlässigkeit verschiedener kollaborierender Entitäten kann eine vertrauenswürdige Datenbank der Eigenschaften jeder Entität formuliert und anschließend als Basiswissen über die kollaborierende Entität verwendet werden. Die gesammelten Daten verbleiben im Informationsspeicher und die gesammelten Daten werden zu Identifizierungszwecken einer Entität verwendet. C2-Tools in ME und CME sind Systeme von Systemen, die auf vertrauenswürdigen Entitäten basieren, die die befohlenen Aufgaben zuverlässig und in einer bestimmten Zeit ausführen. Berichtstools sind nicht Gegenstand dieses Dokuments.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15717-2_4 0abe65cd262272796b4dfccf65de3dfc;de;;;3.2.;;;DelayDroid: ein instrumentierter Ansatz zur Reduzierung der Tail-Time-Energie von Android-Apps Mobile Geräte mit 3G/4G-Vernetzung verschwenden oft Energie in der sogenannten „Tail Time“, in der das Funkgerät eingeschaltet bleibt, obwohl keine Kommunikation stattfindet. Frühere Arbeiten haben Richtlinien vorgeschlagen, um diese Energieverschwendung durch Stapeln von Netzwerkanforderungen zu reduzieren. Diese Arbeit ist jedoch aufgrund fehlender Mechanismen schwierig in der Praxis anzuwenden. Als Reaktion darauf haben wir DelayDroid entwickelt, ein Framework, das es einem Entwickler ermöglicht, die erforderlichen Richtlinien zu bestehenden, unveränderten Android-Anwendungen (Apps) ohne menschlichen Aufwand und ohne SDK/OS-Änderungen hinzuzufügen. Dadurch können solche Vorarbeiten (sowie unsere eigenen Richtlinien) problemlos eingesetzt und ausgewertet werden. Die DelayDroid-Kompilierungszeit verwendet statische Analyse und Bytecode-Refactoring, um Methodenaufrufe zu identifizieren, die Netzwerkanforderungen senden, und solche Aufrufe zu ändern, um sie zur DelayDroid-Laufzeit umzuleiten. Die Laufzeit wendet dann eine Richtlinie an, um sie zu stapeln, wodurch Energieverschwendung durch die Endzeit vermieden wird. DelayDroid enthält auch einen App-übergreifenden Kommunikationsmechanismus, der Richtlinien unterstützt, die über mehrere gemeinsam ausgeführte Apps hinweg optimieren, und wir schlagen eine Richtlinie vor, die dies tut. Wir haben die Korrektheit und Universalität der DelayDroid-Mechanismen bei 14 beliebten Android-Apps aus dem Google App Store bewertet. Um unsere vorgeschlagene Richtlinie zu evaluieren, haben wir drei DelayDroid-fähige Apps (Wettervorhersage, E-Mail-Client und News-Client) untersucht, die zusammen ausgeführt werden.;-;-;-;https://link.springer.com/article/10.1007/s11432-015-1026-y 97b5c3c0ccaa124fd01aab1af0c574f2;de;;;3.2.;;;Anddy: Ein System zur Disambiguierung von Autorennamen in der digitalen Bibliothek In dieser Demonstration implementieren wir ein System namens Anddy, das versucht, Autorennamen in einer digitalen Bibliothek durch Clustering eindeutig zu machen. Unser System wird versuchen, die Zitationsdatensätze basierend auf einigen Benutzereingabeparametern zu gruppieren, sodass idealerweise jeder Cluster Zitationsdatensätze enthalten sollte, die demselben Autor gehören, während verschiedene Cluster unterschiedliche Autoren bezeichnen. Für jeden Cluster werden wir außerdem eine Taxonomie anzeigen, die ihn und das soziale Netzwerk des Clusters repräsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12098-5_46 9b696b1653a041f622973cd2a599f656;de;;;3.2.;;;Kommunikationsnetzwerke Die Computervernetzung fügt dem Umfang der Telekommunikation im gewöhnlichen Sinne eine zusätzliche Dimension hinzu, indem sie mehrere Kommunikationsmedien und -kanäle für numerische Daten, Textformeln, Diagrammgrafiken und Bilder sowie Sprache bereitstellt. Tatsächlich kann es in seiner fortschrittlichsten Form Multimedia-Nachrichten unter Verwendung all dieser Arten von Nachrichteninhalten verarbeiten. Das Potenzial der Computervernetzung geht über Datenkommunikation, Telex, Telefax, Teletext, Videotext und elektronische Post und Nachrichtendienste hinaus. Es umfasst den gesamten Bereich der Büroautomatisierung, der sich jetzt schnell entwickelt: Finanztransaktionsdienste, elektronisches Publizieren, integrierte Informationsdienste und Industrie-/Fertigungsanwendungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-6912-7_4 b76038edad4282c534d5144cf3cec081;de;;;3.2.;;;Analyse des Sozialverhaltens und der Nachrichtenverbreitung in einem auf Menschen basierenden verzögerungstoleranten Netzwerk Jüngste Fortschritte in der Mobilkommunikation zeigen eine Verbreitung in Netzwerken, die durch von Menschen getragene Geräte gebildet werden, die als Pocket Switched Network (PSN) bekannt sind. Der Mensch ist ein soziales Tier. Sie neigen dazu, Gruppen und Gemeinschaften zu bilden und haben sich wiederholende Mobilitätsmuster, die zur Verbreitung von Informationen in PSNs verwendet werden können. In diesem Papier geben wir einen tieferen Einblick in die Natur der Community-Bildung und wie solche Informationen verwendet werden können, um die opportunistische Weiterleitung in mobilen opportunistischen Netzwerken zu unterstützen. Unter Verwendung realer Mobilitätsspuren leiten wir zunächst die Adjazenzliste für jeden Knoten ab und bilden den Kontaktgraphen. Mit Tools aus der sozialen Netzwerkanalyse bestimmen wir dann verschiedene Knoteneigenschaften wie Zentralität und Clustering-Koeffizient und Grapheigenschaften wie durchschnittliche Pfadlänge und Modularität. Basierend auf den abgeleiteten Grapheigenschaften, dem Node-Encounter-Prozess und der Art der Nachrichtenverbreitung in PSNs schlagen wir zwei sozialbasierte Routings vor, bekannt als das kontaktbasierte Routing und das gemeinschaftsbewusste Two-Hop-Routing. Wir vergleichen die vorgeschlagenen Routing-Techniken mit generischem Epidemie- und Propheten-Routing und Bubble-Rap, einem sozialbasierten Routing. Die Ergebnisse zeigen, dass die vorgeschlagenen Algorithmen in der Lage sind, ein besseres Lieferverhältnis und eine geringere Verzögerung als Bubble Rap zu erreichen, während gleichzeitig der hohe Overhead-Verhältnis von Epidemie- und Propheten-Routing reduziert wird.;-;-;-;https://link.springer.com/article/10.1007/s11276-014-0790-2 a09354bad72ff57fca6f5bacad25d509;de;;;3.2.;;;Sicherheitsklassifizierung Übertragungsverfahren basierend auf SDN in industriellen Netzwerken Software Defined Networking (SDN) ist eine neue Art von Netzwerkarchitektur, die eine wichtige Möglichkeit bietet, eine automatisierte Netzwerkbereitstellung und flexible Verwaltung zu implementieren. Aber auch in industriellen Netzwerken sind Sicherheitsprobleme bei SDN vorprogrammiert. Im Forschungsbereich SDN-Sicherheit und traditionelle Netzwerksicherheit sollen daher die Machbarkeit und der Einfluss von Defense in Depth in industriellen Netzwerken untersucht werden. In diesem Beitrag wird ein auf SDN basierendes Übertragungsverfahren mit Sicherheitsklassifizierung in industriellen Netzwerken vorgeschlagen, das ein besseres Sicherheitsniveau von Übertragungswegen bietet. Bei dem vorgeschlagenen Verfahren wird zunächst das Sicherheitsklassifizierungsübertragungssystem vorgestellt. Durch Entwerfen von fünf Dienstmechanismen, einschließlich Anforderung, Strategieerzeugung, Verteilung/Wartung, Aktualisierung/Laden und Ausführung, wird das Übertragungsdienstmodell der Sicherheitsklassifizierung definiert. In einer experimentellen Studie wurde gezeigt, dass die vorgeschlagene Methode in industriellen heterogenen Netzwerken durchführbar ist und bessere Sicherheitspfade bietet, ohne die Verfügbarkeit im Fall von mehreren Domänen und mehreren Knoten von industriellen Netzwerken zu beeinträchtigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00021-9_3 6b9678b5bb93f2e2e873f6f1214a8020;de;;;3.2.;;;Überlebensfähigkeitsorientierte optimale Knotendichte für zufällig eingesetzte drahtlose Sensornetzwerke Die Überlebensfähigkeit ist normalerweise kritisch für drahtlose Sensornetzwerke, die oft in der unbeaufsichtigten rauen Umgebung eingesetzt werden. Viele technische Schemata zur Verbesserung der Überlebensfähigkeit hängen von den redundanten Ressourcen der Sensornetzwerke ab. Die Menge der Ressourcen wird in der Regel durch die Knotendichte während der Bereitstellungsphase bestimmt. Für die zufällige Bereitstellung und zufällige Knotenausfälle wird die quantitative Beziehung zwischen der Überlebensfähigkeit und der Knotendichte untersucht. Basierend auf der bedingten Überlebensfähigkeit wird die Knotendichte dargestellt, um das erforderliche Überlebensfähigkeitsniveau zu erfüllen. Schließlich werden auch die Überlebensfähigkeit bei unvorhersehbaren Ausfällen und die optimale Knotendichte zur Maximierung des Preis-Leistungs-Verhältnisses diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s11432-013-5054-8 58e55cc4d1d254a27fdb943da59cafd9;de;;;3.2.;;;UNIX STREAMS-Generierung aus einer formalen Spezifikation Dieses Papier beschreibt eine neue Idee der schnellen Protokollimplementierung ausgehend von ihrer formalen Spezifikation, nämlich Unix STREAMS-Module zu generieren. Wir haben diese Idee mit der formalen Spezifikationstechnik von Estelle umgesetzt. Der Generator wurde für das Linux-System geschrieben. Der Beitrag zeigt, wie die semantischen Probleme gelöst wurden und gibt einige Schlussfolgerungen aus Generationen, die wir durchgeführt haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39979-7_1 976b0d9ebaa5c79cbb5d1c41257f3fda;de;;;3.2.;;;Finden von Zielbenutzern, die an regionalen Gebieten interessiert sind, mithilfe von Online-Werbung und sozialen Netzwerkdiensten Es gibt eine Verschiebung der japanischen Bevölkerung von ländlichen Gebieten in städtische Gebiete. Dadurch sinkt die Wirtschaftskraft der ländlichen Gebiete. Verschiedene Kombinationen von Informationstechnologie und Tourismus wurden mit begrenztem Erfolg angewendet, um das historische und kulturelle Erbe ländlicher Gebiete zu bewahren. Ein Grund für diesen Misserfolg ist, dass sich die zuständige Regierung oder regionale Gemeinschaft nicht auf die am Gebiet interessierten Zielnutzer konzentriert. Diese Studie schlägt Methoden vor, um die Zielnutzer zu entdecken, die sich für regionale Gebiete interessieren. Wir finden die Zielnutzer über Online-Werbung und soziale Netzwerkdienste. Die Ergebnisse zeigen, dass unsere vorgeschlagenen Methoden effektiv sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-22689-7_15 548f69245b74423f6d2901e40d7d765c;de;;;3.2.;;;Peer-to-Peer Shared Ride-Systeme Gemeinsame Fahrtensysteme gleichen die Reisenachfrage von Transportkunden mit dem Angebot von Fahrzeugen oder Gastgebern ab, sodass die Kunden Fahrten zu ihren Zielen finden. Ein Peer-to-Peer-System für gemeinsame Fahrten ermöglicht es Kunden, Fahrten ad-hoc zu finden, indem sie über funkbasierte Kommunikation direkt mit nahegelegenen Gastgebern verhandeln. Ein solches Peer-to-Peer-Mitfahrsystem muss mit verschiedenen Arten von Hosts umgehen, wie zum Beispiel Privatautos und Nahverkehrsfahrzeugen. Ihr unterschiedliches Verhalten beeinflusst den Verhandlungsprozess und folglich die Reiseentscheidungen. In diesem Beitrag präsentieren und diskutieren wir ein Modell eines Peer-to-Peer-Shared-Ride-Systems mit verschiedenen Agententypen. Das Verhalten des Modells wird in einer Simulation verschiedener Kommunikations- und Wegfindungsstrategien untersucht. Wir zeigen, dass verschiedene Arten von Agenten die Auswahl der Kunden bereichern und zu lokalen Lösungen führen, die nahezu optimal sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79996-2_14 d39db54ddba14d960c2605e1f09d6d60;de;;;3.2.;;;Personalisiertes Facetten-Browsing für digitale Bibliotheken Aktuelle digitale Bibliotheken und Online-Bibliographien teilen mehrere Eigenschaften mit dem Web und teilen damit auch einige seiner Probleme. Facettenklassifikationen und Semantic-Web-Technologien werden als mögliche Ansätze zur Verbesserung digitaler Bibliotheken und zur Behebung ihrer jeweiligen Mängel untersucht. Wir beschreiben die Möglichkeiten der Facettennavigation und deren Personalisierung in digitalen Bibliotheken. Wir schlagen eine Methode der facettierten Browseranpassung vor, die auf einem automatisch erfassten Benutzermodell mit Unterstützung für die dynamische Facettengenerierung basiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74851-9_48 eaf17a7c0015941ef719236b4e96440f;de;;;3.2.;;;Soziale Organisation und kooperatives Lernen: Identifizierung und Kategorisierung von Gruppen und Untergruppen in nicht-kooperativen Spielen Dieses Papier skizziert die Ergebnisse einer Modified SYMLOG (Mod-SYMLOG) Analyse für Gruppenbildung, Struktur und Interaktionen. Während kollaboratives Arbeiten eine etablierte Arbeitsmethodik für Pädagogen und Informatiker war, fehlte es bei letzteren an Fokus darauf, was eine Gruppe in psychologisch komplexen menschlichen Gemeinschaften tatsächlich ist. Hier diskutieren wir, warum Gruppen für das Lernen von Schülern in der Bildung von Vorteil sein können, aber auch, wie der Missbrauch von Gruppen negative Auswirkungen hat. Dieser Beitrag präsentiert die Ergebnisse von zwei Brettspiel-basierten Experimenten. Das erste Experiment verwendete das klassische SYMLOG-Modell, um die Gültigkeit des Szenarios bei der Datenerfassung zu zeigen und das zweite testete unser Mod-SYMLOG. Die Ergebnisse zeigten, dass Mod-SYMLOG bei der Erfassung von Gruppendynamiken mit Hinweisen auf die Gruppenstruktur wirksam war.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-23089-0_10 99b9bc6f6913f50f51adb79b670e02db;de;;;3.2.;;;Sichere Vernetzung mit NAT Traversal für verbesserte Mobilität Wenn ein Peer in einem öffentlichen Netzwerk eine Verbindung zu einem anderen öffnet, der sich hinter einem Netzwerkadressübersetzer befindet, stößt er auf das Problem der Netzwerkadressübersetzung. Der sogenannte „UDP-Hole-Punching“-Ansatz ermöglicht das Öffnen einer öffentlich-privaten oder privat-privaten Netzwerkverbindung. Dieser Artikel befasst sich mit diesem Ansatz, um eine neue Sicherheitsarchitektur für die IPv4-Kommunikation vorzuschlagen, die das sogenannte „implizite Sicherheitskonzept“ einführt. Die wichtigsten Beiträge sind die Fähigkeit, sich mit jedem Host hinter NAT zu verbinden, indem nur der Domänenname eines Hosts verwendet wird, verbesserte Mobilität sowie Verschlüsselung und Authentifizierung aller Daten, die über diese Verbindung direkt von einem Paketsender an einen lokalen Empfänger übertragen werden. Der sichere Kanal wird bei Bedarf automatisch eingerichtet und ist unabhängig von jeder Anwendung. Es ist keine zusätzliche Änderung des aktuellen NAT, IPv4 oder DNS erforderlich.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-74159-8_35 2b7ee5d7bcf0c48491e6ee32a55c7c05;de;;;3.2.;;;Speicher- und Computing-Ressourcen ermöglichte gemeinsame virtuelle Ressourcenzuweisung mit QoS-Garantie in Mobilfunknetzen Virtualisierung ist der Trend für die Mobilfunknetze der Zukunft. Mit dem Vorteil der Virtualisierung können wir das physikalische Mobilfunknetz in die Virtual Network Function (VNF) abstrahieren und das Netz ohne Details auslegen. In diesem Papier konzentrieren wir uns auf die Virtualisierung der physischen Ressourcen, sodass das Ressourcenzuweisungsschema nicht nur die zeitvariierenden Eigenschaften von drahtlosen Kanälen berücksichtigt, sondern auch die Menge an Speicher- und Rechenressourcen. Virtuelle Ressourcen bestehen aus Funk-, Speicher- und Computerressourcen basierend auf der Virtualisierungstechnologie. Da das Cloud Radio Access Network (C-RAN) ein erfolgreiches Paradigma zur Einführung von Rechenressourcen in Mobilfunknetze ist, untersuchen wir das virtuelle Ressourcenzuweisungsschema in der C-RAN-Architektur. Mit der Content-Caching-Technologie führen wir die Speicherressourcen weiter in das gemeinsame Ressourcenzuweisungsschema ein. Um die Leistung des vorgeschlagenen Schemas zu bewerten, wählen wir die effektive Kapazität als Metrik, um den Einfluss der Dienstlatenz zu berücksichtigen. Der Zweck des Optimierungsproblems besteht darin, die effektive Systemkapazität mit Einschränkungen von Funk-, Speicher- und Rechenressourcen zu maximieren. Es wird vereinfacht und in ein konvexes Problem umgewandelt, das durch die Subgradientenmethode gelöst wird. Simulationsergebnisse werden bereitgestellt, um den Leistungsgewinn des effektiven kapazitätsbasierten gemeinsamen Ressourcenzuweisungsschemas zu demonstrieren.;-;-;-;https://link.springer.com/article/10.1007/s11432-016-9038-7 d64e70d7878481fb8f61c18425e1c7ff;de;;;3.2.;;;Kontextuelle Visualisierung des Akteurstatus in sozialen Netzwerken Wir schlagen einen neuartigen Informationsvisualisierungsansatz für eine analytische Methode vor, die in den Sozialwissenschaften angewendet wird. In der sozialen Netzwerkanalyse werden soziale Strukturen formal als Graphen dargestellt, und strukturelle Eigenschaften dieser Graphen werden als nützlich für die Erklärung sozialer Phänomene angenommen. Eine besonders wichtige Eigenschaft ist der relative Status der Akteure in einem gegebenen Netzwerk.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-6783-0_2 86a0674cdc028161be9d678895bf8fa6;de;;;3.2.;;;Das Problem der Backup-Neubereitstellung von FIPP-P-Zyklen für Knotenfehler in überlebensfähigen WDM-Netzwerken Schutztechniken für optische Netzwerke basieren hauptsächlich auf vorab zugewiesener Backup-Bandbreite, die möglicherweise keine vollständige Schutzgarantie bietet, wenn mehrere Fehler in einem Netzwerk auftreten. Nach der Wiederherstellung vom vorherigen Fehler können ungeschützte oder anfällige Lichtpfade nicht wiederhergestellt werden, wenn der Fehler erneut auftritt. In diesem Papier wird die;-;-;-;https://link.springer.com/article/10.1007/s11107-011-0328-9 d5e3c41790893a10ca963619883abcf2;de;;;3.2.;;;SIoTFog: Byzantinisch belastbares IoT-Nebel-Networking Der aktuelle Boom des Internet of Things (IoT) verändert den Alltag in vielerlei Hinsicht, von tragbaren Geräten über vernetzte Fahrzeuge bis hin zu Smart Cities. Früher betrachteten wir Fog Computing als Erweiterung des Cloud Computing, aber es wird jetzt zu einer idealen Lösung für die Übertragung und Verarbeitung großer geoverteilter Big Data. Wir schlagen eine byzantinische fehlertolerante Netzwerkmethode und zwei Strategien zur Ressourcenzuweisung für das IoT-Fog-Computing vor. Unser Ziel ist es, ein sicheres Nebelnetzwerk namens „SIoTFog“ aufzubauen, um die byzantinischen Fehler zu tolerieren und die Effizienz der Übertragung und Verarbeitung von IoT-Big Data zu verbessern. Wir betrachten zwei Fälle, mit einem einzigen byzantinischen Fehler und mit mehreren Fehlern, um die Leistungen bei unterschiedlichen Risikograden zu vergleichen. Als Metriken wählen wir Latenz, Anzahl der Weiterleitungs-Hops bei der Übertragung und Gerätenutzungsraten. Die Simulationsergebnisse zeigen, dass unsere Methoden zu einem effizienten und zuverlässigen Nebelnetzwerk beitragen.;-;-;-;https://link.springer.com/article/10.1631/FITEE.1800519 9b0036de8205b3dc93fbf746c26f3cfb;de;;;3.2.;;;Erkennung von Angriffen zur Wiederherstellung der Privatsphäre von Benutzern zur Verbesserung des mobilen kollaborativen Lernens (MCL) über heterogene Netzwerke Das Papier hebt die Probleme von nicht autorisierten DHCP-Servern (Dynamic Host Configuration Protocol) hervor, die Netzwerkressourcen während der Kommunikation beeinträchtigen und unterbrechen. Das betrügerische DHCP ist ein nicht autorisierter Server, der legalen Benutzern falsche IP-Adressen preisgibt und deren Datenverkehr illegal schnüffelt. Der Artikel stellt auf Multi-Frame-Signaturen und Anomalie basierende Intrusion Detection-Systeme (MSAIDS) vor, die durch neuartige Algorithmen und das Hinzufügen neuer Regeln in bestehende IDS unterstützt werden. Dieser innovative Sicherheitsmechanismus stärkt das Vertrauen der Benutzer und schützt das Netzwerk vor unerlaubten Eingriffen. Die Arbeit wird insbesondere durchgeführt, um die Privatsphäre der Benutzer über MCL wiederherzustellen, kann jedoch mit allen Arten von kleinen bis großen Netzwerken implementiert werden. Schließlich validiert das Papier die Idee durch Prüfstandssimulation und vergleicht die Ergebnisse mit anderen bekannten bestehenden Techniken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30567-2_17 d9a19be39bd1501d490323c47cd2b41e;de;;;3.2.;;;Eine Studie zum Problem der Backup-Neubereitstellung für FIPP-p-Zyklen in WDM-Netzwerken Mit zunehmender Größe und Komplexität von Netzwerken steigen sowohl die Wahrscheinlichkeit als auch die Auswirkungen von Ausfällen. Die vorab zugewiesene Backup-Bandbreite kann keine 100%ige Schutzgarantie bieten, wenn mehrere Fehler in einem Netzwerk auftreten. In diesem Artikel konzentrieren wir uns darauf, wie die Schutzfunktionen von FIPP-P-Zyklen (Failure-independent path-protecting) gegen den nachfolgenden Verbindungsausfall in WDM-Netzwerken wiederhergestellt werden können, nachdem die vom Verbindungsausfall betroffenen Arbeitspfade wiederhergestellt wurden. Zwei Wiederherstellungsrichtlinien sind entworfen, um die Schutzfähigkeiten der FIPP-p-Zyklen nach Möglichkeit wiederherzustellen, es sei denn, es gibt keine ausreichende Netzwerkressource. Sie sind;-;-;-;https://link.springer.com/article/10.1007/s11107-011-0307-1 a05b367689df6c531ab9dffefae20585;de;;;3.2.;;;Der Systemaufbau und die Qualitätsbewertung von Diese Studie stellt neue Überlegungen für das Lehrmuster vor, das die Grundlagen von ingenieurwissenschaftlichen Studiengängen und forschungsbasiertem Studium im Netzwerkumfeld verbindet, die Auswahl des Lernsystems und die Bewertung der textilen Materialogie als Pointcut, die Gestaltung der Systemfunktion und die Erforschung der Unterrichtspraxis. Textile Materialogie-Kurse enthalten inspirierendes und interessantes Wissen, und wir können ein Forschungs-Lernsystem über die ingenieurwissenschaftlichen Grundausbildungen aufbauen, indem wir die Inhalte, Funktionen und die Interaktionsfunktion des multimedialen Netzwerks über Raum und Zeit effektiv nutzen, das die Lehranforderungen von Textil integriert Materialogie mit den Vorteilen der Netzwerktechnologie effektiv. Dieses Papier führt die Entwurfsidee und die Realisierungsmethode ein und führt durch die Kombination mit der Realität in das entsprechende Qualitätsbewertungssystem ein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24820-7_95 8b425080b3f717b6f8627fae87de82e6;de;;;3.2.;;;Bayessche Netzwerke für die Nachahmung von Mikromanagement-Entscheidungen im RTS-Spiel Starcraft Echtzeitstrategiespiele (RTS) bieten verschiedene Forschungsbereiche für Künstliche Intelligenz. Einer dieser Bereiche umfasst das Management einzelner oder kleiner Gruppen von Einheiten, das als Mikromanagement bezeichnet wird. Diese Forschung bietet einen Ansatz, der eine Nachahmung der Entscheidungen des Spielers als Mittel für den Mikromanagement-Kampf im RTS-Spiel Starcraft implementiert. Ein bayesianisches Netzwerk wird generiert, um die von einem Spieler getroffenen Entscheidungen zu treffen und dann mit Informationen aus dem Kampf-Mikromanagement des Spielers trainiert. Anschließend wird dieses Netzwerk im Spiel implementiert, um die Leistung des im Spiel integrierten Moduls für künstliche Intelligenz zu verbessern. Da die Leistungssteigerung in direktem Zusammenhang mit dem Spiel des Spielers steht, bereichert sie außerdem das Spielerlebnis des Spielers. Die erzielten Ergebnisse belegen, dass eine Nachahmung durch die Implementierung bayesscher Netze erreicht werden kann. Folglich führte dies zu einer Leistungssteigerung im Vergleich zu der des integrierten KI-Moduls des Spiels.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37798-3_38 daf57f56ce95ba762e3e14a1f35a20c5;de;;;3.2.;;;Synthese und Charakterisierung von trägergestützten bioaktiven Lipidmembranen Ein- und mehrkomponentige membranmimetische Oberflächen von DPPC und synthetischen Lipid-Peptid-Konjugaten wurden auf einer alkylierten Glasoberfläche durch Vesikelfusion gebildet. Korrelative Rasterkraftmikroskopie und radiochemische Titrationstechniken bestätigten die Erzeugung einer einzelnen substratgestützten Monoschicht und die vorhersagbare Abscheidung definierter Lipopeptidkonzentrationen. Gemischte Systeme waren länger als 1 Monat stabil, wenn sie bei Raumtemperatur in phosphatgepufferter Kochsalzlösung gelagert wurden.;-;-;-;https://link.springer.com/article/10.1557/PROC-489-113 8b8cd3fae7f9741495c8b5784d9a2661;de;;;3.2.;;;Zeitungsartikelbasierte Agentensteuerung in Smart City Simulationen Die neueste Forschung zu Smart-City-Technologien konzentriert sich hauptsächlich darauf, die Ressourcen der Städte zu nutzen, um die Lebensqualität der Bürger zu verbessern. Verschiedene Arten von Steuersignalen von massiven Systemen und Geräten wie adaptiven Ampelsystemen in Smart Cities können gesammelt und genutzt werden. Leider ist es schwierig, einen riesigen Datensatz von Steuersignalen zu sammeln, da dies in der realen Welt erheblichen Aufwand und Zeit erfordert. Dieses Papier schlägt ein tiefes generatives Modell vor, das ein Modell des langen Kurzzeitgedächtnisses mit einem generativen gegnerischen Netzwerk (LSTM-GAN) integriert, um Agentensteuerungssignale basierend auf den aus Zeitungsartikeln extrahierten Wörtern zu generieren, um das Problem der Erfassung massiver Signale zu lösen. Das Unterscheidungsnetzwerk im LSTM-GAN verwendet kontinuierliche Worteinbettungsvektoren als Eingaben, die von einem vortrainierten Word2Vec-Modell erzeugt werden. Die Agentensteuersignale sequentieller Aktionen werden vom LSTM-GAN gleichzeitig in Echtzeit vorhergesagt. Um die Trainingsdaten von Smart-City-Simulationen zu sammeln, wird das LSTM-GAN basierend auf dem Zeitungsdatensatz Corpus of Contemporary American English (COCA) trainiert, der 5.317.731 Sätze für insgesamt 93.626.203 Wort-Token aus geschriebenen Texten enthält. Um das vorgeschlagene Verfahren zu verifizieren, wurden Agentenkontrollsignale erzeugt und validiert. Beim Training des LSTM-GAN konvergierte die Genauigkeit des Diskriminators auf 50%. Außerdem konvergierten die Verluste des Diskriminators und des Generators von 4527,04 bzw. 4527,94 auf 2,97 bzw. 1,87.;-;-;-;https://link.springer.com/article/10.1186/s13673-020-00252-8 f1840a35ec2d25b9772cfc68b9cce409;de;;;3.2.;;;IoT-Geräteerkennungs-Framework basierend auf der Netzwerkprotokoll-Schlüsselwortabfrage Der Aufschwung der 5G-Technologie hat IoT mit verbesserter Machbarkeit gebracht, es ist vorhersehbar, dass eine dramatisch erhöhte Anzahl von IoT-Geräten mit Internetzugang verfügbar ist. Es wird jedoch eine bestimmte Anzahl von Geräten geben, die extrem anfällig sind, insbesondere mit einer geringen integrierten Sicherheitscodierung. Hacker haben möglicherweise eine größere Chance, DDoS-Angriffe zu starten. Daher können identifizierbare IoT-Geräte, die mit der Datenbank für Netzwerksicherheitsschwachstellen verknüpft sind, die Risiken mindern, die zu einem sichereren Cyberspace beitragen. Dies ist von großer Bedeutung für die Sicherheit des gesamten Cyberspace. Dieses Papier schlägt eine IoT-Geräteidentifikationstechnologie basierend auf der Schlüsselwortabfrage des Netzwerkprotokolls vor. Zunächst werden die vom IoT-Gerät gesendeten Verkehrspakete in Echtzeit gesammelt. Dann werden die Verkehrsdaten, die von verschiedenen Netzwerkprotokollen getragen werden, durch Analysieren von Verkehrspaketen extrahiert. Zweitens werden die Verkehrsdaten gefiltert und in identifizierbare Informationen in Bezug auf das Identifikationsattribut des IoT-Geräts umgewandelt. Schließlich werden mit der Suchmaschine der großen E-Commerce-Website für das Internet der Dinge die Informationen über das IoT-Gerät durch Eingabe des Protokollschlüsselworts abgerufen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-57884-8_20 dc424a7954e304af5ce40a208c8c84b7;de;;;3.2.;;;Bewertung der Rechenzeiten für direkte und iterative Auflösungsverfahren von MTJ-Bibliotheksmatrizen in einem thermischen Simulationssystem Thermische Simulationssysteme in Gebäuden tragen zum Entwurf energieeffizienter Bauwerke bei, jedoch ist ein erheblicher Rechenaufwand erforderlich, um die Ergebnisse des Simulationsprozesses zu erhalten. Das Hauptaugenmerk dieser Arbeit liegt auf der Untersuchung der Möglichkeit, den Zeitaufwand für die Berechnungen von thermischen Simulationssystemen zu reduzieren. Genauer gesagt konzentriert sich der Artikel auf einen der Hauptprozesse, der Rechenressourcen benötigt, um das Gleichungssystem zu lösen, das als Ergebnis der thermischen Modellierung eines Gebäudes erhalten wird. Diese Forschung wurde durchgeführt, um die Leistungsfähigkeit von Java-Bibliotheksmethoden zu bestimmen: Matrix Tool for Java (MTJ) zum Lösen von linearen Gleichungssystemen und um herauszufinden, welches davon hinsichtlich der Rechenzeit das Optimum ist. Dazu wurden Tests für die iterativen Methoden in Kombination mit Vorkonditionierern durchgeführt. Die Tests der direkten Methode wurden durch die Entwicklung einer Software durchgeführt, die in zwei Fallstudien von Gebäuden implementiert und mit den Parametern der thermischen Simulationssoftware JEner von der Thermal Engineering Research Group der Universität Cadiz in Spanien modelliert wurde .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00940-3_9 755f2da554fc98eb451bbfd61f1d0587;de;;;3.2.;;;Vergleichende Analyse von Sammlungen wissenschaftlicher Aufsätze durch Topic Modeling und Co-Autorenschaftsnetzwerke In diesem Beitrag präsentieren die Autoren einen Ansatz zum Benchmarking der Sammlungen wissenschaftlicher Zeitschriften basierend auf der Analyse von Co-Autorenschaftsgraphen und Textmodellen. Das wichtigste methodische Ergebnis ist die Comparative Topic Modeling (CTM)-Technik. Die Anwendung von Zeitreihen auf die Metriken von Co-Autorenschaftsgraphen ermöglichte die Analyse von Trends in der Entwicklung von Autorenkooperationen in wissenschaftlichen Zeitschriften. Ein Textmodell wurde mit Methoden des maschinellen Lernens erstellt. Der Inhalt von Zeitschriften wurde klassifiziert, um den Grad der Authentizität sowohl in verschiedenen Zeitschriften als auch in ihren Ausgaben zu bestimmen. Es wurden Experimente in den Archiven zweier Zeitschriften auf dem Gebiet der Rheumatologie durchgeführt. Die Autoren verwendeten öffentliche Datensätze aus dem SNAP-Forschungslabor der Stanford University, um die Netzwerkmetriken der Co-Autoren zu vergleichen. Die Anwendung der Forschungsergebnisse verbessert redaktionelle Strategien zur Entwicklung von Ko-Autorenkooperationen und wissenschaftlichen Inhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-34518-1_6 7769386b7bad284438759821424c7475;de;;;3.2.;;;Synergetics, Inter-Representation Networks und Cognitive Maps Synergetik und ihr Konzept der Ordnungsparameter können einen allgemeinen theoretischen Rahmen für das Studium kognitiver Karten liefern. Enge Verknüpfungen zwischen Prozessen in der inneren Welt des Individuums und Prozessen in der äußeren Umgebung haben zum Begriff der interrepräsentativen Netzwerke (IRN) geführt. In diesem Beitrag wird gezeigt, wie das Konzept der Ordnungsparameter es uns ermöglicht, den Begriff des IRN in eine mathematische Form zu bringen, die im vorliegenden Beitrag auf grafischen Darstellungen basiert. Nach einer kurzen Erinnerung an Synergetik, Cognitive Maps und IRN präsentieren wir ein allgemeines Modell von IRN in Bezug auf Synergetik, in dem die mathematischen Grundlagen demonstriert werden. Anschließend zeigen wir, wie das obige Modell auf die Konstruktion kognitiver Karten angewendet werden kann, insbesondere auf das Umweltlernen und Transformationen in der kognitiven Kartierung. Schließlich zeigen wir, wie kollektive kognitive Prozesse ablaufen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-585-33485-1_3 acb3565e3d162f8e19c29d90692f386d;de;;;3.2.;;;Progressive 3D-Mesh-Übertragung in IP-Netzwerken: Implementierung und Verkehrsmessungen Diese Arbeit betrifft das Problem der Vorbereitung des Computersystems, um die 3D-Szene in einer dynamischen Netzwerkumgebung darzustellen. Der Artikel präsentiert vorläufige Ergebnisse der Netzwerkmessung der progressiven 3D-Mesh-Übertragung unter Verwendung des TCP-Protokolls. Ziel ist es, die möglichen Auswirkungen der Übertragungsdynamik auf die im VR-Browsing-Client verfügbare Datenmenge zu bewerten, die sich auf die Browsing-Erfahrung bezieht. Der Artikel vergleicht die in einem realen Netzwerk erhaltenen Ergebnisse mit den zuvor durchgeführten Simulationsstudien. In vier Abschnitten präsentiert der Artikel eine kurze Einführung und Erkundungsmodell, Simulationsergebnisse, Implementierung von Progression und einfaches Netzwerkprotokoll und schließlich Schlussfolgerungen und zukünftige Arbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25355-3_3 66c6e464dcdffce794d4bd89104c30c2;de;;;3.2.;;;Eine Art verbesserte Erkennung und Abwehr von Trojanern basierend auf dem Angriffsbaum Trojanisches Pferd ist eine Art Verfahren mit potenziellen Bedrohungen, das dem Computer unterschiedlichen Schaden zufügt. Daher ist es wichtig, es zu erkennen und zu verhindern. Durch die Analyse der PE-Datei einer Prozedur wird ihre API-Aufrufreihenfolge extrahiert und in API-Sequenzen der Länge k geschnitten. Wenn wir diese API-Sequenzen mit dem Angriffsbaum abgleichen, dann die Wahrscheinlichkeit und das bösartige Gewicht für jeden Knoten des Baums berechnen, berechnen wir schließlich den Gefahrenkoeffizienten am Wurzelknoten und den Ähnlichkeitsgrad mit Trojan, um die Möglichkeit des Ziels zu beurteilen, wenn es ein Trojanisches Pferd ist oder ein Trojanisches Pferd enthält. Dann erkennen und verhindern Sie Trojaner-Angriffe genau.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09265-2_38 e71543728e7680b6d82dab9fa886bb34;de;;;3.2.;;;Verteilte Videoüberwachung mit intelligenten Kameras Videoüberwachungssysteme sind zu einem unverzichtbaren Werkzeug für die Sicherheit und Organisation öffentlicher und privater Bereiche geworden. Die meisten aktuellen kommerziellen Videoüberwachungssysteme beruhen auf einer klassischen Client/Server-Architektur, um die Gesichts- und Objekterkennung durchzuführen. Um die in den letzten Jahren vorgeschlagenen komplexeren und fortschrittlicheren Videoüberwachungssysteme zu unterstützen, müssen Unternehmen Ressourcen investieren, um die Server für die Erkennungsaufgaben zu warten. In dieser Arbeit schlagen wir ein neuartiges verteiltes Protokoll für ein Gesichtserkennungssystem vor, das die Rechenfähigkeiten der Überwachungsgeräte (d. h. Kameras) nutzt, um die Erkennung der Person durchzuführen. Die Kameras greifen auf einen zentralen Server zurück, wenn ihre Hardwarefähigkeiten nicht ausreichen, um die Erkennung durchzuführen. Um den vorgeschlagenen Algorithmus zu evaluieren, simulieren und testen wir die 1NN- und gewichteten kNN-Klassifikationsalgorithmen durch umfangreiche Experimente an einem frei verfügbaren Datensatz. Als Prototyp von Überwachungsgeräten haben wir Raspberry PI-Entitäten in Betracht gezogen. Anhand von Simulationen zeigen wir, dass unser Algorithmus bis zu 50 . reduzieren kann;-;-;-;https://link.springer.com/article/10.1007/s10723-018-9467-x a5be4f071d1951ccd026e432257833f8;de;;;3.2.;;;Unterstützung mehrerer Sprachen für programmierbare Netzwerksysteme In den letzten Jahren wurden verschiedene programmierbare Netzwerke entworfen und implementiert. Viele von ihnen konzentrieren sich nur auf eine einzige Programmiersprache. Diese Einschränkung könnte – bis zu einem gewissen Grad – die Produktivität von Dienstmodulen beeinträchtigen, die für solche Netzwerke programmiert werden. Daher wurde im FlexiNet-Projekt die gleichzeitige Unterstützung von in mehreren Programmiersprachen geschriebenen Servicemodulen untersucht. Grundsätzlich wurde die Unterstützung für drei große Programmierparadigmen in FlexiNet integriert: kompilierte Programmiersprachen wie C, interpretierte Sprachen (z. B. Java) und Hardwarebeschreibungssprachen wie VHDL. Das Schlüsselkonzept zeigt sich in einer durchgängigen Schnittstelle, die von allen drei Programmiersprachen verwendet wird. Dies führt zu einem Konfigurationsschema, das für die zur Entwicklung des Dienstes verwendeten Programmiersprachen völlig transparent ist. Um die Auswirkungen der verwendeten Programmiersprache besser einschätzen zu können, wurden einige Messexperimente durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24715-9_16 73e5bc4749373d07f365ac711fdf54bf;de;;;3.2.;;;Anti-Noise Texture Retrieval basierend auf PCNN und One-Class SVM Durch das Training und die Vorhersage der Merkmale, die durch ein pulsgekoppeltes neuronales Netzwerk (PCNN) extrahiert werden, wird in diesem Papier ein System zum Abrufen von Texturen mit Rauschimmunität in Kombination mit PCNN und einer One-Class Support Vector Machine (OCSVM) vorgeschlagen, die das Anti-Rauschen effektiv verbessern Leistung des Bildabrufsystems. Die Versuchsergebnisse in unterschiedlichen Rauschumgebungen zeigen, dass unser vorgeschlagener Algorithmus in der Lage ist, eine höhere Suchgenauigkeit und eine bessere Robustheit gegenüber Rauschen zu erreichen als ein traditionelles System auf Basis der euklidischen Distanz.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38679-4_28 0895fb19c5faf22bbcd3c39fb3332be6;de;;;3.2.;;;Ein adaptiv gewichteter zweidimensionaler Datenaggregationsalgorithmus für geclusterte drahtlose Sensornetzwerke In diesem Beitrag wird ein Adaptive-Weighted Time-Dimensional and Space-Dimensional (AWTDSD) Datenaggregationsalgorithmus für ein geclustertes Sensornetzwerk vorgeschlagen, um die Lebensdauer des Netzwerks zu verlängern und die Genauigkeit der im Netzwerk gesammelten Daten zu verbessern. AWTDSD enthält drei Phasen: (1) die zeitdimensionale Aggregationsphase zur Beseitigung der Datenredundanz, (2) die adaptivgewichtete Aggregationsphase zur weiteren Aggregation der Daten sowie zur Verbesserung der Genauigkeit der aggregierten Daten und (3) die (3) raumdimensionale Aggregationsphase zum Reduzieren der Größe und des Umfangs der Datenübertragung an die Basisstation. AWTDSD nutzt die Korrelationen zwischen den erfassten Daten, um die Datenübertragung zu reduzieren und auch die Datengenauigkeit zu erhöhen. Das experimentelle Ergebnis zeigt, dass AWTDSD nicht nur fast die Hälfte des Gesamtenergieverbrauchs einsparen kann, sondern auch die Genauigkeit der von den Sensoren im Clusternetzwerk überwachten Daten erheblich erhöhen kann.;-;-;-;https://link.springer.com/article/10.1007/s11767-013-3097-z bdafa0442e7e850ec8b1ce62d4760fcd;de;;;3.2.;;;Modellierung von Sozialkapital in bürokratischer Hierarchie zur Analyse von Beförderungsentscheidungen Wir berichten über Forschungsergebnisse bei der Anwendung der Analyse sozialer Netzwerke, um einen datengesteuerten Computeransatz für Sozialwissenschaftler zu entwickeln, um investigative Untersuchungen zur Analyse bürokratischer Werbung durchzuführen. Wir betrachten Sozialkapital als primäre Determinanten von Beförderungsentscheidungen in bürokratischen Hierarchien und schlagen ein hybrides Multiplex-Social-Network-Modell zur Darstellung relationaler und struktureller Informationen zwischen Entitäten vor. Der Ansatz entwickelt eine quantifizierte Bewertung des Sozialkapitals und bietet eine objektive Bewertung von Beförderungsentscheidungen in der Früherkennung. Experimentelle Ergebnisse mit tatsächlichen Karrieredaten von Regierungsbeamten belegen die Wirksamkeit und den Nutzen der Sozialkapitalbewertung für bürokratische Beförderungsentscheidungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03260-3_19 17f9ae4cff7ec3690d716c34e3fb6843;de;;;3.2.;;;Verzögerungsbedingtes, überlebensfähiges Multicast-Routing-Problem in WDM-Netzwerken mit gemeinsam genutztem segmentbasiertem Schutz Für eine verzögerungsbeschränkte Multicast-Übertragungsanforderung besteht das Ziel des verzögerungsbeschränkten Survivable-Multicast-Routingproblems darin, den primären Multicast-Baum und den Baum bereitzustellen, der spärliche Ressourcen schützt. In diesem Artikel wird die Methode des gemeinsamen segmentbasierten Schutzes (SSBP) verwendet, um die verzögerungsbeschränkte Multicast-Übertragung zu schützen. Es werden zwei heuristische Verfahren vorgeschlagen, um den verzögerungsbeschränkten Primärbaum und die Backup-Segmente mit Verzögerungsbeschränkung zu finden. Experimente werden durchgeführt, um die Leistung der vorgeschlagenen Verfahren zu bewerten, und die zu bewertende Leistung umfasst das Wellenlängeneffizienzverhältnis (WER), das Blockierungsverhältnis (BR) und die Ausführungszeit. Simulationen zeigen, dass die SSBP-Methode bessere BR und WER erreichen kann als die vorherigen Ergebnisse, die Din und Jiang gezeigt haben (Comput Commun 35(10):1172–1184,;-;-;-;https://link.springer.com/article/10.1007/s11107-013-0417-z d6afdb83a1944c66bc0ec7024c539210;de;;;3.2.;;;Kompositionelle Markovasche Modellierung mit einer Prozessalgebra Wir stellen eine stochastische Prozessalgebra, PEPA, als übergeordnetes Modellierungsparadigma für zeitkontinuierliche Markovketten (CTMC) vor. Prozessalgebren sind mathematische Theorien, die nebenläufige Systeme durch ihre Algebra modellieren und eine Vorrichtung zum Nachdenken über die Struktur und das Verhalten des Modells bereitstellen. Neuere Erweiterungen dieser Algebren, die Zufallsvariablen mit Aktionen verknüpfen, machen die Modelle auch für die Markovasche Analyse zugänglich. Eine kompositorische Struktur ist der PEPA-Sprache inhärent. Neben den klaren Vorteilen, die dies für die Modellkonstruktion bietet, zeigen wir, wie diese Kompositionalität genutzt werden kann, um den Zustandsraum des CTMC zu reduzieren. Dies führt zu einer exakten Aggregation basierend auf der Klumpfähigkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-2241-6_12 b89e056a7bde053fb4faae0936dce337;de;;;3.2.;;;Kooperative Spieltheorie Dieses Kapitel bietet dem Leser eine kurze Einführung in die kooperative Spieltheorie, wobei die übliche Unterscheidung zwischen Spielen mit übertragbarem Nutzen (TU-Spiele) und Spielen mit nicht übertragbarem Nutzen (NTU-Spiele) getroffen wird. Wir beginnen mit der Definition eines mathematischen Rahmens zur Beschreibung kooperativer Entscheidungsfindungsprobleme im Allgemeinen. Abschnitt 2.2 zeigt dann, unter welchen Bedingungen ein solches Problem zu einem NTU-Spiel bzw. einem TU-Spiel führt. Anhand eines Beispiels versuchen wir zu erklären, wann der Nutzen übertragbar ist und wann nicht und welche Konsequenzen dies für die Beschreibung des Nutzens hat. Anschließend geben wir die formale Definition des übertragbaren Nutzens an. Abschnitt 2.3 gibt einen kurzen Überblick über TU-Spiele. Wir diskutieren Eigenschaften wie Superadditivität und Konvexität und definieren die Lösungskonzepte Kern, Shapley-Wert und Nukleolus. Darüber hinaus geben wir die wichtigsten Ergebnisse zu diesen Konzepten an. Der folgende Abschnitt zeigt dann, inwieweit sich diese Ergebnisse auf die Klasse der NTU-Spiele übertragen lassen. Beachten Sie jedoch, dass beide Erhebungen noch lange nicht abgeschlossen sind. Sie liefern nur die Konzepte, die zum Verständnis des Rests dieser Monographie notwendig sind. Das Kapitel endet mit einer Zusammenfassung von Glücksspielen, bei denen die Vorteile der Kooperation stochastische Variablen sind. Diese Zusammenfassung basiert auf Chames und Granot (1973), (1976), (1977) und Granot (1977) und gibt die Definitionen des sogenannten vorherigen Kerns, des vorherigen Shapley-Wertes, des vorherigen Nukleolus und des zweistufigen Nukleolus . Außerdem vergleichen wir diese Definitionen mit den entsprechenden Definitionen für TU-Spiele.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4637-5_2 769ad227953277afd1a1c41815bc8756;de;;;3.2.;;;Ein Modell der Unsicherheit für Beinahe-Duplikate in Document Reference Networks Wir führen ein Unsicherheitsmodell ein, bei dem Dokumente in einem Referenznetzwerk nicht eindeutig identifiziert werden und einige Links möglicherweise falsch sind. Es verallgemeinert den probabilistischen Ansatz für Datenbanken auf Graphen und definiert Untergraphen mit einer Wahrscheinlichkeitsverteilung. Die Antwort auf eine relationale Abfrage ist eine Verteilung von Dokumenten, und wir untersuchen, wie die Rangfolge der wahrscheinlichsten Dokumente angenähert und die Qualität der Annäherung quantifiziert werden kann. Die Antwort auf eine Funktionsabfrage ist eine Verteilung von Werten und wir betrachten die Größe des Intervalls von Minimal- und Maximalwerten als Maß für die Genauigkeit der Antwort.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74851-9_40 24fb107125e4d853ba326abe205f4626;de;;;3.2.;;;Automatische Generierung numerischer Redundanzen für nichtlineare Randbedingungslösungen Sol In diesem Beitrag stellen wir einen Rahmen für die Zusammenarbeit von symbolischen und ausbreitungsbasierten numerischen Lösern über die reellen Zahlen vor. Diese Kooperation drückt sich in Fixpunkten von Schließungsoperatoren über ein vollständiges Gitter von Constraint-Systemen aus. In einem zweiten Teil instanziieren wir dieses Framework zu einem bestimmten Kooperationsschema, bei dem Propagation mit Beschneidungsoperatoren verbunden ist, die Intervallalgorithmen implementieren, die die möglichen Lösungen von Constraint-Systemen einschließen, während symbolische Methoden hauptsächlich dazu dienen, redundante Constraints zu erzeugen. Bei sorgfältiger Auswahl ist bekannt, dass das Hinzufügen einer redundanten Einschränkung die Leistung von Systemen basierend auf lokaler Konsistenz (z. B. Prolog IV oder Newton) drastisch verbessert. Wir schlagen hier eine Methode vor, die Sätze von redundanten Polynomen berechnet, die partielle Gröbner-Basen genannt werden, und zeigen anhand einiger Benchmarks die Vorteile solcher Berechnungen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1009943413814 3dc8ba5c45165e6762fec4929689a292;de;;;3.2.;;;Eine parallele Implementierung der RatSlam-C++-Bibliothek RatSlam ist ein bioinspirierter Simultaneous Location and Mapping (SLAM)-Algorithmus, der für Navigationsaufgaben autonomer mobiler Roboter verwendet wird. Diese Arbeit präsentiert eine RatSlam-Algorithmusimplementierung als C++-Bibliothek, die entwickelt wurde, um die Vorteile der internen Parallelisierung von RatSlam-Modulen zu nutzen. Der RatSlam-Algorithmus wird mit Hauptaspekten des Bibliotheksarchitekturdesigns vorgestellt. Darüber hinaus werden seine Ergebnisse unter Verwendung eines bekannten RatSlam-Datensatzes mit einer Standard-RatSlam-Implementierung (OpenRatSLAM - Robot Operating System) und einer Python-Implementierung verwendet. Die bei den vorherigen Ansätzen gefundenen Kartierungen und die in dieser Arbeit vorgeschlagenen waren ähnlich. Darüber hinaus wurden die Ausführungszeiten zwischen OpenRatSLAM und dieser C++-Bibliothek verglichen, wobei die vorgeschlagene Implementierung eine geringere Ausführungszeit hatte. Somit wurde die aktuelle Implementierung validiert und weist gegenüber früheren einige Vorteile auf, die für Echtzeitanwendungen sehr relevant sein können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36636-0_13 784e1050dc1ea959aba5a9bfe5d4575b;de;;;3.2.;;;Adaptive Steuerung des EV3-Roboters mit mobilen Geräten und Fuzzy-Logik Das Hauptziel dieses Artikels ist es zu zeigen, was möglich ist, mobile Geräte mit Überprüfung der Adaptivität zu verwenden. Wir konzentrierten uns auf die Entwicklung von Anwendungen für die Steuerung von Robotern Lego Mindstorms EV3 Verifikationsanpassung, die den Fuzzy-Ansatz verwendet. Wir haben klassische Fuzzy-Regeln vom Wenn-Dann-Typ verwendet. Die Vorgeschichte enthält die Messwerte von Infrarotsensoren und die Folge enthält die Aktionsantwort einzelner Motoren des Roboters. Mit dieser Anwendung wird es möglich sein, den Roboter über Wi-Fi zu steuern, während es die Möglichkeit gibt, den Robotermodus zu aktivieren, der sich durch das Labyrinth bewegt, ohne gegen einige der Wände zu stoßen. Integraler Bestandteil der Arbeit ist auch eine theoretische Grundlage für adaptive Robotersteuerung und Autonomie. Ein Teil dieses Artikels beschreibt die Erstellung von Anwendungen, ihren Vergleich mit anderen bestehenden Anwendungen und Experimente mit der resultierenden Anwendung. Die Anwendung funktionierte perfekt auf den erstellten experimentellen Umgebungen, einschließlich des adaptiven Modus.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1056-0_40 706cdecf8df947edc757467a2d4f6945;de;;;3.2.;;;Analyse der mobilen ATM-Pufferkapazität Dieses Papier erweitert eine stochastische Theorie zur Pufferfüllverteilung für mehrere „ein“- und „aus“-Quellen auf eine mobile Umgebung. Die Verteilung der Warteschlangenfüllung wird durch einen Satz von Differentialgleichungen beschrieben, unter der Annahme, dass Quellen asynchron zwischen exponentiell verteilten Perioden in den Zuständen „Ein“ und „Aus“ wechseln. Dieses Papier enthält die Wahrscheinlichkeiten, dass mobile Quellen Links zu einer bestimmten Warteschlange haben. Die Quellen repräsentieren mobile Benutzerknoten und die Warteschlange repräsentiert die Kapazität eines Switches. Dieses Papier stellt ein Analyseverfahren vor, das Mobilparameter wie Geschwindigkeit, Verbindungsraten pro Einheitsbereich, Zellenbereich und Verbindungsdauer verwendet und die Verteilung der Warteschlangenfüllung auf ATM-Zellenebene bestimmt. Die Analyseergebnisse werden mit Simulationsergebnissen verglichen.;-;-;-;https://link.springer.com/article/10.1007/BF01342733 0563007bf1462607dbed88fb1ed61b9b;de;;;3.2.;;;Erkennung von Blattläusen im Bild von Zitronenblättern mit Hilfe von Convolutional Neural Networks Ecuador ist für den Export hochwertiger pflanzlicher Produkte für Lebensmittel bekannt. Die Erkennung von Pflanzenblattkrankheiten ist eine wichtige Aufgabe zur Steigerung der Qualität der landwirtschaftlichen Produkte und sollte automatisiert werden, um eine inkonsistente und langsame Erkennung, die für die menschliche Inspektion typisch ist, zu vermeiden. In dieser Studie schlagen wir einen automatisierten Ansatz zum Nachweis von Blattläusen auf Zitronenblättern vor, indem wir neuronale Faltungsnetze (CNNs) verwenden. Wir haben es als binäres Klassifizierungsproblem an Bord genommen und es mit der VGG-16-Netzwerkarchitektur gelöst. Die Leistung des neuronalen Netzes wurde analysiert, indem ein fein abgestimmter Prozess durchgeführt wurde, bei dem vortrainierte Gewichte durch Auftauen in bestimmten Schichten aktualisiert werden. Wir haben den Feinabstimmungsprozess evaluiert und unseren Ansatz mit anderen Methoden des maschinellen Lernens unter Verwendung von Leistungsmetriken für Klassifizierungsprobleme bzw. der Receiver Operating Characteristic (ROC)-Analyse verglichen und die Überlegenheit unseres Ansatzes durch statistische Tests nachgewiesen. Die Berechnungsergebnisse sind ermutigend, da unser Ansatz gemäß den Leistungsmetriken durchschnittliche Raten zwischen 81 % und 97 % der korrekten Blattlauserkennung in einem Bilddatensatz von echten Zitronenblättern erreichen kann .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-59194-6_2 dd8d56d6019c6bc74c7ed595c3a85063;de;;;3.2.;;;Effizienz der Weiterübertragung in Sensornetzwerken Wir betrachten ein drahtloses Sensornetzwerk (WSN), das für die regelmäßige Erfassung von Daten von Sensoren gedacht ist. Der Verlust von Nachrichten ist erlaubt. Ein Protokoll mit erneuter Übertragung von Nachrichten wird vorgeschlagen, um den Verlust einzelner Sensormesswerte zu minimieren. Das Protokoll wurde auf einem Benchtop-WSN getestet, das mit Arduino Nano-Mikrocontroller-Boards und NRF24L01-Transceivern konstruiert wurde. Natürliche Experimente haben gezeigt, dass das vorgeschlagene Protokoll tatsächlich eine geringe Häufigkeit von verlorenen Nachrichten in den gesammelten Daten gewährleistet.;-;-;-;https://link.springer.com/article/10.1007/s10598-021-09508-z 2e309ce1f25b43e56a5383042b14793e;de;;;3.2.;;;Transaktionskosten bei der Durchführung von IT-Projekten am Beispiel der Schlesischen Karte der öffentlichen Dienste Die Transaktionskostentheorie erklärt die Existenz der Kosten des wirtschaftlichen Austauschs, die in der Kostenanalyse sehr oft nicht dargestellt werden. Transaktionskosten sind die Folge der Beziehungen zwischen Unternehmen und fallen sowohl vor als auch nach Vertragsunterzeichnung an. In der Praxis werden Transaktionskosten nicht identifiziert, obwohl eine angemessene Bewertung der Gesamtinvestitionskosten die Kenntnis der Höhe der Transaktionskosten erfordert. Ziel des Papiers ist es, die Höhe der Transaktionskosten bei der Durchführung des IT-Projekts am Beispiel der Schlesischen Karte für öffentliche Dienste in Polen (ŚKUP-Projekt) zu identifizieren und abzuschätzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49646-7_4 93ada9411aeff0ead5b9ad825a61768b;de;;;3.2.;;;Hin zu Crowdsourcing und Kooperation bei linguistischen Ressourcen Sprachliche Ressourcen können durch den Einsatz von Ansätzen wie Crowdsourcing und Gamification mit Daten gefüllt werden, wenn motivierte Personen beteiligt sind. Allerdings fehlt den aktuellen Crowdsourcing-Genre-Taxonomien das Konzept der Kooperation, das das Hauptelement moderner Videospiele ist und möglicherweise das Interesse der Annotatoren wecken kann. Diese Umfrage zu Crowdsourcing-Taxonomien und Kooperation bei linguistischen Ressourcen bietet Empfehlungen zum Einsatz von Kooperation in bestehenden Genres des Crowdsourcing und einen Beleg für die Effizienz der Kooperation am Beispiel einer populären russischen Sprachressource, die durch Crowdsourcing erstellt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25485-2_14 c20fcf941a67280effa87ca14c3cb270;de;;;3.2.;;;GIS-Netzwerkmodell in der Geoanalyse Geografische Informationssysteme (GIS) bieten sowohl Theorie als auch Methoden, die das Potenzial haben, die Entwicklung raumanalytischer Funktionen und verschiedener GIS-Datenmodelle zu erleichtern. In GIS gibt es mehrere Netzmodelle, wie z. B. Flussnetze, Versorgungsnetze und Verkehrs- oder Straßennetze. Unter diesen sind GIS-Straßennetzdatenmodelle wichtig für die Lösung von Problemen in städtischen Gebieten wie Verkehrsplanung, Einzelhandelsmarktanalyse, Erreichbarkeitsmessungen, Dienstzuweisung und mehr. Das Verständnis der Straßennetzmuster in städtischen Gebieten ist für Studien zur menschlichen Mobilität wichtig, da Menschen entlang der Straßennetze leben und sich bewegen. Ein Netzwerkdatenmodell ermöglicht es uns, tägliche Probleme zu lösen, wie den kürzesten Weg zwischen zwei Standorten zu finden, die nächstgelegenen Einrichtungen innerhalb einer bestimmten Entfernung zu suchen oder die Fahrzeiten abzuschätzen. Obwohl viele Netzwerkmodelle konzeptionell einfach sind, sind sie mathematisch komplex und erfordern Rechenressourcen, um das Problem zu modellieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-54000-7_12 f3ad3c321f918af5ec04ffd79c35bc68;de;;;3.2.;;;Gleitkommafilter für den Linienschnittalgorithmus Die Verwendung von Gleitkommaarithmetik in der geometrischen Berechnung stellt eine gewaltige Herausforderung für die Entwicklung und Implementierung geometrischer Algorithmen dar. Einerseits strebt man danach, robuste Algorithmen zu entwickeln, die genaue Ergebnisse liefern, andererseits versucht man, eine schnelle Ausführungszeit zu erreichen. Insbesondere für GIS-Anwendungen, bei denen häufig große Problemgrößen auftreten, sind Effizienzüberlegungen wichtig. In diesem Papier stellen wir einen Gleitkommafilter vor, der speziell für die wichtige Linienschnittoperation geschrieben wurde, robust ist, bestehende Allzweckfilter übertrifft und zu einer genauen Erkennung und Darstellung der Topologie aus den geometrischen Informationen führt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30231-5_7 445c3a4fce0739484db2ba77fb0de59c;de;;;3.2.;;;Multimodale Hochleistungsnetzwerke Netzwerke bilden oft den Kern der räumlichen Datenbanken vieler Benutzer. Netzwerke werden verwendet, um die schnelle Navigation und Analyse von linear verbundenen Daten, wie sie in Verkehrsnetzen vorkommen, zu unterstützen. Übliche Analysearten, die in solchen Netzwerken durchgeführt werden, umfassen den kürzesten Weg, den Handelsreisenden, die Zuordnung und die Entfernungsmatrixberechnung.;-;-;-;https://link.springer.com/chapter/10.1007/11535331_18 84fdb5f3bd6cae1c943db9ddc047a6e3;de;;;3.2.;;;Sensorverteilung zur Abdeckung in Sensornetzwerken In diesem Papier untersuchen wir die Auswirkungen von Sensorknotenverteilungen auf die Netzabdeckung. Wir zeigen zunächst die Auswirkungen auf die Netzabdeckung, indem wir unterschiedliche Sensorknotenverteilungen sowohl durch analytische als auch durch Simulationsstudien übernehmen. Dann wenden wir einen verteilungsfreien Ansatz zur Untersuchung der Netzabdeckung an, bei dem keine Annahme der Wahrscheinlichkeitsverteilung der Sensorknotenpositionen erforderlich ist. Der vorgeschlagene Ansatz hat zu guten Schätzungen der Netzabdeckung geführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29222-4_24 dbbbaae6d13bf87e7ac1eb9ca32da282;de;;;3.2.;;;Vertrauensbasiertes Routing im Ad-hoc-Netzwerk Ad-hoc-Netzwerk wird oft als infrastrukturloses, selbstorganisiertes oder spontanes Netzwerk bezeichnet. Die Ausführung und das Überleben eines Ad-hoc-Netzwerks hängt allein von der kooperativen und vertrauensvollen Natur seiner Knoten ab. Diese naive Abhängigkeit von Zwischenknoten macht das Ad-hoc-Netzwerk jedoch anfällig für passive und aktive Angriffe durch bösartige Knoten und verursacht schwere Schäden. Es wurde eine Reihe von Protokollen entwickelt, um Ad-hoc-Netzwerke unter Verwendung von kryptographischen Schemata zu sichern, aber alle beruhen auf dem Vorhandensein einer Vertrauensbehörde. Aufgrund der Mobilität von Knoten und Ressourcenbeschränkungen in drahtlosen Netzwerken ist ein interessantes Forschungsgebiet in MANET das Routing. Dieses Papier bietet verschiedene Vertrauensmodelle und vertrauensbasierte Routingprotokolle, um die Vertrauenswürdigkeit der Nachbarschaft zu verbessern. So hilft es bei der Auswahl der sichersten und vertrauenswürdigsten Route aus den verfügbaren Routen für die Datenübertragung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17604-3_46 1ac69e873990048ac96ef77f572e55d6;de;;;3.2.;;;Font-Generierung basierend auf bedingten generativen gegnerischen Netzen der kleinsten Quadrate Mit dem schnellen Wachstum multimedialer Informationen ist die Schriftbibliothek zu einem Teil des Arbeitslebens der Menschen geworden. Im Vergleich zur westlichen Alphabetsprache ist es aufgrund der großen Menge und komplexen Form schwierig, neue Schriftarten zu erstellen. Gegenwärtig verwenden die meisten Forschungen zur automatischen Generierung von Schriftarten traditionelle Verfahren, die eine große Anzahl von Regeln und Parametern erfordern, die von Experten festgelegt werden und die nicht weit verbreitet sind. In diesem Papier werden chinesische Schriftzeichen in Striche unterteilt und neue Schriftstriche generiert, indem die Stile zweier vorhandener Schriftstriche fusioniert und zu neuen Schriftarten zusammengesetzt werden. Dieser Ansatz kann die Effizienz der Font-Generierung effektiv verbessern, die Kosten für Designer senken und den Stil bestehender Fonts übernehmen. Beim Erlernen der Generierung neuer Schriftarten wurden die beliebten Deep-Learning-Bereiche Generative Adversarial Nets verwendet. Verglichen mit der traditionellen Methode kann es ohne eine gut gestaltete und komplexe Verlustfunktion höherwertige Schriftarten erzeugen.;-;-;-;https://link.springer.com/article/10.1007/s11042-017-5457-4 802358bb3f504bfa2b4c7a1d9548885e;de;;;3.2.;;;Formale Analyse des Nichtdeterminismus in Simulationsmodellen der Verilog Cell Library Cell Zellbibliotheken enthalten häufig ein Simulationsmodell in einer Systementwurfssprache wie Verilog. Diese Sprachen beinhalten normalerweise Nicht-Determinismus, was wiederum eine Herausforderung für ihre Validierung darstellt. Simulatoren lösen solche Probleme oft, indem sie bestimmte Regeln verwenden, um die Spezifikation deterministisch zu machen. Dies ist jedoch nicht durch das Verhalten der zu modellierenden Hardware gerechtfertigt. Daher kann die Simulation bestimmte Fehler möglicherweise nicht erkennen. In diesem Beitrag entwickeln wir eine Technik, um zu beweisen, ob Nichtdeterminismus das Verhalten des Simulationsmodells nicht beeinflusst oder ob es eine Situation gibt, in der das Simulationsmodell zu anderen Ergebnissen führen könnte. Um unsere Technik effizient zu gestalten, zeigen wir, dass die globale Eigenschaft gleichen Verhaltens für alle möglichen Auswertungen äquivalent dazu ist, nur eine bestimmte lokale Eigenschaft zu überprüfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04570-7_11 b3135bc7b46c05b67a043b335084ef4b;de;;;3.2.;;;Die Verwendung von Materialien Einer der wichtigsten Unterschiede zwischen modernen Forschungsbibliotheken und denen vor einem halben Jahrhundert ist vielleicht, dass die nützliche Verwertung der Sammlung genauso wichtig, wenn nicht sogar wichtiger ist als die Sammlung selbst. Jede Bibliothek, die ihre Aufgabe in der heutigen Gesellschaft und insbesondere im Bereich des Lernens wahrnimmt, hat das Ziel, nicht nur den Zugang zu ihren Büchern und Zeitschriften durch Kataloge zu ermöglichen, sondern auch Bücher und andere Materialien von den größten möglichen Leserkreis.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-6129-1_8 47fdcb6b4ee68dbd34cdf39e094927cb;de;;;3.2.;;;Ein Link-Vorhersage-Algorithmus basierend auf Ameisenkolonie-Optimierung Das Problem der Link-Vorhersage hat in letzter Zeit beträchtliche Aufmerksamkeit aus verschiedenen Bereichen wie Soziologie, Anthropologie, Informationswissenschaft und Informatik auf sich gezogen. In diesem Artikel schlagen wir einen Linkvorhersagealgorithmus vor, der auf der Optimierung von Ameisenkolonien basiert. Durch die Ausnutzung der Schwarmintelligenz setzt der Algorithmus künstliche Ameisen ein, um auf einem logischen Graphen zu reisen. Pheromon- und heuristische Informationen werden in den Kanten des logischen Graphen zugewiesen. Jede Ameise wählt ihren Weg entsprechend dem Wert des Pheromons und den heuristischen Informationen an den Rändern. Die Wege, die die Ameisen zurückgelegt haben, werden ausgewertet und die Pheromoninformationen an jeder Kante werden entsprechend der Qualität des gefundenen Weges aktualisiert. Das Pheromon an jeder Kante wird als Endbewertung der Ähnlichkeit zwischen den Knoten verwendet. Experimentelle Ergebnisse an einer Reihe von realen Netzwerken zeigen, dass der Algorithmus die Vorhersagegenauigkeit verbessert und gleichzeitig eine geringe Zeitkomplexität beibehält. Wir erweitern die Methode auch, um das Link-Prediction-Problem in Netzwerken mit Knotenattributen zu lösen, und die erweiterte Methode kann auch fehlende oder unvollständige Datenattribute erkennen. Unsere experimentellen Ergebnisse zeigen, dass es qualitativ hochwertigere Ergebnisse in den Netzwerken mit Knotenattributen als andere Algorithmen erzielen kann.;-;-;-;https://link.springer.com/article/10.1007/s10489-014-0558-5 fc76e68867711e8140971a3f2a57d863;de;;;3.2.;;;Geerdete symbolische Kommunikation zwischen heterogen kooperierenden Robotern In diesem Papier beschreiben wir die Implementierung eines heterogenen kooperativen Multi-Roboter-Systems, das mit dem Ziel entworfen wurde, eine geerdete symbolische Darstellung von unten nach oben zu entwickeln. Das System besteht aus zwei autonomen mobilen Robotern, die kooperativ reinigen. Experimente demonstrieren erfolgreiche zielgerichtete Navigation, Kartenerstellung und die symbolische Kommunikation von Orten in einem verhaltensbasierten System. Wir untersuchen auch die wahrgenommenen Mängel des Systems im Detail und versuchen, sie im Hinblick auf das zeitgenössische Wissen über menschliche Repräsentation und symbolische Kommunikation zu verstehen. Aus diesem Verständnis heraus schlagen wir die Adaptive Symbol Grounding Hypothese als Konzept vor, wie sich symbolische Systeme vorstellen können.;-;-;-;https://link.springer.com/article/10.1023/A%3A1008929609573 d2db7399406736780052631e8ef1d198;de;;;3.2.;;;Leistungsmodellierung und Bewertung von Java Message-Passing-Primitiven auf einem Cluster Der Einsatz von Java für die parallele Programmierung auf Clustern nach dem Message-Passing-Paradigma ist eine attraktive Wahl. In diesem Fall hängt die Gesamtleistung der Anwendung weitgehend von der Leistung der zugrunde liegenden Java-Bibliothek zur Nachrichtenweiterleitung ab. Dieses Papier bewertet, modelliert und vergleicht die Leistung von MPI-ähnlichen Punkt-zu-Punkt- und kollektiven Kommunikationsprimitiven aus ausgewählten Java-Nachrichtenweiterleitungsimplementierungen auf einem Cluster. Wir haben eine eigene Microbenchmark-Suite entwickelt, um den Message-Passing Communication Overhead zu charakterisieren und daraus analytische Latenzmodelle abzuleiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39924-7_9 f4006bfca76111a96a5986dc475b264b;de;;;3.2.;;;Hinzufügen von SOMLib-Funktionen zum Greenstone Digital Library System Viele konventionelle digitale Bibliothekssysteme bieten Zugriff auf ihre Bestände nur über eine Volltext- oder Metadatensuche oder durch Browsing-Zugriff über eine Hierarchie von Kategorien. Angesichts der zunehmenden Menge an verfügbaren digitalen Inhalten scheinen alternative Methoden für den Zugriff auf die Inhalte erforderlich. Das SOMLib-System, das auf der Verwendung von Self-Organizing Maps (SOMs) basiert, wurde verwendet, um Dokumente einer digitalen Bibliothek automatisch nach ihrem Inhalt zu organisieren. In diesem Beitrag stellen wir eine Integration dieses Systems in das beliebte Open-Source-Digitalbibliothekssystem Greenstone vor, das Suchen und exploratives Durchsuchen der thematisch geordneten Inhalte mithilfe der Karte kombiniert. Wir präsentieren das System auf einer Demosammlung bestehend aus den Abstracts von Papers und Postern der letzten 5 Jahre von den JCDL-, ECDL- und ICADL-Konferenzen.;-;-;-;https://link.springer.com/chapter/10.1007/11931584_54 bd2b598f42c65979a294f500799c0bdf;de;;;3.2.;;;Leistungsbewertung von MPI/MBCF mit den NAS Parallel Benchmarks MPI/MBCF ist eine leistungsstarke MPI-Bibliothek, die auf einen Cluster von Workstations abzielt, die über ein Standardnetzwerk verbunden sind. Es wird mit den speicherbasierten Kommunikationseinrichtungen (MBCF) implementiert, die Softwaremechanismen für Benutzer bereitstellen, um mit handelsüblicher Netzwerkhardware auf den Speicherbereich von Remote-Tasks zuzugreifen. MPI/MBCF verwendet;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48158-3_3 fc69ff8dbaf8d83acb74203b2bcca1f1;de;;;3.2.;;;Dynamische Aushandlung von Sicherheitsdiensten zur Gewährleistung der Sicherheit beim Informationsaustausch im Internet Der Begriff „Qualität des Sicherheitsdienstes“ wird erstmals von Cynthia Irvine vorgestellt [4]. Die ursprüngliche Definition lautet: „Quality of Security Service bezieht sich auf die Nutzung von Sicherheit als Dimension der Servicequalität und hat das Potenzial, Administratoren und Benutzern mehr Flexibilität und potenziell besseren Service zu bieten, ohne die Netzwerk- und Systemsicherheitsrichtlinien zu beeinträchtigen.“ Die ursprüngliche Definition konzentriert sich auf die Qualität des Sicherheitsdienstes aus Sicht von Systemadministratoren und Benutzern. Wir verfeinern und definieren den Begriff „Qualität des Sicherheitsdienstes“ in Bezug auf die Sicherheitsdienstaushandlung zwischen Sendern und Empfängern in einem Netzwerk, d.h. wir konzentrieren uns auf die Qualität von Sicherheitsdiensten im Netzwerk.;-;-;-;https://link.springer.com/chapter/10.1007/11427995_86 f81de656b834bedac7b018460f0ccfbe;de;;;3.2.;;;Metadatensynthese und Aktualisierungen von Sammlungen, die mit dem Open Archive Initiative Protocol for Metadata Harvesting gesammelt wurden Aufgaben sammeln Informationen in einem zentralen Repository. Wir untersuchten die Metadaten, die von 744179 Ernteaufgaben von 2120 Erntediensten in 529 Ernterunden über einen Zeitraum von zwei Jahren zurückgegeben wurden. Um dies zu erreichen, haben wir fast 1.500.000 Aufgaben initiiert, da ein erheblicher Teil der Harvesting-Dienste der Open Archive Initiative nie funktioniert hat oder ihre Arbeit eingestellt hat, während viele andere Dienste gelegentlich ausfallen. Wir haben die Synthese (Elemente und Ausführlichkeit der Werte) der gesammelten Metadaten und ihre Entwicklung im Laufe der Zeit untersucht. Wir haben festgestellt, dass die meisten Dienste fast alle Dublin Core-Elemente verwenden, aber es gibt Dienste mit minimalen Beschreibungen. Die meisten Dienste haben sehr minimale Updates und insgesamt verbessern sich die gesammelten Metadaten im Laufe der Zeit langsam, wobei sich „Beschreibung“ und „Beziehung“ am stärksten verbessern. Unsere Ergebnisse helfen uns, besser zu verstehen, wie und wann die Metadaten verbessert werden, und realistischere Erwartungen an die Qualität der Metadaten zu haben, wenn wir Harvesting- oder Informationssysteme entwickeln, die darauf angewiesen sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00066-0_2 3af366e9cdbb3431e529695d7256dd3a;de;;;3.2.;;;Design und Implementierung des IMS-IPMP-Systems in einer Konvergenz-Heimnetzwerkumgebung Die traditionelle Architektur der Inhaltsverteilung war ein festes Muster, da die Verteilungssubjekte – Inhaltsanbieter (CP), Inhaltsverteiler (CD) und Inhaltsverbraucher (CC) – die digitalen Inhalte in der Konvergenz-Heimnetzwerkumgebung erstellen, verteilen und konsumieren (CHE) wäre für jedes Fach ein flexibel änderbares Verteilungssystem erforderlich.;-;-;-;https://link.springer.com/chapter/10.1007/11599517_57 6f20184cb0bc23e75f6b5a9179f0ffb0;de;;;3.2.;;;Bedrohungen und Schwachstellen der Cyber-Sicherheit: Eine systematische Mapping-Studie Die Forschung im Bereich der Cybersicherheit hat enorm zugenommen, um Cyberanwendungen zu unterstützen und wichtige Sicherheitsbedrohungen zu vermeiden, denen diese Anwendungen ausgesetzt sind. Das Ziel dieser Studie ist es, die gängigen Cyber-Sicherheitslücken zu identifizieren und zu analysieren. Um dieses Ziel zu erreichen, wurde eine systematische Kartierungsstudie durchgeführt und insgesamt 78 Primärstudien identifiziert und analysiert. Nach einer detaillierten Analyse der ausgewählten Studien haben wir die wichtigen Sicherheitslücken und deren Auftretenshäufigkeit identifiziert. Die Daten wurden auch synthetisiert und analysiert, um den Ort der Veröffentlichung, das Land der Veröffentlichung, die wichtigsten zielgerichteten Infrastrukturen und Anwendungen darzustellen. Die Ergebnisse zeigen, dass die bisher genannten Sicherheitsansätze nur auf Sicherheit im Allgemeinen abzielen und die in diesen Studien angebotenen Lösungen mehr empirischer Validierung und realer Umsetzung bedürfen. Darüber hinaus zeigen unsere Ergebnisse, dass die meisten der ausgewählten Studien in diesem Review nur auf wenige gängige Sicherheitslücken wie Phishing, Denial-of-Service und Malware abzielten. In der zukünftigen Forschung besteht jedoch die Notwendigkeit, die wichtigsten Schwachstellen der Cybersicherheit, gezielte/geschädigte Anwendungen, Abwehrtechniken und Infrastrukturen zu identifizieren, damit Forscher und Praktiker einen besseren Einblick erhalten.;-;-;-;https://link.springer.com/article/10.1007/s13369-019-04319-2 2575b6f330a567be90e85e7647d35eef;de;;;3.2.;;;3-Disjunkte Pfade Fehlertolerante mehrstufige Verbindungsnetzwerke In diesem Papier haben wir das bestehende fehlertolerante Omega-Mehrstufen-Verbindungsnetzwerk (3-DON) mit 3 disjunkten Pfaden mit dem neu vorgeschlagenen fehlertoleranten 3-Disjoint-Gamma-Verbindungsnetzwerk (3-DGMIN) unter Verwendung des Konzepts der erreichbaren Sätze verglichen und Farbschema. Ein 3-Disjoint-Netzwerk kann gleichzeitig Pakete vom Quellknoten senden, um das Ankunftsverhältnis zu erhöhen oder maximal 2 Fehler im Netzwerk zu tolerieren, indem das Paket über einen anderen Pfad umgeleitet wird. Für die Färbung der Knoten haben wir Rot, Blau, Grün und Gelb verwendet. Das 3-DON ist in allen Leistungsparametern außer den Kosten besser als das bestehende Omega Multi-stage Interconnection Network (OMIN). Darüber hinaus ist das neue 3-DGMIN auch bei allen Leistungsparametern besser als das bestehende Gamma Multi-stage Interconnection Network (GIN). Weiterhin zeigen die experimentellen Ergebnisse, dass 3-DGMIN im Vergleich zum Durchsatz 3-DON übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22709-7_3 c30ea18f63d2917769a00913dd51eab6;de;;;3.2.;;;Eine verteilte Support-Vektor-Maschine mit schneller Konvergenz in kleinen, stark verbundenen Netzwerken In diesem Beitrag wird ein schnell konvergierender Distributed Support Vector Machine (FDSVM)-Algorithmus vorgeschlagen, der darauf abzielt, das Problem des verteilten SVM-Trainings effizient zu lösen. Anstatt Informationen nur zwischen unmittelbaren Nachbarstandorten auszutauschen, verwendet die vorgeschlagene FDSVM eine deterministische Kommunikationsrichtlinie, die auf Klatschprotokollen basiert, um die Verbreitung von Informationen im Netzwerk zu beschleunigen, wobei jede Site mit anderen in einer überflutenden und iterativen Weise kommuniziert. Diese Kommunikationspolitik reduziert die Gesamtzahl der Iterationen erheblich, wodurch die Konvergenz des Algorithmus weiter beschleunigt wird. Darüber hinaus wird bewiesen, dass der vorgeschlagene Algorithmus in endlichen Schritten über ein beliebiges stark verbundenes Netzwerk (SCN) zum globalen Optimum konvergiert. Experimente an verschiedenen Benchmark-Datensätzen zeigen, dass die vorgeschlagene FDSVM den entsprechenden State-of-the-Art-Ansatz für die meisten Netze, insbesondere im Ringnetz, hinsichtlich der gesamten Trainingszeit durchweg übertrifft.;-;-;-;https://link.springer.com/article/10.1007/s11460-011-0172-9 8d104ededd393dc8d97aae6f8c691b4d;de;;;3.2.;;;Intelligentes VoIP-System im Ad-hoc-Netzwerk mit eingebettetem Pseudo-SIP-Server Drahtlose Netzwerke und das Voice-over-Internet-Protokoll (VoIP) wurden in letzter Zeit weit verbreitet. VoIP-Dienste über ein Ad-hoc-Netzwerk können durch in mobile Geräte eingebettete Middleware ausgeführt werden. In dieser Studie haben wir ein intelligentes VoIP-System mit eingebettetem Pseudo Session Initiation Protocol (SIP)-Server in einem Ad-hoc-Netzwerk implementiert. Wir haben das Standard-SIP-Protokoll und die integrierte SIP-Präsenz verwendet, um die SIP-Signalisierung und den Benutzererkennungsmechanismus zu handhaben. Der eingebettete Pseudo-SIP-Server, der als Middleware zwischen Transport- und Anwendungsschicht fungiert, war mit gängigen VoIP-Benutzeragenten (UAs) unter Verwendung von SIP kompatibel. Unser Testbed zeigt eine akzeptable VoIP-Servicequalität (QoS) bei der Übertragungsverzögerung sowohl für Signalisierungs- als auch für Sprachpakete.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69295-9_51 42053ef57c72cb654cb3327bd50438ff;de;;;3.2.;;;LogGPO: Ein genaues Kommunikationsmodell zur Leistungsvorhersage von MPI-Programmen Message Passing Interface (MPI) ist der De-facto-Standard beim Schreiben paralleler wissenschaftlicher Anwendungen auf verteilten Speichersystemen. Die Leistungsvorhersage von MPI-Programmen auf aktuellen oder zukünftigen parallelen Systemen kann helfen, Systemengpässe zu finden oder Programme zu optimieren. Um die Leistung eines großen und komplexen MPI-Programms effektiv zu analysieren und vorherzusagen, ist ein effizientes und genaues Kommunikationsmodell dringend erforderlich. Es wurde eine Reihe von Kommunikationsmodellen vorgeschlagen, wie beispielsweise die LogP-Modellfamilie, die davon ausgeht, dass sich der Sende-Overhead, die Nachrichtenübertragung und der Empfangs-Overhead einer Kommunikation nicht überlappen und es einen maximalen Überlappungsgrad zwischen Berechnung und Kommunikation gibt. Diese Annahme gilt jedoch nicht immer für MPI-Programme, da entweder durch MPI-Implementierungen eingeführter Sende- oder Empfangs-Overhead eine mögliche Überlappung für große Nachrichten verringern kann. In diesem Beitrag stellen wir ein neues Kommunikationsmodell namens LogGPO vor, das die potenzielle Überschneidung zwischen der Berechnung und der Kommunikation von MPI-Programmen erfasst. Wir entwerfen und implementieren einen Trace-gesteuerten Simulator, um das LogGPO-Modell zu überprüfen, indem wir die Leistung der Punkt-zu-Punkt-Kommunikation und zweier realer Anwendungen CG und Sweep3D vorhersagen. Die durchschnittlichen Vorhersagefehler des LogGPO-Modells betragen für diese beiden Anwendungen 2,4% bzw. 2,0%, während die durchschnittlichen Vorhersagefehler des LogGP-Modells 38,3% bzw. 9,1% betragen.;-;-;-;https://link.springer.com/article/10.1007/s11432-009-0161-2 1f0624dbbe73b320bdebc240b89e272d;de;;;3.2.;;;Paralleles Training künstlicher neuronaler Netze mit Multithreaded- und Multicore-CPUs Dieser Artikel berichtet über Methoden zur Parallelisierung von Algorithmen künstlicher neuronaler Netze mit Multithread- und Multicore-CPUs, um den Trainingsprozess zu beschleunigen. Die entwickelten Algorithmen wurden in zwei gängigen parallelen Programmierparadigmen implementiert und ihre Leistung wird anhand von vier Datensätzen mit unterschiedlichen Mustermengen und mit unterschiedlichen neuronalen Netzarchitekturen bewertet. Alle Ergebnisse zeigen eine deutliche Steigerung der Rechengeschwindigkeit, die bei Problemen mit sehr großen Trainingsdatensätzen nahezu linear mit der Anzahl der Kerne abnimmt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20282-7_8 217cdb6af82014de16fe3e8418938d5d;de;;;3.2.;;;Community-Erkennung in gewichteten Netzwerken: Eine Variations-Bayes-Methode Massive Daten aus der realen Welt sind netzwerkstrukturiert, wie z. B. soziale Netzwerke, Beziehungen zwischen Proteinen und Stromnetz. Die Entdeckung der latenten Gemeinschaften ist eine nützliche Methode, um die Eigenschaften eines Netzwerks besser zu verstehen. In diesem Beitrag stellen wir eine schnelle, effektive und robuste Methode zur Community-Erkennung vor. Wir erweitern das Constrained Stochastic Block Model (conSBM) auf gewichtete Netzwerke und verwenden eine Bayessche Methode sowohl für die Parameterschätzung als auch für die Identifikation von Community-Nummern. Wir zeigen, wie unsere Methode die Gewichtungsinformationen innerhalb der gewichteten Netze nutzt, den Rechenaufwand für die Handhabung großer gewichteter Netze reduziert, die Schätzungssicherheit misst und die Gemeinschaftsnummer automatisch identifiziert. Wir entwickeln eine Variations-Bayes-Methode zur Inferenz- und Parameterschätzung. Wir demonstrieren unsere Methode an synthetischen Daten und drei realen Netzwerken. Die Ergebnisse verdeutlichen, dass unsere Methode effektiver, robuster und viel schneller ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05224-8_15 fa78779946a603154d130ff338e04e39;de;;;3.2.;;;Reduktionsbasierte formale Analyse von BGP-Instanzen Das heutige Internet-Interdomain-Routing-Protokoll, das Border Gateway Protocol (BGP), wird aufgrund von Richtlinien-Fehlkonfigurationen durch einzelne autonome Systeme (ASes) immer komplizierter und anfälliger. Diese Fehlkonfigurationen sind aufgrund des Zustandsexplosionsproblems oft schwierig, über eine kleine Anzahl von Knoten hinaus manuell zu diagnostizieren. Um die Diagnose potenzieller Anomalien zu unterstützen, haben Forscher verschiedene formale Modelle und Analysewerkzeuge entwickelt. Diese Techniken lassen sich jedoch nicht gut skalieren oder decken nicht alle Anomalien ab. Aktuelle Techniken verwenden stark vereinfachte BGP-Modelle, die entweder Anomalien innerhalb oder zwischen ASen erfassen, aber nicht die Interaktionen zwischen den beiden. Um diese Einschränkungen zu beheben, schlagen wir einen neuartigen Ansatz vor, der die Netzwerkgröße vor der Analyse reduziert und gleichzeitig wichtige BGP-Korrektheitseigenschaften beibehält. Mit Maude haben wir ein Toolkit entwickelt, das eine Netzwerkinstanz bestehend aus ASen und ihren Richtlinienkonfigurationen als Eingabe verwendet und dann eine formale Analyse der reduzierten Instanz für die Sicherheit (Protokollkonvergenz) durchführt. Unsere Ergebnisse zeigen, dass wir mit unserer reduktionsbasierten Analyse deutlich größere Netzwerkinstanzen bei geringem Reduktionsaufwand analysieren können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28756-5_20 8edbbec9a10dd24a2c487d72b550b596;de;;;3.2.;;;Selbstspezialisierender Mobilcode für adaptive Netzwerkdienste Dieses Papier stellt den Begriff des selbstspezialisierenden mobilen Codes vor, ein Programm, das über ein Netzwerk übertragen wird und sich automatisch an sein Ziel anpasst. Die Vorteile dieses Ansatzes, eine höhere Leistung ohne Kompromisse bei der Sicherheit, werden durch eine Kombination aus Programmspezialisierung und Programmverifizierung erreicht. Wir zeigen, wie selbstspezialisierender Mobilcode verwendet werden kann, um einen adaptiven Netzwerkdienst zu schaffen, d. h. einen Dienst, der an ein Ziel übertragen wird, wo er sich selbst in Bezug auf Eigenschaften anpasst, die er auf dem Zielknoten erkennt. Wir haben ein aktives Netzwerk namens FASTnet entworfen und implementiert, das schnell, anpassungsfähig, sicher und typisiert ist. FASTnet basiert auf dem aktiven Netzwerk PLANet, bietet jedoch adaptive Netzwerkdienste. Experimentelle Ergebnisse zeigen, dass adaptive Netzwerkdienste mehr als 4-mal schneller als normale Netzwerkdienste laufen können, ohne die Sicherheit des Netzwerks zu beeinträchtigen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-40057-5_8 e32e7e952d646a77291aab583a8db0bb;de;;;3.2.;;;Ein Videobibliothekssystem mit Szenenerkennung und automatischem Tagging Wir präsentieren ein neuartiges Video-Browsing- und Retrieval-System für bearbeitete Videos, basierend auf Szenenerkennung und automatischem Tagging. Im vorgeschlagenen System werden Datenbankvideos automatisch in sinnvolle und erzählende Teile (d.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-68130-6_5 ad1d96b906ccab61311816b32d4a9443;de;;;3.2.;;;Datenschutzerhaltender EM-Algorithmus für das Clustering in sozialen Netzwerken Wir betrachten das Clustering-Problem in einem privaten sozialen Netzwerk, in dem alle Knoten unabhängig und privat sind und jeder von ihnen außer sich selbst und seinen Nachbarn nichts über Knoten weiß. In letzter Zeit sind viele Clustering-Verfahren für Netzwerke vorgeschlagen worden. Einige dieser Arbeiten haben sich mit einem gemischten Netzwerk von assortativen und disassortativen Modellen beschäftigt. Diese Methoden basieren auf der Tatsache, dass die gesamte Struktur des Netzwerks beobachtbar ist. Entitäten in realen sozialen Netzwerken können jedoch privat sein und können daher nicht beobachtet werden. Wir schlagen einen datenschutzerhaltenden EM-Algorithmus zum Clustern in verteilten Netzwerken vor, der nicht nur die Mischung von assortativen und disassortativen Modellen behandelt, sondern auch die Privatsphäre jedes Knotens im Netzwerk schützt. In unserer Lösung wird jeder Knoten als unabhängige private Partei behandelt und das Problem wird zu einem becomes;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30217-6_45 219cfa2efd8e6329766d6793df7d9fab;de;;;3.2.;;;Protokollspezifikation mit P-Graphen, einer Technik basierend auf farbigen Petrinetzen P-Graphs kombinieren Inhibitor-Petrinetze und abstrakte Datentypen innerhalb desselben algebraischen Rahmens. Sie sind nützlich für die Spezifikation konkreter nebenläufiger Systeme und insbesondere von Kommunikationsprotokollen. Der Inhibitor wurde eingefügt, um kompakte Beschreibungen von Systemen zu ermöglichen, indem die Ökonomie von Datentypen gefördert wird. Sie sind auch für das Bereinigen von Ressourcen erforderlich, eine häufige Aktivität bei der Modellierung von Protokollen oder deren Diensten. In diesem Beitrag werden P-Graphs anhand einiger einfacher Beispiele vorgestellt. Es zeigt auch, wie P-Graphs auf P-Netze abgebildet werden, bei denen es sich um farbige Petrinetze (CP-Netze) handelt, die um Platzkapazitäten und Inhibitoren erweitert werden. Dies ist wichtig für die Analyse von P-Graph-Spezifikationen, da P-Netze in fast allen praktischen Situationen in CP-Netze umgewandelt werden können. Damit können dann die Analysetechniken von CP-Netzen angewendet werden. Nützliche Notationen für Kapazitäten werden eingeführt und deren Semantik anhand des P-Graphs definiert. Es wird auch eine Notation für das Löschen von Plätzen ihrer Token eingeführt, die die Überlagerung des Inhibitors und des normalen Lichtbogens beinhaltet. Zwei Fallstudien, das Demon-Spiel und der M-Access-Dienst des Cambridge Fast Ring, sind enthalten, um die Verwendung des P-Graph und der erweiterten Notation für die Protokollspezifikation zu veranschaulichen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-65307-4_51 5dec2c6c833633f3ba8bd2f8965b3532;de;;;3.2.;;;NativeProtector: Schutz von Android-Anwendungen durch Isolieren und Abfangen nativer Bibliotheken von Drittanbietern Immer mehr Android-Entwickler integrieren native Bibliotheken von Drittanbietern in ihre Anwendungen für die Wiederverwendung von Code, CPU-intensive Aufgaben und andere Zwecke. Allerdings können aktuelle Android-Sicherheitsmechanismen den nativen Code in Anwendungen nicht gut regulieren. Es wurden viele Ansätze vorgeschlagen, um die Sicherheit von Android-Anwendungen zu erzwingen, aber nur wenige davon beinhalten die Sicherheit der nativen Bibliotheken in Android-Anwendungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-33630-5_23 e8dc40166724b2e8c9a8d5d5c54b1168;de;;;3.2.;;;Umleitungsprotokoll für Footprint-Übergabe für Satellitennetzwerke mit niedriger Erdumlaufbahn Satellitennetze mit niedriger Erdumlaufbahn (LEO) werden ein integraler Bestandteil der Telekommunikationsinfrastrukturen der nächsten Generation sein. In einem LEO-Satellitennetzwerk bewegen sich Satelliten und ihre einzelnen Abdeckungsbereiche relativ zu einem festen Beobachter auf der Erde. Um sicherzustellen, dass laufende Gespräche nicht durch Satellitenbewegungen unterbrochen werden, sollten Gespräche auf neue Satelliten übertragen oder übergeben werden. Da zwei Satelliten an einer Satellitenübergabe beteiligt sind, sollte die Verbindungsroute modifiziert werden, um den neuen Satelliten in die Verbindungsroute einzubeziehen. Der Routenwechsel kann durch Ergänzung der bestehenden Route mit dem neuen Satelliten oder durch eine komplette Umleitung der Verbindung erfolgen. Die Routenerweiterung ist einfach zu implementieren, die resultierende Route ist jedoch nicht optimal. Eine vollständige Umleitung erzielt optimale Routen auf Kosten des Signalisierungs-Overheads. In diesem Papier stellen wir ein Übergabe-Umleitungsprotokoll vor, das die Optimalität der anfänglichen Route beibehält, ohne einen Routing-Algorithmus nach Übergaben zwischen Satelliten durchzuführen. Das FHRP verwendet die Fußabdrücke der Satelliten in der anfänglichen Route als Referenz für die Umleitung. Genauer gesagt stellt das FHRP, nachdem eine optimale Route während des Anrufaufbauprozesses bestimmt wurde, sicher, dass die neue Route aufgrund der Übergabe ebenfalls optimal ist. Das FHRP fordert einfache Verarbeitungs-, Signalisierungs- und Speicherkosten. Die Leistungsergebnisse zeigen, dass das FHRP im Hinblick auf die Wahrscheinlichkeit der Anrufblockierung ähnlich wie ein Netzwerk ohne Übergaben funktioniert.;-;-;-;https://link.springer.com/article/10.1023/A%3A1019127801155 33cc024f890f775bad5cd15b4768b327;de;;;3.2.;;;Forschung zum Einfluss verschiedener Netzwerktopologien auf die Cache-Performance für NDN Named Data Network (NDN) ist eine der vielversprechendsten zukünftigen Internet-Architekturen und ersetzt die „dünne Taille“ des TCP/IP-Sanduhrmodells durch die benannten Daten. Da alle Router im NDN-Netzwerk vorbeilaufende Inhalte zwischenspeichern können, können Benutzer Inhalte von Routern abrufen, die die Inhalte zwischenspeichern, ohne zum Remote-Server zu gehen. Daher reduziert NDN den Netzwerkverkehr erheblich und verbessert die Geschwindigkeit der Verteilung und des Abrufs von Inhalten. In dieser Studie konzentrieren wir uns auf die Auswirkungen der Netzwerktopologie auf die NDN-Cache-Leistung. Wir verwenden eine dynamische Popularitäts-basierte Cache-Berechtigungsstrategie für NDN, die als DPCP bezeichnet wird, berücksichtigen fünf verschiedene Netzwerktopologien und beobachten den Einfluss auf DPCP. Die Simulationsexperimente zeigen, dass die DPCP-Strategie die beste Cache-Performance in der Neun-Grid-Netzwerktopologie mit Einzelbenutzer und Einzelserver und der 16-Quadrat-Grid-Netzwerktopologie mit Einzelbenutzer und Einzelserver aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8086-4_34 166989472de4115d98483dfb5e782250;de;;;3.2.;;;jEQN eine Java-basierte Sprache für die verteilte Simulation von Warteschlangennetzwerken Die zunehmende Verbreitung großer Netzwerke macht die verteilte Simulation (DS) neben den traditionellen militärischen auch für akademische und geschäftliche Gemeinschaften zugänglich. Dies gibt Akademikern und Industrie den Vorteil, größere Ausführungsplattformen zu verwenden und lokal implementierte Simulationsmodelle als Bausteine ​​viel größerer Modelle wiederzuverwenden. Die Entwicklung eines verteilten Simulators erfordert jedoch das Erlernen der Verwendung eines bestimmten DS-Standards (wie HLA), was einen nicht zu vernachlässigenden Aufwand bedeutet. Dieses Papier befasst sich mit dem Problem der Definition einer Sprache, die gleichermaßen die Entwicklung lokaler oder verteilter Simulatoren unterstützen kann, wodurch die Verwendung des DS-Standards transparent wird. Der HLA-Standard wird behandelt, das Verfahren kann jedoch auf jeden anderen DS-Standard erweitert werden. Die Sprache (genannt jEQN) adressiert die Domäne des erweiterten Warteschlangennetzwerks (EQN) und enthält daher auch Primitive, um die Entwicklung von verteilten Warteschlangennetzwerksimulatoren zu erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/11902140_89 d242fe16f428c540e6cad4c995c7d330;de;;;3.2.;;;Einsatz intelligenter Browser zur Unterstützung einer flexiblen Informationspräsentation in Petrinetz-basierten digitalen Bibliotheken Für eine effektive Nutzung im wirklichen Leben müssen digitale Bibliotheken Ressourcen- und Systemrichtlinien einbeziehen und sich an Benutzerpräferenzen und Geräteeigenschaften anpassen. Das caT-Hypertextmodell (Context-Aware Trellis) integriert diese Richtlinien und Anpassungsbedingungen in die Petri-Netz-Spezifikation der digitalen Bibliothek, um die kontextbewusste Bereitstellung digitaler Dokumente in einer sich dynamisch verändernden Umgebung zu unterstützen. Dieses Papier beschreibt Erweiterungen der caT-Architektur zur Unterstützung der Anpassung über intelligentere Browser und einen externen Ressourcenspeicher, um eine größere Flexibilität bei der Informationspräsentation zu bieten. Browser fordern Ressourcen an, die sie mit ihrem Wissen über die intrinsischen Fähigkeiten und Einschränkungen, die ihnen durch die Geräte, auf denen sie ausgeführt werden, auferlegt werden, am besten anzeigen können. Der Datenspeicher gibt die am besten geeignete Version einer Ressource als Reaktion auf Browser-Anfragen zurück und ermöglicht es somit den Betreuern von Bibliotheken, Ressourcen hinzuzufügen, zu ändern und zu entfernen, ohne Änderungen an der Struktur, Präsentation oder Dokumentzeigern in der digitalen Bibliothek.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45747-X_24 cfe41710debb5b86df07d79bcd658e26;de;;;3.2.;;;Kombinatorische Synthese und Reaktivitätsscreening von Elektrooxidationskatalysatorgradienten Kombinatorische Methoden stellen eine attraktive experimentelle Methode zur Entdeckung heterogener Katalysatoren dar. Mit einer Kombination aus dichten Katalysatorbibliotheken und Hochdurchsatz-Reaktivitäts-Screening-Techniken kann man effizient Kandidatenmaterialien identifizieren oder große Bereiche des Zusammensetzungsraums beproben. Dies ist besonders attraktiv für die Entdeckung neuer Katalysatoren für Niedertemperatur-Brennstoffzellen, bei denen Mehrkomponentensysteme eine verbesserte Leistung gezeigt haben. Beispielsweise kann die Gifttoleranz typischer Anodenkatalysatoren durch Zugabe von oxophilen Komponenten wie Ruthenium, Molybdän, Zinn oder Osmium verbessert werden. Folglich muss ein riesiger Zusammensetzungsraum abgetastet werden, um Katalysatorzusammensetzungen oder Bereiche des Zusammensetzungsraums mit größerer Aktivität zu identifizieren. Kombinatorische Methoden stellen ein praktisches Mittel dar, um den Katalysatorentdeckungsprozess zu beschleunigen. In diesem Manuskript demonstrieren wir eine neue Methode zur Entdeckung kombinatorischer Katalysatoren, die auf der Synthese und Reaktivitätskartierung von Katalysatorzusammensetzungsgradienten basiert. Proben mit einheitlichen Variationen der Oberflächenzusammensetzung von Metallkatalysatoren (Pt-M;-;-;-;https://link.springer.com/article/10.1557/PROC-804-JJ8.11 35607866fcf81b383093efd1c7a6a520;de;;;3.2.;;;Nachahmung des Verfassens von Literaturüberprüfungen in der Humanliteratur: Ein Ansatz zur Zusammenfassung mehrerer Dokumente Dieser Artikel gibt einen Überblick über ein Projekt zur Erstellung von Literaturübersichten aus einer Reihe von Forschungsarbeiten, basierend auf Techniken, die aus dem menschlichen Zusammenfassungsverhalten stammen. Für diese Studie identifizieren wir die Schlüsselmerkmale von Naturliteraturreviews durch eine Diskursanalyse auf Makro- und Satzebene, wir identifizieren auch Strategien zur Auswahl menschlicher Informationen, indem wir referenzierte Informationen auf Quelldokumente abbilden. Unsere vorläufigen Ergebnisse der Diskursanalyse haben uns geholfen, den Schreibstil der Literaturrecherche anhand ihrer Dokumentenstruktur und rhetorischen Struktur zu charakterisieren. Diese Erkenntnisse werden genutzt, um Vorlagen für die automatische Inhaltsgenerierung zu entwerfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13654-2_14 5dfdfe10772b467baf7005a5c14ece69;de;;;3.2.;;;Lehren aus der Konzeption und Umsetzung von GARF GARF ist ein objektorientiertes System, das das Design und die Programmierung zuverlässiger verteilter Anwendungen auf einem Netzwerk von Workstations unterstützt. Die Besonderheit von GARF liegt in seinem inkrementellen Programmiermodell und seiner erweiterbaren Bibliothek mit generischen Komponenten. In diesem Beitrag geben wir zunächst einen Überblick über GARF. Dann bewerten wir seine Eigenschaften in Bezug auf sein Programmiermodell, seine Abstraktionsbibliothek und die Implementierung seines Prototyps. Abschließend präsentieren wir die Perspektiven der zukünftigen Gestaltung und Umsetzung.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-61487-7_31 9ebd6eeee45b6f120f0a6cf3f09dbca6;de;;;3.2.;;;Eine objektorientierte Bibliothek in JavaScript zum Aufbau modularer und flexibler plattformübergreifender evolutionärer Algorithmen In diesem Artikel wird jsEO vorgestellt, eine neue evolutionäre Berechnungsbibliothek, die in Webbrowsern ausgeführt wird, wie sie in Javascript geschrieben ist. Die Bibliothek ermöglicht die schnelle Entwicklung evolutionärer Algorithmen und erleichtert die Zusammenarbeit zwischen verschiedenen Clients durch auf einem Webserver gespeicherte Personen. In dieser Arbeit wurde jsEO gegen zwei einfache Probleme getestet, wie die Royal Road-Funktion und eine 128-Term-Gleichung, und analysiert, wie viele Maschinen und Auswertungen es liefert. Dieser Artikel versucht, die Ergebnisse älterer Artikel mit modernen Browsern und allen Arten von Geräten zu reproduzieren, die heutzutage JavaScript im Browser integriert haben, und ist eine vollständige Neufassung des Codes unter Verwendung der beliebten MooTools-Bibliothek. Die Ergebnisse zeigen, dass das System die Entwicklung evolutionärer Algorithmen erleichtert, die für verschiedene Chromosomendarstellungen und Probleme geeignet sind und die gleichzeitig in vielen verschiedenen Betriebssystemen und Webbrowsern ausgeführt werden können und die besten zuvor gefundenen Lösungen teilen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45523-4_69 5b8f00bbd9f36edcc7b600b0af780186;de;;;3.2.;;;Ein modifizierter Algorithmus für künstliche Bienenvölker für den Lastenausgleich bei Multicast auf Netzwerkcodierungsbasis Dieses Papier untersucht das Problem der Lastausgleichsoptimierung bei netzwerkcodierungsbasiertem Multicast und schlägt einen modifizierten künstlichen Bienenkoloniealgorithmus (MABC) vor, um dieses Problem zu lösen. MABC ist mit drei neuartigen Schemata ausgestattet, darunter ein Nahrungsquellen-Initialisierungsschema, ein neues Auswahlschema und ein Nachbarschaftssuchschema. Das erste Schema generiert eine Reihe hochwertiger Nahrungsquellenpositionen, um sicherzustellen, dass die Erkundung der Suche mit vielversprechenden Gebieten im Suchraum beginnt. Im zweiten Schema wird eine Nektarquellenbibliothek (NSL) verwendet, um einen Satz der besten Lösungen zu speichern, die während der iterativen Suche gefunden wurden. Jede Pfadfinderbiene produziert eine neue Nahrungsquelle basierend auf einer zufällig ausgewählten Nahrungsquelle von NSL. Dies hilft, Nahrungsquellen mit hohen Nektarmengen zu erzeugen. Das letzte Schema ist ein Nachbarschaftssuchschema, um die Bevölkerungsdiversität zu stärken und lokale Optima zu vermeiden, wobei ein Wahrscheinlichkeitsvektor beibehalten und verwendet wird, um eine feine lokale Ausnutzung durchzuführen. Experimentelle Ergebnisse zeigen, dass der vorgeschlagene MABC eine Reihe von hochmodernen evolutionären Algorithmen in Bezug auf die Qualität der erhaltenen Lösungen übertrifft.;-;-;-;https://link.springer.com/article/10.1007/s00500-018-3284-9 ddd79ce8a53daca93cbc7d2e65cf0b7a;de;;;3.2.;;;Eine Hochleistungs-Computing-Plattform basierend auf einem Fibre-Channel-Token-Routing-Switch-Netzwerk Ein hochkosteneffektives Fibre-Channel Token-Routing Switch-Netzwerk wurde für die Hochleistungs-Computing-Bereiche entworfen und entwickelt, und eine Low-Level-Kommunikationsbibliothek basierend auf unserem User-Level-Kommunikationsprotokoll FC-VIA wird an die gängigsten angehängt verwendet MPICH. So entsteht FC-VIA-MPI (ein neuer erweiterter MPICH) und die Versuchsergebnisse zeigen, dass der auf dem Fibre-Channel Token-Routing Switch-Network laufende FC-VIA-MPI eine bessere Performance erreicht hat als der auf dem SCI Netzwerk.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11618-6_12 98d5614f22ec401164c04f462ac92b72;de;;;3.2.;;;Zuverlässigkeitsbewusstes Mapping für verschiedene NoC-Topologien und Routing-Algorithmen unter Leistungseinschränkungen Die Flexibilität von Vielkernsystemen für umfangreiche Anwendungen wird durch Rekonfigurieren der Verbindungen zwischen Verarbeitungselementen (PEs) und der Funktion von PEs erreicht. Die Effizienz des Systems wird entscheidend durch die Mapping-Technik der Anwendungen bestimmt. In diesem Papier wird ein hochflexibler, zuverlässigkeitsbewusster Ansatz zur Anwendungsabbildung für Manycore-Network-on-Chip-(NoC)-Systeme vorgeschlagen. Zuerst wird ein Zuverlässigkeitskostenmodell (RCM) präsentiert, um die Zuverlässigkeitskosten für ein Abbildungsmuster zu messen. Dieses Modell verwendet die Binärzahl 0/1, um die Zuverlässigkeitskosten jedes Kommunikationspfads zu modellieren. Die Gesamtzuverlässigkeitskosten eines Abbildungsmusters werden bewertet, indem die Kosten jedes Pfads als diskrete Zufallsvariable genommen werden. Basierend auf RCM wird eine Abbildungsmethode verwendet, die als Reliability Cost Ratio Based Branch and Bound (RCRBB) bezeichnet wird. Mit diesem Verfahren wird die beste Abbildung unter allen möglichen Mustern effizient gefunden, indem diese nicht optimalen Kandidatenabbildungen in frühen Stadien verworfen werden. Der vorgeschlagene Application-Mapping-Ansatz mit Zuverlässigkeitsbewusstsein ist auf verschiedene NoC-Topologien und Routing-Algorithmen anwendbar, während andere moderne Ansätze zum gleichen Thema nur auf eine bestimmte Topologie und einen bestimmten Routing-Algorithmus beschränkt sind. Selbst für die gleiche NoC-Architektur zeigt der vorgeschlagene Ansatz in vielerlei Hinsicht eine deutliche Überlegenheit. Experimente zeigen, dass RCRBB im Durchschnitt eine Zuverlässigkeitsverbesserung von bis zu 9,07 % erreicht. Außerdem übertrifft es andere Ansätze in Bezug auf Durchsatz und Latenz mit einer relativ geringen Laufzeit.;-;-;-;https://link.springer.com/article/10.1007/s11432-014-5248-8 5b9777f7885ccd9b03faf19dadf14bae;de;;;3.2.;;;Transparente Anwendungsbeschleunigung durch intelligentes Scheduling von Shared-Library-Aufrufen auf heterogenen Systemen Eine transparente Anwendungsbeschleunigung in heterogenen Systemen kann durch das automatische Abfangen von Shared Libraries-Aufrufen und durch die effiziente Orchestrierung der Ausführung über alle Verarbeitungsgeräte hinweg durchgeführt werden. Um die verfügbare Rechenleistung voll auszuschöpfen, müssen die abgefangenen Anrufe durch schnellere beschleunigerbasierte Implementierungen ersetzt und intelligente Scheduling-Algorithmen integriert werden. Im Vergleich zu früheren Ansätzen fängt der hier vorgeschlagene Rahmen nicht nur die Bibliotheksaufrufe transparent ab und leitet sie um, sondern enthält auch hochmoderne Planungsalgorithmen sowohl für teilbare als auch für unteilbare Anwendungen. Im Vergleich mit hochoptimierten Implementierungen für Mehrkern-CPUs (z. B. MKL und FFTW) zeigen die erhaltenen experimentellen Ergebnisse, dass durch die Anwendung geeigneter leichter Scheduling- und Lastausgleichsmechanismen Leistungssteigerungen von bis zu 7,86 (Matrixmultiplikation) und 4,6 (FFT) erreicht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55224-3_65 3d3df9270ec7958a3f81e8156e7508f2;de;;;3.2.;;;Neuronale Netzwerkanalyse unter Verwendung von Self-Organizing Maps (SOMs), die auf die menschliche fossile Zahnmorphologie angewendet werden: Eine neue Methodik Jüngste Studien, die sich auf die Zahnmorphologie ausgestorbener und existierender menschlicher Populationen konzentrieren, haben auf globaler Ebene das beträchtliche Potenzial von Zahnmerkmalen als Werkzeug zum Verständnis der zwischen Populationen bestehenden phenetischen Beziehungen gezeigt. Das Ziel dieser Arbeit ist es, die dentalmorphologischen Beziehungen zwischen archaischen;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-5845-5_6 81d0b802bf4232cd8a97a5dfdbce389c;de;;;3.2.;;;Evolvierende Summen- und Composite-Kernel-Funktionen für Regularisierungsnetzwerke In diesem Beitrag schlagen wir einen neuartigen evolutionären Algorithmus für Regularisierungsnetzwerke vor. Der Hauptnachteil von Regularisierungsnetzwerken in praktischen Anwendungen ist das Vorhandensein von Metaparametern, einschließlich des Typs und der Parameter von Kernelfunktionen. Unser Lernalgorithmus bietet eine Lösung für dieses Problem, indem er einen Raum verschiedener Kernelfunktionen durchsucht, einschließlich Summen- und zusammengesetzter Kernel. Somit wird eine optimale Kombination von Kernelfunktionen mit Parametern für eine gegebene Aufgabe entwickelt, die durch Trainingsdaten spezifiziert ist. Vergleiche von zusammengesetzten Kerneln, einzelnen Kernen und traditionellen Gaussianern werden in mehreren Experimenten bereitgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-20282-7_19 f38ebe8aa5fb3a88c93b3c9e39874738;de;;;3.2.;;;Funktionale Konnektivität durch externe Reize in einem Netzwerk hierarchisch organisierter neuronaler Module Komplexe neuronale Module mit eingebetteter neuronaler Entwicklung und synaptischen Plastizitätsmerkmalen wurden zu einem hierarchischen rekurrenten Kreislauf verbunden. Virtuelle Elektroden wurden verwendet, um von jedem Modul ein „neuronales“ erzeugtes Signal aufzuzeichnen, das als Elektrochipogramm EChG bezeichnet wird. Die EChG werden durch Frequenzbereichsverfahren verarbeitet, um die Modifikationen der funktionalen Konnektivität durch Bewertung der quadratischen Phasenkopplung zu bestimmen. Das experimentelle Paradigma soll beschreiben, was vor, am Anfang, gegen Ende und nach der Wiederholung einer externen Eingabe mit fester Frequenz passiert ist. Die Ergebnisse werden durch Vergleich mit den gleichen Signalverarbeitungsmethoden diskutiert, die auf eine Humanstudie angewendet wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15819-3_18 a0f1bf15a3086d63a51c2c73bcf36734;de;;;3.2.;;;Algebra der Programmierung mit abhängigen Typen Die Theorie des abhängigen Typs ist reich genug, um auszudrücken, dass ein Programm eine relationale Eingabe/Ausgabe-Spezifikation erfüllt, aber es könnte schwierig sein, den Beweisterm zu konstruieren. Auf der anderen Seite wissen Squiggolisten sehr gut zu zeigen, dass eine Beziehung durch algebraische Überlegungen in eine andere eingeschlossen ist. Wir demonstrieren, wie funktionale und relationale Ableitungen in einer abhängig typisierten Programmiersprache kodiert werden. Ein Programm ist mit einer algebraischen Ableitung aus einer Spezifikation gekoppelt, deren Korrektheit durch das Typsystem garantiert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-70594-9_15 b40bc39ef9d2b4a8a8675c2730471d3f;de;;;3.2.;;;Neuartige Designkonzepte für Network Intrusion Systems basierend auf dendritischen Zellprozessen Es werden eine Abstraktion und eine Untersuchung zum Wert der Fähigkeit dendritischer Zellen (DCs), Antigene zu sammeln, zu verarbeiten und zu präsentieren, vorgestellt. Rechnerisch wird gezeigt, dass diese Fähigkeit einen Mechanismus zur Merkmalsreduzierung bereitstellt, der verwendet werden könnte, um die Komplexität eines Suchraums zu reduzieren, einen Mechanismus zur Entwicklung hochspezialisierter Detektorsätze sowie einen selektiven Mechanismus, der verwendet wird, um anzuweisen, dass Untergruppen von Detektoren aktiviert werden, wenn bestimmte Gefahrensignale vorhanden sind. Es wird gezeigt, dass DCs, die von unterschiedlichen Gefahrensignalen gespeist werden, eine Grundlage für verschiedene Anomalieerkennungspfade bieten. Basierend auf verschiedenen vorhandenen Gefahrensignalen werden verschiedene Antigen-Peptide entwickelt, und diese Peptide werden verschiedenen adaptiven Schichtdetektoren präsentiert, die dem gegebenen Gefahrensignal entsprechen. Anschließend werden Experimente durchgeführt, die aktuelle Ansätze, bei denen eine vollständige Antigenstruktur und das gesamte Repertoire an Detektoren verwendet werden, mit dem vorgeschlagenen Ansatz vergleichen. Experimentelle Ergebnisse zeigen, dass ein solcher Ansatz machbar ist und dazu beitragen kann, die Komplexität des Problems um ein erhebliches Maß zu reduzieren. Es verbessert auch die Effizienz des Systems, da nur eine Teilmenge von Detektoren während des Erkennungsprozesses beteiligt ist. Mehrere unterschiedliche Detektorsätze zu haben, erhöht die Robustheit des resultierenden Systems. Detektoren, die auf Peptidbasis entwickelt wurden, sind auch hochgradig diskriminierend, was die Falsch-Positiv-Raten reduziert und den Ansatz für eine Echtzeitumgebung durchführbar macht.;-;-;-;https://link.springer.com/article/10.1007/s11771-013-1722-5 ca933bfaa72c4b375ccfdc0abd4fafa2;de;;;3.2.;;;Vom Wanderdurchmesser einer Instanz komplexer Netzwerke – Internet Als Instanz komplexer Netzwerke ist das Internet ein heißes Thema sowohl für komplexe Netzwerke als auch für traditionelle Netzwerkforschungsbereiche. Der Internet Traveling Diameter (ITD) ist eine wichtige Eigenschaft, die in diesem Papier definiert wurde und den dynamischen Fluss der Internetleistung darstellt und hauptsächlich diskutiert wurde. Zuerst wurde das kurzfristige Prognosemodell der ITD untersucht, dann, nachdem bewiesen wurde, dass das kurzfristige Modell aufgrund der Komplexität des Internets nicht gut genug für langfristige Prognosen war, wurde das langfristige Modell untersucht. Sowohl das Kurzzeit- als auch das Langzeitmodell erhielten zuletzt ihre mathematischen Beschreibungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02466-5_7 d44c2620d95c6fe165063634709efd8e;de;;;3.2.;;;Vernetztes heterogenes Kamerasystem für hochauflösende Gesichtsbilder In diesem Beitrag wird ein System vorgestellt, das feste Stereokameras mit Weitwinkel (FOV) und hochauflösenden aktiven Schwenk-/Neigekameras (PT) zu einer vernetzten Plattform kombiniert. Entwickelt für Sicherheitsanwendungen, ist der Zweck, hochauflösende Gesichtsbilder zu liefern und gleichzeitig einen großen Bereich abzudecken. Eine kundenspezifische PT-Einheit, die ein festes Kameraprojektionszentrum ermöglicht, wurde entwickelt, um die hochauflösende Kamera zu halten. Zwei solcher Kameras wurden neben einer Stereokamera in einer realen Szene implementiert, um die Wirksamkeit des Systems zu testen. Vorläufige Ergebnisse belegen die Effizienz des vorgeschlagenen Systems.;-;-;-;https://link.springer.com/chapter/10.1007/11919629_10 f5f82f97e78fda0da008b2263b44eb9c;de;;;3.2.;;;Klassifizierungsanalyse von SAGE-Daten unter Verwendung des Maximum-Entropie-Modells SAGE-Daten können verwendet werden, um Klassifikationsmodelle zu erlernen, um die Krebsklassifizierung zu unterstützen. In diesem Papier werden Modelle maximaler Entropie für die SAGE-Datenklassifizierung erstellt, indem die bedingte Verteilung der Klassenvariablen anhand der Stichproben geschätzt wird. In Experimenten vergleichen wir Genauigkeit und Präzision mit SVMs (einem der effektivsten Klassifikatoren bei der Durchführung einer genauen Krebsdiagnose von;-;-;-;https://link.springer.com/chapter/10.1007/11540007_133 321b73cc9d24b2d7a4d6853285951514;de;;;3.2.;;;Verhaltensspezifikation für die Synthese Dieses Kapitel beschreibt einige Ergebnisse des Ascis-Projekts zu Verhaltensspezifikationssprachen und -modellen, die als Input für die Synthese auf hoher Ebene verwendet werden. Für die Eingabespezifikation wurden drei sehr unterschiedliche Sprachen untersucht: S;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-3242-2_2 176b2affd31a226e78d8879de13b318b;de;;;3.2.;;;Ein neues Schema basierend auf dem MI-Schema und seiner Analyse Dieser Artikel zielt darauf ab, ein neues Multivariate Quadratic (MQ) Public-Key-Schema zu entwerfen, um den Linearisierungsangriff und den Differentialangriff gegen das Matsumoto-Imai (MI)-Schema zu vermeiden. Basierend auf dem ursprünglichen Schema hat unser neues Schema, das als Multi-Layer-MI (MMI)-Schema bezeichnet wird, eine Struktur einer mehrschichtigen zentralen Karte. Dieser Artikel stellt zunächst das MI-Schema vor und beschreibt Linearisierungsangriffe und Differentialangriffe, schreibt dann die Bezeichnung von MMI im Detail vor und beweist, dass MMI sowohl Linearisierungsangriffen als auch Differentialangriffen widerstehen kann. Außerdem beweist dieser Artikel auch, dass MMI neueren Methoden der eXtended Linearization (XL) widerstehen kann. Am Ende kommt dieser Artikel zu dem Schluss, dass MMI auch die Effizienz von MI erhält.;-;-;-;https://link.springer.com/article/10.1007/s11767-013-2153-z aaf6b47f95b482d79898c82f5334b7b1;de;;;3.2.;;;Ein rollenbasierter Ansatz zur Selbstheilung in autonomen Überwachungssystemen Die Hauptintention dieses Papiers ist es, den Vorschlag eines neuen rollenbasierten Ansatzes für die Überwachung der Selbstheilung vorzustellen. Dem geht ein Überblick über bestehende Ansätze zur Überwachung verteilter Systeme mit Hilfe von Selbstheilungsfunktionen voraus. Ausgehend von einer Diskussion über autonome Überwachungssysteme kommen wir zu selbstheilenden Systemen. Diese Systeme sollten in der Lage sein, die in einem überwachten System auftretenden Probleme automatisch zu lösen. Der Beitrag gibt einen Einblick in verschiedene Aspekte von selbstheilenden Überwachungssystemen auf Software- und Hardwareebene. Eine detaillierte Beschreibung eines neuen agentenbasierten Systems, AgeMon, wird später behandelt. Das System basiert auf den Rollen, die von verschiedenen Agententypen gespielt werden. Die Selbstheilungseigenschaften können durch eine Form der Kooperation von Agenten, z.B. Überwachungsagenten, Regelagenten, Datenbankagenten. Das Papier diskutiert die Rollen und gibt einen Implementierungshintergrund.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14403-5_14 74ea4aea62d59960796d7d0e222bcd2a;de;;;3.2.;;;Digitale Inhalte und Kreativität Die Idee der Wissensgesellschaft ist es, Ideen, Kreativität und Interaktionen einen Mehrwert zu verleihen. Im neuen Szenario eines erweiterten Europas muss ein gemeinsames Verständnis gefördert werden, das den aus der kulturellen Vielfalt resultierenden Reichtum fördert, aber auch die unerwünschten Auswirkungen, die sich manchmal aus einer solchen Vielfalt ergeben können (z Vision der Europäischen Gesellschaft. Junge Menschen und ihre besondere Kreativität könnten in einem solchen Szenario eine wichtige Rolle spielen, insbesondere wenn sie durch digitale Technologien unterstützt werden. Eines unserer Ziele ist die Förderung der Kreativität durch die Maximierung des kulturellen und pädagogischen Potenzials neuer Technologien. Die digitale Technologie beeinflusst unser Leben in so vielen Bereichen, darunter Gesundheit, Sicherheit, Sicherheit, Arbeit und ähnliche Bereiche, insbesondere in den Bereichen kulturelle Interessen, Kreativität, Unterhaltung, Kommunikation und Beziehungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75276-9_4 51d374300a47de014fae6dde5a45eecf;de;;;3.2.;;;Proteininteraktionsnetzwerke: Zentralität, Modularität, Dynamik und Anwendungen In der postgenomischen Ära hat die Proteomik mit der Entwicklung von Hochdurchsatztechnologien bedeutende theoretische und praktische Fortschritte erzielt. Insbesondere die schnelle Akkumulation von Protein-Protein-Interaktionen (PPIs) bietet eine Grundlage für den Aufbau von Protein-Interaktionsnetzwerken (PINs), die eine neue Perspektive für das Verständnis zellulärer Organisationen, Prozesse und Funktionen auf Netzwerkebene eröffnen können. In diesem Beitrag präsentieren wir eine umfassende Umfrage zu drei Hauptmerkmalen von PINs: Zentralität, Modularität und Dynamik. 1) Verschiedene Zentralitätsmaße, die zur Berechnung der Bedeutung von Proteinen verwendet werden, werden basierend auf den strukturellen Eigenschaften von PINs oder basierend auf ihren integrierten biologischen Informationen zusammengefasst, 2) verschiedene Modularitätsdefinitionen und verschiedene Clustering-Algorithmen zur Vorhersage von Proteinkomplexen oder zur Identifizierung Funktionsmodule werden vorgestellt, 3) Die Dynamik von Proteinen, PPIs bzw. Subnetzwerken wird diskutiert. Abschließend werden die Hauptanwendungen von PINs bei den komplexen Erkrankungen besprochen und auch die Herausforderungen und zukünftigen Forschungsrichtungen diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s11704-020-8179-0 1484002b67835facfc06eff51c3916db;de;;;3.2.;;;Ein Hochleistungs-Computersystem für die medizinische Bildgebung im entfernten Operationssaal In diesem Beitrag wird ein neuartiges Clustersystem namens MI-Cluster vorgestellt, um ein Testbed für die Cluster-assistierte Chirurgie zu entwickeln. Unser System bietet einen Rahmen für die Nutzung von Hochleistungsrechenressourcen aus dem entfernten Operationssaal. Eine aktuelle Anwendung ist ein genauer Simulator für die Anpassung des Bewegungsbereichs (ROM) bei der totalen Hüftersatz-(THR)-Chirurgie. Um während der Operation eine qualitativ hochwertige Bildgebung durchzuführen, haben wir diesen rechenintensiven ROM-Simulator auf einem PC-Cluster mit 128 Prozessoren parallelisiert. Beschleunigungstechniken wie dynamischer Lastausgleich und Datenkomprimierung wurden in unser System integriert. Das System bietet auch einen Fernzugriffsdienst mit einer sicheren Ausführungsumgebung. Wir haben das System bei einer tatsächlichen THR-Operation am Universitätskrankenhaus Osaka angewendet und bestätigt, dass das MI-Cluster-System eine intraoperative ROM-Simulation ohne Beeinträchtigung der Simulationsgenauigkeit realisiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24596-4_18 ee0dcc58d4f49b0a76d26a6d9003fbbe;de;;;3.2.;;;Grundlagen einer mehrdimensionalen Abfragesprache für digitale Bibliotheken Es wird eine Abfragesprache für digitale Bibliotheken vorgestellt, die den Zugriff auf Dokumente nach Struktur und ausgeklügelter Verwendung von Metadaten ermöglicht. Die Sprache basiert auf einem mathematischen Modell digitaler Bibliotheksdokumente, das sich um eine mehrstufige Darstellung von Dokumenten als Versionen, Ansichten und Manifestationen dreht. Kern des Modells ist das Konzept der Dokumentansicht, die rekursiv ist und den Inhalt und die Struktur eines Dokuments erfasst. Die Metadatendarstellung unterscheidet zwischen Formaten und Spezifikationen, sodass verschiedene Metadatenformate auch für dasselbe Dokument berücksichtigt werden können. Eine Abfrage ist eine logische Formel, und ihr Ergebnis sind die digitalen Bibliotheksdokumente, die die Benutzerabfrage erfüllen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45747-X_19 393ca85f185a72c9bdfca8a396812ea9;de;;;3.2.;;;Auf drahtlosen Sensornetzwerken basierender Algorithmus zur Erkennung von Erbedeformationen Drahtlose Sensornetzwerke, die viele kleine, kostengünstige und energiesparende intelligente Sensorknoten umfassen, sind nützlicher, um die Verformung jedes kleinen Teils der Erbeobjekte zu erkennen. Die Verformung ist die direkte Ursache für den Einsturz des Kulturerbes. Es ist wichtig, die Verformung von Kulturgütern zu überwachen und frühzeitig zu warnen. In diesem Papier stellen wir eine effektive Erbedeformationserkennung mit drahtlosen Sensornetzwerken (EffeHDD) vor. In EffeHDD schlagen wir einen Mechanismus zur Erkennung von Erbe-Objektgrenzen vor. Sowohl die theoretische Analyse als auch die experimentellen Ergebnisse zeigen, dass unsere EffeHDD-Methode die bestehenden Methoden in Bezug auf Netzwerkverkehr und Präzision der Deformationserkennung übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46981-1_59 54656f78dce0867b7e850abd6c31e876;de;;;3.2.;;;Entwicklung einer Anwendungsplattform für mobile Roboter Die in diesem Beitrag spezifizierte experimentelle Plattform bietet eine vielversprechende Grundlage für das Training und Experimentieren im Rahmen der Entwicklung eines intelligenten und autonomen mobilen Roboters mit hohen Manövrier- und Manipulationseigenschaften. Das Hauptziel dieser Plattform sollte die Formulierung eines Lastenheftes für einen autonomen mobilen Roboter im klinischen Umfeld sein. Es umfasst leistungsstarke Systeme wie eine Roboterzelle, eine Simulations- und Offline-Programmierstation, ein Stereolithographiesystem, einen Neuronalen Netzsimulator, 2D- und 3D-Sensorsysteme und Telekommunikationssysteme. Während der durchgeführten Forschungsarbeiten wurden einige Systeme als ungeeignet für die vorgesehenen Aufgaben identifiziert, d. h. die 2D- und 3D-Sensorsysteme. Weitere Systeme wurden integriert, wie die Stereolithographieanlage zur schnellen Realisierung von Prototypenteilen für Roboter und die Integration des Fischertechnik Mobilroboters.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0110566 3b3cc76be8ee6dd9ef90d72e564db95b;de;;;3.2.;;;Die Grenze überschreiten Ein bekanntes Problem des klassischen Qualitative Spatial Reasoning, das auf Kompositionstabellen beruht, ist die strikte Trennung verschiedener räumlicher Aspekte. Wenn es sich beispielsweise um relative Richtungsbeziehungen handelt, können mereotopologische Beziehungen von Natur aus vorhanden sein, ohne direkt ausgedrückt zu werden. Wir diskutieren, wie mereotopologische Relationen in Constraint-Netzwerken über Dipol-Relationen entstehen können und wie diese Relationen über;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11215-2_21 caeb67b3b5b52fbc8c3247e710e522b3;de;;;3.2.;;;Aufbau eines domänenspezifischen Wissensgraphen für die Analyse von Geschäftsnetzwerken Das Aufkommen des Graphenlernens unterstützt die Untersuchung von Phänomenen, die am besten durch Wissensgraphen repräsentiert werden, unter Verwendung von Deep-Learning-Techniken. Deep Learning basiert jedoch hauptsächlich auf überwachtem Lernen, das Datensätze zum Trainieren und Testen erfordert. Dieses Papier stellt BusinessNet vor, einen domänenspezifischen Wissensgraphen zur Untersuchung des Phänomens der Unternehmensnetzwerke und bietet einen neuartigen Datensatz für die Graph-Lerngemeinschaft. BusinessNet wird aus unstrukturierten Nachrichtentextdaten erstellt, aus denen Entitäten wie Organisationen, Personen und Orte sowie die Beziehungen zwischen ihnen extrahiert werden, um das Diagramm zu erstellen. Der resultierende Graph ist ein heterogenes Netzwerk von Organisationen, Personen und Orten als Knoten, das verschiedene Typen von Beziehungen enthält. Die Analyse des resultierenden Datensatzes zeigt interessante Eigenschaften für die Auswertung von Graphenlernmodellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-73280-6_29 bb4c1606de446ac44a27f7d0cc98e636;de;;;3.2.;;;Dynamische Rekonfiguration von Grid-Aware-Anwendungen in ASSIST Aktuelle Grid-fähige Anwendungen werden auf Low-Level-Bibliotheken von Entwicklern implementiert, die Experten für Grid-Middleware-Architektur sind. Dieser Ansatz kann die zusätzliche Komplexität der QoS-Steuerung in realen Anwendungen kaum unterstützen. Wir diskutieren einen neuartigen Ansatz, der in der ASSIST-Programmierumgebung verwendet wird, um von Benutzern bereitgestellte QoS-Verträge auf transparente und effektive Weise zu implementieren/zu garantieren. Unser Ansatz basiert auf der Implementierung einer automatischen Laufzeitrekonfiguration von ASSIST-Anwendungsausführungen, die durch eine Nichtübereinstimmung zwischen dem vom Benutzer bereitgestellten QoS-Vertrag und den tatsächlich erreichten Leistungswerten ausgelöst wird.;-;-;-;https://link.springer.com/chapter/10.1007/11549468_84 21f7895c3705237ae77c82a0686f6f60;de;;;3.2.;;;Ein Planungsmodell für abhängige Aufgaben in Grid Beim Grid-Computing wird eine Anwendung in eine Reihe von abhängigen Aufgaben zerlegt. In der Grid-Umgebung, in der Ressourcen unterschiedliche Fähigkeiten aufweisen und Ressourcen weltweit miteinander verbunden sind, wirkt sich die Abhängigkeit zwischen den Aufgaben stark auf die Planungsstrategie aus. In diesem Papier wird ein Task-Ressourcen-Zuweisungsdiagramm (T-RAG) verwendet, um einen potenziellen Ressourcenzuweisungsplan darzustellen. Und es wird ein Scheduling-Modell für abhängige Aufgaben basierend auf der Konstruktion des Best Task-Resource Assignment Graph (BT-RAG) vorgeschlagen, das das Scheduling-Problem abhängiger Aufgaben in ein Graph-Konstruktionsproblem abbildet. Der BT-RAG wird erhalten und ein solcher Graph ist der optimale Planungsplan, der den Ressourcenzuweisungsplan und die Ausführungsreihenfolge der Aufgaben bestimmt. Schließlich wird der Task-Scheduling-Algorithmus basierend auf dem vorgeschlagenen Scheduling-Modell implementiert. Im Vergleich zum HEFT-Algorithmus zeigt der vorgeschlagene Algorithmus eine bessere Leistung in der Situation einer großen Datenmenge, die zwischen Aufgaben transportiert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78849-2_16 1421706c7699bd0cde1a4f2c3759e33b;de;;;3.2.;;;Erkennung von Handschriftziffern mithilfe von Convolutional Neural Network, implementiert auf NVIDIAs Jetson Nano In diesem Beitrag wird eine effiziente Struktur zur Erkennung von Handschriftziffern basierend auf Convolutional Neural Network (CNN) mit RMSProp-Optimierungsalgorithmus und Adam-Optimierungsalgorithmus vorgestellt. Das Experiment wird auf der Jetson Nano-Plattform von NIVIDIA implementiert, wo wir die Leistung von CNN-Modellen mit zwei verschiedenen Optimierungsalgorithmen vergleichen. Experimentelle Ergebnisse zeigen, dass die Trainingsgenauigkeit des Modells mit dem Adam-Optimierungsalgorithmus besser ist als die des Modells mit dem RMSProp-Optimierungsalgorithmus. Die Trainingsgenauigkeit beträgt 98,25 %. Der Adam-Algorithmus hat eine schnelle Konvergenzgeschwindigkeit und einen RMSProp-Algorithmus.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9409-6_62 ad69ab2f9ce69e6a2eea56cfed2f9ca3;de;;;3.2.;;;Agententeams zur Lösung des ressourcenbeschränkten Projektplanungsproblems In diesem Kapitel wird die Idee des Asynchronen Teams (A-Team) erweitert und verwendet, um eines der harten kombinatorischen Optimierungsprobleme zu lösen. Die Team of A-Teams (TA-Teams) Architektur zur Lösung des Resource-Constrained Project Scheduling Problem (RCPSP) wird vorgeschlagen und experimentell validiert. Das RCPSP gehört zur Problemklasse Nichtdeterministisches Polynom, schwer (NP-schwer). Um dieses Problem zu lösen, wird ein Team von parallel kooperierenden A-Teams vorgeschlagen. Solche Begriffe bestehen aus asynchronen Agenten, die mit dem auf JADE basierenden A-Team (JABAT) Multiagentensystem implementiert sind. Java Agent Development Framework (JADE) ist ein beliebtes Framework für die Implementierung agentenbasierter Systeme. In den vorgeschlagenen TA-Teams wurden ein bis vier A-Teams und vier Arten von Optimierungsagenten implementiert und verwendet. Jeder Optimierungsagent repräsentiert einen Optimierungsalgorithmus. Die vorgeschlagenen Optimierungsalgorithmen basieren auf mehreren bekannten Metaheuristiken, wie einer einfachen lokalen Suche, Tabusuche und Pfadneuverknüpfung sowie dem Crossover und speziellen Heuristiken zur Lösung des RCPSP. Das Computerexperiment beinhaltete die Bewertung des vorgeschlagenen Ansatzes in Bezug auf die verschiedenen Parametereinstellungen, die die Arbeits- und Migrationsstrategien steuern, die im vorgeschlagenen TA-Teams-Ansatz verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-42017-7_16 1f09a37f9cb5a189c279492bcd7a911c;de;;;3.2.;;;Über die in Cubanit durch Erhitzen entwickelte Streifenbildung, ein Kriterium für Thermometamorphie Beim Experimentieren mit einem Mikroskop-Heiztisch wurde festgestellt, dass in Cubanit innerhalb bestimmter Temperaturgrenzen im Vakuum oder unter Argongasdruck eine Schlierenbildung entsteht. Dieses Merkmal blieb erhalten, als die Probe abgekühlt und nachpoliert wurde. Die durchgeführten Röntgenuntersuchungen deuten auf einen Strukturübergang in Cubanit bei der Bildung der Streifenbildung hin. Die Streifenbildung zeigt somit die Nähe des Übergangs an, während die Streifenbildung als solche eine Folge der Wärmeausdehnung ist. Auf die praktische und genetische Bedeutung des Phänomens wird hingewiesen.;-;-;-;https://link.springer.com/article/10.1007/BF00206621 53175d3b56aa5a016e00697d6a65b7cc;de;;;3.2.;;;Ein neuer neuronaler Netzansatz für das Problem des Handlungsreisenden Dieses Papier stellt eine Technik vor, die das Wang Recurrent Neural Network mit dem Winner Takes All-Prinzip verwendet, um das Travelling Salesman Problem (TSP) zu lösen. Wenn das Wang Neural Network Lösungen für das Zuweisungsproblem mit allen erfüllten Randbedingungen präsentiert, wird das Winner Takes All-Prinzip auf die Werte in den Entscheidungsvariablen des Neuronalen Netzes angewendet, mit der zusätzlichen Randbedingung, dass die neue Lösung eine mögliche Route für den TSP bilden muss. Die Ergebnisse dieser neuen Technik werden mit anderen Heuristiken mit Daten aus der TSPLIB (TSP Library) verglichen. Die lokale 2-Opt-Suchtechnik wird auf die endgültigen Lösungen der vorgeschlagenen Technik angewendet und zeigt eine erhebliche Verbesserung der Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/11759966_59 678dda6799dbc03ff5735ff9f73e9d76;de;;;3.2.;;;Das UDP-Kalkül: Rigorose Semantik für echtes Networking Netzwerkprogrammierung ist notorisch schwer zu verstehen: man muss sich mit einer Vielzahl von Protokollen (IP, ICMP, UDP, TCP etc.), Parallelität, Paketverlust, Hostausfall, Timeouts, der komplexen Socket-Schnittstelle zu den Protokollen und subtilen Portabilitätsprobleme. Darüber hinaus sind die Verhaltenseigenschaften von Betriebssystemen und dem Netzwerk nicht gut dokumentiert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45500-0_27 820ef271a6e2aede55b5d8475ee7ea02;de;;;3.2.;;;Multi-Modell-Z-Kompression für Hochgeschwindigkeits-Datenstreaming und drahtlose Sensornetzwerke mit geringem Stromverbrauch Drahtlose Sensornetzwerke (WSNs) haben erhebliche Einschränkungen in Bezug auf verfügbare Bandbreite und Energie. Die begrenzte Bandbreite in WSNs kann zu Verzögerungen bei der Nachrichtenübermittlung führen, was für Echtzeit-Erfassungsanwendungen, wie z. B. ein Gasleck, nicht geeignet ist. Darüber hinaus gibt es in solchen Anwendungen multimodale Sensoren, deren Werte wie Temperatur, Gaskonzentration, Standort und CO;-;-;-;https://link.springer.com/article/10.1007/s10619-019-07265-y e00b75853c3cca91070c2e8a97d60b0e;de;;;3.2.;;;Verwalten der Sicherheit bei verteilten Hochleistungsberechnungen Wir beschreiben eine Softwareinfrastruktur zur Unterstützung der Entwicklung von Anwendungen, die Hochgeschwindigkeitsnetzwerke verwenden, um geografisch verteilte Supercomputer, Datenbanken und wissenschaftliche Instrumente zu verbinden. Solche Anwendungen müssen möglicherweise über offene Netzwerke arbeiten und auf wertvolle Ressourcen zugreifen und können daher Mechanismen zum Sicherstellen der Integrität und Vertraulichkeit der Kommunikation und zum Authentifizieren sowohl von Benutzern als auch von Ressourcen erfordern. Sicherheitslösungen, die für traditionelle Client-Server-Anwendungen entwickelt wurden, bieten jedoch keine direkte Unterstützung für die unterschiedlichen Programmstrukturen, Programmierwerkzeuge und Leistungsanforderungen, die in diesen Anwendungen auftreten. Um diesen Anforderungen gerecht zu werden, entwickeln wir eine sicherheitserweiterte Version einer Kommunikationsbibliothek namens Nexus, die dann verwendet wird, um sichere Versionen verschiedener paralleler Bibliotheken und Sprachen bereitzustellen, einschließlich des beliebten Message Passing Interface. Diese Werkzeuge unterstützen die breite Palette von Prozesserstellungsmechanismen und Kommunikationsstrukturen, die im Hochleistungsrechnen verwendet werden. Sie bieten auch ein feines Maß an Kontrolle darüber, was, wo und wann Sicherheitsmechanismen angewendet werden. Insbesondere kann eine einzelne Anwendung sichere und unsichere Kommunikation mischen, sodass der Programmierer fein abgestimmte Kompromisse zwischen Sicherheit und Leistung eingehen kann. Wir präsentieren Leistungsergebnisse, die es uns ermöglichen, die Leistung unserer Infrastruktur zu quantifizieren.;-;-;-;https://link.springer.com/article/10.1023/A%3A1019021129146 1a24a3a2dfd4514cab655c9706ce463a;de;;;3.2.;;;Tumor-assoziierte Kohlenhydrat-Antigene, die die Malignität von Tumoren definieren: Grundlage für die Entwicklung von Anti-Krebs-Impfstoffen Tumore, die ein hohes Maß an bestimmten Typen von tumorassoziierten Kohlenhydrat-Antigenen (TACAs) exprimieren, zeigen eine größere Metastasierung und Progression als solche, die ein niedriges Maß an TACAs exprimieren, was sich in einer verringerten Überlebensrate der Patienten widerspiegelt. Gut dokumentierte Beispiele für solche TACAs sind: (i) H/Le;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-1267-7_24 cf0e0777f3c1f2889996baeb7b6d570f;de;;;3.2.;;;Entwicklung des elektronischen Zahlungsverkehrs in Polen am Beispiel des lokalen und regionalen Sammelverkehrs Die Entwicklung der Informationstechnologien und der Datenübertragung sowie deren zunehmende Verfügbarkeit führten zu einer immer häufigeren Implementierung von Fahrpreiserhebungssystemen, die elektronische Karten und Träger von Informationen über die Zahlung des Fahrpreises oder die Fahrberechtigung auf anderer Grundlage verwenden. In den letzten Jahren wurden in Polen viele Lösungen mit elektronischen Tickets implementiert. Ihr gemeinsames Merkmal ist meistens, dass die Karte – Fahrkarte nur für Dienstleistungen im Zusammenhang mit dem öffentlichen Stadtverkehr bestimmt ist, es nur wenige Lösungen gibt, die die Funktionalität der Karte – Fahrkarte um die Möglichkeit der Zahlung anderer kommunaler Dienstleistungen oder Fahrpreise erweitern im Regionalverkehr. Die Lösungen, die Zahlungen unter Verwendung elektronischer Karten implementieren, gehören zur allgemeinen Strategie der Verbreitung von bargeldlosen Transaktionen, in diesem Fall im öffentlichen Sektor. Das Papier stellt Fragen im Zusammenhang mit der Entwicklung von bargeldlosen Transaktionen und Abrechnungen und – im Hintergrund – den Umfang sowie institutionelle und organisatorische Lösungen vor, die Offenheit und Interoperabilität der implementierten Systeme ermöglichen sollen, die Kartenzahlungen für öffentliche Dienste ermöglichen .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-24577-5_35 cefdf0fe597211c280d228d701d69b0e;de;;;3.2.;;;Verwenden normalisierter RBF-Netzwerke, um Handgesten der Sprache zuzuordnen Glove-TalkII ist ein System, das Handgesten über eine adaptive Schnittstelle in Sprache übersetzt. Handgesten werden kontinuierlich auf 10 Steuerparameter eines Parallelformant-Sprachsynthesizers abgebildet. Das Mapping ermöglicht es der Hand, als künstlicher Stimmtrakt zu fungieren, der Sprache in Echtzeit erzeugt. Dies gibt einen unbegrenzten Wortschatz zusätzlich zur direkten Kontrolle von Grundfrequenz und Lautstärke. Derzeit verwendet die beste Version von Glove-TalkII mehrere Eingabegeräte (einschließlich eines Cyberglove, eines 3-Space-Trackers, einer Tastatur und eines Fußpedals), eines Parallelformant-Sprachsynthesizers und 3 neuronaler Netzwerke. Die Geste-zu-Sprache-Aufgabe wird in Vokal- und Konsonantenproduktion unterteilt, indem eine Mischung aus Expertenarchitektur verwendet wird, wobei das Gating-Netzwerk die Ausgaben eines Vokals und eines konsonanten neuronalen Netzwerks gewichtet. Das Gating-Netzwerk und das Konsonanten-Netzwerk werden mit Beispielen des Benutzers trainiert. Das Vokalnetzwerk implementiert eine feste, benutzerdefinierte Beziehung zwischen Handposition und Vokalklang und erfordert keine Trainingsbeispiele vom Benutzer. Lautstärke, Grundfrequenz und Stoppkonsonanten werden mit einer festen Zuordnung von den Eingabegeräten erzeugt. Ein Proband hat gelernt, mit Glove-TalkII verständlich zu sprechen. Er spricht langsam mit einer Sprachqualität, die einem Text-to-Speech-Synthesizer ähnelt, aber mit weitaus natürlicher klingenden Tonhöhenvariationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7908-1826-0_3 9162973010f2cc569a3c995dd5723600;de;;;3.2.;;;Parallel geclusterte Low-Rank-Approximation von Graphen und ihre Anwendung zur Link-Vorhersage Die Analyse sozialer Netzwerke hat sich zu einem wichtigen Forschungsgebiet entwickelt, das Auswirkungen auf verschiedene Anwendungen hat, von Suchmaschinen bis hin zu Produktempfehlungssystemen. Ein großes Problem bei der Implementierung von Analysealgorithmen für soziale Netzwerke ist die schiere Größe vieler sozialer Netzwerke, zum Beispiel hat der Facebook-Graphen mehr als 900 Millionen Vertices und selbst kleine Netzwerke können zig Millionen von Vertices haben. Eine Lösung für den Umgang mit diesen großen Graphen ist die Dimensionsreduktion unter Verwendung einer Spektral- oder SVD-Analyse der Nachbarschaftsmatrix des Netzwerks, aber diese globalen Techniken berücksichtigen nicht notwendigerweise lokale Strukturen oder Cluster des Netzwerks, die bei der Netzwerkanalyse kritisch sind. Ein vielversprechenderer Ansatz ist approach;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37658-0_6 196d1aedbb126dd8e6f384a6d6b65b63;de;;;3.2.;;;Robuste Wassergefährdungserkennung für autonome Offroad-Navigation Bestehende Wassergefährdungsdetektionsverfahren versagen in der Regel, wenn die Eigenschaften von Wasseroberflächen durch die Umgebung stark verändert werden, z. Dieses Papier schlägt einen neuartigen Algorithmus vor, um verschiedene Arten von Wasserhindernissen für die autonome Navigation robust zu erkennen. Unser Algorithmus kombiniert traditionelles maschinelles Lernen und Bildsegmentierung und verwendet als visuelle Sensoren ausschließlich Digitalkameras, die normalerweise erschwinglich sind. Aktives Lernen dient dem automatischen Umgang mit Problemen, die durch die Auswahl, Kennzeichnung und Klassifizierung einer großen Anzahl von Trainingssätzen entstehen. Mittels Verschiebung basierende Bildsegmentierung wird verwendet, um die endgültige Klassifizierung zu verfeinern. Unsere experimentellen Ergebnisse zeigen, dass unser neuer Algorithmus nicht nur „gewöhnliche“ Wasserhindernisse, die normalerweise die Merkmale hoher Helligkeit und geringer Textur aufweisen, sondern auch „spezielle“ Wasserhindernisse mit vielen Wellen oder geringer Helligkeit genau erkennen kann.;-;-;-;https://link.springer.com/article/10.1631/jzus.A0820198 0880828af7e2439d918841e87f797ddc;de;;;3.2.;;;Leistungsvergleich einiger Additionskettenmethoden basierend auf der Integer-Familie Eine verallgemeinerte Version eines Additionskettenproblems, bei dem man eine Kette finden muss, die gleichzeitig eine Folge auf ganzen Zahlen in aufsteigender Reihenfolge erfüllt, ist NP-vollständig. Es gibt keinen bekannten Algorithmus, der eine optimale Additionskette für eine gegebene Zahl mit irgendwelchen Garantien für ein vernünftiges Timing oder einen geringen Speicherverbrauch berechnen kann. Mehrere Methoden wurden eingeführt, um relativ kurze Ketten zu berechnen, und sie werden am meisten verwendet, um skalare Multiplikationsoperationen zu unterstützen, die auf begrenzte Rechenressourcen in der elliptischen Kurvenkryptographie zugeschnitten sind. In Wirklichkeit ist eine Methode nicht besser als die andere, außer in bestimmten Fällen und nur für bestimmte ganze Zahlen. In dieser Studie bewerten wir einige existierende Additionskettenmethoden gegeneinander auf ihre Wettbewerbsleistung, indem wir Ganzzahlen als Eingabe in verschiedene Gruppen kategorisieren. Dieses Ergebnis kann als Maßstab dafür verwendet werden, welches Verfahren in welcher erwarteten Bedingung geeignet ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1056-0_22 6a09f595253ce58fe58ea2fd929cb07b;de;;;3.2.;;;NLTOOLBOX: Eine Bibliothek zur Berechnung der Erreichbarkeit von nichtlinearen dynamischen Systemen Wir beschreiben NLTOOLBOX, eine Bibliothek von Datenstrukturen und Algorithmen zur Erreichbarkeitsberechnung nichtlinearer dynamischer Systeme. Es bietet den Benutzern eine einfache Möglichkeit, eigene Analyseverfahren zu „programmieren“ oder andere Probleme über die Überprüfung hinaus zu lösen. Wir veranschaulichen die Verwendung der Bibliothek für die Analyse eines biologischen Modells.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-02444-8_37 9e0b4c3a59fad5575faca2220c0b1515;de;;;3.2.;;;Formalisierungen von Fähigkeiten für BDI-Agenten In einer Vielzahl komplexer Anwendungen werden zunehmend gezielte Agentensysteme eingesetzt. Capabilities wurden kürzlich in einige dieser Systeme als Software-Engineering-Mechanismus eingeführt, um Modularität und Wiederverwendbarkeit zu unterstützen und gleichzeitig Argumentation auf Metaebene zu ermöglichen. Dieses Papier stellt mögliche Formalisierungen von Fähigkeiten im Rahmen von Überzeugungen, Zielen und Absichten vor und zeigt auf, wie Fähigkeiten das Denken der Agenten über ihre Absichten beeinflussen können. Wir definieren einen Stil des Agenten-Engagements, den wir als a . bezeichnen;-;-;-;https://link.springer.com/article/10.1007/s10458-004-4345-2 a3fb05c2a85494d900a4044a4ae85d42;de;;;3.2.;;;MR60/ERGIC-53, ein Mannose-spezifisches Shuttle-Intrazelluläres Membran-Lectin Von Monozyten abgeleitete Makrophagen exprimieren an ihrer Oberfläche ein Mannosid-spezifisches Membranlektin (Man-R), das sowohl mannosylierte Proteine ​​als auch Mannane effizient bindet und internalisiert (Übersichten siehe Stahl et al .), umgekehrt exprimieren Monozyten und ihre Vorläufer dieses Lektin nicht. In dem Wissen, dass sich der Großteil (80%) des Man-R innerhalb der Zellen befindet und seine Oberflächenexpression während der ersten Stunden der Differenzierung zu Makrophagen erfolgt, die aus einem intrazellulären Vorläuferproteinpool stammen (Lennartz et al. 1987), wir beschlossen, in zwei unreifen Zelllinien, den humanen promyelozytischen Zellen HL60 und den humanen promonozytären Zellen U937, nach dem Vorhandensein eines intrazellulären Vorläufers zu suchen, indem fluoreszierende Neoglykoproteine ​​verwendet wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-46410-5_2 8425528f557bf7773e5a342bbcd1b2ab;de;;;3.2.;;;Kettenreaktionssysteme basierend auf der Schleifendissoziation von DNA Im Bereich des DNA-Computing werden immer mehr Anstrengungen unternommen, molekulare Maschinen aus DNA zu konstruieren, die in vitro oder in vivo funktionieren. Zustände einiger dieser Maschinen werden durch ihre Konformationen repräsentiert, wie etwa Haarnadel- und Ausbuchtungsschleifen, und Zustandsübergänge werden durch Konformationsänderungen realisiert, in denen solche Schleifen geöffnet werden. Das ultimative Ziel dieser Studie ist es, nicht nur unabhängige molekulare Maschinen zu implementieren, sondern auch Netzwerke von interagierenden Maschinen, genannt;-;-;-;https://link.springer.com/chapter/10.1007/11753681_27 8dc2e22750ba4f7d5557256eff830827;de;;;3.2.;;;Ein zentralsymmetrisches Padding-Verfahren für die Bildfilterung Das Auffüllen der Grenze ist der erste Schritt bei der Bildfilterung. Wenn es nicht richtig gehandhabt wird, führt es oft zu schwerwiegenden Artefakten und Informationsverlust. In dieser Arbeit wird ein optimiertes Boundary-Padding-Verfahren vorgeschlagen, um dieses Problem zu lösen. Wir analysieren die Pixelwerte in der Nähe der Grenze, berechnen den Gradienten der Pixel und füllen das Eingabebild mit einem zentrumssymmetrischen Auffüllverfahren auf. Folglich werden die Details der Grenze bewahrt und die Anzahl von unerwartetem Rauschen wird so weit wie möglich unterdrückt. Wir zeigen, dass die zentrumssymmetrische Padding-Methode in einigen Computer-Vision-Anwendungen effektiver ist als die traditionellen Methoden zur Behandlung von Rändern.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-4154-9_15 509314364e8492a0ff87a8fb78f5bc80;de;;;3.2.;;;Eine semantikerhaltende Schauspielerübersetzung In diesem Beitrag stellen wir zwei Akteurssprachen und eine semantikerhaltende Übersetzung zwischen ihnen vor. Die Quelle der Übersetzung ist eine Hochsprache, die objektbasierte Programmierabstraktionen bereitstellt. Das Ziel ist eine einfache funktionale Sprache, erweitert um grundlegende Primitive für die Akteursberechnung. Die erhaltene Semantik ist die Interaktionssemantik von Akteursystemen – Mengen möglicher Interaktionen eines Systems mit seiner Umgebung. Der Beweis selbst ist von Interesse, da er eine Methodik auf der Grundlage des Akteurtheorie-Frameworks demonstriert, um über die Korrektheit von Transformationen und Übersetzungen von Akteurprogrammen und Sprachen und allgemeiner von nebenläufigen Objektsprachen nachzudenken.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-63165-8_193 8792b2807409533527185db56cb12d6e;de;;;3.2.;;;Ein System zur Vorhersage von Verbraucherinteressen aus Transaktionsverhalten im elektronischen Handel Die Vorhersage des Verbraucherinteresses verwendet normalerweise Transaktionsverhalten, um das Ziel und die interessierten Artikel des Verbrauchers vorherzusagen. Die richtige Vorhersage hängt stark von den vollständigen Informationen der Benutzerprofile ab. Das Vorhersagesystem kann eine falsche Vorhersage durchführen, wenn es nur die statischen, passiven, unvollständigen und veralteten Verbrauchertransaktionsinformationen verwendet, um die Vorhersage durchzuführen. Dieses Papier schlägt ein System zur Vorhersage des Verbraucherinteresses aus dem Transaktionsverhalten im elektronischen Handel vor. Das System enthält drei Module, nämlich Transaktionsanalysator, Transaktionsfallbibliothek und Planvorhersage. Der Transaktionsanalysator überwacht die Interaktionen des Konsumenten in den Anwendungssystemen. Die Transaktionsfallbibliothek speichert Instanzen von Verbrauchertransaktionsverhalten im elektronischen Handel. Der Planprädiktor integriert Induktions- und Entscheidungstheorien zur Vorhersage des Verbraucherinteresses.;-;-;-;https://link.springer.com/chapter/10.1007/11558590_35 76a34db8815a3a047b9330f84854c3d3;de;;;3.2.;;;Ein autonomes Routing-Framework für Sensornetzwerke Aktuelle Routing-Dienste für Sensornetze sind oft für spezielle Anwendungen und Netzbedingungen ausgelegt und haben daher Schwierigkeiten, sich an die Anwendungs- und Netzdynamik anzupassen. Dieses Papier schlägt einen autonomen Rahmen vor, um die Adaptivität von Routing-Diensten in Sensornetzwerken zu fördern. Die Kernidee dieses Frameworks besteht darin, einige Feature-Funktionen aufrechtzuerhalten, die von ursprünglich integrierten Routing-Diensten entkoppelt sind. Diese Trennung ermöglicht die Durchführung signifikanter Dienständerungen, indem nur diese Funktionen abgestimmt werden. Maßnahmen einschließlich Parametrierung werden ergriffen, um die Energie für die Änderung dieser Funktionen zu sparen. Darüber hinaus umfasst dieses Framework ein Überwachungsmodul zur Unterstützung einer richtlinienbasierten kollaborativen Anpassung. Dieses Papier zeigt ein Beispiel für einen autonomen Routing-Dienst, der diesem Framework entspricht.;-;-;-;https://link.springer.com/article/10.1007/s10586-006-7563-3 9fda0b8c73777a0dd478904b6b973f43;de;;;3.2.;;;NetSim — Ein Werkzeug zur Modellierung der Leistung von leitungsvermittelten Multicomputernetzwerken Die mathematische Analyse ist ein beliebter Ansatz zur Modellierung der Netzwerkleistung. Ein handhabbares analytisches Modell schränkt jedoch häufig den Bereich der Systemeigenschaften ein, die explizit berücksichtigt werden können. Simulation bietet einen alternativen Ansatz, wenn solche Einschränkungen nicht toleriert werden können. Dieses Papier beschreibt NetSim, ein vielseitiges Simulationswerkzeug zur Modellierung der Leistung von leitungsvermittelten Multicomputernetzwerken. NetSim ist hinsichtlich Netzwerktopologie, Kommunikationsmuster, Routingalgorithmus, Abbildungsstrategie und Netzwerkbetriebsannahmen programmierbar. Darüber hinaus macht es sein modulares Design dem Benutzer leicht, die Funktionalität von NetSim bei Bedarf zu erweitern. Das Tool bietet ein Mittel zur Untersuchung des Zusammenspiels von Anwendungs- und Architekturmerkmalen in einem parallelen System.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-58021-2_10 40b8d13fdf9932958e4e24b141c7aa32;de;;;3.2.;;;Ein neues opportunistisches Multicast-Routing-Protokoll für drahtlose Mesh-Netzwerke Opportunistisches Routing (OR) wurde vorgeschlagen, um die Effizienz von Unicast-Protokollen in drahtlosen Netzwerken zu verbessern. Im Gegensatz zum herkömmlichen Routing wird anstelle der Vorauswahl eines einzelnen spezifischen Knotens als Next-Hop-Forwarder ein geordneter Satz von Knoten (als Kandidaten bezeichnet) als Next-Hop-Potential-Forwarder ausgewählt. In diesem Artikel schlagen wir ein neues Multicast-Routing-Protokoll basierend auf OR für drahtlose Mesh-Netzwerke vor, genannt Multicast OR Protocol (MORP). Wir vergleichen unseren Vorschlag mit dem bekannten ODMRP Multicast Protokoll. Unsere Ergebnisse zeigen, dass Multicast-OR ODMRP übertrifft, die Anzahl der Übertragungen reduziert und die Paketzustellungsrate erhöht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23041-7_7 1ef6895ed1d1ef7a9f573b6712d879d0;de;;;3.2.;;;Load Balancing: Auf dem Weg zum unendlichen Netzwerk und darüber hinaus Wir präsentieren einen Beitrag zum dynamischen Lastausgleich für verteilte und parallele objektorientierte Anwendungen. Wir zielen speziell auf Peer-to-Peer-Systeme und deren Fähigkeit, parallele Berechnungen zu verteilen. Mit einem Algorithmus für den Lastausgleich von aktiven Objekten simulieren wir den Ausgleich einer parallelen Anwendung über eine Peer-to-Peer-Infrastruktur. Wir stimmen die Algorithmusparameter ab, um die beste Leistung zu erzielen, und kommen zu dem Schluss, dass unsere;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71035-6_9 fd9434fe052d845faa1f6d1f332417f8;de;;;3.2.;;;Entwurf heterogener Verkehrsnetze mit simulierten Annealing-Algorithmen Wir schlagen ein globales Designverfahren für heterogene Netzwerke vor, das die Definition ihrer Topologie, Routing-Verfahren, Zuweisung der Verbindungskapazität, Übertragungsmodus und Verkehrspolitik umfasst. Wir diskutieren das Netzwerkmodell, das die Kosten für die Verbindung mehrerer Knoten mit bekanntem Standort minimiert, das Verkehrsmodell, bei dem wir das Konzept der äquivalenten Bandbreite verwenden, und die Auflösungsalgorithmen, bei denen wir einen Simulated Annealing Algorithmus (SAA) mit ein kommerzieller Solver mit guten Ergebnissen. Die Ergebnisse zeigen, dass SAA über 10-mal schneller zur optimalen Lösung gelangt als der kommerzielle Solver. Experimente zeigen auch, dass der SAA für Netzwerke mit mehr als 50 Knoten immer noch gute praktikable Lösungen liefert, während der kommerzielle Solver keine Ergebnisse liefern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30582-8_54 315d571a135b252c4c32b2262c8dce8f;de;;;3.2.;;;Bioinspirierte kollaborative Controller für mehrstufige Systeme In diesem Kapitel werden drei bioinspirierte kollaborative Kontrollen für Mehrebenensysteme vorgeschlagen. Zunächst wird ein neuartiger bioinspirierter mehrschichtiger intelligenter kooperativer Controller (BMLICC) vorgeschlagen. Zweitens wird ein neuartiges Cytokin-Netzwerk-basiertes Strecknetzwerk (CNSN) vorgeschlagen, um die gewünschte Kontrollleistung in großen Produktionslinien zu erreichen. Schließlich wird eine neuartige immunbasierte selbstadaptive kollaborative Kontrollallokation (ICCA) für mehrstufige Dehnungsprozesse in großen industriellen Produktionslinien vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-6689-4_3 a93b098bbc7305d76f54fd2b584f276e;de;;;3.2.;;;DiKe - Ein modellbasierter Diagnosekernel und seine Anwendung Dieses Papier beschreibt das modellbasierte Diagnose-Framework von DiKe, das mehrere Diagnose-Engines, mehrere Systembeschreibungssprachen auf Benutzerebene, einen Theorembeweiser und eine grafische Benutzeroberfläche umfasst, um ein integriertes Toolset für die Entwicklung modellbasierter Diagnoseanwendungen bereitzustellen. Das Framework wurde zur Darstellung einer Reihe von Anwendungsdomänen verwendet. Wir stellen die AD2L-Sprache vor, die Hauptbenutzersprache des Systems, die auf die Verwendung durch Laien ausgerichtet ist, und diskutieren den Einsatz von DiKe in verschiedenen Domänen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45422-5_31 870f36c19ad9a203f57f08bfc784ad8d;de;;;3.2.;;;Decodieren von 1D-Barcodes aus degradierten Bildern mithilfe eines neuronalen Netzwerks Heute wissen wir, dass Milliarden von Produkten die 1-D-Barcodes tragen, und mit der zunehmenden Verfügbarkeit von Fotohandys sind viele Anwendungen möglich, die die sofortige Identifizierung des Barcodes nutzen. Die vorhandenen Open-Source-Bibliotheken zur Erkennung von 1D-Barcodes sind nicht in der Lage, die Codes von Bildern zu erkennen, die mit einfachen Geräten ohne Autofokus oder Makrofunktion aufgenommen wurden. In diesem Artikel stellen wir eine Verbesserung eines bestehenden Algorithmus zur Erkennung von 1D-Barcodes mit Kamerahandys mit und ohne Autofokus vor. Das auf dem Backpropagation-Algorithmus basierende mehrschichtige Feedforward-Neuralnetzwerk wird zur Bildwiederherstellung verwendet, um den ausgewählten Algorithmus zu verbessern. Die Leistungen des vorgeschlagenen Algorithmus wurden mit denen aus verfügbaren Open-Source-Bibliotheken verglichen. Die Ergebnisse zeigen, dass unsere Methode die Dekodierung von Barcodes aus Bildern ermöglicht, die von Mobiltelefonen ohne Autofokus aufgenommen wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25382-9_3 9be543b6f7fdca36862bf6ed88dec72e;de;;;3.2.;;;Gang-Scheduling-Strategie für die Anfragebearbeitung in Cluster-basierten Video-on-Demand-Systemen Die jüngsten Fortschritte und die Entwicklung von kostengünstigen Computern und Hochgeschwindigkeits-Netzwerktechnologie haben es der Video-on-Demand (VoD)-Anwendung ermöglicht, sich mit gemeinsam genutzten Computerservern zu verbinden und die traditionellen Computerumgebungen zu ersetzen, in denen jede Anwendung ihre eigene dedizierte Computerhardware hatte. Die VoD-Anwendung ermöglicht es dem Zuschauer, aus einer Liste von Videodateien seine Lieblingsvideodatei auszuwählen und sie nach Belieben anzusehen. Da VoD immer allgegenwärtiger wird, erwarten die Benutzer mehr Funktionen. Das übergeordnete Ziel eines VoD-Dienstanbieters besteht darin, eine bessere Dienstqualität (QoS) bereitzustellen. Es gibt viele Möglichkeiten, ein höheres QoS-Niveau zu erreichen. Eine solche Lösung besteht darin, den Zeitraum/die Zeit des Verhungerns von Clients durch die Verwendung einer effektiven Planungsstrategie zu vermeiden. In diesem Papier wird ein Rahmen zur Gruppenplanung für die Verarbeitung von Videoanfragen in Video-on-Demand-Systemen vorgeschlagen. Die Simulationsergebnisse zeigen, dass die Anzahl der abgelehnten Anfragen bei 8,5% liegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27443-5_6 cee5dc860e89f2542f5889341c7f1a2f;de;;;3.2.;;;Ein einfaches, intelligentes und erweiterbares Framework für die Messung der Netzwerksicherheit Es sind mehrere effiziente Tools entstanden, die darauf abzielen, die Sicherheit eines Computersystems oder eines internen Netzwerks zu überprüfen und zu messen. Mit der zunehmenden Komplexität von Netzwerkangriffen werden diese Tools immer komplizierter. Trotzdem können die meisten von ihnen nur eine einfache Snapshot-Analyse des aktuellen Systems durchführen und sind nicht in der Lage, mögliche Angriffe zu identifizieren, deren Voraussetzungen zu Beginn nicht erfüllt sind, aber im weiteren Verlauf des Angriffs möglich sein könnten. Dieses Papier schlägt einen neuen Rahmen für die Sicherheitsmessung vor, der komplexe Angriffssequenzen begeht und eine zustandsorientierte Inspektion der Zielumgebung durchführt. Das Framework besteht aus fünf Kernkomponenten: Information Gatherer, Knowledge Base, Interaction Agent, Evaluation Engine und User Interface. Basierend auf dem vorgeschlagenen Framework wird ein einfach zu bedienendes Tool namens SNAPP realisiert. Die Abhängigkeiten zwischen jedem Angriffsschritt in einer von SNAPP aufgedeckten Angriffssequenz können leicht mit Angriffsgraphen ausgedrückt werden, die bei der Sicherheitsbewertung der Testumgebung helfen. Mehrere Experimente, die einige bekannte Penetrationsangriffe mit SNAPP tatsächlich simulieren und durchführen, werden vorgestellt und analysiert, um aktuelle Sicherheitsmethoden zu vergleichen und zu messen, wie z -Stufen-Sicherheitskonzept „Physical Separation“.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79499-8_41 e7744a3d5538c8bda6641c9e363f0408;de;;;3.2.;;;Vorhersage ansprechender Inhalte zur Steigerung der organischen Reichweite auf Facebook In den letzten Jahren waren viele Menschen besorgt über den Rückgang der organischen Reichweite ihrer Facebook-Seiten. Dies war für viele Unternehmen ein Schmerz, insbesondere für kleine Unternehmen und Start-ups. Die organische Reichweite bezieht sich darauf, wie viele Personen Sie kostenlos auf Facebook erreichen können, indem Sie auf Ihrer Seite posten. Die zurückgegangene organische Reichweite ist auf einige wichtige Änderungen zurückzuführen, um die Auswahl von Inhalten im News Feed zu verbessern. Der News Feed soll ansprechender werden, auch wenn die Menge an Inhalten, die auf Facebook geteilt werden, weiter wächst. In diesem Artikel wird eine Technik vorgestellt, um die organische Reichweite von Facebook zu erhöhen. Die Methode untersucht einige vielversprechende Faktoren, um das Posten von ansprechenden Inhalten auf Unternehmensseiten vorherzusagen, sodass der Post im News Feed der Nutzer mit „Gefällt mir“-Angaben auf Facebook bekannt wird. Der vorgeschlagene Ansatz bietet Unternehmen die Alternative, die organische Reichweite ohne zusätzliche Kosten für Werbung auf Facebook-Seiten zu erhöhen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-4154-9_73 6f3e58fd932700c2e8a7ad2189467aea;de;;;3.2.;;;Einführung in soziale Netzwerke: Analyse und Fallstudien Soziale Netzwerke sind Plattformen, um Medien, Ideen, Nachrichten, Links oder jegliche Art von Inhalten zwischen Benutzern und ihren Nachbarn auszutauschen und so die Struktur und Dynamik der Gesellschaft perfekt abzubilden. Die jüngsten Fortschritte in den sozialen Medien und die zunehmende Nutzung von Social-Networking-Tools haben zu einem explosionsartigen Wachstum der über das Internet verfügbaren Informationen geführt und die Notwendigkeit geschaffen, die zugrunde liegende Struktur des Wissensflusses besser zu verstehen. Die Analyse sozialer Netzwerke konzentriert sich auf die Analyse der Beziehungen innerhalb und zwischen Benutzern/Gruppen, um die Interaktionen zu modellieren, und beinhaltet Annahmen darüber, wie das soziale Netzwerk am besten beschrieben und erklärt werden kann. Die Analyse sozialer Netzwerke und das Verständnis der Dynamik sozialer Netzwerke sind zu beliebten Forschungsthemen geworden und es wurden eine Vielzahl von Studien durchgeführt. Dieses Kapitel enthält Definitionen der grundlegenden Konzepte der Analyse sozialer Netzwerke und führt kurz in die im Buch behandelten Themen ein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-1797-2_1 c5d71895831da755086fdd3eff43cdd3;de;;;3.2.;;;Entschlüsselung der strukturellen Schlüsselwörter im Proteinstrukturuniversum Obwohl sich die Proteinsequenz-Struktur-Lücke aufgrund der Entwicklung von Hochdurchsatz-Sequenzierungswerkzeugen weiter vergrößert, ist das Proteinstruktur-Universum in der Regel ohne Proteine ​​mit neuartigen Strukturfalten, die kürzlich in der Proteindatenbank (PDB) hinterlegt wurden, vollständig. In dieser Arbeit identifizieren wir ein Proteinstrukturverzeichnis (Frag-K), das aus einer Reihe von Rückgratfragmenten mit 4 bis 20 Resten besteht, als strukturelle „Schlüsselwörter“, die effektiv zwischen wichtigen Proteinfaltungen unterscheiden können. Wir wenden zunächst randomisierte spektrale Clustering- und Random-Forest-Algorithmen an, um repräsentative und sensitive Proteinfragmentbibliotheken aus einem großen Maßstab hochwertiger, nicht-homologer Proteinstrukturen, die in PDB verfügbar sind, zu konstruieren. Wir analysieren die Auswirkungen von Clustering-Cut-offs auf die Leistung der Fragmentbibliotheken. Dann werden die Frag-K-Fragmente als Strukturmerkmale verwendet, um Proteinstrukturen in Hauptproteinfaltungen zu klassifizieren, die durch SCOP (Structural Classification of Proteins) definiert sind. Unsere Ergebnisse zeigen, dass ein strukturelles Wörterbuch mit ~400 4- bis 20-Reste-Frag-K-Fragmenten in der Lage ist, die wichtigsten SCOP-Falten mit hoher Genauigkeit zu klassifizieren.;-;-;-;https://link.springer.com/article/10.1007/s11390-019-1895-y 12c3beb41cf77a87a2ea760111c48a76;de;;;3.2.;;;Erweiterung der Techniken auf parallele Programme Das ESPRIT-Projekt ATES widmete sich hauptsächlich der Anwendung und Implementierung formaler Methoden zur sequentiellen Programmverifikation. Der Zweck dieses Kapitels besteht darin, die Möglichkeiten der Erweiterung auf die nebenläufige Programmierung zu untersuchen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-84542-0_7 d9977c59957ef661c750bd7db6bd8096;de;;;3.2.;;;Ein paralleler Algorithmus zur Bestimmung der Inversen einer Matrix zur Verwendung bei der Blockchiffrenverschlüsselung/-entschlüsselung In der heutigen Welt, in der wir leben, der schnell wachsenden Technologie und insbesondere der Abhängigkeit vom Internet für unser tägliches Leben (Banking, Shopping, Unterhaltung, Nachrichten) und auch mit aktuellen Verbrechen (Identitätsdiebstahl, Hacking, Spyware), Computersicherheit wird immer wichtiger. Mit „Computersicherheit“ beziehen wir uns oft auf drei wichtige Aspekte eines computerbezogenen Systems: Vertraulichkeit, Integrität und Verfügbarkeit. Die Verschlüsselung berücksichtigt eindeutig die Notwendigkeit der Vertraulichkeit von Daten, sowohl bei der Speicherung als auch bei der Übertragung. Die Verwendung von Verschlüsselung kann jedoch umständlich und zeitaufwendig sein. Es ist wichtig, einen schnellen Algorithmus zu haben, um Daten nach Bedarf sowohl zu verschlüsseln als auch zu entschlüsseln. Die Verschlüsselung mit öffentlichen Schlüsseln ist zwar sicher, aber definitiv nicht schnell genug, um für große Datenmengen verwendet zu werden.;-;-;-;https://link.springer.com/article/10.1007/s11227-007-0107-7 ddc6c31b3838b63efec34ed34fa2b51f;de;;;3.2.;;;Bewertung der Ausführungszeit von mathematischen Bibliotheksfunktionen basierend auf historischen Leistungsinformationen Der Beitrag stellt das Konzept eines Mechanismus zur Vorhersage der Ausführungszeit mathematischer Bibliotheksfunktionen vor. Die Technik basiert auf der Analyse historischer Informationen über die Leistung früherer Ausführungen. Die Hauptanwendung des vorgeschlagenen Mechanismus ist die Vorhersage der Ausführungszeit mathematischer Bibliotheksfunktionen in Grid-RPC-Systemen. Es kann auch in anderen heterogenen und verteilten Umgebungen verwendet werden, in denen einige Codeteile häufig ausgeführt werden und die Vorhersage der Ausführungszeit für eine hohe Rechenleistung und/oder einen Lastausgleich der Ressourcen entscheidend ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24669-5_21 2fbbf0e469ec8daff6de3608ad30fd65;de;;;3.2.;;;Alde: Datenschutz-Risikoanalyse von Analytics-Bibliotheken im Android-Ökosystem Während viele Anstrengungen unternommen wurden, um den Datenschutzverlust zu erkennen und zu messen, der durch die in mobilen Anwendungen (dh Apps) integrierten Werbebibliotheken (Anzeigen) verursacht wird, wurden Analysebibliotheken, die auch in mobilen Apps weit verbreitet sind, nicht systematisch auf ihren Datenschutz untersucht Risiken. Im Gegensatz zu Anzeigenbibliotheken besteht die Hauptfunktion von Analysebibliotheken darin, die In-App-Aktionen der Benutzer zu sammeln. Daher ist es konstruktionsbedingt wahrscheinlicher, dass Analysebibliotheken die privaten Informationen der Benutzer preisgeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-59608-2_36 eea8bad65f29348cd0af9efd13eb530f;de;;;3.2.;;;Über die Nutzung von BLAS-Bibliotheken in modernen wissenschaftlichen Codes in großem Maßstab Während wir uns der Exascale-Ära nähern, entwickeln Computerarchitekturen immer größere Vektor- und Matrixbeschleunigungseinheiten – NVIDIAs Ampere Tensor Cores, Intels AMX und Arms SVE-Vektorbefehlssatzentwicklungen sind nur drei aktuelle Beispiele [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63393-6_5 8635fc11dfa969ec8863783c21b0c26e;de;;;3.2.;;;Eine Mustersprache für parallele Anwendungsprogramme Ein Entwurfsmuster ist eine Beschreibung einer qualitativ hochwertigen Lösung für ein häufig auftretendes Problem in einem Bereich. Eine Mustersprache ist eine Sammlung von Entwurfsmustern, die sorgfältig organisiert sind, um eine Entwurfsmethodik zu verkörpern. Ein Designer wird durch die Mustersprache geführt und wählt bei jedem Schritt ein geeignetes Muster aus, bis das endgültige Design in Form eines Musternetzes erhalten wird. Dieses Papier beschreibt eine Mustersprache für parallele Anwendungsprogramme. Das Ziel unserer Mustersprache ist es, die Barriere für die parallele Programmierung zu senken, indem sie einen Programmierer durch den gesamten Entwicklungsprozess eines parallelen Programms führt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44520-X_93 5885eecb2ab3e43107b3bb10cef1d92b;de;;;3.2.;;;Die Formklassifizierung von Schneeflocken basierend auf dem neuronalen BP-Netzwerk Im Hinblick auf das Problem der Schneeflocke Form Klassifizierung in der Grundlagenforschung der Meteorologie, eine Art Schnee Blütenform Klassifikationsverfahren auf Basis von BP neuronale Netz wird in diesem Papier vorgeschlagen. Zuerst verarbeiten wir die Schneeflockenbilder vor und extrahieren die Kontureigenschaften der Schneeflocke, anhand der Kontureigenschaften der Schneeflocke können wir sechs morphologische Parameter wie Achsenverhältnis, Rechtwinkligkeit, Konvexitätsbereich, Konvexitätsumfang, Formparameter und Dichte erhalten die Schneeflocken, und werden die Parameter in drei Arten von Schneeflockeform Kategorien unterteilt werden, schließlich analysieren wir die nicht-lineare Beziehung zwischen den Formmerkmalen und Klassifikationsergebnissen, die BP-Klassierer mit neuralem Netzwerk zu entwerfen, die die Schneeflocke Bilder in 3 Typen unterteilen können. Experimente zeigen, dass die Erkennungsrate dieses Klassifikators 91,67 % erreichen kann, was eine zuverlässige Datenunterstützung für nachfolgende Forschungen zum Zusammenhang zwischen der physikalischen Struktur von Schneeflocken und dem künstlichen Eingriff bei Schneefall liefern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8086-4_22 ef26f0cb423935e864626556f5a600ff;de;;;3.2.;;;Design und Prototyp einer Performance-Tool-Schnittstelle für OpenMP Dieses Papier schlägt eine Performance-Tools-Schnittstelle für OpenMP vor, ähnlich der MPI-Profiling-Schnittstelle, um eine klare und portable API zu definieren, die OpenMP-Ausführungsereignisse für Laufzeit-Performance-Tools sichtbar macht. Wir präsentieren unser Design mit einem Instrumentierungsansatz auf Quellebene, der auf dem Umschreiben von OpenMP-Direktiven basiert. Regeln zum Instrumentieren jeder Direktive und ihrer Kombination werden angewendet, um Aufrufe an die Schnittstelle in Übereinstimmung mit Direktivensemantik zu erzeugen und Kontextinformationen (z. B. Quellcode-Orte) auf tragbare und effiziente Weise weiterzugeben. Unsere vorgeschlagene OpenMP-Performance-API ermöglicht es außerdem, Benutzerfunktionen und beliebige Codebereiche zu markieren und die Performance-Messung mithilfe neuer OpenMP-Direktiven zu steuern. Um die vorgeschlagene OpenMP-Performance-Schnittstelle zu prototypisieren, haben wir kompatible Performance-Bibliotheken für den automatischen Event-Trace-Analysator Expert [17, 18] und das TAU-Performance-Analyse-Framework [13] entwickelt. Die von uns definierten Direktiven-Instrumentierungstransformationen werden in einem Source-to-Source-Übersetzungstool namens OPARI implementiert. Sowohl für Expert als auch für TAU werden Anwendungsbeispiele vorgestellt, um die OpenMP-Leistungsschnittstelle und das OPARI-Instrumentierungstool im Betrieb zu zeigen. In Verbindung mit der MPI-Profiling-Schnittstelle (wie auch die Beispiele zeigen) bietet unser vorgeschlagener Ansatz eine tragbare und robuste Lösung für die Leistungsanalyse von OpenMP- und Mixed-Mode-Anwendungen (OpenMP+MPI).;-;-;-;https://link.springer.com/article/10.1023/A%3A1015741304337 a10c540ec9d787cacff32edee2344616;de;;;3.2.;;;Parallele Fernerkundungsbildverarbeitung: Am Beispiel der Bildklassifizierung Dieses Papier stellt eine Architektur paralleler Fernerkundungs-Bildverarbeitungssoftware vor, die Vorteile wie hohe Skalierbarkeit, Plattformunabhängigkeit, Sprachunabhängigkeit usw. bietet. Es hilft, High-Performance-Computing in diesem Bereich zu erreichen. MPI wird als das grundlegende Protokoll zur verteilten Nachrichtenweitergabe verwendet. Ein objektorientierter Wrapper, die Boost.MPI-Bibliothek, wird in der Software verwendet, um MPI zu manipulieren. In diesem Beitrag werden Open-Source-Bibliotheken wie GDAL und Open-CV untersucht, um detaillierte Bildverarbeitungsprogramme zu entwickeln und Klassifikationsalgorithmen zu implementieren. Eine Reihe von Experimenten wird durchgeführt, um die parallelen Klassifikationsprogramme zu testen. Die Ergebnisse zeigen, dass die Leistung in den meisten Fällen deutlich verbessert wird, insbesondere bei der multispektralen Fernerkundungsbildklassifizierung, bei der eine Höchstgeschwindigkeit von 3,92 erreicht wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34289-9_19 c32524e277bc2e30778c05b48bf4db14;de;;;3.2.;;;TEM-Beobachtungen von Versetzungsstrukturen in NiAl-Einkristallen nach Hochtemperaturkriechen Die Entwicklung von Versetzungsunterstrukturen, die in NiAl-Einkristallen durch Zugkriechtests bei Temperaturen zwischen 1123 K und 1473 K gebildet wurden, wurde untersucht. Signifikante Unterschiede in der Versetzungsstruktur sind in Proben ersichtlich, die in verschiedenen Orientierungen getestet wurden.;-;-;-;https://link.springer.com/article/10.1557/PROC-288-385 5317d9f39788c88f910b8928742eb987;de;;;3.2.;;;Netzwerk- und psychologische Effekte in der urbanen Bewegung In Raumsyntaxstudien werden regelmäßig Korrelationen zwischen graphenbasierten Konfigurationsmaßen von Straßennetzen, dargestellt als Linien, und beobachteten Bewegungsmustern gefunden. Dies deutet darauf hin, dass topologische und geometrische Komplexität entscheidend daran beteiligt sind, wie Menschen durch städtische Netze navigieren. Dies hat zu Schwierigkeiten bei der orthodoxen Stadtmodellierung geführt, da immer davon ausgegangen wurde, dass, sofern räumliche Faktoren bei der Navigation eine Rolle spielen, diese auf der Grundlage der metrischen Entfernung erfolgen wird. Trotz zahlreicher experimenteller Beweise aus der Kognitionswissenschaft, dass geometrische und topologische Faktoren an der Navigation beteiligt sind und dass metrische Entfernungen wahrscheinlich nicht das beste Kriterium für Navigationsentscheidungen sind, konnte die Angelegenheit nicht überzeugend gelöst werden, da es keine Methode zur Extraktion kognitiver Informationen gab aus aggregierten Strömen. Auch in der Literatur zur Raumsyntax ist unklar geblieben, inwieweit die gefundenen Korrelationen mit syntaktischen Variablen auf der Ebene der aggregierten Flüsse auf kognitive Faktoren zurückzuführen sind, die auf der Ebene einzelner Mover wirken, oder einfach mathematisch wahrscheinlich sind;-;-;-;https://link.springer.com/chapter/10.1007/11556114_30 6da06f8f563f956424391e47698a5ded;de;;;3.2.;;;CSTeller: Prognose der Nachhaltigkeit der wissenschaftlichen Zusammenarbeit basierend auf extremem Gradient Boosting Der Mechanismus, warum zwei fremde Gelehrte Mitarbeiter worden ist aus der Perspektive der sozialen Netzwerkanalyse ausführlich untersucht. In der Wissenschaft können zwei Wissenschaftler miteinander mehr zusammenarbeiten als einmal, was bedeutet, dass die wissenschaftliche Zusammenarbeit zu einem gewissen Grad nachhaltig ist. Allerdings weniger Forschung wurde die Nachhaltigkeit der wissenschaftlichen Zusammenarbeit zu erkunden getan. In dieser Arbeit untersuchen wir, inwieweit kann die Zusammenarbeit Nachhaltigkeit vorhergesagt werden. Zu diesem Zweck wird eine extreme Steigung Steigerung basierte Zusammenarbeit Nachhaltigkeit Vorhersagemodell namens CSTeller entwickelt wird. Wir schlagen vor, die Nachhaltigkeit der wissenschaftlichen Zusammenarbeit aus der Perspektive der Zusammenarbeit Dauer und Zusammenarbeit Zeiten zu analysieren. Wir untersuchen Faktoren, die Zusammenarbeit Nachhaltigkeit auf Basis von Gelehrten lokalen Eigenschaften und Netzwerkeigenschaften beeinflussen können. Diese Faktoren werden angenommen als Eingabe von CSTeller verfügt. Umfangreiche Versuche an zwei echten wissenschaftlichen Datensätze zeigen die Wirksamkeit unseres vorgeschlagenen Modells. Um das Beste aus unserem Wissen ist dies der erste Versuch der wissenschaftliche Zusammenarbeit Mechanismus aus der Perspektive der Nachhaltigkeit zu erkunden. Unsere Arbeit kann Licht auf die wissenschaftliche Zusammenarbeit Analyse vergießen und viele praktische Fragen wie Mitarbeiter Empfehlung profitieren, da eine wissenschaftliche Zusammenarbeit nicht ein Deal One-Shot ist.;-;-;-;https://link.springer.com/article/10.1007/s11280-019-00703-y 2e6240d7c21453f4c0a7eef02048b9d1;de;;;3.2.;;;Strukturelle Reflexion zur Ladezeit in Java Die Standard-Reflektions-API von Java bietet die Möglichkeit, ein Programm selbst zu untersuchen, aber das Programmverhalten nicht zu ändern. Dieses Whitepaper stellt eine Erweiterung der Reflection API vor, um diese Einschränkung zu beheben. Im Gegensatz zu anderen Erweiterungen, die Verhaltensreflexion ermöglichen, heißt unsere Erweiterung;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45102-1_16 58a0bcb48f8156c3163b646ccce4eb71;de;;;3.2.;;;Verbesserung des Durchsatzes des Remote-Speicherzugriffs durch Pipelining Datenintensive Anwendungen machen einen großen und zunehmenden Anteil am Grid-Computing aus. Es gibt jedoch relativ wenige Ergebnisse, wie die Effizienz der grundlegenden Datenübertragungsmechanismen verbessert werden kann, die verwendet werden, um große Datensätze in Grid-Knoten hinein und aus diesen heraus zu verschieben. In diesem Artikel beschreiben wir eine einfache und allgemeine Technik zur Verbesserung des Durchsatzes von Datenübertragungsprotokollen und demonstrieren sie auf dem SDSC Storage Resource Broker (SRB), einer Middleware für den Remote-Speicherzugriff für Supercomputeranwendungen. Mit einigen Änderungen am ursprünglichen SRB-Protokoll erreichen wir eine maximale Leistungssteigerung von 43 % / 52 % für Remote-Lese-/Schreibvorgänge von mehr als 1 MB. Das Protokoll wurde umstrukturiert, indem ein Pipelining-Konzept eingeführt wurde, das die Überlappung der verschiedenen Phasen der Datenverarbeitung wie Netzwerktransfer und Plattenzugriff ermöglicht. Wir präsentieren eine detaillierte Analyse der Pipeline-SRB-Implementierung und des Pipeline-Kostenmodells, das wir für unser Design verwendet haben.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36133-2_28 1092f73e5b80c96c6e1fe46fb65b76fe;de;;;3.2.;;;Leistungsanalyse standortbasierter Dienste mit TPEG&MBMS in 3G-Mobilfunknetzen Location Based Services (LBS) stellen Inhalte bereit, die dynamisch an den Standort des Benutzers angepasst werden. Diese Dienste werden üblicherweise auf Mobilgeräten bereitgestellt. In diesem Papier wurde eine neuartige LBS-Anwendung vorgeschlagen, die auf dem TPEG über Multimedia Broadcast und Multicast Service basiert, und erläuterte deren Implementierung unter Verwendung der Stream Delivery-Methode und der Download-Delivery-Methode. Für den Download-Dienst werden auch Ergebnisse von Leistungstests für das FLUTE-Protokoll (Dateizustellung unter unidirektionalem Transport) und FEC (Weiterleitungsfehlerkorrektur) präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25255-6_35 87e61b13e93e67d3867eb14e2c6e971b;de;;;3.2.;;;Ein integriertes System für eine verteilte Bioinformatik-Umgebung auf Netzen In diesem Beitrag wird ein integriertes System namens OBIEnv beschrieben, das auf OBIGrid entwickelt wurde. Neben der automatischen Datenbankübernahme und -bereitstellung bietet es verschiedene Funktionalitäten zur transparenten und fehlertoleranten Bearbeitung von bioinformatischen Aufgaben auf Grid. Eine Machbarkeitsstudie zur Analyse des horizontalen Gentransfers wurde mit 119 heterogenen Linux-Knoten an 5 verschiedenen Standorten durchgeführt, und OBIEnv bewies seine Anwendbarkeit auf praktische Probleme in der Bioinformatik.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-32251-1_2 7bc8aa2a8767cfa7e2f3d7d57346ce7c;de;;;3.2.;;;Neuronale Netzwerkimplementierung in Hardware mit FPGAs Die Verwendung des FPGA (Field Programmable Gate Array) für die Implementierung neuronaler Netze bietet Flexibilität in programmierbaren Systemen. Für den auf einem neuronalen Netzwerk basierenden Instrumentenprototyp in der Echtzeitanwendung leidet das herkömmliche spezifische neuronale VLSI-Chipdesign unter Zeit- und Kostenbeschränkungen. Mit dem Design eines künstlichen neuronalen Netzwerks mit geringer Präzision haben FPGAs eine höhere Geschwindigkeit und eine kleinere Größe für Echtzeitanwendungen als das VLSI-Design. Darüber hinaus hat sich ein auf FPGAs basierendes künstliches neuronales Netzwerk bei der Klassifizierungsanwendung ziemlich durchgesetzt. Die Programmierbarkeit rekonfigurierbarer FPGAs ermöglicht die Verfügbarkeit von schneller Spezialhardware für breite Anwendungen. Seine Programmierbarkeit könnte die Bedingungen für die Erforschung neuer neuronaler Netzwerkalgorithmen und Probleme eines Ausmaßes schaffen, die mit herkömmlichen Prozessoren nicht realisierbar wären. Das Ziel dieser Arbeit ist es, die Hardware-Implementierung neuronaler Netze unter Verwendung von FPGAs zu realisieren. Die digitale Systemarchitektur wird unter Verwendung der VHDL-Hardwarebeschreibungssprache (High Speed ​​Integrated Circuits) präsentiert und ist in einem FPGA-Chip implementiert. Das Design wurde auf einem FPGA-Demoboard getestet.;-;-;-;https://link.springer.com/chapter/10.1007/11893295_122 0546651bdd47e8dcf8a2277712dd8c3b;de;;;3.2.;;;Ein fremder König und eine Patriotenkönigin Als Jakob VI. 1603 den englischen Thron bestieg, brachte er eine große Zahl seiner Landsleute mit, denen es unter seiner und der seines Sohnes gelang (zum Unmut der Eingeborenen) einen bedeutenden Teil der Hofämter zu besetzen ( bis zu zwei Fünftel an einer Stelle). Wenn die Ambitionen der 'Scoto-Briten' des Königskreises nach einem schottischen Einfluss in Großbritannien, der dem englischen gleichkommt, natürlich zunichte gemacht wurden, hatte Schottland dennoch einen bedeutenderen Platz in den Anliegen von James und seinen Nachfolgern als nach 1688 denn auch wenn Charles I. nie die Leidenschaft seines Vaters für die Idee Großbritanniens teilte, war er doch »zu sehr der schottischen Nation zugeneigt«.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-26908-2_2 6c284256012f8fa886aa504ddae66003;de;;;3.2.;;;Synergien zwischen exakten und heuristischen Methoden in der Optimierung nutzen: Eine Anwendung auf das Relaisplatzierungsproblem in drahtlosen Sensornetzwerken Exakte und heuristische Methoden zur Lösung schwieriger Optimierungsprobleme wurden in der Regel als zwei völlig unterschiedliche Ansätze betrachtet, die jeweils von einer anderen Forschungsgemeinschaft intensiv untersucht und in unterschiedlichen Anwendungsgebieten eingesetzt werden. In dieser Arbeit schlagen wir ein Schema für die Integration und Kooperation einer exakten Methode vor, die auf gemischt-ganzzahliger linearer Programmierung (MILP) basiert, und einer bioinspirierten Metaheuristik, einem genetischen Algorithmus (GA), zur Lösung einer Relaisknotenplatzierung Problem in drahtlosen Sensornetzwerken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-06944-9_18 317464bc905165126d243d4c188231da;de;;;3.2.;;;Windows NT/95-Netzwerk Windows NT/95 unterstützt die Verbindung zu den Remote-Computern über das Internet. Betriebssysteme verwenden heute Netzwerke, um Peer-to-Peer-Verbindungen und auch Verbindungen zu Servern für den Zugriff auf Dateisysteme und Druckserver herzustellen. Eine Peer-to-Peer-Verbindung ist eine Verbindung, bei der ein Computer die Ressourcen eines anderen verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-14456-3_13 afe8c3e116c676c709aeb79a492de085;de;;;3.2.;;;SecureWear: Ein Framework zur Sicherung mobiler sozialer Netzwerke Mit der steigenden Popularität sozialer Netzwerke haben die Menschen begonnen, von überall, zu jeder Zeit und von einer Vielzahl von Geräten aus auf soziale Netzwerkseiten zuzugreifen. Unter Ausnutzung dieser Allgegenwart können die sozialen Netzwerkdaten einer Person mit ihrem geografischen Standort gekoppelt werden, um verschiedene kontextbezogene Anwendungen zu erstellen. Die bestehende Infrastruktur zum Teilen dieser personalisierten Daten zwingt die Benutzer jedoch dazu, ihre Privatsphäre zu gefährden. In diesem Papier stellen wir ein sicheres Framework vor, das die Interaktion von Informationen aus sozialen Netzwerken mit standortbasierten Diensten ermöglicht, ohne die Privatsphäre und Sicherheit der Benutzer zu beeinträchtigen. Durch den Austausch einer verschlüsselten Nonce-ID (EID), die einem verifizierten Benutzerstandort zugeordnet ist, ermöglicht unser Framework standortbasierten Diensten, seine Umgebung nach relevanten Informationen abzufragen, ohne die Benutzeridentität preiszugeben. Wir argumentieren ferner, dass diese Art von Rahmen als gemeinsamer Sicherheitsrahmen für die mobil-soziale Interaktion angenommen werden sollte, um die Datenschutzanforderungen zu erfüllen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27308-7_55 acb8fc6ca99362a4b0d41fcfe22eeda0;de;;;3.2.;;;Abschätzen des Energieverbrauchs in logischen CMOS-Schaltungen basierend auf ihrer Schaltaktivität Die Beziehung zwischen Energieverbrauch und Schaltaktivität von Logikschaltungen, die aus CMOS-basierten Gates aus der Bibliothek des kundenspezifischen VLSIC-Designs aufgebaut sind. Die Schaltaktivität der Logikschaltung, d. h. die Gesamtzahl der in die Schaltung integrierten geschalteten Transistoren, wird für eine bestimmte Folge von Eingangssignalsätzen gezählt. Es wird vorgeschlagen, den Energieverbrauch in der synthetisierten Logik-CMOS-Schaltung basierend auf dem Parameter ihrer Schaltaktivität zu schätzen, um so eine zeitaufwendige Schaltungssimulation zu vermeiden. Die Ergebnisse von Experimenten zu verschiedenen Methoden zur Schätzung des Energieverbrauchs in kombinatorischen Schaltungen im Stadium des logischen Entwurfs werden beschrieben und mit den Ergebnissen der Schaltungssimulation verglichen.;-;-;-;https://link.springer.com/article/10.1134/S1063739711060035 2c4dede4ab2dcbaf8ca889c7b78fca35;de;;;3.2.;;;INSEE: Eine Simulations- und Evaluierungsumgebung für Verbindungsnetzwerke In diesem Papier stellen wir INSEE vor, eine Umgebung, die beim Design von Verbindungsnetzwerken für parallele Computersysteme hilft. Es enthält zwei Hauptmodule: ein System zur Verkehrserzeugung (TrGen) und einen leichtgewichtigen Funktionssimulator (FSIN). Zusätzlich können externe Tools in die Umgebung integriert werden. Beispiele sind SICOSYS (ein hochentwickelter Netzwerksimulator, der genaue Zeitinformationen liefert) und SIMICS (ein vollständiger, detaillierter Computersimulator). Diese Umgebung wurde verwendet, um einige interessante Studien zum Entwurf von Verbindungsnetzwerken durchzuführen, wie z Eigenschaften von Topologien mit verzerrten Wraparound-Links.;-;-;-;https://link.springer.com/chapter/10.1007/11549468_111 c63ba1a17112de1aa356a269576f2dd8;de;;;3.2.;;;Mehrstündiges Design von Computer-Backbone-Netzwerken Dieses Papier befasst sich mit dem Problem des Entwurfs von Weitverkehrs-Computer-Backbone-Netzwerken, die sich über viele Zeitzonen erstrecken. Das Problem des Entwerfens von Weitverkehrs-Computer-Backbone-Netzwerken wird allgemein als das Problem der Kapazitäts- und Flusszuweisung (CFA) bezeichnet. Das CFA-Problem beinhaltet das Routing von Nachrichten und die Zuweisung von Kommunikationsleitungskapazitäten zu minimalen Kosten, abhängig von Leistungsbeschränkungen. In diesem Papier wird eine Version des CFA-Problems behandelt, bei der die Zuweisung von Kommunikationsleitungskapazitäten auf mehrstündigen Verkehrsanforderungen basiert. Mehrstündige Verkehrsanforderungen werden verwendet, da Netzwerke, die sich über viele Zeitzonen erstrecken, wechselnde Verkehrsmuster aufweisen, die über die Stunden des Tages hinweg keine Übereinstimmung des Verkehrs aufweisen. Somit können durch Ausnutzung dieser Nichtübereinstimmung kostengünstige Netzwerkdesigns erhalten werden. Es wird ein heuristisches Verfahren vorgestellt, das sich diese Nicht-Koinzidenz zunutze macht, um kostengünstige Lösungen bereitzustellen. Dieses heuristische Verfahren wird auf eine Vielzahl von Testproblemen angewendet, und die erhaltenen Lösungen werden mit Lösungen mit niedrigerer Schranke verglichen, die unter Verwendung eines Branch-and-Bound-Verfahrens berechnet wurden.;-;-;-;https://link.springer.com/article/10.1007/BF02114303 bfda449fdfa84d169e12d05e790a06cc;de;;;3.2.;;;Modelle verteilter assoziativer Gedächtnisnetzwerke im Gehirn Obwohl experimentelle Beweise für verteilte Zellverbände wachsen, werden Theorien über Zellverbände in der theoretischen Neurowissenschaft immer noch marginalisiert. Wir argumentieren, dass dies mit den Mängeln der derzeit am besten verstandenen Assemblertheorien zu tun hat, die auf formalen assoziativen Gedächtnismodellen basieren. Diese spiegeln die anatomischen und physiologischen Eigenschaften des Nervengewebes nur unzureichend wider, und ihre Funktionalität ist zu eingeschränkt, um einen Rahmen für die kognitive Modellierung bereitzustellen. Wir beschreiben Zellassemblierungsmodelle, die mehr neurobiologische Einschränkungen integrieren, und überprüfen Ergebnisse aus Simulationen eines einfachen nichtlokalen assoziativen Netzwerks, das durch eine reziproke topografische Projektion gebildet wird. Auswirkungen nichtlokaler assoziativer Projektionen im Gehirn werden hinsichtlich ihrer erklärbaren Funktionalität diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s12064-003-0037-8 bd775084ce666664ddf6de94c7414b61;de;;;3.2.;;;Automatische Erkennung versteckter Communities in den Texten des russischen Social Network Corpus Dieses Papier schlägt einen sprachlich reichen Ansatz zur Erkennung versteckter Communitys vor, der in Experimenten mit dem russischen Korpus von VKontakte-Posts getestet wurde. Moderne Algorithmen zur Erkennung versteckter Gemeinschaften basieren auf der Graphentheorie, wobei diese Verfahren die linguistischen Merkmale analysierter Texte außer Acht lassen. Die Autoren haben einen neuen hybriden Ansatz zur Erkennung versteckter Communities entwickelt, der Autor-Topic-Modellierung und automatische Topic-Labeling kombiniert. Für eine korrekte Sprachverarbeitung wurden spezifische sprachliche Parameter russischer Posts aufgedeckt. Die Ergebnisse rechtfertigen den Einsatz des Algorithmus, der mit bereits entwickelten Graphenmethoden weiter integriert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-59082-6_2 665a86576ac01df63bd69222d8707bca;de;;;3.2.;;;Quadratische Zuweisungsprobleme und M/G/C/C/ Zustandsabhängige Netzwerkflüsse Eines der berüchtigtsten Probleme des Netzwerkdesigns ist das Quadratic Assignment Problem (QAP). Wir entwickeln einen heuristischen Algorithmus für QAPs zusammen mit einem M/G/C/C zustandsabhängigen Warteschlangenmodell zur Erfassung von Staus im Verkehrssystem, das die Knoten im Netzwerk miteinander verbindet. Auch Rechenergebnisse werden präsentiert.;-;-;-;https://link.springer.com/article/10.1023/A%3A1011624708694 3e45c0511ca3d9aa9d2aac83bb44fbff;de;;;3.2.;;;Ein neuartiges Wissensnetzwerk-Framework für die Navigation in Finanznachrichten Heutzutage werden verschiedene Plattformen zum Abrufen von Finanznachrichten bereitgestellt, um Benutzern zu helfen, insbesondere Finanzprofis und Hobbyisten, die richtigen Entscheidungen zu treffen. Auf diesen Plattformen erhalten Nutzer Informationen in der Regel, indem sie die relevanten Nachrichten über Schlagworte suchen oder auf der angeklickten Webseite auf die empfohlenen Nachrichten mit dem ähnlichen Thema klicken. Solche Möglichkeiten, Finanzinformationen zu erhalten, können jedoch die weiteren Bedürfnisse der Benutzer nicht effektiv erfüllen. Sie sind bestrebt, in kurzer Zeit die relevanten Nachrichten mit verschiedenen Domains zu erhalten. Um dieses Problem anzugehen, schlagen wir ein neuartiges vierschichtiges Wissensnetzwerk-Framework für die Navigation von Finanznachrichten vor. Experimente an realen Datensätzen demonstrieren die Effektivität und Effizienz unseres vorgeschlagenen Frameworks.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08010-9_78 eec111f74bff9979568354620873cb31;de;;;3.2.;;;QSAR-Studie zur östrogenen Aktivität strukturell unterschiedlicher Verbindungen unter Verwendung des generalisierten neuronalen Regressionsnetzwerks Das computerbasierte Modell der quantitativen Struktur-Aktivitäts-Beziehung (QSAR) hat sich zu einem leistungsstarken Werkzeug entwickelt, um die strukturellen Anforderungen an Chemikalien zu verstehen, um den Östrogenrezeptor (ER) zu binden, Medikamente für die menschliche Östrogenersatztherapie zu entwickeln und potenzielle östrogene endokrine Disruptoren zu identifizieren. In dieser Studie wurde eine einfache, aber leistungsstarke neuronale Netzwerktechnik, generalisiertes neuronales Regressionsnetzwerk (GRNN), verwendet, um ein QSAR-Modell basierend auf 131 strukturell unterschiedlichen Östrogenen (Trainingssatz) zu entwickeln. Als Eingaben für das GRNN-Modell wurden nur neun Deskriptoren verwendet, die ausschließlich aus den molekularen Strukturen von Verbindungen berechnet wurden, die durch objektive und subjektive Merkmalsauswahlen ausgewählt wurden. Es wurde festgestellt, dass die Vorhersagekraft des erstellten Modells mit der der traditionelleren Techniken vergleichbar ist, jedoch eine erheblich einfache Implementierung und eine kürzere Rechenzeit erfordert. Das erhaltene Ergebnis zeigt, dass das vorgeschlagene GRNN-Modell robust und zufriedenstellend ist und ein praktikables und praktisches Werkzeug für das schnelle Screening der östrogenen Aktivität organischer Verbindungen darstellen kann.;-;-;-;https://link.springer.com/article/10.1007/s11426-008-0070-z 2137457842fe27995808e80d014fae20;de;;;3.2.;;;Immersive Media and Books 2020: Neue Erkenntnisse über Buchpiraten, Bibliotheken und Entdeckungen, Millennials und medienübergreifendes Engagement: vor und während COVID Bücher existieren in einem vernetzten Medienökosystem, aber nur wenige Studien zum Verbraucherverhalten und zur Erfahrung erfassen die Beziehungen zwischen Büchern und anderen Medienformen. In;-;-;-;https://link.springer.com/article/10.1007/s12109-021-09810-z 56f10a16131679999a2141ffd4bc464f;de;;;3.2.;;;Schätzung der Netzwerkdichte: Analyse von Punktmustern über ein Netzwerk Diese Forschung konzentriert sich auf die Untersuchung von Punktmusterverteilungen über ein Netzwerk, wobei die üblichen Hypothesen der Homogenität und Isotropie des Raums aufgegeben und Netzwerkräume als Rahmen für die Verteilung von Punktmustern betrachtet werden. Viele menschbezogene Punktphänomene sind über einen Raum verteilt, der normalerweise nicht homogen ist und von einer netzwerkgeführten Konfiguration abhängt. Kernel Density Estimation (KDE) und K-Funktionen werden häufig verwendet und ermöglichen die Analyse von Eigenschaften erster und zweiter Ordnung von Punktphänomenen. Hier wird eine Erweiterung von KDE, genannt Network Density Estimation (NDE), vorgeschlagen. Die Idee ist, den Kernel als eine Dichtefunktion zu betrachten, die auf Netzwerkentfernungen basiert und nicht auf euklidischen. Dies sollte die Identifizierung „linearer“ Cluster entlang von Netzwerken und die Identifizierung eines präziseren Oberflächenmusters netzwerkbezogener Phänomene ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/11424857_14 780eeca5c96900be2d875c3fa30144b1;de;;;3.2.;;;Ein neuer Ansatz zur Berücksichtigung von Unsicherheit in der Geländemodellierung Ein Verfahren zum Einbeziehen von Unsicherheit in die Geländemodellierung durch Ausdrücken von Höhen als Fuzzy-Zahlen wird vorgeschlagen. Angesichts einer endlichen Menge von Fuzzy-Höhen, die für die topographische Oberfläche in einer bestimmten Region repräsentativ sind, entwickeln wir Methoden zur Konstruktion von Oberflächen, die die Unsicherheit berücksichtigen. Die Glätte- und Kontinuitätsbedingungen des Oberflächenerzeugungsverfahrens werden beibehalten. Mit diesem Ansatz verallgemeinern wir einige klassische Interpolatoren und vergleichen sie qualitativ. Erweiterungen auf breitere Klassen von Interpolatoren folgen natürlich aus unserem Ansatz. Ein Zahlenbeispiel soll diese Idee verdeutlichen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45799-2_20 88b97bbdd168a932a90a23fd73b09a52;de;;;3.2.;;;Ungenauigkeit als Instrument zur Verbesserung der Privatsphäre Das Genauigkeitsprinzip ist einer der wichtigsten Standards des Datenschutzes. Es verkörpert die Verpflichtung für diejenigen, die personenbezogene Daten verarbeiten, ihre Aufzeichnungen genau und auf dem neuesten Stand zu halten, um Einzelpersonen vor unfairen Entscheidungen zu schützen. Derzeit scheinen jedoch verschiedene Praktiken zur Verbesserung des Schutzes von Personen bewusst auf die Verwendung „unrichtiger“ personenbezogener Daten zu beruhen. Dieser Artikel untersucht solche Praktiken und versucht, ihr Potenzial für den Schutz der Privatsphäre zu bewerten, wobei ihren rechtlichen Auswirkungen und damit verbundenen ethischen Fragen besondere Aufmerksamkeit gewidmet wird. Letztlich legt sie nahe, dass die Verwendung „ungenauer“ Daten potenziell eine nützliche Rolle bei der Wahrung der informationellen Autonomie des Einzelnen spielen kann und dass jedes Verständnis von Privatsphäre oder Schutz personenbezogener Daten, das dieses Potenzial tendenziell über Gebühr einschränkt, kritisch hinterfragt werden sollte.;-;-;-;https://link.springer.com/article/10.1007/s10676-009-9212-z 7d45b23893e203f0716aca6a7350be01;de;;;3.2.;;;Zusammenfassung der in den Hauptaufgaben des UNSI-Projekts durchgeführten Arbeiten In den folgenden 8 Kapiteln wird eine Synthese aufgabenbezogener Arbeiten präsentiert, die Verbesserungen und Erweiterungen spezifischer wissenschaftlicher Themen widerspiegeln, die im UNSI-Projekt bearbeitet wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45489-2_3 22a4f8ffd296ac6808d22119d934e21d;de;;;3.2.;;;Dreidimensionaler Campus 360-Grad-Videokodierung VR-Technologie basierend auf OpenGL Virtual Campus ist die konkrete Anwendung der Virtual-Reality-Technologie im digitalen Campus. Der virtuelle Campus kann die reale Campus-Szene reproduzieren, was den Menschen, die keine Chance haben, die Site zu besuchen, ein immersives Erlebnis bietet. Es kann auf dieser Basis auch eine virtuelle 3D-Universität aufbauen und dann eine entsprechende Online-Ausbildung mit hohem Anwendungswert anbieten. In diesem Papier werden die Virtual Reality-Technologie und die X3D-Technologie vollständig vorgestellt und die technischen Probleme des Roaming-Systems des virtuellen Campus werden im Detail untersucht. Es nimmt eine heimische Universität als Objekt und verwendet hauptsächlich X3D-Technologie mit verschiedenen Techniken, um die mehreren Szenen auf dem Campus zu entwerfen, das dreidimensionale Modell des Bürogebäudes, der Bibliothek, des Wissenschafts- und Technologiegebäudes usw Integration realisiert es schließlich ein virtuelles Campus-Roaming-System.;-;-;-;https://link.springer.com/article/10.1007/s11042-018-6306-9 7434cb5058efb64a02f8f18f13d63830;de;;;3.2.;;;Darwin: ein neuromorpher Hardware-Coprozessor basierend auf Spiking Neural Networks Im Großen und Ganzen besteht das Ziel der neuromorphen Technik darin, Computersysteme zu bauen, die das Gehirn nachahmen. Spiking Neural Network (SNN) ist eine Art biologisch inspirierter neuronaler Netze, die im Gegensatz zu herkömmlichen künstlichen neuronalen Netzen (KNN) eine Informationsverarbeitung basierend auf zeitdiskreten Spitzen durchführen. Die Hardwareimplementierung von SNNs ist erforderlich, um eine hohe Leistung und einen geringen Stromverbrauch zu erzielen. Wir präsentieren die Darwin Neural Processing Unit (NPU), einen neuromorphen Hardware-Coprozessor auf Basis von SNN, der mit digitallogic implementiert ist und maximal 2048 Neuronen unterstützt, 2048;-;-;-;https://link.springer.com/article/10.1007/s11432-015-5511-7 70a706f6d3bce9a300fbae461bc99972;de;;;3.2.;;;BigARTM: Open-Source-Bibliothek für die Regularisierte multimodale Topic-Modellierung großer Sammlungen Die probabilistische Themenmodellierung von Textsammlungen ist ein mächtiges Werkzeug für die statistische Textanalyse. In diesem Papier kündigen wir das BigARTM Open Source Projekt an (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-26123-2_36 e71fc5e3200e564f51508b694008d8a5;de;;;3.2.;;;Eine in Java integrierte objektorientierte Abfragesprache In letzter Zeit ist die Gemeinschaft der Universal-Programmiersprachen auf den Bedarf nach leistungsfähigeren und abstrakteren Ausdrücken gestoßen, die mit Abfragesprachen vergleichbar sind. Aktuelle Vorschläge leiden jedoch immer noch unter einigen Aspekten der Impedanzfehlanpassung zwischen Programmier- und Abfragesprachen. Dieses Papier beschreibt einen Prototyp einer Java-Erweiterung mit der benutzerfreundlichen objektorientierten Abfragesprache SBQL. Die resultierende Funktionalität ist teilweise von der LINQ-Sprache inspiriert, die im Microsoft .NET Framework verfügbar ist. Die vorgestellte Lösung bietet, obwohl es sich um einen Prototyp handelt, eine vielversprechende Leistung bei der Abfrageauswertung. Wir argumentieren, dass im Vergleich zu LINQ mehrere Vorteile davon zu beobachten sind, z.B. im Hinblick auf die Universalität und eine weniger ausführliche Syntax, die der Abfragesprachengemeinschaft vertraut ist. Darüber hinaus bietet es mehrere einzigartige Funktionen, darunter die Übersetzung von Abfragen in einen nativen Java-Code, universelle Sortier- und transitive Abschlussoperatoren sowie die Unterstützung für generische Sammlungen. Die resultierende Sprache ist auf verschiedene Datenverarbeitungsprobleme anwendbar und bietet einen Ausgangspunkt für mehrere interessante Forschungsgebiete. Das Papier stellt das Sprachdesign, Java-Integrationsprobleme, Leistungsüberlegungen und den Vergleich mit LINQ vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25327-0_50 b6ce5135de2292709ee651152ec327a8;de;;;3.2.;;;Design und Implementierung eines Testbeds für die Sicherheitsbewertung von MANETs Ein MANET (Mobile Ad-hoc NETwork) ist ein selbstkonfigurierendes Netzwerk von mobilen Geräten, die durch drahtlose Verbindungen verbunden sind. Aufgrund seiner Struktur hat ein MANET keine klare Verteidigungslinie, sodass es sowohl für legitime Netzwerkbenutzer als auch für böswillige Angreifer zugänglich ist. Aus diesem Grund sind MANETs anfällig für Sicherheitsangriffe, die hauptsächlich mit dem Vergiften der Routing-Protokolle zusammenhängen. Der Fokus dieses Beitrags ist zweigeteilt, zum einen präsentiert er einen Überblick über die wichtigsten Angriffe auf MANETs und zum anderen detailliert den Entwurf und die Implementierung eines experimentellen Testbeds zur Bewertung der Sicherheit eines MANET, indem es ermöglicht, Führen Sie die beschriebenen Angriffe durch. Die erhaltenen Ergebnisse haben gezeigt, dass in einigen Fällen die rein theoretisch beschriebenen Angriffe, die in der Literatur vorgestellt werden, aufgrund einiger in der Originalarbeit unberücksichtigter „realer“ Operationsdetails tatsächlich nicht realisierbar sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03584-0_17 dbab633fadb9b8e3ddb87b8453ed626b;de;;;3.2.;;;Kommunikation auf ParaStation-Benutzerebene PULC (ParaStation User Level Communication) ist eine Kommunikationsbibliothek auf Benutzerebene für Workstation-Cluster. PULC bietet eine Mehrbenutzer- und Mehrprogrammierungs-Kommunikationsbibliothek für die Kommunikation auf Benutzerebene auf der Hochgeschwindigkeits-Kommunikationshardware. Dieses Dokument beschreibt das Design des Kommunikationssubsystems, eine erste Implementierung auf dem ParaStation-Kommunikationsadapter und Benchmark-Ergebnisse dieser ersten Implementierung.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0110080 981db6231905265f6942de966f5ef4db;de;;;3.2.;;;Ein netzwerkbasiertes Jackson-Modell zur quantitativen Analyse der Netzwerksicherheit Für vertrauenswürdige Intranets ist es wichtig, sich mit dynamischen und formalisierten Analysen auf die Netzwerksicherheit als Ganzes zu konzentrieren. Die qualitativen und gegenwärtigen quantitativen Methoden haben Schwierigkeiten, die Anforderungen zu erfüllen. Nach der Analyse des Angriffsprozesses wird ein Jackson-Netzwerkmodell mit absorbierenden Zuständen vorgeschlagen, wobei die absorbierenden Zustände bedeuten, dass die Angriffe erfolgreich sind oder fehlschlagen. Wir berechnen die Steady-State-Joint-Wahrscheinlichkeitsverteilung von Netzwerkknoten, die durchschnittliche Zeit der im Netzwerk verbrachten Angriffsdaten und die Wahrscheinlichkeiten vom Netzwerkeintrittsknoten bis zum absorbierenden Zustand. Gemäß der Analyse der oben genannten Maßnahmen analysieren wir den Zusammenhang zwischen Netzwerksicherheit und Leistung.;-;-;-;https://link.springer.com/chapter/10.1007/11427995_52 2aeabcacbedd8018e3d4710ccc579e0e;de;;;3.2.;;;Geschäftsorientiertes dynamisches Rekonfigurationsmodell des Cloud-Computing-Netzwerks Die Komplexität und Vielfalt des Cloud-Geschäfts und das stetige Wachstum neuer Dienste stellen höhere Anforderungen an den geschäftsorientierten adaptiven Umbau von Cloud-Netzen. Daher entwirft dieses Papier durch die Einführung der Konstruktionsidee eines Rekonfigurationsnetzwerks in ein Cloud-Netzwerk ein geschäftsorientiertes dynamisches Rekonfigurationsmodell eines Cloud-Computing-Netzwerks. Im Entwurfsprozess des Modells wurden die formale Beschreibung des rekonfigurierbaren Ziels des Modells, die Methode der Ziel-Baum-Zerlegung und die Methode der Ziel-Ordnungs-Graphen-Relationsdarstellung vorgeschlagen. Ein schnelles Rekonfigurationsverfahren basierend auf einer ähnlichen Knotentransformation, ein spezifischer Rekonfigurationsprozess des Modells und ein Rekonfigurationsoptimierungsalgorithmus wurden ebenfalls im Detail vorgestellt. Das Modell bot eine effektive Lösung, um die Flexibilität, Skalierbarkeit, Sicherheit und Selbstanpassungsfähigkeit des Netzwerks in der Cloud-Umgebung besser zu realisieren, wodurch die Kontinuität der Neukonfiguration des Cloud-Netzwerks gewährleistet wird, um den sich ständig ändernden Geschäftsanforderungen gerecht zu werden. Schließlich wird die Leistungsfähigkeit des Modells verifiziert, was die hohe Effizienz des Modells der dynamischen Rekonfiguration beweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0121-0_18 c36aecb73430e4a184e4e371855233ea;de;;;3.2.;;;Unsichere (Multi-)Grafiken für Personalisierungsdienste in digitalen Bibliotheken Digitale Bibliotheken organisierten Sammlungen von Multimedia-Objekten in einer computerverarbeitbaren Form. Sie umfassen auch Dienste und Infrastrukturen zum Verwalten, Speichern, Abrufen und Teilen von Objekten. Unter diesen Diensten stellen Personalisierungsdienste einen aktiven und breiten Bereich der digitalen Bibliotheksforschung dar. Eine beliebte Methode zur Personalisierung ist die Verwendung von Informationsfiltertechniken, die darauf abzielen, redundante oder unerwünschte Informationen aus Daten zu entfernen. In diesem Artikel schlagen wir vor, ein probabilistisches Framework basierend auf unsicheren Graphen zu verwenden, um Probleme der Informationsfilterung zu lösen. Benutzer, Elemente und ihre Beziehungen werden in einem probabilistischen Graphen kodiert, der verwendet werden kann, um die Wahrscheinlichkeit der Existenz einer Verbindung zwischen Entitäten, die an dem Graphen beteiligt sind, abzuleiten. Das Ziel der Arbeit ist es, die Definition unsicherer Graphen auf Multigraphen auszudehnen und zu untersuchen, ob unsichere Graphen als wertvolles Werkzeug für Informationsfilterungsprobleme verwendet werden könnten. Die Leistung des vorgeschlagenen probabilistischen Rahmens wird berichtet, wenn er auf eine reale Domäne angewendet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35834-0_15 92a3518abb6c16eb144815cd982da0ff;de;;;3.2.;;;Verbesserter Fingerabdruck und seine Anwendung zur Erkennung von Angriffen Dieses Papier schlägt RTT-Fingerabdruck vor, um Eindringlinge zurückzuverfolgen, und um Sprungbrett-Eindringlinge zu erkennen. Jedes Zeitstempelpaar repräsentiert eine Round Trip Time (RTT) eines Pakets. Neben den Vorteilen der Effizienz, Geheimhaltung und Robustheit hat RTT-Thumbprint die Fähigkeit, die zufällige Verzögerung und die Manipulation der Spreu durch Eindringlinge zu verhindern. Ein erschöpfender und ein heuristischer Algorithmus werden vorgeschlagen, um RTT-Daumenabdrücke zu korrelieren. Die Ergebnisse zeigten, dass der heuristische Algorithmus genauso gut funktioniert wie der erschöpfende, aber effizienter ist;-;-;-;https://link.springer.com/chapter/10.1007/11534310_47 912c039f2470cf57b0aced91388200ae;de;;;3.2.;;;psOBJ: Abwehr von Verkehrsanalysen mit Pseudo-Objekten Beim Besuch einer Webseite wird eine Abfolge von Anfrage-Antwort-Transaktionen eingeleitet. Einerseits gibt der Browser Anfragen nach Objekten der Reihe nach aus. Andererseits antwortet der Server mit erforderlichen Objektinhalten. Dadurch zeigt der Datenverkehr einer bestimmten Webseite Mustermerkmale, die sich von anderen Seiten unterscheiden. Techniken zur Datenverkehrsanalyse können diese Funktionen extrahieren, um Webseiten effektiv zu identifizieren, selbst wenn der Datenverkehr verschlüsselt ist. In diesem Papier schlagen wir eine Gegenmaßnahme, psOBJ, vor, um sich gegen die Verkehrsanalyse durch die Einführung von Pseudoobjekten in die Browser-Server-Kommunikation zu verteidigen. Wir setzen einige Objektfragmente zu einem konstruierten Objekt, dem Pseudoobjekt, zusammen und zwingen die Objektanfragen und -antworten auf Pseudoobjekte. Durch zufälliges Zusammensetzen von Pseudoobjekten mit einer unterschiedlichen Anzahl von Objektfragmenten mit unterschiedlichen Größen könnte der Verkehr für eine gegebene Webseite variabel sein und unterschiedliche Verkehrsmuster bei verschiedenen Besuchen aufweisen. Wir haben einen Proof-of-Concept-Prototyp implementiert und validieren die psOBJ-Gegenmaßnahme mit einigen hochmodernen Verkehrsanalysetechniken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11698-3_8 ab70664f65f9276021d1e6e75f44a96c;de;;;3.2.;;;Evaluation und Design performanter verteilter Systeme Performability misst die Systemleistung einschließlich Qualität, Zuverlässigkeit, Wartbarkeit und Verfügbarkeit im Laufe der Zeit, unabhängig von Fehlern. Für verteilte Systeme ist dies eine Herausforderung, da das Internet als Best-Effort-Netzwerk konzipiert wurde, das nicht garantiert, dass die Datenlieferung eine bestimmte Dienstqualität erfüllt. In diesem Kapitel erklären wir den Entwurf, den Test und die Leistungsfähigkeitsbewertung von verteilten Systemen unter Verwendung von gegnerischen Komponenten. In unserem Ansatz verwendet das Systemdesign eine gegnerische Logik, um das System robust zu machen. Im Systemtest können wir vorhandene, leistungsstarke Angriffe nutzen, um unser Design zu überprüfen, indem wir vorhandene Denial-of-Service (DoS)-Angriffe nutzen, um das System zu belasten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-55732-4_9 fd24370446198bc45f89a402f123aa62;de;;;3.2.;;;Steiner-Bäume und das dynamische quadratische Zuweisungsproblem Zwei der schwierigsten Probleme im Netzwerkdesign sind das Quadratische Zuweisungsproblem (QAP) und das Steiner-Netzwerkproblem. Eines der Hauptziele dieses Papiers ist es, die starke Verbindung zwischen diesen beiden Netzwerkdesignproblemen aufzuzeigen. Dynamische Flüsse in QAPs werden als stochastische Prozesse modelliert. Die zugrundeliegende Flusstopologie wird als eine Steiner-Baum-Warteschlangennetztopologie dargestellt. Kunden und Waren fließen über Tandemverbindungen des Steiner-Netzwerks. Eine Heuristik für das stochastische quadratische Zuweisungsproblem SQAP wird entwickelt, um dieses Problem der Flussnetzwerktopologie zu lösen, und es werden Rechenerfahrungen präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0255-1_12 becbde90410ae18b2fa49379a046e741;de;;;3.2.;;;Frühe Informatikabenteuer eines Mathematikers Ich hatte mehrere Erfahrungen mit Informatik, bevor ich wusste, dass es das ist, was ich tue. Die erste fand statt, als ich 1957–59 das Institute for Advanced Study besuchte. Larry Wilets, ein Physikprofessor an der University of Washington, bat mich, ihm bei den vielen Berechnungen zu helfen, die er machen musste, um die Eigenwerte einer spärlichen Binärmatrix zu finden, die aus seinen beobachteten Daten in der Experimentalphysik entstanden. Er forderte mich auf, eine graphentheoretische Methode zu finden, die ihm enorm viel Zeit sparen würde. Ich war angenehm überrascht, als ich dieses Problem mit einem Matrixalgorithmus zum Auffinden der stark zusammenhängenden Komponenten eines Digraphen gelöst habe. Später erfuhr ich, dass 1962 ein Artikel veröffentlicht wurde, der „Warshall’s Algorithm“ vorstellte. Er hatte seine Arbeit in einer Computerzeitschrift veröffentlicht, während meine in der;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0717-0_1 6d796f2716bb1fd94f8cb8bab5f048ee;de;;;3.2.;;;Zusammenfassung und Analyse von Netzwerk-Traffic-Flow-Datensätzen Aktuelle Netzmesssysteme werden immer hoch entwickelter und produzieren riesige Mengen verworrener Messdaten und Statistiken. Ein sehr häufiger Fall ist, dass Netzwerke, die Statistikberichte basierend auf der NetFlow [15]-Technologie implementieren, täglich mehrere GB an Daten generieren können. Außerdem sind diese Messungen oft sehr schwer zu interpretieren. In diesem Kapitel beschreiben wir eine Methode, die linguistische Zusammenfassungen von Netzverkehrsmessungen sowie ein Verfahren zum Auffinden versteckter Fakten in Form von linguistischen Assoziationsregeln liefert. Daher adressieren wir hier ein Mining-Problem mit Assoziationsregeln. Das Verfahren eignet sich zur Zusammenfassung und Analyse von Netzmessungen auf Fließebene. In einem ersten Schritt werden Fuzzy-Sprachzusammenfassungen angewendet, um prägnante und menschlich konsistente Zusammenfassungen aus NetFlow-Sammlungen zu analysieren und zu extrahieren. Anschließend wird ein Verfahren zum Mining Hidden Facts in Netzwerkflussmessungen in Form von Fuzzy-Assoziationsregeln entwickelt. Die Methode wird auf ein breites Spektrum heterogener Strömungsmessungen angewendet und hat sich als praktische Anwendung für den Netzbetrieb und die Verkehrstechnik erwiesen [6, 5], wo sie zur Lösung einer Reihe aktueller Probleme beitragen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18084-2_4 e352c983111c5c8ae8d0bfba40920d38;de;;;3.2.;;;Auf dem Weg zu einer effektiven Wireless-Sicherheitsrichtlinie für sensible Unternehmen Drahtlose Netzwerke werden bei Organisationen und Unternehmen auf der ganzen Welt immer beliebter. Angesichts der Aussicht auf Produktivitätssteigerung und Komfort bei geringeren Kosten durch den Einsatz von Wireless haben viele Unternehmen Wireless-Netzwerke in ihre Infrastrukturen eingeführt, in der Hoffnung, die Vorteile zu nutzen. Die Einführung drahtloser Technologien bringt jedoch neue Sicherheitsbedenken mit sich. Die Möglichkeit, dass die Signale eines Wireless Local Area Network (WLAN) über die physischen Grenzen eines Büros hinaus übertragen werden, erleichtert es Cyberkriminellen, den Netzwerkverkehr zu überwachen, den Datenfluss zu stören und in Netzwerke einzubrechen. Die Aussicht auf Sicherheitsverletzungen wird noch gefährlicher, da 70 Prozent der über Wireless Access Points übertragenen Daten unverschlüsselt sind. Diese Risiken haben die Bedeutung der drahtlosen Sicherheit erhöht. Angesichts dieser zunehmenden Besorgnis über Wireless-Sicherheitsprobleme ist eine gut durchdachte und implementierte Wireless-Sicherheitsrichtlinie von größter Bedeutung. Ziel dieser Arbeit ist es, den Leser auf die Schwächen aktueller Wireless-Sicherheitsmodelle aufmerksam zu machen und einen Rahmen für eine verlässliche Wireless-Sicherheitspolitik für sensible Organisationen zu schaffen. Wir untersuchen auch eine Fallstudie des Verteidigungsministeriums zur realen Umsetzung von Wireless-Sicherheitsrichtlinien und analysieren deren Mängel basierend auf unserem vorgeschlagenen Rahmen.;-;-;-;https://link.springer.com/chapter/10.1007/11427995_81 c52a05c7d5f6404f52123bc7c9f102f1;de;;;3.2.;;;Dynamisches Performance-Callstack-Sampling: Zusammenführen von TAU und DAQV Das Beobachten der Leistung einer Anwendung zur Laufzeit erfordert Sparsamkeit bei der Messung und dem Zugriff auf Leistungsdaten und Flexibilität bei der Änderung des Leistungsinteresses. Dieses Papier beschreibt den Performance-Callstack als effiziente Performance-Ansicht eines laufenden Programms, die von externen Analysetools abgerufen und kontrolliert werden kann. Die Unterstützung der Leistungsmessung wird durch die TAU-Profiling-Bibliothek bereitgestellt, während die Unterstützung der Werkzeug-Programm-Interaktion durch das DAQV-Framework verfügbar ist. Es wird diskutiert, wie diese Systeme zusammengeführt werden, um eine dynamische Leistungs-Callstack-Abtastung bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0095376 02029fc955a780c57eb7587a716346d6;de;;;3.2.;;;PRM-Inferenz mit der lokalen Konditionierung von Jaffray & Faÿ Probabilistic Relational Models (PRMs) sind ein Framework zur kompakten Darstellung von Unsicherheiten (eigentlich Wahrscheinlichkeiten). Sie resultieren aus der Kombination von Bayesian Networks (BNs), objektorientierten Sprachen und relationalen Modellen. Sie wurden speziell für ihre effiziente Konstruktion, Wartung und Nutzung bei sehr großen Problemen entwickelt, bei denen BNs bekanntermaßen schlecht funktionieren. Tatsächlich ist es bei großräumigen Problemen oft der Fall, dass BNs aus der Kombination von Mustern (kleinen BN-Fragmenten) resultieren, die sich viele Male wiederholen. PRMs nutzen diese Funktion aus, indem sie diese Muster nur einmal definieren (die sogenannten PRMs;-;-;-;https://link.springer.com/article/10.1007/s11238-010-9219-2 5ab1f96dfc4255d128af73e859dc1359;de;;;3.2.;;;Sortiernetzwerke Network Das Konzept der Assortativität hat sich seit seiner Einführung als grundlegende Metrik zum Verständnis der Struktur und Funktion komplexer Netzwerke erwiesen. Es hat sich gezeigt, dass es erhebliche Auswirkungen auf viele Prozesse in Netzwerken hat, einschließlich Epidemieschwellen, Ausbreitung und Langlebigkeit, Entlastung von Staus und Informationskaskaden. Bei einigen dieser Ergebnisse spielt die Gradverteilung (normalerweise eine Potenzverteilung) eine entscheidende Rolle. Wir beschreiben ein einfaches, aber effektives Verfahren zum Modifizieren eines gegebenen Netzwerks, um seine Assortativität entweder zu erhöhen oder zu verringern, während die Gradverteilung des Netzwerks beibehalten wird. Der Prozess lässt sich leicht steuern, um gewünschte Assortativitäten zu erzielen. Es wird eine Modifikation angegeben, die nicht nur den Grad jedes Scheitelpunkts beibehält, sondern auch eine gegebene Gemeinschaftsstruktur im Netzwerk respektiert. Beide Algorithmen werden durch detaillierte empirische Ergebnisse unterstützt. Die Konstruktionen sollten für Forscher von besonderem Wert sein, die den Einfluss der Assortativität in verschiedenen Anwendungen messen möchten, ohne die Gesamtgradverteilung oder die Aufteilung der Gemeinschaft zu stören.;-;-;-;https://link.springer.com/article/10.1007/s00354-014-0406-5 e3ac122dc93937be1e89e1bd07fd99ad;de;;;3.2.;;;Worst-Case-Analyse von Router-Netzwerken mit konkurrierenden Queuing-Modellen Für ein Tandem-Router-Netzwerk wird ein robustes Worst-Case-Design-Framework basierend auf konkurrierenden Warteschlangenmodellen entwickelt. Worst-Case-Design befasst sich mit der Bestimmung des besten Designs oder der besten Strategie in der feindlichsten Betriebsumgebung, d. h. gleichzeitig mit den Parametern des Worst-Case-Modells. Im Router-Netzwerk wird die Ende-zu-Ende-Leistung als die mittlere Übertragungsverzögerung vorbehaltlich einer oberen Grenze der Verlustrate und der Warteschlangen- und Wiederherstellungspuffer mit endlicher Kapazität berechnet. Das optimale Verhältnis der Ankunftspuffergröße zur Wiederherstellungspuffergröße im ungünstigsten Fall wird bestimmt, was eine kritische Größe ist, die sowohl die Verlustrate als auch die Übertragungszeit beeinflusst. Der Einfluss der Wiederübertragungswahrscheinlichkeit wird ebenfalls untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/11902140_93 69fa1882c90e22e108f60717ba766092;de;;;3.2.;;;Eine Bewertung von Architekturplattformen für parallele Navier-Stokes-Berechnungen Wir untersuchen die Rechen-, Kommunikations- und Skalierbarkeitseigenschaften einer Computational Fluid Dynamics-Anwendung, die das zeitgenaue Strömungsfeld eines Jets mithilfe der komprimierbaren Navier-Stokes-Gleichungen auf einer Vielzahl von parallelen Architekturplattformen löst. Die für diese Studie ausgewählten Plattformen sind ein Cluster von Workstations (das LACE experimentelle Testbed bei NASA Lewis), ein Shared-Memory-Multiprozessor (CRAY Y-MP) und Distributed-Memory-Multiprozessoren mit unterschiedlichen Topologien (der IBM SP und der CRAY T3D ). Wir untersuchen die Auswirkungen verschiedener Netzwerke, die den Cluster von Workstations verbinden, auf die Leistung der Anwendung und den Overhead, der durch gängige Message-Passing-Bibliotheken für die Parallelisierung verursacht wird. Die Arbeit unterstreicht auch die Bedeutung der Anpassung der Speicherbandbreite an die Prozessorgeschwindigkeit für eine gute Einzelprozessorleistung. Durch die Untersuchung der Leistung einer Anwendung auf einer Vielzahl von Architekturen sind wir in der Lage, die Stärken und Schwächen jeder der beispielhaften Computerplattformen aufzuzeigen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1007961312671 1730878fe652910881696a93eabacb54;de;;;3.2.;;;Geometrisch parallele Algorithmen Ein natürlicher Weg, die Simulation auf einem Parallelrechner eines beliebigen Systems, das eine regelmäßige Geometrie und räumlich begrenzte Wechselwirkungen beinhaltet, zu implementieren, besteht darin, das Volumen in gleich große Teile zu unterteilen, von denen jeder dann einem der Parallelverarbeitungselemente zugeordnet wird. Dies;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-76265-9_7 113eb5205566c23a757315371f11b2a4;de;;;3.2.;;;Entwerfen von baumstrukturierten Organisationen für Computeragenten Wir beschreiben einen Rahmen zur Definition des Raums von Organisationsdesigns für Computeragenten, verwenden unseren Rahmen zur Analyse der erwarteten Leistung einer Klasse von Organisationen und beschreiben, wie unsere Analysen angewendet werden können, um die Leistung für eine verteilte Informationserfassungsaufgabe vorherzusagen. Unsere Analyse befasst sich speziell mit dem Einfluss der Kontrollspanne (Verzweigungsfaktor) in baumstrukturierten hierarchischen Organisationen auf die Reaktionszeit solcher Organisationen. Wir zeigen quantitativ, wie die Gesamtaufgabengröße und -granularität die Gestaltung der Kontrollspanne der Organisation beeinflusst und dass innerhalb der betrachteten Klasse von Organisationen die angemessene Kontrollspanne auf einen relativ engen Bereich beschränkt ist. Die von unserem Gesamtmodell vorhergesagte Leistung korreliert mit der tatsächlichen Leistung einer verteilten Organisation zur Überwachung von Computernetzwerken. Folglich argumentieren wir, dass unser Framework Aspekte des organisatorischen Selbstdesigns für Computeragenten unterstützen kann und auch Einblicke in das Design menschlicher Organisationen liefern könnte.;-;-;-;https://link.springer.com/article/10.1007/BF00127275 ce7a5b666b7446a873dad43132129e0a;de;;;3.2.;;;Entwicklung und Analyse von Netzwerktreibern in VxWorks-Systemen Durch die Analyse der Prinzipien und der Struktur von END-Netzwerktreibern in VxWorks-Systemen werden die Entwicklung und Implementierung von LAN91C111-Netzwerktreibern basierend auf der ISA-Busarchitektur abgeschlossen und Netzwerküberlastungsprobleme analysiert, die bei der Verwendung dieser Netzwerkschnittstellenkarte (NIC) auftreten können im Detail. All dies bietet viele Referenzen und Richtlinien für die Entwicklung ähnlicher NICs in VxWorks-Systemen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25769-8_96 945a0b77f26d7b4a127a920fc41529a1;de;;;3.2.;;;Forschung zu Intelligent Service Aware Routing für integrierte Weltraum-Boden-Netzwerke Herkömmliche Routing-Protokolle, die in Space-Boden Integrated Networks verwendet werden, führen zu schwerwiegenderen Datenverlusten und längeren Verzögerungsproblemen. Dieses Papier schlägt ein intelligentes Service-Aware-Routing-Verfahren (ISAR) vor. Dieses Verfahren kann die lokalen Erkennungsinformationen verwenden, damit die Knoten die Änderungen der Netzwerkumgebung und des Dienststatus durch die Verkehrsflusswahrnehmung und -vorhersage schnell und genau wahrnehmen, um die Netzwerkleistung zu optimieren. ISAR verwendet den Q-Learning-Algorithmus, um dem Knoten die Fähigkeit zum Lernen und Denken zu verleihen und die Anpassungsfähigkeit der Route an den Dienst zu verbessern. Die Simulationsergebnisse zeigen, dass das Verfahren die Nutzungsrate der Netzwerkverbindung effektiv verbessern, den globalen Netzwerklastausgleich realisieren, den Netzwerkdurchsatz verbessern und die Netzwerkleistung optimieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6264-4_56 30df6bd45bb066eacbf8dc1133296e44;de;;;3.2.;;;Klassifizieren von Dokumenttypen zur Verbesserung der Suche und Empfehlungen in digitalen Bibliotheken In diesem Beitrag adressieren wir das Problem der Klassifizierung von Dokumenten, die aus dem globalen Netzwerk von (Open-Access-)Repositorien verfügbar sind, nach ihrer Art. Wir zeigen, dass die von Repositorien bereitgestellten Metadaten zur Unterscheidung von Forschungsarbeiten, Dissertationen und Folien in über;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67008-9_15 c8580a51f879f39dab3b727d208c2404;de;;;3.2.;;;Evolution und Information oder Erotik und Alltag in Dracula und spätviktorianischer Ästhetik In „A Manifesto for Cyborgs“ signalisiert Donna Haraway drei Grenzüberschreitungen, die im Leben des späten 20.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-10280-8_8 efc3ba8a0d3d95e400e076ef32d25506;de;;;3.2.;;;Relationale Skalierung und Datenbanken Mehr als 20 Jahre theoretische Entwicklung und praktische Erfahrung im Bereich konzeptioneller Informationssysteme haben verschiedenste Strukturen und Vorgehensweisen zur Verfügung gestellt, um aus Daten neues Wissen zu gewinnen oder anwenderfreundlich darzustellen, indem die Daten in ein konzeptionelle Methode, um dem Benutzer zu helfen, die Bedeutung zu interpretieren und zu verstehen. Noch länger hilft die Database Theory, hocheffiziente Datenbanksysteme zu entwickeln, die täglich riesige Datenmengen verarbeiten. Beide Theorien können jedoch von einer Kooperation profitieren: Einerseits könnten Methoden der Daten- und Datenbankmodellierung auf den Aufbau von konzeptionellen Informationssystemen angewendet werden, der Zusammenhang zwischen den vorgestellten konzeptionellen Strukturen und den Originaldaten kann geklärt werden. Andererseits kann die Datenbanktheorie von den Erfahrungen und Ideen für nutzerzentriertere Schnittstellen zu den gespeicherten Daten sowie von der Übersetzung theoretischer Ergebnisse profitieren.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45483-7_6 bf79b19e42dbe05a3e67ff3405eccba2;de;;;3.2.;;;Design und Evaluierung intelligenter globaler Pfadplanungsalgorithmen Die globale Bahnplanung ist eine entscheidende Komponente für die Roboternavigation in kartenbasierten Umgebungen. Es besteht darin, den kürzesten Weg zwischen Start- und Zielort zu finden. Die Analyse vorhandener Literatur in Kap.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-77042-0_3 306138022977e6ed82f233241e37a98f;de;;;3.2.;;;Ein Ansatz zur Topologiesteuerung, der die Baukosten für verlustbehaftete drahtlose Sensornetzwerke senkt In verlustbehafteten drahtlosen Sensornetzwerken leiden viele Verbindungen unter erheblichen Qualitätsschwankungen mit Zeit und Umgebung. Ansätze zur Topologiesteuerung müssen eine solche stochastische Natur berücksichtigen, um unterschiedliche Topologien für unterschiedliche Anwendungsanforderungen zu ergeben. Die Metrik der Verbindungen muss jedoch rechtzeitig abgerufen werden, um den Topologieaufbau zu beschleunigen. Tatsächlich lösen die bestehenden Ansätze dies durch passive Überwachung, die sich nicht rechtzeitig an Schwankungen der Verbindungsqualität anpassen kann. Außerdem verursacht der rechtzeitige Zugriff auf die Metrik aller Verbindungen auf allen Leistungsstufen eine große Belastung für den Topologie-Steuerungsbetrieb. Wir bestehen nicht darauf, die Link-Metriken aller Leistungsstufen gleichzeitig zu erhalten. Die am dringendsten benötigten Linkmetriken werden in diesem Beitrag zunächst durch einen aktiven Sondierungsmodus ermittelt. Wenn diese Verbindungsmetriken die Leistungsanforderungen der Topologie nicht erfüllen, werden die unterdringend benötigten Verbindungsmetriken bei Bedarf abgerufen. Gleichzeitig führt jeder Knoten einen Topologiesteuerprozess basierend auf den Informationen in einem kleineren Bereich (z. B. 1-Hop-Nachbarschaft) durch. Daher hat unser Ansatz den Low-Constructed-Cast, der in diesem Papier bewiesen wird. Die Simulationsergebnisse zeigen auch, dass unser Ansatz die bestehenden typischen Arbeiten in Bezug auf die durchschnittliche Sendeleistung übertrifft, obwohl er in Bezug auf durchschnittliche Lieferrate, durchschnittliche End-to-End-Verzögerung und Gesamtenergieverbrauch etwas weniger effizient ist. Außerdem hat unser Ansatz einen Vorteil hinsichtlich der Standardabweichung der verbleibenden Energie unter der relativ kleineren erforderlichen Pfadqualitätsgrenze oder niedrigeren Knotendichte.;-;-;-;https://link.springer.com/article/10.1007/s11277-017-4048-z 0b7a8133c1c42fc3c5e3b44ae7bf6978;de;;;3.2.;;;BUBEN: Automatisierte Bibliotheksabstraktionen ermöglichen eine skalierbare Fehlererkennung für große Programme mit I/O und komplexer Umgebung Ein wichtiges Ziel der Software-Engineering-Forschung ist es, Methoden zur effizienten Verifikation und Erkennung von Fehlern zu entwickeln. In diesem Zusammenhang konzentrieren wir uns auf zwei Herausforderungen: (1) Skalierbarkeit auf große und realistische Softwaresysteme und (2) Tools, die Programme nicht direkt analysieren können, die E/A-Operationen ausführen und mit ihrer Umgebung interagieren. Zu den häufigsten Ursachen für Skalierbarkeitsprobleme zählen die große Anzahl von Thread-Verschachtelungen und die Verwendung großer Bibliotheken. Programme, die in verwalteten Sprachen wie Java geschrieben sind, können von vielen Verifikationstools aufgrund unzureichender Unterstützung nativer Bibliotheksmethoden nicht direkt analysiert werden. Beide Probleme betreffen besonders pfadsensitive Verifikationstechniken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-31784-3_13 1bd0d717822125e6dd2e0bb3d3c9678f;de;;;3.2.;;;Gemeinsame Relaisauswahl und Leistungssteuerung für robustes kooperatives Multicast in mmWave-WPANs Wir schlagen einen Optimierungsalgorithmus für die gemeinsame Relaisauswahl und die Leistungszuweisung von Quelle und Relais unter gemischten Sichtlinien (LoS) und Nicht-LoS-Pfadszenarien vor, um sowohl die Energieeinsparung als auch die Robustheitsverbesserung von kooperativem Multicast in drahtlosen Millimeterwellen-Personal Area Networks zu verbessern. Unsere Ziele sind die Reduzierung des Stromverbrauchs und die Verbesserung der Robustheit von kooperativen Multicasts in drahtlosen Millimeterwellen-Personal Area Networks. Zuerst beschreiben wir ein neuartiges Strahltrainingsprotokoll, das in der Lage ist, mithören und Informationsrückmeldungen zu ermöglichen, um Relaiskandidaten mit Nicht-LoS-Verbindungen zu filtern und die Auswahl von Relais für Transceiver mit LoS-Pfade zu vermeiden. Zweitens wird das Problem der gemeinsamen Relaisauswahl und Leistungszuweisung als Optimierungsproblem mit dem Ziel formuliert, den maximalen kombinierten Leistungsverbrauch der Quelle und des Relais unter maximal tolerierbaren Ausfallwahrscheinlichkeiten und Sendeleistungen zu minimieren. Durch Einführung von Relaxations- und Lagrange-Multiplikatorverfahren wird ein geschlossener Ausdruck für die gemeinsame Relaisauswahl und Leistungszuweisung erhalten. Schließlich zeigen Simulationsergebnisse signifikante Verbesserungen sowohl hinsichtlich der Ausfallwahrscheinlichkeit als auch des Stromverbrauchs gegenüber dem herkömmlichen kombinierten Algorithmus zur Minimierung der Sendeleistung.;-;-;-;https://link.springer.com/article/10.1007/s11432-015-5434-3 9163551cebd627a3ce7045720d5332be;de;;;3.2.;;;Diskurse auf dem Stapel In diesem Kapitel gehen wir auf ausgewählte Themen auf dem Stapel ein. Sie sind in Gruppen von Physical Layer, Network Layer, Application Layer, Cross Layers und anderen Themen unterteilt. Die Themen werden als Abschnittstitel aufgelistet.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-6047-4_8 0028ae02420a70eaaa84e98f30a49f65;de;;;3.2.;;;Lösungsalgorithmen für das kapazitive Single Allocation Hub Location Problem In diesem Papier präsentieren wir einen effizienten Ansatz zur Lösung von kapazitiven Single Allocation Hub-Standortproblemen. Wir verwenden eine modifizierte Version einer früheren Mixed-Integer-Linearprogramming-Formel, die von uns für p‐Hub‐Medianprobleme entwickelt wurde. Diese Formulierung erfordert weniger Variablen und Einschränkungen als diejenigen, die traditionell in der Literatur verwendet werden. Wir entwickeln gute heuristische Algorithmen für ihre Lösung basierend auf simuliertem Annealing (SA) und Random Descent (RDH). Wir verwenden die obere Schranke, um eine LP‐basierte Verzweigungs‐ und Bindungslösungsmethode zu entwickeln. Das Problem, wie wir es definieren, findet Anwendung bei der Gestaltung von Postzustellnetzen, insbesondere beim Standort von kapazitiven Postsortier- und Verteilzentren. Wir testen unsere Algorithmen mit Daten aus dieser Anwendung. Nach unserem besten Wissen wurde dieses Problem in der Literatur nicht gelöst. Rechenergebnisse werden präsentiert, die die Nützlichkeit unseres Ansatzes zeigen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1018994432663 2aa291dce6b4a512ff5777eb86121779;de;;;3.2.;;;Eine empirische Studie zu dynamischen Auswirkungen auf die Täuschungserkennung Eine Bedrohung für die genaue Erkennung von Täuschungen ist die dynamische Natur des betrügerischen Verhaltens. Betrüger neigen dazu, ihren Kommunikationsstil im Laufe der Zeit anzupassen, indem sie ihre Ziele kontinuierlich auf Anzeichen von Misstrauen überwachen. Infolgedessen gelingt es Betrügern, Lügen zu erzählen, die immer mehr nach Wahrheit klingen. Solche Trends implizieren, dass die Erkennung von Täuschungen in späteren Phasen einer Interaktion schwieriger und daher weniger genau wäre als die Erkennung in früheren Phasen. Dieses Papier untersucht dynamische Effekte, die die Erkennung von Täuschungen beeinflussen, und liefert empirische Beweise, die die Vorhersage unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/11427995_66 87728379618abd4e6aa1e1404d9cbcbf;de;;;3.2.;;;Flexible Autorisierung in Heimnetzwerkumgebungen In Heimnetzwerkumgebungen spielt die OSGi-Plattform eine wichtige Rolle als Service-Gateway für den Zugriff auf Haushaltsgeräte. Es ist wichtig, geeignete Dienste sowie Sicherheitsmechanismen bereitzustellen, um vertrauliche oder sensible Informationen und Geräte zu schützen. Die Autorisierung ist besonders wichtig, wenn Sie den Zugriff verschiedener Benutzer kontrollieren. Die OSGi-Plattform unterstützt die rollenbasierte Zugriffssteuerung, jedoch nicht verschiedene Einrichtungen des RBAC-Modells. Um solche Mängel zu beheben, haben mehrere Arbeiten die verbesserten Zugriffskontrollmechanismen für die OSGi-Dienstplattform vorgeschlagen. Diese sind jedoch immer noch darauf beschränkt, die traditionellen RBAC-Konventionen auf die OSGi-Plattform anzuwenden. Dieses Whitepaper erweitert den bestehenden Autorisierungsmechanismus der OSGi-Plattform, um seine Einschränkungen für dynamische Bereitstellungen zu beheben. Durch das Hinzufügen des relativen Rollenkonzepts und die Aktivierung der Zugangskontrolle unter Verwendung des Delegationsmodells ermöglicht der vorgeschlagene Mechanismus eine vielfältige und hervorragende Zugangskontrolle. Wir implementieren den vorgeschlagenen Mechanismus mit aspektJ und veranschaulichen, wie ein Bundle einschließlich Zugriffskontrolllogik entwickelt wird.;-;-;-;https://link.springer.com/article/10.1007/s10586-010-0142-7 b3aa947410303acc3a43e736141f36be;de;;;3.2.;;;Modelle genetischer Regulierungsnetzwerke Dieses Kapitel bietet einen kurzen Überblick über die Modellierung genetischer Regulierungsnetzwerke (GRNs). GRNs haben eine grundlegende Anforderung, (zumindest) einige Teile eines biologischen Systems mit einer Art logischen Formalismus zu modellieren. Sie stellen die Menge aller Interaktionen zwischen Genen und ihren Produkten dar, um die zeitlichen und räumlichen Expressionsmuster einer Reihe von Genen zu bestimmen. Der Ursprung der Modellierung der Regulation der Genexpression geht zurück auf die mit dem Nobelpreis ausgezeichnete Arbeit von Lwoff, Jacob und Monod über die Mechanismen, die dem Verhalten bakterieller Viren zugrunde liegen, die zwischen sogenannten lytischen und lysogenen Zuständen wechseln. Einige der schaltungsbasierten Ansätze für GRNs wie die Arbeit von Kauffman, Thomas und Shapiro und Adam werden diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-06369-9_8 165d62e271648988fe7a85dc611fb5c0;de;;;3.2.;;;Enhanced Diversity Herds Grey Wolf Optimizer für optimale Flächenabdeckung in drahtlosen Sensornetzwerken Drahtlose Sensornetzwerke (WSNs) wurden als aufkommende Technologie angesehen und weit verbreitet eingesetzt, sahen sich jedoch auch vielen praktischen Herausforderungen gegenüber. Eine dieser Herausforderungen ist das Abdeckungsproblem, da eine hohe Abdeckungsrate eine hohe Dienstqualität des WSN gewährleistet. Dieses Papier schlägt eine neuartige Methode zur Optimierung der Sensorabdeckung vor, die auf dem Enhanced Diversity Herds Grey Wolf Optimizer (EGWO) basiert. In der vorgeschlagenen Methode werden Abdeckungsüberlappungen und -löcher von sich entfaltenden WSN zu einem mathematischen Modell für die Zielfunktion des Optimierungsproblems betrachtet. Die Qualitätsleistung der vorgeschlagenen Methode wird durch Simulation in mehreren WSN-Szenarien bewertet. Die Simulationsergebnisse im Vergleich mit anderen Methoden wie dem Grauwolf-Optimierer und dem genetischen Algorithmus zeigen, dass der vorgeschlagene Algorithmus eine gute Abdeckung und Konkurrenz erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48490-7_21 42e5332a70c4f0bdcbf5cb33df765261;de;;;3.2.;;;Parametrisiertes pfadbasiertes randomisiertes Oblivious Minimal Path Routing mit Fehlertoleranz in 2D Mesh Network on Chip Die Fehlertoleranz ist zu einem der Hauptprobleme bei Routern oder Links geworden, da die Größe der Transistor-Features schrumpft, was zu einer Gate-Skalierung im Network on Chip (NoC) führt. Es wird eine größere Anzahl von Verarbeitungselementen (PE) für die Verbindung im System auf dem Chip eingebaut, was es schwierig macht, Pakete an das Ziel zu liefern. Die Überwindung eines permanenten Fehlers kann unter Verwendung effizienter Routingalgorithmen erreicht werden, während die erneute Übertragung fehlerhafter Pakete vorübergehende Fehler im Netzwerk auflöst. Routing wäre effizient, wenn es mehrere Fehler im Pfad verarbeiten kann, während gleichzeitig die Überlastung des Netzwerks verwaltet wird. In diesem Beitrag wird ein pfadbasierter, randomisierter, minimaler Routing-Algorithmus (FTPROM) mit Fehlertoleranz vorgeschlagen. FTPROM wird von parametrisiertem PROM abgeleitet ist ein vergessenes Routing. Es verwendet Wahrscheinlichkeitsfunktionen, um mehr Diversität für die Weiterleitung im Netzwerk bereitzustellen und Staus besser zu handhaben. Das Routing folgt einem minimalen Pfad, wenn Fehler sowohl als Knoten- als auch Verbindungsfehler vorliegen. Simulationsergebnisse zeigen, dass der vorgeschlagene Algorithmus in Bezug auf Staubehandlung, Latenz und Anpassungsgrad effektiv ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28308-6_9 971d716b30c8f7e3697c9718105d23ce;de;;;3.2.;;;Interpretierbare probabilistische Einbettungen: Überbrückung der Lücke zwischen Themenmodellen und neuronalen Netzen Wir betrachten probabilistische Themenmodelle und neuere Worteinbettungstechniken aus der Perspektive des Erlernens versteckter semantischer Repräsentationen. Inspiriert von einer auffallenden Ähnlichkeit der beiden Ansätze, verschmelzen wir sie und lernen probabilistische Einbettungen mit Online-EM-Algorithmus auf Wort-Ko-Auftrittsdaten. Die resultierenden Einbettungen funktionieren bei Wortähnlichkeitsaufgaben auf Augenhöhe mit Skip-Gram Negative Sampling (SGNS) und profitieren von der Interpretierbarkeit der Komponenten. Als nächstes lernen wir probabilistische Dokumenteinbettungen, die Paragraph2vec bei einer Dokumentähnlichkeitsaufgabe übertreffen und weniger Speicher und Zeit für das Training benötigen. Schließlich verwenden wir multimodale Additive Regularization of Topic Models (ARTM), um eine hohe Sparsität zu erzielen und Einbettungen für andere Modalitäten wie Zeitstempel und Kategorien zu lernen. Wir beobachten eine weitere Verbesserung der Wortähnlichkeitsleistung und bedeutungsvolle Ähnlichkeiten zwischen den Modalitäten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-71746-3_15 176ddb8528233918b5506616cb30a1db;de;;;3.2.;;;Zur Verwendung undurchsichtiger Prädikate bei der Verschleierung des Codes von mobilen Agenten Die mobile Agententechnologie ist ein sich entwickelndes Paradigma, das die inhärenten Eigenschaften intelligenter Agenten kombiniert, nämlich Anpassungsfähigkeit, Reaktivität und Autonomie mit Mobilität. Diese Eigenschaften mobiler Agenten bieten ein hervorragendes Mittel, um die verteilten und heterogenen Anforderungen vieler militärischer Anwendungen zu erfüllen, die eine geringe Bandbreite und intermittierend verbundene Netzwerke beinhalten. In typischen militärischen Anwendungen können mobile Agenten verwendet werden, um;-;-;-;https://link.springer.com/chapter/10.1007/11427995_90 245cb613b2c90f3bbe0412d114592901;de;;;3.2.;;;Ein energieeffizientes, selbstanpassendes MAC-Protokoll für den Arbeitszyklus für verkehrsdynamische drahtlose Sensornetzwerke Eine Vielzahl von Medium Access Control (MAC)-Protokollen behandeln statischen Verkehr mit geringer Verkehrslast. Die Leistung dieser Protokolle sinkt erheblich, wenn der Netzwerkverkehr dynamisch wird oder eine hohe Verkehrslast aufweist. In diesem Papier schlagen wir ein neues MAC-Protokoll namens Self-Adaptive Duty Cycle MAC (SEA-MAC) vor, indem wir zwei adaptive Mechanismen einführen: (1) Ein Adaptive Scheduling (AS)-Mechanismus, der die aktive Dauer der Knoten an die variable Verkehrslast anpasst , wodurch es SEA-MAC ermöglicht wird, die Datenübertragung für die Sleep-Periode zuverlässig zu planen. Der Algorithmus ist dafür ausgelegt, mehr Datenübertragung bei stoßweiser und hoher Verkehrslast zu planen, wodurch eine schnelle Verbreitung von Daten und eine Reduzierung der Latenzzeiten ermöglicht wird. Bei geringer Verkehrslast wechseln die Knoten rechtzeitig in den Schlafmodus, wodurch ungenutztes Hören abgemildert und Energie gespart wird. (2) Ein selbstanpassender Arbeitszyklusmechanismus, der den Arbeitszyklus weiter anpasst und SEA-MAC an die dynamischen Verkehrslasten adaptiv macht. Bei Netzwerkerfahrung mit sehr geringer oder sehr hoher Verkehrsbelastung passt das Protokoll den Arbeitszyklus basierend auf der Verkehrsbelastung dynamisch weiter an, wodurch ein ineffizienter Arbeitszyklus oder eine Ende-zu-Ende-Verzögerung reduziert wird. Die Versuchsergebnisse zeigen, dass der SEA-MAC im Vergleich zu den AS-MAC- und RI-MAC-Protokollen hinsichtlich der Leistung für Unicast-Szenarien, insbesondere unter hoher Unicast-Verkehrslast, einen großen Fortschritt darstellt. SEA-MAC kann die durchschnittliche und maximale Ende-zu-Ende-Verzögerung um bis zu 50,90 bzw. 68,20 % reduzieren, den Energieverbrauch um bis zu 16,28 % senken und die PDR im Vergleich zu AS-MAC um bis zu 16 % steigern. SEA-MAC übertrifft RI-MAC bei der durchschnittlichen Ende-zu-Ende-Verzögerung um bis zu 80 % und bei der maximalen Ende-zu-Ende-Verzögerung um bis zu 90 % für die gesamte betreffende Verkehrsbelastung. SEA-MAC übertrifft RI-MAC im durchschnittlichen Arbeitszyklus bei mittlerer und starker Verkehrsbelastung deutlich.;-;-;-;https://link.springer.com/article/10.1007/s11277-012-0508-7 14a2bcbefe6bbc850bc21a534070d0a0;de;;;3.2.;;;Ein normbasiertes probabilistisches Entscheidungsmodell für autonome Verkehrsnetze Wir schlagen ein normbasiertes agentenorientiertes Modell der Entscheidungsfindung teilautonomer Fahrzeuge in urbanen Verkehrsszenarien vor. Computernormen werden verwendet, um die Fahrregeln und -konventionen abzubilden, die den verteilten Entscheidungsprozess der Fahrzeuge beeinflussen. Da Normen das zulässige Verhalten der Agenten einschränken, schlagen wir vor, sie als Constraints darzustellen, und wir drücken die individuelle und Gruppenentscheidungen der Agenten als verteilte Constraint-Optimierungsprobleme aus. Die Ungewissheit der Fahrumgebung spiegelt sich in unserem Modell durch probabilistische Randbedingungen wider – die kollektive Normeinhaltung wird als stochastisches verteiltes Randbedingungsoptimierungsproblem betrachtet. In diesem Beitrag stellen wir die grundlegenden konzeptionellen und algorithmischen Bestandteile unseres Modells vor, darunter die Mechanismen der Normenbereitstellung und -durchsetzung (bei Verwendung elektronischer Institutionen), die Normensemantik sowie Methoden der kooperativen Entscheidungsfindung der Agenten. Zur Motivation und Veranschaulichung unseres Ansatzes untersuchen wir ein kooperatives mehrspuriges Autobahnfahrszenario, schlagen ein formales Modell vor und veranschaulichen unseren Ansatz an einem kleinen Beispiel.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38061-7_6 1379d54639df1980458963a486632059;de;;;3.2.;;;Über eine Deadlock- und Performance-Analyse des ALBR- und DAR-Algorithmus auf der X-Torus-Topologie durch optimale Nutzung von Crosslinks und minimalen Lookups Verbindungsnetzwerke spielen eine wichtige Rolle bei der Differenzierung moderner Multiprozessorarchitekturen. Sie können nach einer Reihe von Kriterien wie Topologie, Routing-Strategie und Switching-Technik kategorisiert werden. Sie sind aus Schaltelementen aufgebaut, die Topologie ist so verpackt, dass sie kostengünstig ist und eine gute Leistung erzielt. In diesem Artikel haben wir eine bestehende X-Torus-Topologie untersucht (Gu et al. in ICCSA, LNCS, Bd. 3984, S. 149–157,;-;-;-;https://link.springer.com/article/10.1007/s11227-010-0524-x f2a0b3b7aee0331cd6307113054dbbb3;de;;;3.2.;;;Kies: Eine Kommunikationsbibliothek zu Fast Path MPI Die RDMA-Technologie (Remote Direct Memory Access) ermöglicht es, Daten vom Speicher eines Systems in den Speicher eines anderen Systems zu verschieben, ohne dass eine der CPUs beteiligt ist. Diese Fähigkeit ermöglicht eine Überlappung von Kommunikation und Berechnung, was sehr wünschenswert ist, um den kostspieligen Kommunikations-Overhead beim Cluster-Computing zu bewältigen. Dieses Papier beschreibt die vom Verbraucher initiierten und vom Hersteller initiierten Protokolle einer Begleitbibliothek für MPI namens Gravel. Gravel arbeitet mit MPI zusammen, um eine größere Überlappung zwischen Kommunikation und Berechnung zu erreichen, indem der Metadatenaustausch vom Anwendungsdatenaustausch getrennt wird, wodurch die Implementierung verschiedener Kommunikationsprotokolle auf der Anwendungsschicht ermöglicht wird. Wir demonstrieren Leistungsverbesserungen mit Gravel für eine Reihe von Kommunikationsmustern, die häufig in wissenschaftlichen Anwendungen des MPI zu finden sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87475-1_19 9f7a9ee63be15b36d70c4f27c53b7051;de;;;3.2.;;;Modellierung der Zuverlässigkeit von IT-Services im Zusammenhang mit der sozialen und wirtschaftlichen Infrastruktur einschließlich des Gesundheitswesens Informationstechnologie (IT)-Dienste wurden auf geschäftskritische Unternehmen wie Finanzunternehmen oder Telekommunikationsunternehmen angewendet. Und es werden weitere Anwendungen für die IT zur Unterstützung sozialer und wirtschaftlicher Infrastrukturen erwartet, insbesondere in Zukunft für das Gesundheitswesen. Mängel bei IT-Services werden jedoch in Zukunft stärkere negative Auswirkungen auf soziale und wirtschaftliche Aktivitäten haben, da die Risiken solcher Mängel aufgrund ihrer breiteren Anwendungsmöglichkeiten und der zunehmenden Komplexität und Größe von IT-Systemen zunehmen. In diesem Kapitel schlagen wir nach einer Bestandsaufnahme des aktuellen Stands und der Feststellung, dass trotz einer Reihe von Bemühungen, einschließlich der Verbesserung der Software- und Hardwarequalität, wenig Fortschritte beim Verständnis und der Reduzierung von Mängeln in IT-Diensten, die soziale und wirtschaftliche Aktivitäten beeinflussen, vor Ansatz zum Verständnis und Management der Zuverlässigkeit von IT-Services durch Diskussion eines Zuverlässigkeitsmodells. Das Modell besteht nicht nur aus Funktionen für die Zuverlässigkeit des Altsystems, sondern auch aus zwei Arten von Funktionen (zusätzliche Sicherheit und Sicherheitsbetrieb). Als nächstes bewerten wir die Wirksamkeit dieser beiden Arten von Funktionen in Bezug auf die IT-Zuverlässigkeit sowohl qualitativ als auch quantitativ, indem wir 42 tatsächliche Fälle von IT-Unfällen verwenden, die von der Information Technology Promotion Agency, Japan, erhoben wurden. Darüber hinaus untersuchen wir auf Grundlage der Verifizierung, wie die Verbesserung der IT-Verlässlichkeit in Verbindung mit der sozialen und wirtschaftlichen Infrastruktur, die zuvor von der Fähigkeit einzelner Ingenieure abhängig war, letztendlich durch organisatorische Aktivitäten erreicht wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32538-0_14 37139b7cbda74f159f7d8bbba7f8a5b7;de;;;3.2.;;;Design der asynchronen kollektiven Kommunikation auf Kernel-Ebene Überlappende Berechnung und Kommunikation, nicht nur Punkt-zu-Punkt, sondern auch kollektive Kommunikation, ist eine wichtige Technik, um die Leistung paralleler Programme zu verbessern. Da die gegenwärtigen nicht blockierenden kollektiven Kommunikationen hauptsächlich unter Verwendung eines zusätzlichen Threads implementiert wurden, um die Kommunikation fortzusetzen, haben sie aufgrund der Thread-Planung und Kontextumschaltung zusätzlichen Overhead. In diesem Papier wird eine neue nicht blockierende Kommunikationseinrichtung namens KACC vorgeschlagen, um eine schnelle asynchrone kollektive Kommunikation bereitzustellen. KACC ist im Betriebssystem-Kernel-Interrupt-Kontext implementiert, um nicht blockierende asynchrone kollektive Operationen ohne einen zusätzlichen Thread durchzuführen. Die experimentellen Ergebnisse zeigen, dass der CPU-Zeitaufwand dieses Verfahrens ausreichend gering ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15646-5_10 37ebbd8c9ab12a6b584032db843fc0c3;de;;;3.2.;;;Hybride lokale polynomiale Wavelet-Schrumpfung für stationäre korrelierte Daten Local Polynomial Wavelet Shrinkage Estimator (LPWS) ist eine attraktive Technik, die verwendet wird, um das bei der Wavelet-Schrumpfung vorhandene Randproblem zu bewältigen. Dieser kombinierte Schätzer scheint jedoch ziemlich empfindlich auf das Vorhandensein von korreliertem Rauschen zu reagieren. In diesem Beitrag werden die praktischen Konsequenzen dieser Sensitivität erläutert, einschließlich der Aufschlüsselung mehrerer beliebter Auswahlmethoden für Schwellenwerte. Die niveauabhängige Schwellenwertbildung von Begriff zu Begriff wurde als wirksame Lösung zur Wiederherstellung eines mit korreliertem Rauschen verunreinigten Signals untersucht. Eine Simulationsstudie wird durchgeführt, um sowohl EbayesThresh als auch die pegelabhängige Kreuzvalidierung unter einer Vielzahl von Testfunktionen, Rauschstrukturen, Signal-Rausch-Verhältnis und Stichprobengröße zu bewerten. Die Ergebnisse zeigten, dass die Schwellenwertbildung durch niveauabhängige Kreuzvalidierung vorzuziehen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25462-8_23 c48023e77c063e267e48ed9d8b5d90ea;de;;;3.2.;;;Entwurf von OSPF-Netzwerken mit unterpfadkonsistenten Routingmustern Wir adressieren das Problem des Entwurfs von IP-Netzwerken, bei denen der Datenverkehr über das OSPF-Protokoll geleitet wird. Router in OSPF-Netzwerken verwenden von einem Administrator festgelegte Linkgewichtungen, um zu bestimmen, wie der Datenverkehr weitergeleitet wird. Die Router verwenden alle kürzesten Pfade, wenn der Verkehr zu einem Ziel geleitet wird, und der Verkehr wird gleichmäßig von den Routern ausgeglichen, wenn mehrere Pfade gleich kurz sind. Wir präsentieren ein neues Modell für das OSPF-Netzwerkdesignproblem. Das Modell basiert auf Routing-Mustern und beinhaltet nicht explizit OSPF-Gewichte. Das OSPF-Protokoll wird modelliert, indem sichergestellt wird, dass alle Paare von Routing-Mustern;-;-;-;https://link.springer.com/article/10.1007/s11235-009-9162-0 f42f9a1a731e41f322aef46f5852f9ab;de;;;3.2.;;;Synchronisation im Gehirn – Bewertung durch elektroenzephalographische Signale Die Interdependenzen zwischen den Elektroenzephalogrammen mehrerer kortikaler Areale werden an erwachsenen Menschen in unterschiedlichen Versuchssituationen mit Methoden der Theorie dynamischer Systeme gemessen. Es wurde festgestellt, dass mehrere kortikale Bereiche miteinander synchronisiert sind, während das Gehirn mit einer höheren Informationsverarbeitungsaufgabe beschäftigt war. Ein weiteres Experiment zeigte, dass die interhemisphärische Synchronisation zwischen zwei zentralen Ableitungen vom Wachzustand zum Slow-Wave-Schlaf signifikant zunimmt.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45720-8_13 86d1cf61b6b751b755aa84b5937b7c40;de;;;3.2.;;;Forschung zum intelligenten Algorithmus zur Bewertung der Bildqualität basierend auf dem Bildverzerrungstyp und dem Convolutional Neural Network Um unterschiedliche Bilder unter unterschiedlichen Verzerrungsbedingungen zu erkennen, klassifiziert dieser Artikel Bildverzerrungstypen und schlägt eine Erkennung und Klassifizierung von Videobildverzerrungen basierend auf konvolutionellen neuronalen Netzen vor. Durch Segmentieren des Eingangsvideobildes, um ein kleines Blockbild zu erhalten, und anschließendes Verwenden des aktiven Lernmerkmals des konvolutionellen neuronalen Netzes werden die positiven und negativen Fälle ausgeglichen, die adaptive Lernrate wird verlangsamt und das lokale Minimumproblem wird gelöst. Der Verzerrungstyp wird hauptsächlich durch das SoftMax-Klassifiziererbild vorhergesagt, und dann wird der Videobild-Vorhersagetyp verwendet, der durch die Mehrheitswahlregel erhalten wird. Der objektive Qualitätsbewertungsalgorithmus basierend auf dem Bildverzerrungstyp und dem konvolutionellen neuronalen Netzwerk wird analysiert. Unter Verwendung von LIVE (Simulationsstandard-Bildbibliothek) und der tatsächlichen Überwachungsvideobibliothek unterscheiden sich die endgültigen genauen Ergebnisse der beiden Leistungstests nicht wesentlich. Die Gesamtklassifikationsgenauigkeitsrate ist deutlich höher als bei anderen Algorithmen. Nachdem die positive und negative Fallentzerrung und die adaptive Lernrate eingeführt wurden, hat sich herausgestellt, dass die CNN-Klassifikationsgenauigkeit signifikant verbessert werden kann. Die endgültigen Testergebnisse bestätigen auch, dass diese Methode Bildqualitätsmerkmale aktiv lernen und die Genauigkeit der Erkennung der Videobildklassifizierung verbessern kann. Es ist auf die Bildqualitätserkennung aller Videobildverzerrungsbedingungen anwendbar und weist eine starke Praktikabilität und Robustheit auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5577-0_61 dcd6e05d48beb60ef5a8cae3371f5ad4;de;;;3.2.;;;Design, Durchführung und Analyse eines Experiments zur voreingenommenen Abstimmung über das menschliche Verhalten Um zu untersuchen, ob und wie verschiedene soziale Aktivitäten und Phänomene, Netzwerkstrukturen und Anreizmechanismen menschliches Verhalten in sozialen Netzwerken beeinflussen können, führten Prof. Kearns und seine Kollegen eine Reihe von Experimenten zum menschlichen Verhalten durch [3]. Vor kurzem haben wir eines dieser Experimente namens Biased Voting wiederholt, um zu überprüfen, ob und wie die Faktoren bei chinesischen Studenten wirken. In diesem Papier haben wir nicht nur den Unterschied, den wir im Ergebnis gefunden haben, vorgestellt, sondern auch das Design und die Vorbereitung des Experiments, um einige Beiträge für Forscher zu leisten, die an solchen Experimenten interessiert sind. Wir haben unseren Quellcode und unsere Experimentdaten geteilt, damit neue Experimente schnell und einfach durchgeführt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-04048-6_3 216e2441ca66509687c879a29ef14309;de;;;3.2.;;;Das EAGLE Europeana Network of Ancient Greek and Latin Epigraphy: A Technical Perspective Das Projekt EAGLE (Europeana network of Ancient Greek and Latin Epigraphy, a Best Practice Network, das teilweise von der Europäischen Kommission finanziert wird) zielt darauf ab, epigraphisches Material aus etwa 15 verschiedenen epigraphischen Archiven (ca. zur Einnahme an Europeana. Das gesammelte Material wird auch der wissenschaftlichen Gemeinschaft und der breiten Öffentlichkeit für Forschung und kulturelle Verbreitung zur Verfügung gestellt. In diesem Beitrag werden kurz die wichtigsten Dienstleistungen von EAGLE und die Herausforderungen bei der Aggregation von Material aus heterogenen Archiven (verschiedene Datenmodelle und Metadatenschemata sowie Austauschformate) vorgestellt. EAGLE hat ein gemeinsames Datenmodell für epigraphische Informationen definiert, in das Datenmodelle aus unterschiedlichen Archiven optimal abgebildet werden können. Die Dateninfrastruktur basiert auf dem D-NET-Software-Toolkit, das Datenerfassung, Zuordnung, Bereinigung, Indexierung und Zugriffsbereitstellung über Webportale oder Standardzugriffsprotokolle bewältigen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-41938-1_8 d030bd5f380b3d94203606a3b215bdd5;de;;;3.2.;;;Rechnernetze und Verteilte Systeme Die Vernetzung von Rechnern ermöglicht die ortsübergreifende Kooperation von Anwendungsprogrammen und gewinnt immer stärker an Bedeutung. Diese Entwicklung ist zum einen durch den wachsenden Bedarf in den verschiedenen Anwendungsbereichen wie etwa Büroautomatisierung, Fertigungssteuerung, Informationsdienste oder Buchungssysteme getrieben. Zum anderen spielen der rasche Fortschritt im Bereich der Netztechnologien sowie die umfassende Verbreitung von Internet-Diensten für eine umfassende Rolle.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-86798-8_6 cb16a2a18af0eabc91da2d450f375403;de;;;3.2.;;;Konstitutionelle dynamische Chemie: Brücke von der supramolekularen Chemie zur adaptiven Chemie Die supramolekulare Chemie zielt darauf ab, hochkomplexe chemische Systeme aus molekularen Komponenten zu implementieren, die durch nicht-kovalente intermolekulare Kräfte zusammengehalten werden und molekulare Erkennungs-, Katalyse- und Transportprozesse bewirken. Ein weiterer Schritt besteht in der Untersuchung chemischer Systeme, die;-;-;-;https://link.springer.com/chapter/10.1007/128_2011_256 df9a538f8977044fe4427655a362e770;de;;;3.2.;;;Zur Frage der Anwendung von Methoden zellularer Automaten und neuronaler Netze im VLSI-Design Es wird eine vergleichende Analyse von Anwendungen von zwei konzeptionell ähnlichen Verfahren durchgeführt, die für den VLSI-Entwurf verwendet werden. Die Modelle sind die zellularen Automaten und die neuronalen Netze Spezifische Merkmale jeder Methode werden spezifiziert. Zum ersten Mal wird die End-to-End-Strategie der Anwendung der zellulären Automaten für den gesamten Design-Flow, die mit einem blockhierarchischen Ansatz korreliert, vorgeschlagen.;-;-;-;https://link.springer.com/article/10.3103/S1060992X16020065 1834a80ffc032f65dc820ebd36277d77;de;;;3.2.;;;7 Verwaltung digitaler Rechte für PIR Dieses Kapitel befasst sich mit dem Problem der Bereitstellung von Digital Rights Management (DRM) für Waren, die mittels PIR verkauft werden. Abschnitt 7.1 zeigt, dass DRM und PIR nicht perfekt koexistieren können. Darüber hinaus zeigt Abschnitt 7.2, wie die Anwendung eines einfachen DRM-Schemas die Privatsphäre der Benutzer verletzt. In Abschnitt 7.3 erstellen wir ein Protokoll, das sowohl DRM als auch die Privatsphäre der Benutzer gewährleistet. In Abschnitt 7.4 stellen wir einen Kompromiss zwischen der Qualität von DRM und der gebotenen Privatsphäre dar, wobei wir die lockere Datenschutzdefinition aus dem vorherigen Kapitel übernehmen. Abschnitt 7.6 beweist, dass eine bestimmte negative Eigenschaft des vorgeschlagenen DRM-Systems zur Wahrung der Privatsphäre unvermeidlich ist. Dieses Ergebnis ist von eigenständigem Interesse und bringt neue Einblicke in das Forschungsgebiet der elektronischen Stimmabgabe.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27770-5_7 2f0b246f88f87936bb20635624334090;de;;;3.2.;;;Ein transparentes Protokollschema basierend auf UPnP AV für allgegenwärtiges Zuhause Es gibt eine Vielzahl von AV-Geräten und Multimediainhalten im allgegenwärtigen Zuhause und die gemeinsame Nutzung von Inhalten muss eine hohe Übertragungsqualität aufweisen, indem für jeden Inhalt ein optimiertes Transportprotokoll verwendet wird. Dieses Papier präsentiert das Design und die Implementierung unseres vorgeschlagenen Schemas, das auf dem UPnP-AV-Framework basiert, das verschiedene Transportprotokolle transparent unterstützen kann. Wir haben unser vorgeschlagenes Schema validiert und bewertet und experimentelle Ergebnisse zeigen, dass es Inhalte effektiv streamen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74767-3_17 fc15e89cfa9a655c834f877e7d03c1bd;de;;;3.2.;;;Auf dem Weg zu 40 Jahren Constraint-Argumentation Die Forschung zu Einschränkungen begann in den frühen 1970er Jahren. Wir nähern uns 40 Jahren seit Beginn dieses erfolgreichen Feldes und es ist eine Gelegenheit, das Erreichte zu überarbeiten. Dieses Papier ist eine persönliche Ansicht der Errungenschaften in diesem Bereich. Wir fassen die wichtigsten Errungenschaften in drei Dimensionen zusammen: Constraint-Lösung, Modellierung und Programmierung. Besondere Aufmerksamkeit widmen wir der Constraint-Lösung, die beliebte Themen wie Suche, Inferenz (insbesondere Bogenkonsistenz), Kombination von Suche und Inferenz, Symmetrieausnutzung, globale Einschränkungen und Erweiterungen des klassischen Modells abdeckt. Auf einige Themen wurde aus Platzgründen bewusst verzichtet.;-;-;-;https://link.springer.com/article/10.1007/s13748-011-0006-2 5e6030511cf579e98480818ead622c4b;de;;;3.2.;;;Eine effiziente Erkennung von Hirntumoren mithilfe eines neuronalen Netzwerks mit adaptiver Glühwürmchen-Backpropagation mit fusionierten Funktionen Eine frühzeitige Diagnose eines Tumors erhöht die Überlebenswahrscheinlichkeit einer tödlichen Krankheit, die als Hirntumor bezeichnet wird. Die Klassifikation des Tumors aus der tumorbefallenen MRT nach dem Konzept der medizinischen Bildverarbeitung unterstützt eine bessere Therapie und Operationsplanung. Dieses Papier schlägt ein adaptives neuronales Firefly-Backpropagation-Netzwerk mit fusionierten Merkmalen zur Klassifizierung vor, das Vorverarbeitung, Merkmalsextraktion, Auswahl und Fusion umfasst, um eine hohe Klassifizierungsgenauigkeit zu erreichen. Der Vorverarbeitungsschritt verwendet den Durchschnittsfilter zum Reduzieren der Intensitätsvariation der Bilder. Die Gabor-Wavelet-Merkmalsextraktion extrahiert die Lokalität, Orientierung und Frequenz des Tumorbildes, was Texturinformationen für die Klassifizierung liefert. Die Merkmalsauswahl der Kernel-Hauptkomponentenanalyse (KPCA) wählt die kleine Teilmenge der Merkmale aus, um die Redundanz zu reduzieren und die Relevanz des Merkmals zu erhöhen. Die Gaußsche radiale Basisfunktion (GRBF) für die Merkmalsfusion liefert die differenzierten Informationen aus den mehreren Merkmalssätzen. Schließlich kann der vorgeschlagene Ansatz den Tumor nach Anwendung der Fusionsergebnisse mit hoher Genauigkeit genau klassifizieren. Die Ergebnisse werden in MATLAB simuliert und beweisen die verbesserte Genauigkeit, Sensitivität und Spezifität des klassifizierten Tumors des vorgeschlagenen Ansatzes.;-;-;-;https://link.springer.com/article/10.1007/s11042-018-6731-9 960ce3fe542412d105c5e163749bec68;de;;;3.2.;;;Glogin - Interaktive Konnektivität für das Netz Heutige Rechengitter werden hauptsächlich für die Stapelverarbeitung und das Durchsatz-Computing verwendet, bei denen Jobs in eine Warteschlange gestellt, verarbeitet und schließlich für die Post-Mortem-Analyse bereitgestellt werden. Das;-;-;-;https://link.springer.com/chapter/10.1007/0-387-23096-3_1 b3b7c1790e04cc3790f69c1632d8cd5b;de;;;3.2.;;;Szenenbeschreibung mit mehreren Objekten für Sehbehinderte mit vortrainierten Convolutional Neural Networks Dieses Papier stellt eine neue Methode zur Beschreibung von Szenen mit mehreren Objekten als Teil eines Systems vor, um Sehbehinderte in einer Innenumgebung zu führen. Hier interessiert uns eine grobe Szenenbeschreibung, bei der nur das Vorhandensein bestimmter Objekte unabhängig von ihrer Position in der Szene angezeigt wird. Das vorgeschlagene Verfahren basiert auf der Extraktion leistungsstarker Merkmale unter Verwendung von vortrainierten neuronalen Faltungsnetzen (CNN) und anschließendem Training einer neuronalen Netzregression, um den Inhalt einer unbekannten Szene basierend auf ihrem CNN-Merkmal vorherzusagen. Wir haben festgestellt, dass das CNN-Feature sehr anschaulich ist, obwohl es auf Hilfsdaten aus einer völlig anderen Domäne trainiert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-41501-7_33 6d1e19a4433eae5042b0db37750b0b56;de;;;3.2.;;;MapReduce-basierter paralleler Algorithmus zur Erkennung und Lösung von Konflikten mit Firewall-Richtlinien Da die Komplexität von Netzwerken im Laufe des Jahrzehnts so genau wächst, wird die Anzahl der Firewall-Regeln so groß, dass Konflikte zwischen den Regeln schwer zu vermeiden sind. Die Erkennung und Lösung des Richtlinienkonflikts wird zu einem wichtigen Aspekt der Netzwerksicherheit. Herkömmliche Single-Threaded-Verfahren sind für aktuelle große komplexe Netzwerke zeitaufwendig. Dieses Papier schlägt einen parallelen Algorithmus zur Erkennung und Auflösung von Firewall-Richtlinienkonflikten vor, der auf Segmentierungsstrategien basiert. Die Experimente zeigen, dass der Algorithmus viel schneller ist als Single-Thread-Methoden und für große komplexe Netzwerke geeignet ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41591-3_11 dae48abce339780c93841644fda21fc9;de;;;3.2.;;;Mobiles Campus-Navigationssystem basierend auf Shortest-Path-Algorithmus und Benutzerkollaborationen Der Hauptzweck dieses Papiers besteht darin, die Forschung und Entwicklung eines intelligenten Systems für Mobiltelefone vorzustellen, das Benutzern dabei helfen kann, den kürzesten Weg von einem Point-of-Interest zu einem anderen Point-of-Interest innerhalb der Universiti Sains Malaysia (USM) main . zu finden Campus. Es wird geforscht, um eine optimale Navigationslösung zu erhalten, deren Hauptziel darin besteht, die Berechnung des kürzesten Weges bereitzustellen. Es wurde eine mobile Anwendung auf Android-Basis entwickelt, die es dem Benutzer ermöglicht, mit minimalem Aufwand schnell einen Standort zu finden und mit anderen Benutzern zusammenzuarbeiten, um das Erlebnis der Routenplanung zu verbessern. Die vorläufige Bewertung legt nahe, dass die vorgeschlagenen Methoden und die mobile Anwendung für die Benutzer hilfreich sind, um ihren Point of Interest in kürzester Zeit zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41674-3_113 406ef8451373b4d3a69b4f289f19cf45;de;;;3.2.;;;Eine Methode zur Integration von Schnittstellen basierend auf einem Cluster-Ensemble in der Digital Library Federation In letzter Zeit gibt es in einem digitalen Bibliotheksverbund mehr Anforderungen, mehrere Abfrageschnittstellen für Benutzer in einer zu integrieren. Da verschiedene Schnittstellen verschiedene Beschreibungen für das gleiche Konzept haben und die Anzahl der Schnittstellen zahlreich ist, ist es schwierig, vollständiges und genaues Domänenwissen bereitzustellen. Daher werden die Methoden des Clusterings üblicherweise verwendet, um eine integrierte Schnittstelle zu erzeugen. Über einen gleichen Eigenschaftssatz können die Ergebnisse für das Clustering jedoch gemäß den Unterschieden der Clustering-Algorithmen oder Parametereinstellungen für denselben Algorithmus unterschiedlich sein. Dennoch konnten wir mit Hilfe des Cluster-Ensembles eine vollständigere und exaktere integrierte Schnittstelle erhalten, indem wir mehrere Clustering-Ergebnisse zusammenführen. In diesem Papier schlagen wir basierend auf dem Prinzip des Cluster-Ensembles einen einzelnen Clustering-Algorithmus vor, bei dem die Unsicherheit hinsichtlich der Zugehörigkeit einer Eigenschaft zu mehr als einer möglichen Cluster-Unterteilung während der Integration besteht. Wir schlagen auch einen Fusing-Cluster-Algorithmus vor, um ein Cluster-Ensemble zu erhalten, das die Schnittstellenintegration erfüllt und eine bessere Leistung als die bestehenden Verfahren zeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-007-7618-0_86 6205d3c3901cdde1c71b69e30186b303;de;;;3.2.;;;Effiziente Parameteroptimierung durch Kombination von direkten globalen und lokalen Suchmethoden In diesem Beitrag konzentrieren wir uns auf direkte Optimierungsverfahren, die zur Orientierung ausschließlich Zielfunktionswerte benötigen (Blindsuche). Diese Eigenschaft sorgt einerseits für Robustheit und universelle Einsetzbarkeit. Andererseits erfordert die direkte Optimierung meist einen hohen Rechenaufwand (Zielfunktionsauswertungen), um den Optimierungserfolg (Konvergenz zu einem global optimalen Bereich des Suchraums) und eine akzeptable Qualität des Optimierungsergebnisses (kleiner Approximationsfehler) sicherzustellen. Diese grundsätzlichen Nachteile der direkten Optimierung sind darauf zurückzuführen, dass keine Hilfsinformationen wie Ableitungen oder andere problemspezifische Kenntnisse ausgenutzt werden, um den Optimierungsprozess zu beschleunigen. Um die Leistung der direkten Optimierung wesentlich zu verbessern, schlagen wir eine Kombination aus probabilistischen globalen und deterministischen lokalen Optimierungsverfahren vor. Die daraus resultierende kombinierte 2-Phasen-Optimierungsstrategie hat sich als leistungsstark und effizient erwiesen. Die hervorragenden heuristischen Eigenschaften dieses Hybridverfahrens erlauben es, es als Basiskomponente einer mehrstufigen Optimierungsstrategie zu verwenden. Das Ziel der mehrstufigen Optimierung besteht darin, eine systematische Analyse der wichtigsten Extrempunkte eines gegebenen Optimierungsproblems durchzuführen. Dieser Beitrag stellt die Struktur unserer entwickelten Optimierungsalgorithmen vor. Darüber hinaus werden Ergebnisse eines umfangreichen Optimierungsexperiments präsentiert, das die Möglichkeiten, aber auch die Grenzen unserer entwickelten Methoden aufzeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-1542-4_13 8c300fe9fea63f8ccaeba4355f9ea5af;de;;;3.2.;;;Ein koreanisch-japanisch-chinesisch ausgerichtetes Wortnetz mit gemeinsamer semantischer Hierarchie Ein koreanisch-japanisch-chinesisch ausgerichtetes Wortnetz, „CoreNet“, wird eingeführt. In diesem Beitrag bezieht sich der Begriff „Wortnetz“ auf ein Netzwerk von Wörtern. Es basiert auf einer gemeinsamen semantischen Hierarchie, die von NTT Goidaikei (Lexical Hierarchical System) stammt. Koreanisches Wortnetz wurde durch die semantische Kategoriezuordnung zu jeder Bedeutung koreanischer Wörter in einem Wörterbuch konstruiert. Die Wortbedeutungen von Verben und Adjektiven werden derselben semantischen Hierarchie wie die von Substantiven zugeordnet. Jeder Sinn von Verben wird anhand von Korpora auf ihre Verwendung untersucht und mit der japanischen Übersetzung verglichen. Das chinesische Wortnetz mit der gleichen semantischen Hierarchie wurde basierend auf dem Vergleich mit dem koreanischen Wortnetz aufgebaut. Jeder Sinn des chinesischen Verbs entspricht mit seiner Argumentstruktur dem Koreanischen. Die Verwendung derselben semantischen Hierarchie für Substantive und Prädikate hat mehrere Vorteile. Erstens teilen die Oberflächenformen von Substantiven und Prädikaten die ähnliche, insbesondere in chinesischen Wörtern. Im Fall von Koreanisch und Japanisch ist die typische Formation wie „do+Noun“ auf Englisch, wie „Noun+suru“ auf Japanisch und „Noun+hada“ auf Koreanisch. Zweitens nimmt die Spracherzeugung aus konzeptuellen Strukturen die Freiheit, die Oberflächenform zu wählen, egal ob sie Nominalphrasen oder Verbphrasen wählt. CoreNet wurde nach den folgenden Prinzipien aufgebaut: Wortsinnzuordnung zum Konzept, korpusbasiert, Mehrsprachigkeit und ein Konzeptsystem für mehrere Sprachen. Der gesamte Konstruktionsablauf basiert auf wörterbuchbasiertem Bootstrapping, inkrementeller ähnlichkeitsbasierter Klassifizierung und manueller Nachbearbeitung. Unter den Betrachtungspunkten werden die folgenden eingeführt: multiples Concept Mapping, Verbalsubstantiv und Concept Splitting. Für die Mehrfachkonzeptabbildung wird ein Wort in zahlreiche Konzepte abgebildet, die jeweilige Bedeutungen des Wortes umfassen. Die Schule ist beispielsweise eine „Institution für den Unterricht von Schülern“. Das Wort Schule wird in drei Konzepte wie Standort, Organisation und Einrichtung abgebildet. Bei Verbalnomen wird ein Wort, das ein Verb ist, Konzepten zugewiesen, nachdem es in ein Nomen umgewandelt wurde. Zum Beispiel wird „write“ in seine Substantivform „writing“ umgewandelt, die in ein unter Ereignis fallendes Konzeptschreiben abgebildet wird. Zur Konzeptaufteilung kann jedes Mal, wenn eine Inkonsistenz zwischen Konzeptknoten entdeckt wird, ein Knoten hinzugefügt werden. Der Unterschied zwischen CoreNet und NTT Goidaikei besteht darin, dass CoreNet eine Zuordnung zwischen Wortbedeutungen (nicht nur Wörtern) und Konzepten ermöglicht. Diese Arbeiten dauern seit 1994.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24594-0_79 d2200445eb350b18258837dfcf4f0dee;de;;;3.2.;;;Entwicklung einer VizGrid-Volumenkommunikationsumgebung Da die Zahl der interdisziplinären Kooperationen zwischen entfernt ansässigen Forschern zunimmt, wird eine Kommunikationsumgebung mit hoher Realität als Werkzeug zur Unterstützung der Zusammenarbeit unerlässlich. Im VizGrid-Projekt haben wir ein Konzept namens Volume Communication als neues Tool zur Unterstützung der Zusammenarbeit vorgeschlagen, um ein äußerst realistisches Remote-Konferenzsystem bereitzustellen. Im Konzept Volumenkommunikation richten wir einen virtuellen Kollaborationsraum ein und stellen dreidimensionale (3D) Videobilder von Forschern an entfernten Standorten, 3D-Simulationsergebnisse und Messdaten zur Verfügung. In diesem Artikel berichten wir über die Voxel-Kommunikationsumgebung, die das Volumenkommunikationskonzept realisiert, indem alle Daten als Voxel-Datenformat behandelt werden, und bewerten experimentelle Ergebnisse der Funktionalität und Leistung dieses experimentellen Systems.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-49022-7_77 84ade154a0fb012aa2a925e5162e7f14;de;;;3.2.;;;Das englische Lehrmodell des kooperativen Lernens im Netzwerkumfeld in der beruflichen Hochschulbildung Kooperative Lerntechniken haben ihre eigenen einzigartigen Vorteile für den Lehrer und die Schüler. In diesem Beitrag wird das englische Lehrmodell des kooperativen Lernens in der Netzwerkumgebung in der beruflichen Hochschulbildung diskutiert, das auf der Theorie des kooperativen Lernens und der Theorie des computergestützten kooperativen Lernens basiert. Zunächst werden die Merkmale des computergestützten kooperativen Lernens vorgestellt und anschließend der Prozess des Englischunterrichtsmodells des kooperativen Lernens in der Netzwerkumgebung analysiert. Darüber hinaus werden die spezifischen Inhalte jedes Elements des kooperativen Lernens in der Netzwerkumgebung erörtert. Schließlich gibt es seine Vorteile und zukünftige Entwicklung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23357-9_19 423c245997558d9e5a895cf98a7f02d2;de;;;3.2.;;;Decision Tree Toolkit: Eine komponentenbasierte Bibliothek von Entscheidungsbaumalgorithmen Dieser Artikel berichtet über die Entwicklung einer Bibliothek von Entscheidungsbaumalgorithmen in Java. Das grundlegende Modell eines Entscheidungsbaumalgorithmus wird vorgestellt und dann verwendet, um die Entwurfsentscheidungen und Systemarchitekturprobleme zu rechtfertigen. Die Bibliothek ist auf Flexibilität und Anpassungsfähigkeit ausgelegt. Sein grundlegendes Ziel war ein offenes System, das problemlos Teile verschiedener konventioneller sowie neuer Algorithmen verkörpern konnte, ohne die innere Organisation des Systems im Detail kennen zu müssen. Das System verfügt über eine integrierte Schnittstelle (ClassExplorer), die zur Steuerung und Kombination von Komponenten verwendet wird, die Entscheidungsbäume umfassen. Der ClassExplorer kann „on the fly“ Objekte aus Klassen erstellen, die während der Kompilierung unbekannt sind. Schlussfolgerungen und Überlegungen zu Erweiterungen hin zu einem stärker visuellen System werden ebenfalls beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45372-5_40 a956a61419c5100c1a5f8384b0ef31e7;de;;;3.2.;;;Eine Pushdown-Transducer-Erweiterung für die OpenFst-Bibliothek Pushdown-Automaten sind Geräte, die kontextfreie Sprachen effizient darstellen können, natürlich gewichtete Versionen haben und sich natürlich mit endlichen Automaten kombinieren lassen. Wir beschreiben eine Pushdown-Transducer-Erweiterung zu OpenFst, einer gewichteten Finite-State-Transducer-Bibliothek. Wir präsentieren mehrere gewichtete Pushdown-Algorithmen, einige davon mit klaren Finite-State-Analoga, beschreiben ihre Bibliotheksnutzung und geben einige Anwendungen dieser Methoden zur Erkennung, Analyse und Übersetzung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31606-7_6 764c4eccabbf9dba8822deb65c192272;de;;;3.2.;;;Cloud-Datenintegritätsprüfung mit bilinearer Paarung und Netzwerkcodierung Heutzutage verwendet der Benutzer Cloud-Speicher, um seine Dateien zu speichern. Der Cloud-Server bietet hervorragende Cloud-Dienste, die skalierbar sind. Außerdem haben die Benutzer die Möglichkeit, ihre Datendateien mit anderen Benutzern zu teilen. Die Cloud-Dienstleister gelten als nicht zuverlässig. Da die gespeicherten Daten möglicherweise von mehreren Benutzern gemeinsam genutzt werden, bleibt die Integrität der Datei ein ernstes Problem. Von nun an wird die Prüfung der Integrität und Verlässlichkeit von Daten in der Cloud unumgänglich. Die meisten der verfügbaren Remote-Daten-Audit-Schemata validieren die Integrität der Daten, unterstützen jedoch keine Datenwiederherstellung, wenn Daten verloren gehen oder beschädigt werden. Eine auf Netzwerkcodierung basierende Codierung kann verwendet werden, um die Datenwiederherstellung zu unterstützen. In diesem Papier beabsichtigen wir ein neuartiges Fernintegritätsprüfungsschema, das zur Überprüfung der Datenintegrität verwendet werden kann und die Datenwiederherstellung erleichtert.;-;-;-;https://link.springer.com/article/10.1007/s10586-018-1805-z 4c18ca50d4e7b05171e64711bd78f271;de;;;3.2.;;;Framework für die Zuweisung von Ressourcenblöcken für mehrere Zellen Wir schlagen vor, die Beamforming-Technik mit Ressourcenblock-(RB)-Zuweisungsalgorithmen zu kombinieren, um die Leistung in OFDMA-Netzwerken zu verbessern. Bei MIMO-Antennen verbessert die Beamforming-Technik die empfangene Signalleistung, was die Kapazität des RB erhöht und die Störungen der Nachbarzellenbenutzer reduziert. Wenn die Inter-Zellen-Interferenzkanäle bekannt sind, könnten die Strahlformungsparameter auf die iterativen Planungsverfahren angewendet werden, um die Leistung der Strahlformungstechnik zu verbessern, wodurch der Gesamtsystemdurchsatz erhöht wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09465-6_3 1ea5dc5d145ba460d3092a5397457e02;de;;;3.2.;;;Supercomputing-Anwendungen Während die Stärken rekonfigurierbarer Computer in Signal- und Bildverarbeitungsanwendungen seit ihrer Einführung offensichtlich waren, haben rekonfigurierbare Beschleuniger, die heterogene Systeme auf einem Chip mit mehreren Millionen Gate-Äquivalenten verwenden, den Anwendungsbereich erweitert. Supercomputing-Anwendungen, die Gleitkommadaten verwenden, zeigen eine signifikante Geschwindigkeitssteigerung gegenüber Hochleistungs-Workstations. Durch diese Beschleuniger können auch große Datensätze verarbeitet werden, da die Bandbreite des Verbindungsnetzwerks zwischen Mikroprozessor und FPGA reduziert wird.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-26106-0_9 9e4027972f68ccda14c991adf1532537;de;;;3.2.;;;Erfahrung in der maschinenübergreifenden Softwareentwicklung: Die NAG-Bibliothek – eine Fallstudie Wenn eine zuverlässige, qualitativ hochwertige Bibliothek für numerische Algorithmen entwickelt werden soll, ist es wichtig, dass wir die Notwendigkeit der Zusammenarbeit zwischen verschiedenen technischen Gemeinschaften bei der Entwicklung der Bibliothek erkennen. Dieses Papier schlägt ein endgültiges Design für die Bibliothek vor, die Schritte, die für die Vorbereitung der Bibliothek erforderlich sind und warum separate Implementierungen der Bibliothek erforderlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-7145-5_15 ef95fd1708378aaf005e6ef3ae8e682d;de;;;3.2.;;;Ein Toolkit zur Messung der Zersiedelung Die Debatte über die Zersiedelung der Vorstädte in der Stadtforschung ist umstritten. Es ist fair zu sagen, dass das Phänomen in der akademischen, politischen oder planenden Gemeinschaft nicht vollständig verstanden wird und es eine Vielzahl von Gründen gibt, warum dies der Fall sein kann. Die Charakterisierung von Sprawl in der Literatur ist oft narrativ und subjektiv. Die Messung erfolgt stückweise und weitgehend datengesteuert. Vorhandene Studien liefern für dieselben Städte in vielen Fällen gegenteilige Ergebnisse. Die teilweise Würdigung der Feinheiten der Zersiedelung ist problematisch. In der Praxis bemühen sich Stadtplanungsbehörden und Bürgerinitiativen darum, „intelligente Wachstumsstrategien“ zur Eindämmung der Zersiedelung vorzuschlagen und zu entwickeln, ohne dass eine solide empirische Grundlage für die Messung des Phänomens vorhanden ist. Dennoch ist Sprawl bei den Verbrauchern äußerst beliebt. In diesem Papier entwickeln wir einen innovativen Ansatz zur Diagnose von Ausbreitung, indem wir das gesamte Spektrum seiner charakteristischen Merkmale in einer umfassenden Weise betrachten, die gegenüber einigen bekannten Herausforderungen robust ist. Dies erweist sich als sehr nützlich, um den Parameterraum des Phänomens zu durchsuchen, um die Visualisierung und Bewertung von Sprawl-Oberflächen über Attribute hinweg zu ermöglichen, wodurch wir den Puls einer sich entwickelnden Stadt überprüfen können. Wir wenden die Arbeit auf Austin, TX, an, ein umstrittenes Beispiel für die Zersiedelung in den USA, mit dem überraschenden Ergebnis, dass Zersiedelung und „intelligentes Wachstum“ nebeneinander existieren und sich gemeinsam entwickeln. Dies wirft Fragen über die Beziehungen zwischen den beiden auf, mit Konsequenzen für die Planung und die öffentliche Ordnung.;-;-;-;https://link.springer.com/article/10.1007/s12061-008-9000-x ea1b837e86bc302934701cab2e6973e6;de;;;3.2.;;;Aufsichtsrechtliche Kontrolle Die in diesem Kapitel betrachtete Situation ist die eines gegebenen DES, modelliert auf der ungetakteten (oder logischen) Abstraktionsebene, und dessen Verhalten durch Rückkopplungssteuerung modifiziert werden muss, um eine gegebene;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-4070-7_3 cb9060ff7e277c07a276a1235df161cc;de;;;3.2.;;;Eine neuartige Eingangskapazitätsmodellierungsmethodik für die Charakterisierung von VLSI-Standardzellenbibliotheken im Nanomaßstab Da die Technologie auf 55 nm und darunter skaliert, führt die traditionelle Modellierungsmethode der Eingangskapazität zu einer hohen Abweichung zwischen den rückannotierten Verzögerungswerten und der gemessenen Verzögerung in Silizium. Um eine so hohe Abweichung zu reduzieren, wurden in diesem Artikel neuartige Modellierungsmethoden der Eingangskapazität vorgeschlagen. Das vorgeschlagene Modell wurde über verschiedene Prozess- und Technologieknoten hinweg unter Verwendung verschiedener Testfälle verwendet, und es wurde gezeigt, dass rückkommentierte Verzögerungswerte eine gute Übereinstimmung mit der gemessenen Verzögerung in Silizium aufweisen. Der Vorschlag kann verwendet werden, um das Geräteverhalten zu verstehen, und basierend auf dem Geräteverhalten kann die Methodik verwendet werden, um die Eingabeobergrenze genau zu modellieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-42024-5_6 b14b026b63eed27d080b6d893a516cec;de;;;3.2.;;;Proteinsortierung und mit Glykolipiden angereicherte detergenzienunlösliche Komplexe in Epithelzellen Epithelzellen bilden eine Permeabilitätsbarriere zwischen der äußeren und inneren Umgebung des Körpers und sind an physiologischen Prozessen wie Sekretion, Absorption und Ionentransport beteiligt (Simons und Fuller, 1985, Rodriguez-Boulan und Nelson, 1989, Wandinger-Ness und Simons, 1991). Einfache Epithelzellen sind in einem Zellmonolayer mit einer apikalen und basolateralen Zelloberfläche organisiert, die durch Tight Junctions getrennt sind. Diese beiden Plasmamembrandomänen enthalten nicht nur unterschiedliche Proteine, sondern haben auch unterschiedliche Lipidzusammensetzungen (van Meer et al., 1987, van Meer und Burger, 1992). Das exoplasmatische Segel der apikalen Zelloberfläche ist stark mit Glykosphingolipiden (GSL) angereichert, was vermutlich einen Schutz gegen die äußere Umgebung bietet. Die Mechanismen, die an der Erzeugung und Aufrechterhaltung der Polarität der Epithelzellen beteiligt sind, wurden unter Verwendung von MDCK-Zellen (Madin-Darby Hundeniere) als Modellsystem ausführlich untersucht (McRoberts et al., 1981, Rodriguez-Boulan, 1983). Es wurde festgestellt, dass apikal und basolateral bestimmte Proteine ​​und Lipide in der;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-78846-8_11 70bf19f1dcd88ecc13367935773f00b9;de;;;3.2.;;;Ein Modell der APT-Angriffsabwehr basierend auf der Erkennung von Cyberbedrohungen Die Ziele von Advanced Persistent Threat (APT) konzentrieren sich hauptsächlich auf nationale Schlüsselinformationsinfrastrukturen, wichtige Forschungsinstitute und große kommerzielle Unternehmen, um sensible Informationen, Geschäftsgeheimnisse oder wichtige Infrastrukturen zu stehlen. Herkömmliche Schutzsysteme sind schwierig, den APT-Angriff zu erkennen, da die Methode des APT-Angriffs unbekannt und unsicher ist. Und die anhaltende Evolutionsfähigkeit zerstörte die traditionellen Schutzmethoden, die auf der Merkmalserkennung basieren. Daher basiert dieses Papier auf der Theorie der Rot-Blau-Konfrontation, um das Spielmodell von Angriff und Verteidigung zu konstruieren. Und dann kombiniert die APT-Angriffs- und Verteidigungserfahrung ein Modell, das auf der Erkennung von Cyber-Bedrohungen basiert, um mit APT-Angriffen umzugehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6621-5_10 c713ebb2cb1f0902eac077ea51f098c5;de;;;3.2.;;;Ressourcen für Seit dem Start des Genomsequenzierungsprojekts in den 1990er Jahren haben sich die biologischen Forschungsumgebungen durch die Entwicklung interdisziplinärer Bereiche zwischen Biologie und anderen Bereichen wie Chemie, Physik, Informatik, Mathematik und Ingenieurwesen dramatisch verändert. Es sind viele Hochdurchsatzsysteme verfügbar, um umfassende Analyseergebnisse zu erhalten. Als Ergebnis wächst die Akkumulation experimenteller Daten jetzt exponentiell wie Sequenzdaten in öffentlichen Datenbanken. Experimentelle Ressourcen wie Plasmidklon- und Deletionsmutantenbibliotheken sind die Produkte solcher Hochdurchsatzsysteme und gleichzeitig Triebfeder, weitere umfassende Informationen aus experimentellen Analysen zu gewinnen. In diesem Manuskript fassen wir die Situation bezüglich der experimentellen Ressourcen zusammen und wie sie zu Biologiegebieten beigetragen haben, insbesondere in der 21. neuen Generation der Biologie, wie der Systembiologie.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-9394-4_5 206f2f3b07b127762095e02bc6d74403;de;;;3.2.;;;Das digitale Bibliothekssystem SOMLib Digitale Bibliotheken haben mit mehreren Forschungsprojekten, die sich mit der Fülle der Herausforderungen in diesem Bereich befassen, enormes Interesse geweckt. Während für spezifische Aufgaben in diesem Bereich Computational Intelligence-Systeme eingesetzt werden, setzt die Mehrzahl der Projekte auf konventionelle Techniken für die Grundstruktur der Bibliothek selbst. Mit dem Projekt SOMLib haben wir ein digitales Bibliothekssystem geschaffen, das einen neuronalen Netzwerk-basierten Kern für die Darstellung der Bibliothek verwendet. Die selbstorganisierende Karte, ein beliebtes Modell für unüberwachte neuronale Netze, wird verwendet, um eine Dokumentensammlung thematisch ähnlich der Organisation von realen Bibliotheken zu strukturieren. Basierend auf diesem Kern bieten zusätzliche Module Funktionen zur Informationsbeschaffung, integrieren verteilte Bibliotheken und beschriften automatisch die verschiedenen Themenbereiche in der Dokumentensammlung. Eine auf Metaphern basierende grafische Benutzeroberfläche unterstützt den Benutzer außerdem beim intuitiven Verstehen der Bibliothek und bietet einen sofortigen Überblick.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48155-9_21 b498d2e7d237839ea683649cf7c174e7;de;;;3.2.;;;Kollaboratives Polling-Schema zum Erkennen und Isolieren der kolluierenden Paket-Dropper in mobilen Ad-hoc-Netzwerken In mobilen Ad-hoc-Netzwerken ist die Zusammenarbeit zwischen den Knoten unerlässlich, um Routen zu entdecken und aufrechtzuerhalten. Die Knotenkooperation ist aufgrund der sich schlecht verhaltenden Knoten, die aufgrund ihrer eingeschränkten Ressourcen wie Batterie, Bandbreite und Rechenleistung existieren, nicht immer garantiert. Wenn der Knoten ein Fehlverhalten kollabiert, erschwert dies den Routing-Prozess aufgrund der häufigen Netzwerkpartitionierung und führt zu einer Verschlechterung des gesamten Netzwerkdurchsatzes. Dieses Papier befasst sich mit drei verschiedenen Arten von Fehlverhalten beim Ablegen von Paketen und schlägt ein kollaboratives Abfrageschema vor, um die kolludierenden Paketabbrecher zu erkennen und zu isolieren. Das Simulationsergebnis zeigt, dass die Paketverlustrate, der böswillige Paketverlust und die Fehlerkennung im Vergleich zum bestehenden System sowohl im Mobilitätsszenario der Einheit als auch der Gruppe stark reduziert wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22540-6_2 15aaf668d9e41a85d0da46ed06f7adcf;de;;;3.2.;;;Automatische und transparente Optimierungen der MPI-Kommunikation einer Anwendung HPC-Benutzer entwickeln und führen ihre MPI-Programme häufig ohne Optimierung der Kommunikation aus, was zu einer schlechten Leistung auf Clustern führt, die mit regulärem Gigabit-Ethernet verbunden sind. Leider verringert die Optimierung von Kommunikationsmustern häufig die Klarheit und die einfache Änderung des Codes, und Benutzer möchten sich auf das Anwendungsproblem konzentrieren und nicht auf das Werkzeug, mit dem es gelöst wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75755-9_26 6064e7ab23e6f986426382b8c66cda0c;de;;;3.2.;;;Wiederkehrende Insertion und Duplizierung erzeugen Netzwerke von transponierbaren Elementsequenzen im Die jüngste Verfügbarkeit von Genomsequenzen hat beispiellose Einblicke in die breit angelegten Muster von Transposable Element (TE)-Sequenzen in eukaryontischen Genomen geliefert. Dennoch haben die Schwierigkeiten, die TEs für den Genomaufbau und die Annotation darstellen, detaillierte, quantitative Rückschlüsse auf den Beitrag von TEs zu Genomsequenzen verhindert.;-;-;-;https://link.springer.com/article/10.1186/gb-2006-7-11-r112 c7e9e97e1d6e78cc196dd803cd32750b;de;;;3.2.;;;Objektorientiertes paralleles Programmiermodell in einem Netzwerk von Workstations Paralleles Rechnen in einem Netzwerk von Workstations erhält viel Aufmerksamkeit von der Forschungsgemeinschaft. Dennoch ist sie mit vielen praktischen Schwierigkeiten konfrontiert. Eines der Hauptprobleme ist das Fehlen eines High-Level-Programmiermodells. Viele Programmiersprachen stellen ein effizientes System bereit, verwenden jedoch ein relativ niedriges Programmiermodell und sind eher zu komplex, um in einer Netzwerkumgebung verwendet zu werden. Das objektorientierte Systemparadigma in der Softwareentwicklung findet breite Akzeptanz und unterstützt den Aufbau modularer und wiederverwendbarer Programmkomponenten und ist attraktiv für den Entwurf großer und komplexer Serienprogramme. Um das oben genannte Problem anzugehen, präsentieren wir in diesem Papier ein flexibles, einfach zu verwendendes und effektives objektorientiertes paralleles Programmiermodell durch die Verschmelzung des Objektorientierungsparadigmas und der Parallelität. Es wird auf PVM entwickelt. Dieses Modell weist einen sehr bequemen und natürlichen Programmierstil auf und bietet ähnliche Funktionen wie C++.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44864-0_104 f614bd5ff0544c4a8fa6517e8a4be691;de;;;3.2.;;;Visualisierung des Hostverhaltens für die Netzwerksicherheit Die Überwachung des Hostverhaltens in einem Netzwerk ist eine der wichtigsten Aufgaben im Bereich Netzwerküberwachung und -sicherheit, da immer mehr Schadcode im wilden Internet die Netzwerkinfrastruktur ständig bedroht. In diesem Artikel stellen wir ein visuelles Analysetool vor, das das Verhalten von Netzwerk-Hosts durch Positionsänderungen in einem zweidimensionalen Raum unter Verwendung eines kraftgerichteten Graph-Layout-Algorithmus visualisiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-78243-8_13 2c3c2e0b9ad7ab50cb784069e7ded181;de;;;3.2.;;;Zur Gaußschen Approximation von Mehrkanalnetzen mit Eingangsflüssen allgemeiner Struktur In diesem Beitrag wird ein Mehrkanal-Warteschlangennetzwerk mit Eingangsfluss einer allgemeinen Struktur betrachtet. Der mehrdimensionale Serviceprozess wird als Anzahl der Kunden an Netzknoten eingeführt. Im stark frequentierten Regime wird ein funktionaler Grenzwertsatz vom Typ der Diffusionsnäherung unter der Bedingung bewiesen, dass die Eingangsflüsse in der einheitlichen Topologie gegen ihre Grenzen konvergieren. Ein Grenz-Gauß-Prozess wird konstruiert und seine Korrelationseigenschaften werden explizit über die Netzwerkparameter dargestellt. Als Sonderfall des allgemeinen Modells wird ein Netzwerk mit inhomogenem Poisson-Eingabefluss untersucht und ein entsprechender Gaußscher Grenzwertprozess erstellt.;-;-;-;https://link.springer.com/article/10.1007/s10958-019-04194-0 d2219700b1a357ec7f4243f9cdb415c1;de;;;3.2.;;;Entwurf und Analyse von Low-Power-Zugangsprotokollen für drahtlose und mobile ATM-Netzwerke Dieses Papier beschreibt den Entwurf und die Analyse eines stromsparenden Medium Access Control (MAC) Protokolls für drahtlose/mobile ATM-Netzwerke. Das Protokoll – EC-MAC (Energy Conserving Medium Access Control) genannt – wurde entwickelt, um verschiedene Verkehrsarten mit Dienstgüte-Bestimmungen (QoS) zu unterstützen. Das Netzwerk basiert auf dem Infrastrukturmodell, bei dem eine Basisstation (BS) alle derzeit in ihrer Zelle befindlichen Mobiltelefone bedient. Es wird ein reservierungsbasierter Ansatz mit geeigneter Planung der Anfragen von den Mobiltelefonen vorgeschlagen. Diese Strategie wird verwendet, um die doppelten Ziele des reduzierten Energieverbrauchs und der Qualität der Dienstbereitstellung über drahtlose Verbindungen zu erreichen. Ein Prioritäts-Round-Robin mit dynamischer Reservierungsaktualisierung und Fehlerkompensations-Planungsalgorithmus wird verwendet, um die Übertragungsanforderungen der Mobiltelefone zu planen. Diskrete Ereignissimulation wurde verwendet, um die Leistung des Protokolls zu untersuchen. Ein Vergleich des Energieverbrauchs des EC‐MAC mit einer Reihe anderer Protokolle wird bereitgestellt. Dieser Vergleich zeigt, dass der EC-MAC im Allgemeinen bessere Energieverbrauchseigenschaften aufweist. Es wird eine Leistungsanalyse des vorgeschlagenen Protokolls in Bezug auf verschiedene Dienstgüteparameter unter Verwendung von Video-, Audio- und Datenverkehrsmodellen bereitgestellt.;-;-;-;https://link.springer.com/article/10.1023/A%3A1019152506607 545fdbff75dd2ef457f1ed7f013e4c2f;de;;;3.2.;;;Studie zur Vorhersage des Urbanisierungsgrades basierend auf dem neuronalen Netzwerk GA-BP In diesem Papier erstellen wir ein Bewertungsindexsystem des Urbanisierungsniveaus. Die drei Hauptfaktoren und der umfassende Faktorwert werden durch Faktorenanalyse erhalten. Das Vorhersagemodell mit drei Variablen der Urbanisierungsebene bzw Vorhersagegenauigkeit schließlich nutzen wir das Modell, um eine kurzfristige Vorhersage für den Urbanisierungsgrad von Tianjin zu treffen.;-;-;-;https://link.springer.com/chapter/10.2991/978-94-6239-102-4_105 4875c74dc97d276c07e6f02b3858a4e2;de;;;3.2.;;;Entwirrung der Zellwandbildung im holzigen Dikotylenstamm wird als Modellsystem zur Untersuchung der Holzbildung (Xylogenese) vorgestellt. Die Bildung von Holz (sekundäres Xylem) ist ein geordneter Entwicklungsprozess mit Zellteilung, Zellexpansion, Sekundärwandablagerung, Verholzung und programmiertem Zelltod. Da Holz in einer variablen Umgebung gebildet wird und der Entwicklungskontrolle unterliegt, werden Xylemzellen produziert, die sich in Größe, Form, Zellwandstruktur, Textur und Zusammensetzung unterscheiden. Hormone vermitteln einen Teil der beobachteten Variabilität und kontrollieren den Prozess der Xylogenese. Eine hochauflösende Analyse der Auxinverteilung in Geweben der Kambialregion, kombiniert mit der Analyse transgener Pflanzen mit modifizierter Auxinverteilung, legt nahe, dass Auxin Positionsinformationen für den Austritt von Zellen aus dem Meristem und wahrscheinlich auch für die Dauer der Zellexpansion liefert. Pappelsequenzierungsprojekte haben den Zugang zu Genen ermöglicht, die an der Zellwandbildung beteiligt sind. Gene, die an der Biosynthese des Kohlenhydratskeletts der Zellwand beteiligt sind, werden kurz beschrieben. Die meisten Fortschritte wurden bei der Charakterisierung von Pektinmethylesterasen erzielt, die Pektin in der Kambialregion modifizieren. Auch für Expansine, Xyloglucan-Endotransglycosylasen und Cellulosesynthasen wurden spezifische Expressionsmuster gefunden, die auf ihre Rolle bei der Bildung und Modifikation von Holzzellwänden hinweisen. Schließlich wurden durch die Untersuchung transgener Pflanzen, die in verschiedenen Schritten des Monolignol-Biosynthesewegs modifiziert wurden, und durch die Lokalisierung der Expression verschiedener Enzyme neue Einblicke in die Ligninbiosynthese gewonnen;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0668-2_15 de237f68e2b616d2dd7b3841417e80c7;de;;;3.2.;;;Abrufen der digitalen Tsunami-Bibliothek mithilfe von Mobiltelefonen Wir entwickeln eine Tsunami Digital Library (TDL), die Dokumente über Tsunami, Tsunami-Simulationen, Zeitungsartikel, Felddaten usw. speichern und verwalten kann Anwendungen. Für die Ausbildung verwenden wir Mobiltelefone, um TDL abzurufen, da wir Küstenregionen laufen müssen. Anschließend haben wir Zusammenfassungen von Dokumenten und Zeitungsartikeln in TDL aufbereitet und auch Abfragesysteme für den Handyabruf entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74851-9_59 f00fa534728af5d20e4b049b48c5a3fd;de;;;3.2.;;;Robustes anonymes Authentifizierungsprotokoll für Anwendungen im Gesundheitswesen mit drahtlosen medizinischen Sensornetzwerken Mit der schnellen Entwicklung von drahtlosen Kommunikationstechnologien und Halbleitertechnologien wurde das drahtlose Sensornetzwerk (WSN) in vielen Anwendungen weit verbreitet. Als Anwendung des WSN könnte das Wireless Medical Sensor Network (WMSN) die Qualität der Gesundheitsversorgung verbessern und hat im modernen Medizinsystem an Bedeutung gewonnen. Im WMSN werden physiologische Daten von Sensoren erfasst, die im Körper des Patienten eingesetzt werden, und über drahtlose Kommunikation an die Mobilgeräte des Gesundheitspersonals gesendet. Dann könnten Angehörige der Gesundheitsberufe den Status des Patienten überall und jederzeit abrufen. Die von Sensoren gesammelten Daten sind sehr sensibel und wichtig. Deren Durchsickern könnte die Privatsphäre des Patienten gefährden und ihre böswillige Änderung könnte der Gesundheit des Patienten schaden. Daher sind sowohl Sicherheit als auch Datenschutz zwei wichtige Themen in WMSNs. Kürzlich haben Kumar et al. schlug ein effizientes Authentifizierungsprotokoll für Gesundheitsanwendungen mit WMSNs vor und behauptete, dass es verschiedenen Angriffen standhalten könnte. Wir stellen jedoch fest, dass ihr Protokoll anfällig für den Offline-Passwortratenangriff und den privilegierten Insiderangriff ist. Wir weisen auch darauf hin, dass deren Protokoll keine Anonymität der Benutzer gewährleisten kann. In diesem Papier werden wir ein robustes anonymes Authentifizierungsprotokoll für Gesundheitsanwendungen mit WMSNs vorschlagen. Verglichen mit dem Protokoll von Kumar et al. weist das vorgeschlagene Protokoll eine hohe Sicherheit und Recheneffizienz auf. Daher eignet es sich eher für Anwendungen im Gesundheitswesen, die WMSNs verwenden.;-;-;-;https://link.springer.com/article/10.1007/s00530-013-0346-9 1acfc3f8a95c545bfdb92de157f2006d;de;;;3.2.;;;Eine objektorientierte Bibliothek für Evolutionsprogramme In diesem Beitrag stellen wir eine objektorientierte Bibliothek für Evolutionsprogramme vor, die an der Technischen Universität Tschenstochau entwickelt wurde. Das vorgestellte Paket enthält eine Reihe von C++-Klassen, die es ermöglichen, verschiedene Datenstrukturen und Algorithmen für evolutionäre Berechnungen zu erstellen. Diese Bibliothek unterstützt einen optimierten Kernel und eine flexible Benutzeroberfläche. Seine Hauptmerkmale werden am Beispiel der Anwendung auf das Problem der Netzaufteilung veranschaulicht.;-;-;-;https://link.springer.com/chapter/10.1007/1-4020-2267-0_33 eaea9e90fbd492cb54d6f163c95cee6f;de;;;3.2.;;;Parallele Implementierung des Backpropagation-Algorithmus auf Hypercube-Systemen Backpropagation ist ein überwachtes Lernverfahren für eine Klasse künstlicher neuronaler Netze, das in letzter Zeit weit verbreitet beim Trainieren solcher neuronaler Netze verwendet wurde, um relativ nichttriviale Aufgaben wie Text-zu-Sprache-Umwandlung oder autonome Landfahrzeugsteuerung auszuführen. Die langsame Konvergenzrate des Backpropagation-Algorithmus hat jedoch seine Anwendung auf ziemlich kleine Netzwerke beschränkt, und verschiedene Forscher haben parallele Versionen auf einer Anzahl verschiedener paralleler Plattformen implementiert. Diese Arbeit präsentiert experimentelle Beschleunigungsleistungsergebnisse einer parallelen Implementierung des Backpropagation-Lernalgorithmus auf einem Intel iPSC/2 Hypercube-Parallelprozessor für so bekannte neuronale Netze wie NETTalk und extrapolierte Beschleunigungsergebnisse für große Hyperwürfelsysteme von analytic Leistungsmodelle der Implementierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-58066-6_17 949be749608220253ce1f4faaf9c4df0;de;;;3.2.;;;Variantenbehandlung, Vererbung und Komposition in der ObjectMath-Computeralgebra-Umgebung ObjectMath ist eine High-Level-Programmierumgebung und Modellierungssprache für wissenschaftliches Rechnen, die Varianten und grafisches Browsen in der Umgebung unterstützt und objektorientierte Konstrukte wie Klassen und Einzel- und Mehrfachvererbung in eine Computeralgebrasprache integriert. Darüber hinaus wird die Zusammensetzung von Objekten unter Verwendung der Teil-von-Beziehung und die Unterstützung bei der Lösung von Gleichungssystemen bereitgestellt. Diese Umgebung wird derzeit für industrielle Anwendungen im wissenschaftlichen Rechnen verwendet. Die ObjectMath-Umgebung wurde entwickelt, um realistische Probleme zu behandeln. Dies wird dadurch erreicht, dass der Benutzer Transformationen und Vereinfachungen von Formeln im Modell vorgeben kann, um zu einer effizient lösbaren Darstellung zu gelangen. Bei Bedarf können Gleichungen für eine effiziente numerische Lösung in C++-Code umgewandelt werden. Die Wiederverwendung von Gleichungen durch Vererbung reduziert die Modelle im Allgemeinen um den Faktor zwei bis drei, verglichen mit einer direkten Darstellung in der Computeralgebrasprache Mathematica. Außerdem haben wir festgestellt, dass die Mehrfachvererbung von orthogonalen Klassen die Wiederverwendung und Wartung von Anwendungsmodellen erleichtert.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0013175 b82ae70c28520026dee51f02832c3534;de;;;3.2.;;;Fliegen über die Realitätslücke: Vom simulierten zum echten Indoor-Luftschiff Aufgrund ihrer Fähigkeit, auf natürliche Weise in der Luft zu schweben, sind Indoor-Luftschiffe (oft als Blimps bezeichnet) eine attraktive Plattform für die Forschung in der Luftrobotik. Bei langwierigen Experimenten wie Lern- oder Evolutionstechniken haben Luftschiffe jedoch den Nachteil, dass sie nicht an externe Stromquellen angeschlossen werden können und aufgrund ihres geringen Gewichtsbudgets tendenziell wenig mechanischen Widerstand aufweisen. Eine Lösung für dieses Problem ist die Verwendung eines realistischen Flugsimulators, der auch die Versuchsdauer erheblich verkürzen kann, indem er schneller als in Echtzeit läuft. Dies erfordert ein effizientes Verfahren zur physikalisch-dynamischen Modellierung und Parameteridentifikation, die kompliziert zu entwickeln sind und normalerweise auf kostspielige Einrichtungen wie Windkanäle angewiesen sind. In diesem Beitrag präsentieren wir eine einfache und effiziente physikbasierte dynamische Modellierung von Indoor-Luftschiffen einschließlich einer pragmatischen Methodik zur Parameteridentifikation ohne die Notwendigkeit komplexer oder kostspieliger Testeinrichtungen. Unser Ansatz wird mit einem bestehenden Luftschiff in einer visionsbasierten Navigationsaufgabe getestet. Neuronale Controller werden in der Simulation entwickelt, um visuelle Eingaben in Motorbefehle abzubilden, um den Flugroboter so schnell wie möglich vorwärts zu lenken und gleichzeitig Kollisionen zu vermeiden. Nach der Evolution werden die besten Individuen erfolgreich in das physische Luftschiff transferiert, was experimentell die Effizienz des vorgeschlagenen Ansatzes demonstriert.;-;-;-;https://link.springer.com/article/10.1007/s10514-006-9718-8 58e284b059bd149f3a226c228a200f93;de;;;3.2.;;;Netzwerkereigniserkennung Netzwerkprotokolle können getestet werden, indem Kommunikationspakete erfasst, zu High-Level-Events zusammengefügt und mit einer endlichen Zustandsmaschine verglichen werden, die den Protokollstandard beschreibt. Dieser Prozess, den wir nennen;-;-;-;https://link.springer.com/article/10.1007/s10703-005-3398-4 4c2647006f6aa98d33dbf8929d3a68b2;de;;;3.2.;;;Ereignismodelle für die Tumorklassifizierung mit SAGE-Genexpressionsdaten Die serielle Analyse der Genexpression (SAGE) ist eine relativ neue Methode zur Überwachung der Genexpressionsniveaus und soll durch eine präzise und frühzeitige Diagnose wesentlich zum Fortschritt in der Krebsbehandlung beitragen. Eine vielversprechende Anwendung von SAGE-Genexpressionsdaten ist die Klassifizierung von Tumoren. In diesem Papier bauen wir drei Ereignismodelle (das multivariate Bernoulli-Modell, das multinomiale Modell und das normalisierte multinomiale Modell) für die SAGE-Datenklassifizierung auf. Es werden sowohl die binäre Klassifikation als auch die Mehrkategorieklassifikation untersucht. Experimente mit zwei SAGE-Datensätzen zeigen, dass das multivariate Bernoulli-Modell bei kleinen Merkmalsgrößen gut abschneidet, das Multinom jedoch bei großen Merkmalsgrößen besser abschneidet, während das normalisierte Multinom bei mittleren Merkmalsgrößen gut abschneidet. Das Multinom erreicht die höchste Gesamtgenauigkeit.;-;-;-;https://link.springer.com/chapter/10.1007/11758525_104 faff8ac705d9b8448fb9ac0a7ebde417;de;;;3.2.;;;ADIAN: Ein verteiltes intelligentes Ad-hoc-Netzwerk Mobile Ad-hoc-Netzwerke sind Netzwerke mit dynamischer Topologie ohne feste Infrastruktur. Um Informationen in Ad-hoc-Netzwerken zu übertragen, benötigen wir robuste Protokolle, die mit ständigen Änderungen der Netzwerktopologie zurechtkommen. Die bekannten Routing-Protokolle für mobile Ad-hoc-Netzwerke können in zwei Hauptkategorien eingeteilt werden: proaktive Routing-Protokolle und reaktive Routing-Protokolle. Proaktive Routing-Protokolle halten die Routen auf dem neuesten Stand, um Verzögerungen bei Echtzeitanwendungen zu reduzieren, haben jedoch einen hohen Steuerungsaufwand. Der Steuerungsaufwand bei reaktiven Routingprotokollen ist viel geringer als bei proaktiven Routingprotokollen, jedoch werden die Routen bei Bedarf erkannt, was für Echtzeitanwendungen nicht geeignet ist. In diesem Beitrag haben wir ein neues Routingsystem für mobile Ad-hoc-Netzwerke namens ADIAN vorgestellt, das auf den Konzepten der verteilten künstlichen Intelligenz (DAI) basiert. In ADIAN agiert jeder Knoten als unabhängiger und autonomer Agent, der mit anderen Agenten im System zusammenarbeitet. Unsere experimentellen Ergebnisse haben die Effizienz und Robustheit von ADIAN unter dynamischen Bedingungen von Ad-hoc-Netzwerken bestätigt.;-;-;-;https://link.springer.com/chapter/10.1007/11947950_3 826f4af55664cb9b55b7a0914ec24de0;de;;;3.2.;;;Ein sicheres und effizientes Mikrozahlungssystem In diesem Papier analysieren wir einige Schlüsselfragen in Bezug auf Systeme zur Verarbeitung von Internet-Mikrozahlungen. Im Mittelpunkt steht die Abwägung zwischen Sicherheits- und Kostenüberlegungen. Ein Satz von Kriterien vorgeschlagen, gegen die eine Reihe von bisher vorgeschlagenen und derzeit in Betrieb Micropayment-Systeme überprüft werden. Wir schlagen auch ein Modell namens WebCoin vor, das eine Reihe von Innovationen enthält, die die derzeit verwendeten Mikrozahlungssysteme verbessern können.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-8741-7_12 19ca9001d8af20e508c19692fdf7ca24;de;;;3.2.;;;Eine Überprüfung der Simulationstools für drahtlose Sensornetzwerke Simulationsergebnisse hängen nicht nur von der Umgebung ab, sondern auch von den Annahmen der physikalischen Schicht, die nicht so genau sind. Obwohl dieses Problem besteht, ist die Simulation immer noch ein guter Ansatz für den Einsatz realer Sensoren. In diesem Beitrag werden verschiedene gängige Simulationstools für drahtlose Sensornetzwerke verglichen und die Vor- und Nachteile verschiedener Simulationstools analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8086-4_20 587b75c00660f71e2426e48d8f201403;de;;;3.2.;;;Ein schneller nutzlastbasierter Ansatz zur Identifizierung des Datenverkehrs in sozialen Netzwerken Mit der schnellen Entwicklung sozialer Netzwerke nimmt der Verkehr in sozialen Netzwerken erheblich zu, was es für die gängige Netzverwaltungssoftware und das Verkehrsidentifizierungsgerät schwierig macht, den Verkehr in sozialen Netzwerken zu identifizieren und zu verwalten. In diesem Papier wurden drei dominante soziale Netzwerkverkehre als Forschungsobjekte verwendet und ein effektiver Ansatz zur Identifizierung von sozialen Netzwerkverkehr wurde durch eine eingehende Analyse der Nutzlasteigenschaften vorgeschlagen. Außerdem wurde MapReduce verwendet, um die Identifizierung zu beschleunigen. Die experimentellen Ergebnisse zeigten, dass dieser Ansatz eine schnelle und genaue Identifizierung des Verkehrs mit sozialen Zugängen ermöglichen könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11104-9_137 a693554c934e5b7f2f2806d5a4f425a8;de;;;3.2.;;;Eine Text-Mining-Analyse der gemeinsamen Erklärung zwischen den USA und China im Jahr 2009 basierend auf dem Netzwerk In den letzten Jahren wurde der Analyse der Beziehungen zwischen den USA und China viel Forschung gewidmet. Allerdings haben nur wenige die Inhaltsanalyse der gemeinsamen Erklärungen beider Länder eingesetzt, um die Veränderung der Beziehung in unterschiedlichen Zeiträumen zu erfassen. Tatsächlich ist es für akademische Forscher und politische Entscheidungsträger unerlässlich, den Trend der Beziehungen zwischen den USA und China zu verstehen. In diesem Beitrag analysieren wir die Entwicklung der amerikanisch-chinesischen Beziehungen anhand der Anwendung der Text-Mining-Analyse auf gemeinsame Stellungnahmen im Jahr 2009. Der Beitrag der Studie umfasst die folgenden zwei Punkte. Erstens hat die Studie den Schwerpunkt der gemeinsamen Stellungnahme gefunden. Zweitens findet die Studie einen neuen Weg der Literaturrecherche in der Diplomatie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23345-6_109 fc1ebadbf6103e41dd02b0c8ba623e98;de;;;3.2.;;;Ein paralleler Debugger mit Unterstützung für verteilte Arrays, mehrere ausführbare Dateien und dynamische Prozesse In diesem Beitrag stellen wir den parallelen Debugger DETOP mit besonderem Schwerpunkt auf der neuen Unterstützung für das Debuggen von Programmen mit verteilten Datenstrukturen wie Arrays, die auf mehrere Prozessoren verteilt wurden, vor. Der neue Array Visualizer in DETOP unterstützt transparentes Browsen und Visualisieren von verteilten Arrays, die in Sprachen wie High Performance Fortran vorkommen. Die Visualisierung von Sparse-Arrays wird durch eine Array-Mapper-Funktion unterstützt, ebenso wie die transparente Visualisierung von manuell partitionierten Arrays für Anwendungen in C oder Fortran77. Die Farbcodierung macht die Visualisierung ausdrucksstarker und leichter lesbar.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-61053-7_72 cc0b2123233634a501ffd054b069cf62;de;;;3.2.;;;RoboSim: Ein Multimode-3D-Simulator zum Studium der Zusammenarbeit mit mobilen Robotern In diesem Kapitel wird der Entwurf und die Entwicklung eines interaktiven 3D-Robotersimulators als Plattform zur Untersuchung des kooperativen Roboterverhaltens beschrieben. Der Simulator bietet eine visuell realistische 3D-Welt mit simulierten Roboteragenten und geografischem Gelände, um die Leistung von Robotern in verschiedenen Szenarien zu bewerten. Der Simulator wurde in C++ unter Verwendung von Open-Source-Paketen entwickelt, was zu einem modularen und kostengünstigen Paket führte. Die Modellierung und Simulation von Roboterfahrzeugen, Gelände, Sensoren und Verhalten werden vorgestellt. Künstlich-intelligentes Agentenverhalten in kooperativen Roboterszenarien wurde mit dem Simulator entwickelt und getestet und die Ergebnisse präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73424-6_11 f59a08ed37643d47f2acd79f55afb8f5;de;;;3.2.;;;Trümmersimulationsorientierte dreidimensionale Landschaftsmodellierung und Rendering Die 3D (dreidimensionale) Prozesssimulation ist derzeit eines der anspruchsvollsten Forschungsgebiete im Murgang. Das großmaßstäbliche Geländerendering ist die grundlegendste Aufgabe des 3D-Landschaftsbaus in der Murgangsimulation. Als Hauptauslöser für Murgänge werden Regenfälle das realistische Gefühl erheblich verbessern. Gelände- und Niederschlagsdarstellung in 3D Murgangsimulationen stellt große Herausforderungen an die numerische Berechnung und die grafische Verarbeitungsfähigkeit. In diesem Beitrag schlagen wir vor, GPU-Technologie, LoD-Algorithmen und Partikelsysteme zu integrieren, um 3D-Szenerie-Modellierung und -Rendering zu realisieren. Zuerst wird der LoD-basierte Geländemodellierungs- und Rendering-Algorithmus in Echtzeit vorgestellt, und dann wird ein partikelsystembasiertes Regenszenen-Rendering-Verfahren implementiert. Experimentelle Ergebnisse zeigen, dass die mit dem vorgeschlagenen Ansatz gerenderte 3D-Szenerie eine solide Leistung und angemessene visuelle Effekte aufweist, was eine solide Grundlage für die gesamte Prozesssimulation von Murgangkatastrophen bildet.;-;-;-;https://link.springer.com/article/10.1007/s11806-011-0489-9 3514f644cd01ad2782ce8009c7df720a;de;;;3.2.;;;Verbesserung der Fähigkeiten mobiler Geräte in Netzwerken mit geringer Bandbreite mit Cloud Computing In letzter Zeit haben sich Smartphones zu umfangreichen Anwendungen wie Videobearbeitung und Gesichtserkennung entwickelt. Diese Arten von Anwendungen benötigen viel Rechenleistung, Speicher und Batterie. Viele Forschungen lösen dieses Problem, indem sie Anwendungen aufgrund ihrer intensiven Speicher- und Rechenressourcen in die Cloud auslagern. Keine der verfügbaren Lösungen berücksichtigt jedoch den Fall geringer Bandbreite der Netzwerke sowie den Kommunikations- und Netzwerk-Overhead. In diesem Fall wäre es effizienter, die Anwendung lokal auf dem Smartphone auszuführen, anstatt sie in die Cloud auszulagern. In diesem Papier schlagen wir ein neues Framework vor, um das Offloading schwerer Anwendungen in Netzwerkfällen mit geringer Bandbreite zu unterstützen, wobei ein Komprimierungsschritt zugunsten der Minimierung der Offloading-Größe und -Zeit vorgeschlagen wird. In diesem Rahmen wird die mobile Anwendung in eine Gruppe von Diensten unterteilt, wobei die Ausführungszeit für jeden Dienst getrennt und unter drei verschiedenen Szenarien berechnet wird. Eine Auslagerungsentscheidung wird dann intelligent basierend auf Echtzeitvergleichen zwischen der lokalen Ausführung oder der Komprimierung und der anschließenden Auslagerung oder der direkten Auslagerung ohne Komprimierung getroffen. Die umfangreichen Simulationsstudien zeigen, dass sowohl schwere als auch leichte Anwendungen bei geringer Bandbreite von dem vorgeschlagenen Framework profitieren sowie Energie sparen und die Leistung im Vergleich zu den vorherigen Techniken verbessern können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-13461-1_11 f11bca74e0b017a3bafe4bba50cbd8dc;de;;;3.2.;;;Bandbreitenvorhersage für die Stromkommunikation mit Adaptive Extreme Learning Machine Die Prognose des Bandbreitenbedarfs ist die Grundlage und Grundlage der Planung von Energiekommunikationsnetzen. Angesichts der langsamen Lerngeschwindigkeit des traditionellen neuronalen Netzwerks, der Anzahl der Iterationen und des lokalen Optimalproblems wird ein adaptives extrem lernendes Maschinenmodell basierend auf der Theorie der extrem lernenden Maschine und der K-Nächster-Nachbar-Theorie vorgeschlagen, um die Bandbreite vorherzusagen der elektrischen Energiekommunikation. Die adaptiven Eingangsmetriken können die Probleme der Amplitudenänderung und Trendbestimmung lösen und den Effekt der Überanpassung von Netzwerken reduzieren. Die vorgeschlagenen Algorithmen werden mit realen Daten einer Provinz in China validiert. Die Ergebnisse zeigen, dass diese Methode besser ist als das traditionelle neuronale Netzwerk, das autoregressive Modell, das Selbstorganisationsmodell und das Single Extreme Learning Machine-Modell. Es kann bei der Vorhersage der Bandbreite der elektrischen Energiekommunikation verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48674-1_8 2f993cf6a6509bce38efea5893de16ee;de;;;3.2.;;;Prototyping interaktiver Anwendungssysteme Entscheidend für den Erfolg eines Ingenieur- oder Bauprojekts ist die vorherige Identifizierung, Spezifikation und Validierung der Anforderungen, die das beabsichtigte Produkt erfüllen soll. Spezifikation setzt Genauigkeit voraus, Genauigkeit setzt mathematische Modelle voraus. Leider existieren solche Modelle in der Praxis nicht immer oder sind, falls vorhanden, oft nicht umfassend genug. Um diese Unzulänglichkeiten zu überwinden, hat es sich in allen Ingenieurdisziplinen bewährt, mit Ersatzmodellen wie Labormodellen oder Simulationsmodellen zu arbeiten. Ein solcher Ersatz heißt a;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-69796-8_10 454ab25fda369ca8be967bf7642143f6;de;;;3.2.;;;Biomimetisches evolutionäres Reverse Engineering von genetischen Regulierungsnetzwerken Das effektive Reverse Engineering biochemischer Netzwerke ist eine der großen Herausforderungen der Systembiologie. Der Beitrag dieser Arbeit ist zweifach: 1) Wir stellen eine neue Methode zum Reverse Engineering genetischer Regulationsnetzwerke aus Genexpressionsdaten vor, 2) Wir zeigen, wie nichtlineare Gennetzwerke allein aus stationären Daten abgeleitet werden können. Die Reverse-Engineering-Methode basiert auf einem evolutionären Algorithmus, der eine neuartige Darstellung namens Analog Genetic Encoding (AGE) verwendet, die von der natürlichen Kodierung genetischer regulatorischer Netzwerke inspiriert ist. AGE kann mit biologisch plausiblen, nichtlinearen Genmodellen verwendet werden, bei denen analytische Ansätze oder lokale Gradienten-basierte Optimierungsmethoden oft versagen. In letzter Zeit wächst das Interesse am Reverse Engineering increasing;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-71783-6_15 4adceac1ecceccd30e856c151faaa321;de;;;3.2.;;;Das elektronische Kolloquium zur Rechenkomplexität (ECCC): Eine digitale Bibliothek im Einsatz Das Electronic Colloquium on Computational Complexity (ECCC) ist eine digitale Bibliothek, die sich speziell mit dem aktuellen Problem des wissenschaftlichen Publizierens befasst, genauer gesagt mit dem Problem, anderen Forschern geeignet gefilterte Arbeiten für den Bereich der Computational Complexity zu präsentieren. Erarbeitung der Detailkonzepte in Gesprächen mit a;-;-;-;https://link.springer.com/chapter/10.1007/BFb0026741 e86343367946b3805f50b15365f0cdb3;de;;;3.2.;;;Erzeugung rekombinanter Antikörper Die rekombinante Antikörpertechnologie eröffnet neue Perspektiven für die Entwicklung neuartiger therapeutischer und diagnostischer Wirkstoffe. In diesem Aufsatz konzentrieren wir uns auf Fortschritte bei der Erzeugung von sowohl gentechnisch veränderten humanisierten als auch vollständig humanen monoklonalen Antikörpern. Verfahren zu ihrer Herstellung in verschiedenen Expressionssystemen werden ebenfalls diskutiert.;-;-;-;https://link.springer.com/article/10.1385/MB%3A12%3A2%3A173 04dab8ac23f6904f4283e064fcc19de2;de;;;3.2.;;;Ein neuartiges Ähnlichkeitsmaß für die Linkvorhersage in ein- und zweiteiligen Netzen Netzwerke sind allgegenwärtig und ihre Anwendungen in verschiedenen Bereichen wie Informatik, Biologie, Wirtschaftswissenschaften und Chemietechnik haben die Aufmerksamkeit vieler Forscher auf sich gezogen. Viele komplexe Systeme in der realen Welt können durch Netzwerke oder Graphen dargestellt werden. Die Linkvorhersage ist eine der wichtigsten Aufgaben in der Netzwerkanalyse und hat in den letzten Jahrzehnten enormes Forschungsinteresse geweckt. In diesem Papier stellen wir einen neuartigen Algorithmus zur Linkvorhersage vor, der sowohl für unipartite als auch für bipartite Graphen effizient funktioniert. Unser neuartiger Algorithmus basiert auf dem Konzept der Eigenvektoren und des kürzesten Abstands zwischen den Knoten. Wir haben das Peron-Frobenius-Theorem der Knotenwichtigkeit für die Linkvorhersage verwendet. Vier Metriken, nämlich AUC, Präzision, Vorhersagekraft und Präzision@K, wurden berechnet und mit vierzehn Basisalgorithmen verglichen, um die Leistung des vorgeschlagenen Algorithmus zu testen. Die dreizehn Datensätze wurden getestet und experimentelle Ergebnisse zeigen, dass die vorgeschlagene Methode den Basisalgorithmus auf der Grundlage von vier gegebenen Metriken übertrifft.;-;-;-;https://link.springer.com/article/10.1007/s13278-021-00745-z a48952bb8a389b2fcaef0e5bab2437ff;de;;;3.2.;;;Gemischte Programmierung zwischen MATLAB und anderen Programmiersprachen Die Vor- und Nachteile von MATLAB werden in diesem Papier beschrieben. Es werden verschiedene Methoden der gemischten Programmierung zwischen MATLAB und anderen Programmiersprachen wie C#, FORTRAN, JAVA, DELPHI, VB und EXCEL vorgestellt, darunter COM Builder, MATLAB Compiler, MATLAB Engine, MATLAB Automation Server, Excel Link und andere Methoden. Abschließend werden Analysen und Vorschläge zum Anlass der Anwendung dieser Methoden vorgelegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23220-6_85 239c974f6aa79dd0fb4f0cf9b575cb78;de;;;3.2.;;;Analysieren von BGP-Instanzen in Maude Die Analyse von Border Gateway Protocol (BGP)-Instanzen ist ein entscheidender Schritt beim Design und der Implementierung sicherer BGP-Systeme. Heute ist die Analyse ein manueller und mühsamer Prozess. Die Forscher untersuchen die Instanzen, indem sie Ausführungssequenzen manuell konstruieren, in der Hoffnung, entweder eine Oszillation zu identifizieren oder zu zeigen, dass die Instanz sicher ist, indem sie alle möglichen Sequenzen erschöpfend untersuchen. Wir schlagen vor, die Analyse zu automatisieren, indem wir Maude verwenden, ein Werkzeug, das auf Umschreibungslogik basiert. Wir haben eine Bibliothek entwickelt, die ein generalisiertes Pfadvektorprotokoll und Methoden zur Instanziierung der Bibliothek mit angepassten Routing-Richtlinien spezifiziert. Protokolle können von Maude automatisch analysiert werden, sobald Benutzer Spezifikationen der Netzwerktopologie und Routing-Richtlinien bereitstellen. Mit unserer Maude-Bibliothek können Protokolle oder Richtlinien einfach spezifiziert und auf Probleme überprüft werden. Um unseren Ansatz zu validieren, haben wir eine Sicherheitsanalyse bekannter BGP-Instanzen und tatsächlicher Routing-Konfigurationen durchgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21461-5_22 fec8a5c259df303ac44c3cf2e3ec4365;de;;;3.2.;;;Standardbibliotheks-Tool-Set für grobe Mengentheorie auf FPGA Rough Set Theory ist ein leistungsstarkes auf künstlicher Intelligenz basierendes Werkzeug, das für die Datenanalyse und das Mining inkonsistenter Informationssysteme verwendet wird. Bei inkonsistenten, unvollständigen, ungenauen oder vagen Daten hinken normale statistische Datenanalysetechniken hinterher. Die verschiedene Software, die für die Analyse inkonsistenter Daten mit Rough Set Theory verwendet wird, läuft auf x86-Prozessoren für verschiedene Betriebssysteme. Im Gegensatz zu den anderen Softwareimplementierungen besteht das Hauptziel dieser Experimente darin, einen neuen und standardmäßigen Bibliothekswerkzeugsatz für die Berechnung inkonsistenter Daten unter Verwendung der Rough-Set-Theorie zu beschreiben, der vollständig auf FPGA synthetisiert werden kann. Darüber hinaus haben die Autoren auch die Auswirkungen des implementierten Designs auf Zybo FPGA untersucht, um die Kriterien für Fläche, Timing und Energieeffizienz zu verstehen. Eine auf der Rough Set Theory basierende Data Analytic Engine kann als potenzieller Kandidat für die Wissensentdeckung und das Data Mining von inkonsistenten Daten in IoT-Anwendungen an Fog- und/oder Edge-Schnittstellen verwendet werden. Dieses Papier definiert das Standardbibliothekswerkzeug für Rough Set Theory auf FPGA.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-0694-9_23 a7d809a73c8b4a06bf7fe0c1cb619ab8;de;;;3.2.;;;Verwendung des BSP-Kostenmodells zur Optimierung des parallelen neuronalen Netztrainings Wir leiten Kostenformeln für drei verschiedene Parallelisierungstechniken für das Training überwachter Netzwerke her. Diese Formeln werden durch Eigenschaften der Zielrechnerarchitektur parametrisiert. Es ist daher möglich, die beste Übereinstimmung zwischen Parallelcomputer und Trainingstechnik zu bestimmen. Eine Technik, die beispielhafte Parallelität, ist für fast alle parallelen Computerarchitekturen weit überlegen. Formeln berücksichtigen auch optimales Batch-Learning als Gesamttrainingsansatz.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-64359-1_700 37cb9a9a9858be34ba3f7a34829971b4;de;;;3.2.;;;Menschliche Chromosomen Die Chromosomentheorie der Mendelschen Vererbung wurde 1902 von Sutton und Boveri eingeführt. Im selben Jahr schuf Garrod, der die autosomal-rezessive Vererbung der Alkaptonurie etablierte und die metabolische Individualität im Allgemeinen kommentierte, das Paradigma der „angeborenen Stoffwechselfehler“. Einfache Vererbungsmethoden wurden bald für viele andere menschliche Erkrankungen etabliert. Nicht viel mehr als 10 Jahre später untersuchte Bridges (1916) [311] in;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-02489-8_3 afa38c787b35b131ee0ed57146ad5059;de;;;3.2.;;;Aufdeckung von Reinheit und Nebenwirkungen von Funktionen für die Wiederverwendung von Java-Bibliotheken Die Wiederverwendung von Softwarekomponenten erfordert das Verständnis des Verhaltens und möglicher Nebenwirkungen zwischen APIs von Programmkomponenten. Unterdessen ist es mit konventioneller statischer Analyse schwierig, die problematische Verwendung dieser Komponenten zu identifizieren. Reinheit und Nebenwirkungen sind wichtige Eigenschaften von Methoden, die von den Dokumentationen der objektorientierten Sprachen wie Java oft vernachlässigt werden. In diesem Papier haben wir diese Eigenschaften untersucht, indem wir eine statische Analysetechnik verwendet haben, um automatisch die Zustandsabhängigkeiten für den Rückgabewert und die Nebenwirkungen von Methoden abzuleiten. Als Ergebnis zeigen die Effektinformationen die Reinheit der Methoden sowie wohldefinierte Zustandsinteraktionen zwischen Objekten. Wir haben den Analyzer für Java-Bytecode implementiert und mit einigen Open-Source-Java-Softwarebibliotheken mit unterschiedlichem Umfang und Eigenschaften getestet. Aus unseren experimentellen Ergebnissen haben wir herausgefunden, dass 24–44 % der Methoden in den evaluierten Open-Source-Java-Bibliotheken rein sind, was darauf hindeutet, dass ein großer Prozentsatz der Methoden für High-Level-Refactoring geeignet ist. Unsere Studie kann Programmierern helfen, diese Bibliotheken zu verstehen und wiederzuverwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-14130-5_22 48bac2c4ebd6475a5cd6dd9122748a93;de;;;3.2.;;;Ein praktischer Ansatz zum Aufbau eines Parallelnetzwerksimulators Netzwerksimulation wird häufig in der Netzwerkforschung verwendet, um die Leistung von Netzwerkprotokollen zu bewerten. Mit der Entwicklung von Computernetzwerken nehmen Netzwerkmodelle an Größe und Komplexität zu, sodass die Ausführungszeit der Simulation unerträglich lang sein kann. In diesem Beitrag präsentieren wir einen praktischen Ansatz zum Aufbau eines parallelen Netzwerksimulators, der auf dem beliebten sequentiellen Netzwerksimulator basiert;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39737-3_92 3d71dc348490d3c194d0adcdc9688b3c;de;;;3.2.;;;Der Einsatz globaler Navigationssysteme in der Luftfahrtindustrie Das zunächst als Block I in den 1970er und frühen 1980er Jahren getestete GPS-Navigationssystem wurde in den 1980er Jahren als operatives System entwickelt und in den 1990er Jahren voll einsatzfähig. Heute wird modernisiert, um zusätzliche, leistungsfähigere, robustere und flexiblere zivile Signale für die Navigation bereitzustellen. Da wir uns auf ein kombiniertes GNSS mit Galileo und modernisiertem GPS freuen, ergeben sich Möglichkeiten zur Verbesserung der zivilen Flugzeugnavigation. Diese Möglichkeiten erfordern eine gegenseitige Zusammenarbeit zwischen den Luftfahrtbehörden, die die Erweiterungssysteme betreiben, und den GNSS-Designern, die die nächste Generation weltraumgestützter Navigationssysteme entwickeln. Die Vorteile der Zusammenarbeit reichen von reduzierten Gesamtbetriebskosten bis hin zu einer nahtlosen, interoperablen globalen Navigationslösung. Dieses Papier beginnt damit, die Herausforderungen zu identifizieren, vor denen die politischen Entscheidungsträger der Regierung stehen, und zeigt gleichzeitig die gegenseitigen Vorteile einer globalen Zusammenarbeit bei der weltraumgestützten Navigation auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-0401-4_20 4e33221f2ed4c95188dc7f0e7b24e053;de;;;3.2.;;;Ein ganzzahliger Programmieralgorithmus zur Routing-Optimierung in IP-Netzwerken Die meisten Datennetze verwenden heutzutage Protokolle der kürzesten Pfade, um den Verkehr zu leiten. Bei administrativen Routing-Längen für die Strecken des Netzes werden alle Datenpakete bezüglich dieser Längen auf kürzesten Wegen von ihrer Quelle zu ihrem Ziel gesendet.;-;-;-;https://link.springer.com/article/10.1007/s00453-009-9381-5 0b8dd08926f9a21f32a145c088019f82;de;;;3.2.;;;Analyse terroristischer Netzwerke: Eine Fallstudie des globalen Netzwerks des salafistischen Dschihad Es ist sehr wichtig für uns, die Funktionen und Strukturen terroristischer Netzwerke zu verstehen, um den Kampf gegen den Terror zu gewinnen. Frühere Studien zur Struktur terroristischer Netzwerke haben jedoch nur wenige umsetzbare Ergebnisse erbracht. Dies liegt hauptsächlich an der Schwierigkeit, zuverlässige Daten zu sammeln und darauf zuzugreifen, und dem Fehlen fortschrittlicher Netzwerkanalysemethoden in diesem Bereich. Um diese Probleme anzugehen, haben wir mehrere fortschrittliche Netzwerkanalysetechniken eingesetzt, die von der Analyse sozialer Netzwerke bis hin zum strukturellen Mining im Web auf einem Netzwerkdatensatz des Global Salafi Jihad reichen, der durch eine groß angelegte empirische Studie gesammelt wurde. Unsere Studie zeigte die Wirksamkeit und Nützlichkeit fortschrittlicher Netzwerktechniken im Bereich der Analyse terroristischer Netzwerke. Wir haben auch die Web-Structural-Mining-Technik in den Bereich der Analyse terroristischer Netzwerke eingeführt, die nach unserem besten Wissen noch nie in diesem Bereich verwendet wurde. Noch wichtiger ist, dass die Ergebnisse unserer Analyse nicht nur Erkenntnisse für die Terrorismusforschungsgemeinschaft liefern, sondern auch empirische Implikationen, die Strafverfolgungs-, Geheimdienst- und Sicherheitsgemeinschaften helfen können, unser Land sicherer zu machen.;-;-;-;https://link.springer.com/chapter/10.1007/11427995_24 5aa29289ba9d68a477fb3a6136ad4b12;de;;;3.2.;;;Logikminimierung für geringen Stromverbrauch Eine mehrstufige Logikschaltung kann als boolesches Netzwerk modelliert werden, wobei jeder Knoten in diesem Netzwerk eine boolesche Funktion hat, die durch eine SOP-Formgleichung repräsentiert wird und jede Kante eine Signalverbindung repräsentiert. Es ist möglich, eine Mehrpegelschaltung entweder aus der HDL-Darstellung eines Entwurfs oder durch Anwenden von logischen Restrukturierungsoperationen auf eine Zweipegelschaltungsdarstellung zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5453-0_6 c1e26da55ee087839c03393be2d9b827;de;;;3.2.;;;Ein netzwerkausfalltolerantes Message-Passing-System für Terascale-Cluster Das Los Alamos Message Passing Interface (LA-MPI) ist ein End-to-End-Netzwerkfehlertolerantes Message-Passing-System, das für Terascale-Cluster entwickelt wurde. LA-MPI ist eine standardkonforme Implementierung von MPI, die netzwerkbezogene Fehler wie E/A-Busfehler, Netzwerkkartenfehler und Drahtübertragungsfehler toleriert. Dieses Dokument beschreibt die charakteristischen Merkmale von LA-MPI, einschließlich der Unterstützung für die gleichzeitige Verwendung mehrerer Arten von Netzwerkschnittstellen und der zuverlässigen Nachrichtenübertragung unter Verwendung mehrerer Netzwerkpfade und -routen zwischen einer bestimmten Quelle und einem bestimmten Ziel. Darüber hinaus werden Leistungsmessungen auf produktionstauglichen Plattformen vorgestellt.;-;-;-;https://link.springer.com/article/10.1023/A%3A1024504726988 2630579bbf7925e0d994e93868e49f1a;de;;;3.2.;;;Endokrin-Immun-Netzwerk und seine Anwendung zur Optimierung Es wird ein neuartiges künstliches Immunnetzwerkmodell (EINET) vorgeschlagen, das auf der Regulierung des endokrinen Systems basiert. In diesem EINET zur Optimierung werden mehrere Operatoren eingesetzt oder überarbeitet, die auf eine schnellere Konvergenzgeschwindigkeit und eine bessere optimale Lösung abzielen. Darüber hinaus übt ein neuer Operator, die hormonelle Regulierung, einen bidirektionalen Regulierungsmechanismus aus, der vom endokrinen System inspiriert ist, das gemäß der Hormon-Aktualisierungsfunktion eliminiert und mutiert wird, um die Diversität der Antikörperpopulation zu erhöhen. Und das Antikörperlernen ist eine Evolution des Individuums durch das Lernen von Gedächtnisantikörpern im Immunnetzwerk. Dann wird ein lokales Suchverfahren, das als enzymatische Reaktion bezeichnet wird, verwendet, um die Ausnutzung des Suchraums zu erleichtern und die Konvergenz zu beschleunigen. Um zu bewerten, ob das vorgeschlagene Modell direkt zu einem effektiven Algorithmus zur Lösung kombinatorischer Optimierungsprobleme erweitert werden kann, wird der EINET-TSP-Algorithmus entworfen. Vergleichsexperimente werden mit einigen Benchmark-Instanzen aus dem TSPLIB durchgeführt, und die Ergebnisse im Vergleich mit dem bestehenden Immunnetzwerk, das auf das kombinatorische Optimierungsproblem angewendet wird, zeigen, dass der EINET-TSP-Algorithmus in der Lage ist, die Suchleistung in Lösungsqualität signifikant zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37105-9_17 feb9a9f8b6c2fac59b002749c5593d35;de;;;3.2.;;;Verteilte inkrementelle Bias-kompensierte RLS-Schätzung über Multi-Agent-Netzwerke In diesem Papier untersuchen wir das Problem der verteilten Bias-kompensierten rekursiven kleinsten Quadrate (BC-RLS) Schätzung über Multi-Agenten-Netzwerke, bei denen die Agenten zusammenarbeiten, um einen gemeinsamen interessierenden Parameter zu schätzen. Wir betrachten die Situation, in der sowohl die Eingabe als auch die Ausgabe jedes Agenten durch unbekanntes additives Rauschen verfälscht werden. Unter dieser Bedingung ist der traditionelle rekursive Kleinste-Quadrate-Schätzer (RLS) verzerrt, und der Verzerrung wird durch die Eingangsrauschvarianz induziert. Wenn die Eingangsrauschvarianz verfügbar ist, kann der Effekt des rauschinduzierten Bias auf Kosten einer Erhöhung der Schätzvarianz beseitigt werden. Glücklicherweise wurde gezeigt, dass eine verteilte Zusammenarbeit zwischen Agenten die Varianz effektiv reduzieren und die Stabilität des Schätzers verbessern kann. Daher werden in diesem Papier ein verteilter inkrementeller BC-RLS-Algorithmus und seine vereinfachte Version vorgeschlagen. Die vorgeschlagenen Algorithmen können kollaborativ die Schätzungen der unbekannten Eingangsrauschvarianz erhalten und den Effekt der rauschinduzierten Verzerrung beseitigen. Dann kann inkrementell eine konsistente Schätzung des unbekannten Parameters erreicht werden. Simulationsergebnisse zeigen, dass die inkrementellen BC-RLS-Lösungen bestehende Lösungen in gewisser Weise übertreffen.;-;-;-;https://link.springer.com/article/10.1007/s11432-016-0284-2 af474b0b359bf7d437bfb7c2b165f1cd;de;;;3.2.;;;Sich selbst entwickelndes Framework eines tiefen konvolutionellen neuronalen Netzwerks für die subzelluläre Lokalisierung von Multilocus-Proteinen In der vorliegenden Arbeit wird das Deep Convolutional Neural Network (DCNN) auf die subzelluläre Lokalisierung von Multilocus-Proteinen angewendet, da es für die Mehrklassenklassifikation besser geeignet ist. Es gibt zwei Hauptprobleme bei dieser Anwendung. Erstens sind die geeigneten Merkmale für die Korrelation zwischen mehreren Standorten schwer zu finden. Zweitens ist die Klassifikatorstruktur schwer zu bestimmen, da sie stark von der Verteilung der klassifizierten Daten beeinflusst wird. Um diese Probleme zu lösen, wird ein sich selbst entwickelndes Framework vorgeschlagen, das DCNNs für die subzelluläre Lokalisierung von Multilocus-Proteinen verwendet. Es hat drei Eigenschaften, die die vorherigen Algorithmen nicht haben. Die erste besteht darin, dass es den Ameisenkolonie-Algorithmus mit dem DCNN kombiniert, um einen sich selbst entwickelnden Algorithmus für die subzelluläre Lokalisierung von Multilocus-Proteinen zu bilden. Die zweite ist, dass subzelluläre Stellen zufällig gruppiert werden, indem ein begrenztes K-Markierungs-Klassifizierungsverfahren mit mehreren Markierungen verwendet wird. Es löst auch komplexe Probleme in einem Divide-and-Conquer-Ansatz und schlägt ein flexibles Expansionsmodell vor. Das dritte ist, dass es das Zufallsauswahl-Merkmalsextraktionsverfahren im Positionierungsprozess realisiert und die Fehler einzelner Merkmalsextraktionsverfahren vermeidet. Der Algorithmus in diesem Papier wird an der menschlichen Datenbank getestet, und die Gesamtkorrektheitsrate beträgt 67,17%, was höher ist als die für Stacked Self-Encoder (SAE), Support Vector Machine (SVM), Random Forest Classifier (RF). , oder einzelnes neuronales Netzwerk mit tiefer Faltung.;-;-;-;https://link.springer.com/article/10.1007/s11517-020-02275-w 34b09445f8a1542ec2081bc13ff8527a;de;;;3.2.;;;Sozial vernetzte Citizen Science und das Crowd-Sourcing umweltschonender Gemeinschaftsaktionen Das Social Web hat die Art der menschlichen Zusammenarbeit mit neuen Möglichkeiten für eine massive Zusammenarbeit bei so wichtigen Unternehmungen wie wissenschaftlicher Forschung und umweltrelevantem kollektivem Handeln verändert. Während Citizen-Science-Projekte der ersten Generation das Internet erfolgreich für die Crowd-Source-Umweltdatensammlung genutzt haben, kombinieren Citizen-Science-Praxisnetzwerke der „nächsten Generation“ Crowd-Sourcing, gemeinsamen Sinn und sanfte institutionelle Governance mit der verteilten Intelligenz und Wirksamkeit von Online-Social Netzwerke. Hier greifen wir Evolutionstheorie und Sozialpsychologie auf, um Hypothesen zu entwickeln, wie solche Bürgerprojekte der „nächsten Generation“ umweltfreundliches Verhalten wie die Wiederherstellung von Lebensräumen und Energieeinsparungen am besten unterstützen können. Neuere Forschungen zur Entwicklung der Zusammenarbeit zeigen das Potenzial von Reputationsmechanismen und Scorekeeping zur Förderung der Zusammenarbeit in sozialen Online-Netzwerken. Verschachtelte, umrandete Tauziehenmodelle legen nahe, dass Herausforderungen, die einen Wettbewerb zwischen Gruppen hervorrufen, die Zusammenarbeit innerhalb der Gruppe verstärken werden. Auf der Grundlage der Sozialpsychologie stellen wir fest, dass durch Vergleiche sozialer Normen in Kombination mit visuell überzeugenden Darstellungen individueller und kollektiver Benchmarks ein erhöhtes Maß an Interesse und Kooperation gefördert werden kann. Schließlich untersuchen wir, wie Eigenschaften sozialer Netzwerke selbst die Verbreitung von Verhaltensweisen durch die Drei-Grad-Regel, Homophilie, soziale Ansteckung und die Stärke schwacher Bindungen fördern. In einer Zeit, in der Umweltgifte, Lebensraumverlust, Bevölkerungswachstum und Klimawandel unsere zukünftige Gesundheit und unser Überleben bedrohen, präsentieren wir überprüfbare Hypothesen und plädieren für die Bedeutung von Feldexperimenten, um den Zusammenhang zwischen sozialem Selbst, Gruppenidentität und sozialer Vernetzung besser zu verstehen Auswirkungen und Potenziale zur Unterstützung kollektiven Handelns über das Social Web.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-1340-0_8 ac5039af63874486651878785c4cbab5;de;;;3.2.;;;Modellierung und Simulation der menschlichen und gehenden Roboterbewegung Die Beinbewegung von Wirbeltieren sowie die biologische Klassifikation der Fortbewegungsart werden vorgestellt. Biomechanische Modellierung der menschlichen Fortbewegung, Ebenenmodell mit 11 D.O.F., dynamische Modelle reduzierter Ordnung der Computeranalyse des menschlichen Gangs, Muskelantriebe und Steuerungssystem werden vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-2674-5_1 5ba5ed88d2ab4da68d81cd3e0e9a2c50;de;;;3.2.;;;Kooperation und Wettbewerb bei der multidisziplinären Optimierung Dieser Artikel zielt darauf ab, einen Beitrag zu numerischen Strategien für die PDE-beschränkte Mehrzieloptimierung zu leisten, mit besonderem Schwerpunkt auf CPU-intensiven Rechenanwendungen, bei denen die verschiedenen zu minimierenden (oder zu reduzierenden) Kriterien aus verschiedenen physikalischen Disziplinen stammen, die denselben Satz von Entwurfsvariablen teilen . Vorzüge und Abkürzungen der am häufigsten verwendeten Algorithmen zur Identifizierung oder Annäherung des Pareto-Sets werden überprüft, bevor man sich auf den Ansatz von Nash-Spielen konzentriert. Es wird eine Strategie zur Behandlung von Optimierungsproblemen mit zwei Disziplinen vorgeschlagen, bei denen eine Disziplin, die Hauptdisziplin, überwiegt oder fragil ist. Dann empfiehlt es sich, in einem ersten Schritt das Optimum dieser Disziplin allein anhand der Gesamtheit der Designvariablen zu identifizieren. Dann wird eine orthogonale Basis basierend auf der Auswertung bei Konvergenz der Hesse-Matrix des primären Kriteriums und der Randbedingungsgradienten konstruiert. Auf dieser Grundlage wird der Arbeitsentwurfsraum in zwei zusätzliche Unterräume aufgeteilt, die in einem zweiten Schritt zwei virtuellen Spielern im Wettbewerb in einem adaptierten Nash-Spiel zugewiesen werden, um ein sekundäres Kriterium zu reduzieren, während das erste die geringste Verschlechterung verursacht. Es wurde nachgewiesen, dass die Formulierung potenziell eine Reihe von Nash-Gleichgewichtslösungen liefert, die vom ursprünglichen Einzeldisziplin-Optimumpunkt durch sanfte Fortsetzung ausgehen, wodurch der Wettbewerb allmählich eingeführt wird. Dieser Ansatz wird an einem Testfall der aerostrukturellen Flugzeugflügelformoptimierung demonstriert, in dem die eigensplitbasierte Optimierung deutlich überlegen zeigt. Danach wird ein Ergebnis der konvexen Analyse für ein allgemeines unbeschränktes Mehrzielproblem erstellt, bei dem angenommen wird, dass alle Gradienten bekannt sind. Dieses Ergebnis liefert eine allen Kriterien gemeinsame Abstiegsrichtung, und durch Anpassen des klassischen steilsten Abstiegsalgorithmus unter Verwendung dieser Richtung wird ein neuer Algorithmus definiert, der als Mehrfachgradientenabstiegsalgorithmus (MGDA) bezeichnet wird. Die MGDA realisiert eine Phase der kooperativen Optimierung bis zu einem Punkt auf der Pareto-Menge, an dem möglicherweise eine kompetitive Optimierungsphase auf Basis der lokalen Eigenstruktur der verschiedenen hessischen Matrizen eingeleitet werden kann.;-;-;-;https://link.springer.com/article/10.1007/s10589-011-9395-1 6770ee08ce12b4aba45da676c488abb0;de;;;3.2.;;;Ein Verfahren zur Erzeugung beliebiger Peptidbibliotheken unter Verwendung genomischer DNA Zufallspeptidbibliotheken können entweder durch in vitro-Synthese von Zufallspeptiden oder durch Translation von DNA-Sequenzen aus synthetischen Zufalls-Oligonukleotiden konstruiert werden. Hier beschreiben wir einen alternativen Weg, beliebige Peptidbibliotheken mit hoher Diversität herzustellen, die beim Screening als zufällige Peptidbibliotheken verwendet werden können. Genomische DNA, die mit einem häufig schneidenden Restriktionsenzym verdaut wurde, das vier Nukleotide erkennt, besteht theoretisch aus kleinen DNA-Stücken mit einer durchschnittlichen Länge von 256 Nukleotiden und im Durchschnitt etwa 10;-;-;-;https://link.springer.com/article/10.1385/MB%3A30%3A2%3A135 37b922ab5e4600a9ce7ba64f88a9a1a8;de;;;3.2.;;;Resampling-basierte Gap-Analyse zur Erkennung von Knoten mit hoher Zentralität in großen sozialen Netzwerken Wir adressieren ein Problem des Identifizierens von Knoten mit einem hohen Zentralitätswert in einem großen sozialen Netzwerk basierend auf seiner Näherung, die nur von Knoten abgeleitet wird, die aus dem Netzwerk abgetastet wurden. Genauer gesagt erkennen wir Lücken zwischen Knoten mit einem gegebenen Konfidenzniveau unter der Annahme, dass wir sagen können, dass eine Lücke zwischen zwei benachbarten Knoten besteht, die in absteigender Reihenfolge der Näherungen der wahren Zentralitätswerte geordnet sind, wenn sie die geordnete Liste von Knoten in zwei Gruppen aufteilen kann, so dass Jeder Knoten in einer Gruppe hat einen höheren Zentralitätswert als jeder andere in einer anderen Gruppe mit einem gegebenen Konfidenzniveau. Zu diesem Zweck beziehen wir Konfidenzintervalle von echten Zentralitätswerten ein und wenden das Resampling-basierte Framework an, um die Intervalle so genau wie möglich zu schätzen. Darüber hinaus entwickeln wir einen Algorithmus, der Lücken effizient erkennen kann, indem er nur zwei Durchgänge durch die Knoten macht, und zeigen empirisch unter Verwendung von drei realen sozialen Netzwerken, dass die vorgeschlagene Methode erfolgreich mehr Lücken erkennen kann als die Methode mit einer Standardfehlerschätzung das gleiche Knotenabdeckungsverhältnis verwendet wird, und dass die resultierenden Lücken es uns ermöglichen, eine Gruppe von Knoten mit einem hohen Zentralitätswert korrekt zu identifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-18038-0_11 80afb915cbd2d384adc8db952be52273;de;;;3.2.;;;Wie wird man Gruppenleiter? oder Modellieren von Autorentypen basierend auf Graph Mining Bibliographische Datenbanken sind ein florierendes Feld für die Data-Mining-Forschung und die Analyse sozialer Netzwerke. Die Darstellung und Visualisierung bibliografischer Datenbanken als Grafiken und die Anwendung von Data-Mining-Techniken können uns dabei helfen, interessante Erkenntnisse darüber zu gewinnen, wie sich die Publikationsdaten von Autoren im Laufe der Zeit entwickeln. In diesem Beitrag schlagen wir eine neuartige Methodik vor, um bibliographische Datenbanken als;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24469-8_4 e06870920b899a4ab462c19fdd672af6;de;;;3.2.;;;Dynamische Rollenzuweisung für die Zusammenarbeit mit mehreren Agenten In diesem Beitrag stellen wir einen dynamischen Rollenzuweisungsmechanismus für ein Team kooperativer virtueller Agenten vor, die in interaktiven Computerspielen arbeiten. Dieser Rollenzuweisungsmechanismus ist ein neuer, der sich von den bestehenden statischen und dynamischen Mechanismen unterscheidet, bei denen Entscheidungen über die Rollenzuweisung auf einmal entweder in der Entwurfsphase oder in der Ausführungsphase getroffen werden. Gemäß unserem Mechanismus werden alle situationsabhängigen Rollensätze in der Designphase vordefiniert. In der Ausführungsphase werden jedoch Detailentscheidungen getroffen, welcher Mitgliedsagent welche Rolle übernehmen muss. Dieser Mechanismus kann den Verhandlungsaufwand für die Rollenzuweisung in der Ausführungsphase minimieren. Daher ist dieser Mechanismus in Echtzeitumgebungen mit mehreren Agenten wie interaktiven Computerspielen sehr effektiv. Durch Experimente zeigen wir die Überlegenheit unseres dynamischen Rollenzuweisungsmechanismus.;-;-;-;https://link.springer.com/chapter/10.1007/11902140_25 33424b52804cde3ec48f7edbabeac979;de;;;3.2.;;;Fortschritte beim positionellen Klonen von RP10 (7q31.3), RP1 (8q11–q21) und VMD1 (8q24) Das Ziel unserer Forschung ist es, die Gene und Mutationen zu bestimmen, die die autosomal-dominante Retinitis pigmentosa (adRP) und verwandte Krankheiten verursachen. Wie mittlerweile allgemein bekannt, wird dieses täuschend einfache Ziel durch die außergewöhnliche Heterogenität der Retinitis pigmentosa und anderer Formen der Netzhautdegeneration verfälscht. Diese Heterogenität umfasst allelische Heterogenität, dh unterschiedliche Mutationen im selben Gen, die unterschiedliche klinische Phänotypen oder Vererbungsmodi verursachen, genetische Heterogenität, dh verschiedene Gene, die ähnliche Krankheiten verursachen, und klinische Heterogenität, dh dasselbe Gen – sogar dasselbe Allel – verursacht unterschiedliche Krankheiten bei verschiedenen Individuen, sogar innerhalb derselben Familie.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5933-7_30 62e10e1dd9940656393115224c4cbb11;de;;;3.2.;;;Lösung eines nichtlinearen Bilevel-Programmiermodells des Gleichgewichts-Netzwerkentwurfsproblems für Korea Ein Netzentwurfsproblem löst für Verbindungsverbesserungen oder Ergänzungen zu einem bestehenden Verkehrsnetz, vorausgesetzt, dass eine bestimmte Zielfunktion wie die soziale Wohlfahrt maximiert wird. Außerdem erfordert ein Gleichgewichtsnetzentwurfsproblem insbesondere, dass jede Verbindung Benutzergleichgewichtsflüsse aufweist.;-;-;-;https://link.springer.com/article/10.1007/BF01954295 a5fa820471a41d25dd32dbb0869c0a10;de;;;3.2.;;;Analysieren von netzwerkfähigen aktiven Wardens in IPv6 Eine entscheidende Sicherheitspraxis ist die Beseitigung verdeckter Netzwerkkanäle. Jüngste Untersuchungen zu IPv6 haben ergeben, dass es mindestens 22 verschiedene verdeckte Kanäle gibt, was den Einsatz fortgeschrittener aktiver Wächter als geeignete Gegenmaßnahme nahelegt. Die beschriebenen verdeckten Kanäle sind nicht nur aufgrund ihres Potenzials, andere Angriffe zu erleichtern, besonders schädlich, sondern auch aufgrund der zunehmenden Akzeptanz des Protokolls ohne parallelen Einsatz von Korrekturtechnologien. Wir präsentieren eine bahnbrechende Umsetzung von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74124-4_5 1417e49e36983584e0db8416ca06025d;de;;;3.2.;;;Sich anpassen oder nicht anpassen – Konsequenzen der Anpassung von Fahrer- und Ampelagenten Eine Möglichkeit, der steigenden Verkehrsnachfrage gerecht zu werden, besteht darin, Standardlösungen mit intelligenteren Steuerungsmaßnahmen zu integrieren. Das Ergebnis möglicher Interferenzen zwischen intelligenten Steuerungs- oder Informationsbereitstellungswerkzeugen und anderen Komponenten des gesamten Verkehrssystems ist jedoch nicht ohne weiteres vorhersehbar. In diesem Papier werden die Auswirkungen der Integration ko-adaptiver Entscheidungsfindung in Bezug auf Routenwahl (durch Fahrer) und Kontrollmaßnahmen (durch Ampeln) diskutiert. Die Motivation dahinter ist, dass die Optimierung der Ampelsteuerung in die Navigationsunterstützung für den Fahrer integriert wird. Wir verwenden mikroskopische, agentenbasierte Modellierung und Simulation im Gegensatz zur klassischen Netzwerkanalyse, da sich diese Arbeit auf den Effekt der lokalen Anpassung konzentriert. In einem Szenario, das mit realen Netzen vergleichbare Merkmale aufweist, evaluieren wir basierend auf lokalen Wahrnehmungen verschiedene Arten der Anpassung durch Fahrer und Ampeln. Um die Leistung zu vergleichen, haben wir auch eine globale Optimierungsmethode auf Basis genetischer Algorithmen verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77949-0_1 d9f37daf4471aa36931fc58c4ce5611e;de;;;3.2.;;;Community-basierte Empfehlungsmodellierung für Wissenschaftler in sozialen Netzwerken von Hochschulen Academic Social Network Sites (ASNS) haben in den letzten Jahren ein rasantes Wachstum erfahren. Viele Benutzer hoffen, sich mit anderen Benutzern für eine mögliche akademische Zusammenarbeit in ASNSs anzufreunden. Obwohl es viele Empfehlungssysteme für Wissenschaftler gibt, berücksichtigen sie hauptsächlich die inhaltliche Ähnlichkeit der Benutzerprofile. Tatsächlich können die Gemeinschaften von ASNSs umfangreiche Netzwerkinformationen anbieten, um Empfehlungen auszusprechen. In diesem Artikel schlagen wir ein gemeinschaftsbasiertes Empfehlungsmodell für Wissenschaftler in ASNSs vor. Wir konstruieren zunächst forschungsfeldbasierte Graphen, erkennen Gemeinschaften in den Graphen nach der Louvain-Methode und geben dann eine Empfehlung für Wissenschaftler durch Berechnung von Freundschaftswerten ab. Wir implementieren das Modell auch auf einem realen Datensatz von einer akademischen sozialen Netzwerkseite namens SCHOLAT. Und die experimentellen Ergebnisse zeigen, dass unser Ansatz die Empfehlungen der Kernnetzwerkmitglieder verbessert und die inhaltsbasierte Benutzerempfehlungsmethode übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54370-8_28 3be8f889bd1513458f98febdc2cded50;de;;;3.2.;;;Planare Vorverarbeitung für Federeinbetter Federeinbetter sind konzeptionell einfach und erzeugen geradlinige Zeichnungen mit einem unbestreitbaren ästhetischen Reiz, was ihre Verbreitung beim automatisierten Zeichnen von Graphen erklärt. Beim Zeichnen von planaren Graphen erzeugen Federeinbetter jedoch häufig nicht-ebene Zeichnungen, da Kantenkreuzungen nicht in die minimierte Zielfunktion einfließen. Andererseits gibt es recht unkomplizierte Algorithmen zum Erstellen von ebenen geradlinigen Zeichnungen für ebene Graphen, aber die resultierenden Layouts sind im Allgemeinen ästhetisch nicht ansprechend, da Scheitelpunkte oft in kleinen Regionen gruppiert sind und die Kantenlängen dramatisch variieren können. Es ist bekannt, dass das anfängliche Layout die Ausgabe eines Federeinbetters beeinflusst, und dennoch ist ein zufälliges Layout fast immer der Standard. Wir untersuchen den Effekt der Verwendung verschiedener ursprünglicher Ebenenzeichnungen als Eingabe für einen Federeinbetter, indem wir die prozentuale Verbesserung bei der Reduzierung von Kreuzungen und bei der Erhöhung der Knotentrennung, der Kantenlängengleichmäßigkeit und der Winkelauflösung messen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36763-2_35 7e8f4814d91a84b26eeb77bf9d52ddf8;de;;;3.2.;;;Mehrstufige evolutionäre Algorithmen zur effizienten Identifizierung von regulatorischen Gennetzwerken Mit der Verfügbarkeit der Zeitreihendaten aus den Hochdurchsatztechnologien wurden verschiedene Ansätze zur Modellierung von Genregulationsnetzwerken vorgeschlagen. Gegenüber anderen hat S-System für diese Aufgaben den Vorteil, dass es sowohl quantitative (strukturelle) als auch qualitative (dynamische) Modellierungen in einem Framework bereitstellen kann. Es ist jedoch nicht einfach, die Struktur des wahren Netzwerks zu identifizieren, da die Anzahl der zu schätzenden Parameter viel größer ist als die der verfügbaren Daten. Darüber hinaus erfordert die konventionelle Parameterschätzung die zeitaufwendige numerische Integration, um dynamische Profile für das S-System zu reproduzieren. In diesem Beitrag schlagen wir mehrstufige evolutionäre Algorithmen vor, um Genregulationsnetzwerke effizient zu identifizieren. Mit der symbolischen Regression durch genetische Programmierung (GP) können wir die numerischen Integrationsschritte umgehen. Dies liegt daran, dass die Schätzung der Steigungen für die einzelnen Zeitverlaufsdaten aus den Ergebnissen von GP erhalten werden kann. Wir entwickeln auch hybride evolutionäre Algorithmen und modifizierte Fitnessbewertungsfunktionen, um die Struktur von Genregulationsnetzwerken zu identifizieren und gleichzeitig die entsprechenden Parameter zu schätzen. Indem wir die vorgeschlagene Methode auf die Identifizierung eines künstlichen genetischen Netzwerks anwenden, überprüfen wir seine Fähigkeit, das wahre S-System zu finden.;-;-;-;https://link.springer.com/chapter/10.1007/11732242_5 1142e2e49e0cb498f34bf61ef059caab;de;;;3.2.;;;Bildklassifizierung basierend auf dem neuronalen Netzwerk der Bild-Hash-Faltung Bei Bildklassifizierungsaufgaben müssen wir zur Verbesserung der Klassifizierungsgenauigkeit die mehrdimensionalen Probenmerkmale extrahieren. Bei riesigen Datenmengen ist die Berechnung und Speicherung jedoch ein großer Engpass. In diesem Artikel wurde eine Methode namens Image Hash vorgeschlagen, um dieses Problem zu lösen. Bild-Hash kann hochdimensionale Bildmerkmale für einfachen Binärcode codieren. Die Merkmalsextraktion ist der wichtigste Schritt beim Image-Hash. In den aktuellen Arbeiten zum Bild-Hash erfordert die Merkmalsextraktion künstliche Erfahrung, um einen komplizierten und nicht intelligenten Merkmalsextrahierer zu entwerfen. Das neuronale Faltungsnetzwerk kann das Originalbild als Eingabe verwenden, um von der untersten Ebene zur obersten Ebene von Merkmalen zu gelangen, die robust für Translationszoomen und -Rotation usw das Experiment beweist, dass es eine gute Klassifikationswirkung hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-48499-0_8 3f99d06a401007603ce2c35d38a5b7bf;de;;;3.2.;;;Multi-Granularity Hybrid Parallel Network Simplex-Algorithmus für minimale Flussprobleme Flow-Probleme mit minimalen Kosten gibt es in der Graphentheorie, Informatik, Informationswissenschaft und Verkehrswissenschaft. Der Netzwerk-Simplex-Algorithmus ist eine schnelle und häufig verwendete Methode zur Lösung von Flussproblemen mit minimalen Kosten. Die herkömmlichen sequentiellen Algorithmen können jedoch die Forderung nach hoher Recheneffizienz für große Netzwerke nicht erfüllen. Parallel Computing hat in den letzten Jahrzehnten zu zahlreichen bedeutenden Fortschritten in Wissenschaft und Technologie geführt und bietet das Potenzial, ein wirksames Mittel zur Lösung des Problems von Rechenengpässen großer Netzwerke zu entwickeln. Dieses Papier analysiert zunächst die Parallelisierbarkeit des Netzwerk-Simplex-Algorithmus und präsentiert dann einen Multi-Granularity-Parallel-Network-Simplex-Algorithmus (MPNSA) mit fein- und grobgranularen Parallelstrategien, die für parallele Anwendungen mit gemeinsam genutztem bzw. verteiltem Speicher geeignet sind. MPNSA wird durch eine Message-Passing-Schnittstelle, offenes Multiprocessing und eine einheitliche Compute-Device-Architektur erreicht, sodass es mit verschiedenen Hochleistungs-Computing-Plattformen kompatibel ist. Experimentelle Ergebnisse zeigten, dass MPNSA sehr große Beschleunigungseffekte hat und die maximale Beschleunigung 18,7 erreicht.;-;-;-;https://link.springer.com/article/10.1007/s11227-020-03227-9 c2abb0cd22d57641f20d55bccbcb48f5;de;;;3.2.;;;Formale Verifikationstechnik für das Grid-Service-Chain-Modell und seine Anwendung Die Sicherstellung der Korrektheit und Verlässlichkeit von groß angelegtem Ressourcenaustausch und komplexer Auftragsverarbeitung ist eine wichtige Aufgabe für Grid-Anwendungen. Aus formaler Methodensicht wird in dieser Arbeit ein Grid-Service-Chain-Modell basierend auf der Zustands-Pi-Kalküle als theoretische Grundlage für die Service-Zusammensetzung und Zusammenarbeit im Grid vorgeschlagen. Der Idee des Web Service Resource Framework (WSRF) folgend, ermöglicht Zustands-Pi-Kalkül die Lebenszyklusverwaltung von Systemzuständen, indem die Aktionen im ursprünglichen Pi-Kalkül mit Systemzuständen verknüpft werden. Darüber hinaus wird die Model-Checking-Technik für die logische Entwurfszeit- und Laufzeit-Verifizierung von Grid-Service-Chain-Modellen genutzt. Ein Rasteranwendungsszenario der dynamischen Analyse der Materialverformungsstruktur wird ebenfalls bereitgestellt, um die Wirksamkeit der vorgeschlagenen Arbeit zu zeigen.;-;-;-;https://link.springer.com/article/10.1007/s11432-007-0006-9 26954beffc989f489274d9d06c52b90c;de;;;3.2.;;;Initialisierung des neuronalen Netzes Die richtige Initialisierung ist eine der wichtigsten Voraussetzungen für eine schnelle Konvergenz von Feed-Forward-neuronale Netzen wie hohe Ordnung und Multilayerperceptrons. Diese Veröffentlichung zielt auf den optimalen Wert des Anfangsgewicht Varianz (oder Bereichs) Bestimmen, welche der Hauptparameter von Zufallsgewicht Initialisierungsmethoden für beiden Typen von neuronalen Netzen ist.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-59497-3_220 bbe13a3b81c80290b3f0e8ac8f0015c6;de;;;3.2.;;;Lösen von nichtlinearen Bilevel-Programmiermodellen des Gleichgewichts-Netzwerkentwurfsproblems: Eine vergleichende Übersicht Nichtlineare Zweiebenen-Programmierprobleme, zu denen das Gleichgewichts-Netzwerkentwurfsproblem gehört, sind extrem schwer zu lösen. Selbst wenn eine optimale Lösung erhalten wird, gibt es aufgrund der Nichtkonvexität des Zweiebenen-Programmierproblems keinen sicheren Weg zu wissen, ob die Lösung das globale Optimum ist oder nicht. In diesem Artikel werden aktuelle Entwicklungen in Lösungsmethoden für nichtlineare Programmiermodelle des Gleichgewichts-Netzwerkentwurfsproblems besprochen und diskutiert. Insbesondere stellt es eine Einführung für Algorithmen des Abstiegstyps bereit, über die in der Fachliteratur berichtet wird, und schlägt bestimmte Verbesserungen davon vor.;-;-;-;https://link.springer.com/article/10.1007/BF02098180 bbbf91b73984924c33915b28a05755fe;de;;;3.2.;;;Leistungsbewusste Intrusion Detection in mobilen Ad-hoc-Netzwerken Mobile Ad-hoc-Netzwerke (MANETs) sind eine vielversprechende neue Form der Vernetzung. Sie sind jedoch anfälliger für Angriffe als kabelgebundene Netzwerke. Darüber hinaus sind konventionelle Intrusion Detection Systeme (IDS) in hochdynamischen und ressourcenbeschränkten Umgebungen ineffektiv und ineffizient. Um ein effektives operatives MANET zu erreichen, müssen Kompromisse zwischen funktionalen und nichtfunktionalen Kriterien eingegangen werden. In diesem Beitrag zeigen wir, wie Genetic Programming (GP) zusammen mit einem Multi-Objective Evolutionary Algorithm (MOEA) verwendet werden kann, um Intrusion Detection-Programme zu synthetisieren, die optimale Kompromisse zwischen Sicherheitskriterien und dem von ihnen verbrauchten Strom eingehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11723-7_15 789dff49169cc8c9cbde1cd3c311e439;de;;;3.2.;;;Statistische Erkennung eines Satzes von Mustern mit einem neuartigen neuronalen Wahrscheinlichkeitsnetz Seit den Arbeiten von Specht ziehen die probabilistischen neuronalen Netze (PNNs) Forscher aufgrund ihrer Fähigkeit zur Erhöhung der Trainingsgeschwindigkeit und ihrer Äquivalenz zur optimalen Bayesschen Entscheidung der Klassifikationsaufgabe an. Es ist jedoch bekannt, dass die konventionelle Implementierung des PNN bei der statistischen Erkennung eines Satzes von Mustern nicht optimal ist. In diesem Artikel stellen wir die neuartige Modifikation des PNN vor und beweisen, dass sie in dieser Aufgabe mit allgemeinen Annahmen des Bayes-Klassifikators optimal ist. Die Modifikation basiert auf einer Reduktion der Erkennungsaufgabe auf das Homogenitätstestproblem. Im Experiment untersuchen wir ein Problem der Autorenschaftszuschreibung russischer Texte. Unsere Ergebnisse stützen die Aussage, dass das vorgeschlagene Netzwerk eine bessere Genauigkeit bietet und im Vergleich zum ursprünglichen PNN viel widerstandsfähiger gegenüber Änderungen des Glättungsparameters der Gaußschen Kernelfunktion ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33212-8_9 0d934a73cb68fb94542088846d9171d0;de;;;3.2.;;;Steuerung eines Quadrotors, der eine am Seil hängende Last trägt, um durch ein Fenster zu gehen In diesem Papier entwerfen wir ein optimales Steuerungssystem für einen Quadrotor, um eine seilgefederte Last zu tragen, die durch ein Fenster fliegt. Da das Fenster schmaler als die Länge des Kabels ist, ist es sehr schwierig, ein praktisches Kontrollsystem zu entwickeln, um es hindurchzuführen. Unsere Lösung umfasst eine Systemidentifikationskomponente, eine Trajektorienerzeugungskomponente und eine Trajektorienverfolgungssteuerkomponente. Es wird angenommen, dass das genaue dynamische Modell, das normalerweise aus den ersten Prinzipien abgeleitet wird, nicht verfügbar ist. Stattdessen wird ein Modellidentifikationsansatz gewählt, der auf einem einfachen, aber effektiven äquivalenten System niedriger Ordnung (LOES) beruht, um die dynamischen Kerneigenschaften des Systems zu beschreiben. Nachdem sie durch einige speziell entworfene Manöver angeregt wurden, werden die unbekannten Parameter im LOES unter Verwendung eines frequenzbasierten Schätzalgorithmus der kleinsten Quadrate erhalten. Basierend auf den geschätzten LOES wird dann ein numerischer Optimierungsalgorithmus zur aggressiven Trajektoriengenerierung verwendet, wenn relevante Randbedingungen gegeben sind. Die erzeugte Trajektorie kann dazu führen, dass der Quadrotor und das Lastsystem mit einem kaskadierten PD-Trajektorien-Tracking-Controller durch ein schmales Fenster gehen. Abschließend wird ein praktischer Flugtest auf Basis eines Astec Hummingbird Quadrotors demonstriert und das Ergebnis bestätigt den vorgeschlagenen Ansatz.;-;-;-;https://link.springer.com/article/10.1007/s10846-019-01038-6 f62cfe274379cfae5c48da3e24b5e5b8;de;;;3.2.;;;MS2CNN: Vorhersage des MS/MS-Spektrums basierend auf der Proteinsequenz unter Verwendung von tiefen Faltungsneuralnetzwerken Die Tandem-Massenspektrometrie ermöglicht es Biologen, Proteinproben in Form von verdauten Peptidsequenzen zu identifizieren und zu quantifizieren. Bei der Peptididentifizierung ist die Spektralbibliothekssuche sensitiver als die traditionelle Datenbanksuche, ist jedoch auf Peptide beschränkt, die zuvor identifiziert wurden. Ein genaues Werkzeug zur Vorhersage des Tandem-Massenspektrums ist daher entscheidend für die Erweiterung des Peptidraums und die Erhöhung der Abdeckung der Spektralbibliothekssuche.;-;-;-;https://link.springer.com/article/10.1186/s12864-019-6297-6 a3073fe5b47532a507e674adf62387ab;de;;;3.2.;;;Struktur- und Funktionsanalysen der Hfb1-, Hmob3- und Hmob33-cDNAs als Beispiel für humangehirnspezifische Genstudien In der Abteilung Molekulare Grundlagen der Humangenetik, Institut für Molekulare Genetik, wurden in den letzten Jahren hirnspezifische menschliche Gene untersucht. Die Klone Hfb1, Hmob3 und Hmob33 wurden aus menschlichen Gehirn-cDNA-Bibliotheken durch differentielles Screening selektiert. Die Klone wurden sequenziert, kartiert und auf Expression in verschiedenen menschlichen Geweben getestet.;-;-;-;https://link.springer.com/article/10.1023/A%3A1023353907095 9c446895f23f96d307c8ac3618a70240;de;;;3.2.;;;Ein sicheres Authentifizierungsprotokoll für ein drahtloses Sensornetzwerk in einem intelligenten Fahrzeugsystem Da sich drahtlose Sensornetzwerke (WSN) und das Internet der Dinge (IoT) in den letzten Jahren rasant entwickelt haben, wurde das intelligente Fahrzeugsystem in der Umgebung von WSN entwickelt, um fahrzeugbezogene Anwendungen wie Verkehrssicherheit für Fahrer, Steuerung von Verkehrssignalen, Verkehrsfunk bereitzustellen Informations- und Geschwindigkeitsüberwachung etc. Kürzlich haben Mohit et al. haben ein Authentifizierungsprotokoll für ein WSN-basiertes intelligentes Fahrzeugsystem vorgeschlagen. Ihr Protokoll besteht aus drei Haupteinheiten, nämlich Fahrzeugsensor, Senkenknoten und Benutzer. Fahrzeugsensoren sammelten Verkehrsdaten und senden sie an einen Senkenknoten des WSN. Der Benutzer hat Verkehrsdaten vom Senkenknoten im Offline-Modus für das Verkehrsmanagement verwendet. Mohitet al. behauptete, dass das vorgeschlagene Protokoll gegen verschiedene Angriffe wie unauffindbare Angriffe, Identitätswechsel und Passwort-Erraten sicher ist. Das vorgeschlagene Protokoll weist jedoch immer noch einige Schwachstellen auf, wie z. B. das Fehlen eines Sitzungsschlüssels, das Erleiden von Benutzerduplizierungen und Angriffen auf den Identitätswechsel von Senkenknoten. Daher kann ihr Protokoll keine vollständige Sicherheit garantieren. In diesem Papier wollen wir basierend auf ihrer Arbeit ein verbessertes Protokoll vorschlagen, das diese Sicherheitslücken in ihrem Protokoll überwindet. Die informelle Sicherheitsanalyse zeigt, dass unser vorgeschlagenes Protokoll Kabel ist, um die Sicherheitsschwächen zu verteidigen, die im Authentifizierungsprotokoll von Mohit et al. gefunden wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-05081-8_20 97d2a013201c941bc1e5f4cef4700694;de;;;3.2.;;;Ein prioritätsbewusstes anonymes Handover-Authentifizierungsprotokoll für drahtlose Kommunikation Ein schnelles Handover-Authentifizierungsprotokoll spielt eine wichtige Rolle für verzögerungsempfindliche Anwendungen in drahtlosen Netzwerken. Mobilen Benutzern können je nach bezahlten Kommunikationsgebühren unterschiedliche Prioritäten eingeräumt werden. In diesem Papier stellen wir ein prioritätsbewusstes anonymes Übergabeauthentifizierungsprotokoll vor, das attributbasierte Kryptographie verwendet. Das vorgeschlagene Protokoll realisiert gegenseitige Authentifizierung, Benutzeranonymität, Einrichtung von Sitzungsschlüsseln und Benutzerwiderruf usw. Insbesondere erhält es eine reizvolle Eigenschaft, nämlich Benutzerpriorität. Verglichen mit einigen bestehenden Systemen ist es effizienter und bietet gleichzeitig zufriedenstellende Sicherheit.;-;-;-;https://link.springer.com/article/10.1007/s11277-020-07492-y f02440b44ecbd9546f460f8971aed9a6;de;;;3.2.;;;Design einer kompakten Quad-Band-Monopol-Antenne mit offenem und mäanderförmigem Schlitz Ein Quadband mit dualer T-förmiger Stichleitung mit mäanderbelasteter Schlitzantenne wurde entwickelt, um S- und C-Band-Anwendungen abzudecken. Die Antenne erzeugt Quad-Resonanzmoden durch symmetrisches Ätzen von zwei offenen rechteckigen Schlitzen und einem mäanderförmigen Schlitz. Der Strahler mit Mikrostreifenleitung mit mäanderförmigem Schlitz und offenem Schlitz deckt ein Frequenzband von 2,15–2,55 GHz, 2,75–3,7 GHz, 5,4–5,6 GHz und 6,4–6,6 GHz bei ca , bzw. 6,5 GHz. Außerdem nimmt das vorgeschlagene Design eine Gesamtfläche von 20 × 18 mm² ein;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0749-3_49 76e19bdfd2904d24d078a63887e3b564;de;;;3.2.;;;Korrelationen zwischen Game of Thieves und anderen Zentralitätsmaßen in komplexen Netzwerken Die Social Network Analysis (SNA) wird verwendet, um den Austausch von Ressourcen zwischen Einzelpersonen, Gruppen oder Organisationen zu untersuchen. Die Rolle von Individuen oder Verbindungen in einem Netzwerk wird durch eine Reihe von Zentralitätsmetriken beschrieben, die eines der wichtigsten Ergebnisse von SNA darstellen. Grad, Nähe, Betweenness und Clustering-Koeffizient sind die am häufigsten verwendeten Zentralitätsmaße. Ihre Verwendung wird jedoch durch ihren Rechenaufwand stark behindert. Dieses Problem kann durch einen Algorithmus namens Game of Thieves (GoT) gelöst werden. Dank dieses neuen Algorithmus können wir die Bedeutung aller Elemente in einem Netzwerk (d. h. Knoten und Kanten) im Vergleich zur Gesamtzahl der Knoten berechnen. Diese Berechnung erfolgt nicht in quadratischer Zeit, wie bei den klassischen Methoden, sondern in polylogarithmischer Zeit. Ausgehend davon präsentieren wir unsere Ergebnisse zur bestehenden Korrelation zwischen GoT und den am weitesten verbreiteten Zentralitätsmaßen. Aus unseren Experimenten geht hervor, dass eine starke Korrelation existiert, die GoT als Zentralitätsmaß für große komplexe Netzwerke geeignet macht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-67197-6_3 c7a33779df4d94a82b4a4e63409cf8d8;de;;;3.2.;;;Ein effizienter genetischer Algorithmus für die Wir schlagen einen neuen genetischen Algorithmus für ein bekanntes Standortproblem von Einrichtungen vor. Der Algorithmus ist relativ einfach und generiert schnell gute Lösungen. Die Evolution wird durch eine gierige Heuristik erleichtert. Computertests mit insgesamt 80 Problemen aus vier verschiedenen Quellen mit 100 bis 1.000 Knoten zeigen, dass die beste vom Algorithmus generierte Lösung bei 85% der Probleme innerhalb von 0,1% des Optimums liegt. Der erforderliche Codier- und Rechenaufwand ist minimal, was den Algorithmus zu einer guten Wahl für praktische Anwendungen macht, die schnelle Lösungen erfordern, oder für die Obergrenzengenerierung, um optimale Algorithmen zu beschleunigen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1026130003508 2efe885c3428906a6f0305937469037c;de;;;3.2.;;;Reproduzierbare Netzwerk-Benchmarks mit Ein Eckpfeiler des wissenschaftlichen Fortschritts ist die Fähigkeit, experimentelle Ergebnisse zu reproduzieren. Im Kontext des Netzwerk-Benchmarkings verhindert die Systemkomplexität jedoch den Versuch eines Forschers, alle Informationen zu erfassen, die für die exakte Rekonstruktion eines Netzwerk-Benchmarking-Experiments erforderlich sind. Ohne diese Informationen können die Ergebnisse falsch interpretiert werden und sind wahrscheinlich nicht reproduzierbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-27866-5_9 2b77d9de8e4334adb51c76dce3abfa88;de;;;3.2.;;;Design und Implementierung des Twister-Algorithmus basierend auf FPGA Jüngste Durchbrüche in der Kryptoanalyse von Standard-Hash-Funktionen wie SHA-1 und MD5 erhöhen den Bedarf an Alternativen. Die Twister-Hash-Funktion wurde von einem Team von Ewan Fleischmann als Reaktion auf die Aufforderung zur Einreichung von Vorschlägen für einen kryptografischen SHA-3-Hash-Algorithmus des National Institute of Standards and Technology entwickelt. In diesem Papier wird die logische Struktur des Twister-Algorithmus vorgestellt. Nutzen Sie den Strukturvorteil von FPGA-Hardwaregeräten und geben Sie das FPGA-Design- und Implementierungsprojekt des Twister-Algorithmus. Abschließend wurde die Timing-Simulation einiger Module gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23214-5_83 57009ab4bee7ef891dee97708f0c97fc;de;;;3.2.;;;Soft Computing: die Konvergenz neuer Schlussfolgerungstechnologien Der Begriff Soft Computing (SC) steht für die Kombination aufkommender Problemlösungstechnologien wie Fuzzy Logic (FL), Probabilistic Reasoning (PR), Neural Networks (NNs) und Genetic Algorithms (GAs). Jede dieser Technologien bietet uns ergänzende Denk- und Suchmethoden, um komplexe, reale Probleme zu lösen. Nach einer kurzen Beschreibung jeder dieser Technologien werden wir einige ihrer nützlichsten Kombinationen analysieren, wie z und die Implementierung von FL-Controllern als NNs, die durch Algorithmen vom Backpropagation-Typ abgestimmt sind.;-;-;-;https://link.springer.com/article/10.1007/s005000050002 d6860e7880b915c7793d4cd50c15d352;de;;;3.2.;;;Portabilität der Leistung im BSP-Modell Die Nützlichkeit eines Programmiermodells hängt davon ab, ob es eine einfache mathematische Beschreibung des Modells gibt und ob es möglich ist, nützliche Berechnungen in diesem Modell klar auszudrücken. Dieses Kapitel beschreibt das Bulk Synchronous Parallel (BSP)-Modell [580], [389], [540] und präsentiert Algorithmen und zugehörige Kostenformeln für einen parallelen Scan- und Sortieralgorithmus. Eine wachsende Zahl von Forschern stellt fest, dass BSP ein realistisches Programmiermodell auf einem ausreichend hohen Abstraktionsniveau für die Entwicklung skalierbarer paralleler Anwendungen bietet [96] [498] [411] [489] [181] , [147], [399], [443], [97], [417], sowie die Erforschung numerischer Algorithmen [287] [286] [388] [111] [141] [92 ], [55], [54], [347], [56], Sortieren und Suchen [217], [219], [217], [274], [42], Simulation [109], [376], [378], Kommunikation [218] [323] [177] [458], parallele Datenstrukturen [377] [216] [221] [220] und parallele Programmierung allgemein [539] 68], [184], [110], [43], [108], [34]. Auch wenn ein nachvollziehbares Kostenkalkül nicht die einzige Voraussetzung für die Entwicklung portabel skalierbarer Parallelanwendungen ist, argumentieren wir, dass es ohne Kostenkalkulation keine;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0841-2_12 5ade94105bc30aaf9d3079381754b946;de;;;3.2.;;;Oracle-Datenbankbedrohungen In diesem Kapitel erklären wir, wie Sie Ihre Datenbank sichern und versuchen, Sicherheitslücken zu vermeiden. Im Allgemeinen ist der effektivste Weg, sich gegen Sicherheitsprobleme zu verteidigen, das Patchen. Beispielsweise hat Oracle in seinen kritischen Patch-Updates und auf seiner Seite mit Sicherheitswarnungen mehr als 60 Sicherheitswarnungen veröffentlicht, die jedes Jahr im Januar, April, Juli und Oktober veröffentlicht werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-5367-0_4 e01bd7edd280346bcd03b9374213079b;de;;;3.2.;;;SILC: Eine flexible und umgebungsunabhängige Schnittstelle für Matrix-Computation-Bibliotheken Wir schlagen ein neues Framework namens Simple Interface for Library Collections (SILC) vor, das Benutzern auf flexible und umgebungsunabhängige Weise Zugriff auf Matrixberechnungsbibliotheken bietet. SILC erreicht Quellunabhängigkeit zwischen Anwenderprogrammen und Bibliotheken durch (1) Trennung eines Funktionsaufrufs in Datenübertragung und Berechnungsanforderung, (2) Anforderung der Berechnung mittels mathematischer Ausdrücke in Form von Text und (3) Verwendung von einen separaten Speicherplatz, um Bibliotheksfunktionen unabhängig von den Anwenderprogrammen auszuführen. Mit SILC können Anwender ohne Modifikation der Anwenderprogramme einfach auf verschiedene Bibliotheken zugreifen. Dieses Papier beschreibt das Design und die Implementierung von SILC basierend auf einer Client-Server-Architektur und präsentiert einige experimentelle Ergebnisse zur Leistung des implementierten Systems in verschiedenen Computerumgebungen.;-;-;-;https://link.springer.com/chapter/10.1007/11752578_112 d694b160b8bc8791be5e17760987f5c3;de;;;3.2.;;;Teilspezifikationen von Bibliotheken: Anwendungen im Software Engineering Der Artikel präsentiert einen umfassenden Ansatz zur Lösung einer Reihe von Problemen, die bei Design, Entwicklung, Debugging und Wartung von Mehrkomponentenanwendungen auftreten. Der Ansatz basiert auf einem erstellten Formalismus, der es erlaubt, die Struktur und das sichtbare Verhalten der Komponente außerhalb der Anwendung zu spezifizieren. Gleichzeitig basiert der im Formalismus verwendete mathematische Ansatz auf dem System des erweiterten endlichen Automaten, der eine Analyse von Spezifikationen in akzeptabler Zeit ermöglicht. Damit ein Programmierer formale Beschreibungen der Komponenten festlegen kann, wird die Spezifikationssprache LibSL entwickelt. Es ermöglicht dem Programmierer, die Spezifikation einer Komponente oder einer Bibliothek in für den Programmierer verständlicher Form zu beschreiben, ohne auf die mathematischen Grundlagen des Formalismus einzugehen. In diesem Fall wird die Schnittstelle der Bibliothek und ihr von außen sichtbares Verhalten eingestellt. Die Implementierungsdetails sind nicht in der Spezifikation enthalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71472-7_1 038ef5489175affa71f895b3af5d0a28;de;;;3.2.;;;Änderungen machen Einer der Kritikpunkte an der schematischen Programmierung ist das Thema „Transparenz Transparenz der Oberfläche“. Es wurde berücksichtigt, dass Änderungen und Modifikationen eines visuellen Programms nicht annähernd so einfach sind wie das Bearbeiten von Text. In diesem Kapitel werden wir veranschaulichen, dass dies kein Problem ist und dass das Bearbeiten von Schemas einfach und leicht ist, es ist sicherlich so einfach wie die Textbearbeitung, die von jeder Programmentwicklungsumgebung bereitgestellt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-84882-618-2_2 a3856e84069b6b13bd9b17a19059079c;de;;;3.2.;;;Kamerabasierte Steuerung für Industrieroboter mit OpenCV-Bibliotheken Dieses Papier beschreibt ein Steuerungssystem für Industrieroboter, dessen Reaktionen auf der Analyse von Bildern basieren, die von einer auf dem Roboter montierten Kamera geliefert werden. Wir zeigen, dass ein solches Steuerungssystem mit einer Open-Source-Bildverarbeitungsbibliothek und billiger Hardware entworfen und implementiert werden kann. Am Beispiel eines konkreten Roboters demonstrieren wir den Aufbau eines möglichen Regelalgorithmus auf einem PC und dessen Interaktion mit dem Roboter.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16370-8_13 406201537ffe927893d3a3fd5d18b3b0;de;;;3.2.;;;Altersbedingte Veränderungen der Mikrotubuli im Meerschweinchen-Organ von Corti Durch biochemische und immunzytochemische Analysen wurden neue Erkenntnisse über altersbedingte Veränderungen der Sinnes- und Stützzellen des Meerschweinchen-Organs Corti gewonnen. Die quantitative Densitometrie von Immunoblots zeigte, dass, während die Spiegel von α-Tubulin bei Meerschweinchen im Alter von 3 Wochen bis 18 Monaten relativ konstant blieben, bei einigen Tubulin-Isoformen progressive Verschiebungen auftraten. Die Spiegel von tyrosiniertem Tubulin stiegen mit dem Alter an, nichttyrosinierbares Tubulin (Δ2-Tubulin) zeigte eine kompensatorische Abnahme, aber detyrosiniertes Tubulin änderte sich nicht, acetylierte, polyglutamylierte und glykylierte Tubulinwerte nahmen ebenfalls ab. Immunmarkierte Gewebeschnitte zeigten, dass sich die zelltypspezifische Verteilung von Tubulin bei jungen Meerschweinchen (tyrosiniert in den Mikrotubuli der Sinneszellen und posttranslational modifizierte Isoformen in den Stützzellen) mit zunehmendem Alter der Tiere nicht änderte. Es gab jedoch eine altersbedingte Abnahme der Markierung für α-Tubulin und alle posttranslational modifizierten Isoformen. Biochemische und immunzytochemische Ergebnisse belegen sowohl eine altersbedingte Abnahme der Anzahl und/oder Länge der Mikrotubuli als auch eine Zunahme des Pools an löslichem tyrosiniertem und detyrosiniertem Tubulin. Sie legen ferner nahe, dass Mikrotubuli, die nicht tyrosinierbares Tubulin von älteren Tieren enthalten, die Stellen für eine weitere Modifikation von Tubulin durch Acetylierung, Polyglutamylierung und Glycylierung sind. Veränderungen der Tubulin-Isoformspiegel und der Stabilität der Mikrotubuli im Corti-Organ können seine mikromechanischen Eigenschaften verändern, die daraus resultierenden Veränderungen in der Leitung schallinduzierter Vibrationen würden einen Mechanismus für altersbedingten Hörverlust darstellen.;-;-;-;https://link.springer.com/article/10.1007/s004419900163 35dde524df6bf3d585f33728ab04abc1;de;;;3.2.;;;Eine Methode zur Erkennung von Gesichtsausdrücken basierend auf einzigartigen Wertmerkmalen und verbessertem neuronalen BP Die Ausdruckserkennung ist eine wichtige subjektive Messmethode in der Emotionsberechnung. Unter Berücksichtigung der Stabilität und Repräsentativität von Bildalgebramerkmalen können Ausdrucksmerkmale durch Singulärwertzerlegung extrahiert werden. Als Klassifikator wird ein durch den genetischen Algorithmus optimiertes neuronales BP-Netz verwendet. Unter Verwendung des Klassifikators wurde ein Ausdruckserkennungsexperiment mit der JAFFE-Bibliothek und der Datenbank für emotional induzierte experimentelle Ausdrücke durchgeführt. Im Vergleich zum herkömmlichen BP-Klassifikator beweisen die Ergebnisse des Experiments, dass die Methode effektiver und effizienter ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37149-3_20 7ecbe9cb61be5078b3b199de33a4a0ad;de;;;3.2.;;;Codierung von Videodaten aus mehreren Quellen mit hierarchischer Wissensbibliothek Die schnell ansteigenden Überwachungsvideodaten haben die bestehenden Videocodierungsstandards in Frage gestellt. Obwohl ein wissensbasiertes Videocodierschema vorgeschlagen wurde, um die Redundanz von sich bewegenden Objekten über mehrere Videos zu entfernen und eine große Verbesserung der Codierungseffizienz zu erreichen, hat es immer noch Schwierigkeiten, komplizierte visuelle Änderungen von Objekten zu bewältigen, die sich aus verschiedenen Faktoren ergeben. In diesem Beitrag wird eine neuartige hierarchische Methode zur Wissensextraktion vorgeschlagen. Allgemeinwissen auf drei groben bis feinen Ebenen, nämlich Kategorieebene, Objektebene und Videoebene, wird aus historischen Daten extrahiert, um das anfängliche Erscheinungsbild, stabile Änderungen bzw. zeitliche Änderungen für eine bessere Objektdarstellung und Redundanzentfernung zu modellieren. Darüber hinaus wenden wir das extrahierte hierarchische Wissen auf Überwachungsvideocodierungsaufgaben an und etablieren ein hybrides prädiktionsbasiertes Codierungsframework. Einerseits wird hierarchisches Wissen auf die Bildebene projiziert, um eine Referenz für I-Frames zu erzeugen, um eine bessere Vorhersageleistung zu erzielen. Andererseits entwickeln wir eine transformbasierte Vorhersage für P/B-Frames, um die Rechenkomplexität zu reduzieren und gleichzeitig die Codierungseffizienz zu verbessern. Experimentelle Ergebnisse zeigen die Wirksamkeit unserer vorgeschlagenen Methode.;-;-;-;https://link.springer.com/article/10.1007/s11042-018-6825-4 65f5a915902015e81b11f8658e2794df;de;;;3.2.;;;Verschreibung von Übungen in der klinischen Praxis Es gibt solide Belege dafür, dass körperliche Aktivität für die Verbesserung der Gesundheit und Lebensqualität unerlässlich ist, und es besteht dringender Bedarf, wirksame Strategien zu finden, um dieses Wissen in die Gesundheitsversorgung einfließen zu lassen und wirksamere Strategien zur Förderung der körperlichen Aktivität. Eine systematische Literaturrecherche zu Methoden zur Bewegungsförderung aus randomisierten kontrollierten Studien mit mindestens 6-monatiger Nachbeobachtung, die 2007 veröffentlicht wurde, zeigte, dass eine Beratung oder Beratung zu körperlicher Aktivität durch medizinisches Fachpersonal (15 Studien) zu einer Steigerung der körperlichen Aktivität um 12 . führt % bis 50 %. Studien zu theoriebasierten Verhaltensinterventionen (21 Studien) zeigten einen Anstieg der körperlichen Aktivität um 10 bis 15 % im Vergleich zur üblichen Behandlung. Neuere Studien im Gesundheitssystem zeigen, dass „körperliche Aktivität auf Rezept“ ein praktikabler und effektiver Weg sein kann, um das körperliche Aktivitätsniveau der Patienten zu steigern. Es besteht ein großer und dringender Bedarf, dieses neue evidenzbasierte Wissen sowie Erfahrungen und pädagogische Fähigkeiten zu verbreiten, um der Epidemie einer sitzenden Lebensweise entgegenzuwirken. Allerdings gibt es noch große Wissenslücken über die langfristige Wirksamkeit verschiedener Methoden der Bewegungsförderung und die Umsetzung aktueller Erkenntnisse in die klinische Praxis. Ein Fokus auf translationale Forschung und Studien zur Umsetzung ist erforderlich.;-;-;-;https://link.springer.com/article/10.1007/s12170-011-0178-0 636de316d1f484a896cacb888dc39f53;de;;;3.2.;;;Forschung zum Bestätigungsmechanismus des SCPS-TP-Protokolls in Satellitennetzwerken Um die Bandbreitennutzung der Satellitenkommunikationsverbindung und die Leistung des SCPS-TP-Übertragungsprotokolls zu verbessern, wird in diesem Artikel eine Verbesserung des TCP-Vegas-Algorithmus vorgeschlagen. Für die Bandbreitenasymmetrie der Satellitenverbindung unterscheidet der vorgeschlagene Algorithmus den Überlastungszustand der relativen Warteschlangenverzögerung auf der Rückwärtsverbindung des Satellitennetzwerks. In der Stauvermeidungsphase werden die Vorwärts- und Rückwärtsverbindungszustände unterteilt und entsprechend verbessert. Auf dieser Grundlage wird die Übertragungsfrequenz des Rückverbindungsbestätigungspakets dynamisch angepasst. Das OPNET-Simulationsergebnis zeigt, dass der Algorithmus den Durchsatz der Satellitenverbindung verbessert, wenn die Bitfehlerrate hoch ist. Der Algorithmus hat eine geringe Komplexität und eine offensichtliche Verbesserung in der Wirkung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-14680-1_96 97622c8236cd53fb2433620ce500ee74;de;;;3.2.;;;Aufbau eines Videoservers mit Tertiärspeicher: Übung und Erfahrung Die Handhabung eines tertiären Speichergeräts, wie beispielsweise einer optischen Plattenbibliothek, im Rahmen eines plattenbasierten Stream-Service-Modells erfordert ein ausgeklügeltes Streaming-Modell für den Server und sollte die gerätespezifischen Leistungsmerkmale des tertiären Speichers berücksichtigen. In diesem Beitrag werden das Design und die Implementierung eines Videoservers erörtert, der einen tertiären Speicher als Quelle für die Medienarchivierung verwendet. Wir haben den Streaming-Mechanismus für einen Server sorgfältig entworfen, dessen Hauptfunktionen Stream-Scheduling, Disk-Caching und Zugangskontrolle umfassen. Das Stream-Scheduling-Modell integriert das tertiäre Medien-Staging in einen plattenbasierten Scheduling-Prozess und verbessert auch die Nutzung der tertiären Gerätebandbreite. Der Disk-Caching-Mechanismus verwaltet die begrenzte Kapazität der Festplatte effizient, um die Verfügbarkeit von Mediensegmenten auf der Festplatte zu gewährleisten. Die Zulassungssteuerung stellt einen geeigneten Mechanismus bereit, der über die Zulassung einer neuen Anforderung basierend auf der aktuellen Ressourcenverfügbarkeit des Servers entscheidet. Das vorgeschlagene System wurde auf einem Allzweck-Betriebssystem implementiert und ist voll funktionsfähig. Die Designprinzipien des Servers werden mit realen Experimenten validiert und die Leistungsmerkmale analysiert. Die Ergebnisse geben uns Hinweise, wie Server mit Tertiärspeicher effektiv in einer realen Umgebung eingesetzt werden sollten.;-;-;-;https://link.springer.com/article/10.1007/s005300200059 15b33a9c9aeec4e1e8513fa0e6e24887;de;;;3.2.;;;Gewährleistung von Sicherheit und Verfügbarkeit durch modellbasierte Cross-Layer-Anpassung Situations- und ressourcenbewusste Sicherheit ist für die Prozessleitsysteme, bestehend aus vernetzten Einheiten mit Sensoren und Aktoren, die die nationale kritische Infrastruktur überwachen und steuern, unerlässlich. Die Sicherheit kann jedoch aufgrund der inhärenten Abhängigkeiten und Kompromisse zwischen übergreifenden Anliegen nicht auf einer einzigen Ebene behandelt werden. Techniken, die auf einer Ebene angewendet werden, um die Sicherheit zu verbessern, wirken sich auf die Sicherheit, das Timing und den Stromverbrauch auf anderen Ebenen aus. Dieses Papier argumentiert für eine integrierte Behandlung der Sicherheit über mehrere Abstraktionsebenen (Anwendung, Middleware, Betriebssystem einschließlich Netzwerkstapel und Hardware). Ein wichtiger Schritt bei der Verwirklichung dieser integrierten Behandlung von situations- und ressourcenbewusster Sicherheit besteht darin, zunächst die schichtübergreifenden Interaktionen zwischen Sicherheitsrichtlinien zu verstehen und diese Interaktionen dann zu nutzen, um effiziente Anpassungsstrategien zu entwerfen (i) um Sicherheit, Servicequalität und Energie auszugleichen und (ii) um die Systemverfügbarkeit zu maximieren. Wir schlagen einen neuartigen Ansatz vor, der eine Kompositionsmethode innerhalb eines iterativen Tuning-Frameworks verwendet, die auf leichtgewichtigen formalen Methoden mit dynamischer Anpassung basiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23641-9_26 ed420274572fd1ac0eaf1927d158f36e;de;;;3.2.;;;Analytische Studie von drahtlosen Ad-hoc-Netzwerken: Typen, Eigenschaften, Unterschiede, Anwendungen, Protokolle Ad-hoc bezieht sich in der Regel auf eine Erläuterung der Planung zur Behandlung eines bestimmten Themas oder einer bestimmten Funktion, die zwar nicht allgemein gehalten, aber auch für die Erreichung der anderen Ziele ungeeignet ist. Die Ad-hoc-Netzwerke wurden speziell für den Aufbau von Kommunikationen in Umgebungen entwickelt, in denen sie für die Erstellung der spezifischen Netzwerkinfrastruktur extrem kompliziert oder nicht durchführbar sind. Die meisten dieser Ad-hoc-Netzwerke werden von den Verbrauchern spontan gebildet. Die erstaunliche Realität ist, dass die Zahl der Geräte, die in der Lage sind, die drahtlose Kommunikation aufrechtzuerhalten, täglich zunimmt. Ad-hoc-Netzwerke sind für die Implementierung in beträchtlichen Szenarien von Vorteil, beispielsweise in Universitäten, Museen, Nothilfe- oder Ermittlungsaufgaben, bei denen die Fähigkeit zur Zuweisung von Ressourcen und Dienstleistungen im Vordergrund steht. In diesem Artikel werden detaillierte Erläuterungen zu den drahtlosen Ad-hoc-Netzwerken, ihren historischen Rückblicken und ihrer Anwendung in gegenwärtigen Szenarien erläutert. Es erläutert verschiedene Arten solcher Netzwerke wie mobile Ad-hoc-Netzwerke (MANETs), drahtlose Sensornetzwerke (WSNs), drahtlose Mesh-Netzwerke (WMNs) und Fahrzeug-Ad-hoc-Netzwerke (VANETs). Dann konzentriert es sich auch in erster Linie auf die Nutzung des MANET, neben der Erfüllung der entscheidenden Aufgaben von Klassifizierungen, Eigenschaften, Herausforderungen, Potenzialfeldern für die Implementierung des Ad-hoc, Unterschiede und Entwicklungen von Routing-Protokollen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4451-4_3 08c1baf2e71e3fe65c45963005c1dcdd;de;;;3.2.;;;Der (fehlende) Einfluss von Retraction auf Zitationsnetzwerke Die Zurückziehung von Artikeln in der Forschung nimmt zu, dennoch werden zurückgezogene Artikel weiterhin in beunruhigender Häufigkeit zitiert. Dieser Beitrag präsentiert eine Analyse der jüngsten Zurückziehungsmuster mit einem einzigartigen Schwerpunkt auf der Rolle der Autorenselbstzitate, um die wissenschaftliche Gemeinschaft bei der Entwicklung von Gegenstrategien zu unterstützen. Dies wurde erreicht, indem Folgendes untersucht wurde: (1) Eine Kategorisierung von zurückgezogenen Artikeln, die vollständiger ist als zuvor veröffentlichte Arbeiten. (2) Die Beziehung zwischen Zitationszahlen und Selbstzitaten nach dem Zurückziehen der Autoren des Werks und die Verteilung der Selbstzitate auf unsere Zurückziehungskategorien. (3) Die Verteilung von Widerrufen, die sowohl vom Autor als auch vom Herausgeber verfasst wurden, auf unsere Widerrufskategorien. (4) Die Trends für sieben unserer neun definierten Rückzugskategorien über einen Zeitraum von 6 Jahren. (5) Der durchschnittliche Impact-Faktor von Zeitschriften nach Kategorie und die Beziehung zwischen Impact-Faktor, Selbstzitaten des Autors und Gesamtzitaten. Unsere Ergebnisse deuten darauf hin, dass in den letzten Jahren neue Gründe für Zurückziehungen aufgetaucht sind und immer mehr Redakteure Zurückziehungen schreiben. Die Anstiegsraten für die Zurückziehung variieren je nach Kategorie, und zwischen vielen Kategorien gibt es einen statistisch signifikanten Unterschied im durchschnittlichen Auswirkungsfaktor. 18 % der Autoren zitieren selbst zurückgezogene Arbeiten nach dem Widerruf, wobei nur 10 % dieser Autoren auch den Widerrufshinweis zitieren. Darüber hinaus gibt es eine positive Korrelation zwischen Selbstzitaten und Zitaten nach dem Zurückziehen.;-;-;-;https://link.springer.com/article/10.1007/s11948-014-9532-1 bf41736384308b6bcd95477d1a851836;de;;;3.2.;;;Komprimierung geschichteter Dokumente Bitmap-Dokumente sind oft eine Überlagerung von Grafik- und Textinhalten zusammen mit Bildern. Simardet al. in [1] zeigte, dass die Komprimierungsleistung dieser Dokumente verbessert werden kann, wenn wir Bilder von Text trennen und unterschiedliche Komprimierungsalgorithmen auf diese verschiedenen Datentypen anwenden. In diesem Papier untersuchen wir die geschichtete Bildkomprimierung mit einem neuen Software-Tool.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14292-5_10 62d15529bd7eca905ba2e1305bfbfb37;de;;;3.2.;;;Gradient Boosting Machine und LSTM-Netzwerk zur Online-Erkennung und Kategorisierung von Belästigung in sozialen Medien Wir präsentieren eine Lösung, die beim Wettbewerb für soziale Medien und Belästigung eingereicht wurde, der in Zusammenarbeit mit der ECML PKDD 2019 Conference stattfindet. Der verwendete Datensatz ist ein Satz von Tweets und die erste Aufgabe bestand in der Erkennung von Belästigungs-Tweets. Um dieses Problem zu lösen, haben wir eine Lösung vorgeschlagen, die auf einem Gradientenbaum-Boosting-Algorithmus basiert. Die zweite Aufgabe bestand darin, Belästigungs-Tweets nach der Art der Belästigung zu kategorisieren, ein Klassifizierungsproblem mit mehreren Klassen. Für dieses Problem haben wir ein LSTM-Netzwerkmodell vorgeschlagen. Die für diese Aufgaben vorgeschlagenen Lösungen wiesen eine gute Vorhersagegenauigkeit auf.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-43887-6_25 288bdefd2fb324a55e9999d73c70d422;de;;;3.2.;;;Schwacher Schutz für reflektierende Betriebssysteme Ein anpassbarer Scheduler für Echtzeit-Computing ist ein typisches Beispiel für den Vorteil erweiterbarer Betriebssysteme. Wir haben die Reflexionstechnik auf ein traditionelles Betriebssystem angewendet und experimentell einen anpassbaren Scheduler für Echtzeit-Computing implementiert. Dieses Papier berichtet über diese Erfahrung und erörtert die aufgetretenen Einschränkungen. Dann stellt dieses Papier einen neuen Mechanismus vor, den wir nennen;-;-;-;https://link.springer.com/chapter/10.1007/3-540-69687-3_12 113b7c4987605faf70f16016fabfacac;de;;;3.2.;;;Effektives Methoden-Tailoring beim Aufbau medizinischer Informationssysteme Der Bau eines inländischen medizinischen Informationssystems zeigt schwerwiegende Nebenwirkungen in Bezug auf Qualität und Produktivität, da sich die Erweiterung des Bauumfangs und der Trend zur kurzfristigen Lieferung vertiefen. In diesem Papier werden geeignete Tailoring-Regeln zum Zeitpunkt der Erstellung des medizinischen Informationssystems vorgestellt, um die praktische Richtlinie an dem Ort zu präsentieren, an dem indiskrete Tailorings vorgenommen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23312-8_27 bc170b256ecdc2332b0c80028e20a560;de;;;3.2.;;;Ein Multithread-GRASPxELS für das heterogene kapazitive Fahrzeug-Routing-Problem Dieses Kapitel konzentriert sich auf die Definition einer effizienten parallelen Metaheuristik, die das Multi-Core-Design neuerer Prozessoren nutzt. Der Ansatz ist als Greedy Randomized Adaptive Search Procedure (GRASP) konzipiert, die mit einer Multithread-Version eines metaheuristischen Schemas der Evolutionary Local Search (ELS) hybridisiert ist. Unser Ansatz wird anhand einer Erweiterung des Vehicle Routing Problems bewertet, bei dem eine heterogene Fahrzeugflotte zur Verfügung steht, um eine Reihe von Kunden zu bedienen. Das Ziel besteht darin, eine Reihe von Fahrten für eine begrenzte heterogene Fahrzeugflotte in einem Depotknoten zu entwerfen, die die Gesamttransportkosten minimiert. Jeder Fahrzeugtyp wird durch eine Kapazität und durch die Anzahl der verfügbaren Fahrzeuge definiert. Die Effizienz des parallelen Ansatzes wird an einem neuen Satz von realen Instanzen bewertet, die aus Daten der französischen Bezirke erstellt wurden. Eine faire Vergleichsstudie mit derselben Implementierung wird durchgeführt, um den Einfluss der Anzahl von Threads auf die Konvergenzrate zu bewerten. Somit kann ein besserer Kompromiss zwischen Lösungsqualität und Rechenzeit erreicht werden. Die numerischen Experimente zeigen, dass das hybride GRASPxparallel ELS die klassische iterative Version übertrifft und zahlreiche neue Bestlösungen bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30671-6_9 cc0d1c014b90630d7b81df4061c8346c;de;;;3.2.;;;Eine neuartige Methode für Protritage Site mit WSN Aufgrund der unterschiedlichen Anforderungen der Anwendungen und der Eigenschaften von Szenarien variiert auch das Routing-Protokoll je nach Situation. In diesem Papier stellen wir das Pre-Deployment Grading Protocol (PDGP) vor, das auf der Analyse der Merkmale der Mikroumgebungsüberwachung und der Designanforderungen basiert. Bei PDGP ist die Überwachungsregion in mehrere kleine Zonen unterteilt, und die Sensorknoten in derselben Zone bilden die Clusterstruktur. Der Clusterkopf ist für das Sammeln von Daten in seiner Zone verantwortlich. Durch eine Multiple-Hop-Verbindung werden Forward-Daten an die Senke übertragen. Der Energieverbrauch wird durch Clustering ausgeglichen und die Komplexität durch Zoning reduziert. Nach dem NS3-Simulationsexperiment beweisen die Ergebnisse der Leistungsanalyse von PDGP die Effizienz des Protokolls.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-15554-8_67 21d84c62fb67561a4ebd054e2e24f21e;de;;;3.2.;;;Bangla handschriftliche Zeichenerkennung mit mehrschichtigem Convolutional Neural Network Die Erkennung handschriftlicher Zeichen aus einem natürlichen Bild weist eine Vielzahl von Schwierigkeiten auf. Die handgeschriebenen Zeichen von Bangla bestehen aus sehr komplexen Formen und Strichen. Die jüngste Entwicklung des Deep-Learning-Ansatzes verfügt über starke Fähigkeiten, um High-Level-Feature aus einem Kernel eines Bildes zu extrahieren. Dieses Papier wird einen neuartigen Ansatz demonstrieren, der ein mehrschichtiges faltungsneurales Netzwerk gefolgt von einem Inception-Modul und einem vollständig verbundenen neuronalen Netzwerk integriert. Die vorgeschlagene Architektur wird verwendet, um ein System aufzubauen, das Bangla-Zeichen von verschiedenen Autoren mit unterschiedlichen Handschriftstilen erkennen kann. Im Gegensatz zu früheren manuellen Methoden zur Merkmalsextraktion lernte dieser CNN-basierte Ansatz verallgemeinerte und genauere Merkmale aus einem umfangreichen Trainingsdatensatz. 1.66.105 Trainingsbilder von handgeschriebenen Zeichen aus Bangla mit unterschiedlichen Formen und Strichen wurden verwendet, um die Leistung des Modells zu trainieren und zu bewerten, und ermöglichen somit eine höhere Erinnerungsrate für das Zeichen in einem Bild und übertreffen einige aktuelle Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-0277-0_13 9c55be015e8c3c8ee736e239926242f1;de;;;3.2.;;;De-novo- und inverse Faltungsvorhersagen der Proteinstruktur und -dynamik In den letzten zwei Jahren hat die Verwendung vereinfachter Modelle große Fortschritte beim Problem der globulären Proteinfaltung ermöglicht, nämlich der Vorhersage der dreidimensionalen (3D) Struktur eines globulären Proteins aus seiner Aminosäuresequenz. Eine Reihe von Gruppen haben sich mit dem Problem der inversen Faltung befasst, bei dem die Kompatibilität einer gegebenen Sequenz mit einer gegebenen (und bereits bestimmten) Struktur untersucht wird. Ein Vergleich vorhandener inverser Proteinfaltungsalgorithmen wird vorgestellt, und es werden Methoden zur Identifizierung von Sequenzen beschrieben, die wahrscheinlich identische Faltungstopologien annehmen, selbst wenn ihnen Sequenzhomologie fehlt. Die Erweiterung zur Herstellung von Strukturtemplates oder Fingerabdrücken aus idealisierten Strukturen wird diskutiert, und für achtgliedrige β-Barrel-Proteine ​​wird gezeigt, dass idealisierte Fingerabdrücke, die aus einfachen Topologiediagrammen konstruiert wurden, Sequenzen mit der entsprechenden Topologie korrekt identifizieren können. Darüber hinaus wird dieser inverse Faltungsalgorithmus verallgemeinert, um Elemente der Supersekundärstruktur vorherzusagen, einschließlich β-Haarnadeln, helikalen Haarnadeln und α/β/α-Fragmenten. Dann beschreiben wir ein Gittermodell mit sehr hoher Koordinationszahl, das die 3D-Struktur einer Reihe von globulären Proteinen de novo, d. Anwendungen auf von DeGrado und Mitarbeitern entworfene Sequenzen [Biophys. J., 61 (1992) A265] sagen entsprechend dem Experiment Faltungsintermediate, native Zustände und relative Stabilitäten voraus. Die Methodik wurde auch auf das von Richardson und Mitarbeitern [Science, 249 (1990) 884] entworfene Vier-Helix-Bündel und eine neu gestaltete monomere Version eines natürlich vorkommenden Vier-Helix-Dimers, rop, angewendet. Basierend auf dem Vergleich mit dem rop-Dimer sagen die Simulationen Konformationen mit rms-Werten von 3–4 Å von nativ voraus. Darüber hinaus können die De-novo-Algorithmen die Stabilität der vom inversen Algorithmus vorhergesagten Falten beurteilen, während die inversen Faltungs-Algorithmen die Qualität der de-novo-Modelle beurteilen können. Somit bietet der Synergismus des de novo- und des inversen Faltungsalgorithmus-Ansatzes eine Reihe komplementärer Werkzeuge, die weitere Fortschritte beim Proteinfaltungsproblem ermöglichen.;-;-;-;https://link.springer.com/article/10.1007/BF02337559 26af46ed6c26d53f4127291b12a5b8ec;de;;;3.2.;;;Ein einheitlicher Ansatz für die Überlebensfähigkeit verbindungsorientierter Netzwerke Dieser Beitrag befasst sich mit Problemen der Überlebensfähigkeit von Computernetzwerken. Wir präsentieren und diskutieren Aspekte der Überlebensfähigkeit von Content Delivery Networks (CDNs) und anderen Diensten basierend auf dem Anycast-Paradigma. Danach schlagen wir einen neuen einheitlichen Ansatz für die Überlebensfähigkeit von Netzwerken vor. Dieser Ansatz geht davon aus, dass für beide Arten von Datenverkehr gemeinsame Überlebensfähigkeitsmechanismen verwendet werden: Anycast (eins-zu-eins-von-vielen-Zugriff auf Inhaltsserver) und Unicast (eins-zu-eins-Datenaustausch zwischen einzelnen Benutzern). Für dieses Szenario formulieren wir ein neues Optimierungsmodell, das für die Entwicklung von Algorithmen verwendet werden kann. Das Optimierungsproblem ist NP-vollständig. Die Zielfunktion ist die Funktion des verlorenen Flusses aufgrund eines Ausfalls einer einzelnen Verbindung. Unseres Wissens wurde diesem Problem in der Literatur nicht viel Aufmerksamkeit geschenkt. Wir stellen auch ein numerisches Beispiel zur Verfügung, um den vorgeschlagenen Ansatz zu veranschaulichen.;-;-;-;https://link.springer.com/chapter/10.1007/11569596_3 622f04e544cb215bb1746fdd17a4c33a;de;;;3.2.;;;PRALU-to-VHDL-Konvertierung von Parallel-Algorithmus-Beschreibungen für Steuergeräte Bei der Entwicklung paralleler Algorithmen für VLSI-Steuereinheiten wird ein Verfahren zum Generieren von VHDL-Beschreibungen aus solchen, die in der Sprache PRALU geschrieben sind, vorgeschlagen. Es sollte es ermöglichen, heimische CAD-Tools mit weltweit akzeptierten zu integrieren.;-;-;-;https://link.springer.com/article/10.1134/S106373970604007X 931996be21e0b6e9f14f564118e457b4;de;;;3.2.;;;Ein attributbasiertes Signcryption-Schema zum Sichern von attributdefinierten Multicast-Kommunikationen Wir betrachten eine spezielle Art von Multicast-Kommunikation, die in vielen neuen Anwendungen wie Smart Grids, sozialen Netzwerken und Body-Area-Networks existiert, in denen die Multicast-Ziele durch eine Zugriffsstruktur spezifiziert werden, die von der Datenquelle basierend auf einem Satz von Attributen definiert und übertragen wird durch die Multicast-Nachricht. Eine Herausforderung besteht darin, diese Multicast-Kommunikationen abzusichern, um die vorherrschenden Sicherheits- und Datenschutzbedenken zu berücksichtigen, d. h. Zugriffskontrolle, Datenverschlüsselung und Authentifizierung bereitzustellen, um die Nachrichtenintegrität und Vertraulichkeit sicherzustellen. Um dieses Ziel zu erreichen, präsentieren wir ein Signcryption-Schema namens CP_ABSC basierend auf Ciphertext-Policy Attribute Based Encryption (CP_ABE) [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-28865-9_23 18515ff2850e17076a73ce52a65fe008;de;;;3.2.;;;Sichern von Netzwerken mithilfe situationsbasierter Firewall-Richtlinienberechnungen In den letzten zehn Jahren hat sich die Zahl der Benutzer, die sich mit dem Web verbinden, um ein Vielfaches erhöht. Da die Anzahl der Benutzer steigt, wird natürlich auch die Rechenlast des Netzwerks steigen, was das Netzwerk in Bezug auf Sicherheitsbedrohungen und Angriffe vor Herausforderungen stellt. An dieser Stelle spielt die Netzwerksicherheit eine Schlüsselrolle, indem die Firewall verwendet wird, die als eine der unmittelbarsten Anforderungen angesehen wird, um den Benutzern die Netzwerksicherheit zu gewährleisten. Mit der Vergrößerung des Netzwerks ist es auch erforderlich, die Implementierung der Sicherheitsfahrplan zu verbessern, andernfalls wäre es für Benutzer schwierig, sich auf netzwerkbasierte Dienste zu verlassen. In diesem Artikel wurde eine neue Idee vorgeschlagen, um Bedrohungen und Angriffe im Unternehmensnetzwerk zu vermeiden, indem der Umfang der Firewall-Richtlinien erweitert wird. Das Kapitel zeigt, wie wichtig die Kompatibilität von Netzwerkdesign und Firewall-Regeln ist, um das Netzwerk vor Bedrohungen und Angriffen zu schützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-81-322-1665-0_105 ba61b54e0ada6ea20ac06614a6d5f03e;de;;;3.2.;;;Verteilter Datenverteilungsmechanismus in sozialen Netzwerken basierend auf Fuzzy-Clustering Mit der Entwicklung des Internets, insbesondere dem Erfolg sozialer Medien wie Facebook, Renren und Douban, sind soziale Netzwerke zu einem wichtigen Bestandteil des Lebens der Menschen geworden. Für soziale Anwendungen besteht eines der wichtigsten zu lösenden Probleme darin, Daten mit hoher Geschwindigkeit genau an verschiedene Benutzer und Gruppen zu verteilen. In diesem Beitrag führen wir Fuzzy-Clustering in die Analyse sozialer Netzwerke ein. Benutzer mit ähnlichen Interessen werden nach Fuzzy-Ähnlichkeiten in das gleiche Netzwerk geclustert. Unser Ziel ist es zu untersuchen, wie ein solches Clustering die Datenverteilung weitestgehend verbessern kann. Wir nehmen 3.000 Benutzerdaten von Douban.com, rufen unscharfe soziale Beziehungen ab und simulieren Datenübertragung mit einem themenbasierten Pub/Sub-Mechanismus. Experimente zeigen, dass Netzwerk-Clustering basierend auf Fuzzy-Clustering die Datenverteilung effektiv verbessern kann, während es in hochdynamischen Umgebungen robust bleibt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37829-4_51 e96892db1feee788d9ea4e92a675ed49;de;;;3.2.;;;Ein Wirtschaftsmodell und Simulationsergebnisse von Entscheidungen zur App-Einführung in Netzwerken mit voneinander abhängigen Folgen für die Privatsphäre Die Popularität von Drittanbieter-Apps in sozialen Netzwerken und mobilen Netzwerken unterstreicht das Problem der gegenseitigen Abhängigkeit der Privatsphäre. Sie wird dadurch verursacht, dass Benutzer Apps installieren, die häufig die persönlichen Daten von Freunden der Benutzer sammeln und möglicherweise missbrauchen, die normalerweise nicht am Entscheidungsprozess beteiligt sind. In diesem Beitrag stellen wir ein ökonomisches Modell und Simulationsergebnisse vor, die diesen Problemraum adressieren. Wir untersuchen die Akzeptanz sozialer Apps in einem Netzwerk, in dem die Auswirkungen auf die Privatsphäre voneinander abhängig sind. Motiviert durch verhaltensökonomische Forschung erweitern wir das Modell, um andere Präferenzen der Nutzer zu berücksichtigen, d.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12601-2_14 6d6d53a9195e1f28c282aa05c2c188ad;de;;;3.2.;;;Forschung zum Bewertungssystem für Buchkäufe basierend auf neuronalen Netzen der EFGA Auf der Grundlage des Vergleichs und der Analyse der in- und ausländischen Buchkauftechnologie konzentriert sich dieser Artikel auf die Schwachstelle der aktuellen Methode und schlägt einen neuen Umgang mit der Buchkauffrage vor. Und wir konstruieren ein Buchkaufmodell auf Basis eines verbesserten genetischen Algorithmus neuronaler Netze. Diese Methode entwirft einen genetischen Algorithmus, der mit Effektfaktoren kombiniert wird. Auf diese Weise konnten wir die Gewichte und Schwellenwerte optimieren, zusammen mit einer dynamischen Anpassung der neuronalen Netzstruktur, um die beste Situation neuronaler Netze zu erreichen. Darauf aufbauend entwickeln wir ein computergestütztes Bewertungssystem für den Buchkauf. Die Versuchsergebnisse zeigen die Durchführbarkeit und Wirksamkeit der Verwendung neuronaler Netze, die durch die EFGA-Praxis aufgebaut wurden, bei der Lösung von Buchkauffragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54927-4_103 d65af184c088d1fd35fd46c275106351;de;;;3.2.;;;Neurodynamische Analyse der Informationsübertragung im Gehirn Dieser Artikel schlägt ein Modell neuronaler Netze vor, das aus Populationen von Wahrnehmungsneuronen, Interneuronen und Motoneuronen gemäß der Theorie der stochastischen Phasenrücksetzdynamik besteht. Nach diesem Modell werden die dynamischen Eigenschaften neuronaler Netze in drei Kopplungsfällen untersucht, nämlich Reihen- und Parallelkopplung, Reihenkopplung und einseitige Kopplung. Die Ergebnisse zeigen, dass die identifizierte Struktur neuronaler Netze es ermöglicht, die grundlegenden Eigenschaften der neuronalen Informationsverarbeitung in Bezug auf die Aktionen des optionalen Motors und des reflektierten Motors zu beschreiben. Die Erregung lokaler neuronaler Netze wird durch die Wirkung des optionalen Motors verursacht. Insbesondere ist die Erregung der neuronalen Population durch die Aktion des optionalen Motors im motorischen Kortex größer als die durch die Aktion des reflektierten Motors. Dieses Phänomen zeigt, dass mehr Neuronen an der neuronalen Informationsverarbeitung und der angeregten Synchronisationsbewegung unter der Wirkung des optionalen Motors teilnehmen.;-;-;-;https://link.springer.com/article/10.1007/s10483-009-1107-y 1f29122a04fb42226581d7e6a70e4f1d;de;;;3.2.;;;Eine objektorientierte Implementierung des Xpress Transfer Protocol Objektorientierte Entwurfsprinzipien lassen sich gut auf Protokollimplementierungen abbilden, da Protokolle im Wesentlichen zwei Strukturpakete und die Zustände der Endpunkte manipulieren. In diesem Papier beschreiben wir eine Implementierung des Xpress Transfer Protocol als einen in C++ geschriebenen Userspace-Daemon. Das objektorientierte Modell zwingt den Programmierer, Funktionalität und Informationseigentum richtig zu platzieren. Das Modell erleichtert die Portierung auf verschiedene Plattformen und erleichtert den Aufbau von Datenbereitstellungsdiensten erheblich.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-58494-3_32 3eef9812479a40f9251590d4c7f72281;de;;;3.2.;;;Beschreibung und Verallgemeinerung von Flussnetzen Was haben ein Baum und ein Fluss im Aufbau gemeinsam? Die Antwort liegt auf der Hand: Das Skelett eines Flusses auf der Karte ist eine baumartige Struktur. Aber warum haben Flüsse eine baumartige Struktur?;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3678-2_5 f88ec228b52a69dd6acdde0d7ccb7063;de;;;3.2.;;;Simulation von drahtlosen Netzwerken Die Simulation von drahtlosen Netzwerken ist in allen Phasen ihrer Lebensdauer wichtig, einschließlich der Entwurfs-, Betriebs- und Testphasen. Simulation wird verwendet, um die Leistung der Architektur, des Protokolls, des Geräts, der Topologie usw. eines drahtlosen Netzwerks vorherzusagen. Es ist eine kostengünstige und flexible Technik zur Leistungsbewertung drahtloser Systeme. Dieses Kapitel zielt darauf ab, die Hauptaspekte drahtloser Systeme zu überprüfen, einschließlich des drahtlosen Knotenobjektmodells, der Funkausbreitung, der physischen und Medienzugriffskontrollschichten und der drahtlosen Netzwerkarchitekturen. Anschließend überprüfen wir die Simulationstools und -pakete, die für diese Aufgabe optimiert sind. Fallstudien zur Simulation von drahtlosen Netzwerksystemen werden vorgestellt, um die Hauptkonzepte zu demonstrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-9218-5_6 8b5e442cf7c99ea4e2a53aa0dd6ff42d;de;;;3.2.;;;Trends in der Genomik und molekularen Markersystemen für die Entwicklung einiger nicht genutzter Nutzpflanzen Der Begriff „wenig genutzt“ wird häufig verwendet, um das Spektrum der Pflanzenarten zu charakterisieren, deren potenzieller Beitrag zu Ernährungssicherheit, Gesundheit, Einkommensgenerierung und Umweltdienstleistungen noch nicht vollständig ausgeschöpft wurde. Um ungenutzte Ressourcen nutzbar zu machen, ist der erste Schritt, sie vor dem Aussterben zu bewahren und zu erhalten;-;-;-;https://link.springer.com/article/10.1007/s13258-012-0049-1 8989646c2be6c907548121ac8223a9f4;de;;;3.2.;;;Ein Ansatz zur Erkennung von Verkehrsanomalien in Kommunikationsnetzen für Anwendungen von multimedialen medizinischen Geräten Anomalie oder anormale medizinische Multimediageräte führen zu einem anormalen Netzwerkverkehr und beeinträchtigen die Diagnose medizinischer Probleme. Das Auffinden von Anomalien im Netzwerkverkehr ist für normale Anwendungen von Multimedia-Medizingeräten von großer Bedeutung. Dieses Papier untersucht das Problem der Erkennung von Verkehrsanomalien in großen Kommunikationsnetzen mit multimedialen medizinischen Geräten. Wir verwenden das empirische Modus-Zerlegungsverfahren und die Wavelet-Pakettransformation, um ein genaues Detektionsverfahren vorzuschlagen, um es zu erfassen. Erstens verwenden wir die Wavelet-Pakettransformation, um den Netzwerkverkehr vorzubehandeln. Der Netzwerkverkehr wird in mehrere Schmalbandsignale zerlegt, die detailliertere Merkmale des Netzwerkverkehrs aufweisen. Zweitens wird das empirische Modenzerlegungsverfahren verwendet, um diese Schmalbandsignale in die Eigenmodenfunktion bei unterschiedlichen Maßstäben im Zeit- und Zeit-Frequenz-Bereich zu unterteilen. Wir berechnen den spektralen Kurtosis-Wert der intrinsischen Modenfunktion auf diesen verschiedenen Skalen, um falsche Komponenten der empirischen Modenzerlegung zu entfernen. Als Ergebnis können wir neue Zeit- und Zeit-Frequenz-Signale erhalten, die die versteckte Natur des anomalen Netzwerkverkehrs hervorheben. Drittens führen wir die Rekonstruktion von empirischen Moduszerlegungen und Wavelet-Pakettransformationen für die obigen Zeit- und Zeit-Frequenz-Signale durch, um eine Reihe neuer Zeitsignale zu erhalten. Dann können wir abnormalen Netzwerkverkehr finden und diagnostizieren. Simulationsergebnisse zeigen, dass unsere Methode effektiv und vielversprechend ist.;-;-;-;https://link.springer.com/article/10.1007/s11042-016-3402-6 8c24b7e8566fad600245faf3b9d53d58;de;;;3.2.;;;Optimale Platzierung von UV-basierten Kommunikationsrelaisknoten Wir betrachten ein eingeschränktes Optimierungsproblem mit gemischt ganzzahligen und reellen Variablen. Es modelliert die optimale Platzierung von Kommunikationsrelaisknoten in Gegenwart von Hindernissen. Dieses Problem ist beispielsweise in der Robotik weit verbreitet, wo es erforderlich ist, ein an einem Punkt befindliches Ziel zu vermessen und die gesammelten Informationen zurück zu einer an einem anderen Punkt befindlichen Basisstation zu übermitteln. Als Kommunikationsrelais können hierfür ein oder mehrere unbemannte Luft- oder Bodenfahrzeuge (UAVs oder UGVs) verwendet werden. Die Entscheidungsvariablen sind die Anzahl der unbemannten Fahrzeuge (UVs) und die UV-Positionen. Es wird angenommen, dass die Zielfunktion auf die Platzierungsqualität zugreift. Wir schlagen eine Instanz einer solchen Funktion vor, die für den Zugriff auf die UAV-Platzierung besser geeignet ist. Die Einschränkungen werden erstens durch eine freie Sichtverbindungsanforderung für jedes aufeinanderfolgende Paar in der Kette und zweitens durch eine begrenzte Kommunikationsreichweite bestimmt. Aufgrund dieser Anforderungen ist unser eingeschränktes Optimierungsproblem ein schwieriges multiextremes Problem für eine beliebige feste Anzahl von UVs. Darüber hinaus ist die zulässige Menge reeller Variablen typischerweise disjunkt. Wir präsentieren einen Ansatz, der es uns ermöglicht, effizient eine praktisch akzeptable Annäherung an ein globales Minimum im Problem der optimalen Platzierung von Kommunikationsrelaisknoten zu finden. Es basiert auf einer räumlichen Diskretisierung mit anschließender Reduktion auf ein Kürzeste-Weg-Problem. Auch der Fall einer begrenzten Anzahl verfügbarer UVs wird hier betrachtet. Wir stellen zwei Label-Korrekturalgorithmen vor, die in der Lage sind, einige Besonderheiten des resultierenden eingeschränkten kürzesten Pfadproblems zu nutzen. Die Algorithmen erzeugen eine Pareto-Lösung für das Zwei-Ziel-Problem der Minimierung der Pfadkosten und der Anzahl von Sprüngen. Wir begründen ihre Richtigkeit. Die vorgestellten Ergebnisse numerischer 3D-Experimente zeigen, dass unsere Algorithmen dem auf die Lösung dieses Problems zugeschnittenen herkömmlichen Bellman-Ford-Algorithmus überlegen sind.;-;-;-;https://link.springer.com/article/10.1007/s10898-010-9526-8 8a3419a7e4999283104d904ac45a580d;de;;;3.2.;;;So legen Sie Ihr Netzwerkpasswort fest und verwalten es: Ein mehrdimensionales Schema zur Wiederverwendung von Passwörtern Die schnelle Entwicklung des Internets und stark dezentralisierter Netzwerkdienste, die dazu führt, dass die Mehrheit der Internetbenutzer weiterhin mehr Konten registriert, und führt zu einer hohen Inzidenz der Wiederverwendung von Passwörtern, wodurch die Gefahr des Verlusts von Benutzerinformationen im Domino-Stil besteht. Basierend auf den Daten der Internet Password Leak Door Ende 2011 sowie der Online-Umfrage der College-Studenten analysierte das Papier die strukturellen Eigenschaften und das Wiederverwendungsverhalten von Netizen-Passwörtern im Detail und entwarf so ein mehrdimensionales Passwort-Schema, das in die Informationsdimensionen und klassifiziertes Management. Dieses Schema, das auf der Struktur von Seed-Reuse-Code basiert, umfasst drei Dimensionen: Die Inhaltsdimension enthält einen multi-unabhängigen Informationsfaktor, der den Hauptteil des Passworts ausmacht, die formale Dimension ist für die Konvertierungsformatierung verantwortlich, um die Komplexität und Sicherheit des Passworts und Raum-Zeit-Dimension ist gezielt darauf ausgelegt, die Aktualität und Wiederverwendbarkeit des Passworts zu schützen. Durch vergleichende Analyse und quantitative Analyse hat das neue Passwortschema nicht nur eine gute Einprägsamkeit und Bequemlichkeit, sondern kann auch den gewalttätigen Angriffen und Bekanntenangriffen effektiv widerstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-45526-5_25 530e421eb57cf77fce1702c32b298a7c;de;;;3.2.;;;Robuste und stark konsistente verteilte Speichersysteme Das Design von verteilten Speichersystemen bringt viele Herausforderungen mit sich, da die Benutzer und Speicherknoten physisch verteilt sind. In diesem Dissertationskonsortiumspapier präsentieren wir einen Rahmen zur Förderung des gleichzeitigen Zugangs zu;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-75018-3_51 3f55f0bc168cb229ce2ce1334437357b;de;;;3.2.;;;Erkundung des sozialen Netzwerks von Forschern zur Entdeckung von Gemeinschaften Die Forschungsgemeinschaft spielt eine sehr wichtige Rolle bei der Unterstützung von Forschern bei der Erschließung neuer Forschungsthemen. Die Autoren schlagen ein Community-Mining-System vor, das mithilfe von Bibliografiedaten hilft, Forschergemeinschaften zu finden. Das Grundkonzept dieses Systems besteht darin, eine interaktive Visualisierung von Gemeinschaften sowohl lokaler als auch globaler Gemeinschaften bereitzustellen. Wir haben dieses Konzept mit aktuellen Bibliographiedaten umgesetzt und eine Fallstudie mit dem vorgeschlagenen System vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/11780496_48 d3a7b6da9acfdf29bc437e7085f27e2c;de;;;3.2.;;;Integration von Nachhaltigkeit in die Optimierung von Kraftstofflogistiknetzwerken Der nachhaltige Betrieb von Logistiksystemen ist eine Herausforderung für Unternehmen, die raffinierte Mineralölprodukte importieren, da ein komplexes Netzwerk erforderlich ist, um dieses brennbare Produkt regelmäßig an die Endkunden zu liefern. Ziel der vorliegenden Studie ist es, einen systematischen Ansatz zur Optimierung des Fuel Logistics Network (FLN) bereitzustellen, der neben den Transportkosten auch die prozessbezogenen Risiken und die relevanten Externalitäten berücksichtigt. Zur risikobewussten Optimierung von Logistiknetzwerken wird zunächst ein Multi-Objective (M-O) Location-Inventory Problem (LIP) entwickelt. Das Basismodell wird dann zu einem Location-Inventory-Routing Problem (LIRP) erweitert, indem Routing-Entscheidungsvariablen integriert werden, um das transportbezogene Risiko und die Externalitäten zu berücksichtigen. Ein evolutionärer M-O-Algorithmus wird schließlich angepasst, um die entwickelten Probleme zu lösen. Der Hauptbeitrag der vorliegenden Studie besteht daher darin, die nichtfinanziellen betrieblichen Faktoren, einschließlich Sicherheit, Emissionen und Staus, hervorzuheben, die einen direkten Einfluss auf die Nachhaltigkeit des Kraftstoffsektors haben. Die vorgeschlagenen mathematischen Modelle werden im Fall eines großen Liquefied Petroleum Gas (LPG)-Unternehmens in Korea getestet. Die abschließenden Ergebnisse deuten darauf hin, dass die Dezentralisierung die Nachhaltigkeit im Logistiknetzwerk der Fallstudie hinsichtlich des Sicherheitsniveaus um die Netzwerkknoten im Vergleich zu den aktuellen Normen spürbar verbessern kann. Es wird auch vorgeschlagen, dass eine häufige und kleinvolumige Kraftstoffversorgung eine praktikable Alternative zum Volltanken von Autotankstellen sein kann. Dies kann durch die Konsolidierung von Sendungen mit geringem Volumen in große Sendungen im Rahmen einer Milkrun-Transportroutine oder durch den Einsatz von Lastkraftwagen mit geringer Kapazität erreicht werden. Eine solche Prozessgestaltung dürfte den Sicherheitsfaktor um die Autotankstellen weiter verbessern.;-;-;-;https://link.springer.com/article/10.1007/s12205-019-1373-7 34d2d57616e7b51ba5854b032417820e;de;;;3.2.;;;Ein effizienter Ansatz zur Erzeugung von Maschinensteuerungsgeräuschen für die Verbindung von realen und virtuellen Umgebungen In diesem Beitrag werden die Motivationen und Methoden zur Generierung des Maschinensteuerungssounds für virtuelle Umgebungen vorgestellt. Die Faktoren des Maschinensteuerschalls werden untersucht, um den Schall in den virtuellen Systemen effizient zu handhaben, und einige der steuerbaren Faktoren werden implementiert. Zuerst schlagen wir ein neues Sounddateiformat vor, um den richtigen Sound mit den Soundfaktoren in den virtuellen Systemen zu finden oder zu erzeugen, die verschiedene Arten von Ereignissen und Geräuschen verursachen. Dann wenden wir die vorgeschlagene Tonerzeugungstechnik auf das virtuelle System für ein Realitätsmodell an, das speziell auf den MP-Player ausgerichtet ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25327-0_43 79b59ecd4a5b43e0f09822b112d148d3;de;;;3.2.;;;Blockieren der E/A-Planung auf Speicherservern verteilter Dateisysteme Dieses Dokument stellt ein neues Schema der E/A-Planung auf Speicherservern verteilter/paralleler Dateisysteme vor, um eine bessere E/A-Leistung zu erzielen. Zu diesem Zweck analysieren wir zunächst Lese-/Schreibanforderungen in der E/A-Warteschlange des Speicherservers (wir nennen sie Block-E/A), indem wir unsere vorgeschlagene Technik der horizontalen Partitionierung verwenden. Dann sollen alle Blockanforderungen auf der Grundlage ihrer Offsets in mehrere Gruppen unterteilt werden. Das heißt, alle Anforderungen, die sich auf dieselbe Chunk-Datei beziehen, werden gruppiert und dann innerhalb desselben Zeitfensters zwischen dem Öffnen und Schließen der Ziel-Chunk-Datei auf dem Speicherserver erfüllt. Als Ergebnis kann die Zeit, die durch das Abschließen von Block-E/A-Anforderungen entsteht, wegen weniger Dateioperationen an den entsprechenden Chunk-Dateien in den Low-Level-Dateisystemen der Servermaschinen erheblich verringert werden. Außerdem führen wir einen Algorithmus ein, um eine Priorität für jede Gruppe von Block-I/O-Anforderungen zu bewerten, und dann verteilt der Speicherserver Gruppen von I/Os, indem er der Prioritätsreihenfolge folgt. Folglich sind die Anwendungen mit höheren I/O-Prioritäten, z.B. Sie haben weniger E/A-Operationen und eine geringe Größe der beteiligten Daten und können zu einem früheren Zeitpunkt beendet werden. Wir implementieren einen Prototyp dieses serverseitigen Schedulings im PARTE-Dateisystem, um die Machbarkeit und Anwendbarkeit des vorgeschlagenen Schemas zu demonstrieren. Experimentelle Ergebnisse zeigen, dass das neu vorgeschlagene Schema eine bessere I/O-Bandbreite und weniger I/O-Zeit erreichen kann, verglichen mit der Strategie von First Come First Served sowie anderen serverseitigen I/O-Planungsansätzen.;-;-;-;https://link.springer.com/article/10.1007/s10723-017-9423-1 06221872330d9d9b66e55483139f0b97;de;;;3.2.;;;Ein paralleler Abstiegsalgorithmus für die konvexe Programmierung In diesem Beitrag schlagen wir einen parallelen Zerlegungsalgorithmus zur Lösung einer Klasse konvexer Optimierungsprobleme vor, der breit genug ist, um gewöhnliche konvexe Programmierprobleme mit einer stark konvexen Zielfunktion zu enthalten. Der Algorithmus ist eine Variante der Trust-Region-Methode, die auf das Fenchel-Dual des gegebenen Problems angewendet wird. Wir beweisen die globale Konvergenz des Algorithmus und berichten über einige Rechenerfahrungen mit dem vorgeschlagenen Algorithmus auf dem Connection Machine Model CM-5.;-;-;-;https://link.springer.com/article/10.1007/BF00429749 3d853894d6c999d2a191063db08da2bd;de;;;3.2.;;;Erkennung von Haarballen im Gewebe basierend auf neuronalen Netzen mit memristiven Zellen Mit dem Ziel der geringen Erkennungsrate traditioneller Erkennungsmethoden in komplexen Umgebungen und der langen Zeit der Experimentatoren wurde eine Testmethode zur Initiierung von textilem Pilling in einer komplexen Umgebung basierend auf memristiven neuronalen Zellen vorgeschlagen. Der Memristor wird als Verbindungsgewicht des zellularen neuronalen Netzes verwendet, und das Verbindungsgewicht ist flexibel einstellbar. Durch die adaptive Anpassung der Netzwerkparameter wird die Bildentrauschung und Kantenextraktion des neuronalen Netzwerks mit memristiven Zellen realisiert, die Bildverarbeitungsgeschwindigkeit verbessert, die Rauschinterferenz effektiv herausgefiltert und die Bildkanteninformationen hervorgehoben. Durch die adaptive Anpassung von Netzwerkparametern wird die Bildentrauschung und Kantenextraktion des neuronalen Netzwerks mit memristiven Zellen realisiert, die Bildverarbeitungsgeschwindigkeit verbessert, die Rauschstörungen effektiv herausgefiltert und die Bildkanteninformationen hervorgehoben. Aus dem Experiment ist ersichtlich, dass das Verfahren vorteilhaft ist, um die experimentelle Aufgabe des Inspektionsmechanismus zu erleichtern, und das Pilling des Textils kann einen besseren Erkennungseffekt erzielen, was zur Verbesserung der Erkennungsrate und Erkennungsgeschwindigkeit von Vorteil ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8086-4_23 320f70832292080a25ab342d531f60be;de;;;3.2.;;;Neuronale Netzimputation: Eine Erfahrung mit der nationalen Ressourceninventur Imputation ist in fast allen großen Umfragen erforderlich. Imputationsinstrumente werden oft je nach Zweckmäßigkeit und Kontext der Umfragen verwendet. Die traditionelle Hot-Deck-Imputation erfordert umfassende Kenntnisse der Erhebungsvariablen. Die explizite modellbasierte Imputation benötigt für jede Umfragevariable ein valides Modell. Bei groß angelegten nationalen Erhebungen arbeiten unterschiedliche Personengruppen mit unterschiedlichem Hintergrund an unterschiedlichen Erhebungsphasen, und oft hat die statistische Schätzungsgruppe wenig oder unzureichende Kommunikation mit den anderen Gruppen. In solchen Situationen ist es schwierig, eine Hot-Deck-Imputation zu verwenden. Andererseits kann es aufgrund der Komplexität der Umfrage nicht einfach sein, ein geeignetes Modell für jede Umfragevariable zu finden, und daher kann eine nichtparametrische Methode – wie die neuronale Netzimputation – attraktiv sein. Eine solche groß angelegte nationale Erhebung ist der National Resources Inventory Survey (NRI) des US-Landwirtschaftsministeriums. Die Umfrage enthält konstruktionsbedingt fehlende Werte. Die fehlenden Werte werden mit einem Spender-basierten Verfahren imputiert. In diesem Artikel wird ein Imputationsmodell für neuronale Netze entwickelt und dessen Leistungsfähigkeit mit der bestehenden Imputationsmethode verglichen. Das Endergebnis sieht vielversprechend aus.;-;-;-;https://link.springer.com/article/10.1198/108571108X337394 348ff648a3e22f102f83ce4d0a285988;de;;;3.2.;;;Schätzung der Wahrscheinlichkeitsdichte durch Störung und Kombination von baumstrukturierten Markov-Netzwerken Um die Idee von Perturb und Combine zur Schätzung von Wahrscheinlichkeitsdichten zu untersuchen, untersuchen wir Mischungen von baumstrukturierten Markov-Netzwerken, die durch Bagging kombiniert mit dem Chow- und Liu-Maximum-Weight-Spanning-Tree-Algorithmus oder durch reine Zufallsstichproben abgeleitet werden. Wir bewerten empirisch die Leistung dieser Methoden in Bezug auf die Genauigkeit in Bezug auf Mischungsmodelle, die durch EM-basiertes Lernen von Naive Bayes-Modellen und EM-basiertes Lernen von Mischungen von Bäumen abgeleitet wurden. Wir stellen fest, dass die eingesackten Ensembles alle anderen Methoden übertreffen, während die zufälligen auch sehr gut abschneiden. Da die Rechenkomplexität der ersteren quadratisch und die der letzteren linear in der Anzahl der interessierenden Variablen ist, ebnet dies den Weg für die Entwicklung effizienter Dichteschätzverfahren, die auf Probleme mit sehr vielen Variablen und vergleichsweise angewendet werden können sehr kleine Stichprobengrößen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02906-6_15 94395e5a7754daf4e8e4d4c48e19ca57;de;;;3.2.;;;Eine semantische Suchmaschine zum Auffinden und Auswählen von Sensor-Webdiensten für drahtlose Sensornetzwerke Sensor Web Services sind die am meisten aufkommenden verteilten Anwendungen und können in einer Vielzahl von Anwendungsdomänen verwendet werden. Die semantische Erkennung von Sensordiensten wird vorgeschlagen, um die Erkennung von Sensordiensten zu verbessern. sensor Webservice erzeugt eine große Anzahl heterogener Rohdaten, daher ist es heutzutage eine große Herausforderung, diese Rohdaten mit verschiedenen Techniken zu organisieren, um die Auffindung und Auswahl einfach und effizient zu gestalten. Dieses Papier erweitert die Funktionalität von UDDI durch die Einführung einer semantischen Beschreibung, die gleichzeitig mit der Registrierung des Dienstes im semantischen Repository gespeichert wird. Um die angeforderten Dienste bereitzustellen, ist in der Regel ein Match Maker erforderlich. Der Matchmaking-Algorithmus in diesem Beitrag ist ein generischer semantischer Discovery-Algorithmus, der nicht nur auf die schlüsselwortbasierte Suche beschränkt ist, sondern dazu verwendet wird, die bestmöglichen Dienste zu finden und den richtigen Dienst für den richtigen Benutzer auszuwählen.;-;-;-;https://link.springer.com/chapter/10.1007/978-81-322-0740-5_69 696d7b3a7e53cd3c4edfde4e0e5b2bb3;de;;;3.2.;;;Ganzzahlige Bayessche Netzwerkklassifizierer Dieses Papier stellt ganzzahlige Bayessche Netzwerkklassifizierer (BNCs) vor, d. h. BNCs mit diskret bewerteten Knoten, in denen Parameter als ganze Zahlen gespeichert werden. Diese Netzwerke ermöglichen eine effiziente Implementierung in Hardware, während eine (teilweise) probabilistische Interpretation unter Skalierung beibehalten wird. Ein Algorithmus zur Berechnung von ganzzahligen Parametern zur Margenmaximierung wird vorgestellt und seine Effizienz wird demonstriert. Die resultierenden Parameter haben eine überlegene Klassifizierungsleistung im Vergleich zu Parametern, die durch einfaches Runden von Parametern mit doppelter Genauigkeit erhalten werden, insbesondere für eine sehr geringe Anzahl von Bits.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44845-8_14 c21e421e3d6dc15be95ea6f257384103;de;;;3.2.;;;Schutz der Videoqualität für Echtzeit-Videostreams über drahtlose Netzwerke Die empfangene Videoqualität hängt von der verfügbaren Verbindungsrate und der Paketverlustrate ab, die in einer ausgelasteten Netzwerkverbindung korreliert sind. Selbst niedrige Paketverlustraten (PLRs) können die Videoqualität erheblich reduzieren. In diesem Dokument wird eine Vorwärtsfehlerkorrektur (FEC) auf Paketebene auf den Videostrom angewendet, um die Video-PLR zu reduzieren. Es wird eine konstante Bruttodatenrate angenommen, so dass das Hinzufügen einer FEC zu einer Verringerung der effektiven Videodatenrate führt. Der FEC-Block wird am Ende jeder Video-VOP abgeschnitten, so dass es keine Inter-VOP-Abhängigkeiten für die FEC-Korrektur gibt. Es wird ein Algorithmus vorgeschlagen, um die FEC-Länge zu optimieren, basierend auf der Quality of Experience, wie sie durch den ITU-T R G.1070-Standard modelliert wird. Es zeigt sich, dass der Optimierungsalgorithmus die Videoqualität deutlich steigern kann, ohne die Bruttodatenrate zu erhöhen. Der Algorithmus wurde sowohl analytisch als auch durch Simulationen evaluiert, die die sehr deutlichen Steigerungen der subjektiven Videoqualität bestätigen.;-;-;-;https://link.springer.com/article/10.1007/s11235-011-9531-3 282165781c670dfd74ad5571fecc0110;de;;;3.2.;;;Einfluss der Deskriptorvektorskalierung auf die Klassifizierung von Medikamenten und Nichtmedikamenten mit künstlichen neuronalen Netzen Der Einfluss der Vorverarbeitung molekularer Deskriptorvektoren zur Lösung von Klassifikationsaufgaben wurde für die Wirkstoff/Nicht-Wirkstoff-Klassifikation durch künstliche neuronale Netze analysiert. Molekulare Eigenschaften wurden verwendet, um Deskriptorvektoren zu bilden. Es wurden zwei Arten von neuronalen Netzen verwendet, überwachte neuronale Mehrschichtnetze, die mit dem Backpropagation-Algorithmus trainiert wurden, und nicht überwachte selbstorganisierende Karten (Kohonen-Karten). Die Daten wurden durch logistische Skalierung und Histogrammausgleich vorverarbeitet. Für beide Arten von neuronalen Netzen verbesserte der Vorverarbeitungsschritt die Klassifizierung im Vergleich zu nicht standardisierten Daten erheblich. Die Klassifikationsgenauigkeit wurde als mittlerer quadratischer Vorhersagefehler und Matthews-Korrelationskoeffizient im Fall von überwachtem Lernen und Quantisierungsfehler im Fall von unüberwachtem Lernen gemessen. Die Ergebnisse zeigen, dass eine geeignete Datenvorverarbeitung ein wesentlicher Schritt zur Lösung von Klassifikationsaufgaben ist.;-;-;-;https://link.springer.com/article/10.1007/s00894-004-0186-9 5652db5a9cf4d22f06faf3ad2a2b6b38;de;;;3.2.;;;Mobiles Cloud-Computing in 3G-Mobilfunknetzen mit Pipeline-Aufgaben Die Netzwerklatenz ist auf mobilen Geräten aufgrund des drahtlosen Zugriffs oft hoch, z. B. über 3G-Mobilfunknetze. Um die allgegenwärtig verfügbaren 3G-Netzwerkverbindungen besser zu nutzen, schlagen wir ein Pipelining-Aufgabenkonzept auf einem einzigen verschlüsselten Kanal zwischen einem mobilen Gerät und einer Cloud-Ressource vor. Dies erhöht nicht nur die Auslastung der drahtlosen Bandbreite, sondern macht die drahtlose Kommunikation auch vorhersehbarer, indem ein hoher Durchsatz selbst für kleine Nachrichten sichergestellt wird. Ein konstant hoher Durchsatz ermöglicht eine bessere Schätzung der Datenübertragungszeit und kann somit zu einer adäquateren Auswahl von Cloud-Ressourcen führen, um die mobile Anwendung zu unterstützen. In einer experimentellen Evaluation mittels Streaming-Bildverarbeitung untersuchen wir die Leistungsfähigkeit und Anwendbarkeit unseres Ansatzes und vergleichen ihn mit dem weit verbreiteten HTTP.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33427-6_14 e50a0eaba8809fbbcc091262f4c09c8a;de;;;3.2.;;;Symbolische Integration von Logik im MILP-Zweig und gebundene Methoden zur Synthese von Prozessnetzwerken Dieses Papier befasst sich mit der Branch-and-Bound-Lösung von Prozesssyntheseproblemen, die als gemischt-ganzzahlige lineare Programmierungsprobleme (MILP) modelliert werden. Die symbolische Integration von logischen Beziehungen zwischen potentiellen Einheiten in einem Prozessnetzwerk wird im LP-basierten Branch-and-Bound-Verfahren vorgeschlagen, um die Suche nach der optimalen Lösung zu beschleunigen. Das Ziel dieser Integration besteht darin, die Anzahl der aufzuzählenden Knoten zu reduzieren, indem die Logik zur Entscheidung über die Verzweigung von Variablen verwendet wird und durch symbolische Inferenz bestimmt wird, ob an jedem Knoten zusätzliche Variablen festgelegt werden können. Das wichtige Merkmal dieses Ansatzes ist, dass er keine zusätzlichen Einschränkungen im MILP erfordert und die Logik für Prozessnetzwerke systematisch generiert werden kann. Es werden Strategien zur Durchführung der Integration vorgeschlagen, die die disjunktiven bzw. konjunktiven Normalformdarstellungen der Logik verwenden. Rechenergebnisse werden präsentiert, um zu zeigen, dass erhebliche Einsparungen erzielt werden können.;-;-;-;https://link.springer.com/article/10.1007/BF02023175 e7ae0a066e79772b450c94c210e30262;de;;;3.2.;;;Videovorhersage: eine schrittweise Verbesserung eines Videosynthesenetzwerks Obwohl die Konzentration auf das Gebiet der Videoerzeugung einige Fortschritte bei der Netzwerkleistung und der Recheneffizienz gemacht hat, gibt es noch viel Raum für Verbesserungen in Bezug auf die vorhergesagte Bildanzahl und Klarheit. In diesem Artikel wird ein Tiefenlernmodell vorgeschlagen, um zukünftige Videoframes vorherzusagen. Das Modell kann Videostreams mit komplexen Pixelverteilungen von bis zu 32 Frames vorhersagen. Unser Framework besteht hauptsächlich aus zwei Modulen: einem Fusionsbildvorhersagegenerator und einem Bild-Video-Übersetzer. Der Fusionsbildvorhersagegenerator wird durch ein neuronales U-Net-Netzwerk realisiert, das durch eine 3D-Faltung aufgebaut ist, und der Bild-Video-Übersetzer besteht aus einem konditionalen generativen gegnerischen Netzwerk, das durch ein 2D-Faltungsnetzwerk aufgebaut ist. Im vorgeschlagenen Rahmen kann der Bildvorhersagegenerator bei gegebenem Satz von Fusionsbildern und Labels die Pixelverteilung der angepassten Labelbilder aus den Fusionsbildern lernen. Der Bild-Video-Übersetzer übersetzt dann die Ausgabe des fusionierten Bildvorhersagegenerators in zukünftige Videorahmen. Darüber hinaus schlägt dieses Papier ein begleitendes Faltungsmodell und einen entsprechenden Algorithmus zur Verbesserung der Bildschärfe vor. Unsere experimentellen Ergebnisse belegen die Wirksamkeit dieses Rahmens.;-;-;-;https://link.springer.com/article/10.1007/s10489-021-02500-5 6b4c296fc8ea8fb7c546ca0df0d6ea34;de;;;3.2.;;;Modelica — Eine einheitliche objektorientierte Sprache für die Systemmodellierung und -simulation Eine neue Sprache namens Modelica für die hierarchische physikalische Modellierung wird durch eine internationale Anstrengung entwickelt. Modelica 1.0 [http://www.Dynasim.se/Modelica] wurde im September 1997 angekündigt. Es handelt sich um eine objektorientierte Sprache zur Modellierung physikalischer Systeme zum Zwecke einer effizienten Simulation. Die Sprache vereinheitlicht und verallgemeinert bisherige objektorientierte Modellierungssprachen. Gegenüber den heute weit verbreiteten Simulationssprachen bietet diese Sprache drei wichtige Vorteile: 1);-;-;-;https://link.springer.com/chapter/10.1007/BFb0054087 c94b9da9c4bb787cce72d79841a7a3cd;de;;;3.2.;;;Was ist Bitcoin? Es gibt vier Hauptfaktoren, die Bitcoin ausmachen – Geld, dezentrales Netzwerk, Arbeitsnachweis und Zeit. Wir werden jeden in diesem Kapitel untersuchen, um die Grundlagen dessen zu verstehen, womit wir arbeiten werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-5522-3_1 d320dd339e504f0e326898567b30b1a7;de;;;3.2.;;;RoboCoP: Ein Protokoll für serviceorientierte Robotersteuerungssysteme Wir präsentieren RoboCoP – ein neues Interkommunikationsprotokoll zum Erstellen serviceorientierter Robotersoftware. Andere SOA-Systeme sind eher einfache Anwendungen eines serviceorientierten Ansatzes für die Robotik. Das Design der RoboCoP-basierten Software nutzt die Besonderheiten der Robotik und bietet eine einfache und skalierbare Möglichkeit, Steuerungssysteme zu erstellen. RoboCoP ist besonders in wissenschaftlichen und pädagogischen Bereichen nützlich, es vereinfacht die Zusammenarbeit von Entwicklern und ermöglicht die iterative Komplikation des von uns erstellten Systems. Wir geben eine detaillierte Beschreibung der RoboCoP-Architektur, liefern verschiedene Beispiele für RoboCoP-basierte Systeme, einschließlich des Steuerungssystems für den Eurobot-Wettbewerb, und führen einen Vergleich mit anderen Robotersteuerungssystemen an.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21975-7_15 9e9cfc9f6caaedc3310024044e83f112;de;;;3.2.;;;Eine hybride Aggregations- und Komprimierungstechnik für Straßennetzdatenbanken Vektordaten und insbesondere Straßennetze werden in vielen Anwendungsdomänen wie beispielsweise im Mobile Computing abgefragt, gehostet und verarbeitet. Viele Client-Systeme wie PDAs würden es vorziehen, die Abfrageergebnisse in einem nicht gerasterten Format zu empfangen, ohne einen Overhead für die Gesamtsystemleistung und Ergebnisgröße einzuführen. Während verschiedene allgemeine Vektordatenkompressionsschemata von verschiedenen Gemeinschaften untersucht wurden, schlagen wir einen neuartigen Ansatz zur Vektordatenkompression vor, der leicht in ein Geodatenabfrageverarbeitungssystem integriert werden kann. Es verwendet Linienaggregation, um die Anzahl relevanter Tupel zu reduzieren, und Huffman-Komprimierung, um eine komprimierte Darstellung mit mehreren Auflösungen einer Straßennetzdatenbank zu erreichen. Unsere Experimente an einem End-to-End-Prototyp bestätigen, dass unser Ansatz sowohl auf Client- als auch auf Serverseite eine schnelle Abfrageverarbeitung sowie eine hohe Komprimierungsrate aufweist.;-;-;-;https://link.springer.com/article/10.1007/s10115-008-0132-8 2d7cb1d07e410e07d0f2d6ca19a8bf3c;de;;;3.2.;;;Evolutionäres Design von OAB- und AAB-Kommunikationsplänen für Verbindungsnetzwerke Da Chip-Multiprozessoren schnell neue Anwendungsgebiete in der Netzwerk- und Medienverarbeitung vordringen, werden ihre Verbindungsarchitekturen zum Gegenstand ausgeklügelter Optimierung. One-to-All Broadcast (OAB) und All-to-All Broadcast (AAB) [2] Gruppenkommunikationen werden häufig in vielen parallelen Algorithmen verwendet, und wenn ihre Overhead-Kosten zu hoch sind, nimmt die Leistung mit der Prozessoranzahl schnell ab. Dieser Artikel befasst sich mit dem Entwurf eines neuen anwendungsspezifischen genetischen Standardalgorithmus (SGA) und dem Einsatz von Hybrid Parallel Genetic Simulated Annealing (HGSA), um optimale Kommunikationsalgorithmen für eine beliebige Topologie des Verbindungsnetzes zu entwerfen. Jeder dieser Algorithmen ist auf eine andere Schalttechnik ausgerichtet. Die OAB- und AAB-Kommunikationspläne wurden hauptsächlich für ein asymmetrisches AMP-Netzwerk [15] und für das Benchmark-Hypercube-Netzwerk [16] mit Store-and-Forward (SF) und Wormhole (WH) Switching entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/11732242_24 0c3cae5b0fc8acafa35e243981af8c45;de;;;3.2.;;;Abfrage der Landoberflächentemperatur aus Landsat 8-Daten und Validierung mit Geosensor-Netzwerk In diesem Beitrag wird eine Methode zur Ermittlung der Landoberflächentemperatur (LST) aus den beiden thermischen Bändern der Landsat-8-Daten vorgeschlagen. Die Emissionsgrade von Vegetation, kahlen Flächen, Gebäuden und Wasser werden anhand verschiedener Merkmale der Wellenlängenbereiche und spektralen Antwortfunktionen geschätzt. Basierend auf der Planck-Funktion des thermischen Infrarotsensors (TIRS) Band 10 und Band 11 wird die Strahlungsübertragungsgleichung neu aufgebaut und die LST wird unter Verwendung der modifizierten Emissionsgradparameter erhalten. Außerdem wird eine Sensitivitätsanalyse für den LST-Abruf durchgeführt. Die LST wurde aus Landsat-8-Daten für die Stadt Zoucheng, Provinz Shandong, China, unter Verwendung des vorgeschlagenen Algorithmus abgerufen, und die LST-Referenzdaten wurden gleichzeitig von einem Geosensor-Netzwerk (GSN) erhalten. Zwischen dem abgerufenen LST und den Referenzdaten des GSN wurde eine vergleichende Analyse durchgeführt. Die Ergebnisse zeigten, dass Wasser einen höheren LST-Fehler als die anderen Landbedeckungsarten von weniger als 1,2 °C aufwies und der LST-Fehler für Gebäude und Vegetation weniger als 0,75 °C betrug. Der Unterschied zwischen den abgerufenen LST- und Referenzdaten betrug an einem klaren Tag etwa 1 °C. Diese Ergebnisse bestätigen, dass der vorgeschlagene Algorithmus für den Abruf von LST aus den Landsat-8-Thermalbändern effektiv ist und ein GSN eine effektive Möglichkeit ist, die Leistung des LST-Abrufs zu validieren und zu verbessern.;-;-;-;https://link.springer.com/article/10.1007/s11707-016-0570-7 63c3a2dd4681e15de1d311a6fa64fe99;de;;;3.2.;;;Ein Näherungsalgorithmus für die Sendeplanung in heterogenen Clustern Network of Workstation (NOW) ist eine kostengünstige Alternative zu massiv parallelen Supercomputern. Da kommerziell verfügbare Standardprozessoren billiger und schneller werden, ist es jetzt möglich, einen PC- oder Workstation-Cluster zu bauen, der eine hohe Rechenleistung bei einem begrenzten Budget bietet. Ein Cluster kann jedoch aus verschiedenen Prozessortypen bestehen, und diese Heterogenität innerhalb eines Clusters erschwert den Entwurf effizienter kollektiver Kommunikationsprotokolle.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24686-2_3 3179da5f58a573ffd09c14a910c78ec9;de;;;3.2.;;;Top-Down- und Bottom-Up-Ansätze zur Identifizierung der Nutzer, der Dienste und der Schnittstelle einer 2.0 Digital Library Trotz der Existenz theoretischer Modelle für Digitale Bibliotheken (DL), Studien und Leitlinien zur Identifikation der DL-Nutzer sind die Nutzer und ihre Bedürfnisse an Schnittstellen und Services insbesondere im Kontext einer 2.0 noch wenig bekannt DL. Diese Art von DL ist jedoch für Projekte entscheidend geworden, die stärker in der Webumgebung verankert sein und die Erwartungen ihrer potenziellen Benutzer besser erfüllen möchten. Unsere Arbeit „Enriched Digital Libraries: Users and their Interfaces“ zielt darauf ab, die Bedürfnisse der Benutzer in Bezug auf Interaktion und Teilnahme in einer DL namens . besser zu verstehen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67008-9_59 ccc373a146e76acbcf45da3522ed11b0;de;;;3.2.;;;Experimentelle Bewertung der EAP-Leistung in Roaming-Szenarien Das Extensible Authentication Protocol (EAP) ist die Hauptkomponente des Standard-AAA-Frameworks (Authentication Authorization and Accounting) für die Netzwerkzugriffskontrolle. AAA-Frameworks unterstützen die domänenübergreifende Authentifizierung, die es einem bestimmten Zugangsnetzwerk ermöglicht, einen Roaming-Client zu authentifizieren, der zu einem Remote-Netzwerk gehört. Die domänenübergreifende Authentifizierung erfordert einen Nachrichtenaustausch zwischen dem AAA-Server des besuchten Netzwerks und dem AAA-Server des Heimnetzwerks des Clients. Da dieser Austausch zwischen Domänen über das Internet stattfindet, unterliegen sie Beeinträchtigungen wie Paketverlust und Netzwerkverzögerungen, wodurch die gesamte Authentifizierungszeit verlängert wird. Wenn der Client den Zugangspunkt wechselt, findet das gleiche Authentifizierungsverfahren erneut statt, wodurch der Benutzerverkehr bei jeder Übergabe unterbrochen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-76809-8_8 459ccfe9c83cfeb2fa2258bc316b3c73;de;;;3.2.;;;Planungsalgorithmus für die Verbreitung von Beacon-Sicherheitsnachrichten in Fahrzeug-Ad-hoc-Netzwerken Die Verbreitung von Beacon-Sicherheitsnachrichten in Fahrzeug-Ad-hoc-Netzwerken (VANETs) leidet unter einer geringen Zuverlässigkeit, insbesondere im verstopften Straßenverkehr. Der Hauptursprung dieses Problems ist die CSMA-Natur von Dedicated ShortRangeCommunications (DSRC) in der MAC-Schicht. In diesem Papier wird ein Scheduling-Algorithmus in der Anwendungsschicht vorgeschlagen, um das Problem zu lindern. Wir unterteilen die Straße zunächst in mehrere geographische Abschnitte. In jedem Abschnitt bilden wir einen Cluster zwischen sich bewegenden Fahrzeugen. Dann führen wir einen Scheduling-Algorithmus mit zwei Ebenen durch. In der ersten Ebene können nicht benachbarte Cluster gleichzeitig senden. Während sich die zweite Ebene des Schedulings mit dem Inneren jedes Clusters befasst, in dem wir einen TDMA-ähnlichen Ansatz implementieren. Simulationsergebnisse zeigen, dass der vorgeschlagene Algorithmus die Zuverlässigkeit bei der Verbreitung von Beacon-Nachrichten verbessert. Darüber hinaus wird die Genauigkeit der Informationen, die jedes Fahrzeug von seinen Nachbarfahrzeugen erhalten kann, erheblich erhöht. Somit führt das vorgeschlagene Scheduling-Schema zu einer beträchtlichen Verbesserung des Sicherheitsniveaus, das von Beacon Safety Messages (BSMs) bereitgestellt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10844-0_17 005405cc20dc221905ab0de18f436478;de;;;3.2.;;;Verifizierung einer Wärmediffusionssimulation, geschrieben mit der Orléans Skeleton Library Orléans Skeleton Library (OSL) bietet eine Reihe algorithmischer Skelette als C++-Bibliothek zusätzlich zu MPI. Der parallele Programmieransatz von OSL ist strukturiert, was das Nachdenken über die Leistung und Korrektheit der Programme erleichtert. In diesem Beitrag präsentieren wir die Verifizierung eines in OSL geschriebenen Wärmediffusionssimulationsprogramms mit dem Coq-Proof-Assistenten. Die zum Beweis der Richtigkeit verwendete Spezifikation ist eine Diskretisierung der Wärmegleichung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31500-8_10 aa81b258837306b26f0a7b0d465b4ed3;de;;;3.2.;;;Ansatz zur Erkennung von Attributwerten und seine Anwendungen zur Emittererkennung In diesem Beitrag wird das Problem der Emittererkennung untersucht. Es wird ein neues Erkennungsverfahren basierend auf einem Attributmaß zur Emittererkennung vorgeschlagen. Die Verfahrensschritte werden vorgestellt. Der Ansatz zur Bestimmung des Gewichtungskoeffizienten wird ebenfalls diskutiert. Darüber hinaus wird dieses neue Erkennungsverfahren unter Berücksichtigung der zeitlichen Redundanz der vom Multisensorsystem erfassten Emitterinformationen auf Multisensorsysteme verallgemeinert. Es wird eine Methode vorgeschlagen, die auf der Kombination von Attributmaß und D-S-Evidenztheorie basiert. Die Implementierung der D-S-Schlußfolgerung wird immer durch die grundlegende Wahrscheinlichkeitszuweisungsfunktion eingeschränkt. Das Konstruieren einer grundlegenden Wahrscheinlichkeitszuweisungsfunktion basierend auf einem Attributmaß wird in einem Multisensor-Erkennungssystem präsentiert. Beispiele für das Erkennen des Emitterzwecks und -systems werden ausgewählt, um das vorgeschlagene Verfahren zu demonstrieren. Experimentelle Ergebnisse zeigen, dass die Leistung dieser neuen Methode genau und effektiv ist.;-;-;-;https://link.springer.com/article/10.1360/122004-82 281b3885fb6636e811d1aa1562635e2d;de;;;3.2.;;;NSP: ein neuro-symbolischer Prozessor Dieses Papier präsentiert eine Implementierungsmethodik von gewichteten KNN, deren Gewichte bereits berechnet wurden. Die Validierung dieser Technik erfolgt durch die Synthese von Schaltungen, die das Verhalten spezialisierter KNN implementieren, die aus Sätzen logischer Klauseln zusammengestellt sind, die verschiedene logische Probleme beschreiben. ANeuro–Symbolic Language (NSL) und ihr Compiler;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44869-1_2 215be533e44a228825badb39cd2172c9;de;;;3.2.;;;Simulation großer neuronaler Netze unter Beowulf-ähnlichen Systemen In dieser Arbeit behandeln wir das Problem der Simulation großer neuronaler Netze mit kostengünstigen verteilten Systemen. Zu diesem Zweck haben wir eine leistungsstarke Client-Server-Simulationssoftware entwickelt, bei der der Server auf einem Multiprozessor-Beowulf-System läuft. Auf Basis einer Leistungsanalyse schlagen wir einen Schätzer für die Simulationszeit vor.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0100469 39ed122d528a65e836866c8148049dc4;de;;;3.2.;;;STORM - Eine neuartige Informationsfusions- und Cluster-Interpretationstechnik Die Analyse von Daten ohne Labels wird häufig durch unbeaufsichtigte maschinelle Lerntechniken überprüft. Solche Techniken bieten aussagekräftigere Darstellungen, die für ein besseres Verständnis eines vorliegenden Problems nützlich sind, als nur die Daten selbst zu betrachten. Obwohl in vielen Bereichen, in denen nicht gekennzeichnete Daten untersucht werden, reichlich Expertenwissen vorhanden ist, fließt dieses Wissen selten in die automatische Analyse ein. Bei der Einbindung von Expertenwissen geht es häufig darum, mehrere Datenquellen aus unterschiedlichen hypothetischen Räumen zu kombinieren. In Fällen, in denen solche Räume zu unterschiedlichen Datentypen gehören, wird diese Aufgabe noch schwieriger. In diesem Beitrag stellen wir eine neuartige immuninspirierte Methode vor, die die Fusion solcher unterschiedlichen Datentypen für eine bestimmte Problemstellung ermöglicht. Wir zeigen, dass unsere Methode ein besseres visuelles Verständnis eines hypothetischen Raums mit Hilfe von Daten aus einem anderen hypothetischen Raum ermöglicht. Wir glauben, dass unser Modell Auswirkungen auf den Bereich der explorativen Datenanalyse und der Wissensentdeckung hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04394-9_26 a0fda015b286f21853b33a835187ce9d;de;;;3.2.;;;Werkzeugverschleißvorhersage beim Fräsen mit neuronalen Netzen Hier wird ein intelligentes Überwachungssystem vorgestellt, das auf einem modellbasierten Ansatz unterstützt wird. Ein Modell, das mit künstlichen neuronalen Netzen (KNN) erstellt wurde und in der Lage ist, den Prozessausgang vorherzusagen, wird eingeführt, um die Eigenschaften eines solchen schlecht definierten Prozesses zu behandeln. Um Werkzeugverschleiß vorherzusagen, werden Restfehler als Grundlage eines Entscheidungsalgorithmus verwendet. Experimentelle Tests werden in einem professionellen Bearbeitungszentrum durchgeführt. Die erzielten Ergebnisse zeigen die Eignung und das Potenzial dieses Überwachungssystems für industrielle Anwendungen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-46084-5_131 eeeb3a19bf8fd3efcccf7e08bebb9c36;de;;;3.2.;;;Dynamische Erkennung von Computerviren basierend auf dem Immunsystem Inspiriert vom biologischen Immunsystem wird ein neues dynamisches Erkennungsmodell für Computerviren basierend auf dem Immunsystem vorgeschlagen. Die quantitative Beschreibung des Modells wird gegeben. Das Problem der dynamischen Beschreibung von Selbst und Nicht-Selbst in einem Computervirus-Immunsystem wird gelöst, wodurch die Größe des Selbstsatzes verringert wird. Das neue Konzept der dynamischen Toleranz sowie die neuen Mechanismen der Genevolution und Gencodierung für unreife Detektoren werden vorgestellt, die die Erzeugungseffizienz ausgereifter Detektoren verbessern und die falsch-negativen und falsch-positiven Raten reduzieren. Daher wird das schwierige Problem, bei dem die Detektortrainingskosten exponentiell mit der Größe der Selbsteinstellung in einem herkömmlichen Computerimmunsystem zusammenhängen, überwunden. Die Theorieanalyse und die experimentellen Ergebnisse zeigen, dass das vorgeschlagene Modell eine bessere Zeiteffizienz und Erkennungsfähigkeit aufweist als das klassische Modell ARTIS.;-;-;-;https://link.springer.com/article/10.1007/s11432-008-0125-y c1d2796b1cca4259da5df6ca140289ad;de;;;3.2.;;;Implementierung des hierarchischen Modells in Ptolemy für drahtlose Sensornetzwerke Angesichts der Komplexität der Entwicklung von eingebetteten Systemen und Sensornetzwerken ist die Modellierung unerlässlich. Die Modellierung vor der Implementierung ermöglicht es Designern, Ideen zu untersuchen und die Korrektheit ihres Designs früh im Designzyklus zu überprüfen, wodurch Iterationen während der Endphase reduziert werden. Dieser Artikel befasst sich mit der Implementierung eines hierarchischen Modells mit dem Open-Source-Modellierungswerkzeug Ptolemy. Es werden verschiedene Direktoren verwendet, die mit Ptolemy für die Implementierung von Sensornetzwerken und eingebetteten Systemen verfügbar sind, wie beispielsweise Wireless Director, Discrete Event Director und Finite State Machine Director. Die hierarchische Modellierung wird verwendet, um ein Gesamtsystem zu implementieren, das eine Kombination verschiedener Subsysteme ist, die bereits mit verschiedenen Direktoren implementiert sind. Ein drahtloser Direktor wird als Direktor auf Systemebene verwendet, um eine Kommunikation zwischen Knoten bereitzustellen, und wiederum werden endliche Automaten und diskrete Ereignisdirektoren verwendet, um verschiedene Systemmodi zu realisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22543-7_42 de90fc61ac1cb163d3be1064c114436f;de;;;3.2.;;;Eine neuartige strukturelle Modellierung und Analyse einer VLSI-Verbindung mit einem RLC-Baumnetzwerksystem unter Verwendung eines BG/SEBD-Ansatzes Ein praktischer und effektiver neuartiger grafischer Strukturmodellierungs- und Analyseansatz wird vorgestellt. Dieser Ansatz wird verwendet, um das Modellierungsproblem der Zustandsinteraktionen zu lösen, das durch die Modellapproximationen in der VLSI-Verbindung für RLC-Baumnetzwerksysteme verursacht wird. Das Bond Graph (BG) Energiemodell mit einem Simulink Energy Based Block Diagram (SEBD) Algorithmus wird entwickelt. Das dynamische Verhalten eines Beispiels für eine VLSI-Verbindung mit einem 20;-;-;-;https://link.springer.com/article/10.1007/s11432-011-4287-7 427b3459be5f1d66801e874d123ef32d;de;;;3.2.;;;Neue Gedanken zur Kontrolle der Selbsterkennung, der Zellinteraktionen und der Immunantwort durch Gene des wichtigen Histokompatibilitätskomplexes Es ist völlig klar, dass sich unsere Wahrnehmung über den Major Histocompatibility Complex (MHC) in den 1970er Jahren ganz erheblich geändert hat. Der Begriff Histokompatibilität bedeutet nicht länger nur Identitäten, Ähnlichkeiten oder Unterschiede zwischen Gewebetransplantationsantigenen, die von jedem einzelnen Mitglied einer bestimmten Spezies geerbt werden. Nun steht dieser Begriff für eine polymorphe Familie von Genen und Molekülen, deren biologische Funktionen eine zentrale Rolle bei der Steuerung der Zelldifferenzierung, der Zell-Zell-Erkennung, der Qualität und Quantität der immunologischen Reaktionsfähigkeit und wahrscheinlich einer Vielzahl anderer Funktionen zu spielen scheinen müssen noch entdeckt werden. Die Erkenntnis, dass die biologische Bedeutung des MHC weitreichender ist, als zunächst erkennbar war, hat erhebliche Aufregung, eine Flut von Grundlagenforschungen und eine immer umfangreichere Literatur ausgelöst, die immer schwieriger zu verfolgen und manchmal zu verstehen wird . Wie zu erwarten ist, tendiert ein Großteil der Literatur, insbesondere in letzter Zeit, dazu, sich sowohl im experimentellen Ansatz als auch in der Interpretation der Daten ein wenig zu wiederholen, eine Situation, die unvermeidlich scheint, wenn ein bestimmtes Wissenschaftsgebiet sehr beliebt ist und von vielen verfolgt wird Zahl der Ermittler. Angesichts dieses Problems wurde dieses Kapitel absichtlich mit dem Hauptziel erstellt, einige neue Denkweisen, teilweise unterstützt durch neue Daten, zu einigen ziemlich altbekannten Themen im Zusammenhang mit der Beteiligung von MHC-Genen und -Molekülen an immunologischen Reaktionen zu vermitteln.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-3761-4_5 7233b2707f3fe9d45a8200d61bfdf810;de;;;3.2.;;;Interaktives Papier als Lesemedium in digitalen Bibliotheken In digitalen Bibliotheken wird ein Großteil der Leseaktivität immer noch auf gedruckten Kopien von Dokumenten durchgeführt. Wir zeigen, wie digitale Stift- und Papiertechnologien verwendet werden können, um Leser zu unterstützen, indem während des Druckvorgangs automatisch interaktive Papierversionen digitaler Dokumente erstellt werden, die es Benutzern ermöglichen, eingebettete Hyperlinks zu anderen Dokumenten und Diensten aus gedruckten Versionen zu aktivieren. Der Ansatz verwendet einen speziellen Druckertreiber, der es ermöglicht, Informationen über Hyperlinks zum Zeitpunkt des Druckens zu extrahieren und zu speichern. Benutzer können dann mit einem digitalen Stift Hyperlinks im gedruckten Dokument aktivieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87599-4_24 7e03cbc23b856010a36b7d3ae9e4f083;de;;;3.2.;;;Verwalten und Abfragen von Videos nach Semantik in der digitalen Bibliothek Die Verwaltung von Videodaten ist ein unverzichtbarer Bestandteil der digitalen Bibliothek. Derzeit bieten die meisten digitalen Bibliothekssysteme jedoch nur die Funktionalität zum Abrufen von Videodaten durch Metadaten, die die Anforderungen der Benutzer nicht erfüllen können. Dies ist auf das Fehlen eines geeigneten semantischen Videomodells und einer leistungsstarken Abfrageschnittstelle zurückzuführen. In diesem Papier schlagen wir ein solches Modell namens SemTTE zusammen mit seiner Abfragesprache VSQL vor. Das Modell integriert Merkmale der zeitlichen Struktur und typisierte Ereignisse von Videoinhalten und organisiert das gesamte Video in einem Ereignisbaum. Es wird basierend auf XML-Technologie implementiert, wobei Schema und Instanz auf DTD- und XML-Dokumente abgebildet und Abfragen zur Auswertung in XQuery umgewandelt werden.;-;-;-;https://link.springer.com/chapter/10.1007/11863878_31 5a9e987325c14bc3117274deef4121ae;de;;;3.2.;;;IQC-basierte robuste Stabilitätsprüfung für ein vernetztes System mit Kommunikationsverzögerungen In diesem Papier betrachten wir eine robuste Stabilitätsanalyse eines vernetzten Systems mit unsicheren Kommunikationsverzögerungen. Jedes seiner Subsysteme kann unterschiedliche Dynamiken aufweisen, und Verbindungen zwischen seinen Subsystemen sind beliebig. Es wird angenommen, dass in jedem Kommunikationskanal eine unsichere, aber konstante Verzögerung existiert. Unter Verwendung der sogenannten Integral-Quadratic-Constraint-(IQC)-Technik wird eine hinreichend robuste Stabilitätsbedingung unter Verwendung einer spärlichen Annahme der Verbindungen abgeleitet, und ein Satz entkoppelter Robustheitsbedingungen wird weiter abgeleitet, die nur von Parametern jedes Subsystems, der Subsystem-Verbindungsmatrix (SCM) und die ausgewählten IQC-Multiplikatoren. Diese Eigenschaften führen zu einer deutlichen Verbesserung der Recheneffizienz für die Robustheitsprüfung des vernetzten Systems mit Verzögerungsunsicherheiten, was durch einige numerische Ergebnisse veranschaulicht wird.;-;-;-;https://link.springer.com/article/10.1007/s11432-017-9318-2 8aafde5bdbeb024e5d2d0e41f777b640;de;;;3.2.;;;Leistungsbewusste Prozessoren für drahtlose Sensornetzwerke Heute ermöglichen uns drahtlose Sensornetzwerke (WSNs) einen neuen Anwendungsbereich von der Habitatüberwachung bis hin zu militärischen und medizinischen Anwendungen. Ein typischer WSN-Knoten besteht aus mehreren Sensoren, einer Funkkommunikationsschnittstelle, einem Mikroprozessor und einer begrenzten Stromversorgung. Bei vielen WSN-Anwendungen, wie der Waldbrandüberwachung oder der Einbruchserkennung, sind Benutzereingriffe und Batterieauffüllung nicht möglich. Da die Batterielebensdauer direkt mit der Verarbeitungs- und Kommunikationsmenge dieser Knoten zusammenhängt, wird die optimale Ressourcennutzung zu einem wichtigen Thema. Eine typische WSN-Anwendung kann sehr nahe oder konstante Datenwerte über lange Zeiträume hinweg erfassen und verarbeiten, wenn die Umgebungsbedingungen stabil sind. Dies ist ein gängiges Verhalten, das ausgenutzt werden kann, um den Stromverbrauch von WSN-Knoten zu reduzieren. Diese Studie kombiniert zwei orthogonale Techniken, um die Energiedissipation der Prozessorkomponente der Sensorknoten zu reduzieren. Zuerst besprechen wir kurz die Silent-Store-Filterung;-;-;-;https://link.springer.com/chapter/10.1007/11902140_69 7679e9290917a9c53201ea22950681fc;de;;;3.2.;;;Rangbeschränkungen für Homographien über zwei Ansichten: Überarbeitung der Rang-Vier-Beschränkung Es ist bekannt, dass man die Koeffizienten von fünf (oder mehr) Homographien zwischen zwei Ansichten in einer großen Matrix mit Rangmangel zusammenfassen kann. Im Prinzip bedeutet dies, dass man die Genauigkeit der Schätzungen der Homographiekoeffizienten durch Ausnutzung der Rangbeschränkung verfeinern kann. Der Standardansatz der Rangprojektion ist jedoch aus zwei verschiedenen Gründen unpraktisch: Er erfordert viele Homographien, um auch nur einen bescheidenen Gewinn zu erzielen, und zweitens führen Korrelationen zwischen den Fehlern in den Koeffizienten zu schlechten Schätzungen.;-;-;-;https://link.springer.com/article/10.1007/s11263-008-0167-z a19e6cf78ce45e3e15193e3f5e5b5e90;de;;;3.2.;;;Klassifikation der körperlichen Aktivität mit einem künstlichen neuronalen Netz basierend auf der Analyse anthropometrischer Messungen Körperliche Aktivität ist einer der wichtigsten Faktoren für ein gesundes Leben, was das Interesse der wissenschaftlichen Gemeinschaft an der Bewertung von Methoden und Werkzeugen erhöht hat, die Menschen dabei helfen können, eine Trainingsroutine aufrechtzuerhalten, wie beispielsweise tragbare Geräte, die die Bewegungen des Benutzers verfolgen können und geben ein entsprechendes Feedback. Es ist auch Interesse an der Bewertung der Diskriminierung zwischen körperlich aktiven und inaktiven Personen durch die Verwendung leicht verfügbarer Daten geweckt worden, was das Ziel dieser Arbeit ist. In diesem Fall haben wir einen Autoencoder verwendet, um die herausragendsten Merkmale eines anthropometrischen Datensatzes zu finden, um die repräsentativsten Attribute zu erhalten. Verwenden Sie sie dann, um ein künstliches neuronales Netz (KNN) zu trainieren, damit es lernen kann, zwischen einer körperlich aktiven und einer sitzenden Person zu unterscheiden. Das ANN erreichte 81 % Genauigkeit, 82 % Präzision, 88 % Recall, 83 % F1-Score und 0,89 AUC. Diese Ergebnisse positionieren das KNN als tragfähiges Modell, das als Werkzeug in Szenarien wie der Kundenprofilerstellung für verschiedene interessierte Unternehmen verwendet werden könnte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-59194-6_6 0b7f2eba7c79ba51efa576e8e1784d9d;de;;;3.2.;;;Eine Umfrage zu Abdeckungsproblemen in drahtlosen Sensornetzwerken basierend auf der überwachten Region Heutzutage finden drahtlose Sensornetzwerke (WSNs) enorme Anwendung sowohl in der Forschung als auch in kommerziellen Bereichen wie der Umweltbeobachtung zur Erholung gefährdeter Arten, der Überwachung von Lebensräumen bis zur Heimautomatisierung, der Abfallwirtschaft für die Weinproduktion und der Medizin bis hin zu militärischen Anwendungen. Um eine Netzabdeckung in einem WSN zu erreichen, müssen normalerweise einige bis Tausende kleiner Sensorknoten mit begrenzter Leistung miteinander verbunden eingesetzt werden. Bei der Anordnung der Sensorknoten in einem WSN ist die Abdeckung der zu überwachenden Region eine schwierige Aufgabe und wurde in den letzten Jahren zu einem heißen Forschungsgebiet. Die Abdeckung überprüft die Qualität der Überwachung eines Ereignisses in einer sorgfältigen Umgebung durch die Sensorknoten. Die Idee hinter diesem Papier besteht darin, die neueste Literatur zur WSN-Abdeckung basierend auf der überwachten Region des Netzwerks gründlich zu studieren. Dabei haben wir hauptsächlich drei verschiedene Typen untersucht: Abdeckungsbereich, Punkt- und Barriereabdeckung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-0277-0_29 07d7bddf39fe3f482e42e24e8c5b4923;de;;;3.2.;;;Forschung zur Parameterkonfiguration eines tiefen neuronalen Netzwerks, angewendet auf die Sprachverbesserung Dieser Artikel untersucht die Parameterkonfiguration von tiefen neuronalen Netzwerken, die auf die Sprachverbesserung angewendet werden. In den letzten Jahren haben sich Deep-Learning-basierte Methoden zu einem heißen Thema im Bereich der Sprachverbesserung entwickelt. Die Parameterauswahl ist wichtig für die Leistungsfähigkeit von tiefen neuronalen Netzen und kann sogar eine entscheidende Rolle spielen. Aus Sicht der Ingenieurpraxis analysiert dieser Beitrag fünf grundlegende Parameter und deren Einfluss bei der Anwendung auf die Sprachverbesserung. Durch detaillierte Analysen und eine große Anzahl von technischen Experimenten geben wir einen Vorschlag zur Konfiguration von Parametern von tiefen Netzwerken bei der Sprachverbesserung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9409-6_108 bb6151e2d72937a24a039b2b1ed66884;de;;;3.2.;;;Netzwerktopologie und eine Fallstudie in TCOZ Object-Z ist stark in der Modellierung der Daten und Operationen komplexer Systeme. Es ist jedoch schwach, Echtzeit- und gleichzeitige Systeme zu spezifizieren. Timed Communicating Object-Z (TCOZ) erweitert die Object-Z-Notation um zeitgesteuerte CSP-Konstrukte. TCOZ ist besonders gut geeignet, um komplexe Systeme zu spezifizieren, deren Komponenten einen eigenen Steuerungsfaden haben. Dieses Papier demonstriert die Aussagekraft der TCOZ-Notation anhand einer Fallstudie zur Spezifikation eines in Echtzeit arbeitenden Multilift-Systems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-49676-2_21 e2342134c09ba2d872353e2f829dc5b4;de;;;3.2.;;;Kombination zeitgesteuerter farbiger Petrinetze und echter TCP-Implementierung zur zuverlässigen Simulation verteilter Anwendungen In den letzten Jahren nimmt die Bedeutung des Problems der Effizienz verteilter Anwendungen zu, da die verteilten Computersysteme immer mehr durchdringen. Das Problem ist um so schwieriger, da es Aspekte der gleichzeitigen Verarbeitung und Kommunikation zwischen verschiedenen Teilen von Anwendungen über die Internetverbindungen mit sich zeitlich ändernden Parametern verbindet. In diesem Papier beschreiben wir das Problem der Schätzung der Datenübertragungszeit über das Netzwerk. Die Ergebnisse sind Teil der Arbeiten, die eine zuverlässige Simulation verteilter Anwendungen ermöglichen. Das Anwendungs- und Ressourcenmodell wird mit Timed Colored Petri Nets (TCPN) erstellt und mit der Ns-2-Implementierung von Linux TCP kombiniert. Somit wird eine zuverlässige Simulation von gleichzeitigen Prozessen und Ressourcenkonkurrenz durch den Formalismus von TCPN sichergestellt und die Netzwerkübertragungszeit wird durch die Implementierung mit echtem TCP-Code geschätzt. Wir präsentieren vorläufige Ergebnisse des Vergleichs zwischen Simulationen und Experimenten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02671-3_9 6e4f5e26a1ee046e1f6b2c903068f59c;de;;;3.2.;;;Ein sich selbst optimierendes, clientseitiges Metadaten-Prefetching-Schema für Weitverkehrsnetzwerk-Dateisysteme Das clientseitige Vorabrufen von Metadaten wird häufig in WAN-Dateisystemen (Wide Area Network) verwendet, da es die Netzwerklatenz effektiv verbergen kann. Die meisten existierenden Prefetching-Ansätze erfüllen jedoch nicht die verschiedenen Prefetching-Anforderungen mehrerer Workloads. Sie sind in der Regel nur für einen bestimmten Workload optimiert und haben keine oder schädliche Auswirkungen auf andere Workloads. In diesem Whitepaper stellen wir ein neues selbstoptimierendes clientseitiges Metadaten-Prefetching-Schema vor, das zwei verschiedene Prefetching-Strategien verwendet und sich dynamisch an Workload-Änderungen anpasst. Es verwendet eine verzeichnisgerichtete Vorabrufstrategie, um die zugehörigen Dateimetadaten im selben Verzeichnis vorab abzurufen, und eine korrelationsgerichtete Vorabrufstrategie, um die zugehörigen Dateimetadaten, auf die verzeichnisübergreifend zugegriffen wird, vorab abzurufen. Es wird ein neuartiger Selbstabstimmungsmechanismus vorgeschlagen, um die Vorabrufstrategie effizient zwischen verzeichnisgerichtetem und korrelationsgerichtetem Vorabruf umzuwandeln. Experimentelle Ergebnisse mit realen Systemtraces zeigen, dass die Trefferquote des clientseitigen Caches durch unser selbstoptimierendes clientseitiges Prefetching deutlich verbessert werden kann. In Bezug auf das Szenario der Parallelität mehrerer Workloads verbessert unser Ansatz die Trefferquoten für das No-Prefetching, das verzeichnisgerichtete Prefetching, den Variant-Wahrscheinlichkeitsgraph-Algorithmus, den Variant-Apriori-Algorithmus und den Variant-Semantic-Distanz-Algorithmus um bis zu 15,22 %, 6,32 %. 10,08 %, 11,65 % und 10,73 %, entsprechend 25,24 %, 18,11 %, 23,53 %, 24,94 % bzw. 24,19 % der durchschnittlichen Zugriffszeit.;-;-;-;https://link.springer.com/article/10.1007/s11432-019-2833-1 b994873d16d85e39f6ffeecae546df81;de;;;3.2.;;;Identifizierung von Heavy Hittern bei der Hochgeschwindigkeits-Netzwerküberwachung Das Identifizieren von Heavy Hitters in einem Netzwerkverkehrsstrom ist für eine Vielzahl von Netzwerkanwendungen wichtig, die von Traffic Engineering bis hin zur Erkennung von Anomalien wie der Erkennung von Denial-of-Service-Angriffen reichen. Vorhandene Verfahren untersuchen im Allgemeinen neu ankommende Elemente im Stream, führen eine kleine Anzahl von Operationen unter Verwendung einer kleinen Speichermenge aus und bieten dennoch Garantien für die Identifizierungsgenauigkeit. Bei der Hochgeschwindigkeits-Netzwerküberwachung ist die Aktualisierungsgeschwindigkeit pro Element äußerst kritisch. Allerdings gibt es unseres Wissens keine Identifizierungsalgorithmen, die eine konstante Aktualisierungszeit bereitstellen können (;-;-;-;https://link.springer.com/article/10.1007/s11432-010-0053-5 b71c9aa68458e2837c6cee2d4770d993;de;;;3.2.;;;Abdeckungs- und konnektivitätsbewusstes Clustering innerhalb von Drahtlose Sensor- und Aktornetzwerke (WSANs) sind eine neue Art heterogener drahtloser Sensornetzwerke. Da Aktoren eine maximale Abdeckung der erfassten Daten bieten sollten, ist die Sensor-Aktor-Konnektivität sehr wichtig. Allerdings hat keine Studie sowohl die maximale Abdeckung als auch die Konnektivität von Sensor-Aktor berücksichtigt. Sobald die Sensoren außer Reichweite sind oder die Konnektivität ausfällt, können die Aktoren nicht die richtigen Aktionen für den interessierenden Bereich ausführen. Wenn ein Sensor keinen Routing-Pfad von sich selbst zu einem Aktor aufbauen kann, wird er zu einem verwaisten Sensor. Wir schlagen daher ein abdeckungs- und konnektivitätsbewusstes Clustering vor;-;-;-;https://link.springer.com/article/10.1007/s11432-013-5022-3 a6b8292e531d00421a00944d748a2067;de;;;3.2.;;;Skalierbarkeit von Datenbanken für digitale Bibliotheken Suchmaschinen von Mainstream-Literaturbibliotheken wie ACM Digital Library, Google Scholar und PubMed verwenden dateibasierte Systeme und bieten Benutzern grundlegende boolesche Suchfunktionalitäten. Infolgedessen sind neue und leistungsstarke Abfragefunktionen nicht einfach auf solchen Systemen zu implementieren und werden nicht bereitgestellt. Im Vergleich dazu haben Abfragesprachen von Datenbanksystemen traditionell eine hohe Aussagekraft. In diesem Artikel wird die Skalierbarkeit des Ansatzes bewertet, relationale Datenbanken als Backend-Systeme für digitale Bibliotheken bereitzustellen und somit die Abfragesprachen und die Abfrageverarbeitungsfähigkeiten von Datenbankabfrage-Engines für digitale Literaturbibliotheken zu nutzen.;-;-;-;https://link.springer.com/chapter/10.1007/11599517_53 5f72745aac628ca91dedf1f2d1af74e8;de;;;3.2.;;;SVM-Ansatz mit einem genetischen Algorithmus zur Erkennung von Netzwerkangriffen Aufgrund der Zunahme von unbefugtem Zugriff und Diebstahl von Internetressourcen ist die Internetsicherheit zu einem sehr wichtigen Thema geworden. Insbesondere Netzwerkanomalien können viele potenzielle Probleme verursachen, die jedoch vom normalen Verkehr schwer zu unterscheiden sind. In diesem Papier konzentrieren wir uns auf eine Support Vector Machine (SVM) und einen genetischen Algorithmus zur Erkennung von Netzwerkanomalien. Wir verwenden zuerst einen genetischen Algorithmus (GA), um geeignete Felder von Verkehrspaketen für die Analyse auszuwählen. Nur die ausgewählten Felder werden verwendet, und eine Zeitverzögerungsverarbeitung wird auf SVM angewendet, um zeitliche Beziehungen zwischen Paketen zu berücksichtigen. Um unseren Ansatz zu verifizieren, haben wir unseren Vorschlag mit den Datensätzen des MIT Lincoln Lab getestet und anschließend seine Leistung analysiert. Unser SVM-Ansatz mit ausgewählten Feldern zeigte eine hervorragende Leistung.;-;-;-;https://link.springer.com/chapter/10.1007/11569596_25 4696c4c18e8f3cd42e57d93ab7b50eb6;de;;;3.2.;;;Verbesserung der seiteninformierten JPEG-Steganographie mit der zweidimensionalen Zerlegungs-Einbettungsmethode Side-informierte JPEG-Steganographie ist eine bekannte Technologie zum Verbergen von Informationen für die hohe Resistenz gegen Blinderkennung. Die existierenden populären seiteninformierten steganographischen JPEG-Algorithmen verwenden ein binäres Einbettungsverfahren mit der entsprechenden binären Verzerrungsfunktion. Dann werden die Einbettungsverfahren und Binärverzerrungsfunktionen populärer seiteninformierter steganographischer JPEG-Algorithmen analysiert und die verschwendete sichere Kapazität durch Verwendung der binären Einbettungsoperation wird aufgezeigt. Somit kann die Detektionsresistenz der seiteninformierten steganographischen JPEG-Algorithmen verbessert werden, wenn die Einbettungsoperation in den ternären Modus geändert wird, der weniger Änderungen verursacht als die binäre Einbettung bei derselben Nutzlast. Das Problem der Verwendung einer ternären Einbettung besteht darin, eine geeignete ternäre Verzerrungsfunktion zu definieren. Um dies zu lösen, wird in dieser Arbeit eine zweidimensionale Zerlegungs-Einbettungsmethode vorgeschlagen. Die vorgeschlagene ternäre Verzerrungsfunktion wird durch Transformieren des Problems in zwei verschiedene binäre Verzerrungsfunktionen von zwei Schichten definiert, die auf der ternären Entropiezerlegung basieren. Inzwischen stellt das vorgeschlagene Verfahren sicher, dass der minimale Wert der Verzerrungsfunktion auf jeder Schicht theoretisch erreicht werden kann. Mehrere gängige steganographische JPEG-Algorithmen mit Nebeninformationen (NPQ, EBS und SI-UNIWARD) werden durch das Definieren einer ternären Verzerrungsfunktion durch das vorgeschlagene Verfahren verbessert. Die experimentellen Ergebnisse zu Parametern, Blinddetektion und Verarbeitungszeit zeigen, dass die vorgeschlagene Methode die Blinddetektionsresistenz des seiteninformierten steganographischen Algorithmus mit akzeptablem Rechenaufwand erhöht.;-;-;-;https://link.springer.com/article/10.1007/s11042-016-3823-2 65cd949be6216c8007a2c793d4ae17bf;de;;;3.2.;;;Leistungsanalyse und Optimierung von Serialisierungstechniken für tiefe neuronale Netze Deep Neural Networks (DNN) werden zunehmend zur Lösung komplexer Probleme eingesetzt. Während spannende Forschungsanstrengungen zur Verbesserung der Inferenzleistung im Gange sind, sind andere Bedenken wie die Modellladezeit und die Speichernutzung von DNN-Modellen in den Hintergrund getreten. Die Verwendung einer effizienten Datenserialisierungsbibliothek ist erforderlich, um diese Bedenken anzugehen, insbesondere bei umfangreichen DNNs wie VGG, die allein für die Speicherung etwa 550 MB benötigen. In diesem Artikel werden die Auswirkungen bekannter DNN-Framework-Serialisierungsbibliotheken wie FlatBuffers und Protocol Buffers auf die Ladezeit des Modells und den Speicherverbrauch analysiert. Unsere vergleichende Analyse zeigt, dass die Verwendung von FlatBuffer im Caffe-Framework im Vergleich zu Standardprotokollpuffern zu einer Verbesserung der Ladezeit von bis zu 75 % und einer Reduzierung der Spitzenspeichernutzung um bis zu 48 % führt (abhängig von der Größe des verwendeten Modells). Darüber hinaus schlagen wir ein speicheroptimiertes und eingebettetes geräteorientiertes Layout für Protokollpuffer speziell für Anwendungsfälle in neuronalen Netzwerken vor. Dieses Layout reduziert die Modellladezeit und den Speicherverbrauch von Protokollpuffern erheblich und erzielt ähnliche Ergebnisse wie die modernen FlatBuffer. Mit dem vorgeschlagenen Protokollpuffer-Layout erreichen wir eine Verbesserung der Ladezeit des Modells um 67 % und eine Reduzierung der Spitzenspeichernutzung um 47,6 %. Wir zeigen, dass die Überlegenheit von Proposed Protocol Buffers bei der Datenmutation, d. h. Serialisierung plus Deserialisierungsleistung für Anwendungsfälle für das Training auf dem Gerät, ihm einen Vorteil gegenüber bestehenden FlatBuffers verschafft.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8697-2_23 12e23d8cf8d66c6279d756b0673a54b2;de;;;3.2.;;;Effizienter Graph Matching mit Anwendung zur kognitiven Automatisierung Kognitive Automatisierung hat sich als anwendbarer Ansatz zur Bewältigung der zunehmenden Komplexität in der Automatisierung erwiesen. Obwohl bereits Feldprototypen demonstriert wurden, ist die Echtzeit-Performance des zugrundeliegenden Software-Frameworks COSA derzeit ein limitierender Faktor im Hinblick auf eine weitere Steigerung der Anwendungskomplexität. In diesem Papier beschreiben wir ein kognitives Framework mit erhöhter Leistung für den Einsatz in kognitiven Systemen für die Automatisierung von Fahrzeugführungsaufgaben. Es verwendet eine Kombination aus mehreren bestehenden Graphtransformationsalgorithmen und -techniken. Wir zeigen, dass für unseren Ansatz das von uns vorgeschlagene inkrementelle Regelmatching einen Leistungsgewinn gegenüber dem nicht-inkrementellen Algorithmus und eine große Steigerung gegenüber dem bestehenden generischen kognitiven Framework COSA für eine typische Anwendung ergibt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89020-1_21 e58469090fba64c696f9e0f48a7840e2;de;;;3.2.;;;Qualitative SBML-Modelle: ein Modelldarstellungsformat und eine Infrastruktur zur Förderung der Interaktion zwischen qualitativen Modellierungsformalismen und -werkzeugen Qualitative Frameworks, insbesondere solche, die auf dem logischen diskreten Formalismus basieren, werden zunehmend verwendet, um Regulierungs- und Signalisierungsnetzwerke zu modellieren. Ein großer Vorteil dieser Frameworks besteht darin, dass sie keine präzisen quantitativen Daten benötigen und sich gut für Studien großer Netzwerke eignen. Während zahlreiche Gruppen spezifische Computerwerkzeuge entwickelt haben, die originelle Methoden zur Analyse qualitativer Modelle bereitstellen, fehlte ein Standardformat zum Austausch qualitativer Modelle.;-;-;-;https://link.springer.com/article/10.1186/1752-0509-7-135 9e29bf94ce8ba192acb786a3ad4e9888;de;;;3.2.;;;Anwendung der P-Grade-Entwicklungsumgebung in der Meteorologie Das Hauptziel eines meteorologischen Nowcasting-Systems ist die Analyse und Vorhersage von Wetterphänomenen, die für Leben und Eigentum gefährlich sein können, in kürzester Entfernung. Der Ungarische Wetterdienst hat ein Nowcasting-System namens MEANDER entwickelt und seine rechenintensivsten Berechnungen wurden mit Hilfe der grafischen Programmierumgebung P-GRADE parallelisiert. Um die effiziente Anwendung von P-GRADE in realen Problemen zu demonstrieren, geben wir einen Überblick über die Parallelisierung des MEANDER-Systems unter Verwendung der P-GRADE-Umgebung in den verschiedenen Phasen der parallelen Programmentwicklung, des Designs, des Debuggens und der Leistungsanalyse.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-1167-0_13 f3793ca3b143992914d73ec62202f46f;de;;;3.2.;;;Deregulation der Zellzyklusprogression durch onkogene Transformation Die Regulation des Zellzyklus und der Zellproliferation wurde in den letzten Jahren intensiv untersucht und ein Konsensus-Paradigma der Zellzyklusregulation entwickelt;-;-;-;https://link.springer.com/chapter/10.1007/978-1-59259-313-2_8 bb3d1f9136e8db6f9885a16d26c26ddc;de;;;3.2.;;;Von Genen über Genomik zu Proteomikom In der Humangenetik konzentrierten sich viele anfängliche Forschungsinitiativen auf einzelne Gene oder wurden Gen für Gen durchgeführt. Neuere Erkenntnisse, insbesondere über die umfangreiche Transkriptionsaktivität des Genoms, haben jedoch die Vorstellung, was ein Gen sein soll, verändert. Darüber hinaus ermöglichen uns neuartige Hochdurchsatzansätze und zahlreiche innovative Technologien wie Gen- und Expressions-Microarrays, Massenspektrometrie, neue Sequenzierungsmethoden und vieles mehr, komplexe Erkrankungen zu adressieren und zugrunde liegende beteiligte Regulationsmuster zu enträtseln. Diese Hochdurchsatz-Assays führten zu einer Verlagerung von der Untersuchung von Mendelschen Erkrankungen hin zu multifaktoriellen Erkrankungen, obwohl monogene Erkrankungen immer noch eine einzigartige Möglichkeit zur Aufklärung der Genfunktion bieten. Dieses Kapitel beschreibt aktuelle Konzepte zur Definition eines Gens, mögliche Konsequenzen von Mutationen und die neuesten Entwicklungen in den Bereichen Genomik, Transkriptomik und Proteomik und ihr Potenzial, zu einem besseren Verständnis von Faktoren beizutragen, die zu phänotypischen Merkmalen beitragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-37654-5_5 a8ac3fef006c192d006411c0440e9e8f;de;;;3.2.;;;Strategische Entwicklung und Information der Gesundheitspolitik: auf dem Weg zu einer neuen Partnerschaft Die Weltgesundheitsorganisation von 1985 formulierte eine Strategie mit klar definierten Zielen zur Förderung der „Gesundheit für alle bis zum Jahr 2000“. Ziel war es, die Lebenserwartung zu erhöhen und vorzeitige Todesfälle weltweit zu reduzieren. Diesem Vorbild folgend, hat die britische Regierung im Jahr 1992 landesweit die neue Strategie „Gesundheit der Nation“ eingeführt. Die führende Rolle bei dieser neuen Initiative wurde dem National Health Service übertragen. Es wurden zunächst fünf Handlungsschwerpunkte ausgewählt, in denen wesentliche (und messbare) Verbesserungen der Gesundheit zu erwarten waren. Dies sind koronare Herzkrankheiten und Schlaganfälle, Krebs, psychische Erkrankungen, HIV/AIDS und sexuelle Gesundheit sowie Unfälle. Jeder dieser Bereiche stellt in Großbritannien eine der Hauptursachen für vorzeitigen Tod oder vermeidbare Krankheiten dar. Außerdem sind sie kostspielig.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-0093-9_24 1d54d4e98c39505494b45e5f808288b6;de;;;3.2.;;;Eine neuartige Aktivierungsfunktion für mehrschichtige neuronale Feed-Forward-Netze Traditionelle Aktivierungsfunktionen wie hyperbolischer Tangens und logistisches Sigmoid wurden in der Vergangenheit häufig in künstlichen neuronalen Netzen verwendet. Heutzutage sind sie jedoch in der Praxis in Ungnade gefallen, zweifellos aufgrund des Leistungsunterschieds, der bei Erkennungs- und Klassifizierungsaufgaben im Vergleich zu ihren bekannten Gegenstücken wie Rektified Linear oder Maxout beobachtet wurde. In diesem Papier stellen wir eine einfache, neue Art von Aktivierungsfunktion für mehrschichtige Feed-Forward-Architekturen vor. Im Gegensatz zu anderen Ansätzen, bei denen neue Aktivierungsfunktionen entworfen wurden, indem viele der Grundpfeiler des traditionellen Aktivierungsfunktionsdesigns verworfen wurden, basiert unsere vorgeschlagene Funktion auf ihnen und teilt daher die meisten Eigenschaften, die in traditionellen Aktivierungsfunktionen gefunden werden. Dennoch unterscheidet sich unsere Aktivierungsfunktion in zwei wesentlichen Punkten von herkömmlichen Aktivierungsfunktionen: ihrer Asymptote und ihrem globalen Extremum. Die Definition einer Funktion, die die Eigenschaft hat, ein globales Maximum und ein globales Minimum zu haben, erwies sich während unseres Designprozesses als kritisch, da dies unserer Meinung nach einer der Hauptgründe für die Leistungslücke zwischen traditionellen Aktivierungsfunktionen und ihren kürzlich eingeführten Gegenstücken ist . Wir bewerten die Wirksamkeit der vorgeschlagenen Aktivierungsfunktion an vier häufig verwendeten Datensätzen, nämlich MNIST, CIFAR-10, CIFAR-100 und der Filmkritik von Pang und Lee. Experimentelle Ergebnisse zeigen, dass die vorgeschlagene Funktion effektiv auf verschiedene Datensätze angewendet werden kann, bei denen unsere Genauigkeit bei gleicher Netzwerktopologie mit dem Stand der Technik konkurrieren kann. Insbesondere übertrifft die vorgeschlagene Aktivierungsfunktion die modernsten Methoden des MNIST-Datensatzes.;-;-;-;https://link.springer.com/article/10.1007/s10489-015-0744-0 f0f2a25a481ff85a0eec5d3cf0fe40da;de;;;3.2.;;;Genomik, andere „Omic“-Technologien, personalisierte Medizin und zusätzliche biotechnologiebezogene Techniken Die daraus resultierenden Produkte für Biotechnologien wachsen weiterhin exponentiell, und es wird erwartet, dass ein noch größerer Anteil der Arzneimittelentwicklung im Bereich der Biologika liegen wird. Im Jahr 2011 befanden sich weltweit über 800 neue biotechnologische Medikamente und Behandlungen in der Entwicklung, darunter 23 Antisense-, 64 Zelltherapie-, 50 Gentherapie-, 300 monoklonale Antikörper, 78 rekombinante Proteine ​​und 298 Impfstoffe (PhRMA 2012). Pharmazeutische Biotechnologie-Techniken bilden den Kern der meisten Methoden, die heute zur Wirkstoffforschung und Entwicklung von Biologika und kleinen Molekülen verwendet werden. Während die rekombinante DNA-Technologie und Hybridom-Techniken während des größten Teils ihrer historischen Zeit die wichtigsten Methoden in der pharmazeutischen Biotechnologie waren, wurden und werden unser ständig erweitertes Verständnis der menschlichen Zellfunktionen und Krankheitsprozesse sowie eine Fülle zusätzlicher und innovativer Biotechnologien , entwickelt, um die im menschlichen Genom gefundenen Informationen zu ernten. Diese technologischen Fortschritte werden ein besseres Verständnis der Beziehung zwischen Genetik und biologischer Funktion ermöglichen, die zugrunde liegenden Ursachen von Krankheiten enträtseln, den Zusammenhang zwischen genomischer Variation und Arzneimittelreaktion erforschen, die pharmazeutische Forschung verbessern und die Entdeckung und Entwicklung neuer und neuartiger Biopharmazeutika vorantreiben. Diese revolutionären Technologien und zusätzliche biotechnologiebezogene Techniken verbessern den sehr wettbewerbsfähigen und kostspieligen Prozess der Arzneimittelentwicklung neuer Arzneimittel, Diagnostika und Medizinprodukte. Einige der in diesem Kapitel beschriebenen Technologien und Techniken sind sowohl etablierte als auch häufig verwendete Anwendungen der Biotechnologie, die potenzielle therapeutische Produkte herstellen, die sich derzeit in der Entwicklung, einschließlich klinischer Studien, befinden. Neue Techniken entstehen in rasantem und beispiellosem Tempo, und ihre vollen Auswirkungen auf die Zukunft der molekularen Medizin sind noch nicht vorstellbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-6486-0_8 99879829b4815fff9a5819295b38f321;de;;;3.2.;;;Fortschrittlicher Biodiesel und Biojet-Kraftstoffe aus lignocellulosehaltiger Biomasse Der weltweite Energiebedarf und Umweltbedenken haben das Interesse an erneuerbarem, kohlenstoffneutralem Diesel und Kerosin aus Biomasse geweckt. Lignocellulosehaltige Biomasse gilt als vielversprechende Ressource für die zukünftige Bioindustrie. Die Pflanzenzellwand ist ein Polymernetzwerk, das größtenteils aus den Zuckerpolymeren wie Cellulose und Hemicellulose und dem polyphenolischen Lignin besteht, und es wurden erhebliche Anstrengungen unternommen, um Lignocellulose in fermentierbare Zucker für ihre Verwendung in der mikrobiellen Brennstoffsynthese umzuwandeln. Gentechnisch veränderte mikrobielle Wirte können diese Zucker als Kohlenstoffquelle nutzen, um eine breite Palette von Bioprodukten zu biosynthetisieren, darunter Fettsäuren-, Isoprenoid- und Alkohol-abgeleitete Verbindungen, die als Vorläufer oder direkt als fungible Alternativen zu Diesel und Kerosin verwendet werden können. In diesem Kapitel besprechen wir die Prinzipien der Biokraftstoffsynthese aus aus Biomasse gewonnenem Zucker, fassen die vielversprechenden Technologien des Biomasseabbaus und des Pathway Engineerings zusammen und diskutieren die aktuellen Anwendungen von Biodiesel und Biojet-Kraftstoffen.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-319-50436-0_372 c5ff044ed8623d6881a2c632b20ab4a5;de;;;3.2.;;;Nichtlineare Zeitreihenprognosen Nachdem Sie die Kapitel 8 und 9 durchgearbeitet haben, werden Sie zu Recht das Gefühl haben, dass subjektives Urteilsvermögen erforderlich sein kann, um die Existenz eines zugrunde liegenden chaotischen Attraktors zu bestimmen, der die Dynamik einer Observablen diktiert. Einschränkungen der Algorithmen, Datenanforderungen und andere Probleme, die in diesen Kapiteln diskutiert werden, machen die Interpretation der Ergebnisse oft ziemlich kompliziert. Was können wir möglicherweise tun, um die Suche nach niedrigdimensionalen Attraktoren zu unterstützen?;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-3360-3_10 911dfa5674788bae1d9e69f6b04f056e;de;;;3.2.;;;Verknüpfen von disjunkten Pfaden mithilfe der Hilfsgraphtransformation in WDM-Netzwerken Dieses Papier stellt eine neue Methode vor, um zwei verbindungsdisjunkte Pfade in WDM-Netzwerken unter Wellenlängenkontinuität und niedrigsten Kostenbeschränkungen zu finden. Ein solches Problem wird als NP-vollständiges Problem betrachtet, das nur mit Integer Linear Programming (ILP) lösbar ist. Die vorgestellte Methode basiert auf der Transformation des ursprünglichen Netzes in ein Hilfsnetz mit;-;-;-;https://link.springer.com/article/10.1007/s13369-013-0568-3 8a5575b326e5a13ceb29bb9fcd61bb53;de;;;3.2.;;;Verbesserung der Netzwerkkonnektivität in Ad-hoc-Netzwerken durch Partikelschwarmoptimierung und Agenten In einem mobilen Ad-hoc-Netzwerk (MANET) können die Knoten sowohl als Router als auch als Hosts dienen und Pakete im Namen anderer Knoten im Netzwerk weiterleiten. Diese Funktionalität ermöglicht es dem MANET, ein sofortiges, autonomes Telekommunikationsnetz ohne eine vorhandene Infrastruktur oder eine zentrale Netzsteuerung zu bilden. In diesem Kapitel wird ein dynamisches MANET-Verwaltungssystem zur Verbesserung der Netzwerkkonnektivität durch die Verwendung von kontrollierten Netzwerkknoten, Agenten genannt, vorgestellt. Agenten verfügen über vordefinierte drahtlose Kommunikationsfähigkeiten, die den anderen Knoten im MANET ähnlich sind. Die Bewegungen der Agenten und damit ihre Standorte werden jedoch dynamisch bestimmt, um die Netzwerkkonnektivität zu optimieren. Ein Partikelschwarmoptimierungsalgorithmus (PSO) wird verwendet, um optimale Standorte der Agenten während jedes Zeitschritts des Netzwerkbetriebs auszuwählen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-6111-2_11 7ab5fe420205ad077e6fb851a4477890;de;;;3.2.;;;Der Einfluss von Netzwerken auf die Marktgröße des japanischen Buchverlags Der japanische Buchverlagsmarkt ist in letzter Zeit tendenziell geschrumpft. Die vorliegende Studie untersucht das Timing des Strukturwandels mit Hilfe von Zeittrendanalysen, um zu testen, ob die Online-Vernetzung das Schrumpfen des Printbuchmarktes verursacht hat. Die Ergebnisse zeigen, dass 1983 vor dem Aufkommen des Internets ein Strukturbruch eingetreten ist und das elektronische Publizieren den Verkauf von gedruckten Büchern nicht wesentlich beeinflusst hat.;-;-;-;https://link.springer.com/article/10.1007/s12109-015-9426-3 c3bb1e8134b61dae32e40e3905a3a5db;de;;;3.2.;;;Leistungsbewertung der Übergabe in mobilen IPv6-Netzwerken: Der Fall sicherheitskritischer Systeme mit NIMBLE Platform for Mobility In Echtzeitsystemen werden bei Ausfällen jeglicher Art hochwertige Vermögenswerte und in einigen Fällen sogar Menschenleben gefährdet. Aufgrund dieser hohen Kritikalität wird die Entwicklung von Verbesserungen dieser Systeme zur Erhöhung ihrer Sicherheit ein Thema von hoher Bedeutung. Diese Studie untersucht Übergabeverfahren in IPv6-Netzwerken, um diejenigen mit geringerer Latenz und geringem Paketverlust während des Betriebs zu identifizieren, mit dem Ziel, die Effizienz der allgemeinen Kommunikation in diesen Systemen zu erhöhen. Dazu werden einige in der Literatur gefundene Übergabetechniken simuliert und aus den erhaltenen Ergebnissen Leistungsvergleiche nach spezifischen statistischen Techniken zur Bewertung der Leistung von Rechensystemen präsentiert. Abschließend wird die Anwendung dieser Techniken in kritischen eingebetteten Systemen diskutiert, insbesondere in unbemannten Fahrzeugen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-61403-8_2 d21477051d2e3355dc537dbe2001455d;de;;;3.2.;;;Ein Parallel-Algorithmus zur Minimierung der Anzahl der Routen in der Vehicle Routing Problem mit Zeitfenstern Ein paralleler Algorithmus zum Minimieren der Anzahl von Routen im Vehicle Routing Problem with Time Window (VRPTW) wird vorgestellt. Die Algorithmuskomponenten kooperieren periodisch, indem sie ihre besten Lösungen mit der geringsten Anzahl von bisher gefundenen Routen austauschen. Ziel der Arbeit ist es, die Geschwindigkeit, die erreichte Genauigkeit von Lösungen und die Skalierbarkeit der MPI-Implementierung zu analysieren. Für Vergleiche werden die ausgewählten VRPTW-Tests verwendet. Die abgeleiteten Ergebnisse rechtfertigen das vorgeschlagene Parallelisierungskonzept. Durch den Einsatz des parallelen Algorithmus wurden die zwölf neuen bekanntesten Lösungen für die Benchmarking-Tests von Gehring und Homberger gefunden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31464-3_26 9db1878f02cff358b1d2c00ac7662262;de;;;3.2.;;;Biosynthese von Holzkomponenten Chemische Bestandteile von Holz werden in Hauptbestandteile bestehend aus Zellwandmaterialien und Nebenbestandteile, die mit Lösungsmitteln extrahierbar sind (Holzextrakte), unterteilt. Erstere, Bestandteile von Zellwänden und interzellulären Schichten, machen 90–95 % des ofentrockenen Holzes aus. Extrakte kommen hauptsächlich, wenn auch nicht ausschließlich, im Zelllumen und speziellen Geweben wie Harzzellen vor und werden mit Wasser oder organischen Lösungsmitteln extrahiert. Die Menge der Nebenbestandteile ist bei verschiedenen Arten sehr unterschiedlich, und einige Verbindungen sind nur auf bestimmte Arten beschränkt. Tropenhölzer enthalten oft große Mengen an Extrakten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-60469-0_4 416544d1824c9057ee415cf221d077c9;de;;;3.2.;;;Abbau biologischer Netzwerke für ähnliche Muster In diesem Kapitel stellen wir effiziente und genaue Methoden zur Analyse biologischer Netzwerke vor. Biologische Netzwerke zeigen, wie verschiedene biochemische Einheiten miteinander interagieren, um lebenswichtige Funktionen für das Überleben eines Organismus zu erfüllen. Drei Haupttypen biologischer Netzwerke sind Proteininteraktionsnetzwerke, Stoffwechselwege und regulatorische Netzwerke. In dieser Arbeit konzentrieren wir uns auf die Ausrichtung metabolischer Netzwerke.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23151-3_5 ee05259585b9e0e3af6fb017f2d2ba02;de;;;3.2.;;;Universell zusammensetzbare symbolische Analyse für Zweiparteienprotokolle basierend auf homomorpher Verschlüsselung Wir betrachten eine Klasse von Zweiparteien-Funktionsbewertungsprotokollen, in denen die Parteien sowohl ideale Funktionalitäten als auch eine Reihe mächtiger Primitive verwenden dürfen, nämlich Commitments, homomorphe Verschlüsselung und bestimmte Zero-Knowledge-Beweise. Mit diesen ist es möglich, Protokolle für den Oblivious Transfer, das Münzwerfen und die Generierung von Multiplikationstripeln zu erfassen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55220-5_38 ca337f2535446c94e51314394f662e7d;de;;;3.2.;;;Parallele Hybrid-Metaheuristiken für das Scheduling mit unscharfen Verarbeitungszeiten In diesem Artikel wird parallel simuliertes Annealing mit dem Genetic Enhancement Algorithmus (HSG) vorgestellt und auf das Permutationsfluss-Scheduling-Problem angewendet, das sich als;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13232-2_46 788de823f97fa09d9f7a61a6a013ee5d;de;;;3.2.;;;Globale Anomalieerkennung basierend auf einem neuronalen Netzwerk mit tiefer Vorhersage Die Erkennung abnormaler Ereignisse in öffentlichen Szenen ist in der neueren Gesellschaft sehr wichtig. In diesem Beitrag wird eine Methode zur globalen Anomalieerkennung in der Videoüberwachung vorgeschlagen, die auf einem neuronalen Netz mit tiefer Vorhersage basiert. Das neuronale Netz mit tiefer Vorhersage basiert auf dem Convolutional Neural Network (CNN) und einer Variante des Recurrent Neural Network (RNN)-Long Short-Term Memory (LSTM). Insbesondere ist das Feature eines Frames die Ausgabe von CNN, die anstelle des handgefertigten Features ist. Zuerst wird das Merkmal eines kurzen Videoclips über CNN abgerufen. Zweitens kann das vorhergesagte Merkmal des nächsten Rahmens durch LSTM gewonnen werden. Schließlich wird der Vorhersagefehler eingeführt, um zu erkennen, dass ein Frame anormal ist oder nicht, nachdem das Merkmal des Frames erreicht wurde. Experimentelle Ergebnisse der Erkennung globaler abnormaler Ereignisse zeigen die Wirksamkeit unseres neuronalen Netzwerks zur Tiefenvorhersage. Im Vergleich zu modernsten Methoden erzielt das von uns vorgeschlagene Modell überlegene Detektionsergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37429-7_21 34642d93f26a9e48b4f1b06705c99281;de;;;3.2.;;;Tumorsuppressorgene und molekulare Chaperone Die beiden Tumorsuppressorgene, die bei menschlichem Krebs am häufigsten inaktiviert werden, sind das p53-Gen auf Chromosom 17 und das Retinoblastom (Rb)-Gen auf Chromosom 11. Jüngste Studien beider Genprodukte deuten darauf hin, dass sie in der Lage sind, als starke negative Regulatoren von Zellen zu wirken Einteilung. Das Rb-Gen scheint diese Aktivität auszuüben, indem es eine Vielzahl spezifischer Transkriptionsfaktoren physikalisch komplexiert und deren Funktion inaktiviert. Die Fähigkeit des Rb-Proteins, diese Faktoren zu binden, wird durch Phosphorylierung reguliert. Das Rb-Protein kann daher als Chaperon für diese Faktoren angesehen werden. Das p53-Protein kann auch teilweise durch Regulierung der Transkription wirken, kann aber auch direkt mit dem DNA-Replikationsapparat interagieren. Die wachstumsunterdrückende Funktion von p53 wird durch DNA-Schäden induziert, was zu einem attraktiven Modell von p53 als wesentlicher Kontrollpunkt führt. Das p53-Protein interagiert mit Mitgliedern der hsp70-Chaperon-Familie, von der wir nun zeigen, dass sie seine Funktion regulieren kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-2108-8_14 35e440aeded1cc6f470fd0ed7cbdbe0e;de;;;3.2.;;;Eine optimierte Bereitstellungsmethodik des HAP-VMIMO-Breitbandkommunikationsnetzwerks mit Anpassung an die Nachfrageverteilung Mit dem Ziel des optimalen Designs des Weltrauminformationsnetzes mit der Verwendung einer Höhenplattform (HAP) als Basisstation schlug dieses Papier eine multizielorientierte Methode zur optimalen Bereitstellung für HAP-Breitbandkommunikationsnetze vor, die auf Netzkapazitätsressourcen basiert, die der Nachfrageverteilung entsprechen. Zunächst besteht ein virtuelles Multi-Input- und Multi-Output-(VMIMO)-Breitbandkommunikationsnetzwerkmodell aus Multi-HAP. Zweitens werden die ergodische Kapazität des Netzes und der Übereinstimmungsgrad, der als Hash-Fingerabdruck-Differenz zwischen der Nachfrageverteilung und der Kapazitätsverteilung charakterisiert wird, als optimale Ziele angenommen. Um dieses Modell zu lösen, wurde der genetische Sortieralgorithmus-2 (NSGA-2) mit Restriktionsbeurteilungsstrategie verwendet. Das Simulationsergebnis zeigt die Wirksamkeit der vorgeschlagenen Optimierungsmethoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7877-4_7 7d4e555981011d529202a49bf0619cad;de;;;3.2.;;;MassiveThreads: Eine Thread-Bibliothek für Sprachen mit hoher Produktivität Eine effiziente Implementierung von Aufgabenparallelität ist für Sprachen mit hoher Produktivität wichtig. Insbesondere erfordert sie eine Tasking-Schicht, die folgende Anforderungen erfüllt: (i) ihre Leistung skaliert auf hohe Kernzahlen und (ii) sie ist nahtlos in ein Laufzeitsystem integriert, das Kommunikation und Synchronisation zwischen Knoten durchführt. Insbesondere sollte es Interaktionen zwischen Tasks und Threads erleichtern, die für die Kommunikation zwischen Knoten bestimmt sind. Es gab viele Implementierungen, die (i) erfüllen, aber nach unserem besten Wissen erfüllt keines dieser Systeme beide Anforderungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44471-9_10 3f29a537b3585306f5e678336b49564b;de;;;3.2.;;;Ein Approximationsalgorithmus und dynamische Programmierung zur Reduktion in heterogenen Umgebungen Network of Workstation (NOW) ist eine kostengünstige Alternative zu massiv parallelen Supercomputern. Da kommerziell verfügbare Standardprozessoren billiger und schneller werden, ist es jetzt möglich, einen Cluster zu bauen, der eine hohe Rechenleistung bei einem begrenzten Budget bietet. Ein Cluster kann jedoch aus verschiedenen Prozessortypen bestehen, und diese Heterogenität erschwert den Entwurf effizienter kollektiver Kommunikationsprotokolle. Es ist beispielsweise ein sehr schwieriges kombinatorisches Problem, einen optimalen Reduktionsplan für solche heterogenen Cluster zu finden. Dennoch zeigen wir, dass eine einfache Technik namens;-;-;-;https://link.springer.com/article/10.1007/s00453-007-9113-7 39a531e706502535f8e3c5b1d7b72aa1;de;;;3.2.;;;Ein Vergleich zwischen Nass- und Massendeposition an einem städtischen Standort in Großbritannien. Im Rahmen einer laufenden Untersuchung der sauren Ablagerung in Städten in Greater Manchester wurde ein Nur-Nass-Kollektor mit einem Massenkollektor im Stadtzentrum von Manchester zusammengebracht, einer von 18 Standorten eines städtischen Niederschlagsmessnetzes. Ein Vergleich der Daten dieser kollozierten Bulk- und Nur-Nass-Kollektoren ermöglichte Schätzungen des Beitrags der Trockenablagerung zum Bulk-Kollektor. Es wurde festgestellt, dass trockene Ablagerungen zwischen 15 und 17% zu erhöhten Ablagerungen und Konzentrationen von nicht-marinem Sulfat, Nitrat und Ammonium im Sammelsammler beitragen. Durch eine statistische Analyse zwischen Ionenkonzentrationen mit Gaskonzentrationen und einer Auswertung der verfügbaren Literatur wurde auf die Form des trocken abgeschiedenen Materials geschlossen. Der Beitrag von trocken abgeschiedenem Ca;-;-;-;https://link.springer.com/article/10.1007/BF00483372 0139bdb3f1c6876090eb076f0c08ed22;de;;;3.2.;;;Anisotrope Perkolationspfade in den dünnen Filmen von polymeren PEDT/PSS-Komplexen und ihre Beziehung zur elektrischen Leitfähigkeit, wie durch die Mesoskalensimulation gezeigt Der durch das Perkolations- und Clusteranalysekonzept ergänzte MesoDyn-Simulationscode wurde verwendet, um die subkritischen Perkolationsnetzwerke von PEDT-Kügelchen des grobkörnigen PEDT/PSS-Komplexes in einem Bereich von PEDT/PSS-Massenverhältnis bis zu 20 zu generieren der Perkolationsparameter in drei senkrechten Richtungen wurde die Anisotropie der Netzwerke bestimmt und ihre Korrelation mit der makroskopischen elektrischen Leitfähigkeit bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-9151-2_46 c41a039c444e8a5dce659fd401175527;de;;;3.2.;;;Abrufen des Pflanzenblattflächenindex durch Assimilation von MODIS-Daten in ein Pflanzenwachstumsmodell Der Blattflächenindex (LAI) ist ein wichtiger Parameter bei der Überwachung des Pflanzenwachstums. Eine der Methoden zum Abrufen von LAI aus fernerfassten Beobachtungen besteht in der Umkehrung von Reflexionsmodellen der Baumkronen. Viele Modellinversionsverfahren berücksichtigen nicht variable LAI-Werte in verschiedenen Pflanzenwachstumsstadien. In dieser Forschung verwenden wir das Pflanzenwachstumsmodell, um die LAI-Änderungen mit dem Pflanzenwachstum zu beschreiben und;-;-;-;https://link.springer.com/article/10.1007/s11430-009-0203-z f57da5bfcdb585a73e2a90412d344da1;de;;;3.2.;;;Methoden zur Untersuchung der RNA-Protein-Interaktionen RNA-bindende Proteine ​​(RBPs) spielen eine wichtige Rolle bei der Regulierung der Genexpression auf posttranskriptioneller Ebene, einschließlich der Schritte des Prä-mRNA-Spleißens, der Polyadenylierung, der mRNA-Stabilisierung, des mRNA-Exports vom Zellkern in das Zytoplasma, der mRNA-Lokalisierung und der Translation . RBPs regulieren diese Prozesse hauptsächlich durch Bindung an spezifische Sequenzelemente in neu synthetisierten oder reifen Transkripten. Während viele RPBs dafür bekannt sind, bestimmte Nukleotidsequenzen in RNA zu erkennen, reichen die Informationen für andere nicht aus. Insbesondere konkurrieren RBPs oft um die RNA-Bindung oder interagieren mit RNA kooperativ. Daher ist es wichtig, die RNA-Protein-Interaktionen in vivo zu untersuchen. Zahlreiche Verfahren wurden entwickelt, um die Zielnukleotidsequenzen von RBPs zu identifizieren. Zu den Methoden gehören der Electrophoretic Mobility Shift Assay (EMSA), die systematische Evolution von Liganden durch exponentielle Anreicherung (SELEX), RNA-Pull-Down-Assay, RNA-Footprinting, RNA-Immunpräzipitation (RIP), UV-induzierte Crosslinking-Immunpräzipitation (CLIP) und ihre Varianten und Messung des Niveaus für neu synthetisierte Transkripte. Jedes der Verfahren hat seine Grenzen und es sollten mehrere einander ergänzende Verfahren verwendet werden, um die RNA-Sequenz nachzuweisen, an die ein Protein bindet.;-;-;-;https://link.springer.com/article/10.1134/S0026893315020107 c01c41fe837e34b51c00a0e125266735;de;;;3.2.;;;Drahtlose Echtzeit-Paketüberwachung mit Raspberry Pi Sniffer In diesem Artikel wird ein drahtloses Echtzeit-Paketüberwachungssystem mit einem Raspberry Pi vorgeschlagen. Das System ist eine kostengünstige Alternative zu kommerziellen Paketerfassungsgeräten und Analysesoftware. In unserer Lösung werden erfasste Pakete von Sniffer an den Hauptserver gesendet, um Statistiken zu sammeln. Pakete werden analysiert und nur die relevanten Daten werden in der Datenbank gespeichert. Ein in Node.js entwickelter Benachrichtigungsserver ermöglicht die Kommunikation zwischen Datenbank und Benutzeroberfläche, die mit dem Django-Web-Framework entwickelt wurden. Die Leistung der vorgeschlagenen Lösung wird in einer Umgebung mit mehreren drahtlosen Netzwerken erfolgreich bewertet. Ergebnisse werden präsentiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09465-6_20 50d37904d1a97dcb59af9ecef4007d82;de;;;3.2.;;;Erforschung der rhythmischen Gangbewegung des Menschen in der Rolle des Signals der Großhirnrinde Die rhythmische Bewegung ist aufgrund des zentralen Mustergenerators (CPG) ein spontanes Verhalten. Derzeit zeigt das CPG-Modell nur das spontane Verhalten, bezieht sich aber nicht auf die instruktionsregulatorische Rolle der Großhirnrinde. In diesem Artikel wird ein modifiziertes Modell basierend auf der Matsuoka-Neural-Oszillator-Theorie vorgestellt, um die Regulationsrolle des Signals der Großhirnrinde für das neuronale Netzwerk von CPG besser zu zeigen. Die komplexe Wechselwirkung zwischen dem Eingangssignal und anderen Parametern im CPG-Netzwerk wird hergestellt, wodurch alle Parameter des CPG mit dem Eingangssignal variieren. Auf diese Weise wird die Wirkung des Eingangssignals in das CPG-Netzwerk verstärkt, so dass das CPG-Netzwerk den Bewegungszustand der Selbstregulation ausdrücken kann, anstatt auf das spontane Verhalten beschränkt zu sein, und somit kann die Regulierungsrolle des Großhirnrindensignals reflektiert. Numerische Simulation zeigt, dass das modifizierte Modell verschiedene Bewegungsformen mit unterschiedlichen Modi, Frequenzen und Wechseln zwischen ihnen erzeugen kann. Es wird in Theorien offenbart, dass das Großhirnrindensignal die Art und Frequenz des Gangs im Verlauf der Gangbewegung regulieren kann.;-;-;-;https://link.springer.com/article/10.1007/s10483-011-1408-6 651e3b9728d5b3aec6cf8f1ef7c8b283;de;;;3.2.;;;Die Optimierung der Kommunikationsleistung erfordert die Minimierung der Varianz Die Kommunikationskosten in Message-Passing-Systemen können nur auf der Grundlage einer Vielzahl von Details auf niedriger Ebene berechnet werden. Folglich ist die einzige architektonische Maßnahme, die sie natürlich vorschlagen, die Latenz erster Ordnung. Wir zeigen, dass als Eigenschaft zweiter Ordnung auch die Standardabweichung der Lieferzeiten von Interesse ist. Am wichtigsten ist, dass die durchschnittliche Leistung eines großen Kommunikationssystems nicht nur von der durchschnittlichen Leistung seiner Komponenten abhängt, sondern auch von der Standardabweichung dieser Leistungen. Mit anderen Worten, der Aufbau eines Hochleistungssystems erfordert Komponenten, die selbst hochleistungsfähig sind, aber ihre Leistung muss auch eine geringe Varianz aufweisen. Wir veranschaulichen diesen Effekt anhand von Verteilungen des BSP g-Parameters. Untere Grenzen der Kommunikationsleistung großer Systeme können aus Daten abgeleitet werden, die über einzelne Verbindungen gemessen werden.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0037205 14035deb924b392968db7e4bad2f0236;de;;;3.2.;;;Verhaltensmodellierung komplexer heterogener Mikrosysteme Eine allgemeine mathematische Beschreibung des Terminalverhaltens von Subsystemen wird diskutiert. Es ermöglicht die Kombination verschiedener Modellierungsmethoden, z. g. Netzwerkmodelle, Blockmodelle und Bondgraphen zusammen. Die resultierenden Gleichungen können mit einem allgemeinen Netzwerkanalyseprogramm gelöst werden. Dieser Ansatz wird effektiv bei der Modellierung elektrischer als auch nicht elektrischer Teilsysteme angewendet. Erweiterungen zu digitalen und zeitdiskreten Subsystemen sind möglich. Daher ist die Modellierung des Terminalverhaltens von Subsystemen die Grundlage für die Simulation heterogener Systeme. Erweiterungen zu digitalen und zeitdiskreten Subsystemen sind möglich. Die Modellierung des Terminalverhaltens von Subsystemen ist daher die Grundlage für die Simulation komplexer Mikrosysteme.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-3326-6_2 90929d09f0a6eb342b7057ad616361a9;de;;;3.2.;;;Zum Verständnis der Zentralität in Directed Citation Graph Die Modellierung komplexer Netzwerke als gerichtete/ungerichtete Graphen gilt als eine der gängigsten Methoden in der Netzwerkwissenschaft. Citation Graph ist ein gerichteter Graph von wissenschaftlichen Publikationen. Diese Grafik wurde in den letzten zehn Jahren massiv untersucht. Das Zitationsdiagramm kann verwendet werden, um die Beziehungen zwischen Autoren und Artikeln zu untersuchen. Es kann verwendet werden, um die Eigenschaften von Zitationsnetzwerken zu untersuchen, um das Wachstumsmodell, den Diagrammtyp und die Vorhersage von heißen neuen Themen zu zeigen. In diesem Artikel versuchen wir, den Zusammenhang zwischen der Popularität eines Artikels und dem Veröffentlichungsdatum zu untersuchen. Ziel dieser Studie ist es, den Zusammenhang zwischen Papierqualität und aktuellen Themen aufzuzeigen. Die Betweenness-Metrik wurde verwendet, um die Popularität einer veröffentlichten Arbeit zu messen. Darüber hinaus wurde ein Vergleich zwischen Betweenness und Citation Count (Knotengrad) durchgeführt, um zu zeigen, dass Arbeiten eine geringe Zitationszahl aufweisen können, jedoch einen großen Einfluss auf das Forschungsfeld haben können. Wir haben ein gerichtetes Zitationsdiagramm erstellt, indem wir Papierinformationen von CiteSeerx gecrawlt haben. Unsere Studie zeigt, dass das Datum der Veröffentlichung wichtig ist, um eine populäre Arbeit zu schreiben. Qualitativ hochwertige Papiere haben jedoch die Möglichkeit, unabhängig vom Erscheinungsdatum beliebt zu sein.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07674-4_5 443cc0d33eb4d5c982c2aa25f614401e;de;;;3.2.;;;Identifizieren kreativer Inhalte auf Seitenebene in der HathiTrust Digital Library mithilfe von maschinellen Lernmethoden für Text- und Bildfunktionen Titelseiten in einem digitalisierten Buch bestehen in der Regel hauptsächlich aus sachlichen Inhalten, die nicht dem Urheberrecht unterliegen, und könnten daher möglicherweise der Öffentlichkeit zugänglich gemacht werden, selbst wenn das Buch selbst urheberrechtlich geschützt ist. Die Grenze dessen, was als „Vorderseite“ gilt, ist jedoch ziemlich willkürlich, und einige urheberrechtlich geschützte kreative Inhalte sind auf den ersten Seiten eines urheberrechtlich geschützten Bandes zu finden. In dieser Arbeit führen wir empirische Untersuchungen durch, um maschinelle Lernansätze zu bewerten, um kreative Inhalte auf den ersten 20 Seiten in einer großen Stichprobe von HathiTrust-Bänden zu erkennen. Wir beginnen mit der Analyse verschiedener Methoden des maschinellen Lernens, um mithilfe der statistisch ausgedrückten Textmerkmale aus dem Datensatz „Extracted Features“ des HathiTrust Research Center kreative von sachlichen Inhalten zu unterscheiden. Aus diesem Experiment haben wir herausgefunden, dass das Random Forest-Modell die beste Leistung im Vergleich zu logistischen Regressions-, Support-Vektor-Machine- (SVM) oder stochastischen Gradientenabstiegsmodellen (SGD) aufwies. Dieser Test zeigt auch, dass Textdaten nicht ausreichen, um Seiten mit kreativen Inhalten, z. B. Bildern, zuverlässig zu identifizieren. Daher haben wir ein Bilderkennungsmodell mit YOLO-v3 weiter trainiert, um Seitentypen zu erkennen, und so ein Ensemble von Text- und Bildmerkmalen erstellt. Unsere Ergebnisse zeigen ein vielversprechendes Ergebnis für das auf einer Kombination von Text- und Bildmerkmalen trainierte Random-Forest-Modell, das die Genauigkeit von 85% auf 89% im Vergleich zu dem nur mit Textdaten trainierten Modell erhöht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71292-1_37 afa1659598c45c6487af8b0200b990e6;de;;;3.2.;;;Vergleiche in Trinkwassersystemen mit K-Means und A-Priori zum Auffinden pathogener Bakteriengattungen Da die Wasserressourcen begrenzt wurden, gab es vermehrt Fälle von Krankheiten im Zusammenhang mit durch Wasser übertragenen Krankheitserregern, in diesem Sinne müssen Studien und Untersuchungen zu alternativen Wasserquellen wie Grundwasser und üblichen Wasserquellen wie Oberflächengewässern durchgeführt werden, um sicherzustellen dass das Wasser, das den Verbrauchern zur Verfügung gestellt wird, sicher zu konsumieren ist. Diese Forschungsarbeit vergleicht Bakteriengattungen sowohl in Grund- als auch in Oberflächenquellwässern für Trinkwassersysteme, basierend auf 16S-rRNA-Profiling mit Methoden des maschinellen Lernens wie K-Means und A priori. 16S kann verwendet werden, um Bakteriengattungen zu identifizieren und zu unterscheiden. Es ist nicht nur wichtig, bestimmte Bakteriengattungen zu identifizieren, die in Wasserquellen vorkommen, sondern es muss auch die relative Häufigkeit untersucht werden, um festzustellen, ob Grundwasser eine lebensfähigere Trinkwasserquelle als Oberflächenwasser ist. Anhand der jüngsten Fälle von wasserbedingten Krankheiten, die in ganz Südafrika gemeldet wurden, können fünf bakterielle Schlüsselindikatoren zur Bestimmung der Wasserqualität und -sicherheit identifiziert werden, die sowohl im Grundwasser als auch in Oberflächengewässern zu finden sind. Die erfassten Daten aus den gesammelten Proben werden verwendet, um die Häufigkeit jedes Bakteriums für jede Wasserprobe effizienter und effektiver zu bestimmen. Die fünf für dieses Projekt skizzierten Indikatoren sind:;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-1056-0_36 19d58cb6892f2ed4cbb52ffdc3efc631;de;;;3.2.;;;Die neue Form des Schülers In diesem Kapitel werden die Eigenschaften von Studierenden kritisch untersucht im Lichte des populären Diskurses, der Studierende als Teil einer Netzgeneration digital nativer Jugendlicher beschreibt. Digitale und vernetzte Technologien haben die Lernmöglichkeiten der Studierenden und die Art und Weise, wie Lehren und Lernen durchgeführt werden können, deutlich verändert. Es wird auch behauptet, dass neue Technologien die Lernfähigkeit der Schüler verändern. Die Behauptung, dass es eine neue Generation von Lernenden gibt, die durch eine neue Mentalität gekennzeichnet ist, muss jedoch im Lichte neuer empirischer Erkenntnisse sorgfältig geprüft werden. Die Vorstellung eines Generationengefälles zwischen digital Native-Schülern und ihren digital eingewanderten Lehrkräften wird ebenso in Frage gestellt wie die Behauptung, dass der Druck dieser neuen Generation Bildungseinrichtungen radikale institutionelle Veränderungen erzwingt. Das Kapitel argumentiert gegen den Generationencharakter der Argumentation und trennt die stattfindenden technologischen Veränderungen von der deterministischen Rhetorik, in der sie verankert sind zu allgemeingültigen, wenn nicht universellen Konsequenzen. Das Kapitel schließt mit der Argumentation, dass es für Studierende nicht die eine Form gibt und dass digitale Technologien auf allen Bildungsebenen eine Reihe von Möglichkeiten und Wahlmöglichkeiten eröffnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32301-0_4 cdf53452625588bde701882b6bc6422d;de;;;3.2.;;;Ein 1 V 0,18 μm vollintegrierter Integer-N-Frequenzsynthesizer für 2,4 GHz drahtlose Sensornetzwerkanwendungen Es wird ein 1-V-Niederspannungs-Integer-N-Frequenzsynthesizer mit niedriger Leistung vorgestellt, der für drahtlose 2,4-GHz-Sensornetzwerkanwendungen (WSN) verwendet wird. Die Schleifenparameter des vorgeschlagenen Ladungspumpen-Phasenregelschleifen-Frequenzsynthesizers werden auf der Grundlage eines kontinuierlichen linearen Modells berechnet und verifiziert. Der vorgeschlagene spannungsgesteuerte Oszillator (VCO) besteht aus einem kreuzgekoppelten PMOS-Transistorpaar, einer NMOS-Schwanzstromquelle und einem LC-Resonator. Gleichtaktfilter der zweiten Harmonischen werden verwendet, um den geladenen Q-Faktor zu verbessern und Rauschen zu unterdrücken. Der LC-Resonator ist optimiert und das Schaltkondensator-Array wird verwendet, um die AM-PM-Rauschumwandlung zu verringern. Hergestellt im TSMC 0,18 μm CMOS-Prozess, beträgt das gemessene Phasenrauschen des VCO −113,4 dBc/Hz bei 1 MHz und −124,5 dBc/Hz bei 3,5 MHz, während der Frequenzabstimmbereich 4,56–5,32 GHz mit 1 V Spannungsversorgung umfasst. Die Verlustleistung beträgt 2,3 mW und das entsprechende FOM beträgt etwa –185 dBc/Hz. Mit anderen Teilerblöcken, Phasenfrequenzdetektor, Ladungspumpe und automatischer Frequenzkalibrierung beträgt die Chipfläche des gesamten hergestellten Frequenzsynthesizers 1,33 mm;-;-;-;https://link.springer.com/article/10.1007/s10470-014-0459-x c049f08ceac7b5e62b8a40e402257752;de;;;3.2.;;;Edge-Defekt-Erkennung des Netzwerkbildes durch die Anwendung der modalen Symmetrie Um die Genauigkeit der Erkennung des Bildfehlers zu verbessern, wurde ein Verfahren zum Erkennen des Kantenfehlers basierend auf einem modalen Symmetriealgorithmus vorgeschlagen. Das verbesserte PCNN wurde verwendet, um mit dem Salz-Pfeffer-Rauschen und dem Gaußschen Rauschen im Bild umzugehen. Auf dieser Basis wurde das semantische Lernen und Annotieren von Bildmerkmalen erreicht. Zunächst wurden die entsprechenden Merkmale aus dem Originalbild extrahiert. Und dann wurde die Semantik erlernt, indem die extrahierten Merkmale und die manuell beschriftete Bibliothek kombiniert wurden. In Kombination mit der semantischen Annotation des Bildes wurde der modale Symmetriealgorithmus verwendet, um die von zwei zentrosymmetrischen Abtastpunkten gesammelten Daten linear zu subtrahieren und so den Mittelwert zu erhalten. Die asymmetrische Modalinformation des gesamten Bildes wurde erhalten. Somit könnte das asymmetrische Modal aus dem symmetrischen Modal extrahiert werden. Aufgrund der hohen Amplitude des asymmetrischen modalen Signals bei der Fehlerortung. Schließlich wurde die Fehleridentifikation für verschiedene Stellen im Bild abgeschlossen, indem beurteilt wurde, ob sich die Amplitude des asymmetrischen Modal an der Fehlerstelle plötzlich änderte. Die folgenden Schlussfolgerungen können aus experimentellen Ergebnissen gezogen werden. Das vorgeschlagene Verfahren weist eine hervorragende Leistung bei der Bildverarbeitung auf. Inzwischen weist dieses Verfahren eine hohe Erkennungsgenauigkeit und Praktikabilität auf.;-;-;-;https://link.springer.com/article/10.1007/s11277-021-08347-w 8d61bd05efb034511d0bb01ab670476a;de;;;3.2.;;;Erkennung verschachtelter benannter Entitäten mit mehrschichtigen rekurrenten neuronalen Netzen Viele benannte Entitäten sind in andere eingebettet, aber aktuelle Modelle konzentrieren sich nur darauf, Entitäten auf der obersten Ebene zu erkennen. In diesem Papier haben wir zwei Ansätze für die Aufgabe zur Erkennung verschachtelter benannter Entitäten vorgeschlagen, indem wir diese Aufgabe als mehrschichtige Sequenzkennzeichnungsaufgabe modellieren. Zuerst schlagen wir ein Modell vor, das linguistische Merkmale in ein neuronales Netz integriert, um die Leistung von Systemen zur Erkennung benannter Entitäten (NER) zu verbessern, dann erkennen wir verschachtelte benannte Entitäten mithilfe einer Sequenz dieser Modelle, in denen jedes Modell für die Vorhersage benannter Entitäten verantwortlich ist an jeder Schicht. Dieser Ansatz scheint unpraktisch zu sein, da wir viele einzelne Modelle trainieren müssen, um verschachtelte benannte Entitäten vorherzusagen. Im zweiten Ansatz schlugen wir ein neues Modell vor, das sogenannte rekurrente neuronale Netze mit mehreren Schichten, um alle verschachtelten Entitäten gleichzeitig zu erkennen. Experimentelle Ergebnisse des vietnamesischen Datensatzes zeigen, dass die vorgeschlagenen Modelle bisherige Ansätze übertreffen. Unser Modell liefert die neuesten Ergebnisse für Vietnamesen mit F1-Werten von 92,97 % auf der obersten Ebene und 74,74 % auf der verschachtelten Ebene. Für Englisch liefern unsere NER-Systeme auch eine bessere Leistung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-8438-6_19 df4fe7b708c94b1c91fe5398c1bc6f6f;de;;;3.2.;;;Entwurf eines zuverlässigen drahtlosen Schalters für den Kreuzungsbereich in Fahrzeugtelematiknetzen Dieses Papier schlägt ein effizientes Nachrichtenvermittlungsschema für einen Kreuzungsbereich in einem Fahrzeugtelematiknetz vor, in dem die Routingentscheidung aufgrund einer dynamischen Änderung der Fahrzeugverteilung komplex sein kann. An jeder Ecke einer Kreuzung installiert, öffnet jeder Vermittlungsknoten eine externe Schnittstelle, um Nachrichten mit Fahrzeugen auszutauschen, die von der vorab zugewiesenen Verzweigung zur Kreuzung fahren, während die empfangenen Nachrichten über die internen Schnittstellen vermittelt werden und auf zwei gemeinsam genutzte Kanäle gemäß Slot-based MAC. Der Unterschied in den Zugriffsphasen über zwei Kanäle verbessert die Schaltgeschwindigkeit und das Nachrichtenverwerfungsverhältnis weiter. Das Ergebnis der Leistungsmessung, das durch Simulation mit SMPL erhalten wurde, zeigt, dass das vorgeschlagene Schema die Zugriffsverzögerung um bis zu 16,4 % verbessern kann, was ein Lieferverhältnis von über 85 % für den gesamten Verwerfungsintervallbereich zeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-13405-0_1 f0fdcf620c65b4d58f5b1030cd354531;de;;;3.2.;;;Ein generatives gegnerisches Netzwerk zur Entrauschung von Tiefenkarten zur Qualitätsverbesserung von DIBR-synthetisierten stereoskopischen Bildern Die Qualität der Tiefenkarte ist ein wichtiger Faktor, der die Qualität synthetisierter stereoskopischer Bilder in stereoskopischen visuellen Kommunikationssystemen unter Verwendung der Tiefenbild-basierten Wiedergabetechnik (DIBR) beeinflusst. Dieses Papier schlägt eine Methode vor, die ein generatives gegnerisches Netzwerk (GAN) verwendet, um Tiefenkarten zu entrauschen, die durch verschiedene Arten von Verzerrungen beschädigt sind. Das generative Netzwerk des vorgeschlagenen GAN baut auf Faltungsschichten, Restschichten und transponierten Faltungsschichten mit symmetrischen Sprungverbindungen auf. Das diskriminative Netz des vorgeschlagenen GAN ist als konvolutionelles neuronales Netz ausgelegt. Das generative Netzwerk zum Entrauschen von Tiefenkarten wird mit beschnittenen Tiefenkarten trainiert, bei denen Verzerrung angewendet wird. Die objektive und subjektive Bewertung von entrauschten Tiefenkarten und DIBR-synthetisierten stereoskopischen Bildern zeigt, dass das vorgeschlagene GAN die Verzerrung in den Tiefenkarten effektiv reduziert und die Qualität von DIBR-synthetisierten stereoskopischen Bildern verbessert.;-;-;-;https://link.springer.com/article/10.1007/s42835-021-00728-2 c47c4a5d50e0000b6d7e089c227ecf20;de;;;3.2.;;;Förderung von Convolutional Neural Networks mit mehreren Ansichten für die 3D-Objekterkennung durch Ansichtssalienz 2D-Ansichten von Objekten spielen eine wichtige Rolle bei der 3D-Objekterkennung. In diesem Papier konzentrieren wir uns auf die 3D-Objekterkennung unter Verwendung der 2D-Projektiven Ansichten. Die Diskriminativität jeder Ansicht eines Objekts wird zunächst mit Blick-Salienz unter Verwendung von 2D-Zernike-Momenten untersucht. Die vorgeschlagene Ansichtssalienz wird dann verwendet, um ein neuronales Faltungsnetzwerk mit mehreren Ansichten für die 3D-Objekterkennung zu verstärken. Die vorgeschlagene Methode wird mit mehreren aktuellen Methoden des ModelNet-Datensatzes verglichen. Experimentelle Ergebnisse haben gezeigt, dass die Leistung unserer Methode gegenüber den bestehenden Multi-View-basierten 3D-Objekterkennungsmethoden deutlich verbessert wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7389-2_20 912c881020c5a54c13596384b6da36b3;de;;;3.2.;;;Dipolarer Energietransfer und Knudsen-Diffusion in ungeordneten porösen Medien: Grenzflächengeometrie und Sehnenverteilungen Die Grenzflächengeometrie eines ungeordneten porösen Mediums beeinflusst stark die Knudsen-Diffusion von Gasen und die dipolare Grenzflächenenergieübertragung. Zwischen diesen beiden Transportprozessen kann ein interessanter Vergleich gezogen werden, der statistische Eigenschaften von Sehnen umfasst, die entweder zur festen Matrix oder zum Porennetzwerk gehören. Basierend auf einem Akkordverteilungsmodell wird eine quantitative Analyse dieser beiden Mechanismen vorgeschlagen. In einem ersten Teil diskutieren wir, wie Sehnenverteilungsfunktionen zur statistischen Charakterisierung eines porösen Mediums beitragen. Wir zeigen, dass eine direkte Verbindung zwischen bildgebenden Verfahren und Kleinwinkelstreuung in vielen Fällen eine zuverlässige Beschreibung dieser Funktionen liefert. In einem zweiten Teil wird der direkte Grenzflächenenergietransfer analysiert. Dieser einstufige Anregungstransfer beruht stark auf der Grenzflächen-Autokorrelationsfunktion;-;-;-;https://link.springer.com/article/10.1557/PROC-290-197 b35aa9be242d5994c671db58a1582514;de;;;3.2.;;;Kurzfristige Bedarfsprognose von gemeinsam genutzten Fahrrädern basierend auf dem Modell eines langen neuronalen Kurzzeitgedächtnisses Geteilte Fahrräder haben eine starke Liquidität und eine hohe Zufälligkeit. Um die kurzfristige Nachfrage nach geteilten Fahrrädern genauer vorherzusagen, wurde das neuronale Netzmodell des Lang-Kurzzeit-Speichers (LSTM) als Werkzeug verwendet, um die Wetterdaten von Fahrrädern, die von Citi Bike geteilt wurden, vorherzusagen New York City und Analyse des Einflusses von Zeitfaktoren und meteorologischen Faktoren auf die Nachfrage nach Fahrrädern. Um unsere Methode zu verifizieren, wurde das traditionelle neuronale Netzwerk RNN ​​und Backpropagation (BP) mit dem neuronalen Netzwerk LSTM verglichen. Die experimentellen Ergebnisse zeigen, dass die Hauptfaktoren, die die Nachfrage nach geteilten Fahrrädern beeinflussen, Temperatur, Feiertage, Jahreszeiten und Spitzenzeiten morgens und abends umfassen. Verglichen mit dem herkömmlichen neuronalen BP-Netzwerk und dem RNN-Algorithmus des zyklischen neuronalen Netzwerks hat LSTM eine hohe Robustheit und eine starke Generalisierungsfähigkeit. Die Vorhersageergebniskurve stimmt mit der realen Ergebniskurve überein, die Vorhersagegenauigkeit ist mit 0,860 am höchsten und der quadratische Fehler ist mit 0,090 am kleinsten. Es zeigt sich, dass das LSTM-Modell verwendet werden kann, um die kurzfristige Nachfrage nach geteilten Fahrrädern vorherzusagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-57884-8_31 20bc584ba07e808ffae213cb26ca3a5d;de;;;3.2.;;;Zur Struktur und zum Lernen neuronaler Netzwerk-basierter Fuzzy-Logic-Regelsysteme Dieses Papier befasst sich mit der Struktur und den zugehörigen Lernalgorithmen eines mehrschichtigen konnektionistischen Feedforward-Netzwerks, das über verteilte Lernfähigkeiten verfügt, um die grundlegenden Elemente und Funktionen eines traditionellen Fuzzy-Logic-Controllers zu realisieren. Das vorgeschlagene Fuzzy-Logik-Steuerungssystem (NN-FLCS) auf Basis eines neuronalen Netzwerks kann in seiner Netzwerkstruktur und Lernfähigkeit dem herkömmlichen Fuzzy-Logik-Steuerungssystem gegenübergestellt werden. Ein online überwachter Struktur/Parameter-Lernalgorithmus wird vorgeschlagen, um das NN-FLCS dynamisch zu konstruieren. Der vorgeschlagene dynamische Lernalgorithmus kann gleichzeitig geeignete Fuzzy-Logik-Regeln, Zugehörigkeitsfunktionen und die Größe von ausgegebenen Fuzzy-Partitionen finden. Als nächstes wird ein Fuzzy Logic Control System (RNNFLCS) auf der Basis von Reinforcement Neural Networks vorgeschlagen, das aus zwei eng integrierten Fuzzy Logic Controllern (NN-FLCs) besteht, um verschiedene Verstärkungslernprobleme in Fuzzy-Logic-Systemen zu lösen. Ein NN-FLC fungiert als Fuzzy-Prädiktor und der andere als Fuzzy-Controller. Mit dem vorgeschlagenen RNN-FLCS verbunden ist der Verstärkungsstruktur/Parameter-Lernalgorithmus, der dynamisch die richtige Netzwerkgröße, Verbindungen und Parameter des RNN-FLCS durch ein externes Verstärkungssignal bestimmt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-0125-4_7 3cda3e612ba17f6a3ce1ec24191a8f67;de;;;3.2.;;;Ein transaktionaler Ansatz zur Durchsetzung von Ressourcenverfügbarkeiten: Anwendung in der Cloud In diesem Whitepaper wird die Verfügbarkeit von Ressourcen am Beispiel der Cloud in einer offenen und dynamischen Umgebung wie dem Internet untersucht. Eine wachsende Zahl von Benutzern verbraucht Ressourcen, um ihre Operationen abzuschließen, was eine bessere Verwaltung dieser Ressourcen erfordert, um beispielsweise Konflikte zu vermeiden. Die Ressourcenverfügbarkeit wird mithilfe einer Reihe von Verbrauchseigenschaften (begrenzt, begrenzt, aber erneuerbar und nicht gemeinsam nutzbar) definiert und zur Laufzeit mithilfe einer Reihe von Transaktionseigenschaften (Pivot, wiederholbar und ausgleichbar) erzwungen. In diesem Beitrag simuliert ein CloudSim-basiertes System, wie die Mischung von Verbrauchs- und Transaktionseigenschaften es ermöglicht, die Bedürfnisse und Anforderungen der Benutzer hinsichtlich der benötigten Cloud-Ressourcen zu erfassen, für wie lange und inwieweit sie die Nichtverfügbarkeit dieser Ressourcen tolerieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-75018-3_16 36f00dad69c3ff1bf25dac325179a0df;de;;;3.2.;;;Einfache Spiele In Kapitel 1 haben wir gesehen, wie realitätsnahe Zuverlässigkeitssysteme mit semikohärenten Strukturen modelliert werden können. Die gleiche zugrundeliegende mengentheoretische Struktur dient als Modell für eine andere Art von Anwendungen, die unter dem Namen Simple Games bekannt sind. Die Sonderklasse von;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-2099-6_2 aeb959a52d032ac273d22fad97873dde;de;;;3.2.;;;Optimierungswerkzeuge der parallelen Simulation von Nanostrukturen mit Quantenpunkten Es werden Werkzeuge zum Optimieren der Leistung von parallelen Programmen auf verteilten Computersystemen mit mehreren Architekturen betrachtet. Es wird ein Verfahren zur Optimierung der Einbettung paralleler MPI-Programme in Rechencluster mit hierarchischer Kommunikationsnetzstruktur beschrieben. Für eine effektive fehlertolerante Simulation auf verteilten Computersystemen wird ein adaptiver Ansatz zur Delta-Optimierung von Wiederherstellungspunkten vorgeschlagen.;-;-;-;https://link.springer.com/article/10.3103/S8756699014030078 703a63ea74585aac06b97f54d3c7ab48;de;;;3.2.;;;Semantikerhaltende Fusion von Strukturen probabilistischer grafischer Modelle Dieses Papier gibt einen Ansatz zur Fusion der gerichteten azyklischen Graphen (DAGs) von BNs, einem wichtigen und populären probabilistischen grafischen Modell (PGM). Unter Berücksichtigung der bedingten Unabhängigkeit als der in einer BN implizierten Semantik konzentrieren wir uns auf die DAG-Fusion unter Beibehaltung der Semantik in allen beteiligten BNs. Basierend auf dem Konzept und den Eigenschaften der Markov-Äquivalenz geben wir jeweils die Algorithmen zur Verschmelzung äquivalenter und inäquivalenter gemeinsamer Teilgraphen aller beteiligten BNs an.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25664-6_8 9c6dc3becbcdb20640bf3b104cd401e4;de;;;3.2.;;;Verbesserung von rekurrenten neuronalen Netzwerk-basierten Sprachmodellen durch Wort-Tokenisierung Es wurden verschiedene Ansätze verwendet, um Sprachmodelle aus einem bestimmten Korpus zu schätzen. Kürzlich haben Forscher verschiedene neuronale Netzwerkarchitekturen verwendet, um die Sprachmodelle eines gegebenen Korpus unter Verwendung von Fähigkeiten des unbeaufsichtigten Lernens neuronaler Netzwerke zu schätzen. Im Allgemeinen haben neuronale Netze im Vergleich zu herkömmlichen n-Gramm-Sprachmodellen Erfolg gezeigt. Bei Sprachen mit einem reichen morphologischen System und einer großen Anzahl von Vokabeln besteht der größte Kompromiss mit neuronalen Netzwerksprachmodellen in der Größe des Netzwerks. In diesem Artikel wird ein rekurrentes neuronales Netzwerk-Sprachmodell vorgestellt, das auf der Tokenisierung von Wörtern in drei Teile basiert: Präfix, Stamm und Suffix. Das vorgeschlagene Modell wird mit dem englischen AMI-Spracherkennungsdatensatz getestet und übertrifft das N-Gram-Basismodell, die grundlegenden rekurrenten neuronalen Netzwerksprachmodelle (RNNLM) und die GPU-basierten rekurrenten neuronalen Netzwerksprachmodelle (CUED-RNNLM) in Ratlosigkeit und Wort Fehlerrate. Die Genauigkeit der automatischen Rechtschreibkorrektur wurde für den Datensatz zu Rechtschreibfehlern in der arabischen Sprache um etwa 3,5 % verbessert.;-;-;-;https://link.springer.com/article/10.1186/s13673-018-0133-x a73a9c10406db6342e9e8d7b679f90e7;de;;;3.2.;;;Ein auf akustischer Kommunikation basierender AQUA-GLOMO-Simulator für Unterwassernetzwerke In einer Unterwasserumgebung kann es verschiedene Anwendungen geben, die sich auf die Marineüberwachung eines Gebiets und das Sammeln von Informationen durch die Sensorknoten oder Unterwasserfahrzeuge beziehen. Die auf diese Weise gesammelten/überwachten/erfassten Informationen können an eine Gruppe von Sensoren gesendet werden, oder jeder Sensor oder jedes Fahrzeug kann eine Abfrage initiieren, die von der Untermenge der Sensoren nach den Informationen von seinem Interesse fragt. Diese Informationsübertragung oder Abfrageverbreitung kann entweder Broadcasting-, Multicasting- oder Geocasting-Techniken umfassen, je nachdem, ob die Abfrage an alle Knoten oder eine Teilmenge von Knoten basierend auf ihren Standorten gesendet wird. Nach der Entwicklung einer Technik ist es erforderlich, sie für ihren Zweck zu validieren. In Unterwasserszenarien ist das Testen jeder Technik nicht nur kostspielig, sondern auch schwierig im Hinblick auf den vollständigen Einsatz. Daher besteht die nächste Option darin, eine beliebige modellierte Technik auf a . zu testen;-;-;-;https://link.springer.com/article/10.1186/2192-1962-2-3 1548309a21a69ad6b0fcfc90f4619f66;de;;;3.2.;;;Helios — Ein verteiltes Betriebssystem für MIMD-Computer In der jüngeren Geschichte ist die Leistung von Computern alle vier bis fünf Jahre um eine Größenordnung gestiegen. Es wird eine Zeit kommen, in der die Geschwindigkeit der Signalausbreitung und die Transistordichten elektronischer Geräte nicht so dramatisch zunehmen und neue neuartige Architekturen verwendet werden. Einige dieser Architekturen entwickeln sich jetzt weiter, basierend auf der einfachen Idee, dass mehrere Geräte gleichzeitig an demselben Problem arbeiten. Im Wesentlichen ist dies ein Managementproblem, wie man Arbeiter (Verarbeiter) effizient organisiert, die Arbeit (das Programm) plant, um das Produkt (die Ergebnisse) schnell zu produzieren. Die Verwendung vieler Prozessoren zur Lösung einer Aufgabe wird als Parallelverarbeitung bezeichnet. Dieses Papier beschreibt eines der ersten Betriebssysteme, das die Anforderungen der Parallelverarbeitung kommerziell erfüllt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-3496-5_5 1ebd75f36823a2d295f68ac6138525b1;de;;;3.2.;;;Versprechen einer vollständig verteilten Optimierung für IoT-basierte Smart City-Infrastrukturen Moderne drahtlose Kommunikations- und Sensortechnologien ermöglichen eine allgegenwärtige Wahrnehmung durch verteilte Agenten in verschiedenen Netzwerken. In diesem Zusammenhang ermöglicht die kollaborative Interaktion von mit dem Internet der Dinge (IoT) verbundenen Endgeräten das Erreichen bestimmter Ziele. In dieser Studie streben wir die Einführung eines ganzheitlichen verteilten Frameworks an, das die Betriebsleistung von Smart Cities-Infrastrukturen verbessert. Dann erklären wir eine vollständig verteilte;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-34094-0_2 a9d86f196bec4132a8adb63dad3ef7fe;de;;;3.2.;;;Dokuchaevs Sprache als Spiegel seiner breiten Vision und seines literarischen Talents Die Analyse von Dokuchaevs Sprache und dem Stil von Dokuchaevs Werken weist auf seine Weite und Liebe zur Natur hin. Die Originalität und literarische Ausdruckskraft von Dokuchaevs Sprache werden an konkreten Beispielen illustriert.;-;-;-;https://link.springer.com/article/10.1134/S1064229307090128 e9acb7e013b60ad42539121d12515ce1;de;;;3.2.;;;Flexibles Netzwerk-Framework für verschiedene Servicekomponenten von netzwerkbasierten Robotern Heutzutage wird eine Vielzahl von Plattformen und Frameworks für netzwerkbasierte Roboter (NBR) erforscht, aber es ist schwierig, diese Plattformen und Frameworks auf den NBR anzuwenden, da der NBR und seine Servicekomponenten ständig weiterentwickelt werden. In anderen Arbeiten werden die Schnittstellen und Ausführungsumgebungen des NBR und der Dienstkomponenten sehr oft geändert und aktualisiert, und manchmal werden die Dienstkomponenten vollständig neu konstruiert. Folglich ist ein neues flexibles und zuverlässiges Netzwerk-Framework erforderlich, das sich an verschiedene Dienstkomponenten anpasst. Um diese Probleme zu bewältigen, wird in diesem Beitrag eine Lösung vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35594-3_19 26330ef84a82720ef7bafc73eb0e06b0;de;;;3.2.;;;Allgemeine Hinweise zur Installation von Toolpack/1 Dieses Kapitel führt das Toolpack/1-Installationsprogramm durch die Phasen der Auswahl der geeigneten TIE-Version. Bei einigen Installationen liegt dieser in gebrauchsfertiger Form vor, bei anderen muss der Installateur den mitgelieferten Code ändern. Für letzteres behandelt das Papier die Auswahl eines TIE-Regimes und die Installation des einfachsten Regimes. Der Code, der dazu modifiziert werden muss, wird ausführlich behandelt. Die Installation der Zusatzbibliotheken und schließlich der Tools wird erklärt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-0879-6_16 dbc4780ddba4c9d587e4dad0e944a972;de;;;3.2.;;;Affinität von Benutzern in sozialen Netzwerken mithilfe von Fuzzy-Sets ermitteln Das Web wird immer häufiger als neue soziale Plattform wahrgenommen. Die Benutzer tauschen Informationen und Meinungen zu verschiedenen im Internet veröffentlichten Artikeln aus. Es ist leicht zu beobachten in einer der Formen des Web 2.0, die als Tagging bezeichnet wird. Tagging ist ein Prozess der Kommentierung (Beschriftung) digitaler Elemente – Ressourcen genannt – durch Benutzer. Ein einzelner Benutzer kann eine Reihe von Elementen mit verschiedenen Tags beschreiben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31715-6_17 3dc595ad87c164183edb0d2c83bfb4f9;de;;;3.2.;;;Implementierung von WLDDs Neben der Darstellung von Funktionen ist die Effizienz der Manipulationsalgorithmen sehr wichtig. Im Gegensatz zu BDDs, bei denen „alle“ Manipulationsoperationen in Laufzeit proportional zur Größe der Ausgangsgraphen durchgeführt werden können, gilt dies bei WLDDs nicht, da es vorkommen kann, dass innerhalb eines Schrittes die Größe exponentiell wird. Daher müssen die Algorithmen sehr sorgfältig entworfen werden, um Explosionen nach Möglichkeit zu vermeiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-3184-2_5 bdc92ada811d17fd5c47103e7dededf8;de;;;3.2.;;;Echtzeit-Route 66: Verknüpfung externer Datenquellen Das Zeitbudget für das Streamen von Daten kann im Millisekundenbereich liegen. Unabhängig von den Latenzanforderungen besteht der erste Schritt darin, die Daten ausnahmslos zu einer Verarbeitungsplattform zu transportieren, während möglicherweise das gesamte Internet durchquert wird. Jede Pipeline-Architektur kann nur so schnell sein wie ihr langsamster Link. Aus diesem Grund kann die Wahl der Transportlösung – auch wenn diese technisch nicht Teil Ihrer Anwendung ist – noch bevor die Daten im Rechenzentrum gelandet sind, die Performance erheblich beeinflussen. Vor diesem Hintergrund widmet sich dieses Kapitel der Aufnahme von Daten aus Lösungen wie Kafka, Flume und MQTT. Dabei schreiben Sie auch Ihren eigenen Connector für HTTP, um die Verbindung zu externen Datenquellen zu erlernen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4842-1479-4_5 f048a50bdb5a8f400c33de2ae804aab5;de;;;3.2.;;;Regulatorische Eigenschaften der neuronalen cdc2-ähnlichen Kinase Neuronale cdc2-ähnliche Kinase, nclk, ist ein Heterodimer der Cyclin-abhängigen Proteinkinase 5, cdk5, und einer 25 kDa-Untereinheit, die von einem neuen neuronenspezifischen 35 kDa-Protein abgeleitet ist: p35. Die Charakterisierung und Regulation von nclk wird in diesem Kurzaufsatz zusammengefasst. Die Aktivität von nclk scheint durch hochkomplexe Regulationsmechanismen einschließlich Protein-Protein-Interaktion, Proteinphosphorylierung und Isoformen gesteuert zu werden. Die Histon-H 1 -Kinase-Aktivität von nclk ist absolut abhängig von der Wechselwirkung zwischen der 25 kDa-Untereinheit und der katalytischen Untereinheit cdk5. Darüber hinaus interagiert nclk mit anderen zellulären Proteinen, um makromolekulare Komplexe zu bilden. Die Kinaseaktivität von nclk wird gehemmt;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-2015-3_4 fff3528c140633c23932dc074c9fa8dd;de;;;3.2.;;;Neuimplementierung und Erweiterung des Beziehungsnetzwerks für R-CBIR Relationales Denken ist ein aufstrebendes Thema im Machine Learning im Allgemeinen und im Computer Vision im Besonderen. Deep Mind hat kürzlich ein Modul namens Relation Network (RN) vorgeschlagen, das beeindruckende Ergebnisse bei visuellen Fragenbeantwortungsaufgaben gezeigt hat. Leider war die Umsetzung des vorgeschlagenen Ansatzes nicht öffentlich. Um ihre Experimente zu reproduzieren und ihren Ansatz im Kontext von Information Retrieval zu erweitern, mussten wir alles neu implementieren, viele Parameter testen und viele Experimente durchführen. Unsere Implementierung ist jetzt auf GitHub öffentlich und wird bereits von einer großen Community von Forschern verwendet. Darüber hinaus haben wir kürzlich eine Variante des Beziehungsnetzwerkmoduls vorgestellt, die wir Aggregated Visual Features RN (AVF-RN) nannten. Dieses Netzwerk kann zur Inferenzzeit kompakte visuellbeziehungsbewusste Merkmale für die Relational-CBIR (R-CBIR)-Aufgabe erzeugen und aggregieren. R-CBIR besteht darin, Bilder mit gegebenen Beziehungen zwischen Objekten abzurufen. In diesem Papier diskutieren wir die Details unserer Relation Network-Implementierung und experimentellere Ergebnisse als im Originalpapier. Relational Reasoning ist ein sehr vielversprechendes Thema zum besseren Verständnis und Abrufen von Beziehungen zwischen Objekten, insbesondere in digitalen Bibliotheken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-39905-4_9 0bcd98cbc5d7e404038673d81a5b09ea;de;;;3.2.;;;Untersuchung der Auswirkungen auf die Netzwerkleistung im Vorfeld eines Microservice-Designs Aufgrund von REST-basierten Protokollen sind Microservice-Architekturen von Natur aus horizontal skalierbar. Dies könnte der Grund sein, warum der Architekturstil von Microservices immer mehr Aufmerksamkeit für die Cloud-native Anwendungsentwicklung gewinnt. Entsprechende Microservice-Architekturen basieren oft auf einem komplexen Technologie-Stack, der Container, elastische Plattformen und softwaredefinierte Netzwerke umfasst. Erstaunlicherweise gibt es im Vorfeld eines Microservice-Designs fast keine speziellen Tools, um die Auswirkungen auf die Leistung (die mit diesem Microservice-Architekturstil einhergehen) zu ermitteln. Daher schlagen wir eine Benchmarking-Lösung vor, die bewusst für diese Vorab-Designphase entwickelt wurde. Darüber hinaus werten wir unseren Benchmark aus und präsentieren einige Leistungsdaten, um einige oft gehörte Cloud-native Anwendungsleistungsregeln (oder Mythen) zu reflektieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-62594-2_10 8d2bb77f8d5b97e7a4d3eef6f37b9a0e;de;;;3.2.;;;Mobile Anwendung zur Analyse neuronaler Netze des menschlichen Funktionszustands Mit der Entwicklung der Biometrie im Allgemeinen wird der Einsatz biometrischer Gesichtserkennungstechnologien sukzessive in den Bereich des Massenzahlungsverkehrs und andere Bereiche des Massenmarktes vordringen und sich im Handel und im Verkehr durchsetzen. Zudem liegt es auf der Hand, dass der Fortschritt im Handel nicht mit der einfachen Gesichtserkennung endet. Der nächste Schritt ist die Emotionserkennung. Diese Technologie funktioniert bereits und wird insbesondere in der Automobilindustrie eingesetzt. So können moderne Videoüberwachungssysteme mit integrierter Emotionsanalyse feststellen, dass eine Person während der Fahrt einschläft oder aggressiv ist, und der Bordcomputer greift entsprechend beim Autofahren ein – weckt die Person oder blockiert die Kontrolle. Die Relevanz des Themas dieses Artikels beruht auf dem Fehlen eines öffentlich verfügbaren Moduls zur schnellen Erkennung von Gesichtern und Augen in hochauflösenden Videos. In dieser Arbeit wird die Client-Server-Anwendung zur Ermittlung des Funktionszustandes einer Person entwickelt. Aufgrund der technologischen Entwicklung können wir heutzutage problemlos hochauflösende Fotos mit unseren Smartphones aufnehmen und die meisten Sensoren des Gadgets verwenden. Augenfotos und Lichtsensormessungen werden vom Client an den Server gesendet, der über ein neuronales Netz den Funktionszustand des Untersuchungsobjekts ermittelt. Während des Softwaretestprozesses hat das Programm keine fehlerhaften Ergebnisse geliefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-71119-1_73 a6a6a7fc859ba6a58d16025eeb662687;de;;;3.2.;;;Packet Spacing: Ein aktivierender Mechanismus für die Bereitstellung von Multimedia-Inhalten in Rechengittern Das Streamen von Multimedia mit UDP wird über verteilte Systeme wie das Internet immer beliebter. Wissenschaftliche Anwendungen, die Multimedia streamen, umfassen die computergestützte Fernsteuerung von Visualisierungsdaten und Video-on-Demand-Telekonferenzen über das Access Grid. UDP besitzt jedoch keinen selbstregulierenden Überlastungskontrollmechanismus, und der meiste Best-Effort-Datenverkehr wird durch überlastungskontrolliertes TCP bedient. Folglich stiehlt UDP Bandbreite von TCP, sodass TCP-Flüsse nach Netzwerkressourcen hungern. Da das Volumen des Internetverkehrs weiter ansteigt, wird die Fortsetzung des UDP-basierten Streamings das Internet zum Zusammenbruch bringen, wie es Mitte der 1980er Jahre aufgrund der Verwendung von nicht überlastungskontrolliertem TCP der Fall war.;-;-;-;https://link.springer.com/article/10.1023/A%3A1015785119358 258314e77e55dba9f7cf85c2df1f6572;de;;;3.2.;;;Personen-Re-Identifikation in heterogenen Kameranetzwerken Die Personen-Re-Identifikation (Re-ID) zielt darauf ab, Personenbilder über mehrere Überwachungskameras hinweg abzugleichen. Derzeit verlassen sich die meisten Re-ID-Systeme stark auf Farbhinweise, die nur bei guten Beleuchtungsbedingungen wirksam sind, aber bei schlechten Lichtverhältnissen versagen. Aus Sicherheitsgründen ist es jedoch sehr wichtig, die Überwachung bei schlechten Lichtverhältnissen durchzuführen. Um dieses Problem zu beheben, schlagen wir vor, an dunklen Orten Tiefenkameras zu verwenden, während an hellen Orten herkömmliche RGB-Kameras verwendet werden. Ein derart heterogenes Kameranetzwerk stellt eine Herausforderung dar, Bilder über Tiefen- und RGB-Kameras hinweg abzugleichen. In diesem Papier untersuchen wir die Korrelation zwischen zwei heterogenen Cues (Tiefe und RGB) auf Feature- und Transformationsebene. Daher werden tiefenbasierte Funktionen und RGB-basierte Funktionen in denselben Raum transformiert, was das Problem der modalitätsübergreifenden Übereinstimmung zwischen Tiefen- und RGB-Kameras verringert. Experimentelle Ergebnisse an zwei heterogenen Benchmark-Datensätzen zur Re-ID von Personen zeigen die Wirksamkeit unserer Methode.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7305-2_25 d4f74e514063b5d3a4189b58e1470e01;de;;;3.2.;;;Evil-AP - Mobile Man-in-the-Middle-Bedrohung Clients öffentlicher Hotspots sind verschiedenen Bedrohungen ausgesetzt, einschließlich Man-in-the-Middle-Angriffen. Um bestehende Bedrohungen zu betonen, haben wir die Evil-AP-Anwendung entwickelt, um einen Man-in-the-Middle-Angriff zu demonstrieren. Die auf einem Android-Telefon mit Root-Berechtigungen installierte Anwendung aktiviert Hotspot-Dienste und führt eine Netzwerkumleitung durch. Wir haben getestet, wie die vorgeschlagenen Techniken verwendet werden können, um den Internetverkehr abzuhören, umzuleiten, einzuschleusen und zu entfernen. Eine Mobilität der erstellten Lösung zusammen mit der breiten Funktionalität schafft ein äußerst gefährliches Werkzeug. Daher haben wir unsere Arbeit mit guten Praktiken abgeschlossen, die es den Benutzern ermöglichen, ähnliche Bedrohungen wie in unserer Arbeit beschrieben zu vermeiden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-59105-6_53 e486ae6ebbc321a158a60ed66e7398a6;de;;;3.2.;;;Regressionstests basierend auf neuronalen Netzen und Program-Slicing-Techniken Regressionstests dienen zum erneuten Testen modifizierter Software, um sicherzustellen, dass die Änderungen korrekt sind und sich nicht nachteilig auf andere Teile der Software auswirken. Für Ingenieure ist es normalerweise sehr schwer herauszufinden, wie sich eine Änderung in der Software in anderen Teilen der Software widerspiegelt. Wir schlagen ein Framework vor, das Machine Learning und Program Slicing für die Priorisierung von Testfällen kombiniert, um das Problem zu lösen. Wir haben eine Bibliothek namens Intelligent Test Oracle Library (InTOL) für die Instrumentierung eines System Under Test (SUT) entwickelt, um Testtraces zu generieren. Die Programmscheiben dienen dazu, die Relevanz von Testfällen für den Regressionstest von Softwaremodifikationen anzuzeigen. Dann verknüpfen wir die Slicing-Informationen mit den Testspuren. Wir verwenden Künstliche Neuronale Netze (KNN) als unsere zugrunde liegende Technologie für maschinelles Lernen. In der Trainingsphase verwenden wir ANN zunächst, um zu erfahren, wie oft ein Programmsegment bei der Ausführung eines Testfalls besucht wird. Wir verwenden dann die Zählschätzung für die Programmsegmente als Teil unseres Merkmalsvektors für eine Testeingabe und führen den Vektor einem anderen KNN zur Testpriorisierung der Testeingabe zu. Wir experimentieren mit zwei Benchmark-Programmen des Software-Artifact Infrastructure Repository. Unsere Versuchsdaten zeigen eine gute Fehlererkennungsfähigkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25658-5_50 d4721a1013427fa3fb28c5e8e1ff0ffa;de;;;3.2.;;;Eine vergleichende Studie zu Kommunikationsprotokollen in Katastrophengebieten mit virtuellen Katastrophensimulationssystemen In diesem Papier beschreiben wir eine vergleichende Studie zu Kommunikationsprotokollen basierend auf Ad-hoc-Netzwerktechnologien in Katastrophensituationen. In Katastrophensituationen sind Mobilität und Personendichte anders als in üblichen Situationen. Um Kommunikationsprotokolle zu evaluieren, schlagen wir daher ein virtuelles Katastrophensimulationssystem vor. In diesem Simulationssystem werden virtuelle Katastrophengebiete basierend auf Gefahrenkarten konstruiert, die zur Vorhersage von Katastrophenschäden bereitgestellt werden. Virtuelle Katastrophengebiete ermöglichen es uns, Experimente für Kommunikationssysteme effektiv durchzuführen, da wir keine Experimente in realen Katastrophensituationen durchführen können. Durch die Verwendung dieses Simulationssystems vergleichen wir drei Protokolle unter den Gesichtspunkten der Datenerfassungsleistung und des Stromverbrauchs. Experimentelle Ergebnisse zeigen, dass unser vorgeschlagenes Ad-hoc-Unicursal-Protokoll eine gute Leistung in Bezug auf beide Gesichtspunkte in Katastrophensituationen zeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23190-2_19 59eb85502b5271a2720c173f1a692f8b;de;;;3.2.;;;Ein offenes Warteschlangennetzwerk mit einem korrelierten Eingangseingangsprozess für die Leistungsbewertung von drahtlosen Breitbandnetzwerken In der Arbeit werden Charakteristika eines offenen Warteschlangennetzwerks mit korrelierten Eingangs-Markkovschen Ankunftsprozessen und der Phasentypverteilung der Dienstzeit in den Knoten untersucht. Die entwickelte Methodik wird zur Leistungsbewertung von Breitband-Funknetzen mit linearer Topologie verwendet. Es wird eine Vergleichsstudie numerischer Ergebnisse der analytischen Modellierung und Simulation durchgeführt. Um offene Warteschlangennetzwerke mit MAP-Eingabe zu untersuchen, wurde eine pyQuMo-Bibliothek unter Verwendung der Sprache Python 3 entwickelt. Die Bibliothek bietet ein Mittel zur Modellbeschreibung, Berechnungen von Modelleigenschaften unter Nutzung eines analytischen Ansatzes und Simulation sowie Visualisierung der Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-44615-8_31 48cdeda1d833b134bd01f3f592323711;de;;;3.2.;;;Pufferbelegungs-Feedback-Sicherheitskontrolle und Änderung von Verschlüsselungsschlüsseln zum Schutz von MOD-Diensten Wir präsentieren eine effektive Sicherheitskontrolle für Multimedia-Streaming in öffentlichen Netzwerken über Pufferbelegungs-Feedback-Kontrollen des Wiedergabepuffers des Kunden. Es gibt eine Vielzahl von Multimedia-on-Demand (MOD)-Anwendungen, die von dieser End-to-End-Sicherheitskontrolle zum Schutz der Streaming-Daten profitieren können. Da die Verschlüsselung/Entschlüsselung für Videopakete zeitaufwändig ist, ist unsere Beobachtung, dass die Wiedergabepufferbelegung (PBO) einfach die verfügbare Zeit angeben kann, um die Sicherheitsstufe anzupassen, um die Senderate für die Paketzustellung zu beeinflussen. Das heißt, die Sicherheitsstufe kann weiter angepasst werden, um den PBO von Pufferüberlauf und -unterlauf fernzuhalten. Daher schlagen wir eine Feedback-Steuerung von PBO vor, um nicht nur die MOD-Dienste vor Lauschern zu schützen, sondern auch die Wiedergabequalität zu erhalten. Um den Schutz weiter zu erhöhen, wenden wir auch die Diffie-Hellman-Schlüsselaushandlungsmethode an, um die dynamischen Schlüsseländerungen bereitzustellen, während der PBO über einen langen Zeitraum in einem stabilen Bereich gesteuert wird. Aufgrund der Netzwerkunsicherheit bewahrt die unterschiedliche Inhaltsbereitstellung im MOD-Dienst außerdem unterschiedliche laufende PBOs. Dann haben sie möglicherweise unterschiedliche angewendete Sicherheitsstufen und Schlüsseländerungen in Dienstsitzungen. Es wird Lauschern erschweren, die gesamten verschlüsselten Mediendaten wiederherzustellen. In diesem Papier demonstrieren wir auch die Leistung des Verschlüsselungsschutzes und die erhaltene Wiedergabequalität in unseren vorgeschlagenen Schemata durch Experimente an einem echten VOD-System mit bekannten Verschlüsselungen von DES, 2DES und 3DES.;-;-;-;https://link.springer.com/chapter/10.1007/11949534_89 853c1bb52f48282f489ff88b9a96d3b5;de;;;3.2.;;;Protein-Engineering von Restriktionsenzymen Restriktionsendonukleasen gehören zu den genauesten bekannten Enzymen (Pingoud und Jeltsch 2001). Folglich ist die Veränderung ihrer sehr hohen Sequenzspezifität eines der wissenschaftlichen Ziele bei der Untersuchung dieser Enzyme (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18851-0_15 5bb87759dadcd527b0d939de304cd9f6;de;;;3.2.;;;Proteinkonstitution der Chromosomenachse Diverse Studien weisen darauf hin, dass bestimmte Nicht-Histon-Proteine ​​für die Aufrechterhaltung der Integrität der eukaryontischen Chromosomen verantwortlich sein können. Aufgrund ihrer Ausbreitung während der Kernteilung und ihrer anerkannten Rolle bei der Genexpression kann keines der Kernmatrixproteine ​​als integrale Proteine ​​des Chromosoms angesehen werden. Topoisomerase II, strukturelle Erhaltung von Chromosomen (SMC)-Proteinen und Proteinen der High-Mobility-Group (HMG) zeigen charakteristische enzymatische und mechanochemische Funktionen sowie eine vorübergehende Assoziation mit Chromosomen. Daher können sie als akzessorische Chromosomenproteine ​​angesehen werden. Im Gegensatz dazu weisen bestimmte synaptonemale Komplexproteine ​​(SCPs) mit hohem Molekulargewicht chemische und physikalische Eigenschaften auf, die eine strukturelle Rolle als Chromosomenachse nahelegen. In einem experimentell prüfbaren Modell wird vorgeschlagen, dass in der Minimalstruktur eines eukaryontischen Chromosoms die Enden der Schleifen von DNA-Histon-Solenoiden konstitutiv an Chromosomenachsenproteine ​​mit elastischen Eigenschaften befestigt sind.;-;-;-;https://link.springer.com/article/10.1007/s00412-002-0189-1 5d1b645ce44bd9b1e50af1c540d829c5;de;;;3.2.;;;Neuronale Netze auf FPGA ein Machine Vision-Algorithmus, der auf MNIST-Datensätze mit der Hls4ml-Bibliothek angewendet wird In diesem Artikel beschreiben wir einen in einem FPGA implementierten Machine Vision Neural Net Algorithmus. Der Algorithmus wird auf einem handgeschriebenen MNIST-Datensatz trainiert. Für die Generierung von geistigem Eigentum im neuronalen Netz wird es verwendet;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58814-4_46 dcfab8d4168d5cdba01d5d72807b3013;de;;;3.2.;;;Aufgabengesteuertes QoS-Vorhersagemodell basierend auf der Fallbibliothek in der Cloud-Fertigung Mit der großen Entwicklung der Cloud Manufacturing (CMfg) ist die genaue Vorhersage der Servicequalität (QoS) derzeit ein heißes Thema. Mit zunehmender Aufgabenvielfalt konzentrieren sich die meisten existierenden QoS-Vorhersageverfahren jedoch hauptsächlich auf das Ähnlichkeitsmaß zwischen Benutzern und Diensten und ignorieren somit den Einfluss von Aufgabenmerkmalen in CMfg. Um das obige Problem zu lösen, wird daher ein aufgabengesteuertes QoS-Vorhersagemodell mit der Fallbibliothek erstellt, um einen unbekannten QoS-Wert vorherzusagen. Zunächst stellen wir eine Ähnlichkeitsmessmethode in der Fallbibliothek einschließlich Dienstähnlichkeit und Aufgabenähnlichkeit vor, um ähnliche Dienste und entsprechende historische Aufgaben zu durchsuchen. Dann wird ein QoS-Vorhersagemodell unter Berücksichtigung der Aufgabenähnlichkeit und der Zeitabklingfunktion sowie der Dienstähnlichkeit erstellt. Laut den Experimenten übertrifft unser Modell aktuelle Methoden in Bezug auf die Vorhersagegenauigkeit, und die wichtigsten Parameter wurden ebenfalls untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2396-6_26 79ac61d555f3d9a08e23b37f542f1361;de;;;3.2.;;;Robuste optimale Wiedereintrittsführung eines Space Shuttles an Bord: Dynamischer Spielansatz und Führungssynthese über neuronale Netze Robuste Optimalregelprobleme für dynamische Systeme müssen gelöst werden, wenn Modellungenauigkeiten nicht vermieden werden können und/oder unvorhersehbare und nicht messbare Einflüsse vorliegen. Hier wird die Rückkehr eines zukünftigen europäischen Space Shuttles zur Erde erwogen. Vier Pfadbeschränkungen müssen befolgt werden, um die Erwärmung, den dynamischen Druck, den Lastfaktor und den Flugpfadwinkel bei hohen Geschwindigkeiten zu begrenzen. Für die mit den aerodynamischen Kräften und den Randbedingungen verbundene Luftdichte kann nur eine höhenabhängige Reichweite vorhergesagt werden. Die Worst-Case-Luftdichte wird über ein antagonistisch-nichtkooperatives Zweipersonen-Dynamikspiel analysiert. Eine geschlossene Lösung des Spiels bietet ein robustes optimales Führungsschema gegen alle möglichen Luftdichteschwankungen. Die Wertfunktion löst die nichtlineare partielle Isaacs-Differentialgleichung erster Ordnung mit geeigneten Innen- und Randbedingungen. Die Gleichung wird mit der Methode der Kennlinien in den relevanten Teilen des Zustandsraums gelöst. Ein Bündel benachbarter charakteristischer Trajektorien ergibt einen großen Input/Output-Datensatz und ermöglicht eine Leitschemasynthese mit dreischichtigen Perzeptronen. Das schwierige und rechenintensive Perzeptrontraining wird effizient mit der neuen SQP-Trainingsmethode FAUN durchgeführt. Simulationen zeigen die Echtzeitfähigkeit und Robustheit des schließlich gewählten Wiedereintrittsleitschemas.;-;-;-;https://link.springer.com/article/10.1023/A%3A1026439030213 f1c7767fbfdd576cbe0bda6c97eed0f5;de;;;3.2.;;;Shared Memory-Zugriffsmethode für eine λ Computerumgebung Obwohl die optische Übertragungstechnologie für Hochgeschwindigkeits-Breitbandnetze aktiv untersucht wird, kann die herkömmliche paketbasierte Vermittlungstechnologie keine hochwertige Kommunikation für jede Verbindung gewährleisten. Wir schlagen daher eine neue Rechenumgebung vor, genannt λ-Rechenumgebung, die virtuelle Kanäle bereitstellt, die optische Wellenlängenpfade verwenden, die Rechenknoten verbinden. Diese Kanäle bieten die zuverlässigen Hochgeschwindigkeitspfade, die für kürzlich bereitgestellte verteilte Anwendungen wie SAN und Grid-Computing benötigt werden. In diesem Papier schlagen wir eine Methode für den Zugriff auf das virtuelle Ringnetzwerk vor und bewerten diese, um einen verteilten gemeinsamen Speicher in WDM-basierten photonischen Netzwerken zu realisieren.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-23178-1_25 972ffc4f487deee9057cb2343bbbbac4;de;;;3.2.;;;SK-MOEFS: Eine Python-Bibliothek zum Entwerfen genauer und erklärbarer Fuzzy-Modelle In letzter Zeit wird die Erklärbarkeit von Modellen und Algorithmen der Künstlichen Intelligenz (KI) zu einer wichtigen Anforderung in realen Anwendungen. Obwohl KI es uns ermöglicht, sehr schwierige und komplizierte Probleme anzugehen und zu lösen, fungieren KI-basierte Tools in der Tat als Black Box und erklären normalerweise nicht, wie/warum/wann eine bestimmte Entscheidung getroffen wurde. Unter den KI-Modellen sind Fuzzy Rule-Based Systems (FRBSs) weltweit als transparente und interpretierbare Werkzeuge anerkannt: Sie können Erklärungen in Bezug auf linguistische Regeln liefern. Darüber hinaus können FRBSs eine Genauigkeit erreichen, die mit denen vergleichbar ist, die von weniger transparenten Modellen, wie beispielsweise neuronalen Netzen und statistischen Modellen, erreicht werden. In dieser Arbeit stellen wir SK-MOEFS (Akronym von SciKit-Multi Objective Evolutionary Fuzzy System) vor, eine neue Python-Bibliothek, die es dem Benutzer ermöglicht, einfach und schnell FRBSs zu entwerfen, die multi-objektive evolutionäre Algorithmen einsetzt. Tatsächlich kann durch SK-MOEFS eine Reihe von FRBSs generiert werden, die durch unterschiedliche Kompromisse zwischen ihrer Genauigkeit und ihrer Erklärbarkeit gekennzeichnet sind. Der Benutzer kann dann das für seine spezifische Anwendung am besten geeignete Modell auswählen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-50153-2_6 efef1298ea23299389d36a0991c78171;de;;;3.2.;;;Inhalte der digitalen Bibliothek interoperabel machen Die Nachfrage nach leistungsstarken und reichhaltigen digitalen Bibliotheken, die eine Vielzahl von interdisziplinären Aktivitäten unterstützen können, hat den Bedarf an „Bauen durch Wiederverwendung“ und Teilen erhöht, insbesondere wenn es um den Inhaltsbereich geht. Interoperabilität ist ein zentrales Thema, um diese Anforderungen zu erfüllen. Trotz seiner Bedeutung und der vielen Versuche, dieses Problem in der Vergangenheit anzugehen, sind die Lösungen für dieses Problem heute jedoch noch sehr begrenzt. Hauptgründe für diese langsamen Fortschritte sind das Fehlen eines systematischen Ansatzes zur Behandlung des Problems und die mangelnde Kenntnis der angenommenen Lösungen. Allzu oft bleiben diese auf die Systeme beschränkt, für die sie entwickelt wurden. Um diesen Mangel zu beheben, schlägt dieses Papier ein Interoperabilitäts-Framework zur Beschreibung und Analyse von Interoperabilitätsproblemen und Lösungen im Zusammenhang mit der Nutzung von Inhaltsressourcen vor. Es diskutiert auch die vielen Facetten der Inhaltsinteroperabilität und bietet ein umfassendes und kommentiertes Portfolio bestehender Ansätze und Lösungen für dieses herausfordernde Problem.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15850-6_3 2327df2d04961fbfcd87bb9ad152f205;de;;;3.2.;;;Multi-GPU-Implementierung zur Beschleunigung der CFD-Simulation eines 3D-Turbo-Maschinen-Benchmarks mit der RapidCFD-Bibliothek Kürzlich haben mehrere Forschungsgruppen eine signifikante Beschleunigung wissenschaftlicher Berechnungen unter Verwendung von General Purpose Graphics Processor Units (GPGPU) als massiv parallele „Coprozessoren“ zur Central Processing Unit (CPU) nachgewiesen. Die enorme Rechenleistung von GPGPUs ist jedoch mit einem hohen Preis verbunden, da ihre Implementierung in Computational Fluids Dynamics (CFD)-Solvern immer noch eine Herausforderung darstellt. Um diese Implementierung zu erreichen, wurde die RapidCFD-Bibliothek aus der CFD-Software Open Field Operation and Manipulation (OpenFOAM) entwickelt, damit die Multi-GPGPU fast die gesamte Simulation parallel ausführen konnte. Die parallele Leistung als Geschwindigkeit mit fester Größe, Effizienz und Parallelfraktion gemäß dem Amdahl-Gesetz wurde in zwei massiv parallelen Multi-GPGPU-Architekturen mit Nvidia Tesla C1060- und M2090-Einheiten verglichen. Die Simulationen wurden auf einem 3D-Turbomaschinen-Benchmark durchgeführt, der aus einer strukturierten Gitterdomäne von 1 Million Zellen besteht. Die Ergebnisse der Implementierung der neuen Bibliothek auf verschiedenen Software- und Hardware-Layouts zeigen, dass durch die direkte Übertragung aller Berechnungen, die von den linearen Systemlösern an die GPGPU ausgeführt werden, eine typische CFD-Simulation bis zu 9-mal schneller erfolgen kann. Darüber hinaus wurden eine Gitterkonvergenzanalyse und Druckwiederherstellungsmessungen über skalierte Berechnungsdomänen durchgeführt. Es wird daher erwartet, einen erschwinglichen niedrigen Rechenaufwand zu erzielen, wenn die Domäne skaliert wird, um eine hohe Flussauflösung zu erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-38043-4_15 8ce4fdbb42888f444bb472c3e457a787;de;;;3.2.;;;„Manche bezweifeln, dass die Chinesen jemals Radiofans werden“: Sino-Amerikanische Beziehungen und der chinesische Rundfunk in der Zwischenkriegszeit W. A. ​​Estes war verwirrt. Er war im Juni 1924 aus Shanghai, wo er lebte, für einen längeren Besuch in die Vereinigten Staaten nach Hause gekommen. Er hoffte, bei seiner Rückkehr ein Radio mitbringen zu können, wollte aber nicht gegen das chinesische Radiogesetz von 1915 verstoßen. Dieses Relikt aus der Zeit vor dem Rundfunk identifizierte alle Funkgeräte als militärische Schmuggelware und verbot deren Einfuhr und Besitz. Estes kontaktierte das US-Außenministerium um Rat, als er sich auf seine Rückreise Anfang 1925 vorbereitete. „Bevor ich China im Juni letzten Jahres verließ, wusste ich, dass viele solcher Sets, hergestellt in den Vereinigten Staaten und Europa, in Shanghai ständig im Einsatz waren“, er schrieb. Sets wurden leicht erworben und „zuverlässige Firmen“ verkauften sie. Estes stützte seine Anfrage nicht nur auf die Annahme, dass zuverlässige Firmen sich an das Gesetz hielten, sondern erwähnte auch die Ermahnungen eines örtlichen Pfarrers, der seine Gemeindemitglieder und ihre Freunde, die bis zu 400 Meilen von Shanghai entfernt leben, aufforderte, Radios zu kaufen. Sicherlich würde ein Minister seine Herde nicht dazu ermutigen, das Gesetz zu brechen! Aber trotz Anzeichen, dass das restriktive Gesetz gelockert werden würde, erhielt Estes weiterhin Briefe von Freunden in China, die die Beschlagnahme ihrer Sets beklagten. „Für diesbezügliche Informationen bin ich sehr dankbar“, schloss Estes. „Ich kehre im August nach Shanghai zurück und hoffe, ein Funkempfangsgerät mitnehmen zu können.“;-;-;-;https://link.springer.com/chapter/10.1057/9780230301931_4 93d2c8855baa6ca010a3b0a17b546ef8;de;;;3.2.;;;LECs aus m-Lppp Wir berichten über die Anwendung des blaues Licht emittierenden konjugierten Polymers m-LPPP (methylsubstituiertes Leitertyp-Poly(paraphenylen)) in lichtemittierenden elektrochemischen Zellen. Die aktive Schicht des LEC besteht aus einer Mischung aus m-LPPP mit dem ionenleitfähigen Polymer PEO und LiCF;-;-;-;https://link.springer.com/article/10.1557/PROC-488-57 61a7dad63d5977e5c9a9a5d578c6e9ed;de;;;3.2.;;;Überwachung des Ziels durch Satellitenbilder mithilfe von Deep Convolutional Networks Die Überwachung von Zielen durch Satellitenbilder wird häufig in der Geheimdienstanalyse und zur Erkennung von Anomalien verwendet. Inzwischen ist es auch aufgrund der Aufnahmebedingungen und der riesigen Datenmengen eine Herausforderung. Wir schlagen eine Methode zur Zielüberwachung basierend auf Deep Convolutional Neural Networks (DCNN) vor. Das Verfahren wird durch drei Verfahren implementiert: (i) Kennzeichnen des Ziels und Generieren des Datensatzes, (ii) Trainieren eines Klassifikators und (iii) Überwachen des Ziels. Zuerst wird der Zielbereich manuell beschriftet, um einen Datensatz zu bilden. In der zweiten Stufe wird ein auf DCNN basierender Klassifikator unter Verwendung der Keras-Bibliothek gut trainiert. Im letzten Schritt wird das Ziel in den Testsatellitenbildern überwacht. Die Methode wurde an zwei unterschiedlichen Anwendungsszenarien getestet. Die Ergebnisse zeigen, dass die Motte wirksam ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-33903-0_6 8972e4e6143bada125e1e6c3ffd04a74;de;;;3.2.;;;Ein Ansatz zur Analyse des Verhaltens von Netzwerkereignissen in NS2 und NS3 mit AWK und Xgraph In der Welt der schnell wachsenden Technologie erfordert die jüngste Aktualisierung robuste, zuverlässige und evaluierte Netzwerkprotokolle. Das Verhalten von Protokollen muss gründlich untersucht werden. Zur Auswertung und Analyse des Verhaltens von Protokollen stehen zahlreiche Methoden zur Verfügung. Die bekanntesten sind Cloud Computing und Netzwerksimulation. Ein Simulationswerkzeug namens network simulator2 wird ausführlich mit Hilfe eines 6-Knoten-Simulationsbeispiels erläutert, das aus den Details zum Awk-Skript (für die Leistungsanalyse) und Xgraph (zum Plotten von Graphen) besteht. Darüber hinaus werden der Vergleich verschiedener Versionen des Netzwerksimulators und der Vergleich zwischen NS2 und NS3 diskutiert, was darauf hindeutet, dass NS3 vorteilhaftere Eigenschaften als NS2 hat. Experimentelle Ergebnisse des Ad-hoc-Distance-Vector-Routing-Protokolls (AODV) und des Dynamic-State-Routing-Protokolls (DSR) sowohl in NS2 als auch in NS3 sind auch in Bezug auf den Durchsatz und die Ende-zu-Ende-Verzögerung für 25 Knoten enthalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-0586-3_14 251c12ed87b1e656e25d94013aee3245;de;;;3.2.;;;Sprachunabhängige Sentimentanalyse des Shukran Social Network mit Apache Spark Dieses Papier beschreibt das Shukran Sentiment Analysis System. TheShukran ist ein Mikroblogging-Dienst für soziale Netzwerke, der es Benutzern ermöglicht, Fotos oder Videos und Beschreibungen ihrer täglichen Aktivitäten zu veröffentlichen. Dieses soziale Netzwerk gewann schnell eine große Anzahl von Nutzern. Es bietet Menschen aus verschiedenen Kulturen und Ländern die Möglichkeit, in verschiedenen Sprachen ihre Geschichten, Ideen, Meinungen und Nachrichten aus ihrem wirklichen Leben zu teilen und macht die kulturelle Vielfalt zum Zentrum der Beziehungen zwischen ihren Nutzern. Die Sentimentanalyse zielt darauf ab, die Meinung der Öffentlichkeit zu einem bestimmten Thema durch die Verarbeitung von Textdaten zu gewinnen. Eine von mehreren Aufgaben, die Polaritätserkennung, zielt darauf ab, die Elemente eines Datensatzes (Sätze, Beiträge usw.) in Klassen wie positiv, negativ und neutral zu kategorisieren. In dem von uns vorgeschlagenen System, das die Sentiment-Analyse-Kernmaschine des sozialen Netzwerks Shukran darstellt, erkennen wir die Originalsprache der Beiträge der Benutzer, übersetzen sie ins Englische und bewerten ihre Stimmung (ob positiv, negativ oder neutral). Wir schlagen die Verwendung eines Naive Bayes-Klassifikators und SentiWordNet und SenticNet für die Sentimentbewertung vor. Die Spracherkennung und Übersetzung erfolgt mit TextBlob, einer Python-Bibliothek zur Verarbeitung von Textdaten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-69146-6_12 23db1691e35fa3b8d7bd10bc73148269;de;;;3.2.;;;Ein einfaches graphenbasiertes Mustererkennungsschema in mobilen Ad-hoc-Netzwerken Ein leichtgewichtiges verteiltes Einbruchserkennungsschema mit geringem Rechenaufwand, das als verteiltes hierarchisches Graphneuron (DHGN) bezeichnet wird, wurde vorgeschlagen, in ein kooperatives Einbrucherkennungssystem (IDS) in mobilen Ad-hoc-Netzwerken (MANETs) integriert zu werden. Sein One-Cycle-Learning- und Divide-and-Distribute-Erkennungsansatz ermöglicht es DHGN, ähnliche Muster in kurzer Zeit zu erkennen. Ein IDS mit solchen Eigenschaften ist in der ressourcenbeschränkten MANETs-Umgebung wesentlich. MANETs sind verteilte und selbstkonfigurierende Netzwerke mit begrenzten Ressourcen und dynamischen Knoten.;-;-;-;https://link.springer.com/chapter/10.2991/978-94-91216-71-8_9 9a8c37bcbbf7168ca81d886d59057ad2;de;;;3.2.;;;Ansatz zur Extraktion statischer Verfärbungen basierend auf einem Informationsflussdiagramm für persönlich identifizierbare Informationen Persönlich identifizierbare Informationen (PII) werden häufig für viele Aspekte wie die Erkennung von Netzwerk-Privatsphäre-Lecks, Netzwerk-Forensik und Benutzerporträts verwendet. Internet Service Provider (ISPs) und Administratoren sind normalerweise besorgt, ob während des Netzwerkübertragungsprozesses PII extrahiert wurden. Die meisten Studien haben sich jedoch auf die Extraktionen auf der Client- und Serverseite konzentriert. Diese Studie schlägt einen Ansatz zur statischen Verfärbungsextraktion vor, der automatisch PII aus umfangreichem Netzwerkverkehr extrahiert, ohne manuelle Arbeit und Feedback zum Netzwerkverkehr auf ISP-Ebene zu erfordern. Der vorgeschlagene Ansatz stellt keine zusätzlichen Anwendungen auf der Clientseite bereit. Der Informationsflussgraph wird über einen Tainting-Prozess erstellt, der zwei Schritte umfasst: Inter-Domain-Routing und Intra-Domain-Infizierung, die eine Constraint-Funktion (CF) enthält, um das „Über-Tainting“ zu begrenzen. Verglichen mit dem bestehenden semantikbasierten Ansatz, der Netzwerkverkehr vom ISP verwendet, schneidet der vorgeschlagene Ansatz mit 92,37% Präzision und 94,04% Wiedererkennungswert besser ab. Weiterhin werden hier drei Verfahren vorgestellt, die die Rechenzeit und den Speicher-Overhead reduzieren. Die Anzahl der Runden wird auf 0,0883% reduziert und der Ausführungszeit-Overhead wird auf 0,0153% des ursprünglichen Ansatzes reduziert.;-;-;-;https://link.springer.com/article/10.1007/s11432-018-9839-6 9600d24b542e3d0b2b0568c45280e9c7;de;;;3.2.;;;Eine Studie zur Anwendung der Streaming-Media-Technologie im Englischunterricht basierend auf den Netzwerkverhältnissen Die Streaming-Media-Technologie ist im Sprachunterricht im Klassenzimmer weit verbreitet. In diesem Artikel wurde erörtert, wie der Englischunterricht von einer traditionellen klassenraumorientierten Lehrmethode in die Methodenkombination von Multimedia-Netzwerk und Klassenzimmerunterricht umgewandelt werden kann, indem fortschrittliche Streaming-Media-Technologie eingesetzt und personalisierter Unterricht weiter angewendet werden kann. Inzwischen hat es die Anwendung der Streaming-Media-Technologie im Englischunterricht basierend auf den Netzwerkbedingungen demonstriert. Schließlich wurden in diesem Beitrag die Mittel zur Entwicklung gemeinsamer audiovisueller Materialien für den Fremdsprachenunterricht untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23324-1_14 131aa649c4348b6864922a6b53d958d0;de;;;3.2.;;;Eine globale Perspektive der Variablen, die mit der Akzeptanz der Evolution verbunden sind Die Kontroverse um die biologische Evolution aufgrund von Konflikten mit persönlichen Überzeugungen und Weltanschauungen ist ein Phänomen, das viele Kulturen umfasst. Die Akzeptanz der Evolution ist für den globalen Fortschritt in Wissenschaft, Technologie und Landwirtschaft unerlässlich. Frühere Forschungen haben sich eher auf die Faktoren konzentriert, die die Akzeptanz der Evolution durch Kultur oder Land beeinflussen können. Unsere Forschung untersuchte die Beziehung auf internationaler Ebene mithilfe von Sekundärdatenanalysen, um die Akzeptanz der Evolution für 35 Länder zu untersuchen. Unsere Ergebnisse zeigen signifikante Zusammenhänge zwischen der öffentlichen Akzeptanz von Evolution und Religiosität, der Schullebenserwartung, der naturwissenschaftlichen Bildung und dem Bruttoinlandsprodukt pro Kopf. Implikationen und zukünftige Richtungen für die Forschung werden angesprochen.;-;-;-;https://link.springer.com/article/10.1007/s12052-012-0423-0 fa775ec0933218235e9db5f06ac64944;de;;;3.2.;;;Verwaltung heterogener Multisystem-Aufgaben zur Unterstützung des unternehmensweiten Betriebs Die Computerumgebung in den meisten mittleren und großen Unternehmen umfasst alte Mainframe-basierte (alte) Anwendungen und Systeme sowie neue Workstation-basierte verteilte Computersysteme. Das Ziel des METEOR-Projekts ist die Unterstützung von Multisystem-Workflow-Anwendungen, die den Unternehmensbetrieb automatisieren. Dieser Beitrag beschäftigt sich mit der Modellierung und Spezifikation von Arbeitsabläufen in solchen Anwendungen. Aufgaben in unserer heterogenen Umgebung können über verschiedene Arten von Schnittstellen an verschiedene Verarbeitungseinheiten übergeben werden. Zunächst stellen wir ein Rechenmodell für Workflows vor, das das Verhalten von sowohl transaktionalen als auch nicht-transaktionalen Aufgaben unterschiedlichen Typs erfasst. Anschließend entwickeln wir zwei Sprachen zur Spezifikation eines Workflows auf unterschiedlichen Abstraktionsebenen: Die Workflow Specification Language (WFSL) ist eine deklarative regelbasierte Sprache, die verwendet wird, um die Interaktionen auf Anwendungsebene zwischen mehreren Aufgaben auszudrücken, während sich die Task Specification Language (TSL) konzentriert zu den Themen der einzelnen Aufgaben. Diese Sprachen wurden entwickelt, um die wichtigen Probleme von Abhängigkeiten zwischen Aufgaben, Datenformatierung, Datenaustausch, Fehlerbehandlung und Wiederherstellung zu lösen. Das Papier stellt auch eine Architektur für das Workflow-Management-System vor, die das Modell und die Sprachen unterstützt.;-;-;-;https://link.springer.com/article/10.1007/BF01277644 8db07f9bfafedbe4b70a62481aff47be;de;;;3.2.;;;PES: Ein System zur parallelisierten Fitnessbewertung evolutionärer Methoden Das Papier berichtet über die Entwicklung einer Softwareplattform namens PES (Parallelized Evolution System), die die Fitnessbewertungen evolutionärer Methoden über mehrere Computer, die über ein Netzwerk verbunden sind, parallelisiert. Die Plattform schafft eine Infrastruktur, die es ermöglicht, Fitnessbewertungen an eine Gruppe von Computern zu senden, auf denen sowohl Windows- als auch Linux-Betriebssysteme ausgeführt werden, wodurch der Evolutionsprozess parallelisiert wird. PES basiert auf der PVM-Bibliothek (Parallel Virtual Machine) und besteht aus zwei Komponenten, (1) einer Serverkomponente namens PES-Server, die die grundlegende Evolutionsmethode ausführt, die Verwaltung der Kommunikation mit den Client-Computern, und (2 ) eine Client-Komponente namens PES-Client, die Programme ausführt, um eine einzelne Person zu bewerten und die Fitness an den Server zurückzugeben. Die Leistung von PES wird auf das Problem der Verhaltensentwicklung für einen Schwarm mobiler Roboter getestet, die als physikbasierte Modelle simuliert werden, und die Geschwindigkeitseigenschaften werden analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39737-3_112 3952fc18be9f129135b99fa0098a7b63;de;;;3.2.;;;Jüngste Fortschritte beim Multisensor-Multitarget-Tracking mit zufälliger endlicher Menge In dieser Studie geben wir einen Überblick über die jüngsten Fortschritte beim Multisensor-Multitarget-Tracking basierend auf dem Random Finite Set (RFS)-Ansatz. Die Fusion, die bei der Multisensorfilterung eine grundlegende Rolle spielt, wird in Multitarget-Messfusion auf Datenebene und Multitarget-Dichtefusion auf Schätzebene klassifiziert, die lokale Messungen bzw. posteriore Dichten zwischen Sensoren teilen und fusionieren. Wichtige Eigenschaften jeder Fusionsregel einschließlich der Optimalität und Suboptimalität werden vorgestellt. Insbesondere werden zwei robuste Multitarget-Dichtemittelungsansätze, die arithmetische und die geometrische Mittelwertfusion, für verschiedene RFSs ausführlich behandelt. Relevante Forschungsthemen und verbleibende Herausforderungen werden beleuchtet.;-;-;-;https://link.springer.com/article/10.1631/FITEE.2000266 800287cdb96e564a16ff34c2e272529e;de;;;3.2.;;;Auf dem Weg zur molekularen Programmierung – ein persönlicher Bericht über DNA8 und molekulares Computing Nach Ansicht des Autors weitet sich die Forschung im Bereich DNA und Molecular Computing auf breitere Anwendungen in der Nano- und Biotechnologie aus, und die Prinzipien und Methoden zum Entwurf molekularer Systeme mit Informationsverarbeitungsfähigkeit für solche Anwendungen werden als wichtig erachtet. Wir nennen die Forschung zum Design solcher molekularen Systeme;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18734-6_6 a1785681cd114f734d6385c987df1db9;de;;;3.2.;;;Ein Werkzeug für die Entwicklung von Meta-Anwendungen, die mehrere Message-Passing-Programmierumgebungen unterstützen In diesem Beitrag werden die Erweiterungen von WAMM (Wide Area Metacomputer Manager) vorgestellt, um einen aus Hosts bestehenden Metacomputer zu verwalten, auf dem mehrere Programmierumgebungen zur Nachrichtenweiterleitung laufen. WAMM erlaubte zunächst nur die Ausführung von Meta-Anwendungen, die aus PVM-Komponenten bestehen. Um die Ausführung von Meta-Anwendungen aus PVM- und MPI-Aufgaben zu ermöglichen, wurde WAMM um PLUS erweitert. PLUS ist eine der Hauptkomponenten des MOL-Projekts. Es bietet eine effiziente, einfach zu bedienende Schnittstelle zwischen verschiedenen Kommunikationsbibliotheken.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0056582 7511f6f3c5d7acd10c3a5fe2c64afad0;de;;;3.2.;;;SCHAP: Das Aggregate SignCryption-basierte Hybrid-Authentifizierungsprotokoll für VANET Um die Nachrichtenübertragung in Fahrzeug-Ad-hoc-Netzwerken (VANET) abzusichern, wurde das hybride Authentifizierungsprotokoll vorgeschlagen. Das aggregierte Signcryption-Schema wurde verwendet, um das private Fahrzeug zu authentifizieren und es gleichzeitig vor dem Verlust der Identität zu schützen. Die aggregierte Signatur wurde verwendet, um das öffentliche Fahrzeug zu authentifizieren. Und die Batch-Verifizierung wurde auch verwendet, um den Overhead zu reduzieren. Im Vergleich zu den bestehenden Schemata reduziert der Vorschlag den Nachrichten-Overhead um mindestens 15 % und beschleunigt den Signiervorgang um 50 %. Außerdem zeigt das Simulationsexperiment auch, dass es eine geringere Kommunikationsverzögerung und ein kleineres Nachrichtenverlustverhältnis als andere aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11167-4_22 71ef011df0046df5f4bf381bf6572706;de;;;3.2.;;;Kombination von dynamischer passiver Analyse und aktivem Fingerprinting für eine effektive Erkennung von Bot-Malware in virtualisierten Umgebungen Wir schlagen einen Erkennungsmechanismus vor, der die Vorteile einer virtualisierten Umgebung nutzt und sowohl passive als auch aktive Erkennungsansätze zur Erkennung von Bot-Malware kombiniert. Unser vorgeschlagener passiver Erkennungsagent liegt im Monitor der virtuellen Maschine, um das Bot-Verhalten zu profilieren und es mit anderen Hosts abzugleichen. Der vorgeschlagene aktive Erkennungsagent, der aktives Bot-Fingerprinting durchführt, kann einen bestimmten Stimulus an einen Host senden und untersuchen, ob ein erwartetes ausgelöstes Verhalten vorliegt. In unseren Experimenten kann unser System Bots und den gutartigen Prozess mit geringem Fehlalarm unterscheiden. Die Active-Fingerprinting-Technik kann einen Bot auch dann erkennen, wenn ein Bot seine böswilligen Aufgaben nicht ausführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38631-2_59 a5a3b2b389c115d27f0c548ad0573a30;de;;;3.2.;;;Nutzung der Beweisanalyse bei der Planerkennung Informationsgrafiken wie Balken- und Liniendiagramme, die in populären Medien erscheinen, haben im Allgemeinen eine Botschaft, die sie vermitteln sollen. Wir haben ein neuartiges Planinferenzsystem entwickelt, das Beweise in Form von kommunikativen Signalen aus der Grafik verwendet, um die beabsichtigte Botschaft des Grafikdesigners zu erkennen. Wir behaupten, dass die Planinferenzforschung von der Untersuchung profitieren würde, wie jede ihrer Evidenzquellen den Erfolg des Systems beeinflusst. Dieser Beitrag stellt eine solche Evidenzanalyse für die kommunikativen Signale vor, die in unserem Planinferenzsystem erfasst werden, und der Beitrag zeigt, wie die Ergebnisse dieser Evidenzanalyse unsere Forschung zu Planerkennungs- und Anwendungssystemen beeinflussen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73078-1_4 277eb689f6a8bbceea39850b3821a4dd;de;;;3.2.;;;Datenanalyse für industrielle Ethernet-Netzwerke auf Feldebene Dieses Papier beschreibt die Idee der PROFINET I/O-Feldebene zur Datenanalyse von industriellen Netzwerken, die als Forschungswerkzeug am Institut für Informatik der Schlesischen Technischen Universität realisiert wurde. Die Autoren beschreiben die Methode des Zugriffs auf industrielle Netzwerk-Echtzeitdaten (RT) aus der Ebene der weithin bekannten Datenanalyseumgebung MATLAB. Die beigefügten Tests und Ergebnisse beweisen, dass MATLAB ein effizientes und flexibles Werkzeug ist, das zur Unterstützung der Analyse von RT-Ethernet-Netzwerken verwendet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21771-5_39 818e90300c35ea884f3b829b9b93f169;de;;;3.2.;;;MEDADVIS: Ein medizinisches Beratungssystem Ein Beratungssystem ist seit einigen Jahrzehnten ein zentrales Bedürfnis von Medizinern und Fachärzten. Die meisten aktuellen medizinischen Retrieval-Systeme basieren auf passiven Datenbanken. Tatsächlich sind die in jedem Informationsspeichersystem gespeicherten Daten eine reichhaltige Wissensquelle, für deren Entdeckung geeignete Techniken erforderlich sind. In diesem Papier wird das Design eines gut strukturierten Wissensdatenbanksystems vorgestellt, das die Krankenakten von Patienten enthält. Das vorgeschlagene System wird mit Data-Mining- und KI-Techniken wie Statistik, neuronalen Netzen, Fuzzy-Logik, generischen Algorithmen usw. ausgestattet, sodass es zu einem aktiven verteilten medizinischen Beratungssystem wird.;-;-;-;https://link.springer.com/chapter/10.1007/11552451_108 29460f1804a22cb43b96dcd8a4c476e6;de;;;3.2.;;;Eine Methode zur Organisation eines Sicherheitsfahrzeugnetzwerks für Eisenbahngüterzüge basierend auf leichter Authentifizierung und Eigentumsüberprüfung Mit der Entwicklung des Schienenverkehrs hat sie höhere Anforderungen an die Sicherheit von Güterzügen gestellt. Das derzeitige Sicherheitsüberwachungssystem für Bodenfahrzeuge kann aufgrund technischer Einschränkungen die Sicherheitsanforderungen für die Echtzeit-Informationsmeldung des Zuges nicht erfüllen. Der Fahrzeugsensor kann Echtzeit-Fahrzeuginformationen sammeln, um die Sicherheit des Zuges zu gewährleisten. Das Fahrzeugnetzwerk ist die Grundlage der Kommunikation zwischen Fahrzeugsensoren. Aufgrund der Besonderheit des Güterzugs wird ein Algorithmus zur Organisation eines Sicherheitsfahrzeugnetzwerks für den Eisenbahngüterzug vorgeschlagen, der auf leichtgewichtiger Authentifizierung und Eigenschaftsüberprüfung basiert. Die vom Distanzsensor gemessene Distanz ist das Triggerereignis des Algorithmus. Die leichte Authentifizierung macht den Knoten vertrauenswürdig. Durch die Authentifizierung mit Geschwindigkeit und Richtung gehören die Knoten zum selben Zug. Und schließlich wird das Fahrzeugnetzwerk aufgebaut. Über das Fahrzeugnetzwerk sammeln Fahrzeugsensoren Daten in Echtzeit und übermitteln sie an das Bodenverarbeitungssystem. Sorgen Sie schließlich für die Sicherheit des Eisenbahngüterzugs.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7530-3_12 3e2c568c6a5e7daabea2e6ef63e6376f;de;;;3.2.;;;Lösung des Problems der Neuordnung von Pflegeplänen mit harten Einschränkungen: Neue Multicommodity-Flow-Modelle Das Problem der Neuordnung von Pflegeplänen entsteht in Krankenhäusern, wenn mindestens eine Pflegekraft mitteilt, dass sie die ihr zugewiesenen Schichten an einem oder mehreren zukünftigen Arbeitstagen nicht mehr durchführen kann. Infolgedessen muss der aktuelle Dienstplan in Übereinstimmung mit den arbeitsvertraglichen Regeln und den institutionellen Anforderungen neu erstellt werden. Alle diese Beschränkungen werden als harte Beschränkungen angesehen. Größere Änderungen in den zuvor zugewiesenen Pflegeplänen müssen jedoch vermieden werden. Dieser Beitrag basiert auf einer Fallstudie eines öffentlichen Krankenhauses in Portugal. Es präsentiert zwei neue ganzzahlige Multicommodity-Strömungsformulierungen für das Rerostering-Problem neben einem Computerexperiment, das mit realen Daten durchgeführt wurde. Das erste Modell basiert auf einem gerichteten mehrstufigen azyklischen Netzwerk. Die Aggregation von Knoten in diesem Netzwerk führte zum zweiten Modell. Die erhaltenen Ergebnisse zeigen, dass die zweite ganzzahlige Multicommodity-Strömungsformulierung die erste sowohl in Bezug auf die Lösungsqualität als auch in Bezug auf die Rechenzeit übertrifft.;-;-;-;https://link.springer.com/article/10.1023/B%3AANOR.0000019104.39239.ed 1d8e052819bd8bf61e208da5897ab78d;de;;;3.2.;;;Eine hybride Suchtechnik für die inverse transiente Analyse in Wasserverteilungssystemen Die Leckerkennung und Kalibrierung von Wasserverteilungssystemen (WDS)-Hydraulikmodellen für Rohrinnenrauheiten und andere Parameter ist zweifellos ein wichtiges Thema. In diesem Beitrag wird ein inverses transientes Modell vorgestellt, mit dem Lecks in Rohrnetzen erkannt werden können. Zunächst wird ein kurzer Überblick über bestehende Ansätze zur Leckerkennung gegeben. Der Überprüfung folgt die Präsentation eines inversen transienten Modells, das als Optimierungsproblem formuliert ist, mit der Zielfunktion in Form von gewichteten kleinsten Quadraten und einer Reihe relevanter Nebenbedingungen. Nach der Identifizierung der Vor- und Nachteile der beiden genetischen Algorithmen (GA) und der Levenberg-Marquardt (LM)-Suchmethode wurde ein hybrider genetischer Algorithmus entwickelt, um das inverse transiente Problem zu lösen. Abschließend wird eine Zusammenfassung erstellt und relevante Schlussfolgerungen gezogen.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-85729-345-9_7 e83b5490792e6de477f00fab3e115c3f;de;;;3.2.;;;Ein kurvenreicher Weg zur Entdeckung des Ursprungs Studien in unserem Labor in den letzten drei Jahrzehnten haben gezeigt, dass der Replikationsursprung der Dihydrofolatreduktase (DHFR) des chinesischen Hamsters einer breiten Zone ineffizienter Initiationsstellen entspricht, die über den Spacer zwischen den konvergenten DHFR- und 2BE2121-Genen verteilt sind. Aus der Mutationsanalyse ist klar, dass keine dieser Stellen genetisch erforderlich ist, um die Ursprungsaktivität zu kontrollieren. Die Integrität des Promotors des DHFR-Gens wird jedoch benötigt, um den Downstream-Ursprung zu aktivieren, während die 3'-Prozessierungssignale die Invasion und Inaktivierung des Downstream-Ursprungs durch Transkriptionsgabeln verhindern. Es wurde gezeigt, dass mehrere andere Ursprünge in Metazoen Zonen ineffizienter Standorte entsprechen, während eine andere Untergruppe den festen Replikatoren ähnlich zu sein scheint, die die Ursprünge in charakterisieren;-;-;-;https://link.springer.com/article/10.1007/s10577-009-9089-z a02daa070fb0795c56ad6aebdf272fb4;de;;;3.2.;;;Die Entwicklung von Epstein-Barr-Virus-Impfstoffen Das Epstein-Barr-Virus (EBV) gehört zu den wenigen humanen Herpesviren und ist wegen seines onkogenen Potenzials beim Menschen von großer Bedeutung;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4899-1100-1_21 3dbff04c1826745573c56eeffca49806;de;;;3.2.;;;Die Verwendung von Reifegrad-/Fähigkeits-Frameworks für die Bewertung und Verbesserung von Gesundheitsprozessen Die Prozessbewertung ermöglicht es, Stärken und Schwächen ausgewählter Prozesse in einem bestimmten Bereich zu identifizieren, typischerweise durch Bezugnahme auf Prozessreife-/Fähigkeitsrahmen. Assessment-Ergebnisse werden in der Regel in Action-Items zur Prozessverbesserung umgewandelt. Im Gesundheitswesen, wo Krankenhäuser ihren Patienten tagtäglich in einem komplexen, dynamischen und multidisziplinären Umfeld risikoreiche Dienstleistungen anbieten, wird die Etablierung eines Prozessdenkens und eines effektiven Prozessmanagements zunehmend gefordert, aber keine leichte Aufgabe. In dieser Studie untersuchen wir die Reife-/Fähigkeitsrahmen, die zur Bewertung und Verbesserung der Gesundheitsprozesse vorgeschlagen oder verwendet werden. Wir recherchierten die zwischen den Jahren 2000 und 2015 berichteten Studien in wissenschaftlichen digitalen Bibliotheken und identifizierten 29 von 958 ursprünglich systematisch recherchierten Studien. Diese Studie bietet eine Analyse von sechs von 29 Studien in Bezug auf eine Reihe von Forschungsfragen zu Kontext, Umfang, Zeitumfang und Ergebnissen sowie Forschungsmethode und -beitrag.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-38980-6_3 9c0d9f6a37511dc180750f05d361ded9;de;;;3.2.;;;Anwendungen integrativer OMICs-Ansätze auf Genregulationsstudien Funktionelle Genomik verwendet Dutzende von OMICs-Technologien, um die Funktionen von DNA-, RNA- und Proteinregulatoren in Genregulationsprozessen zu erforschen. Obwohl jede dieser Technologien für sich genommen mächtige Werkzeuge ist, wie das Gleichnis vom Blinden und einem Elefanten, hat jede einzelne Technologie nur eine begrenzte Fähigkeit, das komplexe Regulierungssystem abzubilden. Integrative OMICS-Ansätze haben sich zu einem wichtigen Bereich in Biologie und Medizin entwickelt. Es bietet eine präzise und effektive Möglichkeit, Genregulationen zu studieren.;-;-;-;https://link.springer.com/article/10.1007/s40484-016-0085-y 99e44d2315ea12d65293e2b0228a5984;de;;;3.2.;;;Monte-Carlo-Implementierung Dieses Kapitel stellt eine Markov-Ketten-Monte-Carlo-Implementierung des Bayesschen Lernens für neuronale Netze vor, bei der Netzparameter mit dem hybriden Monte-Carlo-Algorithmus aktualisiert werden, einer Form des Metropolis-Algorithmus, bei dem Kandidatenzustände mittels dynamischer Simulation gefunden werden. Hyperparameter werden separat mit Gibbs-Sampling aktualisiert, sodass ihre Werte bei der Auswahl guter Schrittgrößen für die diskretisierte Dynamik verwendet werden können. Ich zeige, dass hybrides Monte Carlo aufgrund der Vermeidung von Random-Walk-Verhalten besser abschneidet als einfaches Metropolis. Ich diskutiere auch Varianten des hybriden Monte Carlo, bei denen dynamische Berechnungen mit „partiellen Gradienten“ durchgeführt werden, bei denen die Akzeptanz auf einem „Fenster“ von Zuständen basiert und bei denen Momentum-Updates „Persistenz“ beinhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-0745-0_3 c35b59b0358cef19e86634bd42218847;de;;;3.2.;;;Das Kaskaden-Schwachstellenproblem für offene verteilte Systeme: Ein Rückblick Das Cascade Vulnerability Problem ist ein potenzielles Problem, dem man sich stellen muss, wenn man den Ansatz eines vernetzten akkreditierten Systems der Trusted Network Interpretation verwendet. In diesem Beitrag stellen wir das allgemeine Schwachstellenproblem von Cascade vor, beschreiben die grundlegenden Eigenschaften der wichtigsten Erkennungsalgorithmen und führen eine kurze vergleichende Analyse durch.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35097-4_14 879b03ea7ca5f42553854c91012e4a84;de;;;3.2.;;;Routing und Wellenlängenzuweisung mit Leistungsüberlegungen Routing und Wellenlängenzuweisung (RWA) ist ein wichtiges Problem, das in wellenlängengerouteten optischen Netzwerken auftritt. Frühere Studien haben viele Variationen dieses Problems unter der Annahme perfekter Bedingungen bezüglich der Leistung eines Signals gelöst. In diesem Kapitel untersuchen wir dieses Problem, während wir die Verschlechterung der gerouteten Signale durch Komponenten wie Abgriffe, Multiplexer, Schaltelemente, Glasfaserverbindungen usw. berücksichtigen. Es wird davon ausgegangen, dass optische Inline-Verstärker in der physischen Entwurfsphase auf einzelnen Glasfaserverbindungen vorgeschaltet werden. Wir untersuchen das Problem, die maximale Anzahl von Verbindungen zu routen und gleichzeitig die richtigen Leistungspegel beizubehalten. Das Problem wird als gemischt-ganzzahliges nichtlineares Programm formuliert. Um die Komplexität des Problems zu überwinden, teilen wir das Problem in zwei Teile. Zunächst lösen wir das reine RWA-Problem mit festen Routen für jede Verbindung. Zweitens wird die Leistungszuweisung erreicht, indem entweder die gierige Heuristik mit dem kleinsten Gewinn zuerst (SGF) oder ein genetischer Algorithmus verwendet wird. Numerische Beispiele in einer Vielzahl von Netzwerken zeigen, dass: (a) die Anzahl der Verbindungen, die ohne Berücksichtigung der Signaldämpfung aufgebaut werden, die meiste Zeit größer ist als die unter Berücksichtigung der Leistung erreichbare, und (b) bei ausreichender Zeit die Die Lösungsqualität des genetischen Algorithmus ist viel besser als die von SGF, insbesondere wenn der Konfliktgraph der vom linearen Solver erzeugten Verbindungen dichter ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-1491-6_5 70f27975c7f60763f5fa1b1f53921e5e;de;;;3.2.;;;Anti-Adhäsions- und Diagnosestrategien für oral-intestinale bakterielle Krankheitserreger Bakterien, Viren und eukaryotische Zellen binden über Zelladhäsionsmoleküle an Kohlenhydrat- und Proteinrezeptoren (Sharon und Lis, 1993). Die Adhäsion ist ein wesentlicher Schritt bei der mikrobiellen Besiedlung und der Entwicklung von Infektionen sowie bei der Zell-Zell-Kommunikation, die die Leukozytenmigration und die Gewebeentwicklung beeinflusst (Paulson, 1993, Lasky, 1993). Antihaftmittel, wie Kohlenhydrat- und Peptidrezeptor-Mimetika, stellen somit potentielle therapeutische Mittel zur Behandlung von mikrobiellen Infektionen, Krebs und entzündlichen Erkrankungen dar.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0415-9_2 6be51a62c62874c36054b2614372edc1;de;;;3.2.;;;Effiziente Identifizierung überlappender Communities In diesem Beitrag stellen wir einen effizienten Algorithmus vor, um überlappende Communities in sozialen Netzwerken zu finden. Unser Algorithmus verlässt sich nicht auf den Inhalt der Nachrichten und verwendet nur den Kommunikationsgraphen. Die Kenntnis der Struktur der Gemeinschaften ist wichtig für die Analyse des Sozialverhaltens und der Entwicklung der Gesellschaft als Ganzes sowie ihrer einzelnen Mitglieder. Dieses Wissen kann hilfreich sein, um Gruppen von Akteuren zu entdecken, die ihre Kommunikation möglicherweise aus böswilligen Gründen verbergen. Obwohl die Idee, Kommunikationsgraphen zur Identifizierung von Akteursclustern zu verwenden, nicht neu ist, produzieren die meisten traditionellen Ansätze mit Ausnahme der Arbeit von Baumes et al höchstens ein Cluster. Unser Algorithmus ist deutlich effizienter als der bisherige Algorithmus von Baumes et al., er erzeugt auch Cluster vergleichbarer oder besserer Qualität.;-;-;-;https://link.springer.com/chapter/10.1007/11427995_3 ad9759cc57469cb8ec6e4d302a720104;de;;;3.2.;;;Rapid Prototyping mit inversionsbasierter Steuerung und objektorientierter Modellierung Die objektorientierte Modellierung ermöglicht die effiziente Konstruktion multidisziplinärer Systemmodelle auf physikalisch orientierte Weise. Als einzigartiges Feature ermöglicht der Modellierungsansatz die automatische Generierung von regulären, statischen sowie inversen Simulationsmodellen. Inverse Modelle bilden die Grundlage verschiedener gebräuchlicher nichtlinearer Reglersynthesemethoden, wie z. B. der Feedback-Linearisierung. Die resultierenden multivariablen Steuergesetze lassen sich leicht so einstellen, dass sie die Leistungsspezifikationen erfüllen und die Notwendigkeit einer Verstärkungsplanung vermeiden. In Kombination mit automatischer Inversion eignen sich diese Synthesemethoden ideal für das Rapid Prototyping von Regelgesetzen, die das Experimentieren mit Befehlsvariablen, Regelauswahl und -zuweisung usw. in sehr kurzen automatisierten Designzyklen ermöglichen. Nach Auswahl der endgültigen Architektur können die Regelgesetze in einer detaillierten Entwurfsphase weiterentwickelt werden. In diesem Kapitel demonstrieren wir diesen Ansatz am nichtlinearen Regelungsproblem von Flugzeugen am Boden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73719-3_8 ed1df984887eb591e9f82704744e8d62;de;;;3.2.;;;TAnaTo2: Ein Tool zur Bewertung der Auswirkungen natürlicher und anthropogener Artefakte mit einem TIN-basierten Modell Dieses Papier stellt das TAnaTo2-Modell vor. Es basiert auf dem Open-Source-GIS OrbisGIS, das am IRSTV-Institut entwickelt wurde. TanaTo2 bietet neue Methoden zur Bewertung der Auswirkungen natürlicher und anthropogener Artefakte auf die Wasserabflusswege in einem stadtnahen Becken mit einem TIN-basierten Modell. Es ermöglicht Ihnen, ein Entwässerungsnetz zu bauen, das die Abflussrichtung berechnet aus dem steilsten maximalen Gefälle darstellt. Es wird verwendet, um die Ansammlung von Wasserströmungen zu lokalisieren und Wasserscheiden zu extrahieren. Tanato2 wird im Chézine-Becken im Nordwesten Frankreichs in den Vororten von Nantes eingesetzt. Es wird verwendet, um den Einfluss der Stadtentwicklung auf den topografischen Verlauf von Oberflächengewässern zu verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10595-1_5 791631682f65bee559c7ab8ee7a9f9d2;de;;;3.2.;;;Eine generische und konfigurierbare Quellcode-Instrumentierungskomponente Eine übliche Voraussetzung für eine Reihe von Debugging- und Performance-Analysetechniken ist das Einschleusen von Hilfsprogrammcode in die zu untersuchende Anwendung, ein Prozess namens;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01973-9_78 12eab14dd70f1109f711416406147385;de;;;3.2.;;;"Die Ghetto-„Liquidationen“ von 1942–43 Im Gegensatz zu den von den Einsatzgruppen 1941 ausführlich berichteten Massentötungen ist über die Ghetto-„Liquidierungen“ 1942 viel weniger bekannt während der ""Zweiten Welle"" 1942 und 1943 getötet.";-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-62146-0_5 2419cab15e0f168162552a12554c81c7;de;;;3.2.;;;ALIVE: Eine multi-relationale Link-Vorhersage-Umgebung für den Gesundheitsbereich Der biomedizinischen Informatik liegt die Annahme zugrunde, dass Entscheidungen fundierter getroffen werden können, wenn Fachleute durch analytische Systeme unterstützt werden. Zu diesem Zweck schlagen wir ALIVE vor, eine multirelationale Linkvorhersage- und Visualisierungsumgebung für den Gesundheitsbereich. ALIVE kombiniert neuartige Linkvorhersagemethoden mit einer einfachen Benutzeroberfläche und intuitiver Datenvisualisierung, um den Entscheidungsprozess für medizinisches Fachpersonal zu verbessern. Es enthält auch einen neuartigen Verbindungsvorhersagealgorithmus, MRPF, der viele vergleichbare Algorithmen in mehreren Netzwerken im biomedizinischen Bereich übertrifft. ALIVE ist einer der ersten Versuche, einen analytischen und visuellen Rahmen für Gesundheitsanalysen bereitzustellen, der die Zusammenarbeit und den Datenaustausch durch Benutzerfreundlichkeit und potenzielle Erweiterbarkeit fördert. Wir fördern die Entwicklung ähnlicher Tools, die den erfolgreichen Austausch, die Zusammenarbeit und eine lebendige Online-Community erleichtern können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-36778-6_4 907d12fbece777fccdf6f9db1cf02b4d;de;;;3.2.;;;Adaptive Computing über dynamische und heterogene Netzwerke In den letzten zwei Jahrzehnten wurden effiziente Message Passing-Bibliotheken für parallele wissenschaftliche Berechnungen entwickelt. Gleichzeitig wurden Programmiersprachen geschaffen, die dynamisch rekonfigurierbare verteilte Systeme über das heterogene Internet unterstützen. In diesem Whitepaper stellen wir SALSA-MPI vor, einen Ansatz der Akteurprogrammiersprache für wissenschaftliches Rechnen, der MPI um eine Checkpointing- und Migrations-API und ein Laufzeitsystem erweitert, das sowohl periodische Checkpoints als auch Prozess- oder Anwendungsmigration verwaltet. Das Ziel besteht darin, eine dynamische Netzwerkrekonfiguration und einen Lastausgleich zu ermöglichen, ohne die Anwendungsleistung zu beeinträchtigen oder umfangreiche Codeänderungen zu erfordern. Als treibende Technologie für diese Bemühungen, paralleles und verteiltes Rechnen zu vereinen, planen wir adaptive Löser partieller Differentialgleichungen zu verwenden. So unterschiedliche Bereiche wie Fluiddynamik, Materialwissenschaften, Biomechanik und Ökologie nutzen parallele adaptive Berechnungen, aber Zielarchitekturen waren traditionell Supercomputer und eng gekoppelte Cluster. SALSA-MPI soll es diesen Berechnungen ermöglichen, verteiltere und dynamischere Rechenressourcen effizient zu nutzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24669-5_140 3b75e756b2c916a8d29fea3fcc27873e;de;;;3.2.;;;Gewichtsreduktion der Spieler durch aktives Spielen mit Beschleunigungsmessern Die in diesem Papier beschriebene Idee beschäftigt sich mit einer Verbindung von eingebetteten Sensoren in aktuellen intelligenten mobilen Geräten und einer Spielanwendung für mobile Geräte, die zu einer erhöhten Bewegung der Spieler dieser Spiele führt. Aktive Bewegung von Spielern wurde als eine der möglichen Lösungen gefunden, um das Gewicht der Spieler (Benutzer) zu reduzieren, da das bekannte globale Problem der Welt zunehmende Fettleibigkeit durch die Abhängigkeit von PC-Spielen bei jungen Menschen ist. Dieses Projekt verbindet Angenehmes mit Nützlichem, bzw. das Spielen des Spiels mit körperlicher Anstrengung. Mit Hilfe des Bewegungssensors (Beschleunigungsmesser) ist es möglich, durch einfache Spiele zu handhaben, zu deren Bedienung ein körperlicher Impuls des Spielers erforderlich ist. Danach wäre es möglich, dieses Projekt durch die Schlagmessung des Spielers aufzugreifen, um die Wirksamkeit des vorgeschlagenen Systems zu überprüfen. Die Software wurde in verwaltetem Code unter Verwendung der C#-Sprache und der .NET Compact Framework-Plattform entwickelt. Einige Fragen im Zusammenhang mit der realen Entwicklung werden auch im Rest des Papiers erörtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22729-5_21 2b39e3866ef83ff482cc2bb2e52adf9d;de;;;3.2.;;;APP-NTS: ein auf Ähnlichkeiten im Netzwerkverkehr basierendes Framework für die Erkennung neu gepackter Android-Apps Die Popularität von Android bietet seinen Benutzern viele Funktionen, aber auch viele Bedrohungen. Die neu gepackte Android-Anwendung ist eine solche Bedrohung, die die Wurzel vieler anderer Bedrohungen wie Malware, Phishing, Adware und wirtschaftlicher Verluste ist. Früher wurden viele Techniken zum Nachweis einer umgepackten Anwendung vorgeschlagen, aber sie haben ihre Grenzen und Engpässe. Das Problem von Malware und doppelten Apps, die die Smartphones betreffen, wird in großem Umfang gemeldet und hat die Aufmerksamkeit vieler Forscher auf sich gezogen. Die meisten dieser Probleme betreffen Android-basierte Telefone. Neu verpackte Apps sind normalerweise infizierte Versionen beliebter Apps. Angreifer laden eine beliebte Android-App herunter, erhalten den Code mithilfe von Reverse Engineering und fügen dann ihren Code (oft bösartig) hinzu und packen die App neu und geben sie frei. Die bestehenden Methoden konzentrieren sich hauptsächlich darauf, das Verhalten von Apps zu extrahieren und mit ihrem statischen Code zu vergleichen. Diese haben die geringste Chance, die Code-Verschleierung und das dynamische Verhalten von Apps zu erkennen. Daher wird ein Framework von App-NTS vorgeschlagen, das das dynamische Verhalten der Apps aus der Netzwerkverkehrsanalyse extrahiert. Der dynamische Blickwinkelalgorithmus, der für die vergleichende Analyse des Verhaltens der Apps verwendet wird, hilft erheblich, die Zeitkomplexität zu reduzieren. Die experimentelle Analyse hat 365 neu gepackte Apps von 8645 Apps entdeckt, die von verschiedenen Online-Märkten heruntergeladen wurden, und haben auch dramatische Ergebnisse in Bezug auf eine bessere Leistung mit einem um 41 % verringerten mittleren quadratischen Fehlerwert und einem um 35,2 % verringerten Protokollverlust gebracht. Es gibt eine Genauigkeitssteigerung von 18,3% im Vergleich zu anderen Techniken des Standes der Technik.;-;-;-;https://link.springer.com/article/10.1007/s12652-021-03023-0 2bc9699c22f29ecf7437b9c4fb899304;de;;;3.2.;;;Ein neuartiges sicheres Multicast-Schema im mobilen Internet Es wird ein neuartiges Multicast-Kommunikationsmodell unter Verwendung einer RingNet-Hierarchie vorgeschlagen. Die RingNet-Hierarchie besteht aus 4 Stufen: Border Router Tier, Access Gateway Tier, Access Proxy Tier und Mobile Host Tier. Innerhalb der Hierarchie sind die oberen 2 Ebenen dynamisch in logische Ringe mit Netzwerkeinheiten organisiert. Basierend auf dem RingNet-Modell wird ein neuartiges hierarchisches sicheres Zugriffskontrollschema für die Schlüsselverwaltung vorgeschlagen. Netzwerkeinheiten innerhalb der Multicast-Hierarchie gehören zu verschiedenen privilegierten lokalen Gruppen. Netzwerkeinheiten der höherprivilegierten lokalen Gruppen haben das Recht, die Schlüssel abzuleiten, die von Netzwerkeinheiten der niedrigerprivilegierten lokalen Gruppen gehalten werden, und der umgekehrte Vorgang ist nicht erlaubt. Bei der Schlüsselverwaltungsmethode hat das Einfügen und Ändern des lokalen Gruppenschlüssels keine Auswirkungen auf andere lokale Gruppen. Das Analyseergebnis zeigt, dass das Schema eine höhere Sicherheit bietet als das von Lin.;-;-;-;https://link.springer.com/article/10.1007/s11771-005-0076-z 0305d1e052f92addaa332ed35e42b7e5;de;;;3.2.;;;Eine Einführung in die molekulare Spintronik Wir überprüfen den Fortschritt und die zukünftigen Möglichkeiten auf dem aufstrebenden Gebiet der molekularen Spintronik. Wir geben zunächst einen Überblick über die verschiedenen Transportregime, in denen elektronische Nanogeräte arbeiten können, geben dann einen kurzen Überblick über die wichtigen Eigenschaften molekularer magnetischer Materialien, die für die Anwendung in der Spintronik nützlich sein können, und stellen schließlich mehrere Schemata vor, um solche Systeme in spintronische Nanogeräte zu integrieren. Wir heben die Bedeutung eines chemischen Ansatzes für dieses Gebiet hervor und zeigen im letzten Abschnitt einige Ansätze zur Herstellung von Hybriden aus Kohlenstoff-Nanostrukturen und molekularen Magneten, die zunehmend an Aufmerksamkeit gewinnen.;-;-;-;https://link.springer.com/article/10.1007/s11426-012-4628-4 0b001a28414a53950eebe7098ceb615d;de;;;3.2.;;;Broadcast-basierte parallele LU-Faktorisierung Dieses Papier stellt einen parallelen LU-Faktorisierungsalgorithmus vor, der entwickelt wurde, um die Vorteile der physikalischen Broadcast-Kommunikationseinrichtungen sowie der Überlappung von Kommunikation und Computer zu nutzen. Physical Broadcast ist direkt auf Ethernet-Netzwerkhardware verfügbar, einem der am häufigsten verwendeten Verbindungsnetzwerke in aktuellen Clustern, die für paralleles Computing installiert sind. Überlappte Kommunikation ist eine bekannte Strategie zum Verbergen der Kommunikationslatenz, die eine der häufigsten Ursachen für parallele Leistungseinbußen ist. Leistungsanalyse und Experimente des vorgeschlagenen parallelen LU-Faktorisierungsalgorithmus werden vorgestellt. Außerdem wird die Leistung des vorgeschlagenen Algorithmus mit der des Algorithmus verglichen, der in ScaLAPACK (Scalable LAPACK) verwendet wird, von dem allgemein angenommen wird, dass er eine optimierte Leistung aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/11549468_94 4e5c221d3c369dc0cf99aae76808e46d;de;;;3.2.;;;Etherbot — Ein autonomer mobiler Roboter auf einem lokalen Netzwerk-Funktether In der Robotik-Forschungsgemeinschaft ist allgemein bekannt, dass ein autonomer mobiler Roboter, der physisch angebunden ist, um die Grenzen der Batterieleistung zu erweitern, leistungsfähigere Rechenressourcen zu nutzen, eine bequeme Überwachung von Sensor- und Prozesskomponenten zu ermöglichen oder die Nutzlast zu erhöhen, bestenfalls gerecht ist eine Laborkuriosität, da das Halteseil das Fahrzeug in vielen realen Arbeitssituationen aufgrund möglicher Verwicklungen und tatsächlicher Reichweitenbeschränkungen mehr oder weniger unbrauchbar macht.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0112962 da210bef8ce09a948863b93d46070a62;de;;;3.2.;;;Anmerkung: Ein ernsthaftes Spiel für Medizinstudenten, sich den Bildern von Hautläsionen einer digitalen Bibliothek zu nähern Heutzutage wird behauptet, dass eine Methode zum Erlernen der Ausführung einer Aufgabe darin besteht, sie als Spielaktivität darzustellen: Auf diese Weise kann ein Lehrer den Lernenden eine sichere und kontrollierte Umgebung bieten, die auch Aufregung und Engagement weckt. In dieser Arbeit stellen wir das Design des Serious Game „Annote“ vor, um eine medizinische digitale Bibliothek zu nutzen, mit dem Ziel, Dermatologen zu helfen, Studenten beizubringen, wie man die Untersuchung von Hautläsionsbildern angeht, um Melanome zu verhindern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-73165-0_12 845a0717353ca1318551c5627f3ec153;de;;;3.2.;;;Nahtlose Integration von Raumstatistik und GIS: Die Die Erweiterung der Funktionskapazität von Geoinformationssystemen (GIS) um Werkzeuge zur statistischen Analyse im Allgemeinen und zur explorativen Geodatenanalyse (ESDA) im Besonderen ist in den letzten Jahren ein zunehmend aktives Forschungsgebiet. In diesem Beitrag werden zwei operative Implementierungen näher betrachtet, die die Funktionalität einer Geodatenanalysesoftware mit einem GIS kombinieren. Sie bestehen aus Verbindungen zwischen den;-;-;-;https://link.springer.com/article/10.1007/PL00011459 93342912a2a4a04fec0495bb30790550;de;;;3.2.;;;Eine MPI-Benchmark-Programmbibliothek und ihre Anwendung auf den Erdsimulator Parallele Programmierung ist für groß angelegte wissenschaftliche Simulationen unerlässlich, und MPI soll eine de facto Standard-API für diese Art der Programmierung sein. Da MPI über mehrere Funktionen verfügt, die ein ähnliches Verhalten aufweisen, haben Programmierer oft Schwierigkeiten, die geeignete Funktion für ihre Programme auszuwählen. Eine MPI-Benchmark-Programmbibliothek namens MBL wurde entwickelt, um Leistungsdaten für verschiedene MPI-Funktionen zu sammeln. Es misst die Leistung der MPI-1- und MPI-2-Funktionen unter verschiedenen Kommunikationsmustern. MBL wurde zur Messung der MPI-Leistung im Erdsimulator verwendet. Es wird bestätigt, dass bei der Kommunikation zwischen Knoten im Erdsimulator ein maximaler Durchsatz von 11,7 GB/s erreicht wird.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-47847-7_19 36abda283d0468aa69657dd91fdf95c3;de;;;3.2.;;;Ein tiefgreifender und stabiler extremer Lernansatz für Klassifikation und Regression Die Random-Hidden-Node-based Extreme Learning Machine (ELM) ist ein viel generalisierter Cluster von Single Hidden-Layer Feed-Forward Neuronal Networks (SLFNs), deren Hidden Layer nicht angepasst werden müssen und tendenziell sowohl die kleinste Trainingsfehler und die kleinste Norm der Ausgabegewichte. Deep-Belief-Networks (DBNs) sind probabilistische generative Modalitäten, die aus einfachen, unüberwachten Netzwerken wie eingeschränkten Boltzmann-Maschinen (RBMs) oder Auto-Encodern bestehen, wobei die versteckte Schicht jedes Subnetzwerks als sichtbare Schicht für das nächste dient. Dieses Papier schlägt einen Ansatz vor: DS-ELM (eine Deep and Stable Extreme Learning Machine), die ein DBN mit einem ELM kombiniert. Die Leistungsanalyse zu realen Klassifikations- (binär und mehrkategorienig) und Regressionsproblemen zeigt, dass DS-ELM bei relativ großen Datensätzen (große Stichprobengröße und hohe Dimension) tendenziell eine bessere Leistung erzielt. In den meisten getesteten Fällen ist die Leistung von DS-ELM bei der Lösung von Klassifizierungsproblemen im Allgemeinen stabiler als die von ELM und DBN. Darüber hinaus ist der Trainingszeitverbrauch von DS-ELM mit ELM vergleichbar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-14063-6_13 f79220508100f93be7e57b90571f7541;de;;;3.2.;;;Hochleistungs-GeoComputation mit der Parallel Raster Processing Library Die jüngsten Entwicklungen in GIScience und GeoComputation haben das Aufkommen von großen Geodaten und komplexen Geodatenalgorithmen gesehen, die die Nachfrage nach Hochleistungsrechnen stark erhöhen. Die Entwicklung eines effektiven und effizienten parallelen GeoComputational-Algorithmus erfordert jedoch die Berücksichtigung der einzigartigen Eigenschaften der Geodaten und des Algorithmus, was zu einer erheblichen Entwicklungskomplexität führt. Die Parallel Raster Processing Library (pRPL) ist eine Open-Source-Programmierbibliothek, die für GIS-Experten und GeoComputation-Praktiker entwickelt wurde, um parallele rasterbasierte Geodatenalgorithmen zu implementieren. pRPL bietet den Benutzern einfach zu bedienende Schnittstellen, kümmert sich aber automatisch um die zugrunde liegenden parallelen Rechenverfahren (einschließlich Domänenzerlegung, Zuordnungszuordnung, Algorithmusausführung, Datenaustausch, Lastausgleich und Daten-I/O) und reduziert so die Komplexität der Entwicklung. Nach einer kurzen Einführung in pRPL 2.0 präsentiert dieses Papier zwei Beispiele für die Verwendung von pRPL zur Implementierung von hochleistungsfähigem Spatial Computing: Neigungs-/Aspektberechnung und Zelluläre Automatenmodellierung. Die Experimente zeigen, dass Hochleistungs-GeoComputation mit pRPL von Personen mit minimalen parallelen Programmierkenntnissen implementiert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-59511-5_5 912e4353a79409946febd5ae8afbfb49;de;;;3.2.;;;Ein wissensbasierter genetischer Algorithmus-Ansatz zur Automatisierung der kartografischen Generalisierung Das Rendern von Kartendaten in kleineren Maßstäben als ihre Quelle kann zu Kartenanzeigen führen, die grafische Konflikte aufweisen, so dass Objekte entweder zu klein sind, um gesehen zu werden, oder zu nahe beieinander, um unterscheidbar zu sein. Darüber hinaus erfordert die Maßstabsverkleinerung häufig, dass wichtige Merkmale in der Größe übertrieben werden, was manchmal zu überlappenden Merkmalen führt. Kartografische Kartengeneralisierung ist der Prozess, durch den alle Grafikkonflikte gelöst werden, die während der Skalierung auftreten. In diesem Artikel zeigen wir, wie ein genetischer Algorithmus-Ansatz verwendet wurde, um räumliche Konflikte zwischen Objekten nach der Skalierung zu lösen und innerhalb praktischer Zeitbeschränkungen nahezu optimale Lösungen zu erzielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0649-4_3 8929bb30b166c677d0b6dd2359683a0b;de;;;3.2.;;;HiTSEE KNIME: ein Visualisierungstool zur Trefferauswahl und -analyse in Hochdurchsatz-Screening-Experimenten für die KNIME-Plattform Wir präsentieren HiTSEE (High-Throughput Screening Exploration Environment), ein Visualisierungstool für die Analyse großer chemischer Screens zur Untersuchung biochemischer Prozesse. Das Tool unterstützt die Untersuchung von Struktur-Aktivitäts-Beziehungen (SAR-Analyse) und durch einen flexiblen Interaktionsmechanismus die Navigation großer chemischer Räume. Unser Ansatz basiert auf der Projektion eines oder einiger weniger interessierender Moleküle und der Ausdehnung um ihre Nachbarschaft und ermöglicht die Erkundung großer chemischer Bibliotheken, ohne einen allumfassenden Überblick über die gesamte Bibliothek erstellen zu müssen. Wir beschreiben die Anforderungen, die wir während unserer Zusammenarbeit mit Biologen und Chemikern gesammelt haben, die Design-Grundlagen des Tools und zwei Fallstudien zu verschiedenen Datensätzen. Die beschriebene Integration (HiTSEE KNIME) in die KNIME-Plattform ermöglicht zusätzliche Flexibilität bei der Anpassung unseres Ansatzes an unterschiedlichste biochemische Problemstellungen und ermöglicht anderen Forschungsgruppen die Nutzung von HiTSEE.;-;-;-;https://link.springer.com/article/10.1186/1471-2105-13-S8-S4 30e6866a0f294ce206a4b377547fd18b;de;;;3.2.;;;lncRNAs in der Stressreaktion Alle lebenden Organismen nehmen schädliche Veränderungen in ihrer intra- und extrazellulären Umgebung wahr und reagieren darauf durch komplexe Signalwege, die zu Veränderungen der Genexpression und Zellfunktion führen, um die Homöostase aufrechtzuerhalten. Lange nicht-kodierende RNAs (lncRNAs), eine große und heterogene Gruppe funktioneller RNAs, spielen eine wichtige Rolle bei der zellulären Reaktion auf Stressbedingungen. lncRNAs machen einen signifikanten Teil der Gene aus, die als Reaktion auf verschiedene Stressreize unterschiedlich exprimiert werden, und tragen, sobald sie induziert sind, zur Regulierung nachgelagerter zellulärer Prozesse bei, einschließlich der Rückkopplungsregulierung von Schlüsselproteinen der Stressreaktion. Während viele lncRNAs als Reaktion auf einen bestimmten Stress induziert zu werden scheinen, gibt es eine signifikante Überlappung zwischen lncRNAs, die als Reaktion auf verschiedene Stressreize induziert werden. Neben stressinduzierten RNAs haben auch mehrere konstitutiv exprimierte lncRNAs einen starken regulatorischen Einfluss auf die Stressantwort. Obwohl unser Verständnis des Beitrags von lncRNAs zur zellulären Stressantwort noch sehr rudimentär ist, deuten die vorliegenden Daten auf das Vorhandensein eines komplexen Netzwerks von lncRNAs, miRNAs und Proteinen bei der Regulation der zellulären Stressantwort hin.;-;-;-;https://link.springer.com/chapter/10.1007/82_2015_489 6157b84e76180a56492bfbeeee01b531;de;;;3.2.;;;Scala-Rollen: Kollaborationen mit wiederverwendbaren Objekten in einer Bibliothek Rein klassenbasierte Implementierungen von objektorientierter Software sind oft für eine Wiederverwendung ungeeignet. Im Gegensatz dazu hat sich die Vorstellung von Objekten, die in einer Kollaboration Rollen spielen, als wertvolle Wiederverwendungsabstraktion erwiesen. Bestehende Lösungen zur Ermöglichung einer rollenbasierten Programmierung erfordern jedoch in der Regel umfangreiche Erweiterungen der zugrunde liegenden Programmiersprache und sind daher in der täglichen Arbeit schwer zu verwenden. Wir präsentieren eine auf dynamischen Proxys basierende Programmiertechnik, die es ermöglicht, den Typ eines Objekts zur Laufzeit zu erweitern und gleichzeitig eine starke statische Typsicherheit zu erhalten. Es ermöglicht rollenbasierte Implementierungen, die zu mehr Wiederverwendung und besserer Trennung von Bedenken führen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05201-9_3 2fee00c06d4d697571d0195d0749134a;de;;;3.2.;;;Ein einheitliches Tool für die Leistungsmodellierung und -vorhersage Wir beschreiben einen neuartigen Ansatz zur Modellierung der Leistungsfähigkeit, der die effiziente Lösung von Leistungsmodellen aus High-Level-Beschreibungen von Systemen ermöglicht. Die Notation, die wir für unsere High-Level-Designs verwenden, ist die grafische Modellierungssprache UML. Die Technologie, die die effiziente Darstellungsfähigkeit für das zugrunde liegende Leistungsmodell bereitstellt, ist der MTBDD-basierte PRISM Probabilistic Model Checker. Die UML-Modelle werden durch eine Zwischensprache kompiliert, die stochastische Prozessalgebra PEPA, bevor sie zur Lösung in MTBDDs übersetzt werden. Wir veranschaulichen unseren Ansatz an einem realen Analyseproblem aus dem Mobilfunkbereich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39878-3_15 eca23928d2ce81e0e90bd05f4ec7882a;de;;;3.2.;;;Reversible Schaltungssynthese durch genetische Programmierung unter Verwendung dynamischer Gate-Bibliotheken Wir haben eine neue Methode zur automatischen Konstruktion von reversiblen Logikschaltungen unter Verwendung des genetischen Programmieransatzes definiert. Die Wahl der Gate-Bibliothek ist 100% dynamisch. Der Algorithmus akzeptiert alle möglichen Kombinationen der folgenden Gattertypen: NOT TOFFOLI, NOT PERES, NOT CNOT TOFFOLI, NOT CNOT SWAP FREDKIN, NOT CNOT TOFFOLI SWAP FREDKIN, NOT CNOT PERES, NOT CNOT SWAP FREDKIN PERES, NOT CNOT TOFFOLI PERES und NICHT CNOT TOFFOLI SWAP FREDKIN PERES. Unser Verfahren erzeugte in einigen Fällen nahezu optimale Schaltungen, wenn eine bestimmte Teilmenge von Gattertypen in der Bibliothek verwendet wurde. Inzwischen wurden in einigen Fällen aufgrund der heuristischen Natur des Algorithmus optimale Schaltungen erzeugt. Wir haben die Ergebnisse unserer Methode mit mehreren bestehenden Synthesemethoden verglichen und es wurde gezeigt, dass unser Algorithmus im Vergleich zu den vorherigen Synthesemethoden in Bezug auf die Ausgabeeffizienz des Algorithmus und die Ausführungszeit relativ gut abschneidet.;-;-;-;https://link.springer.com/article/10.1007/s11128-017-1609-8 34f4d4929e36ed97d355aa5529021186;de;;;3.2.;;;Modelle und Modellierung in der Informatik Modelle sind ein universelles Instrument der Menschheit. Sie umgeben uns unser ganzes Leben lang und unterstützen alle Aktivitäten, auch wenn wir uns der Allgegenwart nicht bewusst sind. Sie sind so allgegenwärtig, dass wir ihre Bedeutung nicht erkennen. Die Informatik verwendet bei den meisten Aktivitäten auch stark Modelle als Begleiter. Inzwischen wurden Modelle zu einem der Hauptinstrumente. Die Natur und Anatomie von Modellen ist noch nicht richtig verstanden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-76020-5_17 99aa5c089b9bb912b54e744ecc34aa80;de;;;3.2.;;;Aktinfilament- und Mikrotubuli-basierte motorische Systeme: Ihre konzertierte Aktion während des Pollenschlauchwachstums Zytoskelett und Zytoskelett-Motorproteine ​​spielen eine wichtige Rolle bei der Keimung und dem Wachstum von Pollen. Es wird angenommen, dass sowohl Aktinfilamente als auch Mikrotubuli an der Erzeugung verschiedener zytoplasmatischer Bewegungen beteiligt sind, die das zytoplasmatische Strömen und die polare Organellenverteilung während der Pollenschlauchverlängerung ermöglichen. Myosine sowie mit Kinesinen/Dyneinen verwandte Polypeptide wurden als Mikrofilament- bzw. Mikrotubulus-Motorproteine ​​identifiziert, aber es werden noch Informationen benötigt, um die relativen Beiträge dieser beiden Motorsysteme zu verstehen. Dieses Papier macht auf ihre mögliche Zusammenarbeit bei der Keimung und dem Wachstum von Pollenschläuchen aufmerksam.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-59969-9_21 0fc31564f8f9b68ca8e35c050a9e48ca;de;;;3.2.;;;Probabilistische grafische Modellierung für die semantische Kennzeichnung von Crowdsourcing-Kartendaten Bedenken hinsichtlich der Genauigkeit von Crowdsourcing-Informationen schränken ihre Verwendung für mehrere reale datengesteuerte Anwendungen ein. In diesem Beitrag stellen wir eine neuartige Methodik zur automatisierten semantischen Vorhersage von Straßenetiketten in Crowdsourcing-Karten vor. Um die besten Beschriftungen für Straßen zu finden, verwenden wir ein ungerichtetes grafisches Modell, um drei Eigenschaften zu erfassen: die anfänglichen Straßenbeschriftungen, die von der Menge als Vorwissen angegeben wurden, die geometrischen Merkmale von Straßen und die inhärenten räumlichen Beziehungen, die zwischen den Straßen in einem Netzwerk bestehen . Mit dem Paradigma der Structural Support Vector Machine wird auf diesem Modell eine potentielle Funktion erlernt, die gemeinsam über die Straßenbeschriftungen im gesamten Netz optimiert. Wir evaluieren unsere Methodik anhand der OpenStreetMap-Daten für London und zeigen, dass unser Modell 8 verschiedene Straßentypbezeichnungen mit einer Genauigkeit von fast 90 Prozent vorhersagen kann. Unser Ansatz ist robuster und verbessert die vorherige Arbeit, bei der angenommen wurde, dass Straßen eine unabhängige und identische Verteilung haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-23258-4_19 3ff9dcc0b460652d85d883a831edf9f2;de;;;3.2.;;;Schützen Sie interaktive 3D-Modelle über die Vertex-Shader-Programmierung In 3D-Spielen, virtuellen Museen und anderen interaktiven Umgebungen werden 3D-Modi häufig interaktiv verwendet. Viele dieser Modelle sind wertvoll und müssen vor Missbrauch geschützt werden, z. B. durch widerrechtliche Ausstellung, bösartige Verbreitung usw. Eine praktische Lösung besteht darin, den interaktiven Benutzer zu vermeiden, präzise 3D-Modelle aus dem Datenstrom zwischen Anwendungen und 3D-APIs (wie Direct3D, OpenGL usw ) unter der Bedingung, dass die Interaktion nicht beeinträchtigt wird. Das in diesem Dokument vorgeschlagene Schema schützt 3D-Modi durch Vertex-Shader-Programmierung. Die Daten von 3D-Modellen werden zuerst in der 3D-Anwendung verschlüsselt und dann im Vertex-Shader entschlüsselt.;-;-;-;https://link.springer.com/chapter/10.1007/11558651_6 4ab64383cef0f9c7b69b68ef0dab4e64;de;;;3.2.;;;Geokonservierung in Portugal mit Schwerpunkt auf dem geomorphologischen Erbe Die Geokonservierung in Portugal hat insbesondere in den letzten zehn Jahren an Bedeutung gewonnen. Die Bestandsaufnahme der Geosites mit internationaler und nationaler wissenschaftlicher Relevanz ist nun abgeschlossen und die nationale Naturschutzgesetzgebung umfasst die Verwaltung von Geoerbe. 43 Prozent der inventarisierten Geosites sind Geomorphosite, was die Bedeutung dieser Art von geologischem Erbe für das portugiesische Naturerbe zeigt. Die geowissenschaftliche Gemeinschaft erkennt langsam die Geokonservierung als eine aufstrebende Komponente der Geowissenschaften an. Die Existenz von vier UNESCO Global Geoparks in Portugal ist auch ein Beispiel für das Engagement des Landes in der internationalen Geokonservierungsszene.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03641-0_24 b342b345cb2b66a051e6e2bb274a7093;de;;;3.2.;;;Modellierung und Design heterogener Systeme Wir präsentieren den in Metropolis verwendeten Modellierungsmechanismus, eine Designumgebung für heterogene eingebettete Systeme und eine Designmethodik, die auf dem für drahtlose Kommunikationssysteme erprobten Mechanismus basiert. Es wurde entwickelt, um die Wiederverwendbarkeit von Komponenten in den Systemen zu begünstigen, indem die Spezifikation orthogonaler Aspekte explizit über eine Reihe von Abstraktionsebenen entkoppelt wird. Es verwendet ein einziges Modell, um so spezifizierte Designs darzustellen, auf die nicht nur Simulationen, sondern auch Analyse- und Synthesealgorithmen relativ einfach angewendet werden können. Das Modell verwendet ausführbaren Code sowie denotationale Formeln, Klassen der Zeit- und Prädikatenlogik, sodass bei jeder Abstraktion die richtige Detailebene des Designs definiert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-36190-1_7 aa92f3b684181db1cb4ca27371e290ba;de;;;3.2.;;;Berechnung des Sparse-Matrix-Vektor-Produkts in hochpräziser Arithmetik für GPU-Architekturen Die Multiplikation einer dünnbesetzten Matrix mit einem Vektor (SpMV) ist die wichtigste und teuerste Komponente iterativer Verfahren für dünnbesetzte lineare Systeme und Eigenwertprobleme. Da Rundungsfehler oft zu einer schlechten Konvergenz iterativer Methoden führen, implementieren und bewerten wir in diesem Artikel die SpMV mit hochpräziser Arithmetik auf Grafikprozessoren (GPUs). Wir stellen zwei Implementierungen vor, die das CSR-Format (Compressed Sparse Row) verwenden. Die erste Implementierung ist ein skalarer hochpräziser CSR-Kernel, der einen Thread pro Matrixzeile verwendet. Die zweite Implementierung besteht aus zwei Schritten. Im ersten Schritt werden Matrix und Vektor Element für Element multipliziert. Die hohe Effizienz dieses Schrittes wird durch die Verwendung eines Restzahlensystems erreicht, das es ermöglicht, alle Stellen einer hochgenauen Zahl parallel mit mehreren Threads zu berechnen. Der zweite Schritt ist eine segmentierte Reduktion der Zwischenergebnisse. Die experimentelle Auswertung zeigt, dass unsere Implementierungen bei gleicher Präzision im Allgemeinen schneller sind als CSR-Kernel, die auf bestehenden hochpräzisen Universalbibliotheken für GPUs aufbauen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-78759-2_28 3b1d4b3550f2d05204064c51c646fe8b;de;;;3.2.;;;Notfallbasiertes Remote-Sicherheitsverfolgungssystem mit der Android-Mobilplattform von Google Die Einführung von Smartphones hat die Nutzung von Mobiltelefonen in der Kommunikationswelt neu definiert. Smartphones sind mit verschiedenen ausgeklügelten Funktionen wie Wi-Fi, GPS-Navigation, hochauflösender Kamera, Touchscreen mit Breitbandzugang ausgestattet, die den Mobiltelefonbenutzern helfen, mit der modernen Welt in Kontakt zu bleiben. Viele dieser Funktionen sind hauptsächlich in das mobile Betriebssystem integriert, das für die Öffentlichkeit nicht zugänglich ist, sodass die Benutzer diese Funktionen nicht manipulieren können. Google hat ein innovatives Betriebssystem namens ANDROID entwickelt, das eine offene Systemarchitektur mit anpassbarer Entwicklungs- und Debugging-Umgebung von Drittanbietern ist, die dem Benutzer hilft, die Funktionen zu manipulieren und eigene anpassbare Anwendungen zu erstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-30111-7_37 95029c2a4ccbe2a0ae5ea8af0451c454;de;;;3.2.;;;Die Klassifizierung der traditionellen chinesischen Malerei basierend auf CNN Die traditionelle chinesische Malerei hat eine extrem lange und ununterbrochene Geschichte, die es für die Menschen wertvoll macht, sie zu studieren und zu analysieren. Inzwischen hat das Convolutional Neural Network einen großen Erfolg auf dem Gebiet der Bildverarbeitung erzielt. Es gibt jedoch relativ weniger Forschung zur Anwendung des Convolutional Neural Network auf traditionelle chinesische Malereibilder. Basierend auf dem Inhalt des Gemäldes werden traditionelle chinesische Gemälde in drei Typen eingeteilt – Figurenmalerei, Blumen-und-Vogel-Malerei und Landschaftsmalerei. In diesem Artikel verwenden wir mehrere klassische neuronale Faltungsnetzwerke, um Bilder traditioneller chinesischer Malerei nach dem Inhalt des Gemäldes zu klassifizieren. Obwohl einige Netzwerke eine ideale Klassifikationsgenauigkeit erreichen, kosten sie dennoch viel Zeit und Speicher. Um dieses Problem anzugehen, modifizieren wir die Architektur des VGG-16-Netzwerks – indem wir eine Faltungsschicht löschen und dem Netzwerk Dropout hinzufügen. Schließlich erreicht das VGG-15 (mit Dropout) eine Klassifikationsgenauigkeit von 93,8 % bei dennoch relativ geringem Zeit- und Speicherverbrauch.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00009-7_22 66edfcca608af24d8f027e46ad974ced;de;;;3.2.;;;Einführung: High Performance Computing und die Technologie von Switch-basierten Computernetzwerken Viele wichtige Forschungsprobleme in Mathematik, Natur- und Ingenieurwissenschaften lassen sich nur durch sehr anspruchsvolle Berechnungen auf Supercomputern lösen. Da diese Maschinen sehr teuer sind, sind sie selten. Daher ist es schwierig, auf sie zuzugreifen. Die jüngste Einführung neuer Hochgeschwindigkeitsnetztechnologien könnte diese Situation ändern. In naher Zukunft wird die kombinierte Rechenleistung eines Clusters von Workstations, die durch ein lokales Hochgeschwindigkeitsnetzwerk verbunden sind, wahrscheinlich mit der eines aktuellen eigenständigen Supercomputers vergleichbar sein. Solche kostengünstigen und skalierbaren Einrichtungen versprechen, das Arbeitspferd für zukünftige groß angelegte wissenschaftliche und technische Anwendungen zu werden. Der Zugang zu solchen Einrichtungen ist für Universitäten besonders wichtig, da sie ein kostengünstigerer Ersatz für teure, traditionelle Supercomputer sind.;-;-;-;https://link.springer.com/chapter/10.1007/3540761691_1 085a6d38e665e2c6b954bbe5b3e61235;de;;;3.2.;;;Komplexe adaptive Systemmodellierung mit Repast Simphony Dieses Whitepaper beschreibt die Entwicklung der Features und Funktionen von Repast Simphony, der weit verbreiteten, kostenlosen und Open-Source-Agenten-basierten Modellierungsumgebung, die auf der Repast 3-Bibliothek aufbaut. Repast Simphony wurde von Grund auf mit einem Fokus auf wohlfaktorierte Abstraktionen entwickelt. Der resultierende Code hat eine modulare Architektur, die es ermöglicht, einzelne Komponenten wie Netzwerke, Protokollierung und Zeitplanung bei Bedarf auszutauschen. Die Repast-Familie agentenbasierter Modellierungssoftware wird seit mehr als 10 Jahren kontinuierlich weiterentwickelt.;-;-;-;https://link.springer.com/article/10.1186/2194-3206-1-3 36858e07221bf58b44a33a08b62260a2;de;;;3.2.;;;Antigenpräsentation Wir diskutieren drei Bereiche der Antigenpräsentation und der Makrophagenbiologie, die im Labor untersucht werden. Unter Verwendung von Hühnereiweiß-Lysozym als Proteinantigen werden alle Segmente der Moleküle ausgewählt durch das Klasse-II-Histokompatibilitätsmolekül;-;-;-;https://link.springer.com/article/10.1385/IR%3A32%3A1-3%3A267 7b52394c9d77d1b9da519642b9e2f087;de;;;3.2.;;;Linkvorhersage durch Netzwerkanalyse Link Prediction bezieht sich auf den Prozess des Minings und der Bestimmung, ob eine Verbindung zwischen zwei Knoten in einem bestimmten Netzwerk in Zukunft entstehen könnte oder bereits vorhanden, aber im Netzwerk verborgen ist. Die Linkvorhersage kann in die Klasse der Empfehlungssysteme eingeordnet werden, z. B. das Finden oder Vorhersagen von Links/Empfehlungen zwischen Benutzern und Elementen. Daher steht die effiziente Linkvorhersage in sozialen Netzwerken im Fokus der in diesem Beitrag beschriebenen Studie. Das Auffinden versteckter Links und das Extrahieren fehlender Informationen in einem Netzwerk hilft bei der Identifizierung einer Reihe neuer Interaktionen. Wir haben eine Technik zur Linkvorhersage entwickelt, indem wir die Vorteile von Analysetools und Algorithmen für soziale Netzwerke aufzeigen. Wir haben beliebte Netzwerkmodelle verwendet, die häufig von der Forschungsgemeinschaft verwendet werden, um die Genauigkeit unserer Algorithmen gegen bekannte Algorithmen zu testen, die zu Ähnlichkeitsmaßen führen. Wir entschieden uns auch für die Verwendung einer Graphdatenbank, um das Netzwerk zu modellieren, um eine bessere Skalierbarkeit und Effizienz im Vergleich zur Speicherung von Graphinformationen in einer relationalen Datenbank zu bieten. Die in diesem Papier berichteten experimentellen Ergebnisse zeigen, wie der vorgeschlagene Algorithmus herkömmliche in der Literatur beschriebene Algorithmen zur Linkvorhersage übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-51049-1_5 4058a4dbb31fbb2e61489096d8eab03f;de;;;3.2.;;;Von der Natur inspirierte Optimierungsalgorithmen für die Community-Erkennung in komplexen Netzwerken: ein Rückblick und zukünftige Trends In den letzten Jahrzehnten hat das Forschungsgebiet der Netzwerk-Community-Erkennung einen erheblichen Zuwachs an Popularität erfahren, was zu einer breiten Palette von Forschungen in der Literatur geführt hat. Von der Natur inspirierte Optimierungsalgorithmen (NIAs) haben einen bedeutenden Beitrag zur Lösung des Problems der Community-Erkennung geleistet, indem sie die Grenzen anderer Techniken überwunden haben. Aufgrund der Bedeutung des Themas und seiner Bedeutung in vielen Anwendungen sind die Informationen darüber jedoch in verschiedenen Zeitschriften, Konferenzbänden und Patenten verstreut und es fehlte eine fokussierte Literatur, die sie in einem einzigen Dokument zusammenfasst. Diese Übersicht soll einen Überblick über die NIAs und ihre Rolle bei der Lösung von Community-Erkennungsproblemen geben. Um dieses Ziel zu erreichen, wird eine systematische Studie zu NIAs durchgeführt, gefolgt von einer historischen und statistischen Analyse der beteiligten Forschungen. Dies würde zur Identifizierung zukünftiger Trends sowie zur Entdeckung der damit verbundenen Forschungsherausforderungen führen. Dieser Review bietet Forschern einen Leitfaden, um neue Forschungsbereiche zu identifizieren und ihr zukünftiges Interesse auf die Entwicklung effektiverer Frameworks im Kontext von von der Natur inspirierten Algorithmen zur Erkennung von Gemeinschaften zu lenken.;-;-;-;https://link.springer.com/article/10.1007/s11235-019-00636-x c54f7b8c3781bdd890da1d1a9f90333b;de;;;3.2.;;;Wo sind alle Agenten? Zur Kluft zwischen Theorie und Praxis agentenbasierter Empfehlungsnetzwerke Die intrinsische Offenheit und Dynamik der Vision Service-Oriented Computing (SOC) macht es entscheidend, nützliche Dienste zu finden und als vertrauenswürdig anzuerkennen. Um dieser Herausforderung zu begegnen, wurden kürzlich Empfehlungsnetzwerke als dezentraler Ansatz basierend auf Software-Agenten-Technologie vorgeschlagen. Obwohl diese Idee theoretisch vielversprechend erscheinen mag, um die SOC-Vision zu ermöglichen, fehlen noch immer reale Verweissysteme. In diesem Beitrag untersuchen wir diese Kluft zwischen Theorie und Praxis aus Sicht der Agentenkommunikation, da sie ein wesentliches Merkmal agentenbasierter verteilter Systeme darstellt. Dazu beleuchten wir zunächst die wichtigsten Anforderungen an die Agentenkommunikation, die erforderlich sind, um reale agentenbasierte Empfehlungsnetzwerke zu bewältigen. Zweitens diskutieren wir, warum die Standardsprache für die Agentenkommunikation (FIPA ACL) nicht geeignet ist, diese Anforderungen zu unterstützen. Schließlich veranschaulichen wir kurz, wie sie von einer fortgeschrittenen Agentenkommunikationssprache, nämlich FT-ACL, leicht erfüllt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11161-7_36 39400c7b111b384cac4845f8446687b2;de;;;3.2.;;;Ein Malware-Erkennungsmodell basierend auf einem negativen Auswahlalgorithmus mit Penalty-Faktor In diesem Beitrag wird ein Malware-Erkennungsmodell basierend auf einem negativen Auswahlalgorithmus mit Straffaktor (NSAPF) vorgeschlagen. Dieses Modell extrahiert eine Malware-Anweisungsbibliothek (MIL), die Anweisungen enthält, die dazu neigen, in Malware zu erscheinen, durch eine tiefe Anweisungsanalyse in Bezug auf die Anweisungshäufigkeit und Dateihäufigkeit. Aus der MIL erstellt das vorgeschlagene Modell eine Malware-Kandidaten-Signaturbibliothek (MCSL) und eine Malware-ähnliche Signaturbibliothek (BPMSL) für gutartige Programme, indem Programme geordnet in verschiedene kurze Bitfolgen aufgeteilt werden. Je nachdem, ob eine Signatur mit „selbst“ übereinstimmt, unterteilt das NSAPF die MCSL weiter in zwei Malware-Erkennungs-Signaturbibliotheken (MDSL1 und MDSL2) und verwendet diese als zweidimensionale Referenz zur Erkennung verdächtiger Programme. Das Modell klassifiziert verdächtige Programme als Schadprogramme und harmlose Programme, indem es die Werte der verdächtigen Programme mit MDSL1 und MDSL2 abgleicht. Einführung eines Straffaktors;-;-;-;https://link.springer.com/article/10.1007/s11432-010-4123-5 3bfe29608db2e34a23179faae68ed976;de;;;3.2.;;;Dokumentenerkennung für eine digitale Bibliothek Unsere Arbeit betrifft drei Hauptprozesse, die beim Aufbau einer DL-Datenbank für IR helfen. Es wird gezeigt, dass mehrere Komponenten des Systems für die Erstellung einer DL-Datenbank nützlich sind. Das Design dieser Prozesse unterstreicht die Bedeutung von Robustheit und einfacher Anpassung an die Verarbeitung unterschiedlicher Dokumente. Die von diesen Prozessen erzeugte Ausgabe ermöglicht es dem IR-Mechanismus, eine intelligente Antwort auf Benutzeranfragen zu erzeugen. In diesem Kapitel wurde ein adaptiver Ansatz zum Verständnis von Dokumenten vorgestellt. Seine Robustheit erwies sich als entscheidend für den Erfolg bei der Verarbeitung unterschiedlicher Bibliotheksdokumente. In diesem Kapitel wurde auch eine Anpassung des Vektorraummodells für die Informationsgewinnung vorgestellt, um die Leistung eines Worterkennungsalgorithmus zu verbessern. Die durch Worterkennung bestimmten Nachbarschaften von visuell ähnlichen Wörtern werden mit einer Dokumentendatenbank abgeglichen und eine Untermenge von Dokumenten mit Themen bestimmt, die denen des Eingabebilds ähnlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0026853 a422923d6ff62a0df98b424044c08bed;de;;;3.2.;;;Widerstandsfähigkeit sozialer Netzwerke bei unterschiedlichen Angriffsstrategien In den letzten Jahren hat sich die Welt durch das Aufkommen verschiedener Arten von sozialen Netzwerken zu einer eng verbundenen Gesellschaft entwickelt. Soziale Online-Netzwerke haben eine Möglichkeit geschaffen, lange Distanzen zu überbrücken und zahlreiche Kommunikationskanäle zu etablieren, die früher nicht möglich waren. Diese Netzwerke zeigen ein interessantes Verhalten bei absichtlichen Angriffen und zufälligen Fehlern, bei denen verschiedene strukturelle Eigenschaften die Widerstandsfähigkeit auf unterschiedliche Weise beeinflussen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03260-3_2 bd57c6941fea7081794678acea4700f2;de;;;3.2.;;;Assoziationen implementieren: UML 2.0 bis Java 5 Ein bedeutendes aktuelles Software-Engineering-Problem ist die konzeptionelle Diskrepanz zwischen dem abstrakten Konzept einer Assoziation, wie es in Modellierungssprachen wie UML gefunden wird, und den in objektorientierten Sprachen wie Java verfügbaren Ausdrucksmöglichkeiten niedrigerer Ebene. In diesem Whitepaper werden einige Codegenerierungsmuster vorgestellt, die die Erstellung von Java-basierten Implementierungen aus UML-Modellen unterstützen. Die Arbeit ist motiviert durch ein Projekt zur Konstruktion modellgetriebener Entwicklungswerkzeuge zur Unterstützung des Baus eingebetteter Systeme. Dies beinhaltet die Spezifikation und Implementierung einer Reihe von Metamodellen (oder Sprachmodellen). Viele aktuelle UML-orientierte Werkzeuge bieten Möglichkeiten zur Codegenerierung, insbesondere die Generierung von objektorientiertem Code aus Klassendiagrammen. Viele der komplexeren Aspekte von Klassendiagrammen, wie z. B. qualifizierte Assoziationen, werden jedoch nicht unterstützt. Darüber hinaus werden mehrere Konzepte, die in UML Version 2.0 eingeführt wurden, ebenfalls nicht unterstützt diese neuen und komplexen Assoziationskonzepte. Diese Muster verbessern die Codegenerierungsfähigkeiten von UML-Tools erheblich und bieten eine nützliche Automatisierungseinrichtung, die die Lücke zwischen dem Konzept einer Assoziation und objektorientierten Programmiersprachen niedrigerer Ebene schließt.;-;-;-;https://link.springer.com/article/10.1007/s10270-006-0020-1 9aac4bd7cb4547e6a9cad425602d21ac;de;;;3.2.;;;Chemie in der Lösungsphase In Zukunft wird die Nanotechnologie verwendet, um verbesserte Generationen von Assemblern zu bauen (Drexler, 1986). Die erste Generation der Nanotechnologie wird voraussichtlich mit konventionellen chemischen und molekularbiologischen Methoden aufgebaut. In diesem Kapitel werden wir die Chemie in der Lösungsphase untersuchen. Es ist die Hauptthese dieses Buches, dass die Chemie in Lösung und das Protein-Engineering uns in die erste Generation der Nanotechnologie führen werden. Ich werde die Grundlagen der Chemie in Lösung und des Molecular Engineering aus der Perspektive eines Informatikers oder Nichtchemikers vorstellen. Ein Großteil des Gebiets der organischen Chemie wird abstrahiert und in mathematischer Form für eine mögliche Computermodellierung präsentiert. Um dem Leser zu ermöglichen, diese Fragen weiter zu verfolgen, wurden die Verweise ausgewählt, um Hinweise auf detailliertere Quellen zu geben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-3556-7_2 f7f94623f66d462f8ad034aaeef2e433;de;;;3.2.;;;Elliptische Kurve mit optimal gemischtem Montgomery-Edwards-Modell für Low-End-Geräte Dieser Artikel stellt eine spezielle Familie von verdrehten Edwards-Kurven vor, die als optimale gemischte Montgomery-Edwards (OME)-Kurven bezeichnet werden. Die OME-Kurve wird unter Ausnutzung der Tatsache vorgeschlagen, dass jede verdrehte Edwards-Kurve birational einer elliptischen Kurve in Montgomery-Form entspricht. Die OME-Kurven erzielen eine optimale Gruppenarithmetik sowohl für das Twisted Edwards-Modell als auch das Montgomery-Modell. Insbesondere das Montgomery-Modell der OME-Kurven benötigt nur 3;-;-;-;https://link.springer.com/article/10.1007/s11432-015-5410-y c74d75bc4a3b56ac84bf8ed578e30593;de;;;3.2.;;;Die Auswirkungen des trophischen Niveaus auf die Stabilität von Nahrungsnetzen Die Untersuchung von Nahrungsnetzen ist seit langem ein zentrales Thema der ökologischen Forschung, aber die strukturellen Auswirkungen der trophischen Ebene auf ihre Stabilität sind noch nicht klar. Die hier beschriebene Arbeit befasst sich mit dem Einfluss einer Einschränkung aufgrund der trophischen Ebene auf die Netzwerktopologie von Nahrungsnetzen, die ihr globales Verhalten beeinflusst. Wir schlagen ein Netzwerkmodell von Nahrungsnetzen vor, bei dem der Grad der Auswirkungen des trophischen Niveaus auf die Artbildung durch einen einzigen Parameter kontinuierlich angepasst werden kann. Die Beschränkung begrenzt die Anzahl der Arten auf jeder Ebene und die Etablierung von Beute-Raubtier-Beziehungen zwischen entfernten Ebenen. Experimentelle Ergebnisse zeigen, dass die Einschränkung zur Stabilität des Ökosystems beiträgt. Dies liegt daran, dass durch die starke Einschränkung weniger robuste Arten auf den unteren Ebenen reichlich vorhanden sind, indem die Verteilung der Artenzahl auf jeder Ebene flach gemacht wird, während die Verteilung ohne die Einschränkung eine inverse pyramidale Struktur wurde. Auf der anderen Seite fanden wir heraus, dass einige Merkmale des Netzwerks, wie die Potenzgesetzverteilung der Koextinktionsgrößen und die Anzahl der Prädatoren, nicht vom Grad der Einschränkung abhängen. Wir zeigen auch mehrere Vergleiche der experimentellen Daten mit empirischen Daten in den Fossilienfunden.;-;-;-;https://link.springer.com/article/10.1007/s10015-009-0689-7 94c316e00f107ece2cf68e501b9069ca;de;;;3.2.;;;Echte Datensätze für File-Sharing-Peer-to-Peer-Systeme Der grundlegende Nachteil unstrukturierter Peer-to-Peer (P2P)-Netzwerke ist das überflutungsbasierte Abfrageverarbeitungsprotokoll, das ihre Skalierbarkeit stark einschränkt. Als Ergebnis konzentrierte sich ein beträchtlicher Teil der Forschungsarbeit auf die Entwicklung effizienter Suchprotokolle, die die Gesamtkommunikationskosten reduzieren. Was jedoch fehlt, ist die Verfügbarkeit echter Daten über den genauen Inhalt der Bibliotheken der Nutzer und die Anfragen, die diese Nutzer stellen. Die Verwendung von Trace-gesteuerten Simulationen wird deutlich aussagekräftigere Ergebnisse erzielen und die Effizienz eines generischen Abfrageverarbeitungsprotokolls in einem realen Szenario weiter veranschaulichen.;-;-;-;https://link.springer.com/chapter/10.1007/11408079_19 d5176adb67052e2e4780b202a494e244;de;;;3.2.;;;Leistungssteigerung bei der Datenübertragung in Multi-Gigabit-Wide Area Networks In den letzten Jahren ist die Menge der produzierten Daten und WAN-Benutzer schnell gewachsen, z. Laut IBM Cloud Marketing Forschung ist die Zahl der Internetnutzer von 2,4 Milliarden im Jahr 2014 auf 4,4 Milliarden im Jahr 2019 gestiegen. Über 90% der weltweiten Daten wurden seit 2016 mit der täglichen Auffüllung von 2,5 Trillionen Bytes generiert. Folglich steigt auch die Nachfrage nach Technologien, die solche Verkehrsmengen bewältigen können. Gleichzeitig veränderten sich die Anforderungen an die Qualität dieser Technologien. Teilweise aufgrund von Veränderungen der Arten des Internetverkehrs, beispielsweise ist ein größerer Teil moderner Netzwerke mit Medienverkehr gefüllt, einige neue Technologien wie das IoT erfordern eine Übertragung mit geringer Latenz. Ein weiterer Teil des Problems ist die Effizienz, da mit der Erhöhung der Datenraten auch die Gesamtverluste durch ineffiziente Architekturen steigen, was zu finanziellen Verlusten führen kann. Obwohl diese Probleme mit spezieller Hardware gelöst werden könnten, ist ein solcher Ansatz weniger flexibel und erfordert massive finanzielle Investitionen. Daher wünschen sich viele Service Provider eine Lösung, die die vorhandene Hardware-Infrastruktur eines Providers nutzt. Dieser Artikel bietet einen Überblick über Softwarelösungen, die entwickelt wurden, um diese Probleme ohne wesentliche Änderungen der bestehenden Architektur zu bewältigen. Der Lösungskomplex zielt auf verschiedene Teile des allgemeinen Problems und besteht aus Algorithmen, die Netzwerküberlastung, Beschleunigung der Paketverarbeitung, effizientes Transportprotokoll, Methoden der Verkehrsverteilung und Netzwerkanalyse behandeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58359-0_9 c7dc542968c8ba276f0d07c624f28257;de;;;3.2.;;;Pflanzenglykomik: Fortschritte und Anwendungen Glykomik, die Untersuchung des gesamten Zuckerkomplements in einem Organismus, hilft bei der Analyse der Interaktion von Zucker mit anderen Makromolekülen wie Kohlenhydraten, Proteinen und Nukleinsäuren. Größere strukturelle Komplexität, nichtlineare Beziehung von Glykanen zum Genom und Schwierigkeiten bei der Isolierung, Charakterisierung und Synthese komplexer Oligosaccharide stellen eine bedeutende Herausforderung für Glykomika dar. Die Isolierung pflanzlicher Glykokonjugate aus natürlichen Quellen ist aufgrund des Fehlens anwenderfreundlicher Werkzeuge mit hohem Durchsatz ein komplexer Prozess. Die jüngsten chemischen Fortschritte haben neue und aufregende Möglichkeiten eröffnet, reine und chemisch definierte Glykaneinheiten zu erhalten. Chromatographische Techniken, Tandem-Massenspektrometrie, MALDI-Massenspektrometrie, ESI-Massenspektrometrie, NMR-Spektroskopie und Kohlenhydrat/Lectin-Mikroarray sind wichtige Werkzeuge für die Glykomik. Glykogen-Mikroarrays sind nützlich, um unterschiedlich exprimierte Glykosylierungs-bezogene Gene zu identifizieren und die Glykan-Biosynthese, -Struktur und -Funktion zu untersuchen. Effiziente Glykoinformatik hat die glykomische Forschung durch Verbesserung der Datenqualität und Senkung der Versuchskosten erheblich bereichert. Glykane einschließlich Lektine verleihen Pflanzen sowohl strukturelle als auch funktionelle Vielfalt und sind in transgenen Technologien nützlich, um die Resistenz gegen Pathogene und Schädlinge zu erhöhen. Pflanzenglykomika finden ihre Anwendung in der Biopharmazie und Biopharmazeutik und bieten ein neues Gebiet der fortgeschrittenen Glykomforschung zum Verständnis der Struktur-Funktions-Beziehungen von Glykanen. Die Geheimnisse der Glykomika zu enträtseln wäre in der Tat sehr nützlich, da Zucker eine Schlüsselrolle in vielen biologischen Prozessen wie Signalübertragung, Stressreaktionen und Immunität spielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-81-322-2172-2_10 a449e13796313fe1e22c7d73227a2fc2;de;;;3.2.;;;Energieverteilungsplanung und Anwendung der linearen Mixed-Integer-Programmierung Die Planung von Stromverteilungsnetzen ist ein komplexer Prozess, bei dem die Anwendung mathematischer Modelle und Optimierungsverfahren in den letzten Jahren stark zugenommen hat. Es wird ein Überblick über Probleme im Zusammenhang mit der Synthese von Verteilnetzen gegeben. Der Planungsprozess wird analysiert und der Computereinsatz in speziellen Bereichen diskutiert. Eine grundlegende Aufgabe ist die Auswahl eines geeigneten mathematischen Optimierungsverfahrens. Maßgeblich hierfür sind die Hauptmerkmale von Modellen zur Verteilungsplanung. Ein Vergleich der Eigenschaften und Fähigkeiten verschiedener Optimierungsverfahren zeigt die Vorteile der linearen gemischt-ganzzahligen Programmierung. Hierfür stehen effiziente Algorithmen nach dem Branch-and-Bound-Prinzip als Standardprogrammprodukte zur Verfügung [1]. Das Verfahren ist für beliebige Verteilungsplanungsprobleme wirtschaftlich nicht geeignet. Empfehlenswert sind eine strenge Problemauswahl und eine genaue Problemformulierung. Modellierungstechniken beeinflussen stark die Lösungszeit und daher wird ein kurzer Überblick gegeben. Ein Beispiel im Anhang veranschaulicht die Anwendung auf ein typisches Problem.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-7901-7_10 a255ab98b1dacdaf9f483fe7e1b2ac89;de;;;3.2.;;;Broadcast-Kommunikation in ATM-Computernetzwerken und Entwicklung mathematischer Algorithmen Dieser Artikel betont die Bedeutung der kollektiven Kommunikation und insbesondere der Sendungen in mathematischen Algorithmen. Es weist darauf hin, dass Algorithmen in der diskreten Mathematik in der Regel größere Datenmengen schneller übertragen als typische Gleitkomma-Algorithmen. Es beschreibt das o.tel.o ATM Testbed des GMD National Research Center for Information Technology, St. Augustin, und des Instituts für Experimentelle Mathematik, Essen und die Erfahrungen mit verteiltem Rechnen in diesem Netzwerk. Es stellt sich heraus, dass die aktuellen Implementierungen von IP over ATM und Bibliotheken für verteiltes Rechnen noch nicht für Hochleistungsrechnen geeignet sind. ATM selbst ist jedoch in der Lage, schnelle Broadcasts oder Multicasts durchzuführen. Daher kann es sich lohnen, eine Message-Passing-Bibliothek basierend auf nativem ATM zu entwerfen.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0110095 ea36ca8807a08cd456cd158504b66800;de;;;3.2.;;;Evolutionäre Robotik Evolutionary Robotics ist eine Methode zur automatischen Generierung künstlicher Gehirne und Morphologien autonomer Roboter. Dieser Ansatz ist sowohl für die Untersuchung des Designraums von Roboteranwendungen als auch für die Prüfung wissenschaftlicher Hypothesen über biologische Mechanismen und Prozesse nützlich. In diesem Kapitel geben wir einen Überblick über Methoden und Ergebnisse der Evolutionären Robotik mit Robotern unterschiedlicher Formen, Abmessungen und Betriebseigenschaften. Wir betrachten sowohl simulierte als auch physische Roboter mit besonderer Berücksichtigung des Transfers zwischen den beiden Welten.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-540-30301-5_62 4c8406f7caee31fcfc5e44de384a04e2;de;;;3.2.;;;Ein universeller Virtualisierungsdienst für HPC auf Cloud Computing: Eine Anwendung für GPUs Dieses Whitepaper beschreibt den generischen Virtualisierungsdienst GVirtuS (Generic Virtualization Service), ein Framework zur Entwicklung von Split-Treibern für Cloud-Virtualisierungslösungen. Das Hauptziel von GVirtuS ist die Bereitstellung von Tools zur Entwicklung elastischer Computing-Abstraktionen für leistungsstarke private und öffentliche Computing-Clouds. In diesem Whitepaper konzentrieren wir uns auf die GPU-Virtualisierung. GVirtuS ist jedoch nicht auf beschleunigerbasierte Architekturen beschränkt: Ein virtuelles paralleles Hochleistungsdateisystem und ein MPI-Kanal sind laufende Projekte, die auf unserer Split-Treiber-Virtualisierungstechnologie basieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31464-3_75 f9695248704c058f1e6ba7ea61f1d45d;de;;;3.2.;;;Erkennung von schlechten Informationen in Mobilfunknetzen basierend auf dem Wireless Application Protocol Der Umfang der Mobilfunknetze nimmt stark zu. Viele Websites in den WAP-Netzwerken enthalten jedoch obszöne Informationen, Viren und Trojaner. Das Crawlen, Beurteilen und Lokalisieren dieser schlechten Websites ist ein schwieriges Problem. In diesem Artikel wird ein WAP-Erkennungssystem für schlechte Informationen vorgeschlagen, das Crawling-, Beurteilungs- und Standort-Subsysteme enthält, um schlechte WAP-Websites zu identifizieren. Das verteilte Crawling ist angepasst, um die IP-Beschränkung von WAP-Netzwerken zu durchbrechen. Die automatische Klassifizierung von Text und Bild wird in das Beurteilungssubsystem eingeführt. Das Lokalisierungs-Subsystem kann die fehlerhaften Sites lokalisieren und die Beweise sammeln. Die Versuchsergebnisse bestätigen, dass unser WAP-Erkennungssystem für schlechte Informationen eine hohe Effizienz und Genauigkeit aufweist.;-;-;-;https://link.springer.com/article/10.1007/s00607-013-0325-1 f216100a8351511439967068cee806c5;de;;;3.2.;;;Die Implementierung eines Campus-Luftüberwachungssystems mit dem LoRa-Netzwerk Wir alle wissen, dass die Entfernung zwischen dem Strom- und dem Kommunikationsnetz die Geschwindigkeit des Einsatzes der Überwachungsstation beeinflusst. Der Terminalsensor dieses Papiers überträgt Daten über das LoRa-Low-Power-Netzwerk und bietet unseren schnellen Einsatz von Überwachungsstationen, damit wir auf einfache Weise detaillierte Informationen sammeln können Die Datenübertragung ist stabil und zuverlässig. Wir planen, sechs Überwachungsstandorte in der Schulverteilung im Innen- und Außenbereich einzurichten, jede Minute zurück zur Systemdatenbank über die OSM-Karte (Open Street Map) Anzeige ermöglicht uns die sofortige Überwachung der Überwachungsstation des Campus der Tokai-Universität und der Umgebung sammeln Informationen von der Umweltschutzabteilung des Executive Yuan, um Informationen über die Integrität der Luftqualität des Campuslebens bereitzustellen, und unsere historischen Daten werden gesammelt und in der Kibana-Zeichnung des ELK-Stapels erstellt. Grafische Analyse und regionaler Vergleich, wir haben auch den vorherigen Satz der Datenübertragung über das Wi-Fi-System verglichen, um einen Vergleich durchzuführen und Echtzeit-Analyse und -Auswertung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3648-5_46 e5946334dca3ceefeef1da522853dcd4;de;;;3.2.;;;Entdeckung einer Sparse-Formel basierend auf der Methode des elastischen Netzwerks und ihre Anwendung bei der Identifizierung von Turbulenten Grenzschichtwandfunktionen Die Extraktion von Regelgleichungen aus Daten ist eine zentrale Herausforderung in verschiedenen Bereichen der Natur- und Ingenieurwissenschaften. Wo Daten reichlich vorhanden sind, während Modelle oft schwer fassbar bleiben, wie in den Klimawissenschaften, Neurowissenschaften, Ökologie, Finanzen und Epidemiologie. Es wird ein Sparse-Repräsentationsalgorithmus basierend auf der Elastic Network-Optimierung vorgeschlagen, der die Vorteile von kleinsten Quadraten und Lasso kombiniert, um die Funktionsform direkt aus den Daten zu identifizieren. Das Verfahren entwirft die Kandidatenfunktionsterme gemäß Hintergrundwissen und verwendet den Optimierungsalgorithmus für elastische Netzwerke, um die unbekannten Koeffizienten jedes Terms mit dem Modell zu identifizieren. Der Ansatz hält ein Gleichgewicht zwischen Genauigkeit und Modellkomplexität aufrecht und vermeidet eine Überanpassung. Die Wandfunktionsmethode wird häufig zur Behandlung der turbulenten Grenzschicht verwendet, die die Konvergenzrate im Vergleich zur wandnahen Turbulenzmodellierung mit angemessener Genauigkeit beschleunigen kann. Der vorgeschlagene Algorithmus wird verwendet, um die Wandfunktion aus den turbulenten Wanddaten abzuleiten. Experimentelle Ergebnisse zeigen, dass der vorgeschlagene Algorithmus LASSO und kleinste Quadrate beim Erhalten des Modells überlegen ist und schneller als numerische Berechnungen ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0705-9_3 4176adf97b5f02e734490dc6c75e11da;de;;;3.2.;;;Eine Modellierungs- und Optimierungsmethode für heterogene Objekte basierend auf der Theorie komplexer Netzwerke Heterogene Objekte (HEO), die sich auf Produktmodelle mit räumlich unterschiedlichen Materialzusammensetzungen oder Strukturen beziehen, haben im letzten Jahrzehnt aufgrund neuer Techniken in Design und Fertigung in verschiedenen Disziplinen große Aufmerksamkeit auf sich gezogen. Die jüngsten additiven Fertigungstechnologien haben die Lücke zwischen Design und Fertigung für HEO geschlossen. Die Modelle sind das Herzstück der additiven Fertigung, während der Entwurf heterogener Objekte noch immer eine komplexe Aufgabe ist. In diesem Beitrag wird zunächst eine neuartige HEO-Modellierungsmethode basierend auf der Theorie komplexer Netzwerke vorgeschlagen. Es modelliert die ausgehöhlte Voronoi-Zelle als Knoten und die Kraftbeziehung zwischen ihnen als Kanten. Die Knoten werden durch die Spannungsverteilung im Modus gewichtet. Der kraftgerichtete Algorithmus wird angewendet, um das anfängliche poröse Modell zu konstruieren. Ein gemischter genetischer Algorithmus wird dann verwendet, um die Anzahl und Verteilung poröser Strukturen genau anzupassen, was notwendig ist, um Verbrauch und Druckkosten zu senken. Das volumenminimierte HEO-Modell wird schließlich archiviert.;-;-;-;https://link.springer.com/article/10.1007/s10586-017-1378-2 1256473ab4860d9369e2c0e63f9dbc53;de;;;3.2.;;;Bitcoin Node Discovery: Groß angelegte empirische Bewertung von Network Churn Bitcoin wurde am 3. Januar 2009 von Nakamoto Satoshi gegründet, basierend auf einem grenzenlosen Peer-to-Peer-Netzwerk, das mit Open-Source-Software der Konsensinitiative gegründet wurde. Es gibt viele Knoten im Bitcoin-Netzwerk. Durch das Entdecken und Analysieren dieser Knoten können wir einige der Eigenschaften von Bitcoin- und Blockchain-Netzwerken zusammenfassen. In diesem Papier wurden die folgenden Arbeiten abgeschlossen: (1) Erklären Sie den Kommunikationsprozess und die zugehörigen Protokolle von Bitcoin-Knoten. (2) Großflächige Entdeckung von Bitcoin-Knoten. (3) Analysieren und fassen Sie die Dynamik der Knoten zusammen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-24268-8_36 e610a5cb8568289e23063258582a8afd;de;;;3.2.;;;Verwendung von GPGPU-beschleunigten Interpolationsalgorithmen für die Verarbeitung der marinen Bathymetrie mit lokalen und Cloud-basierten Rechenressourcen Daten-Crowdsourcing ist eines der bemerkenswertesten Ergebnisse von allgegenwärtigen und mit dem Internet verbundenen Low-Power-Geräten, die vielfältige und unterschiedliche „Dinge“ als weltweit verteiltes System bilden. Dieser Artikel konzentriert sich auf eine vertikale Anwendung der Nutzung von GPGPU-Virtualisierungssoftware, die auf eine leistungsstarke geografische Dateninterpolation abzielt. Wir präsentieren eine innovative Implementierung des Inverse Distance Weight (IDW) Interpolationsalgorithmus, der auf CUDA GPGPUs basiert. Wir führen Tests in physischen und virtualisierten Umgebungen durch, um die potenzielle Skalierbarkeit in der Produktion zu demonstrieren. Wir präsentieren einen Anwendungsfall im Zusammenhang mit hochauflösender Bathymetrieinterpolation in einem Crowdsource-Datenkontext.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-78054-2_2 fd0224449208bfddcc9b3df30a753bdb;de;;;3.2.;;;Ein Framework für erweiterte Videospuren: Bewertung der visuellen Qualität für die Videoübertragung über verlustbehaftete Netzwerke Herkömmliche Videospuren (die die Bildgrößen der Videokodierung in Bits und die Bildqualität in PSNR charakterisieren) sind auf die Bewertung einer verlustfreien Videoübertragung beschränkt. Um robuste Videoübertragungsschemata für verlustbehafteten Netzwerktransport zu bewerten, sind im Allgemeinen Experimente mit tatsächlichem Video erforderlich. Um die Notwendigkeit von Experimenten mit tatsächlichen Videos zu umgehen, schlagen wir in diesem Artikel ein fortschrittliches Video-Trace-Framework vor. Die beiden Hauptkomponenten dieses Frameworks sind (i) fortgeschrittene Videospuren, die die herkömmlichen Videospuren mit einem sparsamen Satz von visuellen Inhaltsdeskriptoren kombinieren, und (ii) Qualitätsvorhersageschemata, die auf den visuellen Inhaltsdeskriptoren eine genaue Vorhersage der Qualität liefern des rekonstruierten Videos nach verlustbehaftetem Netzwerktransport. Wir führen umfangreiche Auswertungen mit einer perzeptuellen Videoqualitätsmetrik sowie dem PSNR durch, in denen wir die anhand der fortgeschrittenen Videospuren vorhergesagte visuelle Qualität mit der visuellen Qualität vergleichen, die aus Experimenten mit tatsächlichen Videos ermittelt wurde. Wir stellen fest, dass die fortschrittliche Video-Trace-Methodik die Qualität des rekonstruierten Videos nach Frameverlusten genau vorhersagt.;-;-;-;https://link.springer.com/article/10.1155/ASP/2006/42083 17e41c5eaea6c60aeebdcd37b85ea6b6;de;;;3.2.;;;Der kleine und leise Kraftmultiplikator: Ein Schwarm-UAV – elektronischer Angriff In den letzten zwei Jahrzehnten gab es laut UAV-Konzepten und technologischem Fortschritt viele ungeahnte Verbesserungen. Heutzutage gibt es ernsthafte Arbeiten und Forschungen über den Einsatz von UAVs in militärischen Operationen bei Missionen der elektronischen Kriegsführung (EW). Aber die meisten Arbeiten an UAV-Plattformen basieren auf den Vorteilen einer einzigen, großen, teuren und nicht entbehrlichen Plattform. In dieser Studie wird ein neues Konzept entwickelt, das aus mehreren UAVs mit kleineren Abmessungen zu einem günstigeren Preis und einer breiteren Abdeckung besteht, um die Nachteile einer eigenständigen Plattform zu beseitigen. Nach Klärung der Studie werden zunächst die EW- und RADAR-Systeme und dann die Schwarm-UAV-Konzepte erläutert. Auf diese Weise wird auf aktuelle und frühere Arbeiten hingewiesen und anschließend der Einsatz der Schwarm-UAVs für EA in militärischen Operationen dargelegt. Objektiv wurden die Vorteile des Schwarm-UAV-Konzepts und einige herausragende Herausforderungen für den Intra-Theater-Raum in Bezug auf die oben genannten Informationen dargelegt. Als Ergebnis wird davon ausgegangen, dass die Schwarm-UAV-Systeme wichtige EW-Missionen in den zukünftigen Operationssälen erhalten, sobald die technischen Handicaps behoben sind.;-;-;-;https://link.springer.com/article/10.1007/s10846-012-9698-1 4ef6aedc9dd02047cc748a273f8ba3cc;de;;;3.2.;;;Breitband-Satellitennetzwerk: TCP/IP-Leistungsanalyse Es wurde eine Anzahl von Satellitenkommunikationssystemen vorgeschlagen, die geosynchrone (GEO) Satelliten sowie Konstellationen mit niedriger Erdumlaufbahn (LEO) verwenden, die im Ka-Band und darüber arbeiten. Bei diesen Frequenzen sind Satellitennetze in der Lage, Breitbanddienste bereitzustellen, die eine größere Bandbreite erfordern als die derzeitigen Dienste im C- oder Ku-Band. Infolgedessen umfassen einige der neuen Dienste, die an Dynamik gewinnen, mobile Dienste, private Intranets und Internetzugang mit hoher Datenrate, die über integrierte Satelliten-Glasfaser-ATM-Netze übertragen werden. Mehrere Leistungsprobleme müssen angegangen werden, bevor ein Transportschichtprotokoll, wie TCP, über Satelliten-ATM für Netzwerke mit großer Verzögerungsbandbreite zufriedenstellend funktionieren kann. In diesem Papier diskutieren wir einige der architektonischen Optionen und Herausforderungen für Breitband-Satelliten-ATM-Netzwerke. Die Leistungsergebnisse von TCP-Verbesserungen für Unspecified Bit Rate over ATM (ATM-UBR+) für Umgebungen mit großer Bandbreitenverzögerung mit verschiedenen Endsystemrichtlinien und Drop-Richtlinien für GEO-Satellitenkonfigurationen für verschiedene Puffergrößen werden vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-35579-5_24 d6440e92a784b44074dc497593f52a77;de;;;3.2.;;;Feingranulare Fahrzeugtypklassifizierung mit leichtgewichtigem Convolutional Neural Network mit Merkmalsoptimierung und gemeinsamer Lernstrategie Die Fahrzeugtypklassifizierung (VTC) spielt eine wichtige Rolle im heutigen intelligenten Verkehr. Frühere VTC-Systeme laufen aufgrund der Komplexität der Modelle normalerweise auf dem Hostcomputer eines Überwachungszentrums, die viele Rechenressourcen verbrauchen und eine schlechte Echtzeitleistung aufweisen. Wenn diese Systeme auf eingebetteten Terminals bereitgestellt werden, indem das Modell leichtgewichtig gemacht wird und gleichzeitig die Genauigkeit gewährleistet wird, kann das Problem gelöst werden. Zu diesem Zweck schlagen wir eine feinkörnige VTC-Methode vor, die ein leichtes konvolutionelles neuronales Netzwerk mit Merkmalsoptimierung und gemeinsamer Lernstrategie verwendet. Zunächst wird ein leichtgewichtiges Faltungsnetzwerk mit Merkmalsoptimierung (LWCNN-FO) entworfen. Wir verwenden tiefenweise separierbare Faltung, um Netzwerkparameter zu reduzieren. Außerdem wird das SENet-Modul hinzugefügt, um den wichtigen Grad jedes Feature-Kanals automatisch durch das probenbasierte Selbstlernen zu erhalten, was die Erkennungsgenauigkeit bei weniger Netzwerkparametern verbessern kann. Darüber hinaus verwendet dieses Papier unter Berücksichtigung sowohl der Ähnlichkeit zwischen den Klassen als auch der Varianz innerhalb der Klasse die gemeinsame Lernstrategie, die den Softmax-Verlust und den Verlust des Kontrastmittelzentrums auf Klassenfahrzeugtypen kombiniert, wodurch die feinkörnige Klassifizierungsfähigkeit des Modells verbessert wird. Wir erstellen auch einen Datensatz namens Car-159, der aus 7998 Bildern für 159 Fahrzeugtypen besteht, um unsere Methode zu evaluieren. Im Vergleich zu den modernsten Methoden zeigen experimentelle Ergebnisse, dass unsere Methode die Komplexität des Modells effektiv verringern kann, während die Genauigkeit beibehalten wird.;-;-;-;https://link.springer.com/article/10.1007/s11042-020-09171-3 18b6ac347dfb1bc737a0ad9e7eaedae1;de;;;3.2.;;;CBAM-GAN: Generative Adversarial Networks basierend auf dem Convolutional Block Attention Module Die Generierung von Bildern mit Generative Adversarial Networks (GAN) ist einer der Forschungs-Hotspots. Das traditionelle Faltungs-GAN behandelt räumliche und kanalweise Merkmale gleich, was den Mangel an Flexibilität beim Extrahieren von Merkmalen aus dem Diskriminator und dem Generator verursacht. Um dieses Problem anzugehen, schlagen wir in diesem Papier generative gegnerische Netzwerke basierend auf dem Faltungsblockaufmerksamkeitsmodul (CBAM-GAN) vor. CBAM-GAN fügt nach einigen Faltungsoperatoren das Faltungsblockaufmerksamkeitsmodul hinzu, um räumliche und kanalweise Merkmale adaptiv neu zu skalieren, wodurch hervorstechende Regionen verbessert und mehr Detailmerkmale extrahiert werden können. Wir wenden das Netzwerk-Framework von CBAM-GAN auf gängige GAN-Modelle an und führen eine empirische Studie zu MNIST- und CIFAR-10-Datensätzen durch. Experimente zeigen, dass unser Modell die Qualität der erzeugten Bilder im Vergleich zum herkömmlichen Faltungs-GAN deutlich verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-24274-9_20 32d7a430f1f5d859eaa7795744c86ecc;de;;;3.2.;;;Gesichtserkennung in mehreren Posen basierend auf kontursymmetrischem Constraint-Generative Adversarial Network Um die Auswirkungen von Haltungsänderungen mit großem Winkel auf die Gesichtserkennungsleistung zu berücksichtigen, schlagen wir ein kontursymmetrisches Constraint-Generative Adversarial Network (CSC-GAN) für die Gesichtserkennung mit mehreren Posen vor. Das Verfahren verwendet das Faltungsnetzwerk als Generator für die Wiederherstellung der Gesichtspose, das die globalen Informationen der Wiederherstellung der eingeschränkten Pose des positiven Gesichtskonturhistogramms einführt. Währenddessen wird das ursprüngliche positive Gesicht als Diskriminator verwendet und die symmetrische Verlustfunktion wird hinzugefügt, um die Lernfähigkeit des Netzwerks zu optimieren. Das positive Gesicht mit Gestenwiederherstellung wird erhalten, indem die Balance zwischen dem Training des Generators und des Diskriminators gefunden wird. Dann haben wir den nächsten Nachbar-Klassifikator verwendet, um zu identifizieren. Die experimentellen Ergebnisse zeigen, dass CSC-GAN gute Texturinformationen zur Körperhaltungsrekonstruktion bei der Gesichtsrekonstruktion in mehreren Posen erhielt. Im Vergleich zum traditionellen Deep-Learning-Verfahren und 3D-Verfahren erreicht es auch eine höhere Erkennungsrate.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-6504-1_117 610b1886fba6937814b1c1f15ff16e4b;de;;;3.2.;;;Drahtlose Backhaul-Technologie in drahtlosen Sensornetzwerken: Grundgerüst und Anwendungen Das Einrichten eines drahtlosen Sensornetzwerks (WSN) erfordert die Installation mehrerer Sensorknoten und Gateways. Die Installationskosten vorhandener WSNs sind in der Regel hoch, wenn die Erfassungsbereiche groß werden, da alle Sensor-Gateways mit einem Netzwerk verdrahtet sind, um Erfassungsdaten an vernetzte Server zu übertragen. Ein drahtloses Backhaul-Netzwerk ist ein drahtloses Multi-Hop-Netzwerk, in dem Access Points (APs) drahtlos mit der Fähigkeit zur Weiterleitung von Paketen verbunden sind. Diese Technologie ermöglicht die Erzielung eines breiten Wi-Fi-Abdeckungsbereichs ohne die Installation einer großen Anzahl von Zugangskabeln und eignet sich für die Einrichtung von WSNs. Die Anzahl der Zugangskabel wird durch die Verwendung der drahtlosen Backhaul-Technologie als Kommunikationsinfrastruktur für WSN erheblich reduziert, jedes Sensor-Gateway wird nur mit dem am nächsten benachbarten drahtlosen AP verdrahtet. In diesem Artikel wird ein WSN vorgestellt, das drahtlose Backhaul-Technologie verwendet. Vier Beispielanwendungen werden beschrieben: ein allgegenwärtiges Kameranetzwerk, ein Wi-Fi-Tag-Tracking-System, ein kriminelles Fischereisystem und ein vernetztes Fahrzeug. Das allgegenwärtige Kameranetzwerk verwendet Einplatinencomputer mit Universal Serial Bus (USB)-Kameras und ist in der Lage, räumliche Textinformationen zu extrahieren. Der Bandbreitenverbrauch kann erheblich reduziert werden, indem räumliche Textinformationen anstelle von Kamerabildern an eine Datenbank übertragen werden. Das Fußgänger-Tracking-System verwendet Wi-Fi-Beacons, die von Zielpersonen gehalten werden, und Wi-Fi-APs, die weit und dicht in einem bestimmten Bereich platziert sind. Die Positionen der Zielbenutzer werden auf der Grundlage von Sondierungsanforderungssignalen geschätzt, die von den Wi-Fi-Beacons gesendet werden. Das kriminelle Fischereisystem zählt die Adressen der Kandidaten für die Medienzugriffskontrolle (MAC) des Geräts eines Täters aus Sondierungsanforderungssignalen auf, die von APs während des Zeitraums erfasst wurden, in dem sich der Täter in der Nähe des Tatorts aufhält. Das vernetzte Fahrzeug ist ein ferngesteuertes Fahrzeug, für das Steuerbefehle über ein drahtloses Backhaul-Netzwerk übertragen werden. Diese Technologie ist in der Lage, Frame Relay-Routen zwischen Fahrzeugen autonom und dynamisch zu konfigurieren. Bilder vom Fahrzeug werden auch über das Netzwerk an einen entfernten Benutzer übertragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-42234-9_6 a0d2528803fb431e7ee57fb658c0f2cf;de;;;3.2.;;;Simulation und Modellierung des Schwerpunktalgorithmus mit OPNET in drahtlosen Sensornetzwerken Standortinformationen des Sensorknotens sind für viele Anwendungen von drahtlosen Sensornetzwerken erforderlich. Simulation ist eine wichtige Methode, um die Leistung des Standortalgorithmus zu analysieren. Dieses Papier stellt den detaillierten Prozess der Modellierung von Systemen mit OPNET Modeler vor, einem Softwarewerkzeug für die Netzwerksimulation. Es soll eine Einführung in eine gängige Simulationsmethode für Forscher geben, die an der Positionierungstechnik arbeiten. Durch Modellieren für den Schwerpunktlokalisierungsalgorithmus in drahtlosen Netzwerken wird die Struktur von OPNET beschrieben. Sowohl das Verhalten als auch die Leistung der modellierten Systeme wurden durch die Durchführung von Simulationen analysiert. Die Erfahrung beim Aufbau eines drahtlosen Sensornetzwerks in der realen Welt wird durch Modellentwurf, Simulation, Datenerfassung und -analyse gewonnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24273-1_1 fbaee8d1b6f1e0d2a4d4f20da8f9cfac;de;;;3.2.;;;Implementierung eines Textklassifikationsmodells basierend auf rekurrenten neuronalen Netzen In diesem Bericht wird eine Deep-Learning-Netzwerkarchitektur vorgeschlagen und implementiert, um die Textklassifizierung mit den vortrainierten Wortvektoren durchzuführen, die mit der Architektur des Convolutional Neural Network kombiniert wird. Das vorgeschlagene Verfahren stellt den Wortvektor als statische Nachschlagetabelle ohne Aktualisierung ein, und das Netzwerk kann immer noch das Rauschen ignorieren, das durch fehlende Wörter verursacht wird. Die experimentellen Ergebnisse zeigen, dass die Genauigkeit dieser Studie mit der Genauigkeit anderer Studien übereinstimmt. Es wird die Machbarkeit dieser Architektur gezeigt. Und hat die folgenden Vorteile: Die Genauigkeitsrate dieser Architektur ist höher als die des rekurrenten neuronalen Netzwerks, verglichen mit dem konvolutionellen neuronalen Netzwerk, die Genauigkeitsergebnisse sind stabiler und es wird weniger Epoche verwendet, um stabile Ergebnisse zu erzielen. Der Nachteil dieser vorgeschlagenen Architektur besteht jedoch darin, dass die Trainingszeit viel Zeit in Anspruch nimmt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6113-9_7 469f562bf45132ecfe8628bd791f63b4;de;;;3.2.;;;Ein adaptiver Ansatz zum Umgang mit DoS-Angriffen für Webdienste In letzter Zeit werden Webdienste zu einem wichtigen Geschäftswerkzeug im E-Commerce. Das Aufkommen intelligenter, ausgeklügelter Angriffstechniken macht Webdienste anfälliger denn je. Einer der häufigsten Angriffe auf Webdienste ist ein Denial-of-Service-Angriff.;-;-;-;https://link.springer.com/chapter/10.1007/11427995_83 78ae006507c8a4feaf7c6cc94c0b7683;de;;;3.2.;;;Leistungsbewertung von OpenMP-Anwendungen mit verschachtelter Parallelität Viele bestehende OpenMP-Systeme implementieren verschachtelte Parallelität nicht ausreichend. Dies liegt vermutlich daran, dass verschachtelte Parallelität vermutlich einen erheblichen Implementierungsaufwand erfordert, einen großen Overhead verursacht oder Anwendungen fehlen. Dieses Papier demonstriert Omni/ST, eine einfache und effiziente Implementierung von OpenMP Nested Parallelism unter Verwendung von StackThreads/MP, einer feinkörnigen Thread-Bibliothek. Dank StackThreads/MP, OpenMP;-;-;-;https://link.springer.com/chapter/10.1007/3-540-40889-4_8 20cc64bbb23fc16a6064f42c38792e43;de;;;3.2.;;;Mining-Schemas in semistrukturierten Daten mit Fuzzy-Entscheidungsbäumen Da WWW zu einer riesigen Informationsquelle geworden ist, ist es für uns sehr wichtig, diese Art von Informationen effektiv zu nutzen. Die Informationen im WWW können jedoch nicht allgemein abgefragt und manipuliert werden.;-;-;-;https://link.springer.com/chapter/10.1007/11427995_70 6c154898e406ea0b33b62edffdf54254;de;;;3.2.;;;Ein sicheres Mobiltelefon basierend auf eingebetteten Fingerabdruckerkennungssystemen Dieses Papier präsentiert einen Prototypentwurf und eine Implementierung von gesicherten Mobiltelefonen basierend auf eingebetteten Fingerabdruckerkennungssystemen. Eines ist ein Subsystem zur Erfassung von Fingerabdrücken im Front-End-Bereich und das andere ist ein auf Smartphones basierendes Back-End-System zur Erkennung von Fingerabdrücken. Das Subsystem zur Fingerabdruckerfassung ist ein externes Modul, das zwei Teile enthält: einen ARM-Core-Prozessor LPC2106 und einen Atmel Fingersensor AT77C101B. Der Prozessor LPC2106 steuert den Sensor AT77C101B, um das Fingerabdruckbild zu erfassen. Im Fingerabdruckerkennungssystem wurde ein neuer Fingerabdruck-Verifizierungsalgorithmus auf interner Hardware implementiert. Die Leistung des vorgeschlagenen Systems mit 4,16 % gleicher Fehlerquote (EER) wurde anhand der Fingerabdruckdatenbank von Atmel untersucht. Die durchschnittliche Rechenzeit auf einer 13 MHz CPU S1C33 (von Epson) beträgt etwa 5,0 Sekunden.;-;-;-;https://link.springer.com/chapter/10.1007/11427995_57 2bdfd8fab103320d9181be6fc088e316;de;;;3.2.;;;Ein kostengünstiger mobiler Roboter für den Bildungsbereich In diesem Beitrag stellen wir einen mobilen Roboter und ein Programm zu seiner Steuerung vor, der in der Robotikausbildung eingesetzt werden kann, in der Erwartung, dass sich die Idee in absehbarer Zukunft zu einem allgemeineren Forschungsinstrument im Bereich der Robotik entwickelt. Die für Robotik-Studenten notwendigen Informationen, um ihren eigenen mobilen Roboter zu entwerfen, sind: Verfügbarkeit jeder Komponente des Roboters, wie jedes Modul des Roboters aufgebaut ist, wie diese Module kombiniert werden, wie ein Sensorsystem bereitgestellt wird, wie ein Simulator für den Roboter programmiert ist, welche Umgebung zum Testen der Simulatoren geeignet ist usw. Es könnte auch besser sein, wenn eine Möglichkeit gegeben wird, es bei den Schülern zu Hause zu entwickeln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08201-1_17 d3b89cd2ab0f09406662fb0836e73fa7;de;;;3.2.;;;Internationale Cyber-Angreifer im Blick auf Ostindien: Odisha - Eine Fallstudie Indien ist ein Entwicklungsland mit verschiedenen Herausforderungen wie Analphabetismus, Armut, indigenen und wirtschaftlich rückständigen Bevölkerungsgruppen und vor allem der heutigen digitalen Kompetenz. Die indische Regierung im Großen und Ganzen sowie ihre Bundesstaaten und Unionsterritorien bemühen sich stärker um Smart Governance mit der Digital India-Bewegung, die IT/IKT als Werkzeug nutzt. Einerseits, wenn die Regierung versucht, ihren Bürgern verschiedene E-Governance-Dienste über Portale und webbasierte Anwendungen bereitzustellen, ist Cybersicherheit zur größten Herausforderung geworden. Das Wort Sicherheit wurde geprägt, um den Schutz eines Objekts zu gewährleisten. Der Begriff entwickelte sich allmählich, um unsere Informationen und Daten zu schützen, um Objekten und Personen Sicherheit zu bieten. Sicherheit ist in unserem täglichen Leben sehr wichtig. Ein neuer Begriff zusammen mit Sicherheit wird als Versicherung geprägt. Einzelpersonen glauben daran, ihre Objekte zu sichern. Aber heutzutage ist jeder Einzelne mehr sicherheitsbewusst, um seine Daten und Informationen in der Cyberwelt zu schützen. Die Nutzung des Internets dreht sich um viele Bereiche wie Bildung, E-Commerce, Krankenhäuser, Unternehmen, militärische Zwecke und vieles mehr. Daher ist es sehr wichtig, unsere Daten zu schützen und die Verwendung durch nicht authentische Benutzer zu vermeiden. Indien ist digital in vier Regionen Ost, West, Nord und Süd unterteilt. Obwohl Indien in der digitalen Welt im internationalen Szenario schnelle Fortschritte macht, ist der östliche Teil Indiens in Wirklichkeit weniger digital aktiv. In diesem Papier haben wir eine Fallstudie gegeben, wie internationale Hacker versuchen, den östlichen Teil Indiens mit dem Bundesstaat Odisha als Fall anzugreifen. Wir haben auch untersucht, wie der Staat und die Zentralregierung Maßnahmen ergriffen haben, um Daten-Hacking, Cyberangriffe und die Wiederherstellung von Daten zu verhindern. Abschließend wird die Arbeit mit der Angabe der Effizienz einiger Methoden zur Wiedergewinnung von Daten aus dem Diebstahl abgeschlossen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-01177-2_97 cff96aaaca96ff29910886c260b1cb84;de;;;3.2.;;;Nichtlineare Funktionsapproximation basierend auf Neuro-Fuzzy-Interpolatoren In dieser Arbeit wird ein Fuzzy-Neural-Interpolationsnetzwerk vorgeschlagen, um eine nichtlineare Funktion effizient anzunähern, wobei eine lineare Skalarfunktion als Aktivierungsfunktion des Netzwerks verwendet wird. Insbesondere werden Basisfunktionen zuerst durch das Fuzzy Membership Function-based Neural Network (FMFNN) konstruiert. Und die Fuzzy-Ähnlichkeit, die als Grad der Übereinstimmung zwischen dem tatsächlichen Ausgabewert und der Ausgabe jeder Basisfunktion definiert ist, wird verwendet, um Anfangsgewichtungen des vorgeschlagenen Netzwerks zu bestimmen. Dann werden die Gewichtungen so aktualisiert, dass das Quadrat des Fehlers minimiert wird. Um die Fähigkeit der Funktionsapproximation des vorgeschlagenen Fuzzy-Neural-Interpolationsnetzwerks zu zeigen, wird ein numerisches Beispiel dargestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-0125-4_18 6c1ce21af5d83ad8461a920b2b12724d;de;;;3.2.;;;QoS-Multicast-Routing mit Verzögerungsbeschränkungen Die Verbreitung gruppenbasierter Echtzeitanwendungen wie Online-Spiele und Videokonferenzen hat die Forschung zum QoS-Multicast-Routing motiviert. Diese Arten von Anwendungen erfordern die Berücksichtigung von Beschränkungen sowohl der Verzögerung von Quelle zu Ziel (d. h. Paketverzögerung von der Quelle zu allen Zielen) als auch der Verzögerungsvariation zwischen Zielen (d. h. der Unterschied in der Paketverzögerung von der Quelle zu verschiedenen Zielen).;-;-;-;https://link.springer.com/article/10.1007/BF03179727 e7209fb40b0323080dd805cff0c1b540;de;;;3.2.;;;Modelica – Eine Sprache für gleichungsbasierte physikalische Modellierung und Hochleistungssimulation Eine neue Sprache namens Modelica für die hierarchische physikalische Modellierung wird durch eine internationale Anstrengung entwickelt. Modelica 1.0 [http://www.Dynasim.se/Modelica] wurde im September 1997 angekündigt. Es handelt sich um eine objektorientierte Sprache zur Modellierung physikalischer Systeme zum Zwecke einer effizienten Simulation. Die Sprache vereinheitlicht und verallgemeinert bisherige objektorientierte Modellierungssprachen und -techniken.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0095332 47416912a3c9297195e87d28bdac4c51;de;;;3.2.;;;Verzögerungstolerantes netzwerkbasiertes sicheres Übertragungssystemdesign Das Internet war ein großer Erfolg, aber seine Architektur erfordert einen relativ vollständigen Infrastrukturaufbau, um implementiert und betrieben zu werden. Insbesondere bei Geräten mit begrenzten Ressourcen verschlechtert sich die Situation, daher wurde ein verzögerungstolerantes Netzwerk vorgeschlagen, um diese Nachteile zu überwinden. Die Entwicklung eines verzögerungstoleranten Netzwerks bietet einen neuen Ansatz zur Datenübertragung, aber seine Vertraulichkeit und Integrität kann nicht gut garantiert werden. Die Kryptographie mit öffentlichem Schlüssel stellt einen praktikablen Mechanismus zum Schutz von Daten bereit. Die Wartungskosten der Zertifizierungsstellen sind jedoch hoch. Identitätsbasierte Kryptografie ermöglicht es Benutzern, Nachrichten mit ihren Identitätsinformationen zu verschlüsseln. Basierend auf den oben genannten Technologien haben wir ein sicheres Übertragungssystem basierend auf einem verzögerungstoleranten Netzwerk und identitätsbasierter Kryptographie vorgeschlagen, das nicht auf traditionellen Schlüsselverteilungsmechanismen beruht und die Identitätsprüfung vereinfacht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-69605-8_21 f231390003f9b2e9d1728e863da0a12c;de;;;3.2.;;;Emotionale Gesichtserkennung mit Legion Kernel Convolutional Neural Networks Gesichtsausdrücke können verbal und nonverbal sein, die eine wichtige Rolle bei der Kommunikation spielen. Wir können einer anderen Person durch einen Ausdruck eine Nachricht übermitteln. Die automatische Erkennung von Gesichtsausdrücken durch Maschinen kann unter Verwendung natürlicher menschlicher Schnittstellen entwickelt werden. Wir wissen zwar, dass Menschen den Gesichtsausdruck einer Person schnell erkennen können, indem sie die Person ansehen, aber die Erkennung des Ausdrucks mit einer Maschine ist schwierig. Dieser Beitrag gibt einen Überblick über die automatische Ausdruckserkennung einschließlich der Ausdrücke von Personen, die psychisch krank, retardiert usw. sind. Er beleuchtet die Komponenten eines Systems und bietet Forschungsherausforderungen. Per Definition ist das Erscheinungsbild eines Gesichts die Gesichtskomponente bei der Anerkennung des äußeren Erscheinungsbildes. Dieses Papier hilft auch, die Emotionen von psychisch kranken Menschen, einschließlich Kindern, zu erkennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-3660-8_23 09a249b6c2afeec41baaddfe02677bf5;de;;;3.2.;;;Cross-Entropie-Optimierung für Skalierungsfaktoren eines Fuzzy-Controllers: Ein Ansatz zum See-and-Avoid für unbemannte Flugsysteme Die Kreuzentropie (CE) ist eine effiziente Methode zur Schätzung von Wahrscheinlichkeiten für seltene Ereignisse und zur kombinatorischen Optimierung. Diese Arbeit stellt einen neuartigen Ansatz des CE zur Optimierung eines Soft-Computing-Controllers vor. Ein Fuzzy-Controller wurde entwickelt, um ein unbemanntes Antennensystem (UAS) zur Vermeidung von Kollisionsaufgaben zu steuern. Der einzige Sensor, der für diese Aufgabe verwendet wurde, war eine Vorwärtskamera. Das CE wird verwendet, um einen nahezu optimalen Controller zu erreichen, indem die Skalierungsfaktoren der Controller-Eingänge modifiziert werden. Die Optimierung wurde mit dem Simulationssystem ROS-Gazebo realisiert. Um die Optimierung zu evaluieren, wurden zahlreiche Tests mit einem echten Quadrocopter durchgeführt.;-;-;-;https://link.springer.com/article/10.1007/s10846-012-9791-5 7bdaa23de5e79e93df122aa25cfcd7ce;de;;;3.2.;;;Multimedia-Parallelprogrammierwerkzeug für zellulare Automatensysteme Die Gruppe Active Knowledge Studio an der University of Aizu studiert, entwirft und entwickelt Multimedia-Programmierwerkzeuge für verschiedene Domänen. Diese Spezialwerkzeuge werden im Rahmen einer allgemeineren Umgebung (Active Knowledge Studio) und basierend auf gemeinsamen Design- und Implementierungsansätzen entwickelt. Aufgrund der Ausrichtung auf unterschiedliche Domänen besitzt jedoch jedes Tool seine eigenen Funktionen, die durch spezifische Multimedia-Objekte und Schnittstellenpanels dargestellt werden. In diesem Artikel geben wir einen Überblick über unseren Ansatz zur Programmierung von zellularen Automatensystemen mit einem unserer Multimedia-Tools. Wir geben auch eine kurze Erläuterung eines Benutzerschnittstellen-Subsystems und diskutieren Konzepte und Funktionen eines Programmgenerator-Subsystems in diesem Tool. Besonderes Augenmerk legen wir auf die parallelen Template-Programme, die die automatische Generierung von ausführbaren Codes aus den Multimedia-Spezifikationen unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-37619-4_43 6239135184b8a09ce3986ed627f4e65c;de;;;3.2.;;;Frühe Erfahrungen mit KTAU auf der IBM BG/L Die Einflüsse des Betriebssystems und systemspezifische Auswirkungen auf die Anwendungsleistung werden im High Performance Computing immer wichtiger. In dieser Hinsicht ist die Messung des Betriebssystemkernels erforderlich, um die Wechselbeziehung zwischen System- und Anwendungsverhalten zu verstehen. Dies kann aus zwei Perspektiven betrachtet werden:;-;-;-;https://link.springer.com/chapter/10.1007/11823285_11 998468ead6ef6796e178449c695219aa;de;;;3.2.;;;Erforschung des Videoübertragungssystems in drahtlosen Sensornetzwerken In diesem Papier haben wir ein Designprogramm für ein Remote-Videoübertragungssystem vorgestellt, das auf der Hardwareplattform von S3C2440 und dem eingebetteten Betriebssystem Linux basiert. Es beschrieb den Gesamtaufbau und die Implementierung der verschiedenen Teile und gab die Realisierung der wichtigsten Funktionen dieser Software. Im System haben wir den MPEG-4-Videokomprimierungsalgorithmus verwendet. Das System implementierte die Videoübertragung in einem drahtlosen lokalen Netzwerk und im Vergleich zu den herkömmlichen Videoüberwachungssystemen hatte dieses System mehr Vorteile, wie z.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23214-5_17 d46613750589baf6b7aee6410c4d907a;de;;;3.2.;;;Erkennen von bewegten Bildern Festmüll, der in einem neuronalen Netzwerk durcheinander gebracht wird, mit einer einfachen Verfolgung, die in einer automatischen und robotischen Recyclinglinie durchgeführt wird In diesem Beitrag zeigen wir das Vision-System bei der Erkennung von Bewegungsbildern und der Erkennung von festem Siedlungsmüll (SUW) und deren Integration in eine automatische Roboterlinie mit einem einfachen Tracking-Algorithmus. Die Erkennung und Bildverarbeitung sind in der Lage, die Position des SUW zu erkennen, zu identifizieren und zu berechnen und die Koordinaten zur Auswahl an einen Delta-Roboter zu senden. Das Bildverarbeitungssystem wird zuvor in einem neuronalen Netz trainiert. Delta-Roboter werden von der ABB Corporation bereitgestellt und wurden so programmiert, dass sie die SUW durch einen einfachen Algorithmus zur Verfolgung auswählen. Wir stellen die Integration dieser Systeme vor und beschreiben die automatische und robotische Maschine mit dem Vision-System.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-30447-2_10 bdf0b8eeb673f641afdff3c3ba27b749;de;;;3.2.;;;Beschleunigte rekursive hierarchische Segmentierung von hyperspektralen Bildern mit GPUs, Multicore-CPUs und hybriden CPU/GPU-Clustern Rettungsmissionen, militärische Zielerkennung, Gefahrenabwehr und andere zeitkritische Anwendungen der Fernerkundung erfordern Echtzeit- oder autonome Entscheidungsfindung und Onboard-Verarbeitungsfunktionen. Daher ist eine leichte, kleine und energiesparende Hardware für Onboard-Echtzeitverarbeitungssysteme unerlässlich. Mit dem zunehmenden Bedarf an Dimensionalität, Größe und Auflösung von hyperspektralen Sensoren werden an Fernerkundungsverarbeitungssysteme zusätzliche Herausforderungen gestellt und leistungsfähigere Rechenarchitekturen benötigt. Graphical Processing Units (GPUs) haben sich als vielversprechende Architektur für leichtes Hochleistungs-Computing herausgestellt. In diesem Papier schlagen wir beschleunigte parallele Lösungen für den bekannten Analysealgorithmus der rekursiven hierarchischen Segmentierung (RHSEG) vor, der eine GPU, eine hybride Multicore-CPU mit GPU und hybride Multicore-CPU/GPU-Cluster verwendet. RHSEG ist eine von der National Aeronautics and Space Administration entwickelte Methode, die dazu dient, nützlichere Klassifizierungsinformationen mit verwandten Objekten und Regionen über die Hierarchie der Ausgabeebenen hinweg bereitzustellen. Die vorgeschlagenen Lösungen basieren auf der Compute Unified Device Architecture von NVidia und Microsofts C++ Accelerated Massive Parallelism (C++ AMP) und werden mit NVidia GeForce-Hardware und Amazon Elastic Compute Cluster (EC2) getestet. Die erreichten Geschwindigkeiten durch parallele Lösungen im Vergleich zu sequentiellen CPU-Implementierungen betragen 21x für parallele Single-GPUs und 240x für hybride Multinode-Computercluster mit 16 Rechenknoten. Der Energieverbrauch reduziert sich bei Verwendung einer einzelnen GPU auf 74 % im Vergleich zum äquivalenten parallelen CPU-Cluster.;-;-;-;https://link.springer.com/article/10.1007/s11554-014-0464-4 d5f9e944256a1557b78ca95789364373;de;;;3.2.;;;Monte Carlo Strahlungswärmeübertragungssimulation auf einem rekonfigurierbaren Computer In letzter Zeit hat das Erscheinen sehr großer (3 – 10 M Gate) FPGAs mit eingebetteten Recheneinheiten die Möglichkeit der Gleitkommaberechnung auf diesen Geräten geöffnet. Während frühere Forscher Spitzenleistungen oder Kernel-Matrix-Operationen beschrieben haben, gibt es noch relativ wenig Erfahrung mit der Abbildung einer anwendungsspezifischen Gleitkommaschleife auf FPGAs. In dieser Arbeit portieren wir einen Supercomputer-Anwendungsbenchmark auf Xilinx Virtex II und Virtex II Pro FPGAs und vergleichen die Leistung mit drei Pentium IV Xeon Mikroprozessoren. Unsere Ergebnisse zeigen, dass diese anwendungsspezifische Pipeline mit 12 Multiplizieren, 10 Addieren/Subtrahieren, 1 Dividieren und zwei Vergleichsmodulen des Gleitkomma-Datentyps einfacher Genauigkeit eine Geschwindigkeitssteigerung von 10,37× aufweist. Wir analysieren die Kompromisse zwischen Hardware und Software, um die Algorithmen zu charakterisieren, die auf aktuellen und zukünftigen FPGA-Architekturen gut funktionieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30117-2_12 cd27d975cdc5723ce29e0c9b2cb8ed20;de;;;3.2.;;;Leistungsbewertung einer Xen-basierten virtuellen Umgebung für Hochleistungs-Computersysteme Virtualisierung wird zu einer immer beliebter werdenden Methode, um eine softwarebasierte Lösung für die vollständig isolierte gemeinsame Nutzung von Hardware-Infrastruktur zu erreichen. Der Xen-Monitor für virtuelle Maschinen (eine Open-Source-Software) wird zu einer beliebten Ressource, um die Virtualisierung für die Verwaltung mehrerer Betriebssysteminstanzen innerhalb eines physischen Computerknotens zu implementieren. Die aktuelle Forschung hat sich auf die Migration dieser Instanzen zwischen Knoten während der Laufzeit konzentriert. Diese Funktion ist für zahlreiche Aktivitäten nützlich, z. B. Fehlermanagement, Lastausgleich und Systemwartung auf niedriger Ebene. In diesem Whitepaper bewerten wir die Leistung von Xen Virtual Machine Monitor für High Performance Computing (HPC)-Systeme und diskutieren seine Eignung für 1) einfache Verwaltung von Anwendungen (z. B. automatischer Lastausgleich von MPI-Anwendungsprozessen) und 2) einfache Verwaltung von der HPC-Architektur (z. B. automatische Migration von Betriebssysteminstanzen weg von physischen Ressourcen, deren Ausfall in naher Zukunft vorhergesagt wurde);-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-6268-1_84 70059d6c2354771f3cb2b8657d47e6d6;de;;;3.2.;;;Ein vergleichender Überblick über verschiedene Analysetools für soziale Netzwerke Mit der Entwicklung des Web 2.0 haben Social-Networking-Sites wie Facebook, Twitter, Instagram und ähnliche Plattformen große Popularität erlangt. Sie vermitteln fundiertes Wissen über die Benutzer und die Beziehungen zwischen ihnen. Um aus diesen riesigen Daten sozialer Netzwerke aussagekräftige Informationen zu analysieren und zu extrahieren, werden spezielle grafische Mining-Tools benötigt, die die Eigenschaften sozialer Netzwerke effizient modellieren können. Für die Analyse sozialer Netzwerke stehen eine Vielzahl von Tools zur Verfügung, bei denen Rohnetzwerkinformationen in einer Kantenliste, Nachbarschaftsliste oder Nachbarschaftsmatrix formatiert werden können, oft gekoppelt mit Attributinformationen. Wir vergleichen die wichtigsten Tools und Pakete zur Analyse und Visualisierung sozialer Netzwerke, die eine breite Palette von Anwendungen in den Bereichen Genetik, Wirtschaft, Soziologie, Netzwerktheorie und mehrere andere Bereiche haben. Diese Arbeit bietet einen Vergleich basierend auf Plattform, Lizenz, unterstützten Dateiformaten, Layout und Visualisierung sowie verfügbaren Metriken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-62833-8_16 d962a4554670393cb79cbe545da1acc8;de;;;3.2.;;;Die Verwendung von binären Entscheidungsdiagrammen zur Zerlegung von programmierbaren Logikarrays Das Zerlegungsverfahren programmierbarer Logikarrays basierend auf der Zweiblock-Partitionierung einer Menge von Variablen und der Algorithmus der Auswahl der Variablenpartitionierung werden vorgeschlagen. Das Verfahren verwendet die Darstellung des Systems disjunktiver Normalfunktionen vollständig spezifizierter Boolescher Funktionen, die von PLA über ein binäres Entscheidungsdiagramm implementiert werden. Die Ergebnisse des experimentellen Vergleichs der Software, die das vorgeschlagene Verfahren implementiert, mit den bekannten PLA-Zerlegungssoftwarepaketen werden vorgestellt.;-;-;-;https://link.springer.com/article/10.3103/S0146411611050038 5489905179015635d2de367960d05bbe;de;;;3.2.;;;Eine Variation des WTLS-Authentifizierungsprotokolls zur Reduzierung des Energieverbrauchs in drahtlosen Geräten Energieeffizienz war ein wichtiger Faktor beim Protokolldesign in drahtlosen Netzwerken, in denen kleine tragbare drahtlose Geräte ausschließlich auf Batteriestrom angewiesen sind. Sicherheit ist auch in drahtlosen Netzwerken von großer Bedeutung. In drahtlosen Netzwerken wurden mehrere Sicherheitsprotokolle verwendet, die von drahtgebundenen Netzwerken adaptiert wurden, um eine Identitätsauthentifizierung bereitzustellen. Sicherheitsprotokolle könnten erheblich zum Energieverbrauch beitragen, insbesondere Authentifizierungsprotokolle wie Wireless Transport Layer Security (WTLS) oder Transport Layer Security (TLS) Handshake-Protokoll, die auf rechenintensiver Public-Key-Kryptographie basieren. Es wurden viele Anstrengungen unternommen, um die kryptographische Last und den Energieverbrauch bei drahtlosen Geräten zu reduzieren. Einige sind kompliziert und andere entsprechen möglicherweise nicht den bestehenden WTLS/TLS-Standards. In diesem Papier schlagen wir eine einfache Variante des TLS Handshake-Protokolls für die gegenseitige Authentifizierung und den Schlüsselaustausch vor, die den Energieverbrauch in drahtlosen Geräten reduziert. Das vorgeschlagene Protokoll verwendet RSA- und ECC-Algorithmen unterschiedlich, um das Handshake-Protokoll energieeffizienter zu machen. Mit unserem vorgeschlagenen Protokoll können wir etwa 25 % gegenüber 1024-Bit-RSA oder 70 % gegenüber dem 163-Bit-ECC-Handshake-Protokoll sparen. Unser vorgeschlagenes Protokoll kann mit kleinen Modifikationen auch leicht in das Standard-WTLS-Protokoll integriert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-25969-5_63 78695f268ee933df7d0c825d89162fe7;de;;;3.2.;;;Vergleich neuronaler Netze zur Vorhersage von Aktienmärkten In diesem Beitrag vergleichen wir eine Auswahl künstlicher neuronaler Netze bei der Anwendung zur kurzfristigen Börsenkursvorhersage. Die Netze werden aufgrund ihrer erwarteten Relevanz für das Problem ausgewählt. Darüber hinaus zielt die Arbeit darauf ab, die jüngsten Fortschritte auf dem Gebiet der künstlichen neuronalen Netze abzudecken. Die betrachteten Netze umfassen: neuronale Netze mit Vorwärtskopplung, Echozustandsnetze, bedingt eingeschränkte Boltzmann-Maschinen, neuronale Netze mit Zeitverzögerung und neuronale Faltungsnetze. Diese Modelle werden auch mit einer anderen Art von maschinellem Lernalgorithmus verglichen, der Support Vector Machine. Die Modelle werden auf täglichen Börsendaten trainiert, um kurzfristige Vorhersagen für einen Tag bzw. zwei Tage im Voraus zu treffen. Die Leistung wird bewertet, indem man den Modellen direkt in einer einfachen Finanzstrategie folgt und jede Vorhersage, die sie machen, einmal pro Tag handelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-65172-9_31 8b7c4212a356238ac57ba7e5f6d4bcad;de;;;3.2.;;;Literaturübersicht zur Klassifizierung von Netzwerkverkehr mit neuronalen Netzen Die Verwaltung und Überwachung des Netzbetriebs sind für die Netzbetreiber von entscheidender Bedeutung. Jedoch können herkömmliche Netzwerkmanagement-Software oder -Tools dieses Ziel nicht erreichen. Derzeit gibt es hauptsächlich drei Methoden zur Klassifizierung und Erkennung des Netzwerkverkehrs: Eine basiert auf „bekannten“ TCP- oder UDP-Portnummern, die zweite ist eine tiefgreifende Paketprüfung und die dritte basiert auf Merkmalen des Verkehrsflusses. Die ersten beiden Methoden haben beide einige Mängel. während die dritte Methode durch die Auswahl der verschiedenen Mustererkennungsmethoden, wie lineare Modelle für die Klassifizierung, Kernelmethoden, Clusteringmethoden und neuronale Netzmethoden, sein kann, um diesen Mangel zu überwinden, indem Netzanwendungen auf der Grundlage von Per-Flow-Statistiken identifiziert werden, die aus nutzlastunabhängigen . abgeleitet werden Funktionen wie Paketlänge und Zeitverteilung zwischen den Ankunftszeiten usw. Analysieren Sie in dieser Literaturübersicht mit den Artikeln, die wir vom Google-Stipendiaten erhalten, die Funktionen, die diese Artikel verwenden, um den Datenverkehr mithilfe der neuronalen Netze zu klassifizieren, und die Klassifikationsgenauigkeit dieser angekündigten Artikel. Diskutieren Sie abschließend die Verbesserung der Algorithmen, die in diesen Artikeln verwendet wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28798-5_31 5a7caa5895f94250afbb410c1850c040;de;;;3.2.;;;On-Demand-Multicast-Routing-Protokoll basierend auf der Knotenklassifizierung in MANET Ein verbessertes On-Demand-Multicast-Routing-Protokoll (ODMRP), Knotenklassifizierung, On-Demand-Multicast-Routing-Protokoll (NC-ODMRP), das auf der Knotenklassifizierung in mobilen Ad-hoc-Netzwerken basiert, wurde vorgeschlagen. NC-ODMRP klassifiziert Knoten in solche drei Kategorien wie gewöhnlicher Knoten, Weiterleitungsgruppen(FG)-Knoten, Nachbarknoten des FG-Knotens entsprechend ihrer historischen Weiterleitungsinformationen. Die Kategorien werden durch eine Gewichtungstabelle in den Knoten unterschiedlich gewichtet. NC-ODMRP wählt den Knoten mit der höchsten Gewichtung als FG-Knoten während der Einrichtung der Weiterleitungsgruppe, wodurch viele redundante FG-Knoten reduziert werden, indem mehr FG-Knoten zwischen verschiedenen Sender- und Empfängerpaaren geteilt werden. Die Simulationsergebnisse zeigen, dass NC-ODMRP die FG-Zahl von ODMRP um mehr als 20 % reduzieren kann und somit die Effizienz der Datenweiterleitung um fast 14 % und die Effizienz des Energieverbrauchs um 12 % erhöht, wenn die Anzahl der Multicast-Sender mehr als 5 beträgt.;-;-;-;https://link.springer.com/article/10.1007/s11771-006-0155-9 6710bcbf1423e435c1cd41c5dc2f50b8;de;;;3.2.;;;Regulierung des Zellzyklus durch Peroxisomen-Proliferator — Aktivierter Rezeptor Gamma (PPARγ) Die Peroxisom-Proliferator-aktivierten Rezeptoren (PPARs) sind eine Unterfamilie der Nuclear Hormon Receptor (NHR)-Familie von Transkriptionsfaktoren, die PPARα, ß (auch als δ, NUC-1 und FAAR bezeichnet) und γ umfassen. Sie leiteten ihren Namen von der ursprünglichen Isoform PPAR alpha ab, die aufgrund ihrer Fähigkeit entdeckt wurde, die Peroxisomenproliferation zu induzieren, nachdem die Nagetierleber xenobiotischen Verbindungen ausgesetzt wurde. Wie bei den meisten NHRs erfordern PPARs die Assoziation mit einem Liganden, um die Transkriptionsaktivität zu erleichtern. PPAR-Liganden umfassen eine große Gruppe natürlich vorkommender Fettsäuren oder ihrer Derivate sowie viele synthetische Verbindungen wie die Thiazolidindion-Familie von Insulin-Sensibilisatoren, die spezifische Liganden für PPARγ sind. Studien der letzten zehn Jahre haben die PPARs als Regulatoren der Lipidhomöostase identifiziert und gezeigt, dass sie die Transkription von Genen regulieren, die an verschiedenen Aspekten des Lipidstoffwechsels in verschiedenen Geweben beteiligt sind. Dieser Review konzentriert sich auf die Rolle von PPARγ bei der Regulierung des Übergangs vom Wachstum zur Differenzierung und seine mögliche Rolle als Tumor-/Wachstumssuppressor. PPARγ wird in vielen verschiedenen Zelltypen exprimiert, von denen angenommen wird, dass sie eine Reihe von biologischen Prozessen wie Wachstum, Differenzierung und Insulinsensitivität regulieren. Tatsächlich steht PPARγ im Mittelpunkt einer schnell wachsenden Forschungsanstrengung, da es sich als Ziel für die Entdeckung von Medikamenten zur Bekämpfung von Typ-2-Diabetes und einigen Krebsarten erwiesen hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-0965-3_11 73ddb8a22a9bdfda7813a92f4535e9e1;de;;;3.2.;;;„Gridifying“ eines evolutionären Algorithmus zur Inferenz genetischer Netzwerke unter Verwendung des verbesserten GOGA-Frameworks und seiner Leistungsbewertung auf OBI Grid Dieses Papier stellt einen genetischen Algorithmus vor, der auf einer Grid-Computing-Umgebung zur Inferenz von genetischen Netzwerken läuft. In der Bioinformatik ist die Inferenz auf genetische Netzwerke eines der wichtigsten Probleme, bei denen wechselseitige Interaktionen zwischen Genen anhand von Genexpressions-Zeitverlaufsdaten geschätzt werden. Network-Structure-Search Evolutionary Algorithm (NSS-EA) ist eine vielversprechende Inferenzmethode für genetische Netzwerke, die das S-System als Modell des genetischen Netzwerks und einen genetischen Algorithmus (GA) als Suchmaschine verwendet. In diesem Papier schlagen wir eine Implementierung von NSS-EA vor, die auf einer Multi-PC-Cluster-Grid-Computing-Umgebung läuft, in der mehrere PC-Cluster über das Internet verbunden sind. Wir „vernetzen“ NSS-EA, indem wir ein Framework für die Entwicklung von GAs verwenden, das auf einer Multi-PC-Cluster-Grid-Umgebung läuft, genannt Grid-Oriented Genetic Algorithm Framework (GOGA Framework). Wir haben untersucht, ob der „Gridified“ NSS-EA korrekt funktioniert und seine Leistung auf Open Bioinformatics Grid (OBIGrid) in Japan bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-32251-1_15 80c373e51cb7f96c01dda8a244aeac80;de;;;3.2.;;;Sicherer medienunabhängiger Handover-Nachrichtentransport in heterogenen Netzwerken Das IEEE 802.21-Framework für Media Independent Handover (MIH) bietet nahtlose vertikale Handover-Unterstützung für mobile Multimode-Endgeräte. MIH-Nachrichten werden über verschiedene drahtlose Medien zwischen mobilen Endgeräten und Zugangsnetzen ausgetauscht, um eine nahtlose Übergabe zu ermöglichen. Dies erfordert die Notwendigkeit, MIH-Nachrichten gegen Netzwerksicherheitsbedrohungen im drahtlosen Medium zu sichern. In diesem Papier analysieren wir zunächst IPSec/IKEv2- und DTLS-Sicherheitslösungen für den sicheren MIH-Nachrichtentransport. Wir zeigen, dass die Übergabelatenz ein Hindernis für den Einsatz von IPSec- und DTLS-Lösungen sein kann. Um den Handover-Overhead zu überwinden und somit die Authentifizierungszeit zu minimieren, wird eine neue sichere MIH-Nachrichtentransportlösung, in diesem Papier als MIHSec bezeichnet, vorgeschlagen. Experimentelle Ergebnisse werden für MIH zwischen WLAN- und Ethernet-Netzwerken erhalten und die Auswirkungen der MIH-Nachrichtensicherheit auf die Übergabelatenz werden für IPSec-, DTLS- und MIHSec-Sicherheitslösungen bewertet. Die Wirksamkeit von MIHSec ist nachgewiesen.;-;-;-;https://link.springer.com/article/10.1155/2009/716480 14505fac21f9427a8684b5d68507ad1d;de;;;3.2.;;;Tischtennis Vorhand- und Rückhandschlagerkennung basierend auf neuronalem Netz In den letzten Jahren haben Mikrocontroller-Hersteller damit begonnen, SoC-Boards zu produzieren, die nicht nur zum Sammeln von Daten von implementierten Sensoren verwendet werden, sondern auch für die Implementierung kleiner neuronaler Netzwerke verwendet werden können. Das Ziel dieses Papiers ist es, die Möglichkeit einer einfachen neuronalen Netzwerkimplementierung für die Sportüberwachung zu analysieren, aber wir werden versuchen, den Stand der Technik auf diesem Gebiet zu nutzen. Sportüberwachungsgeräte können in den meisten Sportarten verwendet werden, aber in dieser Arbeit wird das Gerät entwickelt, das Vorhand- und Rückhandschläge beim Tischtennis erkennen kann. Diese Aufgabe ist für die Entwicklung nicht so kompliziert, aber der Fokus wird auf der Flexibilität und Möglichkeit liegen, dieses System für andere Sportarten einzusetzen. Nach den abschließenden Testergebnissen unter Laborbedingungen ist das entwickelte System bei der Tischtennis-Vorhand- und Rückhandschlagerkennung zu 96 % genau. Schließlich wurde in unserer Implementierung ein trainiertes neuronales Netzwerk auf Mikrocontroller übertragen und dieser Ansatz eröffnet einige neue Möglichkeiten, die in zukünftigen Versionen entwickelt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6634-9_3 d2e359278310947ec4821dcd3b7189e7;de;;;3.2.;;;Convolutional-Block-Attention-Dual-Path-Netzwerke zur Erkennung von Folienübergängen in Vorlesungsvideos Die Folienübergangserkennung wird verwendet, um die Bilder zu finden, bei denen sich der Folieninhalt ändert, die eine Zusammenfassung des Vorlesungsvideos bilden und die Zeit zum Ansehen der Vorlesungsvideos sparen. 3D Convolutional Networks (3D ConvNet) gilt als effizienter Ansatz, um räumlich-zeitliche Funktionen in Videos zu lernen. 3D ConvNet gibt jedoch allen Features im Bild das gleiche Gewicht und kann sich nicht auf wichtige Featureinformationen konzentrieren. Wir lösen dieses Problem, indem wir den Aufmerksamkeitsmechanismus verwenden, der effektivere Feature-Informationen hervorhebt, indem ungültige unterdrückt werden. Außerdem kostet 3D ConvNet normalerweise viel Trainingszeit und benötigt viel Speicher. Dual Path Network (DPN) vereint die beiden Netzwerkstrukturen von ResNext und DenseNet und bringt deren Vorteile mit sich. ResNext fügt Eingaben direkt zur gefalteten Ausgabe hinzu, wodurch extrahierte Features aus der vorherigen Hierarchie genutzt werden. DenseNet verkettet die Ausgabe jedes Layers mit der Eingabe jedes Layers, wodurch neue Features aus der vorherigen Hierarchie extrahiert werden. Basierend auf den beiden Netzwerken spart DPN nicht nur Trainingszeit und Speicher, sondern extrahiert auch effektivere Funktionen und verbessert die Trainingsergebnisse. Daher präsentieren wir eine neuartige ConvNet-Architektur basierend auf Convolutional Block Attention und DPN zur Erkennung von Folienübergängen in Vorlesungsvideos. Experimentelle Ergebnisse zeigen, dass die vorgeschlagene neuartige ConvNet-Architektur die besseren Ergebnisse erzielt als andere Ansätze zur Objektträgererkennung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-3341-9_9 bd2b2208108b081b939970d7f49466a8;de;;;3.2.;;;Gesichtserkennungsalgorithmus basierend auf nichtlinearer Hauptkomponentenmerkmalsextraktion Neuronales Netz Um das Gesichtserkennungsproblem mit verschiedenen Faktoren wie Licht, menschlicher Ausdruck und Aufnahmewinkel zu lösen, wird in diesem Beitrag ein neuronales Netzmodell mit nichtlinearer Hauptkomponenten-Merkmalsextraktion verwendet. Forscher haben viele Algorithmen zur Identifizierung von Anwendungen vorgeschlagen, aber die Einschränkungen einzelner Algorithmen können die Anforderungen der praktischen Anwendung nicht erfüllen. Durch die Einführung der nichtlinearen Hauptkomponentenanalyse (PCA) löscht der vorgeschlagene Algorithmus eine große Menge nichtlinearer Daten unter der Prämisse, dass eine kleine Informationsmenge nach der Reduktion der linearen Dimensionalität garantiert werden kann. Da die Rechenkomplexität des neuronalen Netzwerkalgorithmus (BPNN) groß ist, verwenden wir die nichtlineare Hauptkomponentenanalysemethode, um die Informationsmenge der Originaldaten sicherzustellen und in Kombination mit dem neuronalen Netzwerkalgorithmus die Effizienz des Algorithmus zu verbessern. Empirische Ergebnisse zeigen, dass die PCA-Methode redundante Daten effektiv reduzieren und die Datenintegrität sicherstellen kann. Daten nach der Dimensionsreduktion können die Recheneffizienz des neuronalen Netzwerkalgorithmus verbessern. Das BPNN-basierte PCA-Modell kann den Zeitverbrauch und die Erkennungsgenauigkeit der Gesichtserkennung effektiv lösen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-14680-1_47 eec014268d91563103b1b7d56fc309f0;de;;;3.2.;;;Eine neue Bibliothek bioinspirierter Algorithmen Reale technische, naturwissenschaftliche und wirtschaftswissenschaftliche Probleme können aufgrund der hohen Rechenzeit, um die optimale Lösung zu finden, nie exakt gelöst werden. Eine Möglichkeit, solche Probleme zu lösen, besteht darin, bioinspirierte Algorithmen anzuwenden, um die Zeit für die Suche nach möglichen Lösungen zu minimieren. Bioinspirierte Algorithmen basieren auf dem kollektiven Verhalten sozialer Organismen und werden zur Lösung von Optimierungsproblemen eingesetzt. Dieser Artikel stellt eine neue Bibliothek bioinspirierter Algorithmen vor. Die Bibliothek bietet die Implementierung einiger Algorithmen und ist durch Schnittstellen leicht erweiterbar. Eine Bewertung wurde unter Verwendung von 7 Testfunktionen durchgeführt, die auf jeden der implementierten Algorithmen angewendet wurden. Die Tests haben gezeigt, dass der ABC-Algorithmus in 5 Tests und der ACO-Algorithmus in 2 Tests die besten Konvergenzergebnisse erzielt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58799-4_35 954f21cc1e1edee84a8febbb538ecee2;de;;;3.2.;;;Ein neuronales Modell für nichtassoziatives Lernen in einem prototypischen sensomotorischen Schema: die Landereaktion bei Fliegen Nichtassoziatives Lernen ist eine wichtige Eigenschaft der neuronalen Organisation sowohl bei Wirbeltieren als auch bei Wirbellosen. In diesem Artikel schlagen wir ein neuronales Modell für nichtassoziatives Lernen in einem gut untersuchten prototypischen sensomotorischen Schema vor: die Landereaktion von Fliegen. Die allgemeine Struktur des Modells besteht aus sensorischen Verarbeitungsstufen, einem sensomotorischen Gate-Netzwerk und motorischen Regelkreisen. Der Beitrag konzentriert sich auf das sensomotorische Gate-Netzwerk, das eine Agonist-Antagonist-Struktur aufweist. Sensorische Eingaben in diesen Kreislauf werden durch chemische Botensysteme umgewandelt, deren Dynamik Erschöpfungs- und Wiederauffüllungsterme umfasst. Die resultierende Schaltung ist eine Gate-Dipol-Anatomie und wir zeigen, dass sie das nichtassoziative Lernen in der Landereaktion der Fliege gut beschreibt.;-;-;-;https://link.springer.com/article/10.1007/BF00201860 bd2705f9bff001a196283a1c702f2b7b;de;;;3.2.;;;Fehlertolerante Implementierung von Xilinx Vertex FPGA für Sensorsysteme durch On-Chip-Systementwicklung Heutzutage kämpfen die meisten Anwendungen darum, ein gutes Verhalten ihrer Subsysteme durch die Zusammenarbeit von Systemen zu erreichen, die unabhängig voneinander entworfen, getrennt angeordnet sind, sich jedoch gegenseitig beeinflussen. Solche Koordinationssysteme sind schwer zu den spezifischen Strukturmodellen und effektiven Parametern zu erreichen. In solchen Fällen werden die EHW-Methoden (Evolved Hardware) mit evolutionären Algorithmen (EA) eingesetzt, um ein anspruchsvolles Informationsniveau zu erreichen [2]. Zahlensysteme wurden mit evolvierbarer Hardware auf einem einzigen Chip eingeführt, um den Mangel an Flexibilität zu überwinden, mit der Unterstützung eines modifizierbaren evolutionären Algorithmus, der in Software auf einem eingebauten Prozessor gespeichert ist. In diesem Papier wurde die Architektur mit Xilinx Virtex-II Pro FPGA mit angeschlossenem PowerPC-Prozessor vorgeschlagen. Aufgrund dieser schnellen Verarbeitung, Zeitaufwand in Hardware und ermöglicht auch andere Teile leicht modifizierbare Software. Die vorgeschlagene Technik wird in zukünftigen Arbeiten weitere Vorteile hinsichtlich Kosten und Kompaktheit bieten [1]. Das System wurde vollständig auf physischen Geräten analysiert, wobei die Software parallel zur Fitnessberechnung in digitalen Logikschaltungen ausgeführt wurde, und die Ergebnisse zeigen, dass das System im Vergleich zu einem PC mit zehnmal schnellerer Taktrate nur die doppelte Zeit benötigt[6].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17604-3_53 0e85cb503663bfd4c24fc5785416430b;de;;;3.2.;;;Funktionen der Immunzellen Die Immunantwort, wie sie in höheren Wirbeltieren einschließlich des Menschen in ihrer ausgefeiltesten Form zum Ausdruck kommt, ist ein Selbstverteidigungsmechanismus, der den Wirt schützt, indem er körperfremde Substanzen wie abnormale Zellen oder eindringende Infektionserreger unterscheidet und neutralisiert oder zerstört. Alle an Immunreaktionen beteiligten Zellen stammen aus pluripotenten hämatopoetischen Stammzellen, die im Knochenmark produziert werden. Die Stammzellen differenzieren in myeloische Vorläufer und gemeinsame lymphoide Vorläufer. Es gibt drei Arten von Granulozyten, Neutrophile, Eosinophile und Basophile. Die gemeinsamen lymphoiden Vorläufer führen zu den Lymphozyten, die in zwei Hauptgruppen unterteilt sind, B-Lymphozyten und T-Lymphozyten. Diese Lymphozyten besitzen Antigenrezeptoren, das Oberflächenimmunglobulin von B-Zellen und den Antigenrezeptor von T-Zellen (TCR). B-Zellen können Antigene außerhalb der Zelle nachweisen, während T-Zellen Antigene erkennen, die innerhalb der Zelle erzeugt und auf der Zelloberfläche als Moleküle kombiniert mit einem Haupthistokompatibilitätskomplex (MHC) exprimiert werden Plasmazellen, die Antikörper absondern. Es gibt zwei Hauptklassen von T-Lymphozyten, T-Helferzellen (TH), die Immunzellen wie B-Zellen und Makrophagen aktivieren, und zytotoxische T-Lymphozyten (CTLs), die virusinfizierte Zellen und die Zellen von transplantierten Geweben oder Organen abtöten veränderte MHC-Peptide.;-;-;-;https://link.springer.com/chapter/10.1007/978-4-431-65927-3_5 a849077c039b7c2e7f3f44ba4441bc79;de;;;3.2.;;;Cornerstone Network mit Feature Extractor: ein metrikbasiertes Modell für die natürliche chinesische Gebärdensprache Standardchinesische natürliche Gebärdensprache (CNSL) enthält über 8.000 Wörter. Wir überlegen, die Aufgabe der CNSL-Erkennung in mehrere Teilaufgaben aufzuteilen. Durch das Lernen mit wenigen Schritten zu Teilaufgaben können minimale Anschaffungskosten und eine kurzfristige Schulung erreicht werden. Die bestehenden Methoden des Lernens mit wenigen Aufnahmen berücksichtigen jedoch nicht die Auswirkungen von schlecht konditionierten Support-Stichproben, daher schlagen wir ein neues metrikbasiertes Modell, Cornerstone Network (CN), vor, um die Teilaufgaben zu erledigen. CN besteht hauptsächlich aus Feature Extractor (optional), Embedding Network und Cornerstone Generator. Der Cornerstone-Generator ist als semi-überwachter Clusterer konzipiert. Im Vergleich zu anderen metrischen Modellen mit wenigen Aufnahmen verbessert CN ohne Feature Extractor die 5-Schuss-Genauigkeit auf Omniglot und miniImageNet. Um die Machbarkeit unseres Modells zur Aufgabe der CNSL-Erkennung zu überprüfen, haben wir die Datenbank der chinesischen natürlichen Gebärdensprache von CNSL-80 auf CNSL-139 erweitert, die Oberflächenelektromyographie und Trägheitssignale integriert. Die 5-Schuss-Genauigkeit des CNSL-139 steigt von 65,25% auf 68,83% im Vergleich zum Stand der Technik. Nach der Verbindung mit dem 1-D-Faltungsfunktionsextraktor unter Verwendung der Idee von Siamese Network für das sekundäre Training erhöht sich die Genauigkeit um 10,38 %. Beim Online-Test werden die Merkmalsvektornormen zum selektiven Matching verwendet. Die Genauigkeit sinkt zwar, ist aber immer noch mindestens 5 % höher als ohne Feature Extractor. Experimentelle Ergebnisse bestätigen die Wirksamkeit unseres Modells auf 2D-Bildern und 1D-Zeitreihensignalen und die Verbesserung der Echtzeiterkennung durch SM.;-;-;-;https://link.springer.com/article/10.1007/s10489-020-02170-9 939905684eb539737e90bb8324d7e1c0;de;;;3.2.;;;IEBS Ticketing Protocol als Antwort auf Synchronisationsprobleme In diesem Beitrag stellen wir eine neuartige Synchronisationstechnologie vor, die für verteilte Computersysteme konzipiert ist, die Replikation als Mittel zur Redundanz verwenden. Unser Mechanismus wurde in erster Linie für Intelligent ExaByte Storage entwickelt, bei dem es sich um ein Netzwerkspeichersystem mit Mehrbenutzerzugriff handelt. Das Protokoll basiert auf dem Konzept digitaler Identitätszertifikate und unterstützt die Echtzeitaktualisierung von Replikaten und die Aufhebung von Vorgängen, die möglicherweise zu veralteten Ergebnissen geführt haben. Es garantiert auch, dass die Anzahl der Replikate während der Systemleistung jederzeit gleich bleibt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68111-3_7 b121a969c59b9770f173736e24a0b27c;de;;;3.2.;;;Datentransformation mit benutzerdefiniertem Klassengenerator als Teil der Systemintegration in Fertigungsunternehmen Dieser Beitrag versucht, eines der Themen des Datenaustauschs zwischen verschiedenen Themen der IT-Struktur in Produktionsunternehmen näher zu bringen, die den Kern ihrer Integration darstellen. Der Artikel konzentriert sich hauptsächlich auf die Transformation von zwischen Systemen ausgetauschten Daten in das offene B2MML-Format. Der Artikel präsentiert ein Entwurfskonzept einer Lösung für die Datentransformation mit einem benutzerdefinierten Klassengenerator. Die Funktionsfähigkeit wurde anhand von Beispieldaten im B2MML-Format getestet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-39207-3_34 06f9090edbea6acc6af9cef034def996;de;;;3.2.;;;Halbautomatische Messung und Identifizierung von allergenen Luftpollen Der gegenwärtige Lebensstil in den Industrieländern macht die Ausübung von Outdoor-Aktivitäten fast obligatorisch. Da diese Übungen wie Trekking, Radfahren, Reiten oder einfach nur Laufen oder Gehen in städtischen Parks in der Natur (zumindest im Freien) gemacht werden, kann nicht jeder sie zu jeder Jahreszeit unter optimalen körperlichen Bedingungen ausüben. Wir beziehen uns auf diejenigen, die an Pollinose leiden oder „;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44654-6_27 9acf04f0df4e08e9b8801eab9ba1fe10;de;;;3.2.;;;Forschung zur Verschmelzung von Warnradar- und Sekundärradar-Intelligenzinformationen Basierend auf der Forschung zum Multisensor-Fusionstracking, kombiniert mit den Arbeitseigenschaften von Warnradar und Sekundärradar, schlägt dieses Papier eine Punktfusions- und Spurfusionsstruktur vor, die für ihre technische Anwendung und einen spezifischen Fusionsprozess geeignet ist. Der in diesem Artikel vorgeschlagene Track-Fusion-Algorithmus nähert sich nicht nur dem Punktfusionsalgorithmus in der Tracking-Genauigkeit, sondern behält auch die Vorteile einer verteilten Fusionsstruktur bei und hat breite Anwendungsperspektiven. Die Wirksamkeit und Überlegenheit des Algorithmus werden durch entsprechende Simulationen verifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9409-6_24 11f6d38726202b16e2e93cc420f610e1;de;;;3.2.;;;„Inoffizieller Radio Hell-Raiser“: Radionachrichten und US-Japanischer Konflikt am Vorabend des Pazifikkrieg Als der Radionachrichtensprecher Carroll Duard Alcott am Abend des 12. Januar 1940 zur Arbeit chauffiert wurde, geriet er in einen Hinterhalt. Ein Auto mit zwei uniformierten Mitgliedern des japanischen Militärs rollte vor Alcotts Rikscha, als es durch die Straßen von Shanghai fuhr. Nachdem er die Rikscha gefangen hatte, rannte Alcotts verängstigter Abzieher zu Fuß durch eine nahe gelegene Gasse. Ein Leutnant packte die amerikanische Radiopersönlichkeit mit der Absicht, ihn in sein Fahrzeug zu zwingen. Aufgefordert, seine Identität zu bestätigen, bestritt Alcott, der gesuchte Mann zu sein. Als ein Moment des Zweifels in den Sinn des Offiziers kam, riss sich der 220 Pfund schwere Alcott los und schleuderte ihn in dieselbe Gasse, die sein Abzieher benutzte. Alcott kam zu Fuß zu XMHA, einem amerikanischen Radiosender, etwas außer Atem, aber rechtzeitig, um seine geplante Sendung zu liefern.;-;-;-;https://link.springer.com/chapter/10.1057/9780230301931_7 63ac4383a2692a40009611e1065f9114;de;;;3.2.;;;Eine Übersicht über Geometrie-Plus-Simulationsmodule Wir geben einen Überblick über die Open-Source-Bibliothek „G+Smo“. G+Smo ist eine C++-Bibliothek, die mathematische Werkzeuge für geometrisches Design und numerische Simulation vereint. Es implementiert das relativ neue Paradigma der isogeometrischen Analyse, das die Verwendung eines einheitlichen Frameworks in der Design- und Analysepipeline vorschlägt. G+Smo ist eine objektorientierte, plattformübergreifende, vollständig vorlagenbasierte Bibliothek und folgt dem generischen Programmierprinzip mit Fokus auf Effizienz und Benutzerfreundlichkeit. Ziel der Bibliothek ist es, der Gemeinschaft der numerischen Simulation und darüber hinaus Zugang zu hochwertiger Open-Source-Software zu bieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-43120-4_35 aa66c9f27c303dadae27ad6066a2a87b;de;;;3.2.;;;Empfehlung wissenschaftlicher Literatur in einer kollaborativen Tagging-Umgebung In letzter Zeit ist kollaboratives Tagging in der Web2.0-Welt populär geworden. Tags können bei der Empfehlung hilfreich sein, da sie charakteristische Inhaltsmerkmale der Ressourcen widerspiegeln. Es gibt jedoch nur wenige Untersuchungen, die Tags in die Empfehlung einführen. Dieser Beitrag schlägt einen Tag-basierten Empfehlungsrahmen für wissenschaftliche Literaturen vor, der die Nutzerinteressen mit Tags und Literaturschlüsselwörtern modelliert. Dann wird ein hybrider Empfehlungsalgorithmus angewendet, der dem kollaborativen Filteralgorithmus von Benutzer und Benutzer ähnlich ist, außer dass die Benutzerähnlichkeit auf der Grundlage des Vektormodells von Benutzerschlüsselwörtern außer der Bewertungsmatrix gemessen wird und dass die Bewertung nicht vom Benutzer stammt, sondern repräsentiert als Benutzer-Item-Ähnlichkeit, berechnet mit der punktproduktbasierten Ähnlichkeit anstelle der kosinusbasierten Ähnlichkeit. Experimente zeigen, dass unser Tag-basierter Algorithmus besser ist als der Basisalgorithmus und die Erweiterung des Benutzermodells und die punktproduktbasierte Ähnlichkeitsberechnung sind ebenfalls hilfreich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-77094-7_60 af0d82644fb42c2550e80db38e8c1828;de;;;3.2.;;;Simulationsstudie zu Load-Balanced Multiple Home Agents für mobile IP-Netzwerke In einer ständig wachsenden mobilen und drahtlosen Netzwerkumgebung ist mobiles IP der bevorzugte Standard, der für die Bereitstellung von Internet-Konnektivität für mobile Roaming-Knoten verantwortlich ist. Unter bestimmten Verkehrsbedingungen, wie beispielsweise in mobilen IP-Netzwerken, die Multimediaanwendungen unterstützen, kann Overhead Verzögerungen bei den Mobilitätsagenten, d. h. Fremd- und Heimatagenten, verursachen. Der Mobile-IP-Standard schließt zwar die Verwendung mehrerer Home-Agenten nicht aus, schreibt aber auch kein bestimmtes Modell vor, sodass die Verwendung von nur einem Home-Agent in einer klassischen Heimnetzkonfiguration die IP-Datenpaketströme für die mobilen Knoten erheblich einschränken kann . In diesem Artikel entwickeln wir einen neuen Simulator, um die Leistung einer Protokollerweiterung mit mehreren Heimagenten mit Lastausgleich sowie mehrere Ergebnisse aus einer umfassenden Simulationsstudie des Systems zu bewerten. Wir untersuchen mehrere dynamische Lastausgleichsrichtlinien, die den Verkehr auf mehrere Knoten im Heimnetzwerk verteilen, und vergleichen die Ergebnisse, die unter verschiedenen Verkehrsformen erhalten wurden. Wir führen eine realistischere Lastenausgleichsrichtlinie mit zwei Schwellenwerten ein und vergleichen ihr Verhalten mit dem anderer dynamischer/statischer Richtlinien. Mithilfe von Simulationen analysieren wir auch die Auswirkungen einer Änderung der Anzahl von Home-Agenten mit Lastausgleich auf die Gesamtsystemleistung. Die Ergebnisse zeigen, dass einige Lastenausgleichsrichtlinien, von denen erwartet wird, dass sie eine bessere Leistung erbringen als andere, gelegentlich ein gegenteiliges Verhalten aufweisen. Dies erweist sich als stark abhängig vom Verkehrsmuster, insbesondere von dessen Burstigkeit.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44431-9_17 651cd3219e18b9f56be0fc6908b954d4;de;;;3.2.;;;ARC Ein computergestütztes System für die städtische Müllabfuhr In diesem Beitrag stellen wir ARC vor, ein computergestütztes System, das für die städtische Müllabfuhr entwickelt wurde. Das Paket soll die Planer bei der Gestaltung effizienter Sammelwege unterstützen und die Untersuchung und Bewertung von Alternativen zu Themen wie Art und Anzahl der Fahrzeuge, Häufigkeit der Sammlung sowie Art und Standort von Abfallbehältern erleichtern. Das Endprodukt ist ein „benutzerfreundliches“ System, das von den Planern ohne fremde Hilfe verwendet werden kann.;-;-;-;https://link.springer.com/article/10.1007/BF02574736 d424e22754a4b46280131e619d6a8719;de;;;3.2.;;;Künstliches neuronales Netzwerk und Entscheidungsbaum in der prädiktiven Bodenkartierung des Hoi Num Rin Sub-Watershed, Thailand Die Nachfrage nach hochauflösenden Bodenkartierungen wächst zunehmend, insbesondere für Zwecke von Landdegradationsstudien. Das Ziel dieser Studie konzentriert sich auf die Anwendung der Methoden der digitalen prädiktiven Bodenkartierung in unzugänglichen, bodendegradationsgefährdeten Gebieten. Künstliche Neuronale Netze (ANN) und Entscheidungsbäume (DT) wurden innerhalb der GIS-Umgebung eingesetzt, um der Komplexität der bodenbildenden Faktoren, die die Bodenbildung bestimmen, gerecht zu werden. Nach den Prinzipien des geopädologischen Ansatzes der Bodenuntersuchung wurde eine digitale prädiktive Bodenkartierung im Unterwassereinzugsgebiet von Hoi Num Rin durchgeführt, die eine Fläche von etwa 20 km² bedeckt;-;-;-;https://link.springer.com/chapter/10.1007/978-90-481-8863-5_13 9f7da4ca5737c8ee444f42f2e68c70b4;de;;;3.2.;;;Ein ausdrucksstärkerer Monitor für die gleichzeitige Java-Programmierung Der von Java verwendete Thread-Synchronisationsmechanismus leitet sich vom Monitorkonzept von Hoare ab. Um die Komplexität der Implementierung zu minimieren, ist der von Java bereitgestellte Monitor ziemlich primitiv. Diese Designentscheidung bevorzugt einfache gleichzeitige Objekte und Single-Thread-Programme. Wir denken jedoch, dass der Java-Monitor für die Entwicklung komplexerer nebenläufiger Objekte zu vereinfacht ist. Außerdem bringen einige Funktionen des Java-Monitors zusätzlichen Overhead, wenn die Thread-Konkurrenz größer wird. Derzeit haben wir fünf Nachteile des Java-Monitors identifiziert. In diesem Papier werden wir diese Nachteile zunächst eingehend analysieren und dann einen neuen monitorbasierten Synchronisationsmechanismus namens EMonior vorschlagen. Es hat eine bessere Ausdruckskraft und verursacht weniger Overhead als der Java-Monitor, wenn es zu Konflikten kommt. EMonior verwendet einen Präprozessor, um die Java-Programme mit der EMonitor-Syntax in normale Java-Programme zu übersetzen, die EMonitor-Klassenbibliotheken aufrufen. Es ist sehr gut geeignet, den Java-Monitor durch den EMonitor zu ersetzen, wenn aufwendige nebenläufige Objekte oder hochkonkurrierende nebenläufige Systeme entwickelt werden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-44520-X_149 9e2be531480c2e96f57f458e6878fb9c;de;;;3.2.;;;Netzwerkbewusste Optimierung von MPDATA auf homogenen Multi-Core-Clustern mit heterogenem Netzwerk Die Kommunikationsschicht moderner HPC-Plattformen wird immer heterogener und hierarchischer. Als Ergebnis werden selbst auf Plattformen mit homogenen Prozessoren die Kommunikationskosten vieler paralleler Anwendungen je nach Abbildung ihrer Prozesse auf die Prozessoren der Plattform erheblich variieren. Die optimale Abbildung, die die Kommunikationskosten der Anwendung minimiert, hängt stark von der Netzwerkstruktur und -leistung sowie dem logischen Kommunikationsfluss der Anwendung ab. In unserer vorherigen Arbeit haben wir einen allgemeinen Ansatz und zwei approximative heuristische Algorithmen vorgeschlagen, die darauf abzielen, die Kommunikationskosten von datenparallelen Anwendungen mit zweidimensionalen symmetrischen Kommunikationsmustern in heterogenen hierarchischen Netzwerken zu minimieren, und diese Algorithmen im Kontext der Parallelmatrix getestet Multiplikationsanwendung. In diesem Beitrag entwickeln wir einen neuen Algorithmus, der auf einem dieser heuristischen Ansätze im Kontext einer realen Anwendung aufbaut, MPDATA, der einer der Hauptbestandteile des geophysikalischen EULAG-Modells ist. Wir untersuchen den Kommunikationsfluss von MPDATA sorgfältig und stellen fest, dass selbst unter der Annahme eines perfekt homogenen Kommunikationsnetzes die logischen Kommunikationsverbindungen dieser Anwendung unterschiedliche Bandbreiten aufweisen, was die Optimierung der Kommunikationskosten besonders schwierig macht. Wir schlagen einen neuen Algorithmus vor, der auf Kostenfunktionen eines unserer allgemeinen heuristischen Algorithmen basiert und wenden ihn auf die Optimierung der Kommunikationskosten von MPDATA an, das ein asymmetrisches heterogenes Kommunikationsmuster aufweist. Wir präsentieren auch experimentelle Ergebnisse, die Leistungssteigerungen aufgrund dieser Optimierung zeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49956-7_3 f38357426c6797f585b409afbc742df9;de;;;3.2.;;;Ein immunbasiertes Modell zur Erkennung von Computerviren Inspiriert von biologischen Immunsystemen wird in diesem Beitrag ein neues immunbasiertes Modell zur Erkennung von Computerviren vorgeschlagen. Eine quantitative Beschreibung des Modells wird gegeben. Es wird ein dynamisches Evolutionsmodell für die Selbst-/Nicht-Selbstbeschreibung vorgestellt, das die Größe der Selbstmenge reduziert. Darüber hinaus wird eine evolutive Genbibliothek eingeführt, um die Generierungseffizienz ausgereifter Detektoren zu verbessern und den Systemzeitaufwand sowie die falsch-negativen und falsch-positiven Raten zu reduzieren. Experimente zeigen, dass dieses Modell eine bessere Zeiteffizienz und Erkennungsfähigkeit aufweist als das klassische Modell ARTIS.;-;-;-;https://link.springer.com/chapter/10.1007/11599371_6 c288623804e5dffed18d8479729ddf05;de;;;3.2.;;;Patrol: Aufdecken von Zero-Day-Angriffspfaden durch netzwerkweite Systemobjektabhängigkeiten Die Identifizierung von Angriffspfaden im Unternehmensnetzwerk ist strategisch notwendig und entscheidend für die Sicherheitsabwehr. Es wurden jedoch nicht genügend Anstrengungen unternommen, um zu untersuchen, wie ein Angriffspfad identifiziert werden kann, der durch unbekannte Sicherheitslücken führt. In diesem Papier definieren wir solche Angriffspfade als;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40203-6_30 7a0b0292d58822ef30c2d14ffd83ed3b;de;;;3.2.;;;Trace-basierte parallele Performance-Overhead-Kompensation Das Tracing paralleler Programme, um ihre Leistung zu beobachten, führt als Ergebnis des Trace-Messaufwands zu Eindringversuchen. Wenn die Post-Mortem-Trace-Analyse den Overhead nicht ausgleicht, führt das Eindringen zu Fehlern in den Performance-Ergebnissen. Wir zeigen, dass der Messaufwand bei der Trace-Analyse berücksichtigt und Intrusion modelliert und beseitigt werden kann. In unserer früheren Arbeit [5] entwickelte Algorithmen werden in einem robusteren und moderneren Werkzeug neu implementiert,;-;-;-;https://link.springer.com/chapter/10.1007/11557654_72 2670d3c9d41a782a78843d78a2695500;de;;;3.2.;;;Die Forschung und der Kontrast der Hybrid Intrusion Detection Dieses Papier analysiert zunächst das System auf Basis von Data Mining und erläutert das vorläufige Konzept und die Eigenschaften des Data Mining, dann analysiert es das System auf der Grundlage der Immuntheorie Nach dem Prinzip und den Eigenschaften der Immuntheorie, sagen wir in das Intrusion-Detection-System und schlagen das Intrusion-System-Modell vor, das mit der Immunologie gemischt wird. Schließlich stellt dieser Beitrag das typische hybird Intrusion Detection System und das neue hybird Intrusion Detection System auf Basis des Immunalgorithmus vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25349-2_121 5475f3a4622bee5c76ca85638c80347c;de;;;3.2.;;;Bleib in deinem Käfig! Eine Sound-Sandbox für Bibliotheken von Drittanbietern auf Android Bibliotheken von Drittanbietern werden häufig in der Android-Anwendungsentwicklung verwendet. Während sie die Funktionalität erweitern, stellen Bibliotheken von Drittanbietern wahrscheinlich eine Bedrohung für Benutzer dar. Erstens genießen Bibliotheken von Drittanbietern dieselben Berechtigungen wie die Anwendungen, daher sind Bibliotheken überprivilegiert. Zweitens teilen sich Bibliotheken und Anwendungen von Drittanbietern denselben internen Dateibereich, sodass die Dateien der Anwendungen für Bibliotheken von Drittanbietern verfügbar sind. Um diese Probleme zu lösen, wurden erhebliche Anstrengungen unternommen. Leider macht die Anforderung eines modifizierten Android-Frameworks ihre Methoden unpraktisch.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-45744-4_23 9df6a82a1fbcae8d598bba6dc5814611;de;;;3.2.;;;Zu anwendungsorientierten und werkzeugorientierten Theorien Viele der Präsentationen in diesem Workshop haben Systeme und Systemdesign beschrieben. Da es bei der Konferenz um „KI und Datenbanken“ ging, wunderte ich mich, dass die Vorträge konsequent Systeme und Systemdesign mit Begriffen beschrieben, die aus dem DB-Hintergrund und der „Kultur“ durchaus bekannt erschienen. Es gab meiner Meinung nach keine Präsentation, die wie eine Präsentation aus der KI-Kultur wirkte: KI-Leute würden ihre Systeme nicht so beschreiben, wie es hier beschrieben wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83397-7_25 8eaff7155b951d1053b0375243dd0b87;de;;;3.2.;;;Terminierungstool für Nagoya Dieses Papier beschreibt die Implementierung und Techniken des Nagoya Termination Tools, einem Terminierungsprüfer für Term-Rewrite-Systeme. Die Hauptmerkmale des Tools sind: die erste Implementierung der gewichteten Pfadordnung, die die meisten vorhandenen Reduktionspaare umfasst, und die Effizienz durch die starke Zusammenarbeit mit externen SMT-Solvern. Wir stellen einige neue Ideen vor, die zur Effizienz und Leistungsfähigkeit des Tools beitragen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08918-8_32 ceb05afa17b7a45922e59f1a92b7de86;de;;;3.2.;;;Ein Ansatz zur Bewertung der Leistung von magnetfeldbasierten Indoor-Positionierungssystemen: Neuronales Netzwerk Indoor Positioning Systems sind ein immer attraktiveres Forschungsgebiet und populäre Studien. Sie bieten direkten Zugriff auf sofortige Standortinformationen von Personen an großen, komplexen Orten wie Flughäfen, Museen, Krankenhäusern usw. Insbesondere für ältere Menschen und Kinder können Standortinformationen an solch komplexen Orten lebensrettend sein. Dank der smarten Technologie, die getragen werden kann, eignen sich Alltagsaccessoires wie Armbänder, smarte Uhren für diesen Job. In dieser Studie werden die Daten des Erdmagnetfelds verwendet, um den Standort von Geräten zu finden. Da sie weniger Rauschen als andere Datentypen aufweisen, bieten Magnetfelddaten einen hohen Erfolg. In dieser Studie wird mit diesen Daten ein Positionierungsmodell unter Verwendung eines künstlichen neuronalen Netzes (KNN) konstruiert. Support Vector Machines (SVM) wurde verwendet, um die Ergebnisse des Modells mit dem KNN zu vergleichen. Außerdem wird die Genauigkeit dieses Modells berechnet und analysiert, wie sich die Anzahl der verborgenen Schichten des neuronalen Netzes auf die Genauigkeit auswirkt. Die Ergebnisse zeigen, dass die Genauigkeit des Magnetfeld-Indoor-Positionierungssystems mit KNN 95 % erreichen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-59767-6_32 70a0acf4411d90e1e3cede02e394a0d4;de;;;3.2.;;;Proopiomelanocortin und die Melanocortin-Peptide Die „melanophoren Stimulanzien“ wurden vor etwa 80 Jahren entdeckt, als bei chirurgischen Ablationsexperimenten gezeigt wurde, dass die Hypophyse an der Kontrolle der Hautfarbe von Amphibien beteiligt ist. Die Pars intermedia wurde bald als Ursprung des biologischen Prinzips erkannt, das dann auch als „Intermedin“ bezeichnet wurde und eine Verdunkelung der Amphibienhaut bewirkte (für einen kurzen historischen Rückblick siehe Lit.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-59259-031-5_1 db5d65f7c56b8aef5100318525be39d3;de;;;3.2.;;;Objektzusammensetzungs- und Wiedergabemodelle für den Umgang mit Multimediadaten Zur Handhabung von Multimediadaten werden objektorientierte Modelle vorgeschlagen: ein Objektzusammensetzungsmodell und ein Wiedergabemodell. Die Einführung des „zeitlichen Leims“, eine Erweiterung von T;-;-;-;https://link.springer.com/article/10.1007/BF01213581 91314e2ad553f3528a957e8ed6769e7a;de;;;3.2.;;;Autonome Fahrzeuge innerhalb der ITS-Systeme Ziel des Artikels ist es, einzelne Bereiche der Fernkommunikation mit einem bewegten Objekt zu analysieren und darzustellen, was ein Fahrzeug ist. Gezeigt wird ein Netzwerkmodell eines Fahrzeugs zusammen mit typischen Lösungen von On-Board-Automatisierungssystemen, d. h. ADAS-Systemen. Als nächstes wird das Schichtmodell des On-Board-Echtzeitbetriebssystems Autosar vorgestellt, mit besonderem Schwerpunkt auf den Kommunikationsprotokollen, die für die V2X (Vehicle to Everything)- und V2V (Vehicle to Vehicle)-Kommunikation verantwortlich sind. Ein Hardware-Layer, der auf den neuesten spezialisierten SoC (System on Chip)-Controllern basiert, wird einer präzisen und selektiven Analyse unterzogen. Bei der Diskussion der Programmierfähigkeiten eingebetteter Systeme wird ihre Fähigkeit zur Kommunikation in drahtlosen Netzwerken (einschließlich 5G) am Beispiel der Aktivierung des Endgeräts (hier: Gateway/Ethernet des Fahrzeugs) innerhalb des Überwachungsnetzwerks (TCP/IP) verwendet. Schließlich wird die vorgestellte Anwendung zur Fernkommunikation mit dem Fahrzeug als Beispiel für die Überwachung und Steuerung in ITS-Systemen vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-59270-7_3 d1795d130f525fe22497d6ca3eeb5d13;de;;;3.2.;;;Vorhersage des Luftqualitätsindex basierend auf einem tiefen rekurrenten neuronalen Netzwerk Angesichts des Problems fehlender Werte in Luftschadstoffdaten und der einheitlichen Struktur des Vorhersagemodells muss auch berücksichtigt werden, dass Luftschadstoffe von meteorologischen Daten beeinflusst werden und sich schnell ändern. Daher untersucht dieses Papier hauptsächlich die kurzfristige (stündliche) Vorhersage des Luftqualitätsindex. Zuerst werden die ursprünglichen Schadstoffkonzentrationsdaten durch die Berechnungsformel des AQI in einen individuellen Luftqualitätsindex jedes Schadstoffelements umgewandelt. Dann wird entsprechend den fehlenden Datenattributen und der Länge der fehlenden Zeit ein kombiniertes fehlendes Verarbeitungsverfahren vorgeschlagen. Nach der Korrelationsanalyse und der Merkmalsauswahl wird das Vorhersagemodell des Luftqualitätsindex unter Verwendung eines tiefen rekurrenten neuronalen Netzes basierend auf einer gated rekurrenten Einheit (GRU-BPNN) konstruiert, um den endgültigen vorhergesagten Wert zu erhalten, es wird dann klassifiziert, um seinen entsprechenden AQI-Wert zu erhalten. Basierend auf den in Changchun gewonnenen realen Datenquellen wurde eine Vielzahl von Experimenten durchgeführt, um zu beweisen, dass unser Modell die Leistung der Vorhersage der Luftverschmutzung verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-57884-8_26 bde21e69bde45997e6e370a2cb78fae8;de;;;3.2.;;;Design und Bereitstellung von drahtlosen Sensornetzwerken für die Hochwasserdetektion in Indonesien Überschwemmungen sind eine der größten Naturkatastrophen, die Opfer und Schäden an der Infrastruktur verursachen. Die Flut kommt oft in mehreren Regionen in Indonesien vor, verursacht durch hohe Regenfälle während der Regenzeit. Dieses Papier beschreibt das Design und den Einsatz des Systems zur automatischen Erkennung des Wasserstands im Fluss. Das Warnsystem des Oberflächenwassers wurde durch den Einsatz eines Ultraschallsensor-basierten Mikrocontrollers mit drahtloser Kommunikation vervollständigt, der die Wasserhöhen bestimmt, ob sie unter, im Normalzustand oder über dem Zustand liegen. Die Ergebnisse des implementierten Systems haben eine Genauigkeit des Ultraschallsensors, der einen mittleren Fehler von 0,97% erzeugt und einen RMSE von 0,36 für jede Zunahme um 1 cm.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-68505-2_27 1ce5db1820982e68f2e2c34359f095f9;de;;;3.2.;;;Ein effizientes, die Privatsphäre schützendes Übergabe-Authentifizierungsschema für mobile drahtlose Netzwerke Ein effizientes und sicheres Authentifizierungsprotokoll ist unerlässlich, um die Übergabe der mobilen Geräte nahtlos an einen anderen Zugangspunkt zu ermöglichen. Aufgrund der begrenzten Rechenressourcen und Batteriekapazität in mobilen Geräten sowie der Offenheit und Unsicherheit des drahtlosen Kanals ist die Entwicklung eines effizienten und sicheren Übergabeschemas für drahtlose Netzwerke jedoch eine anspruchsvolle Aufgabe. Darüber hinaus sind die meisten existierenden Übergabeschemata anfällig für verschiedene Arten von Angriffen und können keine gute Leistung erbringen. Gemäß der Analyse der aktuellen Schemata fassen wir die Sicherheitsziele zusammen, die durch das Handover-Authentifizierungsschema erfüllt werden sollen. In diesem Papier stellen wir ein neues Übergabeauthentifizierungs- und Schlüsselvereinbarungsschema für ein elliptisches Kurven-Kryptosystem für mobile drahtlose Netzwerke vor, das keine vertrauenswürdigen Dritten einbezieht und eine datenschutzwahrende gegenseitige Authentifizierung zwischen mobilen Geräten und dem Zugangspunkt bietet. Das vorgeschlagene Schema besteht aus drei Phasen: Systemeinrichtung, Übergabevorbereitung, Übergabeauthentifizierung. Wir geben die Details jeder Phase an. Die theoretische Analyse zeigt, dass das vorgeschlagene Schema universelle Sicherheitsmerkmale erreicht. Die Geheimhaltung des generierten Sitzungsschlüssels und die gegenseitige Authentifizierung des vorgeschlagenen Schemas werden von ProVerif überprüft. Darüber hinaus zeigt ein Leistungsvergleich, dass das vorgeschlagene Schema die verwandten Schemata in Bezug auf Rechenkosten und Kommunikationsaufwand übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-00012-7_45 e9c087fe0bcbb1f0354ea41388ddc4c5;de;;;3.2.;;;Gesichtsausdruckserkennung basierend auf einem vollständigen lokalen binären Muster und einem neuronalen Faltungsnetzwerk Die Erkennung des Gesichtsausdrucks ist ein herausforderndes Problem in der Computervision, da Änderungen des Hintergrunds und des Standorts derselben Person ebenfalls zu Schwierigkeiten bei der Erkennung führen können. Um die schlechte Wirkung von Gesichtsausdruckserkennungsalgorithmen zu verbessern, da sie in der realen Umgebung leicht durch Beleuchtung und Körperhaltung beeinflusst werden können, wird ein Gesichtsausdruckserkennungsalgorithmus basierend auf CLBP und einem neuronalen Faltungsnetzwerk vorgeschlagen. Der Algorithmus verwendet die HOG-Funktion und den Adaboost-Algorithmus, um Bilder mit Gesicht und Augen auszuschneiden, extrahiert CLBP-Fusionsmerkmalsbilder, konstruiert ein siebenschichtiges Faltungs-Neuralnetzwerk-Modell mit zwei Faltungs- und Pooling-Schichten, zwei vollständigen Verbindungsschichten und einer Softmax-Klassifizierungsschicht zur Erkennung sechs Ausdrucksformen von Wut, Abneigung, Angst, Glück, Traurigkeit und Überraschung. Auf dem öffentlichen Datensatz CK+ werden vier Sets von Vergleichsexperimenten entworfen, eine Erkennungsrate von 98,60% wird erreicht, besser als die bestehenden Mainstream-Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-24274-9_51 a2e46346a19f12b7693c954103a56930;de;;;3.2.;;;Gemeinsame Supervision für diskriminatives Merkmalslernen in Convolutional Neural Networks Convolutional Neural Networks haben bei verschiedenen Aufgaben wie der Gesichtsverifizierung und Bildklassifizierung hervorragende Ergebnisse erzielt. Als typische Verlustfunktion in CNNs wird der Softmax-Verlust häufig als Überwachungssignal verwendet, um das Modell für die Mehrklassenklassifizierung zu trainieren, was die Trennung der gelernten Merkmale erzwingen kann. Leider sind diese erlernten Merkmale nicht diskriminierend genug. Um die klasseninterne Kompaktheit und die klassenübergreifende Trennbarkeit der gelernten Merkmale effizient zu fördern, schlägt dieses Papier einen H-Kontrastverlust basierend auf dem kontrastiven Verlust für Mehrklassenklassifikationsaufgaben vor. Gemeinsam von Softmax-Verlust, H-Kontrast-Verlust und Zentrumsverlust überwacht, können wir ein robustes CNN trainieren, um die Unterscheidungskraft der tief erlernten Merkmale aus verschiedenen Klassen zu verbessern. Es ist ermutigend zu sehen, dass die Ergebnisse durch unsere gemeinsame Überwachung die State-of-the-Art-Genauigkeit bei mehreren Mehrklassen-Klassifikationsdatensätzen wie MNIST, CIFAR-10 und CIFAR-100 erreichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-7302-1_42 653b305f97a6c75ef65e6dc67287b3fc;de;;;3.2.;;;Anomalieerkennung in drahtlosen Sensornetzwerken basierend auf KNN In den letzten Jahren hat sich die Verwendung eines drahtlosen Sensornetzwerks (WSN) zu einem führenden Forschungsgebiet in verschiedenen Anwendungen entwickelt. Aufgrund der WSN-Beschränkung der eigenen Funktionen, die dazu führen, dass WSN von unmittelbar bevorstehenden Sicherheitsproblemen belagert wird, ist die abnormale Erkennung in WSN derzeit sehr wichtig . Wir konzentrieren uns auf die Qualität der Daten und zielen auf die Eigenschaften von drahtlosen Sensornetzwerkknotendaten mit zeitlicher und räumlicher Ähnlichkeit und die aktuelle Forschung zur Anomalieanalyse. Wir verwenden die Klassifizierung, um Ausreißer zu erkennen. In diesem Artikel wird eine Methode vorgestellt, mit der die Nähe der Entfernung basierend auf der Entfernung erkannt werden kann, was der Hauptgrund für die Untersuchung des anomalen Werts des Netzwerks ist. Der KNN-Algorithmus (K-Nearest Neighbor) wird verwendet, um die Daten zu analysieren und zu erkennen, um den Zweck der Datenanomalieerkennung in WSN zu erreichen. Der Algorithmus der Ausreißererkennung basiert auf dem Design und der Leistung der QualNet-Simulationsplattform. Es ist effektiv und genau zu bewerten und zu testen. Die Simulationsergebnisse zeigen die Wirksamkeit des vorgeschlagenen KNN-Algorithmus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-24271-8_56 99830db122ec3f94f2db722428dd634e;de;;;3.2.;;;Risikobewertung der End-to-End-Trennung in IP-Netzwerken aufgrund von Netzwerkausfällen Wiederherstellungs- und Schutzumschaltmechanismen in IP-Netzwerken werden durch Verbindungs- oder Knotenfehler ausgelöst, um den Verkehr über Backup-Pfade umzuleiten. Diese Mechanismen sind nicht mehr wirksam, wenn ein Netzwerk nach einem Ausfall getrennt wird. Das Risiko einer Ende-zu-Ende-Trennung steigt, wenn die Knoten eines Netzes nur spärlich vermascht sind oder mehrere Netzausfälle gleichzeitig auftreten. Dies führt unweigerlich zu Verstößen gegen Service Level Agreements mit Kunden und Peering-Netzwerkanbietern. In diesem Papier stellen wir eine Methode vor, um das Risiko einer Ende-zu-Ende-Trennung in IP-Netzwerken aufgrund von Netzwerkausfällen zu bewerten. Wir berechnen die Abschaltwahrscheinlichkeiten für alle Paare von Netzknoten unter Berücksichtigung einer Menge wahrscheinlicher Netzausfälle. Die Ergebnisse werden aus unterschiedlichen Perspektiven betrachtet. Dies hilft, Schwachstellen des Netzes zu erkennen und seine topologische Infrastruktur mit zusätzlichen Verbindungen entsprechend aufzurüsten. Wir haben das Konzept in ein Softwaretool umgesetzt, das Netzbetreiber dabei unterstützt, das Risiko einer Abschaltung in ihrem Netz vor einem Netzausfall einzuschätzen und entsprechende Maßnahmen einzuleiten.;-;-;-;https://link.springer.com/chapter/10.1007/11908852_16 578aa365d2882e88f5ec21f0baceaa71;de;;;3.2.;;;Hybrid Parrallel Bayesian Network Structure Lernen aus massiven Daten mit MapReduce Bayesian Network (BN) ist das beliebte und wichtige Data-Mining-Modell zur Darstellung von unsicherem Wissen. Es wurde viel Arbeit an der Migration der BN-Strukturlernalgorithmen, wie z. B. Constraint-basierte (CB) und Score-and-Search-basierte (SSB)-Algorithmen, in das MapReduce-Framework geleistet. Dieser Ansatz ist jedoch nicht für hybride Algorithmen geeignet, die die Map- und Reduce-Operation für alle Daten durchführen müssen, um die Bewertungen zu erhalten, aber nicht nur die Bewertungen der Daten in den beschnittenen Strukturen wie in der traditionellen zentralisierten Version des hybriden Algorithmus. Dies bedeutet, dass der zeitaufwendigste Teil des Algorithmus, die Map-Operationen, zweimal ausgeführt wird, einmal in CB und einmal in SSB. Im MapReduce-Framework ist die einfache Migration des traditionellen Hybridalgorithmus bei massiven Datenmengen also fast äquivalent zur sequenziellen Ausführung von CB und SSB mit geringem Vorteil. In diesem Papier stellen wir einen verteilten hybriden BN-Strukturlernalgorithmus vor. Durch die Verwendung von Constraints und Suchmethoden, die dieselbe Datenbasis erfordern, muss der Algorithmus die Map-Operation nur einmal in der CB-Phase durchführen, um die Daten für die Berechnung von Constraints und Scores aufzubereiten. Dann verwendet es Zwischenergebnisse der Beschränkungsberechnung in der SSB-Stufe wieder, ohne die gesamten Daten erneut zu kartieren, wodurch die Rechenarbeit stark vereinfacht wird. Versuchsergebnisse zeigen, dass die Effizienz des Algorithmus im Vergleich zum SSB mehr als verdoppelt und die Genauigkeit im Vergleich zum CB um ca. 36% verbessert wird.;-;-;-;https://link.springer.com/article/10.1007/s11265-017-1275-1 83ec7c1707cbf8890c0dcedec6063907;de;;;3.2.;;;Netzwerkprotokoll-Analysebasis auf der WeChat-PC-Version IM (Instant Messaging), auch als Echtzeitkommunikation bekannt, ist ein Echtzeitkommunikationssystem, das es Menschen ermöglicht, das Netzwerk zu verwenden, um Textnachrichten, Dateien, Sprache und Video in Echtzeit zu kommunizieren. Mit der nachhaltigen Entwicklung des Informatisierungsbaus im In- und Ausland ist IM auch zu einem Thema in der Entwicklung der Internet-Informatisierung geworden. In China werden Tencent QQ, WeChat, Fetion, Aliwangwang und andere IMs immer häufiger eingesetzt, die eine Vielzahl von Märkten besetzen. Der Anteil von WeChat sticht im hart umkämpften IM-Markt hervor und wird nach und nach zur Infrastruktur des gesamten mobilen Internets. Dieses Papier analysiert kurz die Sicherheitsprobleme und Angriffsvermutungen, indem es das Anmeldeprotokoll von WeChat und die wichtigen Parameter der Paketübertragung im Protokoll analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-24268-8_27 151c95067d6c3636a37f90b60747a18a;de;;;3.2.;;;Schwaches und halbüberwachtes Deep-Level-Set-Netzwerk für die automatisierte Segmentierung von Hautläsionen In diesem Papier haben wir ein End-to-End Deep Convolutional Neural Model vorgeschlagen, um schwach und semi-überwachtes Lernen zu implementieren, um unzureichende Trainingsdaten mit pixelweiser Annotation aufzulösen. Das gesamte Modell besteht aus zwei Zweigen. Zuerst wird der Segmentierer durch eine kleine Menge von Trainingsdaten mit einer hohen Annotation trainiert, die einer bestimmten Fähigkeit der semantischen Segmentierung dient. Darüber hinaus sind tiefe Ebenensatz- und bedingte Zufallsfeldverzweigungen für die Umwandlung von Bildebenen-Anmerkungen in Pixel verantwortlich, die ausreichende Daten liefern, um den Segmentierer neu zu trainieren, der eine ausgezeichnete Fähigkeit zur Läsionssegmentierung besitzt. Schließlich haben Experimente unsere vorgeschlagene Methode mit den modernsten Modellen verglichen, die eine überlegene Leistung und Verallgemeinerung zeigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5852-8_14 2e7bf0c9983bff9bc4360a3d1d3e8d33;de;;;3.2.;;;Die PACS-Workstation zu einem Browser für Bildverarbeitungssoftware machen: eine Machbarkeitsstudie mit prozessübergreifenden Kommunikationstechniken Um die funktionale Erweiterbarkeit eines Arbeitsplatzes von Bildarchivierungs- und Kommunikationssystemen (PACS) zu verbessern und die Integration von Bildverarbeitungsmodulen von Drittanbietern zu erleichtern, schlagen wir eine Browser-Server-Methode vor.;-;-;-;https://link.springer.com/article/10.1007/s11548-010-0417-8 17cc713d0bb0ebcd8c69d64f2feac9ef;de;;;3.2.;;;Den zuverlässigsten maximalen Fluss im Verkehrsnetz finden Dieses Papier beabsichtigt, das zuverlässigste Maximum-Flow-Problem (MRMF) im Transportnetzwerk zu lösen. Ein Subgraph Path Division Algorithmus (SPDA) wird vorgeschlagen, um die zuverlässigste maximale Flussverteilung zu erhalten, die die negativen Auswirkungen der Anzahl einfacher Pfade und ihrer Engpasskapazität vermeidet. SPDA unterteilt den Teilgraphenraum eines Transportnetzes in eine Menge von disjunkten geschlossenen Intervallen, die die maximalen Flussbeschränkungen erfüllen. Unter den unteren Grenzen aller Intervalle hat sich dasjenige mit der entdeckten Wahrscheinlichkeit als das zuverlässigste Maximum erwiesen. Schließlich zeigen experimentelle Ergebnisse die Effektivität und Effizienz des vorgeschlagenen Algorithmus.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-6113-9_44 e1c5170ccde58efccc27aaad2bf5b4a1;de;;;3.2.;;;Erkennungsverfahren für abnormales Netzwerkverhalten basierend auf Affinitätsausbreitung Mit der kontinuierlichen Weiterentwicklung der Internettechnologie und der steigenden Zahl von Netzwerkbenutzern ist das Verhalten bösartiger Netzwerke komplexer und vielfältiger geworden, wodurch die Herausforderungen der Internetsicherheit noch größer werden. Die meisten Intrusion Detection-Systeme verwenden maschinelle Lernmethoden, um Benutzerangriffe zu erkennen, aber solche Methoden sind bei der Verarbeitung großer Datenmengen tendenziell zu zeitintensiv und ineffizient. Obwohl die Genauigkeit bekannter Angriffsarten hoch ist, sind sie für unbekannte Angriffe nicht ideal Verhalten. Um die Situation zu verbessern, schlagen wir eine Methode zur Erkennung von Netzwerkanomalieverhalten basierend auf Affinitätsausbreitung vor. Zuerst haben wir das Feature-Modell des Benutzerverhaltens vorgeschlagen, indem wir die Merkmale von bösartigem Verhalten analysiert haben, und dann den Clustering-Algorithmus mit besserer Leistung ausgewählt, um das Benutzerverhalten zu clustern. Experimente zeigen, dass diese Methode die Genauigkeit und die Falsch-Positiv-Rate der Einbruchserkennung verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8086-4_55 51e8b15703b305dc41567a8907fc20af;de;;;3.2.;;;Ein ganzzahliges Multicommodity-Flow-Modell, das auf die Neuordnung von Pflegeplänen angewendet wird Das Problem der Neuordnung von Dienstplänen tritt sehr häufig in Organisationen auf, die an jedem Tag des Jahres rund um die Uhr mit einer festgelegten Anzahl von Mitarbeitern arbeiten. Wenn ein oder mehrere Arbeitnehmer ankündigen, dass sie die zuvor in ihrem Dienstplan zugewiesenen Aufgaben nicht ausführen können, müssen diese Aufgaben auf Kosten von Änderungen in den Dienstplänen anderer Arbeitnehmer ausgeführt werden. Diese Änderungen sollten nicht im Widerspruch zu den in den Verwaltungs- und Arbeitsverträgen festgelegten Regeln stehen und die bisherigen Zeitpläne möglichst wenig beeinträchtigen. Dies ist ein schwieriges echtes Problem, das ein Rechenwerkzeug erfordert, um es leicht zu bewältigen. In der Arbeit wird das Thema im Kontext der Pflegeplanung detailliert beschrieben und als ganzzahliges Multicommodity Flow Problem mit zusätzlichen Randbedingungen in einem mehrstufigen azyklischen Netzwerk formuliert. Als erster Ansatz zur Lösung des Problems wurde eine Heuristik implementiert. Anschließend wurden die ganzzahlige lineare Programmierformulierung des Multicommodity-Strömungsmodells und zwei lineare Relaxationen mit CPLEX [2]-Optimierern getestet. Die berichteten Rechenergebnisse beziehen sich auf reale Fälle aus einem staatlichen Krankenhaus in Lissabon. Zufriedenstellende Dienstpläne wurden in allen getesteten Fällen innerhalb akzeptabler Rechenzeiten erhalten, entweder mit dem Ganzzahl-Optimierer oder mit der Heuristik. Aus diesem Grund werden Verfeinerungen vorgenommen, um diese Methoden in ein Entscheidungsunterstützungssystem einzubetten, das die Oberschwester bei ihren täglichen Neuordnungsaktivitäten unterstützen kann.;-;-;-;https://link.springer.com/article/10.1023/A%3A1022907212477 a617199d6652b972ba7f0ec361f7a820;de;;;3.2.;;;Convolutional Neural Network kombiniert mit Emotional Dictionary Anwendung in chinesischem Text Emotionale Klassifikation Gegenwärtig hat das neuronale Faltungsnetz gute Ergebnisse bei der emotionalen Klassifizierung von Texten erzielt, aber in mehreren gängigen Modellen verwendet es nicht eine große Anzahl von Vorwissen, das die menschliche Gesellschaft jetzt erworben hat. Dieser Artikel schlägt ein neues CNN-Modell vor, das auf einem emotionalen Wörterbuch basiert: emotionales Wissen-CNN (EK-CNN), das das emotionale Wörterbuch als zusätzliches Wissen verwendet, um die Leistung des Modells bei der emotionalen Klassifikation zu verbessern. Das Modell wurde an drei realen Datensätzen validiert und ist dem bestehenden Technologiemodell zur Textemotionsklassifikation überlegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1209-1_9 54128549af0753f8ba2648fea880c50d;de;;;3.2.;;;Ein umfassendes Enterprise-System-Metamodell für die Qualitätssicherung Eine der größten Herausforderungen bei der Qualitätssicherung von Code ist die Menge an Code, die in einer Instanz überprüft werden muss, bevor der Code in der Produktion bereitgestellt wird. Prüfer müssen nicht nur die Codierungspraktiken und die Formatierung überprüfen, sondern auch die Bedeutung des Codes und seine Übereinstimmung mit den Anforderungen. Unternehmenssysteme sind bekannt für ihre große Codebasis, anspruchsvolle Geschäftslogik und fortschrittliche Codekonstrukte, die erhebliche Ressourcen für die Codeüberprüfung erfordern. Unternehmenssysteme verwenden jedoch Codierungskonstrukte, die Aspekte und Einschränkungen der Geschäftslogik aufdecken, wie beispielsweise Validierung, Datenbankverbindung und API. Wir extrahieren diese Aspekte und ihre Beziehungen in ein umfassendes Metamodell. Als nächstes speichern wir das Metamodell in einer Graphdatenbank und führen Qualitätssicherungsprüfungen über Datenbankabfragen durch. Diese Methode reduziert die zu verarbeitende Informationsmenge erheblich, während wichtige Unternehmensaspekte beibehalten werden. Die Methode ermöglicht Systemadministratoren oder Projektmanagern, Fehler und Inkonsistenzen zu entdecken, ohne den Code zu lesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6385-4_23 611fdd7d75abc131123457453f252db8;de;;;3.2.;;;Einbetten einer funktionalen hybriden Modellierungssprache in Haskell In diesem Beitrag präsentieren wir die erste Untersuchung zur Implementierung einer funktionalen Hybridmodellierungssprache für die nichtkausale Modellierung und Simulation physikalischer Systeme. Insbesondere präsentieren wir eine einfache Möglichkeit, Connect-Konstrukte zu handhaben: eine Möglichkeit, Modellfragmente zusammenzusetzen, die in irgendeiner Form in den meisten nicht-kausalen Modellierungssprachen vorhanden sind. Unsere Implementierung erfolgt als domänenspezifische Sprache eingebettet in Haskell. Die Methode der Einbettung verwendet Quasiquoting und demonstriert damit die Wirksamkeit dieses Ansatzes für Sprachen, die sich nicht für die Einbettung auf herkömmliche Weise eignen. Unsere Implementierung ist online verfügbar und somit die erste öffentlich verfügbare prototypische Implementierung einer funktionalen Hybridmodellierungssprache.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24452-0_8 1e193d0633cac050a3e5b6ad602e5ec6;de;;;3.2.;;;Pyclone: ​​Ein Python-Codeklon-Testbank-Generator Codeklone sind Codefragmente, die in der Codebasis einer Anwendung dupliziert werden. Sie verursachen Probleme mit der Wartbarkeit, duplizieren fehlerhaften Code und erhöhen die Größe des Repositorys. Um diese Probleme zu bekämpfen, gibt es derzeit eine Vielzahl von Programmen, um duplizierte Codesegmente zu erkennen. Es gibt jedoch nicht viele Sprachvarianten unter den Benchmarks für Tools zur Erkennung von Codeklonen. Ohne genügend Sprachen für die moderne Softwareentwicklung abzudecken, bleibt die Entwicklung von Tools zur Erkennung von Code-Klonen stocken. Dieses Whitepaper beschreibt ein neuartiges Tool, das einen Seed des Python-Quellcodes nimmt und Codeklone vom Typ 1, 2 und 3 in Python generiert. Als eine der am häufigsten verwendeten und am schnellsten wachsenden Sprachen in der modernen Softwareentwicklung bietet unser Testbed die Möglichkeit, Tools zur Erkennung von Python-Codeklonen zu entwickeln und zu testen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6385-4_22 31ba10b2ae5680d206f995808b7cca38;de;;;3.2.;;;Um mobile Mashups der nächsten Generation zu ermöglichen Die Weiterentwicklung der Webbrowser-Funktionalität auf mobilen Geräten ist die treibende Kraft für „mobile Mashups“, bei denen auf einem Gerät gerenderte Inhalte aus mehreren Webquellen zusammengeführt werden. Aus Sicht des Reichtums können solche Mashups um Funktionen erweitert werden, die für die mobile Umgebung einzigartig sind - (1) native Gerätefunktionen wie Standort- und Kalenderinformationen, Kamera, Bluetooth usw., die auf einer intelligenten mobilen Plattform verfügbar ) Kernfunktionen von Telekommunikationsnetzen, wie SMS und Anrufsteuerung von Drittanbietern, die als Dienste in einem konvergierten IP/Web-Netzwerk-Setup bereitgestellt werden. Obwohl es verschiedene Techniken zum Erstellen von Desktop-basierten Mashups gibt, reichen diese nicht aus, um eine dreidimensionale Umgebung zu nutzen, die in der mobilen Domäne vorhanden ist – bestehend aus dem Web, nativen Gerätefunktionen und Telekommunikationsdiensten. In diesem Papier beschreiben wir die Middleware-Unterstützung zu diesem Zweck, sowohl auf der Serverseite, die sich mit der Verarbeitung und Integration von Inhalten befasst, als auch auf der Geräteseite, die sich mit Rendering, Geräteintegration, Webservice-Aufruf und Ausführung befasst. Darüber hinaus charakterisieren wir, wie verschiedene Komponenten dieser Middleware die Portabilität und Anpassung von Mashups über verschiedene Geräte und Telekommunikationsprotokolle hinweg gewährleisten. Basierend auf unserem Ansatz bieten wir eine Implementierung des Mashup-Frameworks auf drei beliebten mobilen Plattformen – iPhone, Android und Nokia S60 – und diskutieren dessen Nutzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29154-8_2 2ca1877371afbf81579292a2d5fe3652;de;;;3.2.;;;Über die Grenzen moderner statischer Analysetools Die statische Analyse ist eines der wichtigsten Werkzeuge für Entwickler in der modernen Softwareindustrie. Aufgrund von Einschränkungen durch aktuelle Tools verzichten viele Entwickler jedoch auf die Verwendung der statischen Analyse in ihrem Entwicklungsprozess. Einige dieser Einschränkungen sind das Fehlen einer prägnanten, kohärenten Übersicht, die fehlende Unterstützung für mehrere Repository-Anwendungen und mehrere Sprachen und schließlich das Fehlen standardisierter Integrationsmechanismen für Drittanbieter-Frameworks. Wir schlagen eine Bewertungsmetrik für statische Analysewerkzeuge vor und bieten einen Vergleich vieler gängiger statischer Analysewerkzeuge. Um das Ziel unserer Metrik zu demonstrieren, stellen wir das Fabric8-Analytics Quality Assurance Tool als Benchmark für ein Tool vor, das unsere Bewertungsmetrik erfolgreich besteht. Wir zeigen die Verwendung dieses Tools anhand einer Fallstudie zum Fabric8-Analytics Framework, einem Framework zum Auffinden von Schwachstellen in Anwendungsabhängigkeiten. Wir stellen Entwickler moderner statischer Analysetools vor die Herausforderung, ihre Tools für Entwickler benutzerfreundlicher und attraktiver zu machen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-1465-4_57 201d85c27b3469b90743c1499b5f14d2;de;;;3.2.;;;Auf FM basierender Lokalisierungsalgorithmus für mobile drahtlose Sensornetzwerke Das Problem des Standorts von mobilen Sensornetzwerken war schon immer ein technisches Kernproblem, das bei der Anwendung des IoT gelöst werden muss. Das bestehende Ortungsverfahren ist schwierig, das Problem des Ortes unbekannter Knoten in der mobilen Umgebung effektiv zu lösen. Obwohl das Monte-Carlo-Verfahren für dynamische Sensornetzwerke besser geeignet ist als andere bestehende Positionierungsalgorithmen, weist dieser Algorithmus immer noch Engpassprobleme wie geringe Positionierungsgenauigkeit und geringe Sicherheit auf. In diesem Beitrag wird ein hochsicheres Monte-Carlo-Positionierungsverfahren basierend auf FM-Signaleigenschaften (FM-MCL) vorgeschlagen. Im Vergleich zu den traditionellen KNN-, SVM- und MCL-Algorithmen verbessert FM-MCL die Sicherheitsleistung des Algorithmus erheblich. Die Positionierungsgenauigkeit des Algorithmus macht die Positionierungsgenauigkeit in der Umgebung von böswilligen Angriffen immer noch unter 20%.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9409-6_322 6d05eca7031dac8aecc89386cacfd65a;de;;;3.2.;;;Ein auf Beschränkungen basierendes interaktives Tool zur Umplanung von Zügen In diesem Papier berichten wir über das Design und die Implementierung eines auf Einschränkungen basierenden interaktiven Zugumplanungstools, ein Projekt in Zusammenarbeit mit dem International Institute for Software Technology, United Nations University (UNU/IIST), Macau. Wir formulieren die Zugumplanung als Constraint-Erfüllung und beschreiben einen Constraint-Propagation-Ansatz zur Lösung des Problems. Algorithmen zur Fahrplanprüfung und Zugumplanung werden in einem kohärenten Rahmen entwickelt. Formale Korrektheitseigenschaften des Umplanungsalgorithmus werden festgelegt. Wir definieren zwei Optimalitätskriterien für die Umplanung, die einer Minimierung der Anzahl der betroffenen Bahnhofsbesuche bzw. Anschließend werden zwei Heuristiken vorgeschlagen, um die Suche nach optimalen Lösungen zu beschleunigen und zu lenken. Die Machbarkeit unserer vorgeschlagenen Algorithmen und Heuristiken wird durch Experimente mit realen Daten bestätigt.;-;-;-;https://link.springer.com/article/10.1023/A%3A1015109732002 2422bce92d0b534caec00f22143bb8cc;de;;;3.2.;;;Automatische Extraktion von Veranstaltungsinformationen aus Zeitungsartikeln und Webseiten In diesem Beitrag schlagen wir eine Methode vor, um reisebezogene Ereignisinformationen wie einen Ereignisnamen oder einen Zeitplan aus automatisch identifizierten Zeitungsartikeln zu extrahieren, in denen bestimmte Ereignisse erwähnt werden. Wir analysieren Nachrichtenkorpora mit unserer Methode und extrahieren daraus die Namen der Veranstaltungsorte. Wir finden dann Webseiten, die auf Veranstaltungspläne für diese Veranstaltungsorte verweisen. Um die Wirksamkeit unserer Methode zu bestätigen, haben wir mehrere Experimente durchgeführt. Aus den experimentellen Ergebnissen erhielten wir eine Präzision von 91,5% und einen Rückruf von 75,9% für die automatische Extraktion von Ereignisinformationen aus Nachrichtenartikeln und eine Präzision von 90,8 % und einen Rückruf von 52,8% für die automatische Identifizierung von ereignisbezogenen Web Seiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-03599-4_21 e437d555d468507f915bcfcca4127d52;de;;;3.2.;;;Abbau sozialer Beziehungen in Mikroblogging-Systemen Die weit verbreitete Popularität und das starke Wachstum von Mikroblogging-Systemen bieten eine fruchtbare Quelle für die Analyse sozialer Netzwerke und Phänomene. Derzeit können nur wenige Data-Mining-Tools mit den einzigartigen Eigenschaften von Microblogging-Systemen umgehen. In dieser Studie schlagen wir einen integrierten Ansatz für das Mining von Benutzerbeziehungen in Microblogging-Systemen vor. Der Ansatz geht von der makroskopischen Analyse sozialer Netzwerke aus, indem Nutzer mit der Methode der maximal stark verbundenen Komponenten (MSCC) gruppiert werden. Anschließend wird ein Maß für den Verdichtungsgrad von Gruppen berechnet, um die einflussreichste Gruppe zu ermitteln, und alle Gruppen können nach diesem Maß eingestuft werden. Anschließend wird ein neuer Algorithmus vorgestellt, um den Einfluss eines bestimmten Benutzers innerhalb einer Gruppe zu bewerten. Der integrierte Ansatz ist in der Lage, große Datenmengen zu analysieren. Es ist nützlich, um die Richtungen der Informationsverbreitung zu erkunden und den Umfang und die Stärke des Einflusses einzelner Benutzer auf Mikroblogging-Systeme zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21796-8_12 df59c4943012504e9cbd31fc77a14678;de;;;3.2.;;;Nicht so synchroner RPC: RPC mit Silent Synchrony Switch zur Vermeidung von wiederholtem Marshalling von Daten Der Remote Procedure Call (RPC) ist eine leistungsstarke Technik zum Erstellen verteilter Client-Server-basierter Anwendungen. Wenn in herkömmlichen RPC-Systemen ein entfernter Prozeduraufruf aufgrund eines Kommunikationsfehlers kein Ergebnis an den Client zurückgibt, ruft der Client-Stub normalerweise die entfernte Methode für die erwartete Ausgabe erneut auf, wenn die Methode idempotent ist. Dies führt zu wiederholtem Marshalling derselben Daten, was eine Belastung für das Netzwerk darstellt, wenn die Daten sehr groß sind. Zum ersten Mal verhindern wir dieses wiederholte Marshalling, indem wir ein Verhaltensmuster einführen, das wir als normalerweise synchrones, aber bedingt asynchrones RPC (CA-RPC) bezeichnen. CA-RPC stellt Handshaking zwischen Client-Stub und Server-Stub her, um zu erkennen, ob die Verbindung nach dem Demarshalling von Daten im Server-Stub fehlgeschlagen ist. Wenn dies der Fall ist, führt der Client-Stub einen Pulling-Thread aus, um das Ergebnis abzurufen, ohne dieselben Daten neu zu marshallieren. Außerdem verbessert unsere Strategie unter bestimmten Bedingungen die Leistung durch einen Synchrony-Switch zur Laufzeit. Unsere Ergebnisse zeigen, dass CA-RPC in Fällen, in denen das Data Marshalling einen erheblichen Overhead gegenüber Datenverbindungen mit niedriger Rate hat, eine bessere Leistung als herkömmliches RPC aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-45249-9_40 b85570cb0547228b3ad30d6ce30bbb22;de;;;3.2.;;;Vergleich neuronaler Netze mit unterschiedlichen Zugehörigkeitsfunktionen in den Typ-2-Fuzzy-Gewichten In diesem Beitrag ein Vergleich der dreieckigen, Gaußschen, Trapez- und verallgemeinerten Glockenzugehörigkeitsfunktionen, die in den Typ-2-Fuzzy-Inferenzsystemen verwendet werden, die angewendet werden, um die Typ-2-Fuzzy-Gewichte in der Verbindung zwischen den Schichten eines neuronalen Netzes zu erhalten. Wir haben zwei Fuzzy-Systeme vom Typ 2 verwendet, die im Backpropagation-Lernverfahren mit der Fuzzy-Gewichtsanpassung Typ 2 arbeiten. Wir ändern die Art der Zugehörigkeitsfunktionen der beiden Typ-2-Fuzzy-Systeme. Die mathematische Analyse der vorgeschlagenen Lernmethodenarchitektur und die Anpassung der Typ-2-Fuzzy-Gewichte werden vorgestellt. Das vorgeschlagene Verfahren basiert auf neueren Verfahren, die eine Gewichtsanpassung und insbesondere Fuzzy-Gewichte handhaben. In dieser Arbeit werden neuronale Netze mit Typ-2-Fuzzy-Gewichten vorgestellt. Der vorgeschlagene Ansatz wird auf den Fall der Mackey-Glass-Zeitreihenvorhersage angewendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-11313-5_62 da404724b6929ad1db3b7d56495e0f13;de;;;3.2.;;;Anpassung von Dichten und Gefahrenfunktionen mit neuronalen Netzen In diesem Beitrag zeigen wir, dass künstliche neuronale Netze (ANNs) – insbesondere das Multi-Layer Perceptron (MLP) – verwendet werden können, um Wahrscheinlichkeitsdichten und Gefahrenfunktionen in der Überlebensanalyse zu schätzen. Eine Interpretation der angepassten mathematischen Funktion wird gegeben und die Arbeit wird mit einigen experimentellen Ergebnissen illustriert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-6230-9_10 f2095b8f8b203399a16840fc1aaab23f;de;;;3.2.;;;Einige theoretische und praktische Aspekte der Modellierung und Simulation des menschlichen Bewegungsapparates Das Ziel dieser Revue ist es, Informationen über die grundlegenden Aspekte der Anwendung der mathematischen Modellierung und Computersimulation in der Biomechanik der menschlichen Bewegung zu vermitteln. Die typischen Schritte dieses Prozesses werden vorgestellt (Abb. 1). Es werden computerunterstützte Methoden zur Formulierung der mathematischen Modelle des menschlichen Bewegungsapparates und computerunterstützte Methoden der Sammlung und Verarbeitung der experimentellen Daten diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-2674-5_4 4ab5ffede0e2df71deb7c6a3fbaa7ca1;de;;;3.2.;;;Ein Näherungsalgorithmus für Netzentwurfsprobleme mit abwärtsmonotonen Nachfragefunktionen Aufbauend auf einem bestehenden 2-Approximations-Algorithmus für die Klasse der Netzwerkentwurfsprobleme mit abwärtsmonotonen Nachfragefunktionen, von denen viele NP-hart sind, präsentieren wir einen Algorithmus, der Lösungen liefert, die mindestens so gut und typischerweise besser sind als produzierte durch den vorhandenen Algorithmus.;-;-;-;https://link.springer.com/article/10.1007/s11590-007-0051-8 bd6b123c40ebcde10943c68edfc2895a;de;;;3.2.;;;Kombination einer antiangiogenen Therapie mit anderen Krebstherapien Die Erforschung der Angiogenese bei malignen Tumoren hat eine lange Geschichte von mehr als 200 Jahren. Formale moderne Studien zur Tumorangiogenese und die Suche nach therapeutischen antiangiogenen Wirkstoffen sind in den letzten 30 Jahren sehr schnell vorangekommen. Antiangiogene Wirkstoffe der ersten Generation waren sehr wichtig, da sie die Möglichkeit boten, die Konzepte zu validieren, dass die Blockierung der Angogenese bei Krebs therapeutisch wichtig sein könnte und dass solche Moleküle in Kombinationstherapien bei Krebs eine Rolle spielen könnten. In den 1970er und 1980er Jahren standen die Forscher vor einem Dilemma, wie Wirkstoffe, die die Blutversorgung des Tumors „abwürgen“, in über viele Jahre empirisch entwickelte Mehrkomponenten-Therapieschemata integriert werden können. TNP470, ein von einem Pilztoxin abgeleitetes synthetisches Molekül, und Minocyclin, ein Tetracyclin, waren in den präklinischen Studien sehr nützlich, die zeigten, dass eine antiangiogene Therapie die Aktivität gegenüber zytotoxischer Chemotherapie und Strahlentherapie erhöhen könnte. Diese Moleküle der ersten Generation erreichten keine klinische Zulassung, aber sehr schnell zeigten antiangiogene Kinase-Inhibitoren und antiangiogene Antikörper, insbesondere Bevacizumab, sehr ähnliche Wirkungen in präklinischen Modellen und gingen in die klinische Studie. Um auf frühe Beobachtungen zurückzukommen, können zytotoxische Therapien, die in kontinuierlichen Niedrigdosis-Therapien verabreicht werden, die Toxizität dieser Moleküle gegenüber Endothelzellen in „metronomischen“ Therapien am besten nutzen. In jüngster Zeit wurden große genomische Anstrengungen unternommen, um Unterschiede zwischen normalem Endothel und Tumor-Endothel zu identifizieren, mit dem Ziel, hochselektive Tumor-Endothel-Ziele für einen therapeutischen Angriff zu definieren. Die inzwischen zugelassenen antiangiogenen Therapien werden den Patienten als wichtiger Bestandteil von Kombinationstherapien verabreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-71518-6_38 20b424fae87b69152598a7732ab90be1;de;;;3.2.;;;Verteilte LTL-Modellprüfung in SPIN In diesem Papier schlagen wir einen verteilten Algorithmus zur Modellprüfung von LTL vor. Insbesondere untersuchen wir die Möglichkeit, einen verschachtelten Tiefensuchalgorithmus in verteiltem SPIN durchzuführen. Eine verteilte Version des Algorithmus wird vorgestellt und seine Komplexität wird diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45139-0_13 6b3a6949f72b6d7288a3751cef637a47;de;;;3.2.;;;Ein benutzerzentrierter Netzwerkkommunikations-Broker für kollaboratives Multimedia-Computing Die Entwicklung kollaborativer Multimediaanwendungen folgt heute einem vertikalen Entwicklungsansatz, bei dem jede Anwendung auf Low-Level-Netzwerkabstraktionen wie der Socket-Schnittstelle aufbaut. Dieser Stovepipe-Entwicklungsprozess ist ein wichtiger Hemmschuh, der die Entwicklungskosten in die Höhe treibt und das Innovationstempo neuer Generationen von Kommunikationsanwendungen verlangsamt. In diesem Papier schlagen wir einen Network Communication Broker (NCB) vor, der eine vereinheitlichte Abstraktion auf höherer Ebene für die Klasse der kollaborativen Multimediaanwendungen bereitstellt. Wir demonstrieren, wie NCB die Komplexität der Kommunikationssteuerung und Medienbereitstellung auf Netzwerkebene kapselt und die Entwicklung von Anwendungen mit verschiedenen Kommunikationslogiken beschleunigt. Wir untersuchen die erforderlichen Mindestanforderungen für die NZB-Abstraktion. Wir stellen fest, dass das Konzept von Sitzungen auf Benutzerebene, an denen mehrere Parteien und mehrere Medien beteiligt sind, entscheidend für die Entwicklung einer wiederverwendbaren NZB ist, um Multimedia-Kommunikation der nächsten Generation zu ermöglichen. Darüber hinaus entkoppelt das interne Design von NCB die Sitzungen auf Benutzerebene von Sitzungen auf Netzwerkebene, sodass das NCB-Framework heterogene Netzwerke aufnehmen kann und Anwendungen leicht auf neue Netzwerkumgebungen portiert werden können. Darüber hinaus demonstrieren wir, wie das erweiterbare und selbstverwaltende Design von NCB die dynamische Anpassung als Reaktion auf Änderungen der Netzbedingungen und Benutzeranforderungen unterstützt.;-;-;-;https://link.springer.com/article/10.1007/s11042-009-0385-6 26812834e901534f2a11e959c374ec94;de;;;3.2.;;;PerWiz: Ein Was-wäre-wenn-Vorhersage-Tool zum Optimieren von Message-Passing-Programmen In diesem Whitepaper wird PerWiz vorgestellt, ein Leistungsvorhersagetool zur Verbesserung der Leistung von Message-Passing-Programmen. PerWiz konzentriert sich darauf, herauszufinden, wo eine signifikante Verbesserung erzielt werden kann. Um dies zu lokalisieren, führt PerWiz eine Post-Mortem-Analyse auf der Grundlage eines realistischen parallelen Rechenmodells, LogGPS, durch, um vorherzusagen, welche Leistung erreicht wird, wenn die Programme gemäß typischen Tuning-Techniken modifiziert werden, wie z. B. Lastausgleich für eine bessere Arbeitslastverteilung und Nachrichtenplanung für eine kürzere Wartezeit. Wir zeigen auch zwei Fallstudien, in denen PerWiz eine wichtige Rolle bei der Verbesserung der Leistung regelmäßiger Anwendungen gespielt hat. Unsere Ergebnisse zeigen, dass PerWiz für Anwendungsentwickler nützlich ist, um die potenzielle Reduzierung der Ausführungszeit zu bewerten, die sich aus Programmänderungen ergibt.;-;-;-;https://link.springer.com/chapter/10.1007/11403937_31 3200f17d1b197424529954a951d3c8df;de;;;3.1.;;;Migrationsstrategien im elektronischen Archiv: Praxiserfahrung und Zukunftsforschung Pfizer Central Research, Sandwich, England, hat ein elektronisches Archiv entwickelt, um die Pflege und Aufbewahrung elektronischer Aufzeichnungen zu unterstützen, die bei der Entdeckung und Entwicklung neuer Medikamente verwendet werden. Das Archiv wurde entwickelt, um regulatorische, wissenschaftliche und geschäftliche Anforderungen zu erfüllen. Die langfristige Aufbewahrung elektronischer Akten erfordert die Entwicklung von Migrationsstrategien sowohl für das Archiv als auch für die im Archiv aufbewahrten Akten. Der modulare Aufbau des Archivs erleichtert die Migration von Hardwarekomponenten. Die Auswahl einer geeigneten Migrationsstrategie für elektronische Aufzeichnungen erfordert sorgfältige Projektmanagementfähigkeiten in Verbindung mit Bewertungs- und Aufbewahrungsmanagement. Nachdem festgestellt wurde, wann die Migration von Datensätzen erforderlich ist, ist es entscheidend, dass alternative technische Lösungen offen bleiben.;-;-;-;https://link.springer.com/article/10.1023/A%3A1009093604632 91383ee08e430cf2f3f132aa752a30b3;de;;;3.1.;;;Auf dem Weg zu einem vollautomatischen Abwehrmechanismus für ein Computernetzwerk, das eine aktive Immunantwort emuliert Moderne Informationsangriffe werden durch den Einsatz von Computerwürmern verübt, die sich extrem schnell verbreiten und wenig oder keine Zeit für menschliches Eingreifen lassen. Dieses Papier stellt das Konzept eines vollautomatischen Computernetzwerk-Sicherheitssystems vor, das in der Lage ist, Informationsangriffe durch sich selbst replizierende bösartige Software rechtzeitig zu erkennen und abzuwehren. Das System erkennt einen Angriff und synthetisiert und setzt spezielle, sich selbst replizierende Anti-Wurm-Software zur Abwehr von Angriffen ein, die die Netzwerktopologie ändern kann, um infizierte Teile des Netzwerks unter Quarantäne zu stellen. Es werden spezielle Technologien implementiert, die die Beobachtbarkeit und Steuerbarkeit des Gesamtprozesses ermöglichen und so den Einsatz fortschrittlicher Steuerungsschemata erleichtern, um eine Überlastung der Netzwerkbandbreite zu verhindern. Bestimmte Komponenten dieses Systems wurden von den Autoren entwickelt oder in der Literatur vorgeschlagen, was auf seine Machbarkeit hindeutet. Die Implementierungsaspekte des beschriebenen Systems werden angesprochen. Die hier beschriebene Technologie emuliert Immunabwehr, die durch millionenjährige Evolution zur Perfektion verfeinert wurde, um die Sicherheit und Zuverlässigkeit zukünftiger Computernetzwerke zu gewährleisten. Es präsentiert ein neues Paradigma in der Computernetzwerksicherheit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-73986-9_25 a40b34e37450c539590e012cd3dffbbf;de;;;3.1.;;;Mobile Money in der Region Australasien - Eine technische Sicherheitsperspektive Während mobiles Geld seinen Ursprung in Afrika hat, hat sein Erfolg zu einer Verbreitung auf der ganzen Welt geführt. Dieses Papier ist das erste, das sich speziell auf seine Verbreitung in der Region Australasien konzentriert. Wir geben eine kurze Beschreibung der aktuellen Situation der mobilen Geldnutzung in jedem der acht Länder dieser Region. Trotz der Bequemlichkeit mobiler Geldsysteme sind ihre zugrunde liegenden Technologien anfällig für viele Bedrohungen im Zusammenhang mit unsicherer Wi-Fi-Kommunikation. Wir gehen detailliert auf solche Bedrohungen ein und besprechen mögliche Gegenmaßnahmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-2741-3_13 ccbda53b3d0b08d5bc45c40bcfd7468f;de;;;3.1.;;;Die Blackett Memorial Lecture 18. November 1997 Es wird argumentiert, dass eine Bewegung hin zu den „Kontrollaspekten“ des Managements erfolgen sollte, um die OR/MS-Aktivitäten über ihren gegenwärtigen (fast ausschließlichen) Schwerpunkt auf „Planungsfunktionen“ hinaus auszudehnen. Dabei wird der Anteil empirisch-inferenzieller Forschungsansätze (basierend auf;-;-;-;https://link.springer.com/article/10.1057/palgrave.jors.2600677 249bee7a15b54e6a2426c47567d86db9;de;;;3.1.;;;Patientenklassifizierung von fMRT-Aktivierungskarten Die Analyse von Hirnaktivierungen mittels funktioneller Magnetresonanztomographie (fMRT) ist ein aktives Gebiet der neuropsychologischen Forschung. Standardtechniken für die Analyse haben sich traditionell darauf konzentriert, die wichtigsten Bereiche der Gehirnaktivierung zu finden, und haben erst vor kurzem damit begonnen, die Bedeutung ihrer räumlichen Eigenschaften zu untersuchen. Wir vergleichen fMRT-Kontrastbilder und Signifikanzkarten mit Trainingssätzen ähnlicher Karten unter Verwendung der räumlichen Verteilung der Aktivierungswerte. Wir zeigen, dass ein Fisher-Linear-Diskriminanz-Klassifikator (FLD) für beide Kartentypen Patienten von Kontrollen für Alzheimer, Schizophrenie und leichte traumatische Hirnverletzungen (MTBI) genau unterscheiden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39903-2_8 47d54879358ebfe1e916c9ae7a647d4b;de;;;3.1.;;;Impact of Sustainable Structural Systems Undergraduate Research auf Bildung und Programmentwicklung an der MSU Denver In diesem Beitrag werden die Auswirkungen von drei grundständigen Forschungsprojekten, die sich auf die Bewertung der Baubarkeit von klebstoffbasierten Holz-Beton-Verbundbauteilen konzentrieren, auf eine in Verbindung mit diesem System einsetzbare Solarwärmetechnologie und den Bezug dieser Projekte auf die Ingenieurausbildung und die Programmentwicklung dargestellt an der Metropolitan State University of Denver (MSU Denver). Das Thema nachhaltige Strukturen wurde im Rahmen von Senior Project Classes im Sommer 2013 und 2014 an der MSU Denver verfolgt. Das erste Projekt richtete sich an neue Mitglieder, das zweite an Nachrüstungen. Diese Projekte wurden durch die Forschung der Fakultät zur Entwicklung neuer nachhaltiger Bausysteme mit Verbundwerkstoffen motiviert. Da die Forschung der Fakultäten international ausgerichtet ist, hatten die Studierenden direkten Zugang zu Forschern weltweit. Diese Forschung wurde als Instrument im Studiengang „Experimentelle Methoden im Konstruktiven Ingenieurbau“ eingesetzt. Durch die Teilnahme an einer internationalen Fachtagung zum Thema Holzbrücken wurden den Studierenden zudem vielfältige und vielfältige Ideen innerhalb der Forschung vermittelt. Parallel dazu wurde das Solarofenprojekt durchgeführt, das den Studierenden die Möglichkeit bot, gezielte Forschungen zur Design- und Leistungsoptimierung der Heizeinheiten durchzuführen, um die Vorteile der Integration dieser Geräte in zukünftige Gebäude mit der nachhaltigen Bausystemtechnologie zu bewerten. Erfahrungen aus den grundständigen Forschungsaktivitäten wurden in die Gestaltung eines vorgeschlagenen Studiengangs Sustainable Systems Engineering einfließen lassen.;-;-;-;https://link.springer.com/article/10.1557/opl.2015.153 40557ca4683dba7771838f5c056d8cb2;de;;;3.1.;;;Eine Finite-Differenzen-Methode mit Phasenverzögerung und ihren Ableitungen gleich Null für Probleme in der Chemie Zur numerischen Lösung von Problemen der Quantenchemie wird eine neue Methode mit Phasenverzögerung und ihren Ableitungen bis zur vierten Ordnung gleich Null vorgestellt.;-;-;-;https://link.springer.com/article/10.1007/s10910-020-01161-y 779396052257dbcd7fa04e1c09aae331;de;;;3.1.;;;Schema von Cloud Desktop basierend auf Citrix Based Aufgrund der steigenden Anzahl von Anwendungen in Office Mobile ist es für die traditionelle IT-Netzwerkinfrastruktur schwierig, Fernverwaltung und -wartung durchzuführen. Der Citrix-basierte Cloud Desktop kann die Endgeräte der Benutzer verwalten und warten, die Betriebs- und Wartungskosten reduzieren und die zentrale Verwaltung des Unternehmens erfüllen. In der Zwischenzeit bietet Cloud Desktop Benutzern einen personalisierten Desktop und eine Vielzahl von Zugriffsmethoden, die die Service-Levels und die Anforderungen an die Geschäftskontinuität verbessern. Im Vergleich zur herkömmlichen IT-Infrastruktur bietet der Cloud Desktop Benutzern eine schnellere und höhere Vorhersehbarkeit, höhere Kostenleistung und umfangreichere Anwendungen. Darüber hinaus spielt es eine besondere Rolle bei der Energieeinsparung und Kosteneinsparung.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2203-7_32 128b43bddd9b8e25050e5ecea26cce63;de;;;3.1.;;;Vergleiche: Big Data über Zeit und Disziplinen Ebenso wie das Wissen über die Vergangenheit für die aktuelle Politik wichtig ist, ist auch die bisherige Praxis der Datenerhebung wichtig, um die Arbeit von CHIA zu leiten. In diesem Kapitel werden die letzten 70 Jahre der Arbeit an der Entwicklung sozialwissenschaftlicher Datensätze sowie die parallele Entwicklung der Modellierung in Klima und Genetik betrachtet. Die Erzählungen über die Entstehung von Archiven und Analysen zu Klima und Genetik zeigen das Zusammenspiel von Theorie, historischen Daten, Technologie und wechselnden öffentlichen Anliegen, die jeweils zu wichtigen Erkenntnisfortschritten geführt haben. Es wird argumentiert, dass parallele Schritte und ein gleichwertiger Erfolg bei der Schaffung eines welthistorischen Archivs vernünftigerweise zu erwarten sind.;-;-;-;https://link.springer.com/chapter/10.1057/9781137378972_7 bb4e5600764be97141000028b023fba0;de;;;3.1.;;;Privatheitsschutz durch Open Data und Trusted Third Parties: Plädoyer für die öffentliche Kontrolle sozialer Daten In this Beitrag Werden auf Basis der Betrachtung der Potenziale und Probleme bei der Verwendung von Social-Media-Daten in der Forschung zur Bedeutung datenökonomischer Dynamiken und Strukturen im akademischen Bereich angestellt. Die Schwierigkeiten beim Zugang und Teilen der Daten werden ebenso betrachtet wie die Rolle von Plattformbetreibern und die Möglichkeiten zur Archivierung von in der Forschung genutzten Daten zum Zwecke der Ermöglichung von Sekundärnutzung und Nachvollziehbarkeit von Analyseergebnissen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-27511-2_6 94d81a437bb428f561129e10dfb4629b;de;;;3.1.;;;Ein integrierter Ansatz von E-RED- und ANT-Klassifizierungsmethoden für DRDoS-Angriffe Das Hauptziel dieses Dokuments besteht darin, den Distributed Reflector Denial of Service (DRDoS)-Angriff basierend auf einer protokollunabhängigen Erkennungstechnik zu erkennen. Das vorgeschlagene System wendet den E-RED-Algorithmus (Enhanced-Random Early Detection) und die Klassifikationsmethode für den anwendungsbasierten Netzwerkverkehr (ANT) an, um DRDoS-Angriffe nach ihren Typen zu erkennen und zu klassifizieren. Bei der experimentellen Analyse wird die Leistung des vorgeschlagenen Systems durch die Antwortpakete des Transmission Control Protocol (TCP) und des Domain Name System (DNS) bewertet. Es erkennt die DRDoS-Angriffe mit 99% True-Positive- und 1% False-Positive-Raten und klassifiziert die Angriffsarten mit einer Klassifikationsgenauigkeit von 98%. Die Ergebnisse und Diskussionen zeigen, dass das vorgeschlagene Verfahren im Vergleich zu den herkömmlichen Verfahren die höchste Wahrscheinlichkeit von reflektiertem Antwortverkehr erkennt und klassifiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-44966-0_29 519a95036aebcf7392cd304418bda641;de;;;3.1.;;;Kommunikation ist ein bilateraler Prozess Gesundheitsinformationen sind wichtig, und wir haben viele neue Möglichkeiten – da sind wir uns zweifellos alle einig. Aber dann – worüber sind wir uns einig? Was verstehen wir unter Gesundheitsinformationen, was ist das für ein Prozess? Welche Möglichkeiten und Grenzen gibt es, Informationen zu geben und zu empfangen? Was verstehen wir unter Gesundheit und was verstehen wir unter Gesundheitsinformationen? Für wen sind diese Informationen?;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-0093-9_1 b00998426647af40b671615a79af592f;de;;;3.1.;;;Biometrischer Datenschutz: Richtlinien und Technologien Im Vergleich zu herkömmlichen Techniken zur Feststellung der Identität einer Person bieten biometrische Systeme ein größeres Vertrauensniveau, dass die authentifizierte Person nicht von einer anderen Person imitiert wird. Allerdings müssen verschiedene Datenschutz- und Sicherheitsaspekte berücksichtigt werden, um möglichen Diebstählen und Missbrauch biometrischer Daten vorzubeugen. Der wirksame Schutz der Privatsphäre muss verschiedene Aspekte umfassen, wie die wahrgenommenen und tatsächlichen Risiken für die Benutzer, die Spezifität der Anwendung, die Annahme korrekter Richtlinien und auch Datenschutzmethoden. Dieses Kapitel konzentriert sich auf die wichtigsten Datenschutzfragen im Zusammenhang mit dem Einsatz biometrischer Daten, stellt aktuelle Leitlinien für die Implementierung von biometrischen Systemen zum Schutz der Privatsphäre vor und schlägt eine Diskussion der Methoden zum Schutz biometrischer Daten vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35755-8_1 73080f748037dc5b8547000e6cf838f7;de;;;3.1.;;;Ausstellung Wenn Archive Orte sind, an denen etwas verwahrt wird, so ist das Ausstellen ein Akt, der ihnen widerspricht und sie doch definiert. Sie entfalten ihre Funktion wie ihre Faszination aus der Dialektik von Ablegen und Benutzen, Aussortieren und Wiederfinden, Wegschließen und Entschlüsseln, Speichern und Wiedergeben, Entrücken und Zeigen, Latenz und Evidenz. Das Archiv drängt nach außen und lebt nur, wenn es benutzt wird. Es wird heiß, wenn man es aus seiner Ordnung in neue, les- oder sichtbare Ordnungen bringt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-476-05388-6_24 b77bec9266528947048fe56c72dc337e;de;;;3.1.;;;Durchführung einer Bioinformatik-Anwendung in einem gemeinsamen IRISGrid/EGEE-Testbed Dieses Papier beschreibt die Ausführung einer Bioinformatik-Anwendung über ein stark verteiltes und heterogenes Testbed. Dieses Testbed besteht aus Ressourcen für EGEE- und IRISGrid-Projekte und wurde unter Nutzung der modularen, dezentralen und „End-to-End“-Architektur des Grid integriert;-;-;-;https://link.springer.com/chapter/10.1007/11752578_100 be313b07e1e0b51b2d5e380c53e10d89;de;;;3.1.;;;„Eine schlechte Nachahmung von Grotius und Pufendorf?“ Biographische Unsicherheiten und die mühsame Entstehung von Vattels Dieses Kapitel besteht aus zwei Teilen. Der erste Teil analysiert die biographischen Einträge zu Emer de Vattel in Publikationen, die in der zweiten Hälfte des 18.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-23838-4_3 c7dbad959a7c57045414b9684f21a381;de;;;3.1.;;;Entwurf eines CAI-Systems für den Übersetzungsunterricht Es besteht kein Konsens darüber, wie ein computergestütztes Unterrichtssystem (CAI) für die Übersetzung aufgebaut werden soll. Der Autor überprüft bestehende Forschungsarbeiten zum computergestützten Übersetzungsunterricht und unterteilt diese Tools oder Technologien in „hochwertige Kursseiten“, computergestützte Übersetzung, Allzweck-Kursunterlagen, datengesteuertes Übersetzungslernen und intelligente Übersetzungslernwerkzeuge. Durch die Kombination von Tools mit Übersetzungsstudien schlägt dieses Papier ein CAI-System für den Übersetzungsunterricht vor. Es beschreibt verschiedene funktionale Module, von denen erwartet wird, dass sie das Lernen von Übersetzungslernern im Selbstzugriff ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21802-6_74 02e4ca8ceda62730ea7dabec6748ffa1;de;;;3.1.;;;Ein parametrisches 1-Maximin-Location-Problem Wir führen eine Version des gewichteten 1-Maximin-Problems in einem konvexen Polygon ein, wobei die Gewichte Funktionen eines Parameters sind. Das 1-Maximin-Problem ist bei der Lokalisierung unerwünschter Einrichtungen anwendbar. Sein Ziel ist es, einen optimalen Standort zu finden, so dass der minimale gewichtete Abstand zu einem gegebenen Satz von Punkten maximiert wird. Wir zeigen, dass das parametrische 1-Maximin-Problem äquivalent zu einem 1-Minimax-Problem ist, bei dem die Kosten nichtlinear abnehmende Abstandsfunktionen sind. Unter Verwendung unterschiedlicher Werte des Parameters im 1-Maximin-Problem kann man unterschiedliche Disutility-Funktionen für die Nutzer der Anlage modellieren. Weiterhin sieht die Parametrisierung eine systematische Reduzierung der Auswirkungen der Gewichte vor, was im Grenzfall zum ungewichteten 1-Maximin-Problem führt. Für zwei Beispielprobleme konstruieren wir die optimale Trajektorie als Funktion des Parameters und zeigen, dass die Trajektorie unstetig sein kann.;-;-;-;https://link.springer.com/article/10.1057/jors.1991.6 428922ca110b1edf024751fbb622450f;de;;;3.1.;;;Übertragung eingefangener elektromagnetischer Strahlung in einem Ensemble resonanter mesoskopischer Streuer Eine mesoskopische Analogie zum Compton-Milne-Strahlungseinfang wird diskutiert. Das Phänomen des Strahlungseinfangs ist seit 1923 bekannt und bezeichnet das „Einfangen“ resonanter instationärer optischer Strahlung in Gasen, deren Atome eine resonante Absorptionslinie besitzen. Wir diskutieren dieses Phänomen im Zusammenhang mit der modernen Untersuchung der Reduzierung der Energietransportgeschwindigkeit für die Ausbreitung von Licht- oder Mikrowellenpulsen in einem Medium, das aus zufällig platzierten kleinen resonanten dielektrischen Streuern besteht. Die mesoskopische Analogie zum Compton-Milne-Phänomen wird mit Hilfe der verbesserten Sobolev-Strahlungsübertragungsgleichung mit Verzögerung bei resonanten Einfachstreuereignissen betrachtet. Es werden einige vorläufige allgemeine Bemerkungen zum Gültigkeitsbereich der Strahlungsübertragungstheorie aus der Sicht der statistischen Mehrfachstreuungstheorie und zu den bekannten Fortschritten bei der Untersuchung dieses Bereichs im Hinblick auf den Van-Hove-Limit gegeben. Als Ausgangspunkt in der Theorie des Compton-Milne-Phänomens nehmen wir die exakte kinetische Gleichung für die Kohärenzfunktion des elektromagnetischen Pulses, der sich in einem diskreten dielektrischen Zufallsmedium ausbreitet. Die Gleichung enthält einen Term, der die Energieakkumulation innerhalb der Streuer aufgrund ihrer Polarisation berücksichtigt. Das Erscheinungsbild dieses Begriffs wird durch die Ward-Identität, die Schlüsselidentität im Kontext der vorliegenden Studie, vorgegeben. Nach der Ward-Identität resultiert die dynamische Extinktion des ensemblegemittelten Feldes aus der teilkohärenten Streuung und der Energieakkumulation/-absorption innerhalb der Streuer. Es werden zwei Ansätze zur Lösung der exakten kinetischen Gleichung betrachtet: Der erste geht von einem Diffusionsregime der Pulsentwicklung auf großen räumlich-zeitlichen Skalen aus, während der zweite auf der Strahlungsübertragungsgleichung mit Verzögerung beruht und auf beliebigen räumlich-zeitlichen Skalen gültig ist . Die Diffusionsasymptotik für die Kohärenzfunktion des Wellenfeldes erlaubt es uns, einen exakten Ausdruck für die Diffusionskonstante elektromagnetischer Strahlung in einem zufälligen Medium in Form der Green-Kubo-Beziehung zu erhalten, die in Form der Energieflusskorrelationsfunktion und der Dichte . geschrieben wird von Zuständen des Wellenfeldes. Im Diffusionsbereich wird die elektromagnetische Energie innerhalb und außerhalb der Streuer entsprechend dem Parameter der Energieakkumulation innerhalb der Streuer proportional verteilt. Eine modifizierte Strahlungsübertragungsgleichung, die die Zeitverzögerung bei resonanten Einfachstreuereignissen berücksichtigt und unter bestimmten Näherungen aus der exakten kinetischen Gleichung abgeleitet wird, wird angewendet, um die beiden Effekte des Strahlungseinfangs auf einen kurzen Impuls zu untersuchen, der von einem resonanten halbunendlichen zufälligen Medium reflektiert wird : (a) die Umverteilung der Pulsenergie von der Vorderseite nach der Rückseite des Pulses und (b) die Verbreiterung des kohärenten Rückstreukegels im Vergleich zum Fall eines nicht resonanten zufälligen Mediums.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0227-1_21 dbad2aa5408453bcc0e2c581e13fc1f7;de;;;3.1.;;;Futures-Optionen mit Margining im Futures-Stil in der Einstellung für Gauß-Modelle In diesem Beitrag werden die Auswirkungen des Markung-to-Market auf Futures und Futures-Optionen untersucht. Geschlossene Lösungen für die Preisbildung dieser Kontrakte werden unter der Annahme abgeleitet, dass der Terminkurs einem Gaußschen Modell folgt. Darüber hinaus wird eine Obergrenze des Fehlers angegeben, der bei der Berechnung von Futures-Optionspreisen nach der Marktbewertung anstelle der diskreten Bewertung entsteht.;-;-;-;https://link.springer.com/article/10.1007/BF02688986 317e30b17365b773bd09044590e7fb05;de;;;3.1.;;;Disziplinäre Perspektiven »Wissen über die Welt« vermittelte sich in Europa schon früh über Dinge, sie galten als Zeugen anderer Kontinente und Kulturen. Dinge als kulturelle Vielfalt spielt auch in der langen Vorgeschichte der Ethnologie eine wichtige Rolle. Deshalb soll den ›Wunderkammern‹ und völkerkundlichen Museen hier ein eigener Abschnitt gewidmet werden. Im 19. Jahrhundert war die Evidenz des Materiellen durch Objektformen außerdem ein Geburtshelfer der Ethnologie. Das Fach entstand aus den ethnographischen Sammlungen, wie im zweiten Abschnitt über kulturhistorische und evolutionistische Theorien zu zeigen Sein WIRD.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-476-05346-6_5 9ef4ecec1b12bbb0d11bbe5dacd61043;de;;;3.1.;;;Untersuchung von Pigmenten in mittelalterlichen Handschriften mittels Mikro-Raman-Spektroskopie und Totalreflexions-Röntgenfluoreszenzspektrometrie Die analytische Pigmentuntersuchung kann für Kunsthistoriker wichtige Erkenntnisse liefern. Der Einsatz zweier mikroanalytischer Techniken, der Mikro-Raman-Spektroskopie und der Totalreflexions-Röntgenfluoreszenz, hat sich als sehr erfolgreich erwiesen. Diese Techniken liefern ergänzende Informationen: Raman-Spektroskopie ermöglicht die Identifizierung der verschiedenen Materialien, aus denen die Pigmentkörner bestehen, und Totalreflexions-Röntgenfluoreszenz gibt die durchschnittliche Elementarzusammensetzung der Probe an.;-;-;-;https://link.springer.com/article/10.1007/BF01242913 23f1161596e1c1cbfa6b041c1c7664b2;de;;;3.1.;;;Signalverarbeitung der inneren Netzhaut: Anpassung an Umgebungslicht Das menschliche Sehsystem arbeitet über einen enormen Bereich der Umgebungsbeleuchtung. Vom Sternenlicht bis zum hellen Sonnenlicht steigt die mittlere Beleuchtungsstärke weit über eine Milliarde Mal an und deckt einen Bereich von etwa 10 Log-Einheiten ab. Über einen Großteil dieses Bereichs bleibt die visuelle Empfindlichkeit aufgrund verschiedener Mechanismen der Lichtanpassung bei kleinen Lichtzunahmen oder -abnahmen vom konstanten Beleuchtungsniveau ziemlich hoch. Die Aufrechterhaltung einer relativ hohen Kontrastempfindlichkeit über einen so großen Bereich war Gegenstand zahlreicher psychophysischer und nicht-invasiver physiologischer Studien am Menschen sowie physiologischer und einiger Verhaltensstudien an Tiermodellen mit ähnlichen Fähigkeiten. Ein Vergleich der psychophysischen Ergebnisse mit Aufzeichnungen von retinalen Ganglienzellen bei Katzen und Primaten zeigt, dass der größte Teil der von menschlichen Probanden berichteten Lichtadaptation in einzelnen retinalen Ganglienzellen beobachtet werden kann. Dies bedeutet, dass der größte Teil der Lichtadaptation in der Netzhaut stattfindet, bevor die visuellen Signale zur weiteren Verarbeitung zum Gehirn gelangen. Die Frage ist dann, wo in der Netzhaut und durch welche Mechanismen die Anpassung erfolgt. Im vorigen Kapitel dieses Buches wurden hauptsächlich Anpassungsmechanismen in der äußeren Netzhaut von Wirbeltieren untersucht. Besonderes Augenmerk wurde auf niedere Wirbeltiere und insbesondere auf die Teleost-Retina gelegt, wo die lichtbezogene morphologische Plastizität in der äußeren Netzhaut gut dokumentiert ist und ihr Zusammenhang mit der Lichtadaption ausführlich untersucht wurde. Die Mechanismen der Lichtadaptation in der inneren Netzhaut von Fischen sind noch nicht so gründlich untersucht worden. Obwohl adaptionsabhängige morphologische Plastizität in der inneren Retina von Goldfischen von Mb (Yazulla und Studholme, 1992) und Ma (Behrens und Wagner, 1996) beschrieben wurde, sind die physiologischen Konsequenzen dieser Veränderungen noch nicht klar.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-0619-3_12 80f62e10f90482150efc2a66cd7953aa;de;;;3.1.;;;Transformationen linearer Verbindungen Durch die Kombination mehrerer Ergebnisse zu verwandten (oder konjugierten) Verbindungen, die an banachbaren Faserbündeln definiert wurden, haben wir eine Maschinerie aufgebaut, die es ermöglicht, verschiedene Transformationen von linearen Verbindungen zu untersuchen. Durchgängig werden globale und lokale Methoden angewendet. Als Anwendung erhalten wir eine Erweiterung der klassischen affinen Transformationen auf den Kontext unendlichdimensionaler Vektorbündel. Eine andere Anwendung zeigt, dass wir, wenn wir die gewöhnlichen linearen Differentialgleichungen (in Banachräumen) als Zusammenhänge realisieren, die üblichen Transformationen von (äquivalenten) Gleichungen erhalten. Daher können einige klassische Ergebnisse zu Differentialgleichungen, wie der Satz von Floquet, eine „geometrische“ Interpretation haben.;-;-;-;https://link.springer.com/article/10.1007/BF01849241 b0fcc1f083e091cd6d8279c65e3278ce;de;;;3.1.;;;Klassifizierung von Mikrocomputern und Marketinginterpretation 1985 wurden vierzig für den Markt repräsentative Mikrocomputer ausgewählt. Sie wurden mit einer Reihe heterogener Daten beschrieben, die sowohl quantitative als auch qualitative Variablen enthielten. Das erste Problem besteht darin, die Struktur dieses vereinfachten Marktes zu zeichnen, indem er mit Hilfe klassischer Datenanalysemethoden wie der Korrespondenzanalyse und der hierarchischen Klassifikation klassifiziert wird. Der nächste Schritt besteht darin, die Entwicklung dieser Struktur in zwei aufeinanderfolgenden Jahren zu untersuchen. Dies kann mit der leistungsstarken „Supplementary Elements“-Technik erfolgen. Schließlich wird gezeigt, wie diese Technik einem kleinen Simulationsmodell für die Wahl eines Mikrocomputers zugrunde liegen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-73489-2_30 18a8ee1c8998202502880f55b2c52525;de;;;3.1.;;;Multimediale Sprachtherapie-Tools und andere Lösungen für Behinderte als Teil eines digitalen Ökosystem-Framework Die Curtin University hat ein Multimedia-Prototypsystem für Logopäden entwickelt, um bei der Rehabilitation von Patienten mit motorischen Sprachstörungen zu helfen. Dabei handelt es sich häufig um Schlaganfallpatienten, die die Fähigkeit zur effektiven Kommunikation neu erlernen müssen. Der Prozess ist in der Regel mühsam und anstelle der üblichen kartenbasierten Ansagen des Therapeuten bietet diese Multimedia-Lösung Bildschirm- und Audioansagen zusammen mit qualitativ hochwertiger digitalisierter Sprache. Das Ergebnis ist eine reduzierte Arbeitsbelastung für den Therapeuten. Parallel zu dieser Arbeit gibt es ein Mobilitätshilfe-Hilfsgerät-Programm für Sehbehinderte. Die Unterstützungscluster für all diese Gruppen, seien es Therapeuten, Pflegekräfte, Hersteller von Hard- oder Software, interagieren nicht in dem Maße, wie sie es könnten. Der Autor schlägt ein kollaboratives digitales Ökosystem-Framework vor, das diese Herausforderung unterstützen würde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16327-2_39 7a5f8dbf36b5d8515a040c83869fdf55;de;;;3.1.;;;Quellen für untersaisonale Vorhersagefähigkeiten für Hitzewellen über dem Jangtse-Becken aus drei S2S-Modellen aufgedeckt Basierend auf den Neuprognosedaten (1999–2010) von drei Betriebsmodellen [der China Meteorological Administration (CMA), den National Centers for Environmental Prediction of the US (NCEP) und dem European Center for Medium-Range Weather Forecasts (ECMWF)] an dem Projekt Subseasonal to Seasonal Prediction (S2S) teilnahmen, identifizierten wir die wichtigsten Quellen für untersaisonale Vorhersagefähigkeiten für Hitzewellen über dem Jangtse-Becken (YRB). Die drei Modelle zeigen begrenzte Vorhersagefähigkeiten hinsichtlich des Anteils richtiger Vorhersagen für Hitzetage im Sommer, der Heidke Skill Score sinkt nach einem 5-Tage-Vorhersagevorsprung schnell und fällt nach der Vorlaufzeit von 15 Tagen gegen null. Die überlegene Fähigkeit des ECMWF-Modells bei der Vorhersage der Intensität und Dauer der YRB-Hitzewelle ist auf seine Genauigkeit bei der Erfassung der Phasenentwicklung und Amplitude von Hochdruckanomalien zurückzuführen, die mit der intrasaisonalen Oszillation und der Trockenheit der Bodenfeuchtigkeit durch weniger Niederschlag über die Land-Atmosphären-Kopplung. Die Auswirkungen der 10–30-Tage- und 30–90-Tage-Zirkulationsvorhersagefähigkeiten auf Hitzewellenvorhersagen sind bei kürzeren Vorhersagezeiten (10 Tage) vergleichbar, während die Verzerrungen bei der 30–90-Tage-Zirkulationsamplitudenvorhersage einen engen Zusammenhang mit der Verschlechterung Fähigkeit zur Vorhersage von Hitzewellen bei längeren Vorhersage-Leads (> 15–20 Tage). Die Verzerrungen der intrasaisonalen Zirkulationsanomalien wirken sich weiter auf die Niederschlagsanomalien und damit auf die Landbedingungen aus, was die Erfassung extrem heißer Tage und deren Persistenz in den S2S-Modellen erschwert.;-;-;-;https://link.springer.com/article/10.1007/s00376-020-0144-1 08d4637070d97dee37540cdaaffc4117;de;;;3.1.;;;Eine zugelassene Blockchain-basierte Plattform für die Verifizierung von Bildungszertifikaten Der Fernunterricht ist für Studierende zu einer wichtigen Lernmethode geworden. Dennoch ist es in der Online-Lehre schwierig, die Nachvollziehbarkeit der studentischen Aktivitäten sicherzustellen. Die Schwierigkeiten bei der Verwaltung der nicht-sofortigen Diplomprüfung und der digitalen/Papierakten waren schon immer schwerwiegende Probleme im Bildungsmanagement. Die im aktuellen zentralisierten System gespeicherten Bildungsinformationen werden einfach durchgesickert und können in Bezug auf Unparteilichkeit und Authentizität nicht garantiert werden. In der vorliegenden Arbeit wird ein Prototyp eines digitalen Bildungszertifikats entwickelt, der die zugelassene Blockchain von PKI-CA, den Digest-Algorithmus und die interaktive Datenauthentifizierung durch digitale Signaturen verwendet. Die digitalen Zertifikate können vom System ausgestellt werden, das die sofortige Zertifikatsprüfung zwischen Studenten und Dritten über QR-Codes oder dynamische Autorisierungscodes realisiert. Die Testergebnisse zeigten, dass der Prototyp zu 100 % korrekt funktioniert, wobei der signifikante Durchsatz beim Abrufen und Erstellen von Transaktionen während des Testzyklus 1982,6 tps bzw. 263,9 tps on-chain beträgt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9213-3_36 6bf116d740e796106d72e7b54ed25b16;de;;;3.1.;;;Genese des Kinder- und Jugendmuseums Auch sterben Entstehung und Geschichte der amerikanischen Kinder- und Jugendmuseen ist nicht getrennt von der Entwicklung amerikanischer Kultureinrichtungen verlaufen, deshalb erscheint ein kurzer exemplarischer Überblick über die Grundstrukturen der amerikanischen Museumslandschaft zunächst sinnvoll.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-80876-9_5 5b0edcf00effbcd986584f278a43a13d;de;;;3.1.;;;Ferninfrarot- und Submillimeter-Kontinuumsbeobachtungen des Sagittarius B2 Molecular Cloud Core Wir haben die Kontinuumsemission des molekularen Wolkenkerns Sagittarius B2 mit dem 15 m James Clerk Maxwell Telescope auf dem Mauna Kea, Hawaii, beobachtet und die Kontinuumsemission der Sgr B2(N)- und (M)-Quellen modelliert. Die beobachtete Änderung des Peak-Mittel-Nord-Flussverhältnisses ist das Ergebnis einer sehr großen Opazität in der nördlichen Quelle und der Vordergrundauslöschung durch den mit der mittleren Quelle verbundenen Staub. Die Ergebnisse der Berechnungen legen nahe, dass die Leuchtkraft der nördlichen Quelle deutlich geringer sein kann als die der mittleren Quelle.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-6850-0_68 8e4623ed32e11a674c7c01b7db55030c;de;;;3.1.;;;SWISH DataLab: Ein Webinterface für die Datenexploration und -analyse SWISH DataLab ist eine einzige integrierte kollaborative Umgebung für die Datenverarbeitung, -exploration und -analyse, die Prolog und R kombiniert. Die Webschnittstelle ermöglicht den Austausch der Daten, des Codes aller Verarbeitungsschritte und der Ergebnisse zwischen den Forschern, und ein Versionierungssystem erleichtert die Reproduzierbarkeit von die Recherche an einem beliebigen Punkt. Anhand von Suchprotokollen der Nationalbibliothek der Niederlande in Kombination mit den Metadaten des Sammlungsinhalts demonstrieren wir, wie SWISH DataLab für alle Phasen der Datenanalyse verwendet wird, indem Prolog-Prädikate, Diagrammvisualisierungen und R.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67468-1_13 6e495c01f7db5b66602b1811ec038c4d;de;;;3.1.;;;Ein rückblickender Blick aus Russland auf das Wunderland der Unschärfe Ich habe 1975 mein Ingenieurdiplom in Systemen der automatisierten Steuerung vom Moskauer Institut für Physik und Technologie (MIPT, manchmal auch als „russisches MIT“ bezeichnet) erhalten Moskau Stadt. Aber ich zog es vor, frei von den Pflichten eines Forschers zu sein, der an vorgeschriebenen Aufgaben arbeitete, und kehrte in meine Stadt Kazan zurück, wo ich eine Assistenzprofessur in der Abteilung für Angewandte Mathematik des Kazan Institute of Chemical Technology (jetzt Kazan National Research Technological University) innehatte. Ich suchte nach interessanten Forschungsgebieten und danke dem Abteilungsleiter Prof. Vladimir Skvortsov, der mich auf die Arbeit von Zadeh [39] aufmerksam gemacht hat. Dieser Aufsatz wurde ins Russische übersetzt und 1974 in der Zeitschriftensammlung „Mathematik heute“ in der Reihe „Mathematik und Kybernetik. Nachrichten in Leben, Wissenschaft und Technik“.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35641-4_5 2c5d8d533794c3fb97aa26add9be9adb;de;;;3.1.;;;SWS-Herausforderungsszenarien Die Semantic Web Service Challenge definiert Problemszenarien, die als Grundlage für die Zertifizierung und den Vergleich der an der Challenge teilnehmenden Ansätze dienen. Diese Szenarien werden in zwei große Typen eingeteilt: Vermittlung und Ermittlung. Erstere befassen sich hauptsächlich mit Aspekten der Daten- und Prozessvermittlung, während sich letztere auf Probleme rund um die automatisierte Service-Erkennung konzentrieren. Derzeit gibt es in jedem Typ zwei Hauptszenarien, die in diesem Kapitel ausführlich beschrieben werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-72496-6_2 5432bc5b8dead4e873d9f2a231d03ba8;de;;;3.1.;;;Verwendung mathematischer Modellierung und virtueller Manipulativen für den Unterricht in elementarer Mathematik Das Akronym STEM hat in Diskussionen über die Zukunft der Bildung an Bedeutung gewonnen. Angesichts der wachsenden Bedeutung von Mathematik und Technologie im MINT-Kontext ist es wichtig, dass die Lehrererstausbildung auf diese Herausforderung reagieren kann. Die Teilnahme an MINT-Lehrerfahrungen, die eine angemessene Integration der Technologie ermöglichen, fördert die Entwicklung von professionellem Lehrwissen in Bezug auf die TPACK-Dimensionen und motiviert Lehrkräfte, die sich auf diese Lehrpraktiken beziehen. Wir möchten zu dieser Diskussion mit einem Interventionsvorschlag beitragen, der während der Praxiskomponente der Lehrerfortbildung implementiert wurde und die mathematische Modellierung als Lernumgebung mit dem Einsatz virtueller Manipulative kombiniert. Eine Reihe von Aufgaben, die durch das konzeptionelle Modell von TPACK unterstützt werden, wurde entwickelt, um eine Gruppe von Grundschulen im ersten Jahr dabei zu unterstützen, Schwierigkeiten beim Lernen im Zusammenhang mit elementaren arithmetischen Operationen zu überwinden. Durch eine qualitative Forschung mit interpretativem Charakter und Aktionsforschungsdesign identifizierte die Analyse der Lehrerleistung vor dem Dienst die Merkmale der Unterrichtspraxis, die zur Schaffung günstiger Bedingungen für die Selbst- und Ko-Regulierung des mathematischen Lernens der Schüler beigetragen haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-73988-1_6 909a461e94319efd385a8d60e978ee89;de;;;3.1.;;;Bürgerschaftlich-zivilgesellschaftliches Engagement im Museumswesen — Bestandsaufnahme, Defizite und Chancen Der demokratietheoretische Diskurs wurde in den letzten Jahren weitgehend von den neuen sozialen Bewegungen beherrscht (vgl. Roth/ Rucht 1991). Die Öko-, Friedens- oder Frauenbewegungen wurden als Hoffnungsträger demokratischer Erneuerung sowie als Phalanx gegen die bürokratischen und verkrusteten Strukturen der Parteien- und korporatistisch vermachteten Verbändedemokratie betrachtet (vgl. Roth 1994). Es ist daher nicht verwunderlich, dass zivilgesellschaftliche Betrachtungen in erster Linie in Verbindung mit den neuen sozialen Bewegungen gesehen und gedacht werden (vgl. Klein 1991).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-95367-4_5 1a498c061402e9476fe443d4c898b98c;de;;;3.1.;;;Protokoll-Random-Forest-Modell zur Verbesserung der Effektivität der Erkennung von Angriffen IT-Systeme sind heutzutage überall wie in einer Organisation, einem Unternehmen und einer Institution. Unter den Unternehmensressourcen sind IT-Assets am schwierigsten zu bestimmen, da viele sich wiederholende technische Arbeiten erforderlich sind, um immaterielle Dinge wie Daten, Software und Konfigurationen zu identifizieren. Um gefährliche Auswirkungen auf die IT-Infrastruktur zu schützen, konzentriert sich diese Forschung auf die Entwicklung eines Netzwerk-Einbruchserkennungsmodells, das eine genaue Erkennung mit einer niedrigen Falschmeldungsrate durchführt. Wir berücksichtigen die bedeutende Rolle der Standardprotokolle, die zum Starten eines Angriffs verwendet werden, und haben daher das Erkennungsmodell basierend auf den Protokolldatensätzen entwickelt. Wir nutzten die Forschungsmethoden des Random Forest als Klassifikator und genetischen Algorithmus zur Merkmalsauswahl. Für das Experiment werden drei Protokolldatensätze verwendet, die Teilmengen des NSL-KDD-Datensatzes darstellen. Das Ergebnis reicht aus, um zu beweisen, dass unser Protocol Random Forest (Protocol-RF)-Modell die Angriffe mit der höchsten Präzision von 0,907 und einer niedrigen False-Positive-Rate von 0,001 erkennt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5148-2_15 373d55438a5743385d723849875a2046;de;;;3.1.;;;Kosmologie und Gewichtstheorie In diesem Kapitel betrachte ich De Volders Ansatz zur Kosmologie, der ihn wahrscheinlich dazu führte, den Cartesianismus um 1700 aufzugeben;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-19878-7_6 256dbb770e6b14be5b09a5e16ce432cd;de;;;3.1.;;;Babylonische arithmetische Astronomie Ende Mai 1857 traf sich ein von der Royal Asiatic Society of Great Britain and Ireland eingesetztes Komitee in London, um vier unabhängige Übersetzungen eines assyrischen Textes zu vergleichen, der in Keilschrift zweifach auf zwei gut erhaltenen Tonzylindern eingeschrieben war. Hormuzd Rassam hatte sie 1853 als Fundgruben in den Ruinen des antiken Ashur gefunden, als er im Auftrag des British Museum in Mesopotamien grub. WH Fox Talbot, der Gentleman-Wissenschaftler, Erfinder der Fotografie und Linguist, hatte von HC Rawlinson, dem bemerkenswerten Soldaten, Diplomaten und Linguisten, eine Kopie des Textes erhalten und schickte seine versiegelte Übersetzung an die Gesellschaft mit dem Hinweis, dass andere Gelehrte werden gebeten, denselben Text zu übersetzen, damit die Ergebnisse verglichen werden können, um die Gültigkeit der Entzifferung des Assyrischen zu überprüfen, denn, wie er schreibt: „Viele Menschen haben sich bisher geweigert, an die Wahrheit des Systems zu glauben, nach dem Dr. Hincks und Sir H. Rawlinson hat assyrische Schriften interpretiert, weil sie viele Dinge enthalten, die ihren vorgefassten Meinungen völlig widersprechen.“;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0109-7_2 804c216d35e1e6e848c90a04ea249edb;de;;;3.1.;;;Ultrastruktur des endolymphatischen Sackes bei der mongolischen Rennmaus Wir beschreiben unsere Ergebnisse in einer ultrastrukturellen Studie des endolymphatischen Sacks der mongolischen Rennmaus. In Verbindung mit seiner spezifischen Nierenphysiologie, die es diesem Tier ermöglicht, einem langfristigen Wasserentzug standzuhalten, haben wir unsere Ergebnisse verwendet, um die Existenz eines lokalen Überwachungssystems im endolymphatischen Raum zu vermuten. Das Vorhandensein von elastischem Gewebe im subepithelialen Raum des endolymphatischen Sackes könnte den Mechanismus erklären, durch den diese Struktur endolymphatische Druckänderungen ausgleicht. Schließlich schlagen wir vor, dass eine Sekretion von wasserspeichernden Makromolekülen durch osmotische Kräfte wirken kann, um die Innenohrflüssigkeit zu modulieren.;-;-;-;https://link.springer.com/article/10.1007/BF00468637 4077a5e64c8331f0f25d1a7de5206182;de;;;3.1.;;;Blockchain-basierte dynamische Spektrumsfreigabe für 5G und darüber hinaus drahtlose Kommunikation Die in Smart Contract geschriebene Blockchain-Technologie hat die Vorteile der Ermöglichung einer intelligenten Abwicklung, des Werttransfers und der Ressourcenteilung, die eine neue sichere und vertrauenswürdige Plattform für das dynamische Spektrumsfreigabesystem bietet. In diesem Papier fassen wir zunächst die Anwendung der Blockchain-Technologie bei der dynamischen Frequenzteilung unter Berücksichtigung der Anforderungen der Frequenzteilung zusammen. Dann diskutieren wir die wichtigsten Probleme, die bei der Anwendung von Blockchain auf ein großes Spektrum-Sharing-System gelöst werden müssen. Danach analysieren wir die zentralen Herausforderungen eingehend und stellen entsprechende Schlüsseltechnologien und mögliche Lösungen für die oben genannten Probleme bereit.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9213-3_44 9b5b7c890989fb6d988ee7ed2e4fb770;de;;;3.1.;;;Wissenschaftliche Visualisierungen und ästhetische Vertrauensgrundlagen Der kollaborative „Big Science“-Ansatz, der Mitte und Ende des 20. Diese oft computergestützten Kooperationen stellen die Vertrauenspraktiken der Forscher in Frage. Der Beitrag konzentriert sich auf die Visualisierungen, die oft im Zentrum dieser Form der wissenschaftlichen Praxis stehen, und schlägt vor, dass die ästhetischen Aspekte dieser Visualisierungen selbst eine Möglichkeit zur Vertrauenssicherung sind. Kants Darstellung ästhetischer Urteile in der Dritten;-;-;-;https://link.springer.com/article/10.1007/s10676-008-9159-5 c8cb8a412b550f2d2b3f6628cdc03580;de;;;3.1.;;;Adaptive Binarisierungsmethode zur Verbesserung alter malaiischer Manuskriptbilder Um alte malaiische Manuskriptbilder sauberer und lesbarer zu machen, muss eine Verbesserung durchgeführt werden, da die Bilder aufgrund von ungleichmäßigem Hintergrund, Tintenausblutung oder Tintenausblutung und Ausdehnung von Flecken unterschiedliche Qualitäten aufweisen. Das vorgeschlagene Verfahren zur Bildverbesserung in diesem Experiment besteht aus mehreren Stufen, nämlich lokale adaptive Entzerrung, Bildintensitätswerte, K-Means-Clustering, adaptives Schwellenwert und Medianfilterung. Das vorgeschlagene Verfahren erzeugt ein adaptives Binarisierungsbild. Wir haben die vorgeschlagene Methode an elf alten malaiischen Manuskriptbildern getestet. Das vorgeschlagene Verfahren hat den kleinsten Durchschnittswert des relativen Vordergrundbereichsfehlers im Vergleich zu anderen Verfahren des Standes der Technik. Gleichzeitig hat das vorgeschlagene Verfahren im Vergleich zu den anderen Verfahren die besseren Ergebnisse und die bessere Lesbarkeit erbracht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25832-9_63 c07b1f6105f5288c24ebb718f49effbb;de;;;3.1.;;;Nützliche pädagogische Übungen für die Gemeinschaft In vielen Fällen hinterlassen die vom Bildungssystem vermittelten Inhalte keine Spuren bei den Schülern, da es nicht genügend Aufmerksamkeit erhält, da es sich positiv auf das Lernen auswirkt. Aus diesem Grund schlagen wir ein System vor, das bei der Durchführung der Lernaufgabe und bei der Lösung des Problems der mangelnden Aufmerksamkeit der Schüler im Zusammenhang mit dem fehlenden Bewusstsein für den Ort der Anwendung der neuen Lehrinhalte helfen kann. Dies erfordert die Einbindung neuer Technologien, wie die Verwendung eines Cloud-Systems und die Kommunikation über Webdienste, wenn Benutzer über mobile Geräte zugreifen, die eine globale Beratungsseite bieten, die den Schülern hilft, die gegebenen Inhalte zu verstehen und zuzuordnen zur realen Welt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-07632-4_30 3ced1fafdf4e123621d7188463bb00b9;de;;;3.1.;;;Trends und Entwicklung im Bereich Green Computing Hauptsächlich aus dem Blickwinkel des Computersystems analysiert dieser Beitrag den negativen Einfluss der natürlichen Umwelt, der durch das Computersystem verursacht wird. Es stellt ein neuartiges Konzept für Green Computing mit verallgemeinerten Aspekten vor und erweitert die traditionellen Aufgaben und Zusammenhänge der Green-Computing-Forschung. Zunächst wird das generalisierte Green Computing unter Verwendung von Hard- und Softwaretechnologien und -methoden eingehend diskutiert und die indikative Bedeutung dahinter analysiert, einschließlich aller Arten des Schemas für Forschungseinrichtungen und Unternehmen. Anschließend werden einige Grundgedanken des Green Computing und verallgemeinerte Methoden vorgestellt, um die notwendigen Grundlagen für die Methoden und Werkzeuge des Green Computing zu schaffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22691-5_49 e3f6de86f4bba6309adc67a0fec5e3e8;de;;;3.1.;;;Ganzkörpervibration und das Risiko von Kreuzschmerzen und Ischias: eine systematische Überprüfung und Metaanalyse Das Ziel dieser systematischen Literaturübersicht war es, den Zusammenhang zwischen Ganzkörpervibrationen (WBV) und Kreuzschmerzen (LBP) und Ischias unter besonderer Berücksichtigung der Expositionsabschätzungen zu bewerten. Darüber hinaus war es das Ziel, das Ausmaß einer solchen Assoziation mittels Metaanalysen abzuschätzen und unsere Ergebnisse mit früheren Reviews zu vergleichen.;-;-;-;https://link.springer.com/article/10.1007/s00420-014-0971-4 54c53b65f8593f325566292080d34980;de;;;3.1.;;;Grid Branch-and-Bound für Permutation Flowshop Flowshop ist ein Beispiel für ein klassisches hartes kombinatorisches Problem. Branch-and-Bound ist eine Technik, die häufig zur Lösung solch schwieriger Probleme verwendet wird. Zusammen können die beiden als Maßstab für den Reifegrad einer Parallelverarbeitungsumgebung verwendet werden. Netzsysteme stellen eine Reihe von Hürden, die in der Praxis überwunden werden müssen. Wir geben einen Bericht über die Anwendung von parallelem Branch-and-Bound für Flowshop in einer Grid-Umgebung. Methoden, die sich mit der Komplexität der Umgebung und der Anwendung befassen, werden vorgeschlagen und bewertet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31500-8_3 3a79e870d746b6b81ba0d89ee332b0bc;de;;;3.1.;;;RC-AAM: Blockchain-fähige dezentrale rollenzentrierte Authentifizierung und Zugriffsverwaltung für verteilte Organisationen In großen Organisationen erreichen wir Sicherheit, indem wir den unnötigen Zugriff auf freigegebene Ressourcen basierend auf den Rollen der Benutzer beschränken. Es reduziert den Verwaltungsaufwand und erhöht die Sicherheit. Aufgrund der Sicherheitsanforderungen einer rollenzentrierten Authentifizierung und Zugriffsverwaltung ist es eine Herausforderung, ein effizientes zentralisiertes System für verteilte Anwendungen zu erstellen. Zentralisierte Authentifizierungs- und Zugriffskontrollsysteme sind anfällig für Einzelfehler, Sicherheitsbedrohungen, Datenschutz und Skalierbarkeitsprobleme. Dieses Whitepaper stellt eine dezentralisierte rollenzentrierte Authentifizierungs- und Ressourcenzugriffsverwaltungstechnik namens . vor;-;-;-;https://link.springer.com/article/10.1007/s10586-021-03352-x 16e023e9c047d978ca447dbce3d7b2ef;de;;;3.1.;;;Ein Betriebsplanungsmodell zur Unterstützung der First-Mile-Logistik für kleine Erzeuger von Frischprodukten In dieser Arbeit schlagen wir ein hierarchisches Optimierungsmodell vor, um Ernte- und lokale Routing-Entscheidungen von frischen landwirtschaftlichen Produkten zu unterstützen. Das vorgeschlagene Modell wurde durch die Tatsache motiviert, dass kleine Erzeuger von Frischprodukten sehr oft Schwierigkeiten haben, lokale Logistik (oder die erste Meile) zu vernünftigen Preisen zur Verfügung zu stellen, was zu geringeren Gewinnspannen und mehr Lebensmittelverschwendung führt. Um die Kosten für die Logistik der ersten Meile zu senken, können sie die Zusammenführung der Ernten verschiedener Erzeuger koordinieren, um ihre Produkte an die Verpackungsanlage zu senden. Daher integrieren wir Ernte- und Routingvorgänge für eine Reihe von Kleinbauern mit dem Ziel, ihre Betriebskosten zu senken. Der vorgeschlagene Rahmen wurde umgesetzt und vorläufig evaluiert, wobei einige Fälle als Fallstudie Landwirte von Frischprodukten in der Zentralregion Chiles in Betracht gezogen haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-76310-7_17 829071f6fef89e8660441724bbc2f37a;de;;;3.1.;;;Sprachdefinition Dieses Kapitel enthält ein Referenzhandbuch für die Object-Z-Sprache. Es soll bei der Verwendung der Sprache zur Verdeutlichung und Verstärkung der Bedeutung und Verwendung von Object-Z-Konstrukten zur Hand sein. Das Kapitel enthält für jedes der syntaktischen Konstrukte, die in Kapitel 3 eingeführt wurden, eine „Manual Page“. eine semi-formale Definition des Konstrukts in einer einfachen Metasprache.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5265-9_4 d348df9a2853544baa126faee0329ab2;de;;;3.1.;;;SiC-Nanopartikel-Verbundanode für Li-Ionen-Batterien Wir präsentieren hier die Leistung von Li-Ionen-Batterien mit einer SiC-Nanopartikel-Filmanode, die durch ein CVD-Verfahren (Chemical Vapor Deposition) mit doppeltem Mehrfachhohlraumentladungsplasma hergestellt wird. Der erste Zyklus der Lade-/Entladeeigenschaft der Li-Ionen-Batterie mit der SiC-Nanopartikel-Film-Anode zeigt eine hohe Kapazität von über 4.000 mAh/g, die 12-mal höher ist als die der Li-Ionen-Batterie mit der herkömmlichen Graphitanode. Die Entladekapazität zeigt eine hohe Stabilität für den ersten 10. Zyklus und beträgt 3750 mAh/g für den 10. Zyklus.;-;-;-;https://link.springer.com/article/10.1557/opl.2014.742 52b5049875b3258352bbe5e593d1f3e4;de;;;3.1.;;;Eine Webarchivierungsmethode zur Erhaltung der Inhaltsintegrität durch die Verwendung von Blockchain Ein Webarchivsystem ist mit dem explosionsartigen Wachstum der Webdaten zu einem wesentlichen Thema für die Aufbewahrung historischer Informationen für Nachkommen geworden. Das Referenzmodell für ein Open Archival Information System (OAIS) bietet einen hervorragenden Leitfaden für ein Langzeitarchivsystem, und die meisten Webarchivsysteme folgen diesem Leitfaden. Es gibt jedoch immer noch eine Schwachstelle in Bezug auf die Inhaltsintegrität, da die archivierten Webdaten auf unbefugte Weise verändert werden könnten. In diesem Papier haben wir die Webarchivierungsmethode BCLinked (Blockchain Linked) vorgeschlagen, die Blockchain-Technologie und ein erweitertes WARC (Web ARCHive)-Dateiformat verwendet, um die Inhaltsintegrität sicherzustellen. Darüber hinaus haben wir bestätigt, dass die vorgeschlagene Methode die Inhaltsintegrität durch das Experiment gewährleistet.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9343-7_47 dd6ab0be659f9bde71613478028a2450;de;;;3.1.;;;Die qualvolle Suche des Südens nach den guten Büchern Die Geschichte des Buches in der Geschichte des Südens ist die Geschichte von der Wahrnehmung der Gefahren beim Lesen, von den Problemen beim Aufbau des Kommunikationssystems, das für die Bereitstellung von Büchern unerlässlich ist, von der unterschiedlichen Bedeutung von Büchern für verschiedene Gruppen der südlichen Kultur. Dieser Artikel zeichnet diese Geschichte von der Kolonialzeit bis in die Gegenwart nach, wobei besonderes Augenmerk auf die Spannungen zwischen Nord und Süd, die Rolle der religiösen Orthodoxie, die Dominanz der mündlichen Kultur, Mängel im Bibliothekssystem und den ländlichen Charakter der Region gelegt wird. Es endet mit einer Diskussion über südländische Schriftsteller und ihre Rolle bei der Entwicklung einer Buchkultur.;-;-;-;https://link.springer.com/article/10.1007/BF02680405 6213d7d2d26e89543244b1b6382a901b;de;;;3.1.;;;Bewertung klassischer und KNN-basierter Lastprognosetechniken mit univariaten und multivariaten Analysen Der Stromverbrauch pro Kopf ist ein Indikator für das Wachstum eines Landes. Es fungiert als umfassendes Spiegelbild des industriellen Wachstums eines Landes. Die Bereitstellung von unterbrechungsfreier Stromversorgung von guter Qualität ist erforderlich, um ein schnelles Wachstum der Infrastruktur des Landes zu gewährleisten. Eine umsichtige und richtige Planung ist sehr wichtig, die beim Einkauf von Energie, Erzeugung und Infrastrukturentwicklung hilft, aber auch beim Lastmanagement hilft. Dies macht die Vorausprognose der Last zu einem sehr wesentlichen Bestandteil des Demand Side Managements mit dem Ziel der Integration erneuerbarer Energien. Für die Lastprognose und speziell die Spitzenlastprognose stehen zahlreiche Methoden zur Verfügung. Langes Kurzzeitgedächtnis (LSTM) und künstliches neuronales Netz (ANN) sind zwei verschiedene angewandte maschinelle Lernalgorithmen in diesem Bereich. In den letzten Tagen hat sich die autoregressionsintegrierte gleitender Durchschnitt mit exogenen Variablen (ARIMAX) als erfolgreiches Werkzeug zur Vorhersage zukünftiger Nachfragedaten erwiesen. In dieser Arbeit wurde versucht, diese Methoden zu vergleichen und ihre Vor- und Nachteile zu ermitteln. Mit dem Ziel, unter diesen Methoden die beste Anwendung zu finden, die optimale Ergebnisse bei der Lastprognose liefert, wurde eine Fallstudie erstellt. Dieses Papier konnte zeigen, dass ARIMAX als zukünftiges Lastvorhersagewerkzeug besser abschneidet als ANN und LSTM.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-0749-3_26 92e9f6691db305c017a579adf06b73f9;de;;;3.1.;;;Was ist ein PHR? Definitionen der in der Literatur verwendeten persönlichen Gesundheitsakte (PHR) – eine systematische Literaturübersicht Der Zweck dieses Artikels besteht darin, zu klären, wie der Begriff Personal Health Record (PHR) in der Literatur definiert und verwendet wird. Eine systematische Literaturrecherche wurde durchgeführt, um herauszufinden, was als Definitionen für die persönliche Gesundheitsakte verwendet wird. Wir fanden und überprüften insgesamt 1.781 Artikel, die in den Jahren 2000–2017 veröffentlicht wurden. Die vier ausgewählten Datenbanken waren ScienceDirect, IEEEXplore, Proguest und Pubmed. Nach dem Kriterienscreening wurden 1.234 Artikel einer weiteren Analyse unterzogen. Die meisten Artikel enthielten keine Definition des Begriffs „persönliche Gesundheitsakte“ (n = 1.001, 81%). Nur 233 (19%) Artikel enthielten eine Art Definition des Begriffs. Es wurden nur wenige Definitionen gefunden, die im Bereich der Medizininformatik ständig verwendet werden. Diese Definitionen stehen jedoch im Widerspruch zwischen anderen und dem allgemeinen Diskurs auf diesem Gebiet. Daher brauchen wir eine klare und systematische Struktur für verschiedene PHRs und ein Vorschlag für eine Hierarchie wird in diesem Artikel vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-57847-3_2 f4c0833fdc5cf7203064633b062e1859;de;;;3.1.;;;Grundwasservorkommen und Wassergewinnung in verschiedenartigen Gesteinsbereichen und ausgewählten Grundwasserlandschaften In diesem Kapitel soll die Grundwassérfuhrung und Wassergewinnungsmöglichkeit in verschiedenartigen Gesteinskomplexen beispielhaft beschrieben werden, dabei soli die Einbindung der Aquifere in die Grundwasserlandschaften, d. h. in der Gesamtheit der Wasserführung bestimmenden Kriterien beachtet werden. Es ist sicher verstandlich, daβ sterben Beispiele aus dem mittel- und westeuropäischen Raum genommen sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-7037-3_5 a7e7f525e000716813b34f51a154e776;de;;;3.1.;;;Verarbeitung unvollständiger zeitlicher Informationen in kontrollierter natürlicher Sprache Sind nicht alle zeitlichen Informationen in einem Text vorhanden, nutzen Menschen meist zusätzliches Hintergrundwissen, um Fragen zum Text zu beantworten. In diesem Artikel untersuchen wir zunächst, wie Menschen diese Art von Fragen beantworten, und schlagen dann zwei allgemeine Strategien vor, mit denen wir diese Fragen automatisch in einem kontrollierten natürlichen Sprachkontext beantworten können. Wir zeigen, wie Hintergrundwissen über Ereignisse und deren Auswirkungen in einer kontrollierten natürlichen Sprache explizit gemacht werden kann und wie diese Zusatzinformationen zusammen mit den Textinformationen in eine formale Notation für automatisiertes Denken übersetzt werden können. Zu diesem Zweck führen wir eine auf Antwortsatzprogrammierung basierende Version des Ereigniskalküls ein und verwenden dieses Argumentationsgerüst als Ausgangspunkt für die Beantwortung von Fragen zu den formalisierten Textinformationen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32695-0_46 5b912ae935cf59ad547c5785d67806c3;de;;;3.1.;;;Anatomie, Variationen und Mi\bildungen der GefÄ\e im Kopf- und Halsbereich Nach einem kurzen Überblick über die Entwicklungsdaten der Kopf-Hals-Arterien werden die Normalzustände, Variationen und Fehlbildungen einzelner Arterien beschrieben. Besonderes Augenmerk wird auf die skeletotopischen und topographischen Beziehungen der Arterien gelegt. In jedem größeren Gefäß werden Länge, Lage, Herkunft und Verzweigungen beschrieben und in den meisten Fällen auch durch Diagramme und Tabellen demonstriert. Da der Aortenbogen auch den Halsbereich erreichen kann, werden seine Variationen und Fehlbildungen sowie die Variationen seiner Äste erwähnt. Die Variationen und Fehlbildungen der Arteria inominate, der Arteria carotis communis sowie der Arteria carotis externa und interna werden beschrieben. Die praktische Bedeutung dieser Variationen wird betont. Bei der Beschreibung von Variationen und Fehlbildungen werden in der Literatur beschriebene anatomische, chirurgische und röntgenologische Befunde sowie persönliche Erfahrungen berücksichtigt. Besondere Aufmerksamkeit wurde den Variationen des Circulus arteriosus Willisi, der Persistenz der präsegmentalen Arterien und der Möglichkeit der Bildung eines Bypasses bei Okklusion oder Aplasie von Hirnarterien geschenkt. Die Lage der A. subclavia, ihre Variationen und die Variationen ihrer Äste werden beschrieben. Nach einer kurzen embryologischen Einführung werden die Variationen des Venensystems und seiner Anastomosen beschrieben. Am Ende werden die Hauptvarianten der großen Lymphgefäße im Hals erwähnt.;-;-;-;https://link.springer.com/article/10.1007/BF00456574 0ddb5198a56a8ab4b481ea388bfda44e;de;;;3.1.;;;Diese turbulenten Zeiten In diesem Überblick über revolutionäre Veränderungen bei Methoden und Materialien für den Leseunterricht beschreibt Bernice Cullinan Forschungsarbeiten, die literaturbasierte Programme unterstützen, und berichtet über eine Umfrage zu landesweiten Leseinitiativen. Sie beschreibt auch die Aktivitäten von Gruppen, die Lehrern und Bibliothekaren helfen, literaturbasierte Programme umzusetzen.;-;-;-;https://link.springer.com/article/10.1007/BF02678157 13548fa7afa1aa66f5687f33a1103900;de;;;3.1.;;;Gibt es Beeinträchtigungen der maximalen exspiratorischen Fluss-Volumen-Kurven durch Passivrauchen? Beeinträchtigungen der Lungenfunktion finden sich bei aktiven Rauchern im Allgemeinen häufiger als bei Nichtrauchern. Somit stellt sich die Frage, ob auch die passive Inhalation von Tabakrauch einen solchen Effekt hervorrufen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83904-7_18 1b54623aaee6e1a2307891a242dc3830;de;;;3.1.;;;Wearables in der Bildung: Erwartungen und Enttäuschungen Dieses Papier beschreibt den aktuellen Stand beim Einsatz von Wearable-Technologie in Lernen und Lehren. Es wird immer schwieriger, die weite Verbreitung von Wearable-Technologie im Alltag zu ignorieren. Heute werden verschiedene Arten von Wearables (wie Uhren, Fitnesstracker, Kleidung und Brillen) in Bibliotheken, medizinischen Fakultäten und Universitäten verwendet. Wir haben mehr als 30 akademische Quellen analysiert und festgestellt, dass das Aufkommen neuer Technologien im Unterricht fast immer mit hohen Erwartungen an deren effektive Umsetzung verbunden ist. Das Hauptziel unserer theoretischen Forschung ist es, Beispiele erfolgreicher Piloten im Bereich des Wearable-Lernens zu identifizieren, und vielleicht haben wir versucht, die möglichen Hindernisse und Probleme beim Einsatz neuer Wearables (wie Google Glass) im Klassenzimmer vorherzusagen. Die Ergebnisse unserer Forschung werden in weiteren Großprojekten verwendet und können hilfreich sein, um die neuen Trends beim Einsatz neuer Technologien in der Bildung zu verstehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-48978-9_7 c44176a2494e0487b51788590a1f535b;de;;;3.1.;;;Big Data-Sicherheit im webbasierten Cloud-Speichersystem mit 3D-AES-Blockchiffre-Kryptografie-Algorithmus Cloud-Speicher wird als ein Ort zum Speichern von Daten im Netz beschrieben, im Gegensatz zu lokalen Arrays. Es ist bekannt, dass Cloud Computing viele Fähigkeitenvorteile hat und viele Unternehmensanwendungen und Big Data in öffentliche oder hybride Cloud-Speicher migrieren. Aus Sicht der Verbraucher sind jedoch Cloud-Computing-Sicherheitsprobleme, insbesondere Probleme beim Schutz von Daten und der Privatsphäre, weiterhin der Haupthindernis für die Einführung von Cloud-Computing-Diensten. Dieses Papier beschreibt das Problem des Aufbaus sicherer Rechendienste für verschlüsselte Informationen im Cloud-Speicher, ohne die verschlüsselten Daten zu entschlüsseln. Es gibt viele verschiedene Arten von Angriffen und Bedrohungen, die auf Cloud-Systemen ausgeführt werden. Heutige Anbieter von Cloud-Speicherdiensten wie Google Drive und Dropbox verwenden den Verschlüsselungsalgorithmus AES-256. Obwohl er derzeit noch als sicherer Algorithmus gilt, zeigt ein kurzer Blick in die Geschichte, dass jeder Algorithmus später geknackt wird. Daher erfüllt es die Sehnsucht nach einem algorithmischen Anspruchsmodell der computergestützten Verschlüsselung, das die Sicherheit von Daten in Bezug auf Privatsphäre, Vertraulichkeit und Verfügbarkeit der Benutzer erhöhen könnte. Die Forschungsmethode umfasst zwei Hauptebenen, nämlich Literaturbewertung und Zufallstests für eine große Anzahl von Daten mit der NIST Statistical Test Suite, die vom National Institute of Standards and Technology (NIST) entwickelt wurde. In diesem Papier wird eine Studienbewertung vorgenommen, um zu entscheiden, ob die Forschungsherausforderung die üblichen Angriffe auf Cloud-Speicheranbieter effektiv abschwächen konnte. Die Ergebnisse dieses Whitepapers bieten Einblicke in die innovative Schutzimplementierung und deren Schwachstellen sowie zukünftige Verbesserungen, die zur weiteren Festigung von Cloud-Speicherlösungen vorgenommen werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-3441-2_24 d6be8d589f19e384a8931255144fa994;de;;;3.1.;;;Der Krieg wird heiß Am 16. Februar 1685 stirbt der König von England, Schottland und Irland, Karl II., an einem Schlaganfall. Er hinterlässt keinen legitimen Erben, so dass sein Bruder als Jakob II. (James II.) sein Nachfolger wird. Mit Jakob besteigt ein überzeugter Katholik den Thron – es WIRD der letzte sein –, dessen letztes Ziel die Rekatholisierung Englands ist. Um dieses Ziel zu erreichen, braucht er die Kontrolle über die Universitäten. Als Edward Spence vom Jesus College in Cambridge Ende des Jahres 1686 eine satirische Rede über den Katholizismus hält, schlägt Jakob zu und zwingt ihn, öffentlich zu widerrufen. Einen Monat später wird der Denunziant, Joshua Bassett vom Caius College, ein Heimlicher Papist, durch den König zum Vorsteher des Sidney Sussex Colleges verdient Das war ein klarer Angriff auf den Protestantismus der Universität Cambridge, aber was sollte eine Institution, die vom Wohlwollen des Königs abhängig war, tun [Westfall 2006, S. 474]? Die Krise erreichte die heiße Phase erst, als am 16. Februar 1687 einem Benediktinermönch, Alban Francis, auf Befehl des Königs der Grad eines „Masters of Art“ verliehen werden sollte, und zwar ohne dass Francis irgendeinen Eid abgeben musste. Der Vizekanzler John Peachell hielt das Schreiben des Königs für schnelle zwei Wochen zurück, weil er sich erst Rat holen wollte [Westfall 2006, S. 475].;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-48862-1_7 0a00523c8260eeb545c5a58d485994c5;de;;;3.1.;;;Verbesserung der Energieproduktion mit Exascale HPC-Methoden High Performance Computing (HPC)-Ressourcen sind in vielen Disziplinen zum Schlüsselfaktor für die Bewältigung ehrgeizigerer Herausforderungen geworden. In diesem Schritt darüber hinaus sind eine Explosion der verfügbaren Parallelität und der Einsatz von Spezialprozessoren entscheidend. Mit diesem Ziel wendet das HPC4E-Projekt neue Exascale-HPC-Techniken auf Simulationen der Energiewirtschaft an, passt sie bei Bedarf an und geht über den Stand der Technik bei den erforderlichen HPC-Exascale-Simulationen für verschiedene Energiequellen hinaus. In diesem Beitrag wird ein allgemeiner Überblick über diese Methoden sowie einige spezifische vorläufige Ergebnisse gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-57972-6_17 447e342fdb0b17194b0cac3d135da9fe;de;;;3.1.;;;Botanische Museumskunde Die Ausführungen haben nur das belehrende Museum zum Gegenstande und wollen seine wesentlichen Züge zeigen. Dem botanischen Lehrmuseum liegt der Gedanke zugrunde, mittels wichtiger Vertreter aus allen Pflanzengruppen einen guten Einblick in das ganze Pflanzenreich zu geben und dessen Entwicklung erkennen zu lassen, ferner den Aufbau und die Funktion der Organe, den Stoffwechsel, die Beziehungen der Pflanzen zu den Tieren und deren wirtschaftliche Bedeutung zu zeigen. Ein solches Museum muss ein Abbild der grundlegenden Tatsachen und Ergebnisse aller Disziplinen der wissenschaftlichen Botanik sein. Wie früher jede neuetdeckte Pflanze ins Museum kam, also Wann müssen jetzt darin die neuen, einen wichtigen Fortschritt bedeutenden Forschungsergebnisse sichtbar werden. Das belehrende Museum ist daher parallel der fortschreitenden Forschung in stetiger Entwicklung , Neues muss hineinkommen, Altes fortgelassen oder geändert werden. Daß dabei mit Kritik und in gewissem Abstand vorgegangen werden muß, ist klar.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-41090-5_2 b421bf526013ab63f03c84fa4b6d08f7;de;;;3.1.;;;Medizin und Literatur in der Neuzeit — Perspektiven und Aspekte Das neuzeitliche Verhältnis von Medizin und Literatur wird in seinen zentralen Perspektiven und Aspekten berücksichtigt. Im Mittelpunkt stehen sterben Funktion der Medizin für sterben Literatur, sterben Funktion Der Literatur Für Die Medizin Konkrete Beispiele und wissenschaftliche Studien werden angeführt, beachtet WIRD die historische Entwicklung.;-;-;-;https://link.springer.com/article/10.1007/BF03374998 0dcb250633ffa991c634f870a600cea2;de;;;3.1.;;;Versetzungsdynamik-Simulationen von Verbindungen in sechseckigen dicht gepackten Kristallen Die Bildung und Stärke von Versetzungen in dem hexagonal geschlossen gepackten Material werden anhand von Versetzungsverbindungen und der kritischen Spannung untersucht, die erforderlich ist, um sie vollständig zu brechen. Versetzungsdynamische Berechnungen von Verbindungsstellen werden mit einer analytischen Linienspannungs-Approximation verglichen, um die Simulationen zu verifizieren. Die Ergebnisse zeigen Übereinstimmungen zwischen den Modellen. Auch die kritische Schubspannung, die notwendig ist, um eine kurze und eine lange Versetzungsverbindung zu brechen, wird numerisch berechnet. Für diese Verbindungen werden Entpackhüllen abgebildet, um ihre Stabilitätsbereiche als Funktionen der aufgelösten Schubspannungen auf den Gleitebenen zu beschreiben. Das Beispiel zweier nicht-koplanarer binärer Versetzungsverbindungen mit Gleitsystemen [2 -1 -1 0] (0 1 -1 0) und [-1 2 -1 0] (0 0 0 1) entsprechend einem prismatischen und basalen Gleiten bzw. wird ausgewählt, um unsere Implementierung zu überprüfen und zu validieren.;-;-;-;https://link.springer.com/article/10.1557/opl.2012.234 b8178998c7d50763317b09f5610542b1;de;;;3.1.;;;Oder ist was oder tut? Zwei alternative Definitionen für OR wurden in Betracht gezogen, eine Reihe von Techniken und eine Problemlösungs-, Modellierungsaktivität. Diese wurden den Ergebnissen einer Umfrage unter internen OP-Gruppen in Großbritannien gegenübergestellt, die gezeigt haben, dass das Konzept der Technik – das akademische Konzept – keine gültige Beschreibung des internen OP in Großbritannien ist. Stattdessen hat sich gezeigt, dass das traditionelle Konzept, dass OR eine problemlösende, modellbildende Aktivität ist, viel genauer zu den Umfrageergebnissen passt.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0008947 de7e50f99144e14221d2a47ef3272ccc;de;;;3.1.;;;Ein präziser Ansatz zur Analyse der Konsistenz der UML-Modelle Die UML-Notation ist eine bekannte Standardnotation zur Beschreibung von OO-Systemen. Die UML-Spezifikation weist jedoch gewisse Ungenauigkeiten und Mehrdeutigkeiten auf, die zusammen mit möglichen Fehlern der Modellierer Inkonsistenzprobleme in den Modellen des Systems verursachen können. Dieses Papier präsentiert einen rigorosen Ansatz zur Verbesserung der Konsistenzanalyse zwischen UML-Diagrammen.;-;-;-;https://link.springer.com/chapter/10.1007/11568346_9 3970834d6848e20f0f5d124ee411c2e7;de;;;3.1.;;;Aufbrechen von Zeilen- und Spaltensymmetrien in Matrixmodellen Wir identifizieren eine wichtige Klasse von Symmetrien in der Constraint-Programmierung, die sich aus Matrizen von Entscheidungsvariablen ergibt, bei denen Zeilen und Spalten vertauscht werden können. Während das lexikographische Ordnen der Zeilen (Spalten) alle Zeilen-(Spalten-)Symmetrien bricht, kann das lexikographische Ordnen sowohl der Zeilen als auch der Spalten nicht alle Zusammensetzungen der Zeilen- und Spaltensymmetrien brechen. Nichtsdestotrotz zeigen unsere experimentellen Ergebnisse, dass dies beim Umgang mit diesen Symmetriezusammensetzungen effektiv ist. Wir erweitern diese Ergebnisse, um Symmetrien in beliebig vielen Dimensionen, mit partiellen Symmetrien und mit symmetrischen Werten zu bewältigen. Schließlich identifizieren wir spezielle Fälle, in denen alle Zusammensetzungen der Zeilen- und Spaltensymmetrien eliminiert werden können, indem nur eine lineare Anzahl von symmetriebrechenden Randbedingungen hinzugefügt wird.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-46135-3_31 1d20cfc7f98837c079aceb4fb228a982;de;;;3.1.;;;Erkennung und Erkennung einfacher räumlicher Formen Trotz der großen Anzahl intelligenter, energischer Menschen, die sich mit dem Studium des Sehens beschäftigen, scheint es oft, dass wir unser Verständnis dieses Prozesses in einem unerträglich langsamen Tempo vorantreiben. Warum ist das so? Ich glaube, dass es an unseren Modellen liegt. Wir haben uns von der Einfachheit der Erklärungen der Naturwissenschaften verführen lassen und versuchen die enorme Komplexität des Sehens mit Modellen zu beschreiben, die einer Kugel, die auf einer schiefen Ebene rollt, nicht gerecht würden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-68888-1_8 e756f995dad1f18bc2553162e8049cc9;de;;;3.1.;;;Konrad im Kontext Wenn die Zeit, in der Conrad hauptsächlich schrieb, kein Interregnum war, ein einfaches Warten darauf, dass der Große Krieg 1914 alles änderte, sondern eine Zeit, in der ein neues Bewusstsein geschmiedet wurde, dann war es eine Zeit, in der ein im Wesentlichen das Bewusstsein des Veränderungen im Handel sowie in der Kunst zu begrüßen. Schriftsteller müssen essen und Familien müssen versorgt werden, wie der Ehemann und Vater Conrad erkannte. Eine Kunstdiskussion, die die Produktionsprozesse einschließlich der finanziellen Aspekte ignoriert, kann sich von einer Realität lösen, deren sich die Künstler selbst immer bewusst sind. Conrad mag sich im Zentrum der modernen Bewusstseinsbildung gesehen haben, aber er vergaß nie seine finanziellen Probleme und das Bedürfnis eines Schriftstellers, ein Lesepublikum zu haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-22205-6_3 cc21550a0d4006de93c4be7f005f62d5;de;;;3.1.;;;Serialisierungsanalyse von nebenläufigen Logikprogrammen Die Serialisierungsanalyse reduziert die Zeit, die ein paralleles Logikprogramm für Kommunikation und Planung aufwendet. Es fügt Granularitätsanalyse und Zeitplananalyse in einen einzigen einheitlichen Rahmen zum Unterteilen eines Programms in Körnchen für die parallele Auswertung und zum Ordnen von Körnern für die sequentielle Auswertung. Die Serialisierungsanalyse ist einfach, vermeidet die Komplexität der Schwellenwertbildung und basiert im Gegensatz zu früheren Vorschlägen zur Steuerung der Granularität auf Threads. Die Threads vermeiden die Erstellung von Unterbrechungen und reduzieren daher die Aktivität des Schedulers. Threads fungieren auch als unteilbare Arbeitseinheiten und verhindern daher die parallele Auswertung feinkörniger Prozesse. Darüber hinaus verursacht die Serialisierungsanalyse keinen zusätzlichen Laufzeit-Overhead.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0013835 3a72a4027efa9ff6951eaf0ace3db9ca;de;;;3.1.;;;Lineare algebraische und lineare Programmiertechniken zur Analyse von Orts-/Übergangsnetzsystemen Die Strukturtheorie von Orts-/Übergangsnetzsystemen wird – unter Einbeziehung neuer Beiträge – in einem Tutorial-Stil, hauptsächlich aus einer linearen algebraischen Perspektive, untersucht. Die behandelten Themen sind: Zustandsgleichungsbasierte Analyse von Sicherheitseigenschaften (z. B. Beschränktheit, gegenseitiger Ausschluss, Deadlock-Freiheit usw.), lineare Invarianten, Siphons und Fallen, implizite Orte und ihre Anwendung zur Verbesserung der Genauigkeit der Zustandsgleichung und Rang Theoreme (strukturelle Bedingungen für Lebendigkeit und Beschränktheit basierend auf dem Rang der Inzidenzmatrix).;-;-;-;https://link.springer.com/chapter/10.1007/3-540-65306-6_19 b4feb6567688f3168c5bba5a926b63a5;de;;;3.1.;;;Prägnanz für Singleton-Sets Die Korollare 11.7 bis 11.16 zeigten Verläufe von Programmiersystemen, die einheitlich limitierend sind – rekursiv prägnanter für charakteristische Funktionen von;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-0249-3_13 e3bb601036834dd24ec3145431eb8b32;de;;;3.1.;;;Überprüfung der Küstenmodellierung mit HPC und ADCIRC+SWAN zur Vorhersage von Sturmfluten, Wellen und Winden, verursacht durch einen Hurrikan Wissenschaftler, Ingenieure, Universitäten, Unternehmen und Regierungsbehörden auf der ganzen Welt, die alle mit Fragen des Küsteningenieurwesens zu tun haben, verstehen die Bedeutung, die High Performance Computing (HPC) bei der Lösung größerer und physikalisch komplexer Probleme in diesem Bereich hat. Diese Technologie wird verwendet, um die Auswirkungen großer Stürme, die sich der Küste nähern, vorherzusagen (nahezu in Echtzeit) und mit diesen Informationen Behörden bei der Bewältigung von durch einen Hurrikan verursachten Notfällen zu unterstützen. Diese Arbeit gibt in ihrer Einleitung einen kurzen Überblick über die Initiativen, die in den Niederlanden und den USA von verschiedenen Forschungsgruppen und Universitäten entwickelt wurden, um Algorithmen zur Vorhersage von Sturmfluten zu implementieren. In Abschn.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-32243-8_37 c3df661bb3a8f275ce4243ee7548035a;de;;;3.1.;;;Untersuchung des In-vivo-Hinge-Knie-Verhaltens mit einem quasistatischen Finite-Elemente-Modell der unteren Extremität Ein wesentliches Ziel der Gelenkendoprothese ist es, ein vollwertiger funktioneller und anatomischer Ersatz zu werden. Die Gelenkschädigung kann aus mehreren Gründen auftreten - in erster Linie eine Krankheit unterschiedlicher Art und Größenordnung, die zu allmählichen und irreversiblen Veränderungen und zu einer extremen Lösung bei der Implantation von künstlichen Gelenken führt. Allerdings sollten auch Unfälle mit Gelenkzerstörung erwähnt werden, die oft „Auslösemechanismen“ der Krankheit sind. Diese Arbeit präsentiert daher eine quasi-statische rechnerische Finite-Elemente-Analyse eines Kniegelenkersatzes mit dem Ziel, die Entwicklung von Knieendoprothesen zu rationalisieren und zu beschleunigen. Es befasst sich mit der Frage der Gesamtfestigkeit des Implantats und erkennt Stellen mit erhöhten Spannungskonzentrationen, die potenzielle Quellen für Implantatschäden sein können. Es untersucht auch das Verhalten der Endoprothese unter quasistatischen Belastungen mit Schwerpunkt auf der Untersuchung der Form und Größe der Kontaktflächen, die eng mit der Größe des Anpressdrucks und dem Materialverschleiß verbunden sind. Neben dem Gelenkkneeersatz bestand das Rechenmodell aus Femur, Fibula, Tibia, Patella und den 25 wichtigsten Muskeln der unteren Extremität. Aufgrund der realistischen Definition der Randbedingungen eignet sich dieses Modell zur Untersuchung des in-vivo-Kniegelenkersatzverhaltens.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23508-5_206 67e6c2b7be6524eb0ae82c3b02d90b70;de;;;3.1.;;;Archive und Proxies entlang des PEP III Transects Das PEP III Transekt (Gasse und Battarbee, dieser Band) umfasst ein immenses Spektrum an ökologischer und kultureller Vielfalt. Es umfasst Regionen, die seit vielen Jahrtausenden die Wiege der Zivilisationen der Alten Welt waren, es beherbergt einige der fortschrittlichsten und bevorzugten Gesellschaften der Welt, einige der am wenigsten gastfreundlichen Umgebungen und einige der schwächsten und wirtschaftlich verarmtesten Völker Erde. Die Dokumentation und das Verständnis der Art und Weise, wie sich das Klima über die gesamte Länge des Transekts verändert hat, und das Aufzeigen der vergangenen Wechselwirkungen zwischen Klima und menschlichem Wohlergehen stellen die wissenschaftliche Gemeinschaft vor immense Herausforderungen. Darüber hinaus umfassen die Herausforderungen Themen, die für unsere Zukunft von herausragender praktischer Bedeutung sind und Teil unserer zwanghaften Faszination für die Vergangenheit sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-2121-3_2 52700d960a55866a679ed6ed519748d6;de;;;3.1.;;;Auf dem Weg zu einem sprachübergreifenden Produktionsdatenarchiv: Struktur und Exploration Der vorliegende Beitrag stellt den Aufbau einer sprachübergreifenden Datenbank von Produktionsdaten vor. Die Datenbank enthält kommentierte Texte, die aus einer Stichprobe von fünfzehn verschiedenen Sprachen mit identischen Methoden der Datenerhebung gesammelt wurden und die Studien zur Typologie und Universalität der Informationsstruktur ermöglichen sollen. Die besondere Eigenschaft dieser Datenbank besteht darin, dass sie die Merkmale eines natürlichsprachlichen Korpus und die Merkmale einer typologischen Datenbank vereint. Die Herausforderung für die Explorationsschnittstelle besteht darin, die Nutzung dieser speziellen Art von Ressource benutzerfreundlich zu unterstützen und so empirische Verallgemeinerungen über die gesammelten Daten in den einzelnen Sprachen und deren Vergleich zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-75144-1_10 8e0be7d94b945267413ae092bddd957f;de;;;3.1.;;;Hertfordshire Die Kreisgrenzen von Hertfordshire sind von den Umstrukturierungen der Kommunalverwaltung der letzten Jahre weitgehend unberührt geblieben, die einzige wesentliche Änderung war der Verlust von Barnet, das nun Teil des angrenzenden Gebiets von Greater London geworden ist. Potters Bar, ehemals Teil der Grafschaft Middlesex, wurde im Gegenzug erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-81511-1_18 f8e90c6f38b958549d13d60b72b55026;de;;;3.1.;;;Ausführen von Anwendungen mit vielen Aufgaben über mehrere Ressourcen hinweg mit der Everest-Plattform Verteilte Computersysteme werden häufig für die Ausführung von lose gekoppelten Anwendungen mit vielen Aufgaben verwendet, wie z. B. Parameter-Sweeps, Arbeitsabläufe, verteilte Optimierung. Diese Anwendungen bestehen aus einer potenziell großen Anzahl von Rechenaufgaben, die mehr oder weniger unabhängig voneinander ausgeführt werden können. Da die Anwendungsbenutzer oft Zugriff auf mehrere Computerressourcen haben, ist es wichtig, eine bequeme und effiziente Umgebung für die Ausführung von Anwendungen über die benutzerdefinierten heterogenen Ressourcenpools hinweg bereitzustellen. Der Beitrag diskutiert die damit verbundenen Herausforderungen und stellt einen Lösungsansatz auf Basis von Everest, einer webbasierten verteilten Computerplattform, vor. Die vorgestellte Lösung unterstützt die zuverlässige und effiziente Ausführung von Many-Task-Anwendungen unter Berücksichtigung der Ressourcenleistung, Anpassung an Warteschlangenverzögerungen und Bereitstellung eines Mechanismus für die Kommunikation zwischen Tasks.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-64616-5_54 d6b90cdcd4726a2eb826dd56d3590787;de;;;3.1.;;;Erkennung und Entfernung von Flecken für die Wiederherstellung von Archivvideos Die Erkennung und Entfernung von Flecken sind wichtige Themen für die Wiederherstellung von Archivvideos. In dieser Arbeit wurde eine auf räumlicher Segmentierung basierende Nachbearbeitung vorgeschlagen, um die Detektionsleistung des SDIa-Blotch-Detektors zu erhöhen. Außerdem wird ein neuartiges pixelbasiertes Korrekturverfahren entwickelt, das die neuen Werte von gefleckten Pixeln aus der räumlich-zeitlichen Korrelation bestimmt. Experimentelle Ergebnisse zeigen, dass der vorgeschlagene Ansatz signifikante Erkennungs- und Korrekturleistungen bietet und zuvor vorgeschlagene Techniken übertrifft.;-;-;-;https://link.springer.com/chapter/10.1007/11569596_76 5f3110fcc6c5b70f18b47730f50bcd21;de;;;3.1.;;;Testfallgenerierungs-Framework für Client-Server-Apps: Reverse-Engineering-Ansatz In diesem Beitrag wird das Framework zur nachrichtengesteuerten Testfallgenerierung für Client-Server-Architektursysteme vorgeschlagen, die über API-Nachrichten miteinander kommunizieren. Grundsätzlich erzeugt das vorgeschlagene Framework automatisch Testfälle, die mit Reverse Engineering-Mechanismen aus erfassten Netzwerkpaketen zwischen Client-Server-Kommunikation über Netzwerke extrahiert werden. Wir schlagen einen neuartigen Ansatz vor, um Pakete für Regressionstests aufzuzeichnen. Die Motivation der Studie liegt darin, dass in einer bestimmten Domäne ein Framework zur Automatisierung von Regressionstests fehlt: Client-Server-Apps, die API-Nachrichten zur Kommunikation verwenden, wie Finanzanwendungen, Bankanwendungen, Handelssysteme, Echtzeit-Apps . Unser Ansatz unterstützt die Wiederverwendung von Testfällen und gewährleistet eine 100%ige Automatisierung von der Testfallgenerierung bis zur Ausführung bei API-Regressionstests für Client-Server-Anwendungen. Unsere Arbeit berichtet über die signifikante Wiederverwendungsfähigkeit und die Reduzierung des Aufwands an einem realen Finanzsystem-Beispiel.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-58814-4_54 9b0cc69ebc25f96433babc722674fde4;de;;;3.1.;;;Mining-Netzwerk-Verhaltensspezifikationen von Malware basierend auf Binäranalyse Heutzutage verwendet Malware, insbesondere für ein Botnet, stark die Netzwerkkommunikation, um vordefinierte schädliche Funktionen auszuführen. Das Netzwerkverhalten von Malware zieht die Aufmerksamkeit der Forscher auf sich. Der Netzwerkverkehr, der für die netzwerkbasierte Signaturgenerierung und Botnet-Erkennung verwendet wird, wird jedoch passiv von einer Ausführungsumgebung erfasst, sodass es mehrere Einschränkungen gibt. In diesem Artikel stellen wir einen auf binärer Analyse basierenden Ansatz für das Netzwerkverhaltensmining mit dem Namen NBSBA vor. Unser Ziel ist es, das Netzwerkverhalten von Malware im Detail genau zu verstehen, die Pakete der zu analysierenden Malware-Probe so schnell wie möglich zu erfassen und das Netzwerkverhalten von Malware so vollständig wie möglich zu extrahieren. Wir geben zunächst eine Netzwerkverhaltensspezifikation und beschreiben dann den NBSBA. Und wir implementieren ein prototypisches System zur Evaluierung des NBSBA. Das Experiment zeigt, dass unser Ansatz effizient ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-53959-6_22 2c7a9e39fbc1f5fe92b761bbf8f7effe;de;;;3.1.;;;Zytoskelettale Dynamik von Die Dynamik der Zytoskelettproteine ​​Centrin, Aktin und Tubulin wurde während der Entwicklung nach der Teilung in den radialsymmetrischen Phytoflagellaten untersucht;-;-;-;https://link.springer.com/article/10.1007/BF01403283 66f9231b7d5a4e27f9f349bed0f44ee1;de;;;3.1.;;;Optimieren der Reaktionsfunktionen von Medienpräsenzverteilungen Das Ziel dieses Papiers ist es zu zeigen, wie die erwartete Resonanz einer Werbekampagne unter Einhaltung einer Budgetbeschränkung maximiert werden kann. Vier Antwortfunktionen werden mit geschlossenen Lösungen für die resultierenden erwarteten Antworten betrachtet. Diese erwarteten Antworten verwenden nur univariate Randverteilungen und paarweise Duplikationen, sodass sie im Vergleich zu der üblichen umständlichen Berechnung basierend auf der vollständigen Häufigkeitsverteilung schnell berechnet werden können. Es wird eine einfache heuristische Lösung des formulierten nichtlinearen ganzzahligen Programmierproblems gegeben, die zu großen Einsparungen an Rechenzeit gegenüber beispielsweise der Branch-and-Bound-Technik führt.;-;-;-;https://link.springer.com/article/10.1057/jors.1991.112 76e1fc531dd6e19b101a485e3886a51b;de;;;3.1.;;;Die Anwendung eines Vehicle-Routing-Modells auf ein Abfallsammelproblem: Zwei Fallstudien In diesem Papier schlagen wir ein einzigartiges Modell zur Schätzung der Betriebskosten jedes der drei Abfallsammelsysteme vor. Beim traditionellen System, das weit verbreitet ist, wird der Abfall normalerweise in Plastiktüten gesammelt, und für jedes Fahrzeug wird eine dreiköpfige Besatzung benötigt. Betrachtet werden zwei weitere Systeme, die eine Besatzung pro Fahrzeug erfordern und Straßencontainer sammeln. Das Seitenladersystem mit festem Aufbau entleert die Straßencontainer automatisch in den Fahrzeugaufbau und entleert den Aufbau auf der Deponie. Das Seitenladersystem mit abnehmbarem Aufbau ermöglicht die Trennung der Abfallsammelphase vom Transport zur Deponie, da der Fahrzeugaufbau demontiert werden kann. Wir präsentieren auch zwei Fallstudien und zeigen, dass die Schätzung der Betriebskosten ein kritischer Punkt bei der Entscheidungsfindung in Bezug auf die Art des Systems für die Abfallsammlung ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-56183-2_16 6ffbb00f810b65f01b0c97cdbd9ece92;de;;;3.1.;;;Eine Studie zur Personalplanung Das Papier beschreibt eine Technik, die in der Praxis angewendet wurde, um die Bewegungen der Mitarbeiter eines großen Unternehmens in den nächsten 20 Jahren vorherzusagen. Die Übung zeigt das künftige Beförderungsmuster und die erforderliche Einstellung, um die Stellen zu besetzen, die aufgrund von Beförderung oder Personalverlust frei werden.;-;-;-;https://link.springer.com/article/10.1057/jors.1971.30 09a394ca191f19409719c7c49d2bb1be;de;;;3.1.;;;Prognose für Artikel mit intermittierender Nachfrage In einer Dienstleistungsumgebung hat ein Fachhändler normalerweise viele sich langsam bewegende Artikel, deren geringe Nachfrage zu Prognoseproblemen führen kann. Wenn eine Nachfrage auftritt, bezieht sich die Anfrage außerdem manchmal auf mehr als eine einzelne Einheit, was zu einer sogenannten lumpigen Nachfrage führt. In diesem Papier wird die Standardmethode für den Umgang mit einer solchen intermittierenden Nachfrage neu bewertet. Es werden einige allgemeine Ergebnisse präsentiert, die Varianzschätzungen ermöglichen, und diese sind besonders einfach, wenn die Bedarfsereignisse als Poisson-Prozess dargestellt werden können. Einige experimentelle Beweise werden vorgebracht, um dieses Modell in der spezifischen untersuchten Situation zu unterstützen. Da EWMA-Prognosen für viele kommerzielle Systeme von zentraler Bedeutung sind, wurde eine Simulationsanalyse durchgeführt, um zu bestimmen, unter welchen Bedingungen die intermittierende Nachfrage ein eigenes Modell anstelle eines unbereinigten EWMA erfordert. Überlegene Leistung wird für Elemente gezeigt, deren durchschnittliches Intervall zwischen den Bestellungen größer als 1,25 Prognoseüberprüfungszeiträume ist, und das Ausmaß der Verbesserung nimmt mit der Verlängerung des durchschnittlichen Intervalls zu.;-;-;-;https://link.springer.com/article/10.1057/jors.1996.10 c4ca5adfdf99cd1dace65d58c95db78b;de;;;3.1.;;;Adaption eines Lehrlabors des Mechatronikbereichs für den Bachelorstudiengang Maschinenbau Angesichts der Auswirkungen des technologischen Fortschritts bei Anwendungen im Maschinenbau hat das in diesem Beruf an der Universität Valle, Cali, Kolumbien angebotene Programm mehr als ein Jahrzehnt um den Bereich Mechatronik erweitert. Infolgedessen war es notwendig, die in diesem neuen Gebiet erworbenen theoretischen Kenntnisse durch eine angemessene aktuelle Infrastruktur zu ergänzen. Dieses Papier stellt die Strategie vor, mit der eine Infrastruktur angepasst wird, die das Lernen durch Experimentieren mit dem Kurs „Mechatronik-Prinzipien“ erleichtert. Dabei wurden viele Aspekte nutzerzentrierter Gestaltungstechniken berücksichtigt, wie z. B. Usability, Ergonomie, Funktionalität, Kosten u.a. So wurde ein funktionsfähiger Prototyp eines Mechatronikarbeitsplatzes entworfen und hergestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-66963-2_58 2ffffa5926bac95ff09550de7f0ece86;de;;;3.1.;;;Verwendung von Variogrammen zur Feldmagnetometrieanalyse im Industriegebiet Oberschlesien Messungen der magnetischen Suszeptibilität des Oberbodens werden häufig zur schnellen Beurteilung von Bodenbelastungen anthropogenen Ursprungs mit Schwermetallen oder anderen Schadstoffen verwendet. Aufgrund komplizierter Korrelationen zwischen der magnetischen Niederfeld-Suszeptibilität (abgekürzt auf magnetische Suszeptibilität) des Oberbodens und der Bodenverschmutzung kann das Ergebnis einer Feldmagnetometrie-Untersuchung jedoch nicht direkt auf die Bodenverschmutzung bezogen werden. Für jede Fallstudie sollten die Ergebnisse für sich allein interpretiert werden, wobei nicht nur die Art der Belastung, sondern auch pedogene, biogene und umweltbedingte Faktoren berücksichtigt werden. In der Praxis ist es sehr schwierig, all diese Faktoren zu messen und zu berücksichtigen. Hier veranschaulichen wir den Wert geostatistischer Methoden, die sich auf die räumliche Variabilität eines Phänomens konzentrieren, bei der Interpretation von Ergebnissen der Bodenmagnetometrie.;-;-;-;https://link.springer.com/article/10.1007/s11200-007-0031-6 8f3fa754768b6b18ab2ec7a1eb75dcc0;de;;;3.1.;;;Wettbewerb in der Gesundheitsforschung: die Erfahrungen der John Curtin School of Medical Research Im Jahr 2002 wurde das Australian National Competitive Grants System dem Institute of Advanced Studies der Australian National University als Teil einer Verpflichtung zu Transparenz, Wettbewerbsfähigkeit und Zusammenarbeit bei der nationalen Forschungsförderung eröffnet.;-;-;-;https://link.springer.com/article/10.1186/1743-8462-2-5 ee72c64a1b35bb425b0a93e315c75c67;de;;;3.1.;;;Geografische Konzentration der Industrien in Jiangsu, China: eine räumliche Punktmusteranalyse mit mikrogeografischen Daten Die Erfassung der geografischen Konzentration von Wirtschaftsaktivitäten auf unterschiedlichen räumlichen Skalen ist seit langem für Forscher aus den Bereichen Raumökonomie, Regionalwissenschaften und Wirtschaftsgeographie von Interesse. Unter Verwendung eines einzigartigen Datensatzes aus der ersten industriellen Landnutzungserhebung dieser Art in China ist diese Studie der erste Versuch, die räumliche Verteilung, insbesondere die geografische Konzentration von Industrien in China, anhand von Daten auf Unternehmensebene zu untersuchen. Entfernungsbasierte Funktionen und räumliche Clusteranalyse werden verwendet, um die räumlichen Maßstäbe sowie die geografischen Standorte der Industriekonzentration zu erkennen. Die Ergebnisse zeigen, dass sich vier der fünf ausgewählten Industrien im Allgemeinen auf kleinem Raum (weniger als 5 km) im südlichen Jiangsu konzentrieren, während die chemische Industrie ein räumliches Verteilungsmuster im Verhältnis zur Verteilung aller anderen Industrien aufweist. Die meisten Industriecluster haben einen Umkreis von weniger als 2,5 km und umfassen 20–60 % der Unternehmen und 60–86 % der Arbeitnehmer aus jeder ausgewählten Branche, wobei größere Cluster eine relativ schwächere Konzentration aufweisen. Diese Forschung demonstriert die Verbindungen und die Komplementarität verschiedener Ansätze und ergänzt frühere Studien, die entfernungsbasierte Funktionen mit räumlichen Scanstatistiken verwenden.;-;-;-;https://link.springer.com/article/10.1007/s00168-020-01026-x 9de7fe99a6b1a17055f1be2d4507bfeb;de;;;3.1.;;;Die Expression einer mit dem SV40-Promotor hybridisierbaren „Aktivator“-RNA korreliert mit dem transformierten Phänotyp von Maus- und Humanzellen and In den letzten sieben Jahren beschäftigte sich unser Labor mit der Untersuchung einer nuklearen RNA-7S-K mit geringem Molekulargewicht, deren Eigenschaften das Konzept unterstützen, dass es sich um ein Genregulationsmolekül handelt (8–10, 12–14). Es wurde festgestellt, dass diese RNA die Transkriptionsinitiation durch die RNA-Polymerase II stimuliert (13) und gewebe- und speziesspezifisch wirkt (10). Auf der Grundlage dieser Ergebnisse stellten wir die Hypothese auf, dass verschiedene Subpopulationen von 7S-K-RNA in verschiedenen Geweben existieren könnten und dass sie in jedem Fall in der Lage wären, Promotoren verschiedener Genfamilien zu erkennen, was die Bildung des Initiationskomplexes für die Transkription von Gewebe erleichtert -spezifische Gene. Diese Hypothese wurde anschließend in Affenvirus 40 (SV40)-transformierten Maus-3T3-Zellen getestet, in denen festgestellt wurde, dass das frühe SV40-Gen für T-Antigen aktiv transkribiert und notwendig ist, um die Expression des transformierten Phänotyps aufrechtzuerhalten (15). Diese Zellen wurden ausgewählt, weil das SV40-Genom vollständig sequenziert wurde und sein Promotor besser charakterisiert wurde als jeder andere kukaryontische Promotor (7).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-5178-1_25 1f224a32c856ccc41ca8ccc8f1dc9403;de;;;3.1.;;;OTTER experimentiert in einem System kombinatorischer Logik Dieser Artikel beschreibt einige Experimente mit dem automatisierten Theorem-Beweisprogramm OTTER im System TRC der illativen kombinatorischen Logik. Wir zeigen, wie OTTER gesteuert werden kann, um einen Widerspruch in einer inkonsistenten Variante von TRC zu finden und stellen einige experimentell entdeckte Identitäten in TRC vor.;-;-;-;https://link.springer.com/article/10.1007/BF00881715 d9608a169e728844d644ea91c2ffd437;de;;;3.1.;;;Agentenbasierte Netzplanung mit Calana Die Zuweisung von Grid-Ressourcen ist eine komplexe Aufgabe, die normalerweise von Systemen gelöst wird, die auf einem zentralisierten Informationssystem beruhen. Um ein leichtgewichtiges Scheduling-System zu schaffen, haben wir das Potenzial von Auktionen für die Ressourcenallokation untersucht. Jeder Ressourcenanbieter betreibt einen Agenten, der auf die Ausführung von Software in Bezug auf lokale Beschränkungen bietet. Auf diese Weise wird das Informationssystem obsolet. Darüber hinaus kann jeder Anbieter unterschiedliche Gebotsstrategien implementieren, um seine Präferenzen widerzuspiegeln.;-;-;-;https://link.springer.com/chapter/10.1007/11752578_89 1417da7d1155c39dae74c5b144f118ea;de;;;3.1.;;;Sublimationsmechanismen von Kometenkernen In diesem Beitrag werden die Sublimationsmechanismen von Muttermolekülen aus Kernen aus Sicht theoretischer Modelle überprüft und die Ergebnisse der Modelle mit den Ergebnissen der umfangreichen Beobachtungskampagne von C/1995 O1 Hale-Bopp verglichen. Das einfache Modell einer Eismischung, bei der jedes Gas unabhängig von den anderen sublimiert, wenn die richtige Temperatur erreicht ist, reicht in vielen Fällen nicht aus, um die Beobachtungen zu erklären. Viele geringfügige flüchtige Stoffe können im amorphen Wassereis eingeschlossen und bei Erreichen bestimmter Temperaturbereiche auf komplexe Weise freigesetzt werden. Das vor vielen Jahren vermutete Vorhandensein sublimierender Eiskörner in der inneren Koma von Kometen scheint nun zumindest für Hale-Bopp bewiesen zu sein. Aus diesen Körnern könnte eine beträchtliche Menge Wasser und andere flüchtige Stoffe zu dem im Koma gemessenen Gesamtfluss beitragen. Die beispiellose Abdeckung der Hale-Bopp-Gasproduktionskurve über einen so langen Zeitraum und mit so vielen Instrumenten bietet Modellierern eine wunderbare Gelegenheit, Beobachtungsergebnisse mit den Vorhersagen von Sublimationsmodellen zu testen und zu vergleichen, und zeigt, dass aktuelle Modelle in der Lage sind, beobachtete Ergebnisse zu erklären .;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1086-2_8 e4930118728a7e714a82e143d6ca1419;de;;;3.1.;;;Besondere Altertumslehre Da sich das gesammte Volksleben in Raum und Zeit entfaltet, sind Geographie und Chronologie die orientirenden Grundwissenschaften für alle Theile der besonderen Alterthumslehre. Sie sind aber deswegen nicht zur allgemeinen Alterthumlehre zu zählen, denn die räumlichen und zeitlichen Verhältnisse gehören nicht zu dem allgemeinen Charakter der alten Völker, sondern bilden die Form für die Sonderung alles Geschehens. Sind nun Geographie und Chronologie besondere philologische Disziplinen, so Wann müssen sie sich eines der vier von uns (oben S. 61) aufgestellten Hauptstücke der besonderen Alterthumslehre unterordnen. In der That gehören sie zur Darstellung des Staatslebens. Die Chronologie ist hier in ihrer Beschränkung auf das Alterthum die Lehre von der Zeitrechnung, wie this bei den Alten faktisch in der Ausübung bestand. Die Zeitrechnung in diesem Sinne ist aber ein politisches Institut zur Regelung der Zeiten. Genauso ist die Geographie hier die Beschreibung der alten Welt, wie sie durch die Staatengeschichte räumlich gestaltet worden ist, auch die Politis che Geographie des Alterthums. Weil indess der Staat alle übrigen Sphären des Volkslebens umfasst, haben this Zeit und Schauplatz mit der politischen Geschichte allgemein erklärt, dass Geographie und Chronologie sterben Grundlage aller philologischen Disziplinen bilden. II. Reichardt (Gliederung der Philologie S. 38 ff) will beide ganz aus dem System der Philologie streichen, weil in der Geschichte selbst die Entstehung und Entwickelung der politischen Zeitrechnung und der geographischen Verhältnisse beschrieben werden müssen allein man muss das äussere Gerüst der Geschichte auch in Zusammenhang seinese an sich betrachten, wenn man einen klaren Einblick gewinnen will. Schon die alten Historiker haben seit Timaeos die Chronologie als Basis für ihre geschichtlichen Forschungen besonders behandelt, und die Geographie war schon viel früher als besondere Wissenschaft ausgeschieden. Da die Chronologie abstrakter ist als die Geographie, wird jenes im System vorangehen, die Verhältnisse der politischen Geographie entwickeln sich auch erst chronologisch.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-16011-3_10 ad97dff1f3aa5df2d860e90bccc70875;de;;;3.1.;;;Thermoelektrische Eigenschaften von undotiertem und Si-dotiertem Bulk-GaN In dieser Studie werden thermoelektrische Eigenschaften von Bulk- und Epitaxie-GaN mit verschiedenen Dotierungskonzentrationen untersucht. Die Seebeck-Koeffizienten nahmen mit der Zunahme der Ladungsträgerkonzentration sowohl für massive als auch epitaktische GaN-Proben ab, und es wurde festgestellt, dass die Seebeck-Koeffizienten von epitaxialen GaN-Proben aufgrund der höheren Versetzungsstreuung größer sind als die von massiven GaN-Proben bei ähnlicher Trägerdichte. Für epitaktische Proben ein hoher Leistungsfaktor von 4,72 × 10;-;-;-;https://link.springer.com/article/10.1557/opl.2013.1136 c8e917197039e739b240519fd0d7a9c8;de;;;3.1.;;;Metall-Halbleiter-Isolator-Metallstruktur-Feldeffekttransistoren auf Basis von Zinkoxiden und dotierten ferroelektrischen Dünnschichten Verschiedene ferroelektrische Dünnschichten und ihre verwandten Metall-Halbleiter-Isolator-Metall (MSIM)-Strukturen einschließlich Zinkoxid (ZnO) werden untersucht, die in Back-Gate-ferroelektrischen Feldeffekttransistoren (FETs) verwendet werden können. Die idealsten Zinkoxid-(ZnO)-Dünnschichten, die durch das Sol-Gel-Verfahren hergestellt werden, werden bei einer Pyrolysetemperatur von 400°C und einer Glühtemperatur von 600°C erhalten. Die asymmetrischen oder symmetrischen Strom-Spannungs-Kennlinien der Heterostrukturen mit ZnO zeigen sich in Abhängigkeit von unterschiedlichen ferroelektrischen Materialien darin. Es werden die Kurven des Drainstroms gegenüber der Gatespannung für FETs mit MSIM-Struktur untersucht, in denen aufgrund des Modulationseffekts der Restpolarisation auf den Kanalwiderstand offensichtliche Schleifen gegen den Uhrzeigersinn und ein Schaltverhältnis des Drainstroms bis zu zwei Größenordnungen beobachtet wurden. Die Ergebnisse zeigen auch die positiven Einflüsse der Fremdatomsubstitution in Bismutferrit-Dünnfilmen für FETs mit MSIM-Struktur.;-;-;-;https://link.springer.com/article/10.1557/opl.2014.130 68013164b8578e91b2041a8672f26600;de;;;3.1.;;;Heuristiken zur Zuweisung von Hochleistungs-Cloudlets für das Computing Offloading in mobilen Ad-hoc-Clouds Cyber ​​Foraging ist eine wichtige Methode, um es ressourcenbeschränkten Mobilgeräten zu ermöglichen, Anwendungen in verschiedenen mobilen Cloud-Computing-Umgebungen auszuführen, um die Leistung zu verbessern und den Energieverbrauch zu senken. Dieses Papier konzentriert sich auf das Entscheidungsproblem, wie rechenintensive Anwendungen in mobilen Ad-hoc-Netzwerk-basierten Cloud-Computing-Umgebungen ausgelagert werden können. Es wurde eine Reihe von Online- und Batch-Scheduling-Heuristiken vorgeschlagen, um dynamisch ankommende unabhängige Aufgaben zwischen mobilen Knoten auszulagern. Die Heuristiken wurden in einer Simulationsumgebung validiert und ihre Leistungsfähigkeit sowohl hinsichtlich nutzerzentrierter als auch systemzentrierter Metriken wie der durchschnittlichen Makespan, der durchschnittlichen Wartezeit, der durchschnittlichen Verlangsamung und der durchschnittlichen Auslastung mit umfangreichen Experimenten untersucht. Experimentelle Ergebnisse zeigen, dass es nicht sinnvoll ist, Aufgaben nur auf Basis der erwarteten Bandbreite, Ausführungszeit oder der gesamten Entladezeit abzubilden. Vielmehr muss die erwartete Fertigstellungszeit berücksichtigt werden. Darüber hinaus scheint die MCTComm-Heuristik vom Standpunkt des Kompromisses zwischen Komplexität und Leistung die beste Wahl zu sein.;-;-;-;https://link.springer.com/article/10.1007/s11227-015-1425-9 b3054494d1187fea26bfd8943714ed9c;de;;;3.1.;;;Kolonialarchive und Regierungskunst Anthropologen, die sich mit postkolonialen Studien beschäftigen, nehmen zunehmend eine historische Perspektive ein und nutzen Archive. Ihre archivarische Tätigkeit bleibt jedoch eher eine extraktive als eine ethnographische. Dokumente werden daher immer noch stückchenweise aufgerufen, um die koloniale Erfindung bestimmter Praktiken zu bestätigen oder kulturelle Ansprüche zu unterstreichen, stumm. Doch ein solcher Abbau der;-;-;-;https://link.springer.com/article/10.1007/BF02435632 8f33e8d72c89578c4f047860d801fbfb;de;;;3.1.;;;Unterstützung von Servicesystemen durch Advanced SOA SOA wird oft als die Philosophie angesehen, die für große Projekte und große Unternehmen gut ist. Wir schlagen eine SOA-Variante vor, die sich für kleine Unternehmen eignet, die die Anforderungen von Servicesystemen erfüllen. Der Vorschlag nutzt spezifische organisatorische Dienste, die die Dynamik der resultierenden Systeme erhöhen und agile Methoden, Systementwicklung und agile Geschäftsprozesse ermöglichen. Die Struktur der resultierenden SOA weist Gemeinsamkeiten mit Cloud-Systemen auf. Es spiegelt semantisch mehr Merkmale realer Lebenssysteme wider, da die organisatorischen Dienste die Aufgaben der Infrastruktur und der Unternehmensdienste in der menschlichen Gesellschaft erfüllen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35879-1_9 a7741c8fc8d0dc334ce833db4fec606e;de;;;3.1.;;;Ein evidenzbasierter Kurs zur klinischen Entscheidungsfindung wurde erfolgreich in das präklinische, systembasierte Curriculum einer medizinischen Fakultät integriert Nur wenige medizinische Curricula bieten eine Ausbildung in klinischer Entscheidungsfindung (CDM) unter Verwendung der klinischen Versorgungsforschung im Mainstream der vorklinischen Grundausbildung. Wir beschreiben einen Kurs mit dem Titel Prinzipien der evidenzbasierten klinischen Entscheidungsfindung (der Kurs). Der Kurs ist eine intensive dreiwöchige Erfahrung mit dem Ziel, vorklinischen Studierenden beizubringen, (1) klinische Fragen zu stellen, (2) Ergebnisse der klinischen Versorgungsforschung zu erwerben, zu bewerten und zusammenzufassen und (3) diese Forschung auf die Patientenversorgung anzuwenden Entscheidungen. Der Kurs verwendet mehrere Medienressourcen, mehrere Lehrmodalitäten und psychometrisch fundierte Bewertungsinstrumente. Die Leistungen der Studierenden bei den Einzeltests, Teamaufgaben und eigenständigen Projekten reichten von befriedigend bis ausgezeichnet. Schülerbewertungen und Beobachtungen der Fakultät identifizierten wichtige strukturelle und unterrichtliche Änderungen für die nächste Iteration des Kurses. Post-hoc-Analysen deuten darauf hin, dass der Wissensverfall innerhalb von fünf Monaten eintreten kann, wenn EBM/CDM-Wissen nicht in formalen Lehrplanaktivitäten vertieft wird. Unser Kurs hilft den Studierenden, grundlegende Kenntnisse und Fähigkeiten in EBM und CDM zu erwerben und unterstützt die Entwicklung von Voraussetzungswissen für spätere Komponenten des Curriculums der medizinischen Fakultät. Der Wissensverfall scheint gefährdet zu sein, wenn er nicht innerhalb weniger Monate nach der Beherrschung verstärkt wird.;-;-;-;https://link.springer.com/article/10.1007/BF03341747 4a5e2cb88636d634c595b3a436dcff65;de;;;3.1.;;;Point-in-Polyeder-Test mit direkter Behandlung von Entartungen Das Punkt-in-Polyeder-Problem besteht darin, zu überprüfen, ob ein Punkt innerhalb oder außerhalb eines bestimmten Polyeders liegt. Wenn ein degenerierter Fall erkannt wird, vermeiden die herkömmlichen Ray-Crossing-Algorithmen den Fall, indem sie einen anderen Strahl auswählen, oder löschen den Fall, indem sie Eingabedaten stören. Dieses Papier stellt einen Threshold-Based Ray-Crossing (TBRC)-Algorithmus zur Lösung des Point-In-Polyhedron-Problems vor. Der TBRC-Algorithmus bewältigt degenerierte Fälle direkt, indem er prüft, ob die Fläche, die den Strahl schneidet, gezählt wird. Es ist erwähnenswert, dass der TBRC-Algorithmus alle Entartungen ohne zusätzliche Berechnung und Speicherung behandeln kann. Darüber hinaus analysieren wir den grundlegenden Algorithmus und untersuchen, wie er beschleunigt werden kann. Die experimentellen Ergebnisse zeigen, dass der TBRC-Algorithmus für das Point-In-Polyhedron-Problem im Vergleich zu einem klassischen Tetraeder-basierten Algorithmus ohne Vorverarbeitung hocheffizient und robust ist.;-;-;-;https://link.springer.com/article/10.1007/s11806-011-0453-8 513b2c026fcd27adfa2faecbb2a2cf04;de;;;3.1.;;;"Vom frühneuzeitlichen Irland bis zur Großen Hungersnot In den Jahrhunderten nach der anglo-normannischen Invasion von 1169 sprach die überwiegende Mehrheit der Bevölkerung Irlands weiterhin Irisch, hauptsächlich auf dem Land, während Englisch in den Städten und in der Umgebung von Dublin, bekannt als die blasse. Der Druck auf die Iren als Volkssprache nahm jedoch zu, als die Tudor-Dynastie Englisch mit Loyalität gegenüber der Krone und Irisch mit Illoyalität gleichsetzte. Diese Politik wurde in ""An Act for the English Order, Habit, and Language"" formell zum Ausdruck gebracht, der 1537 vom Dubliner Parlament verabschiedet wurde. In seiner Einführung unterschied das Gesetz zwischen der loyalen, englischsprachigen Bevölkerung des Königs in der Pale und diejenigen, die im Rest des Landes wohnten, von denen gesagt wurde, dass es ""nichts gibt, was viele seiner Untertanen dieses genannten Landes in einer gewissen wilden und wilden Art und Lebensweise mehr enthält und hält, als die"" Vielfalt, die zwischen ihnen in Sprache, Sprache, Ordnung und Gewohnheit liegt“ (Crowley 2000: 21). Es sollte daher erlassen werden, „dass jede Person oder jede Person, die wahren Untertanen des Königs, die dieses Land Irland bewohnen, von welchem ​​Stand, Zustand oder Grad sie oder sie sein oder sein werden, bis zum Äußersten ihrer Macht, List, und Wissen, sollen die englische Sprache und Sprache gemeinsam verwenden und sprechen“ (Crowley 2000: 22). Obwohl die ideologische, institutionelle und administrative Untermauerung dieser Kolonialpolitik im 16. die weitere Beschlagnahme von Land von den einheimischen Katholiken nach Inkrafttreten der Strafgesetze ab 1695.";-;-;-;https://link.springer.com/chapter/10.1057/9781137453471_7 d0365f5cf8399798bf313256829d28d3;de;;;3.1.;;;Reaktionen der Wirtschaft auf verschiedene Katastrophen, geschätzt durch Simulation auf Unternehmensebene Soziale und wirtschaftliche Netzwerke können ein Kanal für negative Schocks sein und damit die Widerstandsfähigkeit und Nachhaltigkeit unserer Gesellschaft verschlechtern. Diese Studie konzentriert sich auf tatsächliche Lieferketten oder Lieferanten-Kunden-Netzwerke von Unternehmen und untersucht, wie Produktionsausfälle durch Katastrophen verursacht werden. Wir wenden ein agentenbasiertes Modell auf die tatsächlichen Lieferketten von fast einer Million Unternehmen in Japan an und testen virtuelle und tatsächliche Katastrophen. Als virtuelle Katastrophen testen wir unterschiedliche Schadensintensität, Substituierbarkeit, Regionen und Sektoren. Dann schätzen wir als tatsächliche Katastrophen die direkten und indirekten Auswirkungen des Erdbebens im Großen Osten Japans von 2011 und verwenden dasselbe Modell, um die Auswirkungen des Nankai-Erdbebens vorherzusagen, eines Mega-Erdbebens, das in naher Zukunft große Industriestädte in Japan treffen wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-4806-2_13 f24d7de59ba71c79bbf04155dc402751;de;;;3.1.;;;Methodik zur Nachrüstung von Fertigungsressourcen für die Migration von KMU in Richtung Industrie 4.0 Kleine und mittlere Unternehmen (KMU) sind eine der wichtigsten Kräfte für die wirtschaftliche Entwicklung und die Schaffung von Arbeitsplätzen. Es wird erwartet, dass sich diese KMU neuen Fertigungsparadigmen wie Industrie 4.0 zuwenden können, um ihre Wettbewerbsfähigkeit in einem Zukunftsmarkt zu sichern. Dennoch sehen diese Unternehmen Industrie 4.0 eher als Herausforderung denn als Chance oder als Enabler für neue Wertschöpfungsmöglichkeiten. Aus diesem Grund wird in diesem Artikel eine Literaturrecherche von Industrie 4.0-Behördenberichten und -Standards durchgeführt, um Schritt für Schritt den Ablauf der Migration von Fertigungsressourcen in Richtung Industrie 4.0 mittels digitaler Nachrüstung zu definieren, wobei sowohl Hard- als auch Softwareanforderungen spezifiziert werden , die Systemstruktur und die erforderliche Technologieabbildung für die Industrie 4.0-Implementierung über traditionelle Fertigungsressourcen. Das Hauptziel besteht darin, die Vorteile der Anwendung des Industrie 4.0-Paradigmas ohne große Investitionen zu nutzen und KMU technologische Werkzeuge zur Verfügung zu stellen, die es ihnen ermöglichen, an globalisierten Märkten teilzunehmen. Schließlich wird die vorgeschlagene Methodik bei der Nachrüstung einer CNC-Maschine angewendet, wobei als Ergebnis eine Industrie 4.0-Komponente bereitgestellt wird, die in eine High-Level-Anwendung integriert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-01535-0_25 b2f415e717802c40989ae4e5d0776ce8;de;;;3.1.;;;Wie komme ich zu Literatur und Information in der Chemie? Seit der Jahrtausendwende wurden weltweit fast sieben Millionen chemische Verbindungen registriert, jährlich kommen etwa 300.000 weitere Stoffe hinzu. Jede dieser chemischen Verbindungen wurde dokumentiert. Die Bibliotheken der Welt beherbergen mehr als zehn Millionen chemische Publikationen, sie werden jährlich durch mehrere hunderttausend Neuerscheinungen ergänzt.;-;-;-;https://link.springer.com/article/10.1007/BF00504503 0da3e763e8baf0e5287589c207b0f396;de;;;3.1.;;;Auswertung des SiteStory Transactional Web Archive mit dem ApacheBench Tool Herkömmliche Webarchive werden durch regelmäßiges Crawlen einer Website und Archivieren der Antworten vom Webserver erstellt. Obwohl diese Form der Archivierung einfach zu implementieren und häufig bereitzustellen ist, fehlen in der Regel Aktualisierungen und sie ist möglicherweise nicht für alle Aufbewahrungsszenarien geeignet, z. Im Gegensatz dazu arbeiten Transaktionsarchive in Verbindung mit einem Webserver, um alle bereitgestellten Inhalte aufzuzeichnen. Das Los Alamos National Laboratory hat SiteStory entwickelt, ein in Java geschriebenes Open-Source-Transaktionsarchiv, das auf Apache-Webservern läuft, eine Memento-kompatible Zugriffsschnittstelle und Funktionen zum Exportieren von WARC-Dateien bietet. Wir haben das ApacheBench-Dienstprogramm von Apache in einer Vorabversion von SiteStory verwendet, um die Reaktionszeit und die Inhaltslieferzeit in verschiedenen Umgebungen zu messen. Die Leistungstests wurden entwickelt, um die Machbarkeit von SiteStory als Lösung auf Produktionsebene für die automatische High-Fidelity-Webarchivierung zu ermitteln. Wir haben festgestellt, dass SiteStory die Leistung des Inhaltsservers nicht wesentlich beeinflusst, wenn es eine Transaktionsarchivierung durchführt. Die Leistung des Inhaltsservers verringert sich von 0,076 Sekunden auf 0,086 Sekunden pro Webseitenzugriff, wenn der Inhaltsserver ausgelastet ist, und von 0,15 Sekunden auf 0,21 Sekunden, wenn die Ressource viele eingebettete und sich ändernde Ressourcen enthält.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40501-3_20 a40df4790dad418a3547a77d91285798;de;;;3.1.;;;Modellierung ingenieurtechnischer geologischer Schichten durch k-nn und neuronale Netze In diesem Beitrag wird ein neuartiger Ansatz zur Lösung der Aufgabe der Ingenieurgeologischen Schichtenapproximation beschrieben. Die Aufgabe ist darauf beschränkt, eine glatte geologische Oberfläche aus der heterogenen Anordnung von Punkten im dreidimensionalen Raum zu erstellen. Dieser Ansatz basiert auf statistischen Lernsystemen, wie: k-nn (k-nächste Nachbarn) Algorithmus und neuronale Netzwerke (mehrschichtiges Perzeptron), die es ermöglichen, Punkte zu trennen, die zu verschiedenen geologischen Schichten gehören. Unsere Methode ermöglicht auch die Modellierung konvexer 3-dimensionaler Intrusionen. Der Hauptvorteil unseres Ansatzes ist die Möglichkeit der Skalierung des Oberflächenmodells ohne den Berechnungsaufwand zu erhöhen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08201-1_14 2d32476ebb27a5fa9170c85a6ff7f628;de;;;3.1.;;;Analyse von automatischen Zugangsüberwachungs- und Kontrollsystemen und Anti-Hacking-Systemen In diesem Beitrag werden die Schwachstellen von automatischen Zugangsüberwachungs- und -kontrollsystemen diskutiert, die im täglichen Leben weit verbreitet sind. Zwei Grundprinzipien des Informationsaustauschs in solchen Geräten werden beschrieben. Es wurde eine Untersuchung der Amplituden-Frequenz-Eigenschaften von Schlüsselanhängern verschiedener Hersteller von automatischen Zugangsüberwachungs- und Kontrollsystemen durchgeführt. Nach den Ergebnissen der Studie und den gefundenen Schwachstellen wird ein universelles Code-Grabber-Modell gezeigt. Wenn man die Funktionsprinzipien dieses Modells kennt, wird es möglich sein, Hacking erfolgreich zu bekämpfen. Außerdem wurde ein Testmodell des Systems auf Basis des Arduino Uno-Mikrocontrollers entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-9354-3_16 d2de0268c814f60a6284bb641abc7ff7;de;;;3.1.;;;Elastisch-Plastische Wellen in porösen Materialien Betrachten Sie ein elastisch-plastisches Material mit einer großen Anzahl kugelförmiger Hohlräume. Eine genaue Lösung des Problems der Verformung eines solchen Materials ist nahezu unmöglich. Daher sind verschiedene Modellansätze weit verbreitet, wie in Kap. 8.2. Das mathematische Modell der Autoren wird in Abschn. 8.3 und einige seiner mathematischen und physikalischen Aspekte werden untersucht. Die Ausbreitung von Stoßwellen in porösem Aluminium und Eisen wird in Kap. 8.4 auf Basis des vorliegenden Modells. In Sek. 8.5 wird eine Expansionsstoßwelle in einem porösen elastisch-plastischen Medium theoretisch vorhergesagt und untersucht. Verwendete mathematische Symbole sind am Ende des Kapitels aufgelistet und definiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-2292-7_8 6c9551bb1ec74726654951a9eb27bc6e;de;;;3.1.;;;Höhere Typen Viele Programmiersprachen erlauben die Übergabe von Funktionen als Parameter an andere Funktionen oder Prozeduren. C erlaubt beispielsweise Funktionsparameter (die als Zeiger übergeben werden), C++ unterstützt Funktionsschablonen, Java erlaubt generische Programme, die Schnittstellen und Klassen verwenden, und ML lässt Polymorphismus, dh Abstraktion über Datentypen wird zur Laufzeit angegeben). Oracle Turing-Maschinen wurden erstmals von A.M. Turing [Tur37] zum Modellieren der relativen Rekursion, wobei die Menge;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-04943-3_7 1cd5c913a69c4987c7f1e48470803ae3;de;;;3.1.;;;Auf dem Weg zur automatischen Transkription großer Spracharchive in agglutinierenden Sprachen – Ungarisches ASR für das MALACH-Projekt Der Artikel beschreibt Experimente und Ergebnisse zur automatischen Spracherkennung am spontanen ungarischen Sprachkorpus MALACH. Ein neuartiger morph-basierter lexikalischer Modellierungsansatz wird mit dem traditionellen wortbasierten und mit einem anderen, bisher morph-basierten Ansatz mit der besten Leistung in Bezug auf Wort- und Buchstabenfehlerraten verglichen. Die angewandten Sprach- und akustischen Modellierungstechniken werden ebenfalls detailliert beschrieben. Unter Verwendung unbeaufsichtigter Sprecheranpassungen zusammen mit morphbasierten lexikalischen Modellen wurden bei einem Testsatz mit 2 Sprechern und 2 Stunden im Vergleich zu den sprecherunabhängigen Basislinienergebnissen eine Reduzierung der absoluten Wortfehlerrate von 14,4%-8,1% erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74628-7_45 5db56bd620861429d9ef28559733ee4c;de;;;3.1.;;;Ein neuartiges N-Halamin-Monomer zur Herstellung biozider Polyurethanbeschichtungen Es wurde ein neues N-Halaminmonomer hergestellt, das mit einem kommerziellen Acrylpolyol auf Wasserbasis und einem kommerziellen Isocyanat copolymerisiert werden kann, um eine Polyurethanbeschichtung herzustellen, die auf eine breite Vielfalt von Oberflächen aufgetragen werden kann. Nach dem Aushärten kann die Beschichtung mit einer Quelle für freies Chlor wie Bleichmittel chloriert werden, um sie biozid zu machen. Sobald die Beschichtung ihre Chlorbeladung und damit ihre biozide Aktivität verliert, ist eine Regeneration durch weitere Einwirkung von freiem Chlor möglich. In einer experimentellen Beobachtung behielt eine Beschichtung auf einer Wand ihre biozide Wirkung über mehr als sechs Monate bei. Die biozide Beschichtung sollte viele Anwendungen haben, zum Beispiel in medizinischen Einrichtungen, in Bereichen der Lebensmittelzubereitung, bei der Verhinderung von Biofouling in wässrigen und feuchten Umgebungen usw.;-;-;-;https://link.springer.com/article/10.1007/BF02699499 f71efe490f99b5c3ae2acf5feac83758;de;;;3.1.;;;MC-MAC: ein mehrkanalbasiertes MAC-Schema zur Störungsminderung in WBANs Drahtlose Body Area Networks (WBANs) unterstützen die Interoperabilität von biomedizinischen Sensoren und medizinischen Einrichtungen mit Komfort und hoher Effizienz, was sie zu einer geeigneten Lösung für die allgegenwärtige Gesundheitsversorgung macht. Typischerweise umfassen WBANs In-Body- oder Around-Body-Sensorknoten zum Sammeln von Daten physiologischer Merkmale. Daher ist das effiziente Medium Access Control (MAC)-Protokoll von entscheidender Bedeutung, um diese Geräte zu koordinieren und Daten effizient und zuverlässig an das medizinische Zentrum weiterzuleiten. Die extensive Nutzung von drahtlosen Kanälen und die Koexistenz von WBANs können jedoch zu unvermeidlichen Interferenzen führen, die zu Leistungseinbußen führen. Außerdem ist ein konkurrenzbasierter Zugriff in einem einzelnen Kanal in WBANs aufgrund der großen Paketverzögerung, des Energieverbrauchs und des Hungers niedriger Priorität für dichten medizinischen Verkehr weniger effizient. Um diese oben genannten Probleme anzugehen, schlagen wir ein Mehrkanal-MAC-(MC-MAC)-Schema vor, um eine bessere Netzwerkleistung zu erzielen. Unter Berücksichtigung des charakteristischen und Notfallgrads des medizinischen Verkehrs führen wir einen neuartigen Kanalabbildungs- und Auswahlmechanismus ein, der mit einer Konfliktvermeidungsstrategie zusammenarbeitet, um Knoten zu organisieren, um auf verfügbare Kanäle ohne Kollisionen zuzugreifen. Darüber hinaus haben wir die Leistungsfähigkeit von MC-MAC und dem Standard IEEE 802.15.6 mittels Simulation und Hardwaretest evaluiert. Der Test wird von einer Hardwareplattform durchgeführt, die auf einem Prototypsystem von WBANs basiert. Sowohl die Analyse- als auch die Simulationsergebnisse zeigen, dass MC-MAC den IEEE 802.15.6 in Bezug auf Paketverzögerung, Durchsatz, Paketfehlerrate und Framefehlerrate übertrifft.;-;-;-;https://link.springer.com/article/10.1007/s11276-016-1366-0 90df107cd3615008f214d434f1ebd566;de;;;3.1.;;;Eine Constraint Functional Logic Language zur Lösung kombinatorischer Probleme Wir präsentieren CFLP(FD), einen funktionslogischen Programmieransatz mit Einschränkungen über endliche Domänen (FD) zur Lösung typischer kombinatorischer Probleme. Unser Ansatz fügt früheren Ansätzen wie Constraint Logic Programming (CLP) und Functional Logic Programming (FLP) sowohl Ausdruckskraft als auch weitere Effizienz hinzu, indem er kombinatorische Suche mit Propagation kombiniert. Wir integrieren FD-Constraints in die funktionale Logiksprache TOY. CFLP(FD)-Programme bestehen aus TOY-Regeln mit als Funktionen deklarierten FD-Einschränkungen. CFLP(FD) kombiniert nahtlos die Leistung von CLP gegenüber FD mit den Eigenschaften von FLP höherer Ordnung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0651-7_24 d1cf64a86771494cc69741753483dd40;de;;;3.1.;;;Peripherie/ Peripherin/rds, ein Transmembran-Glykoprotein, wurde in der Randregion reifer Bandscheiben und der Basalregion neben den Zilien der äußeren Stäbchen- und;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-0067-4_48 a3a128c028c2e16ca8337aaca9205528;de;;;3.1.;;;Mechanismen der Bildung und Stabilität retinaler Blutgefäße Als Einführung werden einige wichtige Themen der retinalen Vaskularisierung kurz zusammengefasst. Alle wurden zuvor überprüft. Einige sind für die Bildung von Gefäßen in jedem Gewebe üblich, andere sind einzigartig für das Auge.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-59745-047-8_6 0b36aa4389a50cf402859f9bc939163a;de;;;3.1.;;;Das DH-Unfall- und Notaufnahmemodell: Ein nationales generisches Modell, das lokal verwendet wird Das Unfall- und Notfallsimulationsmodell (A&E) des Gesundheitsministeriums (DH) wurde von DH-Analysten von Operational Research entwickelt, um das nationale Politikteam über erhebliche Hindernisse für das nationale Ziel für England zu informieren, dass 98% aller A&E-Besucher innerhalb von 4 Stunden nach Ankunft bis Dezember 2004 abgeschlossen (entlassen, versetzt oder aufgenommen). In diesem Papier werden die Gründe für die Entwicklung des Modells, die Struktur des Modells und die Auswirkungen erörtert, wenn es für die Entwicklung nationaler Politik verwendet wird. Das Modell wurde dann als Beratungsinstrument verwendet, um in Schwierigkeiten geratenen Krankenhausgesellschaften zu helfen, ihre A&E-Abteilungen zu verbessern. Das Papier diskutiert diese Erfahrungen mit besonderem Bezug auf die Herausforderungen der Verwendung eines „generischen“ nationalen Modells für „spezifische“ lokale Nutzung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-137-57328-5_5 67d22f5ddcc8845a132ea1e71d39d281;de;;;3.1.;;;Efferente Projektionen auf die Goldfisch-Netzhaut Die zentrifugale Innervation der Netzhaut wurde bei Vögeln ausführlich beschrieben (Cowan, 1970), aber erst vor kurzem wurde die Existenz von Efferenzen bei einer Vielzahl anderer Arten nachgewiesen, darunter auch bei einigen Fischarten (Witkovsky, 1971, Ebbesson und Meyer, 1981 , Munz und Claas, 1981, Munz et al, 1982, Gerwerzhagen et al, 1982, Crapon de Caprona und Fritzsch, 1983, Meyer et al, 1983, Springer, 1983). Retrograde Nachverfolgungsmethoden haben gezeigt, dass es bis zu fünf zentrale Quellen von Fischnetzhautefferenzen geben kann (Ebbesson und Meyer, 1981). Berichte über Anzahl und Lage dieser efferenten Quellen sind widersprüchlich, aber es besteht Einigkeit darüber, dass eine Quelle retinaler efferenter Quellen der N. terminalis (TN) ist (Springer, 1983).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-74149-4_9 7f80a6bb5023e89cd943a9233be695d1;de;;;3.1.;;;Prinzipien der faseroptischen Interferometrie Optische Interferometer sind für ihre Fähigkeit bekannt, hochpräzise Messungen der optischen Wegdifferenz (OPD) oder von Änderungen durchzuführen, die durch eine physikalische Verschiebung oder eine Brechungsindexänderung im Interferometer hervorgerufen werden können. Lange vor der Erfindung des Lasers im Jahr 1960 wurden verschiedene Konfigurationen von Interferometern unter Verwendung traditioneller Lichtquellen mit relativ kurzen Kohärenzlängen demonstriert. Diese konventionellen Interferometer werden gut mit den Begründern der modernen Optik wie Newton, Young und Michelson identifiziert. Die Einsatzmöglichkeiten optischer Interferometer waren jedoch durch die schlechte räumliche und zeitliche Kohärenz und Richtwirkung der verfügbaren optischen Quellen stark eingeschränkt. Die Erfindung des Lasers in den frühen 1960er Jahren hatte dramatische Auswirkungen auf die optische Interferometrie, da aufgrund der größeren zeitlichen und räumlichen Kohärenz und der viel besseren Direktionalität des Lasers, beispielsweise des He-Ne-Lasers, viel größere OPDs gemessen werden konnten. Auch die Messgenauigkeit konnte durch die höhere Helligkeit des Lasers deutlich verbessert werden. Schwingungsmessungen mit Sub-Angström-Auflösung wurden demonstriert [1]. Die laserbasierte Interferometrie hat sich zu einem Standardverfahren zur Abstands- und Schwingungsmessung entwickelt. Jedoch sind solche Messsysteme aufgrund der grundlegenden Anforderung, die relative Ausrichtung der internen optischen Strahlen konstant zu halten, im Allgemeinen auf Laborumgebungen beschränkt, da diese kritische Ausrichtung leicht durch zufälliges Rauschen gestört werden kann, wenn das Instrument nicht richtig konstruiert ist. Mit der Entwicklung verlustarmer optischer Fasern und der dazugehörigen faseroptischen Komponenten wurden von vielen klassischen Interferometern rein faseroptische Versionen eingeführt. Der Einbau von faseroptischen Komponenten in das Interferometer ermöglicht den Bau robuster und vielseitiger Systeme, die für den Fernbetrieb geeignet sind und die Erzeugung von Allzwecksensoren für jeden physikalischen Parameter ermöglichen, der direkt oder indirekt den OPD in einem der Faserarme beeinflusst. Dadurch ist es möglich geworden, optische Interferometer außerhalb des Labors zur Messung vieler physikalischer Größen einzusetzen. Obwohl die Herstellung eines optischen Interferometers aus optischen Fasern viele der oben diskutierten Ausrichtungsprobleme löst, kann die Art der Funktionsweise der optischen Faser, die korrekt als optischer Wellenleiter bezeichnet wird, aufgrund ihrer modalen Eigenschaften (Doppelbrechung) zu erheblichen Problemen führen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-6081-1_5 52414766f619d4a892a58454839e2fe6;de;;;3.1.;;;Sinusförmige stationäre Analyse In der Elektrotechnik sind sinusförmige Zwangsfunktionen besonders wichtig. Der sinusförmige Wechselstrom mit Netzfrequenzen (50 Hz, 60 Hz) wird in großem Umfang zur Erzeugung, Übertragung und Nutzung elektrischer Energie in der Industrie und im Haushalt verwendet. Als Trägersignale für Kommunikationszwecke werden hochfrequente Sinusoide (von Kilohertz, Megahertz und Gigahertz) verwendet. Sinusoide sind in der Natur im Überfluss vorhanden, wie zum Beispiel bei der Bewegung eines Pendels, beim Aufprall eines Balls und bei den Schwingungen von Saiten und Membranen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5299-4_2 25e052de7e990c9a2ef6526b88e804d6;de;;;3.1.;;;Modelle für kontextfreie Sprachen In den Abschnitten 1.2.2 und 2.1 wird erklärt, dass kontextfreie Sprachen und ihre Modelle im Mittelpunkt dieses Buches stehen. Dieses Kapitel formalisiert kontextfreie Grammatiken und Kellerautomaten, die die grundlegenden Modelle für kontextfreie Sprachen darstellen, und stellt ihre Äquivalenz her.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-0501-5_6 75f9f97afc047157ffe2298ca880e091;de;;;3.1.;;;Ist eine lineare Programmierung für den Standort einer einzelnen Einrichtung mit einem Maximum der geradlinigen Entfernung erforderlich? In diesem Papier wird das Problem der Lokalisierung einer einzelnen störenden oder unerwünschten Einrichtung erörtert, um ihre geradlinige Entfernung von einer gegebenen Menge bestehender Einrichtungen zu maximieren. Es wird ein Überblick über veröffentlichte lineare Programmiermethoden gegeben. Basierend auf diesen Ideen präsentieren wir einen Algorithmus, der bekannte Eigenschaften der optimalen Lösung ausnutzt und überhaupt keine lineare Programmierung verwendet.;-;-;-;https://link.springer.com/article/10.1057/jors.1994.10 d7a7310a529f296825e29a793de752af;de;;;3.1.;;;Les Verteilungsstatistiken Festungsvariablen. Applications aux télécommunications Première partie : Des faits, des explications La variabilité individuelle d’un processus, encore appelée Konzentration oder inégalité, peut être présentée sommairement comme la divergence entre le nombre relatif et le poids relatif d’une tranche de valeurs observées dans une statistique Cet écart peutil être wichtig? Erklärbar? Quelles sont les conséquences pour la Prize d’échantillons, l’estimation, le test d’hypothèse, la dynamique de gestion, la modélisation? Le modèle lognormal l’emporte sur tous les autres dès qu’on veut décrire avec fidélité les résultats sur toute leur étendue. Cumul multiplicatif des Causes et effet proportionnel président à la répartition aussi bien des comportements d'users (traffics, temps d'établissement, durées de communication) que des processus technologies ou économiques (réponses à la demande locale, de répartition du no, etc .).;-;-;-;https://link.springer.com/article/10.1007/BF02999826 8d965dfd7e39b9d164c0f1d447698af0;de;;;3.1.;;;Lokalisierung für einzelne Sorten In diesem Kapitel beweisen wir einen Lokalisierungssatz von Quillen für singuläre Varietäten und eine Verallgemeinerung desselben aufgrund von Levine. Diese werden dann verwendet, um den sogenannten „Fundamental Theorem“ (9.8) zu beweisen, der berechnet;-;-;-;https://link.springer.com/chapter/10.1007/978-0-8176-4739-1_9 613559628070b250b3c65021f31171ad;de;;;3.1.;;;Faktoren, die mit Empathie bei Gemeindeapothekern im Libanon verbunden sind Empathie ist der Eckpfeiler der Beziehung zwischen dem Gesundheitsdienstleister und dem Patienten. Im Libanon haben keine Studien die Faktoren untersucht, die mit Empathie bei öffentlichen Apothekern verbunden sind. Daher ist diese Forschung wichtig, um Empathie besser zu verstehen und Gemeindeapotheker bei diesem wichtigen Aspekt ihrer Praxis zu unterstützen.;-;-;-;https://link.springer.com/article/10.1186/s40545-020-00237-z 27403c9f4e2e82e073ccb3691b46b627;de;;;3.1.;;;Eine geometrische Ansicht der Matrix-Riccati-Gleichung Dies ist ein Tutorial, das einen „geometrischen Ansatz“ zur Beschreibung des Phasenporträts der Riccati-Differentialgleichung beschreibt. Daher werden keine neuen Ergebnisse präsentiert. Unsere Absicht ist es zu zeigen, wie der geometrische Gesichtspunkt Einblick in viele Eigenschaften der Riccati-Differentialgleichung gibt. Es ist nicht unsere Absicht, eine umfassende Darstellung des gegenwärtigen Wissens zu diesem Thema zu präsentieren. Stattdessen werden wir bereitwillig (meist) generische Annahmen treffen und uns auf die Eigenschaften der Differentialgleichung unter diesen vereinfachenden Annahmen konzentrieren. Für weitere Details, einige Verallgemeinerungen und zusätzliche Referenzen wird der Leser auf die Artikel [4.14] (zeitinvariante Koeffizienten) und [4.13] (periodische Koeffizienten) verwiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-58223-3_4 88ea36432ecf3f664aa841e5e5c5ff48;de;;;3.1.;;;Robustheit von Störungsanalyseschätzern für Warteschlangensysteme mit unbekannten Verteilungen Auf Abtastpfaden basierende stochastische Gradientenschätzer für Leistungsmessungen von Warteschlangensystemen beruhen auf der Annahme, dass eine Wahrscheinlichkeitsverteilung des interessierenden Zufallsvektors (z. B. eine Dienst- oder Zwischenankunftszeitsequenz) gegeben ist. In diesem Beitrag beschäftigen wir uns mit dem Umgang mit unbekannten Wahrscheinlichkeitsverteilungen und untersuchen die Robustheit solcher Schätzer gegenüber möglicherweise fehlerhaften Verteilungsentscheidungen. Wir zeigen, dass die infinitesimale Störungsanalyse (IPA) in diesem Sinne robust sein kann und in einigen Fällen verteilungsunabhängige Schätzungen liefert. Vergleiche mit anderen Gradientenschätzern werden bereitgestellt, einschließlich experimenteller Ergebnisse. Wir zeigen auch, dass die Finite Perturbation Analysis (FPA), obwohl sie nur Gradientennäherungen liefert, einige attraktive Robustheitseigenschaften bezüglich unbekannter Verteilungsparameter besitzt. Eine Anwendung der FPA-Schätzung ist für ein Warteschlangensystemleistungsoptimierungsproblem enthalten, an dem Kunden mit Echtzeitbeschränkungen beteiligt sind.;-;-;-;https://link.springer.com/article/10.1007/BF00941299 2c2545e09499bbede27d0731dff2dc46;de;;;3.1.;;;Mitochondriale Genetik von Hefe Die Biosynthese funktionsfähiger Mitochondrien ist eine komplexe Angelegenheit, bei der Hunderte von Proteinen benötigt werden, um die Organelle aufzubauen und funktionsfähig zu halten. Den Hauptbeitrag zur mitochondrialen (mt) Struktur und Funktion liefert die Kern-DNA, während der Beitrag des mt-Genoms vergleichsweise bescheiden, aber dennoch essentiell ist. Mutationen in beiden Kompartimenten können zu einer mt-Dysfunktion führen, die bei den meisten eukaryontischen Organismen ein tödliches Ereignis darstellt. Der große Vorteil der Hefe ist die Fähigkeit, die Energie durch Atmung und durch Fermentation bereitzustellen, sodass genetische Ansätze möglich sind, um die mt-Biogenese, mt-Funktionen und die Regulationsmechanismen, die für das Gleichgewicht beider genetischer Systeme verantwortlich sind, aufzuklären.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-10364-7_6 0fc331366a1210a7fac2666ea2e619b0;de;;;3.1.;;;Dauerhafte Beweise In der digitalen Landschaft ... ist es für einen Ersteller immer noch relativ einfach, zuvor veröffentlichte Informationen zu ändern oder zurückzuziehen. Solche Aktionen können wesentliche Inhalte beseitigen oder überlagern und dadurch den Datensatz beschädigen. In einer Online-Umgebung ist es auch relativ einfach – und im Hinblick auf die Wahrung der Informationsintegrität gleichermaßen verwirrend – ... gleichzeitig mehrere Darstellungen von [was jemand] für dasselbe Werk hält, ... zur Verfügung zu stellen, ...;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-37887-7_11 7521862c9527bf0c3c7ac6994d5af06b;de;;;3.1.;;;Vietnam: Herausforderungen und Chancen für Verlage Über die Verlagsbranche und die kulturelle Komplexität Vietnams ist wenig bekannt, daher bietet dieser Artikel eine Zusammenfassung der wesentlichen Informationen und zugehörigen Daten zur Demografie des Landes. Die Entwicklung des Verlagswesens wird von 1945 vor der Vereinigung Nord- und Südvietnams 1975 bis heute verfolgt. Die Rolle des Buchverlagsgewerbes wird in Bezug auf Fernseh- und Hörfunkmedien untersucht. Es wird ein Überblick über die Lesekultur gegeben, um den aktuellen Status und das Potenzial von gedruckten Büchern sowie E-Books in Vietnam zu verstehen.;-;-;-;https://link.springer.com/article/10.1007/s12109-016-9466-3 f45811046034f1a8c827f3f3a8f1535a;de;;;3.1.;;;Die Görreshandschriften Holzeinband mit gepreßtem Leder bezogen (18. Jh.), unter den Stempeln findet sich die Jahreszahl 1584, Metallschließen. 135 Blätter heutiger Zählung in 17 Lagen : I-VIII, X-XII, XV, XVI zu je 8, IX, XIII zu je 10, XIV zu 8+1, XVII zu;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-42527-5_1 cbc0aa25a0f7c1d1ab5ceb3dad1b2e49;de;;;3.1.;;;Informationstransfer über einfache Konzeptgraphen In diesem Beitrag wird der Informationstransfer zwischen Systemen, die durch Konzeptgraphen repräsentiert werden, formalisiert. Ausgehend von den Informationstransfer-Mappings zwischen formalen Kontexten, wie sie von Barwise und Seligman definiert wurden, wird eine Formalisierung des Informationstransfers zwischen relationalen Kontexten gegeben. Die Abbildungen zwischen relationalen Kontexten induzieren Abbildungen zwischen den Standardkonzeptgraphen der relationalen Kontexte, die schließlich zu informationsübertragenden Abbildungen zwischen einfachen Konzeptgraphen verallgemeinert werden können.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45483-7_5 6c8f2a65ad13659b2e89e7f43cdb2695;de;;;3.1.;;;Heuristischer Ansatz zur Planung der Besatzung für eine regionale Fluggesellschaft Die Planung der Besatzung ist ein Kernpunkt beim Betrieb einer regionalen Fluggesellschaft. Die Regionalfluggesellschaft wird aufgrund der Tatsache, dass der Flugbetrieb der Fluggesellschaft ziemlich streng durch die Verfügbarkeit und Qualifikation der Besatzung eingeschränkt wird, als besatzungsabhängige Fluggesellschaft charakterisiert. Darüber hinaus muss die Fluggesellschaft häufige Änderungen der Anforderungen an die Flugbesatzung aufgrund saisonaler oder monatlicher Flugnachfrageschwankungen berücksichtigen. In diesem Papier wird ein heuristischer Ansatz vorgeschlagen, um die Besatzungsmitglieder der Fluggesellschaft zu planen. Darüber hinaus wird eine ganzzahlige lineare Programmierungsformulierung vorgeschlagen, um die Machbarkeit des heuristischen Ansatzes zu überprüfen. Aus Auswertungszwecken wurden die Besatzungspläne des Betriebs der Regionalfluggesellschaft erstellt, um die rechnerischen Vorteile des Ansatzes zu überprüfen. Der vorgeschlagene heuristische Ansatz findet einen guten Besatzungsplan mit Recheneffizienz für die Fluggesellschaft.;-;-;-;https://link.springer.com/chapter/10.1007/11902140_9 81a513f605767757f587d0b03f15293a;de;;;3.1.;;;Modellierung des Einflusses der Rollenspezialisierung auf das kooperative Verhalten in historischen Trader-Szenarien Wir analysieren zwei etablierte historische Händlerszenarien aus dem Bereich der vergleichenden Wirtschaftswissenschaften, bekannt als die Maghribi Traders Coalition und die zeitgenössischen genuesischen Händler, die die ansonsten vergleichbaren individualistischen genuesischen und kollektivistischen nordafrikanischen Händlergesellschaften durch die Institutionen, die sie zur Aufrechterhaltung des kooperativen Verhaltens verwendeten, gegenüberstellen . Wir verwenden agentenbasierte Modellierung, um einen bisher unerforschten Aspekt zu testen, nämlich ob eine einheitliche Rollenstruktur (die die gegensätzlichen Perspektiven von Investoren und Händlern – etwas, das eine der beiden fraglichen Gemeinschaften, die Maghribis, charakterisieren könnte) einen Beitrag geleistet haben könnte, dazu beigetragen haben könnte die Zusammenarbeit für die kollektive Gruppe der Maghribi-Händler aufrechtzuerhalten. Um die entstehenden Institutionen zu modellieren, verwenden wir einen kontinuierlichen Begriff der Deontik, der die Übernahme von Normen aus einer erfahrungsbezogenen Perspektive unterstützt. Unsere Simulationsergebnisse unterstützen die Idee, dass das Erleben ökonomischer Transaktionen aus unterschiedlichen Perspektiven die Konvergenzleistung hin zu stabilem Verhalten steigert und unterstützt die Durchsetzung von Kooperation durch informelle Mittel, wie z. B. Normen, aufgrund ihrer stärkeren normativen Ausrichtung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-25420-3_4 0fb0478cd6f22a63762b02d0e574f206;de;;;3.1.;;;Metzler Lexikon der deutsch-jüdischen Literatur A. war eine der prägenden Gestalten im kulturellen Leben des deutschsprachigen Prag in der Generation vor der Gruppe »Jung-Prag« um Max Brod und Franz Kafka. Im Literaturverein »Concordia«, den er leitete, lasen u. A. Gerhart Hauptmann, Arthur Schnitzler und Detlev Liliencron. Bekannt geworden ist A. zu Beginn des Jahrhunderts durch seine folgreiche Übertragung von Calderons Komödie;-;-;-;https://link.springer.com/chapter/10.1007/978-3-476-05342-8_1 19927c1a72b25365d24cc5b2c4f764c7;de;;;3.1.;;;Eigenschaften stabiler a-Si:H-Schottoky-Zellen, hergestellt durch Unterdrückung der Clusterabscheidung Wir haben einen Cluster-eliminierenden Filter entwickelt, der die Menge an amorphen Silizium-Nanopartikeln (Clustern) reduziert, die in a-Si:H-Filme eingebaut sind. Wir haben den Filter zur Herstellung von a-Si:H-Schottky-Solarzellen verwendet. Die Zellen zeigen einen hohen Anfangsfüllfaktor FF=0.563 und einen hohen stabilisierten Wert nach Lichtdurchtränkung FF=0.552, wobei der lichtinduzierte Abbau mit 1.95% recht gering war.;-;-;-;https://link.springer.com/article/10.1557/opl.2012.1245 498b58d0a99e1d880a282f56debd06db;de;;;3.1.;;;Auswirkungen der Plasmabestrahlung aus der Atmosphäre auf die Samen von Rettichsprossen auf die Chlorophyll- und Carotinoidekonzentrationen in ihren Blättern Wir untersuchten die Auswirkungen der Plasmabestrahlung mit atmosphärischer Luftdielektrikumsbarriere-Entladung auf Samen von Rettichsprossen auf die Chlorophyll- und Carotinoidkonzentrationen in ihren Blättern. Plasmabestrahlung erhöht die Chlorophyllkonzentration unter einigen Bestrahlungsbedingungen, während die Bestrahlung geringe Auswirkungen auf die Carotinoidkonzentration hat. Diese Ergebnisse zeigen, dass die Plasmabestrahlung von Seeds einen selektiven Einfluss auf die Zellaktivitäten hat.;-;-;-;https://link.springer.com/article/10.1557/opl.2015.39 03824faf45d48d6254a582979b7f36bf;de;;;3.1.;;;Einfluss der Plasmabestrahlung mit Atmosphärendruckbrennern auf das Pflanzenwachstum Die wachstumsfördernden Eigenschaften von Pflanzen werden unter Verwendung eines atmosphärischen Entladungsplasmas untersucht. Der Atmosphärendruck-Plasmabrenner besteht aus einem Aluminiumoxid-Keramikrohr und den innerhalb und außerhalb des Rohrs gewickelten Stahlgitterelektroden. Die Wachstumsverstärkung wurde in der Länge von Stängel und Wurzel der Pflanzen nach der Plasmabestrahlung der Samen beobachtet. Die Stängellänge nimmt nach der Kultivierungszeit von 24 h um das 2,8-fache zu. Und es wird festgestellt, dass die Wirkung nach der Aussaat 40 Stunden lang anhält. Der Mechanismus der Wachstumssteigerung wäre die Redoxreaktion in Pflanzenzellen, die durch Sauerstoffradikale induziert wird.;-;-;-;https://link.springer.com/article/10.1557/opl.2012.970 54be73370ba7253f39100bd289af9cef;de;;;3.1.;;;Le Minitel, Un Nouveau Mode De Diffusion Des Information En Medicine Et Sante Publique In Frankreich sind mehr als sechs Millionen Videotex-Terminals und Tausende verfügbarer Informationsdienste zu zählen. Die Abfrage des France-TELECOM-Verzeichnisses zeigt unter der Rubrik GESUNDHEIT rund 300 „Dienste“, die gesundheitsbezogene Informationen liefern. Für die biomedizinischen Informationsfachleute behält das Minitel jedoch eine „allgemeine Öffentlichkeit“ bei, abwertend genug! Es wird eine Typologie vorgeschlagen, die auf verschiedenen Kriterien basiert: Art der Daten, abgedeckte Bereiche, Zielpublikum. Anhand von Beispielen aus französischen Minitel-Diensten und anderen europäischen Anwendungen werden die Qualität und der Wert der angebotenen Dienste, insbesondere bei Sachdatenbanken, hervorgehoben.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-1668-8_74 0a4d936e7138808c2009d241fa11a288;de;;;3.1.;;;Multiresolution-Fusion von Fernerkundungsbildern basierend auf dem Modell der Auflösungsverschlechterung Ein neues Verfahren basierend auf einem Auflösungsverschlechterungsmodell wird vorgeschlagen, um sowohl die räumliche als auch die spektrale Qualität der synthetischen Bilder zu verbessern. Zur Beurteilung der neuen Methode werden einige ETM+panchromatische und multispektrale Bilder verwendet. Die räumlichen und spektralen Effekte werden durch qualitative und quantitative Messungen bewertet und die Ergebnisse mit denen von IHS, PCA, Brovey, OWT (Orthogonal Wavelet Transform) und RWT (Redundant Wavelet Transform) verglichen. Die Ergebnisse zeigen, dass die neue Methode fast die gleiche räumliche Auflösung wie die panchromatischen Bilder beibehalten kann und die spektrale Wirkung der neuen Methode genauso gut ist wie bei Wavelet-basierten Methoden.;-;-;-;https://link.springer.com/article/10.1007/BF02826993 cbe84508505dda312f39da50d1679542;de;;;3.1.;;;Multiziel-Optimierung der Blockgröße basierend auf CPU-Leistung und Netzwerkbandbreite für Blockchain-Anwendungen Die Distributed-Ledger-Technologie (DLT) wächst schnell als Lösung, die den hartnäckigen Herausforderungen im Finanzsektor begegnen könnte und einen effizienteren und widerstandsfähigeren Ansatz für die Aufzeichnung von Transaktionen bietet. Seine Popularität wird hauptsächlich durch sein Potenzial bestimmt, Daten in großen Mengen sicher über ein Peer-to-Peer-Netzwerk zu übertragen. Die Optimierung der Blockgröße ist ein wichtiges Thema in Blockchain-Netzwerken, da Skalierbarkeitsengpässe einen höheren Durchsatz und minimierte Latenzen verhindern. Die zunehmende Akzeptanz hat Bedenken hinsichtlich der Skalierbarkeit und der Funktionsfähigkeit als real nutzbares Netzwerk aufgeworfen. Eine erhöhte Blockgröße kann eine höhere Übertragungszeit verursachen, da die Rate der durchgeführten Transaktionen zunimmt und kann auch dazu führen, dass das System seine maximale Kapazität zum Clearing von Transaktionen erreicht. Im Vergleich zu einer größeren Blockgröße ist eine kleine Blockgröße effizienter, aber das Erstellen eines zu kleinen Blocks kann zu einer längeren Blockbildungs-/Erstellungszeit führen. Eine effiziente Blockchain-basierte Anwendung erfordert eine optimale Blockgröße, damit eine gerechtfertigte Performance erreicht wird. Bei dem vorgeschlagenen Ansatz wird eine Mehrzieloptimierung durchgeführt, und 40 verschiedene Lösungen werden basierend auf der Transaktionsauswahlzeit und der Blockbildungszeit erhalten. Die Auswahl einer bestimmten Blockgröße als optimale Lösung basiert ausschließlich auf der Rechenleistung der CPU, dem Durchsatz und der verfügbaren Netzwerkbandbreite und -latenzen, wo die Anwendung eingesetzt werden soll. Die Ergebnisse zeigen, dass für verschiedene Systeme mit 1,1 GHz CPU–3,0 GHz CPU eine Blockgrößenauswahl von 3,8 MB die Transaktionsauswahl und die Blockbildungszeit optimiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-5546-6_6 d0d9b497bed4cfd31f609a18b82b84a1;de;;;3.1.;;;Synthese und Nanoverarbeitung von ZnO-Nanokristallen für kontrollierte Laseraktion Die Lasereigenschaften eines einzelnen Zinkoxid (ZnO)-Nanoblatts und eines einzelnen ZnO-Nanodrahts wurden durch Anregung mit ultraviolettem Licht untersucht. ZnO-Nanokristalle wurden durch chemische Gasphasenabscheidung (CVD) synthetisiert, und diese ZnO-Nanokristalle wurden durch einen gütegeschalteten Nd:YAG-Laserstrahl der dritten Harmonischen (355 nm, 5 ns) angeregt. Die Emissionsspektren eines einzelnen ZnO-Nanokristalls wurden von einer Objektivlinse mit einem Vergrößerungsfaktor von 100 oder 50 gesammelt, die mit einem Spektrometer mit einer Lichtfaser gekoppelt war. Der vom Spektrometer beobachtete Bereich hat einen Durchmesser von etwa 10 µm, und daher können die Emissionsspektren eines einzelnen ZnO-Nanokristalls beobachtet werden. Die Emissionsspektren zeigten die offensichtlichen Lasereigenschaften mit Modenstruktur und einem Schwellenwert für das Lasern. Die Laser-Schwellenleistungsdichte eines ZnO-Nanoblatts und eines ZnO-Nanodrahts wurde mit etwa 60 kW/cm² gemessen;-;-;-;https://link.springer.com/article/10.1557/opl.2012.1155 0141edcb5fb3f7d5a9f2b593b433bb00;de;;;3.1.;;;Das System zur Extraktion und Erkennung von Harzlinsenfehlern basiert auf der Datenübertragungssicherheit Datensicherheit und Datenschutz sind zu einem Problem geworden, dem die Menschen mehr Aufmerksamkeit schenken. Bei der Merkmalsextraktion und Erkennung von Linsenfehlern wird die Sicherheit der Datenübertragung immer wichtiger. Dieses Papier über die Eigenschaften des Linsenfehlerextraktionsverfahrens wird durch einen einzigen Scan der beiden Grenzwerte von Grafiken und Bildern untersucht und diskutiert, ohne dass die Region ausgefüllt werden muss, benötigt keine Hilfe von Kettencodes statistische Regionsnummer und Grenzinformationen. Gemäß dem etablierten balancierten binären Suchbaum wurden die Fläche und der Umfang jedes Defekts berechnet. Diese Methode arbeitet schnell und erfordert nur einen geringen Rechenaufwand, sie kann Rauschen besser und genauer unterdrücken. Dieses Papier kombiniert die Erkennung von Netzwerken und Informationsaustausch, um die normalen Linsenfehler in der Effizienz der Merkmalsextraktion sicherzustellen. Und Vergleich mehrerer Verschlüsselungsalgorithmen im Datenübertragungsprozess, Auswahl der besten Speicher- und Verschlüsselungstechnologie, um die Datensicherheit zu gewährleisten und die Sicherheit des Systems zu verbessern.;-;-;-;https://link.springer.com/article/10.1007/s11042-018-5774-2 e4bf8a84a3404d05fbb3b950fad061dd;de;;;3.1.;;;Ein neuer Pareto-basierter Algorithmus für die Partitionierung von Graphen mit mehreren Zielen Ein wesentliches Optimierungsproblem, das in vielen realen Anwendungen auftritt, ist das der Graphpartitionierung. Es besteht darin, eine Aufteilung der Ecken eines Graphen in eine gegebene Anzahl von ungefähr gleichen Teilen zu erhalten, während sichergestellt wird, dass die Anzahl der Kanten, die Ecken verschiedener Untergraphen verbinden, minimiert wird. Im (traditionellen) Modell der Graphenpartitionierung mit einem einzigen Ziel wird das Ungleichgewicht als eine Einschränkung angesehen. In denselben Anwendungen ist es jedoch erforderlich, dieses Modell auf seine Mehrzielformulierung auszudehnen, bei der auch das Ungleichgewicht minimiert werden soll. Dieses Papier versucht, dieses Problem auf multiobjektive Weise zu lösen, indem eine Populationsversion des SMSA-Algorithmus in Kombination mit einer im SPEA2-Algorithmus vorgeschlagenen Diversity-Erhaltungsmethode verwendet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30182-0_78 66986a5bb2047526a36ebd16a693f7c0;de;;;3.1.;;;Aufgabentrennung in der vertrauensvollen Zusammenarbeit Wenn Domänen, die heterogene RBAC-Richtlinien verwenden, durch domänenübergreifende Rollen-Rollen-Zuordnungen zusammenarbeiten, besteht das Risiko einer Verletzung ihrer lokalen Beschränkungen der Aufgabentrennung. Wir stellen die Anforderungen für eine durch Beschränkungen gesicherte Interoperation vor, um implizite Autorisierungen zu verhindern, die Beschränkungen von anderen Mitgliedsdomänen aufheben, und schlagen einen vertrauensbasierten Rahmen vor, um eine durch Beschränkungen gesicherte Zusammenarbeit sicherzustellen. Das Framework führt domänenübergreifende Migration und Remote-Zusicherung von Einschränkungen zwischen gegenseitig vertrauenswürdigen Domänen ein, um die Interoperabilität zu maximieren, während gleichzeitig die Trennung von Einschränkungen zwischen nicht vertrauenswürdigen Domänen sichergestellt wird, um das Sicherheitsrisiko zu minimieren. Insbesondere verwenden wir einen Bitmap-basierten Geschichtsaufzeichnungsmechanismus für Mitgliedsdomänen, um das Zusammenspiel zwischen Innerdomänen-Rollenhierarchien, domänenübergreifenden Zuordnungen und Einschränkungen zu analysieren. Es werden Algorithmen einer vollständig verteilten Implementierung, Sicherheitsnachweise und anschauliche Anwendungsfälle für die vorgeschlagene Lösung bereitgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01440-6_28 9dfba0279c3e53af995faedc56abbdf6;de;;;3.1.;;;Ein Ansatz für das Design von Evaluierungskomponenten beim Erstellen von Serious Game Die Bewertung ist unserer Meinung nach einer der wichtigsten Bestandteile bei Serious Games. In diesem Beitrag wird ein Ansatz für das Design von Bewertungssystemen für Serious Game vorgestellt und diskutiert. Zunächst diskutieren wir die Bedeutung und die Funktionsanforderungen von Bewertungssystemen im Serious Game. Diese Funktionen sind: Aufnahme & Wiedergabe, Datenverarbeitung, Feedback, Datenbankschnittstelle, Skriptsprachenunterstützung und so weiter. Zweitens konzipieren und implementieren wir unser Bewertungssystem in Form einer Komponente für unsere 3D-Game-Engine. Zum Schluss gibt es eine Demonstration.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03364-3_18 0d371bbb16793a37cc8a8c4c1a863861;de;;;3.1.;;;Religion und Kultur in den Regionen des russischen Reiches im 18. Jahrhundert —Erster Versuch einer Grundlegung— Das Moskauer Zarenreich war politisch, durch neue Handelsbeziehungen und militärisch seit dem 16. Jahrhundert ins Blickfeld der europäischen Mächte getreten. Aber erst das zum Kaiserreich umgebildete Russland wurde in die gesamteuropäische Kultur mit einbezogen, als es im Anfang des 18.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-86193-1_1 768c905d3e2ffab69c3e9629e492f836;de;;;3.1.;;;Nutzen- und Risikofaktoren, die Unternehmen bei der Migration vom On-Premise- zum Cloud-Computing-Modell des Softwareprodukts beeinflussen Softwareprodukte sind in zwei Arten erhältlich, nämlich On-Premise und Cloud Computing. Dieses Forschungspapier zielt darauf ab, Nutzen- und Risikofaktoren zu untersuchen, die die Entscheidung eines Unternehmens beeinflussen, vom On-Premise- zum Cloud-Computing-Modell eines Softwareprodukts zu migrieren. Diese Studie folgt den DEMATEL-Konzepten des wahrgenommenen Nutzens und des wahrgenommenen Risikos, um die Faktoren zu untersuchen, die die Entscheidung der Organisation für die Migration beeinflussen. Mit Hilfe dieser Technik wurde festgestellt, dass es 10 wahrgenommene Nutzenfaktoren und 7 wahrgenommene Risikofaktoren gibt, die die Entscheidung des Unternehmens beeinflussen, vom On-Premise- zum Cloud-Computing-Modell des Softwareprodukts zu migrieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-32-9690-9_19 a8840ecf338adf6aa771c8758e573664;de;;;3.1.;;;Online-Überwachungs-Videoarchivsystem Leistungsstarke Videodatenmodelle und Abfragetechniken sind erforderlich, um Videosegmente effizient aus den Videoarchiven abzurufen. Die Struktur des Videodatenmodells und die Arten von Videoabfragen können sich je nach Anwendung ändern. In diesem Papier stellen wir ein Videodatenmodell und eine breite Palette von Abfragetypen vor, die die Anforderungen von Überwachungsvideoanwendungen berücksichtigen. Im Videodatenmodell werden Metadateninformationen, automatisch extrahierte bewegte Objekte, Ereignisse und Objektpositionen berücksichtigt. Der auf unserem Videodatenmodell basierende Abfragesatz umfasst semantische Abfragen, räumliche Abfragen, regionale Abfragen, größenbasierte Abfragen, Trajektorienabfragen und zeitliche Abfragen. Mit dem entwickelten webbasierten Programm können alle Anfragen über das Internet bearbeitet und deren Ergebnisse per Streaming-Technologie abgespielt werden. Mit unserem entwickelten System wird die Funktionalität von Überwachungsvideoarchiven erhöht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69423-6_37 a61abd6f33b911480b71c262902f47cf;de;;;3.1.;;;Abschließende Ratschläge 1990 nahm ich an einem Einführungskurs in Politikwissenschaft bei Theodore Lowi und Ben Ginsberg teil. Es war eine dieser Klassen, in denen 500 Schüler in eine Aula gepfercht wurden. Der Unterricht fühlte sich eher wie ein Zirkus an als ein Vortrag. Ich erinnere mich noch genau an den letzten Unterrichtstag. Ginsberg ging zum Rednerpult und verkündete: „;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-5108-8_7 5e2294b79241eeca790922cd619f2e67;de;;;3.1.;;;Erkennung abnormaler BGP-Routing-Dynamik durch aktives Lernen mit Bagging in neuronalen Netzwerken Aufgrund der kritischen Bedeutung von BGP als De-facto-Internet-Inter-Domain-Routing-Protokoll ist die genaue und schnelle Erkennung abnormaler BGP-Routing-Dynamik von grundlegender Bedeutung für die Internetsicherheit, wenn die Klassen unausgewogen sind. Es gibt zwar viele aktive Lernmethoden, von denen nur wenige erweitert wurden, um BGP-Probleme zu lösen. In diesem Beitrag wird aktives Lernen basierend auf Undersampling und asymmetrischem Bagging vorgeschlagen, um die BGP-Routing-Dynamik zu klassifizieren und abnormale Daten zu erkennen. Unterabtastung wird beim Training neuronaler Netze verwendet und asymmetrisches Bagging wird verwendet, um die Genauigkeit des Algorithmus zu verbessern. Unsere BGP-Daten sind das RIPE-Archiv, ein riesiges Archiv mit BGP-Updates und Routing-Tabellen, die kontinuierlich von RIPE-Monitoren auf der ganzen Welt gesammelt werden. Die experimentellen Ergebnisse legen nahe, dass die Genauigkeit der Erkennung von anormaler BGP-Routing-Dynamik zufriedenstellend und auf BGP-Produkte anwendbar ist. Wir betonen, dass dies eine vielversprechende Richtung zur Verbesserung der Sicherheit, Verfügbarkeit, Zuverlässigkeit und Leistung der Internetsicherheit ist, indem anormaler BGP-Routing-Dynamik-Datenverkehr erkannt und verhindert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-01209-9_6 3090737e152bb2e46d03b42918590535;de;;;3.1.;;;Bildsequenzcodierung mit Szenenanalyse und räumlich-zeitlicher Interpolation Bei Videokonferenz- oder Überwachungsanwendungen kann es wünschenswert sein, Datenkanäle mit sehr geringer Bandbreite zu verwenden. Um Bitraten von 64kBit/s und weniger zu erreichen, scheint es unumgänglich, die Eingangsszene rechtzeitig zu subsampeln. Daher muss der Empfänger eine räumlich-zeitliche Interpolation der übertragenen Schlüsselbilder durchführen, um die fehlenden Zwischenbilder zu rekonstruieren. Um dies richtig zu tun, müssen weitere Informationen über die bewegten Teile der Szene übertragen werden, die durch die Szenenanalyse abgeleitet wurden. Das Segmentierungsverfahren sowie das Interpolationsverfahren werden vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-81935-3_11 829f13b7cd053e283f89d2438d1e5d61;de;;;3.1.;;;Digitale Objektformate Alle gemeinsam zu nutzenden Dokumente müssen einem allgemein bekannten Strukturschema entsprechen. Kritisch sind auch Informationsprotokoll- und Darstellungsstandards. Viele dieser Standards werden verwendet, um den Austausch zwischen ansonsten autonomen Einzelpersonen und Behörden zu erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-37887-7_7 f31c996ae6c06e69686c5c009a6b601b;de;;;3.1.;;;Regionale praktische Geologie und Bergwirtschaft Innerhalb der geographischen Unterabteilungen ist der Inhalt der Zeitschrift meist wie folgt gegliedert: — 2. Allgemeine Bergbaustatistik, mit Tabellen zur Kennzeichnung des bergwirtschaftlichen Zustandes jedes Landes. — 3. Bergbau (Kohlen, Erze, Salze). — 4. Sonstige Bodennutzung (Ackerbau, Gräberei und Steinbruchbetrieb, Quellen- und Wassernutzung, Tiefbau).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-91836-0_2 6072d31c5aa08ca89258eeb0fbc55438;de;;;3.1.;;;Das Herrscherbild in der Kunst des Frühen Mittelalters Jedes Herrscherbild ist ein geschichtliches Dokument, das als ein mehr oder weniger individuelles Zeugnis über eine Persönlichkeit der Vergangenheit einen eigenartigen Wert hat und so sterben aus den schriftlichen Quellen sich ergebende Vorstellung ergänzt. Darüber hinaus gehören sterben Bilder oder Denkmäler des Kaisers, Könige und Fürsten zu der Einheit eines Bildtypus zusammen, der innerhalb der Kunstgeschichte seiner besonderen Entwicklung hat, da er zu der jeweiligen Zeit in enger Beziehung steht und sterben sich wandelnden Ansichten vom Herrschertum widerspiegelt. Diese Beziehungen zwischen Bild und Geschichte in der Zeit des frühen, etwa mit Gregor VII. Seinen Abschluß findenden Mittelalters nachzugehen, hat sein besonderes Interesse, da hier die Entwicklung des Bildtypus: Herrscherbild ohne sterben ihm zugrunde liegende politische und geistige Geschichte unverständlich bleibt, aber auch in den Bildern sterben verschiedenen Entwicklungen, sterben im frühen Mittelalter aufeinander einwirkten, sich deutlich widerspiegeln, so dass wir mit einem Blick in diese Auseinandersetzungen hineinsehen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-15764-9_5 e5127a07a44b17fdb2fba5416f4cfaa2;de;;;3.1.;;;Dezentrale Optimierung für strukturierte lineare Programmiermodelle Dieser Beitrag befasst sich mit Methoden zur Lösung linearer Programmiermodelle mit einer primalen oder dualen Block-Winkel-Struktur. Eine allgemeinere Darstellung dieser Methoden findet sich in [1]. Für eine primale Block-Winkel-Struktur wird die Methode als Dualbasis-Zerlegungsmethode bezeichnet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-83724-1_26 cdf68c6ebd549f8440dd108cfaf98174;de;;;3.1.;;;Modellierung Vertrieb Dieses Papier befasst sich mit einigen Aspekten der direkten und indirekten Verkaufsraten von Produkten und mit einem Modell basierend auf der Verkaufsmatrix. Der Zweck dieser Betrachtung besteht darin, durch indirekte Verkaufsraten die Struktur des Verkaufs zu bestimmen und ein Modell zu erstellen, das für die Planung und Prognose von Zielen verwendet werden kann. Mit anderen Worten, mit Hilfe der Verkaufsmatrix oder einem darauf basierenden Modell können wir die zukünftigen Verkaufsbewegungen abschätzen. Dies kann entweder unter der Annahme erfolgen, dass vergangene Beziehungen ungefähr in den gleichen Proportionen gehalten werden oder dass sie sich in Zukunft ändern werden. Jeweils alle Änderungen können anhand der Verkaufsmatrix systemseitig beschrieben werden.;-;-;-;https://link.springer.com/article/10.1057/jors.1994.171 ceb0c069dba48bc553c23077bad6b753;de;;;3.1.;;;Wirtschaftsordnungsmengen mit Inflation Die klassische EOQ-Formel geht davon aus, dass alle relevanten Kosten und Preise konstant sind. In diesem Beitrag wird gezeigt, dass bei Inflation die Wahl des in der EOQ-Formel verwendeten Lagerbestandspreises von der Preispolitik des Unternehmens abhängt. Wenn sich die Preise unabhängig vom Zeitpunkt der Nachschubbestellung ändern, sollte die Lagergebühr niedrig und unabhängig von der Inflationsrate sein. Wenn jedoch kein Doppelticket erlaubt ist und das Unternehmen einen konstanten prozentualen Aufschlag verwendet, ist die Transportgebühr hoch und hängt von der Inflationsrate und dem Aufschlag ab. Nur wenn dem Unternehmen ein fester monetärer Spielraum eingeräumt wird, gilt das klassische Ergebnis für die Transportgebühr.;-;-;-;https://link.springer.com/article/10.1057/jors.1975.113 e43179ece0861b9ca4e1c08768486edf;de;;;3.1.;;;Ableitung des Ausdrucks für die Absorption im Partikelsystem unter Verwendung der statistischen Partikelmodelltheorie Ein Ausdruck für die Absorption durch ein Partikelsystem wird unter Verwendung einer modifizierten Version der Melamed-Theorie abgeleitet. Es wird gezeigt, dass der Ausdruck dem Erhaltungssatz für die Radiant*-Energie folgt, was die Gültigkeit der vorgeschlagenen Beziehung bestätigt. Absorptionsspektren, die für verschiedene Paniculate-Systeme unter Verwendung der vorgeschlagenen Gleichung berechnet wurden, werden mit denen verglichen, die unter Verwendung der Simmons-Gleichung, einem vereinfachten Ansatz für die Teilchenmodelltheorie, bewertet wurden. Die Ergebnisse der vorgeschlagenen Beziehung stimmen ziemlich gut mit denen überein, die den Strumous-Ausdruck verwenden. Die Studie bietet eine neue Methode zur Bewertung von Absorptionsspektren von Partikelsystemen unter Verwendung einer rigorosen Partikelmodelltheorie.;-;-;-;https://link.springer.com/article/10.1007/BF03549291 e9f04f976c622d6ab4c7544a320cfb16;de;;;3.1.;;;Beweise für die Transformation zum menschlichen Denkstil Dieses Papier beschreibt die erste Komponente eines Textplaners, der einen natürlichen Deduktionsbeweis im Gentzen-Stil akzeptiert und eine Nachrichtensequenz für den taktischen Sprachgenerator erzeugt. Es hebt zunächst die Eingabebeweise auf die Ebene des menschlichen Denkens. Die Hauptbeobachtung ist, dass menschliche Inferenzschritte normalerweise die „Größe“ der Anwendung eines Axioms oder eines Theorems haben. Formal betrachtet können diese Inferenzschritte durch domänenspezifische zusammengesetzte Inferenzregeln durchgeführt werden. Ein Algorithmus wird entwickelt, um diese Regeln aus Axiomen und Theoremen einer bestimmten mathematischen Theorie zu generieren. Dann wird ein anderer Algorithmus die Eingabebeweise nach diesen Regeln erheben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-75100-4_5 20d31e73c83c9f66aef7e098d8495470;de;;;3.1.;;;Verbraucherverhalten und optimale Werbung Anhand von Nicosias Formulierung des Konsumverhaltens werden optimale Werbestrategien abgeleitet. Andere Studien, die empirische Daten verwenden, haben gezeigt, dass Werbung auf den frühen Teil des Produktlebenszyklus konzentriert werden sollte, und das Papier erörtert, welche Annahmen über das Verbraucherverhalten getroffen werden müssen, um diese Ergebnisse zu erzielen. Konkret wird gezeigt, unter welchen Bedingungen pulsierende Werbekampagnen optimal sind.;-;-;-;https://link.springer.com/article/10.1057/jors.1979.45 7b94a5abab8f7e3aac00ee097ddb3630;de;;;3.1.;;;Eine Methode zur Bestimmung des Minimax von Funktionalen abhängig von Wahrscheinlichkeitsmaßen Das Papier schlägt eine Methode vor, um den Minimax von Funktionalen abhängig von Wahrscheinlichkeitsmaßen zu finden. Die Konvergenz der Methode ist nahezu sicher bewiesen. Die Methode wird auf optimale experimentelle Designprobleme angewendet.;-;-;-;https://link.springer.com/article/10.1007/BF01126209 b555bc16e893425076a968d853d8f109;de;;;3.1.;;;"Visualisierung alternativer Futures In Australien haben viele ländliche Städte mit dem Verlust von Gebäuden einen Bevölkerungsverlust erlebt. Diese Gebäude können als Schlüsselelemente für die Wertschätzung des Erbes der Entwicklung ländlicher Lebensräume angesehen werden. Der Abriss von bemerkenswerten Gebäuden hat dazu beigetragen, dass die aktuelle Generation von Australiern den Lebensstil in ländlichen Städten schätzen lernen konnte. Dieses Problem hat sich in Randgebieten verschärft, wo das städtische Wachstum die Nachfrage nach mehr Platz unter Druck gesetzt hat. Dies kann dazu führen, dass historische Gebäude und einzigartige Straßenlandschaften den Anforderungen des Stadtwachstums geopfert werden. Daher müssen Instrumente bereitgestellt werden, um den Entwicklungsdruck auf ländliche und stadtnahe Gebiete besser zu verstehen, sowie Instrumente, um diese heute verschwundenen Umgebungen zu würdigen. Die Verwendung virtueller Modelle australischer Städte kann den Menschen helfen, sich vorzustellen, was existiert und welchen Druck sie entwickeln müssen. Wenn diese Städte und Umgebungen bereits verändert wurden, ermöglicht die Verwendung virtueller Modelle den Menschen, sich vorzustellen, ""wie sie aussehen könnten"", wenn die Stadt intakt geblieben wäre. Dies wird als potenzielles Werkzeug angesehen, um zu verstehen, was wir haben und welches Erbe wir verloren haben – um der aktuellen Generation zu zeigen, was diese Umgebungen einmal waren, oder um Entscheidungsträgern Fehler der Vergangenheit aufzuzeigen.";-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69168-6_24 99974336848562fae172cebfa7b14cb8;de;;;3.1.;;;Dezentrale vs. zentrale wirtschaftliche Koordination der Ressourcenallokation in Netzen Application Layer Networks sind Softwarearchitekturen, die die Bereitstellung von Diensten ermöglichen, die eine große Menge an Ressourcen erfordern, indem eine große Anzahl einzelner Computer verbunden wird, wie z. Die Kontrolle der Ressourcenzuweisung in diesen Netzwerken ist unter Verwendung eines zentralisierten Arbitrators nahezu unmöglich. Das Netzwerksimulationsprojekt CATNET wird einen dezentralen Mechanismus zur Ressourcenallokation, der auf dem ökonomischen Paradigma der Katalaxie basiert, gegen einen zentralisierten Mechanismus mit einem Arbitrator-Objekt evaluieren. In beiden Versionen kaufen und verkaufen Softwareagenten Netzwerkdienste und -ressourcen untereinander und voneinander. Das Wirtschaftsmodell basiert auf eigennütziger Nutzenmaximierung und eigennütziger Kooperation zwischen Akteuren. Dieser Artikel beschreibt den Aufbau von Geld- und Nachrichtenflüssen sowohl für die zentrale als auch für die dezentrale Koordination im Vergleich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24689-3_2 959dd419a4bb9e338c4a52d87552df25;de;;;3.1.;;;Automatische Erkennung von Geschlecht und Genre in einem Korpus von Mikrotexten In diesem Artikel konzentrieren wir uns auf das Geschlecht des Autors und die Erkennung des Schreibgenres ausschließlich auf Buchtitel. Wir analysieren Daten aus den Bibliographie-Ressourcen der Polnischen Nationalbibliothek. Innerhalb einer Arbeit vergleichen wir verschiedene Methoden der Text-(Titel-)Repräsentation und Klassifikation. Es umfasst Worteinbettungsmodelle wie word2vec, ELMo und Klassifikationsalgorithmen wie lineare Modelle, mehrschichtiges Perzeptron und bidirektionales LSTM. Es wird gezeigt, dass das Schriftgenre (für definierte 28 Klassen) nur anhand des Buchtitels mit einer Genauigkeit von 0,74 automatisch erkannt werden konnte. Die besten Ergebnisse erzielten fastText-Methoden mit Wort-N-Grammen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-48256-5_46 eb62a044b61ad12869b7798af340300d;de;;;3.1.;;;Spannungscharakterisierung der Elastodynamik mit kontinuierlich verteilten Defekten Eine reine Spannungsformulierung der linearen inhomogenen anisotropen Elastodynamik mit kontinuierlich verteilten Defekten (EcDD) wird vorgeschlagen und bekannte Lösungen von ECDD, die stationären und bewegten konzentrierten plastischen Feldern in einem unendlichen Körper entsprechen, werden durch direkte Integration der Spannungsfeldgleichung gewonnen. Es wird eine neue Interpretation der Lösungen gegeben.;-;-;-;https://link.springer.com/article/10.1007/BF00041144 78c83e714f2e419f2401c018c30dd4d7;de;;;3.1.;;;Sind probabilistische und Anti-Optimierungs-Ansätze kompatibel? Diese Studie ist auf ein einziges Ziel gerichtet: den möglichen Fehler zu veranschaulichen, der mit der Auswirkung einer kleinen Störung in der Wahrscheinlichkeitsdichte auf die strukturelle Zuverlässigkeit verbunden ist. Diese Störung ist mit der Interpretation der experimentellen Daten verbunden, die als Grundlage des beteiligten probabilistischen Modells dienen. Darüber hinaus ist die kleine Störung in der Wahrscheinlichkeitsdichte immer noch mit den gleichen probabilistischen Momenten verbunden wie eine ungestörte Dichte. Es scheint, dass die Analyse eines möglichen Fehlers Teil einer sinnvollen probabilistischen Analyse werden muss.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-2501-4_5 7d9fdc313e0c49c9b357a1efbd0d400e;de;;;3.1.;;;Überwachung von SLA-Parametern innerhalb von VO für das SOA-Paradigma Aktuelle Trends in modernen wissenschaftlichen und geschäftlichen IT-Infrastrukturen stellen bestimmte Anforderungen an die Middleware-Schicht, um die Automatisierung aller Lebenszyklusphasen solcher Infrastrukturen einschließlich Einführung, Bereitstellung, Ausführung und Auflösung zu maximieren. Wenn sich diese Infrastruktur aus Ressourcen verschiedener Organisationen zusammensetzt, beispielsweise in Form einer virtuellen Organisation, ist das Management dieser Ressourcen insbesondere für die Erzielung neuer Qualität im Geschäft erforderlich. In diesem Papier beschäftigen wir uns mit einem spezifischen Aspekt des IT-Infrastrukturmanagements im Zusammenhang mit der autonomen Durchsetzung von Service Level Agreements zwischen Organisationen, die ihre Ressourcen innerhalb einer virtuellen Organisation teilen. Das vorgestellte Framework nutzt semantische Technologien, um die Heterogenität der zugrunde liegenden Middleware-Komponenten zu virtualisieren und die Integration von Diensten zwischen diesen Organisationen zu ermöglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14403-5_13 637021cf32dbcb2746e0402cedf13fdf;de;;;3.1.;;;Eine Metaheuristik für Teilmengenprobleme In Constraint-Solvern werden Variablen- und Werteordnungsheuristiken verwendet, um die Leistung der zugrunde liegenden Such- und Ausbreitungsalgorithmen zu optimieren. Es wurden jedoch nur wenige Richtlinien dafür vorgeschlagen, wann aus der Fülle der bestehenden Heuristiken auszuwählen ist. Empirische Studien haben ergeben, dass dies sehr schwierig wäre, da keine dieser Heuristiken bei allen Instanzen aller Probleme alle anderen übertrifft (für einen ansonsten festen Löser). Die beste Heuristik variiert nicht nur zwischen Problemen, sondern sogar zwischen verschiedenen Instanzen desselben Problems. Das beliebte Diktum „Wenn Sie sie nicht schlagen können, schließen Sie sich ihnen an! Wir entwickeln eine praktische Meta-Heuristik, die zur Laufzeit automatisch die „beste“ verfügbare Heuristik für die vorliegende Instanz auswählt. Sie ist auf eine ganze Klasse von NP-vollständigen Teilmengenproblemen anwendbar.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45241-9_19 0a64d1a41a309039e7e78fee45531a90;de;;;3.1.;;;Organisation automatisierter Archive zur Handhabung von aktuellen Bekanntheitsbulletins und bibliografischen Recherchen Das Ziel von R&D Scientific Services (SSR) bei Glaxo Research Italy - einem der wichtigsten pharmazeutischen Forschungszentren der Glaxo-Gruppe - ist es, F&E-Projekte und andere wissenschaftliche Disziplinen mit angemessener wissenschaftlicher Information zu unterstützen. Diese Unterstützung wird durch die regelmäßige Veröffentlichung der „CURRENT AWARENESS BULLETINS“ gewährleistet, die regelmäßige Updates zu verschiedenen Themen wie Informationen zu Wettbewerbern, Überwachung der veröffentlichten wissenschaftlichen Literatur und Patentwarnungen bereitstellen. „CHEMISCHE NEUHEITEN und BIOMEDIZINISCHE SUCHEN“ werden auch angeboten, um spezifische Anfragen von Forschern zu unterstützen. Die funktionale Organisation der oben genannten SSR-Aktivitäten hat es erforderlich gemacht, diese Informationen auf einem automatisierten System zu speichern, um in Echtzeit verfügbar zu sein:;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-0093-9_82 c8a764c9fea357e950ffe1063b0ebb60;de;;;3.1.;;;Planungsprobleme auf einer Maschine mit Ressourcenbeschränkungen Ein-Maschinen-Scheduling-Probleme mit maximalen Verspätungs- und maximalen Verspätung-Kriterien werden auf den Fall mit der Zuweisung kontinuierlich teilbarer eingeschränkter nicht erneuerbarer Ressourcen verallgemeinert. Bei den Betriebsmodellen wird angenommen, dass sie lineare Funktionen der Dauer gegenüber der Ressourcenmenge sind. Für die Probleme mit maximaler Verspätung und maximalen Verspätung-Kriterien unter gleichen Release-Terminen (d. h. Momenten, in denen Operationen für die Verarbeitung verfügbar sind) werden Polynomial-Time-Algorithmen gefunden. Es wird gezeigt, dass das Problem mit dem Kriterium der maximalen Verspätung bei ungleichen Release-Terminen NP-schwer ist. Für dieses Problem wird ein Branch-and-Bound-Algorithmus (der die gezeigten Eigenschaften verwendet) skizziert.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0043857 c8e7b312538ff3a5b4b837d7c8337bd5;de;;;3.1.;;;Rekombinanter menschlicher Knochenwachstumsfaktor BMP-2 synthetisiert in Diese Übersicht widmet sich aktuellen Ansätzen zur kombinierten Verwendung von BMP-2 mit anderen Proteinfaktoren zur Erhöhung der Osteoinduktivität kürzlich entwickelter Materialien. Der aktuelle Trend geht dahin, Materialien mit einer niedrigen BMP-2-Konzentration herzustellen, die bei der Osteoinduktion wirksam sind und eine kontinuierliche Proteinfreisetzung ermöglichen. In Russland und Südkorea wurden eine Reihe von Medikamenten auf der Basis von BMP-2, synthetisiert in, entwickelt;-;-;-;https://link.springer.com/article/10.3103/S0891416820020056 84d8cb4e2cb736fc18af83c3e243da30;de;;;3.1.;;;Hin zu einer sicherheitsbewussten Bereitstellung von Daten-Streaming-Anwendungen im Fog-Computing Neue Fog- und Edge-Computing-Umgebungen ermöglichen die Analyse von Big Data, die von Geräten (z. B. IoT-Sensoren) gesammelt wurden, mit geringerer Latenz im Vergleich zu Cloud-basierten Lösungen. Insbesondere beschäftigen sich viele Anwendungen mit kontinuierlichen Datenflüssen in latenzempfindlichen Domänen (z. B. Gesundheitsüberwachung), in denen Data Stream Processing (DSP)-Systeme eine beliebte Lösung darstellen. Die sehr heterogene Natur von Fog-/Edge-Plattformen stellt jedoch mehrere Herausforderungen für die effiziente Bereitstellung von DSP-Anwendungen, einschließlich Sicherheits- und Datenschutzfragen. Da Datenströme durch öffentliche Netzwerke fließen und möglicherweise auf Multi-Tenant-Computing-Plattformen verarbeitet werden, müssen neue Metriken für die Bereitstellung in Betracht gezogen werden, die neben den traditionell übernommenen Leistungs- und Kostenaspekten auch Sicherheits- und Datenschutzbedenken berücksichtigen. In diesem Kapitel stellen wir die relevantesten bestehenden Lösungen für die Bereitstellung von DSP-Anwendungen in Fog-/Edge-Umgebungen vor und diskutieren insbesondere, wie sie Sicherheits- und Datenschutzbedenken angehen. Anschließend präsentieren wir Security-aware DSP Placement (SDP), eine Formulierung des optimalen Bereitstellungsproblems für DSP-Anwendungen in Fog-/Edge-Umgebungen. Insbesondere führen wir neben nicht-funktionalen auch sicherheitsbezogene Anwendungsanforderungen ein und zeigen, wie die Auflösung von SDP es uns ermöglicht, Kosten und Leistung mit Datenschutz- und Datenintegritätszielen abzuwägen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-57328-7_14 f340d682a8be19de8c835da3c36277c5;de;;;3.1.;;;Archive in Subsahara-Afrika ein halbes Jahrhundert nach der Unabhängigkeit Dieser Artikel konzentriert sich auf das Commonwealth und andere hauptsächlich anglophone Länder in Ost- und Zentralafrika. Dies ist ein Bereich, der in den jüngsten Diskursen und Debatten eher vernachlässigt wurde. Die Beziehung zwischen Rechenschaftspflicht und Aufzeichnungssystemen ist ein wichtiges Thema. Andere Herausforderungen, die im letzten halben Jahrhundert aufgetreten sind, werden analysiert und kommentiert. Es wird versucht, Entwicklungen in einen größeren politischen und wirtschaftlichen Kontext zu stellen. Darüber hinaus wird die Frage gestellt, ob Transformationsdiskurse, die im Post-Apartheid-Südafrika generiert wurden, zu den Erfahrungen der Länder nördlich des Limpopo „passen“. Es werden viele Rückschläge und Erfolgshindernisse beschrieben. Der Fokus liegt jedoch darauf, Wege zum Fortschritt aufzuzeigen, anstatt sich dem Zynismus zu ergeben.;-;-;-;https://link.springer.com/article/10.1007/s10502-009-9078-1 78f191a171b3c53e90328da675933a4c;de;;;3.1.;;;Wissensentdeckung in Textdatenbanken: Ein Konzept-Assoziations-Mining-Ansatz Die Zahl der wissenschaftlichen Publikationen explodiert, da digitale Online-Bibliotheken und das World Wide Web wachsen. MEDLINE, die führende bibliographische Datenbank der National Library of Medicine (NLM), enthält etwa 18 Millionen Datensätze aus mehr als 7.300 verschiedenen Veröffentlichungen aus dem Jahr 1965 und wächst jedes Jahr um etwa 400.000 Zitate. Die explosionsartige Zunahme von Informationen in Textdokumenten schafft einen großen Bedarf an Techniken zur Wissensfindung aus Textsammlungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-0176-7_11 cf9ce3cda4e301f59baca4d73c067a25;de;;;3.1.;;;Studien zur babylonischen Mondtheorie: Teil II. Behandlungen von Mondanomalie Dieser Artikel ist der zweite einer mehrteiligen Untersuchung der Entstehung der babylonischen mathematischen Mondtheorien, die als Systeme A und B bekannt sind. Teil I (Britton 2007) befasste sich mit der Entwicklung der empirischen Elemente, die zur Trennung der Auswirkungen von Mond- und Sonnenanomalie erforderlich sind über die Intervalle zwischen den Syzygien. Dies wurde bei der Konstruktion der Mondtheorie von System A von einem unbekannten Autor erreicht, mit ziemlicher Sicherheit in der Stadt Babylon und wahrscheinlich Anfang des 4.;-;-;-;https://link.springer.com/article/10.1007/s00407-009-0041-6 9db78d2c0a3f02e605690e773f4bbd4e;de;;;3.1.;;;Ein erstes nationales italienisches Register für digitale Ressourcen sowohl für kulturelle als auch für wissenschaftliche Gemeinschaften (Kommunikation) In diesem Beitrag stellen wir eine italienische Initiative vor, an der relevante Forschungseinrichtungen und Nationalbibliotheken beteiligt sind und die darauf abzielt, eine NBN-Infrastruktur für Persistent Identifiers (PI) auf der Grundlage einer neuartigen Hardware-/Softwarearchitektur zu implementieren. Wir beschreiben einen verteilten und hierarchischen Ansatz für die Verwaltung eines NBN-Namensraums und veranschaulichen Zuweisungsrichtlinien und Strategien zur Auflösung von Identifikatoren basierend auf Mechanismen zur Weiterleitung von Anfragen. Wir beschreiben die Interaktion und Synergie mit dem Projekt „Magazzini Digitali“ für die gesetzliche Hinterlegung digitaler Inhalte, das gerade vom italienischen Kulturministerium ins Leben gerufen wurde. Abschließend ziehen wir einige Schlussfolgerungen und weisen auf die zukünftige Ausrichtung unserer Arbeit hin.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15850-6_6 8bc4294faf1ad0a1c34a2948fbbe45c6;de;;;3.1.;;;Merkmalserkennung aus der Darstellung von Zeitreihendaten Wir schlagen ein Verfahren zum Extrahieren des geometrischen Merkmals und der umfassenden Fluktuation aus Zeitreihendaten sowie ein Verfahren zum effektiven Erfassen einer Referenzsequenz auf der Grundlage des Distanzgraphen vor. Die vorherrschenden Verfahren, wie beispielsweise eines auf der Grundlage der Frequenzcharakteristik, behandeln Zeitreihendaten in der Zeitdimension nicht. Daher ist unser Verfahren zum Extrahieren der Merkmale zeitlich empfindlich gegenüber Schwankungen von Zeitreihendaten. Wir haben mit Zeitreihendaten experimentiert, deren Frequenzbänder unterschiedlich geändert wurden, um die Verfügbarkeit der Vorschlagsverfahren wie Glättung und Kodierung zu verdeutlichen.;-;-;-;https://link.springer.com/chapter/10.1007/11767978_29 3588919f26faf39f2a6e72accbae2925;de;;;3.1.;;;Systematische Reviews hängen von systematischen Literaturrecherchen ab Gut konzipierte systematische Übersichten und Metaanalysen leisten wichtige Beiträge zum medizinischen Wissen, und die Erstellung solcher Übersichten ist seit vielen Jahren als ein wesentlicher Bestandteil der evidenzbasierten Medizin anerkannt. Das Verfassen einer systematischen Übersichtsarbeit ist eine wissenschaftliche Tätigkeit, die nach denselben Maßstäben beurteilt werden muss wie andere wissenschaftliche Arbeiten. Die Validität des Reviews hängt von rigorosen und explizit angegebenen Methoden ab, einschließlich der Literaturrecherchemethoden, mit denen Studien für die Aufnahme identifiziert werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4621-0_18 b0cf48e59015401a5a09b28e4f6605be;de;;;3.1.;;;Sacherläuterungen Gegenüber der in Band I, Seite 44 f. Beschriebenes Verfahren Haben Sich Im Verlauf der Arbeit Einige Änderungen Erforderlich gemacht. Der erklärende Text ist sehr viel ausgefallen, als anfangs absehbarer Krieg. Der bessere Lesbarkeit wurde deshalb nicht der erklärten Text kursiv gesetzt, sondern sterben Lemmata. Auf Einfügung eines Zeichens zur Abgrenzung von Lemma und Erläuterung wurde verzichtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-476-02970-6_1 5496433d925698e25030ecc329a67aba;de;;;3.1.;;;Newton und Leibniz – Giganten und Widersacher Am ersten Weihnachtstag des Jahres 1642 eilen zwei Geburtshelferinnen von Woolsthorpe-by-Colsterworth in Lincolnshire nach North-Witham. Sie wollen stärkende Mittel für den nach nur sieben Monaten Schwangerschaft viel zu frühgeborenen Sohn Isaac der Witwe Hannah Newton holen. Der Winzling hat kaum eine Chance, denn er passt in einen „quart mug“, das ist ein Krug von etwa einem Liter Inhalt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-48918-5_7 70da99f4bd05f83a21e1a829c15e39f8;de;;;3.1.;;;Der Einsatz von Supercomputer-Technologien zur prädiktiven Modellierung des Schadstofftransports in Grenzschichten der Atmosphäre und Gewässer Der Beitrag beschreibt die Entwicklung, Erforschung und numerische Implementierung von miteinander verbundenen mathematischen Modellen der Hydrophysik und biologischen Kinetik. Diese Modelle wurden auf einem Supercomputer als System zur Überwachung und Steuerung der Qualität von Flachwasser und zur Vorhersage von Prozessen der Ausbreitung von Schadstoffen in Grenzschichten von Atmosphäre und Gewässern implementiert. Der Programmkomplex kann als effizientes Instrument zur Überwachung der ökologischen Situation in Gewässern eingesetzt werden, die zunehmenden anthropogenen Belastungen, klimatischen und industriellen Herausforderungen sowie Notfallsituationen anthropogenen oder natürlichen Charakters ausgesetzt sind. Der Softwarekomplex (die Überwachungs- und Steuerungssysteme) umfasst diskrete Analoga von Modellen der Gewässerökologie auf der Grundlage von Genauigkeitsschemata höherer Ordnung. Wir wenden die modifizierte alternierende Dreiecksmethode zur Lösung von Gittergleichungen an, die zur Diskretisierung von Modellproblemen in der Gewässerökologie verwendet werden. Dieses Verfahren hat die beste Konvergenzrate unter der Bedingung der asymptotischen Stabilität von Differenzschemata für parabolische Gleichungen mit verbesserter Effizienz auf der Grundlage aktualisierter Spektralschätzungen. Der Entwurf effektiver paralleler Algorithmen zur numerischen Umsetzung hydrophysikalischer und biologischer Kinetik-Probleme bietet die Möglichkeit, Prozesse der Sedimentausbreitung in „Luft-Wasser“-Systemen in Echtzeit und beschleunigt zu betrachten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-28163-2_16 df969308265283612f5c815f97737ad0;de;;;3.1.;;;Passwortbezogene Kinderbücher: Wirksam, ärgerlich Software wird speziell für Kinder entwickelt und erfordert oft eine Authentifizierung, in der Regel durch Eingabe eines Passworts. Passworthygiene ist für Kinder wichtig, da die Prinzipien, die sie in jungen Jahren lernen, oft ihr ganzes Leben lang Bestand haben. Kinder lernen von ihren Eltern, Geschwistern, Lehrern und Gleichaltrigen. Sie lernen auch aus pädagogischen Ressourcen wie Kinderbüchern. Wir haben eine Inhaltsanalyse einer Reihe von Kinderbüchern durchgeführt, die darauf abzielt, Kinder über Passwörter aufzuklären. Wir verwendeten direktionale Kodierung, basierend auf einer systematischen Literaturrecherche von Methoden, wie sie in anderen inhaltsanalytischen Studien zu Kinderbüchern verwendet werden. Wir untersuchten die Prinzipien, die die Bücher lehrten, und ob diese richtig waren. Wir haben auch analysiert, wie die Bücher die Geschlechter der Charaktere in verschiedenen Rollen darstellen. Wir stellten fest, dass die Abdeckung der Prinzipien unterschiedlich war und Bücher manchmal veraltete Prinzipien lehrten. Die Geschlechter waren in den Büchern gleichmäßig vertreten. Schließlich ergab unsere Analyse eine Verschmelzung der Begriffe „Sicherheit“ und „Sicherheit“ im Cyberbereich. Wir schließen die Arbeit ab, indem wir die Adjektive begründen, die wir im Titel verwenden.;-;-;-;https://link.springer.com/article/10.1007/s10643-020-01067-z 57762e18adac045adb85833ca2aa7728;de;;;3.1.;;;„Kriegsinnerungsboom“ – Umgang, Steuerung, Kontrolle Am 5. Mai 2010 versammelten sich über 30 von rund 3 000 Studierenden, Professoren, Dozenten sowie hochrangige Repräsentanten verschiedener politischer, kultureller Einrichtungen der Stadt Moskau vor dem Hauptgebäude der Russländischen Staatlichen Sozialuniversität (RGSU), bis 1991 als zentrale Residenz des Marxismus-Leninismus-Instituts des ZK der KP Uhrdünktlich um 11.00 Uhr Pünktlich um 11.00 Uhr Ehren des 65. Siegesjubiläums des Großen Vaterländischen Kriegs stattfand.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-00822-2_4 03256afe66b154984018e71322cf2647;de;;;3.1.;;;Präjunktionale Modulation der Noradrenalinfreisetzung aus sympathischen Neuronen in isolierten Kaninchenaorten durch Angiotensine Das Ziel der vorliegenden Arbeit war es, die modulierende Wirkung der Angiotensine I, II, III, IV und (1–7) [AI, AII, AIII, AIV bzw. A(1–7)] auf die durch Stimulation hervorgerufene Noradrenalinfreisetzung zu vergleichen aus postganglionären sympathischen Nerven in der isolierten Aorta von Kaninchen, um den Einfluss der Hemmung der neuronalen und extraneuronalen Aufnahme von Noradrenalin auf die modulierende Wirkung von AII zu untersuchen und drittens, um die Rolle des Angiotensin-Converting-Enzyms (ACE) bei der modulierenden Wirkung von AI zu bestimmen und AII und die Rolle der Aminopeptidasen A und M bei den Wirkungen von AII und AIII. Aortenringe wurden mit (–)-;-;-;-;https://link.springer.com/article/10.1007/PL00005109 83a54d3ba026aab05c2bcda8d6bf6e5a;de;;;3.1.;;;Kollisionen des Sonnensystems mit dichten interstellaren Gaswolken und Radiokohlenstoffspuren von Perioden mit „ungewöhnlich niedriger“ Sonnenmodulation der kosmischen Strahlung Es werden die Ursachen für einen starken Anstieg des Radiokohlenstoffgehalts in der Erdatmosphäre für Perioden mit ungewöhnlich geringer solarer Modulation der galaktischen kosmischen Strahlung (GCRs) betrachtet. Es wird gezeigt, dass solche Perioden um 660 v;-;-;-;https://link.springer.com/article/10.1134/S0016793219080231 3606a8490d7909cb27a296f75a495b5d;de;;;3.1.;;;Analyse und politische Reaktionen auf das schnelle Kreditwachstum In diesem Kapitel wird das Phänomen des schnellen Wachstums der Bankkreditvergabe an den privaten Sektor erörtert, das in den letzten Jahren in vielen mittel-, ost- und südosteuropäischen Ländern (MOE) besonders ausgeprägt war. In den letzten Jahren lagen die realen Wachstumsraten der Kreditvergabe an den privaten Sektor in diesen Ländern häufig zwischen 30 und 50 Prozent pro Jahr, wenn auch ausgehend von einem niedrigen Niveau. Dieser Trend wurde allgemein als normale und positive Folge der zunehmenden Vertiefung und Restrukturierung des Finanzsystems angesehen. Sie fügt sich in den Übergangsprozess von einer zentralen Planwirtschaft zu einer marktorientierten Wirtschaft ein und wurde oft durch die Aussicht auf einen Beitritt zur Europäischen Union (EU) unterstützt. Gleichzeitig wächst die Besorgnis über die Auswirkungen auf die makroökonomische Stabilität und die Finanzstabilität, insbesondere dort, wo das schnelle Kreditwachstum mit einer schwächer werdenden Leistungsbilanz und Anfälligkeiten in den Finanzsystemen zusammenfällt.;-;-;-;https://link.springer.com/chapter/10.1057/9781137001542_5 d0c8e9f23425564f90b3132748080c32;de;;;3.1.;;;Rechnen mit homomorphen Bildern Nach der Erläuterung der allgemeinen Technik des Rechnens mit homomorphen Bildern werden der chinesische Restalgorithmus und die Hensel-Lifting-Konstruktion ausführlich behandelt. Chinesisches Resting wird zuerst in einer abstrakten Umgebung präsentiert. Dann die Spezialisierung auf euklidische Gebiete, insbesondere Z, K[;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-7551-4_10 91d9e61299ca4a37d3f44d1ca3558725;de;;;3.1.;;;Denkmäler und Denkmäler: Die Anfänge des Archivs als Kulturgut Um 1800 erkannte das „Paradigma des Erbes“ Archive als kulturelles und nationales Erbe an. Dieses Paradigma war jedoch keine neue revolutionäre Erfindung. Gefördert wurde es durch ein „Erbebewusstsein“, das sich im 17. und 18. Jahrhundert entwickelt hatte. Der Wert von Archiven als Erbe künftiger Generationen wurde zunächst im privaten Bereich von den Familien und dann von den Städten anerkannt – Erinnerungsgemeinschaften wurden zu Archivgemeinschaften.;-;-;-;https://link.springer.com/article/10.1007/s10502-008-9060-3 d181620db66ea841759040291a8b95cb;de;;;3.1.;;;Skalierungsgrenzen von Loop-Erased Random Walks und Uniform Spanning Trees Der Uniform Spanning Tree (UST) und der Loop-Erased Random Walk (LERW) sind stark verwandte probabilistische Prozesse. Wir betrachten die Grenzen dieser Modelle auf einem feinen Raster in der Ebene, da das Netz gegen Null geht. Obwohl die Existenz von Skalierungsgrenzen noch nicht bewiesen ist, können nachfolgende Skalierungsgrenzen auf verschiedene Weise definiert werden und existieren. Wir etablieren einige grundlegende a.s. Eigenschaften dieser nachfolgenden Skalierungsgrenzen in der Ebene. Es ist bewiesen, dass jede nachfolgende LERW-Skalierungsgrenze ein einfacher Pfad ist und dass der Stamm jeder UST-nachfolgenden Skalierungsgrenze ein topologischer Baum ist, der in der Ebene dicht ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-9675-6_27 a43b88b8569c66fd1704014e4accc32a;de;;;3.1.;;;Ergebnisse im Zeitungsjungen-Stil für mehrstufige Bestandsprobleme: Optimierung von Lieferrückständen mit Zwischenverzögerungen Bestandsprobleme auf mehreren Ebenen bieten Betriebsforschern die Möglichkeit, gleichzeitig die Kontrolle über ganze Vertriebs- und Produktionssysteme zu erlangen. Ein Problem der Rückstandsminimierung wird für eine bestimmte mehrstufige Bestandsstruktur betrachtet, für die mehrere Fertigwaren mit normalverteiltem Bedarf aus einer gemeinsamen Komponente hergestellt werden. Die vollständige Zentralisierung des gesamten Lagerbestands auf Komponentenebene im Gegensatz zur vollständigen Dezentralisierung des gesamten Lagerbestands auf der Ebene der Fertigware wurde bereits untersucht. Bei diesem Ansatz kann das Inventar auf jeder Ebene gespeichert werden. Eine allgemeine, nichtlineare mathematische Formulierung mit dem Ziel der Minimierung der Gesamtstrafkosten für erwartete Lieferrückstände und einer Budgetbeschränkung für die Lagerkosten wird berücksichtigt, um die Lagerbestände an jedem Punkt zu bestimmen. Notwendige Bedingungen für die Optimalität werden abgeleitet und ähneln dem klassischen Zeitungsjungen-Ergebnis, für das ein richtiger Kompromiss zwischen den Folgen von zu viel und zu wenig Inventar gefunden werden muss.;-;-;-;https://link.springer.com/article/10.1057/jors.1991.7 58fd7a8fd7b4102439e6a0b570688614;de;;;3.1.;;;1 μm dicke gefrorene hydratisierte/getrocknete Schnitte zur Analyse der perizellulären Umgebung in Transportepithelien Neue Ergebnisse aus alten Daten Im Zeitraum 1973–84 führten wir eine Elektronensonden-Röntgenmikroanalyse (EPXMA) von 1/um dicken gefrorenen, hydratisierten Schnitten an einer Vielzahl von ionen- und wassertransportierenden Epitheln durch. Die Instrumentierung und Methodik wurden in einer Reihe früherer Veröffentlichungen beschrieben (Gupta et al., 1977, Gupta und Hall, 1979, 1981b, 1982, Hall und Gupta, 1983). Hall (1986) hat die Vorteile der Verwendung von ∼1/um dicken statt ultradünnen (∼200 nm) Kryoschnitten für EPXMA diskutiert, trotz der begrenzten strukturellen Bildauflösung, die insbesondere in einem Rastermikroskop mit 45–50 keV (JEOL JXA-50A). Die meisten unserer bis 1983 veröffentlichten biologischen Ergebnisse wurden jedoch ohne die Möglichkeit einer vollständigen Röntgendatenreduktion und Umrechnung in mM kg . gewonnen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-74477-8_15 2f24cd8b792bb62f4b4eacef9ab9f3ab;de;;;3.1.;;;Individuelles Digital Rights Management in Multi-Agenten-Informationshandelsgesellschaften Diese Stellungnahme identifiziert eine Reihe zukünftiger Anwendungen von Multi-Agenten-Systemen basierend auf Informationshandelsökonomien für große Filesharing-Anwendungen. Um eine Massenanwenderunterstützung zu erreichen, identifizieren wir die zentrale Anforderung für die Realisierung solcher Anwendungen wie die Darstellung und Verwaltung von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24666-4_10 90bc7da44f561f48a11504c1001afaa2;de;;;3.1.;;;Analyse und Bewertung von Fernunterricht und -lernen in Bezug auf die IKT-Nutzung während der COVID-19-Periode in Bulgarien Der Artikel stellt eine nationale Plattform für den Austausch von Bildungsressourcen im Rahmen eines Projekts des Ministeriums für Bildung und Wissenschaft in Bulgarien im Rahmen der Maßnahmen zur Unterstützung des Bildungsprozesses während der Pandemie des neuen Coronavirus vor. Als Teil des Teams für Entwicklung, Implementierung und Geschäftsanalyse der oben genannten Plattform untersuchen die Autoren die Bereitschaft des Landes, von der Gegenwart zum Fernunterricht zu wechseln, analysieren den Kontext, in dem die Informationstechnologie im Bildungsprozess eingesetzt wird, sowie die Wirksamkeit und Wirkung von die nationale elektronische Bibliothek für gemeinsame Bildungsressourcen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-72660-7_19 565c8467cff9b511678b77706b3d7e8a;de;;;3.1.;;;"Expressionsmuster von Glykokonjugaten in der Netzhaut von Ratten, wie durch Lektin-Histochemie analysiert Die vorliegende Studie versuchte, die Expression und Verteilung komplexer Glykokonjugate in der Netzhaut von Ratten durch Lektin-Histochemie zu charakterisieren, wobei ein Panel von 21 verschiedenen Lektinen mit unterschiedlichen Kohlenhydratspezifitäten verwendet wurde. Paraffinschnitte von Carnoy-fixierten Sprague-Dawley-Rattenaugen wurden mit verschiedenen biotinylierten Lektinen gefärbt, gefolgt von Streptavidin-Peroxidase- und Glucoseoxidase-Diaminobenzidin-Nickel-Färbungsverfahren. Die Ergebnisse zeigten, dass das retinale Pigmentepithel intensiv mit LCA, Jacalin, WFA, S-WGA, PWA, DSA, UEA-I, LTA und PHA-E gefärbt war, was darauf hindeutet, dass dieses Epithel Glykokonjugate mit α-Man, α-Glc . enthielt , &agr;-Gal/GalNAc, &bgr;-GalNAc, &agr;-Fuc, NeuAc und andere Oligosaccharid-Reste. Die äußeren und inneren Segmente der Photorezeptorschicht zeigten unterschiedliche Lektinbindungsaffinitäten. Die äußeren Segmente reagierten mit S-WGA und GS-II, während die inneren Segmente mit UEA-II, UEA-I, LTA und MAA reagierten, was darauf hindeutet, dass die inneren Segmente an α-Fuc und NeuAc (α2,3) reiche Glykokonjugate enthielten. Gal-Rückstände. PNA markierte spezifisch die Zapfen und könnte als spezifischer Marker für diese Photorezeptoren verwendet werden. RCA-I, WFA, S-WGA, DSA, MAA und PHA-E reagierten sowohl mit der äußeren als auch der inneren plexiformen Schicht. Andererseits markierten UEA-I und LTA spezifisch die äußere plexiforme Schicht, während PNA die innere plexiforme Schicht markierte. Die retinalen Mikrogliazellen wurden spezifisch durch GS-I-B . markiert";-;-;-;https://link.springer.com/article/10.1023/A%3A1026032005521 727e309ccedcdeafe482a2f1007a82ea;de;;;3.1.;;;Verwendung eines interaktiven Computeragenten zur Unterstützung des Stillens Mütter brauchen beständige, nachhaltige Informationen und Unterstützung, um ihre persönlichen Stillziele zu entwickeln und zu erreichen, erhalten jedoch oft unzureichende Unterstützung und widersprüchliche und falsche Ratschläge. Der Einsatz von Technologie kann hilfreich sein, um bestehende Stillaufklärungs- und Unterstützungsbemühungen durch medizinisches Fachpersonal zu ergänzen. Wir haben einen computerbasierten animierten, interaktiven Agenten entwickelt und evaluiert, der Stillinformationen und Unterstützung für stillende Mütter bietet. Es wurde eine randomisierte kontrollierte Studie an einem System der ersten Generation durchgeführt, um die Durchführbarkeit (1) des Einsatzes des Computeragenten, (2) des Rekrutierungsplans und (3) der geplanten Ergebnisbewertung (Bewertung der Auswirkungen der Intervention auf die Absicht) zu ermitteln Stillen, Einstellungen zum Stillen und Selbstwirksamkeit des Stillens). Die Pilotstudie (N = 15) zeigte, dass der Einsatz des Computeragenten, der Rekrutierungsplan und die geplante Ergebnisbewertung machbar waren. Mütter, die den Computer Agent verwendeten, hatten nach der Exposition mit dem Agenten größere Absichten, ausschließlich zu stillen (Absicht, 6 Monate lang ausschließlich zu stillen, 1–7-Skala von 6,14 (nach) vs. 5,14 (vor),;-;-;-;https://link.springer.com/article/10.1007/s10995-013-1222-0 9ef9b960a6f056ca8a2aa002322f9c47;de;;;3.1.;;;Überwindung des MPI-Kommunikationsaufwands für die Erkennung verteilter Community Die Community-Erkennung ist ein wichtiger Graph-(Netzwerk-)Analyse-Kernel, der zum Entdecken von Funktionseinheiten und zur Organisation eines Graphen verwendet wird. Die Louvain-Methode ist ein effizienter Algorithmus zum Auffinden von Gemeinschaften. Die sequentielle Louvain-Methode skaliert jedoch nicht auf die entstehenden großflächigen Netzwerkdaten. Parallele Algorithmen, die für moderne Hochleistungs-Computing-Plattformen entwickelt wurden, sind notwendig, um solche Netzwerk-Big Data zu verarbeiten. Obwohl es mehrere auf gemeinsamem Speicher basierende parallele Algorithmen für das Louvain-Verfahren gibt, skalieren diese nicht auf eine große Anzahl von Kernen und auf große Netzwerke. Eine existierende Message Passing Interface (MPI)-basierte Parallelimplementierung mit verteiltem Speicher des Louvain-Algorithmus hat Skalierbarkeit auf nur 16 Prozessoren gezeigt. In dieser Arbeit entwerfen wir zunächst einen Shared-Memory-basierten Algorithmus mit Open MultiProcessing (OpenMP), der eine 4-fache Beschleunigung zeigt, aber nur auf die unserem System verfügbaren physischen Kerne beschränkt ist. Unser zweiter Algorithmus ist ein MPI-basierter paralleler Algorithmus mit verteiltem Speicher, der auf eine moderate Anzahl von Prozessoren skaliert wird. Anschließend implementieren wir einen Hybridalgorithmus, der die Vorzüge sowohl von Shared- als auch Distributed-Memory-basierten Ansätzen kombiniert. Schließlich integrieren wir ein paralleles Load-Balancing-Schema, das zu unserem endgültigen Algorithmus DPLAL (Distributed Parallel Louvain Algorithm with Load-balancing) führt. DPLAL überwindet den Performance-Engpass der bisherigen Algorithmen mit verbessertem Load-Balancing. Wir präsentieren eine vergleichende Analyse dieser parallelen Implementierungen von Louvain-Methoden unter Verwendung mehrerer großer realer Netzwerke. DPLAL zeigt eine etwa 12-fache Beschleunigung und skaliert auf eine größere Anzahl von Prozessoren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-7729-7_6 5190df134104fed7dd4b98cd9a9613d6;de;;;3.1.;;;Ein dezentraler, leichtgewichtiger Blockchain-basierter Authentifizierungsmechanismus für IoT-Systeme Das Internet der Dinge (IoT) ist ein aufstrebendes Paradigma, das von heterogenen Technologien geprägt ist, die aus intelligenten, allgegenwärtigen Objekten bestehen, die nahtlos mit dem Internet verbunden sind. Diese Objekte werden häufig in offenen Umgebungen bereitgestellt, um innovative Dienste in verschiedenen Anwendungsdomänen wie Smart Cities, Smart Health und Smart Communities bereitzustellen. Diese IoT-Geräte produzieren eine enorme Menge an vertraulichen und sicherheitsrelevanten Daten. Daher ist die Sicherheit dieser Geräte sehr wichtig, um die Sicherheit und Wirksamkeit des Systems zu gewährleisten. In diesem Papier wird ein dezentraler Authentifizierungs- und Zugriffskontrollmechanismus für leichtgewichtige IoT-Geräte vorgeschlagen und ist auf eine Vielzahl von Szenarien anwendbar. Der Mechanismus basiert auf der Technologie des Fog Computing und dem Konzept der öffentlichen Blockchain. Die aus den Experimenten gewonnenen Ergebnisse zeigen eine überlegene Leistung des vorgeschlagenen Mechanismus im Vergleich zu einer hochmodernen Blockchain-basierten Authentifizierungstechnik.;-;-;-;https://link.springer.com/article/10.1007/s10586-020-03058-6 bcd214c1adf43cd77b3d1669b360493c;de;;;3.1.;;;Studien über das Tonsystem und die Musik der Japaner Das Berliner Gastspiel der japanischen Theatertruppe des Herrn Kawakami im Herbst 1901 regte uns an, das Tonsystem und die Musik der Japaner eingehender zu studieren, womöglich auf experimenteller Grundlage. Durch das freundliche Entgegenkommen der japanischen Musiker, vor allen der Frau Sada Yakko selbst, gelang es uns, eine größere phonographischer Aufnahmen zu machen, die wir, in europäischen Notenschrift übertragen, im Anhang dieser Studie wiedergeben. Einige Flöten- und Gesangsstücke verdanken wir zwei Herren, die sich Studienhalber in Berlin aufhielten und sich bereit fanden, uns wiederholt (im Psychologischen Institut der Universität) japanische Musik vorzuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-1676-6_1 9dba785d6b95168eca831ba704177bf1;de;;;3.1.;;;Analyse exprimierter Sequenz-Tags bei der Entwicklung von sekundärem Xylem und Spross von ist ein schnell wachsender Baum, der wegen seines schnellen Wachstums, seiner hohen Holzdichte, seiner hohen Faserqualität und seiner guten Anpassungsfähigkeit in tropischen Ländern weit verbreitet ist. Trotz ihrer Bedeutung als Faserquelle in der Zellstoff- und Papierindustrie wurde eine groß angelegte Analyse von Expressions-Sequenz-Tags (ESTs) nicht durchgeführt;-;-;-;https://link.springer.com/article/10.1007/s10086-010-1141-2 fb6cb32eaf1711ec2d8b1ce4e55972dc;de;;;3.1.;;;Energieeffizienzansätze in Archiven und Bibliotheksgebäuden in China Dieser Artikel konzentriert sich auf die jüngste Entwicklung von Energieeffizienzstrategien in chinesischen Archiven und Bibliotheksgebäuden. Da architektonische Gestaltung und Konstruktion einen erheblichen Einfluss auf Innentemperatur und Luftfeuchtigkeit haben, wurden viele Ansätze verwendet, um Temperatur- und Feuchtigkeitsstandards zu erfüllen und die Energieeffizienz zu erhöhen. Zu diesen Ansätzen gehören unter anderem die Verwendung von Verbundmaterialien zur Wärmedämmung und zum Wärmeschutz sowie die strategische Gestaltung von Türen und Fenstern. Dieser Artikel beschreibt die Anwendung energieeffizienter Techniken wie Wärmedämmsysteme von Außenwänden, Energieeffizienz-Türen und -Fenstern, der Zweischeiben-Fenstertechnik, Hauswärmeschutz- und Wärmeschutztechniken, Solaranlagen sowie Klimaanlagen mit Erd- oder Wasserwärmepumpen. In diesem Artikel werden auch umfassende Möglichkeiten zur Steigerung der Energieeffizienz in Archiven und Bibliotheksgebäuden diskutiert, wie beispielsweise Belüftung, Gewächshaustechniken und die Nutzung der Umgebung.;-;-;-;https://link.springer.com/article/10.1007/s10502-013-9214-9 bb9aae0cf488aceaf19cc03c45e40a79;de;;;3.1.;;;Methoden unterschiedlicher Zitier- und Referenzierungsstile: Grundlagen für den wissenschaftlichen Nachwuchs Ein Zitat ist eine Möglichkeit, Einzelpersonen für ihre kreative und intellektuelle Arbeit zu würdigen, die Sie zur Unterstützung Ihrer Forschung verwendet haben. Das Zitat kann verwendet werden, um eine bestimmte Quelle zu identifizieren und Plagiate zu bekämpfen. Indem Sie konsultiertes Material zitieren und auf eine pädagogische Arbeit verweisen, können Sie nicht nur die Ansichten anderer über Fakten in Ihrer Arbeit leichter überprüfen, sondern arbeiten auch auf ethische und ehrliche Weise. Danksagungen können in Form von Textzitaten, Fußnoten, Endnoten und/oder Bibliographien erfolgen. Unterschiedliche Zitier- und Referenzstile gehen auf die spezifischen Bedürfnisse unterschiedlicher Disziplinen ein.;-;-;-;https://link.springer.com/article/10.1007/s12109-020-09726-0 9ad85fc340a077a32a019002d1e81c89;de;;;3.1.;;;Zukunftsperspektiven des Internets Das Internet hat in den letzten Jahren eine rasante, stetig akzelerierende Entwicklungskurve durchlebt. Mehrfach wurde dabei von Kritikern die Befürchtung geäußert, das Netz könnte am eigenen Datenvolumen ersticken, das durch neue Dienste wie Online-Telefonie und multimediale Webseiten immer weiter in die Höhe schießt. Es hat sich gezeigt, dass gerade die kommerzielle Nutzung (die ja mittlerweile den größten .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-58699-6_3 3257e5b4e6c464f596b7685d81ae9491;de;;;3.1.;;;Der Einsatz von Interactive Computing für die Fahrzeugführung Das Vehicle Routeing Problem (VRP) zielt darauf ab, Routen für eine Flotte von Fahrzeugen mit Kapazitätsengpässen zu erhalten, die in geschlossenen Kreisläufen von einem zentralen Depot aus fahren und definierte Warenmengen spezifisch liefern;-;-;-;https://link.springer.com/chapter/10.1007/BFb0006776 5bba5e4308b4feb11f9700a3168d0fea;de;;;3.1.;;;Gower im Winter: Letzte Gedichte n den vielen Gelegenheiten (sicherlich!), wenn wir unsere Augen schließen und John Gower anrufen, beschwören wir wahrscheinlich das Bild, das wir am häufigsten heraufbeschwören, von einem älteren, bärtigen Mann in einem langen Gewand. Abhängig von unserer Vertrautheit mit der Realität der Gower-Forschung könnte diese Robe blau und der Bart mittellang, gegabelt und salzig-pfeffer sein (wie „er“ zusammen mit Bienenstockhut und Langbogen in London erscheint, British Library MS Cotton Tiberius A.iv, Fol. 9;-;-;-;https://link.springer.com/chapter/10.1057/9781137075055_9 6253e1427744ffd989d8bb10aab5798d;de;;;3.1.;;;Die Mißbildungen der männlichen Geschlechtsorgane Die Entwicklung der Geschlechtsorgane ist kaum getrennt von derjenigen der Exkretionsorgane zu behandeln. Wird ja ein Teil der ursprünglichen Ausscheidungsorgane, der Urnieren, beim Manne zu einem wichtigen Bestandteil der ableitenden Samenwege, dem Nebenhodenkopf, der Ausführungsgang der Urniere selbst zum Ausführungsgang der Geschlechtsprodukte, dem Samenleiter. Daher WIRD es hier kaum zu vermeiden sein, einiges, was schon früher gelegentlich der Entwicklung der Ausscheidungsorgane gesagt wurde, abermals zu bringen. Andererseits muß auch bei Besprechung der Entwicklung der äußeren Geschlechtsorgane auf die Entstehung des Enddarms bzw. der Kloake kurz eingegangen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-47997-7_1 b76c3bd2f9017c195334312c5bed1c85;de;;;3.1.;;;Eine Fuzzy-Multilevel-Programmiermethode für hierarchische Entscheidungsfindung Dieses Papier beschreibt eine Fuzzy-Programmiermethode für mehrstufige Programmierprobleme in einer großen hierarchischen Entscheidungsfindungsorganisation. Bei dem vorgeschlagenen Ansatz werden zunächst die Ziele verschiedener Entscheidungseinheiten unscharf beschrieben, indem ihnen jeweils ein ungenaues Zielniveau gesetzt wird. Anschließend werden die definierten Fuzzy-Ziele für die Zielfunktionen und die Kontrollvektoren der übergeordneten Einheiten durch Zugehörigkeitsfunktionen zur Messung des Zufriedenheitsgrades der Entscheidungsträger unterschiedlicher Hierarchieebenen charakterisiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-30499-9_139 4c3430d536bb41e55abcc381345576dd;de;;;3.1.;;;Histoire de la logique floue une approche Sociologique des pratiques de démonstration Cet article aborde la question générale du développement d’une histoire sociale des mathématiques et de la logique, à partir d’un cas historique. Il vise à rendre compte de bestimmten traits de l’histoire récente de la logique floue. À cette fin, il met en œuvre une soziologie des pratiques de démonstration et une approche fondée sur l’analyse matérielle du travail logique, notamment de l’activité d’écriture et de Vorlesung Il esquisse la construction d’une histoire sociale des formes de demonstration.;-;-;-;https://link.springer.com/article/10.1007/BF03181394 b14039529cdbb262e4edaa5a23bbb597;de;;;3.1.;;;Zur Transformation zwischen Direkt- und Fortsetzungssemantik Der Nachweis der Kongruenz zwischen einer direkten Semantik und einer Fortsetzungssemantik ist oft überraschend kompliziert, wenn man bedenkt, dass λ-Terme im direkten Stil automatisch in einen Fortsetzungsstil umgewandelt werden können. Die Umwandlung der Darstellung einer Semantik im direkten Stil in einen Fortsetzungsstil führt jedoch normalerweise dazu;-;-;-;https://link.springer.com/chapter/10.1007/3-540-58027-1_31 e87b22ffb8316feca2c8ac55b154139a;de;;;3.1.;;;Eine Entwicklung eines 3D-Haptic-Rendering-Systems mit dem String-basierten Haptic Interface Device und Vibrationslautsprechern Wir schlagen ein haptisches Rendering-System für ein 3D-Noh-cloth-Modell vor, das auf der Messung mit dem schnurbasierten haptischen Schnittstellengerät und Vibrationslautsprechern basiert. Im Bereich der digitalen Archive sind die hochauflösende Messung, Modellierung und Darstellung des kulturellen Erbes sehr wichtige Elemente. Es ist jedoch nicht erlaubt, wertvolles Kulturerbe im Allgemeinen zu berühren und es ist unmöglich, Parameter dieses Kulturerbes durch eine zusammenhängende Messmethode zu messen. Daher schlagen wir ein neuartiges System vor, um sowohl den taktilen als auch den kinematischen Sinn für 3D-Modelle basierend auf Parametern anzuzeigen des tatsächlichen Modells durch berührungslose Messmethode. Dieses Papier beschreibt eine Messung und Modellierung des Noh-Tuchs mit OGM (Optical Gyro Measuring Machine) und ein Rendering-System für ein 3D-Noh-Tuch-Modell basierend auf der Messung mit dem schnurbasierten haptischen Schnittstellengerät und Vibrationslautsprechern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22819-3_32 b9d8303625db803178cc8b45d2635a7f;de;;;3.1.;;;Das Problem der Strahlführung des Laserplotters Laserplotter werden in der verarbeitenden Industrie verwendet, um Marken und Dekorationen auf die metallischen Oberflächen einiger Produkte und Geräte zu zeichnen. Bei einem gegebenen Muster läuft das Problem der Laser-Plotter-Strahlführung darauf hinaus, einen Laser-Plotter-Strahl so zu lenken, dass die Gesamtzeichnungszeit minimiert wird und einige zusätzliche Anforderungen erfüllt werden. Das Ziel dieses Papiers ist die Modellierung und Lösung des Strahlführungsproblems des Laserplotters als ein eingeschränktes Arc-Routing-Problem. Es werden Rechenergebnisse zu Testproblemen mit bis zu 225 Vertices gemeldet.;-;-;-;https://link.springer.com/article/10.1057/palgrave.jors.2601161 9c753f091ed4ebe92671302d24fd5e87;de;;;3.1.;;;Gegen die 1840er Jahre: Epilog Die Vervollständigung der Geschichte vollzieht sich, wie ich vertraue, in würdiger Weise in zwei Stufen: bis etwa 1837 in § 18.2 und dann schnell bis in die frühen 1840er Jahre in § 18.3. In § 18.2 beschränken sich die Angaben auf Hauptarbeiten und Bücher, so dass die zusammenfassenden Arbeiten, die Behandlung (falls vorhanden);-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-7811-1_18 864563b6a1db7cb01c9fdc4ddb6f3ff1;de;;;3.1.;;;DBrain Portal für kollaborative BioGrid-Umgebung DBrain ist ein Projekt zur Unterstützung von Demenzkranken. Eines der angestrebten Ergebnisse des DBrain-Projekts ist ein Rastersystem, das für die Diagnose, Therapie und Behandlung von Demenzerkrankungen eingesetzt wird. In diesem Beitrag wird eine Studie vorgestellt, um eine kollaborative Umgebung über eine einzige Portalschnittstelle bereitzustellen, um auf alle Ressourcen mehrerer Institutionen in einem Raster zuzugreifen. Benutzer, einschließlich Forscher und Wissenschaftler, müssen sich nur im Portal anmelden. Sie müssen sich nicht bei jeder einzelnen Ressource anmelden, um sie zu verwenden. Das Portal wird auch eine Vielzahl von Grid-Middleware-Plattformen unterstützen. Es wird als Schnittstelle für eine spezielle Netzinfrastruktur namens BioGrid dienen. Diese Art von Gitter wird verwendet, um Computeranwendungen in der Bioinformatik und den biomedizinischen Wissenschaften zu unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22170-5_24 bb1c461ed6eb0d79d1e2f80c555cb48c;de;;;3.1.;;;Werte von Benzol und anderen flüchtigen aromatischen Verbindungen im Blut von Nichtrauchern und Rauchern In venösen Blutproben von 13 Nichtrauchern und 14 Zigarettenrauchern wurden die Konzentrationen von Benzol, Toluol, Ethylbenzol sowie o-, m- und p-Xylol gemessen. Die Blutproben wurden durch eine Purge-and-Trap-Technik, gefolgt von Gaschromatographie/Massenspektrometrie/Computeranalyse, analysiert. Die oben genannten flüchtigen organischen Verbindungen (VOC) konnten in allen Blutproben in messbaren Mengen nachgewiesen werden. Dieser Befund scheint die allgegenwärtige Exposition des Menschen gegenüber diesen Stoffen im städtischen Umfeld, bei Nichtrauchern sowie bei Rauchern widerzuspiegeln. Raucher wiesen signifikant höhere Blutkonzentrationen von Benzol (Median 547 ng/l) und Toluol (Median 2201 ng/l) auf als Nichtraucher (Median 190 ng/l bzw. 1141 ng/l). Auch die Konzentrationen von Ethylbenzol und Xylol waren bei Rauchern tendenziell höher als bei Nichtrauchern. Die unterschiedlichen Konzentrationen dieser Verbindungen im Blut von Nichtrauchern scheinen das gemeinsame Konzentrationsmuster in der Außenluft der Stadt sowie in der Innenraumluft widerzuspiegeln und scheinen auch durch die unterschiedlichen Blut/Luft-Verteilungskoeffizienten dieser Verbindungen beeinflusst zu werden. Die Ergebnisse deuten darauf hin, dass das Rauchen mit einer signifikanten zusätzlichen Exposition gegenüber VOC, insbesondere gegenüber Benzol und Toluol, verbunden ist.;-;-;-;https://link.springer.com/article/10.1007/BF00683121 d83a62a86518d9543da9c399f53443e1;de;;;3.1.;;;Wechselwirkungen von Morphin mit Apomorphin: Verhaltens- und biochemische Studien Die Wechselwirkungen von Morphin mit dem Agonisten an den Dopaminrezeptoren Apomorphin wurden auf Verhaltens- und biochemischer Ebene untersucht. Apomorphin (0,5 mg/kg s.c.) erzeugte ein stereotypes Schnüffeln und ein gewisses Leckverhalten. Die Vorbehandlung mit Morphin verstärkte das Leckverhalten und erzeugte zusätzlich ein gewisses Nagerverhalten, ein Zeichen, das auch nach einer größeren Dosis Apomorphin allein zu sehen ist. Diese Verstärkung durch Morphin war nach 3,3 mg/kg i.p. maximal. und weniger ausgeprägt nach kleineren oder größeren Morphindosen, antagonisierte Naloxon (1 mg/kg i.p.) die Verstärkung. Morphin hatte keinen Einfluss auf die Abnahme der Konzentration von 3,4-Dihydroxyphenylessigsäure (DOPAC), die von Apomorphin im Striatum und Nucleus accumbens produziert wird. Im Gegensatz dazu erhöhte Morphin die Konzentration von 3-Methoxytyramin (3-MT) in beiden Bereichen nach Vorbehandlung mit Pargylin (75 mg/kg ip), was darauf hindeutet, dass es die Freisetzung von Dopamin erhöht, was die Verstärkung der Apomorphin-induzierten Stereotypie erklären könnte Verhalten.;-;-;-;https://link.springer.com/article/10.1007/BF00569385 46cd3cd32838c61ae1dff069812439be;de;;;3.1.;;;Rastermikroskopie von disaggregierten und aggregierten Präimplantations-Mausembryonen Blastomeren, die aus 8- und 16-zelligen Embryonen (d. h. 1/8 und 1/16) isoliert wurden, zeigen eine glatte Oberfläche an ihrem Kontaktpunkt mit anderen Blastomeren und eine mikrovillöse freie Oberfläche. Mikrovilli erscheinen vollständig auf der glatten Oberfläche von 52% von 1/8 Embryonen und teilweise von 88% von 1/16 Embryonen, wenn sie 6 h in vitro kultiviert werden. Wenn 2- bis 8-zellige Embryonen zu 8-zelligen Embryonen aggregiert und nach 1–3 h auseinandergedrückt werden, ist die Kontaktfläche der 8-zelligen Embryonen glatt geworden. Fixierte 8-zellige Embryonen sind auch in der Lage, das vollständige Verschwinden von Mikrovilli auf der Kontaktoberfläche eines lebenden 8-zelligen Embryos zu induzieren. Embryonen mit mehr als 8 Zellen induzieren kein vollständiges Verschwinden von Mikrovilli auf der Kontaktoberfläche von 8-Zellen-Embryonen. Aggregate von späten Morulae zeigen kein vollständiges Verschwinden der Mikrovilli an ihren Kontaktflächen, sondern eine Lockerung ihrer peripheren Blastomeren.;-;-;-;https://link.springer.com/article/10.1007/BF00868145 17d776c71c044d499d9c8c664fbce67e;de;;;3.1.;;;Vergleiche von Dessins d’Objets und Perspektive Cavalière avec un dessin modèle ou avec un objet reél Le travail présenté tente de cerner les schwieriges que rencontrent des adultes de bas niveau scolaire pour lire dessins d’objets enperspektive cavalière selon que l’objet réel est présent ou abwesend. Dans les tâches proposées, les sujets doivent Comparer des Dessins und der Perspektive Cavalière zu einem Dessin-Modèle-Egalement und der Perspektive Cavalière oder einem Objekt-Reel. Une a priori des tâches analysieren montre que les sujets peuvent Comparer Direction les dessins ou se référer aux volume représentés L’analyse des profils de résultats indique que les schwierigés rencontrées par les sujets se situent à différents niveaux: décodage de la troisième dimension, applications de transformations Spatiales comme les coordinations de vue et les rotations mentales. Ces Beobachtungen nous amèment à formuler en Schlussfolgerung quelques propositions didactiques.;-;-;-;https://link.springer.com/article/10.1007/BF03172673 a2e2e63af0bbabf99c66ebf1925769fb;de;;;3.1.;;;Prototypen-Grundlagen JavaScript-Bibliotheken beginnen nicht als Bibliotheken. Sie beginnen als „Helfer“-Skripte. Es ist möglich, aber unpraktisch, DOM-Scripting ohne die Unterstützung einer Bibliothek durchzuführen. Kleine Dinge werden Sie vom ersten Tag an nerven. Sie werden es satt haben, document.getElementById einzugeben, also schreiben Sie einen Alias. Dann werden Sie feststellen, dass Internet Explorer und Firefox unterschiedliche Ereignissysteme haben, also schreiben Sie eine Wrapperfunktion zum Hinzufügen von Ereignissen. Dann werden Sie von einem bestimmten Überblick über die Sprache selbst irritiert, sodass Sie die Erweiterbarkeit von JavaScript verwenden, um Code zu schreiben, um dies zu korrigieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-0502-9_2 458eac6cca4c20aadf063c8ae10304d8;de;;;3.1.;;;Die Verwendung natürlicher Strontiumisotope als Tracer in Umweltstudien Natürlich vorkommende Isotope von Elementen wie Strontium haben sich als gute Werkzeuge erwiesen, um die Vergangenheit zu verfolgen und Prozesse in der Gegenwart zu überwachen. Die Verbreitung und Variation in;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-0261-2_18 b46130b6a5a5da5335a95f82e56ab74d;de;;;3.1.;;;Translationale evidenzbasierte Interventionen in der Osteoimmunologie Wir begannen diese Monographie mit dem Zitieren einer Evidence Report Publication (Nr. 07-E012) der Agency for Healthcare Research and Quality (AHRQ). AHRQ spielt eine führende Rolle bei der Entwicklung des Bereichs, von grundlegenden methodischen Fragen bis hin zur Gestaltung, Einrichtung, Überprüfung und Verbreitung von Registern. AHRQ definiert Register als: „… (a) Patientenregister ist ein organisiertes System, das Beobachtungsstudienmethoden verwendet, um einheitliche Daten (klinische und andere) zu sammeln, um bestimmte Ergebnisse für eine Population zu bewerten, die durch eine bestimmte Krankheit, Erkrankung oder Exposition definiert ist, und dient einem oder mehreren vorgegebenen wissenschaftlichen, klinischen oder politischen Zwecken … Register (werden) für einen oder mehrere der folgenden Zwecke erstellt: den natürlichen Krankheitsverlauf zu beschreiben, die klinische Wirksamkeit oder Kosteneffizienz von Gesundheitsprodukten und -dienstleistungen zu bestimmen, zu messen oder Sicherheit und Schaden zu überwachen und/oder die Versorgungsqualität zu messen….(und) werden nach der Definition ihrer (Patienten-)Populationen klassifiziert…“ (Gliklich und Dreyer 2010).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-9495-0_3 28d7181cd58f18a27dfd19bc2a774fe9;de;;;3.1.;;;Über die Vegetation des Karakorum In diesem ersten Teil Vegetationskundlicher Ergebnisse der Expedition. Der vorliegende Arbeit dient den floristischen Ergebnissen der „Beiträge zur Kenntnis der Flora des Karakorum“ in Bot. Jb. 85, 2 und 3, 1966 als Grundlage.;-;-;-;https://link.springer.com/article/10.1007/BF01955726 740fddc8a7b2205ce27981e4532c44e7;de;;;3.1.;;;Auxin-Decarboxylierung und Isoperoxidasen in Erdbeerstielextrakten Der größte Teil der Peroxidaseaktivität des Erdbeerstiels wird durch Ionenbehandlung und Pektinase-Cullulase-Verdau der Zellwände erhalten: Zwei ionisch – und drei kovalent – ​​gebundene Isoperoxidasen wurden durch Stärkegelelektrophorese getrennt. Es wird eine Technik zur Herstellung eines aktiven IAA-Oxidase-Extrakts beschrieben. Endoxidationsprodukte von Indolessigsäure und Indolacrylsäure scheinen die wirksamsten IAA-Oxidase-Promotoren zu sein.;-;-;-;https://link.springer.com/article/10.1007/BF02921068 50f38d5abdf8d19d46bc1b38196facd0;de;;;3.1.;;;Genres, Themen und Motive, Poetik Die Entzauberung der Welt durch die Aufklärung sowie der Positivismus in Frankreich;-;-;-;https://link.springer.com/chapter/10.1007/978-3-476-05312-1_12 1bc5531b77fd73fd0f2973fd6fef7184;de;;;3.1.;;;Präsentation eines japanischen Kulturereignisses mit virtueller Realität Mit der Entwicklung von Computergrafik und Virtual-Reality-Technologien wurden umfangreiche Forschungen zur digitalen Archivierung von Kulturgütern durchgeführt. In diesem Beitrag stellen wir unsere Arbeit bei der Präsentation eines traditionellen japanischen Kulturereignisses vor, nämlich der Yamahoko-Parade beim Kyoto Gion Festival, unter Verwendung der neuesten Technologien wie 3D-CG-Modellierung, Bewegungserfassung, hochwertige Tonaufnahme, Vibrationssystem, immersive virtuelle Umgebung, und Echtzeit-Interaktion. Diese Arbeit ist Teil des digitalen Museumsprojekts, das die Kultur und Tradition der Stadt Kyoto bewahren und präsentieren will.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-37484-5_7 23818814f67466f6ed90407e3a65192d;de;;;3.1.;;;Artikel A–Z Abtreibung. Schwangerschaftsabbruch ist auch in Afrika eine verbreitete Form der Geburtenregelung. Man schätzt, dass weltweit etwa 15% aller Schwangerschaften in einer Fehlgeburt und 22% in einer A. enden. Von den jährl. Weltweit etwa 50 Mio. A. werden etwa 20 Mio. von Personen ohne sterben Kenntnisse durchgefährt und/oder in einer Umgebung, sterben nicht minimalen Medizin. Standards entspricht. Da fast alle Länder Afrikas A. verbieten oder nur in sehr eng definierten Ausnahmen zulassen (Gefahr für Leben und Gesundheit der Frau, Vergewaltigung), Werden sterben meisten A. unter unzureichenden Bedingungen vorgenommen, Eine Notfallversorgung ist kaum gegeben. Sterben auf jährl, 5 Mio. geschätztes Risiko-A. in Afrika resultieren in einem Vielfachen an gesundheitlichen Folgen. Durchschnittl.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-476-02956-0_1 b474a23246ce7d17544fa2c1b84b6b51;de;;;3.1.;;;Spielerisch zum Erfolg Kurt Naef reiste viel und gerne, sei es privat oder für seine Arbeit. Während einer Reise im Süden Frankreichs Feld ihm ein Möbelgeschäft auf, das sich mit seinem zeitgemässen Sortiment vom Miteinander Durcheinander und Durchschnitt abhob. Er trat sah sich eingehend um und wurde von einer Dame angesprochen, die ihn, wie ihm das alles gefalle. «Sehr gut, etwas ausgezeichnet», war die Antwort, «aber es fehlt mir». Auf die Frage, was dies denn sei, nannte er das Fehlen von Spielsachen. Spielzeug, also die prompte Antwort, das käme nur dann in Frage, wenn es Naef-Spiele wären, aber die seien eben hier in Südfrankreich nicht einfach so erhältlich. Nichts einfacher als das, lachte Kurt Naef und freute sich vor. Die vor ihm stehende Dame war die Geschäftsinhaberin und rasch war man handelseinig.;-;-;-;https://link.springer.com/chapter/10.1007/3-7643-7843-3_4 0febe79deb7edb87b5f5e14bc30c138c;de;;;3.1.;;;Metadatenbearbeitung nach Schema Die Erstellung und Bearbeitung von Metadaten ist eine einigermaßen gut verstandene Aufgabe, die das Erstellen von Formularen, das Überprüfen der Eingabedaten und das Generieren geeigneter Speicherformate umfasst. XML hat sich weitgehend zur Standardspeicherdarstellung für Metadatensätze entwickelt und verschiedene automatische Mechanismen werden zur Validierung dieser Datensätze immer beliebter, einschließlich XML Schema und Schematron. Es gibt jedoch keine Standardmethodik zum Erstellen von Mechanismen zur Datenmanipulation. Diese Arbeit stellt eine Reihe von Richtlinien und Erweiterungen vor, um den XML-Schema-Standard zu diesem Zweck zu verwenden. Die Erfahrungen und Probleme beim Aufbau eines solchen generalisierten strukturierten Dateneditors werden diskutiert, um die Vorstellung zu unterstützen, dass die Metadatenbearbeitung und nicht nur die Validierung beschreibungsorientiert sein sollte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-45175-4_9 149f7d7c794764aa19fa89eab344c1a2;de;;;3.1.;;;Gnowsis Adapter Framework: Strukturierte Datenquellen als virtuelle RDF-Graphen behandeln Die Integration heterogener Datenquellen ist ein entscheidender Schritt für das kommende Semantic Web – wenn vorhandene Informationen nicht integriert werden, woher kommen dann die Daten, auf denen das Semantic Web aufbaut? In diesem Beitrag stellen wir das gnowsis Adapter Framework vor, eine Implementierung eines RDF-Graphensystems, mit dem strukturierte Datenquellen integriert werden können, zusammen mit einem Satz bereits implementierter Adapter, die in eigenen Anwendungen verwendet oder für neue Situationen erweitert werden können. Wir geben einen Überblick über die Architektur- und Implementierungsdetails sowie eine Beschreibung der gängigen Probleme in diesem Bereich und unserer Lösungen und geben einen Ausblick auf die von uns erwarteten zukünftigen Entwicklungen. Mit unseren präsentierten Ergebnissen können Forscher Testdaten für Experimente generieren und Praktiker können auf ihre Desktop-Datenquellen als RDF-Grafik zugreifen.;-;-;-;https://link.springer.com/chapter/10.1007/11574620_72 02a5a1667b9f0eb767b8a52669e94582;de;;;3.1.;;;Art-Entstehung bei einigen Waldvögeln Amazoniens Die Annahme ungestörter Entwicklung der Wald-Fauna Amazonien über lange geologische Zeiträume hinweg ist wahrscheinlich unzutreffend. Der Wechsel von ariden und feuchten Klimaphasen des Quartär führte zu wiederholtem Schrumpfen und nachfolgender Ausdehnung der Regenwälder. Diese überdauerten trockenen Perioden in stark reduzierten feuchten Gebieten, die der Wald-Fauna als „Refugien“ dienten. Hier entstanden zahlreiche Arten und Unterarten von isolierten und reduzierten Populationen amazonischer Waldvögel, sterben bei neuerer Ausdehnung der Wälder mit den Populationen anderer Wald-Refugien in sekundären Kontakt kamen. Die Differenzierung der Vogelfauna Amazoniens ist geologisch sehr jung und wurde relativ rasch, wahrscheinlich auch für die anderen Wirbeltierfaunen dieses Gebietes vergoldet.;-;-;-;https://link.springer.com/article/10.1007/BF01653396 6498d64700137cba134bb3e59c870e93;de;;;3.1.;;;Die Sprache und ihre Störungen Wir haben uns mit dem Titel des Buches die Aufgabe gestellt, die Grundzüge der Sprach- und Stimmheilkunde zu schildern. Dies bedeutet auch für den Buchteil vorerst sterben Notwendigkeit, dem also interessierten und somit noch nicht tiefer in das Gebiet eingedrungenen Lesern sterben wichtigsten Kenntnisse über die Physiologie, Pathologie und Therapie der Sprache zu vermitteln. Es galt daher, die häufigen Krankheitsformen kurz und übersichtlich zu beschreiben. Unserem Plane folgte, wurde wieder auf sterben Verwertung der neuesten Forschungsergebnisse besonderer Wert gelegt. Zusammen mit den gesicherten Erkenntnissen der bisherigen wissenschaftlichen Arbeit sollen sie ein abgerundetes Bild der heutigen Auffassungen bieten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-3462-7_2 08b21a44f1e5c562bb3d2e1e181dae97;de;;;3.1.;;;Weitergabe und Zugriff – Die Kernelemente des deutschen Archivgesetzes Das deutsche Archivgesetz wird durch die Archivgesetze der Bundesrepublik Deutschland und der 16 Bundesländer festgelegt. Kernelemente der deutschen Archivgesetze sind die Übertragung von Unterlagen von Behörden an öffentliche Archive und der Zugriff auf an öffentliche Archive übertragene Unterlagen.;-;-;-;https://link.springer.com/article/10.1007/s10502-004-2272-2 9151ab6c72fcd2bd126367ea7effdd66;de;;;3.1.;;;Named Entity Matching in Publikationsdatenbanken Wir präsentieren eine Fallstudie zum ungefähren Datenabgleich für ein Datenbanksystem, das Informationen zu wissenschaftlichen Publikationen enthält. Der ungefähre Abgleichprozess soll feststellen, ob mehrere Datensätze in der Datenbank tatsächlich wiederholte Instanzen desselben realen Objekts sind. In unserer Fallstudie beschäftigen wir uns mit dem Abgleichen von Objektinstanzen wie XML-Dokumenten, Personennamen, Zugehörigkeiten, Zeitschriftennamen usw. Die speziellen Daten, mit denen wir es zu tun haben, sind eine Darstellung des PubMed Central-Dokumentenkorpus innerhalb des Data Warehouse, das Teil des SONCA-Systems ist. Das SONCA-System wird als eine der Komponenten der allgemeinen wissenschaftlichen Informationsplattform SYNAT entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32115-3_20 5b69ee7ec4f229a6bd85117fdbf7b344;de;;;3.1.;;;Irish Royal Charters und der Zisterzienserorden Dieses Kapitel konzentriert sich auf die lateinischen Urkunden, die von irischen Königen zugunsten von Zisterziensergemeinschaften oder Häusern ausgestellt wurden, die dem Zisterzienserorden angegliedert werden sollten, um die Rolle zu untersuchen, die Zisterzienserhäuser bei der Förderung der Dokumentenproduktion im 12. - und Irland des frühen 13. Jahrhunderts. Die Zahl der erhaltenen irischen königlichen Urkunden ist im Vergleich zu englischen, schottischen oder walisischen Urkunden erbärmlich klein, aber sie geben dennoch wertvolles Licht sowohl auf die Verwendung von Dokumenten als auch auf Aspekte der politischen und religiösen Geschichte dieser Zeit und werfen wichtige Fragen auf, auch wenn viele von ihnen sind wegen der teilweisen Natur der Beweise und der Knappheit der Texte nicht in der Lage, eine sichere Lösung zu finden.;-;-;-;https://link.springer.com/chapter/10.1057/9780230523050_7 dfb289e248787f74364021886812ecca;de;;;3.1.;;;Les jouets poplaires de Pologne—hier et aujourd’hui Une de plus vivantes manifestations de l’art populaire de Pologne sont les jouets. Leur production se maintient indépendemment de la production industriel. Beaucoup d’anciens modèles, de produktionstechniken und de dekoration sont jusqu’à présent utilisés par les artisans ruraux. Le bois bilden die Metière Principale pour la production des jouets.;-;-;-;https://link.springer.com/article/10.1007/BF03174956 01934ded32f6ae139f139d2321297f2e;de;;;3.1.;;;Anreicherung von Reiseführern mit Reiseblog-Einträgen und Archiven mit beantworteten Fragen Reisende, die planen, bestimmte Sehenswürdigkeiten zu besuchen, benötigen Informationen über ihr Reiseziel und verwenden häufig Reiseführer, um diese Informationen zu sammeln. In Reiseführern fehlen jedoch spezifische Informationen, wie zum Beispiel Berichte aus erster Hand von Benutzern, die das bestimmte Reiseziel besucht haben. Um den Mangel an solchen Informationen auszugleichen, haben wir uns auf Reiseblog-Einträge und Archive mit beantworteten Fragen konzentriert. In diesem Papier schlagen wir eine Methode zur Bereicherung von Ratgebern vor, indem die Informationen mit Blogeinträgen und Archiven mit beantworteten Fragen (QA) abgeglichen und ausgerichtet werden. Dies ist eine dreistufige Methode. In Schritt 1 klassifizieren wir Seiten von Ratgebern, Blogeinträgen und QS-Archiven in fünf Inhaltstypen, wie „Anschauen“, „Essen“ usw. In Schritt 2 richten wir jeden Blogeintrag und jedes QA-Archiv mit den Ratgebern aus, indem wir diese Inhaltstypen berücksichtigen. In Schritt 3 gleichen wir jeden Blogeintrag und jedes QA-Archiv mit einzelnen Seiten in Ratgebern ab. Wir haben einige Experimente durchgeführt und die Wirksamkeit unserer Methode bestätigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-28231-2_12 7cbbd81f34899ae758c1479b3c68d925;de;;;3.1.;;;Ein Tor zum Wissen in Taiwans digitalen Archiven Taiwans digitale Archive decken ein breites Spektrum an Kultur- und Naturgütern ab. Seit dem Start des Projekts im Jahr 2002 wurden mehr als 2 Millionen Objekte angesammelt. Da die Zahl und Vielfalt der digitalisierten Objekte rasant zugenommen hat, wird es für die Menschen immer schwieriger, sich ein klares Bild von den Archivinhalten zu machen. Um die reichhaltigen und vielfältigen Ressourcen der Öffentlichkeit zugänglich zu machen, bauen wir eine Wissensstruktur auf, die aus kategorisierten Schlüsselwörtern besteht, die aus den Metadaten von Objekten extrahiert wurden, und entwickeln eine Funktion namens „Tagging Tool“, um ein schnelles und effizientes Mining von Ressourcen zu ermöglichen. Wer beispielsweise einen mit Archivsammlungen angereicherten Artikel lesen möchte, kann mit dem Tool archivspezifische Schlagworte im Text automatisch identifizieren und mit Verweisen auf relevante Quellen versehen. Dadurch können Benutzer viel Zeit bei der Stichwortsuche sparen und verschiedene Entitäten kontextualisieren, z. B. historische Ereignisse und Namen von Personen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04346-8_44 f54ad3ae6f992eeeb6ac5dde43784fd0;de;;;3.1.;;;Das geht nur, wenn wir es gemeinsam tun: Vielversprechende Richtungen für die gemeinsame Schaffung eines gerechten Friedens im israelisch-palästinensischen Kontext Dieses Buch untersuchte psychosoziale Phänomene, die den israelisch-palästinensischen Konflikt aufrechterhalten und stellte fünf Arten von Basisinitiativen vor – Dialoggruppen, Forschungsgruppen, politischer Tourismus, Frauenförderungsgruppen und Gaza/Sderot-Aktivitäten – die darauf abzielen, Bemühungen um einen gerechten Frieden zu unterstützen. Wie durchweg erwähnt, haben mich meine akademischen, Basis- und Lebenserfahrungen in der Region zu dem Schluss geführt, dass der einzige Weg zu einem nachhaltigen Frieden darin besteht, dass Israelis und Palästinenser auf mehreren Ebenen innerhalb mehrerer Gruppen zusammenarbeiten. Darüber hinaus ist es unabdingbar, dass dieses Wissen und diese Arbeit die politischen Führer in unseren Ländern und in der Welt erreicht, die die Macht haben, dauerhafte strukturelle Veränderungen herbeizuführen.;-;-;-;https://link.springer.com/chapter/10.1057/9780230339217_8 254fdde8094a8942da6791e471be70bd;de;;;3.1.;;;Aufzeichnungen heraus und archiviert in: Städte der Frühen Neuzeit als Urheber von Aufzeichnungen und als Gemeinschaften von Archiven Städte in Italien, Deutschland und England erlebten im 12. und 13. Jahrhundert eine biblische Revolution. Die Stadtbücher dienten dem funktionalen und archivarischen Gedächtnis der Stadt und ihrer Bürger. Die Erstellung, Speicherung und Nutzung von Aufzeichnungen waren soziale und kulturelle Praktiken, die in Erinnerungsgemeinschaften eingebettet waren und diese konstituierten. Die Aufzeichnungen wurden neu organisiert und wiederverwendet, wobei der Text in Zeit und Raum innerhalb verschiedener Kommunikationsspektren neu positioniert wurde. Aufzeichnungen, die von Städten in der Geschichte der Frühen Neuzeit erstellt und gepflegt wurden, waren Archive, die Stadtarchive waren Aufzeichnungen.;-;-;-;https://link.springer.com/article/10.1007/s10502-010-9123-0 edcebb46896b574e07ecbac932aee064;de;;;3.1.;;;Synthetisieren von monochromatischen 3D-Bildern durch Mehrfachbelichtungs-Regenbogenholographie mit vertikalem Flächenteilungsansatz Wir berichten zum ersten Mal über die theoretische Analyse und experimentelle Ergebnisse eines Weißlicht-rekonstruierten monochromatischen 3D-Bildes, das Tomogramme durch multiple Rainbow-Holographie mit Vertical-Area-Partition (VAP)-Ansatz synthetisiert. Die theoretischen und experimentellen Ergebnisse zeigen, dass ein monochromatisches 3-D-Bild synthetisiert werden kann, indem das Masterhologramm durch den VAP-Ansatz ohne jegliche Verzerrungen entweder in der Grauskala oder in der geometrischen Position aufgenommen wird. In diesem Beitrag wird zum ersten Mal ein monochromatisches 3-D-Bild präsentiert, das aus einer Reihe von medizinischen Tomogrammen synthetisiert wurde;-;-;-;https://link.springer.com/article/10.1360/02ys9172 2962609a6fb43f5b6e3595b25679f3f1;de;;;3.1.;;;Beziehungen und Perspektiven zwischen Wissenschaftlicher Information und Medizintechnik In den letzten zwanzig Jahren hat die Zahl der Informationstechnologien enorm zugenommen und ihre Qualität rapide verbessert, was die Kommunikation und den Erfahrungsaustausch, insbesondere im Bereich der Biomedizin, erleichtert hat. Ein typischer Informationsproduzent und -konsument ist in der Tat ein Arzt, dessen berufliche Tätigkeit ihn dazu führt, Informationen zu beschaffen, zu verarbeiten und wieder anzubieten, wodurch er immer höhere Kenntnisse erlangt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-1668-8_107 e413eba49b15917b0c9dbf2620f3e66e;de;;;3.1.;;;Notfallwiederherstellung Disaster Recovery gewährleistet die Kontinuität des Betriebs im Falle eines Totalausfalls eines Standorts, der auf eine Naturkatastrophe wie Hurrikan, Feuer oder Überschwemmung, Terrorismus, Unterbrechung der Stromversorgung, Arbeitskampf oder ähnliches zurückzuführen sein kann ein anderes Ereignis, das sich auf das primäre Rechenzentrum auswirken könnte. Ein Disaster-Recovery-Plan umfasst daher mindestens einen sekundären Standort, auf den bei einem Ausfall des primären Standorts der Betrieb übertragen werden kann. Dieser Vorgang wird als Failover bezeichnet.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-0214-1_26 7d859397aa955dc6208a740aebc9a297;de;;;3.1.;;;Ein Astrolab aus dem Jahr 1420 Die Sternstellungen auf dem Rete eines europäischen Astrolabiums aus dem Jahr 1420 und jetzt deutschem Privatbesitz unterstreichen, wie einige mittelalterliche europäische Sterntafeln falsch kopiert und missverstanden wurden. Die Sternkoordinaten und Sternnamen auf dem fraglichen Astrolabium basieren auf der Sternentafel von John of London (1246). Der Stil der Sternzeiger und des Äquinoktialbalkens auf der Rete, einige Inschriften und auch die auf der Alidade eingravierte Sonnenuhr erinnern an das früheste bekannte westlich-islamische Astrolabium. Die Platten sind mit Kurven für den Breitengrad 45° graviert, obwohl die Markierungen für verschiedene Breitengrade stehen.;-;-;-;https://link.springer.com/article/10.1007/BF02913657 820802a106800f9d9174a337d91788cd;de;;;3.1.;;;Überlegungen zur Projektphase für eine inhärent sichere und zuverlässige Chemieanlage Sicherheits-, Betriebs- und Zuverlässigkeitsüberlegungen sind wichtige Komponenten einer chemischen Produktionseinheit. Es ist eine allgemein anerkannte Tatsache, dass das Betriebsteam eine bereits gebaute Anlage erbt und ihre Leistung davon abhängt, wie robust die installierte Anlage ist. Daher ist es wichtig sicherzustellen, dass Sicherheits- und Zuverlässigkeitsfaktoren bereits in der Anfangsphase und in der Projektausführungsphase gebührend berücksichtigt werden. Diese Arbeit untersucht die Faktoren, die die eventuelle Sicherheit-Funktionsfähigkeit-Zuverlässigkeit der Einheit bereits in der Anfangs- und Ausführungsphase beeinflussen. Die Arbeit befasst sich auch mit relevanten Rahmenwerken, Praktiken und Instrumenten, um eine angemessene Abdeckung sicherzustellen. Sicherheits-, Betriebs- und Zuverlässigkeitsüberlegungen während der Anfangs- und Projektphase werden dargestellt, indem eine detaillierte Analyse der Eigenschaften von chemischen Produktionseinheiten durchgeführt wird, wobei bewährte Verfahren und Konzepte empfohlen werden/verwendet werden können. Die relevanten Tools und Praktiken, die für die Studie verwendet werden, sind Engineering Project Process, Process Risk Assessment und Management Tools wie Hazard and Operability (HAZOP) Methodology, Layers of Protection Analysis (LOPA), Safety Integrity Level (SIL) und Management of Change. Schließlich konzentriert sich die Zuverlässigkeitsprüfung, das Design und die Projektimplementierung auf den Bau einer zuverlässigeren Anlage in Bezug auf Ausfallzeiten, hohe Betriebsstunden usw. Verschiedene Werkzeuge und bewährte Verfahren zur Verbesserung der langfristigen Zuverlässigkeit werden diskutiert. Die Arbeit an der Entwicklung eines Prozesses (einschließlich Vorlagen, Methodik) zur Identifizierung von Faktoren, die die langfristige Zuverlässigkeit beeinflussen, ist ein neuer Versuch, der auf den Erfahrungen und Analysen der Autoren basiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-36518-9_17 756db790a832482356da8ca6aba88ef8;de;;;3.1.;;;Kritik an metaphysischen Systemen des 17. Jahrhunderts: Leibniz und Spinoza Leibniz und Spinoza liefern Condillac seine verbleibenden zwei Beispiele für den Missbrauch abstrakter metaphysischer Systeme. Seine Behandlung unterscheidet sich jedoch von der angeborenen Ideen, die er, wie wir gesehen haben, sehr allgemein und ohne Bezug auf ein bestimmtes Werk oder einen bestimmten Autor diskutiert, außer kurz auf die;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-9291-7_4 b095a5802af4b4c2c86537a406e26169;de;;;3.1.;;;Potentielles Z-Fighting-Konflikterkennungssystem in 3D-Level-Design-Tools Z-Fighting ist ein Effekt, der in 3D-Szenen auftritt, wenn zwei koplanare Oberflächen ähnliche Werte im Z-Puffer teilen, was zu Flicking und visuellen Artefakten während des Renderprozesses aufgrund der widersprüchlichen Reihenfolge beim Rendern der Oberfläche führt. Beim 3D-Leveldesign können die von den Tools erstellten Szenen jedoch komplex sein, in denen Leveldesigner versehentlich koplanare Oberflächen platzieren können, die für Z-Fighting anfällig wären. Leveldesigner bemerken das Z-Fighting-Artefakt normalerweise durch visuelle Inspektion durch die Verwendung eines 3D-Walkthrough-Tests vor Ort, der zeitaufwändig und leicht zu übersehen ist. Um das Problem zu lösen, wird ein Vorschlag für ein Z-Kampferkennungssystem für Level-Design-Tools vorgeschlagen, um den Prozess der Erkennung potenzieller Hotspots zu rationalisieren, an denen Z-Kampfkonflikte von koplanaren Objekten auftreten können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46578-3_32 facd0a2c63799c8ea6dcdffb245af60f;de;;;3.1.;;;Ein hybrider Ansatz aus neuronalem Netz und Level-2-Fuzzy-Set Dieses Papier stellt einen neuen Hochleistungsalgorithmus für die Klassifikationsprobleme vor. Die Struktur von A Hybrid Approach of Neural Network und Level-2-Fuzzy-Set, einschließlich zweier Hauptprozesse. Der erste Prozess dieser Struktur ist der Lernalgorithmus. In diesem Schritt wurde die Kombination aus dem mehrschichtigen neuronalen Perzeptronnetzwerk und dem Level-2-Fuzzy-Set zum Lernen angewendet. Die Ausgaben des Lernprozesses werden dem Klassifizierungsprozess unter Verwendung des K-nächsten Nachbarn zugeführt. Die Klassifizierungsergebnisse von Standarddatensätzen zeigen eine bessere Genauigkeit als andere leistungsstarke Neuro-Fuzzy-Methoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46578-3_86 4366d817e7a0e9e3441a56220130d623;de;;;3.1.;;;Ein parametrisches Zungenmodell für animierte Sprache Wir präsentieren ein Zungenmodell zur Verwendung in der computeranimierten Sprache. Das Modell ist in der Lage, Zungenformen während der Produktion von englischen Vokalen und Konsonanten sowie allgemeine Bewegungen der Zunge darzustellen. Geometrisch besteht das Modell aus einer NURBS-Oberfläche mit 60 Kontrollpunkten und einem 8 + 13-Gitter aus bikubischen Patches. Wir präsentieren auch eine Parametrisierung des Modells, die nur 6 Parameter für die Verwendung während der Sprachproduktion benötigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-6344-3_1 75dba5a4de22e2e40b15d0a7355867b2;de;;;3.1.;;;Ein konzeptioneller Rahmen für Probleme in der Elastostatik Bei endlicher Elastizität sind die traditionellen lokalen Randwertprobleme selten geeignet. Häufiger muss man nicht-lokale Umweltbelastungen berücksichtigen. Dieses Papier gibt eine allgemeine Beschreibung von Schemata zur Formulierung solcher nicht-lokaler Probleme. Interessante Beispiele sind Hohlraumprobleme, von denen ich als Sonderfälle Basketball- und Reifenprobleme nenne. Die eigentliche Lösung dieser Probleme überlasse ich zukünftigen Arbeiten.;-;-;-;https://link.springer.com/article/10.1007/s10659-010-9301-6 2d77cbde18a004b7ef48c5a3c1a7153f;de;;;3.1.;;;Datenstrukturen in multi-objektiven evolutionären Algorithmen Datenstrukturen, die für einen Algorithmus verwendet werden, können einen großen Einfluss auf seine Leistung haben, insbesondere bei der Lösung großer und komplexer Probleme, wie z. Multi-Objective Evolutionary Algorithmen (MOEAs) gelten als attraktiver Ansatz zur Lösung von MOPs, da sie mehrere Teile der Pareto-Front gleichzeitig erforschen können. Die Datenstrukturen zum Speichern und Aktualisieren von Populationen und nicht dominierten Lösungen (Archiven) können die Effizienz des Suchprozesses beeinträchtigen. Dieser Artikel beschreibt Datenstrukturen, die in MOEAs zur Realisierung von Populationen und Archiven verwendet werden, auf vergleichende Weise, wobei deren Rechenanforderungen und allgemeine Anwendbarkeit hervorgehoben werden, über die in der Originalarbeit berichtet wird.;-;-;-;https://link.springer.com/article/10.1007/s11390-012-1296-y 2d186abe4c981fc144ba30f6227a5f5c;de;;;3.1.;;;Extrakorporale Membranoxygenierung (ECMO) und das akute Atemnotsyndrom (ARDS): eine systematische Überprüfung präklinischer Modelle Die extrakorporale Membranoxygenierung (ECMO) ist ein zunehmend akzeptiertes Mittel zur Unterstützung von Patienten mit schwerem akutem Atemnotsyndrom (ARDS). Angesichts der mit ARDS verbundenen hohen Sterblichkeit wurden zahlreiche Tiermodelle entwickelt, um die translationale Forschung zu unterstützen. Wo ARDS mit ECMO kombiniert wird, sind Modelle weniger gut charakterisiert. Daher haben wir eine systematische Literaturrecherche von Tiermodellen durchgeführt, die Merkmale von experimentellem ARDS mit ECMO kombiniert, um diese Situation besser zu verstehen.;-;-;-;https://link.springer.com/article/10.1186/s40635-019-0232-7 e7e75c1c5c3a7b358bc939a2aefea6de;de;;;3.1.;;;Internationale Praxis Um herauszufinden, ob Kulturmanager in ihrer täglichen Arbeit tatsächlich von Globalisierung und Internationalisierung betroffen sind, oder ob es sich hierbei um eine akademische Diskussion handelt, sterben einen solchen Effekt auf den Sektor und die dortigen Aktivitäten herbeireden, wurde im Oktober und November 2015 eine Fragebogenstudie durchgeführt . Mittels eines Online-Bogens in deutscher und englischer Sprache wurden 352 Kulturmanager aus 46 Ländern befragt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-14773-0_2 20cf620bbd844b95b60831bc1848fe36;de;;;3.1.;;;Nachfrageprognose für Elektrofahrzeug-Sharing-Systeme unter Verwendung des Bewegungsverlaufsarchivs Dieses Papier erstellt ein Nachfragevorhersagemodell für die gemeinsame Nutzung von Elektrofahrzeugen auf der Grundlage des Standortverlaufsarchivs, das von einem Taxi-Telematiksystem in der Region Jeju gesammelt wurde, das derzeit verschiedene Geschäftsmodelle im intelligenten Verkehr hostet und testet. Für eine Reihe von Sharing-Stationen, die von unserem Analysetool virtuell platziert wurden, verfolgt unser Experiment die Anzahl der verfügbaren Elektrofahrzeuge an jeder Station gemäß den Erfassungen von Abhol- und Abgabeereignissen. Zur besseren Vorhersage werden die verfolgten Ergebnisse mit künstlichen neuronalen Netzen modelliert, indem jeder Bedarf der letzten 5 Stunden als Eingabe und der nächste als Ausgabewert genommen wird. Der Bewegungsdatensatz wird in Lernmuster umgewandelt und die Bibliotheksfunktionen des neuronalen Netzes werden zum Musterlernen, Netzerstellung und Vorhersageerzeugung aufgerufen. Immerhin weist das Modell für den internationalen Flughafenbereich eine Genauigkeit von 96 % auf, was die Entwicklung eines genauen Fahrzeugverlagerungs- und Managementalgorithmus ermöglicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35248-5_17 88cbb1fcfc9e6ff9ca185726fe886f9f;de;;;3.1.;;;Kapitel H Menschen, die Kryptographie verwenden Stars und Sternchen, Koryphäen und Würdenträger aller Szenen haben sich in der Kryptographie versucht oder sie irgendwie für ihre Zwecke genutzt. Dieses Kapitel erzählt einige Anekdoten über nicht-professionelle Benutzer der Kryptographie. Einige von ihnen sind für ihre Heldentaten in einem anderen Bereich bekannt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-48425-8_20 2f1569c9ef98888d4a755d5dfe95d249;de;;;3.1.;;;Ein verteilter Ansatz für die gleichzeitige Passwortwiederherstellung archivierter Dateien Das Komprimieren von Dateien ist aus mehreren Gründen eine gängige Praxis, z. B. um zusammengehörige Dateien zur einfachen Handhabung in einem Archiv zu speichern oder wertvollen Speicherplatz zu sparen. Darüber hinaus wird die Verschlüsselung komprimierter Dateien aus Datenschutz- und Sicherheitsgründen dringend empfohlen, aber der Verlust des Verschlüsselungskennworts führt zum Totalverlust der Originaldaten. Für Kryptoanalysezwecke kann es auch erforderlich sein, mit verschlüsselten komprimierten Daten zu arbeiten. In diesem Whitepaper beschreiben wir eine verteilte Implementierung für die gleichzeitige Passwortwiederherstellung archivierter Dateien im Zip-Format, einem der beliebtesten Arten von verschlüsselten komprimierten Archivdateien. Die Ergebnisse der Beispielimplementierung, nämlich der Distributed Password Recovery Platform (DPRP), zeigen, dass wir eine datenunabhängige, skalierbare Implementierung mit optimaler Domänenzerlegung und Kommunikationsaufwand erreicht haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-85437-3_71 9dbfc269aa24d7136dd63e1b1b792288;de;;;3.1.;;;Numerische und experimentelle Methoden zur Dosimetrie von HF-Strahlung: einige aktuelle Ergebnisse Beträchtliche Fortschritte wurden bei der Entwicklung numerischer Methoden zur Dosimetrie der Exposition bei elektromagnetischen Feldern von extrem niedrigen Frequenzen (ELF) bis hin zu Mikrowellenfrequenzen erzielt. Obwohl die Fmite-Difference-Time-Domain-(FDTD)-Methode ausgiebig verwendet wurde, gibt es mehrere andere Methoden, insbesondere die Methode der Momente (MOM), die konjugierte Gradienten-Fast-Fourier-Transformation (CG-FFT) und die quasi-statische Impedanz oder Admittanzverfahren wurden auch für eine Reihe von Expositionsbedingungen verwendet [1–3]. Parallel zur Entwicklung dieser Methoden wurden auch anatomisch basierte Modelle des menschlichen Körpers mit zunehmender Auflösung entwickelt, zunächst aus anatomischen Schnittdarstellungen und neuerdings aus MRT-Aufnahmen lebender Menschen [1–5] oder Leichen wie „sichtbare“ Mann“ und „sichtbare Frau“, die von der National Library of Medicine entwickelt wurden. Mit dem Aufkommen von PCs mit größerem Speicher, Rechenarbeitsplätzen und Parallelprozessoren ist es möglich, anatomisch basierte Ganzkörpermodelle mit Auflösungen in der Größenordnung von wenigen Millimetern z.B. 2 х 2 х 3 Auflösungsmodell des menschlichen Körpers [6] und Submillimeter-Auflösungsmodelle für Teilkörperaufnahmen, z.B. Kopf und Hals bei drahtlosen Telefonen [7]. Auch anatomisch basierte Modelle der häufig verwendeten Tiere wie Ratte und Rhesusaffen werden entwickelt [8] und wegen der Bedeutung solcher Probanden für Laborexperimente für dosimetrische Berechnungen verwendet [9].;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4191-8_15 8978e938032d500c326b7b62f475803e;de;;;3.1.;;;Ein neues probabilistisches digitales Signaturschema basierend auf dem ganzzahligen Faktorisierungsproblem Der RSA-Algorithmus ist von Natur aus deterministisch und weist daher einige Implementierungsfehler auf. Unter Berücksichtigung dieser Tatsache schlugen Bellare und Rogway ein probabilistisches digitales Signaturschema für RSA mit strengen Sicherheitsbestimmungen vor (behandelt effizient Implementierungsfehler). Laut RSA-Labors wird die Zeitkomplexität der Signatur jedoch weiter zunehmen, solange das Problem schwieriger wird und der Modulus ungefähr 2048 Bit beträgt.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0557-2_60 5166de8e94225818d44a2f462683cb1c;de;;;3.1.;;;IV SARCOPTERYGII, Fleischflosser Unter den rezenten und fossilen Fischen sind die Sarcopterygier durch fleischige Loben an den paarigen Flossen charakteristisch. Fossil gehen sie bis in das Obere Silur (vor 420 Mio. Jahren) zurück.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-55436-0_16 1e89b82db3f634239aedb8a65a7b16b5;de;;;3.1.;;;Automatisierte Klassifikation von Röntgenaufnahmen des Brustkorbs mit Krafthistogramm Um ein computergestütztes Diagnosesystem (CAD) voranzubringen und/oder zu vereinfachen, sind Bildansichtsinformationen des Thorax-Röntgenbildes (CXR) erforderlich. Mit anderen Worten, die Trennung der CXR-Bildansicht: frontal und lateral kann als entscheidender Schritt für effektive Folgeprozesse angesehen werden, da die Techniken, die für frontale CXRs funktionieren, möglicherweise nicht gleichermaßen für laterale funktionieren. Mit dieser Motivation präsentieren wir in diesem Artikel eine neuartige maschinelle Lerntechnik zur Klassifizierung frontaler und lateraler CXR-Bilder, bei der wir ein Krafthistogramm zur Extraktion von Merkmalen einführen und drei verschiedene hochmoderne Klassifikatoren anwenden: Support Vector Machine (SVM ), Random Forest (RF) und Multi-Layer-Perceptron (MLP). Wir haben unsere vollautomatische Technik an einem Satz von 8100 Bildern validiert, die von der National Library of Medicine (NLM) und den National Institutes of Health (NIH) gehostet werden, und eine Genauigkeit von nahezu 100 % erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-4859-3_30 c02dfac4eedcb107c127e8faed05aec7;de;;;3.1.;;;Angular relational Signatur-basierte Klassifikation der Röntgenbildansicht des Brustkorbs In einem computergestützten Diagnose-(CAD)-System, insbesondere für Thorax-Röntgen- oder Thorax-Röntgen(CXR)-Screening, sind CXR-Bildansichtsinformationen erforderlich. Die automatische Trennung von CXR-Bildansicht, frontal und lateral kann den nachfolgenden CXR-Screening-Prozess erleichtern, da die Techniken möglicherweise nicht für beide Ansichten gleichermaßen funktionieren. Wir präsentieren eine neuartige Technik zur Klassifizierung frontaler und lateraler CXR-Bilder, bei der wir eine winkelrelationale Signatur durch ein Krafthistogramm einführen, um Merkmale zu extrahieren und drei verschiedene hochmoderne Klassifikatoren anzuwenden: mehrschichtiges Perzeptron, Random Forest und Support Vector Machine eine Entscheidung treffen. Wir haben unsere vollautomatische Technik an einem Satz von 8.100 Bildern validiert, die von der U.S. National Library of Medicine (NLM) und den National Institutes of Health (NIH) gehostet werden, und eine Genauigkeit von nahezu 100 % erreicht. Unsere Methode übertrifft die modernsten Methoden in Bezug auf die Verarbeitungszeit (weniger oder nahe 2 s für die gesamten Testdaten), während die Genauigkeiten verglichen werden können, und rechtfertigt daher ihre Praktikabilität.;-;-;-;https://link.springer.com/article/10.1007/s11517-018-1786-3 2c525bd4da0e5f03f350a42e35b3c9f0;de;;;3.1.;;;Zuckerbindungseigenschaften der vitellogenen Proteine ​​im Kartoffelkäfer, nachgewiesen durch Hämagglutinations- und Fällungsexperimente Die Zuckerbindungseigenschaften von 2 wichtigen vitellogenen Proteinen in der Kartoffelkäfer-Hämolymphe wurden durch Hämagglutinations- und Präzipitationsexperimente gezeigt. Die Agglutination menschlicher roter Blutkörperchen durch die Hämolymphe von sich fortpflanzenden Weibchen wurde unabhängig von der Blutgruppe bis zu einer Hämolymphverdünnung von 1/256 beobachtet. Sie stieg nach Trypsinierung der Krythrozyten signifikant an. Vitellogenin 1 wurde als Hämagglutinin identifiziert. Hämagglutinations- und Hämagglutinationshemmungstests zeigten, dass dieses Protein eine geringe Affinität zu Hexosaminen und eine höhere Affinität zu sulfatierten Polysacchariden aufweist. Ausfällungstests zeigten, dass neben Vitellogenin ein weiteres wichtiges Dotterprotein, Chromoprotein 2, mit sulfatierten Polysacchariden reagiert. Die Möglichkeit einer spezifischen Reaktion der vitellogenen Proteine ​​mit wohldefinierten Sacchariden auf der Oozytenoberfläche wird diskutiert. Diese lektinartige Reaktion kann die Selektivität der Dottervorläufer-Endocytose erklären.;-;-;-;https://link.springer.com/article/10.1007/BF00848330 be9a3943b2e9914db6bb2b4a5b1eebf7;de;;;3.1.;;;Das Experiment der Informationsaustauschgruppen Von 1961 bis 1966 betrieben die National Institutes of Health eine Einrichtung zur schnellen Verteilung unbewerteter Preprints an Forscher – ein offensichtlicher Vorläufer vieler Aktivitäten, die heute im Internet stattfinden. Das Experiment begann mit 32 Forschern in einer einzigen Informationsaustauschgruppe (IEG). Sie wuchs auf sieben IEGs mit insgesamt über 3600 Mitgliedern an. Im Jahr 1966 wurden mehr als 1,5 Millionen Exemplare von Vordrucken hergestellt und verteilt. Unter den Forschern, die die Geschwindigkeit der Verbreitung schätzten, wurde beträchtlicher Enthusiasmus geweckt. Kritiker werfen vor, dass sich die Qualität des durchschnittlichen Preprints mit zunehmender Beteiligung verschlechtert. Sie stellten auch fest, dass die ungeplanten Produktionsbelastungen den Eingang der Vorabdrucke oft verzögert hatten, bis sie als formal begutachtete Zeitschriftenpapiere erschienen waren. Während dieser Zeit hatte die Atomenergiekommission ein ähnliches experimentelles Programm für „schriftliche informelle Mitteilungen“ ins Leben gerufen, das sich auf die theoretische Hochenergiephysik beschränkte.;-;-;-;https://link.springer.com/article/10.1007/BF02680369 d9a1bceace29fb77ff5dc15acade1a46;de;;;3.1.;;;Des carêmes après le Carâme stratégies de convert et fonctions politiques des missions intérieures en Espagne et au Portugal (1540–1650) L’absence de travaux sur les missions intérieures en Espagne et au Portugal;-;-;-;https://link.springer.com/article/10.1007/BF03182214 2d5fe956964909b1d48841c5f447c6b5;de;;;3.1.;;;Zur dominanzbasierten multiobjektiven lokalen Suche: Design, Implementierung und experimentelle Analyse zu Dispositions- und Reiseverkehrsproblemen In diesem Artikel werden einfache lokale Suchansätze zur Approximation des effizienten Satzes von kombinatorischen Optimierungsproblemen mit mehreren Zielen diskutiert. Wir konzentrieren uns auf Algorithmen, die durch eine Nachbarschaftsstruktur und eine Dominanzrelation definiert sind und die ein Archiv nicht dominierter Lösungen iterativ verbessern. Solche Verfahren werden als dominanzbasierte lokale Mehrzielsuche bezeichnet. Wir geben zunächst einen kurzen Überblick über bestehende Algorithmen und schlagen ein Modell vor, das versucht, sie durch eine feinkörnige Zerlegung zu vereinheitlichen. Die wichtigsten problemunabhängigen Suchkomponenten Dominanzrelation, Lösungsauswahl, Nachbarschaftsexploration und Archivierung werden weitgehend diskutiert. Dann wird eine Reihe von modernen und originellen Strategien zur Lösung eines Permutations-Flowshop-Scheduling-Problems und eines Travelling-Salesman-Problems sowohl in einer Zwei- als auch in einer Drei-Ziel-Formulierung erprobt. Experimentelle Ergebnisse und ein statistischer Vergleich werden in dem Papier berichtet und einige Richtungen für zukünftige Forschungen werden hervorgehoben.;-;-;-;https://link.springer.com/article/10.1007/s10732-011-9181-3 f9c3b6c1ed7df09cb6f4087a85ad7097;de;;;3.1.;;;Eine Einführung in universelle zentrale Erweiterungen von Lie-Superalgebren Wir geben eine Einführung in die Theorie der universellen zentralen Erweiterungen von Lie-Superalgebren. Insbesondere zeigen wir, dass eine Lie-Superalgebra genau dann eine universelle zentrale Ausdehnung hat, wenn sie perfekt ist. Wir betrachten auch die Frage der Aufhebung von Automorphismen und Ableitungen auf die universelle zentrale Erweiterung und beschreiben die universelle zentrale Erweiterung eines semidirekten Produkts.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0235-3_10 17c4cf340c2d6d3d03e5d744b5362774;de;;;3.1.;;;Negative Emotionen und oberflächliche soziale Verarbeitung In zwei Studien wurde untersucht, ob negative emotionale Erregung die Tendenz erhöht, soziale Informationen weniger sorgfältig zu verarbeiten. In beiden Studien handelte es sich bei den Probanden um Zahnpatienten, die auf eine Füllung von einem studentischen Zahnarzt warteten. In Studie 1 reagierten 48 Probanden auf illusorisches Korrelationsmaterial, das von Hamilton & Rose (1980) übernommen wurde. Erwartungsgemäß zeigten Personen über dem Median der selbst berichteten Angst eher illusorische Korrelationseffekte als Personen mit geringer Angst. In Studie 2 wurde das Angstniveau manipuliert. Vierunddreißig Zahnpatienten wurden angewiesen, eine überzeugende Botschaft kritisch zu bewerten, nachdem sie entweder eine grafische Beschreibung ihres bevorstehenden Eingriffs oder Informationen zum Füllstoff erhalten hatten. Erwartungsgemäß wurden die Nachrichtenbewertungen von ängstlichen Probanden stärker von oberflächlichen Hinweisen (Publikumsapplaus) und weniger von zentralen Hinweisen (Nachrichteninhalt) beeinflusst als die Nachrichtenbewertungen von Probanden, die eine zumindest mäßige bis hohe anfängliche Angst vor der Zahnbehandlung angaben zu Beginn des Studiums. Theoretische und soziale Implikationen werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF00992970 add1cc439eddd749c7cf441cbead5d84;de;;;3.1.;;;Muster der Wissenschaftskommunikation: Die Rolle der informellen Literatur Der Informationstransfer ist ein untrennbarer Bestandteil von Forschung und Entwicklung. Alle an der wissenschaftlichen Forschungsarbeit Beteiligten haben die Verantwortung für diesen Transfer ebenso zu übernehmen wie für ihre Forschungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-1668-8_11 8a317cdd7b14f0ac1499cedb5a1941bf;de;;;3.1.;;;Die Mamlūks, letzte mittelalterliche Dynastie der arabischen Welt Anders als muslimische Annalen ist der Aufstieg und Wohlstand einer Dynastie wie der Mamlūk kaum vorstellbar. Sogar in diesen Annalen ist es höchst bemerkenswert, fast einzigartig. Die Mamlūks waren, wie der Name schon sagt,;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-15402-9_47 bd25feae2f69a48ab0d82a771f64a07b;de;;;3.1.;;;"Tennyson, Coleridge und die Cambridge-Apostel Das Meer ist in der Schrift des 19. Jahrhunderts nicht präsent – ​​insbesondere dort, wo sie sich den ultimativen Fragen der menschlichen Existenz nähert. Von Matthew Arnold, der in seine eigene sichere Identität eingeschlossen ist, aber zwischen sich und anderen ""das ungeklärte, salzige, fremde Meer"" sieht, bis hin zu Tennyson, dessen Ulysses das tiefe Stöhnen mit vielen Stimmen hört, aber seine Kameraden mannhaft hervorführt, ohne zu wissen, was seine Schicksal sein wird, ist es ein bewährendes Bild, das menschliche Ansprüche und Themen auf die Probe stellt. Sogar diejenigen, die sich in schwierigen Zeiten an die historische Kirche wandten, um Sicherheit zu erhalten, sahen darin in der alttestamentlichen Typologie die Arche, die sie durch die Wellen der intellektuellen Fragen führen würde, die in ihrer Zivilisation immer höher zu schlagen begannen.";-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-22371-8_1 39f106c95948a150f44821dfcc8dbbe7;de;;;3.1.;;;Verbindungen des Kohlenstoffs Bei den in diesem Abschnitt aufgeführten „Verbindungen“ handelt es sich um massenspektrometrisch nachgewiesene Molekelionen, deren Lebensdauer Somit bei mindestens 10;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-13334-7_1 df233ca529c892a7fffaafad6ed4a322;de;;;3.1.;;;Aufzeichnungen in der Kommunalverwaltung in Norwegen 1950–2000 In den skandinavischen Ländern erbringen lokale Regierungsbehörden einen großen Teil der öffentlichen Dienstleistungen und haben einen großen Einfluss auf die Gesellschaft. Sie werden in der Archivforschung selten berücksichtigt. In diesem Beitrag werden die Praktiken der kommunalen Aufzeichnungen in Norwegen 1950–2000 erörtert, wobei der Schwerpunkt darauf liegt, wie die administrativen, rechtlichen und technologischen Faktoren den Inhalt und die Strukturen der Archive beeinflusst haben können.;-;-;-;https://link.springer.com/article/10.1007/BF02435659 26988d50028258f1999590abd5c176bb;de;;;3.1.;;;Roter Stern zu Roter Löwe: Die sowjetische Militärkartierung von Oxford Im Rahmen ihres globalen militärischen Kartierungsprojekts erstellte die Sowjetunion Karten vieler Teile der Welt in verschiedenen Maßstäben von 1:1.000.000 bis 1:5000. Dazu gehören allgemeine Karten für die militärische Planung und Geländebewertung sowie hochdetaillierte Straßenpläne von Städten, einschließlich Oxford. Der sowjetische 1:10.000-Plan der Stadt wurde 1972-1973 in der Sowjetunion im Geheimen erstellt, entworfen und gedruckt. Es zeigt sich, dass ein hohes Maß an Informationen über die Lage und Funktion von Gebäuden gesammelt wurde, von den Fabriken Morris Motors und Pressed Steel Fisher in Cowley bis zum Oxford Prison und dem Central Post Office im Stadtzentrum. Zu den Anomalien zählen das Weglassen der Marston Ferry Road (die 1971 eröffnet wurde) und die Einbeziehung der beiden Gastanks in St. Ebbe (die 1968 abgerissen wurden). Weiter entfernt enthält die Darstellung von RAF Upper Heyford auf der sowjetischen topografischen Karte im Maßstab 1:50.000 von 1981 Details, die auf den zeitgenössischen Ordnance Survey-Karten nicht gezeigt werden. Dieses Kapitel konzentriert sich auf die sowjetische Kartierung von Oxford und seiner Umgebung und bietet einige neue Einblicke in das globale Projekt und reflektiert die Errungenschaften, Methoden und den angeblichen Zweck dieses beispiellosen kartographischen Unternehmens.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-23447-8_8 9e0cb511a9ce06493bc82bc6542ca44f;de;;;3.1.;;;Dialektvariation in Kentucky: Eastern Kentuckian Perceptions Die Appalachen, die sich nach verschiedenen Definitionen von New York bis Mississippi erstrecken und möglicherweise Teil der Landschaft von 13 verschiedenen Staaten sind, sind vielen Amerikanern als Heimat einer einzigartigen kulturellen und sprachlichen Erfahrung bekannt. Die Sprache der Appalachen wird jedoch von diesen Amerikanern normalerweise nicht geschätzt, da sie von Außenstehenden seit langem lächerlich gemacht wurde. Solcher Spott hat sogar einige Appalachen selbst dazu gebracht zu glauben, dass ihr Platz in der sprachlichen Hierarchie Amerikas ganz unten ist. Regionaler Stolz taucht jedoch in Appalachen auf neue und aufregende Weise auf, und dieses Kapitel untersucht unter Verwendung eines perzeptuellen Dialektologie-Rahmens, wie Appalachen den Spieß umdrehen können, indem sie nicht nur Stolz auf ihre lokale Sprache zeigen, sondern auch Abneigung gegenüber anderen Varietäten, die sie wahrnehmen. Daten von Einwohnern von Ost-Kentucky in Form von Mental Maps und Umfragen zu Spracheinstellungen werden hier präsentiert, um zu zeigen, was und wo ihrer Meinung nach Appalachen-Varietäten existieren, welche Einstellungen sie gegenüber solchen Varietäten haben, welche anderen Varietäten in dem Staat sie wahrnehmen und ihre Überzeugungen über diese Sorten als auch. Die Ergebnisse deuten darauf hin, dass, während bestimmte Merkmale wie Bildung immer noch an urbanere Gebiete wie Louisville und Lexington gebunden sind, die Appalachen glauben, dass ihre eigene Vielfalt angenehm und schön ist und die Sprache der Region mit Vorstellungen von Kultur, Erbe, Heimat und Familie verbindet.;-;-;-;https://link.springer.com/referenceworkentry/10.1007/978-3-319-73400-2_22-1 82b08e69283fa9b4c152f5099a470660;de;;;3.1.;;;Multi-Objective-Testsuite-Optimierung für Event-B-Modelle Event-B ist ein Formalismus, der zur Modellierung und zum Nachweis der Konsistenz komplexer Systeme verwendet wird. Die Methoden zur Generierung von Testsuiten wurden kürzlich als Forschungsthema eingeführt. In diesem Beitrag wird das Optimierungsproblem der Multi-Objective-Testsuite für Event-B-Tests vorgestellt. Bei realen Testproblemen gibt es jedoch viele Optimierungskriterien. Vor diesem Hintergrund werden sechs spezifisch multiobjektive Optimierungsprobleme der Testsuite formuliert. Zur Lösung werden zwei moderne multi-objektive evolutionäre Algorithmen verwendet: NSGA-II [6] und SPEA-2 [18]. Die Experimente wurden mit fünf Testsuiten durchgeführt, die aus zwei industriell inspirierten Event-B-Modellen (fünf verschiedene Maschinen) generiert wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25327-0_47 5e59a95c0ac547b5598612872a7e1516;de;;;3.1.;;;„Das Zeitalter der Unzufriedenheit“: Griechische Veröffentlichungen durch sechs Jahre Sparpolitik Die Auswirkungen der Wirtschaftsrezession 2010–2015 auf den griechischen Verlagsmarkt waren auf jeden Fall dramatisch und haben sich auf Struktur, Betrieb, Quantität und Qualitätsmerkmale ausgewirkt. Interessant zu untersuchen ist dabei die Reaktion des Verlagsumfelds auf den wirtschaftlichen Abschwung in Form von Widerstandsfähigkeit, Anpassung, Innovation und Wandel innerhalb der Branche. Während die „Krise“ schwerwiegendere Folgen für die Firmen an der Spitze hatte, die oft (aber nicht immer) mit Medienkonzernen verbunden waren, erwiesen sich die erfahrenen, spezialisierten kleinen und mittleren Verlage und Buchhändler als widerstandsfähiger und unterstützten eine dynamische und diversifizierte Produktion innerhalb weniger Bücher veröffentlicht. Die Zahl der neuen Buchtitel wurde zwischen 2008 und 2012 um 35 % reduziert, gefolgt von Anzeichen einer weiteren Eindämmung. Gleichzeitig sind eine Reihe kleiner, unabhängiger Buchhändler entstanden, um die ausgeprägten Qualitätsmerkmale der literarischen Produktion auf der Grundlage des Dienstleistungsmodells „persönliche Qualität“ zu unterstützen. Ungefähr 8 % der Griechen können zu den „mittleren bis systematischen“ Lesern gezählt werden (dh sie lesen mehr als 10 Bücher pro Jahr), sie sind diejenigen, die das Volumen und die Vielfalt der Buchtitelproduktion unterstützen, einschließlich einiger der Bestseller, der Ausbruch der Krise ging einher mit einer positiven Entwicklung hin zur schwächeren Leserschaft. Das internationale Interesse an den wirtschaftlichen Umständen in Griechenland hat in gewissem Maße dazu beigetragen, Rechte an literarischen Werken zu exportieren, die entweder die betroffenen Personen betreffen oder die Gründe für den Zahlungsausfall analysieren. Gleichzeitig kann sich die digitale Innovation als Zeichen für eine sich verändernde Buchverlagsbranche erweisen, die nach Internationalität strebt.;-;-;-;https://link.springer.com/article/10.1007/s12109-016-9497-9 ab304eccea6b2d72a896b5f8da5f32f1;de;;;3.1.;;;Praxis der digitalen Erhaltung von Metadaten für audiovisuelle Materialien Bewegtbildobjekte können aufgrund ihrer Zusammensetzung, Erstellung und Renderbarkeit einzigartige Anforderungen an die Dokumentationserstellung stellen. PREMIS ist gut geeignet, diese Bedürfnisse in einer Vielzahl von Organisations- und Informationskontexten zu unterstützen. Dieses Kapitel beschreibt den Aufbau und die Eigenschaften digitaler Bewegtbildobjekte. Es beschreibt mehrere Anwendungsfälle für Konservierungsmetadaten sowie eine Beschreibung von Ansätzen, um diese mithilfe von PREMIS auszudrücken. Schließlich bietet es eine Diskussion der Implementierung von PREMIS in verschiedenen Organisationsumgebungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-43763-7_5 c01c4d4ac0fb1ebc763bf874ad3ce255;de;;;3.1.;;;Jesaja Thomas erfindet die Buchhandlungskette Wir denken an Buchhandlungsketten – Barnes and Noble, Brentanos, Walden Books oder die nicht mehr existierenden Borders – als neue Phänomene. Die Wurzeln des Franchise-Buchhandels liegen jedoch tief in der amerikanischen Verlagsgeschichte. Man kann argumentieren, dass der Verleger und Drucker Isaiah Thomas aus Boston und Worcester, Massachusetts, im späten 18. Zu seiner Blütezeit hatten Thomas und verschiedene Partner elf Geschäfte in einem Netzwerk, das von Boston über Albany bis Baltimore reichte, mit Niederlassungen in New Hampshire und Vermont. Der Antrieb des Thomas Verlags-Buchhandelsunternehmens war eine Form der vertikalen Unternehmensintegration von Verlagsdienstleistungen (von der Papierherstellung bis zum Vertrieb der Produkte), die nach dem heutigen Kartellrecht rechtlich nur schwer zu rechtfertigen wäre. Zu dieser Zeit, in den 1790er und 1810er Jahren, waren Thomas’ mehrere ineinandergreifende Geschäfte dennoch ein wahres Buchmacherimperium, mit Bestsellern wie Almanachen und Lehrbüchern.;-;-;-;https://link.springer.com/article/10.1007/s12109-012-9254-7 63138218d87eee03faae46aded993118;de;;;3.1.;;;Segeberg 1600 — Eine Stadtrekonstruktion in der virtuellen Realität Die 3D-Rekonstruktion historischer Gebäude und Städte bietet nicht nur die Gelegenheit, sich mit der Geschichte der entsprechenden Objekte und deren Entwicklung bzw. Veränderung über die Jahrhunderte auseinanderzusetzen, sondern auch die intuitive Präsentation für die Öffentlichkeit. Digitale Visualisierungen von historischen Objekten erlauben einen natürlicheren Blick auf deren Geschichte, aber anderseits zeigen sie auch Informationen bzw. Blickwinkel, sterben in einer realen Welt nicht vorhanden bzw. nicht möglich sind. Neue Präsentationsmöglichkeiten wie z. B. das Virtuai-Reality-(VR)-System HTC Vive can heute Werden, um Informationen in einer anderen Dimension zu verbreiten und den Zugriff zu vereinfachen, in dem sterben Position des Anwenders von Einem Zuhörenden Schauenden zu Einem Agierenden als integrierter Teil einer interaktiven Situation umgewandelt wird. Im Allgemeinen stellt this Methode Eine Kombination von Ausbildung (Education) Und Unterhaltung (Entertainment) dar, sterben in diesem Zusammenhang auch mit dem Begriff „edutainment“ oder „gamification“ bezeichnet wird (Reinhardt 2007), was in der Bildungswissenschaft als Motivation zum Lernen verstanden Wird, in dem kompetitiven Elemente als Herausforderungen in die Szenerie entsprechend eingebaut Werden. Es ist somit ein Schritt weg vom Konsum hin zum Erleben bzw. Erfahren von Information, was man wortwörtlich als „lebende Geschichte“ interpretieren darf. In diesem Beitrag WIRD sterben Bearbeitung Einer 3D-Rekonstruktion der beiden Städte Segeberg und Gieschenhagen (heute zusammengeschlossen als Bad Segeberg) in Schleswig-Holstein in der Frühen Neuzeit um 1600 präsentiert. Die Konvertierung der historischen Landschaft und der rekonstruierten virtuellen Stadtmodelle in einer interaktiven VR-Applikation wird beschrieben. Die Stadtrekonstruktion basiert auf einem aktuellen, aber angepassten digitalen Geländemodell, auf 3D-Vermessungsdaten erhaltener Gebäude und auf historischen Que lien wie Zeichnungen, vorläufigen Ansichten sowie schriftlichen Berichten aus dem Zeitraum. Die gesamten Datensätze wurden zu einer begehbaren virtuellen Welt kombiniert, die eine Flache von 3 km;-;-;-;https://link.springer.com/article/10.1007/BF03545360 0982be4cf73c090c86d8fa033e5c47e3;de;;;3.1.;;;Der Renaissance-Stil Dieser unbekannte Silberschmied war ein ausgezeichneter Designer und Prägemeister. Der unter Nr. 1 ist perfekt in einem reinen Renaissance-Stil ausgeführt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-3662-7_1 669939eb8fe8093eecb06afd500ac1c8;de;;;3.1.;;;Streufunde In Indonesien dürften ziemlich viele Bronzeäxte in Gebrauch gewesen sein, aber viele davon sind wohl im Laufe der Jahrhunderte eingeschmolzen worden, um sie zu Ornamenten zu verarbeiten. Diese Tendenz verstärkte sich zweifellos mit der allmählichen Substitution von Bronze durch Eisen bei der Herstellung von Geräten. Die uns bekannten Achsen der Epoche sind von unterschiedlicher Größe, das Museum in Djakarta beispielsweise hat ein Exemplar von 299 × 143 × 31 mm, während ein anderes nur 45 × 37 × 10 mm misst. Außerdem gibt es kurze Äxte, die breit sind, und lange, die schlank sind. Das Schwanzende ist meist gerade aber manchmal schwalbenschwanzförmig, die Schneide ist meist fächerförmig. Allen Achsen gemeinsam ist eine Hohlpfanne mit rundem oder ovalem Querschnitt, in die der Stiel zum Anbinden an den Stiel passen soll. Die Oberfläche der Axt ist glatt, mit Ausnahme einiger Exemplare, die ein oder zwei Rippenpaare aufweisen, die von der Mitte der Pfanne ausgehen und zu den äußersten Punkten der Schneide hin divergieren. (Abb. 1, Abb. 2 & 3).;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-0909-1_2 2f2aff9539aaa9627b3d3765ac7d4904;de;;;3.1.;;;Anordnung des Cartulars. Zustand des Fuldaer Archives im 9. Jahrhundert Wie aus der Beschreibung des Cartulars (s. o.) hervorgeht, ist seine Haupteinteilung nach Gauen getroffen. Es folgen gegenwärtig auf einander: 1. Elsafs. 2. Wormsgau. 3. Rheingau. 4. Nahegau. 5. Grabfeld. Die auf Blatt 1 a eingetragene Gesamtüberschrift DE WORMACINSE ET RENINSE ET NANINSE ET DE ALSATIA ET DE GRAPHELT entspricht auch nicht der heutigen Reihenfolge. Der Duktus dieser Überschrift weist auf die Zeit Eberhards hin, das E des letzten ET dieser Überschrift begegnet z. B. im Codex Eberhardi II 14b in;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-16192-9_5 c6fdd8388758a63ed2f3942493e5a232;de;;;3.1.;;;Künstler und das Filmarchiv: Re-Creation – oder Archiv-Wiedergabe Die künstlerische Auseinandersetzung mit dem Archiv nimmt zu und nimmt viele Formen an. Archivbasierte Kunstwerke enthalten oder zeigen nicht immer ihre Archivquelle an. In einigen Fällen werden jedoch die Archive selbst – und nicht die darin enthaltenen Informationen oder Beweise – für einen Teil oder das gesamte Werk verwendet. Dies gilt insbesondere, wenn visuelle und audiovisuelle Aufzeichnungen kreativ verwendet werden. Auf diese Weise wird das Archivmaterial interpretiert und neu erstellt, was zu potentiellen Spannungen und Zwietracht führt. Mit dem Fokus auf das Filmarchiv – und insbesondere auf Dokumentarfilme, die ursprünglich zum Zwecke der Aufzeichnung und Rechenschaftslegung erstellt und gesammelt wurden – thematisiert der Beitrag diesen Akt der kreativen Interpretation und Neuschöpfung. Zunächst wird die Nutzung von Archiven zur Schaffung und/oder Destabilisierung der nationalen Identität und des kollektiven Gedächtnisses betrachtet. Insbesondere untersucht es die Wiederverwendung von visuellen Beweisen des Holocaust und seiner Folgen. Diskutiert wird unter anderem das Werk des Künstlers Eyal Sivan, dessen Verwendung von Archivmaterial aus dem Prozess gegen den NS-Kriegsverbrecher Adolf Eichmann große Kontroversen ausgelöst hat. Zweitens, Walter Benjamins Konzept der;-;-;-;https://link.springer.com/article/10.1007/s10502-012-9181-6 0390228553e1d12b8e54d63ec6967770;de;;;3.1.;;;Schreiben aus dem Archiv: Henry Garnets Puder-Plot-Briefe und Archivkommunikation Durch eine Lektüre der archivierten Briefe von Henry Garnet (1555–1606), Oberer des Jesuitenordens in England und mutmaßlicher Schießpulverplotter untersucht dieser Artikel die Natur des Archivs in Bezug auf die Erzähltheorie. Ich betrachte das Archiv als eine der vielen erzählenden Stimmen, die durch die einzelnen Aufzeichnungen entstanden sind, und argumentiere, dass Kommunikationsmodelle wie die von Roman Jakobson, Wayne C. Booth und Seymour Chatman nützliche Einblicke in die Art und Weise bieten, wie Macht eingeschrieben wird und durch aufeinanderfolgende Akte des Lesens und Umschreibens wieder in die Aufzeichnung eingeschrieben.;-;-;-;https://link.springer.com/article/10.1007/s10502-008-9072-z f298d8370eed8414f0d6a0cc849d3b79;de;;;3.1.;;;Corporate Branding und Collegewappen als Logos: Marked Ceramics und die University of Cambridge Corporate Branding und Logos werden typischerweise als Phänomene der Mitte des 20. Jahrhunderts betrachtet. Diese Studie verleiht diesen Konzepten eine größere zeitliche Tiefe, indem sie Keramiken betrachtet, die zwischen dem späten 18. Es betrachtet auch Corporate Branding und Logos im Sinne etablierter Institutionen, die bereits eng mit bereits bestehenden Symbolen wie Wappen verbunden waren. Das kollegiale Keramikgeschirr erfüllte nicht nur funktionale Gegenstände, sondern erfüllte auch eine Reihe von symbolischen Funktionen, darunter sowohl die Stärkung der gesamten Gruppenidentität als auch die interne Statusteilung.;-;-;-;https://link.springer.com/article/10.1007/s10761-017-0452-z 6e4585dc5b814751d0445a3bcb77981e;de;;;3.1.;;;Quantenteleportation mit Qubits Es wird ein Überblick über Experimente zur Quantenteleportation mit Qubits gegeben. Es werden Fragen der Bell-State-Messung und der Verschränkungs-State-Präparation analysiert. Es werden unitäre Transformationen diskutiert, die bei der Teleportation eines unbekannten oder bekannten Zustands erforderlich sind.;-;-;-;https://link.springer.com/article/10.1134/S1063739706010057 99e263d1154db8783aa6f5dd5448d996;de;;;3.1.;;;Gibt es einen großen Sternbalken im LSB Galaxy UGC 7321? Beobachtungen und dynamische Modellierung legen nahe, dass sich kastenförmige/erdnussförmige (b/p) Ausbuchtungen durch die Knickinstabilität in den Balken der Muttergalaxienscheiben bilden. Pohlenet al. (2003) präsentieren zum ersten Mal photometrische Beweise für erdnussförmige äußere Isophoten in der Edge-On-Galaxie UGC 7321 vom späten Typ mit geringer Oberflächenhelligkeit, einem Prototyp einer rein scheibendominierten kugellosen Galaxie. Hier präsentieren wir erste Ergebnisse unserer Folgespektroskopie zur Suche nach dem Vorhandensein eines Balkens durch das erwartete „Figur-8“-Muster in der Rotationskurve.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-2862-5_76 0ffd2b109104bf3a78c91741573dc956;de;;;3.1.;;;Die Winde von Eta Carinae und anderen sehr leuchtenden Sternen Die Winde von Eta Carinae, anderen verwandten sehr leuchtenden Sternen und Kandidaten für LBVs werden überprüft. Während bodengebundene Spektren von η Car von mehreren Emissionsregionen beeinflusst werden, ermöglichen uns HST-Beobachtungen des Space Telescope Imaging Spectrograph, das Spektrum des Primärsterns in der Tiefe zu untersuchen, das Spektrum seines undurchsichtigen Sternwinds. Eine detaillierte Modellierung des Primärsterns und seines dichten Windes wird diskutiert. Wir veranschaulichen den Einfluss der Massenverlustrate auf das Spektrum des Primärsterns und zeigen, dass eine genaue Schätzung des hydrostatischen Radius nicht möglich ist. Mängel im Modell werden aufgezeigt und der Einfluss des binären Begleiters sowie mögliche Abweichungen des Windes von der Kugelsymmetrie diskutiert. Ein Überblick über die Stern- und Windeigenschaften anderer sehr leuchtender galaktischer Sterne ist enthalten, um zu veranschaulichen, dass η Auto nicht einzigartig ist und einige nahe Verwandte hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-2275-4_4 e06ebd0df0b3dc5813a8fa9020d02222;de;;;3.1.;;;Neue ID-basierte Proxy-Mehrfachsignatur von Pairings Ein Proxy-Signaturschema ermöglicht es einem Proxy-Signierer, Nachrichten im Namen eines ursprünglichen Unterzeichners zu signieren. Proxy-Mehrfachsignatur ist eine der Proxy-Signatur-Primitiven, bei der eine Gruppe von ursprünglichen Unterzeichnern ihre Unterzeichnungsrechte an denselben Proxy-Unterzeichner delegiert. Nach unserem Wissen wurde jedoch noch kein ID-basiertes Proxy-Mehrfachsignaturschema aus bilinearen Paarungen basierend auf dem inversen rechnerischen Diffie-Hellman-Problem (INV-CDHP) vorgeschlagen. In diesem Beitrag stellen wir das obige Schema vor, das den Vorteil des „k-plus“-Problems nutzt und geben eine detaillierte Analyse desselben. Aufgrund einer einzigen Paarungsberechnung in der Verifikationsphase ist das neue Schema hinsichtlich der Berechnung und des Zeitablaufs effizienter als andere verfügbare Schemata. Darüber hinaus erfüllt das vorgeschlagene Schema alle Sicherheitsanforderungen einer sicheren Proxy-Signatur.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25327-0_16 d0a4b04cfffbb6677498d1586a786fde;de;;;3.1.;;;Geschichtliche Entwickelung Eine Geschichte der Kunst in Berlin in den Zeiten des Mittelalters und der Renaissance bietet dem Forscher keine so dankbare Aufgabe wie diejenige mancher mittleren und kleinen Stadt unseres engeren Vaterlandes. Der unaufhaltsame Ver jüngungs-Process, den die Hauptstadt des deutschen Reiches seit den letzten beiden Jahrzehnten durchgemacht hat, verwischt in der Sucht Neues zu schaffen immer mehr die Züge ihrer nächsten Vergangenheit und nichts vermissen wir in dem glanzvollen Bilde der heutigen Metropole mehr als ein mächtiges überragendes Monument, das durch die Weihe des Alters und bedeut-1 gleiche Erinnerungen dem Wechsel der Zeiten, dem j Tages-Bedürfnisse enthoben, zum Wahrzeichen ihrer Herkunft und Geschichte geworden wäre. Berlin besitzt keinen Stefansthurm, an dem der Ankömmling schon aus der Ferne die alte Kaiserstadt erkennt, keine Westminster-Abtei, nicht wie in Paris erscheint bei uns die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-94278-5_8 cf0e103ee6967a1f711d328f7c640615;de;;;3.1.;;;Flächenerhaltende Unterteilungsschemata Wir beschreiben einen flächenerhaltenden Unterteilungsschematisierungsalgorithmus: Die Fläche jeder Region in der Eingabe entspricht der Fläche der entsprechenden Region in der Ausgabe. Unsere Schematisierung ist achsenorientiert, die Endausgabe ist eine geradlinige Unterteilung. Wir beschreiben zunächst, wie man eine gegebene Unterteilung in eine flächenäquivalente geradlinige Unterteilung umwandelt. Dann definieren wir zwei flächenerhaltende Kontraktionsoperationen und beweisen, dass mindestens eine dieser Operationen immer auf jedes beliebige einfache geradlinige Polygon angewendet werden kann. Wir erweitern diesen Ansatz auf Unterteilungen und präsentieren experimentelle Ergebnisse. Schließlich geben wir Beispiele für Standard-Distanzmetriken (symmetrische Differenz, Hausdorff- und Fréchet-Distanz), die zeigen, dass bessere Schematisierungen zu schlechteren Formen führen können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15300-6_12 44c692f517cf5cc2b3331cf43c055855;de;;;3.1.;;;Über Involution und Neubildung von Lymphknoten Die Zahl und Größe der Lymphknoten am Neugeborenenbecken ergibt beim Vergleich mit den Knoten am Becken Erwachsener eine gewisse Diskrepanz. Nach kurzer Schilderung der Entwicklung des Lymphsystems sterben Art und die Möglichkeit der Altersinvolution und Regeneration der Lymphknoten besprochen. Es WIRD sterben genaue topographische Lage der injizierten Beckenlymphknoten am Erwachsenen angeführt, wie man sie an einem Becken einer 76jährigen an Myeloma plasmocellulare zugrunde gegangenen Frau und am Becken einer 56jährigen, an Apoplexie verstorbenen Frau vorfand. Dabei konnte man eine weitgehende Übereinstimmung der topographisch-anatomischen Lage der einzelnen Knoten und Knötchen bei den obengenannten Fällen mit den Verhältnissen am Neugeborenenbecken feststellen. Die Zahl der Lymphknoten nimmt im Alter ab.;-;-;-;https://link.springer.com/article/10.1007/BF01210734 a43509503d1d7ad3420b275824aa0cca;de;;;3.1.;;;Bergs Entwicklung als Instrumentalkomponist (Im folgenden Aufsatz wird das mittlere C als c′ bezeichnet, mit Oktaven darüber als c″, c‴ usw. und Oktaven darunter als c, C, C′ usw. Oktaven werden von C aufwärts gezählt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-09056-3_5 0bcc9a3a8f926de52477c72114ac88f8;de;;;3.1.;;;Aufbau eines Informationssystems in der Epidemiologie basierend auf medizinischer und sozialmedizinischer Literatur Die Epidemiologie einer Krankheit beschreibt ihren Verlauf durch Quantifizierung und Analyse ihrer Morbidität (Inzidenz und Prävalenz), ihrer Mortalität sowie der Untersuchung ihrer Risikofaktoren. Bisher wurde noch kein kohärentes System zur Behandlung solcher spezifischen Informationen geschaffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-1668-8_87 38fe4f7f5607731550f33dfe370c0deb;de;;;3.1.;;;„Schildbürgerstreiche“ Bericht zur Lalebuch- und Schildbürgerforschung Ausgehend von Druck- und Editionsgeschichte greift der Bericht den jüngsten Forschungsbeitrag auf und stellt die volkskundliche, literarhistorische, philologische und didaktische Beschäftigung mit Stofftradition, Titelbedeutung, Verfasserfrage, Werkfolge, Aufbau, Sinn und literarischer Rezeption von;-;-;-;https://link.springer.com/article/10.1007/BF03375979 c80a30d863d8ae8b255cd48ab5e24b8c;de;;;3.1.;;;C. Kunstwerke als Quellen Nicht unbeträchtlich ist die Zahl der Houbraken erwähnten Kunstwerke, und zwar beschränkt er sich nicht darauf, in allgemeinen Ausdrücken anzuführen, dass Ortes, wo sie sich zu seiner Zeit gefundenen, oder der Person, in deren Auftrag sie gemalt wurden. In Fällen, wo sie ihm durch Autopsie bekannt sind, knüpft er an ihre Erwähnung auch Betrachtungen über ihre malerischen Verdienste, über die Stilrichtung, welche sie zeigten, sterben Bewunderung, sie bei den Zeitgenossen erregten und knüpfen. Es wäre müßig, hier ausdrücklich zu betonen, welchen Wert manche dieser Mitteilungen noch heute besitzen, von größerem Interesse ist dagegen die Frage, einen wie großen Teil des damals vorhandenen Bilderschatzes gekannt und für sein Werk verwertet hat.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-3219-8_7 a6fc56a4112ce7103933ecd125a1ca3a;de;;;3.1.;;;Die Machbarkeitsbewertung der Elbrus-Plattform für Hochleistungsberechnungen In diesem Beitrag werden die Aussichten der Elbrus-Rechenplattform für Hochleistungsberechnungen untersucht. Präsentiert wurden die Ergebnisse der repräsentativsten HPC-Benchmarks (HPCC, NPB, HPCG) und deren Analyse. Der Testbed Node war mit vier MCST Elbrus-4C Prozessoren und DRAM DDR3 mit einer Gesamtkapazität von 48 Gb ausgestattet. Verschiedene Faktoren, die die Leistung von FT- und MG-Tests aus der NPB-Benchmark-Suite beeinflussen, wurden mit dem Paraver-Tool, Hardware-Leistungszählern (HPC) und MPI-Kommunikationsdaten analysiert. Untersucht wurde die Skalierbarkeit geologischer Anwendungen mit der Methode der Double-Square-Root (DSR) Prestack Migration. Benchmark-Ergebnisse zeigen, dass für die beste Leistung die Codeanpassung erforderlich ist, um plattformspezifische Optimierungen aufzudecken. Dennoch zeigt die Skalierbarkeitsanalyse, dass die meisten Tests innerhalb eines bestimmten Bereichs von Prozessorzahlen linear skalierbar sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-55669-7_26 6216475511ec2d61e17d36429db6b511;de;;;3.1.;;;Anwendungen der Kommunikationstheorie I. Der Unterbau der Wissenschaft Die Sorge gilt der Natur der Wissenschaft. Vorgeschlagen wird, dass subjektive Aspekte der Wissenschaft in der Vergangenheit stark unterschätzt wurden und zu ihrem Verständnis unser kommunikationstheoretisches Konzept des Kommunikationsvergnügens benötigt. Wissenschaftliches Denken, so wird vorgeschlagen, ist im Grunde ein Gesprächsthema – mehr Meinungssache als Tatsachen. Es werden Methoden vorgeschlagen, um diese subjektive Unterstruktur einer objektiven Kontrolle zu unterziehen. Es wird ein tiefgreifendes methodologisches Axiom behauptet, das alles ist, was Objektivität von Subjektivität unterscheidet.;-;-;-;https://link.springer.com/article/10.1007/BF03394060 109b8dd2cd70638309ba3e926525f4cd;de;;;3.1.;;;Digitale Archivierung und der neue Bildschirm Das Versäumnis, digitale Performances, Kunstwerke, literarische Ausdrucksformen, verlinkte Ressourcen und interaktive Erfahrungen, die für den neuen Bildschirm geschaffen wurden, zu bewahren, zu migrieren und zu archivieren – sowie die Verbindungen zwischen ihren Multimediakomponenten, den Texten, den Bildern, den codierten Mechanismen, die ihre Interaktivität – bedroht ihr Überleben als Marker in unserem kollektiven künstlerischen, literarischen und kulturellen Erbe. Die digitale Archivierung konzentriert sich auf die Bewahrung, Präsentation und Wertsteigerung solcher digitaler Werke. Es werden mehrere Modelle vorgestellt, wie die digitale Archivierung für den neuen Bildschirm erfolgen könnte. Die gestellten Fragen beginnen eine Diskussion darüber, wie Artefakte des neuen Bildschirms erstellt und archiviert werden können, insbesondere angesichts seines inkunabelförmigen, sich ständig weiterentwickelnden Anzeigezustands.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-79486-8_11 721c1d9b3c7442c6133df1f9748e7d36;de;;;3.1.;;;Computergestützter Monitor für Infektionskrankheiten Das Mikrobiologie-Modul des HELP-Systems analysiert mikrobiologische Daten und zeigt mit Informationen aus anderen Modulen der Patientenakte an, wenn Infektionen nosokomial, meldepflichtig oder anderweitig ungewöhnlich sind. Es warnt Apotheker, wenn der Antibiotikaeinsatz im Hinblick auf eine ausreichende Abdeckung des beteiligten Organismus, Kosten, Zeitpunkt der perioperativen Verabreichung und Anwendungsdauer zur postoperativen Prophylaxe nicht angemessen ist [1].;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-3070-0_18 1a89e2d444f418270344ac4ade4a1756;de;;;3.1.;;;Periphere psychophysiologische Reaktivität auf mentale Aufgaben bei Kindern mit psychiatrischen Störungen Periphere psychophysiologische Reaktivität (Hautleitfähigkeits- und Herzfrequenzänderungen) auf mentale Aktivitätsaufgaben (Bilder und Musikhören) wurde bei kinderpsychiatrischen oder stationären Patienten mit Verhaltens- und emotionalen Störungen untersucht. Kinder mit vorherrschender antisozialer Symptomatik zeigten eine höhere elektrodermale als kardiovaskuläre Reaktivität gegenüber den experimentellen Aufgaben, während Kinder mit vorherrschenden neurotischen Symptomen eine ausgeprägtere kardiovaskuläre Reaktivität zeigten. Beim Hören von Musik traten keine statistischen Unterschiede zwischen den Gruppen auf, aber Antisoziale reagierten besser (mit einer höheren Hautleitfähigkeit) auf die Vorstellung von angenehmen Situationen, während Neurotiker reaktiver (erhöhte Herzfrequenz und Abnahme der Hautleitfähigkeit) auf die Vorstellung waren unangenehme Situationen. Die Ergebnisse sind kompatibel mit einer verbesserten biologischen Reaktionsfähigkeit von Antisozialen auf Belohnung und mit Neurotikern, die ein ungewöhnlich ausgeprägtes Gefühl der Bedrohung und des Rückzugs auf aversive Reize erfahren.;-;-;-;https://link.springer.com/article/10.1007/BF02190092 7dfeb31e483f0bdad9a9758f9f05d102;de;;;3.1.;;;Dynamische Umverteilung von Concanavalin A-Bindungsstellen auf isolierten Meerschweinchen-Keratinozyten Veränderungen in der Verteilung der Bindungsstellen für Concanavalin A (Con A) wurden an Trypsin-isolierten lebenden Meerschweinchen-Keratinozyten untersucht. Fluorescein-markiertes Con A wurde verwendet und das in vitro-Verfahren umfasste Kurzzeitkulturen, Experimente bei 37 °C und 4 °C, die Untersuchung der Wirkungen von Colchicin und Vincaleucoblastin.;-;-;-;https://link.springer.com/article/10.1007/BF00412702 023dff8488a46de4ce83e0d275fa17ec;de;;;3.1.;;;Seite lehren: Lernenden das Lesen komplexer naturwissenschaftlicher Texte beibringen ie für jüngere Leser präsentierte Textwelt der Wissenschaft hat sich in den letzten Jahren stark verändert. Diese Transformation wurde nicht nur in Lehrbüchern, die zum Unterrichten entworfen wurden (z. B. Walpole, 1999), sondern auch in Handelsbüchern, die zur Information geschrieben wurden (z. Martins (2002) schlägt vor, dass die Explosion von auffälligen Bildern, der offensichtlichste Unterschied in den heutigen Texten, ein allgemeines gesellschaftliches Muster widerspiegelt, das in Werbe- und Nachrichtenproduktionen sichtbar wird, teilweise aufgrund moderner Technologie reduzierte Kosten bei der Farbwiedergabe, verbesserte Fähigkeiten zum Bearbeiten von Bildern und Fortschritte beim Desktop-Publishing. Bilder, erklärt Martins, seien dem Text nicht mehr untergeordnet, sondern in vielen Fällen „zum Kerntext geworden“ (S. 76). Unabhängig von der Quelle der Veränderung stellen diese komplexeren visuellen Umgebungen sowie die damit einhergehenden Textänderungen neue Herausforderungen für junge Leser und die mit ihnen arbeitenden Lehrkräfte dar.;-;-;-;https://link.springer.com/chapter/10.1057/9781403982285_14 67dd422a5e07d666a5bad4a048407a41;de;;;3.1.;;;Carl Purington Rollins und die Gestaltung wissenschaftlicher Bücher Carl Purington Rollins wurde 1918 Leiter der Produktionsabteilung der Yale University Press und in den nächsten dreißig Jahren entwarf und überwachte er die Produktion von mehr als zweitausend Büchern für die Presse. Damit setzte er bundesweit Maßstäbe für die Gestaltung von Hochschulpressebüchern. Dieser Artikel untersucht Rollins Philosophie und Methodik, die durch die Schaffung einer Partnerschaft zwischen Handwerkskunst und neuen Technologien der mechanischen Buchproduktion entstanden sind.;-;-;-;https://link.springer.com/article/10.1007/BF02678331 eb8015a95ab71581d92202fb7d2cf585;de;;;3.1.;;;Vollausfall der Informationstechnologie im Krankenhaus Der vollständige Ausfall der Informationstechnologie (IT) eines Krankenhauses ist ein elementares Schadensereignis mit einer schweren Störung der Funktionalität. Unmittelbare Konsequenz ist ein rasch progredienter Verlust an Behandlungskapazität. Oberstes Ziel in einer solchen Lage ist es, dass kein Patient durch den IT-Ausfall lebenswichtig gefährdet wird und/oder bleibenden Schaden erleidet. Eine Möglichkeit, den unkontrollierten Verlust an Behandlungskapazität zu kanalisieren, um das oben genannte Schutzziel zu erreichen, ist die sofortige Herstellung einer analog organisierten medizinischen Basisversorgung. Ein solcher Übergang aus Einem auf Hochtouren laufenden Regelbetrieb in einem reduzierten Notfallbetrieb findet in Krankenhäusern täglich statt (Nachtdienst, Wochenende, Feiertag) und spiegelt die kontrollierte Reduktion der Behandlungskapazität weiter. This Vorgang Und Das Damit Verbundene Prozedere Geregelt Sind Allseits Bekannt, Durch Dienstpläne Sind Die Funktionen Im Voraus klar definiert, Und Das Zusammenspiel Der Kliniken Im Dienstbetrieb Ist Detailliert. Zur Realisierung dieser Strategie werden analoge Werkzeuge benötigt. This Wann & Allesamt Zuvor mit den Kliniken und Abteilungen entworfen, festgelegt, geübt und evaluiert Werden. Letztendlich Wann müssen alle isolierten IT-Ausfall-Konzepte zu einem kompatiblen und v. a. funktionierenden Gesamtgefüge zusammengeführt werden. Diese Struktur ist solange aufrechtzuerhalten, bis Eine in Teilen oder komplett funktionierende IT wieder zur Verfügung steht.;-;-;-;https://link.springer.com/article/10.1007/s00113-020-00797-4 5efa994191be42edf16ff1a74345cf02;de;;;3.1.;;;Entdeckung von Syndrom-Regelmäßigkeiten in der Traditionellen Chinesischen Medizin Clinical by Topic Model Traditionelle Chinesische Medizin (TCM) als einer der wichtigsten Ansätze zur Behandlung von Krankheiten in China seit Jahrtausenden. Viele Erfahrungen namhafter TCM-Experten sind in der medizinischen Bibliographie festgehalten. Die erste wichtige Arbeit für den TCM-Arzt besteht darin, die Krankheit anhand der Symptome des Patienten zu diagnostizieren und dann die Syndrome des Patienten vorherzusagen. Generell spiegelt dieser Prozess die medizinische Kompetenz der TCM-Ärzte wider. Daher ist die TCM-Diagnose leicht zu diagnostizieren und für TCM-Ärzte schwer zu meistern. In diesem Artikel haben wir ein probabilistisches Modell vorgeschlagen – das Symptom-Syndrom-Topic-Modell (SSTM), um verbundenes Wissen zwischen Symptomen und Syndromen zu untersuchen. Im SSTM werden Symptom-Syndrome durch generative Prozesse modelliert. Schließlich führen wir das Experiment auf dem SSTM durch. Die Ergebnisse zeigen, dass der SSTM effektiv ist, um die Syndrom-Regelmäßigkeiten in TCM-Daten zu ermitteln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49109-7_15 6e1961ea0963a5d7ca146c9ed65cd192;de;;;3.1.;;;Weitere Studien zur Trockenheitsresistenz bei Gehölzen Diese Veröffentlichung ist eine Erweiterung der Überprüfung der Trockenheitsresistenz von Gehölzen aus dem Jahr 1956. Die wichtigeren zuletzt verwendeten Begriffe werden aufgelistet und definiert. Zusammenfassungen von Berichten über Dürrewirkungen auf Waldbäume werden in Tabellenform dargestellt. Frostdürre wird als wichtiger Faktor bei der Begrenzung der geografischen Verbreitungsgebiete von Gehölzen diskutiert. Die Rolle, die Dürren bei der Auslösung von Baumkrankheiten spielen, wird berücksichtigt, insbesondere im Lichte neuer Erkenntnisse aus Studien zum Absterben von Waldbäumen. Wechselwirkungen zwischen Bodenfeuchte und Transpiration werden ebenso diskutiert wie Möglichkeiten zur Kontrolle der Transpiration in großen Beständen. Berücksichtigt werden auch Dürreexperimente mit Baumsetzlingen und die Symptomatik von Dürreschäden. Die Mittel, mit denen Gehölze Trockenheit überleben (außer kurzlebige Pflanzen) werden diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF02858876 f0994a6ed9b5c86ac14523262bf69542;de;;;3.1.;;;Les Variations osseuses asymptomatiques du squelette postcrânien humain : Leur Contribution à l’identification en anthropologie médicolégale En anthropologie biologique, la determination du sexe, l’estimation de l’âge au décès et l’estimation de la stature sont des paramètres essentiels à la Constitution du profil biologique d’un individu à partir de restes osseux. L’introduction et l’observation des Variations osseuses asymptomatiques (VOA) (variations anatomiques, marqueurs de posture et anomalies congénitales asymptomatiques) peuvent tre un atout dans l’établissement du profil biologique le plus singulit et le. Quatre-vingt-deux VOA, Côtees en Absence/Présence, ont été étudiées à partir de 1 300 individus provenant de trois différentes: une collection contemporaine (imagerie médicale), une collection ostéologique de référence. Pour chaque échantillon, la fréquence générale a été obtenue, puis une fréquence en fonction du sexe, de l’âge et de la latéralité a été calculée. Une Association deux à deux puis multiple a été testée pour l’ensemble des VOA. Une iconography claire de chaque VOA a été obtenue. L’intérêt final est de ne sélectionner que les VOA ayant une fréquence inférieure à 10 % et facilement observables afin de pouvoir les renseigner lors de l’établissement du profil biologique d’un individu’et ainsi identification Cette note a pour objectif de présenter le contexte d’un travail de doctorat, la manière dont le travail a été bâti et les résultats principaux.;-;-;-;https://link.springer.com/article/10.1007/s13219-016-0166-5 b44a267e645a39c9d2488218ea7d61b7;de;;;3.1.;;;Wahrnehmung rhythmischer Gruppierung: Prüfung des jambischen/trochäischen Gesetzes Diese Studie wurde entwickelt, um das jambische/trochäische Gesetz zu testen, das behauptet, dass Elemente, die sich in der Dauer kontrastieren, natürlich rhythmische Gruppierungen mit endgültiger Hervorhebung bilden, während Elemente, die sich in der Intensität unterscheiden, Gruppierungen mit anfänglicher Hervorhebung bilden. Es wurde auch entwickelt, um zu bewerten, ob das jambische/trochäische Gesetz allgemeine auditive Verzerrungen beschreibt oder ob rhythmische Gruppierung sprach- oder sprachspezifisch ist. In zwei Experimenten wurden den Zuhörern Sequenzen von abwechselnden /ga/-Silben oder Rechteckwellensegmenten präsentiert, die entweder in Dauer oder Intensität variierten, und wurden gebeten anzugeben, ob sie ein Trochäisch (dh stark-schwach) oder ein jambisches (dh schwaches .) hörten -stark) rhythmisches Muster. Experiment 1 lieferte eine Validierung des jambischen/trochaischen Gesetzes bei englischsprachigen Hörern, sowohl für sprachliche als auch für nichtsprachliche Reize, Variationen der Dauer führten zu einer jambischen Gruppierung, während Variationen in der Intensität zu einer trochäischen Gruppierung führten. In Experiment 2 wurden keine signifikanten Unterschiede zwischen den rhythmischen Gruppierungsleistungen von englisch- und französischsprachigen Zuhörern gefunden. Die Parallelen zwischen Sprache/Nicht-Sprache und sprachübergreifenden Sprachen legen nahe, dass die Wahrnehmung des sprachlichen Rhythmus weitgehend auf allgemeinen auditiven Mechanismen beruht. Die Anwendbarkeit des jambischen/trochäischen Gesetzes auf die Sprachsegmentierung wird diskutiert.;-;-;-;https://link.springer.com/article/10.3758/BF03194458 87e1e7f207bc8f2c2e65f159debc83c3;de;;;3.1.;;;Schemaversionierung für Archive in Datenbanksystemen Extrem große und ständig wachsende Datenbanken führen zu schwerwiegenden Problemen bei der Speicherung, Datenbankverwaltung und Performance. Die Integration von Archiven in Datenbanksysteme stellt einen neuen Ansatz dar, eine Datenbank von selten genutzten Daten zu entlasten. Archivdaten werden logisch und physikalisch von der Datenbank getrennt und können auf einem tertiären Speicher abgelegt werden. Bei der Entwicklung der Funktionalität und einer geeigneten Infrastruktur für die Archivierung spielen zeitbezogene Aspekte eine wichtige Rolle. Einer dieser Aspekte ergibt sich aus Schemaänderungen in Datenbanken oder Archiven, die sich nicht auf bereits archivierte Daten auswirken sollten. Wir zeigen, wie die Auswirkungen dieser Änderungen durch die Versionierung von Archivschemata gehandhabt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-48054-4_8 d1a19da66220b63ccc5e6ac547b9d691;de;;;3.1.;;;Ein neuer evolutionärer Optimierungsalgorithmus mit mehreren Zielen: Der Zwei-Archiv-Algorithmus In den letzten Jahren wurden viele multi-objektive evolutionäre Algorithmen (MOEAs) vorgeschlagen. Fast alle MOEAs wurden jedoch nur anhand von Problemen mit zwei bis vier Zielsetzungen evaluiert. Es ist unklar, wie gut diese MOEAs bei Problemen mit einer großen Anzahl von Zielen abschneiden werden. Unsere Vorstudie [1] zeigte, dass sich die Leistung einiger MOEAs mit zunehmender Anzahl von Zielen deutlich verschlechtert. Dieses Papier schlägt einen neuen MOEA vor, der bei Problemen mit einer großen Anzahl von Zielen gut funktioniert. Der neue Algorithmus trennt nicht dominierte Lösungen in zwei Archive und heißt daher;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74377-4_11 88c70afe10c8a634a40c362a8b8a84cf;de;;;3.1.;;;Was macht Führungskräfte effektiv? Wie aus dem vorherigen Kapitel hervorgeht, gibt es keinen „sicheren“ Führungsstil, und keine einzelne Führungskraft kann allen als Vorbild dienen. Stattdessen gibt es viele großartige Führungskräfte, auf die man zurückgreifen kann. Ihre Beispiele können Sie inspirieren, die vier Führungsstile an Ihre eigenen Fähigkeiten und Ihre Persönlichkeit anzupassen. Wir sagen bewusst „Stile“ im Plural, weil wir glauben, dass effektive Führung situativ ist. Das heißt, es ändert sich mit der Situation, ob es sich um ein Unternehmen der ersten, zweiten oder dritten Generation, ein Unternehmen in der Krise, ein Unternehmen mit einem Plateau, ein kleines Unternehmen, ein Startup oder ein etabliertes Unternehmen handelt erfahrene oder unerfahrene Arbeitskräfte. Anstatt sich auf einen Stil zu verlassen,;-;-;-;https://link.springer.com/chapter/10.1007/978-1-137-51494-3_4 2e3782654425230496c5e3bb51425834;de;;;3.1.;;;Recherche et Filtrage de L’information Dans la Bibliotheque Virtuelle L’Internet connaît depuis les années 90 un développement impressionnant. La messagerie individuelle et de groupe (Listen et News) est devenue le first outil de communication informelle des chercheurs. Les services de Publication Tels Gopher puis W3 permettent de diffusor de manière rapide, massiv und à peu de frais l’information produite dans les universités, les laboratoires de recherche etc.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-8786-0_70 be1e5bde0fd622947664d826829102a5;de;;;3.1.;;;DMEA: ein richtungsbasierter multiobjektiver evolutionärer Algorithmus Es wird ein neuer richtungsbasierter multi-objektiver evolutionärer Algorithmus (DMEA) vorgeschlagen, bei dem sich eine Population im Laufe der Zeit entlang einiger Verbesserungsrichtungen entwickelt. Wir unterscheiden zwei Arten von Richtungen: (1) die Konvergenzrichtung zwischen einer nicht dominierten Lösung (in einem Archiv gespeichert) und einer dominierten Lösung aus der aktuellen Population, und (2) die Ausbreitungsrichtung zwischen zwei nicht dominierten Lösungen im Archiv. Bei jeder Generation werden diese Anweisungen verwendet, um die aktuelle elterliche Population zu stören, aus der Nachkommen hervorgebracht werden. Die kombinierte Population von Nachkommen und archivierten Lösungen bildet die Grundlage für die Erstellung sowohl des Archivs der nächsten Generation als auch des Elternpools. Die Regel für die Bildung des Elternpools der nächsten Generation lautet wie folgt: Die erste Hälfte wird von nicht dominierten Lösungen bevölkert, deren Streuung durch ein im Entscheidungsraum angewendetes Nischenkriterium unterstützt wird. Die zweite Hälfte ist sowohl mit nicht dominierten als auch mit dominierten Lösungen aus dem sortierten Rest der kombinierten Grundgesamtheit gefüllt. Die Auswahl nicht dominierter Lösungen für das Archiv der nächsten Generation wird auch durch einen Mechanismus unterstützt, bei dem Strahlennachbarschaften im Objektivraum als Nischen dienen. Diese Strahlen stammen von der aktuellen Schätzung des idealen Punktes der Pareto-Optimalen Front (POFs) und emittieren zufällig in den Hyperquadranten, der die aktuelle POF-Schätzung enthält. Es wurden Experimente an zwei bekannten Benchmark-Sets, nämlich ZDT und DTLZ, durchgeführt, um die Leistung und das Verhalten der DMEA zu untersuchen. Wir haben seine Leistung validiert, indem wir es mit vier bekannten bestehenden Algorithmen verglichen haben. In Bezug auf Konvergenz- und Spread-Performance erweist sich DMEA als sehr wettbewerbsfähig.;-;-;-;https://link.springer.com/article/10.1007/s12293-011-0072-9 61d0f2e20b45060427ca89a91f127671;de;;;3.1.;;;3D — Numerische Simulationen der Magnetfeldentwicklung im turbulenten interstellaren Gas Ein vollständig dreidimensionales kinematisches Modell wird angewendet, um die Entwicklung des Magnetfelds in einem kleinen (120 pc großen) Volumen des turbulenten interstellaren Mediums (ISM) in Anwesenheit der Felddiffusion zu simulieren. Die turbulenten Bewegungen werden durch eine Folge von zeitlich nicht überlappenden Wirbeln angenähert, die die Form der rotierenden (mit einer Hklizität ungleich Null) Säulen haben, die viel länger als die Paketgröße sind. Sie bewegten sich vertikal und mit einer Neigung von ±30° zur galaktischen Ebene. Die resultierende Magnetfeldstruktur ähnelt stark einem Fragment einer klassischen verdrillten Flussröhre, die über das gesamte Paket des ISM gut geordnet ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-0772-3_74 78b96cd7938c82624b9a967b750cbb32;de;;;3.1.;;;Virtuelle zeichenbasierte interaktive Schnittstellen für gehörlose und funktionale Analphabeten Die Verfügbarkeit der Technologie gewährleistet keine Zugänglichkeit. Die häufige Verwendung von Text in allen Bereichen, von Menüs bis hin zu Dokumentinhalten, bedeutet, dass Gehörlose oder funktionale Analphabeten nicht auf Funktionen und Dienste zugreifen können, die in den meisten Computerprogrammen implementiert sind. Ziel der Forschung ist es, Anwendungen mit benutzerfreundlichen Schnittstellen für Gemeinschaften von gehörlosen und analphabetischen Benutzern bereitzustellen, die es ihnen ermöglichen, ohne menschliche Hilfe zu arbeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-39336-5_23 038981b21753863dbd742eab368affd9;de;;;3.1.;;;Strukturelle, optische und elektronische Eigenschaften neuartiger (PVA-MgO)/SiC-Nanokompositfilme für Feuchtesensoren Die Nanokomposite aus Polyvinylalkohol (PVA) und Magnesiumoxid (MgO) und (PVA-MgO)-Nanokomposite, die mit Siliziumkarbid (SiC)-Nanopartikeln dotiert sind, wurden mit unterschiedlichen Konzentrationen von Siliziumkarbid und (PVA-MgO)-Nanokompositen hergestellt. Sowohl experimentelle als auch theoretische Studien zu strukturellen und optischen Eigenschaften neuartiger (PVA-MgO-SiC) Nanokomposite für Feuchtesensoren wurden erstmals kostengünstig, flexibel und hochempfindlich untersucht. Die (PVA-MgO-SiC)-Nanokomposite wurden mit verschiedenen Konzentrationen von Siliziumkarbid-Nanopartikeln beabsichtigt. Die experimentellen Ergebnisse der optischen Eigenschaften von (PVA-MgO-SiC)-Nanokompositen zeigten, dass Extinktion, Absorptionskoeffizient, Extinktionskoeffizient, Brechungsindex, imaginäre und reale Dielektrizitätskonstanten und optische Leitfähigkeit von (PVA-MgO)-Nanokompositen mit steigendem Silizium Konzentrationen von Carbid-Nanopartikeln. Die Extinktion steigt von 0,432 auf 2,55 a.u, während die Transmission von 0,779 auf 0,230 a.u abnimmt. Die Energielücke verringert sich von 4,4 auf 2,1 eV. Theoretisch verringert sich die Energielücke von 7,07 auf 3,04 eV. Die experimentellen Ergebnisse neuartiger (PVA-MgO-SiC)-Nanokompositanwendungen zeigten, dass (PVA-MgO-SiC)-Nanokomposite eine hohe Empfindlichkeit gegenüber relativer Luftfeuchtigkeit aufweisen. Die erhaltenen Ergebnisse wurden mit theoretischen Ergebnissen verglichen, die unter Verwendung des Programms Gaussian 09 und des Programms Gaussian View 5.0.8 und der Dichtefunktionaltheorie (DFT) bei;-;-;-;https://link.springer.com/article/10.1007/s42341-019-00111-z f9b446804a46d87fef38bb0c2e48cf8d;de;;;3.1.;;;Ein texturbasiertes Direct-Touch-Interaktionssystem für die Ausstellung von gewebtem 3D-Kulturgut Wir schlagen ein texturbasiertes Direct-Touch-Interaktionssystem für die 3D-gewebte Kulturgutausstellung der „Tenmizuhiki“-Wandteppiche „Hirashaji Houou Monyou Shishu“ von „Fune-hoko“ des „Gion Festivals in Kyoto“ vor. Im Bereich des digitalen Archivs ist es wichtig, das Kulturgut hochauflösend zu archivieren und darzustellen. Um Form, Farbe und Textur des Kulturgutes zu archivieren, ist es wichtig, nicht nur die optische Wirkung, sondern auch den haptischen Eindruck zu archivieren und darzustellen. Kürzlich wurden auf dem Gebiet der Haptik verschiedene haptische Wiedergabevorrichtungen entwickelt und verschiedene haptische Wiedergabetechniken zum Berühren des virtuellen Objekts vorgeschlagen. Beim haptischen Rendering für das hochauflösende virtuelle Objekt ist es schwierig, den haptischen Eindruck glatt wiederzugeben und die Reaktionskraft in Echtzeit zu berechnen. Daher sind Echtzeit- und hochauflösende haptische Rendering-Techniken erforderlich. In unserer vorherigen Arbeit haben wir eine texturbasierte haptische Modellierung und Rendering-Techniken in Echtzeit und mit hoher Auflösung vorgeschlagen. Unsere Techniken basieren jedoch nicht auf der Messung. Darüber hinaus ist es im Bereich des digitalen Archivs erforderlich, das digital archivierte Kulturgut intuitiv und interaktiv darzustellen. Daher haben wir unsere texturbasierten haptischen Modellierungs- und Rendering-Techniken für das digitale Archiv angewendet und ein Echtzeit- und Direct-Touch-Interaktionssystem für die 3D-Kulturgutausstellung entwickelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22819-3_33 fac62f4637783c6aad39509019ff09f6;de;;;3.1.;;;Eine Analyse der Absorptionszeiten von Quantenspaziergängen Von Quantum Walks wird erwartet, dass sie nützliche algorithmische Werkzeuge für die Quantenberechnung bereitstellen. Dieses Papier stellt die Absorptionswahrscheinlichkeit und -zeit von Quantenwanderungen vor und liefert sowohl numerische Simulationsergebnisse als auch theoretische Analysen zu Hadamard-Wanderungen auf der Linie und symmetrischen Wanderungen auf dem Hyperwürfel aus der Sicht der Absorptionswahrscheinlichkeit und Zeit. Unsere Ergebnisse können bei der Konstruktion effizienter Quantenalgorithmen für kombinatorische Probleme wie SAT hilfreich sein.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45833-6_26 8ced9f6808e2feba7f1aa780bc239ab5;de;;;3.1.;;;Le Dévonien inférieur de Tizi-n-Tichka (Haut Atlas) und de Laàyoune (Tata, Anti-Atlas, Marokko): Nouvelles datations et Implikationen paléogéographiques Les conodontes du Dévonien inférieur (Lochkovien-Emsien inférieur), récoltés dans les coupes de Tizi-n-Tichka (Haut Atlas) et de Laàyoune (Anti-Atlas Central, Tata) Korrespondent aux Zones à;-;-;-;https://link.springer.com/article/10.1007/BF03043741 1ff7bdd2be8629e739c59cc341dfc90c;de;;;3.1.;;;Multiobjektive Extremaloptimierung mit Anwendungen für das technische Design In diesem Beitrag erweitern wir einen neuartigen, nicht eingeschränkten multiobjektiven Optimierungsalgorithmus, die sogenannte multiobjektive Extremaloptimierung (MOEO), um die eingeschränkten multiobjektiven Optimierungsprobleme (MOPs) zu lösen. Der vorgeschlagene Ansatz wird durch drei eingeschränkte Benchmark-Probleme validiert und erfolgreich auf die Behandlung von drei in der Literatur berichteten Konstruktionsproblemen mit mehreren Zielen angewendet. Simulationsergebnisse zeigen, dass der vorgeschlagene Ansatz mit drei hochmodernen multiobjektiven evolutionären Algorithmen, d. h. NSGA-II, SPEA2 und PAES, sehr wettbewerbsfähig ist. Somit kann MOEO als eine gute Alternative zur Lösung eingeschränkter Mehrzieloptimierungsprobleme angesehen werden.;-;-;-;https://link.springer.com/article/10.1631/jzus.2007.A1905 a26b473909cdf3121625ff772eaed7c9;de;;;3.1.;;;MeMo: Der mexikanische Moment für Verlage Der „mexikanische Moment“ ist ein von der internationalen Presse geschaffener Begriff, der die Bedeutung der kürzlich vom Kongress verabschiedeten Wirtschaftsreformen widerspiegelt. Dieser Artikel untersucht die Fakten und Zahlen der lokalen Verlagsbranche, insbesondere des wissenschaftlichen, technischen und medizinischen oder STM-Verlags, zu einer Zeit, in der die Branche in Mexiko am Scheideweg steht. Beginnend mit einem allgemeinen Hintergrund des Landes und seiner Wirtschaft gibt es Informationen zu Lesegewohnheiten, den Herausforderungen des gedruckten Buchvertriebs, dem professionellen Buchmarkt in Mexiko, der zunehmenden Bedeutung von E-Books und abschließend mit einem Einblick in das wichtigste Buch Messe in spanischsprachiger Sprache.;-;-;-;https://link.springer.com/article/10.1007/s12109-014-9390-3 da09afdbdcf652bea7fece6f3afd1d83;de;;;3.1.;;;Akademisches Expertenwissen zum Freihandel Das Kapitel besteht aus drei unterschiedlichen Abschnitten. Zunächst wird gezeigt, wie die polnische wissenschaftliche Literatur über die Auswirkungen von Freihandelsabkommen (FTA) im Vergleich zu der in Englisch, Französisch, Deutsch und Italienisch abschneidet. Es zeigt, dass die polnischen Ergebnisse ähnlichen Mustern wie in den anderen Sprachen folgen, und schlägt vor, dass die polnische Forschungsliteratur für die anderer Länder repräsentativ sein könnte. Zweitens analysiert es 51 Forschungspublikationen zu Freihandelsabkommen, die zwischen 1995 und 2019 in polnischer Sprache veröffentlicht wurden. Wir stellen fest, dass die Mehrheit der Outputs dem Freihandel eindeutig positiv gegenübersteht. Drittens konstruieren wir das Expertenwissenswörterbuch (EKD) mit 1540 Begriffen, die in der wissenschaftlichen Literatur häufig anzutreffen sind. Es wird dann in Kap.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-76997-0_5 6b48e0179ca96ff40c5285c5bf8602bd;de;;;3.1.;;;Echtzeitgenaue Handwegverfolgung und gemeinsame Trajektorienplanung für Industrieroboter (I) Zuvor erhöhten Forscher die Genauigkeit für die Hand eines Roboters, einen bestimmten Pfad im kartesischen Raum zu verfolgen, hauptsächlich durch die Erhöhung der Anzahl der Knoten auf dem Pfad und der Anzahl der Pfadsegmente, was zu einer höheren Online-Rechenbelastung für die Robotersteuerung führte. Um diesen Nachteil zu überwinden, schlagen die Autoren eine neue Art von Echtzeit-genauer Handwegverfolgung und gemeinsamer Trajektorienplanungsmethode vor. Durch Auswählen einiger zusätzlicher Knoten auf dem angegebenen Handpfad nach einer bestimmten Regel und Einfügen einer Sinusfunktion in die Gelenkverschiebungsgleichung jedes Segments kann diese Methode die Pfadverfolgungsgenauigkeit der Roboterhand erheblich erhöhen und ändert die Anzahl der Pfadsegmente nicht . Es erhöht auch die Rechenlast der Robotersteuerung nicht merklich. Das Ergebnis der Simulation zeigt, dass diese Methode sehr effektiv ist und einen wichtigen Wert bei der Steigerung der Anwendung von Industrierobotern hat.;-;-;-;https://link.springer.com/article/10.1007/s11771-002-0025-z 80cb3cfcc7aecf81a529f7dca7ce3709;de;;;3.1.;;;Agentenbasierte Modellierung und Simulation städtischer Evakuierung: relative Effektivität simultaner und gestufter Evakuierungsstrategien Diese Studie untersucht die Effektivität simultaner und gestufter Evakuierungsstrategien mittels agentenbasierter Simulation. Bei der simultanen Strategie werden alle Bewohner zur gleichzeitigen Evakuierung informiert, während bei der gestuften Evakuierungsstrategie die Bewohner verschiedener Zonen in einer Reihenfolge organisiert werden, die auf verschiedenen Sequenzen der Zonen innerhalb des betroffenen Gebiets basiert. Diese Studie verwendet eine agentenbasierte Technik, um Verkehrsflüsse auf der Ebene einzelner Fahrzeuge zu modellieren und untersucht das kollektive Verhalten evakuierender Fahrzeuge. Wir führten Simulationen mit einem mikroskopischen Simulationssystem namens Paramics an drei Arten von Straßennetzstrukturen unter unterschiedlichen Bevölkerungsdichten durch. Die drei Arten von Straßennetzstrukturen umfassen eine Gitterstraßenstruktur, eine Ringstraßenstruktur und eine echte Straßenstruktur aus der Stadt San Marcos, Texas. Standardregeln in Paramics wurden für die Reisegenerierung, Zielwahl und Routenwahl verwendet. Simulationsergebnisse zeigen, dass (1) es keine Evakuierungsstrategie gibt, die für verschiedene Straßennetzstrukturen als die beste Strategie angesehen werden kann und die Leistung der Strategien sowohl von der Straßennetzstruktur als auch von der Bevölkerungsdichte abhängt, (2) wenn die Bevölkerungsdichte das betroffene Gebiet hoch ist und die zugrunde liegende Straßennetzstruktur eine Gitterstruktur ist, dann ist eine abgestufte Evakuierungsstrategie, die nicht benachbarte Zonen im betroffenen Gebiet abwechselt, wirksam, um die Gesamtevakuierungszeit zu reduzieren.;-;-;-;https://link.springer.com/chapter/10.1057/9781137453648_6 f18d0471e9fb69582b9ceb5ed728ba64;de;;;3.1.;;;Latente Prüfung: persönliche Archive als ewige Erinnerung an den offiziellen Blick Dieser Artikel untersucht die Bedeutung der archivierten Aufzeichnungen ihrer Institutionalisierung im Leben derjenigen, die als Kinder eine außerhäusliche Betreuung erlebt haben. Die affektiven Auswirkungen des Zugriffs auf die Aufzeichnungen als Erwachsene werden diskutiert, mit besonderem Fokus auf die Fähigkeit der Aufzeichnungen, vergangenes Leiden wiederzubeleben. In Anlehnung an das Werk Bruners (Crit Inq Herbst 1–21,;-;-;-;https://link.springer.com/article/10.1007/s10502-015-9255-3 bd96574c48d45aaafca95216337e4207;de;;;3.1.;;;Politiques et activites d'education permanente: Reflexionen über die wissenschaftliche Bildung und die moderne Gesellschaft Wissenschaft und Technik werden als notwendige Werkzeuge für die Beteiligung an der politischen Steuerung einer Gesellschaft, für das Verständnis zeitgenössischer Probleme und die Aussicht auf die Bewältigung der Bedürfnisse des täglichen Lebens (Arbeit, Unterkunft, Ernährung usw.) Menschen mit wissenschaftlicher Ausbildung, über professionelle Wissenschaftler hinaus. Erstausbildung, Erwachsenenbildung, Selbstbildung: Es geht darum, die naturwissenschaftliche Bildung tatsächlich in die Prinzipien und die Praxis des Lebenslangen Lernens zu integrieren. Um dem aufkommenden Bedarf an naturwissenschaftlicher Bildung gerecht zu werden, ist die Zusammenarbeit von Wissenschaftlern, der Arbeitswelt und der breiten Öffentlichkeit bei der Festlegung der Ziele der Politik in Wissenschaft und Technologie erforderlich. Der Artikel endet mit einer Reihe von Fragen zu Inhalten und Methoden des naturwissenschaftlichen Unterrichts.;-;-;-;https://link.springer.com/article/10.1007/BF00597899 3a7efccee96b67a77fba50a37d8b357d;de;;;3.1.;;;Die Kopfmuskulatur von , eine seltene anguinomorphe Eidechse aus China, ist noch eine sehr wenig bekannte Art. Die ursprüngliche Beschreibung seines Schädels wurde von McDowell und Bogert (1954) gegeben, die die Art als näher verwandt ansahen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-9372-5_13 d65b2abb45c071f94f790e8d4474d0fb;de;;;3.1.;;;Zusammenfassung: Eine Hypothese zum Testen Die oben beschriebene und diskutierte Kopfmuskulatur führt zur Formulierung einer möglichen Stammesgeschichte der anguinomorphen Eidechsen, die sich teilweise von den Vorstellungen anderer Autoren unterscheidet (McDowell und Bogert, 1954, Russell, 1967, Meszoely, 1970). Die meisten dieser früheren Arbeiten basieren auf der Schädelstruktur. Angesichts von Interpretationsunterschieden ist es nun erforderlich, die Phylogenie der anguinomorphen Eidechsen anhand des Aufbaus ihrer Kopfmuskulatur durch eine Untersuchung des Schädels zu überprüfen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-9372-5_24 35e27841666bfcec67c53279025d4668;de;;;3.1.;;;Entdeckung neuer regionaler Investoren durch Web Mining Um Mikrounternehmen zu fördern und ihre Produkte und Dienstleistungen zu verkaufen, wird ein neues vorgeschlagenes System der Web-Mining-Technologie verwendet, um neue regionale Investitionsprojekte zu entdecken. Auf den Regierungswebsites von Huaian in der Provinz Jiangsu veröffentlichte Projektinformationen werden extrahiert, um die vorgeschlagene Methode zu nutzen. Python-Sprache, MySQL-Datenbank und Django-Webframework werden verwendet, um das Anwendungssystem zu entwickeln, und der Multi-Faktor-Matching-Algorithmus wird bereitgestellt, um wichtige Informationen zu Projektname, Zeit, Adresse, Kontakt, Domain und URL durch Web-Mining zu sammeln. Darüber hinaus werden die Standort- und Statistikfunktionen in dem vorgeschlagenen System ausgeführt, das die Anwendungsanforderungen von Mikrounternehmen erfüllen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4614-7010-6_92 a7003782423c6fa099db8d3ddec93c02;de;;;3.1.;;;Einführung in die Theorie der Interior-Point-Methoden Wir diskutieren die grundlegenden Konzepte von Inner-Punkt-Methoden für die lineare Programmierung, nämlich Dualität, die Existenz einer streng komplementären Lösung, analytische Zentren und den zentralen Pfad mit seinen Eigenschaften. Um das Initialisierungsproblem zu lösen, geben wir eine Einbettung des primalen und des dualen Problems in eine schiefsymmetrische selbstduale Reformulierung, die einen offensichtlichen inneren Anfangspunkt hat. Schließlich betrachten wir das Thema der inneren punktbasierten Sensitivitätsanalyse.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-3449-1_1 53ab631386d5436a069668ceadda0273;de;;;3.1.;;;Robuste Kompensatoren fester Ordnung nach dem Min-Max-Prinzip Ein wichtiger (manche sagen der Hauptgrund) für die Verwendung der Rückkopplungssteuerung ist das Vorhandensein unsicherer Parameter, die ein natürlicher Bestandteil jedes realen dynamischen Modells sind. In diesem Artikel betrachten wir unsichere konstante Parameter in einer zeitinvarianten linearen Anlage und geben einige neue Ergebnisse zur robusten Kompensatorsynthese bekannt. Unter Verwendung des Min-Max-Prinzips leiten wir notwendige Bedingungen für lineare robuste Regler fester Ordnung ab, die asymptotische Stabilität oder relative Stabilität gewährleisten. Diese notwendigen Bedingungen sind eine Erweiterung der Lagrange-Multiplikatormethode. Dies wird unter Verwendung einer Kostenfunktion erreicht, die auf der Umkehrung der sogenannten kritischen Einschränkung basiert. Wir präsentieren sowohl Matrix- als auch Polynomversionen, letztere ermöglicht Controller mit fester Struktur. Wir schlagen einen Wahrscheinlichkeits-Eins-Homotopiealgorithmus vor und lösen einige Beispiele aus der Literatur.;-;-;-;https://link.springer.com/article/10.1007/BF02191665 41d066dcaf296e2f0e28a13a8979cb76;de;;;3.1.;;;Das Problem der teuren Brocken und seine Lösung durch Einschränkung der Aussagekraft Soar ist eine Architektur für ein System, das zu allgemeiner Intelligenz fähig sein soll. Chunking, ein einfacher erfahrungsbasierter Lernmechanismus, ist der einzige Lernmechanismus von Soar. Beim Chunking werden basierend auf den Ergebnissen der Problemlösung neue Informationen, sogenannte Chunks, erstellt und in der Wissensdatenbank gespeichert. Auf diese Blöcke wird in geeigneten späteren Situationen zugegriffen und sie verwendet, um die zu ihrer Bestimmung erforderliche Problemlösung zu vermeiden. Es ist bereits bekannt, dass Chunking die Leistung in Soar verbessert, wenn man die erforderlichen Teilprobleme und die Anzahl der Schritte innerhalb eines Teilproblems betrachtet. Trotz der Verringerung der Anzahl der Schritte kann es jedoch manchmal zu einer schwerwiegenden Verschlechterung der Gesamtlaufzeit kommen. Dieses Problem entsteht durch;-;-;-;https://link.springer.com/article/10.1007/BF00117107 87becfaf9d8ff1eb36a7fd5757c3fefe;de;;;3.1.;;;Concurrent Common Knowledge: Vereinbarung für asynchrone Systeme definieren In diesem Beitrag stellen wir eine neue, wissenstheoretische Definition von Übereinstimmung vor, die für asynchrone Systeme entwickelt wurde. In Analogie zum Allgemeinwissen heißt es;-;-;-;https://link.springer.com/article/10.1007/BF02252679 222e42bbbc4188206e18da7f18cce83f;de;;;3.1.;;;Zur Identität und Synonymie der häufigeren „Hydrobien“ der Rüssingen-Formation ( Die megafossilen Ansammlungen der frühmiozänen Formationen Rüssingen und Wiesbaden im Mainzer Becken werden von einigen wenigen Arten von Hydrobioiden (ein informeller Begriff für Mitglieder der Hydrobiidae, Cochliopidae und Pomatiopsidae mit;-;-;-;https://link.springer.com/article/10.1007/BF03055278 310d29392d7d40bd5d85ceab554897d5;de;;;3.1.;;;Probleme beim Transaktionsmanagement in einer fehleranfälligen Multidatenbanksystemumgebung Dieses Papier befasst sich mit dem Problem der Integration einer Reihe von existierenden lokalen Datenbanksystemen von der Stange in ein Multidatenbanksystem, das trotz Nebenläufigkeit und Fehlern konsistent bleibt. Die Hauptschwierigkeiten bei der Entwicklung solcher Systeme ergeben sich aus den Anforderungen lokaler Transaktionen dürfen außerhalb der Multidatenbanksystemsteuerung ausgeführt werden, und dass die verschiedenen lokalen Datenbanksysteme nicht an der Ausführung eines globalen Festschreibungsprotokolls teilnehmen können. Es wird ein Schema entwickelt, das auf der Annahme basiert, dass die Komponenten lokaler Datenbanksysteme das strenge Zweiphasen-Sperrprotokoll verwenden. Zwei Hauptprobleme werden angesprochen: Wie kann die globale Transaktionsatomizität ohne Bereitstellung eines Commit-Protokolls sichergestellt werden, und wie kann die Freiheit von globalen Deadlocks sichergestellt werden.;-;-;-;https://link.springer.com/article/10.1007/BF01228706 4c90bc1f4e3d5a94093fd5037cd9bac5;de;;;3.1.;;;Nord- und Mittelgriechenland Amphipolis von dem Athener Hagnon Nikiou Steirieus wurde am Trainingsknotenpunkt Ennea Hodoí (Neun Wege) gegründet. Die Stadt liegt 4,5 km landeinwärts in einer Schleife des Strymon. Ihren Namen bekam sie, weil sie »sichtbar vom Land und vom Meer« her war (Thukydides 4, 102, 4). Der jüngere Name Chrysoupolis bezieht sich wohl auf ihren Hafen Eion, wo die byzantinische Stadtmauer teilweise erhalten ist. In den Ruinen von Amphipolis liegt das heutige Neochori, 1922 von Flüchtlingen aus Kleinasien gegründet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-476-03745-9_10 6357be40b4fac2d7e2871ca948d9e64b;de;;;3.1.;;;Le Documentaliste-Berater Die Gesundheitsdokumentationszentren sollen den Benutzern eine spezifische Ausbildung zu Informationskonsumenten gewährleisten. Der Bibliothekar ist ein wahrer Experte für die Informationsquellen, die eine schlechte und schlechte Anfrage in Bezug auf Schlüsselwörter auf eine Recherche basierend auf Datenbanken und Internet stellen können. Andererseits kann der Bibliothekar eine medizinische Ausbildung in einer bestimmten Forschungsmethodik und eine dokumentarische Recherche in Datenbanken sicherstellen. Die Orientierung im Struktur- und Methodenplan, die wissenschaftliche Begleitung, die bibliographische Überarbeitung nach den in jeder thematischen Studie geeigneten bibliographischen Regeln soll die ständige Präsenz des Bibliothekars in der Nähe des Benutzers – des Arztes – belegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4621-0_28 97ac6ffb5e2548827a501a4a6c9f1bbd;de;;;3.1.;;;Änderungserkennung aus Luftbildern, die in verschiedenen Zeiträumen aufgenommen wurden Aufgrund der schnellen Entwicklung von Städten ist die Aktualisierung der städtischen GIS-Daten sehr wichtig. Die Änderungserkennung ist die Grundlage für die automatische oder halbautomatische Datenaktualisierung. Eine Möglichkeit zur Erkennung von Veränderungen im Stadtgebiet basiert auf alten und neuen Luftbildern, die in unterschiedlicher Dauer aufgenommen wurden. Die entsprechende Theorie und Experimente werden in dieser Arbeit vorgestellt und analysiert. Das Hauptverfahren umfasst vier Phasen. Die neuen und alten Bilder müssen zuerst registriert werden. Dann wird ein Bildabgleich basierend auf dem maximalen Korrelationskoeffizienten zwischen registrierten Bildern durchgeführt, nachdem die Bereiche mit niedrigem Kontrast entfernt wurden. Die Regionen mit niedriger Übereinstimmungsqualität werden als geänderte Kandidatenbereiche extrahiert. Drittens wird der Gauß-Laplace-Operator verwendet, um Kanten in geänderten Kandidatenbereichen auf beiden registrierten Bildern zu erkennen, und die geraden Linien werden durch Hough-Transformation erkannt. Schließlich können die geänderten Häuser und Straßen auf der Grundlage eines geraden Linienabgleichs in geänderten Kandidatenbereichen zwischen registrierten Bildern erfasst werden. Einige experimentelle Ergebnisse zeigen, dass die in dieser Arbeit vorgestellte Methode effektiv ist.;-;-;-;https://link.springer.com/article/10.1007/BF02826712 27e2360ded57a0a5c4e91e934aa1fa62;de;;;3.1.;;;Umgang mit korrigierbaren und nicht korrigierbaren Eigenschaften beim Service Matchmaking Im Rahmen der Service Discovery prüfen Matchmaker die Einhaltung der Service-Level-Ziele von Anbietern und Verbrauchern. Das Problem der begrenzten Unsicherheit tritt auf, wenn eine Eigenschaft nicht fixierbar ist. In diesem Fall ist der Provider nicht in der Lage, den zur Laufzeit angenommenen Wert zu kontrollieren, sodass der Endverbraucher nicht die Wahl haben muss, einen Wert auszuwählen und ihn festzulegen, sondern nur den garantierten Wertebereich kennen muss, den er annehmen kann. Nach unserem besten Wissen existiert kein Ansatz, der dieses Szenario behandelt. Die meisten Partnervermittler arbeiten so, als ob alle Eigenschaften korrigierbar wären, und einige haben das Gegenteil angenommen. In jedem Fall ist die Genauigkeit ihrer Ergebnisse wahrscheinlich in Frage gestellt, da sowohl fixierbare als auch nicht fixierbare Eigenschaften gleichzeitig beteiligt sein können und auch Abhängigkeiten zwischen ihnen bestehen können. Um die Genauigkeit zu verbessern, präsentieren wir einen ganzheitlichen Ansatz für das Matchmaking unter begrenzter Unsicherheit und schlagen die Constraint-Programmierung als unsere Wahl vor, damit umzugehen, so dass Matchmaking in ein quantifiziertes Constraint-Erfüllungsproblem umgewandelt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-16132-2_22 5545eb0ded657cf3050c96339c3301fa;de;;;3.1.;;;Lehrling in Lehmanns Labor Dieses Kapitel beschreibt Edgar Rubins Ausbildung in experimenteller Psychologie im Labor von Alfred Lehmann (1858–1921), dem Pionier der experimentellen Psychologie in Dänemark. Lehmann, ein Naturwissenschaftler, hatte bei Wilhelm Wundt in Leipzig studiert und wurde ein Pionier der Psychophysiologie und ein enorm produktiver Forscher. Einige Hauptaspekte seiner Forschung werden diskutiert, wie zum Beispiel über die physiologischen Begleiterscheinungen psychischer Zustände, einschließlich der Emotionen, sowie seine Kritik am Spiritualismus. Lehmann war in den Jahren 1905–1910 Edgar Rubins wichtigster Mentor an der Universität Kopenhagen. Unter Lehmanns Anleitung führte Rubin eine Studie zum Wärmeempfinden durch, die zu seiner ersten wissenschaftlichen Arbeit führte. Während seiner Studienzeit an der Universität Kopenhagen leitete Rubin eine Diskussionsgruppe namens;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-01062-5_3 b4fc07a709a6049ec328eefadadba635;de;;;3.1.;;;Eine Rüstung aus einer Pracht? – ein spätmittelalterlicher Schmuck aus Schloss Ogrodzieniec im Krakau-Tschenstochauer Jura Der Aufsatz befasst sich mit einem Couter aus dem späten 14. bis frühen 15. Jahrhundert, der im Schloss Ogrodzieniec, Bezirk Zawiercie, Polen, gefunden wurde (jetzt in der Sammlung des Oberschlesischen Museums in Bytom, MG 7755). Der Fund ist in einem rudimentären Zustand erhalten geblieben, dennoch konnten einige typologische Analogien vorgeschlagen werden. Metallographische Untersuchungen ergaben, dass das Artefakt aus nahezu kohlenstofffreiem Eisen mit hohem Phosphorgehalt hergestellt wurde. Eine Analyse von Schlackeneinschlüssen im Fund lässt vermuten, dass der Couter aus raffiniertem Hochofeneisen hergestellt worden sein könnte. Es kann somit ein frühes Beispiel für die Anwendung von indirektem Prozesseisen bei der Herstellung von Plattenpanzern sein.;-;-;-;https://link.springer.com/article/10.1007/s12520-019-00979-1 2ccb09a21beee594b719ba68345cdef2;de;;;3.1.;;;Ein Blick auf die Optionspreise bei der Einführung von Handelsmarken In diesem Papier wird ein Optionspreismodell verwendet, um die Auswirkungen verschiedener Faktoren darauf zu untersuchen, ob und wann ein Einzelhändler sich für die Einführung einer Handelsmarke in einer Produktkategorie entscheidet, die derzeit die exklusive Domäne eines Herstellers ist. Zu den berücksichtigten Faktoren zählen die Margen des Einzelhändlers und des Herstellers, die Kosten für die Einführung der Handelsmarke, die der Handelsmarke zuzuordnende Regalfläche und folglich der von ihr zu erreichende Marktanteil im Handel sowie die Qualität der Handelsmarke .;-;-;-;https://link.springer.com/article/10.1057/palgrave.jors.2600847 8b98cea9f73c90d2c256221ab7efa376;de;;;3.1.;;;Die untere Themse Die vorherigen beiden Kapitel haben den oberen Teil des Einzugsgebiets der Themse, stromaufwärts vom Londoner Becken (Kapitel 2), und dann den mittleren Teil seines Verlaufs behandelt, das Gebiet, in dem die längsten Aufzeichnungen über die Ablagerungsgeschichte des Flusses erhalten sind und wo detailliert beschrieben wird Beweise für seine glaziale Ableitung können beobachtet werden (Kapitel 3). Dieses Kapitel befasst sich mit dem Tal der unteren Themse, das eine komplexe Abfolge von mittel- und oberpleistozänen Ablagerungen enthält, die unter verschiedenen klimatischen Bedingungen sowohl in Fluss- als auch in Mündungsgebieten abgelagert wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-0705-1_4 85ebca09545079f9b6b1b13053db440d;de;;;3.1.;;;Das Sammeln und die ars memoriae Im Jahre 1565 veröffentlicht Samuel Quicchelberg (1529–1567) — ein junger Mediziner aus Antwerpen, der sich seit Jahren mit dem Gebiet der Bibliotheken und Sammlungen, im Dienste der Fugger und Herzog Albrechts V. von Bayern (1528–1579), beschäftigt hatte — in München ein kurzes Werk mit einem sehr langen Titel:;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-10698-2_5 e4ba9052042d31a631aebee7fefd57d3;de;;;3.1.;;;Datenquellen für Hintergrundvariablen im internationalen Vergleich Neben den etablierten Messinstrumenten, den von den UN-Sonderorganisationen, von Eurostat und von Sozialforschern für den internationalen Vergleich der nationalen Statistiken bzw. Umfragedaten entwickelt wurden, existierende Datenbanken, die von Eurostat, der Europäischen Kommission, der Wirtschaftskommission der Vereinten Nationen für Europa oder von akademischen Einrichtungen Erstellt und/oder gepflegt Werden. Diese Datenbanken haben einen sehr unterschiedlichen Charakter. Teils stellen sie thematische Materialsammlungen dar, teils Sammlungen von Messinstrumenten oder Fragebögen. Aber es gibt auch Datenbanken, die statistische Daten im Vergleich in unterschiedlicher Aufbereitung anbieten. Außerdem werden in Europa Umfragen, sowohl unter der Regie von Eurostat oder der von der Europäischen Kommission, als auch akademische Umfragen durchgeführt, an deren Fragebögen sich der international vergleichend arbeitende Sozialforscher möglicherweise.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-19026-6_4 591bb08c2b28dc237d9a44d31ee95e04;de;;;3.1.;;;Bestandspolitik Das Dokumentations- oder Bestandsprofil eines Archivs wird bestimmt durch den institutionellen Ort des Archivträgers. Aus der Trägerschaft ergeben sich Zuständigkeiten oder Sammlungskonzepte, die im staatlichen Bereich inzwischen flächendeckend gesetzlich geregelt sind und im privatrechtlichen Sektor auf internen Satzungen des Archivträgers vertrauen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-476-05388-6_21 fad6212c474fc60db16a228e79248d86;de;;;3.1.;;;MOEA-Theorie und -Probleme Viele MOEA-Entwicklungsbemühungen erkennen verschiedene Facetten der zugrunde liegenden MOEA-Theorie an, leisten jedoch nur begrenzte Beiträge, wenn sie nur relevante Probleme zitieren, die von anderen angesprochen wurden. Einige Autoren weisen jedoch erhebliche theoretische Details auf. Ihre Arbeit liefert grundlegende MOEA-Modelle und zugehörige Theorien. Tabelle 6.1 listet zeitgenössische Bemühungen auf, die die Entwicklung der MOEA-Theorie widerspiegeln. Im Wesentlichen sucht ein MOEA nach optimalen Elementen in einer teilweise geordneten Menge oder in der Pareto-Optimalen Menge. Somit ist das Konzept der Konvergenz zu;-;-;-;https://link.springer.com/chapter/10.1007/978-0-387-36797-2_6 349c50bed64a72a92ebeb73f10c09b84;de;;;3.1.;;;Ein Partikelschwarm mit mehreren Zielen für eingeschränkte und uneingeschränkte Probleme Multi-Objective Particle Swarm Optimization Algorithms (MOPS) werden erfolgreich eingesetzt, um reale Optimierungsprobleme zu lösen. Die auf der Partikelschwarmoptimierung (PSO) basierenden Mehrzielalgorithmen haben verschiedene Anpassungen erfahren, um die Konvergenz zur echten Pareto-optimalen Front und einer gut diversifizierten nicht dominierten Lösung zu verbessern. In einigen Fällen müssen die Werte der MOPS-Steuerungsparameter fein abgestimmt werden, während ein spezifisches Mehrzieloptimierungsproblem gelöst wird. Es ist eine Herausforderung, den Wert der PSO-Regelparameter korrekt abzustimmen, wenn die wahren nicht dominierten Lösungen nicht bekannt sind, wie im Fall eines realen Optimierungsproblems. Um dieser Herausforderung zu begegnen, wurde ein multiobjektiver Partikelschwarm-Optimierungsalgorithmus entwickelt, der konstante PSO-Regelparameter verwendet. Der neue Algorithmus namens NF-MOPSO ist in der Lage, verschiedene Mehrzieloptimierungsprobleme zu lösen, ohne den Wert der PSO-Regelparameter feinabstimmen zu müssen. Der NF-MOPSO verbessert die Konvergenz zur echten Pareto-optimalen Front und verbessert die Diversität von Pareto-optimal unter Verwendung der gleichen festen Werte für alle PSO-Regelparameter. Der NF-MOPSO verwendet konstante Werte der PSO-Regelparameter wie Beschleunigungskoeffizienten;-;-;-;https://link.springer.com/article/10.1007/s00521-020-05555-6 96aed20850a34c30eba92f1a48c1934f;de;;;3.1.;;;Löwen (1538–1544) Als Gois nach 4 Jahren Abwesenheit wieder Löwen erreichte, ging es ihm unmittelbar darum, einen eigenen Haushalt aufzubauen. Das tatsächliche Datum seiner Heirat mit Johanna van Hargen ist nicht sicher (es war wahrscheinlich entweder Ende 1538 oder Anfang 1539), wie oben erwähnt, seine Frau war Niederländerin, adelig, reich und streng katholisch. Auch Gois Großvater väterlicherseits hatte sich eine niederländische Braut genommen, und Gois selbst war in Holland so zu Hause, dass er nach seinen eigenen Worten „sehr gut aufgenommen und als Einheimischer von allen akzeptiert“ wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-3488-3_8 d85cba531a6024d5d4ed2b4acdcd7c1f;de;;;3.1.;;;Die Nebenniere „Consentaneum esse duxi de quibusdam Renum glandulis ab aliis Anatomicis negligenter praetermissis hoc loc scribere. Nam utrique Reni, in eminentiori ipsorum regione (quae venam spectat) glandula adhaeret. Ejus substantia quemadmodum et figura Renibus fere responseet: licet saepe depressa quoque ad latera eventat, ut potius placentae quam Renis formam referre videatur ... Eveni tarnen frequentius ut dextra, sicut etiam Reni, sinistram superet.“;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-42335-6_1 e7284d42a7c61873856b91fb3d5fcf7b;de;;;3.1.;;;Studien zu Lektinen aus Meeresschalen (III): Screening auf lektinähnliche Agglutinine aus Meeresschalen Vierzig Arten von Meeresmuscheln wurden von koreanischen Küsten gesammelt und ausgiebig auf ihre Lektinaktivitäten untersucht, indem Erythrozyten aus menschlichem Blut der A-, AB-, B-, O-Gruppe und Kaninchenblut verwendet wurden. Insgesamt enthielten 7 Arten Lektine:;-;-;-;https://link.springer.com/article/10.1007/BF02856631 61041f67e0fe420f736cff38e8dd8922;de;;;3.1.;;;Algorithmen für Payoff-Trajektorien in Im Jahr 2009 ([4]) wurde ein neues Verfahren zur Bestimmung des Auszahlungsraums von nichtparametrisch differenzierbaren Normalformspielen vorgestellt. Dann wurde das neue Verfahren (in [1]) angewendet, um numerisch einen ursprünglichen Typ einer dreidimensionalen Darstellung der Familie von Auszahlungsräumen in Normalform;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31724-8_67 d9ca6725b94fa2f8e323d707564c8ef0;de;;;3.1.;;;Design eines Open Equation Archive Servers, der gegen Denial-of-Service-Angriffe resistent ist Wir haben die Widerstandsfähigkeit gegen Denial-of-Service-Angriffe in einem webbasierten Gleichungsarchivserver untersucht. Jeder zu archivierende Gleichungssatz sollte nicht nur von seinem Mitwirkenden (auf der Clientseite) sondern auch vom Archivserver (auf der Serverseite) überprüft werden, um die Integrität des Archivs zu bewahren. Die Überprüfung eines Gleichungssatzes verursacht einen gewissen Rechenaufwand, und wenn ein böswilliger Benutzer einen Gleichungssatz einreicht, dessen Überprüfung rechenintensiv ist, werden dem Archivserver übermäßige Kosten auferlegt, was zu einem Denial-of-Service-Angriff führt. In diesem Whitepaper schlagen wir eine neue Technik vor, um die Widerstandsfähigkeit eines Servers gegen solche Angriffe zu verbessern, die als Schätzungs-Attaching-Methode bekannt ist. Diese Technik wird auch auf andere Arten von Webanwendungen angewendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35864-7_9 6fa1432e673af3686808db945bfcb0c1;de;;;3.1.;;;Netzwerke mit nichtlinearen passiven und aktiven Bauelementen Für die Funktionalität eines Senders entsprechend Bild 1 sind die nichtlinearen Eigenschaften passiver und aktiver Bauelemente bei der Sendeleistungsverstärkung, der Frequenzvervielfachung, der Modulation sowie der Stabilisierung der Amplitude des Sendeoszillators erforderlich. Bei einem Überlagerungsempfänger entsprechend Bild 2 sind für die Frequenzumsetzung (Mischung) aus der HF-Ebene in der konstante ZF-Ebene sowie für die Begrenzung und Demodulation ebenfalls mit nichtlinearen passiven und aktiven Bauelementen notwendig.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-22459-5_7 f1a33b0cb34a6874ae4e5309d0e57678;de;;;3.1.;;;Die Etablierung des Akademikersystems im Neuen China Nachdem 1981 ein Plan zur Etablierung des akademischen Systems scheiterte, blieb der Ruf nach dem System bestehen. Die Chinesische Akademie der Wissenschaften (CAS) etablierte schließlich das Mitgliedersystem im Jahr 1994, indem alle Mitglieder der akademischen Abteilung in CAS-Mitglieder umgewandelt wurden, basierend auf der Umwandlung der Mitglieder der akademischen Abteilung in den höchsten akademischen Ehrentitel des Landes in Wissenschaft und Technologie im Jahr 1983 und der Kooptation seiner Mitglieder.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-7208-1_10 1881f5aad7fc0d0bba9dd45c84a8a51d;de;;;3.1.;;;Verwendung der COG-Datenbank zur Verbesserung der Generkennung in kompletten Genomen Ein vollständiges Verständnis der Biologie eines Organismus beginnt notwendigerweise mit der Kenntnis seiner genetischen Ausstattung. Proteine, die in einem Genom kodiert sind, müssen identifiziert und charakterisiert werden, und die Anwesenheit oder Abwesenheit spezifischer Proteinsätze muss festgestellt werden, um die möglichen biochemischen Wege oder funktionellen Systeme zu bestimmen, die von diesem Organismus verwendet werden. Die COG-Datenbank bietet eine Reihe von Werkzeugen, die für diese Zwecke geeignet sind, einschließlich der Möglichkeit, Proteinfamilien (COGs) auszuwählen, die Proteine ​​aus einer bestimmten Artengruppe enthalten. Die Auswahl basiert auf einem phylogenetischen Muster, das eine Kurzdarstellung des Vorhandenseins oder Fehlens einer bestimmten Spezies in einem COG ist. Hier präsentieren wir die Verwendung phylogenetischer Muster als Mittel zur gezielten Suche nach unerkannten proteinkodierenden Genen in kompletten Genomen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1004031323748 635907d7f2f3e1e1bfac9f5a598c4d8b;de;;;3.1.;;;Modellierungsarchive mit OAI-ORE Gegenwärtig bewegt sich die Archivpraxis in Richtung der Definition komplexer Beziehungen zwischen den interessierenden Ressourcen sowie der Konstitution von zusammengesetzten digitalen Objekten. Zu diesem Zweck können Archive die Nutzung der;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35834-0_22 0b8e9444df773a2023762350fa18fd9a;de;;;3.1.;;;Design und Implementierung eines verbesserten zertifizierten Dokumentenarchivsystems basierend auf PDF Ein Unternehmensunternehmen produziert eine riesige Anzahl digitaler Dokumente. Insbesondere erstellt ein Unternehmen, das personenbezogene Daten verarbeitet, wie beispielsweise ein Versicherungsunternehmen, ein persönliches digitales Dokument. Dieses digitale Dokument muss für eine Streitigkeit zwischen einem Unternehmen und einem Kunden zertifiziert und archiviert werden. Und das Unternehmen muss aufgrund eines Langzeitarchivs seinen Archivspeicher erhöhen. In diesem Papier haben wir ein neues PDF-Objektschlüsselwort und ein vorgeschlagenes ECD-Archivsystem (Enhanced Certified Document Archive) definiert, das gemeinsame Ressourcen aus einer zertifizierten PDF-Datei findet und das ECD-Archivformat speichert, um Speicherplatz zu sparen. Unser Experiment hat gezeigt, dass das ECD-Archivsystem den gesamten Speicherplatz effizient reduziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-9341-9_58 d5f0b7bc2ef22397f00bfa8bd3e87dcc;de;;;3.1.;;;Morphognostische und multivariate-statistische Verfahren zur Geschlechts- und Rassendiagnose Ein beispielhafter Fall wird gezeigt, dass in der prähistorischen Anthropologie z.B. multivariate statistische Verfahren zur Geschlechtsbestimmung (Diskriminanzfunktionsanalyse) und Bevölkerungsvergleiche (Penrose's Distance Analysis) können auch in der Rechtsmedizin erfolgreich zur Identifizierung von Skelettbefunden des Menschen eingesetzt werden und können eine objektive Geschlechts- und Rassenbestimmung wesentlich unterstützen.;-;-;-;https://link.springer.com/article/10.1007/BF02114962 10d0793f2d6b8d57922288777f09f0d5;de;;;3.1.;;;Die Blutgefäßversorgung des Magen-Darmkanals der Monotremen Bei Ornithorhynchus anatinus und Tachyglossus aculeatus wurden die Arterien und Venen, die Magen und Darm versorgen, eingehend untersucht. Bei diesen Tieren ist es nicht möglich, anhand der Blutgefäße die Homologie der verschiedenen Abschnitte des Verdauungstraktes zu bestimmen. Das gleiche Ergebnis wurde früher in Studien an Chiroptera erzielt. Die beiden Arten von Monotremen zeigen auffällige Unterschiede im Kreislaufsystem des Verdauungstraktes. Tachyglossus hat viele Ähnlichkeiten mit der primitiven Eutheria, während sich Ornithorhynchus in mehreren Punkten unterscheidet. In einigen dieser Eigenschaften sowie in der Struktur der Darmschleimhäute und in der Abgrenzung zwischen Dünndarm und Dickdarm. Ornithorhynchus ist unter Säugetieren einzigartig. Diese Besonderheiten weisen auf eine sehr frühe Trennung der phylogenetischen Linien innerhalb der Monotremen hin.;-;-;-;https://link.springer.com/article/10.1007/BF00520796 35e8475768bbd622c87ec069480459b7;de;;;3.1.;;;Mehrfachveröffentlichung von Berichten über Arzneimittelstudien Vierundvierzig Mehrfachpublikationen von 31 vergleichenden Studien mit nichtsteroidalen Antirheumatika bei rheumatoider Arthritis wurden auf gegenseitige Übereinstimmung untersucht. 32 der Papiere wurden in derselben Sprache wie die Primärversion veröffentlicht. Wichtige Diskrepanzen wurden in 14 Studien beobachtet, bei der Beschreibung des Studiendesigns in zwei, Ausschluss von Protokollverstößen in zwei, Inkonsistenz in der Anzahl der Effektvariablen in fünf, in der Anzahl der Nebenwirkungen in fünf und im Signifikanzniveau in eins. In drei Artikeln wurde die Schlussfolgerung für das neue Medikament mit der Zeit günstiger.;-;-;-;https://link.springer.com/article/10.1007/BF00558064 f4d3ce5d5b7295e62a1e64018e4f5a26;de;;;3.1.;;;Theorie der digitalen Desinformation in den internationalen Beziehungen Dieses Papier bietet eine Einschätzung der Fähigkeit verschiedener Theorien der internationalen Beziehungen, moderne Nutzungen internationaler digitaler Desinformation zu erfassen. Genauer gesagt argumentiert der Artikel, dass E. H. Carrs Propagandabegriff, John J. Mearsheimers Lügentypologie und Joseph Nyes Konzeptualisierung der Public Diplomacy nützliche theoretische Linsen bieten, durch die wir unser Verständnis der internationalen digitalen Desinformation verbessern können. Ihr Mehrwert wird durch die Anwendung dieser drei theoretischen Perspektiven auf drei „Prototypenfälle“ moderner internationaler digitaler Desinformation demonstriert. Das Papier kommt zu dem Schluss, dass die drei theoretischen Perspektiven neue Aspekte der internationalen digitalen Desinformation verständlich machen, einschließlich der zugrunde liegenden Motive für die Nutzung digitaler Desinformation. Es bleibt jedoch noch Raum für eine detailliertere theoretische Betrachtung der digitalen Desinformation und ihrer Verwendung in den modernen internationalen Beziehungen.;-;-;-;https://link.springer.com/article/10.1057/s41311-020-00215-x 2d21f7813c0ff55f1712e72d02262785;de;;;3.1.;;;Archiv und Medium Archive sind Verräumlichtungen der Zeit und Codierungen des Gedächtnisses, deren mediale Bedingungen bedeutsam sind: Der Zusammenhang zwischen Archiv und Medium ist ebenso offensichtlich wie allgegenwärtig. Er wird bereits deutlich, wenn man das Schicksal vieler Archive durch alle Gesellschaftsbereiche innerhalb der letzten zwanzig Jahre bedenkt: Beträchtliche Teile des Archivs zeitgenössischer Gesellschaften abgelegt in den letzten Jahrzehnten digitalisiert und auf anderen Speichermedien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-476-05388-6_14 dc54ede35803c5bb1e9a77ccd5f1bdca;de;;;3.1.;;;Der Archiv-Nexus: Überdenken des Zusammenspiels archivarischer Vorstellungen über die Art, den Wert und die Verwendung von Aufzeichnungen Dieser Artikel zeichnet eine Alternative zur Evidenz/Gedächtnis-Dichotomie im Archivdiskurs nach, indem er den Zusammenhang zwischen archivarischen Vorstellungen über die Natur, den Wert und die Verwendung von Aufzeichnungen hervorhebt, wie sie durch die Linse eines archivarischen Beweiskonzepts als Beziehung zwischen Aufzeichnungen und Veranstaltung. Dieser Artikel untersucht dann, wie „der Archiv-Nexus“ einen anderen Rahmen bietet, um die verschiedenen Bedeutungsfindungsprozesse rund um das Archiv innerhalb und außerhalb des Archivs zu verstehen und die Rolle des Archivars und die Position der Archivdisziplin in Bezug auf andere Disziplinen, die sich explizit mit dem Archiv befassen und sich damit auseinandersetzen.;-;-;-;https://link.springer.com/article/10.1007/s10502-009-9107-0 376f07997f3a7a23832400af564a210f;de;;;3.1.;;;Umgang mit Multizielen mit adaptiver Mutationsbasis Differentielle Evolution (DE) ist bekannt als leistungsfähiger und effizienter bevölkerungsbasierter stochastischer Realparameter-Optimierungsalgorithmus über kontinuierlichem Raum. Kürzlich wurde gezeigt, dass DE mehrere bekannte stochastische Optimierungsmethoden bei der Lösung von Mehrzielproblemen übertrifft. Dennoch ist seine Leistung beim Finden einer gleichmäßig verteilten und nahezu optimalen Pareto-Front noch begrenzt. Um solche Einschränkungen zu mildern, führt dieses Papier einen adaptiven Mutationsoperator ein, um eine vorzeitige Konvergenz zu vermeiden, indem der Mutationsskalierungsfaktor adaptiv eingestellt wird;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-20466-6_55 543262e110815bdc82ea5668114d7736;de;;;3.1.;;;Definitionen elektronischer Aufzeichnungen, die europäische Perspektive Für die Definition elektronischer Aufzeichnungen ist die Verwendung neuer Begriffe wie „literarischer Haftbefehl“ nicht erforderlich und aus europäischer Sicht auch nicht nachvollziehbar. Wenn dieser Ausdruck einfach „Best Practice und professionelle Kultur“ in der Dokumentation bedeutet, wissen wir nur, was Urheber jahrhundertelang getan haben und heute noch tun und wahrscheinlich auch in Zukunft tun werden, indem wir zur Klärung auf die Archivwissenschaft, Diplomatie und Archivpraxis verweisen Definitionen in der Dokumentationsumgebung. Für das elektronische Aufzeichnungssystem ist nach wie vor ein multidisziplinärer Ansatz erforderlich, wie es in der Vergangenheit für traditionelle Aufzeichnungen der Fall war, aber die Theorie und die Terminologie sollten konsistent sein und auf dem tiefen Verständnis der wesentlichen Merkmale von Aufzeichnungen und den grundlegenden Anforderungen einer guten Aufzeichnung basieren, um in erster Linie erstellen und zuverlässige und authentische Aufzeichnungen führen. Natürlich ist eine Aufzeichnung mehr als eine im Rahmen einer Geschäftstätigkeit erstellte Aufzeichnung: Eine Aufzeichnung ist die aufgezeichnete Darstellung einer Handlung, die in einer bestimmten Form – der von der Rechtsordnung vorgeschriebenen Form – von einem Schöpfer im Rahmen seiner Tätigkeit vorgenommen wurde .;-;-;-;https://link.springer.com/article/10.1023/A%3A1009029211533 72dc4a8a6a5d450a986ed106847d965d;de;;;3.1.;;;Entwurf einer Geschichte der ansteckenden Geschlechtskrankheiten Warum nur ein „Entwurf ?“ Warum nicht, wie der Herr Herausgeber wohlwollend vorschlgt, eine „Geschichte“ kurzweg ? — Goethe hat uns „Materialien zur Geschichte der Farbenlehre“ geschenkt. Kurt Sprengel bezeichnet sein Geschichtswerk noch in der dritten umgearbeiteten Auflage als „Versuch einer pragmatischen Geschichte der Arzneykunde“ und Alexander von Humboldt überschreibt nach langer gründlicher Überlegung seines Lebenswerks als „Kosmos, Entwurf einer physischen Weltbeschreibung“. Sollte ich unbescheidener sein? Den Leser WIRD besonders das dritte, vierte und fünfte Hauptstück des dritten Teiles davon überzeugen, dass Lücken klaffen und vieles noch zu suchen und zu finden ist, ehe der Begriff Einer Geschichte der andenden Geschlechtskrankheiten annhernd erfüllt Werden kann. If er am Ende findet, dass ich den bisher vermissten Faden für die Geschichte der schlimmsten Geschlechtssplage, der Syphilis, in der Hand habe, dann bin ich zufrieden. Denn dann wird mein Versuch ein „Leitfaden“ bleiben für kommende Forscher, keine naupengeheuerliche Geschichtsklitterung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-94392-8_2 e9ac57fd57382f25629175c35757b0b6;de;;;3.1.;;;Grafikdesign Grafikdesign Grafikdesign Les deux graphistes Noémie Arrigo et Corina Neuenschwander ont réalisé, pour lur travail de diplôme à la Hochschule für Gestaltung und Kunst in Zürich, ein Magazin qui, s'inspirant de la collection d'une designer de mode, associe divers domaines de manière de interdisziplinaire - à savoir le graphisme, la photographie und la mode. Le-Magazin, «2;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7643-8450-0_2 0b3f0e9cc8c340d5201659c98b687915;de;;;3.1.;;;Kenia: Rifts Apart Die Anfänge des kenianischen Schreibens in englischer Sprache werden von den Namen Ngũgĩ wa Thiong’o, Grace Ogot, Rebeka Njau, von „Makerere English“ und der 1962 stattfindenden Konferenz der African Writers of English Expression eingerahmt. Zum Zeitpunkt dieser wegweisenden Konferenz zur Entwicklung der englischen Schrift wurden diese Namen als Teil einer eher regionalen Gruppe identifiziert. Sie wurden eher als „Ostafrikaner“ anerkannt als als Kenianer. Diese Identifizierung war typisch für die frühe Zeit nach der Unabhängigkeit (für Kenia nach 1963) und war zum Teil darauf zurückzuführen, dass die meisten Schriftsteller eines der drei Colleges der University of East Africa besucht hatten. Schriftsteller fanden sich oft an einer Universität außerhalb des eigenen Landes wieder, der Sinn für Regionalität und Ostafrikaner war diesbezüglich stark. Darüber hinaus unterstützten Organisationen wie das 1947 gegründete East African Literature Bureau und Mitte der 1960er Jahre der East African Publishing House diese Struktur weiter, da sie auch regionale Einrichtungen waren, die ostafrikanische Autoren gegenüber dem Rest der Welt vertraten. Der Westen würde „ostafrikanische“ Autoren lesen, im Gegensatz zu kenianischen, ugandischen oder tansanischen Autoren, da sie meist so identifiziert wurden. Die Stärke dieser regionalen Identität war von Vorteil, wenn man die damals anerkannten literarischen Fähigkeiten anderer afrikanischer Regionen des Kontinents wie Westafrika und des südlichen Afrikas betrachtet und eine bis heute bestehende Situation literarischer Fähigkeiten und Regionalität vor Augen hat.;-;-;-;https://link.springer.com/chapter/10.1057/9781137265234_6 dc7d454029b422ff8b573a3a042097ad;de;;;3.1.;;;Empirische Untersuchung zum Einfluss potenzieller Erfolgsfaktoren von Markentransfers Nachdem im vorangegangenen Kapitel sterben auf Basis der bisherigen empirischen Forschung identifizierten potentiellen Einflussfaktoren von Markentransfers einschließlich der möglichen Interaktionseffekte und sterben Hypothesen bezüglich ihrer Wirkungsweise abgeleitet wurden, WIRD WITHOUT YOU näherer Kapitel sterben im dieser Arbeite empirische Studie erläutert und ihre Befunde dargestellt. In einem ersten Schritt wird das zugrundeliegende Untersuchungsdesign näher beschrieben. Hier WIRD ZUM EINEN AUF DIE Operationalisierung der einzelnen Variablen eingegangen und zum Anderen erläutert, wie sterben Muttermarken und sterben entsprechenden hypothetischen Markentransfers ausgewählt wurden, sterben der Untersuchung zugrunde liegen. Anschließend erfolgt eine detaillierte Erläuterung der Vorgehensweise bei der Datenaufbereitung und -analyse. Auf Basis der vorliegenden Studie, sterben potenziellen Einflussgrößen auf den Markentransfererfolg gemeinsam ermittelt, ermittelt WIRD ES Möglich Sein, sterben relevanten Erfolgsfaktoren von Markentransfers zu bestimmen und Aussagen bezüglich ihrer relativen Bedeutung für den Erfolg eines Markentransfers zu treffen. Das Kapitel schließt mit einer umfassenden Darstellung und Interpretation der empirischen Ergebnisse.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-81405-0_3 99b1b1597181d6a8b5aef73465f78d7e;de;;;3.1.;;;Der Status des Fischadlers in Cape May County, New Jersey zwischen 1939 und 1963 Es wird ein Vergleich der Fischadlerpopulation in Cape May County, N.J., in den späten 1930er Jahren mit der im Jahr 1963 und einer Population dieser Vögel auf Tilghman Island, Maryland, angestellt. Die Jungtierproduktion pro Nest in den 1930er Jahren ist im Vergleich zur Jungtierproduktion in den untersuchten Populationen von 1963 günstig. Basierend auf historischen Beweisen wird vermutet, dass die Zahl dieser Vögel seit einiger Zeit zurückgeht. Die Beschleunigung dieses Rückgangs in New Jersey wird in den Jahren, die in diesem Papier behandelt werden, deutlicher.;-;-;-;https://link.springer.com/article/10.2307/1350442 b25f63dd1d69ac2515a6d8bf5b5bbce7;de;;;3.1.;;;Spread Spectrum-basierte Multi-Bit-Wasserzeichen für Free-View-Video Beim Free-View Television (FTV)-System kann der Benutzer frei eine realistische beliebige Ansicht einer Szene aus einer Anzahl von Originalansichten erzeugen. Das Urheberrechtsproblem für Free-View-Videoinhalte ist im aufkommenden FTV-System entstanden. In diesem Whitepaper schlagen wir ein auf Spreizspektrum basierendes Multibit-Wasserzeichenschema für Free-View-Video vor. Dieselbe Wasserzeichensequenz ist in jeden Frame mehrerer Ansichten eingebettet. Die Extraktion der Wasserzeichen wird in der DCT-Domäne des virtuellen Rahmens ausgeführt, der für eine beliebige Ansicht erzeugt wurde. Experimentelle Ergebnisse zeigen, dass das Wasserzeichen in FTV nicht nur gegen die übliche Signalverarbeitung resistent sein kann, sondern auch aus der virtuellen Ansicht erkannt werden kann, die für eine beliebige Ansicht erzeugt wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-32205-1_14 ea2189b4be59143917111d404437b5d4;de;;;3.1.;;;Kontrollarbeiten in der Nahbereichsphotogrammetrie Der Zweck, die Klassifizierung, die erforderliche Genauigkeit und die Vermessungsmethoden der Kontrollarbeiten für die Nahbereichsphotogrammetrie wurden kurz beschrieben. Die verschiedenen Methoden zur Definition von Raum und Objektkoordinatensystem werden ebenfalls besprochen. Es wird vorgeschlagen, das in China gebräuchliche Drehwinkelsystem für die Aerophotogrammetrie für die zukünftige Lehr- und Forschungsarbeit in der Nahbereichsphotogrammetrie zu verwenden und das Drehwinkelsystem für die terrestrische Deformationsphotogrammetrie wegzulassen, um Vermeiden Sie die Verwirrung und reduzieren Sie den Aufwand für die Erstellung von Software. Es wurde betont, dass drei wichtige Aspekte bei der Nahbereichsregelung mit hoher Genauigkeit unter Verwendung der herkömmlichen Methode der Ingenieurvermessung wichtig sind: die Verwendung einer Standardskala zur Messung der Entfernung zwischen zwei allgemeinen Stationen, die genaue Bestimmung der Startrichtungslinie zwischen zwei allgemeine Stationen und die Handhabungsmethode des Einflusses von 2;-;-;-;https://link.springer.com/article/10.1007/BF02826581 c1f51a1a6741c4f607cd1de4815f66f2;de;;;3.1.;;;Eine Fallstudie für Blockchain im OTC: „BATN“: Ein Prototyp für das Bid- und Ask-Handelsnetzwerk Angesichts der Produktiteration und der Nachfrage in den Schwellenländern müssen traditionelle Unternehmen nach Wegen suchen, um Informationen auszutauschen und Optionen/Swaps in einem vertrauenslosen Netzwerk zu handeln. In diesem Papier schlagen wir vor – „BATN“: einen Prototyp für ein auf Blockchain basierendes Geld- und Briefhandelsnetzwerk. Wir schlagen ein System vor, in dem ein dezentrales Netzwerk von Handelsagenturen, Aufsichtsinstitutionen und Witness Nodes öffentliches Angebot/Brief, automatisierte Risikobewertung und transparente Überwachung durch eine Spur von historischem Handelsverhalten und intelligenten Verträgen ermöglichen kann. Unser System dezentralisiert kritische Informationen über Alliance Governance, Authentifizierung und Kreditbewertung durch einen überprüfbaren Audit Trail. Wir präsentieren BATN mit Hyperchain, über das ein Konsortium von geografisch verteilten Organisationen überall und jederzeit Geschäfte tätigen, E-Verträge unterzeichnen und Transaktionen melden kann. Unser Prototyp stellt sicher, dass die Transaktion pro Sekunde in einem dezentralen Netzwerk das Handelsvolumen in der Realität erfüllen kann. Dieses Papier beabsichtigt, die Geschäftseffektivität für viel größere Bereiche durch den funktionierenden Prototyp zu verbessern und diskutiert das Potenzial der Blockchain für die Finanz-IT.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6478-3_6 482fd8913fa8e037e43d776d67d7c3e5;de;;;3.1.;;;Verzögerungsenergiebewusstes Clustering Multi-Hop-Routing in drahtlosen Sensornetzwerken Ein drahtloses Sensornetzwerk (WSN) besteht aus einer großen Anzahl von Sensoren mit geringem Stromverbrauch, die in unwirtlichen physischen Umgebungen dicht aufgestellt sind. Aufgrund der Beschränkungen von Sensoren in Bezug auf Speicher, Energie und Rechenkapazität ist das wichtigste Thema beim Entwurf von Sensornetzwerkprotokollen die Energieeffizienz. Obwohl die Energieeffizienz bei WSN ein wichtiges Anliegen ist, leidet sie häufig unter der Verzögerung beim Hinzufügen. Dieses Papier untersucht den Kompromiss zwischen dem Energieverbrauch und der End-to-End-Verzögerung in WSN. Wir schlagen zunächst einen neuen verteilten Clustering-Ansatz vor, um den besten Clusterhead für jeden Cluster unter Berücksichtigung von Energie- und Verzögerungsanforderungen zu bestimmen. Als Nächstes stellen wir einen Multi-Hop-Routing-Algorithmus von Clusterheads zu Sink mit einem neuen Verzögerungsmodell bereit, um die minimalen Verzögerungsenergiekosten zu berechnen. Unsere Simulationsergebnisse stimmen mit unserer theoretischen Analyse überein und zeigen die beste Anzahl von Hops, um den Energieverbrauch und die End-to-End-Verzögerung zu kompensieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-0557-2_4 828d7ebf4131d29cfc3af689477c568e;de;;;3.1.;;;Die nationalkonservative Wende in Mittelosteuropa und die Medien Die politische Renationalisierung bzw. Radikalisierung in Westeuropa und besonders auch in Ostmitteleuropa, deren Auswirkung auf die Medien und der Einfluss russischer Stellen und Auslandsmedien auf die politische Atmosphäre wird in Brüssel mit zunehmender Besorgnis verfolgt. Die polnische Regierung der nationalkonservativen Partei „Recht und Gerechtigkeit“ (PiS) folgte mit ihrem Mediengesetz, das der Regierung die Entscheidungsgewalt über Führungsposten in den öffentlich-rechtlichen Medien verlieh, dem, was Ungarns Regierungschef Viktor Orbán bereits vorgemacht hatte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-20435-8_3 cc76e070525d9aab77223a25e0956355;de;;;3.1.;;;Robustheit des genomweiten Scannens mit archivierten getrockneten Blutfleckproben als DNA-Quelle Die Suche nach krankheitsanfälligen Genen erfordert den Zugang zu biologischem Material von zahlreichen gut charakterisierten Probanden. Archivierte Restproben von getrockneten Blutflecken (DBS), auch bekannt als Guthrie-Karten, aus nationalen Screeningprogrammen für Neugeborene können eine DNA-Quelle für ganze Bevölkerungsgruppen sein. In Kombination mit klinischen Informationen aus medizinischen Registern könnten DBS-Proben eine reichhaltige Quelle für produktive Forschungen darstellen. Die DNA-Mengen, die aus diesen kostbaren Proben extrahiert werden können, sind jedoch winzig und können für zahlreiche Genotypisierungen unerschwinglich sein. Zuvor haben wir gezeigt, dass DBS-DNA im gesamten Genom amplifiziert und für zuverlässige genetische Analysen auf verschiedenen Plattformen, einschließlich genomweiter Scanning-Arrays, verwendet werden kann. Es bleibt jedoch unklar, ob dieser Ansatz im großen Stichprobenmaßstab praktikabel ist. Wir untersuchten die Robustheit der Verwendung von DBS-Proben für die Amplifikation des gesamten Genoms nach einem genomweiten Scannen mit Arrays von Illumina und Affymetrix.;-;-;-;https://link.springer.com/article/10.1186/1471-2156-12-58 236c64c71d870d831532c364d73430cc;de;;;3.1.;;;Multi-Aspect-Entity-Centric-Analyse großer Social-Media-Archive Social-Media-Archive dienen als wichtige historische Informationsquellen und damit sind aussagekräftige Analyse- und Explorationsmethoden für Historiker, Soziologen und andere Interessierte von immensem Wert. In diesem Beitrag schlagen wir eine;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67008-9_21 be81de3f3f5be8f9df500f8c1088af83;de;;;3.1.;;;Ressourcenverwaltungsschema basierend auf Position und Richtung für die Übergabesteuerung in Mikro-/Pikozellularnetzwerken Wir schlagen ein Handoff-Steuerungsschema vor, um mobilen Multimediaverkehr basierend auf der Ressourcenreservierungsprozedur unter Verwendung der Richtungsschätzung unterzubringen. Dieses vorgeschlagene Schema verwendet ein neuartiges mobiles Tracking-Verfahren basierend auf Fuzzy Multi-Criteria Decision Making (FMCDM), bei dem unsichere Parameter wie die Pilotsignalstärke (PSS), die Entfernungen zwischen dem mobilen Endgerät (MT) und der Basisstation (BS) , die Bewegungsrichtung und der vorherige Ort werden im Entscheidungsprozess unter Verwendung der Aggregationsfunktion in der Fuzzy-Set-Theorie verwendet. Bei der Leistungsanalyse bietet unser vorgeschlagenes Schema eine bessere Leistung als die vorherigen Schemata.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46578-3_2 775d9fdb77355b728f19c4c08e530ec2;de;;;3.1.;;;Internet, Intranet und Le Kiosque lectronique En 1995 un „Local Area Network“ (LAN) a été instauré dans l’hôpital Policlinico San Matteo de Pavie. La Bibliothèque Scientifique a été une des premières unités reliées au LAN. Depuis, une série d'initiatives et de projets ont été lancés pour développer of the services centralisés et utiliser le potentiel du réseau local, le but étant de dépasser les limites géographiques de l'hôpital et de districienter l'reinformations au réseau. En effet l’hôpital a des charactéristiques architecturees et organisatives qui justifient de telles exigences: un développement horizontal, des unités se distribuant sur une surface étendue qui souvent est Cause de Problèmes de Communication. La présence jusqu’en 1995 de 40 bibliothèques en est un signe éloquent.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4621-0_67 7c16bb02fbd5ec393d5a8d134541e27d;de;;;3.1.;;;ESR-Datierung der paläolithischen Stätte Donggutuo im Nihewan-Becken, Nordchina Die fluvio-lakustrinen Sequenzen im Nihewan-Becken, Nordchina, liefern wichtige terrestrische Archive über paläolithische Siedlungen und damit über die frühe menschliche Besiedlung in hohen nördlichen Breiten in Ostasien. Hier präsentieren wir eine detaillierte ESR-Datierung der paläolithischen Stätte Donggutuo, die sich in diesem Becken befindet. Vier Ebenen A, B, C und E der archäologischen Schicht von Donggutuo ergeben ESR-Alter von 1060 ± 129 ka bis 1171 ± 132 ka mit einem Mittelwert von 1119 ± 132 ka. Die Altersangaben stimmen mit den paläomagnetischen Daten überein, die zeigen, dass die paläolithische Stätte Donggutuo knapp unterhalb des Beginns der normalen subchronischen Jaramillo (0,99-1,07 Ma) liegt. Darüber hinaus zeigen unsere Ergebnisse, dass der zuverlässige ESR-Datierungsbereich von gebleichtem Quarz unter Verwendung des Ti-Li-Zentrums effektiv auf 1100 ka erweitert werden kann und das Ti-Li-Zentrum vor der letzten Abscheidung auf Null gesetzt wurde, was ein besseres Verständnis der Bedingungen des Bleichmechanismus erfordert mechanism .;-;-;-;https://link.springer.com/article/10.2478/s13386-013-0127-4 279c3289a46d523b5c5d27a5e64af6d1;de;;;3.1.;;;Die pflanzlichen Nahrungs- und Genussmittel Die pflanzlichen Nahrungsmittel unterscheiden sich dadurch von den thierischen, dass die Gruppe der Proteinstoffe und Fette meistens gegen die der Kohlenhydrate zurücktritt, nur die Hülsenfrüchte und ölliefernden Samen sind verhältnismässig reich an Proteinstoffen und letztere auch an Fett. Dazu sind die Proteine ​​(S. 12–95) und Fette (S. 95–117) von theilweise anderer Art und verschiedener Konstitution.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-90917-7_5 5f16fcd166a880d15f7deada7a570dbf;de;;;3.1.;;;Höflichkeit und Gedächtnis für die Formulierung von Bemerkungen Es wurden drei Experimente durchgeführt, um zu untersuchen, ob sich Personen spontan an die Formulierungen erinnern, die verwendet wurden, um Höflichkeit zu vermitteln. In allen Experimenten hörten die Probanden Äußerungen unterschiedlicher Höflichkeit, die entweder von einem hochrangigen (z. B. einem Professor) oder einem gleichrangigen (z. Das beiläufige Gedächtnis der Probanden für diese Aussagen wurde dann entweder mit einem Wiedererkennungsverfahren (Experiment 1 und 3) oder einem Erinnerungsverfahren (Experiment 2) getestet. Wie erwartet, gab es Hinweise auf ein signifikantes Gedächtnis für Formulierungen, die Höflichkeit vermittelten, und Probanden erinnerten sich eher an Formen, die nicht mit dem Status des Sprechers übereinstimmten. Es gab auch Hinweise darauf, dass Probanden die Höflichkeit einer Bemerkung kodierten, selbst wenn sie sich nicht an die spezifische Bemerkung erinnern konnten. Die Ergebnisse zeigen die Rolle der zwischenmenschlichen Dimension bei der Verarbeitung von Sprache im Kontext.;-;-;-;https://link.springer.com/article/10.3758/BF03197288 81a1317597b3b09093b0aa8b164c443c;de;;;3.1.;;;Fundamentale Darstellungen und algebraische Eigenschaften von Biquaternionen oder komplexierten Quaternionen Die grundlegenden Eigenschaften von Biquaternionen (komplexifizierten Quaternionen) werden vorgestellt, darunter verschiedene, zum Teil neue Darstellungen und Definitionen grundlegender Operationen wie Skalar- und Vektorteile, Konjugate, Halbnormen, Polarformen und innere Produkte. Die Notation ist durchweg konsistent, sogar zwischen den Darstellungen, und liefert eine klare Darstellung der vielen Möglichkeiten, wie die Bestandteile eines Biquaternions algebraisch manipuliert werden können.;-;-;-;https://link.springer.com/article/10.1007/s00006-010-0263-3 bc4bfc0f6dd8c4987fc392291b8f10e6;de;;;3.1.;;;Rationale Contextuelle und Presupposé Cognitif le cas Lombroso Il est proposé une réflexion épistémologique sur la posture que l’historien des sciences humaines peut adopter gegenüber de ses objets d’investigation. La Théorie du «criminel-né» von Cesare Lombroso, produite dans le dernier tiers du xix;-;-;-;https://link.springer.com/article/10.1007/BF03181360 3f385cef85ce3ef122e8e08638fed8c9;de;;;3.1.;;;L’education kognitive à l’ecole La Prize de conscience de l'importance des outils cognitifs pour l'adaptation à notre société technologique, société qui présente un degré croissant de complexité, alliée à l'important développement des théories kognitives (de Piaget traitesqu'au'au' ont donné lieu à l'apparition d'un Important courant de travaux qui tentent de vérifier l'impact de diverses d'intervention dans la performance kognitiv und entwicklung einer kognitiven Konzeption der Ausbildung. La majorité des travaux se sont intéressé aux méthodes de rééducation, c’est-à-dire aux méthodes destinées au départ à des sujets présentant des schwierigés ou du retard dans leur fonctionnement dans fonctionnement retro et variche;-;-;-;https://link.springer.com/article/10.1007/BF03172684 47d648e7d8f75b1c28b04e633e21b039;de;;;3.1.;;;Behandlung der primären Schlaflosigkeit mit Trimipramin: Eine Alternative zu Benzodiazepin-Hypnotika? Eine Gruppe von 19 Patienten mittleren Alters mit primärer Schlaflosigkeit nach DSM-III-R wurde in einer Einfachblindstudie mit Trimipramin, einem sedierenden Antidepressivum, behandelt. Insgesamt 15 Patienten beendeten das Studienprotokoll und wurden ausgewertet. Ziel der vorliegenden Pilotstudie war es, die schlafinduzierenden Eigenschaften von Trimipramin zu untersuchen und die Frage zu klären, ob nach Absetzen des Medikaments eine kurz- oder langfristige Rebound-Insomnie auftritt. An vier Messpunkten, d. h. unter Ausgangsbedingungen, unter Behandlung und 4 und 14 Tage nach Absetzen des Medikaments, wurde der Schlaf mit einem ambulanten Elektroenzephalogramm (EEG)-Überwachungsgerät in der häuslichen Umgebung des Patienten aufgezeichnet. Gleichzeitig wurden psychometrische Tests durchgeführt, um Entzugssymptome, subjektive Schlafqualität und Wohlbefinden während des Tages zu messen. Trimipramin in einer mittleren Dosis von 166 ± 48 mg führte zu einer signifikanten Zunahme der Schlafeffizienz, der Gesamtschlafzeit und der Schlafdauer (SPT) im Stadium 2%, während eine signifikante Abnahme der Wachzeit und des Stadiums 1% SPT beobachtet wurde. Patienten mit Schlaflosigkeit berichteten von einer Verbesserung der subjektiv wahrgenommenen Schlafqualität nach Trimipramin. Außerdem kam es tagsüber zu einer Verbesserung des Wohlbefindens. Negative Nebenwirkungen waren aufgrund der anticholinergen Eigenschaften des Arzneimittels auf Mundtrockenheit beschränkt. Das Absetzen von Trimipramin provozierte bei objektiven und subjektiven Schlafmessungen unter Berücksichtigung der Mittelwerte der gesamten Stichprobe weder kurz- noch langfristige Rebound-Schlaflosigkeit, obwohl eine Untergruppe von Patienten während des kurz- und langfristigen Absetzens Gesamtschlafzeiten unterhalb der Ausgangswerte aufwies , jedoch in der Regel ohne eine begleitende Verschlechterung der Schlafqualität laut Schlaffragebogen.;-;-;-;https://link.springer.com/article/10.1007/BF02193521 74031a779af40a7c3f5b6d9b0c7d6e85;de;;;3.1.;;;Ein neues evolutionäres Szenario der Sternentstehung mittlerer Masse, das durch Multi-Wellenlängen-Beobachtungen von OMC-2/3 . enthüllt wurde Wir haben Millimeter- und Submillimeterwellen-Durchmusterungsbeobachtungen mit dem Nobeyama Millimeter-Array (NMA) und dem Atacama Submillimeter Telescope Experiment (ASTE) in einer der nächsten Sternentstehungsregionen mittlerer Masse (IM) durchgeführt: 2/3 (OMC-2/3). Mit den hochauflösenden Fähigkeiten der NMA (∼mehrere Bogensekunden) beobachteten wir Staubkontinuum und H;-;-;-;https://link.springer.com/article/10.1007/s10509-007-9638-x a721796008b659822bcb36b9e25bc100;de;;;3.1.;;;Röntgen-XUV-Reflexions-Holographisches elipsoidales Beugungsgitter bei streifendem Einfall Es wurde eine einfache Theorie des holographischen ellipsoiden Beugungsgitters unter Verwendung der Lichtwegfunktion entwickelt, die im Bereich von Röntgen- und XUV-spektroskopischen Systemen im Reflexionsmodus bei streifendem Einfall verwendet wird. Die Bedingungen für Null-Astigmatismus wurden erhalten. Der Astigmatismus pro Längeneinheit wurde gegen die Wellenlänge aufgetragen, wobei die Konstruktionsparameter verwendet wurden, die zumindest bei einer Wellenlänge einen Astigmatismus von Null ergeben. Die Auflösung, tangentiales und sagittales Koma wurden ebenfalls diskutiert.;-;-;-;https://link.springer.com/article/10.1007/BF03549717 95d7e0bba09d5682b6a7001e337c9382;de;;;3.1.;;;Computergestützte Datenverarbeitung Computer sind eine enorme Hilfe beim Umgang mit riesigen Datenmengen. Die Computerisierung der Bodenvermessungsdaten schreitet in rasantem Tempo voran. Die meisten Bodendaten werden von Computern für Berechnungen, Klassifizierungen, Korrelationen und Interpretationen manipuliert – und die Computerisierungstrends werden sich in Zukunft beschleunigt fortsetzen. Die meisten Details zur Erläuterung der Computersysteme werden derzeit für das National Soils Handbook of the Cooperative Soil Survey geschrieben. Das National Soils Handbook befindet sich in ständiger Weiterentwicklung und Überarbeitung und ist über das örtliche Bezirksamt und das Landesbüro des Bodenschutzdienstes sowie über das Büro jedes Bodenvermessungsvertreters der landwirtschaftlichen Versuchsstationen und anderer Mitwirkender erhältlich zur Genossenschaftlichen Bodenuntersuchung. Es handelt sich um ein sehr langes und detailliertes technisches Handbuch mit Vervielfältigung und nur ein kleiner Teil des Inhalts wird in diesem Kapitel behandelt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-6938-7_5 f2b12618a28bd43e325ddc1bbbd413b8;de;;;3.1.;;;Fehlertoleranz bei analoger VLSI: Fallstudie eines Focal-Plane-Prozessors Biologische Systeme bieten gute Architekturmodelle für Informationsverarbeitungshardware. Schwierige Probleme der maschinellen Wahrnehmung und komplexen Motorsteuerung werden auf natürliche Weise durch energieeffiziente und robuste neuronale Systeme gelöst. Hopfield stellte sich in seiner wegweisenden Arbeit [1] über physikalische Systeme mit neuen Rechenfähigkeiten eine neue Art von integrierten Schaltkreisen vor, die solche Systeme implementieren könnten und viel weniger empfindlich gegenüber Elementfehlern wären als heutige Computer. Analoges VLSI ist eine Technologie, die für die Implementierung synthetischer neuronaler Systeme [2, 3] auf Silizium geeignet ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-9957-6_19 146a9c83175f12a99b2bfd96c7bc7fa9;de;;;3.1.;;;Symplektische dynamische Systeme In diesem Abschnitt werden wir die notwendigen Teile der Linearen Algebra erarbeiten. Die Notationen und Aussagen werden in den nächsten Abschnitten zur Entwicklung der symplektischen Geometrie und der Theorie der Hamiltonschen Systeme verwendet. Die folgenden Definitionen finden Sie zusammengefasst in der „Liste der allgemeinen mathematischen Notationen“ weiter oben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-76247-5_3 41d5fe0622b9627275480e2f433c41db;de;;;3.1.;;;Quadraturtheorie konvexer Funktionen Dieser Artikel präsentiert einen Überblick sowie einige neue Ergebnisse zur Quadraturtheorie konvexer Funktionen. Die Anwendung der klassischen Quadraturregeln wie Trapez- und Mittelpunktregeln oder positive Regeln vom Interpolationstyp, einschließlich der Gaußschen Quadratur, werden diskutiert. Es werden Vergleiche mit Quadraturformeln gegeben, die für Unterklassen konvexer Funktionen optimal sind. Mehrere weitere Ansätze werden in den letzten beiden Abschnitten erwähnt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-6338-4_24 98391b13ff1695836f579d9d9697d6af;de;;;3.1.;;;Optimierung des Prozessbetriebs In diesem Kapitel wird die Prozessoptimierung besprochen. Nachdem die Prozessführung verbessert wurde und robust und stabil ist, können die Sollwerte der Regelstrategie optimiert werden. Zunächst wird die Prozessoptimierung allgemein besprochen und einige der Fallstricke diskutiert. Es wird ein veranschaulichendes Beispiel einer linearen Programmierung gegeben und es werden Vorschläge gemacht, wie eine nichtlineare Optimierung durchgeführt wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18258-7_9 5dca16ba536efcba4fc44cc826a9015e;de;;;3.1.;;;Optimale Einkaufsregeln für mechanische Anlagen von Auftragnehmern In dem Papier wird über eine Studie zum Anlageneinkauf in der Baubranche berichtet. Das Problem wird formuliert, und es werden drei verwandte Modelle entwickelt, um optimale Lösungen zu liefern, wobei das dritte ein ganzzahliger Programmieralgorithmus mit möglicherweise breiteren Anwendungen ist.;-;-;-;https://link.springer.com/article/10.1057/jors.1971.16 5a3efe605501f9ae1a1957dfa201640d;de;;;3.1.;;;Lektin-histochemische Analyse von Glykanen in zweikernigen Zellen der Plazenta von Schafen und Rindern Chorionische zweikernige Zellen (BNC) kommen bei mehreren Wiederkäuern vor, darunter Kühe, Hirsche, Ziegen und Schafe. Sie wandern durch die Chorion-Tight-Junction, um mit Uterusepithelzellen zu verschmelzen und ihre Granula in das mütterliche Bindegewebe abzugeben. Wir haben die BNC von kurzzeitigen, in Harz eingebetteten, Schaf- und Rinderplazenten unter Verwendung von 15 biotinylierten Lektinen und einem Avidinperoxidase-Aufschlusssystem verglichen. Es gab eine ausgeprägte Konservierung von Sacchariden zwischen den beiden Spezies. Mehrere Unterarten von N-Glycan waren vorhanden, wobei stark verzweigte Strukturen reichlich vorhanden waren, wie gezeigt durch;-;-;-;https://link.springer.com/article/10.1007/BF00331380 f936ffa6a3fc73cf4a10c46ba959066d;de;;;3.1.;;;Mathematische Analyse von vorbeugenden Wartungsprogrammen Zur Gewinnmaximierung durch optimale Maschinenplanung wird ein neuer Ansatz vorgeschlagen. Statt zwei (Verfügbarkeit und Kosten) wird nur eine Zielfunktion (Gewinn) verwendet. Der letztere Ansatz führte unweigerlich zu einer Suboptimierung. Darüber hinaus eignet sich der Einzelzielfunktionsansatz natürlich auch für Effizienzvergleiche zwischen allen präventiven Wartungsrichtlinien. Es wurden optimale Lösungen gefunden, um die Effizienz der gängigen Alters- und Blockersetzungspolitiken zu vergleichen. Numerische Ergebnisse zeigen, dass Altersersatz immer rentabler ist. Optimale Lösungen für diese beiden Wartungskonzepte wurden auch in dem speziellen Fall gefunden, in dem eine Wartungsreparatur einer Pannenreparatur qualitativ überlegen ist. Schließlich führt das physikalische Gesetz der zunehmenden Entropie, angewendet auf das Ausfallratenkonzept, zu der Schlussfolgerung, dass immer eine vorbeugende Instandhaltung in Betracht gezogen werden sollte.;-;-;-;https://link.springer.com/article/10.1057/jors.1980.40 d745095247ea28d78588992321519f25;de;;;3.1.;;;Die Wirkung von OPWF-Füllstoff auf die Schlagzähigkeit von glasfaserverstärktem Epoxidverbund In der vorliegenden Studie wurden Ölpalmholzmehl (OPWF)-Partikel mit einer Größe von weniger als 250 µm als Füllstoff in dem glasfaserverstärkten Epoxid-Verbundwerkstoff verwendet. Die Hybridkomposite wurden im Handlaminierverfahren hergestellt und bei Raumtemperatur unter einer Druckbelastung von 196 N (20 kg) ausgehärtet. Der OPWF von 2,5 bis 10 Gewichtsteilen pro Hundert (pph) wurde verwendet, um seine Wirkung auf die Schlagzähigkeit der Hybridverbundstoffe in einem Temperaturbereich von –50 bis 50 °C zu bewerten. Die Schlagzähigkeit, bewertet mit der V-Kerb-Charpy-Methode, zeigte eine Abnahme mit steigendem Füllstoffgehalt auf bis zu 5 pph und dann eine Zunahme der Festigkeit bei den Verbundwerkstoffen mit mehr als 5 pph OPWF. Schwerere Schäden wurden bei Proben mit höheren Füllstoffgehalten festgestellt, was zu einer höheren Energieaufnahme beim Aufprall führte. Die Verbundwerkstoffe mit einer großen Menge an OPWF-Partikeln lenkten die Rissausbreitungspfade ab oder erzeugten Hindernisse an den Rissspitzen und erhöhten die Zähigkeit der Verbundstoffe. Es wurde festgestellt, dass die Schlagzähigkeit abnimmt, wenn die Proben bei Temperaturen unter Null brechen, und dies geschah aufgrund der Verringerung der Matrixduktilität bei niedrigeren Temperaturen.;-;-;-;https://link.springer.com/article/10.1007/BF03177391 1a6d987ad8f39c7140c5152e96c5787f;de;;;3.1.;;;Praktische Anwendung von HACCP Viele Unternehmen sind dabei, HACCP-Programme zu initiieren, erwägen dies und/oder verlangen dies von ihren Lieferanten. Die Umsetzung eines HACCP-Programms kann nicht über Nacht erfolgen. Je nach dem Grad der Komplexität der Geschäftstätigkeit eines Unternehmens kann es zwischen sechs Monaten und zwei bis drei Jahren dauern. Der Einstieg in HACCP kann der schwierigste Teil des Programms sein, gefolgt von der Umsetzung eines Plans in die Praxis. Die meisten technischen Mitarbeiter wissen, wie unterschiedlich Theorie und Praxis sind. Die Bench-Top-Formulierung erfordert immer eine Modifikation, wenn sie in die Produktion geht, Studien im Pilotanlagenmaßstab können Einblicke in die Leistung eines Produkts oder Prozesses geben, spiegeln jedoch nicht genau wider, was während eines vollständigen Betriebs passiert, und Pläne, die am Konferenztisch formuliert wurden in der Praxis geändert werden müssen. Das gleiche gilt, wenn ein HACCP-Programm entwickelt und implementiert wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-8818-0_14 9b3029c67041efffcd13ca3da9d1c2d7;de;;;3.1.;;;Einfluss der Porosität auf den Hohlladungsfluss Es wird gezeigt, dass für Hohlladungen mit porösen Auskleidungen eine Hohlladungsströmung von zwei Arten möglich ist: eine dispergierte Strahlströmung, die den gesamten Hohlladungshohlraum ausfüllt, und eine monolithische Strahlströmung. Es werden die Bedingungen für den Übergang von einem Strömungstyp zum anderen geschätzt und es wird gezeigt, dass es durch Änderung der anfänglichen Porosität möglich ist, die physikalisch-mechanischen Eigenschaften des Linermaterials während der Kompression des Liners durch die Detonationsprodukte der Sprengladung zu kontrollieren . Für monolithische Strahlströmungen wurde experimentell gezeigt, dass Hohlladungen mit porösen Auskleidungen eine größere Eindringfähigkeit in Stahlziele aufweisen können als Ladungen mit monolithischen Auskleidungen ähnlicher Bauart. Dispersed Jet Flow wird verwendet, um Beschichtungen auf Substrattargets aufzubringen und neue Verbindungen zu synthetisieren. Es werden Versuche beschrieben, bei denen Hohlladungsauskleidungen aus einer mechanischen Mischung von W- oder Ti-Pulvern mit Kohlenstoff verwendet werden, um auf Stahl- oder Titansubstrat Schichten mit den Karbiden der angegebenen Metalle herzustellen.;-;-;-;https://link.springer.com/article/10.1007/BF02699373 dd0c65134f82cd6ad0b596634f890265;de;;;3.1.;;;Azyklische Hypergraphen und relationale Datenbanken (eine Übersicht) Strukturelle Eigenschaften von Hypergraphen und relevante Eigenschaften relationaler Datenbanken mit azyklischen Schemata wurden in den 80er Jahren intensiv untersucht. Die Untersuchungen führten zu beeindruckenden Fragestellungen für die Theorie von Hypergraphen und relationalen Datenbanken sowie Anwendungen. Da die Interessen der Datenbank-Community von relationalen zu komplizierteren Datenmodellen verlagert wurden, hat das Interesse an diesem Thema nachgelassen. Die Übersicht fasst Ergebnisse azyklischer Hypergraphen und Datenbankuntersuchungen zusammen und gibt eine kurze vergleichende Analyse verschiedener Ansätze.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-2704-9_1 f0a3fd100953c0aaec70d7e216f4856a;de;;;3.1.;;;Blüten- und Fruchtbildung. — Blüten- und Fruchtbildung Die Blüteninitiierung markiert den Übergang vom vegetativen zum reproduktiven Wachstum bei Samenpflanzen. Es ist daher ein entscheidendes Ereignis im Leben dieser Pflanzen, insbesondere wegen der besonderen Beziehung zwischen vegetativer und reproduktiver Entwicklung bei Samenpflanzen, die wiederum ein Ergebnis der morphologischen Natur der Blüte ist. Blüten sind modifizierte Triebe, die von modifizierten Triebmeristemen, den Blütenprimordien, produziert werden. Sobald ein Meristem jedoch als Blütenprimordium bestimmt wurde, kann es normalerweise – außer vielleicht in den allerersten Stadien – nicht zum vegetativen Wachstum zurückkehren. Vegetatives Wachstum und reproduktive Entwicklung bei Samenpflanzen schließen sich also in gewissem Sinne gegenseitig aus, was ein bestimmtes Meristem betrifft, bedeutet die Blüteninitiierung das Ende seines Lebens. Das zentrale Problem der Physiologie der Blüteninitiierung besteht darin zu verstehen, welche Faktoren dazu führen, dass ein Sprossmeristem zu einem Blütenprimordium wird und wie sie ihre Wirkung vollenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-36273-0_32 df575267a9190cf6c8d3ce088a8f0ead;de;;;3.1.;;;Überflutete Wiesengemeinschaften eine Analyse der Produktivität im Trockenjahr Im Jahr 1967 wurde die Produktion der folgenden vier ausgewählten Pflanzengesellschaften in einer ökologischen Reihe nach Feuchtigkeit untersucht:;-;-;-;https://link.springer.com/article/10.1007/BF02851836 360882cf8ae8e3e928da23715e364500;de;;;3.1.;;;Neuartige nichtlineare Kristalle Das Gebiet der nichtlinearen Optik, wie wir es heute kennen, entstand als direkte Folge der Erfindung des Lasers Anfang der sechziger Jahre. Nichtlineare Effekte im Elektromagnetismus wurden bereits im späten 19. Jahrhundert von Kerr, Röntgen, Kundt und Pockels beobachtet und später von Raman 1927, als er die spontane Streuung von Licht in neue Wellenlängen beim Durchgang durch ein transparentes Medium entdeckte. Die ersten Beobachtungen kohärenter nichtlinearer optischer Effekte wurden jedoch erst 1961 von Franken . gemacht;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-2158-3_6 ff7bf1af1ca4cdff9643d90cdfd800d0;de;;;3.1.;;;Anwendung der HPLC zur Trennung von Lipiden Über „Trennungen“ von Lipiden lässt sich vergleichsweise einfach schreiben, weil im Bereich der Lipid-HPLC die Trenntechniken als solche weitaus mehr Fortschritte gemacht haben als die Detektorentwicklungen. Heute können wir die meisten Gemische, die wir trennen wollen, trennen, aber allzu oft können wir die getrennten Peaks nicht erkennen oder zumindest nicht quantifizieren. Es ist daher zu bedenken, dass in vielen veröffentlichten Lipidarbeiten heutzutage die verwendeten Trennmodi hauptsächlich mit Blick auf die;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-69225-3_10 a0945bfb3246e813a15a5c81eb7cd461;de;;;3.1.;;;Konsolidierung von Einrichtungen für das Verkehrsministerium von Connecticut: eine Fallstudie Das Verkehrsministerium von Connecticut (ConnDOT) wurde damit beauftragt, die Möglichkeit zu untersuchen, die Kosten durch den Betrieb mit weniger als 13 Ausrüstungsreparaturwerken zu senken. Mithilfe eines gemischt-ganzzahligen Programmiermodells halfen wir ConnDOT, Einsparungen zu erzielen, ohne die Servicequalität zu beeinträchtigen. Ein wesentliches Merkmal des Modells besteht darin, dass es Reparaturkapazitäten basierend auf der bisherigen Leistung von Benchmark-Einrichtungen innerhalb des Systems festlegt. Bei der Entwicklung einer Empfehlung haben wir Faktoren außerhalb des Modellkontexts und Feedback von ConnDOT-Mitarbeitern ernsthaft berücksichtigt. Letztendlich schlugen wir zwei Optionen vor – eine mit zehn Fazilitäten und die andere mit 11. Die Nettobarwerte der durch diese Optionen gebotenen Einsparungen werden auf über 5,0 Mio. USD bzw. 3,1 Mio. USD geschätzt. Obwohl die Option mit 11 Einrichtungen geringere Einsparungen bietet, hat sie Vorteile, da sie: (1) die von ConnDOT Maintenance hervorgehobenen Bedenken erfüllt, (2) einfacher zu implementieren ist als die Option mit zehn Einrichtungen und (3) weniger a aktuelles Engagement, das von Vorteil ist, wenn die zukünftige Berücksichtigung zusätzlicher Änderungen wahrscheinlich ist. Diese Vorteile trugen dazu bei, dass die Option mit 11 Einrichtungen innerhalb von ConnDOT am meisten bevorzugt wurde.;-;-;-;https://link.springer.com/article/10.1057/jors.1994.60 6592bb46ac6562caef6748c78e2892b8;de;;;3.1.;;;Normalmodus-Lösung für sphärische Erdmodelle Mit der bisher entwickelten Theorie können wir nun die Anregung der freien Schwingungen der Erde diskutieren, die eines der Grundprobleme der Seismologie ist. Sofern nicht anders angegeben, wird die Erde als radial heterogene, isotrope, gravitierende Kugel mit Radius angenommen;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-5856-8_6 47f13ebfbfdd7d012712f196bdc75400;de;;;3.1.;;;Der Einfluss der Abmessungen auf die Biegefestigkeit von Holzbalken Die in der Literatur vertretene Ansicht, daß nur die Balkenhöhe, nicht aber die Balkenbreite oder die Balkenlänge einen Emiluß auf die Biegefestigkeit von Holzbalken ausübt, läßt sich nicht aufrechterbalten. Eine Auswertung von Versuchsergebnissen ergibt sich, dass der Balkenbreite etwa dieselbe Bedeutung zukommt wie der Balkenhöhe. Da in einer früheren Arbeit des Verfassers nachgewiesen werden konnte, dass auch sterben Balkenlänge einen gleichgerichteten Einfluss ausübt, liegt es nahe, sterben Theorie des Volumeneinflusses heranzuziehen. Dies führt auf eine Berechnungsmethode, in der die technologische Beschaffenheit des Holzes über den Variationskoeffizienten und der Feuchtigkeitsgehalt über eine Konstante in dem Ergebnis eingehen.;-;-;-;https://link.springer.com/article/10.1007/BF02619412 c99beb5df732fba8c4d7942f0818af28;de;;;3.1.;;;Verdrängte retinale Ganglienzellen projizieren auf das akzessorische optische System im Chamäleon ( Retinale Ganglienzellen wurden im Chamäleon erfolgreich durch retrograden axonalen Transport von Dextranaminen markiert, die in einem in vitro-Präparat auf den Kern der basalen Sehwurzel (nBOR) aufgebracht wurden. Markierte Ganglienzellen waren auf das kontralaterale Auge beschränkt. Viele Zellen wurden vollständig gefärbt, einschließlich ihrer dendritischen Bäume. Mit wenigen Ausnahmen hatten alle Zellen verdrängte Somata, die sich am Innenrand der inneren Kernschicht befanden. Die markierten Ganglienzellen wiesen zwei bis sechs primäre Dendriten auf, die sich häufig verzweigten und große unistratifizierte dendritische Bäume innerhalb der Sublamina 1 der inneren Plexiformschicht bildeten. Es gab eine starke Überlappung der dendritischen Bäume benachbarter Zellen, was zu einem geschätzten Abdeckungsfaktor von 2–4 führte. Die dendritischen Feldbereiche variierten in der Größe je nach Netzhautposition der Zellen und waren in der zentralen Netzhaut um die Fovea mit maximal 0,14 mm . am höchsten;-;-;-;https://link.springer.com/article/10.1007/s00221-002-1091-z 2aef6686da23b94265f5e51a126b7855;de;;;3.1.;;;Quantendissipative Systeme. III. Definition und algebraische Struktur Ausgehend von der Forderung einer konsistenten Quantenbeschreibung dissipativer (nicht-hamiltonischer) Systeme, die als Widerspruchsfreiheit zwischen den Evolutionsgleichungen für quantendissipative Systeme und Quantenkommutierungsrelationen formuliert wird, zeigen wir, dass die Jacobi-Identität nicht erfüllt ist. Die Forderung nach einer konsistenten Quantenbeschreibung zwingt also dazu, über die Lie-Algebra hinauszugehen. Daher sind antikommutative Nicht-Lie-Algebren notwendig, um dissipative (nicht-hamiltonsche) Systeme in der Quantentheorie zu beschreiben.;-;-;-;https://link.springer.com/article/10.1007/BF02630369 b81df0ea619e5e292d3c04a50f3e17d2;de;;;3.1.;;;Dynamische Verhaltensmodellierung in Multi-Agenten-Systemen durch evolutionäre Programmierung In einem Multi-Agenten-System muss sich jeder Agent an die Umgebung anpassen und sich dynamisch mit anderen Agenten abstimmen. Um das Verhalten anderer Agenten vorherzusagen oder damit zu kooperieren. Ein Agent sollte sein kooperatives Verhaltensmodell dynamisch etablieren und weiterentwickeln.;-;-;-;https://link.springer.com/article/10.1007/BF02900901 1c25b95fd559b1c11c3dd36e122f020d;de;;;3.1.;;;Medizinische Bildkennzeichnung und semantisches Verständnis für klinische Anwendungen Die semantische Konzepterkennung trägt zum maschinellen Verstehen und Lernen aus medizinischen Bildern bei, sie spielt auch eine wichtige Rolle beim Bildlesen und der bildgestützten Diagnose. In dieser Studie wurde das Problem der Erkennung hochfrequenter Konzepte aus medizinischen Bildern in eine Multi-Label-Klassifikationsaufgabe transformiert. Zur Erkennung hochfrequenter medizinischer Konzepte wurde das auf Convolutional Neural Networks (CNNs) basierende Transfer-Lernverfahren verwendet. Um die semantisch verwandten Konzepte aus Bildern zu erhalten, die den gegebenen medizinischen Bildern ähnlich sind, wurde die auf Bildabrufen basierende Topic-Modeling-Methode verwendet. Unsere Gruppe nahm an den Teilaufgaben zur Konzepterkennung teil, die von ImageCLEFcaption 2018 und ImageCLEFmed Caption 2019 gestartet wurden. In der Aufgabe 2018 erreichte die CNN-basierte Transferlernmethode einen F1-Wert von 0,0928, während das abrufbasierte Themenmodell einen F1-Wert von 0,0907. Obwohl die letztgenannte Methode an einige Niederfrequenzkonzepte erinnerte, hing sie stark von den Ergebnissen der Bildwiederherstellung ab. Für die letzte Aufgabe von 2019 haben wir körperteilbasierte Vorklassifizierungsstrategien vorgeschlagen und einen F1-Wert von 0,2235 erreicht. Die Ergebnisse zeigten, dass die auf Transfer-Lernen basierende Multi-Label-Klassifikationsmethode bei der hochfrequenten Konzepterkennung über verschiedene Datensätze hinweg robuster war, aber es gibt noch viel Raum für Verbesserungen in der groß angelegten Forschung zur offenen semantischen Konzepterkennung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-28577-7_22 9d8ec884d65d9d4ba55132d99a16e5fd;de;;;3.1.;;;Eine Konsenssequenz für das Adenovirus-2-Genom Die vollständige Sequenz von 35 937 Nukleotiden für das Adenovirus-2-Genom wird in vollständig annotierter Form präsentiert. Diese Sequenz stellt einen Konsens dar, der durch Kombinieren von Sequenzdaten aus vielen verschiedenen Laboratorien abgeleitet wurde.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2293-1_1 baa33d494c68b59dab71d89e8d0d69b8;de;;;3.1.;;;Sternentstehung in magnetischen interstellaren Wolken: II. Grundlegende Theorie Magnetische Bremsung und ambipolare Diffusion sind unvermeidliche physikalische Prozesse in interstellaren Wolken und spielen eine Schlüsselrolle, vielleicht sogar eine entscheidende Rolle bei der Sternentstehung. Wir fassen die Berechnungen zur magnetischen Bremsung und ambipolaren Diffusion zusammen, die zum Vorschlag des im Begleitpapier beschriebenen Szenarios zur Sternentstehung führten. Dies ist keine Überprüfung der Literatur. Es werden neue Einblicke in die zugrunde liegende Physik der beiden Prozesse gegeben und weitere Kontakte zu Beobachtungen hergestellt. Die mathematisch komplizierten Lösungen zur Lösung des Drehimpulsproblems durch magnetisches Bremsen werden erläutert durch;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-3945-5_28 ee562c0e29131b4a0a641489eefff06d;de;;;3.1.;;;Automatisches Testsystem für antimikrobielle Empfindlichkeit Die mikrobiologische Infektion ist eines der gravierendsten Probleme in Thailand. Sie wird durch Antibiotika-Management, wie z. B. den in allen mikrobiologischen Labors beliebten Disk-Diffusions-Antibiotikum-Empfindlichkeitstest (Kirby Bauer AST), wirksam kontrolliert. Die Nützlichkeit der Disk-Diffusion liegt in ihren geringen Betriebskosten, der Fähigkeit, mit vielen Agenten gleichzeitig zu testen, und der Potenz für automatische Tests. Der automatische Prozess der Empfindlichkeitsprüfung führt nicht nur zu einer genauen und präzisen Messung durch Eliminierung von Messabweichungen und menschlichen Fehlern, sondern bringt auch viele Vorteile mit sich, wie z. Die elektrischen Daten, die mit dem Laborinformationssystem (LIS) kompatibel sind, eignen sich zum Speichern, Archivieren und Übertragen über ein Kommunikationsnetzwerk in telemedizinischen Zielen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36841-0_630 2c20f73d2740194151bed65bbd4b0b5c;de;;;3.1.;;;Brauer-Gruppen von Homogenecus-Räumen, I Diese Arbeit entspringt meinem Wunsch, einen algebraischen homogenen Raum in Bezug auf eine affine algebraische Gruppe über (C dem Körper der komplexen Zahlen, der keine rationale algebraische Varietät ist, zu finden. Die Frage ist tatsächlich offen, aber ich glaube, dass eine nicht- Ein rationaler homogener Raum wird gefunden.Eine schnelle Durchsicht der beteiligten Tatsachen zeigt, dass der Hauptkandidat für einen solchen homogenen Raum einer der Form G/K für G und K wäre, die beide halbeinfach sind (E und K sind in keiner parabolische Untergruppe von G. Tatsächlich ist diese letzte Bedingung nicht wesentlich, aber wenn man Levi-Faktoren betrachtet, sieht man, dass der wesentliche Teil des Problems hier liegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-6369-6_8 b03b2ef31b83d843b411ce1359c086e6;de;;;3.1.;;;Eine Übersicht und Analyse der Anwendung der Laplace-Transformation auf Gegenwartswertprobleme Dieser Artikel gibt einen Überblick über den aktuellen Stand bezüglich der Anwendung der Laplace-Transformation auf Gegenwartswertprobleme. Die Grenzen der Verwendung der Laplace-Transformation werden diskutiert und einige Ideen für zukünftige mögliche Forschungen werden vorgestellt.;-;-;-;https://link.springer.com/article/10.1007/BF02085591 c0831497f10b13d65a5c899a84c55b24;de;;;3.1.;;;Perspektiven für Anwendungen von Quantenpunktstrukturen in der Elektronik und Optoelektronik Aktuelle technologische Errungenschaften versprechen, die Herstellung makroskopischer Arrays von Quantum Dots (QDs) denkbar zu machen. Aus diesem Grund ist es sinnvoll, einige Perspektiven ihrer Anwendungen für Elektronik und Optoelektronik zu diskutieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-1746-0_17 6e294b8f455efbcaa416a34c569b546f;de;;;3.1.;;;Hollings „hungrige Mantis“-Modell für die funktionelle Reaktion von Wirbellosen, die als Markov-Prozess betrachtet wird. Teil I: Das vollständige Modell und einige seiner Grenzen In diesem Artikel geben wir eine analytische Neuformulierung von Hollings (1966) Simulationsmodell für räuberisches Verhalten von Wirbellosen. Dazu stellen wir eine Population von Prädatoren als Häufigkeitsverteilung über einen Raum von (physiologischen) Zuständen dar. Die funktionelle Reaktion eines Räubers wird aus der (stabilen) Gleichgewichtsverteilung seines Zustands in Abhängigkeit von der Beutedichte berechnet.;-;-;-;https://link.springer.com/article/10.1007/BF00275716 bedd8a78ee013b7b90186b1a97f6c975;de;;;3.1.;;;Das Gemeinsamkeitsproblem bei der Lagerverwaltung für komplexe Baugruppen Beschrieben wird ein Verfahren zur Vorhaltung von Gesamtbeständen nahe dem Mindestbestand bei der Lagerhaltung von auszugebenden Teilen für Baugruppen.;-;-;-;https://link.springer.com/article/10.1057/jors.1969.13 7692171327bcf708849ce56d24cec544;de;;;3.1.;;;"Freie Grenzen des Forcens und mehr bei Aronszajn-Bäumen Wir beweisen, dass die Souslin-Hypothese nicht „jeden Aron. (=Aronszajn) Baum ist etwas Besonderes“. Dazu führen wir Varianten des Begriffs „besonderer Aron. Baum"". Wir führen auch einen Grenzwert von Antrieben ein, der größer als der inverse Grenzwert ist, und beweisen, dass die Richtigkeit und verwandte Begriffe nicht geringer als der inverse Grenzwert bleiben, und der Beweis ist in mancher Hinsicht einfacher.";-;-;-;https://link.springer.com/article/10.1007/BF02762777 4dff691215face661d5a94c48f597448;de;;;3.1.;;;Tochers Modellierungsprinzip: Praktische Bedeutung und mathematische Implikationen Dieser Artikel beschreibt ein wichtiges Modellierungsprinzip des verstorbenen K. D. Tocher, nämlich dass klar unterschieden werden sollte zwischen a;-;-;-;https://link.springer.com/article/10.1057/jors.1984.41 30e36d168c1159c291472c287729e16b;de;;;3.1.;;;Anaerobe Behandlung von Olivenölabwasser Im Gegensatz zu subtileren und weniger sichtbaren Schadstoffen ist ausgelaufenes Öl für leicht erkennbare negative Auswirkungen auf die Umwelt verantwortlich. Obwohl es zahlreiche Veröffentlichungen über die Behandlung von Abfällen aus der Erdöl- und Metallölproduktion gibt, sind die Studien und Forschungen zur Behandlung von Abfällen aus der Olivenölgewinnung begrenzt, da Oliven ein typisches Produkt des Mittelmeerraums sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-2457-7_21 1fbe990f749e456daf5d3e975e7ca93b;de;;;3.1.;;;Über die Sorption von Holz und ihre exakte Bestimmung Bei gleichzeitiger Einwirkung von Wasserdampf und Wärme stellt sich ein Gleichgewicht des Feuchtigkeitsgehaltes von Holz zur Umgebungden feuchten Luft ein, es kann durch Befeuchtung oder Adsorption oder aber durch Entfeuchtung oder Desorption erreicht werden. Bei der Sorption der Dämpfe von benetzenden Flüssigkeiten ergeben sich für kapillarporöse Kolloidkörper S-förmige Sorptionskurven, bei der Sorption nicht benetzender flüssiger einfach gekrümmter Kurven. Man unterscheidet Chemosoprtion, monomolekulare Sorption, polymolekulare Adsorption und Kapillarkondensation. Eine quantitative Abgrenzung der Sorptionserscheinungen wurde diskutiert. Das hygroskopische Gleichgewicht ist stark von der Temperatur abhängig. Charakteristisch für Kolloide ist auch die Sorptionshysterese, die sich auf verschiedene Weise deuten lässt. Mechanische Beanspruchungen und die Bestrahlung mit energiereichen Gammastrahlen can das Sorptionsverhalten wesentlich ändern. Auf besondere Schwierigkeiten stoßen exakte Sorptionsmessungen, jedoch Haben sich mehr und mehr Sorptionsmessungen im Vakuum als zweckmäßig erwiesen. Ein im Münchener Institut für Holzforschung und Holztechnik entwickeltes Gerät zeichnet sich durch besonders weit getriebene Temperaturkonstanz aus und gestattet damit auch noch in unmittelbarer Nähe des Fasersättigungspunktes. Es stellte sich heraus, daß das Hysterese-Phänomen durch die Messung im Hochvakuum nicht beeinflußt wird.;-;-;-;https://link.springer.com/article/10.1007/BF02608808 c090ff7b6d30d49bc8b40df7823076f3;de;;;3.1.;;;Monocrotophos – Interaktion mit Insekten, Milben und Pflanzen In Industrie- und Entwicklungsländern unterliegt die moderne Landwirtschaft widersprüchlichen Trends: In den reichen Ländern fordert die Gesellschaft den Ertrag nachrangig gegenüber vollständiger Umweltverträglichkeit. In armen Ländern hingegen ist die Erhaltung und Optimierung des Ertrags zwingend erforderlich, um ausreichend Nahrung für die wachsende Bevölkerung bereitzustellen. „Insekten sollen möglichst ausschließlich mit biologischen Mitteln bekämpft werden“ – diese Aussage wäre ein modernes Postulat in der industrialisierten Welt. Die Realität in der tropischen und subtropischen Landwirtschaft sieht jedoch anders aus. Dort ist Pflanzenschutz durch Chemikalien unverzichtbar, wenn Volumen und Kontinuität der landwirtschaftlichen Produktion gesichert werden sollen. Für die Forschung bedeutet das, dass neue Insektizide umweltverträglich, nach allen möglichen Kriterien sicher und hervorragende Bekämpfungsmittel für alle betroffenen Schädlingsarten, resistent oder nicht, sein sollten. Wenn diese Postulate konsequent befolgt werden, sind die Chancen für die Entwicklung eines New-Age-Insektizids praktisch gleich Null. Als Folge davon ist die Bereitschaft und Kapazität von Unternehmen, in die Forschung nach neuen Insektiziden zu investieren, stetig zurückgegangen, und dieser Rückgang wird sich fortsetzen. In dieser Situation ist es zwingend erforderlich, die Lebensdauer bewährter Insektenbekämpfungsmittel unbedingt zu verlängern. Dieser Aufsatz befasst sich mit Monocrotophos, einem Vertreter der Enolphosphate, und seiner biologischen Leistungsfähigkeit. In den letzten zwei Jahrzehnten wurde viel Arbeit geleistet, um die Vor- und Nachteile von Monocrotophos aufzuklären. Es wird ein Querschnitt der Eigenschaften von Monocrotophos vorgestellt, zu dem viele Arbeiter auf der ganzen Welt beigetragen haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4684-7071-0_9 ed5ef57c9a6d451fea4b19cada6dc517;de;;;3.1.;;;Der Sonic-Hedgehog-Signalweg trägt unabhängig von einer perineuralen Infiltration zur Entwicklung von Speicheldrüsenneoplasien bei Das pleomorphe Adenom (PA), das Mukoepidermoid-Karzinom (MEC) und das adenoid-zystische Karzinom (ACC) sind häufige Tumoren, die aus Speicheldrüsen mit heterogener Histopathologie entstehen. Der Sonic-Hedgehog-Signalweg (Hh) und Signalwandler und Aktivator der Transkription 3 (STAT3) spielen eine wichtige Rolle bei der Zellproliferation und begünstigen das Tumorwachstum. Das Ziel dieser Untersuchung war es, Komponenten des Hh-Signalwegs sowie STAT3 in Speicheldrüsenneoplasmen zu untersuchen, um Informationen über die biologischen Eigenschaften dieser Neoplasmen hinzuzufügen. Wir verwendeten 9 Fälle von PA, 17 Fälle von ACC und 20 Fälle von MEC. Mittels Immunhistochemie wurden SHH, GLI1, SUFU, HHIP und STAT3 untersucht. Zu Vergleichszwecken wurde auch MCM3 (zellulärer Proliferationsmarker) eingeschlossen. In PA gab es eine hohe Expression von zytoplasmatischem SHH und SUFU und eine niedrige Expression von STAT3 und MCM3. Im ACC gab es eine hohe Expression von GLI1, HHIP und STAT3 und eine niedrige Expression von SHH, SUFU und MCM3. In der MEC beobachteten wir eine hohe Expression von SHH, GLI1, SUFU und HHIP und eine geringe Expression von STAT3 und MCM3. Es gab einen statistisch signifikanten Unterschied zwischen SHH (;-;-;-;https://link.springer.com/article/10.1007/s13277-016-4841-4 161d006fb1f11c97e513bac6843cd93f;de;;;3.1.;;;Die Evolution mathematischer Programmiersysteme Computerprogramme zur Lösung linearer Programmierprobleme nach der Simplex-Methode gibt es seit den frühen 1950er Jahren. Sie bleiben das zentrale Merkmal heutiger mathematischer Programmiersysteme. Die Größe der lösbaren Probleme hat stetig zugenommen: Dies ist sowohl auf ein besseres Verständnis der Ausnutzung der Knappheit als auf größere und schnellere Computer zurückzuführen. Die Zahl der lösbaren Probleme hat stetig zugenommen: Dies ist sowohl auf neue Konzepte wie separable Programmierung, Integer-Variablen und speziell geordnete Mengen als auch auf neue Algorithmen zurückzuführen. Die Anwendung der mathematischen Programmierung ist immer automatisierter geworden. Dies gilt sowohl für die Verwendung von computergestützten Matrixgeneratoren und Berichtsschreibern als auch für die mathematische Formulierung selbst, da wir uns weniger darauf verlassen, dass der Benutzer ein gut skaliertes lineares Programmierproblem erstellt, und damit beginnen, die Formulierung der ganzzahligen Programmierung automatisch zu schärfen Probleme.;-;-;-;https://link.springer.com/article/10.1057/jors.1985.64 a9e7d474b1fabc88c5d48f10fd10e342;de;;;3.1.;;;Variation des Punktspektrums unter kompakten Störungen Dieser Artikel bietet eine vollständige Antwort auf das folgende Problem: Bestimmen Sie bei einem gegebenen Hilbert-Raumoperator T alle möglichen Paare von Teilmengen Σ, Ξ der komplexen Ebene, so dass für einen kompakten Operator K Σ das Punktspektrum von T - K und Ξ ist ist das Punktspektrum seines Adjungierten. Das Ergebnis wird verwendet, um die Stetigkeitseigenschaften der Funktion T → σ . zu untersuchen;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-5475-7_9 2460adfb4eccef6a98b5e0e90cb75a62;de;;;3.1.;;;Internationale Politikkoordinierung in einer Welt mit Modellunsicherheit Dabei werden die Gestaltung und Erwünschtheit von Regeln für die internationale Koordinierung makroökonomischer Politiken in einer von Modellunsicherheit geprägten Welt betrachtet. Das Vorhandensein von Modellunsicherheiten bietet einen zusätzlichen Anreiz, Maßnahmen zu koordinieren, sofern die politischen Entscheidungsträger erkennen, dass sie das wahre Modell nicht kennen können. Um den Nutzen der Koordinierung zu quantifizieren, werden Konfidenzbereiche für Parameter in MINIMOD angegeben, wobei von politischen Entscheidungsträgern in den Vereinigten Staaten und der übrigen Welt angenommen wird, dass sie diese Bereiche als subjektive Wahrscheinlichkeitsprioritäten verwenden. Es wird gezeigt, dass der erwartete Wert der Gewinne aus der Koordinierung der Maßnahmen trotz erheblicher Parameterunsicherheit groß sein kann.;-;-;-;https://link.springer.com/article/10.2307/3867080 c3a8c66d6b7c36171d0f27195f8e0e19;de;;;3.1.;;;Opamp-Topologien für überabgetastete Wandler Operationsverstärker spielen bei Delta-Sigma-Modulatoren eine entscheidende Rolle. Die Auswirkungen der Nichtlinearitäten der Opamps auf die Modulatorleistung wurden ausführlich untersucht [Medeirand Perez-Verdu, 1994, Boser und Wooley, 1988, Hauser und Broderson, 1986, Bishop et al., 1990]. Diese Studien werden ohne Annahme einer bestimmten Opamp-Topologie durchgeführt. Nichtidealitäten wie endliche Verstärkung, endliche Anstiegsrate und endliche Verstärkungsbandbreite wurden in den linearisierten Z-Domänen-Ausdruck des Modulators und/oder in die Zeitdomänen-Differenzgleichung aufgenommen. Der erstere Ansatz ist für die analytische Untersuchung geeignet, während der letztere für die Computersimulation geeignet ist. Es wurde festgestellt, dass der Modulator ein unvollständiges Einschwingen tolerieren kann, vorausgesetzt, dass das Einschwingen linear ist. Diese Annahme ist jedoch nur gültig, wenn ein perfekter Klasse-AB-Operationsverstärker verwendet wird, bei dem die Übergangsperiode nicht durch die Anstiegsgeschwindigkeit begrenzt ist. Mehrere Autoren haben die Wirkung der endlichen Anstiegsgeschwindigkeit auf die Modulatorleistung untersucht. Sie alle gingen jedoch von einer einfachen Anstiegsratenformel aus, die auf Klasse-A-Operationsverstärkern basiert. Da kein praktischer Operationsverstärker einen unendlich großen Strom liefern kann, ist der Übergangsvorgang mehr oder weniger durch die Anstiegsgeschwindigkeit begrenzt, unabhängig davon, welcher Operationsverstärker verwendet wird. Diese Begrenzung führt zu einem eingangsspannungsabhängigen Einschwingverhalten, das die Modulatorleistung direkt verschlechtert. Daher kann die Bedeutung eines besseren Verständnisses des transienten Prozesses für die verschiedenen Operationsverstärker nicht übersehen werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5463-9_2 0412fb27498d56467f466f97c3c7ef22;de;;;3.1.;;;Der Einfluss von Atemwegserkrankungen auf klinische pharmakokinetische Variablen Atemwegserkrankungen führen zu mehreren pathophysiologischen Veränderungen, die Gasaustausch und Säure-Basen-Haushalt, regionale Hämodynamik und Veränderungen der Alveolokapillarmembran beinhalten. Die Folgen für die Aufnahme, Verteilung und Ausscheidung von Arzneimitteln werden bewertet.;-;-;-;https://link.springer.com/article/10.2165/00003088-199019060-00004 af33268d6977c99544786577646b398e;de;;;3.1.;;;Strahlung kanalisieren — Quantentheorie Auf eine allgemeine Einführung in das Kanalisieren und Kanalisieren von Strahlung folgt eine Ableitung einer Wellengleichung für die transversale Bewegung eines kanalisierten Teilchens. Aufgrund der Dominanz der Vorwärtsstreuung kann der Penetrationsdeoth in dieser Gleichung als Zeitvariable behandelt werden und nimmt die Form einer zeitabhängigen Schrödinger-Gleichung an. Sie wird aus der Klein-Gordon-Gleichung einschließlich der Wechselwirkung mit dem Strahlungsfeld erhalten. Die Vernachlässigung des Spins vereinfacht die Formulierung erheblich, und es wird argumentiert, dass er in der Beschreibung der kanalisierenden Strahlung gut begründet ist. Die Behandlung ermöglicht auch eine natürliche Einbeziehung der Wechselwirkung mit den Kristall-Freiheitsgraden, was zu Instabilität von Kanalisierungszuständen und Linienverbreiterung der Strahlung führt. Sowohl der thermische als auch der elektronische Beitrag zur Streuung werden ausführlich diskutiert und ihr Einfluss auf die Frequenzverteilung und Intensität der kanalisierenden Strahlung wird durch Vergleiche mit Exoeriment veranschaulicht. Diese Streuung ist wichtig für die im letzten Abschnitt betrachteten möglichen Anwendungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-51185-1_6 064d92bdc520bfc6577768e691b94e06;de;;;3.1.;;;Leistungsgrenze für die untere linke Guillotine-Packung von Rechtecken In diesem Artikel zeigen wir, dass die Guillotine-Platzierung von Rechtecken unten links nach abnehmender Breite in einem Bin mit fester Breite nicht mehr als dreimal so hoch wie eine optimale Platzierung ist. Diese Grenze gilt auch für die Platzierung von Rechtecken unten links ohne die Guillotine-Beschränkungen. Somit hat eine unten links angeordnete Guillotine-Platzierung, bei der Rechtecke nach abnehmender Breite geordnet sind, die gleiche Leistungsgrenze für den ungünstigsten Fall wie eine unten links platzierte Platzierung von Rechtecken ohne Guillotine-Beschränkungen.;-;-;-;https://link.springer.com/article/10.1057/jors.1992.21 f0441779494c04c4e5446454961c7d05;de;;;3.1.;;;Genetische Variationsgrundlagen aus in vitro Gewebekultur Viele Gewebekulturstudien, die in den 1950er Jahren begonnen wurden, wurden von Gautheret (1954, 1959, 1964) zusammengefasst. Seitdem wurden erfolgreich Meristem- und Kalluskulturen einer großen Zahl von Pflanzenarten ausgearbeitet und über phänotypische Variationen in Kallus-regenerierten Pflanzen berichtet (Bajaj 1986). Tatsächlich wurde nur wenig über Variationen aufgrund von Meristemkulturen (Clare und Collin 1974) berichtet, die jedoch häufig durch Kallusregeneration oder in Stämmen auftraten. Es gibt viele Übersichtsartikel zu diesem Thema, von denen einige versuchen, die Ursachen zu erklären und den Ursprung dieser Variabilität zu finden (Sibi 1978, Brettell und Ingram 1979, Larkin und Scowcroft 1981, Reisch 1983, Orton 1984, Karp und Bright 1985, Gould 1986). Diese Variation wurde je nach Autoren unterschiedlich bezeichnet. „Phänovarianten“ wurde zuerst von Sibi (1971) vorgeschlagen, um die neuen regenerierten Phänotypen zu beschreiben, während „somaklonale Variation“ von Larkin und Scowcroft (1981) verwendet wurde und allgemein für alle Arten von Variationen akzeptiert zu sein scheint, die aus in vitro-Gewebekulturen stammen .;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-02636-6_4 531c2c2d2e77715e4fc94fb6a2789f90;de;;;3.1.;;;Pathophysiologie und Pharmakokinetik nach Verbrennungsverletzungen Die Therapie stationärer Verbrennungsopfer stellt für den Kliniker eine klare Herausforderung dar, da sich die pharmakokinetischen Parameter vieler Medikamente direkt nach einer Verletzung drastisch ändern. Der Blutfluss zu den Geweben wird verringert, die Verteilungs- und Eliminationsrate von intravenös verabreichten Arzneimitteln während dieser Zeit wird verringert und die Absorption oraler Arzneimittel kann verlangsamt werden. Ungefähr 48 Stunden nach der Verletzung steigt der Blutfluss, ebenso die innere Kerntemperatur: Die Frequenzen können dadurch steigen.;-;-;-;https://link.springer.com/article/10.2165/00003088-199018020-00003 63950013a88ef1ed6b770c82ae21e74a;de;;;3.1.;;;Morphologischer Beitrag zur Kenntnis der Listeria-Meningoenzephalitis beim Erwachsenen und beim Säugling Zusammenfassend stellt die Meningoenzephalitis bei Listeriose des Menschen dar, insbesondere in Bezug auf ihre Lokalisation, eine recht typische Erkrankung dar. Sie besteht in einer granulomatös-makrocytären Meningitis und einer flächenhaften Ependymitis. Die Hirnrinde selbst ist bei dem Prozeß fast unbeteiligt, ebenso wie die Stammganglien. Nur in der Medulla oblongata kam es in beiden Erwachsenen-Fällen zum Auftreten von Nekrosen ohne deutliche Reaktion des Gefäßbindegewebes. Purkinjezellen, zum Teil auch die Körnerzellschicht des Kleinhirns, waren in großem Umfang untergegangen, es bleibt offen, ob durch O;-;-;-;https://link.springer.com/article/10.1007/BF00353290 ffeeb646caa59f4f20d4db066678e683;de;;;3.1.;;;Gesundheitszustandsindizes Das Problem der Messung und insbesondere der quantitativen Bewertung der Gesundheit einer bestimmten Bevölkerung oder der von einem Gesundheitssystem, Gesundheitsprogramm oder einzelnen Anbieter erbrachten Gesundheitsversorgung ist grundlegend für die Anwendung von Operations Research auf Gesundheitssysteme. Dieses Problem hat zwei Hauptaspekte. Erstens muss eine Kennzahl oder ein Index die Auswirkungen des betrachteten Systems auf die Gesundheit der Bevölkerung genau und zuverlässig bewerten. Bei der Verwendung als statisches Gesundheitsmaß, etwa bei der Qualitätsbewertung oder der klinischen Entscheidungsfindung, ist dies ausreichend. Für die Gesundheitsplanung im weitesten Sinne muss sie aber auch gestaltet werden. damit es im Modell manipuliert werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-93167-3_2 0ae900fe6750a6aa70506d9f8a5b07bb;de;;;3.1.;;;Ultrafiltration zur Trennung von Biokatalysatoren Die Anwendung der Ultrafiltration in der Biotechnologie wird untersucht, wobei die Abtrennung katalytisch aktiver Spezies betont wird. Die Ultrafiltration als Trennverfahren sowie deren Anwendung auf Membranreaktoren wird analysiert. Auf Basis einer anwendungsorientierten Theorie der Ultrafiltration werden die wesentlichen Aspekte zur Prozessgestaltung beschrieben. Eine Übersicht der Bewerbungen wird gegeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-39694-0_2 1bd987ca6c0ede16d085f6247623ebe3;de;;;3.1.;;;Verhalten des Dauerstrichlasers In den vorherigen Kapiteln haben wir mehrere Merkmale der Komponenten besprochen, aus denen ein Laser besteht. Dies sind das Lasermedium selbst, dessen Wechselwirkung mit einer em-Welle in den Kap. 2 und 3, der passive optische Resonator (Kap. 5) und das Pumpsystem (Kap. 6). In diesem Kapitel werden wir die Ergebnisse aus diesen früheren Kapiteln verwenden, um den theoretischen Hintergrund zu entwickeln, der zur Beschreibung des cw-Laserverhaltens erforderlich ist. Der Fall des transienten Laserverhaltens wird in Kap. 8. Die hier entwickelte Theorie verwendet die sogenannte Ratengleichungs-Approximation und Lasergleichungen werden auf der Grundlage einer einfachen Vorstellung abgeleitet, dass ein Gleichgewicht zwischen der Gesamtzahl der Atome, die einen Übergang durchlaufen, und der Gesamtzahl der erzeugten Photonen bestehen sollte oder vernichtet.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-6266-2_7 d3ecb0f88df1e87f3b7feb8a129428b8;de;;;3.1.;;;Technologie des Trockenverfahrens zur Herstellung von Faserhartplatten und seine Entwicklung in Japan Trotz eines Überangebotes an Faserhartplatten auf dem Markt wurden in der Zeit von Dezember 1960 bis Februar 1963 in Japan drei Werke in Betrieb genommen. Diese Werke arbeiten nach dem sogenannten Trockenprozeß-Verfahren. Der Verfasser beschreibt eingehend die Technologie des Herstellungsvorganges für Faserhartplatten im Trockenprozeß-Verfahren. Die einzelnen Stufen, wie Holzvorbereitung, Hackschnitzelbunkerung, Kochprozess, Zerfascrung, Zusatz der Chemikalien, Faserstoff-Trocknung, Mattenformung, Pressen, Klimatisieren und Endbearbeitung werden ausführlich dargestellt und in ihren ausführlichen Erläuterungen. Technologische Daten der erstellten, zweiseitig glatten Platten sowie Erzengungsdaten werden genannt.;-;-;-;https://link.springer.com/article/10.1007/BF02609725 97e37d5d2712d821b01e925d29db1dd4;de;;;3.1.;;;Progressive Entwicklung sarkomähnlicher Gewebsbilder im Verlaufe der Hodgkinschen Erkrankung. (Darstellung eines Entwicklungsganges. Berücksichtigung des Nuclealapparates und der Dehydrasenaktivität.) Der Verlauf einer LG wird an Hand mehrfacher histologischer Untersuchungen verfolgt. Es ergibt sich dabei eine Wandelbarkeit der Gewebsbilder, so daß ein kontinuierlicher Entwicklungsprozeß mit Entdifferenzierung in einem retothelähnlichen Gewebsbild dargestellt werden kann. Nachgewiesen wurden unter Berücksichtigung zahlreicher durchgeführter Einzeluntersuchungen außer pathologischen Kernkörperchenverhältnissen auch Veränderungen der Dehydrasenaktivität. Die Stellung der Lymphknotenpathologie wird im Rahmen der Lymphknotenpathologie berücksichtigt, wobei die eigenen speziellen Befunde werden.;-;-;-;https://link.springer.com/article/10.1007/BF01472183 59545033c2f674c692db0d3ec1779231;de;;;3.1.;;;Die Pyrogeographie Subsahara-Afrikas: eine Untersuchung der räumlichen Instationarität von Feuer-Umwelt-Beziehungen mit GWR Diese Studie analysiert die Beziehung zwischen dem Auftreten von Bränden und einigen Umweltfaktoren und untersucht die räumliche Instationarität des Phänomens in Subsahara-Afrika. Geographisch gewichtete Regression (GWR) wurde verwendet, um die obige Beziehung zu untersuchen. Umweltkovariaten umfassen Bodenbedeckung, anthropogene und klimatische Variablen. GWR wurde mit gewöhnlichen kleinsten Quadraten verglichen, und die Hypothese, dass GWR keine Verbesserung gegenüber dem globalen Modell darstellt, wurde getestet. Lokale Regressionskoeffizienten wurden kartiert, interpretiert und mit der Brandhäufigkeit in Beziehung gesetzt. GWR zeigte lokale Muster in Parameterschätzungen und reduzierte auch die räumliche Autokorrelation von Modellresiduen. Alle Kovariaten waren nicht stationär und in Bezug auf die Anpassungsgüte repliziert das Modell die Daten sehr gut (;-;-;-;https://link.springer.com/article/10.1007/s10109-010-0123-7 2926e0ae546c38ed2cc9a72ebd507ba2;de;;;3.1.;;;Somaklonale Variation in Reis Reis ist das Grundnahrungsmittel von mehr als der Hälfte der Weltbevölkerung, und sein derzeitiger Anbau erstreckt sich vom 53. Es wird unter verschiedenen Bedingungen angebaut, einschließlich Hochland, Tiefwasser und Böden mit pH 3,5 bis 9,5 (Khush 1984). Es gibt 22 Arten in der Gattung;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-02636-6_12 9da7fcec8fe450e577614daa7bda78a5;de;;;3.1.;;;Umweltintegriertes Produktions- und Kreislaufwirtschaftsmanagement Die umweltintegrierte Produktions- und Recyclingplanung ist von großer Bedeutung für die Wettbewerbsposition der Produktionsbetriebe. Aufgrund steigender Entsorgungskosten für industrielle Nebenprodukte und Abfälle sowie strengerer Emissionsstandards werden Unternehmen dazu verpflichtet, fortschrittliche, umweltfreundliche Produktionstechnologien einzurichten und zu kontrollieren, damit Emissionen und Nebenprodukte drastisch reduziert werden. Nicht vermeidbare Nebenprodukte und Altprodukte am Ende ihrer Lebensdauer müssen von den Herstellern recycelt werden. Die Komplexität der daraus resultierenden Entscheidungsprobleme erfordert adäquate Methoden des Operations Research. Der folgende Beitrag beschäftigt sich mit der Entwicklung anspruchsvoller Operations Research-Modelle für zwei ausgewählte Planungsprobleme: das Recycling industrieller Nebenprodukte sowie die Demontage und das Recycling von Produkten am Ende ihrer Lebensdauer. Die Modelle wurden erfolgreich auf große industrielle Problemstellungen in der Praxis in den Bereichen Recycling von Bauschutt in einer deutsch-französischen Region und Nebenproduktmanagement in der Stahlindustrie angewendet. Die Präsentationen dieser beiden Anwendungen folgen dem Gesichtspunkt einer Fallstudie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17036-2_22 0daa53b21ff289c46131d459096e2bc3;de;;;3.1.;;;Prozesse auf einer realen Oberfläche Wie wir wissen, weichen die experimentell beobachteten Regelmäßigkeiten der Adsorption oft von den Vorhersagen der klassischen Langmuir-Adsorptionstheorie ab. Diese Abweichungen, die sowohl in der Adsorptionskinetik als auch im Adsorptionsgleichgewicht auftreten (Nicht-Langmuir-Isothermen und die Abhängigkeit der differentiellen Adsorptionswärme von der Oberflächenbelegung), weisen auf die Verletzung einer oder mehrerer der der Langmuir-Theorie zugrunde liegenden Annahmen hin.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-3656-7_6 d9a3a24ff2d677d3adf674ed2a0e565e;de;;;3.1.;;;Sur quelques Konzentrationen plombo-zinciferes du devonien inferieur du massif schisteux rhenan Das Unterdevon des Rheinschiefermassivs ist durch eine feine detritische Sedimentation gekennzeichnet, die eine küstennahe Umgebung zwischen dem Altrotsandstein-Kontinent im Norden und der marinen Böhmischen Fazies im Südosten widerspiegelt. Mineralisierungen befinden sich innerhalb dieser küstennahen Sedimente, insbesondere in zerklüfteten Horizonten, die von pelitischen und sandigen Sedimenten der Sieg-Ems-Zeit überragt werden. Die mineralisierten Fundstellen kommen in drei Zonen vor: den Bezirken Bensberg, Eitorf und Mayen. Der Ort Lüderich (Bensberg) ist der bedeutendste mit etwa einer Million Tonnen Zn- und Pb-Metall. Es befindet sich in einer Zone mit ausgeprägten sedimentären Eigenschaften seit dem Siegenium. Die Mineralisierung tritt als kurzzeitige Linsen, Bruchfüllungen usw. auf, die bei abnormalen Kontakten zwischen lithologischen Einheiten mit unterschiedlicher Kompetenz während der Siegen- und Unteremsischen Deformation gebildet werden. Lokal gibt es jedoch einen seitlichen Übergang zwischen den oberen Einheiten der sandigen Kanalreihe und den unteren Einheiten der pelitischen Sumpffazies. Die vertikale Ausdehnung der Mineralisierungen ist streng auf die tektonische Kontaktzone zwischen dem Odenspiel-Sandstein und den Bensberg-Peliten beschränkt. Die Untersuchung von Mineralisierungen auf verschiedenen Ebenen (Kartierung, Morphologie, Struktur, paragenetisch und geochemisch) führt zur Formulierung eines genetischen Modells, das eine komplexe Frakturierung am Kontakt zwischen kontrastierenden Lithologien und eine bevorzugte Drainage durch diese zerklüfteten Zonen erfordert. das pelitische Dach, das die vadosen hydrothermalen Lösungen einschließt. Diese Grundkontrollen scheinen in den Landkreisen Bensberg, Eitorf und Mayen zu gelten. Auf regionalerer Ebene spiegeln die Altersunterschiede der Gangsedimente eine seitliche Verschiebung der rot-grauen Faziesgrenzen aufgrund der Küstenentwicklung wider. Somit kann eine Art von Mineralvorkommen nachgewiesen werden, deren Modell das der epigenetischen Rekonzentration innerhalb von Brüchen sein könnte, die syngenetische geochemische Anomalien betreffen.;-;-;-;https://link.springer.com/article/10.1007/BF01798962 1990f64744a875ab379871a04a02db6f;de;;;3.1.;;;Vorläufiges Verzeichnis der in Europa forstlich kultivierten Pflanzenarten Es wird versucht, die in Europa forstlich kultivierten Pflanzenarten zusammenzustellen. Von den 250 Arten werden sterben Synonyme und Volksnamen genannt, kurze Angaben über natürliche und künstliche Verbreitung, über Eigenschaften und Verwendung des Holzes gemacht sowie Literaturhinweise.;-;-;-;https://link.springer.com/article/10.1007/BF02095794 02bffad185b132697414547332892c2c;de;;;3.1.;;;Dynamische Evolution und Partikelproduktion bei relativistischen Kernkollisionen Wir geben einen Überblick über die verschiedenen Stadien in der dynamischen Entwicklung relativistischer Kernkollisionen, von der entropieerzeugenden anfänglichen Vorgleichgewichtsphase über die hydrodynamische Expansionsphase bis hin zum Partikelausfrieren. Wir diskutieren die verschiedenen theoretischen Modelle, die auf diese verschiedenen Stadien angewendet wurden, und vergleichen ihre Vorhersagen mit den jüngsten Ergebnissen aus Schwerionenexperimenten am CERN und Brookhaven. Besondere Aufmerksamkeit wird der möglichen Bildung und anschließenden Hadronisierung eines Quark-Gluon-Plasmas bei diesen Kollisionen gewidmet. Die beobachteten Häufigkeiten seltsamer Teilchen werden als Hinweis auf ein chemisches Gleichgewicht bei Kernkollisionen interpretiert und die Teilchenimpulsspektren werden auf Anzeichen einer kollektiven Expansionsströmung analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-87821-3_4 6eb65435f55eae3d478a92ba3db41710;de;;;3.1.;;;Monetarisierung über den Apple App Store Es gibt drei Möglichkeiten, mit Apps im Apple App Store Geld zu verdienen. Der naheliegendste Weg ist, die Anwendung einfach in Rechnung zu stellen. Die zweite Möglichkeit besteht darin, die App kostenlos zu verschenken, aber Werbung einzuschließen. Eine andere Möglichkeit, die für kostenlose und kostenpflichtige Apps funktionieren kann, besteht darin, Dinge zum Verkauf in die App aufzunehmen. Diese werden als In-App-Käufe bezeichnet und sind bei einigen Spielstilen sehr beliebt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-4423-3_10 f46a3ec7c2cf998266e1eb7a01da85ee;de;;;3.1.;;;Hochauflösende Transmissionselektronenmikroskopische Untersuchung epitaktischer Schichten Layer Die hochauflösende Transmissionselektronenmikroskopie (TEM) liefert viele Informationen über epitaktische Schichten. Die Struktur von Schichten, die mit verschiedenen Methoden auf orientierten Substraten gewachsen sind, kann untersucht werden. Die Schichten können in verschiedenen Wachstumsstadien untersucht werden. Die atomare Struktur der Grenzfläche kann charakterisiert werden. Das Verfahren zum Kompensieren der strukturellen Fehlanpassung der Schicht mit dem Substrat wird offenbart. Die Wirkung mehrerer technischer Faktoren kann festgestellt werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-3268-2_4 4d00259a66c9a8681d2983e2527536e6;de;;;3.1.;;;Eine Checkliste der libyschen Kulturpflanzen mit einem Inventar des in den Jahren 1981, 1982 und 1983 gesammelten Keimplasmas Basierend auf Literaturquellen und eigenen Recherchen in den Jahren 1981, 1982 und 1983 wurde eine Checkliste der libyschen Kulturpflanzen erstellt. Insgesamt konnten 279 Arten und mehrere infraspezifische Taxa aufgelistet werden. Für jede Art werden eine prägnante Synonymie, der libysche Name, die Verwendung und das Verbreitungsmuster in Libyen angegeben. Ein reichhaltiges Keimplasma mit 49 Arten wurde gesammelt und eine Bestandsaufnahme dieser pflanzengenetischen Ressourcen, die für Züchtungsprogramme wertvoll sind, präsentiert. Die Checkliste bietet ein nützliches Instrument für die weitere Erforschung pflanzengenetischer Ressourcen in Libyen.;-;-;-;https://link.springer.com/article/10.1007/BF02034826 f7bf179a83db0b779acce50c52d920c7;de;;;3.1.;;;Folgen der Tschernobyl-Katastrophe aus Sicht des Sicherheitskonzepts Der Beitrag befasst sich mit Unsicherheitsbeziehungen für Zeit- und Energiebetreiber, als Beispiel werden die Folgen der Katastrophe von Tschernobyl betrachtet. Der von Holevo entwickelte mathematische Ansatz wird analysiert, der es uns ermöglicht, die entsprechenden Observablen nicht selbstadjungierten Operatoren zuzuordnen und Unsicherheitsbeziehungen für nichtstandardisierte kanonische konjugierte Paare aufzustellen.;-;-;-;https://link.springer.com/article/10.1134/S0001434619110099 9f417a155fad545dbd0f920def55feb6;de;;;3.1.;;;Verbesserung des Algorithmus für künstliche Bienenvölker mit historischem Archiv In dieser Studie wird ein künstliches Bienenvolk mit historischem Archiv (HAABC) vorgeschlagen, um ABC zu helfen, aus der Stagnationssituation zu entkommen. Das vorgeschlagene Framework verfolgt den Suchverlauf und speichert hervorragende erfolgreiche Lösungen in einem Archiv. Sobald eine Stagnation in der Scout-Bienen-Phase von ABC festgestellt wird, wird ein neues Individuum unter Verwendung des historischen Archivs generiert. Experimentelle Ergebnisse zu 28 Benchmark-Funktionen zeigen, dass das vorgeschlagene Framework die Leistung von grundlegendem ABC und fünf hochmodernen ABC-Algorithmen signifikant verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-3614-9_24 8b8f58356841b1b02190266f367ba96b;de;;;3.1.;;;Quantitative Berücksichtigung räumlich-zeitlicher Informationen zu Bildung und Kultur in Japan anhand von Telefonbucharchivdaten In dieser Studie wurde versucht, die räumlich-zeitliche Situation in Bezug auf den Wohlstand von Bildungs- und Kultureinrichtungen in Kommunen bundesweit quantitativ zu erfassen. Dazu wurden japanische Telefonbuchdaten aus dem digitalen Archiv mit Geoinformationen (Adresse und Branche) aller Einrichtungen/Institutionen in einem bestimmten Gebiet verwendet, um die Zeitreihenveränderungen zu analysieren und die neuesten Industrietrends zu erhalten. Beim Wachstum und Niedergang von Bildungs-, Kultur- und Wirtschaftsbereichen wurden vielfältige Muster beobachtet und ein detailliertes Verständnis der regionalen Besonderheiten, die zu zukünftigen Trends, dem Wachstum von Städten und zukünftigen Tourismusstrategien in Katastrophenzeiten führen, wurde erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37442-6_16 7c739dc60be33d0961c02a365eee8b18;de;;;3.1.;;;Klinische Ergebnisse mit dem robotergestützten ≫ Die Zahl der Operationen der Knietotalendoprothetik (TKA) pro Jahr nimmt zu. Dies liegt möglicherweise an der steigenden Lebenserwartung der älteren Bevölkerung und ihrem Anspruch an schmerzfreie Mobilität. Die hohe Lebenserwartung von Menschen mit Implantaten erfordert auch eine lange Haltbarkeit, die durch eine Verbesserung der Implantationstechniken erreicht werden soll.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-59290-4_50 3b8cb32acc570fefa1e4c4f56cdd27fc;de;;;3.1.;;;Analyse urbaner Resilienz anhand zeitlicher und räumlicher Archivinformationen vor und nach einer Katastrophe – Perspektive der SDGs In dieser Studie wurden Punktdaten aus einem Telefonbuch als geographische Informationen verwendet, die regelmäßig aktualisiert wurden, um Erkenntnisse über die Veränderungen der städtischen Industriestruktur vor und nach einer Katastrophe zu gewinnen. Aus diesen Daten wurde ein quantitativer Ansatz für regionale Trends in den betroffenen Gebieten vor und nach einer Katastrophe gewählt. Dazu gehören die Bevölkerung vor und nach einer Katastrophe und der Bedarf an psychischer Betreuung. Die Kommunalverwaltungen machen auch neue Stadtpläne für den Wiederaufbau, jedoch bleiben Fragen der Nachhaltigkeit. Dieses Papier betrachtet die Gesichtspunkte der Disaster Recovery Planning, der Nachhaltigkeit und der Resilienz der Städte unter Bezugnahme auf frühere Studien.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-37442-6_17 91dcabb8f7f4b18212f9fabe7ba8467c;de;;;3.1.;;;Leistungs- und Energieanalyse des nächtlichen Satellitenbildarchiv-Verarbeitungsmoduls Das Hauptziel dieser Arbeit ist es, das Verhalten eines Nacht-Bildverarbeitungsmoduls zu analysieren und grundlegende Abschätzungen der erforderlichen Rechenzeit und des Energieverbrauchs für die Verarbeitung großer Datenarchive zu ermitteln.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-99673-8_8 bbd906c7812730e38b0c2b99f064bfb1;de;;;3.1.;;;Risikobewertung für die schädlichen Auswirkungen von UVB-Strahlung auf die immunologische Resistenz gegenüber Infektionskrankheiten Die Risikobewertung umfasst vier Schritte: Gefahrenidentifizierung, Dosis-Wirkungs-Bewertung, Expositionsbewertung und Risikobeschreibung. Nach diesem Schema haben wir die Auswirkungen von UVB-Strahlung auf die basalen Immunfunktionen bei Ratten und Menschen sowie die immunologische Resistenz gegenüber Infektionskrankheiten bei Ratten analysiert. Um das Risiko für die Bevölkerung nach erhöhter UVB-Exposition abzuschätzen, wurden nicht-schwellenwerte mathematische Methoden verwendet. Diese Daten zeigen, dass UVB-Strahlung in Dosen, die für die Exposition im Freien relevant sind, die immunologische Resistenz gegenüber Infektionskrankheiten beim Menschen beeinträchtigen kann. Diese Studie kann auch eine Grundlage für eine Strategie zur Bewertung des Risikos von Nebenwirkungen einer Exposition gegenüber immuntoxischen Mitteln bilden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-61105-6_3 4ff636910a33962aae55aa72690d058f;de;;;3.1.;;;"Eine Anzeigemethode mit mehreren Auflösungen für digitale Archive von Kulturgütern mit Polygonrekonstruktion In diesem Beitrag schlagen wir eine Multi-Resolution-Darstellungsmethode für digitale Archive von Kulturgütern mit Polygonrekonstruktion vor. Wenn digitale Archive von Kulturgütern zu Forschungszwecken in VR-Systemen angezeigt werden, musste die Netzauflösung nach Bedarf des Benutzers veränderbar sein. Darüber hinaus muss die Polygonrekonstruktion aus Gründen der Benutzerfreundlichkeit in Echtzeit ausgeführt werden. Für das vorgeschlagene Verfahren wird die Historie vorläufiger Polygonreduktionen übernommen, so dass die Polygonrekonstruktion in Echtzeit ausgeführt wird. Um das VR-System unter Verwendung des auf Polygonrekonstruktion basierenden Multi-Resolution-Display-Verfahrens zu validieren, werden einige Experimente durchgeführt. Als Ergebnis der Experimente wird die vorgeschlagene Methode innerhalb von 1,0 Sekunden ausgeführt, was nach der Definition einer typischen Benutzeroberfläche als ""Echtzeit"" angesehen wird.";-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-34384-1_23 4cc5434d5e45d3a895616ce07fd0b185;de;;;3.1.;;;Anwendung der Laserdesorptions-Massenspektrometrie (LDMS) in der Kosmogeochemie: Direkte Analyse organischer Verbindungen in Meteoriten Organische Verbindungen in Meteoriten sind ein Schlüssel zum Verständnis abiotischer Synthesereaktionen, des kosmochemischen Kohlenstoffkreislaufs und der Rolle, die diese Prozesse bei der Biogenese spielen könnten. Obwohl vor über einem Jahrhundert festgestellt wurde, dass einige Meteoriten kohlenstoffhaltiges Material enthalten, das teilweise in Form von organischen Verbindungen vorlag, stellten ihre Analysen aufgrund der begrenzten verfügbaren Probenmenge und der möglichen Kontamination und chemischen Veränderung während der Probe eine extreme Herausforderung dar Lagerung und Verarbeitung. Im Allgemeinen erfordern konventionelle geochemische Ansätze mehrere Gramm Probe und ihre chemische Analyse ist mühsam und umfasst oft eine Reihe von Extraktions-, Reinigungs- und Identifizierungsschritten. Der Einsatz der Laserdesorptions-Massenspektrometrie (LDMS) ermöglicht die direkte Analyse eines Meteoriten, die aus mineralogischer Sicht zerstörungsfrei ist und nur Sub-Milligramm-Mengen an Meteoritenmaterial benötigt. LDMS beinhaltet die Desorption „intakter“ organischer Verbindungen, die ihre Identifizierung in einem Flugzeit-Massenspektrometer ermöglichen. In dieser Arbeit habe ich diese Methode in Verbindung mit einigen einfachen Extraktionsverfahren und chemischen Synthesen angewendet, um kohlenstoffhaltige Chondrite (Murchison und Allende) auf den Nachweis von polyzyklischen aromatischen Kohlenwasserstoffen (PAKs), kerogenähnlichem Material, Fullerenen (C;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4728-6_14 709395db7575f16aa4effe42ec17332c;de;;;3.1.;;;Ein zweiphasiger, externer archivgesteuerter evolutionärer Algorithmus mit mehreren Zielen für das Software-Nächste-Release-Problem Auf Zerlegung basierende evolutionäre Mehrzielalgorithmen wurden weit verbreitet beim Lösen der Mehrzieloptimierungsprobleme verwendet, indem ein MOP in mehrere Einzelziel-Teilprobleme zerlegt und diese gleichzeitig optimiert wurden. Dieses Papier schlägt einen adaptiven Mechanismus vor, um die Evolutionsstufen zu bestimmen und Rechenressourcen dynamisch zuzuweisen, indem die aus dem externen Archiv extrahierten Informationen verwendet werden. Anders als zuvor vorgeschlagene EAG-MOEA/D [;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-49014-3_59 f62e7ac678ef07c7daa5f1208ba024cb;de;;;3.1.;;;Selbstadaptive Differentialevolution mit mehreren Zielen mit teilendem Operator und elitärem Archiv Zur Lösung der Mehrzieloptimierungsprobleme wird ein multiobjektiver selbstadaptiver differentieller Evolutionsalgorithmus mit Divisionsoperator und elitärem Archiv vorgeschlagen. In jeder Generation wird die Population zufällig in zwei Teile geteilt und einer der Teile wird vom Teilungsoperator durchgeführt, was die Diversität der Population erhöht und verhindert, dass in das lokale Optimum fällt. Die numerischen Experimente werden in vier Gruppen durchgeführt: die erste Gruppe vergleicht den MSDEDE-Algorithmus mit fünf anderen Evolutionsalgorithmen, die zweite Gruppe vergleicht den MSDEDE-Algorithmus mit NSGA-II, SPEA2 und MOPSO, die Simulationsergebnisse zeigen die Wirksamkeit des vorgeschlagenen Algorithmus, die dritte Gruppe vergleicht es mit drei anderen DE-Algorithmen, die Ergebnisse zeigen die Wirksamkeit der vorgeschlagenen selbstadaptiven Methode, die vierte Gruppe vergleicht es mit der multiobjektiven selbstadaptiven differentiellen Evolution ohne den Divisionsoperator bei fünf Benchmark-Problemen, die Ergebnisse zeigen die Der vorgeschlagene Divisionsoperator kann die Konvergenzgeschwindigkeit verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31965-5_49 cc85ec009378b59dfe179bd3bb245333;de;;;3.1.;;;Teilweiser Abgleich von echten texturierten 3D-Objekten mit kubischen lokalen Autokorrelationsfunktionen höherer Ordnung In den letzten Jahren ist der Bedarf, reale 3D-Objekte abzurufen, stark gewachsen. Jedoch müssen verschiedene wichtige Überlegungen berücksichtigt werden, um das reale 3D-Objektabrufproblem zu lösen. Dreidimensionale Modelle, die ohne den Einsatz spezieller Geräte, wie z. B. technische Umgebungen oder Mehrkamerasysteme, erhalten wurden, sind oft unvollständig. Daher ist die Fähigkeit, eine partielle Übereinstimmung durchzuführen, wesentlich. Darüber hinaus muss die für den Anpassungsprozess erforderliche Zeit relativ kurz sein, da die Operation wiederholt durchgeführt werden muss, um mit der dynamischen Natur der alltäglichen menschlichen Umgebungen umzugehen. Darüber hinaus enthalten reale Modelle oft reichhaltige Texturinformationen, die die begrenzten Forminformationen kompensieren können. Daher müssen die Deskriptoren der 3D-Modelle sowohl Form- als auch Texturmuster berücksichtigen. In diesem Papier stellen wir neue 3D-Formfunktionen vor, die die Textur des Objekts berücksichtigen. Die additive Eigenschaft dieser Funktionen ermöglicht einen effizienten partiellen Abgleich zwischen Abfragedaten und 3D-Modellen in einer Datenbank. In den Experimenten vergleichen wir diese Merkmale mit herkömmlichen Merkmalen, nämlich Spin-Image-, Textured Spin-Image- und CHLAC-Features unter Verwendung eines Datensatzes realer texturierter Objekte. Darüber hinaus demonstrieren wir die Abrufleistung dieser Funktionen in einer echten 3D-Farbszene.;-;-;-;https://link.springer.com/article/10.1007/s00371-010-0521-3 059aa961bfa05998fde16dda49459c40;de;;;3.1.;;;Der Galaktische Kern bei Millimeter-, Submillimeter- und Ferninfrarot-Wellenlängen Dieser Aufsatz diskutiert die Auswirkungen neuerer Messungen im Wellenlängenbereich von 10 µm bis 1 cm auf unser Wissen über den Kern unserer Galaxie (die zentralen paar hundert Parsec). Der Schwerpunkt liegt auf der Bestimmung von Energetik, physikalischen Bedingungen und Dynamik im Kern durch spektroskopische Beobachtungen interstellarer Materie. Einem kurzen Überblick über die Phänomene im Galaxienkern (1) folgt eine Diskussion der grundlegenden Interpretation der Linienstrahlung (2). Als Beispiele folgen Diskussionen über Beobachtungen interstellarer Wolken im Maßstab von mehreren hundert Parsec (3), der Riesenwolken- und Sternentstehungsregion Sgr B2 (4) und des galaktischen Zentrums (Sgr A) selbst (5).;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-3019-3_8 b44a70320545a9aeeaef21f1cead6c70;de;;;3.1.;;;Akustische Modelle der Klangerzeugung und -ausbreitung Akustische Modelle auf der Grundlage von Physik und Mathematik können erhebliche Fortschritte im Verständnis der Schallerzeugung, -ausbreitung und -interaktion im Zusammenhang mit Walen und Delfinen bringen. Modelle können verwendet werden, um die Grenzen der Intensität und Häufigkeit abzuschätzen, die aufgrund der Anatomie einer Art physikalisch möglich sind. Modelle können uns auch sagen, welche anatomischen Strukturen notwendig wären, um einen Klang mit bestimmten Eigenschaften zu erzeugen. Anhand von Modellen lässt sich verdeutlichen, welche Art von Messungen durchgeführt werden sollten, um bestimmte Fragen zu beantworten. Viele Bereiche der Bioakustik profitieren von der Simulation der Schallausbreitung durch biologisches Gewebe und die sie umgebenden Medien. Die genaue Modellierung biologischer Objekte mit komplexen anatomischen Merkmalen ist jedoch äußerst schwierig, und es gibt nur wenige moderne Studien zur Schallerzeugung und -ausbreitung bei Walen und Delfinen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-1150-1_10 d33ca5320cfd5bca5295b9bbcd30c7ed;de;;;3.1.;;;Ein Autofokus-Algorithmus zur Abbildung von Objekten unter einer verlustbehafteten Erde aus Multifrequenz- und Multimonostatischen Daten Das Problem der autofokussierenden Abbildung von dielektrischen 2D-Objekten, die in eine verlustbehaftete Erde eingebettet sind, wird betrachtet. Unter Born-Approximation wird die Greensche Funktion des Halbraumspektrums verwendet, um den Halbraum-Abbildungsalgorithmus aus Multifrequenz- und Multimonostatischen Daten zu formulieren. Daher kann die schnelle Fourier-Transformation verwendet werden, um eine Echtzeit-Bildgebung in einer sehr kurzen Rechenzeit zu erreichen. Da der vorgeschlagene Algorithmus die zeitaufwendige Regularisierung einer groß angelegten schlecht gestellten Matrix vermieden hat, kann die Rechenzeit stark reduziert werden. Inspiriert vom Prinzip der zeitumgekehrten Bildgebung und dem Kriterium der minimalen Entropie wird ein autofokussierender Bildgebungsalgorithmus vorgestellt, um die durch den geschätzten Fehler der unbekannten dielektrischen Parameter der Erde verursachte Bildverschlechterung zu beseitigen. Numerische Ergebnisse haben gezeigt, dass der vorgeschlagene Algorithmus trotz der ungenauen Schätzung der erdelektrischen Parameter in kurzer Rechenzeit fokussierte Bilder sowohl für Ziele mit niedrigem als auch mit hohem Kontrast liefern kann. Der vorgeschlagene Algorithmus kann natürlich auf den dreidimensionalen Fall erweitert werden.;-;-;-;https://link.springer.com/article/10.1007/s11432-010-4046-1 690d669835dcba9a120ec1069968fe36;de;;;3.1.;;;Bibliographische und wissenschaftliche Überlegungen zu revidierten Geschichtsdissertationen [RDs] Herausgegeben von University Presss Dissertationen sind ein wesentliches Merkmal des Promotionsstudiums und münden in einen Beitrag zum Wissen in den wissenschaftlichen Disziplinen. Repräsentativ für aufkommende methodische Ansätze und Einblicke in aktuelle Trends und Denkrichtungen in den Geistes- und Sozialwissenschaften können sie die Grundlage für weitere Forschungen, Verfeinerungen und ein überarbeitetes Manuskript zur Veröffentlichung als Buch/Monographie werden. Für akademische Historiker werden Dissertationen, wenn sie überarbeitet werden, zu ihrem ersten großen wissenschaftlichen Beitrag. Universitätspressebücher in Geschichte, die aus überarbeiteten Dissertationen [RDs] für die Jahre 1998–2013 stammen, wurden aufgrund ihrer intellektuellen und bibliographischen Merkmale ausgewählt, insbesondere aufgrund ihrer disziplinären oder inter-/multidisziplinären Ausrichtung. Unter den Ergebnissen ist die interdisziplinäre Forschung prominent, eurozentrisch und auf Nordamerika ausgerichtet. Die durchschnittliche Seitenzahl pro Buch beträgt 200–299 und der Durchschnittspreis liegt bei 66,80 USD. Druckmaschinen sind spezialisiert und kompensieren die Dominanz von Cambridge und Oxford in der gesamten Geschichtsveröffentlichung. Darüber hinaus bilden [RDs], die in Gebiets- und Fachstudien erscheinen, einen starken Schwerpunkt.;-;-;-;https://link.springer.com/article/10.1007/s12109-017-9561-0 7025e74ffba598d13d04a041243ba6a7;de;;;3.1.;;;Sédimentologie und Paléontologie des Paléoenvironnements côtiers rupéliens de la Molasse marine rhénane dans le Jura suisse Analyse der marinen Einflüsse des Rheinischen Meeres im distalen Teil des Schweizer Molassebeckens (Jura Molasse) während des frühen Oligozäns, um die paläoökologische und paläogeographische Entwicklung zu rekonstruieren.;-;-;-;https://link.springer.com/article/10.1007/s00015-008-1275-z 6ba052dc230ef12d54f8ecce71c80be9;de;;;3.1.;;;GPRS-basierter eingebetteter drahtloser physiologischer Monitor für Telemedizinanwendungen Die rasante Entwicklung von Informationstechnologien und mobiler Kommunikation hat Forscher dazu verleitet, auf drahtlose Kommunikation basierende telemedizinische Anwendungen zu erforschen. Die drahtlosen Technologien wie GSM, GPRS, UMTS und 3G eröffnen viele Perspektiven für radikale Veränderungen in der telemedizinischen Versorgung zu Hause und in der Gemeinschaft. Dieser Beitrag präsentiert unsere Arbeit bei der Entwicklung eines GPRS-basierten mobilen Tele-Homecare-Systems, insbesondere unsere Entwicklung eines drahtlosen Mehrkanal-Monitors für physiologische Daten für telemedizinische Anwendungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21411-0_81 eba668e7df77be1aa72eab6048c8138c;de;;;3.1.;;;Die Synergie zwischen PAV und AdaBoost Die verbesserte Version von AdaBoost von Schapire und Singer zum Umgang mit schwachen Hypothesen mit konfidenzbewerteten Vorhersagen stellt einen wichtigen Fortschritt in Theorie und Praxis des Boostens dar. Ihr Erfolg resultiert aus einer effizienteren Nutzung von Informationen in schwachen Hypothesen während der Aktualisierung. Anstelle einer einfachen binären Abstimmung darf eine schwache Hypothese für oder gegen eine Klassifikation mit variabler Stärke oder Konfidenz stimmen. Der Pool Adjacent Violators (PAV)-Algorithmus ist eine Methode zum Umwandeln einer Punktzahl in eine Wahrscheinlichkeit. Wir zeigen, wie PAV auf eine schwache Hypothese angewendet werden kann, um eine neue schwache Hypothese zu erhalten, die in gewisser Weise eine ideale Vorhersage mit Vertrauensbewertung ist und dass dies zu einer optimalen Aktualisierung für AdaBoost führt. Das Ergebnis ist ein neuer Algorithmus, den wir PAV-AdaBoost nennen. Wir geben mehrere Beispiele, die Probleme veranschaulichen, bei denen dieser neue Algorithmus Leistungsvorteile bietet.;-;-;-;https://link.springer.com/article/10.1007/s10994-005-1123-6 36b7e387b5a62c7659fc09bab3459efb;de;;;3.1.;;;Aufklärung des erwachsenen Benutzers: Geschlechterfragen Bibliotheken haben mit Begeisterung auf die technologischen Entwicklungen bei Dokumentenspeicher- und Kommunikationssystemen reagiert und die Vorteile ihres Einsatzes im Informationsbereich schnell erkannt. Von Computersystemen bereitgestellte Ressourcen sind jedoch für den Bibliotheksbenutzer auf den ersten Blick praktisch unsichtbar, es sei denn, es werden Maßnahmen ergriffen, um dies zu vermeiden. Das technologische Wachstum in Bibliotheken ist unvermeidlich, aber Bibliothekare müssen innehalten und die breiteren Auswirkungen der neuen Technologie auf die Benutzer untersuchen. Dies ist besonders wichtig in multidisziplinären Bibliotheken, die eine Sammlung von Fachleuten und Studenten bedienen, in denen wir die Leser nicht als homogene Gruppe betrachten können. In diesem Beitrag wird vorgeschlagen, zwei wichtige Merkmale einer bestimmten Berufsgruppe, nämlich Pflegepersonal und Studierende, zu untersuchen und basierend auf diesen Merkmalen Strategien für Benutzerschulungsprogramme vorzuschlagen, die die neuen Technologien nutzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-1668-8_29 f453b2cd6a9c4977d013dcd63bfad1e8;de;;;3.1.;;;Abschnitt: Verfassungsdokumente der deutschen Einzelstaaten (1806 – 1918) : Sammlung der landesherrlichen Edicte und anderer Verordnungen, welchen vom 1. Juli 1816 an, im ganzen Umfange des Herzogthums Nassau Gesetzeskraft beigelegt worden ist, (X. Geistliche Verwaltung, und öffentlicher Unterricht) 1812, S. 137 – 139 (gedruckt).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-62952-9_2 63842da2e39a77162f2333d4dd041049;de;;;3.1.;;;Typsichere Funktionen und Aufgaben in einem flachen eingebetteten DSL für Mikroprozessoren Das Internet der Dinge, IoT, bringt uns große Mengen vernetzter Computergeräte, die mit dedizierten Sensoren und Aktoren ausgestattet sind. Diese Rechenvorrichtungen werden typischerweise von einem billigen Mikroprozessorsystem mit einem relativ langsamen Prozessor und einer sehr begrenzten Speichermenge angetrieben. Aufgrund der besonderen Eingabe-Ausgabe-Fähigkeiten von IoT-Geräten und deren Verbindungen ist es sehr attraktiv, Programme (Teile von) auf diesen Mikrocomputern auszuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-28346-9_8 7bd34e1eb3a3730c34a0970d8cb8f532;de;;;3.1.;;;Millimeter- und Submillimeterstudien der interstellaren Hochtemperaturchemie Beobachtungsstudien der interstellaren Hochtemperaturchemie wurden bei Wellenlängen von mm/sub-mm durchgeführt. Eine Vermessung des J=2-1-Übergangs von SiO in warmen und kalten Wolken wurde am FCRAO 14-m-Teleskop mit Folgebeobachtungen am LRAM 30 m durchgeführt. SiO wurde in keinen kalten Wolken nachgewiesen, wurde aber in allen Regionen mit T . beobachtet;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-6850-0_41 98cdc8ffaef377ffca09b662285b2ab2;de;;;3.1.;;;Robuste Optimierung durch multi-objektive Partikelschwarmoptimierung Dieser Artikel schlägt einen Algorithmus vor, um nach Lösungen zu suchen, die gegenüber kleinen Störungen in Designvariablen robust sind. Der vorgeschlagene Algorithmus formuliert robuste Optimierung als biobjektives Optimierungsproblem und findet Lösungen durch multiobjektive Partikelschwarmoptimierung (MOPSO). Experimentelle Ergebnisse haben gezeigt, dass MOPSO eine bessere Leistung beim Finden mehrerer robuster Lösungen aufweist als eine frühere Methode, die einen genetischen Algorithmus mit mehreren Zielen verwendet.;-;-;-;https://link.springer.com/article/10.1007/s10015-009-0647-4 71bc6bd7188b47f573530afcbdb31281;de;;;3.1.;;;Exploration und Reflexion zum Aufbau eines Verwaltungssystems für Universitätsarchive vor dem Hintergrund der Informationstechnologie Die Archivverwaltung an Hochschulen und Universitäten ist eng mit dem normalen Betrieb von Hochschulen und Universitäten verbunden, einschließlich vieler wichtiger Funktionen. Darüber hinaus umfasst der Weg der Universitätsarchive viele Aspekte wie Lehre, Logistikmanagement, wissenschaftliche Forschung und so weiter. Generell sind die Managementdaten von Hochschulen und Universitäten groß und kompliziert und die Arbeitskomplexität relativ hoch. Mit der kontinuierlichen Entwicklung der Informationstechnologie ist der Informatisierungsaufbau der Hochschularchivverwaltung ein unvermeidlicher Trend, der die umfassende Effizienz der Hochschularchivverwaltung maximieren kann. Auf dieser Grundlage ist der Aufbau eines universitären Archivverwaltungssystems zu einem wichtigen Bestandteil der Informationskonstruktion geworden. Der Zweck dieses Papiers besteht darin, die Effizienz des Managements durch die eingehende Untersuchung des Managements von Universitätsarchiven zu verbessern, um ein informationsgestütztes Managementsystem für Universitätsarchive aufzubauen. Dieser Beitrag analysiert zunächst die wesentlichen Probleme der Archivverwaltung von Hochschulen und Universitäten vor dem Hintergrund der Informatisierung und stellt dann das konkrete Konstruktionsschema des Archivverwaltungssystems vor. Schließlich testet es die Wissenschaftlichkeit und Machbarkeit des Systems mittels eines Clustering-Analysealgorithmus. Die Experimente in diesem Beitrag zeigen, dass die Etablierung des universitären Archivverwaltungssystems vor dem Hintergrund von Informationen die Effizienz der Archivverwaltung erheblich verbessert und die Verwaltungsarbeit erleichtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-51431-0_46 a4c7b3438ab900c9a1209d02f051f98b;de;;;3.1.;;;Infrarotspektren und Staubtemperaturschwankungen Es wird ein Modell der Staubemission erstellt, das Graphit, Silikatkörner und die kürzlich entdeckten PAK-Moleküle enthält. Die resultierenden Infrarotspektren werden mit IRAS-Beobachtungen verglichen. Ekely scheint eine Lücke in der Größenverteilung zwischen Graphitkörnern und PAH-Molekülen zu bestehen. Darüber hinaus kann dieses Modell die in unserer Galaxy beobachtete Antikorrelation im Farb-Farb-Diagramm F(12μ)/F(25p) vs. F(60μ)/F(100μ) erklären.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-4672-9_46 3819cea535e6dc024340fc7fef0d72de;de;;;3.1.;;;Sprachübergreifende Übertragung des Patentqualitätsbewertungsmodells basierend auf Active Learning Data Extension Gegenwärtig hat sich China zu einem bedeutenden Patentproduktionsland entwickelt, und die Zahl der Patentanmeldungen steht seit vielen Jahren weltweit an erster Stelle. Da die Zahl der Patente zugenommen hat, hat die Qualität der Patente begonnen, die Aufmerksamkeit der Menschen auf sich zu ziehen. Derzeit gibt es keine klare Bewertungsmethode für chinesische Patente. Die manuelle Bewertung von Patenten erfordert eine große Anzahl relevanter Experten, die Patente in verschiedenen Bereichen recherchieren und vergleichen, was zeit- und arbeitsintensiv ist. In der vorherigen Studie konstruierte der Autor ein englisches Patentqualitätsbewertungsmodell PQE-MT unter Verwendung von US-Patenten, die die Patentstärke repräsentieren. Dieses Papier führt dieses Modell durch Transferlernen und aktives Lernen in chinesische Patente ein, wodurch der Arbeitsaufwand für die manuelle Etikettierung reduziert wird. Die Auswertungsergebnisse zeigen, dass die Methode im Experiment einen guten Migrationseffekt erzielt hat, wobei Micro-F1 74% erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-77428-8_10 b445da74e9d168374e9a62469e05f65c;de;;;3.1.;;;Eine kostengünstige tragbare Gesundheitsplattform zur Überwachung menschlicher physiologischer Signale Diese Arbeit berichtet über die Integration und vorläufige Erprobung einer kleinen kommerziellen Gesundheitsplattform, die auf der Kombination einer Reihe von Plattformen basiert, die in Hardware und Software zusammengeführt werden können, um viele physiologische Parameter des menschlichen Körpers zu messen und zu überwachen. Das System ist sehr portabel, hat einen klaren wirtschaftlichen Vorteil in Bezug auf die Kosten und wurde gut in eine angepasste und intuitive grafische Benutzeroberfläche integriert. Ausführlich über die Materialien, die für die Vorbereitung dieser Plattform verwendet wurden, und die Methoden zur Datenerhebung werden berichtet. Vorläufige Daten wurden gesammelt und gemeldet. Erläuterungen zu den Daten in Bezug auf das Verhalten und die Leistung der Sensoren werden angezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-02242-6_16 6ad2af7c83d10ec7a53b6e4e1a77b80e;de;;;3.1.;;;Hochauflösende Mondfotografie Die jüngsten Verbesserungen in der Auflösung der erdbasierten Mondfotografie werden diskutiert. Es werden Verfahren zur Bewertung der Fotografie und ihres Beitrags zum Mondkartierungsprogramm beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-3529-3_34 a73047ac464e6740724e2382988cb8ea;de;;;3.1.;;;Zugang und Nutzung moderner Informationen durch Tierärzte Viele niederländische Tierärzte verwenden Computer für die Verwaltung ihrer täglichen Praxis. Die ersten Management-Computerprogramme (in den 80er Jahren) waren der Patienten- und Finanzverwaltung gewidmet. Zu dieser Zeit nutzten die Praktiker hauptsächlich mehr oder weniger traditionelle Methoden, um sich über wissenschaftliche Entwicklungen auf dem Laufenden zu halten: eine persönliche Bibliothek mit Zeitschriften und (Hand-)Büchern, Organisation von Zeitschriften-Umlaufsystemen, postakademische Kurse, Besuch von Tagungen;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4621-0_37 0d95f72f905ec8167e57348394440f62;de;;;3.1.;;;Wenn Sie nach Guangzhou kommen*: Pädagogische Implikationen typischer Fehler, die von Studenten mit chinesischem Hintergrund vom Festland begangen wurden, wie auf einer E-Learning-Plattform offenbart Dieser Artikel zielt darauf ab, die Unzulänglichkeit einer E-Learning-Plattform aufzudecken, indem er eine Reihe von Sprachfehlern untersucht, die bei einer Gruppe von Studienanfängern (den Teilnehmern) gefunden wurden, die an einer selbstfinanzierenden Hochschule in Hongkong studieren. Die Teilnehmer wurden ausgewählt, da sie einen gemeinsamen chinesischen Hintergrund vom Festland haben. Die metalinguistische Analyse der zusammengestellten Fehler zeigt, dass die Studierenden sowohl intersprachliche als auch intrasprachliche Fehler aufweisen, dh Schwierigkeiten haben, die Interferenzen aus L1 abzuschütteln sowie eine Reihe grammatikalischer Regeln zur Bildung syntaktisch legitimer Formationen nicht erwerben können Sätze in L2. Angesichts der dramatischen Zunahme von Studierenden mit einem solchen Hintergrund in den letzten Jahren im tertiären Bereich kann dieser Artikel dazu beitragen, Licht in die Zukunft zu bringen, wie die pädagogische Vorbereitung auf eine effektivere Lehre im Hinblick auf eine solche Plattform verbessert werden kann. Dieser Artikel plädiert dafür, dass er besser mit der Fähigkeit ausgestattet werden sollte, automatische Antworten für Schüler zu geben, damit sie sich selbst am Selbststudium beteiligen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-46158-7_17 957ee41b4fb9de8e311cd8d41317cbff;de;;;3.1.;;;Zur Verwendung des Wortsinnswandels für die Forschung in den Digital Humanities Mit Fortschritten in Technologie und Kultur verändert sich unsere Sprache. Wir erfinden neue Wörter, fügen bestehende Wörter hinzu oder ändern Bedeutungen und ändern Namen bestehender Dinge. Leider trägt unsere Sprache kein Gedächtnis, Wörter, Ausdrücke und Bedeutungen, die in der Vergangenheit verwendet wurden, werden mit der Zeit vergessen. Bei der Suche und Interpretation von Inhalten aus Archiven stellen Sprachänderungen eine große Herausforderung dar. In diesem Beitrag präsentieren wir Ergebnisse der automatischen Erkennung von Wortsinnänderungen und zeigen den Nutzen für Archivnutzer sowie die Forschung der Digital Humanities. Unsere Methode ist in der Lage, Veränderungen zu erfassen, die sich auf die Verwendung und Kultur eines Wortes beziehen, die in Wörterbüchern oder anderen Ressourcen nicht leicht gefunden werden können.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-67008-9_20 53f110a0d85b4c42f9aad279f815818b;de;;;3.1.;;;Unterricht des Endnutzers biomedizinischer Datenbanken: Erfahrung in einem Dokumentationsdienst Der Documentation Service (SDS) der wissenschaftlichen Bibliothek von San Matteo in Pavia bietet bereits seit einigen Jahren den Zugang zu internationalen Datenbanken zum Abruf biomedizinischer wissenschaftlicher Dokumentation. Zu diesem Zweck standen den Forschern seit jeher beratende Bibliothekare zur Verfügung. Die informatische Entwicklung der Site, der Aufbau und die Verbreitung des Intranets, die Implementierung von Client/Server-Diensten usw. haben die Zunahme der Zahl der Datenbanken mit Fernzugriff begünstigt. Um jedoch Endnutzer bei der bibliografischen Recherche autark zu machen und ihnen somit ein individuelles Zugangspasswort zu vergeben, empfanden wir einen Nachhilfekurs als empfehlenswert. Dieser Kurs sollte folgende Anforderungen haben: 1) klar und umfassend, 2) prägnant, 3) handlungsfähig, 4) Bereitstellung von Lehrmaterial. Von Januar 1996 bis Juni 1997 wurden 40 Unterrichtseinheiten mit 255 teilnehmenden Benutzern (6–7 Personen/Sitzung) durchgeführt. Im gleichen Zeitraum gab es 5247 Datenbankabfragesitzungen, 62 % wurden von für den Kurs qualifizierten Benutzern durchgeführt, während 38 % von den beratenden Bibliothekaren der Wissenschaftlichen Bibliothek durchgeführt wurden.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4621-0_54 4bdcbc3d67adc601524dd2462965138d;de;;;3.1.;;;Standortauswahl für die regelmäßige Aktualisierung der Funkkarte beim WLAN-Fingerabdruck Die Erstellung und Aktualisierung einer Funkkarte werden normalerweise als die Hauptnachteile des WiFi-Fingerprinting bezeichnet, einer sehr beliebten Methode in der Indoor-Lokalisierungsforschung. Für die Aktualisierung von Radiokarten schlagen einige Studien vor, neue Messungen an einigen zufälligen Orten vorzunehmen, normalerweise von denen, die bei der Erstellung von Radiokarten verwendet werden. In diesem Beitrag argumentieren wir, dass die Orte nicht zufällig sein sollten, und schlagen vor, wie man sie bestimmt. Angesichts der eingestellten Orte, an denen die Messungen, die für die anfängliche Funkkartenkonstruktion verwendet wurden, vorgenommen wurden, wird eine Teilmenge von Orten für die Aktualisierungsmessungen durch Optimierung ausgewählt, so dass die verbleibenden in den anfänglichen Messungen gefundenen Orte am besten durch Regression angenähert werden. Die Regressionsmethode ist Support Vector Regression (SVR) und die Optimierung wird unter Verwendung eines genetischen Algorithmus-Ansatzes erreicht. Wir testeten unseren Ansatz mit einer Datenbank mit WiFi-Messungen, die an relativ dichter Stelle an Standorten während zehn Monaten in einer Universitätsbibliothek gesammelt wurden. Die Versuchsergebnisse zeigen, dass, wenn kein dramatisches Ereignis eintritt (z. B. relevante WLAN-Netzwerke geändert werden), unser Ansatz andere Strategien zur Bestimmung der Sammelorte für regelmäßige Updates übertrifft. Wir präsentieren auch eine klare Anleitung zur Durchführung der Radiokarten-Updates.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-71470-7_1 e8b1d49380ea90ea2639e122bec345e5;de;;;3.1.;;;Chemische Prozesse in Sternentstehungsregionen In diesem Artikel werden die grundlegenden Konzepte der Gasphasen- und Kornoberflächenchemie dichter Molekülwolken untersucht, in denen Sterne mit geringer und hoher Masse entstehen. Die Chemie kalter prästellarer Wolkenkerne, in denen molekulares Freezeout und Deuteriumfraktionierung dominieren, wird vorgestellt. Im Anschluss an die Wolkenentwicklung nach der protostellaren Geburt werden dann die Chemie des heißen Kerns und des Schocks angesichts neuerer Beobachtungen diskutiert. Eine kurze Zusammenfassung der Chemie in protoplanetaren Scheiben wird ebenfalls gegeben. Ziel ist es, wichtige Gastracer in den verschiedenen Schritten des Sternentstehungsprozesses zu identifizieren und die noch offenen Hauptprobleme der Astrochemie aufzuzeigen.;-;-;-;https://link.springer.com/chapter/10.1007/0-387-26357-8_4 be312e58ac6e07b1696826cf65cc58f8;de;;;3.1.;;;Die Interaktion der Felder Wir hatten die Felder Albanologie, Politik, Militär und Austrophile ihrer wichtigsten Kollektive und individueller Akteure und deren wichtigsten Aktions- und Wirkbereiche ausführlich besprochen und dargestellt. Wir wissen jetzt Bescheid über die führenden Personen und Institutionen und zentrale Themen und Fragen eines jeden Feldes. Den aufmerksamen LeserInnen ist gewiss nicht entgangen, dass. an Vorgängen und Entwicklungen in einem bestimmten Feld Offensichtlich steht vor allem das Politische Feld, das Militärische Feld und das Austrophilen–Feld zueinander in einem komplementären Abhängigkeitsverhältnis, weshalb sie nicht unabhängig voneinander verstanden werden can. So bildeten z. B. die als kollektive Akteure im Politischen Feld angesiedelt Konsulate quasi die „Brücke“ zu den kollektiven und individuellen Akteuren im Austrophilen–Feld. Aber auch das Wissenschaftliche Feld der österreichisch-ungarischen Albanologie war bis zu einem gewissen Grad vom Politischen Feld und während des Ersten Weltkriegs auch vom Militärischen Feld abhängig.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-18911-2_6 930cdbbbd8182f801d7f04b0131bf497;de;;;3.1.;;;Belüftungsstörungen der Lunge Der intrapulmonale Gaswechsel ist das gemeinsame Ergebnis von Ventilation, Perfusion und Diffusion des Lungengewebes. Die enge Wechselwirkung der neuro-humoral geregelten Grundvorgänge der äuβeren Atmung bietet Störfaktoren funktionellen wie organischen Ursprungs komplexe Angriffsmöglichkeiten. Denn sterben Läsion eines der physiologischen Mechanismen verursacht auch sterben übrigen in Mitleidenschaft. Jede Affektion der Atemorgane im weiteren Sinne vermag sterben Lungenatmung zumindest partiell und vorübergehend zu verhindern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-95050-6_1 4b7dd1681f8132f46809ac6521adf74d;de;;;3.1.;;;Entdeckung der Wahrnehmung und Herangehensweise von Forschern und Professoren der Universität für Medizinische Wissenschaften in der voreingenommenen und unvoreingenommenen Veröffentlichung wissenschaftlicher Ergebnisse: Eine qualitative Studie Ziel dieser Studie ist es, die Herangehensweise der Forschenden an die Veröffentlichung von und Missverständnissen in Bezug auf wissenschaftliche Ergebnisse und Einflussfaktoren zu untersuchen. Die vorliegende Studie wurde 2017 mit explorativer qualitativer Forschungsmethode und semistrukturierten Interviews durchgeführt. Die Forschungsgemeinschaft bestand aus Fakultätsmitgliedern, Herausgebern von Zeitschriften, Jurys für Arbeiten und Dissertationen, Forschern und Doktoranden der Universität für Medizinische Wissenschaften in Tabriz. Die Stichprobengröße der Forschung wurde zunächst durch gezielte Stichproben und dann mit der Schneeballmethode ausgewählt. Zur Auswertung der Ergebnisse wurde die Software MAXQDA v10 verwendet. In Bezug auf den Ansatz der Forscher wurden insgesamt 5 Themen identifiziert. Das langwierige Verfahren der Schlichtung von Zeitschriften und die Verpflichtung einer Universität, einen bestimmten wissenschaftlichen Output zu veröffentlichen, führt zu unangemessenen Ansätzen zur Verbreitung wissenschaftlicher Outputs. Es scheint, dass die quantitativen Ansichten über die Arbeit von Forschern und die Entwicklung der Wissenschaftsethik überprüft werden, wobei der Schwerpunkt auf der Einhaltung der Kriterien des Schreibens, der Qualität und der Aufklärung von wissenschaftlichem Fehlverhalten in Form von geeigneten Schulungs- und Supervisionskursen liegt.;-;-;-;https://link.springer.com/article/10.1007/s12109-019-09655-7 0d796f4841042c9086b210ac1a64295c;de;;;3.1.;;;Wolf-Rayet-Sterne, Binärdateien, Schwarze Löcher Wir überprüfen die Literatur der letzten zwei Jahrzehnte über die mögliche Entwicklung von der Wolf-Rayet-Phase des massereichen Sterns zur Schwarzen-Loch-Phase und über die Massen von WR-Sternen, die in Doppelsternsystemen beobachtet werden. Eine Liste von 55 WR-Binärdateien wird angezeigt. Die 19 WR-Binärdateien mit RV-Lösungen haben WN-Sternmassen im Bereich von 2-55 M;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0938-6_13 a41e430692ea5ab2e7e3db3b5ac5c18a;de;;;3.1.;;;Einreichen unserer App Sie haben Ihre iPhone-App erstellt und sind bereit, live zu gehen! Also ähm … wie macht man das genau? So geht's mit iTunes Connect. iTunes Connect ist ein webbasiertes Tool, das Apple iOS- und Mac-Entwicklern zur Verfügung stellt, um ihre Apps über den App Store einzureichen und zu verteilen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-4375-5_14 935055661b59323ced9e97ae35f83179;de;;;3.1.;;;Moderne radiometrische Satelliten-MCW-Mittel zur Analyse von Ozean-Atmosphäre-Interaktionen Einige Einsatzmöglichkeiten des Moduls der Fernerkundung der Atmosphärentemperatur und -feuchtigkeit (MTVZA) der russischen meteorologischen Satelliten METEOR-3M, METEOR M, US DMSP SSM/I und des Earth Observing System (EOS) Aqua AMSR-E Radiometers andere MCW-radiometrische Mittel in Studien der Ozean-Atmosphäre-Wärme und der dynamischen Wechselwirkung werden berücksichtigt. Gegenwärtig hat die Verbesserung der Technologien der Herstellung von Satelliten-MCW-Radiometern zu einer Erhöhung der aktiven Zeit auf 14 Jahre geführt. Angesammelte Archive von Satelliten-MCW-radiometrischen Daten ermöglichen es uns, die klimatischen Untersuchungen der Ozean-Atmosphäre-Wärme-Wechselwirkung in den Zeiträumen von 35 Jahren durchzuführen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-21647-8_11 17850cc227d82106c95ad44f9dc15203;de;;;3.1.;;;Vergleichssysteme Seit ihrer Einführung in den frühen sechziger Jahren wurden Hunderte von Artikeln über Laborsysteme geschrieben. Dr. A. E. Rappaport verfügt über eine schöne Sammlung bibliographischer Zitate, die als Referenz verwendet werden können [35]. J. Lloyd Johnson hat das Gebiet der Laborcomputer seit 1971 untersucht und die Entwicklung kommerzieller Systeme und deren Leistungsfähigkeit verfolgt [36].;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-1422-7_28 90a8582beb46e2280cfb5a27ab30ac38;de;;;3.1.;;;Ein neuer Kollisionsangriff mit 1-Bit-Differenz auf HAVAL-128 In diesem Papier geben wir einen neuen schnellen Angriff auf HAVAL-128. Unser Angriff umfasst viele gegenwärtige Methoden zur Konstruktion von Hash-Kollisionen. Außerdem stellen wir eine Nachbarschaftsmodifikation vor. Wir schlagen einen neuen Differenzpfad vor, der sich von den vorherigen unterscheidet. Die Schlussfolgerung ist, dass, wenn die Ausgabe jedes Schritts unsere Bedingung erfüllt, die Nachricht;-;-;-;https://link.springer.com/article/10.1007/s11432-012-4619-2 f7bc1dc28a31b7a4452b9a835149b496;de;;;3.1.;;;Differentielle Lektin-vermittelte Agglutinierungsfähigkeiten der embryonalen und der ersten extraembryonalen Zelllinie des frühen Hühnerembryos Die Lektin-vermittelte Agglutinierbarkeit von Zellen, die von verschiedenen Bereichen des Gastrulations-Hühnerembryos dissoziiert wurden, wurde untersucht. Unterschiede in der Agglutinierbarkeit wurden unter Verwendung eines Coulter-Zählers quantifiziert. Zellen aus der Area pellucida (AP) und solche aus dem Endoderm der Area opaca (AOEn) werden durch Concanavalin A (Con A), Weizenkeimagglutinin (WGA) und . agglutiniert;-;-;-;https://link.springer.com/article/10.1007/BF00848410 a7781cda6f82a6436d0ffb7ac11efe54;de;;;3.1.;;;Die festen Zentren der italo-byzantinischen Schule Die italo-byzantinische Schule stellt ihr Wesen nach einer untergeordneten Abzweigung und einer provinzielle Fortsetzung der ducentistischen Maniera greca dar. Ihr Aufkommen in den verschiedenen Kunstzentren Italiens ist somit durch die ihr vorhergehende Maniera greca bedingt. „Lokale Werkstätten dieser Zentren bleiben, auch nach dem persönlichen und freien Kunstschaffen der Renaissance aus ihnen hervorgegangen, in enger Beziehung zum orthodoxen Osten und werden zur Grundlage der griechisch-italienischen oder der italo-kretischen und spätgriechischen Ikonenmalerei.“ (;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-7586-7_8 c3423508ab57500bfdf8bdd3bb46c98f;de;;;3.1.;;;Wirkung von Atropin und Oxotremorin auf die Freisetzung von Acetylcholin aus dem Rückenmark des Frosches Das In-vitro-Frosch-Rückenmark wurde verwendet, um die Freisetzung von Acetylcholin (ACh) und das Spinalwurzelpotential zu untersuchen. Das in einem eserinhaltigen Medium gebadete Präparat setzte spontan ACh in die Badeflüssigkeit frei. Diese Freisetzung wurde durch Atropin dosisabhängig und langanhaltend und vorübergehend durch Oxotremorin verstärkt. Die Freisetzungsrate von ACh wurde durch niederfrequente ventrale Wurzelstimulation erhöht, wobei dieser Anstieg nach Anwendung von Atropin proportional gleich war. Oxotremorin veränderte die elektrisch evozierte ACh-Freisetzung nicht, blockierte oder reduzierte jedoch die Wirkung von Atropin. Daraus wird geschlossen, dass die stimulierende Wirkung von Atropin auf die ACh-Ausschüttung nicht vollständig durch eine Wechselwirkung von Atropin mit präsynaptischen cholinergen Rezeptoren erklärt werden kann und dass andere indirekte Mechanismen (über Interneurone) bei dieser Wirkung eine Rolle spielen können.;-;-;-;https://link.springer.com/article/10.1007/BF00509778 21327d6538afa46d3f763bd97211396c;de;;;3.1.;;;Inhalationspharmakokinetik basierend auf Gasaufnahmestudien Die Inhalationspharmakokinetik von Aceton bei Ratten wurde unter Verwendung von Gasaufnahmetechniken untersucht. Bei vernachlässigbarem Metabolismus (Sättigung metabolisierender Enzyme) ist der Verteilungskoeffizient;-;-;-;https://link.springer.com/article/10.1007/BF00332395 cb832e537ffd366687fc532acf0604cc;de;;;3.1.;;;Entwicklung der Titan- und Sauerstoffhäufigkeit aus Beobachtungen von FGK-Zwergen in einem breiten Metallizitätsbereich Für eine Probe sonnennaher Zwergsterne mit bekannten atmosphärischen Parametern und einer Eisenhäufigkeit im Bereich −2,6 < [Fe/H] < 0,2 haben wir die Titan- und Sauerstoffhäufigkeit unter Berücksichtigung der Abweichungen von LTE bestimmt . Die Abhängigkeit der [O/Fe]- und [Ti/Fe]-Häufigkeitsverhältnisse von [Fe/H] wurde im Vergleich zu den veröffentlichten Daten verfeinert. Wir haben festgestellt, dass [O/Fe] von –0,2 auf 0,6 steigt, wenn die Metallizität [Fe/H] von 0,2 auf –0,8 abnimmt und bei niedrigerer Metallizität konstant bleibt. Ein ähnliches Verhalten wurde für [Ti/Fe] gefunden, aber das Plateau wird von Sternen mit [Fe/H] > −0,7 gebildet, und der Titanüberschuss relativ zu Eisen beträgt 0,3. Die Ergebnisse bestätigen, dass im α-Prozess neben Sauerstoff auch Titan synthetisiert wird. Unsere Daten können verwendet werden, um die galaktischen chemischen Evolutionsmodelle zu testen.;-;-;-;https://link.springer.com/article/10.1134/S1063773716100078 9fdd87c72e8241b797cfff28b96e20e7;de;;;3.1.;;;Gibt es Beweise für eine Wirkung von Antidepressiva auf die Immunfunktion? Depression ist eine komplexe Erkrankung, an der wahrscheinlich mehrere pathophysiologische Wege beteiligt sind. Es gibt eindeutige Hinweise darauf, dass Depression mit neurochemischen und neuroendokrinen Veränderungen verbunden ist. Eine verminderte Aktivität des serotoninergen (5-HT) und noradrenergen (NA) zentralen Systems wird bei der Mehrzahl der Patienten mit Major Depression beobachtet (Garver & Davis, 1979). Depressive Patienten weisen in der Regel auch eine Veränderung der Hypothalamus-Hypophysen-Nebennieren-(HPA)-Achsenaktivität auf, die durch eine Überproduktion von Corticotropin-Releasing-Hormon (CRH) gekennzeichnet ist, das die Adrenocorticotropin-Hormon- (ACTH) und die Cortisol-Freisetzung stimuliert (Holsboer, Bardeleben, Gerken, Stalla , & Müller, 1984). Daher wurde die biochemische Aktivität der meisten Antidepressiva, einschließlich selektiver 5-HT-Wiederaufnahmehemmer, Monoaminoxidase-Hemmer und trizyklischer Antidepressiva, auf der Grundlage ihrer Fähigkeit bewertet, die Veränderungen der Monoamin- und/oder HPA-Achsen-Aktivitäten umzukehren (Hollister, 1986 ). Die metabolische Aktivität dieser Medikamente steht jedoch nicht unbedingt in direktem Zusammenhang mit ihrer klinischen Wirksamkeit (Barden, Reul & Holsboer, 1995, Blier & de Montigny, 1994). Trotz wiederholter Versuche konnte weder gezeigt werden, dass die bei Depressionen beobachteten neurohormonellen Anomalien das therapeutische Ansprechen vorhersagen, noch können sie das symptomatische Profil der Patienten erklären. Darüber hinaus induziert ein Mangel an 5-HT oder NA bei gesunden Personen keine klinisch signifikante depressive Symptomatik (Young, Smith, Pihl & Erwin, 1985). Darüber hinaus gibt es auch einige atypische Antidepressiva mit bekannten experimentellen und klinischen therapeutischen Wirkungen, jedoch ohne die klassischen antidepressiven Wirkungen auf die zentrale Monoaminaktivität (Guelfi, 1992, Van Riezen & Leonard, 1990).;-;-;-;https://link.springer.com/chapter/10.1007/978-0-585-37970-8_15 de5b94caa4daa72652b5bb5e86280588;de;;;3.1.;;;Elektroakupunktur als Methode der Wahl im HNO-Fach Die Elektroakupunktur wurde vom Autor an die praktischen Anforderungen der HNO-Ärzte angepasst. An mehreren empirisch ausgewählten Akupunkturpunkten werden automatisch gesteuerte positive oder negative Halbwellen angelegt, wodurch Gold- oder Silbernadeln effektiv ersetzt werden. Die Applikation führt zu einer erheblichen Veränderung der lokalen elektrischen Potentiale und in der Folge zu entzündungshemmenden, analgetischen und ödemresorbierenden Prozessen. Andererseits birgt die Ausnutzung bestimmter Akupunkturpunkte eine Vielzahl von Möglichkeiten der Organtherapie.;-;-;-;https://link.springer.com/article/10.1007/BF00459013 02343da4d5bbc50a119045eb08e2cbd1;de;;;3.1.;;;Écriture, institution et société le travail littéraire dans la Compagnie de Jésus en France (1620-1720) Depuis quelques années, un renouveau historiographique s’est amorcé dans le champ des recherches sur l’ancienne Compagnie de Jésus autour de la production des savoirs. Dans cet article, on s’est attaché à saisir la place, les modalités et les enjeux d’une reconnaissance des pratiques littéraires jésuites en France entre 1620 et 1720, en essayant de montrer les tentatives de Constitution d’un Apostola. Deux approches sont ici proposées: l'une strictement institutionnelle qui essaie de mesurer l'importance du travail intellectuel dans l'espace des charge à l'intérieur de l'Ordre, une autre davantage centrée sur la communication sociale de l'Ordre à travers die Diskussion der Plusieurs-Dossiers der Polémique Antijésuite.;-;-;-;https://link.springer.com/article/10.1007/BF03182210 0e866385826a6148f6c17dd0b9987cc7;de;;;3.1.;;;Die wissenschaftliche Kommunikation der Zukunft: Von der Buchinformation zur Problemlösung Solange Wissenschaftler wissenschaftliche Probleme diskutieren und miteinander kommunizieren, ist die wissenschaftliche Kommunikation ein wesentlicher Bestandteil wissenschaftlichen Handelns. In der sehr alten Zeit war die wissenschaftliche Kommunikation nur eine mündliche Überlieferung, eine Kommunikation von Angesicht zu Angesicht. Später hat die schriftliche Form der Kommunikation stattgefunden. Seit der Erfindung der beweglichen Druckschriften durch Gutenberg wurde die wissenschaftliche Kommunikation in schriftlicher und gedruckter Form bevorzugt. Seit 15 Jahren vollzieht sich die Revolution mit der digitalen Information, die nun der wissenschaftlichen Kommunikation zur Verfügung steht. Es gab einen Paradigmenwechsel von der gedruckten und mündlichen Tradition hin zu einer neuen digitalen elektronischen Wissenschaftskommunikation. Zukünftig werden die klassischen gedruckten Buchinformationen für die Wissenschaftskommunikation durch Problemlösungsportale mit allen elektronischen und digitalen Hilfsmitteln ersetzt.;-;-;-;https://link.springer.com/article/10.1007/s12109-011-9202-y 7facd4e7e9fb102aaa59c259032ca5f6;de;;;3.1.;;;MOEA/DEP: Ein auf algebraischer Zerlegung basierender evolutionärer Algorithmus für das Multiobjektiv-Permutations-Flowshop-Scheduling-Problem Algebraische evolutionäre Algorithmen sind eine aufstrebende Klasse von Metaheuristiken für die kombinatorische Optimierung, die auf starken mathematischen Grundlagen basiert. In diesem Artikel stellen wir einen zerlegungsbasierten algebraischen Evolutionsalgorithmus, nämlich MOEA/DEP, vor, um multiobjektive permutationsbasierte Optimierungsprobleme zu behandeln. Als Fallstudie wurde MOEA/DEP experimentell an einem multiobjektiven Permutations-Flowshop-Scheduling-Problem (MoPFSP) validiert. Insbesondere wurden die Ziele der Makespan- und Gesamtdurchlaufzeit untersucht. Es wurden Experimente mit einer weit verbreiteten Benchmark-Suite durchgeführt und die erhaltenen Ergebnisse wurden mit den modernsten Pareto-Fronten für MoPFSP verglichen. Die experimentellen Ergebnisse wurden mit Hilfe von zwei häufig verwendeten Leistungsmetriken für die Mehrzieloptimierung analysiert. Die Analyse zeigt deutlich, dass MOEA/DEP für den betrachteten Benchmark neue State-of-the-Art-Ergebnisse erreicht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-77449-7_9 3357ef073d1ac45e5eb2e89d6f806749;de;;;3.1.;;;Die Archäologie des Sklavenbrandings in Kuba Das Kapitel wird zeigen, wie das Brandzeichen von Sklaven vom 18. Unser Ziel ist es, schriftliche Quellen zu verwenden, um die Typologie des Eisenbrandings zu definieren und zu unterstreichen, wie Eisenmarken eine Technologie waren, die innerhalb und für das kubanische Sklavensystem verwendet wurde. Unser Fokus liegt darauf, hervorzuheben, dass das Eisenbranding, das in den bürokratischen Dokumenten der spanischen Krone beschrieben wird, eine Technologie zur Kontrolle von Sklaven und Vektoren der Sklavenmeisteragentur und der kubanischen Kolonialverwaltung war.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4939-1264-3_4 44a6f2d0601db95f200906fcc00fa399;de;;;3.1.;;;Das Münchner Krankenhaus Verwaltet von Emil Kraepelin Mit der Eröffnung der Klinik 1904 und der Berufung von Emil Kraepelin auf den Lehrstuhl für Psychiatrie erlangte München Anfang des 20;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74017-9_7 4f1fa83ebd2b77d331d9ecb6997d3a51;de;;;3.1.;;;Zur Leistung der lokalen Suche für das Problem des bioobjektiven Handlungsreisenden In diesem Kapitel untersuchen wir experimentell die Leistungsfähigkeit multiobjektiver lokaler Suchansätze, die auf dem komponentenweisen Akzeptanzkriterium-Suchmodell basieren. Dieses Modell bietet einen Rahmen für viele bekannte evolutionäre und lokale Suchalgorithmen. Am Beispiel des bioobjektiven Handlungsreisendenproblems analysieren wir den Einfluss von drei wichtigen algorithmischen Komponenten auf die Leistung eines einfachen lokalen Suchalgorithmus, der diesem Suchmodell folgt: Initialisierungsstrategie, Nachbarschaftsstruktur und Archivbegrenzung. Nach den Prinzipien des experimentellen Designs untersuchen wir die Auswirkungen jeder Komponente, sowohl in Bezug auf die Lösungsqualität als auch auf die Rechenzeit. Die experimentelle Analyse zeigt die Existenz mehrerer komplexer Kompromisse zwischen Lösungsqualität und Laufzeit für viele der für jede Komponente verfügbaren Auswahlmöglichkeiten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11218-8_7 cebf268992a9a1645638fb6e5800889e;de;;;3.1.;;;Abbildung der Hierarchie von EAD auf VRA Core 4.0 durch CIDOC CRM Die Interoperabilität von Metadaten erfordert die Entwicklung von Mappings und Crosswalks zwischen verschiedenen Schemata. Die Entwicklung von Crosswalks ist eine mühsame und komplexe Aufgabe, insbesondere wenn Metadaten von zusammengesetzten Objekten hierarchische Strukturen enthalten. Ein typischer Fall einer solchen Komplexität sind Findbücher, die Archive beschreiben, die Hierarchien von untergeordneten Komponenten enthalten. Dieses Papier macht einen Schritt vorwärts, um die Interoperabilität zwischen zwei bekannten Metadatenschemata zu erreichen, dem EAD-Standard für die Kodierung von Archivbeschreibungen und dem VRA Core 4.0-Standard für die Beschreibung von zusammengesetzten visuellen Ressourcen. Das Papier präsentiert einen Algorithmus zur Abbildung hierarchischer Archivstrukturen, die im EAD-Standard ausgedrückt werden, auf den VRA Core 4.0-Standard. Die Eingabe des Algorithmus kann ein beliebiges EAD-Dokument sowie der bereits definierte Zebrastreifen von EAD zum VRA Core sein, indem die Zuordnungen von EAD und VRA Core 4.0 zum CIDOC Conceptual Reference Model genutzt werden. Das Ergebnis des vorgeschlagenen Prozesses ist ein VRA Core 4.0-Dokument, das die Informationen des EAD-Dokuments enthält und dessen Archivstruktur darstellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-49157-8_17 b14ed2984a5f1dc6e19d3c6cfc6a30ab;de;;;3.1.;;;Panorama Des Ressources Documentaires Hospitalières Françaises Sur Internet In letzter Zeit wurden viele Websites im Internet-Netzwerk von Institutionen, Unternehmen, Einzelpersonen und staatlichen Organisationen entwickelt. Die Welt des Gesundheitswesens hat diese Entwicklung verfolgt und eine echte Zunahme von Informationen erlebt, die auf die verschiedenen Mitglieder dieses Sektors (Ärzte, Apotheker usw.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4621-0_69 637fe9a738fb127b04cf7db5380e90ba;de;;;3.1.;;;Was treibt die dekadische Variabilität der globalen Tropensturmtage von 1965 bis 2019 an? Der tropische Sturmtag (TSD) ist ein kombiniertes Maß für Genese und Lebensdauer. Er spiegelt die Gesamtaktivität tropischer Wirbelstürme (TC) wider, doch seine Variabilität wurde selten untersucht, insbesondere weltweit. Hier zeigen wir, dass die globalen Gesamt-TSDs in den letzten fünf bis sechs Jahrzehnten ohne signifikanten Trend ausgeprägte interannuelle (3–6 Jahre) und dekadische (10 Jahre) Schwankungen aufweisen. Die führenden Modi der interannualen und dekadischen Variabilität der globalen TSD zeigen ähnliche Muster im Westpazifik und Atlantik, aber unterschiedliche Muster im Ostpazifik und im südlichen Indischen Ozean. Die zwischenjährlichen und dekadischen Leitmodi sind in erster Linie mit der El Niño-Southern Oscillation (ENSO) bzw. der Pacific Decadal Oscillation (PDO) verbunden. Die TSDs-ENSO-Beziehung war während der gesamten 55-Jahre-Periode stabil, aber die TSDs-PDO-Beziehung erlebte in den 1980er Jahren einen Zusammenbruch. Wir stellen fest, dass die dekadische Variation der TSD im Pazifik mit den Anomalien der PDO-Meeresoberflächentemperatur (SST) im tropischen Ostpazifik (PDO-E) verbunden ist, während die im Atlantik und im Indischen Ozean mit den PDO SST-Anomalien verbunden ist im Westpazifik (gU-W). Allerdings sind die PDO-E- und PDO-W-SST-Anomalien in den 1980er Jahren schlecht gekoppelt, und dieses „destruktive PDO“-Muster führt zu einem Zusammenbruch der TSDs-PDO-Beziehung. Die Ergebnisse hier haben eine wichtige Bedeutung für saisonale bis dekadische Vorhersagen der globalen TSD.;-;-;-;https://link.springer.com/article/10.1007/s00376-021-0354-1 b4fd7b7579ce1558f0a325b97a2bfa09;de;;;3.1.;;;Die Epilobium-Kontroverse zwischen den Botanikern Heinz Brücher und Ernst Lehmann Ein Bereich der Genetik, der in der Zwischenkriegszeit besonders von deutschsprachigen Genetikern (Brücher, Correns, Lehmann, Michaelis, Oehlkers, Renner, von Wettstein) dominiert wurde, war die Erforschung der zytoplasmatischen Vererbung (Plasmonentheorie). Die Kontroverse zwischen den Botanikern Lehmann (Tübingen) und Brücher (Jena, Tübingen) um die Funktion von „Unterdrücker-Genen“ bei der Epilobium-Zellteilung stand im Mittelpunkt der Debatten um die zytoplasmatische Vererbung. Das Versagen von Brücher, Michaelis und Oehlkers, Lehmanns Epilobium-Experimente zu replizieren, zwang Lehmann schließlich, seinen Fehler zuzugeben.;-;-;-;https://link.springer.com/article/10.1007/BF02914149 7da90e619d09cd25f2e135e257ad80f2;de;;;3.1.;;;Ein Begriff der Passivität für geschaltete Systeme mit zustandsabhängigem Schalten Es wird ein Passivitätskonzept für geschaltete Systeme mit zustandsabhängigem Schalten vorgestellt. Jedes Subsystem hat eine Speicherfunktion, um die im Subsystem gespeicherte „Energie“ zu beschreiben. Die Passivitätseigenschaft eines geschalteten Systems ist durch mehrere Speicherfunktionen gegeben. Jede Speicherfunktion darf in der „eingeschalteten“ Zeitfolge wachsen, aber das Gesamtwachstum ist durch eine bestimmte Funktion begrenzt. Stabilität wird aus Passivität abgeleitet und asymptotische Stabilität wird unter weiteren Annahmen einer Detektivitätseigenschaft einer lokalen Form und Beschränktheit der Gesamtänderung einer Speicherfunktion in ihren inaktiven Intervallen erreicht. Außerdem wird ein zustandsabhängiges Schaltgesetz entworfen, das das System passiv macht.;-;-;-;https://link.springer.com/article/10.1007/s11768-006-5297-7 e45f70cae4603d686c9328b007f2eae3;de;;;3.1.;;;Spielt das Geschlecht in der Computerethik eine Rolle? Computerethik ist eine relativ junge Disziplin, daher braucht sie Zeit sowohl für die Reflexion als auch für die Erforschung alternativer ethischer Standpunkte beim Aufbau eines eigenen theoretischen Rahmens. Feministische Ethik wird als eine solche Alternative insbesondere zu Informationsfragen von Gleichheit und Macht angeboten. Wir argumentieren, dass Feministethik nicht eng auf „Frauenthemen“ beschränkt ist, sondern ein Ansatz mit breiteren egalitären Anwendungen ist. Der Aufstieg der feministischen Ethik in Bezug auf die feministische Theorie im Allgemeinen wird beschrieben und darin die Arbeit von Gilligan und anderen über eine „Ethik der Fürsorge“. Wir argumentieren für die Notwendigkeit, Theorie und empirische Evidenz zu verbinden. Empirische Studien zu Geschlecht und Wirtschafts- und Computerethik werden besprochen. Wir stellen Bedenken hinsichtlich der Befragung eines Studentenpublikums, der Frage, inwieweit Fragebögen und Interviews ethische Überzeugungen auf den Punkt bringen können, und Probleme bei der Durchführung statistischer Analysen quantitativer Daten fest. Obwohl wir sie erkennen, kann unsere eigene kleine Umfrage all diese Probleme nicht vermeiden. Dennoch können wir durch die Verfeinerung unserer Szenarien eine alternative Lesart eines Hacking-Problems im Sinne einer Fürsorgeethik anbieten und damit einen Weg für die zukünftige Forschung in der von der feministischen Theorie inspirierten Computerethik aufzeigen.;-;-;-;https://link.springer.com/article/10.1023/A%3A1010012313068 0684aefc3351f6cf75afc34518f968e5;de;;;3.1.;;;Robustheit ökologischer Nischenmodellierungsalgorithmen für Säugetiere in Guyana Der genetische Algorithmus für die Regelsatzvorhersage (GARP) wurde erfolgreich bei der Modellierung der Artenverteilung mit Umweltdaten für gut untersuchte Vögel in den Vereinigten Staaten und anderswo verwendet. Die Effizienz von GARP hat sich auch bei unvollständigen Vorkommens- und geografischen Daten als robust erwiesen. Gründliche biologische Probenahmen in Verbindung mit umfassenden geographischen Informationen sind jedoch in vielen tropischen Gebieten, in denen die größte Artenvielfalt auftritt, nicht die Norm. Säugetiere aus Guyana wurden als Test der Robustheit dieser Ansätze in einem Worst-Case-Szenario einer ungleichmäßigen Probenahme in Kombination mit groben geografischen Daten verwendet. Das Vorkommen von Arten in schlecht untersuchten Regionen wie dem Pakaraima-Hochland in West-Zentral-Guayana wurde durchweg unterschätzt, während das Vorkommen in gut untersuchten Gebieten wie dem südwestlichen Rupununi normalerweise richtig vorhergesagt wurde. Vergleiche der Anzahl der gesammelten Arten und Exemplare weisen auch darauf hin, dass Tieflandwälder im Südosten und Küstenwälder im Nordwesten unterbewertet sind. Für robuste Verteilungsvorhersagen in Guyana sind in diesen unterschiedlichen Umgebungen gründlichere Bestandsaufnahmen erforderlich.;-;-;-;https://link.springer.com/article/10.1023/A%3A1016038501986 1da3fd5440745f32c385b36f0e5ce6ff;de;;;3.1.;;;Kombinationsmethode von Regeln und Statistiken für die Abkürzung und ihre vollständige Namenserkennung Dieses Papier schlägt eine Kombination aus Regeln und Statistikalgorithmen vor. Erstens verwendet diese Forschung den regelbasierten Ansatz, um die Abkürzung zu identifizieren. Zweitens werden die vollständigen Namenskandidaten der Abkürzung basierend auf dem N-Gramm-Merkmal erkannt. Drittens verwenden wir den regel- und statistikbasierten Algorithmus, um den besten Kandidaten für die Abkürzung zu identifizieren. Das Verfahren der Abkürzungserkennung hat eine hohe Genauigkeit erreicht und ist unabhängig, tragbar und effizient. Die Methode der vollständigen Namenserkennung ist dem in verwandten Arbeiten vorgestellten Ansatz auf der Grundlage der Analyse und des Vergleichs von Experimentergebnissen überlegen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25185-6_90 928da51cbaea8d9401672a4d63180cec;de;;;3.1.;;;Die Organisation der geistigen Thätigkeit Aus dem absoluten Staatsbegriff, den die Revolution an die Stelle der absoluten Staatsgewalt in der Person des Königs gestellt, hatte die moderne Zeit, die damit sich eröffnete, auch erst in Wahrheit jene Bewegung der Staatsgesammtheit geschaffen, die man jetzt erst ein Staatsleben nennen könnte, da sterben Einzelne Theile und Glieder organisch in einander Griffen, sterben Einzelne Bewegungen unter Einem Letzten Gesetzen stehen Und Genauso umgekehrt Wieder of this oberste Gesetz Aber auch die absolute Staatsgewalt, die in der vergangenen Zeit stirbt! Doch that sie es als einen Zug der Willkür, in der eben der Absolutismus allein gesucht wurde. Der absolute Staatsbegriff aber gestaltete seine Herrschaft als ein Recht und die Wirkungen derselben als ein System alles Rechts. Es war der Absolutismus der Vernunft gegenüber jenem des Willens. Und wie dieser moderne Staatsgeist das gesammte wirthschaftliche Leben erfasste und in allen seinen Aeusserungen sich unterordnete, so drängte er sich auch in das geistige Leben der Menschen, Glaube und Wissen sollten ebenso wie Tragsäulen durch seine Fähigkeit entwickeln und heranziehen wollte.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-51817-1_7 0fd4d52644973a6e9389104578a27e68;de;;;3.1.;;;Die Postmoderne Im Geschichtsverlauf gibt es Umbrüche, die sich noch hinter den Kulissen vollziehen. Oft bedarf es einer Einschätzung des Historikers, dort Eine Epochenschwelle herauszuheben, wo Anderer scheinbarer Entwicklung der Dinge weiterlief und wo das Eine aus dem ganz unauffällig hervorgegangen zu sein schien. Erst im Nachhinein werden wir uns dessen bewusst, dass sich etwas verändert hat und dass gute Gründe dafür bestehen, auf den ersten Blick nicht erkennbaren Umbruch als eine historische Wende auszumachen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-85970-9_5 9152777ebac4a27fc8e39abd49064c9b;de;;;3.1.;;;Polytope von Polynomen mit Nullen in einer vorgeschriebenen Region: Neue Kriterien und Algorithmen Die Methoden, die wir in dieser Arbeit entwickeln, haben mehrere weitere Vorteile. Das Polytop von Polynomen darf nämlich Polynome unterschiedlicher Ordnung enthalten, die Annahmen über die Menge;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-9552-6_10 a3865cd6659f40436cc4ecbb6de9451b;de;;;3.1.;;;Single-Pushout-Transformationen von gleichungsdefinierten Graphenstrukturen mit Anwendungen auf Aktorsysteme Diese Arbeit wurde praktisch durch einen Ansatz motiviert, Akteursysteme unter Verwendung algebraischer Graphgrammatiken zu modellieren. Es stellte sich heraus, dass wesentliche Anforderungen an Graphstrukturen, die Rechenzustände modellieren, gut als Bedingungsgleichungen ausgedrückt werden können.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-57787-4_15 54da9e43de4056759483cc9943e19a21;de;;;3.1.;;;Automatische Generierung redundanter Modelle für Probleme mit der Erfüllung von Permutationsbeschränkungen Wenn wir zwei Darstellungen eines Problems als Constraint Satisfaction Problem (CSP)-Modelle haben, wurde gezeigt, dass die Kombination der Modelle unter Verwendung von Channeling-Constraints die Constraint-Ausbreitung in Baumsuch-CSP-Lösern erhöhen kann. Die manuelle Herstellung von zwei CSP-Modellen für ein Problem ist jedoch oft zeitaufwändig. In diesem Papier schlagen wir vor;-;-;-;https://link.springer.com/article/10.1007/s10601-007-9024-x d1bb61e954166f7d0e0135b706aa16a2;de;;;3.1.;;;Eine Rohrdommel (Aves: Ardeidae) aus dem frühen Miozän Neuseelands Reiher (Aves: Ardeidae) sind im Fossilienbestand weltweit selten. Fossile Taxa, die sich auf Ardeinae und Nycticoracini beziehen, sind bereits aus dem frühen Oligozän bekannt, und zu den Ardeiden, deren Unterfamilie nicht bestimmt ist, gehören einige so alt wie das frühe Eozän. In Australasien ist der prä-pliozäne Datensatz auf eine Art aus dem frühen Miozän Neuseelands beschränkt. Anhand eines Tarsometatarsus und eines Coracoids beschreiben wir eine neue Rohrdommelart (Ardeidae: Botaurinae) aus der St. Bathans Fauna des frühen Miozäns aus Otago, Neuseeland. Dies ist nur der dritte und älteste präquartäre Nachweis für Botaurinae weltweit.;-;-;-;https://link.springer.com/article/10.1134/S0031030113110154 a794e1138e421f7d3059ef850454e41d;de;;;3.1.;;;Kombinieren von zwei strukturierten Domänen zur Modellierung verschiedener Graph-Matching-Probleme Graph Pattern Matching ist eine zentrale Anwendung in vielen Bereichen. In verschiedenen Bereichen kann die Struktur des Musters nur angenähert werden und eine genaue Übereinstimmung ist dann zu genau. Wir konzentrieren uns hier auf Näherungen, die vom Benutzer innerhalb des Musters deklariert werden (optionale Knoten und verbotene Bögen), die Graph-/Untergraph-Mono-/Isomorphismusprobleme abdecken. In diesem Beitrag zeigen wir, wie die Integration zweier Rechenbereiche über abzählbare Strukturen,;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-89812-2_6 ae27b9d5e39bb59b0bcde8f4b1ca4422;de;;;3.1.;;;Die zehn Jahre CPAIOR: Eine Erfolgsgeschichte Der Zweck dieses Kapitels ist es, die Kollektion vorzustellen, die das 10-jährige Bestehen von CPAIOR feiert. Zunächst wird ein kurzer Überblick über Forschungsthemen der ständig wachsenden CPAIOR-Community gegeben. Dann folgt eine kurze Kapitelzusammenfassung, die die Buchstruktur und ihren Inhalt beschreibt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4419-1644-0_1 4c96b7f3b3c0abd998f21255795b4d98;de;;;3.1.;;;Ein iterativer Algorithmus für ein multiples Finite-Source-Warteschlangenmodell mit dynamischer Prioritätsplanung In diesem Whitepaper wird ein Multiple-Finite-Source-Queuing-Modell mit einem einzelnen Server und einer dynamischen, nicht präemptiven Prioritätsdienstdisziplin untersucht. Die Verweilzeiten der Kunden an den entsprechenden Quellen sind exponentiell verteilt. Die Servicezeiten der Kunden können einer exponentiellen, Erlang- oder hyperexponentiellen Wahrscheinlichkeitsdichtefunktion folgen. Unter Verwendung früher veröffentlichter Ergebnisse und einer Erweiterung der Mittelwertanalyse wurde ein iterativer Algorithmus entwickelt, um Näherungswerte der mittleren Wartezeiten in Warteschlangen für die Prioritätsklassen zu erhalten. Die durchschnittliche Anzahl wartender Kunden und die Serverauslastung jeder Klasse werden unter Verwendung des Ergebnisses dieses Algorithmus und der Little-Formel erhalten. Der Algorithmus ist dem früheren Verfahren vorzuziehen, da er nicht komplexer wird, wenn die Anzahl der Kundenklassen zunimmt.;-;-;-;https://link.springer.com/article/10.1057/jors.1995.123 548bf48ec2fbc3a874379c61a817db28;de;;;3.1.;;;Lampentypen und Schaltungen Die Entwicklung der Leuchtstofflampe und ihrer Anwendungen hat zur Einführung einer Vielzahl von Lampentypen und Schaltungen geführt. Da die Eigenschaften der Lampe maßgeblich von denen des Vorschaltgeräts bestimmt werden und;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-00361-7_8 c0e69438d78805be174dfbb1e0f4062a;de;;;3.1.;;;Konstruktion von Listenhomomorphismen durch Tupeln und Fusion Listenhomomorphismen sind Funktionen, die effizient parallel berechnet werden können, da sie ideal zum Divide-Sand-Conquer-Paradigma passen. Einige interessante Funktionen, z. B. das Problem der maximalen Segmentsumme, sind jedoch keine Listenhomomorphismen. In diesem Beitrag schlagen wir einen systematischen Weg vor, sie in Listenhomomorphismen einzubetten, so dass parallele Programme abgeleitet werden. Wir zeigen an einem Beispiel, wie eine einfache und „offensichtlich“ richtige, aber möglicherweise ineffiziente Lösung des Problems durch zwei Transformationen erfolgreich in einen semantisch äquivalenten nahezu Homomorphismus umgewandelt werden kann: Tupeln und Fusion.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-61550-4_166 a53e0f60ef69bc56a7bcdcdcbfd90d77;de;;;3.1.;;;Riese, Walfisch und das Jüngste Gericht Im Fokus des Beitrags stehen ausgewählte Objekte der frühneuzeitlichen Festkultur Antwerpens, sterben – also sterben Leitthese der folgenden Betrachtungen – als Träger und Vermittler religiöser, gesellschaftlicher, politischer wirtschaftlicher Diskurse zusätzlichen. Aufgrund aufwendiger ästhetischer Gestaltung, semantischer Aufladung und spezifischer Handhabung respektiver Interaktion innerhalb des soziokulturellen Dispositivs der Handelsmetropole wurden sie während der performativen Akte zu langen Reflexionsfiguren städtischer Geschichte und zu zentralen Bezugspunkten der kollektiven Identitätsstiftung.;-;-;-;https://link.springer.com/article/10.1007/s41244-020-00178-9 7213b20a895efdc49f3ca6945369311b;de;;;3.1.;;;Einführungsvortrag Diffusion, d. h. die Migration von Partikeln, spielen bei vielen Prozessen in der Materialwissenschaft und -technik eine entscheidende Rolle. Im ersten Teil dieses Beitrags werden einige wichtige Prozesse auf dem Gebiet der Metallurgie und Keramologie sowie der Halbleitertechnologien besprochen, um die allgegenwärtige Rolle von Diffusionsprozessen zu bewerten. Diffusion wird aufgrund verwandter Prozesse, die eng mit den strikten Diffusionsmechanismen verbunden sind, relativ weit verstanden: Ein- und Ausfangprozesse, chemische Reaktionen und „Defektreaktionen“ an Grenzflächen (Korngrenzen und Interphasen) oder die spezifische Rolle ausgedehnter Verwerfungen (Versetzungen, Schnittstellen,…). Ein letzter Teil dieses Aufsatzes wird der Diskussion der Ähnlichkeiten und Unterschiede zwischen Punktdefekten und Diffusionsmechanismen in den verschiedenen Klassen fester Materialien gewidmet sein, indem die Bedeutung der Art der chemischen Bindung betont wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-1976-1_1 ce2b48f4166fb10fcad805c54c934042;de;;;3.1.;;;Kombination von drei auf mehreren Agenten basierenden Generalisierungsmodellen: AGENT, CartACom und GAEL Dieser Artikel befasst sich mit der automatisierten Verallgemeinerung von vektorgeographischen Datenbanken. Es untersucht die möglichen Synergien zwischen drei bestehenden, sich ergänzenden Generalisierungsmodellen, die alle auf dem Multi-Agenten-Paradigma basieren. Diese Modelle sind jeweils gut geeignet für die Verallgemeinerung von urbanen Räumen (AGENT-Modell), ländlichen Räumen (CARTACOm-Modell) und Hintergrundthemen (GAEL-Modell). In diesen Modellen werden die geografischen Objekte als Agenten modelliert, die Generalisierungsalgorithmen auf sich selbst anwenden, geleitet von kartografischen Beschränkungen, um sie zu erfüllen. Die Unterschiede zwischen ihnen liegen insbesondere in ihrer Constraint-Modellierung und ihrem Agenten-Koordinationsmodell. Es werden drei komplementäre Möglichkeiten zur Kombination dieser Modelle vorgeschlagen: getrennte Verwendung in getrennten Zonen, „verschachtelte“ sequentielle Verwendung in derselben Zone und gemeinsame Verwendung von Daten innerhalb der Modelle. Letzteres wird weiter untersucht und eine teilweise Überarbeitung der Modelle vorgeschlagen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-68566-1_16 73fcdd8e8103a914382108e02d867cd8;de;;;3.1.;;;Ein Beitrag zur Systematik der Streptocephalidae (Branchiopoda: Anostraca) Bei der Entwicklung einer Datenbank für die phylogenetische Analyse der Streptocephaliden der Neuen Welt haben wir diese mit Arten aus Afrika, Europa und Indien verglichen. Dabei stellten wir fest, dass die Morphologie des Stiels des distalen Antennenauswuchses und der bei sieben nordamerikanischen Arten entwickelten zweibeinigen Ovarien zur Systematik der Gattung beitragen kann. Unsere Untersuchung bestand daher aus (1) einer Überprüfung der äußeren Morphologie der Antenne, (2) der Biometrie ausgewählter Teile der Antenne, um aussagekräftige Verhältnisse zu erhalten, (3) einer Überprüfung des Vorhandenseins oder Fehlens von genitalen linguiformen Auswüchsen, Erweiterung der nicht einziehbaren Teile der Penes und der allgemeinen Morphologie der Cercopoden, (4) eine Untersuchung der Lage der Eierstöcke und der Ausdehnung des Brutbeutels. Anhand der Ergebnisse klassifizieren wir;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-0291-9_19 4bf444d0b57d3c275b551a19688afc9d;de;;;3.1.;;;Eine Kernelsprache für abstrakte Datentypen und Module Ein kleiner Satz von Konstrukten kann eine Vielzahl von scheinbar unterschiedlichen Merkmalen in modernen Programmiersprachen simulieren. Unter Verwendung von typisiertem Lambda-Kalkül mit Bindungen, Deklarationen und Typen als erstklassige Werte zeigen wir, wie Module, Schnittstellen und Implementierungen, abstrakte Datentypen, generische Typen, rekursive Typen und Unions erstellt werden. Die Sprache hat eine präzise operationale Semantik, die durch Inferenzregeln gegeben ist.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-13346-1_1 9ba43f40149d27efd60427f9cb9a546c;de;;;3.1.;;;Ein Kalkül für Sammlungen und Aggregate Wir präsentieren einen Kalkül, der für Datenbankabfragesprachen die gleiche Rolle spielen sollte wie der Lambda-Kalkül für die funktionale Programmierung. Für die semantischen Grundlagen des Kalküls führen wir ein neues Konzept ein: Monaden angereichert mit algebraischer Struktur. Wir modellieren Sammlungstypen durch angereicherte Monaden und Aggregatoperationen durch angereicherte Monadenalgebren. Der Kalkül leitet Programmäquivalenzen ab, die einer guten Anzahl der in Abfragesprachen verwendeten Optimierungen zugrunde liegen.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0026993 8d1bbe9ebb44c73c58ff430bef895086;de;;;3.1.;;;Verwalten virtueller Communities: Herausforderungen und Chancen Kürzlich sind sogenannte „virtuelle Gemeinschaften“ entstanden, die es Firmen (z.B. Dell Computers) oder Verbände (z.B. eicar) erlauben, ihren aktuellen oder potentiellen Klienten/Mitgliedern besser zu dienen. Anbieter virtueller Gemeinschaften oder Webportale haben versucht, Daten für Marketingzwecke zu sammeln, wie z.B. Zeit und was von Benutzern runtergeladen wurde. Große Web-Seiten und Gemeinschaften zu bewirten, Systemquellen zu schützen, Datenintegrität und Vertraulichkeit aufrechtzuerhalten, während die Privatsphäre der Benutzer ebenfalls geschützt werden muss. Trotz dieser Herausforderungen erlauben virtuelle Gemeinschaften eine Reduzierung der Transaktions- und Koordinationskosten der Firmen oder Verbände. Was genauso wichtig in der modernen Informationsgesellschaft ist, die Symmetrik in der Information zwischen Firma und Klient, can reduziert werden, denn die virtuellen Gemeinschaften can verläßliche und gültige Informationen bereitstellen, ähnliche virtuelle Bibliothek, zusätzlich zu Kontakten und On-Line Interaktionen oder Unterhaltungen) für Benutzer. Einige strategische Überlegungen werden aufgezeigt. Schließlich Werden Ein Rahmen sowie Kontrollisten präsentiert, um this Fragen effektiver zu regeln und gleichzeitig sterben verschiedenen Interessen der Stakeholder Gruppen zufriedenzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-58425-1_19 9726fbb5f64e1cc8c438f73916c70d00;de;;;3.1.;;;Verwenden von Makros zur Nachahmung von VHDL Der Zweck dieses Projekts besteht darin, in ACL2 die Semantik einer kleinen synthetisierbaren Verhaltensuntermenge von VHDL zu definieren. Die Absicht besteht darin, den syntaktischen Geschmack von VHDL so weit wie möglich zu bewahren und die Verifizierung eines Schaltungsentwurfs durch symbolische Simulation und Techniken zum Beweisen von Theoremen zu erleichtern. Die Definition wird mit Makros geschrieben, die VHDL-Schlüsselwörter erkennen und semantische Funktionen und einige grundlegende Sätze für jede Hauptaussage der Sprache konstruieren. Dieses Projekt führt Typdefinitionen, Signal- und Variablendeklarationen sowie einfache Prozesse ein. Deklarationen definieren den Anfangszustand eines Systems. Anweisungen und Prozesse sind Funktionen, die Zustände auf (nächste) Zustände abbilden. Die systematische Verwendung von Makros hilft durch die Einführung der Infix-Notation mit Schlüsselwörtern, die der entsprechenden VHDL-Syntax stark ähneln.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-3188-0_11 446b8e4b8954f56bed15039c5e4de997;de;;;3.1.;;;Skalarfeldgeführte adaptive Formverformung und Animation In diesem Artikel schlagen wir eine neuartige skalarfeldgeführte adaptive Formdeformationstechnik (SFD) vor, die auf PDE-basierten Strömungsbeschränkungen und skalaren Feldern impliziter Funktionen basiert. Skalare Felder werden als Einbettungsräume verwendet. Bei einer Verformung des Skalarfeldes wird dementsprechend ein entsprechendes Verschiebungs-/Geschwindigkeitsfeld erzeugt, was zu einer Formverformung des eingebetteten Objekts führt. In unserem System sind die Erstellung, das Skizzieren und die Manipulation von Skalarfeldern sowohl natürlich als auch intuitiv. Das eingebettete Modell wird durch die Fähigkeit zur Selbstoptimierung weiter verbessert. Während der Verformung können wir auch verschiedene Beschränkungen für eingebettete Modelle erzwingen. Außerdem kann diese Technik verwendet werden, um das Animationsdesign zu vereinfachen. Unsere Experimente zeigen, dass die neue SFD-Technik leistungsstark, effizient, vielseitig und intuitiv für die Modellierung und Animation von Formen ist.;-;-;-;https://link.springer.com/article/10.1007/s00371-003-0225-z c1108898a47749b72a069f155c9393b0;de;;;3.1.;;;Automatisierte Segmentierung der inneren Grenzmembran in OCT-Netzhautbildern zur Glaukomerkennung Dieses Papier schlägt einen automatisierten Algorithmus vor, um die innere Grenzmembran zu segmentieren, d. Seine Segmentierung ermöglicht es dem Augenarzt, Netzhauterkrankungen wie Makulaödem und Glaukom zu diagnostizieren, da sie die ILM-Schicht betreffen. Der Hauptzweck dieser Segmentierung besteht darin, das Glaukom korrekt zu erkennen und zu diagnostizieren. Das Glaukom wird von der Weltgesundheitsorganisation zur zweithäufigsten Erblindungsursache erklärt und kann schwere Schäden verursachen, wenn es nicht früher behandelt wird. Beim Glaukom kommen OCT-Scans mit dem Sehnervenkopf (ONH) in Betracht. Das Glaukom kann als Schröpfen des Sehnervenkopfes beschrieben werden, d. ILM ist in Glaukombildern im zentralen Pfannenabschnitt steiler als in normalen Bildern. Daher wird ILM verwendet, um eine Pfanne aus Makula- oder ONH-zentrierten OCT-Bildvolumen zu extrahieren und diese dann weiter als glaukomatisches oder normales Auge zu klassifizieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-01177-2_93 7fbccaef27e7240a645fe32707ed5f29;de;;;3.1.;;;Zweistrahl-Wellenlängenmodulationsspektroskopie zur empfindlichen Detektion von Wasserdampf Es wurde eine Technik zum empfindlichen Nachweis von Wasserdampf basierend auf der Dual-Beam-Wellenlängenmodulationsspektroskopie (WMS) beschrieben. Besondere Aufmerksamkeit wurde dem Problem der Laserleistungsvariation (LPV) und der Restamplitudenmodulation (RAM) gewidmet, die für die Verzerrung des Absorptionsprofils während der Anwendung von WMS verantwortlich sind. Der Einfluss von LPV und RAM wurde durch Photostrom-Normalisierung durch einen ausgewogenen ratiometrischen Detektor eliminiert, bei dem es sich um eine Zweistrahltechnik mit Schrotrauschpegel-Leistung handelt. Wenn Verzerrungen berücksichtigt werden sollten, könnte dies das Verfahren der Spektrenanalyse enorm vereinfachen. In der Versuchssymmetrie des WMS hatte sich das Profil im Vergleich zum herkömmlichen Einstrahlverfahren um den Faktor 102 verbessert. Während des Anwendungstests der Wasserdampfdetektion war die detektierte Amplitude des WMS gut proportional zur Wasserdampfkonzentration im Bereich von 25 bis 1.048 ppmv und die Empfindlichkeit wurde mit 52 ppbv bei einer optischen Weglänge von nur 10 cm erreicht.;-;-;-;https://link.springer.com/article/10.1007/s00340-014-5922-y e009d8c74aac162294697e756524949a;de;;;3.1.;;;Vergleich von Gabor-Filtern und LBP-Deskriptoren zur Erkennung von Spoofing-Angriffen in Gesichtsbildern Die Erkennung von Spoofing-Angriffen mithilfe von Gesichtsbildern ist ein Problem, das die Sicherheit von Systemen verletzt, die Gesichtserkennungstechnologien verwenden. Das Ziel dieser Forschung ist es, einen Leistungsvergleich zwischen zwei Texturdeskriptoren zu zeigen: Gabor-Filter und lokale binäre Muster, die auf die Spoofing-Erkennung mittels Gesichtsbildern angewendet werden, um Informationen von Interesse für zukünftige Forschungen bereitzustellen. Diese Algorithmen wurden unter den gleichen Bedingungen evaluiert. Die Ergebnisse der Experimente zeigen, dass Gabor-Filter in synthetischen Bildern bessere Diskriminanzdeskriptoren erhalten, was sie zu einer guten Option für die Anwendung von Systemen macht, die Gesichtsbiometrie verwenden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-61702-8_27 bbc1cdea188e65ce2f5cd6e2c909cee4;de;;;3.1.;;;Einleitung und Kopfnoten (1890) zu Zufall und Schicksal haben zwei Drittel der gesamten Geschichte zwischen sich verwoben, und fast die ganze Geschichte Irlands. Die Literatur einer Nation hingegen wird aus ihrem Herzen gesponnen. Wer Irland mit Leib und Seele kennen möchte, muss seine Gedichte und Geschichten lesen. Sie sind entstanden, um niemandem außer dem irischen Volk zu gefallen. Die Regierung hat sie auf der einen Seite nicht gemacht, noch schlechte Jahreszeiten auf der anderen. Sie sind Irland, das mit sich selbst spricht. In diesen beiden kleinen Bänden gebe ich Exemplare eines kleinen Teils dieser Literatur – der Prosaerzählungen des modernen irischen Lebens. Ich habe die Auswahl so getroffen, dass sie das Zeugnis des irischen Charakters so gut wie möglich veranschaulichen. In dieser Einführung beabsichtige ich, die Art und Weise zu erklären, in der ich sie lese, die Klassenbeschränkungen, die ich zulasse, die persönliche Voreingenommenheit, die mir bei diesem oder jenem Romanschriftsteller vorkommt. Diese Beschränkungen selbst, diese Voreingenommenheit selbst, werden sich als landestypische Stimmungen erweisen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-06236-2_3 eb0f4256f9f1c3aadb35aeb91b950cca;de;;;3.1.;;;Die Entwicklungsstörungen der Harnblase Wenn man die Fehlbildungen der Harnblase schildern will, muss man zu einem Teil auch bestimmte Entwicklungsstörungen der Harnleiter berücksichtigen, ebenso wie es sich nicht vermeiden lässt, da und dort sterben Harnröhre in sterben Betrachtung einzubeziehen. Die Entwicklungsfehler der Harnleiter sind zwar schon in einem früheren Hauptstück of this Werkes (vgl. Bd. 6, 1. Teil!) besprochen worden, aber es WIRD sich nicht umgehen lassen, bis zu einem gewissen Grad der Ureteren noch einmal zu gege , weil neue entwicklungsgeschichtliche Untersuchungen von;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-87630-1_2 8a5a2ca4d26b70db9b5ee345491741f2;de;;;3.1.;;;Beitrag der Europäischen Union zu einem internationalen Register kontrollierter Studien Randomisierte kontrollierte Studien (RCTs) mit ausreichenden Patientenzahlen sind unerlässlich, um zuverlässig zwischen wichtigen Effekten vieler Versorgungsformen und Effekten von Verzerrungen oder dem Spiel des Zufalls unterscheiden zu können. Es hat sich wiederholt gezeigt, dass, wenn systematische Überprüfungen von RCTs, die regelmäßig aktualisiert werden, von Beginn einer Reihe verwandter Studien an erstellt worden wären, zuverlässige Behandlungsempfehlungen früher hätten verfügbar gemacht und Ressourcen für die Forschung effizienter genutzt werden können. Zuverlässige systematische Übersichtsarbeiten basieren auf einem möglichst hohen Anteil der relevanten Evidenz. Bei Recherchen in wichtigen bibliografischen Datenbanken wie MEDLINE und EMBASE wurden in einer Reihe von klinischen Bereichen durchschnittlich 50 % der Studien übersehen, und viele wichtige europäische Zeitschriften, insbesondere solche, die nicht auf Englisch veröffentlicht wurden, sind in den wichtigsten Datenbanken nicht indiziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4621-0_19 ae583b850b234b632ab91459eaa0ddbf;de;;;3.1.;;;Kryptoanalyse auf einem Bildverschlüsselungs-Verschlüsselungsschema basierend auf Pixelbit Sc Kürzlich wurde in [G.-D. Ja, Mustererkennung Lett. 31(2010) 347-354]. Durch den Verwürfelungsalgorithmus können die Pixelorte und -werte gleichzeitig verschlüsselt werden. Dieses Schema kann als typische Verschlüsselung von Binärbildern betrachtet werden, wenn man die Größe der Bit-Ebene berücksichtigt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18405-5_5 cb08b3cdf45bad56adf3e786390b900e;de;;;3.1.;;;Eine Time-Lag-Analyse zur Verbesserung der Kommunikation zwischen OSS-Entwicklern In der Open-Source-Software (OSS)-Entwicklungsumgebung ist es wahrscheinlicher, dass aufgrund von Zeitunterschieden zwischen den Standorten der Entwickler und unterschiedlichen Arbeitszeiten für die OSS-Entwicklung eine Kommunikationsverzögerung zwischen Entwicklern auftritt. Ein Mittel zur effektiven Kommunikation zwischen OSS-Entwicklern wurde in den letzten Jahren zunehmend gefordert, da ein OSS-Produkt und seine Benutzer eine schnelle Reaktion auf Probleme wie Fehler und Sicherheitslücken erfordern. In diesem Papier schlagen wir eine Analysemethode vor, um die Zeitverzögerung der Kommunikation zwischen Entwicklern in einem OSS-Projekt zu beobachten und dann die Kommunikation zu erleichtern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14888-0_13 92a34636391b77760e21c3276604ba5f;de;;;3.1.;;;Verhaltenskonsistente Vererbung in UML Objektorientierte Entwurfsmethoden drücken das Verhalten eines Objekts über die Zeit, also den Objektlebenszyklus, durch Notationen auf Basis von Petri-Netzen oder Zustandsdiagrammen aus. Der Beitrag betrachtet die Spezialisierung von Lebenszyklen über Vererbungsbeziehungen als Kombination aus Erweiterung und Verfeinerung im Kontext von UML-Zustandsautomaten. Extension bezeichnet das Hinzufügen von Zuständen und Aktionen, Verfeinerung bezeichnet die Zerlegung von Zuständen in Unterzustände. Wir verwenden die Begriffe Beobachtungskonsistenz und Aufrufkonsistenz, um das Verhalten von Objektlebenszyklen zu vergleichen und stellen eine Reihe von Regeln vor, um die Verhaltenskonsistenz von UML-Zustandsautomaten zu überprüfen, basierend auf einer Eins-zu-Eins-Abbildung einer sinnvollen Teilmenge von Zustandsautomaten zu Objekt-/Verhaltensdiagrammen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45393-8_38 c2d8c3971d5d0fa4240a2d709d7e2f52;de;;;3.1.;;;Multi-Objective PSO basierend auf evolutionärer Programmierung Multi-Objective Particle Swarm Optimizer (MOPSOs) konvergieren leicht zu einer falschen Pareto-Front. In diesem Papier haben wir einen hybriden Algorithmus von MOPSO mit evolutionärer Programmierung (bezeichnet als EPMOPSO) zum Lösen von MOPs vorgeschlagen. In EPMOPSO wird die Nachbarschaft jedes Partikels dynamisch konstruiert und die Geschwindigkeit jedes Partikels wird durch alle Partikel in seiner Nachbarschaft angepasst, einschließlich sich selbst, dem leistungsstärksten Partikel im Schwarm und der Elitegruppe, die durch evolutionäre Programmierung entwickelt wurde. Simulationsergebnisse zeigen, dass EPMOPSO in der Lage ist, eine viel bessere Streuung von Lösungen zu finden und im Vergleich zu fünf hochmodernen MOPSOs eine schnellere Konvergenz zur echten Pareto-optimalen Front aufweist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14922-1_75 dbb35413dcfc8b5d7c2c96e17a9bea80;de;;;3.1.;;;Formation sur L’usage d’un Centre de Documentation pour les Omnipraticiens Das General Practice Institute of Portugal South Area ist eine staatliche Einrichtung, die dem Hausarzt eine spezifische Ausbildung anbietet (und es gibt etwa 3.000 Hausärzte in diesem Bereich). Das Informations- und Dokumentationszentrum (IDC) bietet Hilfestellung und kümmert sich um die Belange von Hausärzten und Forschern im Allgemeinen. Das Institut fördert Lehrveranstaltungen zur dokumentarischen Recherche in Informationszentren und Bibliotheken zur Methodik des wissenschaftlichen Arbeitens und zu Veröffentlichungen wie: einer Abschlussarbeit, einem Artikel, einem Bericht oder einer Bibliographie. Unter Berücksichtigung der Datenbank, ihrer dokumentarischen Inhalte und des von der APDIS entwickelten Informationsnetzes leistet das IDC eine unschätzbare Arbeit an technischer Forschung, wissenschaftlicher Unterstützung und bibliographischer Überarbeitung.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-8786-0_50 bf281342b042087a738e7d67caead75e;de;;;3.1.;;;Unterstützung pflegender Angehöriger durch telematische Interventionen – Das Aktionsprojekt ACTION ist ein 36-monatiges, von der Pflege geleitetes europäisches Projekt, an dem England, Nordirland, die Republik Irland, Portugal und Schweden beteiligt sind. Das Projekt begann im Januar 1997 und soll im Dezember 1999 abgeschlossen sein. Das Projekt wird durch das Vierte Rahmenprogramm für Telematik für Behinderte und ältere Menschen finanziert.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4621-0_71 275fd95bf93bc6991513ed00556f58e3;de;;;3.1.;;;Die Bedeutung der Skalierbarkeit beim Vergleich von Techniken der dynamischen gewichteten Aggregation und der Pareto-Front Die Leistung des Dynamic Weight Aggregation Systems bei Anwendung auf einen genetischen Algorithmus (DWAGA) und NSGA-II werden bewertet und miteinander verglichen. Die Algorithmen werden auf 11 Zwei-Ziel-Testfunktionen und 2 Drei-Ziel-Testfunktionen ausgeführt, um die Skalierbarkeit der beiden Systeme zu beobachten. Es wurde festgestellt, dass, während der NSGA-II bei den meisten der Zwei-Objektiv-Testfunktionen besser abschneidet, der DWAGA den NSGA-II bei den Drei-Objektiven-Problemen übertreffen kann. Wir gehen davon aus, dass das DWAGA-Archiv dazu beiträgt, die Suchpopulation gering zu halten, da es die Pareto-Front nicht gleichzeitig durchsuchen und speichern muss, wodurch sowohl die Rechenzeit als auch die Qualität der Front verbessert werden.;-;-;-;https://link.springer.com/chapter/10.1007/11740698_13 2ede1d36723a84425c028513ff26bc84;de;;;3.1.;;;KXtractor: Eine effektive Methode zur Extraktion biomedizinischer Informationen basierend auf Mixture Hidden Markov Modellen Wir präsentieren eine neuartige Informationsextraktionstechnik (IE), KXtractor, die eine Textchunking-Technik und Mixture Hidden Markov Models (MiHMM) kombiniert. KXtractor überwindet das Problem der einzelnen Part-of-Speech (POS) HMMs durch die Modellierung der reichhaltigen Textdarstellung, bei der sich Merkmale zwischen Zustandseinheiten wie Wort, Zeile, Satz und Absatz überschneiden. KXtractor behebt auch Probleme mit den herkömmlichen HMMs für IE, die nur mit halbstrukturierten Daten arbeiten, wie HTML-Dokumenten und anderen Textquellen, bei denen Sprachgrammatik keine zentrale Rolle spielt. Wir haben KXtractor mit drei IE-Techniken verglichen: 1) RAPIER, ein auf induktivem Lernen basierendes maschinelles Lernsystem, 2) ein wörterbuchbasiertes Extraktionssystem und 3) einzelnes POS-HMM. Unsere Experimente zeigten, dass KXtractor diese drei IE-Systeme bei der Extraktion von Protein-Protein-Wechselwirkungen übertrifft. In unseren Experimenten war das F-Maß für KXtractor um 16,89 %, 16,28 % bzw. 8,58 % höher als für RAPIER, ein wörterbuchbasiertes System und einzelnes POS-HMM. Darüber hinaus sind sowohl die Präzision als auch der Rückruf von KXtractor höher als bei diesen Systemen.;-;-;-;https://link.springer.com/chapter/10.1007/11567752_5 d78437dc65f0068ad62fc19e0825061a;de;;;3.1.;;;Kosten-/Zeit-Trade-off-Analyse für die Critical-Path-Methode: eine Ableitung des Netzwerkfluss-Ansatzes Ein bekanntes Problem bei der Analyse kritischer Pfade besteht darin, dass für jede Aktivität Normal- und Crashdauern mit entsprechenden Kosten bereitgestellt werden und ein Mindestkostenplan von Dauern für alle möglichen Dauern des Projekts festgelegt werden muss. Es ist seit langem bekannt, dass eine optimale Lösung des Problems iterativ erhalten werden kann, indem ein Netzwerkflussproblem mit minimalen Kosten konstruiert wird und die Dauer der Aktivitäten entsprechend einem Mindestkapazitätskürzungssatz angepasst wird. Eine kürzlich erschienene Veröffentlichung beschrieb diese Methode, gab jedoch keinen Hinweis darauf, wie die Methode abgeleitet werden könnte. Es wird hier gezeigt, dass eine lineare Programmierungsformulierung und ihre duale Formulierung dies sehr einfach ermöglicht.;-;-;-;https://link.springer.com/article/10.1057/palgrave.jors.2600489 61218b59acde728540eb61ac1e30c9ba;de;;;3.1.;;;Integration von Text Chunking mit Mixture Hidden Markov Modellen für eine effektive Extraktion biomedizinischer Informationen In diesem Artikel wird eine neue Informationsextraktionstechnik (IE) vorgestellt, KXtractor, die eine Text-Chunking-Technik mit Mixture Hidden Markov Models (MiHMM) integriert. KXtractor unterscheidet sich von anderen Ansätzen dadurch, dass (a) es das Problem der einzelnen Part-Of-Speech (POS)-HMMs durch die Modellierung der reichhaltigen Textdarstellung überwindet, bei der sich Merkmale zwischen Zustandseinheiten wie Wort, Zeile, Satz und Absatz überlappen . Durch die Integration von Satzstrukturen in die gelernten Modelle bietet KXtractor eine bessere Extraktionsgenauigkeit als die einzelnen POS-HMMs. (b) Es löst die Probleme mit den traditionellen HMMs für IE, die nur mit halbstrukturierten Daten wie HTML-Dokumenten und anderen Textquellen arbeiten, in denen Sprachgrammatik keine zentrale Rolle spielt. Wir haben KXtractor mit drei IE-Techniken verglichen: 1) RAPIER, ein auf induktivem Lernen basierendes maschinelles Lernsystem, 2) ein wörterbuchbasiertes Extraktionssystem und 3) einzelnes POS-HMM. Unsere Experimente zeigten, dass KXtractor diese drei IE-Systeme bei der Extraktion von Protein-Protein-Wechselwirkungen übertrifft. In unseren Experimenten war der F-Wert für KXtractor um 16,89 %, 16,28 % bzw. 8,58 % höher als für RAPIER, ein wörterbuchbasiertes System, und ein einzelnes POS-HMM. Darüber hinaus sind sowohl die Präzision als auch der Rückruf von KXtractor höher als bei diesen Systemen.;-;-;-;https://link.springer.com/chapter/10.1007/11428848_124 a62948f51d0c919fa5c676d574c92aa4;de;;;3.1.;;;Ein optimales Ray-Traversal-Schema zur Visualisierung kolossaler medizinischer Volumina Moderne Computer sind nicht in der Lage, die vollständigen Daten hochaufgelöster medizinischer Bilder im Hauptspeicher zu speichern. Selbst auf dem Sekundärspeicher (Festplatte) werden solche großen Datensätze manchmal in komprimierter Form gespeichert. Zur Rendering-Zeit werden Teile des Volumes vom Rendering-Algorithmus angefordert und von der Festplatte geladen. Wenn man nicht aufpasst, können dieselben Regionen mehrmals (dekomprimiert und) in den Speicher geladen werden. Stattdessen sollte ein kohärenter Algorithmus entworfen werden, der dieses Durcheinander minimiert und den Zeit- und Arbeitsaufwand zum (Dekomprimieren und) Laden des Volumes optimiert. Wir präsentieren einen Algorithmus, der das Volumen in kubische Zellen aufteilt, die jeweils (komprimiert und) auf der Festplatte gespeichert sind, im Gegensatz zum üblicheren Slice-basierten Speicher. Zur Wiedergabezeit wird jeder Zelle eine Strahlenschlange zugewiesen. Für eine Bildfolge werden alle Strahlen erzeugt und an den Zellen, die sie zuerst schneiden, in eine Warteschlange gestellt. Die Zellen werden nacheinander in der Reihenfolge von vorne nach hinten (FTB) geladen. Eine geladene Zelle wird von allen Strahlen gerendert, die sich in ihrer Warteschlange befinden. Wir analysieren den Algorithmus im Detail und demonstrieren seine Vorteile gegenüber bestehenden Raycasting-Volumen-Rendering-Verfahren.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0046934 f22ce23cc9ab9fbfacdac0402ec76670;de;;;3.1.;;;Prinzipien der Arzneimittelverabreichung bei Niereninsuffizienz Eine normale Nierenfunktion ist für die Ausscheidung und den Metabolismus vieler Medikamente wichtig. Nierenerkrankungen, die den glomerulären Blutfluss und die Filtration beeinträchtigen, die tubuläre Sekretion, die Reabsorption und die renale Parenchymmasse verändern die Arzneimittelclearance und machen Änderungen der Dosierungsschemata erforderlich, um das therapeutische Ergebnis zu optimieren und das Toxizitätsrisiko zu minimieren. Nierenerkrankungen nehmen zu und die Pflegekosten sind in den letzten zehn Jahren kontinuierlich gestiegen. Ein Teil dieser Kosten steht im Zusammenhang mit unsachgemäßer Arzneimitteltherapie und übermäßigem Drogenkonsum.;-;-;-;https://link.springer.com/article/10.2165/00003088-199732010-00002 1fbbec89f11b5b1b1e24ecd67c28d272;de;;;3.1.;;;Chronik 1895–1994 Ottomar Anschütz, der Erfinder des ›Schnellsehers‹, führt im alten Reichstagsgebäude in Berlin vor jeweils 300 Zuschauern Bildreihen vor. Seine Technik ist die Doppelprojektion von Glasdiapositiven, die auf Eine Scheibe montiert sind und kurze Bewegungsvorgänge zeigen: Einseifen beim Barbier, Skatspieler, frühstückende Zimmerleute. Filmfolie bietet Anschütz als Material ab. Er ist ein Foto alter Schule mit neuen Ideen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-476-03585-1_1 29684f09b486b885233b8163abe39d3c;de;;;3.1.;;;Finden weiterer boolescher Funktionen mit maximaler algebraischer Immunität basierend auf univariaten Polynomdarstellung Die algebraische Immunität ist eine wichtige kryptographische Eigenschaft für Boolesche Funktionen gegen algebraische Angriffe. Konstruktionen von Booleschen Funktionen mit maximaler algebraischer Immunität (MAI Boolesche Funktionen) unter Verwendung der univariaten polynomialen Darstellung von Booleschen Funktionen über endlichen Körpern haben immer mehr Aufmerksamkeit erhalten. In diesem Artikel wird weiter untersucht, wie aus einer bekannten booleschen MAI-Funktion unter univariate polynomialer Darstellung mehr MAI-Boolesche Funktionen erhalten werden. Die ausreichende Bedingung von Booleschen Funktionen mit der maximalen algebraischen Immunität, die durch Ändern einer bekannten Booleschen MAI-Funktion unter univariater Polynomdarstellung erhalten wird, ist gegeben. Mit dieser Bedingung können ausgeglichenere boolesche MAI-Funktionen unter univariater Polynomdarstellung erhalten werden. Der algebraische Grad und die Nichtlinearität dieser Booleschen Funktionen werden analysiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-22497-3_4 ab916507c945e4f925436fc4b0574a08;de;;;3.1.;;;Beurteilen von visuellen Anzeigen medizinischer Informationen Die Bewertung von Computersystemen ist schwierig. Computersoftware, eine der abstraktesten Schöpfungen des Menschen, ist weniger ein Objekt als eine Idee, was das Messen und Vergleichen erschwert. Wir können seine Reifen nicht treten. Wir können jedoch seine Leistung beobachten. Und manchmal kann man die Softwarequalität beurteilen, indem man das Softwaredesign in seine Bestandteile zerlegt und jeden einzelnen untersucht.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-4708-1_8 2fd76038bec6a76adadc6749cec71c29;de;;;3.1.;;;Die technischen Grundlagen der Heizungs-, Lüftungs- und Warmwasserversorgungsanlagen in den verschiedenen Gebäudearten Ein Hauptzweck der Gebäude besteht darin, sterben Insassen gegen sterben Unbilder der Witterung zu schützen. Da bei unserm Klima der Winter rund sieben Monate dauert, so kommt der Heizung besondere Bedeutung zu.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-02186-6_2 c30f25a6b5cb834b4490df2706fd318d;de;;;3.1.;;;Szenarien und Regeln der Medicina di Laboratorio al tempo della crisi: Nel laboratorio Clinico professionalità diverse collaborano nell’impiego di tecnology semper più potenti per wag risposte angemessen a quesiti Clinici di complessità crescente Laboratorium sono fondamentali per molte diagnosi anche se, secondo Hallworth, non è documentato che, come sostenuto in passato, il 70–85 % delle Decisioni Cliniche dipendano dagli esami di laboratorio.;-;-;-;https://link.springer.com/article/10.1007/s13631-012-0074-8 dafcb741bfc37526b56d60d7751fd093;de;;;3.1.;;;Vorhersage zukünftiger Entdeckungen aus der aktuellen wissenschaftlichen Literatur Die Entdeckung von Wissen in der Biomedizin ist ein zeitaufwändiger Prozess, der von der Grundlagenforschung über die präklinische Erprobung bis hin zu möglichen klinischen Anwendungen beginnt. Für bahnbrechende biomedizinische Forschung, die zu hoch erfinderischen Entdeckungen führt, ist oft das Überschreiten konzeptioneller Grenzen erforderlich. Wir demonstrieren die Fähigkeit einer kreativen Literatur-Mining-Methode, wertvolle neue Entdeckungen basierend auf seltenen Ideen aus der vorhandenen Literatur voranzutreiben. Werden neue Ideen aus der wissenschaftlichen Literatur systematisch zu Wissensfragmenten zusammengefügt, können sie zu originellen, manchmal überraschenden Forschungsergebnissen führen. Wenn bereits genügend wissenschaftliche Beweise für die Assoziation solcher Befunde veröffentlicht sind, können sie als wissenschaftliche Hypothesen betrachtet werden. In diesem Kapitel beschreiben wir eine Methode zur computergestützten Generierung solcher Hypothesen basierend auf der vorhandenen wissenschaftlichen Literatur. Unsere literaturbasierte Entdeckung von NF-kappaB mit seinen möglichen Verbindungen zu Autismus wurde kürzlich von der wissenschaftlichen Gemeinschaft genehmigt, was die Fähigkeit unserer Literatur-Mining-Methode bestätigt, zukünftige Entdeckungen basierend auf seltenen Ideen aus der vorhandenen Literatur zu beschleunigen.;-;-;-;https://link.springer.com/protocol/10.1007/978-1-4939-0709-0_10 fa92ded4634694d91ba322b3b437bafb;de;;;3.1.;;;Konzeptionelles Modell des elektronischen Schulbuchs für Kinder Der erste Schritt bei der Entwicklung eines elektronischen Buches besteht darin, ein konzeptionelles Modell zu erstellen. Das in diesem Papier beschriebene Modell wurde durch die Integration der Multiple-Intelligence-Theorie mit bestehenden elektronischen Buchmodellen entworfen. Der Schwerpunkt liegt auf der Integration des Inhalts einer Seite mit geeigneten Aktivitäten, die der Vielfalt der Lernstile und der Intelligenz kleiner Kinder gerecht werden. Wir postulieren, dass ein zusätzliches Feature für Kinder-E-Books darin besteht, Inhalte zu präsentieren, indem verschiedene Präsentationsmodi gemischt und verschiedene Aktivitäten einbezogen werden, die so viele Intelligenzen wie möglich unterstützen.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45268-0_68 cc8b0aa8f30eb6de750799c8120894af;de;;;3.1.;;;Seismische Vulnerabilitätsbewertung von städtischen Gebäuden und Verkehrsnetzen mit Fuzzy Ordered Weighted Average Städtische Gebäude und städtisches Verkehrsnetz gelten als Lebensadern der Städte, die insbesondere nach der Krise im Such- und Rettungseinsatz besondere Auswirkungen haben. Ziel dieser Studie ist es, die Vulnerabilität von urbanen Räumen insbesondere von Gebäuden und Verkehrsnetzen mit Hilfe von multikriteriellen Geoinformationssystemen und Entscheidungsmethoden zu ermitteln. Da es viele wirksame Kriterien für die seismische Anfälligkeit gibt, die unsichere und vage Eigenschaften haben, verwendet die Methode dieses Papiers den Fuzzy Ordered Weighted Average (OWA), um die seismische Anfälligkeit von städtischen Gebäuden und Verkehrsnetzen in den optimistischsten und pessimistischsten Zuständen zu modellieren . Das Untersuchungsgebiet ist der Distrikt 6 von Teheran, der von den vier großen Verwerfungen betroffen und somit von den Erdbeben bedroht ist. Die erzielten Ergebnisse veranschaulichten die Anfälligkeit mit unterschiedlichen Risikograden, darunter sehr hoch, hoch, mittel, niedrig und sehr niedrig. Die Ergebnisse zeigen, dass im optimistischsten Fall 14% und im pessimistischsten Fall 1% der Gebäude eine sehr geringe Anfälligkeit tolerieren. Die Vulnerabilität des städtischen Straßennetzes weist auch darauf hin, dass im optimistischen Fall 12% und im pessimistischen Fall höchstens 9% des Gebiets in einem angemessenen Zustand sind und der Norden und Nordosten des Untersuchungsgebiets anfälliger sind als der Süden.;-;-;-;https://link.springer.com/article/10.1007/s11629-017-4802-4 c3802ffd95beea3b2b99defbbff5ad12;de;;;3.1.;;;Verbesserung des literarischen Verständnisses durch Jugendliteratur Jugendliteratur kann verwendet werden, um das Verständnis der Schüler für literarische Techniken und Konzepte zu verbessern und einen „Übergang“ zwischen Kinder- und Erwachsenenliteratur zu schaffen. Zwei Jugendromane—;-;-;-;https://link.springer.com/article/10.1007/BF02680518 b3753dfe0f2a39491275e8a94d1b7cfc;de;;;3.1.;;;Fluoreszenzdiagnose und photodynamische Therapie – Bewertung von Sensibilisatoren durch Vergleich ihrer Pharmakokinetikco Von mehreren Substanzen ist bekannt, dass sie nach systemischer Applikation einen temporären Unterschied zwischen ihren Konzentrationen in normalem und tumorösem Gewebe aufweisen. Dieser Unterschied ist auf die unterschiedliche Kinetik des Stoffwechsels in normalem und tumorösem Gewebe zurückzuführen. Es ermöglicht die Markierung von Tumoren und bietet eine Grundlage sowohl für die Lokalisierung von Tumoren durch Fluoreszenz (1) als auch für deren Behandlung mit photodynamischen Methoden (2,3). Hämatoporphyrin (Hp) und seine Derivate (HpD) gehören derzeit zu den bekanntesten photosensibilisierenden Tumormarkern. Diese Stoffe bestehen jedoch aus einem undefinierten Gemisch mehrerer Komponenten. Sie sind hinsichtlich ihrer fluoreszierenden und/oder ihrer photodynamischen Eigenschaften oder ihres pharmakokinetischen Verhaltens noch nicht optimiert. Daher haben wir die Kinetik beider Eigenschaften in einem Maustumormodell bestimmt. Die den Untersuchungsstoff charakterisierenden Koeffizienten wurden individuell mittels mathematischer Kurvenanpassung abgeleitet. Die mit dieser Methode und der Hochdruckflüssigkeitschromatographie (HPLC) gewonnenen Daten wurden verglichen, um eine semiquantitative Auswertung von fünf verschiedenen tumormarkierenden Photosensibilisatoren zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-73151-8_69 14a196421338aaac6ae0f227a0db738d;de;;;3.1.;;;String-Matching mit Nichtübereinstimmungen durch reellwertige FFT String-Matching mit Nichtübereinstimmungen ist ein grundlegendes Konzept des Information Retrieval mit einigen Arten von Approximation. Dieses Papier schlägt einen FFT-basierten Algorithmus für das Problem des String-Matching mit Mismatches vor, der eine Schätzung mit Genauigkeit berechnet. Der Algorithmus besteht aus FFT-Berechnungen für binäre Vektoren, die schneller berechnet werden können als die Berechnung für Vektoren komplexer Zahlen. Daher wird durch die Beschleunigung der FFT eine Reduzierung der Rechenzeit erreicht, was zu einer Verbesserung der Varianz der Schätzungen führt. Dieses Papier analysiert die Varianz der Schätzungen im Algorithmus und vergleicht sie mit den Varianzen in bestehenden Algorithmen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-12189-0_24 c7ff2f320e10c6f198008a81b3980f05;de;;;3.1.;;;Interoperables kabelloses Laden für Elektrofahrzeuge Die Welt modernisiert sich mit jeder Sekunde, die vergeht. Die Welt läutet eine Ära des Umweltbewusstseins ein. Grüne Technologien und nachhaltige Lösungen zerstören also bisherige Technologien, ebenso wie die Automobilindustrie. Obwohl der Mensch das Fliegen gelernt und begonnen hat, sind Straßen das bevorzugte Transportmittel. Die Verwendung von Fahrzeugen mit konventionellem Kraftstoff trägt einen schwerfälligen Anteil an der verursachten Umweltverschmutzung bei. Eine offensichtliche Lösung, die das obige Problem angeht, ist ein Elektrofahrzeug. Obwohl Elektrofahrzeuge vor ein oder zwei Jahrzehnten auf dem Markt weit verbreitet waren, konnten sie keine Massen erreichen und ihr Leben beeinflussen. Wie richtig gesagt, es gibt im Universum keine 100% effiziente ewige Maschine, auch Elektrofahrzeuge haben eine Reihe von Problemen damit verbunden. Das Hauptproblem, das den großen Erfolg von Elektrofahrzeugen verhindert hat, ist das Laden. Vorhandene Fahrzeuge sind im Fernverkehr unübersichtlich und müssen sehr häufig geladen werden. Um das so entstandene Problem anzugehen, müssen Ladestationen eingerichtet werden, was umfangreiche Änderungen der Infrastruktur erfordert und für die jeweiligen Regierungen lukrativ ist. Unser Beitrag befasst sich mit Methoden zum kabellosen Laden eines Elektrofahrzeugs. Das Papier betont die Verwendung mehrerer Spulen, die die Energie entwickeln, die über die Fähigkeit übertragen wird, und eine speziell entwickelte Dreiphasenspule, die die Effizienz zusammen mit dem induktiven Leistungsübertragungsmechanismus verbessert. Ein Verfahren zum Messen der vom Fahrzeug verbrauchten Energie wird ebenfalls diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-2256-7_10 4aae08043c2ae906efe27874e210fe77;de;;;3.1.;;;Das genealogische Selbst identifizieren Was ist die Verbindung zwischen Archiv und Identität? Eine der Hauptnutzergruppen von Archiven sind Familienhistoriker, die oft angeben, dass sie sich verpflichten, ihre Abstammung herauszufinden, um „zu erfahren, wer sie sind“. Aber was bedeutet ein solcher Anspruch, woher kommt er und welche Rolle spielen Archive bei dieser Suche nach dem Selbst? Dieser Artikel untersucht diese Fragen, indem er zwei moderne genealogische Texte untersucht: Alex Haleys;-;-;-;https://link.springer.com/article/10.1007/s10502-011-9159-9 dcbc9ba74fa52cde46d18f50755c32e0;de;;;3.1.;;;Blutbestellung über das HELP-System Im LDS-Krankenhaus werden Bestellungen für Blutprodukte und damit verbundene Tests (z. B. Blutgruppenbestimmung, Coombs-Tests usw.) von Ärzten und Pflegepersonal über menügesteuerte Bildschirme direkt in das HELP-Computersystem eingegeben. Um die Einhaltung der Richtlinien der Joint Commission for the Accreditation of Healthcare Organizations (JCAHO) zur Blutverwendung zu unterstützen, sucht der Computer im Rahmen des Bestellvorgangs nach einem Grund für die Anforderung von Blutprodukten. Wenn Blutprodukte bestellt werden, untersucht der Computer automatisch Daten, die in der elektronischen Patientenakte vorhanden sind, um zu bestimmen, ob die Bestellung vorbestimmte Kriterien erfüllt. Wenn beispielsweise der Grund für die Bestellung von gepackten Zellen eine Anämie ist, überprüft der Computer, ob der letzte Hämatokritwert des Patienten unter einem bestimmten Wert liegt. Wenn eine Abweichung festgestellt wird, informiert der Computer den Arzt, der dann die Verordnung stornieren, einen anderen Grund eingeben oder den Computer überschreiben kann. Jede Abweichung von vorgegebenen Kriterien wird von den Mitarbeitern der Qualitätssicherung nachverfolgt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-3070-0_26 d8e28020f15f6d5d8ca0fb54fd2988f8;de;;;3.1.;;;Natürliche vs. unnatürliche Zerlegung in der kooperativen Koevolution Die Problemzerlegung ist der erste Schritt, um einen kooperativen koevolutionären Algorithmus (CCEA) auf ein Problem anzuwenden. In diesem Schritt wird festgelegt, wie das Problem mit einer geeigneten Granularität in Komponenten unterteilt wird. Die meisten aktuellen Methoden implementieren eine natürliche Zerlegung, bei der jede Komponente eine bestimmte Rolle spielt oder eine emergente Eigenschaft darstellt. Es kann jedoch einige echte Probleme geben, bei denen die Rollen oder die Eigenschaften schwer zu bestimmen oder etwas unklar sind. Dieses Papier bietet eine Lösung, indem es die Probleme auf eine unnatürliche Weise zerlegt, die eine blinde Zerlegung implementiert. Unsere Primäranalyse zeigt, dass die blinde Zerlegung machbar ist. Wir geben auch einige grundlegende Ratschläge zur Implementierung der blinden Dekomposition in Kombination mit verschiedenen Kollaborationsmethoden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-25944-9_18 a2e2405942c4fa832c2bf949dfd3c465;de;;;3.1.;;;Erkunden Sie den Lebenszyklus der Spielanwendung Ein Spiel hat mehr zu bieten als nur die lustigen Teile. Fast alle Spiele auf dem Markt und definitiv die großen Titel beinhalten mehrere Ansichten und einen relativ komplexen Lebenszyklus. In diesem Kapitel erfahren Sie, wie Sie aus einem einfachen Spiel eine vollständige Anwendung machen. Wir werden uns ansehen, wie ein typisches Spiel die verschiedenen Ansichten organisiert, aus denen es besteht, einschließlich einer Ladeansicht, einer Willkommensansicht, einer Highscore-Ansicht und natürlich des Spiels selbst.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4302-4423-3_3 87fb239ebb88dd44d805d5798cb0f94a;de;;;3.1.;;;Archivierung audiovisueller Medien in Deutschland Seit dem Anfang des 20. Jahrhunderts haben die bewegten Bilder immer größere Teile der Lebenswelt vieler Jahrhunderte erobert und bestimmen die Wahrnehmung des Weltgeschehens. Auch vereinheitliche audiovisuelle Medien Generationen und Länder übergreifend sterben Art und Weise, wie sterben Freizeit verbracht wird. Sodann sind sterben in ihnen weiter gegebenen Bilder und Töne von tagespolitischen und anderen Ereignissen wichtigen Ankerpunkten der Selbstvergewisserung, sie werden wieder und wieder angesehen, neu gewendet und gewertet und Formen sterben Wahrnehmung von Politik, Gesellschaft, Geschichte und Kultur.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-476-05388-6_19 fd0c929cc0b6106e71550491ceb100f2;de;;;3.1.;;;Untersuchungen über den Zahnbleigehalt von Schulkindern aus zwei unterschiedlich belasteten Gebieten in Nordwestdeutschlan Die Bleikonzentrationen wurden in Milchzähnen (nur Schneidezähne) von 730 fünf- bis zwölfjährigen Schulkindern aus zwei verschiedenen Gebieten Nordwestdeutschlands untersucht. Gebiet A ist eine stark industrialisierte Stadt im Ruhrgebiet (Duisburg), Gebiet B ist ein Vorort oder ländlicher Raum (Gummersbach, Bergisches Land). Es wurden Zahnbleikonzentrationen im Bereich von 1,4–12,7 μg Pb/g gefunden. Die Duisburger Kinder (N = 690) hatten eine mittlere Zahnbleikonzentration von 4,53 µg/g, während der Mittelwert der Gummersbacher Kinder (N = 40) 2,74 µg/g betrug. In Übereinstimmung mit anderen Autoren wurde mit zunehmendem Alter ein leichter Anstieg der Zahnbleikonzentration, jedoch keine geschlechtsspezifischen Unterschiede gefunden. Bei der Untersuchung des Verlaufs der Zahnbleikonzentrationen nach Wohnort innerhalb der Stadt Duisburg ergaben sich die höchsten räumlich gleitenden logarithmischen Mittelwerte in der Nähe zweier großer bleiemittierender Fabriken, während die Zahnbleikonzentrationen in den anderen Stadtteilen a diffuse Streuung, die jedoch in Vororten deutlich abnimmt. Zahnbleikonzentrationen werden als Indikator für die langfristige kumulative Bleiexposition diskutiert, die die unterschiedlichen Expositionsbedingungen in den beiden Bereichen widerspiegeln.;-;-;-;https://link.springer.com/article/10.1007/BF00386740 75333c1cb3842ed239375d7131e2107f;de;;;3.1.;;;Fingerabdrücke der mikrosomalen Cytochrome P-450 der Rattenleber als Mittel zur Abgrenzung sexuell unterscheidbarer Formen Die Cytochrom-P-450-Fraktion von Mikrosomen, die auf Laurinsäure-AH-Sepharose-4B-Säulen getrennt wurden, enthält etwa 75% des mikrosomalen P-450. Dieser wurde mittels zweidimensionaler isoelektrischer Fokussierung/SDS-PAGE mit dem Finger abgedruckt. Die Auftrennung der Fraktion durch hochreproduzierbare Standardverfahren an Carboxymethyl-Sepharose CL6B in vier Fraktionen ermöglichte eine leichte Isolierung und Reinigung von sieben Formen von P-450, RLM2, 2b, 3, f4, 5, 5a und f5a. Der Vergleich der vier Fraktionen CMI, CMII, CMIII und CMIV ergab qualitative Unterschiede der in CMI und CMII enthaltenen Proteine ​​von männlichen und weiblichen Ratten. Die Identifizierung dieser Proteine ​​ergab, dass RLM2, das in der CMI-Fraktion von erwachsenen männlichen Ratten vorhanden ist, in der vergleichbaren Fraktion von weiblichen Ratten nicht in nachweisbaren Mengen vorhanden ist. In ähnlicher Weise waren RLM3 und 5 in der CMII-Fraktion männlicher Ratten vorhanden, konnten jedoch in der entsprechenden Fraktion weiblicher Ratten nicht nachgewiesen werden. Stattdessen wurde bei den Weibchen ein anderes Protein, fRLM4, gefunden. RLM5a, das in der CMII-Fraktion von Männern gefunden wurde, war auch bei Frauen vorhanden. Die Untersuchung der physikalischen Eigenschaften dieser P-450-Proteine ​​ergab, dass diejenigen, die in den CMI- und CMII-Fraktionen isoliert wurden, relativ neutrale isoelektrische Punkte aufweisen (7,1–7,6). Basierend auf dem NH;-;-;-;https://link.springer.com/article/10.1007/BF00296945 450795964589ffdcdfde67e6142d9743;de;;;3.1.;;;Ein Streit zwischen Scientific und Political Correctness Viele linke Intellektuelle waren nach dem Regierungsantritt der CDU/CSU-FDP-Koalition 1982 verunsichert, zumal auch in anderen westlichen Demokratien ein gewisser Rechtsruck festgestellt, vor allem unter der Führung von Margaret Thatcher in Großbritannien und Ronald Reagan in den USA.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-83371-6_2 3336772b5dbb3b8ec09198f399bed538;de;;;3.1.;;;Schriftenverzeichnis This Schriftenverzeichnis enthält verschiedene Quellen und Behelfe, sterben bei der Abfassung des vorliegenden Catalogus used wurden, außerdem auch diese Druckschriften, sterben bei weiteren Forschungen und Arbeiten über die Farn- und Blütenpflanzen Österreichs nützlich sein can, also auch z. B. bei der Abfassung künftiger Landesfloren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-5120-4_1 b607950633e5a255468a357f2e022511;de;;;3.1.;;;Sprachadaptionen: Preisgekrönte Kinderliteratur in basalen Schulbuchlesern Eine häufige Klage über basale Leser besteht darin, dass sie bei der Adaption hochwertiger Literatur sinnlose Vereinfachungen vornehmen, die den Wert der Originalgeschichten erheblich schmälern. Dieser Artikel berichtet über eine Studie über Adaptionen preisgekrönter Geschichten für drei Klassenstufen. Die Ergebnisse deuten stark darauf hin, dass diese Beschwerden zumindest in den letzten fünfzehn Jahren ungerechtfertigt sind.;-;-;-;https://link.springer.com/article/10.1007/BF02683695 9864ca0613b2796bd074c42a6ee6a203;de;;;3.1.;;;Die Zubereitung der Charta Die Erwartungen Alexander des Grossen, sterben er bei Gründung der nach ihm benannten Stadt an der Mündung des Nils hegte, hatten sich voll erfüllt. Rasch war Alexandrien, durch seine bevorzugte Lage Mittelpunkt des Handels der drei damals bekannten Erdtheile;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-15782-3_4 b368191199bd0154329851a9600ee2b7;de;;;3.1.;;;Stationäres Essensreservierungssystem Im Krankenhaus ist die stationäre Mahlzeit nicht nur für den Hunger der Patienten, sondern auch für die Behandlungsassistentin. Die Mahlzeit wird von den Ernährungsberatern nach ärztlicher Empfehlung entworfen und bestellt. Aber in einem Krankenhaus betreut eine Ernährungsberaterin meist dutzende Patienten, was die schwere Belastung zur Folge hat. Im Essensbestellungsprozess ist dies mit abteilungsübergreifendem Datentransfer und Manpower verbunden und benötigt dann viel Zeit. Dadurch würde die erste Mahlzeit des stationären Patienten oder die erste modifizierte Mahlzeit fehlen. Um den stationären Patienten eine rechtzeitige Ernährungsversorgung zu ermöglichen, haben wir das stationäre Essensbuchungssystem vorgeschlagen. Unser System hat die elektronischen Formen der Essensbuchung basierend auf der interaktiven Web-Technologie entwickelt. Über die Webseite werden die Ratschläge des Arztes bestellt, die dann direkt an den Ernährungsberater weitergeleitet werden. Dadurch könnte der Ernährungsberater rechtzeitig die Daten des stationären Patienten erhalten, den Ernährungsbedarf einschätzen und die Essensbestellung ausgeben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-12262-5_57 6d5315392f639b38105ffd689edad14e;de;;;3.1.;;;Energieausbreitung in einem verformten elastischen Material Resultierende Material- und räumliche Energieausbreitungsvektoren werden für Wellen kleiner Amplitude definiert, die großen statischen Verformungen in elastischen Materialien beliebiger Symmetrie überlagert sind. Es wird gezeigt, dass der resultierende Vektor der Materialenergieausbreitung in Richtung der Normalen auf die Langsamkeitsfläche und damit in der der Bi-Charakteristik liegt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-2416-7_45 f3beda672a5e0d2514441e95140f851c;de;;;3.1.;;;Kunst, Life & Show-Biz , im Kern, ist Ain Gordons intimer Liebesbrief an Live-Performances und die Künstler, die sie erschaffen. Gordons Werk, das im Januar 2003 im New Yorker PS 122 uraufgeführt wurde, ist ein Akt der Erinnerung und des Gedenkens, geformt durch Erinnerungen – oft durch schwindelerregende, wundersame Erinnerungen an „das erste Mal“, dass etwas geschah oder indem er kürzlich Bekannte in der Show benennt biz – und die Handlungen der Gegenwart. Allein der Untertitel der Produktion ist ein Widerspruch in sich selbst: ein „Sachbuch“.;-;-;-;https://link.springer.com/chapter/10.1057/9780230251311_14 a390b97bd96670ff9a0f7520548e43b5;de;;;3.1.;;;Einführung in Teil eins Inklusive Varianten werden hier 454 Melodien veröffentlicht. Daneben sind dreißig melodische Varianten mit nur geringen Abweichungen als Fußnoten beigefügt, jede unter ihrer am nächsten verwandten Melodie.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-1683-4_2 01bb34d884ae3fccaf59265c459fbb2e;de;;;3.1.;;;Ein MOPSO-basierter Design-Explorations-Algorithmus für Mikroprozessoren mit elitärer Lernstrategie Als kontinuierliche Weiterentwicklung der Prozessortechnologie hat die Design Space Exploration (DSE) einen entscheidenden Einfluss auf die Gesamtleistung. Aufgrund des Fehlens eines systematischen Verfahrens ist DSE jedoch in der Regel zeitaufwendig und unvollendet, wodurch ein Großteil der Möglichkeiten ungenutzt bleibt. In diesem Beitrag wird auf Basis der Partikelschwarmoptimierung (PSO) ein Multi-Objekt-Optimierungsalgorithmus mit elitärer Lernstrategie (ELS) vorgeschlagen, mit dem wir ein Vorhersagemodell für das Mikroprozessordesign zur Leistungs- und Effizienzoptimierung konstruieren. Der vorgeschlagene Algorithmus wird mit zwei anderen Multi-Objekt-Optimierungsalgorithmen durch drei Metriken verglichen. Das durchgeführte Experiment zeigt, dass der vorgeschlagene Algorithmus effizienter und effektiver ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-15-8101-4_44 72711ee0b8b4f508888ef15eb6b0f560;de;;;3.1.;;;Auf dem Weg zu einer neuen Zivilisation: Ökologische Zivilisation oder Informationszivilisation Der beschleunigte Fortschritt der modernen Wissenschaft und Technologie und das Auftreten einer globalen ökologischen Krise haben uns beide das Ende eines alten und das Ankommen eines neuen Zeitalters erkennen lassen, während wir uns von der industriellen Zivilisation zu einer neuen Zivilisation bewegen. Es gibt verschiedene Ansichten darüber, was das neue Zeitalter oder die Zivilisation ausmacht und wie wir sie benennen sollten. Zwei Ansichten verdienen besondere Aufmerksamkeit – das neue Zeitalter oder die Zivilisation handelt von Ökologie oder von Information. Dieses Papier wird die beiden Ansichten vergleichen und kurz die Vision der neuen Zivilisation skizzieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-33-6742-5_53 f555bb76c05dc6b54bc444f9f556268a;de;;;3.1.;;;Saisonale Variation der wasserlöslichen Ionen bei der Ablagerung von Partikeln in der Luft im Vorort Nanjing, Jangtse-Delta, China, während Dunsttagen und normalen Tagen Normal Um die jahreszeitliche Variation und Charakterisierung wasserlöslicher Ionen (WSIs) in der Ablagerung von Partikeln in der Luft (APD) während der Haze Days (Sichtbarkeit ≤7,5 km) und Normal Days (Sichtbarkeit >7,5 km) in einem Vorort von Nanjing zu untersuchen, wurden 151 Filterproben samples gesammelt vom 18. Mai 2013 bis 26. Mai 2014. Zehn verschiedene WSIs aus den Proben wurden ionenchromatographisch bestimmt. Die Ergebnisse zeigten, dass sekundäre WSIs (NH;-;-;-;https://link.springer.com/article/10.1007/s00244-017-0447-0 0552b156d53b20bc3e3db5261b1c9284;de;;;3.1.;;;Wissensintensive Interpretation von Signaldaten In diesem Beitrag wird die Nutzung von Wissen zur Interpretation von Signaldaten in einem Laborprototypsystem namens ELEXSA (ELINT Exploitation for Situation Awareness) diskutiert. ELEXSA verwendet wissensintensive Techniken, um Informationsprodukte zu erstellen, die darauf abzielen, einem Militärkommandanten dabei zu helfen, die Bedeutung der entdeckten Einheiten, ihre Beziehungen zu eigenen Truppenplattformen und die Auswirkungen dieser Beziehungen in Bezug auf die Ziele des Kommandanten zu verstehen. Die Kernauslegungskomponenten von ELEXSA sind nach Art des (JDL-Informationsfusionsmodells) aufgebaut. Diese Komponenten nutzen intensiv unternehmenseigene Wissensdatenbanken zu den Fähigkeiten militärischer Systeme, Modellen von Betriebskonzepten und der Physik der Ausbreitung von Radarsignalen Es wird eine Abbildung bereitgestellt, die zeigt, wie ein ELEXSA-Informationsprodukt aufgebaut ist.Technische Probleme werden identifiziert und zukünftige Richtungen dieser Arbeit werden ebenfalls vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-24677-0_19 878e5b02ef78b796f1c56c11c14b46ec;de;;;3.1.;;;Portrait de l’animal comme sujet De nombreux philosophes angelsaxons de tradition analytique nient qu’un animal puisse penser, ou qu’on puisse accéder à sa subjectivité. Nous développons eine Antwortalternative. La légitimité d’une évaluation de l’intelligence de l’animal repose d’abord sur une familiarité acquise à son contact au cours d’une histoire partagée. Elle est propre à celui qui vit avec un animal mais aussi à l’expert qui a acquis une connaissance de l’animal à la suite d’une pratique professional élaborée C’est parce que nous interagissons avec l’animal comme s’il était un sujet que nous sommes prêts à lui accorder une intelligence anfällig de render intelligibles nos relations avec lui. L’intelligence d’un même animal n’est pas fixée une fois pour toutes. Elle est en partie dependante des dispositifs humains dans lesquels elle se trouve impliquée. La question d’une véritable zoologie se pose, qui étudie l’intelligence du vivant dans laspective des sciences sociales aussi bien que dans celle de la biologie.;-;-;-;https://link.springer.com/article/10.1007/BF03182082 c7e9b3b34376880e8229e715047ed494;de;;;3.1.;;;Ähnlichkeit zwischen mutmaßlichen ATP-Bindungsstellen in Landpflanzen-Plastiden-ORF2280-Proteinen und der FtsH/CDC48-Familie von ATPasen Plastide ORF2280-Proteine ​​aus fünf Landpflanzenarten weisen eine begrenzte Ähnlichkeit der Aminosäuresequenz mit einer Proteinfamilie auf, die die Hefe-Proteine ​​CDC48, SEC18, PAS1 und SUG1, drei Untereinheiten des 26 of;-;-;-;https://link.springer.com/article/10.1007/BF00351493 43616557ad857997bc4f0000daf8ef59;de;;;3.1.;;;Entwicklung des olfaktorischen und terminalen Systems bei Walen und Delfinen In der frühen Ontogenese von Säugetieren stammen die Chemorezeptorsysteme der Nase (olfaktorischer und akzessorischer olfaktorischer Komplex) zusammen mit dem Terminalissystem aus der olfaktorischen Plakode (Oelschläger und Buhl, 1985a, b, Buhl und Oelschläger, 1986, Oelschläger, 1988, 1989 ). Die embryonalen Chemorezeptorepithelien senden Axone und möglicherweise Schwann-Zellen an den rostrobasalen Teil des Telencephalons. Hier induzieren sie die Bildung eines Bulbus olfactorius, der sich in einer Ausstülpung der Telencephaluswand bemerkbar macht, und eines akzessorischen Bulbus olfactorius, der später zusammen mit dem N. vomeronasal und dem Jacobson-Organ reduziert werden kann. Das Terminalis-System, dessen funktionelle Implikationen jedoch nur unvollkommen bekannt sind, wird durch Neuroblasten repräsentiert, die von der olfaktorischen Plakode zum rostromedialen Ende der basalen telencephalen Hemisphäre neben dem Bulbus olfactorius wandern. Während die Terminalis-Neuroblasten zentrale Prozesse an die Hirnwand aussenden, bleiben sie offensichtlich mit dem dorsomedialen Teil der olfaktorischen Plakode verbunden. Im adulten Stadium von Säugetieren verbindet das Terminalissystem, das aus einem ganglionierten Fasergeflecht besteht, die olfaktorische und respiratorische Schleimhaut der Nasenscheidewand mit den rostralen und basalen Teilen des Vorderhirns. Die Neuronen gehören zu mindestens zwei Unterpopulationen von Zellen, die sich in der Größe ihrer Perikarya und Kerne unterscheiden. Ob diese beiden Neuronentypen mit Zellpopulationen identisch sind, die mit histochemischen und immunzytochemischen Methoden charakterisiert wurden (Bojsen-Møller, 1975, Wirsig und Leonard, 1986, Silverman und Krey, 1978, Oelschläger und Burda, dieser Band, Oelschläger und Northcutt, 1991, eingereicht ) ist jedoch nicht klar. Als Ganzes kann das Terminalissystem Arterien des basalen Vorderhirns sowie von Drüsen und Blutgefäßen in der Schleimhaut, die die Septumwand der Nasenhöhle auskleidet, innervieren (Johnston, 1914, Larsell, 1918, 1950). Ein Bruchteil der meist bipolaren terminalen Neuronen, die für das luteinisierende Hormon-Releasing-Hormon (LHRH) immunreaktiv sind, ist offensichtlich an der Etablierung und Reifung des Gehirn-Hypophysen-Gonaden-Kreislaufs beteiligt (Jennes und Stumpf, 1980, Schwanzel-Fukuda et al., 1981, 1985 , Oelschläger und Northcutt, 1991, eingereicht). Bei der Ontogenese von Ratten tritt die LHRH-Immunreaktivität zuerst in peripheren (nasalen) und zentralen (meningealen) Ganglienzellen des Nervus terminalis auf (Jennes und Stumpf, 1980, Schwanzel-Fukuda und Silverman, 1980, Schwanzel-Fukuda et al., 1985, 1988, Jennes, 1989). Dementsprechend scheint nach der Etablierung der Hypothalamohypophyse-Gonaden-Achse bei Ratte und Maus die Zahl der LHRH-Neuronen ab späten fetalen Stadien abzunehmen (Schwanzel-Fukuda et al., 1987, Schwanzel-Fukuda und Pfaff, 1989).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-9655-1_23 ac0015df1551e0564744cb5433883427;de;;;3.1.;;;Zebras und Pferde: Kann die medizinische Literatur zur Beantwortung klinischer Fragen verwendet werden? Kliniker sind sich bewusst, dass sie nicht alles wissen können, was sie wissen müssen, und dass medizinische Informationen Quantensprünge wachsen. Daher ist es wichtig, Ressourcen zu identifizieren, die Informationslücken schließen können, wenn sie entstehen. Literaturdatenbanken wie MEDLINE bieten Zugang zu Informationen, die Kliniker benötigen, aber nutzen Kliniker die Literatur zur Beantwortung ihrer Fragen? Diese evidenzbasierte Literaturübersicht untersucht den klinischen Einsatz von computergestützten Literaturdatenbanken.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4621-0_16 c15d4f03637d7404007cdf28cbe0ac61;de;;;3.1.;;;Konservierung von Kulturgütern aus Unterwasserstätten Die Unterwasserarchäologie ist der einzige Zweig der Feldarchäologie, der für seinen endgültigen Erfolg auf das Konservierungslabor angewiesen ist. Tatsächlich werden die Aktivitäten des Konservierungslabors in der Unterwasserarchäologie als Fortsetzung der Feldgrabungen angesehen, wobei die Erfassung grundlegender Daten sowie die Stabilisierung, Konservierung und Untersuchung des geborgenen Materials Hauptziele sind. Es werden gängige Verfahren zur Konservierung von Keramik, Glas, Knochen, Elfenbein, Holz, Leder und den verschiedenen Metallen diskutiert. Es werden Beobachtungen und Erkenntnisse zur Anwendbarkeit der unterschiedlichen Verfahren zur Konservierung verschiedener Materialien präsentiert.;-;-;-;https://link.springer.com/article/10.1023/A%3A1012420510516 601383d8b32f10241db895dfaf1b7a67;de;;;3.1.;;;Terminplanung und Zuweisung in High-Level-Synthese Die stetig steigende Integrationsdichte und Chipfläche wird in den nächsten 10-20 Jahren integrierte Schaltkreise mit mehr als einer Milliarde Transistoren realisieren. Solche komplexen integrierten Schaltkreise ermöglichen die Implementierung kompletter Systeme auf einem einzigen Chip. Diese Entwicklung führt einerseits zu einer zunehmenden Spezialisierung und andererseits zu einem immer stärker dominierten Anteil an den Konstruktionskosten. Die Folge dieser Entwicklung ist die verstärkte Standardisierung von Chipstrukturen in Form von Standardzellenschaltungen, Gate-Arrays, Sea-of-Gates oder die zunehmende Bedeutung von programmierbaren Gate-Arrays. Andererseits ist eine stärkere Tendenz zur Designautomatisierung zu beobachten. In diesem Zusammenhang gewinnt die sogenannte „High-Level“-Synthese immer mehr an Bedeutung. „High-Level“-Synthese beschreibt die Automatisierung des Designs oberhalb der Logikebene. Während die heute übliche Werkzeugunterstützung auf der logischen Ebene ansetzt, wird unter „High-Level“-Synthese die (automatische) Generierung einer Strukturbeschreibung auf Registertransferebene verstanden, die aus einer algorithmischen Verhaltensbeschreibung resultiert. Die Vorteile dieser fortschrittlichen Konstruktionsunterstützung sind die geringen Konstruktionskosten und weniger Konstruktionsfehler.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-3966-7_15 cc2ecaccd0c53186e9574ead16fcfad0;de;;;3.1.;;;Der Messie immer schon in uns — Kreuz/Quer zur Kultur oder jenseits des Gegenstandes Stirb in zunehmendem Maß geführten Diskussionen über das gegenständliche Phänomen an jenem entscheidenden Punkt der Unsicherheit sterben Frage, ob sterben spezifische Verhaltensmuster jener Menschen, sterben von Sich als Messie sprechen, Eine Krankheit im Sinne einer eigenständigen nosologischen Einheit darstellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-211-76520-3_16 eaa378120f6a6ff4d16f3f9fbe10d83f;de;;;3.1.;;;"Ein Ansatz zur halbautomatischen Segmentierung der Lungenregion aus 3D-Farbbildern des gefrorenen menschlichen Körpers Die Segmentierung innerer Organe aus medizinischen 3D-Bildern wird von vielen Forschern der Medizintechnik zunehmend in den Fokus gerückt. Dieses Papier schlägt einen neuen Ansatz vor, um die Lungenregion aus dem 3D-Farbbild des gefrorenen menschlichen Körpers (sichtbarer menschlicher Mann) zu extrahieren. Eine der effektivsten Segmentierungsmethoden für die medizinischen Bilder basiert auf dem Watershed-Algorithmus. Im Allgemeinen umfasst diese Methode die folgenden Schritte. Zuerst erkennen wir den Rand des Originalbildes. Als nächstes wenden wir den Watershed-Algorithmus auf das Bild an. Wasserscheiden-Algorithmussegmente bilden zu viele kleine Regionen ab, daher fassen wir diese kleinen Regionen normalerweise in einigen Gruppen zusammen. Um Regionen zusammenzuführen, werden einige Ähnlichkeitsmaße verwendet. Schließlich wählen wir die Zielgruppe aus. Aber nur mit diesen Schritten ist die ausgewählte Gruppe nicht gut. In unserem Fall (wir verwenden den euklidischen Abstand im RGB-Farbraum für die Messung) umfasst die Gruppe einige Regionen außerhalb der Zielregion. Dies liegt daran, dass die Voxel kleiner Bereiche eine so ähnliche Farbe haben, dass der Zusammenführungsschritt die kleinen Bereiche unnötigerweise kombiniert. Beispielsweise sind die überlagerten Regionen Leber, Muskel, Herz, Bronchien, Niere und einige andere Regionen. Unser Ziel ist es, diese unnötigen Regionen aus der ausgewählten Gruppe herauszuschneiden und die Zielregion der Lunge zu erhalten. Um eine Überextraktion zu vermeiden, führen wir drei weitere Schritte ein. Sie sind „Kantenmarkierung“, „Rekonstruktion (Schrumpfen, Auswählen und Erweitern) basierend auf kleinen Regionen“ und „Graphenpartitionierungsalgorithmus“. ""Edge-Marking"" ist der Prozess, der zwei kleine Regionen trennt, indem Grenzvoxeln zwischen ihnen starke Kantenmerkmale verliehen werden. „Rekonstruktion basierend auf kleinen Regionen“ und „Graphpartitioning“ sind die Prozesse, die die Regionen trennen, die mit schmalen Brücken verbunden sind. Durch Hinzufügen dieser drei Prozesse für die Region werden andere Regionen als Leber- und Nierenregionen von der Lungenregion getrennt. Dieses Papier beschreibt diese Prozesse und experimentellen Ergebnisse.";-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-36841-0_606 939749128aa450d538121cec2c405010;de;;;3.1.;;;Image Fusion-Framework In diesem Artikel schlagen wir ein Bildfusions-Framework vor, das die Bildregistrierung, die Demonstration verschiedener Bildfusionstechniken und eine neue Qualitätsmetrik zur Bewertung der Leistung verschiedener Fusionsalgorithmen umfasst. Bildfusion ist ein Prozess, bei dem zwei oder mehr Bilder derselben Szene kombiniert werden, um das informativere Bild zu erhalten. Registrierung, die Koordinatentransformation eines Bildes in Bezug auf ein anderes ist der Vorverarbeitungsschritt für den Fusionsprozess, wir schlagen einen Algorithmus zur automatischen Registrierung von zwei Bildern vor, die durch ein affines Bewegungsmodell auf recheneffiziente Weise mit normalisierten gegenseitigen Informationen (NMI) in Beziehung gesetzt werden . Registrierte Bilder werden mit Fusionsalgorithmen wie Pyramiden-, Wavelet- und Hauptkomponentenanalyse (PCA) fusioniert. Wir schlagen neue Qualitätsmetriken vor und analysieren die Leistung von Fusionsalgorithmen für eine Vielzahl von Datensätzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-19542-6_128 60d8afe28f8c622284826473a1685c1b;de;;;3.1.;;;Forschung zur hybriden Datenverifikationsmethode für Bildungsdaten Mit der Entwicklung der Bildungsinformatisierung wurde das Problem der Datenqualität zum Hauptproblem, das die Entwicklung der Bildungsinformatisierung einschränkt. Besonders wichtig ist es, die Datenqualität im Lebenszyklus der Daten auf intelligente Weise zu managen und zu verbessern. Dieses Papier stellt ein Datenverifikations-Framework vor, das Bildungsdaten basierend auf einer Regelbasis orientiert, und gibt die hybride Datenverifikationsmethode an. Die Methode wird auf die Datenbankplattform der Bildungsstatistik-Stiftung im Datenverifizierungsprozess angewendet und verbessert die Genauigkeit der Daten.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-13-2203-7_6 fd6b08970d16f3db3b06dd1123323b71;de;;;3.1.;;;Neue Methoden des Informationszugangs für Gesundheitsverbraucher: Erfüllung der Anforderungen der britischen Patientencharta Am 30. Oktober 1991 kündigte der britische Gesundheitsminister die neue Patientencharta der Regierung an. Die Charta war von vielen Verbraucher- und Berufsgruppen mit Spannung erwartet worden. Auch Bibliothekare und Informationsspezialisten des Gesundheitswesens erwarteten die Einführung mit großem Interesse. Es war unvermeidlich, dass eine verbesserte Information der Patienten ein Schlüsselelement der Charta sein und eine neue und aufregende Gelegenheit für diejenigen schaffen würde, die bereit sind, darauf zu reagieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-1668-8_55 b3ee6957d592bbb730955b61c6a90306;de;;;3.1.;;;Computergestütztes Vorstellungsgespräch mit aktiven Fragebögen Computergestützte Befragungssysteme haben im Vergleich zu Papier-Bleistift-Umfragen verschiedene Vorteile. Die Engine zur Bearbeitung von Fragebögen sollte jedoch bei Änderung des Fragebogens neu programmiert werden, da ihre Bearbeitungslogik im System fest codiert ist. Daher hängt die Engine für die Verarbeitung von Fragebögen von den Fragebögen ab. Diese Studie macht die Engine zur Bearbeitung von Fragebögen unabhängig von Fragebögen unter Verwendung eines aktiven Dokumentenmodells. In diesem Modell können Maschinen Dokumente mit in den Dokumenten festgelegten Regeln verarbeiten. Der aktive Fragebogen, bei dem es sich um ein aktives Dokument handelt, besteht aus Fragen, Kontrolllogik und einer Wissensdatenbank. Unter diesen drückt die Kontrolllogik eine Methode zum Verarbeiten von Fragen in einem ausführbaren XML aus. In diesem Papier schlagen wir einen Rahmen für die Verarbeitung aktiver Fragebögen vor und beschreiben seine Implementierung.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15470-6_42 eee8a62f59022dc2c4679722303a3b0d;de;;;3.1.;;;Ein evolutionärer Algorithmus mit vielen Zielen, der auf Zerlegung mit dynamischer Ressourcenzuweisung für unregelmäßige Optimierung basiert Das Mehrzieloptimierungsproblem ist in zahlreichen Bereichen aufgetreten, wie beispielsweise bei der Gestaltung der Kopfform von Hochgeschwindigkeitszügen, der Erkennung überlappender Gemeinschaften, der Energieverteilung und der Bildung unbemannter Luftfahrzeuge. Um solche Probleme anzugehen, konzentrieren sich aktuelle Ansätze hauptsächlich auf Probleme mit der regulären Pareto-Front, anstatt die irreguläre Pareto-Front zu lösen. In Anbetracht dieser Situation schlagen wir einen evolutionären Algorithmus mit vielen Zielen vor, der auf einer Dekomposition mit dynamischer Ressourcenzuweisung (MaOEA/D-DRA) für irreguläre Optimierung basiert. Der vorgeschlagene Algorithmus kann Rechenressourcen dynamisch verschiedenen Suchbereichen entsprechend unterschiedlicher Formen der Pareto-Front des Problems zuweisen. Im Suchprozess werden eine evolutionäre Population und ein externes Archiv verwendet, und aus dem externen Archiv extrahierte Informationen werden verwendet, um die evolutionäre Population in verschiedene Suchregionen zu leiten. Die evolutionäre Population entwickelt sich mit dem Tchebycheff-Ansatz, um ein Problem in mehrere Teilprobleme zu zerlegen, und alle Teilprobleme werden kollaborativ optimiert. Das externe Archiv wird mit der Methode der schichtbasierten Dichteschätzung aktualisiert. Der vorgeschlagene Algorithmus wird mit fünf modernen evolutionären Algorithmen mit vielen Zielen verglichen, die eine Vielzahl von Testproblemen mit unregelmäßiger Pareto-Front verwenden. Experimentelle Ergebnisse zeigen, dass der vorgeschlagene Algorithmus diese fünf Algorithmen in Bezug auf Konvergenzgeschwindigkeit und Diversität der Populationsmitglieder übertrifft. Im Vergleich zum Ansatz mit gewichteten Summen und dem Penalty-basierten Boundary-Internection-Ansatz gibt es eine Leistungsverbesserung nach Integration des Tchebycheff-Ansatzes in den vorgeschlagenen Algorithmus.;-;-;-;https://link.springer.com/article/10.1631/FITEE.1900321 537a85f334ec4ec376b5ce4ab98e62af;de;;;3.1.;;;Bewertung der Leistung des CEOP-Modells mit den Beobachtungsdaten vom Tongyu-Referenzstandort, semiaride Region Chinas Anhand von Daten, die im Coordinated Enhanced Observing Period (CEOP)-Projekt archiviert wurden, wurden Vergleiche zwischen Feldbeobachtungen, die am Referenzstandort Tongyu CEOP in China durchgeführt wurden, und den Modellergebnissen von 2003 bis 2004 durchgeführt, insbesondere die Zeitreihen und Tageszyklen des Niederschlags , oberflächennahe Temperatur, Lufttemperatur sowie latente und fühlbare Wärmeströme werden dargestellt. Die Ergebnisse zeigen, dass die Fähigkeit der Modellsimulationen zu den Temperaturen, wie Lufttemperatur und Oberflächentemperatur, im Vergleich zu den Simulationen zu den Landoberflächenwärmeströmen und den Niederschlägen am Standort Tongyu zufriedenstellend ist. Zudem zeigt das Multi-Modell-Ensemble über alle Items bessere Ergebnisse im Vergleich zu den Beobachtungen. Die Unterschiede der Niederschlagsmengen auf den zwischenjährlichen und saisonalen Zeitskalen zwischen den Modellergebnissen und Beobachtungen deuten darauf hin, dass einige der Modelle in der Lage sind, die größere Niederschlagsmenge im Jahr 2003 als im Jahr 2004 zu reproduzieren, was mit dem Trend der Beobachtungen übereinstimmt am Standort Tongyu, obwohl die mittleren quadratischen Fehler der Modellausgaben, die aus den täglichen Niederschlägen in den Jahren 2003 und 2004 berechnet wurden, noch größer sind als die tägliche Niederschlagsmenge. Die geringen Fähigkeiten in der quantitativen Simulation des Niederschlags weisen darauf hin, dass der Mangel der Modelle bei der Simulation der Oberflächenwärmeströme eng mit den Verzerrungen der Niederschlagssimulationen zusammenhängt. In Bezug auf die jahreszeitlichen Zeitreihen des Niederschlags gibt es eine Zunahme im Sommer, begleitet von dem gleichen erhöhten Trend des latenten Wärmestroms und dem abnehmenden Trend des sensiblen Wärmestroms aus den Insitu-Beobachtungen.;-;-;-;https://link.springer.com/article/10.1007/s13143-010-0028-x 27f18f6ea7c68a457519c44b3ad49dd3;de;;;3.1.;;;Ein neuer Datenassoziationsalgorithmus mit Wahrscheinlichkeitshypothesendichtefilter Der Ansatz der Wahrscheinlichkeitshypothesendichte-(PHD)-Filterung hat seine Vorteile beim Verfolgen einer zeitveränderlichen Anzahl von Zielen gezeigt, selbst wenn Rauschen, Störechos und Fehldetektion vorhanden sind. Für ein lineares Gaussian Mixture (GM)-System hat der PHD-Filter eine geschlossene Rekursion (GMPHD). Der PHD-Filter kann jedoch die Trajektorien von Mehrfachzielen nicht schätzen, da er nur eine identitätsfreie Schätzung von Zielzuständen liefert. Bestehende Datenassoziationsmethoden bleiben vor allem deshalb eine große Herausforderung, weil sie rechenintensiv sind. In diesem Papier haben wir einen neuen Datenassoziationsalgorithmus vorgeschlagen, der den GMPHD-Filter verwendet, der die hohe Rechenlast erheblich verringert und in der Zwischenzeit die Verfolgung von Multi-Target-Trajektorien effektiv durchführt.;-;-;-;https://link.springer.com/article/10.1007/s11767-010-0304-0 96cddb50156a8233020dc97c803932a8;de;;;3.1.;;;Geosensor-Datenabstraktion für Umgebungsüberwachungsanwendungen Umweltbeobachtungsanwendungen dienen der Überwachung von Phänomenen mit heterogenen Sensordatentypen und der Bereitstellung abgeleiteter und oft integrierter Informationen. Um eine so große Vielfalt unterschiedlicher Sensoren, sowohl in Größe als auch Art und Datenvolumen, effektiv zu handhaben, schlagen wir eine Geosensor-Abstraktion für große Geosensor-Netzwerke vor. Unser SGSA (Slope Grid for Sensor Data Abstraction) stellt gesammelte Daten in einzelnen rasterbasierten Schichten dar und ermöglicht die Zusammenfassung der gemessenen Daten in verschiedenen integrierten Rasterschichten. Innerhalb jeder Zelle wird ein Steigungsvektor verwendet, um den Trend der beobachteten Sensordaten darzustellen. Diese Steigung wird als Vereinfachungsfaktor für die Verarbeitung von Abfragen über mehrere Sensortypen verwendet. Um dynamische Sensordaten zu handhaben, unterstützt das vorgeschlagene Abstraktionsmodell auch eine schnelle Datenaktualisierung unter Verwendung einer Abbildungstabelle. Dieses Modell kann als Datenrepräsentationsmodell in verschiedenen Geosensor-Netzwerkanwendungen verwendet werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-87473-7_11 1e178947d1314f091a8256d390a4cdb5;de;;;3.1.;;;Der spezifische Charakter von Grenzfehlern in der Nahbereichsphotogrammetrie Die Nahbereichsphotogrammetrie dient der Bestimmung der Form und Größe des Objekts anstelle seiner absoluten Position. Daher konnte eine Verschiebung und Drehung des photogrammetrischen Modells des Objekts, die durch ganze geodätische, fotografische und photogrammetrische Verfahren in der Nahbereichsphotogrammetrie verursacht wird, zunächst nicht berücksichtigt werden. Es ist jedoch notwendig, alle Gründe, die die Verformungen der Form und Größe verursachen, zu analysieren und die entsprechenden Theorien und Gleichungen darzustellen. Diese Situation unterscheidet sich natürlich stark von der herkömmlichen Topophotogrammetrie. In diesem Beitrag werden einige spezifische Merkmale von Grenzfehlern in der Nahbereichsphotogrammetrie detailliert vorgestellt, darunter Grenzfehler für die Kalibrierung von Innenelementen für Nahbereichskameras, die Grenzfehler relativer und absoluter Orientierungen in Nahbereichskameras, der relativen und absoluten Orientierungen in photogrammetrischen Verfahren im Nahbereich und die Grenzfehler der Kontrollarbeiten in der Photogrammetrie im Nahbereich. Eine theoretische Gleichung der Kalibrierungsgenauigkeit für Nahbereichskameras wird angegeben. In Bezug auf die drei Beispiele in diesem Papier ändert sich ihre theoretische Genauigkeitsanforderung der inneren Elemente der Kamera im Bereich von ±(0,005–0,350) mm. Diese Diskussion ermöglicht es uns, die Genauigkeitsanforderungen bei der Kalibrierung für ein Objekt mit kleinem Relief zu reduzieren, aber die Kameraplattform befindet sich in einer Umgebung mit starken Vibrationen. Eine weitere theoretische Gleichung des relativen RMS von Basislinien (;-;-;-;https://link.springer.com/article/10.1007/BF02826924 46cad08c45c949a0f4d775aa20844d6f;de;;;3.1.;;;Ein neues adaptives verformbares Modell mit Gradientenvektorfluss In diesem Artikel haben wir einen neuen Ansatz zur adaptiven Schätzung der verformbaren Kontur des Gradientenvektorflusses (GVF) basierend auf der B-Spline-Darstellung vorgeschlagen und demonstriert. Eine Erweiterung des verformbaren GVF-Modells wird vorgestellt, und die Methode basiert auf dem verbesserten dynamischen GVF-Kraftfeld, das den Erfassungsbereich und die Konvergenzgeschwindigkeit der externen Kraft erhöhen kann. Dann wird eine spezifische Strategie des adaptiven Prozesses zum Einfügen von verformbaren Konturknoten basierend auf der Passgenauigkeit vorgeschlagen, und dieser Ansatz kann automatisch Knoten in der Konturkurve gemäß der Rekonstruktionsfehleranalyse hinzufügen. Der verbesserte iterative Algorithmus kann die iterative Anzahl reduzieren und die Anpassungsgenauigkeit und -effizienz erhöhen. Schließlich demonstrieren die in diesem Papier beschriebenen Experimente mithilfe von Computersimulationen ein effizientes Verfahren und eine gute Leistung des Ansatzes.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-18129-0_74 29994ce7b4cec6ff19def96833ae4baf;de;;;3.1.;;;Projektionsprofilbasierter Skew-Schätzalgorithmus für JBIG-komprimierte Bilder Ein neuer projektionsprofilbasierter Skew-Schätzalgorithmus wird vorgestellt. Es extrahiert Bezugspunkte, die Objekten auf einer Seite entsprechen, indem ein JBIG-komprimiertes Bild dekodiert wird. Diese Punkte werden entlang paralleler Linien in ein Akkumulatorfeld projiziert. Der Projektionswinkel innerhalb eines Suchintervalls, der die Ausrichtung der Bezugspunkte maximiert, ist der Schräglaufwinkel. Dieser Algorithmus und drei weitere Algorithmen wurden getestet. Die Ergebnisse zeigten, dass der neue Algorithmus vergleichbar mit den anderen Algorithmen war. Das progressive JBIG-Codierungsschema reduziert die Auswirkungen von Rauschen und Grafiken, und die Genauigkeit des neuen Algorithmus bei ungefilterten 75-dpi-Bildern und 300-dpi-gefilterten Bildern war ähnlich.;-;-;-;https://link.springer.com/article/10.1007/s100320050005 6c9a661e56fad52749636483cdfb6162;de;;;3.1.;;;Experimentelle Untersuchung von Prognoseverfahren basierend auf Datenkompressionsalgorithmen Wir schlagen vor und untersuchen experimentell eine Methode zur Konstruktion von Vorhersagealgorithmen basierend auf Datenkompressionsverfahren (oder den sogenannten Archivern). Am Beispiel der Vorhersage von Wechselkursen zeigen wir, dass die Genauigkeit der so erhaltenen Vorhersagen relativ hoch ist.;-;-;-;https://link.springer.com/article/10.1007/s11122-005-0011-9 ecbe7f10e1a304f5483d2fa79ad52fc3;de;;;3.1.;;;Die Georg-Agricola-Gesellschaft zur Förderung der Geschichte der Naturwissenschaften und der Technik Gegründet wurde die Georg-Agricola-Gesellschaft ursprünglich für ein einziges, festumrissenes Projekt: sterben Anfertigung einer neuen deutschen Übersetzung von den zwölf Büchern über das Berg- und Hüttenwesen, das 1556 in lateinischer Sprache erschienene Lebenswerk des Arztes, Humanisten und Naturforschers –1555).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-95796-3_6 aecea08c841a3af27d4490520d29a2a1;de;;;3.1.;;;Die späteozäne „Whiskey Creek“-Methanablagerung (westlicher Staat Washington) Große Kalksteinfelsen erodieren von einem Erdrutsch westlich der Mündung des Whisky Creek, Clallam County, Washington State. Diese Felsbrocken bestehen aus Mikrit, Karbonatzement und dicht gepackten fossilen Muscheln. Schluffstein im Erdrutsch und auf der Oberfläche der Felsbrocken weist darauf hin, dass diese Kalksteine ​​aus dem unteren Teil der Pysht-Formation stammen. Die Molluskentaxa und ihr lokalisiertes Vorkommen im Kalkstein sind typische Merkmale alter chemosymbiotischer Cold-Seep-Gemeinschaften. Formainiferen sowohl aus dem Schluffstein als auch aus dem Kalkstein weisen darauf hin, dass die Ablagerung im späten Eozän in Wassertiefen zwischen 500 und 1.500 m stattfand. Lipidbiomarker, insbesondere isoprenoide Kohlenwasserstoffe und Fettsäuren, mit δδ;-;-;-;https://link.springer.com/article/10.1007/BF02667541 6dc734749f58e2f9e97dbdd2722255f3;de;;;3.1.;;;Alice Northrops Typusexemplare für die Bahama-Flora 1902 veröffentlichte Alice Northrop eine kommentierte Checkliste der Pflanzen, die sie und ihr Mann John 1890 auf den Bahamas gesammelt hatten. Sie enthielt 22 neue Artenbeschreibungen und 7 neue Arten, die an anderer Stelle veröffentlicht wurden. Sie erklärte: „Die Typusexemplare befinden sich im Herbarium der Columbia University [jetzt in NY]“, mit doppelten Sets in anderen Herbarien. William T. Gillis (1933–1979) fand im Herbarium des Field Museum (F) in Chicago eine Reihe von Exemplaren der Northrops, die als Typen bezeichnet wurden. Als Gillis die F-Exemplare mit Illustrationen in Northrops Veröffentlichungen verglich, kam er zu dem Schluss, dass die meisten Beschreibungen und Illustrationen von diesen Exemplaren stammten, von denen er viele als Holotypen annotierte. Kürzlich habe ich beide Exemplare untersucht und mit Northrops Veröffentlichungen verglichen. Während viele der F-Exemplare tatsächlich für die Beschreibungen und Illustrationen der neuen Art verwendet wurden, erlaubt der aktuelle International Code of Botanical Nomenclature (ICBN) keine Neuzuweisung von Typenbezeichnungen. Ich schließe, dass Northrops Typusexemplare derzeit in NY Holotypen, Isotypen, Syntypen oder Lektotypen sind und dass die von ihr verteilten Exemplare Syntypen, Isotypen oder Isolektotypen sind.;-;-;-;https://link.springer.com/article/10.1663/0007-196X%282005%29057%5B0088%3AANTSFT%5D2.0.CO%3B2 f37fe9fcaf8de395cec6c98e37eca29e;de;;;3.1.;;;"„Leda und der Schwan“ als ikonisches Gedicht ""Noch ein Wort zu 'Leda und der Schwan' ist drei zu viel"" wurde von Kritikern entschuldigend oder trotzig angestimmt, die kurz davor stehen, dreitausend zu begehen. Die Kürze, Kraft, Zweideutigkeit von Yeats' Gedicht fordert ständig heraus, also schließe ich mich auch ihnen an. Ich werde die Namen dieser riesigen Horde nicht einstudieren: Stehen sie nicht bis in die dritte Generation in den Bibliographien und in den Fußnoten? Es wäre jedoch arrogant, nicht auf jene Kritiker zu verweisen, die meine eigene Reaktion entscheidend geprägt haben.";-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-05324-7_4 af660205a8f2f290eb856e4283da7bfc;de;;;3.1.;;;Der erste fossile Vogel des Känozoikums aus Venezuela Die ersten känozoischen Überreste von Vögeln aus Venezuela werden beschrieben. Das Material umfasst einen zugehörigen rechten Tarsometatarsus und Tibiotarsus aus dem frühesten Pliozän der Codore-Formation im Nordwesten Venezuelas. Der fossilführende Horizont repräsentiert eine deltaische Paläoumgebung. Die Elemente sind lang und schmal, und das Vorhandensein einer kreisförmigen Incisura intercondylaris wird proximal von einem prominenten und zentral gelegenen Tuberculum m begrenzt. tibialis anticus am Tibiotarsus, ermöglicht eine sichere Weiterleitung an die Ciconiidae (Störche). Die Elemente stimmen in Morphologie und Größe sehr gut mit den Vorhandenen überein;-;-;-;https://link.springer.com/article/10.1007/BF02988402 26664a6c2b091670d4949a430efc34aa;de;;;3.1.;;;Holozäne Paläozeanographie im südöstlichen Venezuela-Becken, Karibisches Meer Abundanzvariationen benthischer Foraminiferen in vier Kastenkernen (3775–4447 m Wassertiefe) aus dem südöstlichen Venezuela-Becken spiegeln die paläoklimatische Geschichte des Beckens im Holozän wider. Es gibt keine signifikanten, aber einige subtile paläoklimatische Veränderungen während des Holozäns. Insgesamt schwanken die folgenden neun dominanten kalkhaltigen benthischen Foraminiferen-Arten im Kern, zeigen aber keine offensichtlichen stratigraphischen Trends:;-;-;-;https://link.springer.com/article/10.1007/BF02910416 bb97a42c8f4d1eff024fed22ff2448cd;de;;;3.1.;;;Der saisonale Zeitpunkt der Reproduktion: Die Sektion von 1.941 Exemplaren lieferte Daten zu Fortpflanzungszyklen in sechs Gattungen von Skinken und drei Gattungen von Agamen aus der Alligator Rivers Region des australischen Northern Territory. Vergleichende Daten über Eidechsen aus der gemäßigten Zone wurden gesammelt, indem Exemplare von drei Gattungen seziert und veröffentlichte Studien überprüft wurden. Das Klima der Alligator Rivers Region weist gleichmäßig hohe Temperaturen, aber extrem saisonale Niederschläge auf. In Analogie zu Studien zu tropischen Herpetofaunas in anderen Teilen der Welt stellten wir die Hypothese auf, dass die meisten Arten während der Regenzeit brüten würden.;-;-;-;https://link.springer.com/article/10.1007/BF00790016 003a851ac8b6d97d90e190fb9114e09a;de;;;3.1.;;;Oberflächenneigung (die Richtung der Neigung): Eine vernachlässigte psychophysische Variable Die Oberflächenneigung (der Winkel zwischen der Sichtlinie und der Oberflächennormalen) ist eine wichtige psychophysische Variable. Der Neigungswinkel erfasst jedoch nur einen der beiden Freiheitsgrade der Oberflächenorientierung, der andere ist der;-;-;-;https://link.springer.com/article/10.3758/BF03202860 f9c7d5e9f23e794eaecd0cbbf7806b08;de;;;3.1.;;;Onkopanel-übergreifende Studie zeigt eine hohe Sensitivität und Genauigkeit mit einer analytischen Gesamtleistung in Abhängigkeit von den genomischen Regionen Die gezielte Sequenzierung mit Oncopanels erfordert umfassende Bewertungen der Genauigkeit und Nachweisempfindlichkeit, um die analytische Validität zu gewährleisten. Durch die Verwendung von Referenzmaterialien, die durch die von der US-amerikanischen Food and Drug Administration geleitete Projektphase 2 (SEQC2) zur Sequence Quality Control gekennzeichnet sind, führen wir eine plattformübergreifende Multi-Labor-Bewertung von acht Pan-Cancer-Panels durch, um Best Practices für die Oncopanel-Sequenzierung zu bewerten.;-;-;-;https://link.springer.com/article/10.1186/s13059-021-02315-0 32842f1741122c9a4359432166ee969a;de;;;3.1.;;;Alexander Agassiz (1835-1910) und die finanzielle Unterstützung der Ozeanographie in den Vereinigten Staaten Roys Beobachtung (1979), dass „Wissenschaftshistoriker festhalten, dass großartige Wissenschaft auf Schlüsselpersonen, kleinen Gruppen oder einer besonderen ‚Gruppe von Menschen‘ aufgebaut ist, in Lewis Thomas’ glücklichem Satz, nicht auf ausgeklügelten Vorschlägen“ trifft im großen Sinne zu die Beiträge von Alexander Agassiz und seiner akademischen Nachkommen zur Ozeanographie des späten 19. und frühen 20. Jahrhunderts.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-8090-0_9 af9845c950b2751618ee532100e753c2;de;;;3.1.;;;Bioinformatik Mit Fortschritten in der Technologie wurde das menschliche Verständnis der DNA in den 1950er Jahren allmählich etabliert. Die groß angelegten und Hochdurchsatz-Sequenzierungstechnologien sind seit den 1990er Jahren auf dem Vormarsch und vertiefen unser Verständnis des genetischen Materials des Lebens. Infolgedessen generieren diese Technologien riesige Mengen an biologischen Daten, die über die analytischen Fähigkeiten des Menschen hinausgehen. Das Datenwachstum ist explosiv. Es ist eine große Herausforderung für den heutigen Wissensstand, bis zu 100.000 menschliche Gene zu speichern und zu verwalten und nützliche Informationen zu finden. Wie wir Informationen nutzen, ist ein schwieriges Problem. Die Lösung dieser Probleme bringt viele interdisziplinäre Herausforderungen mit sich. Neben moderner Biologie sind Mathematik, Statistik und Informatik gefragt. Die Überschneidung dieser Bereiche führte zur Entstehung der Bioinformatik.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1037-0_5 74adbb8f167ceadf7fb31f344786b2c8;de;;;3.1.;;;NMACA-Ansatz zum Erstellen eines sicheren Nachrichtenauthentifizierungscodes Sichere Speichersysteme sollten die Integrität und Authentifizierung von langfristig gespeicherten Informationen berücksichtigen. Wenn Informationen über Kommunikationskanäle übertragen werden, können verschiedene Arten digitaler Informationen wie Dokumente, Bilder und Datenbanktabellen dargestellt werden. Die Authentizität solcher Informationen muss überprüft werden, insbesondere wenn sie über Kommunikationskanäle übertragen werden. Techniken zur Authentifizierungsprüfung werden verwendet, um zu überprüfen, ob die Informationen in einem Archiv authentisch sind und nicht absichtlich oder böswillig verändert wurden. Neben der Erkennung bösartiger Angriffe identifiziert die Überprüfung der Integrität auch Datenbeschädigungen. Der Zweck des Message Authentication Code (MAC) besteht darin, Nachrichten zu authentifizieren, wobei MAC-Algorithmen verschlüsselte Hash-Funktionen sind. In den meisten Fällen verwenden MAC-Techniken iterierte Hash-Funktionen, und diese Techniken werden als iterierte MACs bezeichnet. Solche Techniken verwenden normalerweise einen MAC-Schlüssel als Eingabe für die Komprimierungsfunktion, und dieser Schlüssel ist an der Komprimierungsfunktion beteiligt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17610-4_34 343a719c8685b68f667917c8a1c37f85;de;;;3.1.;;;150 Jahre Bundesstaat — 150 Jahre Industriekultur 1997 feiert die Schweiz «150 Jahre Schweizerbahnen», Mobilitäts- und Alptransitkussionen sind politisch einmal mehr wichtig geworden. 1998 findet das Jubiläum 150 Jahre Bundesstaat inmitten einer wirtschaftlichen und gesellschaftlichen Umbruchszeit statt: Wie sieht die Schweiz in 150 Jahren aus?;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-8786-1_2 de524f4404a7867c99f5a9a1deac6b75;de;;;3.1.;;;Grobe Sets als Werkzeug zur Klassifizierung von Audiosignalen Es wird eine Anwendung von RS-Wissensentdeckungsverfahren zur automatischen Klassifizierung von Musikinstrumentenklängen vorgestellt. Außerdem bieten wir grundlegende Informationen zur Akustik von Musikinstrumenten. Da die digitale Schallplatte sehr viele Daten enthält, wird die Redundanz der Daten durch Parametrierung festgelegt. Die aus Klängen von Musikinstrumenten extrahierten Parameter werden diskutiert. Wir verwenden die Quantisierung als Vorverarbeitung für die Wissensentdeckung, um die Anzahl der Parameterwerte zu begrenzen. Als nächstes zeigen wir beispielhafte Verfahren zur Quantisierung von Parameterwerten. Abschließend werden Experimente zur Audiosignalklassifizierung mittels Grobsatzansatz vorgestellt und die Ergebnisse diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/BFb0095123 20be3a36997e6c84dc0aeed2868bd285;de;;;3.1.;;;Semantik digitaler Netze mit unbestimmten Modulen Wir diskutieren ein formales Modell, das auf Datenfluss basiert und unter anderem für das High-Level-Digital-Hardware-Design verwendbar ist. Eines unserer Ziele ist es, diesem Modell eine denotationale Semantik zu geben, die unbestimmte Module enthält. Obwohl bekannt ist, dass die denotationale Semantik für Netzwerke, die nur bestimmte Module enthalten, einfach als eine Zusammensetzung von Stromfunktionen ausgedrückt werden kann, hat sich dieser Ansatz zuvor für Netzwerke mit unbestimmten Modulen als inakzeptabel erwiesen. Unser Ansatz besteht darin, Kompositionsregeln zu entwickeln, die auf der Modellierung eines Netzwerks durch die Menge seiner möglichen Verhaltensweisen basieren, d. Eine Folge solcher Ereignisse heißt a;-;-;-;https://link.springer.com/article/10.1007/BF01660035 ae698f87d0f6b665145a132a62b09645;de;;;3.1.;;;Politik zur Landgewinnung und Umweltveränderungen im Nordwesten Chinas während der Qing-Dynastie Nordwestchina, einschließlich der Provinzen Shaanxi, Gansu, Ningxia und ein kleiner Teil der Autonomen Region Innere Mongolei, war nicht nur eines der am frühesten entwickelten Gebiete in der Geschichte, sondern auch einer der ökologisch empfindlichsten Gürtel. Die traditionell nachhaltige Landgewinnungs- und Anbaupolitik zur Entwicklung einer Agrarwirtschaft, die zu verschiedenen Zeiten der Qing-Dynastie von den Verwaltungen übernommen und umgesetzt wurde, steigerte die Landwirtschaft und die Viehzucht erheblich. Dies führte jedoch zu Ungleichgewichten in der ursprünglich fragilen ökologischen Umwelt. Die negativen Auswirkungen wie die rasch zunehmende Wüstenbildung, zunehmende Wasser- und Bodenerosion, erhöhte Produktionskosten, erhöhte Investitionen, Teufelskreise und ein Versagen der Wirtschaft können als Lehren für die heutige Entwicklung dienen.;-;-;-;https://link.springer.com/article/10.1007/s11462-006-0006-0 d5d6c4d28ade86eed479018177434b6c;de;;;3.1.;;;Fixierung und morphologische Langlebigkeit Oft sind einige der ältesten Morpheme einer Sprache Affixe, teilweise weil sie eine spätere Stufe in natürlichen Grammatikisierungsprozessen darstellen. Im Laufe der Zeit können lexikalische Elemente zu grammatikalischen Markern werden und schließlich einen Teil ihrer formalen Substanz verlieren. Aber was ist mit dem diachronen Fixierungsprozess selbst? Hat ein Übergang vom Status des freien Wortes zum gebundenen Affix einen Einfluss auf die Lebensdauer eines einzelnen Morphems? Die Geschichte bestimmter grammatikalischer Systeme weist darauf hin, dass der Prozess der Affixierung die Langlebigkeit zwar erheblich beeinflussen kann, jedoch in radikal andere Richtungen. Die Wirkungsrichtung hängt von der Funktion des jeweiligen Morphems ab.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-3714-2_3 5ea5b2f6460d0c8078a94bf91a1f5a8d;de;;;3.1.;;;Problem der Parallelfluss-Shopplanung mit Quantenalgorithmus Der Quantenalgorithmus wird auf das Parallel-Flow-Shop-Scheduling-Problem angewendet, das die Merkmale der parallelen Maschinenplanung und der Flow-Shop-Planung hat. In diesem Papier wird die Quantenbit-Codierungsstrategie des Quantenalgorithmus für ein allgemeines Parallel-Flow-Shop-Problem mit dem Ziel entwickelt, Makespan zu minimieren. Alle Scheduling-Probleme werden durch die Quantenbits repräsentiert. Dieser Algorithmus wird an einigen zufällig generierten Problemen mit unterschiedlichen Skalengrößen getestet und mit GA-Algorithmen verglichen. Berechnungsergebnisse zeigen, dass die QA und die Codierungsstrategie eine aufregende Leistung gezeigt haben, um die genaueste und optimale Lösung zu erhalten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23223-7_34 a02f30455d2815be0d8f39197dd612b1;de;;;3.1.;;;Die Archivanleihe Dieser Beitrag stellt das Konzept der Archivbindung vor, wie es von der Archivwissenschaft formuliert und in einem Forschungsprojekt der University of British Columbia mit dem Titel „The Preservation of Electronic Records“ verwendet wird. Als wesentlicher Bestandteil der Akte wird das Konzept der Archivbindung im Kontext der traditionellen diplomatischen und archivarischen Definitionen von Akten diskutiert und seine Funktion beim Nachweis der Zuverlässigkeit und Authentizität von Akten aufgezeigt. Die größte Herausforderung, mit der wir konfrontiert sind, besteht darin, die archivische Verbindung zwischen elektronischen und nicht-elektronischen Aufzeichnungen, die zu denselben Aggregaten gehören, explizit zu machen und langfristig zu erhalten.;-;-;-;https://link.springer.com/article/10.1023/A%3A1009025127463 7117bfca86cb6a593545794614858e7e;de;;;3.1.;;;Chronik der einzelnen Straßen in Baden This Chronik verbreitet sich über alle dermaligen Landstraßen und über jene Gemeindewege, sterben früher Landstraßen waren oder zur Aufnahme in this Classe verbessert Werden sollen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-51994-9_2 ca5584e629c7ac15173037d1821416ad;de;;;3.1.;;;Identifizierung gesundheitlicher Korrelate von Gewalt in der Partnerschaft gegen schwangere Frauen Gewalt gegen Frauen während der Schwangerschaft ist aufgrund ihrer erheblichen negativen gesundheitlichen Folgen für Mutter und Kind ein ernstes Problem für die öffentliche Gesundheit. Diese Studie zielt darauf ab, systematisch allgemeine Gesundheitsprobleme und synergistische Gesundheitskorrelate von Gewalt in der Partnerschaft (IPV) zu identifizieren, die speziell schwangere Frauen betreffen.;-;-;-;https://link.springer.com/article/10.1007/s13755-020-00124-6 2983b49a596d816494df008e7c3f4bc6;de;;;3.1.;;;Allgemeine Pathologie und pathologische Anatomie der Alveolarechinokokken-Geschwulst der Leber des Menschen Die Bedeutung des Alveolarechinococcus wird auch jetzt noch immer so gewürdigt, dass jede einzelne Beobachtung der Veröffentlichung wert gehalten wird, wir sehen deshalb im Schrifttum häufig Inaug.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-32541-4_4 c9ab2bd3de8e2a29d33a0366bf53ee03;de;;;3.1.;;;Afghanische Pflanzengesellschaften Es werden die Standortfaktoren der afghanischen Pflanzengesellschaften geschildert und soziologische Aufnahmen der xerophilen Pflanzengesellschaften gebracht, sterben in diesem Gebiet, in dem sommerlichen Niederschläge mit Ausnahme des äußersten Ostens in der Regel fehlen, sterben Hauptrolle spielen. Infolge der Artenzahl, des Fehlens der biotischen Auslese und darunter wenig unterschiedlicher Standortsverhältnisse kommt es zu typischen Assoziationen mit nicht großen Artenkombinationen. Es werden allerdings ähnliche Aufnahmen unter Assoziationsnamen, wobei aber betont wird zusammengefaßt, daß sie nich so gut charakteristisch sind wie europäische Assoziationen. Mit dieser Einschränkung werden im untersuchten Teil Afghanistans die “Assoziationen” einige unterschieden: Lactucetum orientalis, Veronicetum campylopodae, Festucetum karatavicae, Caricetum stenophyllae, Tamaricetum karakalensis, Arthrophytetum Griffithii, Parietarietum lusitanicassozie, polypolistanicatum kleiner, S mit beschränkter Verbreitung. Alle this Assoziationen can unter dem Namen Poetalia bulbosae zusammengefaßt Werden.;-;-;-;https://link.springer.com/article/10.1007/BF00257022 1086cbd3e044cbca42f8a2d20f377f81;de;;;3.1.;;;SC-CoJava: Eine Servicekompositionssprache zur Vereinheitlichung der Simulation und Optimierung von Lieferketten Die Service Composition (SC) CoJava-Sprache erweitert die Programmiersprache Java um (1) ein modulares Service-Composition-Framework, (2) eine erweiterbare Bibliothek von Supply-Chain-Modellierungskomponenten wie Artikeln, Services und Geschäftsmetriken und (3) Decision;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-27612-5_6 cc411284b9a318a325f5b43a4fd681aa;de;;;3.1.;;;Studien über die Branchiosauridae (Amphibia: Temnospondyli) 1. Neue und wenig bekannte Arten aus dem mitteleuropäischen Rotliegenden (?oberstes Karbon bis unteres Perm) Im Rahmen einer Übersicht über die Branchiosauridae werden einige kürzlich entdeckte Exemplare aus dem Rotliegend des Saar-Nahe-Beckens und wiederentdecktes Material aus dem Rotliegend in Nordsachsen beschrieben. Eines der Saar-Nahe-Exemplare wird als Neotypus von . bezeichnet;-;-;-;https://link.springer.com/article/10.1007/BF02989427 a6ab525bd80795f5cb75d61cee665737;de;;;3.1.;;;Einfluss von Ethylacetat auf Kohlenhydratkomponenten und die Kristallstruktur von Zellstoff, der beim Aufschluss mit wässriger Essigsäure hergestellt wird Ziel dieser Studie war es, die Veränderungen der Kohlenhydratkomponenten und der kristallinen Struktur in Hanfbastfasern durch Zugabe von Ethylacetat zu Essigsäure/Wasser-Aufschlussprozessen zu untersuchen. Es wurde festgestellt, dass Ethylacetat, das dem Essigsäure/Wasser-Verfahren zugesetzt wird, einen positiven Einfluss auf Ausbeute, Viskosität und Kohlenhydratkomponenten im Zellstoff hatte. Es wurde angenommen, dass das Delignifizierungsverhältnis durch Zugabe von Ethylacetat zum wässrigen Essigsäureaufschluss erhöht wurde. Der Xylosegehalt in Hanfbastfasern wurde beim Ethylacetat/Essigsäure/Wasser-Verfahren negativer beeinflusst als beim Essigsäure/Wasser-Verfahren. Kristallinität und Kristallitgröße waren in Zellstoffproben, die durch das Essigsäure/Wasser-Verfahren ohne Ethylacetat erhalten wurden, höher.;-;-;-;https://link.springer.com/article/10.2478/s11696-009-0007-9 99b4593dfbc73161b5fd5e1af0f34359;de;;;3.1.;;;Angemessene Erwartungen an den Datenschutz Die Verwendung des Begriffs „angemessene Person und ihre Erwartungen“ ist in der juristischen Argumentation weit verbreitet. Dieses Rechtskonstrukt wird im vorliegenden Artikel verwendet, um Datenschutzfragen im Zusammenhang mit moderner Informationstechnologie, insbesondere dem Internet, zu untersuchen. Insbesondere werden angemessene Erwartungen an die Privatsphäre beim Surfen im World Wide Web und beim Senden und Empfangen von E-Mails analysiert.;-;-;-;https://link.springer.com/article/10.1023/A%3A1011898010298 ae70c3470d3c576a08869028f18107d1;de;;;3.1.;;;Technik zum Unterrichten der parallelen Programmierung durch das Lösen von Problemen der computergestützten Elektrodynamik Dreidimensionale Probleme der computergestützten Elektrodynamik für die Bereiche komplexer Form können in angemessener Zeit nur mit Mehrprozessor-Computersystemen gelöst werden. Das Papier diskutiert den Prozess der Umwandlung sequentieller Algorithmen in effizientere Programme unter Verwendung einiger spezieller Techniken, einschließlich objektorientierter Programmierkonzepte. Es wird empfohlen, die speziellen Klassen zur Datenspeicherung in der ersten Programmierphase zu verwenden. Viele Objekte im Programm können beim Optimieren des Codes zerstört werden. Besonderes Augenmerk wird auf das Testen von Computerprogrammen gelegt. Als Beispiel werden das Problem der Beugung elektromagnetischer Wellen durch Schirme in dreidimensionalen Wellenleiterstrukturen und ihre besonderen Fälle betrachtet. Die Technik des Konstruierens eines parallelen Codes zum Lösen des Beugungsproblems wird beim Lehren der parallelen Programmierung verwendet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-05807-4_13 0abc6622283fb2ac7a2ee09fc176cc06;de;;;3.1.;;;Die Implementierung von numerischen Algorithmen des regionalen Atmosphärenmodells für CBEA-basierte Cluster Regionale atmosphärische Modelle sind wichtige Werkzeuge für die kurzfristige Wettervorhersage und die zukünftige Bewertung des Klimawandels. Die weitere Verbesserung der räumlichen Auflösung und Entwicklung physikalischer Parametrisierungen in diesen Modellen erfordert die effektive Implementierung des Programmcodes auf Multiprozessorsystemen. Heutzutage neigen typische Cluster-Systeme jedoch dazu, zu sehr großen Maschinen mit über Petaflop-Leistung heranzuwachsen, während das Design einzelner Rechenknoten fast unverändert bleibt und das Wachstum einfach durch die Verwendung von immer mehr Knoten erreicht wird, anstatt die Leistung einzelner Knoten zu erhöhen und einen angemessenen Stromverbrauch beizubehalten . Dies führt zu einer schlechteren Skalierbarkeit datenintensiver Anwendungen aufgrund des zunehmenden Zeitaufwands für die Datenübertragung über Cluster-Interconnects. Insbesondere einige numerische Algorithmen (z. B. diejenigen, die die Poisson-Gleichung lösen), die bei Clustersystemen der vorherigen Generation zufriedenstellend skalieren, nutzen die Rechenressourcen von Clustern mit Tausenden Kernen nicht effektiv. Dies veranlasst, die Leistung numerischer Schemata regionaler atmosphärischer Modelle auf Prozessorarchitekturen zu untersuchen, die sich deutlich von denen in herkömmlichen Clustern unterscheiden. Unser Ansatz konzentriert sich auf die Verbesserung der Leistung zeitexpliziter numerischer Schemata für Reynolds-gemittelte Gleichungen der atmosphärischen Hydrodynamik und Thermodynamik durch Parallelisierung auf CellBE-Prozessoren. Die Optimierung von Schleifen für numerische Schemata mit lokalen Datenabhängigkeitsmustern und mit unabhängigen Iterationen wird vorgestellt. Zellspezifische Workloading-Manager bauen auf bestehenden numerischen Schemata-Implementierungen auf, bewahren das ursprüngliche Quellcode-Layout und bringen hohe Geschwindigkeiten gegenüber der seriellen Version auf dem QS22 Blade-Server. Ein Vergleich zwischen Cell und anderen Multicore-Architekturen wird ebenfalls bereitgestellt. Unsere Methode zielt auf die nächste Generation von MPI-CellBE-Hybrid-Cluster-Architekturen ab und zielt darauf ab, zusätzliche Skalierbarkeit für MPI-basierte Codes von Atmosphärenmodellen und verwandten Anwendungen bereitzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-14390-8_55 d848d10f24c6a3ab08c8435c5db49ab3;de;;;3.1.;;;Virtual Jizai-Ryu: Interaktive virtuelle Hi-Fidelity-Ausstellung mit digitaler Vitrine Dieses Papier schlägt eine hochauflösende digitale Vitrine zum Manipulieren eines virtuellen Exponats vor, das über Verknüpfungsmechanismen verfügt. Diese Technik verbessert das Verständnis dynamischer Exponate. Es ist schwierig, interaktive Inhalte dynamischer virtueller Exponate zu konstruieren, da die Messung des Mechanismus das Risiko einer Verschlechterung eines Exponats birgt und es enorme Anstrengungen erfordert, ein fein gesponnenes Computergrafikmodell (CG) für Mechanismen zu erstellen. Daher schlagen wir eine bildbasierte Interaktionsmethode vor, die bildbasiertes Rendering verwendet, um interaktive Inhalte für dynamische virtuelle Exponate zu konstruieren, indem die Interpolation zwischen Exponatbildern mit einer Reihe von Deformationsbedingungen und Blickwinkeln verwendet wird. Mit dieser Methode konstruieren wir eine hochauflösende digitale Vitrine und stellen die interaktiven Inhalte in einem Museum aus, um die Verfügbarkeit unseres Systems zu bewerten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-20618-9_40 41c14bcf51f63dbb01c9d199046c874b;de;;;3.1.;;;Kommunikationsbewusste Prozessorzuordnung für Supercomputer Wir geben Prozessorzuweisungsalgorithmen für Grid-Architekturen an, bei denen das Ziel darin besteht, Prozessoren aus einer Menge verfügbarer Prozessoren auszuwählen, um die durchschnittliche Anzahl von Kommunikationssprüngen zu minimieren.;-;-;-;https://link.springer.com/chapter/10.1007/11534273_16 b7f02ad7021300ce03ee7c5ecff162b0;de;;;3.1.;;;Mediale Formen und Formate der IS-Propaganda. Ein Analyseansatz und Überblick Um dem Facettenreichtum etwa bezüglich der Multimodalität, der rhetorischen Vielfalt und ästhetischen Funktionen, der Gattungs- und sonstigen Erscheinungsformen der Propaganda des ‚Islamischen Staats‘ Rechnung zu tragen, entwickelt der Beitrag ‚Form‘ und ‚Format‘ als Kernbegriffe eines möglichen Untersuchungsansatzes Davon ausgehend Werden ein umfassender Überblick zu zentralen Medienformen und -formaten, Medientextsorten und -genres, Aspekte der Inter- bzw. Paratextualität sowie Organisations- und Infrastruktur der IS-Propaganda geboten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-28751-1_4 c01a4ea72f5b289bb006aae62407848d;de;;;3.1.;;;Eine Schritt-für-Schritt-Anleitung für die Auswahl von Projektthemen und das Verfassen von Forschungsarbeiten in IKT-bezogenen Disziplinen IKT ist ein schnell wachsendes und sich wandelndes Feld. In verschiedenen Bereichen der IKT wird viel geforscht und die Ergebnisse werden auf verschiedenen Plattformen wie Konferenzen, Zeitschriften und Büchern präsentiert. Dies ist eine häufige Beobachtung in den Publikationen aus Entwicklungsländern (insbesondere in Subsahara-Afrika) werden nicht in renommierten und etablierten Verlagen veröffentlicht, selbst deren technische/Experimente sind gut. Dies ist auf das Fehlen mehrerer Faktoren zurückzuführen, einschließlich der professionellen Präsentation, der Neuheit des Themas, der Qualität der Literaturrecherche usw. Diese Arbeit leitet Bachelorstudenten im letzten Jahr, PG-Studenten (Master und PhD) und junge Forscher, insbesondere in computerbezogenen Disziplinen , wie sie ihre Projektarbeiten in hochwertige Publikationen umwandeln können. Die Autoren geben an, wie diese Forschenden geeignete Projektthemen auswählen, eine angemessene Begutachtung vornehmen, die wesentlichen Bestandteile einer Arbeit verfassen und ihre Ergebnisse in angemessener Form (dh Schreibstil vom Abstract bis zum Abschluss) präsentieren können. In diesem Papier werden auch verschiedene Arten von Rezensionspapieren vorgestellt und erläutert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-69143-1_55 cf93a6a82b530e8065bfa9b263563b41;de;;;3.1.;;;Bestimmung der optimalen Polizeistreifenbereiche mit Modellen für maximale Deckung und Backup-Abdeckung In diesem Beitrag wird eine neue Methode zur Ermittlung effizienter räumlicher Verteilungen von Polizeistreifenbereichen vorgestellt. Diese Methode verwendet eine traditionelle maximale Deckungsformulierung und eine innovative Backup-Deckungsformulierung, um polizeilichen Entscheidungsträgern alternative optimale Lösungen anzubieten und den Mangel an objektiven quantitativen Methoden für die Gestaltung von Polizeibereichen in der Literatur oder in der Praxis zu beheben. Diese Untersuchung zeigt, dass Methoden der Einsatzforschung bei der polizeilichen Entscheidungsfindung eingesetzt werden können, stellt ein neues Backup-Abdeckungsmodell vor, das für die Gestaltung von Streifenbereichen geeignet ist, und fördert die Integration von geografischen Informationssystemen und optimale Lösungsverfahren. Die Modelle und Methoden werden mit der Polizeigeographie von Dallas, TX, getestet. Die optimalen Lösungen werden mit der bestehenden Polizeigeographie verglichen, was eine erhebliche Verbesserung der Anzahl der erfassten Vorfälle sowie der zurückgelegten Gesamtentfernung zeigt.;-;-;-;https://link.springer.com/article/10.1007/s11067-007-9035-6 2420a5bcbafaaaa069b80e12424d326d;de;;;3.1.;;;PASSER – SINGVÖGEL Die Pirole (Oriolidae) sind eine Familie der Sperlingsvögel (Passeriformes). Es sind etwa amselgroße, sehr farbenfrohe Vögel. Die meisten Arten leben in den Tropen der Alten Welt, von Afrika über Süd- und Ostasien bis Australien. Lediglich der Pirol (;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41818-1_1 0f80c8c3b2a08cc34026767b38e60fdb;de;;;3.1.;;;Eindimensionale transiente Wellenausbreitung in flüssigkeitsgesättigten inkompressiblen porösen Medien In dieser Untersuchung wird der allgemeine Formalismus der Feldgleichungen, die das dynamische Verhalten flüssigkeitsgesättigter poröser Medien bestimmen, analysiert und für die Untersuchung transienter Wellenbewegungen verwendet. Es wird angenommen, dass die beiden Bestandteile inkompressibel sind. Mittels Laplace-Transformationstechnik wird eine eindimensionale analytische Lösung abgeleitet, die aufgrund der Inkompressibilitätsbeschränkung nur eine unabhängige Dilatationswelle aufweist, die sich in der festen bzw. in der flüssigen Phase ausbreitet. Das flüssigkeitsgesättigte poröse Material wird mit ähnlichen Eigenschaften versehen, wie sie in viskoelastischen Festkörpern vorkommen. Diese Arbeit kann zum weiteren Verständnis der Eigenschaften der Wellenausbreitung in porösen Materialien beitragen und kann für einen quantitativen Vergleich mit verschiedenen numerischen Lösungen herangezogen werden.;-;-;-;https://link.springer.com/article/10.1007/BF00787910 72db45f338ce40f353166cc4745ba04d;de;;;3.1.;;;Wirkung der Corioliskraft auf die Formen rotierender Sterne und Sterne in Doppelsternsystemen In dieser Arbeit wurde versucht, die Wirkung der Corioliskraft auf die Formen der Roche-Äquipotentialflächen von rotierenden Sternen und Sternen in Doppelsternsystemen zu bestimmen. Für rotierende und Doppelsterne wurden Gleichungen von Roche-Äquipotentialflächen erhalten, die neben den Zentrifugal- und Gravitationskräften auch die Auswirkungen der Corioliskraft berücksichtigen. Formen der Roche-Äquipotentiale und Werte der Roche-Grenzwerte werden für verschiedene Werte der Rotationswinkelgeschwindigkeit für rotierende Sterne und für verschiedene Werte der Massenverhältnisse für Doppelsterne erhalten. Die erhaltenen Ergebnisse wurden mit den entsprechenden Ergebnissen verglichen, bei denen die Wirkung der Corioliskraft nicht berücksichtigt wurde.;-;-;-;https://link.springer.com/article/10.1007/s10509-008-9946-9 913d3bed749323de7a07bdea2b5c9dce;de;;;3.1.;;;Molekülwolken und bipolare Strömungen Dieser Artikel ist den Beobachtungen von Staubemissionen im mm- und submm-Kontinuum gewidmet, die im ersten Jahr des JCMT durchgeführt wurden. Ich präsentiere aktuelle hochauflösende Arbeiten zu Molekülwolken und HII-Regionen, bipolaren Ausflüssen und sichtbaren Prä-Main-Sequence-Sternen (T Tauri, FU Orionis und Herbig Ae/Be Sterne). Mit der jetzt verfügbaren verbesserten Auflösung beginnen sich die Wolken in einzelne Kerne aufzulösen, was die Anwesenheit eingebetteter junger Sterne signalisiert. Viele dieser Kerne sind auch von einer asymmetrischen Staubverteilung umgeben, was darauf hindeutet, dass junge Sterne von Scheiben oder Regionen mit starken Dichtegradienten umgeben sind. Dies wird noch deutlicher, wenn man bipolare Abflüsse betrachtet. Die massiven sind von ausgedehnten relativ heißen Scheiben umgeben, während die Quellen mit geringer Leuchtkraft im Allgemeinen einen unaufgelösten dichten Kern und eine ausgedehnte zirkumstellare Scheibe senkrecht zur Ausflussrichtung aufweisen. Die PMS-Sterne sind im Allgemeinen unaufgelöst. Für T-Tauri-Sterne leiten wir einen Staub-Emissionsindex,β ≤ 1, ab, der darauf hindeutet, dass Dichte- und Temperaturgradienten bei der Analyse nicht vernachlässigt werden können oder die Sterne von ungewöhnlich großem Staub umgeben sind. Körner.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-6850-0_52 0e26597202372ebed8d8603f11d336b7;de;;;3.1.;;;Multi-SPLOT: Unterstützung von Multi-User-Konfigurationen mit Constraint-Programmierung Heutzutage haben sich Unternehmen von einem einzigen Produkt für alle ihre Kunden zu unterschiedlichen kundenspezifischen Angeboten entwickelt. Diese Unternehmen bieten Konfigurationssysteme an, bei denen ein Benutzer entscheiden und verwerfen kann, welche Funktionen er in seinem Endprodukt haben möchte. Obwohl fast alle diese Systeme individuelle Entscheidungen unterstützen, bieten sie in der Regel keine spezielle Unterstützung für Entscheidungen mehrerer Benutzer für dasselbe Produkt. Dieses Whitepaper stellt Multi-SPLOT vor, ein webbasiertes Konfigurationssystem, das gleichzeitige Entscheidungen mehrerer Benutzer unterstützt. Dieses System verwendet Standardlöser, um zu bestimmen, ob diese Entscheidungen zwischen ihnen nicht widersprüchlich sind, und um Lösungen vorzuschlagen, wenn die Entscheidungen eines Benutzers mit den Entscheidungen anderer in Konflikt stehen. Dieses Whitepaper zeigt das Design der Lösung und Details ihrer Implementierung mit Angular, Firebase und der Optimierungsbibliothek in Google App Script.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-01535-0_27 6af0a51a2008fcc498c7b51d08f5bfe6;de;;;3.1.;;;Druckverlustminderungen in strömungen durch hochpolymere additiv: Klärung einiger noch offener fragen Die vorliegende Arbeit faßt Ergebnisse von experimentellen Untersuchungen zusammen, welehe durchgeführt wurden, um die reibungsmindernde Wirkung von Polymeren quantitativ zu bestimmen. Für die Durchführung der Untersuchungen Sind Zwei Meßeinrichtungen Erstellt worden, sterben in der Arbeit beschrieben Sind. Durch ihren Einsatz gelang es, die reibungsmindernde Wirkung von Polymeradditiven zu bestimmen und ihre mechanische Degradation sowie auch ihre Chemie-verursachte, bei Temperaturen beschleunigte Degradation zu quantifizieren.;-;-;-;https://link.springer.com/article/10.1007/BF00787404 0d21489c9a92469bcc20589e81e504b0;de;;;3.1.;;;Relevanz von Kontextinformationen beim komprimierungsbasierten Text-Clustering In diesem Artikel gehen wir einen Schritt zum Verständnis von Kompressionsdistanzen, indem wir die Relevanz von Kontextinformationen beim kompressionsbasierten Textclustering analysieren. Um dies zu tun, werden zwei Arten der Wortentfernung untersucht, eine, die einen Teil der Kontextinformationen trotz der Entfernung beibehält, und eine, die sie nicht beibehält. Wir zeigen, wie das Entfernen von Wörtern, sodass die Kontextinformationen trotz der Wortentfernung erhalten bleiben, das komprimierungsbasierte Textclustering unterstützt und seine Genauigkeit verbessert, während das Entfernen von Wörtern, die diese Kontextinformationen verlieren, die Clustering-Ergebnisse verschlechtert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-15381-5_32 ab700c76f5059b0be0982374badeda25;de;;;3.1.;;;Kristalline Polymere Kristalline Polymere haben eine „angemessen“ regelmäßige Kettenstruktur und eine spezifische bevorzugte Kettenkonformation. Das Vorhandensein von Kettenfehlern, z.B. ataktischen Sequenzen und/oder Kettenverzweigungen bei hohen Konzentrationen, machen die Polymere eine Kristallisation unmöglich und bilden beim Abkühlen schließlich ein vollständig amorphes Glas. Es gibt Ausnahmefälle von;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-0543-9_7 98fba9837072b0b53a05fb889f43ef9a;de;;;3.1.;;;Armut in Flandern und Brabant vom 14. bis Mitte des 16. Jahrhunderts: Quellen und Probleme „Arm“ und „Armut“ sind so allgemeine Wörter – und ihre Verwendung in den Quellen ist keine Ausnahme –, dass ihre Anwendung in einer wissenschaftlichen Abhandlung eine genauere Definition erfordert. Dies lässt sich unseres Erachtens am besten von den Begriffen der Not oder Deprivation angehen, die einen Mangel ausdrücken, der sich auf verschiedene Aspekte der menschlichen Werteskala beziehen kann und deren Bedeutung je nach sozialem Umfeld variiert. Indem wir die Begriffe so definieren, eliminieren wir eine Kategorie, die Zeitgenossen und auch viele Historiker in den Begriff der Armut aufgenommen haben, nämlich bestimmte Gruppen, die aus freien Stücken eine nüchterne Lebensweise gewählt haben;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-9677-9_2 3c5bc2b0306a79c54042aa82f32d7b61;de;;;3.1.;;;Die Rolle von Calcium, Magnesium und Zink bei der Karzinogenese Die Auswirkungen einer Calcium-, Magnesium- und Zinkergänzung und eines Magnesiummangels auf die Karzinogenese werden umfassend untersucht, einschließlich epidemiologischer und experimenteller Untersuchungen. Einige Daten zu den Auswirkungen von Neoplasien auf die Homöostase dieser Metalle werden ebenfalls präsentiert. Trotz vieler widersprüchlicher Ergebnisse zeigt dieser Review, dass (1) eine Kalziumergänzung die chemische Karzinogenese eher fördert als hemmt, (2) eine Magnesium- oder Zinkergänzung dazu neigt, die Karzinogenese zu hemmen, (3) Magnesiummangel die Inzidenz von Neoplasien bei Mensch und Tier erhöht , (4) die parenterale Verabreichung von Magnesium zusammen mit einem Karzinogen erzeugt lokale antikarzinogene Wirkungen, während die Aktivität von Zink dazu neigt, systemisch zu sein, und (5) es besteht eine einfache Korrelation zwischen der Hemmung der Karzinogenese durch die Magnesium- und Zink-Supplementierung und der Reduktion von Karzinogen Bindung an Zellen und DNA. Die Mechanismen dieser Effekte sind nicht klar. Sie können molekulare Wechselwirkungen zwischen Metall und Karzinogen an verschiedenen enzymatischen und regulatorischen Stellen von Zielzellen beinhalten, die eine neoplastische Transformation durchlaufen, sowie eine Stimulation des Immunsystems des Wirts.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-1835-4_35 2dee168f63eb598c2698640ee0a16f7b;de;;;3.1.;;;Metalle in Laysan-Albatrosse vom Midway Atoll Wir untersuchten die Konzentrationen von Blei, Cadmium, Selen, Chrom, Mangan, Arsen, Zinn und Quecksilber in Herz, Leber, Niere, Salzdrüse und Federn von erwachsenen (n = 10) und jungen (n = 15) Laysan-Albatros (;-;-;-;https://link.springer.com/article/10.1007/s002449910033 bf9d9b0e513f5a957e777aa463b9512e;de;;;3.1.;;;Entwicklungsregulation des Vorhandenseins von Bindungsstellen für Neoglykoproteine ​​und endogene Lektine in verschiedenen embryonalen Stadien von Lunge, Leber und Herz Protein-Kohlenhydrat-Wechselwirkungen sollen eine Schlüsselrolle in den Mechanismen der Zelladhäsion, Biosignalisierung und des intrazellulären Routings spielen, was die Analyse des Entwicklungsverlaufs der Expression von Epitopen dieses Systems rechtfertigt. Daher wurde eine Reihe von trägerimmobilisierten Kohlenhydratliganden als Sonden verwendet, nämlich Lactose,;-;-;-;https://link.springer.com/article/10.1007/BF02179503 3de0bd6a3efad547ca85c67a7b9a0319;de;;;3.1.;;;Expressionsmuster von Cyclin E, Cyclin A und CDC25 Phosphatasen bei der Larynxkarzinogenese Ziel der Forschung war es, die Expressionsniveaus von Cyclin E/A und CDC25A/B während der Larynxkarzinogenese zu bewerten. Die Expression wurde mittels Immunhistochemie in 46 Fällen von Kehlkopfkrebs (LSCC), 23 epithelialen Dysplasien (ED) und 21 Proben normaler Schleimhaut (NM) nachgewiesen. Die mittleren Markierungsindizes (LI) für Cyclin E bei LSCC, ED und NM betrugen 10,6, 4,9 und 0 %, für Cyclin A 27,2, 17,5 und 7 %, für CDC25A 73,9, 53 und 32 % und für CDC25B 36,5, 25,9 und 0 %, beziehungsweise. Es wurde ein allmählicher Anstieg der Cyclin A- und CDC25A-Expressionsspiegel von leichter über mittelschwere und schwere Dysplasie bis hin zum In-situ-Karzinom festgestellt. Cyclin A LI nahm auch von NM über ED zu LSCC signifikant zu. Cyclin A und CDC25A LI nahmen von NM zu ED signifikant zu. Die Überexpression von Cyclin A und CDC25A war signifikant mit der Proliferation bei ED verbunden. Bei ED wurde eine lineare Interdependenz zwischen der Expression von CDC25A und Cyclin A nachgewiesen. Die Überexpression von Cyclin E und CDC25B tritt als spätes Ereignis bei der neoplastischen Transformation auf. Die progressive Expression von Proteinen unterstützt das mehrstufige Modell der Larynxkarzinomentstehung. Die Ergebnisse weisen auf eine mögliche Rolle von Cyclin A als Marker hin, der die Zellproliferation widerspiegelt. Die verstärkte Immunexpression von Cyclin A und CDC25A legt das Potenzial für maligne Bildung in präneoplastischen Läsionen nahe.;-;-;-;https://link.springer.com/article/10.1007/s00405-007-0276-2 9525eb16d3d6a8ad164ff720d55c3e78;de;;;3.1.;;;Funktionelle Expressionen des endogenen Dipeptid-Transporters und des exogenen Proton/Peptid-Cotransporters in Es ist wichtig, den Peptidtransporter zu klonen, um seine molekulare Struktur, Regulation und Substratspezifität besser zu verstehen. Die Eigenschaften eines endogenen Peptidtransporters in Oozyten wurden zusammen mit der Expression eines exogenen Proton/Peptid-Cotransporters aus Kaninchendarm untersucht. Und es wurden weitere Anstrengungen zum Klonen des Transporters unternommen. Das Vorhandensein eines endogenen Peptidtransporters wurde in;-;-;-;https://link.springer.com/article/10.1007/BF02976500 3d4dad070dfc2ca678f8d7c7c8f1b6e5;de;;;3.1.;;;Bioindikation von Schwermetallen im Boden durch Lebermoose Untersucht wurde die Akkumulation der Schwermetalle Ba, Cd, Co, Cr, Cu, Fe, Hg, Ni, Pb, Sr, V und Zn und der Makroelemente N, P, K, Ca und Mg in Lebermoos;-;-;-;https://link.springer.com/article/10.1007/s002449900238 b244c10407cb1bed6b2dccc67c40a53d;de;;;3.1.;;;Körperschallmessungen beim Bohren und Schleifen am isolierten, frischen Felsenbein Messungen der Wirkung von rotierenden Bohrern und Schleifern an isoliertem frischem Schläfenbein auf den durch den Körper übertragenen Schall sind bisher nicht bekannt. Sie umfassen im Gegensatz zur Messung von Luftschall den Schallanteil, der beim Bohrvorgang des Schläfenbobus durch den Knochen auf das Hörgerät des Patienten wirkt. Gemessen wurde mit einem kalibrierten Beschleunigungsaufnehmer in Verbindung mit einem Präzisionsschallpegelmesser (Prüfverstärker mit Schallfrequenzanalysator). Die Aufnahme erfolgte kontinuierlich zwischen 20 Hz und 20000 Hz. Der Bereich zwischen 250 Hz und 8000 Hz wurde mathematisch untersucht.;-;-;-;https://link.springer.com/article/10.1007/BF00453771 81639b8a23062b1d0a88b87be5952567;de;;;3.1.;;;Ein adaptiver Multi-Objective Particle Swarm Optimierungsalgorithmus mit Constraint Handling In diesem Artikel beschreiben wir einen Particle Swarm Optimization (PSO)-Ansatz zum Umgang mit Einschränkungen in der Multi-Objective-Optimierung (MOO). Die Methode heißt Constrained Adaptive Multi-Objective Particle Swarm Optimization (CAMOPSO). CAMOPSO basiert auf der in [1] vorgeschlagenen Methode der Adaptiven Multi-Objective Particle Swarm Optimization (AMOPSO). Wie in AMOPSO werden die Trägheits- und Beschleunigungskoeffizienten in CAMOPSO adaptiv bestimmt, während ein Penalty-basierter Ansatz zur Handhabung von Einschränkungen verwendet wird. In diesem Artikel überprüfen wir zunächst einige existierende MOO-Ansätze auf Basis von PSO und beschreiben dann die AMOPSO-Methode im Detail zusammen mit experimentellen Ergebnissen zu sechs unbeschränkten MOO-Problemen [1]. Danach wird der Umgang mit Einschränkungen in CAMOPSO diskutiert. Seine Leistung wurde mit der des NSGA-II-Algorithmus verglichen, der einen inhärenten Ansatz zur Handhabung von Einschränkungen hat. Die Ergebnisse belegen die Wirksamkeit von CAMOPSO für die betrachteten Testprobleme.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-17390-5_10 999c0981c13e7200218897dd0839f6b0;de;;;3.1.;;;Der Zusammenhang zwischen Arbeitsanforderungen und gesundheitlichen Beschwerden bei Lkw-Fahrern In dieser Studie wurden Daten einer Fragebogenstudie unter 439 Lkw-Fahrern an ein Modell angepasst, in dem Arbeitsanforderungen und Entscheidungsspielraum des Arbeitnehmers mit Beschwerden des Bewegungsapparates und allgemeinen psychosomatischen Beschwerden in Beziehung gesetzt werden. Zur Untersuchung der hypothetischen Zusammenhänge wurde eine Strukturanalyse mit LISREL verwendet. Zwei Modifikationen führten zu einem χ;-;-;-;https://link.springer.com/article/10.1007/BF00380777 d4e61ae67135f06521aabaa163ee8bbf;de;;;3.1.;;;„Keine heißen Fische mehr“: Kaliforniens Drang nach Literatur bei basalen Lesern Kalifornien hat eine ehrgeizige Reform seines Sprachunterrichts vorgenommen. Dieser Artikel beschreibt die Reform und ihre Umsetzung sowie die Adoptionsverfahren des Staates, seine Auswahl und Bewertung neuer sprachlicher Kunstmaterialien und seine Interaktion mit den Verlagen. Es bietet auch Vorschläge für politische Entscheidungsträger in anderen Bundesstaaten, die von den kalifornischen Erfahrungen lernen möchten.;-;-;-;https://link.springer.com/article/10.1007/BF02683697 b8509ad7e61b41bd6b2acaf556f1468e;de;;;3.1.;;;Fragen ethnographiques und mathématiques de la préhistoire L'étude des mathématiques de la préhistoire ne peut être fondée uniquement sur les document archéologiques bruts, sous peine de sterilité, elle a tout intertérêt à les mettre en situation grâce au comparatisme ethnographique, selon so lequesé les primitiv nos ancêtres de la préhistoire. D’abord utilisée spontanément par quelques historiens des mathématiques, cette méthode est de nos jours rejetée en principe par le courant récent des ethnomathématiciens. Il s'agit de montrer par quelques exemples que la méthode est pourtant féconde, d'une part parce qu'elle ruine les constructions fantastiques dont raffolent gewisses mathématiciens, et d'autre part parce qu'elle chouvre de unweite exp .;-;-;-;https://link.springer.com/article/10.1007/BF03181393 1921ce8384e938b4b32d7eda63dabe71;de;;;3.1.;;;Lectin-Bindungsmuster von Schwann-Zellen und Makrophagen bei 2,5-Hexandion-induzierter axonaler Degeneration bei Ratten Das Lektinbindungsmuster sowohl von Schwann-Zellen als auch von Makrophagen wurde während der axonalen Degeneration untersucht, die im Ischiasnerv der Ratte durch chronische Verabreichung von 2,5-Hexandion (0,8 ml/kg pro Tag i.p. für 20 Tage) induziert wurde. Insbesondere zielte die vorliegende Studie darauf ab, eine mögliche Beziehung zwischen der Makrophagenaktivierung und der Expression von Lektinbindungsstellen zu etablieren. Um Schwann-Zellen und Makrophagen zu identifizieren und zu unterscheiden, wurde die Elektronenmikroskopie mit der Lektin-Färbungsmethode kombiniert. Bei einer 2,5-Hexandion-Verletzung trat eine drastische Desorganisation sowohl der Axon- als auch der Myelinscheide auf und Nervenfasern wurden durch eine Kette von Ovoiden ersetzt. Neben dem gut etablierten Konzept, dass Schwann-Zellen und Makrophagen bei der Entfernung der Myelin-Trümmer während der axonalen Degeneration zusammenarbeiten, wird nachgewiesen, dass die Expression von Bindungsstellen an Lektine eng mit der Makrophagenaktivierung zusammenhängt. Monozyten, die gelegentlich in Kontrollnerven vorhanden waren, wurden nur durch con A und Sialidase-Erdnuss-Sequenz markiert, in 2,5-Hexandion-Degeneration wurden Monozyten, Präphagozyten (Makrophagen mit winzigen Blasen) und Phagozyten (Makrophagen mit großen Blasen) auch durch Erdnuss, Weizenkeime und BSA IB;-;-;-;https://link.springer.com/article/10.1007/s002040050152 49ba5dadaa0f41235f55a62ca51459b8;de;;;3.1.;;;Das Nervensystem und zentrale Sinnesorgane Das Zentralnervensystem des Menschen ist das komplexeste Organ, das je ein Lebewesen hat, es ist, gemessen an seiner Größe, auch gewiss das komplexeste System in unserem Erfahrungsbereich. Das Gehirn soll nach Zählung überschaubarer Ausschnitte und anschließender Hochrechnung 100 bis 1000 Milliarden (10 .);-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-28383-3_16 b93d686ff64b92d1ee60fa9868009362;de;;;3.1.;;;Toxizität und Biokonzentration ausgewählter Organophosphor-Pestizide in Eine Studie zur Toxizität und Biokonzentration der Organophosphor-Pestizide Dimethoat, Methidathion, Chlorfenvinphos, Chlorpyrifos und Phosmet wurde für zwei Weichtierarten durchgeführt (;-;-;-;https://link.springer.com/article/10.1007/BF00212491 701a1e8aa2164615b9c7601d3b6bd2a7;de;;;3.1.;;;Zur Innervation der Gelenke der oberen Extremität Die Innervation der Gelenke der oberen Extremität wurde an einem Erwachsenenarm sowie an je 2 Schulter- und Ellenbogengelenken von Neugeborenen unter genauerer Berücksichtigung der topographischen Verhältnisse präparatorisch untersucht. Außerdem wurden noch Schulter- und Ellenbogengelenke eines Erwachsenen und zweier Neugeborenen sowie 2 Erwachsenenhände zur Klärung von Einzelfragen teilweise präpariert.;-;-;-;https://link.springer.com/article/10.1007/BF00525089 302f88b3ce2c92aef03e64f63f02f1b5;de;;;3.1.;;;Pharmakokinetische Arzneimittelwechselwirkungen mit Phenytoin (Teil II) Teil I dieses Artikels, der in der vorherigen Ausgabe des Journals erschienen ist, behandelte die Arzneimittelinteraktionen, die die Pharmakokinetik von Phenytoin beeinflussen. Auch der Einfluss von Phenytoin auf die gastrointestinale Resorption und die Plasmaproteinbindung anderer Medikamente wurde diskutiert.;-;-;-;https://link.springer.com/article/10.2165/00003088-199018020-00004 0382a1da7f19537dacb97821054c4a95;de;;;3.1.;;;Spätholozäne Massenbewegungen im High Arctic East Lake, Melville Island (westkanadischer Arktischer Archipel) East Lake, der sich am Cape Bounty (Melville Island, Canadian High Arctic) befindet, wurde mit einem hochauflösenden schwadenbathymetrischen Sonar und einem 12-kHz-Sub-Bottom-Profiler kartiert. MMDs) in einem kanadischen Hocharktischen See. Massenbewegungen traten vor allem an steilen Hängen abseits der deltaischen Sedimentation auf. Der Übergang vom Meer zum See im Sediment begünstigt die Entstehung von Massenbewegungen, bei denen der darunterliegende massive Schlamm als Gleitfläche für die darüber liegenden Varved-Ablagerungen zu wirken scheint. Basierend auf akustischer Stratigraphie haben wir mindestens zwei verschiedene Ereignisse identifiziert, die in den letzten 2000 Jahren Versagen im See ausgelöst haben. Die Synchronizität mehrerer Ausfälle und ihre weit verbreitete Verteilung legen einen seismischen Ursprung nahe, der mit der nahegelegenen seismischen Zone Gustaf-Lougheed Arch in Verbindung gebracht werden könnte. Weitere sedimentologische Untersuchungen der MMDs sind jedoch erforderlich, um ihr Alter und ihre Herkunft zu bestätigen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-20979-1_31 7e8a79f9e28f39e310404fa72e5847a2;de;;;3.1.;;;Das Schicksal exogener Tenside bei Neugeborenen mit Atemnotsyndrom Das Atemnotsyndrom (RDS) bei Neugeborenen ist durch eine mangelhafte Sekretion von Surfactant aus Alveolarzellen vom Typ III gekennzeichnet. Die Verabreichung von Surfactant in die Atemwege verringert akut den Grad des Atemversagens und erhöht die Überlebensrate bei Neugeborenen mit RDS. Klinisch verfügbare Tenside sind Lipidextrakte, die aus der Lungenspülung von Tieren oder aus der ganzen Lunge gewonnen werden. Synthetische Tenside enthalten Phospholipide oder zusätzliche Spreitungsmittel. Ein optimales exogenes Tensid wäre wirksam, nicht toxisch und nicht immunogen, resistent gegen Oxidationsmittel und proteolytische Mittel, zu vernünftigen Kosten weit verbreitet und mit geringer Variabilität von Charge zu Charge hergestellt.;-;-;-;https://link.springer.com/article/10.2165/00003088-199426030-00005 4895506df3951a59f145eee6d32d156a;de;;;3.1.;;;Glucosephosphat-Isomerase-Mangel, eine neue Variante in einer niederländischen Familie Der klinische Verlauf und die biochemischen Befunde werden von einem Patienten mit Glucosephosphat-Isomerase (G.P.I. EC 5.3.1.9)-Mangel Typ Nijmegen berichtet. Diese Störung deklariert sich selbst als nicht-sphärozytäre hämolytische Anämie, die in der Neugeborenenperiode auftritt. Bei der Patientin war die Hämolyse im Laufe der Jahre von gleichem Grad. Triviale Infektionen können jedoch häufig eine Zunahme der Hämolyse auslösen, die eine Behandlung durch Bluttransfusionen erfordert.;-;-;-;https://link.springer.com/article/10.1007/BF00470602 199e9d2c6273c387d84fde886a6fd084;de;;;3.1.;;;Der modifizierte erweiterte distale gestielte sapheno-fasziokutane Suralislappen Eine anatomische Studie wurde durchgeführt, um eine modifizierte Technik für einen erweiterten saphenofasziokutanen Surallappen zur Abdeckung großer kombinierter Weichteilläsionen an Unterschenkel und Fuß zu entwickeln. Anschließend wurde eine prospektive klinische Studie durchgeführt, um die klinische Anwendbarkeit der neuen Technik zu untersuchen. Von August 1999 bis August 2002 wurden 7 Patienten mit 10 großen kombinierten Weichteilläsionen mit exponierten Sehnen-, Knochen- und Gelenk- oder zusammengesetzten infizierten Wunden mit Knochenverlust und Osteitis prospektiv nach einer operativen Behandlung mit dem erweiterten saphenofasciokutanen Surallappen untersucht. Alle Patienten hatten eine Vielzahl zusätzlicher Risikofaktoren oder eine schwere Komorbidität (traumatische ipsilaterale Gefäßläsion der Hauptnährstoffarterie des Unterschenkels, ipsilaterale tiefe Venenthrombose, diabetische Polyneuropathie mit arteriosklerotischen Gefäßen und schwere Gefäßverschlusserkrankung). Die Defektgröße der zehn kombinierten Weichteilläsionen reichte von 80 bis 180 cm;-;-;-;https://link.springer.com/article/10.1007/s10302-005-0089-9 c777f9a3d9e6f9807db6cd715773a32f;de;;;3.1.;;;Vergleich der Steady-State-Pharmakokinetik von Fosinopril, Lisinopril und Enalapril bei Patienten mit chronischer Niereninsuffizienz Das Phosphinylester-Prodrug Fosinopril, ein neuer Angiotensin-Converting-Enzym-(ACE)-Inhibitor, wird nach oraler Gabe der pharmakologisch wirksamen Disäure Fosinoprilat vollständig hydrolysiert. Dieser Metabolit wird sowohl über die Leber als auch über die Nieren ausgeschieden, während die meisten anderen ACE-Hemmer ausschließlich über die Nieren ausgeschieden werden. In der vorliegenden Studie wurde nach Verabreichung mehrerer fester oraler Dosen die Akkumulation der aktiven Anteile von Fosinopril, Enalapril und Lisinopril bei Patienten mit Niereninsuffizienz verglichen. 29 Patienten mit Kreatinin-Clearance (CL;-;-;-;https://link.springer.com/article/10.2165/00003088-199120050-00006 e4a3ea0532451d6797967af2477e18de;de;;;3.1.;;;Nitrattoleranz Bei Versuchstieren und beim Menschen hat sich während der Therapie eine rasche Toleranzentwicklung gegenüber Nitraten gezeigt. Obwohl die Toleranz gegenüber den hämodynamischen Wirkungen ursprünglich als ohne klinische Bedeutung angesehen wurde, wurde jetzt gezeigt, dass sie einen großen Einfluss auf die Behandlung von Patienten mit Angina hat. Der Mechanismus der Toleranz ist nicht klar, aber die Hypothese, dass er mit einer Verarmung an reduzierten Sulfhydrylgruppen zusammenhängt, mit einer daraus resultierenden verminderten Produktion von S-Nitrosothiolen und cyclischem Guanosinmonophosphat, wird durch unsere Untersuchung nicht unterstützt. Obwohl der Wirkmechanismus unbekannt ist, scheinen Dosierungsstrategien, die eine intermittierende Therapie mit Nitraten vorsehen, wirksam zu sein, um eine Nitrattoleranz zu verhindern.;-;-;-;https://link.springer.com/article/10.2165/00003495-198700334-00011 5efdbdfde4491222ca810e4c16b69d71;de;;;3.1.;;;Schätzung von Selenkonzentrationen im Wasser, die als Toxizitätsschwellenwerte für Wildtiere gelten Die Kontamination von Süßwassersystemen kann zu Sterblichkeit und beeinträchtigter Fortpflanzung bei Wildtieren führen. Es besteht ein wachsender Bedarf an Methoden zur Schätzung von Schadstoffkonzentrationen im Wasser, die ein inakzeptables Risiko für semiaquatische und terrestrische Wirbeltiere darstellen, die aquatische Lebensräume nutzen. Daten zur Toxizität einzelner Arten, Informationen zur Bioakkumulation von Schadstoffen in aquatischen Nahrungsnetzen und energiebasierte Schätzungen der Schadstoffexposition gegenüber empfindlichen Vögeln und Säugetieren wurden verwendet, um die Selengehalte im Wasser zu schätzen, die für Wildtiere Toxizitätsschwellen darstellen. Schwellenwertschätzungen für Vögel und Säugetiere mit Ernährungsgewohnheiten, die wahrscheinlich zu einer hohen Exposition gegenüber bioakkumulativen Kontaminanten in aquatischen Systemen führen (;-;-;-;https://link.springer.com/article/10.1007/BF00212269 ef4ae358ac612693eae62b0f94b2b845;de;;;3.1.;;;Comp.specification.z und Z FORUM Häufig gestellte Fragen Question Dieser Anhang enthält einige Details zum Zugriff auf Informationen zu Z, insbesondere elektronisch. Es wurde aus einer Nachricht generiert, die monatlich aktualisiert und im Internet verschickt wird. Diese Informationen werden jeden Monat am;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-49676-2_25 b2be8a832e79265fb3ebe92c31e3e0c3;de;;;3.1.;;;Sabouraud, l’âge d’or du microbisme Raimond (ou Raymond) - Jacques Adrien Sabouraud est né le 24 novembre 1864 á Nantes dans une famille de la bourgeoisie catholique vendéenne originaire d’Auzay et de Nieul-sur-l’Autise, Gemeinden der Umgebung von Fontenay-le-Comte;-;-;-;https://link.springer.com/chapter/10.1007/978-2-287-87853-4_5 5e47202a2bd4d0cd576db94ec7cbad00;de;;;3.1.;;;Ein künstliches Immunsystem mit mehreren Zielen basierend auf Hypervolumen In diesem Beitrag wird ein neuer Algorithmus des künstlichen Immunsystems zur Lösung multiobjektiver Optimierungsprobleme vorgestellt, der auf dem klonalen Selektionsprinzip und dem Hypervolumenbeitrag basiert. Das Hauptziel dieser Arbeit ist es, die Leistungsfähigkeit dieser Klasse von Algorithmen in Bezug auf Ansätze zu untersuchen, die für den Stand der Technik der Mehrzieloptimierung mittels Metaheuristik repräsentativ sind. Die Ergebnisse unseres vorgeschlagenen Ansatzes, genannt multiobjektives künstliches Immunsystem basierend auf Hypervolumen (MOAIS-HV), werden mit denen des NSGA-II verglichen. Unsere vorläufigen Ergebnisse zeigen, dass unser vorgeschlagener Ansatz sehr wettbewerbsfähig ist und eine praktikable Wahl zur Lösung von Optimierungsproblemen mit mehreren Zielen sein kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33757-4_2 70d174f958c749af8fba3a5eddcd5680;de;;;3.1.;;;Erkennen von Mikrostrukturen von Gesprächen anhand physikalischer Referenzen: Fallstudie zu Posterpräsentationen Der Zweck der in diesem Papier vorgestellten Arbeit besteht darin, Konversationsarchive wiederzuverwenden, um die Wissenszirkulation in der realen Welt zu unterstützen. Bisher haben wir eine Methode vorgeschlagen, um Konversationen durch die Analyse von Blick- und Äußerungsdaten aus einem Interaktionskorpus, einem halbstrukturierten Satz einer großen Menge von Interaktionsdaten, die von verschiedenen Sensoren gesammelt wurden, Strukturen zu verleihen. In diesem Papier geben wir Gesprächen detailliertere Strukturen, indem wir die Touch-Daten von Postern analysieren. Wir entwickeln eine Poster-Touch-Capturing-Methode und untersuchen den Zusammenhang zwischen Poster-Touch und Gesprächsstruktur, d. Durch die Analyse der Beziehung zwischen Gesprächen und Poster-Touch-Daten können wir den Übergang von Themen erkennen und ein langes Gespräch, das aus vielen Themen besteht, in einige mikrostrukturierte Gespräche aufteilen, die aus einem einzigen Thema oder Kontext bestehen.;-;-;-;https://link.springer.com/chapter/10.1007/11780496_40 3f5d47822d67f84b9de1a29a9409ee43;de;;;3.1.;;;Ein sicheres, leichtes und skalierbares Mobile Payment Framework Bestehende SIP-basierte Mobile-Payment-Lösungen gewährleisten nicht alle Sicherheitseigenschaften. In diesem Beitrag schlagen wir ein Secure Lightweight and Scalable Mobile Payment Framework (SLSMP) vor, das das Signcryption-Schema mit Forward Secrecy (SFS) verwendet, das auf einem elliptischen Kurvenschema basiert und digitale Signatur- und Verschlüsselungsfunktionen kombiniert (Hwang et al., 2005) [5]. Es erfordert geringere Rechen- und Kommunikationskosten, um Sicherheitsfunktionen bereitzustellen. SLSMP ist hoch skalierbar, was SIP für den Datenaustausch zugeschrieben wird. Dieses Papier verwendet WPKI, UICC als sicheres Element und zeigt die Systemarchitektur und das detaillierte Protokoll einer SIP-basierten mobilen Zahlungslösung. Unser vorgeschlagener Rahmen eignet sich sowohl für Mikro- als auch für Makrozahlungen. Unser vorgeschlagenes Protokoll gewährleistet End-to-End-Sicherheit, dh gewährleistet Authentifizierung, Integrität, Vertraulichkeit und Nichtabstreitbarkeit, erreicht Identitätsschutz von Händlern und Lauschern, erreicht Transaktionsdatenschutz von Lauscher und Zahlungsgateway, erreicht Zahlungsgeheimnis, Auftragsgeheimnis, Weiterleitungsgeheimnis, verhindert Doppelausgaben , Mehrausgaben und Geldwäsche.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-02931-3_62 319c56d1a8e402a6bdec1c9ca59fea93;de;;;3.1.;;;MLCA: Ein Model-Learning-Checking-Ansatz für IoT-Systeme Das Internet der Dinge (IoT) ist ein umfassendes Konzept, das ein breites Ökosystem miteinander verbundener Dienste und Geräte umfasst, die mit dem Internet verbunden sind. Das IoT-Konzept verspricht fabelhafte Versprechen, aber Sicherheitsaspekte sind in der Regel erhebliche Hindernisse für die Einführung groß angelegter IoT-Bereitstellungen. Dieses Papier schlägt einen Ansatz vor, um Unternehmen oder Organisationen bei der Sicherheitsprüfung von IoT-Systemen zu unterstützen. Dieser als Model Learning and Checking Approach (MLCA) bezeichnete Ansatz kombiniert Modelllernen zum automatischen Extrahieren von Modellen aus Ereignisprotokollen und Modellprüfungen zur Überprüfung, ob Sicherheitseigenschaften, die in Form von generischen LTL-Formeln für Modelle gelten, gelten. Die Originalität von MLCA liegt darin, dass Auditoren keine Modelle erstellen oder erfahrene LTL-Benutzer sein müssen. Die Instanziierung der LTL-Formel, die Sicherheitseigenschaften konkretisiert, wird zwar halbautomatisch durch ein Expertensystem aus Inferenzregeln durchgeführt. Letztere kodieren einiges Expertenwissen, das mit weniger Aufwand wieder auf gleichartige Systeme angewendet werden kann. Wir haben MLCA auf 5 IoT-Systemen mit Sicherheitsmaßnahmen des europäischen ENISA-Instituts bewertet. Wir zeigen, dass MLCA sehr effektiv bei der Erkennung von Sicherheitsproblemen ist und Ergebnisse innerhalb angemessener Zeit liefert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-83007-6_4 29c6003acb5e2f6e1ee7ec5ed06bde0c;de;;;3.1.;;;Material und Methoden Das Material für diese Untersuchung war Teil der wissenschaftlichen Sammlung des Zoologischen Instituts und Zoologischen Museums der Universität Hamburg. Das;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-70404-8_2 d5debe296cdf068118d03db2669d7509;de;;;3.1.;;;Annähern der Wahrscheinlichkeitsverteilung der Schaltungsleistungsfunktion für die parametrische Ertragsschätzung unter Verwendung des übertragbaren Wahrscheinlichkeitsmodells Dieses Papier wendet die Interpretation des übertragbaren Glaubensmodells (TBM) der Dempster-Shafer-Evidenztheorie auf die ungefähre Verteilung der Schaltungsleistungsfunktion für die parametrische Ausbeuteschätzung an. Durch die Behandlung von Eingabeparametern der Leistungsfunktion als Credal-Variablen, die auf einem kontinuierlichen Rahmen reeller Zahlen definiert sind, konstruiert der vorgeschlagene Ansatz einen zufälligen mengenartigen Beweis für diese Parameter. Die entsprechende Zufallsmenge der Funktionsausgabe wird durch das Erweiterungsprinzip der Zufallsmenge erhalten. Innerhalb des TBM-Frameworks kann die zufällige Menge der Funktionsausgabe im Credal-Zustand in einen pignistischen Zustand transformiert werden, wo er durch die kumulative Verteilung des Schweins repräsentiert wird. Als Näherung an die tatsächliche kumulative Verteilung kann sie verwendet werden, um die Ausbeute gemäß den Spezifikationen der Schaltungsantwort zu schätzen. Der Vorteil des vorgeschlagenen Verfahrens gegenüber Monte Carlo (MC)-Verfahren liegt in seiner Fähigkeit, nur einen Simulationsprozess zu implementieren, um einen verfügbaren Näherungswert der Ausbeute zu erhalten, der einen deterministischen Schätzfehler aufweist. Bei gleichem Fehler benötigt die neue Methode weniger Berechnungen als MC-Methoden. Ein Gleisstromkreis einer Hochgeschwindigkeitsbahn und ein numerisches achtdimensionales quadratisches Funktionsbeispiel sind enthalten, um die Effizienz dieser Technik zu demonstrieren.;-;-;-;https://link.springer.com/article/10.1007/s11432-012-4709-1 a37e1280a3e6e2c5a3ec6039d33d96cb;de;;;3.1.;;;Sicherheit der Geheimtextüberprüfung von symmetrischen Verschlüsselungsverfahren In diesem Papier wird das Sicherheitsproblem, das durch die Verifizierung von Chiffretext verursacht wird, formell diskutiert und ein neuer Sicherheitsbegriff namens IND-CVA (Indistinguishability under Ciphertext Verification Attacks) vorgestellt, um die Vertraulichkeit von Verschlüsselungsverfahren in dieser Situation zu charakterisieren. Der neue Begriff IND-CVA ermöglicht dem Gegner den Zugriff sowohl auf das Verschlüsselungs-Orakel als auch auf das Geheimtext-Verifikations-Orakel und ist etwas stärker als IND-CPA (Ununterscheidbarkeit bei Choled-Plaintext-Angriffen), aber viel schwächer als IND-CCA (Ununterscheidbarkeit bei Choled-Ciphertext-Angriffen). , und kann von den meisten gängigen symmetrischen Verschlüsselungsverfahren wie OTP (One-Time-Pad), CBC (Cipher Block Chaining) und CTR (Zähler) erfüllt werden. Ein MAC (Message Authentication Scheme) wird in der Regel mit einer Verschlüsselung kombiniert, um eine sichere Kommunikation zu gewährleisten (z. B. SSH, SSL und IPSec). Mit dem Begriff IND-CVA zeigt dieses Papier jedoch, dass ein sicherer MAC in einigen Fällen die Privatsphäre beeinträchtigen kann.;-;-;-;https://link.springer.com/article/10.1007/s11432-009-0158-x 50159c544734d40a956c6eeaefbc657b;de;;;3.1.;;;Bedeutung von EEG-Signalen in der Medizin- und Gesundheitsforschung EEG wird bei der Diagnose und Behandlung von psychischen und neurodegenerativen Erkrankungen und Anomalien des Gehirns immer wichtiger. Die Rolle des EEG besteht darin, Ärzten bei der Erstellung einer genauen Diagnose zu helfen. In der Neurologie ist eine hauptsächliche diagnostische Anwendung von EEGs bei Epilepsie, da epileptische Aktivität bei einer Standard-EEG-Studie deutliche Auffälligkeiten hervorrufen kann. In diesem Kapitel geben wir eine kurze Diskussion der verschiedenen Anwendungen und der Bedeutung von EEGs in der Diagnose von Hirnerkrankungen und auch in Brain-Computer-Interface (BCI)-Systemen. In diesem Kapitel diskutieren wir auch, warum die Analyse und Klassifikation von EEG-Signalen für die medizinische und gesundheitliche Praxis und Forschung erforderlich ist. Anschließend stellen wir die Schlüsselkonzepte der EEG-Signalklassifizierung und eine kurze Beschreibung von computergestützten Diagnosesystemen (CAD) vor.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-47653-7_2 51c8c3d2176b9320293c68b4be4cd733;de;;;3.1.;;;Ein genaues numerisches Schema zweiter Ordnung für MHD-Gleichungen Wir präsentieren ein genaues numerisches Schema zweiter Ordnung für ideale magnetohydrodynamische Gleichungen. Unser numerisches Schema ist ein Upwind-Schema basierend auf der Flussvektoraufspaltung und eine Erweiterung des Roeschen Schemas. Die Genauigkeit zweiter Ordnung wird durch MUSCL, den Monotone Upstreamcentered Scheme for Conservation Laws-Ansatz, erreicht. Unser numerisches Schema stellt sicher, dass die Gesamtvariation abnehmend (TVD) ist, sofern die Courant-Zahl kleiner als Eins ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4780-4_115 e0ee4a2d60e592b7db39cd1bddda511a;de;;;3.1.;;;Kontakte und Kontexte R. und Ägypten ist ein komplexes, zugleich äußerst uneinheitliches, vielschichtigschillerndes und materialreiches Thema mit zahlreichen Variationen. In seinem umfangreichen Kurzuvre zwar ausführlich dokumentiert IST, in seinem dichterischen Schaffen dagegen nur sporadisch, dann aber mit um so größerer Intensität zu Tage tritt, ereignet sich im kulturgeschichtlichen Spannungsfeld von Einst und Jetzt , von jahrtausendealter, denkmälerreicher Vergangenheit und Einer Gegenwart mit archaischen, seit der Antike weitestgehend unverändert gebliebenen Szenen des täglichen Lebens.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-476-01289-0_2 0e59ded53d6122d3827066ba7b1012fb;de;;;3.1.;;;Kontroversen En 1900, l’École française de dermatologie se rassemblait autour d’un projet éditorial de grande envergure. Après avoir fondé la Société française de Dermatologie et de syphiligraphie (1889), les dermatologes de France publiaient;-;-;-;https://link.springer.com/chapter/10.1007/978-2-8178-0198-8_9 bd3a994b3dba82c70a1242a50168384b;de;;;3.1.;;;Abschlussdiskussion Am Ende des Treffens fand eine Abschlussdiskussion statt, um ungelöste Probleme zu identifizieren und Vorschläge für zukünftige Aktivitäten zu sammeln. Zu Beginn dieser Veranstaltung wurde eine Gruppe von wenigen Teilnehmern gebeten, persönliche Ansichten zusammenzufassen. Dann wurde die Diskussion um die anderen herausragenden Experten erweitert, die glücklicherweise im Auditorium anwesend waren. Diskussionsbögen wurden freundlicherweise von Dr. Grün, Lamy, McDonnell, Parkin, Singer, Weinberg und Zook. Aus diesen Notizen und Aufzeichnungen vieler mündlicher Beiträge wurden hoffentlich die wichtigsten Punkte in der folgenden Liste zusammengestellt. Es ist in Abschnitte unterteilt, die die verschiedenen Methoden darstellen, und innerhalb jedes Abschnitts oder Unterabschnitts in einer Reihenfolge, die von der nahen Zukunft bis zu späteren und anspruchsvolleren Aufgaben reicht. Die Liste umfasst sowohl Punkte, die bereits untersucht wurden, aber noch einer gründlicheren Behandlung bedürfen, als auch Projekte, die noch weit von der Umsetzung entfernt sind, aber für die Zukunft dringend erwünscht sind. Als allgemeiner Trend hat sich klar herausgestellt, dass eine interdisziplinäre und synoptische Betrachtung der Probleme durch Kombination von Informationen aus verschiedenen Bereichen der vielversprechendste Weg ist, unser Wissen über die interplanetare Staubwolke zu vervollständigen und mit den spannenden Problemen der Astrophysik in Verbindung zu bringen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-5464-9_81 071e76f060c945cf28598672da982fe2;de;;;3.1.;;;Wie wir unscharf wurden (1976 - 1980) Diese kurze Notiz berichtet über unsere Anfänge in der Fuzzy-Set-Theorie und Möglichkeitstheorie, weist auf unsere damaligen Interessen und Anliegen hin und würdigt auch die Unterstützung vieler Personen, die uns in irgendeiner Weise bei der Entwicklung unserer Forschungsarbeit geholfen haben.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35644-5_49 e1539e85ab2fe93fbe4414f7a82dc3d2;de;;;3.1.;;;Zwischen „scientia“ und „studia humanitatis“ In der ersten Hälfte des 16. Jahrhunderts bahnten sich in der europäischen Medizin, besonders auf dem Feld der Anatomie, einschneidende Neuerungen an, welche Folgen umfassender innovativer kultureller und epistemologischer Umwälzungen waren und weitere von Erkenntnissen in den naturwissenschaftlichen Disziplinen — man denke nur an die wissenschaftlichen Botanik;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-86469-7_1 8f1eb25a7dadb2780015137b0908c6fd;de;;;3.1.;;;Geburt, Wachstum und Berechnung von Pi auf zehn Billionen Stellen Die universelle reelle Konstante pi, das Verhältnis des Umfangs eines beliebigen Kreises zu seinem Durchmesser, hat keine exakte numerische Darstellung in endlich vielen Stellen in einem beliebigen Zahlen-/Radix-System. Es hat ein enormes Interesse sowohl bei Mathematikern als auch bei Nicht-Mathematikern geweckt, die über Jahrtausende unzählige Stunden damit verbracht haben, seine Schönheit und seine vielfältigen Anwendungen in Wissenschaft und Technik zu erkunden. Der Artikel versucht, die Pi-Exploration über Jahrhunderte hinweg aufzuzeichnen, einschließlich ihrer sukzessiven Berechnung auf immer mehr Stellen und ihrer bemerkenswerten Verwendungen, deren Liste noch nicht abgeschlossen ist.;-;-;-;https://link.springer.com/article/10.1186/1687-1847-2013-100 501a28baf9a118a9c04a751181209f88;de;;;3.1.;;;Reaktionen von Insekten auf die aktuellen Klimaveränderungen: von Physiologie und Verhalten bis hin zu Reichweitenverschiebungen Der Klimawandel (vor allem der Temperaturanstieg) gilt derzeit als eine der gravierendsten globalen Herausforderungen der Menschheit. Hier überprüfen wir die Vielfalt der Insektenreaktionen auf die aktuelle Klimaerwärmung, mit besonderem Fokus auf echte Käfer (Heteroptera). Insekten als Ektotherme reagieren zwangsläufig auf die Temperaturänderung, und verschiedene Arten reagieren je nach ihren spezifischen physiologischen und ökologischen Merkmalen, jahreszeitlichen Zyklen, trophischen Beziehungen usw. unterschiedlich. Die Reaktion von Insekten auf die Klimaerwärmung lässt sich in sechs Kategorien einteilen: ) Verbreitungsgebiete, (2) Abundanz, (3) Phänologie, (4) Voltinismus, (5) Morphologie, Physiologie und Verhalten und (6) Beziehungen zu anderen Arten und in der Struktur von Gemeinschaften. Veränderungen in den Bereichen und der Phänologie sind leichter zu bemerken und aufzuzeichnen als andere Antworten. Reichweitenverschiebungen wurden bei Lepidoptera und Odonata häufiger gemeldet als bei anderen Insektenordnungen. Wir skizzieren kurz die Geschichte und den ökophysiologischen Hintergrund der jüngsten Änderungen der Reichweitengrenzen bei der südlichen grünen Stinkwanze;-;-;-;https://link.springer.com/article/10.1134/S0013873812070019 8744346d28c49545271eaba864052b64;de;;;3.1.;;;Variabilität zwischen Populationen und Charakterbeschreibung im Schwamm-assoziierten ist wahrscheinlich der repräsentativste symbiotische Syllid, der von Schwämmen beherbergt wird, und wurde häufig aus tropischen, subtropischen und gemäßigten Meeren berichtet. Seine äußere Morphologie scheint sehr gut an seinen Lebensstil angepasst zu sein, da alle Chaetae einfach sind und zwei kleine Zähne und einen großen Hauptfang haben. Die Art war jedoch Gegenstand einer langjährigen taxonomischen Kontroverse, die zu mehr als 15 Synonymen mit Hunderten von Aufzeichnungen weltweit führte. Die vorliegende Arbeit basiert auf der Untersuchung von mehr als 28 Populationen aus der ganzen Welt. Diese Populationen wurden mit verschiedenen Ansätzen (Morphometrie, Morphologie und Biologie) sorgfältig analysiert. Als Konsequenz ist die Existenz eines Pseudo-Geschwister-Arten-Komplexes innerhalb der sogenannten kosmopolitischen;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-0655-1_14 21c306c035d234c3c4b70f8d7ba3ab57;de;;;3.1.;;;Die Erkenntnisse aus der Entwicklung von aufmerksamen Quiz-Agenten für mehrere Benutzer In diesem Beitrag werden zwei Versuche vorgestellt, Aufmerksamkeit in einen virtuellen Quizagenten zu integrieren, wenn mehrere Spielteilnehmer anwesend sind. Einer von ihnen enthält eine Äußerungsstrategie, um zu bestimmen, wann und mit wem unter den Teilnehmern gesprochen werden soll. Der andere bietet ein SVM (Support Vector Machine) ausgelöstes Übergangszustandsmodell der Einstellung des Agenten gegenüber den Teilnehmern beim Ausdruck beobachtbarer Verhaltensweisen. Beide werden durch Timings gesteuert, die anhand von Video- und Audioinformationen der Aktivität der Teilnehmer bestimmt werden, während sie versuchen, die Quizfragen zu lösen. Um diese beiden Prototypsysteme zu evaluieren, haben wir zusätzlich zu Fragebögen die GNAT-Methode (Go/No-Go-Task) angewendet. Aus den gemeinsamen Ergebnissen der Probandenexperimente wird nachgewiesen, dass die Richtung beim Finden geeigneter Aktionszeitpunkte des Agenten den Benutzereindruck verbessern kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-04380-2_20 c9382136e57cd62a77eee443dd52a595;de;;;3.1.;;;Die 13. United Group in Shanghai. Eine Pfadfindergruppe jüdischer Flüchtlinge aus Deutschland, Österreich und der Tschechoslowakei Der Beitrag beleuchtet Pfadfinderarbeit jüdischer Flüchtlinge aus dem deutschsprachigen Raum während der Shoa in Shanghai und stellt ausgewählte Mitglieder exemplarisch vor. Die Lebens- und Familiengeschichten machen deutlich, dass die Pfadfindergruppe ein Rückzugsort in einer von Not und Sorge um in Europa verbliebene Angehörige geprägten Zeit war. Sie war eine Organisation zur Selbsthilfe. Die Ehrenamtlichen berücksichtigten Erfahrungen aus Europa, Vorgaben von Dachverbänden und lokale Herausforderungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-29269-0_17 f0e8b4f2de924c7601fbfb796b03a561;de;;;3.1.;;;Neuzusammenstellung von Broadcast-Videos basierend auf realen Szenarien Um die in einem Broadcast-Videoarchiv gespeicherten Videos effektiv nutzen zu können, haben wir an ihrer Neuzusammenstellung gearbeitet. Um dies zu realisieren, verfolgen wir einen Ansatz, der die Videos im Archiv als Videomaterial betrachtet und diese unter Berücksichtigung verschiedener Arten von Social Media Informationen als „Szenarien“ neu zusammenstellt. In diesem Beitrag stellen wir unsere Arbeiten in den Bereichen Nachrichten, Sport und Kochen vor, die Wikipedia-Artikel, Demoskopie-Umfragen, Twitter-Tweets und Kochrezepte verwenden, um Videoclips aus entsprechenden Fernsehsendungen neu zusammenzustellen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-35728-2_6 39da442a79de50b030bbd76c771f2191;de;;;3.1.;;;Über die Konvergenzeigenschaften quanteninspirierter multiobjektiver evolutionärer Algorithmen In diesem Artikel wird ein allgemeiner Rahmen von quanteninspirierten multi-objektiven evolutionären Algorithmen vorgeschlagen, der auf den Grundprinzipien des Quantencomputings und allgemeinen Schemata von multi-objektiven evolutionären Algorithmen basiert. Eine der hinreichenden Konvergenzbedingungen für die Pareto-optimale Menge wird präsentiert und in der Teilmengentheorie bewiesen. Darüber hinaus werden zwei verbesserte Q-Gates als Beispiele angegeben, die diese Konvergenzbedingung erfüllen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-74282-1_28 191f58f0f0753063a0578b69abd7a87e;de;;;3.1.;;;Multiziel-Optimierung für den Auslaugungsprozess mit verbessertem zweistufigen PSO-Guide-Algorithmus Zur Beschreibung und Analyse des Heiß-Rühr-Säure-Laugungsprozesses wurde ein mathematisches Mechanismusmodell vorgeschlagen. Das Modell hat sich im Experiment als effektiv erwiesen. Anschließend wurde das Auslaugungsproblem als eingeschränktes Mehrzieloptimierungsproblem basierend auf dem Mechanismusmodell formuliert. Zur Lösung dieses Optimierungsproblems wurde ein zweistufiger Guide Multi-Objective Particle Swarm Optimization (TSG-MOPSO)-Algorithmus vorgeschlagen, der die Konvergenz beschleunigen und die Diversität des pareto-optimalen Frontsets garantieren kann. Es wurde ein Computerexperiment durchgeführt, um die Lösung des vorgeschlagenen Algorithmus mit SIGMA-MOPSO durch Lösen des Modells und mit der manuellen Lösung in der Praxis zu vergleichen. Die Ergebnisse zeigen, dass der vorgeschlagene Algorithmus eine bessere Leistung als SIGMA-MOPSO zeigt und die aktuellen manuellen Lösungen erheblich verbessern kann. Die Verbesserung der Produktionszeit und des wirtschaftlichen Nutzens gegenüber manuellen Lösungen betragen 10,5% bzw. 7,3%.;-;-;-;https://link.springer.com/article/10.1007/s11771-011-0823-2 1292d743aec14e6e6d40932c10046d54;de;;;3.1.;;;Reference Sharing: ein neues Kooperationsmodell für kooperative Koevolution Kooperative koevolutionäre Algorithmen sind ein beliebter und effektiver Lernansatz, um Optimierungsprobleme durch Problemzerlegung zu lösen. Ihre Leistung hängt jedoch stark vom Grad der Problemtrennbarkeit ab. Für bestimmte Problemstellungen müssen in der Regel unterschiedliche Kollaborationsmechanismen gewählt werden. In dem Papier wollen wir ein Kollaborationsmodell entwerfen, das auf eine Vielzahl von Problemen erfolgreich angewendet werden kann. Wir präsentieren einen neuartigen Kollaborationsmechanismus, der dieses Potenzial bietet, zusammen mit einer neuen Sortierstrategie für Personen, denen mehrere Fitnesswerte zugewiesen sind. Darüber hinaus demonstrieren und analysieren wir unseren Algorithmus durch Vergleichsstudien mit anderen gängigen koevolutionären koevolutionären Modellen an einer Reihe von Standardfunktionsoptimierungsproblemen.;-;-;-;https://link.springer.com/article/10.1007/s10732-016-9322-9 b463cff080484e4c723439a833860c67;de;;;3.1.;;;Ein verbesserter Pareto-basierter Algorithmus für künstliche Bienenvölker für die flexible Arbeitsplanung mit mehreren Zielen In diesem Beitrag wird ein verbesserter Pareto-basierter Algorithmus für künstliche Bienenkolonien (EPABC) vorgeschlagen, um das multi-objektive flexible Job-Shop-Scheduling-Problem mit den Kriterien zu lösen, die maximale Fertigstellungszeit, die Gesamtarbeitsbelastung der Maschinen und die Arbeitsbelastung von . zu minimieren gleichzeitig die kritische Maschine. Erstens verwendet es mehrere Strategien in Kombination, um die ersten Lösungen als Nahrungsquellen mit bestimmter Qualität und Vielfalt zu generieren. Zweitens sind Ausbeutungssuchverfahren sowohl für die erwerbstätigen Bienen als auch für die Schaubienen darauf ausgelegt, neue benachbarte Nahrungsquellen zu generieren. Drittens sind Crossover-Operatoren so konzipiert, dass die Zuschauerbiene nützliche Informationen austauschen kann. In der Zwischenzeit verwendet es einen Pareto-Archivsatz, um die nicht dominierten Lösungen aufzuzeichnen, die mit einer bestimmten Wahrscheinlichkeit am Crossover teilnehmen. Um die lokale Intensivierung zu verstärken, wird eine lokale Suche basierend auf dem kritischen Pfad in die Zuschauerbienenphase eingebettet und eine Rekombinations- und Auswahlstrategie verwendet, um das Überleben der Individuen zu bestimmen. Darüber hinaus wird die Population in geeigneter Weise angepasst, um die Vielfalt in der Pfadfinderbienenphase zu erhalten. Mit der Taguchi-Methode zur Versuchsplanung wird der Einfluss mehrerer Schlüsselparameter untersucht. Simulationsergebnisse basierend auf den Benchmarks und Vergleiche mit einigen bestehenden Algorithmen zeigen die Wirksamkeit des vorgeschlagenen EPABC-Algorithmus.;-;-;-;https://link.springer.com/article/10.1007/s00170-011-3665-z 84213fdd1928420cb22ec1f9b8bf9598;de;;;3.1.;;;Markierungsdesign und -erkennung im Blindenleitsystem Für Blinde oder Asthenopie, die alle Arten von Werken in Museen oder Ausstellungen besuchen, entwerfen wir ein Blindenleitsystem und schlagen eine neuartige künstliche Leitmarke vor. Die Methode zur Gestaltung und Erkennung neuer Leitzeichen wird diskutiert. Um die Sehkraft Blinder durch künstliches Sehen zu kompensieren, nutzen wir die Kreuzverhältnisinvarianz und den Charakter der siebenteiligen Zahl, um eine künstliche Leitmarke zu entwerfen. Es besteht aus sechs Rechtecken, einem Buchstaben und ein paar siebenteiligen Nummern, die sechs Rechtecke werden verwendet, um eine Kreuzverhältniserkennungs-Führungsmarke zu konstruieren, der Buchstabe und die siebenteilige Nummer stehen für den Code des Werks im Museum. Bei der Kameraabbildung gewährleistet die Kreuzverhältnisinvarianz die Zuverlässigkeit der Erkennung der Marke. Das Experiment zeigt, dass die vorgeschlagene Methode effizient im Blindenleitsystem angewendet werden kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4020-8387-7_156 39cb1ca388ac5011ec8f12e9b6b6be2b;de;;;3.1.;;;Die Briefe BrÜhls an Heinecken 1743–1763 (Nr. 1-118) Die für den König und Brühl gekauften Bilder sollen in Leipzig bezahlt werden. Brühl wünscht den Katalog der Gemälde zu haben. Von einer Wolfenbütteler Sammlung hat der König 38 Bilder ausgewählt, sterben nach Leipzig geschickt werden sollen. Einige von Heinecken für den Minister ausgewählte Bilder sollen hinzugefügt werden. Der Bau des Brühlschen Palais in der Augustusstraße zu Dresden. Die Forderungen des Bildhauers Mattielli. Eigenhändiges Original. HStA, Dresden, Lok. 451, Revidierte Briefe Nr. 22.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-15869-1_2 3d41e436df4f3f4bc6a8500fab91f4cb;de;;;3.1.;;;Grobe Annäherungen an einige Aspekte der dreidimensionalen magnetosphärischen Dynamik Es ist im Prinzip recht gut verstanden, dynamische Probleme in einer dreidimensionalen Magnetosphäre (d. h. einer, in der alle drei adiabatischen Invarianten;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-2214-9_22 ecbf66710176bada3a3c088a870f23fd;de;;;3.1.;;;Eine Analyse und Simulation der Marslandung Es wurde ein neuartiger Ansatz zur Simulation einer Landung auf dem Mars entwickelt und eine Reihe von Tests an einem Prototyp eines unbemannten Marslanders durchgeführt. Vor kurzem wurde ein fortschrittliches Entwicklungsprogramm erfolgreich abgeschlossen, in dem ein Marseintritts- und -landesystem hergestellt und getestet wurde. Als Teil dieses Programms wurde das Landeereignis simuliert, indem der Lander aus einem in 250 Fuß schwebenden Hubschrauber abgeworfen wurde, wodurch die geplante Aufprallgeschwindigkeit von 120 Fuß/Sek. Der Lander wurde zuerst auf ein hartes, trockenes Seebett und in einem zweiten Test auf eine unnachgiebige Asphaltoberfläche abgesetzt. Einzigartige Techniken wurden erfolgreich entwickelt, um den Lander vom Hubschrauber zu lösen und das Ziel genau zu treffen. Neben den eigentlichen Tests wurde eine digitale Simulation des Landeereignisses mit Monte-Carlo-Techniken entwickelt. Dieses Landesimulationsprogramm enthält Zufallsvariablen wie Temperatur, Druck und Dichte der Atmosphäre, Oberflächenneigungen, Gesteine ​​und Lagerstärke sowie Winde.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-7551-7_41 1ab22d8540d48632a96ca2bb6b8127a8;de;;;3.1.;;;Hochempfindliche, zeitaufgelöste Absorptionsspektroskopie durch kavitätsinterne Lasertechniken Beschrieben werden Absorptionsmessungen durch Intrakavitäts-Laserspektroskopie (ILS), die außergewöhnlich hohe Nachweisempfindlichkeiten aufweisen und gleichzeitig die Eigenschaften der quantitativen, zeitaufgelösten Spektrometrie beibehalten. Die dem ILS zugrunde liegende optische Physik und die zum Erhalt dieser Spektren verwendete Instrumentierung werden beschrieben. Mit ILS aufgenommene Absorptionsspektren für stabile Absorber, transiente Intermediate, die während Reaktionen gebildet werden, und Van-der-Waals-Komplexe, die bei niedriger Temperatur in Überschallstrahlexpansionen gebildet werden, werden vorgestellt.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-4734-4_13 6104846ab94cdeaa05e1d28c23782f72;de;;;3.1.;;;Die Forderungen des physischen Lebens Der römische Sinn neigte sich, namentlich in der 2. jüngeren Zeit, dem Leben weit mehr zu als dem öffentlichen. Daher verwaltete damals die größere Zahl edler Römer ihre Güter selbst und kam meist nur den neunten und der wissenschaftlichen Thätigkeit. Von derselben Anschauung beschäftigte sich schon der alten Cato mit der Theorie der Landwirthschaft und suchten Varro, Vergil und Columella den von dem einfachen Ländlichen abgewandten Sinn hierher zurück zu lenken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-99297-1_1 abe9a04d77021021e5c69fc696b6260f;de;;;3.1.;;;Artikel A-Z : Unter A. versteht man sterben große Nutzung landwirtschaftlicher Flächen bei intensiver Bodenbearbeitung zur Gewinnung von Pflanzenerträgen für Nahrung, Kleidung und Futtermittel. Er nimmt mit der Seßhaftwerdung spätmesolithischer Kulturen seinen Anfang: Älteste Pflanzenreste, sterben auf A. schließen lassen, sind in Vorderasien im Gebiet des ›Fruchtbaren Halbmondes‹ aus der Zeit 8000 bis 6000 v.Chr. gefunden worden. Später verfügt über die mesopotamischen und ägyptischen Hochkulturen schon über einen entwickelten und spezialisierten A. Im griechisch-römischen Bereich schließlich WIRD die Einführung des A. durch die Sage in der Vorgeschichte (Geschenk der Demeter oa Götter) verlegt, ist aber wohl im 4. Jahrtausend v .Chr. erfolgt. Die ersten archäologischen Befunde für A. im griechischen Raum stammen jedoch aus der minoisch-mykenischen Epoche. In historischer Zeit ist der A. absolut unbestritten die wichtigste Grundlage der antiken Wirtschaft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-476-00218-1_1 3811e99f0dc92968eb062df99c12569a;de;;;3.1.;;;Umfrage zu Leserpräferenzen in Bezug auf das Format der von der NASA langley verfassten technischen Berichte Der technische Bericht der US-Regierung ist ein wichtiges Mittel, um die Ergebnisse der staatlich finanzierten Forschung und Entwicklung (F&E) an die US-Luft- und Raumfahrtindustrie zu übertragen. Über dieses Informationsprodukt ist jedoch wenig über seinen tatsächlichen Nutzen, seine Bedeutung und seinen Wert für den Transfer von staatlich geförderter F&E bekannt. Auch über das intermediärbasierte System, mit dem die Ergebnisse der staatlich finanzierten F&E an die US-amerikanische Luft- und Raumfahrtindustrie übertragen werden, ist wenig bekannt. Um beim Aufbau einer Wissensbasis zu helfen, wird der technische Bericht der US-Regierung im Rahmen der;-;-;-;https://link.springer.com/article/10.1007/s12109-997-0018-8 68cdfb8b2a3306bba328fb6c80fbf05a;de;;;3.1.;;;Entwurf von gemischten H-zwei/H-unendlich-optimalen Regelsystemen unter Verwendung eines multiobjektiven differentiellen Evolutionsalgorithmus In diesem Artikel wird das gemischte H-zwei/H-unendlich-Steuerungssyntheseproblem als multizielives Optimierungsproblem mit dem Ziel der gleichzeitigen Minimierung der H-zwei- und H-unendlich-Normen beschrieben. Anstatt einen auf LMIs basierenden Synthesealgorithmus aufzubauen, wird ein selbstadaptiver differenzieller Mehrziel-Evolutionsalgorithmus für Steuerparameter direkt im Reglerparameterraum entwickelt. Bei Systemen mit polytopischen Unsicherheiten wird die Worst-Case-Normberechnung als implizites Optimierungsproblem formuliert und die vorgeschlagene selbstadaptive differentielle Evolution wird verwendet, um die Worst-Case-H-zwei- und H-Unendlich-Normen zu berechnen. Die numerischen Beispiele veranschaulichen die Leistungsfähigkeit und Gültigkeit des vorgeschlagenen Ansatzes für das gemischte H-zwei/H-unendlich-Steuerungs-Mehrzieloptimierungsdesign.;-;-;-;https://link.springer.com/article/10.1007/s11768-013-1156-5 4489a2a4df50c08aa417ab18b64c03d1;de;;;3.1.;;;Paralleler Algorithmus für die Dreiecksnetzrekonstruktion durch Verformung in medizinischen Anwendungen Das Hauptziel dieser Arbeit ist die Entwicklung einer effizienten Methode zur Erzeugung von Dreiecksnetzen für physikalische Objekte mit ähnlicher geometrischer Struktur. Das Verfahren basiert auf der Verformung eines hochqualitativen Netzes, das über einem „idealen“ Objekt erzeugt wurde, in ein anderes Objekt derselben Struktur mit Erhaltung der Netzqualität. Der Ansatz verwendet den selbstorganisierenden Kartenalgorithmus und wurde für die Konstruktion von Netzen auf menschlichen Oberschenkelknochen mit den Paketen GeomBox und GeomRandom angewendet. Ein paralleler Deformationsalgorithmus wird unter Verwendung von MPI implementiert. Der Wirkungsgrad der Parallelisierung beträgt ca. 90 %.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03275-2_15 5453c46c484d682931ef73276769834e;de;;;3.1.;;;Micro-MOPSO: Ein Partikelschwarm-Optimierer mit mehreren Zielen, der eine sehr kleine Populationsgröße verwendet In diesem Kapitel stellen wir einen multiobjektiven evolutionären Algorithmus (MOEA) vor, der auf der Heuristik namens „Particle Swarm Optimization“ (PSO) basiert. Dieser multiobjektive Partikelschwarmoptimierer (MOPSO) zeichnet sich durch die Verwendung einer sehr kleinen Populationsgröße aus, was es ermöglicht, eine sehr geringe Anzahl von objektiven Funktionsbewertungen (nur 3000 pro Durchlauf) zu erfordern, um einigermaßen gute Näherungen der Pareto-Front von Problemen zu erzeugen von mäßiger Dimensionalität. Der vorgeschlagene Ansatz wählt zuerst den Anführer und dann die Nachbarschaft aus, um den Schwarm zu integrieren. Das angenommene Leader-Auswahl-Schema basiert auf Pareto-Dominanz und verwendet einen Neighbors-Dichte-Schätzer. Darüber hinaus führt der vorgeschlagene Ansatz einen Reinitialisierungsprozess zum Erhalt der Vielfalt durch und verwendet zwei externe Archive: eines zum Speichern der Lösungen, die der Algorithmus während des Suchprozesses findet, und ein weiteres zum Speichern der erhaltenen Endlösungen. Darüber hinaus ist ein Mutationsoperator integriert, um die Explorationsfähigkeiten des Algorithmus zu verbessern. Der vorgeschlagene Ansatz wird unter Verwendung von Standardtestfunktionen und Leistungsmaßen validiert, die in der Fachliteratur beschrieben sind. Unsere Ergebnisse werden mit denen verglichen, die vom Nondomination Sorting Genetic Algorithm II (NSGA-II) generiert wurden, einem MOEA-Repräsentanten für den Stand der Technik auf diesem Gebiet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-05165-4_4 1199b3cd53697156b1b089ce4b21d7c4;de;;;3.1.;;;Die Auswirkungen einer langfristigen totalen parenteralen Ernährung auf die Immunität der Darmschleimhaut bei Kindern mit Kurzdarmsyndrom: eine systematische Übersicht Das Kurzdarmsyndrom (SBS) ist definiert als der malabsorptive Zustand, der oft auf eine massive Resektion des Dünndarms folgt. Die meisten Fälle entstehen in der Neugeborenenperiode und resultieren aus angeborenen Anomalien. Sie ist mit einer hohen Morbidität verbunden, ist potenziell tödlich und erfordert oft Monate, manchmal Jahre, im Krankenhaus und zu Hause mit totaler parenteraler Ernährung (TPN). Das langfristige Überleben ohne parenterale Ernährung hängt von der Etablierung einer enteralen Ernährung und dem Prozess der intestinalen Adaptation ab, durch den der verbleibende Dünndarm seine Aufnahmekapazität allmählich erhöht. Der Zweck dieses Artikels ist es, eine deskriptive systematische Überprüfung der veröffentlichten Artikel zu den Auswirkungen von TPN auf das intestinale Immunsystem durchzuführen, um zu untersuchen, ob eine langfristige TPN eine bakterielle Translokation induziert, das sekretorische Immunglobulin A (S-IgA) verringert, die Darmimmunität beeinträchtigt, und verändert die Schleimhautarchitektur bei Kindern mit SBS.;-;-;-;https://link.springer.com/article/10.1186/1472-6955-4-2 26dbfbd239be9f48c9c9ef0306ae9a5d;de;;;3.1.;;;Wissenschaftsbasierte Datierungsmethoden in der Denkmalpflege Der Einsatz wissenschaftsbasierter Datierungsmethoden im Kontext der Denkmalpflege stellt eine spezielle Anwendung von Datierungsmethoden dar, die in prähistorischen archäologischen Studien breiter eingesetzt werden. Diese Diskussion lenkt die Aufmerksamkeit auf die Anwendung von Radiokarbon, Dendrochronologie, Obsidianhydratation und archäomagnetischer Datierung in der Denkmalpflege. Der Einsatz verschiedener analytischer und technischer Ansätze – von denen die chronometrische Auflösung nur ein Aspekt ist – bei der Erläuterung und Erweiterung deskriptiver Beobachtungen fördert ein breiteres und aufschlussreicheres Verständnis der Elemente des kulturellen Erbes unserer Nation.;-;-;-;https://link.springer.com/article/10.1023/A%3A1012419025537 0c81fe25cf50f6ecb198836e99780449;de;;;3.1.;;;Ein Workflow-Modell mit zeitlichen Beschränkungen für Notfallreaktionen Angesichts der Anforderungen an hohe Zuverlässigkeit, hohe Zeitgenauigkeit und komplizierte Zeitbeschränkungen in Notfallreaktions-Workflow-Systemen wird ein Zeitbeschränkungs-Modellierungsverfahren vorgeschlagen, um diese Anforderungen zu erfüllen. Das Verfahren zerlegt das Zeitbeschränkungsmodell in drei Ansichten, nämlich die Ressourcenansicht, die Steuerungsansicht und die Zeitansicht. In der Ressourcenansicht wird die Vorhersage von Zeitbeschränkungen der Ressourcenfähigkeit eingeführt, um die Genauigkeit der Zeitvorhersage zu verbessern. In der Kontrollansicht werden der Äquivalente Mechanismus und der Ausnahmebehandlungsmechanismus eingeführt, um Zeitbeschränkungskonflikte zu lösen und die Erfolgsrate der Prozessausführung zu verbessern. Schließlich wird in der Zeitansicht ein Zeitflussdiagramm aus der Quellansicht und der Kontrollansicht gemäß der Zeitflussdiagramm-Inferenzregel erstellt. Im Zeitflussdiagramm sind die Erkennung und Auflösung von Laufzeitkollisionen sowohl für die Definitionszeitphase als auch für die Laufzeitphase vorangestellt. Durch entsprechende Vergleichs- und Experimentauswertungen wird nachgewiesen, dass das Modell die automatische Erkennung und Auflösung von Laufzeitbeschränkungskonflikten unterstützt und die Zeitgenauigkeit und Erfolgsrate der Prozessausführung verbessert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-41908-9_15 24ab596d3cd65f26b6111864065126a9;de;;;3.1.;;;Textverarbeitungs- und Datenbanksoftware als EAD Encoding Tools Lange Containerlisten innerhalb von Findbüchern, ob neu erstellt mit EAD oder Legacyguides in elektronischen Textformaten, sind entmutigend und zeitaufwendig zu codieren und oft der Grund dafür, dass EAD Findbücher gar nicht erstellt werden. Durch den umsichtigen Einsatz von Textverarbeitungs- und Datenbanksoftware können diese Aufgaben jedoch halbautomatisiert werden. Die Anwendung der ziemlich ausgeklügelten Such- und Ersetzungsfunktion und Makros von Microsoft Word zusammen mit den Import-/Export- und Berichtsfunktionen von Microsoft Access ermöglicht es dem Benutzer, lange, sich wiederholende Datenlisten und können den Kodierungsprozess erheblich rationalisieren.;-;-;-;https://link.springer.com/article/10.1023/A%3A1009007320800 21883d66882a29ce77cd9e1af5b5cdeb;de;;;3.1.;;;Das Kopfskelett Die Kopfregion der Wirbeltiere muss eine große Anzahl besonderer Funktionen übernehmen und ist daher spezialisierter Organe. Sie unterscheidet sich im Aufbau grundsätzlich vom Rumpf. Das rostrale Körperende geht bei bilateralen symmetrischen Organismen am frühesten Kontakt mit der ein. So ist es verständlich, dass sich die großen Fernsinnesorgane (Riechorgan, Sehorgan) hier lokalisieren. Am vorderen Körperende liegen ferner sterben Öffnungen des Darmtraktes und der Atmungsorgane. Mit der Ausbildung leistungsfähiger Kontroll- und Steuersysteme (zentralisiertes Nervensystem) bildet sich hier eine umfangreiche Konzentration nervöser Zentren aus. This umfasst die primären Riech- und Sehzentren, dann auch die Kontrollzentren für den Anfangsteil des Darmkanals (Geschmackssinn) und oberste übergeordnete Assoziations-, Befehls- und Integrationsgebiete. Der Kopf wird zum Träger des Gehirns.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-67159-3_3 07415ba29ff892af581644a3638a0a99;de;;;3.1.;;;Aufgabengeschwindigkeit und Genauigkeit nehmen beim Multitasking ab Da neue Technologien die Möglichkeiten für Multitasking erhöhen, wächst die Notwendigkeit, die menschlichen Fähigkeiten für Multitasking zu verstehen. Hilft uns Multitasking, effizienter zu sein? Diese Studie untersuchte die Multitasking-Fähigkeiten von 168 Teilnehmern im Alter von 6 bis 72 Jahren, indem ihre Aufgabengenauigkeit und die Fertigstellungszeit gemessen wurden, wenn sie eine visuelle oder auditive Aufgabe alleine erledigten (Single-Tasking) im Vergleich zu den beiden Aufgaben gleichzeitig (Multitasking). . Alter, Geschlecht und Persönlichkeitsfaktoren wurden bewertet. Beobachtungen und Interviews nach dem Studium lieferten zusätzliche Einblicke in die Multitasking-Strategien der Teilnehmer. Die Ergebnisse zeigten eine signifikant geringere Genauigkeit und eine längere Bearbeitungszeit bei den Teilnehmern, wenn sie die kombinierten Aufgaben versuchten, was darauf hindeutet, dass sogar gleichzeitige Aufgaben, die von verschiedenen Modalitäten abhängen, die Effizienz beeinträchtigen können. Darüber hinaus wurde eine signifikante Korrelation zwischen den Altersgruppen beobachtet, wobei Jugendliche (13–19 Jahre) und junge Erwachsene (20–40 Jahre) die stärksten Multitasking-Fähigkeiten zeigten.;-;-;-;https://link.springer.com/article/10.1007/s10758-015-9266-4 337360e0ac5d3d55a5b7812fe83dc250;de;;;3.1.;;;Grundlagen und Perspektiven des Kulturmanagements Ende der 80er Jahre wurde, parallel zur Institutionalisierung grundständiger und weiterbildender Studiengänge zum Kulturmanagement an wissenschaftlichen Hochschulen und Universitäten (u.a. Hagen, tlamburg, Ludwigsburg), der Diskurs über Möglichkeiten und Grenzen dieser Disziplin eröffnet. Die von Anfang an kontrovers geführte Diskussion (Blamberger u.a. 1993) entführt nach wie vor einem gemeinsamen theoretisch-programmatischen Bezugsrahmens. Professionalität und Solidität in Lehre und Forschung sind für das Kulturmanagement erst in Ansätzen erkennbar. Anliegen der folgenden Beiträge (Kap. 1, 2, 3) ist es deshalb, konzeptionelle Überlegungen zur Gegenstandsbestimmung und Perspektivik von Kulturmanagement zu entwickeln und zu konkretisieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-531-91836-5_2 53760ffc6ef509f10f566b0dd1504adb;de;;;3.1.;;;Die frühmittelalterliche Nekropole von Collecchio (Parma). Menschliche Überreste Die vorliegende Studie untersucht die Skelettreste, die in der Nekropole von Collecchio (Parma) gefunden wurden und aus dem frühen Mittelalter (VII Jahrhundert n. Chr.) stammen. Die begrabene Bevölkerung wird von mindestens 154 Individuen repräsentiert: 64 Säuglinge, 13 Jugendliche und 77 Erwachsene (36 Männer, 25 Frauen). Hervorzuheben ist die hohe Säuglingssterblichkeit (42%). Das mittlere Sterbealter der Inhumierten in Collecchio beträgt etwa 24,5 Jahre. folgende Merkmale wurden beobachtet: stenomorpher und mitteltiefer Schädel mit niedriger und breiter Stirn, sehr hervortretenden supraorbitalen Kämmen, Glabella und Hinterhauptbein. Bezüglich des postkraniellen Skeletts sind die Merkmale die folgenden: Eurybraky, Euroleny, Eurymery und Eurycnemie. Die Statur ist mittelgroß für Männchen und groß für Weibchen. Aufgrund solcher Merkmale kann man in Collecchio auch eine Prävalenz von Fächern erkennen, die sich auf den nordischen und in geringerem Maße auf den mediterranen und alpinen Typ beziehen.;-;-;-;https://link.springer.com/article/10.1007/BF02446241 30a8e0d1a44d62de99f1179fdac50dec;de;;;3.1.;;;Biogeographie der Chaetodontidae: eine Analyse der Allopatrie unter eng verwandten Arten Eine kürzlich durchgeführte Untersuchung der Osteologie der Chaetodontiden hat eine Hypothese über die Beziehungen zwischen 22 osteologisch verschiedenen Gattungen und Untergattungen hervorgebracht. Vierzehn supraspezifische Taxa haben eine indopazifische oder größere Verbreitung. Die meisten von der Osteologie abgeleiteten Schwestertaxa sind weitgehend sympatrisch. Die basale Dichotomie innerhalb der großen Gattung;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-2325-6_1 f9508c93a0f35a30219a9a89e72e3ef5;de;;;3.1.;;;Das zerbrechliche Bild: Felicia Hemans und die romantische Ekphrasis Im Laufe ihrer Karriere schrieb Felicia Hemans mehr ekphrastische Gedichte als die großen romantischen Dichter zusammen, 38 um genau zu sein. Auch wenn wir unter Ekphrasis im engeren ästhetischen Sinne den Prozess verstehen, aus der bildenden Kunst verbale Kunst zu machen, war Hemans, anstelle der kürzlich von Heffernan und Mitchell vorgeschlagenen umfassenderen Definitionen, außerordentlich produktiv und vielseitig.;-;-;-;https://link.springer.com/chapter/10.1057/9780230389564_3 94eda0f90fc660c97d4da80081dde9b0;de;;;3.1.;;;Bereitstellungsverhalten und Abschätzung von Investitionsquoten bei einer Solitärbiene, Ein Aspekt der Verhaltensökologie, der insbesondere von Studenten sozialer Insekten große Aufmerksamkeit gefunden hat, ist die relative Energiemenge, die Eltern in die Aufzucht männlicher und weiblicher Nachkommen investieren. Die Theorie der sexuellen Selektion macht Vorhersagen darüber, wie Individuen ihre Gesamtinvestition auf die Geschlechter verteilen sollten. Um diese Vorhersagen zu testen, müssen wir die relativen „Kosten“, die einem Elternteil bei der Produktion eines durchschnittlichen Individuums beiderlei Geschlechts entstehen, genau quantifizieren. Körpergewichtsverhältnisse sind die gebräuchlichste Schätzung des Kostenverhältnisses, aber die Übereinstimmung zwischen dem Körpergewicht der Nachkommen und dem Energieeinsatz der Eltern wurde selten bestimmt.;-;-;-;https://link.springer.com/article/10.1007/BF00180299 04339d71a7ab9c7993771eeedc08ffc0;de;;;3.1.;;;Eine Analyse der bibliographischen Wissensdatenbank von SUDOC aus Sicht der Linkvalidität Mit dem Ziel, die Linkqualität in bibliographischen Wissensdatenbanken zu bewerten und zu verbessern, entwickeln wir ein Entscheidungsunterstützungssystem basierend auf Partitionierungssemantik. Die Neuheit unseres Ansatzes besteht in der Verwendung symbolischer Wertekriterien für die Partitionierung und einer geeigneten Partitionierungssemantik. In diesem Beitrag evaluieren und vergleichen wir die oben genannte Semantik an einer realen qualitativen Stichprobe. Dieses Muster stammt aus dem Katalog der französischen Universitätsbibliotheken (SUDOC), einer bibliographischen Wissensdatenbank, die von der Universitätsbibliographischen Agentur (ABES) verwaltet wird.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-08855-6_21 bf702d771ec634ec78620ba864f0a2c1;de;;;3.1.;;;Modus und Wachstumsrate von Ammonoiden In diesem Kapitel diskutieren wir die Art und Geschwindigkeit des Wachstums von Ammonoiden, wobei wir uns hauptsächlich auf das postembryonale Wachstum konzentrieren. Wir diskutieren zunächst den allgemeinen Wachstumsmodus und beschreiben dann die ontogenetische Abfolge der Wachstumsstadien. Diese Stadien werden anhand von Veränderungen in der Morphologie erkannt. Zum Beispiel zeigt ein Diagramm der Zunahme der Wirbelbreite gegenüber dem Schalendurchmesser bei einem Individuum Veränderungen durch Ontogenese, die das Ende einer Wachstumsphase und den Beginn einer anderen bestimmen. Als nächstes diskutieren wir die Gesamtwachstumsrate durch Ontogenese und erstellen eine verallgemeinerte Wachstumskurve. In dieser Diskussion beziehen wir uns auf andere Kopffüßer, deren Wachstumsrate bekannt ist. Schwankungen der Wachstumsrate, die dieser Wachstumskurve überlagert sind, werden bei Ammonoiden durch das Vorhandensein von Schalenmerkmalen wie Varizen und Einschnürungen angezeigt.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-9153-2_12 760e0cac9b66c08ac3ab3dea0ac7b07f;de;;;3.1.;;;Optische Eigenschaften von interplanetarem Staub in der Tangentialebene Lokale Intensität und Emissionsgrad und folglich lokaler Polarisationsgrad, Temperatur und Albedo können aus optischen und thermischen Beobachtungen von Zodiakallicht abgerufen werden. Der lokale Polarisationsgrad (normalisiert bei konstantem Sonnenabstand und Phasenwinkel) nimmt mit der Höhe über der Symmetrieebene der Tierkreiswolke ab. Die zum Symmetriepol hin etablierte Heterogenität der Wolke zeigt sich hier in der Tangentialebene (fast senkrecht zur Ekliptikebene bei 1 AE). Wir präsentieren eine Karte des lokalen Polarisationsgrades in dieser Ebene.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-3640-2_41 413204aee92fdeff3ae3ab4166ed1b87;de;;;3.1.;;;Morphologie des Coracoids der späten Kreidezeit Enantiornithines (Aves: Enantiornithes) aus Dzharakuduk (Usbekistan) Anhand von Serienmaterial aus dem Turonium von Dzharakuduk (Zentral-Kysyl Kum, Usbekistan) wird die Morphologie des Coracoids von Enantiornithinen detailliert beschrieben. Es werden Varianten jedes morphologischen Elements berücksichtigt, dies ermöglicht die Bestimmung der taxonomischen Position von Enantiornithinen sogar mit kleinen Coracoid-Fragmenten.;-;-;-;https://link.springer.com/article/10.1134/S0031030118020089 0a033595453e007a2ed80c4a53eb6a11;de;;;3.1.;;;Analyse eines ägyptischen Mumienharzes durch Massenspektrometrie Schnelle Atombombardierung kombiniert mit Massenspektrometrie (FAB/MS), hochauflösende FAB/MS, FAB-Tandem-Massenspektrometrie (MS/MS) und Gaschromatographie/Massenspektrometrie (GC/MS) wurden verwendet, um die Zusammensetzung des Harzmaterials zu bestimmen aus den Umhüllungen einer ägyptischen Mumie geborgen, die vermutlich aus der Römerzeit stammt (100-350 n. Chr.). FAB/MS- und MS/MS-Studien identifizierten mehrere Oxidationsprodukte von Abietinsäure als Hauptharzkomponenten, was darauf hindeutet, dass eine oder mehrere Nadelbaumarten von den Ägyptern als Harzquelle verwendet wurden. GC/MS-Studien identifizierten auch mehrere;-;-;-;https://link.springer.com/article/10.1016/1044-0305%2892%2985036-J 65037e12e56a969414c69ccba825a1cd;de;;;3.1.;;;Vom Wandel unserer Vorstellungen über die Frakturheilung und Kallusbildung Bot die Geschichte der Frakturbehandlung immer wieder Anlass zur Darstellung, also hat die historische Entwicklung der Lehre von der Frakturheilung und Kallusbildung bisher wenig Beachtung gefunden. Zweifelte man in der Antike an der Regenerationsfähigkeit des Knochens und dauerhaften Galen das Festwerden des Knochenbruchs durch die Bildung eines aus der Nahrung stammenden Safts (Succus ossificus), der als Leim die Bruchenden verbinde, ohne selbst Knochen zu werden, so entbrannte im 18. eine heftige Auseinandersetzung um den Ort und das Organ der mittlerweile unbestrittenen Knochenneubildung.;-;-;-;https://link.springer.com/article/10.1007/s001320050562 f4f43c3f6d6e8a8a53f02a5b1b2d321f;de;;;3.1.;;;Auswahl von Arten für die im Labor gezüchtete Algengemeinschaft nach ihren hydrobiologischen und biophysikalischen Eigenschaften Phytoplanktongemeinschaften können als Bioindikatoren für den Zustand des Wassersystems dienen. Es ist notwendig, die geeigneten Mikroalgenarten auszuwählen, um ein Modell eines natürlichen Ökosystems zu entwickeln, das die Durchführung von Multifaktorexperimenten zum Einfluss physikalisch-chemischer Faktoren auf die biophysikalischen und hydrobiologischen Eigenschaften von Phytoplankton ermöglicht. Diese Studie hat es ermöglicht, sechs Arten aus den in einem Museum verfügbaren Arten auszuwählen, um eine Modellalgengemeinschaft zu etablieren. Wir haben festgestellt, dass für ihr optimales Wachstum ähnliche Bedingungen erforderlich sind (Licht, Temperatur und mittlere Nährstoffversorgung). Als Basismedium wird ein Medium mit niedrigem Stickstoffgehalt vorgeschlagen. Unter diesen Bedingungen funktionieren die Zellen ordnungsgemäß und die Kulturen zeigen ein zufriedenstellendes Wachstum, während die Dauer des Erreichens des stationären Wachstumsstadiums (10-15 Tage) mehr Experimente für eine begrenzte Zeit ermöglicht. Die Zellen der ausgewählten Spezies weisen morphologische Unterschiede auf, die für die automatisierte Identifizierung innerhalb der Polykultur ausreichend sind. Wir haben die geometrischen Eigenschaften von Zellen für die Computerzählung jeder Art in der Gemeinschaft auf den Mikrofotografien erhalten.;-;-;-;https://link.springer.com/article/10.3103/S0096392517040046 960226b053e09e05ec103d5db275c7cb;de;;;3.1.;;;Neue Cupressocrinitidae (Crinoidea) aus den mitteldevonischen Kalkmulden der Eifel (linksrheinisches Schiefergebirge, Deutschland) Anhand von vollständigerem Material aus den mitteldevonischen Kalkmulden der Eifel (Rheinisches Schiefergebirge) wird die Revision der Crinoidenfamilie Cupressocrinitidae C.F.;-;-;-;https://link.springer.com/article/10.1007/BF03043488 138acae8d2a30f6d73ac8feb4bc3cfab;de;;;3.1.;;;Digitale Signaturen und elektronische Aufzeichnungen Dieses Papier gibt einen Überblick über die archivarischen Fragen, die sich auf digital signierte Dokumente beziehen. Zunächst wird zur Einführung kurz die fortgeschrittene digitale Signatur vorgestellt. Im zweiten Teil werden eine Reihe von Problemen diskutiert, die sich ergeben, wenn eine digitale Signatur als Echtheits- und Integritätsnachweis für digitale Dokumente im Allgemeinen verwendet wird. Insbesondere wird auch untersucht, ob es für den Archivar sinnvoll ist, alle ihm unterstellten elektronischen Akten digital zu signieren. Im dritten Teil werden Probleme der (mittel-)langfristigen Archivierung digital signierter Dokumente behandelt. Nach einem Überblick über die Knackpunkte der Langzeitvalidierung („Archivfragen“) werden eine Reihe von Lösungsmöglichkeiten diskutiert („Lösungen für die Langzeitarchivierung“).;-;-;-;https://link.springer.com/article/10.1007/s10502-007-9058-2 3641f4d192d698ce79689ab7e1b84f9a;de;;;3.1.;;;Phylogenie der Calliergonaceae (Bryophyta) basierend auf molekularen und morphologischen Daten Die Phylogenie der Calliergonaceae wird auf der Grundlage von Kern- und Chloroplastensequenzdaten sowie der Morphologie rekonstruiert. Abhängig von der Behandlung von Einfügungen und Löschungen betrug die Gesamtzahl der informativen Zeichen 194 oder 163. Die Studie lieferte gute Unterstützung für zwei Hauptkladen, eine mit;-;-;-;https://link.springer.com/article/10.1007/s00606-004-0281-5 0fff3e2472eeef8175d4a3233a4a06db;de;;;3.1.;;;Sie zensieren, ich wähle aus Was passiert, wenn ein Buchhändler einen bestimmten Titel nicht lagern oder verkaufen möchte? Stellt dieser Akt eine Entscheidung dar, einen Titel zu zensieren? Oder spiegelt es vielleicht die Überzeugung eines Buchhändlers wider, dass ein Buch die Kunden beleidigen würde (das moralische oder politische Argument)? In diesem Artikel untersucht der Autor verdeckte (was er als „unausgesprochene Ambivalenz“ bezeichnet) und offene („wir führen keine Bücher dieser Art“) Formen der „Titelauswahl“, die dabei helfen, einige Formen von;-;-;-;https://link.springer.com/article/10.1007/BF02680542 e7f7065f81626f7ffa7f7aa0909f12a5;de;;;3.1.;;;Farbverläufe, Krümmung und visuelles Tracking In diesem Papier diskutieren wir die Minimierung bestimmter Funktionale und die daraus resultierenden Gradientenflüsse für Probleme beim aktiven Sehen. Insbesondere betrachten wir, wie diese Methoden auf verformbare Konturen angewendet werden können, und;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4612-1780-0_20 4dc70c08ccff1584bc157aa805a09a90;de;;;3.1.;;;Barrieren zwischen Informatikstudenten und Benutzern mit Behinderungen abbauen Eines der Unterthemen der CWUAAT 2018 ist „Barrieren zwischen Menschen mit Beeinträchtigungen und Menschen ohne Beeinträchtigungen abbauen“. Dieses Kapitel beschreibt einen innovativen Bachelor-Studiengang, der über einen Zeitraum von 10 Jahren Barrieren zwischen Informatikstudenten ohne Behinderungen und Computerbenutzern mit Behinderungen abgebaut hat. Das Kapitel erörtert die Notwendigkeit der Vermittlung von IKT-Zugänglichkeit innerhalb des EDV-Curriculums und bietet Details zur Umsetzung innovativer Ansätze in einem Grundstudium, einschließlich Exkursionen und Einzelpartnerschaften zwischen Studenten und Computerbenutzern mit Behinderungen außerhalb der Schule universitäre Gemeinschaft.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-75028-6_15 cb03c6b2023b5d8ebde3ac4e0f956c2d;de;;;3.1.;;;Ein funktionaler Blick auf das periphere menschliche Hörorgan Das menschliche Hörorgan ist ein Signalprozessor par excellence. Seine erstaunlichen Fähigkeiten werden oft in Form von psychoakustischen Modellen beschrieben. In diesem Kapitel wird jedoch der Fokus auf den physikalischen Hintergrund gelegt, insbesondere auf die Physik des peripheren Hörorgans. Das periphere System kann als Signalkonditionierer und Präprozessor betrachtet werden, der das zentrale Nervensystem stimuliert. Es umfasst akustische, mechanische, hydroakustische und elektrische Komponenten, die insgesamt einen empfindlichen Empfänger und einen hochauflösenden Spektralanalysator realisieren. Für das tägliche Leben ist es äußerst wichtig, dass das Hörorgan auch unter widrigen Bedingungen funktionieren kann. Dazu gehört die Notwendigkeit allgemeiner Robustheit und geringer Empfindlichkeit gegenüber wechselnden äußeren und inneren Arbeitsbedingungen. Im Hörorgan finden sich mehrere Strategien, die sich deutlich von technischen Lösungen unterscheiden.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-27437-5_3 1aa98f4c90ef13e0942adfaddb7bb4d2;de;;;3.1.;;;BCI-basierte Navigation in virtuellen und realen Umgebungen Ein Brain-Computer Interface (BCI) ist ein System, das es Menschen ermöglicht, ein externes Gerät mit ihrer Gehirnaktivität zu steuern, ohne dass eine Muskelaktivität erforderlich ist. Forscher auf dem Gebiet des BCI wollen Anwendungen entwickeln, um die Lebensqualität von schwerbehinderten Patienten zu verbessern, für die ein BCI ein nützlicher Kanal für die Interaktion mit ihrer Umwelt sein kann. Einige dieser Systeme sollen ein mobiles Gerät (z. B. einen Rollstuhl) steuern. Virtual Reality ist ein leistungsstarkes Werkzeug, das den Probanden die Möglichkeit bietet, verschiedene Anwendungen in einer sicheren Umgebung zu trainieren und zu testen. Diese technische Überprüfung wird sich auf Systeme konzentrieren, die auf die Navigation sowohl in virtuellen als auch in realen Umgebungen ausgerichtet sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-38682-4_43 ef0f0e925845860a1007031227c63265;de;;;3.1.;;;Heinrich Hertz Heinrich Hertz (1857–1894) begann 1876 seine Etüden an der Technischen Hochschule Dresden, ein avantgardistischer Sohn des Militärdienstes in einem Cheminregiment in Berlin. En 1877 il s’inscrit dans des études d’ingénieur à la Technische Hochschule München, puis à l’université de Munich. L’année suivante, Hertz s’inscrit à l’université de Berlin, où il suit les cours de Kirchhoff et de Helmholtz. Il soutient une thèse de physique en 1880, et devient l’assistant de Helmholtz. En 1883 il devient Privatdozent an der Universität Kiel, où il enseigne la physique théorique, und en 1885 il est professeur de physique expérimentale à la Technische Hochschule Karlsruhe Hertz erfindet alles, was ein Produkt von Schwingungen und Schwingungen und Schwingungen von Schwingungen ist. Le résonateur de Hertz lui permet de Confirmer, en 1887, l’existence des ondes électromagnétiques se propageant dans l’air avec une vitesse finie, un effet prévu par la théorie de Maxwell. La valeur de cette découverte est reconnue à l’Académie des sciences, qui décerne à Hertz le prix La Caze de physique en 1889 (Gauja, 1917, 229).;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7643-8303-9_30 b629a388e328b56d04c1834483a76edb;de;;;3.1.;;;Kanongeschichten Die Unterkapitel dieses Teils des Handbuchs setzen sich mit der Geschichte von Kanonbildungen in verschiedenen antiken, deutschsprachigen, anglophonen, romanischen und slavischen Sprachräumen auseinander. Die Darstellung des Entstehens, des Tradierens und des Wandels von Kanones WIRD unterschiedlich gestaltet und föhrt eine Reihe der möglichen Herangehensweisen an Kanongeschichten vor Augen, z. B. im Rückgriff auf literarische Institutionen oder das literaturgeschichtliche Wissen. Außerdem werden Kanongeschichten von Genreliteraturen (Kriminalroman, Comics, Fantasy-Literatur), Kinder- und Jugendliteratur und der globalen, kosmopolitischen Weltliteratur rekonstruiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-476-05306-0_6 731121f11e71de85e7045d6c99e36da1;de;;;3.1.;;;Subtraktionsbasierte Hinderniserkennung vorwärts mit beleuchtungsunempfindlicher Funktion zur Fahrunterstützung In diesem Artikel wird ein Verfahren zum Erkennen allgemeiner Hindernisse auf einer Straße durch Subtrahieren von aktuellen und früheren fahrzeuginternen Kamerabildern vorgeschlagen. Der bildsubtraktionsbasierte Objekterkennungsansatz kann angewendet werden, um jede Art von Hindernissen zu erkennen, obwohl die bestehenden lernbasierten Verfahren nur bestimmte Hindernisse erkennen. Um allgemeine Hindernisse zu erkennen, berechnet das vorgeschlagene Verfahren zunächst eine bildweise Entsprechung zwischen den gegenwärtigen und den vergangenen fahrzeuginternen Kamerabildsequenzen und registriert dann die Straßenoberflächen zwischen den Bildern. Schließlich werden Hindernisse durch Anwenden einer Bildsubtraktion auf die registrierten Straßenoberflächenbereiche mit einem beleuchtungsunempfindlichen Merkmal für eine robuste Detektion erkannt. Es wurden Experimente durchgeführt, indem mehrere Bildsequenzen verwendet wurden, die von einer tatsächlichen Fahrzeugkamera aufgenommen wurden, um die Wirksamkeit des vorgeschlagenen Verfahrens zu bestätigen. Die experimentellen Ergebnisse zeigen, dass das vorgeschlagene Verfahren allgemeine Hindernisse in einer ausreichenden Entfernung genau erkennen kann, um sie auch in Situationen mit unterschiedlichen Beleuchtungen sicher zu umgehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-33868-7_51 c159fb882782381436f1e1fe9299b262;de;;;3.1.;;;Neue ID-basierte Gruppensignatur von Pairings Wir argumentieren, dass traditionelle identitätsbasierte Systeme aus Paarungen aufgrund des Problems der Schlüsselhinterlegung für den Entwurf von Gruppensignaturschemata ungeeignet erscheinen. In diesem Papier schlagen wir zunächst neue ID-basierte Public-Key-Systeme ohne Trusted PKG (Private Key Generator) aus bilinearen Paarungen vor. Wenn in unseren neuen ID-basierten Systemen das unehrliche PKG sich als ehrlicher Benutzer ausgibt, um mit anderen zu kommunizieren, kann der Benutzer anschließend einen Beweis für den Verrat des PKG erbringen, ähnlich wie bei zertifikatsbasierten Systemen. Daher erreichen unsere Systeme das Trusted Level 3 von Girault. Anschließend schlagen wir unter den neuen ID-basierten Systemen ein Gruppensignaturschema vor, dessen Sicherheit und Leistung auf den neuen Systemen beruhen. Die Größe des öffentlichen Gruppenschlüssels und die Länge der Signatur sind unabhängig von der Nummer der Gruppe.;-;-;-;https://link.springer.com/article/10.1007/s11767-005-0065-2 3d4d5292197211f0a8d84d2ca6afd8de;de;;;3.1.;;;Wellenausbreitung in stoßbelasteten Raumfachwerken In dieser Arbeit wird die Ausbreitung elastischer und plastischer Wellen in beliebigen räumlichen Fachwerken unter Stoßbelastung betrachtet. Besonderes Augenmerk wird auf die Herleitung der Gleichungen gelegt, die benötigt werden, um die Verteilung der Wellen an den Pins zu bestimmen. Anschließend werden die Gleichungen kompakt als Matrixgleichung geschrieben, die numerisch gelöst wird. Verschiedene Beispiele veranschaulichen die Methode.;-;-;-;https://link.springer.com/article/10.1007/BF00804758 f7dcd07d1659dc3cf6d5fa7961074f45;de;;;3.1.;;;Das Nest der Honigbiene ( Das natürliche Honigbienennest wurde eingehend untersucht, um die natürlichen Lebensbedingungen der Honigbiene besser zu verstehen. Um den Nistplatz zu beschreiben, machten wir Außenbeobachtungen an 39 Nestern in hohlen Bäumen. Wir haben 21 dieser Baumnester gesammelt und seziert, um die Nestarchitektur zu beschreiben. Unter den Bienenbäumen überwiegt keine Baumgattung stark. Nesthöhlen sind vertikal länglich und ungefähr zylindrisch. Die meisten haben ein Volumen von 30 bis 60 Litern und stehen am Fuß von Bäumen. Nesteingänge sind in der Regel klein, 10 bis 40 cm;-;-;-;https://link.springer.com/article/10.1007/BF02223477 f6e5b8f213bd5852965bb7dda29a22ec;de;;;3.1.;;;Multi-Objective-Topologieoptimierung mit Simulated Annealing Method Die Topologie mechanischer Teile hat einen entscheidenden Einfluss auf ihre Leistungsfähigkeit, und es wurden bereits viele Methoden vorgestellt, um die Topologie unterschiedlicher Strukturen zu optimieren. In diesem Artikel wurde der Coannealing-Algorithmus für Topologieoptimierungsprobleme mit mehr als einer Zielfunktion verwendet. Dieser Algorithmus hat viele Konzepte aus dem Archived Multi-Objective Simuliert Annealing (AMOSA) übernommen, jedoch ist das Akzeptanzkriterium der neuen Lösung weniger komplex. Außerdem wurde eine Filtertechnik verwendet, um den Suchbereich einzuschränken, wodurch die Rechenkosten gesenkt und die Auflösung der endgültigen Materialverteilung verbessert wurde. Die Ergebnisse wurden mit den gleichen Eingabewerten und den Ergebnissen in der Literatur mit einem maximalen Fehler von 2,7 % validiert. Die praktikablen Lösungen in der Pareto-Frontkurve aus dieser Methode können verwendet werden, um die am besten geeignete auszuwählen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-63403-2_31 bca351049f87f600e2976c57ee8401ec;de;;;3.1.;;;Bewertung visuellkognitiver Prozesse Die spezielle Rolle der hinteren rechten Hemisphäre bei der visuellen Wahrnehmung wurde erstmals 1864 von John Hughlings Jackson vorangetrieben. Zwölf Jahre später beschrieb Jackson (1876/1958) einen Patienten, dessen Krankheitsverlauf seine Spekulationen über die Lateralisation höherer Sehfunktionen bestätigte. Der klinische Krankheitsbeginn bei Jacksons Patient war durch eine plötzliche Episode räumlicher Desorientierung gekennzeichnet. Obwohl die Patientin seit 30 Jahren in derselben Nachbarschaft wohnte, konnte sie den Weg in einen nahegelegenen Park, den sie häufig besucht hatte, nicht finden. Jackson beobachtete, dass sein Patient an dem litt, was er „Unwahrnehmung“ nannte: die Unfähigkeit, Gegenstände, Personen und Orte zu erkennen. Innerhalb von Monaten entwickelte der Patient eine linke Hemiplegie und verschlimmerte sich schnell ins Koma und zum Tod. Die Autopsie ergab einen großen Tumor in der hinteren rechten Hemisphäre mit zwei kleineren Tumoren in unmittelbarer Nähe.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-9709-1_6 e7abdb2d8abe572159421fd0a64e7f7d;de;;;3.1.;;;Kosmische Strahlung und Klima Zu den rätselhaftesten Fragen des Klimawandels gehört die Variabilität des Sonnenklimas, die seit mehr als zwei Jahrhunderten die Aufmerksamkeit von Wissenschaftlern auf sich zieht. Bis vor kurzem war sogar die Existenz der Sonnen-Klima-Variabilität umstritten – vielleicht, weil die Beobachtungen hauptsächlich Korrelationen zwischen dem Klima und dem Sonnenfleckenzyklus beinhalteten, die nur wenige Jahrzehnte andauerten. In den letzten Jahren haben verschiedene Rekonstruktionen des Klimawandels in der Vergangenheit jedoch klare Assoziationen mit Variationen der kosmischen Strahlung, die in kosmogenen Isotopenarchiven aufgezeichnet wurden, gezeigt, was überzeugende Beweise für den Einfluss der Sonne oder der kosmischen Strahlung auf das Klima liefert. Trotz der zunehmenden Beweise für ihre Bedeutung wird die Sonnenklima-Variabilität jedoch wahrscheinlich umstritten bleiben, bis ein physikalischer Mechanismus etabliert ist. Obwohl dies ein Rätsel bleibt, deuten Beobachtungen darauf hin, dass die Wolkenbedeckung durch kosmische Strahlung beeinflusst werden kann, die durch den Sonnenwind und auf längeren Zeitskalen durch das Erdmagnetfeld und die galaktische Umgebung der Erde moduliert wird. Zwei verschiedene Klassen mikrophysikalischer Mechanismen wurden vorgeschlagen, um kosmische Strahlung mit Wolken zu verbinden: erstens ein Einfluss der kosmischen Strahlung auf die Bildung von Wolkenkondensationskernen und zweitens ein Einfluss der kosmischen Strahlung auf den globalen Stromkreis in der Atmosphäre wiederum auf Eiskeimbildung und andere mikrophysikalische Wolkenprozesse. In den letzten Jahren wurden erhebliche Fortschritte beim Verständnis von Ionen-Aerosol-Wolken-Prozessen erzielt, und die Ergebnisse deuten auf einen physikalisch plausiblen Zusammenhang zwischen kosmischer Strahlung, Wolken und Klima hin. Allerdings sind nun konzertierte Anstrengungen erforderlich, um definitive Labormessungen der beteiligten grundlegenden physikalischen und chemischen Prozesse durchzuführen und ihre klimatische Bedeutung mit speziellen Feldbeobachtungen und Modellstudien zu bewerten.;-;-;-;https://link.springer.com/article/10.1007/s10712-008-9030-6 bda2ff883959b916efdf390626eea293;de;;;3.1.;;;Ein koevolutionärer Algorithmus mit gemischter Strategie und mehreren Zielen basierend auf Einzelpunktmutation und Partikelschwarmoptimierung Der Partikelschwarm-Optimierungsalgorithmus wurde im letzten Jahrzehnt zur Lösung von Mehrzieloptimierungsproblemen verwendet. Dieser Algorithmus hat eine Fähigkeit zur schnellen Konvergenz, jedoch muss seine Explorationsfähigkeit erweitert werden. Ein alternatives Verfahren zur Überwindung dieses Nachteils besteht darin, Mutationsoperatoren zu den Partikelschwarm-Optimierungsalgorithmen hinzuzufügen. Da die Einzelpunktmutation gut für die globale Exploration geeignet ist, wird in diesem Artikel ein neuer koevolutionärer Algorithmus vorgeschlagen, der Einzelpunktmutation und Partikelschwarmoptimierung miteinander kombiniert. Die beiden Operatoren arbeiten im Rahmen von evolutionären Algorithmen mit gemischter Strategie zusammen. Der vorgeschlagene Algorithmus wird auf einem Benchmark-Testset validiert und mit klassischen evolutionären Mehrziel-Optimierungsalgorithmen wie NSGA2, SPEA2 und CMOPSO verglichen. Simulationsergebnisse zeigen, dass der neue Algorithmus nicht nur seine Leistung in Bezug auf schnelle Konvergenz und Gleichverteilung garantiert, sondern auch die Vorteile der Stabilität und Robustheit bietet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-31900-6_23 00e619ac9a2e2027a1648b26d5f88566;de;;;3.1.;;;Gesundheitliche Auswirkungen der berufsbedingten Exposition gegenüber LED-Licht: Ein besonderer Hinweis auf Pflanzenbauarbeiten in Pflanzenfabriken Leuchtdioden (LED) sind eine der größten Erfindungen, die die Pflanzenproduktionspraktiken in den Pflanzenfabriken verändert haben. Zwei Hauptvorteile der LED-Beleuchtung sind die hohe Energieeffizienz und die beliebige Steuerbarkeit des spektralen Designs. Trotz der rasanten Fortschritte in der LED-Beleuchtungstechnologie werden bei der Fabrikplanung von Anlagen Verarbeitbarkeit und Arbeitsschutz nicht berücksichtigt. In diesem Kapitel schildere ich die eingeschränkte Verarbeitbarkeit und die möglichen gesundheitlichen Probleme im Zusammenhang mit LED-Beleuchtung. Die Pflanze nutzt blaues Licht (BL) für die Photosynthese, während BL schwere chronische Krankheiten wie Diabetes mellitus und Brustkrebs verursachen kann;-;-;-;https://link.springer.com/chapter/10.1007/978-981-10-1848-0_31 3b318231eefc95856db6f7a8190ab10c;de;;;3.1.;;;Wolkenformationen per Satellit gesehen Meteorologische Satelliten haben die Erkennung von Wolkenformationen auf Skalen ermöglicht, die für gewöhnliche Einzelbeobachterberichte oder Entdeckungen durch Wetterkartenanalyse nicht anfällig sind. Diese Formationen sind von grundlegender Bedeutung, da sie viele der mesoskaligen Mechanismen repräsentieren. Die offensichtlichsten Formationen werden zusammen mit einem Abschnitt über die Nutzung eines Satellitenarchivs für klimatologische Zwecke beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-3881-6_1 86570b8f507ef35c8f0369c5cb737a83;de;;;3.1.;;;Anti-Parkinson-Medikamente heute Die medikamentöse Behandlung der Parkinson-Krankheit hat 3 Hauptstadien durchlaufen: erstens die Verwendung von Anticholinergika und Amantadin, dann die Einführung von Levodopa und seine Assoziation mit peripheren Decarboxylase-Inhibitoren und schließlich die Verwendung von direkt wirkenden Dopaminagonisten. Levodopa bleibt jedoch das wirksamste Einzelmedikament bei der Parkinson-Krankheit. Leider sind die Nebenwirkungen, die heute mit einer Levodopa-Langzeitbehandlung verbunden sind, eine wichtige Ursache für funktionelle Behinderungen. „Positive“ Nebenwirkungen wie unwillkürliche Bewegungen und psychiatrische Störungen sind nach wie vor schwer zu bewältigen, ohne eine Zunahme der Parkinson-Immobilität zu verursachen. Dies hat ein neues Interesse an den hochkomplexen pharmakokinetischen und pharmakodynamischen Eigenschaften von Levodopa geweckt, mit dem Ziel, Schwankungen der Plasmakonzentrationen von Levodopa (und damit von Dopamin im Gehirn) durch orale oder kontinuierliche parenterale Verabreichung des Arzneimittels mit verzögerter Freisetzung zu reduzieren.;-;-;-;https://link.springer.com/article/10.2165/00003495-198428030-00002 8f4ed6cf7ebeeae683054c57eac894b1;de;;;3.1.;;;Zwang und Zwangskräfte Es Werden Systeme mechanisch behandelt, sterben über begrenzte Zeit wirksamen Zwängen unterworfen sind. Dies sind typische Haft-Gleit-Übergänge und Stöße. Die Verwendung der Lagrangeschen Gleichungen erster Art benötigt bei Aktivwerden der Bindungen der Ermittlung der Langrangeschen Multiplikatoren. In der vorliegenden Arbeit wird ein Verfahren vorgestellt und an Beispielen erläutert, das sterben mögliche Bindungen nach Vorrang, ohne dass Zwangskräfte explizit in Erscheinung treten. Letztere lassen sich jedoch im Bedarfsfall durch eine einfache Beziehung angeben.;-;-;-;https://link.springer.com/article/10.1007/BF00787956 5a1c0405460e0d6149b86281e77ccf58;de;;;3.1.;;;NUANCE: Naturalistic University of Alberta Explorer für nichtlineare Korrelationen In diesem Artikel beschreiben wir den Nonlinear Correlation Explorer (NUANCE) der Naturalistic University of Alberta, ein Computerprogramm zur Datenexploration und -analyse. NUANCE ist darauf spezialisiert, nichtlineare Beziehungen zwischen einer beliebigen Anzahl von Prädiktoren und einem zu prognostizierenden abhängigen Wert zu finden. Es durchsucht den Raum möglicher Beziehungen zwischen den Prädiktoren und dem abhängigen Wert, indem es natürliche Selektion verwendet, um Gleichungen zu entwickeln, die die Korrelation zwischen ihrer Ausgabe und dem abhängigen Wert maximieren. In diesem Artikel stellen wir das Programm vor, beschreiben seine Verwendung und liefern anschauliche Beispiele. NUANCE ist in Java geschrieben, das auf den meisten Computerplattformen läuft. Wir haben NUANCE zur Archiv-Website der Psychonomic Society (www.psychonomic.org/archive) beigetragen, von der es kostenlos heruntergeladen werden kann.;-;-;-;https://link.springer.com/article/10.3758/BF03192745 2d1b2bdc739111506d54ebfa987ee698;de;;;3.1.;;;Waldbau und Forstverwaltung in Ungarn 11.–20. Jahrhundert Mitte des 20. Jahrhunderts waren die Wälder ziemlich öde und ausgebeutet und wurden durch Industrialisierung und Zivilisation noch stärker gefährdet. Als Zeichen des Gewissens tauchte aber auch die bewusste Absicht auf, mit dem Naturschutz zu beginnen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-75159-2_10 7914c9e5751c3e12a3cf04c06d670918;de;;;3.1.;;;Enchondrom des Kahnbeins Das Kahnbein ist ein sehr seltener Ort für Enchondrome. Die Literatur berichtet von acht Fällen, fünf davon mit pathologischer Fraktur, und der jüngste Patient war 13 Jahre alt. Dies ist ein Bericht eines 11-jährigen Patienten mit Kahnbeinenchondrom, der sich mit nur leichten Schmerzen im linken Handgelenk vorstellte. Die Magnetresonanztomographie zeigte die Läsion deutlich.;-;-;-;https://link.springer.com/article/10.1007/s00402-001-0368-1 435f135ad4021c937d16a80cb0810f97;de;;;3.1.;;;Allgemeine Dysplasie der Hirnarterien mit persistierender primitiver akustischer Arterie und Riesenaneurysma Ein Fall von zerebrovaskulärer systemischer Dysplasie wird vorgestellt. Die Anomalien waren: persistierende primitive akustische Arterie, Riesenaneurysma der linken A. carotis interna, Aneurysma der A. basilaris und eine arteriovenöse Fistel. Eine Literaturrecherche zeigt, dass die Assoziation multipler Fehlbildungen von Hirngefäßen mit einer persistierenden primitiven Akustikusarterie bisher nicht beschrieben wurde. Als Ursache der Fehlbildungen wird eine Beeinträchtigung der Embryonalentwicklung vermutet.;-;-;-;https://link.springer.com/article/10.1007/BF00381464 3c1305d751db41d39ce97d5b0c2f9688;de;;;3.1.;;;Die Struktur der Decidua im Nebenhorn bei Schwangerschaft mit Uterus bicornis Die lose angelagerte Dezidualschleimhaut im akzessorischen Horn eines Uterus bicornis unterscheidet sich grundsätzlich nicht von der Schleimhaut im Horn des Fötus. Strukturstudien zeigen, dass die Regression des dezidualen Endometriums zu einer endothelartigen Auskleidung ein hormonabhängiger Prozess ist, wie die Stromaglanddissoziation. Mechanische Faktoren durch die Expansion des Fötus spielen sicherlich keine große Rolle. Degenerative Phänomene wie fokale Nekrosen, sklerosierende Ödeme, Thrombosen und entzündliche Infiltrate treten vermutlich häufiger im Nebenhorn auf. Sie können durch stärkere regionale Perfusionsstörungen und die mindere Versiegelung der Gebärmutterhöhle erklärt werden.;-;-;-;https://link.springer.com/article/10.1007/BF02108626 3b27ebc79b1077a717e3a0a5e04e05a9;de;;;3.1.;;;Mit MiniSat . in trivium Gleitpaare finden Ein Paar von Distinkten (Schlüssel, IV) wird als verschiebbar bezeichnet, wenn sie bis zu einer Verschiebung zwei identische Schlüsselströme erzeugen können. In diesem Artikel untersuchen wir Gleitpaare in Trivium. Wir wandeln die resultierenden nichtlinearen Gleitgleichungen in eine SAT-Instanz um und verwenden MiniSat, einen SAT-Löser, um sie zu lösen. Wir finden nicht nur mehr Gleitpaare als das vorherige Ergebnis bei Gleitpaaren in Trivium, sondern stellen auch eine neue Methode bereit, die höhere Taktverschiebungen behandeln kann und viel weniger zeitaufwendig ist.;-;-;-;https://link.springer.com/article/10.1007/s11432-012-4676-6 304a758b338b90094e7f527d51187b26;de;;;3.1.;;;Visuelle Positionsschätzung im Freien für planetarische Rover Dieses Papier beschreibt (1) einen neuartigen, effektiven Algorithmus zur visuellen Positionsschätzung im Freien, (2) die Implementierung dieses Algorithmus im Viper-System und (3) die umfangreichen Tests, die die überlegene Genauigkeit und Geschwindigkeit des Algorithmus gezeigt haben. Das Viper-System (;-;-;-;https://link.springer.com/article/10.1023/A%3A1008966317408 30ec1ea636d654000108910449a3cd9f;de;;;3.1.;;;Visuell evozierte Potentiale zu blinken als Indikator für Hirnfunktionsstörungen nach Gehirnerschütterungen bei Kindern Sechsundsechzig zufällig ausgewählte Kinder mit konkussiven Kopfverletzungen unterschiedlichen Ausmaßes wurden einer visuell evozierten Potenzial-to-Flash-Untersuchung (VECP) unterzogen. Bewertet man nur die Unterschiede im okzipitalen Potential zwischen beiden Hemisphären und/oder beiden Augen, war die VECP in 23 Fällen pathologisch. Die Abschätzung der Schwere der Kopfverletzungen nach dem Vorschlag von Lange-Cosack und Tepfer (Grad I–VI) ergab eine enge Korrelation zwischen der Inzidenz der pathologischen VECP und dem zunehmenden Traumagrad. VECP-Veränderungen waren in der Regel vorübergehender Natur bei leichten Verletzungen (I und II) und konstant bei Traumata höheren Grades (III–VI). Hinsichtlich der Übereinstimmung von VECP- und EEG-Befunden stimmen in zwei Drittel der Fälle die Ergebnisse beider Methoden hinsichtlich der Indikation „pathologisch“ oder „nicht pathologisch“ überein. In einem Drittel lieferten die Methoden unterschiedliche Ergebnisse.;-;-;-;https://link.springer.com/article/10.1007/BF02159977 c0937348f64b5a07b4ea4168c53ddb1d;de;;;3.1.;;;Auswirkungen von anorganischem Blei auf die Aktivität der Delta-Aminolävulinsäure-Dehydratase und hämatologische Variablen bei der Regenbogenforelle, In Erythrozyten, Milz und Nierengewebe von Regenbogenforellen war die Aktivität des Enzyms Delta-Aminolävulinsäure-Dehydratase (ALA-D);-;-;-;https://link.springer.com/article/10.1007/BF01056348 a90406cc27aa5804d89e501dbcb8af53;de;;;3.1.;;;Kryptoanalyse der vollständigen PRIDE-Blockchiffre PRIDE ist eine leichtgewichtige Blockchiffre, die auf der CRYPTO 2014 von Albrecht et al. vorgeschlagen wurde, die behaupteten, dass der Aufbau von linearen Schichten effizient und sicher ist. In diesem Papier untersuchen wir den Schlüsselplan und finden acht iterative 2-Runden-Differentialmerkmale für verwandte Schlüssel, die verwendet werden können, um 18-Runden-Differentiale für verwandte Schlüssel zu konstruieren. Eine Untersuchung der ersten Unterschlüssel-Ableitungsfunktion zeigt, dass es drei schwache Schlüsselklassen gibt, wodurch alle Unterschiede der Unterschlüssel für jede Runde identisch sind. Für die schwachen Schlüsselklassen finden wir auch acht 2-Runden-iterative Related-Key-Differentialmerkmale. Basierend auf einem der zugehörigen Schlüsselunterschiede starten wir einen Angriff auf die vollständige PRIDE-Blockchiffre. Die Daten- und Zeitkomplexität beträgt 2;-;-;-;https://link.springer.com/article/10.1007/s11432-015-5487-3 6496f6f6cdb3037c49b4df5e3268f071;de;;;3.1.;;;Immunhistochemische Beobachtungen von sich teilenden Zellen im Riechepithel mit Anti-BrdU-Antikörper Zur Untersuchung der sich teilenden Zellen im Riechepithel wurde ein Experiment mit einer neuartigen immunhistochemischen Technik mit Bromdesoxyuridin (BrdU) durchgeführt. Gewebeproben wurden aus dem olfaktorischen Epithel von Meerschweinchen an den Tagen 7 und 21 nach Axotomie des Riechnervs entnommen. Die BrdU-Aufnahme wurde in der Epithelzellschicht direkt über der Basalzellschicht und nicht in den Basalzellen per se nachgewiesen. Die BrdU-immunreaktiven Zellen wurden nach 7 Tagen häufiger gefunden als nach 21 Tagen nach der Axotomie. Die Basalzellen zeigten an keinem Tag eine Immunreaktion auf den Anti-BrdU-Antikörper. Die mit dem Anti-BrdU-Antikörper reagierenden Zellen zeigten auch keine Reaktion auf den zur Identifizierung der Basalzellen verwendeten Anti-Cytokeratin-Antikörper. Diese Ergebnisse weisen darauf hin, dass die Zellen, die mitotische Aktivität zeigen, andere Eigenschaften aufweisen als Basalzellen, die früher als Vorläufer von regenerierenden Riechrezeptorzellen angesehen wurden.;-;-;-;https://link.springer.com/article/10.1007/BF00176759 75716cf677bc5e804ca80ce7b83462bb;de;;;3.1.;;;Lupenendoskopische Elektromyographie des Musculus crico-arytaenoideus dorsalis (Posticus) am wachen Patienten Das EMG ermöglicht die Diagnose, Verlaufskontrolle und Prognose einer Stimmbandlähmung sowie die Indikation zur Operation. Mit dem Zoom-Endoskop nach v. Stuckrad kann das EMG in örtlicher Betäubung durchgeführt werden. Mit einem speziell entwickelten Instrument kann die Nadelelektrode transoral exakt im hinteren M. cricoarytenoideus sowie in anderen Kehlkopfmuskeln appliziert werden. Da der Patient den Anweisungen folgen kann, können sowohl freiwillige als auch spontane Aktivitäten unter visueller und akustischer Kontrolle während der Inspiration, Phonation und Exspiration auf einem Band aufgezeichnet werden. Somit ist eine Wiedergabe, Kontrollprüfung und elektronische Summation möglich.;-;-;-;https://link.springer.com/article/10.1007/BF00463910 f9debf1d05421d3d1d51054af7ffa114;de;;;3.1.;;;Psychoakustische Studie zur Abhängigkeit des TTS im Hochfrequenzbereich von der Expositionsfrequenz (150–500 cps) Belastet mit einer bestimmten Frequenz, also erhält man zwei Senken im Audiogramm, sterben zweite IST von Interesse, weil sie sich im Bereich der PTS befindet. Die Amplitude of this Senke zeigt Eine Abhängigkeit von der Belastungsfrequenz: 200 Hz bezeichnend weniger TTS hervor als 350 Hz. Die Ursache dieser TTS liegt vermutlich in der Cochlea.;-;-;-;https://link.springer.com/article/10.1007/BF00455402 6b1c85d9aba964e7f016c747745dba12;de;;;3.1.;;;Testkostensensitive Attributreduktion in entscheidungstheoretischen Grobmengen Entscheidungstheoretische Rough Sets (DTRS) können als eine Art kostensensitives Lernmodell der Fehlklassifizierung angesehen werden. In DTRS ist die Attributreduktion der Prozess der Minimierung von Fehlklassifizierungskosten. In der Praxis sind die Daten jedoch nicht kostenlos und es fallen Testkosten an, um Merkmalswerte von Objekten zu erhalten. Daher sollte der Prozess der Attributreduktion dazu beitragen, sowohl die Fehlklassifizierungskosten als auch die Testkosten zu minimieren. In diesem Beitrag wird das minimale Testkostenattributreduktionsproblem (MTCAR) in DTRS definiert. Ziel der Attributreduktion ist es, Fehlklassifizierungskosten und Testkosten zu minimieren. Ein genetischer Algorithmus (GA) wird verwendet, um dieses Problem zu lösen. Experimente an UCI-Datensätzen werden durchgeführt, um die Wirksamkeit von GA zur Lösung des MTCAR-Problems zu validieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-44949-9_14 ec208d8f49e38c623eb92d9003bbe72e;de;;;3.1.;;;Schätzen von Fischaugenkameraparametern aus der Homographie Dieses Papier präsentiert eine Methode zur linearen Schätzung von Fischaugenkameramodellparametern aus der durch die Raumebene zwischen zwei Fischaugenbildern induzierten Homographie. Die Homographie wird zunächst unter Verwendung von vier Merkmalspunkten anstelle von drei Punkten auf derselben Linie im Fischaugenbild berechnet. Und die Einschränkung der Modellparameter der Fischaugenkamera kann aus der Homographie unter der Annahme abgeleitet werden, dass das Fischaugenkameramodell ein Polynommodell ist. Dann werden die Modellparameter für Polynome unterschiedlicher Ordnung berechnet. Die vorgeschlagene Technik erfordert nur mehrere Fischaugenbilder, um eine planare Szene zu enthalten, und erfordert keine a priori Kenntnis der 3D-Koordinaten der planaren Szene. Experimentelle Ergebnisse mit synthetischen Daten und echten Fischaugenbildern belegen die Gültigkeit unserer Methode. Das Verfahren kann auch auf Fischaugenbilder einer anderen planaren Szene mit Ausnahme des planaren Kalibrierobjekts erweitert werden.;-;-;-;https://link.springer.com/article/10.1007/s11432-011-4277-9 c681b1213582b135a26d30b77736f6fa;de;;;3.1.;;;Bestimmung des Quecksilbergehalts von in Cialit konservierten Geweben Die Quecksilber-Gewebe-Konzentrationen von Implantaten (Strukturen des Mittelohrs, Knochen, Knorpel, Dura) nach Konservierung in Cialit-Lösungen sind weitgehend unabhängig von Konservierungsbedingungen, gering und scheinen physiologisch zu sein.;-;-;-;https://link.springer.com/article/10.1007/BF00456697 e15930a6f5a039b31dbb3e231bb2094a;de;;;3.1.;;;Zur Matrix-Feedback-Schieberegister-Synthese für Matrixsequenzen In diesem Beitrag wird eine Verallgemeinerung des linearen Feedback-Schieberegister-Syntheseproblems für die Synthese von Matrix-Feedback-Schieberegistern minimaler Länge (kurz MFSRs) vorgestellt, um vorgeschriebene Matrixsequenzen zu erzeugen, und so wird ein neues Komplexitätsmaß, d . Dieses Problem hängt eng mit der minimalen Teilrealisierung in linearen Systemen zusammen und kann daher durch jeden minimalen Teilrealisierungsalgorithmus gelöst werden. Alle MFSRs minimaler Länge, die in der Lage sind, eine gegebene Matrixsequenz mit endlicher Länge zu erzeugen, werden charakterisiert und eine notwendige und hinreichende Bedingung für das Eindeutigkeitsproblem wird erhalten. Weiterhin wird das asymptotische Verhalten des Matrixkomplexitätsprofils von Zufallsvektorsequenzen bestimmt.;-;-;-;https://link.springer.com/article/10.1007/s11432-015-5302-1 3174fdefc7ade6c77dccf58f14bae97a;de;;;3.1.;;;Le Service Fourniture de Documents à la Bibliothèque de L’institut Pasteur de Paris Die Abteilung für Dokumentenlieferungen der Bibliothek des Pariser Instituts Pasteur wurde zunächst als Antwort auf die Bedürfnisse ihrer Wissenschaftler gegründet. Nach und nach wandte sich die Abteilung an andere französische Forschungseinrichtungen, die in der Mikrobiologie und verwandten Gebieten tätig sind. Seit 1994 wurde die Leitung des Geschäftsbereichs grundlegend neu organisiert, um die neuen Aufgaben zu erfüllen: Automatisierung mit Excel- und Word-Software, Spezialisierung des Personals, Einsatz neuer Tools zur Informationssuche, Diversifizierung unserer Lieferanten und Bestellwege. Um der Weiterentwicklung seines Handelns gerecht zu werden, arbeitet der Bereich Dokumentenlieferung nun an neuen Projekten: Ein Webserver wird im Internet-Netzwerk in Betrieb genommen (Zugang zum Katalog und zur Dokumentenlieferung für alle unsere Kunden). In nächster Zukunft könnten wir Bestellformulare direkt aus der Datenbankverwaltungssoftware heraus bearbeiten und auch Volltexte zu unserem Datenbanknetzwerk hinzufügen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-015-8786-0_45 37bcf7f401defe68d321b7df3f2ba6b3;de;;;3.1.;;;Ein vorläufiger Versuch, maschinelle Übersetzungen von Ukiyo-e-Metadatensätzen zu bewerten Die Bereitstellung mehrsprachiger Metadatensätze für digitale Objekte ist eine Möglichkeit, den Zugang zu digitalen Kultursammlungen zu erweitern. Jüngste Fortschritte bei Deep-Learning-Techniken haben die maschinelle Übersetzung (MT) genauer gemacht. Daher bewerten wir die Leistung von drei bekannten MT-Systemen (d. h. Google Translate, Microsoft Translator und DeepL Translator) bei der Übersetzung von Metadatensätzen von Ukiyo-e-Bildern aus dem Japanischen ins Englische. Wir bewerten die Qualität ihrer Übersetzungen mit einer automatischen Bewertungsmetrik BLEU. Die Bewertungsergebnisse zeigen, dass DeepL Translator bei der Übersetzung von Ukiyo-e-Metadatensätzen besser ist als Google Translate oder Microsoft Translator, wobei Microsoft Translator am schlechtesten abschneidet.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-030-64452-9_24 9e6210ef0a1fa009f94e6c5078f719e6;de;;;3.1.;;;Das 54-Stunden-Gesetz und die alternative Professionalisierung der Sozialen Arbeit Dieses Kapitel konzentriert sich auf die zentrale Rolle von Perkins bei der Verabschiedung des Fifty-Four-Stunden-Gesetzes während ihrer Arbeit für die Consumers League und ihre beiden bemerkenswerten Erfolge dort. Ihr Einfluss wird durch ihre Arbeit mit Senator McManus bei der Gesetzesvorlage gezeigt, und das Kapitel skizziert ihre Entschlossenheit, den Bedürftigen durch diese Arbeit zu helfen. Ihre Allianz mit Tammany Hall veranschaulicht ihren Pragmatismus und ihre Fähigkeit, die Ziele der Sozialarbeit zu erreichen und gleichzeitig Tammany zu helfen. Durch die Zusammenarbeit mit der Regierung widersetzt sich Perkins einem wachsenden konservativen Trend in der Sozialarbeit.;-;-;-;https://link.springer.com/chapter/10.1057/9781137527813_4 ab0f658d9bd87df6ad6d58eb57ab0b94;de;;;3.1.;;;Entwicklung Ihrer Ziele und Auswahl von Methoden Nachdem Sie Ihr Projektziel entwickelt haben, können Sie mit der Entwicklung von Zielen beginnen und später auch für jedes Ziel eine Methode auswählen. Das bedeutet, dass Sie Ihren Fokus von dem, was Sie tun möchten (d. Dazu können Sie einen vierstufigen Prozess anwenden: i) Ziele entwickeln, ii) potenzielle Methoden finden, iii) Methoden auswählen und iv) Details des gewählten Methodensets präsentieren.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4471-3846-4_8 747344adb8011f5d5b92f8a1146c108e;de;;;3.1.;;;Pharmakokinetische und pharmakodynamische Überlegungen bei der medikamentösen Therapie kardialer Notfälle Bei der medikamentösen Therapie von Herznotfällen ist es notwendig, schnell therapeutische Wirkstoffkonzentrationen zu erreichen und die Medikamentendosis an den sich ändernden klinischen Zustand des Patienten anzupassen. Eine kardiale Dysfunktion ist häufig vorhanden und kann die Pharmakokinetik des Arzneimittels verändern. Kreislaufversagen verursacht in den meisten Geweben eine sympathisch vermittelte Vasokonstriktion mit relativer Schonung von Gehirn und Herz aufgrund der Autoregulation. Der Blutfluss zu gefäßverengtem Gewebe wird reduziert und das verfügbare Herzzeitvolumen wird umverteilt, sodass Herz und Gehirn einen größeren Anteil erhalten. Die Verteilung des Arzneimittels auf die Gewebe wird daher verlangsamt, und die anfängliche Konzentration des Arzneimittels im Blut ist höher, wenn ein Kreislaufversagen vorliegt, als wenn es nicht vorhanden ist. Diese höhere Blutkonzentration spiegelt sich in höheren Wirkstoffkonzentrationen im Gehirn und Herz wider, die relativ gut durchblutet werden. Die Anfangsdosen vieler Medikamente müssen bei Patienten mit Kreislaufversagen reduziert werden, um eine Toxizität des Herzens oder des zentralen Nervensystems zu verhindern.;-;-;-;https://link.springer.com/article/10.2165/00003088-198409040-00001 9118e5078c74c814ccfb4f625ebb71d5;de;;;3.1.;;;Zur Simulation der Thermodynamik Simulated Annealing ist ein randomisiertes Optimierungsverfahren, das Verschlechterungen der Zielfunktion mit einer von einem Kontrollparameter abhängigen Wahrscheinlichkeit aufgrund einer physikalischen Analogie in Kauf nimmt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-46787-5_3 a95e3d765988d307a8bd57854e5fcd75;de;;;3.1.;;;Optische Archivierung Die Situation in unserer Arbeitswelt ist gegenwärtig gemessen vom immer größerer Effizienz, höherer Produktivität und schnellerem Agieren auf internationalen gekennzeichnet. Bei betrieblichen Entscheidungsprozessen bestimmt die Geschwindigkeit hauptsächlich den Erfolg eines Unternehmens, nicht die Größe. Die optische Archivierung aller Business-Dokumente eines Unternehmens kann die Geschäftsprozesse dabei erheblich steigern. Optimal ist die kombinierte Lösung von Business Workflow und digitalem Archivierungsprogramm, da auf alle Informationen schneller und dadurch effizienter Zugriff besteht.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-89862-3_3 2c4098e7d7eb3f9f42b1ce208f48c6f7;de;;;3.1.;;;Restitution und menschlicher Schlaf: Ein kritischer Rückblick Es wird oft angenommen, dass der menschliche Non-REM-Schlaf, insbesondere seine scheinbar intensivere Form des Slow-Wave-Schlafs (SWS), mit einer starken Zunahme von Körperrestitutionsprozessen, beispielsweise der Proteinsynthese, verbunden ist. Allerdings scheinen die Ergebnisse des totalen Schlafentzugs nur eine Funktion der Gehirnwiederherstellung für den menschlichen Schlaf und nicht die der Körperwiederherstellung zu unterstützen. Obwohl ein Anstieg der Freisetzung des menschlichen Wachstumshormons (hGH) während des SWS eine körpereigene Wiederherstellungsfunktion unterstützen könnte, weist die Vielfalt der komplexen Wirkungen von hGH darauf hin, dass andere Wirkungen, insbesondere die Umverteilung von Energiesubstraten, wahrscheinlich sind. Die hGH-Freisetzung im Schlaf kann ein irreführender Faktor beim Verständnis der SWS-Funktion sein. Eine Zunahme der Proteinsynthese während des menschlichen Schlafs ist aus mehreren Gründen unwahrscheinlich. Die Erhöhung der Mitose, die im Schlaf auftreten kann, ist wahrscheinlich ein begleitendes Phänomen. Während ein entspanntes Wachen das Erholungsbedürfnis des menschlichen Körpers decken sollte, kann das Fehlen eines solchen entspannten Zustands bei bestimmten Säugetieren erfordern, dass der Schlaf dieses Bedürfnis dieser Tiere erfüllt. Obwohl der REM-Schlaf allein allgemein als für die zerebrale Restitution gedacht ist, müssen Beweise für diese Sichtweise qualifiziert werden. Es wird argumentiert, dass Nicht-REM-Schlaf, insbesondere SWS, für das menschliche Gehirn von gleichem Nutzen ist.;-;-;-;https://link.springer.com/article/10.3758/BF03332894 f60764d063e1888fc609a6bffd4e8754;de;;;3.1.;;;Ein effizienter Ansatz für Fuzzy Decision Reduct Computing Fuzzy Rough Sets ist eine Erweiterung klassischer Rough Sets zur Merkmalsauswahl in hybriden Entscheidungssystemen. Jedoch ist eine Reduktionsberechnung unter Verwendung des Fuzzy-Rough-Set-Modells rechenaufwendig. In der Literatur wurde ein modifizierter Schnellreduktionsalgorithmus (MQRA) zur Berechnung der Fuzzy-Entscheidungsreduktion unter Verwendung des Radzikowska-Kerry Fuzzy-Rough-Set-Modells vorgeschlagen. In diesem Beitrag entwickeln wir ein vereinfachtes Rechenmodell zur Entdeckung positiver Regionen im Fuzzy-Rough-Set-Modell von Radzikowska-Kerry. Die Theorie wurde entwickelt, um das Weglassen von Objekten der absoluten positiven Region zu validieren, ohne die nachfolgenden Inferenzen zu beeinflussen. Die entwickelte Theorie wird in MQRA integriert, was zu einem verbesserten MQRA-Algorithmus (IMQRA) führt. Die an IMQRA beteiligten Berechnungen werden als Vektoroperationen modelliert, um weitere Optimierungen auf Implementierungsebene zu erhalten. Die Wirksamkeit von Algorithmen(en) wird empirisch durch eine vergleichende Analyse mit mehreren bestehenden Reduktionsansätzen für hybride Entscheidungssysteme unter Verwendung von Fuzzy-Rough-Sets nachgewiesen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-54756-0_5 2d1f0410b14923847cdbf9336cf8f807;de;;;3.1.;;;Eine ärztliche Studienreise Nach der anstrengenden Strassburger Assistentenzeit wollte ich etwas von der Welt sehen. Land und Leute interessierten mich dabei ebenso, wie der damalige Zustand der Heilkunde im Auslande.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-47584-9_5 6b9f07cb5fb4a80a0b22dcef04575734;de;;;3.1.;;;Einführung in Band II Orthographie.—Der Leitgedanke war, die Texte möglichst nach der Aussprache der Sänger zu transkribieren und zu veröffentlichen. Auf die weniger offensichtlichen Abweichungen von den literarischen Formen konnte ich mangels gründlicher phonetischer Ausbildung nicht näher eingehen, z;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-3502-6_1 c77822b6b61ebb8f7d13a4db14d5aead;de;;;3.1.;;;Aufstand im Midi, 1621 Kaum war eine Versöhnung mit seiner Mutter vereinbart, marschierte Ludwig XIII. mit einem Sturm des Zorns im Herzen südwärts. Dreimal, innerhalb von drei Jahren, hatte Louis den Souveränen Rat von Pau angewiesen, das Restitutionsedikt anzumelden. Jedes Mal lehnten sie es schroff ab. Beam ist ein eigenständiger Souverän, argumentierten die Magistrate, getrennt vom Königreich Frankreich. Es unterliegt seinen eigenen Gesetzen und Gebräuchen, die der König ohne Zustimmung seiner Untertanen nicht ändern oder reformieren kann. Blind auf ihre geografische Isolation vertrauend, spotteten die Hugenottenräte über die Idee, dass „dieser Prinz jemals nach Beam kommen sollte“.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-017-1798-4_4 f5acb9a473d0e938fd882069014ea341;de;;;3.1.;;;Kombinatorische Optimierung mit mehreren Zielen: Problematisch und Kontext Das vorliegende Kapitel soll als kurze Einführung in die restlichen Kapitel dieses Bandes dienen. Das Hauptziel besteht darin, einen allgemeinen Überblick über die kombinatorische Optimierung mit mehreren Zielen zu geben, einschließlich ihrer wichtigsten grundlegenden Definitionen und einiger Begriffe zur Einbeziehung von Benutzerpräferenzen. Darüber hinaus präsentieren wir auch kurze Beschreibungen einiger der beliebtesten multi-objektiven evolutionären Algorithmen, die derzeit verwendet werden. Da die Leistungsbewertung eine kritische Aufgabe bei der Mehrzieloptimierung ist, präsentieren wir auch einige Leistungsindikatoren sowie einige Diskussionen zur statistischen Validierung in einem Mehrzieloptimierungskontext. Das Ziel dieses Kapitels ist nicht, umfassend zu sein, sondern lediglich die wichtigsten grundlegenden Themen anzusprechen, die zum Verständnis des Materials im Rest des Buches erforderlich sind.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-11218-8_1 21a10c74650e46bb0c9255380084e7c4;de;;;3.1.;;;Erfassung eines qualitativen Modells der Netzwerkleistung und Vorhersage des Verhaltens Be Dieses Papier beschreibt eine Methode zur Konstruktion von Verhaltensmodellen von Kommunikationsnetzen. Die Methode verwendet archivierte quantitative Leistungsdaten, die von einer Netzwerkverwaltungsplattform erstellt wurden, um eine;-;-;-;https://link.springer.com/article/10.1023/A%3A1018737009902 d5bc58db177391002f5082bf8c51b501;de;;;3.1.;;;Ein hybrider multiobjektiver Partikelschwarm-Optimierungsansatz zur nicht-redundanten Genmarkerauswahl Die Genmarker oder biologischen Marker zeigen eine Veränderung der Expression oder des Proteinzustands an, die mit dem Risiko oder dem Fortschreiten einer Krankheit oder mit der Anfälligkeit der Krankheit gegenüber einer gegebenen Behandlung korreliert. Es gibt viele Ansätze zum Nachweis dieser informativen Gene aus hochdimensionalen Microarray-Daten. In der Praxis wird jedoch in den meisten Fällen ein Satz redundanter Markergene identifiziert. Motiviert durch diese Tatsache wurde ein hybrides multiobjektives Optimierungsverfahren vorgeschlagen, das eine kleine Menge von nicht redundanten krankheitsbezogenen Genen finden kann. In diesem Artikel wurde das Optimierungsproblem als Mehrzielproblem modelliert, das auf dem Rahmen der Partikelschwarmoptimierung basiert. Da die Wrapper-Ansätze von einer bestimmten Klassifikatorbewertung abhängen, wird daher der Klassifikator des künstlichen neuronalen Netzes als Bewertungskriterium verwendet. Unter Verwendung der realen Datensätze wurde die Leistung des vorgeschlagenen Algorithmus mit anderen verschiedenen Techniken verglichen.;-;-;-;https://link.springer.com/chapter/10.1007/978-81-322-1038-2_18 3f2e15dcada304c41a8c9b89f818e930;de;;;3.1.;;;Urkunden der Erd- und Lebensgeschichte als Zeitmarken Über den Wortsinn altüberlieferter Namen für erdgeschichtliche Zeitabschnitte Devon, Bundsandstein, Tertiär nachzudenken, ist zwar erzählerisch sehr reizvoll, für den praktischen Umgang mit diesen Namen jedoch ohne Belang. Die erdgeschichtliche Nomenklatur ist genau so wie die zoologische nichts anderes als ein System gekennzeichnet werden. Davon wird noch zu sprechen sein (IV). If aber gegenwärtig mit dem ausdrücklichen Vorsatz, dieses leere, formale S stern der . „Formations-Namen“ durch ein anderes, aussagereiches zu ersetzen, für neue Namen geworben WIRD, dann ist bei diesen auf den Wortsinn als das Wesentliche gerade zu achten. If also auch etwa sterben kambrisch-silurische Zeit neuerdings als „Schwarzschiefer-Formation“, ein Abschnitt der Jurazeit als „OolithFormation“, d. h. WENN hier Namen für Erdzeiten von Gesteinen abgeleitet sind, dann ist das bewusst geschehen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-05477-1_3 8c58c337b9dee7bd2bb3bb5fdf9bcda8;de;;;3.1.;;;Überblick über die wichtigsten Ansätze zur automatisierten E-Mail-Beantwortung Im Jahr 2014 wurden täglich 108,7 Milliarden geschäftliche E-Mails gesendet, viele davon an Contact Center. Es wurden eine Reihe von automatisierten E-Mail-Antworttechniken untersucht, um die Last der manuellen Handhabung der Nachrichten zu erleichtern. Die meisten Techniken basieren auf drei Ansätzen zur Textsuche – Textkategorisierung durch maschinelles Lernen, statistische Textähnlichkeitsberechnung, Abgleich von Textmustern und Vorlagen. Der Artikel diskutiert die bisherige Forschung zur automatisierten E-Mail-Beantwortung und vergleicht die Techniken.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-31232-3_13 4b1807bb1b81e7f5ff20a5c93b4b6941;de;;;3.1.;;;Variationsqualitätskontrolle von nicht-gaußschen Innovationen im GRAPES m3DVAR-System: Massenfeldbewertung von Assimilationsexperimenten Das Vorhandensein von Ausreißern kann die Analyse der Variationsdatenassimilation ernsthaft beeinflussen. Durch die Qualitätskontrolle können wir diese Ausreißer effektiv eliminieren oder absorbieren, um bessere Analysefelder zu erzeugen. Insbesondere die Variations-Qualitätskontrolle (VarQC) kann Grauzonen-Ausreißer verarbeiten und wird daher in Variations-Datenassimilationssystemen breit verwendet. In dieser Studie werden Regelgleichungen für zwei VarQC-Algorithmen abgeleitet, die verschiedene verunreinigte Gauß-Verteilungen (CGDs) verwenden: Gauß-Plus-Flachverteilung und Huber-Normverteilung. Als solche können diese VarQC-Algorithmen mit Ausreißern umgehen, die nicht-Gaußsche Innovationen aufweisen. Dann werden diese VarQC-Algorithmen in dem dreidimensionalen Variationsdatenassimilationssystem (m3DVAR) auf Modellebene des Global/Regional Assimilation and PrEdiction System (GRAPES) implementiert. Tests mit künstlichen Beobachtungen zeigen, dass die VarQC-Methode mit der Huber-Verteilung eine stärkere Robustheit für die Einbeziehung von Ausreißern zur Verbesserung der posterioren Analyse aufweist als die VarQC-Methode mit der Gauß-Plus-Flachverteilung. Darüber hinaus zeigen reale Beobachtungsexperimente, dass die Verteilung der Beobachtungsanalysegewichte gut mit der Theorie übereinstimmt, was darauf hinweist, dass die Anwendung von VarQC im GRAPES m3DVAR-System effektiv ist. Nachfolgende Fallstudien und Experimente zur Langzeitdatenassimilation zeigen, dass die räumliche Verteilung und Amplitude der Beobachtungsanalysegewichte mit den Analyseinkrementen des Massenfelds (Geopotentialhöhe und Temperatur) in Beziehung stehen. Im Vergleich zum Kontrollexperiment weisen VarQC-Experimente deutlich bessere posteriore Massenfelder auf. Schließlich ist die VarQC-Methode mit der Huber-Verteilung der VarQC-Methode mit der Gauß-Plus-Flat-Verteilung überlegen, insbesondere auf den mittleren und unteren Ebenen.;-;-;-;https://link.springer.com/article/10.1007/s00376-021-0336-3 f61c9881f5d8daa00a10bd9a7d394d45;de;;;3.1.;;;"Sexuell übertragbare Krankheiten: Reisen durch Raum und Zeit In diesem Bericht präsentieren wir einen historischen Überblick über die Entwicklung von sexuell übertragbaren Krankheiten in verschiedenen Regionen der Welt, um die charakteristischsten Faktoren hervorzuheben, die an der Ausbreitung und/oder dem Rückgang von sexuell übertragbaren Krankheiten im Laufe der Jahrhunderte und auf der ganzen Welt beteiligt waren. Wir haben eine bestimmte Anzahl von Artikeln als Ergebnis einer bibliographischen Recherche in der MEDLINE-Datenbank (Januar 1966 - September 1997) ausgewählt, indem wir die Schlüsselwörter ""sexuell übertragbare Krankheiten"" und ""Urogenitalkrankheiten"" mit ""Geschichte der Medizin"" aus der Antike vermischt haben bis 20. Jahrhundert. Einhundertvier Artikel wurden für diese Studie als relevant befunden. Die Zahl der Veröffentlichungen zu sexuell übertragbaren Krankheiten in der Vor- und Aids-Ära war zahlenmäßig nicht unterschiedlich. Von den 58 ausgewählten Publikationen wurden im Zeitraum 1966–1984 (noch vor der Aids-Ära) 40 (68,96 %) in nordosteuropäischen Zeitschriften (meist aus Russland, Deutschland und Polen) gefunden und diese Publikationen analysierten ausschließlich die Geschichte von sexuell übertragbaren Krankheiten in jedem einzelnen Land. Im Gegenteil, während der Aids-Ära gab es eine beträchtliche Zunahme von Veröffentlichungen in amerikanischen und westeuropäischen Zeitschriften, die die Entwicklung von sexuell übertragbaren Krankheiten nicht nur in ihren eigenen Ländern, sondern auch in Afrika und Asien untersuchten. Nur 33 Artikel";-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-4621-0_81 6159740dd5d2deed413e543a2db93e8b;de;;;3.1.;;;Ausdruck von a Wir beschrieben die Konstruktion eines rekombinanten filamentösen Phagen, der auf seiner Oberfläche die immundominante Stelle des VP1-Proteins des Maul- und Klauenseuchevirus (FMDV) zeigt. Die kodierende Sequenz wurde am Aminoterminus des Haupthüllproteins pVIII über einen Spacer eingefügt. Der Hybridphage erwies sich als antigen, da er von polyklonalen und monoklonalen Anti-FMDV-Seren erkannt wurde. In zwei Experimenten, die die Immunisierung von Meerschweinchen mit dem rekombinanten Phagen beinhalteten, wurde eine schwache Antikörperantwort erzeugt. Dies legt eine mögliche Rolle von Phagen-dargestellten Peptiden bei der Induktion einer Anti-FMDV-Immunität nahe, und die Möglichkeit einer weiteren Entwicklung wird diskutiert.;-;-;-;https://link.springer.com/article/10.1007/s00705-003-0192-8 262e19e5858e9ce188437b8a30e9e370;de;;;3.1.;;;Ausschussbasiertes aktives Lernen für Abhängigkeitsanalyse Annotationen zu strukturierten Korpora sind ein grundlegendes Instrument für die aufkommende linguistische Forschung. Um Annotationen automatisch zu generieren, benötigen datengesteuerte Abhängigkeitsparser einen großen annotierten Korpus, aus dem sie lernen können. Diese Anmerkungen sind jedoch teuer zu sammeln und erfordern eine arbeitsintensive Aufgabe. Um die Kosten der Annotation zu reduzieren, bieten wir einen neuartigen Rahmen, in dem ein Komitee von Abhängigkeitsparsern zusammenarbeiten, um ihre Effizienz durch aktives Lernen zu verbessern.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-40501-3_56 ffed4073b247ad0290854e8ef5351187;de;;;3.1.;;;Geschwülste des Magens und Duodenums Die Stützgeschwülste des Magens Auch des gesamten Verdauungskanals Sind Nicht häufig, Erreichbar — Abgesehen von den Fibromyomen — Kaum eine besondere Größe und treten nur sehr selten in Erscheinung, so daß sie meist als Nebenbefunde bei den Sektionen erhoben werden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-5436-6_7 aacbb3c2ac8253c7b3a22fd37edfdc36;de;;;3.1.;;;Ein Rahmen für die Segmentierung biomedizinischer Figuren in Richtung bildbasierter Dokumentenabruf Die in vielen biomedizinischen Veröffentlichungen enthaltenen Zahlen spielen eine wichtige Rolle beim Verständnis der darin beschriebenen biologischen Experimente und Fakten. Neuere Studien haben gezeigt, dass es möglich ist, die Informationen, die aus Abbildungen extrahiert werden, in klassische Dokumentenklassifikations- und Retrievalaufgaben zu integrieren, um deren Genauigkeit zu verbessern. Eine wichtige Beobachtung zu den in biomedizinischen Veröffentlichungen enthaltenen Zahlen ist, dass sie sich oft aus mehreren Teilfiguren oder Panels zusammensetzen, die jeweils unterschiedliche Methoden oder Ergebnisse beschreiben. Die Verwendung dieser multimodalen Zahlen ist eine gängige Praxis in den Biowissenschaften, da experimentelle Ergebnisse durch mehrere Methoden oder Verfahren grafisch validiert werden. Daher ist es für eine bessere Verwendung multimodaler Zahlen bei Dokumentenklassifizierungs- oder -abrufaufgaben sowie zur Bereitstellung der Evidenzquelle für abgeleitete Behauptungen wichtig, multimodale Zahlen automatisch in Unterzahlen und Panels zu segmentieren. Dies ist jedoch eine anspruchsvolle Aufgabe, da verschiedene Panels ähnliche Objekte (d. h. Balken- und Liniendiagramme) mit mehreren Layouts enthalten können. Außerdem sind bestimmte Arten biomedizinischer Figuren textlastig (z. B. DNA-Sequenzen und Proteinsequenzbilder) und unterscheiden sich von herkömmlichen Bildern. Als Ergebnis sind klassische Bildsegmentierungstechniken, die auf Bildmerkmalen niedriger Ebene, wie Kanten oder Farbe, basieren, nicht direkt anwendbar, um multimodale Figuren robust in einzelne modale Felder zu unterteilen.;-;-;-;https://link.springer.com/article/10.1186/1752-0509-7-S4-S8 6a3bd7607bd3d55690f322455e58d6a8;de;;;3.1.;;;Spätere Artusdichtungen Die Mehrzahl der überlieferten Artusdichtungen gehört dem 13. bis 16. Jh. ein. Sechs zentrale Probleme Lassen sich aufgrund des gegenwärtigen Forschungsstandes herauskristallisieren: 2. Die Verfasser zahlreicher Werke sind unbekannt, oder sterben über die Überten Namen (z.T. fiktiv) geben keinen Aufschluß über die Autoren, weil sie entweder nicht urkundlich bezeugt sind oder Aussagen über den Dichter auf andere Weise nicht gewonnen werden can. Lediglich dialektale Eigenheiten der Sprache der Texte können Hinweise auf den wahrscheinlichen Wirkungskreis entweder der Verfasser oder deren Rezeptoren geben. 3. Die Editionen sind z.T. unzulänglich, da viele Texte im vorigen Jahrhundert oder zu Anfang dieses Jahrhunderts herausgegeben wurden, so dass sie oft weder den heutigen Editionsprinzipien noch dem gegenwärtigen Textbefund (aufgrund neuer Handschriftenfunde) entsprechen. Hinzu kommt, dass zahlreiche Texte in mehreren divergierenden Fassungen vorliegen (z.B. frz. »Prosa-Tristan«). Häufig ist nur eine Fassung ediert worden, und Handschriftensynopsen fehlen gänzlich.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-476-03951-4_4 cff591c2e45eb82d27178d89ab4df80b;de;;;3.1.;;;Virtuelles Drehgestell: Ausstellungssystem zum Verständnis des Mechanismus von Drehgestellen mit digitaler Vitrine Unser Ziel ist es, ein digitales Vitrinensystem aufzubauen, das Hintergrundinformationen zu einem ausgestellten Objekt effektiv vermittelt und unser System in musealen Ausstellungsräumen einführt. In diesem Beitrag stellen wir ein digitales Vitrinensystem vor, das es dem Betrachter ermöglicht, mit einem ausgestellten Artefakt auf eine Weise zu interagieren, die seinen dynamischen Mechanismus leichter vermittelt als herkömmliche Ansätze. Basierend auf einem Feldversuch in einem Museum berichten wir über Beobachtungen von Besuchern, Kritiken von Museumskuratoren und eine detaillierte Bewertung und Diskussion des Systems.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-20618-9_62 baf15eb730011b9b277099ecb0e3fb94;de;;;3.1.;;;Wiederherstellung und Visualisierung der 3D-Struktur von Chromosomen aus Tomographischen Rekonstruktionsbildern Die Ziele dieser Arbeit umfassen die automatische Wiederherstellung und Visualisierung einer 3D-Chromosomenstruktur aus einer Sequenz von 2D-tomographischen Rekonstruktionsbildern, die durch den Zellkern aufgenommen wurden. Die Struktur ist für Biologen sehr wichtig, da sie die Chromosomenfunktionen, das Verhalten der Zelle und ihren Zustand beeinflusst. Die Analyse der Chromosomenstruktur ist bei der Erkennung von Krankheiten, der Identifizierung von Chromosomenanomalien, der Untersuchung der strukturellen DNA-Konformation, der eingehenden Untersuchung der chromosomalen Oberflächenmorphologie, der Beobachtung des In-vivo-Verhaltens der Chromosomen im Zeitverlauf und der Überwachung von Umweltgenmutationen von Bedeutung. Die Methodik umfasst Schwellenwertbildung basierend auf einer Histogrammanalyse mit einem Polylinien-Aufspaltungsalgorithmus, Konturextraktion über aktive Konturen und Erkennung der 3D-Chromosomenstruktur durch die Einrichtung entsprechender Regionen in den Schichten. Die Visualisierung mittels Punktwolkenvernetzung erzeugt eine 3D-Oberfläche. Das dreieckige 3D-Netz der Chromosomen liefert Oberflächendetails und ermöglicht es einem Benutzer, Chromosomen mit Visualisierungssoftware interaktiv zu analysieren.;-;-;-;https://link.springer.com/article/10.1155/ASP/2006/45684 bae6505e8371ddba8d4b6dd36642971c;de;;;3.1.;;;Die Homöopathie Seit 1850 Im Anfang des neunzehnten Jahrhunderts hatten die philosophischen Lehren eines Kant, Schelling, Hegel die geistige Welt in Deutschland beherrscht. Die Welt war ihr Urgrunde nach Geist, man baute sich die Welt vom Subjekt aus auf und schuf sie so nach seinem Bilde als einen geistdurchwalteten Organismus. Die Natur wurde in seeische Kräfte aufgelöst, und den Staat betrachtete man mit Vorliebe nach dem Vorbild der Lebewesen als einen Organismus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-7091-9479-9_4 5963ba51c529358aa4b42f6fcaf7e22f;de;;;3.1.;;;Wirtsprägung bei Anemonenfischen (Fische: Pomacentridae): Diktiert sie die Präferenzen der Laichplätze? Die olfaktorischen Signale, auf die sich einige Arten von Anemonenfischembryonen einprägen, werden im Schleim der Tentakel und der Mundscheibe der Wirtsanemone abgesondert. Ein enger Kontakt der Eier von Anemonenfischen mit den Tentakeln des Wirts scheint daher für die Prägung wichtig zu sein. Eine Folge dieser Beobachtung ist, dass, wenn lokale Umweltbedingungen die Tentakel in eine bestimmte Richtung schwenken, die Eier unter dem Wind von den Tentakeln platziert werden und nicht in vorderster Entfernung von den Tentakeln. Andere bekannte Faktoren wie die Prädation von Eiern können ebenfalls eine Präferenz für den Laichplatz verursachen. Keine Studie hat die Möglichkeit einer solchen Präferenz untersucht. In dieser Studie haben wir uns mit zwei Fragen befasst: (1) Gibt es bei Anemonenfischen eine Präferenz für den Laichplatz? (2) Falls ja, lässt sich dies mit der Imprinting-Hypothese in Verbindung bringen, d. h. haben lokale Meeresströmungen über der Wirtsanemone einen Einfluss auf diese Präferenz? Zwei verschiedene Korallenriffgebiete wurden auf Anemonenfischgruppen mit vorhandenen Eiern untersucht: Eilat und Na'ama in der Aquaba-Bucht, das Rote Meer (RS) und Gebiete bei Lizard Island, dem nördlichen Great Barrier Reef (GBR). Wir haben die Anemonenfische gefunden;-;-;-;https://link.springer.com/article/10.1023/A%3A1007652902857 dd5b205905f84bb473bb4af569bd719e;de;;;3.1.;;;Verbesserung der MSGMPE-Genauigkeit für den Norden Tunesiens durch die multispektrale Analyse des Wolkenfelds von MSG SEVIRI Das fortschrittliche Radiometer Spinning Enhanced Visible Infra-Red Imager (SEVIRI) an Bord der Meteosat Seconde Generation (MSG) Serie hat eine zeitliche Auflösung von 15 Minuten. Es hat die Fähigkeit, die Erde in 12 Spektralkanälen vom sichtbaren bis zum thermischen Infrarot abzutasten. Die räumliche Auflösung des SEVIRI-Instruments beträgt 3 km für 11 der 12 Kanäle und 1 km für den High Resolution Visible (HVR) Kanal.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-319-09300-0_23 dfff8fdcae4753a01596547ea72abee5;de;;;3.1.;;;Gemeinsame Zuordnung mit Kommunikationsüberlegungen in Multi-Cluster-Systemen Die gemeinsame Zuweisung von Prozessoren kann von Leistungsvorteilen sein. Dies liegt daran, dass die Aufteilung von Jobs in Komponenten die Cluster-Fragmentierung insgesamt reduziert. Die langsameren Inter-Cluster-Kommunikationsverbindungen erhöhen jedoch die Jobausführungszeiten. Dies führt zu einer Leistungsverschlechterung, die eine gemeinsame Zuweisung unrentabel machen kann. Wir verwenden das Geschwindigkeitsverhältnis von Intra-Clustern zu Inter-Clustern und die Intensität der Auftragskommunikation, um die Zeitstrafe für die Auftragsausführung aufgrund der gemeinsamen Zuweisung zu modellieren. Anschließend untersuchen wir die Durchführbarkeit der gemeinsamen Zuweisung in ausgewählten arbeits- und systembasierten Instanzen. Wir untersuchen auch die Leistungsvariation mit ausgewählten Jobstromparametern. Wir stellen fest, dass eine gemeinsame Zuweisung praktikabel ist, solange die verursachte Ausführungszeitstrafe relativ gering ist. Wir beobachten auch, dass der negative Leistungseffekt durch die Co-Allokation nicht nur von den (wenigen) Co-Allokationen, sondern vom gesamten Jobstrom wahrgenommen wird. Schließlich stellen wir fest, dass es für jeden Wert der Kommunikationszeitstrafe eine Auftragsgröße gibt;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-85451-7_27 8f47b5f91120de83e9c01ebd1a81e595;de;;;3.1.;;;Lineare Netzwerke mit passiven und aktiven Bauelementen Filterschaltungen spielen bei allen Systemen der Übertragungs-, Meß- und Regelungstechnik eine wichtige Rolle. Sie dienen hauptsächlich zur Bandbegrenzung, Frequenzselektion und Kanaltrennung, zur Störunterdrückung, Signalerkennung im Rauschen, zur Breitbandanpassung und Widerstandstransformation, zur Phasenwinkel- und Gruppenlaufzeit-Korrektur, Signalverzögerung, Impulsformung, Korrelation, Faltung, Mittelwertbildung, Spektralanalyse, Signalspreizung und Impulskompression, Wellenbündelung und Peilung mit Array-Antennen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-662-22459-5_6 a5032601ed9b83cfb07a41ddb0e8c3c8;de;;;3.1.;;;AutoMarkup: Ein Tool zum automatischen Markieren von Textdokumenten In diesem Beitrag stellen wir ein neuartiges System vor, das Textdokumente automatisch in XML auszeichnen kann. Das System verwendet den Algorithmus der selbstorganisierenden Karte (SOM), um markierte Dokumente auf einer Karte zu organisieren, sodass ähnliche Dokumente an nahe gelegenen Orten platziert werden. Dann generiert er unter Verwendung des induktiven Lernalgorithmus C5 automatisch die Markup-Regeln der nächsten SOM-Nachbarn eines unmarkierten Dokuments und wendet sie an. Das System ist von Natur aus anpassungsfähig und lernt aus Fehlern im automatisch gekennzeichneten Dokument, um die Genauigkeit zu verbessern. Die automatisch gekennzeichneten Dokumente werden wieder auf dem SOM angeordnet.;-;-;-;https://link.springer.com/chapter/10.1007/3-540-45715-1_46 515f60f8dfc2b5f3332fa88c4f1cb955;de;;;3.1.;;;Aktivieren von Remote-Methodenaufrufen in Peer-to-Peer-Umgebungen: RMIX über JXTA In diesem Papier stellen wir ein Peer-to-Peer (P2P)-System mit Remote-Methodenaufrufen vor, das RMIX- und JXTA-Technologien kombiniert und die H2O-Plattform für verteilte Ressourcenfreigabe untermauert. Wir zeigen, dass die Integration von RMIX und JXTA aufgrund der Erweiterbarkeit des ersteren möglich war, wodurch die JXTA-basierten Socket-Implementierungen angeschlossen werden konnten. Das Ergebnis dieser Integration ist eine voll funktionsfähige RMI-Implementierung, die auf dem JXTA-P2P-Netzwerk ausgeführt wird, in der Methoden für Remote-Objekte aufgerufen werden können, die sich hinter Firewalls oder NATs befinden. Wir präsentieren Ergebnisse von Tests, die zeigen, dass unsere Implementierung verwendet werden kann, um Peers in verschiedenen LANs zu verbinden, die nicht direkt interagieren können, während die Leistung im Fall einer direkten Verbindung mit der von RMI mit Standard-Sockets vergleichbar ist.;-;-;-;https://link.springer.com/chapter/10.1007/11752578_80 d4ba105d4d69076c4fc9afcf466b2777;de;;;3.1.;;;Stimmen der Studenten-Community: Erinnerungen an den Zugang versus Behandlung an der University of Illinois Der Schwerpunkt dieses Kapitels liegt auf den sozialen und akademischen Erfahrungen und demografischen Merkmalen afroamerikanischer Studenten an der University of Illinois at Urbana-Champaign (im Folgenden UIUC) von 1945 bis 1955 und ihrer Vorstellung davon, was eine Gemeinschaft für sie darstellt. In der Zeit nach dem Zweiten Weltkrieg gab es viele bedeutende Veränderungen in der amerikanischen Hochschulbildung, einschließlich eines starken Anstiegs der Zahl und des Anteils männlicher Studenten als Folge des GI-Gesetzes. Wichtige Veränderungen in den Rassenbeziehungen traten ein, als die Hochschulen gezwungen waren, ihre eigenen Traditionen mit den nationalen und internationalen Kämpfen gegen Nazismus, Antisemitismus und Rassismus in Einklang zu bringen. Verschiedene Richtlinien und Traditionen an der University of Illinois, wie auch an anderen überwiegend weißen Universitäten im Norden, standen im Gegensatz zu positiven akademischen und sozialen Erfahrungen für afroamerikanische Studenten.;-;-;-;https://link.springer.com/chapter/10.1057/9781403982933_4 2c1d57457489a35e06e75036e8d4ae8e;de;;;3.1.;;;Eine Evakuierungssimulationsmethode basierend auf einem verbesserten künstlichen Bienenvolksalgorithmus und einem Sozialkraftmodell Simulationsmodellierung ist ein wichtiges Werkzeug, um das Verhalten von Menschenmengen zu simulieren und das Gesetz der Menschenmengenevakuierung zu untersuchen. Es ist von großer Bedeutung für die Erforschung von Evakuierungsmanagementmethoden in Notfallsituationen. Die Echtzeitänderung der Evakuierung ist die Hauptherausforderung der Simulationsmodellierung. In der Evakuierungssimulation ist es für die Menschen schwierig, entsprechend der Veränderung der Evakuierungsdynamik eine geeignete Route zu wählen. In diesem Beitrag wird eine neue Evakuierungssimulationsmethode vorgeschlagen, die einen verbesserten Algorithmus für künstliche Bienenvölker zur dynamischen Wegplanung und SFM (Social Force Model) zur Simulation der Bewegung von Fußgängern kombiniert, um Fußgängern eine rechtzeitige Routenwahl zu ermöglichen. In der Pfadplanungsschicht haben wir einen MABCM-Algorithmus (Multiple-Subpopulations Artificial Bee Colony with Memory) entwickelt und eine neue Exit-Evaluierungsstrategie vorgeschlagen. Diese Verfahren können eine Route mit der kürzesten Evakuierungszeit für Fußgänger entsprechend den dynamischen Änderungen der Evakuierung planen und die Evakuierungseffizienz verbessern. In der simulierten Bewegungsebene verwenden wir das SFM, um Kollisionen zu vermeiden und die Reproduktion der Evakuierungsszene zu erreichen. Wir haben die Leistung des vorgeschlagenen MABCM auf der CEC 2014 Benchmark Suite überprüft und die Ergebnisse zeigen, dass es den vier bestehenden Algorithmen für künstliche Bienenvölker in den meisten Fällen überlegen ist. Die vorgeschlagene Methode zur Evakuierung von Menschenmassen wird auf einer bestehenden SFM-Plattform verifiziert. Die experimentellen Ergebnisse zeigen, dass das vorgeschlagene Verfahren eine dichte Menschenmenge in mehreren Szenen effizient evakuieren und die Evakuierungszeit effektiv verkürzen kann.;-;-;-;https://link.springer.com/article/10.1007/s10489-020-01711-6 de52bc41c86e8769f209c4f1045f197d;de;;;3.1.;;;Die gelebte Erfahrung von Menschen mit Adipositas: Studienprotokoll für eine systematische Überprüfung und Synthese qualitativer Studien Adipositas ist eine weit verbreitete, komplexe, fortschreitende und rezidivierende chronische Erkrankung, die durch abnormales oder übermäßiges Körperfett gekennzeichnet ist, das die Gesundheit und Lebensqualität beeinträchtigt. Es betrifft mehr als 650 Millionen Erwachsene weltweit und ist mit einer Reihe von gesundheitlichen Komplikationen verbunden. Qualitative Forschung spielt eine Schlüsselrolle beim Verständnis der Patientenerfahrungen und der Faktoren, die die Wirksamkeit von Gesundheitsinterventionen erleichtern oder behindern. Dieser Review zielt darauf ab, qualitative Studien systematisch zu lokalisieren, zu bewerten und zu synthetisieren, um ein umfassenderes Verständnis der Lebenserfahrung von Menschen mit Adipositas zu entwickeln.;-;-;-;https://link.springer.com/article/10.1186/s13643-021-01706-5 a6ce28992acdbd6362d8f97e0f7f2f68;de;;;3.1.;;;Phonographierte tunesische Melodien Mit der Untersuchung betritt die neuere Musikwissenschaft zum erstenmal vergleichenden Boden. Während der Phonograph dem reisenden Ethnologen in Amerika, Asien, neuerdings auch in der Südsee und in entlegeneren Teilen Europas gute Dienste geleistet hat, besitzen wir aus Afrika bis heute so gut wie gar kein zuverlässiges musikwissenschaftliches Material und Wann und von der Zukunft die Erschließung dieses „ dunkle Erdteils“ erhoffen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-1676-6_20 963c9be93c8b1c56e5f4ab3013e09911;de;;;3.1.;;;Wechselwirkungen zwischen Ionosphäre und Atmosphäre in großen Breiten Ein Überblick über die Wechselwirkungen zwischen Ionosphäre und Atmosphäre in hohen Breiten wurde vorgestellt. Neuere experimentelle Daten zur ionosphärischen Plasmakonvektion wurden in Bezug auf die Bildung der ionosphärischen F-Schichtmulde und die Plasmapause in größerer Höhe diskutiert. Hinsichtlich der thermosphärischen Dynamik wurden die Auswirkungen des Ionenwiderstands und der Joule- und Teilchenerwärmung berücksichtigt. Besonderes Augenmerk wurde auf neuere Messungen gelegt, die eine hufeisenförmige Verteilung der Teilchen- und Joule-Erwärmung mit stärkstem Energieeintrag im Bereich der Polarspitze belegen. Schließlich wurde die Rolle der Winde der E-Region bei der Erzeugung eines Dynamos hoher Breiten erwähnt, der die ionosphärische Plasmakonvektion beeinflussen kann.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-1528-8_2 06ca59c6c905d6e096b21df085dcf55f;de;;;3.1.;;;La Nosologie Psychiatrique Aux XVIIIième et XVIIIième Siecles Dieses Werk ist eine historische und bibliographische Recherche im antiken Fundus der Bibliothek „Alberto Cenceli“ im Krankenhaus S.Maria della Pietà in Rom. Die Autoren skizzieren die Geschichte und die Entwicklungsschritte auf dem Gebiet der psychiatrischen Nosologie, die im frühen 19.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-1668-8_93 80fe3ba205c3f5cdbdbc783bb22035ea;de;;;3.1.;;;Die Kopfmuskulatur der Helodermie Die Helodermatidae werden allgemein als primitive Platynotan-Eidechsen angesehen (McDowell und Bogert, 1954). Ihre genaue phylogenetische Position ist jedoch noch immer Gegenstand erheblicher Kontroversen (vgl. Camp 1923, Hoffstetter 1962 a, Russell 1967). Bisher wurde die Struktur der Kopfmuskulatur nicht als Test für helodermatide Beziehungen verwendet, obwohl sich eine Reihe von Arbeitern damit beschäftigt haben (Shufeldt, 1890, Poglayen-Neuwall, 1954, Gomes, 1973). Die Halsmuskulatur ist durch die Arbeiten von Camp (1923) und McDowell (1972) bekannt, aber auch hier finden sich zu Vergleichszwecken nützliche Details. Von den beiden Arten nur;-;-;-;https://link.springer.com/chapter/10.1007/978-3-0348-9372-5_18 1934060726c51f5aa1276496acfbf574;de;;;3.1.;;;Die Illuminaten in Stuttgart Auch ein Beitrag zur Geschichte des jungen Schiller Der Beitrag stellt die Stuttgarter Illuminatengruppe um Schillers Lieblingslehrer Jakob Friedrich Abel vor, beschreibt die fördernden Kontakte, sterben sie des Dichters der;-;-;-;https://link.springer.com/article/10.1007/BF03396289 4ff3c42d7060ad2e092ac082ef982bd9;de;;;3.1.;;;Jenseits des Drehbuchs: Memoiren und Familienbeziehungen in drei Filmen von Gaylene Preston 1992 erzählte die aufstrebende Filmemacherin Gaylene Preston, dass sie als Kind als „sehr berühmte Lügnerin“ galt: „Ich habe immer eine Geschichte der Realität vorgezogen. Ich interessiere mich sehr für Familiengeschichten, und ich denke, als Geschichtenerzähler am Ende des 20. Geschichten sind Lügen für einen guten Zweck“ (Preston, 1992: 161). Ihr Gefühl veranschaulicht die Dilemmata, mit denen biografische und autobiografische Drehbuchautoren in einem Genre konfrontiert sind, in dem es darum geht, aus ganzen Leben auszuwählen und Geschichten zu weben, die, obwohl nicht unbedingt,;-;-;-;https://link.springer.com/chapter/10.1057/9781137338938_5 3ac68695295e015a268b6438d423fd61;de;;;3.1.;;;Prozess der Fuzzy-Inferenz Die Elemente und Prinzipien des approximativen Denkens wurden in Kapitel 2 behandelt. Wir haben Implikationen, Arten von Implikationen, Fuzzy-Regeln diskutiert und am Ende den Übergang vom bedingten zum abschließenden Teil einer Regel erklärt. In Kapitel 4 sind wir von einer Fuzzy-Regel zur Liste der Fuzzy-Regeln oder des Fuzzy-Algorithmus gelangt, die mehrere Fuzzy-Regeln enthält. Wir kennen also die Grundlagen des ungefähren Denkens.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-4673-3_5 60097f781f6f38012cd1529f74e88f2d;de;;;3.1.;;;Seitenkanalanalyse für die Authentifizierungsprotokolle von CDMA-Mobilfunknetzen Zeitmultiplex (TDMA) und Codemultiplex (CDMA) sind zwei Technologien, die in digitalen zellularen Netzwerken verwendet werden. Die Authentifizierungsprotokolle von TDMA-Netzwerken haben sich als anfällig für die Seitenkanalanalyse (SCA) erwiesen, was zu einer Reihe mächtiger SCA-basierter Angriffe gegen ungeschützte Teilnehmeridentitätsmodul-(SIM-)Karten führt. CDMA-Netzwerke haben zwei Authentifizierungsprotokolle, ein Authentifizierungsprotokoll auf Basis von Zellularauthentifizierung und Sprachverschlüsselung (CAVE) und ein Authentifizierungsprotokoll auf Basis von Authentifizierung und Schlüsselvereinbarung (AKA), die in verschiedenen Phasen der Netzwerke verwendet werden. Für diese beiden Protokolle gab es jedoch bisher keinen SCA-Angriff. Um herauszufinden, ob die Authentifizierungsprotokolle von CDMA-Netzwerken ausreichend sicher gegen SCA sind, untersuchen wir in diesem Papier die beiden bestehenden Protokolle und ihre kryptografischen Algorithmen. Wir finden die Seitenkanalschwächen der beiden Protokolle, wenn sie auf eingebetteten Systemen implementiert werden. Basierend auf diesen Schwächen schlagen wir spezifische Angriffsstrategien vor, um ihre Authentifizierungsschlüssel für die beiden Protokolle bzw. Wir überprüfen unsere Strategien auf einem 8-Bit-Mikrocontroller und einer realen SIM-Karte und zeigen, dass die Authentifizierungsschlüssel mit einer begrenzten Anzahl von Leistungsmessungen innerhalb weniger Minuten vollständig wiederhergestellt werden können. Die erfolgreichen Experimente demonstrieren die Richtigkeit und Wirksamkeit unserer vorgeschlagenen Strategien und beweisen, dass die ungeschützten Implementierungen der Authentifizierungsprotokolle von CDMA-Netzwerken SCA nicht widerstehen können.;-;-;-;https://link.springer.com/article/10.1007/s11390-019-1961-5 9add2028ab3cde32acc54035fb142e6d;de;;;3.1.;;;Archivlandschaft Bis in die Gegenwart ist die Archivlandschaft an vielen Stellen ein Spiegel der Verwaltungsgeschichte. Die föderale Prägung der Verwaltungsstruktur in Deutschland hat sich also auch in die Archivlandschaft eingeschrieben. Geistliche und weltliche Herrschaftsträger, daneben Korporationen und zunehmende Privatleute Haben als Teil ihres Verwaltungsarchivs aufgebaut.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-476-05388-6_9 fb78108f03b35003ea0a56d92c4010e4;de;;;3.1.;;;Ein Vorschlag für Storysculpturing Storytelling ist ein Kernelement des Designs von Serious Games. Traditionell wird es durch Verkettung von Erzählblöcken implementiert. Dieses Papier präsentiert einen Vorschlag für einen neuen Ansatz – Geschichten werden durch das Entfernen von Blöcken aufgebaut. Die interne Struktur wird kurz besprochen und der Hauptvorteil dieses Ansatzes – die Möglichkeit, eine Geschichte je nach Ziel zu gestalten. Die didaktische Modellierung und die Darstellung von Kompetenzen werden ebenso beschrieben wie die Möglichkeit zur automatischen Gestaltung von Geschichten und zur automatischen Bewertung der erworbenen Kompetenzen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-23163-6_23 51164c41cd9ee7da552e5575d345bba7;de;;;3.1.;;;Konstruktion boolescher Funktionen mit maximaler algebraischer Immunität und Zählung ihrer Annihilatoren auf niedrigstem Grad Boolesche Funktionen, die in Stromchiffren gegen algebraische Angriffe verwendet werden, müssen eine notwendige kryptografische Eigenschaft aufweisen – hohe algebraische Immunität (AI). In dieser Arbeit werden Boolesche Funktionen gerader Variablen mit maximalem AI untersucht. Es wird die Anzahl unabhängiger Vernichter beim niedrigsten Grad an Booleschen Funktionen von geraden Variablen mit maximalem AI bestimmt. Es wird gezeigt, dass wenn;-;-;-;https://link.springer.com/article/10.1007/s11432-010-0064-2 0f3fd6ddadbbe984f5d084c348988d44;de;;;3.1.;;;Ein eckpunktbasierter Algorithmus zur Lösung eingeschränkter Mehrzieloptimierungsprobleme Mit Hilfe von Eckpunkten kann die Suchfähigkeit eines Algorithmus hinsichtlich Konvergenz und Diversität verbessert werden. Ein eckpunktbasierter Algorithmus (CPA) basierend auf einem differentiellen Evolutionsalgorithmus (DE) wird vorgeschlagen, um eingeschränkte Mehrzieloptimierungsprobleme zu lösen. Der evolutionäre Algorithmus besteht aus zwei Stufen. Die erste Stufe besteht darin, Eckpunkte mit dem vorgeschlagenen Verfahren zu finden. Die zweite Stufe besteht darin, sich der echten Pareto-Front zu nähern. In der zweiten Stufe wird ein neuartiger Diversity- und Konvergenzmechanismus implementiert. Die Leistung des vorgeschlagenen Algorithmus wird anhand von neunzehn Testfunktionen bewertet. Verglichen mit den eingeschränkten Handhabungstechniken und neuesten Optimierungsalgorithmen haben die numerischen Ergebnisse gezeigt, dass der vorgeschlagene Algorithmus effektiv ist. Schließlich wird der Algorithmus verwendet, um den Ressourcenplan im Notfallmanagement zu lösen, um seine Wirksamkeit weiter zu validieren.;-;-;-;https://link.springer.com/article/10.1007/s10489-017-1126-6 6ab4b0ba634dfc1fd94394f0827e3d56;de;;;3.1.;;;Rückblick: Kulturfinanzierung im Spiegel der Geschichte Der Blickwinkel der Kulturökonomie, wie sie hier gesehen WIRD, reicht weit genug, um die Dimension des Kulturellen auch in der Wirtschaftsrealität zu erfassen und zu deuten. Erst mit einer so umfassenden Bestandsaufnahme lässt sich orthodoxe Ökonomie machen, dass. Die orthodoxe Ökonomie leugnet nicht etwa die Existenzdimensionen, sondern sie sondert sie aus und betrachtet sich nur mit dem, was sie für das eigentliche Ökonomische an ihrem Erfahrungsobjekt hält.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-322-89024-5_5 5a84f6c3ce712065ee9aaa7b3bdb9005;de;;;3.1.;;;Kunstkammern der Spätrenaissance zwischen Kuriosität und Wissenschaft Seit frühen Zeiten kultureller Blüte wurden Sammlungen von nicht nur dem Lebensunterhalt dienenden, nicht nur nützlichen, sondern zusätzlich schmückenden;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-10698-2_9 a92dfa6fd90408ac7677936aa1094ce0;de;;;3.1.;;;Grober Ansatz für das Clustering kategorialer Daten In diesem Papier konzentrieren wir unsere Diskussion auf den groben Ansatz für das kategoriale Datenclustering. Wir schlagen MADE (Maximal Attributes Dependency) vor, eine alternative Technik zum kategorialen Datenclustering unter Verwendung der Grobmengentheorie unter Berücksichtigung maximaler Attributeabhängigkeiten. Experimentelle Ergebnisse an zwei Benchmark-UCI-Datensätzen zeigen, dass die MADE-Technik in Bezug auf die Rechenkomplexität und die Clusterreinheit besser mit den kategorialen Basisdaten-Clustering-Techniken ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-10583-8_21 85c27532b0606ddb30059fd727b40edf;de;;;3.1.;;;Einzel- und Mehrziel-Evolutionsalgorithmen zur Koordination von Serienfertigungsabläufen Dieser Beitrag konzentriert sich auf ein typisches Problem in der Serienproduktion, bei dem zwei aufeinander folgende Abteilungen ihre interne Arbeit unter Berücksichtigung der Anforderungen der jeweils anderen ordnen müssen. Auch wenn das betrachtete Problem von Natur aus multiobjektiv ist, verwenden bisher die einzigen heuristischen Ansätze, die dieses Problem behandeln, einzelzielorientierte Formulierungen und erfordern auch spezifische Annahmen über die Zielfunktion, wodurch der allgemeinste Fall des Problems für innovative Ansätze offen bleibt. In diesem Beitrag entwickeln und vergleichen wir drei evolutionäre Algorithmen zum Umgang mit solchen kombinatorischen Problemen. Zwei Algorithmen wurden entwickelt, um eine gezielte Suche durchzuführen, indem sie die Ziele jeder Abteilung in einer einzigen Fitness zusammenfassen, während ein dritter darauf ausgelegt ist, nach der Pareto-Front nicht dominierter Lösungen zu suchen. Wir wenden die drei Algorithmen auf sehr komplexe Fallstudien aus der industriellen Möbelproduktion an. Zunächst validieren wir die Wirksamkeit der vorgeschlagenen genetischen Algorithmen anhand einer einfachen Fallstudie, für die Informationen über die optimale Lösung verfügbar sind. Anschließend konzentrieren wir uns auf komplexere Fallstudien, für die a priori keine Hinweise auf die optimalen Lösungen vorliegen, und führen einen umfangreichen Vergleich der verschiedenen Ansätze durch. Alle betrachteten Algorithmen sind in der Lage, bei großen Produktionsabläufen mit fast 300 Jobs in akzeptablen Rechenzeiten zufriedenstellende Lösungen zu finden, weisen aber auch einige komplementäre Eigenschaften auf, die hybride Kombinationen der verschiedenen Verfahren nahelegen.;-;-;-;https://link.springer.com/article/10.1007/s10845-005-6641-3 26ed7a4c4e93490de84c2ee0374f8ca5;de;;;3.1.;;;Menschliche Überreste aus der künstlichen Höhle von São Pedro do Estoril II (Cascais, Portugal) Der vorliegende Aufsatz enthält die Ergebnisse der anthropologischen Untersuchung der menschlichen Überreste aus der künstlichen Höhle von São Pedro do Estoril II (2300–2500 v. Chr.). Diese chalkolithischen Überreste waren fragmentarisch und unvollständig, was ihre Analyse erschwerte.;-;-;-;https://link.springer.com/article/10.1007/BF02440157 76288f7775d3f129eb4852dc3d14bb0c;de;;;3.1.;;;Siebenter Teil 1988 – »Vorfrühling« Vom Ergebnis des weiteren Verlaufs der politischen Ereignisse aus betrachtet ist Garton Ashs Charakterisierung des Frühjahrs 1988 als »Vorfrühling« stimmig: »Einige mitteleuropäische Sprachen haben ein besonderes Wort für die Jahreszeit kurz vor dem Frühling: ›Vorfrühling‹ im Deutschen, ›Przedwiośnie‹ im Polnischen , ›Předjaří‹ im Tschechischen. Aus heutiger Sicht scheint es, als seien die polnischen, ungarischen und tschechoslowakischen Ereignisse im Frühling 1988 so etwas wie ein politischer Vorfrühling gewesen.« [1];-;-;-;https://link.springer.com/chapter/10.1007/978-3-658-04972-0_8 b5064ce7d64a8073c0325e93e62bb2c3;de;;;3.1.;;;Apotheker als Sammler Die Verbindung, die zwischen der Pharmazie und der Geschichte des Sammelns besteht, beruht nicht allein auf einer unzähligen Reihe größerer und kleinerer fachspezifischer Museen, von denen hier nur die in den Jahren 1883 bis 1897 entstandene und als ‚Historisch-pharmaceutisches Centralmuseum' entworfene Abteilung des Germanischen Nationalmuseum in Nürnberg, das ab 1924 eingerichtete Schweizerische pharmazie-historische Museum in Basel und das 1937 in München gegründete, seit 1957 in Heidelberg befindliche Deutsche Apothekenmuseum seien genannt.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-10698-2_20 0c7afe1abee7d79d5a5083c919cdd33b;de;;;3.1.;;;Analyse von Pflanzenresten an der neolithischen Stätte Yangjia, Stadt Wuxi, Provinz Jiangsu (Ostchina) Archäologischen Untersuchungen und vorläufigen Ausgrabungen zufolge handelt es sich bei der Yangjia-Stätte in der nördlichen Taihu-Seeregion in der Stadt Wuxi, Provinz Jiangsu, um eine neolithische archäologische Stätte, die von kulturellen Überresten dominiert wird, die der späten Majiabang-Kultur (6270-5920 cal ). Hier wurde eine systematische archäobotanische Studie durchgeführt, um Vegetationslandschaft, Umweltmerkmale und Reisanbau im prähistorischen nördlichen Taihu-Seegebiet zu untersuchen. Die Häufigkeit, Häufigkeit und Standarddichte von verkohltem Reis waren die höchsten aller Überreste der ausgegrabenen Samenpflanzen. Darüber hinaus wird eine Vielzahl von Unkräutern in Feuchtgebieten, wie Haloragaceae, Cyperaceae,;-;-;-;https://link.springer.com/article/10.1007/s11430-016-5326-4 ab2433818032a8f66d68331b38eb75a4;de;;;3.1.;;;Revision der rugosen Koloniekoralle Iowaphyllum rhenanum (SchlÜter 1880) aus dem Oberdevon des Rheinischen Schiefergebirges (Deutschland) Die massive Rugosekoralle Iowaphyllum rhenanum (SchlÜter 1880) wird aus dem Oberdevon (Frasnium) des Breinigerbergs in der Gegend von Stolberg bei Aachen, Deutschland, beschrieben. Der Holotypus wird mit dem Material aus der Les Valisettes-Formation im Philippeville-Massiv und aus den Oberfrasnian-Schiefer des Vesdre-Massivs verglichen, letzteres ist die Fortsetzung der Aachener Synklinale in Belgien. Das gesamte belgische Material gehört zur Zone Upper Palmatolepis gigas und wird mit Rugosekorallen wie Frechastraea pentagona pentagona (Goldfuss 1826) und F. pentagona minima (RÓŻKOWSKA 1953) in Verbindung gebracht.;-;-;-;https://link.springer.com/article/10.1007/BF02985869 b1ddf9083af0570c26fb78b6d877590d;de;;;3.1.;;;Feinabstimmung der Zwei-Teilchen-Interferometrie I: Auswirkungen von Temperaturgradienten in der Quelle Eine umfassende Modellstudie der Bose-Einstein-Korrelationsradien bei Schwerionenkollisionen wird vorgestellt. Ausgangspunkt ist ein sich längs und quer ausdehnender Feuerball, der beim Einfrieren durch eine azimutalsymmetrische Emissionsfunktion dargestellt wird. Die Ausfriertemperatur darf transversale und zeitliche Gradienten aufweisen. Ihre Auswirkungen auf die Korrelationsradien werden untersucht. Insbesondere werten wir ihre Abhängigkeit von der transversalen Masse der Teilchenpaare numerisch aus und überprüfen einen neueren Vorschlag, basierend auf analytischen Näherungen, dass für bestimmte vernünftige Quellenparameter alle drei Korrelationsradien gleichzeitig a;-;-;-;https://link.springer.com/article/10.1007/s100529800771 ab1dea6eb1d20d965223c7fc8ed533b3;de;;;3.1.;;;Die Bedeutung der Vielfalt in multi-objektiven evolutionären Algorithmen Dieser Artikel gibt einen sehr kurzen Überblick über Diversität im Kontext multi-objektiver evolutionärer Algorithmen. Neben der Betonung der Bedeutung der Diversitätserhaltung bei der Behandlung von Mehrzieloptimierungsproblemen werden auch andere Konzepte wie Dichteschätzer, Paarungsbeschränkungen und Sekundärpopulationen kurz diskutiert. Im letzten Teil des Beitrags werden einige der aktuellen Herausforderungen in diesem Bereich kurz beschrieben.;-;-;-;https://link.springer.com/chapter/10.1007/978-981-16-1295-4_30 26d989e763b1893e7e1d037a0a637e33;de;;;3.1.;;;Neue Vogelarten von 1966 bis 1975 beschrieben In den zehn Jahren von 1966 bis 1975 wurden insgesamt 48 neue Vogelarten beschrieben. Davon können 28 als gute Arten gelten, aber auch neun der elf zweifelhaften Arten könnten sich als gültig erweisen (6, 7, 8, 13 , 18, 27, 29, 30, 31). Die 28 Arten lassen sich wie folgt zusammenfassen:;-;-;-;https://link.springer.com/article/10.1007/BF01640607 e65479db6bc39a2ec6954118cd531f41;de;;;3.1.;;;Interpretieren von Selenkonzentrationen Die Bedeutung von Selen als Umweltschadstoff hat in den letzten zwei Jahrzehnten unter Feldbiologen, Wissenschaftlern und Managern natürlicher Ressourcen große Aufmerksamkeit gefunden. Obwohl die toxikologischen Grundsymptome und das ernährungsphysiologische Paradox von Selen (in geringen Mengen ernährungsphysiologisch notwendig, in etwas größeren Mengen hochgiftig) seit vielen Jahren bekannt sind, sind Draize und Beath 1935 Ellis et al. 1937 Rosenfeld und Beath 1946 Hartley und Grant 1961) wurde erst in den späten 1970er und frühen 1980er Jahren das Potenzial einer weit verbreiteten Kontamination aquatischer Ökosysteme durch menschliche Aktivitäten erkannt Andren et al. 1975 Cherry und Guthrie 1977 Evans et al. 1980 Nationaler Forschungsrat 1980 Braunstein et al. 1981. Noch 1970 wurde Selen im Zusammenhang mit dem, was über seinen Kreislauf und seine Toxizität in der aquatischen Umwelt bekannt war, als „unbekannter Schadstoff“ bezeichnet. Copeland 1970. Doch innerhalb weniger Jahre würden mehrere größere Fälle von Selen-Kontamination auftreten und zeigen die Notwendigkeit auf, die Selenkonzentrationen in einer Vielzahl von aquatischen Lebensräumen zu interpretieren. Zwei Beispiele waren das Verschmutzungsereignis am Belews Lake, NC, bei dem eine ganze Fischgemeinschaft (19 Arten) durch Selen im Abwasser eines Kohlekraftwerks eliminiert wurde (Cumbie und Van Horn 1978 Garrett und Inman 1984 Sorensen et al 1985a, 1993, 1997 Sorensen 1986, und die Episode im Kesterson National Wildlife Refuge, CA, in der Tausende von Fischen und Wasservögeln durch Selen in der landwirtschaftlichen Bewässerung vergiftet wurden (Marshall 1985 Hoffman et al. 1986 Ohlendorf et al. 1986, 1988 Saiki 1986a, 1986b Saiki und Lowe 1987).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4613-0073-1_2 b8d2d9586d7087a9b7dd32380dda1838;de;;;3.1.;;;Morphologie und Bildung der frühontogenetischen Gehäuse bei conchiferen Mollusken Die Arbeit behandelt die frühontogenetische Mollusken-Entwicklung der Schale und der diese bildenden Epithelien. Speziell Werden Archäogastropoden, Ammoniten und Neritaceen behandelt und mit einigen ausgewählten höheren Gastropoden, Archäogastropoden, Neritaceen und höheren Gastropoden sind paläontologisch gut trennbare Gruppen, wenn die Bildung und Morphologie der frühontogenetischen Schalen zusätzlich Werden Eine Verbindung zwischen Archaeogastropoden und Ammoniten zeigt sich in der Art der Mineralisierung der organischen Primärschälchen. Cephalopoden sind allgemein Eine ziemlich einheitliche Gruppe der Mollusken, deren Vorfahren den Vorfahren der Archäogastropoden nahe verwandter Waren. Neritaceen und höhere Schnecken verbindet sterben innere Befruchtung sowie der Besitz einer echten Larve, sterben den Archaeogastropoden wie auch den Cephalopoden fehlt. Die Ergebnisse werden in einem Schema des Entwicklungsablaufes in der Ontogenese dargestellt und zur Phylogenese des Molluskenstammes in Bezug gebracht. Hierzu werden auch einige Entwicklungsabläufe bei Käferschnecken, Muscheln und Scaphopoden miteinbezogen. Es zeigt sich, dass einige in der Systematik bisher noch bewertete Eigenschaften und Merkmale nur sehr mit Vorsicht genutzt werden dürfen, während andere bisher wenig beachtete Kriterien mehr Aussagekraft besitzen als bisher vermutet. Die Bildung der Schalendrüse zeigt sich als sterben zentrale Erfindung der Mollusken, sterben vermutlich während des oberen Kambriums sterben Conchifera entstehen ließ. Mit vielen Beispielen wird belegt, dass aller behandelten Molluskengruppen eine Ausdeutung fossiler Schalenreste nur dann zu sinnvollen Ergebnissen führt, wenn sterben Bildungsweise der Schale bei rezenten Verwandten gut untersucht ist. Umgekehrt zeigt es sich, dass Modelle der Evolution der Mollusken, sterben Nur auf Rezentbefunden basieren, in der Regel wenig Ähnlichkeit mit dem tatsächlichen Ablauf der Geschehnisse aufweisen.;-;-;-;https://link.springer.com/article/10.1007/BF02537225 c41e6dbdc29d24aefc6c184edd2b64a8;de;;;3.1.;;;Medikamente und Folatstoffwechsel Folate sind eine Gruppe von Verbindungen, die in der Nahrung benötigt werden und für den DNA-, Aminosäure- und möglicherweise auch den Aminstoffwechsel wichtig sind. Die biologisch aktiven Folate liegen in der Tetrahydroform vor. Tetrahydrofolate werden aus nicht reduzierten Nahrungsfolaten durch das Enzym Dihydrofolatreduktase hergestellt. Eine Reihe von Arzneimitteln wie Aminopterin, Methotrexat (Amethopterin), Pyrimethamin, Trimethoprim und Triamteren wirken als Folatantagonisten und erzeugen einen Folatmangel, indem sie dieses Enzym hemmen. Bei anderen Arzneimitteln, die niedrige Serum- und Gewebekonzentrationen von Folat erzeugen, wie Antikonvulsiva, Antituberkulose-Medikamente, Alkohol und orale Kontrazeptiva, ist der Mechanismus dieser Wirkung ungewiss. Mögliche Mechanismen sind eine verminderte Resorption, die Verhinderung der Freisetzung von Folat aus Gewebespeichern, eine veränderte Plasmaproteinbindung oder ein erhöhter Folatstoffwechsel in der Leber.;-;-;-;https://link.springer.com/article/10.2165/00003495-198530020-00003 2e7d2611c1d9f839fe179afd3abfbc6a;de;;;3.1.;;;Das D/H-Verhältnis in Chondriten Die statistische Verteilung aller verfügbaren veröffentlichten D/H-Verhältnisse kohlenstoffhaltiger Chondrite wird dargestellt. Die möglichen Interpretationen dieser Verteilung werden auf der globalen Skala der planetaren Objekte des Sonnensystems und auf der Skala der kohlenstoffhaltigen Meteoriten überprüft. Durch diese Übung werden neue Fragen zum chemischen Ursprung der Deuteriumanreicherung im Wasser des Sonnensystems und in organischen Molekülen beleuchtet. Diese Verteilung ist eine starke Einschränkung für die Herkunft von Wasser auf der Erde.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-0145-8_7 a162d8995a984257dc47c53cc8139cc9;de;;;3.1.;;;Evolution des Parasitismus bei Säugetier-assoziierten Milben der Psoroptidia-Gruppe (Acari: Astigmata) Die Verteilung von parasitären Milben der Psoroptidia-Gruppe auf Säugetiere wurde analysiert. Fast alle Säugetier-assoziierten Psoroptidien gehören zur paraphyletischen Überfamilie Sarcoptoidea. Milben des Familienkomplexes Psoroptidae (Lobalgidae, Psoroptidae und Paracoroptinae) verlagerten sich unabhängig voneinander von Vögeln zum Parasitismus an plazentaren Säugetieren. Milben des Sarcoptidae-Komplexes, der alle anderen Säugetier-assoziierten Psoroptidien umfasst, entstanden unabhängig voneinander aus dem gemeinsamen Stiel der Psoroptidien. Sie sind sowohl bei Beuteltieren als auch bei Plazenta-Säugetieren weit verbreitet und fehlen primär oder sekundär bei Monotremata.;-;-;-;https://link.springer.com/article/10.1134/S0013873811090168 be5ace4ac41decd2d55e89976317352b;de;;;3.1.;;;Les photorécepteurs des Collemboles, étude ultrastructurale Die vom Autor beschriebenen ultrastrukturellen Merkmale des dioptrischen Apparats von Photorezeptoren von erwachsenen Collembolen haben es dem Autor ermöglicht, die Struktur von Augenformationen mit aggregierten Ommatidien zu vergleichen. Es wurden vier verschiedene Arten von Hornhaut festgestellt, von denen die bemerkenswertesten sind, die „Hornhautwarzen“ aufweisen. Die vier kristallinen Zellen haben während jedes Häutungszyklus abwechselnd unterschiedliche Funktionen. An ihren distalen Oberflächen bilden die Zellen kutikuläres Material der Hornhaut, proximal sezernieren sie einen Kristallkegel. Die Semperzellen haben somit sowohl korneogene als auch kristallogene Funktionen. Die typischerweise konzentrische räumliche Verteilung intrazellulärer Organellen in diesen Zellen ist ein charakteristisches Merkmal für Collembola. Jede kristalline Zelle sendet zur Basalmembran einen röhrenförmigen Fortsatz, der Körnchen, zahlreiche Mikrotubuli und eine kleine Menge Glykogen enthält. Form, Struktur und chemische Zusammensetzung der Kristallkegel sind sehr variabel. Bei Collembola kann die kristalline Formation entweder intrazellulär oder extrazellulär sein, und sie kann einfach oder vierteilig sein. Es gibt noch keine Erklärung für die Existenz kleiner kristalliner Satelliten, die mit den einzelnen großen kristallinen Zapfen verbunden zu sein scheinen, diese Verbindung ist charakteristisch für die troglobianischen Arten;-;-;-;https://link.springer.com/article/10.1007/BF00324808 4fd7494a2ecf6a9b7f8994337f0f9e50;de;;;3.1.;;;Ökologische Nischenmodellierung als Vorhersageinstrument: Silber- und Großkopfkarpfen in Nordamerika Der in Ostasien beheimatete Silberkarpfen und Großkopfkarpfen (Cyprinidae) wurde in die USA eingeführt, um die Wasserqualität in Aquakulturteichen, Stauseen und Abwasserbecken zu verbessern. In vielen Bundesstaaten wurden entflohene oder freigesetzte Exemplare aus Fischfarmen gemeldet, und beide Arten sind bereits lokal etabliert und verbreiten sich weiter. Wir haben den Genetic Algorithm for Rule-Set Prediction (GARP) verwendet, um die Nischen dieser beiden Karpfen in ihren natürlichen Verbreitungsgebieten zu modellieren, indem wir hydrologische und allgemeine Umweltparameter in Übereinstimmung mit nativen Verbreitungsdaten verwenden. Die Ergebnisse sagten genau vorhergesagte native Vorkommensdaten aus, die dem Modellierungsprozess vorenthalten wurden (;-;-;-;https://link.springer.com/article/10.1007/s10530-006-9004-x 32d193afd4145e3e47698d3b813a2a53;de;;;3.1.;;;Multiziel-Optimierungstool für integriertes Grundwassermanagement Integriertes Wasserressourcenmanagement erfordert, dass die Anforderungen von Landwirtschaft, Industrie und privaten Nutzern mit dem verfügbaren Angebot unter vollständiger Berücksichtigung von Wasserqualität, Kosten und Umwelt erfüllt werden. Daher ist die optimale Allokation der verfügbaren Wasserressourcen die Herausforderung für Wassermanager und politische Entscheidungsträger, um die Anforderungen zu erfüllen. Vor diesem Hintergrund wurde ein neues Tool namens;-;-;-;https://link.springer.com/article/10.1007/s11269-015-1122-8 a9a21a9c584061aa22784af8467db19c;de;;;3.1.;;;Französische Dienstboten für Amerika, 1500–1800 Es ist sehr schwierig, die genauen Grenzen des französischen Amerikas im 17. und 18. Jahrhundert zu ziehen, da sich die französischen Besitztümer während dieser langen Zeit stark veränderten. Gegen Ende des 17. Jahrhunderts besaß Frankreich Kanada und ein großes Gebiet um die Großen Seen südlich des Zusammenflusses von Ohio und Mississippi. Auf den Westindischen Inseln besaß Frankreich Saint-Domingue (d. h. der westliche Teil von Hispaniola), Dominique, Martinique, Guadeloupe, einige andere kleine Inseln und Französisch-Guayana. Durch den Vertrag von Utrecht (1713) musste Frankreich Acadia, Neufundland (obwohl es dort einige Fischereiprivilegien behielt) und Hudson Bay an England aufgeben. Durch den Vertrag von Paris (1763) überließ Frankreich, dessen Ausdehnung das gesamte Mississippi-Becken umfasst hatte, Louisiana an England und überließ den östlichen Teil mit New Orleans Spanien.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-009-4354-4_5 38f415a3d0f971e03dfc7e89bd99a294;de;;;3.1.;;;Gleichzeitige mikrobielle Entfernung von Sulfat und Schwermetallen aus Abwasser Das Grundwasser unter etablierten Metallveredelungsanlagen, die Metallsulfide verarbeiten, ist oft mit Sulfat und Schwermetallen belastet. Mit der steigenden Nachfrage in Industriegebieten nach Trinkwasser aus darunterliegenden Grundwasserleitern und mit dem Aufkommen strengerer Umweltkontrollen ist es unerlässlich geworden, die Ausbreitung von kontaminiertem Grundwasser zu verhindern. Geohydrologische Kontrollsysteme können installiert werden, um solche Grundwasserbewegungen zu kontrollieren. Das von diesen Systemen gewonnene Wasser muss jedoch gereinigt werden, bevor es in die Öffentlichkeit gelangen oder als Prozesswasser wiederverwendet werden kann. Zur Dekontamination dieses Wassers wurde nun ein anaerobes sulfatreduzierendes mikrobielles Verfahren untersucht. Das Verfahren verwendet Ethanol sowohl für das Wachstum von Organismen als auch als Energiequelle für die Reduktion von Sulfat. Wenn Schwermetalle als Verunreinigungen auftreten, werden sie als sehr unlösliche Sulfide ausgefällt. Dieses Verfahren ist daher in der Lage, ein behördlich annehmbares wässriges Abwasser zu erzeugen.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-011-3684-6_43 1cd5779e4ec2cbc5e3788fee38d16c59;de;;;3.1.;;;Reichweitenerweiterung von Pallas’ Eichhörnchen ( Die Untersuchung der Raumnutzung und Populationsdichte in verschiedenen Lebensräumen ist ein wichtiger Schritt, um den Ausbreitungsprozess einer eingeführten Art zu verstehen und nützliches Wissen für Managementmaßnahmen zu sammeln. Pallas Eichhörnchen (;-;-;-;https://link.springer.com/article/10.1016/j.mambio.2015.08.004 d4283ba2f110e795ac2f1371ef6e3504;de;;;3.1.;;;Klinische Toxizität der Interferone Seit ihrer ersten Beschreibung im Jahr 1957 werden die Interferone (IFNs) zunehmend zur Behandlung einer Vielzahl von Krankheiten eingesetzt. Akute Nebenwirkungen, d. h. „grippeähnliche“ Syndrome, Hypo- oder Hypertonie, Tachykardie, Kopfschmerzen, Myalgien und gastrointestinale Störungen, treten innerhalb der ersten Stunde oder des ersten Tages nach Behandlungsbeginn auf. Sie sind selten behandlungsbeschränkend und leicht zu handhaben.;-;-;-;https://link.springer.com/article/10.2165/00002018-199410020-00003 090a196364f57afdfbfd0b8252633d83;de;;;3.1.;;;Walreste aus dem Neogen im Nordwesten Venezuelas Überreste von Walen aus zwei verschiedenen stratigraphischen Einheiten, die im Falcon State im Nordwesten Venezuelas freigelegt wurden, werden beschrieben. Der erste Nachweis stammt aus der Formation Cantaure aus dem Untermiozän und der zweite aus der Formation Punta Gavilán aus dem Unteren Pliozän. Die beiden Exemplare werden als unbestimmte Art einer platanistoiden Squalodelphinidae bzw. als unbestimmter Cetothere oder Balaenopterid identifiziert.;-;-;-;https://link.springer.com/article/10.1007/BF02988409 53339a2b17605f4f137d60fafe6cc4de;de;;;3.1.;;;Vergleiche zwischen den Rollen von Ästuaren im Lebenszyklus von Fischen im gemäßigten Westaustralien und im südlichen Afrika Die Flüsse Südwestaustraliens und Südostafrikas liegen auf ähnlichen Breiten, münden in den Indischen Ozean und haben häufig Mündungen, die an ihren Mündungen regelmäßig durch Sandbänke vom Meer abgesperrt sind. Die vorliegende Studie hat die Arten, Gattungen und Familien, die in den Fischbeständen der Flussmündungen im Südwesten Australiens und des gemäßigten südlichen Afrikas, d. Die Clupeidae, Mugilidae, Atherinidae und Gobiidae waren in beiden Regionen wichtige Familien. Die Terapontidae und Tetraodontidae sowie die tropischen Familien Apogonidae und Gerreidae waren jedoch nur in den Ästuaren Südwestaustraliens in großer Zahl vertreten. Obwohl 45 von insgesamt 112 Familien und 32 von 233 Gattungen sowohl im Südwesten Australiens als auch im gemäßigten südlichen Afrika vorkamen, wurden in beiden Regionen nur 15 der 326 Arten gefunden. Die Zahl der Meeresarten, die regelmäßig in großer Zahl in Flussmündungen eintreten (Marine-Ästuar-Opportunisten), leistete einen ähnlichen Beitrag zur Gesamtzahl der in den Flussmündungen Südwestaustraliens und des gemäßigten südlichen Afrikas nachgewiesenen Arten (13,4 bzw. 12,2%). Gleiches gilt für Arten, die ihren Lebenszyklus in Ästuaren abschließen können (8,8 bzw. 8,2 %). Die Zahl der in beiden Regionen nachgewiesenen Süßwasser- und diadromen Arten war gering. Im Gegensatz dazu trugen die Arten der marinen Nachzügler etwa 70 % zur Gesamtzahl der Arten in beiden Regionen bei. Die Anpassungen mariner Ästuar-Opportunisten und Ästuar-Laicher an das Leben in Ästuaren und insbesondere an die Auswirkungen der Schließung von Ästuarmündungen werden diskutiert. Obwohl nur eine Meeresart in einem bestimmten Intervall ihres Lebenszyklus im Südwesten Australiens auf Flussmündungen beschränkt war, waren die Jungtiere einer Reihe von Meeresarten auf Flussmündungen im gemäßigten südlichen Afrika beschränkt. Es wird vermutet, dass dieser Unterschied auf das Vorhandensein einer größeren Fläche und Qualität alternativer Aufwuchslebensräume in den Küstenmeeren im Südwesten Australiens als im südlichen Afrika zurückzuführen ist.;-;-;-;https://link.springer.com/article/10.1007/BF00751033 2264d5c4393d67c65479550a20009b56;de;;;3.1.;;;Fakten und Gedanken zur Phylogenie der Fische Es wird geschätzt, dass heute etwa 50.000 Arten von Kraniatentieren vertreten sind, von denen etwa die Hälfte die Welt der Fische ausmacht. Ihr Fossilienbestand reicht bis ins obere Kambrium zurück. Obwohl Schädeltiere viele Formen und Gestalten haben, lassen sie sich leicht in zehn große Gruppen einteilen: Osteolepipoden, Urodelomorphs, Struniiforms, Actinopterygians, Brachiopterygians, Coelacanthiforms, Dipnoans, Elasmobranchiomorphs, Pteraspidomorphs und Cephalaspidomorphs (Fig. 1).;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-9453-6_3 10046181c998e43a5399d38d5516e1ec;de;;;3.1.;;;Vitamintherapie ohne offensichtlichen Mangel Vitamine sind eine Gruppe organischer Verbindungen, die natürlicherweise in Lebensmitteln vorkommen und für eine gute Gesundheit notwendig sind. Ein Vitaminmangel kann zu einem spezifischen Mangelsyndrom führen, das primär (aufgrund einer unzureichenden Ernährung) oder sekundär (aufgrund einer Malabsorption oder eines erhöhten Stoffwechselbedarfs) sein kann klinische Bedingungen vorliegen. Es wird jedoch behauptet, dass pharmakologische Dosen von Vitaminen bei einer Vielzahl von Zuständen von Nutzen sind, die keine oder nur eine oberflächliche Ähnlichkeit mit den klassischen Vitaminmangelsyndromen aufweisen. Die riesige Literatur, auf der diese Behauptungen basieren, besteht hauptsächlich aus unkontrollierten klinischen Studien oder anekdotischen Berichten. Nur wenige Studien haben die Techniken der Randomisierung und Doppelblindung verwendet. Beweise aus solchen Studien zeigen eine positive therapeutische Wirkung von Vitamin E bei Claudicatio intermittens und fibrozystischer Brusterkrankung und von Vitamin C bei Druckgeschwüren, aber die Verwendung von Vitamin A bei Akne vulgaris, Vitamin E bei Angina pectoris, Hyperlipidämie und Verbesserung der sportlichen Leistungsfähigkeit von Vitamin C bei Krebs im fortgeschrittenen Stadium und Niacin bei Schizophrenie wurde abgelehnt. Die Beweise für die Verwendung von Vitamin C bei Erkältung, Asthma und Verbesserung der sportlichen Leistungsfähigkeit, von Pantothensäure bei Osteoarthritis und Folsäure (Folacin) bei Neuralrohrdefekten sind widersprüchlich oder nicht eindeutig.;-;-;-;https://link.springer.com/article/10.2165/00003495-198427020-00003 ec287eae6d2821841678771986fb827c;de;;;3.1.;;;Adaptive Differential Evolution für die Mehrzieloptimierung Keine existierenden multi-objektiven evolutionären Algorithmen (MO-EAs) wurden jemals auf Probleme mit mehr als 1000 reellwertigen Entscheidungsvariablen angewendet. Doch die reale Welt ist voll von großen und komplexen Problemen mit mehreren Zielen. Motiviert durch den jüngsten Erfolg von SaNSDE [1], einem adaptiven differentiellen Evolutionsalgorithmus, der in der Lage ist, effektiv und effizient mit mehr als 1000 reellwertigen Entscheidungsvariablen umzugehen, erweitert dieses Papier die Ideen hinter SaNSDE, um einen neuartigen MOEA namens MOSaNSDE zu entwickeln. Unsere vorläufigen experimentellen Studien haben gezeigt, dass MOSaNSDE moderne MOEAs bei den meisten von uns getesteten Problemen sowohl in Bezug auf Konvergenz- als auch Diversitätsmetriken deutlich übertrifft. Solche ermutigenden Ergebnisse erfordern in Zukunft eine eingehendere Untersuchung von MOSaNSDE, insbesondere hinsichtlich seiner Skalierbarkeit.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-02298-2_2 8520f4180556c4a21c676e65418345f7;de;;;3.1.;;;Kernwörterbuch (coreCIF) Dies ist Version 2.3.1 des Kern-CIF-Wörterbuchs (coreCIF). Einen Kommentar zur Verwendung dieses Wörterbuchs finden Sie in Kapitel 3.2. Die hier definierten Datennamen sind von zentraler Bedeutung für die Beschreibung und Berichterstattung jeder Kristallstrukturbestimmung bei Einkristallexperimenten. Dieses Kapitel ist auch erhältlich als;-;-;-;https://link.springer.com/referenceworkentry/10.1107/97809553602060000741 b2b7dfbfa66e541d47531e3d0641ef38;de;;;3.1.;;;Verbreitungsmuster von Gefäßpflanzenarten der Berge in Nepal und ihr Schicksal gegen die globale Erwärmung Diese Studie zielt darauf ab, das Höhenverteilungsmuster von Gefäßpflanzenarten, die von den hohen Bergen Nepals (Manang) berichtet wurden, entlang des gesamten Höhengradienten des Himalaya zu finden und ihr Schicksal gegenüber dem Klimawandel zu bewerten. Die Daten wurden aus mehreren Quellen, Felduntersuchungen, Literatur und Herbariumproben gesammelt. Insgesamt wurden 303 Gefäßpflanzenarten aus Manang gemeldet. Wir verwendeten veröffentlichte Daten, um das Verbreitungsgebiet jeder Art zu berechnen, indem wir zwischen ihren oberen und unteren Höhengrenzen interpolierten. Die Beziehung zwischen Höhe und Artenreichtum wird durch ein verallgemeinertes lineares Modell aufgeklärt. Die Folgen der globalen Erwärmung für die Gefäßpflanzenarten von Manang wurden basierend auf den prognostizierten Temperaturänderungen für das nächste Jahrhundert und der adiabatischen Abfallrate entlang des Höhengradienten des Himalaya geschätzt. Der Artenreichtum der Gefäßpflanzen hat eine unimodellhafte Beziehung zur Höhe entlang des gesamten Höhengradienten Nepals sowie in drei biogeographischen Regionen Nepals. Manang-Gefäßpflanzen werden vom Tiefland-Terai bis in die hochalpinen Regionen Nepals verbreitet und ihr Verbreitungsgebiet variiert von 200 bis 4700 m. Von den 303 Gefäßpflanzen von Manang könnten nur sieben Arten von einem Temperaturanstieg um 1,5°C betroffen sein, während mindestens 70 Arten von einem Temperaturanstieg von 5°C betroffen sein werden Empfangen: 3. März 2015 Angenommen: 17. Juli 2015 Die meisten Arten (233 Arten) haben jedoch ein breiteres Verbreitungsgebiet (> 1000 m) und einen Temperaturtoleranzbereich von mehr als 5 °C, sodass sie bis Ende 21 . wahrscheinlich weniger von der globalen Erwärmung betroffen sein werden;-;-;-;https://link.springer.com/article/10.1007/s11629-015-3495-9 ec5a73232534850d05a7338fafcd33f2;de;;;3.1.;;;Anmerkungen zur Devon-Korrelationstabelle, B810di03 — B815di03: unterdevonische Trilobiten-Stratigraphien von Südamerika, Südafrika und der Antarktis Der fortschreibungsfähigen und -pflichtigen Devon-Korrelationstabelle Werden weitere Tabellen-Spalten über unterdevonische Trilobiten hinzugefügt. Die Tabellen-Spalten beinhalten zusammenfassende Trilobiten-Stratigraphien des Amazonas und Paraná Beckens (Brasilien), von den Precordilleren (Argentinien), den Falkland-Inseln (Großbritannien) und von Bolivien [alle Südamerika], von Süd- und Südwestafrika und von der Antarktis. SIE Werden mit Hilfe der Literaturangaben und den bereits vorhandenen Tabellen-Spalten der Korrelationstabelle kompilatorisch erstellt und korreliert, was im einzelnen erläutert und begründet WIRD.;-;-;-;https://link.springer.com/article/10.1007/BF03043314 dbb5f8fbca31cb43a04aa3378d25a6c6;de;;;3.1.;;;Ophiuren (echinodermata) des hohen oberdevons im nördlichen rheinischen schiefergebirge Vier Aufschlüsse (davon drei neu) im Nordrheinischen Schiefergebirge lieferten mehrere Ophiuroide aus den hohen Famennien. Folgende Formulare werden beschrieben:;-;-;-;https://link.springer.com/article/10.1007/BF03031755 1a2fc06b855167d66df03d8f578952ec;de;;;3.1.;;;Einteilung der Flohfamilien (Siphonaptera): II. Familie Hystrichopsyllidae (Teil 3) Es werden morphologische Merkmale und ihre Diversität in den afrotropischen Unterfamilien Dinopsyllinae und Listropsyllinae sowie der holarktischen Unterfamilie Anomiopsyllinae untersucht. Drei Zentren hatten die größte Bedeutung bei der Bildung der Familie Hystrichopsyllidae: das südamerikanische (außerkaribische), das afroeuropäische sowie das nordamerikanische und asiatische. Ein weiteres Zentrum könnte in Australien gelegen haben, aber seine Fauna ist weitgehend ausgestorben oder bleibt unbekannt. Der Ursprung einer Reihe von Stämmen der Unterfamilien Hystrichopsyllinae und Doratopsyllinae wird mit dem südamerikanischen Zentrum, der Ursprung von Untergattungen der Unterfamilie Ctenophthalminae sowie der Unterfamilien Listropsyllinae und Dinopsyllinae mit dem afroeuropäischen Zentrum und dem Ursprung der Unterfamilien Neopsyllinae, Rhadinopsyllinae, Anomiopsyllinae, Stenoponiinae und Liuopsyllinae mit dem nordamerikanischen und asiatischen Zentrum. Die Verteilung der Unterfamilien Doratopsyllinae und Hystrichopsyllinae gibt Aufschluss über die Anfangsstadien der Bildung der Familie Hystrichopsyllidae.;-;-;-;https://link.springer.com/article/10.1134/S0013873807040057 683f00a18bb3c551bfc4afdf9e282b49;de;;;3.1.;;;Vorschläge für zukünftige Beobachtungen Bei Vorschlägen für mögliche neue Messungen im Weltraum im Zusammenhang mit Sonnenereignissen erscheint es als selbstverständlich anzunehmen, dass sich die gegenwärtigen experimentellen Techniken weiter verbessern werden. Tatsächlich sind die Details, die jetzt bei Messungen von Elektronen- und Protonenverteilungsfunktionen erreicht werden können, bemerkenswert und beginnen tatsächlich unsere Fähigkeit, die Daten aufzunehmen und zu verstehen, zu strapazieren. Es gibt jedoch mindestens zwei Bereiche, in denen weitere Verbesserungen angestrebt werden sollten, nämlich eine erhöhte Abdeckung (insbesondere bei mehreren Raumfahrzeugen) und Messungen der Partikelzusammensetzung.;-;-;-;https://link.springer.com/chapter/10.1007/978-94-010-3278-0_53 cc1a94b119a52c690b8ae25a94e5e47e;de;;;3.1.;;;Das Schicksal der verpassten atlantoaxialen rotatorischen Subluxation bei Kindern Torticollis bei Kindern kann auf eine atlantoaxiale rotatorische Subluxation zurückzuführen sein. Verzögert sich die Diagnose auf der Grundlage einer einfachen seitlichen Röntgenaufnahme und einer Computertomographie und eine spezifische Behandlung, wird die Reposition schwierig zu erreichen. Eine atlantoaxiale Fusion kann angezeigt sein, um die Instabilität zu heilen. Somit kann eine diagnostische Verzögerung die Wiederherstellung der Funktion der Halswirbelsäule verhindern. Bei erworbenen Torticollis bei Kindern ist eine röntgenologische Untersuchung angezeigt, wenn die Symptome nicht innerhalb einer Woche gelindert werden, während bei traumatischen Torticollis eine sofortige Röntgenuntersuchung angezeigt ist.;-;-;-;https://link.springer.com/article/10.1007/s004020050249 e59164f084467a3516ef85ba4493cb45;de;;;3.1.;;;Belgische Entscheidungsträger und Europäische Einheit, 1945–63 Es ist allgemein anerkannt, dass nach dem Krieg kleinere Staaten und insbesondere die Benelux-Union führende Befürworter der westeuropäischen Einheit waren. Es wird auch akzeptiert, dass die Entscheidungsfindung der belgischen Regierung extrem stark vom externen Umfeld beeinflusst wurde. Als „durchdrungene“ Gesellschaft sind transnationale und externe Einflüsse seit langem von größter Bedeutung.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-349-24052-4_8 cd819594b186cfcc5b1259858bce0008;de;;;3.1.;;;Der Bostoner Prozessansatz Der Boston-Prozess-Ansatz zur klinischen neuropsychologischen Beurteilung verkörpert ein philosophisches Ideal bezüglich der optimalen Methode zur Untersuchung von Patienten mit Verdacht auf Hirnschäden oder kognitive Behinderungen. Der Begriff „Prozess“ wurde von seiner Gründerin und ersten Befürworterin Edith Kaplan während ihrer Amtszeit am Boston Veterans Administration Hospital auf den Ansatz angewendet. Ein Großteil des Anstoßes und der Methodengrundlage für den Ansatz ging von Forschern aus den Bereichen Aphasiologie und Verhaltensneurologie aus, mit denen Kaplan in den 1960er bis 1990er Jahren an der Boston VA an klinischer Bewertung und Forschung arbeitete. Die Bemühungen von Kaplan, ihren Kollegen auf diesen Gebieten und Studenten, die im Prozessansatz geschult wurden, haben zu einer Tradition formaler Testmessungen, Techniken zur qualitativen Beobachtung des Testverhaltens und der klinischen Interpretation geführt. Diese Tradition wurde weltweit sowohl auf die Beurteilung einzelner Patienten als auch auf die Forschungsmethodik umfassend angewendet und repräsentiert weiterhin den vorherrschenden Ansatz zur neuropsychologischen Beurteilung, der in der Region Boston verwendet wird. Darüber hinaus werden viele der auf der Grundlage der Tradition entwickelten Tests von Praktikern verwendet, die hauptsächlich Techniken anwenden, die aus anderen neuropsychologischen Traditionen stammen.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4757-9820-3_6 6b04100cf0fbfee0316f89ef9b6b1bed;de;;;3.1.;;;Bleivergiftung Eine Bleivergiftung wurde bereits 2000 v. Chr. erkannt und die weit verbreitete Verwendung von Blei war im Laufe der Geschichte in mehreren Gesellschaften eine Ursache für den endemischen chronischen Klempnertum. Im 20. Jahrhundert ist Bleivergiftung noch immer ein weit verbreitetes Problem. Bei Kindern ist dies hauptsächlich auf die Aufnahme von Pica und die Umweltexposition zurückzuführen, während die industriell exponierten Erwachsenengruppen das größte Risiko darstellen: Daher sollten diese Arbeitnehmer in regelmäßigen Abständen untersucht werden. Die klinischen Merkmale einer Bleiintoxikation sind unspezifisch und werden oft nicht erkannt. Die frühen Manifestationen sind überwiegend neuropsychiatrisch, gefolgt von signifikanteren Störungen des zentralen und peripheren Nervensystems, symptomatischen gastrointestinalen, muskuloskeletalen, hämatologischen und endokrinen Anomalien. Der Zusammenhang zwischen einer Bleivergiftung und einer Nierenerkrankung ist gut dokumentiert und muss berücksichtigt werden, insbesondere wenn Hypertonie und/oder Gicht einhergehen.;-;-;-;https://link.springer.com/article/10.1007/BF03259851 ac6e0b24284c6bbfad17b3bd1ed1149a;de;;;3.1.;;;Blindheit als seltene Komplikation der Neck dissection Blindheit ist eine seltene und eher unerwartete Komplikation der Neck dissection. Bisher wurden nur wenige Fälle gemeldet, alle nach bilateraler Neck dissection. Wir präsentieren einen Fall von Blindheit nach einseitiger Neck dissection und einem heimtückischen Befund eines beidseitigen Verschlusses der A. carotis communis.;-;-;-;https://link.springer.com/article/10.1007/BF02439986 dbbd01c2cd861c880cdb83aa4763e8d7;de;;;3.1.;;;In-vitro- und In-vivo-Studien zur pränatalen Toxizität von fünf virustatischen Nukleosidanaloga im Vergleich zu Aciclovir Es ist bekannt, dass mehrere virustatische Mittel bei Labortieren teratogen sind. Da routinemäßig durchgeführte In-vivo-Studien nicht immer die besten Voraussetzungen bieten, um das teratogene Potenzial eines Arzneimittels nachzuweisen, verwendeten wir einen kombinierten In-vivo/In-vitro-Ansatz für vergleichende Studien zur pränatalen Toxizität von fünf Nukleosidanaloga. Rattenembryonen wurden 48 h gegen verschiedene Konzentrationen von Vidarabin-Phosphat (VAP), Ganciclovir (GCV), 2′,3′-Didesoxyadenosin (ddA), 2′,3′-Didesoxycytidin (ddC) und Zidovudin (= Azidothymidin, AZT) in einem Gesamtembryokultursystem. Die Steilheit der Konzentrations-Antwort-Kurven sowie das induzierte Abnormalitätsmuster (Kopf, Neuralrohr, Form) waren für diese Verbindungen ähnlich. Es wurde jedoch ein breites Spektrum an embryotoxischer Potenz beobachtet: VAP war die stärkste Verbindung (100 % abnormale Embryonen bei 25 μM) in diesem in vitro-System, während AZT die niedrigste Potenz zeigte, die normale Embryonalentwicklung zu stören (40 % abnormale Embryonen bei 3000 μM). Zusätzlich zu diesen Experimenten behandelten wir Ratten am 10. Trächtigkeitstag mit drei s.c. Injektionen (8 Uhr, 12 Uhr, 16 Uhr) von 200 mg jedes Arzneimittels/kg Körpergewicht. Die Embryonen wurden am Tag 11,5 der Trächtigkeit bewertet, d. h. zu einem Entwicklungszeitpunkt, der dem Entwicklungsstadium am Ende der Gesamtembryokultur entspricht. Für die Bewertung dieser in vivo exponierten Embryonen wurden die gleichen Kriterien wie bei den in vitro-Studien verwendet. Mit VAP und GCV erhielten wir bei beiden Expositionswegen (in vitro und in vivo) ähnliche Ergebnisse, während bei den anderen Verbindungen nach Exposition in utero keine Anomalien nachweisbar waren. Vergleicht man die Ergebnisse der In-vitro- und In-vivo-Studien mit Daten ähnlicher Experimente, die in unserem Labor mit dem Nukleosidanalogon Aciclovir (ACV) unter identischen Bedingungen durchgeführt wurden (Klug et al. 1985 a, Stahlmann et al. 1988), so Schlussfolgerungen: Unter in vitro-Bedingungen zeigte VAP das höchste Potenzial der Virustatika, die Embryonalentwicklung zu stören, das toxische Potenzial von AZT war überraschend gering. Unter unseren experimentellen In-vivo-Bedingungen zeigt ACV das höchste teratogene Potenzial, während ddC, ddA und AZT eine offensichtlich geringere Toxizität aufweisen.;-;-;-;https://link.springer.com/article/10.1007/BF01968962 dda4bc26a3a68dd7b7f54702ebec31e7;de;;;3.1.;;;Formalisierung der Assoziationssemantik in Terminologien Die Terminologie einer wissenschaftlichen oder technischen Gemeinschaft verkörpert eine Informationsstruktur, die für diese Gemeinschaft von Bedeutung ist. Das einer Terminologie zugrunde liegende konzeptionelle Modell kann als Grundlage für ein Informationsmodell dienen, aber auch als Grundlage für den Aufbau der externen und internen Informationsstrukturen dienen. Um jedoch nützlich zu sein, muss der Informationsgehalt einer Terminologie formalisiert – präzisiert und explizit gemacht werden. Eine der Hindernisse für diesen Formalisierungsprozess ist die Frage der Assoziationssemantik. Unterschiedliche Terminologien spezifizieren Assoziationen aus unterschiedlichen Perspektiven und in unterschiedlicher Spezifität. Diese Assoziationen müssen in einem gemeinsamen Modell abgebildet werden, das sowohl für Terminologen als auch für Informationsmodellierer nützlich ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-1-4615-5229-1_18 e0e43d347ed60239d6903861aa06bb88;de;;;3.1.;;;Metapherngrafiken zur Unterstützung der integrierten Entscheidungsfindung mit Atemwegsdaten Die Unterstützung der Datenintegration auf der Intensivstation (ICU) beinhaltet oft Bemühungen um eine bessere Darstellung der Daten. Eine elektronische Version eines Flussdiagramms (Zahlentabelle) mit optionalen Liniendiagrammen ist bei weitem das gebräuchlichste Format in der aktuellen Computerarbeitsplatztechnologie auf Intensivstationen, jedoch gibt es wenig Hinweise darauf, dass dieses Format die menschliche Integration von Daten besonders gut unterstützt. Die vorliegende Arbeit stellt eine neue Form der grafischen Darstellung vor, die viel metaphorischer, viel stärker auf die Intensivstation zugeschnitten ist als ein Liniendiagramm. Dieses grafische System, genannt;-;-;-;https://link.springer.com/article/10.1007/BF01142279 70bac9513d0340537c1b9864c824ea9c;de;;;3.1.;;;Extrapyramidale Nebenwirkungen während einer chronischen kombinierten Behandlung mit Dopamin D1- und D2-Antagonisten bei Cebus-apella-Affen Frühere Studien an nicht-menschlichen Primaten haben gezeigt, dass während des chronischen Dopamin-D1-(D1)-Antagonismus eine Toleranz gegenüber Dystonie auftritt, nicht jedoch der D2-Antagonismus und die Induktion/Verstärkung der oralen Dyskinesie (TD) während des D2-Antagonismus, jedoch nicht des D1-Antagonismus. Wir waren daher daran interessiert, die Auswirkungen des kombinierten chronischen D1 + D2-Antagonismus auf Dystonie und Dyskinesie zu bestimmen. Zu diesem Zweck wurden 8 männliche Cebus-apella-Affen 10 Wochen lang mit allmählich steigenden Dosen von D1-Antagonist (NNC 112) + einem D2-Antagonisten (Racloprid) behandelt, gefolgt von einer 2-wöchigen Behandlung mit dem D2-Antagonisten allein. Aufgrund vorheriger Neuroleptika-Exposition hatten 5 Affen TD und alle waren für Dystonie sensibilisiert. Während der kombinierten Antagonistenbehandlung trat Toleranz gegenüber Dystonie auf, die Toleranz verschwand nach Absetzen des D1-Antagonisten und Fortsetzen des D2-Antagonisten allein. Parallel zu diesen Ergebnissen wurde eine Verbesserung der TD während der kombinierten Antagonistenbehandlung mit einer Verschlechterung während der D2-Antagonisten allein beobachtet. Sowohl die kombinierten Antagonisten als auch der D2-Antagonist allein führten zu einer mäßigen/schweren Bradykinesie ohne Toleranz. Diese Ergebnisse deuten darauf hin, dass die Ergänzung des traditionellen D2-Antagonismus mit einem D1-Antagonisten das Risiko einer Dystonie verringern und eine Linderung einer bereits bestehenden TD ermöglichen würde, obwohl Parkinson-Nebenwirkungen weiterhin auftreten könnten. Die Ergebnisse weisen ferner darauf hin, dass separate dopaminerge Mechanismen Dystonie/Dyskinesie und Parkinsonismus kontrollieren.;-;-;-;https://link.springer.com/article/10.1007/s004060050090 6f2aabb51395affe61f421e07a8f2b3d;de;;;3.1.;;;Chirurgische Behandlung von muskulären Torticollis bei Patienten über 6 Jahren 18 Patienten mit kongenitaler muskulärer Torticollis im Alter von 6–22 (durchschnittlich 11) Jahren wurden chirurgisch von den kontraktiven Bändern befreit. Es waren 8 Jungen und 10 Mädchen. Die präoperative Röntgenaufnahme des Processus odontoideus bei 16 Patienten zeigte eine Asymmetrie der Gelenkfacetten der Achse und eine Neigung des Processus odontoideus zur Seite des Torticollis. Sechzehn Patienten erhielten bipolare Freisetzungen, die anderen erhielten distale Freisetzungen. Nach der Operation wurde ein Halskragen angelegt und ein Trainingsprogramm gestartet. Bei einer durchschnittlichen Nachbeobachtungszeit von 5 Jahren und 7 Monaten gab es bei 10 Patienten ausgezeichnete oder gute Ergebnisse. Alle Patienten außer 2 zeigten eine Verbesserung der Gesichtsasymmetrie und alle außer 1 hatten einen zufriedenstellenden Bewegungsumfang des Halses. Ein Patient unterzog sich wegen eines Rezidivs einer zweiten Operation. Die Nachuntersuchungen zeigten eine Verbesserung der Neigung des Odontoideus, aber die Asymmetrie der Gelenkfacetten der Achse blieb bestehen. Wir schlagen vor, dass die bipolare Freisetzung die Behandlung der Wahl bei angeborenen Muskeltorticollis bei Patienten über 6 Jahren ist. Um den Einfluss eines bipolaren Releases auf die Funktionen der Halswirbelsäule zu bestimmen, sind längere Kontrollintervalle erforderlich.;-;-;-;https://link.springer.com/article/10.1007/s004020050032 f05f52fef9fac8434377a5b7e59260d8;de;;;3.1.;;;Joyce wiedergeben: Echos from n mit den Klangtechnologien seiner Zeit im Einklang und mit der Möglichkeit, in den 1920er Jahren seine eigene Stimme aufzunehmen, reflektierte James Joyce viel über das klangliche Potenzial der Sprache. Wer seine Schriften gelesen hat, kann bestätigen, dass darin verschiedene Stimmen eingeschrieben oder „aufgezeichnet“ sind. In einem Brief vom Juni 1922 lobte Ezra Pound die Verbreitung von Stimmen in;-;-;-;https://link.springer.com/chapter/10.1057/9781137407467_6 0d0776f7d067612eb7167874ca6702c3;de;;;3.1.;;;Chirurgische Behandlung von niedriggradiger lytischer Spondylolisthesis mit C-D-Instrumenten bei erwachsenen Patienten In dieser retrospektiven Studie werden 45 Patienten mit niedriggradiger (I–II) isthmischer Spondylolisthesis berichtet. Bei 19 Patienten (Gruppe I) wurde eine spinale Dekompression, Stabilisierung und Fusion durchgeführt. Bei 26 Patienten (Gruppe II) wurde eine Stabilisierung und Fusion ohne dekompressive Laminektomie durchgeführt. Die überwiegend ermutigenden Ergebnisse zeigen keinen signifikanten Unterschied zwischen den beiden Gruppen.;-;-;-;https://link.springer.com/article/10.1007/s004020050422 fda4126f04fec62ebbae72cd56f268f7;de;;;3.1.;;;Ursprünge, Entwicklungsfaktoren und funktionale Differenzierung der Städte Angloamerikas Beide Unterschiede der naturgeographischen Ausstattung als auch unterschiedliche Inwertsetzung des Naturraums durch den Menschen schufen in den Teilräumen des Kontinents Angloamerika. Leitlinien der frühesten Besiedlung und günstige Eignung, auf der andern Seite unzureichende Grundlagen für eine dichtere städtische Bevölkerung lassen sich bis heute gute Zahl und Kunst der Städte in den verschiedenen Landesteilen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-663-05249-4_5 f0aaa53d29406cd15c1213f007a585c8;de;;;3.1.;;;Klinische Anatomie der vorderen Schädelgrube und ihrer angrenzenden Gebiete Am orbitalen Stirnhirn, dessen Läsionen zu Störungen des Taktgefühls und Abweichungen im Verhalten gegenüber Mitmenschen und zum Verlust ethischer Hemmungen führen, ist stets der Sulcus olfactorius ausgebildet, der den Gyrus rectus von der lateralen Seite her abgrenzt. Der Gyrus rectus ist an unserem Untersuchungsgut rechts im Mittel 44,5mm, links 44,6mm lang. Die Breite beträgt links wie rechts im Mittel 6,8 mm. Dem Sulcus olfactorius liegt vorn der im Mittel 6–16 mm lange und 4,5 mm breite sowie 2,1–2,3 mm dick Bulbus olfactorius an (Schmidt 1973). Sein dorsales Ende geht in den im Mittel 25 mm langen und 3 mm breiten Tractus olfactorius über. Er entspricht geradlinig oder bogig nach hinten seitwärts zum Trigonum olfactorium und teilt sich rostral der Substantia perforata rostralis in den Striae olfactoriae medialis et lateralis. In diesem Bereich liegt der Tractus 2–3 mm lateral der A. cerebri anterior. Dorsal überkreuzt er in der Regel spitzwinklig den N. opticus vor dessen Eintritt in den Canalis opticus. Etwas vor der Mitte seiner Verlaufsstrecke biegt der Tractus olfactorius aus dem Sulcusbereich nach medial zum Bulbus ab und über die basale Fläche des Gyrus rectus.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-84913-8_1 17f714549c9ade8c152b1b2c9051c513;de;;;3.1.;;;Erste Warnungen vor den Gefahren des Tabakkonsums. Medizinisch-wissenschaftliche Kenntnisse und Vorschläge zur Prävention in der zweiten Hälfte des 19. sowie der ersten Hälfte des 20. Jahrhunderts Hinweise auf historische Aspekte der Tabakforschung und die daraus resultierenden Empfehlungen zur Prävention tabakassoziierter Erkrankungen sind in neueren Studien nur rudimentär zu finden. Der Artikel gibt einen systematischen Überblick über die historische Literatur zu diesem Thema unter besonderer Berücksichtigung ausgewählter Zeitschriften, die zwischen 1850 und 1950 erschienen sind in der Regel nicht-institutionalisierte Empfehlungen zu ihrer Prävention. Der Bericht zeigt anschaulich das frühe Wissen über die toxischen Wirkungen von Tabak und seinen Produkten, die Verursachung von Augenkrankheiten und die Wirkungen auf das Herz-Kreislauf-System, das Atmungs- und Nervensystem sowie das Fortpflanzungssystem. Es wird auch über das Wissen um die Pathogenese von tabakbedingten psychischen Störungen, Sucht und Krebs berichtet. Einige bisherige Präventionsstrategien gelten aus heutiger Sicht als obsolet, manche erscheinen als sehr aktuell. Zusammenfassend lässt sich sagen, dass die Forschung zu den Charakteristika von Tabak und tabakassoziierten Erkrankungen Zeugnisse einer epochen- und systemübergreifenden Kontinuität ist.;-;-;-;https://link.springer.com/article/10.1007/s10354-007-0449-z 8772ebd9ee0c43f06cb8934b78af459d;de;;;3.1.;;;„In Darkest Lambeth“: Henry Morton Stanley und die Imperial Politics of London Unionism Die Kultur des Imperialismus durchdrang das spätviktorianische und edwardianische London. Als kaiserliche Hauptstadt, das „Herz des Imperiums“, war London eine kosmopolitische, internationale Stadt, die weite Teile der Welt regierte. Der imperiale Charakter der Stadt unterschied die Londoner deutlich von den Einwohnern anderer englischer Städte.;-;-;-;https://link.springer.com/chapter/10.1057/9780230522794_10 6292bbe8f5fc2b25f06c26c431b2a30c;de;;;3.1.;;;Das Londoner Making of eines Modernisten: John Cournos in Babel Ritiker, Journalist, Übersetzer, Herausgeber, Romancier, Dichter, Dramatiker – John Cournos (1881–1966) erfüllte all diese schriftstellerischen Ämter mit Auszeichnung, wenn nicht sogar mit finanziellem Erfolg, während seiner fast zwanzig Jahre als amerikanischer Schriftsteller in England (1912–1931) . Die Quantität und Qualität seiner Veröffentlichungen zeugen von einem Ehrgeiz und einem Streben, das nicht weniger energisch ist als das seiner bekannteren Freunde und Kollegen in England: T. S. Eliot und seine Kollegen aus Philadelphia, H. D. und Ezra Pound. An ihn wird heute am häufigsten als Übersetzer aus dem Russischen erinnert.;-;-;-;https://link.springer.com/chapter/10.1057/9781137340023_5 4e8c8f7bce43f9675c8e3683df41718d;de;;;3.1.;;;Ein Entwurf eines dreidimensionalen Geodatenmodells und seiner Datenstruktur in der geologischen Explorationstechnik Der Schlüssel zur Entwicklung von 3-D-GIS ist die Untersuchung des 3-D-Datenmodells und der Datenstruktur. Einige der Datenmodelle und Datenstrukturen wurden von Wissenschaftlern vorgestellt. Aufgrund der Komplexität von räumlichen 3D-Phänomenen gibt es keine perfekten Datenstrukturen, die alle räumlichen Einheiten beschreiben können. Jede Datenstruktur hat ihre eigenen Vor- und Nachteile. Es ist schwierig, eine einzelne Datenstruktur zu entwerfen, um unterschiedliche Anforderungen zu erfüllen. Das wichtige Thema bei den 3D-Datenmodellen ist die Entwicklung eines Datenmodells mit integrierten Vektor- und Rasterdatenstrukturen. Ein spezielles räumliches 3D-Datenmodell basierend auf Verteilungsmerkmalen von räumlichen Einheiten sollte entworfen werden. Wir nahmen die geologische Explorationstechnik als Forschungshintergrund und entwarfen ein integriertes Datenmodell, dessen Datenstrukturen Vektor- und Rasterdaten mit objektorientierter Technik integrieren. Forschungsergebnisse werden in diesem Beitrag vorgestellt.;-;-;-;https://link.springer.com/article/10.1007/BF02826723 99d7e978f5ba31ad3d9f70f98c61bd68;de;;;3.1.;;;Ein Archaeotrogon (Aves: Archaeotrogonidae) aus dem Mittel-Eozän der Grube Messel (Hessen, Deutschland)? Ein Vogel aus dem mittleren Eozän der Grube Messel (Hessen, Deutschland) wird als neue Gattung und Art der Archaeotrogonidae Mourer-Chauviré 1980 (;-;-;-;https://link.springer.com/article/10.1007/BF01651221 ae8977b466d6f4b42c740bb8c10e7a59;de;;;3.1.;;;Schutz des immateriellen Kulturerbes auf der Grundlage der Informationstechnologie Der Schutz des immateriellen Kulturerbes ist ein zeitgemäßer Kulturaufbau und die Hochschulbildung wichtige Aufgaben. Die Universitäten als Lehre, zur Förderung der hochqualifizierten Begabungen aller Hochschulen, zum Schutz der testamentarischen Arbeit spielen eine zentrale Rolle. Dieses Papier, aus dem Konzept des immateriellen Kulturerbes, die charakteristische, auf der Informationstechnologie basierende, den Schutz des immateriellen Kulturerbes der Notwendigkeit und Dringlichkeit und die hohe Kunsterziehung zum Schutz des Testaments zu schützende Aufgabe der Arbeit, wir in der Ausbildung der Hochschulkunst Bildung gab Schutz- und Erbschaftsarbeiter, bot relevante dem Kunstberuf, Bergbau und gab den Schutz der testamentarischen Kultur und Ideen nach, und zum Schutz der gegenwärtig bestehenden Probleme in der Linken und der Zukunft des Erbes und Schutzes des Werkes wurde diskutiert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-29084-8_114 e3efacd0aed45d2139e3cacf445892d9;de;;;3.1.;;;Physiologie und Fortpflanzung bei sozialen Wespen Von allen sozialen Insekten sind soziale Wespen wahrscheinlich die am wenigsten bekannten. Dies gilt insbesondere für die Mechanismen der Kasteninduktion und die Regulierung der Fortpflanzungsfunktionen in der Wespenkolonie.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-74490-7_5 62d182e3e23757194b01dd3dc3b8f753;de;;;3.1.;;;Verbesserte Monte-Carlo-Lokalisierung mit visueller Ortserkennung für eine robuste Roboterlokalisierung In diesem Artikel wird vorgeschlagen, die Monte-Carlo-Lokalisierungsmethoden um visuelle Ortserkennungsinformationen zu erweitern, um ein robustes Roboterlokalisierungssystem aufzubauen. Dieses System soll in überfüllten und nichtplanaren Szenarien funktionieren, in denen 2D-Laserentfernungsmesser möglicherweise nicht immer ausreichen, um die Roboterposition auf der Karte abzugleichen. So wird die visuelle Ortserkennung verwendet, um Hinweise auf die Roboterposition zu erhalten, mit denen ein Verlust des Roboters erkannt und seine Positionen auf die richtige Position zurückgesetzt werden können. Der Beitrag präsentiert experimentelle Ergebnisse basierend auf Datensätzen, die mit einem echten Roboter in anspruchsvollen Szenarien gesammelt wurden.;-;-;-;https://link.springer.com/article/10.1007/s10846-015-0198-y fe7ad18363f51d55015928008dd98ec1;de;;;3.1.;;;Dekadische Variabilität der Extremniederschlagstage über Nordwestchina von 1963 bis 2012 Die täglichen Niederschlagsdaten von 153 meteorologischen Stationen über Nordwestchina im Sommer von 1963 bis 2012 wurden ausgewählt, um die raumzeitliche Verteilung der extremen Sommerniederschlagshäufigkeit zu analysieren. Die Ergebnisse zeigen, dass die Häufigkeit extremer Niederschläge regional abhängig war. Die Provinzen Süd-Gansu, Nord-Qinghai und Süd-Shaanxi wiesen eine hohe Häufigkeit von extremen Niederschlägen auf und neigten zu abrupten Änderungen der Häufigkeit. Der Nordwesten Chinas wurde basierend auf der Clusteranalyse der 50-jährigen extremen Niederschlagshäufigkeitsreihen für jede meteorologische Station weiter in drei Unterregionen (nördlich, zentral und südlich) unterteilt. Die extremen Veränderungen der Niederschlagshäufigkeit traten in der nördlichen Region Ende der 1970er Jahre und in der Zentralregion Ende der 1980er bis 1990er Jahre auf. Die südliche Region schwankte auf einer Zeitskala von quasi 10 Jahren. Diese Studie untersuchte auch den Mechanismus von Änderungen der Häufigkeit von Extremniederschlägen. Die Ergebnisse zeigen, dass die Schichtungsstabilität, der atmosphärische Wasserdampfgehalt und die Aufwärtsbewegung alle die Änderungen der extremen Niederschlagshäufigkeit beeinflussten.;-;-;-;https://link.springer.com/article/10.1007/s13351-014-4022-6 021db3a83dd9796ece4f58a2d39cb4e2;de;;;3.1.;;;Die Faserglia des Selachiergehirns Die Glia der Rochen ist fast ausschließlich eine Astrocytenglia wie bei höheren Wirbeltieren. Die Fortsätze der wenigen ependymalen Gliocyten sind nicht gestreckt und verlieren sich unweit vom Ventrikel. Der Saccus vasculosus und die Hypophyse des Rochen besitzen eine auffallende Glia.;-;-;-;https://link.springer.com/article/10.1007/BF00334758 7b5e85fb6ff7a3b234ca41631eabae35;de;;;3.1.;;;Analyse der räumlich-zeitlichen Variabilität der optischen Aerosoltiefe mit empirischen orthogonalen Funktionen im Changjiang-Flussdelta, China Diese Arbeit zielt darauf ab, die räumliche und zeitliche Variabilität der optischen Aerosoltiefe (AOD) von 2000 bis 2012 im Changjiang River Delta (CRD), China, zu analysieren. US-Terra-Satelliten-Spektroradiometer mit mittlerer Auflösung (MODIS) AOD und Ångström-Exponent (;-;-;-;https://link.springer.com/article/10.1007/s11707-014-0444-9 81ec07e406f82c701a112f78d8566148;de;;;3.1.;;;Das Nachbarschaftskonfigurationsmodell: Ein Framework zur Unterscheidung topologischer Beziehungen zwischen komplexen Volumen Topologische Beziehungen zwischen räumlichen Objekten werden für räumliche Datenbanken als wichtig erachtet. Sie führen zu topologischen Prädikaten, die als Join- oder Auswahlbedingungen in räumliche Abfragen eingebettet werden können. Bevor in die Implementierung topologischer Prädikate überstürzt wird, müssen zunächst topologische Beziehungen zwischen räumlichen Objekten verstanden und geklärt werden. Dies erfordert eine detaillierte Untersuchung einer Vielzahl möglicher räumlicher Konfigurationen auf abstrakter Ebene und erfordert daher Methoden, die möglichst viele verschiedene räumliche Konfigurationen klassifizieren und identifizieren können. Während zu topologischen Zusammenhängen im 2D-Raum bereits viel geforscht wurde, wird die Untersuchung im 3D-Raum eher vernachlässigt. Entwickelte Modellierungsstrategien sind meist Erweiterungen des beliebten 9-Schnitt-Modells, das ursprünglich für einfache 2D-Raumobjekte entwickelt wurde. Wir beobachten, dass eine Vielzahl topologischer Beziehungen, insbesondere zwischen zwei komplexen 3D-Objekten, in diesen Modellen noch nicht unterschieden werden. Daher schlagen wir eine neue Modellierungsstrategie vor, die auf der Punktmengentopologie basiert. Wir untersuchen alle möglichen Nachbarschaftskonfigurationen eines beliebigen Punktes im euklidischen Raum, in den zwei Volumenobjekte eingebettet sind, und definieren entsprechende;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-24574-9_32 6cc0a6dae7532a6d92bb207c57e541fc;de;;;3.1.;;;Verbesserte robuste passive Kriterien neuronaler Netze mit diskreten und verteilten Verzögerungen basierend auf erweiterter reziproker konvexer Matrixungleichung Dieser Beitrag untersucht das passive Problem neuronaler Netze mit diskreten und verteilten Verzögerungen. Zuerst wird ein neues Lyapunov-Krasovskii-Funktional (LKF) konstruiert, indem ein Term vom Verzögerungsprodukttyp eingeführt wird, so dass die Informationen über die Verzögerungsänderungsrate umfassend berücksichtigt werden. Dann wird eine erweiterte reziproker konvexe Matrixungleichung kombiniert mit der Wirtinger-basierten integralen Ungleichung mit weniger Konservatismus verwendet, um die enge Schätzung für die Ableitung der LKF zu realisieren. Als Ergebnis werden zwei verbesserte passive Kriterien für die neuronalen Netze mit diskreten und verteilten Verzögerungen präsentiert. Abschließend werden zwei Zahlenbeispiele gegeben, um die Wirksamkeit und Verbesserungen unserer Methoden aufzuzeigen.;-;-;-;https://link.springer.com/article/10.1007/s12555-017-0534-z de400351ae67c74651314020e0add7a9;de;;;3.1.;;;Abruf interner Wellenparameter aus weltraumgestützten SAR-Bildern Basierend auf dem SAR-Bildgebungsmechanismus für ozeanische interne Wellen und dem Mikrowellenstreuungsmodell für ozeanische Oberflächenmerkmale haben wir eine neue Methode entwickelt, um interne Wellenparameter aus SAR-Bildern zu extrahieren. Zunächst werden die anfänglichen Windfelder aus NCEP-Reanalysedaten abgeleitet, die Meerwasserdichte und die Pyknoklinetiefe der ozeanischen internen Welle werden aus den Levites-Daten geschätzt, die durch die interne Welle induzierten Oberflächenströmungen werden gemäß der KDV-Gleichung berechnet. Das NRCS-Profil wird dann simuliert, indem die Aktionsgleichgewichtsgleichung gelöst und das Rückstreumodell des Meeresoberflächenradars verwendet wird. Sowohl die Winde als auch die Pyknokline-Tiefe der internen Welle werden mithilfe der Dichotomie-Methode Schritt für Schritt angepasst, damit sich die simulierten Daten dem SAR-Bild annähern. Dann können die Windgeschwindigkeit, die Pyknokline-Tiefe, die Phasengeschwindigkeit, die Gruppengeschwindigkeit und die Amplitude der internen Welle aus SAR-Bildern abgerufen werden, wenn eine beste Übereinstimmung zwischen simulierten Signalen und dem SAR-Bild erscheint. Die Methode wird auf einem SAR-Bild einer Szene in der Nähe der Insel Dongsha im Südchinesischen Meer getestet. Die Ergebnisse zeigen, dass das simulierte NRCS-Profil der ozeanischen internen Welle mit dem auf dem SAR-Bild mit einem Korrelationskoeffizienten von bis zu 90% gut übereinstimmt, und die Amplitude der ozeanischen internen Welle aus den SAR-Bildern ist mit den SODA-Daten vergleichbar. Außerdem stimmen die Phasengeschwindigkeiten aus anderen 16-Szenen-SAR-Bildern im Südchinesischen Meer gut mit der empirischen Formel überein, die die Beziehungen zwischen der internen Wellenphasengeschwindigkeit und der Wassertiefe beschreibt, sowohl der quadratische Mittelwert als auch der relative Fehler sind kleiner als 0,11 m∙s;-;-;-;https://link.springer.com/article/10.1007/s11707-015-0506-7 7b1bc44e15d49bac29e063d50e93b2a8;de;;;3.1.;;;Kängurus vermeiden es, Sämlinge mit oder in der Nähe von anderen mit flüchtigen ätherischen Ölen zu essen Vorläufige Studien deuten darauf hin, dass westliche graue Riesenkängurus eher Sämlinge von Nicht-Myrtaceae-Arten als Myrtaceae grasen. Sieben morphologisch übereinstimmende Artenpaare von Myrtaceae/Nicht-Myrtaceae, die an drei Feldstandorten platziert wurden, zeigten, dass Kängurus die ätherischen Öle enthaltenden Myrtaceae mieden, aber die passenden, ätherisches Öl fehlenden Nicht-Myrtaceae bereitwillig fraßen. Die einzige Ausnahme (Pittosporaceae) hatte begrenzte Pflanzenfresser und später fand man zwei ätherische Öle in ihren Blättern. Gaschromatographie und Massenspektren zeigten, dass die sieben Myrtaceae-Pflanzen zwischen 2 und 9 ätherische Öle in ihren Blättern enthalten, insbesondere das leicht flüchtige Monoterpen 2,5-Dimethyl-3-methylen-1,5-heptadin. Drei der obigen Artenpaare wurden verwendet, um ihre Wirksamkeit als Ammenpflanzen für eine sehr schmackhafte Hülsenfrucht zu messen. Pflanzen, die neben Myrtaceae-Ammenpflanzen platziert wurden, wurden weniger gegrast als diejenigen, die neben Nicht-Myrtaceae-Ammenpflanzen platziert wurden. Wir kommen zu dem Schluss, dass westliche graue Kängurus olfaktorische Hinweise verwenden, um Blätter zu vermeiden, die potenziell giftige ätherische Öle enthalten, und dass dies auch Auswirkungen auf die Rekrutierungsmuster von Sämlingen in sich regenerierenden Gemeinschaften hat.;-;-;-;https://link.springer.com/article/10.1023/B%3AJOEC.0000008008.91498.62 32958701132b93d3f5579eb3baab49ee;de;;;3.1.;;;Häufigkeitszerlegungstechnik für große archivierbare Datenbanken Für sehr große archivierbare Datenbanken wird eine Häufigkeitszerlegungstechnik vorgeschlagen. Moderne große Datenbanken, die in einer hochgradig interaktiven und reaktionsschnellen Umgebung verwendet werden sollen, sehen sich ernsthaften Leistungs- und Verfügbarkeitsproblemen gegenüber, die durch langwierige Archivierungs- und Sicherungsverfahren verursacht werden. Die vorgeschlagene Technik löst das Problem, indem sie die ursprüngliche Datenbank in eine Sammlung kleinerer, unabhängig archivierbarer Datenbanken aufteilt. Das Zerlegungsmuster basiert auf dem Frequenztrennungskriterium und bietet eine flexible und wirtschaftliche Möglichkeit, den erforderlichen Grad an Datenbankwiederherstellbarkeit und Archivierbarkeit zu erreichen. Die Prinzipien der Datenbank-Frequenzzerlegung werden vorgestellt und im Detail diskutiert. Ein numerischer Algorithmus wird vorgeschlagen, um Ressourcen zuzuweisen, die für die Implementierung der Frequenzzerlegungstechnik benötigt werden. Die quantitative Analyse des Algorithmus wird durch ein praktisches Beispiel der Zerlegung eines großen Dateimanagementsystems veranschaulicht. In diesem Beitrag wird auch ein adaptives Verfahren vorgestellt, das das Wachstum und die dynamische Umstrukturierung der zerlegten Struktur steuert. Notwendige Modifikationen der logischen Organisation der Datenbank und der Zugriffsmechanismen werden ebenfalls berücksichtigt.;-;-;-;https://link.springer.com/article/10.1007/BF00977831 08d77d0aeca5696fd41b8cfb67f7cf06;de;;;3.1.;;;Klassifizierung von HIV-I-vermittelten neuronalen dendritischen und synaptischen Schäden unter Verwendung mehrerer Kriterien linearer Programmierung Die Fähigkeit, neuronale Schäden in der dendritischen Welle während einer HIV-1-assoziierten Demenz (HAD) zu identifizieren, ist entscheidend für die Entwicklung spezifischer Therapien für die Behandlung von HAD. Um diesen Prozess zu untersuchen, verwendeten wir eine computerbasierte Bildanalysemethode, um das virale HIV-1-Protein gp120 und die Glutamat-vermittelte individuelle neuronale Schädigung in kultivierten kortikalen Neuronen quantitativ zu bewerten. Veränderungen der Anzahl von Neuriten, Dornen, Verzweigungsknoten, Zellkörperfläche und durchschnittlichen Dornlängen wurden bestimmt und eine Datenbank gebildet (http://dm.ist.unomaha.edu/database.htm). Wir haben außerdem ein Zweiklassenmodell der linearen Programmierung mit mehreren Kriterien (MCLP) vorgeschlagen, um solche HIV-1-vermittelten neuronalen dendritischen und synaptischen Schäden zu klassifizieren. Bei bestimmten Klassen, einschließlich Behandlungen mit Brain-Derived Neurotrophic Factor (BDNF), Glutamat, gp120 oder Kontrollen ohne Behandlung aus unseren in-vitro-Versuchssystemen, haben wir das Zweiklassen-MCLP-Modell verwendet, um die Datenmuster zwischen den Klassen zu bestimmen und Einblicke in neuronale dendritische Schäden. Dieses Wissen kann im Prinzip auf die Entwicklung und Erforschung spezifischer Therapien zur Vorbeugung oder Umkehrung von neuronalen Schäden im Zusammenhang mit HAD angewendet werden. Schließlich wurde die MCLP-Methode mit einem bekannten künstlichen neuronalen Netzwerkalgorithmus verglichen, um das relative Potenzial verschiedener Data-Mining-Anwendungen in der HAD-Forschung zu testen.;-;-;-;https://link.springer.com/article/10.1385/NI%3A2%3A3%3A303 545aba69667ab444087fd5308ccbed1f;de;;;3.1.;;;Ein PSO-basierter hybrider Mehrzielalgorithmus für Mehrzieloptimierungsprobleme Dieses Papier schlägt einen PSO-basierten hybriden Mehrzielalgorithmus (HMOPSO) mit den folgenden drei Hauptmerkmalen vor. Zunächst verwendet das HMOPSO den Crossover-Operator des genetischen Algorithmus als Partikel-Aktualisierungsstrategie. Zweitens wird ein Verbreitungsmechanismus verwendet, um das nicht dominierte Archiv zu verbreiten. Drittens wird eine lokale Suchheuristik basierend auf einer Streuungssuche angewendet, um die nicht dominierten Lösungen zu verbessern. Eine Computerstudie zeigt, dass der HMOPSO mit früheren Multi-Ziel-Algorithmen in der Literatur konkurrenzfähig ist.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-21524-7_4 9498dc254bc57677d13983bf27cbe84e;de;;;3.1.;;;Statistische Schätzung der hochauflösenden Oberflächenlufttemperatur von MODIS über dem Jangtse-Delta, China Hochauflösende Daten zur Oberflächenlufttemperatur sind für die regionale Klimamodellierung in Bezug auf Energiebilanz, städtische Klimaänderung usw. von entscheidender Bedeutung. Diese Studie demonstriert die Machbarkeit der Verwendung des Moderate Resolution Imaging Spectroradiometer (MODIS) der Landoberflächentemperatur (LST) zur Schätzung der Lufttemperatur mit hoher Auflösung über der Region des Jangtse-Deltas in China. Es wurde festgestellt, dass die Tages-LST stark mit der maximalen Lufttemperatur korreliert und die linearen Regressionskoeffizienten mit der Art der Landoberfläche variieren. Die Lufttemperatur mit einer Auflösung von 1 km wird aus dem MODIS LST mit linearen Regressionsmodellen geschätzt. Die geschätzte Lufttemperatur zeigt eine klare räumliche Struktur städtischer Wärmeinseln. Räumliche Muster von LST- und Lufttemperaturunterschieden werden erkannt, die auf maximale Unterschiede über Stadt- und Waldregionen im Sommer hinweisen. Validierungen werden mit unabhängigen Datenproben durchgeführt, die zeigen, dass der mittlere absolute Fehler der geschätzten Lufttemperatur ungefähr 2,5 °C beträgt und die Unsicherheit ungefähr 3,1 °C beträgt, wenn alle gültigen LST-Daten verwendet werden. Der Fehler wird um 0,4 °C (15 %) reduziert, wenn LST bester Qualität mit Fehlern von weniger als 1 K verwendet wird. Die geschätzten hochauflösenden Lufttemperaturdaten haben ein großes Potenzial für die Validierung hochauflösender Klimamodelle und anderer regionaler Anwendungen.;-;-;-;https://link.springer.com/article/10.1007/s13351-017-6073-y aaf00b65a888bab7786d39677168eb7b;de;;;3.1.;;;Kein Leben ohne Tod – Apoptose als Voraussetzung für die T-Zell-Aktivierung Der orchestrierte Tod infizierter Zellen ist der Schlüssel zum Verständnis der CD8-T-Zell-Aktivierung gegen Krankheitserreger. Die meisten intrazellulären Bakterien, einschließlich;-;-;-;https://link.springer.com/article/10.1007/s10495-005-2940-6 fb55022c89b1257cfb098649d017a99c;de;;;3.1.;;;Der Exkretionsapparat Der Exkretionsapparat ist in den für die Leistung kennzeichnenden Elementen mesodermaler Herkunft. In ihm sind in kunstvoller Zusammenfügung kanalisierte Mesodermabkömmlinge zweierlei Art vereint, die Harnkanälchen und die Blutgefäße, während Bindegewebe an Menge im Nierenaufbau sehr zurücktritt. Im eigentlichen Exkretionsorgan, der Niere, WIRD sterben Hauptleistung des Apparates, sterben Harnbereitung vollzogen, Wenngleich Auch sterben Abführwege Noch Auf sterben Harnzusammensetzung Einfluss nehmen und insbesondere Durch Wasseraufsaugung Wesentliche Spararbeit für den Organismus leisten.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-48021-8_1 28e1bd17ba23c54df88e9bccf104bb08;de;;;3.1.;;;Vergleich der Beziehungen mit einer Region mit mehreren Löchern Relationsmodelle haben Relationen von Regionen mit mehreren Löchern entweder genauso behandelt wie Relationen von lochfreien Regionen, wobei die Besonderheiten der gelochten Topologie verloren gingen, oder mit Methoden, die von der Anzahl der Löcher abhängen. Dieses Papier diskutiert ein Modell der Beziehungen zwischen einer lochfreien und einer mehrlochreichen Region, das von früheren Ansätzen abweicht, indem die Häufigkeiten der Beziehungen verwendet werden, an denen die Löcher beteiligt sind, um die Beziehung zusammenzufassen. Das Modell ist unabhängig von der Anzahl der Löcher und baut auf den 23 topologischen Beziehungen zwischen einem lochfreien und einem einlochigen Bereich auf. Mit Hilfe eines ausgewogenen Algorithmus wird das Relationsmodell in einem Verfahren verwendet, das Relationen auf ihre topologische Ähnlichkeit vergleicht, indem die Kosten für die Transformation einer Relation in die andere berechnet werden. Für Ähnlichkeitsvergleiche hat sich herausgestellt, dass die Anordnung der Löcher in Bezug auf den lochfreien Bereich genauso wichtig ist wie die Anordnung des Wirts der Löcher.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-03832-7_10 baaa884226fca8262865d0c97dd68b50;de;;;3.1.;;;Migration über die Alpen Klima und Lebensraum in den Alpen werden durch die Höhenlage bestimmt. Eine Höhenänderung von 200 m entspricht einer Temperaturverschiebung von 1° oder einer N-S-Verschiebung in den Vegetationszonen von etwa 200 km. Reiche Laubwälder und Feuchtgebiete sind selten. Ein Vogel, der in den Alpen rastet, muss niedrige Temperaturen, verstärkt durch Windchill, und bedeutende Temperaturschwankungen ertragen. Auf der Luvseite der Alpenhauptketten nehmen Häufigkeit und Niederschlagsmenge zu. In den Trockentälern zwischen den Ketten treten begrenzte Flächen der Mittelmeer- und Steppenvegetation auf. Für Migranten auf Zwischenstopps ist die Chance auf raue Bedingungen und ungeeignete Lebensräume im Vergleich zum Tiefland erhöht. Andererseits können in den Alpen lokal bessere Bedingungen durch die Verzögerung der Vegetationsphänologie und Insektenverfügbarkeit sowie durch das trockenere Klima in einigen Tälern geboten werden. Einige Migranten, die Samen von Nadelbäumen bevorzugen, finden in den subalpinen Wäldern möglicherweise optimale Bedingungen.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-74542-3_5 f67eddf5ddd09e452321d3df507e5fd4;de;;;3.1.;;;Zur Ätiologie der Retinitis exsudativa externa centralis (Rieger) Eingangs wird das vom Verf. 1937/39 erstmalse Zustandsbild der Retinitis exsudativa externa centralis erneut beschrieben und das den Zusammenhang dieser Erkrankung mit der beschriebenen Toxoplasmose des Erwachsenen kurz dargestellt. Sodann wird über 50 unausgelesene eigene Fälle berichtet: 2% dieser Beobachtungen wiesen einen negativen Sa-Feldman-Test auf, in 14% der Fälle verlief of this with a Titer of 1:4, in 84% with a that of 1:16 1:1.024 positiv. Als Ergebnis der klinischen Durchuntersuchung Werden sterben Beobachtungen nach dem Ausfall der Mantoux-Reaktion auf humanes und bovines Tuberkulin und nach dem Bestehen einer chronischen Tonsillitis aufgegliedert und sterben klinischer Bedeutung der erhobenen Befunde eingehend wann immer diese Bedeutung von Vorschäden kommen dürfte. Auf die bemerkenswerten Beziehungen zwischen den annahmegemäß toxoplasmogenen Augenerkrankungen und der chronischen Tonsillitis wird besonders verwiesen. Als Ursache der Retinitis exsudativa externa centralis kämen gelegentlich von Streuungen auftretende Erregerembolien in dem Capillarnetz des maculanahen Netzhautgebietes in Frage, sterben in erster Linie auf Toxoplasmen zu beziehen sind. Beenden Werden sterben für sterben toxoplasmosespezifische Ätiologie des untersuchten Zustandsbildes sprechenden Beweisgründe zusammengefaßt. Nach diesen stellt die Retinitis exsudativa externa centralis (;-;-;-;https://link.springer.com/article/10.1007/BF00682420 2bf750804ad03c34f0e9ad81d7e2f2fc;de;;;3.1.;;;Unterernährung Angesichts der Lebensmittelvielfalt, die die Supermärkte der westlichen Welt überflutet, sollte ein Kapitel über Mangelernährung in einem modernen Lehrbuch der Pathologie überholt werden. Die meisten offensichtlichen Ernährungsmängel wurden in Europa und Nordamerika zwar erfolgreich beseitigt. Allerdings plagen eklatante Protein- und Vitaminmängel weiterhin große Teile der Weltbevölkerung, und selbst in einigen westlichen Ländern gibt es weiterhin subtile Formen von Mineral- und Vitaminmangel. Darüber hinaus sind aufgrund des Fortschritts in der Lebensmitteltechnologie einige der ältesten Krankheiten, die aus einem Ernährungsungleichgewicht (Adipositas und Arteriosklerose) resultieren, häufiger geworden, und es sind neue Ernährungsprobleme entstanden.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-65967-6_4 fdba1fd711c8c20d21f740259ce71b79;de;;;3.1.;;;Automatisierte Analyse des menschlichen Verhaltens aus Überwachungsvideos: eine Umfrage Mit steigenden Kriminalitätsraten in der heutigen Welt besteht ein entsprechendes Bewusstsein für die Notwendigkeit, auffällige Aktivitäten zu erkennen. Die Automatisierung abnormaler menschlicher Verhaltensanalysen kann eine bedeutende Rolle bei der Sicherheit spielen, indem die Zeit verkürzt wird, um unerwünschte Ereignisse zu vereiteln und sie während der Verdachtsphase selbst aufzuspüren. Mit Fortschritten in der Technologie können Überwachungssysteme automatisierter als manuell werden. Die Analyse des menschlichen Verhaltens ist zwar entscheidend, aber sehr herausfordernd. Das Verfolgen und Erkennen von Objekten und menschlichen Bewegungen aus Überwachungsvideos, gefolgt von der automatischen Zusammenfassung der Inhalte, ist zu einem heißen Forschungsthema geworden. Viele Forscher haben durch Erkennungs-, Klassifizierungs- und Verfolgungsalgorithmen zum Bereich der automatisierten Videoüberwachung beigetragen. Frühere Forschungsarbeiten reichen für eine umfassende Analyse des menschlichen Verhaltens nicht aus. Mit der Einführung der Semantik kann der Kontext einer Überwachungsdomäne hergestellt werden. Eine solche Semantik kann Überwachungssysteme erweitern, um eine für die Domäne relevante ereignisbasierte Verhaltensanalyse durchzuführen. Dieser Beitrag präsentiert einen Überblick über die Forschung zur Analyse des menschlichen Verhaltens mit dem Ziel, die Fähigkeiten der modernsten Methoden mit besonderem Fokus auf semantisch erweiterter Analyse zu analysieren.;-;-;-;https://link.springer.com/article/10.1007/s10462-012-9341-3 02f88961c79c3728a9e5b44225e666d0;de;;;3.1.;;;Saisonale Variation der optischen Eigenschaften von säulenförmigen Aerosolen im Jangtse-Delta in China Um die jahreszeitlichen Schwankungen der optischen Aerosoleigenschaften im Jangtse-Delta zu verstehen, wurden von September 2005 bis Dezember 2009 in Taihu, China, 5 Jahre Messungen durchgeführt. Die monatlichen Mittelwerte der optischen Aerosoltiefe betrugen üblicherweise >0,6, das maximale saisonale Mittel (0,93) trat im Sommer auf. Die Magnitude des Ångström-Exponenten war das ganze Jahr über hoch, die höchsten Werte traten im Herbst auf (1,33) und waren die niedrigsten im Frühjahr (1,08). Die feinen Modi der Volumengrößenverteilung zeigten die Maxima (Peaks) bei einem Radius von ∼0,15 µm im Frühjahr, Herbst und Winter, bei einem Radius von ∼0,22 µm im Sommer. Die Grobmoden zeigten die Maxima (Peaks) bei einem Radius von 2,9 µm im Frühjahr, Sommer und Herbst und bei einem Radius von 3,8 µm im Winter. Die Mittelwerte der einfach streuenden Albedo betrugen 0,92 (Frühling), 0,92 (Sommer), 0,91 (Herbst) und 0,88 (Winter). Die durchschnittlichen Asymmetriefaktoren waren im Sommer größer als zu anderen Jahreszeiten, sie wurden mit 0,66 bei 440–1020 nm über Taihu angenommen. Der Realteil des Brechungsindex zeigte eine schwache jahreszeitliche Variation mit Durchschnittswerten von 1,48 (Frühling), 1,43 (Sommer), 1,45 (Herbst) und 1,48 (Winter). Die imaginären Anteile des Brechungsindex waren im Winter (0,013) höher als im Frühjahr (0,0076), Sommer (0,0092) und Herbst (0,0091), was darauf hindeutet, dass die Atmosphäre im Winter eine höhere Absorptionsfähigkeit hatte.;-;-;-;https://link.springer.com/article/10.1007/s00376-011-0158-9 ec13e97d845946a6b0d935d9d5139a6e;de;;;3.1.;;;Ein neuartiges Verfahren zur direkten anonymen Bestätigung mit sicherer Zwei-Parteien-Berechnung Direct Anonymous Attestation (DAA) ist ein kryptografisches Schema, das die Remote-Authentifizierung einer vertrauenswürdigen Plattform ermöglicht und gleichzeitig die Privatsphäre unter der Kontrolle des Benutzers bewahrt. In Bezug auf den Aufbau von DAA schlagen wir aufgrund der begrenzten Rechen- und Speicherfähigkeit des Trusted Platform Module (TPM) in diesem Papier einen neuartigen Ansatz zum Aufbau eines effizienten DAA-Schemas vor: Join/Issue-Protokoll der DAA und konstruieren das DAA-Schema konkret;-;-;-;https://link.springer.com/chapter/10.1007/978-3-642-53959-6_20 a9d6c8b749eed5b9b9102c90d9ea9fc7;de;;;3.1.;;;Räumlich-zeitliche Analyse mit der selbstorganisierenden Feature Map Probleme bei der räumlich-zeitlichen Mustererkennung sind eine besondere Herausforderung. Sie beinhalten typischerweise das Erkennen von Veränderungen, die im Laufe der Zeit in zweidimensionalen Mustern auftreten. Für zeitliche Daten entwickelte Analysetechniken müssen die räumlichen Beziehungen zwischen den Datenpunkten berücksichtigen. Zur Analyse räumlicher Daten wurde ein künstliches neuronales Netz verwendet, das als Self-Organizing Feature Map (SOM) bekannt ist. Dieses Papier untersucht weiter die Verwendung des SOM mit raum-zeitlicher Mustererkennung. Die Prinzipien der zweidimensionalen SOM werden zu einem neuartigen dreidimensionalen Netzwerk entwickelt und Experimente zeigen, dass (i) das dreidimensionale Netzwerk eine bessere topologische Ordnung bietet und (ii) es einen Unterschied in Bezug auf die räumlich-zeitliche Analyse gibt das kann mit dem dreidimensionalen Netzwerk gemacht werden.;-;-;-;https://link.springer.com/article/10.1007/PL00011647 abf9a8c3af6e9e18ac31fdb3ffe59786;de;;;3.1.;;;Etüde phytosociologique des Savanes de basse Elfenbeinküste (Savanes laguñaires) L'étude phytosociologique de savanes lagunaires de la Basse Côte d'Ivoire nous a permis de distinguer deux groupes de savanes, les savanes sèches, les plus majores und les savanes humides ou helophytiques beaucoup plus réduites.;-;-;-;https://link.springer.com/article/10.1007/BF00301296 fda7502d8128ce6b45678b698809ca9e;de;;;3.1.;;;Intraretinale Schichtsegmentierung und Parametermessung in der Sehnervenkopfregion durch Energiefunktion der räumlichen Gradientenkontinuitätsbeschränkung Für die Glaukomdiagnostik ist die optische Kohärenztomographie (OCT) ein nichtinvasives bildgebendes Verfahren zur Beurteilung von Netzhautschichten. Um intraretinale Schichten in einer Sehnervenkopfregion (ONH) genau zu segmentieren, haben wir ein automatisches Verfahren zur Segmentierung von drei intraretinalen Schichten in Augen-OCT-Scans mit Fokus auf ONH vorgeschlagen. Die innere Grenzmembran, das innere Segment und das äußere Segment, Bruch-Membranoberflächen unter Gefäßschatten und die Interaktion mehrerer hochreflektiver Regionen im OCT-Bild können mit dieser Methode genau segmentiert werden. Dann konstruierten wir eine neuartige räumliche Gradientenkontinuitätsbeschränkung, die als räumliche Gradientenkontinuitätsbeschränkung bezeichnet wird, zur Korrektur der Diskontinuität zwischen benachbarten Bildsegmentierungsergebnissen. In unserem Experiment haben wir zufällig 20 B-Scans ausgewählt, die jeweils drei Netzhautschichten von Experten annotiert haben. Vorzeichenbehaftete Abstandsfehler von –0,80 μm, die durch dieses Verfahren erhalten werden, sind geringer als diejenigen, die durch das Verfahren nach dem Stand der Technik erhalten werden (–1,43 μm). Inzwischen können die Segmentierungsergebnisse als Grundlage für die Diagnose des Glaukoms verwendet werden.;-;-;-;https://link.springer.com/article/10.1007/s11771-018-3884-7 0fb269322664b80ab0d90a4bed5fc2e4;de;;;3.1.;;;Auto-Tagging von Textdokumenten in XML In diesem Beitrag stellen wir ein neuartiges System vor, das Textdokumente automatisch in XML umwandelt, indem es Informationen aus zuvor gekennzeichneten XML-Dokumenten extrahiert. Das System verwendet den Lernalgorithmus Selbstorganisierende Karte (SOM), um markierte Dokumente auf einer zweidimensionalen Karte so anzuordnen, dass nahegelegene Orte ähnliche Dokumente enthalten. Es verwendet dann den induktiven Lernalgorithmus C5.0, um automatisch Auto-Tagging-Regeln aus den nächsten SOM-Nachbarn eines ungetaggten Dokuments zu extrahieren und anzuwenden. Das System ist anpassungsfähig, sodass ein Dokument, das in XML mit Tags versehen ist, aus seinen Fehlern lernt, um die Genauigkeit zu verbessern. Die automatisch gekennzeichneten Dokumente können auf dem SOM kategorisiert werden, wodurch die Auflösung der Karte weiter verbessert wird. Auf unserem System wurden verschiedene Experimente mit Dokumenten aus verschiedenen Bereichen durchgeführt. Die Ergebnisse zeigen, dass unser Ansatz mit beeindruckender Genauigkeit gut funktioniert.;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-39398-6_4 1dae4add657f3ed17665e0c854e13c03;de;;;3.1.;;;Farbbildanalyse zur Einstufung von Farbnuancen und deren Anwendung zur Quantifizierung gefärbter Gewebe In diesem Papier wird ein Ansatz vorgestellt, um den verschiedenen Schattierungen einer bestimmten Farbe Bewertungen zuzuweisen, basierend darauf, wie nahe der Farbton der reinen Farbe ist. Dies kann verwendet werden, um die Färbungen zu quantifizieren, die die Dichte der untersuchten Substanz in einem histologischen Gewebeschnitt darstellen. Wir entwickelten den Algorithmus basierend auf dem YC;-;-;-;https://link.springer.com/chapter/10.1007/978-3-540-69139-6_42 c11f9aea73a55e5536ed3db604d9a6e8;de;;;3.1.;;;Anomale Zirkulationsmuster in Verbindung mit zwei Arten von täglichen Niederschlagsextremen über Südostchina im borealen Sommer Basierend auf den täglichen Niederschlagsdaten der China Meteorological Administration, den Best-Track-Daten des tropischen Wirbelsturms (TC) der Japan Meteorological Agency und den NCEP-NCAR-Reanalysedaten der NOAA wurden regionale mittlere tägliche Niederschlagsextreme (RDPE) über Südostchina (insbesondere der Fujian-Jiangxi-Region (FJR)) und die damit verbundenen Zirkulationsanomalien werden untersucht. Für die Sommer 1979–2011 werden insgesamt 105 RDPE-Ereignisse identifiziert, davon 35 TC-beeinflusste (TCIn-RDPE) und 70 TC-freie Ereignisse (TCFr-RDPE). Deutliche Unterschiede zwischen diesen beiden Arten von RDPEs finden sich sowohl in ihren statistischen Merkmalen als auch in den damit verbundenen Umlaufmustern. TCFr-RDPEs treten normalerweise im Juni auf, während TCIn-RDPEs hauptsächlich von Juli bis August stattfinden. Wenn TCFr-RDPEs auftreten, wird ein Zentrum der anormalen zyklonalen Zirkulation über dem FJR beobachtet, mit einer anormalen antizyklonalen Zirkulation südlich dieser Region. Die warmen/feuchten Luftströme aus dem Südchinesischen Meer (SCS) und dem westlichen Pazifik treffen auf kältere Luft aus dem Norden und bilden einen schmalen konvergenten Wasserdampfgürtel über dem FJR. Gleichzeitig werden positive diabatische Antriebsanomalien über dem FJR beobachtet, während negative Anomalien sowohl auf der Süd- als auch auf der Nordseite auftreten, was die Bildung und Aufrechterhaltung der zyklonischen Zirkulationsanomalie sowie die Aufwärtsbewegung der Atmosphäre über dem FJR erleichtert. Wenn TCIn-RDPEs auftreten, wird Südostchina von einer TC-bedingten stärkeren anomalen Zyklonzirkulation dominiert. Im Gegensatz zu TCFr-RDPE-Ereignissen besteht in der mittleren und oberen Troposphäre eine anomale antizyklonische Zirkulation in den mittleren und hohen Breiten nördlich des FJR. Sowohl vom Indischen Ozean als auch vom SCS wird reichlich warme/feuchte Luft in den FJR geleitet, was zu einer großen Menge an latenter Wärmefreisetzung über dem FJR führt und dort eine starke aufsteigende Bewegung induziert. Darüber hinaus finden sich auch große Unterschiede in der Manifestation der Rossby-Wellenenergieausbreitung zwischen diesen beiden Arten von RDPE-Ereignissen. Die Ergebnisse dieser Studie sind hilfreich, um unser Verständnis der Mechanismen hinter diesen beiden Arten von RDPE-Ereignissen zu vertiefen.;-;-;-;https://link.springer.com/article/10.1007/s13351-016-5070-x 612916b011d2727eb415ea2b35ded179;de;;;3.1.;;;Ökologische Untersuchungen über die Terrestrische Arthropodenfauna im Anwurf Mariner Algen In künstlichem Strandanwurf wurde während vier jeweils ein Jahr lang laufender Versuchsserien die Arthropodenbesiedlung verfolgt. Jeweils zwei Serien begannen im Frühsommer und im Frühwinter. In 791 Terminproben (in zweiwöchigen transportiert) wurden 68000 Diptera, 122000 Collembola und 161000 Acari gesammelt. Die Collembolen und Dipteren konnten schnell sämtlich bis zur Art bestimmt werden, während sterben Milben leider nur in ihrer Gesamtheit zahlenmäßig gewinnen konnten.;-;-;-;https://link.springer.com/article/10.1007/BF00407476 e01694cecc2b98df20c1a69610f32ba2;de;;;3.1.;;;Franco Montagnas Arbeit über Beweisbarkeitslogik und vielwertige Logik Franco Montagna, ein prominenter Logiker und einer der Leiter der italienischen Schule für mathematische Logik, ist am 18. Februar 2015 verstorben. Wir betrachten einige seiner Ergebnisse und Ideen in den beiden Disziplinen, die er während seiner Karriere maßgeblich beigetragen hat: Beweisbarkeitslogik und viele -wertige Logik.;-;-;-;https://link.springer.com/article/10.1007/s11225-016-9654-3